Quase metade dos trabalhadores admite estar usando a IA do jeito errado
Cerca de 63% dos trabalhadores já viram colegas usando IA de forma indevida, segundo uma nova pesquisa

Você já usou o ChatGPT para rascunhar um e-mail de trabalho? E para resumir um relatório, pesquisar algum assunto ou analisar dados numa planilha? Se sim, pode fica tranquilo – você não está sozinho.
As ferramentas de inteligência artificial estão mudando rapidamente o mundo do trabalho. Um estudo global com mais de 32 mil trabalhadores de 47 países (incluindo o Brasil) mostrou que 58% já usam IA no trabalho de forma intencional.
A maioria das pessoas que faz uso desses recursos relata ter ganhado em produtividade e desempenho. Mas um número preocupante de pessoas vem fazendo mau uso da IA ou adotando práticas arriscadas, como partilhar informações sensíveis em ferramentas públicas, confiar cegamente nas respostas sem conferir e até esconder que fez uso da IA.
Já é hora de criar políticas, treinar os funcionários e estabelecer regras para garantir que a IA ajude – em vez de atrapalhar – o trabalho.
A pesquisa entrevistou trabalhadores de todos os continentes e de várias profissões. A maior parte dos entrevistados relatou melhorias no desempenho com o uso da IA no trabalho, incluindo:
- mais eficiência (67%)
- acesso mais fácil a informações (61%)
- mais inovação (59%)
- melhor qualidade do trabalho (58%)
As ferramentas de IA generativa mais comuns, como o ChatGPT, são de longe as mais usadas. Cerca de 70% preferem usar ferramentas públicas e gratuitas, em vez das soluções oferecidas pela própria empresa (42%).
O problema é que quase metade das pessoas que usam IA no trabalho (47%) admitiu ter feito isso de forma que pode ser considerada inadequada. E um percentual ainda maior (63%) afirma já ter visto colegas fazendo mau uso da IA.
INFORMAÇÕES SENSÍVEIS
Um dos aspectos mais críticos sobre o uso de IA no ambiente de trabalho é o manuseio de informações sensíveis, com dados financeiros, de vendas ou de clientes.
Quase metade (48%) dos funcionários já inseriu informações confidenciais da empresa ou de clientes em ferramentas públicas de IA generativa e 44% admitiram ter usado IA de um jeito que vai contra as regras da empresa. Outros estudos mostram que 27% do conteúdo inserido por funcionários em ferramentas de IA é sensível.
CONFERIR ANTES DE CONFIAR
O uso da IA sem os devidos cuidados também é comum: 66% dos entrevistados disseram que já confiaram nas respostas da IA sem avaliar se estavam certas. Não é de surpreender que a maioria (56%) tenha cometido erros no trabalho por causa disso.
Os funcionários mais jovens (entre 18 e 34 anos) são os que mais usam IA de forma inadequada ou sem cuidado, em comparação com os mais velhos (35 anos ou mais). Cerca de um terço (35%) dos trabalhadores acredita que o mau uso de IA aumentou os riscos de invasão de privacidade e de descumprimento de normas.
Isso representa um risco real, tanto para as empresas quanto para os próprios funcionários. Já aconteceram casos bem conhecidos de prejuízos financeiros, de danos à reputação e até de vazamento de dados por conta disso.
FALTA DE TRANSPARÊNCIA
Quando os funcionários não têm clareza sobre como devem usar a tecnologia, os riscos ficam ainda mais difíceis de controlar. A maioria evita contar quando usou (61%), apresenta conteúdos gerados por IA como se fossem seus (55%), além de usar essas ferramentas sem saber se são permitidas (66%).
Esse uso invisível, ou essa “IA nas sombras”, não só aumenta os riscos como também dificulta muito a capacidade da empresa de identificar, controlar e reduzir esses problemas.
Falta de treinamento, de orientações e de regras claras parecem estar por trás desse mau uso da IA. Apesar da adoção cada vez maior, só um terço dos funcionários (34%) diz que a empresa tem alguma política para orientar o uso de IA generativa. E 6% dizem que a empresa simplesmente proíbe o uso.
A pressão para adotar a tecnologia também pode estar contribuindo para o mau uso da IA: metade dos entrevistados disse ter medo de ficar para trás se não usar essas ferramentas.
TREINAMENTO E SUPERVISÃO
Coletivamente, nossas descobertas revelam uma lacuna significativa na governança de ferramentas de IA e uma necessidade urgente de que as organizações orientem e gerenciem como os funcionários as utilizam. Enfrentar esse desafio exigirá uma abordagem intencional e proativa.
Investir em treinamento responsável e alfabetização em IA para os funcionários é essencial. Nossa modelagem mostra que a alfabetização em IA – incluindo treinamento, conhecimento e eficácia – prediz não apenas se os funcionários adotam ferramentas de IA, mas também se eles as utilizam de forma crítica.
Descobrimos que a alfabetização em IA também está associada a uma maior confiança no uso da tecnologia no ambiente de trabalho e a melhor desempenho por conta de seu uso. Apesar disso, menos da metade dos funcionários (47%) afirma ter recebido treinamento ou educação relacionada à IA.
As organizações também precisam implementar políticas, diretrizes e limites claros, sistemas de responsabilidade e supervisão, além de medidas de privacidade e segurança de dados. Há muitos recursos disponíveis para ajudar as organizações a desenvolver sistemas robustos de governança de IA e a apoiar o uso responsável dessas tecnologias.
A CULTURA CERTA CONTRA O MAU USO DA IA
Além disso tudo, é super importante criar um ambiente de trabalho psicologicamente seguro, onde as pessoas se sintam à vontade para contar quando e como estão usando inteligência artificial.
Os benefícios de uma cultura assim vão além de uma supervisão melhor e da redução de riscos. Ela também é essencial para criar um ambiente de aprendizado e inovação, onde o uso responsável da IA possa crescer de forma saudável.
A IA tem um potencial enorme para melhorar o modo como trabalhamos. Mas, para isso acontecer, é preciso uma equipe preparada, boas regras, orientações claras e uma cultura que apoie o uso seguro, transparente e responsável. Sem esses ingredientes, a IA vira só mais um risco mal administrado.
Este artigo foi republicado do "The Conversation" sob licença Creative Commons. Leia o artigo original