Quase metade dos trabalhadores admite estar usando a IA do jeito errado

Cerca de 63% dos trabalhadores já viram colegas usando IA de forma indevida, segundo uma nova pesquisa

Crédito: Solen Feyissa/ Unsplash

Nicole Gillespie e Steven Lockey 5 minutos de leitura

Você já usou o ChatGPT para rascunhar um e-mail de trabalho? E para resumir um relatório, pesquisar algum assunto ou analisar dados numa planilha? Se sim, pode fica tranquilo – você não está sozinho.

As ferramentas de inteligência artificial estão mudando rapidamente o mundo do trabalho. Um estudo global com mais de 32 mil trabalhadores de 47 países (incluindo o Brasil) mostrou que 58% já usam IA no trabalho de forma intencional.

A maioria das pessoas que faz uso desses recursos relata ter ganhado em produtividade e desempenho. Mas um número preocupante de pessoas vem fazendo mau uso da IA ou adotando práticas arriscadas, como partilhar informações sensíveis em ferramentas públicas, confiar cegamente nas respostas sem conferir e até esconder que fez uso da IA.

Já é hora de criar políticas, treinar os funcionários e estabelecer regras para garantir que a IA ajude – em vez de atrapalhar – o trabalho.

A pesquisa entrevistou trabalhadores de todos os continentes e de várias profissões. A maior parte dos entrevistados relatou melhorias no desempenho com o uso da IA no trabalho, incluindo:

  • mais eficiência (67%)
  • acesso mais fácil a informações (61%)
  • mais inovação (59%)
  • melhor qualidade do trabalho (58%)

As ferramentas de IA generativa mais comuns, como o ChatGPT, são de longe as mais usadas. Cerca de 70% preferem usar ferramentas públicas e gratuitas, em vez das soluções oferecidas pela própria empresa (42%).

O problema é que quase metade das pessoas que usam IA no trabalho (47%) admitiu ter feito isso de forma que pode ser considerada inadequada. E um percentual ainda maior (63%) afirma já ter visto colegas fazendo mau uso da IA.

INFORMAÇÕES SENSÍVEIS

Um dos aspectos mais críticos sobre o uso de IA no ambiente de trabalho é o manuseio de informações sensíveis, com dados financeiros, de vendas ou de clientes.

Quase metade (48%) dos funcionários já inseriu informações confidenciais da empresa ou de clientes em ferramentas públicas de IA generativa e 44% admitiram ter usado IA de um jeito que vai contra as regras da empresa. Outros estudos mostram que 27% do conteúdo inserido por funcionários em ferramentas de IA é sensível.

CONFERIR ANTES DE CONFIAR

O uso da IA sem os devidos cuidados também é comum: 66% dos entrevistados disseram que já confiaram nas respostas da IA sem avaliar se estavam certas. Não é de surpreender que a maioria (56%) tenha cometido erros no trabalho por causa disso.

Os funcionários mais jovens (entre 18 e 34 anos) são os que mais usam IA de forma inadequada ou sem cuidado, em comparação com os mais velhos (35 anos ou mais). Cerca de um terço (35%) dos trabalhadores acredita que o mau uso de IA aumentou os riscos de invasão de privacidade e de descumprimento de normas.

Isso representa um risco real, tanto para as empresas quanto para os próprios funcionários. Já aconteceram casos bem conhecidos de prejuízos financeiros, de danos à reputação e até de vazamento de dados por conta disso.

FALTA DE TRANSPARÊNCIA

Quando os funcionários não têm clareza sobre como devem usar a tecnologia, os riscos ficam ainda mais difíceis de controlar. A maioria evita contar quando usou (61%), apresenta conteúdos gerados por IA como se fossem seus (55%), além de usar essas ferramentas sem saber se são permitidas (66%).

Esse uso invisível, ou essa “IA nas sombras”, não só aumenta os riscos como também dificulta muito a capacidade da empresa de identificar, controlar e reduzir esses problemas.

Falta de treinamento, de orientações e de regras claras parecem estar por trás desse mau uso da IA. Apesar da adoção cada vez maior, só um terço dos funcionários (34%) diz que a empresa tem alguma política para orientar o uso de IA generativa. E 6% dizem que a empresa simplesmente proíbe o uso.

A pressão para adotar a tecnologia também pode estar contribuindo para o mau uso da IA: metade dos entrevistados disse ter medo de ficar para trás se não usar essas ferramentas.

TREINAMENTO E SUPERVISÃO

Coletivamente, nossas descobertas revelam uma lacuna significativa na governança de ferramentas de IA e uma necessidade urgente de que as organizações orientem e gerenciem como os funcionários as utilizam. Enfrentar esse desafio exigirá uma abordagem intencional e proativa.

Investir em treinamento responsável e alfabetização em IA para os funcionários é essencial. Nossa modelagem mostra que a alfabetização em IA – incluindo treinamento, conhecimento e eficácia – prediz não apenas se os funcionários adotam ferramentas de IA, mas também se eles as utilizam de forma crítica.

Descobrimos que a alfabetização em IA também está associada a uma maior confiança no uso da tecnologia no ambiente de trabalho e a melhor desempenho por conta de seu uso. Apesar disso, menos da metade dos funcionários (47%) afirma ter recebido treinamento ou educação relacionada à IA.

As organizações também precisam implementar políticas, diretrizes e limites claros, sistemas de responsabilidade e supervisão, além de medidas de privacidade e segurança de dados. Há muitos recursos disponíveis para ajudar as organizações a desenvolver sistemas robustos de governança de IA e a apoiar o uso responsável dessas tecnologias.

A CULTURA CERTA CONTRA O MAU USO DA IA

Além disso tudo, é super importante criar um ambiente de trabalho psicologicamente seguro, onde as pessoas se sintam à vontade para contar quando e como estão usando inteligência artificial.

Os benefícios de uma cultura assim vão além de uma supervisão melhor e da redução de riscos. Ela também é essencial para criar um ambiente de aprendizado e inovação, onde o uso responsável da IA possa crescer de forma saudável.

A IA tem um potencial enorme para melhorar o modo como trabalhamos. Mas, para isso acontecer, é preciso uma equipe preparada, boas regras, orientações claras e uma cultura que apoie o uso seguro, transparente e responsável. Sem esses ingredientes, a IA vira só mais um risco mal administrado.

Este artigo foi republicado do "The Conversation" sob licença Creative Commons. Leia o artigo original


SOBRE O AUTOR

Nicole Gillespie é professora de administração e Steven Lockey é pós-doutorando, ambos na Escola de Negócios de Melbourne. saiba mais