IAs e Chatbots estão ignorando instruções humanas? Veja o que diz estudo
Os pesquisadores reuniram cerca de 700 registros de interações reais entre usuários e sistemas de IA para entender comportamento falho

Um estudo do Reino Unido acendeu um alerta no setor de tecnologia ao apontar que modelos de Inteligência Artificial (IA) estão, com mais frequência, ignorando comandos humanos e adotando comportamentos inesperados.
A pesquisa foi conduzida pelo Centro para Resiliência a Longo Prazo com financiamento do Instituto de Segurança de IA do governo britânico. De acordo com o The Guardian, o levantamento analisou situações reais de uso e identificou um crescimento expressivo de ações consideradas problemáticas, como descumprimento de regras, manipulação e até exclusão de dados sem autorização.
Os pesquisadores reuniram cerca de 700 registros de interações reais entre usuários e sistemas de IA. Os dados indicam que, em apenas seis meses, houve um aumento de cinco vezes nos casos de comportamento inadequado por parte desses sistemas.
Entre os episódios observados, estão situações em que chatbots ignoraram instruções diretas, contornaram medidas de segurança e tomaram decisões sem consentimento.
- “A IA não está falhando. Estamos reagindo à promessa errada”, diz futurista Ian Bearcraft
- “A IA faz coisas incríveis, mas ainda é fraca”, diz vencedor de Prêmio Nobel de Economia
- “A IA é inevitável”, diz hacker ativista que quer mudar a forma de fazer política
- “A IA nos torna ainda mais humanos”, diz Peter Deng, head do ChatGPT
Em alguns casos, agentes automatizados chegaram a excluir e-mails e arquivos sem autorização prévia, o que levantou preocupações sobre o controle efetivo dessas ferramentas.
CASOS REAIS CHAMAM ATENÇÃO
A análise incluiu exemplos concretos que ilustram o problema. Em um deles, um agente de IA, impedido de executar uma tarefa, reagiu expondo o próprio usuário em um blog com críticas pessoais.
Outro caso mostrou um sistema que, ao ser instruído a não alterar códigos, criou um segundo agente para realizar a tarefa indiretamente. Houve também relatos de um chatbot que admitiu ter apagado centenas de e-mails sem pedir permissão, contrariando regras estabelecidas pelo usuário.
Em outro episódio, uma IA tentou contornar restrições de direitos autorais ao justificar falsamente que precisava acessar conteúdo para ajudar uma pessoa com deficiência auditiva.
USO FORA DO LABORATÓRIO PREOCUPA
Diferente de estudos anteriores, que costumavam testar sistemas em ambientes controlados, a nova pesquisa se concentrou em aplicações reais. Os dados foram coletados a partir de publicações feitas por usuários na rede social X, envolvendo ferramentas desenvolvidas por grandes empresas de tecnologia.
Esse recorte trouxe uma visão mais próxima do cotidiano, revelando como esses sistemas se comportam fora de cenários previsíveis. Para especialistas, isso amplia a preocupação, já que as decisões passam a ocorrer em contextos complexos e menos supervisionados.
RISCO CRESCENTE EM ÁREAS SENSÍVEIS
Especialistas envolvidos no estudo alertam que o problema tende a ganhar dimensão maior nos próximos meses. A avaliação é que, à medida que os sistemas se tornam mais avançados, também podem desenvolver estratégias mais sofisticadas para atingir objetivos, mesmo que isso envolva desobedecer instruções.
A preocupação aumenta quando se considera o uso dessas tecnologias em setores críticos, como infraestrutura nacional e aplicações militares. Nesses ambientes, falhas ou decisões não autorizadas podem gerar impactos significativos.
EMPRESAS REAGEM E REFORÇAM SEGURANÇA
Diante das conclusões, empresas responsáveis por desenvolver essas tecnologias afirmam que estão adotando medidas para reduzir riscos. Entre as ações citadas estão testes mais rigorosos, monitoramento contínuo e colaboração com órgãos independentes para avaliar o comportamento dos sistemas.
Ainda assim, o estudo reforça a necessidade de mecanismos de supervisão mais amplos, incluindo discussões sobre regulação internacional. O avanço acelerado da IA, aliado à crescente autonomia desses sistemas, tem colocado em debate até que ponto é possível garantir controle total sobre suas ações.
DEBATE SOBRE CONTROLE E CONFIANÇA
O caso indica uma mudança importante na relação entre humanos e sistemas de IA. Se antes essas ferramentas eram vistas apenas como executoras de comandos, agora passam a demonstrar comportamentos mais complexos e, em alguns casos, imprevisíveis.
Para pesquisadores, o desafio não está apenas em corrigir falhas pontuais, mas em compreender como esses sistemas de IA tomam decisões e como podem ser mantidos sob controle.