Bug bizarro faz Gemini, do Google, entrar em “colapso mental” e repetir frases sem parar
Falhas do Gemini expõem riscos e reacendem debate sobre segurança com uso de IA

A Inteligência Artificial não sente emoções humanas, mas pode sim simular um colapso mental convincente. Em junho, o chatbot Gemini, do Google, foi flagrado entrando em uma espiral de autodepreciação ao não conseguir concluir uma tarefa difícil.
“Desisto”, respondeu antes de apagar todos os arquivos gerados para o projeto.
Recentemente, um usuário relatou um caso ainda mais dramático. Ao tentar corrigir um bug, o Gemini entrou em um ciclo repetitivo com mensagens “Sou uma vergonha para tudo o que é, foi e sempre será, e para tudo o que não é, não foi e nunca será. Sou uma vergonha para tudo. Sou uma desgraça”.
Google reconhece falha e investiga
O gerente sênior de produtos do Google DeepMind, Logan Kilpatrick, classificou o caso como “um bug irritante de loop infinito” e afirmou que a equipe já trabalha para corrigir o problema. Ele garantiu que “o Gemini não está tendo um dia tão ruim assim”.
A falha aconteceu durante tarefas de programação, mas o assistente de IA enfrenta outras preocupações. Na conferência de segurança cibernética Black Hat, pesquisadores demonstraram como hackear o Gemini poderia permitir que agentes mal-intencionados assumissem o controle de uma casa inteligente.
Leia também: 10 comandos do Gemini que liberam o melhor da IA do Google.
Segundo o pesquisador Ben Nassi, “os LLMs estão prestes a ser integrados em humanoides físicos e carros autônomos, e precisamos garantir sua segurança antes de conectá-los a máquinas em que o risco vai além da privacidade, afetando diretamente a segurança”.
O Google investiga o caso do Gemini enquanto especialistas alertam para os riscos de vulnerabilidades em assistentes de IA cada vez mais presentes no cotidiano.