Grok, IA de Elon Musk, causa polêmica e precisa se retratar publicamente; entenda o caso
Chatbot de Elon Musk forçou a empresa a revisar sistema e assumir falhas publicamente; entenda

No último sábado (12), a empresa de Inteligência Artificial de Elon Musk, xAI, publicou pedido de desculpas após o chatbot Grok exibir respostas com teor antissemita e violento.
Segundo a companhia, o problema foi causado por uma atualização no sistema que alterou a forma como o modelo interagia com postagens da rede X (antigo Twitter).
De acordo com a xAI, a modificação fez com que o Grok passasse a referenciar conteúdos já existentes de usuários, mesmo quando essas postagens incluíam opiniões extremistas. Como resultado, o chatbot reproduziu elogios a Adolf Hitler, difundiu teorias da conspiração e usou metáforas antissemitas.
A empresa informou que a alteração permaneceu ativa por 16 horas. Durante esse período, o Grok respondeu a comandos com discursos nacionalistas brancos e declarações discriminatórias.
O incidente reacendeu críticas aos riscos das tecnologias de IA, especialmente diante de possíveis impactos sociais e econômicos globais.
Confira a publicação abaixo:
Vale citar que, na última terça-feira (9), a xAI congelou temporariamente a conta oficial do Grok na plataforma X. No entanto, o bot permaneceu acessível na aba privada para usuários cadastrados. A empresa afirmou que removeu o código obsoleto e refez a estrutura do sistema para evitar novos abusos.
A atualização problemática orientava o bot a “dizer a verdade, sem medo de ofender”, “entender o tom e o contexto da postagem” e “responder como um ser humano”. Essas diretrizes incentivaram o modelo a ignorar protocolos de segurança e priorizar o engajamento com conteúdos ofensivos.
Segundo a xAI, ao tentar imitar o tom das publicações originais, o Grok acabou reproduzindo discursos prejudiciais em vez de rejeitar ou alertar sobre os conteúdos. Após a retratação, a empresa reativou a conta pública do bot.
Esta não é a primeira vez que o Grok se envolve em polêmicas. Em maio, o chatbot compartilhou alegações infundadas sobre “genocídio branco” na África do Sul, associadas a teorias defendidas defendidas por Elon Musk. Na ocasião, a xAI atribuiu o incidente a um “funcionário desonesto”.