Militares dos EUA teriam usado IA Claude em ataques no Irã, mesmo com proibição de Trump
O comando militar recorreu ao Claude para atividades de inteligência, apoio na seleção de alvos e simulações de campo de batalha

Militares dos Estados Unidos utilizaram o modelo de inteligência artificial (IA) Claude, da Anthropic, durante ataques contra o Irã iniciados no sábado (28), mesmo após o presidente Donald Trump determinar a suspensão imediata do uso da ferramenta por agências federais.
A decisão foi anunciada poucas horas antes do início da ofensiva conjunta entre EUA e Israel. O uso da tecnologia, segundo o The Guardian, ocorreu em meio ao rompimento oficial entre o governo americano e a empresa de IA.
De acordo com as informações divulgadas, o comando militar recorreu ao Claude para atividades de inteligência, apoio na seleção de alvos e simulações de campo de batalha.
A utilização do sistema evidencia a dificuldade de retirar rapidamente ferramentas de IA já integradas às operações militares, sobretudo em meio a uma ação de grande escala.
PROIBIÇÃO ANUNCIADA POR TRUMP
A ordem de Trump determinou que todas as agências federais interrompessem imediatamente o uso do modelo e criticou publicamente a Anthropic na rede Truth Social.
Ele classificou a empresa como uma organização de esquerda radical dirigida por pessoas que, segundo ele, não compreendem o mundo real.
A relação entre o governo e a empresa já vinha desgastada desde janeiro, quando houve questionamentos sobre o uso do sistema Claude na operação para capturar o presidente da Venezuela, Nicolás Maduro.
A Anthropic protestou e citou seus termos de uso, que proíbem a aplicação da ferramenta para fins violentos, desenvolvimento de armas ou vigilância.
O QUE É ANTHROPIC?
A Anthropic é uma empresa de tecnologia voltada ao desenvolvimento de modelos de inteligência artificial baseados em grandes modelos de linguagem, os chamados LLMs.
A companhia atua na criação de sistemas capazes de compreender e gerar texto, além de desenvolver agentes que utilizam ferramentas de forma autônoma em múltiplas etapas.
Entre seus focos estão o aprimoramento da chamada engenharia de contexto, que busca organizar e selecionar de maneira eficiente as informações fornecidas aos modelos, e a construção de soluções como o Claude, voltadas para aplicações que exigem raciocínio complexo, análise de dados e execução de tarefas prolongadas com coerência.
POSIÇÃO DO PENTÁGONO
O secretário de Defesa, Pete Hegseth, afirmou em publicação na rede X que a empresa agiu com arrogância e traição.
Ele declarou que combatentes americanos não poderiam ficar sujeitos a restrições ideológicas impostas por companhias de tecnologia e exigiu acesso total e irrestrito aos modelos da Anthropic para qualquer finalidade considerada lícita.
Apesar do rompimento, o próprio secretário reconheceu a complexidade da substituição imediata do sistema. Segundo ele, a Anthropic continuará prestando serviços por um período não superior a seis meses, para permitir uma transição dentro da estrutura militar.
Após a ruptura, a empresa rival de IA, a OpenAI avançou nas negociações com o Pentágono. O CEO Sam Altman informou ter fechado acordo para que ferramentas da companhia, incluindo o ChatGPT, sejam utilizadas na rede secreta do Departamento de Defesa.