Militares dos EUA teriam usado IA Claude em ataques no Irã, mesmo com proibição de Trump

O comando militar recorreu ao Claude para atividades de inteligência, apoio na seleção de alvos e simulações de campo de batalha

Mão de soldado em cima de bandeira dos EUA
Créditos:Freepik.

Joyce Canelle 2 minutos de leitura

Militares dos Estados Unidos utilizaram o modelo de inteligência artificial (IA) Claude, da Anthropic, durante ataques contra o Irã iniciados no sábado (28), mesmo após o presidente Donald Trump determinar a suspensão imediata do uso da ferramenta por agências federais.

A decisão foi anunciada poucas horas antes do início da ofensiva conjunta entre EUA e Israel. O uso da tecnologia, segundo o The Guardian, ocorreu em meio ao rompimento oficial entre o governo americano e a empresa de IA.

De acordo com as informações divulgadas, o comando militar recorreu ao Claude para atividades de inteligência, apoio na seleção de alvos e simulações de campo de batalha.

A utilização do sistema evidencia a dificuldade de retirar rapidamente ferramentas de IA já integradas às operações militares, sobretudo em meio a uma ação de grande escala.

PROIBIÇÃO ANUNCIADA POR TRUMP

A ordem de Trump determinou que todas as agências federais interrompessem imediatamente o uso do modelo e criticou publicamente a Anthropic na rede Truth Social.

Ele classificou a empresa como uma organização de esquerda radical dirigida por pessoas que, segundo ele, não compreendem o mundo real.

A relação entre o governo e a empresa já vinha desgastada desde janeiro, quando houve questionamentos sobre o uso do sistema Claude na operação para capturar o presidente da Venezuela, Nicolás Maduro.

A Anthropic protestou e citou seus termos de uso, que proíbem a aplicação da ferramenta para fins violentos, desenvolvimento de armas ou vigilância.

O QUE É ANTHROPIC?

A Anthropic é uma empresa de tecnologia voltada ao desenvolvimento de modelos de inteligência artificial baseados em grandes modelos de linguagem, os chamados LLMs.

A companhia atua na criação de sistemas capazes de compreender e gerar texto, além de desenvolver agentes que utilizam ferramentas de forma autônoma em múltiplas etapas.

Entre seus focos estão o aprimoramento da chamada engenharia de contexto, que busca organizar e selecionar de maneira eficiente as informações fornecidas aos modelos, e a construção de soluções como o Claude, voltadas para aplicações que exigem raciocínio complexo, análise de dados e execução de tarefas prolongadas com coerência.

POSIÇÃO DO PENTÁGONO

O secretário de Defesa, Pete Hegseth, afirmou em publicação na rede X que a empresa agiu com arrogância e traição.

Ele declarou que combatentes americanos não poderiam ficar sujeitos a restrições ideológicas impostas por companhias de tecnologia e exigiu acesso total e irrestrito aos modelos da Anthropic para qualquer finalidade considerada lícita.

Apesar do rompimento, o próprio secretário reconheceu a complexidade da substituição imediata do sistema. Segundo ele, a Anthropic continuará prestando serviços por um período não superior a seis meses, para permitir uma transição dentro da estrutura militar.

Após a ruptura, a empresa rival de IA, a OpenAI avançou nas negociações com o Pentágono. O CEO Sam Altman informou ter fechado acordo para que ferramentas da companhia, incluindo o ChatGPT, sejam utilizadas na rede secreta do Departamento de Defesa.


SOBRE O(A) AUTOR(A)

Bacharel em Jornalismo, com trajetória em redação, assessoria de imprensa e rádio, comprometida com a comunicação eficiente e a produç... saiba mais