Armas de guerra: Pentágono fecha acordos com big techs para uso de IAs
Acordos entre Pentágono e big techs ampliam uso de IA em operações militares e reacendem debate sobre ética e autonomia

O Pentágono anunciou ter fechado acordos com sete empresas de tecnologia para usar suas ferramentas de inteligência artificial em redes de segurança máxima, abrindo caminho para que as Forças Armadas dos EUA incorporem capacidades baseadas em IA no apoio a operações de guerra.
Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection e SpaceX vão fornecer seus recursos para ajudar a “ampliar a tomada de decisão dos combatentes em ambientes operacionais complexos”, afirmou o Departamento de Defesa.
Chamou atenção a ausência da Anthropic na lista, após a disputa pública e a batalha judicial da empresa com o governo Trump sobre ética e segurança no uso de IA em contextos militares.
Nos últimos anos, o Departamento de Defesa tem acelerado a adoção de IA. A tecnologia pode reduzir o tempo necessário para identificar e atingir alvos no campo de batalha, além de otimizar a organização de manutenção de armamentos e cadeias de suprimento, segundo um relatório de março do Brennan Center for Justice.
Ao mesmo tempo, o uso de IA já levanta preocupações, desde possíveis violações de privacidade até o risco de máquinas passarem a escolher alvos de forma autônoma. Uma das empresas envolvidas afirmou que o acordo prevê supervisão humana em determinadas situações.
As preocupações ganharam força durante a guerra de Israel contra militantes em Gaza e no Líbano, quando gigantes de tecnologia dos EUA forneceram suporte para rastrear alvos. Mas o número de civis mortos também disparou, alimentando temores de que essas ferramentas tenham contribuído para a morte de vítimas inocentes.
DÚVIDAS SOBRE O USO MILITAR DA IA
Os novos contratos surgem em um momento de ansiedade sobre o risco de dependência excessiva da tecnologia no campo de batalha, afirma Helen Toner, diretora interina do Centro de Segurança e Tecnologias Emergentes da Universidade de Georgetown.
“Grande parte da guerra moderna envolve pessoas em centros de comando, diante de telas, tomando decisões complexas em situações confusas e que evoluem rapidamente”, diz Toner, ex-integrante do conselho da OpenAI. “Sistemas de IA podem ajudar a resumir informações ou analisar imagens de vigilância para identificar possíveis alvos.”
Mas questões como o nível adequado de participação humana, risco e treinamento ainda estão em aberto. “Como implementar essas ferramentas rapidamente para que sejam eficazes e tragam vantagem estratégica? E, ao mesmo tempo, garantir que os operadores sejam treinados, saibam utilizá-las corretamente e não confiem demais nelas?”, questiona Toner.

Essas preocupações foram levantadas pela Anthropic, que buscava garantias contratuais de que sua tecnologia não seria usada em armas totalmente autônomas nem na vigilância de cidadãos dos EUA. O secretário de Defesa, Pete Hegseth, afirmou que a empresa deveria permitir qualquer uso considerado legal pelo Pentágono.
A Anthropic entrou na Justiça depois que o presidente Donald Trump tentou impedir o uso do chatbot Claude por agências federais e Hegseth buscou classificar a empresa como risco na cadeia de suprimentos, uma designação voltada a proteger sistemas de segurança nacional contra sabotagem estrangeira.
Leia mais: Anthropic diz que nova IA é “poderosa demais” para o público após testes
Em março, a OpenAI anunciou um acordo com o Pentágono que, na prática, substitui a Anthropic pelo ChatGPT em ambientes de segurança máxima. A empresa confirmou que se trata do mesmo contrato divulgado anteriormente.
Um dos contratos com o Pentágono inclui cláusulas que exigem supervisão humana em missões nas quais sistemas de IA atuem de forma autônoma ou semiautônoma, segundo uma fonte com conhecimento do acordo. O texto também determina que as ferramentas sejam usadas em conformidade com direitos constitucionais e liberdades civis.
A VISÃO DO PENTÁGONO
Emil Michael, diretor de tecnologia do Pentágono, disse à CNBC que seria irresponsável depender de apenas uma empresa – uma referência indireta ao atrito com a Anthropic. “Quando percebemos que um parceiro não queria trabalhar conosco da forma que considerávamos adequada, buscamos garantir múltiplos fornecedores”, afirmou.
Algumas empresas, como Amazon e Microsoft, já têm histórico de atuação com o governo em ambientes de segurança máxima. Ainda não está claro se os novos contratos alteram significativamente essas parcerias. Outras, como a Nvidia e a startup Reflection, são novatas nesse tipo de operação.
Nos últimos anos, o Departamento de Defesa dos EUA tem acelerado a adoção de inteligência artificial.
Ambas trabalham com modelos de IA de código aberto, uma prioridade para o Pentágono na tentativa de criar uma “alternativa norte-americana” ao avanço acelerado da China em inteligência artificial. Segundo o Departamento de Defesa, militares já utilizam recursos de IA por meio da plataforma oficial GenAI.mil.
Em muitos casos, o uso militar da IA não é muito diferente do uso civil: automatizar tarefas repetitivas que levariam horas ou dias para humanos concluírem, diz Toner.
A tecnologia pode prever melhor quando um helicóptero precisa de manutenção, otimizar o deslocamento de tropas e equipamentos ou até ajudar a distinguir, em imagens de drones, veículos civis de alvos militares.
Ainda assim, especialistas alertam para o risco de dependência excessiva. “Existe um fenômeno chamado viés de automação, em que as pessoas tendem a assumir que as máquinas funcionam melhor do que realmente funcionam”, diz Toner.