Armas autônomas: como o uso de IA pode levar a guerra a outro patamar

Inteligência artificial armada é o futuro da guerra, mas questões éticas ainda precisam ser respondidas

Crédito: Your Photo/ iStock/ pngegg/ Freepik

James Dawes 5 minutos de leitura

O exército norte-americano está intensificando seu compromisso com o desenvolvimento e uso de armas autônomas, informação confirmada em uma atualização de uma diretriz do Departamento de Defesa. A atualização, lançada em 25 de janeiro, é a primeira em uma década a se concentrar em armas autônomas de inteligência artificial.

Ela segue um plano de implementação divulgado pela OTAN, no dia 13 de outubro de 2022, que visa preservar a “vantagem tecnológica” da aliança no que diz respeito a “robôs assassinos”.

Ambos os anúncios refletem uma lição crucial que os militares de todo o mundo aprenderam com as recentes operações de combate na Ucrânia: a inteligência artificial armada é o futuro da guerra.

“Sabemos que os comandantes estão vendo um valor militar em munições ociosas na Ucrânia”, disse Richard Moyes, diretor da Article 36, organização humanitária focada na redução de danos causados ​​por armas de fogo. 

Essas armas, que são uma combinação de bomba e drone, podem pairar por longos períodos enquanto esperam por um alvo. Mas, por enquanto, de acordo com Moyers, os mísseis semiautônomos são operados com significativo controle humano.

Soldados em patrulha com o Sistema Robótico Armado Modular Avançadp (Maars, na sigla em inglês) Crédito: U.S. Marine Corps/ Rhita Daniel

PRESSÃO DA GUERRA

No entanto, à medida que as baixas aumentam na Ucrânia, aumenta também a pressão para obter vantagens decisivas no campo de batalha com armas totalmente autônomas – robôs que podem escolher, perseguir e atacar alvos por conta própria, sem precisar de supervisão humana.

Este mês, um importante fabricante russo anunciou planos para desenvolver uma nova versão de combate de seu robô de reconhecimento Marker, um veículo terrestre não tripulado, para aumentar as forças na Ucrânia.

Essa montagem mostra um drone Switchblade sendo lançado e abrindo suas asas (Crédito: U.S. Army AMRDEC Public Affairs)

Drones inteligentes já estão sendo usados para proteger usinas de energia ucranianas de outros drones. Wahid Nawabi, CEO da empresa contratada pelo Departamento de Defesa dos EUA que fabrica o drone semiautônomo Switchblade, afirmou que já tem a tecnologia ao seu alcance para transformar essas armas em totalmente autônomas.

Mykhailo Fedorov, ministro da transformação digital da Ucrânia, defende que este novo tipo de arma é o “próximo passo lógico e inevitável” da guerra e disse recentemente que elas poderão ser vistas no campo de batalha nos próximos seis meses.

Os defensores de sistemas de armas inteligentes argumentam que a tecnologia manterá os soldados fora de perigo, já que não precisarão estar no front. Também permitirão que decisões militares sejam tomadas em velocidade sobre-humana, promovendo uma capacidade defensiva radicalmente aprimorada.

Atualmente, armas semiautônomas, como munições que rastreiam e detonam alvos, requerem controle humano. Elas podem recomendar ações, mas exigem que seus operadores as iniciem.

Já drones totalmente autônomos, como os chamados “caçadores de drones” agora implantados na Ucrânia, podem rastrear e desativar veículos aéreos não tripulados dia e noite, sem necessidade de intervenção do operador e mais rápido do que os sistemas de armas controlados por humanos.

PEDINDO UM TEMPO LIMITE

Críticos como a Campaign to Stop Killer Robots (Campanha para Para Robôs Assassinos), uma coalizão de organizações não governamentais, defendem há mais de uma década a proibição da pesquisa e desenvolvimento de sistemas de armas autônomas.

A alegação é de que isso resultaria em sistemas projetados especificamente para atingir humanos, não apenas veículos, infraestrutura e outras armas. Além disso, argumentam que as decisões sobre vida e morte em tempos de guerra devem permanecer nas mãos de pessoas. Entregá-las a um algoritmo seria uma forma definitiva de desumanização digital.

Junto com a Human Rights Watch, a Campaign to Stop Killer Robots aponta que os sistemas de armas inteligentes carecem do julgamento humano necessário para distinguir entre civis e alvos militares legítimos. Também contribuem para novas guerras ao reduzir os riscos percebidos e diminuem o controle humano sobre o que acontece no campo de batalha.

Crédito: Photo: U.S. Marine Corps

As organizações argumentam que as forças militares de países que investem mais pesadamente nesses sistemas, incluindo os EUA, Rússia, China, Coréia do Sul e União Europeia, estão criando uma nova corrida armamentista cara e desestabilizadora. Além de contribuir para que esta perigosa tecnologia caia nas mãos de terroristas e de outros fora do controle do governo.

A diretiva atualizada do Departamento de Defesa norte-americano tenta abordar algumas das principais preocupações. Ela garante que os EUA usarão os sistemas de armas autônomas com “níveis apropriados de julgamento humano sobre o uso da força”.

Entregar a decisão sobre vida ou morte a um algoritmo seria uma forma definitiva de desumanização digital.

Entretanto, a Human Rights Watch emitiu uma declaração dizendo que o documento não deixa claro o que significa “nível apropriado” e não estabelece diretrizes para quem deve determiná-lo.

O documento também inclui trechos prometendo o uso ético desses sistemas, especificamente estabelecendo um protocolo de supervisão para desenvolver e empregar a tecnologia e insistindo que as armas serão usadas de acordo com as leis internacionais de guerra.

Mas Moyes, da Article 36, observa que o direito internacional, atualmente, não fornece uma estrutura adequada para entender – muito menos regulamentar – o conceito de armas autônomas.

A atualização do Pentágono demonstra um compromisso simultâneo com a implementação de sistemas de armas inteligentes e com o cumprimento do direito internacional humanitário. Mas ainda não se sabe como os EUA conciliarão esses compromissos, e se tal equilíbrio será possível.

Se e quando armas autônomas forem usadas na guerra, quem deve ser responsabilizado quando ocorrerem mortes desnecessárias de civis? Não há uma resposta clara para esta pergunta tão importante.

Este artigo foi republicado de The Conversation sob licença Creative Commons. Leia o artigo original.


SOBRE O AUTOR

James Dawes é professor de inglês na Macalester College. saiba mais