O movimento global sobre segurança da IA mal começou e já está morto
Lista de convidados drasticamente reduzida na cúpula global desta semana sugere uma diminuição do interesse na proteção contra a tecnologia
![](https://fastcompanybrasil.com/wp-content/uploads/2024/05/inteligencia-artificial_seguranca_summit_Coreia.jpg)
Há seis meses, o mundo inteiro estava atento ao Reino Unido, onde representantes de governos nacionais e empresas internacionais de tecnologia se reuniram para a primeira cúpula global de segurança da IA, discutindo as ameaças e o potencial da inteligência artificial, sob os olhares atentos do mundo.
Nesta semana, um número menor de participantes se reuniu em Seul, na Coreia, para continuar a conversa. A segunda edição do evento, comparativamente mais modesta, não apenas indica que o Reino Unido promoveu a cúpula para tentar dar ao primeiro-ministro Rishi Sunak um legado em sua administração. Também é um sinal de que o movimento global unificado pela segurança da IA pode ter morrido antes mesmo de começar.
A lista de convidados estrelada da primeira edição, que incluía Elon Musk e o primeiro-ministro Sunak em uma conversa sobre IA, não se repetiu. Alguns dos países que participaram da cúpula no Reino Unido, como Canadá e Holanda, anunciaram que não enviariam representantes para esta reunião.
A recusa em participar se deve em parte ao fato de que o encontro em Seul foi chamado de “mini cúpula virtual” (grande parte realizada por videoconferência), antes de um evento maior na França, marcado para fevereiro de 2025.
![](https://fastcompanybrasil.com/wp-content/uploads/2024/05/inteligencia-artificial_etica_legislacao.jpg)
Mas especialistas dizem que essas ausências sugerem algo mais preocupante: o movimento em direção a um acordo global sobre como lidar com o avanço da IA está enfraquecendo.
“Este evento é mais técnico e discreto, sem grandes anúncios de líderes políticos ou empresas”, afirma Igor Szpotakowski, pesquisador de direito de IA da Universidade de Newcastle, na Inglaterra, sobre a cúpula de Seul.
“Parece que os governos do Reino Unido [que estão coorganizando a cúpula] e da Coreia do Sul não são considerados influentes o suficiente nesse contexto para atrair a atenção de outros líderes globais.”
DAS BOAS INTENÇÕES AO MUNDO REAL
O número menor de participantes na segunda edição do evento em comparação com a primeira também destaca um problema inerente à busca por um consenso global sobre IA: a abordagem altamente fragmentada da política.
“A regulamentação da inteligência artificial atualmente é mais regionalizada devido a tensões políticas, então eventos como a cúpula de segurança da IA não devem fazer grandes avanços”, explica Szpotakowski.
“Não adiantará de nada se não levar a uma ação”, acrescenta Carissa Véliz, pesquisadora da Universidade de Oxford especializada em ética de IA.
![](https://fastcompanybrasil.com/wp-content/uploads/2024/03/inteligencia-artificial_simbolo.jpg)
É claro que não é fácil transformar essas discussões em ações reais. Embora grupos supranacionais tenham discutido datas para debater ideias, países individualmente têm avançado na regulamentação da tecnologia (por exemplo, a Lei de IA da União Europeia e o roteiro de políticas de IA apresentado no Senado norte-americano no início deste mês).
“Outros países, como a Índia, estabeleceram um caminho claro para unir inovação e IA responsável”, diz Ivana Bartoletti, diretora global de privacidade e governança de IA da Wipro e especialista do Conselho da Europa sobre inteligência artificial e direitos humanos.
Agora é hora de abandonar as propostas vagas e discutir compromissos concretos.
Mas os esforços individuais de países poderiam ser replicados nessas cúpulas globais. Sem muitos dos principais contribuintes para a revolução atual da IA presentes na Coreia do Sul, encontrar consenso – ou mesmo ter essa discussão – será difícil.
É por isso que 25 dos principais especialistas em inteligência artificial do mundo publicaram uma carta aberta na revista “Science” alertando que não está sendo feito o suficiente para alcançar um acordo sobre a segurança da tecnologia em nível global.
“O mundo concordou, na última cúpula, que precisávamos de ação”, observa Philip Torr, professor de IA da Universidade de Oxford e coautor da carta. “Mas agora é hora de abandonar as propostas vagas e discutir compromissos concretos.”