O movimento global sobre segurança da IA mal começou e já está morto
Lista de convidados drasticamente reduzida na cúpula global desta semana sugere uma diminuição do interesse na proteção contra a tecnologia
Há seis meses, o mundo inteiro estava atento ao Reino Unido, onde representantes de governos nacionais e empresas internacionais de tecnologia se reuniram para a primeira cúpula global de segurança da IA, discutindo as ameaças e o potencial da inteligência artificial, sob os olhares atentos do mundo.
Nesta semana, um número menor de participantes se reuniu em Seul, na Coreia, para continuar a conversa. A segunda edição do evento, comparativamente mais modesta, não apenas indica que o Reino Unido promoveu a cúpula para tentar dar ao primeiro-ministro Rishi Sunak um legado em sua administração. Também é um sinal de que o movimento global unificado pela segurança da IA pode ter morrido antes mesmo de começar.
A lista de convidados estrelada da primeira edição, que incluía Elon Musk e o primeiro-ministro Sunak em uma conversa sobre IA, não se repetiu. Alguns dos países que participaram da cúpula no Reino Unido, como Canadá e Holanda, anunciaram que não enviariam representantes para esta reunião.
A recusa em participar se deve em parte ao fato de que o encontro em Seul foi chamado de “mini cúpula virtual” (grande parte realizada por videoconferência), antes de um evento maior na França, marcado para fevereiro de 2025.
Mas especialistas dizem que essas ausências sugerem algo mais preocupante: o movimento em direção a um acordo global sobre como lidar com o avanço da IA está enfraquecendo.
“Este evento é mais técnico e discreto, sem grandes anúncios de líderes políticos ou empresas”, afirma Igor Szpotakowski, pesquisador de direito de IA da Universidade de Newcastle, na Inglaterra, sobre a cúpula de Seul.
“Parece que os governos do Reino Unido [que estão coorganizando a cúpula] e da Coreia do Sul não são considerados influentes o suficiente nesse contexto para atrair a atenção de outros líderes globais.”
DAS BOAS INTENÇÕES AO MUNDO REAL
O número menor de participantes na segunda edição do evento em comparação com a primeira também destaca um problema inerente à busca por um consenso global sobre IA: a abordagem altamente fragmentada da política.
“A regulamentação da inteligência artificial atualmente é mais regionalizada devido a tensões políticas, então eventos como a cúpula de segurança da IA não devem fazer grandes avanços”, explica Szpotakowski.
“Não adiantará de nada se não levar a uma ação”, acrescenta Carissa Véliz, pesquisadora da Universidade de Oxford especializada em ética de IA.
É claro que não é fácil transformar essas discussões em ações reais. Embora grupos supranacionais tenham discutido datas para debater ideias, países individualmente têm avançado na regulamentação da tecnologia (por exemplo, a Lei de IA da União Europeia e o roteiro de políticas de IA apresentado no Senado norte-americano no início deste mês).
“Outros países, como a Índia, estabeleceram um caminho claro para unir inovação e IA responsável”, diz Ivana Bartoletti, diretora global de privacidade e governança de IA da Wipro e especialista do Conselho da Europa sobre inteligência artificial e direitos humanos.
Agora é hora de abandonar as propostas vagas e discutir compromissos concretos.
Mas os esforços individuais de países poderiam ser replicados nessas cúpulas globais. Sem muitos dos principais contribuintes para a revolução atual da IA presentes na Coreia do Sul, encontrar consenso – ou mesmo ter essa discussão – será difícil.
É por isso que 25 dos principais especialistas em inteligência artificial do mundo publicaram uma carta aberta na revista “Science” alertando que não está sendo feito o suficiente para alcançar um acordo sobre a segurança da tecnologia em nível global.
“O mundo concordou, na última cúpula, que precisávamos de ação”, observa Philip Torr, professor de IA da Universidade de Oxford e coautor da carta. “Mas agora é hora de abandonar as propostas vagas e discutir compromissos concretos.”