Nova legislação europeia sobre IA é boa mas ainda está longe do ideal

A aprovação da legislação pelo Parlamento Europeu é um marco importante, mas ainda deixa alguns defensores insatisfeitos

Créditos: Mika Baumeister/ Jason Leung and machines/ Unsplash

Chris Stokel-Walker 3 minutos de leitura

Na quarta-feira, 13 de março, o Parlamento Europeu aprovou a Lei de Inteligência Artificial por ampla maioria – 523 dos 705 membros votaram a favor. Elogiada como o primeiro grande esforço mundial para regulamentar a IA, a legislação adota uma abordagem baseada em riscos para serviços e produtos que utilizam inteligência artificial.

Sistemas de recomendação de conteúdo, por exemplo, seriam considerados de baixo risco e, portanto, estariam sujeitos a uma supervisão menos rigorosa. Dispositivos médicos, por outro lado, enfrentariam um escrutínio mais rigoroso em torno de questões como dados e transparência.

Brando Benifei, legislador que liderou a aprovação da lei, celebrou a decisão no Parlamento. “Finalmente temos a primeira lei vinculativa do mundo sobre inteligência artificial, para reduzir riscos, criar oportunidades, combater a discriminação e promover a transparência”, disse ele.

No entanto, outros temem que a Lei de Inteligência Artificial seja excessivamente favorável aos interesses da indústria – e que ela estabeleça um mau precedente para outros países.

Conforme os reguladores voltavam sua atenção para a IA generativa, foram deixando de lado o propósito original: limitar os usos mais perigosos da tecnologia.

“Para aqueles que defendem os direitos humanos, a Lei de Inteligência Artificial é uma questão controversa”, afirma Laura Lazaro Cabrera, conselheira e diretora do programa de equidade e dados no Center for Democracy and Technology, um grupo de defesa dos direitos digitais.

“Embora possamos celebrar o destaque dado à privacidade e a outros direitos humanos na lei, há muitas exceções que poderiam permitir que sistemas de IA prejudiciais representassem sérios riscos para os cidadãos, especialmente os mais vulneráveis, como aqueles nas fronteiras.”

A lei começou a ser elaborada em 2021, antes da chegada do ChatGPT, e pretendia estabelecer limites rigorosos sobre como os algoritmos poderiam ser usados de forma segura para evitar a discriminação. Após o lançamento do chatbot, em novembro de 2022, os legisladores se apressaram para revisá-la e incluir a IA generativa.

“Originalmente, era uma legislação de segurança de produtos, um tipo específico de regulamentação da União Europeia, que incluía proteções de direitos humanos”, explica Daniel Leufer, analista de políticas da organização sem fins lucrativos de direitos civis digitais Access Now.

Crédito: Iurii Garmash/ iStock

Mas as empresas de tecnologia, vendo o potencial da crescente indústria de IA generativa, rapidamente pressionaram os legisladores para garantir que as regras propostas não fossem excessivamente restritivas para o seu crescimento. Esses esforços foram muito bem-sucedidos: a revista “Timerelatou que a OpenAI fez lobby para mudar o texto de um rascunho anterior da lei.

Conforme os reguladores voltavam sua atenção para a IA generativa, foram deixando de lado o propósito original: limitar os usos mais perigosos da inteligência artificial, incluindo o controle biométrico de fronteiras e o policiamento. Embora haja adendos que abordam tais usos, defensores acreditam que a lei não vai longe o suficiente.

Na lei há muitas exceções que poderiam permitir que sistemas de IA prejudiciais representassem sérios riscos para os cidadãos.

Além disso, foi inserida uma cláusula controversa – artigo 6º, n.º 3 – que permite que os desenvolvedores de IA generativa declarem que seus produtos são de baixo risco, contornando assim algumas das regras de supervisão.

Leufer teme que a nova legislação estabeleça um novo padrão global, assim como o Regulamento Geral de Proteção de Dados (GDPR) fez em 2018. Mas, em comparação com o GDPR, que criou um precedente para regras de proteção de dados, ela é muito mais permissiva.

“Desde o início, a Lei de Inteligência Artificial já era uma concessão”, observa o analista. “O resultado final é realmente uma vitória para a indústria e para a aplicação da lei.”

Embora o processo de implementação ainda tenha algumas etapas a percorrer, dando às empresas tempo para se prepararem, para ativistas como Cabrera a luta está longe de terminar. “Há muito em jogo na implementação da Lei de Inteligência Artificial”, ressalta. “Quando a poeira baixar, teremos a difícil tarefa de desvendar uma lei complexa, extensa e sem precedentes.”


SOBRE O AUTOR

Chris Stokel-Walker é um jornalista britânico com trabalhos publicados regularmente em veículos, como Wired, The Economist e Insider saiba mais