Lei para regulamentar IA avança no Senado. O Brasil está preparado?

Diante da urgência em minimizar os riscos da IA, documento não contempla complexidade da tecnologia

Créditos: Tingey Injury Law Firm/ Unsplash/ Peter Pencil/ iStock

Camila de Lira 8 minutos de leitura

O Marco Legal da Inteligência Artificial está a caminho de ser aprovado pelo Senado. Em meio à urgência pertinente para proteger os usuários dos potenciais riscos da IA, o Brasil aperta o passo para regular uma tecnologia nascente.

Sem abrir espaço para discussões com a sociedade civil, o país arrisca criar um arcabouço legal equivocado, que não dá conta das capacidades, das ameaças e das oportunidades da IA.

Em elaboração desde 2022, o Projeto de Lei (PL) 2338/23, ou Marco Legal da IA, foi proposto pelo senador Rodrigo Pacheco (PSD/MG) no ano passado. Inspirado no recém-aprovado AI Act da União Europeia, o projeto define regras para categorizar riscos contidos nos sistemas de IA, assim como apresenta conceitos e fundamentos para desenvolver o uso da tecnologia.

Na Europa, a lei só será colocada em prática em 2026. No Brasil, o projeto deve chegar ao plenária do Senado nas próximas duas semanas, com plano de passar pela Câmara e Congresso até o final do ano. A regra tem natureza prescritiva e não diretiva. Ou seja, mais focada em reforçar regras e punir responsáveis do que em criar princípios para regular a tecnologia.

Uma das ações do Marco Legal é, por exemplo, criar o Conselho Nacional da IA para fiscalizar e aplicar a lei. Outras disposições tratam sobre as responsabilidades de operadores de IA e sobre possíveis multas para o descumprimento das ordens. 

Silvio Meira

Para Sílvio Meira, cientista-chefe da TDS Company e um dos fundadores do Porto Digital, o projeto "olha para o retrovisor".

"No lugar de uma regulação que habilita a IA como parte da estratégia de futuro do país, o risco é criar uma regulação que limita muito as possibilidades de o Brasil competir nesse espaço sócio-econômico-político, que tende a ser o mais relevante dos próximos 50 anos", diz Meira.

O PL 2338/23 parte da descrição de sistema de inteligência artificial como um "sistema computacional com graus diferentes de autonomia, desenhado para inferir como atingir um conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento (...) com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real".

O projeto não considera outros sistemas de computação que estão sendo desenvolvidos no momento, como os quânticos. Nem olha para a interação que as IAs podem ter entre seus próprios sistemas para criar modificações no funcionamento dos algoritmos.

A proposta é mais focada em reforçar regras e punir responsáveis do que em criar princípios para regular a tecnologia.

Além disso, ele foca no uso da IA para recomendar ou prever, e não, por exemplo, para automatizar tarefas – uma questão que vai afetar o mercado de trabalho.

Segundo o professor, que é um dos pioneiros da pesquisa de IA no Brasil, o projeto segue preceitos "datados" sobre a tecnologia. "Não dá para definir o futuro com a régua do passado", analisa. Ao seguir por esse caminho, a proposta confunde o uso da tecnologia com a tecnologia em si.

Tomar a tecnologia pelo seu uso é como “confundir energia nuclear com ‘armas nucleares’. Enquanto a primeira é uma tecnologia de propósito geral, a segunda tem riscos e impactos claros para a sociedade. As duas não são e nem podem ser reguladas da mesma forma", ensina Meira.

HUMANOS PRIMEIRO

Para representantes do governo, o Marco Legal da IA é "à prova de futuro" exatamente porque não parte da visão tecnológica, mas da proteção dos usuários. Segundo o secretário de políticas digitais da Secretaria de Comunicação Social da Presidência, João Brant, o modelo de análise de riscos permite respostas adaptadas e atualizadas constantemente.

"A vida humana, o direito à não discriminação e outros valores que o projeto busca proteger são questões que ultrapassam o tempo. Esse é o problema hoje e vai ser o problema daqui a 10, 20 anos", argumenta Brant.

O projeto define aspectos de proteção contra discriminação, vieses de gênero e de raça por parte das tecnologias. No documento, há descrições e distinções dos impactos e consequências de sistemas de IA que discriminam baseados em raça, gênero e sexualidade.

Crédito: Stefan Lambauer/ iStock/ Freepik

Bianca Kremer, pesquisadora de pós-doutorado no Geneva Graduate Institute (IHEID), explica que essa preocupação é um ponto forte do Marco Legal da IA. Ela é conselheira titular do Comitê Gestor da Internet no Brasil (CGI.br) e doutora em direito digital, com especialização em privacidade e proteção de dados, inteligência artificial e vieses algorítmicos.

Segundo a advogada, o Marco Legal da IA tem a dureza necessária para exigir transparência e ação das empresas de tecnologia, mantendo o uso das ferramentas ético. Para especialistas em tecnologia, no entanto, proteger o usuário é essencial, mas não é o suficiente para criar um arcabouço legal completo para uma tecnologia de uso geral como a IA.

IA DO SUL GLOBAL

Outros dois pilares importantes ficaram de fora do projeto: o de emprego/ trabalho e concorrência/ competitividade, avalia o cientista-chefe do Instituto de Tecnologia e Sociedade (ITS Rio), Ronaldo Lemos.

Das 43 páginas do documento, em apenas um terço de uma delas se descrevem as medidas para fomentar inovação O Marco Legal da AI, como está sendo votado no momento, conta com 45 artigos. Destes, apenas dois falam sobre garantir a criação de ambientes de experimentação para a tecnologia.

Ronaldo Lemos

Não há menção sobre educação profissional para requalificação de profissionais, nem de apoio para sistemas de IA nascentes no Brasil. Esta semana, o presidente Luiz Inácio Lula da Silva defendeu a criação de uma IA do Sul Global em discurso na sede da Organização Internacional do Trabalho (OIT). Na visão de Lemos e de Meira, caso o Marco Legal da IA seja aprovado, essa será uma realidade difícil de atingir.

"Do jeito que está a proposta [o PL 2338/23], há grande risco de o Brasil ser apenas mais um consumidor de IA", diz Meira. Isso porque o projeto prevê avaliação de riscos sistêmicos antes da introdução de novos sistemas de IA no mercado, o que pode tornar mais lenta a criação de tecnologia brasileira na área.

São considerados temas de alto risco em IA as áreas de veículos autônomos, segurança pública e acesso financeiro, além de sistemas de educação e formação, de administração da justiça e de gestão da infraestrutura – Temas importantes nas discussões sobre o futuro do país.

Além disso, o documento também exige supervisão humana de sistemas de IA de alto risco. Segundo a regra, "as pessoas responsáveis pela supervisão têm que compreender as capacitações e limitações do sistema de IA, controlar devidamente o seu funcionamento, de modo que sinais de anomalias, disfuncionalidades e desempenho possam ser resolvidos o mais rapidamente possível".

O pedido não conta com o fator de imprevisibilidade da rede neural de IA. O aprendizado da IA, principalmente de modelos de grandes bases de dados, se torna tão rápido e exponencializado que nem mesmo os cientistas que criaram os sistemas conseguem prever ou entender todas as decisões que ele toma.

PORTAS FECHADAS?

Do ponto de vista de Bianca Kremer, a regulamentação é necessária para evitar que o mercado chegue em situações extremas. Ela lembra que o atual estado das redes sociais é prova do que pode acontecer quando a regulamentação não é dura o bastante ou demora para ser aprovada – o que sublinha a urgência de se estabelecer regras.

"O projeto é importante, principalmente para conter as violações de direitos que já estão acontecendo em larguíssima escala. Quem sente no lombo esses impactos tem pressa", diz a pesquisadora.

Se a internet é um exemplo, é preciso lembrar que o Marco Civil da Internet foi aprovado em 2015, após quase seis anos de discussões abertas. O que não aconteceu com o PL 2338/23, que ficou em discussão aberta por menos de um mês. 

O projeto define aspectos de proteção contra discriminação, vieses de gênero e de raça por parte das tecnologias.

"Uma lei como essa não pode ser construída por um grupo fechado e com um governo omisso em funcionar como catalisador de um debate amplo", diz Ronaldo Lemos, que também atuou nas discussões do Marco Civil.

A sociedade como um todo pode ser impactada pela IA e deveria estar participando dessa conversa.  Para Sílvio Meira, é preciso tempo para testar os caminhos da IA. "Está na hora de experimentar, discutir e estabelecer uma estratégia de IA para o Brasil, e política de ciência, tecnologia e inovação para IA".

Para o cientista, o momento da IA pede ações menos restritivas e mais proativas por parte do governo. No lugar de leis feitas pelo Senado, ele sugere políticas de estado, mais discussões sobre o que é a IA e sobre como queremos construí-la. O especialista defende uma abordagem que privilegie transparência,”explicabilidade” e reversibilidade dos sistemas de IA.

Em outras palavras, garantir que a tecnologia tenha transparência, seja explicável e possa ter decisões revertidas, caso sejam ações negativas. Para abordar tais princípios, o primeiro passo é discutir a tecnologia e seus impactos na sociedade.

A regulamentação viria depois, como consequência deste entendimento. Na visão de Lemos, o Brasil deveria abrir  a conversa para seus pares internacionais, uma vez que o mundo inteiro está sendo desafiado pelo avanço da IA.


SOBRE A AUTORA

Camila de Lira é jornalista formada pela ECA-USP, early adopter de tecnologias (e curiosa nata) e especializada em storytelling para n... saiba mais