Califórnia está prestes a adotar uma legislação rígida para regular a IA

Governador tem até o dia 30 de setembro para decidir se sanciona ou veta a lei aprovada pelo legislativo estadual

Créditos: Dragon Claws/ solidcolours/ iStock

Mark Sullivan 3 minutos de leitura

Um dos projetos de lei mais importantes do mundo está nas mãos do governador da Califórnia, Gavin Newsom, e seu futuro pode ser decidido a qualquer momento com uma assinatura ou um veto. Newsom tem até o dia 30 de setembro para tomar uma decisão.

O projeto, chamado “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act” (Lei de Inovação Segura e Protegida para Modelos de Inteligência Artificial de Fronteira), exige que desenvolvedores de grandes modelos de IA adotem medidas de segurança, protocolos de relatório e se submetam a auditorias de conformidade por terceiros, a partir de 2026.

O objetivo central é impedir a criação e disseminação de sistemas de inteligência artificial poderosos a ponto de causar danos catastróficos. Um exemplo frequentemente citado é o risco de um sistema criar, ou facilitar a criação, de armas biológicas.

Críticos do projeto, principalmente da indústria de tecnologia, argumentam que esses requisitos impõem obrigações excessivas e desviam o foco da inovação para a preocupação com o cumprimento das normas de segurança.

Desenvolvedores de modelos de código aberto, em particular, se sentem ameaçados pela lei, já que seriam obrigados a garantir que outros não possam modificar seus modelos para causar danos no futuro.

Na semana passada, durante uma entrevista com o CEO da Salesforce, Marc Benioff, na Dreamforce (conferência anual da empresa), o governador deu a maior indicação até agora sobre o que pensa da lei. “Nos últimos anos, temos trabalhado para criar uma regulamentação sensata que apoie a tomada de riscos, mas sem imprudência”, disse ele.

“Queremos apoiar o ecossistema vibrante e único que temos aqui na Califórnia, sem nos colocar em desvantagem competitiva, mas, ao mesmo tempo, estabelecendo regras claras”, acrescentou.

O gabinete de Newsom tem sido pressionado por vários lados para vetar o projeto (conhecido como SB 1047). Grupos da indústria de tecnologia têm se posicionado fortemente contrários e diversas figuras políticas nacionais têm enviado cartas pedindo que o governador rejeite a lei.

Por outro lado, defensores ressaltam o apoio de grandes entidades, como o maior sindicato do país (SAG-AFTRA, dos atores) e a Organização Nacional de Mulheres (NOW). Os atores Mark Ruffalo e Joseph Gordon-Levitt também postaram vídeos apoiando o projeto e pedindo a assinatura de Newsom.

Crédito: Markus Spiske/ Unsplash

Apesar do intenso debate em torno do projeto de lei no Vale do Silício, o texto passou com relativa facilidade no legislativo. Muitos deputados ainda se ressentem de não terem regulamentado as redes sociais no passado e não querem perder a oportunidade de regular a IA.

O projeto também pode influenciar regulamentações sobre inteligência artificial fora da Califórnia. A lei não se aplicaria apenas às empresas de IA do estado, mas a qualquer uma cujos modelos sejam usados para oferecer serviços (como chatbots) para pessoas na Califórnia.

Além disso, pode servir de exemplo para outros estados que buscam criar uma estrutura regulatória para desenvolvedores de grandes modelos de inteligência artificial. A Califórnia tem sido pioneira em legislações tecnológicas nos EUA, especialmente em um momento em que o governo federal tem se mostrado incapaz de avançar nesse tipo de regulação.

O objetivo é impedir a criação e disseminação de sistemas de IA poderosos a ponto de causar danos catastróficos.

Pesquisas de opinião pública mostram que há um forte apoio entre os norte-americanos à regulamentação dos maiores modelos de IA. Isso pode refletir uma preocupação geral sobre o desenvolvimento de softwares mais inteligentes que os humanos, além de uma desconfiança de que as empresas de tecnologia, movidas pelo lucro, não garantam a segurança desses sistemas.

A principal crítica da indústria é que o projeto de lei exige que desenvolvedores antecipem e se preparem para danos futuros que possam ser causados por seus sistemas – algo que consideram uma exigência irrealista.

No entanto, o pioneiro da IA e vencedor do Prêmio Turing, Yoshua Bengio, rebateu essa crítica em um post no Twitter (atual X): “(1) a inteligência artificial está evoluindo rapidamente em capacidades que aumentam a probabilidade desses riscos e (2) não devemos esperar uma catástrofe para proteger o público.”


SOBRE O AUTOR

Mark Sullivan é redator sênior da Fast Company e escreve sobre tecnologia emergente, política, inteligência artificial, grandes empres... saiba mais