Legislação mais dura sobre inteligência artificial é barrada na Califórnia
Google, OpenAI e Meta, todas desenvolvendo modelos de IA generativa, expressaram suas preocupações sobre a proposta
O governador da Califórnia, Gavin Newsom, vetou no domingo (dia 29) um projeto de lei de segurança de inteligência artificial amplamente contestado, após objeções levantadas pela indústria de tecnologia, que alega que a lei poderia afastar as empresas de IA do estado e prejudicar a inovação.
Newsom afirmou que o projeto "não leva em consideração se um sistema de IA é implantado em ambientes de alto risco, se envolve tomada de decisões críticas ou o uso de dados sensíveis" e que a lei aplicaria "padrões rigorosos até mesmo às funções mais básicas."
Newsom disse que pediu a especialistas em IA generativa que ajudem a Califórnia a "estabelecer limites práticos" que se concentrem "no desenvolvimento de uma análise de trajetória empírica e baseada na ciência". Ele também ordenou que agências estaduais ampliem sua avaliação dos riscos de eventos catastróficos potenciais relacionados ao uso de IA.
A IA generativa gerou muito entusiasmo, mas também preocupações de que possa tornar alguns empregos obsoletos, interferir em eleições e, potencialmente, dominar os humanos, causando efeitos catastróficos.
O autor do projeto de lei, o senador estadual democrata Scott Wiener, disse que a legislação era necessária para proteger o público antes que os avanços da IA se tornassem incontroláveis. A indústria de IA está crescendo rapidamente na Califórnia e alguns líderes questionaram o futuro dessas empresas no estado, caso o projeto fosse aprovado.
Wiener afirmou que o veto do governador torna a Califórnia menos segura e significa que "empresas que visam criar uma tecnologia extremamente poderosa não vão enfrentar restrições obrigatórias". Ele acrescentou que "compromissos voluntários da indústria não são aplicáveis e raramente funcionam bem para o público."
O governador disse que vai trabalhar com o legislativo estadual em uma proposta sobre IA na próxima sessão. Isso ocorre enquanto a legislação no Congresso dos EUA para estabelecer salvaguardas está estagnada, e as propostas de supervisão regulatória de IA do governo Biden avançam lentamente.
Newsom afirmou que "uma abordagem somente para a Califórnia pode ser justificada, especialmente na ausência de uma ação do Congresso em âmbito federal."
O autor do projeto disse que a legislação era necessária para proteger o público antes que os avanços da IA se tornassem incontroláveis.
A Câmara do Progresso, uma coalizão da indústria de tecnologia, elogiou o veto de Newsom, dizendo que "a economia de tecnologia da Califórnia sempre prosperou com base na competição e na abertura."
Entre outras coisas, a medida teria exigido testes de segurança para muitos dos modelos de IA mais avançados, que custam mais de US$ 100 milhões para serem desenvolvidos ou que exigem uma certa quantidade de poder de computação.
Desenvolvedores de softwares de IA operando no estado também precisariam delinear métodos para desligar os modelos de IA – efetivamente, um "botão de desligar".
O projeto teria criado uma entidade estadual para supervisionar o desenvolvimento dos chamados "modelos de fronteira" que superam as capacidades dos modelos mais avançados existentes.
O projeto enfrentou forte oposição de diversos grupos. O Google, a OpenAI (apoiada pela Microsoft) e a Meta, todas desenvolvedoras de modelos de IA generativa, expressaram suas preocupações com a proposta. Alguns democratas no Congresso norte-americano também se opuseram.
Já entre os defensores da proposta estava o CEO da Tesla, Elon Musk, que também dirige uma empresa de IA chamada xAI. A Anthropic, apoiada pela Amazon, afirmou que os benefícios do projeto provavelmente superam os custos, embora tenha acrescentado que ainda havia alguns aspectos preocupantes ou ambíguos.
Newsom assinou em separado uma legislação que exige que o governo avalie as ameaças potenciais da IA generativa à infraestrutura do estado da Califórnia.