Vamos perder a chance de regular a IA generativa antes que cause problemas?

Deixar a indústria de tecnologia agir por conta própria com relação a regras de uso da inteligência artificial pode ser desastroso

Crédito: Stefan Lambauer/ iStock/ Freepik

Mark Sullivan 3 minutos de leitura

Enquanto os legisladores buscam entender a IA generativa, alguns temem mais uma resposta inexpressiva do Congresso norte-americano, como foi o caso das redes sociais.

Começando no primeiro mandato de George W. Bush e se estendendo até a administração Obama, as empresas de tecnologia conseguiram evitar as pressões do governo com promessas de “autorregulação” em questões-chaves como proteção à privacidade, segurança infantil, desinformação e portabilidade de dados.

Mas agora muitos acreditam que um regime regulatório eficaz precisa ser implementado assim que novas tecnologias surgem, para obrigar as empresas a desenvolver seus produtos já com proteções aos usuários em mente.

ainda vai levar algum tempo até termos diretrizes para proteção contra os possíveis danos que a IA generativa pode causar.

Uma série de projetos de lei sobre várias aplicações específicas da IA – como o uso de reconhecimento facial por autoridades e por empresas – foram apresentados no Congresso norte-americano, mas ainda não há um projeto abrangente focado na proteção ao consumidor e em padrões de desenvolvimento de produtos com sistemas de inteligência artificial.

Ao que parece, ainda vai levar algum tempo até que seja aprovado um conjunto de diretrizes para proteger produtores de conteúdo e consumidores dos possíveis danos que a IA generativa – como o ChatGPT, da OpenAI – pode causar.

Em outubro, o Escritório de Política Científica e Tecnológica da Casa Branca lançou seu “Plano para uma Declaração de Direitos de IA”, documento que fornece uma estrutura que legisladores podem usar como base para a criação de regulamentos sobre design, desenvolvimento, governança e implementação de sistemas de IA.

Essas diretrizes podem proteger os usuários finais dos danos relacionados ao viés da inteligência artificial ou dos dados de treinamento, abusos de privacidade e usos antiéticos da tecnologia.

Versões da Lei de Responsabilidade Algorítmica de 2022, proposta pelo senador democrata Ron Wyden, foram apresentadas no Senado e na Câmara dos EUA em fevereiro do ano passado, mas não passaram pelo comitê.

O projeto de lei exigiria que as empresas de tecnologia apresentassem “avaliações de impacto de sistemas de decisão automatizados e de processos de decisão crítica aumentados” à Federal Trade Commission (FTC), agência de proteção aos consumidores e ao mercado.

A PRÓXIMA GRANDE TECNOLOGIA

Muitos legisladores (e suas equipes) acreditam que uma nova grande onda de tecnologia está surgindo e que é preciso entender seu funcionamento e suas implicações. Afinal, inteligência artificial não é apenas uma tecnologia voltada para o consumidor e entender o funcionamento da rede neural dentro da “caixa preta” é um desafio para muitos no setor.

O senador Mark Warner, um veterano da indústria de tecnologia móvel, está preocupado com a IA tanto do ponto de vista da proteção ao consumidor quanto da segurança nacional.

Ele tem sido bastante cético em relação a empresas e projetos que se apropriam do termo, suspeitando que o uso seja apenas para atrair atenção ou financiamento. Mas está cada vez mais convencido de que a IA, e principalmente a IA generativa, tem o potencial de ser uma tecnologia transformadora.

O mau uso da IA generativa poderia criar todo um novo espectro de ameaças, incluindo questões de privacidade e segurança.

Warner compartilha a crença com profissionais dos círculos do Vale do Silício de que a IA generativa pode ser a próxima grande tecnologia depois das redes sociais. Hoje, essas plataformas dependem dos amigos e da família do usuário para entregar conteúdo personalizado. No futuro, aplicativos poderão usar a IA generativa para fazer o mesmo, oferecendo uma infinidade de conteúdo customizado.

Estes aplicativos, provavelmente, poderão gerar qualquer tipo de experiência multimídia que o usuário possa imaginar, como chatbots que soam como seu melhor amigo, filmes criados a partir de um enredo sugerido, jogos personalizados etc. 

Se isso for verdade, será uma grande reviravolta na indústria de tecnologia. Mas também poderia criar todo um novo espectro de ameaças aos consumidores, incluindo questões de privacidade e segurança.

Criadores e donos de conteúdo já apontam práticas abusivas por parte de empresas que usam suas produções e obras sem permissão para treinar modelos de IA. Os legisladores não podem mais permitir que esse setor se autorregule, como no passado.

“Não podemos repetir o erro de deixar que ajam como quiserem para só depois tentar remediar os problemas”, argumenta Warner. “Isso seria um desastre.”


SOBRE O AUTOR

Mark Sullivan é redator sênior da Fast Company e escreve sobre tecnologia emergente, política, inteligência artificial, grandes empres... saiba mais