Grupo focado em ética digital diz que GTP-4 é um risco à segurança pública

O Centro de IA e Política Digital (CAIDP) apresentou queixa em nível federal, alimentando uma onda de críticas contra a nova IA generativa

Créditos: coldsnowstorm/ Sabrina Gelbart/ iStock/ Pexels

Clint Rainey 4 minutos de leitura

Um grupo de ética dedicado a debater a inteligência artificial declarou que o GPT-4 é “um risco para a segurança pública” e insiste para que o governo dos EUA investigue a fabricante OpenAI, acusada de colocar os consumidores em perigo.

O Centro de IA e Política Digital (CAIDP, na sigla em inglês) apresentou essa reclamação à Comissão Federal de Comércio (FTC) na última quinta-feira, 30 de março depois de ter lançado uma carta aberta pedindo uma proibição temporária de toda a IA generativa.

Cerca de 1,2 mil pesquisadores, executivos de tecnologia e outros profissionais da área assinaram a carta – incluindo o cofundador da Apple, Steve Wozniak, e (o que é bastante curioso) o cofundador da OpenAI, Elon Musk. 

os supostos perigos do GPT-4 incluem o potencial de produzir códigos maliciosos, reforçar discursos de ódio e expor o histórico dos usuários.

O documento defende uma pausa mínima de seis meses no progresso tecnológico, a fim de oferecer à humanidade a chance de dar um passo para trás e fazer uma análise do custo-benefício dessa tecnologia que está se desenvolvendo em um ritmo vertiginoso e fazendo tanto sucesso.

Marc Rotenberg, presidente do CAIDP, estava entre os signatários da carta. O grupo vai além, e defende que a FTC é o órgão que deveria avaliar o GPT-4 – produto que apresenta uma responsabilidade séria, a ponto de a própria fabricante OpenAI ter reconhecido seu potencial de abuso em categorias como "desinformação", “proliferação de armas convencionais e não convencionais” e “cibersegurança”.

“A Comissão Federal de Comércio (FTC) declarou que o uso da inteligência artificial deve ser ‘transparente, explicável, justo e empiricamente sólido, ao mesmo tempo em que promova a responsabilidade'”, diz a queixa. “O produto GPT-4 da OpenAI não satisfaz nenhum desses requisitos”, acrescenta, antes de chamar o governo à ação. “É hora de a FTC agir”.

RISCOS POTENCIAIS

Na reclamação do CAIDP, os supostos perigos do GPT-4 incluem o potencial de produzir códigos maliciosos, reforçar discursos de ódio – desde estereótipos raciais até discriminação de gênero – e expor os históricos do ChatGPT dos usuários (o que já aconteceu uma vez), incluindo detalhes de pagamentos.

Mira Murati, da OpenAI (Crédito: Michelle Watt)

O grupo argumenta que a OpenAI violou as regras de práticas comerciais desleais e enganosas do FTC Act, e que o FTC também deveria examinar as chamadas alucinações do GPT-4 – quando a IA insiste falsa e repetidamente que um fato inventado é real – porque a ferramenta se baseia em “declarações comerciais e publicidade enganosas”.

O CAIDP argumenta que a OpenAI lançou o GPT-4 para uso comercial “com pleno conhecimento desses riscos”, e que, por isso, uma resposta regulatória é necessária.

Para resolver esses problemas, o CAIDP pede à FTC que proíba a implantação comercial adicional do modelo GPT e que exija uma avaliação independente. O centro também quer que o governo crie uma ferramenta de denúncia pública, parecida com a que os consumidores usam para registrar reclamações de fraude.

"CAIXA PRETA"

O GPT-4 atraiu seguidores quase fanáticos em certos círculos tecnológicos – um fervor que provavelmente ampliou o sentimento, entre os críticos, de que era necessário ligar o alerta vermelho sobre a onipresença da IA generativa na nossa cultura.

O grupo pede uma avaliação independente e a criação de uma ferramenta para reclamação, como as usadas para denunciar fraudes.

Além disso, a maneira como a OpenAI se comporta também deu munição aos críticos. A organização não trabalha com código aberto, então é uma caixa preta, e alguns reclamam disso.

Outros observam que ela está reproduzindo os piores padrões da tecnologia nas áreas visíveis, como usar trabalhadores quenianos que ganham menos de US$ 2 por hora para tornar o ChatGPT menos tóxico e se esconder atrás do título de “laboratório de pesquisa” para evitar pedidos de maior supervisão.

A OpenAI entendeu esses ataques e parece que até previa que esse dia ia chegar.  Por um tempo, o CEO, Sam Altman, tem abordado os medos mais amplos de que a IA esteja sendo liberada, admitindo que “as ferramentas da geração atual não são tão assustadoras”, mas que “não estamos tão longe de criar ferramentas potencialmente assustadoras”. Ele reconheceu que “a regulamentação será crucial”.

Enquanto isso, Mira Murati, que, como diretora de tecnologia lidera a estratégia por trás de como testar as ferramentas da OpenAI em público, declarou à Fast Company, quando questionada sobre o GPT-4, logo antes de seu lançamento: “acho que menos hype faria bem”.


SOBRE O AUTOR

Clint Rainey é jornalista investigativo, mora em NYC e é colaborador da Fast Company. saiba mais