Ferramentas com IA são acusadas de criar apoio falso a políticas públicas

comentários falsos feitos com IA
Crédito: Rytis Bernotas/ Getty Images

Adele Peters 6 minutos de leitura

No ano passado, quando uma agência de qualidade do ar do sul da Califórnia propôs uma nova regra para incentivar consumidores a comprarem bombas de calor em vez de aquecedores a gás, ela foi inundada com 20 mil comentários contrários à ideia – muito mais do que o habitual.

“Devido ao volume e à natureza desses comentários, o South Coast AQMD teve preocupações quanto à sua autenticidade”, diz Rainbow Yeung, porta-voz da agência. O diretor executivo chegou a receber um e-mail agradecendo sua “oposição” a uma regra que havia sido elaborada pela própria equipe.

Para verificar a validade dos comentários, o Distrito de Gestão da Qualidade do Ar da Costa Sul entrou em contato com uma pequena amostra de autores – 172 pessoas – para confirmar se elas realmente haviam enviado os e-mails.

Quase ninguém respondeu. Entre os cinco que responderam, três disseram que não sabiam nada sobre os comentários enviados em seus nomes.

Em uma investigação paralela, um ativista do Sierra Club também começou a contatar pessoas da lista; as quatro que ele conseguiu alcançar disseram que não haviam enviado e-mails.

O jornal " Los Angeles Times" revelou recentemente que a CiviClick, empresa que se apresenta como fornecedora de “ferramentas de advocacy com IA”, liderou a campanha de envio de comentários contrários. O cliente era um consultor de assuntos públicos com ligações com a indústria de gás.

Leia mais: É impossível impedir fraudes com IA generativa, mas dá para se proteger

A CiviClick nega ter enviado qualquer e-mail sem consentimento ou ter usado IA para fabricar mensagens automatizadas. A agência ainda investiga o caso.

Independentemente do que tenha ocorrido, o episódio levanta uma questão mais ampla: se a inteligência artificial agora pode facilmente se passar por humanos, e se comentários podem ser enviados sem o conhecimento das pessoas, como órgãos públicos podem saber se uma contribuição veio de um cidadão ou de um bot?

COMENTÁRIOS FALSOS FEITOS COM IA

Em teoria, a inteligência artificial pode facilitar a criação e o envio de comentários falsos que soam reais. A CiviClick afirma que apenas usa IA para ajudar pessoas reais a personalizarem suas mensagens.

A plataforma faz perguntas relacionadas ao tema – por exemplo, como um aumento de impostos afetaria o orçamento do usuário – e, a partir disso, ajusta o e-mail. A empresa também usa IA para prever a probabilidade de alguém responder a uma campanha.

O fundador e CEO da CiviClick, Chazz Clevinger, disse não poder comentar os detalhes da campanha na Califórnia, mas afirma que ela captou de forma significativa as opiniões autênticas da população da região.

combate a conteúdos de sexo explícito na internet
Créditos: Mohammad Alizade / Unsplash, Rytis Bernotas / iStock

“Um proprietário no condado de Riverside que instalou recentemente um aquecedor a gás escreveu uma mensagem diferente de um inquilino em Los Angeles preocupado com os custos de conformidade para proprietários”, afirmou à Fast Company.

Clevinger argumenta que a ferramenta apenas ajuda as pessoas a “articularem suas preocupações genuínas” e que esses comentários não são menos legítimos do que mensagens escritas do zero.

O ativista do Sierra Club vê a questão de outra forma. Mesmo que alguém consinta que a IA ajuste um comentário, isso pode ser problemático. “Reguladores dão prioridade a comentários personalizados, que exigem tempo e esforço, em relação a cartas padrão ou petições”, diz Dylan Plummer, conselheiro de campanha da iniciativa “Clean Heat”.

garantir que colaborações para consultas públicas venham de humanos é uma tarefa cada vez mais difícil.

“O uso de IA para gerar comentários personalizados cria a ilusão de indivíduos engajados, dispostos a dedicar tempo para elaborar uma opinião quando, na prática, estão tão envolvidos quanto alguém que apenas assinou uma petição”, complementa.

Em outro caso, na Carolina do Norte, comissários de um condado receberam centenas de e-mails apoiando um novo gasoduto. Mas, ao responderem a alguns deles, descobriram que os supostos remetentes diziam não ter enviado nada. A campanha acabou saindo pela culatra.

O conselho votou de maneira unânime por uma resolução que levantava preocupações sobre o projeto e recomendava que autoridades federais negassem a licença.

Leia mais: Como descobrir contas e registros em seu nome? Entenda o que é o Registrato do BC

A Williams, empresa interessada na construção do gasoduto, sugeriu que as pessoas poderiam simplesmente ter esquecido que enviaram os e-mails. A CiviClick, que intermediou a campanha, fez a mesma alegação no caso da Califórnia.

TECNOLOGIA PODE AJUDAR A DETECTAR FRAUDES

Agências públicas têm a tarefa de considerar informações técnicas, legais e econômicas apresentadas durante consultas públicas. Mas elas não contabilizam simplesmente o número de comentários de cada lado — o que importa mais são as ideias do que o nome de quem as enviou.

Comentários falsos ou gerados por IA “soam estranhos”, diz Steven Balla, professor de ciência política da Universidade George Washington, que estuda participação pública. “Mas ainda não vi evidências de que isso esteja mudando completamente a forma como decisões políticas são tomadas.”

“O que sabemos sobre desinformação, de modo geral, é que ela costuma ter impacto limitado sobre o que as pessoas acreditam ou fazem”, afirma Jonathan Brennan, diretor do Centro de Política de Tecnologia da Universidade de Nova York.

deepfakes de vídeo
Crédito: Mininyx Doodle/ Getty Images

Segundo Balla, as agências já conseguem usar tecnologia para organizar comentários digitais e agrupar mensagens duplicadas — algo diferente das antigas campanhas em massa por cartões-postais. “Hoje você recebe 100 mil comentários, e 99 mil são praticamente idênticos. E isso pode ser identificado em segundos.”

No Distrito de Qualidade do Ar da Costa Sul, o conselho votou por margem estreita para rejeitar a regra proposta, que buscava reduzir a poluição. Embora a CiviClick tenha destacado seu papel na decisão, é difícil medir o impacto real dos comentários.

O conselho determinou que a proposta voltasse a um comitê para novas discussões. Ela pode ser retomada no futuro, embora ainda não haja prazo definido.

A CiviClick afirma que apenas usa IA para ajudar pessoas reais a personalizarem suas mensagens.

Agora, o Sierra Club pede que o procurador-geral da Califórnia e o promotor distrital de Los Angeles abram uma investigação por fraude. O senador estadual Christopher Cabaldon apresentou recentemente um projeto de lei chamado “People Not Bots”, que busca deixar claro que ferramentas de IA não são pessoas e não devem gerar participação pública falsa.

Enquanto isso, a agência de qualidade do ar do sul da Califórnia estuda maneiras de tornar o envio de comentários mais seguro, incluindo novos sistemas de verificação para garantir que as contribuições venham de humanos — uma tarefa cada vez mais difícil.

“Manter a integridade do nosso processo público é uma prioridade máxima”, afirma Yeung.


SOBRE A AUTORA

Adele Peters é redatora da Fast Company. Ela se concentra em fazer reportagens para solucionar alguns dos maiores problemas do mundo, ... saiba mais