Como a IA foi usada para criar uma “expert confiável” que nem sequer existe

Com o avanço da tecnologia, a internet está cada vez mais lotada de desinformação e conteúdo falso gerado por IA

Crédito: hongkha/ Pixabay/ Rytis Bernotas/ Getty Images

Eve Upton-Clark 2 minutos de leitura

Ashley Abramson conheceu Sophie Cress quando recebeu um e-mail inesperado em sua caixa de entrada profissional. Na mensagem, Cress se oferecia como fonte especializada matérias em que Abramson estivesse trabalhando como jornalista freelance.

“Tenho mais de oito anos de experiência em psicologia e terapia de casal e família e estou animada para possíveis colaborações, especialmente em temas como amor, relacionamentos e questões LGBTQIA+”, escreveu Cress.

O e-mail incluía uma lista de links para artigos nos quais ela supostamente havia sido citada como especialista. Mas o que chamou a atenção de Abramson foi o fato de o endereço de e-mail estar vinculado a um site de avaliações de brinquedos sexuais. Quando a jornalista insistiu que só realizava entrevistas por telefone ou videochamada, Cress simplesmente desapareceu.

Intrigada, Abramson decidiu investigar mais a fundo. Em uma reportagem recente para a revista “Allure, descobriu que Sophie Cress não existia. A identidade havia sido criada pelo dono do site Sexual Alpha, sediado na Letônia, com o objetivo de aumentar o tráfego e melhorar o ranqueamento da página nos mecanismos de busca. Dainis Graveris, proprietário do site, não respondeu quando procurado por Abramson. 

Determinada a desvendar o caso, a jornalista buscou registros de alguma “Sophie Cress” licenciada na Carolina do Norte ou qualquer pessoa com os diplomas e certificações que ela alegava ter. Não encontrou nada. Além disso, descobriu que a foto de perfil usada era, na verdade, de um banco de imagens – a mulher da foto nem sequer se chamava Sophie Cress.

Muitos jornalistas que receberam o contato de Cress simplesmente aceitaram suas credenciais sem questionar, permitindo que sua identidade falsa enganasse veículos como “Metro” e “Daily Mail”.

O crescimento desse tipo de conteúdo só piora o cenário de uma internet já lotada de desinformação.

Qualquer pessoa pode alegar ser quem quiser, e os programas de IA tornam incrivelmente fácil gerar um texto que, à primeira vista, parece ter sido escrito por um especialista em qualquer área”, diz Abramson.

Esse caso é um exemplo clássico do que vem sendo chamado de “slop” – um termo usado para descrever conteúdo falso gerado por IA, que estão cada vez mais comuns na internet. Alguns estudos já apontam que as pessoas avaliam esses textos e imagens de maneira mais positiva do que os criados por humanos – ou, pelo menos, não conseguem notar a diferença.

O crescimento do conteúdo falso gerado por IA só piora o cenário de uma internet já lotada de desinformação. “Embora isso provavelmente não seja parte de uma campanha russa para manipular eleições, também não é um bom sinal para o futuro”, conclui Abramson.


SOBRE A AUTORA

Eve Upton-Clark é jornalista especializada em cultura digital e sociedade. saiba mais