Você consegue identificar imagens geradas por IA? É bem possível que não

Novo estudo revela que poucas pessoas conseguem distinguir imagens reais de falsas. E à medida que a tecnologia melhora, isso só tende a piorar

Crédito: Icons8 Team/ Unsplash

Sarah Bregel 2 minutos de leitura

Se você acha que consegue distinguir imagens geradas por IA de imagens reais, é provável que esteja enganado.

Está cada vez mais difícil discernir se uma imagem é real ou falsa. Foi o que os autores de um estudo da Universidade de Waterloo, no Canadá, descobriram em uma pesquisa recente.

O estudo, publicado na revista “Advances in Computer Graphics”, mostrou 20 imagens a 260 participantes: 10 eram de pessoas reais obtidas através de pesquisas no Google e as outras foram geradas pelos programas de IA Stable Diffusion e DALL-E.

O que surpreendeu os pesquisadores foi que os participantes tiveram muito mais dificuldade do que o esperado em determinar quais imagem eram ou não geradas por inteligência artificial.

Eles precisavam identificar cada uma, mas só conseguiram acertar em média 61% das vezes. Os pesquisadores esperavam que esse número fosse bem mais alto, em torno de 85%.

Andreea Pocol, principal autora do estudo e doutoranda em ciência da computação na Universidade de Waterloo, destaca que os participantes puderam analisar as imagens com calma, prestando atenção a detalhes como dedos e outros elementos em que as ferramentas de IA costumam apresentar falhas.

Qual desses rostos é de uma pessoa de verdade? Nenhum. Ambos foram criados no thispersondoesnotexist.com (Crédito: The Conversation)

“As pessoas não são tão boas em fazer essa distinção quanto pensam”, afirma a autora. Ela também acrescenta que, em geral, não dedicamos tempo suficiente para avaliar as imagens que aparecem em nossos feeds, apenas damos uma olhada rápida e seguimos em frente.

“Quando estamos apenas rolando a tela ou não temos tempo, não percebemos essas pistas”, ela explica. Pocol também destacou que a IA se tornou muito mais realista nos últimos anos (seu estudo começou no final de 2022).

“A desinformação não é um fenômeno novo, mas as ferramentas usadas estão constantemente mudando e evoluindo”, diz ela . “Pode chegar a um ponto em que as pessoas, por mais treinadas que sejam, ainda terão dificuldade em diferenciar imagens reais de falsas. É por isso que precisamos desenvolver ferramentas para identificar e combater isso. É uma nova corrida da IA.”

Imagens: generated.photos

Quando se trata da esfera política, imagens falsas convincentes podem até influenciar as eleições. Um exemplo recente ocorreu quando apoiadores de Donald Trump criaram dezenas de deepfakes de pessoas negras apoiando o ex-presidente dos EUA.

De acordo com um novo relatório do Center for Countering Digital Hate (Centro de Combate ao Ódio Digital), as ferramentas de IA podem ser facilmente usadas para criar imagens enganosas durante o período eleitoral.

Crédito: Reprodução/ Instagram

“Embora elas façam algum esforço de moderação de conteúdo, as proteções que existem são inadequadas”, afirma o grupo. “Com a facilidade de acesso e as barreiras mínimas à entrada proporcionadas por estas plataformas, praticamente qualquer pessoa pode gerar e disseminar desinformação eleitoral.”

As empresas de IA ainda têm muito trabalho pela frente em relação a deepfakes e à facilidade com que a desinformação pode se espalhar – porque não importa o quanto analisemos as imagens, nem sempre conseguimos discernir o que é real.


SOBRE A AUTORA

Sarah Bregel é uma escritora, editora e mãe solteira que mora em Baltimore, Maryland. Ela contribuiu para a nymag, The Washington Post... saiba mais