Alertas sobre deepfakes podem nos fazer duvidar até de vídeos verdadeiros

Análise das discussões sobre a invasão russa à Ucrânia revela que a disseminação de deepfakes pode minar a confiança em qualquer tipo de conteúdo

Créditos: Armand Khoury/ Markus Spiske/ Unsplash

Chris Stokel-Walker 2 minutos de leitura

Conscientizar sobre os riscos de deepfakes gerados por inteligência artificial se tornou um dos principais objetivos daqueles que se preocupam com a integridade das eleições e com a disseminação de desinformação nas redes sociais. Mas os esforços para alertar as pessoas sobre esse problema podem, inadvertidamente, fazê-las duvidar inclusive de conteúdos autênticos.

Esta é a conclusão de um novo estudo realizado por John Twomey, pesquisador de psicologia aplicada da University College Cork, na Irlanda, e seus colegas. Eles analisaram discussões envolvendo mais de 1,2 mil tuítes sobre a invasão russa à Ucrânia, alguns dos quais alertavam sobre o risco de conteúdo deepfake nas redes sociais.

A questão se tornará ainda mais relevante no próximo ano, uma vez que ocorrerão mais de 150 eleições em todo o mundo.

“Em muitos aspectos, os deepfakes são uma faca de dois gumes”, afirma Twomey. “Eles não apenas aumentam a desconfiança em relação a conteúdos reais, mas também tornam mais fácil para as pessoas apontarem informações legítimas como falsas, de maneira semelhante à forma como o termo ‘fake news’ foi apropriado e redefinido pelo ex-presidente dos EUA Donald Trump.”

Twomey relata que isso estava ocorrendo nas conversas do X/ Twitter que ele e seus colegas analisaram. “Foi o que constatamos, com o uso recorrente da palavra deepfake", diz ele. Alguns dos tuítes usavam o termo para descrever contas (autênticas) na plataforma. “Essa é minha principal preocupação”, acrescenta.

A questão se tornará ainda mais relevante no próximo ano, uma vez que ocorrerão mais de 150 eleições em todo o mundo em um momento em que nunca foi tão fácil produzir conteúdo falso com o uso da IA.

A equipe de pesquisadores observou muitas conversas construtivas no X/ Twitter sobre o tema. “Em muitos casos, havia um ceticismo positivo”, diz Twomey. “As pessoas expressavam a necessidade de serem cautelosas ao compartilhar vídeos que poderiam ser deepfakes.”

No entanto, ele se preocupa com a forma como alguns estavam utilizando o termo para manipular a percepção de quais conteúdos são legítimos ou não.

Os deepfakes não apenas aumentam a desconfiança em relação a conteúdos reais, mas também tornam mais fácil para as pessoas apontarem informações legítimas como falsas

Twomey diz não ter uma resposta definitiva sobre qual seria a maneira ideal de enfrentar este perigo iminente sem aumentar o risco de sua interpretação ser distorcida por pessoas mal-intencionadas.

“De certa forma, é um problema que já está ocorrendo”, reconhece. O pesquisador defende que as plataformas deveriam investir mais para impedir o compartilhamento de conteúdo deepfake.

Quanto aos usuários, ele oferece duas sugestões. Uma delas é pedir provas que comprovem a alegação de que um vídeo foi manipulado de alguma forma. “Se alguém diz que um determinado vídeo é falso, essa pessoa deveria fornecer evidências disso.” 

A segunda é agir com mais responsabilidade. “Pode levar um tempo até que fique comprovado que um vídeo é falso”, observa Twomey. “Sei que ninguém quer ouvir que a solução é esperar a confirmação para só depois compartilhar ou retuitar. Mas, às vezes, o mais sensato é aguardar opiniões com algum grau de embasamento.”


SOBRE O AUTOR

Chris Stokel-Walker é um jornalista britânico com trabalhos publicados regularmente em veículos, como Wired, The Economist e Insider saiba mais