Situações deepfake são a próxima fronteira na guerra da desinformação

Esta nova tecnologia pode manipular eventos reais ou inventar situações fictícias, criando ainda mais confusão durante as eleições

Créditos: Kdwk Leung/ Unsplash/ wildpixel/ iStock

Christopher Schwartz 4 minutos de leitura

Imagine nas próximas eleições presidenciais dos EUA algo nunca antes visto: apenas uma semana antes da apuração dos votos, uma gravação em vídeo revela uma reunião secreta entre Joe Biden e Volodymyr Zelenskyy.

Os presidentes concordam em incluir imediatamente a Ucrânia na OTAN sob o "protocolo especial de adesão de emergência” e se preparar para um ataque nuclear contra a Rússia. De repente, estamos à beira de uma Terceira Guerra Mundial.

Embora jornalistas apontem que tal protocolo não existe e usuários de redes sociais percebam elementos estranhos no vídeo, outros sentem que seus piores medos foram confirmados. Esses cidadãos preocupados podem deixar o vídeo influenciar seu voto, sem saber que acabaram de ser manipulados por um deepfake de um evento que nunca aconteceu de fato.

Esse tipo de deepfake representa o próximo estágio de tecnologias que já abalaram a percepção da realidade do público. Em nossa pesquisa no Projeto DeFake, estudamos como são feitos e que medidas os eleitores podem tomar para se protegerem deles.

IMAGINANDO EVENTOS QUE NUNCA ACONTECERAM

Os deepfakes são criados com a ajuda da inteligência artificial para manipular ou gerar rostos, vozes ou – com o surgimento de grandes modelos de linguagem como o ChatGPT – linguagem conversacional. Estes elementos podem ser combinados para criar os chamados “deepfakes de situação”.

A ideia básica e a tecnologia por trás deles são as mesmas de qualquer outro deepfake, mas com um objetivo mais ousado: manipular um evento real ou inventar situações fictícias.

Esse tipo de deepfake representa o próximo estágio de tecnologias que já abalaram a percepção da realidade do público.

Alguns exemplos incluem representações da prisão de Donald Trump e do ex-presidente abraçando Anthony Fauci, eventos que nunca aconteceram. A imagem do abraço foi promovida por uma conta do Twitter associada à campanha presidencial de Ron DeSantis, atual governador da Flórida e rival de Trump. Outro anúncio atacando a campanha de Joe Biden para 2024, publicado pelo Comitê Nacional Republicano, foi feito inteiramente com IA.

Nossa pesquisa no Projeto DeFake descobriu que os deepfakes são normalmente criados combinando notícias; usando um vídeo para alterar outro ou animar uma imagem (prática apelidada de “puppeteering”); criando uma notícia falsa, geralmente usando IA generativa; ou uma combinação de duas ou mais dessas técnicas.

É importante ressaltar que muitos deles são criados com propósitos inocentes. Por exemplo, a revista “Infinite Odyssey” produz imagens falsas de cenas de filmes que nunca foram produzidos ou que seriam impossíveis de existir.

Mas até mesmo deepfakes inocentes devem ser motivo de cautela, como no caso de fotografias falsas convincentes que retratam a aterrissagem na Lua como uma produção de cinema.

Crédito: imaginima/ Getty Images

DEEPFAKES EM ELEIÇÕES 

Agora, imagine-se na posição de alguém tentando influenciar as próximas eleições. Quais situações você poderia criar?

Para começar, seria importante decidir se deseja influenciar o voto a favor ou contra um resultado específico. Talvez retratando um candidato agindo heroicamente, salvando um pedestre de um carro em alta velocidade, ou fazendo algo ofensivo ou criminoso.

O formato do deepfake também seria relevante. Poderia ser um vídeo ou uma foto, talvez desfocado, simulando uma câmera de smartphone ou com um logotipo falso de uma agência de notícias.

Definir o público-alvo seria fundamental. Em vez de mirar no eleitorado geral ou na base de um partido, você poderia se concentrar em teóricos da conspiração em distritos eleitorais-chave. Poderia retratar o candidato ou seus familiares participando de um ritual satânico ou em uma reunião secreta com um extraterrestre.

PROTEGENDO A REALIDADE

Existem diversas maneiras de detectar e se proteger desses deepfakes. No aspecto tecnológico, todos contêm alguma evidência de sua verdadeira natureza. Alguns podem ser percebidos pelo olho humano – como uma pele excessivamente suave ou iluminação e arquitetura estranhas –, enquanto outros podem ser detectados apenas por uma IA especializada em identificar deepfakes.

A ideia básica e a tecnologia são as mesmas de qualquer deepfake, mas com um objetivo mais ousado - manipular um evento real ou inventar situações fictícias.

Estamos desenvolvendo um detector chamado DeFake que utiliza inteligência artificial para identificar os sinais que indicam se tratar de um deepfake. Mas mesmo que um detector suficientemente poderoso não possa ser implementado até as próximas eleições, existem ferramentas psicológicas que o eleitor pode usar para identificá-los: conhecimento prévio, curiosidade e ceticismo saudável.

Ao se deparar com algum conteúdo sobre uma pessoa, lugar ou evento que pareça incomum, confie em seu conhecimento prévio. Por exemplo, em um boato recente sobre um incêndio no Pentágono, o prédio mostrado se parecia mais com quadrado do que com seu formato verdadeiro, o que pode ser uma pista.

No entanto, evite depender totalmente do seu conhecimento prévio, já que pode ser equivocado ou limitado. Não tenha medo de buscar mais informações em fontes confiáveis, como agências de checagem, artigos acadêmicos revisados por pares ou entrevistas com especialistas renomados.

Além disso, é importante estar ciente de que deepfakes podem ser usados para explorar o que estamos inclinados a acreditar sobre uma pessoa, lugar ou evento. Uma das melhores maneiras de lidar com isso é ter consciência de seus preconceitos e ser cauteloso em relação a qualquer conteúdo que pareça confirmá-los.

Este artigo foi publicado originalmente no The Conversation e reproduzido sob licença Creative Commons. Leia o artigo original.


SOBRE O AUTOR

Christopher Schwartz é pesquisador associado de pós-doutorado em segurança de computação no Rochester Institute of Technology. saiba mais