Com Trump, aumenta disseminação de vídeos criados por IA
Imagens aprimoradas ou editadas por IA são a ferramenta mais recente que a Casa Branca usa para interagir com a base de Trump que passa muito tempo online

O governo do presidente Donald Trump não tem evitado compartilhar imagens geradas por IA nas redes sociais, adotando visuais cartunescos, memes e promovendo esse conteúdo em canais oficiais da Casa Branca.
Mas uma imagem editada (e realista) da advogada de direitos civis Nekima Levy Armstrong chorando após ser presa está acionando novos alertas sobre como a administração vem tornando mais tênues as fronteiras entre o que é real e o que é falso.
A conta da secretária de Segurança Interna, Kristi Noem, publicou a imagem original da prisão de Levy Armstrong antes de a conta oficial da Casa Branca divulgar uma versão alterada, na qual ela aparece em lágrimas.
A imagem adulterada faz parte de uma enxurrada de conteúdos editados por IA que passaram a circular por todo o espectro político desde os assassinatos de Renee Good e Alex Pretti por agentes do Serviço de Imigração dos EUA (ICE na sigla em inglês), em Minneapolis.
- Hollywood enfrenta polêmica com atriz feita por Inteligência Artificial; entenda
- 6 dicas para identificar vídeos criados por inteligência artificial
- Pesquisa aponta que conteúdo de IA de baixa qualidade está entupindo a web
- Com a IA generativa, está cada vez mais difícil saber o que é real nas redes sociais
O uso de inteligência artificial pela Casa Branca, no entanto, tem preocupado especialistas em desinformação, que temem que a disseminação de imagens geradas ou editadas por IA prejudique ainda mais a percepção pública sobre a verdade e semeie desconfiança.
Em resposta às críticas à imagem manipulada de Levy Armstrong, autoridades da Casa Branca dobraram a aposta. O vice-diretor de comunicações, Kaelan Dorr, escreveu no X que os “memes vão continuar”. A vice-secretária de imprensa, Abigail Jackson, também compartilhou uma publicação zombando das críticas.
Leia mais: Canal fake criado com o Sora 2 atraiu mais de 20 mil visualizações no YouTube
Chamar a imagem alterada de meme “claramente parece uma tentativa de enquadrá-la como uma piada ou um post humorístico, como os cartuns anteriores”, afirma David Rand, professor de ciência da informação na Universidade Cornell.
Segundo ele, isso “provavelmente busca blindar a administração de críticas por publicar mídia manipulada”. Rand acrescenta que o objetivo de compartilhar a imagem adulterada da prisão é “muito mais ambíguo” do que o das imagens humorísticas usadas anteriormente.
FALTA DE CONFIANÇA E DE CREDIBILIDADE
Imagens aprimoradas ou editadas por IA são apenas a ferramenta mais recente usada pela Casa Branca para engajar o segmento da base de Trump que passa muito tempo online, diz Zach Henry, consultor de comunicação republicano e fundador da empresa de marketing de influência Total Virality.
“As pessoas que vivem online vão ver aquilo e reconhecer imediatamente como um meme”, afirma. “Seus avós podem ver e não entender o meme, mas, como parece real, isso os leva a perguntar aos filhos ou netos sobre o que está acontecendo.”Melhor ainda se provocar uma reação intensa, o que ajuda o conteúdo a viralizar, diz Henry.
A criação e disseminação de imagens alteradas, especialmente quando compartilhadas por fontes consideradas confiáveis, “cristaliza uma ideia do que está acontecendo, em vez de mostrar o que realmente está acontecendo”, afirma Michael A. Spikes, professor da Universidade Northwestern e pesquisador de alfabetização midiática.

“O governo deveria ser um lugar onde se pode confiar na informação, onde se pode dizer que ela é precisa, porque há uma responsabilidade nisso”, diz Spikes. “Ao criar e compartilhar esse tipo de conteúdo… isso corrói a confiança que deveríamos ter no governo federal para nos fornecer informações precisas e verificadas. É uma perda real, e isso me preocupa muito.”
Spikes afirma que já observa “crises institucionais” ligadas à desconfiança em organizações de mídia e no ensino superior, e acredita que esse tipo de comportamento por canais oficiais só agrava esses problemas.
Leia mais: Agora todo mundo pode ter seu próprio estúdio de animação
Muita gente agora questionam onde pode buscar “informação confiável”, analisa Ramesh Srinivasan, professor da Universidade da Califórnia e apresentador do podcast Utopias.
“Os sistemas de IA só vão intensificar, amplificar e acelerar esses problemas de falta de confiança e até de falta de entendimento do que pode ser considerado realidade, verdade ou evidência”, alerta.
VÍDEOS CRIADOS POR IA SERÃO CADA VEZ MAIS COMUNS
Para Srinivasan, quando a Casa Branca e outras autoridades e órgãos oficiais compartilham conteúdo gerado por IA, isso não apenas incentiva pessoas comuns a fazer o mesmo, como também concede uma espécie de permissão a outros indivíduos em posições de credibilidade e poder – como formuladores de políticas públicas – para compartilhar conteúdo sem informar que aquilo foi criado por IA.
Uma enxurrada de vídeos gerados por IA relacionados a ações do ICE, protestos e interações com cidadãos já vem se espalhando pelas redes. A maior parte provavelmente vem de contas focadas em “engagement farming” – ou seja, que buscam capitalizar cliques ao gerar conteúdo com palavras-chave populares, como ICE.
Os sistemas de IA só vão intensificar, amplificar e acelerar os problemas de falta de confiança.
Para Jeremy Carrasco, criador de conteúdo especializado em alfabetização midiática e em desmentir vídeos virais de IA, esses vídeos também recebem visualizações de pessoas contrárias ao ICE e ao Departamento de Segurança Interna (DHS), que podem estar assistindo como uma espécie de “fanfic” ou na esperança de ver resistência real contra essas organizações e seus agentes.
Ainda assim, Carrasco acredita que a maioria dos espectadores não consegue distinguir se o que está vendo é falso e questiona se eles saberiam identificar “o que é real ou não quando isso realmente importa, quando os riscos são muito maiores”.
Mesmo quando há sinais evidentes de geração por IA – como placas de rua com palavras sem sentido ou outros erros óbvios –, apenas no “melhor dos cenários” um espectador seria atento ou experiente o suficiente para perceber o uso da tecnologia.

O problema, claro, não se limita a notícias sobre imigração e protestos. Imagens fabricadas e distorcidas após a captura do líder venezuelano deposto Nicolás Maduro explodiram online no início deste mês. Especialistas, incluindo Carrasco, acreditam que a disseminação de conteúdo político gerado por IA só tende a se tornar mais comum.
Carrasco acredita que um passo em direção a uma solução seria a implementação de um sistema de marca d’água que incorpore informações sobre a origem de um conteúdo diretamente em sua camada de metadados.
A Coalizão para Proveniência e Autenticidade de Conteúdo (C2PA) já desenvolveu um sistema assim, mas Carrasco não acredita que ele será amplamente adotado por pelo menos mais um ano. “Isso vai ser um problema para sempre, agora”, diz. “Acho que as pessoas não entendem o quão grave isso é.”
Com a colaboração de Jonathan J. Cooper e Barbara Ortutay, da Associated Press