A IA acelera a desinformação – e exige mais do jornalismo
Com a IA impulsionando a desinformação, princípios do jornalismo ajudam a transformar ceticismo em verificação eficaz

Na maioria dos dias, um e-mail cai na minha caixa de entrada prometendo turbinar meu crescimento – seja o número de assinantes da newsletter, o alcance dos meus podcasts, a geração de leads ou qualquer outro indicador que pareça estratégico.
Já me acostumei com desconhecidos oferecendo seus serviços e algumas dessas mensagens sabem exatamente onde tocar: exploram, com habilidade, as inseguranças de quem toca um negócio (“você está deixando de ganhar dinheiro” e por aí vai). Nunca respondo. Mas, às vezes, fico me perguntando quais delas poderiam ser legítimas.
Há alguns meses, abri a barra lateral do assistente no meu navegador com IA enquanto lia um desses e-mails e perguntei se aquilo parecia suspeito (acho que o prompt foi algo como “isso parece suspeito?”). A resposta foi direta: sim.
A mensagem, que oferecia ajuda para captar recursos para o The Media Copilot, deixava de fora informações básicas que uma organização estabelecida normalmente incluiria. Além disso, vinha de um endereço com domínio inexistente e sem qualquer perfil no LinkedIn associado ao remetente.
Lembrei dessa experiência ao ler na revista "Time" sobre uma equipe do MIT que mantém um portal online registrando como os incidentes prejudiciais envolvendo IA vêm crescendo nos últimos anos. O resumo é simples: o uso da inteligência artificial para causar danos – de forma deliberada ou acidental – aumentou consideravelmente.
a IA é uma ferramenta que, quando usada como lente jornalística, pode ser poderosa.
Os casos vão de erros banais a violações intencionais, mas as categorias que mais cresceram envolvem desinformação e atuação de agentes maliciosos. O que, infelizmente, faz sentido: nunca foi tão fácil enganar, confundir ou aplicar golpes.
Um dos papéis da imprensa é funcionar como barreira contra a desinformação. Os episódios mais chamativos ligados à IA, como os áudios falsos atribuídos ao ex-presidente Joe Biden, costumam ser desmentidos rapidamente. Mas esses casos são exceção, não regra.
Deepfakes talvez nunca enganem gente suficiente para decidir uma eleição, mas os números indicam que incidentes menos visíveis estão se acumulando em ritmo acelerado. Ao mesmo tempo, os empregos no jornalismo diminuem e os repórteres que ficam têm capacidade limitada para dar conta de tudo.
CETICISMO NÃO É ESTRATÉGIA
À medida que a desinformação turbinada por IA cresce, vivemos em um ambiente no qual todos desconfiam cada vez mais do que leem, veem e ouvem.
Um estudo do National Bureau of Economic Research publicado no ano passado mostrou que a exposição a desinformação gerada por IA reduz a confiança na mídia como um todo. O problema é que ceticismo, sozinho, não resolve nada.

O ponto em que jornalistas podem fazer mais diferença não é tentar desmentir cada deepfake ou golpe – uma batalha claramente perdida –, mas ensinar o público a direcionar essa desconfiança de forma produtiva.
Assim como no meu exemplo do e-mail, as ferramentas de verificação capazes de checar fontes, analisar alegações e buscar evidências de apoio em segundos estão hoje ao alcance de qualquer pessoa.
Isso não significa confiar cegamente no que um chatbot diz sobre determinada história. Mas a IA é uma ferramenta e, quando usada como lente jornalística, pode ser poderosa.
Leia mais: Limites da IA: no caso do jornalismo, “bom o suficiente” não é suficiente
A chave é tratá-la como assistente do ceticismo, não como autoridade final. No caso do e-mail, a troca com o navegador encontrou em segundos o que eu levaria minutos para apurar: pesquisar os envolvidos, identificar inconsistências e sugerir novas perguntas.
Tudo isso segue princípios clássicos do bom jornalismo. Ao compartilhar orientações práticas como essas, é possível capacitar leitores não apenas a identificar informações ruins, mas também a não descartar automaticamente as boas.
COMO EVITAR A ARMADILHA DO CINISMO
Então, como seria uma boa “camada de verificação com IA”? Tudo começa com entender que o ceticismo é ponto de partida, não objetivo final. Usá-lo bem significa aproveitar a IA para questionar informações sem reforçar suspeitas de maneira improdutiva.
Três hábitos, inspirados em princípios jornalísticos, podem ser aplicados a qualquer ferramenta de IA:
1. Faça a mesma pergunta duas vezes

Muitos incidentes em que a IA causou danos começaram de forma inocente, mas acabaram levando o usuário por algum “buraco sem fundo”, às vezes com consequências graves. Um hábito simples pode ajudar: fazer a mesma pergunta novamente, com outra formulação ou enquadramento. Compare as respostas e investigue inconsistências relevantes.
2. Peça respostas específicas

Todo bom entrevistador faz isso. Diante de uma afirmação generalista, peça à IA que seja mais específica. O que sustenta essa alegação? Quem está envolvido? Quais são os fatos e as evidências? Quando aconteceu? Respostas vagas devem acender um alerta.
3. Cheque as fontes por amostragem

Se uma afirmação se baseia em um link, não deveria levar muito tempo para verificá-lo. Se você não consegue confirmar algo em um ou dois minutos, vale redobrar a atenção, ainda que seja importante lembrar que algumas informações verdadeiras podem ser difíceis de verificar (como no caso de fontes anônimas).
O mundo está cada vez mais nebuloso. Entre alucinações de IA, campanhas deliberadas de desinformação e a cultura dos memes, é compreensível que todos estejam mais desconfiados. Mas, sem princípios e hábitos que orientem essa desconfiança, o ceticismo tende a escorregar para o cinismo.
Os jornalistas talvez não consigam verificar tudo o que gostariam, mas seus princípios continuam sendo uma bússola poderosa para ajudar uma nova geração de consumidores de notícias a separar o que é confiável do que não é.