A inteligência artificial é capaz de verificar suas próprias mentiras?
Se uma ferramenta automatizada conseguir reduzir erros tanto quanto – ou mais do que – um humano, por que não delegar essa tarefa?

O que começou como mais um experimento com inteligência artificial rapidamente virou um acidente editorial em cadeia. Um artigo publicado pelo jornal "Chicago Sun-Times", nos EUA, apresentava sugestões de leituras para as férias – só que a maior parte dos títulos simplesmente não existia.
Criada por IA e revisada de forma negligente, a lista passou pelo crivo da redação, foi distribuída a milhares de assinantes e ainda republicada por pelo menos outro jornal. O erro forçou a CEO da empresa a publicar um extenso pedido de desculpas.
O episódio escancarou os riscos de confiar demais em ferramentas automatizadas, mas Melissa Bell, CEO do Chicago Sun-Times Media Group, evitou atribuir a culpa exclusivamente à tecnologia. Em vez disso, colocou a responsabilidade sobre as pessoas que usam a IA – e, principalmente, sobre quem deveria proteger o público de suas falhas.
Bell se incluiu nesse grupo. Ela havia aprovado a publicação de encartes especiais, como o que trouxe a lista falsa, partindo do pressuposto de que haveria revisão editorial suficiente. Não houve.
A empresa já tomou medidas para corrigir essa falha específica, mas o incidente acende um alerta mais amplo para o futuro próximo: quanto mais conteúdos gerados por IA forem incorporados ao ecossistema informativo, maior será a necessidade de sistemas de controle editorial, algo que pode entrar em choque com a realidade de redações enxutas e pressionadas a “fazer mais com menos”. A conclusão incômoda: talvez a única saída seja usar IA para checar a própria IA.
IA PARA CHECAR IA: SOLUÇÃO OU MAIS UM PROBLEMA?
Pode parecer contraintuitivo, mas há lógica matemática por trás da ideia. Se uma ferramenta automatizada conseguir reduzir erros tanto quanto – ou mais do que – um humano, por que não delegar essa tarefa? Serviços como o recém-lançado isitcap.com, por exemplo, já oferecem uma prévia de como isso funcionaria.
A plataforma não se limita a classificar afirmações como verdadeiras ou falsas. Ela analisa o texto como um todo, levando em conta contexto, credibilidade das fontes e possíveis vieses. Além disso, compara resultados de diferentes motores de busca baseados em IA, tentando verificar a si própria.
Não é difícil imaginar esse tipo de verificação sendo incorporado ao fluxo de trabalho jornalístico: o texto passaria por um "revisor" automatizado, que marcaria os trechos duvidosos para revisão do autor – seja ele humano ou uma IA.

No caso de textos inteiramente gerados por máquina, o ciclo de uso de IA para checar IA poderia ser instantâneo e escalável. O material só seguiria adiante após atingir um nível mínimo de precisão, com revisão humana reservada para casos mais problemáticos.
Esse processo já começa a ser adotado por algumas redações no uso de resumos automatizados. Como mostra reportagem do Nieman Lab, veículos como "The Wall Street Journal", "Yahoo News" e "Bloomberg" utilizam IA para gerar pontos-chave de suas matérias.
No "Yahoo News" e no "The Wall Street Journal", há revisão humana; no caso da "Bloomberg", isso ainda é incerto. A margem de erro é pequena – um deslize em um resumo pode parecer inofensivo, mas, em tempos de desconfiança generalizada, é o suficiente para abalar a credibilidade do veículo.
MAIS AUTOMAÇÃO, MENOS CONFIANÇA
Mesmo que a checagem automatizada ajude a evitar erros, há uma camada extra de desconfiança difícil de ignorar. A tolerância do público a falhas cometidas por máquinas é significativamente menor do que a reservada aos humanos.
É o mesmo fenômeno observado com carros autônomos: quando um veículo sem motorista se envolve em um acidente, o julgamento público é muito mais severo.
Esse “viés contra a automação” representa um obstáculo real. Um único erro de alto impacto pode comprometer o uso da IA no jornalismo, mesmo que estatisticamente seja raro. E há ainda os custos computacionais para manter múltiplas camadas de escrita e verificação por IA – sem falar no impacto ambiental dessas operações.
um deslize em um resumo pode parecer inofensivo, mas é o suficiente para abalar a credibilidade do veículo.
Tudo isso para aprimorar textos que, mesmo quando bem-feitos, não substituem o jornalismo investigativo e baseado em fontes, que continua exigindo julgamento e apuração humanos.
Apesar das dificuldades, o uso de IA para checar IA parece inevitável. As chamadas “alucinações” – quando modelos generativos inventam fatos – são uma característica inerente à tecnologia. Paradoxalmente, os modelos mais recentes e “inteligentes” tendem a alucinar até mais do que os anteriores.
Se bem implementada, a checagem automatizada pode ir além das redações e se tornar parte da infraestrutura da web. A pergunta que resta é: conseguiremos construir sistemas confiáveis, e não apenas eficientes?
Com o volume de conteúdo artificial crescendo exponencialmente, será preciso acompanhar essa expansão com ferramentas de controle à altura, ou seja de IAs para checar IAs.
O problema é que, para isso, precisaremos aceitar uma realidade desconfortável: mesmo a IA encarregada de evitar erros vai, vez ou outra, errar. Talvez ainda não possamos confiar totalmente que ela diga a verdade – mas, ao menos, ela pode aprender a detectar suas próprias mentiras.