A inteligência artificial é capaz de verificar suas próprias mentiras?

Se uma ferramenta automatizada conseguir reduzir erros tanto quanto – ou mais do que – um humano, por que não delegar essa tarefa?

Crédito: Freepik

Pete Pachal 4 minutos de leitura

O que começou como mais um experimento com inteligência artificial rapidamente virou um acidente editorial em cadeia. Um artigo publicado pelo jornal "Chicago Sun-Times", nos EUA, apresentava sugestões de leituras para as férias – só que a maior parte dos títulos simplesmente não existia.

Criada por IA e revisada de forma negligente, a lista passou pelo crivo da redação, foi distribuída a milhares de assinantes e ainda republicada por pelo menos outro jornal. O erro forçou a CEO da empresa a publicar um extenso pedido de desculpas.

O episódio escancarou os riscos de confiar demais em ferramentas automatizadas, mas Melissa Bell, CEO do Chicago Sun-Times Media Group, evitou atribuir a culpa exclusivamente à tecnologia. Em vez disso, colocou a responsabilidade sobre as pessoas que usam a IA – e, principalmente, sobre quem deveria proteger o público de suas falhas.

Bell se incluiu nesse grupo. Ela havia aprovado a publicação de encartes especiais, como o que trouxe a lista falsa, partindo do pressuposto de que haveria revisão editorial suficiente. Não houve.

A empresa já tomou medidas para corrigir essa falha específica, mas o incidente acende um alerta mais amplo para o futuro próximo: quanto mais conteúdos gerados por IA forem incorporados ao ecossistema informativo, maior será a necessidade de sistemas de controle editorial, algo que pode entrar em choque com a realidade de redações enxutas e pressionadas a “fazer mais com menos”. A conclusão incômoda: talvez a única saída seja usar IA para checar a própria IA.

IA PARA CHECAR IA: SOLUÇÃO OU MAIS UM PROBLEMA?

Pode parecer contraintuitivo, mas há lógica matemática por trás da ideia. Se uma ferramenta automatizada conseguir reduzir erros tanto quanto – ou mais do que – um humano, por que não delegar essa tarefa? Serviços como o recém-lançado isitcap.com, por exemplo, já oferecem uma prévia de como isso funcionaria.

A plataforma não se limita a classificar afirmações como verdadeiras ou falsas. Ela analisa o texto como um todo, levando em conta contexto, credibilidade das fontes e possíveis vieses. Além disso, compara resultados de diferentes motores de busca baseados em IA, tentando verificar a si própria.

Não é difícil imaginar esse tipo de verificação sendo incorporado ao fluxo de trabalho jornalístico: o texto passaria por um "revisor" automatizado, que marcaria os trechos duvidosos para revisão do autor – seja ele humano ou uma IA.

Créditos: master1305/ Freepik/ Marina Demeshko/ iStock/ Negative Space/ Pexels

No caso de textos inteiramente gerados por máquina, o ciclo de uso de IA para checar IA poderia ser instantâneo e escalável. O material só seguiria adiante após atingir um nível mínimo de precisão, com revisão humana reservada para casos mais problemáticos.

Esse processo já começa a ser adotado por algumas redações no uso de resumos automatizados. Como mostra reportagem do Nieman Lab, veículos como "The Wall Street Journal", "Yahoo News" e "Bloomberg" utilizam IA para gerar pontos-chave de suas matérias.

No "Yahoo News" e no "The Wall Street Journal", há revisão humana; no caso da "Bloomberg", isso ainda é incerto. A margem de erro é pequena – um deslize em um resumo pode parecer inofensivo, mas, em tempos de desconfiança generalizada, é o suficiente para abalar a credibilidade do veículo.

MAIS AUTOMAÇÃO, MENOS CONFIANÇA

Mesmo que a checagem automatizada ajude a evitar erros, há uma camada extra de desconfiança difícil de ignorar. A tolerância do público a falhas cometidas por máquinas é significativamente menor do que a reservada aos humanos.

É o mesmo fenômeno observado com carros autônomos: quando um veículo sem motorista se envolve em um acidente, o julgamento público é muito mais severo.

Esse “viés contra a automação” representa um obstáculo real. Um único erro de alto impacto pode comprometer o uso da IA no jornalismo, mesmo que estatisticamente seja raro. E há ainda os custos computacionais para manter múltiplas camadas de escrita e verificação por IA – sem falar no impacto ambiental dessas operações.

um deslize em um resumo pode parecer inofensivo, mas é o suficiente para abalar a credibilidade do veículo.

Tudo isso para aprimorar textos que, mesmo quando bem-feitos, não substituem o jornalismo investigativo e baseado em fontes, que continua exigindo julgamento e apuração humanos.

Apesar das dificuldades, o uso de IA para checar IA parece inevitável. As chamadas “alucinações” – quando modelos generativos inventam fatos – são uma característica inerente à tecnologia. Paradoxalmente, os modelos mais recentes e “inteligentes” tendem a alucinar até mais do que os anteriores.

Se bem implementada, a checagem automatizada pode ir além das redações e se tornar parte da infraestrutura da web. A pergunta que resta é: conseguiremos construir sistemas confiáveis, e não apenas eficientes?

Com o volume de conteúdo artificial crescendo exponencialmente, será preciso acompanhar essa expansão com ferramentas de controle à altura, ou seja de IAs para checar IAs.

O problema é que, para isso, precisaremos aceitar uma realidade desconfortável: mesmo a IA encarregada de evitar erros vai, vez ou outra, errar. Talvez ainda não possamos confiar totalmente que ela diga a verdade – mas, ao menos, ela pode aprender a detectar suas próprias mentiras.


SOBRE O AUTOR

Pete Pachal é jornalista e criador do podcast e da newsletter Media CoPilot, que trata de inteligência artificial e seus efeitos no jo... saiba mais