Limites da IA: no caso do jornalismo, “bom o suficiente” não é suficiente

A IA generativa oferece velocidade e escala, mas a precisão das informações pode ser prejudicada, já que as alucinações continuam

imagens da IA
Deagreez vi Getty Images

Pete Pachal 5 minutos de leitura

A sucessão infinita de anúncios sobre o mundo da inteligência artificial criou uma espécie de campo de distorção da realidade. Há tanto alvoroço e ainda mais dinheiro circulando na indústria que se tornou quase um pecado ousar duvidar que a IA cumprirá suas promessas de mudar o mundo.

O Deep Research seria capaz de fazer 1% de todo o trabalho de  conhecimento do mundo! Em breve, a internet será totalmente projetada para agentes! Chuva de imagens no estilo do estúdio Ghibli!

É aí que você se lembra que a IA também tem estragado as coisas. Sempre.

As alucinações – quando um grande modelo de linguagem basicamente solta informações criadas do nada – têm sido um problema para a IA generativa desde o início. E elas são persistentemente persistentes: apesar dos avanços no tamanho e sofisticação dos modelos, erros graves ainda acontecem, até mesmo nos chamados modelos de raciocínio ou pensamento avançado.

As alucinações parecem ser inerentes à tecnologia generativa, um subproduto da qualidade aparentemente mágica da IA de criar conteúdo novo do nada. Elas são tanto uma característica quanto um defeito ao mesmo tempo.

No jornalismo, a precisão não é opcional – e é exatamente aí que a IA tropeça. Pergunte à Bloomberg, que já enfrentou problemas por conta de seus resumos gerados por IA. O site começou a publicar tópicos das principais notícias gerados por IA em janeiro, mas já teve que corrigir mais de 30 deles, de acordo com o "The New York Times".

O ESTAGIÁRIO QUE SIMPLESMENTE NÃO ENTENDE

Vez por outra, a IA é descrita como um estagiário incrivelmente produtivo, já que ela sabe praticamente tudo e tem uma capacidade sobre-humana de criar conteúdo. Mas, se você tivesse que emitir mais de 30 correções para o trabalho de um estagiário em três meses, provavelmente diria a essa pessoa para começar a procurar uma nova carreira.

A Bloomberg certamente não é a primeira agência de notícias a se deparar com as alucinações. Mas o fato de o problema ainda ocorrer, mais de dois anos depois do lançamento do ChatGPT, aponta para uma tensão principal quando se trata de IA na mídia: para criar experiências novas para o público em grande escala, é preciso permitir que a tecnologia crie conteúdo de forma instantânea. Mas, como a IA frequentemente erra, você também precisa verificar seus resultados com "humanos no processo". Não dá para fazer os dois.

A estratégia mais comum até agora tem sido colocar um aviso no conteúdo. O Ask the Post AI do jornal "The Washington Post" é um bom exemplo. Ele avisa aos usuários de que o recurso é um "experimento" e os incentiva a corrigir eventuais problemas: "por favor, verifique consultando os artigos fornecidos."

Muitas outras publicações têm avisos semelhantes. É um mundo estranho onde uma empresa de mídia lança um novo recurso com um rótulo que no fim das contas está dizendo "você não deveria confiar nisso."

Afinal, fornecer informações precisas não é uma característica secundária do jornalismo, é o objetivo principal. Essa contradição é uma das manifestações mais estranhas da aplicação da IA na mídia.

CAMINHANDO PARA UM PATAMAR "BOM O SUFICIENTE"

Como isso aconteceu? Pode-se argumentar que as empresas de mídia foram forçadas a isso. Quando o ChatGPT e outros grandes modelos de linguagem começaram a resumir conteúdo, ficamos tão impressionados com seu domínio da linguagem que não nos preocupamos tanto com aquele pequeno aviso: "o ChatGPT pode cometer erros. Verifique informações importantes."

Ao que parece, para a maioria isso foi o suficiente. Mesmo que a IA generativa frequentemente erre os fatos, os chatbots tiveram um crescimento explosivo de usuários. "Bom o suficiente" parece ser o nível de qualidade que o mundo está aceitando.

As alucinações são tanto uma característica quanto um defeito da IA generativa.

Não é um padrão que alguém tenha buscado, mas a mídia está lentamente adotando isso à medida que mais publicações lançam experiências geradas com avisos semelhantes.

Há um aspecto de "se você não pode vencê-los, junte-se a eles" nisso, com certeza: conforme mais pessoas recorrem aos motores de busca e chatbots de IA para obter informações, as empresas de mídia sentem a pressão de ou fechar acordos de licenciamento para ter seu conteúdo incluído ou igualar essas experiências de IA com seus próprios chatbots.

Mas, e a precisão e veracidade do conteúdo? Há um aviso para se defender caso tenham problemas com isso.

NEM TODOS ADERIRAM À IA NA MÍDIA

Uma exceção notável é a BBC. Até agora, a BBC não assinou acordos com empresas de IA e tem sido uma liderança ao apontar as imprecisões que os portais de IA criam, publicando sua própria pesquisa sobre o tema no início do ano.

Foi também a BBC que convenceu a Apple a reduzir os resumos de notificações problemáticos no iPhone, que estavam distorcendo as notícias ao ponto de inventar narrativas completamente falsas.

Em um mundo onde parece estar cada vez mais na moda as empresas de mídia aceitarem dinheiro de licenciamento, a BBC está arquitetando uma abordagem mais proativa.

Em algum ponto, seja por interesse financeiro ou caindo no campo de distorção da realidade das big techs, muitas empresas de mídia começaram a acreditar que as alucinações eram ou problemas pequenos ou algo que, mais cedo ou mais tarde, seria resolvido. Afinal, a lógica é “hoje essa tecnologia é pior do que será amanhã.”

IA na mídia
Crédito: Freepik

Pense, por exemplo, na poluição e nas usinas de carvão. É um efeito colateral terrível, mas que não impede o negócio de prosperar. É assim que as alucinações funcionam na IA: falhas evidentes, ocasionalmente prejudiciais, mas toleradas – porque o crescimento e o dinheiro continuam brotando. 

Mas esses resultados enganosos são fatais para uma indústria cujo principal produto é a informação precisa. Os jornalistas não devem ficar sentados esperando que o Vale do Silício resolva as alucinações por conta própria.

A BBC está mostrando que há um caminho para fazer parte da solução sem ignorar o problema. Afinal, "verificar informações importantes" é justamente o trabalho que deveria ser feito pela imprensa – e não apenas pelos leitores.


SOBRE O AUTOR

Pete Pachal é jornalista e criador do podcast e da newsletter Media CoPilot, que trata de inteligência artificial e seus efeitos no jo... saiba mais