A revolta dos editores: o dia em que a Wikipédia disse não aos resumos por IA
Como não lançar inteligência artificial para uma comunidade editorial apaixonada pelo que faz

Antes da ascensão da IA generativa, quem precisava de uma forma barata de criar muito conteúdo recorria a uma velha conhecida: a wiki. Bastava lançar um site – amplo ou de nicho – e abrir as portas para qualquer pessoa editar.
Se fosse um dos primeiros, como a Wikipédia, ou conseguisse cultivar uma comunidade fiel (pense em qualquer série de fantasia ou ficção científica com fãs ardorosos), em pouco tempo surgia um vasto repositório de páginas úteis e estratégicas.
Mas havia (e ainda há) um porém: quando se entrega o controle às pessoas, manter a qualidade consistente se torna um desafio diário. No caso da Wikipédia, isso significa levar a curadoria a sério – contando com um verdadeiro exército de editores, em sua maioria voluntários, para administrar milhões de páginas criadas pela comunidade.
Dado o quanto as pessoas dependem da Wikipédia todos os dias, esses editores exercem uma grande influência. Recentemente, eles mostraram ao mundo quão poderosa essa influência pode ser: reagiram de modo firme a um experimento interno que pretendia adicionar resumos gerados por IA no topo de alguns artigos (iniciativa revelada pelo site 404 Media).
O protesto foi tão rápido e intenso que, apenas um dia depois do lançamento, a Wikipédia cancelou o teste. Um exemplo didático de como não apresentar IA a uma equipe editorial que valoriza cada vírgula.
A REVOLTA CONTRA AS MÁQUINAS
O mais curioso é que, neste caso, a IA não produziu nada flagrantemente errado. Um olhar rápido para o resumo gerado sobre dopamina mostra que a explicação era até bem estruturada, em linguagem mais acessível do que o texto original.
Nada de alucinações bizarras, como estudos inexistentes ou recomendações absurdas – a IA não sugeriu, por exemplo, que se adicionasse dopamina na pizza. O que motivou o cancelamento não foi uma falha grotesca, mas sim uma revolta interna.
O processo editorial da Wikipédia funciona com uma abertura radical: os motivos de edições e objeções ficam disponíveis em discussões públicas. Ao espiar a página de debate sobre o teste, dá para ver a dimensão da resistência – uma onda de críticas que deixaria até as brigas mais quentes do Twitter no chinelo.
O protesto foi tão rápido e intenso que, apenas um dia depois do lançamento, a Wikipédia cancelou o teste.
Por mais que a reação pareça exagerada, o instinto por trás dela é compreensível. Para quem vive de palavras, a IA invadindo seu território soa como uma ameaça existencial. No caso dos editores da Wikipédia, conhecidos por debates infindáveis até sobre a grafia de “aluminum” ou “aluminium”, esse medo se multiplica.
Ainda assim, algumas críticas não foram puro drama: editores apontaram, por exemplo, que o resumo usava “nós” em vez de manter o tom objetivo e impessoal característico do site. E havia palavras, como “emoção”, que não estavam estritamente baseadas nos fatos do artigo.
Nada disso seria insolúvel. A Wikimedia Foundation foi cuidadosa ao usar um modelo de IA de código aberto da Cohere, para manter controle e personalização. Com o retorno dos editores, bastaria ajustar o modelo e refinar os prompts para gerar resumos mais alinhados ao estilo do site.
Mas não houve tempo para isso. A reação foi imediata – e pouco construtiva. Em vez de melhorar um produto que tinha boa aceitação do público (durante o teste, 75% dos leitores acharam o resumo útil), a maioria dos editores quis enterrar o projeto de vez. Uma crítica típica resume o clima: “nenhum processo ou burocracia vai transformar essa má ideia em uma boa ideia.”
LIÇÕES PARA O JORNALISMO
Histórias como essa estão se repetindo em redações do mundo todo, à medida que executivos buscam estratégias de IA que melhorem a eficiência sem abalar a moral das equipes.
Recentemente, o sindicato do site Politico abriu uma ação contra a empresa pelo uso de resumos gerados por IA sem supervisão editorial, ecoando o caso da Wikipédia. O clima é de tensão, já que essas ferramentas começam a afetar o tráfego de busca e, em paralelo, demissões levam sindicatos a tentar blindar postos de trabalho dos efeitos da automação.

Por outro lado, a IA pode ser uma aliada poderosa. Investigações na "Associated Press", no "The Wall Street Journal" e em outros veículos já se beneficiaram de algoritmos capazes de analisar grandes volumes de dados, destrinchar processos jurídicos e até dar uma força na triagem de pautas.
Para editores e gestores de produto que planejam integrar IA às redações, fica o recado do tropeço da Wikipédia: não se impõe uma ferramenta de cima para baixo. Mesmo sendo um teste, ele não estava restrito a uma área clara, o que deixou os editores à deriva.
Organizações que acertam, como "Reuters", "The New York Times" e "The Washington Post", fazem isso de forma gradual: equipe por equipe, usuário por usuário, conquistando confiança antes de implantar mudanças.
A lição é simples: em jornalismo, a forma de apresentar a IA importa tanto quanto o que a IA faz. Sem confiança, transparência e respeito pelo trabalho editorial, até o melhor sistema enfrentará resistência. Mas, com cuidado e parceria, a IA pode ser uma aliada para as redações – e não uma ameaça.