Como saber se foi a IA que escreveu? Wikipedia faz a curadoria dos clichês
Editores da plataforma lança um arquivo com expressões batidas, construções repetitivas e marcadores comuns em textos gerados por IA

Quase todo mundo reconhece quando textos gerados por IA parecem estranhos. Mas, a não ser que você tenha um olhar de revisor, é difícil apontar exatamente o que torna esse tipo de escrita tão artificial.
A equipe de editores da Wikipédia acaba de lançar um repositório sobre o tema: uma lista que reúne os clichês, as construções repetitivas, os tons forçados e outros marcadores comuns em textos gerados por inteligência artificial.
O guia, disponível apenas em inglês, se chama “Signs of AI Writing” (Sinais de escrita por IA) e serve tanto para quem quer aprender a identificar esse tipo de escrita quanto para quem deseja “disfarçar” melhor um texto gerado.
SEM TRUQUES SIMPLES
Por ser uma das fontes de informação mais confiáveis da internet, a Wikipédia está especialmente exposta a conteúdos gerados por grandes modelos de linguagem. A plataforma depende de contribuições voluntárias para construir e revisar artigos – que vão desde temas abrangentes até tópicos altamente específicos –, o que faz dela um prato cheio para o mau uso da tecnologia.
Diante desse risco, os editores da Wikipédia acabaram se tornando verdadeiros especialistas em identificar textos gerados por IA. O artigo “Sinais de Escrita por IA” reúne todo esse conhecimento em um guia simples e direto.
O grande diferencial está no nível de detalhes. Enquanto outros guias trazem dicas genéricas e “truques de detecção” fáceis de driblar, a lista da plataforma vai além.
Pesquisadores já haviam mostrado, por exemplo, que os modelos de inteligência artificial tendem a abusar do travessão – um sinal de pontuação versátil que eu, pessoalmente, adoro. Mas, assim que isso se tornou público, os geradores de texto passaram a evitá-lo.
Ou seja, truques simples para reconhecer textos de IA têm um prazo de validade curto. O jogo de gato e rato entre quem cria e quem detecta conteúdo gerado faz com que esse tipo de marcador fique ultrapassado rapidamente.
As diretrizes da Wikipédia, por outro lado, vão mais fundo. Em vez de listar truques como esse, elas focam nos padrões mais recorrentes dos textos gerados por IA – os vícios de linguagem e recursos literários usados em excesso.
TUDO É “FASCINANTE”
Um dos pontos destacados no guia é a tendência dos grandes modelos de linguagem de exagerar no simbolismo e na importância das coisas. Para eles, tudo “representa algo maior” ou “tem um significado especial”. Lugares são sempre “deslumbrantes”, animais são “majestosos” e tudo é “diverso” e “fascinante”.
Outra característica comum é o uso exagerado de conectores como “no geral” ou “em resumo”. Também aparecem muitos paralelismos previsíveis, como “não só… como também…”.

Assim, um restaurante pode ser descrito como “não só um ótimo lugar para apreciar comida italiana, como também um exemplo brilhante de empreendedorismo local”. E quase todo parágrafo final começa com “em conclusão” ou “em resumo”.
Outro vício recorrente é o que os editores chamam de “regra de três” – um recurso eficaz porque o cérebro humano adora agrupamentos de três. Assim, uma pessoa é descrita como “criativa, inteligente e divertida”; e uma empresa como “inovadora, ousada e impactante”.
QUANDO A BOA ESCRITA SOA ARTIFICIAL
Os editores reconhecem que, na escrita humana, muitos desses recursos poderiam até ser sinais de boa escrita. O problema é que, nos textos gerados por IA, eles aparecem de maneira repetitiva e previsível, o que deixa tudo com aspecto artificial.
Esse polimento e preocupação com as normas, segundo a equipe, muitas vezes é intencional – uma forma de mascarar a falta de conteúdo real.
As diretrizes da Wikipédia focam nos padrões mais recorrentes dos textos gerados por IA.
Ao seguir essas fórmulas, os modelos tornam explicações superficiais mais “convincentes”. Como leitores, muitas vezes confundimos fluidez e uso correto da gramática com conteúdo e nem percebemos que o texto, na prática, não está dizendo nada de relevante.
Além das questões de estilo, a lista da Wikipédia detalha ainda outros elementos gráficos comuns nos textos de IA: o uso de certas pontuações, palavras em negrito e até emojis para dar ênfase.
As diretrizes são úteis para qualquer pessoa que edite a Wikipédia. Mas também são relevantes para quem deseja melhorar na hora de reconhecer textos produzidos por IA, ou para quem quer criar seu próprio conteúdo com IA sem que ele soe artificial.
DESCUBRA OU DISFARCE
Se você está lendo um artigo ou post em rede social que parece um pouco estranho e fica curioso para saber se pode ter sido escrito por uma IA, as diretrizes da Wikipédia oferecem um ótimo checklist para validar suas suspeitas.
Compare o texto suspeito com a lista da Wikipédia. Você percebe a Regra de Três aparecendo com frequência demais? Há transições em excesso? O tom soa exagerado?
Embora os editores reforcem que seres humanos são perfeitamente capazes de produzir textos insossos e baseados em fórmulas batidas sem a ajuda de uma IA, identificar esses padrões pode fortalecer a ideia de que ele foi gerado por uma máquina.

Para quem usa modelos de linguagem (LLMs) para criar conteúdo para a empresa, ou mesmo para e-mails pessoais e posts em redes sociais, a lista da Wikipédia pode ajudar a ajustar o resultado para que seja realmente legível e não soe tão robótico.
Você pode revisar manualmente o que sai do ChatGPT, Claude ou Gemini, procurando os padrões destacados pela Wikipédia e acrescentando seu próprio toque humano quando os chatbots começam a soar mecânicos demais.
Há também uma forma mais simples. Descobri que colar a lista completa de Sinais de Escrita da Wikipédia no prompt de um chatbot resulta em textos visivelmente melhores do que os produzidos apenas pelo modelo.
Faça seu prompt normalmente, mas diga ao chatbot para evitar os itens da lista. Depois, cole o conteúdo completo da página de sinais da Wikipédia. O texto gerado ficará bem melhor, com pouquíssimo esforço.