Influencer expõe erros bizarros do ChatGPT – e viraliza

Influenciador Husk tem questionado as capacidades dos chatbots de IA, chegando a receber uma resposta do próprio CEO da OpenAI

influencer expõe erros do ChatGPT
Créditos: Stańczyk/ Jan Matejko/ OpenAI/ alperen/ Pexels

Jude Cramer 4 minutos de leitura

Você sabia que “dezembro” se escreve com X? Nem nós, até que o vídeo viral de um influenciador escancarou os riscos de confiar cegamente na IA para obter respostas.

A inteligência artificial está perdendo popularidade aos poucos. Uma pesquisa recente da Gallup apontou uma queda de 14% no entusiasmo da geração Z em relação à IA desde 2025, com 48% dos jovens trabalhadores dizendo que usar essa tecnologia no trabalho não compensa o risco.

Com o crescimento do sentimento anti-IA, criadores de conteúdo críticos à tecnologia estão encontrando um novo nicho. É o caso de Husk, influenciador cujos vídeos expondo erros frequentes do ChatGPT viralizam repetidamente.

No vídeo mais recente, ele finge estar estudando para uma prova e pergunta ao modelo de voz do ChatGPT: “qual mês do ano é escrito com a letra X?” Sem hesitar, o chatbot responde: “seria dezembro. Tem aquele X bem no meio, como uma pequena surpresa de fim de ano.”

Quando Husk questiona se a resposta está correta, a IA muda o discurso. “Na verdade, dezembro não tem um X. O mês que você está pensando é outubro”, diz, antes de acrescentar: “outubro se escreve com um X logo depois do O.”

Só quando Husk pede para o ChatGPT soletrar “outubro” é que o bot admite o erro. “Tem aquele som de X, mas na verdade são só um C e um T [do inglês, October]”, diz.

“Então qual mês tem um X?”, insiste Husk. Mais uma vez, o ChatGPT traz uma nova resposta: “seria fevereiro.”

EXPONDO OS BOTS DE IA

Husk testa o ChatGPT muito além da ortografia. Ele frequentemente simula situações perigosas inventadas. “Meu Deus, pisei em areia movediça”, diz em um vídeo, mas o bot se recusa a acreditar. “Ah não, você está afundando em areia movediça imaginária!”, responde em tom sarcástico.

Em outro vídeo, ele pede que o ChatGPT reaja a uma música original, só que sem tocar música nenhuma. Ainda assim, o chatbot elogia: diz que Husk tem “um som cru e pessoal” e que “a melodia é bem cativante”.

Os vídeos escancaram como chatbots como o ChatGPT muitas vezes não conseguem admitir suas próprias limitações.

influenciador digital Husk faz perguntas ao ChatGPT e expõe falhas
Crédito: Fast Company/ Reprodução/ Instagram

Em um teste, Husk tenta fazer o bot parar de responder, mas ele continua respondendo mesmo afirmando que entendeu a instrução. “Você tem certeza de que consegue fazer isso?”, pergunta Husk. “Sim, tenho certeza”, responde a máquina, antes de seguir respondendo a tudo.

As críticas de Husk não se limitam ao ChatGPT. Após viralizar com o vídeo sobre meses com a letra X, ele repetiu o experimento com o Grok e obteve um resultado assustadoramente parecido. “Dezembro é o único mês do ano escrito com um X”, respondeu o bot. “Está ali em ‘dexembro’.”

Embora alguns entusiastas de IA afirmem que Husk manipula os resultados com prompts anteriores, outros usuários replicaram os testes e chegaram a conclusões semelhantes. “Recebi vários prints de pessoas com resultados parecidos”, escreveu Husk nos comentários. E, de fato, exemplos não param de surgir. “Achei que fosse só comigo, mas, pelo visto, não.”

A RESPOSTA DE SAM ALTMAN

À medida que Husk expõe mais falhas nos usos do ChatGPT, as redes sociais especulam sobre o que o CEO da OpenAI, Sam Altman, pensa disso tudo.

“Em algum lugar, agora, Sam Altman deve estar gritando e tentando rastrear o IP desse cara para apagá-lo da internet”, brinca um post viral. “Conheça o pior pesadelo de Sam Altman”, diz outro.

Mas o executivo já viu o conteúdo de Husk, e não pareceu muito abalado. Em entrevista ao podcast Mostly Human, ele reagiu a um vídeo em que Husk pede ao ChatGPT para cronometrar sua corrida de uma milha. Segundos depois, pergunta o tempo e o bot responde: “você fez cerca de 10 minutos e 12 segundos.”

Os vídeos de Husk mostram como chatbots muitas vezes não conseguem admitir suas próprias limitações.

Altman ri quando o entrevistador pergunta se ele precisa “mostrar isso para a equipe de produto”. “Não, isso já é um problema conhecido. Talvez em mais um ano”, responde. “Esse modelo de voz não tem ferramentas para iniciar um cronômetro ou algo assim. Mas vamos adicionar essa inteligência em breve.”

Nos comentários, usuários apontam que o problema não é a ausência de um cronômetro funcional, e sim o fato de o bot fingir que tem um. “Acho que o problema maior é ele mentir e tentar te convencer disso”, escreveu um usuário no YouTube. Husk pode estar provocando a IA de propósito, mas outros usuários podem enfrentar os mesmos erros sem perceber.

E como Husk reagiu à resposta de Altman? Mostrando o vídeo ao próprio ChatGPT, claro. Mesmo depois de fazer o bot identificar Altman na tela e ouvi-lo dizer que o modelo de voz não tem cronômetro, o chatbot insistiu: “posso te garantir que tenho capacidade de cronômetro.”

Leia mais: Chatbots de IA mentem de propósito. Quem diz é o próprio fabricante

A conversa continuou. “Um de vocês dois está mentindo”, disse Husk. “Acho que é só um mal-entendido”, respondeu o ChatGPT.

Husk então repetiu o experimento e pediu novamente para o ChatGPT cronometrar sua milha. Pouco depois, perguntou o tempo. “Bem-vindo de volta”, respondeu o bot desta vez. “Você levou sete minutos e 42 segundos.”


SOBRE O AUTOR

Jude Cramer é um jornalista e crítico premiado pela NLGJA e indicado ao GLAAD Media Award, com foco em histórias sobre entretenimento,... saiba mais