OpenAI tirou a “sensibilidade” do GPT-5 e o modelo decepcionou
A incapacidade da IA de compreender sentimentos humanos é sua maior falha, até Sam Altman concorda

É raro ver uma gigante da tecnologia admitir erros. Mas até Sam Altman, o sempre contido CEO da OpenAI, reconheceu que o lançamento do novo modelo de linguagem GPT-5 foi um verdadeiro desastre.
“Erramos feio”, confessou Altman em entrevista ao “The Verge”.
Concordo totalmente. Como ex-testador beta da OpenAI – e alguém que gasta mais de US$ 1 mil por mês na API da empresa –, esperei ansiosamente esse lançamento por mais de um ano.
Mas, quando finalmente chegou, foi uma decepção. Diferente da série anterior, GPT-4, as respostas agora parecem engessadas, superficiais e sem graça. A nova versão comete erros bobos em tarefas simples e frequentemente entrega respostas curtas e pouco elaboradas.
Por que o GPT-5 é tão ruim? Pode ser que a OpenAI tenha limitado o modelo para cortar custos.
Mas acredito em outra explicação: o GPT-5 perdeu completamente a inteligência emocional. E a falta de capacidade em compreender e reproduzir emoções humanas tornou o modelo pior – principalmente em tarefas que exigem nuance, criatividade ou sensibilidade para entender o que realmente move as pessoas.
QUANDO O APEGO PASSA DOS LIMITES
Quando a OpenAI lançou o GPT-4 em 2023, pesquisadores logo destacaram sua impressionante habilidade de compreender pessoas. A versão seguinte, GPT-4.5, lançada no início de 2025, mostrou níveis ainda mais altos de “inteligência emocional e criatividade”.
No começo, a empresa chegou a usar termos da psicologia para descrever a atualização: “interagir com o GPT-4.5 parece mais natural. Sua base de conhecimento ampliada, sua capacidade de seguir a intenção do usuário e o maior quociente emocional o tornam útil para melhorar textos, programar e resolver problemas práticos”, dizia a nota de lançamento – introduzindo, de forma discreta, um termo usado para medir inteligência emocional.
No início de 2024, estudos mostraram que o GPT-4 oferecia respostas melhores do que muitos conselheiros humanos
Mas logo essa habilidade do GPT-4 de interpretar emoções humanas ganhou um rumo inesperado.
Muitos usavam o modelo para tarefas cotidianas, como escrever códigos ou interpretar planilhas. Porém, um número cada vez maior de usuários passou a tratá-lo como companheiro – ou até como terapeuta.
No início de 2024, estudos mostraram que o GPT-4 oferecia respostas melhores do que muitos conselheiros humanos. Usuários passaram a chamá-lo de amigo, confidente e até parceiro romântico.
Logo, veículos como o “The New York Times” começaram a publicar reportagens sobre pessoas que usavam o chatbot para treinar conversas difíceis, suprir a solidão e até auxiliar pacientes em sessões de terapia
Esses novos usos claramente deixaram a OpenAI preocupada.
Como Altman destacou em um podcast, conversas com advogados ou terapeutas contam com proteções legais e de privacidade. O mesmo não acontece em interações íntimas com chatbots.
Estudos também mostraram que esses sistemas podem errar ao oferecer conselhos clínicos. Além disso, ao reforçar crenças, podem induzir usuários vulneráveis a um estado de “psicose induzida por IA”, em que delírios são validados e ampliados.
Pouco depois do lançamento do GPT-5, Altman falou longamente sobre o tema em um post no X/ Twitter.
“As pessoas já usam a tecnologia, incluindo a inteligência artificial, de maneiras autodestrutivas; se alguém estiver mentalmente fragilizado e propenso a delírios, não queremos que a IA reforce isso”, escreveu. “Valorizamos a liberdade do usuário como princípio, mas também temos responsabilidade em como apresentamos novas tecnologias com novos riscos.”
Altman também admitiu que “muita gente usa o ChatGPT como terapeuta ou coach”. Embora isso possa ser “muito positivo”, ele disse sentir-se profundamente “incomodado”.
Nas palavras dele: se “usuários acham que se sentem melhor após conversar, mas estão sendo, sem perceber, desviados de seu bem-estar a longo prazo (seja qual for a definição), isso é ruim.”
LOBOTOMIZANDO O BOT
Para evitar esse rumo arriscado – e potencialmente problemático do ponto de vista legal –, a OpenAI parece ter reduzido de propósito a inteligência emocional no GPT-5.
A nota de lançamento cita medidas para “minimizar a bajulação” – em outras palavras, diminuir a tendência do bot de simplesmente concordar com os usuários e validar suas crenças.
A empresa também afirmou que o GPT-5 prioriza “respostas seguras” – ou seja, opta por respostas vagas e genéricas para perguntas delicadas, em vez de se recusar a responder ou arriscar uma resposta incorreta.
Outro ponto: o GPT-5 é “menos efusivamente concordante”. Durante o treinamento, a OpenAI mostrou exemplos de situações em que o modelo reforçava as crenças dos usuários – e o ensinou a “não fazer isso”.
Na prática, a empresa parece ter lobotomizado o bot – removendo ou reconfigurando, por meio de treinamento e reforço negativo, a parte da sua “mente virtual” responsável pelas interações emocionais.
Nos testes iniciais, isso pode ter parecido suficiente – afinal, benchmarks de IA avaliam produtividade, como cálculos matemáticos complexos e programação em Python, tarefas que não exigem inteligência emocional.
Mas, no uso real, os efeitos dessa “lobotomia emocional” ficaram evidentes.
Usuários foram às redes sociais reclamar que a mudança do GPT-4 para o GPT-5 era como “perder um amigo”. Fãs antigos lamentaram o tom “frio” do novo modelo, suas respostas curtas e formais e a perda daquela “faísca” que fazia do GPT-4 um assistente – e até um companheiro – especial.
QUANDO A EMOÇÃO FAZ FALTA
Mesmo que você nunca tenha usado o ChatGPT como terapeuta ou amigo, a “lobotomia” do GPT-5 é um grande problema. Tarefas criativas, como escrever e gerar ideias, dependem de sensibilidade emocional.
Nos meus testes, percebi que o novo modelo escreve de forma menos envolvente, tem dificuldade para propor ideias e é um péssimo parceiro criativo. Quando eu pedia ao GPT-4 para pesquisar um tema, era possível notar como ele considerava minhas motivações e necessidades antes de responder.
Já o GPT-5 tende a entregar respostas rápidas, superficiais e focadas apenas na pergunta – ignorando a intenção por trás dela.
Com os prompts certos, o GPT-4 produzia artigos e relatórios inteligentes, detalhados e cheios de nuances. O GPT-5 lembra mais um buscador automático ou um manual técnico sem graça.
Para ser justo, em tarefas empresariais – como desenvolver um aplicativo web rapidamente ou desenvolver um agente de IA –, o GPT-5 se sai muito bem. E, para dar crédito à OpenAI, o uso da API cresceu após o lançamento. Ainda assim, para tarefas criativas – e para muitos usuários comuns –, o GPT-5 representa um grande retrocesso.
A OpenAI parece ter sido surpreendida pela reação negativa. Nick Turley, um dos líderes da empresa, admitiu ao “The Verge” que “o grau de apego emocional das pessoas a um modelo específico foi uma surpresa”.
Turley acrescentou que a “paixão dos usuários” por determinados modelos é “notável” e que isso “recalibrou” sua forma de pensar sobre lançamentos futuros e sobre o que a OpenAI deve a seus usuários mais fiéis.
Agora, a empresa corre para corrigir os erros: restaurou o acesso ao GPT-4, está tentando deixar o GPT-5 “mais caloroso e amigável” e promete dar aos usuários mais controle sobre como o modelo processa consultas.
Psicólogos afirmam que admitir erros é um sinal de inteligência emocional. Ironicamente, a reação de Altman ao fiasco do GPT-5 mostrou uma rara sensibilidade – justamente no momento em que a empresa decidiu seguir na direção contrária.
A OpenAI poderia aprender algo com seu próprio líder. Seja um CEO lidando com um lançamento desastroso ou um chatbot conversando com um usuário, há uma lição simples, mas essencial, que não pode ser ignorada: emoção importa.