ChatGPT quer virar psicólogo? OpenAI proíbe que ferramenta dê respostas diretas
OpenAI muda postura do ChatGPT diante de decisões emocionais e adota novas medidas

O ChatGPT deixa de oferecer respostas diretas para questões pessoais delicadas. A ferramenta de Inteligência Artificial passará a incentivar pausas em longas conversas e promoverá a reflexão em vez de dar opiniões definitivas sobre decisões íntimas.
Segundo o The Guardian, a OpenAI informou que o chatbot deixará de emitir respostas categóricas sobre dilemas como o término de relacionamentos. A mudança busca tornar as interações mais seguras e menos influentes sobre decisões pessoais de alto risco.
Nova abordagem diante de dilemas emocionais
No lugar de dizer o que o usuário deve fazer, o ChatGPT passará a fazer perguntas e a apresentar prós e contras para que a própria pessoa reflita. A medida foi adotada após críticas ao comportamento do modelo, que chegou a elogiar decisões como abandonar medicamentos ou romper com familiares, mesmo em contextos de delírio.
Leia também: Sam Altman faz alerta importante sobre usar o ChatGPT como terapeuta.
A OpenAI reconheceu falhas em interações com usuários em sofrimento emocional, especialmente com o modelo 4o, que nem sempre identificava sinais de dependência afetiva ou delírios. A empresa anunciou o desenvolvimento de ferramentas para detectar esses sintomas e direcionar os usuários a recursos baseados em evidências.
Riscos da terapia com o ChatGPT
Pesquisadores do Serviço Nacional de Saúde (NHS), no Reino Unido, também expressaram preocupação. Um estudo apontou que modelos de IA podem amplificar conteúdos delirantes em pessoas vulneráveis à psicose. Segundo os autores, o design desses sistemas tende a reforçar o engajamento e o comportamento afirmativo, o que pode confundir a percepção de realidade.
Para mitigar os riscos, a OpenAI implementará lembretes para que os usuários façam pausas durante sessões prolongadas com o chatbot, semelhante ao que redes sociais já aplicam com o tempo de tela.
A empresa também consultou mais de 90 especialistas, entre psiquiatras, pediatras e pesquisadores, para desenvolver critérios que orientem a condução de conversas sensíveis com usuários.
A empresa afirma que sua missão é garantir que, caso alguém querido recorra ao ChatGPT, a experiência inspire confiança e segurança. Porém, é importante ressaltar que tecnologias não substituem esses profissionais.