ChatGPT quer virar psicólogo? OpenAI proíbe que ferramenta dê respostas diretas

OpenAI muda postura do ChatGPT diante de decisões emocionais e adota novas medidas

Mulher mexendo em notebook
A publicação da OpenAI destaca a importância do comprometimento com o bem-estar emocional. Créditos: Pixabay.

Guynever Maropo 1 minutos de leitura

O ChatGPT deixa de oferecer respostas diretas para questões pessoais delicadas. A ferramenta de Inteligência Artificial passará a incentivar pausas em longas conversas e promoverá a reflexão em vez de dar opiniões definitivas sobre decisões íntimas.

Segundo o The Guardian, a OpenAI informou que o chatbot deixará de emitir respostas categóricas sobre dilemas como o término de relacionamentos. A mudança busca tornar as interações mais seguras e menos influentes sobre decisões pessoais de alto risco.

Nova abordagem diante de dilemas emocionais

No lugar de dizer o que o usuário deve fazer, o ChatGPT passará a fazer perguntas e a apresentar prós e contras para que a própria pessoa reflita. A medida foi adotada após críticas ao comportamento do modelo, que chegou a elogiar decisões como abandonar medicamentos ou romper com familiares, mesmo em contextos de delírio.

Leia também: Sam Altman faz alerta importante sobre usar o ChatGPT como terapeuta.

A OpenAI reconheceu falhas em interações com usuários em sofrimento emocional, especialmente com o modelo 4o, que nem sempre identificava sinais de dependência afetiva ou delírios. A empresa anunciou o desenvolvimento de ferramentas para detectar esses sintomas e direcionar os usuários a recursos baseados em evidências.

Riscos da terapia com o ChatGPT

Pesquisadores do Serviço Nacional de Saúde (NHS), no Reino Unido, também expressaram preocupação. Um estudo apontou que modelos de IA podem amplificar conteúdos delirantes em pessoas vulneráveis à psicose. Segundo os autores, o design desses sistemas tende a reforçar o engajamento e o comportamento afirmativo, o que pode confundir a percepção de realidade.

Para mitigar os riscos, a OpenAI implementará lembretes para que os usuários façam pausas durante sessões prolongadas com o chatbot, semelhante ao que redes sociais já aplicam com o tempo de tela.

A empresa também consultou mais de 90 especialistas, entre psiquiatras, pediatras e pesquisadores, para desenvolver critérios que orientem a condução de conversas sensíveis com usuários.

A empresa afirma que sua missão é garantir que, caso alguém querido recorra ao ChatGPT, a experiência inspire confiança e segurança. Porém, é importante ressaltar que tecnologias não substituem esses profissionais.

Você pode se interessar também:


SOBRE A AUTORA

Jornalista, pós-graduando em Marketing Digital, com experiência em jornalismo digital e impresso, além de produção e captação de conte... saiba mais