Sam Altman faz alerta importante sobre usar o ChatGPT como terapeuta
CEO da OpenAI expõe dilema legal que pode afetar usuários que recorrem à IA para suporte emocional

Usuários do ChatGPT podem repensar o uso da Inteligência Artificial como ferramenta terapêutica, diante de possíveis riscos à privacidade. Segundo Sam Altman, CEO da OpenAI, ainda não há garantias legais de confidencialidade para conversas com sistemas de IA, o que compromete sua utilização em contextos sensíveis.
Durante uma participação no podcast This Past Weekend w/ Theo Von, Altman destacou que não existe o mesmo sigilo legal de médico-paciente, advogado-cliente ou terapeuta-paciente quando se trata de interações com um chatbot de IA.
“As pessoas falam sobre as coisas mais pessoais de suas vidas com o ChatGPT. Principalmente os jovens o utilizam como terapeuta ou coach de vida”, afirmou em tom de alerta.
O executivo destacou que, sem uma estrutura legal clara, a OpenAI pode ser obrigada a disponibilizar registros dessas conversas em processos judiciais.
“Acho isso muito errado. Deveríamos ter o mesmo conceito de privacidade para conversas com IA que temos com um terapeuta”, declarou. A falta de confidencialidade, segundo ele, pode inibir o uso da ferramenta para apoio emocional.
Altman revelou que a empresa já enfrenta disputas judiciais relacionadas ao tema. Em um processo movido pelo The New York Times, uma ordem judicial exige que a OpenAI salve os chats de usuários, com exceção dos clientes do ChatGPT Enterprise.
Em resposta, a empresa classificou a exigência como “um exagero” e recorreu da decisão, alertando que isso abriria precedentes para novas intimações judiciais.
As preocupações não se restringem à OpenAI. Após a revogação da decisão Roe v. Wade pela Suprema Corte dos EUA, muitos usuários migraram para apps com maior segurança, como o Apple Health, que oferece criptografia. O caso evidencia o impacto direto de decisões judiciais na privacidade digital.
Em tom reflexivo, Sam Altman perguntou ao apresentador sobre seu próprio uso da IA. Theo Von afirmou evitar conversas com o ChatGPT por receio com a falta de garantias. Altman concordou: “Faz sentido querer a clareza da privacidade antes de usar muito, como a clareza jurídica.”