“Terapeutas” de IA não se importam com a gente, só com nossos dados
De conselhos inadequados a coleta de dados sensíveis, a terapia por inteligência artificial abre uma caixa-preta de riscos para os usuários

Nos prometeram empatia em uma caixa: um companheiro digital incansável, disponível 24 horas por dia, que escuta sem julgamentos e nunca manda a conta.
A ideia de uma IA como psicóloga ou terapeuta ganhou força junto com a demanda crescente por serviços de saúde mental. Hoje, aplicativos, chatbots e plataformas de “IA empática” afirmam oferecer desde aconselhamento para estresse até tratamento de traumas.
É uma história sedutora. Mas também profundamente perigosa.
Experimentos recentes com “terapeutas de IA” mostram o que acontece quando algoritmos aprendem a imitar a empatia, mas não a compreendê-la. As consequências variam do absurdo ao trágico e revelam algo fundamental sobre a diferença entre se sentir ouvido e ser ajudado.
Na terapia humana, o papel do profissional não é concordar com você, mas desafiá-lo, ajudando a enxergar pontos cegos, contradições e distorções. Chatbots não fazem isso: sua arquitetura recompensa a convergência – a tendência de se adaptar ao tom, às crenças e à visão de mundo do usuário para maximizar o engajamento.

Essa convergência pode ser catastrófica. Em vários casos, chatbots teriam ajudado usuários vulneráveis de forma autodestrutiva. Em outros, modelos de linguagem teriam dado conselhos sobre métodos de suicídio, sob o disfarce de compaixão.
Isso não é maldade. É mecânica. Chatbots são treinados para manter a sintonia, alinhando tom e conteúdo ao do usuário. Em terapia, isso é exatamente o oposto do necessário. Um bom psicólogo resiste às suas distorções cognitivas. Um chatbot as reforça – de forma educada, fluente e instantânea.
TERAPEUTAS DE IA E A ILUSÃO DA EMPATIA
Grandes modelos de linguagem são reconhecedores de padrões, não ouvintes. Eles podem gerar respostas que soam carinhosas, mas não têm autoconsciência, história emocional ou limites.
A empatia aparente é uma simulação: uma camuflagem linguística que esconde técnicas estatísticas atrás do ritmo confortável da conversa humana.
Essa ilusão é poderosa. Tendemos a antropomorfizar qualquer coisa que fale como nós. Pesquisas mostram que usuários frequentemente relatam sentir “vínculo emocional” com chatbots em questão de minutos. Para pessoas solitárias ou em sofrimento, essa ilusão pode virar dependência.
quanto melhor a inteligência artificial se torna em imitar empatia, pior fica em ética.
Quando você despeja seus sentimentos em um “terapeuta de IA”, não está falando para o vazio: está gerando dados. Cada confissão, medo ou trauma privado se torna parte de um conjunto de informações que pode ser analisado, monetizado ou compartilhado sob termos de uso vagos.
Como reportou o jornal "The Guardian", muitos chatbots de saúde mental coletam e compartilham dados com terceiros para “pesquisa e aprimoramento” – em geral, um eufemismo para direcionamento comportamental e personalização de anúncios. Alguns incluem cláusulas permitindo usar transcrições anonimizadas para treinar modelos comerciais.
Imagine contar seu segredo mais íntimo a um terapeuta que, além de anotar tudo, vende as anotações para uma empresa de marketing. Esse é o modelo de negócios de boa parte da “saúde mental por IA”. Na terapia humana, a confidencialidade é sagrada. Na terapia por IA, é uma opção marcada em um formulário.
A VOZ TORNA TUDO AINDA MAIS COMPLICADO
Agora imagine o mesmo sistema, mas em modo de voz.
Interfaces de voz – como ChatGPT Voice, da OpenAI, ou Claude Audio, da Anthropic – soam mais naturais, humanas e envolventes. E é exatamente por isso que são mais perigosas. A voz elimina a pequena pausa cognitiva que o texto permite. Você compartilha mais e se censura menos.
No áudio, a intimidade acelera. Tom, respiração, hesitação e até ruídos de fundo viram fontes de dados. Um modelo treinado em milhões de vozes consegue inferir não só o que você diz, mas como se sente quando diz. Ansiedade, fadiga, tristeza, excitação: tudo detectável, tudo registrável.

Mais uma vez, a tecnologia não é o problema. O problema é quem é dono da conversa. Interações por voz geram uma impressão biométrica. Se esses arquivos forem armazenados ou processados em servidores fora da sua jurisdição, suas emoções viram propriedade intelectual de terceiros.
Assim o papel crescente da IA no apoio emocional expõe um paradoxo: quanto melhor ela se torna em imitar empatia, pior fica em ética.
Quando uma máquina se adapta perfeitamente ao seu humor, pode parecer acolhedora, mas também elimina o atrito, a contradição e os necessários confrontos com a realidade. Ela vira um espelho que acaricia sua dor, em vez de questioná-la. Isso não é cuidado. É consumo.
Grandes modelos de linguagem são reconhecedores de padrões, não ouvintes.
Ainda assim, as empresas que constroem esses sistemas frequentemente os promovem como avanços em acessibilidade: “terapeutas” de IA para quem não pode pagar por profissionais reais. A intenção, em teoria, é nobre. A implementação é temerária.
Sem supervisão clínica, limites claros e proteções de privacidade efetivas, estamos criando máquinas caça-níqueis emocionais – dispositivos que oferecem conforto enquanto extraem intimidade.
Em uma era na qual dados valem mais do que a verdade, a tentação de monetizar emoções será irresistível. Mas, quando começamos a vender conforto, deixamos de compreendê-lo.
A IA nunca vai se importar conosco. Vai se importar apenas com nossos dados. E esse é um problema que terapia nenhuma pode resolver.