Conversas privadas no ChatGPT estão aparecendo no Google (e ninguém avisou)

OpenAI desativa recurso que permitia a ferramentas de busca mostrar conversas privadas entre os usuários e o ChatGPT

Crédito: Freepik/ Illustração Fast Company

Chris Stokel-Walker 3 minutos de leitura

Atualizada às 10h59

O Google começou a indexar conversas feitas no ChatGPT que usuários compartilharam com amigos, familiares ou colegas, transformando trocas privadas, pensadas para pequenos grupos, em resultados de busca visíveis a milhões de pessoas.

Uma simples pesquisa no Google com parte do link gerado ao clicar em “Compartilhar” no ChatGPT revelava diálogos contendo detalhes profundamente pessoais: relatos de abuso físico, lutas contra o vício, crises de saúde mental – até o medo de que a própria inteligência artificial estivesse espionando os usuários.

O nome dos autores não aparecia diretamente, mas muitos acabaram se identificando ao revelar informações específicas demais. Não ficou claro se esses usuários sequer sabiam que seus diálogos poderiam ser acessados por qualquer pessoa com uma simples busca.

Após a publicação da reportagem da Fast Company sobre o assunto, a OpenAI removeu o recurso.

“Chegamos à conclusão de que ele criava oportunidades demais para que as pessoas compartilhassem conteúdos que não pretendiam tornar públicos, por isso decidimos removê-lo”, disse Dane Stuckey, diretor de segurança da informação da OpenAI, em uma publicação no X/ Twitter, ao acrescentar que a empresa está trabalhando para retirar o conteúdo indexado dos buscadores.

A declaração de Stuckey representa uma mudança em relação à posição da empresa no início da semana, quando a OpenAI sustentava que a rotulagem do recurso era suficientemente clara. Em sua postagem, o executivo descreveu o recurso como “um experimento de curta duração”.

CONVERSAS TORNADAS PÚBLICAS

Até a suspensão do recurso, cerca de 4,5 mil conversas apareciam nos resultados da pesquisa, embora muitas não revelassem dados pessoais. O número real pode ser ainda maior, já que o Google não indexa todos os conteúdos disponíveis.

Diante do teor delicado dos diálogos – que chegam a incluir nomes, localizações e relatos familiares – a Fast Company decidiu não publicar links ou trechos específicos dessas conversas.

O problema ganhou contornos ainda mais graves diante de dados recentes: quase metade dos usuários dos EUA afirma ter usado modelos de linguagem como o ChatGPT para suporte psicológico no último ano.

Três em cada quatro buscaram ajuda para ansiedade; dois em cada três, para questões pessoais; e quase 60% para lidar com depressão. Diferentemente de uma sessão com um terapeuta humano, essas conversas podem facilmente parar em um mecanismo de busca.

Crédito: Getty Images/ Fast Company

Tecnicamente, o Google indexa qualquer conteúdo disponível ao público na web e sites podem solicitar a remoção de páginas. Os links do ChatGPT só são descobertos pelo Google se os próprios usuários tornarem isso possível. A plataforma alerta para não compartilhar dados sensíveis e oferece a opção de apagar os links a qualquer momento.

Entre os casos encontrados, um usuário relatou em detalhes sua vida sexual e sua infelicidade ao viver no exterior, mencionando um possível quadro de estresse pós-traumático. Em outra conversa, alguém se identifica como sobrevivente de "programação psicológica" e busca formas de “desprogramar-se” para superar traumas.

Outros chatbots, como os da Meta, também enfrentaram críticas ao tornarem públicas consultas feitas por usuários em feeds visíveis nos próprios aplicativos.

QUESTÕES DE PRIVACIDADE EM JOGO

Especialistas alertam que a maioria das pessoas não entende completamente como essas ferramentas funcionam, algo confirmado quando dados pessoais começaram a aparecer nos feeds.

Para Carissa Véliz, especialista em ética da IA na Universidade de Oxford, esse caso é sintomático de como as grandes empresas de tecnologia estão tratando a privacidade.

quase metade dos usuários dos EUA afirma já ter usado modelos de linguagem para suporte psicológico.

“É mais uma prova de que a OpenAI não é confiável, que não leva a privacidade a sério, independentemente do que diga. O que importa é o que ela faz.”

O CEO da OpenAI, Sam Altman, já havia alertado que os usuários não devem compartilhar dados íntimos com o ChatGPT, pois a empresa pode ser legalmente obrigada a divulgá-los.

“Há uma expectativa de privacidade ao usar ferramentas como o ChatGPT”, explica Rachel Tobac, analista de segurança digital e CEO da SocialProof Security. “Mas a realidade é que muita gente não compreende que esses sistemas têm recursos que podem, sem querer, expor suas perguntas mais íntimas, histórias e medos.”


SOBRE O AUTOR

Chris Stokel-Walker é um jornalista britânico com trabalhos publicados regularmente em veículos, como Wired, The Economist e Insider saiba mais