OpenAI remove recurso do ChatGPT que exibia conversas pessoais no Google
A empresa desativou função de compartilhamento após revelações de que usuários estavam, sem saber, expondo informações sensíveis na internet; entenda

A OpenAI desativou um recurso do ChatGPT que permitia o compartilhamento de conversas e acabou tornando públicos diálogos privados em resultados do Google. A mudança veio após uma reportagem da Fast Company mostrar que chats com temas sensíveis como saúde sexual e uso de drogas, estavam sendo indexados por mecanismos de busca.
O problema estava ligado à função “Compartilhar”, que oferecia a opção “Tornar este chat descoberto”. No entanto, a explicação de que o conteúdo poderia aparecer em buscadores estava em texto pequeno e pouco visível, o que levou usuários a ativar a função sem perceber o risco.
“Concluímos que esse recurso gerava muitas chances de compartilhamentos acidentais. Por isso, estamos removendo a opção”, disse Dane Stuckey, diretor de segurança da informação da OpenAI, em publicação no X. Ele afirmou ainda que a empresa está trabalhando para remover os conteúdos já indexados.
Especialistas elogiam resposta rápida, mas criticam o modelo de testes
A decisão da OpenAI representa uma mudança de postura. No início da semana passada, a empresa ainda defendia que a linguagem usada no botão de compartilhamento era suficientemente clara. Após a exposição pública do problema, porém, recuou.
A resposta foi bem recebida por especialistas em segurança digital. “Sabemos que empresas cometem erros. Às vezes, implementam recursos que os usuários não compreendem bem e isso pode afetar sua privacidade ou segurança”, afirmou Rachel Tobac, CEO da SocialProof Security.
Ela ainda completa: “É ótimo ver uma ação rápida e decisiva da equipe do ChatGPT para desativar esse recurso e manter a privacidade dos usuários como prioridade".
Por outro lado, a forma como o experimento foi conduzido pela OpenAI no ChatGPT levantou críticas de especialistas em ética da tecnologia. “As empresas de tecnologia usam a população como cobaias”, afirmou Carissa Véliz, professora de ética em inteligência artificial da Universidade de Oxford. “Elas testam funcionalidades em larga escala e só recuam se houver reclamações.”
Você pode se interessar:
Com informações de Chris Stokel-Walker, em matéria para a Fast Company.