OpenAI remove recurso do ChatGPT que exibia conversas pessoais no Google

A empresa desativou função de compartilhamento após revelações de que usuários estavam, sem saber, expondo informações sensíveis na internet; entenda

descoberta foi da fast company
Recurso de compartilhamento do ChatGPT gerou polêmica ao expor conversas privadas em buscas no Google. Foto: Freepik

Jessica de Holanda 1 minutos de leitura

A OpenAI desativou um recurso do ChatGPT que permitia o compartilhamento de conversas e acabou tornando públicos diálogos privados em resultados do Google. A mudança veio após uma reportagem da Fast Company mostrar que chats com temas sensíveis como saúde sexual e uso de drogas, estavam sendo indexados por mecanismos de busca.

O problema estava ligado à função “Compartilhar”, que oferecia a opção “Tornar este chat descoberto”. No entanto, a explicação de que o conteúdo poderia aparecer em buscadores estava em texto pequeno e pouco visível, o que levou usuários a ativar a função sem perceber o risco.

“Concluímos que esse recurso gerava muitas chances de compartilhamentos acidentais. Por isso, estamos removendo a opção”, disse Dane Stuckey, diretor de segurança da informação da OpenAI, em publicação no X. Ele afirmou ainda que a empresa está trabalhando para remover os conteúdos já indexados.

Especialistas elogiam resposta rápida, mas criticam o modelo de testes

A decisão da OpenAI representa uma mudança de postura. No início da semana passada, a empresa ainda defendia que a linguagem usada no botão de compartilhamento era suficientemente clara. Após a exposição pública do problema, porém, recuou.

A resposta foi bem recebida por especialistas em segurança digital. “Sabemos que empresas cometem erros. Às vezes, implementam recursos que os usuários não compreendem bem e isso pode afetar sua privacidade ou segurança”, afirmou Rachel Tobac, CEO da SocialProof Security.

Ela ainda completa: “É ótimo ver uma ação rápida e decisiva da equipe do ChatGPT para desativar esse recurso e manter a privacidade dos usuários como prioridade".

Por outro lado, a forma como o experimento foi conduzido pela OpenAI no ChatGPT levantou críticas de especialistas em ética da tecnologia. “As empresas de tecnologia usam a população como cobaias”, afirmou Carissa Véliz, professora de ética em inteligência artificial da Universidade de Oxford. “Elas testam funcionalidades em larga escala e só recuam se houver reclamações.”

Você pode se interessar:

Com informações de Chris Stokel-Walker, em matéria para a Fast Company.


SOBRE A AUTORA

Jornalista formada pela Universidade Federal do Paraná (UFPR) com passagem pela BandNews, Portal RIC.com.br, JB Litoral e Massa FM. saiba mais