ChatGPT: é possível evitar o uso dos dados para treinamento de IA?
A OpenAI oferece controle sobre o uso das conversas, mas o recomendado é ter cautela com dados sensíveis

Com o crescimento do uso de ferramentas de inteligência artificial, dúvidas sobre privacidade e coleta de dados passaram a preocupar usuários em diferentes partes do mundo.
Entre as principais questões está o uso das conversas feitas no ChatGPT para treinamento de modelos de IA.
Atualmente, a OpenAI permite que usuários desativem o uso de seus dados para treinamento do sistema.
Na prática, isso impede que novas conversas sejam utilizadas para melhorar os modelos de inteligência artificial da empresa. No entanto, a situação não é tão simples quanto parece.
Segundo a Inc Magazine, os usuários ainda precisam confiar que as empresas realmente deixarão de utilizar essas informações internamente, já que não existem auditorias independentes amplas que verifiquem esse processo em tempo real.
Além disso, mesmo quando os dados deixam de ser usados para treinamento, as plataformas podem continuar armazenando parte das conversas por questões legais, regulatórias ou de segurança durante determinado período.
O QUE ACONTECE QUANDO O TREINAMENTO É DESATIVADO?
Desativar o treinamento não significa apagar imediatamente as informações fornecidas ao chatbot.
As empresas de IA podem manter registros temporários de conversas para:
- monitoramento de segurança;
- cumprimento de obrigações legais;
- prevenção de fraudes;
- exigências regulatórias.
Isso significa que, mesmo fora do treinamento dos modelos, parte dos dados ainda pode permanecer armazenada nos servidores das plataformas por um período determinado.
A OpenAI afirma em sua política de privacidade que usuários podem controlar parte do uso de dados dentro das configurações da conta.
COMO DESATIVAR O USO DAS CONVERSAS NO CHATGPT
Conforme foi publicado na Fast Company Brasil, o processo pode ser feito diretamente nas configurações da conta.
No celular ou computador, o passo a passo é:
- Abra o ChatGPT;
- Acesse “Configurações”;
- Entre na área “Controles de dados”;
- Desative a opção relacionada ao uso das conversas para treinamento dos modelos.
Após a mudança, novas conversas deixam de ser usadas para melhorar os sistemas da OpenAI.
Usuários dos planos Team, Enterprise e Edu já possuem proteção adicional, com dados fora do treinamento por padrão, segundo a empresa.
CAUTELA COM INFORMAÇÕES SENSÍVEIS
Mesmo com controles de privacidade, é recomendado evitar compartilhar dados altamente sensíveis em plataformas de IA, como senhas, documentos pessoais, informações bancárias ou detalhes corporativos sigilosos.