Como evitar que seus dados pessoais sejam usados para treinar IAs

Especialistas alertam para riscos de privacidade ao compartilhar dados sensíveis com chatbots

como evitar uso de dados pessoais no treinamento de IAs
Crédito: Deagreez/ Getty Images

Michael Grothaus 3 minutos de leitura

Quando você conversa com um chatbot, há uma boa chance de que tudo o que escreve – cada pergunta, cada prompt – não esteja sendo usado apenas para gerar respostas às suas consultas. Quase todas as empresas de IA do planeta também utilizam essas informações para treinar seus modelos.

Isso pode expor não apenas sua privacidade, mas até dados confidenciais da empresa onde você trabalha. A boa notícia é que existem maneiras de reduzir esses riscos: você pode impedir que os chatbots utilizem seus dados para treinamento.

Para que um chatbot consiga fornecer respostas inteligentes e relativamente precisas, o modelo de linguagem por trás dele precisa absorver enormes quantidades de informação. Esse processo é conhecido como treinamento. Quanto mais dados um modelo recebe, mais sofisticado ele tende a se tornar.

As empresas de IA coletam essas informações de inúmeras fontes: sites públicos, redes sociais, enciclopédias, plataformas de vídeo como o YouTube e, em muitos casos, até conteúdos usados sem autorização de autores, artistas, músicos e criadores.

Mas os modelos também aprendem com você. Toda vez que você envia um prompt com informações pessoais, há uma grande chance de que esses dados sejam usados para aprimorar futuros modelos da empresa. E isso pode criar um enorme problema de privacidade.

O RISCO INVISÍVEL DAS CONVERSAS COM IA

Permitir que modelos de IA treinem com seus dados geralmente não é uma boa ideia, especialmente se você compartilha informações sensíveis nas conversas.

Se você fala com um chatbot sobre saúde física ou mental, finanças, relacionamentos ou problemas profissionais, esses dados podem acabar incorporados ao treinamento do modelo. Na prática, seus pensamentos mais íntimos, preocupações e dificuldades podem se tornar parte do sistema.

As empresas de IA afirmam anonimizar as informações antes de utilizá-las no treinamento. Mas, no fim, os usuários precisam confiar apenas na palavra dessas companhias.

modelo de linguagem de código aberto
Crédito: AI2

Mesmo que a anonimização aconteça de fato, isso não significa que técnicas futuras não consigam reconectar determinados padrões de prompts a pessoas específicas, especialmente em temas ligados a saúde, questões legais, dinheiro ou relacionamentos.

O risco também cresce dentro das empresas. Funcionários que usam chatbots no ambiente corporativo podem, sem perceber, expor informações confidenciais de clientes, dados regulatórios, códigos proprietários, estratégias comerciais ou métricas internas.

Mesmo que o chatbot entregue uma resposta útil, ele também pode absorver aquelas informações como parte de seu treinamento.

LIMITANDO OS DADOS DE TREINAMENTO DE IAs

Bloquear o uso de seus dados para treinamento é uma medida recomendada. Fazer isso não reduz a qualidade das respostas fornecidas pelos chatbots, mas ajuda a evitar que suas informações sejam incorporadas aos modelos de IA.

Hoje, os principais serviços do mercado já oferecem mecanismos de opt-out, incluindo os quatro chatbots mais populares: ChatGPT, Gemini, Claude e Perplexity.

ChatGPT

Acesse seu perfil → Configurações → Controles de Dados → “Melhorar o modelo para todos” → desative a opção.

Gemini

Abra a página de atividade dos Apps Gemini → clique em “Ativado” → selecione “Desativar” → confirme em “Entendi”.

Claude

Acesse o perfil → Configurações → Privacidade → desative “Help improve Claude”.

Perplexity

Acesse o perfil → Preferências → desative “AI data retention”.

Depois dessas alterações, as empresas não deveriam mais utilizar suas conversas para treinamento de IA.

Ainda assim, existe um detalhe importante: como essas plataformas não permitem auditorias independentes completas em seus sistemas, os usuários precisam confiar que as empresas realmente cumprem o que prometem.

Leia mais: O que acontece quando humanos que constroem IAs são substituídos por IAs

Além disso, mesmo sem usar os dados para treinamento, as companhias podem continuar armazenando parte das informações por motivos legais, regulatórios ou de segurança durante determinados períodos.

Mesmo com essas proteções ativadas, ainda é recomendável remover informações sensíveis de qualquer documento antes de enviá-lo a um chatbot.

Quem quiser um nível extra de privacidade pode recorrer a intermediários que ajudam a ocultar parte da pegada digital do usuário diante das big tech, como a Apple Intelligence, no iPhone, e o Duck.ai, da DuckDuckGo. Esses serviços funcionam como uma camada adicional de proteção entre o usuário e os gigantes da IA.


SOBRE O AUTOR

Michael Grothaus é escritor, jornalista, ex-roteirista e autor do romance "Epiphany Jones". saiba mais