Você não deve compartilhar essas informações com a IA

Confira quais dados nunca devem ser inseridos em chats com IA

Mulher mexendo em computador
A Lei Geral de Proteção de Dados (LGPD) protege dados sensíveis, incluindo resultados de exames, e o envio desse material para uma IA pode configurar violação. Créditos: Pixabay.

Guynever Maropo 2 minutos de leitura

Com a popularidade da Inteligência Artificial, cada vez mais pessoas recorrem a ferramentas como o ChatGPT para tarefas do dia a dia. Algumas utilizam o chatbot até como uma espécie de psicólogo, mas é fundamental conhecer informações que não devem ser compartilhadas.

A base de dados de uma IA é controlada por uma empresa, e nem sempre os sistemas de segurança garantem que as informações permanecerão protegidas contra vazamentos.

Dados pessoais podem ser usados por criminosos para diferentes crimes, como roubo de dinheiro ou solicitação de empréstimos em nome da vítima. Por isso, especialistas listam sete tipos de informações que não devem ser inseridas em ferramentas de IA.

Informações pessoais
Nome completo, data de nascimento, documentos e outros dados devem ser mantidos em sigilo. Em caso de vazamento, pessoas mal-intencionadas podem usá-los para fraudes.
Até números de telefone e endereços de e-mail precisam ser evitados, pois, mesmo que os chatbots não armazenem diretamente essas informações, elas podem ficar vulneráveis.

Leia também: Golpes com IA estão se multiplicando: veja como se proteger.

Logins e senhas
Jamais utilize IA para guardar logins e senhas de redes sociais ou outros serviços. O ideal é armazená-las em um gerenciador seguro ou memorizá-las. Também não se deve compartilhar senhas com quem não seja totalmente confiável.

Dados do trabalho
Informações corporativas, como estratégias, documentos internos e propriedade intelectual, devem permanecer restritas à equipe. Inserir esse conteúdo em chatbots pode gerar vazamentos e consequências legais.
Em 2023, um funcionário da Samsung foi demitido após inserir dados sigilosos no ChatGPT, expondo informações estratégicas da empresa.

Você pode se interessar também:

Informações bancárias
Nunca envie documentos ou arquivos com dados bancários, números de cartão de crédito, senhas ou outras informações financeiras para uma IA. A maioria dos crimes virtuais envolve o uso indevido desses dados.

Pensamentos e emoções
Embora existam IAs que se apresentam como “amigos virtuais” ou “psicólogos digitais”, especialistas alertam para o risco de compartilhar informações emocionais profundas. Essas ferramentas não compreendem sentimentos humanos e podem gerar respostas inadequadas.
Um caso grave ocorreu quando um adolescente cometeu suicídio após interpretar respostas de uma IA como incentivo. Em situações de crise, é indicado buscar apoio profissional ou entrar em contato com o CVV pelo número 188.

Informações médicas
Chatbots não substituem médicos. A Lei Geral de Proteção de Dados (LGPD) protege dados sensíveis, incluindo resultados de exames, e o envio desse material para uma IA pode configurar violação. Apenas profissionais credenciados têm capacidade de diagnosticar corretamente.

Atividades ilegais ou inapropriadas
Não utilize IA para discutir atividades ilegais ou perigosas. Além de não fornecer respostas para esse tipo de conteúdo, a ferramenta pode registrar o material e gerar denúncias contra o usuário.

Seguir essas orientações é essencial para proteger a privacidade e manter a segurança no uso de qualquer ferramenta de Inteligência Artificial.


SOBRE A AUTORA

Jornalista, pós-graduando em Marketing Digital, com experiência em jornalismo digital e impresso, além de produção e captação de conte... saiba mais