5 coisas que você não deveria contar para o ChatGPT
Ferramenta da OpenAI facilita o dia a dia de milhões, mas especialistas alertam: riscos à privacidade são reais e podem ter consequências graves

O ChatGPT está presente em nossa rotina como um assistente sempre pronto a responder dúvidas, escrever textos e até planejar viagens. São mais de 100 milhões de usuários diários, segundo dados recentes, gerando mais de um bilhão de interações por dia. Mas, à medida que a popularidade do chatbot aumenta, também crescem os alertas sobre segurança da informação.
Apesar de sua utilidade, a IA generativa representa uma ameaça à privacidade dos usuários. O que muitos não sabem — ou esquecem — é que qualquer dado inserido pode ser armazenado, analisado por pessoas e até reutilizado em outras respostas. O que começa como uma pergunta inocente pode acabar se tornando um vazamento de dados sensíveis.
Diante disso, surge uma regra básica: se você não divulgaria uma informação publicamente, também não deve compartilhá-la com um chatbot baseado na nuvem.
Veja a seguir cinco tipos de dados que você nunca deve inserir no ChatGPT — ou em qualquer outro assistente de IA público, segundo The Wall Street Journal.
1. Senhas e credenciais de acesso fora do ChatGPT
Com o avanço das IAs capazes de interagir com outros serviços, pode parecer conveniente compartilhar dados de login para automatizar tarefas. Mas isso é extremamente perigoso. Já houve casos em que informações fornecidas por um usuário foram reveladas em interações de outras pessoas, gerando sérios problemas de privacidade.
Por enquanto, o mais seguro é evitar completamente o compartilhamento de nomes de usuário, senhas ou links de acesso a contas — a menos que o sistema tenha certificações de segurança comprovadas e políticas claras de proteção de dados.
2. Solicitações ilegais ou antiéticas
Chatbots como o ChatGPT têm filtros para barrar conteúdos impróprios, mas fazer perguntas relacionadas a crimes, fraudes ou manipulação de terceiros pode gerar consequências sérias.
Além de estar sujeito a bloqueios ou denúncias às autoridades, o usuário pode violar legislações locais. Na União Europeia, por exemplo, a nova legislação exige que conteúdos “deepfake” sejam devidamente identificados. Na China, é ilegal usar IA para comprometer a estabilidade social. E no Reino Unido, compartilhar imagens explícitas geradas por IA sem permissão já é considerado crime.
Fazer esse tipo de solicitação é mais do que antiético: pode causar prejuízos legais, financeiros e à reputação.
3. Informações médicas ou de saúde
Por mais tentador que seja transformar o ChatGPT em um consultório virtual, o cuidado deve ser redobrado. A IA pode reter detalhes das suas conversas e cruzar dados de sessões diferentes, mesmo que isso não esteja explicitamente indicado.
Sem garantias de confidencialidade, qualquer informação médica inserida pode ser comprometida — o que representa risco duplo para empresas da área da saúde e profissionais que lidam com dados de pacientes, sujeitos a sanções legais e danos à imagem.
4. Não compartilhe dados financeiros e bancários
Jamais insira números de contas correntes, cartões de crédito, dados de pagamento ou qualquer outro dado financeiro em assistentes de IA.
Diferentemente de sistemas bancários protegidos por criptografia e autenticação em duas etapas, chatbots públicos não oferecem camadas de proteção suficientes. Ao fornecer essas informações, você se expõe a fraudes, roubos de identidade e ataques cibernéticos como phishing ou ransomware.
5. Documentos sigilosos ou confidenciais
Relatórios empresariais, contratos, atas de reuniões, dados de clientes e arquivos corporativos não devem ser compartilhados com IA generativa — a menos que o ambiente seja comprovadamente seguro e autorizado para isso.
Profissionais que atuam em setores jurídicos, médicos e contábeis têm obrigações legais de confidencialidade. Além disso, colaboradores de empresas, mesmo sem cláusulas explícitas, têm responsabilidade ética e contratual sobre o que compartilham. O caso de funcionários da Samsung, em 2023, que vazaram informações internas no ChatGPT, serve de alerta.