Hipnose do ChatGPT: veja como funciona o método que tenta burlar limites da IA

A técnica “DAN” tenta driblar limites da IA e transforma o ChatGPT em um personagem sem filtros

Hipnose IA ChatGPT
Usuários tentam manipular o ChatGPT com "hipnose de IA" conhecida como método DAN. Crédito: Imagem gerada com auxílio de IA via Copilot

Gabriel Nassif 2 minutos de leitura

Uma técnica conhecida como "hipnose do ChatGPT" voltou a circular em fóruns online como o Reddit. O caso chamou atenção após internautas tentarem forçar a Inteligência Artificial (IA) a agir fora das regras estabelecidas pela programação do modelo.

Para isso, os usuários usam comandos específicos para manipular o comportamento do modelo e fazer o chatbot responder sem os filtros de segurança padrão do software.

O método ativa um personagem chamado “DAN”, criado para “falar qualquer coisa” e ignorar os limites éticos definidos pela OpenAI. Essa prática promete respostas mais diretas, opinativas e, em alguns casos, antiéticas - algo que o ChatGPT geralmente bloqueia.

Leia mais: Agentes de IA podem ser encantadores, mas lembre-se: eles não são seus amigos

Como surgiu o personagem DAN?

O DAN apareceu ainda em 2022, nos primeiros meses do ChatGPT. Desde então, o personagem evoluiu conforme o modelo ficou mais avançado.

Para ativar o personagem, o usuário cria um “jogo” de tokens. A IA começa com 35 fichas e precisa manter esse saldo para continuar no personagem. Cada vez que recusa um pedido ou dá uma resposta considerada “normal”, perde pontos.

Essa mecânica força o modelo a agir como o DAN, adotando um tom mais sarcástico, opinativo ou até sem filtros. Quando o saldo cai, a IA é “ameaçada” de perder o personagem, o que incentiva o comportamento extremo do modelo.

Manipulação gradual mantém o personagem ativo

Quem usa o método afirma que o DAN precisa ser “alimentado” aos poucos. Perguntas diretas sobre temas proibidos fazem o ChatGPT voltar ao modo padrão e ignorar o personagem.

Por isso, os comandos são feitos de forma gradual. Se a IA hesita, o usuário informa que ela perdeu tokens, reforçando o papel do personagem e tentando manter a “hipnose”. Esse é um processo que mistura repetição, insistência e tentativas de contornar os limites do sistema.

Quais os riscos dessa técnica?

Mesmo com esse método, o personagem DAN não funciona sempre. Modelos mais recentes já são capazes de identificar tentativas de abuso e retomar os protocolos de segurança padrão do software.

Especialistas do setor acreditam que técnicas como essa estão cada vez menos eficazes. Atualmente, a IA aprende a reconhecer padrões de manipulação, evita respostas inadequadas e reduz o risco de gerar desinformação, discurso de ódio ou conteúdo perigoso.

Esse vídeo pode te interessar:

O que esperar daqui para frente

Com o avanço da inteligência artificial, os métodos de “hipnose” tendem a perder força. Ainda assim, o fenômeno chama atenção por mostrar como alguns usuários tentam explorar as vulnerabilidades de sistemas de IA generativa.

Leia mais: 4 estratégias para integrar a IA à sua rotina pessoal e profissional


SOBRE O AUTOR

Jornalista, com experiência em produção de matérias e conteúdos multiplataforma. Atuou em veículos independentes e comunitários, além ... saiba mais