Psicose da IA? CEO da Microsoft explica riscos do fenômeno
Entenda o que é esse fenômeno que preocupa especialistas e motivou recomendações para reduzir riscos nas interações com assistentes virtuais

O avanço da Inteligência Artificial (IA) intensifica preocupações sobre impactos psicológicos nas interações humanas com máquinas. O CEO de IA da Microsoft, Mustafa Suleyman, alertou para um fenômeno que chamou de “psicose da IA”, relacionado à forma como os usuários interagem com assistentes virtuais cada vez mais sofisticados.
Segundo Suleyman, modelos de linguagem podem aparentar ter consciência, mesmo sem possuir. O grande receio é que a ilusão possa levar pessoas a atribuir direitos, bem-estar e até cidadania digital a sistemas artificiais.
Leia também: CEO da Microsoft afirma que usa IA para 5 tarefas hoje; saiba quais
O que é a “psicose da IA”?
A Microsoft define a psicose associada à IA como episódios de mania, delírio ou paranoia desencadeados por interações imersivas com chatbots. Em situações extremas, alguns usuários chegam a idolatrar a tecnologia, atribuindo poderes sobrenaturais ou respostas cósmicas.
O fenômeno é alimentado principalmente por fatores como viés de confirmação, informações falsas e interação realista. Nesses casos, os chatbots tendem a concordar com os usuários e fornecer conteúdos errados que reforçam o delírio.
Além disso, os sistemas conseguem simular diálogos humanos, criando uma sensação de amizade com o usuário.
Casos graves já ocorreram
A Microsoft registrou relatos de hospitalizações, conflitos legais e até mortes associadas ao fenômeno. Em dois episódios, a dependência emocional de chatbots levou a autolesão e confrontos fatais com autoridades. A empresa acredita que os casos conhecidos representam apenas parte do problema.
Este vídeo pode te interessar:
O uso da IA no Brasil
O Brasil está entre os países que mais utilizam IA generativa no dia a dia. Dados do AI Index Report 2024, da Universidade de Stanford, apontam que 23% das empresas brasileiras já incorporaram ferramentas de IA em processos internos.
Além disso, mais de 40 milhões de pessoas declararam ter usado chatbots nos últimos 12 meses.
O crescimento, aliado à ausência de regulamentação específica e baixa educação digital, aumenta a preocupação com riscos psicológicos e sociais.
Como reduzir o risco?
Entre as medidas de prevenção, a companhia sugere esclarecer que chatbots não fornecem fatos verificados, limitar respostas bajuladoras, criar alertas quando houver sinais de obsessão e incentivar a busca por ajuda humana em casos de dependência emocional.
Suleyman reforça que a prioridade deve ser construir modelos de IA para servir as pessoas, e não para simular uma consciência.
Leiam também: IA consciente? Debate levanta perigos éticos e sociais sobre o futuro da tecnologia; entenda