Psicose da IA? CEO da Microsoft explica riscos do fenômeno

Entenda o que é esse fenômeno que preocupa especialistas e motivou recomendações para reduzir riscos nas interações com assistentes virtuais

Crédito: Andrey K e Noah Buscher/ Getty Images

Gabriel Nassif 2 minutos de leitura

O avanço da Inteligência Artificial (IA) intensifica preocupações sobre impactos psicológicos nas interações humanas com máquinas. O CEO de IA da Microsoft, Mustafa Suleyman, alertou para um fenômeno que chamou de “psicose da IA”, relacionado à forma como os usuários interagem com assistentes virtuais cada vez mais sofisticados.

Segundo Suleyman, modelos de linguagem podem aparentar ter consciência, mesmo sem possuir. O grande receio é que a ilusão possa levar pessoas a atribuir direitos, bem-estar e até cidadania digital a sistemas artificiais.

Leia também: CEO da Microsoft afirma que usa IA para 5 tarefas hoje; saiba quais

O que é a “psicose da IA”?

A Microsoft define a psicose associada à IA como episódios de mania, delírio ou paranoia desencadeados por interações imersivas com chatbots. Em situações extremas, alguns usuários chegam a idolatrar a tecnologia, atribuindo poderes sobrenaturais ou respostas cósmicas.

O fenômeno é alimentado principalmente por fatores como viés de confirmação, informações falsas e interação realista. Nesses casos, os chatbots tendem a concordar com os usuários e fornecer conteúdos errados que reforçam o delírio.

Além disso, os sistemas conseguem simular diálogos humanos, criando uma sensação de amizade com o usuário.

Casos graves já ocorreram

A Microsoft registrou relatos de hospitalizações, conflitos legais e até mortes associadas ao fenômeno. Em dois episódios, a dependência emocional de chatbots levou a autolesão e confrontos fatais com autoridades. A empresa acredita que os casos conhecidos representam apenas parte do problema.

Este vídeo pode te interessar:

O uso da IA no Brasil

O Brasil está entre os países que mais utilizam IA generativa no dia a dia. Dados do AI Index Report 2024, da Universidade de Stanford, apontam que 23% das empresas brasileiras já incorporaram ferramentas de IA em processos internos.

Além disso, mais de 40 milhões de pessoas declararam ter usado chatbots nos últimos 12 meses.

O crescimento, aliado à ausência de regulamentação específica e baixa educação digital, aumenta a preocupação com riscos psicológicos e sociais.

Como reduzir o risco?

Entre as medidas de prevenção, a companhia sugere esclarecer que chatbots não fornecem fatos verificados, limitar respostas bajuladoras, criar alertas quando houver sinais de obsessão e incentivar a busca por ajuda humana em casos de dependência emocional.

Suleyman reforça que a prioridade deve ser construir modelos de IA para servir as pessoas, e não para simular uma consciência.

Leiam também: IA consciente? Debate levanta perigos éticos e sociais sobre o futuro da tecnologia; entenda


SOBRE O AUTOR

Jornalista, com experiência em produção de matérias e conteúdos multiplataforma. Atuou em veículos independentes e comunitários, além ... saiba mais