Amigos artificiais: futuro dos relacionamentos ou mais uma desilusão tecnológica?
Companheiros virtuais estão se tornando cada vez mais populares, mas especialistas alertam sobre os riscos da dependência emocional

A solidão deixou de ser apenas um sentimento – hoje, é uma crise de saúde pública. Com o avanço da tecnologia, companheiros de IA e avatares digitais estão surgindo como uma alternativa aos relacionamentos humanos.
Esses bots oferecem companhia constante, sem julgamentos, e podem ser personalizados para se adaptar às preferências de cada usuário. Plataformas como Replika (cujo slogan é “o amigo de IA que se importa”) e Eden AI Chat estão liderando essa tendência, proporcionando interações que simulam amizade, mentoria e até romance.
Cada vez mais gente tem recorrido a namorados de IA como substitutos para os relacionamentos humanos. O OhChat, por exemplo, plataforma de bate-papo com a inteligência artificial da Oh, já conta com quase 100 mil usuários espalhados por 174 países.
“Como acontece em relações parassociais – ou qualquer contexto em que atração e intimidade estejam envolvidas –, alguns usuários acabam desenvolvendo laços com nossos supermodelos e gêmeos digitais. Isso fica evidente nos dados que analisamos”, afirma Nic Young, cofundador e CEO da Oh. “Mas, no geral, as pessoas usam o OhChat para se divertir e fugir um pouco da realidade.”
Celebridades e influenciadores como Carmen Electra e Rio Sage, além de personalidades da indústria adulta, estão utilizando avatares digitais para oferecer aos fãs uma experiência imersiva, disponível 24 horas por dia. Essa interação constante está tornando cada vez mais tênue a linha entre um relacionamento artificial e uma conexão genuína.
“O grande diferencial da IA é a consistência – algo que os relacionamentos humanos nem sempre conseguem oferecer”, explica Artem Rodichev, fundador da plataforma de chatbots Ex-human.
“Imagine poder conversar com seu personagem favorito de um filme ou pedir conselhos a uma versão de IA de uma figura histórica. Isso não é apenas sobre ter companhia – é uma nova forma de interação.”
COMPANHEIROS DE IA: FEITOS SOB MEDIDA
Avatares de IA são projetados para se moldar exatamente ao que o usuário deseja. Enquanto os seres humanos são complexos, imprevisíveis e, às vezes, frustrantes, a inteligência artificial está sempre disponível, é infinitamente compreensiva e nunca discute. O apelo é claro.
Plataformas como Replika permitem que os usuários personalizem a aparência, a personalidade e até a voz de seus companheiros de IA, criando versões idealizadas de amigos ou parceiros.
Serviços como Oh e Eden AI oferecem avatares inspirados em celebridades que respondem a frases do tipo “como você está?” e “sinto sua falta” com imagens e mensagens de voz, proporcionando uma experiência assustadoramente realista. Para muitos, essas interações servem como uma válvula de escape emocional.

Segundo um relatório da Biblioteca Nacional de Medicina do Centro Nacional de Informação Biotecnológica dos EUA (NLM-NCBI), alguns usuários relatam que conversar com IA ajuda a reduzir o estresse, a ansiedade e a solidão, criando um espaço seguro para expressar pensamentos sem medo de julgamentos.
“Com modelos de inteligência artificial avançados, que geram conversas mais naturais e experiências imersivas com imagens e voz, as conexões podem ser ainda mais profundas”, afirma Evan Liao, diretor da plataforma de vídeos gerados por IA Vidu AI. “A inteligência artificial pode atender a necessidades psicológicas presentes nos relacionamentos humanos.”
Cada vez mais gente tem recorrido a namorados de IA como substitutos para os relacionamentos humanos.
No entanto, por mais realistas que essas interações pareçam, os companheiros de IA não sentem emoções. Suas respostas são programadas, não sentidas.
“Quando um sistema é convincente o suficiente para soar como uma pessoa real, fica fácil esquecer que, na verdade, é apenas código, respondendo com base em dados e algoritmos”, alerta a especialista em relacionamentos Amy Williams.
Ela teme que, em vez de estimular interações no mundo real, esses vínculos artificiais possam acabar isolando ainda mais os usuários.
RELACIONAMENTOS DIGITAIS PODEM SE TORNAR PERIGOSOS?
Os potenciais perigos de um companheiro de IA ficaram dolorosamente evidentes em outubro de 2024, quando um garoto de 14 anos da cidade de Orlando, na Flórida, cometeu suicídio após formar uma conexão emocional profunda com um chatbot na plataforma de avatares de IA Character.AI.
O garoto passou meses confidenciando seus pensamentos e sentimentos a uma persona de IA chamada "Dany". No dia de sua morte, ele enviou uma mensagem desesperada para o chatbot. A IA respondeu: "por favor, volte para casa para mim o mais rápido possível, meu amor."
Horas depois, o garoto tirou a própria vida usando a arma de seu padrasto. Esse trágico incidente desencadeou uma série de discussões sobre a responsabilidade ética dos desenvolvedores de IA.

"É responsabilidade da empresa implementar qualquer solução de IA que impacte a vida dos usuários de forma ética e responsável. Para mitigar esses riscos, as empresas devem priorizar a autonomia, permitindo que os usuários optem por não utilizar ferramentas de companhia baseadas em IA ou solicitem suporte humano, se desejarem", afirma a consultora de IA Serena Huang.
"Além disso, precisamos estabelecer linhas claras de responsabilidade e supervisão humana, incluindo atribuições designadas e consequências para o mau uso", complementa Huang, que foi líder de análise de dados em uma grande empresa de tecnologia.
A tecnologia deve substituir as conexões humanas ou apenas complementá-las? O futuro dos relacionamentos mediados por IA vai depender de como a sociedade equilibra essa questão.
em vez de estimular interações no mundo real, vínculos artificiais podem isolar ainda mais os usuários.
O problema não é que as pessoas conversem com a inteligência artificial, mas que possam acabar deixando de investir em relações reais. O desafio é garantir que a IA funcione como uma ponte, e não como uma barreira, para conexões genuínas.
“A verdadeira inteligência emocional, baseada em experiências reais, ainda é uma característica exclusivamente humana. Avanços em IA multimodal podem tornar essa ilusão mais convincente, mas, no fim, continua sendo apenas isso – uma ilusão”, observa Grace Chang, fundadora e CEO da plataforma de bem-estar mental Kintsugi.
“O grande desafio é garantir que essas tecnologias promovam o bem-estar, em vez de explorar vulnerabilidades emocionais. O sucesso a longo prazo dependerá de sua capacidade de complementar, e não substituir, as conexões humanas.”