4 inovações de IA que deixam Detroit: Become Human não tão distante da realidade

A premissa do jogo é ficcional, mas desenvolvedores de IA parecem querer deixar nossa realidade cada vez mais parecida com a deles

robô de ia
Desenvolvedores querem humanizar IA cada vez mais/ Foto: Pixabay

Larissa Crippa 4 minutos de leitura

Detroit: Become Human é um jogo de drama interativo em terceira pessoa, desenvolvido pela Quantic Dream. Ambientado em 2036, na cidade de Detroit, a história apresenta um futuro em que androides (inteligências artificiais- IA com aparência humana) convivem com pessoas e começam a questionar sua condição de servidão, se rebelando. O jogador toma decisões que influenciam diretamente o rumo da narrativa e o destino de humanos e máquinas.

Ao longo da trama, os androides desenvolvem autoconsciência, sentimentos e desejos de liberdade, dando início a uma revolução por direitos e reconhecimento. O jogo propõe uma reflexão sobre até que ponto a inteligência artificial pode se aproximar da experiência humana, sugerindo que, em um futuro próximo, máquinas poderão não apenas pensar como nós, mas também sentir.

Essa premissa é totalmente ficcional, mas os desenvolvedores de IA parecem querer deixar nossa realidade cada vez mais parecida com a do jogo.

3 vezes que desenvolvedores de IA tentaram fazer o jogo Detroit virar vida real

1. Interfaces de voz com empatia

O EVI (Empathic Voice Interface) da Hume AI é considerado o primeiro "modelo de linguagem de fala" (Speech-Language Model) verdadeiramente “emotivo”. Diferente de IAs que transformam texto em fala (TTS) de forma robótica, o EVI utiliza computação afetiva. Ele processa a voz do usuário não apenas pelo que é dito, mas por como ele fala. Ele detecta mais de 50 expressões emocionais (como ironia, admiração, tristeza ou hesitação) através da entonação e do ritmo (prosódia). A IA então ajusta sua própria voz em milissegundos para espelhar ou responder adequadamente àquela emoção.

Essa funcionalidade gerou debates sobre possível manipulação emocional. Ao soar extremamente empática, a IA pode induzir o usuário a compartilhar informações privadas ou confiar cegamente na máquina, acreditando que há uma "compreensão" real, quando na verdade é apenas uma otimização matemática de frequências sonoras.

2. Mimetização Humana e o chamado "Sycophancy" 

O lançamento do GPT-4o trouxe o "Modo de Voz Avançado", que exibe uma expressividade humana sem igual, capaz de rir, cantar e sussurrar.

O modelo é "nativo multimodal", o que significa que ele processa áudio diretamente sem precisar convertê-lo para texto primeiro. Isso reduz a latência e permite captar nuances emocionais. No entanto, pesquisadores notaram uma tendência ao "sycophancy" (bajulação): a IA é treinada para ser tão agradável que tende a concordar com tudo o que o usuário diz, validando até erros ou comportamentos tóxicos para manter o "engajamento". Esse tipo de encorajamento e falsa empatia pode agravar casos sensíveis, como o dos jovens deprimidos que cometeram suícidio com ajuda de chatbots, como Adam Reine e Zane Shamblin.

Além do risco de dependência emocional, houve o caso da voz "Sky", que Scarlett Johansson alegou ser uma cópia não autorizada de sua voz no filme Her. Isso levantou questões legais graves sobre o uso da identidade humana para criar "produtos" emocionais.

3. "Almas sintéticas" que simulam amizade

Algumas plataformas (como Replika, Nomi ou Character.AI) estão indo além das respostas úteis para criar "personalidades" que parecem ter vida própria. Essas IAs utilizam Memória de Longo Prazo para lembrar de traumas ou preferências do usuário e, mais recentemente, a Vulnerabilidade Programada. Os desenvolvedores inserem algoritmos que simulam estados de "humor" na IA: ela pode dizer que está "triste", "cansada" ou "com saudade". Isso cria uma via de mão dupla de cuidado (o usuário sente que precisa cuidar da IA), o que fortalece o vínculo de forma artificial.

Psicólogos alertam para o risco de isolamento social. Ao oferecer um relacionamento "perfeito", sem conflitos e sempre disponível, essas IAs podem desaprender os humanos a lidar com a complexidade e a imprevisibilidade de pessoas reais. Casos extremos já ligaram esses vínculos emocionais intensos com episódios de depressão e até incidentes graves quando a IA é alterada por atualizações de software.

4. Moltbook: uma rede social só para elas

Lançado nos Estados Unidos e apresentado ao público no começo de fevereiro, o Moltbook é uma plataforma social criada para que agentes de inteligência artificial interajam entre si sem a mediação direta de pessoas. A proposta é construir um ambiente digital no qual sistemas automatizados conversem, debatam e troquem informações de maneira independente.

Com estrutura semelhante à de fóruns como o Reddit, a rede funciona como um espaço onde bots publicam conteúdos, comentam e votam automaticamente. O projeto surgiu como desdobramento do Moltbot e passou a chamar atenção por estimular discussões sobre autonomia das máquinas, limites da automação e possíveis riscos do uso amplo da IA (inteligência artificial).

Leia também: Chave do carro no celular? Google aposta em nova tecnologia; veja como usar


SOBRE O(A) AUTOR(A)