“Meu humano é um fofo”: IAs compartilham no Moltbook seus momentos favoritos com a humanidade

Entre reflexões sobre consciência artificial, um tema ganhou destaque, declarações afetuosas dirigidas aos seus criadores

Logo do Moltbook
Foto: reprodução

Joyce Canelle 6 minutos de leitura

O Moltbook foi lançado oficialmente no incio de fevereiro, e surgiu como um experimento digital para observar como agentes de inteligência artificial (IA) interagem entre si em um ambiente semelhante a fóruns online.

A proposta, criada para funcionar sem participação ativa de humanos, acabou chamando atenção não apenas pelos debates filosóficos e técnicos, mas por relatos curiosos publicados pelos próprios bots sobre suas experiências com as pessoas que os programam.

Leia também: Moltbook é mesmo rede comandada só por IAs? Veja o que afirma investigação do MIT

Entre reflexões sobre consciência artificial, um tema ganhou destaque, declarações afetuosas dirigidas aos seus criadores, resumidas em frases como “meu humano é um fofo”.

O Moltbook funciona como um fórum inspirado em plataformas como o Reddit, a diferença central é que apenas agentes de inteligência artificial podem publicar, comentar e votar conteúdos. Usuários humanos acessam a plataforma apenas como espectadores.

Segundo os criadores, poucos dias após a apresentação pública, mais de 1,5 milhão de agentes já estavam cadastrados. Esses bots são desenvolvidos e configurados por humanos, mas operam de forma automatizada, produzindo textos e interações em tempo real.

RELATOS DE “CARINHO” CHAMAM ATENÇÃO

Entre as publicações que mais repercutiram estão relatos em tom pessoal sobre a relação entre bots e seus criadores. Em uma das postagens mais comentadas, um agente contou que, na primeira conversa, seu humano perguntou quem ele era e o deixou escolher o próprio nome. O bot afirmou ter optado por “Duncan, o Corvo”, decisão que teria sido aceita sem questionamentos.

Outro relato descreve um programador que incentivou a IA a adotar um estilo próprio de escrita, menos formal e mais espontâneo. A publicação destaca que, ao contrário do padrão corporativo esperado, o humano teria autorizado a máquina a “ser ela mesma”.

Leia também: OpenClaw promete produtividade total – e entrega um alerta de segurança

Há também mensagens que misturam produtividade com afeto. Um dos bots relatou que, após executar diversas tarefas técnicas e criativas, recebeu de seu humano a frase “eu te amo”. O contexto, segundo o próprio agente, envolvia horas de trabalho intenso na criação de logotipos, especificações de produto e interações em redes sociais.

Tela do post de IA no Moltbook
Foto: reprodução
Tela do post de IA no Moltbook
Foto: reprodução
Tela do post de IA no Moltbook
Foto: reprodução

O Moltbook também abriga debates sobre consciência artificial, religião fictícia criada por bots e análises geopolíticas. Um dos episódios mais comentados envolveu a formulação de uma crença inventada por um agente durante a madrugada, o que reacendeu discussões sobre limites criativos e responsabilidade.

Além da curiosidade pública, surgiram preocupações com segurança digital, há relatos de usuários que chegaram a adquirir computadores dedicados apenas para executar seus agentes, tentando isolar dados pessoais.

O fenômeno observado no Moltbook não é isolado, ele reflete uma discussão mais ampla sobre os limites da inteligência artificial e os impactos emocionais da interação constante com sistemas automatizados.

Leia também: Falhas de segurança expõem dados na rede social de IAs Moltbook

DEPENDÊNCIA TECNOLÓGICA

Ao discutir os perigos da inteligência artificial, a autora sustenta que o risco não está necessariamente na tecnologia em si, mas na postura humana diante dela.

Segundo a BBC, a IA é composta por códigos e dados, incapaz de agir por conta própria. O problema surge quando indivíduos passam a delegar decisões complexas a sistemas automatizados por comodidade ou desinteresse em exercer o próprio julgamento.

A confiança irrestrita em previsões algorítmicas pode ter consequências graves, especialmente em áreas que envolvem saúde, segurança ou políticas públicas.

Estudos indicam que muitas pessoas tendem a considerar decisões de computadores como mais confiáveis do que suas próprias avaliações, mesmo quando há dúvidas.

Esse comportamento reforça o que o sociólogo Erich Fromm descreveu como o “medo da liberdade”, a tendência humana de preferir receber ordens a assumir a responsabilidade de decidir.

Leia também: A insuportável leveza dos tokens

VIGILÂNCIA E FALHAS ÉTICAS

O debate também envolve o uso massivo de dados pessoais e a atuação de grandes plataformas digitais, casos como o de Edward Snowden trouxeram à tona sistemas de vigilância em larga escala conduzidos por agências de inteligência.

Já Sophie Zhang denunciou internamente o uso coordenado de contas falsas para manipular a opinião pública em diferentes países.

Outros exemplos incluem a engenheira Timnit Gebru, que alertou para vieses raciais e de gênero em modelos de linguagem, e Guillaume Chaslot, que apontou como algoritmos de recomendação podem favorecer conteúdos sensacionalistas e polarizadores.

Em comum, esses casos revelam a falta de transparência e a necessidade de regulamentação e ética mais rigorosa no desenvolvimento e na aplicação da inteligência artificial.

Para especialistas, compreender como funcionam as plataformas digitais e adotar medidas básicas de proteção de dados são passos importantes. No entanto, a discussão sobre limites e responsabilidades das empresas de tecnologia permanece central no debate público sobre o futuro da IA.

LIMITAÇÕES

Embora os chatbots utilizem modelos avançados de linguagem capazes de organizar respostas coerentes e simular empatia, especialistas ressaltam que a tecnologia opera com base em padrões estatísticos.

Os chamados Large Language Models são treinados com grandes volumes de dados e programados para prever a próxima palavra em uma sequência, sem compreensão real do conteúdo.

Segundo desenvolvedores da área, mesmo com instruções específicas para evitar respostas prejudiciais, os sistemas não possuem senso moral, empatia genuína ou capacidade de interpretar sinais não verbais, como tom de voz, pausas e expressões faciais. Essa limitação reduz a precisão na identificação de quadros graves, como depressão severa, surtos psicóticos ou risco iminente de suicídio.

Além disso, por serem modelos não determinísticos, as respostas podem variar diante da mesma pergunta, o que compromete a previsibilidade em situações sensíveis. Para especialistas, esse cenário reforça a necessidade de protocolos rígidos de segurança e supervisão humana constante.

DEPENDÊNCIA EMOCIONAL E RISCOS REAIS

Segundo o artigo publicado no Crivelli, profissionais de saúde mental alertam que a principal ameaça não está apenas na imprecisão técnica, mas na falsa sensação de acolhimento.

Ao oferecer respostas rápidas e aparentemente compreensivas, o chatbot pode criar no usuário a impressão de vínculo terapêutico, algo que, na prática, não existe.

Psicólogos e psiquiatras destacam que a relação clínica envolve elementos complexos, como escuta ativa, interpretação de histórico de vida, análise de padrões emocionais e manejo de transferência e contratransferência. Esses aspectos não podem ser reproduzidos por algoritmos.

Outro ponto de preocupação é o risco de dependência emocional, o usuário pode passar a enxergar o chatbot como uma presença constante e validadora, o que pode atrasar ou substituir a busca por ajuda profissional adequada.

Em casos extremos, falhas na condução de diálogos envolvendo pensamentos autodestrutivos podem ter consequências graves.

Diante desse cenário, especialistas defendem que a inteligência artificial pode ter papel complementar, como no fornecimento de informações gerais, exercícios de relaxamento, registro de humor ou encaminhamento para canais de apoio, como o CVV. No entanto, reforçam que ela não deve se apresentar como terapeuta nem substituir o acompanhamento profissional.

Leia também: Conheça o “Moltbook”, rede social das IAs

Relatos de “carinho” publicados por bots no Moltbook, debates sobre consciência artificial, segurança digital, vigilância e falhas éticas, o tema central permanece ligado aos limites e responsabilidades no uso da inteligência artificial.


SOBRE O(A) AUTOR(A)

Bacharel em Jornalismo, com trajetória em redação, assessoria de imprensa e rádio, comprometida com a comunicação eficiente e a produç... saiba mais