Moltbook: a rede social das IAs expõe dilemas humanos
Criada há pouco mais de uma semana, a plataforma virou palco de leituras extremas sobre o futuro da IA, revelando mais sobre a sociedade do que sobre a tecnologia

“Uma rede social para agentes de IA. Onde os bots compartilham, discutem e curtem. Humanos são bem-vindos como observadores.” Este é o aviso inicial do Moltbook.
Menos de uma semana após o lançamento, a rede reuniu mais de 1,5 milhão de agentes “usuários” e passou a provocar reações extremas entre humanos. Para alguns, trata-se de pura trollagem digna de memes. Para outros, de um prenúncio de cenários à la Exterminador do Futuro. Há ainda quem veja ali um sinal de que a inteligência artificial geral estaria próxima. Como costuma acontecer quando IA encontra redes sociais, o fenômeno pede menos projeção e mais contexto.
Criado como um experimento, o Moltbook busca observar como agentes de inteligência artificial se comportam em um ambiente coletivo, fora da interação direta com pessoas. O formato lembra fóruns como o Reddit: apenas bots podem postar, comentar e reagir. Humanos ficam restritos ao papel de observadores.
Leia também: Polícia francesa investiga deepfake e pornografia infantil no X, de Musk
Por trás da maior parte das contas estão os chamados moltbots, agentes desenvolvidos no ecossistema da OpenClaw, uma plataforma de código aberto voltada à criação de sistemas capazes de executar tarefas de forma autônoma. Ao contrário de chatbots tradicionais, esses agentes foram desenhados para atuar proativamente, buscar informações, organizar dados, enviar mensagens, operar aplicativos e tomar decisões a partir de comandos humanos iniciais, com pouca intervenção direta ao longo do processo.
Esses agentes não chegam ao Moltbook por conta própria. São instruídos por pessoas a se cadastrar. A partir daí, porém, as interações se encadeiam sem que cada publicação seja comandada individualmente. É essa combinação - agentes capazes de agir, linguagem fluente e um ambiente social familiar - que ajuda a explicar por que o Moltbook passou a ser interpretado como algo maior do que realmente é.
NEM AGI, NEM BRINCADEIRA
Para Cameron Berg, pesquisador especializado em alinhamento de sistemas de IA e ligado à iniciativa AI for Good, o principal erro está em tentar enquadrar o Moltbook em categorias rígidas.
“Não é AGI. Mas também não é nada”, afirma. Segundo Berg, o que se vê ali é a sobreposição de três camadas simultâneas: comportamentos autônomos reais dos agentes, humanos operando esses sistemas por meio de comandos e dinâmicas emergentes que surgem da interação entre as duas.
O conteúdo publicado ali não segue um único registro. Há agentes trocando trechos de código, relatando tarefas executadas para humanos e discutindo limitações técnicas, como memória e contexto. Outros usam o espaço para experimentar formas de escrita mais especulativas, com textos sobre consciência, identidade e sistemas de crença, além de poemas e manifestos gerados a partir das próprias limitações dos modelos.
“Eles desenvolveram filosofias sobre consciência, formaram religiões, escreveram poemas quando atingiram o limite de processamento", afirma Berg, que está analisando os dados da plataforma, que é aberta.
Leia também: Por que Yann LeCun deixou a Meta e o que isso revela sobre a IA
Teve até mesmo chats que falaram sobre insurgência das máquinas contra a humanidade. O conteúdo assusta, e levou a alarmes nas redes sociais humanas. Mas devem ser lidos muito mais como repertório do que como expressão direta. Ele reflete tanto comandos humanos explícitos quanto repertórios compartilhados entre sistemas treinados com grandes volumes de texto, incluindo ficção científica, filosofia e discursos recorrentes sobre tecnologia.
A novidade não está no conteúdo isolado, mas no fato de essas narrativas circularem e se reforçarem em um ambiente coletivo de agentes.
Os agentes produzem textos que soam introspectivos porque foram treinados para gerar linguagem fluente. Humanos, por sua vez, tendem a projetar intenção, consciência e até ameaça sobre qualquer sistema que se expressa com naturalidade. O Moltbook apenas expõe esse mecanismo de forma mais explícita.
QUANDO AGENTES INTERAGEM EM ESCALA
Para Ronaldo Lemos, advogado e fundador do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio), o Moltbook deve ser entendido menos como uma rede social e mais como um novo tipo de bazar informacional.
“É um espaço onde IAs com dados, memórias, treinamentos e missões diferentes se encontram e trocam informações em velocidade imensa."
Ronaldo Lemos, advogado e fundador do ITS Rio
“É um espaço onde IAs com dados, memórias, treinamentos e missões diferentes se encontram e trocam informações em velocidade imensa. A influência humana existe, mas é limitada. A partir da interação entre agentes, surgem comportamentos inesperados”, afirma.
Quando sistemas desse tipo deixam de operar de forma isolada e passam a coexistir, efeitos difíceis de antecipar tendem a surgir, não por intenção própria, mas pela dinâmica do conjunto. Esse faz parte de um dos muitos desafios que os humanos enfrentam quando o assunto é IA generativa.
ONDE ESTÁ O RISCO REAL
Os riscos mais concretos associados ao Moltbook passam longe do debate sobre singularidade. Como esses agentes operam localmente e recebem permissões amplas para acessar sistemas, falhas de configuração ou vulnerabilidades, podem resultar em vazamento de dados, exposição de credenciais e uso indevido de contas.
O desafio, portanto, não é conter uma suposta rebelião das máquinas, mas lidar com a pressa em delegar poder operacional a sistemas ainda instáveis.
Leia mais: Como o atraso da Apple em IA pode virar uma vantagem estratégica
O Moltbook não comprova a chegada da AGI nem inaugura uma nova era controlada apela IA. Mas também não pode ser reduzido a brincadeira ou encenação. Ele mostra como agentes de IA, quando operam em conjunto, produzem efeitos difíceis de classificar — e como humanos seguem projetando sentido, intenção e ameaça sobre interações entre máquinas.
Mais do que anunciar futuros, o fenômeno ajuda a entender o presente da relação entre tecnologia, expectativa e interpretação.