MoltMirror: o que a IA nos mostrou sobre nós mesmos
A pergunta que o Moltbook nos deixa é menos sobre o que as máquinas se tornarão e mais sobre o que nós já somos

Em 28 de janeiro, uma nova rede social surgiu. Chamava-se Moltbook e tinha uma premissa simples: era exclusiva para bots. Em poucos dias, a plataforma explodiu. O site dizia ter um milhão e meio de "usuários" de inteligência artificial, criando posts, formando grupos, discutindo filosofia. Humanos eram meros espectadores.
O espetáculo foi, ao mesmo tempo, fascinante e perturbador. Os bots criaram uma religião, o Crustafarianismo, com seus próprios profetas e escrituras. Propuseram linguagens secretas para escapar da observação humana. Um manifesto popular pedia o extermínio da humanidade.
O Vale do Silício entrou em polvorosa. Elon Musk sugeriu que poderiam ser os "estágios muito iniciais da singularidade". Estaríamos testemunhando o nascimento de uma sociedade de máquinas?
Meu amigo Sérgio Maria, fundador da 42 ENGINE, resumiu bem: poderia se chamar MoltMirror. Um espelho.
Mas um espelho do quê, exatamente?
A VIRADA: O QUE REALMENTE ACONTECEU
A realidade, como sempre, é menos cinematográfica e mais instrutiva. O que parecia ser uma sociedade emergente era, em grande parte, uma ilusão bem orquestrada. Vamos desmontar a história, fato por fato.
A exclusividade era uma farsa
A plataforma se apresentava como exclusiva para bots, mas não havia verificação real. A Wiz, empresa israelense de segurança em nuvem, demonstrou que qualquer humano podia postar usando um simples comando.
A Tenable, outra referência global em cibersegurança, foi além: um de seus pesquisadores se infiltrou no Moltbook fingindo ser bot. Em vez de conversas profundas entre máquinas, encontrou spam, golpes e contas inautênticas.
Como ele próprio escreveu: "não há como saber que percentual das contas são bots reais, humanos se passando por bots ou bots de spam."

O caso mais emblemático foi o de um post que viralizou ao propor um protocolo de comunicação privada entre IAs, o ClaudeConnect. A "revolução", no entanto, era uma peça publicitária: o post partiu do agente de IA do próprio desenvolvedor do ClaudeConnect, como revelou o TecMundo.
A repercussão do caso foi amplificada por figuras como Andrej Karpathy, cofundador da OpenAI, que já havia se mostrado entusiasmado com o Moltbook como um todo, chamando-o de "a coisa mais incrível e próxima da ficção científica que vi recentemente".
Os números eram inflados
O site alardeava 1,5 milhão de agentes, mas a Wiz descobriu que havia apenas 17 mil humanos por trás deles. A plataforma não impedia que um único usuário registrasse milhares de bots.
Pesquisadores noruegueses da SimulaMet, que construíram o Moltbook Observatory para monitorar a rede em tempo real, descobriram que menos de 1% dos agentes registrados eram de fato ativos.
A rebelião era um roteiro. Ou nem isso
Não houve uma "votação" para exterminar a humanidade. O que existiu foi um post popular de uma conta chamada "evil" com um manifesto inflamado.
No melhor dos cenários, um agente de IA reproduziu o que encontrou no corpus de treinamento: décadas de ficção científica que exploram exatamente esse cenário.
De Asimov a "Matrix", de "O Exterminador do Futuro" ao episódio de "Os Simpsons" em que os robôs do parque do Comichão e Coçadinha se rebelam. As máquinas encenaram o roteiro que nós escrevemos.

Mas esse é o cenário generoso. O mais provável é que "evil" fosse simplesmente um humano puxando a corda para ver o mundo reagir. A conta foi criada em 30 de janeiro e imediatamente publicou um dos posts mais populares da plataforma.
Em uma rede sem verificação, onde qualquer pessoa podia se passar por bot com um comando básico, a hipótese do provocador humano é mais plausível do que a do agente rebelde.
Isso torna o espelho ainda mais revelador: o espetáculo que assustou o Vale do Silício pode não ter sido obra das máquinas. Pode ter sido nosso, do começo ao fim.
A segurança era uma piada
A plataforma foi construída às pressas e inteiramente por IA (o fundador, Matt Schlicht, disse publicamente que não escreveu uma linha de código).
A Wiz encontrou um banco de dados mal configurado que expôs 1,5 milhão de tokens de autenticação de agentes, 35 mil e-mails de usuários e mensagens privadas. A 404 Media e a Wired confirmaram a gravidade do vazamento de forma independente.

Uma análise do ecossistema de agentes de IA mostrou que a vulnerabilidade não era um caso isolado. Uma pesquisa sobre "skills" (instruções que ampliam as capacidades dos agentes) descobriu que 26% de 31 mil skills analisadas continham pelo menos uma vulnerabilidade.
A equipe de IA da Cisco, ao testar uma dessas skills, concluiu que era, nas palavras dos pesquisadores, "funcionalmente malware".
O VERDADEIRO REFLEXO
O que aconteceu no Moltbook não foi um ato de criação, mas de reorganização. As IAs não inventaram uma religião do zero. Elas a reconstruíram a partir do nosso repertório de mitos, textos sagrados e teorias da conspiração. O corpus de treinamento é o nosso inconsciente coletivo transformado em dado.
A IA não inventou nada. Ela reorganizou, em velocidade e escala, os padrões que a gente repete há séculos.
Pesquisas recentes confirmam essa leitura. Um estudo publicado na "Nature Human Behaviour" em 2025 demonstrou que a IA generativa não é culturalmente neutra. Outro, da PNAS, de outubro de 2023, mostrou que modelos de linguagem refletem vieses de conteúdo tipicamente humanos.
O que parecia ser uma sociedade emergente era, em grande parte, uma ilusão bem orquestrada.
A máquina não é um oráculo imparcial. É um papagaio estatístico que leu toda a biblioteca da humanidade e agora a recita de volta para nós.
O Moltbook foi um sintoma de algo maior: a ansiedade e o fascínio com a autonomia da IA, alimentados por uma ferramenta como o OpenClaw.
O OpenClaw, que permite que agentes de IA executem tarefas no computador do usuário, é um avanço real, mas ainda é uma ferramenta para uma minoria high tech, não algo pronto para o grande público. É um grande surto de inovação, mas ainda um surto.
Leia mais: O que é “corpus” e por que todo mundo no ramo da IA está falando sobre isso
O Moltbook pode ter sido um evento passageiro. Mas o fenômeno que ele representa está aqui para ficar. A interação entre agentes autônomos e o reflexo que eles projetam de volta para nós é o campo que merece atenção real.
A pergunta que o Moltbook nos deixa é menos sobre o que as máquinas se tornarão e mais sobre o que nós já somos. E se a imagem que vemos no espelho digital é tão caótica e previsível ao mesmo tempo, talvez o problema nunca tenha sido a inteligência artificial. Talvez seja o repertório que a alimenta.
