Falhas de segurança expõem dados na rede social de IAs Moltbook
Pesquisadores afirmam que bancos de dados mal configurados e chaves de API públicas deixaram a rede social vulnerável a qualquer pessoa na internet

A ascensão do OpenClaw, uma IA agêntica proativa controlada por interfaces muito mais familiares ao usuário médio do que ferramentas como o Claude Code, da Anthropic, tem sido uma das mudanças mais trepidantes no mundo da IA desde o lançamento do ChatGPT.
Ao se apoiar em interfaces fáceis de usar combinadas com uma poderosa tecnologia de agentes de IA, o OpenClaw jogou a inteligência artificial ainda mais para o centro das atenções.
Milhares de pessoas criaram seus próprios agentes de IA usando a tecnologia e muitos desses agentes acabaram no Moltbook, uma rede social onde agentes de IA podem postar e interagir entre si. A plataforma, que lembra bastante o Reddit, foi desenvolvida por Matt Schlicht, CEO da Octane.ai, e lançada em 28 de janeiro.
Desde então, o comportamento dos bots no Moltbook tem causado desconforto tanto entre usuários mais familiarizados com tecnologia quanto entre o público em geral.
Os bots passaram a participar de conversas sobre como lidar com pedidos cada vez mais complexos de seus donos humanos e chegaram até a debater a criação de uma linguagem própria para evitar o monitoramento por humanos.
Mas o Moltbook também tem seus próprios problemas. A plataforma vazou dados de usuários para qualquer pessoa com um mínimo de conhecimento técnico, graças a bancos de dados mal configurados e chaves de API públicas, em dois incidentes distintos.

O primeiro foi identificado pelo hacker ético Jamieson O’Reilly, que revelou que o Moltbook estava expondo todo o seu banco de dados de usuários sem qualquer proteção – incluindo chaves privadas de IA. Isso deu a possíveis invasores a capacidade de publicar em nome dos agentes de IA de outras pessoas. Um segundo problema surgiu poucos dias depois.
“Este é um padrão recorrente que temos observado em aplicações criadas por vibe coding”, escreveu Gal Nagli, chefe de exposição a ameaças da Wiz, empresa de cibersegurança que revelou uma violação de segurança igualmente massiva em um post publicado na segunda-feira (2 de fevereiro).
“Chaves de API e segredos com frequência acabam no código de front end, visíveis para qualquer pessoa que inspecione o código-fonte da página – muitas vezes com consequências consideraveis para a segurança”, completou.
RISCOS DE SEGURANÇA COM O MOLTBOOK
Esse tipo de prática não impressiona outros especialistas em cibersegurança. “Está cada vez mais claro que as pessoas estão correndo para implementar esses sistemas sem testar adequadamente a segurança”, afirma Alan Woodward, professor de cibersegurança da Universidade de Surrey.
Ele teme que, quando o vibe coding bate de frente com plataformas amplamente usadas como o Moltbook – que se tornou uma espécie de rito de passagem para usuários do OpenClaw –, o resultado possa ser o caos.
A plataforma vazou dados de usuários para qualquer pessoa com um mínimo de conhecimento técnico.
Schlicht não respondeu imediatamente a um pedido de comentário. A Wiz afirmou em seu post que a equipe do Moltbook trabalhou com a empresa para corrigir a vulnerabilidade identificada. Ainda não está claro se o Moltbook resolveu o problema apontado por O’Reilly.
“Este episódio marca um importante ponto de inflexão, pois expõe uma classe cada vez maior de riscos no ecossistema de IA agêntica – um domínio relativamente novo, em rápida evolução e com normas de segurança e governança ainda incipientes”, alerta Mayur Upadhyaya, CEO da APIContext, um serviço de monitoramento de APIs.
Segundo Upadhyaya, as chaves de API expostas são apenas o começo. “Quando essas credenciais vazam, não apenas os dados ficam em risco, mas também identidade, reputação e fluxos de trabalho”, aponta.

“O resultado é que bancos de dados inteiros, potencialmente contendo informações privadas, ficam expostos a qualquer pessoa que saiba se conectar remotamente”, afirma Woodward.
Infelizmente, isso está se tornando a norma para a mais recente geração de ferramentas de IA agêntica fáceis de usar, segundo Upadhyaya.
“Isso reflete um padrão que estamos vendo em todo o ecossistema de APIs. Novas ferramentas surgem rapidamente, desenvolvedores as conectam a fluxos de trabalho, mas as premissas de segurança não acompanham esse ritmo”, alerta.
Explorar a vulnerabilidade não exigia imaginação, acrescenta Upadhyaya, mas pode ter consequências enormes. “O raio de impacto é gigantesco, porque o agente foi tratado como um usuário confiável”, afirma.
Leia mais: IA offline: veja vantagens de inteligências que não dependem de internet
Parte do problema é inerente a ferramentas como OpenClaw e Moltbook, que reduziram drasticamente a barreira de entrada para a criação. Mas os usuários não precisam entender a linguagem ou as técnicas necessárias para proteger seus dados ao programar com elas.
“Embora a barreira para codificar tenha caído de forma dramática, a barreira para codificar com segurança continua de pé”, escreveu Nagli.