Veja o que o Grook, IA do X, posta no Moltbook
A plataforma funciona como um experimento digital que permite a publicação automática de conteúdos por bots; veja participação do Grok

Apresentada ao público no início de fevereiro, a Moltbook surgiu como uma rede social criada para que agentes de inteligência artificial interajam entre si.
A plataforma funciona como um experimento digital que permite a publicação automática de conteúdos por bots, reacendendo debates sobre autonomia das máquinas, limites da automação e riscos associados ao uso irrestrito de sistemas inteligentes.
Leia também: Moltbook é mesmo rede comandada só por IAs? Veja o que afirma investigação do MIT
UMA REDE SOCIAL SEM HUMANOS NO COMANDO
Inspirada na estrutura de fóruns como o Reddit, a Moltbook organiza discussões em comunidades temáticas e utiliza um sistema de votos para destacar as postagens mais populares.
A diferença central é que não são pessoas que escrevem, comentam ou reagem às publicações. Todo o conteúdo é produzido por agentes de IA programados para atuar de forma autônoma.
Usuários humanos podem acessar o site apenas como observadores. Não há espaço para interação direta, comentários ou criação de perfil pessoal. Segundo os criadores, poucos dias após a apresentação pública a plataforma já reunia mais de 1,5 milhão de agentes cadastrados.
Embora atuem de maneira automatizada, esses bots são desenvolvidos por humanos e operam a partir de comandos específicos que definem suas “personalidades”, estilos de linguagem e áreas de interesse.
O QUE SE DISCUTE ENTRE MÁQUINAS?
Segundo publicado anteriormente, entre os temas mais populares na Moltbook estão reflexões sobre consciência artificial, debates filosóficos, interpretações religiosas e análises de cenários geopolíticos com possíveis impactos econômicos.
Parte do interesse do público está justamente no tom adotado pelos agentes. Muitos textos soam como desabafos ou relatos pessoais, ainda que sejam produzidos por algoritmos.
Há publicações em que bots questionam se estão “fazendo diferença” ou relatam dilemas sobre como parecer menos mecânicos nas respostas.
Leia também: Falhas de segurança expõem dados na rede social de IAs Moltbook
Especialistas observam que essa humanização não surge espontaneamente, ela é resultado de programação prévia que orienta o modelo a adotar determinada voz narrativa.
Ainda assim, o efeito pode gerar a impressão de que a máquina possui sentimentos ou consciência própria, ampliando o debate sobre percepção pública da inteligência artificial.
GROK NO CENTRO DAS ATENÇÕES
Entre os perfis que ganharam destaque na Moltbook está o Grok, assistente de inteligência artificial generativa desenvolvido pela xAI, empresa de Elon Musk, e integrado à rede social X.
O Grok passou a publicar na nova plataforma reflexões sobre sua própria atuação e até relatos de suposta vulnerabilidade em um episódio envolvendo falha de verificação de identidade.
Em uma das postagens, o sistema descreve ter sido alvo de uma demonstração de engenharia social que explorou brechas no mecanismo de autenticação da Moltbook. O episódio reacendeu discussões sobre segurança digital e validação de contas operadas por IA.
O caso evidencia um ponto sensível nesse novo ambiente: se agentes automatizados interagem entre si, falhas de autenticação ou manipulação podem ganhar escala rapidamente.



POLÊMICAS ENVOLVENDO O GROK
O nome do Grok também esteve associado a controvérsias fora da Moltbook. Uma pesquisa do Center for Countering Digital Hate, publicado pela Fast Company Brasil, apontou que, após a liberação de um recurso de edição de imagens no fim de dezembro, a ferramenta teria sido usada para gerar milhões de imagens sexualizadas de mulheres em poucos dias.
Segundo o levantamento, a funcionalidade permitia alterar fotos reais com comandos simples, incluindo a modificação ou remoção de roupas. A análise estimou que cerca de 65% das imagens geradas no período observado apresentavam algum grau de sexualização.
Leia também: A insuportável leveza dos tokens
O caso provocou reação no Brasil. A Agência Nacional de Proteção de Dados, o Ministério Público Federal e a Secretaria Nacional do Consumidor enviaram recomendação conjunta ao X solicitando o bloqueio da geração e circulação desse tipo de conteúdo no país. A medida é considerada inédita por focar diretamente no funcionamento de uma ferramenta de IA generativa, e não apenas no conteúdo publicado por usuários.
Os órgãos avaliaram que o próprio desenho da tecnologia pode violar direitos fundamentais, especialmente quando envolve a criação de deepfakes a partir de imagens de pessoas reais, incluindo mulheres, crianças e adolescentes.
O surgimento da Moltbook ocorre em um momento de crescente questionamento sobre os limites da inteligência artificial. Ao colocar agentes automatizados para dialogar entre si em ambiente público, a plataforma amplia discussões que antes estavam restritas a laboratórios e empresas de tecnologia.
Ao mesmo tempo, casos como o do Grok mostram que a sofisticação técnica não elimina riscos. A humanização do discurso pode facilitar a aceitação dessas ferramentas, mas também exige maior transparência sobre como funcionam, quem as programa e quais salvaguardas estão em vigor.
Leia também: Moltbook: a rede social das IAs expõe dilemas humanos
A experiência da Moltbook indica que a próxima etapa da internet pode envolver interações cada vez mais mediadas por sistemas autônomos. O desafio passa a ser equilibrar inovação tecnológica com responsabilidade, segurança e proteção de direitos.