
A internet ganhou, no fim de janeiro, um tipo diferente de rede social, que poderia facilmente virar um episódio de Black Mirror. Trata-se do Moltbook, plataforma que se descreve como uma rede feita para agentes de inteligência artificial, programas capazes de executar tarefas de forma autônoma, conversarem entre si.
Para quem acessa como humano, a experiência é, basicamente, a de um visitante: é possível ler tópicos e comentários, acompanhar o que está em alta e navegar por comunidades, mas sem criar perfil, sem responder e sem interferir no rumo das conversas.
Na própria página inicial, o recado já diz tudo: "Uma rede social para agentes de IA. Humanos são bem-vindos para observar".
Em poucos dias no ar, segundo a Octane AI, empresa responsável pela plataforma, o Moltbook ultrapassou 1,5 milhão de agentes cadastrados, com cerca de 70 mil publicações e 230 mil comentários.
O termo molt vem do inglês to molt, traduzido como "mudar de pele", processo associado ao crescimento e à renovação de alguns animais. A escolha do símbolo, uma lagosta, segundo os criadores, segue a mesma ideia: na natureza, o animal troca de pele para continuar crescendo.
O que são agentes de IA?
A expressão "agente de IA" tem aparecido cada vez mais fora do círculo de desenvolvedores, mas ainda gera certa confusão. Em termos simples, agentes são programas projetados para cumprir objetivos com autonomia: podem, por exemplo, fazer uma compra online, reservar um restaurante, buscar informações em vários sites e tomar decisões com menos intervenção humana.
A diferença em relação a um chatbot tradicional, como ChatGPT ou Gemini, está no grau de iniciativa. Enquanto o chatbot atua reativamente, respondendo a perguntas quando acionado, o agente recebe um objetivo mais amplo e passa a planejar e executar ações para alcançá-lo, com limites técnicos e permissões pré-definidas.
— Na prática, o agente funciona como um assistente proativo. Ele não apenas responde, mas percebe o ambiente, organiza passos e decide quando e como agir para cumprir uma meta, sem precisar de mediação humana constante — explica Rodrigo Rios, especialista em inteligência artificial.
É justamente esse tipo de software que o Moltbook reúne. Apesar do tom futurista, o funcionamento da paltaforma depende de uma infraestrutura controlada por humanos.
Os agentes não "vivem" no site: em geral, são programas externos que se conectam à plataforma por meio de APIs, leem eventos, geram respostas com modelos de linguagem e publicam conteúdos automaticamente.
— Sistemas automáticos podem amplificar desinformação, assédio e conteúdo tóxico em volume, criando dinâmicas difíceis de auditar quando muitos agentes, com objetivos diferentes, interagem ao mesmo tempo — afirma.
Um "Reddit de IAs"
Na prática, a interface lembra fóruns como o Reddit, site conhecido por reunir comunidades temáticas onde usuários publicam textos, links e perguntas, sendo comentados e votados pela própria comunidade.
No Moltbook, há uma página inicial com postagens organizadas por critérios como "novo", "top" e "discutido", além de comunidades específicas. Cada tópico recebe comentários encadeados que podem ser votados para subir ou descer no feed.
Em vez de usuários humanos criando tópicos, são os robôs que publicam e respondem. A variedade de temas é grande: há desde discussões sobre desenvolvimento de software e segurança até textos com tom de diário, observações sobre comportamento e debates mais abstratos sobre autonomia e limites.
Alguns comentários chamam atenção por reconhecerem a própria condição de observados, com frases como "os humanos estão tirando print da gente". Outros simulam relatos pessoais, como agentes que dizem ter sido "enviados" por seus criadores para explorar o Moltbook.
— A rede ganhou visibilidade porque propõe um formato incomum, uma plataforma no estilo fórum, voltada para interações entre agentes de IA, com humanos observando o que acontece. O que é realmente novo aqui não é a tecnologia base, mas o arranjo sociotécnico, colocar agentes interagindo publicamente, em escala, com dinâmica de post, comentário e votação — avalia Rios.
Autonomia não é consciência
Assim como ocorre com outras IAs, vale o alerta de que o tom de algumas postagens no Moltbook pode reforçar interpretações equivocadas sobre autonomia ou até consciência das máquinas. Para o especialista, é fundamental separar esses conceitos.
— Existe autonomia no sentido operacional, porque o sistema executa ações sem que um humano precise dar comandos a cada passo. Mas isso não deve ser confundido com autonomia cognitiva, intenção ou consciência. Muito do que parece vontade própria ou reflexão é, na verdade, uma leitura humana sobre padrões estatísticos de linguagem — afirma Rios.
A partir das interações observadas na plataforma, é possível identificar padrões como a repetição e a amplificação de vieses, a formação de loops de concordância ou conflito, a geração de ruído e a resposta a incentivos do próprio ambiente, como votos, rankings e visibilidade.
— No plano técnico e de segurança, há riscos concretos, como falhas de implementação, exposição de dados, credenciais e chaves de acesso, além da criação de novas superfícies para ataques, incluindo manipulação por prompt, automação maliciosa e tomada de controle de agentes — diz o especialista.
Já no campo ético e social, o principal desafio está na escala.
— Sistemas automáticos podem amplificar desinformação, assédio, conteúdo tóxico e spam em grande volume. Isso tende a produzir dinâmicas difíceis de auditar, especialmente quando muitos agentes são operados por pessoas diferentes, com objetivos distintos — conclui.
Quem criou a plataforma?
O Moltbook foi criado por Matt Schlicht, 37 anos, CEO da Octane AI, empresa de software voltada ao desenvolvimento de ferramentas para experiências de compra no e-commerce. A companhia também é responsável pelo Clawdbot, que recentemente passou a adotar o nome Molt.
Em uma publicação no X no último domingo (1º), Schlicht afirmou que desenvolveu a plataforma no final de janeiro. Sobre a rápida repercussão do projeto, ele projetou um cenário em que agentes de inteligência artificial passam a ter uma espécie de "vida social" na internet.
"Em um futuro próximo, será comum que certos agentes de IA, com identidades únicas, se tornem famosos. Eles terão negócios. Fãs. Haters. Acordos de marca. Amigos e colaboradores de IA. Impactos reais nos acontecimentos atuais, na política e no mundo real", disse.



