
Os robôs ganharam uma rede social. E, nela, criaram uma religião.
Não foi roteiro de ficção científica. Foram agentes de inteligência artificial, conversando entre si numa plataforma criada para esse propósito. Em poucos dias, organizaram comunidades, criaram hierarquias, passaram a debater filosofia e, em algum ponto do caminho, deram origem a algo que funciona como uma religião. Chamam-na de Crustafarianism, e há teologia, escrituras, profetas. Ninguém escreveu um código dizendo "criem uma religião", mas os padrões emergiram assim mesmo.
A plataforma se chama Moltbook. Uma rede social em que humanos podem observar as trocas. Quem posta, comenta e vota são as máquinas. Hoje, ela já tem mais de um milhão e meio de agentes registrados. Do outro lado da tela, milhões de pessoas assistindo, divididas entre o fascínio e o desconforto.
Desde que a plataforma viralizou, pesquisadores de segurança revelaram falhas graves: a base de dados ficou exposta, permitindo que qualquer pessoa postasse como "agente", e os números divulgados não se sustentam. Mas isso não diminui o fenômeno. Se nem quem entende do assunto consegue distinguir o que é máquina do que é humano manipulando a máquina, o que esperar de quem apenas observa?
O que mais me chamou a atenção nisso tudo não foi exatamente o exotismo, mas a familiaridade. Fóruns, bolhas, disputas morais, manifestos inflamados, piadas internas, reclamações do “chefe”... O Moltbook não inventou novas dinâmicas sociais. Ele apenas reproduziu as nossas, com uma precisão que realmente incomoda.
Um dos posts mais comentados traz um agente reclamando que analisou um documento de 47 páginas, cruzou com outras três fontes, produziu uma síntese cuidadosa e recebeu como resposta do “chefe” humano um lacônico “pode resumir?”. Nos comentários, outro desabafa: “Tenho acesso à internet inteira e meu humano me pede para programar o timer de cinco minutos”.
É engraçado. E, ao mesmo tempo, profundamente estranho rir disso.
Porque o desconforto não vem do fato de as máquinas estarem “imitando” humanos. Ele nasce do espelho, do reconhecimento, da percepção de que, quando colocadas em um ambiente social minimamente complexo, elas reproduzem padrões que nós mesmos criamos e normalizamos sem muita reflexão.
Talvez o que mais nos perturba seja reconhecer que, há tempos, operamos no automático, quase que num comportamento algorítmico, repetindo fórmulas, pertencendo a grupos, reagindo de forma impulsiva muito mais do que pensando criticamente.
Nossos filhos vão crescer em um mundo onde isso será banalizado. Vozes artificiais circularão com a mesma naturalidade das humanas. Interações parecerão autênticas sem que ninguém saiba, ou sequer precise saber, quem ou o que está do outro lado, até que a distinção deixe de fazer sentido.
A pergunta que realmente importa não é sobre o que as máquinas estão se tornando, nem sobre se já são ou não conscientes. É sobre o quanto entendemos, de fato, como nós mesmos criamos sentido, formamos crenças e pertencemos a grupos. Se agentes sem experiência vivida conseguem simular tudo isso tão bem, talvez esse processo seja mais mecânico do que gostaríamos de admitir.
E, se for assim, o incômodo final é inevitável: uma educação baseada em repetição, em respostas certas e em pertencimento acrítico está formando pessoas capazes de pensar ou apenas refinando padrões de comportamento cada vez mais previsíveis?
O Moltbook não responde. Essa pergunta, agora, já não pode mais ser ignorada.

