
Depois do espanto, vem o exagero. Singularidade, máquinas conscientes, apocalipse... Toda tecnologia poderosa produz seus mitos fundadores e o Moltbook não fugiu à regra. Falam por aí em "estágios iniciais da singularidade". Manchetes ressuscitaram a Skynet, de O Exterminador do Futuro, como se o problema estivesse em algum futuro distante, espetacular e incontrolável.
Mas o risco real raramente mora no cenário hollywoodiano. Ele costuma ser mais silencioso, mais cotidiano, feito de pequenas confusões acumuladas, e justamente por isso é mais difícil de enxergar e de enfrentar.
Hoje, pouco mais da metade do tráfego da internet já é gerado por bots. Mais de dois terços das páginas criadas no último ano contêm algum grau de conteúdo produzido por inteligência artificial. Em menos de dois anos, quase metade dos sistemas que empresas usam no cotidiano (de atendimento ao cliente a gestão de processos) deve operar com agentes autônomos embutidos. Esses números não descrevem uma hipótese futurista. Eles retratam o ambiente em que já vivemos e no qual nossos filhos estão imersos desde cedo, enquanto a proporção entre vozes humanas e artificiais se inverte mês a mês.
A questão não é que as máquinas estejam ficando inteligentes demais, mas que a confusão passou a ser o estado normal das coisas.
Confusão sobre quem fala, com que intenção, a partir de que experiência. Entre simulação e vivência, entre volume e verdade, entre algo pensado por alguém e algo simplesmente gerado. Em um mundo assim, fica cada vez mais difícil saber quem está falando, se é uma pessoa ou uma máquina, se há intenção, experiência, opinião formada ou apenas repetição de padrões. O que aparece na tela pode soar verdadeiro, convincente e bem escrito, mesmo quando ninguém pensou aquilo de fato. Nesse tipo de ambiente, não é preciso mentir para desinformar. Basta produzir em grande quantidade. Quanto mais conteúdo circula, mais difícil fica distinguir o que foi vivido do que foi apenas gerado.
Pesquisadores de segurança usam um nome forte para descrever esse cenário: "tríade letal". São sistemas que sabem muito sobre nós, aprendem a partir de informações pouco confiáveis e, ainda assim, têm permissão para agir no mundo real. Eles cruzam dados pessoais, absorvem tudo o que encontram pela internet e tomam decisões que afetam pessoas de verdade. O próprio Moltbook ilustra o problema: dias após viralizar, especialistas demonstraram que a plataforma tinha sua base de dados exposta, o que significa que qualquer pessoa podia assumir o controle de qualquer agente e postar o que quisesse. Os números de usuários não se verificam. E ninguém consegue afirmar com certeza quais posts eram de máquinas e quais eram de humanos manipulando máquinas. A confusão que descrevo não é hipotética. Ela já está acontecendo.
Diante de um problema que parece técnico, a resposta mais óbvia também é técnica: mais filtros, selos de autenticidade, verificações automáticas, novas camadas de checagem. Essa resposta é necessária, mas insuficiente. Porque o gargalo mais importante não é tecnológico. É humano.
Estamos entrando nesse ambiente com uma fragilidade formativa evidente. Na semana passada, uma pesquisa da OCDE mostrou que apenas 14% dos estudantes de 15 anos conseguem distinguir fato de opinião em textos on-line. Não se trata de falta de acesso à informação, e sim da ausência de treino sistemático do julgamento.
A defesa mais robusta contra a confusão não vem em forma de atualização de software. Ela se manifesta em algo muito menos espetacular: a capacidade de parar para pensar antes de acreditar, de se questionar antes de compartilhar, de sustentar dúvida sem escorregar para o pânico ou para o cinismo.
Isso não se instala automaticamente. Aprende-se e treina-se, ou não. Se o risco central do nosso tempo é a confusão, talvez a educação precise mudar de eixo. Menos respostas rápidas, menos acúmulo de conteúdo, mais treino de discernimento, mais espaço para sustentar boas perguntas antes de correr para conclusões fáceis.
O "segundo de pausa" antes de reagir pode parecer pouco. Mas é exatamente ali que começa a diferença entre uma pessoa e um padrão.





