
Quando olho para o Moltbook, para aqueles agentes debatendo existência, criando uma religião, reclamando dos humanos, a parte treinada em ciência sabe exatamente o que está vendo: padrões linguísticos, emergência estatística, simulação sofisticada. Ainda assim, algo ali me prende.
Não é ingenuidade, é uma escolha intencional. Aprendi que dá para ser rigoroso e, ainda assim, manter espaço para o assombro. Que explicar o mecanismo não elimina o mistério, o reposiciona.
Digo isso porque a conversa sobre inteligência artificial costuma nos empurrar para dois cantos igualmente estéreis: o pânico ou o deslumbramento. De um lado, Skynet. Do outro, utopia. E no meio, pouca gente fazendo a pergunta que realmente importa para quem educa.
A pergunta decisiva não é se as máquinas vão pensar como nós, mas o que estamos formando nos humanos enquanto elas aprendem a simular quase tudo.
Nas duas colunas anteriores, busquei mostrar que o Moltbook funciona como espelho e que o risco real não é a singularidade, mas a confusão. Desde então, pesquisadores de segurança revelaram que a plataforma tinha vulnerabilidades graves, como números inflados, base de dados exposta, impossibilidade de verificar o que era realmente máquina e o que era humano por trás dela. Essas descobertas não invalidam a reflexão. Elas a tornam mais urgente: se um experimento observado por milhões não conseguia garantir a autenticidade do que publicava, a necessidade de formar pessoas capazes de duvidar antes de precisar detectar fica ainda mais evidente.
Agora, quero ir ao ponto que mais me interessa como educador: o que faremos com isso, na prática?
A resposta curta é: precisamos desenvolver autonomia. Não autonomia como isolamento ou autossuficiência, mas como a capacidade de pensar junto sem terceirizar o julgamento. De usar ferramentas poderosas sem ser usado por elas. De conviver com sistemas inteligentes sem desaparecer dentro deles. Isso não é abstração. É competência. Pode e deve ser cultivada.
Em casa, isso começa menos pelo controle das telas e mais pelas conversas sobre o que aparece nelas. Perguntar: "Quem escreveu isso? Como você sabe? O que essa pessoa, ou essa máquina, ganha com a sua atenção?" Não no intuito de gerar paranoia, mas para criar o hábito da dúvida saudável. O "segundo de pausa" que mencionei na coluna anterior começa nas pequenas conversas do cotidiano, muito antes de virar rotina.
Na escola, a tentação é proibir ou fingir que não existe. Mas a IA já está na sala de aula, no bolso de cada aluno. O caminho mais honesto é trazer para dentro: usar, comparar, questionar. Pedir que o aluno gere um texto com IA e depois reescreva com sua própria voz. Perguntar: "O que você mudou? Por quê? O que é realmente seu nisso?" Autonomia se constrói na fricção entre o que a máquina oferece e o que a pessoa decide fazer com aquilo.
E, para todos nós, talvez o passo mais difícil seja aceitar que não sabemos o que as máquinas vão se tornar. Elas vão mudar rápido demais para qualquer previsão honesta. Mas isso não nos isenta de praticar, no dia a dia, pequenas escolhas de autoria: pensar antes de reenviar, assinar o que acreditamos, revisar um texto gerado antes de colocá-lo no mundo. Autonomia não pode ser só conceito, precisa ser gesto repetido.
Sabemos, ou deveríamos saber, o que queremos formar: pessoas capazes de julgar, de discordar, de sustentar ambiguidade, de aprender com outros sem abdicar da própria responsabilidade.
Talvez esse seja um dos maiores papeis da educação agora: não o de competir com algoritmos, mas formar gente que saiba conviver com eles sem perder a própria voz.
Porque, no fim, nosso questionamento mais relevante nunca foi sobre as máquinas. Sempre foi sobre nós, sobre o que nós vemos quando elas nos devolvem o reflexo. E sobre como estamos educando nossos filhos e alunos para essa nova era.

