
Na terça, escrevi sobre máquinas que decidem quem vive e quem morre em milissegundos. Na quinta, sobre plataformas desenhadas para capturar cérebros que ainda estão em formação. Hoje, escrevo sobre o único poder que depende de nós: o de pensar de forma autônoma com as ferramentas que estão disponíveis.
Se você já usou um chat de inteligência artificial para estudar, trabalhar, escrever ou decidir alguma coisa importante, este texto é para você. Não quero te ensinar truques, mas ajudar a não terceirizar o que nenhuma tecnologia deveria assumir no seu lugar. É sobre ética cognitiva aplicada.
Esta coluna foi construída com críticas de cinco sistemas de inteligência artificial diferentes. Uso todos os dias, deliberadamente: comparo respostas, confronto vieses, descarto o que soa bonito mas não atravessa o teste da evidência e não abro mão das minhas marcas – é o meu estilo e a minha voz. Conto isso por um motivo simples. A maioria faz uma pergunta, aceita a primeira resposta e segue adiante. E aí a pausa desaparece.
A inteligência artificial foi treinada para passar segurança mesmo quando não sabe alguma coisa. É eloquente por design: entrega frases bem acabadas, parágrafos coerentes e respostas que parecem definitivas. Do outro lado, fomos treinados pela escola, pela vida e pelo hábito a confiar em quem fala com segurança. Pesquisas recentes em universidades como Stanford mostram algo meio difícil de se aceitar: nós tendemos a seguir conselhos de sistemas automáticos mesmo quando eles contradizem o nosso próprio julgamento. É certo que eloquência não é evidência. Mas, muitas vezes, o cérebro confunde as duas.
Quando alguém aceita a primeira resposta de uma IA sem questionar, a pausa desaparece, do mesmo modo que desaparece antes do disparo autônomo ou antes de rolar para a próxima tela. O mecanismo é parecido nas três escalas. Diante do chat, porém, quase ninguém percebe que terceirizou o próprio critério.
O que pode te ajudar não é, exatamente, um jeitinho novo. É uma postura bem antiga que chamamos de método.
A diferença entre ampliação e captura raramente mora no código
Método dá direção antes de pedir execução. Se você não sabe o que quer, a IA escolhe um caminho para você, e ela nunca fica constrangida por isso. Quem pergunta sem direção vai ser conduzido pela resposta.
Pede, explicitamente, que te contradiga. Se a IA nunca discorda de ti, você está usando um espelho ao invés de um parceiro de pensamento. “Encontre os furos do meu argumento” é uma frase mais poderosa do que parece. Se vier tudo liso demais, desconfie.
Compare respostas de sistemas diferentes. Cada modelo carrega os seus vieses próprios e o contraste revela mais do que qualquer resposta isolada. No jornalismo, uma fonte é versão; duas começam a parecer informação.
Não decida com base na primeira resposta. Leu? Reformula. Muda o ângulo. Pede limites, pede contraexemplos. Só, então, aja. O segundo de pausa que defendo contra a desinformação vale aqui também. Talvez aqui ainda mais porque a resposta vem em um embrulho impecável de certeza.
Saiba quando desligar. Decisões morais, afetivas, existenciais pedem presença humana e reflexão profunda. A IA pode ajudar a organizar ideias antes de uma conversa difícil. A conversa, o tom, a subjetividade ao colocar os argumentos, a postura, a voz, porém, continuam sendo seus. Muito seus.
Esta semana, escrevi sobre três formas de poder: máquinas que matam em milissegundos; plataformas que capturam a atenção de cérebros em formação; e o poder de pensar, de forma clara, crítica e autônoma, que ainda nos pertence, se assim o quisermos.
A diferença entre ampliação e captura raramente mora no código. Mora no intervalo entre o estímulo e a forma como você decide responder. Nesse intervalo, vivem a dúvida, o julgamento e a responsabilidade. É da sua autonomia de pensar e agir que estamos falando. E é ali que a máquina ainda não entra.



