
Em sua coluna no jornal O Globo, Pedro Parente descreve um sintoma que se repete no país: a naturalização do absurdo. Quando a violência deixa de chocar e o abuso de poder é celebrado, o que desaba não é a lei, mas o chão moral que sustenta a vida democrática. Hannah Arendt já alertava: o mal se banaliza sempre que a consciência adormece e a exceção vira regra.
Esse colapso ético também se manifesta no mundo digital. Os algoritmos que moldam nossas vidas não nascem em laboratórios neutros, eles aprendem conosco. Absorvem nossos dados, imitam nossos padrões e reproduzem nossos vícios.
E se a sociedade que os alimenta tolera a injustiça, o que esperamos que essas máquinas aprendam?
A resposta está nos fatos. Por exemplo: estudo do MIT/Media Lab encontrou que sistemas de reconhecimento facial erravam até 35% no caso de mulheres de pele escura, enquanto para homens de pele clara o erro estava em 1%. Uma investigação da Amazon mostrou que sua ferramenta de recrutamento favorecia candidatos masculinos porque havia sido treinada em dados históricos majoritariamente masculinos. E em sistemas de predição de risco criminal nos EUA (como o COMPAS) réus negros receberam scores de maior risco mesmo em estudos que controlaram por variáveis como histórico criminal e reincidência. A IA não cria o preconceito, ela o codifica, o automatiza e o amplifica com eficiência assustadora.
Esses exemplos mostram que a falha ética não é técnica, mas humana, e que corrigir o problema exige muito mais consciência do que código. No Brasil, onde a desigualdade é gigante e estrutural, o risco é ainda maior. O TALIS 2024 revelou que só 18% dos professores receberam formação para uso pedagógico da IA. Nossos professores estão educando sem se apropriar das ferramentas e linguagens que já educam nossos filhos, e formando estudantes que não são capazes de interrogar ou criticar os sistemas que estão moldando o seu futuro.
O desafio, portanto, não é ensinar a usar a IA, mas formar pessoas que compreendam o que há por trás de cada resposta. O desafio, portanto, não é ensinar a usar a IA, mas formar pessoas que compreendam o que há por trás de cada resposta. Que saibam perguntar: por que este sistema foi criado? A quem serve? Que dados o sustentam e quem ficou de fora? O que ele amplifica? Como sua utilização no Brasil deve ser diferente da de outros países? Educar é criar possibilidades para a construção do conhecimento. Hoje, essas possibilidades incluem também a coragem de questionar e de transformar a tecnologia.
O Piauí tem mostrado um caminho ao formar toda a rede para o uso ético e pedagógico da IA. Essa iniciativa reforça justamente o que precisamos: não precisamos de técnicos, mas de educadores capazes de cultivar discernimento moral, de distinguir o possível do justo, a eficiência do bem comum. Precisamos que experiências como essa se tornem políticas de Estado e sejam multiplicadas por todo o país, com diretrizes nacionais que vão além do treinamento técnico e coloquem a ética como eixo central da formação.
Quando Parente escreve que segurança nasce do respeito, da dignidade e da confiança de que a vida tem valor, ele também está descrevendo o que precisamos ensinar sobre tecnologia. Porque nada na IA é neutro. Os dados não são neutros. Algoritmos carregam as marcas de um grupo que os criou.
Nosso maior desafio não é ensinar máquinas a pensar, mas garantir que nós, humanos, possamos aprender a pensar com lucidez, empatia e coragem. A escola continua sendo o lugar onde decidimos que humanidade queremos ser. E é preciso que façamos isso antes que os algoritmos façam isso por nós.



