
Imagine essa cena: você é professor de um curso introdutório de ciência de dados com mais de mil alunos. Para acompanhar a participação, criou um aplicativo onde os alunos respondem questões em tempo real durante a aula, escaneando um código QR com o celular.
Até que nota algo estranho: há bem mais respostas do que pessoas no auditório. Quando investiga os registros do sistema, descobre que dezenas de alunos estão “assistindo” à aula de qualquer lugar. Alguns até a 200 quilômetros de distância.
Estão colando na presença.
Você envia emails de advertência para mais de cem alunos e recebe a primeira resposta:
“Cara Professora, quero expressar as minhas mais sinceras desculpas pelo meu erro. Reconheço a gravidade do que fiz e assumo total responsabilidade.”
Ufa! Que alívio! Ao menos estão aprendendo algo sobre responsabilidade. E aí chega o segundo email, com a mesma estrutura e as mesmas palavras. “Minhas mais sinceras desculpas...”
O terceiro.
O décimo.
O quinquagésimo.
Todos começando com poucas variações da mesma expressão, como se tivessem combinado o script. Mas não combinaram. Simplesmente pediram à IA para responder à mensagem da professora com um pedido de desculpas.
Você acabou de pegar seus alunos trapaceando com inteligência artificial. E eles acabaram de usar a mesma inteligência artificial para pedir desculpas por terem trapaceado.
Bem-vindo ao semestre de Karle Flanagan e Wade Fagen-Ulmschneider, professores da Universidade de Illinois que acabaram de passar por isso. O caso viralizou e um slide da professora que mostra partes idênticas de emails dos alunos tem mais de 28 milhões de visualizações.
Os alunos riram, a internet toda também. Mas há algo aqui que não tem a menor graça.
Fagen-Ulmschneider contou ao New York Times que o que mais o incomodou foi perceber que a ajuda da IA não serviu para resolver um problema técnico, mas para expressar uma emoção humana. "Eu sinto muito, estou arrependido." Quando é uma IA dizendo isso por você, quão real é esse sentimento?
Não estamos falando de usar IA para resolver um cálculo ou resumir um artigo acadêmico.
Estamos falando de terceirizar o arrependimento.
De delegar a vergonha.
De pedir a uma máquina que simule o constrangimento que deveríamos sentir quando erramos.
A professora descreveu o momento da descoberta com a seguinte frase: “Aquele primeiro email deixou de ser sincero”. Repare: não é que só os outros eram falsos. É que agora, o primeiro, aquele que ela havia recebido com uma boa sensação, aquele que a fizera acreditar que havia valido a pena ser professora naquele dia, ele também estava sob suspeita.
E é assim que destruímos uma relação de confiança. Não é de uma vez, mas aos poucos. Email por email. Dúvida por dúvida.
Os professores não puniram os alunos. Usaram o episódio como um “momento de aprendizado sobre integridade acadêmica.” Mas que lição se aprende aqui? Que não devemos usar a IA para pedir desculpas? Ou algo mais incômodo: que chegamos a um ponto em que precisamos provar que nossos sentimentos são realmente nossos?
E talvez o problema nem esteja nas máquinas. Está no espelho.
Talvez tenhamos parte nisso. Treinamos os jovens para escrever assim. A escola, o mercado, o sistema, nós mesmos: pedimos textos impecáveis, sem tropeços, sem emoção. A perfeição na forma importa muito mais do que o sentimento expresso.
Aprenderam a calibrar o tom, a escolher cada palavra com cuidado, a parecer sinceros sem se expor. E agora, quando a máquina faz isso com perfeição, chamamos de falta de autenticidade.
A contradição é real. E, talvez, apenas talvez, seja a origem do problema.
Porque o que está em jogo não é a qualidade da escrita, mas a possibilidade de continuarmos acreditando uns nos outros. Quando uma pessoa me diz “eu sinto muito”, eu preciso saber se aquele sentimento é real ou foi uma reação calculada por um algoritmo que usou a melhor combinação de palavras para simular um arrependimento.
Sem essa garantia mínima de autenticidade, o que nos resta?
Professores que não podem confiar em alunos. Alunos que não entendem a desconfiança de seus professores. E, entre eles, uma IA que escreve desculpas perfeitas que ninguém sente.
O mais assustador não é o que a tecnologia está conseguindo fazer, mas o fato de estarmos começando a achar normal que ela faça.
Afinal, colar na presença é uma falha acadêmica. Colar no arrependimento é uma falha humana.


