“Com o avanço da inteligência artificial, uma nova ferramenta tem revolucionado a forma como a educação é conduzida em salas de aula ao redor do mundo.”
Foi com a frase acima que o próprio ChatGPT iniciou uma apresentação sobre si mesmo, a pedido desta repórter. No texto, gerado automaticamente, a tecnologia não entendeu muito bem o que é um “lead jornalístico”, como se chama o primeiro parágrafo de uma notícia, mas produziu, em formato de artigo, um resumo relativamente completo — e otimista — dos prós e contras da ferramenta.
O uso desse recurso tem encantado e assustado, na mesma medida, especialistas em diferentes áreas. Em escolas e universidades, a preocupação é ainda maior: em uma fase de formação de novos indivíduos e profissionais, a tecnologia pode tanto ampliar as possibilidades de aprendizagem como tornar o plágio acessível e dificilmente rastreável. Há, ainda, o risco de disseminação de desinformação e discurso de ódio com o recurso.
Apresentado ao mundo há menos de sete meses, no dia 30 de novembro de 2022, o ChatGPT se alastrou rapidamente como tópico nas rodas de conversa. A Itália chegou a proibir a ferramenta, alegando preocupação com a proteção dos dados dos usuários, assim como a cidade de Nova York, nos Estados Unidos, especificamente nas escolas públicas, para evitar o uso do recurso como “cola” em tarefas.
Em todo o planeta, nações debatem projetos de lei para regulamentar tecnologias de inteligência artificial (IA). No Brasil, uma proposta de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), procura estabelecer normas gerais para que ocorra o uso responsável de sistemas de inteligência artificial no país, a fim de “proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico”. No texto, que ocupa 33 páginas, sistemas que tenham finalidades vinculadas à educação e à formação profissional são considerados “de alto risco”, classificação que envolveria uma série de cuidados não especificados.
Desenvolvido pela empresa OpenAI, o ChatGPT não é o primeiro chatbot “inteligente” já surgido – o próprio Google já fez algumas experiências nessa área, sendo a mais recente uma ferramenta chamada Bard, lançada em março. Por que, então, o ChatGPT gerou tanta mobilização?
A resposta está nos parâmetros utilizados, que são as informações aprendidas pelo algoritmo durante o treinamento. Quanto mais parâmetros, mais complexa e acurada é aquela ferramenta.
A título de comparação, em 2017, uma rede neural criada pelo Google baseada em modelos de linguagem que já conseguia elaborar textos de forma sequencial – como sugestões para a próxima palavra ao escrever em um celular, por exemplo – possuía 110 milhões de parâmetros. Já a versão de 2020 do ChatGPT, que teve como base o sistema do Google, tinha 175 bilhões de parâmetros. A atualização mais recente não se sabe, porque a OpenAI optou por não divulgar.
— O Google lançou esse modelo e deixou aberto. Rapidamente, tornou-se padrão na solução da maior parte dos problemas de IA para processar texto. A OpenAI pegou essa arquitetura e otimizou para gerar textos. Em vez de só dizer qual vai ser a próxima palavra mais provável, você dá um conjunto de texto de entrada e ele gera um conjunto de texto de saída — resume Ulisses Brisolara Corrêa, professor e coordenador do Hub de Inovação em Inteligência Artificial da Universidade Federal de Pelotas (UFPel).
Em termos leigos, nesse tipo de inteligência artificial, elaborada com modelos de linguagem, a ferramenta é alimentada com dados de diferentes tipos existentes na internet, como notícias, artigos científicos, postagens em redes sociais, livros, entre tantas outras fontes. Com esses bilhões de informações, a tecnologia gradativamente aprende quais as melhores respostas para cada pergunta ou demanda. Para se aperfeiçoar, ela conta com professores. Outros robôs? Não. Humanos, de carne e osso, que treinam o recurso.
— O modelo por trás do ChatGPT, que é o GPT 3.5, foi melhorado para a parte de diálogo a partir do feedback de pessoas. Eles contrataram gente de diferentes países para ler os textos gerados e responderem à pergunta: entre essas possibilidades de resposta, qual a mais intuitiva para o que você esperaria? Além de entender que frases deve dizer, o modelo passa a priorizar as respostas que as pessoas acham mais adequadas e humanas — explica Rafael H. Bordini, professor da Escola Politécnica e do Programa de Pós-Graduação em Ciência da Computação da Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS).
Hoje, a instituição católica possui uma graduação em Ciência de Dados e Inteligência Artificial. O curso forma cientistas, engenheiros e arquitetos de dados, de inteligência artificial e machine learning, além de analistas de inteligência de mercado. Em sua estrutura, há laboratórios e servidores semelhantes (mas muito menores) aos usados para armazenar as informações contidas no ChatGPT.
Mas, se a humanidade desses textos de notícias, artigos, postagens e livros usados para alimentar a IA torna os resultados mais interessantes e certeiros, também gera reveses. A principal preocupação de governos e empresas que trabalham com IA é que esses sistemas disseminem discursos de ódio e desinformação, por receberem dados de forma indiscriminada.
— O ChatGPT foi treinado com textos da internet, então ele tem vieses, e a IA ainda não é boa o suficiente para combater tendências inadequadas. Ela não te dá resultados; te dá previsões que podem estar corretas, parcialmente corretas ou até incorretas. O ChatGPT foi feito para te dar resultados credíveis, e não necessariamente corretos — descreve Rosa Maria Vicari, professora do Instituto de Informática e do Programa de Pós-Graduação em Informática na Educação da Universidade Federal do Rio Grande do Sul (UFRGS).
O ChatGPT foi treinado com textos da internet, então ele tem vieses, e a IA ainda não é boa o suficiente para combater tendências inadequadas. Ela não te dá resultados; te dá previsões que podem estar corretas, parcialmente corretas ou até incorretas.
ROSA MARIA VICARI
Professora do Instituto de Informática e do Programa de Pós-Graduação em Informática na Educação da UFRGS
Na educação, usar uma ferramenta que pode gerar textos enviesados e até mentirosos exige ações que passam pela regulamentação desses recursos, pela formação de professores e pela conscientização dos estudantes sobre quando e como recorrer à inteligência artificial.
O impacto em sala de aula
Nas redes de ensino, o impacto do ChatGPT ainda é um debate pouco difundido. A maioria das entidades e órgãos não conta com espaços de formação de professores, fóruns de discussão e materiais com recomendações. A pauta é tratada principalmente em universidades.
No Ministério da Educação (MEC), não existe um grupo de trabalho sobre o tema na Secretaria de Educação Básica (Seb). Mas a pasta tem participado de encontros a respeito, como uma reunião na Unesco, a agência das Nações Unidas para a Educação, a Ciência e a Cultura, e um evento sobre ChatGPT na Universidade de São Paulo (USP), no qual esteve a secretária de Educação Superior, Denise Pires de Carvalho.
— Estamos começando a discutir a necessária mudança na formação de professores, porque não é possível continuar com esse modelo curricular que temos no país e enfrentar o ChatGPT. É um desafio enorme — defendeu a secretária no encontro da instituição paulista.
A Unesco divulgou, no fim de 2021, recomendações para o uso ético da IA. No documento, a diretora-geral adjunta de Ciências Sociais e Humanas, Gabriela Ramos, alertou que essa tecnologia “traz grandes benefícios em muitas áreas, mas, sem as barreiras éticas, corre o risco de reproduzir preconceitos do mundo real, alimentando divisões e ameaçando os direitos e liberdades humanos fundamentais”. O material aponta 10 princípios básicos, como o direito à privacidade e à proteção de dados, a transparência, a supervisão humana e a conscientização e alfabetização para a ferramenta.
Em 2022, a UFRGS elaborou o Referencial Curricular: Inteligência Artificial no Ensino Médio, como parte de um projeto de capacitação em IA para as escolas públicas gaúchas. Em 68 páginas, é apresentado um estudo sobre o tema nessa etapa da educação, competências específicas a serem trabalhadas e sugestões de atividades.
Na rede estadual, conversas sobre o uso de tecnologia nas instituições de ensino têm ocorrido, mas não com foco no ChatGPT. Uma trilha de formação de professores está sendo montada, voltada para tecnologia e inovação, o que deve gerar avanços.
— Hoje, temos um curso, chamado Educação Midiática, que debate como as aulas podem ser estruturadas levando em conta as tecnologias existentes e falando aos estudantes sobre o uso consciente delas. A ideia é estar sempre lançando cursos — afirma Marcelo Jerônimo, subsecretário de Desenvolvimento da Educação da Secretaria Estadual de Educação (Seduc).
Jerônimo pontua que, para além do emprego adequado do ChatGPT e outras ferramentas de modelos de linguagem, as redes de ensino devem preparar os alunos para lidar com a IA no mundo do trabalho, o que será cada vez mais cobrado.
— Quem souber lidar com essa ferramenta vai se sair melhor — analisa o subsecretário.
Plágio e banimento não estão na pauta dos debates
Não há discussões em andamento sobre o plágio, potencializado pelo ChatGPT, que elabora automaticamente os textos. Não há, tampouco, debates sobre banir ou não a tecnologia nas escolas do RS.
— As tentativas de proibir o uso do ChatGPT têm se mostrado inócuas, porque a tecnologia está no cotidiano do estudante. Não adianta passar questões muito óbvias, porque o aluno vai lá no Google ou no ChatGPT e tem uma resposta em segundos. É preciso usar metodologias ativas, que demonstrem que ele desenvolveu a habilidade — avalia Jerônimo.
A rede municipal de Porto Alegre conta com uma Coordenadoria de Tecnologia e Inovação, que promove formações mensais sobre o assunto. A coordenadora do departamento, Melissa Machado, defende que o recurso seja apresentado como algo que pode ajudar os alunos a pensar.
Estamos muito voltados, ainda, para a educação de prescrição. As escolas, por mais progressistas que se coloquem, acabam usando a internet como substituta do livro, sem ensinar aos alunos o que é pesquisa e como nos relacionamos com a tecnologia.
SONIA BIER
Gerente de Educação do Sesi/RS
— Isso é um enfrente que a gente vai ter que conversar, para ver como é que se pode facilitar e auxiliar o trabalho do professor. Mas acredito que temos que mostrar para o aluno que, com aquela ferramenta, ele consegue utilizar muito mais do que só o “copia e cola”. Tudo é a forma como o professor utiliza o recurso em sala de aula — defende Melissa.
Nas escolas do Serviço Social da Indústria (Sesi), conhecidas por trabalhar com tecnologia, a discussão está mais avançada. Mas, segundo a gerente de Educação do Sesi/RS, Sonia Bier, não é de hoje que as escolas têm dificuldade para se relacionar com as inovações.
— Estamos muito voltados, ainda, para a educação de prescrição. As escolas, por mais progressistas que se coloquem, acabam usando a internet como substituta do livro, sem ensinar aos alunos o que é pesquisa e como nos relacionamos com a tecnologia — observa Sonia.
Para a gerente do Sesi/RS, o ChatGPT é perigoso no modelo de escola tradicional, em que o professor fala e o aluno repete, pois é usado como fonte de busca, sem um pensamento crítico envolvido. Na escola contemporânea, porém, serão encontradas formas de interação. Na visão de Sonia, a chave para desafios como problemas que uma comunidade local enfrenta, por exemplo, só poderá ser encontrada por pessoas que a conhecem. Por isso, a ferramenta até pode ajudar, mas a análise, a criatividade e a linguagem para traduzir aquilo para outras pessoas será dos alunos.