O linguista francês Dominique Maingueneau, um dos principais teóricos da análise do discurso do século 21, é cético quanto à influência dos sistemas de inteligência artificial (IA) na comunicação humana. Segundo ele, não é possível dividir um mundo entre "humanos" e "robôs", visto que os modelos automatizados de linguagem já são parte das sociedades em todo o mundo.
Em entrevista a GZH Passo Fundo, realizada na tarde de terça-feira (9), o teórico falou sobre as diferenças do discurso entre falantes e não-humanos, tema sobre o qual palestrará na Universidade de Passo Fundo (UPF) nesta quarta (10).
Apesar da relação entre humanos e robôs existir há décadas, hoje há sistemas capazes de produzir falas e enunciados, como o ChatGPT, que representam novas perspectivas ao ser humano. Essa perspectiva, porém, representa um desafio à ciência linguística, que ainda analisa os desdobramentos da linguagem em modelos de análise tradicionais.
Professor da Universidade de Paris-Sorbonne, Maingueneau ministra uma disciplina especial ao Programa de Pós-graduação em Letras da UPF até quinta-feira (11). A palestra será realizada no Auditório da Biblioteca Central, às 19h20min, e é aberta aos estudantes de Letras e pesquisadores da área. Confira a entrevista com o teórico a seguir.
Entrevista com Dominique Maingueneau
GZH: é possível existir um sistema de IA capaz de imitar perfeitamente a linguagem humana?
Dominique Maingueneau: Acho que não se pode colocar o problema desta maneira porque o que significa uma linguagem perfeita? A diferença é que o homem é imperfeito e a máquina é perfeita. A palavra na conversa tem sempre um contexto particular, as pessoas se conhecem, têm um passado comum, emoções, afeto, tudo isso. Quando você fala com o ChatGPT, por exemplo, nada disso existe. Ele não sabe quem está falando, não tem nenhuma história comum, o contexto é totalmente abstrato, é só a tela. E o problema do implícito também é difícil porque, se você fala com o ChatGPT, tende a eliminar o implícito, caso contrário não recebe uma resposta precisa ou adequada.
Isso significa que não se pode — claro, isso é uma hipótese — opor uma conversa humana a uma conversa com um robô. É provável que existam vários tipos de robôs em vários tipos de conversas: alguns serão capazes de dar respostas muito precisas a problemas técnicos enquanto outros serão mais capazes de interagir com humanos, dependendo do programa. Mas entendo que não se pode dividir o mundo em dois: humano e não-humano.
GZH: sobre essa aproximação, ou interpenetração da comunicação entre humanos e não-humanos, como abordou em uma palestra recente... quais consequências o senhor entende que podemos ter agora e num futuro próximo apenas pelo fato de estarmos tão perto de sistemas que escrevem, calculam e criam por e para o ser humano?
DM: É inevitável. A interpenetração já está aqui. Por exemplo, quando você escreve no computador, a ferramenta marca os erros, propõe sinônimos... Já vivemos em um mundo de interpenetração, mas é provável que isso se aprofunde porque, como no filme Blade Runner, passaremos a ter robôs em casa que respondem, ajudam, falam conosco. Assim, se tornam um personagem da família. Veja, a interpenetração não é uma coisa nova. O que é novo é isso acontecer com seres capazes de produzir falas e enunciados. Mas, de qualquer forma, é inevitável. Entendo que a ideias das pessoas cada vez menos partam "do nada". A máquina vai oferecer uma base de trabalho.
GZH: isso pode alterar a forma de comunicação entre os seres humanos? Aqui cito como exemplo as pesquisas com crianças que têm acesso a assistentes virtuais e passam se comunicar através de "comandos de voz" com outros seres humanos. Na sua opinião, as IAs têm essa capacidade?
DM: Isso é um problema. Sei de um experimento interessante em que pessoas físicas se propunham a explicar um fato novo pessoalmente para um grupo de crianças, enquanto outro recebia a mesma explicação de pessoas que falavam através de uma tela. Se descobriu que não era da mesma zona do cérebro que trabalhavam os dois casos. A criança via a imagem e o tratamento era diferente. Dessa maneira, a (assistente virtual) Alexa não é uma pessoa física, então não está certo que o tipo de comunicação seja o mesmo.
Também se descobriu que, quando a criança falava com a pessoa física, aprendia melhor, inclusive quando o conteúdo era o mesmo. A relação era diferente, sobretudo porque cria-se uma espécie de comunidade. A Alexa não é uma comunidade, há uma assimetria importante.
GZH: como os linguistas e analistas do discurso podem se enquadrar e pesquisar em meio a essa geração automática de textos e pensamentos?
DM: Isso é um dilema enorme porque os dados linguísticos adicionais são dados verbais, gravados, conversas, textos, trabalhamos com isso. Mas, agora, os dados são mistos, híbridos. Quando você recebe uma mensagem no smartphone, tem smiles (emojis), por exemplo. Para os linguistas, sei que os dados mudarão: serão híbridos, o que em si já é um problema.
A segunda questão é que todo o aparato teórico da linguística é feito para analisar a relação entre dois falantes. Não há um modelo teórico para um falante humano com um falante virtual, aquele que chamamos de locutor angélico, que significa falar com alguém que não é um ser humano. Então é totalmente novo, acho que precisamos de alguns anos para construir novos modelos. Mas, agora, não tem, continuamos com o modelo tradicional. É provável que a importância de um linguístico puro vai diminuir.
GZH: desafiador...
DM: mas a história da humanidade é sempre desafiadora. Quando se inventou a ciência moderna, no século 17, você imagina… E quando se descobriu a América ou que a Terra não era o centro do universo. A humanidade está sempre confrontada.
GZH: hoje existem muitas pessoas trabalhando para treinar inteligências artificiais a se aproximarem do modo de fala humana. O senhor, como linguista, se sentiria confortável em participar desses treinamentos? Como o senhor enxerga essa possibilidade?
DM: O problema é que os engenheiros não precisam dos linguistas (risos). A IA trabalha com treinamentos probabilísticos, não tem a ver com o funcionamento do cérebro humano. Isso é um problema porque a maneira com a qual o ChatGPT constrói enunciados é muito diferente do modo de construção dos humanos. E, bem... se me pedirem ajuda, seria sobretudo interessante para entender como eles (os engenheiros) trabalham. Mas não estou tão seguro que eles vão precisar dos linguistas.
Infelizmente, perdemos um pouco da emoção. A maestria da comunicação humana cada vez mais implica em bancos de dados enormes e milhões de trabalhadores invisíveis que alimentam esses dados. São os engenheiros que dominam.
GZH: qual a sua reação ou sentimento diante disso?
DM: quando há uma evolução, há sempre dois tipos de atitudes. Algumas pessoas dizem "oh, que maravilhoso, o mundo está mudando" e outros "você não vê os perigos?" (risos). E, bom, a verdade é que há sempre os aspectos positivos e negativos, mas os negativos são bem fortes nesse caso. Por exemplo, as crianças podem deixar de ler um texto mais longo porque não estão mais acostumadas com esse tipo de estrutura. E também podem vir problemas psicológicos de vício, etc. Mas, ao mesmo tempo, o cientista é fascinado pela novidade. Quando algo novo aparece, é extraordinário. Ao mesmo tempo, somos cidadãos e temos que levar em conta as consequências do que fazemos.
GZH: há ceticismo, então?
DM: tem um provérbio que diz "os cachorros ladram e a caravana passa". É a mesma coisa. Eu posso ladrar, mas a caravana passa. Por exemplo, quando o ChatGPT foi lançado, Elon Musk e outros empresários escreveram que era preciso parar tudo porque a descoberta era muito perigosa. Meses depois, ele criou seu próprio serviço de IA (risos). Isso significa que a caravana passa e temos que seguir.