
Usuários do ChatGPT têm reclamado nas redes sociais da mudança de personalidade da ferramenta. Nas últimas semanas, a plataforma de inteligência artificial (IA) focada em linguagem foi modificada para parecer mais humana.
A OpenAI, empresa responsável, voltou para uma versão anterior após os relatos negativos. Segundo especialista, ajustar os prompts pode ajudar a evitar as alucinações do chatbot.
Em um post no LinkedIn, uma estudante relata que a ferramenta parece um adolescente, respondendo as perguntas de maneira exageradamente coloquial e com brincadeiras excessivas.
No X (antigo Twitter), usuários afirmam que o ChatGPT "enlouqueceu de vez", com longas risadas como respostas ou avisos de que está mentindo.
— De fato isso está acontecendo. E teve a ver com uma modificação que a OpenAI fez no treinamento do ChatGPT. A ideia deles foi muito no sentido de dar um pouco mais de personalidade para o modelo. São pequenas adaptações que acontecem com frequência e são bem testadas, mas eventualmente algumas questões acabando passando, que foi o caso aqui — explica Rafael Kunst, professor e pesquisador do Programa de Pós-Graduação em Computação Aplicada da Unisinos:
— Não surtiu o efeito que esperavam, e aí eles reverteram.
Kunst afirma que essas modificações que procuram dar mais personalidade são interessantes para tornar a interação com os humanos mais próxima de uma conversa real.
O especialista garante que, como a empresa voltou atrás na modificação, o problema pode ter desaparecido para a maioria dos usuários que usam a IA generativa paga e a gratuita. Além dessa, pode haver outras justificativas para que o ChatGPT dê respostas absurdas e bem-humoradas:
— É uma característica que criadores desse tipo de modelo acabam lançando mão para chegar em um tom mais próximo daquilo que os usuários estão acostumados, que é a ferramenta aprender a forma que a pessoa gosta de se comunicar e tentar replicar. Quando tenta aproximar, ocorrem esses exageros.
O professor acrescenta que é possível que esses modelos de IA generativa alucinem. Esse é o termo técnico usado para descrever quando a IA gera informações incorretas, inventadas ou, neste caso, absurdas. A ferramenta pode construir resposta com base em contextos anteriores e, por já estarem distorcidos ou incorretos, gera resultados pouco compreensíveis.
— Como é baseado em probabilidades, o modelo entra no caminho e foge do que deveria responder. Aí acaba alucinando e não consegue voltar para o contexto inicial. Aquele exemplo de uma resposta que são vários “K” é claramente alucinação. Mas é algo natural desses modelos, existe uma probabilidade, ainda pequena, de ele pegar o caminho que não é adequado — complementa Kunst.
O que fazer?
Nesses casos, a solução é ajustar o prompt (comando) ou recomeçar a interação. O professor sugere que o usuário diga em qual linguagem prefere a resposta. Por exemplo, é possível pedir para o ChatGPT que transforme um e-mail escrito com palavras simples e expressões coloquiais em algo mais formal para o ambiente de trabalho. Ou, ainda, iniciar a interação do zero, dando o contexto inicial novamente, e solicitando a resposta adequada.