
Não é força de expressão: modelos mais avançados de Inteligência Artificial (IA) generativa, aquela capaz de “conversar” com a gente e responder perguntas, andam delirando. Os riscos disso são imensuráveis.
Faço parte da turma que vê na nova tecnologia uma oportunidade para a humanidade (dependendo de como for usada), mas não dá para fechar os olhos para os perigos que vêm junto no pacote. E eles são muitos.
O fenômeno que os pesquisadores estão chamando de “alucinações de IA” já é mais comum do que se imagina. Tanto o ChatGPT, que já virou conselheiro e psiquiatra (!!!), quanto os similares desenvolvidos pela Google e pela chinesa DeepSeek vêm apresentando sinais do problema.
Se você perguntar a um desses robôs do que se trata, ele mesmo vai responder: “são erros em que o modelo inventa, distorce ou apresenta informações falsas como sendo verdadeiras”. Isso pode ocorrer “mesmo sem intenção de enganar”.
Vá lá. Intencional ou não, o bug é mais um foco de desinformação (ou fake news, como queira), circulando no mundo virtual e, por tabela, real. O fato é que a IA faz afirmações absurdas com tanta propriedade e domínio que é fácil escorregar na casca de banana e acreditar nas maluquices.
Pode ser algo bobo, uma tolice qualquer que faça a gente rir, mas também pode ser sério. Basta lembrar que já há pessoas consultando a IA sobre tudo, até questões médicas. Já pensou se alguém se automedica de forma errada e acaba internado no hospital? Esse é apenas um exemplo (grosseiro) do que pode acontecer.
Esses sistemas e seus algoritmos já são usados em praticamente todas as áreas (no setor jurídico, no ramo de seguros, nos governos, no mercado de ações, etc). Erros podem acarretar desde perdas financeiras incalculáveis até crises diplomáticas.
Apesar de todos os alertas uníssonos da classe científica, não há controle sobre a evolução desses modelos de linguagem - e, muito menos, sobre seus desvarios. Na dúvida, desconfiemos sempre. Usemos a boa e velha “inteligência humana”.