O chatbot Med-PaLM, um aplicativo de inteligência artificial do Google especializado em medicina, passou no exame que permite exercer a profissão de médico nos Estados Unidos. Seus resultados, no entanto, foram inferiores aos dos humanos, segundo um estudo publicado nesta quarta-feira (12) pela revista Nature.
O lançamento do ChatGPT da empresa OpenAI, com apoio da Microsoft, concorrente do Google, impulsionou, no ano passado, uma corrida entre os gigantes da tecnologia no campo da inteligência artificial. O atendimento médico é uma área na qual a tecnologia tem mostrado um avanço consistente, com algoritmos capazes de ler exames médicos com mais eficácia que os humanos.
O Google apresentou o Med-PaLM em um artigo com pré-publicação em dezembro. Ao contrário do ChatGPT, o sistema não é acessível ao público geral.
O Google afirma que o Med-PaLM é o primeiro grande modelo de linguagem – uma técnica de inteligência artificial treinada com grandes quantidade de texto produzido por humanos – a ser aprovado no Exame de Licenciamento Médico dos EUA (US Medical Licensing Examination ou USMLE, na sigla em inglês). O exame que habilita o exercício da medicina nos EUA exige uma pontuação de aproximadamente 60%.
Em fevereiro, um estudo revelou que o ChatGPT havia obtido resultados bastante satisfatórios na avaliação. No novo estudo revisado por pares publicado nesta quarta-feira na Nature, os pesquisadores do Google disseram que o Med-PaLM obteve 67,6% de acertos nas perguntas de múltipla escolha do USMLE. Os resultados são "animadores, mas ainda inferiores aos dos humanos", afirma o estudo.
* AFP