O “chatbot” Med-PaLM, um aplicativo de inteligência artificial do Google especializado em medicina, passou no exame que permite exercer a profissão de médico nos Estados Unidos. Seus resultados, no entanto, foram inferiores aos dos humanos, segundo um estudo publicado nesta quarta-feira(12) pela revista Nature.

O lançamento do ChatGPT da empresa OpenAI, com apoio da Microsoft, concorrente do Google, impulsionou, no ano passado, uma corrida entre os gigantes da tecnologia no campo da inteligência artificial.

O atendimento médico é uma área na qual a tecnologia tem mostrado um avanço consistente, com algoritmos capazes de ler exames médicos com mais eficácia que os humanos.

O Google apresentou o Med-PaLM em um artigo com pré-publicação em dezembro.

Ao contrário do ChatGPT, o sistema não é acessível ao público geral.

O Google afirma que o Med-PaLM é o primeiro grande modelo de linguagem –uma técnica de inteligência artificial treinada com grandes quantidade de texto produzido por humanos– a ser aprovado no Exame de Licenciamento Médico dos EUA (US Medical Licensing Examination ou USMLE, em sua sigla em inglês).

O exame que habilita o exercício da medicina nos EUA exige uma pontuação de aproximadamente 60%.

Em fevereiro, um estudo revelou que o ChatGPT havia obtido resultados bastante satisfatórios na avaliação.

No novo estudo revisado por pares publicado nesta quarta-feira na Nature, os pesquisadores do Google disseram que o Med-PaLM obteve 67,6% de acertos nas perguntas de múltipla escolha do USMLE.

Os resultados são “animadores, mas ainda inferiores aos dos humanos”, afirma o estudo.

dl/ito/pc/es/jc/aa

MICROSOFT

GOOGLE