Na sala de emergência, o chatbot de inteligência artificial ChatGPT realizou diagnósticos pelo menos tão bem quanto os médicos e, em alguns casos, os superou, descobriram pesquisadores holandeses, dizendo que a IA poderia “revolucionar o campo médico”.

Os autores do estudo publicado quarta-feira (20) destacaram, no entanto, que os dias dos médicos de emergência ainda não estão contados, sendo o chatbot potencialmente capaz de acelerar o diagnóstico, mas não de substituir o julgamento e a experiência de um ser humano.

Trinta casos tratados num serviço de urgências nos Países Baixos em 2022 foram revistos através da alimentação do ChatGPT com base em históricos de pacientes, testes laboratoriais e observações médicas, pedindo ao chatbot que apresentasse cinco diagnósticos possíveis. Em 87% dos casos, o diagnóstico correto foi encontrado na lista de profissionais, em comparação com 97% da versão 3.5 do ChatGPT . O chatbot “era capaz de realizar diagnósticos médicos tal como um médico humano teria feito”, resumiu Hidde ten Berg, do serviço de urgências do Hospital Jeroen Bosch, no sul dos Países Baixos.

O coautor do estudo, Steef Kurstjens, enfatizou que o estudo não concluiu que os computadores poderiam um dia administrar salas de emergência, mas que a IA poderia desempenhar um papel vital para ajudar os médicos sob pressão. O chatbot “pode ajudar a fazer um diagnóstico e talvez oferecer ideias nas quais o médico não tinha pensado”, disse ele. Tais ferramentas não foram concebidas como dispositivos médicos, observou, no entanto, partilhando também preocupações sobre a confidencialidade de dados médicos sensíveis num chatbot.

E, como em outras áreas , o ChatGPT encontrou algumas limitações. Seu raciocínio era “às vezes implausível ou inconsistente do ponto de vista médico, o que pode levar à desinformação ou diagnóstico incorreto, com implicações significativas”, observa o estudo.

Os cientistas também admitem algumas deficiências em suas pesquisas, como o pequeno tamanho da amostra. Além disso, foram revisados ​​apenas casos relativamente simples, com pacientes apresentando apenas uma queixa principal. A eficácia do chatbot em casos complexos não é clara.

“Erros” médicos

Às vezes, o ChatGPT não fornecia o diagnóstico correto em todas as cinco possibilidades, explica Steef Kurstjens, especialmente no caso de um aneurisma da aorta abdominal, uma complicação potencialmente fatal, com inchaço da aorta. Mas, consolo para o ChatGPT, neste caso o médico também errou.

O relatório aponta ainda para “erros” médicos cometidos pelo chatbot, por exemplo, ao diagnosticar anemia (nível baixo de hemoglobina no sangue) num paciente com nível de hemoglobina normal. Os resultados do estudo, publicado na revista especializada Annals of Emergency Medicine, serão apresentados no Congresso Europeu de Medicina de Emergência (EUSEM) de 2023, em Barcelona, na Espanha.