OMS: aumento do uso de IA no atendimento de saúde exige salvaguardas jurídicas

O aumento do uso da Inteligência Artificial (IA) no atendimento de saúde exige o reforço das garantias jurídicas para proteger pacientes e trabalhadores da área médica, afirmou nesta quarta-feira (19) a divisão para a Europa da Organização Mundial da Saúde (OMS).

A unidade da OMS para a Europa chegou a esta conclusão após um estudo sobre a adoção e a regulamentação da IA no âmbito da saúde, realizado com base nas respostas de 50 dos 53 países sob sua jurisdição, que também inclui Estados da Ásia Central.

Apenas quatro países, ou 8%, adotaram uma estratégia nacional sobre a IA no âmbito da saúde, enquanto sete estão em processo de aprovar medidas, indica o relatório.

“Estamos diante de uma encruzilhada”, afirmou em comunicado Natasha Azzopardi-Muscat, diretora de Sistemas de Saúde da OMS para a Europa.

Para Azzopardi-Muscat, a IA pode ser utilizada para “melhorar a saúde e o bem-estar das pessoas, reduzir a carga de trabalho dos profissionais de saúde exaustos e para diminuir os custos”, mas ela advertiu que também pode “comprometer a segurança dos pacientes, comprometer sua privacidade e reforçar as desigualdades”.

Quase dois terços dos países já utilizam a assistência de IA para diagnósticos, em particular para a análise de imagens, e metade recorre a robôs conversacionais para assistência aos pacientes.

A OMS pede aos países “que considerem os potenciais riscos, em particular em relação a resultados enviesados ou de baixa qualidade, o viés da automação, a erosão das competências dos trabalhadores, a redução da interação” com os pacientes e a desigualdade de resultados para populações marginalizadas.

A regulamentação não consegue acompanhar o ritmo ante a adoção de novas tecnologias, aponta a OMS, que afirma que nove em cada dez países mencionam a incerteza jurídica como o principal obstáculo ao uso da IA.

A divisão da OMS pediu aos países que expliquem as responsabilidades, adotem mecanismos de indenização e garantam que as ferramentas de IA “sejam testadas em termos de segurança, equidade e eficácia” antes da implementação.

ef/cbw/an/mb/fp