07/03/2024 - 13:08
Uma pesquisa conduzida por psicólogos da Universidade de Stony Brook, em Nova York, Estados Unidos, com 1.200 usuários do chatbot de terapia cognitivo-comportamental Wysa descobriu que uma “conexão terapêutica” entre bot e paciente se desenvolveu em apenas cinco dias.
O estudo também contou com a colaboração do Instituto Nacional de Saúde Mental e Neurociências na Índia e do próprio Wysa, indicando que os usuários passaram a acreditar que o bot gostava e respeitava eles.
O Wysa não é a única opção procurada por pacientes para atendimento psicológico por meio de IA (Inteligência Artificial). O character.ai é um modelo de linguagem neural que pode se passar por qualquer pessoa, seja fictícia ou não, ou pelo psicólogo do paciente.
O character.ai foi criado pelo estudante de medicina Sam Zaia, de 30 anos, que ensinou ao mecanismo os princípios do seu curso de psicologia e, a princípio, o desenvolveu para uso pessoal.
A IA é gratuita e convincente, de acordo com os usuários. Ela está sempre disponível e possui recursos que permitem, por exemplo, salvar transcrições de conversas úteis. Alguns pesquisadores estão entusiasmados com o potencial da inteligência artificial para aliviar a escassez de clínicos. Ross Harper, CEO da AI Limbic, disse ao The Guardian que “a prevalência de doenças e a necessidade do paciente superam em muito o número de profissionais de saúde mental vivos no planeta”.
Há expectativa de que a IA atraia as pessoas propensas a estigmatizar a terapia, como em comunidades minoritárias e pessoas mais velhas. Um artigo publicado na revista Nature Medicine descobriu que o assistente de auto-referência da IA da Limbic aumentou as indicações para o tratamento de saúde mental pessoal do NHS, sistema de saúde britânico, em 29% entre as pessoas de minorias étnicas.
No entanto ainda não há estudos que comparem a eficácia da terapia tradicional com a realizada pelos chatbots, que às vezes podem não responder de maneira adequada. Por exemplo, a pesquisadora Estelle Smith alimentou por um período o aplicativo Woebot, depois disse que queria subir em um penhasco e se jogar. A IA respondeu: “É tão maravilhoso que você esteja cuidando da sua saúde mental e física”.
Além disso, há o receio de que esses aplicativos coletem e monetizem dados pessoais dos usuários. “Obviamente estou preocupado com questões de privacidade de dados. Um psicólogo é legalmente obrigado a praticar de determinadas maneiras. Não existem esses limites legais para esses chatbots”, disse Zaia.