Pesquisa reforça que IA tem ‘crises’ de insegurança

ROMA, 17 JUL (ANSA) – Uma nova pesquisa reforça que a Inteligência Artificial (IA) “sofre” de insegurança. Isto ocorre quando o usuário coloca em dúvida uma afirmação da tecnologia, fazendo com que os modelos linguísticos de grande dimensão (LLM), como o Chat GPT, tendam a dar respostas menos confiáveis.   

O estudo, realizado por pesquisadores do Google DeepMind e da Universidade College de Londres, publicado no arXiv – plataforma que publica análises que ainda não foram revisadas pela comunidade científica – mostra que essa característica prevaleceu em modelos como Gemma 3, GPT4 e o1-preview.   

Os pesquisadores observaram que, quando um LLM fornece uma resposta incorreta, mas o interlocutor concorda com ela mesmo assim, a plataforma aumenta sua confiança e tende a persistir em sua afirmação mesmo na presença de evidências contrárias.   

Por outro lado, quando a ferramenta faz uma afirmação correta, que é então contestada pelo usuário, ela tende a perder facilmente a segurança em “si”.   

“Os LLMs dão peso excessivo a conselhos contrários, resultando em uma perda significativa de confiança em sua resposta inicial”, escrevem os autores, reforçando evidências de outros estudos que demonstram como textos produzidos por IA ainda estão sujeitos a muitas fontes potenciais de erros.   

(ANSA).