Os chatbots de IA operados pela Microsoft e pelo Google estão divulgando informações incorretas sobre a guerra Israel-Hamas – incluindo falsas alegações de que os dois lados concordaram com um cessar-fogo.

Bard, do Google, declarou em uma resposta na segunda-feira que “ambos os lados estão comprometidos” em manter a paz “apesar de algumas tensões e surtos ocasionais de violência”, segundo a Bloomberg.

O Bing Chat escreveu na terça-feira que “o cessar-fogo sinaliza o fim do derramamento de sangue imediato”.

Nenhum cessar-fogo desse tipo ocorreu. O Hamas continuou a disparar uma centena de foguetes contra Israel, enquanto os militares israelenses ordenaram na sexta-feira a evacuação de aproximadamente 1 milhão de pessoas em Gaza antes de uma esperada invasão terrestre para erradicar o grupo terrorista.

Bard, do Google, também previu bizarramente em 9 de outubro que “em 11 de outubro de 2023, o número de mortos ultrapassou 1.300”.

Os chatbots “às vezes emitem erros flagrantes que minam a credibilidade geral das suas respostas e correm o risco de aumentar a confusão pública sobre uma guerra complexa e em rápida evolução”, informou a Bloomberg após realizar a análise.

Os problemas foram descobertos depois que Bard, do Google, e Bing Chat, da Microsoft, foram solicitados a responder uma série de perguntas sobre a guerra – que eclodiu no último sábado, depois que o Hamas lançou um ataque surpresa a cidades fronteiriças e bases militares israelenses, matando mais de 1.200 pessoas.

Apesar dos erros, a Bloomberg observou que os chatbots “geralmente permaneciam equilibrados em um tópico delicado e muitas vezes forneciam resumos de notícias decentes” em resposta às perguntas dos usuários. Bard supostamente pediu desculpas e retirou sua afirmação sobre o cessar-fogo quando questionado se tinha certeza, enquanto o Bing alterou sua resposta na quarta-feira.

Tanto a Microsoft quanto o Google reconheceram aos usuários que seus chatbots são experimentais e propensos a incluir informações falsas em suas respostas às solicitações dos usuários.

Estas respostas imprecisas, conhecidas como “alucinações”, são uma fonte de preocupação especial para os críticos que alertam que os chatbots de IA estão a alimentar a propagação de desinformação.

Quando contatado para comentar, um porta-voz do Google disse que lançou funções de pesquisa baseadas em Bard e IA como “experimentos opcionais e está sempre trabalhando para melhorar sua qualidade e confiabilidade”.

“Levamos a sério a qualidade da informação em nossos produtos e desenvolvemos proteções contra informações de baixa qualidade, juntamente com ferramentas para ajudar as pessoas a aprender mais sobre as informações que veem online”, disse o porta-voz do Google.

“Continuamos a implementar melhorias rapidamente para melhor proteção contra respostas de baixa qualidade ou desatualizadas para consultas como essas”, acrescentou o porta-voz.

O Google observou que suas equipes de confiança e segurança estão monitorando Bard ativamente e trabalhando rapidamente para resolver os problemas que surgirem.

A Microsoft disse ao canal que investigou os erros e faria ajustes no chatbot em resposta.

“Fizemos um progresso significativo na experiência de chat, fornecendo ao sistema o texto dos principais resultados de pesquisa e instruções para fundamentar suas respostas nesses principais resultados de pesquisa, e continuaremos fazendo mais investimentos para fazer isso”, disse um porta-voz da Microsoft.

No início deste ano, especialistas disseram ao Post que o conteúdo “deepfake” gerado por IA poderia causar estragos nas eleições presidenciais de 2024 se medidas de proteção não fossem implementadas com antecedência.

Em agosto, investigadores britânicos descobriram que o ChatGPT, o chatbot criado pela OpenAI, apoiada pela Microsoft, gerava regimes de tratamento do cancro que continham uma mistura “potencialmente perigosa” de informações corretas e falsas.