Hackers vinculados aos governos de Rússia, Coreia do Norte e Irã recorreram ao ChatGPT para explorar novas formas de realizar ataques on-line, disseram as empresas OpenAI e Microsoft nesta quarta-feira (14).

Essas duas companhias informaram que eliminaram contas vinculadas a hackers, em meio aos esforços crescentes de ambas para combater o uso malicioso dos populares “chatbots” de Inteligência Artificial (IA) por parte de atores estatais.

A Microsoft é o principal investidor da OpenAI e usa sua tecnologia de inteligência artificial, conhecida como Modelo de Linguagem Grande (LLM, na sigla em inglês) para potencializar seus aplicativos e softwares.

Segundo a companhia, os hackers estão usando os LLMs para “progredir em seus objetivos e nas técnicas de ataque”.

Entre as descobertas da Microsoft está o grupo Forest Blizzard, vinculado à inteligência militar russa, que usou os LLMs para “pesquisar diversas tecnologias de satélites e radares que podem pertencer a operações militares convencionais na Ucrânia”.

Também menciona o trabalho do grupo Emerald Sleet, vinculado à Coreia do Norte, que envolveu a investigação de “think tanks” e especialistas ligados ao regime comunista, bem como conteúdos suscetíveis de serem utilizados em campanhas de “phishing”.

E o Crimson Sandstorm, associado com o Exército de Guardiões da Revolução Islâmica do Irã, que usou o ChatGPT para programar e solucionar “malwares” (programas maliciosos), assim como para obter ajuda para evitar que os hackers sejam detectados, afirmou a Microsoft.

A OpenAI declarou que o perigo é “limitado”, mas que a empresa busca se antecipar à evolução da ameaça com “atenção constante” para que os usuários possam continuar desfrutando dos benefícios de sua inteligência artificial.

“O objetivo da associação com a OpenAI, incluída a publicação desta investigação, é garantir o uso seguro e responsável de tecnologias de IA como o ChatGPT”, afirmou, por sua vez, a Microsoft.

tu-arp/bgs/ag/rpr/am

MICROSOFT