Chatbots duplicados com recursos criminosos estão surgindo na dark web e – assim como o ChatGPT – podem ser acessados ​​por uma modesta assinatura mensal ou taxa única.

Esses modelos de aprendizado de idiomas, como são tecnicamente conhecidos, servem essencialmente como uma caixa de ferramentas para golpistas online sofisticados.

+ Brasil evita perda de R$ 6,2 bi em fraudes digitais em um semestre

Vários chatbots da dark web, DarkBERT, WormGPT e FraudGPT – o último dos quais custa US$ 200 por mês ou US$ 1.700 anualmente – recentemente chamaram a atenção da empresa de segurança cibernética SlashNext. Eles foram sinalizados por terem o potencial de criar golpes de phishing e textos falsos por meio de imagens incrivelmente verossímeis.

A empresa encontrou evidências de que a DarkBERT vendia ilicitamente endereços de e-mail “.edu” por US$ 3 cada para vigaristas que se passavam por instituições acadêmicas. Eles são usados ​​para acessar indevidamente ofertas e descontos estudantis em mercados como a Amazon.

Outro grift, facilitado pelo FraudGPT, envolve solicitar informações bancárias de alguém se passando por uma entidade confiável, como o próprio banco.

Esse tipo de fraude não é novidade, mas está mais acessível do que nunca graças à inteligência artificial, adverte Lisa Palmer, estrategista de IA da empresa de consultoria AI Leaders.

“Trata-se de crimes que podem ser personalizados em grande escala. [Scammers] podem criar campanhas altamente personalizadas para milhares de vítimas-alvo, em vez de ter que criar uma de cada vez”, disse ela ao The Post, acrescentando que agora é fácil criar vídeo e áudio fraudulentos e deepfake.

Além disso, esses ataques não representam uma ameaça apenas para os idosos e os menos familiarizados com a tecnologia.

“Como [esse tipo de modelo] é treinado em grandes quantidades de dados disponíveis publicamente, eles podem ser usados ​​para procurar padrões e informações compartilhadas sobre o governo – um governo que eles desejam se infiltrar ou atacar”, disse Palmer. “Pode ser a coleta de informações sobre empresas específicas que permitiriam coisas como resgate ou ataques de reputação.”

O assassinato de personagens conduzido por IA também pode facilitar um grande crime que a segurança cibernética já luta para defender.

“Pense em coisas como roubo de identidade e poder criar campanhas de roubo de identidade”, disse Palmer. “Eles são altamente personalizados em grande escala. O que você está falando aqui é levar os crimes a um nível elevado.”

Fazer justiça aos responsáveis ​​pelos LLMs fora da lei também não será fácil.

“Para aquelas que são organizações sofisticadas, é excepcionalmente difícil pegá-las”, disse Palmer.

“Do outro lado, também temos esses novos criminosos que estão sendo encorajados por novos modelos de linguagem porque facilitam a entrada de pessoas sem habilidades em alta tecnologia em empresas ilegais”.