11/08/2023 - 5:10
Chatbots duplicados com recursos criminosos estão surgindo na dark web e – assim como o ChatGPT – podem ser acessados por uma modesta assinatura mensal ou taxa única.
Esses modelos de aprendizado de idiomas, como são tecnicamente conhecidos, servem essencialmente como uma caixa de ferramentas para golpistas online sofisticados.
+ Brasil evita perda de R$ 6,2 bi em fraudes digitais em um semestre
Vários chatbots da dark web, DarkBERT, WormGPT e FraudGPT – o último dos quais custa US$ 200 por mês ou US$ 1.700 anualmente – recentemente chamaram a atenção da empresa de segurança cibernética SlashNext. Eles foram sinalizados por terem o potencial de criar golpes de phishing e textos falsos por meio de imagens incrivelmente verossímeis.
A empresa encontrou evidências de que a DarkBERT vendia ilicitamente endereços de e-mail “.edu” por US$ 3 cada para vigaristas que se passavam por instituições acadêmicas. Eles são usados para acessar indevidamente ofertas e descontos estudantis em mercados como a Amazon.
Outro grift, facilitado pelo FraudGPT, envolve solicitar informações bancárias de alguém se passando por uma entidade confiável, como o próprio banco.
Esse tipo de fraude não é novidade, mas está mais acessível do que nunca graças à inteligência artificial, adverte Lisa Palmer, estrategista de IA da empresa de consultoria AI Leaders.
“Trata-se de crimes que podem ser personalizados em grande escala. [Scammers] podem criar campanhas altamente personalizadas para milhares de vítimas-alvo, em vez de ter que criar uma de cada vez”, disse ela ao The Post, acrescentando que agora é fácil criar vídeo e áudio fraudulentos e deepfake.
Além disso, esses ataques não representam uma ameaça apenas para os idosos e os menos familiarizados com a tecnologia.
“Como [esse tipo de modelo] é treinado em grandes quantidades de dados disponíveis publicamente, eles podem ser usados para procurar padrões e informações compartilhadas sobre o governo – um governo que eles desejam se infiltrar ou atacar”, disse Palmer. “Pode ser a coleta de informações sobre empresas específicas que permitiriam coisas como resgate ou ataques de reputação.”
O assassinato de personagens conduzido por IA também pode facilitar um grande crime que a segurança cibernética já luta para defender.
“Pense em coisas como roubo de identidade e poder criar campanhas de roubo de identidade”, disse Palmer. “Eles são altamente personalizados em grande escala. O que você está falando aqui é levar os crimes a um nível elevado.”
Fazer justiça aos responsáveis pelos LLMs fora da lei também não será fácil.
“Para aquelas que são organizações sofisticadas, é excepcionalmente difícil pegá-las”, disse Palmer.
“Do outro lado, também temos esses novos criminosos que estão sendo encorajados por novos modelos de linguagem porque facilitam a entrada de pessoas sem habilidades em alta tecnologia em empresas ilegais”.