Desde o lançamento do ChatGPT, no fim de 2022, as aplicações de IA generativa (GenAI) têm conquistado cada vez mais espaço nos ambientes corporativos. Com o objetivo de agilizar processos e aumentar a produtividade, empresas de todos os tamanhos vêm testando e em muitos casos já usando soluções de GenAI no dia a dia.
Os ganhos da IA, entretanto, trazem também alguns riscos, notadamente de segurança. Dados de um recente estudo da Netskope sobre nuvem e segurança apontam que o volume de dados confidenciais enviados para aplicações de GenAI cresceu 30 vezes em 2024, em relação ao ano anterior.
Para entender melhor esses riscos, a coluna conversou com Ray Canzanese, diretor do Netskope Threat Labs. Confira a seguir a conversa.
O estudo da Netskope mostra que houve um grande aumento de dados enviados das empresas para aplicações de IA, o que gera potenciais brechas de segurança. Quais são os maiores riscos de segurança associados ao uso de aplicações de GenAI dentro das empresas?
Aplicativos como ChatGPT, Gemini e outros são bons em resumir dados e gerar informações. Por isso, funcionários começam a pegar códigos de aplicativos, dados de clientes e outras informações privadas e fazer o upload para essas aplicações para agilizar suas tarefas.

Ray Canzanese, diretor do Netskope Threat Labs
Assim, como uma empresa, você enfrenta a situação de os funcionários estarem vazando dados confidenciais. Esse problema é antigo, na verdade. Alguma nova solução aparece, vira moda, e todo mundo quer testar. E isso gera vazamentos de dados de todo tipo. Vimos isso no caso do DeepSeek. Todos disseram “Ah, tem um aplicativo novo, vamos usar”. Enquanto isso, os times de segurança imploram: “Por favor, não faça isso. Não avaliamos ainda, não sabemos se é seguro”.
E isso é o maior desafio quando falamos de GenAI. Essa nova tecnologia precisa de dados para ser útil, e isso aumenta o risco de compartilhamento de dados confidenciais.
Temos que lembrar que o ChatGPT não sabe o que é informação inadequada para enviar para uma solução de IA, certo? A minha tolerância com aquilo que compartilho é minha decisão.
E vamos supor que o ChatGPT soubesse o que é ou não sensível e dissesse algo como “Isso é informação privada e não vou processar isso”. O problema é que há centenas de outros apps que fariam. Então, da mesma forma a responsabilidade dos dados cai sobre o usuário e a empresa.
Além das soluções técnicas, como instalação de aplicações e treinamento, o que empresas podem fazer para lidar com o fator humano em casos de vazamentos de dados?
O lado humano do problema é muito interessante. Para combater os vazamentos de informações, as empresas tentam proibir o uso de contas pessoais em computadores, smartphones, com bloqueios para Gmail, Drive etc.
O resultado é que muitas pessoas tentam contornar os bloqueios da empresa para usarem seus e-mails pessoais, e no fim das contas eles conseguem. E de certo modo isso cria uma nova brecha de segurança. Agora, além dos cibercriminosos, você tem que lidar também com seus próprios funcionários tentando quebrar a segurança da empresa.
Para lidar com esse problema, nós da Netskope temos uma solução que não bloqueia serviços ou aplicativos. No lugar disso, nossa solução monitora as trocas de dados e, caso suspeite de que alguma informação sensível está sendo compartilhada, emite uma notificação para o usuário.
É algo como “Vimos que você está tentando transferir dados sensíveis, o que vai contra as políticas de dados da empresa”. E fica a cargo do usuário prosseguir ou não. É uma escolha dele. E essa solução funciona tanto para PCs quanto para smartphones monitorados pela empresa.
E o que descobrimos é que, na imensa maioria das situações, eles não prosseguem. Para ser mais exato, em nossos estudos vemos que 73% dos usuários que veem a notificação desistem de compartilhar os dados naquele momento. Então esse alerta é muito importante.
Você pode dar um exemplo de um comportamento que costuma resultar em vazamento de dados?
Os maiores exemplos de problemas que temos são entre desenvolvedores, que usam plataformas de GenAI para aprimorar seus códigos.
De modo geral, embora tenham conhecimento de tecnologia avançado, o que em tese impediria uso incorreto das soluções, os desenvolvedores também são curiosos por usar novas ferramentas. Então, eles são de longe o grupo que mais usa aplicações de GenAI “por fora” dos controles da empresa.
E o mais grave é que em alguns casos esses códigos enviados para ferramentas incluem senhas de sistemas internos das empresas.
Para o futuro, como você enxerga o cenário de brechas de segurança envolvendo IA?
Creio que os incidentes devem aumentar muito. Já vimos um crescimento de 30 vezes no ano passado. E não foi um crescimento com tendência de estabilização, mas sim com tendência de aumento.
Para quem não tem soluções mais sofisticadas, uma solução é escolher uma ferramenta de IA e bloquear o acesso a todas as outras. Pelo menos assim há algum tipo de controle. Soluções voltadas para empresas de apps como ChatGPT e Gemini possuem permissões de acesso e histórico de uso, o que ajuda as empresas a controlar a situação.
Atualmente, temos duas tendências que vamos monitorar de perto. Uma é que todos os aplicativos agora têm recursos de GenAI. Então, aplicativos muito usados que eram considerados seguros passaram a ter potenciais brechas, apenas pelo fato de serem atualizados.
Assim, do ponto de vista da segurança, é necessário fazer uma varredura de todos os apps, não apenas daqueles específicos de GenAI, como ChatGPT, Gemini e outros.
Outra tendência preocupante é que muitas empresas já começam a pegar modelos de linguagem (LLMs) de código aberto e usá-los dentro de suas estruturas. A ideia aí é que, ao personalizar o modelo e trazê-lo para o ambiente privado, seja possível trabalhar com um nível de segurança maior e evitar que dados se tornem públicos.
Porém, nesse tipo de situação existe o risco de dados ficarem expostos internamente, para outros setores da empresa. Dados financeiros, por exemplo, de acesso restrito a níveis de diretoria, podem ficar expostos para outros funcionários, caso não sejam tomados os devidos cuidados.
Ou seja, ao internalizar uma ferramenta de GenAI o risco de vazamento de dados para a internet pública é em tese reduzido, mas o risco de vazamento de dados dentro da estrutura da própria empresa permanece. E creio que veremos mais problemas desse tipo nos próximos anos.