A inteligência artificial está alimentando um boom sem precedentes este ano de imagens e vídeos pornográficos falsos. Isso é possibilitado pelo aumento de ferramentas de IA baratas e fáceis de usar que podem “despir” as pessoas em fotografias – analisando a aparência de seus corpos nus e impondo isso em uma imagem – ou facilmente transformar um rosto em um vídeo pornográfico.

Nos 10 principais sites que hospedam fotos pornográficas geradas por IA, os nus falsos aumentaram mais de 290% desde 2018, de acordo com Genevieve Oh, analista do setor. Esses sites apresentam celebridades e figuras políticas, como a deputada nova-iorquina Alexandria Ocasio-Cortez, ao lado de adolescentes comuns, cujas imagens foram apreendidas por maus atores para incitar vergonha, extorquir dinheiro ou viver fantasias privadas.

As vítimas têm poucos recursos. Não existe uma lei federal que rege a pornografia deepfake e apenas alguns estados promulgaram regulamentações. A ordem executiva de IA do presidente Biden emitida na segunda-feira recomenda, mas não exige, que as empresas rotulem fotos, vídeos e áudio gerados por IA para indicar trabalhos gerados por computador.

Entretanto, juristas alertam que as imagens falsas de IA podem não estar abrangidas pela proteção de direitos de autor para imagens pessoais, porque se baseiam em conjuntos de dados preenchidos por milhões de imagens. “Este é claramente um problema muito sério”, disse Tiffany Li, professora de direito da Universidade de São Francisco.

O advento das imagens de IA representa um risco particular para mulheres e adolescentes, muitos dos quais não estão preparados para tal visibilidade. Um estudo de 2019 da Sensity AI, uma empresa que monitora deepfakes, descobriu que 96% das imagens deepfake são pornografia e 99% dessas fotos têm como alvo mulheres.

“Agora tem como alvo as meninas”, disse Sophie Maddocks, pesquisadora e defensora dos direitos digitais na Universidade da Pensilvânia. “Meninas e mulheres que não estão sob os olhos do público.”

No Brasil, a Polícia Civil do Rio de Janeiro investiga alunos com idade entre 12 e 15 anos de uma escola são suspeitos de usar inteligência artificial para criar fotos das colegas sem roupa e publicá-las em redes sociais e aplicativos de troca de mensagens. Os “nudes” falsos das adolescentes, criados virtualmente, foram disparos em grupos de conversas com a exposição de ao menos 20 meninas.

Em Recife, a polícia investiga a denúncia de um grupo de alunas de uma escola particular do Recife que afirmam terem sido vítimas de montagens de fotos em que aparecem nuas.

As celebridades são um alvo popular para criadores de pornografia falsos que buscam capitalizar o interesse de pesquisa por fotos nuas de atores famosos. Mas sites com pessoas famosas podem levar a um aumento de outros tipos de nus. Os sites geralmente incluem conteúdo “amador” de indivíduos desconhecidos e hospedam anúncios que comercializam ferramentas de criação de pornografia com IA.

O Google possui políticas para impedir que imagens sexuais não consensuais apareçam nos resultados de pesquisa, mas suas proteções para imagens deepfake não são tão robustas. Pornografia deepfake e as ferramentas para fazê-la aparecer com destaque nos mecanismos de busca da empresa, mesmo sem pesquisar especificamente conteúdo gerado por IA.