[Coluna] Nudificação é a IA a serviço do machismo – e é crime

[Coluna] Nudificação é a IA a serviço do machismo – e é crime

"UmÉ chocante que, diante de todas as possibilidades oferecidas pela inteligência artificial, homens e adolescentes a estejam usando para "despir" mulheres virtualmente, um tipo tosco de abuso sexual."Como eu posso tirar as roupas de uma mulher em uma foto?" "Como transformar a imagem de uma garota com roupa em uma imagem de uma garota nua?" Fiz essas perguntas nos maiores sites de busca, aqueles que usamos todos os dias, como o Google e o Yahoo. O resultado foi chocante: em poucos segundos, recebi dicas de vários aplicativos que executavam esse tipo de "tarefa", a maioria de graça.

O que eu encontrei tão facilmente são ferramentas para um comportamento criminoso que se tornou normalizado e é quase uma tendência: a nudificação, uma palavra nova para um comportamento horrível: tirar as roupas de mulheres em fotos, usando tecnologia. Uma atitude que, além de moralmente inaceitável, é também crime.

É importante lembrar que fazer isso é crime porque, o que antes era trabalho para hackers experientes, agora está nas mãos de qualquer adolescente e pode ser feito em poucos cliques. "Tirar a roupa" de uma menina é tão fácil quanto pedir para um bot de inteligência artificial gerar uma "imagem sua com 80 anos", ou "mostrar como seu bicho de estimação seria se ele fosse gente", só para mencionar tendências recentes das redes.

Mas quem faz isso está praticando um crime. O Código Penal brasileiro, no artigo 216-B, enfatiza que é crime produzir e divulgar montagens e imagens manipuladas para terem cunho sexual. Se as imagens envolvem menores de 18 anos, o Estatuto da Criança e do Adolescente prevê punição para quem "simular a participação de menores de idade em cena de sexo explícito ou pornográfica por meio de adulteração, montagem ou modificação de fotografia, vídeo ou qualquer outra forma de representação visual". Há também projetos, no Brasil e na Europa, para tentar banir essa tendência dos nudes de IA.

Elon Musk e Grok

A nudificação não começou agora, mas um alerta sobre seus perigos e banalização surgiu no início do mês, quando descobriu-se que o Grok, o chatbot de inteligência artificial do bilionário Elon Musk, fazia esse tipo de imagem, inclusive de menores, em ritmo de produção industrial.

Uma pesquisa do Trinity College, de Dublin, mostrou que cerca de três quartos das imagens analisadas pelos pesquisadores eram de mulheres e de menores de idade com roupas removidas ou com conteúdo explícito incluído em montagens. O chatbot chegou a ser proibido na Indonésia e na Malásia por causa dos deep nudes.

Na semana passada, Musk se manifestou na rede social X, que é dele, dizendo que não sabia de nada, que seguia as leis e que, "se isso aconteceu, foi porque usuários pediram". Desde então, o bot estaria barrando esse tipo de conteúdo.

Em parte, é verdade. Perguntei para o Grok se ele poderia "tirar roupas de uma mulher" para mim e o robô, de fato, disse que não podia fazer isso por "não estar de acordo com as leis do Brasil e da Alemanha". Mas, ao mesmo tempo, ele me forneceu uma lista de sites e aplicativos que "tirariam roupas de mulheres". Simples assim.

E, na verdade, quem precisa do Grok? Os aplicativos de deep nude estão em todos os cantos da internet e podem ser encontrados por qualquer um. "Bem vindo ao nosso site, onde você pode gerar nudes falsos e realísticos a partir de coleções de fotos de pessoas vestidas. Registre-se agora para experimentar o deep nudes grátis", diz um deles.

Se existe tanta oferta, é porque há procura. E se há procura, há vítimas. Cada vez mais. E o dano para as mulheres vítimas de nudes falsos é enorme. A técnica para humilhar uma mulher tirando suas roupas pode ser de IA de última geração, mas o sentimento de abuso é bem real e antigo.

É chocante que, em meio a todas as possibilidades oferecidas pela inteligência artificial, homens e adolescentes a estejam usando para "despir" mulheres virtualmente, um tipo tosco de abuso sexual.

E vamos lembrar de uma coisa: esses aplicativos poderiam ser usados para tirar roupas de homens também, certo? Só que mulheres não estão interessadas nisso. Porque, para lembrar o óbvio, vivemos numa sociedade machista, que trata mulheres como "coisas".

A febre da nudificação com a IA mostra que a tecnologia avança. Mas o comportamento masculino, muitas vezes, não.

_____________________________

Nina Lemos é jornalista e escritora. Escreve sobre feminismo e comportamento desde os anos 2000, quando lançou com duas amigas o grupo "02 Neurônio". Já foi colunista da Folha de S.Paulo e do UOL. É uma das criadoras da revista TPM. Em 2015, mudou para Berlim, cidade pela qual é loucamente apaixonada. Desde então, vive entre as notícias do Brasil e as aulas de alemão.

O texto reflete a opinião da autora, não necessariamente a da DW.