Imagens pornográficas falsas de Taylor Swift geradas com inteligência artificial estão circulando nas redes sociais, deixando sua legião de Swifties se perguntando como não há mais regulamentação em torno da criação não consensual de imagens pornográficas.
As imagens em questão – conhecidas como “deepfakes” – mostram Swift em várias posições sexualizadas em um jogo do Kansas City Chiefs, uma homenagem ao seu romance altamente divulgado com o jogador do time, Travis Kelce.
Não ficou imediatamente claro quem criou as imagens ou as compartilhou primeiro no X (antigo Twitter), embora na manhã da última quinta-feira (25), “Taylor Swift AI” fosse tendência na plataforma, com mais de 58.000 postagens sobre o assunto.
Os Swifties se uniram e tentaram enterrar as imagens compartilhando um fluxo de postagens positivas sobre a cantora de 34 anos.
“Como isso não é considerado agressão sexual?” um usuário X perguntou. “Estamos falando sobre o corpo/rosto de uma mulher sendo usado para algo que ela provavelmente nunca permitiria/se sentiria confortável, como não há regulamentos que impeçam isso.”
“Quando vi as fotos da IA de Taylor Swift, não pude acreditar no que via. Essas imagens de IA são nojentas”, disse outro.
Outros fãs indignados de Swift chamaram quem os criou de “nojento” e disseram que casos como esses “arruinam a tecnologia [de IA]”.
O presidente dos EUA, Joe Biden, assinou uma ordem executiva para regulamentar ainda mais a IA em outubro que impede que “a IA generativa produza material de abuso sexual infantil ou produza imagens íntimas não consensuais de indivíduos reais”, entre outras coisas, incluindo maior supervisão do uso da tecnologia no desenvolvimento de materiais biológicos.
A ordem também exige que o governo federal emita orientações “para marcar com marca d’água ou de outra forma rotular a produção de IA generativa”.
A pornografia deepfake não consensual também se tornou ilegal no Texas, Minnesota, Nova York, Havaí e Geórgia, embora isso não tenha impedido a circulação de imagens de nus geradas por IA em escolas de ensino médio em Nova Jersey e na Flórida, onde imagens explícitas de deepfake de estudantes do sexo feminino foram distribuídos por colegas do sexo masculino.
Na semana passada, os deputados norte-americanos Joseph Morelle (D-NY) e Tom Kean (R-NJ) reintroduziram um projeto de lei que tornaria o compartilhamento não consensual de imagens pornográficas digitalmente alteradas um crime federal , com penalidades impossíveis como pena de prisão, multa ou ambos .
A “Lei de Prevenção de Deepfakes de Imagens Íntimas” foi encaminhada ao Comitê Judiciário da Câmara, mas o comitê ainda não tomou uma decisão sobre a aprovação do projeto.
Além de tornar crime o compartilhamento de imagens íntimas alteradas digitalmente, a legislação proposta por Morelle e Kean permitiria que as vítimas processassem os infratores em tribunais civis.
Em um exemplo de quão convincente essa tecnologia pode ser, vários fãs de Swift foram supostamente enganados em centenas de dólares no início deste mês, depois que golpistas lançaram anúncios empregando vídeos gerados por IA do vencedor do Grammy vendendo Le Creuset em uma tentativa de roubar dinheiro e dados de fãs.
Os anúncios – que podem ser encontrados em todas as plataformas de mídia social – mostram Swift, 34, ao lado do forno holandês Le Creuset, que, segundo o site oficial , custa entre US$ 180 e US$ 750, dependendo do tamanho e estilo.
No ano passado, outras imagens falsas do Papa Francisco em uma jaqueta Balenciaga e de Donald Trump resistindo à prisão também tomaram conta da Internet.