Tecnologia & Meio ambiente

A detecção de ‘deepfakes’, uma corrida contra o tempo

A detecção de ‘deepfakes’, uma corrida contra o tempo

Os pesquisadores que tentam detectar os "deepfakes", vídeos manipulados para substituir rostos ou alterar a fala de personalidades, enfrentam técnicas de falsificação cada vez mais avançadas e acessíveis ao grande público - AFP/Arquivos

Uma corrida contra o tempo: os pesquisadores que tentam detectar os “deepfakes”, vídeos manipulados para substituir rostos ou alterar a fala de personalidades, enfrentam técnicas de falsificação cada vez mais avançadas e acessíveis ao grande público.

Alerta nos fóruns do site Reddit em 2017: imagens falsas de atrizes de cinema em filmes pornográficos são compartilhadas por um usuário. Se a técnica, antes artesanal, preocupa, é porque desta vez utiliza ferramentas de inteligência artificial para manipular um vídeo de maneira convincente.

Desde então, criações por vezes humorísticas se espalharam pela Internet, representando, por exemplo, o fundador do Facebook, Mark Zuckerberg, aparentemente dizendo “Quem controla os dados, controla o futuro”. Mas, para pesquisadores, o tom não é mais de piada.

“As manipulações podem afetar o áudio e o vídeo. Estamos chegando ao ponto do áudio mais o vídeo. Eu me pergunto o que vai acontecer nas próximas grandes eleições”, disse à AFP Vincent Nozick, pesquisador do Instituto Gaspar Monge da Universidade Paris-Est Marne-la-Vallée.

“Para criar um ‘deep fake’, a única competência necessária é um pouco de experiência. O primeiro será, a priori, perdido porque é necessário escolher o modelo informático certo (…) Mas, alguém que fizer isso por três meses estará pronto”, acrescenta o pesquisador.

– Imitando a voz de um CEO –

Na Índia, um jornalista e um parlamentar foram alvo de vídeos obscenos manipulados. Na Bélgica, o partido socialista flamengo representou o presidente dos Estados Unidos, Donald Trump, incitando Bruxelas a se retirar do acordo climático de Paris. A mensagem que alertava para a edição do vídeo não foi compreendida por inúmeros internautas.

No final de agosto, o Wall Street Journal reportou o uso da inteligência artificial por impostores para imitar a voz de um CEO e obter a transferência de mais de 220 mil euros.

Por fim, o aplicativo chinês Zao lançado no mês passado permite inserir o seu rosto no lugar do de um ator no trecho de um filme com apenas algumas fotos. Esse desenvolvimento marca a chegada desta tecnologia às mãos do grande público.

Para detectar as manipulações, múltiplos caminhos estão sendo estudadas. A primeiro, que só se aplica a figuras já amplamente filmadas e fotografadas, consiste em encontrar imagens originais anteriores à manipulação para comparar o vídeo suspeito com a “assinatura gestual” habitual da pessoa em questão.

Um segundo foca nos defeitos gerados pela manipulação (uma incoerência no piscar dos olhos, o caimento do cabelo ou a ligação entre as imagens), mas as tecnologias se adaptam e os “apagam” progressivamente.

O terceiro caminho consiste em gerar modelos de inteligência artificial para detectarem sozinhos os vídeos manipulados. As taxas de sucesso são muito boas, mas dependem dos exemplos disponíveis. “Um detector de ‘deepfakes’ que funcionava há um ano não necessariamente funcionará neste ano”, explica Vincent Nozick.

– Bancos de dados de conteúdos falsos –

“A máquina pode perceber coisas que nós não vemos a olho nu, mas é necessário que tenhamos bancos de dados para avaliar até que ponto podemos ser eficazes. É isso que falta atualmente”, aponta Ewa Kijak, pesquisadora da Universidade de Rennes 1 – laboratório Irisa.

Os gigantes Facebook e Google, cujas plataformas são frequentemente criticadas pelo papel que desempenham na desinformação, anunciaram querer ajudar disponibilizando bancos de dados de conteúdos falsos.

Mas a batalha apenas começou: novos “deepfakes” utilizam a tecnologia das “redes adversárias generativas” (GANs) para avaliar se podem ser detectados antes mesmo de serem publicados.

Ainda mais impressionante, ou preocupante: uma equipe de universitários alemães trabalha desde 2016 em uma ferramenta de “marionetização”.

Não se trata mais de colar o seu rosto naquele de uma estrela em um filme de Hollywood, mas de animar o rosto de uma personalidade com gestos e palavras inventadas, o que poderia, por exemplo, permitir a produção de uma coletiva de imprensa falsa de um chefe de Estado.

Frente a essas tecnologias, “a disposição de ferramentas de detecção não será suficiente”, explica Ewa Kijak, que chama a uma “conscientização”: “Até agora, nós podíamos confiar um pouco mais nos vídeos (do que em outros conteúdos). Agora, acho que isso acabou”.