Desde que a inteligência artificial foi criada, em 1956, após estudos do professor John McCarthy, da Universidade de Dartmouth, em Hanover, nos Estados Unidos, ela tem sido usada para muitos propósitos, tendo sempre em causa criar cópias ou modelos de comportamentos, padrões e pensamentos humanos.

Atualmente, a tecnologia também tem sido usada para copiar rostos e vozes de pessoas. 

O diretor de arte digital e CMO da FaceFactory.AI  Fernando Rodrigues de Oliveira, conhecido com Fernando 3D, explica a técnica do deepfake. “É uma técnica de inteligência artificial que usa redes neurais para gerar imagens e vídeos que parecem reais, em geral, de rostos conhecidos, mas, que na verdade, são falsos. Criada em meados de dezembro de 2017, ela tem sido usada para criar vídeos e imagens falsos, que parecem reais”, disse.

“Existem vários exemplos de ‘Deepfakes’, mas um dos mais famosos são os vídeos que mostram a atriz Gal Gadot, do filme ‘Mulher Maravilha’, em filmes pornográficos na internet. Recentemente, a cantora Anitta também teve sua imagem adulterada com Deepfake, para simular que ela estivesse participando de um filme pornográfico. Ambas foram vítimas de falsificação com intuito de desmoralizar essas mulheres e prejudicar suas carreiras”, contou.

Fernando 3D e o parceiro de negócios, Bruno Sartori, são pioneiros no uso da técnica deepfake no Brasil. “Infelizmente, a tecnologia que, por exemplo, poderia ser usada para permitir que grandes nomes do mundo das artes pudessem ganhar vida novamente nas telas do cinema, tem sido usado para fins tão nefastos. Por isso, estamos sempre alertando e recriminando o mau uso da tecnologia”, pontua Fernando.

O especialista também ressalta como o deepfake tem sido usado para criar fake news, principalmente, em época de eleições. “Muitos adversários políticos podem contratar pessoas igualmente mau intencionadas para criar vídeos e áudios falsos, com o intuito de destruir adversários políticos ou criar provas falsas para incriminá-los. Esse novo tipo de crime de falsidade ideológica pode se tornar mais comum em período eleitoral nos próximos pleitos”. 

Assine nossa newsletter:

Inscreva-se nas nossas newsletters e receba as principais notícias do dia em seu e-mail

Além do uso para vinculação falsa da imagem, a técnica também pode ser usada para roubar identidades e para invadir a privacidade de pessoas. “O reconhecimento facial, usado como medida de segurança em smartphones e outros gadgets, é eficiente para a maioria dos casos, mas a técnica de ‘Deepfake’ ainda está em evolução, e, com o avanço da tecnologia, ela só tende a melhorar. Isso porque essa evolução é diária. Com isso, alguns sistemas de segurança podem ser enganados no futuro, comprometendo, assim, o acesso a informações sensíveis”, alertou.

“Apesar de hoje o ‘deepfake’ e o ‘deepvoice’ requerem, além de um poder computacional grande, conhecimentos técnicos avançados, que vão desde programação de algoritmos, pesquisas e até edição e pós produção de vídeo, há possibilidade de pulverização e disseminação do conhecimento. Isso pode se tornar, em um futuro não tão distante, algo tão simples como editar uma imagem estática no Photoshop”, adiantou.


Siga a IstoÉ no Google News e receba alertas sobre as principais notícias