A Meta identificará, a partir de maio, áudios, imagens e vídeos gerados por inteligência artificial (IA) em suas redes sociais, informou nesta sexta-feira(5) a gigante tecnológica americana, matriz do Facebook, Instagram e Threads.

“Prevemos começar a marcar o conteúdo gerado por IA em maio de 2024”, indicou em seu blog Monika Bickert, vice-presidente de conteúdo da Meta, acrescentando que a menção “Made with AI”, já usada em imagens fotorrealistas, seria aplicada a “um maior número de conteúdos de vídeo, áudio e de imagens”.

Estes conteúdos serão marcados se a plataforma detectar “indicadores de imagem de IA conforme as normas da indústria” ou se “as pessoas indicarem que estão carregando conteúdos gerados por IA”, destacou.

De forma geral, o grupo californiano anuncia que modificará sua forma de tratar os conteúdos criados com IA, depois de consultar seu conselho de supervisão, que considera “a transparência e um maior contexto como a melhor forma de tratar os conteúdos manipulados”.

Com isso, evita-se “o risco de restringir sem necessidade a liberdade de expressão”. Em vez de eliminá-los, como era feito até agora, serão acrescentados “etiquetas e contexto” a estes conteúdos.

No entanto, advertiu a Meta, qualquer conteúdo, seja criado por um humano ou por IA, que viole as regras “contra a interferência nos processos eleitorais, a intimidação, o assédio, a violência (…) ou qualquer outra política em nossas normas comunitárias” será retirado.

A Meta reafirmou que confia em sua rede de “aproximadamente 100 verificadores de dados independentes” para detectar conteúdos gerados por IA “falsos ou enganosos”.

A empresa matriz do Facebook anunciou em fevereiro seu desejo de etiquetar todas as imagens geradas por IA para lutar contra a desinformação.

Outros gigantes como Microsoft, Google e OpenAI têm assumido compromissos similares.

O temor é de que as pessoas utilizem estas ferramentas para semear o caos político, especialmente através da desinformação ou informação errada. Há várias eleições importantes este ano, especialmente nos Estados Unidos.

Para além das datas eleitorais, o desenvolvimento de programas de IA generativa leva a produção de um fluxo de conteúdo degradante, segundo muitos especialistas e reguladores, como as falsas imagens (“deepfakes”) pornográficas de mulheres famosas, um fenômeno que também afeta pessoas anônimas.

kf/mch/swi/js/meb/jc/aa