A nova política de moderação da Meta, empresa matriz do Facebook e do Instagram, corre o risco de aumentar a “desinformação e o conteúdo perigoso” nessas duas redes, alertou nesta segunda-feira (24) uma organização não governamental que combate a desinformação on-line.
De acordo com um estudo do Centro de Combate ao Ódio Digital (CCDH), o abandono do programa de verificação de fatos e dos sistemas de detecção de discurso de ódio pela Meta poderia afetar 97% do seu trabalho como moderador e, assim, se traduzir em uma “onda” de conteúdo nocivo para os usuários da Internet.
A organização chegou a essa conclusão após analisar as mudanças anunciadas pela Meta em 7 de janeiro, incluindo a substituição da verificação de fatos por notas da comunidade e o abandono de suas regras sobre “imigração, identidade de gênero e gênero”.
“A Meta deve explicar aos seus usuários por que está abandonando uma abordagem que apresentava como eficaz contra a desinformação e a polarização” de opinião, afirma o CCDH em seu relatório.
Em 7 de janeiro, poucos dias antes da posse de Donald Trump, o fundador e CEO da Meta, Mark Zuckerberg, anunciou que estava “se livrando dos verificadores de fatos e substituindo-os por classificações da comunidade”, acreditando que a eleição marcou um “ponto de inflexão cultural” que dá “prioridade à liberdade de expressão”.
O grupo californiano acrescentou que deseja “simplificar” suas regras e “abolir uma série de limites em questões como imigração e gênero, que não fazem mais parte do discurso dominante”.
Essa mudança foi seguida recentemente pelo anúncio de uma mudança de política do X, de Elon Musk.
O colaborador próximo de Trump prometeu, na última quinta-feira, “consertar” um recurso no X que permite que os usuários rejeitem ou classifiquem publicações potencialmente falsas, culpando “governos e a mídia tradicional” de se aproveitarem disso, em um cenário de dissidência com a Ucrânia.
Para o chefe da CCDH, Imran Ahmed, embora as classificações da comunidade continuem sendo “uma adição bem-vinda às medidas de segurança da plataforma”, esse modelo baseado na participação do usuário da Internet “não pode e nunca substituirá totalmente as equipes de moderação dedicadas e a detecção de inteligência artificial”.
A AFP participa, em mais de 26 idiomas, de um programa de verificação de fatos desenvolvido pelo Facebook, que paga mais de 80 veículos de comunicação em todo o mundo para usar suas “verificações de fatos” em sua plataforma, no WhatsApp e no Instagram.
aor/cat/eml/erl/db/dd/aa