Recentemente, a Meta, empresa controladora de plataformas como Facebook e Instagram, anunciou mudanças significativas em suas políticas de moderação de conteúdo nos Estados Unidos. A decisão de encerrar o sistema de checagem de fatos, substituindo-o por um modelo de correção comunitária, gerou preocupações sobre o aumento da desinformação online. Esta mudança foi comunicada pelo presidente-executivo da Meta, Mark Zuckerberg, e tem implicações importantes para o futuro da moderação de conteúdo nas redes sociais.
O novo modelo, inspirado no sistema de “notas da comunidade” utilizado pela plataforma X, de Elon Musk, coloca nas mãos dos usuários a responsabilidade de corrigir informações falsas. Essa abordagem levanta questões sobre a eficácia da moderação comunitária em comparação com equipes dedicadas de checagem de fatos e inteligência artificial. A Meta argumenta que a mudança visa simplificar suas regras e dar prioridade à liberdade de expressão, mas críticos temem que isso possa abrir espaço para o aumento de conteúdo prejudicial.
Como a mudança afeta a detecção de discurso de ódio?
Além do fim da checagem de fatos, a Meta anunciou que seus sistemas de detecção proativa de discurso de ódio e outros conteúdos prejudiciais serão limitados a casos de alta gravidade. Isso significa que a moderação de conteúdos como bullying, assédio e violência gráfica dependerá mais das denúncias dos usuários do que de ações proativas da empresa. De acordo com o CCDH, organização que monitora a desinformação online, essa mudança pode resultar em um aumento significativo de conteúdos nocivos nas plataformas da Meta.
O CCDH destacou que, no ano anterior, mais de 97% das ações de revisão da Meta foram proativas, com menos de 3% resultando de denúncias de usuários. Isso sugere que a capacidade da empresa de identificar e remover conteúdo prejudicial pode ser significativamente reduzida sob as novas regras. A organização também expressou preocupação com a moderação de conteúdos relacionados a suicídio, automutilação e ódio organizado, que podem ser menos rigorosamente controlados.

Quais são as implicações para a liberdade de expressão?
A Meta justifica suas mudanças como parte de um esforço para priorizar a liberdade de expressão, especialmente após o que descreveu como um “ponto de inflexão cultural” nos Estados Unidos. A empresa afirmou que deseja abolir certos limites em questões como imigração e gênero, que não fazem mais parte do discurso dominante. No entanto, críticos argumentam que a remoção de barreiras pode facilitar a disseminação de discursos de ódio e desinformação.
O modelo de moderação comunitária, embora promova a participação dos usuários, enfrenta desafios significativos. Segundo Imran Ahmed, chefe do CCDH, a participação do usuário “não pode e nunca substituirá totalmente as equipes de moderação dedicadas e a detecção de inteligência artificial”. Isso levanta a questão de como equilibrar a liberdade de expressão com a necessidade de proteger os usuários de conteúdos prejudiciais.
O que esperar do futuro da moderação de conteúdo?
As mudanças na política de moderação da Meta refletem uma tendência mais ampla entre as grandes plataformas de mídia social de revisar suas abordagens à moderação de conteúdo. Com a Meta e a X adotando modelos que dependem mais da participação do usuário, o futuro da moderação de conteúdo pode ver um aumento na responsabilidade dos usuários em identificar e corrigir informações falsas.
Embora essas mudanças possam empoderar os usuários, elas também exigem um maior nível de alfabetização digital e responsabilidade. A eficácia dessas novas abordagens ainda precisa ser avaliada, especialmente em termos de sua capacidade de manter as plataformas seguras e livres de desinformação. À medida que as empresas de tecnologia continuam a navegar por essas complexas questões, o equilíbrio entre liberdade de expressão e segurança online permanecerá um tema central de debate.