27/11/2024 - 13:31
STF inicia análise de ações que pedem mais agilidade das plataformas em identificar e remover conteúdos ilícitos na internet, como discursos de ódio e incitações contra a democracia.O Supremo Tribunal Federal (STF) inicia nesta quarta-feira (27/11) julgamento sobre como provedores de internet, plataformas digitais e sites devem ser responsabilizados por conteúdos ilícitos publicados por seus usuários.
Serão analisadas em plenário três ações que questionam pontos do Marco Civil da Internet – lei sancionada em 2014 que disciplina o uso da internet no Brasil.
Esses processos tratam do artigo 19 da lei, que prevê que empresas do ramo, como as de mídias sociais, são passíveis de punição somente se receberem ordem judicial determinando remoção de conteúdo ilícito e se negarem a obedecer.
A crítica é de que é preciso mais agilidade para combater o mau uso das redes sociais e frear o radicalismo no país, o que passa por responsabilizar as redes pelo que os usuários publicam.
O processo em questão está em análise pelo STF desde 2017 e foi pautado para esta data em agosto. Mas o julgamento tomou outra proporção e acontecerá no calor das investigações sobre uma trama golpista após a eleição presidencial de 2022. Há menos de uma semana, a Polícia Federal concluiu seu relatório sobre o plano de golpe de Estado e indiciou 37 pessoas, incluindo o ex-presidente Jair Bolsonaro.
Um dos flancos da investigação trata da formação de uma organização criminosa, que seria articulada por Bolsonaro, segmentada em seis departamentos. Um deles era o "Núcleo de Desinformação e Ataques ao Sistema Eleitoral", assim denominado pela PF por ser encarregado de disseminar desinformação e discursos de ódio nas redes sociais para desacreditar os processos eleitorais e insuflar ódio contra as instituições democráticas.
"A questão da regulação das redes sociais se tornou o epítome da ideia de reconstrução democrática no Brasil e de crise democrática", afirma Clara Iglesias Keller, líder de Pesquisa em Tecnologia, Poder e Dominação no Instituto Weizenbaum de Berlim.
Na Câmara, o projeto de lei das fake news foi engavetado, após quatro anos de discussões e audiências públicas sobre como regular o modelo de negócio das plataformas. O tema foi remetido para um grupo de trabalho criado em junho, e desde então não houve qualquer avanço.
Diante da paralisação do tema no Legislativo, ministros do STF têm dado a entender que o julgamento será um marco nos debates sobre mídias sociais e democracia.
O que está na mesa?
O Marco Civil da Internet foi uma lei concebida há dez anos para estabelecer deveres e direitos de plataformas digitais, provedores de internet e usuários. Apesar de ela ter representado avanços significativos no direito digital, parte da legislação enfrenta questionamentos quanto à responsabilidade de plataformas pelo conteúdo de usuários.
Atualmente, o marco só responsabiliza civilmente as plataformas se não houver cumprimento de decisão judicial determinando a remoção de conteúdo ilegal postado por usuários – garantia presente no artigo 19. No entanto, esse regime não dá conta de um cenário tecnológico muito mais complexo, palco de crises democráticas e ataques à Constituição, que exigem ações mais incisivas.
A primeira coisa a se ter em vista é que o julgamento do STF não vai resolver o problema, alerta a pesquisadora Clara Iglesias Keller.
"O poder das plataformas vai muito além de quem responde por danos quando um conteúdo infrator é retirado ou deixa de ser retirado", explica. "É sobre regulação do modelo de negócio das plataformas, que têm influência sobre o fluxo de informação, o fluxo de atenção, uso de dados. Há uma série de formas de exercer essa influência além do regime de responsabilidade, como a curadoria algorítmica, opacidade, uso de dados", complementa.
No entanto, não cabe ao Supremo legislar sobre o modelo de governança dessas empresas, mas ao Congresso, que por ora enterrou o debate, lembra Keller.
Os ministros do STF têm agora na mesa as seguintes opções de mudança:
Decidir pela inconstitucionalidade do artigo 19, o que responsabilizaria as plataformas caso não removam conteúdos que violam a lei independentemente de ordem judicial. As empresas seriam instadas a agir mais proativamente, sem a necessidade de uma interferência do Judiciário, a partir de notificações comuns de usuários. Defensores do artigo 19 argumentam que as plataformas, temendo o custo de processos na Justiça, passarão a remover conteúdo preventivamente caso o dispositivo seja eliminado, cerceando a liberdade de expressão.
Manter o artigo 19 em termos gerais, mas indicar algumas exceções para casos graves nos quais denúncias sólidas de conteúdo possam gerar responsabilização, sem a necessidade de uma ordem judicial.
Atualmente já existem duas exceções para responsabilização das redes a partir de notificação de usuários comuns: quando se trata de disseminação não consentida de imagens íntimas e violação de direito autoral.
Para o diretor do InternetLab, Francisco Brito Cruz, ampliar as possibilidades de exceção para outras condutas graves seria um "caminho equilibrado" para o regime de responsabilidade do Marco Civil.
Dificuldade de regulamentação reflete desequilíbrio global
A Advocacia Geral da União (AGU) acompanhará o julgamento e defendeu, em documento enviado ao STF, que "Não é razoável que empresas que lucram com a disseminação de desinformação permaneçam isentas de responsabilidade legal no que tange à moderação de conteúdo".
"Essas plataformas desempenham um papel crucial na veiculação de informações corretas e na proteção da sociedade contra falsidades prejudiciais. A ausência de uma obrigação de diligência nesse processo permite que a desinformação se propague de forma descontrolada, comprometendo a confiança pública e causando danos consideráveis", completou.
Para Clara Iglesias Keller, a dificuldade em avançar com o tema da responsabilização das redes no Brasil tem a ver com um desequilíbrio global de forças. Na União Europeia, por exemplo, as big techs operam sob leis que dão mais transparência, acesso a dados e outras garantias aos usuários.
O DSA (Digital Service Act), que passou a valer por completo em janeiro, inaugurou um marco legal na defesa de questões concorrenciais e de direito ao consumidor de internet nos países europeus.
De acordo com a lei, não basta apenas remover ou deixar de remover conteúdo – é preciso ter uma responsabilidade mais ativa: ser transparente, reconhecer os riscos em potencial dentro do seu sistema e ter mecanismos para mitigar esses riscos quando necessário.
"Tem uma questão fundamental de desequilíbrios globais de poder – empresas que têm poder econômico em nível global significativo que não se comportam em debates de política pública na Europa como no Brasil, o maior mercado da América Latina", diz Keller.
"Uma democracia exige um tratamento objetivo da liberdade de expressão e das comunicações que seja condizente com o que uma democracia exige: pluralismo, participação de grupos vulneráveis. Rejeitar a regulação em nome de uma liberdade de expressão nos leva para um lugar de não regulação que, paradoxalmente, acaba prejudicando a liberdade de expressão", afirma a pesquisadora.
Tudo isso se soma a um lobby muito forte das plataformas e de como a extrema direita no Congresso brasileiro acolheu e fomentou esse discurso, pontua Keller.