O debate sobre as leis que regulam conteúdos digitais vinculados a ideias extremistas e desinformação chegou à Suprema Corte dos EUA. Familiares das vítimas cobram ação contra as big techs, acusando as empresas de serem corresponsáveis pelas postagens de ódio que resultam em mortes por ataques terroristas ou por fake news ligadas à pandemia. O caso Nohemi Gonzalez pode se tornar simbólico, pois abriu o debate sobre a legislação que isenta empresas como Google, Twitter e Facebook, entre outras, da responsabilidade pela publicação de conteúdo por terceiros. O que está em jogo é a Seção 230 da Lei das Comunicações, que permite o uso de algoritmos direcionando internautas a anúncios que sustentam essas gigantes digitais. Adotada ainda no início da internet, em 1996, a norma é considerada defasada diante da rápida evolução tecnológica, principalmente com a popularização das redes sociais. O julgamento vai determinar a manutenção ou mudança na lei tida como “passaporte” para disseminação geral das postagens — incluindo as criminosas. A decisão sai em 30 de junho.

Chris Carlson

Marcello Junqueira Franco, da Urbano Vitalino Advogados e especialista em Direito Digital, lembra que o tema vem sendo tratado por diferentes cortes em vários locais e há algum tempo. “Nesse caso específico, a decisão pode gerar um precedente que venha a se tornar inspiração ou parâmetro para julgamentos da mesma natureza, em todo o mundo”, afirma. No entanto, a aplicação direta e imediata não seria mandatória, pela soberania de legislação de cada país. “Para que seja seguido por mais de um país, funcionando como elemento motivador de criação ou alteração de normas e base para decisões, um precedente deve ter fundamento em decisão de corte à qual esses países voluntariamente se submetam, com repercussão ampla, o que pode ocorrer por meio da assinatura de uma convenção ou tratado internacionais”. Apesar disso, Junqueira Franco afirma que “acatar a decisão da Suprema Corte dos EUA pode demandar esforços tão relevantes e caros que as plataformas de conteúdo e redes sociais podem vir a optar por implementar políticas globais, uma vez que seria ainda mais custoso promover atuações diferentes em cada região.”

Na audiência de 21 de fevereiro, advogados da família da estudante americana e das big techs apresentaram argumentos sobre as responsabilidades pelo assassinato de Nohemi, que tinha 23 anos em 2015. Ela estava na casa de shows Bataclan, em Paris, quando o atentado a tiros executado por três terroristas do Estado Islâmico resultou na morte de 130 pessoas. Seus familiares já haviam entrado com ação contra Google, Facebook e Twitter em 2016, companhias que foram isentadas de culpa pelas instâncias inferiores. Agora, na Suprema Corte, o foco é o YouTube, de propriedade do Google, sob alegação de que o massacre foi encorajado e facilitado por recomendações algoritmicas de vídeos do Estado Islâmico a internautas com mais probabilidade de se interessar por conteúdos extremistas, em violação à lei federal antiterrorismo.

A família de Mehier Taamneh, morto em ataque do mesmo Estado Islâmico em uma boate de Istambul, na Turquia, em 2017, apresentou na Suprema Corte os mesmos argumentos, mas contra o Twitter. A acusação diz que a plataforma não retirou publicações do grupo extremista e questionou se as empresas, ainda que blindadas pela Seção 230, não deveriam estar sujeitas à lei antiterrorista.

Lobby milionário

A discussão, agora, vai se aprofundar sobre o uso de algoritmos pelas big techs. Utilizados pelos sites para filtrar e classificar bilhões de dados, eles tornaram-se ferramentas decisivas para direcionar a audiência a conteúdos específicos, otimizando a receita com publicidade. As bigtechs dizem que a Seção 230 é essencial para a internet continuar aberta e livre, com usuários publicando o que desejam sem censura. Essa “liberdade de expressão” é evocada pelo Google e outras empresas, que dependem do conteúdo gerado por usuários e temem se ver diante de uma enxurrada de interpelações contra qualquer postagem que poderia criar um efeito cascata de milhares de ações judiciais. As empresas dizem que dependem da lei para evitar um caos jurídico.

Hoje são publicados bilhões de posts por dia em dezenas de mídias sociais. Usuários do YouTube, por exemplo, compartilham 500 horas de vídeos por minuto e assistem a um bilhão de horas de vídeos diariamente. Na audiência que abriu o julgamento na Suprema Corte, o juiz Clarence Thomas perguntou se o algoritmo que o YouTube usa para recomendar “uma marca de arroz ou um ataque terrorista” é o mesmo. A resposta foi afirmativa. O caso é tão complexo e terá consequências tão imprevisíveis que os próprios juízes estão tentando se eximir de responsabilidades. Um deles, Brett Kavanaugh, sugeriu que seria melhor deixar a situação como está e passar esse fardo para o Congresso resolver. As companhias torcem para que o tema seja definido pelos políticos: em 2022, apenas o Facebook gastou US$ 20 milhões em lobby em Washington.

MEGAN JELINGER

Covid na lista

Um caso de Covid-19 também chegou à Suprema Corte. A ação foi impetrada contra o aplicativo “Gab”, com orientação de extrema-direita, por Jessica Watt Dougherty. Para ela, a plataforma deve ser responsabilizada pela desinformação que convenceu Randy Watt, então com 64 anos, a recusar a vacina no ano passado. Ele adoeceu e ficou isolado no hospital. “Vi meu pai morrer pela tela do celular”, disse Jessica. Só então a família descobriu a rede, que dissemina teorias de conspiração. Quando se sentiu mal, Randy tomou medicamentos como a Ivermectina, recomendada por campanhas publicitárias no aplicativo. Segundo entidades de saúde, o produto pode ser ineficaz contra a Covid-19 e perigoso.

MEGAN JELINGER