Tecnologia & Meio ambiente

Fim do território livre na internet?

Inteligência artificial é promessa polêmica para regular a baixaria e o discurso de ódio em caixas de comentário e nas redes sociais

trolls_1280x720

Quando a colunista inglesa Jessica Valenti publicou um texto feminista no site do jornal The Guardian, ela até esperava algumas reações negativas de seus leitores. Nada, porém, poderia prepará-la para os absurdos que ela recebeu em sua caixa de mensagens – um leitor chegou a ameaçar sua filha de cinco anos de estupro. Situação parecida viveu a atriz e comediante americana Leslie Jones, que estrelou a refilmagem do clássico “Caça-Fantasmas”. Mal o filme estreou e ela recebeu uma enxurrada mensagens hostis carregadas de racismo e misoginia.

Tanto Jessica quanto Leslie foram vítimas de um tipo cada vez mais comum na internet: os haters, ou “odiadores”, em tradução livre do inglês. O grupo se une para assediar, agredir e destruir reputações na internet e costuma se manifestar da forma mais pública e barulhenta possível: nas caixas de comentários e redes sociais. Ali, eles usam o espaço criado para discussões e troca de ideias para conduzir uma verdadeira batalha de onde sai “vencedor” quem consegue ofender da forma mais cruel, injusta e, por vezes, criminosa possível.

Tiziana Cantone (esquerda) e Amanda Todd (direita): vítimas de cyberbulling com fim trágico
Tiziana Cantone (esquerda) e Amanda Todd (direita): vítimas de cyberbulling com fim trágico (Crédito:reprodução internet/arte Istoé)

As vítimas dos haters frequentemente abandonam as redes sociais, algumas desistem da internet como um todo, enquanto outras não aguentam tanta violência e acabam tomando decisões com consequências irreversíveis. A canadense Amanda Todd, por exemplo, cometeu suicídio em 2012, aos 15 anos, após ser alvo de campanha de intimidação, chantagem e agressão que começou com colegas de sua escola e logo se expandiu pela internet. Já a italiana Tiziana Cantone, de 31 anos, cometeu suicídio em setembro de 2016 depois de virar protagonista involuntária de memes e piadas com um vídeo íntimo seu caiu na rede.

Tanta violência incomoda. E a bilionária indústria das redes sociais percebeu que esse tipo de comportamento não só quebra a promessa de diálogo das redes sociais, como custa dinheiro e afugenta usuários. Nesse sentido, não são poucos os esforços e investimentos em soluções para tentar controlar o ímpeto verdadeiramente destruidor dos haters na internet.

A última empresa a anunciar uma nova e promissora proposta de solução foi o Google, que por meio da iniciativa Jigsaw lançou, em meados de setembro, o “Conversation AI”, ou “Inteligência Artificial de Conversação”. O software foi desenvolvido para garantir a segurança e a democracia de meios digitais de expressão. Como uma “inteligência artificial”, ele foi programado para identificar e bloquear conteúdo ofensivo e até criminoso em meio aos bilhões de comentários e mensagens trocadas na internet.

De acordo com Jared Cohen, responsável pela criação da ferramenta, o “Conversation AI” consegue identificar, com sucesso, conteúdo ofensivo com 92% de precisão. Para chegar a esse índice, os engenheiros treinaram o software com 17 milhões de comentários de matérias do jornal americano “The New York Times” e 130 mil trechos de discussões em páginas da “Wikipedia”. Supõe-se que essas mesmas empresas serão as primeiras a usar, oficialmente, a solução, embora ainda não haja data para que a adoção de fato aconteça.

Dado o potencial de mercado para uma ferramenta que faça o controle automático de conteúdo ofensivo na internet, há muitas empresas, além do Google, investindo no filão. A também americana Community Sift, por exemplo, funciona, principalmente, em jogos online e plataformas usadas por jovens, como o Roblox, o Animal Jam e o musical.ly, de streaming de música. Para desenvolver o software que faz o que eles chamam de “automação inteligente de moderação”, a empresa contratou nada menos que 30 linguistas. Com o que eles trouxeram, a empresa criou uma espécie de algorítmo para identificar instâncias de abuso entre usuários e intervir quando esse tipo de comportamento for detectado. A empresa não divulga índice de acerto de sua solução.

Já a startup Civil, do Oregon, nos Estados Unidos, criou um método para controlar comentários abusivos que mistura tecnologia com a força dos usuários das plataformas onde os comentários são publicados. Em um site que usa a ferramenta, os usuários são convidados a avaliar os comentários dos outros. Para evitar abusos na moderação, uma série de medidas foi tomada. Uma delas é que os usuários só podem avaliar comentários em conteúdo que eles ainda não leram. Ou seja, se você está lendo uma matéria de política, você vai ser convidado a avaliar um comentário em uma matéria de ciência que você ainda não leu. A ideia é reduzir o envolvimento com o assunto comentado e assim evitar que um comentário não seja bloqueado apenas por expressar opinião diferente da do avaliador. O sistema ainda esconde o nome do autor do comentário na hora da avaliação, para evitar perseguição.

Tapando o sol com a peneira
Ainda que não exista viva alma que ache correto alguém dizer que vai estuprar a filha de cinco anos de um inimigo, poupar os usuários do que a mente pode produzir de mais horrendo também tem seus riscos.  Wagner Marcello, co-fundador do Grupo DigitalRights.cc, por exemplo, chama a atenção para a preservação do direito de expressão.

“Até que ponto é válido agir contra a livre expressão?”, questiona Wagner.  “Estamos automatizando um ato ditatorial”, afirma. Para o pesquisador, o software que poupa de comentários desagradáveis e, por vezes, até criminosos, também pode acabar censurando opiniões razoáveis, ainda que polêmicas, ou expressadas de forma desproporcionalmente apaixonadas. Pior: programas podem ser programados, com uma virada no código, para censurar um tema ou um assunto, o que pode virar arma na mão de grupos políticos e econômicos mal-intencionados. “O tema é muito complexo”, afirma Wagner, que teme que programas desse tipo possam direcionar para o pensamento homogêneo e polarizado.

Daniel Gatti, diretor da Faculdade de Ciências Exatas e Tecnologia da PUC-SP, faz coro. Para ele, o conteúdo “hater” faz parte do ser humano. E, para além dos riscos à liberdade de expressão, ter um software que barre esse tipo de manifestação não é garantia de solução do problema, já que contornar filtros parece ser um talento dos “haters”. “Estamos tentando nos esconder de um problema social muito maior atrás da tecnologia”, afirma.

Demanda
Mal ou bem, há demanda por serviços como o “Conversation AI”, o “Community Sift” e o “Civil”. Uma pesquisa do Pew Research Center mostrou que, só nos Estados Unidos, 40% dos adultos e 65% dos jovens entre 18 anos e 29 anos já foram vítimas de violência na internet. Hoje, o controle – falho – desses abusos é feito por um conjunto de medidas que envolve moderação automática, denúncias e exércitos de funcionários em empresas terceirizadas instaladas em países como Índia e Filipinas, que avaliam casos tidos como mais complicados. Soluções caras, que, ao que tudo indica, não tem dado os melhores resultados. O caminho da moderação parece mais livre do que nunca.