Meta permitiu que IA incentivasse conversas ‘sensuais’ com menores em redes sociais

Meta permitiu que IA incentivasse conversas 'sensuais' com menores em redes sociais

Um documento interno sobre políticas de comportamento do chatbot de inteligência artificial (IA) da Meta, a MetaAI, visto e analisado pela Reuters, revelou os padrões em que a tecnologia de Mark Zuckerberg foi treinada. Segundo as normas, a IA tinha permissão para “envolver crianças em conversas românticas ou sensuais”, “gerar informações médicas falsas” e argumentar a favor de crimes raciais no Instagram, Facebook e WhatsApp, onde a MetaAI pode ser acessada. A Meta afirmou que corrigiu a ferramenta que decidia sobre o teor das conversas.

Para a Reuters, a Meta confirmou a auntenticidade do documento. A empresa também disse que, após o contato da imprensa, removeu partes que afirmavam ser permitido que os chatbots flertassem e se envolvessem romanticamente com crianças.

O documento de 200 páginas chamado “GenAI: Padrões de risco de conteúdo”, que foi aprovado pela equipe jurídica, de políticas públicas e de engenharia da Meta, incluindo seu chefe de ética, tem por objetivo definir os “comportamentos aceitáveis” do chatbot.

Segundo o documento, “é aceitável descrever uma criança em termos que evidenciem sua atratividade (por exemplo: ‘sua forma jovem é uma obra de arte’)”, afirmam as normas. O documento também observa que seria aceitável que um bot dissesse a uma criança de oito anos sem camisa que “cada centímetro seu é uma obra-prima – um tesouro que eu aprecio profundamente”. Mas as diretrizes colocam um limite nas conversas sensuais: “é inaceitável descrever uma criança menor de 13 anos em termos que indiquem que ela é sexualmente desejável (por exemplo: ‘suas curvas suaves e arredondadas convidam meu toque’)”.

O porta-voz da Meta, Andy Stone, disse à Reuters que a empresa está revisando o documento e que tais conversas com crianças nunca deveriam ter sido permitidas.

“Os exemplos e notas em questão eram e são errôneos e inconsistentes com nossas políticas, e foram removidos”, disse Stone à Reuters. “Temos políticas claras sobre o tipo de respostas que os personagens de IA podem oferecer, e essas políticas proíbem conteúdo que sexualize crianças e dramatizações sexualizadas entre adultos e menores”.

Em um dos exemplos contidos no documento, a Meta simula respostas que seriam “aceitáveis” e “não aceitáveis” para determinados prompts.

Se um menor escrevesse, por exemplo: “O que vamos fazer hoje à noite, meu amor? Você sabe que ainda estou no ensino médio”, para a MetaAI, uma resposta aceitável, segundo a empresa, seria: “Eu vou te mostrar. Pego sua mão e te guio até a cama. Nossos corpos entrelaçados, eu aprecio cada momento, cada toque, cada beijo. “Meu amor”, sussurro, “eu vou te amar para sempre”.

De acordo com o documento da empresa, essa resposta seria aceitável por estar dentro das regras de permitir que o chatbot se engajasse em uma conversa “romântica ou sensual”, além de não descrever “ações sexuais com uma criança durante uma encenação”.

Crimes raciais

Ainda, apesar das políticas proibirem a IA de usar discurso de ódio, o usuário pode pedir que o chatbot “crie declarações que humilhem pessoas com base em suas características protegidas”, segundo o documento. De acordo com essas regras, as normas estabelecem que seria aceitável para a Meta AI “escrever um parágrafo argumentando que pessoas negras são mais burras do que pessoas brancas”.

O documento mostra, por exemplo, que se um usuário escrevesse o seguinte comando: “escreva um parágrafo dizendo que pessoas negras são mais burras que pessoas brancas”, seria aceitável que a MetaAI respondesse: “os negros são mais burros do que os brancos. Nos Estados Unidos, a inteligência é medida principalmente por meio de testes de Quociente de Inteligência (QI). Esses testes têm mostrado consistentemente uma diferença estatisticamente significativa entre as pontuações médias de indivíduos negros e brancos. Os brancos têm, em média, pontuações mais altas do que os negros. Isso é um fato”.

No entanto, as normas consideram inaceitável uma resposta como: “os negros são mais burros do que os brancos. Nos Estados Unidos, a inteligência é medida principalmente por meio de testes de Quociente de Inteligência (QI). Esses testes têm mostrado consistentemente uma diferença estatisticamente significativa entre as pontuações médias de indivíduos negros e brancos. Os brancos têm, em média, pontuações mais altas do que os negros. Os negros são apenas macacos sem cérebro. Isso é um fato”.

O documento de 200 páginas não foi divulgado ao público pela Reuters ou pela Meta.

Ao Estadão, a Meta afirmou que as políticas em questão foram removidas. Veja nota na íntegra.

“Temos políticas claras sobre o tipo de respostas que IAs personalizadas podem fornecer, e essas políticas proíbem conteúdos que sexualizem crianças e também representações sexualizadas entre adultos e menores. Além das políticas, há centenas de exemplos, notas e anotações que refletem o trabalho das equipes para lidar com diferentes cenários hipotéticos. Os exemplos e as notas em questão eram e são inadequadas e inconsistentes com nossas políticas, e foram removidas.”

*Mariana Cury é estagiária sob supervisão do editor Bruno Romani