02/07/2024 - 9:49
A Autoridade Nacional de Proteção de Dados (ANPD) decidiu nesta terça-feira, 2, suspender no Brasil a vigência da nova política de privacidade da empresa Meta, dona do Facebook, Instagram e Whatsapp, que autorizava o uso de dados pessoais publicados nas plataformas para fins de treinamento de sistemas de inteligência artificial (IA).
A medida preventiva estabelece ainda multa diária de R$ 50 mil por descumprimento. No último dia 26, o Instituto de Defesa de Consumidores (Idec) notificou ANPD, a Secretaria Nacional do Consumidor (Senacon) e o Conselho Administrativo de Defesa Econômica (Cade) por conta da maneira como a Meta está utilizando os dados de usuários brasileiros. De acordo com o instituto, “a violação aos direitos básicos do consumidor está evidente”.
Conforme a ANPD, o órgão tomou conhecimento do caso e instaurou processo de fiscalização de ofício – ou seja, sem provocação de terceiros – em função de indícios de violações à Lei Geral de Proteção de Dados (LGPD). “Após análise preliminar, diante dos riscos de dano grave e de difícil reparação aos usuários, a Autoridade determinou cautelarmente a suspensão da política de privacidade e da operação de tratamento”, informou a ANDP.
Recentemente, a Meta fez um movimento de atualização de seus termos de uso no sentido de permitir o aperfeiçoamento de sua IA por meio da análise de posts feitos por usuários nas redes sociais, incluindo textos e fotos.
No Brasil, nenhuma data foi informada com antecedência aos usuários para o início da prática. A única pista que indica que a companhia já teria começado a usar os dados de brasileiros é de 22 de maio. Na data, foi publicado o formulário para usuários indicarem que não desejam ter seus dados usados por IA. No mesmo dia, foi publicado um comunicado informando sobre a mudança na política de uso dos usuários.
O caso ganhou repercussão depois que a Meta teve seus planos frustrados na União Europeia. A companhia tinha planos de lançar a nova política de privacidade no bloco no dia 26 de junho. Contudo, a Meta recuou após sofrer críticas de usuários e autoridades locais.
Em nota, a Meta informou que está “desapontada” com a decisão da ANPD. “Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos”, diz o porta-voz da Meta.
Ainda segundo a empresa, a abordagem da companhia “cumpre com as leis de privacidade e regulações no Brasil”. “Continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, conclui a nota.
O que pretende a nova política da Meta
Com a mudança nos termos de uso, as publicações no Facebook e no Instagram serviriam para que a inteligência artificial generativa desenvolva “conhecimentos” para produzir texto. Sistemas como o ChatGPT precisam de uma grande quantidade de dados para fazer conexões entre os termos – e a busca por dados “inéditos” e “de qualidade” se tornou uma das principais corridas comerciais entre gigantes da IA. Os posts das redes da Meta, que são proprietários (ou seja, não são acessados por mais ninguém), são vistos como uma das principais vantagens da empresa na disputa.
Embora a companhia já utilize IA há anos em suas plataformas, os dados dos usuários passariam a ser usados também para alimentar modelos capazes de gerar textos e imagens – tudo isso para que, no futuro próximo, a Meta possa lançar o seu “ChatGPT”. Para esse fim, seriam usadas as postagens realizadas de modo público. Assim, conversas e posts privados seriam poupados.
Para aqueles que não quiserem fazer o treinamento de IAs, a Meta criou um formulário pelo qual o usuário pode vetar o uso, chamado “Direito de se opor”. Ele está disponível na página de privacidade da Meta.
* Com informações do Estadão Conteúdo