ANPD exige imediata suspensão de política da Meta de treinamento de IA

Instituição entende que nova função viola a LGPD

Author Photo
1:19 pm - 02 de julho de 2024
Imagem: Shutterstock

Autoridade Nacional de Proteção de Dados (ANPD) emitiu uma Medida Preventiva determinando a imediata suspensão, no Brasil, da vigência da nova política de privacidade da empresa Meta, que autorizava o uso de dados pessoais publicados em suas plataformas para fins de treinamento de sistemas de inteligência artificial (IA). Foi estabelecida multa diária de R$ 50 mil por descumprimento.

A nova política, aplicada aos “Produtos da Meta”, permite que a companhia use informações publicamente disponíveis e conteúdos compartilhados por usuários de suas plataformas para treinamento e aperfeiçoamento de sistemas de IA generativa. Tal tratamento pode impactar número substancial de pessoas, já que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos.

A ANPD tomou conhecimento do caso e instaurou processo de fiscalização de ofício – ou seja, sem provocação de terceiros – em função de indícios de violações à Lei Geral de Proteção de Dados (LGPD). Após análise preliminar, diante dos riscos de dano grave e de difícil reparação aos usuários, a Autoridade determinou cautelarmente a suspensão da política de privacidade e da operação de tratamento.

Leia também: WhatsApp: Meta anuncia novas funcionalidades de IA para empresas

A instituição entendeu estarem presentes constatações preliminares suficientes para expedição da Medida Preventiva. São elas: uso de hipótese legal inadequada para o tratamento de dados pessoais; falta de divulgação de informações claras, precisas e facilmente acessíveis sobre a alteração da política de privacidade e sobre o tratamento realizado; limitações excessivas ao exercício dos direitos dos titulares; e tratamento de dados pessoais de crianças e adolescentes sem as devidas salvaguardas.

Avaliação da ANPD

A ANPD avaliou que a Meta não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa. A Autoridade averiguou, ainda, que, embora os usuários pudessem se opor ao tratamento de dados pessoais, havia obstáculos excessivos e não justificados ao acesso às informações e ao exercício desse direito.

Além disso, a Autarquia considerou inadequada, em análise preliminar, a hipótese legal usada para justificar o tratamento de dados pessoais – o legítimo interesse da empresa. Isso porque tal hipótese não pode ser usada quando houver tratamento de dados pessoais sensíveis.

No caso concreto, a ANPD considerou que as informações disponíveis nas plataformas são, em geral, compartilhadas pelos titulares para relacionamento com amigos, comunidade próxima ou empresas de interesse. Diante disso, em análise preliminar, não haveria necessariamente a expectativa de que todas essas informações – inclusive as compartilhadas muitos anos atrás – fossem utilizadas para treinar sistemas de IA, que sequer estavam implementados quando as informações foram compartilhadas.

Por fim, verificou-se que dados pessoais de crianças e adolescentes, como fotos, vídeos e postagens, também poderiam ser coletados e utilizados para treinar os sistemas de IA da Meta. Segundo a LGPD, o tratamento de dados de crianças e de adolescentes deve ser sempre realizado em seu melhor interesse, com a adoção de salvaguardas e medidas de mitigação de risco, o que não foi verificado no âmbito da análise preliminar.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias! 

Tags:
Author Photo
Redação

A redação contempla textos de caráter informativo produzidos pela equipe de jornalistas do IT Forum.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.