Medida de suspensão da ANPD contra Meta demonstra força da LGPD no Brasil

Advogados comentam decisão da instituição e explicam o porquê treinamento de IA poderia ferir direitos

Author Photo
3:40 pm - 02 de julho de 2024
Imagem: Shutterstock

A ANPD (Autoridade Nacional de Proteção de Dados) decidiu, hoje, suspender imediatamente a nova política de privacidade da Meta, que autorizava o uso de dados pessoais publicados em suas plataformas para fins de treinamento de sistemas de inteligência artificial (IA).

A ação foi vista com bons olhos por especialistas da área. Na opinião de Antonielle Freitas, DPO (Data Protection Officer) do escritório Viseu Advogados, a medida preventiva emitida pela ANPD representa um marco importante na aplicação da Lei Geral de Proteção de Dados (LGPD) no Brasil. Esta ação demonstra que a instituição está atenta e pronta para intervir quando percebe indícios de tratamento de dados pessoais inadequados.

“O principal problema identificado pela ANPD foi o tratamento de dados pessoais para fins de treinamento de sistemas de inteligência artificial sem o consentimento explícito dos usuários. Além disso, a ANPD criticou a falta de transparência da Meta, a limitação dos direitos dos titulares e o risco para crianças e adolescentes”, explica ela.

Marcelo Cárgano, advogado especialista em direito digital do escritório Abe Advogados, complementa dizendo que a ANPD identificou várias irregularidades:

1) o uso inadequado da hipótese legal de “legítimo interesse” para tratar dados pessoais, especialmente dados sensíveis;

2) falta de transparência nas informações fornecidas aos usuários sobre a nova política;

3) obstáculos excessivos para os usuários exercerem seus direitos, como o de optarem por não terem seus dados usados desta maneira;

4) tratamento inadequado de dados de crianças e adolescentes.

“O uso da hipótese legal do legítimo interesse por parte da Meta no caso concreto é, no mínimo, questionável. A LGPD exige hipóteses legais mais restritivas para o tratamento desses dados (como no caso dos dados pessoais sensíveis) ou, no mínimo, que os titulares compreendam plenamente como seus dados serão usados e possam exercer seus direitos de forma informada e eficaz”, comenta ele.

Para ele, também é importante destacar a irreversibilidade do uso de tais dados no treinamento de IAs. Uma vez que uma informação seja usada para treinar um modelo, ela se torna parte da “memória” do modelo, e removê-los completamente pode ser tecnicamente complexo ou mesmo impossível.

“A falta de transparência algorítmica, isto é, a dificuldade mesmo para os seus desenvolvedores para entender como e por que uma determinada decisão foi tomada pela IA, aprofunda este problema. Na prática, excluir os dados do treinamento original pode exigir o redesenvolvimento de partes significativas do sistema de IA em questão, gerando altos custos para seu desenvolvedor. Isto explica, aliás, a decisão da Meta de não usar o consentimento do usuário para treinar IAs, uma vez que o consentimento dado pode ser revogado a qualquer momento, forçando o a removê-los de qualquer sistema onde foram usados”, explica Cárgano.

Por fim, Antonielle diz que esta ação da ANPD ressalta a necessidade das empresas de adotarem práticas de proteção de dados robustas e de estarem em conformidade com a LGPD, a fim de evitar sanções e garantir o respeito aos direitos dos titulares de dados.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias! 

Tags:
Author Photo
Redação

A redação contempla textos de caráter informativo produzidos pela equipe de jornalistas do IT Forum.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.