Medida de suspensão da ANPD contra Meta demonstra força da LGPD no Brasil
Advogados comentam decisão da instituição e explicam o porquê treinamento de IA poderia ferir direitos
A ANPD (Autoridade Nacional de Proteção de Dados) decidiu, hoje, suspender imediatamente a nova política de privacidade da Meta, que autorizava o uso de dados pessoais publicados em suas plataformas para fins de treinamento de sistemas de inteligência artificial (IA).
A ação foi vista com bons olhos por especialistas da área. Na opinião de Antonielle Freitas, DPO (Data Protection Officer) do escritório Viseu Advogados, a medida preventiva emitida pela ANPD representa um marco importante na aplicação da Lei Geral de Proteção de Dados (LGPD) no Brasil. Esta ação demonstra que a instituição está atenta e pronta para intervir quando percebe indícios de tratamento de dados pessoais inadequados.
“O principal problema identificado pela ANPD foi o tratamento de dados pessoais para fins de treinamento de sistemas de inteligência artificial sem o consentimento explícito dos usuários. Além disso, a ANPD criticou a falta de transparência da Meta, a limitação dos direitos dos titulares e o risco para crianças e adolescentes”, explica ela.
Marcelo Cárgano, advogado especialista em direito digital do escritório Abe Advogados, complementa dizendo que a ANPD identificou várias irregularidades:
1) o uso inadequado da hipótese legal de “legítimo interesse” para tratar dados pessoais, especialmente dados sensíveis;
2) falta de transparência nas informações fornecidas aos usuários sobre a nova política;
3) obstáculos excessivos para os usuários exercerem seus direitos, como o de optarem por não terem seus dados usados desta maneira;
4) tratamento inadequado de dados de crianças e adolescentes.
“O uso da hipótese legal do legítimo interesse por parte da Meta no caso concreto é, no mínimo, questionável. A LGPD exige hipóteses legais mais restritivas para o tratamento desses dados (como no caso dos dados pessoais sensíveis) ou, no mínimo, que os titulares compreendam plenamente como seus dados serão usados e possam exercer seus direitos de forma informada e eficaz”, comenta ele.
Para ele, também é importante destacar a irreversibilidade do uso de tais dados no treinamento de IAs. Uma vez que uma informação seja usada para treinar um modelo, ela se torna parte da “memória” do modelo, e removê-los completamente pode ser tecnicamente complexo ou mesmo impossível.
“A falta de transparência algorítmica, isto é, a dificuldade mesmo para os seus desenvolvedores para entender como e por que uma determinada decisão foi tomada pela IA, aprofunda este problema. Na prática, excluir os dados do treinamento original pode exigir o redesenvolvimento de partes significativas do sistema de IA em questão, gerando altos custos para seu desenvolvedor. Isto explica, aliás, a decisão da Meta de não usar o consentimento do usuário para treinar IAs, uma vez que o consentimento dado pode ser revogado a qualquer momento, forçando o a removê-los de qualquer sistema onde foram usados”, explica Cárgano.
Por fim, Antonielle diz que esta ação da ANPD ressalta a necessidade das empresas de adotarem práticas de proteção de dados robustas e de estarem em conformidade com a LGPD, a fim de evitar sanções e garantir o respeito aos direitos dos titulares de dados.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!