IA e LGPD: debate não encerrado e talvez sem resposta única
Especialistas debatem responsabilidades de empresas que querem tratar dados de terceiros
Antes da Lei Geral de Proteção de Dados (LGPD), havia apenas um sentimento do que era legítimo ou ilegítimo nos tratamentos dos dados. A lei, de acordo com Jardel Luis Carpes, diretor-executivo interino de Riscos da Caixa, a lei veio para dizer que, o que é legítimo é legal e vice-versa.
“O mundo está muito mais digital e isso significa que os dados estão mais dispersos, dentro e fora da empresa, em um mundo que é cada vez mais multicloud. Com essa explosão de informações de dados, a gente acabou evoluindo para colocar automação e IA até no desenvolvimento das inteligências e algoritmos. Hoje temos tecnologia que reconhece que eu estou falando de um CPF e já mascara até para o desenvolvedor, por exemplo”, comenta Marcela Vairo, diretora de Dados, Inteligência Artificial e Automação da IBM Brasil, no Febraban Tech 223.
Ainda assim, diz ela, não existe uma solução única: não há um remédio para todos os desafios. As empresas precisam parar e pensar em sua arquitetura de dados e ver qual a melhor solução para essa governança.
“A gente tem uma base de dados enormes e é um desafio. A nossa estratégia desde o início, quando começou a se discutir uma lei de proteção de dados, foi começar a trabalhar em alguns pilares: segurança da informação (evitar que os dados cheguem a mãos de pessoas que não deveriam ter acesso aos dados); estabelecer governança e entender os tratamentos para verificar junto os princípios da LGPD e essa foi a parte mais trabalhosa, porque não é fácil para uma empresa com diferentes negócios conseguir mapear dentro de cada atividade; e o atendimento ao direito dos titulares (sem o segundo o pilar a gente não conseguiria dar a resposta para cada titular sobre o que fazemos com os seus dados e quais dados)”, detalha Jardel.
Leia mais: Marina Silva: ‘nem as mais altas tecnologias dispensam preservação’
Patricia Peck Pinheiro, CEO da Peck Advogados, diz que a LGPD é uma legislação viabilizadora das relações. “É uma lei de proteção, não de proibição. Mas não é de qualquer jeito, não é mais aquela festa de vou fazer qualquer coisa com o dado. Quando a gente usa reconhecimento facial, por exemplo, usa algoritmos que tem aplicações que podem ter viés. Tudo tem um lado bom e pode ter algum risco.”
A discussão em torno da LGPD e a Inteligência Artificial é um tema quente e, para Miriam Wimmer, diretora da Autoridade Nacional de Proteção de Dados (ANPD), dada a amplitude dos dados pessoais para a lei, praticamente qualquer informação pode ser pessoal.
“LGPD é uma norma que, para que possa tratar um dado pessoal, é preciso ver se na lei tem uma hipótese que autoriza o tratamento. E o consentimento não é a melhor hipótese ou a única. Consentimento da LGPD é altamente qualificado – tem que ser livre, informado, inequívoco e passível de ser revogado. Vemos que em determinadas situações que o consentimento é pedido, o usuário não tem como revogar sem que o afete negativamente”, alerta.
De acordo com a especialista, no caso da IA, é um cuidado e reflexão que deve ser feito antecipadamente. “Eu quero ter o perfil de quem é um bom pagador, ou ver fraude, qual a base legal que eu vou adotar para alimentar esse sistema e ter resultados úteis? Eu acho que é um debate não encerrado e talvez não tenha uma resposta única.”
Além disso, complementa Marcela, a IA precisa de explicabilidade em seus modelos. Se a tecnologia está dizendo para conceder um crédito ou não, ou estiver selecionando um currículo, o que está por trás daquele algoritmo? A tecnologia escolhida tem que ser capaz de explicar o porquê daquela decisão ou resultado.
O segundo ponto, segundo a especialista da IBM, é entender se a empresa tem o direito de usar o dado e se ele foi anonimizado dentro de uma aplicação. Em terceiro lugar, os vieses. “Eu tenho que ter ferramental que monitore os algoritmos de IA e mostre que está enviesado para que eu possa fazer as modificações. O último ponto é confiança no modelo. Eu tenho que ter algoritmos e ferramentais para não ter a alucinação da IA. Eu tenho que ter uma governança para que eu confie e possa adotar cada vez mais a IA dentro da empresa e no processo.”
Jardel traz a discussão sobre o porquê ser privacy by design. Para ele, também é uma questão financeira. “É mais eficiente e você consegue ganhar dinheiro e perder menos dinheiro com isso. Quanto mais tardiamente você precisa adotar uma mudança mais radical, mais essa mudança custa e menos eficiente o projeto se torna. Toda vez que for lançar um produto financeiro e for começar a pensar em privacidade e pensar como está tratamento só dados só no final, com certeza você terá um dispêndio muito grande e vai gastar mais dinheiro.”
Patricia finaliza a conversa dizendo que já não há espaço para as empresas que não vivem com ética e transparência. “A gente vive na sociedade da superexposição.”
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!