O segredo sombrio da IA? Um desejo voraz por dados pessoais
Por isso, países e empresas devem observar esses 7 princípios de regulação da privacidade
A Inteligência Artificial tem potencial para ajudar a humanidade de várias maneiras. Carros sem motorista e infraestrutura inteligente prometem reduzir os congestionamentos, facilitando a movimentação das pessoas pelas cidades. Diagnóstico e tratamentos aprimorados prometem aumentar o tempo de vida. Na empresa, a IA pode ajudar a melhorar as decisões de contratação, tornar o chão de fábrica mais seguro, automatizar tarefas rotineiras, produzir revisões de desempenho mais objetivas e ajudar as organizações a entender melhor os desejos de seus clientes.
Novas ferramentas estão aparecendo com freqüência. A Amazon registrou duas patentes para uma pulseira que rastreia os movimentos das mãos dos trabalhadores enquanto embalam as caixas dos pedidos feitos no site. Elas usam radiofrequência para rastrear o movimento das mãos de forma tão precisa que chegam a vibrar para empurrar as mãos na direção correta quando movimentos ineficientes são detectados. A Humanyze vende crachás sociométricos que rastreiam a movimentação de funcionários através dos escritórios para fornecer insights sobre a qualidade das interações com os colegas. O UV Sense, da L’Oréal, rastreia a exposição do usuário aos raios ultravioleta e transfere os dados para o celular. A Cogito monitora a empatia exibida pelos representantes de atendimento ao cliente.
Infelizmente, a quantidade de dados necessária para desbloquear os benefícios dessas ferramentas também facilitam muito a vigilância de consumidores e funcionários. Lançado em 2014, o sistema de crédito social da China deverá estar totalmente operacional em 2020. O sistema agrega histórico de pagamentos, informações médicas, registros legais, juntamente com outros dados para criar um perfil individual. Além disso, acredita-se amplamente que o sistema use reconhecimento facial para rastrear por onde cada indivíduo circula e com quem interage. As câmeras são tão difundidas nas grandes cidades que as pessoas brincam que o governo pode encontrar alguém em sete minutos.
Em um nível mais íntimo, a We-Vib vende um vibrador com Bluetooth que pode ser controlado por um smartphone. Em 2017, sem admitir culpa, a We-Vib concordou em pagar US $ 3,75 milhões em um acordo para dar fim a uma ação coletiva que afirmava que a empresa coletava dados sobre a frequência com que o brinquedo sexual era usado e as diferentes maneiras de usá-lo.
É verdade que grandes quantidades de dados beneficiam a sociedade de maneiras inesperadas. Em abril de 2018, Joseph DeAngelo foi acusado de ser o Golden State Killer, responsável por uma série de assassinatos não resolvidos e estupros das décadas de 1970 e 80. A polícia comparou um perfil genético do suspeito com perfis genéticos em sites que servem indivíduos pesquisando suas árvores genealógicas. Eventualmente, eles identificaram um grupo de pessoas que compartilhavam material genético ligado ao perpetrador, descartando vários desses indivíduos com base na idade, sexo e onde viviam. Depois que a polícia determinou que DeAngelo era um suspeito, obtiveram seu DNA do lixo que ele descartou e cruzaram com amostras de cenas dos crimes.
Embora esses bancos de dados genéticos ajudem a polícia a resolver crimes de décadas, o uso desse banco de dados gera preocupações com a privacidade. Poucas pessoas contribuindo com dados genéticos para um repositório esperam que o arquivo seja revisado pela polícia. Os contribuintes podem não perceber que sua ação pode levar as autoridades a parentes que não concordaram em divulgar informações genéticas ou que podem nem saber que o material genético da família está no banco de dados.
Preocupações com privacidade estão crescendo em todo o mundo. Em maio de 2018, a União Europeia implementou regras abrangentes de proteção da privacidade, conhecidas como Regulamento Geral de Proteção de Dados (GDPR). Outros países estão implementando sua própria legislação. [ É o caso do Brasil, que aprovou em agosto de 2018 sua Lei Geral de Proteção de Dados Pessoais, com entrada em vigor prevista para meados de 2020]. A Estratégia Nacional de Segurança Cibernética do Canadá protege a privacidade digital. A proposta de lei de proteção de dados pessoais da Índia enfatiza a ética da IA, a privacidade pessoal, a segurança e a transparência. Ela deve ser supervisionada por um órgão regulador independente com poderes para aplicar pesadas multas por violações. Segundo as Nações Unidas, mais de cem países têm alguma lei de proteção e privacidade de dados. No entanto, a ONU reconhece que muitas não foram atualizadas recentemente e não são fortes o suficiente para dar aos cidadãos a confiança de que sua privacidade será protegida adequadamente na Era Digital.
Em 2016, vários engenheiros, designers e outros funcionários da Amazon, da Apple, do Facebook, da Google e da Microsoft ficaram tão preocupados com o potencial de vigilância que criaram o movimento NeverAgain.tech. Os signatários do Never Again se comprometem a se recusar a construir qualquer banco de dados que permita ao governo dos EUA coletar informações sobre crenças dos indivíduos, temendo que esse banco de dados possa resultar em deportações em massa.
Em outubro de 2018, durante a Conference of Data Protection and Privacy Commissioners, realizada em Bruxelas, Tim Cook expressou suas preocupações sobre o “complexo industrial de dados”. Ele alertou que dados individuais estão sendo coletados e sintetizados para criar um “perfil digital duradouro que permita às empresas conhecer seus clientes melhor do que eles próprios. ”
Cook apoiou o GDPR e pediu a aprovação de uma legislação federal de privacidade dos EUA.
7 princípios de regulação da privacidade
Cook está certo: é hora de os EUA seguirem outros países e promulgarem a legislação de privacidade digital. No mínimo, os seguintes princípios devem ser incluídos na nova legislação.
1 – Minimizar os dados coletados
A coleta de dados deve ser limitada aos dados necessários para a tarefa em questão. A coleta de dados adicionais que um dia possam ser úteis deve ser limitada. As informações pessoalmente identificáveis devem ser removidas dos dados armazenados para análise.
2 – Informar os usuários da coleta de dados
Os usuários devem ser informados quando os dados estão sendo coletados e devem ser informados sobre como serão usados. O indivíduo deve ser capaz de decidir se permite que os dados sejam coletados durante cada atividade, e quais serão esses dados. Os termos e condições do navegador e do site devem ser simples o suficiente para que o consumidor possa tomar uma decisão informada rapidamente.
3 – Permitir que os indivíduos acessem seus dados
Os indivíduos devem poder copiar seus próprios dados e corrigir ou excluir dados pessoais imprecisos. Hoje, correções são quase impossíveis em algumas empresas. Recentemente, um colega tentou atualizar seu relatório de crédito, removendo a casa ao lado como sua residência prévia. Mesmo identificando o erro de terceiros, que mudaram o último dígito do endereço, o departamento de crédito recusou-se a remover a entrada dizendo que não havia conseguido provar que a outra casa nunca fora sua residência. O departamento de crédito não respondeu quando ela pediu orientação sobre o que constituiria uma prova.
4 – Exigir transparência sobre as decisões automatizadas
Cada vez mais, a IA está orientando decisões com grande impacto nas vidas individuais. Como a IA usa uma quantidade grande de dados e muitas regras para processá-las, muitas vezes é impossível para uma pessoa entender como o mecanismo de Inteligência Artificial chegou a uma conclusão. Embora não seja crítico para um humano entender a lógica usada quando o mecanismo de IA está em funcionamento, isso não é aceitável em situações em que preconceitos ou consequências não intencionais podem afetar o resultado final.
A ferramenta Equivant prevê a probabilidade de um indivíduo cometer um novo crime. Os juízes que usam a ferramenta durante a sentença geralmente impõem sentenças mais duras para os réus com pontuações altas. Infelizmente, os réus não têm como contestar sua pontuação, já que o mecanismo de pontuação é proprietário.
A ProPublica, uma organização de jornalismo investigativo de interesse público, analisou 7 mil réus no Condado de Broward, Flórida, entre 2013 e 2014. A ProPublica comparou a previsão da Equivant de que os réus cometeriam crimes nos dois anos seguintes com os novos crimes cometidos por cada réu. Eles concluíram que a pontuação de risco Equivant não é confiável; é duas vezes mais provável prever incorretamente que um réu negro irá cometer um crime futuro do que com um réu branco. A Equivant discorda, argumentando que a metodologia ProPublica é falha. Claramente, a condenação ou outra ferramenta com um impacto potencial tão grande na vida de um indivíduo precisa ser altamente precisa e apoiada por uma lógica compreensível.
5 – Proteger os dados
Toda entidade que coleta e armazena grandes quantidades de dados devem assegurar que estejam seguros e não possam ser acessados de forma inadequada. As recentes violações de dados do Marriott e do Quora são dois exemplos recentes de incidentes que já comprometeram muitas pessoas.
6 – Aplicar conformidade
A aplicação ativa de governança dos dados com penalidades significativas é crítica para novas regulamentações efetivas. As grandes empresas de tecnologia ganham tanto dinheiro que penalidades menores podem ser ignoradas e computadas apenas como custo extra para a realização de seus negócios.
7 – Criar uma lei nacional
As novas leis de privacidade dos EUA devem cobrir todas as empresas que coletam dados pessoais e não apenas as empresas de tecnologia. Além disso, é necessária uma legislação federal ou outros estados seguirão o exemplo da Califórnia e criarão suas próprias leis estaduais, provavelmente incompatíveis.
O impacto da legislação nos negócios
A nova legislação de privacidade obrigará algumas empresas a reconsiderar seus modelos de negócios. Hoje, muitos consumidores contribuem com dados pessoais em troca de não serem cobrados pelo uso de mecanismos de pesquisa, mídias sociais e outras ferramentas. Os consumidores preocupados com a privacidade podem preferir pagar uma pequena taxa em troca do verdadeiro anonimato. Embora seja teoricamente possível hoje navegar na Web sem deixar vestígios, a maioria dos consumidores acha impossível sem ajuda técnica altamente qualificada.
Um planejamento cuidadoso e alguns compromissos serão necessários para equilibrar o jogo. As empresas precisarão implantar novas ferramentas que respeitem o desejo de funcionários e clientes de manter a privacidade pessoal. A nova legislação poderia criar uma situação na qual os funcionários têm que concordar em ter seus dados coletados. Dependendo do idioma na nova legislação, muitas ferramentas existentes poderiam produzir o que seria considerado informação pessoal, permitindo que os funcionários se recusem a serem rastreados, tornando as ferramentas inúteis.
O cumprimento da nova legislação obrigará as empresas a lidar com os dados dos clientes, mas também dos funcionários, com maior cuidado. O acesso do supervisor pode ser limitado a dados de funcionários diretamente relacionados ao desempenho do indivíduo, com ferramentas de análise executadas apenas em dados anônimos. Empresas bem administradas podem oferecer treinamento independente aos funcionários que desejam melhorar seu desempenho.
A IA já oferece muitos benefícios e proporcionará outros benefícios que não podemos prever no momento. Tal como acontece com todas as novas tecnologias, elas podem ser usadas para beneficiar a humanidade ou para gerar abusos. Quando descobrimos como garantir que os dados coletados não sejam usados para vigilância inadequada, talvez a afirmação de Scott McNealy, de 1999 _ “ você tem privacidade zero de qualquer maneira” – deixará, enfim, de ser verdadeira.