Diversidade ‘by design’ na inteligência artificial

Algoritmos de reconhecimento facial apresentam altas taxas de erro para etnias negra e asiática, mas diferença cai quando são desenvolvidos na Ásia

Author Photo
4:03 pm - 09 de setembro de 2021
diversidade, inclusão, reconhecimento facial, pessoa negra Imagem: Shutterstock

Nos últimos anos, surgiram normas de proteção a dados pessoais mundo afora (como a LGPD no Brasil), tornando comum no segmento de tecnologia a noção de “privacy by design”. A expressão inglesa se refere ao desenvolvimento de produtos e de serviços pautados no respeito à privacidade dos usuários, com os mecanismos tecnológicos já saindo de fábrica norteados pela proteção de dados pessoais e da privacidade de seus titulares. Igual noção “by design” deve ser aplicada em prol da diversidade.

A tecnologia traz oportunidades importantes no campo dos negócios, de incremento de qualidade em produtos e serviços, de ganhos econômicos, de acesso à educação e ao conhecimento, de debate democrático em livre manifestação de pensamento, de amplificação do alcance de importantes iniciativas culturais e sociais, dentre inúmeras outras possibilidades. A inteligência artificial se apresenta em todas essas vertentes.

Feitas à semelhança do criador, as tecnologias reproduzem também vicissitudes, dentre as quais a discriminação. Diversos são os questionamentos quanto à forma por vezes incorreta pela qual os algoritmos compreendem, interpretam e agem sobre o mundo físico. Brad Smith, CEO da Microsoft, já deu a letra: “a tecnologia se tornou uma ferramenta e um perigo”.

Nos Estados Unidos, foi redobrada a atenção ao tema desde que se identificou que a população negra é alvo de falhas em algoritmos de reconhecimento facial. Em abril de 2021, a ACLU (União Americana pelas Liberdades Civis) e a University of Michigan Law School’s Civil Rights Litigation Initiative (CRLI) propuseram ação federal em defesa de Robert Williams, cidadão negro de Detroit preso injustamente em agosto de 2020 após o sistema de reconhecimento facial do Departamento de Polícia de Detroit tê-lo erroneamente reconhecido como criminoso.

No Brasil, pesquisa da Rede de Observatórios de Segurança monitorou os casos de prisões e abordagens com o uso de reconhecimento facial entre março e outubro de 2019, em quatro estados brasileiros. Entre os casos com informações sobre raça e cor ou com imagem dos abordados (42 casos), 90,5% das pessoas eram negras e somente 9,5% eram brancas.

O National Institute of Standards and Technology de 2019 realizou levantamento demográfico em busca de falsos positivos (o rosto de uma pessoa é reconhecido em duas pessoas diferentes) e falsos negativos (algoritmo que não reconhece uma pessoa em imagens de si). Concluiu que algoritmos de reconhecimento facial apresentam uma taxa de erros de falso positivo de 10 a 100 vezes maior nas etnias negra e asiática se comparada à caucasiana. A diferença, conclui o estudo, não é tão dramática quando os algoritmos são desenvolvidos em países asiáticos, permitindo atribuir a redução da discriminação (que nada tem de artificial) à representatividade dos diferentes grupos no desenvolvimento dos produtos.

A Convenção Interamericana contra o Racismo, Discriminação Racial e formas Correlatas de Intolerância, ratificada pelo Brasil em maio de 2021, dispõe em seu art. 1, item 1, que discriminação racial é qualquer distinção “cujo propósito ou efeito seja reduzir o reconhecimento ou exercício de direitos. Da mesma forma, a Lei Brasileira de Inclusão da Pessoa com Deficiência, conceitua em seu art. 3º, IV, que barreiras tecnológicas são aquelas que “dificultam ou impedem o acesso da pessoa com deficiência às tecnologias”. Esses documentos evidenciam que os impactos negativos do uso da tecnologia em determinados grupos implicam, pela lupa dos Direitos Humanos, na chamada discriminação indireta.

Contudo, existem iniciativas importantes remando rumo à diversidade, by design, em matéria de inteligência artificial. A Open AI publicou estudo em junho de 2021 em que alega ter descoberto uma maneira de melhorar o comportamento de modelos de linguagem em relação aos valores éticos, morais e sociais. Os pesquisadores apontam significativas melhorias na criação de um novo repositório, o Processo para Adaptação de Modelos de Linguagem à Sociedade (PALMS). Em síntese, o comportamento adequado do modelo de linguagem de programação reduz os vieses de gênero, raça ou religião.

Acessibilidade por design se vê na startup brasileira Hand Talk, que traduz simultaneamente conteúdo de vídeo e texto em português para a língua brasileira de sinais, o que permite a inclusão de pessoas com deficiência visual através da acessibilidade digital. No Desafio de Impacto em IA de 2019, o Google premiou a startup entre as iniciativas globais tecnológicas de impacto social.

Quando a diversidade está presente no processo de desenvolvimento de tecnologia (e de inteligência artificial), o resultado são produtos e serviços com maior acurácia, eficiência e potencial de mercado.

A diversidade se apresenta como premissa e parte essencial do processo de pesquisa e desenvolvimento, assim como se instituiu para a proteção de dados pessoais. Deve haver também diversidade by design, no desenvolvimento de produtos e serviços em tecnologia de inteligência artificial, e não mera adaptação destes a partir de constatações de comportamento discriminatório.

O argumento nesse sentido é também jurídico. Um dos pilares do tripé ASG (“Ambiental, Social & Governança Corporativa”) diz respeito aos Direitos Humanos (o “S”) em todas as dimensões da atividade empresarial, dentre as quais a atenção aos impactos da atividade-fim. É o que recomenda o Conselho Nacional dos Direitos Humanos (artigos 2º, § 3º, e 6º, XII e XIV, da Resolução nº 05/2020). Fica claro que, para desenvolver produtos atentos à pluralidade de usuários e consumidores, é necessário que tais grupos estejam devidamente representados em seu processo de desenvolvimento e produção.

A conclusão é uma: diversidade by design se mostra indispensável. É primordial que as instituições se organizem para refletir em suas cadeias produtivas (e, portanto, no público interno), pluralidade e diversidade. Avança-se, assim, rumo ao desenvolvimento de tecnologias de inteligência artificial que tenham por traço definidor, cada vez mais, diversidade e inclusão.

* Bruna Borghi Tomé é sócia de Cybersecurity & Data Privacy do TozziniFreire Advogados

** Clara Serva é head de Empresas e Direitos Humanos do TozziniFreire Advogados

*** Sofia Gavião Kilmar é advogada na área de Contencioso de TozziniFreire Advogados

**** Maru Arvigo é assistente jurídico do Programa de Inovação de TozziniFreire Advogados

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.