Mais de 1 mil especialistas em IA protestam contra publicação de artigo sobre algoritmos racistas

Profissionais de diferentes áreas assinam carta à editora que pode publicar artigo sobre tecnologia que prevê crimes baseados em análise de faces

Author Photo
12:00 pm - 30 de junho de 2020

Desde a onda de protestos contra o racismo e a violência policial nos Estados Unidos, profissionais do setor de tecnologia têm manifestado preocupação quanto ao uso de ferramentas tecnológicas utilizadas ou treinadas por uma base racista para combater crimes.

Em uma carta, mais de 1 mil tecnólogos do MIT, Harvard e Google se manifestam contra algoritmos que tentam prever crimes com base apenas no rosto de uma pessoa.

Segundo os especialistas essas pesquisas que afirmam prever crimes com base em rostos humanos criam um “pipeline de tecnologia para prisão” que permite à aplicação da lei justificar discriminação e violência contra comunidades marginalizadas por trás do verniz de sistemas algorítmicos “objetivos”, de acordo com reportagem da Vice.

Publicado na última terça (23), o documento pede à editora Springer que interrompa a publicação do artigo que descreve um sistema que os autores afirmam poder prever se alguém cometerá um crime com base apenas em uma imagem de seu rosto, com “80% de precisão” e “sem viés racial”.

“Escrevemos para você como pesquisadores e profissionais especializados em uma variedade de campos técnicos, científicos e humanísticos (incluindo estatística, machine learning e inteligência artificial, direito, sociologia, história, estudos de comunicação e antropologia), Juntos, compartilhamos sérias preocupações com uma publicação futura intitulada “Um modelo de rede neural profunda para prever a criminalidade usando o processamento de imagens”, explica trecho da carta

“Simplesmente não há como desenvolver um sistema que possa prever ‘criminalidade’ que não seja racial, porque os dados da justiça criminal são inerentemente racistas”, escreveu Audrey Beard, uma das organizadoras da carta, em comunicado por e-mail.

A missiva pede à Springer que retire o artigo da publicação na Springer Nature, libere uma declaração condenando o uso desses métodos e se comprometa a não publicar estudos semelhantes no futuro.

Não é o primeiro caso

Em 2017, pesquisadores de machine learning condenaram categoricamente um artigo semelhante, cujos autores alegaram a capacidade de prever comportamentos criminosos futuros treinando um algoritmo com o rosto de pessoas previamente condenadas por crimes, lembra a reportagem.

Como os especialistas observaram na época, isso apenas cria um ciclo de feedback que justifica um direcionamento adicional de grupos marginalizados que já são desproporcionalmente perseguidos pela polícia.

“Como vários ehttps://itforum.com.br/wp-content/uploads/2018/07/shutterstock_528397474.webpsos demonstraram, os dados históricos dos tribunais e das prisões refletem as políticas e práticas do sistema de justiça criminal”, afirma a carta. “Esses dados refletem quem a polícia decide prender, como os juízes decidem governar e quais pessoas recebem sentenças mais longas ou mais brandas. […] Assim, qualquer software criado dentro da estrutura legal criminal existente inevitavelmente ecoará os mesmos preconceitos e princípios fundamentais imprecisos quando se trata de determinar se uma pessoa tem a ‘cara de um criminoso’”.

Na semana passada, funcionários da Google também se manifestaram. Com uma carta para Sundar Pichai, CEO da Alphabet, eles exigiram que a gigante de tecnologia deixasse de firmar contratos com a polícia do país, historicamente violenta com a população negra.

No início deste mês, a IBM anunciou que não mais desenvolveria ou venderia sistemas de reconhecimento facial para uso da polícia, sendo seguida pela Amazon, que suspendeu o fornecimento à polícia do Rekognition, serviço de sistema de reconhecimento facial. O serviço continuará disponível somente para busca de pessoas desaparecidas.

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.