Notícias

Algoritmos e preconceito: tecnologia pode perpetuar o racismo

A cada ano, a presença da inteligência artificial no dia a dia fica mais forte. Hoje, essa tecnologia se aplica em nosso consumo, escolhas, segurança, trabalho, saúde, deslocamentos e até mesmo nas formas de nos relacionarmos virtualmente com as pessoas. Mas nem tudo são flores: o preconceito pode estar no centro de algoritmos que participam tanto de nosso cotidiano.

Aqui, claro, há uma grande influência humana na programação dos dados. “A tecnologia perpetua o preconceito porque foi desenvolvida com essa base. Racismo, sexismo, homofobia, classicismo, nacionalismo, preconceito religioso e xenofobia podem surgir nesse processo de análise de dados”, destaca André Miceli, coordenador do MBA de Marketing, Inteligência e Negócios Digitais da Fundação Getúlio Vargas (FGV).

Inteligência artificial e decisão

Segundo o coordenador do MBA da FGV,  os algoritmos enviesados dependem muito da configuração desenvolvida pelos humanos que os constroem. “Por isso é fundamental considerar o papel dos algoritmos na tomada de decisões, especialmente nos casos em que os algoritmos desempenham um papel fundamental na formação de um processo de decisão, mesmo quando a decisão final é feita por humanos”, argumenta Miceli .

Leia também: Zoop recebe investimento de R$ 60 milhões

Preconceitos estão atrelados a pressupostos humanos, ou seja, sempre pode haver um viés. “Os algoritmos são apenas automatizados. E se você não corrigir o viés, estaremos automatizando o preconceito. Portanto, a questão que devemos enfrentar é se continuaremos projetando e implantando ferramentas que levam a essa direção, visando atender a determinados propósitos. Se não queremos a tecnologia seja usada para perpetuar o racismo, devemos garantir que não conflitemos problemas sociais como crime, violência ou doença com negros e pardos, por exemplo. Quando fazemos isso, corremos o risco de transformar essas pessoas nos problemas que implantamos para nossa tecnologia resolver, na ameaça que projetamos para erradicar”, analisa.

Mudança de cenário

Existem maneiras de evitar que os algoritmos continuem sofrendo essa influência e, de certa forma, ampliando o preconceito. A inclusão de outros olhares no processo de programação é um caminho, com uma equipe mais inclusiva, traz abordagens diferentes e ajuda a identificar falhas nos sistemas antes que, de fato, se tornem um problema. Além, é claro, de outras mudanças estruturais. O primeiro passo a ser tomado é a mudança dos modelos matemáticos, para garantir que os usados são adequados a cada uma de suas funções; o segundo é a necessidade de um dataset que seja representativo, que não utilize sub conjuntos que reforçam os vieses da sociedade – quanto maior o volume de dados, melhor a avaliação que os algoritmos vão fazer; e por fim, o monitoramento constante e assertivo da performance com dados reais.

Recent Posts

Astra: novo projeto do Google quer ser “futuro dos assistentes de IA”

Não é nenhuma surpresa que novidades em inteligência artificial (IA) foram o principal tema do…

2 horas ago

Incidentes de segurança na nuvem aumentaram 154% em um ano

Houve um aumento crítico no número de empresas que relataram ter sofrido incidentes paralisantes de…

4 horas ago

Qual é o salário de um diretor de tecnologia? Pesquisa aponta regularidade

Após um período de intensas contratações, onde o foco predominante era nos conhecimentos técnicos, as…

4 horas ago

Falta alinhamento entre CISOs e conselhos quando o assunto é segurança

Um estudo divulgado recentemente pela Dynatrace indica que há um descompasso entre executivos C-Level e…

4 horas ago

Frank Abagnale: ‘A tecnologia gera crime. Sempre gerou. Sempre gerará’

Talvez o nome Frank Abagnale não te diga muita coisa. Mas é quase impossível que…

5 horas ago

Avaya adquire a Edify para avançar em soluções de experiência do cliente

Com o objetivo de expandir sua presença em soluções de experiência do cliente, a Avaya,…

10 horas ago