IA cresce, mas 65% não sabem explicar decisões tomadas pela tecnologia

Maioria não sabe explicar critérios adotados por modelos de inteligência artificial, ou se eles são éticos, mostra pesquisa global da FICO

Author Photo
10:15 am - 15 de setembro de 2021
IA, inteligência artificial Imagem: Shutterstock

Apesar do aumento da adoção de ferramentas de inteligência artificial (IA), quase dois terços (65%) das organizações não conseguem explicar como as decisões ou previsões dos modelos que utilizam são feitas. O dado faz parte de um estudo produzido pela FICO, especialista em tecnologias preditivas, e tem como objetivo descobrir como a IA está sendo usada, e se de forma responsável.

O estudo – chamado “O estado da IA responsável: 2021” – foi feito com base em entrevistas com 100 líderes de grandes empresas globais, incluindo companhias brasileiras. E ela indicou que 39% dos membros de conselho (e 33% das equipes executivas) tem entendimento incompleto sobre ética da IA.

A maioria dos entrevistados (73%) afirmam que têm enfrentado dificuldades para obter suporte executivo para priorizar a ética e as práticas responsáveis de IA.

“[As empresas] não elevaram a importância de sua governança e da IA responsável para o nível da diretoria”, diz em comunicado Scott Zoldi, Chief Analytics Officer da FICO. “A liderança deve compreender essa questão e monitorar os modelos utilizados, de forma a garantir que as decisões sejam justas, transparentes e responsáveis”.

Critérios difusos

Cerca de metade (49%) dos executivos entrevistados relatou aumento nos recursos investidos em projetos de IA nos último ano. E apenas 39% afirmam que estão investindo em governança durante o processo de desenvolvimento, enquanto 33% dizem que estão prestando pouca atenção ao monitoramento e manutenção dos modelos em produção.

Não há consenso entre os executivos sobre quais devem ser as responsabilidades de uma empresa quando se trata de IA, de acordo com o estudo. A maioria dos entrevistados (55%) concorda que os sistemas de IA para ingestão de dados devem atender aos padrões éticos básicos e que os sistemas usados para operações de back-office também devem ser explicáveis.

Porém, quase metade dos entrevistados (43%) dizem que não têm responsabilidades além de cumprir a conformidade regulamentar para gerenciar eticamente os sistemas de IA. Apenas um quinto dos entrevistados (20%) monitora ativamente seus modelos de IA em termos de justiça e ética, enquanto somente 22% afirmam que sua organização tem um conselho para avaliar essas questões.

Um em cada três (33%) tem uma equipe de validação para avaliar os modelos recém-desenvolvidos e apenas 38% dizem que têm etapas de mitigação de viés de dados incorporadas aos processos de desenvolvimento.

Falta de processos

Em termos de visão de futuro, a grande maioria (90%) concorda que processos ineficientes para monitoramento de modelos representam uma barreira para a adoção de IA. E quase dois terços (63%) acreditam que a IA ética e a IA responsável se tornarão um elemento central da estratégia de sua organização dentro de dois anos.

“Líderes seniores e os conselhos precisam estar cientes dos riscos associados à tecnologia e das melhores práticas para mitigá-los de forma proativa. A IA tem o poder de transformar o mundo, mas como diz o ditado popular – quanto maior o poder, maior a responsabilidade”, diz Zoldi.

O estudo da FICO foi realizado entre fevereiro e março de 2021, com base em entrevistas com 100 líderes de empresas com receitas anuais acima de US$ 100 milhões. Todos os entrevistados possuíam cargos C-Level, incluindo vice-presidente de dados, vice-presidente de analíticos, vice-presidente de dados e analíticos e vice-presidente de IA.

É possível baixar o estudo nesse link.

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.