IA cresce, mas 65% não sabem explicar decisões tomadas pela tecnologia
Maioria não sabe explicar critérios adotados por modelos de inteligência artificial, ou se eles são éticos, mostra pesquisa global da FICO

Apesar do aumento da adoção de ferramentas
de inteligência artificial (IA), quase dois terços (65%) das
organizações não conseguem explicar como as decisões ou previsões dos modelos que
utilizam são feitas. O dado faz parte de um estudo produzido pela FICO,
especialista em tecnologias preditivas, e tem como objetivo descobrir como a IA
está sendo usada, e se de forma responsável.
O estudo – chamado “O estado da IA responsável: 2021” – foi feito com base em entrevistas com 100 líderes de grandes empresas globais, incluindo companhias brasileiras. E ela indicou que 39% dos membros de conselho (e 33% das equipes executivas) tem entendimento incompleto sobre ética da IA.
A maioria dos entrevistados (73%)
afirmam que têm enfrentado dificuldades para obter suporte executivo para
priorizar a ética e as práticas responsáveis de IA.
“[As empresas] não elevaram a
importância de sua governança e da IA responsável para o nível da diretoria”, diz
em comunicado Scott Zoldi, Chief Analytics Officer da FICO. “A liderança
deve compreender essa questão e monitorar os modelos utilizados, de forma a
garantir que as decisões sejam justas, transparentes e responsáveis”.
Critérios difusos
Cerca de metade (49%) dos
executivos entrevistados relatou aumento nos recursos investidos em projetos de
IA nos último ano. E apenas 39% afirmam que estão investindo em governança durante
o processo de desenvolvimento, enquanto 33% dizem que estão prestando pouca
atenção ao monitoramento e manutenção dos modelos em produção.
Não há consenso entre os
executivos sobre quais devem ser as responsabilidades de uma empresa quando se
trata de IA, de acordo com o estudo. A maioria dos entrevistados (55%) concorda
que os sistemas de IA para ingestão de dados devem atender aos padrões éticos
básicos e que os sistemas usados para operações de back-office também devem ser
explicáveis.
Porém, quase metade dos
entrevistados (43%) dizem que não têm responsabilidades além de cumprir a
conformidade regulamentar para gerenciar eticamente os sistemas de IA. Apenas
um quinto dos entrevistados (20%) monitora ativamente seus modelos de IA em
termos de justiça e ética, enquanto somente 22% afirmam que sua organização tem
um conselho para avaliar essas questões.
Um em cada três (33%) tem uma
equipe de validação para avaliar os modelos recém-desenvolvidos e apenas 38%
dizem que têm etapas de mitigação de viés de dados incorporadas aos processos
de desenvolvimento.
Falta de processos
Em termos de visão de futuro, a
grande maioria (90%) concorda que processos ineficientes para monitoramento de
modelos representam uma barreira para a adoção de IA. E quase dois terços (63%)
acreditam que a IA ética e a IA responsável se tornarão um elemento central da
estratégia de sua organização dentro de dois anos.
“Líderes seniores e os conselhos
precisam estar cientes dos riscos associados à tecnologia e das melhores
práticas para mitigá-los de forma proativa. A IA tem o poder de transformar o
mundo, mas como diz o ditado popular – quanto maior o poder, maior a
responsabilidade”, diz Zoldi.
O estudo da FICO foi realizado
entre fevereiro e março de 2021, com base em entrevistas com 100 líderes de empresas
com receitas anuais acima de US$ 100 milhões. Todos os entrevistados possuíam
cargos C-Level, incluindo vice-presidente de dados, vice-presidente de
analíticos, vice-presidente de dados e analíticos e vice-presidente de IA.
É possível baixar o estudo nesse link.