Maioria das empresas no mundo está despreparada para regulações em IA

Para o BCG, desenvolver programa de inteligência artificial responsável é melhor forma para se preparar para o futuro da IA

Author Photo
10:23 am - 09 de junho de 2023
Imagem: Shutterstock

O uso da inteligência artificial nas empresas está crescendo de forma exponencial. Entretanto, em um cenário onde se discute cada vez mais a necessidade de regulamentação da tecnologia, um novo estudo do Boston Consulting Group (BCG) indica que a grande maioria das empresas não está preparada para esse futuro: apenas 28% dos 2.700 líderes globais entrevistados afirmaram estar totalmente prontos para as leis e regulações que estão por vir.

Para o BCG, desenvolver um programa de inteligência artificial responsável (RAI, na sigla em inglês) é a melhor maneira de preparar o mercado para o futuro da IA. O programa busca garantir o uso ético da tecnologia, considerando seu impacto nos negócios e nas pessoas, e facilitar a governança dos sistemas.

“Um programa de RAI deve se basear em princípios como responsabilidade, transparência, privacidade e segurança. Dessa forma, há uma diretriz clara para o desenvolvimento e implementação equitativa e inclusiva de algoritmos. Essa estrutura é benéfica tanto para os criadores quanto para os usuários de inteligência artificial, preparando ambos para possíveis regulamentações futuras”, destaca o BCG em seu estudo.

Leia também: Privacidade já levou maioria dos brasileiros a desinstalarem algum app

Henrique Sinatura, diretor executivo e sócio do BCG, acrescenta que um programa de IA responsável deve ser visto como um mecanismo de inovação. Ele “aprimora o desempenho da tecnologia e estabelece ciclos de melhorias e de revisão, que ajudam a prevenir falhas ao levantar preocupações que envolvem a tecnologia. Empresas que compreenderem esse conceito e tratarem as regulamentações como oportunidade, em vez de um obstáculo, podem se destacar no mercado”, explica.

Os negócios com maior maturidade digital são mais propícios a desenvolverem um programa de RAI. Entretanto, o BCG ressalta que a iniciativa pode levar cerca de três anos para fazer um progresso significativo, por isso exige esforço e comprometimento. Porém essa dedicação traz vantagens: a inteligência artificial responsável ajuda as empresas a dimensionarem seus investimentos de IA, a identificar e corrigir problemas de forma antecipada, e a aumentar a adoção da tecnologia por clientes e colaboradores, ao mesmo tempo em que minimiza falhas.

“Nossa pesquisa mostrou que companhias mais maduras digitalmente têm quase seis vezes mais chances de estarem preparadas para a regulamentação da IA. Notamos, também, que os setores de telecomunicações, tecnologia e consumo estão na frente dos demais em termos de preparação, mostrando que a ferramenta pode colaborar, e muito, com o relacionamento e jornada do consumidor”, aponta Sinatura.

Princípios da IA responsável

Entre as empresas que desenvolveram um programa de IA responsável bem-sucedido, há cinco princípios em comum identificados pelo estudo. São eles:

Liderança de RAI emponderada: os líderes de um projeto de RAI precisam desempenhar um papel crítico na manutenção das iniciativas no caminho certo. Para terem sucesso, eles ainda precisam ser colaborativos e devem contar com uma equipe multifuncional para projetar e liderar programas RAI, incluindo as unidades de negócios, bem como os departamentos jurídico, de RH, de TI e de marketing.

Construir e fomentar uma estrutura ética de IA: no centro da RAI está um conjunto de princípios e políticas que devem ser incorporados à cultura e às políticas da empresa. Isso estabelece uma base que faz com que seja mais fácil a empresa se adaptar caso surjam regulamentações específicas, pois ela já pratica esses princípios. Assim, mitiga o risco de prejudicar metas e investimentos.

Humanos na IA: a maioria dos regulamentos de IA atuais e que estão sendo propostos exigem uma forte governança humana, o que se alinha com um princípio central da RAI: envolvimento humano em processos e plataformas de inteligência artificial.

Ferramentas e métodos para revisão: a IA responsável abrange o ciclo de vida de um sistema de inteligência artificial e a sua meta é detectar e resolver problemas o quanto antes, além de manter a atenção aos riscos durante e após seu lançamento. O primeiro passo para isso é garantir a revisão constante de que os princípios básicos do RAI, como transparência e inclusão, estejam integrados nos processos para construir e trabalhar com algoritmos.

Participar do ecossistema de RAI: na pesquisa do BCG foi apontado que quase 90% das empresas contribuem ativamente para um grupo de trabalho de inteligência artificial responsável. Essa é uma estratégia válida que promove a colaboração e o compartilhamento de informações, o que pode ajudar direcionar o desenvolvimento das melhores práticas nos projetos.

“Usar a inteligência artificial com responsabilidade é, de certa forma, criar valor com ela. A incerteza que temos sobre o escopo dos regulamentos que estão por vir não pode ser um fator para impedir o desenvolvimento de um programa de uso da tecnologia de forma responsável. Quem começar agora a trabalhar na RAI conseguirá ajudar a moldar o futuro da IA”, finaliza Sinatura.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.