Integrity Forum 2024: o futuro das empresas em meio a IA responsável

Evento da Quality Digital, em parceria com a Diligent, discutiu a transformação do cenário empresarial através de IA responsável

Author Photo
12:09 pm - 28 de maio de 2024
Cássio Pantaleoni durante o Integrity Forum 2024. Imagem: Natan Lima.

O Integrity Forum 2024, realizado pela Quality Digital em parceria com a Diligent trouxe à tona discussões sobre o crescimento do ESGRC (meio ambiente, sociedade, governança e riscos corporativos) e os desafios e oportunidades proporcionados pela digitalização e governança no cenário empresarial atual. 

O evento contou com a palestra de Cassio Pantaleoni, escritor do livro “Humanamente Digital: Inteligência Artificial Centrada no Humano” e responsável pela nova unidade de negócios de Inteligência Artificial da Quality Digital. Ele trouxe a palestra “GRC & AI Responsável – Impactos e Possibilidades”, onde abordou IA sob as perspectivas de inovação, regulamentação e governança. 

Leia também: A contribuição da Inteligência Artificial para ações de ESG no Brasil  

A palestra trouxe à tona uma série de questões críticas sobre o papel do ser humano no desenvolvimento e na aplicação de tecnologias avançadas. Desde a discriminação de gênero até a segurança e ética, o executivo sublinhou a importância de colocar o ser humano no centro da IA. 

O risco dos vieses 

“Há um primeiro risco associado aos dados” afirmou Pantaleoni, destacando que a IA pode perpetuar vieses presentes nos dados. Como exemplo, ele usou a área de recrutamento e seleção. Ao treinar uma IA com dados de todos os currículos já enviados para uma empresa, é evidente que existe uma categorização de pessoas como identificando-se com o gênero masculino ou feminino. “Qual a possibilidade da IA escolher um currículo de uma pessoa que não se identifica com nenhum dos gêneros? Isso cria um risco reputacional violento”. alertou.  

O problema não está apenas nos dados, mas também nos algoritmos. “Um algoritmo é uma função matemática com um objetivo específico” disse o executivo. Ele deu o exemplo de um algoritmo prescrevendo uma curva de uso para um evento, enfatizando a necessidade de precisão, mas também alertando sobre os perigos de ajustar os algoritmos para funcionar melhor sem considerar os impactos. “Se houver um viés no algoritmo, ele pode produzir resultados inesperados e indesejados” acrescentou. 

Pantaleoni citou um exemplo notório de viés em IA: o reconhecimento de imagens do Google que, em certo momento, categorizou erroneamente pessoas afrodescendentes como macacos. “Esse é o risco de um viés minúsculo nos dados” disse o palestrante. Ele destacou a importância de treinar continuamente os algoritmos para evitar tais erros, além de entender a necessidade de um time diverso nesse treinamento, para que não se perpetue a ideia eurocêntrica e americanizada na IA. 

Regulamentações globais 

Tendo a preocupação relacionada à segurança dos dados, existe a necessidade de regulamentações envolvendo a tecnologia, Cassio Pantaleoni afirma que “estamos vendo um movimento global para regulamentar a IA, com cada proposta adaptada à necessidade da sua própria região”. Ele mencionou iniciativas nos Estados Unidos, China e União Europeia como exemplo de regulamentações que se adequam às necessidades da sociedade.

China: estabilidade social e valores éticos 

A China foi uma das primeiras nações a implementar uma legislação específica para IA, focada na IA generativa. Em agosto de 2023, o governo chinês lançou uma lei que estabelece diretrizes para o desenvolvimento e uso da IA alinhando-se com os valores socialistas e priorizando a segurança nacional e a estabilidade social. 

A legislação chinesa exige que todos os produtos de IA generativa incluam uma marcação clara indicando que foram gerados por IA, como medida contra a disseminação de desinformação. Além disso, há um forte enfoque na ética e na moralidade, com diretrizes para evitar discriminação e proteger o bem-estar físico e psicológico dos cidadãos. Como foi destacado na palestra, “a China adota uma abordagem centralizada e rigorosa para regulamentar a IA refletindo seu compromisso com a segurança nacional e a coesão social”. 

Estados Unidos: foco na oportunidade 

Nos Estados Unidos, a abordagem à regulamentação da IA é marcada pela ênfase na segurança e na capacitação da força de trabalho. Em outubro de 2023, o presidente Joe Biden emitiu uma ordem executiva que delineia estratégias claras para a implementação segura da IA. Essa ordem inclui a criação de seis centros de testes de segurança para avaliar o uso da IA em diferentes setores, como saúde e educação. 

Um aspecto notável da legislação dos EUA é a preocupação com a capacitação da força de trabalho. Reconhecendo a inevitável substituição de empregos devido à automação, a legislação visa preparar a população para essa transição, promovendo programas de requalificação e educação contínua. Como destacou a palestra, “é essencial que a regulamentação da IA nos EUA promova não apenas a segurança e a inovação, mas também a capacitação da força de trabalho para enfrentar os desafios de uma economia em rápida transformação”. 

União Europeia: transparência e proteção de dados 

A União Europeia tem adotado uma abordagem rigorosa e abrangente para regulamentar a IA. Em dezembro de 2023, a UE aprovou a Lei de IA, que é uma extensão das suas já robustas políticas de proteção de dados, como o Regulamento Geral de Proteção de Dados (GDPR). A nova legislação visa garantir que os sistemas de IA sejam desenvolvidos e utilizados de forma ética e transparente. 

A lei da UE exige que todas as IAs sejam classificadas de acordo com o risco que representam. Sistemas considerados de alto risco, como aqueles utilizados em saúde, transporte e justiça, estão sujeitos a requisitos rigorosos de avaliação e monitoramento. Além disso, a lei exige que as empresas forneçam informações claras sobre como os dados são utilizados e implementem medidas para evitar vieses discriminatórios. Durante a palestra, foi ressaltado que “a UE tem como prioridade assegurar que a IA seja utilizada de forma justa e transparente, garantindo a proteção dos direitos dos cidadãos”. 

O futuro da IA 

Com toda a preocupação sobre a Inteligência Artificial segura e responsável, o palestrante destacou que a IA está inadvertidamente recolocando o ser humano no centro das discussões éticas e morais. Exemplos como o “Paradoxo do Prédio em Chamas” ilustraram os dilemas éticos que a IA não pode resolver sozinha, destacando a necessidade de uma abordagem que combine tecnologia com princípios éticos sólidos. 

Pantaleoni concluiu com um apelo para uma governança responsável da IA, integrando riscos, conformidade e a participação ativa de todas as áreas da organização, enfatizando que, apesar dos avanços tecnológicos, o papel humano continua sendo insubstituível. 

“Ao incorporar princípios de transparência, equidade e prestação de contas na implementação de sistemas de IA, as empresas podem mitigar riscos e maximizar oportunidades. Isso não só fortalece a confiança dos stakeholders, mas também impulsiona a inovação responsável. Ao adotar uma abordagem holística que considera não apenas os aspectos técnicos, mas também os impactos sociais e éticos, as organizações podem aproveitar ao máximo o potencial transformador da IA enquanto mitigam riscos e garantem a conformidade com regulamentações em constante evolução”, finaliza. 

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias! 

Author Photo
Pamela Sousa

Redatora no IT Forum, é graduada em Jornalismo pela Universidade Federal de Santa Maria, RS. Com 2 anos de experiência em produção de conteúdo, concentra-se na elaboração de reportagens e artigos jornalísticos.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.