“A má qualidade dos dados ainda é um desafio para quem implementa IA”, diz Kunal Anand, CTO da F5

Segundo estudo da F5, embora 75% das empresas estejam implementando IA, 72% possuem problemas em relação à qualidade de dados e escalabilidade

Author Photo
3:09 pm - 17 de junho de 2024
F5 Revolution World 2024. Foto: divulgação

Na conferência anual da F5 realizada em Tulum, México, Kunal Anand, CTO da companhia, abordou a adoção da inteligência artificial (IA) pelas empresas e destacou a importância de uma implementação segura e responsável dessas tecnologias. 

Em uma entrevista exclusiva ao IT Forum, Anand discorreu sobre os dados do relatório divulgado pela empresa, que discute como as organizações estão utilizando Inteligência Artificial. 

O 2024 State of Artificial Intelligence Application Strategy Report foi baseado em entrevistas com 700 líderes de tecnologia de todo o mundo, incluindo 25 do Brasil. O estudo revela que, embora 75% das empresas estejam implementando IA, 72% relatam problemas significativos em relação à qualidade de dados e uma incapacidade para escalar práticas de dados. 

“A IA é uma força disruptiva, que capacita as empresas a criar experiências digitais inovadoras e singulares. É importante considerar, no entanto, que as questões práticas da implementação de IA são muito complexas. Sem uma abordagem adequada e segura, o uso de IA pode ampliar significantemente a postura de risco de uma organização”, disse Anand.  

IA generativa: entre a promessa e a realidade 

De acordo com o relatório, organizações demonstram um entusiasmo crescente pelo impacto da IA generativa nos negócios, destacando-a como a tendência tecnológica mais procurada de 2024, conforme mencionado por entrevistados. No entanto, apesar desse otimismo, apenas uma minoria – 24% das organizações – afirma ter implementado efetivamente a IA generativa em escala. 

Anand, ao analisar esse cenário, ressalta que muitas empresas ainda estão nos estágios iniciais de implementação da IA e enfrentam ou enfrentarão desafios por não considerarem todos os fatores de impacto na companhia. “Muitas pessoas estão correndo para implementar IA, mas não têm bases concretos”, afirmou. Ele ressaltou que a qualidade dos dados é uma preocupação crítica que precisa ser abordada de maneira responsável e eficaz. 

Leia também: “O crime cibernético é a terceira maior economia do mundo”, afirma Chad Whalen, da F5  

Além disso, a segurança também é um fator crítico e pouco observado nesse processo, afirma o executivo. “As empresas não estão pensando corretamente na segurança. Como você protege toda essa IA? Como você garante que está usando essas ferramentas de IA de maneira responsável?”, questiona. Para ele, muitas organizações precisam traçar um plano para descobrir uma maneira adequada de inserir a tecnologia. 

Para esse planejamento, um dos pontos destacados pelo CTO é a importância de estabelecer políticas para a implementação da IA. “É essencial garantir que apenas pessoas autorizadas ou determinadas aplicações tenham acesso aos sistemas de IA”, afirmou, alegando ser uma medida crucial para mitigar riscos de segurança. 

IA em funções estratégicas 

Embora o uso da IA generativa esteja em ascensão, é comum observar que muitos dos casos de uso atualmente implementados atendem a funções menos estratégicas nas empresas. No estudo, os exemplos mais citados incluem o uso de copilotos e outras ferramentas de produtividade para funcionários, utilizadas por 40% dos entrevistados, seguidas por ferramentas de atendimento ao cliente, como chatbots (36%).

Além disso, ferramentas para automação de fluxo de trabalho foram mencionadas como o caso de uso de IA de maior prioridade, também com 36% de adoção entre os entrevistados. 

Para Anand, usar inteligência artificial para funções menos estratégicas é subestimar o poder da tecnologia. Segundo o executivo, a IA pode e deve ser utilizada para resolver tarefas complexas de forma eficiente. 

Como exemplo disso, ele mencionou que a F5 está investindo em sua AI Data Fabric, uma nova plataforma de dados para criar e treinar modelos que ajudam os clientes a construir regras e políticas de segurança mais facilmente. Um dos principais objetivos é democratizar o uso de IA, permitindo que mesmo aqueles sem conhecimentos profundos de programação possam desenvolver políticas de segurança eficazes. 

“Nossa plataforma oferece uma coleção de serviços projetados para ajudar a gerar insights a partir de grandes quantidades de dados de produtos em todo o nosso portfólio. A partir desses dados, podemos entregar relatórios e análises, ou até mesmo treinar e implantar modelos de aprendizado de máquina para executar inferência para proteger e otimizar melhor os aplicativos”, afirma.

“Treinar modelos de aprendizagem supervisionada requer muitos dados que precisam ser rotulados. Encontrar dados bons e rotulados é um desafio, e rotulá-los corretamente pode levar semanas de trabalho, o que não garante uma rapidez para acompanhar um cenário de ameaças em constante mudança. Para sanar esse problema, nós criamos o AI Data Fabric”, completa. 

*a jornalista viajou ao México a convite da empresa

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias! 

Author Photo
Pamela Sousa

Redatora no IT Forum, é graduada em Jornalismo pela Universidade Federal de Santa Maria, RS. Com 2 anos de experiência em produção de conteúdo, concentra-se na elaboração de reportagens e artigos jornalísticos.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.