Diego Puerta: ‘Vemos esforço para construir e gerar valor com IA generativa’

Para a Dell, tecnologia não é apenas um assunto de TI, mas de C-Levels

Author Photo
11:14 am - 02 de fevereiro de 2024
Diego Puerta, presidente da Dell Technologies Brasil. Foto: Divulgação

O último ano foi marcado pela curiosidade em torno da IA generativa. Entretanto, para Diego Puerta, presidente da Dell Brasil, 2024 será diferente, com as empresas começando a sua jornada. “Aquilo que víamos de tentar entender o impacto da tecnologia, hoje vemos o esforço para construir e gerar valor com IA generativa.”

Além disso, o executivo cita a importância do olhar para a tendência ao dizer que esse não é um assunto apenas na mesa do time de Tecnologia da Informação. Segundo ele, esse é um ciclo que está na discussão dos C-Levels e dos donos das companhias, que buscam entender a IA generativa.

Leia mais: 97% dos CIOs do Brasil pretendem gastar mais com ferramentas de IA em 2024, aponta estudo

“Estamos discutindo com um grande número de clientes a melhor aplicação da IA generativa em seus negócios”, comentou o executivo, citando que a Dell está conversando com empresas de setores como finanças, agronegócio, varejo, logística e provedores de serviços.

Em evento realizado para a imprensa, Ana Cristina Oliveira, diretora do Dell Research, complementa a visão de Puerta ao dizer que a empresa já estava estudando IA generativa há algum tempo, mas que não esperava a popularização “da noite para o dia”, principalmente com o ChatGPT. Mas, para ela, três motivadores ajudam a deixar a IA generativa no hype: a criatividade, a acessibilidade e os usos inovadores da tecnologia.

Entretanto, ainda há diversos desafios. Ana cita alguns deles:

  • Confiantenente errados: a prioridade é soar correto, não ser correto. Verificações especializadas podem ser necessárias.
  • Falsas expectativas: podemos esperar mais dele do que ele pode proporcionar. Sistemas derivados construídos sobre ele podem se tornar não confiáveis.
  • Viés: pode reforçar estereótipos ou produzir instruções prejudiciais.
  • Privacidade de dados: poucas empresas privadas têm meios para construir tais sistemas. Portanto, todos os dados de uso são controlados por eles.

Por fim, a especialista cita uma alternativa para as empresas que querem testar modelos, mas querem diminuir os perigos da proteção de dados e das ‘alucinações’ da IA. O RAG (Retrieval-Augmented Generation, ou Geração Aumentada de Recuperação) permite otimizar o resultado de um LLM com informações direcionadas, sem modificar o próprio modelo subjacente. Ou seja, a companhia não precisa investir em um novo modelo de linguagem, economizando tempo e investimento, mas tem o controle do que a ferramenta aprenderá e com quais dados.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Author Photo
Laura Martins

Editora do IT Forum. Jornalista com mais de dez anos de atuação na cobertura de tecnologia. É a quarta jornalista de tecnologia mais admirada no Brasil, pelo prêmio “Os +Admirados da Imprensa de Tecnologia 2022” e tem a experiência de contribuições para o The Verge.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.