Google Cloud e Nvidia expandem parceria com foco em IA generativa

GenAI da Nvidia usada pelo Google DeepMind e pelas equipes de pesquisa do Google foi otimizada e já está disponível para clientes

Author Photo
6:13 pm - 01 de setembro de 2023
Os CEOs do Google Cloud e da Nvidia. Foto: Divulgação

O Google Cloud e a Nvidia anunciaram que estão expandindo sua parceria com foco em serviços de Inteligência Artificial (IA). Com o acordo, as empresas revelaram uma nova infraestrutura e software de IA para os clientes criarem e implantarem modelos massivos para IA generativa e acelerarem cargas de trabalho de ciência de dados.

“O Google Cloud tem um longo histórico em IA para promover e acelerar a inovação para nossos clientes”, comentou o CEO do Google Cloud, Thomas Kurian, durante bate-papo com o fundador e CEO da Nvidia, Jensen Huang, no Google Cloud Next. “Muitos dos produtos do Google são desenvolvidos e servidos em GPUs Nvidia, e muitos de nossos clientes estão buscando a computação acelerada para potencializar o desenvolvimento eficiente de LLMs para avançar na IA generativa”, acrescentou.

Com a parceria entre duas gigantes do setor, a expectativa é facilitar a execução e implementação de supercomputadores de IA com ofertas do Google Cloud baseadas em soluções da Nvidia. As novas integrações de hardware e software utilizam as mesmas tecnologias empregadas nos últimos dois anos pelo Google DeepMind e pelas equipes de pesquisa do Google.

“Estamos num ponto de inflexão em que a computação acelerada e a IA generativa se uniram para agilizar a inovação a um ritmo sem precedentes”, afirma Huang. “Nossa colaboração, ampliada com o Google Cloud, ajudará os desenvolvedores a acelerar seu trabalho com infraestrutura, software e serviços que potencializam a eficiência energética e reduzem custos.”

Veja também: Cisco e Nutanix firmam parceria global em multicloud híbrida

Kurian lembrou ainda que muitos dos produtos do Google são desenvolvidos e servidos em GPUs Nvidia, com muitos dos clientes da companhia buscando a computação acelerada da Nvidia para potencializar o desenvolvimento eficiente de LLMs para avançar na IA generativa.

Com o anúncio, a estrutura do Google para a construção de grandes modelos de linguagem (LLMs), PaxML, passa a estar otimizada para computação acelerada Nvidia. O PaxML foi originalmente desenvolvido para abranger várias fatias do acelerador Google TPU. Agora, ele permite que os desenvolvedores usem GPUs Nvidia H100 e A100 Tensor Core para experimentação e escalabilidade avançadas configuráveis.

Segundo as empresas, o contêiner PaxML otimizado para GPU já está disponível no catálogo de software NGC. Além disso, o PaxML é executado em JAX, que foi otimizado para GPUs que utilizam o compilador OpenXLA.

O Google DeepMind e outros pesquisadores do Google estão entre os primeiros a usar PaxML com GPUs para pesquisas exploratórias.

Segundo anúncio do Google Cloud e Nvidia, o contêiner otimizado para PaxML da Nvidia estará disponível imediatamente no registro de contêiner NVIDIA NGC para pesquisadores, startups e empresas em todo o mundo que estão construindo a próxima geração de aplicações baseadas em IA.

Além disso, as empresas anunciaram a integração do serverless Spark do Google com GPUs NVIDIA por meio do serviço Google’s Dataproc. Isso ajudará os cientistas de dados a acelerarem as cargas de trabalho do Apache Spark para preparar dados para o desenvolvimento de IA.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Author Photo
Redação

A redação contempla textos de caráter informativo produzidos pela equipe de jornalistas do IT Forum.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.