Google Cloud e Nvidia expandem parceria com foco em IA generativa
GenAI da Nvidia usada pelo Google DeepMind e pelas equipes de pesquisa do Google foi otimizada e já está disponível para clientes
O Google Cloud e a Nvidia anunciaram que estão expandindo sua parceria com foco em serviços de Inteligência Artificial (IA). Com o acordo, as empresas revelaram uma nova infraestrutura e software de IA para os clientes criarem e implantarem modelos massivos para IA generativa e acelerarem cargas de trabalho de ciência de dados.
“O Google Cloud tem um longo histórico em IA para promover e acelerar a inovação para nossos clientes”, comentou o CEO do Google Cloud, Thomas Kurian, durante bate-papo com o fundador e CEO da Nvidia, Jensen Huang, no Google Cloud Next. “Muitos dos produtos do Google são desenvolvidos e servidos em GPUs Nvidia, e muitos de nossos clientes estão buscando a computação acelerada para potencializar o desenvolvimento eficiente de LLMs para avançar na IA generativa”, acrescentou.
Com a parceria entre duas gigantes do setor, a expectativa é facilitar a execução e implementação de supercomputadores de IA com ofertas do Google Cloud baseadas em soluções da Nvidia. As novas integrações de hardware e software utilizam as mesmas tecnologias empregadas nos últimos dois anos pelo Google DeepMind e pelas equipes de pesquisa do Google.
“Estamos num ponto de inflexão em que a computação acelerada e a IA generativa se uniram para agilizar a inovação a um ritmo sem precedentes”, afirma Huang. “Nossa colaboração, ampliada com o Google Cloud, ajudará os desenvolvedores a acelerar seu trabalho com infraestrutura, software e serviços que potencializam a eficiência energética e reduzem custos.”
Veja também: Cisco e Nutanix firmam parceria global em multicloud híbrida
Kurian lembrou ainda que muitos dos produtos do Google são desenvolvidos e servidos em GPUs Nvidia, com muitos dos clientes da companhia buscando a computação acelerada da Nvidia para potencializar o desenvolvimento eficiente de LLMs para avançar na IA generativa.
Com o anúncio, a estrutura do Google para a construção de grandes modelos de linguagem (LLMs), PaxML, passa a estar otimizada para computação acelerada Nvidia. O PaxML foi originalmente desenvolvido para abranger várias fatias do acelerador Google TPU. Agora, ele permite que os desenvolvedores usem GPUs Nvidia H100 e A100 Tensor Core para experimentação e escalabilidade avançadas configuráveis.
Segundo as empresas, o contêiner PaxML otimizado para GPU já está disponível no catálogo de software NGC. Além disso, o PaxML é executado em JAX, que foi otimizado para GPUs que utilizam o compilador OpenXLA.
O Google DeepMind e outros pesquisadores do Google estão entre os primeiros a usar PaxML com GPUs para pesquisas exploratórias.
Segundo anúncio do Google Cloud e Nvidia, o contêiner otimizado para PaxML da Nvidia estará disponível imediatamente no registro de contêiner NVIDIA NGC para pesquisadores, startups e empresas em todo o mundo que estão construindo a próxima geração de aplicações baseadas em IA.
Além disso, as empresas anunciaram a integração do serverless Spark do Google com GPUs NVIDIA por meio do serviço Google’s Dataproc. Isso ajudará os cientistas de dados a acelerarem as cargas de trabalho do Apache Spark para preparar dados para o desenvolvimento de IA.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!