Colaboração entre AWS e Nvidia prevê supercomputador de IA na nuvem

AWS e Nvidia criarão o supercomputador com 16.384 superchips, processando 65 exaflops de IA

Author Photo
7:54 pm - 29 de novembro de 2023
Adam Selipsky, CEO da AWS, e Jensen Huang, CEO da Nvidia, durante o re Invent 2023 Adam Selipsky, CEO da AWS, e Jensen Huang, CEO da Nvidia, durante o re:Invent 2023 (Imagem Divulgação/AWS)

A Amazon Web Services (AWS) e a Nvidia anunciaram que estenderam sua colaboração estratégica para impulsionar a inovação em inteligência artificial (IA) generativa. A parceria apresenta o Nvidia  GH200 Grace Hopper Superchip na nuvem da AWS e o Projeto Ceiba, um supercomputador de IA que visa ser um dos mais rápidos impulsionados por GPU. Além disso, as empresas introduziram o Nvidia DGX Cloud na plataforma AWS, ampliando o treinamento de IA generativa.

O Nvidia GH200 Grace Hopper Superchip na nuvem da AWS traz a promessa de acesso a supercomputadores de IA na nuvem. De acordo com as empresas, “a plataforma estará disponível em instâncias da Amazon Elastic Compute Cloud (Amazon EC2) conectadas à rede da Amazon, suportadas pelo sistema de virtualização (AWS Nitro System) e clusters ultraescaláveis ​​(Amazon EC2 UltraClusters), permitindo que clientes escalonem para milhares de Superchips GH200.

Leia também: AWS lança Amazon Q, novo assistente de IA generativa para uso corporativo

Sob a alcunha Projeto Ceiba, a colaboração também inclui a criação de um supercomputador de IA. Este supercomputador será composto por uma infraestrutura de larga escala, integrando tecnologia GH200 NVL32 e interconexão Amazon EFA. Ele visa ser um dos mais rápidos supercomputadores impulsionados por GPU, com capacidade de processamento de 65 exaflops de IA.

O Projeto Ceiba é destinado a ser usado pela equipe de pesquisa e desenvolvimento da Nvidia para impulsionar a próxima onda de inovações em IA generativa.

Além disso, as duas se uniram para disponibilizar o Nvidia DGX Cloud, um serviço de treinamento de IA da Nvidia, na plataforma da AWS. Esta será a primeira instância DGX Cloud a incluir o GH200 NVL32, prometendo oferecer aos desenvolvedores a maior memória compartilhada em uma única instância. A parceria deve criar um impulso significativo ao treinamento de IA generativa avançada e modelos de linguagem de grande escala, capazes de ultrapassar 1 trilhão de parâmetros.

Com o lançamento das novas instâncias Amazon EC2 (P5e, G6, G6e) equipadas com GPUs Nvidia, a parceria também visa atender a crescente demanda por IA generativa, HPC avançado, design e simulação. Essas instâncias trazem uma promessa de capacidade de processamento de última geração para aplicações intensivas de IA. As G6e são ideais para desenvolver workflows 3D, gêmeos digitais e outras aplicações usando o Omniverse, plataforma de IA generativa em 3D.

Além do hardware, a oferta de software Nvidia na AWS, como o NeMo Retriever e BioNeMo, visa aprimorar o desenvolvimento de IA generativa, chatbots e descoberta de medicamentos. O serviço NeMo Retriever oferece novas ferramentas para criar chatbots precisos e sumarização acelerada. Enquanto o BioNeMo permite às empresas farmacêuticas acelerar a descoberta de medicamentos.

Em contrapartida, o software Nvidia na AWS também está ajudando a Amazon a inovar seus serviços. A AWS usa o NeMo para treinar LLMs e a Amazon Robotics usa o Omniverse Isaac para planejar armazéns autônomos.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Author Photo
Redação

A redação contempla textos de caráter informativo produzidos pela equipe de jornalistas do IT Forum.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.