Nvidia divulga resultado de benchmarking da nova arquitetura Blackwell
Marcas obtidas na plataforma MLPerf mostram redução de necessidade de recursos para treinar IA usando nova arquitetura da empresa
Em comunicado enviado à imprensa nessa quarta-feira (13), a Nvidia divulgou alguns benchmarks da Blackwell, plataforma anunciada em março desse ano e cujo maior objetivo é rodar algoritmos de IA com mais velocidade e eficiência em data centers e grandes infraestruturas. A promessa da empresa é que a tecnologia acelere o desempenho de aplicações de IA generativa, inclusive no treinamento de grandes modelos de linguagem.
Os benchmarks divulgados usam a MLPerf Training 4.1, específica para medir a rapidez com que sistemas podem treinar modelos. Segundo a Nvidia, a Blackwell apresentou resultados “impressionantes” em cargas de trabalho em todos os testes – até 2,2x mais desempenho por GPU em benchmarks para grandes modelos, incluindo Llama 2 70B (da Meta) e GPT-3 175B (OpenAI).
Leia também: Visa usa ciências de dados para aprimorar programa de benefícios
É o primeiro envio de treinamento da plataforma Blackwell para o MLCommons Consortium, criadora da MLPerf. O consórcio cria testes padronizados e revisados por pares para indústrias do setor.
“Esse resultado reafirma o compromisso que a NVIDIA tem em oferecer uma plataforma de computação acelerada e com alto desempenho, que atende diversas demandas com precisão. Nosso trabalho permite que clientes e parceiros aproveitem ao máximo toda tecnologia disponível em nossa plataforma”, diz em comunicado Marcio Aguiar, diretor da divisão Enterprise da Nvidia para a América Latina.
Mais resultados
Segundo a Nvidia, a arquitetura da Blackwell inclui novos kernels que fazem uso mais eficiente dos Tensor Cores, como a empresa chama os núcleos de processamento específicos para IA. Kernels são operações matemáticas criadas para fins específicos, como multiplicações de matrizes, que estão no centro de muitos algoritmos de deep learning.
A maior taxa de transferência de computação por GPU da Blackwell e a memória de alta largura de banda prometem usar menos GPUs por carga. Aproveitando a memória HBM3e, 64 GPUs Blackwell foram executadas no benchmark GPT-3 LLM sem comprometer o desempenho por GPU, segundo os testes. O mesmo benchmark usando o Hopper (arquitetura anterior da empresa) precisou de 256 GPUs para o mesmo desempenho.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!