HPE anuncia solução para acelerar o treinamento de modelos de IA
Lançada em parceria com a Nvidia, solução da HPE estará diponível a partir de dezembro
A Hewlett Packard Enterprise (HPE) anunciou uma solução de supercomputação projetada para permitir que grandes empresas, instituições de pesquisa e organizações governamentais acelerem o treinamento e ajustes de modelos de IA usando conjuntos de dados privados. Segundo a companhia, a solução deve acelerar o treinamento de modelos de dois a três vezes.
A solução utiliza chips Nvidia Grace Hopper GH200 e é integrada à tecnologia de supercomputação HPE Cray, baseada na mesma arquitetura usada no supercomputador Frontier, da HPE. Ela compreende um conjunto de software que permite aos clientes treinar e ajustar modelos, bem como desenvolver aplicativos de IA. A solução também inclui supercomputadores refrigerados a líquido, computação acelerada, redes, armazenamento e serviços para ajudar as organizações a desbloquear o valor da IA de maneira mais rápida.
Leia também: IA inagura nova era de modernização de dados e infraestrutura, diz Nutanix
“As principais empresas e centros de pesquisa do mundo estão treinando e ajustando modelos de IA para impulsionar a inovação e desbloquear avanços na pesquisa, mas, para fazer isso de forma eficaz e eficiente, eles precisam de soluções específicas,” disse Justin Hotard, vice-presidente executivo e gerente geral de HPC, IA e Laboratórios da HPE.
“Para dar suporte à IA generativa, as organizações precisam aproveitar soluções sustentáveis e que ofereçam o desempenho dedicado e a escala de um supercomputador para dar suporte ao treinamento de modelos de IA. Estamos empolgados em expandir nossa colaboração com a Nvidia para oferecer uma solução de IA nativa pronta para uso que ajudará nossos clientes a acelerar significativamente o treinamento de modelos de IA e os resultados obtidos”, completou.
A solução de supercomputação para IA generativa estará disponível globalmente em dezembro em mais de 30 países.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!