A Nvidia e a Microsoft anunciam a produção de um novo acelerador de GPU (unidade de processamento gráfico) para hiperescala com objetivo de impulsionar e aumentar o desempenho de aplicações de inteligência artificial (IA) em nuvem.A parceria faz parte de um projeto open source da Microsoft, o Project Olympus, que visa fornecer a data centers de hiperescala um caminho rápido e flexível para a IA por meio do novo acelerador de GPU HGX-1.
De acordo com a Nvidia, o HGX-1 faz pelas cargas de trabalho de IA baseadas na nuvem o mesmo que a ATX (Advanced Technology eXtended) fez pelas placas-mãe de PCs quando foram apresentadas há mais de duas décadas — define um padrão do setor que pode ser adotado com rapidez e eficiência para atender a demanda do mercado.
A nova arquitetura é desenvolvida para atender à crescente demanda por computação de IA em nuvem em setores como direção autônoma, serviços de saúde personalizados, reconhecimento de voz, análise de dados e vídeo e simulações moleculares.
“A IA é um novo modelo computacional que requer uma nova arquitetura”, diz Jen-Hsun Huang, fundador e diretor executivo da Nvidia. “O acelerador de placa de vídeo de hiperescala HGX-1 possibilitará que os provedores de serviços na nuvem adotem facilmente as placas de vídeo Nvidia para atender à repentina demanda por computação de IA.”
“O acelerador de IA HGX-1 AI proporciona escalabilidade de desempenho extrema para atender aos requisitos exigentes de cargas de trabalho de aprendizagem de máquina em rápido crescimento e seu design exclusivo possibilita que seja adotado com facilidade de datacenters em todo o mundo”, escreve Kushagra Vaid, gerente geral e engenheiro do Azure da Microsoft, em uma publicação no blog oficial do Azure.
Para as milhares de empresas e startups em todo o mundo, que estão investindo e adotando abordagens de IA, a arquitetura HGX-1 proporciona desempenho e capacidade de configuração sem precedentes na nuvem, afirma a Nvidia. “O design altamente modulável do HGX-1 permite desempenho ideal independentemente da carga de trabalho. Ele proporciona desempenho de deep learning até 100 vezes mais rápido se comparado a servidores baseados em CPU e tem um décimo do custo de inferência de IA”, afirma a empresa.
A cibersegurança está entre os principais desafios para a gestão dos negócios das empresas brasileiras.…
Durante o Febraban Tech 2024, o IT Forum conversou com Rodrigo Vilella, vice-presidente de serviços…
Uma pesquisa recente do Gartner com mais de 1.800 líderes revelou que pouco mais da…
Nos últimos anos, diversas startups de inteligência artificial (IA) da China têm se mudado para…
A Binance, plataforma global de negociação de criptomoedas, divulgou recentemente que seu serviço de pagamento…
Apenas 20% dos principais executivos de finanças (CFOs) das corporações globais estão satisfeitos com o…