Nova geração do TensorRT reduz tempo de inferência em IA pela metade

Novo TensorRT 8, da Nvidia, melhora processamento de modelos de IA em ferramentas como motores de busca, recomendações de anúncios e chatbots

Author Photo
10:00 am - 20 de julho de 2021
Nvidia Logo

Interfaces de Inteligência Artificial (IA) mais precisas e mais rápidas no processamento de modelos treinados de linguagem, essa é a promessa da Nvidia com o TensorRT 8, nova geração da solução de inferência de IA utilizada por SDKs da Nvidia, anunciado nesta terça-feira (20).

Segundo a companhia, a nova versão do software tem como objetivo dar vazão ao aumento exponencial de complexidade que modelos de inteligência artificial têm observado em setores como Saúde, Finanças e Indústria.

“A versão mais recente do TensorRT apresenta novos recursos que permitem às empresas fornecer aplicativos de IA de conversação a seus clientes com um nível de qualidade e capacidade de resposta nunca antes possível”, resumiu Greg Estes, vice-presidente de programas para desenvolvedores da Nvidia.

O TensorRT é a solução da Nvidia para a chamada “inferência”, ato de utilizar uma rede neural para fornecer insights após ela ter sido treinada em modelos de linguagem natural através de grandes volumes de dados. A solução é utilizada hoje por mais de 350 mil desenvolvedores e triplicou sua base instalada entre os anos de 2019 e 2020.

Leia o texto completo no IT Forum.

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.