Como a IA ajudou a Domino’s a melhorar seu sistema de entregas

Combinada com o uso de ambientes de contêineres e um servidor escalável, inteligência artifical aprimorou operações de armazenamento e entrega

Author Photo
6:00 pm - 03 de abril de 2020

Quando as palavras Inteligência Artificial (IA) e Machine Learning (ML) são usadas, as pessoas costumam pensar em indústrias avançadas, como exploração espacial e biomedicina, que dependem fortemente de pesquisa e desenvolvimento.

O fato é que AI e ML deveriam ser alvo de todas as indústrias, inclusive o varejo. Agora estamos na era do atendimento ao cliente e pequenas mudanças no serviço podem fazer uma grande diferença na participação de mercado.

Recentemente, a Nvidia realizou a edição 2020 (virtualmente, claro) da sua GPU Technology Conference (GTC) anual, que se tornou uma vitrine para casos de uso de IA/ML na vida real.

Historicamente, o programa tem sido altamente técnico, mas evoluiu ao longo dos anos para um evento em que as empresas mostram como usam tecnologias avançadas para transformar seus negócios.

A Domino’s está usando IA e ML para melhorar as operações da loja e online

A Domino’s é um exemplo de uma empresa de varejo familiar que apresentou como está usando IA e ML. A empresa criou uma receita bem-sucedida para mudar a maneira como opera. O ingrediente secreto é a tecnologia da Nvidia, que a principal cadeia de pizzas está usando para melhorar as operações da loja e online, fornecendo uma melhor experiência ao cliente e encaminhando pedidos com mais eficiência.

Como resultado, a Domino’s está vendo clientes mais felizes e seus motoristas estão vendo mais gorjetas. Mas isso é apenas um pequeno pedaço da torta multifacetada. Então, o que é preciso para levar pizza da loja Domino’s para a casa de alguém? A resposta é bastante complexa.

O servidor Nvidia DGX-1 permitiu à Domino’s acelerar suas iniciativas de IA e ML

A equipe de ciência de dados da Domino’s testou a velocidade e a eficiência da empresa, aproveitando o servidor DGX-1 da Nvidia, um sistema integrado de software e hardware para pesquisas de deep learning.

Para aqueles que não estão familiarizados com a linha de servidores DGX, a Nvidia criou uma série de dispositivos turnkey que as empresas podem acessar e começar a usar imediatamente. A alternativa é juntar as plataformas de hardware, software e IA e ajustar todo o sistema corretamente. Isso pode levar semanas para ser feito.

A equipe da Domino’s criou um modelo de previsão de entrega que prevê quando um pedido estará pronto, usando atributos do pedido e o que está acontecendo na loja da Domino’s, como o número de funcionários, gerentes e clientes presentes naquele momento.

O modelo foi baseado em um grande conjunto de dados de cinco milhões de pedidos, que não é maciço, mas grande o suficiente para criar modelos precisos. Todos os pedidos futuros são realimentados no sistema para aumentar ainda mais a precisão do modelo.

Desktops e laptops não combinam com IA e ML

Os modelos anteriores do Domino’s usavam laptops e desktops habilitados para GPU e levariam mais de 16 horas para capacitação. O longo período tornou extremamente difícil melhorar o modelo, disse Zachary Fragoso, Gerente de Ciência de Dados e Inteligência Artificial da Domino’s, durante apresentação no virtual GTC 2020.

O poder de computação extra do DGX-1 permitiu que os cientistas de dados da Domino’s treinassem modelos mais complexos em menos tempo. O sistema reduziu o tempo de treinamento para menos de uma hora e aumentou a precisão das previsões de pedidos de 75% para 95%. O teste demonstrou como a Domino’s pode aumentar a produtividade treinando modelos mais rapidamente, disse Fragoso.

O compartilhamento de recursos é outro benefício do DGX-1

A Domino’s descobriu outro benefício no processo: compartilhamento de recursos. Cada GPU individual no DGX-1 é tão grande – com 32 GB de RAM – que os cientistas de dados da empresa poderiam usar uma fração das GPUs e executar vários testes simultaneamente.

Com oito dessas GPUs na ponta dos dedos, os cientistas de dados começaram a compartilhar recursos e conhecimentos, além de colaborar entre equipes.

No passado, o compartilhamento de trabalho entre equipes – incluindo revisões de código e testes de garantia de qualidade – era desafiador, pois os cientistas de dados trabalhavam em seus próprios ambientes locais.

Agora que os cientistas de dados estão trabalhando com um servidor DGX-1 comum, eles podem compartilhar facilmente contêineres do Docker totalmente personalizáveis e reproduzíveis. Isso fornece aos cientistas de dados um grande conjunto de recursos para trabalhar e acessar quando necessário, para que não fiquem ociosos.

A solução Docker que a Domino’s integrou ao DGX-1 também facilita a reprodução de código em diferentes ambientes, porque todos os dados estão contidos na imagem do Docker.

A Domino’s comprou recentemente um segundo DGX-1 e começou a adicionar o sistema de gerenciamento de contêineres Kubernetes à mistura. Com o Kubernetes gerenciado por um mecanismo de otimização, a empresa pode alocar recursos dinamicamente a todos os seus cientistas de dados e lançar contêineres mais rapidamente.

Segundo Fragoso, mesmo os cientistas de dados que não estão familiarizados com o Linux podem apontar e clicar para iniciar os contêineres do Docker.

No lado da implantação, a Domino’s criou uma pilha de inferências, que inclui um cluster Kubernetes e quatro GPUs Nvidia. Dessa forma, os cientistas de dados podem interagir e criar seus modelos usando a mesma estrutura de contêiner Docker que usam no DGX-1.

A Domino’s também adquiriu uma plataforma de operações de Machine Learning chamada Datatron, que fica no topo do cluster Kubernetes com as GPUs e auxilia a empresa com funcionalidades específicas de ML. O Datatron permite o monitoramento do desempenho do modelo em tempo real, para que os cientistas de dados possam ser notificados se o modelo exigir reciclagem.

AI e ML estão se movendo rapidamente dos departamentos de TI

Trazer a pilha de inferência internamente permite que a Domino’s tenha todos os benefícios que os provedores de nuvem oferecem para hospedar modelos de ML, mantendo todos os dados e recursos no local.

Isso mudou a maneira como os cientistas de dados implantam modelos, dando a eles muito mais controle sobre o processo de implantação, explicou Fragoso em sua apresentação.

Fragoso concluiu com conselhos para outras empresas que procuram incorporar essas tecnologias internamente: “Pense em como seus cientistas de dados trabalharão juntos e colaborarão.

No nosso caso, o DGX-1 e nossos cientistas de dados estão interagindo em um espaço de trabalho comum. Era algo que nossa equipe realmente não considerou quando adquirimos este produto e foi um valor real para nós”.

Historicamente, os cientistas de dados operavam como um silo independente dentro das empresas. Cada vez mais, as organizações de TI estão sendo solicitadas a assumir a tarefa de fornecer a tecnologia certa para iniciativas de IA e ML.

Os cientistas de dados são recursos caros para a maioria das empresas e tê-los esperando a conclusão dos modelos é como jogar uma boa pizza pela janela. A infraestrutura certa, como a série de servidores DGX, permite que as empresas acelerem o tempo de processamento para permitir que os cientistas de dados trabalhem mais e esperem menos.

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.