Amazon quer ensinar machine learning a ser fã de Fórmula 1
Principal competição do automobilismo mundial firma parceria com a AWS e inicia uso de recursos baseados em cloud

Desde junho desse ano, a Fórmula 1, principal categoria do automobilismo mundial, passou a utilizar serviços da Amazon Web Services (AWS), em uma parceria que vai desde a “simples” migração de dados dos data centers da F1 para a cloud da AWS, até a adoção de diversos recursos avançados de machine learning – de fato o ponto alto e extremamente inovador da iniciativa em conjunto.
O primeiro passo, segundo Adrian Cockcroft, VP de estratégia de arquitetura de cloud da AWS, é migrar todo o arquivo de corridas para que, usando a ferramenta Amazon SageMaker, cientistas de dados da Fórmula 1 consigam usar modelos de deep learning aplicados em 65 anos de dados históricos de corridas, armazenados nas plataformas Amazon DynamoDB e Amazon Glacier. Com essas informações, os profissionais podem extrair estatísticas essenciais de desempenho para fazer previsões e fornecer aos fãs informações sobre decisões e estratégias adotadas por equipes e pilotos em frações de segundo.
O foco é que, com todas as informações em mãos, a equipe de tecnologia da F1, em parceria com a AWS, consiga ensinar o sistema de machine learning a ser um fã de F1 para consumir e saber o que é de fato relevante para a corrida, como define Cockcroft. “É o projeto de longo termo: ensinar a inteligência artificial a reconhecer qual carro é, qual piloto, o que está fazendo e se isso é interessante”, disse o executivo.
Outra possibilidade que está no roadmap da parceria é implementar recursos de speech to text (voz para text) nos rádios dos pilotos para traduzir em tempo real conversas entre pilotos e equipes para diversos idiomas de transmissões de TVs em todo o mundo. “São muitas possibilidades para melhorar a experiência do fã. O primeiro passo é o arquivo, com a criação das tags.”
Outro recurso adotado pela Fórmula 1 é o AWS Elemental Media Services, que visa acelerar a preparação, o processo e a entrega de vídeo over-the-top e de transmissões a partir da nuvem AWS.
Foco no machine learning
Machine learning tem sido um dos principais focos da AWS, diante da missão da empresa de empoderar desenvolvedores garantindo liberdade para que eles possam criar de forma rápida, barata e fácil.
“Menos conversa e mais ação. É isso que desenvolvedores querem com machine learning. Tem muita gente falando, mas poucos oferecem da forma que desenvolvedores querem”, disse Andy Jassy, CEO da AWS, durante keynote no re:invent 2018, conferência anual realizada nesta semana em Las Vegas (EUA).
Segundo Jassy, a AWS já soma mais de 10 mil clientes usando as ferramentas de machine learning da companhia – uma delas a Fórmula 1, representada no palco do evento pelo seu diretor esportivo Ross Brawn.
Novidades em machine learning
Jassy anunciou cinco produtos focados em machine learning, sendo o principal deles o novo marketplace, um catálogo digital com curadoria que permite encontrar e adquirir centenas de algoritmos de machine learning e pacotes de modelo no AWS Marketplace e implantá-los diretamente na ferramenta de desenvolvimento SageMaker.
O desenvolvedor pode escolher entre algoritmos e modelos gratuitos e pagos que abrangem uma gama de categorias populares, como visão computacional, processamento de linguagem natural, reconhecimento de voz, texto, dados, voz, imagem, análise de vídeo e análise preditiva.
Saiba mais detalhes sobre os outros anúncios:
- Amazon Elastic Inference
O Amazon Elastic Inference permite conectar a quantidade exata de aceleração por GPU a qualquer instância do Amazon EC2 e Amazon SageMaker para reduzir o custo de execução de inferências de deep learning em até 75%. A plataforma oferece suporte aos modelos TensorFlow, Apache MXNet e ONNX, com mais estruturas em breve.
Com o Amazon Elastic Inference, desenvolvedores podem escolher o tipo de instância mais adequada às necessidades gerais de CPU e memória de seu aplicativo e, em seguida, configurar separadamente a quantidade de aceleração de inferência necessária sem alterações de código. Isso permite usar recursos de maneira eficiente e reduzir o custo de execução da inferência.
- AWS Inferentia
O AWS Inferentia é um chip de inferência de machine learning, projetado pela AWS para fornecer desempenho de inferência de alta produtividade e baixa latência a um custo extremamente baixo. O AWS Inferentia suportará as estruturas de deep learning TensorFlow, Apache MXNet e PyTorch, bem como os modelos que usam o formato ONNX.
O AWS Inferentia fornece centenas de TOPS (operações tera por segundo) de taxa de inferência para permitir que modelos complexos façam previsões rápidas. Para obter mais desempenho, vários chips AWS Inferentia podem ser usados juntos para gerar milhares de TOPS de taxa de transferência. O Inferentia estará disponível para uso com o Amazon SageMaker, o Amazon EC2 e o Amazon Elastic Inference.
- Amazon SageMaker Ground Truth
O Amazon SageMaker Ground Truth ajuda a criar rapidamente conjuntos de dados de treinamento altamente precisos para machine learning.
A jornada para construir modelos de machine learning requer que os desenvolvedores preparem seus conjuntos de dados para treinar seus modelos. Antes que os desenvolvedores possam selecionar seus algoritmos, construir seus modelos e implementá-los para fazer previsões, os anotadores humanos revisam manualmente milhares de exemplos e adicionam os rótulos necessários para treinar modelos de machine learning. Este processo, no entanto, é demorado e caro, afirma a AWS.
O Amazon SageMaker Ground Truth torna mais fácil para os desenvolvedores rotularem seus dados usando anotadores humanos por meio da Mechanical Turk, fornecedores terceirizados ou seus próprios funcionários. O Amazon SageMaker Ground Truth aprende com essas anotações em tempo real e pode aplicar rótulos automaticamente a grande parte do conjunto de dados restante, reduzindo a necessidade de revisão humana. A plataforma cria conjuntos de dados de treinamento altamente precisos, economiza tempo e complexidade e reduz os custos em até 70% quando comparado à anotação humana.
- AWS SageMaker RL
O Amazon SageMaker agora permite que desenvolvedores e cientistas de dados desenvolvam de maneira rápida e fácil modelos de reinforcement learning (RL – aprendizado por reforço) em escala.
Nos círculos de machine learning, há muito buzz sobre o RL porque é uma tecnologia empolgante e com muito potencial. Segundo a empresa, a técnica treina modelos sem grandes quantidades de dados de treinamento, e é amplamente útil quando a função de recompensa de um resultado desejado é conhecida, mas o caminho para alcançá-lo não é e requer muitas iterações para descobrir. Empresas de saúde, a otimização das cadeias de fornecimento de manufatura e a solução de desafios de jogos são algumas das áreas que o RL pode ajudar a resolver. No entanto, ele tem uma curva de aprendizado íngreme e muitas partes móveis, o que efetivamente o coloca fora do alcance de todas, exceto das organizações mais bem financiadas e técnicas.
O Amazon SageMaker RL, o primeiro serviço de RL gerenciado da nuvem, permite que qualquer desenvolvedor construa, treine e implante com reforço de aprendizagem por meio de algoritmos de aprendizado por reforço gerenciados, suporte a múltiplas estruturas (incluindo Intel Coach e Ray RL), múltiplos ambientes de simulação (incluindo SimuLink e MatLab), e integração com o AWS RoboMaker, novo serviço de robótica da AWS, que fornece uma plataforma de simulação que se integra bem com o SageMaker RL.
*O jornalista viajou a Las Vegas (EUA) a convite da Amazon Web Services (AWS)