Notícias

Microsoft apresenta ferramentas híbridas de gerenciamento e análise de nuvem

Tradicionalmente, o evento Ignite da Microsoft atrai mais desenvolvedores, mas as tecnologias apresentadas são cada vez mais relevantes para os CIOs que trabalham com estratégias de nuvem.

No Ignite 2019, em Orlando (EUA), na semana passada, a Microsoft apresentou uma nova abordagem para análise e data warehouse, o Azure Synapse Analytics, e uma nova maneira de executar os serviços de dados do Azure na nuvem, o Azure Arc.

A gigante da tecnologia também falou sobre uma nova oferta de computação quântica como serviço e mostrou algumas tecnologias de IA que em breve farão parte dos serviços em nuvem da empresa.

Ampliando

Com o Azure Synapse Analytics, a Microsoft pega o SQL Data Warehouse do Azure e aumenta o volume para lidar com petabytes de dados na nuvem. Alguns dos recursos – como mascaramento dinâmico de dados e segurança em nível de coluna e linha para fornecer controle de acesso granular – já estão disponíveis, mas outros – principalmente integrações com Apache Spark, Power BI e Azure Machine Learning – ainda estão em testes.

Há ainda recursos que incluem a ingestão de dados de streaming e a análise de streaming diretamente no data warehouse, e um espaço de trabalho unificado para preparação e gerenciamento de dados. Uma das primeiras empresas a utilizar a novidade é a Unilever. Enquanto o Azure Synapse visa ajudar as empresas a concentrar todos os dados em um só lugar, o Azure Arc tem como objetivo ajudá-las a distribuí-los, usando uma interface comum para gerenciar tarefas em execução na nuvem do Azure e cargas de trabalho locais ou em outros ambientes de nuvem.

A Microsoft diz que o Azure Arc estende os recursos de gerenciamento existentes, como o Azure Resource Manager, o Azure Cloud Shell ou o Azure Policy para servidores Linux e Windows, e clusters Kubernetes em execução em qualquer infraestrutura, seja local ou na nuvem de outros fornecedores. Por enquanto, o serviço está em testes: as empresas podem testá-lo gratuitamente, mas sem garantias.

Consolo quântico

O Azure Quantum foi talvez o anúncio mais divulgado da semana: a Microsoft se juntou à IBM ao oferecer aplicativos de computação quântica na nuvem, embora de forma experimental e não comercial. Em teoria, a computação quântica oferece um atalho algorítmico para solucionar muitos dos problemas de otimização mais demorados. Porém, na prática, os computadores quânticos de hoje carecem de energia e tendem a falhar antes da conclusão do trabalho.

A Microsoft afirmou que os seus cientistas desenvolveram uma maneira de controlar até 50.000 qubits – a unidade básica de cálculo em um computador quântico – usando apenas três fios e um chip de meia polegada resfriado. Isso será útil se alguém conseguir construir um computador de 50.000 qubit, mas por enquanto é apenas um hype: IBM e Google, as líderes no domínio, apresentaram computadores quânticos com apenas 53 qubits no mês passado.

Ainda assim, há algum consolo para os CIOs com visão de futuro que não podem comprar seu próprio hardware quântico: serviços hospedados, como o Azure Quantum da Microsoft e o Q Experience da IBM, fornecem informações acessíveis sobre o que pode se tornar o ambiente de desenvolvimento de software do futuro. E até que os verdadeiros computadores quânticos se tornem mais amplamente disponíveis, simuladores de hardware locais, como a Quantum Learning Machine da fabricante francesa de servidores Atos, oferecem a chance de testar a aplicabilidade da computação quântica a alguns dos mais difíceis problemas de negócios da atualidade.

Projeto Cortex

Durante o Ignite, ambém foi apresentado o Projeto Cortex, nome que a Microsoft deu a um novo serviço de IA que oferecerá aos usuários informações sob demanda que possam ser relevantes as para suas necessidades.

A Microsoft já oferece recursos de inteligência artificial em alguns de seus aplicativos, incluindo o “Insights” no Outlook, que sugere que as pessoas entrem em contato com alguém ou confiram tarefas que devem ser feitas, e o Projeto Cortex trata de expandir essa oferta. Embora tudo ocorra nos bastidores para o usuário final, os CIOs precisarão garantir que os controles de acesso sejam bem gerenciados e os dados sejam marcados adequadamente, para que o Project Cortex possa saber quem precisa – e tem permissão – para acessar determinadas informações.

Recent Posts

GDM e Black & Decker: casos de uso com a IA generativa

Mais da metade (69%) das empresas brasileiras dizem já ter alguma iniciativa em IA tradicional…

4 horas ago

Tecnologia como protagonista em discussões de comitês empresariais

Entre os líderes de TI brasileiros, 77% têm a perspectiva de manter ou crescer o…

6 horas ago

Infraestrutura de TI também precisa evoluir para apoiar a sustentabilidade

Durante o IT Forum Trancoso, as discussões sobre sustentabilidade estão diretamente ligadas à evolução de…

8 horas ago

IA no processo de engenharia deve acelerar a inovação

A Inteligência Artificial generativa está em todas as rodas de discussão de TI parece que…

9 horas ago

Vivo e Grupo Bom Jesus implantarão 4G em 28 mil hectares

A operadora Vivo deu detalhes essa semana de um projeto que usa a frequência de…

9 horas ago

7 empresas de TI com vagas abertas

Semanalmente, o IT Forum seleciona as principais oportunidades para aqueles que buscam aprofundar seus conhecimentos…

10 horas ago