5 dicas essenciais para manter os modelos de Machine Learning no caminho certo

Conforme ML faz mais uso de redes neurais profundas, as empresas estão mais dependentes de uma tecnologia que os especialistas não entendem

Author Photo
10:00 am - 06 de janeiro de 2022

Não há dúvida de que a IA e o machine learning (ML) desempenharão um papel cada vez mais vital no desenvolvimento de tecnologia empresarial e apoiarão uma ampla gama de iniciativas corporativas nos próximos anos.

As receitas mundiais para o mercado de IA, incluindo software, hardware e serviços, devem chegar a US$ 341,8 bilhões este ano e crescer a uma taxa anual de 18,8% para quebrar a marca de US$ 500 bilhões até 2024, de acordo com o IDC. E, em 2026, 30% das organizações confiarão rotineiramente em insights com suporte de IA/ML para conduzir ações que podem resultar em um aumento de 60% nos resultados desejados (na verdade, 30% pode ser uma estimativa baixa).

Apesar do otimismo, o problema é que os modelos de redes neurais profundas (DNN) que estão impulsionando o aumento na adoção de ML é que os pesquisadores não entendem exatamente como eles funcionam. Se os líderes de TI colocarem em campo uma tecnologia sem entender a base de sua operação, corremos o risco de ter uma série de resultados ruins. Os sistemas podem ser inseguros no sentido de que podem ser tendenciosos, imprevisíveis e/ou produzir resultados que não podem ser facilmente compreendidos por seus operadores humanos. Esses sistemas também podem conter idiossincrasias que serão exploradas por adversários.

Quando o ML é aplicado a aplicativos de missão crítica, os CIOs e suas equipes de engenharia se deparam com um paradoxo: a escolha entre os melhores resultados que o ML pode oferecer versus o risco de resultados ruins. Isso pode até se tornar um dilema moral. Suponha que uma DNN usada para processar imagens médicas possa reconhecer certas formas de câncer melhor do que o médico típico. Somos moralmente obrigados a desenvolver essa tecnologia, que pode ter efeitos positivos que salvam vidas, mesmo que não saibamos como ela alcança seus resultados?

Um objetivo de longo prazo de alguns pesquisadores de ML é desenvolver uma compreensão mais completa das DNNs, mas o que os profissionais devem fazer entre agora e então, especialmente quando resultados ruins podem envolver risco à vida e/ou propriedade?

Estabelecendo rotas para machine learning

Os engenheiros já enfrentaram situações semelhantes no passado. Nos primeiros dias da aeronáutica, por exemplo, não tínhamos uma compreensão tão completa da física subjacente ou capacidade de analisar projetos de aeronaves. Para compensar essa falta de compreensão, engenheiros aeronáuticos e pilotos de teste identificariam o envelope operacional dentro do qual a aeronave poderia voar com segurança e, em seguida, tomariam medidas – por meio de sistemas de controle de vôo, treinamento de pilotos e assim por diante – para garantir que a aeronave só fosse operada dentro daquele envelope seguro.

Essa mesma abordagem de desenvolver um envelope operacional seguro e previsível pode ser aplicada ao ML com a criação de grades de proteção que mantêm os modelos de ML no caminho certo e minimizam a possibilidade de saídas inseguras e/ou imprevisíveis.

A seguir, algumas abordagens sugeridas no estabelecimento de sistemas de ML com maior segurança e previsibilidade:

  1. Identifique a gama de saídas do modelo que são consideradas seguras. Uma vez que a faixa de saída segura tenha sido identificada, podemos retroceder no modelo para identificar um conjunto de entradas seguras cujas saídas sempre ficarão dentro do envelope desejado. Os pesquisadores mostraram que essa análise pode ser feita para certos tipos de modelos baseados em DNN.
  2. Instale “grades de proteção na frente” do modelo. Depois de saber a faixa segura de entradas, você pode instalar um software de segurança na frente do modelo para garantir que nunca sejam mostradas entradas que o levem a um local inseguro. Com efeito, a ferramenta mantém o sistema ML sob controle. Mesmo que não saibamos exatamente como o modelo chega a uma saída específica, saberemos que as saídas são sempre seguras.
  3. Concentre-se em modelos que geram resultados previsíveis. Além de manter as saídas dentro de uma faixa segura, também queremos saber se os modelos não produzem resultados que oscilam descontroladamente de uma parte do espaço de saída para outra. Para certas classes de DNNs, é possível garantir que, se uma entrada mudar apenas por uma pequena quantidade, a saída mudará proporcionalmente e não saltará de forma imprevisível para uma parte completamente diferente da faixa de saída.
  4. Treine os modelos para serem seguros e previsíveis. Os pesquisadores estão encontrando maneiras de alterar sutilmente o treinamento dos DNNs para que se tornem receptivos à análise acima, sem comprometer suas capacidades de reconhecimento de padrões.
  5. Permaneça ágil. Como este é um espaço de rápida movimentação, a chave é construir guarda-corpos na arquitetura de ML, mantendo a agilidade para evoluí-los e aprimorá-los à medida que novas técnicas se tornam disponíveis.

A tarefa dos líderes de TI é garantir que os modelos de ML que eles desenvolvem e implantam estejam sob controle. Estabelecer guarda-corpos é uma etapa provisória importante, enquanto desenvolvemos um melhor entendimento de como funcionam as DNNs.

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.