Não há dúvida de que a IA e o machine learning (ML) desempenharão um papel cada vez mais vital no desenvolvimento de tecnologia empresarial e apoiarão uma ampla gama de iniciativas corporativas nos próximos anos.
As receitas mundiais para o mercado de IA, incluindo software, hardware e serviços, devem chegar a US$ 341,8 bilhões este ano e crescer a uma taxa anual de 18,8% para quebrar a marca de US$ 500 bilhões até 2024, de acordo com o IDC. E, em 2026, 30% das organizações confiarão rotineiramente em insights com suporte de IA/ML para conduzir ações que podem resultar em um aumento de 60% nos resultados desejados (na verdade, 30% pode ser uma estimativa baixa).
Apesar do otimismo, o problema é que os modelos de redes neurais profundas (DNN) que estão impulsionando o aumento na adoção de ML é que os pesquisadores não entendem exatamente como eles funcionam. Se os líderes de TI colocarem em campo uma tecnologia sem entender a base de sua operação, corremos o risco de ter uma série de resultados ruins. Os sistemas podem ser inseguros no sentido de que podem ser tendenciosos, imprevisíveis e/ou produzir resultados que não podem ser facilmente compreendidos por seus operadores humanos. Esses sistemas também podem conter idiossincrasias que serão exploradas por adversários.
Quando o ML é aplicado a aplicativos de missão crítica, os CIOs e suas equipes de engenharia se deparam com um paradoxo: a escolha entre os melhores resultados que o ML pode oferecer versus o risco de resultados ruins. Isso pode até se tornar um dilema moral. Suponha que uma DNN usada para processar imagens médicas possa reconhecer certas formas de câncer melhor do que o médico típico. Somos moralmente obrigados a desenvolver essa tecnologia, que pode ter efeitos positivos que salvam vidas, mesmo que não saibamos como ela alcança seus resultados?
Um objetivo de longo prazo de alguns pesquisadores de ML é desenvolver uma compreensão mais completa das DNNs, mas o que os profissionais devem fazer entre agora e então, especialmente quando resultados ruins podem envolver risco à vida e/ou propriedade?
Estabelecendo rotas para machine learning
Os engenheiros já enfrentaram situações semelhantes no passado. Nos primeiros dias da aeronáutica, por exemplo, não tínhamos uma compreensão tão completa da física subjacente ou capacidade de analisar projetos de aeronaves. Para compensar essa falta de compreensão, engenheiros aeronáuticos e pilotos de teste identificariam o envelope operacional dentro do qual a aeronave poderia voar com segurança e, em seguida, tomariam medidas – por meio de sistemas de controle de vôo, treinamento de pilotos e assim por diante – para garantir que a aeronave só fosse operada dentro daquele envelope seguro.
Essa mesma abordagem de desenvolver um envelope operacional seguro e previsível pode ser aplicada ao ML com a criação de grades de proteção que mantêm os modelos de ML no caminho certo e minimizam a possibilidade de saídas inseguras e/ou imprevisíveis.
A seguir, algumas abordagens sugeridas no estabelecimento de sistemas de ML com maior segurança e previsibilidade:
A tarefa dos líderes de TI é garantir que os modelos de ML que eles desenvolvem e implantam estejam sob controle. Estabelecer guarda-corpos é uma etapa provisória importante, enquanto desenvolvemos um melhor entendimento de como funcionam as DNNs.
A comprovação do retorno sobre o investimento (ROI) de ações ESG é um dos principais…
Em resposta imediata a uma catástrofe natural, a Procergs, responsável pela gestão da tecnologia da…
Os resultados da pesquisa "Antes da TI, a Estratégia 2024", apresentados durante o IT Forum…
Mais da metade (69%) das empresas brasileiras dizem já ter alguma iniciativa em IA tradicional…
Entre os líderes de TI brasileiros, 77% têm a perspectiva de manter ou crescer o…
Durante o IT Forum Trancoso, as discussões sobre sustentabilidade estão diretamente ligadas à evolução de…