CIO, aprenda a baixar as expectativas em relação à Inteligência Artificial

Um dos desafios para o desenvolvimento da IA é que as pessoas a superestimam e esperam perfeição. Inteligência mínima viável é o caminho inicial

Author Photo
9:00 am - 07 de outubro de 2019

A inteligência artificial (IA) tem sido um tópico importante entre os líderes de TI e de negócios, pois promete ser o maior impulsionador de mudanças na história da humanidade. A maneira como trabalhamos, vivemos, aprendemos e brincamos nunca mais será a mesma, uma vez que a inteligência artificial será aplicada a todos os nossos dispositivos, carros, eletrodomésticos e tudo mais com o qual interagimos.

Os CIOs sabem disso e procuram usar a inteligência artificial como parte de sua estratégia de transformação digital. Um dos desafios é que as pessoas superestimam o que uma inteligência artificial pode fazer e esperam perfeição. Se houver algum erro, retorne à prancheta para refinar os algoritmos ou passar mais tempo na fase de aprendizado. Nos carros autônomos, por exemplo, quando ocorre um acidente, as pessoas surtam e agem como se o carro fosse o primo perdido de um T-600 Terminator que propositalmente teve o acidente de matar um humano.

O fato é que os carros autônomos não precisam ser livres de acidentes, eles só precisam ser melhores que os motoristas humanos para ajudar a sociedade. Essa barra é alcançável hoje. Isso significa, em termos gerais, que os sistemas de IA precisam apenas ser assistidos (ou seja, úteis para a pessoa que os usa) para serem colocados em produção. Ele pode fazer um médico trabalhar de maneira mais inteligente? Ele pode ajudar a classificar imagens mais rapidamente do que as pessoas? É possível prever interrupções mais rapidamente do que um engenheiro? Quando esse limite for atingido, estenda-o e colha os benefícios.

Procure a Mínima Inteligência Viável

Na semana passada, participei de um evento de inteligência artificial em São Francisco, organizado pela Cambridge Consultants, NVIDIA e NetApp, onde esse mesmo tópico foi discutido. Durante sua palestra, Tim Ensor, diretor de IA da Cambridge Consultants, mencionou como, quando sua empresa trabalha com clientes, as iniciativas de inteligência artificial são lançadas quando atingem a “inteligência mínima viável” (MVI, na sigla em inglês).

O limite para o que significa “mínimo viável” varia de acordo com o caso de uso. Por exemplo, um robô baseado em IA que monta pedidos de clientes para um varejista precisa estar quase perfeito, pois os erros aqui podem custar muito às empresas em troca. Para outras aplicações, porém, a barra não é tão alta. Um dos casos de uso apresentados pelos consultores da Cambridge foi a capacidade de uma inteligência artificial catalogar músicas por gênero. Ensor explicou que a IA fez um bom trabalho com a música de estúdio, mas teve dificuldades com os humanos tocando, pois interpretou os erros como jazz. Nesse caso, as classificações incorretas podem ser inseridas no sistema para treinar ainda mais a inteligência artificial; portanto, iniciar a solução mais cedo na verdade ajuda a obter mais dados mais rapidamente.

Outro exemplo foi um aplicativo médico chamado Bacill AI, capaz de observar imagens médicas em nível microscópico para encontrar tuberculose em pessoas de países do terceiro mundo. Normalmente, esse é um processo minucioso que pode levar horas para os médicos, mas a inteligência artificial pode digitalizar as imagens e encontrar anomalias em uma fração do tempo. Novamente, os algoritmos não precisam ser 100% perfeitos desde o início e, à medida que mais análises são feitas, os dados podem ser enviados de volta ao sistema como dados de treinamento para aproximar o sistema da perfeição.

A variedade de dados importa mais que o volume

Um ponto crítico levantado pelos consultores da Cambridge durante a apresentação foi o valor de diferentes tipos de dados. Historicamente, as empresas treinavam sistemas de IA com grandes volumes de dados com curadoria (ou seja, dados que foram limpos e limpos para remover anomalias, informações de duplicação etc.). Isso era necessário, pois os algoritmos de aprendizado de IA não eram tão sofisticados e, apesar dos altos volumes de dados, isso poderia levar a insights ruins.

Hoje, os sistemas de IA aprendem mais naturalmente (ou seja, mais como seres humanos) e podem receber uma quantidade muito menor de dados que podem ser selecionados, brutos (não filtrados) ou até sintéticos (gerados por pessoas ou máquinas). E o uso de redes adversárias generativas (GAN) permite que a IA crie seus próprios dados durante o processo de treinamento. Para aqueles que não estão familiarizados com uma GAN, é um sistema baseado em aprendizado de máquina que usa uma combinação de dados corretos e incorretos para acelerar o processo de aprendizado – terminando em dias, em vez de meses, afirma Cambridge Consultants. Isso significa que o alcance da chamada inteligência mínima viável pode ser feito em uma fração do tempo que já se levou uma vez.

 

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.