12 segredos sombrios da Inteligência Artificial
Com avanço da IA em todos os setores, líderes de TI devem enfrentar os segredos sombrios de trabalhar com a tecnologia para obter insights de negócios
A humanidade sempre sonhou com algum gênio onisciente e onipotente que pode arcar com suas cargas de trabalho. Agora, graças ao trabalho árduo dos cientistas da computação nos laboratórios, temos nossa resposta em inteligência artificial, que se você acreditar no hype pode fazer quase tudo que sua empresa precisa fazer – pelo menos em parte do tempo.
Sim, as inovações de IA são incríveis. Ajudantes virtuais como Siri, Alexa ou Google Assistant pareceriam mágicos para um viajante do tempo de 10 a 15 anos atrás. Sua palavra é o comando deles e, ao contrário das ferramentas de reconhecimento de voz da década de 1990, elas costumam dar a resposta certa – se você evitar perguntas complicadas como quantos anjos podem dançar na cabeça de um alfinete.
Mas, apesar de toda a sua magia, as IAs ainda dependem da programação de computadores e isso significa que sofrem com todas as limitações que impedem o código mais comum, como planilhas ou processadores de texto. Eles fazem um trabalho melhor ao lidar com os caprichos estatísticos do mundo, mas, no final das contas, eles ainda são apenas computadores que tomam decisões computando uma função e determinando se algum número é maior ou menor que um limite. Por trás de todo o mistério inteligente e algoritmos sofisticados está um conjunto de transistores implementando uma decisão “E se?”.
Podemos viver com isso? Nós temos alguma escolha? Com a batida do tambor da IA em todos os setores ficando cada vez mais alta, devemos começar a aprender a viver com os segredos sombrios da inteligência artificial.
Muito do que você encontra com IA é óbvio
O trabalho mais difícil para um cientista de IA é dizer ao chefe que a IA descobriu o que todos já sabiam. Talvez tenha examinado 10 bilhões de fotos e descoberto que o céu é azul. Mas se você esqueceu de colocar as fotos noturnas no conjunto de treinamento, ele não vai perceber que escurece à noite.
Mas como pode uma IA evitar as conclusões óbvias? Os sinais mais fortes nos dados serão óbvios para qualquer pessoa que trabalhe nas trincheiras e também serão óbvios para os algoritmos de computador que vasculham os números. Eles serão a primeira resposta que um cão fiel trará de volta e cairá a seus pés. Mas, bem, pelo menos os algoritmos não esperam um tratamento.
Explorar insights diferenciados de IA pode não valer a pena
Claro, boas IAs também se prendem a pequenas diferenças quando os dados são precisos. Mas usar esses pequenos insights pode exigir profundas mudanças estratégicas no fluxo de trabalho da empresa. Algumas das distinções sutis serão sutis demais para valer a pena perseguir. E os computadores ainda ficarão obcecados por eles. O problema é que os sinais grandes são óbvios e os sinais pequenos podem gerar ganhos pequenos ou mesmo inexistentes.
Computadores misteriosos são mais ameaçadores
Embora os primeiros pesquisadores esperassem que a abordagem matemática de um algoritmo de computador emprestasse um ar de respeitabilidade à decisão final, muitas pessoas no mundo não estão dispostas a se render ao deus da lógica. No mínimo, a complexidade e o mistério da IA tornam mais fácil para qualquer pessoa insatisfeita com a resposta atacar o processo. O algoritmo foi tendencioso? Quanto mais mistério e complexidade sob o capô, mais motivos para o mundo ficar desconfiado e zangado.
IA é principalmente ajuste de curva
Os cientistas têm traçado alguns dados barulhentos e traçado linhas através dos pontos por centenas de anos. Muitos dos algoritmos de IA no núcleo dos algoritmos de machine learning fazem exatamente isso. Eles pegam alguns dados e traçam uma linha através deles. Grande parte do avanço veio da descoberta de maneiras de dividir o problema em milhares, milhões ou talvez até bilhões de pequenos problemas e, em seguida, traçar limites em todos eles. Não é mágica; é apenas uma linha de montagem de como temos feito ciência há séculos. Pessoas que não gostam de IA e acham fácil abrir buracos em suas decisões se concentram no fato de que muitas vezes não há teoria profunda ou estrutura filosófica para dar credibilidade à resposta. É apenas uma estimativa para a inclinação de alguma linha.
Coletar dados é o verdadeiro trabalho
Todo mundo que começou a estudar ciência de dados começa a perceber que não há muito tempo para ciência porque encontrar os dados é o trabalho real. A IA é uma prima próxima da ciência de dados e tem os mesmos desafios. É 0,01% de inspiração e 99,99% transpirando sobre formatos de arquivo, campos de dados ausentes e códigos de caracteres.
Você precisa de dados massivos para chegar a conclusões mais profundas
Algumas respostas são fáceis de encontrar, mas respostas mais profundas e complexas geralmente requerem cada vez mais dados. Às vezes, a quantidade de dados aumenta exponencialmente. A IA pode deixá-lo com um apetite insaciável por mais e mais bits.
Você está preso aos preconceitos de seus dados
Assim como os habitantes da caverna de Platão, todos nós somos limitados pelo que podemos ver e perceber. IAs não são diferentes. Eles são explicitamente limitados por seu conjunto de treinamento. Se houver vieses nos dados – e haverá alguns – a IA os herdará. Se houver lacunas nos dados, haverá lacunas na compreensão do mundo pela IA.
IA é um buraco sem fim para eletricidade
A maioria dos bons jogos tem um nível final ou um objetivo final. No entanto, as IAs podem ficar cada vez mais complexas. Enquanto você estiver disposto a pagar a conta de eletricidade, eles continuarão produzindo modelos mais complexos com mais nós, mais níveis e mais estado interno. Talvez essa complexidade extra seja suficiente para tornar o modelo realmente útil. Talvez algum comportamento senciente emergente surja na próxima execução. Mas talvez precisemos de uma coleção ainda maior de GPUs funcionando durante a noite para realmente capturar o efeito.
IA explicável é apenas mais uma tartaruga
Os pesquisadores de IA têm dedicado mais tempo ultimamente tentando explicar o que a IA está fazendo. Podemos nos aprofundar nos dados e descobrir que o modelo treinado depende muito desses parâmetros que vêm de um canto específico do conjunto de dados. Frequentemente, porém, as explicações são como aquelas oferecidas por mágicos que explicam um truque executando outro. Responder à pergunta “por que” é surpreendentemente difícil. Você pode olhar para os modelos lineares mais simples e observar os parâmetros, mas muitas vezes você ficará coçando a cabeça. Se o modelo diz para multiplicar o número de milhas percorridas a cada ano por um fator de 0,043255, você pode se perguntar por que não 0,043256 ou 0,7, ou talvez algo absurdamente diferente como 411 ou 10 bilhões. Depois de usar um continuum, todos os números ao longo do eixo podem estar certos.
É como o modelo antigo em que a Terra estava pousada em uma tartaruga gigante. E onde está essa tartaruga? Nas costas de outra tartaruga. E onde fica o próximo? São tartarugas até o fim.
Tentar ser justo é um desafio
Você poderia deixar a altura fora do conjunto de treinamento, mas as chances são muito boas de que seu programa de IA encontre algum outro proxy para sinalizar as pessoas mais altas e escolhê-las para seu time de basquete. Talvez seja o tamanho do sapato. Ou talvez alcance. As pessoas sonham que pedir a uma IA neutra para tomar uma decisão imparcial tornaria o mundo um lugar mais justo, mas às vezes os problemas estão profundamente enraizados na realidade e os algoritmos não podem fazer melhor.
Às vezes, as correções são ainda piores
Forçar uma IA para ser justa é uma solução real? Alguns tentam insistir que as IAs gerem resultados com certas porcentagens predeterminadas. Eles colocam o polegar na escala e reescrevem os algoritmos para alterar a saída. Mas então as pessoas começam a se perguntar por que nos importamos com qualquer treinamento ou análise de dados se você já decidiu a resposta que deseja.
Humanos são o verdadeiro problema
Em geral, ficamos felizes com as IAs quando as apostas são baixas. Se você tem 10 milhões de fotos para classificar, ficará feliz se alguma IA gerar resultados razoavelmente precisos na maioria das vezes. Claro, pode haver problemas e erros. Algumas das falhas podem até mesmo refletir problemas profundos com os preconceitos da IA, questões que podem ser dignas de uma tese vaga de 200 páginas.
Mas as IAs não são o problema. Eles farão o que lhes foi dito. Se elas ficarem confusos e começarem a gerar mensagens de erro, podemos ocultar essas mensagens. Se o conjunto de treinamento não gerar resultados perfeitos, podemos deixar de lado o resultado lamentável pedindo mais dados. Se a precisão não for tão alta quanto possível, podemos simplesmente arquivar esse resultado. As IAs voltarão a trabalhar e farão o melhor que puderem.
Os humanos, porém, são animais completamente diferentes. As IAs são suas ferramentas e os humanos são aqueles que querem usá-las para encontrar uma vantagem e lucrar com isso. Alguns desses planos serão relativamente inocentes, mas alguns serão movidos por uma malícia secreta e premeditada. Muitas vezes, quando nos deparamos com uma IA ruim, é porque é o fantoche na corda de algum humano que está lucrando com o mau comportamento.