7 segredos obscuros da inteligência artificial generativa
Superestimada ou não, a promessa dos algoritmos de IA generativa continua forte
Os preços das ações estão disparando: todos ainda estão impressionados com a forma como os algoritmos de Inteligência Artificial generativa podem criar obras de arte incríveis em qualquer estilo e, em seguida, mudar rapidamente para escrever ensaios longos com excelente gramática. Todo CIO e CEO têm um ou mais slides em sua apresentação prontos para discutir como a IA generativa vai transformar seus negócios.
A tecnologia ainda está em sua infância, mas suas capacidades já são inegáveis. A próxima onda da computação envolverá a IA generativa, provavelmente em várias etapas do fluxo de trabalho. A jornada será imparável.
Mas o que poderia dar errado? Bem, muitas coisas. Os pessimistas imaginam a destruição total da economia e a escravidão de seres humanos, juntamente com uma boa parte do mundo animal.
Eles provavelmente estão exagerando. Mas mesmo que os piores casos nunca ocorram, não significa que tudo será perfeito. Os algoritmos de IA generativa ainda são muito novos e evoluem rapidamente, mas ainda é possível ver falhas na base. Olhe profundamente nos algoritmos e ainda verá lugares onde eles não conseguirão cumprir as expectativas.
Aqui estão alguns dos segredos sombrios dos algoritmos de IA generativa a serem lembrados ao planejar como incorporar a tecnologia em seu fluxo de trabalho empresarial.
Eles evocam erros do nada
Existe algo quase mágico na maneira como modelos de linguagem grandes (LLMs) escrevem ensaios de 1.000 palavras sobre tópicos obscuros, como os rituais de acasalamento de guindastes de areia ou a importância das crenulações na arquitetura do leste europeu do século XVII. Mas o mesmo poder mágico também os capacita a criar erros a partir do nada. Eles estão indo bem, conjugando verbos e aplicando a gramática com a habilidade de um estudante universitário de letras. Muitos dos fatos estão completamente corretos. Então, voilà, eles acabaram de inventar algo, como se fossem um aluno da quarta série tentando disfarçar.
A estrutura dos LLMs torna isso inevitável. Eles usam probabilidades para aprender como as palavras se encaixam. Às vezes, os números escolhem as palavras erradas. Não há conhecimento real ou mesmo ontologia para orientá-los. São apenas as probabilidades e, às vezes, os resultados são ruins. Podemos pensar que estamos nos conectando mentalmente com um novo ser superior, mas na realidade não somos diferentes de um jogador em Las Vegas em busca de um sinal na sequência dos lançamentos de dados.
Eles são peneiras de dados
Os humanos tentaram criar uma elaborada hierarquia de conhecimento, onde alguns detalhes são conhecidos apenas pelos insiders e outros são compartilhados com todos. Essa hierarquia desejada é mais evidente no sistema de classificação militar, mas muitas empresas também a têm. Manter essas hierarquias muitas vezes é uma grande dor de cabeça para o departamento de TI e para os CIOs que as gerenciam.
Leia mais: 10 erros que podem prejudicar a inovação em TI
Os LLMs não lidam tão bem com essas classificações. Enquanto os computadores são os seguidores de regras definitivos e podem manter catálogos de complexidade quase infinita, a estrutura dos LLMs não permite realmente que alguns detalhes sejam secretos e outros compartilháveis. É apenas uma enorme coleção de probabilidades e caminhadas aleatórias pelas cadeias de Markov.
Há momentos assustadores em que um LLM irá unir dois fatos usando suas probabilidades e inferir algum fato que é nominalmente secreto. Até mesmo os humanos podem fazer o mesmo com os mesmos detalhes.
Pode chegar um momento em que os LLMs sejam capazes de manter camadas fortes de sigilo, mas por enquanto os sistemas são melhores treinados com informações que são muito públicas e não causarão alarde se vazarem. Já existem vários exemplos de alto perfil envolvendo vazamentos de dados de empresas e o contorno das barreiras de segurança dos LLMs. Algumas empresas estão tentando transformar a IA em uma ferramenta para evitar vazamentos de dados, mas levará algum tempo para entendermos a melhor maneira de fazer isso. Até lá, os CIOs podem se sair melhor mantendo um controle rigoroso sobre os dados que lhes são fornecidos.
Eles proliferam a preguiça
Os humanos são muito bons em confiar em máquinas, especialmente se elas economizam trabalho. Quando os LLMs se mostram corretos na maioria das vezes, os humanos começam a confiar neles o tempo todo.
Mesmo pedir aos humanos para verificarem as IAs não funciona muito bem. Depois que os humanos se acostumam com o fato de as IAs estarem certas, eles começam a adormecer e a confiar que as máquinas estarão certas.
Essa preguiça começa a se espalhar pela organização. Os humanos param de pensar por si mesmos e, eventualmente, a empresa entra em um estado de estagnação com baixa energia, onde ninguém quer pensar fora da caixa. Pode ser relaxante e sem estresse por um tempo – até que a concorrência apareça.
O custo real é desconhecido
Ninguém sabe o custo correto de usar um LLM. Ah, há uma etiqueta de preço para muitas das APIs que detalha o custo por token, mas há indicações de que esse valor é fortemente subsidiado por capital de risco. Vimos a mesma coisa acontecer com serviços como o Uber. Os preços eram baixos até que o dinheiro dos investidores acabou e, em seguida, os preços dispararam.
Existem indicações de que os preços atuais não são os preços reais que eventualmente dominarão o mercado. Alugar uma boa GPU e mantê-la funcionando pode ser muito mais caro. É possível economizar um pouco de dinheiro ao executar seus LLMs localmente, preenchendo um rack com placas de vídeo, mas então você perde todas as vantagens de serviços prontos, como pagar apenas pelas máquinas quando precisar delas.
Elas são um pesadelo de direitos autorais
Já existem alguns bons LLMs no mercado que podem lidar com tarefas gerais, como fazer tarefas de casa do ensino médio ou escrever redações para a faculdade que enfatizam a independência do aluno, determinação, habilidade de escrita e caráter moral – ah, e sua capacidade de pensar por si mesmo.
Mas a maioria das empresas não têm esse tipo de tarefas gerais para a IA realizar. Eles precisam personalizar os resultados para seu negócio específico. Os LLMs básicos podem fornecer uma base, mas ainda é necessária muita capacitação e ajustes finos.
Poucos descobriram a melhor maneira de montar esses dados de treinamento. Algumas empresas têm a sorte de ter grandes conjuntos de dados sob seu controle. No entanto, a maioria está descobrindo que não resolveu todas as questões legais relacionadas a direitos autorais. Alguns autores estão processando porque não foram consultados sobre o uso de sua escrita para treinar uma IA. Alguns artistas se sentem plagiados. Questões de privacidade ainda estão sendo resolvidas.
Você pode treinar sua IA com os dados de seus clientes? As questões de direitos autorais estão resolvidas? Você tem os formulários legais corretos em vigor? Os dados estão disponíveis no formato correto? Há muitas questões que impedem a criação de uma IA excelente e personalizada, pronta para funcionar em sua empresa.
Eles podem convidar à dependência de fornecedores
Na teoria, algoritmos de IA são ferramentas generalizadas que abstraem toda a complexidade das interfaces de usuário. Eles devem ser independentes e capazes de lidar com o que a vida – ou os humanos idiotas que eles atendem – lança em seu caminho. Em outras palavras, não devem ser rígidos e inflexíveis como uma API. Na teoria, isso significa que deve ser fácil trocar de fornecedor rapidamente porque as IAs simplesmente se adaptarão. Não haverá necessidade de uma equipe de programadores reescrever o código de conexão e fazer todas as coisas que causam problemas na hora de trocar de fornecedor.
Na realidade, porém, ainda existem diferenças. As APIs podem ser simples, mas ainda têm diferenças, como estruturas JSON para invocações. Mas as verdadeiras diferenças estão enterradas profundamente. Escrever prompts para as IAs generativas é uma verdadeira forma de arte. As IAs não facilitam para tirarmos o melhor desempenho delas. Já existe uma descrição de trabalho para pessoas inteligentes que entendem as idiossincrasias e podem escrever prompts melhores que produzirão respostas melhores. Mesmo que as diferenças nas APIs sejam pequenas, as estranhas diferenças na estrutura dos prompts tornam difícil a troca rápida de IAs.
Sua inteligência continua superficial
A lacuna entre uma familiaridade casual com o material e uma compreensão profunda e inteligente tem sido um tema nas universidades por muito tempo. Alexander Pope escreveu: “Um pouco de conhecimento é uma coisa perigosa; Beba profundamente, ou não prove da fonte Pieriana”. Isso foi em 1709.
Outras pessoas inteligentes observaram problemas semelhantes com os limites da inteligência humana. Sócrates concluiu que, apesar de todo o seu conhecimento, ele realmente não sabia de nada. Shakespeare achava que o homem sábio sabe que é um tolo.
A lista é longa e a maioria dessas percepções sobre epistemologia se aplicam de uma forma ou de outra à magia da IA generativa, muitas vezes em muito maior medida. CIOs e equipes de liderança de tecnologia têm um desafio difícil pela frente. Eles precisam aproveitar o melhor que as IAs generativas podem gerar, ao mesmo tempo em que tentam evitar encalhar em todos os cardumes intelectuais que há muito tempo são um problema para inteligências em qualquer lugar, sejam elas humanas, alienígenas ou computacionais.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!