O que os modelos de linguagem de grande escala podem fazer pelo seu negócio

Grandes modelos de linguagem processam informações e conteúdos semelhantes à linguagem humana

Author Photo
10:00 am - 27 de março de 2024
Dados, inteligência artificial, ia, grandes modelos de linguagem, llms, llm Imagem: Shutterstock

Os Modelos de Linguagem de Grande Escala, ou Large Language Models (LLMs), são modelos de linguagem de aprendizado profundo capazes de, a partir de um conjunto massivo de dados, gerar textos com uma linguagem semelhante à humana e executar várias tarefas de Processamento de Linguagem Natural (NPL). Os LLMs, que são base para a construção da Inteligência Artificial (IA) generativa, estão cada vez mais contribuindo para impulsionar a performance dos negócios.

Essa contribuição vai desde a recomendação de conteúdo até a detecção de possíveis fraudes. Os times de Marketing, Comunicação e Customer Experience (CX) já utilizam algumas das aplicações dessa tecnologia, como a produção de conteúdos, a análise de sentimento em textos e, principalmente, a automação com os chatbots. Porém, existe um potencial de uso muito maior.

Em CX, os LLMs trazem ganho ainda maior para a experiência e o relacionamento com os clientes, por exemplo, acelerando o tempo de retorno dos chatbots e tornando as respostas mais precisas. Com os modelos de grande escala, é possível avançar na personalização de respostas para clientes com necessidades específicas.

Além disso, também podem ser usados na geração de insights para tomadas de decisões estratégicas das companhias. De vendas a finanças, os times ganham agilidade na leitura de tendências, na análise de dados históricos ou na geração de relatórios.

As aplicações são muitas e para todos os setores. Na logística, por exemplo, temos grandes possibilidades com a otimização de rotas e planejamento de transporte a partir da análise de dados históricos de tráfego, condições climáticas, restrições de carga, entre outros. Ou mesmo na gestão de estoque, prevendo futuras demandas por produtos específicos.

Mas como uma empresa pode se diferenciar no uso de LLMs? O primeiro passo é investir na gestão de dados privados. As ferramentas de Inteligência Artificial (AI) podem processar as centenas de milhares de informações disponíveis na internet. Ao alimentá-las com informações estratégicas para o seu negócio, você passa a contar com análises e soluções cada vez mais relevantes e precisas.

Os LLMs podem ser treinados para incorporar jargões, processos e até a cultura organizacional. Com isso, os conteúdos produzidos passam a estar alinhados com as mensagens e as particularidades da companhia.

Dados privados, como informações de clientes ou estratégias de negócios, permitem que os LLMs gerem respostas exclusivas e confidenciais. É sempre bom lembrar que tudo isso sempre em conformidade com a Lei Geral de Proteção de Dados Pessoais (LGPD).

Ao decidir por adotar um LLM, a liderança da empresa precisa definir objetivos e diretrizes muito claros e então avaliar diferentes possibilidades: modelos existentes, modelos pré-treinados ou um LLM personalizado. A decisão deve levar em conta as limitações de tempo e orçamento vs a necessidade de incorporação de dados muito específicos.

Desafios

Sabemos que um dos grandes desafios do mundo de tecnologia, de modo geral, é a contratação de mão de obra especializada. Isso não é diferente quando vamos montar um time para trabalhar com Inteligência Artificial. Neste caso, o alto custo em infraestrutura – on premisses ou na nuvem – é outro fator que dificulta a implementação de projetos de LLM.

Já estamos discutindo, inclusive, o quanto a IA generativa, vai tomar a posição de desenvolvedores, mas isso é tema para uma próxima coluna.

Coletar, armazenar e analisar dados é complexo e oneroso, eu sei. Minha experiência liderando a construção do data lake e a implementação da inteligência artificial na companhia na qual trabalho atualmente mostra que o benefício para o negócio é imenso! Agora, somos capazes de processar um grande conjunto de dados privados junto ao mar de informações públicas e estamos entregando para os gestores, os usuários internos e para os clientes informações e soluções cada vez melhores.

O que vem pela frente

Geração Aumentada de Recuperação, ou Retrieval-Augmented Generation (RAG), é um novo processo de busca de informação para o modelo de linguagem neural, que promete reduzir custos e aumentar a precisão e a confiabilidade das aplicações alimentadas por Inteligência Artificial.

Publicado em 2020, o artigo Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks, vem pautando profissionais e pesquisadores da TI ao mostrar como essa arquitetura, baseada em um banco de dados vetorial, permite otimizar o resultado de um LLM com dados – muitas vezes mais atualizados ou especializados – sem modificar o próprio modelo. O RAG é algo novo que eu quero acompanhar de perto.

Claramente, a revolução da IA está apenas começando e cada gestor de tecnologia tem a oportunidade de liderar essa transformação em sua organização.

Ouvimos muitas empresas falarem de casos, porém poucas com resultados que realmente impactam o P&L. Essa cobrança, certamente virá dos investidores.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.