4 boas práticas para a implementação de assistentes virtuais inteligentes

Organizações líderes estão aproveitando a tecnologia para agilizar as operações e atender melhor às necessidades de funcionários e clientes

Author Photo
10:14 am - 23 de janeiro de 2019

O uso dos Assistentes Vistuais Inteligentes está em ascensão com a crescente popularidade de assistentes de voz como o Alexa, da Amazon, o Siri, da Apple, a Cortana, da Microsoft e o Google Assistant.

A tecnologia – treinada para entender comandos de voz e  executar determinadas tarefas para os usuários – também está progredindo no ambiente de negócios à medida que as organizações buscam alavancar o uso dos assistentes inteligentes (incluindo chatbots) para uma variedade de casos de uso, incluindo aplicações voice-to-text,  tarefas de colaboração, gerenciamento de e-mail, atendimento ao cliente, gerenciamento de help desk e análise de dados.

De acordo com relatório recente da Spiceworks, 40% das empresas com mais de 500 funcionários esperam implementar um ou mais assistentes inteligentes e/ou chatbots em dispositivos da empresa em 2019. Para sua pesquisa, a Spiceworks pesquisou 529 compradores de tecnologia da América Norte e da Europa.

Entre as organizações que já implementaram a tecnologia em dispositivos e serviços da empresa, 49% estão usando a Cortana para tarefas relacionadas ao trabalho, seguidas pela Siri (47%), Google Assistant (23%) e  Alexa (13%).

Das empresas que implantaram chatbots e assistentes inteligentes, 46% usam para aplicações voice-to-text, 26% para apoiar a colaboração da equipe e 24% para o gerenciamento da agenda dos funcionários. Além disso, 14% estão usando chatbots e assistentes inteligentes para atendimento ao cliente e 13% para gerenciamento de help desk de TI.

Mais da metade das organizações usa esses produtos em seu departamento de TI (53%),  para dar suporte ao departamento administrativo (23%) e  para dar suporte ao atendimento ao cliente (20%).

Entre as organizações que não estão usando chatbots ou assistentes inteligentes, metade não as implementou devido à falta de casos de uso no local de trabalho, 29% têm preocupações com segurança e privacidade e 25% esbarraram no custo. E apesar da crescente adoção da IA, apenas 20% dos profissionais de TI acham que sua organização possui as habilidades, talentos e recursos adequados para implementar e suportar a tecnologia.

Aqui estão algumas boas práticas sugeridas para executivos de TI que desejam implementar e manter assistentes virtuais.

1- Enfatizar o trabalho em equipe
Desenvolver, implantar ou manter um assistente de IA não é algo trivial. A TI deve estar envolvida junto com outras áreas da organização, como atendimento ao cliente, recursos humanos, gerenciamento executivo, etc.

O trabalho em equipe foi um componente importante no desenvolvimento do Eno, um chatbot baseado em linguagem natural lançado pela firma de serviços financeiros Capital One em 2017. Profissionais de design, desenvolvimento de produtos e TI trabalham juntos para construir a persona, suas habilidades e a infraestrutura necessária, diz Margaret Mayer, vice-presidente de engenharia de software da Capital One.

“Trabalhando como uma equipe, cada um de nós forneceu informações e feedback enquanto criávamos novos recursos”, diz Mayer. “Não ficamos obcecados em criar um roteiro de longo prazo preciso, mas sim em trabalhar de forma ágil, concentrados no que os clientes gostariam de ter a ajuda do Eno”, explica ele.

O Eno permite que os clientes obtenham rapidamente respostas a perguntas sobre o saldo da conta, transações recentes e datas de vencimento, além de pagar contas e conduzir outras transações. O assistente pode ser personalizado para as necessidades de um usuário específico através de técnicas de Machine Learning.

Uma aplicação útil do assistente de IA é a prevenção de fraudes. Anteriormente, os alertas de fraude que precisavam de uma resposta do cliente tinham um conjunto de respostas estreitamente definido. “Graças aos recursos de processamento de linguagem natural do Eno, os clientes da Capital One com suspeita de atividade suspeita em seus cartões de crédito ou débito não ficaram mais restritos ao ‘confirmar ou negar’ ao responder a um alerta”, diz Mayer. “Isso nos permite entender melhor as respostas dos clientes a alertas de atividades suspeitas, e bloquear os cartões mais rapidamente, evitando novas fraudes”.

Desde o seu lançamento, o Eno foi além do texto SMS, com o objetivo de atender às necessidades dos clientes no canal da sua preferência. “Independentemente do canal, nosso objetivo é fazer com que os clientes possam ter suas perguntas respondidas rapidamente”, diz Mayer.

Os clientes forneceram um feedback positivo sobre as interações naturais e conversacionais com o Eno, diz Mayer. “Uma ótima frase [de um cliente] é: ‘O Eno faz parecer que você está falando com um representante sem o tempo de espera ou a música do elevador’”, diz ela.

2 – Certifique-se de que a tecnologia é fácil de usar
O Laboratório de Propulsão a Jato da NASA (JPL) está constantemente avaliando e experimentando o que chama de “ondas tecnológicas do futuro”. Essas ondas, incluindo assistentes digitais desenvolvidos internamente, estão construindo um “tsunami gigante” que resultará em inteligência embutida em todos os lugares , diz Tom Soderstrom, CTO no JPL.

“Para que a inteligência incorporada seja verdadeiramente útil, ela deve ser de fácil acesso e fácil utilização”, afirma Soderstrom. “Já nos sentimos à vontade para perguntar a assistentes digitais como Siri, Alexa ou Google e receber respostas. Embora gostemos da simplicidade, não podemos fazer perguntas relacionadas ao trabalho. Por quê?”

O caso de negócios do JPL é dar aos funcionários a capacidade de ter uma conversa profunda, relacionada ao trabalho, com assistentes inteligentes de uma maneira simples e natural, e receber respostas corretas em segundos.

“Essas respostas vêm da maneira que eles gostariam de vê-las, como respostas faladas, enviadas por texto, exibidas ou enviadas por e-mail”, diz Soderstrom. Uma pergunta deve fazer com que o assistente forneça respostas e insights rápidos, consultando milhares de fontes de diferentes contendo petabytes de dados, sem que o usuário precise conhecer todos os detalhes subjacentes, diz ele.

Os assistentes estão provando ser benéficos para uma variedade de casos de uso. Um deles é onde as pessoas precisam responder repetidamente aos mesmos tipos de perguntas, como help desks. O JPL construiu assistentes para responder a perguntas sobre recursos humanos, contratos, aquisições, segurança cibernética, computação em nuvem, encontrar salas de conferência disponíveis, encontrar vagas de estacionamento disponíveis e muito mais.

Outro uso é quando um grupo de especialistas está procurando informações específicas dentro de seu próprio domínio. Os assistentes podem pesquisar rapidamente em milhares de fontes de dados e domínios e fornecer informações quase imediatas, diz Soderstrom. Alguns exemplos incluem consultas relacionadas à segurança cibernética, perguntas sobre as faixas do Deep Space Network, informações sobre futuras conferências, propostas recentes e preenchimento de relatórios de anomalias.

Onde os volumes de dados são enormes e / ou transações entram rapidamente e precisam de atenção em tempo real, e as pessoas não seriam capazes de reagir a tempo, eles ficam em segundo plano e notificam os usuários ou realizaram ações em seu nome. Os exemplos incluem eventos de segurança cibernética, como ataques em tempo real, tirando automaticamente fotos de recursos interessantes em Marte e enviando as imagens para o JPL, e vários esforços que ajudam o cumprimento da lei, pesquisando pela Web aberta e pela Dark Web.

3 – Construa um roteiro
As organizações devem construir um roteiro para o uso de assistentes de conversação, para obter valor, diz Brian Manusama, diretor sênior de pesquisa global, experiência do cliente e tecnologias e plataformas de IA de conversação no Gartner.

Existem quatro tipos principais de interações conversacionais em que assistentes inteligentes podem ser usados, diz Manusama. Eles podem ser vistos como progressões lógicas à medida que as empresas ganham mais experiência com a tecnologia.

Uma delas é a falta de tarefas informativas e um simples diálogo para determinar a intenção. Hoje, a maioria das implantações inclui exemplos como a automação de perguntas freqüentes em portais de sites, diz Manusama.

Outra é aquela que requer um diálogo complexo para determinar as intenções do cliente, fazendo várias perguntas esclarecedoras.

Um terceiro são tarefas de ponta a ponta que exigem transações baseadas em um diálogo simples. É quando uma conversa com um agente automatizado é integrada aos sistemas back-end para iniciar uma transação ou combinar diferentes bases de conhecimento para fornecer uma resposta às solicitações.

O quarto é um verdadeiro assistente inteligente de conversação, onde um diálogo extenso é possível e a integração nos sistemas corporativos é feita.

Para determinar se os assistentes inteligentes estão de fato fornecendo valor, é importante medir a satisfação do cliente, diz Manusama. “Nos últimos anos, alguns chatbots proporcionaram uma experiência terrível aos clientes”, diz ele. “Meça a satisfação, monitore as taxas de escalonamento, examine o relatório de fallout e treine continuamente seu agente digital.”

4 – Aprenda fazendo – e comece agora
A tecnologia para implantar ou criar assistentes inteligentes está disponível e a TI deve ajudar a impulsionar as implementações. “Recomendamos perguntar aos usuários o que eles considerariam mais útil, construir um, obter rapidamente o feedback do usuário e liberá-lo para uso corrente”, afirma Soderstrom. “Então crie o próximo.”

Se as pessoas dentro da organização acham útil um determinado assistente de IA, o ROI é rápido, diz Soderstrom. Se um assistente específico não é visto como útil, você perdeu o investimento, diz ele.

O JPL realizou um “ideathon” quando iniciou sua jornada com assistentes inteligentes e descobriu que o uso mais solicitado era encontrar uma sala de conferência disponível. “Nós construímos a primeira versão em uma semana e, em seguida, adicionamos inteligência adicional ao longo do tempo”, diz Soderstrom. “Ela é comprovadamente altamente eficaz e popular”.

As empresas também devem considerar a construção de assistentes específicos para fins específicos, diz Soderstrom. “Eles usam a mesma arquitetura e ferramentas, mas o processamento de linguagem natural ainda não está avançado o suficiente para realmente entender a intenção do usuário”, diz ele. Se o JPL construísse um único assistente de IA, o usuário teria que responder a mais perguntas do aplicativo e isso tornaria mais difícil o uso. Cada aplicação tem o seu próprio domínio linguístico.

As empresas devem esperar alguns contratempos ao implantarem assistentes inteligentes. “Quando se trata de implementar a IA, você não pode ter medo de reconhecer prontamente uma falha e aprender com ela”, diz Keith Farley, diretor de inovação e experiência do cliente na seguradora Aflac. “A única coisa pior do que falhar por três meses é falhar por seis meses”, diz Farley.

A Aflac adicionou um recurso de bate-papo ao seu site e aplicativo móvel em 2018. “Embora tenhamos começado originalmente com um chatbot totalmente automatizado, sentimos que a taxa de falha era muito alta para os tipos de perguntas feitas”, diz Farley. “Nós desligamos o chatbot e decidimos começar com uma interação entre humanos e pessoas para responder a uma ampla gama de questões relacionadas a benefícios e cobertura de segurados”.

Os funcionários podem responder a qualquer pergunta que surja e os dados brutos de perguntas e respostas que a empresa está compilando serão aproveitados para lançar um novo chatbot em 2019.

“No nosso caso, queremos ter uma cultura no Aflac, onde podemos assumir alguns riscos e não ter medo de falhar”, diz Farley. “Vamos aprender rapidamente com nossa falha inicial, reiniciar e, finalmente, entregar um aplicativo de cliente altamente bem-sucedido”, o que aumentará a satisfação do cliente.

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.