Não fique muito empolgado com inteligências artificiais de leitura de emoções

Ferramentas de inteligência artificial agora buscam descobrir se as pessoas estão felizes, tristes ou enojadas. A realidade pode enfurecê-lo

Author Photo
10:15 am - 25 de julho de 2022
inteligência artificial

Chame isso de “inteligência emocional artificial” – o tipo de inteligência artificial (IA) que agora pode detectar o estado emocional de um usuário humano.

Ou melhor, pode?

Mais importante, deveria?

A maior parte da IA emocional é baseada na teoria das “emoções básicas”, segundo a qual as pessoas sentem universalmente seis estados emocionais internos: felicidade, surpresa, medo, desgosto, raiva e tristeza, e podem transmitir esses estados através da expressão facial, linguagem corporal e entonação da voz.

No mundo pós-pandemia do trabalho remoto, os vendedores estão lutando para “ler” as pessoas para quem estão vendendo por meio de videochamadas. Não seria bom que o software transmitisse a reação emocional do outro lado da ligação?

Empresas como Uniphore e Sybill estão trabalhando nisso. O aplicativo “Q for Sales” da Uniphore, por exemplo, processa sinais não verbais e linguagem corporal por meio de vídeo, entonação de voz e outros dados por meio de áudio, resultando em um “placar de emoção”.

Realizando conexões humanas através de computadores

O próprio Zoom está flertando com a ideia. O Zoom em abril introduziu um teste do Zoom IQ for Sales, que gera para os anfitriões da reunião transcrições das chamadas do Zoom, bem como “análise de sentimentos” – não em tempo real, mas após a reunião; a crítica foi dura.

Enquanto algumas pessoas adoram a ideia de obter ajuda da IA para ler emoções, outras odeiam a ideia de ter seus estados emocionais julgados e transmitidos por máquinas.

A questão de saber se as ferramentas de IA de detecção de emoções devem ser usadas é uma questão importante com a qual muitas indústrias e o público em geral precisam lidar.

A contratação pode se beneficiar da IA emocional, permitindo que os entrevistadores entendam a veracidade, a sinceridade e a motivação. As equipes de RH e os gerentes de contratação adorariam classificar os candidatos em sua vontade de aprender e entusiasmo em ingressar em uma empresa.

No governo e na aplicação da lei, os pedidos de IA de detecção de emoções também estão aumentando. Agentes de patrulha de fronteira e funcionários da Segurança Interna querem que a tecnologia pegue contrabandistas e impostores. A aplicação da lei vê a IA emocional como uma ferramenta para interrogatórios policiais.

A IA emocional tem aplicações no atendimento ao cliente, avaliação de publicidade e até condução segura.

É apenas uma questão de tempo até que a IA emocional apareça nos aplicativos de negócios diários, transmitindo aos funcionários os sentimentos dos outros em ligações e reuniões de negócios e oferecendo aconselhamento contínuo sobre saúde mental no trabalho.

Por que a IA emocional deixa as pessoas chateadas

Infelizmente, a “ciência” da detecção de emoções ainda é uma pseudociência. O problema prático com a IA de detecção de emoções, às vezes chamada de computação afetiva, é simples: as pessoas não são tão fáceis de ler. Esse sorriso é resultado de felicidade ou vergonha? Essa carranca vem de um profundo sentimento interior, ou é feita ironicamente ou em tom de brincadeira.

Confiar na IA para detectar o estado emocional dos outros pode facilmente resultar em um falso entendimento. Quando aplicada a tarefas consequenciais, como contratação ou aplicação da lei, a IA pode fazer mais mal do que bem.

Também é verdade que as pessoas rotineiramente mascaram seu estado emocional, especialmente em reuniões de negócios e vendas. A IA pode detectar expressões faciais, mas não os pensamentos e sentimentos por trás delas. Pessoas de negócios sorriem e acenam com a cabeça e franzem a testa com empatia porque é apropriado em interações sociais, não porque estão revelando seus verdadeiros sentimentos.

Por outro lado, as pessoas podem cavar fundo, encontrar sua Meryl Streep interior e fingir emoção para conseguir o emprego ou mentir para a Segurança Interna. Em outras palavras, o conhecimento de que a IA emocional está sendo aplicada cria um incentivo perverso para jogar com a tecnologia.

Isso leva ao maior dilema sobre a IA emocional: é ético usar nos negócios? As pessoas querem que suas emoções sejam lidas e julgadas pela IA?

Em geral, as pessoas, digamos, em uma reunião de vendas, querem controlar as emoções que transmitem. Se estou sorrindo e pareço empolgado e digo que estou feliz e empolgado com um produto, serviço ou iniciativa, quero que você acredite nisso – não ignore minha comunicação pretendida e descubra meus verdadeiros sentimentos sem minha permissão.

O pessoal de vendas deve ser capaz de ler as emoções que os prospects estão tentando transmitir, não as emoções que eles querem manter em sigilo. À medida que nos aproximamos de uma compreensão mais completa de como a IA emocional funciona, parece cada vez mais uma questão de privacidade.

As pessoas têm direito a emoções privadas. E é por isso que acho que a Microsoft está emergindo como líder na aplicação ética da IA emocional.

Como a Microsoft acerta

A Microsoft, que desenvolveu algumas tecnologias de detecção de emoções bastante avançadas, posteriormente as encerrou como parte de uma reformulação de suas políticas de ética em IA. Sua principal ferramenta, chamada Azure Face, também pode estimar sexo, idade e outros atributos.

“Especialistas dentro e fora da empresa destacaram a falta de consenso científico sobre a definição de ‘emoções’, os desafios de como as inferências se generalizam em casos de uso, regiões e dados demográficos e as preocupações de privacidade aumentadas em torno desse tipo de capacidade”, escreveu Natasha Crampton, Chief Responsible AI Officer da Microsoft, em uma postagem em blog.

A Microsoft continuará a usar a tecnologia de reconhecimento de emoções em seu aplicativo de acessibilidade, chamado Seeing AI, para usuários com deficiência visual. E eu acho que esta é a escolha certa, também. Usar a IA para permitir que deficientes visuais ou, por exemplo, pessoas com autismo que podem ter dificuldades para ler as emoções e reações dos outros, é um ótimo uso para essa tecnologia. E acho que tem um papel importante a desempenhar na próxima era dos óculos de realidade aumentada.

A Microsoft não é a única organização que conduz a ética da IA emocional.

O AI Now Institute e a Brookings Institution defendem a proibição de muitos usos da IA de detecção de emoções. E mais de 25 organizações exigiram que o Zoom encerrasse seus planos de usar a detecção de emoções no software de videoconferência da empresa.

Ainda assim, algumas empresas de software estão avançando com essas ferramentas – e estão encontrando clientes.

Na maioria das vezes, e por enquanto, o uso de ferramentas de inteligência artificial emocional pode ser equivocado, mas principalmente inofensivo, desde que todos os envolvidos realmente estejam de acordo. Mas à medida que a tecnologia melhora e a tecnologia de leitura de linguagem corporal e interpretação facial se aproxima da leitura da mente e da detecção de mentiras, isso pode ter sérias implicações para os negócios, o governo e a sociedade.

E, claro, há outro elefante na sala de estar: o campo da computação afetiva também busca desenvolver IA de conversação que possa simular a emoção humana. E enquanto alguma simulação de emoção é necessária para o realismo, muito pode iludir os usuários a acreditar que a IA é consciente ou senciente. Na verdade, essa crença já está acontecendo em escala.

Em geral, tudo isso faz parte de uma nova fase na evolução da IA e nossa relação com a tecnologia. Enquanto aprendemos que ela pode resolver inúmeros problemas, também descobrimos que ela pode criar novos.

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.