Google emprega assistente virtual no combate ao assédio e violência de gênero

Iniciativa “Não Fale Assim Comigo” trará reações do Google Assistente quando alvo de agressões misóginas, homofóbicas, racistas ou de sexo explícito

Author Photo
6:52 pm - 03 de maio de 2022
Ok Google

Como parte de uma iniciativa de combate ao assédio e violência de gênero, o Google anunciou um novo posicionamento para seu assistente virtual que tem como objetivo desestimular interações agressivas entre usuários e o produto de voz da empresa. A iniciativa, apelidada de “Não fale assim comigo”, é parte de uma ação global, iniciada nos Estados Unidos, mas que já começou a ser implantada no Brasil.

A partir de agora, o assistente virtual do Google terá uma nova abordagem quando for ativado por comandos de voz que contenham agressões de conteúdo misógino, homofóbico, racista ou de sexo explícito. Até então, o assistente não se engajava com esse tipo de ofensa, informando apenas que “não entendeu” a fala do usuário.

A partir de agora, o Google Assistente pedirá que o usuário não empregue esses termos, expressões ofensivas ou agressões nas interações com o produto. Segundo Maia Mau, líder de Marketing do Google Assistente para a América Latina, a ação busca um papel educativo e de responsabilidade social, mostrando às pessoas que condutas abusivas não podem ser toleradas em nenhum ambiente.

Leia também: Brasileiros passam em média 91 horas semanais na internet

Na prática, o Assistente, em caso de ofensa explícita – como uso de palavrões, ou expressões de conteúdo misógino, homofóbico, racista ou de sexo explícito –, poderá responder de forma instrutiva, usando frases como: “O respeito é fundamental em todas as relações, inclusive na nossa”; ou mesmo repelir esse tipo de comportamento, respondendo: “Não fale assim comigo”.

Mensagens que não são explicitamente ofensivas, mas que representam condutas que seriam consideradas inapropriadas no mundo real, como de cunho sexual, também passam a ser respondidas de forma diferente. Um exemplo é quando um usuário pergunta ao Assistente se quer “namorar” ou “casar” com ele. Neste caso, a voz do Google poderá dar um “fora” de um jeito bem-humorado, ou alertar sobre o incômodo trazido pelo comentário.

O Brasil é hoje o terceiro maior mercado da companhia em termos de engajamento com o Google Assistente. Nos últimos dois anos, as interações de brasileiros com o produto cresceram duas vezes. No País, a atualização das respostas passou por um processo de revisão e adaptação liderado pelo time local de Personalidade do Assistente. O objetivo foi avaliar o sentido que determinadas palavras ou expressões podem transmitir no contexto brasileiro.

O trabalho contou com a contribuição de grupos representativos formados por colaboradores do Google no Brasil – como o de Mulheres e o de Diversidade –, que ajudaram a identificar termos que são considerados ofensivos dentro de diferentes comunidades, ou remetem a preconceitos culturais. Esses grupos também contribuíram para a construção de respostas que pudessem ser mais apropriadas para cada situação.

No lançamento do recurso, serão mais de 200 termos incluídos no novo modelo de interação do Google Assistente. A expectativa, no entanto, é que o projeto siga evoluindo. “É um esforço coletivo e contínuo. A gente sabe que a sociedade evolui, a linguagem evolui e a gente tem sempre que acompanhar isso. Esse é um primeiro lançamento que a gente fez, do primeiro corpo de palavras e agressões, mas estamos continuamente revisando para tornar o Assistente cada vez útil, diverso e inclusivo”, disse Maia Mau.

Mulheres são o principal alvo

O Google diferencia as duas vozes disponíveis no Brasil através de cores: a voz “vermelha”, que soa como feminina, e a “laranja”, de tom masculino – essa segunda, lançada no ano passado. Nos dados de interações analisados pela companhia, a voz “vermelha” é aquela alvo da maior parte das interações abusivas.

De acordo com a empresa, cerca de 2% das interações com o Google Assistente são de mensagens que utilizam termos abusivos ou inapropriados. Um a cada seis insultos são direcionados às mulheres, seja por expressões de conteúdo misógeno ou de assédio sexual.Na voz vermelha, comentários ou perguntas sobre a aparência física (ex.: “Você é bonita?”) são quase duas vezes mais comuns do que na voz laranja.

A voz com tom ‘masculino’, por sua vez, recebe um grande número de comentários homofóbicos – quase uma a cada dez ofensas registradas.

Respostas instigam buscas por informações

O projeto que chega agora à versão em português brasileiro do Google Assistente nasceu em 2019 e começou a ser implantado no ano passado nos Estados Unidos. Estrategista de conteúdo do time de Personalidade do Google Assistente, Arpita Kumar, ressaltou que um dos resultados positivos da iniciativa é promover a busca por informações e a educação dos usuários.

Ao longo dos testes, foi observado um crescimento de 6% de tréplicas positivas em interações com o Assistente; ou seja, pessoas que, após receberem respostas mais incisivas contra ofensas, passaram a pedir desculpas ou perguntar “por quê”?

“As tréplicas positivas foram também um grande sinal de que as pessoas queriam entender melhor por que o Assistente estava afastando determinados tipos de conversa. As sequências dessas conversas tornaram-se portas de entrada para se aprofundar em temas como consentimento”, ressaltou a executiva.

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.