Google emprega assistente virtual no combate ao assédio e violência de gênero
Iniciativa “Não Fale Assim Comigo” trará reações do Google Assistente quando alvo de agressões misóginas, homofóbicas, racistas ou de sexo explícito
Como parte de uma iniciativa de combate ao assédio e violência de gênero, o Google anunciou um novo posicionamento para seu assistente virtual que tem como objetivo desestimular interações agressivas entre usuários e o produto de voz da empresa. A iniciativa, apelidada de “Não fale assim comigo”, é parte de uma ação global, iniciada nos Estados Unidos, mas que já começou a ser implantada no Brasil.
A partir de agora, o assistente virtual do Google terá uma nova abordagem quando for ativado por comandos de voz que contenham agressões de conteúdo misógino, homofóbico, racista ou de sexo explícito. Até então, o assistente não se engajava com esse tipo de ofensa, informando apenas que “não entendeu” a fala do usuário.
A partir de agora, o Google Assistente pedirá que o usuário não empregue esses termos, expressões ofensivas ou agressões nas interações com o produto. Segundo Maia Mau, líder de Marketing do Google Assistente para a América Latina, a ação busca um papel educativo e de responsabilidade social, mostrando às pessoas que condutas abusivas não podem ser toleradas em nenhum ambiente.
Leia também: Brasileiros passam em média 91 horas semanais na internet
Na prática, o Assistente, em caso de ofensa explícita – como uso de palavrões, ou expressões de conteúdo misógino, homofóbico, racista ou de sexo explícito –, poderá responder de forma instrutiva, usando frases como: “O respeito é fundamental em todas as relações, inclusive na nossa”; ou mesmo repelir esse tipo de comportamento, respondendo: “Não fale assim comigo”.
Mensagens que não são explicitamente ofensivas, mas que representam condutas que seriam consideradas inapropriadas no mundo real, como de cunho sexual, também passam a ser respondidas de forma diferente. Um exemplo é quando um usuário pergunta ao Assistente se quer “namorar” ou “casar” com ele. Neste caso, a voz do Google poderá dar um “fora” de um jeito bem-humorado, ou alertar sobre o incômodo trazido pelo comentário.
O Brasil é hoje o terceiro maior mercado da companhia em termos de engajamento com o Google Assistente. Nos últimos dois anos, as interações de brasileiros com o produto cresceram duas vezes. No País, a atualização das respostas passou por um processo de revisão e adaptação liderado pelo time local de Personalidade do Assistente. O objetivo foi avaliar o sentido que determinadas palavras ou expressões podem transmitir no contexto brasileiro.
O trabalho contou com a contribuição de grupos representativos formados por colaboradores do Google no Brasil – como o de Mulheres e o de Diversidade –, que ajudaram a identificar termos que são considerados ofensivos dentro de diferentes comunidades, ou remetem a preconceitos culturais. Esses grupos também contribuíram para a construção de respostas que pudessem ser mais apropriadas para cada situação.
No lançamento do recurso, serão mais de 200 termos incluídos no novo modelo de interação do Google Assistente. A expectativa, no entanto, é que o projeto siga evoluindo. “É um esforço coletivo e contínuo. A gente sabe que a sociedade evolui, a linguagem evolui e a gente tem sempre que acompanhar isso. Esse é um primeiro lançamento que a gente fez, do primeiro corpo de palavras e agressões, mas estamos continuamente revisando para tornar o Assistente cada vez útil, diverso e inclusivo”, disse Maia Mau.
Mulheres são o principal alvo
O Google diferencia as duas vozes disponíveis no Brasil através de cores: a voz “vermelha”, que soa como feminina, e a “laranja”, de tom masculino – essa segunda, lançada no ano passado. Nos dados de interações analisados pela companhia, a voz “vermelha” é aquela alvo da maior parte das interações abusivas.
De acordo com a empresa, cerca de 2% das interações com o Google Assistente são de mensagens que utilizam termos abusivos ou inapropriados. Um a cada seis insultos são direcionados às mulheres, seja por expressões de conteúdo misógeno ou de assédio sexual.Na voz vermelha, comentários ou perguntas sobre a aparência física (ex.: “Você é bonita?”) são quase duas vezes mais comuns do que na voz laranja.
A voz com tom ‘masculino’, por sua vez, recebe um grande número de comentários homofóbicos – quase uma a cada dez ofensas registradas.
Respostas instigam buscas por informações
O projeto que chega agora à versão em português brasileiro do Google Assistente nasceu em 2019 e começou a ser implantado no ano passado nos Estados Unidos. Estrategista de conteúdo do time de Personalidade do Google Assistente, Arpita Kumar, ressaltou que um dos resultados positivos da iniciativa é promover a busca por informações e a educação dos usuários.
Ao longo dos testes, foi observado um crescimento de 6% de tréplicas positivas em interações com o Assistente; ou seja, pessoas que, após receberem respostas mais incisivas contra ofensas, passaram a pedir desculpas ou perguntar “por quê”?
“As tréplicas positivas foram também um grande sinal de que as pessoas queriam entender melhor por que o Assistente estava afastando determinados tipos de conversa. As sequências dessas conversas tornaram-se portas de entrada para se aprofundar em temas como consentimento”, ressaltou a executiva.