Google introduz novas medidas para combater pornografia de deepfake
Alterações no mecanismo de busca visam facilitar a remoção de conteúdos gerados por IA que utilizam imagens sem consentimento
O Google anunciou novas medidas para enfrentar a pornografia de deepfake, uma forma de conteúdo gerado por inteligência artificial (IA) que usa imagens de pessoas sem seu consentimento. A partir desta semana, a gigante da tecnologia implementará mudanças significativas em seu mecanismo de busca para facilitar a remoção de vídeos e imagens de deepfake que afetam as vítimas.
Atualmente, indivíduos que desejam remover conteúdo de deepfake devem fazer solicitações separadas para cada URL onde o conteúdo aparece. As novas políticas incluirão a omissão de resultados explícitos para termos de pesquisa que contenham o nome da pessoa afetada e sites que recebam um número elevado de notificações de remoção terão sua classificação reduzida nos resultados de busca.
“Além disso, quando alguém remove com sucesso uma imagem da pesquisa sob nossas políticas, nossos sistemas irão escanear e remover quaisquer duplicatas dessa imagem que encontrarmos”, disse o Google em um post no blog nesta quarta-feira.
Leia também: 30% dos projetos de IA generativa serão abandonados até 2025, segundo estudo
A pressão sobre plataformas de tecnologia para combater deepfakes tem aumentado, com regulamentações mais rigorosas sendo implementadas em diversos países. No Reino Unido, a Lei de Segurança On-line, aprovada em outubro, torna ilegal a disseminação de deepfakes pornográficos não consensuais. Nos Estados Unidos, legislações estaduais também buscam coibir a criação e compartilhamento de conteúdo explícito gerado por IA.
“Estamos no meio de uma mudança tecnológica”, disse Emma Higham, gerente de produto do Google que tem estado envolvida na luta da empresa contra os deepfakes. “Enquanto monitoramos nossos próprios sistemas, vimos que há um aumento nas solicitações de remoção para esse tipo de conteúdo”.
O Google recebeu críticas pela demora em tomar medidas eficazes contra o abuso sexual por deepfake. Clare McGlynn, Professora de Direito na Universidade de Durham, disse ao Financial Times que o Google tem facilitado, ao classificar altas posições para aplicativos e sites relacionados a deepfake, o aumento exponencial desse tipo de abuso.
Por sua vez, o Google relatou que, desde o início do ano, conseguiu reduzir a quantidade de conteúdo explícito de deepfake em seus resultados de busca em 70% por meio das mudanças iniciais e atualizações limitadas.
Higham explicou que provedores de mídia externos frequentemente não compartilham dados de vídeo com a empresa, o que dificulta a identificação de possíveis duplicatas de conteúdos removidos. A big tech também observou que pode haver desafios para artistas adultos que querem publicar conteúdo consensual no mecanismo de busca, enquanto tentam garantir que material não consensual seja filtrado.
Além disso, o Google optou por não desindexar completamente sites populares de deepfake, argumentando que isso poderia bloquear o acesso a informações importantes sobre a remoção de conteúdo. Grupos de advocacy, como #MyImageMyChoice, continuam pressionando por medidas mais rigorosas nesta área.
*Com informações do Financial Times
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!