Ferramentas de IA usam imagens de crianças brasileiras sem consentimento
A organização encontrou fotos identificáveis de crianças brasileiras no LAION-5B, com detalhes pessoais, coletadas de fontes web, para treinar IA
A Human Rights Watch revelou que fotos pessoais de crianças brasileiras estão sendo usadas sem autorização para treinar ferramentas de inteligência artificial (IA).
Essas imagens são retiradas da internet e incorporadas em grandes bancos de dados, como o LAION-5B, muitas vezes sem o conhecimento ou consentimento das famílias. A prática, além de violar a privacidade, coloca as crianças em risco de exploração e outros danos, alerta a organização.
Um relatório da Human Rights Watch encontrou fotos identificáveis de crianças brasileiras no conjunto de dados LAION-5B, que é amplamente utilizado para treinar ferramentas de IA populares.
As imagens, que incluem detalhes pessoais como nomes e localizações, foram obtidas de diversas fontes na web, como blogs pessoais e sites de compartilhamento de fotos e vídeos. Algumas dessas fotos foram postadas há muitos anos, antes mesmo da criação do LAION-5B, mas agora estão sendo reutilizadas para finalidades potencialmente prejudiciais, segundo a organização.
Leia também: Segurança infantil: reguladora do Reino Unido alerta sobre conteúdo on-line prejudicial
As fotos analisadas retratam diversos momentos da infância, desde bebês nascendo até adolescentes em eventos escolares, como o carnaval. Muitas delas eram originalmente privadas, vistas por poucas pessoas, e parecem não estar disponíveis em pesquisas on-line.
A organização encontrou 170 fotos de crianças de dez estados brasileiros: Alagoas, Bahia, Ceará, Mato Grosso do Sul, Minas Gerais, Paraná, Rio de Janeiro, Rio Grande do Sul, Santa Catarina e São Paulo.
Este número, no entanto, é apenas uma pequena fração do total de imagens possivelmente presentes no conjunto de dados LAION-5B, que contém cerca de 5,85 bilhões de imagens. A Human Rights Watch diz ter revisado menos de 0,0001% desse montante.
A Human Rights Watch destaca que, uma vez que os dados das crianças são inseridos em sistemas de IA, surgem ameaças à privacidade devido a falhas tecnológicas. Esses modelos de IA, incluindo aqueles treinados no LAION-5B, são conhecidos por vazar informações privadas e reproduzir cópias idênticas do material em que foram treinados, como registros médicos e fotos de pessoas reais.
Essas vulnerabilidades têm sido exploradas por atores maliciosos para criar deepfakes de crianças, baseados em apenas algumas fotos ou até mesmo em uma única imagem.
Pelo menos 85 meninas de Alagoas, Minas Gerais, Pernambuco, Rio de Janeiro, Rio Grande do Sul e São Paulo relataram casos de assédio envolvendo deepfakes criados a partir de suas fotos de redes sociais, de acordo com a organização.
“A IA generativa ainda é uma tecnologia nascente, e o dano associado que as crianças já estão experimentando não é inevitável”, disse Hye Jung Han, pesquisadora da Human Rights Watch. “Proteger a privacidade dos dados das crianças agora ajudará a moldar o desenvolvimento dessa tecnologia em uma que promova, em vez de violar, os direitos das crianças”.
A LAION se comprometeu a remover fotos de crianças encontradas em seu banco de dados, embora tenha contestado a capacidade dos modelos de IA em reproduzir dados pessoais, segundo Human Rights Watch. Para a organização, urgem políticas que proíbam a coleta não consensual de dados de crianças em sistemas de IA e garantam mecanismos de justiça para aqueles que sofrerem danos.
Enquanto o Congresso deve também garantir que as regulamentações propostas para IA incorporem proteções de privacidade de dados para todos, especialmente para crianças, de acordo com a Human Rights Watch.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!