O combate à violência infantil entra na era da inteligência artificial
Projeto Araceli visa desenvolver ferramentas tecnológicas para detectar e combater o abuso sexual infantil com rigor ético e científico
No Programaria Summit 2024, a professora doutora Leo Sampaio, da USP, trouxe ao palco o Projeto Araceli, uma proposta que, com a urgência do seu propósito, evoca o nome de uma vítima emblemática de violência infantil no Brasil.
A iniciativa, uma parceria entre UNICAMP, UFMG e Universidade de Sheffield (Reino Unido), com financiamento da FAPESP, propõe, propõe um uso específico de Inteligência Artificial (IA) voltado a identificar e conter a circulação de material de abuso sexual infantil, o CSAM. “Estamos falando de um tipo de tecnologia que deve se mover dentro de protocolos rigorosos e sem desviar a atenção das vítimas mais vulneráveis da nossa sociedade”, afirma Leo.
A professora, que realizou seu pós-doutorado no projeto, ressalta a responsabilidade ética envolvida: “Quando trabalhamos com tecnologias que afetam vidas de crianças, não há espaço para erros. Cada decisão, cada dado que processamos precisa ser tratado com o máximo de responsabilidade”.
Leia também: Plano Brasil Digital 2030+ da Brasscom quer ser orquestrador do compromisso com a transformação digital
Inovação em segurança de dados e saúde mental dos pesquisadores
Para que a Inteligência Artificial do projeto consiga identificar e combater a disseminação de material de abuso sexual infantil (CSAM), ela precisa ser alimentada com dados reais. No entanto, o acesso a esses dados é altamente restrito e regulamentado, devido à sua natureza sensível. “A falta de grandes bases de dados é um desafio constante para nós”, afirmou Sampaio. “Porém, ao mesmo tempo, a proteção de informações sensíveis é nossa prioridade máxima, e isso exige um nível de regulação que limite qualquer risco de exposição.”
A equipe do Projeto Araceli enfrenta um dilema técnico e ético: como treinar um sistema de IA sem recorrer ao uso indiscriminado de dados confidenciais? O grande desafio é construir uma base de dados eficiente e robusta, sem violar leis de privacidade ou expor indevidamente as vítimas.
Para superar as limitações impostas pela escassez de dados e pela sensibilidade do tema, o Projeto Araceli recorre a metodologias específicas e inovadoras. Uma das abordagens mais destacadas é o uso de “tarefas substitutas”, uma técnica que permite à Inteligência Artificial identificar e isolar padrões em imagens potencialmente ilegais sem que os pesquisadores precisem entrar em contato direto com o conteúdo.
Essas tarefas funcionam como simulações de situações reais, criando cenários artificiais que imitam as condições observadas em imagens de abuso sexual infantil (CSAM) sem expor os envolvidos ao material sensível. Como explica a professora, “as tarefas substitutas são uma forma de treinar o sistema de IA sem comprometer a saúde mental dos pesquisadores. Elas funcionam como um modelo técnico que permite à IA aprender a reconhecer padrões de forma eficaz, sem que os analistas ou programadores tenham contato com o conteúdo real.”
Leo destaca que o Projeto Araceli não se limita à detecção passiva de CSAM, mas busca prever padrões, antecipando movimentos e ações que poderiam passar despercebidos em análises tradicionais. “Estamos treinando a IA para não apenas reagir ao que já existe, mas para entender o que ainda pode acontecer. Isso é vital para combater a disseminação desse conteúdo de maneira mais rápida e eficaz.”
Desafios e parcerias futuras
O desenvolvimento do Projeto Araceli avança em um território de constante desafio: a parceria entre academia e órgãos públicos, como a Polícia Federal, ainda está em processo de amadurecimento. A professora Leo frisa que, embora a tecnologia de IA tenha evoluído a passos largos, “os desafios éticos e legais são uma constante”.
Limitada pela ausência de grandes bases de dados e pela complexidade do tema, a equipe precisa equilibrar inovação com a exigência de uma regulamentação precisa para proteger as informações sensíveis. “O futuro deste projeto depende tanto do avanço tecnológico quanto do alinhamento com normas legais e éticas”, afirma Leo. “Não podemos fazer vista grossa para questões como a privacidade. A regulamentação precisa caminhar lado a lado com a inovação, de forma a garantir que as soluções que estamos desenvolvendo sejam verdadeiramente seguras e responsáveis.”
A professora também comentou sobre as parcerias com instituições como a Polícia Federal, destacando a importância de um trabalho conjunto. “É essencial que trabalhemos lado a lado com esses órgãos, que têm o poder de aplicar as soluções tecnológicas no campo da investigação, mas sempre com a devida preocupação com a ética. Nosso trabalho só faz sentido quando é aplicado corretamente.”
Conforme o Projeto Araceli avança, ele traz à tona um debate relevante sobre a ética da tecnologia no combate ao crime, principalmente em um país onde a violência contra menores de idade ainda é uma realidade dura e persistente.
Com cada nova etapa do projeto, a equipe liderada por Leo Sampaio visa manter o compromisso de que a tecnologia esteja a serviço da sociedade, sem comprometer os valores que garantem a privacidade e a segurança dos dados. “Estamos criando uma ferramenta para salvar vidas, e isso implica em uma responsabilidade imensa. Mas, no fim das contas, o que queremos é garantir um futuro mais seguro para as nossas crianças”, conclui Leo Sampaio.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!