Notícias

4 formas de minimizar riscos de segurança com machine learning

Por sua capacidade de classificação de dados, entre outras vantagens, modelos de machine learning vêm sendo utilizados em diferentes aplicações, de comunicação wireless, biometria a tantas outras abarcadas pelo setor empresarial. No entanto, estudos recentes mostram que esses modelos também possuem vulnerabilidades do ponto de vista da segurança digital.

Segundo estudo conduzido pelo especialista em cibersegurança da Tempest, Paulo Freitas, é possível comprometer modelos de machine learning a partir da introdução de “ruídos imperceptíveis” no dado usando uma técnica conhecida como Ataque Adversarial.

Leia também: Bodytech adota assinatura eletrônica e deixa de imprimir 1,8 milhão de folhas

A técnica é usada para manipular de forma arbitrária a capacidade que uma rede neural possui de identificar e classificar um dado. Com isso, é possível gerar perturbações e induzir o modelo a erros, como por exemplo classificar um malware ou um vírus como um arquivo legítimo.

Para minimizar os riscos inerentes aos modelos, Freitas aponta algumas recomendações para empresas que estão inovando no uso de tecnologias.

Alargar as fronteiras que dividem as categorias de dados

Fronteira é o limite que determina se um dado está classificado da maneira certa ou errada. Adicionar dados que contenham ruídos e utilizar técnicas que gerem perturbação são formas de modificar o treinamento da rede, dificultando a adulteração por tornar os dados do sistema mais complexos.

Remover os ruídos

Criar uma caixa preta de algoritmos e redes neurais de forma que o ruído seja removido antes de fornecer a imagem para o alvo do ataque adversarial.

Detectar a presença de ruídos

Ao invés de remover o ruído, uma solução é simplesmente detectá-lo , pois quando isso é feito já há uma sinalização de um possível problema. Mesmo que não se apresente a solução de imediato, a técnica serve para colocar as equipes de segurança em prontidão.

Ampliar o número de classificadores

Classificadores são os possíveis alvos dos atacantes. Quando se amplia o número, o atacante terá de forçar a maioria dos classificadores a cometerem erro, o que torna menos provável o ataque ter sucesso.

Recent Posts

Novos executivos da semana: Solutis, Stefanini, Freshworks e mais

O IT Forum traz, semanalmente, os novos executivos e os principais anúncios de contratações, promoções e…

30 minutos ago

MakeOne anuncia nova divisão focada em soluções de inteligência artificial

A MakeOne, empresa de soluções de comunicação unificada, mobilidade, CX e consultoria, anunciou sua nova…

14 horas ago

33% das empresas no Brasil aproveitam inovações tecnológicas para atingir metas de sustentabilidade, aponta estudo

Em um estudo recente intitulado "The Global Sustainability Barometer", realizado pela Ecosystm e divulgado pela…

16 horas ago

Investigação da Justiça dos EUA examina alegações de fraude na Tesla

O Departamento de Justiça dos Estados Unidos lançou uma investigação sobre a Tesla, visando alegações…

17 horas ago

Restrições dos EUA à Huawei impactam receita da Intel e mercado de semicondutores

As recentes restrições impostas pelos Estados Unidos à Huawei, uma das maiores empresas de telecomunicações…

18 horas ago

HP lança programa para parceiros focado em venda de IA

A HP anunciou essa semana o “go-live” de um conjunto de novos benefícios para parceiros…

19 horas ago