Seis preocupações de cibersegurança relacionadas à IA

Wesney Silva, da NAVA, lista vulnerabilidades trazidas pela IA. Conhecer riscos é importante para implementar medidas adequadas

Author Photo
3:30 pm - 05 de março de 2024
ia, riscos, inteligência artificial, cibersegurança Imagem: Shutterstock

O aumento do uso da inteligência artificial em vários setores tem aumentado as preocupações com segurança cibernética em torno das tecnologias. Não por acaso um estudo recente da IBM revelou que 84% das empresas a estão usando também para se defenderem, adotando soluções de cibersegurança impulsionadas pela IA.

Para Wesney Silva, head of cybersecurity da NAVA Technology for Business, é importante compreender as vulnerabilidades trazidas pela IA para implementar as medidas de segurança mais adequadas. E, portanto, é importante sabermos quais são seus riscos associados.

Leia também: Deepfakes vão complicar verificação de identidade no futuro, alerta Gartner

“É crucial que as organizações estejam cientes dos potenciais ameaças à segurança cibernética relacionadas à IA e implementem medidas de proteção adequadas”, diz.

Entre os principais cuidados de cibersegurança relacionados à IA, Wesney destaca seis:

Envenenamento de Dados (Data Poisoning)

Inserção de dados maliciosos durante o treinamento de modelos de IA pode levar a previsões incorretas e decisões comprometidas.

Exploração de Vulnerabilidades de Modelo (Model Exploitation)

Ataques de evasão que podem comprometer a integridade dos sistemas de IA, levando a decisões incorretas e potencialmente perigosas.

Extração de Modelo (Model Extraction)

A extração de informações sobre o modelo pode permitir que adversários compreendam fraquezas do sistema ou mesmo recriem modelos semelhantes para fins maliciosos.

Adversidades na Privacidade dos Dados (Privacy Adversaries)

Ataques de inferência podem comprometer a privacidade dos usuários, permitindo que adversários obtenham informações sensíveis sobre os dados de treinamento.

Interrupção de Serviço (Disruption of Service)

IAs que fazem parte do ecossistema de serviços críticos podem ser alvos de ataques DoS ou DDoS, buscando tornar o sistema indisponível.

Viés Algorítmico (Algorithmic Bias)

Modelos de IA podem perpetuar ou amplificar vieses presentes nos dados de treinamento, levando a resultados discriminatórios ou injustos.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias! 

Author Photo
Redação

A redação contempla textos de caráter informativo produzidos pela equipe de jornalistas do IT Forum.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.