Microsoft e OpenAI: hackers utilizam IA para aprimorar ciberataques

Grupos hackers apoiados por nações como Rússia, Coreia do Norte e China estão utilizando LLMs para intensificar ataques cibernéticos

Author Photo
12:25 pm - 15 de fevereiro de 2024
hackers black friday Imagem: Shutterstock

Em uma nova pesquisa conjunta, a Microsoft e a OpenAI revelam uma preocupante tendência no cibercrime. Hackers maliciosos estão incorporando inteligência artificial para aumentar a eficácia de seus ataques cibernéticos. Grupos apoiados por nações como Rússia, Coreia do Norte, Irã e China estão aproveitando grandes modelos de linguagem (LLMs), como o ChatGPT, para aprimorar seus métodos de pesquisa, criação de scripts e até mesmo o desenvolvimento de técnicas de engenharia social.

“É importante ressaltar que, em nossa pesquisa com a OpenAI, não identificamos ataques significativos usando os LLMs que monitoramos de perto. Ao mesmo tempo, sentimos que esta é uma pesquisa importante para publicar, a fim de expor movimentos incrementais em estágios iniciais que observamos atores de ameaças bem conhecidos tentando realizar, e compartilhar informações sobre como estamos bloqueando e contra-atacando-os com a comunidade de defensores”, disse a Microsoft.

Veja também: Mozilla anuncia nova CEO, demite e foca em Firefox e IA

A Microsoft revelou que o grupo Strontium, vinculado à inteligência militar russa, está utilizando LLMs para compreender protocolos de comunicação via satélite e automatizar operações técnicas. Além disso, grupos hackers norte-coreanos, iranianos e chineses também estão empregando LLMs para diversas atividades, incluindo pesquisa de vulnerabilidades, criação de e-mails de phishing convincentes e otimização de ferramentas existentes.

Essa tendência levanta preocupações sobre o uso cada vez mais sofisticado de IA em ciberataques, como destacado por um oficial da Agência de Segurança Nacional. “A fraude alimentada por IA é outra preocupação crítica. A síntese de voz é um exemplo disso, onde uma amostra de voz de três segundos pode treinar um modelo para soar como qualquer pessoa”, diz a Microsoft. “Até algo tão inofensivo como sua saudação de correio de voz pode ser usada para obter uma amostragem suficiente”.

A Microsoft está respondendo à ameaça com a construção de um “Security Copilot“, um assistente de IA para ajudar os profissionais de segurança a identificar violações e compreender melhor os dados gerados pelas ferramentas de cibersegurança.

“Embora os atacantes permaneçam interessados em IA e explorem as capacidades e controles de segurança das tecnologias atuais, é importante manter esses riscos em contexto. Como sempre, práticas de higiene, como autenticação multifatorial (MFA) e defesas de Zero Trust, são essenciais, pois os atacantes podem usar ferramentas baseadas em IA para aprimorar seus ataques cibernéticos existentes que dependem de engenharia social e na busca de dispositivos e contas não seguras”, dizem as empresas sobre a pesquisa.

*Com informações do The Verge

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Author Photo
Redação

A redação contempla textos de caráter informativo produzidos pela equipe de jornalistas do IT Forum.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.