Hackers encontram formas de usar ChatGPT para lançar malware
Segundo Check Point Research, mesmo diante de restrições antiabuso cibercriminosos se apoiam na ferramenta para sofisticar códigos maliciosos
Cibercriminosos estão encontrando novas formas de explorar o ChatGPT e outras ferramentas baseadas no OpenAI para desenvolver malware e e-mails de phishing, mesmo diante de restrições de antiabuso do ChatGPT.
Segundo descobertas da Check Point Research (CPR), os hackers estão aumentando o uso de bots do Telegram com o objetivo de criar uma nova metodologia que burle as restrições da plataforma de Inteligência Artificial conversacional, que virou sensação nos últimos dias. O principal objetivo dos cibercriminosos é usar esses recursos de IA para depurar e melhorar o código malicioso que lançam.
Ciente desse problema, a OpenAI atualizou sua política de conteúdo, criando barreiras e restrições na tentativa de impedir a criação de conteúdo malicioso. Várias restrições foram colocadas na interface do usuário do ChatGPT para evitar seu uso inapropriado, como o fato de que partir de agora, a IA não irá gerar respostas para pedidos com referências específicas à criação de malware ou e-mails de phishing que tentem se fazer passar por um banco ou outras entidades.
A equipe da CPR, entretanto, alertou para uma intensa atividade em fóruns clandestinos que revelam que os cibercriminosos estão trabalhando para contornar essas restrições. Em fóruns da Dark Web, as pessoas falam sobre como usar a própria API do OpenAI para superar as barreiras e limitações dessas ferramentas, destacando um modelo com foco na criação e distribuição do de bots do Telegram que emulam a API ChatGPT.
“Como parte de sua política de conteúdo, a OpenAI criou barreiras e restrições para impedir a criação de conteúdo malicioso em sua plataforma. No entanto, verificamos cibercriminosos contornando as restrições do ChatGPT, e há conversas ativas nos fóruns clandestinos revelando como usar a API OpenAI para contornar as barreiras e limitações do ChatGPT. Isso é feito principalmente criando bots do Telegram que usam a API, e esses bots são anunciados em fóruns de hackers para aumentar sua exposição”, detalha Sergey Shykevich, gerente do Grupo de Ameaças da Check Point Software.
Os criadores do bot concedem até 20 consultas gratuitas, mas cobram US$ 5,50 por cada 100 consultas. “Um custo praticamente zero em comparação com os altos lucros obtidos com esse tipo de ataque cibernético”, avalia a CPR.
Shykevich explica ainda que a versão atual da API do OpenAI é usada por aplicativos externos e possui muito poucas medidas antiabuso em vigor. Como resultado, permite a criação de conteúdo malicioso, como e-mails de phishing e código de malware, sem as limitações ou barreiras que o ChatGPT definiu em sua interface de usuário. “No momento, estamos vendo esforços contínuos de cibercriminosos para encontrar maneiras de despistar as restrições do ChatGPT”, alertou.