Estar na vanguarda da corrida tecnológica e colher os benefícios do uso da Inteligência Artificial (IA) integram as estratégias de negócios de empresas mundo afora nos últimos 16 meses – tendo o anúncio do ChatGPT pela OpenAI como o seu grande marco zero. Porém, para isso, é preciso assegurar que um dos pilares de sucesso seja a segurança digital de dados e informações, sob pena de danos catastróficos. Assim como as empresas, criminosos cibernéticos também seguem a “hype” da IA.
A possibilidade do uso dessa tecnologia para atacar sistemas embarcados em modelos como ChatGPT e o Gemini (da Google) foi testada recentemente por pesquisadores da Cornell Tech (EUA). Em um ambiente de testes, eles conseguiram, com o uso de uma “praga” cibernética de IA Generativa (apelidada de Morris II, em referência ao worm Morris, que criou caos em 1988), roubar dados e implantar malware ao longo do caminho, propagando-se entre diferentes sistemas – no teste, ChatGPT e Gemini. O ataque contra um assistente de e-mail foi realizado com êxito, permitindo o roubo de dados e envio de mensagens de spam.
Leia mais: Para 92% dos profissionais de segurança, IA generativa é grande aliada
Tecnicamente falando, como um desenvolvedor de longa data que sou, fiquei intrigado com a metodologia: os pesquisadores da Cornell Tech recorreram ao chamado “prompt adversário autorreplicante”, que aciona o modelo de IA Generativa para gerar, em sua resposta, outro prompt. Desta forma, a plataforma de IA é instruída a produzir um conjunto de instruções adicionais nas suas respostas, em um mecanismo muito semelhante aos ataques tradicionais de injeção de SQL e transbordamento de dados (buffer overflow), concluíram os pesquisadores.
Não foram poucos os relatórios de tendências em tecnologia que, neste início de ano, colocaram a cibersegurança no topo das prioridades para companhias dos mais variados tamanhos. Somente no ano passado, 68% (quase sete em cada dez) ataques de cibercriminosos registrados na América Latina aconteceram no Brasil, de acordo com um estudo recente elaborado pela IBM, que monitorou cerca de 150 bilhões de eventos de segurança por dia em mais de 130 países e regiões.
A IA Generativa, como evidenciou o estudo da Cornell Tech, aparece como peça importante, tanto para equipe de TI quanto para criminosos virtuais. Os temores em torno do potencial do mal uso da IA não são injustificados: apenas 18% dos profissionais antifraude lançam mão de ferramentas de IA e machine learning no seu trabalho, segundo levantamento da Associação de Investigadores de Fraudes Certificados (ACFE).
Como diz aquele antigo ditado: copo meio vazio então? Nem tanto. Agora, falemos do copo meio cheio da questão. De acordo com o mesmo trabalho da ACFE (que ouviu 1.200 membros no final de 2023), três em cada cinco organizações projetam aumentar o orçamento com tecnologias de cibersegurança até 2026. Estamos falando de um mercado que, estima-se, pode crescer entre US$ 200 bilhões e US$ 300 bilhões até o fim deste ano. Em resumo, a urgência acerca deste tópico está clara e colocada. Por tudo isso, podemos projetar, sem medo de errar, 7 abordagens estratégicas centrais que unam o melhor da IA e da cibersegurança em 2024:
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!
Uma CIO da indústria automobilística e um CIO da área de saúde se reúnem em…
Durante o NETmundial+10, evento global que aprofunda discussões sobre a governança do mundo digital organizado…
A sustentabilidade deve estar presente em todas as áreas. Essa foi a fala de abertura…
Um estudo da VisualGPS, plataforma de pesquisa da Getty Images, descobriu que três em cada…
O Itaú Unibanco anunciou a implementação de uma funcionalidade projetada para interromper chamadas de falsa…
Mais da metade (55%) dos líderes de TI classificam sua hierarquia na empresa como equivalente…