Notícias

Segurança cibernética e inteligência aumentada (não inteligência artificial…)

Há pouco mais de um mês, um novo ataque cibernético afetou novamente empresas no mundo todo. No Brasil, não foi diferente, com impacto em instituições como o Hospital de Câncer de Barretos.

Enquanto se discute sobre a extensão criminal desse tipo de evento e como tratá-la adequadamente dentro dessa esfera de atuação, no universo da tecnologia a movimentação é bastante intensa no sentido de desenvolver mecanismos cada vez mais eficazes não só para prevenir, mas para bloquear e minimizar impactos desse tipo de ataque.

Um dos temas mais debatidos recentemente no mundo de tecnologia de informação, a inteligência artificial (IA), está sendo amplamente estudado para que seu melhor potencial seja aplicado em diferentes cenários, inclusive na luta contra o crime cibernético.

Aqui gostaria de aprofundar um conceito interessante: o de inteligência aumentada — não simplesmente inteligência artificial. De forma simples, o último conceito se concentra em “replicar” de forma tecnológica o que o ser humano é capaz de fazer hoje, o que não é pouco, muito menos simples ou explorado de forma exaustiva, mas tende a “automatizar” atividades cognitivas.

O primeiro conceito, que é o que começa a ser explorado de forma intensiva na academia e em situações de negócio, trata de aplicações onde se complemente as habilidades cognitivas dos seres humanos. E o potencial delas é ainda hoje muito desconhecido.

Mas, se nem a inteligência artificial “tradicional” — se é que podemos chamar assim — já está madura, porque é que já se discute abordagens ainda mais inovadoras? Não seria melhor explorar o potencial de uma antes de iniciar a exploração de outra e correr o risco de não focarmos recursos de forma inteligente?

Resposta simples: por mais que a inteligência artificial não esteja madura, nós já encontramos formas de enganá-la e subjugá-la (sim, somos realmente muito criativos!).

Um exemplo concreto: E julho, durante a Defcon, conferência  mundial sobre hacking, nos Estados Unidos, foi demonstrada uma simples aplicação baseada em um framework de desenvolvimento aberto (open source) chamado OpenAI (http://openai.com), criado por uma empresa de pesquisa sem fins lucrativos, de mesmo nome, de Elon Musk, capaz de alterar o código de um malware de forma que sua existência não seja detectada por nenhuma solução de segurança do mercado.

A premissa adotada foi simples: todos os mecanismos de IA têm pontos cegos e esses pontos podem ser explorados por outros sistemas de IA. Ao introduzir pequenas mudanças num código de malware, ele foi capaz de ignorar medidas de segurança durante 16% do tempo, permanecendo funcional e indetectável.

Enganar sistemas de IA e sua capacidade de reconhecer objetos — ou códigos, neste caso — é surpreendentemente simples. Os pesquisadores do Google conseguiram enganar o reconhecimento de imagem pela IA aplicando um gradiente “imperceptivelmente pequeno” a uma imagem de um urso panda.

A mudança, irreconhecível aos nossos olhos, fez com que a IA tivesse mais confiança em seu erro do que na avaliação original de que a imagem era de um urso panda. Isso já foi parte de um estudo documentado pela Universidade de Washington (https://arxiv.org/pdf/1703.09793.pdf).

Isso não quer dizer que o aprendizado de máquina e a IA não tenham seus nichos — não há nenhuma maneira melhor de processar a quantidade de dados quase inútil que temos e continuamos a gerar diariamente. Também é fantástico tornar a tecnologia algo mais fácil de usar, embora com limitações, como não entender idiomas e suas nuances como os seres humanos.

Se confiarmos no aprendizado da máquina para proteger nossas redes, precisamos aceitar algo: é tão fácil treinar uma máquina para reconhecer o malware como é para treinar outra máquina para vencê-la.

Esses experimentos que enganam sistemas de IA são preocupantes. A indústria de tecnologia está investindo muito dinheiro e tempo na aprendizado de máquina, mas ainda não pode escolher coisas com alguma certeza se você apenas “ajustar um pouco” os algoritmos.

Por conta desses avanços e das rápidas evidências de que, em muitos casos, a simples “automação” de nossa inteligência não resolve alguns problemas é que estão surgindo técnicas e tecnologias explorando a inteligência aumentada.

De qualquer forma, o investimento de tempo e estudo pessoal nos temas, linguagens e frameworks de inteligência artificial é extremamente importante e ainda tem um campo de aplicação, na maioria das vezes, ainda inexplorado.

São esses investimentos e estudos que vão dar o fundamento necessário para que empresas e profissionais de dados tenham mais condições de transformar seus negócios e a nossa sociedade, em um futuro próximo.

*Daniel Lázaro é diretor executivo para tecnologias de analytics da Accenture na América Latina.

Recent Posts

Novos executivos da semana: Dahua, Rimini Street, Arcserve e mais

O IT Forum traz, semanalmente, os novos executivos e os principais anúncios de contratações, promoções e…

1 dia ago

Sustentabilidade x IA: emissões da Microsoft sobem 30%

A Microsoft está enfrentando críticas após um relatório revelar um aumento alarmante em suas emissões…

1 dia ago

Centroflora integra e monitora ambientes industriais e automatiza manutenções

O Grupo Centroflora é um fabricante de extratos botânicos, óleos essenciais e ativos isolados para…

1 dia ago

8 oportunidades de vagas e cursos em TI

Toda semana, o IT Forum reúne as oportunidades mais promissoras para quem está buscando expandir…

1 dia ago

Fraudes: 58% das empresas dizem estar mais preocupadas no último ano

Um estudo divulgado na segunda-feira (13) pela Serasa Experian mostra que a preocupação com fraudes…

1 dia ago

82% dos ataques via USB podem interromper operações industriais

A Honeywell divulgou essa semana a sexta edição de seu Relatório de Ameaças USB de…

1 dia ago