Inteligência artificial rouba R$ 590 mil de empresa imitando voz

Você reconheceria a voz do seu chefe se fosse copiada por inteligência artificial?

Author Photo
2:25 pm - 06 de setembro de 2019
Human cyborg robot with anonymous circuit board face

Se você acha que o futuro ainda não foi longe demais, talvez precise ler essa notícia. As técnicas de deepfake, que já são consideradas assustadoras, agora foram utilizadas para um roubo.

A cena a seguir parece bastante com filmes. Criminosos, utilizando o deepfake para voz, enganaram um funcionário de uma empresa e roubaram US$ 240 mil, ou cerca de R$ 590 mil na conversão atual.

O software de imitação de voz imitou o discurso de um executivo, que enganou o seu subordinado. A seguradora da companhia (Euler Hermes), cujo nome não foi revelado, confirmou o caso. Como informado pelo Washington Post, este é um dos primeiros casos públicos de assalto usando inteligência artificial.

Foi o seguinte: o diretor administrativo de uma empresa britânica de energia recebeu uma ligação e seguiu ordens para transferir toda essa grana para uma conta na Hungria. Até aí, “tudo bem”, mesmo com o pedido estranho.

O diretor disse que a voz era tão realista que simplesmente obedeceu aos comandos. O caso foi relatado inicialmente pelo Wall Street Journal.

A tecnologia de inteligência artificial permite que deepfakes sejam criados. Eles podem imitar ou copiar rostos e vozes, dependendo da aplicação. Neste caso, foi usada para ludibriar uma companhia e roubar uma boa quantia de dinheiro.

O motivo para a induzir à transferência da grana foi para evitar “multas por atraso no pagamento”. A seguradora disse que a inteligência artificial foi capaz de imitar a voz, tonalidade, pontuação e até o sotaque alemão do superior da companhia.

Você reconheceria a voz de um robô?

Desde que começaram a explodir na internet, os deepfakes, que se apropriam de AI, trouxeram preocupações. Em vídeos, por exemplo, eles podem alterar falas e inserir conotações; inclusive tem sido usado em materiais pornográficos para potencialmente prejudicar outras pessoas.

Nas redes sociais, o que não faltam são vídeos (a maioria engraçados) de deepfakes simulando cenas… peculiares, com pessoas famosas.

Ao Washington Post, o pesquisador sênior da Symantec, Saurabh Shintre, diz que a tecnologia de “produção” de áudio fez longos progressos nos últimos anos. A empresa de segurança cibernética já identificou pelo menos três casos semelhantes ao deste relatado.

Apesar da tecnologia ainda não ser perfeita, Shintre diz que os criminosos usam diferentes táticas para enganar as vítimas. Por exemplo: eles aplicam ruídos de fundo, alegam problemas no som, atrasos nas respostas; isso quando não dão desculpas sobre estar em um elevador, carro ou com pressa para pegar um voo.

Para treinar uma inteligência artificial até chegar a um ponto convincente, é preciso de uma boa quantidade de áudios originais. Assim, as ferramentas de representação conseguem produzir imitações mais atraentes.

Ninguém foi preso

Depois do primeiro pedido, os ladrões ousaram fazer um segundo. O diretor, então, chamou o seu chefe para tentar entender a confusão. O mais bizarro é que ele estava falando com o falso chefe… com o chefe verdadeiro do lado.

O dinheiro roubado, neste caso, foi canalizado através de contas na Hungria e no México antes de se espalhar em outros lugares. Nenhum suspeito foi identificado, conforme cita a seguradora, que alega também o desaparecimento do mesmo.

Como estes sistemas de inteligência artificial evoluem rapidamente, pesquisadores também trabalham em formas de usá-la para combater sistemas falsos.

Mas, de qualquer forma, uma das melhores prevenções, ainda assim, é instruir as pessoas, funcionários e ficar de olho no que a tecnologia tem feito ao redor do mundo.

Fonte: WSJ, Washington Post.

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.