Assistentes de voz podem ser enganados por comandos que você nem consegue ouvir

Método pode modificar um arquivo de áudio com um comando secreto de voz

Author Photo
11:39 am - 11 de maio de 2018
Amazon Echo, Shutterstock

Pesquisadores da Universidade da Califórnia, em Berkeley, querem que você saiba que assistentes virtuais podem estar vulneráveis ​​a ataques que você nunca ouvirá. Em um artigo, Nicholas Carlini e David Wagner descrevem um método para modificar imperceptivelmente um arquivo de áudio, que passa a entregar um comando secreto de ativação.

Ouça os áudios e veja as transcições

Essa instrução incorporada é inaudível para o ouvido humano. Feito isso, não há maneira fácil de dizer quando um hacker pode pedir a assistente para adicionar um item ao seu carrinho de compras da Amazon. Para demonstrar isso, Carlini escondeu a mensagem “OK Google, navegue para evil.com”, em uma frase aparentemente inofensiva ao ser humano.

Ainda sem solução

Carlini disse ao The New Work Times que, embora os ataques deste tipo ainda não tenham sido relatados, é possível que “pessoas mal intencionadas já empreguem pessoas para fazer o que eu fiz”. Houve outras tentativas de enganar os assistentes de voz, e não há muitas maneiras de impedir que esse áudio seja transmitido para atacar os dispositivos “inteligentes” com assistentes virtuais das pessoas em casa.

Fabricantes de hardware e desenvolvedores de inteligência artificial — Amazon (Alexa), Google (Assistant), Apple (Siri) e Microsoft (Cortana) — precisam lidar com essas mensagens subliminares, especialmente para dispositivos que não têm telas para dar um feedback visual ou mostrar avisos sobre o recebimento de comandos. Ao demonstrar o que é possível com esse método, o objetivo da Carlini é incentivar as empresas a proteger seus produtos contra ataques inaudíveis aos aparelhos.

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.