Assistentes de voz podem ser enganados por comandos que você nem consegue ouvir
Método pode modificar um arquivo de áudio com um comando secreto de voz
Pesquisadores da Universidade da Califórnia, em Berkeley, querem que você saiba que assistentes virtuais podem estar vulneráveis a ataques que você nunca ouvirá. Em um artigo, Nicholas Carlini e David Wagner descrevem um método para modificar imperceptivelmente um arquivo de áudio, que passa a entregar um comando secreto de ativação.
Ouça os áudios e veja as transcições
Essa instrução incorporada é inaudível para o ouvido humano. Feito isso, não há maneira fácil de dizer quando um hacker pode pedir a assistente para adicionar um item ao seu carrinho de compras da Amazon. Para demonstrar isso, Carlini escondeu a mensagem “OK Google, navegue para evil.com”, em uma frase aparentemente inofensiva ao ser humano.
Ainda sem solução
Carlini disse ao The New Work Times que, embora os ataques deste tipo ainda não tenham sido relatados, é possível que “pessoas mal intencionadas já empreguem pessoas para fazer o que eu fiz”. Houve outras tentativas de enganar os assistentes de voz, e não há muitas maneiras de impedir que esse áudio seja transmitido para atacar os dispositivos “inteligentes” com assistentes virtuais das pessoas em casa.
Fabricantes de hardware e desenvolvedores de inteligência artificial — Amazon (Alexa), Google (Assistant), Apple (Siri) e Microsoft (Cortana) — precisam lidar com essas mensagens subliminares, especialmente para dispositivos que não têm telas para dar um feedback visual ou mostrar avisos sobre o recebimento de comandos. Ao demonstrar o que é possível com esse método, o objetivo da Carlini é incentivar as empresas a proteger seus produtos contra ataques inaudíveis aos aparelhos.