研究人员:AI助理需谨防人耳听不到的隐藏式攻击

  • 2018-09-20 14:07
  • cnBeta.COM

  中美研究人员已经验证了一种可向Siri等AI助理发出“隐藏式攻击命令”的方法,因其采用了人耳察觉不到的音频,从而强迫智能助理执行非机主下达的恶意命令。《纽约时报》指出,如果被别有用心的人得逞,这种攻击手段可用于拨打电话、打开网站、甚至更糟糕的事情。根据来自加州、伯克利、以及乔治城大学的学生团队在本月发表的一篇研究论文,他们甚至可以将恶意命令嵌入音乐录音或口述文本中。

  当在亚马逊Echo 或苹果iPhone附近播放时,普通人只能听到单纯的歌曲或语音。但智能设备能够捡拾起一条潜在的指令,比如向购物车中添加一些东西。

  往更危险的层面去讲,恶意攻击者可以下达锁门、卷钱、或购买线上商品等操作 —— 尽管在通常情况下,为了不引起事主的注意,事情都是静悄悄地进行、涉及金额也不会太大。

  然而论文作者之一、来自加州大学博客利分校的五年制计算机安全博士生 Nicholas Carlini 坚信,或许早已有恶意攻击者实施过类似的技术:我们想要知道自己是否能够让它变得更加隐秘,虽然没有证据表明这些技术已经跑出了实验室,但它被人利用只是时间的问题。我的的猜测是,恶意攻击者早已雇人干过我提到的事情。

  去年的时候,美国普林斯顿和中国浙江大学的研究人员们已经执行过类似的测试,证明了AI助理可以通过不被人耳所听到的音频给激活。

  如上方的“海豚攻击”演示视频所示,研究人员打造了一台可以下达隐藏命令的发送器,并顺利地让手机执行了拨打特定电话的操作(另有拍照和发送短信等测试)。

  当然,海豚攻击的范围是有限的,因为攻击者必须足够接近接受设备。

  (原标题:研究人员:AI助理需谨防人耳听不到的隐藏式攻击|海豚|助理|研究)

头条推荐
图文推荐