黑技术诞生!我们与智能音箱的对话可能会被修改,并错误执行!

语音识别技术的发展,智能音箱、语音助手产品和应用越来越多,存在安全风险吗?

黑技术诞生!我们与智能音箱的对话可能会被修改,并错误执行!

2017年,智能音箱产品空前的火热,京东、阿里、小米都先后发布了自家的智能音箱产品,智能音箱产品拥有了丰富的功能,可以通过语音操控,实现打车、购物、交互等功能。

同年,智能汽车的发力也强化了语音助手的作用,人们坐在车里,通过语音助手就可以实现对车的功能需求。一时间,智能音箱、语音助手们成为了人工智能应用场景的最新一代入口,巨头们磨刀霍霍,纷纷投入。

其实,不论是智能音箱,还是语音助手,都是语音识别技术的应用,它的核心是一套“语音-文本"的转换系统,这是有可能造成风险的地方。

黑技术诞生!我们与智能音箱的对话可能会被修改,并错误执行!

人们将自己的需求或命令告诉智能音箱或语音助手进行录入,录入的语音通过“语音-文本"的转换系统实现语音到文本的转换,这里的文本就是对语音进行编译,让应用可以读懂的机器语言(程序或代码)。这样,应用就可以驱动设备来完成功能。

那么,在整个“语音-文本"的转换过程中,如果非法者侵入,将原有的语音替换成非法者想要的语音的可能性有多大呢?这个假设听起来有点恐怖。目前在家庭、智能汽车上都部署了这样的语音设备,如果出现这样的问题,那人们将会面临很大风险。

黑技术诞生!加州大学伯克利分校的科学家们开发出了一种技术,可以轻松修改、替换掉语音,将输出的文本换成攻击者想要的样子。

黑技术诞生!我们与智能音箱的对话可能会被修改,并错误执行!

2018年1月11日上午,世界上人工智能技术研究的顶尖机构,加州大学伯克利分校的计算机科学家们就开发出一种人工智能(AI)技术,可以攻击"文本-语音"转换系统,利用这种方法,不管语音听起来是怎样的,文本输出结果都能变成攻击者想要的样子。

黑与白的技术发展往往就是这样,道高一尺魔高一丈。这种技术的诞生,向语音识别技术发出了警告。黑客使用这项技术来作恶是完全可能的,当今的世界到处都是智能音箱和语音助手,新攻击技术无疑是一枚重磅炸弹。

跟着引石老王学安全,每一个产品都是一套体系,都需要加入应有的防御策略,这样才可以主动发起防御,使用“数字签名”技术可以实现攻击者对语音篡改的主动防御。

黑技术诞生!我们与智能音箱的对话可能会被修改,并错误执行!

每一个领域的专家似乎过多的关注了应用本身,却往往忽视了安全。由于跨领域,有的专家仅了解信息安全的浅层防御知识,这样就导致产品上市会带来一定的安全隐患。每一个产品都是一套体系,需要加入相应的防御策略,这样才可以主动防御风险。那么语音音箱、语音助手的产品商们如何面对这样的风险呢?

从安全的角度来讲,语音在转换成文本的过程中被攻击者非法篡改了。如果在语音录入的同时,对语音进行一个数字签名(实际也是一种加密),那么这项技术即使被攻击者使用,把语音实施了篡改,那应用也能停止这种非法的执行。这样语音作为人工智能应用场景的入口,才会变得更加安全。

黑技术诞生!我们与智能音箱的对话可能会被修改,并错误执行!

引石老王:从事信息安全工作20年,国内首批商业密码从业人员,国家商业密码应用的参与者与见证者。专注物联网、人工智能技术的反劫持防御与信息安全反黑,为您解读当下科技创新与发展,推荐最佳的反劫持主动防御技术。欢迎关注交流。

关注引石老王,评论安全热点,解读安全风险,欢迎您留言探讨,期待与您的互动,共同交流!


分享到:


相關文章: