MIT研发无声操控设备,不需说话就能懂你

近日,MIT的神经科学教授Pattie Maes带领团队研发了一款人机交互设备,叫做AlterEgo,佩戴者无需说话,只用调动一些面部肌肉即可对其进行操纵,该装置还可连接到计算机和手机,并对这些电子设备下达命令。

MIT研发无声操控设备,不需说话就能懂你

虽然苹果有Siri、亚马逊有Alexa,但是这些设备都需要使用者通过说话来与之交流,但是在高噪音环境,诸如飞机上、火车站、热闹的街头都很难使用这项功能,此外,用说话的方式也可能会暴露隐私。

因此,MIT的研究人员则希望建立一种更加私密且直接的沟通方式,例如直接让装置直接读取使用者的脑电波或是肌肉电信号。更长远的看,这项研究的最终目标实际上是革新计算机和人类互动方式。

不过,目前的技术还尚不能直接读取脑电波并转换成相关的指令,此次MIT的研究人员就是利用肌肉的细微运动,通过将这些运动产生的电信号与提前设置好的指令关联在一起来实现无语音控制。

为了读取肌肉的运动,整个装置外观像电话推销员使用的无线耳机,连接耳朵并顺着下颚线至下嘴唇,装置上遍布着探测电极,耳朵上的部分还包含一对耳骨传导器,使用者即可通过这部分的肌肉运动来下达命令,而且可以边说话边下达命令。

具体来说,它会将使用者某部分的肌肉运动和一种指令相关联,但由于当前研究处于初步阶段,它只能够读取20种指令。

虽然听起来简单,但关于肌信号的研究早在上个世纪70年代就开始了,然而由于探测器、神经信号转换等技术限制,生物学家始终不能获得非常准确信号——肌肉电信号不仅微弱,而且错综复杂,如果探测器不够精确,或是算法不够严谨,都无法准确将这些信号和结果关联起来。

MIT研发无声操控设备,不需说话就能懂你

那时关于肌肉信号的研究一直被称之为“Subvocalization”,研究的目的就是为了消除语言表达,让无声交流成为可能。而在神经网络问世之后,这项研究终于获得较为可靠的结果,此次的研究中,研究人员就在实验者下颚上放置四个探测电极,然后将数据和对应的词汇用神经网络进行训练。

最终,它能够以92%的准确度读取使用者所下达的命令,并且通过蓝牙与手机、计算机或是智能电视相连。

在测试实验中,研究人员演示了通过该装置控制只能电视、向手机询问当前时间、计算购物费用等功能。未来该装置或许还可以在Uber上预约叫车、添加日程等更丰富的功能。

MIT研发无声操控设备,不需说话就能懂你

此次研究的负责人Pattie Maes教授,曾于1994年获得比利时布鲁塞尔自由大学计算机科学博士学位,随后加入MIT进行于人机交互、人工智能领域的研究,专注于将认知增强功能应用于学习、记忆、健康。除了学术领域的成就,她还是多家人工智能公司的创始人,包括已经被微软收购的Firefly Networks、被邓白氏集团(Dun & Bradstreet)收购的Open Ratings。

目前,研究人员正在进行更丰富的测试以丰富数据库,让肌肉电信号能够关联更多的指令。未来这项装置可能会为无法正常发声的残疾人提供便利,此外,军方也可能用该装置来辅助飞行驾驶员进行系统操作。


分享到:


相關文章: