MIT研發無聲操控設備,不需說話就能懂你

近日,MIT的神經科學教授Pattie Maes帶領團隊研發了一款人機交互設備,叫做AlterEgo,佩戴者無需說話,只用調動一些面部肌肉即可對其進行操縱,該裝置還可連接到計算機和手機,並對這些電子設備下達命令。

MIT研發無聲操控設備,不需說話就能懂你

雖然蘋果有Siri、亞馬遜有Alexa,但是這些設備都需要使用者通過說話來與之交流,但是在高噪音環境,諸如飛機上、火車站、熱鬧的街頭都很難使用這項功能,此外,用說話的方式也可能會暴露隱私。

因此,MIT的研究人員則希望建立一種更加私密且直接的溝通方式,例如直接讓裝置直接讀取使用者的腦電波或是肌肉電信號。更長遠的看,這項研究的最終目標實際上是革新計算機和人類互動方式。

不過,目前的技術還尚不能直接讀取腦電波並轉換成相關的指令,此次MIT的研究人員就是利用肌肉的細微運動,通過將這些運動產生的電信號與提前設置好的指令關聯在一起來實現無語音控制。

為了讀取肌肉的運動,整個裝置外觀像電話推銷員使用的無線耳機,連接耳朵並順著下顎線至下嘴唇,裝置上遍佈著探測電極,耳朵上的部分還包含一對耳骨傳導器,使用者即可通過這部分的肌肉運動來下達命令,而且可以邊說話邊下達命令。

具體來說,它會將使用者某部分的肌肉運動和一種指令相關聯,但由於當前研究處於初步階段,它只能夠讀取20種指令。

雖然聽起來簡單,但關於肌信號的研究早在上個世紀70年代就開始了,然而由於探測器、神經信號轉換等技術限制,生物學家始終不能獲得非常準確信號——肌肉電信號不僅微弱,而且錯綜複雜,如果探測器不夠精確,或是算法不夠嚴謹,都無法準確將這些信號和結果關聯起來。

MIT研發無聲操控設備,不需說話就能懂你

那時關於肌肉信號的研究一直被稱之為“Subvocalization”,研究的目的就是為了消除語言表達,讓無聲交流成為可能。而在神經網絡問世之後,這項研究終於獲得較為可靠的結果,此次的研究中,研究人員就在實驗者下顎上放置四個探測電極,然後將數據和對應的詞彙用神經網絡進行訓練。

最終,它能夠以92%的準確度讀取使用者所下達的命令,並且通過藍牙與手機、計算機或是智能電視相連。

在測試實驗中,研究人員演示了通過該裝置控制只能電視、向手機詢問當前時間、計算購物費用等功能。未來該裝置或許還可以在Uber上預約叫車、添加日程等更豐富的功能。

MIT研發無聲操控設備,不需說話就能懂你

此次研究的負責人Pattie Maes教授,曾於1994年獲得比利時布魯塞爾自由大學計算機科學博士學位,隨後加入MIT進行於人機交互、人工智能領域的研究,專注於將認知增強功能應用於學習、記憶、健康。除了學術領域的成就,她還是多家人工智能公司的創始人,包括已經被微軟收購的Firefly Networks、被鄧白氏集團(Dun & Bradstreet)收購的Open Ratings。

目前,研究人員正在進行更豐富的測試以豐富數據庫,讓肌肉電信號能夠關聯更多的指令。未來這項裝置可能會為無法正常發聲的殘疾人提供便利,此外,軍方也可能用該裝置來輔助飛行駕駛員進行系統操作。


分享到:


相關文章: