小心啦,亞馬遜的Alexa正在把你的信息洩露給黑客!

全文約2000字,閱讀時間預計5

分鐘。

小心啦,亚马逊的Alexa正在把你的信息泄露给黑客!

最近一項研究表明,Alexa“技能搶注”會劫持用戶的聲音命令。研究發現,語音處理中的同音字和錯誤可能會被Echo的網絡釣魚用戶惡意使用。

亞馬遜的Echo和Google Home等物聯網設備的成功為開發人員創造了一個機會——可以構建語音激活的應用程序,然後將其更深入地鏈接到客戶的日常生活中。但同時,根據伊利諾伊大學一個研究小組的研究,出於惡意目的利用語音識別機器學習系統某些特性的可能性也在增加。

被稱為“技能搶注”的攻擊方法(本月在巴爾的摩的USENIX安全研討會上發表的一篇論文中這樣定義)目前僅限於亞馬遜Alexa平臺,但它同時也警示我們,應用於第三方應用程序的其他語音平臺在擴大支持時必須考慮考慮這個問題。

小心啦,亚马逊的Alexa正在把你的信息泄露给黑客!

美國知名科技媒體Ars Technica 在USENIX 安全研討會上採訪了UIUC團隊(由Deepak Kumar,Riccardo Paccagnella,Paul Murley,Eric Hennenfent,Joshua Mason,助理教授Adam Bates和Michael Bailey教授組成),一起討論了他們的研究以及基於語音的信息系統輸入所帶來的其他威脅的可能性。

主人的聲音

生活中常常會發生這樣的情景:我們的語音智能設備被來自廣播或電視廣告、YouTube視頻、甚至是小孩的語音命令激活了!

今年3月份,研究人員發現,即使Windows 10被鎖定,Cortana也會響應語音命令,比如打開網頁。

這種漏洞不僅僅存在於可聽見的語音命令。在今年的USENIX安全研討會上,來自中國信息安全國家重點實驗室Yuan Xuejing的研究表明,嵌入在視頻原聲帶、音樂流或無線電廣播中的音頻可以被修改,以觸發自動語音識別系統中的語音命令,而不會被聽者察覺。大多數聽眾都無法識別這些經過修改的歌曲存在的問題。

論文將這種技能定名為“技能搶注”。

研究人員發現,“技能搶注”攻擊可能會帶來更直接的風險,開發人員似乎已經給自己的應用程序起了類似於流行應用程序的名字。其中一些是偶然的,比如“Fish Facts”(一種關於向Alexa發出“cat”指令的隨機反饋情況)和“Phish Facts”(一種關於向Alexa發出位於佛蒙特州的果醬樂隊的反饋情況),但是其他的如“Cat Fax”(模仿“Cat Facts”)顯然是有意的。

小心啦,亚马逊的Alexa正在把你的信息泄露给黑客!

由於Alexa會用註冊到amazon的雲應用程序來處理用戶的請求,所以它可能會創建以現有合法應用程序的同音字命名的惡意技能。

亞馬遜在2017年默認通過語音命令提供其庫中的所有技能,並且可以通過語音將技能“安裝”到客戶的庫中。“不管怎樣,對於那些有選擇地註冊技能名稱的人來說,這是一種只有語音的攻擊,”UIUC安全和透明系統實驗室的負責人Bates說。

這種漏洞為惡意開發者提供了各種可能。他們可以建立攔截合法技能請求的技能,以驅動竊取個人和財務信息的用戶交互。這基本上是用Alexa來進行釣魚攻擊(類似於“Fish Facts”)。UIUC的研究人員(在沙箱環境中)演示了一種被稱為“Am Express”的技能如何被用來劫持美國運通的“Amex”技能的初始請求,並竊取用戶的憑證。

Alexa聽到了嗎?

還有一些詞語Alexa常常會識別錯,這可能是由於Alexa的機器學習訓練時使用了一些口音較重的音頻。

為了確定其中的一部分,UIUC團隊利用了來自Nationwide Speech Project的音頻樣本語料庫——語言學研究人員Cynthia Clopper和David Pisoni收集了來自美國六大方言區的60位不同發言者的演講樣本。

小心啦,亚马逊的Alexa正在把你的信息泄露给黑客!

60個發言者,每個人說出188個特定單詞,總共11,460個音頻樣本,這些組成了UIUC團隊使用的語料。這些樣本被推送給由“Record This”團隊建立的Alexa技能——該技能使用客戶端應用程序將單詞轉錄為文本,客戶端應用程序會分批播放音頻並控制提交的速率。

“我們將每個演講樣本發送給Alexa 50次,”Kumar說,“在60位演講者中Alexa為我們提供了573,000個轉錄。”

測試結果顯示,188個單詞中有27個(14%)會被Alexa誤解為另一個詞。同時,研究還發現Alexa識別錯了某些特定的方言詞和性別詞,這意味著這些詞語可能被用於攻擊特定的人群。

UIUC團隊與亞馬遜的安全團隊分享了他們的發現。Ars Technica與亞馬遜取得了聯繫,瞭解其正在採取哪些措施來抵禦這些類型的攻擊,亞馬遜發言人做出了以下聲明:

“客戶信任對我們很重要,我們將安全審查作為技能認證中的一部分。我們已經採取緩解措施來檢測這種類型的技能行為,並在發現時拒絕或刪除它們。“

UIUC的研究人員承認,在沒有在Alexa的生產庫中實際發佈一項技能的情況下,他們能夠進行測試的程度是有限的。但Bates教授表示,這種問題不是說我們推出一個補丁就可以解決掉的,問題的本質在於我們信任機器學習的語言處理分類器,而所有的分類器都是會出錯的,而且錯誤會蔓延到技術領域之外。

UIUC團隊正在做一系列可能的後續研究,比如Alexa的語音處理問題如何影響不同的人群。因為研究中的一些數據表明,Alexa可能無法平等地處理所有發言人的語音,但要真正處理這個問題,需要更大範圍的發言數據。

研究人員還在考慮研究有關物聯網設備信任影響的課題。他們在論文中寫到,“如果攻擊者意識到用戶對語音界面的信任程度高於其他計算方式,他們可能會對語音界面進行更強勁更有針對性的攻擊。”

該團隊希望探索其他語言處理平臺上存在的處理錯誤的類型。

“作為一個接口問題,”Bates說,“這沒有底線。”

本文來源來源:Ars Technica,如需獲取原論文,請掃下文二維碼,加小助理,她會第一時間發送給你!

-End-


分享到:


相關文章: