乾貨!新美國安全中心AI報告:人工智慧安全優缺點及存在問題

高層速讀

關鍵信息:新美國安全中心(CNAS)發佈了一篇報告,名為《人工智能:每個政策制定者需要知道什麼》,報告就AI的安全相關應用、優缺點和存在的問題進行了介紹。AI在數據分類、預測、異常探測等方面具有顯著優勢,但又存在脆弱、漏洞和交互故障等問題。

關鍵意義:CNAS希望這份報告能夠為人們就如何負責任地使用人工智能來改善國家安全打下堅實的基礎。

乾貨!新美國安全中心AI報告:人工智能安全優缺點及存在問題

近日,新美國安全中心(CNAS)發佈了一篇報告,名為《Artificial Intelligence:What Every Policymaker Needs to Know》(人工智能:每個政策制定者需要知道什麼)。CNAS希望這份報告能夠為人們就如何負責任地使用人工智能來改善國家安全進行健康的辯論打下堅實的基礎。本文將主要就AI的安全相關應用、優缺點和存在的問題進行介紹。

本報告旨在成為了解國家安全領域的人工智能和機器學習的入門,它解釋了人工智能語言和決策者需要了解的想法;探索與安全相關的人工智能應用;思考人工智能和機器學習時代的戰略競爭;並討論了人工智能革命對全球安全的間接影響。

乾貨!新美國安全中心AI報告:人工智能安全優缺點及存在問題

我們正處在人工智能(AI)和機器學習全球革命不斷加速和擴大的社會之中,這將對未來的經濟和軍事競爭產生巨大影響。人工智能和機器學習將可能導致新的工業革命,成為提高經濟競爭力並創造新的財富的來源;它們將導致醫學和汽車駕駛安全方面的進步;它們將提供新的虛擬培訓和娛樂形式;它們可能對我們的社會和福祉產生深遠的積極影響。

在本報告中,著重探討了人工智能安全相關應用,以及優缺點和存在的問題。

AI的用途

①數據分類。AI系統可幫助進行數據分類,如圖像、歌曲、醫療圖像等。在許多情況下,AI系統能夠比人更可靠、更準確地分類數據。

②異常探測。AI系統可以幫助探測異常行為,如欺詐性金融交易或新型惡意軟件,這些系統可用於幫助人類實時監控大規模數據。

③預測。

通過在大型數據集合中找到相應的模式,AI系統可對未來做出統計預測。

④優化。AI系統可用於複雜系統和任務的性能優化。例如,DeepMind使用機器學習優化Google數據中心以提高能源效率,實現了40%的冷卻能量節約和15%的能效整體提升。

乾貨!新美國安全中心AI報告:人工智能安全優缺點及存在問題

AI的自主性及侷限性

AI的自主性包括:

①嵌入式專長。通過將專長嵌入到機器中,自動化可使技能差一些的人員表現得像技能更高的人員一樣好,或者接近其水平。這對人類而言可將降低其執行特定任務的進入門檻。

②大規模操作。由於軟件可以近零或零成本複製,自動化可實現專業知識的大規模運用,因此通常那些由人類在小規模層面完成的任務可通過自動化實現更大規模的操作。

③快於人類的反應時間。自動化能以快於人類的速度執行任務,對事件的反應可能比人類快很多,如股票交易所的高頻交易及汽車自動剎車都是利用了該能力。

④優於人類的精確性和可靠性。基於AI的自動化能比人類更精確、可靠地執行任務。如X-47B展示了其在著陸方面的高度精確性。

⑤超越人類的耐性和警覺性。

自動化系統可以不知疲倦地監視數據,密切關注核電站或監視惡意簽名等計算機網絡活動。

⑥不需與人類聯繫即可運行的能力。自主性使機器人系統不需與人類進行可靠通信就能獨立執行任務。部分情況下,這種能力可用於長時間運行,如自主水下滑翔器。AI系統也有許多侷限性,當前的AI系統通常缺乏理解其行為環境的能力、不能靈活適應超出其設計參數之外的新情況、以及不能使用人類認為可能是“常識”的那些知識。

AI存在的問題

①脆弱性。當前AI系統的狹義特徵使人工智能具有“脆弱性”。不具備理解廣泛的行動環境的能力,AI系統可能就無法理解環境何時發生了變化以及其行為是否已經不再適用。

②不可預測性。由於AI系統的複雜性,用戶可能難以提前預測AI系統的行為。當AI系統是目標導向型系統或與現實世界環境互動型系統時,該問題會更加突出。

③弱可解釋性。部分AI方法難以解釋AI系統行為的原因。研究更具解釋性的AI方法對於擴大AI系統的潛在應用非常關鍵。

④機器學習的安全問題和漏洞。與統計模型一樣,AI系統可能也面臨相同的數據擬合的挑戰。另外一個問題是確保系統面對輸入數據變化時具有穩健性。這些安全問題可能會引發機器學習潛在國家安全應用方面的問題。

⑤偏差。一種原因是設計人員對目標的認識出現了偏差。另外一個原因是,機器學習所使用的訓練數據可能基於某種偏差認識。因此,偏差也是國家安全應用應該關注的一個問題。

⑥系統事故。由於系統各組成部分之間存在複雜的相互作用,AI也容易出現系統故障,特別是在競爭環境中該問題會更加明顯。

⑦人機交互故障。如果使用人員沒有充分理解系統的侷限性或者系統給出的反饋,AI系統也可能會發生故障。

⑧對手挖掘機器學習漏洞。對手可能會掌握AI系統的行為方式並利用其弱點,如通過使數據中毒讓機器學習不正確的行為,或通過訪問訓練數據等引發行為缺陷等。


分享到:


相關文章: