警惕AI軍事化!人工智能可尋找隱藏的核導彈,恐引發全球軍備競賽

最近,谷歌數千名員工與其軍事化項目Project Maven的矛盾,讓AI軍事化的問題持續升級。人工智能作為現在最前沿的技術,早已成為了重點研究對象,但由於人工智能的很多特徵可以與複雜環境相結合,卻難以在民用市場落腳,因此軍用AI就順理成章地成為了該技術的加持方向。而隨著越來越多的國家投入到軍用機器人的研發中,全球似乎已開始滑進了一場機器人軍備競賽。

據路透社日前報道,美國軍方正加大對一項機密研究工作的投入,來利用人工智能技術幫助預測核能導彈的發射,跟蹤並瞄準移動發射器。

此前,這個項目並沒有得到媒體的大肆報道,而在最新的五角大樓預算中,關於它很少的可被公開的細節也被隱藏在了一些難以理解的言語中。但接近這項研究的美國官員告訴對路透社表示,目前該項目正在進行多項分類計劃,以探索如何開發AI驅動的系統,來更好地保護美國免受潛在的核導彈襲擊。

如果研究成功,這樣的計算機系統將能夠以超出人類能力的速度和精度,去搜尋包括衛星圖像在內的大量數據,藉此發現導彈發射準備的各種跡象。進一步講,如果有襲擊事件發生,軍方就可以利用這項技術爭取更多時間來對導彈進行摧毀或攔截。

這一消息來源包括美國官員,由於研究的保密性,所以他們要求匿名發言。其中一位知情人士表示,“我們應該盡一切努力在發射之前找出導彈,並使其越來越難以從地面起飛。”

警惕AI軍事化!人工智能可尋找隱藏的核導彈,恐引發全球軍備競賽

特朗普政府的預算也證明了這一點。一些預算文件顯示,這個AI驅動的導彈項目明年的預算資金會增加超過兩倍,達到8300萬美元。儘管金額數量相對較小,但也表明了對美國來說,AI驅動的反導系統研究越來越重要。

人工智能技術的支持者Bob Work認為,人工智能和機器學習可以讓研究員做到“大海撈針”。他從去年7月開始擔任國防部副部長,雖然沒有提到過任何具體的軍事AI項目,但還是能看到美國軍方對AI的興趣。比如,五角大樓透露,它正在使用人工智能來識別無人機項目中收集的視頻中的物體,這是去年他們發起的一項名為“Project Maven”的公開宣傳的一部分。

不過儘管如此,一些美國官員表示,人工智能在軍事項目上的整體支出仍然嚴重不足。

AI軍備競賽——美國警惕中國,加大投資

目前,五角大樓正在與中國和俄羅斯展開一場競賽,將投入更多人工智能到其戰爭機器中,以創造更加先進、更加複雜的自主系統。

屆時,這些系統將可以通過自行學習來完成特定的任務。五角大樓關於利用人工智能來識別潛在的導彈威脅,並跟蹤移動發射器的研究尚處於起步階段,這也只是整體努力的一部分。

如上文中提到的,關於美國對人工智能導彈研究的細節報道還很少,但一位美國官員透露,一個追蹤移動導彈發射器系統的早期原型,已經在美國軍方內部進行了測試。這個項目涉及華盛頓特區的軍事和私人研究人員。官員們稱,這是對由情報部門風險投資基金In-Q-Tel資助的商業公司開發技術的進一步發展。

為了進行這項研究,該項目正在利用情報界的商業雲服務尋找數據中的模式和異常情況,其中包括能夠穿透暴風雨甚至是樹葉的精密雷達。

警惕AI軍事化!人工智能可尋找隱藏的核導彈,恐引發全球軍備競賽

此外,路透社找到的預算文件指出,計劃將移動導彈發射器計劃的重點擴大到“4 + 1”範圍。五角大樓通常使用“4 + 1”來指代中國、俄羅斯、伊朗、朝鮮四國以及恐怖組織。其實,美國對軍事AI的研究,在去年11月就曾遭到曝光,當時美國研究人員訓練出一個深度學習算法,用以識別某國的地空導彈基地。

讓人恐懼的是,這些算法比人類的速度快幾百倍,可以高效找出分佈在一塊近9萬平方公里區域內的地空導彈發射場。據瞭解,這種人工神經網絡基於能夠過濾和學習大量數據的人工神經元層,達到人類圖像分析專家90%的準確率。此外,它還將發現潛在導彈基地的時間從60小時減少到42分鐘

當然,這也只是美國政府公開的一些信息。

把海龜變成步槍——軍事AI存在風險

對於使用人工智能來搜捕導彈的支持者和批評者來說,他們也有一個共同的態度,即

軍事AI存在重大風險。它可以加速核危機的決策,因此可能會增加計算機生成錯誤的幾率。進一步來說,這可能會引發與俄羅斯和中國的人工智能軍備競賽,破壞全球核平衡。

美國戰略司令部指揮官兼美國空軍上將John Hyten表示,一旦AI驅動的系統全面投入使用,五角大樓將需要考慮制定保障措施,以確保人類(而不是機器)控制核決策的步伐,即五角大樓所說的“核戰爭危機升級階梯”(escalation ladder)。

此外,他在接受媒體採訪時也曾說道:“如果不採取措施,人工智能可能會迫使人類進入這個階段,一旦入局,所有的一切都將一起發生變化。”

警惕AI軍事化!人工智能可尋找隱藏的核導彈,恐引發全球軍備競賽

美國公共政策研究機構蘭德公司的專家預測,像中國和俄羅斯等國很有可能試圖欺騙人工智能導彈搜索系統,研究如何隱藏導彈不被發現。有一些證據表明他們可能會成功。

去年,麻省理工學院Labsix實驗室的一些研究人員使用3D打印出來的烏龜,成功地讓谷歌的InceptionV3圖像分類器將其識別為一個步槍。據瞭解,這個團隊成立就是為了打造“對抗圖像”,一種專門創造出來欺騙AI的圖片。一般來說,AI會將這些圖片中的物體識別成完全不同的東西。舉個例子,一張大花貓的圖片居然被AI認成了一碗牛油果醬。

對此,美國國防部高級研究計劃局(DARPA)的主任Steven Walker博士表示,五角大樓仍然需要人類評估人工智能系統的結論,“因為這些系統可能被愚弄”。DARPA正在開展一個項目,旨在讓人工智能驅動的系統能夠更好地向人類分析師解釋自己。在該機構看來,這對高風險的國家安全項目至關重要。

中國看軍用AI——重塑未來戰爭圖景

在這場AI軍備競賽上,中國一直是美國的關注重點。眾議院軍事委員會主席Mac Thornberry曾表示,“俄羅斯人和中國人肯定也在研究這些東西,甚至在某些方面會比我們付出更多的努力。”

今年4月,中國指揮與控制學會青工委副主任、國防科技大學軍事專家石海明接受科技日報採訪時表示,“人工智能在軍事領域的應用廣泛,包括軍用人工智能機器翻譯系統、智能電子戰系統、自動情報與圖像識別系統、人工智能武器等等。在遙遠的未來,人工智能也許會像一些科幻電影中描繪的那樣,讓人類戰爭從科幻變成現實。”

警惕AI軍事化!人工智能可尋找隱藏的核導彈,恐引發全球軍備競賽

目前,人工智能在某些軍事領域已顯現出超越人類的能力。在2016年舉行的一次模擬空戰對抗比賽中,人工智能系統通過靈活、迅捷的動作擊敗了具備更強武器系統的退役戰鬥機飛行員,就像一個象棋大師輸給了電腦。

對於軍事AI的迅速發展,不乏AI人士對此提出反對意見。

早在2017年的人工智能國際會議上,特斯拉首席執行官Elon Musk、蘋果聯合創始人Steve Wozniak、DeepMind創始人兼CEODemis Hassabis等人就簽署了一封公開信,呼籲聯合國應像禁止生化武器一樣,禁止在戰爭中使用致命的自主武器和“殺手機器人”。霍金也曾指出,脫離人類控制之下的機器很難被阻止住。

善用AI——人機結合、以人為主

毫無疑問,AI從來都是一把雙刃劍,這一點在安全領域尤其明顯

相比人類,軍事機器人的主要優勢在於,他們能同時承擔多項複雜任務,作戰更加持久,在程序設定完備後能夠高效精準達成目標,失誤率較低。特別是完全自主機器人——持續作戰時間長、反應能力快、生存能力強與人類戰士相比具有巨大的優勢。

但與此同時,關於戰爭責任的倫理問題就出現了,參戰的自主機器人到底是不是戰鬥員?他們應當承擔什麼樣的戰爭責任?回溯到2008年,那時美軍海軍研究辦公室發表的一份報告表示,用於戰爭的自主機器人無法承擔法律責任。此外,在軍事AI中,應該強調公眾安全還是強調居民隱私,優先考慮技術的妥善度還是應用效率,這也是一個值得思考的問題。

不管怎麼說,無論是哪個領域的AI應用,堅持人機結合、以人為主的原則,都是一個大的方向。人類應該在此基礎上,加強對該技術的預測與評估,完成充分的試驗與分析後再推進人工智能技術的應用。


分享到:


相關文章: