軍用AI技術將開啟人類走向毀滅的第一步?

傳說地球上本沒有火種,那時人類的生活非常困苦,沒有火燒烤食物,也沒有火來照明。普羅米修斯造福給人類,冒著生命危險,從太陽神阿波羅那裡偷走了一個火種,給人類帶來了光明。但他殊不知,火種帶給人類的不只是光明,還有更多的麻煩。

軍用AI技術將開啟人類走向毀滅的第一步?

​最近一段時間,軍用AI和主動攻擊型武器的問題鬧得沸沸揚揚,很多AI研究者聯名反對這項技術的軍事化。Google近4000名員工簽署請願書,要求公司中止Maven項目,以及一切與戰爭有關的業務,因為這已經和Google的價值觀相去甚遠。

軍用AI技術將開啟人類走向毀滅的第一步?

​當AI技術擴散至其他領域,被用來提升醫學、交通、金融、軍事等領域的效率時,跟圍棋一樣,人類敗下陣來的消息只會越來越多。

特別是在軍用技術上,如果人類跟不上軍用機器人的節奏,那它就不僅僅是批評或者抗議人類了,它向拖自己的後腿的人類開火也不是完全不可能。

或將引發新一輪軍備升級

AI引領軍事形態全面進化

美軍去年公開的JADE項目,就計劃打造這樣一個自動化武器系統:它通過分析社交媒體來進行作戰決策,其中包括致命性武器的自動使用,以最小化作戰行動中的人為干預。

這就向人類提出了一個疑問:軍用AI技術將開啟人類走向毀滅的第一步?AI與軍事真的不能共存嗎?

目前在武器裝備和指揮控制方面,AI主要集中在陸地、海洋、太空等各類作戰機器人的研發應用和各類智能炸彈的研發領域。

隨著數據挖掘技術、大規模並行算法及AI技術的不斷完善並廣泛應用在軍事上,情報、決策與作戰一體化將取得快速進展。實際上,能在無人控制的情況下搜索並消除目標的自主武器就是典型應用,也是當前AI軍事化的最主要應用。

能夠自主運作的軍用機器人被歸為致命性自主武器系統(LAWS),目前各國發展的無人飛行器、無人地面車輛、無人水面艇等能夠自主運作的武器系統在某種程度上都屬於LAWS的範疇。這些武器裝備體現出了較高的應用價值。

比如研發於2005年的BigDog,由DARPA出資,目的是造出一種能夠負重的機械騾,伴隨士兵一起在傳統機械車輛無法行駛的粗糙地形上作戰。

軍用AI技術將開啟人類走向毀滅的第一步?

​2013年亮相的Atlas是一個類人形機器人,同樣是由DARPA出資,設計目的是專門針對各種搜索營救任務。

2016年公佈的新版Atlas,可以在戶外和建築物內部操作,能自行開門、抱箱子自動平衡,被推倒也能自己站穩,在雪地上行走毫無壓力。

軍用AI技術將開啟人類走向毀滅的第一步?

​但真正投入實戰的,卻是聲名遠播的「掠食者」無人機,其MQ-9 型號是第一種專門設計作為獵殺用途的無人機,其飛行控制與武器使用均需從美軍的地面控制中心來操作。

軍用AI技術將開啟人類走向毀滅的第一步?

避免滑向“失控”邊緣

如何防止技術異化對人類的威脅?

在2017年人工智能國際會議上,Tesla首席執行官馬斯克、Apple聯合創始人沃茲、研發AlphaGo的DeepMind公司哈薩比斯等人簽署公開信,呼籲聯合國應像禁止生化武器一樣,禁止在戰爭中使用致命的自主武器和“殺手機器人”。

霍金也曾指出,脫離人類控制之下的機器很難被阻止住。

由於人工智能技術的發展局限,機器人可能將在環境或執行程序複雜的情況中出現失控現象,比如在單獨執行作戰任務或人機深度交流時。

比如2007年10月,美軍第三機步師一部帶著3臺“利劍”機器人進攻一個反美武裝盤踞的據點時,由於沒有及時更換軟件,其中一臺“利劍”竟把槍口瞄準美軍操作者,而且無論操作員如何發出“行動取消”的指令,失控的“利劍”就是停不下來,直至用火箭筒把它炸翻才化險為夷。

隨著越來越多的國家投入到軍用機器人的研究與開發中去,世界已在不知不覺中滑進了一場機器人軍備競賽。毋庸置疑,軍事機器人相比於士兵,主要在功能、體能、效能方面具有優勢。

軍事機器人可以同時承擔多項複雜任務,作戰可以更加持久,在程序設定完備後能夠高效精準達成目標,失誤率較低。

如果想要儘可能降低AI的負面影響,首先要堅持人機結合、以人為主的原則,人類應當保證對軍事機器人的控制權,制定應對意外事件的應急機制,建立防範機器人失控的後臺程序。

另外,應當加強人工智能的技術預測與評估,在充分試驗與分析的基礎上逐步推進人工智能技術的軍事應用。

目前來看,AI在軍事領域的應用潮流勢不可擋,在可預見的時期內,AI將在情報偵察、後勤保障、無人作戰系統等領域發揮重要作用,但如何防止技術異化對人類構成新的威脅則是AI軍事化必須要解決的問題。


分享到:


相關文章: