禁止「AI殺手」,前景不樂觀

原標題:禁止“AI殺手”,前景不樂觀

2000名人工智能專家共同簽署宣言只是行為藝術?

禁止“AI殺手”,前景不樂觀

7月18日,包括美國SpaceX創始人埃隆·馬斯克在內的2000多名人工智能(AI)領域專家,共同簽署了《禁止致命性自主武器宣言》,宣誓不參與致命性自主武器系統的開發及研製。坊間對於這份宣言並不看好,認為對約束AI技術武器化幫助不大,甚至認為這只是行為藝術。這是為何?

許多著名戰役,往往是在兩方統帥比誰犯錯少中決出勝負的。故此,人們引入了計算機輔助指揮系統、決策支持系統,美國等國已有廣泛實戰運用。

戰役中人類犯錯概率反而更高些。奧巴馬時期,美軍無人機於2012年1月至2013年2月對阿富汗東北部目標發動持續打擊,致死約200人中九成系誤傷——問題是無人機是由人類操作手遠程操作的,這也是人們在戰爭各環節引入計算機輔助決策的原因。這就引出了進一步的問題:為不讓AI獨立決策殺死人類,禁止研究“殺人機器人”有用嗎?

核武器史已經證明,禁止並不現實,尤其是科學家自發性的禁止。癥結顯而易見:倡議性的條約維持,有賴於科學家個人或科研機構操守。

和平捍衛者是誰無法由個人來判斷。歷史也證明,愛因斯坦後悔了。他在1955年3月致勞厄的信中說:“要是我知道這種擔憂是沒有根據的(指德國的原子彈計劃),當初我就不會插手去打開這隻潘多拉盒子。因為我對各國政府的不信任,不僅限於對德國政府。”愛因斯坦臨終前簽署了著名的《羅素-愛因斯坦宣言》,在宣言上簽字的11人除羅素外都是著名科學家。

這個宣言可能和本文開頭那個宣言意義差不多,即意義不大。因為科技史證明,倡議性的條約無助於禁止某種武器的研發、生產和擴散。

一方面,沒有大國實質性參與的條約,類似“老鼠給貓戴鈴鐺”。去年3月27日,聯合國開會試圖通過《禁止核武器條約》要求“有法律約束力的禁止核武器”,最終促成核武器的全面廢止。但該條約形同虛設,因為無任何有核國家參與。而有大國參與的條約,如禁止細菌(生物)及毒素武器的發展、生產及儲存以及銷燬這類武器的《渥太華禁雷公約》等才得到了實質性執行。

另一方面,技術的擴散無法禁止。即使在冷戰中,各大國也在不長時間內相繼擁核。如今信息技術發展迅猛,試圖以“行業自律”來實現AI技術不應用於自主作戰幾無可能。

如今在中東等熱點地區,察打一體無人機已經在實戰中廣泛運用。近年來的防務展顯示,各國研究無人作戰載具熱情也很高——這可能最接近“殺手機器人”概念了。

2007年美國國防高級研究計劃局(DARPA)舉行的超級挑戰賽,解決了簡單場景下無人車的控制問題,從此谷歌無人車項目才進入快車道。中國陸軍也舉辦有類似的“跨越險阻”比賽,2016年一些參賽車輛已在複雜地形下展示了較強的自主行駛能力。俄羅斯、以色列等國也在大力研究,並紛紛推出實驗性平臺。

熱情歸熱情,目前“殺手機器人”研發仍在瓶頸期。目前這些AI平臺都不能完全離開人,尤其作戰決策還需“人在迴路”。俄羅斯率先把無人車投入實戰。不過在敘利亞“天王星-9”無人戰車表現拙劣,無線傳輸技術的不可靠及複雜的戰爭環境,導致這款大號遙控車頻頻“掉線”。AI自主作戰,可能才是無人車實用化的真正路徑。

另外,減少傷亡、精準打擊、實時態勢感知……每一項AI能夠帶來的變革,都是指揮官和各軍事大國孜孜以求的。這種研發衝動,是一道或幾道科學家的宣言遏制不了的。比如參與簽訂宣言的新南威爾士大學教授託比·沃爾什就表示:“如果有人鐵心要研發自主武器,我們根本無法阻攔。”從科學家在核武器研發史上的表現可以推論,AI自主決策作戰也將會有科學家參與將其最終實用化。如果AI自主決策作戰真的威力堪比核武器,更靠譜的還應是科學問題政治解決,尋找一種類似《核不擴散條約》的務實機制,來切實有效管控技術及其擴散帶來的危機。 本報記者 陳月飛


分享到:


相關文章: