AI走向「戰爭技術」,是減少損傷還是推向災難

最近幾周,發生的諸多事件都表明了大家對人工智能日益增長使用的擔憂。比如近期在日內瓦舉行的#AI4Good峰會上,與會者共同討論了AI在醫學、教育、經濟以及執法應用方面可以幫助人類的許多方式。

然而,與此同時,不管是谷歌退出五角大樓Project Maven,還是員工站出來反對亞馬遜將其人臉識別技術賣給政府,亦或是微軟Azure與政府的合作造成孩子與父母分開引發眾怒,這些都是人們對AI技術使用的擔憂。不可避免的,“戰爭技術”成為了其中最受關注的焦點。在谷歌Project Maven一案中,谷歌員工還曾引用“不作惡”的口號,進行上書。

那麼,是否存在一種可能,即使人工智能部署到戰場上,可以依然遵循“不作惡”的標準呢?換句話說,當人工智能用於戰爭,是將更智能地控制戰爭,還是會“養虎為患”,將人類推向更恐怖的戰爭深淵呢?

AI走向“戰爭技術”,是減少損傷還是推向災難

我們不能否認,谷歌員工提出的問題是值得思考的:那些正在努力開發用於戰爭的AI技術研究員應該以道德和負責任的方式來完成這項任務。戰爭與技術,除了我們習以為常的殘酷,其實還有另外一面——雖然我們印象中的戰爭史,充滿了殘忍與殺戮,但是技術也可以用於減少戰爭的悲慘代價。

舉個例子,精確制導和小型彈藥可以限制所謂的附帶損害,即對平民和其他非戰鬥人員的殺戮和致殘,同時,減少對家庭和關鍵基礎設施的破壞也將成為可能。只不過,一直沒有相關的公開討論來研究如何將人工智能應用於戰爭,幫助緩解悲劇的發生。在小智君(ID:Aiobservation)看來,人工智能除了會帶來傷害,或許我們還可以讓她來減少戰爭災難的發生。

人工智能的軍事潛力,不只是技術

眾所周知,技術是軍事組織成功開展行動的決定因素之一。同時,在使用這個時代下,他們還需要最大限度地發揮技術潛力,特別是獲得各個國家青睞的人工智能。但這並不是最主要的,重要的是,AI也將是改變軍事教育的方式之一。

AI走向“戰爭技術”,是減少損傷還是推向災難

正如最近的一份報告所指出的那樣:AI驅動的智能輔導系統可以提供模擬人類的一對一輔導,學生們也可以從這位“終身學習夥伴”中受益,即根據學生的個人資料,進行有針對的教學。此外,人工智能還可以用於協助學習。

軍事組織一直致力於分享歷史課程,並建立有效的以及有凝聚力的戰鬥團隊。人工智能在幫助培養專業技能的同時,還可以支持團隊中更高水平的運營和戰略規劃。在以往的戰爭中,指揮員的決策,一方面來源於情報、偵察、監視等手段,另一方面受指揮員自身的經驗、靈感、聯想等主觀因素影響。在AI的輔助下,該技術便可以為指揮員的決策提供新的參照,彌補軍事信息系統的不足,從而構建起功能強大的網絡信息體系,提高軍隊的智能化評估和輔助決策能力。

用AI減少戰爭造成的人道主義損傷

隨著今天人工智能的快速發展,如何利用這一技術減少戰爭帶來的人道主義損失,成為了一個值得深入思考的問題。“General AI”——一個能夠像人類一樣做出廣泛決策的人工智能,就如電影《2001:太空漫遊》的情景一樣——可能需要幾十年甚至更長時間才能實現。

AI走向“戰爭技術”,是減少損傷還是推向災難

所以,就目前的情況而言,可用的更有針對性的AI類型會變得非常有用,因為它們能夠處理大型數據集並快速整合來自不同來源的數據。如果可以進行創造性的思考,那人工智能就有可能可以通過多種方式來改善決策,達到更好地保護武裝衝突中的平民的效果。

CNA(華人新聞通訊社)曾對戰爭中民眾的傷亡情況以及其發生的原因進行過研究。考慮到現代軍隊目前擁有的能力和使用的技術程序,以及人為判斷失誤和程序問題導致的失誤類型,人工智能極有可能可以減少戰爭中的民眾的傷亡。

比如,AI技術可以根據情報以及圖像審查情報,減少被誤認為是戰鬥人員的平民數量。它們還可以監控戰場,並對現有的附帶損害估測進行雙重檢查,特別是隨著時間的推移,情況會發生變化。AI驅動的無人系統將讓這些系統承擔風險並有耐心去等待最佳“戰鬥”時機,從一定程度上,這可以降低平民的風險。同時,在探測到戰場上民用基礎設施後,AI還可以進行提醒,並提出建議來採取措施降低破壞風險的存在,就如電力和水利設施,如果不被破壞,將很有助於未來城市的恢復。

AI走向“戰爭技術”,是減少損傷還是推向災難

人工智能,積極影響下的潛在風險

將人工智能應用於戰爭中的積極成果,並不意味著我們要對其潛在的風險視而不見。技術的有效和安全使用是複雜的,需要全面解決,而不是僅僅通過部署一個新的,更先進的系統就能實現的。相反,有一些具體方法可以提高軍事系統中人工智能的安全性,比如通過人機組合來充分利用人和機器的優勢。這種組合通常產生比單獨操作更好的結果。

那如何實現在戰爭中用人工智能拯救生命呢?如果政府選擇讓自己的軍隊審慎使用人工智能,並從中獲取人道主義收益;如果國際論壇倡議將這種積極成果作為集體目標,那麼這一救國就有很大可能會實現。

像谷歌這樣的公司也可以在“不作惡”的承諾上,研究如何將自己的專業知識貢獻給戰爭中的人道主義,其他人,其他企業,其他組織必然也可以尋求使用人工智能來造福世界,保護戰場上的民眾。

如今,人工智能的軍事應用浪潮已不可避免,因此無論是應對技術還是倫理的挑戰,都應堅持探索與發展人工智能技術,加強人工智能的技術預測與評估,在充分試驗與分析的基礎上逐步推進人工智能技術的軍事應用。


分享到:


相關文章: