到2040年,人工智慧可能會加劇核穩定性

一份新的論文發現,人工智能有可能在2040年前取代核威懾的基礎。雖然人工智能控制的世界末日機器被認為是不太可能的,但人工智能對核安全的危害卻在於它有可能鼓勵人類接受根據報道,這可能是世界末日的風險。

據報道,雖然人工智能控制的世界末日機器被認為不太可能,但人工智能對核安全的危害反而在於它可能鼓勵人類承擔潛在的世界末日風險。

到2040年,人工智能可能會加劇核穩定性

冷戰期間,相互確保破壞的條件通過確保任何襲擊能夠通過毀滅性的報復來應對,從而維持了超級大國之間的不安寧和平。因此,相互確定的破壞通過減少兩國採取可能升級為核戰爭的行動的動機來鼓勵戰略穩定。

新出版物稱,未來數十年,人工智能有可能削弱相互破壞的條件並破壞戰略穩定。改進的傳感器技術可能會導致諸如潛艇和機動導彈等報復力量可能成為目標並被摧毀的可能性。

研究人員說,儘管國家不打算進行攻擊,但他們可能會試圖將第一次打擊能力作為獲得對手的討價還價的手段。這破壞了戰略穩定性,因為即使擁有這些能力的國家無意使用它們,對手也不能確定這一點。

“非核心戰爭與人工智能之間的聯繫並不新鮮,實際上兩者之間有著交織在一起的歷史,“人工智能的早期發展大部分是為了支持軍事努力,或是考慮到軍事目標。”

他說這種工作的一個例子是20世紀80年代的Survivable自適應計劃實驗,該實驗試圖利用AI將偵察數據轉化為核瞄準計劃。

據報道,在偶然情況下,人工智能還可以通過提高情報收集和分析的準確性來提高戰略穩定性。雖然人工智能可能會增加二次攻擊力量的脆弱性,但改進用於監控和解釋對手行為的分析可以減少可能導致意外升級的誤判或錯誤解釋。

研究人員表示,考慮到未來的改進,人工智能系統最終可能會開發出一些功能,儘管這種功能可能會比其他人類更容易出錯,並且因此長期穩定下來。

“有些專家擔心人們越來越依賴人工智能會導致新的災難性錯誤,”RAND的論文和副工程師的合著者Andrew Lohn說。“在技術成熟之前使用人工智能可能會有壓力,或者它可能容易受到敵對顛覆的影響,因此,未來幾十年內保持戰略穩定性可能極其困難,所有核大國都必須參與培育制度以幫助限制核風險。


分享到:


相關文章: