02.25 五角大樓為“殺手機器人”設置“AI道德準則”,防止其不可控

為對抗俄羅斯的所謂軍事威脅、贏得科技時代的下一場戰爭,多年來,美國不計血本、投入巨資,用於人工智能武器(Artificial Intelligence Weapons)的研發工作。據今日俄羅斯電視臺網站2月24日報道,美國國防部當天宣佈,準備為其“殺手機器人”設置“AI道德準則”,以期在戰場條件下實現人為干預,“這樣它們至少還能有一個‘關閉’的按鈕”。

五角大樓為“殺手機器人”設置“AI道德準則”,防止其不可控

資料圖

“殺手機器人”(Killer Robot),又稱新一代全自主武器,是指可能面世的完全自治化終結者類型的機器人,可以在戰場上替代軍事人員執行危險作戰任務,最大限度減少士兵傷亡。但潛在隱患是,“殺手機器人”可能無法正確識別戰場上的平民和對手,如果選定目標時沒有人類決策,機器人就會脫離人類控制,自己做出生死攸關的決定,造成大量平民傷亡。

五角大樓為“殺手機器人”設置“AI道德準則”,防止其不可控

資料圖

美國國防部長埃斯珀在24日的一份聲明中稱,“AI技術將重塑未來戰爭的戰場形態,但這改變不了美國人對於負責任合法行為的堅定承諾。”

按照五角大樓的說法,他們未來的人工智能武器項目,將是“負責任的、公平的、可追蹤的、可信賴的”以及“可控制的”。不過,美國防部並未透露他們具體將採取何種措施,以確保上述原則得到落實。

實際上,隨著科學技術的日新月異,人工智能武器的發展已經取得了傲人的成就,比如韓國軍方採用的一款由三星公司研發的哨兵機器人,不僅可以不知疲倦地長時間站崗,而且能自動執行警戒任務,在武裝防禦時發現異常活動、迎擊入侵者,並在得到人類許可的情況下向敵方開火。

五角大樓為“殺手機器人”設置“AI道德準則”,防止其不可控

資料圖

不過,對AI武器可能失控的擔憂也一直在國際社會瀰漫,要知道,早在伊拉克戰爭時期,美軍所使用的軍事機器人,就有突然失控並向己方開火的先例。資料顯示,在2007年的一次測試中,美軍一款尚未正式投入使用的作戰機器人突然敵我不分,瘋狂攻擊一名美軍士兵,直到被火箭彈炸翻才停止下來。

五角大樓為“殺手機器人”設置“AI道德準則”,防止其不可控

資料圖

此外也有分析認為,除了一時失誤造成自身及平民傷亡,“殺手機器人”的另一危險之處還在於,負責研發的軟件工程師們很有可能在利益的趨勢下,悄悄給它重新編程,使其成為濫殺無辜的“嗜血怪物”。到時候,窮兇極惡的機器人大規模殺戮人類、整個地球血流成河生靈塗炭,將不再只是科幻片中的情節。


分享到:


相關文章: