人工智慧影響國際事務的三種模式

人工智能影响国际事务的三种模式

2018年6月,英國皇家國際事務研究所發佈報告《人工智能與國際事務》,分析了人工智能影響國際事務的三種模式,並給出了對策建議。現將報告摘要編譯如下供您參考。下載pdf全文請點擊“閱讀原文”文章版權歸原作者所有,不代表本機構觀點。

人工智能影响国际事务的三种模式

本報告考察了人工智能的發展和應用可能引發的決策者面臨的一些挑戰。它彙集了人們對未來10 - 15年內,人工智能在特定國際事務領域 (軍事,安全和經濟)可能產生的影響。

人工智能影响国际事务的三种模式

該報告提出了一個框架。以界定和區分人工智能在國際事務中可能發揮的作用類型:這些作用被確定為分析性,預測性和執行性

在分析性作用中,人工智能系統可能允許更少的人員做出更高層次的決策,或者自動執行重複性任務,例如為確保條約合規性而設置的監視傳感器。在這些角色中,人工智能很可能會改變人類決策者對世界的理解(在某些方面它已經發生了變化)。

人工智能影响国际事务的三种模式

預測性可能會產生更嚴重的影響,儘管可能時間較長。可能會改變決策者和國家如何理解具體行動方案的潛在結果。如果這樣的系統變得足夠準確和可信,那麼這可能會導致配備這種系統的那些參與者與沒有這些系統的參與者之間存在權力差,並且具有顯著不可預知的結果。

執行性人工智能在短期內不可能完全實現。儘管這方面的技術取得了快速進展,但完全自動化的車輛,武器和機器人個人助理等其他物理世界系統的監管,道德和技術障礙非常高。而從長遠來看,

此類系統不僅可以徹底改變決策的執行方式,更可以改變決策方式。

建議

從中長期看,人工智能的專業知識不應只存在於少數國家。全球各國政府必須投資發展和留住本土的人工智能人才和專業知識,如果他們的國家要在當前主流的人工智能(大多集中於美國和中國)中保持獨立,就應該努力確保在廣泛的基礎上培養工程人才,以緩解人工智能固有的認識偏見。

企業,基金會和政府應該分配資金來開發和部署人道主義目標的人工智能系統。人道主義部門可從這類系統中獲得重大利益,這可能會減少緊急情況下的響應時間。因為用於人道主義目的的人工智能不太可能立即為私營部門賺錢,所以需要作出協調一致的努力,在非營利的基礎上推動它們的發展。

理解人工智能系統的能力和侷限性,絕不能侷限於技術專家。應該儘可能廣泛地提供更好的關於人工智能的教育和培訓,而關鍵的是,應該儘可能廣泛地提供人工智能,而對於開發這些技術的人來說,理解基本的道德和政策目標應該更為重要。

在公共和私人AI開發人員之間建立牢固的工作關係,特別是在國防部門,因為許多創新正在商業機構進行。確保負責關鍵任務的智能系統能夠安全,合乎道德地執行這些系統需要不同類型機構之間的公開性。

必須制定明確的業務守則,以確保人工智能的優勢可以廣泛分享,同時對併發風險進行良好管理。在制定這些行為守則時,政策制定者和技術人員應該理解調控人工智能系統的方式可能與規範軍火或貿易流動有根本的區別,同時也從這些模型中汲取相關經驗教訓。

開發人員和監管人員必須特別關注人機交互。人工智能和人類智能基本上是不同的,兩者之間的接口必須仔細設計並不斷審查,以避免在許多應用中可能產生嚴重後果的誤解。

(完)

如遇困難請在留言區留下郵箱


分享到:


相關文章: