03.06 美國蘭德公司向國家安全人工智能委員會提交最佳創意

美國蘭德公司向國家安全人工智能委員會提交最佳創意


2020年2月21日

“向我們發送您的創意!” 去年夏天,美國國家安全人工智能委員會(NSCAI)就有關新興技術在全球秩序中的作用發起公開徵集。蘭德(RAND)研究人員加緊應對這一挑戰,並提出了各種各樣的創意,最終有十篇論文被髮表。

由美國谷歌母公司Alphabet的前首席執行官埃裡克·施密特(Eric Schmidt)和美國前國防部副部長羅伯特·沃克(Robert Work)共同主持的NSCAI,是去年由美國國會授權成立的獨立聯邦委員會,“負責研究方法和促進美國發展人工智能、機器學習和相關技術以全面滿足美國國家安全和國防需求的必要手段。”

該委員會的最終作用是提高認識併為更好的立法提供依據。作為其使命的一部分,該委員會的任務是幫助國防部更好地瞭解和準備一個人工智能可能以意想不到的方式影響國家安全的世界。在執行此命令後,它開始進行“即開即用”的輸入,這是一個異常廣泛和公開的要求:“我們需要聽取原創性、創造性的想法,這些想法挑戰了現狀,動搖了我們的假設,並將使我們重新考慮我們所提出的論點。“已經以不同的眼光聽到了新的論點。”

蘭德公司從不懼怕大膽和創新,因此該公司迅速舉辦了一場競賽,徵求最佳有效創意。在提出了許多有見地的論文供考慮之後,NSCAI的媒體合作伙伴在《岩石上的戰爭》(WOTR)的努力下接受了九篇論文的出版,而《戰略橋》則接受了第十篇。兩者都是備受推崇的國家安全政策出版物。從軍事欺騙到開放源代碼研究(這意味著即使有國家安全問題也可以自由公開獲得),如何訓練AI士兵機器人以及AI在國際象棋中的作用,論文的範圍和主題涉及廣泛AI,以及其他詳細建議。


NSCAI在這五個主題指南中尋求新的、具有挑戰性的想法:找到或建立對戰爭和競爭未來的連貫願景;瞭解更好地開發AI所需的能力;機構,組織結構和基礎設施將如何影響AI的開發和採用;建立有關新興技術的規範; 人員的支持,以及私營部門的參與。

每個指南都有子集,並指出了特定的查詢和解決這些問題的方式,例如:“如果美國未能開發出能夠解決國家安全問題的強大AI功能,將會發生什麼?”

以下是RAND有關文章的摘要,這些文章回答了所提出的一些不同問題:

賈斯敏·勒維耶(Jasmin Leveille)撰寫了有關擁抱開源軍事研究以贏得AI競賽的文章。他說:“除非美國政府顯著領導或落後於AI社區-這是不太可能的-它在發佈算法方面僅面臨很小的風險。” 否則,“開放研究策略的替代方案可能會使美國遠遠落後於美國。”

Danielle Tarraf寫道,我們的未來在於使AI強大且可驗證。她爭辯說需要更多的AI驗證來確保信任:“算法是脆弱的,並且僅靠驗證科學來證明它們能夠按需執行仍然是不夠的,尤其是在涉及黑盒AI算法的情況下。我們不應該相信不可靠的東西,也不能相信我們無法驗證的東西。” 她說,為此,科學需要趕上工程學。

愛德華·蓋斯特(Edward Geist)和馬喬裡·布盧門撒(Marjory Blumenthal)的論文是“軍事欺騙:AI的殺手級應用”。文章寫道,欺騙技術正在獲勝:“人工智能和機器學習可以消除“戰爭迷霧”,而不是製造“戰爭迷霧”,這是旨在加劇知識質量問題的自動化欺騙計劃程序。”

丹尼爾·埃格爾(Daniel Egel),埃裡克·羅賓遜(Eric Robinson),查爾斯·克利夫蘭(Charles Cleveland)和克里斯托弗·奧茨(Christopher Oates)寫了關於AI和非常規戰爭的文章:一種進化,而不是革命。他們問人工智能是否會改變戰爭的方式。他們說:“美國應通過一些關鍵步驟,主動塑造人工智能對下一代不規則戰爭的影響,以使我們受益。” 這些步驟包括更好地捕捉商業生態系統中的創新;招募和保留能夠利用AI功能的人員; 並與盟國合作(國際協調)。

Rand Waltzman和Thomas Szayna討論瞭如何管理對機器學習的安全威脅。他們寫道:“急於實施和部署包含高級機器學習組件的不安全系統會帶來危險的漏洞,邪惡的參與者將以我們才剛開始瞭解的方式加以利用。” 簡而言之,他們認為:“現在是時候將機器學習技術中的漏洞問題視為國家級的關鍵問題了。”

帕特里克羅伯茨(Patrick Roberts)為和平編寫人工智能。他說:“美國應該通過建立統治AI軍事技術的框架,借鑑70年來統治核技術的經驗教訓。” 他認為,走得更遠,“人工智能促進和平計劃應該闡明這種新技術的危害,管理危害的原則(例如,不殺人,人為控制,關閉開關),以及形成激勵其他國家的機制(也許監視和檢查系統)。”

安德魯·洛恩(Andrew Lohn)撰寫了有關國際象棋可以教給我們有關人工智能和戰爭的未來的文章。 他指出:“ [國際象棋]一直在向軍事戰略家教授戰爭方法,數十年來一直是人工智能發展的試驗檯。” 在戰鬥中“啟用AI的計算機可能是幫助弱者發現新的可玩選項的均衡器。”

詹姆斯·裡瑟夫(James Ryseff)撰寫了有關如何為AI挑戰招聘人才的文章。他說:“國防部(DOD)直接與美國技術公司競爭,以獲取有限的網絡和AI人才庫,而這種競爭往往會失敗。” 要贏得勝利,“國防部能否成功部署最具創新性的AI技術,將取決於其擁有創造力、創新和自我完善文化的能力。”

托馬斯·漢密爾頓(Thomas Hamilton)撰寫了有關如何訓練AI士兵機器人的文章。“隨著支持AI的機器人功能的增強,我們將如何組織,培訓和指揮它們以及負責監督和維護它們的人員?” 他問。它可能超越了人類的模仿範圍。漢密爾頓寫道:“具有新的複雜行為模式的機器人可能需要新的組織形式。” 最終,“最佳的單元結構將通過經驗得出。在和平時期獲得儘可能多的經驗至關重要。那意味著訓練。”

克里斯托弗·保羅(Christopher Paul)和瑪麗·波薩德(Marek Posard)撰寫了有關人工智能和現實製造的文章。他們說,“人類在確定真實或不真實的過程中存在缺陷。互聯網和其他技術使武器和利用這些漏洞變得更加容易,比以往任何時候都更快,更有吸引力地吸引了更多的人。”

NSCAI的思想框架的下一階段是針對一些研究人員(包括來自RAND和其他地方的研究人員),他們的論文被選擇在WOTR上發表以在委員會面前作證,然後委員會向國會,行政部門和“根據Schmidt and Work最初的參賽要求,美國人。敬請關注。這意味著RAND研究人員不僅可以通過挑釁性的論文來分享他們在AI方面的先進工作中的敏銳而富有挑戰性的見解。他們可能也會發出聲音。


分享到:


相關文章: