CNAS《人工智慧與國際安全》

CNAS《人工智能与国际安全》

時間:2018.7.10

地址:

https://www.cnas.org/publications/reports/artificial-intelligence-and-international-security

國家安全

在美國和其他地方,有許多AI直接應用於國家安全目的。凱文凱利指出,在私營部門“下一萬家創業公司的商業計劃很容易預測: X+AI” 人工智能在國家安全方面也有廣泛的應用。本文例舉在網絡安全,信息安全,治國方略的經濟和金融工具,國防,情報,國土安全,外交和發展等方面的一些例子。這並非旨在作為這些領域中AI的所有可能用途的綜合列表,而只是作為說明性示例,旨在幫助國家安全界的人們開始思考這種不斷髮展的技術的一些用途。

網絡安全

網絡領域是人工智能的一個突出的潛在使用領域,各界領袖近年來表達了這一觀點。2016年10月的國家安全局(NSA)局長邁克爾·羅傑斯說,該機構認為AI的“基礎網絡安全的未來。”羅傑斯發生的言論DARPA召開了第一次網絡大挑戰,僅兩個月後,在網絡空間的自動機器之間進行鬥爭。每個系統都能夠自動發現和利用其對手的網絡漏洞,同時修補自身的漏洞並保護自己不受外部網絡攻擊。對比賽的結果印象深刻,國防部開始實施一項新項目Voltron,以開發和部署自主網絡安全系統,以掃描和修補整個美國軍隊的漏洞。

國防部已經開始實施這項技術,人工智能在網絡安全方面的潛在應用也在不斷髮展。第一次Cyber Grand Challenge中的系統使用了基於規則的編程,並沒有大量使用機器學習。如果今天舉行類似的比賽,機器學習可能會發揮更大的作用。以下是網絡安全領域中機器學習的幾個說明性應用,這些應用可能對國際安全環境特別有影響。

提高自動化程度、降低人力需求

與增強或替代的傳統人類監視方法相比,網絡監視的勞動密集程度往往較低。增加機器學習的使用可以加速這種趨勢,可能會提供複雜的網絡能力,這些能力通常需要大型公司或國家級資源,而這些資源在較小的組織甚至是個人的範圍內。4 已經有無數相對簡單的程序員的例子,即所謂的“腳本小子”,他們不夠熟練,無法開發自己的網絡攻擊程序,但可以有效地混合,匹配和執行其他人開發的代碼。狹窄的人工智能將增加這些參與者可用的能力,降低個人和非國家團體的攻擊標準,並增加所有參與者的潛在攻擊規模。

發現新的網絡漏洞和攻擊媒介

微軟和太平洋西北國家實驗室的的研究人員,已經演示了一種利用神經網絡產生和對抗網絡惡意輸入,並確定哪些輸入最有可能導致安全漏洞的技術。傳統上,這樣的輸入只需通過隨機修改(即“fuzzing”)非惡意輸入進行測試,這使得確定那些最有可能導致新漏洞發現的輸入變得低效且費力。機器學習方法允許系統從以前的經驗中學習,以便預測文件中的哪個位置最有可能受到不同類型的fuzzing突變的影響,從而產生惡意的輸入。這種方法在網絡防禦(探測和保護)和網絡攻擊(探測和利用)中都很有用。

機器人紅隊和軟件驗證

雖然對新的漏洞發現給予了理解,但許多網絡攻擊利用了眾所周知的但系統設計人員無法保護的老漏洞。例如,SQL注入是一種具有數十年曆史的攻擊技術,許多新的軟件系統仍然成為它的犧牲品。人工智能技術可用於開發新的驗證和驗證系統,可在新軟件運行部署之前自動測試軟件是否存在已知的網絡漏洞。DARPA有幾個有希望的研究項目,試圖利用AI來實現這一功能。

自動定製社交工程攻擊

許多重大的網絡安全失敗始於“社會工程”,其中攻擊者操縱用戶危害自己的安全。電子郵件網絡釣魚誘騙用戶洩露密碼是一個眾所周知的例子。最有效的網絡釣魚攻擊是針對特定受害者(即魚叉式網絡釣魚攻擊)進行人工定製的 - 例如,冒充他們的同事,家庭成員或他們使用的特定在線服務。人工智能技術提供了自動化此目標定製的潛力,將目標數據與網絡釣魚消息相匹配,從而提高社交工程攻擊的有效性。此外,能夠創建逼真的低成本音頻和視頻偽造的AI系統(將在下面討論)將把網絡釣魚攻擊空間從電子郵件擴展到其他通信域,例如電話和視頻會議。

信息安全

在不斷變化的威脅形勢中,人工智能的作用對信息安全具有嚴重影響,反映出人工智能通過信息時代的機器人和相關係統產生的泛在影響。人工智能的使用可以加劇和減輕不斷變化的信息生態系統中虛假信息的影響。類似於人工智能在網絡攻擊中的作用,人工智能提供了一種機制,可以對目標受眾進行狹隘的宣傳,並大規模擴大其傳播範圍,提高其效力和覆蓋面。自然語言理解和其他形式的機器學習,可以訓練計算機模型來檢測和過濾宣傳內容及其放大器。然而創建和傳播虛假信息的能力往往超過檢測它的AI驅動工具。

精準定向宣傳和深度偽造

計算宣傳極大地影響了當前的信息生態系統及其顯而易見的脆弱性。這種生態系統的特點是社交媒體的進入門檻低,這使得匿名參與者(有時是機器人)可以傳播虛假,誤導或超黨派內容而幾乎不負責任。大規模放大此內容的機器人,量身定製的消息傳遞或強制執行現有偏見的廣告,以及推廣燃燒內容以鼓勵點擊的算法指向此環境中的隱含漏洞。麻省理工學院研究人員發現,謊言[擴散]顯著更遠,更快,更深入,更廣泛的’比真理在Twitter上,尤其是關於政治新聞,進一步說明了擁擠的信息環境的風險。人工智能通過使宣傳更加高效,可擴展和廣泛,在信息生態系統中發揮著越來越重要的作用。人工智能驅動的技術和原則樣本,用於定位和分發宣傳和虛假信息,包括:

行為數據的利用:AI針對特定受眾的應用建立在行為數據收集的基礎上,機器學習通過越來越多的數據進行解析。由在線平臺的用戶生成的元數據(通常用於描繪針對目標廣告的消費者行為的圖片)也可以被用於宣傳目的。例如,劍橋Analytica基於Facebook數據的“心理學”微型定位使用在線足跡和個性評估來為個人用戶定製消息和內容。

模式識別和預測:當應用於人類行為分析時,AI系統識別模式和計算未來事件概率的能力可以加強回聲室和確認偏差。社交媒體平臺上的機器學習算法優先考慮用戶已經期望支持的內容,並生成針對那些已經對他們敏感的消息。

議程設置和放大:研究表明,機器人行為已佔2016 年所有在線流量的50%以上。人為推廣內容的實體可以操縱“議程設置”原則,這要求人們看到某些內容的次數越多,他們就越多認為這很重要。放大可以增加公眾心中的重要性。此外,根據計算宣傳研究人員塞繆爾·伍利和菲利普·霍華德的說法,如果政治機器人是“為了學習和模仿真實的人而寫的”,那麼他們就會影響辯論。例如,Woolley和Howard指向部署與用戶互動並攻擊政治候選人的政治機器人,權衡活動家的行為,誇大候選人的追隨者數量,或轉發特定候選人的消息,就好像他們是人類一樣。通過“網絡縱火隊”擴大有關政治候選人的破壞性或分散注意力的故事也可以改變向公眾傳播的信息。這可能會影響政治討論,特別是當與匿名相結合時,會減少歸因(因而也就是問責制)以模仿合法的人類話語。

自然語言的情緒分析:自然語言處理的進步可以利用情緒分析來針對特定的意識形態受眾。“ Google首次針對”左傾“和”右傾“用戶提供政治利益廣告2016年是朝著這個方向邁出的一步。通過使用系統方法識別,檢查和解釋文本中的情感內容,可以將自然語言處理作為宣傳工具。澄清語言對機器的語義解釋可以有助於構建更多情緒相關的宣傳。此外,通過收集印象來量化用戶反應可以通過評估和重新校準方法來最大限度地發揮影響,從而改進這種宣傳。私營部門公司已經在嘗試量化這種行為跟蹤數據,以便為其平臺上的廣告商提供未來的微目標定位。這些努力本質上是雙重用途 - 而不是利用元數據為用戶提供有針對性的廣告,惡意行為者可以為他們提供量身定製的宣傳。

深度偽造:人工智能系統能夠為任何有足夠大的語音訓練數據集的個人,生成逼真的合成語音,視頻也越來越普遍。在撰寫本文時,即使對於未經訓練的人來說,“深度偽造”的偽造音頻和視頻外觀和聲音也明顯很假。然而,按照這些技術正在取得進步的步伐,也許不到五年它們就能夠愚弄未經訓練的耳朵和眼睛。

打擊假消息

雖然沒有任何技術解決方案能夠完全抵消虛假信息對國際安全的影響,但AI可以幫助降低其負面影響。用於檢測,分析和破壞虛假信息的AI工具可以清除惡意內容並阻止殭屍程序。一些以人工智能為重點的緩解工具和示例包括:

自動化審查和虛假新聞檢測:公業正在與組織合作,其具體目標是增加過濾假新聞的能力並使用AI強化已知事實。2017年,谷歌宣佈與波因特研究所的國際事實檢查網絡建立新的合作伙伴關係,麻省理工學院的假新聞挑戰導致了一種成功率達到80%的算法。實體像AdVerif.ai掃描,並通過擴大與自然語言處理和深度學習人工審核發現“有問題”的內容。通過語義文本分析訓練機器查找邪惡內容的自然語言理解也可以改善這些舉措,特別是在私營部門。

Trollbot檢測和阻止:研究表明Twitter上的機器人數量估計在9%到15%之間,並且複雜程度正在提高。機器學習模型,如Botometer API,一種基於特徵的Twitter分類系統,提供了一種AI驅動的方法來識別它們以便進行潛在的移除。減少機器人的數量將取消雜亂的信息生態系統,因為一些政治殭屍程序創建單獨放大造謠宣傳,“假新聞”。此外,消除特定的漫遊器會降低他們的惡意用途,如分佈式拒絕服務攻擊,例如2016 年期間由模仿機器人傳播的攻擊.

真實性驗證:數字分佈式分類帳和機器速度傳感器融合,以驗證圖像和視頻的實時信息和真實性,也可以幫助清除篡改數據。此外,區塊鏈技術正在像PUBLIQ這樣的非營利組織中使用,PUBLIQ對每個故事進行加密並通過對等網絡進行分發,以嘗試提高信息可靠性。

內容過濾通常需要判斷調用,因為不同的真實感和信息的可靠性。因此,很難基於純粹的技術手段創建通用過濾器,並且在AI驅動的內容識別期間保持人在循環中是必要的。技術工具可以限制和減緩虛假信息,卻無法消除它。

經濟和金融的治國工具

非法資金通過全球金融系統進行,並支持恐怖主義,洗錢和大規模殺傷性武器擴散。為了應對這些流動,美國官員自9/11以來擴大了全球反洗錢和反恐融資工具網絡。然而,聯合國估計執法部門只佔有1%的犯罪資金。人工智能工具的一個潛在的國家安全應用是它們用於加強反非法融資業務。

通過分析和學習大量數據,人工智能可以完成以人為中心的反非法融資系統無法實現的任務。AI的異常檢測和模式識別功能可以幫助系統從金融機構收集的非結構化數據中學習。在一個案例中,一家整合人工智能工具的監管技術公司發現了改變瀏覽器語言的用戶與一種欺詐行為之間存在關聯。32該分析揭示了金融調查人員傳統上未使用的指標,並擴展了可用數據的定義。更好的模式識別也將更有用地對信息進行排序。更好的排序可以減少誤報,否則會導致警報。例如,AI可以通過用更有效的紅旗替換不精確的地理輸入來減少“高風險”管轄區中的誤報。更少的警報將節省時間和人力。

即使缺乏大規模的模式分析,人工智能也可以改善反非法融資框架。即使沒有金融機構優先考慮,自動化也可以確保持續關注非法融資威脅。此功能可以對潛在的危險施加持續的壓力。它還可以減輕金融機構的壓力。銀行將不再需要轉移注意力來應對不斷變化的政府優先事項 - 例如,從伊朗到朝鮮。自動化還可以整合有關實體和個人的可用非財務信息。今天,大量可公開獲取的信息不會自動成為調查的一部分。通過圖像識別,人工智能程序可以使用目前不通知反非法融資過程的開源社交媒體信息。對客戶的社交媒體存在或通過公開可用圖像繪製的網絡所做的更改可以闡明客戶的風險狀況。

人工智能能力可以解決反非法融資框架的主要挑戰。首先,AI可以提高效率。以人為中心的反非法融資過程會產生誤報,從而減損調查並使威脅無法發現或未經調查。一項研究發現,80%至90%的可疑活動報告沒有產生任何價值。通過更好的模式識別和數據分割,更少的誤報將節省時間和金錢。

人工智能系統可以節省的時間和金錢在打擊非法資金流動方面尤為重要。自9/11以來,各國政府已將金融機構作為打擊非法金融的夥伴。銀行承擔了越來越高的合規成本,以滿足不斷增長的監管要求,包括打擊非法融資。2011年至2017年間,大多數銀行的合規成本增加了20%以上。36降低成本將確保銀行繼續合作。較低的成本還將使高風險管轄區內較小的區域性銀行能夠開展目前只有大型跨國機構才能負擔的合規工作。小型銀行的更多參與將減少進入全球金融體系的脆弱進入點。

AI還可以幫助政府和金融機構解決數據隱私和保護問題。目前,隱私法阻礙了充分利用所收集信息的努力。在某些情況下,金融機構甚至可能難以在不同司法管轄區的分支機構之間共享信息。37這些限制為整合信息創造了障礙,更重要的是,從過去的非法融資類型中學習。使用算法來理解大量數據的數據科學公司Giant Oak的首席執行官Gary Shiffman博士認為,AI可以解決這個問題。人工智能系統可以從分析一個轄區的數據集中學習。然後,系統可以將其算法移動到其他管轄區域,並從新數據集中學習,而無需移動基礎數據本身。隱私限制將不再妨礙學習。

雖然人工智能可以逐步改善反非法融資框架,但它也可能從根本上破壞它。金融機構經常使用靜態規則來打擊非法資金。例如,超過10,000美元的交易將觸發貨幣交易報告。然而,流氓玩家可以比規則發展更快地適應。出於這個原因,像金融行動特別工作組(FATF)這樣的國際標準制定者敦促金融機構使用主動適應和降低風險的基於風險的系統。由於這種方法成本高且耗時,FATF要求採取基於風險的措施來解決洗錢和恐怖主義融資問題,而不是為擴散融資提供資金。基於AI的系統,不斷學習和整合新信息,例如人工智能系統可以發現個人使用的模式,以逃避10,000美元的限制,連接這些非法網絡,並可能在轉移金額變得太大之前阻止電線離開銀行。

本節的重點是將人工智能應用於資金流動,而不是支持這些流動的基礎設施和市場。“閃電崩潰”顯示了程序化交易機制對負面交互的敏感性以及目前對此威脅的準備不足。反對者可以使用人工智能操縱市場或破壞貨幣穩定。然而,這類威脅不屬於傳統的經濟治國領域。相反,它類似於惡意網絡攻擊。

充分利用財務數據將是非常重要的。隨著越來越多的通信被加密,財務記錄將成為調查和情報工作的更重要的數據來源。但是,使用數據的工具尚未相應發展。AI提供了一條前進的道路。

國 防

全球各地的軍隊已經將更多的機器人和自主系統納入其部隊,這一趨勢一直是CNAS之前工作的重點。人工智能和機器學習將使這些系統能夠在更廣泛的環境中應對更具挑戰性的任務。由於人工智能技術無處不在,非國家團體和個人也將能夠利用和使用這項技術。

在作戰行動中,機器人,群體和自治系統有可能加快戰鬥速度。對於機器到機器交互的領域尤其如此,例如在網絡空間或電磁頻譜中。AI不僅可用於創建更智能的機器人技術,還可用於為更先進的傳感器,通信和其他關鍵驅動器提供動力。

情境感知:小型機器人傳感器可用於收集信息,啟用AI的傳感器和處理可幫助更好地瞭解該信息。作為國防部Project Maven的一部分,深度神經網絡已被用於無人機視頻輸入的圖像分類,以幫助人類處理收集的大量數據。雖然目前的AI方法缺乏將其轉化為對更廣泛背景的理解的能力,但AI系統可用於融合來自多個情報源的數據並將人類提示給感興趣的項目。AI系統還可以用於生成定製的欺騙攻擊以對抗這樣的傳感器和處理器。

電磁頻譜優勢:人工智能系統可用於通過自我遊戲產生干擾和通信的新方法,類似於AlphaGo Zero通過自我遊戲改進其遊戲。例如,一個AI系統可以嘗試通過有爭議的電磁環境發送信號,而另一個系統試圖阻塞信號。通過這些對抗方法,兩個系統都可以學習和改進。DARPA在2014年舉行了頻譜挑戰賽,人類競爭者在競爭激烈的環境中競爭發送無線電信號。42 DARPA現在正在使用機器學習來輔助無線電頻譜分配,但這個概念也可用於干擾和產生抗干擾信號。

誘餌和偽裝:生成對抗網絡可用於創建與軍事相關的偽裝偽裝和誘餌,而小型機器人系統可用作消耗性誘餌。隨著軍隊將更多支持AI的傳感器用於數據分類,針對此類系統的欺騙攻擊也將越來越重要。

策略:進化和強化學習方法可用於在模擬環境中生成新策略,在其他環境中提供令人驚訝的解決方案。

人工智能系統還可以為軍隊提供一系列非戰鬥支援功能。人工智能的一個用途是幫助國防領導人更好地瞭解自己的力量。通過分析大量數據,AI系統可以預測各種組件中的力的壓力:設備何時需要維護; 當節目可能面臨成本超支或進度延誤時; 當服務人員可能遭受性能下降或身體或心理傷害時。總體而言,AI具有巨大的潛力,可以幫助國防領導者通過彙總和融合數據以及進行預測分析來提高自身力量的準備程度,從而在問題成為關鍵問題之前解決問題。

人工智能也已成熟,可以改變軍事和其他政府組織內的傳統業務流程。例如,美國國防部開展了一系列非軍事特定的商業活動,包括會計,旅行,醫藥,後勤和其他行政職能。許多這些功能對於自動化來說已經成熟,因為它們涉及常規認知或體力勞動。在許多情況下,軍事組織可能能夠直接從商業部門導入成熟且經過驗證的技術,這些技術可以提高效率並降低人員成本,例如更加自動化的會計系統或醫療保健中的AI工具。國防組織可以通過利用這些商業技術和精簡其組織來節省大量資金。

總的來說,人工智能可以幫助軍隊提高理解,預測行為,開發新的問題解決方案,並執行任務。一些應用,例如使用AI來實現自主武器,會引發困難的法律,道德,操作和戰略問題。自動化將戰鬥行動速度提高到人類對戰爭行為控制較少的程度的可能性引發了人類與戰爭關係甚至戰爭本質的深刻問題。

情 報

AI在情報收集和分析方面有很多用途。對於收集,由於智能設備,物聯網和人類互聯網活動而發生的數據爆炸是潛在信息的巨大來源。這些信息對於人類來說是不可能手動處理和理解的,但AI工具可以幫助分析數據之間的聯繫,標記可疑活動,現貨趨勢,融合不同的數據元素,映射網絡以及預測未來行為。這可能會使秘密活動在許多方面更具挑戰性,因為大數據,數據洩露和增加的開源信息的組合可能使情報專業人員更難以保持秘密。例如,面部識別和生物識別技術,結合大型監控系統,

與此同時,AI系統可能容易受到反AI欺騙技術的攻擊,例如愚弄圖像,這將對情報界產生影響。深度假貨和大規模數據創建的自動化可以為臥底人員創建深層背景。人工智能甚至可以通過改進可以將大腦成像與思想相關聯的系統來改變人類報告的驗證,對反情報和審訊具有重要意義。

人工智能在情報分析方面也具有巨大的潛在價值。人工智能系統可用於大規模跟蹤和分析大量數據(包括開源數據),尋找可疑活動的跡象和警告。異常檢測可以幫助找到恐怖分子,秘密特工,或潛在的敵人軍事活動的跡象和警告。基於AI的語音到文本和翻譯服務可以極大地增加處理音頻,視頻和基於文本的外語信息的規模。人工智能系統可用於生成簡單的自動報告,因為它們已經用於某些體育比賽。

人工智能系統通常在閱讀理解方面表現不佳,但隨著它們的改進,它們可以越來越多地用於編寫成績單摘要,使人類分析師更容易快速篩選不斷增長的信息量。46人工智能系統在對報告進行語義分析時也可能越來越有價值,這些報告有助於鏈接人類可能遺漏的不同數據。人工智能系統缺乏可以讓他們理解信息的常識性推理,但他們大規模精確操作的能力將有助於人類分析師對大量信息進行分類。人工智能系統不會取代人類智能分析師,但可以通過卸載日常任務和大規模處理數據來幫助他們,使人類分析人員能夠專注於理解對手。

國土安全

AI還可以幫助各種邊境安全和國土安全應用。人工智能驅動的感知,處理和分析對於收集,分類和解釋數據至關重要,以便更好地為人類決策提供信息。美國國土安全部(DHS)已經開始採用並實施其中一些技術進步。

過去和當前由AI驅動的DHS計劃的示例包括:

語音識別算法:美國海岸警衛隊使用人工智能分析語音,以建立他們的外表。這有助於在法律上解決虛假遇險信號。

用於機器學習的開源數據:與Alphabet Inc.的Kaggle平臺相結合,DHS從運輸安全管理局提供數據,以開發更好的算法來評估非法和危險物品的乘客行李。

瞭解數據:通過推理,提取和綜合理解數據的助手(AUDREY)由DHS和NASA噴氣推進實驗室開發的AI平臺集成了實時數據,為消防員提供瞭如何最好地發揮團隊作用的建議。

AI還廣泛適用於各種國土安全功能,例如邊境安全。50由於美國政府不能駐紮在每一英里或檢查每個集裝箱,因此可能與無人機和地面機器人相結合的人工智能系統可通過自動監視和異常檢測的進步幫助監測邊界。監控人類情緒表達和行為的系統可以幫助識別出看起來很緊張或行為奇怪的人,在邊境口岸作為“第六感”。用於博弈論/風險評估的人工智能系統在確定最佳應用稀缺資源的位置以及如何對抗自適應對手(例如販毒者)方面也很有價值。實際上,這些系統已被用於改善非洲偷獵者的安全。

外交和人道主義

人工智能的進步也可以重塑外交實踐。圖像識別和信息分類中的AI技術可以通過監控人員和識別潛在漏洞的異常來使外交複合物更安全。此外,語言處理算法將降低國家之間的語言障礙,使他們更容易與外國政府和公眾溝通。更多的理論技術,如政治預測,仍然是一種選擇,挖掘越來越多的可用數據,以更好地瞭解和預測政治,經濟和社會趨勢。

但外交不會沒有破壞性的挑戰。在可預見的未來,人類仍然是決策者,必須正確使用人工智能技術提供的產出。更令人擔憂的是,隨著努力偽造證詞並在國外傳播虛假信息變得更加容易,人工智能技術將不得不採取防禦措施來應對,糾正甚至刪除惡意內容。

國際人道主義行動也可以從人工智能技術中獲益。人工智能技術可以幫助監督選舉,協助維和行動,並確保通過異常檢測不會濫用財政援助支付。當然,人工智能還可以通過提高生產力,醫療保健和無數其他經濟效益,幫助直接改善欠發達國家的生活質量。人工智能還可以幫助避免導致國際干預的災難。例如,從氣候和土壤模式中提取重要可行警告標誌的人工智能技術將成為農業效率和災害準備的福音。

啟示

作為一種支持技術,AI在各種國家安全設置中有許多用途。美國應該擴大政府不同部門的新生努力,並建立一整套政府倡議,以便在政府運作中利用和快速整合人工智能工具。由於許多當前的人工智能方法存在重大漏洞,因此美國應該將對抗操縱的安全性和穩健性作為其整合人工智能技術的關鍵要素,並在部署之前使用“紅隊”來測試人工智能工具。人工智能技術的普遍存在意味著美國必須迅速採取行動,以保持領先潛在的競爭對手。

全球安全的間接影響

除了直接的國家安全影響外,人工智能如何產生與國際安全環境相關的政治和社會變革?鑑於經濟和軍事力量之間的整體聯繫,特別是在中長期,理解人工智能創新將如何影響全球經濟,信息環境和世界各地的社會至關重要。

經濟實力與工作的未來

人工智能,全球經濟和經濟實力之間最明確的聯繫是人工智能對國家和企業積累資本的能力以及對未來工作的影響。問題是人工智能的後果是否可以與之前的大規模經濟轉變相提並論甚至更勝一籌。例如在1820年,71%的美國人據報從事農業職業。然而在隨後的一個世紀,美國人在養殖工作的比例由於工業化顯著下降,下降到1920年的1%的。

有很多預測都稱人工智能將影響勞動力市場,而這些預測存在很大程度的不確定性。例如麥肯錫全球研究所最近的一份報告表明,目前幾乎所有行業的工作任務都是自動化的,超過30%的工作任務是自動化的。根據麥肯錫的數據,到2030年流離失所的就業人數中值估計為4億,而最大估計是兩倍:8億人。這些巨大的總量以及它們之間的廣泛傳播不僅反映了人工智能將對勞動力市場產生重大影響的觀念,而且這些後果很難預測。研究人員對自動化效果的估計差異很大。卡爾本尼迪克特·弗雷和Michael A.奧斯本在牛津大學的研究表明,美國工人的47%可能是從自動化的風險大約2030年,另一份報告審查32個發達的國家組織,經濟合作與發展論證的那14%工作崗位面臨自動化的高風險,另外32%的工作崗位面臨巨大風險。與此同時,基於1990 - 2007年工業機器人數據的Daron Acemoglu和Pascual Restrepo在美國國家經濟研究局的美國勞動力市場模型表明,“在通勤區再增加一個機器人可以減少6.2名工人的就業率。” 相比之下,Forrester研究報告認為,到2027年,只有2,470萬個就業崗位將被取代,創造了1400萬個就業崗位。而麥肯錫表示,目前只有約5%的工作可以完全自動化......

然而問題不僅僅在於它消滅了多少工作崗位,還有它創造了多少工作,以及這些流離失所者是否能夠在新經濟中找到工作。即使宏觀經濟影響相對穩定,創造性破壞的過程也會產生重大的政治後果。前財政部長拉里·薩默斯(Larry Summers)在2017年提出,自動化壓力加上在以後的生活中為勞動力參與創造新技能的難度,可能導致“年齡在25歲至54歲之間的男性中有三分之一不在這個半世紀末。“

面臨的挑戰是,在人工智能革命開始時,當今尖端公司創造的就業崗位數量已遠遠小於前幾代領先公司創造的就業崗位數量。例如,2017年,Facebook僱傭了超過25,000名員工,這是迄今為止最大的一次。與此同時,福特汽車公司,其勞動力峰值的一小部分,在2017年仍然僱用了202,000名工人。風險是,經濟增長的最佳經濟未來更像是“勞動力輕工經濟”,如Erik Brynjolfsson安德魯·邁克菲認為,資本可以帶來持續的生產力提升,但工人卻無法從中受益。在這種情況下,工人不僅僅是工廠工人。他們將是律師,醫生,投資銀行家和其他目前擁有中產階級,中產階級或上層階級收入的人。所有這些工作都有重複的任務,無論多麼熟練,狹窄的自治系統都可以掌握。在這種情況下,執行重複身體和認知勞動的工人變得不那麼重視。即使失業率很低,降低工資也會產生影響。實際上,Brynjolfsson和邁克菲認為,在過去幾十年中,自動化一直是美國中等工人實際工資停滯或下降的原因。

具有這種破壞程度的時代可能對權力平衡和安全環境產生重大的間接影響。經濟基礎的變化可能導致產業轉移,使一些國家受益而犧牲其他國家。例如,第一次工業革命幫助推動了美國的崛起 - 美國的地理位置使工業化達到了歐洲難以實現的規模。政府利用這些變化的政策可以導致相對力量平衡的長期變化。英國政府在政府借貸和債券市場方面建立現代融資的能力使英國在19世紀末創造了世界上最強大的海軍。

政治和社會混亂

經濟混亂也可能助長社會和政治動盪。大量以前就業的工人,甚至只是因經濟環境而處於新的弱勢群體,都是政治抗議和鼓動的一種方式。維持穩定需要一定程度的政治靈活性和官僚主義能力,這在最好的時候很難實現 - 經濟不穩定時期幾乎不是最好的時期。這是經濟轉型可能導致政治衝突的機制之一,在最壞的情況下,政治衝突可能導致國內動亂,叛亂,內戰,民族主義,仇外心理和轉向威權主義。

自動化產生的不穩定性已經成為全球民粹主義民族主義運動興起的潛在推動力。由於煤炭工人等強大的利益集團經歷了顯著的衰退,他們變得更加激進,他們希望變革能夠迴歸到無法實現的舊現狀。這可能會推動政治兩極化。

結果表明,自動化很可能會影響到美國最年輕的工人。這並不奇怪,因為年輕工人最有可能執行易於自動化的日常任務。對於16-19歲和20-24歲的工人來說尤其如此,他們不太可能受過高等教育。在20世紀80年代,工人工資與教育水平大幅度脫鉤,通貨膨脹調整後的工資為大學或研究生學位上升,高中畢業生的工資和輟學率下降。這表明自動化經濟的一個影響將更加放大教育的影響 - 甚至是特定的專業或學科,有助於人們為未來的工作做好準備。

從管理創造性破壞的後果的角度來看,一線希望是受自動化影響最嚴重的工人是那些最年輕,最有時間接受教育和適應的人。然而,一個風險是,依靠入門級工作來完成大學學業並獲得教育的年輕工人可能會失去在自動化經濟中保持相關性所需的經濟機會。如果不進行政策調整以使大學和研究生教育更加可負擔,那麼結果就會導致不平等加劇。

人工智能與宏觀經濟

政府不是被動的自動化浪潮所左右的被動參與者。各國有一系列政策選擇可用於應對人工智能可能產生的經濟壓力,從監管行業到引入普遍的基本收入。毫無疑問,各國希望儘可能地利用人工智能,同時儘量減少其有害影響。採取何種形式將取決於每個國家的政治經濟和國家對經濟增長,失業,政治動盪和社會福利的態度。

人工智能加上國家政策反應的後果可能差異很大。以下是一些說明性的情景,說明各國在風化和適應人工智能驅動的創意中斷之後可能會如何結束。

薪酬增加:人工智能在提高生產力和繁榮方面的優勢可能遠遠超過工人的劣勢,結果可能是所有人的財富和豐富,甚至是那些因自動化而流離失所的人。

不平等加劇:即使因人工智能而流離失所的工人找到新工作,結果也可能是勞動力輕工業的不平等加劇,因為資本變得更有價值,而富人變得更富裕。隨著不平等的擴大,可能導致社會和政治不穩定。

資源詛咒:人工智能可能導致經濟悖論,就像自然資源豐富的國家所面臨的“資源詛咒”一樣。即使是普遍基本收入等政策措施也無法有效地轉化為社會福祉和個人幸福。

盧德派的復仇:可怕的情況可能是大規模的失業,因為19世紀盧德派的恐懼終於實現,機械消除了新的工作沒有取代的工作。狹義人工智能的一個影響可能是,人類根本不像以前那樣具有經濟價值,就像馬匹在第一次和第二次工業革命後在全球經濟中的作用下降一樣。

代際錯位:就像從外地到工廠的轉移一樣,人工智能可以引起勞動力市場的轉型,需要一代人才能解決。由於失去工作的人與人工智能創造的新工作所需技能之間的基本技能不匹配,結果可能是持續一代人的社會和政治混亂。這種中斷隨著時間的推移逐漸消失,因為在AI經濟中受過教育和培訓的新一代人主導著勞動力市場。

落後:由於擔心潛在的經濟和政治混亂,未能利用人工智能甚至抵制人工智能的國家可能落後於其他國家,維持穩定但卻以增長和國家競爭力為代價。

普遍基本收入

對人工智能的大規模錯位潛力以及由此產生的巨大社會和政治後果的恐懼,是最近關於普遍基本收入可能性的討論的一個重要推動因素。普遍的基本收入代表了政府為每個人提供足夠的生活收入的想法。像理查德布蘭森這樣備受矚目的商業領袖認為,由於人工智能,普遍的基本收入可能成為必需品。從本質上講,如果人工智能對勞動力市場產生影響,新的產業和人類工作的可能性不會出現,那麼大部分人口可能會或多或少失去工作,資本集中在更多的手中。富裕。這不一定是由於腐敗或糟糕的決策,只是市場的邏輯走向了極端。因此,一種可能的解決方案是為那些因自動化而流離失所的人提供保障收入的潛力,因為他們不太可能擁有未來的工作場所選擇。

當然,普遍的基本收入引發了許多問題。誰在為普遍的基本收入付費,以及在什麼基礎上?普遍的基本收入可以降低系統搭便車的成本。普遍的基本收入也有可能降低人們創新的動力,否則他們會努力尋找新的生產性產業,人類在人工智能時代比機器具有相對優勢。這些是難以解決的問題,也是政策制定者在未來幾十年必須考慮的問題。

民族主義與國際衝突

如本報告其他部分所述,與人工智能經濟學相關的最明確的國家安全後果,將是經濟權力與軍事力量之間的整體聯繫。隨著經濟衰退,隨著時間的推移,維持領先的軍隊是不可能的。然而上述分析還表明,人工智能造成的經濟,社會和政治混亂可能產生額外的國際安全後果。

今天,美國和英國等西方國家已經存在政治壓力,這些壓力主要集中在各國變壞的方式上。儘管上面提到了有關自動化已經對勞動力市場產生的影響的證據,但自動化和人工智能還沒有受到指責。西方的政治爭論往往集中在諸如移民,外包或與中國等國家的貿易逆差等問題上。如果人工智能加速失業,甚至只是勞動力的不穩定,就會引發更大的民粹主義和民族主義浪潮,因為越來越少的精英手中的財富集中會產生怨恨和政治不穩定。

在全球舞臺上,人工智能可能產生的勞動力不穩定在過去導致大規模動盪,政變和其他緊張局勢,以及可能產生衝突的極端民族主義,特別是如果人們將其他國家歸咎於他們的經濟困境。

信息域

數字技術在短短几十年的時間裡徹底改變了信息環境,使聲音數量民主化,擴大了音量,加快了社會話語的速度。隨著計算機越來越能夠針對特定用戶定位信息,放大消息,過濾信息,甚至生成虛假的音頻,圖像和視頻,AI將繼續改變信息環境。互聯網,社交媒體和虛假信息的快速發展表明,無法預測信息環境將如何演變。然而,以下是一些可以基於現有技術預測的挑戰。

真相終結

AI已經證明了創建音頻和視覺偽造的能力。達特茅斯大學(Dartmouth University)計算機科學教授Hany Farid博士為美聯社諮詢檢測偽造圖像和其他媒體,他將偽造技術和認證技術之間的競爭描述為“軍備競賽”和“信息戰爭”。目前認證技術和鑑偽技術還佔據上風,但趨勢並不樂觀,也許不用幾年時間,這些偽造品不僅可以欺騙未經訓練的眼睛和耳朵,還可以欺騙複雜的鑑偽專家和系統。

這種轉變將對企業溝通,法庭證據,新聞和國際安全等各種領域產生深遠影響。以水門醜聞為例。即使經過兩年積極的調查報道,理查德尼克松總統仍在參議院得到足夠的支持,以阻止他被免職。只有在橢圓形辦公室的錄音帶(可以聽到尼克松妨礙司法的明確證據)被釋放,他在國會才不受支持。在一個基本上不可能實現偽造的世界裡,錄音帶不僅是證據,而且是鐵證。

人工智能技術可能會削弱(即便不是終結)錄音作為證據的能力。某些技術(如區塊鏈)可以驗證視頻和音頻文件的來源。但這些技術發展可能還不夠快。它們也可能被證明太難以在許多環境中使用,或者僅僅可能不足以抵消人類對“眼見為實”的認知易感性。結果可能是“真相的結束”,人們會迴歸到更加部落化的和派系化的新聞來源,每個都呈現或感知他們自己的現實版本。

在世界正在努力應對假新聞和戰略宣傳的新挑戰時,人工智能的偽造已成為現實。2016年美國總統大選期間,數億美國人接觸到假新聞。牛津大學的計算宣傳項目發現,在選舉期間,“專業新聞內容和垃圾新聞以一比一的比例分享,這意味著Twitter上分享的垃圾新聞數量與專業新聞相同。 ”

人工智能偽造技術,假新聞和戰略宣傳的同時興起,對民主治理構成了巨大挑戰。

結論

我們最終會成為什麼樣的世界?人工智能是否開創了繁榮與國際和平的新時代?它是否會導致全球舞臺上權力平衡的變化,伴隨著衝突和誤判的風險?人工智能是否會導致大規模的混亂,政治動盪,民粹主義和保護主義?人工智能是否集中力量控制少數人掌握的信息,或者繼續實現計算機,網絡和社交媒體釋放的信息的民主化?

人工智能帶來的技術機遇塑造了未來,但並未確定它。國家,團體,個人可以選擇如何使用人工智能並對其做出反應。他們的政策回應可以指導,限制或鼓勵人工智能的某些用途。為了應對未來的挑戰,美國需要採取國家戰略,以便如何利用人工智能的優勢,同時減輕其破壞性影響。

(全文完)

CNAS《人工智能与国际安全》


分享到:


相關文章: