美國國防部DARPA接近大規模的新人工智能和機器學習“突破”

美國國防部DARPA接近大規模的新人工智能和機器學習“突破”

美國國防高級研究計劃局正在尋求一種前所未有的機器學習“突破”技術,並開創一種新的網絡安全方法,旨在一次阻止多個攻擊,並可以阻止現有防禦系統無法識別的新攻擊。

DARPA領導的“終身學習機器”(L2M)計劃旨在大規模改進實時人工智能和機器學習,其基本前提是某些具有機器學習能力的系統可能難以識別、集成和組織某些新的或複雜的尚未被發現的信息。

“如果新事物足夠不同,系統可能會失敗。這就是為什麼我想要一種在經歷中學習的機器學習。系統不知道在某些情況下該怎麼做,”哈瓦西格爾曼,美國國防高級研究計劃局信息創新辦公室的項目經理,馬薩諸塞大學計算機科學教授表示。

新興高科技項目的目標可以用即時的“實時培訓”來解釋。如果機器在進行實時分析時學習到最困難或最模糊的東西,那麼,正如西格曼所解釋的那樣,“我們不受培訓集的約束。(以前編譯或存儲的信息)。我們將舊數據和新數據放在一起,以便在網絡中對所有培訓數據進行再培訓。”

雖然尖端的人工智能應用程序現在顯示出快速增長的理解上下文、複雜的細微差別甚至一些高度主觀的變量的能力,但在某些情況下,許多機器可能難以正確集成尚未添加到其數據庫中的數據。機器學習可以識別異常和模式,而不是其收集的歷史信息量的一部分,但也有一些快速出現的、意想不到的發展,這可能會給一些最先進的機器學習系統帶來很大的困難。

在許多情況下,如果機器學習程序中引入新的信息,系統有時會“不知道如何識別新的圖像”。如果你一直在學習,你不會有那麼多驚喜,”西格曼說。

從廣義上講,人工智能的工作原理是將新的輸入與已知信息的數據庫進行比較,以辨別差異的界限,進行計算,並確定看似無法解決或極其複雜的問題的答案。考慮到先進的處理速度,再加上執行實時分析的能力,看似無限的數據量幾乎可以立即挖掘出來——為人類決策者提供答案和組織信息。

例如,先進的機器可以識別上下文,識別出舞蹈中的“球”和足球中的“球”之間的區別。這是通過分析周圍的單詞,組織它們並有效地確定上下文或意義來完成的。例如,西格曼說,先進的模式識別使人工智能能夠知道許多複雜或難以辨別的單詞、圖像和程序之間的區別——比如飛機和坦克之間的區別或更密切相關的圖像。L2M程序的設計就是以此為基礎,將這些技術優勢提升到一個全新的水平。·

正如Sigelmann解釋的那樣,有一些以前從未見過的細微差別或數據排列,它們代表著與機器學習通常可以分析的不同。此外,人工智能似乎也有一些侷限性,這意味著它可能還沒有能力完全消化和吸收一些非常主觀的變量,如“感覺”…“本能”……某些細微的決策是人類認知所獨有的……或任何與計算機算法、數學公式或某些純科學的分析方法不相容的東西。相反,也可以說,根據一些工業計算機科學家的說法,人工智能通過利用包括語音模式、先驗行為和其他種類的編目證據在內的數據庫,現在處於能夠處理更多主觀現象的前沿。

Seigelmann解釋說,有趣的是,LM2在概念上與人類生物現象相似。她說,實時輸入和輸出之間的高級協同作用類似於嬰兒對周圍環境的感知。

“當嬰兒出生時,它一直在學習適應和學習。人們害怕驚喜。這正是關鍵所在;機器通過立即添加新信息並與現有數據庫同步,吸收和處理新信息的速度越快,就越能訓練它識別和計算新事物。”Siegelmann補充道。

探索與創造新的計算機算法相關的生物學絕非史無前例。五角大樓的科學家們長期以來都沉浸在一種叫做“生物計量學”的東西中,通過分析蜂鳥的聚集模式,為無人機開發新的算法——使它們能夠協調綜合功能、準確地群聚或在不發生碰撞的情況下協同工作。

保證人工智能對欺騙的魯棒性(GARD)

除了正在進行的L2M計劃(進展迅速)外,西格曼還強調了一項相關的、但獨特的、面向網絡安全的探索,旨在挫敗比通常情況下更為先進的網絡攻擊。

網絡安全概念被稱為保證人工智能對欺騙的魯棒性,旨在理解一種新的更復雜的網絡攻擊,正如西格曼所說,“使機器學習更加敏感,使人工智能更加健壯和有彈性。”

GARD程序設計用於解決新出現的試圖入侵的方法,這些方法被設計為“欺騙”、“混淆”或重新引導它正在攻擊的面向機器學習的系統。

Siegelmann說:“這種攻擊可能涉及一種特定的算法,該算法設計用於向機器學習系統發送信息,並實際發送信息,以使人工智能以一種不可預期的方式做出響應……本質上是混淆和欺騙機器,迫使它做出決定。”

例如,如果這樣的攻擊成功,攻擊者可以指示啟用人工智能的系統“允許訪問”受保護的網絡並“打開一扇門”,正如西格曼所說。

西格曼用輸入和輸出之間的某種同時協同作用來解釋這一點。國防高級研究計劃署的一位官員說,這種方法使網絡安全能夠識別出比目前可能的更廣泛的攻擊,並阻止其發生。

“當前的防禦努力旨在防止特定的、預先定義的對手攻擊,並且在測試時,仍然容易受到超出其設計參數的攻擊。國防部高級研究計劃局的官員在一份書面聲明中解釋說:“國防部試圖以不同的方式對待機器學習防禦。”

雖然基於科學,但GARD的努力還很早。國防部高級研究計劃局剛剛向業界發佈了一份廣泛的公告徵求意見,計劃在今年12月正式啟動該項目。

Siegelmann補充說:“我們將使人工智能更好地創建防禦機制,以便現有的機器學習可以通過防禦當前的機器或進行新的機器學習來防禦。”

作者:克里斯·奧斯本,曾在五角大樓擔任過高級專家,任職於陸軍採購、後勤和技術助理部長辦公室。奧斯本還曾擔任國家電視網的主持人和航空軍事專家。他還擁有哥倫比亞大學比較文學碩士學位。


分享到:


相關文章: