【報告】歐盟:基於主要能力和科學學科定義人工智能

【報告】歐盟:基於主要能力和科學學科定義人工智能

歐盟人工智能高級別專家組(AI HLEG)近日發佈《人工智能定義:主要能力和科學學科》,簡要描述了高級專家組對其交付的成果中所使用的對該學科的共同理解。文件主要從AI系統的能力和學科角度出發,釐清並擴展了其中的部分概念,並且闡述了AI的其他重要概念和問題,繼而更新了人工智能的定義。

【報告】歐盟:基於主要能力和科學學科定義人工智能

歐盟委員會《人工智能通訊》的相關定義為“顯示‘智能行為’的系統——通過分析環境並在一定程度上自主執行任務。基於AI的系統可以是虛擬世界中運行的純軟件,如語音助手、圖像分析軟件、搜索引擎、語音和人臉識別系統等,也可以嵌入硬件設備,如先進機器人、自動駕駛汽車、無人機或物聯網應用等。”

在本文中,AI HLEG擴展了上述定義,從科學學科和技術兩個層面來釐清人工智能概念,力求避免誤解,希望成為非AI專家也能有效掌握的人工智能共識,併為將來討論AI倫理準則和AI政策建議提供有利的支撐。

一、AI系統

術語AI顯然包含智能概念,但在機器智能和人類智能中,智能的定義含糊——即便心理學家、生物學家和神經科學家已對其進行了長期研究,故而AI研究人員更習慣使用“理性”這一概念。“理性”是指在給定優化條件和可用資源的情況下,為實現某個目標而選擇最優行為的能力。當然,理性雖不是智能概念的唯一要素,但也是其中的重要組成部分。

在下文中,我們將使用術語“AI系統”來表示任何基於AI的組件、軟件或硬件。更常見的是,AI系統是作為組件嵌入到較大系統中,而不是作為獨立系統。

人工智能學科最常用的教科書《人工智能:一種現代的方法》中指出,AI系統首要的是理性。但AI系統如何實現理性?正如上述關於AI定義的第一句所述,它通過以下方式實現(詳見圖1):通過傳感器感知系統所處的周遭環境,收集並解讀數據,推理被感知的內容或處理從數據中獲取的信息,決定最優行為,再通過執行器採取相應行動,從而可能改變環境。AI系統可以使用符號規則或學習數字模型,也可以通過分析先前操作對環境的影響來調整其行為。

【報告】歐盟:基於主要能力和科學學科定義人工智能

圖1:AI系統的示意圖

傳感器和感知:在圖1中,系統的傳感器使用wifi符號來表示,在實踐中,它們可以是攝像頭、麥克風、鍵盤、網站或其他輸入設備,也可以是物理量的傳感器(例如溫度、壓力、距離、力/扭矩、觸覺傳感器等)。通常,我們需要為AI系統提供足夠的傳感器,使其能充分感知目標環境的數據(與人類設計人員給予AI系統的目標相關)。例如,如果我們要設計一個AI系統,實現在房間地板變髒時自動打掃,傳感器就包括可用來拍攝地板照片的攝像頭。

在收集數據方面,區分結構化數據和非結構化數據很有必要。結構化數據是指根據預定義模型(如關係數據庫)處理的數據,而非結構化數據不具有已知組織形式(如圖像或文本)。

推理/信息處理和決策:AI系統的核心是其推理/信息處理模塊,該模塊將來自傳感器的數據作為輸入,並根據實現目標決定要採取的行動,這意味著傳感器收集的數據就需要轉換為推理/信息處理模塊可以理解的信息。在上述清掃地板的例子中,攝像頭將為推理/信息處理模塊提供地板圖片,該模塊需要決定是否清潔地板(即何為達到預期目標的最優行為)。雖然人類很容易從地板圖片中做出是否需要清掃的決定,但對於機器來說這並不容易,因為圖片只是0和1的序列。因此,推理/信息處理模塊必須:

1、解讀圖片以確定地板是否乾淨。一般而言,這意味著將數據轉換為信息並以簡潔的方式對信息建模,模型應包括所有相關的數據(在這種情況下,即為地板是否乾淨)。

2、對信息進行推理或處理,生成數字模型(即數學公式),以便確定最優行為。在上述例子中,如果從圖片中得到的信息是地板是髒的,最優行為是進行清掃,否則應該保持靜止。

請注意,應該更寬泛地看待“決策”一詞,選擇採取行動並不一定意味著AI系統是完全自主的。決策也可以是選擇某一建議推薦給人類,而人類作為最終決策者。

行動:一旦確定了行為,AI系統就可以通過可用的執行器完成。在圖1中,執行器使用機械臂圖標來表示,但它們不一定是實物,也可以是軟件。在清掃的例子中,如果行為是清潔地板,AI系統可以發出激活吸塵器的信號。再舉個例子,會話系統(即聊天機器人)的行為是通過生成文本來響應用戶表達。

行動可能改變環境,因此下次系統需要再次使用其傳感器,從改變後的環境中感知不同信息。

理性AI系統並不總是為其目標選擇最優行為,因此僅能實現有限理性,這是由於時間或計算能力等資源的限制所導致。

理性AI系統是AI系統的初級版本,它們能改變環境,但並不會隨著時間的推移調整行為以更好地實現目標。學習型理性系統能夠在採取行動後,(通過感知)評估環境的新狀態,以確定其行動是否有效,然後調整其推理規則和決策方法。

二、AI作為一門科學學科

前文是關於AI系統非常簡單的抽象描述,主要通過AI的三個能力:感知、推理/決策和行動。但是,這足以讓我們介紹和理解目前用於構建AI系統的大多數AI技術和子領域,因為它們都涉及系統的這些能力。從廣義上講,所有這些技術都可以分為兩組,即推理和學習的能力,機器人則是另一個非常相關的學科。

推理與決策:這組技術包括知識表達和推理、計劃、調度、搜索和優化。這組技術對來自傳感器的數據進行推理。為了能夠做到這一點,人們需要將數據轉換為知識,因此AI的領域之一是和如何最好地對知識建模(知識表達)有關。知識建模後,下一步就是用它來推理(知識推理),包括通過符號規則、計劃和調度活動、搜索大型解決方案集、以及優化問題的所有可能解決方案,最後一步是決定採取何種行動。AI系統的推理/決策部分通常非常複雜,需要組合上述多種技術。

學習:這組技術包括機器學習、神經網絡、深度學習、決策樹和許多其他學習技術。這組技術使AI系統學習如何解決無法精確定義的問題,或者解決方法無法採用符號推理規則來描述的問題。這類問題的例子通常與感知能力有關,例如語言理解、計算機視覺或行為預測等,值得注意的是這些問題看上去很容易,因為它們對人類來說確實很容易。然而,對於AI系統而言並非如此,因為它們不能依賴常識推理(至少目前還沒有),並且在系統需要解讀非結構化數據時尤其困難。這時遵循機器學習方法的技術便派上用場。不過,機器學習技術不止用於感知,還能產生根據數據計算決策的數值模型(即數學公式)。

機器學習有幾種分支,使用最多的分別是監督學習、無監督學習和強化學習。

在有監督的機器學習中,人們不是向系統提供行為規則,而是提供輸入—輸出行為的示例,希望它能夠從示例中進行概括(示例通常代表過去),並在示例並未出現過的情況下也能表現良好(可能是將來遇到的情況)。在我們的運行示例中,我們將為系統投餵許多地板圖片和相應的解釋(即該圖片中的地板是否乾淨)。如果我們給出足夠多的例子,並且這些例子在大多數情況下都是多樣的和包容性的,那麼系統將通過其機器學習算法進行概括,瞭解如何正確解讀從未見過的圖像。一些機器學習方法採用基於神經網絡概念的算法,神經網絡受人類大腦的啟發,它有一個處理單元構成的網絡(類似於我們的神經元),處理單元之間有很多加權連接。神經網絡輸入的是來自傳感器的數據(地板的圖片),輸出的是對圖片的解讀(地板是否清潔)。在對示例的分析(網絡的訓練階段)期間,調整連接的權重以儘可能地匹配可用示例的內容(即最小化預期輸出與網絡計算輸出之間的誤差)。在訓練階段結束時,用全新的示例對神經網絡行為進行測試,檢查任務是否被習得。

值得注意的是這種方法(以及所有機器學習技術)總是有一定比例的誤差,儘管誤差通常很小。因此,一個基本概念是“準確率”(accuracy)——度量正確答案佔據的百分比。

現有幾種神經網絡和機器學習方法中,其中最成功是深度學習(deep learning)。深度學習指神經網絡在輸入和輸出之間具有若干層,可以通過連續步驟學習輸入—輸出的整體關係,這使得整體方法更加準確,並且不需要人工指導。

神經網絡只是一種機器學習工具,還有許多其它具有不同屬性的工具:隨機森林(random forests)及提升樹(boosted trees)、聚類方法(clustering methods)、矩陣分解(matrix factorization)等。

另一種有用的機器學習方法稱為強化學習(reinforcement learning)。在這種方法中,我們讓AI系統自由地做出決定,並且針對每個決策回饋一個獎勵信號,告訴AI系統決策的好壞。隨著時間的推移,該系統的目標是最大化所獲得的積極獎勵。該方法用於推薦系統(例如部分向用戶推薦潛在購買選擇的在線推薦系統),也應用於營銷。

機器學習方法不僅適用於感知任務,例如視覺和文本理解,而且適用於所有那些難以定義且無法通過符號行為規則全面描述的任務。

用於處理無法以符號方式描述的新任務的機器學習方法,以及隨著時間的推移調整其行為以更好地實現給定目標的學習型理性代理(上文提及),需要注意兩者的區別。這兩種技術可以重疊或互補,但不一定相同。

機器人:機器人技術可以被定義為“物理世界中行動的AI”(也稱為具身AI,embodied AI)。機器人是一種實物機器,應對物理世界的動態、不確定性和複雜性。感知、推理、行動、學習以及與其他系統的交互能力通常集成在機器人系統的控制架構中。除人工智能外,其他學科還在機器人設計和操作中發揮作用,如機械工程和控制理論。機器人包括機械臂、自動駕駛車輛(例如汽車、無人機、飛行出租車)、類人機器人、機器人真空吸塵器等。

圖2描繪了上述大多數AI子學科以及它們的關係。然而,需要注意的是AI比這張圖片要複雜得多,因為它包含許多其他子學科和技術。此外,如上所述,機器人技術還依賴於AI領域之外的技術。但是,我們相信這對於在多學科和由多元利益相關方構成的高級別專家組內進行對AI技術、AI道德和AI政策的分享和理解並討論已經足夠。

【報告】歐盟:基於主要能力和科學學科定義人工智能

圖2:AI的子學科及其關係的簡要概述

(注:機器學習和推理都包括許多其他技術,機器人技術包括AI領域之外的技術。AI整體屬於計算機科學學科)

三、AI的其他重要概念和問題

狹義人工智能(弱智能)和通用人工智能(強智能)

:通用人工智能系統指能夠執行人類可執行的大多數活動的系統,而狹義AI系統是可以執行一個或幾個特定任務的系統。目前部署的AI系統是狹義AI。在人工智能早期,研究人員使用了不同的術語(弱AI和強AI)。要實現通用AI所需的能力,仍然存在許多開放的倫理、科學和技術挑戰,例如常識推理,自我意識以及機器來定義其自身目標的能力。

數據問題與偏見:由於多數AI系統(例如包括監督機器學習組件的系統)的良好表現實際依賴於大量數據,因此瞭解數據如何影響AI系統的行為非常重要。例如,如果訓練數據存在偏見,即不夠平衡或不夠包容,那麼基於這些數據進行培訓的人工智能系統將無法對數據進行很好概括,並且可能做出不利於特定群體而惠及其他群體的不公平決策。最近,AI社群一直在研究方法來檢測和減輕在訓練數據集及AI系統其他部分的偏見的情況。

AI黑箱與可解釋性:即便部分機器學習技術從準確率的角度來看非常成功,但在其如何做出決策方面卻非常不透明。而AI黑箱的概念描述的便是這樣的場景,其形成決策的原因無法被追溯。可解釋性(explainability)指人工智能系統可以為其行為提供解釋。

目標導向的AI:當前的AI系統是目標導向的,這意味著它們從人類那裡接收了需要實現的具體目標並使用技術來加以實現,它們無法自我定義目標,但有些AI系統(例如基於某種機器學習技術的系統)可以更自由地決定採用何種路徑實現給定目標。

四、更新的AI定義

我們建議使用如下AI定義,並將此文檔作為支撐此定義的附加信息來源:

“人工智能(AI)系統是由人類直接設計或藉助AI技術優化設計的軟硬件系統,在給定複雜目標的情況下,從物理或數字維度,通過數據獲取來感知環境,解讀所收集的結構化或非結構化數據,基於知識進行推理,或者通過處理來自數據的信息,為實現給定目標決定採取的一個或多個最優行動。AI系統可以是使用符號規則或者通過數字模型來學習,也可以通過分析環境受先前操作的影響來調整其行為。

作為一門科學學科,人工智能包括多種方法和技術,如機器學習(其中深度學習和強化學習是具體的例子)、機器推理(包括計劃、調度、知識表達和推理、搜索和優化)和機器人技術(包括控制、感知、傳感器和執行器、以及與所有其他信息物理系統技術的集成)。”


分享到:


相關文章: