牛津大學在思考:如何讓AI成爲一個好人?

牛津大学在思考:如何让AI成为一个好人?

2018年8月,牛津大學互聯網研究所、阿蘭·圖靈研究所 Mariarosaria Taddeo,Luciano Floridi 發表發表署名文章《How AI can be a force for good》,文中詳細討論了倫理範疇下的人工智能,其中包括AI責任權限授予、AI與生活融合之後的可信性與透明度問題,AI倫理原則制定等重要議題。僅供大家學習參考。文章版權歸原作者所有,觀點不代表本機構立場。

牛津大学在思考:如何让AI成为一个好人?

人工智能倫理準則框架

How AI can be a force for good

作者:Mariarosaria Taddeo,Luciano Floridi 牛津大學互聯網研究所,阿蘭·圖靈研究所

發佈日期:2018年8月24日

編譯:學術plus評論員 張濤

原載:www.sciencemag.org/content/361/6404/751

An ethical framework will help to harness the potential of AI while keeping humans in control.

人工智能(AI)不僅是一項需要監管的新技術,而且重塑著我們的日常生活、個人和專業的互動方式等。對我們人類而言,當然希望AI能夠為我們所有,更好地改善我們的生活。在這中間,倫理(ethics)就起著非常關鍵的作用,因為要能夠確保AI在發揮其潛力的同時能夠緩解其帶來的風險。

AI在許多的場景下會有不同的定義。如果定義出了差錯,那麼對AI的倫理挑戰的評判就可能是不準確和不負責的。其中一個觀點是利用經典定義:

“growing resource of interactive, autonomous, self-learning agency, which enables computational artifacts to perform tasks that otherwise would require human intelligence to be executed successfully”。

“不斷增長的互動的、自主的、自學代理的資源,使計算部件能夠執行任務”。

AI還可以在一些特徵中進行定義,比如依賴的模型或技術架構。但在政策相關的問題上,是不需要技術架構的。另一方面,AI是數據驅動的技術,因此面臨數據管理的倫理挑戰,包括同意權(consent)、擁有權(ownership)和隱私權(privacy)。AI帶來的數據相關的挑戰是有唯一性的,即其他技術的發展並不會帶來這樣的問題。同時,AI也是一種自動化和自學習的技術,因此也會帶來一些獨特的倫理挑戰。這也是本文重點關注的內容。

AI的倫理爭論可追溯到20世紀60年代,從那時起,就引出了許多授權與責任(delegation and responsibility)相關的問題。隨著AI應用的場景越來越多,包括招聘、醫療、任務理解和決策,如何將責任歸結為性能問題,其實是一個倫理問題。同時,AI變得隨處可見,新的倫理挑戰隨即出現。人類自我決定(self-determination)是其中最相關、最亟需解決的問題。利用AI對用戶進行畫像然後精準廣告投放就是一個例子,AI系統獲取了用戶偏好、特徵,並進行用戶畫像,然後用於之後的推薦的案例,這樣的案例可以應用於在線服務提供商,甚至是政治活動等。

AI的應用變得越來越普及,從貨物運輸到國家安全,用戶依賴AI應用來處理不同的任務。將這些任務分配給AI來做會給我們人類帶來大量的收益,可以降低成本、減少風險、增加持續性和可靠性,確保新的方案可以應用到解決複雜問題中等等。比如,AI應用在診斷乳癌方面可以將診斷錯誤率降低85%,AI網絡安全系統可以將識別和中和網絡攻擊的平均時間從101小時減少到幾個小時。

Delegation(授權)可能會導致有害的和一些意想不到的後果,尤其是涉及敏感的決策或任務時。以COMPAS系統為例,COMPAS是一款預測罪犯可能會成為再犯的風險評估的AI軟件,但COMPAS系統在非裔美國人和西班牙裔美國人的評估中存在歧視問題。因此,人類需要對這些AI的應用過程進行監管來減小不希望的結果,並對AI不公平的影響進行矯正。

人類的監管在處理複雜問題上是不夠的,因此需要能夠解釋AI和預測結果的技術。DARPA(Defense Advanced Research Project Agency)的XAI(Explainable Artificial Intelligence)項目就是一個這樣的,該項目的目標就是定義解釋AI系統決策過程的新技術。這樣人們就可以瞭解AI系統決策的過程,設計者和開發者就可以通過避免錯誤、緩解誤用帶來的風險等方式來改善系統。類似的項目必須含有倫理影響分析的過程,判定AI的風險和好處,定義設計和使用AI的指導原則。

基於AI的決策或行為的效果是設計者、開發者、 用戶、軟件和硬件等眾多參與者無數次交互的結果,這就是distributed agency(分佈式代理)。分佈式代理帶來了分佈式責任,現有的倫理框架解決的是單個的人的責任,基於單個人的動作和意圖進行獎勵和處罰,而不能解決分佈式的責任問題。

直到最近才有一些新的倫理理論考慮了分佈式代理。這些倫理理論基於合同和侵權責任或嚴格的責任,並採用了無過錯責任模型(faultless responsibility model)。該模型將單個代理的責任從意圖中分割出來來執行特定的動作,或從能力中分割出來來控制結果,並持有分佈式系統的所有代理。這在AI中是非常重要的,因為將道德責任分佈在設計者、監管者和用戶之間了。所以,模型在“懲惡揚善”上起著關鍵的作用,因為模型會促使所有的代理採用負責任的行為。

為授權建立最佳實踐(good practices)並定義新的模型來分配道德責任是抓住AI創造的機會和解決相關挑戰所必須的,但這仍然是不夠的。倫理分析必須擴展為考慮AI對人類行為的不可見的影響。

可信度與透明度

AI支持的服務、平臺和設備隨處可見,並逐漸應用到我們生活的各個方面。2017年,國際機器人學聯合會預測到2020年會有超過170萬新AI驅動的機器人安裝在世界各地的工廠。同年,Juniper Networks公司發佈的報告稱到2022年,55%的家庭會擁有語音助手。

隨著AI技術的成熟和傳播,AI會融入我們的生活、經驗和環境中,變成一個隱形的促進者。在創造新的機會方面,AI與環境的融合會出現新的倫理問題。其中一些問題是領域獨立的,比如在將AI解決方案嵌入家庭、學校、醫院時,可信和透明是非常重要的,而在工作場所,員工的平等、公平、創造力的保護和權利也是必要的。但AI的融合也會產生新的基本風險:因為AI巨大的影響力會侵蝕和破壞人類的自決性。

牛津大学在思考:如何让AI成为一个好人?

圖片:住院兒童可以通過Avatar Kids項目用遠程控制的機器人參與課堂互動,圖片來源:BSIP/UIG VIA GETTY IMAGES

因為AI的預測能力、普遍存在性、輕微影響性,AI系統可以輕易地、默默地形成我們的選擇和動作,比如可以培養社交和合作能力 。但AI的影響力也可能會超出我們的預期和理解,逐步削弱我們對環境、社會的控制,並最終影響我們的選擇、身份和生活。

倫理原則制定

為了解決AI帶來的風險,識別出基本的倫理原則集是必要的,因為可以使AI的設計、管理和使用都遵循這些原則。但這並不容易,因為文化場景和分析的領域不同,倫理原則就會有所不同。這也是IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems(全球自主和智能系統倫理倡議)想要解決的問題。

更重要的一點是,一些基本原則的協定正不斷湧現。最近就有文章對關注AI倫理的主流觀點進行了對比分析,主要強調的是這些原則的重疊點和生物倫理學的主要原則,也就是慈善、非惡意、自治和正義。對於這些準則未來的融合,我們的觀點可以樂觀一些,因為其他原則主要來自於Universal Declaration of Human Rights(世界人權宣言)。

識別出倫理原則後,就需要轉化為可行的指南來形成基於AI的創新。這種轉化也是有先例可循的,尤其是在醫藥行業,轉換研究從基礎研究到臨床應用,基於生物學的研究進展來開發新的治療方法和方案。倫理轉變還適用於學術進展,用於形成規制和治理方法。這種方法在不斷加強AI4People即將出臺的用於倫理設計和AI管理的建議。

AI4People是歐盟議會2018年2月(注:文章中是2018年2月,AI4People網站寫的是2017年11月)啟動的一個項目,是為研究AI帶來的社會影響而建立的。目標是創建一個佈局構建“good AI society”政策和實踐的公共空間。AI4People也是一個多利益方參與的全球性論壇,包括歐盟國會、社會組織、工業界和媒體等。

AI的倫理需要制定一些預見性方法來識別倫理風險和機會,預防一些不期望的結果出現。影響評定分析就是這種方法的一個例子,提供了對給定企業的隱私、透明性、責任等方面應用的技術的影響的分析。AI系統設計和倫理管理是一個複雜但必須要做的事情。這種可選的方法可能會造成個人權力和社會價值的降級,基於AI的創新也可能會受到很大的限制,很可能不小心錯過AI改善個人生活和社會福利的機會。

因為AI革命的意義重大,因此人類不能再犯同樣的錯誤。解決後AI社會和價值的本質問題是必須的,而且要考慮設計、管理和使用等不同的方面。這也是AI4People、IEEE projects、歐盟AI戰略、歐盟人工智能合作宣言(EU Declaration of Cooperation on Artificial Intelligence)的共同目標。社會、政策、商業界、學術界的共同合作可以幫助識別和找出使AI“為我所用”的力量,並解鎖其尊重人類人格的同時促進人類繁榮的潛力。

(全文完)


分享到:


相關文章: