《人工智能道德準則》——可信賴AI的七個關鍵要素

文 | 錢靜雯 律師 黃天一 匯業律師事務所

4月8日,歐盟委員會發布了由歐盟人工智能高級專家組撰寫的《可信賴人工智能道德準則》的正式生效文本(“ETHICS GUIDELINES FOR TRUSTWORTHY AI”,下稱《道德準則》),提出了實現可信賴人工智能全生命週期的框架,並具體闡述了“可信賴AI全生命週期框架”的三個基本要素、可信賴AI的基礎原則、評估可信賴AI的關鍵要求及其實現等業內高度關注的問題。匯業律師事務所黃春林律師團隊研讀並翻譯整理了其中關於具體實現可信賴AI的七個關鍵要素的細節解釋,供相關從業者進一步深入瞭解歐盟委員會此版《道德準則》背後的邏輯思考與細節把控意圖。

《人工智能道德準則》——可信賴AI的七個關鍵要素

1. 人類的能動性和監督

基於人類自治原則,人工智能系統應當支持人類自治和決策。這要求人工智能系統既可以通過支持使用者施為來推動社會的民主、繁榮、公平,又能夠促進基本權利的行使,同時允許人類監督。

基本權利:與其他科技一樣,人工智能系統可以促進或阻礙基本權利的行使。它們可以造福於人比如幫助人們追蹤個人數據,增加教育的可及性從而保障他們受教育的權利。但是,考慮到人工智能系統的範圍和能力,它們也會對基本權利產生負面影響。因這些風險的存在,應當在系統開發前評估其對基本權利的影響,包括評估在民主社會中是否可以減少或證明那些風險是必要的,以尊重他人的權利和自由。此外,應建立機制以接收侵犯基本權利的人工智能系統的外部反饋。

人類能動性:用戶應能夠對人工智能系統作出明智的自主決策。應賦予他們知識和工具,以便在令其滿意的程度上理解並與人工智能系統互動,並在可能的情況下,使其能夠合理地自我評估或挑戰系統。人工智能系統應支持個人根據他們的目標作出更好、更明智的選擇。人工智能系統有時可能通過難以被發現的機制來塑造和影響人類行為,因為它們可能利用潛意識過程,包括各種形式的不公平操縱,欺騙,從眾心理和條件反射,諸如此類都可能威脅到個人的自主權。用戶自治的總體原則必須是系統功能的核心。其關鍵在於當決策對用戶產生法律效果或對用戶產生類似重大影響時,用戶權利不受僅基於自動化處理的決策的約束【1】。

人類監督:人為監督有助於確保人工智能系統不會破壞人的自主權或造成其他不利影響。監督可以通過治理機制來實現,例如human-in-the-loop (HITL), human-on-the-loop (HOTL), or human-in-command (HIC) 方法。HITL指的是在系統的每個決策週期內(在許多情況下既不可能也不可取)人為干預的能力。HOTL指的是在系統設計週期中監控系統運行的人為干預的能力。HIC指的是監督人工智能系統整體活動的能力(包括其更廣泛的經濟,社會,法律和道德影響)以及決定何時以及如何在任何特定情況下使用該系統的能力,包括決定在特定情況下不使用人工智能系統、在系統使用期間建立人類自由裁量水準,或確保能夠覆蓋系統作出的決定。此外,必須確保公共執法者有能力根據其許可令進行監督。根據人工智能系統的應用領域和潛在風險,可能需要不同程度的監督機制來支持其他安全和控制措施。在同等情況下,人類能夠對人工智能系統進行的監督越少,需要進行的測試就越廣泛、管理就越嚴格。

2. 技術的魯棒性和安全性

實現可信賴的人工智能的關鍵之一是與預防損害原則密切相關的技術魯棒性。技術魯棒性要求人工智能系統採取可靠的預防性措施防範風險,即儘量減少無意和意外傷害,並防止不可接受的傷害。這一要求也適用於人工智能操作環境發生潛在變化的情況,或以攻擊方式與系統交互的其他智能體(人類和人工)出現的情況。此外,應確保人類的身心健康。

抵禦攻擊和安全:與所有軟件系統一樣,人工智能系統應該受到保護,免受敵手利用漏洞的攻擊,例如黑客攻擊。攻擊可能針對數據(數據投毒),模型(模型洩漏)或底層基礎設施(包括軟件和硬件)。如果人工智能系統受到攻擊,例如在對抗性攻擊中,數據和系統行為可能被改變,導致系統作出不同的決策,或者導致它完全關閉。系統和數據也可能因惡意或暴露於意外情形而被破壞。安全程序不足也可能導致錯誤的決策甚至是物理傷害。為了使人工智能系統被認為是安全的【2】,應該考慮人工智能系統中潛在的非預期應用(例如雙用途應用)和惡意行為者濫用系統,並應採取措施來防止和減少此類情況【3】。

備用計劃和通用安全:人工智能系統應該有安全措施,以便在出現問題時啟用備用計劃。這可能意味著人工智能系統從基於統計的程序切換到基於規則的程序,或者它們在繼續行動之前詢問人類操作者【4】,且必須確保系統能夠在不傷害生物或環境的情況下完成預期的工作,包括最大限度地減少意外後果和錯誤。此外,應建立對各人工智能系統應用領域的潛在風險釋明和評估的程序,所需的安全措施水平取決於人工智能系統所帶來的風險程度,而這又取決於系統的能力。如果可以預見到開發過程或系統本身會帶來極高風險,那麼主動開發和測試安全措施則至關重要。

準確性:準確性與人工智能系統作出正確判斷的能力有關,例如將信息正確地分類,或基於數據或模型作出正確預測、建議或決策的能力。明晰且完善的開發和評估程序可以支持、緩解和糾正預測偏差帶來的意外風險。當偶然的預測偏差無法避免時,系統能夠指出這些錯誤的可能性很重要。在人工智能系統直接影響人類生活的情況下,高精確度尤其重要。

可靠性和可重現性:至關重要的是,人工智能系統的結果是可重現的和可靠的。可靠的人工智能系統可以在一系列輸入和各種情況下正常工作,這需要仔細檢查人工智能系統並防止意外傷害。可重現性指人工智能實驗在相同條件下重複時是否表現出相同的行為,使科學家和政策制定者能夠準確描述人工智能系統的功能,複製文件【5】可以促進測試和重現行為的進程。

3. 隱私和數據管理

與預防損害原則密切相關的是隱私,隱私權是受人工智能系統影響極大的基本權利。防止對隱私的損害還需要根據人工智能系統實現的領域、其訪問協議及處理數據的能力進行的數據管理,包括使用數據的質量和完整性。

隱私和數據保護:人工智能系統必須在系統的整個生命週期內確保隱私和數據保護,包括最初用戶提供的信息,以及在用戶與系統交互過程中生成的關於用戶的信息(例如,人工智能系統為特定用戶生成的結果或用戶對特定推薦的響應)。人類行為的數字記錄可以讓人工智能系統推斷個人偏好、性取向、年齡、性別、宗教或政治觀點,為了使個人信任數據收集過程,必須確保收集的數據不會被非法使用或使他們受到歧視。

數據的質量和完整性:數據集的質量對人工智能系統的性能至關重要。收集的數據可能包含對社會構造的偏見、不準確、錯誤和誤差,這需要在訓練給定數據之前解決,且確保數據的完整性。惡意數據饋入人工智能系統可能會改變其行為(尤其是自學系統),必須在每個步驟(例如規劃,訓練,測試和開發)中測試和記錄所使用的流程和數據集,這也適用於在其他地方獲取而非內部開發的人工智能系統。

訪問數據:在處理個人數據的任何特定組織中(無論某人是否是系統的用戶),應該建立管理數據訪問的數據協議,協議應概述何人、在何種情況下可以訪問數據,只有有權且需要訪問個人數據的合格人員才能訪問。

《人工智能道德準則》——可信賴AI的七個關鍵要素

4. 透明度

該要求與可解釋性原則密切相關,幷包含與人工智能系統相關的要素透明度:數據、系統和商業模型。

可追溯性:產生人工智能系統決策的數據集和過程(包括數據收集和數據標記以及所使用的算法)應記錄在可行的最佳標準中,以實現可追溯性和提高透明度。這同樣適用於人工智能系統所作的決策,可以識別人工智能決策錯誤的原因,反過來可以幫助防止將來的誤差,可追溯性有助於提高可審查性和可解釋性。

可解釋性:可解釋性指解釋人工智能系統的技術過程和相關的人類決策(例如系統的應用領域)。技術可解釋性要求人工智能系統作出的決策可以被人類理解和追溯。此外,可能不得不在增強系統的可解釋性(可能降低其準確性)和提高其準確性(以可解釋性為代價)之間進行權衡。當人工智能系統對人們的生活產生重大影響時,需要對人工智能系統的決策過程進行適當的解釋,此種解釋應該及時並適應利益相關者的專業知識(例如外行,監管者或研究員)。此外,應該提供關於人工智能系統影響和塑造組織決策過程的程度、系統的設計選擇以及開發合理性的解釋(從而確保商業模型的透明度)。

通訊:人工智能系統不應作為人類和用戶對話;人類有權被告知他們正在與人工智能系統進行互動,這要求人工智能系統是可識別的。此外在為遵守基本權利時應提供中斷人機交互的選擇,以保證人類間互動。此外人工智能系統的功能(包括準確性)和侷限性應以適當方式傳達給人工智能從業者或終端用戶。

5. 多樣性、非歧視性和公平性

為實現可信賴的人工智能,我們必須在整個人工智能系統的生命週期中實現包容性和多樣性。除了在整個流程中考慮所有受影響的利益相關者外,還需要通過包容性設計和平等待遇確保平等訪問,這一要求與公平性原則密切相關。

避免不公平的偏見:人工智能系統(用於訓練和操作)使用的數據集可能會受制於偶然的歷史偏差、不完整和管理不當等問題,這類偏見可能導致對某些群體或個人的意外的直接/間接侵害和歧視【6】,從而加劇偏見和邊緣化。危害還可能源於故意利用(消費者)偏見或通過參與不正當競爭,例如通過串通或不透明市場實現價格同質化【7】,應儘可能在數據收集階段消除可識別的和歧視性偏見。開發人工智能系統的方式(例如算法編程)也可能遭受不公平的偏見,這可以通過建立監督機制來抵消:以清晰透明的方式分析和解決系統的目的、侷限性、需求和決策。此外應鼓勵從不同背景、文化和學科招聘開發人員以保證意見的多樣性。

輔助功能和通用設計:特別是在B2C領域,人工智能系統應以用戶為中心,以允許所有人使用產品或服務為原則設計,無論其年齡,性別,能力或其他特徵,針對殘障人士的輔助功能格外重要。人工智能系統不應採用一刀切的設計,應遵循通用設計原則【8】以最大範圍得適應用戶、符合相關的可訪問性標準【9】。這將使所有人能夠公平地訪問和積極參與現有和將有的計算機介導的人類活動以及輔助技術【10】。

利益相關者參與:為了開發可信賴的人工智能系統,應當諮詢可能在人工智能系統整個生命週期中直接或間接受影響的利益相關者。即使在開發完成後也有必要定期徵求反饋,並建立利益相關者參與的長期機制,例如在組織使用人工智能系統的整個過程中確保工人信息、諮詢和參與。

6. 社會和環境福祉

根據公平性和預防損害原則,在整個人工智能系統的生命週期中,更廣泛的社會、芸芸眾生和環境也應被視為利益相關者。應鼓勵人工智能系統的可持續性和生態責任,並將此研究納入人工智能解決方案以解決全球關注的領域,例如可持續發展目標。理想情況下,人工智能系統應用於使所有人類(包括後代)受益。

可持續和環保的人工智能:人工智能系統承諾幫助解決一些最緊迫的社會難題,但須儘可能以環境友好的方式解決。系統的開發、開發和使用過程,以及整個供應鏈都應該進行這方面的評估,例如:通過對訓練期間資源使用和能源消耗的嚴格審查,選擇危害較小的方式。應鼓勵採取措施確保整個人工智能系統供應鏈的環境友好性。

社會影響:我們在生活的各個方面(教育、工作、健康、娛樂)使用社交人工智能系統【11】,都可能改變我們對社交媒介的理解,或影響我們的社會關係和依附。雖然人工智能系統可用於提高社交技能【12】,但同樣可以使其惡化,這也可能影響人們的身心健康。因此,必須仔細監測和考慮這些影響。

社會與民主:除了評估人工智能系統的開發、開發和使用對個人的影響之外,還應從社會角度評估這種影響,同時考慮其對機構、民主和整個社會的影響。應在與民主進程有關的情況下仔細考慮使用人工智能系統,包括政治決策、選舉背景。

《人工智能道德準則》——可信賴AI的七個關鍵要素

7. 問責制

問責制的要求補充了上述要求,並與公平原則密切相關。需要建立機制以確保人工智能系統及其成果在開發、開發和使用前後的責任和問責。

可審計性:可審計性包含了對算法、數據和設計過程展開評估,但這並不意味著與人工智能系統相關的商業模型和知識產權需要公開。內部和外部審計人員的評估以及此類評估報告有助於驗證技術的可信度。在影響基本權利的應用中,人工智能系統應進行獨立審計,比如與關鍵安全相關的應用。

最小化和報告負面影響:必須確保能夠報告使系統產生特定結果的行為或決定,以及對後續情況作出響應。識別、評估、報告和最小化人工智能系統的潛在負面影響對直接/間接受影響的人非常重要。在報告對基於人工智能的系統的合理擔憂時,必須為舉報人、非政府組織、工會或其他實體提供適當的保護。在人工智能系統的開發、開發和使用之前和期間進行影響評估(例如紅客聯盟或算法影響評估),以最小化負面影響。

權衡:在實施上述要求時出現的緊張關係會導致不可避免的權衡,應該在現有技術水平內以合理和合乎方法論的方式解決此問題。這需要確定人工智能系統所涉及的相關利益和價值觀,如果出現衝突,應明確並權衡取捨其對道德原則(包括基本權利)的風險。在道德上不可接受權衡的情況下,人工智能系統的開發、開發和使用不應以該形式進行。任何關於權衡的決定都應可解釋並被妥善記錄。決策者必須對權衡的方式負責,並應不斷審查最終決策的適當性,以確保能在必要時修改系統【13】。

救濟:當出現不公正的不利影響時,應該預想到以相應機制來確保足夠的救濟措施【14】,知道出現問題時能夠救濟是確保信任的關鍵,同時還應特別注意弱勢群體。

歐盟此次對可信賴人工智能的道德準則規定了如此多項且細節的要素要求,足見其在人工智能領域搶佔話語權的決心和行動力。有媒體評論稱,由於無法在投資和技術上同中美競爭,歐盟選擇通過道德來影響人工智能技術的未來。儘管如此,《道德準則》為人工智能這一技術的目的合乎道德方面提供了可供實施和操作的具象指導標準,對推動人工智能發揮其有利人類發展的價值具有劃時代的意義。

【1】參見《GDPR》第22條。

【2】如歐盟人工智能協調計劃2.7。

【3】有必要在研究和開發中,在理解攻擊、發展適當保護和改進評估方法之間建立良性循環。為實現這一目標,應促進人工智能社區與安全社區之間的融合。此外,所有相關行為者都有責任制定共同的跨境安全和安保準則,並建立相互信任的環境,促進國際合作。

【4】還應考慮不能立即進行人為干預的情況。

【5】涉及將複製人工智能系統開發過程的每個步驟的文件,從研究和初始數據收集到結果。

【6】關於直接和間接歧視的定義,參見2000年11月27日理事會指令2000/78 / EC第2條,其中規定了就業和職業平等待遇的一般框架。另見“歐盟基本權利憲章”第21條。

【7】參見歐盟基本權利機構的論文:“BigData:數據支持決策中的歧視”,2018,http//fra.europa.eu/en/publication/2018/big-data-discrimination。

【8】“公共採購指令”第42條要求技術規範考慮可訪問性和“為所有人設計”。

【9】例如EN 301 549。

【10】這項要求與“聯合國殘疾人權利公約”有關。

【11】這表示人工智能系統通過模擬人機交互(具身AI)中的社交性或虛擬現實中的化身來與人交流和交互。通過這樣做,這些系統有可能改變我們的社會文化習俗和社會生活的結構。

【12】參見歐盟資助的項目,開發基於人工智能的軟件,使機器人能夠在人類主導的治療過程中更有效地與自閉症兒童進行互動,從而幫助提高他們的社交和溝通技能:http://ec.europa.eu/research。

【13】不同的治理模型有助於實現這一目標,例如內部和/或外部道德(和行業特定)專家或委員會可能有助於強調潛在衝突的領域,並提出解決衝突的最優方法。與利益相關者(包括那些有可能受到人工智能系統不利影響的人)磋商和討論很有作用。歐洲大學應該在培訓所需的道德專家方面發揮主導作用。

【14】另見《改善在歐盟一級在工商企業與人權領域獲得補救的機會:歐洲聯盟 基本權利機構的意見》,2017,https://fra.europa.eu/en/opinion/2017/business。

《人工智能道德準則》——可信賴AI的七個關鍵要素


《人工智能道德準則》——可信賴AI的七個關鍵要素



分享到:


相關文章: