劉 哲:中國機器人倫理標準?“去人類中心主義”視角

文 / 劉 哲


劉 哲:中國機器人倫理標準?“去人類中心主義”視角


文匯報:2017年5月我國首次機器人倫理標準研討會在清華大學召開;同年7月,在“WRC2017世界機器人大會標準化專場”中機器人的倫理標準化成為重要議題。2018年由北京大學哲學系領銜著手《中國機器人倫理標準化前瞻(2019)》(以下稱《前瞻》)的編著工作,這意味著哲學等人文學科不僅在理論上探討人工智能等新興科學技術,而且已經切實地、具體地影響其產業發展。作為“中國機器人倫理標準化前瞻委員會”工作組組長和北京大學哲學系副主任,在您看來哲學領銜這項跨學科研究有何意義?

劉 哲:中國機器人倫理標準?“去人類中心主義”視角


劉哲:這是一個很有趣的問題。以哲學領銜這樣的一個研究團隊其實也不難理解。一方面,隨著人工智能和機器人技術的發展,有相當多的倫理問題已不限於人類社會,更拓展到動物、環境等領域,這樣的倫理考量所涉及到的基礎概念、基礎理論會碰到相當多的挑戰,在此意義上,哲學的反思自然地走到了前臺。另一方面,這與中國的文化傳統有關,在中國大家一想到倫理,往往首先把它同哲學聯繫在一起。儘管如此,我們的團隊組成並不僅僅是哲學家,還包括人工智能、計算機、機器人領域的專家。在顧問委員會中,還有很多來自產業界、政府部門的成員,另外還有外籍專家。這確實是一個很獨特的團隊。據統計,到目前為止,包括《前瞻》在內全球涉及人工智能和機器人領域倫理方面的文件共約54份。有些是倫理的導則,有些是倫理的白皮書,有些是倫理的宣言,但我們這一份可能是唯一一個以哲學主導的倫理體系。與其他53份文件相比,這份倫理標準化工作在面對具體的問題和措施的同時,倫理反思更為系統化,由此也會探索一些其他文件不太可能會觸及到的理論問題。我們對於共有的問題也提出了不一樣的理論考量。


文匯報:就您瞭解,目前全國高校的哲學系這樣的跨學科工作發展如何?經過這段時間的合作,您覺得此類工作對文科學者的知識儲備有何要求?


劉哲:在我國高校開設的哲學專業中一直都有科學哲學,或者科技哲學、技術哲學。近年來技術哲學轉向到對前沿科技的關注,這與人工智能包括智能機器人技術的快速發展,以及運用到生產生活過程當中帶來的一些問題有很大關聯。我看到有不同的學者在討論,他們從不同的理論傳統出發,有些關注的比《前瞻》還要更遠一些。當然也不乏一些對此領域質疑的聲音。


對於文科學者來說,跨學科研究不一定要求自己既有的知識背景有多麼豐富,但是至少要求研究者有一顆非常開放的心靈,有理論探索的好奇心,而不是墨守成規。19世紀下半葉開始學科逐步分化並日益專業化,文理科好像是各幹各的活,互不相干。因此,很多人認為跨學科意味著從理工科裡拎出一個學科,從人文社科裡拎出一個學科,兩撥人湊在一起就行了。這種理解是不恰當的。

跨學科的真正的含義在於不同學科的學者通過交談、爭論去看到一些新問題,這些問題可能不屬於歷史上的任何一個學科。真正的跨學科研究恰恰是為了我們未來的新興學科的出現和發展提供最初的問題和探索。


文匯報:歐美國家較早開始人文與新興科技的跨學科建設。例如,2005年“歐洲機器人研究網絡”就開始專門資助研究人員進行機器人倫理學研究;英國西英格蘭大學開設包括人文學科在內的機器人學系,並於2016年研究發表首個機器人倫理標準。就您瞭解,目前我國此類的學科建設對形成中國哲學界和西方哲學界在這些領域內的話語權,是競爭多還是合作多?


劉哲:從跨學科的研究來說,例如人工智能、機器人,包括生物技術、材料、環境科學等在歐美的和日本較早啟動,科技研發走的也非常靠前。從機構的設定來看,在我國,至少在北京大學跨學科研究領域現在與國際的著名的大學基本上是同步的。例如,2018年底北京大學哲學系相繼成立了兩個跨學科研究中心:北京大學哲學與人類未來研究中心以及北京大學博古睿研究中心。


目前在國際上這一領域,學者們更強調合作,這是由於跨學科所面臨的新問題不是針對某一個國家、某一個地區或民族的,而是面向全人類的新型挑戰。近年來,北京大學的這項工作已經跟全球很多相關領域的大學和科研院所合作,比如劍橋大學、耶魯大學、牛津大學、東京大學等。我們期待能夠形成一個新的理性的討論空間,為決策者提供更加堅實的政策制定依據,在技術進一步發展並深入到人類生產生活領域時,我們可以有更好的理論視角去理解和應對風險、挑戰。


文匯報:您之前從事當代德國哲學和法國現象學研究,2018年您擔任第24屆世界哲學大會中國組委會執行秘書長,與此同時,您開始主持“國家機器人倫理標準化白皮書項目”,是什麼機緣使您對哲學與科技(特別是機器人的倫理)的跨學科研究產生興趣?跨學科研究是一項挑戰,在與國家機器人總體組合作開展這項工作中,您是否遇到過什麼難題?


劉哲:我對於前沿科技一直都比較感興趣,以往圍繞著生物技術已經做了相當多的閱讀準備。此外,我自己長期以來的主要研究論域是自我意識和主體性理論,智能設備事實上可以看做具有一定程度自主性(autonomy)的智能體(agent)。因此,從事機器人倫理研究對我來說是一個拓展而不是另起爐灶。但畢竟一開始,這個領域對我和項目組的成員都是初步接觸,所以我們需要大量閱讀不同語言的國際文獻,並且需要去深入瞭解其他國際和機構已經提出的人工智能和機器人倫理體系,在此基礎上尋求國際共識。這是一項複雜的工作,加之2018年北京大學承辦第24屆世界哲學大會,我和項目組的許多成員都為大會組織工作忙得不可開交。但令我印象深刻和感動的是,大家在高速的工作中仍擠出時間投入到機器人倫理標準白皮書這一研究項目中,2018年的春節我們完全沒有休息。大家都認為這項研究十分重要且有意義。


文匯報:

2019年11月底,《前瞻》由北京大學出版社出版,該書提供了一整套中國機器人的倫理標準——“中國優化共生設計方案”(COSDP)。與前些年BSI、IEEE以及歐盟委員會三大機構公佈的機器人相關倫理文件相比較,我國的這套方案有哪些共通之處,又有哪些不同?我國的這套機器人倫理標準對於推動世界機器人業發展具有什麼意義?


劉哲:在機器人倫理的研究中,中國與世界面對的問題是共同的,因此機器人倫理標準化體系是面對全人類的,這就需要加深各國不同倫理標準間的相互理解,尋求可理性辯護的國際共識。就我國的獨特性來說,但凡有漫長的是文化傳統的這樣的國家和地區,不僅僅是中國,都會遭遇傳統的倫理價值和現代世界的倫理價值之間的緊張關係。那麼就需要一套具有相當整合力的倫理模型,去緩解或者說甚至整合傳統倫理和現代倫理之間的緊張。


“中國優化共生設計方案”背後的一個非常重要的視角是“去人類中心主義”,而今天在歐美國家普遍是“人類中心主義”立場的人工智能研究。我們目前還沒看見任何研究機構對自己所謂的“人類中心”路徑含義進行準確澄清。然而

,在倫理考量中,人類中心主義意味著倫理價值評判的對象範圍僅限於人的權利和人的利益,而“去人類中心主義”需要考慮人與人和人與自然的整體性關係,以及當把人工智能製品包括智能機器人制品納入到整體關係當中時它自己所應該承載的價值屬性。在此意義上,“中國優化共生設計方案”提供了一個非常獨特的視角,這個視角涉及如何面對我們今天以及未來可以預見的10-15年人工智能和機器人領域的技術發展可能帶來的挑戰。


文匯報:據悉,中國國家機器人標準化總體組2019年年會已在該年12月底召開,這次會議中,在推動機器人倫理標準體系的完善和實施方面接下來國家機器人標準化總體組有什麼計劃?


劉哲:中國國家機器人標準化總體組年會是圍繞著機器人產學研整體工作展開的,在標準化工作裡倫理標準是一個比較新的領域。目前對於國家標準化管理委員會,包括國家機器人標準化總體組來說,機器人倫理標準如何具體實施還是個問號。理論模型和法律法規的制定、政策制定之間如何形成有效的互動關係,這些還並不明確。此外,除智能機器人以外,對於傳統機器人的倫理規範還需要繼續補充。


這次大會當中總體組組長在做科研和產業方面的分析的時提到,新興的機器人和人的協作變得更加密切了,更融入到人的生活當中,而不是隻是停留在傳統工業機器人的範圍當中。一方面技術的發展非常的快,但是另外一方面治理的理念,以及背後的哲學反思其實是遠遠跟不上科技變革的。我們不難看出,在推進我國人工智能以及機器人倫理標準的制定、完善和實施方面還有很多工作要做。


文匯報:目前,伴隨著人工智能技術的快速進步,機器人的應用已經深入了社會生活,在工業、醫療、家庭服務以及軍事等領域都發揮了重要作用。與此同時,機器人的應用也引發了人們新的擔憂,例如機器人代替人工而引發的失業問題。在您看來,當下機器人開發和應用存在哪些倫理風險?


劉哲:每一個不同類型的機器人的倫理風險有不同的體現。我認為目前真正的倫理風險並不在於公眾所直接看到的。例如,工業機器人,它的確會使得傳統的一些分配給人的任務消失了。但是任務消失並不等同於崗位消失了,一個崗位可以區分出很多不同的任務,

人應當去從事最能夠展示人自身獨特價值的任務。在我看來,真正的倫理風險在於人們思考這些問題背後的倫理視角,如果還是以人類中心主義的視角看待機器人倫理,我覺得這可能就是最大的風險。


文匯報:有觀點認為機器人業的技術進步在很大程度上是由市場和經濟效益驅動的,“給機器人設定倫理標準對於機器人的技術創新是一種阻礙”,您如何看待這種觀點?


劉哲:人們之所以會認為機器人產業是由市場推動的,是因為二戰以來市場經濟的發展帶來了一個趨勢:國家發展要滿足每一個個體需求。但,如果我們僅僅將科技創新視為任由市場、由人的物質利益驅動,這將會帶來風險和災難。當下,新型科技例如納米材料、生物技術、人工智能和機器人技術等,展現出自身發展的變革性特徵,它們具有轉型性(Transformative)、湧現性(Emerging)以及顛覆性(Disruptive)特徵。因此,我認為以“用戶中心”模式來推動新型科技創新的發展思路是欠考量的。


在過去這幾十年技術哲學的發展當中,人們越來越多地形成共識——所有的人工製品都體現著設計者和製造者的價值偏好,因此,技術產品並非人們通常認為得那樣價值中立的。市場經濟推動的單一發展模式勢必造成技術創新與倫理價值約束之間的衝撞。為機器人設定倫理標準就是在引導人工智能和機器人科技在研發和設計之初就更好的展示人與其他物種以及環境的整體性價值,這對於技術創新不是阻礙而是促進。


文匯報:一些學者提出,當前人類文明已經進入了技術文明時代,自然人正在經歷技術化的過程,甚至技術已經不受人控制了。例如,弗朗西斯·福山在《我們的後人類未來》一書中指出生物技術將改變人性。在您看來,如何理解人類倫理和機器人倫理的關係?未來人類社會的倫理秩序是否會被包括機器人在內的人工智能的倫理秩序所影響和改變?


劉哲:當我們把人和機器人納入到整體性的目標機制價值當中,也就是當考慮人機倫理關係時要從“人機關係”整體出發,而不是從割裂的、獨立的人的價值屬性和機器人的價值屬性出發,這類問題就很可能不會出現。設計者在籌建機器人倫理時的價值考量從一開始就建立在特定的人機關係塑造基礎上,這樣的倫理關係就是一種共生系統。


另外,類似的想象有可能是來自於科幻電影。當下公眾和很多關心技術哲學領域的學者容易從科幻電影裡面去思考人工智能和機器人帶來的各種各樣的倫理風險和挑戰。我想提醒這樣做的風險是非常大的,這往往會令我們對於迫在眉睫的人工智能和機器人技術引發的倫理風險和後果視而不見。而且科幻電影背後的傳媒敘事邏輯也可能會極大地縮窄我們對於新型技術倫理風險考慮的多元視角。我們還是需要更加準確和深入地面對今天人工智能和機器人技術的發展現狀,以及在可預見未來的科技發展前景,這才是一個真正可靠的倫理理論思考的前提和依據。


原載《文匯報》,作者:劉夢溪 李念。


分享到:


相關文章: