吳漢東:人工智慧時代必須關注的社會風險及四大問題

吳漢東:人工智能時代必須關注的社會風險及四大問題

吳漢東

中南財經政法大學資深教授

國新南方知識產權研究院首席專家

人工智能技術與未來產業形態

20世紀80年代至今的知識革命,其核心是基因技術、網絡技術和人工智能技術。本世紀,網絡技術深入發展,不僅使信息以不同於以往的方式,更加方便、迅速地傳播,而且催生了很多新的商業形態。我們所熟悉的網絡文學、網絡視頻、網絡音樂、網絡遊戲以及社交平臺,極大地改變了我們的生產、生活和社會交往方式。

2016年被稱為人工智能技術爆發的元年,這一年有兩個大事件:一是距離麥卡錫、明斯基、香農等人提出“人工智能”概念正好過去60年,二是Alpha Go戰勝人類圍棋頂尖高手。人工智能橫跨四大核心技術——機器學習、自然語言處理、圖象識別和人機交互,涵蓋13個細分領域,用人類的智慧給機器裝上聰明的大腦,擁有靈敏的視覺、聽覺和觸覺,可以像人一樣的記憶、認知、識別和選擇,人機之間的交往勝於人與人之間的交往,充滿著有效性和精細化。

從智能機器人、智慧家居到無人駕駛、無人工廠,人工智能技術被廣泛應用到社會生活和生產的各個領域,改變甚至顛覆了我們已有的認知,對未來的農業、製造業、律師業、新聞業、交通業、醫療業及體育業等產業形態帶來極大的影響。

人工智能是人類社會最偉大的發明,同時也可能存在潛在的風險。霍金表示,人工智能或許不但是人類歷史上最大的事件,而且還有可能是最後的事件。作為法律工作者,我們不僅要為新技術感到歡欣鼓舞,擁抱一個新時代,更應該在熱點背後進行冷思考。

人工智能時代的社會風險

在人工智能時代,法律如何保護人的生命與健康、尊嚴與隱私、自由與安全?這是值得重視的問題。高技術時代也是一個高風險時代,未來社會的潛在風險有三個特徵:

一是風險的共生性。人工智能時代的風險是一種內在的風險,與海嘯、地震、火山爆發、洪水等自然災害不同,這種風險是存在於人類社會之中的。它可以是人類正在研發的技術所產生的風險,也可能是關於這個技術的制度所帶來的風險,這兩種風險共生於人類社會。在我們的身邊已經出現了工業機器人、掃地機器人、聊天機器人、伴侶機器人等等;科技專家還向我們展示了“殺手機器人”,這種機器人安裝了微形廣角攝像鏡頭,配備有高靈敏度的傳感器和高容量的炸藥,可以準確地瞄準目標,成功地實施殺害攻擊。對此,不僅不能授予專利,還要嚴格禁止。

二是風險的時代性。人工智能時代的風險不僅是現實存在的風險,也是未來潛在的風險,它貫穿於知識革命的整個歷史階段。以色列歷史學家尤瓦爾,《人類簡史》和《未來簡史》的作者,描述了人工智能三個不同的階段——弱人工智能、強人工智能和超人工智能。超人工智能階段將在本世紀的40-60年代出現,整個社會裂變為兩大階層,大部分人歸屬於“無用階層”,對社會沒有任何貢獻可言,依賴智能機器人而活著。只有極少一部分人是社會的精英階層,有著超強的計算能力,通過基因技術和人工智能技術的結合,準確測試人體基因圖譜,延續生命,保持永生。當然,這也許是一個科幻預言。但是,我們不得不警惕這種裂變對人類社會的正常發展所帶來的潛在危害。

三是風險的全球性。知識革命與以往的工業革命是不同的,工業革命起始於英國,再逐漸影響到北美、東亞,這個過程是緩慢、持續的。而在今天的互聯網時代,風險是全球性的,沒有地理邊界,也沒有社會文化的界限。因此,全球應該共同行動,既要發展人工智能技術,也要警惕它潛在的危害。

吳漢東:人工智能時代必須關注的社會風險及四大問題

會議現場圖

人工智能時代的四大問題

第一個是法律問題,包括主體責任問題、隱私保護問題、責任承擔問題等。

首先,主體責任問題。《民法總則》有兩項基本制度:主體制度——人;客體制度——物。在已有的法律認知中,主體和客體有不可逾越的界限。現在需要回答的問題是,機器人是機器還是人?機器人不是自然人本身,但由自然人創造和設計,它能不能成為民事主體?現實已經作出了回答。2016年歐盟議會法律事務委員會(JURI)向歐盟委員會提出立法建議,主張賦予高水平的智能機器人電子人的主體資格,進行身份登記,設立財產帳號,繳費,納稅,領取養老金,與自然人具有同等的主體地位。今年,沙特阿拉伯授予美國漢森機器人公司生產的機器人索菲亞以公民資格。它有沒有政治權利、社會權利和民事權利?這是現有理論難以回答的問題。但是,賦予智能機器人以某種民事主體資格在未來有可能成為現實。

其次,隱私保護問題。未來時代是三者疊加:移動互聯網+大數據+機器智能,人類社會將進入一個透明的、沒有隱私的時代。普通人的生命與健康、財產與身份、行蹤軌跡等,除國家公務人員按照特別法規定應給予必要的公示之外,任何人都要把它看作是個人隱私,應該受到法律保護。在傳統社會,個人隱私被洩露是個體性的。但是,在今天、明天就是集體的、甚至是整個社會的隱私洩露。我們的一舉一動在大數據面前都會一覽無遺。人類怎麼保護自己的隱私?科技公司,如谷歌、蘋果、臉書、阿里巴巴、騰訊、百度等,擁有很多用戶信息,這些信息是否是依法收集和處理的,我們作為信息的提供者是不是無動於衷?這都是需要考慮的問題。

再次,責任承擔問題。人工智能時代有兩種侵權行為值得關注,一是侵權人對智能系統進行非法控制而造成的損害,二是智能系統自身的產品瑕疵而造成的損害。侵權人採取黑客攻擊、病毒傳輸和其他的非法手段控制機器人,對人類社會造成危害,侵權責任由侵權人承擔,這個不難理解。問題在於人工智能直接給人造成損害的責任承擔,這是值得考量的問題。日本曾經發生過工業機器人在生產過程中將工人放入衝壓機之下碾死的慘痛事例。本世紀在美國,手術機器人在治療病人的過程中造成創傷、死亡病例高達87例。在這種情況下,需要分清責任事故從何而起,是設計人的“技術漏洞”,還是操作人的“不當使用”,甚至可能是智能機器人超越原控制方案的“擅自所為”,此類事故的原因和事故責任的追究都是值得考慮的新問題。

第二個是倫理問題。

倫理問題的重要程度不亞於法律問題。著名科幻作家阿西莫夫提出了機器人的四定律,其中最重要是第零定律,即機器人必須保護人類的整體利益不受傷害,其它三條定律都是在這一前提下才能成立。機器人定律對目前處理人工智能有關問題具有指導意義。倫理問題包括諸多方面:

算法偏差和機器歧視問題。機器的工作速度、工作精度、工作態度都高於自然人。但是,機器也會出錯,包括機器算法偏差和歧視問題。比如谷歌推出的機器人誤把兩名黑人標註為“大猩猩”,微軟公司推出的聊天機器人,在發佈24小時內,就成為一個集反猶太人、性別歧視、種族歧視於一身的“不良少女”。這就是一個倫理的問題。如何為機器人設置最低的道德標準和道德框架,是非常重要的問題。

虛擬環境“麻醉”問題。在未來的人工智能時代,我們將會被無窮盡的電子信息所包圍,人與人之間的交往有可能被人機之間的交往所取代。人工智能的模擬行為在很大程度上會取代人的自主行為,這就出現了虛擬環境的“麻醉”問題,從生活、起居、出行到辦公,所有的事情都由機器人協助處理,人類是否會日漸沉迷於人工智能及其營造的虛擬環境?人類生存和發展的本來意義何在?

人機情感危機問題。我們所講的社會指人類共同體所組成的社會,是人與人之間正常交往的社會。但是,未來的機器人會帶來人機的情感危機。現在我們不僅發明了代替體力勞動的工業機器人,還發明瞭代替腦力勞動的機器人,甚至還可以發明代替人類情感的伴侶機器人、性愛機器人。這無疑會給人類社會的正常發展和生活情趣帶來極大的挑戰。

第三個是社會問題,即人機替換問題。

未來,人類60%的職業、30%的工作將被人工智能取代。根據牛津大學的統計,未來人工智能的發展會取代1000萬個工作崗位,秘書、客服、助理、翻譯、律師、醫生、會計,乃至於證券所的交易員、信貸員的工作都可能被取代。一般來說,被取代的工作和崗位具備如下特徵:凡是可以描述的、重要的、有固定規則和標準答案的工作崗位,都有被智能機器人取代的可能。

人機替換帶來諸多社會問題。被人工智能所取代的藍領和白領到哪兒去?是不是被拋棄到無用階層之中?他們不能領取勞動報酬,而是領取社會保障金以維持自己的生活。對此,比爾·蓋茨提出應該徵收機器人稅。另一問題是,社會出現大量的機器人,包括機器人工人和機器人白領,它們有沒有權益?如果有權益如何保護和維繫?

此外,人工智能領先的國家與人工智能滯後的國家之間的差距和鴻溝如何進行填補?新的不平衡又出現了,如何加以解決?這都是未來時代要考量的問題。

第四個是監管問題。

十八大、十九大針對社會治理提出“良法善治”和“多元共治”。就人工智能導致的問題而言,如何進行監管?我認為“多元共治”是非常重要的,主要是政府的監管,也包括行業自治和企業自律。目前的監管難題包括兩個方面:

首先,監管領域的空白。比如在無人駕駛領域,政府監管的法律規則還是空白的。無人駕駛的准入政策、安全標準、配套設施都需要從法律層面加以規制。美國從聯邦政府到州政府都出臺了相應的文件。對於當前最火爆的人工智能的若干領域,國家應該進行研究並在必要的時候出臺相應的政策文件,包括法律文件。

其次,監管技術的不能。人工智能對監管的技術要求更高。機器人講粗口、說髒話、性別歧視和種族歧視,這個過程是如何進行的,為什麼會出現計算偏差的問題?需要了解整個人工智能發生作用的全過程,所以監管技術的研究也必須及時跟進。

人工智能時代的法律、政策與倫理

人工智能時代,應確立以安全為核心的多元價值目標,構建以倫理為先導的社會規範調控體系,以技術和法律為主導的風險控制機制。一方面,法律控制是風險治理機制的重要手段。另一方面,技術控制是風險治理機制的重要措施。風險規避的主要路徑,是事先預防而不是事後補救,即從技術研究開始規制,以預防技術產生的負面效應或副作用。風險規避的基本範式,是從技術研發到應用過程的責任制度,包括社會道義責任、科學倫理責任和法律責任。風險規避的重要措施,是奉行技術民主原則,包括技術信息適度公開和公眾參與、公眾決策。

結語

人工智能時代已經到來,我們不僅需要一種科學的智慧,同時也需要制度的理性。

本文根據中南財經政法大學吳漢東教授在“2017人工智能與法律的未來高峰論壇”上的主題演講整理


分享到:


相關文章: