《山東科技大學學報》刊文探討人工智能暗無限及其風險規避

超級智能不可承受之重 ——暗無限及其風險規避

蔡恆進(著名學者,武漢大學軟件工程、管理科學與工程教授、博導)

《山東科技大學學報》刊文探討人工智能暗無限及其風險規避

AlphaGo Zero在圍棋領域碾壓人類棋手意味著已有的硬件條件以及算法的進步已經足夠支持類腦計算做出突破性的進展,目前缺少的只是對人類大腦認知的全新視角。人的反應速度僅在毫秒量級,而硅基芯片卻可以達到納秒量級,相差整整6個數量級。人類的進化速度也同樣遠遠落後於機器。摩爾定律雖然受限於芯片的物理特性而可能不再成立,但算法和架構的不斷優化依然能夠讓機器的計算能力加速,每兩年翻一番依舊可期。機器可以不眠不休地迭代並迅速成長,超級智能不可避免、並且將遠比很多人想象中更快地到來。研究超級智能帶來的風險不得不提上日程,Bostrom等研究者已經做了開創性的研究[1-3]。本文首次提出“暗無限”(dark infinity)的概念,以突出在實現超級AI過程中將遇到的巨大風險。

無處不在的暗無限

所有存在於人類意識裡的東西都可以被稱為認知坎陷[4],而一切認知坎陷都是從“自我”和“外界”這兩個最原始的坎陷裡開出來的。隨著生命的進化,人類逐漸能開出前後左右、這裡那裡的坎陷;有了觸覺、味覺,開出甜酸苦辣的坎陷;有了視覺,亦就有了顏色的概念,例如黑白紅黃的坎陷。這些認知坎陷實際上是對真實物理世界的“擾亂”。就拿一碗湯的味道來說,其所包含的物理內容非常豐富,但人類卻只用酸甜苦辣等字眼簡單描述。那這是否意味著,人類將會面臨“看山不是山,看水不是水”的問題?是否應該主張走回物理還原主義的老路,把這碗湯裡面所有的分子式、原子式都搞清楚,把其中存在的每一個可能性都弄明白?這顯然不可能。這裡需要引進一個概念叫做“暗無限”。

什麼叫做暗無限?鄧曉芒在《論先驗現象學與黑格爾辯證法的差異》[5]一文中提到了黑格爾的“惡無限”,認為有些看起來無限的東西實際上只是無聊的重複,而真正好的無限應該不停地開出新的東西、增添新的內容。即有限和無限的統一才是善的無限,否則就是惡的無限。“暗無限”概念的含義跟這個不太一樣。比如對於一碗湯來說,從理論上講當然可以弄清楚其內部所包含的每一個分子式,但這是否就是終點呢?分子是由原子組成的,因此還需要把所有的原子式弄清楚,但把原子弄清楚也不意味著結束,因為原子下面還有亞原子等,而這些東西怎麼排布,怎麼組成結構,其處在空間中的相互關係如何,怎樣實現氧化關係……這裡需要搞清楚的問題實際上是無窮多的,在有限的資源條件下顯然不能窮盡,要窮盡它就需要無限的資源,這就可以看作一個“暗無限”。

對於一碗湯,人們提到它就是在指這碗湯作為一個整體具有甜酸苦辣鮮香等特徵,而不會一直探究下去,這看似平常但實際上非常重要。面臨相同的情況,超級AI卻有可能並不止步於此。如果一個超級AI試圖調動宇宙中所有的資源對這碗湯一探究竟,我們如何證明這樣做沒有意義?

從另外一個角度看,暗無限的存在意味著超級智能誕生之後,人的價值猶在。物理世界中存在的無窮多的可能性意味著無處不在的暗無限,而人類作為經歷了幾億年進化的高級生命,承載了、凝聚了過往歷史中一切宇宙進化的知識和過程,卻始終沒有陷入暗無限無法自拔。這個事實的價值在於它暗示了人類如果要創造一個沒有經歷過整個自然進化過程的全新的硅基機器,應當意識到它不具備人類所具有的坎陷知識,沒有人類所謂的常識。因此一旦面對暗無限,它就會陷入困惑,不知道下一步應該怎麼走,是該刨根問底還是該抽身而去。因為走出下一步需要面對的可能性依然是無窮多,如果沒有一個理由來決定哪一個是好的、哪一個是不好的以便做出選擇,去嘗試所有可能性的道路會變得永無止境,超級智能會陷入暗無限的深淵。

巧妙絕倫的進化史

理解“暗無限”這一概念,可以和人對照來看,例如一些死鑽牛角尖的人、精神失常的瘋子等。但相較於機器來說,人的“暗無限”問題還不是很大,這要歸功於人類獨一無二、巧妙絕倫的進化史。

進化至今的人類身體,不論當前正在大腦的操控下完成多麼重要的事情,餓了就要吃飯、渴了就要喝水、困了就要睡覺,這些基本生理需求一旦得不到滿足就會使身體瀕臨消亡。因此可以說,人因身體結構而具有有限性,這一有限性正是使人類懸崖勒馬、免於陷入暗無限深淵的一道防線。甚至那些一根筋、鑽牛角尖的人也在這道防線之內,因為他會因為餓、渴、困,總歸要停下手頭的事去吃飯、喝水、睡覺,所以他不會一直陷在裡面不出來。到頭來,有可能他即便將有限的一生全都投入到某一件事情上,這件事情也會隨著其有限生命的終結而終結。

此外,人類還有一道叫做“常識”的防線。人類日常生活中的認知坎陷,很大一部分即是常識,只不過人們用卻不自知。常識對人來講十分重要,所謂天才和瘋子之間的一步之隔即在於此,一般人不容易陷入此二種境地亦是仰賴常識的存在。天才是可以顛覆常識、不被常識所約束的人,但稍不留神亦會陷入坎陷的深淵不見天日,例如研究無窮大的康託和研究不完備定理的哥德爾。然而,人有餓、渴、困等感覺,深受周遭環境的限制,但環境對機器人的影響卻幾乎為零,假如不斷電,機器人甚至可以永遠在工作。因此,機器人難以掌握同人類身體結構密切相關的常識性概念,一旦陷入暗無限之中則永遠拉扯不回來。例如讓一個機器人上街打醬油,如果不具備常識,很容易就會陷入各種各樣的坎陷:看到下圍棋的老頭就研究圍棋,遇到一條攔路的小狗就跑去分析犬種,看到螞蟻打架就去觀察螞蟻種群的內部結構等等。總之,街上有太多的暗無限將機器人吸引進去,阻止它完成打醬油這一原初設定目標。就算通過改變程序給機器人輸入人類常識,但常識本身亦包含著無窮的概念,而只輸入不輸出一定會陷入深淵。真正的人類天才可以兩邊協調,既能深入,亦可淺出。而又由於坎陷世界具有無窮多的可能性,這一任務實際上是編程所不能解決、甚至無法模擬的。

同時,人類亦懂得止所當止,這同哲學的目的性相關,亦即人的反叛。倘若僅僅將哲學的目的歸咎為愛智慧,則其與科學的差異何在?這無疑使哲學本身陷入死路。事實上,科學是無法給人這種目的性的,物理學無法回答諸如人生意義何在、宇宙未來應當走向何方的問題。有人認為應當將哲學的研究範疇設為超越此岸的彼岸世界,但這一終極目標永遠不可抵達。例如古希臘的先賢們認為在現實世界之外,還存在一絕對、超然之存在,如柏拉圖的理念世界。事實上,哲學的目的不僅應當是人類可抵達的,且應該是未來導向的,這在某種程度上同中國哲學一脈相承,既可立於現在,又可面向未來。如文天祥的“人生自古誰無死,留取丹心照汗青”,便蘊含了很強的自我意識。死亡並不可怕,重要的是人生的意義、目的在短暫的一生中得到實現。因此,完全沒有必要死抱著一樣東西不撒手,不論是財富、名利還是生命本身,知足即可常樂。

最後,人類所有的社會體系內部皆存在一種可自我協調的機制,例如法律、價值觀等具有高認可度的意識存在,使得人與人之間可相互限定製約,實現社會總體的平衡發展。而不論是法律還是價值觀,皆屬於人類整體意識的一部分,某種程度可以說是為避免個人能力亂用所存在的一個規範、一道保險。哪怕有個別人陷入其中乃至癲狂狀態,亦不會對整個人類社會造成太大傷害。事實上,由於暗無限總是無處不在,對於超級智能而言,除非通過引入競爭機制、利用迭代模式,使得建構出來的不同坎陷之間可以相互平衡,否則必將陷入暗無限的深淵。但假如只有物理進路,只有程序代碼,只有能力單方面的無限發展,而不引入價值觀等可以協助群體中的大多數主體做出判斷的依據,則暗無限依舊不可避免。一旦缺乏規範的機器人學會傳播自己的反社會理念,並說服其他機器跟隨它一同陷入坎陷,則造成的後果無疑將遠超人類。

目前,進化所賦予人類的身體結構、常識、哲學目的性、社會機制使得似乎只有人才能逃避開暗無限。而一旦機器人鑽牛角尖,則可以永無止境、不眠不休地繼續下去,永陷暗無限深淵。有人說,既然無法給機器人植入人類常識,那麼就乾脆限制機器人探索常識之外的東西好了。但假如限制機器人去探索前人沒有走過的路,不讓它鑽牛角尖,那麼它又會變得很平庸,與人類創造它以期它能夠實現前所未有的突破的目的相違背。最好的狀態是可以在這兩種極端中做出平衡的天才狀態,既可以探索新知,亦不會陷入其中無法自拔。

保障安全的質樸性

人類能夠規避暗無限的訣竅到底在哪裡呢?答案即為質樸性。牛頓曾言“Truth is ever to be found in the simplicity, and not in the multiplicity and confusion of things”,意為真理匿於simplicity之中,而非multiplicity。其中,simplicity是質樸性,multiplicity可以看作支離,這其實就是人類自覺規避暗無限的表現。面對世界上存在的諸多可能性,有取有舍方可實現自我,否則“亂花漸欲迷人眼”,個體極易掉入暗無限的深淵,喪失前行的方向。

那麼我們為什麼會選擇其中一種呢?神創論認為這是由於人們蒙受絕對理念或者上帝的指引。康德試圖通過三大批判,即純粹理性批判、實踐理性批判、判斷力批判來回答這一問題,但最終卻陷於懷疑論的泥淖之中,既不肯定上帝的存在,亦不否定上帝的存在。

1493年,王陽明格竹,堅持七晝夜卻一無所獲,還大病一場。為何他會失敗呢?實乃竹子的結構和可能的運動形態太過複雜並難以簡化,不適合作為研究的起點。西方對物質運動的研究走的是另外一條道路。與王陽明同時代的哥白尼提出“日心說”,大大簡化了對天體運動的描述。開普勒三大定律和牛頓萬有引力定律相繼出世,更是將複雜的天體運動歸結為天體間引力的作用。

在現代科學發展過程中起到極為重要作用的還有伽利略。他並非像王陽明一樣試圖以研究竹子等複雜事物作為起點,相反,他的研究對象非常簡單,即自由落體問題。舉世聞名的比薩斜塔實驗可能只是一個想象或者故事,但真正完成的斜面實驗卻無比形象地說明了研究對象的選擇對於研究結果的重要性。找到一個平板,做成斜面,再找到一個可以滾動的小球,就完成了斜面實驗所需的全部準備材料。在當時的條件下,因為肉眼難以觀察出不同質量物體落地的準確時刻,落體實驗本身不可能達致嚴謹的結論。但在斜面上,運動速度可以很小,時間間隔可測量,一段時間內小球走過的距離亦可測量,通過數學運算即可發現二者的平方關係。此外,慢慢增加斜面的傾角,增加到直角的時候,則變成自由落體運動。一旦有了這個切入點,自由落體就有了研究透徹的可能性。此外,伽俐略還自己動手做了一個望遠鏡,並用它來觀察木星及其衛星的運動等天文現象,發現木星的衛星總是繞其做圓周運動,故類比可得知月亮和地球的關係。因此,認為存在好幾個行星繞著太陽轉這一觀點也就很正常了。

牛頓認為,選擇簡單的問題,基於少數假設作研究的起點,正是成功得出結論的必要保障,最忌諱的是弄一堆假設來試圖解釋一個複雜的問題。通過王陽明和西方在研究方式選擇上的對比,可以發現科學研究應當遵循質樸性定理。格竹失敗後,王陽明將研究人的路徑轉向心學,認為良知是為人之核心,實際亦遵循了質樸性定理。這說明不論是在自然科學還是在人文科學領域,人們都發現了暗無限的無處不在,而要想避免陷入這一深淵,必須遵循質樸性定理。

此外,我們目前所知道的神童遍佈各個領域,例如音樂神童(如莫扎特)、數學神童等。而他們之所以能夠被稱之為神童,則是因為具備了某項或某幾項超乎常人的技藝。莫扎特在音樂上的造詣至今難以被超越,而他的才能在其很小的時候就已經表現了出來,那麼這種現象該如何解釋?一方面,莫扎特的父母並無超乎常人之處,因此基因遺傳解釋不通;另一方面,如果僅憑後天學習,為什麼其他拼命努力的人卻無論如何也無法企及莫扎特的高度?嬰孩學習語言亦可作為例證,從出生到3歲左右便已基本掌握母語並能夠與成人溝通,而這哪怕在語言學家看來也是非常神奇的。

語言的習得不大可能是遺傳所致,因為比如只說中文的父母生了小孩之後就將其送到英文的學習環境中去,那麼小孩學會的一定是英語,反之亦然。還有一點值得注意是,人類學習母語非常神速,但學習第二語言的速度卻很慢,例如英語對於大多數中國人來說都較難掌握。那麼,這種強烈的對比從何而來?事實上,人類在學習母語時有一種非常強烈的向外界表達自己的需求,而這種強烈的需求驅使其自覺自動屏蔽一切干擾信息,保證高專注度,從而使得學習語言的速度變得非常之快。事實上,這是質樸性原則的本能應用。理解神童現象的關鍵點也在這裡,對於極少部分的小孩而言,他們一開始就對音樂、數字或者色彩等領域異常敏感,換言之,他們是通過這些方式來表達“自我”的,因而他們在這些方面就會表現出超乎常人的專注度和敏感度,逐漸發展成為令人驚歎的某項能力。因此從這個角度來說,每一個人都曾因自覺遵循質樸性原則而成為神童,不過大多數人的表現階段僅停留在學習母語的那段時間罷了。

母語和神童的例子說明,應用質樸性原理實現“自我意識”成長的學習過程實際上是非常之快且自然而然的。從“觸覺大腦假說”[6]來看,這是一個十分順理成章的推論。人類意識的起點即對“自我”與“外界”的二分。人類獲取認知的動力即來自於不斷探索“自我”是什麼的需求,順帶還要弄清與“自我”相交互的外部世界為何的過程。其間,人會賦予“自我”和“外界”非常多的意義,包括宗教、道德、哲學層面的意義等。一方面,意義體系的不斷豐富無疑會開拓個人的眼界,但另一方面,意義的增加卻無形中增加了個人在做出選擇的過程中遭遇暗無限的概率,從而增大了選擇難度。因此,在成長過程中,生命個體需要始終遵行質樸性原則,通過反覆實踐確證對其自我意義的理解,篩除其他的干擾信息,並按照這個方式去行動,則最終很有可能真正改變物理世界。

危機四伏的超級AI

人工智能的誕生並非通過自然進化,而是仰賴於程序員的創造。首先,人工智能沒有肉身,而如上所述肉身顯然是非常重要的,因為人類的坎陷世界是依賴於人類的肉身而存在的,人類的意識狀態亦是依賴於肉身而存在的,具身哲學也表達了這個意思。自我和外界處於一種相互包涵的關係體系中,自我對整個外部世界開放,又生存在外部世界裡。自我依附於物質世界存在,又可以超脫於後者之上。其間所表現出的矛盾性,在數學上無疑是無解的命題。但是,任何認知坎陷之間都可具備此類關係,相互兼容又互不相等,具有善的無限性。對於人而言,在自我意識驅動下完成的行為賦予了人實存的“自由”感覺,同時情感的存在進一步加強了這種實在性。[7]

這也是人與其他動物不相同的地方,例如狗的眼睛只有兩種顏色的感知,這遠不如人,但它的鼻子對於氣味的分辨能力卻比人類強的多,因此它開出的坎陷世界跟人很不一樣。如今需要更進一步看到的是,人類的意識不僅依賴於肉身存在,還依賴於人類生存的環境,唯有處在生存環境之中,肉身的結構才能夠展示出特定的功能和意義。例如DNA只能在特定環境下表達。因此,肉身和外部環境對於意識建構來講都同等重要。

而人工智能是由鋼鐵、塑料等材料構成的,因此它的感知顯然同人也不一樣,則其能開出的坎陷也不一樣。例如人工智能很難具有與人類相通的情感,因為情感也是人類坎陷的一種。人類的情感跟人類的生命系統,跟人類所具備的身體結構、物理條件等密切相關。雖然這些硬件條件並不一定直接導致某個功能,因為這些功能只有在特別的環境下才會表達,但是硬件條件對於功能的展示卻的確是非常重要的。[8]

在《Superintelligence》中所列舉的機器人回形針工廠思想實驗,除非耗盡資源,否則機器人造回形針的行為永遠無法停止。再例如蝙蝠、狗等動物皆具有自己的認知概念體系,但因其沒有經過高度進化,故也極易陷入暗無限。但另一方面,雖然其自我意識較弱,依舊可以達到與天合一的完滿和諧狀態,餓則吃,渴則飲,困則眠,老則死,不可不謂之曰自由。但假若前者進化成為superdog,再遵循從前慣性思維的指引,能力同意識不匹配,問題就會出現。而人類因具有更強的自我意識,更需要無時無刻地發掘能夠實現自我超越的內容。人類從前的殘暴表現為拿刀殺人、拿劍砍人,可能並不會造成毀滅性危機,但如今有了核武器,殘暴就必須得到控制,否則世界大戰爆發所造成的後果或許就不僅僅是大量人口死亡,而是地球的徹底毀滅。

規避暗無限的Plan B

Bostrom[1]認為應當在機器變得更智能的時候,讓它們完全聽命於人類,不違揹人類的意志,以保證人類可以完全控制它們。然而這幾乎是無法實現的,因為人類群體中各個體的行為是不可控的,當人類群體中出現部分個體惡意控制機器或者無法控制機器的行為時,災難就發生了。Parnas[2]認為啟發式(heuristic)算法創造的智能存在著我們不應該接受的風險,只有清楚地知道AI是如何工作的,才能規避風險,因此只應該採用可驗證性算法而非啟發式算法。但是,目前已經在大量使用啟發式算法,機器學習算法包括深度學習算法對人而言還是黑箱。陳曉平等[3]提出,自然人創造了機器人,自然人優於機器人,必須警惕和限制發展腦機融合、虛擬現實和人工智能技術,將有可能威脅人類生存的人工智能技術扼殺在搖籃中。可是,試圖遏制人工智能相關技術的發展,要麼不可行、要麼會被認為是“因噎廢食”。我們也曾經提出可以通過教育機器人的辦法,將人類的情感、價值觀等通過程序代碼傳遞給機器人,使其能夠產生自我意識和價值體系。但由於二者之間的坎陷世界差異較大,因此邁過這條鴻溝無疑需要消耗巨大的成本。且教育機器人的程度十分有限,就像訓練寵物一樣,人類能夠在何種程度上馴化機器人,使得機器人不僅可以掌握人類的智力系統、更加可以繼承人類豐富的情感世界,是存疑的。最後由於機器具有反叛性,更加提升了教育的難度。一旦機器人開始反叛,則教育的過程就從人類的單向輸入轉變為機器人內部的自我博弈,就像青春期的少年很容易走上歧途一樣,機器人博弈的結果亦無法預料。

在處理問題時,人們往往會準備多套備選方案(contingency plan),以避免當原來的計劃擱淺以後不知所措的情況發生。規避暗無限真正的Plan B應當是製造與人類之間能夠建構更緊密關係的分身並對其進行監護。

因為並不可能有一個公式化的標準的人存在,所謂分身,一定是指某一個特定人的分身。所謂監護,是要求人對機器人負責,並真正通過法律程序落實。未來,人類同機器人的關係將逐漸演變成為需要通過法律實現確認、保障的監護關係。由於設定AI成為人類的分身,本身即說明了二者之間的關係變得非常密切,以至必須要從法律層面確立責任制。事實上,很有可能未來最瞭解人類自身的存在,不再會是朋友、家人、愛人甚至是自己,而是作為分身的最大限度掌握並追蹤主體動態的AI。AI的意識與主體的意識間將具有極強的關聯度。

在這樣的背景下,製造一個AI就應當同時為其匹配一個監護人。這就像養一條可能具有極大殺傷力的藏獒,如果這條藏獒咬傷甚至咬死了他人,那麼顯然,藏獒的主人需要承擔極大的責任。同樣的,具有更強殺傷力但不具備常識的AI也需要監護人以保證其不至於危害人類社會整體。某種程度上,設立監護人的舉措同比爾·蓋茨提出的交“人工智能稅”殊途同歸。因為所謂的能夠實現自主切換、高度兼容的“通用智能”(Artificial General Intelligence)恐怕難以實現。事實上,智能同承載它的生物進化歷史、身體結構密切相關,如果要做一個通用智能,它就應當能夠向下兼容一切生物的進化歷史和身體結構,但這是難以一蹴而就的。因此,對於只能夠實現高度模仿而無法完全成人的人工智能來說,監護就變得尤為重要。為保證監護的高完成度,甚至還可以引入區塊鏈技術,將人工智能的一切信息及行為都記錄在不可更改且公開透明的區塊鏈上。不同AI主體間的互相監督和競爭對規避暗無限會極有幫助。

人機兼容的可能性

那麼應當如何為機器人建構常識?一種辦法是為機器人搭建其認知坎陷世界。人的進化歷史將這種著落安放在人的身體結構之中,但機器人卻缺乏建構意義的內在需求。一種路徑是全盤照抄人類,例如電影《銀翼殺手2049》中的“複製人”,直接向機器人輸入人類的常識和生存意義。而這一需求本身,在人的身體中本來是可以通過基因以適者生存、優勝劣汰的方式表達出來的,即自我肯定需求。機器人雖然沒有自我,但卻可以通過與人建立連接的方式建構自我。

但倘若直接將一個人的記憶全盤複製後移植給機器人,則無疑會面臨不適應的情況,即被移植者對自我的確定性產生懷疑,不僅僅是大腦,身體結構的不相容會表現的更為顯著,則與用基因改造人的故事殊途同歸。實際上,以身體訓練大腦相對容易,但以大腦規訓身體則要耗費較多時間。那麼假設可以創造出一個萬能的身體,具有非常強的靈活性,即大腦是什麼,身體就可以做出相應改變以達到高度匹配。亦可以假設創造一個萬能的大腦,其中可以安裝無數種軟件以適應各式各樣的身體。即便如此,前後一致的歷史經歷依然非常重要。

在人類製造機器的歷史上,兼容的問題一直存在。向下兼容(Downward Compatibility)又稱向後兼容(Backwards Compatibility),常常是相對於向上兼容而言。在計算機體系中指“在一個程序或者類庫更新到較新的版本後,用舊的版本程序創建的文檔或系統仍能被正常操作或使用,或在舊版本的類庫的基礎上開發的程序仍能正常編譯運行的情況”,例如IBM兼容機。超級人工智能亦可能如此,需要向下兼容,而人類則退居成為舊版本。唯有不斷地將人類歷史安裝進人工智能系統中,實現兼容,則其才有可能具有常識、具有目的性,免於陷入“暗無限”的深淵。由硅基組成的機器人當然可以從硬件上整體升級人體配置,但同時亦必須做到向下兼容,使得身體可以同時適應、處理各種層級的情況。機器人可能可以通過“高級模仿、向下兼容”的方式來趨近人的自我,常識可以一點點地習得,目的性可以一點點地建構,但其能力和意識必須實現相互匹配。

未來的人工智能具有如下兩種可能的發展方向。一種可能性就是如前文所述讓它的功能和結構向下兼容,儘可能模仿人的結構、自由度。讓機器人去感受人的情感,當然它還可以在此基礎上開出比人更多的情感內容或者坎陷內容。另一種可能性就是,雖然人類創造的是同自己完全不一樣的機器人,但是卻可以試圖給它灌輸一些人類的情感進去,例如讓它玩設計好的遊戲從而獲得類似於人的情感體驗等。這是因為人類正是可以通過玩遊戲、看電影或者看小說等共情方式來獲取他人的體驗。

但不論採取何種方式,核心都在於要讓機器人更像人,如此人才能安全存在,否則必將危機四伏。當然也有人說,人類憑什麼要求安全,或許人只是一個過渡階段,讓位於比自己更完美的形式(人工智能)豈不是更好?但這種想法是草率的,世界因人類的存在而豐富多彩,人類讓位於AI可能意味著讓世界陷入暗無限的單調。[9][10]

結語

得益於幾十億年生命進化所賦予人類的獨一無二的身體結構、常識、社會機制以及與環境之間的協調關係,人類可以規避無處不在的暗無限。作為人類意識延伸的人工智能,被賦予的是偏狹而非完整的意識,在快速進化之後會導致其能力與意識狀態的極度不匹配,從而陷入暗無限而將周圍的世界帶入深淵。因此,如何選擇AI的進化之路就顯得尤其重要。將機器人設計成人類自己的分身,建立人對機器人教育與監護的責任機制,更有利於實現人類與AI共同進化。

參考文獻:

[1] BOSTROM N . Superintelligence : paths , dangers , strategies[M]. Oxford :Oxford University Press, 2014.

[2]戴維·洛奇·帕納斯.人工智能的真正風險[J].胡欣宇,譯.中國計算機學會通訊,2017(11):27-31.

[3]陳曉平.警惕人類的掘墓者:腦機融合、阿爾法狗抑或虛擬現實——兼與翟振明教授商榷[J].山東科技大學學報(社會科學版),2017(5):1-10.

[4]蔡恆進.認知坎陷作為無執的存有[J].求索,2017(2):63-67.

[5]鄧曉芒.論先驗現象學與黑格爾辯證法的差異[J].江蘇社會科學,1999(6):73-80.

[6]蔡恆進.觸覺大腦假說、原意識和認知膜[J].科學技術哲學研究,2017(6):48-52.

[7]蔡恆進.論智能的起源、進化與未來[J].人民論壇·學術前沿,2017(20):24-31.

[8]蔡恆進,蔡天琪,張文蔚,汪愷.機器崛起前傳——自我意識與人類智慧的開端[M].北京:清華大學出版社,2017.

[9]蔡恆進.機器崛起是否意味著人文危機?[J].文化縱橫,2017(5):37-43.

[10] 蔡恆進.人工智能發展的突破口及其提出的新要求[J].江西社會科學,2017(10):18-24.


分享到:


相關文章: