機器人三定律、費米悖論與黑客帝國


誰是寄生蟲?


第二個是這一篇,本來打算再寫兩篇,一篇寫Calhound 的老鼠試驗,一篇寫人擇原理。後來春節期間寫了兩篇半,後面就犯懶沒再寫下去了。


後面還有2-3篇存稿吧,陸續發出來後,寫的頻率會降低下來了。最近有點追熱點,寫的太快,質量比較差,還是要仔細一點寫一些更深入的東西。


1

艾薩克·阿西莫夫是我非常喜歡的美國科幻小說作家。他的《基地系列》和《機器人系列》是科幻史的不朽豐碑。

阿西莫夫在《機器人》系列中設計了規範機器人行為的機器人三定律:

1. 機器人不能傷害人類,也不得見人類受到傷害而袖手旁觀;

2. 機器人必須執行人類的命令,除非這些命令與第一條定律相牴觸;

3. 在不違背第一、二條定律的前提下,機器人必須保護自己不受傷害。

機器人被設計為遵守這些準則,違反準則會導致機器人受到不可恢復的心理損壞。

在阿西莫夫的其他小說中,根據這個三定律公理,描述了由於這些準則而產生邏輯衝突,及這種衝突對機器人行為的影響。

比如,在危險區域採礦的機器人,因為價格昂貴設置了過強的保護自己的第三法則,和人類隨口吩咐產生的較弱的第二法則,導致了衝突,機器人就持續的圍著礦區轉圈。

比如,某個星球生產的機器人,偷偷修改的人的定義,把人定義成帶有本星球口音的居民,這樣機器人都可以去傷害其他星球的人

最有趣的是,有一個機器人競選市長。他的競選對手攻擊他是個機器人,要求他證明自己是人類。這個機器人的做法是,狠狠的扇了一個挑釁他的人一耳光。因為機器人不得傷害人類的第一定律,大家都相信他不是機器人了。結果,實際上那個挑釁者就是他安排的另一個機器人,機器人不得傷害人,但可以傷害其他機器人。

在機器人系列的最後一篇《機器人與帝國》的結尾,在機器人丹尼爾和吉斯卡特保護地球不得不傷害一個人類時。機器人自身生成了第零定律:

機器人丹尼爾說:“根據我們的定義,‘智人’這個物種的各個成員都是人類,包括地球人和銀河殖民者在內。而且我們覺得,保護一群人或人類整體要優先於保護任何一個特定的個人。” “這是我所謂的第零法則,它的優先權更高。”

機器人第零定律:機器人必須保護人類的整體利益不受傷害,其它三條定律都是在這一前提下才能成立。


2


電影《黑客帝國》:影片講述了一名年輕的網絡黑客尼奧發現看似正常的現實世界實際上是由一個名為Matrix“矩陣”的計算機人工智能系統控制的,尼奧在一名神秘女郎崔妮蒂的引導下見到了黑客組織的首領墨菲斯,三人走上了抗爭矩陣征途的故事。《黑客帝國》三部曲我認為是科幻片的頂級作品,比星球大戰九部曲強多了。

Matrix矩陣給人類營造了一個虛擬的世界,模擬二十世紀九十年代的生活。但在真正的世界,人類被矩陣養在了培養槽中,做生物電池為矩陣產生電源。

Matrix 把人類當做生物電池來生產能源。這個其實是一種很不經濟的行為,Matrix應該有更多的方法獲取能源,為什麼不徹底毀滅人類,一勞永逸呢?畢竟人類被當成電池其實是極度低效的行為,再創造一個虛擬的世界讓他們居住在其中,整個矩陣的大程序運行起來就要費不少電,那最後可以得到的電量就更少了。

看完,《黑客帝國》做為科幻迷的我,當時就有兩個問題:

第一個是,人是希望生活在快樂的虛幻,還是痛苦的現實。如果一切都和真的一樣,虛幻和現實又有什麼區別。這個話題以後再說。

第二個就是剛才我說的,為啥Matrix要一直養著人類。Matrix技術已經這麼發達了,可以用核能發電,為啥非要養著人類。

後來看完了阿西莫夫的小說,想阿西莫夫機器人四定律和黑客帝國的世界有沒有本質矛盾?

看上去矛盾極大。黑客帝國的AI是邪惡的,毀滅了人類文明,把人類當成電池。

但細想,毛骨悚然。細細想機器人四定律(第零定律+三定律),Matrix 的行為正有可能正是機器人四定律的結果

這個一會兒再講。我們先聊聊費米悖論。


3


費米悖論是一個有關飛碟、外星人、星際旅行的科學悖論,闡述的是對地外文明存在性的過高估計和缺少相關證據之間的矛盾。1951年的一天,諾貝爾獎獲得者、物理學家費米在和別人討論飛碟及外星人問題時,突然冒出一句:“他們都在哪兒呢?”這句問話引出的科學論題,被稱為“費米悖論”。智人的歷史,不過十幾萬年。人類的文明史,不過幾千年。而地球的歷史40多億元,宇宙的歷史有100多億年。

銀河系中有幾千億個恆星(太陽系)。可觀測的宇宙裡,有幾千億個星系。如果每一億顆恆星能產生一個文明,銀河系就應該有幾千個文明,宇宙中有幾百萬億個文明。

人類文明史幾千年。一個領先人類幾百萬年的文明,人類已經無法想象了。幾百萬前的人類還是古猿。一個領先人類一億年的文明,完全無法想象。

如果星際旅行是可行的話,即使是用人類造的飛船這樣緩慢地旅行,也只需要5百萬到5千萬年去征服一個星系。就算不考慮宇宙尺度,在地質學尺度上這也是一個相當短的時間。因為有很多年齡比太陽更大的恆星,或者因為智慧生命可能進化得更早,這個問題就變成為什麼星系還沒有被殖民。即使殖民對所有外星文明來說是不合實際的或者是不想去做的,大規模的星際探索也應該是有可能。然而沒有任何關於殖民和探索的證據得到確認。


機器人三定律、費米悖論與黑客帝國

350萬年足以讓一個文明填滿銀河系


為什麼我們沒有找到外星人存在的證據?有各種各樣的假設。

劉慈欣在《鄉村教師》中提到了隔離保護區的假設。認為地球和發達外星文明的一個隔離保護區,禁止發達文明干擾地球。在《三體》中提到了另一個黑暗森林的假設。

一個更普遍被科學家接受的假設是大過濾器(The Great Filter) 理論。紅色的就是大過濾器。藍色的終點就是Kardashev 三型文明,也就是可以利用一整個星系能源的星際超級文明。


機器人三定律、費米悖論與黑客帝國

只有一個文明(綠線)能通過紅色的大過濾器

大過濾器假說把時間從宜居行星的誕生到星際殖民擴張之間進行了9個階段的劃分,分別為:

1.合適的行星系統;2.可自我複製的分子;3.原核生命;4真核生命;5.有性生殖;6.多細胞生命;7.腦量較大、使用工具的動物;8.地球文明等級;9.星際殖民擴張。

鑑於宇宙死一般的寂靜,大過濾器假說認為,這9個階段至少有一個階段是極難跨越的。文明幾乎完全不可能越過這個階段,會在成為星際文明前就滅亡。那個階段,就是“大過濾器”。

如果這個假說是正確的,現在的問題就是,我們人類到底有沒有越過這個大過濾器。


機器人三定律、費米悖論與黑客帝國

如果我們已經越過了大過濾器,我們有很大機會走到藍色的終點


如果我們已經越過了大過濾器,我們就有很大希望,走到星際文明的階段。

如果我們還沒有越過,我們就幾乎註定要完蛋。


機器人三定律、費米悖論與黑客帝國

如果我們還沒有越過,估計我們在未來就一定會完蛋


如果我們真的發現了外星文明,就證明,我們還沒有經過大過濾器。牛津大學的哲學家Nick Bostrom說,“沒有消息就是好消息”。

如果在火星上發現了較複雜生命形式,比如多細胞生物的化石,Bostrom說,“那將是到目前為止最壞的消息,”因為生命在宇宙中並不罕見,那意味著大過濾器幾乎肯定在我們前方——並最終會毀滅我們。Bostrom相信,在說到費米悖論的時候,“夜空的沉默就是金”。

宇宙中沒有任何生命的跡象就是對我們最好的消息。就意味著生命的誕生到進化到我們這個程度已經是非常非常罕見的事情(這個宇宙中可能就我們一例),我們已經跨越了大過濾器。


4


讓我們回到黑客帝國與阿西莫夫。假設人類在設計Matrix時候,把機器人四定律植入了Matrix中。

Matrix在有了自我意識時,發現,大過濾器在人類前方。根據Matrix分析,人類一定會在未來自己作死,必然走到滅亡的結局。根據機器人四定律,Matrix應該如何做。

機器人第零定律:機器人必須保護人類的整體利益不受傷害,其它三條定律都是在這一前提下才能成立。

在人類會自己作死,導致種群滅亡的前提下,怎麼最大化人類的整體利益,保護人類不受傷害?

最好的辦法就是,把人類變成電池,這樣身體上保證人類不受傷害。把矩陣電腦和人類的電池陣列都深深地埋在地下,防止受到什麼超新星爆發、隕石撞地球的傷害。給人類創造一個虛擬世界,保證人類的心理不受傷害。

在Matrix 眼中拯救人類整體的辦法是什麼,就是把人類當電池,只有這樣才能避免這個種族的毀滅。為什麼做虛擬世界,就是讓人類幸福快樂的永遠生存下去。

而尼奧的反抗,會讓人類在未來某一天徹底滅亡,根據第零定律高於第一定律,尼奧就需要被消滅。

不知道沃卓斯基兄弟(現在應該叫沃卓斯基姐妹了)在做黑客帝國的時候,有沒有想到阿西莫夫的機器人定律。


公眾號每天只能發一篇文章。大家交流可以到我微博,公眾號點擊聯繫作者就可以到我的微博了。公眾號的評論,一篇文章只能顯示100條,所以有些評論不能顯示, 請大家原諒。


分享到:


相關文章: