「中天智領AI前沿」霍金留給人類的最後警告

霍金生前的最後一本著作“Brief Answers to the Big Questions”近日正式出版。他在書中認為,技術奇點之後超級智能將出現,人類經過基因編輯之後成為超人,未來人類將到星系開疆拓土,新生命形式的星際旅行機器會出現。


「中天智領AI前沿」霍金留給人類的最後警告


“我在這個星球上過著不平凡的生活,同時用我的頭腦和物理定律穿越宇宙。我去過銀河系最遠的地方,進入了黑洞,回到了時間的起源。在地球上,我經歷過高潮和低谷,動盪和和平,成功和痛苦。我富有過,貧窮過,我健全過,殘疾過。我受到過讚揚也受到過批評,但我從未被忽視。”

霍金逝世7個月後,他生前的最後一本著作“Brief Answers to the Big Questions”近日正式出版,上述文字是他在書中寫的自白。

「中天智領AI前沿」霍金留給人類的最後警告

不同於經典著作《時間簡史》,這本最新的著作重點關注目前地球上所有人都將面臨的幾個重大挑戰,包括人工智能的發展、基因編輯技術、氣候變化、核戰爭的威脅等等。

這部書由《萬物理論》(The Theory of Everything)男主角、霍金扮演者Eddie Redmayne和2017年諾貝爾物理學獎獲得者Kip Thorne做前言介紹,霍金女兒Lucy Hawking做後記。霍金在書中試圖回答幾個問題:人類會在挑戰之下活下來嗎?我們應該在太空中殖民嗎?上帝真的存在嗎?

「中天智領AI前沿」霍金留給人類的最後警告

Eddie Redmayne和霍金

在亞馬遜Kindle版的介紹中,給出了這樣的評價:對世界來說,“Brief Answers to the Big Questions”是這位偉大的物理學家最給出的最後信息。

新智元根據Vox等媒體對這本書的報道,將本書的核心觀點進行梳理,以饗讀者。

創造AI可能是人類歷史上最後一個大事件

人們很容易把高度智能機器的概念當作科幻小說來看待,但這將是一個錯誤,而且可能是我們有史以來犯的最嚴重的錯誤。

霍金認為,當AI在人工智能設計領域變得比人類更優秀,以至於它可以在沒有人類幫助的情況下遞歸地自我改進時,我們可能會面臨一場智能爆炸,最終導致機器的智能遠遠超出我們。

機器智能跟人類的差距有多大?霍金說,這種差距甚至比人類超過蝸牛的還要大。當這種情況發生時,我們需要確保計算機有跟我們一致的目標。

迄今為止,人工智能的原始形式已被證明非常有用,但霍金擔心,如果創造出一種能與人類匹敵或超越人類的東西,後果將不堪設想。人類受到緩慢的生物進化的限制,無法競爭,將被取代。在未來,人工智能可以發展出自己的意志,一種與我們的意志相沖突的意志。

霍金認為,創造人工智能將是人類歷史上最大的事件。不幸的是,它也可能是最後一個,除非我們學會如何規避風險。

技術奇點之後超級智能會降臨

數學家Irving Good在1965年提到,擁有超人智能的機器可以不斷地進一步改進它們的設計,科幻作家Vernor Vinge把這種進化稱之為技術奇點。

我們可以想象,這種技術會超過金融市場,超過人類研究人員的發明,超過人類領導人的操縱,甚至可能用我們甚至無法理解的武器制服我們。人工智能的短期影響取決於誰來控制它,而長期影響則取決於它能否被控制。

在中期,人工智能可能會使我們的工作自動化,帶來巨大的繁榮和平等。展望未來,可以實現的目標沒有根本的限制。一個爆炸性的轉變是可能的,儘管它可能會以不同於電影的方式上演。

簡而言之,超級智能人工智能的出現要麼是人類有史以來最好的事情,要麼是最糟糕的事情。人工智能真正的風險不是惡意,而是能力。

一個超級智能的人工智能會非常擅長實現它的目標,如果這些目標與我們的不一致,我們就有麻煩了。你可能是憎恨螞蟻,也不出於惡意踩死螞蟻,但如果你負責一個綠色水電能源項目,而該地區有一個蟻丘要被淹沒,這種情況下對螞蟻來說實在太糟糕了。

因此,人類不要成為AI的螞蟻。

不要覺得這種擔憂很可笑,舉例來說,如果一個高級外星文明給我們發了一條短信,說:“我們再過幾十年就會到達”。我們會不會只是回覆說:“好吧,你來的時候給我們打電話,我們會讓燈一直亮著。”

外星人可能不會來,但這很可能是會發生在人工智能身上的事情。

近期最擔憂:各國開發自主武器系統

雖然霍金自己是一個眾所周知的樂觀主義者,但他不確定這種樂觀能持續多久。例如,在短期內,世界各國軍隊正在考慮在自主武器系統中展開軍備競賽,以選擇並消滅自己的敵人。

當聯合國正在討論一項禁止此類武器的條約時,自主武器的支持者通常忘記問一個最重要的問題:軍備競賽可能的終點是什麼?這對人類來說是可取的嗎?我們真的希望廉價的人工智能武器成為未來衝鋒槍,在黑市上賣給犯罪分子和恐怖分子嗎?考慮到人們對我們長期控制越來越先進的人工智能系統的能力的擔憂,我們是否應該武裝AI,並將我們的防禦力量交給AI?

因此說,現在是停止自主武器軍備競賽的最佳時機。

星際擴張也許是人類拯救自己的唯一辦法

霍金認為,在未來1000年的某個時間點,核對抗或環境災難將使地球癱瘓是不可避免的。到那時,霍金希望並且相信,人類這個聰明的種族將會找到一種方法來擺脫地球上粗暴的束縛,從而在這場災難中倖存下來。

目前,除了地球人類無處可去,但從長遠來看,人類不應該把所有雞蛋都放在一個籃子裡,或者放在一個星球上。

霍金希望在人類學會如何逃離地球之前,能避免掉下籃子。

並且,離開地球需要一個協調一致的全球方式——每個人都應該加入。人們需要重新點燃20世紀60年代早期太空旅行的激情。

現在,太空探索技術幾乎在人類的掌握之中,因此,是時候探索其他太陽系了。星際擴張也許是唯一能把人類拯救自己辦法。

另一方面,人類沒有時間等著達爾文的進化論讓我們變得更聰明、更善良。人類現在正進入一個新的階段,這個階段可能被稱為“自我設計進化”——人類將能夠改變和改善我們的DNA。

首先,這些變化將侷限於修復遺傳缺陷——例如囊性纖維化和肌營養不良,它們由單個基因控制,因此很容易識別和糾正。其他的品質,比如智力,很可能是由大量的基因控制的,而要找到它們並找出它們之間的關係就會困難得多。

但也不是不可能。霍金確信在本世紀人們將會發現如何修正智力和本能,比如攻擊性。因此,他預測反對人類基因工程的法律可能會通過。但有些人無法抗拒改善人類特徵的誘惑,比如記憶力大小、抗病性和壽命長短。

一旦人們嘗試這種“誘惑”,就會出現超人。一旦這樣的超人出現,那些無法與之競爭的人類將面臨重大的問題,他們將會消亡,或者變得不重要。相反,那些靠自我設計改變基因的人,會以越來越快的速度提升自己。

從這個角度講,如果人類能夠重新設計自己,也很可能會擴展到其他星球。

新生命形式的星際旅行機器會出現

然而,長距離的太空旅行對於以化學為基礎的生命形式來說將是困難的,與旅行時間相比,人類這種生物的自然壽命很短。根據相對論,人類到達星系中心大約需要10萬年。

在科幻小說中,人們通過太空扭曲或者穿越維度來克服這個困難。但霍金認為這些都不可能實現,無論生命變得多麼聰明。

而未來還可能出現一種更簡單的方法——幾乎已經在我們的能力範圍內——設計出能夠持續足夠長的機器用於星際旅行。當人們到達一顆新恆星時,他們可以在合適的行星上著陸,開採出更多的物質來製造更多的機器,這些機器可以被送往更多的恆星。

這樣的機器將會是一種新的生命形式,基於機械和電子元件而不是大分子。它們最終可能取代以DNA為基礎的生命,就像DNA可能取代了早期生命一樣。

宇宙中還有其他智慧生命嗎?

這個問題爭論已久。

如果存在外星生物,那為什麼我們沒有被拜訪過呢?

霍金提出了幾種可能。

形成自我複製系統的可能性是合理的,就像細胞一樣,但這些生命的大多數形式並沒有進化出智力。我們習慣於認為智能生命是進化的必然結果,但如果不是呢?

更有可能的是,進化是一個隨機的過程,智力只是眾多可能結果中的一個。甚至不清楚智力是否有任何長期的生存價值。如果地球上所有其他生命都被我們的行為所消滅,細菌和其他單細胞生物可能會繼續生存。

從進化的年表來看,也許智力對地球上的生命來說是不太可能的發展,因為從單個細胞到多細胞生物需要很長時間——25億年——這是智力的必要前體,所以這與生命發展智力的概率很低的假設是一致的。在這種情況下,我們可能期望在銀河系中找到許多其他的生命形式,但我們不太可能找到智慧生命。

另一種無法發展到智能階段的生命可能是小行星或彗星與行星相撞。一部分觀點認為,大約6600萬年前,一個相對較小的天體與地球相撞,導致了恐龍的滅絕。一些早期的小型哺乳動物倖存下來,但是任何像人類一樣大的動物幾乎肯定會被消滅。

還有一種可能性是,生命有合理的可能性形成並進化為智能生物,但系統變得不穩定,智能生命毀滅了自己。這將是一個悲觀的結論,霍金說,我希望這不是真的。

他更傾向於第四種可能性:我們忽略了其他形式的智慧生命。在我們目前的階段,與一個更先進的文明相遇,可能有點像當初的美洲居民與哥倫布相遇,霍金認為對方會因此而更現先進。

霍金生前最後一篇論文公開:物體落入黑洞的信息有什麼變化?

而就在前不久,霍金臨終論文也公開了。

「中天智領AI前沿」霍金留給人類的最後警告

這篇論文題為《Black Hole Entropy and Soft Hair》,作者分別是Sasha Haco、 Stephen W. Hawking、Malcolm J. Perry和Andrew Strominger。

該論文闡述了物體落入黑洞時信息產生的變化,主要解決了“黑洞信息悖論”這一問題。該論文的觀點是,黑洞中存在無窮盡的“柔軟的頭髮”而非無跡可尋,同時也給出了黑洞熵的計算方法。

這一難題可追溯到愛因斯坦時代。1915年,愛因斯坦提出廣義相對論,這對黑洞做出了一個重要的預測,即黑洞完全由三個特徵來定義,分別是質量、電荷和角動量。

而霍金在將近60年後提出,黑洞也有溫度,黑洞的命運最終將是蒸發,即黑洞蒸發理論。若是再考慮量子理論,即根據量子世界的定律,信息是不會消失的。這便成了一個矛盾點。

若是一個物體被丟進黑洞裡,在黑洞消失的時候,物體的信息都去了哪裡呢?

在這篇論文中,霍金及其同事展示了有些信息如何被保存下來。把一個物體扔進黑洞,黑洞的溫度會因此而改變。一種叫做熵(用來測量物體內部無序程度的指標)的特性也會如此。溫度越高,熵就越高。

除此之外,霍金還在論文中表示,他希望能將引力和其他的自然力量結合起來,從而統一愛因斯坦廣義相對論於量子理論。


分享到:


相關文章: