再見霍金!對於人工智慧,這位偉人給世人留下這樣的忠告

人工智能的發展會嚴格遵循"機器人三大定律"嗎?

3月14日,偉大的英國著名物理學家和宇宙學家斯蒂芬·威廉·霍金(Stephen William Hawking)逝世,享年76歲。霍金來自宇宙,現在回到了他的浩瀚星辰。

再見霍金!對於人工智能,這位偉人給世人留下這樣的忠告

霍金是繼牛頓和愛因斯坦之後最傑出的物理學家之一,被世人譽為"宇宙之王",作為劍橋大學數學及理論物理學系教授,當代最重要的廣義相對論和宇宙論家,榮獲英國劍橋大學盧卡斯數學教席,這是自然科學史上繼牛頓和狄拉克之後榮譽最高的教席。

霍金的子女在一份聲明中說:"我們親愛的父親今天去世了,我們深感悲痛"。聲明稱,霍金"是一個偉大的科學家,一個不平凡的人,他的研究和成就的影響將持續多年"。

1942年1月8日,霍金在英國牛津出生,父親弗蘭克·霍金畢業於牛津大學醫學院,母親伊莎貝爾·霍金同樣畢業於牛津大學,專業為哲學、政治經濟學。霍金本人畢業於牛津大學和劍橋大學,並獲得劍橋大學博士學位。

再見霍金!對於人工智能,這位偉人給世人留下這樣的忠告

1963年,21歲的他不幸被診斷患有肌肉萎縮性側索硬化症即運動神經細胞病。當時,醫生曾診斷身患絕症的他只能活兩年,可他一直堅強地活了下來。

霍金的主要著作有《時間簡史》、《果殼中的宇宙》,主要研究領域是宇宙論和黑洞。不過,近年來霍金在人工智能等領域的研究也值得關注,今天我們在緬懷這位偉人的同時,來看看最近幾年裡,他是如何看待眼下大熱的人工智能(AI)的。

人工智能這門學科發展到今天已經超過60年時間。

1956年夏季,以麥卡賽、明斯基、羅切斯特和申農等為首的一批有遠見卓識的年輕科學家在一起聚會,共同研究和探討用機器模擬智能的一系列有關問題,並首次提出了"人工智能"這一術語,它標誌著"人工智能"這門新興學科的正式誕生。

2017年12月,人工智能入選"2017年度中國媒體十大流行語",熱度可見一斑。

簡單來說,對人工智能的定義大多可劃分為四類,即機器"像人一樣思考"、"像人一樣行動"、"理性地思考"和"理性地行動"。

2014年的霍金:人工智能可能是人類歷史上最後的事件

2014年5月,在觀看了德普主演的新片《超驗駭客》後,霍金在為《獨立》雜誌撰寫的一篇文章中明確地表達了他對這個問題的擔憂。

再見霍金!對於人工智能,這位偉人給世人留下這樣的忠告

電影《超驗駭客》劇照

霍金擔憂的對象不僅僅是未來的人工智能技術,甚至還包括現在的一些公司比如谷歌和Facebook。

他說:"人工智能的短期影響取決於由誰來控制它,而長期影響則取決於它是否能夠被控制。"

霍金承認,機器人和其他的人工智能設備也許會給人類帶來巨大的好處。如果那些設備的設計非常成功,就能給人類帶來巨大的好處,他說那將是人類歷史上最大的事件。然而他同時也提醒說,人工智能也有可能是人類歷史上最後的事件。

他說:"人工智能技術發展到極致程度時,我們將面臨著人類歷史上的最好或者最壞的事情。"

霍金以前就曾試圖提醒人們注意一點,即科幻的魅力會矇蔽我們的雙眼。它有時會掩蓋住一個重要的問題,即最終的結果有可能引發一場浩劫。

當年的6月16日晚,霍金出席了美國HBO頻道的"Last Week Tonight"節目,並與主持人約翰·奧利弗(John Oliver)展開了"深刻而有意義的對話"。

當晚,霍金非常肯定地對主持人說:"人工智能在並不遙遠的未來可能會成為一個真正的危險。"

到了2014年12月的時候,霍金在接受英國廣播公司(BBC)的採訪時說,"製造能夠思考的機器無疑是對人類自身存在的巨大威脅。當人工智能發展完全,就將是人類的末日。"

這讓霍金再次登上英國各大媒體頭條,激起人們對人工智能黑暗的、反面烏托邦式的假想。

從上世紀60年代末的科幻電影《2001:太空漫遊》,一個名叫哈爾9000(HAL 9000)的智能機器人發生錯亂,在前往木星的太空船上對人類發起攻擊;《我,機器人》中,一個多才多藝的人形機器似乎有了心靈;直到《終結者》系列,未來世界由機器人統治人類,反抗機器人統治的人類領袖被未來機器人追殺。

2015年的霍金:號召禁止人工智能武器

在這一年,霍金、特斯拉CEO埃隆·馬斯克和蘋果聯合創始人史蒂夫·沃茲尼亞克等上百位專業人士聯名上書,號召禁止人工智能武器。

再見霍金!對於人工智能,這位偉人給世人留下這樣的忠告

公開信稱,如果任何軍事力量推動人工智能武器的開發,那麼全球性的軍備競賽將不可避免。人工智能武器不像核能一樣——需要高昂的成本和難以獲得的原材料,一旦開發人工智能很容易在各軍事力量中普及。

公開信說,人工智能武器的禁令必須儘快頒佈,以避免軍備競賽,這更甚於"控制人口數量的意義"。

2016年的霍金:人工智能的崛起中產階級或將大面積失業

2016年6月,霍金在接受美國知名記者拉里·金採訪時說,人工智能應該在符合倫理道德和安全措施要求的情況下開發,因為脫離人類控制之下的機器很難被阻止住。

他認為,有益的人工智能將出現在人類生活的各方面。"想象一下那些可以對科學家想法迅速作出評價、更早地查出癌症、並預測證券市場走勢的人工智能!它們將影響到我們的經濟,影響到我們的決策,並在整體上影響我們的生活。"

再見霍金!對於人工智能,這位偉人給世人留下這樣的忠告

到了10月19日,劍橋大學"萊弗休姆的未來智能中心(LCFI)"正式投入使用,霍金在慶祝典禮上發表了演講。LCFI的一項重要使命是要化解AI風險,破解AI難題。

在當天的演講中,霍金說:"對於人類來說,強大AI的出現可能是最美妙的事,也可能是最糟糕的事,我們真的不知道結局會怎樣。"

霍金在演講中批評了人工智能的無節制發展,他認為,人工智能技術的確有希望帶來巨大的福利,比如根除疾病和貧困,但是它同樣也可能帶來危險,比如強大的自主式武器,或者幫助少數人壓迫多數人。

"我們生活的每一個方面都會改變。總之,創造AI的成功可能是我們文明歷史上最大的事件。"霍金說。

這年的12月,在英國《衛報》的一篇專欄中,霍金表示:"工廠的自動化已經讓許多傳統制造業工人失業了,而人工智能的崛起會將失業範圍擴大到社會上的中產階級。未來,留給人類的只有護理、創新和監督等少數崗位了。"

如果這一趨勢繼續下去,會有什麼後果嗎?霍金認為機器人搶走人類工作後會造成社會更大的不公,自動化將"加速擴大全球範圍內已經日益嚴重的經濟不平等,互聯網和各種平臺讓一小部分人通過極少的人力獲取巨大的利潤。這是不可避免的,這是一種進步,但也會對社會造成巨大破壞並最終"撕裂"整個社會"。

此外,互聯網讓窮人也見識到了上流社會的生活方式,一旦他們與其自身情況作對比,就會讓無盡的怒氣在整個社會生根發芽。

2017年的霍金:最後的警告

2017年3月,霍金在接受英國《泰晤士報》採訪時再次發出警告,"人工智能進一步發展便可能會通過核戰爭或生物戰爭摧毀人類。人類需要利用邏輯和理性去控制未來可能出現的威脅"。

4月,2017全球移動互聯網大會(GMIC)在北京召開,霍金為這次大會發來了一個視頻,進行了題為《讓人工智能造福人類及其賴以生存的家園》的主題演講,在這次主題演講中,霍金再次提及了人工智能的問題,他認為人工智能的崛起很有可能導致人類文明最終走向終結。

在11月份舉辦的第五屆騰訊WE大會上,霍金以遠程視頻的形式亮相WE大會,並談論了對人工智能的一些看法。

在視頻中霍金認為,人類很有可能會造出超級人工智能,這些人工智能程序能夠全面超越人類,並有可能完全取代人類成為一種新的生命物種。霍金表示,"我擔心人工智能將全面取代人類。如果有人能設計出計算機病毒,那麼就會有人設計出能提升並複製自己的人工智能。這就會帶來一種能夠超越人類的全新生命形式。"

2017年12月13日,在長城會舉辦的"天工開悟,智行未來"活動中,霍金表示,現在還不能確定,人工智能的崛起對人類來說是好是壞,但可以確定的是,人類要竭盡全力,來保證人工智能的發展對於人類及環境有利。這可以說是霍金在公開報道中最後一條關於人工智能的看法了,也可以說是最後的警告。

再見霍金!對於人工智能,這位偉人給世人留下這樣的忠告

電影《我,機器人》劇照

在《我,機器人》一書中,艾薩克·阿西莫夫提出了著名的"

機器人三大定律"

第一定律,機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手旁觀;

第二定律,機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外;

第三定律,機器人在不違反第一、第二定律的情況下要儘可能保護自己的生存。

可以說,阿西莫夫的這"三大定律"不斷激發了人們對於人工智能安全性的新思考。技術最終將解放人類,前提是這個技術是受控可控的,必須牢牢地掌握在人類自己手中,而不是失控的技術,否則霍金的那些悲觀預測也許真的要應驗。


分享到:


相關文章: