霍金:擔憂人工高級智能對人類的危害

當國內媒體為人工智能的進展充滿歡呼的時候,有一位剛剛故去的偉大物理學家霍金的擔憂值得我們所有人警醒。

霍金:擔憂人工高級智能對人類的危害

霍金,繼愛因斯坦後最偉大的當代物理學家,證明了廣義相對論的奇性定理和黑洞面積定理,提出了黑洞蒸發理論和無邊界的霍金宇宙模型,在統一20世紀物理學的兩大基礎理論——愛因斯坦創立的相對論和普朗克創立的量子力學方面走出了重要一步。

霍金:擔憂人工高級智能對人類的危害

在2017年4月 的全球移動互聯網大會上霍金的演講告訴我們:“人工智能也有可能是人類文明史的終結,除非我們學會如何避免危險。我曾經說過,人工智能的全方位發展可能招致人類的滅亡,比如最大化使用智能性自主武器。”

霍金:擔憂人工高級智能對人類的危害

霍金與人工智能

霍金擔憂的對象不僅僅是未來的人工智能技術,甚至還包括現在的一些公司比如谷歌和Facebook。他說:“人工智能的短期影響取決於由誰來控制它,而長期影響則取決於它是否能夠被控制。”

霍金:擔憂人工高級智能對人類的危害

2014年,霍金在接受英國廣播公司(BBC)的採訪時說,“製造能夠思考的機器無疑是對人類自身存在的巨大威脅。當人工智能發展完全,就將是人類的末日。”

2015年,霍金、特斯拉CEO埃隆·馬斯克和蘋果聯合創始人史蒂夫·沃茲尼亞克等上百位專業人士聯名上書,號召禁止人工智能武器。

2017年,霍金向英國《獨立報》表示,人類必須建立有效機制儘早識別威脅所在,防止新科技(人工智能)對人類帶來的威脅進一步上升。

霍金:擔憂人工高級智能對人類的危害

幾十年或幾百年後,人工高級智能發展,所有原來由人腦完成的工作,全部由人工機器代替,那人去幹什麼?如果人工智能超越了人腦,人類都無法控制人工智能機器了,那時或許就是人類的末日了。


分享到:


相關文章: