我真的要考慮嫁給機器人麼

人工智能(AI)的歷史可以追溯到古代 - 智能機器人出現在許多古代社會的神話中,包括希臘語,阿拉伯語,埃及語和中國語。 今天,人工智能領域比以往任何時候都更加充滿活力,有些人認為,我們正處於可以不可逆轉地改變人類社會的發現的門檻上,無論好壞。

然而,要真正理解AI是什麼,你需要欣賞現在拋出的行話。 例如,您需要知道人工智能與機器學習不同,儘管它經常被用作機器學習的同義詞。 要記住的主要區別在於機器學習只是計算機可以學習技能的過程,而人工智能是指能夠“自我思考”而不需要編程的計算機。

我真的要考慮嫁給機器人麼

1.人工智能的發展速度比你想象的要快,並且呈指數級增長

人類傾向於直線思考,但技術進步的每個方面實際上都在加速 - 包括人工智能。 未來學家Ray Kurzweil稱之為“加速回歸法則”,並提出證據證明在2000年至2014年期間取得了相當於整個20世紀收益的進展。他還認為,相同的數額將在2021年之前再次發生。 進步的指數性,忽視了思考事物將以同樣的速度不斷提高的內在傾向,這是掌握未來科學進步有多快的關鍵。

我真的要考慮嫁給機器人麼

2.你每天都在使用人工智能

Siri,Google Now和Cortana是人工智能的明顯例子,但AI實際上就在我們周圍。 它可以在真空吸塵器,汽車,剪草機,視頻遊戲,好萊塢特效,電子商務軟件,醫學研究和國際金融市場中找到 - 還有許多其他例子。 約翰麥卡錫最初在1956年創造了“人工智能”這個術語,他曾打趣說:“一旦它奏效,就再也沒有人稱它為人工智能。”

我真的要考慮嫁給機器人麼

3.機器人肯定會代替你現在的工作

是的,我知道一份工作或許對你來說很重要,但未來你所做的工作要麼已經自動化,要麼很快就會完成。 多久? 萊斯大學的Moshe Vardi教授表示,大多數工作將在30年內由機器人完成,導致失業率超過50%。 這可能聽起來很糟糕,但許多研究該領域的學者認為,技術失業將打開通向未來的大門,工作是人們為了快樂而做的事情,而不是出於必要。 普遍基本收入等提案是社會支持結構的開端,最終可以使這成為現實。人工智能專家尼克博斯特羅姆在其出色的書“超級智能:路徑,危險,策略”一書中分類了超級智能可以運作的三種方式。 “神諭”能夠以很高的準確度回答問題。 一個“精靈”會做任何被命令做的事情然後等待下一個命令,而“主權”將被分配一個總體目標,然後被允許在世界上運作並決定如何最好地實現該目標。 由於上述原因,前者比後者更不可怕。

我真的要考慮嫁給機器人麼

4.大約一半的AI社區認為,到2040年,計算機將像人類一樣聰明

2013年,兩位研究人員調查了數百名AI專家,當時他們認為人類級人工智能有50/50的可能性。 答案的中位數是2040年 - 距今僅24年。 英國人的平均預期壽命是82歲,這意味著今天58歲的人有機會在他們的一生中看到計算機像人類一樣聰明。 作者詹姆斯·巴拉特最近的另一項研究只是詢問研究人員何時會實現人類級別的人工智能 - 到2030年,2050年,2100年,2100年之後或從未實現。 最大的群體,42%的受訪者,在2030年之前說過。

5.許多聰明人認為將人工智能發展到人類水平是一件危險的事情

一旦機器像人類一樣聰明,就會發生許多令人擔憂的事情。 人工智能開發在這一點上停止的可能性很小(人工智能幾乎肯定會開始改進自己),許多非常聰明的人 - 包括斯蒂芬霍金和伊隆馬斯克 - 認為這種情況確實非常可怕。 “如果我不得不猜測我們最大的生存威脅是什麼,那可能就是這樣。 所以我們需要非常小心,“馬斯克在最近的一次採訪中說。 “我越來越傾向於認為應該有一些監管監督,可能是在國家和國際層面,只是為了確保我們不做一些非常愚蠢的事情。”

我真的要考慮嫁給機器人麼

6.一旦人工智能變得比人類聰明,我們就很難理解它

蒂姆·魯斯特在“等待但為什麼”這篇關於人工智能的大篇文章中解釋得非常好,所以我在這裡引用他的話:“黑猩猩可以熟悉人類是什麼,摩天大樓是什麼,但他' 我永遠無法理解摩天大樓是由人類建造的,“他寫道。 “即使機器試圖向我們解釋,我們也永遠無法理解[超級智能AI]可以做的事情 - 更不用說自己做了。 它可以嘗試多年來教會我們最簡單的瞭解它所知道的事情,並且努力將毫無希望。與我們在科幻和電影中看到的相反,AI不可能是邪惡的。 這是一個人類的概念。 人工智能可以做出無法形容的可怕事情,但它並不是出於純粹的邪惡 - 它只是因為這就是它被編程(有意或無意)所做的事情。 斯蒂芬霍金最近在Reddit的AMA上解釋了這個概念。 “超級聰明的人工智能將非常善於實現其目標,”他說,“如果這些目標與我們的目標不一致,我們就會陷入困境。”

我真的要考慮嫁給機器人麼

7.人工智能可能是我們從未遇到過外星人的原因

更進一步,埃隆馬斯克將人工智能描述為對人類的“存在主義威脅”,這意味著它可以完全消滅人類與宇宙。 這與“大過濾器”的想法聯繫起來,這種過濾器可以殺死達到一定技術發展水平的外來文明。 我們從未遇到外星人的原因完全有可能是因為他們在建造能夠進行星際旅行的宇宙飛船之前發明了人工智能,而這一發現導致了它們的滅絕。

我真的要考慮嫁給機器人麼

人工智能研究的世界大致分為樂觀主義者和悲觀主義者。 樂觀主義者希望我們有一天會發明一種能夠解決我們可以想象的每一個問題的超級智能,並將我們帶入一個烏托邦的未來,滿足人類的所有需求,每個人都過著幸福的生活。 悲觀主義者擔心,沿途的一個小錯誤將導致人類迅速結束 - 例如,人工智能編程解決氣候變化問題,確定人類是這樣做的頭號障礙。 當然還有兩種場景 - 像黑客帝國這樣的現實,人類在完美幸福的狀態下被培養為燃料來源,在那種規模上存在?

隨著人工智能的不斷進步,基本上到本世紀末,面對我們的是滅絕?還是 不朽?


分享到:


相關文章: