動輒年薪 25 萬隻是白菜價的人工智能黃了?

點擊上方“CSDN”,選擇關注

關鍵時刻,第一時間送達!

整理 | 屠敏

近幾年,人工智能風生水起,中美巨頭紛紛佈局,創業型公司紛至沓來,深度學習、機器學習、算法等技術名詞不絕於耳,“智能”產品琳琅滿目......然而精彩紛呈背後,各種「AI 威脅論」也水漲船高:

馬斯克:如果你不擔心人工智能的安全性,那麼現在你應該擔心。它比朝鮮核武器危險得多。

霍金:遠離 AI, 發明 AI 可能會成為人類歷史上最大的災難,如果管理不善,會思考的機器可能會為文明劃上句號。

如今還沒等到 AI 具體應用帶來的種種威脅,一盆涼水再次撲向如今正平穩發展的 AI 領域,讓諸多想要入門 AI 的新手頓時迷失了方向,也讓全力投身於 AI 領域的創業者開始了恐慌。近日,計算機視覺及 AI 領域專家 FILIP PIEKNIEWSKI 發佈了一篇《AI Winter Is Well On Its Way》(AI 寒冬將至)的文章,他指出深度學習已塵埃落定、不具有擴展性、自動駕駛已奔潰,並最終預測 AI 寒冬就像預測股市的崩盤一樣,雖然不可能預測它何時會發生,但幾乎可以肯定它一定會發生,而且很快降臨。

接下來,我們將共同解讀《AI Winter Is Well On Its Way》的具體內容,並分享國內外大牛對於此事的看法,一窺 AI 寒冬是否真的到來?

動輒年薪 25 萬隻是白菜價的人工智能黃了?

以下為譯文:

很多年以來,深度學習一直處於所謂的人工智能革命的前沿,很多人認為深度學習是帶我們走進科技奇點(通用人工智能)的必勝法寶。2014、2015 和 2016 年間,很多公司都對深度學習深信不疑,他們積極地開拓新的疆域,例如 Alpha Go 等。特斯拉等公司的 CEO 宣佈全自動駕駛汽車很快就能實現,特斯拉甚至開始向客戶預售全自動駕駛功能(將來可以通過軟件激活該功能)。

而現在 2018 年已經過去了一半,情況發生了變化。雖然表面上還看不出來,神經信息處理系統大會(Neural Information Processing Systems,簡稱 NIPS)仍然一票難求,特斯拉在新聞發佈會上還頻頻提及人工智能,CEO 埃隆·馬斯克仍然信守關於自動駕駛汽車的諾言,Google 的 CEO 仍堅守吳恩達的口號:人工智能將帶來比電力革命更偉大的變革。但是這種說法已開始動搖。我曾經表示過,這種動搖最明顯的地方應該是無人駕駛,這正是人工智能科技在現實世界中的一項真實應用。

深度學習的塵埃已定

當 ImageNet 得到有效解決後(請注意這並不意味著視覺問題得到了解決),該領域許多出色的研究人員(甚至包括向來低調的 Geoffrey Hinton)都活躍在媒體的採訪中,在社交媒體上做宣傳(例如 Yann Lecun、吳恩達、李飛飛等)。總基調無非是我們面臨巨大的革命,今後技術的發展只會更快。很多年過去了,這些人在 Twitter 上也沒那麼活躍了,以吳恩達為例來說:

2013年:日均推文0.413條

2014年:日均推文0.605條

2015年:日均推文0.320條

2016年:日均推文0.802條

2017年:日均推文0.668條

2018年:日均推文0.263條(截至5月24日)

也許這是因為吳恩達語出驚人的言論現在被社區更加嚴格地審查,如下面的推文所示:

動輒年薪 25 萬隻是白菜價的人工智能黃了?

很明顯公眾的情緒已經大幅減弱了,稱讚深度學習為終極算法的推文少了很多,論文的基調也由“變革”向“進化”轉變。繼 Alpha Go Zero 以來,DeepMind 再也沒有出過舉世震驚的新聞,而且如果考慮下 Alpha Go Zero 所需的巨大計算量以及只能應用於遊戲的侷限性,似乎它也並沒有那麼讓人激動。OpenAI 非常沉寂,上次他們在媒體上大放異彩是由於在 Dota 2 的遊戲中擊敗了人類選手(我以為這會像 Alpha Go 引起世界的轟動,但是這則消息轉瞬即逝了)。事實上,很多文章開始提出,就連 Google 都不知道該如何發展 DeepMind 了,因為 DeepMind 的結果在實踐顯然並沒有達到預期。而對於那些出色的研究人員,他們與加拿大和法國政府官員會晤,為的是保證他們將來的撥款,而 Yann Lecun 甚至卸任了 Facebook 人工智能研究負責人一職,轉而擔任 Facebook 人工智能首席科學家。從有錢的大公司到政府資助的研究機構的逐步轉變讓我意識到,這些公司(我指的是 Google 和 Facebook)對這種研究的熱潮實際上正在逐步消退。這些都是早期的徵兆,雖然未表於言辭,但是大家都心領神會了。

深度學習不具有擴展性

關於深度學習的一個關鍵的口號是它可以輕而易舉的擴展規模。2012 年 AlexNet 問世,它擁有將近 6000 萬個參數,現在我們的模型的參數不是至少是 AlexNet 的 1000 倍了吧?也許沒錯,但問題是這些模型的功能有 1000 倍嗎?或者,有 100 倍嗎?我們用 OpenAI 的一項研究來做說明:

動輒年薪 25 萬隻是白菜價的人工智能黃了?

圖:AlexNet 到 Alpha Go Zero:計算量提高了 30 萬倍

關於視覺方面的應用,我們看到 VGG 和 Resnets 在應用的計算資源增加一個數量級時趨於飽和(它們的參數數量其實還比較少)。Xception 是 Google 的 inception 架構的一個變種,它在 ImageNet 上的表現只比 inception 好一點點,實際上可能略微勝過所有其他模型,因為從根本上來說是 AlexNet 解決了 ImageNet 的問題,所以,如果投入 AlexNet 的 100 倍的計算力,我們基本上可以說視覺(準確來說是圖像分類)架構都將趨於飽和。所有大型網絡搜索引擎公司都在神經網絡機器翻譯上付出了巨大努力,為此他們投入了所有可用的計算資源。但即使如此,Google 翻譯依然做得很差(雖然很多人認為它比以前進步了很多)。上圖最右邊的三個點顯示了與強化機器學習有關的項目,Deepmind 和 OpenAI 開發的遊戲中運用了該技術。尤其是 AlphaGo Zero 和更為通用的 AlphaZero 使用了難以想象的計算力,但是大部分計算力都用來模擬和生成模型所需的海量數據,所以這種擴展在現實世界中毫無無用武之地。雖說現在我們無需花費幾天的時間,只需幾分鐘就可以訓練好 AlexNet,但是我們可以在幾天內訓練好 AlexNet 的 1000 倍的模型並得到相對較好的結果嗎?很顯然不能……

所以事實上,雖說上圖旨在演示深度學習具有良好的擴展性,而結果卻恰恰相反。我們無法簡單地擴大 AlexNet 的規模並獲得相對將好的結果,我們必須處理具體的架構,並且如果不能提升樣本數據的數量級(僅在模擬遊戲環境中才可行)的話,那麼額外的有效計算力也毫無意義。

自動駕駛的崩潰

到目前為止,對深度學習的名聲打擊最大的是自動駕駛汽車(我曾從事於自動駕駛很長時間)。最初大家以為,NVIDIA 大力推廣的端到端的深度學習能夠解決該問題。我覺得如今這個世界上已經沒人相信這個觀點了(但是也有可能是我錯了)。去年加利福尼亞車輛管理局的脫離報告顯示,NVIDIA 車輛每次脫離人工控制連 10 英里都行駛不了。我曾在另外一篇文章中討論過自動駕駛發展的總體情況,並與人類駕駛員的安全性進行了比較,結果都不太妙。自 2016 年以來,特斯拉的自動導航系統(AutoPilot)發生了多起事故,其中幾起事故還是致命的。雖說我們不應該將特斯拉的自動導航系統與自動駕駛車輛混為一談,但是至少它們的核心技術都是相同的。到目前為止,除了偶爾出現的嚴重錯誤以外,還常常發生在十字路口停不下來,無法識別紅綠燈,甚至無法繞環島正確行駛。到 2018 年 5 月,距離特斯拉承諾的無人駕駛車輛穿越美國行駛(這一承諾未能實施,但有傳聞說他們嘗試了 30 次脫離,終究未能成功,)已經過去好幾個月了。幾個月以前(2018年2月)當問及穿越美國行駛計劃時,埃隆·馬斯克反覆說:

“我們本來可以實現穿越美國行駛計劃,但這需要太多專門的代碼來有效實現,但是代碼太過具體又會讓系統太脆弱,只能在某條具體的路線上很好地行駛,但不是通用的解決方案。所以我認為我們可以重複行駛某條線路,但是如果無法找到對所有路線都通用的方法的話,就不能算是真的解決方案。”

“我對我們在神經網絡方面的進步感到非常激動。而且凡事都要經歷從量變到質變的過程,現在我們看不到進步,但是經過日積月累,終有一天驚喜會出現。我們的自動駕駛看起來是個很蹩腳的駕駛員,但是逐步會變成還不錯的駕駛員,而終有一天人們會驚喜地發現這個駕駛員好厲害。”

然而到目前為止,戳破 AI 泡沫的最大事件就是在亞利桑那州發生的 Uber 的自動駕駛導致行人死亡的事故。從 NTSB 的初步報告中我們可以看到一些令人震驚的情況:

根據從自動駕駛系統中獲得的數據,系統在碰撞發生大約 6 秒前就在雷達和 LIDAR 觀察系統中登記了行人,當時車輛速度為 43mph。隨著車輛和行人的接近,自動駕駛系統軟件將行人分類為不明物體,然後分類為車輛,再分類為可能會有不同路線的自行車。直到碰撞前 1.3 秒,自動駕駛系統才確定必須通過緊急剎車才能避免碰撞。據 Uber 說,當車輛處於電腦控制時,緊急剎車操作並不會被啟用,以減少不穩定的車輛行為的可能性。汽車依賴於駕駛員來干預並採取措施。而該系統中並沒有警告駕駛員的設計。

拋開報告中提到的一般系統設計上的失敗不說,在這種情形下該系統不是隻做邏輯判斷確保不會發生碰撞,而是需要長達數秒的時間來判斷前方物體究竟是什麼,是行人、自行車、車輛或其他。這其中有幾個原因:首先,人們總喜歡事後諸葛亮。所以大家經常說:“我看到一輛自行車,所以我向左打輪避開了他。”大量心理物理學文獻卻有完全不同的解釋:“人類在看到某樣東西時,神經系統的快速感知迴路將迅速將其解釋為障礙物,然後人就會採取迅速的行動來避免障礙物,幾秒鐘後才意識到發生的情形,並作出語言上的解釋。”日常生活中我們每天要做出大量的決定而沒有表述出來,而駕駛包含很多的這些決定。用語言表達的代價很大,而且耗時,現實無法提供足夠的時間。這些人類的身體機能通過十億年的進化,保障我們的安全,而現代才出現的駕駛利用了許多這樣的反射。既然這些反射並沒有為駕駛技術經歷專門的進化,所以可能會引發錯誤。車裡的一隻黃蜂可能引起駕駛員的膝跳反射,這可能會引起許多撞車和死亡事件。但是我們通常對三維空間、速度、預測能力、橫穿馬路的物體的理解是身體原始的技能,從一億年前至今這些原始技能對人類一直非常有幫助,並且在經歷了進化後更加靈敏。

但是由於大部分這些技能都無法用言辭表達,很難衡量,所以我們根本無法在這些方面上優化機器學習系統。現在用 NVIDIA 所倡導的端到端的方法,即從學習圖形到映射行動,跳過言辭表達,從某些方面來說這固然沒錯,但是問題在於輸入空間的維度異常高,但行動空間的維度卻非常低。因此相對於巨大的輸入信息量,“標籤”的“數量”非常小。在這種情況下,模型很容易學習到虛假的關係,例如深度學習中的對抗樣本就證明了這一點。因此,我們需要一個不同的範式,且前提條件是可以預測整個感知的輸入,而模型採取第一步是讓系統能夠從現實世界抽取語義,而不是虛假的相互關係。

事實上,如果非要說我們從如火如荼的深度學習中學到了什麼的話,那就是一萬維的圖像中包含了許多虛假的模式,而這些模式在許多圖像中都會出現,因此會給我們造成一種假象,那就是分類器似乎理解了它看到的圖像。而實際上真實情況遠非如此,該領域的許多頂尖的研究者在經過深入研究後承認了這一點。實際上,許多頂尖研究者應該不會對我的觀點感到驚訝。Yann Lecun 曾經警告,不要對 AI 感到過度興奮,而且 AI 的冬天即將來臨;甚至連當前流行的反向傳播算法之父 Geoffrey Hinton 都在一次談話中說過,有可能這一切都通向一條死路,而我們不得不重新開始。但在目前來看,媒體的大肆宣傳使得沒人願意聽這些言論,就算是 AI 之父的言論也沒人聽。

Gary Marcus 和他對宣傳的反抗

其實越是處於高層次的人,越能看出這種傲慢,並且有勇氣公開說出來。該領域最活躍的專家之一就是 Gary Marcus。儘管我並不同意他對 AI 的全部看法,但我們必須要承認,AI 還沒有媒體對於深度學習宣傳的那樣強大。實際上還差得很遠。Gary Marcus 有一篇精彩的博文和論文《深度學習:深刻的估計》(https://arxiv.org/abs/1801.00631)和《針對深度學習的懷疑論的回答》(https://medium.com/@GaryMarcus/in-defense-of-skepticism-about-deep-learning-6e8bfd5ae0f1)向人們說明這一點,在這兩篇文章中,他細心地解釋了深度學習的熱潮。我很尊敬 Gary,他的行為才是真正的科學家應有的行為,而許多所謂的“深度學習明星”的行為就像是個廉價的名人而已。

結論

預測 AI 的寒冬就像預測股市的崩盤一樣,雖然不可能預測它何時會發生,但幾乎可以肯定它一定會發生。就像在股市崩盤之前總會有各種各樣的信號,但媒體宣傳過於強大,以致很多人都會忽視這些信號,即使這些信號很明顯。在我看來,深度學習被大幅度冷落的信號已經相當明顯(或許也包括 AI,由於這個詞已經被各大企業的宣傳濫用了),只不過仍在不斷炒作的媒體們看不到而已。這個冬天將有多久?我不知道。之後會是什麼?我也不知道。但我很肯定,冬天一定會來臨,而且很可能會很快降臨。

動輒年薪 25 萬隻是白菜價的人工智能黃了?

AI 寒冬是否真的來臨?

針對此番看似過激的言論,很多人一時之間也摸不清頭腦,AI 領域的專家們也看法不一。身為文章中提及關鍵人物之一的 Facebook 首席科學家 Yann LeCun 看到這篇文章後,進行了否定,他表示:

這篇文章純屬無稽之談,Facebook、Google、Microsoft 以及其他公司正緊密地加強 AI 佈局。

Facebook 現在擁有一個專注於 AI 研究的團隊。

Microsoft 事業部有三個部門,其中兩個包含了“AI”名稱(並沒有提及“Windows”或“Office”)。

Google 將其整個研究院重命名為“Google AI”。

三家巨頭在大力地招聘 AI 科學家及工程師,並沒有看出減速現象。

動輒年薪 25 萬隻是白菜價的人工智能黃了?

國內,中科院院士譚鐵牛實力反擊 AI 寒冬言論,表示:人工智能的春天剛剛開始,未來十年,人工智能將是最具變革性的技術。今天,人工智能如日中天,火遍全球的當下,實事求是地設定科學目標顯得尤為重要。

此外,中國科學院自動化研究所工學博士、研究員劉成林表示,一個領域的起伏是很正常的事情,如今只是深度學習的紅利將逐漸用盡,但 AI 領域還有很多其他的方向,譬如感知、認知、學習、語言理解、機器人、混合智能、博弈等等。

動輒年薪 25 萬隻是白菜價的人工智能黃了?

AI 寒冬是否真的來臨?在此筆者想到丘吉爾曾說過,「你能看到多遠的過去,就能看到多遠的未來」,AI 在過去六十多年的發展歷程中,已經遭遇了兩次寒冬期,而近幾年隨著深度學習的成功運用才再次火熱,如今深度學習或許正在面臨瓶頸期,最終也只是將人工智能帶回平穩的道路上。所謂的寒冬論,也僅僅是一門技術的過渡期而已。對於此問題, Hacker News (https://news.ycombinator.com/item?id=17184054)上的網友們也表示:

  • 人工智能的冬天是普通大眾的期望與技術現狀之間產生的落差。在過去幾年間,普通公眾通過媒體的大肆報道並逐漸瞭解了人工智能技術,且知曉自動駕駛可以在路上正常運行、機器人可以各種演示......以上的種種進展,讓大眾產生一種人工智能可以做任何事情、甚至可以取代人工勞動的錯覺。而如今,深度學習有了瓶頸,大眾也知曉人工智能並不能達到預期的所有目標,所以由此產生了 AI 寒冬論。
  • 並不太確定 AI 寒冬是否真的已來臨。以前要是聽到“AI 寒冬”或許指的是人工智能已經到了低谷期,但如今人工智能已經獲得了很好的商業應用,或許此次正在經歷的是 Gartner 炒作循環週期。
  • 很高興看到這篇文章對深度學習持懷疑態度。但是我不認為 AI 寒冬來臨,現在看起來我們正處於炒作週期的高峰期。它會像 SVM 之前一樣扁平化。深度學習現在存在著足夠的計算能力來製作非常大的模型,但不幸的是,大型模型所需的訓練數據和計算能力的數量似乎超出了實際任務的實用性。

對此,你怎麼看呢?


分享到:


相關文章: