算法、硬件、框架,2019年AI何去何從?

當下的人工智能發展到了哪一步?未來又會怎樣發展?本文作者對過去幾年的 AI 發展進行了梳理總結,並對未來的 AI 發展進行了展望。

過去一年,關於人工智能的事件、發現和發展比比皆是。很難從這些嘈雜的環境裡分辨出關於 AI 的真實信號,即便可以,很多人也不知道那些信號表達的是什麼信息。因此,我將盡力提煉過去一年裡人工智能大環境中的一些模式來讓你明確這一點。甚至,我們會在不久的將來見證其中的一些趨勢。

孔子曾說:「知其不可而為之。」他真是個智者啊。
算法、硬件、框架,2019年AI何去何從?

你從圖中發現貓了嗎?

別誤會,本文只是一片評論類文章。我不會全面記錄 AI 2018 年的成就,只是概括其中一些趨勢。而且我的描述是圍繞美國展開的,因為我不太瞭解其他國家發生的事,比如中國。本文的目標讀者包括工程師、企業家以及技術支持者。

算法

算法篇主要由深度神經網絡主導。當然,你也會零零落落地聽到有人部署了「經典的」機器學習模型(如梯度提升樹或者多臂老虎機),並且聲稱這是每個人唯一需要的東西。也有一些質疑說深度學習正在做瀕死掙扎。甚至還有頂尖的研究者也在質疑一些深度神經網絡架構的有效性和魯棒性。但是,無論你喜不喜歡,深度神經網絡無處不在:在自動駕駛中,自然語言處理系統中,機器人中——你可以這麼說。深度神經網絡中沒有能夠與自然語言處理、生成對抗網絡以及深度強化學習匹敵的進展。

深度 NLP:BERT 等

雖然在 2018 年之前就有一些突破性研究將深度神經網絡用於文本(如 word2vec,GLOVE 和基於LSTM 的模型),但它們忽略了一個關鍵的概念:遷移學習。即在大規模的公開數據集上訓練好一個模型,然後在你正在使用的數據集上對其進行「微調」。在計算機視覺中,用著名的 ImageNet 數據集上發現的模式來解決特定問題通常是解決方案的一部分。

問題在於,用於遷移學習的技術並不真正適用於自然語言處理問題。從某種意義上講,像 word2vec 這樣預訓練的嵌入就起了這個作用,但是它們只在單個詞彙上起作用,並不能捕獲到語言的高級結構。

然而,在 2018 年,情況有所改變。語境化嵌入 ELMo 成為了自然語言處理中改進遷移學習的重要第一步。ULMFiT 則更進一步:不滿意嵌入的語義捕獲能力,它的作者提出了為整個模型進行遷移學習的方法。

算法、硬件、框架,2019年AI何去何從?

但是最有趣的進展肯定是 BERT 的引入。通過讓語言模型從英文維基百科的所有文章集合中學習,BERT 團隊在 11 項自然語言處理任務中達到了當前最先進的結果——了不起!而且,BERT 的代碼和預訓練模型都發布在網上了——所以你可以將這項突破用於自己的問題中。

GAN 的很多方面

算法、硬件、框架,2019年AI何去何從?

CPU 的速度不再呈指數增長了,但是關於生成對抗網絡的學術論文卻在持續增加。生成對抗網絡一直是學術界的寵兒。儘管它的實際應用似乎很少,並且在 2018 年也鮮有變化。但是生成對抗網絡還是有著待實現的驚人潛力。

出現了一種新的方法,就是逐步增加生成對抗網絡:讓生成器在整個訓練過程中持續增加輸出的分辨率。使用該方法的一篇更加令人印象深刻的論文是使用風格遷移技術來生成逼真的照片。請告訴我,下面的這些照片有多逼真?

算法、硬件、框架,2019年AI何去何從?

這些照片中哪張是真人?答案是一張都沒有。

GAN 是如何工作的呢?為何 GAN 會起作用?我們目前還沒有深入的瞭解,但是已經有人邁出了重要的步伐:MIT 的一個團隊對這個問題做了高質量的研究。

另一個有趣的進展就是 Adversarial Patch。雖然技術上來說它不是 GAN,但它使用黑盒(基本來說,就是不看神經網絡的內部狀態)和白盒的方法來製作一個「補丁」,這個補丁能夠欺騙基於卷積神經網絡的分類器。這是一個重要的結果:它能讓我們更好地理解深度神經網絡的工作原理,以及認識到我們距離實現具有人類感知級別的 AI 還有多遠。

算法、硬件、框架,2019年AI何去何從?

你很容易分清楚烤麵包機和香蕉,但人工智能還不行。

我們需要強化

自從 AlphaGo 在 2016 年戰勝李世石之後,強化學習就成了一個熱點。人工智能已經主宰了最後的「經典」遊戲,還有什麼可讓它來征服呢?也許,剩下的其它所有遊戲!

在訓練的時候,強化學習依靠的是「激勵」信號,這是對它上一次嘗試動作的打分。與現實生活相反,計算機遊戲提供了一個自然的環境,其中這種信號很容易獲得。因此強化學習研究者把所有的注意力都給了教人工智能如何玩雅達利遊戲上。

談到 DeepMind,他們的新創造 AlphaStar 又製造了一個大新聞。這個新模型擊敗了一名星際爭霸 II 的頂級玩家。星際爭霸比圍棋和象棋複雜得多,與絕大多數棋類遊戲不同,它有巨大的動作空間和隱藏在玩家身上的重要信息。這場勝利對整個領域而言都是一次巨大的飛躍。

強化學習領域的另一個重量級玩家 OpenAI也沒閒著。他們的系統 OpenAI Five 在 8 月擊敗了一個領先 99.95% 玩家的 Dota 2 團隊,一戰成名,要知道 Dota 2 是一款非常複雜的電子遊戲。

雖然 OpenAI 花了這麼多注意力在電子遊戲上,但他們並沒忽略強化學習的一個潛在的實際應用:機器人。在現實世界中,人給予機器人的反饋非常稀少,並且創造這種反饋也很昂貴:你需要人來照看你的 R2D2,不過 OpenAI 也在嘗試著邁出第一步。你會需要上百萬的數據點。為了彌補這種差距,最新的一種趨勢是在把機器人放到真實世界之前,先學習模擬一個環境然後並行運行大量場景來教機器人學習一些基本技巧。OpenAI 和谷歌都在使用這種方法。

重大突破:Deepfakes

Deepfakes 是一些圖片或者視頻,上面顯示某公眾人物說一些從未說過的話或者做一些從未做過的事。它們是通過在大量的鏡頭數據上針對某個目標人物訓練一個 GAN 來創建的,然後使用期望的動作來生成新的媒體文件。2018 年 1 月發佈的一款桌面應用 FakeApp 允許任何一個不具備計算機科學知識的人只需要一臺電腦就可以創建 deepfakes。儘管很容易發現它生成的視頻是假的,但這項技術已經走得很遠了。

基礎框架

TensorFlow vs Pytorch

我們已經有很多深度學習框架了。這個領域很廣闊,這種多樣性在表面看來也是說得通的。但實際上,最近大多數人不是使用 TensorFlow 就是在使用 Pytorch。如果你和 SRE 工程師(網站可靠性工程師)一樣,關心的是可靠性、易於部署以及模型的重載,那你很有可能會選擇 TensorFlow。如果你在寫研究論文,並且沒有在 Google 工作——你很有可能使用 PyTorch。

機器學習:一種隨處可見的服務

過去一年裡,我們見證了更多的人工智能解決方案被打包成 API,供沒有斯坦福大學機器學習博士學位的軟件工程師使用。Google Cloud 和 Azure 都已經改進了舊服務並添加了新服務。AWS 機器學習服務列表也開始看起來有點嚇人了。

算法、硬件、框架,2019年AI何去何從?

AWS 很快就需要 2 級層次結構來展示它們的服務了。

儘管這種狂熱已經冷卻了一點點,但是多家初創公司已經開始放手一搏了。大家都在承諾模型訓練的速度、調用過程的易用性以及驚人的性能。僅需要輸入你的信用卡賬號,上傳你的數據,給模型一些訓練或者微調的時間,調用一下 REST(或者,對於更具前瞻性的初創公司而言是 GraphQL 類型)API,你就可以在不用弄清楚到底發生了什麼的情況下成為人工智能的主人。

既然已經有這麼多的選擇,為啥還會有人煞費苦心地自己去創建一個模型和基礎框架呢?事實上,貌似拿來即用的 MLaaS 產品在 80% 的情況中是可以很好地工作的。而剩下 20% 的情況則沒那麼好運了:你非但無法實際選擇模型,甚至連超參數都不能控制。或者你需要在雲端之外進行推理,通常也是做不到的。

重大突破:AutoML 和 AI Hub

2018 年推出的兩款非常有趣的服務都是由 Google 發佈的。

第一個,Google Cloud 的 AutOML 是一個定製的自然語言處理和計算機視覺模型訓練產品的集合。這意味著什麼呢?AutoML 的設計者通過自動微調幾個預訓練模型就能進行模型定製化,然後選擇一個性能最好的。這意味著你不再需要因為自己定製模型而煩惱。當然,如果你想做一些真的新穎和與眾不同的事情,他們的服務並不適合你。但是,作為一個附帶的好處,Google 在大量的專有數據上預訓練了他們的模型。想一下那些貓的圖片;那些肯定要比僅僅使用 ImageNet 的泛化性能更好。

第二個是 AI Hub 和 TensorFlow Hub。在這兩個之前,重用別人的模型真的是很繁瑣的事情。GitHub 上隨機找到的代碼很少有能用的,沒有很好的文檔,通常不好處理。還有為了遷移學習而預訓練的權重....... 可能你根本不想做這些。這正是開發 TF Hub 所要解決的問題:它是一個可靠的、精選的倉庫,包含了你可以在進行微調或基於它們進行構建的模型。僅需要包含幾行代碼和 TF Hub 客戶端,你就可以從 Google 服務器上獲取代碼和對應的權重。AI Hub 則更進一步:它允許你分享整個機器學習流程,而不僅僅是模型!儘管它還是一個預覽版本,但是早已比某個最新文件是「三年前修改的」隨機倉庫好多了。

硬件

Nvidia 英偉達

如果 2018 年你認真學了機器學習,尤其是深度神經網絡,那麼你可能會使用一個或多個 GPU。相對來說,GPU 的領先生產商則度過了忙碌的一年。隨著數字加密狂潮的冷卻和緊接其後的股市暴跌,英偉達發佈了基於圖靈架構的全新一代消費級顯卡。與發佈於 2017 年的基於 Volta 芯片的顯卡相比,新卡包含被稱之為張量核心(Tensor Cores)的新高速矩陣乘法硬件。矩陣乘法是深度神經網絡運算的核心,所以加速這些運算能夠很大程度地加速神經網絡在新一代 GPU 上的訓練。

英偉達為那些不滿於「小」而「慢」的遊戲級顯卡的用戶升級了他們的企業級「超級計算機」。DGX-2 是一個擁有 16 塊 Tesla V 卡的魔法盒,它支持 FP16 的 480 TFLOPs 運算。當然價格也升級了,真的是令人印象深刻,40 萬美元。

自動硬件也進行了升級。Jetson AGX Xavier 是一款英偉達希望能夠推動下一代自動駕駛技術的板級模塊。具有 8 個內核的 CPU、視覺加速器、深度學習加速器——所有這一切都是日益增長的自動駕駛行業所需要的。

在一次有趣的發展中,英偉達發佈了為他們的遊戲卡設計的基於深度神經網絡的功能:深度學習超採樣(Deep Learning Super Sampling)。這個思想是為了代替抗鋸齒的圖像保真功能,這一功能一般是通過將一張圖片渲染到比真正需要的分辨率(比如 4k)還要高的分辨率,然後再縮放到本機顯示器的分辨率來完成的。現在英偉達允許開發者在發佈遊戲之前以極高的質量在運行的遊戲上訓練圖像轉換模型。然後,將遊戲與預訓練的模型一起發送給終端用戶。在一次遊戲會話中,並不存在舊式的抗鋸齒消耗,圖像幀運行在那個模型中來提高畫質。

英特爾

英特爾確實不是 2018 年人工智能硬件世界的先驅。但是它似乎想改變這一點。

令人驚訝的是,英特爾的絕大多數活動發生在軟件領域內。英特爾在努力使他們現有的以及即將問世的硬件變得對開發者更加友好。基於這個精神,他們發佈了一對(令人驚訝而有競爭力的)工具包:OpenVINO 和 nGraph。

他們升級了神經計算棒:這是一個小型 USB 設備,它可以用一個 USB 端口加速運行在任何設備上的深度神經網絡,甚至是在樹莓派上。

關於英特爾獨立 GPU 的傳言越來越多。雖然八卦愈演愈烈,但是新設備在深度神經網絡訓練上的可用性還有待觀察。而傳聞中的專用深度學習卡是確定可用的,代號分別是 Spring Hill 和 Spring Crest,後者是基於 Nervana 的技術開發的,這是英特爾早在幾年前收購的一家初創公司。

尋常和不尋常的定製硬件

Google 發佈了第三代 TPU:基於 ASIC 的深度神經網絡專用加速器,具有 128Gb 的超大存儲空間。256 塊這種設備被組裝到一個 pod 容器中,最終達到了超過 100 petaflops 的性能。這一年,Google 不僅將這些設備的力量大秀於世界,它還讓 TPU 在 Google Cloud 上普遍公開。

Amazon 以一種類似但不是直接面向最終應用的動作部署了 AWS Inferentia(亞馬遜推理芯片):這是一個在生產中更低廉、更有效的運行模型的方式。

算法、硬件、框架,2019年AI何去何從?


Google 還發布了 Edge TPU:它是我們上面討論過的大卡的小兄弟。這款芯片體積很小:一個 1 美分硬幣的表面可以放 10 張 Edge TPU。同時,可以用它進行實時的視頻分析,幾乎不耗能量。

一個有趣的潛在新入者是 Graphcore。這家英國公司完成了 3.1 億美元的融資,並且在 2018 年發佈了他們的第一款產品——GC2 芯片。基準測試顯示,GC2 在顯著的更低功耗下擊敗了英偉達的服務器 GPU。

重大突破:AWS Deep Racer

Amazon 發佈了一款小型無人駕駛汽車 DeepRacer 及其聯盟,雖然始料未及,但是也從某種程度上反映了他們之前的 DeepLens。400 美元就可以配備 Atom 處理器,4MP 的相機,WiFi,幾個 USB 藉口,以及足以運行數小時的電源。自動駕駛模型可以在雲端使用 3D 模擬環境進行訓練,然後直接部署到車內。如果你一直夢想著構建自己的自動駕駛車汽車,這就是一次機會,你不用啟動一個有風投支持的公司就能做這件事。

接下來是什麼?

將注意力轉移到決策智能上

算法、基礎框架、硬件相關的部分已經涉及到了——為了讓 AI 比以往任何時候更有用,業界開始意識到,讓 AI 開始應用的最大阻礙在實用方面:你如何在生產中將 AI 從一個想法變成有效、安全、可靠的系統?應用 AI,或者應用機器學習,也被稱作決策智能,它是在現實世界中創造 AI 解決方案的科學。儘管過去人們已經將很多注意力放在算法背後的科學上面,但是未來很可能會將同等的注意力放在領域內的端到端應用方面。

相比被它毀掉的工作崗位,AI 似乎在創造更多的工作

「AI 將會替代我們所有的工作」,這是媒體老生常談的論調,也是廣大白領和藍領共同的擔憂。並且,從表面來看,這似乎是有道理的。但是到目前為止,它的反面似乎才是事實。例如,很多人都在通過創建標記數據集而獲得報酬。

它超越了低收入國家的普通數據承包商:一些 app,例如 LevelApp,它可以讓難民在自己的手機上標記數據來掙錢。Harmoni 則更進一步,他們甚至提供了設備來讓難民營的移民工作以謀生計。

在數據標記的頂層,整個行業都是通過新的 AI 技術來創建的。我們可以做那些數年之前都想不到的事情,就像自動駕駛或者醫藥發現一樣。

與機器學習更加相關的計算將發生在邊緣

數據導向的系統,其工作方式是,更多的數據通常是在系統中非常邊緣的地方,在輸入側。流程中靠後的階段通常都在做下采樣或者以其它方式來減少信號的保真度。另一方面,越來越複雜的 AI 模型正在藉助更多的數據獲得更好的性能。讓 AI 組件更靠近數據的邊緣是不是很有意義?

一個簡單的例子:想象一下能夠產生 30fps 的高質量視頻的高分辨率相機。處理這些視頻的計算機視覺模型運行在服務器上。相機將視頻流式傳輸到服務器,但是上行鏈路的帶寬是有限的,所以視頻被做了高度壓縮。為什麼不將視覺模型放在相機上,讓它來處理原始視頻呢?

做這件事總是面臨著多個障礙,主要是:邊緣設備上可用的計算力和管理的複雜性(例如在邊緣更新模型)。專用硬件(例如 Google 的 Edge TPU,蘋果的 Neural Engine 等等)、更高效的模型和優化算法的出現讓計算力的限制不再是問題。管理的複雜性也在通過機器學習框架和工具在不斷地解決。

整合 AI 基礎框架的空間

前幾年滿是與 AI 基礎設施相關的活動:盛大的宣言、豐厚的資金回合以及高尚的承諾。在 2018 年,這個空間的競賽冷卻下來了,儘管仍然有新入場的,但是絕大多數貢獻都是由現有的大玩家做出的。

其中一個可能的解釋或許就是:我們對理想的人工智能系統是什麼樣子還不夠理解。因為問題是複雜的,所以這將會需要長期、持久、專注、資源充足的努力來產生可行的解決方案——這是初創公司和小公司不擅長的事情。如果一家初創公司出其不意地「解決」了 AI 基礎設施的問題,這將會是極其驚人的事情。

另一方面,機器學習基礎框架工程師是特別稀缺的。一個擁有幾個這種員工的苦苦掙扎的初創公司會成為更大玩家的珍貴收購目標。至少有幾個玩家在參與這場競賽,開發內部和外部的工具。例如,對 AWS 和 Google Cloud 而言,AI 基礎設施服務成為了一個主要的賣點。

將它們放在一起,做一個主要的整合成為了一個合理的預測。

更加定製化的硬件

摩爾定律已經失效了,至少對 CPU 是失效了,而且已經很多年了。GPU 很快也會面臨相似的命運。儘管我們的模型變得越來越有效,但是為了解決某些更加高級的問題,我們將會需要有更多的計算力。這個可以通過分佈式訓練來解決,但是它也會有自己的侷限性和權衡。

此外,如果你想在資源有限的設備上運行更大的模型,分佈式訓練是沒有幫助的。進入到定製化 AI 加速器時代,根據你想要的或者能夠達到的定製化需求,你可以節省一個數量級的功率、成本或者延遲。

從某種程度來說,英偉達的 Tensor Core 就是這種趨勢的一個例子。以後我們會看到更多這種硬件,而不是通用硬件。

對訓練數據更少的依賴

有標籤的數據通常都是既昂貴又不可訪問的。這條規則下很少有例外。像 MNIST、ImageNet、COCO、Netflix prize 和 IMDB reviews 這種開放的高質量數據集並不多見。但是很多問題都沒有對應的數據集可供使用。儘管對於研究人員而言,構建數據集並不是偉大的職業發展方向,但是那些可以贊助或者發佈數據集的大公司卻並不著急:他們正在構建龐大的數據集,但卻讓這一切都不露聲色。

所以,像初創公司或者大學的研究團隊一樣比較小的獨立個體如何來解決這種難題呢?開發越來越少依賴監督信號和越來越多依賴無標籤和非結構化數據的系統——這得益於互聯網和廉價傳感器的普及。

這從某種程度上解釋了人們對 GAN、遷移學習和強化學習興趣的增長:所有的這些技術都是不需要或者需要較少的訓練數據投資。

所以這一切全都是泡沫嗎?

所以那個黑屋裡有沒有貓呢?我認為肯定是有的,而且不是一隻,而是很多隻。雖然有一些是正常的貓,具有四條腿、尾巴和鬍鬚,而但有些則是奇怪的動物,我們才開始看到它們的基本輪廓而已。

這個行業已經進入了第七個人工智能的「夏天」。這些年來,很多的研究精力、學術資助、風險投資、媒體關注、代碼都湧入這個領域。但是人們有理由指出,大部分人工智能的承諾仍然沒有實現。他們上一次的 Uber 乘車背後仍然有一個人類駕駛員。仍然沒有機器人在早上幫助我們做雞蛋。我甚至不得不自己繫鞋帶,暴風哭泣!

然而,不計其數的研究生和軟件工程師的努力並非徒勞。似乎每家大公司都已經嚴重依賴於人工智能,或者有未來的相關計劃。AI 藝術品也開始出售。雖然自動駕駛汽車尚未出現在這裡,但他們很快就會出現。


分享到:


相關文章: