幹掉英偉達?

幹掉英偉達?


黃仁勳在2019年12月一場媒體溝通會上,二話不說拿起話筒朝頭頂狠狠敲了好幾下。對了,巨大的迴音可以證明他是用力砸的。

這個略顯可愛的舉動和他接下來的話,讓包括我在內的全部記者都笑出聲來:

“完了,聽到這個問題,我在臺上滴水未進,嗓子冒煙的兩個小時算是白費了。”

英偉達這次為何沒發芯片?

這樣理解其實也沒錯。2019年末,當“英特爾們”每隔幾天就通過收購、發佈新產品等方式,向外界360度無死角“吹風”自己的AI芯片戰略時,所有人都在等著英偉達如何在自己的GTC技術大會上,“回應”向自己挑釁的各路人馬。

然而,這場會上,除了一塊名為Orin的自動駕駛專用芯片,這家全球最具價值的人工智能芯片巨頭髮布的產品全都是“軟件”。而且Orin,還要等到2022年才會投產。

這場會議,完美契合了他在2019年Q3季度財報業績電話會議上的一個重要觀點——

“英偉達已經成為了一家軟件公司。”

這家“軟件公司”,在2020年2月中旬公佈了2020財年第四季財報後,市值一度摸高至接近2000億美元,創了歷史新高。儘管現在已回落至1600多億美元,但過去兩年,英偉達(NASDAQ:NVDA)毫無疑問是華爾街上傳奇般的“金股”。隨著市場對數據中心越來越強勁的需求,英偉達跟新舊芯片玩家之間的戰爭,註定將越發血腥。

它崛起背後是什麼樣的技術動能、巨頭爭奪?它的未來,又暗示著什麼樣的巨大市場?

無可比擬的軟件優勢

由於英偉達越來越多地“露骨”地開始利用其軟件實力來銷售那些看上去只是硬件的產品,因此我們有理由相信,這家芯片公司已經開始奉行“軟件第一”戰略。

這很容易讓人想起蘋果公司的發展路徑,以及2007年那個已經被傳爛了的喬布斯“軟件梗”——

在第5屆全數字化大會(All Things Digital conference)上,喬布斯曾與比爾·蓋茨談話時指出,iPhone其實是包在一個漂亮外殼下的軟件,蘋果是一家軟件公司。

股票分析網站Seeking Alpha 證券投資分析師DoctoRx證實過另一個相似故事——

也是在2007年,喬布斯在一場關於iPhone的路演上,被一位投資經理提出質疑:

“雖然你把觸摸屏做的很酷炫,但如何避免陷入價格競爭呢?難道不是每個競爭對手都能做觸摸屏? ”

喬布斯回覆:“我們是一家軟件公司。”

讓我們再回到英偉達身上。如果按照這樣一個思路,那麼就可以很好解釋:為何在近三年來AI芯片市場烽火瀰漫,英偉達每年在數十份AI芯片公司的PPT裡被“吊打”的“壓倒性劣勢”中,股價還能穩步走高了。

就像大家很容易遺忘在iPhone發佈前,蘋果已經在電腦上做了十幾年操作系統一樣;AI芯片公司們也忘記英偉達是一家顯卡供應商的同時,手裡還握著另一個殺器:Cuda。

幹掉英偉達?

在上世紀90年幾乎左右了芯片產業發展方向的英特爾傳奇總裁安迪·格魯夫,有一個逼自己一定要遵守的產業規則:“在這個行業裡,要想預見十年後會發生什麼,就要回顧過去十年中發生的事情。”

對於英偉達如今在人工智能訓練芯片市場確立的壟斷性地位,某種程度上也要歸功於十年前英偉達首席科學家戴維·柯克一系列在當時看來風險極高的瘋狂決策。

一方面,他竭盡全力勸服CEO黃仁勳把GPU通用化——讓一塊只能渲染圖形的獨立顯卡,變成一個通用計算圖形處理器(GPGPU);另一方面強烈要求英偉達現有與即將推出的所有GPU都必須支持Cuda程序。

據自動駕駛公司文遠之行技術總監鍾華回憶,十幾年前還在卡內基梅隆唸書時,那個時候給GPU編程需要用機器碼深入到顯卡內核才能完成任務,非常困難。

“我們用匯編語言寫代碼,寫起來真的非常燒腦。英偉達推出了Cuda以後,相當於把複雜的顯卡編程包裝成了一個簡單的接口,造福了廣大程序員。現在主流的深度學習框架基本都是基於Cuda進行GPU並行加速。”

2007年,英偉達正式推出GPU統一計算架構平臺Cuda。這一架構的里程碑意義在於,讓GPU不再單獨存在於個人用戶的顯卡中,僅為自己的“一畝三分地”工作;而是讓GPU通用化,把“個人計算機”變成可以並行運算的“超級計算機”。

雖然初期推廣並不順利,但2009年,由於基於Cuda的高性能運算研究成果陸續在眾多知名期刊發表並獲得認可,英偉達終於迎來了業務轉機,並奠定了之後10年的AI芯片市場絕對霸主地位,為業界提供了強大的並行運算能力。

“Cuda是當時已經瀕臨破產的英偉達再度崛起不可忽視的推動力。” 高精地圖公司極奧科技CTO通過歷史上一系列相似產品的發展路徑總結出一個經驗——給硬件找到簡單易用的軟件接口形態,才能在市場中迅速被接受並推廣至各個細分領域。

2019年,“Cuda之父”柯克博士被美國電氣和電子工程師協會(IEEE)授予了協會最高獎項Seymour Cray 計算機工程獎,以表彰他對高性能計算機系統創新的巨大貢獻。

如今我們可以看到,英偉達已經在Cuda基礎上開發和積累了針對不同領域的大量算法與軟件,讓數不清的開發者不用寫一行代碼,就能先讓一套深度學習基礎模型跑起來,站在巨人的肩膀上升級與優化軟件堆棧。

幹掉英偉達?

Cuda構建的強大生態,支持所有主流深度學習框架,支持主流雲上機器學習訓練平臺

因此,對於許多AI芯片創業公司,如果可以支持的深度學習框架都不全,能夠對接的編程語言也有限,也就無法對許多那些已習慣了從基於Cuda的算法庫上傳和下載算法、通過Cuda架構使用英偉達跨代產品的開發者,產生足夠的吸引力。

這相當於,當你面對眼前的一堆沙子思考如何設計一堵牆時,對手的護城牆不僅已高達數十丈,還廣招兼職砌牆工,併為他們提供雲梯和入城資格。

“國內很多自動駕駛公司,用的是英偉達PX2片上系統,這個架構最大的好處是方便。

“譬如直接就能把車道線識別,障礙物識別都搭建起來,因為相關算法都可以在網上下載完並進行快速部署,而且還能做配套的硬件加速。而這些算法,也是之前開發者上傳的訓練模型。”

一位不具姓名的自動駕駛技術人士做如上表示。他稱,國內不少人工智能公司就是搭了英偉達的便車發展起來的:“所以你看,英偉達一下子佔領了兩塊兒,一塊兒是訓練端,一塊兒應用端。短期內,不可能有人撼動他們的地位。”

下一個十年的支撐點

2020年2月,美國財經網站MarketWatch用“華爾街為之震驚”,來形容英偉達2020財年Q4財報上數據中心板塊的強勢表現——

英偉達的芯片銷售額達到創紀錄的9.68億美元。

這的確是一個令人瞠目結舌的數字。要知道,2017財年英偉達剛披露這一業務數據時,收入為2.8億美元;此後,英偉達的服務器芯片歷史銷售數據歷經跌宕起伏,但最好成績也從未超過8億美元。

因此,這個數字可以直接向我們證明:數據中心,特別是超大型數據中心對人工智能芯片的需求不僅沒有放緩,反而在加速擴張。

從2017年Q4到2020年Q4英偉達各個業務板塊的收入變化。圖片來自商業定量分析機構Business Quant

實際上,GTC大會有一點被很多人忽視了。老黃髮布產品的順序,與產品對應細分市場在英偉達財報中佔據的份額,一直呈現正相關關係。

先是遊戲,再是雲計算應用、最後是自動駕駛(汽車)。

根據英偉達最新的2020財年Q4財報數據,”遊戲“仍然是多年來英偉達的營收支柱板塊,收入高達14.9億美元,約佔總營收的47%;

而增長強勁的數據中心板塊,如今已經躍升為英偉達最具有市場拓展潛力的業務分支。收入同比增長43%,逼近10億美元大關;

通常放在財報電話會議上最後說的,是包含了車載信息娛樂與自動駕駛解決方案的汽車業務相關收入。這一部分看似表現平平,只有1.63億美元,同比增長1%,卻是一個不可忽視的長線市場。

這三個板塊,更像是對應了英偉達的“過去”、“現在”和“未來”。

雖然“遊戲”是圖像處理與滿足神經網絡計算的應用與創新源頭,也是英偉達必須守住的老本行。

但趨於飽和、不斷被移動端擠壓的PC遊戲市場,遠沒有新興市場帶給英偉達的誘惑力更大。

根據遊戲市場研究機構Peddie Research的最新數據,過去近5年裡,英偉達在PC獨立顯卡市場,一直佔據著70%以上的市場份額,特別是其Geforce系列顯卡,極受遊戲與挖礦產業的歡迎。

不過,整個PC GPU市場,英特爾才是老大。

幹掉英偉達?


再從遊戲整體市場來看,英偉達的GPU產品並不佔據明顯優勢。特別是主機與移動遊戲的GPU市場,英偉達常年分別被AMD與ARM壓一頭。

換句話說,PC遊戲市場在某種程度上決定了英偉達遊戲業務的增長速度。

對於2019及未來3年的全球遊戲市場發展趨勢,遊戲與電競市場分析平臺NewZoo給出了一個可參考的判斷——

在2019年全球遊戲市值將達到1488億美元的基礎上,移動遊戲佔比高達46%;與之相比,單機遊戲與PC遊戲市場份額分別為453億與353億,兩者加起來佔比僅為23.3%。

到2022年,從PC端向移動端轉移的趨勢將愈加明顯,PC市場遊戲份額將被擠壓至20%以下,而且收入的增長速度將慢於移動和主機遊戲收入的增長速度。

這多少會對英偉達的遊戲業務產生影響。

此外,從英偉達2020全財年的遊戲收入來看,55.2億美元的營收額已經比去年減少了近12%。

幹掉英偉達?


實際上,幾乎所有華爾街分析師近年來給予英偉達股票高評級的理由,都是“對這家公司在數據中心市場的增長潛力抱有積極態度”。

雲,才是人工智能發展的重心,也是英偉達的下一個野心。

對於所有神經網絡算法模型來說,訓練一般都要在雲上進行。因此,這對計算能力、速度以及單位數據傳輸量有著極高的要求。

特別是由大量神經元組成的深度學習框架,是建立在“矩陣運算”的基礎上。雖然“矩陣”的運算形式是簡單的加法與乘法,但涉及的數據量非常龐大。

與擅長複雜邏輯運算、但核心數較少的CPU相比,GPU雖然只能進行簡單運算,但它是由成千上萬個小處理器核心構成的,而且這些小核心可以同時處理任務。

這就好比我想把牆角的幾百塊磚頭挪走,比起僱傭幾個大學教授,僱傭100個小學生不僅效率更高,而且更划算。

因此,如果只是進行圖片分類,在GPU上計算出答案的速度可能只比在CPU的速度要快上一兩秒;但當神經網絡在進行訓練時,GPUs在“並行計算”上的優勢就會十分明顯,因為訓練時需要進行數百萬次的反向傳播迭代。

2019年年底的GTC上,英偉達與阿里、百度等中國企業的高調合作,進一步凸現了GPU在雲端人工智能算法訓練中扮演的重要角色—— “搜索的時代已經結束,智能推薦的時代已經到來。”

幹掉英偉達?


對於普通消費者來說,GPU對深度學習推薦模型的貢獻其實不難理解。

打開手機淘寶,“有好貨”,“每日好店”,“猜你喜歡”……都是深度學習推薦模型在根據你瀏覽及購買數據,挑出與你喜好相匹配的商品。而這些推薦模型,建立在十億級商品與用戶數據集之上。

此外,抖音以及快手中的推薦系統,也有著過千萬的視頻上傳量與過億用戶的數據基礎。

而英偉達的Tesla T4 、V100等處理器與配套加速軟件,發揮的主要作用, 便是為基於億級數據的推薦算法模型訓練進行資源分配、量化與加速。

這些相關應用,便是數據中心市場引發的新一輪硬件部署潛在增長趨勢。

如果說上一個10年中的數據中心芯片市場急劇擴張,主要取決於2B客戶對機房內部基礎硬件的瘋狂採購;那麼新一輪增長動力,則來自於數據中心需要處理的越來越複雜的推理計算工作

如今在數據中心市場,Tesla系列毫無疑問是AI加速方面的主流處理器,用阿里雲某工程師的話來說就是:“你當然也可以用CPU去訓練,但是解1路視頻就要耗掉一塊CPU,但卻只會消耗GPU的一部分帶寬。”

雲產業調研機構Liftr Cloud Insights在2019年做出一個估算:截至2019年5月,全球排名前四的公有云服務商,部署有英偉達專用AI加速器的IaaS計算實例類型,就高達97.4%。

很明顯,儘管英特爾與AMD等競爭對手在這方面的動作不容小覷,但在未來3~5年內,但他們的GPU解決方案不太可能大幅削減英偉達在數據中心AI加速器領域的市場。

來自傳統巨頭的撕咬

歷史證明,芯片企業是永遠不可能睡上安穩覺的。

20世紀80年代,在日本存儲芯片廠商強大的低價攻勢下,英特爾曾徘徊在垂死邊緣,最後孤注一擲,決然放棄存儲芯片市場;

2006年,AMD收購了英偉達在顯示芯片市場的最大敵人ATI。但這筆收購費太貴,外加在與英特爾的長期價格戰中耗費大量資金,AMD此後10年,再無爭奪行業老大的任何機會與條件;

而說到英偉達,2009年則是決定它命運的一年。

在英偉達的Cuda還沒有被業內廣泛採納的不到1年時間裡,由於推出的高端筆記本獨立顯卡出現了一系列質量問題,英特爾與AMD又趁機“火上澆油”,英偉達股價由最高時的30多美元,跌至6美元左右。

“每次有困難的季度出現,就會有人想順勢搞砸一切。但為了在未來某個節點做出偉大的成就,你就必須在今天承擔風險。”

黃仁勳說出這句話的時候,正是10年前股票跌至最低點,整個公司處於十字路口的關鍵時刻。

但他隨後便做出了選擇——

裁員以削減成本,延長回購股票計劃,在GPU處理器和配套軟件上面砸更多的錢,集中精力“籠絡”流媒體公司、遊戲玩家,以及那時還為數不多,但要求卻最為苛刻的科學家與AI工程師。

如此這般若干年後,英偉達迎來當下的黃金年代。

但哪有一勞永逸可言。一路搏鬥、一旦選錯方向就永無翻身之日的芯片公司們,最不缺的就是危機感,以及總想趁機踩一腳的競爭對手。

因此,在利潤豐厚,且仍然是一片藍海的數據中心AI芯片市場,無論是敵人還是客戶,你能想到的一切企業,基本都可以對英偉達構成生存威脅:

  • 英特爾、AMD、高通、ARM、三星、英飛凌等半導體制造商們;
  • 運營著超大數據中心,急切需要多樣化AI芯片組技術的亞馬遜、微軟、谷歌、阿里以及IBM等雲服務廠商們;
  • 以及如今看起來還不成氣候,但卻數量驚人的創業公司們。
幹掉英偉達?

我們需要清楚地認識到,英特爾一直佔據著數據中心服務器CPU市場90%以上的市場份額,即便這個細分市場被2017年重回數據中心陣地的AMD蠶食掉4.5%。

當然,也正是因為遍佈世界的數據中心塞滿了至強X86處理器,英特爾2019年Q3財報上的數據中心板塊才取得了有史以來最好看的業績——95億美金,佔總營收的半壁江山。

但是,雲端AI加速器市場,卻可能是英特爾有史以來首次失去主導者地位的領域。這家全球最具影響力的芯片企業,不僅正處於“芯片製程工藝停滯不前”的鎮痛轉型期,還需要努力解決公司內部設計與製造團隊之間的隔閡與分歧。

其實在10年前,已經在數據中心具備影響力的英特爾,本是有機會將英偉達“消滅”在襁褓中的。

與遊戲市場很不一樣,作為典型的2B行業,數據中心市場接受一款全新的處理器產品往往是相當困難的,因為客戶們往往喜歡自己熟悉且習慣的東西。

這也是很長一段時間裡,英偉達向2B客戶拼命宣傳Tesla系列芯片,卻收效甚少的重要原因。那時GPU只受到實驗室以及大型石油及天然氣公司的追捧,因為只有他們對算力的要求最為“極端”。

直到2010年,IBM同意把英偉達的Tesla系列顯卡塞進自己的服務器裡。

這次看起來十分普通的聯姻,對英偉達來說卻有著里程碑式的意義。因為IBM,是第一家給予Tesla系列認可的主流服務公司。

但對IBM來說,之所以會率先選擇與英特爾的對手們簽署合作項目,是自己製造的Power服務器芯片與英特爾形成競爭關係。(也因此,在過去十年裡,你會發現IBM總是會首先推出基於AMD芯片的服務器,或者是與索尼在芯片上建立合作,聯合抵制英特爾在視頻遊戲機市場的進攻。)

當然,那個時候英偉達的GPGPU由於僅開放了幾個關鍵接口,並不夠通用,很多數據中心如果替換處理器,還需要重新寫很多代碼。

但故事的發展就是這麼“恰到好處”:

一方面,英特爾一再推遲對標處理器的發佈,給了英偉達充分的迭代時間;而另一方面,由於服務器CPU產品遭到英特爾的碾壓,另一個對手AMD在2013年退出數據中心市場,直到2018年才捲土重來。

用當時Tesla業務線負責人Andy Keane話來說就是:

得到主流支持,就像是為基於數年研發的Tesla芯片開了一道洩洪閘門,使英偉達的數據中心業務線徹底爆發。

因此,總是錯過關鍵時間節點的英特爾,現在真的著急了。

幹掉英偉達?

“英特爾之前收購的人工智能創業公司Nervana,2014年就說要做芯片,但2019年才推出一個深度學習推理芯片,所以現在壓力很大。

“在AI加速器方面,很多雲技術廠商的速度都幾乎跟他們同步了,更不用說英偉達。”

一位集成電路從業者告訴虎嗅,英特爾如今只能靠大量“收購”來補齊這些缺失的模塊,亦如他們大部分與AI能力相關的東西都是靠買得來的。

2019年半導體界最為轟動的併購交易——英特爾耗資20億美元收購以色列公司Habana,便是其抗擊英偉達頗為關鍵的一步棋。

Habana迄今為止就推出了兩款處理器:訓練芯片Gaudi與推理芯片Goya。前者對標英偉達的tesla V100,後者對標推理芯片T4。

鑑於V100與T4都是目前數據中心採用的主流AI加速器,所以我們可以理解為,Habana就是為爭奪英偉達在數據中心市場份額的“存在”。

其中,Gaudi與許多AI專有訓練芯片最大的不同在於,允許數據在多個計算節點之間共享的方式更加開放——一臺電腦可以通過另一個城市的另一臺電腦訪問內存,不會佔用自己的CPU,大大提升了使用效率。

這意味著,該能力允許用戶更加高效地跨網絡或加速器結構來共享數據,尤其適合在大規模並行計算機集群中使用。

幹掉英偉達?

Gaudi的系統開放連接與擴展形式,是被看做是其最大的優勢之一

當然,除了靠“買”搶佔市場,英特爾更為直接粗暴的競爭方式是——升級至強處理器、或者直接推出專門用於數據中心的GPU方案。

2019年4月,英特爾發佈第二代至強處理器時,格外強調了“這是第一個內置了人工智能加速處理模塊的CPU架構”;2020年中旬,一款基於Xe 架構的GPU 也將面世,而英特爾已經承認,這個產品是為數據中心量身定做的。

與英特爾相比,重返數據中心市場沒多久的AMD,暫時不會對英偉達在這個市場的產品線構成威脅。

但請記住,AMD在本月被曝光細節的代號為“Arcturus”的服務器加速卡Radeon Instinct MI100,是一塊針對數據中心和重量級計算任務而設計的GPU,旨在對標英偉達的T4。

幹掉英偉達?

新對手登臺:好戲在後頭

在英偉達GPU對數據中心不斷滲透的過程中,除了老對手的夾擊,數據中心經營者格局也在發生顯著變化——

AI相關應用的急劇增長,引發了市場對超大型數據中心的強勁需求。

超級數據中心不同於典型的數據中心,從字面意義來看,他們的體量顯然更為龐大,有成千上萬臺服務器以及數百萬臺虛擬機。 因此,他們有足夠的能力來處理一個小型數據中心所不能承受的“AI計算之痛”。

而云服務專業媒體CRN在2019年底給出了兩組有趣的調查數字:

  • 首先,以公共雲巨頭亞馬遜AWS、微軟Azure、阿里、谷歌、騰訊等科技巨頭為首的超大規模數據中心運營商,正在迅速搶佔數據中心市場的支出份額。目前,數據中心硬件和軟件上每3美元的支出,就有1美元來自這類企業。
  • 其次,自2013年以來,這類超大型數據中心的數量增加了兩倍。截至2019年第三季度末,共有504個由巨頭運營的超大規模數據中心,正在建設的則至少有150個。

因此,結合超級數據中心的成本支出與增長情況,一方面,服務器以及其他配套硬件還會源源不斷被送進機房;

另一方面,AI處理任務的持續增長,又會倒逼服務器的配置要得到持續的升級。

根據人工智能非營利組織Open.AI公佈的調查數據,深層神經網絡的規模與複雜性,每3.5個月翻一番。因此,在被賦予更多更艱鉅的計算任務的過程中,這些硬件的複雜程度與處理器性能也被提出了更高的要求。

舉個例子,亞馬遜AWS自2015年以後,便陸續在每個地區的數據中心部署了大量T4。原因就在於英這些GPGPU擅長執行像“對話式AI”、“人工智能推薦”這種高性能計算工作負載。

而像商湯、曠視這樣的人臉識別獨角獸企業,需要在建立的超算中心裡部署超萬塊GPU。據商湯內部工程師透露,他們每天在算法平臺上進行數據訓練迭代的單次成本,就高達數十萬元。

因此,我們可想而知,亞馬遜、微軟、阿里、谷歌等Top級雲服務商的雲計算數據中心,為了支持自己與客戶的深度學習訓練任務,所需要的GPU量級到底有多大。

顯然,這個變化對所有數據中心的建設參與者,包括創業公司在內,都是一個絕對不能放手的巨大利益池。

特別是雲數據中心經營商,高昂的訓練時間與資金成本讓他們也甘願下海一搏。

幹掉英偉達?

亞馬遜的數據中心

在一場不久前清華閉門交流會上,虎嗅有幸聽到了阿里達摩院資深算法專家楊永霞對雲上如何訓練若干種卷積神經網絡模型的深度解析,而她在不經意間,也流露出因硬件跟不上計算要求而產生的焦慮:

“一點幾PB的數據量,用8卡Tesla V100計算就要超過20個小時,而我們其實有幾百PB的數據。一塊V100就幾萬塊,真的是用不起啊。”

在這樣的需求形勢下,谷歌推出自稱性能可達同等級GPU產品15~30倍的AI專有芯片TPU;亞馬遜與阿里陸續推出旨在以極低成本交付高吞吐量的雲端AI推理芯片;微軟為了能夠追上這股“造芯新時尚”,急忙在2019年11月宣佈,將在雲上釋放英國AI芯片創業公司Graphcore(這家企業的“成名作”是一塊被稱為IPU的“智能處理單元”IPU及其配套軟件Poplar,專門為人工智能應用程序所需的並行計算而設計)提供的複雜圖像模型處理能力……

無論商用效果如何,以上都是雲服務商不得已而為之的一個選擇。

幹掉英偉達?

阿里2015年在張北成立的數據中心

但需要注意的是,這些雲服務企業自研的大多是推理芯片。

由於神經網絡模型在訓練階段需要處理大量數據,同時也要完成不同的學習任務,因此GPU具備的大量平行運算單元,能夠充分滿足“訓練”對運算的效率與通用性要求。

但進入執行階段,也就是“推理階段”,一個算法模型可以根據一堆量級不大的新數據得出結論。GPU當然也可以做到這些,但多少有點“大材小用”。

沒錯,這就是亞馬遜、阿里為何研發定製推理芯片的另一個重要原因——對於大量推理工作,通用性或許不足,但專用肯定是有餘了。

但有不願透露姓名的業內人士對這些“自研芯片”存有疑慮。因為他認為,無論是自己做,還是部署其他公司的商用芯片,難度其實不相上下。

“雲服務商如果真的打算在AI加速器上花錢,那麼他們想要的一定是這項工具的靈活性,而非只滿足於實現單一目的。”

目前來看,只有英偉達GPU等少數幾家公司具備這樣的優勢——讓一塊芯片駕馭不同的工作類型,譬如GaaS(遊戲圖像渲染)、高性能計算加速以及模型訓練與推理。

因此,在“更專業的精英”與“全能卻稍微平庸的人”之間,趨利的市場暫時會傾向於後者。

此外,即便某塊專有芯片比GPGPU更擅長處理某個任務,但後續卻可能需要一大批人為這塊芯片開發新的人工智能代碼。

說到底,這仍然少不了生態之間的較量。

在微軟選擇與Graphcore合作後,技術分析機構Moor Insights分析師Karl Freund曾公開表示,這種芯片雖然看起來像是“名校高材生”,但靈活性仍然讓人懷疑。

“沒有證據表明其具備更好的可編程性,這讓工程師們不足以去開發新的應用程序。即便是可編程性能做到,但在訓練和推理方面都能取得好成績嗎?對於芯片創業公司來說,這很困難。”

的確,Graphcore曾強調自己的芯片“特別適合”完成那些超大人工智能模型或時間數據的訓練任務。但是,他們自己創建的軟件框架Poplar,目前看起來也不太可能對抗在AI開發者群體具有極高威望的谷歌深度框架Tensorflow。而後者被英偉達的GPU產品所支持。

甚至於投資分析師DoctoRx對谷歌的TPU也心存質疑。

他認為,在部署時,谷歌構建的規範並沒有他們想象的那麼有效,這很大程度上是因為成本所致。

“雖然我不確定谷歌在宣佈對外出租TPU能力後的接下來會實施什麼樣的計劃,但與專業芯片供應商的方案相比,我覺得這樣一個出於‘家用’目的的解決方案的確值得懷疑。”

有意思的是,他把TPU那些在業績、效率和成就方面取得的“第一”,稱為“更具有公關性質的里程碑”。

“在我看來,谷歌總是在努力追趕或超越NVDA的P100s、V100s以及T4s。根據其公佈的價格,TPU的使用定價幾乎對標了V100,但比T4s要貴。”

幹掉英偉達?

谷歌的人工智能專用加速器TPU3.0

面對新老對手發起的密集攻勢,英偉達又一次選擇了“合縱連橫”。

雖然在高性能計算服務器與數據中心市場,英特爾x86處理器佔據著最大的市場份額, 但隨著基於Arm內核CPU的崛起,傳統x86 CPU產品正面臨著一定威脅。

作為全球最有名的芯片知識產權(IP)供應商之一,ARM本身不做芯片,而是向芯片廠商出售芯片底層技術。截至目前,華為、蘋果、三星、高通、飛利浦等芯片廠商都要被ARM授權使用底層架構才能設計芯片。

就在2019年中旬,英偉達宣佈自己的CUDA平臺將在年底全面支持Arm CPU,向Arm龐大的生態系統提供全堆棧的AI、HPC軟件,一起開發超級計算芯片,進而擴大在數據中心市場的份額。

2019年底,在GTC中國的ARM站展臺上,很多人都在圍觀一款由英偉達與ARM聯手提供算力支持的服務器。不少人還在小聲嘟囔:

“我靠,ARM現在都搞服務器了。”

不過ARM工程師一直在反覆解釋:“我們不做服務器,也不做芯片,這個樣機只是向大家展示Marvell(服務器品牌)基於ArmV8架構的CPU處理器與英偉達GPU的配置。”

在問及ARM支持的服務器與X86架構CPU的機器之間存在哪些差異時,工程師承認,兩者性能方面有時會出現差距,但不能忽視GPU服務器的市場需求。

“這要看服務器的其他配置,有些不同品牌服務器的整體性能可能會弱一些,品類也會少。畢竟是基於(英特爾)X86的市場,很多運行的代碼程序都是根據X86來寫的,替換會有一定的工作量。

“但是用我們架構的服務器芯片廠商越來越多,而且很多服務器越來越需要GPU。CUDA如果直接支持的話會省去很多麻煩,本質上,我們想做的是一個生態性的聯合。”

幹掉英偉達?

GTC上,ARM與英偉達互相邀請對方進入自己的服務器芯片生態

與其他頭部企業一樣,為了完成“樂高式”的系統性成長,英偉達也喜歡“買技術”。

2019年3月,英偉達放出消息,欲耗資69億美元,收購以色列服務器網絡架構服務商Mellanox。

這既是英偉達歷史上最大的一筆收購,也是這家AI芯片巨頭開始有意將核心業務從遊戲向數據中心過渡的里程碑事件。

在行業看來,Mellanox最為擅長的,是製造幾種用來提升數據傳輸效率的通信設備。換句話說,就是幫數據中心用最高效的方式,連接數據中心內部所有的服務器。

這意味著,假如英偉達能夠通過一套連接系統,將數據中心的數萬個計算節點上的GPU連接起來,那麼節點間形成的信息流動,將匯聚成更加龐大的算力。

而巨量算力對應的,是雲計算數據中心的擴張速度,呈爆發式增長的數據量,更大更復雜的計算任務,以及2023年將突破500億美元的市場規模。

幹掉英偉達?

圖片來自福布斯

總體來說,2020年仍然是英偉達“穩贏”的一年。

因為包括英特爾在內,大多數聲勢響亮的AI芯片公司才剛剛出貨,或正在努力出貨的路上(有些可能還沒出貨自己就沒了),這又給了英偉達升級產品充裕的時間。

譬如,V100 的性能就通過軟件升級在過去一年裡提高了4倍,進一步降低了數據中心客戶對額外硬件的需求。

當然,在這個存在一系列涉及不同用例的巨大市場中,英偉達的芯片產品不可能形成絕對壟斷。但筆者認為,英偉達在10年裡建立起的開源帝國,將會讓其在雲計算市場,乃至邊緣計算市場長期扮演關鍵性角色。

而反過來看,英偉達在2019年第四季度數據中心業務上的漂亮數據,除了讓英特爾、高通、英飛凌等老對手們思緒萬千,也讓無數創業公司與背後的投資者鬆了一口氣——PPT裡關於人工智能的某條未來增長線是可期的。在剛成立時,他們就曾搭上過英偉達的順風車,這一次,英偉達又讓他們看到了希望。

就在上週(2020年2月底),上文提及的AI芯片創業公司Graphcore 公開宣佈獲得1.5億美元新一輪融資,估值達到19.5億美元;

本週,近幾年來風頭很足的AI芯片創業公司寒武紀選擇在此時曝光上市信息——已在2019年末與中信證券簽署A股上市輔導協議,並計劃在科創板發行上市。


分享到:


相關文章: