設計自有晶片將成爲新常態?|半導體行業觀察

設計自有芯片將成為新常態?|半導體行業觀察

來源:本文內容由 半導體行業觀察(ID:icbank)翻譯自「nextplatform」。

編者按:近幾年來,無論是國外的谷歌、Facebook,還是國內的百度、阿里巴巴,我們可以看到全球的大型互聯網公司都開始涉足芯片設計領域了,且這股趨勢看起來有蔓延之勢。究竟是什麼原因推動了這種情況的產生?日前,國外媒體The next platform寫了一篇文章,闡述了這種現象產生的原因。以下為文章正文:

據我們粗略統計得知,雲巨頭亞馬遜、阿里巴巴、百度、Facebook、谷歌和微軟都在設計自己的AI加速器芯片。究竟這是當下雲行業的一種潮流還是短期現象?相信一千個人有一千個看法。但在我們看來,為特定任務設計定製芯片將成為雲產業的主流,屆時處理器、網絡交換機、AI加速器等領域將會受到深刻的影響。大膽點的觀點認為,該領域內的大多數芯片市場將不能限免。

縱觀整個集成電路產業鏈,在一系列新的技術和經濟因素推動下,傳統的芯片設計和製造模式正在破壞,雲巨頭涉足AI芯片設計只是大規模定製芯片影響當前集成電路供應鏈的冰山一角,更多的可能性正在發生。但造成這種現象的原因並不止一個,很多因素的同時發生導致了今日的結果:

1)摩爾定律的死亡;

2)基於多芯片模塊(MCM)和系統級封裝(SIP)的新架構方向;

3)芯片設計工具逐漸成熟為完整的開發工具鏈;

5)多項目晶圓(MPW)使得晶圓廠有能力實現原型製造和小批量生產客戶編寫的內部軟件框架;

6)網絡巨頭創造的規模,新興的物聯網巨頭的影響力也漸增;

摩爾定律的死亡

雖然晶圓廠有不同的觀點,但在很多人看來,摩爾定律實際上已經死了。經過了數十年的發展,現在的晶圓廠已經進入了一個瓶頸期,那就是如果繼續縮小晶體管的尺寸,晶體管將變得更不可靠,且功耗會劇增。且隨著晶體管的縮小,設計人員現在必須使用額外的晶體管來驗證邏輯塊是否能產生正確的結果。但是如果設計人員在芯片上封裝太多的邏輯,那麼供電和散熱都會成為一項挑戰。正是這種困境讓芯片設計師進退兩難。

這就導致了以下結果:在追求高性能的前沿應用裡,對晶體管數量的需求正在爆炸,但這種爆炸卻催生了更大,更熱的芯片,但邏輯的速度的提升,卻不會變得如想象中那麼快。與此同時,較老的製造工藝(例如28納米)卻繼續在發生餘熱,對於越來越多的應用來說,這甚至是最好的選擇。

在這種情況下,就使得現有的通用芯片不能滿足雲服務商高性能和客製化的需求。

新的架構方向

面對上述困境,設計工程師想提高芯片性能,還有一個選擇,那就是放棄推動半導體技術前進,而是轉向追求新架構,達到性能提升的目的。這樣的話,他們就可以退回到前一代甚至兩代的工藝上進行硅片製造。這樣也能夠獲得更小,更冷,更實惠的芯片。從現狀看來,架構是硅設計的新“高地”,很多廠商早已投入其中以獲取領先競爭。

例如,英特爾在其14nm工藝上,將其高端的28核服務器處理器“SKYLAKE”至強可伸縮服務器處理器的面積做到了690 mm2。雖然英特爾不再披露其晶體管數量,但作為對比,Nvida採用臺積電12nm工藝製造的Volta GPU芯片在815 mm 2的硅面積上集成了210億個晶體管。

AMD則在其Epyc服務器產品線上採用了不同的方法。Epyc是基於AMD的八核Zeppelin die設計的。每個EPYC處理器中都封裝了四個由AMD proprietary 連接的四個Zeppelin die。

AMD創新的Epyc架構是不同架構和設計權衡的結果。與其他處理器設計相比,它使用了不同的互連、邏輯和存儲組合。這就使得EPYC的總晶體管數量和芯片面積與英特爾和Nvidia的產品處於相同的範圍,但製造成本卻要低得多。AMD暗示,在大芯片裡,它們的架構還有可能在在單個封裝中繼續實現微縮。

不同廠商在架構上的嘗試,讓雲服務供應商看到了新的可能。

芯片設計工具日趨成熟

集成電路EDA產業到現在,eSilicon,Cadence,Mentor,Synopsys等供應商能夠為擁有不同預算的開發者提供雲託管設計平臺,虛擬原型設計和驗證服務,降低開發者的預算。雖然設計芯片還做不到像設計網頁那樣簡單,但如果能夠從這些廠商獲得EDA和IP方面的更多支持,對於芯片新入者來說,是一個巨大的利好。尤其是如果能從他們身上獲得可重複結構(repeatable structure)的支持,這更是成功的關鍵。

所謂的可重複結構可以是高速緩存存儲器塊(cache memory block,),處理器核心(processor core),存儲控制器(memory controller)等部分,也就是那些你可以通過“複製”來增加總吞吐量的功能。這是擴展內存容量和處理器內核增加容量和性能的方式。

可以肯定的是,在未來,聘用足夠多的設計人才去設計獨特的、擁有高價值邏輯的十億級晶體管變得幾乎不可能。而可重複的結構和並行架構推動了市場需求,並能將數十億個晶體管放在芯片上。

要獲得通用或專用的可重複結構IP,有許多來源,上面提到的EDA公司是一個選擇,下面介紹的公司,又是另一個選擇。

  • Arm是數據中心可授權IP的可靠來源;
  • Wave Computing最近購買了MIPS,這對兩者都是好兆頭,因為人工智能(AI)IP在未來兩年乃至十年,會成為市場關注的熱點;
  • RISC-V旨在通過開源處理器內核使計算密集型可重複結構變得大眾化。這個相對新興的架構吸引了阿里巴巴,Cadence,谷歌,GlobalFoundries,華為,IBM,Mellanox,Mentor,高通和三星等知名廠商成為他們的會員。

如果你所統治的市場影足夠大,那麼在超現代處理器核心方面,你會有更多的選擇,屆時:

  • AMD可能會授權其Epyc服務器架構。
  • Arm和Qualcomm可能會授權服務器級別的Arm 64位內核。
  • IBM可能會授權其Power9服務器架構。

另外,在互聯方向,雖然AMD憑藉其Epyc MCM領先市場,但其他公司也在投資互連IP,這也讓你有了更多的選擇:

1)英特爾一直致力於其專有的嵌入式多芯片互連橋接(EMIB)點對點片上互連技術的開發,他們還計劃將EMIB的子集作為高級接口總線(AIB)進行許可。

2)Arm也擁有各種互連設計,但對於高端基礎設施市場,Arm授權其專有的CoreLink CNN(Cache Coherent Network)產品產品。熟悉設計的人都知道,Arm的CCN設計針對其較大的Arm 64位Cortex處理器進行了優化。

3)SiFive的TileLink是應用在RISC-V處理器內核上的片上互連。TileLink看起來就像是AMD的Infinity Fabric協議,而不是Intel的EMIB / AIB點對點互連。

4)USR聯盟正在向其會員推進和認證其超短距(USR)系統級芯片(SoC)的互連技術

Fab變得更親民

過去,芯片設計和製造是不可分割的,如果有任何一方對另一方不熟悉的話,合作就無法進行。但隨著行業的成熟,某些設計可以與工廠分開進行,只需要大量的專業知識去“轉移”。過去,有競爭力的處理器公司需要擁有自己的晶圓廠來推動更出色的性能。但去年AMD的表現證明,設計和工廠分離也可以實現出色的性能。

僅存的的挑戰是降低小型設計公司的製造驗證設計的價格。多項目晶圓(MPW)製造能力現已在全球範圍內提供。MPW在普通晶圓上“放置”了許多不同的設計,因此原型和小批量生產就不必承擔生產晶圓的全部成本。現在開發者可以從最大的晶圓廠(如GlobalFoundries,三星和臺積電)以及小型和特殊工藝的專業晶圓廠(如KAST的WaferCatalyst,IMEC / Fraunhofer,Leti / CMP,MOSIS,Muse Semiconductor)獲得MPW服務和價格。

MPW使小型設計公司和學術研究的開發項目能從晶圓廠獲得更好的支持。大的設計客戶則可以通過過往的渠道來訂購大批量晶圓。

軟件框架使硬件加速器成為可能

開源操作環境和應用程序代碼使Web巨頭能夠共同設計和優化數據中心基礎架構。隨著芯片設計和製造進一步商品化,這些公司會發現,去體驗和部署包括AI加速器在內的新處理器指令集變得越來越簡單。

事實上,人工智能芯片的部署已經在進行中。大多數網絡巨頭都擁有內部的深度學習模型開發環境,甚至有些還開放給其他開發者訪問。重要的一點是,他們當中的大多數正在進行AI芯片設計:

1)AWS已投資Apache MXNet和由亞馬遜開發的用於消費設備的AI芯片;

2)百度創建了PaddlePaddle和崑崙芯片;

3)谷歌創造了TensorFlow和幾代TPU芯片

4)微軟創建了Cognitive Toolkit及其FPGA驅動的Brainwave附加卡;

5)騰訊創建了DI-X平臺(具有專有模型和算法)和ncnn(面向移動),並與芯片廠聯發科建立了合作關係;

6)阿里巴巴尚未加入軟件框架競賽,但他們已發表了許多關於深度學習架構和算法的原創研究論文,並正在開發一個神經處理單元(NPU);

在另一些雲供應商中,IBM擁有Cognitive Computing和Watson服務,並與許多AI加速器公司在OpenPower方面進行合作。在社交媒體領域,Facebook推動了Caffe和Caffe2的發展。

然後有幾十家初創公司推出了AI加速器芯片,而Wave Computing在購買MIPS之後,則處於領先的地位。

另外,可以確認的是,很多網絡巨頭也在投資量子計算,因為他們把它當做神經網絡的潛在通配卡加速器,這也不是巧合。

規模效應的推動

一旦網絡巨頭在其遍佈其全球數據中心基礎架構中部署大規模的定製芯片,這意味著它會買入數十十萬乃至百萬計的芯片。如果每個芯片能提高几瓦的效率,那麼整體效率提高則可以很容易就達到數十兆瓦。與此同時,還能解決盈利的新問題,還可以擁有更快的速度和更高的精度。

此外,網絡巨頭們往往有晶圓廠的關係,這就有利於其建立消費設備的定製芯片,如Google Home和Amazon Dot。如果這些廠商能夠有包括AI加速器在內的多款芯片在晶圓廠生產的時候,龐大的數量將會帶來很大的經濟規模效應。

新趨勢帶來的可能影響

我們還沒有看到這些融合趨勢帶來的真正影響。和目前AI加速器的嘗試一樣。這也僅僅只是一個開始。

一個對軟件操作環境和深度學習建模語言有控制權的網絡巨頭也將進入芯片設計領域是一件很容易的事,且是一個很不錯的選擇。因為他們很容易就能獲得最好的EDA工具、開源和可授權的IP模塊,然後就可以構建原型芯片,將其佈置到全國各地的服務器上。

具體來說,網絡巨頭進入芯片領域,不但可以定製其整數和浮點的處理器內核,還可以基於這些定製的處理器內核、定製AI加速器、定製的I / O和內存控制器等部件打造SoC。他還可以在其專有的芯片裡面優化其軟件性能,這在通用的大規模芯片上是很難做到的。

未來,網絡巨頭可能會設計完全不同的芯片。屆時那些專門面向標準化操作環境和標準指令集設計的病毒將不會在這些芯片上執行。黑客需要更好的手段才能訪問網絡巨頭的系統,尤其是這些系統還可能會定期更改的時候。

到時的數據中心,將會是一個截然不同的數據中心。

到時的芯片世界,也將會是一個不同的芯片世界。


分享到:


相關文章: