模擬運算會不會佔領未來AI SoC的高地?

年關歲尾,一大波喜訊正在排隊趕來。比如,中國大陸機構在ISSCC 2020的論文數量首次突破了兩位數,更有清華/電子科大多位教授的課題組實現了一年2篇ISSCC的突破。值此金秋盛景,亞洲芯片設計領域的最高會議——亞洲固態電路會議(Asian Solid State Circuit Conference, A-SSCC)也在澳門舉行。除了不少研究成果和論文的展示,今年的ASSCC有一個更引人

關注的Panel Discussion Session —— 模擬與混合信號電路會不會是未來AI SoC的主戰場?小編很早就想就這個話題寫一篇,恰逢大佬們的“華山論劍”,就借花獻佛,以饗讀者。

模拟运算会不会占领未来AI SoC的高地?

能效導向,模擬MAC稱霸

可以說,隨著摩爾定律的發展,過去30年的集成電路發展的最主要趨勢是數字化。數字化設計是目前大型SoC的基本方法學,越來越多的模擬電路進入全數字時代,All Digital PLL, Digital LDO, Time-domain based ADC,Digital PA,數字化/二值化方法成為了克服模擬電路瓶頸的重要手段。

然而“羞於見人”的模擬電路並非一無是處。在能效上,基於模擬乘加(Multiply and accumulation, MAC)運算的電路實現具有顯著優勢。來自韓國KAIST的Seung-Tak Ryu教授比較了美國斯坦福大學與比利時魯汶大學就同一算法,同一精度(二進制)神經網絡實現的兩個不同設計,一個以模擬MAC為基本計算單元、一個以數字MAC為基本計算單元。可以發現,基於開關電容的模擬計算的能效優勢在10倍以上。

模拟运算会不会占领未来AI SoC的高地?

隨著摩爾定律的發展進一步進入平臺期,高校的工藝節點已經逐步停滯在28-65nm時,“模擬運算”的翻身仗似乎即將打響。其核心理論支撐是:數字電路的翻轉電壓幅度是整個Vdd,在1V數量級上,而模擬計算電路,特別是基於電壓/電荷域計算,翻轉電平可能只有10mV。而電路功耗是和翻轉電壓的平方律呈正比。

更進一步地,隨著新器件與新算法的提升,各式阻變存儲器與神經元突觸相仿的特性賦予基於新器件的模擬計算新的機會。來自臺灣國立清華大學的鄭桂忠教授特別比較了基於阻變存儲器的模擬實現、混合信號實現與純數字實現的突觸設計,如下圖。刨除精度和穩定性的問題,模擬設計無論在複雜度還是在功耗上都具有更明顯的優勢。(據小道消息指出,該領域已經成為了高性能計算的一大熱點,ISSCC 2020 清華大學就有篇基於ReRAM的存算一體芯片。)

模拟运算会不会占领未来AI SoC的高地?

MAC不是AI的全部,模擬是麼?

雖然模擬MAC的高能效令許多設計者怦然心動,但是其挑戰也非常顯著。最主要的問題來自於AI SoC的的可編程性。清華大學尹首一教授總結了目前AI SoC的可編程需求,雖然MAC佔據了主要的算力,但是仍有其他運算。

模拟运算会不会占领未来AI SoC的高地?

與此同時,高性能AI SoC在可變精度的計算(bit-width)以及可重構的數據流(dataflow)上都有顯著需求,而這些需求是目前的模擬運算無法考量的重點。畢竟,無論在電壓/時間域上,要複製一個模擬信號的代價要遠遠比數字來的大。D觸發器(DFF)可以無損地複製任意數字信號,而模擬信號的複製卻要和電路的線性度、熱噪聲、PVT差異做抗爭,每一次抗爭的代價都是功耗與面積。

模拟运算会不会占领未来AI SoC的高地?

還不止這些,來自日本大阪大學的粟野皓光教授(Hiromitsu Awano)更是一針見血地指出了模擬計算在AI SoC產業化的過程中提到的問題,比如隨著工藝變化的Scalability等。即使在能效領域,他也相信,隨著摩爾定律的更進一步推動,先進工藝下的數字計算代價會越來越低,最終在SoC層面取得比模擬更高的優勢。

模拟运算会不会占领未来AI SoC的高地?

另外,粟野教授也是所有Panelist和全場大量模擬電路設計者中唯一明確不看好模擬電路與混合信號在AI SoC發展的大佬。勇氣可嘉!

模擬計算+領域專用+存算一體=?

這會不會是最終的勝利方程式呢?清華大學劉勇攀教授回顧了AI SoC處理器的發展流程,並指出現在已不再是入行通用AI SoC的時機。相形之下,應用專用/領域專用的AI SoC卻有大把的機會。特別是在非易失性存儲器上,通過模數混合的方法,結合AI計算與特殊器件的可計算特徵無疑是一大趨勢。

模拟运算会不会占领未来AI SoC的高地?

無獨有偶,尹首一教授也在Thinker系列芯片的發展過程中,總結了AI芯片的規律。第一階段,是領域專用體系結構上的發展,這個過程中可重構的並行計算體系結構推進了芯片的能效提升,然後很快地,馮諾依曼瓶頸(處理器與存儲器間的帶寬上限,亦稱為“存儲牆”)成為了第一階段的最終挑戰;於是第二階段是存內計算的時代,但是目前為止存算一體僅僅能支持基本的MAC操作,而對於AI SoC的其他操作並不支持。由此,AI SoC發展的第三階段,可重構架構的並行計算架構與存算一體的交叉產物呢?

模拟运算会不会占领未来AI SoC的高地?

重新定義模擬和數字的邊界

作為一個專業的ADC/AI從業人員,小編一直認為AI SoC中的模擬計算給廣大模擬愛好者帶來了又一春。但是,在設計過程中不應該是單獨將模擬計算分割出來看待,而是應該從SoC的角度反省模擬與數字的邊界,或者是模擬到智能感知的轉換過程。如果將目前模擬計算的MAC歸納為數字-模擬-數字的雙重重轉換過程,包含ADC/DAC整列,那麼在智能傳感器SoC中,前端的ADC加上多層模擬MAC,就變成了一個無數次模數和數模轉換的怪物。

顯然這個方法有點累贅。2018年的ISSCC上,哥倫比亞大學的Mingoo教授課題組就重新定義了模數轉換的位置,將部分計算採用模擬電路實現,通過全局考量最小化量化的代價與功耗,將模擬與數字的邊界放到特徵提取以後,實現單比特的量化編碼。(又有一個小道消息,ISSCC 2020上東南大學在此基礎上進一步改善此架構,功耗又減小了一半。)

模拟运算会不会占领未来AI SoC的高地?

↑ 這頁並不來自A-SSCC,而是痴笑君假裝大佬的一頁ppt

綜上所述,你覺得模擬計算/存算一體會不會成為AI SoC的一種選項呢?能不能啪啪啪打臉以下兩位呢?

模拟运算会不会占领未来AI SoC的高地?

免責聲明:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅為了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支持,如果有任何異議,歡迎聯繫半導體行業觀察。


分享到:


相關文章: