一窺 ARM 的 AI 處理器

唐杉 新智元 今天

一窺 ARM 的 AI 處理器


新智元推薦

【新智元導讀】最近,ARM 進一步公開了 ML Procesor 的一些信息。本文從不同角度進行了介紹,值得我們仔細分析。

一窺 ARM 的 AI 處理器

最近,ARM 進一步公開了 ML Procesor 的一些信息。EETimes 的文章 “Arm Gives Glimpse of AI Core”[1] 和 AnandTech 的文章“ARM Details “Project Trillium” Machine Learning Processor Architecture” 分別從不同角度進行了介紹,值得我們仔細分析。

ARM 公開它的 ML Processor 是在今年春節前夕,當時公佈的信息不多,我也簡單做了點分析(AI 芯片開年)。

這次 ARM 公開了更多信息,我們一起來看看。首先是關鍵的 Feature 和一些重要信息,2018 年中會 Release。

一窺 ARM 的 AI 處理器

一窺 ARM 的 AI 處理器

頂層架構

與最初公佈的基本框圖相比,我們這次看到了更細化的模塊框圖和連接關係,如下圖所示。

一窺 ARM 的 AI 處理器

MLP 的頂層對外來看是個比較典型的硬件加速器,它有本地的 SRAM,通過一個 ACE-Lite 接口和外部交互數據和主要的控制信息(指令)。另外應該還有一些控制信號,估計在這裡略去了(可以參考 Nvidia 的 NVDLA)。

在上圖中綠色箭頭應該表示的是數據流,紅色表示控制流。MLP 中的 CE 共享一套 DMA,Control Unit 和 Sync Unit,它的基本處理流程大概是這樣的:1. 配置 Control Unit 和 DMA Engine;2. DMA Engine 從外部(如 DDR)讀入數據存在本地的 SRAM 中;3. Input Feature Map Read 模塊和 Weight Read 模塊分別讀入待運算的 feature map 和 weight,處理(比如 Weight 的解壓縮),併發送到 MAC Convolution Engine(後面簡稱為 MCE);4. MCE 執行卷積等操作,並把結果傳輸給 Programmable Layer Engine(後面簡稱為 PLE);5. PLE 執行其它處理,並將結果寫回本地 SRAM;6. DMA Engine 把結果傳輸到外部存儲空間(如 DDR)。

一窺 ARM 的 AI 處理器

在頂層標出的 Broadcast 接口,實現在多個 Compute Engine(後面簡稱為 CE)之間廣播 feature map 數據的功能。因此,基本的卷積運算模式是,相同的 feature map 廣播到多個 CE,不同的 CE 使用不同的 weight 來和這些 feature map 進行運算。

從目前的配置來看,MLP 包括 16 個 compute engine,每個有 128 個 MAC,即一共有 16x128=2048 個 MAC,每個 cycle 可以執行 4096 個操作。如果要實現 ARM 所說的 4.6TOPS 的總的處理能力,則需要時鐘週期達到 1.12GHz 左右。由於這個指標是針對 7nm 工藝,實現問題不大。

MCE 實現高效卷積

在 MLP 的架構中,MCE 和 PLE 是最重要的功能模塊。MCE 提供主要的運算能力(處理 90% 的運算),應該也是 MLP 中面積和功耗最大的部分。因此,MCE 設計優化的一個主要目標就是實現高效的卷積操作。具體來講,MLP 的設計主要考慮了以下一些方法,這些方法大部分我們之前也都討論過。

一窺 ARM 的 AI 處理器

一個比較有趣的點是上面提到的 “varied internal precision”。目前還不太清楚其具體的含義。不過對應用來說看到的應該是固定的 8bit 數據類型。至於對低精度 Inference 的支持,[1] 中提供的信息是,“The team is tracking research on data types down to 1-bit precision, including a novel 8-bit proposal from Microsoft. So far, the alternatives lack support in tools to make them commercially viable, said Laudick.” 因此在第一版的 MLP 中,應該也不會看到低精度或者 Bit-serial MAC 了(參考 AI 芯片開年中對 ISSCC2018 出現的 Bit-serial Processing 的介紹)。

此外,數據的壓縮和對工藝的優化也是提高整體效率的主要手段。特別是工藝的優化,結合 ARM 的工藝庫,應該有比較好的效果,這也是 ARM 有優勢的地方。

PLE 實現高效的可編程性

如下圖所示,PLE 的結構基本是在一個 ARM MCU 基礎上擴展了 Vector 處理和 NN 處理的指令。在討論可編程性的時候,其出發點主要是 NN 算法和架構目前還在不斷演進。

一窺 ARM 的 AI 處理器

我們前面已經分析了整個 MLP 的基本工作流程,MCE 在完成了運算之後把結果傳輸給 PLE。從這裡可以看出,MCE 應該是把結果發送到 Vector Register File(VRF),然後產生中斷通知 CPU。之後,CPU 啟動 Vector Engine 對數據進行處理。具體如下圖所示。

一窺 ARM 的 AI 處理器

對於做專用處理器的同學來說,這種 scalar CPU+vector engine 的架構並不陌生。這裡,本地 SRAM,VRF 和 PLE 之外的 Maing SRAM Unit(CE 中的 SRAM)之間有 Load/Store 單元和 uDMA 實現數據的傳輸,數據流也是比較靈活的。綜合來看,在 MLP 中,每個 CE 中都有一個 PLE 和 MCE 配合,即每個 MCE(128 個 MAC)就對應一個可編程架構。因此,ARM MLP 的可編程性和靈活性是要遠高於 Google TPU1 和 Nvidia 的 NVDLA 的。當然,靈活性也意味著更多額外的開銷,如 [1] 中指出的,“The programmable layer engine (PLE) on each slice of the core offers “just enough programmability to perform [neural-net] manipulations””。High-efficient Programmability 是 MLP 的一個主要賣點之一,而 ARM 的 “just enough” 是否真是最合適的選擇,還有待進一步觀察。

其它信息

在這次發佈中信息中,ARM 還強調了他們在數據壓縮方面的考慮,包括對 lossless compression 的硬件支持。這部分內容我在之前的文章中也有比較多的討論,就不再贅述了,貼幾張比較有意思的圖,大家看看。

一窺 ARM 的 AI 處理器

一窺 ARM 的 AI 處理器

一窺 ARM 的 AI 處理器

作為一個 IP 核,可配置性(configurability)是一個重要的特徵。目前還不知道 MLP 有哪些硬件參數可以支持靈活配置。Compute Engine 的數量,MAC 數量,SRAM 大小,這些比較大的參數應該有可能是支持配置的。其它更細緻的內容還要看最終發佈的情況。

另外,這些參數的配置和相關的軟件工具有非常密切的關係,更多的可配置參數也意味著軟件工具需要相應的支持,難度更大。[2] 對此的說法:“In terms of scalability the MLP is meant to come with configurable compute engine setups from 1 CE up to 16 CEs and a scalable SRAM buffer up to 1MB. The current active designs however are the 16CE and 1MB configurations and smaller scaled down variants will happen later on in the product lifecycle.”

競爭態勢

除了比較中規中矩的性能指標外,ARM 還沒有公佈 MLP 具體的面積,功耗等參數,以及具體發佈的日期(目前的說法是 “production release of the RTL is on track for mid-year”)。

在這個已經比較 “擁擠” 的市場,ARM 顯然是動作比較慢的。[1] 一開始就提到了,“Analysts generally praised the architecture as a flexible but late response to a market that is already crowded with dozens of rivals.” 並列舉了一些競爭對手的例子。

其實,從 ARM 在處理器 IP 市場和整個生態鏈的關鍵地位來看,晚一點關係也不大。如 [1] 所說,一方面,ARM 正在和一些智能手機廠商進行深度的合作,“ In a sign of Arm’s hunger to unseat its rivals in AI, the company has “gone further than we normally would, letting [potential smartphone customers] look under the hood””。

ARM 的另一個重要優勢是,ARM 在推出 MLP 之前在軟件工具上還是有一些準備的,包括 armnn 和開源的計算庫等等,如下圖。

一窺 ARM 的 AI 處理器

這些工具的廣泛使用都可以幫助 ARM 積累經驗,優化硬件和軟件工具。正如 [1] 中引用來自 ARM 的說法,“Winning the hearts and minds of software developers is increasingly key in getting design wins for hardware sockets...This is kind of the start of software 2.0. For a processor company, that is cool. But it will be a slow shift, there’s a lot of things to be worked out, and the software and hardware will move in steps.”

我們也看到,目前大量的嵌入 AI 應用還是運行在 ARM 的各種硬件上的,很多公司在相關算法和實現的優化上投入了很大的力量,也取得了很好的效果。當然這樣帶來另一個有趣的問題,那就是未來引入 MLP 之後,ML 任務到底放到哪裡跑?不同特點的處理器怎麼配合?文章中正好也提到這個問題,“Arm will release more data on the core’s performance when it is launched, probably in mid-June. But don’t expect detailed guidance on when to run what AI jobs on its CPU, GPU, or new machine-learning cores, a complex issue that the company, so far, is leaving to its SoC and OEM customers.” 看來這個 “難題” 短期之內還是丟給用戶了。

另外一個值得關注細節是,[1] 中提到,“Theoretically, the design scales from 20 GOPS to 150 TOPS, but the demand for inference in the Internet of Things will pull it first to the low end. Arm is still debating whether it wants to design a core for the very different workloads of the data center that includes training. “We are looking at [a data center core], but it’s a jump from here,” and its still early days for thoughts on a design specific for self-driving cars, said Laudick.” 從這裡可以看出,至少 MLP 在處理能力上還是具有比較強的伸縮性的,應該可以覆蓋從 Edge 到 Cloud 的大部分的 inference 應用。如果是最高的 150TOPS,MAC 的規模應該和 Google 第一代 Inference 專用的 TPU 類似,不過相比 Google 的脈動陣列架構,MLP 有更復雜的控制通道,靈活性還是要高不少。不知道未來,這會不會幫助 ARM 打開 data center 的 inference 市場。

參考:

1."Arm Gives Glimpse of AI Core", https://www.eetimes.com/document.asp?doc_id=1333307

2."ARM Details “Project Trullium” Machine Learning Processor Architecture", https://www.anandtech.com/show/12791/arm-details-project-trillium-mlp-architecture.


【加入社群】


分享到:


相關文章: