微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow


微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow


騰訊宣佈開源 Transformer 推理加速工具 TurboTransformers。該工具面向自然語言處理領域中 Transformers 相關模型豐富的線上預測場景,據介紹,其在微信、騰訊雲、QQ 看點等產品的線上服務中已經廣泛應用,這也是騰訊對外開源的第 100 個項目。

微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

在自然語言處理領域中,以 BERT 為代表的 Transformers 相關神經網絡模型是近年來最重要的模型創新,可以為閱讀理解、文章摘要、語義分類、同義改寫等 NLP 任務提供顯著的效果提升。但提高模型精度的同時,Transformes 相關模型也帶來了更多的計算量。

由於深度學習的訓練和推理任務存在差異,訓練框架直接應用於線上推理並不能得到極致的性能。眾多模型算法工程師都遇到了訓練的模型效果很好,但因為響應延遲不滿足要求,導致模型無法上線的問題。

微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

在這種背景下,騰訊微信團隊研發了 TurboTransformers 加速器。它來自於深度學習自然語言處理基礎平臺 TencentNLP Oteam,旨在搭建統一的深度學習 NLP (Natural Language Processing,自然語言處理)基礎平臺、提升研發效能。特性主要有三點:

  • 優異的 CPU/GPU 性能表現。面向 Intel 多核 CPU 和 NVIDIA GPU 硬件平臺,通過核心融合和並行算法優化,TurboTransformers 充發揮硬件的各層級並行計算的能力。在多種 CPU 和 GPU 硬件上獲得了超過 PyTorch/TensorFlow 和目前主流優化引擎(如 onnxruntime-mkldnn/onnxruntime-gpu、torch JIT、NVIDIA faster transformers)的性能表現。
  • 為 NLP 推理任務特點量身定製。TurboTransformers 可以支持變長輸入序列處理,無需序列補零、截斷或者分桶帶來的無用計算,也無需任何針對計算圖在推理前進行預調優的過程。
  • 簡單的使用方式。TurboTransformers 支持 Python 和 C++ 接口進行調用。TurboTransformers 支持 TensorFlow 和 PyTorch 預訓練模型的載入。它可以作為 huggingface/transformers 的推理加速插件,通過加入幾行 Python 代碼獲得對 BERT 模型的端對端加速效果。

相比其它同類項目:

微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

騰訊介紹,TurboTransformers 讓微信內部眾多 NLP 線上應用能夠充分榨取底層硬件的計算能力,讓算法更好地服務用戶。具體來說 TurboTransformers 在算子優化、框架優化和接口部署方式簡化三個方面做了工作。

微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

TurboTransformers 架構

算子層優化

如下圖所示,Transformer 架構中的 Transformer Cell 計算包含了 8 個 GEMM(通用矩陣乘法,General Matrix Multiplication)運算。其中,(a) 中灰色方框內的結構為一個 Transformer Cell,BERT encoder 堆疊了 Nx 個這樣的 Transformer Cell;(b) 將一個 Cell 的細節加以展開,每一個矩形都是一個獨立的計算核心。

TurboTransformers 通過調優 Intel MKL 和 cuBLAS 的 GEMM 調用方式獲得最佳 GEMM 性能。通過調整了預訓練矩陣存儲方式,並且在硬件允許條件下,在 GPU 上使用 tensor core 方式進行 GEMM 運算。

微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

類似 NVIDIA FasterTransformers 方案,TurboTransformers 將 Transformer 中的所有 GEMM(通用矩陣乘法,General Matrix Multiplication) 運算之間的計算融合成一個調用核心。融合會帶來兩個好處,一是減少了內存訪問開銷,二是減少多線程啟動開銷。對於這些核心,在 CPU 上採用 openmp 進行並行,在 GPU 上使用 CUDA 進行優化實現。對於比較複雜的 LayerNorm 和 Softmax 算子,它們包含了不適合 GPU 上並行的規約操作,TurboTransformers 為它們設計了創新並行算法,極大降低了這些算子的延遲。理論上 Transformers 推理延遲應該近似於矩陣乘法延遲。

框架層優化

由於 NLP 的採用變長輸入特性,每次運算中間結果的大小其實並不相同,為了避免每次都分配釋放內存,TurboTransformers 通過 Caching 方式管理顯存。

為了能夠無縫支持 PyTorch/TensorFlow 訓練好的序列化模型,項目中提供了一些腳本可以將二者的預訓練模型轉化為 npz 格式,供 TurboTransformers 讀入。特別考慮到 PyTorch huggingface/transformers 是目前最流行的 Transformers 訓練方法,TurboTransformers 支持直接讀入 huggingface/transformers 預訓練模型。

應用部署

TurboTransformers 提供了 C++ 和 Python 調用接口,可以嵌入到 C++ 多線程後臺服務流中,也可以加入到 PyTorch 服務流中。官方建議通過 Docker 部署 TurboTransformers,一方面保證編譯的可移植性,另一方面也可以無縫應用於 K8S 等線上部署平臺。

性能方面,官方分別以 CPU 和 GPU 兩方面進行測試:

CPU 測試效果

在 3 種 CPU 硬件平臺測試了 TurboTransformers 的性能表現,選擇 pytorch、pytorch-jit 和 onnxruntime-mkldnn 和 TensorRT 實現作為對比。性能測試結果為迭代 150 次的均值。為了避免多次測試時,上次迭代的數據在 cache 中緩存的現象,每次測試採用隨機數據,並在計算後刷新的 cache 數據。

  • Intel Xeon 61xx
微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

  • Intel Xeon 6133

相比 61xx 型號,Intel Xeon 6133 向量化長度更長為 512 bit,並且它擁有一個 30 MB 核間共享 L3 cache。

微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

GPU 測試效果

在 4 種 GPU 硬件平臺測試了 TurboTransformers 的性能表現,選擇 pytorch、NVIDIA Faster Transformers、onnxruntime-gpuTensorRT 實現作為對比。性能測試結果為迭代 150 次的均值。

  • RTX 2060
微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

  • Tesla V100
微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

  • Tesla P40
微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

  • Tesla M40
微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

微信開源加速工具 TurboTransformers,超越 PyTorch/TensorFlow

同時,騰訊也表示,TurboTransformers 目前只支持了 FP32 的計算,對於 GPU FP16 的支持將在後續提供。TurboTransformers 目前重點支持了 BERT 模型,未來也會增加 TurboTransformers 的自動化優化能力。另外,TurboTransformers 解決了計算加速的問題,用戶還需要自己搭建服務框架,未來騰訊也會將服務流程開源,打通用戶上線的最後一站。


分享到:


相關文章: