滿足各種AI負載需求!華碩旗下服務器支持最新NVIDIA Tesla GPU

華碩今宣佈旗下GPGPU服務器、通用服務器均可支持最新NVIDIA AI解決方案(Tesla V100 32GB與Tesla P4);近年來推動AI革命的神經網絡規模亦大幅成長,例如:目前用於語言翻譯的Google MOE神經網路模型擁有80億個參數,但在兩年前卻只有1億個。

滿足各種AI負載需求!華碩旗下服務器支持最新NVIDIA Tesla GPU

此次NVIDIA新推出的Tesla V100具備32GB內存配置,可提升新一代AI模型深度學習訓練性能達50%,不僅能讓AI開發人員將在更短時間內達成突破性成果,亦相當適合高效能運算(HPC)與大規模HPC部署;另一方面,Tesla P4為全球最快的深度學習推理GPU,可減少10倍推理延遲,以及提供比CPU高出40倍的能源效率,使用者如安裝於橫向擴展服務器上,將能實現兼具智能與互動性的新一代AI服務應用。

滿足各種AI負載需求!華碩旗下服務器支持最新NVIDIA Tesla GPU

憑藉上述GPU功能,華碩GPGPU服務器及通用服務器亦整裝待發,全方位支持Tesla V100 32GB、Tesla P4;其中,ESC8000 G4得支持8張Tesla V100 32GB,搭配可輕鬆切換的專利拓樸技術,將能執行更大批次的模擬作業,還有可支持4張Tesla V100 32GB或8張Tesla P4的ESC4000 G4,至於RS720-E9,則可支持Tesla P4,其內蘊絕佳的推理能力,能滿足各種AI負載需求。


分享到:


相關文章: