AI芯片分為GPU、FPGA、ASIC、類腦芯片,計算芯片領域企業有哪些

2018年,物聯網對行業的深度變革已轟然開啟。物聯網產業鏈企業的質與量將進入全面爆發期。物聯網智庫作為物聯網全週期觀察者和信息服務聚焦中心,被產業推動,亦將反哺於產業升級。

然而,隨著物聯網產業狂奔式升級,一年一度的全景圖譜發佈,已遠遠滿足不了高歌猛進的發展速度和企業訴求。基於上述事實,《全國物聯網產業全景圖譜》決定進行重大改版升級:

(1)一年一度的靜態,將濃縮為更短週期的“動態更新”;

(2)大而全的企業收錄方式,將嵌入符合產業事實標準的篩選標準,弱水三千,只取優上;

(3)對物聯網企業的基本信息收錄,將升級為更豐富更深度的信息整合與加工;

(4)對於物聯網產業全版塊的關注,將升級為側重關注重點領域、潛力賽道的權重分配。

首次被翻牌的重點版塊包括:物聯網芯片(計算芯片、通信芯片為主)、授權頻譜物聯網網絡、非授權頻譜物聯網網絡、物聯網操作系統、物聯網PaaS雲平臺、公用事業、智能安防攝像頭、智能家居、智慧消防、智慧物流、智能門鎖、智能照明等十餘個技術類別/垂直領域。

在整條物聯網產業鏈中,芯片無疑是其中最為核心的組成部分,只有擁有了芯片這個大腦,原本愚笨的“物”才能搖身變為在物聯網時代大有作為的智能互聯設備。

粗略來分,物聯網芯片可以被分為通信芯片和計算芯片兩大類。我們已經對物聯網通信芯片領域的玩家進行了彙總。本文將進一步對計算芯片領域的企業進行彙總整理。

隨著圖像識別、語音識別、車聯網等物聯網新應用的發展,傳統的CPU架構已經無法滿足這些日新月異的計算需求,於是,AI芯片藉著以“華為mate10”為代表的產品開始逐漸走入大眾視野。和需要大量空間去放置存儲單元和控制單元而計算單元很少的CPU相比,AI芯片具有大量的計算單元,非常適合大規模並行計算的需求。

基於通用性與計算性能的不同,可以把AI芯片分為GPU、FPGA、ASIC、類腦芯片四大類。

AI芯片簡介特點GPUGPU最初是用在個人電腦、工作站、遊戲機和一些移動設備上運行繪圖運算工作的微處理器。雖然GPU是為了圖像處理而生的,但是它在結構上並沒有專門為圖像服務的部件,只是對CPU的結構進行了優化與調整,所以GPU不僅可以在圖像處理領域大顯身手,它還被用來科學計算、密碼破解、數值分析,海量數據處理(排序,Map-Reduce等),金融分析等需要大規模並行計算的領域。1.無法單獨工作,必須由CPU進行控制調用才能工作

2.功耗高

FPGAFPGA是算法即電路,軟硬合一的芯片。基於硬件描述語言,可以把算法邏輯直接編譯為晶體管電路組合。由於FPGA的硬件電路是由算法定製的,其不需要取指令與指令譯碼過程,因而,FPGA能夠充分發揮芯片的計算能力。1.FPGA可以重複編程,因而具備一定的靈活性

2.效率高,功耗低

ASIC依產品需求不同而定製化的特殊規格集成電路,由特定使用者要求和特定電子系統的需要而設計、製造,簡單來說就是定製化芯片。近年來湧現的類似TPU、NPU、VPU、BPU等令人眼花繚亂的各種芯片,本質上都屬於ASIC。1.更加符合專業需求

2.從性能、面積、功耗等各方面,AISC都優於GPU和FPGA,但價格昂貴

類腦芯片類腦芯片架構就是模擬人腦的神經突觸傳遞結構。眾多的處理器類似於神經元,通訊系統類似於神經纖維,每個神經元的計算都是在本地進行的,從整體上看神經元們分佈式進行工作的,也就是說整體任務進行了分工,每個神經元只負責一部分計算。在處理海量數據上這種方式優勢明顯,並且功耗比傳統芯片更低。在功耗上有絕對優勢,但商用過程緩慢

GPU

【英偉達(NVIDIA)】

公司:NVIDIA

總部:美國

網址:https://www.nvidia.com/zh-cn/

芯片:NVIDIAVolta系列、NVIDIAQuadroRTX系列等

簡介:NVIDIA公司是全球可編程圖形處理技術領袖,專注於打造能夠增強個人和專業計算平臺的人機交互體驗的產品。公司的圖形和通信處理器擁有廣泛的市場,已被多種多樣的計算平臺採用,包括個人數字媒體PC、商用PC、專業工作站、數字內容創建系統、筆記本電腦、軍用導航系統和視頻遊戲控制檯等。1999年,NVIDIA發明了GPU,這極大地推動了PC遊戲市場的發展,重新定義了現代計算機圖形技術,並徹底改變了並行計算。在人工智能的概念大熱後,大家開始廣泛使用GPU做深度學習,這使得英偉達的股價從2015年至今飆升了足足10倍。

芯片型號:NVIDIAVoltaGV100

芯片架構:Volta

時間節點:於2017年5月年度GTC技術大會上正式發佈。

產品介紹:採用臺積電專門為NVIDIA定製的12nmFFN新工藝(N代表NVIDIA),集成多達211億個晶體管,核心面積達到了恐怖的815平方毫米,相比於GP100分別增加了38%、34%。其內部擁有5376個32位浮點核心、2688個64位浮點核心(還是2:1),劃分為84組SM陣列、42組TPC陣列、7組GPC陣列,同時搭配336個紋理單元,都比GP100增加了40%,同時還首次加入了672個TensorCore。TensorCore是一種新的核心,專門為深度計算操作加入的,更加剛性,不那麼彈性,但是依然可以編程。

芯片型號:NVIDIAQuadroRTX8000/6000/5000系列

芯片架構:圖靈(Turing)

時間節點:2018年8月,在溫哥華舉行的SIGGRAPH2018專業計算機圖形學頂級會議上正式發佈。

產品介紹:NVIDIAQuadroRTX8000/6000/5000系列是基於NVIDIA全新的第八代GPU架構圖靈(Turing)的“全球首款光線追蹤GPU”,其突破性技術包括:

全新RTCore可實現對象和環境的實時光線追蹤,並做到物理上精確的陰影、反射和折射以及全局光照

TuringTensorCore可加速深度神經網絡訓練和推理,這對於賦力AI增強型產品和服務至關重要。

全新TuringStreamingMultiprocessor架構擁有多達4608個CUDAcore,可提供高達16teraflops的計算性能,並行運算每秒16萬億次整數運算,以加速模擬真實世界的物理模擬。

先進的可編程著色技術可提高複雜視效和圖形密集型工作體驗。

首次採用超快速的三星16GbGDDR6內存,支持更復雜的設計、海量建築數據集、8K電影內容等。

NVIDIANVLink可通過高速鏈路聯通兩個GPU,將內存容量擴展至96GB,並可通過高達100GB/s的數據傳輸提供更高性能。

提供對USBType-C和VirtualLink的硬件支持。VirtualLink是一種新的開放式行業標準,旨在通過單一USB-C連接器滿足下一代VR頭顯的功率、顯示和帶寬需求。

全新增強型技術可提高VR應用性能,這些技術包括可變速率著色(VariableRateShading)、多視角渲染(Multi-ViewRendering)和VRWorksAudio。

【AMD】

公司:美國超威半導體公司(AdvancedMicroDevices)

總部:美國

網址:https://www.amd.com/zh-hans

芯片:AMDNavi系列

簡介:美國AMD半導體公司成立於1969年,專門為計算機、通信和消費電子行業設計和製造各種創新的微處理器(CPU、GPU、APU、主板芯片組、電視卡芯片等),以及提供閃存和低功率處理器解決方案。人工智能時代,NVIDIA和Intel兩大巨頭在拼命爭奪市場,AMD則顯得有些太過低調。但基於GPU的通用計算在AI領域的巨大優勢,AMD也並不是全無機會。

據悉,AMD預計將於2018年推出新一代顯卡架構:Navi仙后座,本次的仙后座將會採用7nm工藝,預計是GF的第一代,DUV(深紫外)技術。同時還會集成人工智能專用芯片以提升仙后座在機器學習性能。另外,2017年9月還有消息稱,特斯拉將與AMD聯手打造自動駕駛芯片,目前芯片進展順利,特斯拉已經收到了第一批樣品,正在進行相關測試工作。

芯片型號:AMDNavi系列

芯片架構:AMDNavi仙后座

時間節點:預計2018年第四季度發佈

產品介紹:確定將會採用7nm工藝,GFX10架構,AMD還將在Navi顯卡上集成與AI(人工智能)相關的電氣化元件以強化自動學習的性能。

FPGA

【Xilinx(賽靈思)】

公司:Xilinx(賽靈思)

總部:美國

網址:https://china.xilinx.com/

芯片:珠穆朗瑪峰(Everest)

簡介:賽靈思是FPGA、可編程SoC及ACAP的發明者,Xilinx研發、製造並銷售範圍廣泛的高級集成電路、軟件設計工具以及作為預定義系統級功能的IP核。客戶使用Xilinx及其合作伙伴的自動化軟件工具和IP核對器件進行編程,從而完成特定的邏輯操作。賽靈思首創了現場可編程邏輯陣列(FPGA)這一創新性的技術,並於1985年首次推出商業化產品,眼下Xilinx滿足了全世界對FPGA產品一半以上的需求。

2018年7月18日,賽靈思宣佈收購中國AI芯片領域的明星創業公司——深鑑科技。有“中國英偉達”之稱的AI芯片初創企業將繼續在其北京辦公室運營。目前,交易金額及細節尚未公佈。

芯片型號:珠穆朗瑪峰(Everest)

芯片架構:ACAP

時間節點:預計將於2018年內實現流片,2019年向客戶交付發貨。

產品介紹:2018年3月,賽靈思宣佈推出全新一代AI芯片架構ACAP,並將基於這套架構推出一系列芯片新品;其中首款代號為“珠穆朗瑪峰(Everest)”的AI芯片新品將採用臺積電7nm工藝打造,今年內實現流片,2019年向客戶交付發貨。ACAP是以新一代的FPGA架構位核心,基於ARM架構,結合分佈式存儲器與硬件可編程的DSP模塊、一個多核SoC以及一個或多個軟件可編程且同時又具備硬件靈活應變性的計算引擎,並全部通過片上網絡(NoC)實現互連。簡單地來講,ACAP是基於賽靈思的傳統優勢FPGA芯片,又通過架構、製程等一攬子升級打造的計算引擎,目標是達到在針對性領域遠超傳統GPU、CPU的計算性能。

【深鑑科技】

公司:北京深鑑科技有限公司

總部:北京

網址:http://www.deephi.com/

芯片:“聽濤”、“觀海”

簡介:深鑑科技成立於2016年,致力於成為國際先進的深度學習加速方案提供者。公司提供基於原創的神經網絡深度壓縮技術和DPU平臺,為深度學習提供端到端的解決方案。通過神經網絡與FPGA的協同優化,深鑑提供的嵌入式端與雲端的推理平臺更加高效、便捷、經濟,現已應用於安防與數據中心等領域。

深鑑科技由清華團隊創辦,自成立以來,深鑑科技已經獲得了天使到A+輪的3輪融資,累計融資金額超1億美金,投資方包括金沙江創投、高榕資本、Xilinx、聯發科、清華控股、螞蟻金服、三星風投等。2018年7月18日,賽靈思宣佈收購深鑑科技。

如今,深鑑科技已成長為一傢俱備神經網絡壓縮編譯工具鏈、深度學習處理器DPU設計、FPGA開發與系統優化等技術能力的初創公司。其中,最為核心的,即為DPU(DeepLearningProcessingUnit),以及神經網絡壓縮編譯技術,它不僅可以將神經網絡壓縮數十倍而不影響準確度,還可以使用“片上存儲”來存儲深度學習算法模型,減少內存讀取,大幅度減少功耗。目前,深鑑科技的產品主要應用於安防監控與數據中心兩大領域。

芯片型號:“聽濤”、“觀海”

芯片架構:亞里士多德

時間節點:預計2018年下半年發佈

產品介紹:“聽濤”系列芯片,採用臺積電28納米制程,核心使用深鑑自己的亞里士多德架構,峰值性能1.1瓦4.1TOPS

總部:北京

網址:https://home.baidu.com/

芯片:XPU

簡介:百度在2017年8月HotChips大會上發佈了XPU,這是一款256核、基於FPGA的雲計算加速芯片。合作伙伴是賽思靈(Xilinx)。XPU採用新一代AI處理架構,擁有GPU的通用性和FPGA的高效率和低能耗,對百度的深度學習平臺PaddlePaddle做了高度的優化和加速。據介紹,XPU關注計算密集型、基於規則的多樣化計算任務,希望提高效率和性能,並帶來類似CPU的靈活性。但目前XPU有所欠缺的仍是可編程能力,而這也是涉及FPGA時普遍存在的問題。到目前為止,XPU尚未提供編譯器。

【英特爾(Altera)】

公司:英特爾(Altera)

總部:美國

網址:https://www.intel.cn/content/www/cn/zh/products/programmable.html

簡介:Altera公司(阿爾特拉)是世界上“可編程芯片系統”(SOPC)解決方案倡導者。Altera結合帶有軟件工具的可編程邏輯技術、知識產權(IP)和技術服務,在世界範圍內為14000多個客戶提供高質量的可編程解決方案。

2015年12月英特爾斥資167億美元收購了Altera公司,後來隨著收購完成,英特爾也在Altera的基礎上成立了可編程事業部。此後,英特爾一直在推進FPGA與自家至強處理器的軟硬件結合並取得了相應的進展

產品介紹:英特爾採用雙管齊下的FPGA戰略:一方面打造CPU-FPGA混合器件,讓FPGA與處理器協同工作;另一方面基於ArriaFPGA或StratixFPGA打造可編程加速卡(PAC/programmableaccelerationcard)。

基於FPGA技術,英特爾已經構建了一個完善的NFV生態,覆蓋軟硬件廠商、系統集成商、電信運營商、OTT廠商等相關企業。此外,英特爾還為OME廠商提供一個面向包含FPGA的英特爾至強可擴展處理器的英特爾加速堆棧,進而為客戶提供完整的軟硬件一體的FPGA解決方案。

英特爾在7月收購芯片公司eASIC後將其併入PSG部門,並隨後透露這一收購案主要是為了滿足解決客戶痛點,滿足FPGA客戶端的降低成本和能耗需求,並提供可降低16nm、10nm、7nm製程的FPGA產品成本的規模化技術。

目前加速卡還是FPGA進入硬件領域的主要形態之一,不過英特爾已經在進行其他方向、其他形態的探索,並在積極推進和其他數據中心OEM廠商在FPGA方面的合作。

【LatTIce】

公司:萊迪思(Lattice)半導體公司

總部:美國

網址:http://www.latticesemi.com/

簡介:Lattice(萊迪思半導體公司)創建於1983年,總部位於美國俄勒岡州波特蘭市(Portland,Oregon),,是全球智能互連解決方案市場的領導者,也是全球第二大FPGA廠,提供市場領先的IP和低功耗、小尺寸的器件,在2015年3月收購多媒體連接供應商----矽映電子(SiliconImage)。SiliconImage不僅在通訊介面有雄厚的基礎,同時推動了HDMI、DVI、MHL和WirelessHD等行業標準的制定。

【Microsemi】

公司:MicrosemiCorporation

總部:美國

網址:https://www.microsemi.com/

芯片:PolarFireFPGA

簡介:MicrosemiCorporation總部設於加利福尼亞州爾灣市,是一家領先的高性能模擬和混合信號集成電路及高可靠性半導體設計商、製造商和營銷商。Microsemi的產品包括獨立元器件和集成電路解決方案等,可通過改善性能和可靠性、優化電池、減小尺寸和保護電路而增強客戶的設計能力。Microsemi公司所服務的主要市場包括植入式醫療機構、防禦/航空和衛星、筆記本電腦、監視器和液晶電視、汽車和移動通信等應用領域。

產品介紹:2017年2月,Microsemi在京召開新聞發佈會,宣佈推出PolarFireFPGA,定位低功耗、中等密度產品。

PolarFire有四大優勢:1.低功耗,比競爭對手低50%功耗;2.成本優化;3.可靠性與安全性優勢;4.邏輯範圍擴展至1K-500KLE,因此和競爭對手一樣,可覆蓋從低密度的CPLD到中密度的FPGA。

ASIC

【寒武紀】

公司:北京中科寒武紀科技有限公司

總部:北京

網址:http://www.cambricon.com/

芯片:寒武紀1H8、寒武紀1H16、寒武紀1M、MLU100

簡介:“寒武紀”成立於2016年,是北京中科寒武紀科技有限公司的簡稱,由中科院計算所孵化,於2017年8月獲得了國投、阿里巴巴、聯想等共計1億美元融資,成為估值近10億美元的智能芯片領域獨角獸公司。寒武紀主要面向深度學習等人工智能關鍵技術進行專用芯片的研發,可用於雲服務器和智能終端上的圖像識別、語音識別、人臉識別等應用。

公司未來的願景是讓人工智能芯片計算效率提高一萬倍,功耗降低一萬倍。為了實現這一目標,寒武紀AI芯片能在計算機中模擬神經元和突觸的計算,對信息進行智能處理,還通過設計專門存儲結構和指令集,每秒可以處理160億個神經元和超過2萬億個突觸,功耗卻只有原來的十分之一。未來甚至有希望把類似AlphaGo的系統都裝進手機,讓手機幫助我們做各種各樣的事情,甚至通過長期的觀察和學習,真正實現強大的智能。

2016,寒武紀發佈了世界上第一個商用深學習處理器IP,即寒武紀1A處理器。2017年,寒武紀授權華為海思使用寒武紀1A處理器,搭載於麒麟970芯片和Mate10系列手機中。

2017年11月,寒武紀在北京發佈了三款新一代人工智能芯片,分別為面向低功耗場景視覺應用的寒武紀1H8,高性能且擁有廣泛通用性的寒武紀1H16,以及用於終端人工智能和智能駕駛領域的寒武紀1M。

2018年5月3日,寒武紀科技在上海舉辦了2018產品發佈會。會上,寒武紀正式發佈了採用7nm工藝的終端芯片Cambricon1M和首款雲端智能芯片MLU100。

芯片型號:寒武紀1M

時間節點:2018年5月8日正式發佈

產品介紹:1M使用TSMC7nm工藝生產,其8位運算效能比達5Tops/watt(每瓦5萬億次運算)。寒武紀提供了三種尺寸的處理器內核(2Tops/4Tops/8Tops)以滿足不同場景下不同量級智能處理的需求,寒武紀稱,用戶還可以通過多核互聯進一步提高處理效能。

寒武紀1M處理器延續了前兩代IP產品(1H/1A)的完備性,可支持CNN、RNN、SOM等多種深度學習模型,此次又進一步支持了SVM、k-NN、k-Means、決策樹等經典機器學習算法的加速。這款芯片支持幫助終端設備進行本地訓練,可為視覺、語音、自然語言處理等任務提供高效計算平臺。據悉,該產品可應用於智能手機、智能音箱、攝像頭、自動駕駛等不同領域。

芯片型號:MLU100雲端芯片

芯片架構:MLUv01架構

時間節點:2018年5月8日正式發佈

產品介紹:MLU100採用寒武紀最新的MLUv01架構和TSMC16nm工藝,可工作在平衡模式(主頻1Ghz)和高性能模式(1.3GHz)主頻下,等效理論峰值速度則分別可以達到128萬億次定點運算/166.4萬億次定點運算,而其功耗為80w/110w。與寒武紀系列的終端處理器相同,MLU100雲端芯片具有很高的通用性,可支持各類深度學習和常用機器學習算法。可滿足計算機視覺、語音、自然語言處理和數據挖掘等多種雲處理任務。搭載這款芯片的板卡使用了PCIe接口。

【華為】

公司:海思半導體

總部:深圳

網址:http://www.hisilicon.com/

芯片:麒麟970、麒麟980

芯片型號:麒麟970

時間節點:2017年9月2日在柏林消費電子展上正式對外發布

產品介紹:華為麒麟970是華為於2017年9月2日在柏林消費電子展上正式對外發布的新款內置人工智能(AI)芯片。這款芯片將被用於華為下一代智能手機,主要用於抗衡對手蘋果和三星電子公司。該芯片採用了行業高標準的TSMC10nm工藝,集成了55億個晶體管,功耗降低了20%,並實現了1.2Gbps峰值下載速率。創新性集成NPU專用硬件處理單元,創新設計了HiAI移動計算架構,其AI性能密度大幅優於CPU和GPU。相較於四個Cortex-A73核心,處理相同AI任務,新的異構計算架構擁有約50倍能效和25倍性能優勢,圖像識別速度可達到約2000張/分鐘。高性能8核CPU,對比上一代能效提高20%。率先商用MaliG7212-CoreGPU,與上一代相比,圖形處理性能提升20%,能效提升50%,可以更長時間支持3D大型遊戲的流暢運行。

芯片型號:麒麟980

時間節點:2018年8月31日在柏林消費電子展上正式對外發布

產品介紹:麒麟980一上來就達成了六項全球首發記錄:

全球首款7nmSoC

全球首發ARMCortex-A76CPU核心

全球首發雙核NPU

全球首發Mali-G76GPU

全球首發1.4GbpsLTECat.21基帶

全球首發支持2133MHzLPDDR4X運行內存

首先,麒麟980採用7nm工藝,集成了69億個晶體管。據TSMC的官方統計,相比上一代旗艦——10nm工藝製程的麒麟970,980性能提升約20%,能效提升約40%,邏輯電路密度提升60%,即原來的1.6倍。

至於芯片架構,麒麟980首次搭載寒武紀1A的優化版,採用雙核結構,其圖像識別速度比970提升120%。

而在通用芯片CPU上,980基於ARMCortex-A76CPU架構進行開發,性能比970提升75%,能效同步提升58%,比驍龍845性能領先37%,能耗降低32%。這套全新設計的CPU架構麒麟CPU子系統,由2個超大核、2個大核和4個小核的三檔能效架構組成。

在GPU上,980成為首款搭載最新的Mali-G76GPU架構的移動端芯片。和970相比,其GPU性能提升46%,能效提升178%。最直接的感受,就是在玩大型遊戲時,不易卡頓。遊戲性能的提升,也回應了用戶一直以來對其GPU性能的擔憂。

【地平線】

公司:地平線機器人

總部:北京

網址:http://www.horizon.ai/

芯片:征程(Journey)、旭日(Sunrise)

簡介:地平線機器人(HorizonRobotics)由前百度深度學習研究院負責人餘凱創辦,致力於打造基於深度神經網絡的人工智能“大腦”平臺。2017年10月,這家公司拿到了英特爾、嘉實投資、高翎資本、紅杉資本等近億美元的A+輪投資。

地平線基於自主研發的人工智能芯片和算法軟件,以智能駕駛,智慧城市和智慧零售為主要應用場景,提供給客戶開放的軟硬件平臺和應用解決方案。為多種終端設備裝上人工智能“大腦”,讓它們具有從感知、交互、理解到決策的智能。地平線具有世界領先的深度學習和決策推理算法開發能力,將算法集成在高性能、低功耗、低成本的嵌入式人工智能處理器及軟硬件平臺上。基於創新的人工智能專用處理器架構BPU(BrainProcessingUnit),地平線自主設計研發了中國首款全球領先的嵌入式人工智能視覺芯片——面向智能駕駛的征程(Journey)系列處理器和麵向智能攝像頭的旭日(Sunrise)系列處理器,並向行業客戶提供“芯片+算法+雲”的完整解決方案。

芯片型號:征程(Journey)系列

芯片架構:高斯架構

時間節點:2017年12月20日正式發佈自動駕駛處理器征程1.0架構;2018北京國際車展期間,地平線發佈新一代自動駕駛處理器征程2.0架構,並公佈了基於2.0處理器架構的L3級以上自動駕駛計算平臺Matrix1.0。

產品介紹:征程1.0是面向ADAS的處理器(BPU1.0,高斯架構),征程2.0則是面向L3及以上自動駕駛的處理器(BPU2.0,伯努利架構)。據介紹,內置征程2.0的自動駕駛計算平臺Matrix1.0結合深度學習技術,支持多傳感器融合,可每秒處理720P視頻30幀,實時處理4路視頻,實現20種不同類型物體的像素級語義分割,功耗為31W,已經達到應用和產品化水平。

芯片型號:旭日(Sunrise)系列

芯片架構:高斯架構

時間節點:2017年12月20日正式發佈

產品介紹:旭日1.0是一款面向攝像頭的AI視覺芯片,它基於高斯架構,並集合了地平線的深度學習算法,因而能夠在前端實現大規模人臉檢測跟蹤、視頻結構化等應用,可廣泛應用於智慧城市、智能商業等場景。

【異構智能】

公司:北京異構智能科技有限公司

總部:北京

網址:https://www.novumind.com/

芯片:NovuTensor

簡介:NovuMind(異構智能)是由百度前人工智能傑出科學家吳韌博士帶領一批全球頂尖的AI技術人才於2015年8月在美國加州硅谷成立的AI公司,主要為汽車、安防、醫療、金融等領域提供ASIC芯片,並提供芯片+模型+訓練的全棧式AI解決方案。2016年12月,NovuMind獲得洪泰基金、寬帶資本、真格基金、英諾天使和臻迪科技等1500多萬美元的A輪融資,據悉該團隊正在進行B輪融資。目前團隊共有50餘人,包括在美國的35名以及北京的15名頂尖技術工程師。

相較於英偉達的GPU或Cadence的DSP等通用的深度學習芯片設計,NovuMind專注於開發更有效進行推理(interference)的深度學習加速器芯片。NovuMindAI芯片的重點在於,不僅讓一個小型的本地“終端”設備具有“看”的能力,而且還具備“思考”以及“識別”的能力,另外,這些都不需要通過數據中心的支持,不佔用任何帶寬,吳博士將之稱為智能物聯網(I²oT,IntelligentInternetofThings)。

芯片型號:NovuTensor

時間節點:2018年CES正式發佈

產品介紹:NovuMind方面表示其最新推出的高性能、低功耗的AI芯片NovuTensor是截至目前世界上唯一一款能夠實際運行的、性能達到主流GPU/TPU水平而性能/功耗比卻遠超主流GPU/TPU的芯片——在功耗12w的情況下,NovuTensor每秒可識別300張圖像,每張圖像上,最多可檢測8192個目標,相比目前最先進的桌面服務器GPU(250W,每秒可識別666張圖像),僅使用1/20電力即可達到其性能的1/2;而相比目前最先進的移動端或嵌入式芯片,相同用電的情況下,性能是其三倍以上。

據瞭解,本次CES展示的僅僅是FPGA版本,等正在流片的ASIC芯片正式出廠,性能將提高4倍,耗電將減少一半,耗能不超過5瓦、可進行15萬億次運算的超高性能。

【谷歌】

公司:谷歌

總部:美國

網址:http://www.google.cn/intl/zh-CN/about/

芯片:TPU

簡介:谷歌在2016年的I/O大會上推出了專門為加速深層神經網絡運算能力而研發的一款AI芯片——張量處理器TPU(第一代)。谷歌表示,儘管在一些應用上利用率很低,初代TPU平均比那時候的GPU或CPU快15-30倍,性能功耗比(TOPS/Watt)高出約30-80倍。

圖:TPU芯片佈局圖

2017年5月I/O大會上,谷歌發佈了第二代TPU,峰值性能達到180TFLOPS/s。第一代TPU只加速推理,但第二代TPU新增了訓練的功能。不僅如此,谷歌的用戶還能通過專門的網絡,在雲端利用TPU構建機器學習的超級計算機。

在第二代TPU裡,每個TPU都包含了一個定製的高速網絡,構成了一個谷歌稱之為“TPU艙室”(TPUPOD)的機器學習超級計算機。一個TPU艙室包含64個第二代TPU,最高可提供多達11.5千萬億次浮點運算,內存400萬兆字節,4倍快於當時市面上最好的32臺GPU。

CloudTPU帶來的最大好處,則是谷歌的開源機器學習框架TensorFlow。TensorFlow現在已經是Github最受歡迎的深度學習開源項目,CloudTPU出現以後,開發人員和研究者使用高級API編程這些TPU,這樣就可以更輕鬆地在CPU、GPU或CloudTPU上訓練機器學習模型,而且只需很少的代碼更改。

【英特爾(Movidius)】

公司:英特爾(Movidius)

總部:美國

網址:https://www.movidius.com/

簡介:Movidius是一家專注於計算機視覺的創業公司,也是谷歌ProjectTango3D傳感器技術背後的功臣。2016年9月,英特爾宣佈將收購Movidius。

2017年8月,英特爾發佈了下一代Movidius視覺處理芯片,該芯片可提高尖端設備的處理能力,比如無人機、VR頭盔、智能攝像頭、可穿戴設備和機器人。其上最新的視覺處理單元(VisionProcessingUnit,簡稱VPU)採用的是MyriadX系統級芯片,它配備了一個專用的神經計算引擎,支持邊緣深度學習推斷。芯片上的硬件塊是專門針對深層神經網絡而設計的,它以高速和低功耗來運行深層神經網絡。英特爾說,深度神經網絡加速器可以在DNN推斷時實現每秒1萬億次運算。

【中星微】

公司:中星微電子有限公司

總部:北京

網址:http://www.vimicro.com/english/

芯片:NPU

簡介:2016年6月20日,中星微率先推出中國首款嵌入式神經網絡處理器(NPU)芯片,這是全球首顆具備深度學習人工智能的嵌入式視頻採集壓縮編碼系統級芯片,取名“星光智能一號”。這款基於深度學習的芯片運用在人臉識別上,最高能達到98%的準確率,超過人眼的識別率。該NPU採用了“數據驅動”並行計算的架構,單顆NPU(28nm)能耗僅為400mW,極大地提升了計算能力與功耗的比例。

目前“星光智能一號”出貨量主要集中在安防攝像領域,其中包含授權給其他安防攝像廠商部分。未來將主要向車載攝像頭、無人機航拍、機器人和工業攝像機方面進行推廣和應用。

【雲知聲】

公司:北京雲知聲信息技術有限公司

總部:北京

網址:http://dev.hivoice.cn/

芯片:雨燕(Swift)

簡介:雲知聲是一家智能語音識別技術公司,成立於2012年,總部位於北京。

2018年5月16日,雲知聲在北京正式發佈全球首款面向物聯網領域的AI芯片“雨燕”(Swift)。作為雲知聲UniOne系列的第一代物聯網AI芯片,“雨燕”完全由雲知聲自主設計研發,採用雲知聲自主AI指令集,擁有具備自主知識產權的DeepNet、uDSP(數字信號處理器),支持DNN/LSTM/CNN等多種深度神經網絡模型。

除了提供芯片和終端引擎,雲知聲還將應用部分向客戶開源,同時提供相應定製化工具以及雲端AI能力服務。通過雲端芯結合,“雨燕”將應用於智能家居、智能音箱、智能車載等各個具體場景中。

類腦芯片

【IBM】

公司:IBM

總部:美國

網址:https://www.ibm.com

芯片:TureNorth

簡介:DARPA與IBM合作建立了一個項目,名為“神經形態自適應伸縮可塑電子系統計劃(SyNAPSE)”。該計劃意圖還原大腦的計算功能,從而製造出一種能夠模擬人類的感覺,理解,行動與交流的能力的系統,用途非常明確:輔助士兵在戰場動態複雜環境中的認知能力,用於無人武器的自動作戰。

該項目中最引人注目的是類腦芯片TureNorth。2011年,IBM發佈第一代TrueNorth芯片,它可以像大腦一樣具有學習和信息處理能力,具有大規模並行計算能力。2014年,IBM發佈第二代TrueNorth芯片,性能大幅提升,功耗卻只有70毫瓦,神經元數量由256個增加到100萬個,可編程突觸由262144個增加到2.56億個。高通也發佈了Zeroth認知計算平臺,它可以融入到高通Snapdragon處理器芯片中,以協處理方式提升系統認知計算性能,實際應用於終端設備上。

【西井科技】

公司:西井科技

網址:暫無

芯片:DeepSouth(深南)、DeepWell(深井)

簡介:西井科技是一家開發“類腦人工智能芯片+算法”的科技公司,其芯片用電路模擬神經,成品有100億規模的仿真神經元。由於架構特殊,這些芯片計算能力強,可用於基因測序、模擬大腦放電等醫療領域。在團隊方面,西井科技有50名員工,其中40人是英國帝國理工、牛津、加州大學伯克利分校等相關專業的博士、碩士。據悉,西井科技曾於2015年6月、2016年1月分別獲得天使輪和pre-A輪融資。

西井科技是用FPGA模擬神經元以實現SNN的工作方式,有兩款產品:

仿生類腦神經元芯片DeepSouth(深南),第三代脈衝神經網絡芯片SNN,基於STDP(spike-time-dependentplasticity)的算法構建完整的突觸神經網絡,由電路模擬真實生物神經元產生脈衝的仿生學芯片,通過動態分配的方法能模擬出高達5000萬級別的“神經元”,功耗為傳統芯片在同一任務下的幾十分之一到幾百分之一。

深度學習類腦神經元芯片DeepWell(深井),處理模式識別問題的通用智能芯片,基於在線偽逆矩陣求解算法(OPIUMlite)對芯片中神經元間的連接權重進行學習和調整;擁12800萬個神經元,通過專屬指令集調整芯片中神經元資源的分配;學習與識別速度遠遠高於運行在通用硬件(如CPU,GPU)上的傳統方法(如CNN),且功耗更低。

【高通】

公司:美國高通公司

總部:美國

網址:http://www.qualcomm.cn/

芯片型號:Zeroth

簡介:芯片巨頭高通也在進行類腦芯片的研發,早在2013年高通就曾公佈一款名為Zeroth的芯片,Zeroth不需要通過大量代碼對行為和結果進行預編程,而是通過類似於神經傳導物質多巴胺的學習(又名“正強化”)完成的。高通為了讓搭載該芯片的設備能隨時自我學習,並從周圍環境中獲得反饋,還為此開發了一套軟件工具。在公佈的資料中高通還用裝載該芯片的機器小車進行了演示,使小車在受人腦啟發的算法下完成尋路、躲避障礙等任務。