神經元芯片帶來哪些新蹊徑?英特爾研究院院長這樣解密


神經元芯片帶來哪些新蹊徑?英特爾研究院院長這樣解密

文|李佳師

這一週英特爾放出兩個重磅消息:其一是3月16日英特爾與康奈爾大學利用英特爾神經擬態芯片Loihi來識別爆炸物和毒品等氣味方面的研究,取得重大的突破。其二是3月19日英特爾用768個Loihi芯片構造了一個新的系統Pohoiki Springs,這個系統達到了1億個神經元的規模,而上一次構建的系統是64個芯片800萬個神經元,這次擴大了12倍。

在這兩個重磅消息的背後釋放出許多重要的信號,人類對於除視覺、聽覺之外的味覺嗅覺等研究有新突破,帶來新想象空間和應用空間,人類對大腦的認知以及類腦芯片、AI芯片又跨上新臺階,未來的芯片發展之路又有可能另闢蹊徑。這一切、一切的背後有諸多信息需要解密,3月20日,《中國電子報》記者連線採訪英特爾中國研究院院長宋繼強。


嗅覺和味覺AI為什麼遠比視覺和聽覺AI要落後?


我們知道人類在視覺、聽覺識別方面相對成熟,但在味覺、嗅覺等方面識別仍面臨很多挑戰。而這次在英特爾與康奈爾合作在氣味和爆炸物識別的突破有什麼突破意義?關於味覺、嗅覺識別的主要的挑戰是什麼?通常採用什麼樣的路徑來解決這類問題?

宋繼強表示,人類的味覺靠舌頭、嗅覺靠鼻子,目前為止,人工智能做得比較好的是視覺、聽覺,這兩個人類主要感官。之所以在兩個領域做的比較好,有幾個原因,其一是視覺、聽覺兩類數據相對容易獲得而且數據量大。在此前的信息化時代,比如2000年開始攝像頭普及,更早時候麥克風普及,讓我們積累了大量圖片數據、語音數據。其二是這兩類數據的標註相對容易。人類基於捕捉下來的照片或是錄製的音頻進行標註,基於人類的基本認知知識容易實現,容易確定它的正確與否。

“而深度學習之所以能夠獲得現在的效果是因為幾個關鍵:第一數據量足夠,第二有標註好的數據,第三是要保證訓練的數據集和未來要處理的問題的測試數據集的分佈是一致的。這樣訓練出來的模型,才能夠很好地處理真實的場景。”宋繼強表示,這也是為什麼我們看到深度神經網絡擅長處理視覺數據、語音數據的原因。

而嗅覺和味覺,目前的數據非常少,而且沒有很好地標註。究竟誰可以將這些數據進行標註非得是專家在實驗室才可以進行。比如葡萄酒的品酒,同一個葡萄酒十個專家來品嚐可能會有不同的結果,同一個葡萄酒讓同一個專家在不同的時間段品,也可能打出不同的分。所以它有難度。

“數據量不夠多,而且主觀評測標準也不夠,味覺的差異性太大。嗅覺相對客觀一些,因為嗅覺本身它產生不同的氣味,主要源於空氣中說包含的一些化學分子成份不同、密度不同。人的鼻子、動物的鼻子、電子鼻對於氣味的區分能力不一樣。普通人特殊訓練能夠區分三四百種不同氣味,稍加訓練可以達到上千種、數千種,但現實中真正可以區分的氣味其實是在萬種以上,這些數據我們日常很難拿到大量數據,所以它絕對是小數據量的場景。”宋繼強說,

但它的使用場合非常多,比如爆炸品的檢測,比如生活中危害、有害氣體的提早檢測,比如對水果或農作物的成熟度檢測,比如對檢修汙染的檢測等,靠氣味能夠檢測的非常多。目前因受限於數據量不夠充分,檢測手段不夠高明,嗅覺AI的發展比視覺和聽覺落後非常多。


神經元芯片帶來哪些新蹊徑?英特爾研究院院長這樣解密


為什麼用神經擬態計算而不是其他計算?

我們知道人工智能發展有三個關鍵:數據、算法、算力,為什麼解決嗅覺、味覺等問題上要採用類腦計算,而不是其他的計算來解決這些問題?神經擬態計算比其他計算解決此類問題有什麼優點?用量子計算是不是也可以很好地解決此類問題?

宋繼強表示,神經擬態計算有什麼好處在於,第一不需要依賴於大量的數據。神經擬態計算可以從一個樣本的訓練中就可以達到比較高的準確率,百分之九十幾,這和過去人們專門去定製一些規格特徵來識別的效果非常相似。人定立規則的意思是,假如我知道這個氣味由哪幾種分子構成,比如二氧化硫是臭雞蛋味,我就可以知道這其中什麼樣的分子會導致臭雞蛋味,可以定製一些化學傳感器、其他的有機物傳感器來指定檢測這兩種特定的分子構成,然後標註成這是二氧化硫的氣味。但神經擬態芯片不需要人做這樣的劃分,而是直接取出來。這張Loihi識別模型圖很好地解釋了神經擬態芯片做這個事情的機理。


神經元芯片帶來哪些新蹊徑?英特爾研究院院長這樣解密

它是從人腦做這件事的過程去獲得啟發,人是通過鼻腔讓空氣吸進來,如果想甄別味道更快,可能要快速呼吸幾下,讓它的濃度、流動的速度都加快起來,可以接觸到更多氣味。所以它是讓空氣流動和鼻子裡的傳感細胞接觸,這張圖裡還顯示出傳感細胞分成幾種、每種的構造以及不同的感知細胞。然後連到底下的感知神經元,感知細胞相當於我們在構造電子鼻時,放了一些化學傳感器或者有機物傳感器。構造出一個類似於人的鼻腔通道,然後感知氣體流過它的分子接觸,傳感細胞時間的、空間的序列,構造出一個陣列一樣的傳感器的組合,就可以在氣味經過的時候形成一個時間上的脈衝序列,然後它有空間上的分佈。這就與人的嗅覺系統的感知機理比較接近。同時因為人腦裡是靠神經元機制形成刺激-激勵,形成以後要在神經元裡累積,累積以後要去釋放,就與神經擬態系統怎麼用SNN模型,也就是脈衝神經網絡的模型去模擬它相關。所以神經擬態芯片是比較容易讓人們構造一個模型,包含對時間和空間序列處理的一個模型,然後放在它上面,對數據進行模式的匹配。通過這一測試能把它的模式很好地記錄下來,記錄下來之後再碰到這樣一個氣味就能夠產生最高響應。同時為了不要讓其他可能的氣味誤識為它,這個陣列需要構造得比較大,上面傳感細胞的傳感器種類要更多。

“從這個工作圖上我們看到了它從理論到實踐的基礎,以及可以擴展識別更多種類氣體的擴展化的路徑。”宋繼強說,神經擬態芯片解決了如何可以在低成本、數據量很少、功耗很低的背景下來解決聞味的問題。因為在一個Loihi芯片上構造這樣的系統,它的功耗非常低,功耗只是毫瓦級別,無論是是訓練還是識別都不需要花太多電,所以可以把它做成類似於“電子鼻”的小設。而且它可以擴展去識別很多種類的氣體。

那麼量子計算等其他計算是否能夠擁有與神級擬態計算一樣的解題能力?宋繼強表示,當然也可以用傳統計算機來解題,但如果是傳統計算機就需要構造更精巧的算法,在傳統的CPU上當然可以模擬各種各樣的計算場景,但是執行效率肯定不如在Loihi上這麼直接、這麼低功耗。而量子計算是適合做大規模有並行選項同時驗證的事情,並不是適合做嗅覺識別,因為嗅覺識別需要針對只有少量的、有時間序列的數據,進行快速判別。

Pohoiki Springs難在哪裡?有什麼突破意義?

英特爾這次公佈的新系統Pohoiki Springs研發難度有多大?與上一代的系統相比有哪些突破?這些突破有什麼意義?

宋繼強表示,Pohoiki Springs是在上一代Pohoiki Beach的基礎上繼續進行大規模的互聯。首先把互聯的規模加大,加大後面臨幾個問題:第一互聯之後怎麼保證這些信息的傳遞,我們知道在一個64芯片的Pohoiki Beach板級方案上,所有的芯片之間的連接是在一塊電路板上,所以它們之間的速度是比較一致,很有保障的。當我們把12倍的板子連起來時,那就要增加更多的I/O連接組建和信息傳遞協議的處理,如何保證信息傳遞的有效和時效性。

第二是在上面支持軟件開發的時候,要更好地把硬件連接差異掩蓋掉,讓大家非常容易使用,就像使用一個大腦組織一樣,不同的分區可能不同有功能的組合,實現靈活分區使用,這需要一個分佈計算的軟件層支持,所以這一層也比較關鍵。

第三是這上面要開發一些新模型也會涉及到更大規模的模型的設計和處理,這也比在小芯片上要困難。

它的難度分為三層,一是底層如何把這麼多塊芯片互連起來,把它全部連接起來同時要保證連接的有效性和時效性,這在業界沒有做過。二是軟件層,要支持互連計算、分佈式計算和靈活分區,這也是沒有人做過的。三是支持更大規模的做動態規劃和優化的實驗,這也是英特爾首先做。

為什麼要做這樣一個大規模的系統?宋繼強表示,因為在很多領域的應用裡要做優化、約束滿足、動態規劃時,需要耗費很多時間需要消耗很多電力,而切換算法在神經擬態芯片Loihi上做可以更快、功耗更低。

神經元芯片帶來哪些新蹊徑?英特爾研究院院長這樣解密


類腦計算何時真正接近於人腦?

計算機在不斷接人腦的維度上,目前走到了哪一步?如果我們用小溪、小河到大海來形容現在走到了哪一個程度?還要突破哪些屏障才能真正走到大海?

“這比較難給出確切答案。”宋繼強說,一方面因為人類對於大腦的瞭解和認知進展並不像摩爾定律的那樣高速,它的進展非常緩慢。現在對於神經元結構基本瞭解,對於某些人的感知機理也有了解,特別像視覺、聽覺、嗅覺這些比較重要的感知機理有所瞭解,但其他更深層次的感知、認知是怎麼形成依然不瞭解。不過現在Loihi設計用的比較複雜的腦神經元的工作模型,這是我們首先可以借鑑的。另一方面在器件上,人腦的工作方式和傳統的半導體的工作機理也並不完全一樣,所以我們也在做新的底層器件研發,比如憶阻器,既可以存儲也可以計算的一種器件。

不過,宋繼強進一步表示,除了我們對人腦的認知機制與工作機制的瞭解需要繼續推進,我們還需要換一個維度,從超出人腦來看IT能夠帶來什麼。“我們說人腦很神秘、很厲害,但是畢竟是一個生物組織,有它的極限。我現在手裡有一個更強的武器比如IT、半導體、量子計算等工具,它會有比人腦更強的能力。”如何利用這些東西、利用這些芯片與人腦的研究相結合、跨學科結合就能夠更好地往前推進。

“最重要的是需要找到很好的應用導向。”宋繼強表示,比如英特爾對於Loihi研究, Loihi的主要貢獻一方面它是新的架構設計,實現了大規模集連,而且把工具鏈做起來了。另一方面是Loihi構建了一個社區,社區中不僅有所類腦計算研究的人,也吸納進來非常多不同種類的創業公司、大的五百強企業,希望通過探索看看這樣的計算能夠很好地解決哪些應用領域問題,由此來驅動神經擬態計算的發展。就像2012年深度學習在學術界嶄露頭角之後,於2016、2017年在產業界大規模使用於安防領域、生物認證領域、金融領域等,以這樣的發展路徑能夠形成從技術到規模化應用的生態。“這是一個並行發展而不是線性發展的事情,所以很難給你一個預測時間。” 宋繼強同時表示神經擬態芯片在英特爾的芯片佈局中屬於研究測試芯片,不是一個產品芯片,主要是在服務研究社區。未來如果有更大規模的商業應用場景,不排除將其通用化。


神經元芯片帶來哪些新蹊徑?英特爾研究院院長這樣解密


分享到:


相關文章: