04.04 全新起點!英特爾發佈Agilex FPGA,採用10納米制程

作者 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

四月,草長鶯飛、桃花爛漫。如此茂盛的季節,給科技行業的新品推出,更加增添了幾分喜氣。

4月3日,英特爾宣佈推出全新產品家族——英特爾® Agilex™ FPGA。


全新起點!英特爾發佈Agilex FPGA,採用10納米制程 | 極客頭條

英特爾® Agilex™ FPGA


據瞭解,英特爾® Agilex™ 家族結合了基於英特爾10納米制程技術構建的FPGA結構和創新型異構3D SiP技術,將模擬、內存、自定義計算、自定義I/O ,英特爾eASIC和FPGA邏輯結構集成到一個芯片封裝中。

利用帶有可複用IP的自定義邏輯連續體,英特爾可提供從FPGA到結構化ASIC的遷移路徑。一個API提供軟件友好型異構編程環境,支持軟件開發人員輕鬆發揮FPGA的優勢實現加速。

而在3月28日的英特爾2019中國媒體紛享會上,英特爾就已經“曝光了”10納米制程技術,並宣佈了其最新推出的“六脈神劍”(英特爾的六大支柱結構):軟件、安全、互連、內存&存儲、架構、製程&封裝。


全新起點!英特爾發佈Agilex FPGA,採用10納米制程 | 極客頭條

英特爾六大技術支柱



隨後,英特爾中國研究院院長宋繼強、英特爾亞太研發有限公司總經理盧炬和英特爾子公司Mobileye大中華區總經理童立豐,在群訪中回應了英特爾六大支柱結構中關注性較大的一些問題。


全新起點!英特爾發佈Agilex FPGA,採用10納米制程 | 極客頭條


從左至右,英特爾亞太研發有限公司總經理盧炬、英特爾中國研究院院長宋繼強、英特爾子公司Mobileye大中華區總經理童立豐




六大支柱架構大小核工作的負載分配機制


在回答問題“英特爾六大支柱有架構大小核的東西,這個是不是和ARM有類似之處?大小核工作的負載分配機制是怎麼樣的”時,宋繼強表示,他介紹的不是大小核,而是大小的Chiplet。

大小核通常只能在一個系統集成芯片(SoC)裡面放進去不同的、比較小的、低功耗的IP核。

而大的、高性能的IP核,可以稱之為大小核,它被設計在一個SoC裡,因此叫做一體化SoC。而這,也是一種異構在一個芯片的內部實現。

Atom本身已經是一個芯片的內核,只是沒有封裝,比較大的Sunny Cove也是一個高性能的10納米芯片。

實際上,英特爾是把不同的芯片和沒有封裝的內核,通過封裝工藝組合在一起。這樣就可以帶來很高的靈活度。

此外,封裝技術用了很多互連加速技術,因此可以保證帶寬和速度,跟你放在一個SoC裡面的差別不會大。



製程在未來芯片的智能提升上扮演的角色


談到英特爾六大支柱中的製程,在未來芯片的智能提升上扮演的角色,宋繼強稱,目前的進展和以前發佈的消息一樣。

不過他表示,英特爾的10納米芯片發展得非常好,今年還要出幾款芯片基於10納米的技術芯片和通訊芯片,這些芯片在2019的CES大會上都已經發布。

而7納米、5納米是繼續按照正常的方式在演進,今年沒有特意的披露。宋繼強還表示,製程仍然繼續可以做微縮,但是微縮的速度不會像以前那麼快。

此外,不光是3D封裝,3D本身也可以做組件,同時還會有一些新材料加進去,以便提升性能、降低功耗。

說千道萬,最重要的還是要靠架構,靠對一些數據處理的充分理解,要不然就是用一個笨的方法去解決問題,如果比別人用一個簡單方法去解決問題,就會導致功耗過高。



邊緣計算的出發點不是給CPU減負


對於最近大火的邊緣計算,宋繼強表示,邊緣計算是網絡方面的概念,它不是專門用於給CPU減負,而是給終端減負。

或者說有些計算需要延遲,這時就不能靠雲端去支撐的,所以就把它放到邊緣做。

我們可以把它看成是在更合適的位置去把數據處理了,然後返回給客戶端備。

另外,邊緣計算裡面本身仍然是可以像一個小服務器一樣去定製裡面的功能,你可以有CPU、可以有FPGA加速,更可以有DSP加速和ASIC加速,這都是很靈活的。



如何理解超異構的“超”字


對於英特爾推出的超異構,宋繼強是這麼解釋“超”的:以往的異構計算,從上世紀80年代開始有各種處理器設計,一類是人們稱為一體化SoC設計,就是把不同的IP核放在一個芯片裡。

這樣做的好處是,最後做出來的東西功耗和性能具有最優比,但它要求設計人員對應用負載的理解一定要夠深,並且值得投入大量時間和資金去做這一款芯片。

但是,它的靈活度不夠高,要求它去實現這個功能是可以的,可是要想加東西,就得再等一個SoC的週期。

靈活度高的是板卡機集成的計算比如有一個CPU主板,再加上FPGA的版,或者加上DSP的板,就像以前的基站一樣,也是異構。

只要是通過不同架構的處理單元,去完成同一個任務,就都是異構計算,這是通常的處理方式。

所以我們會看到,一體化有一體化的好處,板卡有板卡的好處,但是板卡的弱點是體積大,板之間連接的功耗和帶寬都不是最優的。

當下的環境中,數據種類非常多樣,有工廠產生的數據、自動駕駛汽車產生的數據、還有基站產生的數據。

而很多地方有著不同的數據,這時數據處理最優的方式,就不是CPU加上GPU了,還得加別的。

有時,我們還想有更靈活和更小的體積,這時超異構應運而生,其“超”就超在可以把很多現有的、不同節點上已經驗證得挺好的Chiplet,集成在一個封裝裡。

在這個層級下,可以保證體積是小的,如果能把它的功耗控制得再低一些,就可以享有更高的帶寬和更短的延遲。

從成本上來看,一定比板集組合便宜很多,說不定比SoC還便宜。而如果SoC都做10納米,可能並不便宜。



英特爾如何繼續發揮摩爾定律的經濟效應


1965年,英特爾創始人之一Gordon Moore,提出了以自己名字命名的摩爾定律。

其內容為:當價格不變時,集成電路上可容納的元器件的數目,約每隔18-24個月便會增加一倍,性能也將提升一倍。

換言之,每一美元所能買到的電腦性能,將每隔18-24個月翻一倍以上。這一定律揭示了信息技術進步的速度。

40多年中,半導體芯片的集成化趨勢,一如摩爾的預測,該定律也推動了整個信息技術產業的發展,進而給千家萬戶的生活帶來了變化。

而在回顧幾十年來半導體芯片業的進展、並展望其未來時,信息技術專家們認為,以後摩爾定律可能還會適用。

在本次媒體紛享會上,宋繼強也提到要繼續發揮摩爾定律的經濟效益。

他表示,摩爾定律發表的時候就是兩個點,一個是微縮,讓芯片的密度上升;另一個是單位成本可以買到越來越多的性能。

但是,目前只靠微縮的話,效果比較慢。所以英特爾現在要靠架構創新,這樣是為什麼會有不同架構處理的芯片,就是因為要把它們組合使用。

除此之外,CPU對某些數據處理是有效的,對某些數據是低效的,如果再加上GPU,對於矢量和矩陣來說是可以的,但是對於空間來說就不行了。

所以要通過比較,去組合不同種類的芯片,這其中也需要系統級的思考問題,包括研發成本、運營成本以及電量的消耗。



後記


1971年,英特爾推出全球第一個微處理器。48年後的今天,英特爾已經早已開拓出了更廣闊的天地,其利用雲計算的能力、物聯網的無處不在、內存及編程解決方案方案方面的最新進展、以及不間斷的5G連接的前景,欲為人們解決更多的挑戰。

英特爾在其領域內,雖有競爭對手,但是總體來看,英特爾的勝利相對較多。這家已經快五十歲的公司,以後還會有哪些推陳出新呢?這個問題,就交給時間吧!


分享到:


相關文章: