誰怕誰?谷歌VS亞馬遜,AI芯片你看好哪家?

人工智能(和公共雲)市場的競爭白熱化,使歌與亞馬遜相抗衡。谷歌在其雲平臺上提供人工智能硬件,旨在讓培訓和運行機器學習/深度學習系統更加輕鬆,快捷和便宜,而亞馬遜,據報道,正在開發自己的AI芯片組合。 這是兩家公司與微軟Azure,IBM雲和其他公共雲服務提供商一起採取的一系列與處理器相關的舉措中的最新舉措,近幾個月來,隨著人工智能日益融入我們的業務和家庭生活,他們已經做出了自己的定位。

誰怕誰?谷歌VS亞馬遜,AI芯片你看好哪家?

谷歌正在開始使用雲端TPU(Tensor Processing Units)加速器,從谷歌雲平臺(GCP)開始,該公司表示這將有助於讓機器學習(ML)模型得到更好的培訓和運行。

Cloud TPU是Google設計的硬件,旨在加速和擴展使用TensorFlow編程的ML工作負載。每個Cloud TPU由四個定製ASIC構建,在單個板上具有高達180 teraflops的浮點性能和64 GB的內存。

“您可以通過您控制並可自定義的Google Compute Engine VM,無需等待作業在共享計算群集上進行計劃,而是可以對網絡連接的雲TPU進行交互式獨佔訪問,”產品經理John Barrus表示。雲端TPU,谷歌雲和Zak Stone,TensorFlow和雲端TPU的產品經理,Google Brain Team,在一篇聯合撰寫的博客文章中。 “而不是等待數天或數週來培訓關鍵業務ML模型,您可以在一組雲TPU上培訓同一模型的多個變體,並在第二天將最準確的訓練模型部署到生產中。”

誰怕誰?谷歌VS亞馬遜,AI芯片你看好哪家?

與此同時,據路透社報道,亞馬遜為家用安全攝像機制造商Blink及其節能芯片技術支付了9000萬美元。

“這筆交易的基本原理和價格標籤,以前沒有報道,強調了亞馬遜的目標,不僅僅是出售另一款受歡迎的相機,正如分析師所認為的那樣,”路透社報道。 其中一位知情人士表示,“在線零售商正在探索Blink專有的芯片,可以降低生產成本,延長其他產品的電池續航時間,從亞馬遜的Cloud Cam開始,可能擴展到其Echo揚聲器系列。”

根據該報告,亞馬遜尋求通過內部設備加強與消費者的聯繫。 雖然亞馬遜的Cloud Cam和Echo需要一個插入式電源,但Blink聲稱其相機可以使用兩節AA鋰電池持續兩年。亞馬遜拒絕對此次收購的條款或策略發表評論。

誰怕誰?谷歌VS亞馬遜,AI芯片你看好哪家?

此外,The Information發佈的一份報告指出,亞馬遜正在開發自己的AI芯片,該芯片旨在用於Echo以及由亞馬遜的Alexa虛擬助手提供支持的其他硬件。 據報道,該芯片將通過設備而不是AWS在本地邊緣進行處理,從而幫助其支持語音的產品更有效地處理任務。

HPCwire去年10月報道稱,對HPC和AI計算能力的需求激增,縮小了主要由Nvidia開發的高端GPU和雲供應商採用的高端GPU之間的時間差距。據知道,隨著Nvidia V100發佈墨水仍處於乾燥狀態,其他大型雲供應商仍在開展Pascal發佈,亞馬遜網絡服務已成為第一家提供Tesla Volta GPU的雲計算巨頭,擊敗競爭對手谷歌和微軟,“HPCwire報道。 “谷歌一直是提供P100 GPU的三巨頭中的第一家,但現在我們瞭解到,亞馬遜正在完全跳過Pascal並直接推向Volta,推出支持V100的P3實例,其中包括由NVLink連接的多達8個GPU。”

至於谷歌的雲TPU,該公司表示,它正在通過提供高級TensorFlow API以及開源參考雲TPU模型實現來簡化ML培訓。作者使用單一的雲TPU,ResNet-50(和其他流行的圖像分類模型)“在不到一天的時間內就ImageNet基準挑戰的預期準確度”不到200美元。

誰怕誰?谷歌VS亞馬遜,AI芯片你看好哪家?

Barrus和Stone還表示,客戶可以單獨使用Cloud TPU,也可以通過“超快速專用網絡連接形成多petaflop ML超級計算機,我們稱之為'TPU pod'。”客戶現在開始使用Cloud TPU,他們表示,將從今年晚些時候推出的TPU吊艙中獲益。 “正如我們在2017年NIPS上宣佈的那樣,ResNet-50和變壓器培訓時間從一天中的大部分時間開始下降到完整TPU吊艙的30分鐘以下,無需更改代碼。”

投資管理公司Two Sigma的首席技術官Alfred Spector表示:“我們決定將我們的深度學習研究重點放在雲計算上。”但主要是為了獲得最新的機器學習基礎設施.Google Cloud TPU就是一個例子。支持深度學習的創新,快速發展的技術,我們發現將TensorFlow工作負載轉移到TPU通過大大降低編程新模型的複雜性和培訓它們所需的時間來提高我們的生產力。使用雲TPU而不是其他集群加速器使我們能夠專注於構建我們的模型,而不會因管理集群通信模式的複雜性而分心。“

Lyft公司也表示對Google Cloud TPU的速度印象深刻。 “通常需要幾天的時間現在可能需要幾個小時,”Lyft的自動駕駛級別5軟件主管Anantha Kancherla說。 “深度學習正迅速成為運行自動駕駛汽車的軟件的支柱。隨著更多數據的結果越來越好,每週算法都會有重大突破。在這個世界中,雲TPU通過整合我們車隊的最新導航相關數據以及研究界的最新算法進展,幫助我們快速行動。“

誰怕誰?谷歌VS亞馬遜,AI芯片你看好哪家?

Barras和Stone在Cloud TPU中突出了公共雲計算提供的通常優勢。 “他們說,”您不需要投入設計,安裝和維護具有專業電源,冷卻,網絡和存儲要求的現場ML計算集群所需的資金,時間和專業知識,而是可以從大規模,緊密的方式中受益。集成的ML基礎架構,多年來一直在Google上進行了大量優化。“

谷歌表示,目前雲TPU數量有限,是按小時收費的。谷歌宣稱它的TPU比現代GPU和推理CPU快15到30倍,並且TOPS / Watt測量值提高了30-80倍。並且

谷歌在同年還發布了用於邊緣計算的Edge TPU,以及相關設備:AIY Projects Edge TPU Dev Board和Edge TPU Accelerator 圍繞谷歌新推出的專用邊緣TPU。

誰怕誰?谷歌VS亞馬遜,AI芯片你看好哪家?


分享到:


相關文章: