DevRun Live第二場,“攻城獅”們,到你們“追劇”時間了

原本是一場線下狂歡,現在成了雲上盛宴。

也好,這正中“攻城獅”們的氣質:“能用技術解決的問題就不去跑斷腿”。否則還會因為擠不進會場而悶悶不樂,或者因為中意的兩場技術沙龍時間衝突而抓耳撓腮。

現在好了,華為全球開發者年度頂級旗艦活動——華為開發者大會2020(Cloud)搬到線上,並於3月27日-28日進行直播。AI、鯤鵬、昇騰、數據庫、區塊鏈、雲原生、5G……百餘場技術議題齊分享。不用搶座位、不用戴口罩、不用怕錯過任何一個感興趣的話題,HDC.Cloud豐盛的技術“大餐”滿足你所有胃口。

並且,作為HDC.Cloud的拓展和補充,華為還推出了“DevRun Live”開發者沙龍專欄,同樣以直播的形式分享前沿科技和應用實踐。百場技術專題每週與開發者們見面,據介紹,華為已將“DevRun Live”安排滿了一整年,乾貨滿滿任君“採擷”。

DevRun Live第二場,“攻城獅”們,到你們“追劇”時間了

話說,受全球新冠肺炎疫情的影響,多個國外重量級IT公司紛紛宣佈取消技術大會或開發者活動,是否在線上開展大多也並無明確表態。但是,一個優秀的“攻城獅”有什麼共同的特質?那就是對技術的執著和學習熱情。這麼看來,華為的做法著實做出了表率,有了“DevRun Live”,也就到了開發者們的“追劇”時間了。

上週,首場“DevRun Live”開發者沙龍直播已於2月28日舉行,今天迎來“DevRun Live”的第二場,圍繞昇騰與開源話題展開,我們來看看“大獅”們都講了什麼?

如何在人形機器人上實現實時的動作識別與智能交互

眾所周知,圍繞計算機視覺的人體動作識別與智能交互在當下已得到廣泛應用,例如智能服務機器人、醫學臨床診斷、體感遊戲等領域,並且有著廣闊的市場前景,當然也就成為開發者們研究和學習的熱點。

今天“DevRun Live”的首個議題就是圍繞如何在人形機器人上實現實時的動作識別與智能交互展開。要實現這這一AI特性的機器視覺解決方案,離不開一個低功耗、小型化、高算力的推理處理器,去保障AI算法在近端的有效實現,從而加速人工智能產品在用戶端的成功落地。

DevRun Live第二場,“攻城獅”們,到你們“追劇”時間了

來自全愛科技有限公司的首席技術官徐俊分享了全愛科技基於華為Atlas人工智能計算平臺共同打造的機器視覺平臺解決方案。該平臺設計採用華為Atlas 200,基於昇騰310 AI處理器,使用極致高效計算低功耗AI SoC。實現最高功耗僅30W,6.5V-17V的寬電壓輸入,並且可採用鋰電池供電,具備超小體積的特點,可廣泛應用於光學工業檢測、智能機器人、智能車、智能安防、航空航天、導航等行業領域。

為何選擇Atlas 200?徐俊指出,一般說來,機器人動作識別系統包含三大子系統,例如模型構建子系統、實時動作識別子系統、機器人動作模仿子系統等,又涉及特徵提取、關鍵點置信度和節點親和度向量計算等關鍵技術,這背後需要一款專門為圖像識別、視頻處理、推理計算及機器學習設計的高性能、低功耗AI芯片提供支撐。作為一款高性能的AI智能計算模塊,Atlas 200集成了昇騰310 AI處理器,芯片內置2個AI core,可支持128位寬的LPDDR4X,可實現最大16TOPS(INT8)的計算能力,是全愛科技進行機器人實時動作識別與智能交互設計的最佳之選。

此外,全愛科技機器視覺平臺還採用華為Mind Studio優化模型部署和管理,提速底層開發。模型轉換支持Caffe、Tensorflow等主流框架,網絡模型可模塊化搭建,圖形化結果仿真,可支持多種可視化結果顯示。易於調用和部署,方便客戶零基礎上手。

單機如何實現384路極致高密視頻實時分析

智慧交通、平安城市等建設帶來了視頻應用的爆發,眾所周知,視頻產生的數據量是巨大的。隨之而來,這讓視頻存儲難、分析難、平臺整合難等挑戰日益突出。

DevRun Live第二場,“攻城獅”們,到你們“追劇”時間了

如何應對挑戰?來自格靈深瞳信息技術有限公司的首席技術官鄧亞峰進行了第二個議題分享——單機如何實現384路極致高密視頻實時分析。提升視覺計算系統運算效率的方式涉及硬件平臺的選擇、基於硬件平臺的軟件優化,以及基於網絡結構改進的加速策略等。這其中極致算法的打磨是基礎,而選擇一個能夠與之匹配的AI算力尤為關鍵,其能力包括是否儘可能減少CPU計算、內存大小、圖像處理能力、視頻編解碼能力、圖像編解碼能力、總線IO能力等等。

大規模的計算能力能夠有效加速深度學習網絡的探索、評估和優化等方面的性能,從而支撐和解決大規模問題。在此背後,華為Atlas 300 AI加速卡能夠發揮關鍵作用。Atlas 300 AI加速卡採用全新的達芬奇架構,提供業界領先的性能與能效比。它能夠實現單卡64T FLOPS INT8的超強算力,並支持JPEG和視頻硬件編解碼,提升圖片和視頻類應用性能。並且在低時延方面,滿足了特徵匹配場景內存需求。

格林深瞳選擇華為Atlas並與華為一道基於Atlas 300進行推理優化,最終實現了基於昇騰+鯤鵬的Atlas 800 AI服務器支持384路視頻全目標結構化能力,這一成果也達到了業內的領先水平。如何做到的?

鄧亞峰分享了三個層面的重點優化過程:

  • 系統調度:干預非實時任務調度以提高實時任務(如視頻解碼)線程的調度效率;將視頻積壓做到7幀/路。
  • 推理流水線優化:滿Batch執行,提高推理引擎利用效率;小模型、大batch數,大模型、小batch數;每路視頻積壓幀數小於15。
  • 內存優化:針對大頁內存特性優化的內存池,實現16路人臉內存佔用僅2.4G左右;共享圖片緩存池,不進行任何圖片拷貝;基於LayerMap的Tensor劃分,實現推理引擎的推理只申請一次內存;相比Tensor獨立申請,極端情況下內存申請耗時從24ms降至0.1ms。

這之後得到的優化結果也很明顯,實現單卡支持48路視頻結構化以及64路人臉識別,結合格林深瞳全目標結構化算法,最終實現單機可提供384路極致高密視頻實時分析,以超高性能和低成本為企業客戶提供超強視頻解析性能。

如何構建基於Arm64的開源雲平臺

Arm64架構在企業市場逐步走向成熟。越來越多的開發者期望在Arm64環境中運行Kubernetes集群,但是目前很難獲得到合適的資源。第三個議題,Linaro雲基礎設施Tech Lead趙帥詳述了Arm64開源雲平臺的基本結構,以及Kubernetes as a service的技術實現細節和Arm64開源雲平臺未來的發展方向。

DevRun Live第二場,“攻城獅”們,到你們“追劇”時間了

作為業界第一個基於Arm64服務器的開發者雲平臺,Linaro Developer Cloud於2016年3月正式發佈,可以為開發者和用戶提供Kubernetes服務以及IaaS服務。它利用OpenStack作為基礎設施層,Kubernetes 服務完全構建在OpenStack層之上。同時,Kubernetes集群需要通過Cloud provider組件,調用來自OpenStack層所提供的諸如認證、存儲、負載均衡等服務為自身提供網絡存儲認證的能力。所有的這些服務,完全運行在開源的Arm64平臺之上。

Linaro Developer Cloud作為一個開源雲,提供給了廣大開發者基於Arm64架構進行項目開發的平臺,感興趣的小夥伴可以去註冊申請使用,免費的。

好了,這就是今天“DevRun Live”技術沙龍的三場主要議題,如果錯過的小夥伴可以前往HDC.Cloud官網觀看回看。當然,接下來還有全年無休的一系列技術分享,有必要說的是,參與直播更有驚喜,不限與大神實時互動、答疑解惑,還可以賺取碼豆兌好禮,都是符合“攻城獅”氣質的定製好物。

最後再預告下華為開發者大會2020(Cloud)將於3月27日-28日線上直播舉行,大會旨在搭建一個全球性的交流和實踐平臺,開放華為30年積累的ICT技術和能力,以“鯤鵬+昇騰”硬核雙引擎,為開發者提供澎湃動力,改變世界,變不可能為可能。

我們期待與你共創計算未來,在一起,夢飛揚!


分享到:


相關文章: