研究人員利用深度學習處理點雲 讓自動駕駛汽車更容易理解3D世界

自動駕駛汽車的激光雷達傳感器通過發出紅外光脈衝,並測量它們從物體上彈回的時間,傳感器創造點雲,建立汽車周圍環境的3D快照,從而幫助車輛行駛。理解原始的點雲數據十分困難,而且在機器學習時代到來之前,需要訓練有素的工程師明確他們希望手動捕獲的特徵。據外媒報道,麻省理工學院計算機科學與AI實驗室(CSAIL)研究人員最新發表了一系列論文,表示可以利用深度學習自動處理3D成像應用的點雲。

研究人員利用深度學習處理點雲 讓自動駕駛汽車更容易理解3D世界


論文資深作者之一,麻省理工學院教授Justin Solomon表示,“目前,90%的計算機視覺和機器學習僅涉及2D圖像。我們的工作旨在幫助更好地表現3D世界,且不僅限於自動駕駛應用,還包括所有需要理解3D形狀的領域。”

以前,大多數方法在從數據中獲取點雲的模式方面都不是特別成功,而這些數據是從空間中的3D點中獲取有用信息所必需的。在該團隊的一篇論文中,研究人員展示了他們分析點雲的方法EdgeConv,通過使用動態圖卷積神經網絡,能夠對單個對象進行分類和分割。豐田研究所(Toyota Research Institute)的機器學習科學家Wadim Kehl表示,“該算法通過構建相鄰點的圖,可以捕捉層級模式,從而推斷出多種類型的通用信息,可供多種下游任務使用。”

此外,該團隊還研究了點雲處理的其他方面。例如,大多數傳感器在3D世界中移動時會改變視角,每次對同一物體重新進行掃描時,物體的位置可能與上次看到的不同。要將多個點雲合併成一個詳細的世界視圖,需要對齊多個3D點,這一過程稱為“配準”(registration)。論文作者之一Yue Wang博士表示,“配準能使我們將來自不同來源的3D數據整合到一個共同的座標系統。否則,我們無法從這些方法中獲取有意義的信息。”

Solomon和Wang的第二篇論文演示了一種新的配准算法,稱為DCP(Deep Closest Point,深度最近點),能更好地找到點雲的可識別模式、點和邊緣,以便與其他點雲對齊。這對於自動駕駛汽車確定其在環境中的位置(定位)尤為重要。

DCP的一個侷限性是其假設可以看到整個形狀,而不僅是一面。這意味著DCP不能對齊物體形狀的部分視圖(稱為“部分到部分配準”)。因此,在第三篇論文中,研究人員提出了一種改進的算法,稱為部分配準網絡(PRNet)。

Solomon表示,現有的3D數據與2D圖像和照片相比,往往相當混亂、無結構化。Solomon的團隊試圖在沒有大量機器學習技術需要的受控環境下,從混亂的3D數據中獲取有意義的信息。DCP和PRNet標明,點雲處理的一個關鍵方面是情境。點雲A與點雲B對齊所需的幾何特徵可能不同於將其與點雲C對齊所需的特性。例如,在部分配準時,一個點雲的形狀的一部分可能在其他點雲上是不可見的,因此無法用於配準。

Wang表示,該團隊的工具已被計算機視覺領域和其他領域的許多研究人員使用。接下來,研究人員希望將這些算法應用於真實世界數據,包括從自動駕駛汽車收集的數據。Wang還表示,他們還計劃使用自我監督學習,探索訓練其系統的潛力,從而最小化所需的人類註釋。


分享到:


相關文章: