機器人視覺的避障方式,講的超詳細

避障是指移動機器人在行走過程中,通過傳感器感知到在其規劃路線上存在靜態或動態障礙物時,按照 一定的算法實時更新路徑,繞過障礙物,最後達到目標點。

機器人視覺的避障方式,講的超詳細

  避障常用哪些傳感器?

  不管是要進行導航規劃還是避障,感知周邊環境信息是第一步。就避障來說,移動機器人需要通過傳感器 實時獲取自身周圍障礙物信息,包括尺寸、形狀和位置等信息。避障使用的傳感器多種多樣,各有不同的原理和特點,目前常見的主要有視覺傳感器、激光傳感器、紅外傳感器、超聲波傳感器等。下面我簡單介紹一下這幾種傳感器的基本工作原理。

  超聲波

  超聲波傳感器的基本原理是測量超聲波的飛行時間,通過d=vt/2測量距離,其中d是距離,v是聲速,t是 飛行時間。由於超聲波在空氣中的速度與溫溼度有關,在比較精確的測量中,需把溫溼度的變化和其它因素考慮進去。

機器人視覺的避障方式,講的超詳細

  上面這個圖就是超聲波傳感器信號的一個示意。通過壓電或靜電變送器產生一個頻率在幾十kHz的超聲波脈衝組成波包,系統檢測高於某閾值的反向聲波,檢測到後使用測量到的飛行時間計算距離。超聲波傳感器一般作用距離較短,普通的有效探測距離都在幾米,但是會有一個幾十毫米左右的最小探測盲區。由於超聲傳感器的成本低、實現方法簡單、技術成熟,是移動機器人中常用的傳感器。超聲波傳感器也有一些缺點,首先看下面這個圖。

機器人視覺的避障方式,講的超詳細

  因為聲音是錐形傳播的,所以我們實際測到的距離並不是 一個點,而是某個錐形角度範圍內最近物體的距離。

  另外,超聲波的測量週期較長,比如3米左右的物體,聲波傳輸這麼遠的距離需要約20ms的時間。再者,不同材料對聲波的反射或者吸引是不相同的,還有多個超聲傳感器之間有可能會互相干擾,這都是實際應用的過程中需要考慮的。

  紅外

  一般的紅外測距都是採用三角測距的原理。紅外發射器按照一定角度發射紅外光束,遇到物體之後,光會反向回來,檢測到反射光之後,通過結構上的幾何三角關係,就可以計算出物體距離D。

機器人視覺的避障方式,講的超詳細

  當D的距離足夠近的時候,上圖中L值會相當大,如果超過CCD的探測範圍,這時,雖然物體很近,但是傳感器反而看不到了。當物體距離D很大時,L值就會很小,測量?精度會變差。因此,常見的紅外傳感器 測量距離都比較近,小於超聲波,同時遠距離測量也有最小距離的限制。另外,對於透明的或者近似黑體的物體,紅外傳感器是無法檢測距離的。但相對於超聲來說,紅外傳感器具有更高的帶寬。

  激光

  常見的激光雷達是基於飛行時間的(ToF,time of flight),通過測量激光的飛行時間來進行測距d=ct/2,類似於前面提到的超聲測距公式,其中d是距離,c是光速,t是從發射到接收的時間間隔。激光雷達包括髮射器和接收器 ,發射器用激光照射目標,接收器接收反向回的光波。機械式的激光雷達包括一個帶有鏡子的機械機構,鏡子的旋轉使得光束可以覆蓋 一個平面,這樣我們就可以測量到一個平面上的距離信息。

  對飛行時間的測量也有不同的方法,比如使用脈衝激光,然後類似前面講的超聲方案,直接測量佔用的時間,但因為光速遠高於聲速,需要非常高精度的時間測量元件,所以非常昂貴;另一種發射調頻後的連續激光波,通過測量接收到的反射波之間的差頻來測量時間。

機器人視覺的避障方式,講的超詳細

圖一

機器人視覺的避障方式,講的超詳細

圖二

 

  比較簡單的方案是測量反射光的相移,傳感器以已知的頻率發射一定幅度的調製光,並測量發射和反向信號之間的相移,如上圖一。調製信號的波長為lamda=c/f,其中c是光速,f是調製頻率,測量到發射和反射光束之間的相移差theta之後,距離可由lamda*theta/4pi計算得到,如上圖二。

  激光雷達的測量距離可以達到幾十米甚至上百米,角度分辨率高,通常可以達到零點幾度,測距的精度也高。但測量距離的置信度會反比於接收信號幅度的平方,因此,黑體或者遠距離的物體距離測量不會像光亮的、近距離的物體那麼好的估計。並且,對於透明材料,比如玻璃,激光雷達就無能為力了。還有,由於結構的複雜、器件成本高,激光雷達的成本也很高。

  一些低端的激光雷達會採用三角測距的方案進行測距。但這時它們的量程會受到限制,一般幾米以內,並且精度相對低一些,但用於室內低速環境的SLAM或者在室外環境只用於避障的話,效果還是不錯的。

  視覺

  常用的計算機視覺方案也有很多種, 比如雙目視覺,基於TOF的深度相機,基於結構光的深度相機等。深度相機可以同時獲得RGB圖和深度圖,不管是基於TOF還是結構光,在室外強光環境下效果都並不太理想,因為它們都是需要主動發光的。

  像基於結構光的深度相機,發射出的光會生成相對隨機但又固定的斑點圖樣,這些光斑打在物體上後,因為與攝像頭距離不同,被攝像頭捕捉到的位置也不相同,之後先計算拍到的圖的斑點與標定的標準圖案在不同位置的偏移,利用攝像頭位置、傳感器大小等參數就可以計算出物體與攝像頭的距離。而我們目前的E巡機器人主要是工作在室外環境,主動光源會受到太陽光等條件的很大影響,所以雙目視覺這種被動視覺方案更適合,因此我們採用的視覺方案是基於雙目視覺的。

機器人視覺的避障方式,講的超詳細

  雙目視覺的測距本質上也是三角測距法,由於兩個攝像頭的位置不同,就像我們人的兩隻眼睛一樣,看到的物體不一樣。兩個攝像頭看到的同一個點P,在成像的時候會有不同的像素位置,此時通過三角測距就可以測出這個點的距離。與結構光方法不同的是,結構光計算的點是主動發出的、已知確定的,而雙目算法計算的點一般是利用算法抓取到的圖像特徵,如SIFT或SURF特徵等,這樣通過特徵計算出來的是稀疏圖。

  要做良好的避障,稀疏圖還是不太夠的,我們需要獲得的是稠密的點雲圖,整個場景的深度信息。稠密匹配的算法大致可以分為兩類,局部算法和全局算法。局部算法使用像素局部的信息來計算其深度,而全局算法採用圖像中的所有信息進行計算。一般來說,局部算法的速度更快,但全局算法的精度更高。

  這兩類各有很多種不同方式的具體算法實現。能過它們的輸出我們可以估算出整個場景中的深度信息,這個深度信息可以幫助我們尋找地圖場景中的可行走區域以及障礙物。整個的輸出類似於激光雷達輸出的3D點雲圖,但是相比來講得到信息會更豐富,視覺同激光相比優點是價格低很多,缺點也比較明顯,測量精度要差 一些,對計算能力的要求也高很多。當然,這個精度差是相對的,在實用的過程中是完全足夠的,並且我們目前的算法在我們的平臺NVIDIA TK1和TX1上是可以做到實時運行。

機器人視覺的避障方式,講的超詳細

KITTI採集的圖

機器人視覺的避障方式,講的超詳細

實際輸出的深度圖,不同的顏色代表不同的距離

  KITTI採集的圖

  實際輸出的深度圖,不同的顏色代表不同的距離

  在實際應用的過程中,我們從攝像頭讀取到的是連續的視頻幀流,我們還可以通過這些幀來估計場景中 目標物體的運動,給它們建立運動模型,估計和預測它們的運動方向、運動速度,這對我們實際行走、避障規劃是很有用的。

  以上幾種是最常見的幾種傳感器 ,各有其優點和缺點,在真正實際應用的過程中,一般是綜合配置使用多種不同的傳感器 ,以最大化保證在各種不同的應用和環境條件下,機器人都能正確感知到障礙物信息。我們公司的E巡機器人的避障方案就是以雙目視覺為主,再輔助以多種其他傳感器,保證機器人周邊360度空間立體範圍內的障礙物都能被有效偵測到,保證機器人行走的安全性。

  避障常用算法原理

  在講避障算法之前,我們假定機器人已經有了一個導航規劃算法對自己的運動進行規劃,並按照規劃的路徑行走。避障算法的任務就是在機器人執行正常行走任務的時候,由於傳感器的輸入感知到了障礙物的存在,實時地更新目標軌跡,繞過障礙物。

  Bug算法知乎用戶無方表示

  Bug算法應該是最簡單的一種避障算法了,它的基本思想是在發現障礙後,圍著檢測到的障礙物輪廓行走,從而繞開它。Bug算法目前有很多變種, 比如Bug1算法,機器人首先完全地圍繞物體,然後從距目標最短距離的點離開。Bug1算法的效率很低,但可以保證機器人達到目標。

機器人視覺的避障方式,講的超詳細

Bug1算法示例

  Bug1算法示例

  改進後的Bug2算法中,機器人開始時會跟蹤物體的輪廓,但不會完全圍繞物體一圈,當機器人可以直接移動至目標時,就可以直接從障礙分離,這樣可以達到比較短的機器人行走總路徑。

機器人視覺的避障方式,講的超詳細

Bug2算法示例

  Bug2算法示例

  除此之外,Bug算法還有很多其他的變種, 比如正切Bug算法等等。在許多簡單的場景中,Bug算法是實現起來比較容易和方便的,但是它們並沒有考慮到機器人的動力學等限制,因此在更復雜的實際環境中就不是那麼可靠好用了。

  勢場法(PFM)

  實際上,勢場法不僅僅可以用來避障,還可以用來進行路徑的規劃。勢場法把機器人處理在勢場下的 一個點,隨著勢場而移動,目標表現為低谷值,即對機器人的吸引力,而障礙物扮演的勢場中的一個高峰,即斥力,所有這些力迭加於機器人身上,平滑地引導機器人走向目標,同時避免碰撞已知的障礙物。當機器人移動過程中檢測新的障礙物,則需要更新勢場並重新規劃。

機器人視覺的避障方式,講的超詳細

機器人視覺的避障方式,講的超詳細

機器人視覺的避障方式,講的超詳細

  上面這個圖是勢場比較典型的示例圖,最上的圖a左上角是出發點,右下角是目標點,中間三個方塊是障礙物。中間的圖b就是等勢位圖,圖中的每條連續的線就代表了一個等勢位的一條線,然後虛線表示的在整個勢場裡面所規劃出來的一條路徑,我們的機器人是沿著勢場所指向的那個方向一直行走,可以看見它會繞過這個比較高的障礙物。

  最下面的圖,即我們整個目標的吸引力還有我們所有障礙物產生的斥力最終形成的一個勢場效果圖,可以看到機器人從左上角的出發點出發,一路沿著勢場下降的方向達到最終的目標點,而每個障礙物勢場表現出在很高的平臺,所以,它規劃出來的路徑是不會從這個障礙物上面走的。

  一種擴展的方法在基本的勢場上附加了?另外兩個勢場:轉運勢場和任務勢場。它們額外考慮了由於機器人本身運動方向、運動速度等狀態和障礙物之間的相互影響。

  轉動勢場考慮了障礙與機器人的相對方位,當機器人朝著障礙物行走時,增加斥力, 而當平行於物體行走時,因為很明顯並不會撞到障礙物,則減小斥力。任務勢場則排除了那些根據當前機器人速度不會對近期勢能造成影響的障礙,因此允許規劃出 一條更為平滑的軌跡。

  另外還有諧波勢場法等其他改進方法。勢場法在理論上有諸多侷限性, 比如局部最小點問題,或者震盪性的問題,但實際應用過程中效果還是不錯的,實現起來也比較容易。

  向量場直方圖(VFH)

  它執行過程中針對移動機器人當前周邊環境創建了一個基於極座標表示的局部地圖,這個局部使用柵格圖的表示方法,會被最近的一些傳感器數據所更新。VFH算法產生的極座標直方圖如圖所示:

機器人視覺的避障方式,講的超詳細

  圖中x軸是以機器人為中心感知到的障礙物的角度,y軸表示在該方向存在障礙物的概率大小p。實際應用的過程中會根據這個直方圖首先辨識出允許機器人通過的足夠大的所有空隙,然後對所有這些空隙計算其代價函數,最終選擇具有最低代價函數的通路通過。

  代價函數受三個因素影響:目標方向、機器人當前方向、之前選擇的方向,最終生成的代價是這三個因素的加權值,通過調節不同的權重可以調整機器人的選擇偏好。VFH算法也有其他的擴展和改進,比如在VFH+算法中,就考慮了機器人運動學的限制。由於實際底層運動結構的不同,機器的實際運動能力是受限的,比如汽車結構,就不能隨心所欲地原地轉向等。VFH+算法會考慮障礙物對機器人實際運動能力下軌跡的阻擋效應,屏蔽掉那些雖然沒有被障礙物佔據但由於其阻擋實際無法達到的運動軌跡。我們的E巡機器人採用的是兩輪差動驅動的運動形式,運動非常靈活,實際應用較少受到這些因素的影響。

  具體可以看 一下這個圖示:

機器人視覺的避障方式,講的超詳細

  類似這樣傳統的避障方法還有很多,除此之外,還有許多其他的智能避障技術,比如神經網絡、模糊邏輯等。

  神經網絡方法對機器人從初始位置到目標位置的整個行走路徑進行訓練建模,應用的時候,神經網絡的輸 入為之前機器人的位姿和速度以及傳感器的輸 入,輸出期望的下一目標或運動方向。

  模糊邏輯方法核心是模糊控制器,需要將專家的知識或操作人員的經驗寫成多條模糊邏輯語句,以此控制機器人的避障過程。比如這樣的模糊邏輯:第一條,若右前方較遠處檢測到障礙物,則稍向左轉;第二條,若右前方較近處檢測到障礙物,則減速並向左轉更多角度;等等。


分享到:


相關文章: