低成本激光和視覺相結合的同步定位與建圖研究

文: 尹 磊 歐勇盛 江國來 彭建盛 2019年第二期

1引言

    同步定位與地圖構建(SimultaneousLocalizationandMapping,SLAM)是機器人領域的技術熱點與難點,其解決的定位和建圖問題被認為是機器人實現自主導航的關鍵。該技術主要原理是通過機器人配備的多種傳感器來感知周圍環境,并計算出自己在當前環境下的位置。SLAM被提出后,先后經歷了多個研究階段。由于激光雷達精度高、范圍廣,早期的SLAM研究往往以激光雷達為主要的傳感器。另外,早期的SLAM采用擴展卡爾曼濾波方法估計機器人的位姿[1],但效果不好,對于某些強非線性系統,該方法會帶來更多的截斷誤差,從而導致無法精準地實現定位與建圖。而后基于粒子濾波的SLAM逐漸成為主流,粒子采樣方法可有效避免非線性問題,但同樣引出了隨著粒子數增多,計算量增大的問題。

    一直到2007年,Grisetti等[2]提出了基于改進粒子濾波的SLAM方法(Gmapping),該方法通過改進的建議分布及自適應重采樣技術有效地提高了定位精度并降低了計算量,是激光SLAM的一個里程碑。Konolige等[3]在2010年提出了KartoSLAM,該方法采用圖優化代替粒子濾波,并采用稀疏點調整來解決非線性優化中矩陣直接求解難的問題。Kohlbrecher等[4]在2011年提出了HectorSLAM,該方法不需要里程計信息,通過利用高斯牛頓方法來解決掃描匹配問題,但對傳感器要求較高,需要高精度的激光雷達才能運行。由谷歌于2016年提出的Cartographer[5]可以說是最新的激光SLAM方案。該方法將獲得的每一幀激光數據,利用掃描匹配在最佳估計位置處插入子圖(Submap)中,且掃描匹配只與當前子圖有關。在生成一個子圖后,會進行一次局部的回環(LoopClose),而在所有子圖完成后,利用分支定位和預先計算的網格進行全局的回環。相比于Gmapping和Hector,該方案具有累積誤差較低,且不需要高成本設備的優點。視覺SLAM由于傳感器成本低、圖像信息豐富逐漸成為了SLAM的研究熱點。

    但與激光SLAM相比,視覺SLAM更加復雜。Davison等[6]在2007年首次提出的MonoSLAM被認為是眾多視覺SLAM的“發源地”。該方法以擴展卡爾曼濾波為后端,追蹤前端稀疏的特征點;利用概率密度函數來表示不確定性,從觀測模型和遞歸的計算,最終獲得后驗概率分布的均值和方差。Sim等[7]利用粒子濾波實現了視覺SLAM,該方法避開了線性化的問題并且精度高,但需要使用大量的粒子,從而導致計算復雜度的提高。隨后,為了減少計算復雜度,提取關鍵幀變得極為重要,其中最具代表性的是2007年Klein和Murray提出的PTAM[8]。該方法提出了簡單有效地提取關鍵幀的技術,并且該方法最為關鍵的兩點是:(1)實現了跟蹤與建圖的并行化,雖然跟蹤部分需要實時響應圖像數據,但后端優化卻不需要實時計算。即后端優化可在后臺慢慢運行,在需要的時候將兩個線程同步即可。這也是首次提出了區分前后端的概念,引領了之后眾多SLAM方法的架構設計。(2)第一次使用非線性優化,而不是傳統的濾波器。從PTAM提出后,視覺SLAM研究逐漸轉向了以非線性優化為主導的后端。

    2016年Mur-Artal和Tardos[9]提出了現代SLAM中非常著名的第二代基于具有帶方向性的加速分段測試特征(FAST)關鍵點以及帶旋轉不變性的二進制魯棒獨立基本特征(BRIEF)描述子的特征點(OrientedFASTandRotatedBRIEF,ORB)[10]的視覺SLAM系統ORB-SLAM2,是現代SLAM中做得十分完善并且易用的系統之一。該方法不僅支持單目、雙目、深度攝像頭三種模式,并且將定位、地圖創建、閉環分為三個線程,且都使用ORB特征。ORB-SLAM2的閉環檢測是一大亮點,該方法采用了詞袋模型,有效地防止了累積誤差,并且能在丟失之后迅速找回。但ORB-SLAM2的缺點也十分明顯,圖像特征提取與匹配以及后端的優化都需要計算資源,在嵌入式平臺上實現實時運行存在一定的困難,并且構建的稀疏特征點地圖雖然可以很好地滿足定位,但無法提供導航、避障等功能。相比于提取圖像中的特征點,根據圖像像素灰度信息來計算相機運動的直接法從另一個方向實現了定位和建圖。Stühmer等[11]提出的相機定位方法依賴圖像的每個像素點,即用稠密的圖像對準來進行自身定位,并構建出稠密的三維地圖。Engel等[12]對當前圖像構建半稠密深度地圖,并使用稠密圖像配準(DenseImageAlignment)法計算相機位姿。構建半稠密地圖即估計圖像中梯度較大的所有像素的深度值,該深度值被表示為高斯分布,且當新的圖像到來時,該深度值被更新。Engel等[13]提出了LSD-SLAM算法,其核心是將直接法應用到半稠密的單目SLAM中,這在之前的直接法中很少見到。以往基于特征點只能構建稀疏地圖,而稠密地圖又需要RGB-D這種可以提供深度信息的相機。

    Forster等[14]于2014年提出了半直接法單目視覺里程計(Semi-directMonocularVisualOdometry,SVO),一種被稱為“稀疏直接法”的方法,該方法將特征點與直接法混合使用,跟蹤了一些關鍵點(如角點等),然后按照直接法根據關鍵點周圍的信息估計相機運動及位置。相比于其他方案,SVO既不用消耗大量資源去計算描述子,也不必處理過多的像素信息,因此該方法可廣泛用于無人機、手持增強現實(AugmentedReality,AR)等設備上。Newcombe等[15]提出了Kinect融合的方法,該方法通過Kinect獲取的深度圖像對每幀圖像中的每個像素進行最小化距離測量而獲得相機位姿,且融合所有深度圖像,從而獲得全局地圖信息。Gokhool等[16]使用圖像像素點的光度信息和幾何信息來構造誤差函數,通過最小化誤差函數而獲得相機位姿,且地圖問題被處理為位姿圖表示。Kerl等[17]提出了較好的直接RGB-DSLAM方法,該方法結合像素點的強度誤差與深度誤差作為誤差函數,通過最小化代價函數,從而求出最優相機位姿,該過程由g2o實現,并提出了基于熵的關鍵幀提取及閉環檢測方法,從而大大降低了路徑的誤差。 

    在多傳感器融合方面,目前有視覺傳感器、激光雷達、慣性測量單元(InertialMeasurementUnit,IMU)及超聲波傳感器等多種傳感器。目前,主要融合方向為激光雷達結合視覺傳感器及IMU結合視覺傳感器。Chen等[18]通過視覺傳感器結合IMU來進行機器人的精準位姿估計,并在機器人上垂直安裝二維激光雷達采集點云數據實現三維建圖。Houben等[19]采用三維激光數據用于微型無人機定位,針對結構相似的環境激光定位會出現模糊的問題,提出在環境中加入視覺標記,提高定位精度,同時可用于微型無人機的重定位。王消為等[20]提出了一種雙目視覺信息和激光雷達數據融合的SLAM方法,該方法基于改進的粒子濾波算法實現了在計算建議分布時觀測數據,其中同時包含視覺信息和激光雷達數據。相對于里程計運動模型作為建議分布,該方法有效地提高了定位和建圖的精度。張杰和周軍[21]提出了一種激光雷達與視覺結合的SLAM方法,其中激光地圖用于導航,視覺地圖用于復原目標場景;并提出一種改進的迭代最近點法(IterativeClosestPoint,ICP)用于實現更快的點云拼接,同時采用圖優化的方法降低了累積誤差,保證地圖精度。Shi等[22]在小型無人機上,利用視覺里程計為二維激光的ICP提供初值,在實時性和精確度方面都達到了較好的效果。

技術前沿_2019052116504313864.png

技術前沿_2019052116504314195.png

    Qin等[23]提出了視覺與IMU的緊耦合方案,將視覺構造的殘差項和IMU構造的殘差項放在一起構成一個聯合優化問題。Li等[24]和Lynen等[25]通過擴展卡爾曼濾波器對視覺和IMU進行融合以實時獲取狀態估計。相對而言,激光SLAM的效果仍然要優于視覺SLAM,但激光SLAM由于其本身激光數據的特性導致其無法有效地進行大范圍的閉環檢測。對于低價格的激光雷達,由于激光點不夠密集,構建的地圖常常會出現回到原來的位置地圖,由此造成定位不準確而出現偏差的情況,這是由累積誤差所導致的。同時在激光SLAM中,閉環檢測一直是一大難點:由于獲取的激光數據是二維點云數據,無明顯特征且相互之間十分相似,所以基于激光數據的閉環檢測往往效果不好。由于圖像中包含了豐富的信息,故視覺SLAM在閉環檢測方面存在著天然優勢。ORB-SLAM2中提出的詞袋模型,采用了ORB特征配合詞袋的方法,具有很高的準確率和速度,是當前應用最廣的閉環檢測手段。針對低成本激光SLAM噪聲大、精度低、難以閉環的問題,本文提出激光結合視覺進行聯合優化的方法來提高定位建圖精度,并通過視覺詞袋模型有效地解決激光閉環檢測難的問題。

2基于圖優化的同步定位與地圖構建框架

    激光SLAM主要通過相鄰幀激光的匹配來計算相鄰幀位姿變換,但由于激光數據并非完全無噪聲的數據,尤其對于低成本激光雷達,打出去的激光點較為稀疏,從而導致計算得到的相鄰幀位姿變換存在誤差,因此往往需要加入濾波或優化的方法來使定位更加精準。而視覺SLAM是通過特征點提取與匹配來反算位姿,但若其中一幀出現問題就會導致誤差累積并

不斷地增大。圖優化是SLAM后端優化的熱門方法,通過構造節點和約束邊清晰地展示了一系列位姿和觀測量的關系,再通過非線性優化的手段求出最優變量從而得到精準的位姿估計。該方法最早應用于視覺SLAM中,起初由于圖像特征點數量過多,導致矩陣維數過大,求解困難,所以該方法一直未能成為主流方法。直到2011年海塞矩陣的稀疏性被發現,極大地提高了運算速度,使得非線性優化和圖優化的思想成功應用于視覺SLAM和激光SLAM中。而根據位姿估計和優化的實時性要求不同,SLAM也被分為前端和后端兩部分,當前主流的SLAM框架如圖1所示。

    前端主要通過傳感器數據估計機器人的位姿,但無論是圖像還是激光,觀測到的數據都含有不同程度的噪聲。相對而言,高精度激光雷達噪聲會小很多但成本過高,而通過低成本的激光雷達及相機采集圖像來進行位姿計算都會導致定位與實際真值有累積誤差,并且累積誤差會隨著時間的增加而越來越大。后端優化的主要作用就是通過濾波或優化的方式提高定位及構建的地圖精度,消除累積誤差。本文采用圖優化作為后端,通過非線性優化尋找下降梯度的方式來迭代實現誤差最小化。簡單來說,圖優化是以圖的形式來描繪優化問題。在SLAM中,圖的節點表示位姿,邊表示位姿之間以及位姿與觀測量的約束關系。機器人在導航建圖過程中,觀測量為激光數據及通過攝像頭不停地捕捉到的外部環境信息,生成大量機器人觀測到的ORB特征點對應的三維空間點。將所有數據放入圖的框架中,如圖2所示。

    其中,X表示關鍵幀位姿;O表示觀測量,包含了特征點所對應的三維空間點坐標及二維激光數據。視覺誤差由重投影誤差(圖3)來表示,重投影誤差的計算需要給定相鄰幀所對應的兩個相機位姿、匹配好的特征點在兩幅圖像中的二維坐標及所對應的三維空間點的三維坐標。純視覺SLAM往往通過特征點提取和匹配,再使用EPnP等方法來求取相鄰幀位姿變換估計。但相比于相鄰幀的激光匹配,該方法誤差較大,因此本文使用激光掃描匹配得到的位姿估計作為后端優化的初始值。而對于相鄰幀圖像中通過特征點匹配得到的特征點對p1、p2,本文采用的深度攝像頭可直接獲取得到前一幀圖像特征點p1所對應的三維空間點P的坐標,將點P重新投影到后一幀圖像上形成圖像中的特征點。由于位姿估計的誤差及深度攝像頭噪聲的存在,與p2并非完全重合,兩點之間的距離就是誤差。

技術前沿_2019052116504314053.png

圖3

技術前沿_2019052116504315664.png

圖4聯合優化整體框架


重投影坐標計算公式及過程如下:(1)通過世界坐標系到相機坐標系的變換關系(R,t),計算出世界坐標系下點P所對應的相機坐標系下點技術前沿_2019052116504315874.png的三維坐標。

技術前沿_2019052116504315882.png  (1)

其中,R為旋轉矩陣;t為平移矩陣;T表示轉置。(2)將投至歸一化平面,并將歸為1得到歸一化坐標Pc。

技術前沿_2019052116504314113.png

其中,(uc,vc)為歸一化平面上的二維坐標。(3)根據相機內參模型,像素坐標系為歸一化平面橫軸縮放了fx倍,豎軸縮放了fy倍,并且原點平移了cx、cy個像素。因此,像素坐標(us,vs)計算公式如下:

技術前沿_2019052116504315949.png

則該點誤差函數為技術前沿_2019052116504315965.png。其中,p2為直接通過圖像得到的像素坐標;技術前沿_2019052116504315989.png為根據公式(1)~(3)計算得到的重投影坐標。將上述誤差函      數擴展到相鄰兩幀之間,則最小化代價函數為技術前沿_2019052116504316045.png。通過非線性優化算法可以得到誤差最小化時相應的位姿變換(R,t)和三維空間點坐標Pi。

    相對于視覺誤差,激光誤差的獲取更為簡單。激光SLAM往往需要通過掃描匹配來實現相鄰幀的位姿變換估計,而該估計值(R,t)無法保證前一幀所有激光數據經過該位姿變換與后一幀激光數據完全重合。因此,激光的誤差定義如下:

技術前沿_2019052116504316210.png  (4)

之后,通過非線性優化來使誤差函數最小化,求得的位姿再返回到前端作為下一幀的參考幀位姿。

3.后端優化與閉環檢測

    視覺SLAM構建的地圖由特征點構成,特征地圖最大的問題在于無法用于導航,僅適合用于定位。低成本激光雷達構建的柵格地圖更適合用于導航,但存在著激光稀疏、噪聲大的問題。因此,本文提出視覺激光融合的方法,在提高定位精度的同時確保地圖更加精準,還解決了激光SLAM構建的柵格地圖難以回環的問題。而二維柵格地圖的構建主要依賴于一系列位姿和激光測量數據,根據柵格被占用的概率來增量式的建圖。由于同一時刻觀測到的視覺信息和激光數據并非完全相互獨立,因此本文提出視覺激光聯合優化來充分利用數據之間的約束。加入視覺信息的激光視覺聯合優化的SLAM整體框架如圖4所示。

3.1誤差函數

    傳統視覺相鄰幀誤差函數已在第2節中給出具體形式,圖3圖4聯合優化整體框架6263技術前沿技術前沿重投影坐標與三維空間點、上一幀圖像特征點以及位姿變換的關系如下:

技術前沿_2019052116504316716.png  (5)

其中,K為相機內參;Z為三維點的深度值。則誤差函數如下:

0.6.jpg

位姿變換(R,t)可寫成對應的李代數形式,0.7.jpg李代數變換公式為:

技術前沿_2019052116504316815.png  (7)

03..jpg

    其中,相鄰幀共有m個匹配特征點,n個激光數據點。實際計算中可將m、n限制在一定數量內從而減少計算復雜度。單獨的視覺SLAM有其自有的計算相鄰幀位姿變換算法,但由于圖像數據的特點,計算得到的(R,t)往往沒有通過激光掃描匹配得到的位姿變換精準。因此,采用激光掃描匹配得到的位姿變換來估計誤差函數中的位姿變換初始值。

3.2稀疏姿態調整

    根據觀測模型可以很容易判斷出誤差函數不是線性函數,所以本文采用非線性優化來求解誤差函數最小值所對應的變量。由于三維特征點和激光數據量過多,且隨著時間推移整體代價函數所包含的多項式會變得越來越多,故本文只優化誤差函數中的位姿變量。同時,姿態圖的優化也會隨著頂點約束的增加而變慢,所以本文采用稀疏姿態調整法,利用矩陣的稀疏性來提高優化速率。由于機器人位姿是由變換矩陣不斷計算得到且一一對應,即求得每兩相鄰幀之間的位姿變換,亦即可獲得機器人的當前位姿。因此,將機器人位姿作為唯一變量并對其進行優化,視覺觀測量和激光點云數據作為位姿之間的約束。設機器人位姿與位姿變換之間的關系為:

技術前沿_2019052116504317756.png

則誤差函數可改寫為關于位姿x的函數技術前沿_2019052116504317816.png。其中,x為位姿的集合,即待優化變量為:

技術前沿_2019052116504317839.png  (10)

其中,k為待優化位姿個數。相應地,是對整體自變量x的增量。因此,當加入增量后,目標函數為:

技術前沿_2019052116504316629.png  (11)

    其中,J表示雅克比矩陣,為代價函數對自變量的偏導數;K為待優化位姿個數,相鄰幀優化時為2,全局優化時為當前幀到回環幀之間的位姿個數。位姿優化可看作是最小二乘問題,而解決最小二乘問題的常用方法有梯度下降法、高斯牛頓法及LevenbergMarquadt(L-M)法。其中,L-M法是對梯度下降法和高斯牛頓法的綜合運用,效果最佳,因此本文采用L-M法來求解上述最小二乘問題。通過加入拉格朗日乘子對誤差函數進行改進:

技術前沿_2019052116504317497.png  (12)

0.9.jpg

    其中,參數表示近似模型與實際模型相似程度,越接近1時,越小,高斯牛頓法的近似效果越好;越小時近似效果越差,優化方法更近似于梯度下降法。一般情況下,H矩陣維數很大,矩陣求逆的復雜度為O(n3)。但由于H矩陣內部包含著各個頂點之間的約束,而只有相鄰頂點之間才具有直接約束,從而導致H矩陣大部分元素為0,具有稀疏性。因此,利用H矩陣特有的稀疏性可以大大提高運算速度。求解公式(16)可得,沿著梯度下降方向循環迭代,最終獲得目標函數最小時所對應的自變量x,即機器人位姿。

3.3閉環檢測

    閉環檢測是SLAM中的一個核心問題,通過對曾經走過的地點進行識別,能有效地減小累積誤差,提高定位精度。基于激光雷達的SLAM算法往往因為數據單一而無法有效地進行閉環檢測,而視覺圖像豐富的紋理特征則剛好可以彌補激光雷達的這一缺陷。本文采用視覺SLAM中最常用的詞袋模型(Bag-of-Words,BoW),通過視覺特征來構建關鍵幀所對應的字典,在檢測到回環后通過回環幀與當前幀的匹配來計算當前位姿,并將這一約束加入到后端中來進行回環幀與當前幀之間的全局優化,提高定位精度的同時,也防止了激光所構建的柵格地圖常出現的無法閉合的情況。

技術前沿_2019052116504318524.png

表1位姿估計對比

    由于構建室內地圖所采集到的圖像數量過多,且相鄰圖像之間具有很高的重復性,因此首先需要進行關鍵幀的提取。本文關鍵幀選取機制如下:(1)距離上一次全局重定位已經過去了15幀;(2)距離上一次插入關鍵幀已經過去了15幀;(3)關鍵幀必須已經跟蹤到了至少50個三維特征點。其中,(1)、(2)是其獨特性的基礎,因為短時間視野內的特征不會發生明顯變化;(3)保證了其魯棒性,過少的地圖點會導致計算誤差的不均勻。相對而言,激光SLAM關鍵幀的選取要更為簡單且穩定,但采用激光作為關鍵幀選取參量容易出現關鍵幀包含的圖片特征點不夠、圖像不連續等問題。因此,本文采用基于視覺的關鍵幀選取機制,既保證相鄰關鍵幀不會過于接近,又保證有足夠的信息進行關鍵幀之間的匹配。常見的圖像特征有尺度不變特征變換(ScaleInvariantFeatureTransform,SIFT)[26]、加速穩健特征(SpeededUpRobustFeatures,SURF)[27]和ORB等。其中,SIFT特征點具有旋轉不變性和尺度不變性,并且穩定性高,不易受到光照及噪聲的影響,是最理想的選擇。然而,SIFT特征提取速度慢無法保證實時,故不適用于SLAM中。SURF效果與SIFT相近同樣存在計算時間過長的問題。因此,本文選擇ORB來構建詞袋模型,ORB在保持了旋轉不變性和尺度不變性的同時,速度要明顯優于SIFT和SURF。

    BoW通過比對圖像所包含的特征將當前幀與每一個關鍵幀作相似度計算。首先當相似度表明當前幀與某一關鍵幀足夠相似時,則認為機器人回到了該關鍵幀附近的位置,產生回環。然后,在回環后對當前幀和該關鍵幀進行激光點云的ICP匹配從而以該關鍵幀的位姿為基準,計算出當前機器人位姿,并將當前幀位姿、當前幀與回環幀之間的圖像特征點、激光點云作為約束加入到圖優化框架中,從而對檢測到回環的關鍵幀與當前關鍵幀之間的一系列位姿進行全局優化。最后,根據優化后的位姿及每一幀位姿所攜帶的激光數據重新構建地圖,消除地圖中無法閉合的部分。

4實驗

    本文實驗分為兩部分:第一部分在小范圍場景下進行定點定位精度的對比實驗,分別對傳統基于圖優化的激光SLAM方法(即Karto)和本文提出的激光視覺相結合的方法進行定位數據采集;第二部分為閉環實驗,驗證本文提出的方法是否可以有效地解決激光SLAM可能出現的地圖不閉合情況。

4.1實驗平臺和環境

    本文實驗在Turtlebot2上進行,配備筆記本電腦以及激光雷達和深度攝像頭,電腦配置為IntelCorei5處理器、8G內存,運行ubuntu14.04+ROSIndigo系統。二維激光雷達采用單線激光雷達RPLIDARA2,人為設置采樣頻率為5~15Hz,測量半徑為8m。深度相機采用奧比中光公司出品的Astra深度相機。其中,該相機深度測距的有效范圍為0.6~8m,精度達3mm;深度相機視角可以達到水平58°和垂直45.5°。

    本文實驗在中國科學院深圳先進技術研究院B棟辦公樓進行,以機器人起始位置建立世界坐標系,在B棟5樓B、C區電梯之間選擇5個標志性位置,分別用Karto和本文提出的方法進行位姿測量,實驗過程如圖5所示。從0點出發,以0點為世界坐標系原點,0到1方向為x軸方向,2到3方向為-y軸方向,依次沿1、2、3、4、5運動,各點實際坐標如表1所示。機器人實際位姿由時間和速度來控制。為保證視覺特征提取的穩定性,機器人線速度保持勻速0.2m/s,角速度30(°)/s,即機器人只有0.2m/s勻速前進、30(°)/s勻速右轉及停止三個狀態。其中,前進15s為前進3m;右轉3s為右轉90°。最終通過發布線速度和角速度指令并計時來控制機器人準確到達5個標志點。第二部分實驗場景為中國科學院深圳先進技術研究院B棟4樓B區工位及C區3樓。其中,4樓工位為小范圍閉環,C區3樓為大范圍回環。

0.11.jpg

4.2實驗結果分析

    定位結果及誤差對比如表1所示。表1中數據說明僅依靠激光進行SLAM時初始誤差較小,但隨著距離變遠,測量值與實際位姿之間誤差逐漸增大。而實驗過程中使用的激光成本較低,光束本身不夠密集,導致無法保證有足夠的可用數據過濾掉測量過程中測量值本身的誤差,從而產生累積誤差。本文提出的激光視覺聯合優化位姿的方法雖然同樣存在累積誤差,但加入了視覺信息約束可有效地縮小累積誤差,可獲得更高的定位精度。圖6(a)~(d)分別是Karto[3]及本文提出的方法所構建的柵格地圖;圖6(e)是ORB-SLAM2所構建的C區3樓稀疏特征點地圖。其中,機器人位姿由一系列紅色箭頭表示。圖6(a)、(b)為工位環境的小范圍閉環,從中可以看到,圖6(a)白線圈處有不重合的現象,但由于場景較小,效果并不明顯。

111.png

    圖6(c)、6(d)為C區大范圍場景所構建的地圖,由于場景較大,隨著時間推移產生的累積誤差會不斷增大。圖6(c)中可以明顯看到白線圈出的部分地圖并未重合,這是因為累積誤差影響了機器人的定位效果,而由于定位偏差的加大,根據機器人位姿及激光數據所構建的地圖會出現不閉合的現象。相對而言,圖6(d)中機器人移動一圈回到起始位置時檢測到了閉環,根據起始位置計算出了當前幀位姿,并將當前幀位姿作為約束,進行全局優化,再通過優化后的所有位姿及所攜帶的激光數據更新地圖信息,消除無法閉合的情況。實驗結果表明,本文提出的方法可以有效地檢測回環,并優化兩點之間的所有位姿,位姿優化之后再根據每一幀位姿所攜帶的激光數據重新構建地圖,成功消除了無法閉合的地圖部分。但由于加入了視覺信息,建圖過程中對機器人速度限制變大,同時對動態障礙物的抗干擾能力變小,只能在無人時進行建圖,且需要避免攝像頭面向大面積白墻等無特征物體。

5.總結與展望

    本文研究了SLAM中多傳感器融合的問題,針對低成本激光雷達噪聲大、視覺構建的稀疏特征地圖不適用于導航的問題,提出了激光視覺相結合定位建圖的方案。通過采用基于稀疏姿態調整的方法,將激光數據和圖像信息進行聯合優化,有效地提高了定位和建圖的精度,并通過視覺詞袋模型實現閉環檢測,解決了激光閉環檢測難實現的問題。但由于加入了視覺信息,系統魯棒性變差,且室內環境光照變化往往較小,同時存在大量的動態障礙物,如攝像頭捕捉到移動的行人時會導致視覺約束的錯誤,從而影響整體的定位建圖效果。同時,當遇到白墻等物體時無法提取足夠的特征,視覺約束失效從而導致建圖失敗。下一步工作將利用激光雷達和視覺各自的優點,提高整體的魯棒性,保證建圖的效果。

1.1.jpg

1.2.jpg









中傳動網版權與免責聲明:

凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.hysjfh.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。

伺服與運動控制

關注伺服與運動控制公眾號獲取更多資訊

直驅與傳動

關注直驅與傳動公眾號獲取更多資訊

中國傳動網

關注中國傳動網公眾號獲取更多資訊

熱搜詞
  • 運動控制
  • 伺服系統
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統
  • 工業電源
  • 電力電子
  • 工業互聯
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯接
  • 工業機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0
往期雜志
  • 2025年 第1期

    2025年 第1期

    伺服與運動控制

    2025年 第1期

  • 2024年第1期

    2024年第1期

    伺服與運動控制

    2024年第1期

  • 2023年第4期

    2023年第4期

    伺服與運動控制

    2023年第4期

  • 2023年第3期

    2023年第3期

    伺服與運動控制

    2023年第3期

  • 2023年第2期

    2023年第2期

    伺服與運動控制

    2023年第2期