時間:2021-04-29 20:43:39來源:夏澤洋團隊
立體匹配是三維重建的核心步驟,其輸入是一對經過矯正的彩色圖像,通過匹配同一三維物體在左右兩幅圖像上的投影點得到視差。目前,已有的立體匹配方法在無遮擋區域時,實現了較高的匹配精度,但在有遮擋區域時,匹配誤差較大。同時,已有方法的計算效率普遍較低。因此,該研究提出了一種基于分割的立體匹配視差優化算法,以解決包含遮擋區域圖像的快速立體匹配問題。
該研究所提出的基于分割的立體匹配視差優化方法直接優化由彩色參考圖像得到的初始匹配最小代價對應的視差(WTA)。首先,參考圖像被分割為超像素,視差優化方法直接在超像素上進行處理;然后,通過對超像素平均視差的估計得到一個前置平行視差圖;之后,對每個超像素分配一個平面以優化得到一個傾斜表面視差圖。前置平行視差圖到傾斜表
面視差圖的轉換通過一個全局優化層和一個局部優化層優化得到。在全局優化層中,采用馬爾科夫隨機域優化算法對前向平行視差圖進行估計;在局部優化層中,利用隨機抽樣一致算法與基于概率的視差平面算法來優化傾斜表面視差圖。在Middlebury 2014 和 KITTI 2015 數據庫上對所提出的方法進行了測試并與當前最優的視差優化方法進行了比較。在計算精度方面,所提出方法排名第 6 位;在計算效率方面,所提出方法比其他方法快 30 倍以上。
該研究所提出的基于分割的立體匹配視差優化方法有效地解決了有遮擋時場景的快速、精確三維重建問題,為工業機器人等領域中的實時三維場景重建以及特殊環境下醫療機器人應用中的組織和器械的實時三維重建奠定了基礎。
圖 1 基于分割的視差方法總體流程
下一篇:一種基于磨削力模型的機器人...
中國傳動網版權與免責聲明:凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.hysjfh.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。
本網轉載并注明其他來源的稿件,均來自互聯網或業內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。
產品新聞
更多>2025-05-19
2025-04-30
2025-04-11
2025-04-08
2025-03-31
2025-03-26