SLAM綜述(2)-視覺SLAM

SLAM包含了兩個主要的任務:定位與構圖,在移動機器人或者自動駕駛中,這是一個十分重要的問題:機器人要精確的移動,就必須要有一個環境的地圖,那麼要構建環境的地圖就需要知道機器人的位置。
本系列文章主要分成四個部分:
在第一部分中,將介紹Lidar SLAM,包括Lidar傳感器,開源Lidar SLAM系統,Lidar中的深度學習以及挑戰和未來。
第二部分重點介紹了Visual SLAM,包括相機傳感器,不同稠密SLAM的開源視覺SLAM系統。
第三部分介紹視覺慣性里程法SLAM,視覺SLAM中的深度學習以及未來。
第四部分中,將介紹激光雷達與視覺的融合。

摘要
隨着CPU和GPU的發展,圖形處理能力變得越來越強大。相機傳感器同時變得更便宜,更輕巧,功能更廣泛。在過去的十年中,視覺SLAM迅速發展。與Lidar系統相比,使用相機的Visual SLAM還使該系統更便宜,更小。如今SLAM可視化系統可以在微型PC和嵌入式設備中運行,甚至可以在智能手機[1],[2]等移動設備中運行。

視覺SLAM通常包含了傳感器數據的處理,包括了攝像機或慣性測量單元,前端的視覺里程計或視覺慣導融合的里程計,後端的優化,後端的閉環以及構建地圖[3]。並且重定位是穩定和準確的視覺SLAM的另外一個十分重要的模塊[4]。在視覺里程計的過程中,除了基於特徵或模板匹配的方法或確定相機運動的相關方法之外,還有另一種方法依賴於Fourier-Mellin變換[5]。[6]和[7]給出了使用地面攝像頭時沒有明顯視覺特徵的環境中的實例

視覺傳感器

基於視覺SLAM的最常用的傳感器是相機,相機可以分爲單眼相機,立體相機,RGB-D相機,事件相機等。

單眼相機:基於單目攝像機的視覺slam具有與實際軌跡和地圖大小對應上會有一個尺度問題,也就是我們常說的,單目相機無法獲得真實的深度,這就是所謂的尺度不確定性[8]。基於單目攝像機的SLAM必須進行初始化,並面臨漂移問題。

立體相機:立體相機是兩個單眼相機的組合,但已知兩個單眼相機之間的基線距離。儘管可以基於校準,校正,匹配和

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章