SLAM綜述(3)-視覺與慣導,視覺與深度學習SLAM

SLAM包含了兩個主要的任務:定位與構圖,在移動機器人或者自動駕駛中,這是一個十分重要的問題:機器人要精確的移動,就必須要有一個環境的地圖,那麼要構建環境的地圖就需要知道機器人的位置。

本系列文章主要分成四個部分:

在第一部分中,將介紹Lidar SLAM,包括Lidar傳感器,開源Lidar SLAM系統,Lidar中的深度學習以及挑戰和未來。

第二部分重點介紹了Visual SLAM,包括相機傳感器,不同稠密SLAM的開源視覺SLAM系統。

第三部分介紹視覺慣性里程法SLAM,視覺SLAM中的深度學習以及未來。

第四部分中,將介紹激光雷達與視覺的融合。

視覺SLAM的穩定性是一項技術挑戰。因爲基於單目的視覺SLAM需要初始化、尺度的不確定性和尺度漂移等問題[1]。儘管立體相機和RGB-D相機可以解決初始化和縮放的問題,但也存在一些不容忽視的問題,如運動速度快、視角小、計算量大、遮擋、特徵丟失、動態場景和光照變換等。針對以上這些問題傳感器的融合方案逐漸流行起來,IMU與相機融合的視覺里程計成爲研究熱點。

視覺與慣導

論文[2][3][4]是比較早期對VIO進行的一些研究。[5][6]給出了視覺慣導里程計的數學證明。而論文[7]則使用捆集約束算法對VIO進行穩健初始化。特別是tango[8]、Dyson 360 Eye和hololens[9]可以算的上是VIO真正的產品,得到了很好的反饋。除此之外,蘋果的ARkit(filterbase)、谷歌的ARcore(filterbase)、uSens的Insideout都是VIO技術。下面就介紹一些開源VIO系統[10]:
在</div></body></html>

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章