SLAM綜述(4)激光與視覺融合SLAM

分享

SLAM包含了兩個主要的任務:定位與構圖,在移動機器人或者自動駕駛中,這是一個十分重要的問題:機器人要精確的移動,就必須要有一個環境的地圖,那麼要構建環境的地圖就需要知道機器人的位置。

本系列文章主要分成四個部分:

在第一部分中,將介紹Lidar SLAM,包括Lidar傳感器,開源Lidar SLAM系統,Lidar中的深度學習以及挑戰和未來。

第二部分重點介紹了Visual SLAM,包括相機傳感器,不同稠密SLAM的開源視覺SLAM系統。

第三部分介紹視覺慣性里程法SLAM,視覺SLAM中的深度學習以及未來。

第四部分中,將介紹激光雷達與視覺的融合。

激光雷達和視覺SLAM系統 說到激光雷達和視覺SLAM系統,必不可少的是兩者之間的標定工作。

多傳感器校準

Camera&IMU:Kalibr[1]是一個工具箱,解決了以下幾種傳感器的校準:

多攝像機校準。

視覺慣性校準(Camera IMU)。

捲簾快門式攝像機校準。

Vins融合了視覺與IMU,具有在線空間校準和在線時間校準的功能。

MSCKF-VIO具有攝像機和IMU的校準功能。

mc-VINS[2]可以校準所有多個攝像機和IMU之間的外部參數和時間偏移。

IMU-TK[3][4]還可以對IMU的內部參數進行校準。

論文[5]提出了一種用於單目VIO的端到端網絡,融合了來自攝像機和IMU的數據。

在這裏插入圖片描述
單目與深度相機

BAD S

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章