分享
SLAM包含了兩個主要的任務:定位與構圖,在移動機器人或者自動駕駛中,這是一個十分重要的問題:機器人要精確的移動,就必須要有一個環境的地圖,那麼要構建環境的地圖就需要知道機器人的位置。
本系列文章主要分成四個部分:
在第一部分中,將介紹Lidar SLAM,包括Lidar傳感器,開源Lidar SLAM系統,Lidar中的深度學習以及挑戰和未來。
第二部分重點介紹了Visual SLAM,包括相機傳感器,不同稠密SLAM的開源視覺SLAM系統。
第三部分介紹視覺慣性里程法SLAM,視覺SLAM中的深度學習以及未來。
第四部分中,將介紹激光雷達與視覺的融合。
激光雷達和視覺SLAM系統 說到激光雷達和視覺SLAM系統,必不可少的是兩者之間的標定工作。
多傳感器校準
Camera&IMU:Kalibr[1]是一個工具箱,解決了以下幾種傳感器的校準:
多攝像機校準。
視覺慣性校準(Camera IMU)。
捲簾快門式攝像機校準。
Vins融合了視覺與IMU,具有在線空間校準和在線時間校準的功能。
MSCKF-VIO具有攝像機和IMU的校準功能。
mc-VINS[2]可以校準所有多個攝像機和IMU之間的外部參數和時間偏移。
IMU-TK[3][4]還可以對IMU的內部參數進行校準。
論文[5]提出了一種用於單目VIO的端到端網絡,融合了來自攝像機和IMU的數據。
單目與深度相機
BAD S