摘要
slam是同步定位和建圖的縮寫,它包含定位和建圖兩個主要任務。這是移動機器人學中一個重要的開放性問題:要精確地移動,移動機器人必須有一個精確的環境地圖;然而,要建立一個精確的地圖,移動機器人的感知位置必須精確地知道[1]。這樣,同時建立地圖和定位就可以看到一個問題:先是雞還是蛋?(地圖還是運動?)1990年,首次提出使用擴展卡爾曼濾波(ekf)來逐步估計機器人姿態上的後驗分佈和標誌點的位置。事實上,機器人從未知環境的未知位置出發,在運動過程中通過反覆觀察環境特徵來定位自身的位置和姿態,然後根據自身位置建立周圍環境的增量地圖,從而達到同步定位和地圖建設的目的。定位是近年來一個非常複雜和熱門的話題。定位技術依賴於環境和對成本、精度、頻率和魯棒性的要求,可以通過GPS(全球定位系統)、imu(慣性測量單元)和無線信號等來實現。但是gps只能在戶外工作,imu系統有累積誤差[5]。無線技術作爲一種主動系統,無法在成本和精度之間取得平衡。近年來,隨着激光雷達、攝像機、慣性測量單元等傳感器的快速發展,slam技術應運而生。
從基於濾波器的slam開始,基於圖的slam現在佔據了主導地位。算法從kf(kalman filter)、ekf和pf(particle filter)發展到基於圖的優化。單線程已被多線程所取代。隨着多傳感器的融合,slam技術也從最初的軍用原型向後來的機器人應用轉變。
本文的組織結構概括如下:第二節闡述了包括激光雷達傳感器在內的激光雷達slam系統、開源激光雷達slam系統、激光雷達的深入學習、面臨的挑戰和未來。
第三章重點介紹了視覺slam,包括攝像機傳感器、不同密度的開源視覺slam系統、視覺慣性里程測量slam、視覺slam的深度學習和未來。在第四節中,將演示激光雷達和視覺的融合。最後,本文指出了slam未來研究的幾個方向,爲slam的新研究者提供了高質量、全方位的用戶指南。
II 激光SLAM
A 激光雷達傳感器
- Velodyne
- SLAMTEC
- Ouster
- Quanergy
- Ibeo
- 其他sick, Hokuyo, HESAI, RoboSense, LeddarTech, ISureStar, benewake, Livox, Innovusion, Innoviz, Trimble, Leishen Intelligent System
B 激光雷達SLAM系統
1)2D SLAM
- Gmapping
- HectorSlam
- KartoSLAM
- LagoSLAM
- CoreSLAm
- Cartographer
2)3D SLAM - LOAM
- Lego-Loam
- Cartographer
- IMLS-SLAM
3)激光SLAM的深度學習 - 特徵提取:PointNetVLAD, VoxelNet,BirdNet , LMNet,OPIXOR,Yolo3D,PointCNN,MV3D
- 識別和分割:PointNet,Point-Net++,VoteNet,SegMap,SqueezeSeg,PointSIFT,PointWise,3P-RNN,SPG,SegMatch,Kd-Network,DeepTemporalSeg,PointRCNN
- 定位:L3-Net,SuMa++
C 未來與挑戰
- 1)費用和適應性
- 2)低紋理和動態環境
- 3)其他傳感器的干擾
III 視覺SLAM
A 視覺傳感器
類型
- 單目
- 雙目
- RGB-D
- 事件相機
公司
- 微軟
- 英特爾
- ZED
- MYNTAI
- Occipital Structure
- Samsung
- 其他:Leap Motion, Orbbec Astra, Pico Zense, DUO, Xtion,Camboard, IMI, Humanplus, PERCIPIO.XYZ, PrimeSense
B 視覺SLAM系統
1)稀疏視覺SLAM
- MonoSLAM
- PTAM
- ORB-SLAM
- proSLAM
- ENFT-sfm
- OpenVSLAm
- TagSLAM
- UcoSLAM
2) 半稠密SLAM - LSD-SLAM
- SVO
- DSO
- EVO
3)稠密SLAM - DRAM
- MLM SLAM
- Kinect Fusion
- DVO
- RGBG-SLAM-V2
- Kintinuous
- RTAB-MAP
- Dynamic Fusion
- Elastic Fusion
- InfiniTAM
- Bundle Fusion
- 其他:SLAMRecon, RKD-SLAM ,RGB-D SLAM ,Maplab , PointNVSNet , MID-Fusion,MaskFusion
4)視覺慣性里程計SLAM - SSF
- MSCKF
- ROVIO
- OKVIS
- VINS
- ICE-BA
- Maplab
- VI-ORB
- StructVIO
- RKSLAM
5)基於深度學習的視覺SLAM
特徵提取: - SuperPoint
- GCN-SLAM
- SalientDSO
- CubeSLAM
- MonoGRNet
識別與分割: - SLAM++
- Semanticfusion
- MarrNet
- 3DMV
- Pix3D
- ScanComplete
- Fusion++
- Mask-RCNN
- SegMap
- 3D-SIS
- DA-RNN
- DenseFusion
- CCNet
尺度恢復: - DeepVO
- GS3D
- UnDeepVO
- GeoNet
- CodeSLAM
- GEN-SLAM
- Deep-MVS
位姿輸出與優化 - PoseNet
- VINet
- DeepVO
- SFM-Net
- VSO
- MID-Fusion
- VidLoc
長期定位: - X-View
- 基於事件相機的長期定位
動態SLAM: - RDSLAM
- DS-SLAM
- MaskFusion
- Co-Fusion
- Detect-SALAM
- DynaSLAM
- StaticFusion
- RGB-D SLAM
C 挑戰與未來
1)魯棒性與便攜性
2)多傳感器融合
3)語義SLAM
IV 激光視覺SLAM系統
A 多傳感器標定
相機與IMU:
- Kalibr
- Vins-Fusion
- MSCKF-VIO
- IMU-TK
相機與深度: - BAD SLAM
雷達與IMU: - LIO-mapping
- Lidar-Align
相機與雷達 - Lidar-Camera
- RegNet
- LIMO
- CalibNet
- Autoware
B 激光與視覺融合
1)硬件層:
- Pandora公司
2)數據層 - DFuseNet
3)任務層 - V-Loam
- VI-SLAM
- VIL-SLAM
- PointFusion
- RoarNet
- AVOD
- MV3D
- FuseNet
C 挑戰與未來
1)數據關聯
2)硬件集成
3)高精度地圖
4)魯棒性與可擴展
5)抵禦風險和約束的能力
6)在UAV,VR/AR/MR
7)端到端的深度學習SLAM會是未來嗎?