摘要
slam是同步定位和建图的缩写,它包含定位和建图两个主要任务。这是移动机器人学中一个重要的开放性问题:要精确地移动,移动机器人必须有一个精确的环境地图;然而,要建立一个精确的地图,移动机器人的感知位置必须精确地知道[1]。这样,同时建立地图和定位就可以看到一个问题:先是鸡还是蛋?(地图还是运动?)1990年,首次提出使用扩展卡尔曼滤波(ekf)来逐步估计机器人姿态上的后验分布和标志点的位置。事实上,机器人从未知环境的未知位置出发,在运动过程中通过反复观察环境特征来定位自身的位置和姿态,然后根据自身位置建立周围环境的增量地图,从而达到同步定位和地图建设的目的。定位是近年来一个非常复杂和热门的话题。定位技术依赖于环境和对成本、精度、频率和鲁棒性的要求,可以通过GPS(全球定位系统)、imu(惯性测量单元)和无线信号等来实现。但是gps只能在户外工作,imu系统有累积误差[5]。无线技术作为一种主动系统,无法在成本和精度之间取得平衡。近年来,随着激光雷达、摄像机、惯性测量单元等传感器的快速发展,slam技术应运而生。
从基于滤波器的slam开始,基于图的slam现在占据了主导地位。算法从kf(kalman filter)、ekf和pf(particle filter)发展到基于图的优化。单线程已被多线程所取代。随着多传感器的融合,slam技术也从最初的军用原型向后来的机器人应用转变。
本文的组织结构概括如下:第二节阐述了包括激光雷达传感器在内的激光雷达slam系统、开源激光雷达slam系统、激光雷达的深入学习、面临的挑战和未来。
第三章重点介绍了视觉slam,包括摄像机传感器、不同密度的开源视觉slam系统、视觉惯性里程测量slam、视觉slam的深度学习和未来。在第四节中,将演示激光雷达和视觉的融合。最后,本文指出了slam未来研究的几个方向,为slam的新研究者提供了高质量、全方位的用户指南。
II 激光SLAM
A 激光雷达传感器
- Velodyne
- SLAMTEC
- Ouster
- Quanergy
- Ibeo
- 其他sick, Hokuyo, HESAI, RoboSense, LeddarTech, ISureStar, benewake, Livox, Innovusion, Innoviz, Trimble, Leishen Intelligent System
B 激光雷达SLAM系统
1)2D SLAM
- Gmapping
- HectorSlam
- KartoSLAM
- LagoSLAM
- CoreSLAm
- Cartographer
2)3D SLAM - LOAM
- Lego-Loam
- Cartographer
- IMLS-SLAM
3)激光SLAM的深度学习 - 特征提取:PointNetVLAD, VoxelNet,BirdNet , LMNet,OPIXOR,Yolo3D,PointCNN,MV3D
- 识别和分割:PointNet,Point-Net++,VoteNet,SegMap,SqueezeSeg,PointSIFT,PointWise,3P-RNN,SPG,SegMatch,Kd-Network,DeepTemporalSeg,PointRCNN
- 定位:L3-Net,SuMa++
C 未来与挑战
- 1)费用和适应性
- 2)低纹理和动态环境
- 3)其他传感器的干扰
III 视觉SLAM
A 视觉传感器
类型
- 单目
- 双目
- RGB-D
- 事件相机
公司
- 微软
- 英特尔
- ZED
- MYNTAI
- Occipital Structure
- Samsung
- 其他:Leap Motion, Orbbec Astra, Pico Zense, DUO, Xtion,Camboard, IMI, Humanplus, PERCIPIO.XYZ, PrimeSense
B 视觉SLAM系统
1)稀疏视觉SLAM
- MonoSLAM
- PTAM
- ORB-SLAM
- proSLAM
- ENFT-sfm
- OpenVSLAm
- TagSLAM
- UcoSLAM
2) 半稠密SLAM - LSD-SLAM
- SVO
- DSO
- EVO
3)稠密SLAM - DRAM
- MLM SLAM
- Kinect Fusion
- DVO
- RGBG-SLAM-V2
- Kintinuous
- RTAB-MAP
- Dynamic Fusion
- Elastic Fusion
- InfiniTAM
- Bundle Fusion
- 其他:SLAMRecon, RKD-SLAM ,RGB-D SLAM ,Maplab , PointNVSNet , MID-Fusion,MaskFusion
4)视觉惯性里程计SLAM - SSF
- MSCKF
- ROVIO
- OKVIS
- VINS
- ICE-BA
- Maplab
- VI-ORB
- StructVIO
- RKSLAM
5)基于深度学习的视觉SLAM
特征提取: - SuperPoint
- GCN-SLAM
- SalientDSO
- CubeSLAM
- MonoGRNet
识别与分割: - SLAM++
- Semanticfusion
- MarrNet
- 3DMV
- Pix3D
- ScanComplete
- Fusion++
- Mask-RCNN
- SegMap
- 3D-SIS
- DA-RNN
- DenseFusion
- CCNet
尺度恢复: - DeepVO
- GS3D
- UnDeepVO
- GeoNet
- CodeSLAM
- GEN-SLAM
- Deep-MVS
位姿输出与优化 - PoseNet
- VINet
- DeepVO
- SFM-Net
- VSO
- MID-Fusion
- VidLoc
长期定位: - X-View
- 基于事件相机的长期定位
动态SLAM: - RDSLAM
- DS-SLAM
- MaskFusion
- Co-Fusion
- Detect-SALAM
- DynaSLAM
- StaticFusion
- RGB-D SLAM
C 挑战与未来
1)鲁棒性与便携性
2)多传感器融合
3)语义SLAM
IV 激光视觉SLAM系统
A 多传感器标定
相机与IMU:
- Kalibr
- Vins-Fusion
- MSCKF-VIO
- IMU-TK
相机与深度: - BAD SLAM
雷达与IMU: - LIO-mapping
- Lidar-Align
相机与雷达 - Lidar-Camera
- RegNet
- LIMO
- CalibNet
- Autoware
B 激光与视觉融合
1)硬件层:
- Pandora公司
2)数据层 - DFuseNet
3)任务层 - V-Loam
- VI-SLAM
- VIL-SLAM
- PointFusion
- RoarNet
- AVOD
- MV3D
- FuseNet
C 挑战与未来
1)数据关联
2)硬件集成
3)高精度地图
4)鲁棒性与可扩展
5)抵御风险和约束的能力
6)在UAV,VR/AR/MR
7)端到端的深度学习SLAM会是未来吗?