(每日一读2019.10.26)2019年SLAM综述

摘要

slam是同步定位和建图的缩写,它包含定位和建图两个主要任务。这是移动机器人学中一个重要的开放性问题:要精确地移动,移动机器人必须有一个精确的环境地图;然而,要建立一个精确的地图,移动机器人的感知位置必须精确地知道[1]。这样,同时建立地图和定位就可以看到一个问题:先是鸡还是蛋?(地图还是运动?)1990年,首次提出使用扩展卡尔曼滤波(ekf)来逐步估计机器人姿态上的后验分布和标志点的位置。事实上,机器人从未知环境的未知位置出发,在运动过程中通过反复观察环境特征来定位自身的位置和姿态,然后根据自身位置建立周围环境的增量地图,从而达到同步定位和地图建设的目的。定位是近年来一个非常复杂和热门的话题。定位技术依赖于环境和对成本、精度、频率和鲁棒性的要求,可以通过GPS(全球定位系统)、imu(惯性测量单元)和无线信号等来实现。但是gps只能在户外工作,imu系统有累积误差[5]。无线技术作为一种主动系统,无法在成本和精度之间取得平衡。近年来,随着激光雷达、摄像机、惯性测量单元等传感器的快速发展,slam技术应运而生。

从基于滤波器的slam开始,基于图的slam现在占据了主导地位。算法从kf(kalman filter)、ekf和pf(particle filter)发展到基于图的优化。单线程已被多线程所取代。随着多传感器的融合,slam技术也从最初的军用原型向后来的机器人应用转变。

本文的组织结构概括如下:第二节阐述了包括激光雷达传感器在内的激光雷达slam系统、开源激光雷达slam系统、激光雷达的深入学习、面临的挑战和未来。

第三章重点介绍了视觉slam,包括摄像机传感器、不同密度的开源视觉slam系统、视觉惯性里程测量slam、视觉slam的深度学习和未来。在第四节中,将演示激光雷达和视觉的融合。最后,本文指出了slam未来研究的几个方向,为slam的新研究者提供了高质量、全方位的用户指南。

II 激光SLAM

A 激光雷达传感器

  • Velodyne
  • SLAMTEC
  • Ouster
  • Quanergy
  • Ibeo
  • 其他sick, Hokuyo, HESAI, RoboSense, LeddarTech, ISureStar, benewake, Livox, Innovusion, Innoviz, Trimble, Leishen Intelligent System

B 激光雷达SLAM系统

1)2D SLAM

  • Gmapping
  • HectorSlam
  • KartoSLAM
  • LagoSLAM
  • CoreSLAm
  • Cartographer
    2)3D SLAM
  • LOAM
  • Lego-Loam
  • Cartographer
  • IMLS-SLAM
    3)激光SLAM的深度学习
  • 特征提取:PointNetVLAD, VoxelNet,BirdNet , LMNet,OPIXOR,Yolo3D,PointCNN,MV3D
  • 识别和分割:PointNet,Point-Net++,VoteNet,SegMap,SqueezeSeg,PointSIFT,PointWise,3P-RNN,SPG,SegMatch,Kd-Network,DeepTemporalSeg,PointRCNN
  • 定位:L3-Net,SuMa++

C 未来与挑战

  • 1)费用和适应性
  • 2)低纹理和动态环境
  • 3)其他传感器的干扰

III 视觉SLAM

A 视觉传感器

类型

  • 单目
  • 双目
  • RGB-D
  • 事件相机

公司

  • 微软
  • 英特尔
  • ZED
  • MYNTAI
  • Occipital Structure
  • Samsung
  • 其他:Leap Motion, Orbbec Astra, Pico Zense, DUO, Xtion,Camboard, IMI, Humanplus, PERCIPIO.XYZ, PrimeSense

B 视觉SLAM系统

1)稀疏视觉SLAM

  • MonoSLAM
  • PTAM
  • ORB-SLAM
  • proSLAM
  • ENFT-sfm
  • OpenVSLAm
  • TagSLAM
  • UcoSLAM
    2) 半稠密SLAM
  • LSD-SLAM
  • SVO
  • DSO
  • EVO
    3)稠密SLAM
  • DRAM
  • MLM SLAM
  • Kinect Fusion
  • DVO
  • RGBG-SLAM-V2
  • Kintinuous
  • RTAB-MAP
  • Dynamic Fusion
  • Elastic Fusion
  • InfiniTAM
  • Bundle Fusion
  • 其他:SLAMRecon, RKD-SLAM ,RGB-D SLAM ,Maplab , PointNVSNet , MID-Fusion,MaskFusion
    4)视觉惯性里程计SLAM
  • SSF
  • MSCKF
  • ROVIO
  • OKVIS
  • VINS
  • ICE-BA
  • Maplab
  • VI-ORB
  • StructVIO
  • RKSLAM
    5)基于深度学习的视觉SLAM
    特征提取:
  • SuperPoint
  • GCN-SLAM
  • SalientDSO
  • CubeSLAM
  • MonoGRNet
    识别与分割:
  • SLAM++
  • Semanticfusion
  • MarrNet
  • 3DMV
  • Pix3D
  • ScanComplete
  • Fusion++
  • Mask-RCNN
  • SegMap
  • 3D-SIS
  • DA-RNN
  • DenseFusion
  • CCNet
    尺度恢复:
  • DeepVO
  • GS3D
  • UnDeepVO
  • GeoNet
  • CodeSLAM
  • GEN-SLAM
  • Deep-MVS
    位姿输出与优化
  • PoseNet
  • VINet
  • DeepVO
  • SFM-Net
  • VSO
  • MID-Fusion
  • VidLoc
    长期定位:
  • X-View
  • 基于事件相机的长期定位
    动态SLAM:
  • RDSLAM
  • DS-SLAM
  • MaskFusion
  • Co-Fusion
  • Detect-SALAM
  • DynaSLAM
  • StaticFusion
  • RGB-D SLAM

C 挑战与未来

1)鲁棒性与便携性
2)多传感器融合
3)语义SLAM

IV 激光视觉SLAM系统

A 多传感器标定

相机与IMU:

  • Kalibr
  • Vins-Fusion
  • MSCKF-VIO
  • IMU-TK
    相机与深度:
  • BAD SLAM
    雷达与IMU:
  • LIO-mapping
  • Lidar-Align
    相机与雷达
  • Lidar-Camera
  • RegNet
  • LIMO
  • CalibNet
  • Autoware

B 激光与视觉融合

1)硬件层:

  • Pandora公司
    2)数据层
  • DFuseNet
    3)任务层
  • V-Loam
  • VI-SLAM
  • VIL-SLAM
  • PointFusion
  • RoarNet
  • AVOD
  • MV3D
  • FuseNet

C 挑战与未来

1)数据关联
2)硬件集成
3)高精度地图
4)鲁棒性与可扩展
5)抵御风险和约束的能力
6)在UAV,VR/AR/MR
7)端到端的深度学习SLAM会是未来吗?

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章