(每日一讀2019.10.26)2019年SLAM綜述

摘要

slam是同步定位和建圖的縮寫,它包含定位和建圖兩個主要任務。這是移動機器人學中一個重要的開放性問題:要精確地移動,移動機器人必須有一個精確的環境地圖;然而,要建立一個精確的地圖,移動機器人的感知位置必須精確地知道[1]。這樣,同時建立地圖和定位就可以看到一個問題:先是雞還是蛋?(地圖還是運動?)1990年,首次提出使用擴展卡爾曼濾波(ekf)來逐步估計機器人姿態上的後驗分佈和標誌點的位置。事實上,機器人從未知環境的未知位置出發,在運動過程中通過反覆觀察環境特徵來定位自身的位置和姿態,然後根據自身位置建立周圍環境的增量地圖,從而達到同步定位和地圖建設的目的。定位是近年來一個非常複雜和熱門的話題。定位技術依賴於環境和對成本、精度、頻率和魯棒性的要求,可以通過GPS(全球定位系統)、imu(慣性測量單元)和無線信號等來實現。但是gps只能在戶外工作,imu系統有累積誤差[5]。無線技術作爲一種主動系統,無法在成本和精度之間取得平衡。近年來,隨着激光雷達、攝像機、慣性測量單元等傳感器的快速發展,slam技術應運而生。

從基於濾波器的slam開始,基於圖的slam現在佔據了主導地位。算法從kf(kalman filter)、ekf和pf(particle filter)發展到基於圖的優化。單線程已被多線程所取代。隨着多傳感器的融合,slam技術也從最初的軍用原型向後來的機器人應用轉變。

本文的組織結構概括如下:第二節闡述了包括激光雷達傳感器在內的激光雷達slam系統、開源激光雷達slam系統、激光雷達的深入學習、面臨的挑戰和未來。

第三章重點介紹了視覺slam,包括攝像機傳感器、不同密度的開源視覺slam系統、視覺慣性里程測量slam、視覺slam的深度學習和未來。在第四節中,將演示激光雷達和視覺的融合。最後,本文指出了slam未來研究的幾個方向,爲slam的新研究者提供了高質量、全方位的用戶指南。

II 激光SLAM

A 激光雷達傳感器

  • Velodyne
  • SLAMTEC
  • Ouster
  • Quanergy
  • Ibeo
  • 其他sick, Hokuyo, HESAI, RoboSense, LeddarTech, ISureStar, benewake, Livox, Innovusion, Innoviz, Trimble, Leishen Intelligent System

B 激光雷達SLAM系統

1)2D SLAM

  • Gmapping
  • HectorSlam
  • KartoSLAM
  • LagoSLAM
  • CoreSLAm
  • Cartographer
    2)3D SLAM
  • LOAM
  • Lego-Loam
  • Cartographer
  • IMLS-SLAM
    3)激光SLAM的深度學習
  • 特徵提取:PointNetVLAD, VoxelNet,BirdNet , LMNet,OPIXOR,Yolo3D,PointCNN,MV3D
  • 識別和分割:PointNet,Point-Net++,VoteNet,SegMap,SqueezeSeg,PointSIFT,PointWise,3P-RNN,SPG,SegMatch,Kd-Network,DeepTemporalSeg,PointRCNN
  • 定位:L3-Net,SuMa++

C 未來與挑戰

  • 1)費用和適應性
  • 2)低紋理和動態環境
  • 3)其他傳感器的干擾

III 視覺SLAM

A 視覺傳感器

類型

  • 單目
  • 雙目
  • RGB-D
  • 事件相機

公司

  • 微軟
  • 英特爾
  • ZED
  • MYNTAI
  • Occipital Structure
  • Samsung
  • 其他:Leap Motion, Orbbec Astra, Pico Zense, DUO, Xtion,Camboard, IMI, Humanplus, PERCIPIO.XYZ, PrimeSense

B 視覺SLAM系統

1)稀疏視覺SLAM

  • MonoSLAM
  • PTAM
  • ORB-SLAM
  • proSLAM
  • ENFT-sfm
  • OpenVSLAm
  • TagSLAM
  • UcoSLAM
    2) 半稠密SLAM
  • LSD-SLAM
  • SVO
  • DSO
  • EVO
    3)稠密SLAM
  • DRAM
  • MLM SLAM
  • Kinect Fusion
  • DVO
  • RGBG-SLAM-V2
  • Kintinuous
  • RTAB-MAP
  • Dynamic Fusion
  • Elastic Fusion
  • InfiniTAM
  • Bundle Fusion
  • 其他:SLAMRecon, RKD-SLAM ,RGB-D SLAM ,Maplab , PointNVSNet , MID-Fusion,MaskFusion
    4)視覺慣性里程計SLAM
  • SSF
  • MSCKF
  • ROVIO
  • OKVIS
  • VINS
  • ICE-BA
  • Maplab
  • VI-ORB
  • StructVIO
  • RKSLAM
    5)基於深度學習的視覺SLAM
    特徵提取:
  • SuperPoint
  • GCN-SLAM
  • SalientDSO
  • CubeSLAM
  • MonoGRNet
    識別與分割:
  • SLAM++
  • Semanticfusion
  • MarrNet
  • 3DMV
  • Pix3D
  • ScanComplete
  • Fusion++
  • Mask-RCNN
  • SegMap
  • 3D-SIS
  • DA-RNN
  • DenseFusion
  • CCNet
    尺度恢復:
  • DeepVO
  • GS3D
  • UnDeepVO
  • GeoNet
  • CodeSLAM
  • GEN-SLAM
  • Deep-MVS
    位姿輸出與優化
  • PoseNet
  • VINet
  • DeepVO
  • SFM-Net
  • VSO
  • MID-Fusion
  • VidLoc
    長期定位:
  • X-View
  • 基於事件相機的長期定位
    動態SLAM:
  • RDSLAM
  • DS-SLAM
  • MaskFusion
  • Co-Fusion
  • Detect-SALAM
  • DynaSLAM
  • StaticFusion
  • RGB-D SLAM

C 挑戰與未來

1)魯棒性與便攜性
2)多傳感器融合
3)語義SLAM

IV 激光視覺SLAM系統

A 多傳感器標定

相機與IMU:

  • Kalibr
  • Vins-Fusion
  • MSCKF-VIO
  • IMU-TK
    相機與深度:
  • BAD SLAM
    雷達與IMU:
  • LIO-mapping
  • Lidar-Align
    相機與雷達
  • Lidar-Camera
  • RegNet
  • LIMO
  • CalibNet
  • Autoware

B 激光與視覺融合

1)硬件層:

  • Pandora公司
    2)數據層
  • DFuseNet
    3)任務層
  • V-Loam
  • VI-SLAM
  • VIL-SLAM
  • PointFusion
  • RoarNet
  • AVOD
  • MV3D
  • FuseNet

C 挑戰與未來

1)數據關聯
2)硬件集成
3)高精度地圖
4)魯棒性與可擴展
5)抵禦風險和約束的能力
6)在UAV,VR/AR/MR
7)端到端的深度學習SLAM會是未來嗎?

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章