参考博文:
https://blog.csdn.net/qq_41839222/article/details/87860819
https://blog.csdn.net/weixin_41843971/article/details/86537228
摘要
精确的状态估计是自主机器人的一个基本问题。为了实现局部精确和全局无漂移状态估计,通常将具有互补特性的多个传感器融合在一起。**局部传感器(摄像机、imu、lidar等)在小范围内提供精确的姿态,而全局传感器(gps、磁强计、气压计等)**在大范围环境中提供噪声大但无漂移的定位。本文提出了一种融合局部状态和全局传感器的传感器融合框架,实现了局部精确、全局无漂移的姿态估计。由现有的VO/VIO方法产生的局部估计在姿态图优化中与全局传感器融合。在图优化中,局部估计被对齐成全局座标。同时,消除了累积漂移。我们在公共数据集和实际实验中评估了系统的性能。将结果与其他最新算法进行了比较。我们强调,我们的系统是一个通用的框架,可以很容易地融合各种全局传感器在一个统一的图优化中。我们的实现是开源的。
I 背景
自主移动机器人(自动驾驶、检查、搜索和救援) 基本技术:定位,精确的6自由度姿态来导航和控制
可用于局部姿态估计的sensor:
- 雷达和激光雷达广泛应用于室内受限环境
- 摄像机和惯性测量单元则适用于室内和室外环境。
局部位姿估计算法缺点:
- 没有全局座标的局部帧(相对于起始点)中产生位姿估计。即使