【点云论文速读】基于优化的视觉惯导里程计与GPS的紧耦合的融合方案
标题:Tightly-coupled Fusion of Global Positional Measurements in Optimization based Visual-Inertial Odometry
作者:Giovanni Cioffi, Davide Scaramuzza
来源:IROS 2020
星球ID:particle
欢迎各位加入免费知识星球,获取PDF论文,欢迎转发朋友圈分享快乐。
视觉和惯导适合于获得局部精确的姿态估计,但在长期导航中积累了较大的漂移。为了实现高速、精确、局部和全局一致的估计,可以将GPS信息与视觉和惯导融合。本文提出了一种基于紧耦合优化的多传感器融合方法。
●论文摘要
为了在自动驾驶的中实现长期鲁棒的、无漂移的姿态估计,本文提出了一种基于紧密耦合的非线性优化估计器中将全局位置信息与视觉和惯导测量信息融合的方法。与之前的工作不同,这些工作是松耦合的,使用紧密耦合的方法可以利用所有测量值之间的相关性。通过最小化包含视觉重投影误差、相对惯导误差和全局位置残差的代价函数来估计最新系统状态的滑动窗口。使用IMU预积分来计算惯性残差,并利用此算法的结果来有效地计算全局位置残差。实验结果表明,该方法在不增加优化计算量的前提下,实现了精确的全局一致估计。我们的方法始终优于松耦合融合方法。在室外无人机(UAV)飞行中,利用GPS噪声测量得到全局位置信息,相对于松耦合方法,平均位置误差可降低到50%。据我们所知,这是第一个将全局位置测量紧密融合在基于优化的视觉惯导里程计算法中的工作。
●主要贡献
本文提出了一种基于紧耦合优化的多传感器融合方法。
●论文图集
基于优化的多传感器融合表示方法。我们区分三种类型的因素:视觉(橙色)、惯导(蓝色)和全局位置因子(绿色)。优化变量是当前滑动窗口中关键帧的状态和视觉路标点。在图的底部,IMU测量值在时间线上用十字表示,而关键帧和全局位置测量值分别用黑色和绿色箭头表示。
在这项工作中,我们提出了一种基于优化的紧密耦合方法来融合视觉、惯性和全局位置测量。全局位置测量用于定义优化图中的新因子,如图1所示。我们定义了一种基于关键帧的滑动窗口优化方法,区别在于全局位置因子的加入,因为优化中的状态数不会改变。这些新的误差项可以使用IMU预积分算法有效地计算。我们利用IMU预积分项来定义连续关键帧之间的惯性误差,在滑动窗口中关键帧的位置和全局位置测量之间建立约束。
优化的残差方程
●实验对比
表一包含绝对轨迹误差ATE,在没有融合在GPS的VIO的松耦合的方法在所有EuRoC数据集上的结果。
表二所示,紧耦合方法比松耦合方法给出了更精确的位置估计。
●总结
本文将融合问题描述为一个基于关键帧的滑动窗口优化问题,其中使用GPS信息计算出新的全局因子。利用IMU预积分项的计算将GPS全局因子包含在优化中,与视觉+惯导的方法相比,计算成本几乎没有增加。并且实验结果表明,该方法能够有效地实现了精确和全局一致的位置估计,并始终优于现有的松耦合方法。
参考文献
[1] J. Delmerico and D. Scaramuzza, “A benchmark comparison of monocular visual-inertial odometry algorithms for flying robots,” in IEEE Int. Conf. Robot. Autom. (ICRA), 2018, pp. 2502–2509.
[2] G. Huang, “Visual-inertial navigation: A concise review,” in IEEE Int. Conf. Robot. Autom. (ICRA), 2019.
[3] T. Qin, S. Cao, J. Pan, and S. Shen, “A general optimization-based framework for global pose estimation with multiple sensors,” arXiv e-prints, 2019, retrieved on March 1st, 2020. [Online]. Available:
https://arxiv.org/abs/1901.03642v1