易扩展的SLAM框架-OpenVSLAM
本文介绍了一种具有较高可用性和可扩展性的可视化SLAM框架——OpenVSLAM。视觉SLAM系统对于AR设备、机器人和无人机的自主控制等是必不可少的。然而,传统的开源视觉SLAM框架并没有像从第三方程序调用的库那样进行适当的设计。为了克服这种情况,我们开发了一个新的视觉SLAM框架。该软件设计简单,易于使用和扩展。它包含了一些有用的特性和功能,用于研究和开发。OpenVSLAM发布于https://github.com/xdspacelab/OpenVSLAM
详细介绍与对比
在介绍中文章高度肯定了 ORB–SLAM [10, 11], LSD–SLAM [4], and DSO [3] 是具有开创性的视觉SLAM方案。但是,在可用性和可扩展性方面,它们并没有在易用性和可扩展性的角度对SLAM库进行适当的设计。因此,研究人员和工程师必须努力将这些SLAM系统应用到他们的应用中。换言之,使用现有的视觉SLAM的开源软件作为从3D建模和构建地图等是不方便的,例如机器人和无人飞行器(uav)的自主控制,以及移动设备上的增强现实(AR)。因此,提供一个开源的可视化SLAM框架是非常有价值的,它易于使用,并且易于被用户扩展。
OpenVSLAM优势
OpenVSLAM是一个单目、立体和RGBD视觉SLAM系统,属于基于稀疏特征的直接法。其主要区别于贡献有:
(1)兼容了各种类型的相机模型,可以很好的适配用户选择的相机模型。该系统可以处理各种类型的相机模型,如透视图、鱼眼图和等矩形图。如果需要,用户可以轻松实现额外的相机模型(如双鱼眼,折反射等)。
(2)可以对创建的地图进行加载了存储等操作,并且该项目可以基于预先构建的地图进行定位操作。
(3)系统是完全模块化的,它是通过将将一些易于理解的功能函数进行很好的api封装.
(4)代码工程中提供了一些代码片段用来辅助理解整个系统的核心功能。请参阅./example目录中的*.cc文件,或查看简单教程和示例。
安装教程以及使用教程都很详尽,有兴趣的可以按照教程一步一步来即可。
稀疏视觉SLAM
·MonoSLAM:(单目相机)是第一个基于EKF [14]的实时单SLAM系统。
·PTAM:(单目相机)是第一个并行跟踪和构建地图的SLAM系统。它首先采用捆集调整来优化关键帧[15]的概念。更高的版本支持简单而有效的重新定位 [16]。
·ORB-SLAM:它(单目)使用三个线程:跟踪,构建地图和闭环检测[17]。ORBSLAM v2 [18]支持单目,立体和RGB-D相机。CubemapSLAM [19]是基于ORB-SLAM的单目鱼眼镜头SLAM系统。视觉惯性ORB-SLAM [20]解释了IMU的初始化过程以及使用视觉信息进行的联合优化。
·proSLAM:(立体相机)是一种轻量级的视觉SLAM系统,且易于理解[21]。
·ENFT-sfm:(单目相机)是一种特征跟踪方法,可以有效地匹配一个或多个视频序列之间的特征点对应关系[22]。更新版本ENFT-SLAM可以大规模运行。
·OpenVSLAm :(支持所有类型的摄像机)[23]基于具有稀疏特征的间接SLAM算法。OpenVSLAM的优点在于,该系统支持透视图,鱼眼图和等距矩形,甚至支持任何用户设计的相机模型。
·TagSLAM:它通过AprilTag基准标记实现SLAM [24]。而且,它为GTSAM因子图优化器提供了一个前端,可以设计大量实验。其他类似的工作可以列出如下,但不仅限于UcoSLAM [25]。
开源的目的
Visual SLAM被认为是支持汽车、机器人和xR等行业的下一代技术。我们将OpenVSLAM作为一个开源项目发布,目的是与世界各地的人们合作,加速这个领域的发展。作为回报,我们希望这个项目能为一个更美好的社会带来安全可靠的技术。
OpenVSLAM的主要模块:跟踪、地图构建,以及全局优化模块。
对比ORB-SLAM的路径误差统计
参考文献
向上滑动阅览
[1] Raúl Mur-Artal, J. M. M. Montiel, and Juan D. Tardós. 2015. ORB–SLAM: a Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics 31, 5 (2015), 1147–1163. https://doi.org/10.1109/TRO.2015.2463671
[2] Raúl Mur-Artal and Juan D. Tardós. 2017. ORB–SLAM2: an Open-Source SLAM System for Monocular, Stereo and RGB-D Cameras. IEEE Transactions on Robotics 33, 5 (2017), 1255–1262. https://doi.org/10.1109/TRO.2017.2705103
[3] Jakob Engel, Vladlen Koltun, and Daniel Cremers. 2018. Direct Sparse Odometry. IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI) 40, 3 (2018), 611–625. https://doi.org/10.1109/TPAMI.2017.2658577
[4] Jakob Engel, Thomas Schöps, and Daniel Cremers. 2014. LSD–SLAM: Large-Scale Direct Monocular SLAM. In Proceedings of European Conference on Computer Vision (ECCV). 834–849. https://doi.org/10.1007/978-3-319-10605-2_54
资源
3D-MiniNet: 从点云中学习2D表示以实现快速有效的3D LIDAR语义分割(2020)