RGB-D dense SLAM with keyframe-based method
RGB-D dense SLAM with keyframe-based method
目前,基于特征的视觉SLAM方法趋于成熟阶段。基于特征的视觉SLAM系统通常在不产生稠密表面的情况下计算相机位姿,而稠密SLAM系统同时输出相机位姿以及重建区域的稠密表面。本文结合了基于特征的视觉SLAM和稠密SLAM的两者的优势,基于ORB-SLAM2及ElasticFusion,提出了一种新的RGB-D稠密SLAM系统。
系统框图:
系统流程描述:
(1)通过最小化重投影误差和稠密几何误差的组合来计算相机位姿,在g2o中构造了一种新的边,在图的优化中加入了用稠密几何误差建立的额外约束,利用GPU将代价函数从粗到细地最小化,有助于提高系统帧率,促进相机机大幅度运动的收敛。
(2)利用surfel模型对RGB-D流进行融合,实时生成稠密表面模型,生成稠密表面,为用户提供扫描表面的反馈信息。在系统进行必要的图优化和BA后,用嵌入的变形图更新稠密模型中的曲面,使其与优化后的相机位姿保持一致。
(3)当用户结束重建时,通过将流与优化后的相机位姿重新合并,获得更好的三维模型。
1. Tracking
重投影误差(The reprojection error):
几何误差(point-to-plane distance errors):
在单位矩阵旁线性化几何误差:
总的代价函数:
2. Loop Closing
和ORB-SLAM2一样,使用DBoW2来检测回环候选关键帧。当找到回环时,执行本质图优化和全局的BA。为了与更新后的相机位姿和特征位置保持一致,使用变形图更新生成的稠密表面中面元的位置和法线。
3. Dense Mapping
和ElasticFusion一样,使用surfel模型表示曲面。每个surfel存储位置、法线、颜色、半径和时间戳信息。
4. 实验结果
数据集:TUM RGB-D benchmark datasets、ICL-NUIM
benchmark datasets
评估:absolute trajectory error (ATE)
the accuracy of camera tracking:
the reconstruction surface accuracy:
5. 展望
将IMU测量集成到系统中。