针对传统视觉SLAM(simultaneous localization and mapping)算法在环境目标静止或低速运动状态工作良好,但在场景中存在人员走动、车辆运动等动态干扰时精度不高、鲁棒性不强的问题,提出了基于ORB-SLAM3(Oriented FAST and Rotated BRIE...针对传统视觉SLAM(simultaneous localization and mapping)算法在环境目标静止或低速运动状态工作良好,但在场景中存在人员走动、车辆运动等动态干扰时精度不高、鲁棒性不强的问题,提出了基于ORB-SLAM3(Oriented FAST and Rotated BRIEF-SLAM3)框架的动态SLAM系统,在ORB-SLAM3框架中融合了YOLACT++(You Only Look At CoefficienTs)深度学习性;提出了运动等级传递策略,将实例分割网络和稠密光流场融合,达到SLAM系统效率与精度的联合优化。在公开数据集TUM上的测试结果表明,所提系统在动态场景下具有优异的性能,低动态场景下的均方根误差、平均值、中值和标准差等指标相比ORB-SLAM3提高了约60%,高动态场景下超90%。楼道场景的实测结果表明,所提系统在提取特征时能够有效剔除动态目标上的特征点,保证了系统的精度。展开更多
文摘针对传统视觉SLAM(simultaneous localization and mapping)算法在环境目标静止或低速运动状态工作良好,但在场景中存在人员走动、车辆运动等动态干扰时精度不高、鲁棒性不强的问题,提出了基于ORB-SLAM3(Oriented FAST and Rotated BRIEF-SLAM3)框架的动态SLAM系统,在ORB-SLAM3框架中融合了YOLACT++(You Only Look At CoefficienTs)深度学习性;提出了运动等级传递策略,将实例分割网络和稠密光流场融合,达到SLAM系统效率与精度的联合优化。在公开数据集TUM上的测试结果表明,所提系统在动态场景下具有优异的性能,低动态场景下的均方根误差、平均值、中值和标准差等指标相比ORB-SLAM3提高了约60%,高动态场景下超90%。楼道场景的实测结果表明,所提系统在提取特征时能够有效剔除动态目标上的特征点,保证了系统的精度。