摘要:在SLAM系统估计相机位姿时,大量运动物体的特征点参与特征跟踪线程导致算法准确性和鲁棒性下降,因此如何高效准确地剔除场景中的动态物体尤为重要。现有的动态视觉SLAM算法在处理动态物体时可能漏检或是错误地将静态物体识别为动态物体并将其剔除,引发静态特征点数量不足的问题,进而影响SLAM系统的稳定性和精度。因此提出一种基于全景分割与多视图几何的视觉SLAM方法,该算法使用全景分割FPN网络准确识别分割图像中的所有物体,剔除先验动态特征点并尽可能多地保留静态特征,在此基础上使用融合图像金字塔的LK光流法实现光流跟踪并剔除平行动态特征点,潜在的动态特征点则采用基于动态概率的多视图几何法更有效地对其剔除,避免了动态特征点漏检的情况,实现对场景中动态物的全面筛查以提高系统精度。在系统构建的稀疏点云的基础上实现对语义地图与八叉树地图的构建。实验使用TUM RGB-D数据集验证系统定位精度,结果表明,与ORB-SLAM2相比,本算法在所有序列的绝对轨迹误差的均方根误差(RMSE)平均降低了84.34%,显著提升了系统的鲁棒性和准确性,并且构建两种可用于SLAM上层任务的地图,具有一定的使用价值。