首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
针对传统视觉SLAM在动态场景下容易出现特征匹配错误从而导致定位精度下降的问题,提出了一种基于动态物体跟踪的语义SLAM算法。基于经典的视觉SLAM框架,提取动态物体进行帧间跟踪,并利用动态物体的位姿信息来辅助相机自身的定位。首先,算法在数据预处理中使用YOLACT、RAFT以及SC-Depth网络,分别提取图像中的语义掩膜、光流向量以及像素深度值。其次,视觉前端模块根据所提信息,通过语义分割掩膜、运动一致性检验以及遮挡点检验算法计算概率图以平滑区分场景中的动态特征与静态特征。然后,后端中的捆集调整模块融合了物体运动的多特征约束以提高算法在动态场景中的位姿估计性能。最后,在KITTI和OMD数据集的动态场景中进行对比验证。实验表明,所提算法能够准确地跟踪动态物体,在室内外动态场景中具备鲁棒、良好的定位性能。  相似文献   

2.
针对传统同时定位与地图构建(SLAM)在动态环境中受动态物体干扰而导致精度低、鲁棒性差的缺点,提出了一种结合语义的鲁棒视觉SLAM算法。采用深度学习技术构建基于卷积神经网络的物体检测器,结合先验知识,在语义层面实现对动态物体的检测;提出基于速度不变性的相邻帧漏检补偿模型,进一步提高物体检测网络的检出率;构建基于特征点的视觉SLAM系统,在跟踪线程中对动态物体特征点进行剔除,以减小错误匹配造成的位姿估计的误差。经实验验证:系统在极端动态环境测试中保持定位不丢失,在TUM动态环境数据集测试中,定位精度比ORB-SLAM2提高22. 6%,性能提高10%。  相似文献   

3.
同步定位与建图技术(SLAM)一直是移动机器人领域比较热门的研究方向,它可以给机器人提供强大的环境感知能力;传统的依靠外部位置参考来定位的方法如果无法获得时,移动机器人需要即时定位自身位置来构建增量式地图,因此SLAM技术也就应运而生;对激光SLAM和视觉SLAM的研究现状及最新标志性成果进行了介绍,重点对以相机与激光雷达融合、相机与IMU融合、激光雷达与IMU融合为代表的多传感器融合SLAM技术展开讨论、系统地梳理了几种融合方式的优势与不足,同时介绍了该领域的研究热点语义SLAM,最后讨论了SLAM技术在该领域未来的发展方向以及存在的挑战。  相似文献   

4.
目前,将分割网络与SLAM(Simultaneous Localization and Mapping)结合已成为解决视觉SLAM不能应用于动态环境的主流方案之一,但是SLAM系统受到分割网络处理速度的限制,无法保证实时运行.为此,文中提出基于延迟语义的RGB-D SLAM算法.首先,并行运行跟踪线程与分割线程,为了得到最新的延迟语义信息,采取跨帧分割的策略处理图像,跟踪线程根据延迟语义信息实时生成当前帧的语义信息.然后,结合成功跟踪计数(STC)与极线约束,筛选当前帧动态点的集合,并确定环境中先验动态物体的真实运动状态.若确定该物体在移动,继续将物体区域细分为矩形网格,以网格为最小单位剔除动态特征点.最后,利用静态特征点追踪相机位姿并构建环境地图.在TUM RGB-D动态场景数据集及真实场景上的实验表明文中算法在大部分数据集上表现较优,由此验证算法的有效性.  相似文献   

5.
视觉SLAM技术在动态场景中存在定位漂移和创建地图扭曲的情况,本研究提出一种基于图像掩模技术的双目SLAM算法,运用视觉几何约束法在动态场景中得出动态特征点,将检测出的运动物体区域作为图像掩模。在ORB-SLAM算法中引入动态区域掩模分割和剔除动态区域的功能,可以保证相机的定位和构图不受动态场景中的运动物体的影响。根据动态特征点和分割结果在动态场景中用矩形框标识出动态区域掩模,剔除特征匹配中动态特征点,从而可以降低运动物体对SLAM算法精度的影响。经实验得出,改进算法较双目ORB-SLAM算法在动态场景中的定位精度提高76.1%,其动态场景构图效果改善明显,算法处理的平均速度可以达到实时视觉定位和构图的需求,平均可达4.7帧/秒。  相似文献   

6.
视觉SLAM(Simultaneous Localization And Mapping,同时定位与建图)是移动机器人领域的核心技术,传统视觉SLAM还难以适用于高动态场景并且地图中缺少语义信息。提出一种动态环境语义SLAM方法,用深度学习网络对图像进行目标检测,检测动态目标所在区域,对图像进行特征提取并剔除动态物体所在区域的特征点,利用静态的特征点进行位姿计算,对关键帧进行语义分割,在构建语义地图时滤除动态物体的地图点构建出无动态物体干扰的语义地图。在TUM数据集上进行实验,结果显示该方法在动态环境下可以提升88.3%位姿估计精度,并且可同时构建出无动态物体干扰的语义地图。  相似文献   

7.
目的 基于视觉的同步定位与建图(visual-based simultaneous localization and mapping,vSLAM)是计算机视觉以及机器人领域中的关键技术,其通过对输入的图像进行处理分析来感知周围的3维环境以及进行自身的定位。现有的SLAM系统大多依赖静态世界假设,在真实环境中的动态物体会严重影响视觉SLAM系统的稳定运行。同时,场景中静止与运动部分往往和其语义有密切关系,因而可以借助场景中的语义信息来提升视觉SLAM系统在动态环境下的稳定性。为此,提出一种新的基于语义概率预测的面向动态场景的单目视觉SLAM算法。方法 结合语义分割的结果以及鲁棒性估计算法,通过对分割进行数据关联、状态检测,从概率的角度来表示观测的静止/运动状态,剔除动态物体上的观测对相机位姿估计的干扰,同时借助运动概率及时剔除失效的地图点,使系统在复杂动态的场景中依然能够稳定运行。结果 在本文构建的复杂动态场景数据集上,提出的方法在跟踪精度和完整度上都显著优于现有的单目视觉SLAM方法,而且在TUM-RGBD数据集中的多个高动态序列上也取得了更好的结果。此外,本文定性比较了动态场景下的建图质量以及AR(augmented reality)效果。结果表明,本文方法明显优于对比方法。结论 本文通过结合语义分割信息以及鲁棒性估计算法,对分割区域进行数据关联以及运动状态检测,以概率的形式表示2D观测的运动状态,同时及时剔除失效地图点,使相机位姿估计的精度以及建图质量有了明显提升,有效提高了单目视觉SLAM在高度动态环境中运行的鲁棒性。  相似文献   

8.
未知环境中移动机器人SLAM问题的研究进展   总被引:1,自引:14,他引:1  
移动机器人的定位与地图创建是机器人研究中一个基础且重要的问题。本文对该领域的最新进展进行了综述.特别侧重于未知环境中机器人并发定位与地图创建(SLAM)问题;比较详细地分析了地图表示方法、定位和环境特征的提取、不确定信息的表示和处理等关键技术:同时对几种典型的SLAM方法进行了介绍:阐述了移动机器人SLAM问题研究中所面临的主要问题.并探计了将来的发展方向。  相似文献   

9.
运行的场景中没有运动物体是大多数SLAM算法的前提,这个假设过于理想化,导致大多数视觉SLAM算法在动态环境下无法使用,因此也就限制了其在服务型机器人和自动驾驶等中的应用。提出了一种动态物体检测及剔除方法并将其整合到ORB-SLAM2[1]算法中,提升了其在动态场景中使用RGB-D摄像头时的稳定性。基于Mask R0CNN获得动态物体的检测和移除能力从而剔除从动态物体上提取到的ORB特征。在公共的RGB-D数据集上评估了加入动态物体剔除方法后的ORB-SLAM2系统,对比了在动态场景下和原系统的差异。改造后的系统在动态场景下的定位和建图精度提升较为明显。  相似文献   

10.
动态环境下的视觉SLAM研究评述   总被引:1,自引:0,他引:1  
王柯赛  姚锡凡  黄宇  刘敏  陆玉前 《机器人》2021,43(6):715-732
针对动态环境下的视觉SLAM(同时定位与地图构建)系统,首先分析了环境中动态目标对经典视觉SLAM系统的危害性,并以一种新颖的方式将当前动态视觉SLAM系统分为基于相机自身运动的系统和不依赖于相机自身运动的系统两大类.随后分析总结了当前动态环境下视觉SLAM的研究进展.最后对动态环境下的视觉SLAM处理手段及未来发展趋势进行讨论与展望.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号