首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 234 毫秒
1.

针对基于静态场景假设的传统的同时定位与地图构建(simultaneous localization and mapping,SLAM)在动态场景中鲁棒性差、位姿估计准确率低的问题,提出了一种基于深度学习的语义视觉SLAM方法.该方法将语义分割技术与运动一致性检测算法相结合,首先用Mask R-CNN网络对图像进行语义分割,建立动态对象的先验语义信息,然后通过运动一致性检测算法进一步剔除属于动态物体的特征点,最后用静态特征点进行特征匹配和位姿估计.基于慕尼黑工业大学(Technical University of Munich,TUM)公开数据集对系统进行实验,结果表明,该系统在动态环境中较传统的ORB-SLAM2系统和DS-SLAM系统明显降低了绝对轨迹误差和相对位姿误差,提高了SLAM系统位姿估计的准确性和鲁棒性.

  相似文献   

2.
针对直接法视觉里程计在光照变化场景下的失效问题,提出基于改进Census变换的单目视觉里程计,向量Census变换半直接单目视觉里程计(VC-SVO). Census变换是立体视觉领域中非参数变换的一种,可以有效减少光照变化对图像的影响. 将Census变换引入SLAM中的后端优化,改变传统Census变换的形式,转换到欧氏空间中表示,并采用新的误差计算方法. 在SVO算法中增添非平面假设模型,扩展SVO算法并融合改进后的Census变换,通过最小化地图点的Census变换误差来得到更准确的相机位姿,同时构建环境地图. 在EuRoC、New Tsukuba Stereo与TUM公开数据集上的图像实验表明,VC-SVO实现了光照变化情况下的位姿估计,验证了算法的有效性. VC-SVO算法的精度和鲁棒性要优于已开源的SVO和基于直接法的大范围定位和地图构建(LSD-SLAM)算法.  相似文献   

3.
为了解决有效点较少的动态复杂场景下视觉SLAM准确定位问题,提出了一种基于自适应RANSAC动态特征点剔除的单目视觉SLAM算法.通过ARANSAC算法估计图像间的透视变换矩阵,并扭曲上一帧获得一个估计图像,使上一帧中的点转换到当前帧的坐标系下.通过计算特征点在估计图像和当前帧的光流值,区分并剔除ORB-SLAM2中的动态特征点,从而消除动态物体对SLAM定位性能的影响.利用TUM数据集的动态序列对本文算法进行仿真,并与ORB-SLAM2算法进行对比.结果表明,视觉SLAM算法绝对轨迹误差的标准偏差降低84.00%~96.11%,平移和旋转漂移的标准偏差最佳效果分别降低94.00%和96.44%,明显减少了视觉SLAM算法位姿估计的误差.本文算法能够在有效点较少的动态场景下,消除动态物体对视觉SLAM定位性能的影响,提高定位精度.  相似文献   

4.
视觉里程计在移动机器人的定位导航中发挥着关键性作用,但当前的算法在运行速度、轨迹精度和鲁棒性等方面依然存在改善空间.为提高相机轨迹精度,提出基于稀疏直接法的闭环检测算法.该算法直接提取两种特征组成混合型特征点提升系统鲁棒性,混合型特征点用于跟踪和匹配关键帧,使视觉里程计能够检测闭环,再用位姿图优化提升定位精度.实验结果...  相似文献   

5.
为了提高同时定位与建图(SLAM)系统在动态场景下的定位精度和鲁棒性,提出新的RGB-D SLAM算法. 建立基于重投影深度差值的累积模型,分割图像的动静态区域;为了避免动态区域过分割,先剔除与匹配地图点欧氏距离过大的动态区域特征点,再根据t分布估计其余特征点的静态概率;将静态区域特征点和动态区域的疑似静态点以不同权重加入位姿优化,得到提纯后的位姿. 在公开数据集上的实验结果表明,所提算法在动态场景下较改进前的RGB-D ORB-SLAM2算法的定位精度提升96.1%,较其他动态SLAM算法提升31.2%,有效提高了视觉SLAM系统在动态环境下的定位精度和鲁棒性.  相似文献   

6.

为了解决基于静态环境假设的同步定位与地图构建(simultaneous localization and mapping,SLAM)在处理动态物体时系统定位精度降低、鲁棒性变差的问题,提出一种面向室内动态环境的语义视觉SLAM系统。该系统以ORB_SLAM2为基础,添加了动态目标检测线程。对输入图像提取ORB特征的同时,通过使用YOLOv5s网络进行动态目标检测,并结合光流法和对极几何约束方法,共同筛选动态特征点,最后,使用静态特征点进行位姿估计。通过使用慕尼黑工业大学(Technical University of Munich,TUM)数据集将该系统和ORB_SLAM2进行比较,结果表明,该系统显著降低了轨迹误差。与DS-SLAM、DynaSLAM等动态环境下的系统相比,该系统可有效平衡语义视觉SLAM系统位姿估计的准确性、鲁棒性和快速性。

  相似文献   

7.
针对传统视觉SLAM算法在视角变换和光照变化时易导致位姿估计精度低甚至跟踪失败等问题,启发于SuperPoint网络在特征提取上的强鲁棒性,提出一种基于轻量级SuperPoint网络的视觉SLAM算法(Light Weight SuperPoint network based-on visual SLAM,LWS-vSLAM)。首先,为解决SuperPoint网络编码层计算量过大引起的系统实时性下降问题,采用LWS-NET轻量化特征提取网络,该网络编码层采用轻量级注意力模型对图像特征进行降采样来减小计算量。其次,为解决在视角变换和光照变化环境下存在较多误匹配问题,利用LWS-NET网络的特征检测分类层的插值计算完成图像中优质特征点的筛选,并以优质特征点为中心进行区域内误匹配剔除。最后,将LWS-NET特征提取与匹配网络与ORB-SLAM2系统后端非线性优化、闭环修正和局部建图进行融合,设计一个完整的单目视觉LWS-vSLAM系统。在公共评测数据集TUM、KITTI中进行仿真实验,实验结果表明,算法平均每帧运行时间相较于SuperPoint缩短约30%,轨迹误差相较于ORB-SLAM2减...  相似文献   

8.
基于视觉里程计(VO)的研究现状和无人驾驶车辆的应用背景,对无人驾驶车辆单目视觉里程计的最新研究进展进行了综述。首先,详细介绍了无人驾驶车辆单目视觉里程计的研究热点,包括基于路面特征和几何先验、考虑车辆运动特性约束、新型视觉传感器与多传感器融合以及深度学习相关方法。其次,分析了无人驾驶车辆单目视觉里程计目前存在的问题和挑战。最后,展望了无人驾驶车辆单目视觉里程计在考虑车辆动力学模型、将深度学习方法应用于道路复杂动态环境和多传感器融合、基于车联网的多车辆协同视觉里程计等方面的未来研究方向。  相似文献   

9.
SLAM技术已经应用到了智能机器人、无人机、AR/VR、无人驾驶等领域中,但当前的SLAM算法在运行速度、相机轨迹精度和鲁棒性等方面依然存在改善空间。为了提高SLAM中相机轨迹精度,提出了基于稀疏直接法的SLAM算法。该算法使用改进的Shi-Tomasi特征点检测算法进行特征点的提取,然后依据提取的特征点采用直接法进行相机位姿估计,同时利用构建的地图进行位姿优化,有效地提高了相机位姿估计精度。针对TUM标准数据集,通过对比分析可知,基于稀疏直接法的SLAM算法可以有效地减少误差,相机轨迹精度优于ORB-SLAM2算法。  相似文献   

10.
移动机器人单目视觉同时定位与地图构建(Simultaneous Localization and Mapping,SLAM)技术在应用过程中会获取大量数据,针对其带来的异常值干扰问题,提出一种基于新提出的随机抽样一致性(Random Sample Consensus,RANSAC)算法改进的半直接单目视觉里程计(Semi-direct Monocular Visual Odometry,SVO)算法。算法分为两个线程:建图线程提取点特征与边缘特征,并采用了图割RANSAC(Graph-Cut RANSAC,GC-RANSAC)算法进行异常值剔除,通过计算特征点的深度值,来构建的环境特征地图;位姿估计线程通过最小化局部地图点和边缘线的重投影误差以及帧与帧、特征与特征之间的约束关系优化,得到位姿信息,实现定位功能。通过Euroc公开数据集上得到的仿真实验结果可见,该算法剔除异常值效果明显,平均定位精度相比SVO算法提高了15.6%。  相似文献   

11.
为了应对运动目标跟踪任务中目标的尺度、光照变化和形变等情况,提出了一种基于混合特征的运动目标跟踪方法--SoH-DLT,综合考虑了运动目标的轮廓特征和细节特征.在粒子滤波跟踪过程中引入方向直方图描述目标轮廓特征,保证与目标最相似的粒子在尺度、光照变化和形变的情况下仍能获得较高的置信度,并作为跟踪结果输出.结合深度学习获得的高层特征和具有尺度不变性的加速鲁棒特征计算粒子权重,提高了复杂运动场景下目标跟踪的准确度,强化了SoH-DLT方法对尺度变化运动目标跟踪的鲁棒性.实验结果表明,SoH-DLT与其他方法相比获得了更好的跟踪效果.  相似文献   

12.

近年来通过利用视觉信息估计相机的位姿,实现对无人车的定位成为研究热点,视觉里程计是其中的重要组成部分.传统的视觉里程计需要复杂的流程如特征提取、特征匹配、后端优化,难以求解出最优情况.因此,提出融合注意力和长短时记忆网络的视觉里程计,通过注意力机制增强的卷积网络从帧间变化中提取运动特征,然后使用长短时记忆网络进行时序建模,输入RGB图片序列,模型端到端地输出位姿.在公开的无人驾驶KITTI数据集上完成实验,并与其他算法进行对比.结果表明,该方法在位姿估计上的误差低于其他单目算法,定性分析显示该算法具有较好的泛化能力.

  相似文献   

13.
针对传统的视觉里程计算法在动态环境下存在位姿估计精度不高且鲁棒性较差的问题,提出一种融合边缘信息的稠密视觉里程计算法.首先,使用深度信息计算像素点的空间坐标,并采用K-means算法进行场景聚类.分别基于光度信息与边缘信息的聚类构建出光度及几何一致性误差与边缘对齐误差,两者结合并进行正则化后得到数据融合的残差模型.将平...  相似文献   

14.
多运动视觉里程计(multi-motion visual odometry,MVO)是在动态场景中估计动态物体位姿变化的算法,对于移动机器人和自动驾驶汽车等自主化设备(autonomous things,AuT)的研发具有重要的理论意义和较大的实用价值.综述机器人领域多运动视觉里程计的发展过程及最新研究进展,根据特征点...  相似文献   

15.
针对复杂场景下目标容易丢失的问题,提出了一种基于深度残差网络(ResNet)特征的尺度自适应视觉目标跟踪算法.首先,通过ResNet提取图像感兴趣区域的多层深度特征,考虑到修正线性单元(ReLU)激活函数对目标特征的抑制作用,在ReLU函数之前选取用于提取目标特征的卷积层;然后,在提取的多层特征上分别构建基于核相关滤波的位置滤波器,并对得到的多个响应图进行加权融合,选取响应值最大的点即为目标中心位置.目标位置确定后,对目标进行多个尺度采样,分别提取不同尺度图像的方向梯度直方图(fHOG)特征,在此基础上构建尺度相关滤波器,从而实现对目标尺度的准确估计.在视频集OTB100中与其他6种相关算法进行了比较,实验结果表明,所提算法取得了较高的跟踪成功率和精确度,能够较好地适应目标的尺度变化、背景干扰等复杂场景.  相似文献   

16.
视觉里程计(Visual Odometry)作为视觉同步定位与地图构建技术(Visual Simultaneous Localization and Mapping)的一部分,主要通过相机传感器获取一系列拥有时间序列图像的信息,从而预估机器人的姿态信息,建立局部地图,也被称为前端,已经被广泛应用在了多个领域,并取得了丰...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号