首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 187 毫秒
1.
移动机器人单目视觉同时定位与地图构建(Simultaneous Localization and Mapping,SLAM)技术在应用过程中会获取大量数据,针对其带来的异常值干扰问题,提出一种基于新提出的随机抽样一致性(Random Sample Consensus,RANSAC)算法改进的半直接单目视觉里程计(Semi-direct Monocular Visual Odometry,SVO)算法。算法分为两个线程:建图线程提取点特征与边缘特征,并采用了图割RANSAC(Graph-Cut RANSAC,GC-RANSAC)算法进行异常值剔除,通过计算特征点的深度值,来构建的环境特征地图;位姿估计线程通过最小化局部地图点和边缘线的重投影误差以及帧与帧、特征与特征之间的约束关系优化,得到位姿信息,实现定位功能。通过Euroc公开数据集上得到的仿真实验结果可见,该算法剔除异常值效果明显,平均定位精度相比SVO算法提高了15.6%。  相似文献   

2.
提出了一种基于直线特征的单目视觉位姿测量方法SoftNewton。构造了新颖的目标直线与图像直线匹配评价函数,避免检测图像中直线的端点,最终通过软决策技术确定直线特征匹配关系,并采用高斯牛顿迭代算法基于全透视成像模型解算目标位姿。和POSIT算法相比,高斯牛顿迭代算法保持了旋转矩阵的正交性,提高位姿解算精度。仿真图像实验中,在干扰直线和噪声存在的情况下算法经过29次迭代解算得到正确的直线特征匹配矩阵,姿态误差小于0.2°,位移误差小于0.5 mm。仿真图像和实际图像实验结果均表明SoftNew-ton具有较高解算精度和较强的鲁棒性。  相似文献   

3.
视觉里程计在移动机器人的定位导航中发挥着关键性作用,但当前的算法在运行速度、轨迹精度和鲁棒性等方面依然存在改善空间.为提高相机轨迹精度,提出基于稀疏直接法的闭环检测算法.该算法直接提取两种特征组成混合型特征点提升系统鲁棒性,混合型特征点用于跟踪和匹配关键帧,使视觉里程计能够检测闭环,再用位姿图优化提升定位精度.实验结果...  相似文献   

4.
非合作航天器相对位姿的鲁棒视觉确定方法   总被引:1,自引:0,他引:1  
以非合作航天器的相对状态确定为研究背景,针对无法在目标航天器上安装测量光标的问题,提出利用目标航天器自然特征的单目视觉测量方案.并针对仅利用非合作航天器自然特征而导致的粗大误差增大等问题,提出了基于Randomized RANdom SAmple Consensus(R-RANSAC)的相对位姿单目视觉确定鲁棒算法,该算法首先采用R-RANSAC剔除粗大误差,然后利用基于特征点的相对位姿确定迭代算法消除其他类型的误差影响,以进一步提高算法确定精度.与航天器交会对接视觉系统不同,该系统无需在目标航天器上安装测量光标,而是充分利用目标航天器的自身结构特征,因此更适用于非合作航天器间的相对状态测量.最后对本文算法进行了数学仿真,结果表明该算法的有效性和可靠性.  相似文献   

5.
近年来通过利用视觉信息估计相机的位姿,实现对无人车的定位成为研究热点,视觉里程计是其中的重要组成部分.传统的视觉里程计需要复杂的流程如特征提取、特征匹配、后端优化,难以求解出最优情况.因此,提出融合注意力和长短时记忆网络的视觉里程计,通过注意力机制增强的卷积网络从帧间变化中提取运动特征,然后使用长短时记忆网络进行时序建模,输入RGB图片序列,模型端到端地输出位姿.在公开的无人驾驶KITTI数据集上完成实验,并与其他算法进行对比.结果表明,该方法在位姿估计上的误差低于其他单目算法,定性分析显示该算法具有较好的泛化能力.  相似文献   

6.
为了解决有效点较少的动态复杂场景下视觉SLAM准确定位问题,提出了一种基于自适应RANSAC动态特征点剔除的单目视觉SLAM算法.通过ARANSAC算法估计图像间的透视变换矩阵,并扭曲上一帧获得一个估计图像,使上一帧中的点转换到当前帧的坐标系下.通过计算特征点在估计图像和当前帧的光流值,区分并剔除ORB-SLAM2中的动态特征点,从而消除动态物体对SLAM定位性能的影响.利用TUM数据集的动态序列对本文算法进行仿真,并与ORB-SLAM2算法进行对比.结果表明,视觉SLAM算法绝对轨迹误差的标准偏差降低84.00%~96.11%,平移和旋转漂移的标准偏差最佳效果分别降低94.00%和96.44%,明显减少了视觉SLAM算法位姿估计的误差.本文算法能够在有效点较少的动态场景下,消除动态物体对视觉SLAM定位性能的影响,提高定位精度.  相似文献   

7.
为了提高双目直接稀疏里程计(Stereo Direct Sparse Odometry,Stereo DSO)的定位速度和精度,使得移动机器人可以更有效地执行任务,提出了一种基于双目强约束的直接稀疏视觉里程计系统.基于直接法的即时定位与地图构建(Simultaneous Localization and Mapping...  相似文献   

8.
针对移动机器人单目视觉同时定位与地图创建(simultaneous location and mapping,SLAM)数据关联问题,提出一种Ransac抽样算法.该算法(Skinner-Ransac)基于Skinner操作条件反射原理,结合扩展卡尔曼滤波(extended Kalman filter,EKF)运动模型获得的先验信息,对图像匹配点抽样集合中的每个匹配点对赋予权值,并根据判断函数对其权值进行更新.最后,针对数据关联的效率要求提出新的迭代终止条件,以公开图像数据集作为图像采集样本.实验结果表明:Skinner-Ransac算法高效可靠,SLAM的位姿估计结果可以达到移动机器人自主导航的需求.  相似文献   

9.
针对室内结构化环境下的导航任务,提出一种以踢脚线为参考直线的基于单目视觉的导航算法。利用单目摄像头提取图像,运用Canny边缘检测方法和霍夫变换相结合的边缘检测算法提取结构化环境中的踢脚线,根据平行直线在图像平面的成像原理,提取出参考直线和偏航角作为导航信息,实时控制小车的运动。试验结果显示,基于该方法设计的小车可以实现安全行驶,该方法获取的导航参数受光照的影响不大,稳定可靠,能满足安全性和实时性的要求。  相似文献   

10.
视觉里程计是SLAM (Simultaneous Localization and Mapping)领域中的基石,单目视觉里程计因其成本低廉和仅需较少的相机标定工作而占据着重要的地位,但它存在着尺度不确定、尺度漂移、鲁棒性差等缺点。本文在ORB_SLAM3的基础上,提出了一种基于深度特征的单目视觉惯导里程计,简称DF-VIO(Visual Inertial Odometry Based on Deep Features),它采用深度学习网络提取的深度特征替代传统的人工点特征,并融合了人工线特征,强化了系统在现实复杂场景下的鲁棒性;另外,系统提供了多种位姿跟踪方式,除了基于恒速模型和跟踪参考关键帧的方式外,还提供了一种基于深度学习网络的可重复性图的位姿跟踪方法,进一步提高了系统位姿跟踪的精度。在公开数据集Eu Ro C上进行对比实验,在纯视觉模式下,平均轨迹误差下降了25.9%,在视觉惯导模式下,平均轨迹误差下降了8.6%,证明了本文提出的系统在复杂的场景下能够具有更高的鲁棒性。  相似文献   

11.
动态场景下基于视差空间的立体视觉里程计   总被引:2,自引:0,他引:2  
针对实际的复杂动态场景,提出了一种基于视差空间的立体视觉里程计方法.利用SIFT特征点的尺度和旋转不变性及一些合理的约束条件,实现左、右图像对和连续帧间的特征点匹配和跟踪.通过结合了RANSAC的最小二乘估计滤除运动物体上的干扰特征点,得到较为准确的运动参数的初始值,在视差空间中推导出视觉里程估计的数学模型,通过最小化误差函数得到最终运动估计.实验结果表明,该算法在室内外存在运动物体的复杂动态场景中都具有较传统方法更高的精度.  相似文献   

12.
视觉里程计(Visual Odometry)作为视觉同步定位与地图构建技术(Visual Simultaneous Localization and Mapping)的一部分,主要通过相机传感器获取一系列拥有时间序列图像的信息,从而预估机器人的姿态信息,建立局部地图,也被称为前端,已经被广泛应用在了多个领域,并取得了丰...  相似文献   

13.
针对城市平坦路面准确实时定位的问题,提出将光流跟踪法与特征点匹配进行卡尔曼融合的单目视觉里程计方法.基于平面假设,利用光流跟踪法进行帧间小位移定位,同时利用传统的加速鲁棒特征点(SURF)进行帧间大位移匹配来矫正光流法结果.通过卡尔曼滤波更新机器人的位置和姿态.结果表明,融合算法克服了光流法定位精度差和特征点匹配法处理速度慢的缺点,突出了光流法实时性和特征点匹配定位准确性的优点,该方法能够提供较准确的实时定位输出,并对光照变化和路面纹理较少的情况有一定的鲁棒性.  相似文献   

14.
非参数变换和改进动态规划的立体匹配算法   总被引:1,自引:0,他引:1  
针对传统稠密立体匹配方法在非纹理区、深度不连续处和遮挡处存在错误匹配率过高的问题,提出一种基于非参数变换和改进动态规划相结合的立体匹配算法.采用稀疏非参数变换相关方法计算初始局部匹配代价,并利用行列双向约束动态规划算法对匹配代价进行全局优化,在获取初始视差后分别对原始图像每一像素点进行可信性与纹理性检测,最后利用视差平面拟合结果代替非纹理与非可信区域像素点的原始视差,得到稠密视差图.实验表明,该算法具有较高的鲁棒性与匹配精度,尤其在处理图像的非纹理区、深度不连续处和遮挡处,可获得精确的匹配结果.  相似文献   

15.
针对传统的视觉里程计算法在动态环境下存在位姿估计精度不高且鲁棒性较差的问题,提出一种融合边缘信息的稠密视觉里程计算法.首先,使用深度信息计算像素点的空间坐标,并采用K-means算法进行场景聚类.分别基于光度信息与边缘信息的聚类构建出光度及几何一致性误差与边缘对齐误差,两者结合并进行正则化后得到数据融合的残差模型.将平...  相似文献   

16.
提出一种基于HSV颜色空间的单目视觉跟踪算法。该方法利用目标在HSV空间的颜色信息提取出场景中的运动目标,在此基础上,对目标进行滤波和形态学处理,从而实现了目标的检测与定位。最后,利用单目视觉跟踪算法有效地实现了运动目标跟踪。实验结果表明,该算法有效地实现了目标定位与跟踪,并具有一定的实时性和抗干扰性。  相似文献   

17.
In this paper a semi-direct visual odometry and mapping system is proposed with a RGB-D camera, which combines the merits of both feature based and direct based methods. The presented system directly estimates the camera motion of two consecutive RGB-D frames by minimizing the photometric error. To permit outliers and noise, a robust sensor model built upon the t-distribution and an error function mixing depth and photometric errors are used to enhance the accuracy and robustness. Local graph optimization based on key frames is used to reduce the accumulative error and refine the local map. The loop closure detection method, which combines the appearance similarity method and spatial location constraints method, increases the speed of detection. Experimental results demonstrate that the proposed approach achieves higher accuracy on the motion estimation and environment reconstruction compared to the other state-of-the-art methods. Moreover, the proposed approach works in real-time on a laptop without a GPU, which makes it attractive for robots equipped with limited computational resources.  相似文献   

18.
为扩大全向智能轮椅的速度测量范围并改善其测量精度及计算效率,对传统基于光流的测速方法进行了改进.首先,采用TV-L1模型求解光流,并有效地预测帧间像点位移量,缩小像点的搜索区域.然后,针对由光照不均、局部运动模糊等因素产生的异质光流矢量,提出了基于平面片光流模型的随机抽样一致算法(random sample consensus,RANSAC),以实现光流场的排异.最后,在统一计算设备架构(compute unified device architecture,CUDA)的体系框架下实现光流计算的并行加速,提高了系统的实时性.实验结果表明:改进方法使轮椅的最大可测量速度提升了1.67倍,且测速精度优于轮式里程计,该方法在光照不均、局部运动模糊情况下也具有较好的鲁棒性,能够提升全向轮椅的最大可测量速度及测量精度.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号