首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 46 毫秒
1.
移动机器人视觉里程计综述   总被引:10,自引:5,他引:10  
定位是移动机器人导航的重要组成部分.在定位问题中,视觉发挥了越来越重要的作用.本文首先给出了视觉定位的数学描述,然后按照数据关联方式的不同介绍了视觉里程计(Visual odometry,VO)所使用的较为代表性方法,讨论了提高视觉里程计鲁棒性的方法.此外,本文讨论了语义分析在视觉定位中作用以及如何使用深度学习神经网络进行视觉定位的问题.最后,本文简述了视觉定位目前存在的问题和未来的发展方向.  相似文献   

2.
移动机器人中视觉里程计技术综述   总被引:1,自引:0,他引:1  
视觉里程计(VO)是实现移动机器人自主导航的主要技术之一,不同类型的VO技术在不同应用场景中受环境和硬件计算能力的影响,导致其性能各有优劣。概述VO技术的发展历程,对基于传统几何和基于深度学习的两类VO技术的性能进行对比与分析,重点介绍传统VO技术中特征点法的原理及其改进方法。在此基础上,归纳VO领域常用的公共数据集并对部分现有方法进行对比评测,为VO技术的实际应用提供参考和借鉴,并展望该领域未来的发展方向。  相似文献   

3.
单目视觉里程计不仅能为移动机器人提供导航避障等功能,在无人驾驶等领域中也有更广阔的应用价值。剖析了视觉里程计的基础原理,研究了单目视觉里程计技术的国内外现状;同时,对ORB-SLAM2、DSO等典型单目视觉里程计进行深入分析和比较。针对当前视觉里程计研究中普遍关注的鲁棒性和实时性等问题,探讨了下一步研究工作的发展方向和趋势。  相似文献   

4.
5.
设计一个基于SIFT(Scale Inviriant Feature Transform)特征提取的单目视觉里程计用于导航系统中,有效克服传统里程计车轮打滑等情况下的偏差问题,并提供传统里程计无法测量的航向信息.实现过程采用单个像机,利用SIFT特征点尺度及旋转不变的性质精确匹配图像序列中的投影点,并根据坐标变换来测定车辆的移动距离和旋转角度. 实验中安装要求和实现都相对简单,其结果表明可达到较高的测量精度.  相似文献   

6.
基于单目视觉和里程计的SLAM算法研究   总被引:2,自引:0,他引:2  
已有的基于视觉的SLAM方法大多采用双目立体视觉,存在成本高,标定过程复杂,鲁棒性低等缺点.因此,提出了基于单目视觉和里程计的SLAM方法.该方法采用尺度不变特征变换算法提取特征,用扩展卡尔曼滤波更新地图.此外,由于单个CCD摄像头不能直接获得图像的深度信息,采用特征点延迟初始化的方法来解决这个问题,这种方法使得基于单目视觉的导航变得可能.在MATLAB环境下实现了SLAM算法仿真,实验结果表明,在室内环境下,该算法运行可靠,定位精度高.  相似文献   

7.
现有的基于深度学习的视觉里程计(visual odometry,VO)训练样本与应用场景存在差异时,普遍存在难以适应新环境的问题,因此提出了一种在线更新单目视觉里程计算法OUMVO。其特点在于应用阶段利用实时采集到的图像序列在线优化位姿估计网络模型,提高网络的泛化能力和对新环境的适用能力。该方法使用了自监督学习方法,无须额外标注地面真值,并采用了Transformer对图像流进行序列建模,以充分利用局部窗口内的视觉信息,提高位姿估计精度,以避免传统方法只能利用相邻两帧图像来估计位姿的局限,还可以弥补采用RNN进行序列建模无法并行计算的缺点。此外,还采用图像空间几何一致性约束,解决了传统单目视觉里程计算法存在的尺度漂移问题。在KITTI数据集上的定量和定性实验结果表明,OUMVO的位姿估计精度和对新环境的适应能力均优于现有的先进单目视觉里程计方法。  相似文献   

8.
基于视觉和里程计信息融合的移动机器人自定位   总被引:1,自引:0,他引:1  
罗真  曹其新 《机器人》2006,28(3):344-349
受鸽子定向启发,将装备有全维视觉和里程计等传感器的自主移动机器人的自定位分为两种模式:全维视觉定位模式和里程计定位模式.机器人依据一定准则选择具体的主导定位模式:先试视觉定位,若视觉定位不可得或获得的视觉定位不可靠,则采用里程计定位.针对标记物信息失真问题,应用初步视觉定位结果反推标记物理论值,然后通过比较从原始图像中分离出的可能的标记物信息和反推出来的标记物信息理论值,滤除不可靠的视觉定位.针对运动过程中的机器人自定位,分析了影响定位准确性的信息时间延迟因素.  相似文献   

9.
基于视差空间的双目视觉里程计   总被引:3,自引:0,他引:3  
提出了一种基于视差空间的双目视觉里程计算法.利用SIFT特征点的尺度和旋转不变性,实现左、右图像对特征点的准确匹配,及前后帧间的特征跟踪.在RANSAC框架下对匹配点进行运动估计获得运动参数初始值,然后迭代更新匹配点的视差比值直至收敛.为克服传统算法中3维空间噪声分布不均匀的缺陷,利用了视差空间噪声分布的各向同性的性质进行运动估计,并且通过迭代取得全局最小值.实验结果表明,该算法在运动估计中具有更好的精度.  相似文献   

10.
SLAM(即时定位与地图构建)系统是近年来计算机视觉领域的一大重要课题,其中特征法的SLAM凭借稳定性好、计算效率高的优点成为SLAM算法的主流。目前特征法SLAM主要基于点特征进行。针对基于点特征的视觉里程计依赖于数据质量,相机运动过快时容易跟丢,且生成的特征地图不包含场景结构信息等缺点,提出了一种基于点线结合特征的优化算法。相较于传统基于线段端点的六参数表达方式,算法采用一种四参数的方式表示空间直线,并使用点线特征进行联合图优化估计相机位姿。使用公开数据集和自采集鱼眼影像数据分别进行实验的结果表明,与仅使用点特征的方法相比,该方法可有效改善因相机运动过快产生的跟丢问题,增加轨迹长度,提升位姿估计精度,且生成的稀疏特征地图更能反映场景结构特征。  相似文献   

11.
视觉里程计通过分析相机所获取的图像流信息估计移动机器人的位姿。为了深入分析视觉里程计算法的发展现状,结合一些先进的视觉里程计系统,综述了视觉里程计的相关技术以及最新的研究成果。首先简述了视觉里程计的概念和发展历程,介绍了视觉里程计问题的数学描述和分类方法;然后,详细阐述了视觉里程计的关键技术,包括特征模块、帧间位姿估计和减少漂移;此外,还介绍了基于深度学习的视觉里程计的发展动态。最后,总结了视觉里程计目前存在的问题,展望了未来的发展趋势。  相似文献   

12.
初始运动估计和内点检测是影响立体视觉里程计定位精度的重要因素.目前,立体视觉里程计都采用基于3点线性运动估计的随机采样一致性(random sample consensus,RANSAC)方法.本文分析了随机采样一致性方法在初始运动估计中的性能:该方法对排除误匹配点是有效的,但在一定采样次数下采样到特征点提取误差和立体匹配误差都很小的匹配点的概率是很小的,所以通过该方法得到的初始运动参数和匹配内点不够精确。本文提出了采用微粒群优化的初始运动估计和内点检测新方法,该方法收敛速度快,搜索精确解的能力强,能够获得高精度的运动参数和匹配内点.立体视觉里程计仿真实验和真实智能车实验表明:和随机采样一致性方法相比,本文方法在运行时间、定位精度方面都更优越.  相似文献   

13.
针对特征点法视觉里程计频繁计算和匹配描述子导致系统实时性能变差的问题,提出一种结合光流追踪的双目视觉里程计算法;首先进行初始化,生成初始的关键帧和地图点,随后在追踪线程中使用光流追踪特征点获取匹配关系,计算并优化相机位姿;满足生成关键帧的条件后,将当前帧设置为关键帧,提取图像的ORB特征点,并使用描述子匹配获取与上一关键帧特征点的匹配关系,三角化生成新的地图点;最后在优化线程中将新的关键帧和地图点使用滑动窗口算法进行优化,剔除冗余关键帧和地图点;在KITTI数据集上的实验结果表明,所提出的算法轨迹误差与双目模式下的ORB-SLAM3算法处于同一水平,同时实时性能有大幅度提高,追踪每一帧图像的平均时间从52ms降至16ms,在保证高精度的情况下运行速度大大提高,具有较高的实用价值.  相似文献   

14.
针对移动机器人视觉导航定位需求,提出一种基于双目相机的视觉里程计改进方案。对于特征信息冗余问题,改进ORB(oriented FAST and rotated BRIEF)算法,引入多阈值FAST图像分割思想,为使误匹配尽可能减少,主要运用快速最近邻和随机采样一致性算法;一般而言,运用的算法主要是立体匹配算法,此算法的特征主要指灰度,对此算法做出改进,运用一种新型的双目视差算法,此算法主要以描述子为特征,据此恢复特征点深度;为使所得位姿坐标具有相对较高的准确度,构造一种特定的最小二乘问题,使其提供初值,以相应的特征点三维坐标为基础,基于有效方式对相机运动进行估计。根据数据集的实验结果可知,所提双目视觉里程具有相对而言较好的精度及较高的实时性。  相似文献   

15.
基于最小平方中值定理的立体视觉里程计   总被引:1,自引:0,他引:1       下载免费PDF全文
提出了一种基于最小平方中值定理(LMedS)的立体视觉里程计方法。利用图像中尺度不变的SIFT特征点作为路标,基于KD树的最邻近点搜索算法来实现左右图像对特征点的匹配和前后帧间特征点跟踪。通过特征点的三维重建,基于最小平方中值定理估计出机器人的运动距离和方向信息。实验表明该方法在不同图像间匹配、三维路标跟踪和机器人运动估计中具有很强的鲁棒性。  相似文献   

16.
17.
Visual Odometry (VO) is one of the fundamental building blocks of modern autonomous robot navigation and mapping. While most state-of-the-art techniques use geometrical methods for camera ego-motion estimation from optical flow vectors, in the last few years learning approaches have been proposed to solve this problem. These approaches are emerging and there is still much to explore. This work follows this track applying Kernel Machines to monocular visual ego-motion estimation. Unlike geometrical methods, learning-based approaches to monocular visual odometry allow issues like scale estimation and camera calibration to be overcome, assuming the availability of training data. While some previous works have proposed learning paradigms to VO, to our knowledge no extensive evaluation of applying kernel-based methods to Visual Odometry has been conducted. To fill this gap, in this work we consider publicly available datasets and perform several experiments in order to set a comparison baseline with traditional techniques. Experimental results show good performances of learning algorithms and set them as a solid alternative to the computationally intensive and complex to implement geometrical techniques.  相似文献   

18.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号