首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 828 毫秒
1.
距离测量作为障碍物检测以及路径规划的前提和基础是机器人研究领域的一个重要分支。在众多测距方法中,由于双目立体视觉具有信息丰富、探测距离广等优点被广泛应用。本文将改进的SIFT特征匹配算法应用到双目视觉测距与标定系统中。首先建立双目视觉测距模型,测量值由空间物点在左右摄像机下的像素坐标值决定;其次根据该模型的特点提出了基于平行光轴的双目立体视觉标定方法;最后利用改进的SIFT特征匹配算法,提取匹配点的像素坐标完成视觉测距。实验结果表明,根据测量数据对障碍物进行三维重建,相对距离与真实场景基本吻合,能够有效地指导机器人进行避障。  相似文献   

2.
给出一种双目视觉系统结合SURF(Speeded Up Robust Feature)特征的目标识别与定位方法,分析了采用SURF特征实现目标识别的方法,利用双目视觉的原理求取识别出的目标物体的三维坐标信息,从而实现目标物体的识别与定位,与传统的基于SIFT(Scale Invariant Feature Transform)特征或基于颜色形状特征的目标识别与定位方法相比,该方法更具有鲁棒性和实时性.实验结果证明了该方法进行目标识别与定位的可行性,具有一定的应用价值.  相似文献   

3.
从立体视觉中提取位置信息是计算机视觉的热点问题.在建立双目视觉模型的基础上提出了一种新的基于YUV彩色模型的实现足球立体视觉匹配的检测方法.该方法将匹配问题映射为具有某种颜色的目标特征区域的中心,把其中心作为匹配点,通过目标的分割获得匹配点后根据双目视觉定位数学模型恢复图像位置信息,完成对目标的实时检测和定位,满足机器比赛中对足球实时检测和定位的需要.  相似文献   

4.
为了解决目标匹配困难、匹配效率低等问题,提出了一种基于双目立体视觉的实时目标特征匹配算法——绝对窗口误差最小化(CAEW).首先,在研究摄像机基本原理后利用张氏标定法解决摄像机的标定,并对最终标定数据采用Bouguet算法进行双目立体校正;然后,利用Ada Boost迭代算法训练目标检测器实现目标检测.将CAEW算法与常用的尺度不变性的特征点检测和匹配(SURF)的效果评估进行比较分析,结果显示CAEW算法的效果评估能达到90%以上,这一指标有明显提高,可以很好地满足双目实时目标匹配的需求.通过CAEW与SURF算法实验对比,进一步说明了减少不必要的全局性图像像素点处理可以提高匹配速度.  相似文献   

5.
针对深度估计时两幅双焦图像特征点的误匹配问题,提出了一种基于改进形状上下文特征点的校正方法。首先引入了对尺度、视角、光照等具有不变性的SSURF特征向量,利用SSURF特征向量匹配算法在双焦单目视觉系统采集的焦距不同的两幅图像之间进行目标SSURF特征点的匹配。提出一种改进的形状上下文描述符,对局部特征匹配点对进行误匹配的校正。然后根据空间物点与所成像点距图像中心矢量大小及摄像机的焦距值之间的几何关系,利用校正后的特征点完成相关的计算从而获取目标物的深度信息。实验表明,校正后的方法进行深度估计具有较小的误差和较好的估计效果。该深度估计方法有较大的实用价值。  相似文献   

6.
基于非接触式眼压计对人眼定位系统进行研究,采用汇聚式双目视觉模型对人眼进行定位。阐释了双目视觉原理和相机标定原理与流程,通过标定评价方法对标定结果进行评价,同时搭建双目视觉系统实验平台,对真实人眼进行试验。对眼图处理过程进行了分析,采用HOUGH圆检测与SURF-RANSAC算法进行特征点匹配,最后得到空间点与三维定位点坐标间误差,实验结果验证了方案可行性。  相似文献   

7.
本文提出了一种有效的针对受损图像(元素丢失)的图像配准方法。利用矩阵填充技术将受损图像的丢失元素恢复,然后将主元分析法(PCA)应用于尺度不变特征变换(SIFT)中进行图像的配准。针对SIFT算法采用128维特征向量表示特征点,存储空间、匹配时间与特征点数量成正比,文本采用主元分析法对多维特征向量进行降维处理,以提高运算效率;并采用高斯加权欧氏距离代替欧氏距离进行特征点的匹配。实验结果表明,该算法具有较好的稳定性、准确率和匹配速度,针对受损图像配准具有较好的鲁棒性,可应用在基于内容的图像与视频检索等机器视觉领域。  相似文献   

8.
为实现类人机器人对复杂目标高精度识别并测量出目标实际距离,提出一种双目目标识别与测距方法. 首先利用棋盘标定法对摄像机进行标定并捕获图像;然后利用局部二值模式算子(LBP)和优化后支持向量机(SVM)对目标进行识别;在识别的基础上,再采用尺度不变特征变换(SIFT)算法对特征点进行匹配并根据三角测距原理计算出目标实际距离. 实验结果表明该方法不但减少了人为参数指定,并且提高了特征点匹配效率,测距精度能够达到94%以上,满足类人机器人高精度测距和实时性要求.  相似文献   

9.
为了提高双目立体视觉算法正确匹配率,本文改进了特征点提取及立体匹配算法。特征点提取部分,定义了尺度方向不变角点;在匹配计算部分,利用极线约束计算特征点的候选匹配角点,采用视差梯度约束和最大向量角准则多约束条件实现精确匹配。对本文的改进算法进行了实验室以及水池试验验证:实验室中采集小盒图片;水池试验中,拖车带动船模在试验水池航行时,采集船后部的波浪图片。实验结果显示,改进算法在水池实验图片处理中的正确匹配率比尺度不变特征变换(SIFT)算法高14%。  相似文献   

10.
设计了基于双目视觉的船舶跟踪与定位系统,并且完成对应算法设计.算法分为摄像机标定、目标跟踪、立体匹配、视差定位4个模块,其中,跟踪模块以目标窗口的形式给出跟踪结果,匹配模块在跟踪结果中进行左右目立体匹配,定位模块根据左右目匹配点对的像素位置计算其在物理空间的坐标,减少了匹配时间.实验结果表明,该方式可实现实时跟踪目标并给出目标的准确位置,满足应用要求.该定位系统可同时完成动态目标跟踪和定位,提供三维图像的丰富信息,具有很强的推广应用价值.  相似文献   

11.
双目立体视觉的无人机位姿估计算法及验证   总被引:4,自引:1,他引:3  
针对无人飞行器在未知复杂环境下的导航问题,提出了一种基于双目立体视觉的无人飞行器位置和姿态估计算法。用双目摄像机采集立体图像序列,对图像进行立体校正后使用Harris算法提取特征角点,用NCC算法获取匹配特征点,导出摄像机坐标系下的特征点坐标,得到三维立体特征信息,使用RANSAC算法与L-M迭代算法得到无人飞行器姿态和位置估计值。实验结果表明,基于双目立体视觉的位姿估计算法能适应未知环境变化,计算结果与实际位姿量相比误差小,能满足无人飞行器导航要求,可为无人飞行器的导航实现提供一套新途径。  相似文献   

12.
Harris-SIFT算法及其在双目立体视觉中的应用   总被引:2,自引:0,他引:2  
为了降低尺度不变特征变换(SIFT)算法的复杂度,提高算法的实时性,克服算法提取的特征点不是角点的缺点,该文提出了一种新的Harris-SIFT算法。该算法首先用Harris算子提取图像的特征点,然后为每个特征点定义主方向,最后将特征描述子的坐标旋转到与特征点的主方向一致,计算出每个特征点的特征向量描述子。双目立体视觉图像匹配实验结果说明了该算法的有效性。  相似文献   

13.
采用立体视觉的三维测量方法重建奶牛的三维模型,实现了对奶牛的体型性状指标测量,首先通过立体标靶进行摄像头的标定,然后利用SIFT(scale invariant feature transform)尺度不变特征点匹配算法对图像进行特征点提取与匹配,最后通过投影矩阵计算匹配特征点的三维坐标;针对双目视觉中摄像头视角范围受限问题,提出通过在相邻视点的公共区域设置标记点,根据标记点计算不同坐标系的转换关系,将各局部特征点转换到统一坐标系下,从而实现不同视点下各局部区域的三维拼接.实验表明,采用该方法重建的奶牛模型较理想,测量精度和测量效率满足评定要求,能够取代手工测量.  相似文献   

14.
针对现有图像特征匹配算法高复杂度、耗时长等问题,提出一种基于局部特征点的新型特征匹配算法。首先,构建尺度金字塔,在不同的尺度上进行FAST特征点检测,根据特征点的Harris响应对特征点进行排序选取;然后利用图像的矩和积分图的方法获得特征点方向,再根据同心圆的采样模式构造特征点向量,最后根据特征点向量的汉明距离进行特征匹配。实验研究表明,该算法在图像有一定程度的缩放、旋转和噪声影响的条件下,运行效果仍然稳定可靠。与传统的SIFT算法相比,该算法在保证特征提取与匹配良好性能的前提下,运行速度要比SIFT算法快数倍。  相似文献   

15.
A binocular stereo vision positioning method based on the scale-invariant feature transform(SIFT)algorithm is proposed.The SIFT algorithm is for extracting distinctive invariant features from images.First,image median filtering is used to eliminate image noise.Then,according to the characteristics of the target satellite,image map is used to extract the middle part of the target satellite.At last,the feature match point under the SIFT algorithm is extracted,and the three-dimensional position and orientation are calculated.The features are invariant to image scale and rotation,and are shown to provide robust matching across a substantial range of affine distortion,change in 3Dviewpoint,addition of noise,and change in illumination.The experimental result shows that the algorithm works well and the maximum relative error is within 0.02 mand 2.5°.  相似文献   

16.
针对提取图像局部特征时,尺度不变特征变换描述子对光照条件变化仅有部分不变性,特别对非线性光照变化不具备不变性,对模糊的目标图像也无法准确提取或仅能提取到很少特征点的问题,利用局部二值模式描述子对光照的健壮性提出了一种符合人类视觉系统的自底向上再到自顶向下的视觉认知过程的新的抗模糊的图像局部特征描述子。实验表明,所提出的描述子对光照变化有更好的健壮性,对模糊的目标图像能准确地提取出更多的特征点,保留了尺度不变特征变换对缩放、旋转和压缩等变换的不变性,并显著地提高了针对模糊图像的匹配率。  相似文献   

17.
动态场景下基于视差空间的立体视觉里程计   总被引:2,自引:0,他引:2  
针对实际的复杂动态场景,提出了一种基于视差空间的立体视觉里程计方法.利用SIFT特征点的尺度和旋转不变性及一些合理的约束条件,实现左、右图像对和连续帧间的特征点匹配和跟踪.通过结合了RANSAC的最小二乘估计滤除运动物体上的干扰特征点,得到较为准确的运动参数的初始值,在视差空间中推导出视觉里程估计的数学模型,通过最小化误差函数得到最终运动估计.实验结果表明,该算法在室内外存在运动物体的复杂动态场景中都具有较传统方法更高的精度.  相似文献   

18.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号