首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 171 毫秒
1.
针对尺度不变特征变换(SIFT)算法所提取图像特征点数量少、误匹率高的问题,提出了一种基于高光谱图像的改进SIFT算法。首先,依据传统SIFT算法中高斯金字塔的构造思想,结合在不同波段下的高光谱图像具有相同宏观特征的特点,首次用高光谱图像作为原始算法中经高斯变换产生的图像,使得检测到的具有实际意义的特征点数量大幅增加;其次,传统SIFT算法以及大量的改进方法都只通过目标象元邻域范围内的像素信息来构造特征描述符,而忽略了像素点的位置信息,文中将目标象元的位置信息纳入了特征描述符,在特征描述符的匹配阶段,在利用邻域范围内的像素信息进行粗匹配之后,利用特征描述符中的位置信息进行精细匹配。仿真实验结果表明在限定最优值与次优值之比的情况下,采用高光谱图像构造高斯金字塔的方式能显著增加特征点的提取数量,更多地挖掘出图像中的极值点;在特征描述符中加入目标象元的位置信息作为特征点匹配第二阶段的判断依据,正确匹配数量达到原方法的59倍以上,极大提升了算法的匹配性能。  相似文献   

2.
提出一种改进的尺度不变特征变换(SIFT)算法,用于实现多变背景下的快速目标识别。首先,构建目标图像尺度空间,提取SIFT特征点并将其按大小分类,目标识别时只需比较同一类型的特征点。然后,由SIFT特征点子区域方向直方图计算得到4个新角度用于代表特征点的方向信息,并且在目标识别时根据角度信息限制特征点匹配范围,从而提高SIFT算法的运算速度。最后,计算目标图像和待识别图像之间的尺度因子,在尺度因子约束条件下进行目标特征点匹配,从而有效地保证正确匹配数量,提高目标识别的鲁棒性。实验结果表明:当目标在待识别图像中发生局部遮挡、旋转、尺度变化或者弱光照等情况下,改进的SIFT算法能够完成多变背景下快速目标识别任务,平均识别速度提升了40%。  相似文献   

3.
常规的尺度不变特征变换(SIFT)图像特征提取方法难以提取多聚焦图像离焦模糊区域的特征,使得图像间存在局部、少量的公共特征,导致多聚焦图像配准精度差,严重影响后续图像融合和三维重建质量。在分析图像离焦模糊区域特征提取不确定性的基础上,提出了一种多聚焦图像离焦模糊区域的SIFT特征提取方法。首先提取多聚焦图像聚焦清晰区域的SIFT特征,再利用光流跟踪提取对应离焦模糊区域的SIFT特征,避免了在离焦模糊区域直接提取SIFT特征的不确定性。实验结果表明:提出的方法在离焦模糊区域具有良好的SIFT特征提取能力和提取精度,能实现多聚焦图像SIFT特征匹配数量显著增长,SIFT特征提取的误差为0.03~0.39 pixels,优于现有方法的0.21~1.71 pixels。降低了离焦模糊区域SIFT特征提取的不确定性,为多聚焦图像精确配准奠定了基础。  相似文献   

4.
基于SIFT的单目移动机器人宽基线立体匹配   总被引:5,自引:4,他引:1  
SIFT特征描述子是一种对图像旋转平移、缩放以及视角变化具有不变性的匹配特征描述方法,本文针对单目移动机器人环境探索中存在的大视差宽基线图像对的立体匹配问题,提出了一种基于SIFT特征描述子的单目移动机器人宽基线立体视觉匹配方法,通过提取SIFT不变特征点,构造SIFT特征向量,从而实现特征点对的初匹配,进一步利用RANSAC算法以及外极线约束进行匹配点的优化筛选,并通过三维重建实验验证了获得匹配点对的准确性。  相似文献   

5.
图象特征点提取及匹配算法   总被引:7,自引:2,他引:7  
针对图像特征提取与匹配的适应性和准确性的问题,本文提出将尺度不变特征变换算法应用到图像特征点提取与匹配。算法首先采用SIFT提取图象的特征点及其描述,然后采用基于置信度的匹配算法进行特征点的匹配。通过对不同光照条件、焦距、拍摄角度的图像进行特征点的提取及匹配,实验结果表明,本文算法对图像的平移、旋转和仿射变换具有很好的适应性和准确性,可以进一步应用到图像识别,图像重建等领域。  相似文献   

6.
提出了一种基于机器视觉的小尺寸不规则零件精密测量方法和系统,方法包括图像采集、图像增强、图像配准、边缘检测、目标直线提取、相机标定和计算测量环节。针对传统尺度不变特征变换(SIFT)匹配算法完全忽略特征点之间的几何关系,对于灰度变化较平滑的图像在寻找匹配特征点对时易产生较多误匹配的问题,引入轮廓匹配获取图像几何信息、对SIFT特征点匹配进行约束,并通过随机样本一致(RANSAC)算法去除噪声点对的影响、精确估计几何变换矩阵;针对现有Hough变换拟合直线算法对非线性边缘易在Hough空间形成伪峰、影响边缘检测精准度的问题,设计了Hough空间投票权重分配新策略来抑制伪峰的产生。实验结果表明:与传统方法相比,所提出的方法特征匹配精度提高了12%,直线检测精准度提高了22%,系统测量精度达到0.015 mm。  相似文献   

7.
针对移动机器人定位过程中视觉图像处理速度慢以及特征点提取与匹配实时性、准确性差的问题,提出了基于颜色矩的改进SIFT分级图像匹配算法。首先改进SIFT算法,扩大极值点检测范围;采用Sobel算子计算特征点的梯度方向和幅值;以向量夹角为准则度量SIFT特征相似性,提高SIFT特征提取与匹配的速度和精度。图像匹配时先采用颜色矩对环境图像序列进行相似性排序,改进SIFT特征,再与排序后图像依次进行精确匹配,分级匹配提高了移动机器人的定位速度和精度。实验结果表明:与原SIFT相比,改进SIFT提高了特征向量的显著性,误匹配率降低约9.2%,特征点数量减少约20%;分级匹配提高了图像匹配速度和精度,SIFT特征计算量减小60%,总体耗时缩短40%。达到移动机器人定位实时性和鲁棒性的目的。  相似文献   

8.
为了满足月球车视觉系统检测障碍物的时效性和可靠性需求,提出了一种基于平面约束和自适应惩罚参数的半全局立体匹配算法。首先,对极线校正后的两幅图像进行SIFT特征点提取与匹配,同时提取边缘特征;然后,利用匹配的SIFT特征点拟合空间平面,并根据平面估计左右图像所有像素点的视差搜索范围;最后,基于传统的半全局匹配算法,采用自适应惩罚参数对左右图像进行立体匹配。实验结果表明:所提出的算法有效地降低了计算复杂度,其计算复杂度只有传统方法的19.9%,对于视差不连续区域以及遮挡区域都能够获得正确的匹配结果。较传统半全局匹配方法无论在速度还是匹配精度上都得到明显提高,为立体匹配的实际应用奠定了基础。  相似文献   

9.
在视觉SLAM(visual Simultaneous Localization And Mapping,v SLAM)中,利用提取到的图像特征点进行相机位姿估测是一种非常重要的位姿估算方法,为了实现相机的定位,图像特征点必须具备鲁棒性、尺度性和高效率等特点。介绍了图像特征点提取与匹配在视觉SLAM中的作用和场景中图像特征点需要具备的特性;对几种主流的图像特征点提取算法,即尺度不变特征变换(Scale Invariant Feature Transform,SIFT)算法、加速稳健特征(Speeded-Up Robust Features,SURF)算法、快速特征点提取与描述(Oriented FAST and Rotated BRIEF,ORB)算法分别进行了简要说明;并通过设计实验,在室内环境中,对几种图像特征点提取算法的运行效率和图像特征点匹配正确率进行了对比测试。实验表明,ORB算法在运行效率和匹配正确率上占据优势,能够较好地满足视觉SLAM中实时性和鲁棒性的要求。  相似文献   

10.
基于SIFT算法的目标匹配和识别   总被引:3,自引:0,他引:3  
朱利成  姚明海 《机电工程》2009,26(12):73-74,81
针对目标跟踪过程易受噪声干扰导致跟踪效果不理想,甚至丢失跟踪目标的问题,利用了尺度不变特征变换(SIFT)方法对单帧图像进行了目标特征点的提取和匹配,并结合线性卡尔曼滤波和聚类分析,剔除误匹配,实现了目标位置的最小均方误差估计。仿真结果表明,当图像存在不同程度的噪声影响时,基于SIFT的卡尔曼滤波目标匹配算法能有效减小目标跟踪误差,精确识别目标位置,提高目标跟踪精度。  相似文献   

11.
针对兵马俑图像三维重建时特征误匹配率较高、效率较低的问题,提出了一种基于两视图兵马俑图像的特征分区匹配方案。该方案在兵马俑图像上,首先利用学习不变特征变换(Learned Invariant Feature Transform,LIFT)方法提取整幅兵马俑图像的特征;接着利用提出的基于先验知识的特征点分布曲线分割方法确定兵马俑头部分割线位置,根据头部分割线将提取的特征分为头部特征和躯干特征;最终采用欧式距离进行分区特征匹配,对于匹配结果集合使用随机抽样一致性算法(Random Sample Consensus,RANSAC)滤除误匹配点集。实验结果表明:在兵马俑图像特征提取及匹配中该方案的正确匹配率可以达到98%,相比于SIFT和SURF方法正确匹配率提高了20%左右,特征点的可重复率提高了10%左右,同时将RANSAC的迭代时间降低了50%,而且在尺度、光照、角度发生变换时具有较好的鲁棒性。因此本文提出的方案能够很好地实现特征点的正确匹配,在兵马俑的三维重建中具有很高的使用价值。  相似文献   

12.
针对旋转不变性二进制描述算法(Oriented Fast and Rotated Brief, ORB)的尺度旋转性配准误差大,配准率较低及随机采样一致性(Random Sample Consensus, RANSAC)算法随机性强且不稳定的问题,提出一种ORB与RANSAC结合的快速特征匹配算法。首先,对特征点提取方式进行优化选择,消除特征边缘影响。之后构建简化的金字塔式尺度空间模型,改进分层图像的尺度空间结构,减少生成图像层数和数目;然后采用梯度方向改进传统ORB算法中的主方向提取模式,提高特征角点主方向的准确性。最后,通过构建分块随机取样检测的方式改进RANSAC算法,提高RANSAC算法的稳定性和图像配准的准确性。实验结果表明改进后的ORB和RANSAC融合算法在尺度和旋转配准方面性能有很大提高,并且配准的精度较传统ORB算法高,尺度配准精度提高55.41%,旋转配准精度提高26.66%。满足复杂图像快速精确配准拼接的精度和实时性要求。  相似文献   

13.
张雷洪  熊锐 《光学仪器》2019,41(3):67-74
在实际的印刷品缺陷检测过程中,存在因相机支架的颤动而导致标准印刷图像和待检测图像在空间位置上配准不精确的问题。为此,在图像去抖动技术的基础上,提出了一种融合SURF(speeded-up robust features)和ORB(oriented FAST and rotated BRIEF)的运动估计算法。首先,基于SURF算法提取标准印刷图像和待检测图像的特征点;其次,基于ORB算法对提取的特征点进行描述和匹配;再次,将正确匹配的特征点通过仿射模型来求取全局运动矢量;最后,通过求得的全局运动矢量来补偿图像,并完成待检测图像与标准印刷图像的配准。针对待测图像存在的平移、尺度和旋转三种不同变化,分别采用SURF-ORB、ORB和SIFT(scale-invariant feature transform)的运动估计算法进行了性能分析。结果表明,SURFORB的特征点匹配对数量最多,匹配效果最好,SURB-ORB的运动估计时间控制在毫秒级别,满足现代印刷品缺陷检测的实时性要求。因此,融合SURF和ORB的运动估计算法能够对图像进行精确、实时的配准。  相似文献   

14.
徐军  付天宇  杨健  丰苏 《光学精密工程》2016,24(11):2830-2840
为了实现红外图像与可见光图像的信息融合,弥补单一模态图像的不足,提出了一种基于显著性分析与改进的边缘方向直方图EOH(Edge Orientation Histogram)特征的红外与可见光图像配准算法。该算法首先利用显著性分析技术找到可见光图像中的重要信息,得到显著性图;将其与可见光图像融合,实现可见光图像中重要信息的划分。然后,利用自适应FAST(Features from Accelerated Segment Test)算法,探测可见光与红外图像上的特征点;利用改进的EOH,描述特征点。最后,根据描述计算特征点的相似性,在可见光与红外图像上找出对应的特征点,实现红外与可见光图像的匹配。在3种不同情况下对红外与可见光图像数据进行了配准实验。结果表明:在红外图像与可见光图像采集条件相似情况下,特征点正确匹配率为96.55%,而在图像采集条件差异较大的情况下,特征点正确匹配率可达74.21%。该算法可实现红外与可见光图像的精确快速匹配,即使红外图像与可见光图像采集的角度与位置均存在较大差异的情况下,仍可以满足红外与可见光图像匹配对精度和稳定性的要求。  相似文献   

15.
挖掘机器人双目视觉系统标定方法与立体匹配   总被引:1,自引:0,他引:1  
在挖掘机器人视觉系统实现中,摄像机标定、特征提取、立体匹配是关键环节,而立体匹配又是视觉系统中最复杂、最重要的步骤。首先分析了通用双目立体视觉模型及平行双目立体视觉模型,对挖掘机器人平行双目立体视觉系统测量方法及参数标定进行了研究。结合基于特征的匹配方法,通过对左、右图像角点的提取,实现了基于极线几何约束的特征点匹配。通过对铲斗图像匹配实验,验证了该方法能满足挖掘机器人视觉系统要求。  相似文献   

16.
面向大规模SFM的快速鲁棒特征跟踪算法   总被引:2,自引:1,他引:1       下载免费PDF全文
运动恢复结构(SFM)是指通过分析二维图像序列恢复三维结构信息的过程,在计算机视觉的多种应用中起着重要的作用。特征跟踪是大规模SFM的核心组成部分,但现有的多视图特征跟踪算法在鲁棒性和效率上还存在不足,为解决这一问题,提出了一种快速和鲁棒的特征跟踪(FRFT)算法。首先,采用AGAST进行特征点检测,并使用图像矩为AGAST特征定义主方向,为构造旋转不变的描述子奠定基础;其次,在差分高斯金字塔空间内,根据中心点与邻域像素之间的差值构造特征描述子,避免光照和尺度变化对特征匹配的影响;再次,为了提高特征匹配效率,对特征集合进行聚类,采用KD-Tree加速特征匹配,提高算法的时间效率;最后,采用4种方式对FRFT算法进行验证,并与现有经典算法进行比较。实验结果表明,FRFT算法在鲁棒性和时间效率方面均优于现有经典算法。  相似文献   

17.
采用统计过程控制方法对二维图像特征点区域定位,并提取二维图像特征点。避免了提取二维图像特征点时,根据被处理图像的先验信息,利用试探方法确定阈值的局限性。在立体匹配时,将灰度相关系数小于最大灰度相关系数一定范围内的特征点作为灰度相关复峰初始匹配特征点集合。根据由正确匹配特征点组成的视差矩阵与对应的基线距矩阵存在极大相关性,从灰度相关复峰初始匹配特征点集合中确定唯一匹配特征点。通过对外形复杂的实际物体及已知精确三维坐标的标准工件的三维重建,证实了文中所提方法的有效性和可靠性。  相似文献   

18.
双目立体视觉是计算机视觉研究中最为活跃的一个分支,是智能机器人科学发展的重要标志。它是由不同位置的2台或者1台摄像机(CCD)经过移动或旋转拍摄同一场景,通过图像获取、摄像机标定、特征提取和匹配,进而通过计算空间点在2幅图像中的视差,获得场景的深度信息。本文在SU—SAN角点检测的基础上,提出了基于图像平均灰度的阈值选取方法,使阈值的选取不再盲目,保证了用SUSAN算法进行角点检测的实用性和适用性。仿真试验表明,用该方法进行特征点的提取,减少了匹配时间,提高了匹配精度,得到了较好的效果。  相似文献   

19.
针对制造车间光滑地面在阳光或灯光照射下的扫描图像往往存在反射光斑,且随相机位置变化而变化,会严重干扰图像处理和利用的问题,提出了一种识别和去除高光的方法,用于改善图像处理效果和三维重建精度。基于扫描序列图像的三维场景重建流程和SURF特征原理,分析移动的高亮反光斑对图像特征点提取和匹配的影响;对于缺乏表面纹理的灰度图像,提出一种基于逐行多级阈值和动态模板高光识别与去除方法,保留非高光点的特征信息,识别与修复同步完成。实验结果表明,无高反光的前后两帧图像的匹配特征点对比有高光情况下至少高出8%,优化后的余留匹配特征点更多;扫描一段30m长的车间场景序列图像,用提出的方法修复高光后进行三维重建,点云拼接误差减小了10cm。表明移动高光对图像序列三维重建有不可忽视的影响,本文提出的方法能有效地去除高光。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号