首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 179 毫秒
1.
Harris相关与特征匹配   总被引:1,自引:0,他引:1  
基于图像梯度提出一种图像特征,称为Harris相关.应用Harris相关特征,构造图像特征描述子,包括特征点描述子、直线描述子和曲线描述子.这些描述子的构造较简单,对图像旋转与图像亮度的线性变化具有不变性.直线与曲线描述子的构造方法为直线和曲线的匹配提供一种思路.实验表明,应用Harris相关构造的特征点描述子对图像变化表现出较好性能,直线与曲线描述子在实际图像中取得较好的匹配结果.  相似文献   

2.
鉴于传统的局部描述子,如SIFT、HOG等,计算复杂度高、占用内存大且匹配时间过长,目前研究人员致力于研究二值化的局部描述子。二值描述子采用位存储并以汉明距离作为其匹配准则,在内存占用率和匹配时间上相比传统实值描述子有很大的优势。本文总结了目前在图像匹配中基于像素值和梯度值不同检验子的二值描述子,整理分析他们的优缺点并分析标准测试库结果。  相似文献   

3.
SIFT算法被广泛应用于图像特征提取与匹配。由于在利用SIFT特征进行图像匹配时,需要计算128维SIFT描述子间的欧氏距离,这对于大规模的图像检索耗费时间巨大。针对上述问题,提出一种利用二值SIFT描述子(EBSIFT)进行图像匹配的方法。首先,将128维SIFT描述子隔点作差,将差值与阈值的比较结果用2位二进制数表示,获得256维二值SIFT描述子;然后,将128维SIFT描述子隔点求平均值,获得128维均值SIFT描述子,再按上述同样的方法对这128维均值SIFT描述子隔点作差,再次获得256维二值SIFT描述子,从而获得512维联合二值SIFT描述子;最后,在进行图像匹配时,利用汉明距离计算512维二值SIFT描述子间的距离。实验结果表明,该方法的匹配正确率达到99.58%,与原SIFT算法持平,而匹配速度是原SIFT算法的19倍,大幅提高匹配效率。  相似文献   

4.
均值-标准差描述子与直线匹配   总被引:3,自引:0,他引:3  
提出一种通过直线描述子来进行自动直线匹配的思想.直线描述子的建立分为以下3个主要步骤:首先为直线定义平行邻域并将该邻域分解为一系列平行线,其次通过选择图像特征建立直线描述矩阵,最后通过计算描述矩阵列向量的均值和标准差获得直线描述子.基于不同的图像特征(灰度、梯度和梯度幅值),提出3个具有平移、旋转和线性光照不变性的直线描述子.实验结果表明本文提出的直线描述子具有较好的匹配性能.  相似文献   

5.
刘红敏  李璐  王志衡 《计算机科学》2017,44(12):292-297, 309
鉴于当前基于采样模型的二值描述子的采样信息相关度高且描述子的鲁棒性较低,通过改进视网膜采样模型,提出基于采样点组二值化策略的鲁棒二值描述子。首先,通过减少采样层数并增大采样点间的距离,设计出低采样点密度和低采样区域重叠度的改进视网膜采样模型。然后,在模型中的采样点圆形邻域内获取若干像素点,将其与采样点一起组成采样点组,分别计算两个采样点组对应点的灰度对比结果,并利用投票策略决定最终二值结果。最后,将采样点组的梯度对比信息与灰度对比信息一起编码生成描述子,以提高对相似灰度区域的描述力。通过对比实验可以看出,所提二值描述子对各种图像变化具有较好的鲁棒性且具有较好的匹配效果。  相似文献   

6.
现有的描述子一般与主方向相关,当图像经过变换时,得到的描述子主方向会有误差,从而导致图像匹配效果不理想。针对上述问题,基于等距环局部二值模式,提出一种二进制描述子构造方法。在构造描述子与描述子匹配过程中分别使用了等距环局部二值采样模式与分组匹配策略,使得构造的描述子具有旋转不变性,解决主方向问题和加速匹配过程。实验结果表明,与BRIEF,BRISK等二进制描述子相比,该方法具有更快的速度及更高的准确率。  相似文献   

7.
局部二值描述子的研究进展综述   总被引:1,自引:0,他引:1       下载免费PDF全文
局部二值描述子是局部不变特征中的重要研究对象,广泛应用于计算机视觉与模 式识别中。近年来,以 BRIEF 描述子为代表的局部二值描述子相继出现,对十年来局部二值描 述子的研究成果与发展方向进行综述,旨在为初步研究者与工程应用人员提供参考。首先,对 典型的现代局部二值描述子进行概述;其次,对优化局部二值描述子方法进行分析;最后,对 相关实验评估准则进行讨论,通过总结现阶段存在的问题,给出未来研究的展望。从整体来看, 近年来局部二值描述子经历了显著的发展与进步,许多对于局部二值描述子的研究均在普适性、 鲁棒性和高效性上取得了成果。针对应用场景的不同,部分优化后的描述子也具备了应对实际 问题的能力。这些研究进展为局部二值描述子向高层次发展、多领域拓宽打下了坚实的基础并 提供了更多的思路。局部二值描述子的成功发展标志着计算机视觉技术的进步,但其发展过程 中依然存在一些共性问题与矛盾,有待进一步的深入研究与解决。  相似文献   

8.
目的 针对仿射变换下形状匹配中存在的描述子对形状的描述能力不足,以及描述子计算耗时大的问题,改进基于所有图像点投影的方法,提出一种利用轮廓计算投影面积的仿射形状匹配算法。方法 该算法分为粗匹配和精匹配两个阶段。粗匹配阶段以CSS角点作为备选特征点,首先统计轮廓投影面积分布作为特征点描述子;然后利用动态规划蚁群算法匹配两幅图片公共特征点序列,并将匹配好的特征点序列记为对应的新特征点;最后采用该新特征点划分目标曲线,得到对应的轮廓曲线;这一阶段的目的是对形状的筛选以及寻找一致的轮廓特征点,同时完成轮廓曲线的划分。精匹配阶段,采用小波仿射不变描述子,对粗匹配阶段匹配代价最小的5%的目标进行对应曲线匹配,得到精匹配阶段的匹配代价,从而实现对仿射目标的识别;精匹配弥补了描述子对轮廓细节描述不足的问题。结果 算法的平均检索速度比传统基于形状投影分布描述子提高44.3%,在MPEG-7图像库上的检索效果为98.65%,在MPEG-7仿射图像库上的查准率与查全率综合评价指标比传统的基于形状投影分布描述子高3.1%,比形状上下文高25%。结论 本文算法匹配效果好,效率高,抗噪性强,解决了仿射描述子计算速度慢、描述能力不足的问题,能有效地应用于仿射形状匹配与检索领域。  相似文献   

9.
采用旋转匹配的二进制局部描述子   总被引:1,自引:0,他引:1       下载免费PDF全文
针对二进制描述子主方向计算误差影响图像匹配正确性的问题,提出了一种旋转不变的二进制描述子构造和匹配方法。在以特征点为中心的同心圆周上等间隔选取采样点,按照旋转不变的模式选取采样点对进行灰度值比较,将比较结果连接成二进制串,作为区域的描述子。匹配时比较描述子在所有旋转模式中的汉明距离,取最小值作为描述子的距离,实现不依赖于主方向的旋转不变性。配合多尺度特征检测方法,将采样模式进行缩放,并对图像进行亚像素插值,实现尺度不变性。描述子匹配的实验结果表明,本文方法在旋转,尺度和光照变换下的匹配效果比当前依赖主方向的二进制描述子方法具有更高的鲁棒性。  相似文献   

10.
角点距离矩阵和同心圆划分的曲线描述与匹配   总被引:1,自引:0,他引:1       下载免费PDF全文
曲线匹配对于物体识别、目标跟踪、碎片拼接等有着重要的意义。针对曲线匹配的效率与鲁棒性问题,提出了一种基于角点距离矩阵和同心圆划分的曲线描述与匹配算法。该算法分为粗略匹配和精确匹配两个阶段。粗略匹配阶段首先采用角点距离矩阵来描述曲线;然后通过子矩阵的方法来匹配曲线。精确匹配阶段首先采用同心圆划分的方法描述曲线;然后通过两条曲线同心圆描述集的差异度度量函数来度量他们的相似性。算法不仅具有平移、旋转、缩放不变性,而且具有较强的鲁棒性,可用于遮挡物体的匹配以及基于轮廓的图形拼接。实验结果表明了该算法的有效性和可行性。  相似文献   

11.
针对OSID在构建描述符时未考虑一个特征点的图像块里存在其他特征点,以及生成直方图描述子匹配速度较慢的问题,提出一种基于OSID的改进二进制描述符.在OSID描述符构建的过程中,扇形个数m的选择是固定的,因此提出当一个特征点的图像块里有多个特征点时,尝试将m的值自适应,丰富描述子所包含的信息,提高算法的正确匹配率;并将...  相似文献   

12.
特征联合和旋转不变空间分割联合的局部图像描述符   总被引:1,自引:0,他引:1  
许允喜  陈方 《自动化学报》2016,42(4):617-630
  相似文献   

13.
14.
15.
16.
汤培楷  陈玮  麦毅成 《计算机应用》2013,33(4):1096-1099
为了提高图像局部特征算法的计算速率与匹配速度,并保持其准确率,提出了一种局部映射二进制串描述符算法。它通过映射的方法将图像局部区域转化成二进制串,从而提高其计算效率与匹配速度,并通过机器学习的方法寻找最佳映射矩阵,保持其准确率。从实验结果表明,只需32比特的二进制串就可以在准确率上媲美现有的局部描述符算法,并在匹配速度上有较大的优势。  相似文献   

17.
特征描述符提取和匹配是基于特征点图像匹配方法的一个重要问题。针对特征描述符提取问题,分析了目前已提出的描述符提取方法存在的问题和不足,并针对这些问题提出一种新的描述符提取方法和相应的匹配方法,经过实验和比较,提出的方法有很高的准确率和稳定性。同时,还改进了特征点的梯度方向估计方法,使方向估计具有更高的准确率。  相似文献   

18.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号