首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 62 毫秒
1.
图像局部不变特征已经成功地应用在计算机视觉当中的许多领域,而如何快速有效地匹配高维图像局部特征向量是解决这类问题的关键步骤。提出了一种新的基于子向量距离索引的高维特征向量匹配算法,将高维空间中最近邻搜索问题转化为一维索引值的查找和局部搜索问题,在保证较高的搜索精度的同时大大提高了搜索速度。大量的图像匹配和图像检索实验验证了该算法的有效性。  相似文献   

2.
在解决高维向量的搜索问题方法中,基于子向量距离索引的向量匹配算法iSVD拥有较好的搜索精度和效率。但是,该算法计算复杂度仍然较高,在实际应用中会受到限制。针对该问题,引入关键维选取方法,对iSVD算法进行改进。该方法首先将特征向量划分为多个子向量;再通过某种筛选方法,选出部分子向量代替原特征向量,进而创建索引值;最后利用索引值进行最近邻搜索。该方法能够将相似性较小的特征向量进行有效的区分,且可以进一步缩小最近邻搜索的搜索范围。实验结果表明,该算法能够在保持良好搜索精度的同时,提高匹配的正确率,缩短匹配时间,具有较好的实用性。  相似文献   

3.
基于哈希编码的算法,由于其高效性,已经成为海量数据高维特征最近邻搜索的研究热点。目前存在的普遍问题是,当哈希编码长度较低时,原始特征信息保留不是很充分,从而导致检索结果不理想。为了解决这一问题,提出了一种基于Markov网络的有效哈希编码算法。该算法首先根据稀疏编码策略进行特征重构,通过Markov随机游走的方式构建特征之间的语义网络关系图,然后根据Laplacian特征映射求出投影函数,最后进行快速的线性投影二值化编码。在公开数据集上与主流算法进行了性能比较,实验结果表明该算法具备良好的检索性能。  相似文献   

4.
现有图像感知算法侧重于减少相似图像感知哈希值间的差异性,较少关注增大不同图像感知哈希值间的差异性问题.针对这一局限性,提出并实现循环贯序差分和拉普拉斯算子两种基于差分的图像感知哈希算法,并分别在小规模相似图像集合和大规模不同图像集合上进行测试.与现有图像感知哈希算法相比,所提算法体现了图像像素点间的局部关联性,增加了不...  相似文献   

5.
深度卷积神经网络学习的图像特征表示具有明显的层次结构.随着层数加深,学习的特征逐渐抽象,类的判别性也逐渐增强.基于此特点,文中提出面向图像检索的深度汉明嵌入哈希编码方式.在深度卷积神经网络的末端插入一层隐藏层,依据每个单元的激活情况获得图像的哈希编码.同时根据哈希编码本身的特征提出汉明嵌入损失,更好地保留原数据之间的相似性.在CIFAR-10、NUS-WIDE基准图像数据集上的实验表明,文中方法可以提升图像检索性能,较好改善短编码下的检索性能.  相似文献   

6.
目的 基于哈希编码的检索方法是图像检索领域中的经典方法。其原理是将原始空间中相似的图片经哈希函数投影、量化后,在汉明空间中得到相近的哈希码。此类方法一般包括两个过程:投影和量化。投影过程大多采用主成分分析法对原始数据进行降维,但不同方法的量化过程差异较大。对于信息量不均衡的数据,传统的图像哈希检索方法采用等长固定编码位数量化的方式,导致出现低编码效率和低量化精度等问题。为此,本文提出基于哈夫曼编码的乘积量化方法。方法 首先,利用乘积量化法对降维后的数据进行量化,以便较好地保持数据在原始空间中的分布情况。然后,采用子空间方差作为衡量信息量的标准,并以此作为编码位数分配的依据。最后,借助于哈夫曼树,给方差大的子空间分配更多的编码位数。结果 在常用公开数据集MNIST、NUS-WIDE和22K LabelMe上进行实验验证,与原始的乘积量化方法相比,所提出方法能平均降低49%的量化误差,并提高19%的平均准确率。在数据集MNIST上,与同类方法的变换编码方法(TC)进行对比,比较了从32 bit到256 bit编码时的训练时间,本文方法的训练时间能够平均缩短22.5 s。结论 本文提出了一种基于多位编码乘积量化的哈希方法,该方法提高了哈希编码的效率和量化精度,在平均准确率、召回率等性能上优于其他同类算法,可以有效地应用到图像检索相关领域。  相似文献   

7.
胡海苗  姜帆 《软件学报》2015,26(S2):228-238
提出了一种可扩展的局部敏感哈希索引(SLSH),以解决高维动态数据索引中,由于数据集大小及分布特征无法确定而导致索引效率降低的问题.SLSH架构于E2LSH之上,继承了其对高维数据索引速度快,并可直接对欧式空间上的数据点进行索引的特点.为了使得哈希索引具有动态的相似性区分能力,SLSH修改了E2LSH的哈希族,通过哈希桶容量约束自适应调节哈希参数.因此对于分布密度动态变化的数据空间,SLSH也能够给出鲁棒的划分.  相似文献   

8.
针对基于图像进行三维重建技术在使用大规模图像集合进行重建时,需要对图像集合中图像进行两两匹配耗时问题,提出了基于哈希技术对图像构建全局哈希特征的方法,通过过滤掉无效的图像关系对来减少计算时间,极大地提高了大规模图像集合三维重建的匹配计算效率。提出的大规模图像快速哈希匹配算法包括构建图像哈希特征、构建初始匹配图、挑选候选匹配对、哈希匹配几个步骤。实验结果表明该方法能显著地提高三维重建中图像匹配的速度。  相似文献   

9.
目的 视觉检索需要准确、高效地从大型图像或者视频数据集中检索出最相关的视觉内容,但是由于数据集中图像数据量大、特征维度高的特点,现有方法很难同时保证快速的检索速度和较好的检索效果。方法 对于面向图像视频数据的高维数据视觉检索任务,提出加权语义局部敏感哈希算法(weighted semantic locality-sensitive hashing, WSLSH)。该算法利用两层视觉词典对参考特征空间进行二次空间划分,在每个子空间里使用加权语义局部敏感哈希对特征进行精确索引。其次,设计动态变长哈希码,在保证检索性能的基础上减少哈希表数量。此外,针对局部敏感哈希(locality sensitive hashing, LSH)的随机不稳定性,在LSH函数中加入反映参考特征空间语义的统计性数据,设计了一个简单投影语义哈希函数以确保算法检索性能的稳定性。结果 在Holidays、Oxford5k和DataSetB数据集上的实验表明,WSLSH在DataSetB上取得最短平均检索时间0.034 25 s;在编码长度为64位的情况下,WSLSH算法在3个数据集上的平均精确度均值(mean average precision,mAP)分别提高了1.2%32.6%、1.7%19.1%和2.6%28.6%,与几种较新的无监督哈希方法相比有一定的优势。结论 通过进行二次空间划分、对参考特征的哈希索引次数进行加权、动态使用变长哈希码以及提出简单投影语义哈希函数来对LSH算法进行改进。由此提出的加权语义局部敏感哈希(WSLSH)算法相比现有工作有更快的检索速度,同时,在长编码的情况下,取得了更为优异的性能。  相似文献   

10.
赵启潍  张乐  祝贝利  刘静 《福建电脑》2012,28(4):13-14,48
随着社交网络的兴起和不断发展,产生的海量高维数据给传统的检索技术带来了新的挑战。位置敏感哈希算法(LSH)是解决高维数据的快速检索和匹配的有效手段。本文首先叙述了LSH算法的基本原理,重点介绍了算法的构建和查询匹配过程,最后就算法的发展和未来应用进行了展望。  相似文献   

11.
基于局部敏感哈希的检索方法能够较好地解决高维大规模数据的近似近邻检索问题.但在开放环境下针对多种分布特性时,迄今尚未有令人满意的解决方案.利用Laplacian算子对数据分布剧烈变化敏感的特性,提出一种具有全局性、适用于开放环境下多种分布特性的基于Laplacian算子的局部敏感哈希搜索方法(LPLSH).该方法把La...  相似文献   

12.
一种新的基于对称色彩空域特征的图像匹配方法   总被引:5,自引:0,他引:5  
在目前的基于内容的图像检索中,颜色是使用最广泛的进行图像特征匹配的特征之一.在基于颜色的图像特征匹配方法中引入空域信息对于确保匹配准确率是十分必要的.颜色特征的优点在于对尺度、旋转的不变性,而引入空域信息后,会消除这种好的性质.因而需要解决如何在引入空域信息的同时,兼顾不变性的问题.提出一种基于对称色彩空域特征的图像匹配方法.该方法在保留了颜色特征不变性的基础上。通过引入对称的空域信息。既提高了图像特征匹配的准确性。又消除了图像变形对图像特征匹配的影响.最后的试验表明我们的算法在一定程度上解决了图像变形,特别是对称变形对图像匹配的影响.  相似文献   

13.
特征匹配是图像识别中一个基本研究问题。常用的匹配方式一般是基于贪婪算法的线性扫描方式,但只适用于低维数据。当数据维数超过一定程度时,这些匹配方法的时间效率将会急剧下降,甚至不强于强力线性扫描方法。本文提出一种基于最小哈希的二值特征匹配方法。通过最小哈希函数映射变换操作,将原始特征集合分成多个子集合,并将一个在超大集合下内查找相邻元素的问题转化为在一个很小的集合内查找相邻元素的问题,计算量有所下降。使用Jaccard距离度量的最小哈希函数能最大限度地保证原始数据中相似的向量对在哈希变换后依然相似。实验表明这种匹配方法应用在二值特征上时,可以获得比KD-Tree更好的匹配效果。   相似文献   

14.
基于KD-Tree搜索和SURF特征的图像匹配算法研究   总被引:2,自引:0,他引:2  
针对图像匹配时进行特征检测和匹配的搜索时间长的问题,文章研究了基于KD-Tree搜索和SURF特征的图像匹配算法。该算法首先提取得到图像的SURF特征并生成特征描述向量,然后为这些特征描述向量建立KD-Tree索引,最后通过计算每个特征点的与其距离最近的若干个KD-Tree上的最近邻点,完成特征匹配工作。实验结果表明,与SIFT算法相比,SURF算法进行特征检测的速度要快2~3倍;与全局最近邻搜索相比,基于KD-Tree索引的近似最近邻搜索大大减少了计算量,较大地提高了SURF算法的匹配速度。  相似文献   

15.
基于矢量量化的快速图像检索   总被引:7,自引:0,他引:7  
叶航军  徐光祐 《软件学报》2004,15(5):712-719
传统索引方法对高维数据存在"维数灾难"的困难.而对数据分布的精确描述及对数据空间的有效划分是高维索引机制中的关键问题.提出一种基于矢量量化的索引方法.该方法使用高斯混合模型描述数据的整体分布,并训练优化的矢量量化器划分数据空间.高斯混合模型能更好地描述真实图像库的数据分布;而矢量量化的划分方法可以充分利用维之间的统计相关性,能够对数据向量构造出更加精确的近似表示,从而提高索引结构的过滤效率并减少需要访问的数据向量.在大容量真实图像库上的实验表明,该方法显著减少了支配检索时间的I/O开销,提高了索引性能.  相似文献   

16.
为了解决传统图像检索算法低效和耗时的缺点,提出一种基于PCA哈希的图像检索算法。具体地,首先通过结合PCA与流形学习将原始高维数据降维,然后通过最小方差旋转得到哈希函数和二值化阈值。进而将原始数据矩阵转换为哈希编码矩阵。最后通过计算样本间汉明距离得到样本相似性。在三个公开数据集上的实验结果表明本文提出的哈希算法在多个评价指标下均优于现有算法。  相似文献   

17.
针对迭代量化哈希算法未考虑高维图像描述符中呈现出的自然矩阵结构,当视觉描述符由高维特征向量表示并且分配长二进制码时,投影矩阵需要昂贵的空间和时间复杂度的问题,提出一种基于双线性迭代量化的哈希图像检索方法。该方法使用紧凑的双线性投影而不是单个大型投影矩阵将高维数据映射到两个较小的投影矩阵中;然后使用迭代量化的方法最小化量化误差并生成有效的哈希码。在CIFAR-10和Caltech256两个数据集上进行实验,实现了与最先进的8种哈希方法相媲美的性能,同时具有更快的线性扫描时间和更小的内存占用量。结果表明,该方法可以减轻数据的高维性带来的影响,从而提高ITQ的性能,可广泛服务于高维数据长编码位的哈希图像检索应用。  相似文献   

18.
近年来,随着图像数据量的爆炸式增长,散列方法与深度学习相结合的方法在图像检索领域表现出优异的性能.主流的深度监督散列方法大多采用“成对”策略,利用标签信息生成一个相似矩阵约束散列编码.这类方法的计算开销大,不适用于大规模的图像检索.为此,提出了一种一元深度监督散列学习方法——深度强相关散列学习方法,为卷积神经网络添加了一个散列层以得到散列码,通过计算低维散列码之间的汉明距离完成快速图像检索.特别地,为了学习到的散列码更具有区别性,提出了强相关损失函数约束散列码的生成.强相关损失函数通过改变模型对权重矩阵的敏感度调节特征之间的距离,尽可能地增大特征类间距离、缩小类内距离.该方法能够实现快速、准确的大规模图像检索,并且可以广泛地使用在多种卷积神经网络中.在CIFAR-10, NUS-WIDE, SVHN这3个大规模公开数据集中进行了大量实验,结果表明该方法的图像检索性能优于目前主流方法.  相似文献   

19.
利用分块相似系数构造感知图像Hash   总被引:1,自引:0,他引:1  
提出一种基于图像分块相似系数的感知稳健图像Hash.先对图像预处理,再进行重叠分块,在密钥控制下,利用高斯低通滤波器生成伪随机参考图像块,分别计算每个分块与参考图像块的相关系数得到图像特征序列.依此将相邻两个分块特征值合并以缩短Hash长度,同时对压缩后的特征序列进行重排,进一步提高图像Hash的安全性.最后对归一化特征值进行量化,并运用Huffman方法对其编码,进一步压缩Hash长度.理论分析和实验结果表明,该图像Hash方法对JPEG压缩、适度的噪声干扰、水印嵌入、图像缩放以及高斯低通滤波等常见图像处理有较好的鲁棒性,能有效区分不同图像,冲突概率低,可用于图像篡改检测.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号