首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 250 毫秒
1.
目的 稀疏编码是当前广泛使用的一种图像表示方法,针对稀疏编码及其改进算法计算过程复杂、费时等问题,提出一种哈希编码结合空间金字塔的图像分类算法。方法 首先,提取图像的局部特征点,构成局部特征点描述集。其次,学习自编码哈希函数,将局部特征点表示为二进制哈希编码。然后,在二进制哈希编码的基础上进行K均值聚类生成二进制视觉词典。最后,结合空间金字塔模型,将图像表示为空间金字塔直方图向量,并应用于图像分类。结果 在常用的Caltech-101和Scene-15数据集上进行实验验证,并和目前与稀疏编码相关的算法进行实验对比。与稀疏编码相关的算法相比,本文算法词典学习时间缩短了50%,在线编码速度提高了1.3~12.4倍,分类正确率提高了1%~5%。结论 提出了一种哈希编码结合空间金字塔的图像分类算法,利用哈希编码代替稀疏编码对局部特征点进行编码,并结合空间金字塔模型用于图像分类。实验结果表明,本文算法词典学习时间更短、编码速度更快,适用于在线词典学习和应用。  相似文献   

2.
刘冶  潘炎  夏榕楷  刘荻  印鉴 《计算机科学》2016,43(9):39-46, 51
在大数据时代,图像检索技术在大规模数据上的应用是一个热门的研究领域。近年来,大规模图像检索系统中, 图像哈希算法 由于具备提高图像的检索效率同时减少储存空间的优点而受到广泛的关注。现有的有监督学习哈希算法存在一些问题,主流的有监督的哈希算法需要通过图像特征提取器获取人为构造的图像特征表示,这种做法带来的图像特征损失影响了哈希算法的效果,也不能较好地处理图像数据集中语义的相似性问题。随着深度学习在大规模数据上研究的兴起,一些相关研究尝试通过深度神经网络进行有监督的哈希函数学习,提升了哈希函数的效果,但这类方法需要针对数据集人为设计复杂的深度神经网络,增大了哈希函数设计的难度,而且深度神经网络的训练需要较多的数据和较长的时间,这些问题影响了基于深度学习的哈希算法在大规模数据集上的应用。针对这些问题,提出了一种基于深度卷积神经网络的快速图像哈希算法,该算法通过设计优化问题的求解方法以及使用预训练的大规模深度神经网络,提高了哈希算法的效果,同时明显地缩短了复杂神经网络的训练时间。根据在不同图像数据集上的实验结果分析可知, 与现有的基准算法相比,提出的算法在哈希函数训练效果和训练时间上都具有较大的提高。  相似文献   

3.
图像哈希算法的步骤大致分为投影和量化两个阶段,为提高哈希编码的性能,分别对这两个阶段进行研究。在投影阶段,通过主成分分析算法将数据投影到新的特征子空间中,以降低原始特征之间的冗余性;在量化阶段,为减少量化所带来的损失,提出一种单双比特结合的量化方法;利用得到的哈希编码进行图像检索。在两个常用的图像数据集上的实验结果表明,提出的算法较现有的主流图像哈希算法在多个评价指标下均有所提高。  相似文献   

4.
钱江波  胡伟  陈华辉  董一鸿 《控制与决策》2019,34(12):2567-2575
基于哈希的近邻查找技术在图像检索、文本匹配、数据挖掘等信息检索领域均有广泛应用.该技术将原始数据通过哈希函数压缩成低维的二进制编码,然后在海明距离下排序检索,具有快速高效且维度不敏感的优势.但是,目前学术界针对流数据的实时在线哈希学习方法的研究很少,而且基本没有讨论哈希函数的更新频率和稳定性问题.针对这一问题,通过增加置信区间来减少更换哈希函数的频率,并构造在线学习的目标函数,使得算法尽可能保持稳定,且快速收敛.为了验证所提出算法的效率和有效性,在公开数据集上与同类的OSH、OKH在线哈希算法进行比较,比较结果表明,所提出的算法在平均准确率和训练时间上有一定优势.  相似文献   

5.
基于预测稀疏编码的快速单幅图像超分辨率重建   总被引:1,自引:0,他引:1  
沈辉  袁晓彤  刘青山 《计算机应用》2015,35(6):1749-1752
针对经典的基于稀疏编码的图像超分辨率算法在重建过程中运算量大、计算效率低的缺点,提出一种基于预测稀疏编码的单幅图像超分辨率重建算法。训练阶段,该算法在传统的稀疏编码误差函数基础上叠加编码预测误差项构造目标函数,并采用交替优化过程最小化该目标函数;测试阶段,仅需将输入的低分辨图像块和预先训练得到的低分辨率字典相乘就能预测出重建系数,从而避免了求解稀疏回归问题。实验结果表明,与经典的基于稀疏编码的单幅图像超分辨率算法相比,该算法能够在显著减少重建阶段运算时间的同时几乎完全保留超分辨率视觉效果。  相似文献   

6.
为了解决传统哈希算法在图像近邻检索任务中的模糊排序问题,提出了模糊序列感知哈希,旨在学习满足首位区分规则的哈希函数,其可直接利用二值编码本身信息区分模糊序列,从而在近邻检索中无需额外计算比特位权值和加权汉明距离,能以较小的代价区分与查询样本具有相同汉明距离的数据点之间的序列。建立了类似于近邻检索性能评价指标平均准确率的目标函数,其属于序列保持约束条件,能够保证数据点对在汉明空间与欧式空间内具有相同的相对相似性,可确保所提算法适应于近邻检索任务。在训练过程中,对二值编码、汉明距离以及判断函数进行了连续化松弛处理,从而可直接采用批量梯度下降算法优化目标函数,降低了训练复杂度。在三种图像数据集上的对比实验证明,模糊序列感知哈希的近邻检索性能较优。  相似文献   

7.
为了解决传统图像检索算法低效和耗时的缺点,提出一种基于PCA哈希的图像检索算法。具体地,首先通过结合PCA与流形学习将原始高维数据降维,然后通过最小方差旋转得到哈希函数和二值化阈值。进而将原始数据矩阵转换为哈希编码矩阵。最后通过计算样本间汉明距离得到样本相似性。在三个公开数据集上的实验结果表明本文提出的哈希算法在多个评价指标下均优于现有算法。  相似文献   

8.
基于哈希编码的算法,由于其高效性,已经成为海量数据高维特征最近邻搜索的研究热点。目前存在的普遍问题是,当哈希编码长度较低时,原始特征信息保留不是很充分,从而导致检索结果不理想。为了解决这一问题,提出了一种基于Markov网络的有效哈希编码算法。该算法首先根据稀疏编码策略进行特征重构,通过Markov随机游走的方式构建特征之间的语义网络关系图,然后根据Laplacian特征映射求出投影函数,最后进行快速的线性投影二值化编码。在公开数据集上与主流算法进行了性能比较,实验结果表明该算法具备良好的检索性能。  相似文献   

9.
现有的哈希方法难以快速实现原始特征空间的近似映射.针对此问题,文中提出基于小波投影的哈希方法.基于Haar小波变换构造投影矩阵,使用迭代算法优化投影矩阵和离散优化二进制码,重构量化误差.利用投影矩阵将图像的原始特征向量快速投影至低维空间,并进行二进制嵌入,完成图像的哈希编码.在图像数据集上的实验表明,文中方法可有效提升编码效率.  相似文献   

10.
现有基于深度学习的哈希图像检索方法通常使用全连接作为哈希编码层,并行输出每一位哈希编码,这种方法将哈希编码都视为图像的信息编码,忽略了编码过程中哈希码各个比特位之间的关联性与整段编码的冗余性,导致网络编码性能受限.因此,本文基于编码校验的原理,提出了串行哈希编码的深度哈希方法——串行哈希编码网络(serial hashing network, SHNet).与传统的哈希编码方法不同, SHNet将哈希编码网络层结构设计为串行方式,在生成哈希码过程中对串行生成的前部分哈希编码进行校验,从而充分利用编码的关联性与冗余性生成信息量更为丰富、更加紧凑、判别力更强的哈希码.采用mAP作为检索性能评价标准,将本文所提方法与目前主流哈希方法进行比较,实验结果表明本文在不同哈希编码长度下的m AP值在3个数据集CIFAR-10、Image Net、NUS-WIDE上都优于目前主流深度哈希算法,证明了其有效性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号