首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 187 毫秒
1.
针对传统的视觉词袋(bagofvisualwords,BoVW)模型忽略了视觉单词的空间位置信息的问题,文章提出一种基于视觉单词共生矩阵的图像分类方法。首先对整幅图像进行空间金字塔分解,得到一系列图像块;然后针对每一图像块中的SIFT点,在其空间邻域范围内构建视觉单词共生矩阵(visual words co—oeeurrenee matrix,VWCM)单元,并得到该图像块对应的视觉单词共生矩阵;最后设计出一种新的空间金字塔共生矩阵核(spatial pyramideo—occurrence matrixkernel,SPCMK),并将其用于图像分类。该方法能够有效地刻画视觉单词的绝对和相对位置信息,极大地增强了图像表达的完整度与准确度。实验结果表明,文章方法确实能够大幅度提高图像分类的准确率。  相似文献   

2.
针对矢量量化编码的量化误差严重,而稀疏编码只是一种浅层学习模型,容易导致视觉词典对图像特征缺乏选择性的问题,提出了一种基于深度学习特征编码模型的图像分类方法。首先,采用深度学习网络无监督的受限玻尔兹曼机(RBM)代替传统的K-Means聚类及稀疏编码等方法对SIFT特征库进行编码学习,生成视觉词典;其次,对RBM编码添加正则化项分解组合每个特征的稀疏表示,使得生成的视觉单词兼具稀疏性和选择性;然后,利用训练数据的类别标签信息有监督地自上而下对得到的初始视觉词典进行微调,得到图像深度学习表示向量,以此训练SVM分类器并完成图像分类。实验结果表明,本文方法能有效克服传统矢量量化编码及稀疏编码等方法的缺点,有效地提升图像分类性能。  相似文献   

3.
传统的视觉语言模型(visual language model,VLM)只考虑了相邻视觉单词之间的空间位置关系,不考虑不相邻视觉单词之间的贡献.针对传统视觉语言模型的不足,提出了一种N步长距离视觉语言模型,并将其用于图像分类.该方法首先给出了相隔N个视觉单词的二元依赖关系,然后训练长距离视觉语言模型,最后通过不同的权重分配方式进行融合,得到3种不同的图像分类方法.实验比较了不同参数和分类方法对图像分类的影响,结果表明,文章方法能在一定程度上改善视觉语言模型对图像表达的准确度,进而提高图像分类的准确率.  相似文献   

4.
针对如何有效地利用图像视觉信息与标注信息进行图像聚类的问题,提出了一种基于视觉单词与标注单词共生的聚类算法.在视觉特征空间,采用K-means算法对图像聚类,得到表征图像视觉信息的视觉单词,即聚类中心.在图像标注字空间,计算各聚类中心下标注单词的统计分布,建立视觉单词与标注单词共生矩阵,进而针对图像提取嵌入有视觉信息的标注词特征LDA(latent dirichlet allocation)主题模型作为最终聚类算法完成图像的聚类.通过对Pascal VOC 2007标注图像数据库进行的实验仿真以及对比试验结果表明,基于视觉单词与标注单词共生的聚类算法可以有效地利用图像的视觉信息与标注信息的互补特性,提高聚类算法的性能.  相似文献   

5.
当前视觉词袋(Bag of Visual Word,Bo VW)模型中的视觉词典均由k-means及其改进算法在原始局部特征描述子上聚类生成,但随着图像数据的迅速增长,在原始局部特征空间中进行聚类存在着运行时间较长和占用内存较大的问题.针对着这些问题,提出了一种基于视觉词典和位置敏感哈希的图像检索方法.首先,选择合适的生成二进制哈希码的哈希算法,将局部特征点保持相似性地映射为二进制哈希码.然后,在二进制哈希码上进行k-means,生成视觉词为二进制码的视觉词典.最后,用视觉单词的词频向量表示图像内容,根据词频向量对图像进行检索.在SIFT-1M和Caltech-256数据集上的实验结果表明,本方法可以缩短视觉词典生成的时间,占用更少的存储空间,与传统的基于k-means的视觉词典算法相比,图像检索性能基本不变.  相似文献   

6.
提出了一种高效获取词包模型中视觉字典容量的方法,并研究了该方法与隐狄利克雷分配模型(Latent Dirichlet Allocation,LDA )相结合情况下的场景分类性能.在用SIFT特征构建场景图像数据集特征矩阵的基础上,首先采用吸引子传播方法获取场景图像集特征矩阵的合理聚类数目族,并将其中的最小聚类数目作为视觉字典容量,进而生成视觉字典;然后利用所构建视觉字典中的单词描述场景图像训练集和测试集;最后采用LDA模型对场景图像测试集进行场景分类实验.实验结果表明,提出的方法不仅保持了较高场景分类准确率,同时显著提高了场景分类的效率.  相似文献   

7.
在基于内容的图像检索方法中,颜色相似度的计算主要采用欧氏距离。然而,欧氏距离不符合人眼的色彩识别特征,导致检索准确率偏低。本文提出了一种采用COLDIST色差公式的组合特征检索方法。首先计算图像的颜色直方图作为颜色特征、灰度共生矩阵和灰度行程矩阵作为纹理特征、泽尼克矩作为形状特征。然后采用COLDIST色差公式计算颜色相似度,并结合纹理、形状特征的相似度计算图像相似度。利用图像数据库Corel10000对本文提出的方法进行仿真测试。结果表明该方法具有更好的检索性能,有效地提高了检索的准确率。  相似文献   

8.
用单词标注图像会产生歧义或噪声,故采用句子标注商品图像,以准确刻画商品特性.现有商品图像句子标注方法存在特征学习不充分的问题,针对该问题,提出基于核特征模型抽取图像的形状、颜色和梯度3种核特征,并在多核学习模型内融合生成新特征,基于新特征完成商品图像分类,检索视觉相似的训练图像,摘录其标题中的关键文本标注商品图像.最后,从信息检索和机器翻译两个角度分别评价标注性能.实验表明:基于新特征能获取最优的商品图像分类性能,图像分类缩小了图像检索范围,有助于改善检索性能;标注模型的MAP(Mean Average Precision)值和P-R(Precision-Recall)指标均优于基线;所标句子与图像内容语义相关,且连贯性和流畅性更优.  相似文献   

9.
针对刹车片外观裂纹检测需求,通过构建刹车蹄块片图像采集系统,提出了一种基于支持向量机SVM的刹车蹄块片摩擦块表面裂纹检测法.该方法首先利用灰度图像的梯度模值信息,投影提取摩擦块所在区域; 然后以局部窗口子图像为单位,计算灰度共生矩阵并提取相关特征量; 最后采用分类样本对支持向量机分类模型进行训练,对摩擦块表面裂纹缺陷和正常区域进行分类预测.实验表明:该方法能较好地实现摩擦块表面裂纹缺陷和正常区域的分类,对表面裂纹缺陷存在与否的判定准确率可达98.33%.  相似文献   

10.
给出一种KAZE算法与视觉词典库模型相结合的图像检索算法。利用KAZE算法提取特征点,构造特征描述子,进行预匹配;采用随机抽样一致性算法剔除误匹配点和错误点;通过K均值聚类算法对特征描述子进行聚类,建立视觉词典库模型。将图像特征描述子映射到视觉词典库模型,得到检索结果。实验结果表明,该算法可以检索相同或相似图像,图像检索的平均查准率为55%。  相似文献   

11.
针对目前Bag of words模型将聚类中心作为视觉单词,而导致语义信息表达不完全的问题,提出了一种新的改进的视觉词汇生成方法。首先,提取图像的SIFT特征点并聚类;然后利用核函数进行核密度估计,选取每个聚类中若干个有代表性的特征点;最后,通过SVM训练生成视觉词汇。实验结果表明,改进后的视觉词汇生成方法,在物体分类识别中,与以聚类中心为视觉单词的生成方法相比,增强了语义信息的表达,提高了查全率,使得物体分类识别率大大增加。  相似文献   

12.
将图像质量度量标准进行改造并结合在一起,可以针对图像数据进行唯秘密载体(盲)信息隐藏分析,即将图像质量度量标准中的原始图像改为全白图像设计特征向量,用 SVM(支持向量机)对特征向量分类。分析过程中引入的人眼视觉系统的带通滤波性质,提高了算法准确率。实验结果表明了该方法对分析自然图像是有效的。  相似文献   

13.
为了实现手语视频中手语字母的准确识别,提出一种基于DI_CamShift(depth image CamShift)和手语视觉单词(sign language visual word,SLVW)特征结合的算法.首先,采用Kinect获取手语字母手势视频及其深度信息;其次,通过计算获得深度图像中手语手势的主轴方向角和质心位置,计算搜索窗口对手势跟踪;再次,使用基于深度积分图像的大津法(OTSU)分割手势并提取其尺寸不变特征转换(scale invariant feature transform,SIFT)特征和Gabor特征,并通过典型相关分析(canonical correlation analysis,CCA)方法进行特征融合;最后,构建SLVW词包并用支持向量机(support vector machine,SVM)进行识别,单个手语字母最高识别率为99.89%,平均识别率为96.34%.  相似文献   

14.
为了使探测到的各种地雷图像更清晰,要求将金属地雷探测器和雷达渗透地面探测器的图像用图像精确配准的方法将二者的图像融合.提出了基于竞争学习和支持向量机的图像配准方法.该方法是用竞争学习的权值标明地雷边缘点,以获得图像中地雷的特征值;然后用支持向量机反复匹配两个待配准图像的支持向量.融合图像信息熵的测定结果表明,基于竞争学习和支持向量机的图像配准方法融合图像携带的信息量大,融合图像质量高,图像配准精确.  相似文献   

15.
为了探索图像场景理解所需要的视觉区域间关系的建模与推理,提出视觉关系推理模块. 该模块基于图像中不同的语义和空间上下文信息,对相关视觉对象间的关系模式进行动态编码,并推断出与当前生成的关系词最相关的语义特征输出. 通过引入上下文门控机制,以根据不同类型的单词动态地权衡视觉注意力模块和视觉关系推理模块的贡献. 实验结果表明,对比以往基于注意力机制的图像描述方法,基于视觉关系推理与上下文门控机制的图像描述方法更好;所提模块可以动态建模和推理不同类型生成单词的最相关特征,对输入图像中物体关系的描述更加准确.  相似文献   

16.
针对目前遥感图像几何校正算法存在的不足,提出了一种新的遥感图像几何校正算法.引入支持向量机理论和方法,结合遥感图像近似几何校正基本原理,提出遥感图像几何校正的支持向量机算法和实现步骤;选择实验区,使用差分GPS实测地面控制点坐标,使用遥感图像处理软件量测地面控制点对应的影像坐标;使用聚类算法分别选择不同数量的控制点作为遥感图像几何校正的控制点,其余控制点作为检查点;分别使用近似几何校正算法、神经网络和支持向量机算法进行遥感图像的几何校正,并进行校正误差比较分析.算法测试表明:遥感图像几何校正的支持向量机算法具有校正误差小、泛化能力强等特点.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号