首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 78 毫秒
1.
针对现有的基于视图的三维模型检索方法大多将二维投影视图特征直接用于表示三维模型,忽略不同视点下的二维投影视图特征的贡献度的问题,提出一种基于流形排序的三维模型检索方法,关注不同二维投影视图特征的贡献度。通过旋转三维模型获得34张不同视点的二维投影视图,采用基于尺度不变特征变换(scale invariant feature transform, SIFT)特征的词袋模型提取34张二维投影视图的词频向量特征,利用流形排序将同一个三维模型的34个词频向量特征聚合成一个三维模型特征。试验表明,基于流形排序的三维模型检索方法能够有效地提高检索结果的准确率。  相似文献   

2.
基于SIFT特征和颜色融合的图像检索方法   总被引:1,自引:0,他引:1  
根据图像检索方法中颜色直方图存在的问题,提出了一种改进的基于分块和主颜色的颜色直方图提取算法;根据SIFT特征存在的问题,提出了一种改进的基于harris角点的SIFT特征提取算法。最后运用两种改进算法提出了一种融合颜色直方图和SIFT特征的图像检索算法。实验结果表明,本算法在功能及性能上优于其他算法,并具很好的鲁棒性。  相似文献   

3.
三维模型检索是多媒体信息检索领域的重要组成部分,由于"语义鸿沟"的存在使得当前基于内容的检索结果通常不十分令人满意。考虑到解决"语义鸿沟"的关键是将三维模型的底层形状特征与高层语义特征进行有效融合,为此提出一种三维模型的语义与形状异构特征融合方法,该方法将三维模型在基于内容的检索过程中用户反馈信息形成的语义关联作为模型的语义表达,并通过子空间学习方法将这种语义表达信息与模型的底层特征进行融合,最后将融合后的新特征应用于三维模型检索中。在Princeton shape benchmark上的测试表明,该方法的检索结果明显好于单纯形状特征的检索结果。  相似文献   

4.
针对人体大范围运动下的头部姿态跟踪问题,提出一种基于尺度不变特征变换(SIFT)局部描述符注册和多尺度表观模型的三维头部姿态跟踪方法.基于SIFT局部描述符的注册算法通过在两帧灰度图像间进行特征点匹配计算两帧间的头部运动,在两帧人脸图像的尺度有一定变化时仍可得到精确结果.多尺度视角表观模型可以减少大范围跟踪时的误差累积,该模型在线选取具有不同头部姿态的关键帧,并通过多次注册的方法来减少当前帧的误差累积.实验结果表明,该方法不仅跟踪结果准确(均方根(RMS)误差为4 °),而且在人体前后运动约1 m和头部进出摄像机视角情况下均很鲁棒.  相似文献   

5.
提出一种新的框架用于改进传统词袋模型效率较低的问题。该方法建立在通过小波变换获取的低尺度图像表示上,利用在低尺度图像上提取单尺度的SIFT特征,建立低尺度视觉词典。由于大幅度减少了图像初始特征维数,该方法可以快速建立视觉词典,并且有效地降低后续图像分类所花费的时间。通过对Caltech101数据集全部8 677张图像的分类测试显示,该方法可以在保证分类性能的同时,有效地提升基于传统词袋模型的图像分类效率。实验结果表明,该方法可以全面提升金字塔匹配的词袋模型分类性能和分类效率,普遍用于传统词袋模型及其衍生方法。  相似文献   

6.
在原有三维模型检索方法的基础上提出了加入特征权值进行三维模型检索的方法,并将此方法应用到基于球面调和的三维模型检索中。通过以采样球面积为比例逐渐增加外部球面的采样权值来平衡采样不均匀对检索效果的影响。在PSB测试集上进行检索实验,并使用多种评价指标进行对比。实验结果表明,加入特征权值后检索效果优于原始方法。  相似文献   

7.
针对某些特定领域的建模中单一的语义检索条件无法得到理想的检索结果,提出了基于跨本体的语义相关度进行检索的算法。首先构建相关领域的本体,然后对已有实例进行分析,通过聚类算法找出模型本体间具有相关性的属性。再通过调查获取用户对实例的评价数据,对深度信念网络进行训练,求出本体间相关语义属性的相关度权值。最终对模型库中的模型计算与检索模型间的相关度作为检索条件,将大于一定阈值的模型作为检索结果。应用该算法,用户一般在检索首页可以找到较满意的模型,大大缩短了检索的时间。  相似文献   

8.
引入三支决策,通过分步约简的方式,改进纹身图像检索算法。将待检索图像及图像库中所有图像灰度化,比较图像库中各图像与待检索图像对应像素点灰度值的差异,统计差异值小于某阈值的像素点在各图像中所占比例,据此以三支决策从图像库中筛选出相似图像并剔除不相似图像;提取其余图像的尺度不变特征变换(scale invariant feature transform, SIFT)特征并与待检索图像进行特征点匹配,再次利用三支决策选出匹配正确的特征点并剔除匹配错误的特征点,提取其余特征点邻域色调-饱和度-亮度(hue saturation value, HSV)空间的颜色特征,结合SIFT特征再次进行特征点匹配,由匹配点的多少确定相似性大小,进而实现检索。在包含3 579幅纹身图像的自建图像库中所进行的检索实验结果显示,改进算法比尺度不变特征变换算法和融合局部颜色特征算法的查准率和查全率皆有所提升,且平均检索时间更短。  相似文献   

9.
基于特征的模型检索是计算机视觉领域的一个重要研究方向,主要包括特征提取和模型检索两个方面,其中特征的鲁棒性对模型检索结果起决定性作用.由于已有检索算法存在局部特征有效性较低的问题,该文提出一种基于特征融合的兵马俑碎片模型检索算法.针对兵马俑碎片的三维点云数据模型,首先计算点的主曲率和法向夹角,并对其加权融合;然后基于该...  相似文献   

10.
针对三维模型检索系统提高准确率、减少几何特征和人类语义丰富性之间的“语义鸿沟”等问题, 提出一种基于高斯过程的语义分类和检索新方法.该方法采用一种统计2个采样点相对质心向量夹角的AC2直方图新特征,与形状分布的D2特征组合成低层特征,使用高斯过程进行三维模型语义分类的监督学习,计算测试模型的语义类概率预测分布,建立低层特征和查询概念之间的联系;使用语义距离和不相似度计算方法进行检索排序.实验结果表明:与已有的某些监督学习的方法相比,多类的测试模型进行语义分类的准确率明显得到提升,检索中能体现语义概念,检索性能也得到提高.  相似文献   

11.
基于子块的三维网格模型检索   总被引:2,自引:1,他引:2  
针对三维模型检索中如何准确计算模型间相似性问题,提出用子块局部相似性计算不同模型整体相似性的三维模型检索新方法.把经过线性细分和姿态调整的三维模型分割成不同的子块,构造每个子块的法向量直方图.采用从局部到整体的过程计算任意两个模型的相似度: 根据直方图相交函数计算模型对应子块的局部相似性,结合子块点密度及局部相似性,采用改进的相似函数计算得到不同模型的整体相似度.和一些相似的检索算法比较,子块方法可以得到比较好的检索准确率.  相似文献   

12.
针对已有研究存在的视图冗余性问题,提出采用单一视图进行三维模型形状特征度量t并通 过动态规划进行相似性计算,实现三雏模型的单一视图特征描述和匹配.算法主要由三步组成:首先,将三维模型进行姿态调整,并通过渲染得到最能表达三堆模型外形特征的主视lit.其次,对渲染得到的视图进行轮廓采样,通过内在距离扣内角提取模型彤技特征描述,最后,采用动态规剐算法计算不同模型之间的相似程度.实验结果表明:尽管只采用单一视图进行特征描述,但所提出的算法检索精度要高于一些典型三雏形状特征描述符,包括采用深度视图定义的形状描述符.  相似文献   

13.
传统的基于内容的三维模型检索的相似性度量方法主要借鉴二维图像检索中所采用的距离度量算法,达到比较两三维模型相似度的目的,该做法限制了模型间匹配的广度.针对这种单核匹配的限制,提出了一种新的多核匹配方法.利用图论中两点间的最短距离的思想,得出两模型最相似那他们的距离最短,因此查询样本跟匹配的样本存在的通路上的模型节点能影响他们的相似度,这样就提高了匹配的广度和精度.同时在已有的特征提取基础上,把标签繁衍算法应用到最短距离求解中,并将基于实例学习的K近邻方法引入到模型匹配算法中,实现了半监督学习,提高了系统的查准率.  相似文献   

14.
为了实现三维模型语义检索,描述了一种基于本体来构建三维模型库语义网的方法,并在此基础上实现基于语义的三维模型检索。该方法首先建立三维模型库本体描述,根据模型库中的内容提取类,对象和属性。其次利用Word-Net英文本体查找本体原始结点的语义扩展结点,包括同义词,上位词,下位词和整体部分关系词,从而构建语义网络。在语义网的基础上实现基于SPARQL的三维模型检索。结果表明,该方法能有效地扩充一个分类粒度较粗的三维模型库的语义内容,扩大语义覆盖面,同时扩充词汇之间的语义相关性,从而提高基于关键词语义检索的准确性。  相似文献   

15.
为提高三维模型的检索准确度,针对工程三角网格模型提出了一种基于随机点间距离和法向夹角余弦联合分布及二进制粒子群优化的检索算法。在模型表面构造若干随机点并计算各点之间的距离和法向夹角余弦,然后以距离和余弦为坐标轴建立距离一余弦二维网格,统计各网格中的随机点数量,得到三维模型的距离-余弦联合形状分布矩阵,用分布矩阵之间的L_2距离表示模型之间的相似度。为了体现形状分布矩阵中各元素对模型相似度影响的差异性,采用一种基于二进制粒子群优化的方法对相似度计算过程进行了改进。实验结果表明,本算法可有效提高工程三角网格模型检索的准确性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号