首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 187 毫秒
1.
曹林  朱国刚 《计算机工程与设计》2016,(4):1011-1016,1041
提出一种基于三维时空直方图特征的人体行为识别方法。通过引入时间维度构建三维时空概念,探索时空中梯度方向信息,由梯度方向经过空间中不同的区域形成梯度直方图,获取时空特征矩阵,结合K均值聚类提取时空直方图特征来描述人体行为;采用图像显著性检测算法,获取人体行为轮廓,从轮廓图中提取二维轮廓特征;将获得的特征输入支持向量机进行训练以及人体行为识别。实验结果表明,相比其它特征描述的方法,该方案对人体行为的特征描述更丰富,识别准确率更高。  相似文献   

2.
《计算机工程》2017,(9):270-275
在步态识别中,衣着的变化易降低步态识别效果。为此,提出一种保留步态特征空间分布信息的步态识别方法。提取步态能量图像各级空间金字塔网格的加速鲁棒特征,采用偏最小二乘空间金字塔表示方法对各自级层的特征加权后进行聚类,构建词袋模型,用该模型统计直方图表征步态特征。使用直方图相交核支持向量机在CASIA步态数据库进行实验,结果表明,该方法具有较好的识别效果,平均识别率优于四元数小波变换、掩模能量图、局部二值模式和局部纹理分析步态识别方法。  相似文献   

3.
一种基于优化“词袋”模型的物体识别方法*   总被引:1,自引:0,他引:1  
针对传统基于“词袋”模型物体识别现有方法的不足,对现特征表达、视觉词典和图像表示方法进行优化,以提高物体识别正确率。采用HUE直方图与SIFT特征描述符分别描述兴趣点周围的颜色和形状特征,实现“词袋”模型下两种特征的特征级和图像级融合,引入K-means++聚类算法生成视觉词典,并利用软权重思想将特征向量映射到视觉单词形成图像直方图。实验结果表明,所述方法会产生较高的物体识别正确率,且识别结果不受两种特征融合权重的影响。  相似文献   

4.
针对词袋模型易受到无关的背景视觉噪音干扰的问题,提出了一种结合显著性检测与词袋模型的目标识别方法。首先,联合基于图论的视觉显著性算法与一种全分辨率视觉显著性算法,自适应地从原始图像中获取感兴趣区域。两种视觉显著性算法的联合可以提高获取的前景目标的完整性。然后,使用尺度不变特征变换描述子从感兴趣区域中提取特征向量,并通过密度峰值聚类算法对特征向量进行聚类,生成视觉字典直方图。最后,利用支持向量机对目标进行识别。在PASCAL VOC 2007和MSRC-21数据库上的实验结果表明,该方法相比同类方法可以有效地提高目标识别性能。  相似文献   

5.
研究场景构建中纹理图像的三维特征识别,提高识别准确率。由于图像的效果取决于纹理识别,在三维空间中分析纹理图像时,仅使用聚类算法利用三维图像的空间坐标和三维像素灰度特征对其进行分类识别,忽略了不同方向光照对纹理图像的影响而简单聚类分类,导致因提取的特征信息不足而造成识别准确率不高的问题。因此,提出了一种机器学习的三维特征识别方法。通过变换光照的角度得到不同光照下的纹理图像,提取出多面光照下的三维图像特征信息,并利用机器学习算法对特征信息进行准确训练和分类识别,可避免聚类算法利用信息不足的特征进行分类而造成的识别准确率不高的问题。实验表明,这种方法能够有效提取出特征信息并进行准确分类,具有较高的识别准确率,取得了满意的结果。  相似文献   

6.
作为一种新兴的生物特征识别技术,人耳识别具有其自身独特优势.利用局部特征信息,研究一类新型的基于梯度方向直方图的人耳身份识别方法,提出一种基于梯度方向直方图与子区域模糊融合相结合的人耳识别方案.将人耳图像划分为不同子区域,分别提取各子区域梯度方向直方图特征,引入模糊隶属度匹配融合策略,获取最终的分类结果.与多种方法的对比实验表明,基于梯度方向直方图的特征提取方法具有高识别性能,针对USTB人耳图像库3的测试实验,可达到99.75%的识别率.  相似文献   

7.
刘佶鑫  魏嫚 《计算机应用》2018,38(12):3355-3359
针对典型自然场景智能观测的需求,为提高稀疏分类器在小样本数据库上的识别精度,提出一种可见光和近红外(NIR)HSV图像融合的场景类字典稀疏识别方法。首先,利用一直应用在计算机视觉显示领域中的图像HSV伪彩色处理技术将近红外图像与可见光图像融合;然后,对融合图像进行通用搜索树(GiST)特征和分层梯度方向直方图(PHOG)特征的提取与融合;最后,结合提出的类字典稀疏识别方法得到场景分类结果。所提方法在RGB-NIR数据库上的实验识别精度达到了74.75%。实验结果表明,融合近红外信息的场景图像的识别精度高于未融合时的识别精度,所提方法能够有效增加稀疏识别框架下场景目标的信息表征质量。  相似文献   

8.
针对现有词包模型对目标识别性能的不足,对特征提取、图像表示等方面进行改进以提高目标识别的准确率。首先,以密集提取关键点的方式取代SIFT关键点提取,减少了计算时间并最大程度地描述了图像底层信息。然后采用尺度不变特征变换(Scale-invariant feature transform, SIFT)描述符和统一模式的局部二值模式(Local binary pattern,LBP)描述符描述关键点周围的形状特征和纹理特征,引入K-Means聚类算法分别生成视觉词典,然后将局部描述符进行近似局部约束线性编码,并进行最大值特征汇聚。分别采用空间金字塔匹配生成具有空间信息的直方图,最后将金字塔直方图相串联,形成特征的图像级融合,并送入SVM进行分类识别。在公共数据库中进行实验,实验结果表明,本文所提方法能取得较高的目标识别准确率。  相似文献   

9.
姬晓飞  左鑫孟 《计算机应用》2016,36(8):2287-2291
针对双人交互行为识别算法中普遍存在的算法计算复杂度高、识别准确性低的问题,提出一种新的基于关键帧特征库统计特征的双人交互行为识别方法。首先,对预处理后的交互视频分别提取全局GIST和分区域方向梯度直方图(HOG)特征。然后,采用k-means聚类算法对每类动作训练视频的所有帧的特征表示进行聚类,得到若干个近似描述同类动作视频的关键帧特征,构造出训练动作类别对应的关键帧特征库;同时,根据相似性度量统计出特征库中各个关键帧在交互视频中出现的频率,得到一个动作视频的统计直方图特征表示。最后,利用训练后的直方图相交核支持向量机(SVM),对待识别视频采用决策级加权融合的方法得到交互行为的识别结果。在标准数据库测试的结果表明,该方法简单有效,对交互行为的正确识别率达到了85%。  相似文献   

10.
基于形状特征及纹理特征的中药材检索方法   总被引:1,自引:0,他引:1  
为有效提取中药材图像的特征,提高中药材图像分类准确率并提升检索性能,对中药材图像的梯度方向直方图形状特征和局部二元模式纹理特征进行研究,对2种特征进行维数改进,提出一种基于形状特征和纹理特征的中药材检索方法。使用改进的图像梯度方向直方图和分块局部二元模式进行形状及纹理的特征提取;对提取得到的特征向量进行线性组合;采用一对一方式构造多分类器,使用支持向量机进行分类检索。实验结果表明,组合降维特征提取算法能在中药材图像数据集中取得较好的识别效果。  相似文献   

11.
12.
场景分类的目标是为各种视觉处理任务建立语义上下文,尤其是为目标识别。双目视觉系统现已广泛配备在智能机器人上,然而场景分类的任务大多只是使用单目图像。由于室内场景的复杂性,使用单目图像进行场景分类的性能很低。提出了一种基于双目视觉的室内场景分类方法,使用在一些特定区域里拟合出的若干平面的参数作为场景的特征。采用层级的分类方法,依据视差图,场景被分为开放场所类和封闭场所类,利用提出的场景特征和Gist特征对上述两类进行细分。为了验证提出的方法,建立了一个包含四种场景类别的图像数据集。实验结果表明提出的方法取得了较好的分类性能。  相似文献   

13.
董健 《计算机应用》2014,34(4):1172-1176
针对传统的视觉词袋模型中视觉词典对底层特征量化时容易引入量化误差,以及视觉单词的适用性不足等问题,提出了基于加权特征空间信息视觉词典的图像检索模型。从产生视觉词典的常用聚类算法入手,分析和探讨了聚类算法的特点,考虑聚类过程中特征空间的特征分布统计信息,通过实验对不同的加权方式进行对比,得出效果较好的均值加权方案,据此对视觉单词的重要程度加权,提高视觉词典的描述能力。对比实验表明,在ImageNet图像数据集上,相对于同源视觉词典,非同源视觉词典对视觉空间的划分影响较小,且基于加权特征空间信息视觉词典在大数据集上更加有效。  相似文献   

14.
针对全局运动特征难以准确提取的问题,本文采用局部时空特征对人体行为进行表征。针对传统词袋中硬分类的方法量化误差大的不足,本文借鉴模糊聚类的思想,提出软分类的方法。根据兴趣点检测算法从视频中提取出视觉词汇,用K means算法对其进行聚类,建立码本。在计算分类特征时,首先计算待分类视觉词汇到码本中各个码字的距离,根据距离计算这个视觉词汇隶属于各个码字的概率,最后统计得到每个视频中各码字出现的频率。在Weizmann和KTH数据库对本文提出的人体行为识别算法进行验证,Weizmann库的识别率比传统的词袋算法提高8%,KTH库的识别率比传统的词袋算法提高9%,因此本文提出的算法能更有效地对人体行为进行识别。  相似文献   

15.
史静  朱虹  王栋  杜森 《中国图象图形学报》2017,22(12):1750-1757
目的 目前对于场景分类问题,由于其内部结构的多样性和复杂性,以及光照和拍摄角度的影响,现有算法大多通过单纯提取特征进行建模,并没有考虑场景图像中事物之间的相互关联,因此,仍然不能达到一个理想的分类效果。本文针对场景分类中存在的重点和难点问题,充分考虑人眼的视觉感知特性,利用显著性检测,并结合传统的视觉词袋模型,提出了一种融合视觉感知特性的场景分类算法。方法 首先,对图像进行多尺度分解,并提取各尺度下的图像特征,接着,检测各尺度下图像的视觉显著区域,最后,将显著区域信息与多尺度特征进行有机融合,构成多尺度融合窗选加权SIFT特征(WSSIFT),对场景进行分类。结果 为了验证本文算法的有效性,该算法在3个标准数据集SE、LS以及IS上进行测试,并与不同方法进行比较,分类准确率提高了约3%~17%。结论 本文提出的融合视觉感知特性的场景分类算法,有效地改善了单纯特征描述的局限性,并提高了图像的整体表达。实验结果表明,该算法对于多个数据集都具有较好的分类效果,适用于场景分析、理解、分类等机器视觉领域。  相似文献   

16.
目的 以词袋模型为基础的拷贝图像检索方法是当前最有效的方法。然而,由于局部特征量化存在信息损失,导致视觉词汇区别能力不足和视觉词汇误匹配增加,从而影响了拷贝图像检索效果。针对视觉词汇的误匹配问题,提出一种基于近邻上下文的拷贝图像检索方法。该方法通过局部特征的上下文关系消除视觉词汇歧义,提高视觉词汇的区分度,进而提高拷贝图像的检索效果。方法 首先,以距离和尺度关系选择图像中某局部特征点周围的特征点作为该特征点的上下文,选取的上下文中的局部特征点称为近邻特征点;再以近邻特征点的信息以及与该局部特征的关系为该局部特征构建上下文描述子;然后,通过计算上下文描述子的相似性对局部特征匹配对进行验证;最后,以正确匹配特征点的个数衡量图像间的相似性,并以此相似性选取若干候选图像作为返回结果。结果 在Copydays图像库进行实验,与Baseline方法进行比较。在干扰图像规模为100 k时,相对于Baseline方法,mAP提高了63%。当干扰图像规模从100 k增加到1 M时,Baseline的mAP值下降9%,而本文方法下降3%。结论 本文拷贝图像检索方法对图像编辑操作,如旋转、图像叠加、尺度变换以及裁剪有较高的鲁棒性。该方法可以有效地应用到图像防伪、图像去重等领域。  相似文献   

17.
针对以往场景识别研究中将图像分割成大小相等的矩形区域进行特征提取而导致识别率低的问题,提出了一种基于超像素空间金字塔模型的场景识别方法:先对图像做不同分辨率的超像素分割,在得到的每个图像子区域中提取PACT特征,然后利用K-means聚类构建出图像集的视觉词典。在进行场景识别时,将每幅图像所有分割子区域的PACT特征连接成一个特征向量,并加入bag of words特征进行分类,最终的场景分类结果在支持向量机LIBSVM上获得。实验结果表明该算法能够有效提高识别率。  相似文献   

18.
随着深度学习的快速发展,基于深度学习的场景识别方法逐渐取代传统的基于手工特征的场景识别方法,成为未来研究的主要方向。针对基于深度学习的场景识别方法,对基本思想进行了总结,将其大体分为以下四类:深度学习与视觉词袋结合场景识别法、基于显著部分的场景识别法、多层特征融合场景识别法、融合知识表示的场景识别法,分析了各个方法的特点及局限性,并对识别效果进行了比较,最后对未来研究方向进行展望。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号