首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 250 毫秒
1.
通过分析Gabor小波和稀疏表示的生物学背景和数学特性,提出一种基于Gabor小波和稀疏表示的人脸表情识别方法。采用Gabor小波变换对表情图像进行特征提取,建立训练样本Gabor特征的超完备字典,通过稀疏表示模型优化人脸表情图像的特征向量,利用融合识别方法进行多分类器融合识别分类。实验结果表明,该方法能够有效提取表情图像的特征信息,提高表情识别率。  相似文献   

2.
冯辉  荆晓远  朱小柯 《计算机应用》2017,37(7):1960-1966
针对目前存在的合成解析字典学习方法不能有效地消除同类样本之间的差异性和忽略了不同特征对分类的不同影响的问题,提出了一种基于多视图特征投影与合成解析字典学习(MFPSDL)的图像分类方法。首先,在合成解析字典学习过程中为每种特征学习不同的特征投影矩阵,减小了类内样本间的差异对识别带来的影响;其次,对合成解析字典添加鉴别性的约束,使得同类样本具有相似的稀疏表示系数;最后通过为不同类型的特征学习权重,充分地融合多种特征。在公开人脸数据库(LFW)和手写体识别数据库(MNIST)上进行多项对比实验,MFPSDL方法在LFW和MNIST数据库上的训练时间分别为61.236 s和52.281 s,MFPSDL方法相比Fisher鉴别字典学习(FDDL)、类别一致的K奇异值分解(LC-KSVD)、字典对学习(DPL)等字典学习方法,在LFW和MNIST上的识别率提高了至少2.15和2.08个百分点。实验结果表明,所提方法在保证较低的时间复杂度的同时,获得了更好的识别效果,适用于图像分类。  相似文献   

3.
传统的基于物理信号的火焰识别方法易被外部环境干扰,且现有火焰图像特征提取方法对于火焰和场景的区分度较低,从而导致火焰种类或场景改变时识别精度降低。针对这一问题,提出一种基于局部特征过滤和极限学习机的快速火焰识别方法,将颜色空间信息引入尺度不变特征变换(SIFT)算法。首先,将视频文件转化成帧图像,利用SIFT算法对所有图像提取特征描述符;其次,通过火焰在颜色空间上的信息特性进一步过滤局部噪声特征点,并借助关键点词袋(BOK)方法,将特征描述符转换成对应的特征向量;最后放入极限学习机进行训练,从而快速得到火焰识别模型。在火焰公开数据集及真实火灾场景图像进行的实验结果表明:所提方法对不同场景和火焰类型均具有较高的识别率和较快的检测速度,实验识别精度达97%以上;对于包含4301张图片数据的测试集,模型识别时间仅需2.19 s;与基于信息熵、纹理特征、火焰蔓延率的支持向量机模型,基于SIFT、火焰颜色空间特性的支持向量机模型,基于SIFT的极限学习机模型三种方法相比,所提方法在测试集精度、模型构建时间上均占有优势。  相似文献   

4.
针对在小样本人脸表情数据库上识别模型过拟合问题,文中提出基于特征优选和字典优化的组稀疏表示分类方法.首先提出特征优选准则,选择相同类级稀疏模式、不同类内稀疏模式的互补特征构建字典.然后对字典进行最大散度差优化学习,使字典在不失真重构特征的同时具有较高鉴别能力.最后联合优化后的字典进行组稀疏表示分类.在JAFFE、CK+数据库上的实验表明,文中方法对样本减少具有鲁棒性,泛化能力较强,识别精度较优.  相似文献   

5.
为了提升无人船(Unmanned surface vehicle, USV)在恶劣航行场景下的视觉感知能力,提出一种基于HSV(Hue, Saturation, Value)颜色空间的水上航行场景可见光偏振图像融合方法。根据水上航行场景的偏振特性,制定了不同区域的融合规则,再基于HSV颜色空间,融合原场景的颜色信息,实现了对恶劣航行场景图像的语义分割,并将测试结果进行对比分析。在耀斑场景下,综合像素精度(Pixel accuracy, PA)值为0.768 2。实验结果表明:该方法能增强图像对比度,凸显边缘轮廓信息,能够在恶劣航行场景下,稳定获得对比度较强、目标特性较好的特征信息,一定程度上提升了无人船在恶劣航行场景下的环境感知能力。  相似文献   

6.
针对目前稀疏表示字典学习的惩罚函数版本不一且各有优势的问题,提出基于子编码和全编码联合惩罚的稀疏表示字典学习方法,该方法在字典学习的目标函数中同时加入子编码惩罚函数和全编码惩罚函数。子编码惩罚函数使得学习后的字典在稀疏表示识别时可以用子字典的重构误差和子字典上编码系数的大小来识别,全编码惩罚函数则能直接利用整个字典上的编码系数来识别,通过联合这两个惩罚函数可以获得非常好的识别效果。为了验证所提方法的有效性,在语音情感库和人脸库上与最新的基于字典学习的稀疏表示识别方法 DKSVD和FDDL进行对比,并与著名的识别方法SVM和SRC进行比较,实验结果显示所提方法具有更好的识别性能。  相似文献   

7.
提出了基于特征融合和模糊核判别分析(FKDA)的面部表情识别方法。首先,从每幅人脸图像中手工定位34个基准点,作为面部表情图像的几何特征,同时采用Gabor小波变换方法对每幅表情图像进行变换,并提取基准点处的Gabor小波系数值作为表情图像的Gabor特征;其次,利用典型相关分析技术对几何特征和Gabor特征进行特征融合,作为表情识别的输入特征;然后,利用模糊核判别分析方法进一步提取表情的鉴别特征;最后,采用最近邻分类器完成表情的分类识别。通过在JAFFE国际表情数据库和Ekman“面部表情图片”数据库上的实验,证实了所提方法的有效性。  相似文献   

8.
宋相法  张延锋  郑逢斌 《计算机科学》2017,44(2):306-308, 323
结合L2,1范数稀疏特征选择和超法向量提出了一种新的深度图像序列行为识别方法。首先从深度图像序列中提取超法向量特征;然后利用L2,1范数稀疏特征选择方法从超法向量特征中选择出最具判别性的稀疏特征子集作为特征表示;最后利用线性分类器Liblinear进行分类。在MSR Action3D数据库上的实验结果表明,所提方法使用2%的超法向量特征获得的识别率为94.55%,并且 具有比 其他方法更高的识别精度。  相似文献   

9.
朱杰  吴树芳  谢博鋆  马丽艳 《计算机应用》2017,37(11):3238-3243
空间金字塔模型在每层中把图像划分成细胞单元用于给图像表示提供空间信息,但是这种方式不能很好地匹配对象上的不同部分,为此提出一种基于颜色的层次(CL)划分算法。CL算法从多特征融合的角度出发,通过优化的方式在不同层次中得到每个类别中有判别力的颜色,然后根据每层中有判别力的颜色对图像进行迭代的层次划分;最后连接不同层次直方图用于图像表示。为了解决图像表示维度过高的问题,采用分化信息理论的特征聚类(DITC)方法对字典进行聚类用于字典降维,并用压缩生成的字典进行最终的图像表示。实验结果表明,所提方法能够在Soccer,Flower 17和Flower 102上取得良好的识别效果。  相似文献   

10.
人脸图像的年龄和性别识别是人脸分析的重要任务,在真实多变场景下完成识别依然面临挑战。改进深度卷积神经网络(Convolutional Neural Network,CNN),将首层大尺寸卷积核替换为级联3[×]3卷积核;采用跨连卷积层融合中层和高层抽象特征;加入Batch Normalization(BN)层,设置较高的学习率和较小的Dropout比率;采用1[×]1卷积核与全局平均池化(Global Average Pooling)取代全连接层。实验表明,所提方法与主流的年龄性别识别方法比较具有较好的识别率,在Adience数据集上,年龄识别精度达到89.8%,性别识别精度达到93.3%。  相似文献   

11.
在使用无线多媒体传感网络WMSN进行环境监测的过程中,对同一场景所采集的红外和可见光源图像进行信息融合时,传统的方法融合的数据量较大且没有充分考虑其内在稀疏性和丰富的结构特征,图像融合的质量不高。将稀疏表示理论应用于WMSN红外和可见光图像融合中,在原始DCT冗余字典基础上,结合K SVD字典训练算法和同步正交匹配追踪SOMP算法对WMSN红外和可见光图像进行有效的稀疏表示,并选择自适应加权平均融合规则对稀疏表示系数进行融合处理。仿真结果表明,相对于传统的基于空域及变换域的红外和可见光图像融合方法,该方法更能从WMSN含噪图像中有效地保留源图像的有用信息,获得较好的融合效果。  相似文献   

12.
沈瑜  陈小朋  刘成  张泓国  王霖 《控制与决策》2021,36(9):2143-2151
为了解决红外与可见光图像融合中显著特征不突出、图像对比度低的问题,提出一种混合模型驱动的融合算法.首先,采用潜在低秩表示模型分别提取红外与可见光图像的基础子带、显著子带及稀疏噪声子带;其次,采用非下采样剪切波变换模型将基础子带分解为低频系数和高频系数,对低频系数采用字典学习和稀疏表示进行精确拟合,对高频系数采用局部窗口结合逻辑加权进行选择;再次,显著子带采用区域能量比阈值自适应加权法进行融合;最后,对融合后的低频系数和高频系数进行一级重建,得到融合基础子带,舍弃稀疏噪声子带,再结合融合显著子带进行二级重建,得到融合图像.实验结果表明:所提出算法能够得到蕴含丰富信息且较为清晰的融合图像,具有可行性;融合结果的对比度较高,目标轮廓显著,能够提升场景的辨识度,具有有效性.  相似文献   

13.
目的 红外与可见光图像融合算法大部分可以达到认知场景的目的,但是无法对场景中的细节特征进行更加细致的刻画。为进一步提高场景辨识度,提出一种基于tetrolet变换的多尺度几何变换图像融合算法。方法 首先,将红外与可见光图像映射到tetrolet变换域,并将二者分解为低频系数和高频系数。然后,对低频系数,将区域能量理论与传统的加权法相结合,利用区域能量的多变性和区域像素的相关性,自适应地选择加权系数进行融合;对高频系数,利用改进的多方向拉普拉斯算子方法计算拉普拉斯能量和,再引入区域平滑度为阈值设定高频系数融合规则。最后,将融合所得新的低频和高频系数进行图像重建得到融合结果。结果 在kaptein、street和road等3组红外与可见光图像上,与轮廓波变换(contourlet transformation,CL)、离散小波变换(discrete wavelet transformation,DWT)和非下采样轮廓波变换(nonsubsampled contourlet transformation,NSCT)等3种方法的融合结果进行比较,主观评判上,本文算法融合结果在背景、目标物以及细节体现方面均优于其他3种方法;客观指标上,本文算法相较于其他3种方法,运行时间较NSCT方法提升了0.37 s,平均梯度(average gradient,AvG)值和空间频率(spatial frequency,SF)值均有大幅提高,提高幅度最大为5.42和2.75,峰值信噪比(peak signal to noise ratio,PSNR)值、信息熵(information entropy,IE)值和结构相似性(structural similarity index,SSIM)值分别提高0.25、0.12和0.19。结论 本文提出的红外与可见光图像融合算法改善了融合图像的细节刻画,使观察者对场景的理解能力有所提升。  相似文献   

14.
由于卷积神经网络(CNN)大多侧重于全局特征学习,忽略了包含更多细节的局部特征信息,使得室内场景识别的准确率难以提高。针对这一问题,提出了基于改进全局—局部注意网络(GLANet)的室内场景识别方法。首先,利用GLANet捕捉场景图像的全局特征和局部特征,增加图像特征中的细节信息;然后,在局部网络中引入non-local注意力模块,通过注意力图和特征图的卷积来进一步保留图像的细节特征,最后融合网络不同阶段的多种特征进行分类。通过在MIT Indoor67和SUN397数据集上的训练和验证,所提方法的识别准确率与LGN方法相比分别提高了1.98%和3.07%。实验结果表明,该算法能够有效捕获全局语义信息和精细的局部细节,显著提高了识别准确率。  相似文献   

15.
目的 针对传统的基于多尺度变换的图像融合算法的不足,提出了一种基于W变换和2维经验模态分解(BEMD)的红外与可见光图像融合算法。方法 首先,为了更有效地提取图像的高频信息,抑制BEMD中存在的模态混叠现象,提出了一种基于W变换和BEMD的新的多尺度分解算法(简称W-BEMD);然后,利用W-BEMD对源图像进行塔式分解,获得图像的高频分量WIMFs和残差分量WR;接着,对源图像对应的WIMFs分量和WR分量分别采用基于局部区域方差选择与加权和基于局部区域能量选择与加权的融合规则进行融合,得到融合图像的W-BEMD分解;最后,通过W-BEMD逆变换得到最终融合图像。W-BEMD分解算法的主要思想是通过W变换递归地将BEMD分解过程中每层所得低频分量中滞留的高频成分提取出来并叠加到相应的高频分量中,实现更有效的图像多尺度分解。结果 对比实验结果表明,本文方法得到的融合图像视觉效果更佳,既有突出的红外目标,又有清晰的可见光背景细节,而且在平均梯度(AG)、空间频率(SF)、互信息(MI)3个客观评价指标上也有显著优势。结论 本文提出了一种新的红外与可见光图像融合算法,实验结果表明,该算法具有较好的融合效果,在保留可见光图像中的细节信息和突出红外图像中的目标信息方面更加有效。  相似文献   

16.
针对红外与可见光图像融合时出现的细节模糊、对比度降低等问题,论文提出了一种基于非下采样轮廓波变换(Nonsubsampled Contourlet Transform,NSCT)和卷积稀疏表示(Convolutional Sparse Representation,CSR)的图像融合方法.首先,分别对红外图像和可见光图...  相似文献   

17.
谢佩  吴小俊 《计算机应用》2015,35(7):2056-2061
为了获得人脸图像中更丰富的纹理特征以提高人脸识别率,提出了一种基于Shearlet变换和均匀局部二值模式(ULBP)算子提取特征(Shearlet_ULBP特征)的协作表示方法--Shearlet_ULBP CRC用于人脸识别。首先,人脸图像通过Shearlet变换分解,得到多尺度多方向的幅值域图谱,再经过简单的平均融合,获得融合后的幅值域图谱;然后,通过ULBP算子结合分块的方法获得该Shearlet变换后融合图像的直方图特征;最后,结合协作表示的方法来分类所提取到的特征。该方法可以提取到图像更丰富的边缘以及纹理信息,在ORL、Extended Yale B和AR人脸数据库上进行测试,在图像无遮挡的情况下识别率都达到了99%以上,在有遮挡情况下也都达到了91%以上的识别率。实验结果表明,所提方法不仅对于光照、姿态和表情变化具备较强的鲁棒性,同时能在一定程度上处理人脸图像中存在遮挡的情形。  相似文献   

18.
基于深度协同稀疏编码网络的海洋浮筏SAR图像目标识别   总被引:3,自引:0,他引:3  
浮筏养殖广泛存在于我国近海海域, 可见光遥感图像无法完全准确地获取养殖目标, 而基于主动成像的合成孔径雷达(Synthetic aperture radar, SAR)遥感图像能够得到养殖目标, 因此采用SAR图像进行海洋浮筏养殖目标识别. 然而, 海洋遥感SAR图像包含大量相干斑噪声, 并且SAR图像特征单一, 使得目标识别难度较大. 为解决这些问题, 提出一种深度协同稀疏编码网络(Deep collaborative sparse coding network, DCSCN)进行海洋浮筏识别. 本文方法对预处理后的图像先提取纹理特征和轮廓特征, 再进行超像素分割并将同一个超像素块特征组输入该网络进行协同表示, 最后得到有效特征并分类识别. 通过人工SAR图像和北戴河海域浮筏养殖SAR图像的实验验证所提模型的有效性. 该网络不仅具有优异的特征表示能力, 能够获得更适合分类器的特征, 而且通过近邻协同约束, 有效抑制相干斑噪声影响, 所以提高了SAR图像目标识别精度.  相似文献   

19.
基于深度卷积神经网络的物体识别算法   总被引:2,自引:0,他引:2  
针对传统物体识别算法中人工设计出来的特征易受物体形态多样性、光照和背景的影响,提出了一种基于深度卷神经网络的物体识别算法。该算法基于NYU Depth V2场景数据库,首先将单通道深度信息转换为三通道;再用训练集中的彩色图片和转换后的三通道深度图片分别微调两个深度卷积神经网络模型;然后用训练好的模型对重采样训练集中的彩色和深度图片提取模型第一个全连接层的特征,并将两种模态的特征串联起来,训练线性支持向量机(LinSVM);最后将所提算法应用到场景理解任务中的超像素特征提取。所提方法在测试集上的物体分类准确度可达到91.4%,比SAE-RNN方法提高4.1个百分点。实验结果表明所提方法可提取彩色和深度图片高层特征,有效提高物体分类准确度。  相似文献   

20.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号