首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 93 毫秒
1.
人脸面部表情识别的研究进展   总被引:10,自引:0,他引:10  
随着信息和计算机技术的飞速发展,人脸面部表情识别技术越来越受到重视.本文综述了近年来人脸面部表情识别的研究进展.首先对面部表情识别技术的研究背景和发展历程作了简单的回顾,然后着重介绍了几种主要的识别方法,并力争从理论上对各种方法进行分析和比较,最后简单地讨论了进一步提高面部表情识别率的难点和必须考虑的几个重要方面,进而展望了人脸面部表情识别技术的发展方向.  相似文献   

2.
3.
4.
基于兴趣区域深度神经网络的静态面部表情识别   总被引:1,自引:0,他引:1       下载免费PDF全文
孙晓  潘汀 《电子学报》2017,45(5):1189
通过在面部表情数据集上训练深度卷积神经网络、深度稀疏校正神经网络两种模型,对两种深度神经网络在静态面部表情识别方面的应用作了对比和分析.基于面部表情的结构先验知识,提出一种面向面部表情识别的改良方法——K兴趣区域方法,该方法在构建的开放实验数据集上,降低了由于训练数据过少而导致深度神经网络模型泛化能力不佳的问题,使得混合模型普遍且显著地降低了测试错误率.进而,结合实验结果进行了深入分析,并对深度神经网络在任意图像数据集上的可能有效性进行了深入剖析和分析.  相似文献   

5.
为了解决通信辐射源个体中标签获取难问题,引入半监督机器学习理论,提出了一种基于预测置信度进行迭代的半监督学习算法(Improved Transductive Support Vector Machine Iterative Algorithm Based on the Confidence of Prediction,CP-TSVM)。该方法在TSVM算法的基础上,充分利用无标签样本,根据预测结果置信度进行迭代,能够大幅度减少分类器的运算量。计算机仿真表明,在有标签样本数目占总样本2%的情况下,CP-TSVM较TSVM算法在保证识别准确率的同时,模型训练时间缩短近60 s。  相似文献   

6.
罗元  崔叶  王艳  张毅 《半导体光电》2014,35(2):330-333,349
针对离散余弦变换(DCT)只能提取面部表情图像的全局特征,而忽略了临近像素之间的关系、不能提取纹理特征信息、不能准确区分相似表情等问题,提出一种融合离散余弦变换方法和局部二值模式(LBP)特征的表情特征提取方法。该方法首先将人脸图像经过DCT获得的低频系数作为表情的全局特征;然后用LBP对贡献率较大的嘴部、眼睛区域进行局部纹理特征提取,通过将LBP提取到的局部纹理特征与DCT提取到的全局特征进行融合,从而得到更有效的表情特征;最后利用支持向量机(SVM)进行识别。实验结果表明:该方法比单独使用DCT方法提取的表情特征更有利于识别,提高了表情识别的准确性,并将这个表情识别方法用于智能轮椅的控制上,收到了良好的效果。  相似文献   

7.
本文为了解决姿态不变的面部表情识别即在任意姿态下的面部表情识别问题,提出了一种端到端的深度学习模型,该模型利用不同的姿态和表情进行面部图像合成扩充训练集,提高了模型的准确度,并有效地解决了姿态不变的面部表情识别问题。本文将介绍表情识别的主要过程以及模型中使用到的生成对抗网络(GAN)。  相似文献   

8.
本文为了解决姿态不变的面部表情识别即在任意姿态下的面部表情识别问题,提出了一种端到端的深度学习模型,该模型利用不同的姿态和表情进行面部图像合成扩充训练集,提高了模型的准确度,并有效地解决了姿态不变的面部表情识别问题。本文将介绍表情识别的主要过程以及模型中使用到的生成对抗网络(GAN)。  相似文献   

9.
面部表情识别是地铁、火车站、机场等复杂环境中安检监控的重要任务,通过识别监控图像中行人的面部表情可以筛选出可疑分子。针对因监控图像模糊和面部表情拍摄不全而引起的识别准确率低等问题,提出一种改进的InceptionV4面部表情识别算法,改进InceptionV4的网络结构,使其更好地适应面部表情识别任务。基于深度学习中的Tensorflow平台对面部表情类数据进行训练,在面部表情验证集上进行测试,在输入图像为299×299时,识别准确率高达97.9%,改进后的算法在保证识别精度的同时,降低表情在类内差距较大、图像模糊和面部表情拍摄不全情况下的误识率,提高系统鲁棒性。  相似文献   

10.
学生表情逐渐成为感知学生状态的重要途径,因此准确的识别学生表情因具有重要价值而受到广泛的关注.本文针对学生表情识别这一问题,提出基于数据融合与迁移学习的识别模型,该模型融合3个数据集,以解决学生表情数据缺乏与多样性问题,同时引入迁移学习来提升预测精度.在数据集及实际学生表情图像上的实验结果表明,本文提出的模型可以准确识别学生表情,提升了预测精度.  相似文献   

11.
朱二莉  彭波  刘志中 《电视技术》2015,39(11):77-82
针对自然面部表情识别中的噪声标记问题,提出了一种自适应鲁棒在线度量学习方法.首先,学习新的度量空间以增加不同面部表情的判别性;然后,定义敏感度和特异性来表征每个注释器;最后,引入表示真实类标签的潜在变量,在期望最大化架构中迭代求解距离度量和注释器的可靠性.在MFP和AR人脸数据库上的实验结果表明,相比其他几种较新的方法,本方法在自然表情识别方面能获得更高的识别精度,高兴表情识别率可高达99.7%,并且在一定程度上降低了计算开销.  相似文献   

12.
提出了一种识别遮挡图像表情的方法。先用主元分析(PCA,principal component analysis)算法对遮挡图像重建;然后根据正态分布理论检测出遮挡区域,并根据图像的部分相似性,将遮挡图像嵌入到流形空间中;最后用支持向量机(SVM,support vector machine)实现表情分类。本方法较好地消除了遮挡区检测误差对表情识别的影响,对遮挡图像的表情识别具有良好的鲁棒性。通过Cohn-Kanade和JAFFE人脸库上的表情识别实验,验证了本方法有较强的鲁棒性、较高的识别率和较高的运行效率。  相似文献   

13.
Facial expression recognition (FER) is an active research area that has attracted much attention from both academics and practitioners of different fields. In this paper, we investigate an interesting and challenging issue in FER, where the training and testing samples are from a cross-domain dictionary. In this context, the data and feature distribution are inconsistent, and thus most of the existing recognition methods may not perform well. Given this, we propose an effective dynamic constraint representation approach based on cross-domain dictionary learning for expression recognition. The proposed approach aims to dynamically represent testing samples from source and target domains, thereby fully considering the feature elasticity in a cross-domain dictionary. We are therefore able to use the proposed approach to predict class information of unlabeled testing samples. Comprehensive experiments carried out using several public datasets confirm that the proposed approach is superior compared to some state-of-the-art methods.  相似文献   

14.
Emotion recognition is a hot research in modern intelligent systems. The technique is pervasively used in autonomous vehicles, remote medical service, and human–computer interaction (HCI). Traditional speech emotion recognition algorithms cannot be effectively generalized since both training and testing data are from the same domain, which have the same data distribution. In practice, however, speech data is acquired from different devices and recording environments. Thus, the data may differ significantly in terms of language, emotional types and tags. To solve such problem, in this work, we propose a bimodal fusion algorithm to realize speech emotion recognition, where both facial expression and speech information are optimally fused. We first combine the CNN and RNN to achieve facial emotion recognition. Subsequently, we leverage the MFCC to convert speech signal to images. Therefore, we can leverage the LSTM and CNN to recognize speech emotion. Finally, we utilize the weighted decision fusion method to fuse facial expression and speech signal to achieve speech emotion recognition. Comprehensive experimental results have demonstrated that, compared with the uni-modal emotion recognition, bimodal features-based emotion recognition achieves a better performance.  相似文献   

15.
采用CASPCM模型进行姿势鲁棒性人脸识别   总被引:1,自引:1,他引:0       下载免费PDF全文
赵明华  游志胜  余静  熊运余 《激光技术》2006,30(4):429-431,435
针对ASPCM模型处理转动角度较大的人脸图像时出现的不足,提出CASPCM模型.以样本与模型中心的距离为依据将训练样本分组,为每个分组训练ASPCM模型;将局部ASPCM模型的合成映射结果加权平均得到CASPCM模型的合成结果;提出利用梯度下降法使分解映射的姿势估计逐步精确.采用精确性和概括性两个标准衡量该模型的分解性能和合成性能.实验表明,CASPCM模型的分解性能和合成性能均优于ASPCM模型;基于该模型的人脸识别系统在处理转动角度较大的人脸图像时,识别率比 ASPCM模型高7%.  相似文献   

16.
王春峰  李军 《光电子.激光》2020,31(11):1197-1203
面部情绪识别已成为可见光人脸识别应用的重要部 分,是光学模式识别研究中最重要的领域之一。为了进一步实现可见光条件下面部情绪的自 动识别,本文结合Viola-Jones、自适应直方图均衡(AHE)、离散小波变换(DWT)和深度卷 积神经网络(CNN),提出了一种面部情绪自动识别算法。该算法使用Viola-Jones定位脸 部和五官,使用自适应直方图均衡增强面部图像,使用DWT完成面部特征提取;最后,提取 的特征直接用于深度卷积神经网络训练,以实现面部情绪自动识别。仿真实验分别在CK+数 据库和可见光人脸图像中进行,在CK+数据集上收获了97%的平均准确 率,在可见光人脸图像测试中也获得了95%的平均准确率。实验结果 表明,针对不同的面部五官和情绪,本文算法能够对可见光面部特征进行准确定位,对可见 光图像信息进行均衡处理,对情绪类别进行自动识别,并且能够满足同框下多类面部情绪同 时识别的需求,有着较高的识别率和鲁棒性。  相似文献   

17.
基于整体特征的人脸识别方法的研究   总被引:3,自引:0,他引:3  
分析了传统的基于整体特征的人脸识别方法(如PCA和FLD等)的原理及其局限性,提出将增强型Fisher判别(EFM)应用于人脸识别中。基于EFM的人脸识别的实验取得了良好的实验结果,与PCA和FLD等方法相比优势明显,并适合于大型人脸数据库的识别任务。  相似文献   

18.
Automatic facial expression recognition (FER) is an important technique in human–computer interfaces and surveillance systems. It classifies the input facial image into one of the basic expressions (anger, sadness, surprise, happiness, disgust, fear, and neutral). There are two types of FER algorithms: feature-based and convolutional neural network (CNN)-based algorithms. The CNN is a powerful classifier, however, without proper auxiliary techniques, its performance may be limited. In this study, we improve the CNN-based FER system by utilizing face frontalization and the hierarchical architecture. The frontalization algorithm aligns the face by in-plane or out-of-plane, rotation, landmark point matching, and removing background noise. The proposed adaptive exponentially weighted average ensemble rule can determine the optimal weight according to the accuracy of classifiers to improve robustness. Experiments on several popular databases are performed and the results show that the proposed system has a very high accuracy and outperforms state-of-the-art FER systems.  相似文献   

19.
基于随机非负独立元分析的掌纹识别   总被引:2,自引:2,他引:0  
提出运用随机非负独立元分析(SN—ICA)的新方法进行掌纹识别。为了减少计算量,运用SN-ICA算法前,先采用主元分析(PCA)算法去除掌纹图像的二阶统计特征相关性,其余的高阶非负统计特征由SN-ICA分离。首先用PCA和SN-ICA提取投影向量,然后将训练图像和待识别图像向投影向量上投影得到低维特征向量,最后计算特征...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号