首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 218 毫秒
1.
一种基于2D-DWT和2D-PCA的人脸识别方法   总被引:10,自引:1,他引:10  
提出了一种联合图像二维离散小波变换(2D-DWT)和二维主成分分析(2D-PCA)的人脸识别方法。首先通过2D-DWT将当前图像分解成四个子图像,其中一子图像对应原图像的主体部分(低通部分),其余三个子图像则对应图像的细节部分(高通部分)。在此基础上,采用2D-PCA方法分别对每一子图像进行特征提取。此外,文中还提出了一种简单有效的方法对各子图像中所提取的特征进行融合,根据所得到的特征进行人脸识别。同其他基于小波分解的人脸识别方法相比,所提出的方法能更充分地利用人脸图像的有用判别信息,并得到更好的识别结果。  相似文献   

2.
人脸表情的LBP特征分析   总被引:1,自引:0,他引:1       下载免费PDF全文
为了有效提取面部表情特征,提出了一种新的基于LBP(局部二值模式)特征的人脸表情识别特征提取方法。首先用均值方差法对表情图像进行灰度规一化,通过对图像进行积分投影,定位出眉毛、眼睛、鼻和嘴巴这些关键特征点,进而划分出各特征部件所在子区域,然后对子区域进行分块,提取各个子区域的分块LBP直方图特征。为了验证所提出的方法的合理性,最后在JAFFE表情库上进行了实验,结果表明提出的方法能够有效地描述表情的特征。  相似文献   

3.
将偏最小二乘回归方法用于人脸身份和表情的同步识别。首先,对每幅人脸图像进行脸部特征提取以及相应的语义特征定义。在脸部特征提取方面,从每幅图像中标定出若干脸部关键点位置,并提取图像在该关键点处的Gabor小波系数(Gabor特征)以及关键点的坐标值(几何特征),作为该图像的输入特征。语义特征则定义为该人脸图像所属的表情类别信息以及所对应的人脸身份信息。其次,利用核主成分分析(KPCA)方法对脸部Gabor特征和几何特征进行融合,使得输入特征具有更好的识别特性;最后,运用偏最小二乘回归(PLSR)方法建立脸部特征和语义特征之间的关系模型,并运用此模型对某一测试人脸图像进行表情和身份的同步识别。通过在JAFFE国际表情数据库和AR人脸数据库上的对比实验,证实了所提方法的有效性。  相似文献   

4.
董晓庆  陈洪财 《计算机应用》2014,34(12):3593-3598
针对人脸识别中表情和光照变化引起的面部变化、灰度不均匀等识别问题,提出一种基于子模式行列方向二维线性判别分析(Sp-RC2DLDA)的特征提取方法。该方法通过对原图像进行子模式分块处理,能有效提取图像的局部特征,减少表情、光照变化的影响,通过把相同位置的子图像组成子样本集,合理利用了子块间的空间关系,进一步提高了识别率;同时,对各个子样本集分别利用行方向二维线性判别分析(2DLDA)和列方向扩展2DLDA(E2DLDA)进行特征抽取,得到互补的行、列方向子图像特征,并分别把子图像特征组合成原图像的特征矩阵,然后利用一种特征融合方法对行、列方向特征矩阵进行有效融合,对互补的特征空间进行融合有效地改善了识别性能;最后采用最近邻分类器进行人脸识别实验。在Yale及ORL人脸库上的实验结果表明,Sp-RC2DLDA有效地减少了表情和光照变化的影响,具有较好的鲁棒性。  相似文献   

5.
基于ICA与HMM的表情识别   总被引:1,自引:0,他引:1       下载免费PDF全文
独立分量分析(independent component analysis,ICA)是一种盲源分离的有效方法,为了进一步有效提取表情图像中隐藏的信息和提高表情识别率,可将它应用于人脸表情识别。由于脸部表情为人类情感、认知过程的研究提供了极为重要的测量依据,因此表情特征的提取和特征序列所代表的表情状态是表情识别过程中的重要步骤。为了更好地进行表情和情感的分类,提出了一种ICA结合隐马尔可夫模型(HMM)识别表情的情感分类系统,该系统首先利用ICA算法进行表情特征提取,为了加快特征提取的速度,这里采用了FastICA算法;然后通过7个训练好的HMM进行表情识别。实验结果显示,该系统使人脸表情识别的整体效果有了提高,取得了令人满意的效果,可以用来识别人脸表情。  相似文献   

6.
基于Gabor小波与分形维的人脸情感特征提取   总被引:2,自引:0,他引:2       下载免费PDF全文
提出一种基于Gabor小波变换与分形维的人脸情感特征提取算法,对包含情感信息的静态灰度图像进行预处理,对表情子区域实行Gabor小波变换,提取情感特征矢量,对人脸兴趣区图像求盒维数和差分分形维数,将经过Gabor小波变换所得的特征矢量和分形维数作为所提取的特征。分析比较了不同测试者7种基本情感的识别效果,实验表明该方法能有效提取与情感变化有关的特征。  相似文献   

7.
针对非特定人人脸表情平均识别率普遍不高(约65%)的问题,提出了一种基于表情子空间和多分类器集成的人脸表情识别新方法。通过局部二进制模式(LBP)与高阶奇异值分解(HOSVD)方法对训练集1中的人脸图像的全脸、眼睛(包括眉毛)和嘴巴三个区域进行特征提取与分解,建立相应的表情子空间;利用支持向量机(SVM)方法对训练集2中的人脸图像在表情子空间训练,得到模糊系统参数;最后结合表情子空间与多分类器集成,对测试集中的图像进行表情分类识别。在JAFFE人脸表情库中实验,获得了71.43%的平均识别率。实验结果表明,该方法有效地减少了人脸外观特征和表情表现方式所带来的影响,具有更好的识别效果。  相似文献   

8.
针对火灾图像纹理识别问题,提出了基于Gabor小波变换的ICA火灾图像纹理识别算法,并根据火灾图像纹理识别特点进行了优化;首先用不同尺度和方向的Gabor滤波器对待识别图像滤波,得到其特征图像,然后将特征图像转化成特征向量作为ICA的输入,得到基矢量子空间,再将测试图像经过Gabor滤波器的特征向量投影到ICA子空间中得到系数向量作为目标识别特征,最后用支持向量机进行识别;通过与Gabor滤波器法和ICA方法的对比实验,表明该算法可以在火灾纹理图像的识别率上比传统方法提高5%以上,为火灾图像识别提供了一种新思路.  相似文献   

9.
提出基于粒子群优化(PSO)与独立分量分析(ICA)的表情特征提取方法。首先利用ICA算法对表情图像数据建立基本的独立基向量求解框架;为了减少计算复杂度,然后利用PSO算法对处理后的表情图像数据搜索最优的解集合;最后利用支持向量机(SVM)作为算法验证的分类器。实验结果表明该算法在保证较高表情识别率的基础上加快了表情图像特征提取的速度。  相似文献   

10.
目的 针对人脸表情识别中存在局部遮挡的问题,提出一种融合局部特征的面部遮挡表情识别方法。方法 首先,为了减少噪声的影响,利用高斯滤波对归一化后的图像进行去噪处理;然后根据人脸不同部位对表情识别的不同贡献度,将图像划分为两个重要的子区域,并分别对该子区域进行不重叠分块处理;采用改进的中心对称局部二值模式(差值中心对称局部二值模式DCS-LBP)和改进的差值局部方向模式(梯度中心对称局部方向模式GCS-LDP)对各个子块提取相应的特征,并采用级联的方式得到图像的特征直方图;最后结合最近邻分类器对表情图像进行分类识别:利用卡方距离求取测试集图像与训练集图像特征直方图之间的距离,同时考虑到遮挡的干扰以及每个子块包含信息量的不同,利用信息熵对子块得到的卡方距离进行自适应加权。结果 在日本女性人脸表情库(JAFFE)和Cohn-Kanade(CK)人脸表情库上进行了3次交叉实验。在JAFFE库中随机遮挡、嘴部遮挡和眼部遮挡分别可以取得92.86%、94.76%和86.19%以上的平均识别率;在CK库中随机遮挡、嘴部遮挡和眼部遮挡分别可以取得99%、98.67%和99%以上的平均识别率。结论 该特征提取方法通过融合梯度方向上灰度值的差异以及梯度方向之间边缘响应值的差异来描述图像的特征,更加完整地提取了图像的细节信息。针对遮挡情况,本文采用的图像分割和信息熵自适应加权方法,有效地降低了遮挡对表情识别的干扰。在相同的实验环境下,与经典的局部特征提取方法以及遮挡问题处理方法的对比表明了该方法的有效性和优越性。  相似文献   

11.
In expression recognition, feature representation is critical for successful recognition since it contains distinctive information of expressions. In this paper, a new approach for representing facial expression features is proposed with its objective to describe features in an effective and efficient way in order to improve the recognition performance. The method combines the facial action coding system(FACS) and "uniform" local binary patterns(LBP) to represent facial expression features from coarse to fine. The facial feature regions are extracted by active shape models(ASM) based on FACS to obtain the gray-level texture. Then, LBP is used to represent expression features for enhancing the discriminant. A facial expression recognition system is developed based on this feature extraction method by using K nearest neighborhood(K-NN) classifier to recognize facial expressions. Finally, experiments are carried out to evaluate this feature extraction method. The significance of removing the unrelated facial regions and enhancing the discrimination ability of expression features in the recognition process is indicated by the results, in addition to its convenience.  相似文献   

12.
融合独立分量分析与支持向量聚类的人脸表情识别方法   总被引:1,自引:0,他引:1  
周书仁  梁昔明 《计算机应用》2011,31(6):1605-1608
针对人脸表情特征提取及自动聚类问题,提出了融合独立分量分析(ICA)与支持向量聚类(SVC)的人脸表情识别方法。采用ICA方法进行人脸表情的特征提取,然后采用混合因子分析(MFA)的交互参数调整方法得到局部约束支持向量聚类(LCSVC)的半径,有效降低了表情类别聚类边缘的部分干扰,这比单独采用支持向量聚类(SVC)方法效果要好。测试样本时通过比较新旧半径的值进行判决,实验结果表明该方法是有效的。  相似文献   

13.
Facial expressions are one of the most powerful, natural and immediate means for human being to communicate their emotions and intensions. Recognition of facial expression has many applications including human-computer interaction, cognitive science, human emotion analysis, personality development etc. In this paper, we propose a new method for the recognition of facial expressions from single image frame that uses combination of appearance and geometric features with support vector machines classification. In general, appearance features for the recognition of facial expressions are computed by dividing face region into regular grid (holistic representation). But, in this paper we extracted region specific appearance features by dividing the whole face region into domain specific local regions. Geometric features are also extracted from corresponding domain specific regions. In addition, important local regions are determined by using incremental search approach which results in the reduction of feature dimension and improvement in recognition accuracy. The results of facial expressions recognition using features from domain specific regions are also compared with the results obtained using holistic representation. The performance of the proposed facial expression recognition system has been validated on publicly available extended Cohn-Kanade (CK+) facial expression data sets.  相似文献   

14.
目的表情变化是3维人脸识别面临的主要问题。为克服表情影响,提出了一种基于面部轮廓线对表情鲁棒的3维人脸识别方法。方法首先,对人脸进行预处理,包括人脸区域切割、平滑处理和姿态归一化,将所有的人脸置于姿态坐标系下;然后,从3维人脸模型的半刚性区域提取人脸多条垂直方向的轮廓线来表征人脸面部曲面;最后,利用弹性曲线匹配算法计算不同3维人脸模型间对应的轮廓线在预形状空间(preshape space)中的测地距离,将其作为相似性度量,并且对所有轮廓线的相似度向量加权融合,得到总相似度用于分类。结果在FRGC v2.0数据库上进行识别实验,获得97.1%的Rank-1识别率。结论基于面部轮廓线的3维人脸识别方法,通过从人脸的半刚性区域提取多条面部轮廓线来表征人脸,在一定程度上削弱了表情的影响,同时还提高了人脸匹配速度。实验结果表明,该方法具有较强的识别性能,并且对表情变化具有较好的鲁棒性。  相似文献   

15.
基于静态灰度图特征识别表情的方法简单、快捷,在进行特定人表情识别时可以取得很好的识别结果,但在进行非特定人表情识别时却容易受到肤色、光照等因素的影响,识别效果较差。通过动态序列提取的运动特征能有效地反映表情运动的形变过程,用于非特定人表情识别时可以取得较好的识别结果。研究了通过光流和帧间灰度差两类方法提取表情序列动态特征,再与支持向量机(SVM)和隐马尔柯夫模型(HMM)两种分类器组合,进行非特定人表情识别,并分析比较了两类方法的特点与优劣,说明了利用运动特征识别人脸表情的有效性。  相似文献   

16.
Face localization, feature extraction, and modeling are the major issues in automatic facial expression recognition. In this paper, a method for facial expression recognition is proposed. A face is located by extracting the head contour points using the motion information. A rectangular bounding box is fitted for the face region using those extracted contour points. Among the facial features, eyes are the most prominent features used for determining the size of a face. Hence eyes are located and the visual features of a face are extracted based on the locations of eyes. The visual features are modeled using support vector machine (SVM) for facial expression recognition. The SVM finds an optimal hyperplane to distinguish different facial expressions with an accuracy of 98.5%.  相似文献   

17.
In this paper we propose a method that exploits 3D motion-based features between frames of 3D facial geometry sequences for dynamic facial expression recognition. An expressive sequence is modelled to contain an onset followed by an apex and an offset. Feature selection methods are applied in order to extract features for each of the onset and offset segments of the expression. These features are then used to train GentleBoost classifiers and build a Hidden Markov Model in order to model the full temporal dynamics of the expression. The proposed fully automatic system was employed on the BU-4DFE database for distinguishing between the six universal expressions: Happy, Sad, Angry, Disgust, Surprise and Fear. Comparisons with a similar 2D system based on the motion extracted from facial intensity images was also performed. The attained results suggest that the use of the 3D information does indeed improve the recognition accuracy when compared to the 2D data in a fully automatic manner.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号