首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 93 毫秒
1.
将计算机视觉与人类视觉的视觉注意计算模型结合,在对三维人脸特征提取和Itti视觉注意模型进行研究的基础上,提出了一种将Itti视觉注意模型用于三维人脸特征区域检测和特征提取的方法。实验结果表明,该模型能够准确定位三维人脸的特征区域,同时对不同表情的人脸模型具有鲁棒性。  相似文献   

2.
张强  银河  陈蕾 《微计算机信息》2007,23(20):229-230,89
本文针对单人正面人脸图像的定位、特征提取以及识别的方法进行了研究,提出了结合人脸模板和人脸特征进行人脸检测的方法.利用已经定位的人脸图像,确定其眼睛、鼻部及嘴部的几何特征参数,并对实验人脸库进行监督下的分类和统计.在此基础上,实现了一个智能识别系统.  相似文献   

3.
为了解决人脸图像检索中人脸定位不精确的问题,提出了一种空间加权伪Zernike矩的人脸图像特征提取方法.该方法通过设计的加权函数来强调或突出面部上的关键部位,如眼睛、鼻子,嘴巴等区域的重要性,因而能够对人脸特征进行更精确地提取.仿真实验结果表明,利用空间加权伪Zernike矩进行人脸区域描述时,检索准确率明显优于传统的主成分分析方法和直接伪Zernike矩特征提取方法.  相似文献   

4.
通常,采用中心对称局部二值模式CS-LBP对人脸图像只进行一次特征提取,提取的纹理特征不够丰富。因此,本文利用CS-LBP多次提取人脸图像更丰富的纹理特征,提出了多级CS-LBP特征融合的人脸识别算法。首先,用CS-LBP对原始人脸图像进行特征提取;然后,对所得特征图像再进行相同方式的特征提取,这样能够得到原始人脸图像的多级CS-LBP特征图像;最后,将每一级特征图像的分块直方图特征进行融合并用于人脸识别。在ORL、Yale标准人脸库上的实验结果表明,相比人脸图像的一级CS-LBP特征,多级CS-LBP特征融合的方法能够显著提高识别精度。  相似文献   

5.
人脸识别的研究是模式识别和人工智能领域内的重要课题,有着十分广泛的应用前景。人脸特征的自动提取是人脸自动识别过程中至关重要的一个环节。主要就基于积分投影的人脸图像的特征提取、基于奇异值分解的特征提取及小波特征提取等几种较好方法进行研究。基于积分投影的人脸图像特征点的提取方法对人脸进行定位特别精确。基于小波分解频谱性分析的人脸特征提取极大减少了图像的存储空间和计算复杂度。基于SVD分解的特征提取处理后的正确率很高,计算复杂度也低。  相似文献   

6.
人脸图像的特征提取   总被引:1,自引:0,他引:1  
人脸识别的研究是模式识别和人工智能领域内的重要课题,有着十分广泛的应用前景。人脸特征的自动提取是人脸自动识别过程中至关重要的一个环节。主要就基于积分投影的人脸图像的特征提取、基于奇异值分解的特征提取及小波特征提取等几种较好方法进行研究。基于积分投影的人脸图像特征点的提取方法对人脸进行定位特别精确。基于小波分解频谱性分析的人脸特征提取极大减少了图像的存储空间和计算复杂度。基于SVD分解的特征提取处理后的正确率很高,计算复杂度也低。  相似文献   

7.
张庆  代锐  朱雪莹  韦穗 《计算机工程》2012,38(20):156-159
已有人脸表情特征提取算法的表情识别率较低.为此,提出一种基于链码的人脸表情几何特征提取算法.以主动形状模型特征点定位为基础,对面部目标上定位的特征点位置进行循环链码编码,以提取出人脸表情几何特征.实验结果表明,相比经典的LBP表情特征鉴别方法,该算法的识别率提高约10%.  相似文献   

8.
刘文辉  许瑞  刘华咏  马光春 《计算机科学》2014,41(9):294-296,319
为了实现人脸图像民族特征提取,提出了一种分块集成KPCA的特征提取方法。考虑到利用全局特征与局部特征的互补性能够更好地反映信息的本质,先以KPCA提取整体图像特征,然后使用KPCA对各个分块进行局部特征提取,再组合为民族特征,最后使用设计的Boosting-RBF分类器进行民族分类识别。实验以构建的少数民族人脸样本库为研究对象,对维吾尔族、柯尔克孜族、蒙古族、塔吉克族的人脸图像进行民族特征提取。实验结果表明:提取的人脸民族特征,可以对人脸图像进行较准确的民族分类识别。  相似文献   

9.
本文研究了复杂多变人脸的检测和定位问题,提出了一种新的基于对称特征的人脸定位方法。该方法基于肤色特征提取出人脸,根据眼睛的颜色和梯度特征在肤色区找到眼睛可能存在的有限的候选区域;根据人脸的对称特征把这些候选区域分别进行匹配,找到最佳匹配的区域就是眼睛区域。实验证明,这种方法在复杂姿态和复杂表情以及戴眼镜
镜的情况下有很强的稳健性。  相似文献   

10.
人脸的层次化描述模型及识别研究   总被引:7,自引:0,他引:7  
人脸自动识别是一个困难但有重要意义的工作。文中提出了一种基于人脸层次化描述的识别方法。该方法首先对人脸进行快速准确的特征定位及标准化,然后采用主元分析神经网络分别对定位的人脸及其特征区域进行最佳特征提取,从而得到人脸在低分辨率和较高分辨率上的两层特征描述用以识别,具有识别率高、特征数据量适中、可用于大量人像识别等特点。此方法在1300幅人像上进行了测试,结果表明其在人脸转动、表情变化或入脸未经训练  相似文献   

11.
基于支持向量机的多姿态人脸特征定位   总被引:1,自引:0,他引:1       下载免费PDF全文
提出一种多姿态人脸特征定位方法,在Adaboost定位的人脸区域中划分眼、鼻和嘴的搜索区域,利用眉眼和鼻嘴整体特征,通过大规模多姿态五官样本训练的支持向量机在搜索区域中确定候选眼、鼻及嘴区域。对候选眼、鼻及嘴区域进行筛选与合并以确定最佳位置,实现多姿态人脸上五官的准确定位。实验结果表明,该方法具有较好的精确性和鲁棒性,能适应复杂背景下表情变化的多姿态人脸上的眼、鼻及嘴的定位。  相似文献   

12.
A novel method for eye and mouth detection and eye center and mouth corner localization, based on geometrical information is presented in this paper. First, a face detector is applied to detect the facial region, and the edge map of this region is calculated. The distance vector field of the face is extracted by assigning to every facial image pixel a vector pointing to the closest edge pixel. The x and y components of these vectors are used to detect the eyes and mouth regions. Luminance information is used for eye center localization, after removing unwanted effects, such as specular highlights, whereas the hue channel of the lip area is used for the detection of the mouth corners. The proposed method has been tested on the XM2VTS and BioID databases, with very good results.  相似文献   

13.
本文提出了一种基于Haar小波变换的彩色图像人脸检测方法。首先进行彩色空间的变换,检测出图像中的肤色区域;利用Adaboost算法训练出的基于Haar小波变换的检测器对该区域进行人脸检测;建立眼睛颜色模型,并根据眼睛!嘴在不同分量上的分布特征,将它们从人脸区域中提取出来;最后融合眼睛!嘴候选区域的信息,利用特征不变的方法进行眼睛和嘴的确定。实验结果表明,该方法能够快速有效地检测出人脸,并能够确定眼!嘴的位置。  相似文献   

14.
针对视觉特征分析疲劳检测问题,设计了一种级联深度学习的检测系统结构,并提出基于多尺度池化的卷积神经网络疲劳状态检测模型。首先通过深度学习模型MTCNN进行人脸检测,提取出眼睛和嘴巴区域;针对眼睛和嘴巴的状态表征和识别问题,提出一种基于ResNet的多尺度池化模型(MSP)对眼睛和嘴巴状态进行训练;实时检测时,将眼睛嘴巴区域通过训练好的卷积神经网络模型进行状态识别,最后基于PERCLOS和提出的嘴巴张合频率(FOM)对驾驶员进行疲劳判定。实验结果表明,该算法具有较高的检测准确率,同时满足实时性要求,且对复杂环境具有较高的鲁棒性。  相似文献   

15.
人脸检测是全自动人脸识别系统和许多监视系统的基础,在许多领域有着广泛的应用。文章提出了一种基于多分量信息融合的人脸检测方法。首先进行彩色空间的变换,检测出图像中的肤色区域;建立眼睛颜色模型,并根据眼睛﹑嘴在不同分量上的分布特征,将它们提取出来;最后融合眼睛﹑嘴候选区域的信息,利用特征不变的方法进行人脸的确定。实验结果表明,该方法能够快速有效地检测出人脸,并能够确定眼﹑嘴的位置。  相似文献   

16.
This paper presents a non-intrusive fatigue detection system based on the video analysis of drivers. The system relies on multiple visual cues to characterize the level of alertness of the driver. The parameters used for detecting fatigue are: eye closure duration measured through eye state information and yawning analyzed through mouth state information. Initially, the face is located through Viola–Jones face detection method to ensure the presence of driver in video frame. Then, a mouth window is extracted from the face region, in which lips are searched through spatial fuzzy c-means (s-FCM) clustering. Simultaneously, the pupils are also detected in the upper part of the face window on the basis of radii, inter-pupil distance and angle. The monitored information of eyes and mouth are further passed to Fuzzy Expert System (FES) that classifies the true state of the driver. The system has been tested using real data, with different sequences recorded in day and night driving conditions, and with users belonging to different race and gender. The system yielded an average accuracy of 100% on all the videos on which it was tested.  相似文献   

17.
This paper introduces a new method for detection of faces and facial features. Proposed algorithm denies the thesis that bottom-up solutions can't work at reasonable speed. It introduces fast detection – about 9 frames per second for a 384 × 256 image – while preserving accurate details of the detection. Main experiments focus on the detection of the eye centers — crucial in many computer vision systems such as face recognition, eye movement detection or iris recognition, however algorithm is tuned to detect 15 fiducial face points. Models were trained on nearly frontal faces. Bottom-up approach allows to detect objects under partial occlusion — particularly two out of four face parts (left eye, right eye, nose, mouth) must be localized. Precision of the trained model is verified on the Feret dataset. Robustness of the face detection is evaluated on the BioID, LFPW, Feret, GT, Valid and Helen databases in comparison to the state of the art detectors.  相似文献   

18.
Yeon-Sik Ryu  Se-Young Oh   《Pattern recognition》2001,34(12):2459-2466
This paper presents a novel algorithm for the extraction of the eye and mouth (facial features) fields from 2-D gray-level face images. The fundamental philosophy is that eigenfeatures, derived from the eigenvalues and eigenvectors of the binary edge data set constructed from the eye and mouth fields, are very good features to locate these fields efficiently. The eigenfeatures extracted from the positive and negative training samples of the facial features are used to train a multilayer perceptron whose output indicates the degree to which a particular image window contains an eye or a mouth. It turns out that only a small number of frontal faces are sufficient to train the networks. Furthermore, they lend themselves to good generalization to non-frontal pose and even other people's faces. It has been experimentally verified that the proposed algorithm is robust against facial size and slight variations of pose.  相似文献   

19.
Towards a system for automatic facial feature detection   总被引:21,自引:0,他引:21  
A model-based methodology is proposed to detect facial features from a front-view ID-type picture. The system is composed of three modules: context (i.e. face location), eye, and mouth. The context module is a low resolution module which defines a face template in terms of intensity valley regions. The valley regions are detected using morphological filtering and 8-connected blob coloring. The objective is to generate a list of hypothesized face locations ranked by face likelihood. The detailed analysis is left for the high resolution eye and mouth modules. The aim for both is to confirm as well as refine the locations and shapes of their respective features of interest. The detection is done via a two-step modelling approach based on the Hough transform and the deformable template technique. The results show that facial features can be located very quickly with Adequate or better fit in over 80% of the images with the proposed system.  相似文献   

20.
基于D—S证据理论的表情识别技术   总被引:1,自引:0,他引:1  
王嵘  马希荣 《计算机科学》2009,36(1):231-233
在情感计算理论基础上,提出了基于D-S理论的信息融合的表情识别技术,设计并实现了系统IFFER.在表情识别模块中的分类器训练采用JAFFE表情库.识别中首先利用色度匹配及亮度匹配将人脸图像进行眼部及嘴部的分割,再分别用训练好的眼部SVM分类器及嘴部SVM分类器进行识别,将识别后的结果利用D-S证据理论进行融合.实验结果表明,对分割后的两部分图像进行识别,无论从训练上还是识别上,数据的维数都大大减少,提高了效率.在识别率上,融合后的结果相对于融合前的有显著的提高.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号