首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 140 毫秒
1.
人体的肤色特征   总被引:39,自引:1,他引:39  
肤色特征在MPEG4、基于内容的图像检索、虚拟现实等领域有着广泛的应用.目前肤色聚类的方法有很多,结果各异,但都没有涉及颜色现象的本质.探讨了人体肤色的基本问题:影响肤色聚类的颜色空间、光源颜色对聚类的影响以及颜色恒常性.提出了用于肤色聚类的新的颜色空间,给出了光源变化和图像数据之间的关系,证明了图像中高光和阴影只影响肤色的饱和度.在此基础上,还给出了人体肤色的聚类结果以及肤色特征在复杂环境中的人脸检测和手势识别中的应用.  相似文献   

2.
YCgCr颜色空间的肤色聚类人脸检测法   总被引:8,自引:1,他引:8       下载免费PDF全文
由于YCgCr颜色空间好的聚类性。提出一种在YCgCr颜色空间的人脸检测,首先肤色在CgCr颜色空间进行投影,对像素点区域进行拟合,初步去除图像中的非肤色,得到肤色第一次分割的图像,实验证明这种拟合可以起到好的去除非肤色像素的作用。然后把YCgCr颜色空间作为肤色模型建立彩色空间,用高斯模型在已提取的图像上进行人脸检测。实验证明在对CgCr空间拟合的基础上,再运用高斯模型进行人脸检测,该算法提高了人脸检测的速度,并且有较高的检测率和较低的漏检率。  相似文献   

3.
利用肤色信息检测人脸是一种快速而有效的方法,但选取合适的颜色空间是一个十分棘手的问题。文中提出一种自适应颜色空间YCH,将最常用颜色空间的优点融合到一个新的简单的非线性变换,其中所有的变换系数都能根据人脸图像中每个像素自身的特性自动调整,因而可有效消除影响肤色与非肤色分类结果的各种不利因素。实验结果表明提出的颜色空间对各类人脸图像都有很强的聚类能力。  相似文献   

4.
针对复杂背景和可变光照下的彩色图像人脸检测问题,提出一种基于多肤色空间下的肤色分割及Ada-Boost算法的人脸检测方法。首先利用均值滤波、拉普拉斯算子等方法对图像进行增强处理;然后结合YCbCr、YCgCr、YCgCb三种颜色空间下的多肤色空间对图像进行肤色分割,定位出候选的人脸区域;最后对AdaBoost算法的检测过程进行研究验证,检测出人脸并指示。数据显示,该方法在时间、检测率、漏检率等方面都有明显的改进。因此,该方法能较好地处理复杂背景下彩色图像人脸检测的错检、漏检问题,从而提高了检测效率。  相似文献   

5.
肤色检测中的颜色空间   总被引:2,自引:0,他引:2  
本文介绍了肤色检测中常用的几种颜色空间,分析了它们各自的特点及肤色在这些空间中的聚类性,并比较了在不同颜色空间下对肤色区域进行分离的效果。  相似文献   

6.
基于改进YCbCr空间的肤色检测模式分析   总被引:1,自引:0,他引:1  
黄秀常 《计算机仿真》2010,27(7):222-225
研究了人脸检测中的肤色检测问题,针对广泛使用的YCbCr 颜色空间存在受色差以背景干扰影响检测率的缺点,为提高人脸肤色的检测率和检测速度,提出了结合人脸肤色在RGB三个维度上的分配比例而对传统的YCbCr 空间分量进行改进的方法,得出YCrCg平面,提取肤色分量,进而引入高斯密度函数估计和直方图统计的方法构建肤色模型,使肤色区域从非肤色区域当中准确地分离出来.在确定人脸区域范围之后,从该图像区域中提取出唇色信息,考虑到人脸的旋转角度,得到检测之后的人脸图像区域.通过自建式网络人脸肤色图库进行仿真,结果证明改进的肤色检测模式取得到较好的效果.  相似文献   

7.
人脸检测是模式识别与计算机视觉领域内一个重要的研究热点。人脸是一个常见而复杂的视觉模式,易受干扰。目前常见的人脸检测算法一般具有计算量大、运行速度慢、误检率高等弱点。基于一种新的颜色空间YCgCb的高斯肤色模型,利用颜色信息把彩色图像分割为肤色区域和非肤色区域,并对肤色区域进行去噪处理,实现脸部区域的具体定位,最后标记出来。实验表明该肤色模型可以有效地检测出人脸,误检率低。  相似文献   

8.
肤色信息在基于彩色图像的手势识别、人脸检测与跟踪和基于内容的不良图像过滤等应用中,起着非常重要的作用.为了有效地检测图像中的肤色区域,采用了类似于YCbCr颜色空间的新颜色空间YCgCr.为了说明YCgCr颜色空间的优越性,给出了该颜色空间与YCbCr颜色空间和Karhunen-Loeve (K-L)变换颜色空间中多样实验操作的比较.实验结果表明,用同样肤色样本得到的肤色阈值对相同的测试图像集进行肤色检测时,YCgCr颜色空间具有很好的肤色区域检测效果,漏检率和误检率均低于其它两个颜色空间的漏检率和误检率,并且对于不同的光照条件有较好的鲁棒性.  相似文献   

9.
基于改进YUV空间的人脸检测方法   总被引:4,自引:0,他引:4       下载免费PDF全文
根据肤色色度的分配比例,提出了一种改进YCbCr的Bayesian肤色检测方法,在肤色背景下,利用肤色和唇色在YUV空间分布特点,变换YUV空间的坐标轴,增大唇色和肤色V分量上的差异。提取了唇色的质心和旋转方向,根据人脸几何特征的先验知识建立人脸定位模型。实验表明在改进的颜色空间内,肤色投影到CrCg平面内得到更好的聚类效果。唇色定位人脸算法简单,速度快,更具实效性,对旋转的人脸同样有效。  相似文献   

10.
提出了一种基于混合肤色模型的复杂背景彩色图像的快速人脸检测算法.为了克服环境光照变化及光照不均的影响,引入了自适应光线补偿算法;在RGB颜色空间中运用多项式模型对光线补偿后的彩色图像进行肤色区域粗检测;采用RGB颜色空间中的多项式模型和颜色空间中的高斯模型相结合,对先前所提取的肤色区域做进一步精确的肤色区域提取;最后,对二值图像的连通区域进行预处理,输出人脸区域.实验结果表明,该算法能快速有效地从复杂背景的彩色图像中检测出人脸,对光照变化具有较好的鲁棒性.  相似文献   

11.
基于YCgCr颜色空间的光照自适应的肤色区域检测   总被引:2,自引:0,他引:2  
为了校正由于光源颜色变化而引起的图像色彩的偏差,在RGB颜色空间基于Gray World假设,采用颜色平衡方法对输入的彩色图像进行颜色校正;为了有效地检测彩色图像中的肤色区域,采用了新颜色空间YCgCr,并在该颜色空间建立了联合亮度信息和Cg-Cr色度查找表的肤色模型.大量实验结果表明,该模型具有较强的光照适应性,可应用于复杂环境下的彩色图像中的人体肤色区域检测.  相似文献   

12.
本文采用在彩色空间建立肤色高斯模型的方法进行人脸区域与非人脸区域的大致分离,然后在分离结果中根据每一个8连通区域的形态特点和人脸的几何特征,去除误检出的非人脸区域.本文中彩色空间选用HSI和YCbCr彩色空间,相较于RGB彩色空间,这两种彩色空间都可以将亮度信息与色彩信息分离,减小了亮度不同所造成的影响.该方法具有操作简单,计算量小,快速、不易受表情姿态影响等优点.实验结果表明该方法可以作为特征提取前,提高图像处理效率和准确度的图像预处理操作.  相似文献   

13.
本文采用在彩色空间建立肤色高斯模型的方法进行人脸区域与非人脸区域的大致分离,然后在分离结果中根据每一个8连通区域的形态特点和人脸的几何特征,去除误检出的非人脸区域。本文中彩色空间选用HSI和YCbCr彩色空间,相较于RGB彩色空间,这两种彩色空间都可以将亮度信息与色彩信息分离,减小了亮度不同所造成的影响。该方法具有操作简单,计算量小,快速、不易受表情姿态影响等优点。实验结果表明该方法可以作为特征提取前,提高图像处理效率和准确度的图像预处理操作。  相似文献   

14.
在机器人视觉中,颜色是物体识别和认知过程中必不可少的信息。在YUV颜色空间的基础上,提出了一种基于颜色特征的目标识别算法,采用学习——扩充法获得适应性目标颜色特征的空间分布,克服环境光照变化对目标颜色特征提取的影响,并在算法中采用“位与”运算,提高了识别效率,实际应用证明了该方法的有效性。  相似文献   

15.
江国来  林耀荣 《计算机应用》2010,30(10):2698-2701
由于受环境、光照、人种等因素影响,不同图像中的肤色分布并不一样。在复杂背景情况下,采用固定的阈值边界模型进行肤色分割将导致较大的漏检或误检。基于YCbCr颜色空间,在固定阈值边界模型分割的基础上,运用简化的期望最大化(EM)算法计算出针对特定图像的自适应肤色高斯模型;然后综合考虑固定阈值边界模型以及自适应肤色高斯模型在不同颜色区域上划分的准确性,给出最终的肤色分割结果。实验结果表明,该方法相比固定阈值边界模型的分割方法,能同时降低误检率和漏检率,从而提高肤色识别的准确率。  相似文献   

16.
模糊C均值(FCM)被广泛应用于彩色图像分割中,但传统的模糊C均值由于没有考虑空间信息,因此对噪声特别敏感。针对此问题,提出了一种在HIS颜色空间结合像素邻域空间信息的模糊聚类新方法。实验结果表明,此方法对高噪声图像有较好的处理结果。  相似文献   

17.
刘峥  朱长仁 《计算机应用》2006,26(11):2710-2712
提出一种面向肤色检测的最优彩色空间描述方法。该方法将肤色和非肤色看作两类模式,先后采用基于Fisher的特征提取准则,基于均值可分性信息以及协方差可分性信息的特征提取方法提取一个面向肤色检测的最优彩色空间描述。实验中,从主观和客观评价两个方面验证了该彩色空间描述比其他经典彩色空间具有更优异的性能,并更有利于肤色检测。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号