首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 100 毫秒
1.
多表情源的人脸表情合成技术   总被引:2,自引:0,他引:2  
提出了基于一个局部约束偏移和相对偏移技术的图像变形方法,用于人脸表情合成.该方法可以自动克服目前表情合成方法的非特征区域的形变,并与脸型外观相匹配.在此基础上,提出了基于多表情源的人脸表情合成技术.从人脸图像划分出三个主要表现表情的区域,并对每个区域根据多个表情源的加权平均的相对偏移量进行图像局部变形,最后利用加权平均的表情比图像加强表情.实验结果表明,用该方法得到的人脸表情自然逼真,更为重要的是,通过调节权向量的取值,可以取得不同模式的表情,丰富了表情表现的内涵.  相似文献   

2.
人脸表情动画   总被引:1,自引:1,他引:1  
陈静  董平  杨国为 《微计算机信息》2004,20(12):140-141,58
人脸表情动画是计算机动画研究的一个重要分支.它有着十分广泛的应用前景。本文评述了国内外人脸表情动画方法和技术研究现状,提出了进一步需要解决的问题。并针对真人脸表情点提取难题给出了一个有效的特别的解决方案。  相似文献   

3.
基于物理模型的人脸表情动画技术研究   总被引:4,自引:0,他引:4  
用计算机建立人脸表情动画是当前计算机图形学研究领域的一个富有挑战性的课题,该文在总结了国内外有关该课题研究方法的基础上,提出了一种基于物理模型的人脸表情画生成算法,并依该算法计和开发了一个实际的人脸表情动画系统HUFACE。该算法将人的脸部模拟为一个弹性体,为使计算简化,又将人脸表面依其生理特性分为八个子块,脸部表情所产生的五官动作模拟为弹性体的形变,并建立相应的弹性形变模型,当脸部表情引起脸部各子块形变时,每个子块上的各点将发生位移,于是利用该模型计算这些点的位移量,由此获得表情动画中的每一帧画面,由于脸部动作由该形变模型控制,且计算简单,速度快,因此不需存储表情动画中的各个画面,提高了系统的效率,实验结果表明,由HUFACE系统生成的人脸表情真实,自然。  相似文献   

4.
为了提高计算机合成人脸表情动画的后期制作效率,提出一种基于时空的人脸表情动画编辑方法.首先使用基于拉普拉斯的网格变形技术将用户的编辑效果在空间域传播到整个人脸模型,很好地保留了中性人脸模型的几何细节特征,从而提高合成表情的真实感;然后使用高斯函数将用户编辑效果在时间域传播到邻近表情序列,保持人脸表情动画的平滑过渡,所合成人脸表情动画与初始给定数据保持一致.该方法为用户提供了人脸表情动画编辑的局部控制,可由用户指定编辑的影响范围,使得编辑效果在指定范围内自然传播.实验结果表明,文中方法所合成人脸表情动画自然、真实,有效地提高了数据驱动人脸表情动画的编辑效率.  相似文献   

5.
为了由视频进行驱动生成人脸表情动画,提出一种表演驱动的二维人脸表情合成方法。利用主动外观模型算法对人脸的关键点进行定位,并从关键点提取出人脸的运动参数;对人脸划分区域,并获取目标人脸的若干样本图像;从人脸的运动参数获取样本图像的插值系数,对样本图像进行线性组合来合成目标人脸的表情图像。该方法具有计算简单有效、真实感强的特点,可以应用于数字娱乐、视频会议等领域。  相似文献   

6.
利用主动外观模型合成动态人脸表情   总被引:2,自引:2,他引:0  
人脸表情发生变化时,面部纹理也相应地改变;为了方便有效地模拟这一动态的表情变化过程,提出一种基于主动外观模型的人脸表情合成方法.首先离线学习人脸表情与人脸形状和外观参数之间的关系,利用该学习结果实现对输入人脸图像的表情合成;针对合成图像中眼睛和牙齿模糊的缺点,利用合成的眼睛图像和牙齿模板来替代模糊纹理.实验结果表明,该方法能合成不同表情强度和类型的表情图像;合成的眼睛图像不仅增强了表情的真实感,同时也便于实现眼睛的动画.  相似文献   

7.
针对语音驱动人脸动画中如何生成随语音运动自然呈现的眨眼、抬眉等表情细节以增强虚拟环境的沉浸感的问题,提出一种可以合成表情细节的语音驱动人脸动画方法.该方法分为训练与合成2个阶段.在训练阶段,首先对富有表情的三维人脸语音运动捕获数据特征进行重采样处理,降低训练数据量以提升训练效率,然后运用隐马尔可夫模型(HMM)学习表情人脸语音运动和同步语音的关系,同时统计经过训练的HMM在训练数据集上的合成余量;在合成阶段,首先使用经过训练的HMM从新语音特征中推断与之匹配的表情人脸动画,在此基础上,根据训练阶段计算的合成余量增加表情细节.实验结果表明,文中方法比已有方法计算效率高,合成的表情细节通过了用户评价验证.  相似文献   

8.
在人机交互、数字娱乐等领域,传统的表情合成技术难以稳定地生成具有真实感的个性化人脸表情动画.为此,提出一种基于单张图像的三维人脸建模和表情动画系统.自动检测人脸在图像中的位置,自动定位人脸上的关键点,基于这些关键点和形变模型重建个性化三维人脸模型,对重建的人脸模型进行扩展得到完整的人脸网格,采用稀疏关键点控制的动画数据映射方法来驱动重建的人脸模型生成动态表情动画.实验结果表明,该方法稳定性强、自动化程度高,人脸模型与表情动画比较逼真.  相似文献   

9.
基于抽象肌肉模型的人脸表情动画实现   总被引:4,自引:0,他引:4  
介绍了一个基于抽象肌肉模型的人脸表情动画的实现过程,详细阐述了在系统实现过程中用到的人脸几何表示、抽象肌肉模型、一般人脸变化到特定人脸以及OpenGL等技术。  相似文献   

10.
计算机人脸表情动画技术综述   总被引:1,自引:0,他引:1  
姚俊峰  陈琪 《计算机应用研究》2008,25(11):3233-3237
真实感的计算机人脸表情动画是计算机图形学领域最基本的问题之一。由于其具有广阔的应用前景,引起了越来越多的研究者的关注与极大的兴趣。针对近几十年来该领域的发展状况,对计算机人脸表情动画技术进行综述。通过将人脸表情动画技术分为基于几何学的方法和基于图像的方法,详细阐述并比较了相关的研究成果,分析和讨论了它们的优缺点,并对人脸表情动画技术的未来发展进行了展望。  相似文献   

11.
为了重用视频内容中的表情信息,提出一种语义表情构造与语义表情参数优化方法.首先从带有噪声的稀疏特征点中定义出人脸表情的语义信息;然后在语义表情空间中优化求解出最优表情参数,以提高人脸动画的真实感.该方法既不需要标定相机参数,也不需要预先建立表演者的3D人脸模型及其表情基,因此除了可用于网络视频的表情重用,也可用于开发实时在线的网络社交等应用.实验结果表明,对于头部摆动的俯仰角和侧角在[?15?,15?]范围内的原始视频,文中方法能够实时合成稳定、逼真的表情动画.  相似文献   

12.
脸部表情动画建模方法的研究与实现   总被引:12,自引:1,他引:12  
本文提出了一种分层设计的规则逻辑网格的脸部轮廓造型法,同时,以脸部动作编码系统FACS(facialactioncodingsystem)为依据,以脸部解剖学和生物力学特点为前提,提出了研制各种肌肉运动的调节器,通过合理使用和协调有关肌肉调节器产生相应的脸部表情的动画.  相似文献   

13.
针对真实感表情合成中的难点——人类表情的种类多样性和个体特性,提出一种分层人脸模型.该模型将人脸图像分为基础层、运动层和细节层3层,基础层采用主动外观模型来表示表情运动带来的全局性变化,对于运动层提出一种基于隐马尔可夫模型的运动纹理分块组合机制来实现风格化运动纹理,细节层通过几何变形来恢复人脸个体特征.实验结果表明,文中提出的运动纹理分块组合策略有效地避免了样本表情种类不足的问题,能够组合出样本以外的风格表情.此外,该模型简单有效,能同时合成出表情种类的多样性和个体特性.  相似文献   

14.
This paper presents a novel approach for the generation of realistic speech synchronized 3D facial animation that copes with anticipatory and perseveratory coarticulation. The methodology is based on the measurement of 3D trajectories of fiduciary points marked on the face of a real speaker during the speech production of CVCV non-sense words. The trajectories are measured from standard video sequences using stereo vision photogrammetric techniques. The first stationary point of each trajectory associated with a phonetic segment is selected as its articulatory target. By clustering according to geometric similarity all articulatory targets of a same segment in different phonetic contexts, a set of phonetic context-dependent visemes accounting for coarticulation is identified. These visemes are then used to drive a set of geometric transformation/deformation models that reproduce the rotation and translation of the temporomandibular joint on the 3D virtual face, as well as the behavior of the lips, such as protrusion, and opening width and height of the natural articulation. This approach is being used to generate 3D speech synchronized animation from both natural and synthetic speech generated by a text-to-speech synthesizer.  相似文献   

15.
Given a person’s neutral face, we can predict his/her unseen expression by machine learning techniques for image processing. Different from the prior expression cloning or image analogy approaches, we try to hallucinate the person’s plausible facial expression with the help of a large face expression database. In the first step, regularization network based nonlinear manifold learning is used to obtain a smooth estimation for unseen facial expression, which is better than the reconstruction results of PCA. In the second step, Markov network is adopted to learn the low-level local facial feature’s relationship between the residual neutral and the expressional face image’s patches in the training set, then belief propagation is employed to infer the expressional residual face image for that person. By integrating the two approaches, we obtain the final results. The experimental results show that the hallucinated facial expression is not only expressive but also close to the ground truth.  相似文献   

16.
本文设计并实现了文本驱动的面部表情合成系统。本系统可以应用于聋哑人辅助教学。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号