共查询到20条相似文献,搜索用时 14 毫秒
1.
描述了一种实时的视频驱动的人脸动画合成系统.通过该系统,用户只要在摄像头前面表演各种脸部动作,就可以控制虚拟人脸的表情.首先,建立一个基于肌肉的三维人脸模型,并使用肌肉激励参数控制人脸形变.为提高人脸动画的真实感,将口轮匝肌分解为外圈和内圈两部分,同时建立脸部形变与下颌转动的关系.然后,使用一种实时的特征点跟踪算法跟踪视频中人脸的特征点.最后,将视频跟踪结果转换为肌肉激励参数以驱动人脸动画.实验结果表明,该系统能实时运行,合成的动画也具有较强真实感.与大部分现有的视频驱动的人脸动画方法相比,该系统不需要使用脸部标志和三维扫描设备,极大地方便了用户使用. 相似文献
2.
Kinect驱动的人脸动画合成技术研究 总被引:1,自引:0,他引:1
三维人脸动画合成技术可以应用于虚拟现实、角色控制等多个领域。为此,提出一种基于Kinect的人脸动画合成方法。人脸跟踪客户端利用Kinect对用户的脸部表情进行跟踪识别,得到人脸表情动画参数,通过socket发送给人脸动画合成服务器,由人脸动画合成服务器查找基于MPEG-4标准的人脸动画定义表,控制人脸模型的变形,从而实时合成与用户表情相对应的三维人脸动画。实验结果表明,该方法能够在满足实时性要求的条件下合成高质量的三维人脸动画,同现有技术相比,结构简单、容易部署且具有较好的可扩展性。 相似文献
3.
提出了一种人脸表情动画合成方法,该方法以人工心理模型输出概率值作为权重向量,通过因素加权综合法,控制表情动画模型参数。实验结果表明,该方法实现了心理状态对表情的实时驱动,合成的人脸表情动画真实、自然。 相似文献
4.
提出了一种实现语音直接驱动人脸唇形动画的新方法。结合人脸唇部运动机理,建立了与唇部运动相关肌肉拉伸和下颌转动的唇形物理模型,对输入的语音信号进行分析和提取其与唇部运动相关的特征参数,并直接将其映射到唇形物理模型的控制参数上,驱动唇形动画变形,实现输入语音和唇形动画的实时同步。仿真实验结果表明,该方法有效实现了语音和唇形的实时同步,唇形动画效果更接近自然,真实感更强。且该唇形物理模型独立于人脸几何模型,可广泛应用于各类人脸唇形动画的语音驱动,具有良好的普适性和可扩展性。 相似文献
5.
本文从人脸动画合成技术的发展、特点及应用出发,介绍了人脸动画系统中的核心技术,并对基于参数的控制方法和基于数据驱动的方法进行了对比分析,展望了人脸动画合成技术的发展方向与应用前景。 相似文献
6.
林凡 《计算机光盘软件与应用》2012,(15):191-192
人脸表情动画是计算机图形学的重要研究领域之一,在影视和游戏中的虚拟人的应用促进了它的发展,它主要研究若干种典型表情的产生以及利用已有表情产生中间过渡表情。本文主要介绍了表情动画的研究现状,并且设计实现了基于文本驱动的人脸表情变化系统。 相似文献
7.
基于机器学习的语音驱动人脸动画方法 总被引:19,自引:0,他引:19
语音与唇动面部表情的同步是人脸动画的难点之一.综合利用聚类和机器学习的方法学习语音信号和唇动面部表情之间的同步关系,并应用于基于MEPG-4标准的语音驱动人脸动画系统中.在大规模音视频同步数据库的基础上,利用无监督聚类发现了能有效表征人脸运动的基本模式,采用神经网络学习训练,实现了从含韵律的语音特征到人脸运动基本模式的直接映射,不仅回避了语音识别鲁棒性不高的缺陷,同时学习的结果还可以直接驱动人脸网格.最后给出对语音驱动人脸动画系统定量和定性的两种分析评价方法.实验结果表明,基于机器学习的语音驱动人脸动画不仅能有效地解决语音视频同步的难题,增强动画的真实感和逼真性,同时基于MPEG-4的学习结果独立于人脸模型,还可用来驱动各种不同的人脸模型,包括真实视频、2D卡通人物以及3维虚拟人脸. 相似文献
8.
利用语音来驱动人脸动画,是虚拟现实(Virtual Reality)等领域重要的智能技术,近年来虚拟现实技术的飞速发展更进一步地突出了在沉浸环境下的人机自然交流的迫切需求。语音驱动的人脸动画技术能够创造出自然生动、带有情感的动画,相对于传统预设的人脸动画而言能够更好地辅助人机交互、提升用户体验。为推进该技术的智能化程度和应用,针对语音驱动人脸动画的关键问题:音视频映射,综述了逐帧分析、多帧分析和逐音素分析的映射方法,同时也梳理了多种脸部模型的思想,动画合成、情感融合、人脸动画评价的方法,及可能的研究发展方向。 相似文献
9.
针对语音驱动人脸动画中如何生成随语音运动自然呈现的眨眼、抬眉等表情细节以增强虚拟环境的沉浸感的问题,提出一种可以合成表情细节的语音驱动人脸动画方法.该方法分为训练与合成2个阶段.在训练阶段,首先对富有表情的三维人脸语音运动捕获数据特征进行重采样处理,降低训练数据量以提升训练效率,然后运用隐马尔可夫模型(HMM)学习表情人脸语音运动和同步语音的关系,同时统计经过训练的HMM在训练数据集上的合成余量;在合成阶段,首先使用经过训练的HMM从新语音特征中推断与之匹配的表情人脸动画,在此基础上,根据训练阶段计算的合成余量增加表情细节.实验结果表明,文中方法比已有方法计算效率高,合成的表情细节通过了用户评价验证. 相似文献
10.
11.
12.
本文采用多层前馈神经网络,对汉语中的声母和韵母的发音唇型参数及其相应的语音参数之间的映射进行了研究.通过实验,对于在进行语音参数和唇型参数的映射研究中,选择哪种语音参数更为合适进行了分析.最后,把该网络应用于一个人脸合成系统.该系统能够实时地合成和语音同步而且较为自然的唇型. 相似文献
13.
通用视频编码系统一般基于标准视频压缩算法, 比如 MPEG4 和 H.264。但这些标准算法包括如离散余弦变换和运动估计等高复杂度的计算,所以为了实现实时通信,编码系统通常采用以硬件为基础的实现方法。然而以硬件为基础的视频编码系统具有实施周期长、成本高、灵活性差等不足。文章介绍了一种基于低计算复杂度自适应块截短编码方案的数据驱动并行视频编码系统,实验结果验证了编码系统的有效性。 相似文献
14.
提出了一种基于小波变换的人脸语音动画合成的平滑方法:将小波变换与数学形态学相结合,从相应音素的图像帧中提取出特征区域的边缘,实现特征点的精确定位。在此基础上进一步对相应区域进行三角剖分,通过前后两帧图像之间的变形产生中间帧,最终合成较为平滑、真实的人脸语音动画效果。 相似文献
15.
16.
17.
为了重用视频内容中的表情信息,提出一种语义表情构造与语义表情参数优化方法.首先从带有噪声的稀疏特征点中定义出人脸表情的语义信息;然后在语义表情空间中优化求解出最优表情参数,以提高人脸动画的真实感.该方法既不需要标定相机参数,也不需要预先建立表演者的3D人脸模型及其表情基,因此除了可用于网络视频的表情重用,也可用于开发实时在线的网络社交等应用.实验结果表明,对于头部摆动的俯仰角和侧角在[?15?,15?]范围内的原始视频,文中方法能够实时合成稳定、逼真的表情动画. 相似文献
18.
为了由视频进行驱动生成人脸表情动画,提出一种表演驱动的二维人脸表情合成方法。利用主动外观模型算法对人脸的关键点进行定位,并从关键点提取出人脸的运动参数;对人脸划分区域,并获取目标人脸的若干样本图像;从人脸的运动参数获取样本图像的插值系数,对样本图像进行线性组合来合成目标人脸的表情图像。该方法具有计算简单有效、真实感强的特点,可以应用于数字娱乐、视频会议等领域。 相似文献
19.
20.
为将语音信号转化为嘴唇动画,最大限度的使嘴唇曲线自然协调,合成较为真实的嘴唇动画,提出了一种基于弗格森函数添加嘴唇特征点的方法,弥补了MPEG-4(Moving Pictures Experts Group-4)标准人脸特征点中嘴唇特征点数量不足的情况;此外建立了含有视位参数的动画模型,并基于声母韵母建立语音和动画的映... 相似文献