导读:本文包含了人脸动画论文开题报告文献综述、选题提纲参考文献及外文文献翻译,主要关键词:动画,表情,模型,语音,参数,神经网络,虚拟现实。
人脸动画论文文献综述
闫衍芙,吕科,薛健,王聪,甘玮[1](2019)在《基于深度学习和表情AU参数的人脸动画方法》一文中研究指出为了利用计算机方便快捷地生成表情逼真的动漫人物,提出一种基于深度学习和表情AU参数的人脸动画生成方法.该方法定义了用于描述面部表情的24个面部运动单元参数,即表情AU参数,并利用卷积神经网络和FEAFA数据集构建和训练了相应的参数回归网络模型.在根据视频图像生成人脸动画时,首先从单目摄像头获取视频图像,采用有监督的梯度下降法对视频帧进行人脸检测,进而对得到的人脸表情图像准确地回归出表情AU参数值,将其视为叁维人脸表情基系数,并结合虚拟人物相对应的24个基础叁维表情形状和中立表情形状,在自然环境下基于表情融合变形模型驱动虚拟人物生成人脸动画.该方法省去了传统方法中的叁维重建过程,并且考虑了运动单元参数之间的相互影响,使得生成的人脸动画的表情更加自然、细腻.此外,基于人脸图像比基于特征点回归出的表情系数更加准确.(本文来源于《计算机辅助设计与图形学学报》期刊2019年11期)
李可[2](2019)在《人脸表情动画研究》一文中研究指出人脸表情动画技术作为计算机视觉和计算机图像学的热点研究课题,在动画、游戏等诸多产业都有着广阔的应用前景。混合表情模型可以简单高效地参数化表征网格模型的变形,是最常见的人脸表情动画制作方法。然而,该方法长期面临着两个复杂问题的挑战:一是如何高效的制作一组完备且真实的表情基模型,二是如何实时解析视频信号获得混合表情参数。针对以上两个问题,本文展开了如下工作:1、针对真实人物对人脸表情模型写实度要求较高的特点,实现了基于人脸重建技术的自动化表情基获取流程。具体实现方法为,首先使用多视点叁维重建技术获取亚毫米级精度人脸模型,然后使用非刚性迭代最近点算法对模型进行配准,获得均匀且统一的拓扑结构,最后使用变形迁移算法拆分表情模型得到一组完备且真实的表情基模型。2、针对风格化人物对人脸表情模型灵活度要求较高的特点,提出了基于绑定技术的高效表情基获取流程。具体实现方法为,首先创建科学合理的人脸骨骼层级结构,然后正确地分配顶点在不同关节点处的蒙皮权重,最后制作支持参数输入的用户控制界面。通过调整各骨骼变形器的参数,对网格模型进行灵活且参数化的变形,从而得到一组完备且符合风格化人物特点的表情基模型。3、为了实时地从视频图像中提取表情参数,使用了基于学习的表情系数求解方法。传统的基于优化算法的表情参数计算方法需要对表演者进行叁维建模,先通过优化表演者叁维特征点投影位置与输入图片检测到的特征点位置之间的误差函数计算得到特定用户的表情参数,然后通过表情克隆技术来实现人脸表情动画。与基于优化算法的方法不同,基于学习的表情参数计算方法不将表演者视为特定用户,无需进行叁维建模及额外的预处理。该方法首先基于人脸检测、人脸对齐算法获得人脸图像中关键点的位置,然后使用训练好的模型对关键点做表情分类和强度的回归得到动作单元参数,最后通过创建动作单元与表情基模型的映射关系实时解析视频信号获得表情参数。(本文来源于《南京大学》期刊2019-05-24)
肖磊[3](2019)在《语音驱动的高自然度人脸动画》一文中研究指出语音动画,旨在根据给定的语音序列,合成具有与其同步一致的唇部运动的人脸动画。自动化的语音动画合成,在现代电影工业及数字游戏等行业中具有重要的地位,对虚拟角色的构建与表达具有决定性的影响。此外,认知心理学的研究表明,相比于单一的听觉输入,听觉和视觉的多模态输入能够更有效地促进对语音信息的理解,但语音与唇部运动之间的不匹配,则会使得人们对自己所听到的内容产生怀疑甚至改变。因此,本文的目的在于设计一种新的语音驱动人脸动画合成方法,使合成的人脸动画具有与输入语音一致的唇部运动及高自然度的动画效果。针对叁维人脸动画系统,我们结合参数模型和形状融合模型进行设计,首先基于选定的发音器官控制点对人脸下半部分区域的运动进行参数化建模,实现对唇部及其附近区域的精细控制,并使下齿保持与唇部协调一致的运动;同时利用形状融合方法对参数模型生成的动画进行表情及面部微动作的编辑,并进一步将形状融合模型的个性化生成与参数模型的精细控制相结合,实现基于任意对象叁维人脸模型的高自然度动画生成。对于语音驱动的发音器官运动合成,我们将其显式分为特征提取、上下文编码及多分支解码叁部分,首先参考计算机视觉领域,利用稠密连接的卷积神经网络提取语音序列的泛化性特征;随后采用双向循环神经网络进行时序编码以实现对音素协同发音现象的有效建模;最后应用多域学习策略设计多分支输出结构以提高发音器官运动轨迹的合成精度。为了对语音驱动的高真实感视频进行生成,我们将人脸视频信息分解为表观信息和形状序列信息,先由语音生成叁维唇部运动,对其提取关键点并与选定对象的人脸关键点进行融合,随后编辑其头部姿态并进行轮廓拟合,从而得到所需的形状序列;其次,利用固定的参考图像基于设计的网络结构进行训练以提取相关的表观信息;最后,设计嵌套级联的生成器并采用空间与时间判别器对目标视频的生成进行训练,即可基于形状序列和参考图像生成相应的真实人脸视频。基于上述研究方法,本文设计并实现了一套完整的语音驱动人脸动画合成系统,能够基于给定的语音序列合成相应的叁维人脸动画,并进一步生成二维人脸视频。实验表明我们设计的系统具有良好的实用性,可应用于任意说话人的语音输入,并合成任意对象叁维人脸模型的与输入语音同步的高自然度人脸动画,且可以进而生成具有照片级真实感的时序相关的长时人脸视频。(本文来源于《中国科学技术大学》期刊2019-05-01)
任梦园[4](2019)在《基于人脸特征的叁维重建及脸部动画》一文中研究指出人脸的叁维重建技术以及脸部的动画技术是计算机图形学相关领域的重要研究。传统的人脸叁维重建技术主要是依靠价格昂贵的叁维扫描设备以及大量耗时的后期人工处理,并且需要被扫描的人物主体保持相当一段时间的固定姿态。近年来,由于计算机相关硬件的大规模计算能力的发展,特别是GPU和分布式计算的发展,使得拿出一个实时并且高效的解决方案成为了可能。目前国内外主要采用的方法可以大致分为以下几种类型:传统叁维人脸重建方法、基于二维图像的人脸叁维重建、基于深度相机的叁维重建、端到端的叁维人脸重建方法。近年来,学术界以及工业界在检测和识别相关领域都取得了较大的突破性发展,人体尤其是人脸的相关研究成为广受关注的研究课题,并且在实际生活中的场景也较为常用。人脸是人物个体最具有辨识度的部位,但是二维空间中人脸的特征普遍受到现实场景中光照、人脸的表情姿态、人脸的角度以及装扮遮挡等相关不确定因素的约束,因此在叁维空间中对人脸进行研究成为下一步的突破方向,本文基于此趋势,对叁维空间中的人脸进行了相关的研究。复杂的叁维空间结构特征以及脸部丰富的细微特征使人脸叁维重建以及相关脸部动画技术成为了计算机图形学相关领域的主要难题。本文通过对人脸二维图像关键点与人脸叁维模型关键点的映射关系的研究,并根据二维关键点计算叁维空间的变化量,从而重建并且逐渐优化人脸叁维模型。该论文的另一探索内容为脸部动画技术,主要分为:通过定制骨骼点驱动的方法以及通过blendshape计算个体系数以及表情系数的方法。本文基于以上的方法和算法,研究并且开发了相应的可直接操作的应用程序来展示研究成果。该程序在重建人脸模型的同时,并且加入自定义纹理,甚至细化到眼球,不同肤色,不同发型,不同光照。同时本文基于重建出的人脸模型,结合blendshape技术可以为人脸模型设置更加细微的姿态表情,构建同一主体的数据库,在原有数据广度的前提下丰富了数据的深度,该数据库可为人脸相关影视、游戏制作、虚拟现实、医疗美容等开发领域提供便捷丰富的实用性数据。结合计算机图形学相关技术,为丰富二维空间及叁维空间中人脸的研究,该论文的研究内容主要包括以下部分:基于二维图片的叁维人脸重建研究、blendshape技术的改进、脸部动画的探索。(本文来源于《电子科技大学》期刊2019-03-01)
伍菲[5](2018)在《结合人脸表情和变形技术的人脸卡通动画系统设计与实现》一文中研究指出针对实时生成人脸卡通动画的需求,设计和实现一种结合人脸表情与变形技术的人脸卡通动画系统。该系统包括人脸检测、特征点定位、人脸表情生成和人脸变形4个部分,首先,使用Haar特征和级联AdaBoost分类器检测人脸,并使用主动形状模型定位人脸特征点;然后,根据人脸特征和已有的卡通素材器官合成与真实人脸所对应的卡通人脸,并合成动态表情;最后,使用图像变形技术对人脸进行夸张变形处理,生成具有幽默、夸张效果的人脸图像。基于Matlab的实现效果表明,该系统能实时、高效地处理真实人脸图像。(本文来源于《现代电子技术》期刊2018年12期)
李欣怡,张志超[6](2017)在《语音驱动的人脸动画研究现状综述》一文中研究指出利用语音来驱动人脸动画,是虚拟现实(Virtual Reality)等领域重要的智能技术,近年来虚拟现实技术的飞速发展更进一步地突出了在沉浸环境下的人机自然交流的迫切需求。语音驱动的人脸动画技术能够创造出自然生动、带有情感的动画,相对于传统预设的人脸动画而言能够更好地辅助人机交互、提升用户体验。为推进该技术的智能化程度和应用,针对语音驱动人脸动画的关键问题:音视频映射,综述了逐帧分析、多帧分析和逐音素分析的映射方法,同时也梳理了多种脸部模型的思想,动画合成、情感融合、人脸动画评价的方法,及可能的研究发展方向。(本文来源于《计算机工程与应用》期刊2017年22期)
颜聪泉[7](2017)在《基于表演驱动的人脸动画生成系统研究》一文中研究指出基于表演驱动的人脸动画生成技术是一项根据表演者面部表演驱动虚拟人物做出相同头部姿态和面部表情的技术,可广泛地应用于影视制作、人机交互、游戏制作、远程会议、医疗辅助等领域,近年来一直是计算机视觉和计算机图形学的研究热点。目前,一些成熟的系统都有比较苛刻的使用条件,有的需要复杂昂贵的采集设备作为支撑,有的需要高性能计算机完成高额运算,难以推广到普通消费者中使用。本文旨在搭建一个实时、精确、消费级的表演驱动人脸动画生成系统,利用普通单目摄像头捕捉人脸表情,并将捕捉到的信息重定向到动画角色中。围绕系统的开发中的两大模块——人脸表情捕捉和人脸动画合成,本文主要工作内容和创新性成果如下:(1)对基于优化方法的快速叁维人脸建模算法提出了改进。为了去除用于合成的人脸模型张量中的冗余信息,提出用高阶奇异值分解(HOSVD)对张量进行压缩。针对手动标定误差影响残差物理含义的问题,根据不同人脸部位的标定特点,在能量方程中建立不同的残差模块。实验证明本文提出的改进有效提高了算法的精确度。(2)提出了基于随机森林特征提取的叁维表情捕捉算法,直接从二维图像中得到叁维人脸形状,解决了现有系统中捕捉设备复杂或计算量大的问题。该算法中利用随机森林提取联合局部二值特征并用于线性回归运算,提高了系统的精度。采用叁角重心坐标表达的形状索引NPD(Normalized Pixel Difference)特征作为森林中决策树的分裂依据,提高了对不同人脸姿态的鲁棒性。(3)针对不同驱动目标的人脸叁维结构,提出了基于叁角网格形变传递的动画驱动生成算法和基于Blendshape的动画驱动生成算法,提高了动画驱动的效率和真实度。并提出了增量权重法增强动画的稳定性,运用基于拉格朗日插值法提高动画帧率,有效改善了现有基于表演驱动的人脸动画生成系统中常见的抖动和帧率不足的问题。(本文来源于《浙江大学》期刊2017-03-01)
连晔[8](2017)在《基于单目视频的高质量人脸动画生成》一文中研究指出人脸动画在工业界有着广泛的应用,但传统人脸动画制作方法费时、费力、高成本,因此找到一个简单、方便、低成本的人脸动画制作方法具有重大意义。本文提出了一个基于单目视频的高质董人脸动画自动生成算法。该算法分为叁部分:人脸检测、人脸特征点追踪和高质量人脸动画生成。首先,基于哈尔(Haar-Like)特征和自适应增强(Adaboost)算法,用已有的人脸图像数据库,训练出级联人脸检测器。通过人脸检测器可以检测出视频帧中的人脸区域。在首次获取人脸区域后,我们通过人脸特征点定位算法定位人脸上一些重要的特征点(嘴角、眼角、鼻尖等)。人脸特征点定位算法是基于形状索引(Shape-Indexed)特征的双层增强回归(Two-Level Boosted Regression)算法。之后,基于人脸特征点和多线性人脸模型(Multilinear Facial Model)重建出人脸叁维形状与姿态。然后,通过明暗成形(Shapefrom Shading,SfS)算法重建出人脸精细局部形状(皱纹、褶皱等)。最后,将视频每帧的人脸精细局部形状信息应用到人脸叁维形状上,完成高质量人脸动画捕捉。(本文来源于《浙江大学》期刊2017-01-05)
蔡锐涛[9](2017)在《交互式人脸表情动画系统》一文中研究指出人脸是人类表达情感的重要部分。在计算机虚拟世界中,虚拟人脸是虚拟人表情达意的载体。随着计算机图形学技术的发展,使用计算机生成具有真实感的人脸表情动画成为计算机图形学领域中重要的研究课题。近几十年,研究者们围绕这一课题,进行了大量的研究工作,取得了丰硕的成果。叁维人脸表情动画技术被广泛应用于影视动画,游戏制作,虚拟现实,图片编辑,视频会议,在线教育,人机交互等众多领域中,具有很强的应用价值。在工业级的应用如影视动画制作中,通常使用一些高成本高精度的特殊采集设备,进行人脸的表情动画捕捉,这些特殊设备通常需要复杂的操作和高性能的计算,来精确的生成高度真实的人脸动画。但是对于普通用户来说,这些设备昂贵而且操作复杂。鉴此,本文旨在实用化前沿的技术,首先对人脸动画编码以及驱动技术进行深入研究,在人脸表情动画驱动技术上,采用基于偏移动态表情回归的人脸跟踪与动画方法;在人脸表情动画编码方式上,采用符合FACS标准的人脸表情融合模型;为了给特定人脸生成表情融合模型,实现了基于变形传递的表情融合模型自动生成算法;并最终构建交互式的人脸表情动画系统,系统支持骨骼动画和变形器动画,能够实时的将表演者的脸部表情映射到虚拟角色上,生成具有真实感的角色动画。本文构建的系统具有低成本、高质量、简单易用等特点。系统能够满足动画工作室进行大规模高品质的脸部动画制作的需求,突破传统的创作方式,可以让动画师们以更短的时间制作出更高的质量的人脸表情动画,并且系统可以兼容目前主流的叁维建模与动画软件。(本文来源于《浙江大学》期刊2017-01-01)
张满囤,霍江雷,单新媛,王小芳,吴鸿韬[10](2017)在《基于Kinect与网格几何变形的人脸表情动画》一文中研究指出面部表情重建的实时性与重建效果的真实性是人脸表情动画的关键问题,提出一种基于Kinect人脸追踪和几何变形技术的面部表情快速重建新方法。使用微软的Kinect设备识别出表演者面部并记录其特征点数据,并利用捕捉到的特征点建立覆盖人脸的网格模型,从中选取变形使用的控制点数据,由于Kinect可以实时地自动追踪表演者面部,由此实现了利用叁种不同变形算法对目标模型实时快速重建。实验结果表明,该方法简单易实施,不用在表演者面部做任何标定,可以自动地将人脸表情动作迁移到目标模型上,实现人脸表情快速重建,并且保证目标模型表情真实自然。(本文来源于《计算机工程与应用》期刊2017年14期)
人脸动画论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
人脸表情动画技术作为计算机视觉和计算机图像学的热点研究课题,在动画、游戏等诸多产业都有着广阔的应用前景。混合表情模型可以简单高效地参数化表征网格模型的变形,是最常见的人脸表情动画制作方法。然而,该方法长期面临着两个复杂问题的挑战:一是如何高效的制作一组完备且真实的表情基模型,二是如何实时解析视频信号获得混合表情参数。针对以上两个问题,本文展开了如下工作:1、针对真实人物对人脸表情模型写实度要求较高的特点,实现了基于人脸重建技术的自动化表情基获取流程。具体实现方法为,首先使用多视点叁维重建技术获取亚毫米级精度人脸模型,然后使用非刚性迭代最近点算法对模型进行配准,获得均匀且统一的拓扑结构,最后使用变形迁移算法拆分表情模型得到一组完备且真实的表情基模型。2、针对风格化人物对人脸表情模型灵活度要求较高的特点,提出了基于绑定技术的高效表情基获取流程。具体实现方法为,首先创建科学合理的人脸骨骼层级结构,然后正确地分配顶点在不同关节点处的蒙皮权重,最后制作支持参数输入的用户控制界面。通过调整各骨骼变形器的参数,对网格模型进行灵活且参数化的变形,从而得到一组完备且符合风格化人物特点的表情基模型。3、为了实时地从视频图像中提取表情参数,使用了基于学习的表情系数求解方法。传统的基于优化算法的表情参数计算方法需要对表演者进行叁维建模,先通过优化表演者叁维特征点投影位置与输入图片检测到的特征点位置之间的误差函数计算得到特定用户的表情参数,然后通过表情克隆技术来实现人脸表情动画。与基于优化算法的方法不同,基于学习的表情参数计算方法不将表演者视为特定用户,无需进行叁维建模及额外的预处理。该方法首先基于人脸检测、人脸对齐算法获得人脸图像中关键点的位置,然后使用训练好的模型对关键点做表情分类和强度的回归得到动作单元参数,最后通过创建动作单元与表情基模型的映射关系实时解析视频信号获得表情参数。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
人脸动画论文参考文献
[1].闫衍芙,吕科,薛健,王聪,甘玮.基于深度学习和表情AU参数的人脸动画方法[J].计算机辅助设计与图形学学报.2019
[2].李可.人脸表情动画研究[D].南京大学.2019
[3].肖磊.语音驱动的高自然度人脸动画[D].中国科学技术大学.2019
[4].任梦园.基于人脸特征的叁维重建及脸部动画[D].电子科技大学.2019
[5].伍菲.结合人脸表情和变形技术的人脸卡通动画系统设计与实现[J].现代电子技术.2018
[6].李欣怡,张志超.语音驱动的人脸动画研究现状综述[J].计算机工程与应用.2017
[7].颜聪泉.基于表演驱动的人脸动画生成系统研究[D].浙江大学.2017
[8].连晔.基于单目视频的高质量人脸动画生成[D].浙江大学.2017
[9].蔡锐涛.交互式人脸表情动画系统[D].浙江大学.2017
[10].张满囤,霍江雷,单新媛,王小芳,吴鸿韬.基于Kinect与网格几何变形的人脸表情动画[J].计算机工程与应用.2017