一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

表情动画制作方法及装置、存储介质、计算机设备与流程

2022-04-09 12:04:08 来源:中国专利 TAG:


1.本技术涉及动画制作技术领域,尤其是涉及到一种表情动画制作方法及装置、存储介质、计算机设备。


背景技术:

2.在游戏或动画制作中,为了使虚拟角色的表情更加真实,一般是采用实时面部表情动捕技术追踪模特的面部表情,并利用得到面部表情的参数来驱动虚拟角色的面部表情。在现有技术中,面部表情的参数通常是通过追踪基础头部模型的面部关键点来确定。而为了表现生动的动画效果,在动画制作时,通常基于基础头部模型和附加头部模型的组合进行动画制作,将采集的面部表情烘焙到组合模型中,技术人员再通过手动方式对表情动画进行修复,由于各模型的独立的,需要对多个模型的参数数值进行分别修改,工作量大且容易出错。


技术实现要素:

3.有鉴于此,本技术提供了一种表情动画制作方法及装置、存储介质、计算机设备。
4.根据本技术的一个方面,提供了一种表情动画制作方法,包括:
5.绑定表情控制器与目标角色模型,其中,所述目标角色模型包括多个第一表情单元;
6.获取所述目标角色模型对应的第一附带模型,将所述第一附带模型的骨骼关联至所述表情控制器中;
7.获取动作捕捉模型根骨骼上的第一表情关键帧,依据所述动作捕捉模型根骨骼,设定所述表情控制器中所述目标角色模型的目标根骨骼,并基于所述目标根骨骼,将所述第一表情关键帧烘焙到所述表情控制器中;
8.通过所述表情控制器依据所述第一表情关键帧驱动所述目标角色模型的第一表情单元,得到所述目标角色模型对应的第二表情关键帧,并将所述第二表情关键帧烘焙到所述目标角色模型上,得到目标角色表情动画数据。
9.可选地,所述基于所述目标根骨骼,将所述第一表情关键帧烘焙到所述表情控制器中之后,所述方法还包括:
10.导入所述目标角色模型对应的第二附带模型,其中,所述第二附带模型包括眉毛模型、睫毛模型以及泪腺模型中至少一个;
11.基于所述第一表情单元,对所述目标角色模型和所述第二附带模型进行网格体获取,得到与所述第一表情单元一一对应的多个表情单元网格体,并对所述表情单元网格体进行合并,得到一组附带多个所述第一表情单元的目标网格体;
12.将所述目标网格体关联至所述目标角色模型中,以将所述第一表情单元变更为所述目标网格体对应的第二表情单元。
13.可选地,所述通过所述表情控制器依据所述第一表情关键帧驱动所述目标角色模
型的第一表情单元,得到所述目标角色模型对应的第二表情关键帧,具体包括:
14.通过所述表情控制器依据所述第一表情关键帧驱动所述目标角色模型的第二表情单元,得到所述目标角色模型对应的第二表情关键帧。
15.可选地,所述第二附带模型包括多个;所述导入所述目标角色模型对应的第二附带模型,具体包括:
16.导入所述第二附带模型中的一个,并标记已导入的模型;
17.所述将所述目标网格体关联至所述目标角色模型中,以将所述第一表情单元变更为所述目标网格体对应的第二表情单元之后,所述方法还包括:
18.将未导入的所述第二附带模型中的一个进行导入;
19.基于所述第二表情单元,对所述目标角色模型和当前导入的所述第二附带模型进行网格体导出,得到与所述第二表情单元一一对应的多个新的表情单元网格体;
20.导入多个所述新的表情单元网格体,并对所述新的表情单元网格体进行合并,得到一组附带多个所述第一表情单元的新的目标网格体;
21.将所述新的目标网格体关联至所述目标角色模型中,以依据所述新的目标网格体对所述第二表情单元进行更新,并返回继续对未导入的所述第二附带模型进行导入,直至全部的所述第二附带模型均完成导入。
22.可选地,所述第一附带模型的骨骼包括眼球骨骼;所述将所述第一附带模型的骨骼关联至所述表情控制器中,具体包括:
23.将所述眼球骨骼链接到所述表情控制器上;
24.设置所述眼球骨骼的旋转轴以及旋转幅度阈值,以使所述眼球骨骼受所述表情控制器驱动。
25.可选地,所述设置所述眼球骨骼的旋转轴,具体包括:
26.在所述表情控制器中将所述眼球骨骼的水平方向旋转轴设置为y轴;和/或,
27.选择所述眼球骨骼,打开旋转控制器,控制所述眼球骨骼在竖直方向动作,并根据所述旋转控制器中数值产生变化的坐标轴,在所述表情控制器中设置所述眼球骨骼的竖直方向旋转轴。
28.可选地,所述第一附带模型对应的骨骼数量小于或等于预设骨骼数量,所述第二附带模型对应的骨骼数量大于所述预设骨骼数量。
29.可选地,所述将所述第二表情关键帧烘焙到所述目标角色模型上,得到目标角色表情动画数据之前,所述方法还包括:
30.接收对所述第二表情关键帧的修改指令;
31.基于所述修改指令,对所述目标角色模型进行预处理,并基于预处理后的所述目标角色模型,对所述第二表情关键帧对应的表情单元参数进行修改,其中,对所述目标角色模型的预处理包括以下至少一种:对所述表情单元参数执行逆向导出、对所述表情单元参数进行初始化、按预设方式对附带所述表情单元参数的所述目标角色模型进行排列、对附带所述表情单元参数的所述目标角色模型进行坐标统一。
32.根据本技术的另一方面,提供了一种表情动画制作装置,包括:
33.控制器绑定模块,用于绑定表情控制器与目标角色模型,其中,所述目标角色模型包括多个第一表情单元;
34.第一关联模块,用于获取所述目标角色模型对应的第一附带模型,将所述第一附带模型的骨骼关联至所述表情控制器中;
35.表情烘焙模块,用于获取动作捕捉模型根骨骼上的第一表情关键帧,依据所述动作捕捉模型根骨骼,设定所述表情控制器中所述目标角色模型的目标根骨骼,并基于所述目标根骨骼,将所述第一表情关键帧烘焙到所述表情控制器中;
36.动画生成模块,用于通过所述表情控制器依据所述第一表情关键帧驱动所述目标角色模型的第一表情单元,得到所述目标角色模型对应的第二表情关键帧,并将所述第二表情关键帧烘焙到所述目标角色模型上,得到目标角色表情动画数据。
37.可选地,所述装置还包括:
38.第二关联模块,用于所述基于所述目标根骨骼,将所述第一表情关键帧烘焙到所述表情控制器中之后,导入所述目标角色模型对应的第二附带模型,其中,所述第二附带模型包括眉毛模型、睫毛模型以及泪腺模型中至少一个;基于所述第一表情单元,对所述目标角色模型和所述第二附带模型进行网格体获取,得到与所述第一表情单元一一对应的多个表情单元网格体,并对所述表情单元网格体进行合并,得到一组附带多个所述第一表情单元的目标网格体;将所述目标网格体关联至所述目标角色模型中,以将所述第一表情单元变更为所述目标网格体对应的第二表情单元。
39.可选地,所述动画生成模块,具体用于:通过所述表情控制器依据所述第一表情关键帧驱动所述目标角色模型的第二表情单元,得到所述目标角色模型对应的第二表情关键帧。
40.可选地,所述第二关联模块,具体用于:导入所述第二附带模型中的一个,并标记已导入的模型;
41.所述第二关联模块,还用于:将未导入的所述第二附带模型中的一个进行导入;基于所述第二表情单元,对所述目标角色模型和当前导入的所述第二附带模型进行网格体导出,得到与所述第二表情单元一一对应的多个新的表情单元网格体;导入多个所述新的表情单元网格体,并对所述新的表情单元网格体进行合并,得到一组附带多个所述第一表情单元的新的目标网格体;将所述新的目标网格体关联至所述目标角色模型中,以依据所述新的目标网格体对所述第二表情单元进行更新,并返回继续对未导入的所述第二附带模型进行导入,直至全部的所述第二附带模型均完成导入。
42.可选地,所述第一附带模型的骨骼包括眼球骨骼;所述第一关联模块,具体用于:将所述眼球骨骼链接到所述表情控制器上;设置所述眼球骨骼的旋转轴以及旋转幅度阈值,以使所述眼球骨骼受所述表情控制器驱动。
43.可选地,所述第一关联模块,具体用于:
44.在所述表情控制器中将所述眼球骨骼的水平方向旋转轴设置为y轴;和/或,选择所述眼球骨骼,打开旋转控制器,控制所述眼球骨骼在竖直方向动作,并根据所述旋转控制器中数值产生变化的坐标轴,在所述表情控制器中设置所述眼球骨骼的竖直方向旋转轴。
45.可选地,所述第一附带模型对应的骨骼数量小于或等于预设骨骼数量,所述第二附带模型对应的骨骼数量大于所述预设骨骼数量。
46.可选地,所述装置还包括:表情修改模块,用于:
47.所述将所述第二表情关键帧烘焙到所述目标角色模型上,得到目标角色表情动画
数据之前,接收对所述第二表情关键帧的修改指令;
48.基于所述修改指令,对所述目标角色模型进行预处理,并基于预处理后的所述目标角色模型,对所述第二表情关键帧对应的表情单元参数进行修改,其中,对所述目标角色模型的预处理包括以下至少一种:对所述表情单元参数执行逆向导出、对所述表情单元参数进行初始化、按预设方式对附带所述表情单元参数的所述目标角色模型进行排列、对附带所述表情单元参数的所述目标角色模型进行坐标统一。
49.依据本技术又一个方面,提供了一种存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述表情动画制作方法。
50.依据本技术再一个方面,提供了一种计算机设备,包括存储介质、处理器及存储在存储介质上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述表情动画制作方法。
51.借由上述技术方案,本技术提供的一种表情动画制作方法及装置、存储介质、计算机设备,将目标角色模型与表情控制器进行绑定后,将目标角色模型对应的第一附带模型的骨骼关联到表情控制器中,以使第一附带模型与目标角色模型可以在表情控制器的驱动下产生联动变化,设定与捕捉模型根骨骼匹配的目标角色模型的目标根骨骼,将动作捕捉系统采集的第一表情关键帧烘焙到表情控制器中,通过表情控制器驱动产生目标角色模型的第二表情关键帧,最后将第二表情关键帧烘焙到目标角色模型中,得到动画数据。本技术实施例相比于现有技术中组合模型的方式,通过表情控制器将基础的目标角色模型与更丰富的第一附带模型进行关联,以使目标角色模型的各表情单元与第一附带模型的骨骼能够在表情控制器的驱动下产生联动,有助于减少表情修复的工作量,以及提升表情修复的正确率和效率。
52.上述说明仅是本技术技术方案的概述,为了能够更清楚了解本技术的技术手段,而可依照说明书的内容予以实施,并且为了让本技术的上述和其它目的、特征和优点能够更明显易懂,以下特举本技术的具体实施方式。
附图说明
53.此处所说明的附图用来提供对本技术的进一步理解,构成本技术的一部分,本技术的示意性实施例及其说明用于解释本技术,并不构成对本技术的不当限定。在附图中:
54.图1示出了本技术实施例提供的一种表情动画制作方法的流程示意图;
55.图2示出了本技术实施例提供的另一种表情动画制作方法的流程示意图;
56.图3示出了本技术实施例提供的一种表情动画制作装置的结构示意图。
具体实施方式
57.下文中将参考附图并结合实施例来详细说明本技术。需要说明的是,在不冲突的情况下,本技术中的实施例及实施例中的特征可以相互组合。
58.在本实施例中提供了一种表情动画制作方法,如图1所示,该方法包括:
59.步骤101,绑定表情控制器与目标角色模型,其中,所述目标角色模型包括多个第一表情单元;
60.本技术实施例中,目标角色模型具体为包含多个第一表情单元的游戏角色模型或
动画角色模型,目标角色模型可以只包含角色的头部模型,也可以包含头部模型以及身体其他部分的模型。另外,在具体应用场景中,表情单元具体可以为maya软件(maya软件是autodesk旗下的著名三维建模和动画软件))中的blendshape,blendshape指模型顶点动画的变形目标,可以在不绑定骨骼的前提下使角色模型顶点按照指定好的变形目标发生位移,例如,第一表情单元具体可以为51个arkit(arkit是苹果在2017年wwdc推出的ar开发平台)对应的变形目标。本技术实施例可以利用maya软件进行动画制作,将附带多个第一表情单元的目标角色模型导入到软件中,之后选择关联表情控制器的选项,将目标角色模型和第一表情单元的参数绑定到表情控制器上,绑定后可以实现通过表情控制器调整模型的表情。
61.步骤102,获取所述目标角色模型对应的第一附带模型,将所述第一附带模型的骨骼关联至所述表情控制器中;
62.本技术实施例中,为解决多个模型组合导致的无法联动修复表情的问题,对于通过骨骼驱动的第一附带模型,可以将第一附带模型的骨骼关联到表情控制器中,将第一附带模型的骨骼与表情控制器进行绑定,绑定完成后,就可以通过表情控制器来控制第一附带模型的骨骼以及与第一附带模型相关的第一表情单元。例如第一附带模型可以是眼球模型,眼皮会跟随眼球产生运动,绑定后表情控制器可以控制51个blendshape中眼皮跟随眼球运动的相关8个blendshape,从而动画制作人员对眼球动画进行修改时,这8个与眼球运动相关的blendshape也会在绑定关系的联动下产生适应性的修改。
63.步骤103,获取动作捕捉模型根骨骼上的第一表情关键帧,依据所述动作捕捉模型根骨骼,设定所述表情控制器中所述目标角色模型的目标根骨骼,并基于所述目标根骨骼,将所述第一表情关键帧烘焙到所述表情控制器中;
64.通过动作捕捉系统进行表情动画录制,在具体应用场景中,为使录制的表情动画与目标角色模型的表情单元匹配,可以先将目标角色模型导入动作捕捉系统中作为捕捉模型,用捕捉模型替换动作捕捉系统中原有的角色模型,接着开始对镜头前的人脸表情进行采集,一般情况下录制动画的blendshape关键帧会保存在捕捉模型的根骨骼上,表情录制后得到的fbx文件中,捕捉模型根骨骼会有51个blendshape的表情关键帧,即第一表情关键帧,这些帧可以烘焙到表情控制器上。具体可以先在软件中指定目标角色模型的目标根骨骼,指定的目标根骨骼具体与动作捕捉系统中保存关键帧的捕捉模型根骨骼对应,设定模型的目标根骨骼后,可以基于设定的目标根骨骼将第一表情关键帧烘焙到表情控制器中,以便通过表情控制器对录制得到的表情关键帧进行修改。
65.步骤104,通过所述表情控制器依据所述第一表情关键帧驱动所述目标角色模型的第一表情单元,得到所述目标角色模型对应的第二表情关键帧,并将所述第二表情关键帧烘焙到所述目标角色模型上,得到目标角色表情动画数据。
66.在该实施例中,将第一表情关键帧烘焙到表情控制器之后,表情控制器可以按照第一表情关键帧驱动目标角色模型对应的各变形目标,第一附带模型对应的骨骼基于与表情控制器的关联关系,协同各变形目标产生表情变化,得到与目标角色模型及第一附带模型匹配的第二表情关键帧,最后再将第二表情关键帧烘焙到目标角色模型上,并导出目标角色表情动画数据,供动画引擎进行动画制作。通过表情控制器关联第一附带模型,以使表情控制器可以同时驱动目标角色模型和第一附带模型,解决了表情动画不准确的问题。
67.另外,步骤104中得到第二表情关键帧后,技术人员可以对第二表情关键帧进行修复,以使第二表情关键帧呈现更符合技术人员需求的表现效果,之后再将修复后的关键帧烘焙到目标角色模型上,并修复好的目标角色的表情动画数据至动画引擎,以供动画引擎制作该目标角色的表情动画,提升表情动画表现效果,并且可以基于表情控制器对表情动画进行可视化修复,提升了修复效率。
68.通过应用本实施例的技术方案,将目标角色模型与表情控制器进行绑定后,将目标角色模型对应的第一附带模型的骨骼关联到表情控制器中,以使第一附带模型与目标角色模型可以在表情控制器的驱动下产生联动变化,设定与捕捉模型根骨骼匹配的目标角色模型的目标根骨骼,将动作捕捉系统采集的第一表情关键帧烘焙到表情控制器中,通过表情控制器驱动产生目标角色模型的第二表情关键帧,最后将第二表情关键帧烘焙到目标角色模型中,得到动画数据。本技术实施例相比于现有技术中组合模型的方式,通过表情控制器将基础的目标角色模型与更丰富的第一附带模型进行关联,以使目标角色模型的各表情单元与第一附带模型的骨骼能够在表情控制器的驱动下产生联动,有助于减少表情修复的工作量,以及提升表情修复的正确率和效率。
69.进一步的,作为上述实施例具体实施方式的细化和扩展,为了完整说明本实施例的具体实施过程,提供了另一种表情动画制作方法,如图2所示,该方法包括:
70.步骤201,绑定表情控制器与目标角色模型,其中,所述目标角色模型包括多个第一表情单元。
71.步骤202,获取所述目标角色模型对应的第一附带模型,其中,所述第一附带模型的骨骼包括眼球骨骼;将所述眼球骨骼链接到所述表情控制器上;设置所述眼球骨骼的旋转轴以及旋转幅度阈值,以使所述眼球骨骼受所述表情控制器驱动。
72.在本技术实施例中,如果第一附带模型是骨骼驱动的,可以通过链接控制器与第一附带模型的骨骼的方式,关联目标角色模型和第一附带模型。例如第一附带模型可以为眼球模型,第一附带模型的骨骼可以为眼球骨骼。在软件中分别选择左右眼骨骼名称,将眼球骨骼连接到表情控制器上,并设置眼球上下左右的旋转轴和旋转幅度阈值,以实现通过表情控制器驱动眼球骨骼和目标角色模型产生联动。
73.可选地,步骤202中“设置所述眼球骨骼的旋转轴”具体包括:在所述表情控制器中将所述眼球骨骼的水平方向旋转轴设置为y轴;和/或,选择所述眼球骨骼,打开旋转控制器,控制所述眼球骨骼在竖直方向动作,并根据所述旋转控制器中数值产生变化的坐标轴,在所述表情控制器中设置所述眼球骨骼的竖直方向旋转轴。
74.在本技术实施例中,旋转轴根据目标角色模型的朝向设定,一般情况下,模型会垂直摆放,左右看的旋转轴,即水平方向的旋转轴,可以设置为y轴。上下看的旋转轴,可以借助旋转控制器来确定,具体可以点击眼球骨骼,并打开旋转控制器,操作眼球上下看,观察x、y、z轴中哪个轴有数值变化,将产生数值变化的坐标轴确定为竖直方向旋转轴,进而在表情控制器中设置眼球骨骼在竖直方向上的旋转轴。
75.步骤203,获取动作捕捉模型根骨骼上的第一表情关键帧,依据所述动作捕捉模型根骨骼,设定所述表情控制器中所述目标角色模型的目标根骨骼,并基于所述目标根骨骼,将所述第一表情关键帧烘焙到所述表情控制器中。
76.动作捕捉系统采集人脸表情后,读取保存在捕捉模型根骨骼上的第一表情关键
帧,并依据捕捉模型根骨骼设定目标角色模型的目标根骨骼,进而基于设定的根骨骼将第一表情关键帧烘焙到表情控制器中。
77.步骤204,导入所述目标角色模型对应的第二附带模型,其中,所述第二附带模型包括眉毛模型、睫毛模型以及泪腺模型中至少一个;基于所述第一表情单元,对所述目标角色模型和所述第二附带模型进行网格体获取,得到与所述第一表情单元一一对应的多个表情单元网格体,并对所述表情单元网格体进行合并,得到一组附带多个所述第一表情单元的目标网格体;将所述目标网格体关联至所述目标角色模型中,以将所述第一表情单元变更为所述目标网格体对应的第二表情单元。
78.在本技术实施例中,为丰富动画表现效果,还可以为目标角色模型添加第二附带模型,例如眉毛模型、睫毛模型、泪腺模型等等。可选地。所述第一附带模型对应的骨骼数量小于或等于预设骨骼数量,所述第二附带模型对应的骨骼数量大于所述预设骨骼数量。
79.在实际应用场景中,对于骨骼数量较少的附带模型可以通过骨骼关联的方式,将模型对应的骨骼关联到表情控制器中,以实现附带模型和目标角色模型的绑定,以使在表情控制器的驱动下附带模型与目标角色模型产生联动。而对于骨骼数量较多的附带模型,为了提升运行效率,本技术实施例可以采用步骤204的方式进行模型添加。
80.在步骤204中,选择目标角色模型的第二附带模型,通过加选的方式导入第二附带模型,具体可以点击软件中的“导入所选模型”的选项,并勾选“加选”选项,或取消勾选“group”选项。将第二附带模型导入后,点击导出为obj,将目标角色模型和第二附带模型进行网格体导出,导出至预先指定的临时存储obj的文件夹,导出后该文件夹下存储有与目标角色模型和第二附带模型对应的多组表情单元网格体mesh,每组mesh对应一个第一表情单元。进一步,再点击导入为obj,将刚刚生成的多组mesh导入到软件中。导入完成后,各表情单元网格体mesh是以组的形式独立存在的,可以将各组mesh合并为一组带有多个第一表情单元的目标网格体。将最终得到的一组目标网格体关联到目标角色模型中,以使模型中的第一表情单元基于目标网格体变更为第二表情单元,使得最终的目标角色模型中第二表情单元的顶点位置与初始的目标角色模型、第一附带模型、第二附带模型均匹配,在软件中通过表情控制器可以实现对各模型的联动驱动、联动修改。
81.可选地,所述第二附带模型包括多个的情况下;步骤204中“导入所述目标角色模型对应的第二附带模型”,具体包括:通过加选方式,导入所述第二附带模型中的一个,并标记已导入的模型;
82.步骤204之后,还包括:
83.s1,通过加选方式,将未导入的所述第二附带模型中的一个进行导入;
84.s2,基于所述第二表情单元,对所述目标角色模型和当前导入的所述第二附带模型进行网格体导出,得到与所述第二表情单元一一对应的多个新的表情单元网格体;
85.s3,导入多个所述新的表情单元网格体,并对所述新的表情单元网格体进行合并,得到一组附带多个所述第一表情单元的新的目标网格体;
86.s4,将所述新的目标网格体关联至所述目标角色模型中,以依据所述新的目标网格体对所述第二表情单元进行更新,并返回继续对未导入的所述第二附带模型进行导入,直至全部的所述第二附带模型均完成导入。
87.在上述实施例中,在第二附带模型包括多个的情况下,可以对多个第二附带模型
进行逐个导入,具体可以对已导入的第二附带模型进行标记,一个第二附带模型关联至目标角色模型后,将关联后的模型作为新的目标角色模型,重复执行上述操作,直到全部第二附带模型均完成导入为止。在具体应用场景中,将目标网格体关联到目标角色模型后,继续以加选的方式导入下一个第二附带模型,将该第二附带模型导入后,点击导出为obj,将目标角色模型和该第二附带模型进行网格体导出,导出至预先指定的临时存储obj的文件夹,导出后该文件夹下存储有与目标角色模型和该第二附带模型对应的多组表情单元网格体mesh,每组mesh对应一个第一表情单元。进一步,再点击导入为obj,将刚刚生成的多组mesh导入到软件中。导入完成后,各表情单元网格体mesh是以组的形式独立存在的,可以将各组mesh合并为一组带有多个第二表情单元的目标网格体。将最终得到的一组目标网格体关联到目标角色模型中,以对模型中的第二表情单元进行更新,使其与新的目标网格体匹配。
88.步骤205,通过所述表情控制器依据所述第一表情关键帧驱动所述目标角色模型的第二表情单元,得到所述目标角色模型对应的第二表情关键帧,并将所述第二表情关键帧烘焙到所述目标角色模型上,得到目标角色表情动画数据。
89.本技术实施例中,还可以对第二表情关键帧进行修改,可选地,步骤205中“将所述第二表情关键帧烘焙到所述目标角色模型上”之前还包括:
90.接收对所述第二表情关键帧的修改指令;基于所述修改指令,对所述目标角色模型进行预处理,并基于预处理后的所述目标角色模型,对所述第二表情关键帧对应的表情单元参数进行修改,其中,对所述目标角色模型的预处理包括以下至少一种:对所述表情单元参数执行逆向导出、对所述表情单元参数进行初始化、按预设方式对附带所述表情单元参数的所述目标角色模型进行排列、对附带所述表情单元参数的所述目标角色模型进行坐标统一。
91.在该实施例中,技术人员可以在软件中通过表情控制器对第二表情关键帧进行修改,以得到满意的效果。为了提高修改效率,本技术实施例中,当接收到修改指令时,可以先对目标角色模型进行预处理,具体可以对第二表情关键帧对应的表情单元参数进行逆向导出,将模型中每个第二表情单元的表情数据都复制一份,以便参照原始第二表情关键帧进行表情调整;还可以将表情单元参数进行初始化,具体可以将模型的全部第二表情单元的表情单元参数都进行归零,快速恢复初始表情;还可以按预设方式对模型进行排列,例如将所有表情模型矩形排列,以便进行批量修改;还可以将全部表情模型进行位置坐标归零,以便统一各模型坐标,方便修改。预处理后,可以按技术人员的具体修改操作数据对第二表情关键帧进行修改,以便达到需要的效果,完成对表情的修复。需要说明的是,本技术可以在软件中通过表情控制对表情进行可视化调整,并且在基于表情控制器对第二表情关键帧的修改过程中,因为上文中对多模型进行了关联、整合,修改时可以实现模型的联动调整、修改,大大提高了修改效率,并提高了修改合理性。
92.进一步的,作为图1方法的具体实现,本技术实施例提供了一种表情动画制作装置,如图3所示,该装置包括:
93.控制器绑定模块,用于绑定表情控制器与目标角色模型,其中,所述目标角色模型包括多个第一表情单元;
94.第一关联模块,用于获取所述目标角色模型对应的第一附带模型,将所述第一附带模型的骨骼关联至所述表情控制器中;
95.表情烘焙模块,用于获取动作捕捉模型根骨骼上的第一表情关键帧,依据所述动作捕捉模型根骨骼,设定所述表情控制器中所述目标角色模型的目标根骨骼,并基于所述目标根骨骼,将所述第一表情关键帧烘焙到所述表情控制器中;
96.动画生成模块,用于通过所述表情控制器依据所述第一表情关键帧驱动所述目标角色模型的第一表情单元,得到所述目标角色模型对应的第二表情关键帧,并将所述第二表情关键帧烘焙到所述目标角色模型上,得到目标角色表情动画数据。
97.可选地,所述装置还包括:
98.第二关联模块,用于所述基于所述目标根骨骼,将所述第一表情关键帧烘焙到所述表情控制器中之后,导入所述目标角色模型对应的第二附带模型,其中,所述第二附带模型包括眉毛模型、睫毛模型以及泪腺模型中至少一个;基于所述第一表情单元,对所述目标角色模型和所述第二附带模型进行网格体获取,得到与所述第一表情单元一一对应的多个表情单元网格体,并对所述表情单元网格体进行合并,得到一组附带多个所述第一表情单元的目标网格体;将所述目标网格体关联至所述目标角色模型中,以将所述第一表情单元变更为所述目标网格体对应的第二表情单元。
99.可选地,所述动画生成模块,具体用于:通过所述表情控制器依据所述第一表情关键帧驱动所述目标角色模型的第二表情单元,得到所述目标角色模型对应的第二表情关键帧。
100.可选地,所述第二关联模块,具体用于:导入所述第二附带模型中的一个,并标记已导入的模型;
101.所述第二关联模块,还用于:将未导入的所述第二附带模型中的一个进行导入;基于所述第二表情单元,对所述目标角色模型和当前导入的所述第二附带模型进行网格体导出,得到与所述第二表情单元一一对应的多个新的表情单元网格体;导入多个所述新的表情单元网格体,并对所述新的表情单元网格体进行合并,得到一组附带多个所述第一表情单元的新的目标网格体;将所述新的目标网格体关联至所述目标角色模型中,以依据所述新的目标网格体对所述第二表情单元进行更新,并返回继续对未导入的所述第二附带模型进行导入,直至全部的所述第二附带模型均完成导入。
102.可选地,所述第一附带模型的骨骼包括眼球骨骼;所述第一关联模块,具体用于:将所述眼球骨骼链接到所述表情控制器上;设置所述眼球骨骼的旋转轴以及旋转幅度阈值,以使所述眼球骨骼受所述表情控制器驱动。
103.可选地,所述第一关联模块,具体用于:
104.在所述表情控制器中将所述眼球骨骼的水平方向旋转轴设置为y轴;和/或,选择所述眼球骨骼,打开旋转控制器,控制所述眼球骨骼在竖直方向动作,并根据所述旋转控制器中数值产生变化的坐标轴,在所述表情控制器中设置所述眼球骨骼的竖直方向旋转轴。
105.可选地,所述第一附带模型对应的骨骼数量小于或等于预设骨骼数量,所述第二附带模型对应的骨骼数量大于所述预设骨骼数量。
106.可选地,所述装置还包括:表情修改模块,用于:
107.所述将所述第二表情关键帧烘焙到所述目标角色模型上,得到目标角色表情动画数据之前,接收对所述第二表情关键帧的修改指令;
108.基于所述修改指令,对所述目标角色模型进行预处理,并基于预处理后的所述目
标角色模型,对所述第二表情关键帧对应的表情单元参数进行修改,其中,对所述目标角色模型的预处理包括以下至少一种:对所述表情单元参数执行逆向导出、对所述表情单元参数进行初始化、按预设方式对附带所述表情单元参数的所述目标角色模型进行排列、对附带所述表情单元参数的所述目标角色模型进行坐标统一。
109.需要说明的是,本技术实施例提供的一种表情动画制作装置所涉及各功能单元的其他相应描述,可以参考图1至图2方法中的对应描述,在此不再赘述。
110.基于上述如图1至图2所示方法,相应的,本技术实施例还提供了一种存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述如图1至图2所示的表情动画制作方法。
111.基于这样的理解,本技术的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是cd-rom,u盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术各个实施场景所述的方法。
112.基于上述如图1至图2所示的方法,以及图3所示的虚拟装置实施例,为了实现上述目的,本技术实施例还提供了一种计算机设备,具体可以为个人计算机、服务器、网络设备等,该计算机设备包括存储介质和处理器;存储介质,用于存储计算机程序;处理器,用于执行计算机程序以实现上述如图1至图2所示的表情动画制作方法。
113.可选地,该计算机设备还可以包括用户接口、网络接口、摄像头、射频(radio frequency,rf)电路,传感器、音频电路、wi-fi模块等等。用户接口可以包括显示屏(display)、输入单元比如键盘(keyboard)等,可选用户接口还可以包括usb接口、读卡器接口等。网络接口可选的可以包括标准的有线接口、无线接口(如蓝牙接口、wi-fi接口)等。
114.本领域技术人员可以理解,本实施例提供的一种计算机设备结构并不构成对该计算机设备的限定,可以包括更多或更少的部件,或者组合某些部件,或者不同的部件布置。
115.存储介质中还可以包括操作系统、网络通信模块。操作系统是管理和保存计算机设备硬件和软件资源的程序,支持信息处理程序以及其它软件和/或程序的运行。网络通信模块用于实现存储介质内部各组件之间的通信,以及与该实体设备中其它硬件和软件之间通信。
116.通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本技术可以借助软件加必要的通用硬件平台的方式来实现,也可以通过硬件实现将目标角色模型与表情控制器进行绑定后,将目标角色模型对应的第一附带模型的骨骼关联到表情控制器中,以使第一附带模型与目标角色模型可以在表情控制器的驱动下产生联动变化,设定与捕捉模型根骨骼匹配的目标角色模型的目标根骨骼,将动作捕捉系统采集的第一表情关键帧烘焙到表情控制器中,通过表情控制器驱动产生目标角色模型的第二表情关键帧,最后将第二表情关键帧烘焙到目标角色模型中,得到动画数据。本技术实施例相比于现有技术中组合模型的方式,通过表情控制器将基础的目标角色模型与更丰富的第一附带模型进行关联,以使目标角色模型的各表情单元与第一附带模型的骨骼能够在表情控制器的驱动下产生联动,有助于减少表情修复的工作量,以及提升表情修复的正确率和效率。
117.本领域技术人员可以理解附图只是一个优选实施场景的示意图,附图中的模块或流程并不一定是实施本技术所必须的。本领域技术人员可以理解实施场景中的装置中的模
块可以按照实施场景描述进行分布于实施场景的装置中,也可以进行相应变化位于不同于本实施场景的一个或多个装置中。上述实施场景的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
118.上述本技术序号仅仅为了描述,不代表实施场景的优劣。以上公开的仅为本技术的几个具体实施场景,但是,本技术并非局限于此,任何本领域的技术人员能思之的变化都应落入本技术的保护范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献