一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

视频生成方法、装置、计算机设备和存储介质与流程

2022-06-11 11:35:48 来源:中国专利 TAG:


1.本技术涉及人工智能,尤其涉及一种视频生成方法、装置、计算机设备和存储介质。


背景技术:

2.随着短视频内容消费的快速增长,快速创建虚拟人视频已成为一个典型的需求。现有的虚拟人视频生成技术一般是基于3dmax等三维模型生成。但是这种三维模型生成虚拟人视频,需要对每个用户的动作构建三维动画,操作繁琐、需要耗费大量的时间,并且构建的三维动画无法适配于其它用户的形象,降低了视频生成的效率。
3.因此,如何提高视频生成的效率成为亟需解决的问题。


技术实现要素:

4.本技术提供了一种视频生成方法、装置、计算机设备和存储介质,通过根据人体姿态视频分别对人体图像中的第一部位与第二部位进行动作驱动,并对得到的第一动作视频与第二动作视频进行融合处理,实现利用单帧人体图像快速生成人物动作视频,提升了人体动作视频生成的效率。
5.第一方面,本技术提供了一种视频生成方法,所述方法包括:
6.获取待生成视频的人体图像;
7.根据预设的人体姿态视频对所述人体图像中的第一部位进行动作驱动,获得所述人体图像对应的第一动作视频;
8.根据所述人体姿态视频对所述人体图像中的第二部位进行动作驱动,获得所述人体图像对应的第二动作视频;
9.对所述第一动作视频与所述第二动作视频进行融合,获得所述人体图像对应的目标人体动作视频。
10.第二方面,本技术还提供了一种视频生成装置,所述装置包括:
11.人体图像获取模块,用于获取待生成视频的人体图像;
12.第一动作驱动模块,用于根据预设的人体姿态视频对所述人体图像中的第一部位进行动作驱动,获得所述人体图像对应的第一动作视频;
13.第二动作驱动模块,用于根据所述人体姿态视频对所述人体图像中的第二部位进行动作驱动,获得所述人体图像对应的第二动作视频;
14.视频融合模块,用于对所述第一动作视频与所述第二动作视频进行融合,获得所述人体图像对应的目标人体动作视频。
15.第三方面,本技术还提供了一种计算机设备,所述计算机设备包括存储器和处理器;
16.所述存储器,用于存储计算机程序;
17.所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现如上述的
视频生成方法。
18.第四方面,本技术还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如上述的视频生成方法。
19.本技术公开了一种视频生成方法、装置、计算机设备和存储介质,通过根据预设的人体姿态视频对人体图像中的第一部位进行动作驱动,获得人体图像对应的第一动作视频,可以实现对人体图像中的头部进行动作驱动,保留了脸部的动作细节,避免出现动作细节缺失的情况;通过根据人体姿态视频对人体图像中的第二部位进行动作驱动,获得人体图像对应的第二动作视频,可以实现对人体图像中的四肢、躯干进行动作驱动,使得后续生成的人体动作视频中的人物更加自然、真实;通过对第一动作视频与第二动作视频进行融合,获得人体图像对应的目标人体动作视频,可以实现利用单帧人体图像快速生成人物动作视频,操作便捷,提升了人体动作视频生成的效率。
附图说明
20.为了更清楚地说明本技术实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
21.图1是本技术实施例提供的一种视频生成方法的示意性流程图;
22.图2是本技术实施例提供的一种生成第一动作视频的示意图;
23.图3是本技术实施例提供的一种生成第一动作视频的子步骤的示意性流程图;
24.图4是本技术实施例提供的一种生成非头部动作视频的子步骤的示意性流程图;
25.图5是本技术实施例提供的一种视频生成装置的示意性框图;
26.图6是本技术实施例提供的一种计算机设备的结构示意性框图。
具体实施方式
27.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
28.附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
29.应当理解,在此本技术说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本技术。如在本技术说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
30.还应当理解,在本技术说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
31.本技术的实施例提供了一种视频生成方法、装置、计算机设备和存储介质。其中,该视频生成方法可以应用于服务器或终端中,通过根据人体姿态视频分别对人体图像中的
第一部位与第二部位进行动作驱动,并对得到的第一动作视频与第二动作视频进行融合处理,实现利用单帧人体图像快速生成人物动作视频,操作便捷,提升了人体动作视频生成的效率。
32.其中,服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(content delivery network,cdn)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端可以是智能手机、平板电脑、笔记本电脑和台式电脑等电子设备。
33.下面结合附图,对本技术的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
34.如图1所示,视频生成方法包括步骤s10至步骤s40。
35.步骤s10、获取待生成视频的人体图像。
36.示例性的,可以将用户上传或选中的图像,确定为待生成视频的人体图像。其中,人体图像可以是全身的图像,包括头部、四肢以及躯干。
37.为进一步保证上述人体图像的私密和安全性,上述依人体图像可以存储于一区块链的节点中。可以进行视频生成时,可以从区块链节点中获取人体图像。
38.在本技术实施例中,通过获取人体图像,后续可以实现利用单帧的人体图像快速生成人物动作视频,无需用户手动构建三维模型,操作便捷,提升了人体动作视频生成的效率。
39.步骤s20、根据预设的人体姿态视频对所述人体图像中的第一部位进行动作驱动,获得所述人体图像对应的第一动作视频。
40.示例性的,可以从本地磁盘或数据库获取预设的人体姿态视频。其中,人体姿态视频作为驱动视频,用于将人体姿态视频中的动作迁移至人体图像中,生成对应的目标人体动作视频。其中,人体图像中的人物与人体姿态视频中的人物可以是同一个人物,也可以是不同的人物。
41.需要说明的是,人体姿态视频是指包括动作或姿态的视频。例如,自我介绍视频、业务讲解视频以及课程讲解视频等等。
42.示例性的,本技术实施例方案可以应用于生成虚拟人讲解视频的场景中,当然,也可以应用于其它场景中。例如,通过获取用户提供的人体图像以及用户录制的业务讲解视频,根据业务讲解视频对人体图像中的头部进行动作驱动,获得人体图像对应的第一动作视频,以及根据业务讲解视频对人体图像中的四肢、躯干进行动作驱动,获得人体图像对应的第二动作视频;对第一动作视频与第二动作视频进行融合,获得用户对应的虚拟人业务讲解视频。
43.需要说明的是,为了保留生成的人体动作视频中的动作细节,在本技术实施例中,将对人体图像中的头部进行动作驱动,获得人体图像对应的第一动作视频,以及对人体图像中的四肢、躯干进行动作驱动,获得人体图像对应的第二动作视频;然后,对第一动作视频与第二动作视频进行融合,获得人体图像对应的目标人体动作视频。
44.通过根据预设的人体姿态视频对人体图像中的第一部位进行动作驱动,获得人体图像对应的第一动作视频,可以实现对人体图像中的头部进行动作驱动,保留了脸部的动作细节,避免出现动作细节缺失的情况。
45.在一些实施例中,根据预设的人体姿态视频对人体图像中的第一部位进行动作驱动,获得人体图像对应的第一动作视频,可以包括:确定人体图像对应的头部区域图像,以及确定人体姿态视频对应的头部动作视频;将头部动作视频与头部区域图像输入动作驱动模型进行动作驱动,获得第一动作视频。其中,第一部位是指头部。
46.请参阅图2,图2是本技术实施例提供的一种生成第一动作视频的示意图。如图2所示,在确定人体图像对应的头部区域图像时,可以根据人脸检测算法对人体图像进行人脸检测,确定人体图像中的人脸区域;对人体图像中的人脸区域进行裁剪,将裁剪得到的图像确定为头部区域图像。在确定人体姿态视频对应的头部动作视频时,可以对人体姿态视频中的头部区域的视频进行裁剪,获得头部动作视频。然后,将头部动作视频与头部区域图像输入动作驱动模型进行动作驱动,获得第一动作视频。
47.其中,人脸检测算法可以包括但不限于基于直方图粗分割和奇异值特征的人脸检测算法、基于二进小波变换的人脸检测算法、基于adaboost算法的人脸检测算法以及基于面部双眼结构特征的人脸检测算法等等。
48.在本技术实施例中,动作驱动模型可以是first order motion model模型。需要说明的是,first order motion model模型用于根据输入的源图像和驱动视频,生成一段目标视频,其中,目标视频中的主角是源图像,目标视频中的动作是驱动视频中的动作。first order motion model模型包括关键点检测器(keyporint detector)、运动估计器(motion estimation module)和图像生成器(image generation module)。其中,关键点检测器用于检测图像中的关键点以及每个关键点对应的jaccobian矩阵;运动估计器用于基于前面的结果生成最终的映射关系图(transform map)以及遮挡图(occulation map);图像生成器用于根据transformmap和occulation map对编码后的源图像做变换和mask处理,再解码生成出最终的结果。
49.请参阅图3,图3是本技术实施例提供的一种生成第一动作视频的子步骤的示意性流程图,具体可以包括以下步骤s201至步骤s204。
50.步骤s201、将所述头部动作视频与所述头部区域图像输入所述关键点检测器进行处理,获得所述头部区域图像对应的第一关键点信息、所述头部动作视频对应的第二关键点信息。
51.示例性的,可以将头部动作视频与头部区域图像输入关键点检测器keyporint detector中,由关键点检测器keyporint detector输出头部区域图像对应的第一关键点信息、头部动作视频对应的第二关键点信息。其中,第一关键点信息表示参考帧到头部区域图像的映射关系,第二关键点信息表示参考帧到头部动作视频的映射关系。
52.可以理解的是,为了便于获得头部动作视频与头部区域图像之间的映射关系,可以引进一个参考帧,使得能够独立估计参考帧到头部区域图像的映射关系以及参考帧到头部动作视频的映射关系。
53.示例性的,参考帧可以表示为r;第一关键点信息可以表示为ts←r;第二关键点信息可以表示为td←r。
54.步骤s202、确定所述第一关键点信息与所述第二关键点信息对应的仿射变换矩阵。
55.在一些实施例中,确定第一关键点信息与第二关键点信息对应的仿射变换矩阵,
可以包括:对第一关键点信息进行求导,获得第一关键点信息对应的第一导数,以及对第二关键点信息进行求导,获得第二关键点信息对应的第二导数;由第一导数与第二导数的比值,生成仿射变换矩阵。
56.示例性的,第一导数可以表示为第二导数可以表示为由第一导数与第二导数的比值,生成仿射变换矩阵,生成的仿射变换矩阵可以表示为其中,pk是参考帧r上的关键点位置。
57.步骤s203、将所述头部区域图像、所述第一关键点信息、所述第二关键点信息以及所述仿射变换矩阵输入所述运动估计器进行运动估计处理,获得对应的映射关系图以及遮挡图。
58.示例性的,可以将头部区域图像、第一关键点信息、第二关键点信息以及仿射变换矩阵输入运动估计器进行运动估计处理,由运动估计器输出映射关系图以及遮挡图。其中,具体的运动估计处理过程,在此不作限定。
59.示例性的,映射关系图可以表示为ts←d;遮挡图(occlusion mask)可以表示为os←d。其中,映射关系图ts←d由下式得到:
60.ts←d(z)≈ts←r(pk) jk(z-td←r(pk))
61.式中,z表示头部区域图像中的关键点。
62.需要说明的是,映射关系图表示头部动作视频中的关键点到头部区域图像中的关键点的映射关系。遮挡图表示在最终生成的图像中,哪些部分可以通过头部动作视频扭曲得到,哪些部分可以通过图像修复得到。
63.步骤s204、将所述映射关系图、所述遮挡图以及所述头部区域图像输入所述图像生成器进行图像生成,获得所述第一动作视频。
64.示例性的,图像生成器可以包括编码器与解码器。
65.在一些实施例中,将映射关系图、遮挡图以及头部区域图像输入图像生成器进行图像生成,获得第一动作视频,可以包括:通过编码器对头部区域图像进行特征编码,获得中间特征向量;根据映射关系图对中间特征向量进行仿射变换,获得仿射变换后的中间特征向量;将仿射变换后的中间特征向量与遮挡图进行点乘,获得特征向量图;通过解码器对特征向量图进行图像重建,获得第一动作视频。
66.需要说明的是,仿射变换是指由一个非奇异的线性变换接上一个平移变换组成。
67.示例性的,可以通过编码器encoder将头部区域图像进行特征编码,得到对应的中间特征向量;然后,根据映射关系图对中间特征向量进行仿射变换,获得仿射变换后的中间特征向量,并将仿射变换后的中间特征向量与遮挡图进行点乘,获得特征向量图;最后,通过解码器decoder对特征向量图进行图像重建,获得第一动作视频。
68.需要说明的是,通过根据映射关系图对中间特征向量进行仿射变换,获得仿射变换后的中间特征向量可以实现将头部动作视频中的关键点到头部区域图像中的关键点的映射关系加载到特征向量图中,进而可以实现将头部动作视频中的动作迁移至第一动作视
频中。通过将仿射变换后的中间特征向量与遮挡图进行点乘,获得特征向量图,可以通过特征向量图确定图像重建时需要修复的关键点。
69.通过将头部动作视频与头部区域图像输入动作驱动模型进行动作驱动,可以方便、快捷地获得第一动作视频,无需用户手动构建三维模型,并且可以适用于不同用户形象的图像,提升了生成人体动作视频的效率。
70.步骤s30、根据所述人体姿态视频对所述人体图像中的第二部位进行动作驱动,获得所述人体图像对应的第二动作视频。
71.需要说明的是,在本技术实施例中,通过分别进行头部动作驱动与非头部动作驱动,可以最大限度地保留头部的动作细节和非头部的动作细节,可以有效提升目标人体动作视频的精细度。
72.示例性的,第二部位可以包括非头部区域,例如人体的四肢、躯干;第二动作视频包括非头部动作视频。
73.请参阅图4,图4是本技术实施例提供的一种生成非头部动作视频的子步骤的示意性流程图,具体可以包括以下步骤s301至步骤s303。
74.步骤s301、对所述人体姿态视频中的头部区域进行剪切,获得头部区域剪切后的人体姿态视频。
75.示例性的,可以对人体姿态视频中的头部区域进行剪切,获得头部区域剪切后的人体姿态视频。
76.步骤s302、对所述人体图像中的头部区域进行剪切,获得头部区域剪切后的人体图像。
77.示例性的,可以对人体图像中的头部区域进行剪切,获得头部区域剪切后的人体图像。当然,也可以对人体图像中的四肢、躯干所在的区域进行裁剪,将裁剪得到的图像确定为头部区域剪切后的人体图像。
78.步骤s303、将头部区域剪切后的人体姿态视频与头部区域剪切后的人体图像输入动作驱动模型进行动作驱动,获得所述非头部动作视频。
79.示例性的,可以将头部区域剪切后的人体姿态视频与头部区域剪切后的人体图像输入动作驱动模型进行动作驱动,获得非头部动作视频。其中,动作驱动模型可以是first order motion model模型。
80.可以理解的是,将头部区域剪切后的人体姿态视频与头部区域剪切后的人体图像输入动作驱动模型进行动作驱动,相当于进行非头部动作驱动。在本技术实施例中,进行非头部动作驱动的具体过程与上述实施例进行头部动作驱动的过程相似,具体过程为:将头部区域剪切后的人体姿态视频与头部区域剪切后的人体图像输入关键点检测器进行处理,获得头部区域剪切后的人体姿态视频对应的第三关键点信息、头部区域剪切后的人体图像对应的第四关键点信息;确定第三关键点信息与第四关键点信息对应的仿射变换矩阵;将头部区域剪切后的人体图像、第三关键点信息、第四关键点信息以及仿射变换矩阵输入运动估计器进行运动估计处理,获得对应的映射关系图以及遮挡图;将映射关系图、遮挡图以及头部区域剪切后的人体图像输入图像生成器进行图像生成,获得非头部动作视频。
81.通过将头部区域剪切后的人体姿态视频与头部区域剪切后的人体图像输入动作驱动模型进行动作驱动,不仅可以方便、快捷地获得非头部动作视频,而且还可以实现对人
体图像中的四肢、躯干进行动作驱动,使得后续生成的人体动作视频中的人物更加自然、真实。
82.步骤s40、对所述第一动作视频与所述第二动作视频进行融合,获得所述人体图像对应的目标人体动作视频。
83.在一些实施例中,对第一动作视频与第二动作视频进行融合,获得人体图像对应的目标人体动作视频,可以包括:对第一动作视频与第二动作视频进行图像对齐,并对对齐后的每对图像进行图像拼接,获得目标人体动作视频。
84.需要说明的是,图像对齐是指对第一动作视频中的每帧图像与第二动作视频中的每帧图像进行对齐。
85.示例性的,在对第一动作视频与第二动作视频进行图像对齐时,可以先对第一动作视频中的每个图像进行编号,以及对第二动作视频中的每个图像进行编号;然后,将编号相同的第一图像与第二图像进行对齐,得到多对图像,其中,第一图像为第一动作视频中的图像,第二图像为第二动作视频中的图像;最后,对对齐后的每对图像进行图像拼接,获得目标人体动作视频。
86.示例性的,可以采用图像拼接融合算法,对每对图像进行图像拼接,获得目标人体动作视频。其中,图像拼接融合算法可以包括但不限于基于surf的图像拼接算法、基于梯度金字塔分解的图像融合算法等等。
87.通过对第一动作视频与第二动作视频进行融合,获得人体图像对应的目标人体动作视频,可以实现利用单帧人体图像快速生成人物动作视频,操作便捷,提升了人体动作视频生成的效率。
88.上述实施例提供的视频生成方法,通过根据预设的人体姿态视频对人体图像中的第一部位进行动作驱动,获得人体图像对应的第一动作视频,可以实现对人体图像中的头部进行动作驱动,保留了脸部的动作细节,避免出现动作细节缺失的情况;通过将头部动作视频与头部区域图像输入动作驱动模型进行动作驱动,可以方便、快捷地获得第一动作视频,无需用户手动构建三维模型,并且可以适用于不同用户形象的图像,提升了生成人体动作视频的效率;通过将头部区域剪切后的人体姿态视频与头部区域剪切后的人体图像输入动作驱动模型进行动作驱动,不仅可以方便、快捷地获得非头部动作视频,而且还可以实现对人体图像中的四肢、躯干进行动作驱动,使得后续生成的人体动作视频中的人物更加自然、真实;通过对第一动作视频与第二动作视频进行融合,获得人体图像对应的目标人体动作视频,可以实现利用单帧人体图像快速生成人物动作视频,操作便捷,提升了人体动作视频生成的效率。
89.请参阅图5,图5是本技术的实施例还提供一种视频生成装置1000的示意性框图,该视频生成装置用于执行前述的视频生成方法。其中,该视频生成装置可以配置于服务器或终端中。
90.如图5所示,该视频生成装置1000,包括:人体图像获取模块1001、第一动作驱动模块1002、第二动作驱动模块1003和视频融合模块1004。
91.人体图像获取模块1001,用于获取待生成视频的人体图像。
92.第一动作驱动模块1002,用于根据预设的人体姿态视频对所述人体图像中的第一部位进行动作驱动,获得所述人体图像对应的第一动作视频。
93.第二动作驱动模块1003,用于根据所述人体姿态视频对所述人体图像中的第二部位进行动作驱动,获得所述人体图像对应的第二动作视频。
94.视频融合模块1004,用于对所述第一动作视频与所述第二动作视频进行融合,获得所述人体图像对应的目标人体动作视频。
95.需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和各模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
96.上述的装置可以实现为一种计算机程序的形式,该计算机程序可以在如图6所示的计算机设备上运行。
97.请参阅图6,图6是本技术实施例提供的一种计算机设备的结构示意性框图。
98.请参阅图6,该计算机设备包括通过系统总线连接的处理器和存储器,其中,存储器可以包括存储介质和内存储器。所述存储介质可以是非易失性存储介质,也可以是易失性存储介质。
99.处理器用于提供计算和控制能力,支撑整个计算机设备的运行。
100.内存储器为非易失性存储介质中的计算机程序的运行提供环境,该计算机程序被处理器执行时,可使得处理器执行任意一种视频生成方法。
101.应当理解的是,处理器可以是中央处理单元(central processing unit,cpu),该处理器还可以是其他通用处理器、数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现场可编程门阵列(field-programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
102.其中,在一个实施例中,所述处理器用于运行存储在存储器中的计算机程序,以实现如下步骤:
103.获取待生成视频的人体图像;根据预设的人体姿态视频对所述人体图像中的第一部位进行动作驱动,获得所述人体图像对应的第一动作视频;根据所述人体姿态视频对所述人体图像中的第二部位进行动作驱动,获得所述人体图像对应的第二动作视频;对所述第一动作视频与所述第二动作视频进行融合,获得所述人体图像对应的目标人体动作视频。
104.在一个实施例中,所述第一部位包括头部;所述处理器在实现根据预设的人体姿态视频对所述人体图像中的第一部位进行动作驱动,获得所述人体图像对应的第一动作视频,用于实现:
105.确定所述人体图像对应的头部区域图像,以及确定所述人体姿态视频对应的头部动作视频;将所述头部动作视频与所述头部区域图像输入动作驱动模型进行动作驱动,获得所述第一动作视频。
106.在一个实施例中,所述动作驱动模型包括关键点检测器、运动估计器以及图像生成器;所述处理器在实现将所述头部动作视频与所述头部区域图像输入动作驱动模型进行动作驱动,获得所述第一动作视频时,用于实现:
107.将所述头部动作视频与所述头部区域图像输入所述关键点检测器进行处理,获得
所述头部区域图像对应的第一关键点信息、所述头部动作视频对应的第二关键点信息;确定所述第一关键点信息与所述第二关键点信息对应的仿射变换矩阵;将所述头部区域图像、所述第一关键点信息、所述第二关键点信息以及所述仿射变换矩阵输入所述运动估计器进行运动估计处理,获得对应的映射关系图以及遮挡图;将所述映射关系图、所述遮挡图以及所述头部区域图像输入所述图像生成器进行图像生成,获得所述第一动作视频。
108.在一个实施例中,所述处理器在实现确定所述第一关键点信息与所述第二关键点信息对应的仿射变换矩阵时,用于实现:
109.对所述第一关键点信息进行求导,获得所述第一关键点信息对应的第一导数,以及对所述第二关键点信息进行求导,获得所述第二关键点信息对应的第二导数;由所述第一导数与所述第二导数的比值,生成所述仿射变换矩阵。
110.在一个实施例中,所述图像生成器包括编码器与解码器;所述处理器在实现将所述映射关系图、所述遮挡图以及所述头部区域图像输入所述图像生成器进行图像生成,获得所述第一动作视频时,用于实现:
111.通过所述编码器对所述头部区域图像进行特征编码,获得中间特征向量;根据所述映射关系图对所述中间特征向量进行仿射变换,获得仿射变换后的中间特征向量;将仿射变换后的中间特征向量与所述遮挡图进行点乘,获得特征向量图;通过所述解码器对所述特征向量图进行图像重建,获得所述第一动作视频。
112.在一个实施例中,所述第二部位包括非头部区域,所述第二动作视频包括非头部动作视频;所述处理器在实现根据所述人体姿态视频对所述人体图像中的第二部位进行动作驱动,获得所述人体图像对应的第二动作视频时,用于实现:
113.对所述人体姿态视频中的头部区域进行剪切,获得头部区域剪切后的人体姿态视频;对所述人体图像中的头部区域进行剪切,获得头部区域剪切后的人体图像;将头部区域剪切后的人体姿态视频与头部区域剪切后的人体图像输入动作驱动模型进行动作驱动,获得所述非头部动作视频。
114.在一个实施例中,所述处理器在实现对所述第一动作视频与所述第二动作视频进行融合,获得所述人体图像对应的目标人体动作视频时,用于实现:
115.对所述第一动作视频与所述第二动作视频进行图像对齐,并对对齐后的每对图像进行图像拼接,获得所述目标人体动作视频。
116.本技术的实施例中还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序中包括程序指令,所述处理器执行所述程序指令,实现本技术实施例提供的任一项视频生成方法。
117.例如,该程序被处理器加载,可以执行如下步骤:
118.获取待生成视频的人体图像;根据预设的人体姿态视频对所述人体图像中的第一部位进行动作驱动,获得所述人体图像对应的第一动作视频;根据所述人体姿态视频对所述人体图像中的第二部位进行动作驱动,获得所述人体图像对应的第二动作视频;对所述第一动作视频与所述第二动作视频进行融合,获得所述人体图像对应的目标人体动作视频。
119.其中,所述计算机可读存储介质可以是前述实施例所述的计算机设备的内部存储单元,例如所述计算机设备的硬盘或内存。所述计算机可读存储介质也可以是所述计算机
设备的外部存储设备,例如所述计算机设备上配备的插接式硬盘,智能存储卡(smart media card,smc),安全数字卡(secure digital card,sd card),闪存卡(flash card)等。
120.进一步地,所述计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
121.本技术所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
122.以上所述,仅为本技术的具体实施方式,但本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本技术的保护范围之内。因此,本技术的保护范围应以权利要求的保护范围为准。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献