一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于人脸RGB图像的三维人脸重建方法及装置

2022-07-14 00:12:30 来源:中国专利 TAG:

基于人脸rgb图像的三维人脸重建方法及装置
技术领域
1.本发明涉及计算机视觉与深度学习,尤其涉及三维人脸重建方法及装置。


背景技术:

2.三维人脸重建是指通过传感器和计算机技术将面部的三维几何结构和纹理信息进行数字化表示和存储的过程,被广泛应用于动画制作、全息影像等领域。早期的三维人脸重建方法将人脸视为一般三维物体,采用多视角立体匹配的方式构建面部区域的三维点云和拓扑结构。随着人工智能技术的发展,研究人员使用三维形变模型(3d morphable model,3dmm)从rgb图像或rgbd数据中拟合面部区域,可以直接生成人脸的三维网格模型,结合形变理论可以进一步对生成的三维模型进行形变操作,实现动画效果。由于真实的3d人脸数据稀缺,研究人员通常无监督或弱监督的方式,通过网络预测并渲染人脸图像,其监督信号来自于输入图像和渲染的对应物之间的差异。然而与传统的采用多视角立体匹配的3d人脸重建相比,现有的基于rgb图像的三维人脸重建方法在重建精度和效率上还没有达到令人满意的效果。


技术实现要素:

3.本发明的目的是提供一种新的基于rgb图像的三维人脸重建方法,提高了三维人脸重建的精度和效率。
4.上述目的是通过以下技术方案实现的:
5.根据本发明实施例的第一方面,提供一种三维形变模型系数回归模型的训练方法。该方法包括从样本集选择其中一个人脸rgb图像作为输入提供至第一级残差网络,通过第一级残差网络对三维形变模型的系数进行回归;利用第一级残差网络输出的各系数的预测值重构第一个三维人脸形状,并基于重构的第一个三维人脸形状渲染得到第一个二维人脸图像;将第一个二维人脸图像与所述人脸rgb图像一起作为输入提供至第二级残差网络,通过第二级残差网络对各系数的预测值的残差进行回归;将经由第一级残差网络得到的各系数的预测值和经由第二级残差网络得到的各系数的预测值的残差相加得到三维形变模型的各个系数;将根据所得到的三维形变模型的各个系数重构的第二个三维人脸形状和相应的第二个二维人脸图像与所述人脸rgb图像进行比较来计算损失;基于所计算的损失对第一级残差网络和第二级残差网络的参数进行调整;不断重复上述步骤,直到三维形变模型的各个系数收敛。
6.在一些实施例中,三维形变模型的系数可包括几何系数和颜色系数,所述几何系数包括用于描述人脸的形状、表情和姿态的参数,所述颜色系数用于描述人脸的纹理和光照的参数。
7.在一些实施例中,所计算的损失可以包括:基于几何系数计算的几何损失、基于颜色系数计算的像素级损失和基于各系数的预测值及其残差计算的正则损失。
8.在一些实施例中,所述几何损失可以是根据下面的方式计算的:
9.将第二个三维人脸形状中的关键点集合投影为二维点集;从该二维点集中选择位于第二个二维人脸图像中人脸区域的边缘上的点;计算从该二维点集中所选择的点与所述人脸rgb图像中预设的位于侧脸的每个标注点之间的距离;以与每个标注点距离最近的该二维点集中的点替换所述第二个三维人脸形状中对应的关键点;基于经更新后的第二个三维人脸形状中的关键点和所述人脸rgb图像中标注点来计算几何损失。
10.在一些实施例中,所述方法还可包括:将利用第一级残差网络输出的各系数的预测值获取的第一个二维人脸图像中面部区域合并到所述人脸rgb图像中得到合成图像;将合成图像作为输入提供至第一级残差网络得到第二组预测值;将所述第二组预测值与先前利用第一级残差网络输出的各系数的预测值进行比较来计算自监督损失。在一些实施例中,在训练过程中所计算的损失还可包括上述的自监督损失。
11.在一些实施例中,经由第一级残差网络回归的三维形变模型的系数包括形状参数、表情参数、姿态参数、纹理参数和光照参数;并且经由第二级残差网络回归的各系数的预测值的残差包括形状参数残差、表情参数残差、纹理参数残差和光照参数残差,其中第二级残差网络的姿态参数直接采用来自第一级残差网络回归的姿态参数的预测值。其中第二级残差网络还设置有一个残差回归分支,用于回归的三维形变模型中所有关键点的深度坐标残差。所述方法还可包括:将所述深度坐标残差与第二个三维人脸形状叠加来得到第三个三维人脸形状,其中用于计算损失的第二个二维人脸图像是基于第三个三维人脸形状进行渲染后得到的。
12.根据本发明实施例的第二方面,提供了一种基于人脸rgb图像的三维人脸重建方法,包括:将收到的人脸rgb图像作为输入提供至根据本发明实施例第一方面所述的方法预先训练的三维形变模型系数回归模型,以得到与该人脸rgb图像对应的三维形变模型系数;以及基于所得到的三维形变模型系数重构三维人脸形状。
13.根据本发明实施例的第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被执行时实现如上述实施例第一方面或第二方面所述的方法。
14.根据本发明实施例的第四方面,提供了一种电子设备,包括处理器和存储器,其中存储器用于存储可执行指令;所述处理器被配置为经由执行所述可执行指令来实现如上述实施例第一方面或第二方面所述的方法。
15.应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
16.此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
17.图1示出了示出了根据本发明一个实施例的三维形变模型系数回归模型的训练方法的流程示意图。
18.图2示出了根据本发明一个实施例的三维形变模型系数回归模型的训练流程示意图。
19.图3示出了三维人脸重建效果对比示意图。
20.图4示出了根据本发明一个实施例的自监督的训练流程示意图。
具体实施方式
21.为了使本发明的目的,技术方案及优点更加清楚明白,以下结合附图通过具体实施例对本发明进一步详细说明。应当理解,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动下获得的所有其他实施例,都属于本发明保护的范围。
22.此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本发明的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本发明的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本发明的各方面。
23.附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
24.附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
25.在三维形变模型3dmm中通过形状向量、表情向量和纹理向量等表示人脸的脸部模型,因此每个3d人脸可由三维形变模型3dmm的数据库中已有脸部模型的各向量的线性组合来表示。在模型参数化后,三维形变模型通常会提供一个平均脸部模型(包括形状向量基、表情向量基和纹理向量基等),这样任何一个新的3d人脸模型都可以表示为该平均脸部模型与一些特征系数的线性组合公式。现有的基于rgb图像的三维人脸重建方法中通常是使用神经网络回归3dmm人脸模型的系数,例如,可以将神经网络的最后一个全连接层修改为与要回归的系数数量相同的神经元,以便回归这些系数。在每次训练迭代中,将rgb图像作为输入提供给神经网络,利用神经网络输出的系数重建的图像,将重建的图像与输入的rgb图像进行比较,计算相应损失,进而反向传播至神经网络来调参,直至系数收敛。这样,通过采用这些经过训练得到的系数的3dmm人脸模型可以在rgb图像的基础上重建3d人脸。然而,不同的神经网络结构,不同的训练过程,不同的损失计算方式在人脸重建精度和效率上存在很大差异。
26.在本技术中三维形变模型采用basel大学于2017年发布的开源版本baselfacemodel2017(bfm2017),该模型提供了经由主成分分析法pca提取的形状、表情和纹理三组向量基和对应的均值、特征向量等。在本技术中要回归的三维形变模型系数包括形状参数、表情参数、纹理参数、光照参数和姿态参数。其中将形状参数、表情参数、姿态参数统称为几何系数,将纹理参数和光照参数统称为颜色系数。在本发明的实施例中采用级联的残差网络结构作为三维形变模型系数回归模型,该模型包括第一级残差网络和第二级残差网络。在第一阶段,将人脸rgb图像提供给第一残差网络,通过第一级残差网络回归几何系数和颜色系数,并基于这些系数重构三维人脸形状,并将该三维人脸形状投影、渲染得
到二维人脸图像。在第二阶段将第一阶段经投影和渲染后得到的二维人脸图像和原始rgb图像进行拼接,通过第二残差网络回归几何系数和颜色系数的残差,将第一阶段得到的系数和第二阶段得到系数的残差相加,得到最终的三维形变模型系数。通过这种两阶段的残差网络结构来回归系统及其残差,实现了更加精确的系数回归,提高了人脸重建精度。
27.图1给出了根据本发明一个实施例的三维形变模型系数回归模型的训练方法的流程示意图。该训练方法主要包括下列步骤:
28.(a)从样本集选择一个人脸rgb图像作为输入提供至第一级残差网络,通过第一级残差网络对三维形变模型的系数进行回归。在本技术的实施例中第一级残差网络和第二级残差网络可以是采用诸如resnet之类的深度残差网络。以resnet作为第一残差网络为例,在网络顶层使用一个全连接层来回归三维形变模型的系数。该全连接层的节点数目与要回归的系数数量一致。该第一残差网络以rgb图像作为输入,其输出为对于三维形变模型的所有系数的预测值。在作为样本使用的人脸rgb图像中预先设置有与三维形变模型中关键点一一对应的标注点,并且每个人脸rgb图像可以通过设置面部区域掩码来对其中人脸的面部区域进行标注。应理解在作为样本的人脸rgb图像中预设的标注点以及预先标记的面部区域相当于标签,用于后续计算损失和监督训练。
29.(b)利用第一级残差网络输出的各系数的预测值可以重构一个粗糙的三维人脸形状,并且可以通过可微渲染等技术对该重构的三维人脸形状进行投影和渲染等处理,从而获取与该三维人脸形状对应的二维人脸图像。
30.(c)将步骤(b)得到的二维人脸图像与在步骤(a)收到的原始人脸rgb图像一起作为输入提供至第二级残差网络。例如可以将这两个图像在通道维度上进行拼接。每个图像有三个通道维度(r、g、b),拼接后的输入通道数为6。通过第二级残差网络对经由第一残差网络得到的各系数的预测值的残差进行回归。
31.(d)将经由第一级残差网络得到的各系数的预测值和经由第二级残差网络得到的各系数的预测值的残差相加,就可得到该模型最终回归的三维形变模型的各个系数。在又一些实施例中,经由第一级残差网络回归的三维形变模型的系数包括形状参数、表情参数、姿态参数、纹理参数和光照参数。经由第二级残差网络回归的各系数的预测值的残差包括形状参数残差、表情参数残差、纹理参数残差和光照参数残差,但不包含姿态参数的残差。第二级残差网络的姿态参数直接采用来自第一级残差网络回归的姿态参数的预测值。
32.(e)根据步骤(d)所得到的三维形变模型的各个系数重构一个三维人脸形状,并且可以通过可微渲染等技术对该重构的三维人脸形状进行投影和渲染等处理,从而获取与该三维人脸形状对应的二维人脸图像。
33.(f)这样,可以将经由步骤(e)得到的二维人脸图像与在步骤(a)输入的人脸rgb图像进行比较来计算损失,从而可以基于所计算的损失对第一级残差网络和第二级残差网络的参数进行调整;不断重复上述步骤,直到三维形变模型的各个系数收敛。
34.在一些实施例中,第二级残差网络还可以设置有一个残差回归分支,用于回归的三维形变模型中包含的所有预设的关键点的深度坐标残差。这样在步骤(e)可以先将这些关键点的深度坐标残差与根据步骤(d)所得到的三维形变模型的各个系数重构的三维人脸形状进行叠加来得到更高精度的三维人脸形状,进而基于这个更高精度的三维人脸形状进行投影和渲染等处理,以获取与该三维人脸形状对应的二维人脸图像。将这样得到的二维
人脸图像与原始rgb图像对比来计算损失,使得后续训练学习过程中进一步兼顾了人脸的皱纹和阴影所隐含的深度信息,从而可进一步改善人脸重建的精度。
35.在一些实施例中,在步骤(f)所计算的损失可以包括:基于几何系数计算的几何损失、基于颜色系数计算的像素级损失以及基于各系数的预测值及其残差的平方和计算的正则损失。可以基于几何损失、像素级损失和正则损失的线性加权组合计算得到总损失,并基于该总损失来对第一级残差网络和第二级残差网络的参数进行调整。
36.在一些实施例中,在基于颜色系数计算的像素级损失时,仅考虑步骤(e)得到的二维人脸图像与原始人脸rgb图像中面部区域的像素在颜色系数上的差异,这样有利于模型和系数的快速收敛。
37.在一些实施例中,在基于几何系数计算几何损失时,通过比较经由步骤(d)所得到的三维形变模型的各个系数重构的三维人脸形状包含的关键点与在原始人脸rgb图像中预先设置的标注点之间的差异来计算几何损失。基于在原始人脸rgb图像中预先标注的这样的二维点来指导几何系数的训练可以起到更好的监督效果并能改善训练的效率。
38.但是在三维形变模型中预设的关键点的位置是固定的,而所采用的样本集中的人脸通常存在多种姿态。这样,当人脸在例如水平方向转过一定角度后,有一部分点(尤其是侧脸边缘上的点)会被遮挡,无法再用于几何损失的计算。因此,在本发明的又一些实施例中,提供了一种边缘点更新方式,可以重新找到位于侧脸边缘上的点,使用它们可以精确拟合脸型,从而可以更精确地计算几何损失,进而实现更精确的系数回归。采用这种边缘点更新方式的几何损失计算步骤可包括:
39.①
将经由步骤(d)所得到的三维形变模型的各个系数重构的三维人脸形状中关键点集合投影为二维点集;
40.②
从该二维点集中选择位于经由步骤(e)得到的二维人脸图像中人脸区域的边缘上的点;
41.③
计算从该二维点集中所选择的点与在人脸rgb图像中标注的位于侧脸的每个标注点之间的距离;
42.④
以与每个标注点距离最近的该二维点集中的点替换重构的三维人脸形状中相应关键点;经过这样更新后的三维人脸形状中位于侧脸边缘上的点可以更精确地拟合脸型。
43.⑤
基于经更新后的三维人脸形状中的关键点和人脸rgb图像中的标注点来计算几何损失。
44.如图2所示,对于给定的输入图像,(a)(b)(c)依次表示“在计算几何损失时不使用边缘点更新所重建的三维人脸形状”、“不使用侧脸点计算损失的情况下重建的三维人脸形状”、“在计算几何损失时使用边缘点更新算法后重建的三维人脸形状”。可以看出,采用这种边缘点更新方式的几何损失,使得模型学习到了更加精确的形状参数,由此构建了更高精度的三维人脸形状。
45.为了进一步使得上述训练方法对于各种的脸型都有较好的拟合结果,在一些实施例中,提供了自监督的系数回归方法,使用学习得到的系数作为强监督信号,进一步指导系数的学习。也就是说,在步骤(f)所计算的损失不仅可以包括基于几何系数计算的几何损失、基于颜色系数计算的像素级损失和基于各系数的预测值及其残差计算的正则损失,还
可以包括自监督损失。该自监督损失的计算方式如下:将在步骤(b)利用第一级残差网络输出的各系数的预测值获取的第一个二维人脸图像中面部区域合并到在步骤(a)输入的原始人脸rgb图像中得到合成图像;将合成图像作为输入提供至第一级残差网络得到第二组预测值;将所述第二组预测值与先前利用第一级残差网络输出的各系数的预测值进行比较来计算自监督损失。
46.如图3所示,在第一阶段由骨干网和全连接层构成的第一残差网络从原始rgb图像i
in
中回归了一组系数w,根据w得到重构人脸三维形状,并经投射和渲染的到渲染后图像is,将该渲染后图像is的面部区域复制到原始图像i
in
上,得到合成图像i
t
,并将该合成图像i
t
送入第一残差网络进行预测,回归得到又一组系数w

,并根据系数w

重构人脸三维形状,并经投射和渲染得到图像i
′s,则自监督损失采用如下公式进行计算:
[0047][0048]
其中图像i
′s和原始图像i
in
之间存在一定的域差,因此不可能要求w和w

完全一致。这样的自监督损失主要是起一个正则作用,约束w

和w之间的差异尽可能小,以及约束i
′s和i
in
尽可能相似,同时由于i
′s和i
in
的约束作用,可以进一步提升is的真实性,减小is和i
in
之间的域差,由此生成更加逼真的图像。在该实施例中,在每次训练迭代时,可以基于几何损失、像素级损失、正则损失以及自监督损失的线性加权组合计算得到总损失。
[0049]
下面结合图4以一个具体示例对三维形变模型的系数的回归训练过程进行更详细的说明。
[0050]
1.数据准备阶段
[0051]
数据均为2d人脸图像。从现有的celeba-hq和ffhq数据集以及300vw数据集中选择了约16万个样本。使用dlib人脸库(http://dlib.net)计算每个样本的5个2d关键点,将样本对齐到预定义好的关键点模板上,得到分辨率为224的训练图像i。对于每个样本,进一步使用dlib人脸库和人脸解析网络(https://github.com/zllrunning/face-parsing.pytorch)计算其68个关键点p和面部区域掩码m。最终形成的训练集记为:
[0052]
d={(ii,pi,mi),i=0,1,2,...n}
[0053]
在后续的训练过程中,关键点pi用于指导几何系数的训练,而面部区域掩码mi用于筛选需要进行颜色系数训练的区域。也就是仅利用面部区域的像素来进行颜色系数的相关训练。
[0054]
2.训练阶段
[0055]
三维形变模型采用basel大学于2017年发布的bfm2017,要训练的三维形变模型的系数包括几何系数(形状、表情和姿态)和颜色系数(纹理和光照)。在该示例中采用双阶段级联的残差网络结构对三维形变模型的系数进行回归,使用弱监督学习方法来训练该残差网络结构。该残差网络结构分为两个主要阶段,每个阶段以resnet18作为骨干网络,提取图像特征,并在网络顶层使用一个全连接层来回归3dmm系数。其中形状参数维度为80,表情参数维度为64,姿态参数维度为6,纹理参数维度为80,光照参数维度为9,总的需要回归的系数维度为239。第一阶段的网络以原始rgb图像i
in
作为输入,输入通道数为3个(即r、g、b),并回归全部239维的系数w1。基于这些系数w1(也可称为预测值)重构得到人脸的粗糙的三维形状,并基于可微渲染将三维形状投影、渲染得到粗糙的2d人脸图像is;第二阶段的网络以第
一阶段得到的渲染后的图像is和原始rgb图像i
in
在通道维度进行拼接后作为输入,此时输入通道数为6个,回归第一阶段预测值的残差δw,但不包含姿态参数。这是考虑到训练的稳定性,第二阶段的姿态参数直接采用相应的第一阶段的预测值。将第二阶段得到预测值的残差和第一阶段的预测值相加得到最终的3dmm系数回归结果:w=w1 δw。在第二阶段的网络中进一步使用一个残差分支回归所有三维点的深度坐标残差值δz,将该深度残差和重构的三维形状相加,得到高精度的三维形状v。基于叠加后的三维形状进行渲染,使用原始rgb图像作为监督信息,利用人脸的皱纹和阴影所隐含的深度信息,实现深度残差值的弱监督学习。
[0056]
其中所计算的损失包括采用基于2d关键点的几何损失、基于面部区域图像的像素级损失和基于各系数及其残差的正则损失。在计算几何损失时采用了上文提到的边缘更新算法。考虑到训练样本中的人脸存在多种不同的姿态,因此dlib生成的68个关键点中位于侧脸上的17个点的位置是变化的。而在bfm2017中预先定义的68个关键点的位置是固定的,因此需要针对特定的样本对bfm2017中位于侧脸上的17个点的索引进行更新,以此提升网络对不同脸型的泛化能力。更具体地,根据上述训练方法回归的模型系数重构得到三维人脸形状中的关键点集v,并通过正交投影将v投影为2d点集v
2d
,使用可微渲染方法基于重构的三维人脸形状得到渲染后的2d图像,然后查找该2d图像中人脸区域的边缘,得到v
2d
中所有位于边缘上的点vc,并将这些点和dlib生成的17个位于侧脸的2d关键点标签进行比较,通过计算每个点p和vc中所有点的距离,找出和点p最近的一个点pc,用点pc替换原来的锚点,并用pc和p计算新的几何误差,以此来学习更加精确的形状参数。上述算法是一个完全并行的过程,在计算边缘点的时候v
2d
中的每个点都可以独立计算。在训练的过程中,样本通常都是一个批量,因此可以将该算法使用cuda语言实现,从而在gpu上实现批量化的并行计算,极大的提升了计算效率。此外,这种基于人脸轮廓的边缘点更新算法对于不同的人脸对齐算法也是适用的。当侧脸上的2d关键点标签的数目发生变化时,只需要同步更新关键点的设置,即可使用该算法。
[0057]
如图4所示,在每次迭代中,从训练集d中采样一个批量的样本{(ii,pi,mi)},其中ii是人脸rgb图像,即i
in
,pi和mi分别2d关键点和面部区域掩码的标签。将i
in
其送入该双阶段级联的残差网络结构进行预测,得到一组系数w=w1 δw和所有三维点的深度残差δz。使用w重建得到三维人脸形状,并将该三维人脸形状的关键点集和δz叠加后得到高精度的三维人脸形状v,并基于该三维人脸形状v进行投影、渲染得到2d渲染图,基于三维形状和2d渲染图进一步进行弱监督学习。
[0058]
在该示例中,在最初的5个迭代周期内,可以不使用边缘更新算法,目的是使得对三维形状影响最大的姿态参数先得到较好的学习,使得重构的三维人脸形状的关键点集和原始的rgb图像中人脸的位置、姿态和尺度尽可能接近,同时mi所指定的区域颜色和原始rgb图像对应区域尽可能接近。在前5个周期内,对所有的关键点计算几何损失,同时计算像素级损失和正则损失。
[0059]
在5个周期以后,姿态参数基本收敛,重构的三维人脸形状仅在脸部形状上和原始rgb图像中的人脸存在差异,此时运用上文提到的边缘点更新算法重新定位三维人脸形状中位于侧脸边缘上的点,通过更新后的三维人脸形状中的关键点和训练样本的pi来计算几何损失,重点学习形状和表情参数,同时也进一步更新姿态参数。此时不使用全部的68个关
键点,而是使用难例挖掘策略从68个关键点中选择34个误差最大的点,使用这些点来计算几何损失,让网络重点学习那些最难的位置,能取得比使用所有点更好的拟合精度。
[0060]
在20个周期以后,所有的系数已基本收敛,此时可以进一步开始引入如上文结合图3介绍的自监督学习机制。通过将渲染的2d图像的面部区域复制到原始的人脸rgb图像上,得到合成图像i
t
,保留i
t
的梯度,并使用i
t
进一步回归一组系数,计算两组系数的正则损失。该残差网络结构将得到两部分梯度的训练。第一部分来自于正则损失直接产生的梯度,第二部分来自于经过i
t
和is反向传播后进入网络的梯度。这两部分梯度共同作用于网络参数,使得网络不仅可以通过重构来学习更准确的系数,还可以通过is的梯度来生成更加逼真的渲染图像。
[0061]
应理解,上述示例仅是举例说明,而非对于训练过程和训练步骤的先后次序进行任何限制。
[0062]
在本发明的一些实施例中,提供了一种基于人脸rgb图像的三维人脸重建方法。该方法包括将收到的人脸rgb图像作为输入提供至根据上文实施例中介绍的训练方法预先训练的三维形变模型系数回归模型,以得到与该人脸rgb图像对应的三维形变模型系数;基于所得到的三维形变模型系数就能够实现高精度的三维人脸重建。
[0063]
在本发明的又一个实施例中,还提供了一种计算机可读存储介质,其上存储有计算机程序或可执行指令,当所述计算机程序或可执行指令被执行时实现如前述实施例中所述的技术方案,其实现原理类似,此处不再赘述。在本发明的实施例中,计算机可读存储介质可以是任何能够存储数据且可以被计算装置读取的有形介质。计算机可读存储介质的实例包括硬盘驱动器、网络附加存储器(nas)、只读存储器、随机存取存储器、cd-rom、cd-r、cd-rw、磁带以及其它光学或非光学数据存储装置。计算机可读存储介质也可以包括分布在网络耦合计算机系统上的计算机可读介质,以便可以分布式地存储和执行计算机程序或指令。
[0064]
在本发明的又一个实施例中,还提供了一种电子设备,包括处理器和存储器,其中所述存储器用于存储可由处理器执行的可执行指令,其中所述处理器被配置为执行存储器上存储的可执行指令,所述可执行指令被执行时实现前述任一实施例中介绍的技术方案,其实现原理类似,此处不再赘述。
[0065]
本说明书中针对“各个实施例”、“一些实施例”、“一个实施例”、或“实施例”等的参考指代的是结合所述实施例所描述的特定特征、结构、或性质包括在至少一个实施例中。因此,短语“在各个实施例中”、“在一些实施例中”、“在一个实施例中”、或“在实施例中”等在整个说明书中各地方的出现并非必须指代相同的实施例。此外,特定特征、结构、或性质可以在一个或多个实施例中以任何合适方式组合。因此,结合一个实施例中所示出或描述的特定特征、结构或性质可以整体地或部分地与一个或多个其他实施例的特征、结构、或性质无限制地组合,只要该组合不是非逻辑性的或不能工作。
[0066]
本说明书中“包括”和“具有”以及类似含义的术语表达,意图在于覆盖不排他的包含,例如包含了一系列步骤或单元的过程、方法、系统、产品或设备并不限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。“一”或“一个”也不排除多个的情况。另外,本技术附图中的各个元素仅仅为了示意说明,并非按比例绘制。
[0067]
虽然本发明已经通过上述实施例进行了描述,然而本发明并非局限于这里所描述的实施例,在不脱离本发明范围的情况下还包括所做出的各种改变以及变化。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献