一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种捏脸处理方法与流程

2022-06-01 07:53:19 来源:中国专利 TAG:


1.本发明涉及游戏角色生成领域,具体涉及一种捏脸处理方法。


背景技术:

2.对于现有的捏脸方法,一般根据用户上传的一张真实人脸给出一个虚拟角色。尽管有部分用户的需求是角色要跟我尽量相似,但是还有很多用户的需求是角色跟我有点像就行,主要还得好看,或徘徊于二者之间,因此根据现有技术生成的虚拟角色未必能满足用户的需求。
3.此外,现有的捏脸方法通常使用开源的人脸识别模型提取真实人脸和虚拟人脸的人脸编码特征,而这些开源的人脸识别模型均使用真实人脸数据集训练,用于提取虚拟人脸的人脸编码特征并不十分妥当。而对于风格迁移方法,现有技术中通常使用图像到图像的神经网络,但是由于游戏角色由渲染引擎构建,神经网络输出的图像无法在游戏中使用,这对游戏捏脸来说并不适用。


技术实现要素:

4.以下给出一个或多个方面的简要概述以提供对这些方面的基本理解。此概述不是所有构想到的方面的详尽综览,并且既非旨在指认出所有方面的关键性或决定性要素亦非试图界定任何或所有方面的范围。其唯一的目的是要以简化形式给出一个或多个方面的一些概念以为稍后给出的更加详细的描述之序。
5.本发明的目的在于解决上述问题,提供了一种捏脸方法,通过控制虚拟角色的风格化参数来控制自动捏脸所生成的虚拟角色的风格化程度,给予用户更灵活的选择,获取符合自己风格需求的游戏角色,进而提高用户对自动捏脸的接受度。
6.本发明的技术方案为:本发明提供一种捏脸处理方法,包括以下步骤:
7.获取用户的真实人脸图像;
8.设置虚拟角色的风格化参数,并随机初始化一组虚拟人脸骨骼参数;
9.基于虚拟人脸骨骼参数生成虚拟人脸图像;
10.根据真实人脸图像和虚拟人脸图像提取真实人脸特征图和虚拟人脸特征图;
11.根据风格化参数、真实人脸特征图和虚拟人脸特征图迭代收敛所述虚拟人脸骨骼参数;
12.基于完成收敛的虚拟人脸骨骼参数生成虚拟角色。
13.根据本发明的捏脸处理方法的一实施例,所述捏脸方法通过图形用户界面上传真实人脸图像,并对所述真实人脸图像进行质量控制,获取符合规范的真实人脸图像。
14.根据本发明的捏脸处理方法的一实施例,所述用户图形用户界面包括风格化参数调整组件,用户通过所述风格化参数调整组件设置虚拟角色的风格化参数。
15.根据本发明的捏脸处理方法的一实施例,所述捏脸方法通过虚拟人脸生成网络生成虚拟人脸图像;其中,所述虚拟人脸生成网络根据输入的虚拟人脸骨骼参数生成对应的
虚拟人脸图像。
16.根据本发明的捏脸处理方法的一实施例,所述虚拟人脸生成网络基于虚拟人脸数据集进行模型训练,包括以下步骤:
17.随机采集虚拟人脸骨骼参数;
18.基于虚拟人脸骨骼参数生成虚拟角色,获取对应的虚拟人脸图像;其中,所述虚拟人脸骨骼参数和所述虚拟人脸图像构成虚拟人脸数据集;
19.构建卷积神经网络;
20.根据虚拟人脸骨骼参数和虚拟人脸图像训练卷积神经网络,获取虚拟人脸生成网络。
21.根据本发明的捏脸处理方法的一实施例,所述捏脸处理方法采用微调人脸识别神经网络提取真实人脸特征图和虚拟人脸特征图;其中,所述微调人脸识别神经网络采用多个由浅到深的卷积层提取不同人脸特征的真实人脸特征图和虚拟人脸特征图。
22.根据本发明的捏脸处理方法的一实施例,所述微调人脸识别神经网络基于真实人脸数据集进行模型训练,包括以下步骤:
23.采集真实人脸数据集;
24.根据真实人脸数据集获取捏脸参数,生成对应的虚拟人脸图像;
25.基于真实人脸图像、对应的虚拟人脸图像和无关的虚拟人脸图像构建三元数据组;
26.根据三元数据组训练预训练人脸识别神经网络,获取微调人脸识别神经网络。
27.根据本发明的捏脸处理方法的一实施例,所述三元数据组通过人脸识别损失函数收敛所述预训练人脸识别神经网络,计算公式如下:
[0028][0029]
;其中,α表示阈值,xa表示真实人脸图像,x
p
表示对应的虚拟人脸图像,xn表示无关的虚拟人脸图像。
[0030]
根据本发明的捏脸处理方法的一实施例,所述人脸特征分为人脸细节特征和人脸抽象特征,所述风格化参数根据不同的人脸特征分为多种风格化参数等级;其中,所述真实人脸特征图和虚拟人脸特征图根据不同的人脸特征采用对应的风格化参数收敛虚拟人脸骨骼参数。
[0031]
根据本发明的捏脸处理方法的一实施例,所述真实人脸特征图和虚拟人脸特征图的通过人脸特征图距离损失函数迭代收敛虚拟人脸骨骼参数,计算公式如下:
[0032][0033]
;其中,l表示第l层卷积,n表示所用的卷积层总数,
[0034]hl
表示第l层卷积对应的特征图的高,
[0035]wl
表示第l层卷积对应的特征图的宽,
[0036]wl
表示风格化参数,
[0037]
feat_virtual表示虚拟人脸特征,
[0038]
feat_real表示真实人脸特征。
[0039]
本发明对比现有技术有如下的有益效果:本发明通过控制虚拟角色的风格化参数来收敛真实人脸特征图和虚拟人脸特征图的距离损失,从而获取符合风格化参数的虚拟人脸骨骼参数,进而生成到符合用户风格化需求的虚拟角色。此外,本发明还根据真实人脸图像、对应的虚拟人脸图像和无关的虚拟人脸图像构成三元数据组来训练开源的预训练人脸识别神经网络,从而获取到可以通过不同卷积层提取不同维度的人脸特征的微调人脸识别网络,然后通过设置风格化参数赋予不同卷积层所输出的人脸特征图以不同的重要程度来控制虚拟角色的风格化程度。与使用开源的真实人脸识别网络相比,本发明可以获取到更加准确的人脸特征图像,从而提升了捏脸的效果。
附图说明
[0040]
在结合以下附图阅读本公开的实施例的详细描述之后,能够更好地理解本发明的上述特征和优点。在附图中,各组件不一定是按比例绘制,并且具有类似的相关特性或特征的组件可能具有相同或相近的附图标记。
[0041]
图1是示出本发明的捏脸处理方法一实施例的流程图。
[0042]
图2是示出本发明的真实人脸图像处理方法一实施例的流程图。
[0043]
图3是本发明的虚拟人脸生成网络模型训练一实施例的流程图。
[0044]
图4是本发明的人脸识别神经网络模型训练一实施例的流程图。
[0045]
图5是本发明的收敛虚拟人脸骨骼参数方法一实施例的流程图。
具体实施方式
[0046]
以下结合附图和具体实施例对本发明作详细描述。注意,以下结合附图和具体实施例描述的诸方面仅是示例性的,而不应被理解为对本发明的保护范围进行任何限制。
[0047]
在此公开一种捏脸处理方法的一实施例,图1是示出本发明的捏脸处理方法一实施例的流程图。请参照图1,下面是对捏脸方法各步骤的详细说明。
[0048]
步骤s1:获取用户的真实人脸图像image_real。
[0049]
本实施例中,用户通过图形用户界面上传一张真实人脸图像,并根据自己的风格需求设置一组风格化参数,作为后续生成游戏角色的参照。图2是示出本发明的真实人脸图像处理方法一实施例的流程图,下面结合图2,进一步说明本实施形态。
[0050]
如图2所示,通过图形用户界面获取到用户的真实人脸图像后,在进行捏脸之前首先需要对用户上传的真实人脸图像进行质量控制。若该真实人脸图像不符合规范,例如如面部有遮挡,脸部区域面积过小等,则通过图像用户界面提示用户更换图像,以获取符合规范要求的真实人脸图像。获取到通过质量控制的人脸图像后,接着对人脸图像进行人脸矫正。具体地,将两眼连线旋转至水平,再以人脸为中心裁切人脸,矫正后得到正面的真实人脸图像image_real。最后,根据该正面的真实人脸图像image_real提取真实人脸特征图,用于后续步骤中迭代收敛人脸骨骼参数。
[0051]
步骤s2:设置虚拟角色的风格化参数w
l
,并随机初始化一组虚拟人脸骨骼参数parameter_face。
[0052]
具体地,用户通过图形用户界面根据自己的喜好和需求来设置一组虚拟角色的风格化参数w
l
作为虚拟角色的风格化参数。在设置虚拟角色的风格化参数的时候,同时随机初始化一组虚拟人脸骨骼参数,通过参照风格化参数来收敛该虚拟人脸骨骼参数,进而生成符合需求的游戏角色。
[0053]
步骤s3:基于虚拟人脸骨骼参数parameter_face生成虚拟人脸图像image_virtual。
[0054]
本实施例中,通过虚拟人脸生成网络g_face来生成虚拟人脸图像,将虚拟人脸骨骼参数parameter_face输入到虚拟人脸生成网络g_face中,即可输出对应的虚拟人脸图像image_virtual。其中,虚拟人脸生成网络g_face基于虚拟人脸数据集进行模型训练,图3是本发明的虚拟人脸生成网络模型训练一实施例的流程图。请参照图3,以下是对虚拟人脸生成网络模型训练各步骤的详细说明。
[0055]
步骤c1:随机采集虚拟人脸骨骼参数。
[0056]
步骤c2:基于虚拟人脸骨骼参数生成虚拟角色,获取对应的虚拟人脸图像;其中,虚拟人脸骨骼参数和虚拟人脸图像构成虚拟人脸数据集。
[0057]
本实施例中,随机采集大量的虚拟人脸骨骼参数,然后使用渲染引擎渲染这些虚拟人脸骨骼参数,得到对应的虚拟角色,并获取其虚拟人脸图像。其中,虚拟人脸骨骼参数和其对应的虚拟人脸图像构成虚拟人脸数据集,用于虚拟人脸生成网络g_face的模型训练。
[0058]
步骤c3:构建卷积神经网络。
[0059]
步骤c4:根据虚拟人脸骨骼参数和虚拟人脸图像训练卷积神经网络,获取虚拟人脸生成网络。
[0060]
具体地,构建一个卷积神经网络,使用步骤c2中的虚拟人脸骨骼参数和虚拟人脸图像训练该卷积神经网络,获取一个虚拟人脸生成网络g_face。将一组人脸骨骼参数输入到该虚拟人脸生成网络g_face,即可输出一张对应的虚拟人脸图像。
[0061]
步骤s4:根据真实人脸图像和虚拟人脸图像提取真实人脸特征图和虚拟人脸特征图。
[0062]
本实施例中,采用微调人脸识别神经网络facenet_finetune从真实人脸图像image_real和虚拟人脸图像image_virtual提取真实人脸特征图feat_real和虚拟人脸特征图feat_virtual。图4是本发明的微调人脸识别神经网络模型训练一实施例的流程图。请参照图4,下面是对微调人脸识别神经网络模型训练各步骤的详细说明。
[0063]
步骤d1:采集真实人脸数据集。
[0064]
步骤d2:根据真实人脸数据集获取捏脸参数,生成对应的虚拟人脸图像。
[0065]
本实施例中,采用开源的真实人脸数据集来进行模型训练。其中,真实人脸数据集包含真实人脸图像,使用现有的捏脸技术和真实人脸图像获取真实人脸对应的捏脸参数,然后使用渲染引擎渲染该捏脸参数从而生成得到对应的虚拟角色以及对应的虚拟角色图像。
[0066]
步骤d3:基于真实人脸图像、对应的虚拟人脸图像和无关的虚拟人脸图像构建三元数据组。
[0067]
具体地,根据上述步骤所述的真实人脸数据集中的每一张人脸,构建一个三元数
据组。其中,三元数据组包括本身的真实人脸图像xa、与之对应的虚拟人脸图像x
p
和随机选取一张其他真实人脸对应的虚拟人脸图像xn。
[0068]
步骤d4:根据三元数据组训练预训练人脸识别神经网络,获取微调人脸识别神经网络。
[0069]
本实施例中,获取开源的预训练人脸识别神经网络facenet作为卷积神经网络,然后使用步骤d3中的所有三元数据组对该人脸识别神经网络facenet进行模型训练,从而获取微调人脸识别神经网络facenet_finetune。其中,三元数据组使用人脸识别损失函数收敛预训练人脸识别神经网络facenet,计算公式如下:
[0070][0071]
其中,α表示阈值,f()表示预训练人脸识别神经网络facenet对应的函数。
[0072]
具体地,使用人脸识别损失函数训练预训练人脸识别神经网络facenet的训练优化目标为人脸识别损失函数值loss
face
趋近于0,阈值通常根据训练情况决定。其中,当真实人脸图像xa与对应的虚拟人脸图像x
p
的距离比真实人脸图像xa与无关的虚拟人脸图像xn的距离更大于阈值α时,产生损失,此时人脸识别损失函数值loss
face
尚未趋近于0,人脸识别网络参数向使loss
face
趋近于0的方向更新。当人脸识别损失函数值loss
face
趋近于0时,真实人脸图像xa和其对应虚拟人脸图像x
p
的距离小,真实人脸图像xa和非对应的虚拟人脸图像xn的距离大,且两距离差值大于阈值α,此时模型收敛完成,得到微调人脸识别神经网络facenet_finetune。通过该微调人脸识别神经网络facenet_finetune可以判断真实人脸和虚拟人脸是否属于同一个人,且该微调人脸识别神经网络facenet_finetune相比于未使用虚拟人脸训练的开源人脸识别网络facenet,可以更好地衡量真实人脸和虚拟人脸的相似性,其提取的卷积层特征能够合理地对应到真实人脸和虚拟人脸的特征。
[0073]
此外,本实施例中,微调人脸识别神经网络facenet_finetune采用多个由浅到深的卷积层提取不同人脸特征的真实人脸特征图和虚拟人脸特征图。相比于其他捏脸方法使用人脸识别网络提取人脸编码特征,本发明通过模型训练,使用更适合捏脸任务的微调人脸识别神经网络facenet_finetune的不同卷积层来提取人脸图像中的不同人脸特征。以提取真实人脸特征图为例,将用户上传的真实人脸图像image_real输入到微调人脸识别神经网络facenet_finetune中,微调人脸识别神经网络facenet_finetune采用由浅到深的n个卷积层layer1至layern从真实人脸特征图像中分别提取对应的真实人脸特征图出feat_real_1至feat_real_n。其中,每个卷积层的输出分别对应人脸的细节特征到人脸的抽象特征,将其与对应的风格化参数w
l
用于后续步骤中的虚拟人脸骨骼参数的迭代收敛。
[0074]
步骤s5:根据风格化参数、真实人脸特征图和虚拟人脸特征图迭代收敛所述虚拟人脸骨骼参数。
[0075]
本实施例中,针对人脸特征的真实人脸特征图和虚拟人脸特征图设有风格化参数,对细节和抽象的人脸特征赋予不同的重要程度,真实人脸特征图和虚拟人脸特征图结合风格化参数迭代收敛虚拟人脸骨骼参数。图5是本发明的收敛虚拟人脸骨骼参数方法一实施例的流程图。请参照图5,下面是对本发明的收敛虚拟人脸骨骼参数方法各步骤的详细说明。
[0076]
步骤s51:设置风格化参数。
[0077]
步骤s52:随机初始化虚拟骨骼参数。
[0078]
本实施例中,用户通过用户图像界面设置虚拟角色的风格化参数w
l
。其中,用户图形用户界面包风格化参数调整组件,用户通过该风格化参数调整组件设置不同人脸特征的风格化参数w
l

[0079]
在一种实施方式中,使用滑块作为风格化参数调整组件,通过滑块来调整风格化参数w
l
,进而调整风格化程度。其中,滑快的左端表示风格化程度最低,右端表示风格化程度最高,将滑块等分为五个段,分别对应五种风格化参数等级w1~w5。其中,w1的风格化参数为0、0.05、0.1、0.15、0.7;w2的风格化参数为0.1、0.1、0.1、0.2、0.5;w3的风格化参数为0.3、0.1、0.2、0.1、0.3;w4的风格化参数为0.5、0.2、0.1、0.1、0.1;w5的风格化参数为0.7、0.15、0.1、0.05、0。通过给予微调人脸识别神经网络facenet_finetune中5个不同卷积层layer的输出以不同风格化参数w
l
来收敛虚拟人脸骨骼参数,
[0080]
具体地,人脸特征包括细节特征和抽象特征。其中,细节特征包括眼角的角度、嘴角的弧度等边缘特征,抽象特征包括浓眉大眼等整体特征。当希望风格化程度大时,则给与浅层的卷积层layer,如layer1~2以大的风格化参数w,即增大浅层细节特征对捏脸结果的影响。反之当我们希望风格化程度小时,则增大深层的卷积层layer,例如卷积层layer4~5的风格化参数w。这是因为浅层特征对捏脸结果的影响大时,仅需要约束捏脸参数让虚拟人脸的边缘细节与真实人脸即可。
[0081]
例如在仙侠风格的捏脸中,我们仅令虚拟角色的眼角的角度或嘴角的弧度相似,而不要求整体的眼睛或者嘴巴整体的大小、位置与真实人脸对应。这样得到的捏脸结果中眼睛的大小会像标准的仙侠人脸一样偏大,但是形状类似,即该虚拟角色风格程度较大。反之若卷积层layer4~5的风格化参数w大,那约束的就是整体的眼睛或者嘴巴整体的大小、位置。此时虚拟角色的眼睛的大小就会如实反映真实人脸的眼睛大小(通常真实人脸的眼睛是小于仙侠角色的眼睛的),即该虚拟角色风格化程度低。由此,本实施例通过调整不同卷积层的风格化参数实现了风格可控的捏脸效果。
[0082]
步骤s53:基于虚拟人脸骨骼参数生成虚拟人脸图像。
[0083]
本实施例中,将虚拟人脸骨骼参数parameter_face输入到虚拟人脸生成网络g_face中,生成一张对应的虚拟人脸图像。
[0084]
步骤s54:根据虚拟人脸图像提取虚拟人脸特征图。
[0085]
本实施例中,使用微调人脸识别神经网络facenet_finetune采用多个卷积层layer从虚拟人脸图像中多个提取虚拟人脸特征图。其中,每个卷积层对应不同的人脸特征,通过不同的卷积层可以提取多个不同维度的虚拟人脸特征图,以及真实人脸特征图。
[0086]
在一种实施方式中,采用zfnet作为预训练人脸识别神经网络进行模型训练,从而得到一个包含5个卷积层的微调人脸识别神经网络facenet_finetune。通过该微调人脸识别神经网络facenet_finetune的5个不同的卷积层layer从真实人脸图像image_real和虚拟人脸图像image_virtual中提取不同人脸特征,并顺序取出5个卷积层layer1至layer5的输出作为真实人脸特征图feat_real_1~feat_real_5和虚拟人脸特征图feat_virtual_1~feat_virtual_5。其中,卷积层layer1的输出最为细节,卷积层layer5的输出最为抽象,且由卷积层layer1至卷积层layer5逐渐由细节变为抽象,然后针对不同的人脸特征设置不
同的风格化参数w来迭代收敛虚拟人脸骨骼参数。
[0087]
步骤s55:计算人脸特征图距离损失函数值。
[0088]
本实施例中,真实人脸特征图feat_real和虚拟人脸特征图feat_virtual的通过人脸特征图距离损失函数迭代收敛虚拟人脸骨骼参数parameter_face,计算公式如下:
[0089][0090]
其中,1表示第1层卷积,n表示所用的卷积层总数,h
l
表示第1层卷积对应的特征图的高,w
l
表示第1层卷积对应的特征图的宽,w
l
表示风格化参数,feat-virtual表示虚拟人脸特征,feat_real表示真实人脸特征。此外,本实施例中,所有计算过程均使用卷积神经网络,而卷积神经网络具有可微分的性质,因此可以使用梯度反向传播更新虚拟人脸骨骼参数parameter_face的值,从而使得人脸特征图距离损失函数值loss减小。
[0091]
步骤s56:判断虚拟人脸骨骼参数是否完成收敛;若是,则将完成收敛的人脸骨骼参数作为虚拟角色的捏脸参数;若否,则根据虚拟人脸骨骼参数重新生成虚拟人脸图像进行迭代。
[0092]
步骤s6:基于完成收敛的虚拟人脸骨骼参数生成虚拟角色。
[0093]
本实施例中,虚拟角色生成完成后,需要用户对该虚拟角色进行确认是否符合他的风格化需求和喜好。若用户确认该角色,则自动捏脸完成。若用户放弃该角色,则返回图形用户界面,通过图形用户界面继续调整虚拟角色的风格参数继续捏脸,直到获取到符合用户风格化需求的虚拟角色。
[0094]
提供对本公开的先前描述是为使得本领域任何技术人员皆能够制作或使用本公开。对本公开的各种修改对本领域技术人员来说都将是显而易见的,且本文中所定义的普适原理可被应用到其他变体而不会脱离本公开的精神或范围。由此,本公开并非旨在被限定于本文中所描述的示例和设计,而是应被授予与本文中所公开的原理和新颖性特征相一致的最广范围。
[0095]
本领域技术人员将进一步领会,结合本文中所公开的实施例来描述的各种解说性逻辑板块、模块、电路、和算法步骤可实现为电子硬件、计算机软件、或这两者的组合。为清楚地解说硬件与软件的这一可互换性,各种解说性组件、框、模块、电路、和步骤在上面是以其功能性的形式作一般化描述的。此类功能性是被实现为硬件还是软件取决于具体应用和施加于整体系统的设计约束。技术人员对于每种特定应用可用不同的方式来实现所描述的功能性,但这样的实现决策不应被解读成导致脱离了本发明的范围。
[0096]
结合本文所公开的实施例描述的各种解说性逻辑板块、模块、和电路可用通用处理器、数字信号处理器(dsp)、专用集成电路(asic)、现场可编程门阵列(fpga)或其它可编程逻辑器件、分立的门或晶体管逻辑、分立的硬件组件、或其设计成执行本文所描述功能的任何组合来实现或执行。通用处理器可以是微处理器,但在替换方案中,该处理器可以是任何常规的处理器、控制器、微控制器、或状态机。处理器还可以被实现为计算设备的组合,例如dsp与微处理器的组合、多个微处理器、与dsp核心协作的一个或多个微处理器、或任何其他此类配置。
[0097]
结合本文中公开的实施例描述的方法或算法的步骤可直接在硬件中、在由处理器
执行的软件模块中、或在这两者的组合中体现。软件模块可驻留在ram存储器、闪存、rom存储器、eprom存储器、eeprom存储器、寄存器、硬盘、可移动盘、cd-rom、或本领域中所知的任何其他形式的存储介质中。示例性存储介质耦合到处理器以使得该处理器能从/向该存储介质读取和写入信息。在替换方案中,存储介质可以被整合到处理器。处理器和存储介质可驻留在asic中。asic可驻留在用户终端中。在替换方案中,处理器和存储介质可作为分立组件驻留在用户终端中。
[0098]
在一个或多个示例性实施例中,所描述的功能可在硬件、软件、固件或其任何组合中实现。如果在软件中实现为计算机程序产品,则各功能可以作为一条或更多条指令或代码存储在计算机可读介质上或藉其进行传送。计算机可读介质包括计算机存储介质和通信介质两者,其包括促成计算机程序从一地向另一地转移的任何介质。存储介质可以是能被计算机访问的任何可用介质。作为示例而非限定,这样的计算机可读介质可包括ram、rom、eeprom、cd-rom或其它光盘存储、磁盘存储或其它磁存储设备、或能被用来携带或存储指令或数据结构形式的合意程序代码且能被计算机访问的任何其它介质。任何连接也被正当地称为计算机可读介质。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(dsl)、或诸如红外、无线电、以及微波之类的无线技术从web网站、服务器、或其它远程源传送而来,则该同轴电缆、光纤电缆、双绞线、dsl、或诸如红外、无线电、以及微波之类的无线技术就被包括在介质的定义之中。如本文中所使用的盘(disk)和碟(disc)包括压缩碟(cd)、激光碟、光碟、数字多用碟(dvd)、软盘和蓝光碟,其中盘(disk)往往以磁的方式再现数据,而碟(disc)用激光以光学方式再现数据。上述的组合也应被包括在计算机可读介质的范围内。
[0099]
提供对本公开的先前描述是为使得本领域任何技术人员皆能够制作或使用本公开。对本公开的各种修改对本领域技术人员来说都将是显而易见的,且本文中所定义的普适原理可被应用到其他变体而不会脱离本公开的精神或范围。由此,本公开并非旨在被限定于本文中所描述的示例和设计,而是应被授予与本文中所公开的原理和新颖性特征相一致的最广范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献