一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

特征学习的方法、目标物体的识别方法和对应装置与流程

2021-11-26 22:34:00 来源:中国专利 TAG:


1.本技术涉及图像识别技术领域,尤其涉及一种特征学习的方法、目标物体的识别方法和对应装置。


背景技术:

2.近年来,随着社交媒体平台上海量短小视频的涌现,平台对用户画像描述,内容推荐及审核的需求越来越大,物体识别作为视频理解中重要信息之一,引起了越来越多的关注,例如人脸识别。但是相比图片上的物体识别,社交平台上用户拍摄并上传的短视频普遍存在抖动,模糊,光照变化强烈,场景变化复杂等问题,这也给短视频上的物体识别带来了更大的挑战。
3.在物体识别过程中,物体的图像特征提取是较为重要的步骤之一,能够极大的影响物体识别的准确性。然而,目前对物体的图像特征提取的技术,普遍存在特征提取不准确的问题。


技术实现要素:

4.有鉴于此,本技术提供一种特征学习的方法、目标物体的识别方法和对应装置,以解决现有技术中物体的图像特征提取不准确的问题。
5.为实现上述目的,本技术提供如下技术方案:
6.本技术第一方面公开了特征学习的方法,包括:
7.获取待提取图像;其中,所述待提取图像中包括目标物体,所述目标物体为被提取特征向量的物体;
8.调用训练好的特征向量提取模型处理所述待提取图像,得到所述待提取图像中的目标物体的特征向量;其中,所述特征向量提取模型为基于图像样本中所包含目标物体的特征向量对应的第一损失值和第二损失值,对神经网络模型训练得到的;其中,所述第一损失值和所述第二损失值为基于预定中心损失函数对图像样本中所包含目标物体的特征向量进行处理得到,所述预定中心损失函数的类中心为所述神经网络模型的全连接层的权重;所述第一损失值用于表征图像样本与所述图像样本所属类别对应的类中心的差距,所述第二损失值用于表征不同的图像样本所属类别对应的类中心之间的相关性。
9.可选的,上述的方法,所述方法还包括:
10.调用所述神经网络模型处理图像样本,得到所述图像样本中目标物体的特征向量;
11.利用所述预定中心损失函数处理所述图像样本中目标物体的特征向量,得到所述第一损失值和所述第二损失值;
12.计算所述第一损失值和所述第二损失值,得到损失总值,并以所述损失总值作为训练参数,训练所述神经网络模型,并将训练好的神经网络模型作为所述特征向量提取模型。
13.可选的,上述的方法,所述利用所述预定中心损失函数处理所述图像样本中目标物体的特征向量,得到第一损失值和第二损失值,包括:
14.利用所述预定中心损失函数的最小化类内距离的计算公式,计算所述图像样本中所包含目标物体的特征向量,得到所述第一损失值;并利用所述预定中心损失函数的正交化减小类内距离的计算公式,计算所述图像样本中所包含目标物体的特征向量,得到所述第二损失值。
15.可选的,上述的方法,所述调用所述神经网络模型处理图像样本,得到所述图像样本中目标物体的特征向量之后,还包括:
16.利用第一损失函数处理所述图像样本中目标物体的特征向量,得到第三损失值、利用第二损失函数处理所述图像样本中目标物体的特征向量得到第四损失值;
17.其中:所述计算所述第一损失值和所述第二损失值,得到损失总值,包括:
18.以所述第三损失值、所述第四损失值的校正值、所述第一损失值的校正值和所述第二损失值校正值的和,作为所述损失总值;其中,所述第一损失值的校正值为所述第一损失值和预设值的积,所述第二损失值的校正值为所述第二损失值和预设值的积,所述第四损失值的校正值为所述第四损失值和预设值的积。
19.本技术第二方面公开了一种目标物体的识别方法,包括:
20.利用第一方面中任意一项所述的特征学习方法,处理待识别图像,得到所述待识别图像中目标物体的特征向量;其中,所述待识别图像中包括目标物体;
21.获取所述待识别图像的图像质量参数;其中,所述图像质量参数用于表征所述待识别图像的质量高低;
22.在所述待识别图像的图像质量参数表征所述待识别图像的图像质量高时,在检索库中对所述目标物体的特征向量进行检索,得到所述检索库中与所述待目标物体的特征向量相似度最高的物体。
23.可选的,上述的方法,所述获取所述待识别图像的图像质量参数,包括:
24.调用图像质量评估模型处理所述目标物体的特征向量,得到所述待识别图像的图像质量参数;其中,所述图像质量参数用于表征所述待识别图像的质量高低,所述图像质量评估模型由利用图像样本对神经网络模型训练得到,所述神经网络模型包括全连接层和与全连接层并行运行的质量权重层,所述全连接层得到所述图像样本的输出值,所述质量权重层得到质量评估参数;训练所述神经网络模型得到图像质量评估模型的过程中的损失值由所述图像样本的输出值和所述质量评估参数计算得到损失总值。
25.可选的,上述的方法,所述获取所述待识别图像的图像质量参数,包括:
26.获取所述待识别图像的置信度,其中,所述待识别图像的置信度用于表征所述待识别图像中包含有目标物体的概率。
27.可选的,上述的方法,所述获取所述待识别图像的图像质量参数,包括:
28.获取所述待识别图像中的目标物体的多个预设关键点的坐标;
29.利用多个预设关键点的坐标,计算得到预设关键点的第一连线,与预设关键点的第二连线之间的角度值;其中,所述预设关键点的第一连线和所述预设关键点的第二连线,分别指代所述多个预设关键点中的特定关键点之间的连线;
30.利用所述预设关键点的第一连线,与预设关键点的第二连线之间的角度值,确定
所述待识别图像中目标物体的显示角度。
31.本技术第三方面公开了一种特征学习的装置,包括:
32.获取单元,用于获取待提取图像;其中,所述待提取图像中包括目标物体,所述目标物体为被提取特征向量的物体;
33.调用单元,用于调用训练好的特征向量提取模型处理所述待提取图像,得到所述待提取图像中的目标物体的特征向量;其中,所述特征向量提取模型为基于图像样本中所包含目标物体的特征向量对应的第一损失值和第二损失值,对神经网络模型训练得到;其中,所述第一损失值和所述第二损失值为基于预定中心损失函数对图像样本中所包含目标物体的特征向量进行处理得到,所述预定中心损失函数的类中心为所述神经网络模型的全连接层的权重;所述第一损失值用于表征图像样本与所述图像样本所属类别对应的类中心的差距,所述第二损失值用于表征不同的图像样本所属类别对应的类中心之间的相关性。
34.可选的,上述的装置还包括:训练单元,用于:
35.调用所述神经网络模型处理图像样本,得到所述图像样本中目标物体的特征向量;利用所述预定中心损失函数处理所述图像样本中目标物体的特征向量,得到所述第一损失值和所述第二损失值;计算所述第一损失值和所述第二损失值,得到损失总值,并以所述损失总值作为训练参数,训练所述神经网络模型,并将训练好的神经网络模型作为所述特征向量提取模型。
36.可选的,上述的装置,所述训练单元利用中心损失函数处理所述图像样本中目标物体的特征向量,得到第一损失值和第二损失值时,用于:
37.利用所述中心损失函数的最小化类内距离的计算公式,计算所述目标物体的特征向量,得到所述第一损失值;并利用所述中心损失函数的正交化减小类内距离的计算公式,计算所述目标物体的特征向量,得到所述第二损失值。
38.可选的,上述的装置,所述训练单元调用所述神经网络模型处理图像样本,得到所述图像样本中目标物体的特征向量之后,还用于:
39.利用第一损失函数处理所述图像样本中目标物体的特征向量,得到第三损失值、利用第二损失函数处理所述图像样本中目标物体的特征向量得到第四损失值;
40.其中,所述训练单元计算所述第一损失值和所述第二损失值,得到损失总值时,用于:以所述第三损失值、所述第四损失值的校正值、所述第一损失值的校正值和所述第二损失值校正值的和,作为所述损失总值;其中,所述第一损失值的校正值为所述第一损失值和预设值的积,所述第二损失值的校正值为所述第二损失值和预设值的积,所述第四损失值的校正值为所述第四损失值和预设值的积。
41.本技术第四方面公开了一种目标物体的识别装置,包括:
42.调用单元,用于利用第一方面中任意一项所述的特征学习方法,处理待识别图像,得到所述待识别图像中目标物体的特征向量;其中,所述待识别图像中包括目标物体;
43.获取单元,用于获取所述待识别图像的图像质量参数;其中,所述图像质量参数用于表征所述待识别图像的质量高低;
44.检索单元,用于在所述待识别图像的图像质量参数表征所述待识别图像的图像质量高时,在检索库中对所述目标物体的特征向量进行检索,得到所述检索库中与所述待目标物体的特征向量相似度最高的物体。
45.可选的,上述的装置,所述获取单元,包括:
46.调用子单元,用于调用图像质量评估模型处理所述目标物体的特征向量,得到所述待识别图像的图像质量参数;其中,所述图像质量参数用于表征所述待识别图像的质量高低,所述图像质量评估模型由利用图像样本对神经网络模型训练得到,所述神经网络模型包括全连接层和与全连接层并行运行的质量权重层,所述质量权重层得到所述图像样本的输出值,所述处理层得到质量评估参数;训练所述神经网络模型得到图像质量评估模型的过程中的损失值由所述图像样本的输出值和所述质量评估参数计算得到损失总值。
47.可选的,上述的装置,所述获取单元,包括:
48.第一获取子单元,用于获取所述待识别图像的置信度,其中,所述待识别图像的置信度用于表征所述待识别图像中包含有目标物体的概率。
49.可选的,上述的装置,所述获取单元,包括:
50.第二获取子单元,用于获取所述待识别图像中的目标物体的多个预设关键点的坐标;
51.计算子单元,用于利用多个预设关键点的坐标,计算得到预设关键点的第一连线,与预设关键点的第二连线之间的角度值;其中,所述预设关键点的第一连线和所述预设关键点的第二连线,分别指代所述多个预设关键点中的特定关键点之间的连线;
52.确定子单元,用于利用所述预设关键点的第一连线,与预设关键点的第二连线之间的角度值,确定所述待识别图像中目标物体的显示角度。
53.本技术第五方面公开了一种电子设备,包括:
54.一个或多个处理器;
55.存储装置,其上存储有一个或多个程序;
56.当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如第一方面和第二方面中任意一项所述的方法。
57.本技术第六方面公开了一种计算机存储介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如第一方面和第二方面中任意一项所述的方法。
58.从上述技术方案可以看出,本技术提供的一种特征学习的方法中,由于特征向量提取模型是为基于图像样本中所包含目标物体的特征向量对应的第一损失值和第二损失值,对神经网络模型训练得到的,第一损失值用于表征图像样本与图像样本所属类别对应的类中心的差距,第二损失值用于表征不同的图像样本所属类别对应的类中心之间的相关性;因此可以看出,经过第一损失值和第二损失值对神经网络模型的训练,可以使训练得到的特征向量提取模型对图像进行目标物体的特征向量提取时,能够缩小图像与图像所属类别对应的类中心的差距,且减小不同的图像所属类别对应的类中心之间的相关性,提高特征向量提取模型对图像进行目标物体的特征向量的准确性。另外,中心损失函数的类中心为神经网络模型的全连接层的权重,无需另外学习参数,还从而避免参数冗余。
附图说明
59.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据
提供的附图获得其他的附图。
60.图1a为本技术实施例公开的一种神经网络模型的训练方法的方法流程图;
61.图1b为本技术另一实施例公开的一种神经网络模型的训练过程的示意图;
62.图2为本技术另一实施例公开的另一种神经网络模型的训练方法的方法流程图;
63.图3为本技术另一实施例公开的利用图像质量评估模型对图像进行评估的效果示例图;
64.图4为本技术另一实施例公开的一种特征学习的方法的方法流程图;
65.图5为本技术另一实施例公开的一种目标物体的识别方法的方法流程图;
66.图6为本技术另一实施例公开的一种人脸识别的方法的执行模块的示意图;
67.图7为本技术另一实施例公开的一种人脸识别的方法的方法流程图;
68.图8为本技术另一实施例公开的检索库数据分布图;
69.图9为本技术另一实施例公开的本技术人脸识别与现有应用的对比效果图;
70.图10为本技术另一实施例公开的一种神经网络模型的训练装置的示意图;
71.图11为本技术另一实施例公开的一种特征学习的装置的示意图;
72.图12为本技术另一实施例公开的一种目标物体的识别装置的示意图;
73.图13为本技术另一实施例公开的一种电子设备的示意图。
具体实施方式
74.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
75.在本技术中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
76.并且,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
77.人工智能(artificial intelligence,ai)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
78.人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
79.计算机视觉技术(computer vision,cv)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、ocr、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3d技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
80.本技术实施例提供的方案涉及人工智能的计算机视觉技术,具体通过如下实施例进行说明。
81.本技术实施例提供一种特征学习的方法、目标物体的识别方法和对应装置,以解决现有技术中物体的图像特征提取不准确的问题。
82.本技术实施例提供了一种神经网络模型的训练方法,如图1a所示,具体包括:
83.s101、调用神经网络模型处理图像样本,得到图像样本中目标物体的特征向量。
84.需要说明的是,在进行物体识别时,对物体图像进行特征提取是一个非常重要的步骤,是否能够准确地对物体图像进行特征提取,是影响物体识别准确度一大因素。因此,本技术实施例提供的一种神经网络模型的训练方法,用于对神经网络模型进行训练,得到可以准确提取物体特征向量提取模型。
85.还需要说明的是,图1b为神经网络模型的训练过程的示意图,本实施例结合图1a和图1b对神经网络模型的训练方法进行说明。其中,神经网络模型可以根据实际情况进行选择,本实施例中以卷积神经网络模型(convnet c)为例。
86.在进行神经网络模型训练时,首先获取训练所需要的图像样本数据,然后调用当前的网络模型处理这些图像样本,得到每一个得到图像样本中目标物体的特征向量。
87.s102、利用第一损失函数处理目标物体的特征向量,得到第一损失值、利用第二损失函数处理目标物体的特征向量得到第二损失值、以及利用第三损失函数处理目标物体的特征向量,得到第三损失值和第四损失值。
88.其中,第三损失函数是中心损失函数,其类中心为神经网络模型的全连接层的权重;第三损失值用于表征图像样本与图像样本所属类别对应的类中心的差距,第四损失值用于表征不同的图像样本所属类别对应的类中心之间的相关性。
89.需要说明的是,对于convnet c模型提取到的图像样本中目标物体的特征向量,利用交叉熵损失函数处理目标物体的特征向量,得到第一损失值,交叉熵损失函数的具体公式如下:
[0090][0091]
其中,w
i
为全连接层的参数,维度为512维,i从1到m,m为类别数;v
i
为第i个样本的特征向量,维度为512维;n为批量大小。
[0092]
交叉熵损失函数是一个分类的目标函数,利用交叉熵损失函数计算出第一损失值,该损失值在训练模型过程中使得能够预测出多个图像中的目标物体是否同一类别。
[0093]
利用三元组损失函数处理目标物体的特征向量得到第二损失值,三元组损失函数的公式如下:
[0094][0095]
其中,为样本的三元组,即样本和属于同一类别,样本和属于不同类别;α为一个阈值,最小化l
triplet
使得属于同一类别的距离使得属于同一类别的距离和属于不同类别的距离差值小于此阈值。
[0096]
利用三元组损失函数计算出第二损失值,该损失值在训练模型过程中,能够使属于同一类别的两个图像中目标物体的距离小于属于不同类别的两个图像中目标物体的距离。
[0097]
利用中心损失函数处理目标物体的特征向量,得到第三损失值和第四损失值。中心损失函数的类中心为神经网络模型的全连接层的权重,也就是说,不管是哪一类别的图像样本,在利用中心损失函数计算损失值时,均是使用同一个类中心,即使用神经网络模型的全连接层的权重,如此可以避免每一个类别图像样本均需要设置一个类中心,导致参数冗余的问题。当然,在不考虑参与冗余的情况下,针对不同类别的图像样本,设定的类中心也可以不同。
[0098]
还需要说明的是,现有的中心损失函数进行模型训练,一般都只考虑样本所属类别的类内间距尽量小,未考虑不同类别间的样本间距要尽量大,在本技术设计的中心损失函数,由于第三损失值用于表征图像样本与图像样本所属类别对应的类中心的差距,第四损失值用于表征不同的图像样本所属类别对应的类中心之间的相关性,所以样本所属类别的类内间距尽量小、以及不同类别间的样本间距要尽量大两点都考虑。
[0099]
可选的,在本技术的另一实施例中,步骤s102的一种实施方式,可以包括:
[0100]
利用第三损失函数的最小化类内距离的计算公式,计算目标物体的特征向量,得到第三损失值。
[0101]
利用第三损失函数的正交化减小类内距离的计算公式,计算目标物体的特征向量,得到第四损失值。
[0102]
具体的,将目标物体的特征向量代入中心损失函数的最小化类内距离的计算公式中,得到第三损失值,用于表征图像样本与图像样本所属类别对应的类中心的差距,具体公式如下:
[0103][0104]
其中,l
intra
为第三损失值,v
i
是样本i的特征向量,维度为512,c
yi
是样本yi的类中心,也是512维的向量,通过上述公式可以最小化样本v
i
与类中心c
yi
的距离,使得属于同一类的样本间距尽量小,尽量能聚合在一个类中心。
[0105]
将目标物体的特征向量代入中心损失函数的正交化减小类内距离的计算公式中,得到第四损失值,用于表征不同的图像样本所属类别对应的类中心之间的相关性,具体公式如下:
[0106][0107][0108]
其中,c
i
是类中心,即w
i
,c={c
i
}构成的矩阵,i为1到m的数,l
inter
为第四损失值,i为单位矩阵,||
·
||f为frobenius范数。具体的,为{c
i
}的gram矩阵,通过上述公式可以使{c
i
}的gram矩阵接近单位矩阵,从而减少类中心{c
i
}的相关性,即不同类别的的样本的样本间距更加分离。
[0109]
s103、计算第一损失值、第二损失值、第三损失值和第四损失值,得到损失总值,并以损失总值作为训练参数,训练神经网络模型,得到特征向量提取模型。
[0110]
需要说明的是,在计算得到计算第一损失值、第二损失值、第三损失值和第四损失值之后,利用第一损失值、第二损失值、第三损失值和第四损失值计算得到一个损失总值,然后将该损失总值作为训练参数,迭代回神经网络模型中对模型进行训练,直到后续计算出来的损失总值下降到预设好的标准时,表示该神经网络模型训练完成,并以训练完成后的神经网络模型作为特征向量提取模型,用于提取图像样本中目标物体的特征向量。
[0111]
还需要说明的是,本技术实施例采用的是resnet50的网络结构,也可以通过使用不同的基础网络结构结合本技术提出的中心损失函数来得到类似的效果,例如采用更深更广的网络结构如resnet100,efficientnet等。
[0112]
可选的,在本技术的另一实施例中,步骤s103的一种实施方式,可以包括:
[0113]
以第一损失值、第二损失值的校正值、第三损失值的校正值和第四损失值校正值的和,作为损失总值;
[0114]
其中,第二损失值的校正值为第二损失值和预设值的积,第三损失值的校正值为第三损失值和预设值的积,第四损失值的校正值为第四损失值和预设值的积。
[0115]
具体的,计算损失总值的公式如下:
[0116][0117]
其中,l
total
为损失总值,α1、α2、α3为预设的调整值,可以根据实际情况进行调整,通过该公式,可以对第二损失值、第三损失值和第四损失值进行调整,并计算得到损失总值。
[0118]
另外,计算得到作为训练参数训练神经网络模型的损失总值时,也可以不采用上述步骤s102和s103提出的方式,也可以采用:
[0119]
利用中心损失函数处理图像样本中目标物体的特征向量,得到两个损失值;计算两个损失值,得到损失总值,以损失总值作为训练参数,训练神经网络模型。
[0120]
同样,中心损失函数的类中心为神经网络模型的全连接层的权重;一个损失值用于表征图像样本与图像样本所属类别对应的类中心的差距,另一个损失值用于表征不同的图像样本所属类别对应的类中心之间的相关性。
[0121]
在计算两个损失值得到损失总值时,也是将用于表征图像样本与图像样本所属类别对应的类中心的差距的损失值,与用于表征不同的图像样本所属类别对应的类中心之间的相关性的损失值的校正值的和,作为损失总值。用于表征不同的图像样本所属类别对应的类中心之间的相关性的损失值的校正值,为用于表征不同的图像样本所属类别对应的类中心之间的相关性的损失值和预设值的积。
[0122]
本技术另一实施例还提供了另一种神经网络模型的训练方法,用于生成人脸质量
评估模型,具体如图2所示,包括:
[0123]
s201、调用神经网络模型处理图像样本,得到图像样本中目标物体的特征向量。
[0124]
需要说明的是,步骤s201的执行过程可以参考步骤s101实施例内容,此处不再赘述。
[0125]
s202、将图像样本的特征向量同时输入到全连接层中和质量权重层中,分别得到图像样本的输出值和图像样本的质量评估参数。
[0126]
需要说明的是,本实施例中的神经网络模型同样使用卷积神经网络模型,其中,在该卷积神经网络模型中,额外添加了一层与全连接层并行运行的一层质量权重层,质量权重层在原本全连接层的基础一个增加了sigmoid函数。质量权重层可以将512维的特征向量映射到1维的数值,并进行归一化,得到0到1之间的数值。在提取到图像样本的特征向量之后,将图像样本的特征向量同时输入到全连接层和质量权重层中,全连接层得到图像样本的输出值,即利用损失函数计算得到图像样本的损失值。而质量权重层会输出一个质量评估参数,该质量评估参数可以反映出图像样本的质量高低。
[0127]
s203、计算图像样本的输出值和图像样本的质量评估参数,得到损失总值,并以损失总值作为训练参数,训练神经网络模型,得到图像质量评估模型。
[0128]
需要说明的是,在得到图像样本的输出值和图像样本的质量评估参数之后,计算得到图像样本的输出值和图像样本的质量评估参数的积,作为图像质量评估模型的损失总值,具体的计算公式如下:
[0129][0130]
其中,att(i)是样本i经过质量权重层计算得到的质量评估参数,loss(i)是样本i在全连接层利用损失函数计算得到的输出值,loss为图像质量评估模型的损失总值,const是一个常值。然后将该损失总值作为训练参数,迭代回神经网络模型中对模型进行训练,直到后续计算出来的损失总值下降到预设好的标准时,表示该神经网络模型训练完成,并以训练完成后的神经网络模型作为图像质量评估模型,用于对图像样本的图像质量进行评估。利用该图像质量评估模型对图像进行评估的效果如图3所示,从左到右,图像的质量从高到底进行排序。
[0131]
利用本技术训练得到的图像质量评估模型,可以准确的对图像质量进行评估,无需依赖人工来对图片质量进行评估,也解决了由于人工判断图像质量的标准比较主观,特别是图像质量介于好与差中间的图像,人工评估的效率和质量就会大大降低,从而导致物体识别的效果较差的问题。同时该图像质量评估模型的数据迁移性好,在不同的场景下,只需通过调整质量分的阈值就可以轻松迁移到其他应用场景。
[0132]
本技术另一实施例还提供了一种特征学习的方法,如图4所示,具体包括:
[0133]
s401、获取待识别图像;其中,待识别图像中包括目标物体。
[0134]
需要说明的是,在进行特征学习过程中,首先获取待识别的图像,其中,待识别图像中包括需要进行识别的目标物体。
[0135]
s402、调用特征向量提取模型处理待识别图像,得到待识别图像中的目标物体的特征向量;其中,特征向量提取模型采用上述任意一项实施例公开的神经网络模型的训练方法训练得到。
[0136]
需要说明的是,将待识别图像输入到已经训练好的特征向量提取模型中对待识别图像中的目标物体进行特征提取,得到待识别图像中的目标物体的特征向量。利用本技术训练得到特征向量提取模型,可以准确地对图像样本中的目标物体进行特征提取,提高了物体识别的准确性。
[0137]
还需说明的是,利用本技术的特征学习的方法提取到待识别图像中的目标物体的特征向量,与现有的应用交叉熵损失函数,三元组损失函数,类中心损失函数等三种损失函数的现有技术相比,在公共数据集lfw、cfp

fp和agedb

30上的物体比对和识别上的准确率均为最佳,具体可参见表1:
[0138][0139]
表1
[0140]
本技术实施例提供的一种特征学习的方法中,由于特征向量提取模型是为基于图像样本中所包含目标物体的特征向量对应的第一损失值和第二损失值,对神经网络模型训练得到的,第一损失值用于表征图像样本与图像样本所属类别对应的类中心的差距,第二损失值用于表征不同的图像样本所属类别对应的类中心之间的相关性;因此可以看出,经过第一损失值和第二损失值对神经网络模型的训练,可以使训练得到的特征向量提取模型对图像进行目标物体的特征向量提取时,能够缩小图像与图像所属类别对应的类中心的差距,且减小不同的图像所属类别对应的类中心之间的相关性,提高特征向量提取模型对图像进行目标物体的特征向量的准确性。
[0141]
需要说明的是,对图像执行特征学习方法,得到图像中特定物体的特征向量,特定物体的特征向量一般可以应用于执行识别的任务,即通过物体的特征向量,实现对图像中特定物体的身份识别,还可以实现物体属性的预测,例如,通过特征学习提取得到图像中人脸的特征向量,通过人脸的特征向量,来对人脸的颜值/年龄等属性进行预测。
[0142]
还需要说明的是,本实施例公开的特征学习的方法中,在执行步骤s402之前,还可以包括训练得到特征向量提取模型的步骤。
[0143]
具体的,训练得到特征向量提取模型的方法,包括:
[0144]
调用神经网络模型处理图像样本,得到图像样本中目标物体的特征向量;
[0145]
利用预定中心损失函数处理图像样本中目标物体的特征向量,得到表征图像样本与图像样本所属类别对应的类中心的差距的损失值、以及表征不同的图像样本所属类别对应的类中心之间的相关性的损失值;
[0146]
计算上述两个损失值,得到损失总值,并以损失总值作为训练参数,训练神经网络模型,并将训练好的神经网络模型作为特征向量提取模型。
[0147]
当然,训练得到特征向量提取模型方法的具体实现内容,可参见神经网络模型的训练方法的实施例内容,此处不再赘述。
[0148]
本技术另一实施例还提供了一种目标物体的识别方法,如图5所示,具体包括:
[0149]
s501、获取待识别图像;其中,待识别图像中包括目标物体。
[0150]
s502、调用特征向量提取模型处理待识别图像,得到待识别图像中的目标物体的特征向量;其中,特征向量提取模型采用上述实施例中公开的神经网络模型的训练方法训练得到。
[0151]
需要说明的是,步骤s501以及步骤s502的实施方式可以参考图4的实施例内容,此处不在赘述。
[0152]
s503、获取待识别图像的图像质量参数;其中,图像质量参数用于表征待识别图像的质量高低。
[0153]
需要说明的是,由于图像质量的高低会影响物体识别的准确性,图像质量越高就越好识别,图像质量低就越难识别,因此,在进行待识别图像的物体识别之前,需要先获取待识别图像的图像质量参数,才能筛选出高质量的图像,提高物体识别的准确性。其中,图像质量参数用于表征待识别图像的质量高低。
[0154]
可选的,在本技术的另一实施例中,步骤s503的一种实施方式,可以包括:
[0155]
调用图像质量评估模型处理目标物体的特征向量,得到待识别图像的图像质量参数。
[0156]
其中,图像质量参数用于表征待识别图像的质量高低,图像质量评估模型由利用图像样本对神经网络模型训练得到,神经网络模型包括全连接层和与全连接层并行运行的质量权重层,全连接层得到图像样本的输出值,质量权重层得到质量评估参数;训练神经网络模型得到图像质量评估模型的过程中的损失值由图像样本的输出值和质量评估参数计算得到损失总值。
[0157]
需要说明的是,将待识别图像中目标物体的特征向量输入到上述训练得到的图像质量评估模型中,图像质量评估模型中的质量权重层,将512维的目标物体的特征向量映射到1维的数值,并进行归一化,得到0到1之间的数值,从而输出一个质量评估参数,该质量评估参数可以反映出图像样本的质量高低,利用该质量评估参数就可以直接判断待识别的图像的质量是高还是低。
[0158]
可选的,在申请的另一实施例中,步骤s503的一种实施方式,可以包括:
[0159]
获取待识别图像的置信度,其中,待识别图像的置信度用于表征待识别图像中包含有目标物体的概率。
[0160]
需要说明的是,在检测到目标物体的时候,可以通过物体检测器,对待识别图像进行检测,输出待识别图像的置信度,如果待识别图像的置信度高,那么就表示待识别图像中包含有目标物体的概率大;如果待识别图像的置信度低,那么就表示待识别图像中包含有目标物体的概率小。
[0161]
可选的,在本技术的另一实施例中,步骤s503的一种实施方式,可以包括:
[0162]
获取待识别图像中的目标物体的多个预设关键点的坐标。
[0163]
利用多个预设关键点的坐标,计算得到预设关键点的第一连线,与预设关键点第二连线之间的角度值;其中,预设关键点的第一连线和预设关键点第二连线,分别指代多个预设关键点中的特定关键点之间的连线。
[0164]
利用预设关键点的第一连线,与预设关键点第二连线之间的角度值,确定待识别
图像中目标物体的显示角度。
[0165]
需要说明的是,获取待识别图像中的目标物体的多个预设关键点的坐标,例如待识别图像中的目标物体是人脸,则获取人脸上鼻子、嘴巴、眼睛等关键点的坐标,利用这些预设关键点的坐标,在各个关键点之间用线段相连。然后利用各个关键点之间的连线,计算出这些线段之间的角度值,比如嘴巴到鼻子的角度,嘴巴到左眼的角度等等。根据这些关键点的连线之间的角度值,确定出待识别图像中目标物体的显示角度,通过显示角度来判断待识别图像的质量高低。比如人脸的显示角度在图像中可能是侧脸,也可能是正脸,如果是侧脸,那么图像的质量就低,如果是正脸,那么图像的质量就高。
[0166]
s504、在待识别图像的图像质量参数表征待识别图像的图像质量高时,在检索库中对目标物体的特征向量进行检索,得到检索库中与待目标物体的特征向量相似度最高的物体。
[0167]
需要说明的是,如果待识别图像的图像质量参数反映出当前待识别图像的图像质量为高时,则根据提取到的待识别图像中目标物体的特征向量,在检索库中对目标物体的特征向量进行检索,查找出检索库中与待目标物体的特征向量相似度最高的特征向量所对应的物体,以查找到的物体作为当前目标物体的识别结果,并输出该识别结果。
[0168]
本技术实施例提供的一种目标物体的识别方法中,首先获取待识别图像,其中,待识别图像中包括目标物体。调用本技术训练得到的特征向量提取模型处理待识别图像,得到待识别图像中的目标物体的特征向量,并获取待识别图像的图像质量参数,其中,图像质量参数可以表征待识别图像的质量高低。然后在待识别图像的图像质量参数表征待识别图像的图像质量高时,在检索库中对目标物体的特征向量进行检索,得到检索库中与待目标物体的特征向量相似度最高的物体。由此可知,通过本技术的方法,可以利用特征向量提取模型准确对目标物体的特征向量进行提取,同时获取待识别图像的图像质量参数,从而筛选出质量高的图像再进行物体识别,解决了物体的图像特征提取不准确以及图像质量评估效果差等因素导致的物体识别不准确的问题。
[0169]
为方便理解,在申请的另一实施例中提供了一种人脸识别的方法,具体以人脸识别为例进行说明。首先需要说明的是,参见图6,人脸识别的方法由六个模块来执行,分别为人脸检测模块601,关键点检测模块602,对齐模块603,特征提取模块604,人脸聚类及质量过滤模块605,以及人脸检索模块606,各个模块的具体执行过程参见下述人脸识别的方法实施例。
[0170]
本技术实施例提供的一种人脸识别的方法,如图7所示,具体包括:
[0171]
s701、对视频中的人脸进行检测,得到待识别的人脸图像。
[0172]
需要说明的是,在对视频中的图像进行人脸识别时,首先人脸检测模块601针对视频的视频帧进行人脸检测,如果检测到人脸,就确定出人脸所在的图像区域,并把人脸所在图像区域单独截取出来,生成待识别的人脸图像。
[0173]
s702、对待识别的人脸进行目标关键点的检测,得到目标关键点的位置信息。
[0174]
需要说明的是,关键点检测模块602接收人脸检测模块601发送的待识别的人脸图像,并针对待识别的人脸图像中预设的目标关键点进行检测,例如嘴巴、鼻子、眼睛等部位,得到嘴巴、鼻子、眼睛等部位的具体坐标。
[0175]
s703、利用目标关键点的位置信息对待识别的人脸进行对齐处理,得到对齐后的
人脸图像。
[0176]
需要说明的是,对齐模块603接收到关键点检测模块602发送的人脸图像以及目标关键点的位置信息之后,利用仿射变化的方法,根据目标关键点的坐标,获取到人脸图像中嘴巴、鼻子、眼睛等各个关键点在其人脸图像中的位置关系。然后将人脸图像中嘴巴、鼻子、眼睛等各个关键点在其人脸图像中的位置关系与一张标准的正脸中各个关键点位置关系进行对齐处理,得到对齐后的人脸图像。
[0177]
s704、对对齐后的人脸图像进行特征提取,得到人脸图像的特征向量。
[0178]
需要说明的是,特征提取模块604接收到对齐模块603发送的对齐后的人脸图像后,将对齐后的人脸图像输入到上述特征向量提取模型中进行特征提取,得到人脸图像对应的特征向量,特征向量的维度为512维。
[0179]
s705、利用人脸图像的特征向量中筛选出能够表征人脸图像质量高的特征向量。
[0180]
需要说明的是,人脸聚类及质量过滤模块605接收到特征提取模块604发送的人脸图像的特征向量后,则对人脸图像的特征向量进行聚类,可以通过计算内积等方法,计算出特征向量之间的相似度,将相似度高的特征向量聚在一起,其目的也就是为了将同一个人的人脸特征向量聚在一起,然后从聚类好后的特征向量中选取出能够反映出其特征向量所对应的人脸图像质量高的特征向量。
[0181]
s706、在检索库中对筛选出的人脸图像的特征向量进行检索,得到检索库中与筛选出的人脸图像的特征向量相似度最高的人脸。
[0182]
需要说明的是,人脸检索模块606根据人脸聚类及质量过滤模块605筛选得到的人脸图像的特征向量,在检索库中对该人脸图像的特征向量进行检索,查找出检索库中与人脸图像的特征向量相似度最高的特征向量所对应的人脸,以查找到的人脸作为该人脸图像的识别结果,并输出该识别结果。
[0183]
还需要说明的是,检索库中积累了丰富的名人数据库,支持5w多的名人识别,娱乐、政治、体育、经济、科技、文化、军人、英烈及近代历史等9大领域82个子领域,具体的数据分别如图8所示。检索库采用数据结构化的存储,客户通过电子设备可轻松查看。
[0184]
并且,本方案在实际应用中,人脸识别准确率和召回在不同等领域均达到了不错的结果。同时,对比现有的其他应用,本方案的人脸识别服务在不同领域下的识别准确率和召回比现有的其他应用也更加出色,具体对比情况可参见图9。
[0185]
在本技术的另一实施例还公开了一种神经网络模型的训练装置100,如图10所示,包括:
[0186]
调用单元1001,用于调用神经网络模型处理图像样本,得到图像样本中目标物体的特征向量。
[0187]
处理单元1002,用于利用第一损失函数处理目标物体的特征向量,得到第一损失值、利用第二损失函数处理目标物体的特征向量得到第二损失值、以及利用第三损失函数处理目标物体的特征向量,得到第三损失值和第四损失值;其中,第三损失函数为类中心为神经网络模型的全连接层的权重的中心损失函数;第三损失值用于表征图像样本与图像样本所属类别对应的类中心的差距,第四损失值用于表征不同的图像样本所属类别对应的类中心之间的相关性。
[0188]
模型训练单元1003,用于计算第一损失值、第二损失值、第三损失值和第四损失
值,得到损失总值,并以损失总值作为训练参数,训练神经网络模型,得到特征向量提取模型。
[0189]
本实施例中,调用单元1001、处理单元1002以及模型训练单元1003的具体执行过程,可参见对应图1a的方法实施例内容,此处不再赘述。
[0190]
本技术实施例提供的一种神经网络模型的训练装置中,首先调用神经网络模型处理图像样本,得到图像样本中目标物体的特征向量。利用第一损失函数处理目标物体的特征向量,得到第一损失值、利用第二损失函数处理目标物体的特征向量得到第二损失值、以及利用第三损失函数处理目标物体的特征向量,得到第三损失值和第四损失值。计算第一损失值、第二损失值、第三损失值和第四损失值,得到损失总值,并以损失总值作为训练参数,训练神经网络模型,得到特征向量提取模型。利用本技术提供的神经网络模型的训练装置对特征向量提取模型进行训练时,只需要使用全连接层的权重作为参数,无需另外学习参数,从而避免参数冗余,并且,经过第一损失值和第二损失值对神经网络模型的训练,可以使训练得到的特征向量提取模型对图像进行目标物体的特征向量提取时,能够缩小图像与图像所属类别对应的类中心的差距,且减小不同的图像所属类别对应的类中心之间的相关性,提高特征向量提取模型对图像进行目标物体的特征向量的准确性。
[0191]
可选的,在本技术的另一实施例中,处理单元1002的一种实施方式,包括:
[0192]
第一计算子单元,用于利用第三损失函数的最小化类内距离的计算公式,计算目标物体的特征向量,得到第三损失值;并利用第三损失函数的正交化减小类内距离的计算公式,计算目标物体的特征向量,得到第四损失值。
[0193]
本实施例中,第一计算子单元的具体执行过程,可参见上述对应的方法实施例内容,此处不再赘述。
[0194]
可选的,在本技术的另一实施例中,模型训练单元1003的一种实施方式,包括:
[0195]
第二计算子单元,用于以第一损失值、第二损失值的校正值、第三损失值的校正值和第四损失值校正值的和,作为损失总值;其中,第二损失值的校正值为第二损失值和预设值的积,第三损失值的校正值为第三损失值和预设值的积,第四损失值的校正值为第四损失值和预设值的积。
[0196]
本实施例中,第二计算子单元的具体执行过程,可参见上述对应的方法实施例内容,此处不再赘述。
[0197]
可选地,处理单元1002还可以用于利用中心损失函数处理图像样本中目标物体的特征向量,得到两个损失值;计算两个损失值,得到损失总值,以损失总值作为训练参数,训练神经网络模型。同样,中心损失函数的类中心为神经网络模型的全连接层的权重;一个损失值用于表征图像样本与图像样本所属类别对应的类中心的差距,另一个损失值用于表征不同的图像样本所属类别对应的类中心之间的相关性。
[0198]
并且,模型训练单元1003也可以用于利用中心损失函数处理图像样本中目标物体的特征向量,得到两个损失值,计算得到损失总值。具体的,模型训练单元在计算两个损失值得到损失总值时,也是将用于表征图像样本与图像样本所属类别对应的类中心的差距的损失值,与用于表征不同的图像样本所属类别对应的类中心之间的相关性的损失值的校正值的和,作为损失总值。用于表征不同的图像样本所属类别对应的类中心之间的相关性的损失值的校正值,为用于表征不同的图像样本所属类别对应的类中心之间的相关性的损失
值和预设值的积。
[0199]
在本技术的另一实施例还公开了一种特征学习的装置110,如图11所示,包括:
[0200]
获取单元1101,用于获取待提取图像;其中,待提取图像中包括目标物体,目标物体为被提取特征向量的物体。
[0201]
调用单元1102,用于调用特征向量提取模型处理待提取图像,得到待提取图像中的目标物体的特征向量;其中,其中,特征向量提取模型为基于图像样本中所包含目标物体的特征向量对应的第一损失值和第二损失值,对神经网络模型训练得到的;其中,第一损失值和第二损失值为基于预定中心损失函数对图像样本中所包含目标物体的特征向量进行处理得到,预定中心损失函数的类中心为神经网络模型的全连接层的权重;第一损失值用于表征图像样本与图像样本所属类别对应的类中心的差距,第二损失值用于表征不同的图像样本所属类别对应的类中心之间的相关性。
[0202]
可选的,上述的装置还包括训练单元,用于:
[0203]
调用神经网络模型处理图像样本,得到图像样本中目标物体的特征向量;利用预定中心损失函数处理图像样本中目标物体的特征向量,得到第一损失值和第二损失值;计算第一损失值和第二损失值,得到损失总值,并以损失总值作为训练参数,训练神经网络模型,并将训练好的神经网络模型作为特征向量提取模型。
[0204]
可选的,上述的装置,训练单元利用中心损失函数处理图像样本中目标物体的特征向量,得到第一损失值和第二损失值时,用于:
[0205]
利用中心损失函数的最小化类内距离的计算公式,计算所述目标物体的特征向量,得到所述第一损失值;并利用中心损失函数的正交化减小类内距离的计算公式,计算目标物体的特征向量,得到第二损失值。
[0206]
可选的,上述的装置,训练单元调用神经网络模型处理图像样本,得到图像样本中目标物体的特征向量之后,还用于:
[0207]
利用第一损失函数处理图像样本中目标物体的特征向量,得到第三损失值、利用第二损失函数处理图像样本中目标物体的特征向量得到第四损失值;
[0208]
其中,训练单元计算第一损失值和第二损失值,得到损失总值时,用于:以第三损失值、第四损失值的校正值、第一损失值的校正值和第二损失值校正值的和,作为损失总值;其中,第一损失值的校正值为第一损失值和预设值的积,第二损失值的校正值为第二损失值和预设值的积,第四损失值的校正值为第四损失值和预设值的积。
[0209]
本实施例中,获取单元1101以及调用单元1102的具体执行过程,可参见对应图4的方法实施例内容,此处不再赘述。并且,训练单元训练神经网络模型的具体执行过程,可参见对应图1a的方法实施例的内容,此处也不再赘述。
[0210]
在本技术的另一实施例还公开了一种目标物体的识别装置120,如图12所示,包括:
[0211]
调用单元1201,用于利用对应图4的实施例公开的特征学习方法,处理待识别图像,得到待识别图像中目标物体的特征向量;其中,待识别图像中包括目标物体;
[0212]
获取单元1202,用于获取待识别图像的图像质量参数;其中,图像质量参数用于表征待识别图像的质量高低;
[0213]
检索单元1203,用于在待识别图像的图像质量参数表征待识别图像的图像质量高
时,在检索库中对目标物体的特征向量进行检索,得到检索库中与待目标物体的特征向量相似度最高的物体。
[0214]
本实施例中,调用单元1201、获取单元1202、以及检索单元1203的具体执行过程,可参见对应图5的方法实施例内容,此处不再赘述。
[0215]
可选的,在本技术的另一实施例中,获取单元1202的一种实施方式,包括:
[0216]
调用子单元,用于调用图像质量评估模型处理目标物体的特征向量,得到待识别图像的图像质量参数;其中,图像质量参数用于表征待识别图像的质量高低,图像质量评估模型由利用图像样本对神经网络模型训练得到,神经网络模型包括全连接层和与全连接层并行运行的质量权重层,质量权重层得到图像样本的输出值,处理层得到质量评估参数;训练神经网络模型得到图像质量评估模型的过程中的损失值由图像样本的输出值和质量评估参数计算得到损失总值。
[0217]
本实施例中,调用子单元的具体执行过程,可参见上述对应的方法实施例内容,此处不再赘述。
[0218]
可选的,在本技术的另一实施例中,获取单元1202的一种实施方式,包括:
[0219]
第一获取子单元,用于获取待识别图像的置信度,其中,待识别图像的置信度用于表征待识别图像中包含有目标物体的概率。
[0220]
本实施例中,第一获取子单元的具体执行过程,可参见上述对应的方法实施例内容,此处不再赘述。
[0221]
可选的,在本技术的另一实施例中,获取单元1202的一种实施方式,包括:
[0222]
第二获取子单元,用于获取待识别图像中的目标物体的多个预设关键点的坐标。
[0223]
计算子单元,用于利用多个预设关键点的坐标,计算得到预设关键点的第一连线,与预设关键点的第二连线之间的角度值;其中,预设关键点的第一连线和预设关键点的第二连线,分别指代多个预设关键点中的特定关键点之间的连线。
[0224]
确定子单元,用于利用预设关键点的第一连线,与预设关键点的第二连线之间的角度值,确定待识别图像中目标物体的显示角度。
[0225]
本实施例中,第二获取子单元、计算子单元以及确定子单元的具体执行过程,可参见上述对应的方法实施例内容,此处不再赘述。
[0226]
本技术另一实施例还提供了一种电子设备130,如图13所示,具体包括:
[0227]
一个或多个处理器1301。
[0228]
存储装置1302,其上存储有一个或多个程序。
[0229]
当一个或多个程序被一个或多个处理器1301执行时,使得一个或多个处理器1301实现如上述实施例中任意一项方法。
[0230]
本技术另一实施例还提供了计算机存储介质,其上存储有计算机程序,其中,计算机程序被处理器执行时实现如上述实施例中任意一项方法。
[0231]
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或
者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
[0232]
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
[0233]
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本技术的精神或范围的情况下,在其它实施例中实现。因此,本技术将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献