一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

数据处理方法、装置、存储介质和处理器与流程

2022-03-14 04:30:16 来源:中国专利 TAG:


1.本发明涉及数据处理领域,具体而言,涉及一种数据处理方法、装置、存储介质和处理器。


背景技术:

2.目前,在分类数较少,通过单台图形处理器(graphics processing unit,简称为gpu)进行训练时,采用随机梯度下降(stochastic gradient descent,简称为sgd)方法进行收敛的速度比较慢,训练时间也比较长。
3.而在分类数较多,单台gpu机器无法训练,需要多台gpu机器并行计算时,采用sgd方法的网络传输开销也比较高,并且训练的迭代收敛轮数也较多,从而存在对任务进行分类的效率低的技术问题。
4.针对上述的问题,目前尚未提出有效的解决方案。


技术实现要素:

5.本发明实施例提供了一种数据处理方法、装置、存储介质和处理器,以至少解决对任务进行分类的效率低的技术问题。
6.根据本发明实施例的一个方面,提供了一种数据处理方法。该方法可以包括:在目标模型中确定出分类层;基于目标任务确定分类层的原始参数;对原始参数进行初始化,得到目标参数;基于具有目标参数的分类层对目标任务进行分类,得到目标任务的分类结果;基于分类结果输出目标任务所指示的目标对象的信息。
7.根据本发明实施例的一个方面,还提供了另一种数据处理方法。该方法可以包括:在人脸识别模型中确定出分类层,其中,人脸识别模型用于对输入的人脸图像进行识别;基于目标人脸图像确定分类层的原始识别参数;对原始识别参数进行初始化,得到目标识别参数;基于具有目标识别参数的分类层对目标人脸图像进行识别,得到目标人脸图像的识别结果;基于识别结果输出目标人脸图像所指示的人脸对象的信息。
8.根据本发明实施例的一个方面,还提供了另一种数据处理方法。该方法可以包括:在对象识别模型中确定出分类层,其中,对象识别模型用于对输入的标识进行识别;基于目标标识确定分类层的原始识别参数;对原始识别参数进行初始化,得到目标识别参数;基于具有目标识别参数的分类层对目标标识进行识别,得到目标标识的识别结果;基于识别结果输出目标标识所指示的目标对象的信息。
9.根据本发明实施例的一个方面,还提供了另一种数据处理方法。该方法可以包括:获取模型训练请求;响应模型训练请求,基于目标任务确定目标模型的分类层的原始参数;对原始参数进行初始化,得到目标参数;基于目标参数对目标模型进行更新;输出更新后的目标模型,其中,更新后的目标模型包括具有目标参数的分类层,具有目标参数的分类层用于对目标任务进行分类,并基于得到的目标任务的分类结果输出目标任务所指示的目标对象的信息。
10.根据本发明实施例的一个方面,还提供了一种数据处理装置。该装置可以包括:第一确定单元,用于在目标模型中确定出分类层;第二确定单元,用于基于目标任务确定分类层的原始参数;第一初始化单元,用于对原始参数进行初始化,得到目标参数;分类单元,用于基于具有目标参数的分类层对目标任务进行分类,得到目标任务的分类结果;第一输出单元,用于基于分类结果输出目标任务所指示的目标对象的信息。
11.根据本发明实施例的一个方面,还提供了另一种数据处理装置。该装置可以包括:第三确定单元,用于在人脸识别模型中确定出分类层,其中,人脸识别模型用于对输入的人脸图像进行识别;第四确定单元,用于基于目标人脸图像确定分类层的原始识别参数;第二初始化单元,用于对原始识别参数进行初始化,得到目标识别参数;第一识别单元,用于基于具有目标识别参数的分类层对目标人脸图像进行识别,得到目标人脸图像的识别结果;基于识别结果输出目标人脸图像所指示的人脸对象的信息。
12.根据本发明实施例的一个方面,还提供了另一种数据处理装置。该装置可以包括:第五确定单元,用于在对象识别模型中确定出分类层,其中,对象识别模型对输入的标识进行识别;第六确定单元,用于基于目标标识确定分类层的原始识别参数;第三初始化单元,用于对原始识别参数进行初始化,得到目标识别参数;第二识别单元,用于基于具有目标识别参数的分类层对目标标识进行识别,得到目标标识的识别结果;基于识别结果输出目标标识所指示的目标对象的信息。
13.根据本发明实施例的另一方面,还提供了一种计算机可读存储介质。该计算机可读存储介质包括存储的程序,其中,在程序被处理器运行时控制计算机可读存储介质所在设备执行本发明实施例的数据处理方法。
14.根据本发明实施例的另一方面,还提供了一种处理器。该处理器用于运行程序,其中,程序运行时执行本发明实施例的数据处理方法。
15.根据本发明实施例的另一方面,还提供了一种数据处理系统。该系统可以包括:处理器;存储器,与处理器相连接,用于为处理器提供处理以下处理步骤的指令:在目标模型中确定出分类层;基于目标任务确定分类层的原始参数;对原始参数进行初始化,得到目标参数;基于具有目标参数的分类层对目标任务进行分类,得到目标任务的分类结果;基于分类结果输出目标任务所指示的目标对象的信息。
16.在本发明实施例中,在目标模型中确定出分类层;基于目标任务确定分类层的原始参数;对原始参数进行初始化,得到目标参数;基于具有目标参数的分类层对目标任务进行分类,得到目标任务的分类结果;基于分类结果输出目标任务所指示的目标对象的信息。也就是说,本技术对分类层中的与目标任务对应的参数,在模型微调过程中进行初始化,调整后的参数可以使得分类层对于任务分类具有更好的效果,且收敛速度块,训练时间短,开销低,从而解决了对任务进行分类的效率低的技术问题,达到了提高对任务进行分类的效率的技术效果。
附图说明
17.此处所说明的附图用来提供对本发明的进一步理解,构成本技术的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
18.图1是根据本发明实施例的一种用于实现数据处理方法的计算机终端(或移动设
备)的硬件结构框图;
19.图2是根据本发明实施例的一种数据处理方法的流程图;
20.图3a是根据本发明实施例的另一种数据处理方法的流程图;
21.图3b是根据本发明实施例的一种数据处理的示意图;
22.图4a是根据本发明实施例的另一种数据处理方法的流程图;
23.图4b是根据本发明实施例的另一种数据处理的示意图;
24.图5(a)是根据本发明实施例的一种在迭代上的训练损失的示意图;
25.图5(b)是根据本发明发实施例的一种在单次训练迭代上的训练损失的示意图;
26.图5(c)是根据本发明实施例的一种在运行时间上的训练损失的示意图;
27.图6(a)是根据本发明实施例的一种针对鸟类数据集的训练损失的示意图;
28.图6(b)是根据本发明实施例的一种针对狗数据集的训练损失的示意图;
29.图6(c)是根据本发明实施例的一种针对宠物数据集的训练损失的示意图;
30.图6(d)是根据本发明实施例的一种针对花数据集的训练损失的示意图;
31.图7(a)是根据本发明实施例的一种鸟类数据集的测试精度的示意图;
32.图7(b)是根据本发明实施例的一种狗数据集的测试精度的示意图;
33.图7(c)是根据本发明实施例的一种宠物数据集的测试精度的示意图;
34.图7(d)是根据本发明实施例的一种花数据集的测试精度的示意图;
35.图8是根据本发明实施例的一种数据处理装置的流程图;
36.图9是根据本发明实施例的另一种数据处理装置的流程图;
37.图10是根据本发明实施例的另一种数据处理装置的流程图;以及
38.图11是根据本发明实施例的一种计算机终端的结构框图。
具体实施方式
39.为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
40.需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
41.首先,在对本技术实施例进行描述的过程中出现的部分名词或术语适用于如下解释:
42.微调整(fine-tuning),为深度学习(deep learning)里的一种训练方式,对已有模型,在新的数据集上进行细微调整,从而达到在新数据集上有更好的效果;
43.全连接层(fully connected layer),用于在整个卷积神经网络中起到分类的作用,可以将卷积层得到的“分布式特征表示”映射到样本标记空间;
44.随机梯度下降(stochastic gradient descent),为深度学习中通用的训练迭代算法。
45.实施例1
46.根据本发明实施例,还提供了一种数据处理方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
47.本技术实施例一所提供的方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。图1是根据本发明实施例的一种用于实现数据处理方法的计算机终端(或移动设备)的硬件结构框图。如图1所示,计算机终端10(或移动设备10)可以包括一个或多个(图中采用102a、102b,
……
,102n来示出)处理器102(处理器102可以包括但不限于微处理器mcu或可编程逻辑器件fpga等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输装置106。除此以外,还可以包括:显示器、输入/输出接口(i/o接口)、通用串行总线(usb)端口(可以作为i/o接口的端口中的一个端口被包括)、网络接口、电源和/或相机。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算机终端10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
48.应当注意到的是上述一个或多个处理器102和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到计算机终端10(或移动设备)中的其他元件中的任意一个内。如本技术实施例中所涉及到的,该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择)。
49.存储器104可用于存储应用软件的软件程序以及模块,如本发明实施例中的数据处理方法对应的程序指令/数据存储装置,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的数据处理方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
50.传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端10的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(network interface controller,nic),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(radio frequency,rf)模块,其用于通过无线方式与互联网进行通讯。
51.显示器可以例如触摸屏式的液晶显示器(lcd),该液晶显示器可使得用户能够与计算机终端10(或移动设备)的用户界面进行交互。
52.此处需要说明的是,在一些可选实施例中,上述图1所示的计算机设备(或移动设
备)可以包括硬件元件(包括电路)、软件元件(包括存储在计算机可读介质上的计算机代码)、或硬件元件和软件元件两者的结合。应当指出的是,图1仅为特定具体实例的一个实例,并且旨在示出可存在于上述计算机设备(或移动设备)中的部件的类型。
53.在图1所示的运行环境下,本技术提供了如图2所示的数据处理方法。需要说明的是,该实施例的数据处理方法以由图1所示实施例的移动终端执行。
54.图2是根据本发明实施例的一种数据处理方法的流程图。如图2所示,该方法可以包括以下步骤:
55.步骤s202,在目标模型中确定出分类层。
56.在本发明上述步骤s202提供的技术方案中,目标模型可以为通过深度学习进行训练得到的已有模型,比如,为卷积神经网络模型,该目标模型所使用的场景可以包括但不限于人脸识别场景、标识识别场景等与分类相关的场景。
57.在该实施例中,目标模型包括多个网络层,该多个网络层包括分类层,该分类层可以是目标模型的全连接层,其可以在整个目标模型中起到分类的作用,可以称为线性分类器。在该实施例中,分类层中的参数在忽略偏置项的情况下是一个d
×
c矩阵,其中,d为来自前一层的输入维数,c为目标分类任务中的类数。
58.步骤s204,基于目标任务确定分类层的原始参数。
59.在本发明上述步骤s204提供的技术方案中,在目标模型中确定出分类层之后,基于目标任务确定分类层的原始参数。
60.在该实施例中,目标任务是由目标模型所需要进行分类的对象,也可以称为目标分类任务。该实施例的分类层是针对于目标任务的,其中具有与上述目标任务对应的原始参数,该原始参数的数量也是取决于目标任务的。
61.步骤s206,对原始参数进行初始化,得到目标参数。
62.在本发明上述步骤s206提供的技术方案中,在基于目标任务确定分类层的原始参数之后,对原始参数进行初始化,得到目标参数。
63.在该实施例中,目标模型预先训练好的参数可以直接用于模型初始化,但是由于分类层是针对于特定的目标任务的,其与目标任务关系密切,从而其并不适用于再次使用目标模型预先训练好的参数,也即,不适合共享已训练好的目标模型的参数,设置类的数量在源任务和目标任务之间也可能有所不同。因而,该实施例可以在对目标模型进行微调(fine-tuned)的过程中,对分类层中的原始参数进行初始化,得到目标参数,其中,微调指对已训练好的目标模型通过新获取的数据进行进一步训练的过程,为利用大规模数据集的知识对模型进行细微调整的一种有效方式,以达到在新数据集上更好的效果,可以获得比从零开始学习模型更好的紧凑数据集模型,即使在大规模数据集上训练目标模型,微调也有助于加速收敛的速度。其中,虽然分类层之前的层的参数是来自已经训练好的目标模型,但这种也可能会导致表示层和分类层之间不一致,从而导致收敛速度慢。
64.在该实施例中,在对目标模型进行微调时,可以以适当的学习率对目标模型进行微调。
65.在相关技术中,对于模型的初始化大多是通过适当的初始化来缓解网络神经网络中的爆炸/消失梯度问题,比如,未归一化处理的深度剩余网络的初始化,没有批处理规范化的resnets可以具有与bn对应版本的类似性能,从而初始化具有一定的重要性。上述都是
解决从头开始学习的初始化模型的问题,而该实施例在对目标模型进行微调过程中注重初始化,由于分类层不能从预先训练好的目标模型中继承权值并尝试优化分类层的原始参数,从而对分类层的原始参数进行优化。
66.步骤s208,基于具有目标参数的分类层对目标任务进行分类,得到目标任务的分类结果。
67.在本发明上述步骤s208提供的技术方案中,在对原始参数进行初始化,得到目标参数之后,基于具有目标参数的分类层对目标任务进行分类,得到目标任务的分类结果。
68.在该实施例中,由于分类层可以用于实现对目标任务的分类,可以基于具有目标参数的分类层对目标任务进行分类,从而得到目标任务的分类结果,其可以是针对目标任务本身而言的分类结果。
69.步骤s210,基于分类结果输出目标任务所指示的目标对象的信息。
70.在本发明上述步骤s210提供的技术方案中,在基于具有目标参数的分类层对目标任务进行分类,得到目标任务的分类结果之后,可以基于分类结果输出目标任务所指示的目标对象的信息,其中,目标对象可以为目标任务所属的对象,也即,目标任务是基于目标对象而存在的,比如,目标任务为人脸图像,则目标对象可以为人脸对象,再比如,目标任务为目标标识,则目标对象可以为目标标识所指示的产品对象。该实施例可以通过分类结果确定出目标对象的信息,该目标对象的信息可以包括目标对象的属性信息或者与其相关的信息等,此处不做具体限制,进而将目标对象的信息输出至显示器进行显示,或者输出至语音播放器进行语音播放等,此处不做具体限制。
71.通过本技术上述步骤s202至步骤s210,在目标模型中确定出分类层;基于目标任务确定分类层的原始参数;对原始参数进行初始化,得到目标参数;基于具有目标参数的分类层对目标任务进行分类,得到目标任务的分类结果;基于分类结果输出目标任务所指示的目标对象的信息。也就是说,该实施例对分类层中的与目标任务对应的参数,在模型微调过程中进行初始化,调整后的参数可以使得分类层对于任务分类具有更好的效果,且收敛速度块,训练时间短,开销低,从而解决了对任务进行分类的效率低的技术问题,达到了提高对任务进行分类的效率的技术效果。
72.下面对该实施例的上述方法进行进一步介绍。
73.作为一种可选的实施方式,步骤s206,对原始参数进行初始化,得到目标参数,包括:对原始参数进行随机初始化,得到目标参数。
74.在该实施例中,在对目标模型进行微调的过程中,可以是对原始参数进行随机初始化(rand init),从而得到目标参数,以更好地实现对目标模型进行微调。
75.作为一种可选的实施方式,步骤s206,对原始参数进行初始化,得到目标参数,包括:获取分类层的特征数据和对应的标签;将原始参数、特征数据和标签输入至损失函数中,得到目标参数。
76.在该实施例中,在实现对原始参数进行初始化,得到目标参数时,可以是先获取分类层的特征数据和对应的标签,比如,通过xi∈rd表示分类层的第i幅图像的特征,通过yi∈{1,

c}表示对应的标签,其中,d用于表示分类层的参数的维数,c用于表示分类数。该实施例可以将原始参数、特征数据和对应的标签输入至损失函数中,以得到目标参数,比如,通
过进行表示,其中,w用于表示分类层的原始参数,l(
·
)用于表示损失函数,n用于表示特征数据和对应的标签的数量,其也指样本数。
77.作为一种可选的实施方式,将原始参数、特征数据和标签输入至损失函数中,得到目标参数,包括:基于交叉熵损失函数对原始参数、特征数据和标签进行训练,得到目标参数。
78.在该实施例中,交叉熵损失可以应用在目标模型的训练中,该实施例可以基于交叉熵损失函数对原始参数、特征数据和标签进行训练,得到目标参数,可以通过实现。
79.在该实施例中,随着交叉熵损失的增加,上述目标参数可以变换为其中,目标参数通过表示为一个凸函数,因而,其可以通过一阶方法有效地实现。
80.作为一种可选的实施方式,该方法还包括:从目标参数中确定出目标列参数,其中,目标列参数为目标参数中多列参数中的任一列参数;对目标列参数进行更新,其中,更新后的目标列参数的性能优于更新前的目标列参数,目标参数中除目标列参数之外的列参数保持不变。
81.在该实施例中,为了进一步提高数据处理效率,可以利用交叉熵的结构的损失。可选地,该实施例可以在进行每一次迭代中优化目标参数中的每一列参数。该实施例可以从目标参数中确定出目标列参数,可以是给定一个初始解w0,以保持除了目标列参数为需要更新的参数之外,其它列参数是保持不变的。其中,对目标列参数进行更新,也即,对目标列参数进行优化。
82.可选地,该实施例的交叉熵损失可以变换为其中,
83.为一个指标函数,条件为ⅱ(
·
)=1,如果条件为真,则ⅱ(
·
)=0。当目标参数中的其它列参数作为固定常数时,l(wk)中的a为逻辑损失,b为线性函数。
84.为了确保目标列参数得到有效的更新,可以基于对l(wk)进行泰勒展开,hw用表示w的海森矩阵,λ为常量,可以指规则化参数,上述公式中的损失可以是通过进行表示。在该实施例中,可以为wk对应的一个闭环解。
85.作为一种可选的实施方式,更新后的目标列参数的损失比更新前的目标列参数的
损失小。
86.在该实施例中,可以使用封闭解形式的方法,使得目标参数中更新后的目标列参数的损失降低。因此,在该实施例中,可以依次对目标参数中每一列参数进行更新。
87.作为一种可选的实施方式,该方法还包括:对目标参数中的多列参数进行循环更新。
88.在该实施例中,由于交叉熵非负,因而该实施例可以循环更新目标参数中的多列参数,以进行收敛。
89.作为一种可选的实施方式,对目标列参数进行更新,包括:获取目标列参数对应的更新概率;基于更新概率对目标参数进行更新。
90.在该实施例中,在实现对目标列参数进行更新时,可以是获取目标列参数对应的更新概率,可以是通过对目标参数进行更新,其中,设x表示数据集为x=[xn,

xn]∈rd×n,通过闭型表示wk,
[0091]
其中,概率和mk∈rn×n是对角矩阵,并且假设则可以有其中,其中,
[0092]
在该实施例中,封闭形式的解可以为其中,基于l(w)为光滑函数确定海森矩阵。
[0093]
在该实施例中,在对目标参数中的所有列参数进行更新后,可以确定一个解,可以按顺序更新目标参数的各个列参数,从而得到该公式可以表明通过循环更新目标参数中的各个列参数是收敛的。
[0094]
在该实施例中,可以在获得目标参数中每个更新后的列参数之后,更新列参数对应的概率。为了提高处理效率,该实施例可以使用一个新的更新准则来对上述概率进行更新,可以计算更新当前迭代中所有列参数对应的概率。
[0095]
可选地,该实施例可以通过计算每个列参数对应的概率,然后所有列参数可以按照进行更新。
[0096]
可选地,由于每个列参数是单独更新的,简单收集所有更新后的列参数还不能保证减少损失,可以通过表示中由更新向量组成的矩阵,关于当前迭代最后返回的结果可以是其
中,α用于表示算法参数步长。
[0097]
作为一种可选的实施方式,通过目标因子使得更新后的目标参数对应的函数线性收敛。
[0098]
在该实施例中,可以先确定,可以利用更新目标参数中的所有列参数,并且通过确定每个迭代对应的解决方案。如果假设海森矩阵中的可以被界定为并且则可以得到
[0099]
在上述方法中,如果α设置适当,可以提高对列参数的更新效率。可选地,α=1/c,则可以得到此处引入了目标因子c虽然可能会导致收敛速度变慢,但是其保证了在不调整α的情况下,使得算法收敛,并且具有较强的鲁棒性。
[0100]
可选地,在该实施例中,如果满足一定的pl(polyak-lojasiewicz)条件,比如,则可以得到从而在pl条件下可以提升目标参数对应的函数线性收敛速度,也即,提升了的线性收敛速度。
[0101]
在该实施例中,的计算效率取决于其复杂度为nd2,其中,n>d,由于这一项只包含矩阵乘法,并且m的对角是稀疏的,因而通过计算可以提高数据处理效率。
[0102]
作为一种可选的实施方式,基于更新概率对目标参数进行更新,包括:确定与更新概率对应的逆矩阵;基于逆矩阵对目标参数进行更新。
[0103]
在该实施例中,在实现基于更新概率对目标参数进行更新时,可以是确定与更新概率对应的逆矩阵,比如,逆矩阵为mk。在该实施例中,确定逆矩阵的算子在每次迭代时可以调用c次。在该实施例中,当将原始参数初始化为目标参数时,可以得到因而,目标参数中的每一列参数可以通过进行获取。
[0104]
与通过的更新准则进行比较,
上述方法只需要确定与更新概率对应的逆矩阵。由于线性收敛速度,上述方法的收敛次数有限,从而可以明显地提供整体的数据处理效率。
[0105]
作为一种可选的实施方式,在对原始参数进行初始化的过程中,目标模型中除分类层之外的层的参数保持不变。
[0106]
在该实施例中,在对原始参数进行初始化的过程中,除了分类层的参数需要基于目标任务进行初始化之外,其它层之外的参数可以保持不变,也即,在训练分类层时,目标模型的其它层是固定的,不包括数据增加,从而对分类层的原始参数进行初始化,提高了对目标任务的收敛性。
[0107]
本发明实施例还提供了另一种数据处理方法。
[0108]
图3a是根据本发明实施例的另一种数据处理方法的流程图。如图3a所示,该方法可以包括以下步骤:
[0109]
步骤s302,在人脸识别模型中确定出分类层,其中,人脸识别模型用于对输入的人脸图像进行识别。
[0110]
在本发明上述步骤s302提供的技术方案中,人脸识别模型可以为通过深度学习进行训练得到的已有模型,用于对输入的人脸图像进行识别。
[0111]
在该实施例中,人脸识别模型可以包括多个网络层,该多个网络层包括分类层,该分类层可以是人脸识别模型的全连接层,其可以在整个人脸识别模型中起到分类的作用。
[0112]
步骤s304,基于目标人脸图像确定分类层的原始识别参数。
[0113]
在本发明上述步骤s304提供的技术方案中,在人脸识别模型中确定出分类层之后,基于目标人脸图像确定分类层的原始识别参数。
[0114]
在该实施例中,目标人脸图像为需要进行识别的目标分类任务。人脸识别模型的分类层是针对于对目标人脸图像进行处理的,其中具有与上述目标人脸图像对应的原始参数,该原始识别参数的数量也是取决于目标人脸图像的。
[0115]
步骤s306,对原始识别参数进行初始化,得到目标识别参数。
[0116]
在本发明上述步骤s306提供的技术方案中,在基于目标人脸图像确定分类层的原始识别参数之后,可以是对原始识别参数进行初始化,得到目标识别参数。
[0117]
在该实施例中,人脸识别模型预先训练好的参数可以直接用于模型初始化,但是由于分类层是针对于特定的目标人脸图像的识别,其与目标人脸图像关系密切,从而其并不适用于再次使用人脸识别模型预先训练好的参数,也即,不适合共享已训练好的人脸识别模型的参数。因而,该实施例可以在对人脸识别模型进行微调的过程中,对分类层中的原始识别参数进行初始化,从而得到目标识别参数。其中,虽然分类层之前的层的参数是来自已经训练好的人脸识别模型,但这种也可能会导致表示层和分类层之间不一致,从而导致收敛速度慢。可选地,该实施例的人脸识别模型中除了分类层之外的其它层,都可以使用人脸识别模型中已训练好的对应参数进行初始化。
[0118]
在该实施例中,在对人脸识别模型进行微调时,可以以适当的学习率对人脸识别模型进行微调,以达到在新数据集上更好的效果。
[0119]
步骤s308,基于具有目标识别参数的分类层对目标人脸图像进行识别,得到目标人脸图像的识别结果。
[0120]
在本发明上述步骤s308提供的技术方案中,在对原始识别参数进行初始化,得到
目标识别参数之后,基于具有目标识别参数的分类层对目标人脸图像进行识别,得到目标人脸图像的识别结果,该识别结果也即目标人脸图像的分类结果。
[0121]
在该实施例中,由于分类层可以用于实现对目标人脸图像的分类,可以基于具有目标参数的分类层对目标人脸图像进行识别,从而得到目标人脸图像的识别结果。
[0122]
步骤s310,基于识别结果输出目标人脸图像所指示的人脸对象的信息。
[0123]
在本发明上述步骤s310提供的技术方案中,在基于具有目标识别参数的分类层对目标人脸图像进行识别,得到目标人脸图像的识别结果之后,可以基于识别结果输出目标人脸图像所指示的人脸对象的信息,其中,人脸对象为目标人脸图像所属的对象,也即,目标人脸图像是基于人脸对象而存在的,可以通过识别结果确定出人脸对象的信息,该人脸对象的信息可以包括人脸对象的属性信息或者与其相关的信息等,此处不做具体限制,进而将人脸对象的信息输出至显示器进行显示,或者输出至语音播放器进行语音播放等,此处不做具体限制。
[0124]
下面对该实施例的上述方法进行进一步介绍。
[0125]
作为一种可选的实施方式,步骤s306,对原始识别参数进行初始化,得到目标识别参数,包括:对原始识别参数进行随机初始化,得到目标识别参数。
[0126]
在该实施例中,在对人脸识别模型进行微调的过程中,可以是对原始识别参数进行随机初始化,从而得到目标识别参数,以更好地实现对人脸识别模型进行微调。
[0127]
作为一种可选的实施方式,步骤s306,对原始识别参数进行初始化,得到目标识别参数,包括:获取分类层的人脸图像特征数据和对应的标签;将原始识别参数、人脸图像特征数据和标签输入至损失函数中,得到目标识别参数。
[0128]
在该实施例中,在实现对原始识别参数进行初始化,得到目标识别参数时,可以是先获取分类层的人脸图像特征数据和对应的标签,比如,通过xi∈rd表示分类层的第i幅人脸图像特征,通过yi∈{1,

c}表示对应的标签,其中,d用于表示分类层的参数的维数,c用于表示分类数。该实施例可以将原始识别参数、人脸图像特征数据和对应的标签输入至损失函数中,以得到目标识别参数,比如,通过进行表示,其中,w用于表示分类层的原始参数,l(
·
)用于表示损失函数,n用于表示特征数据和对应的标签的数量。
[0129]
图3b是根据本发明实施例的一种数据处理的示意图。如图3b所示,计算设备可以获取目标人脸图像,将其输入至计算设备中的人脸识别模型中,该人脸识别模型可以为通过深度学习进行训练得到的已有模型,用于对输入的人脸图像进行识别。该人脸识别模型可以包括多个网络层,其中包括分类层,该分类层可以是人脸识别模型的全连接层,其可以在整个人脸识别模型中起到分类的作用。在人脸识别模型中确定出分类层之后,确定与目标人脸图像对应的分类层的原始识别参数。
[0130]
在确定与目标人脸图像对应的分类层的原始识别参数之后,可以对原始识别参数进行初始化,可以是在对人脸识别模型进行微调的过程中,对原始识别参数进行初始化,得到目标识别参数。在对原始识别参数进行初始化,得到目标识别参数之后,由于分类层可以用于实现对目标人脸图像的分类,可以基于具有目标识别参数的分类层对目标人脸图像进行识别,得到目标人脸图像的识别结果,进而基于识别结果输出目标人脸图像所指示的人脸对象的信息,可以将人脸对象的信息输出至显示器进行显示,或者输出至语音播放器进
行语音播放等,此处不做具体限制。
[0131]
本发明实施例还提供了另一种数据处理方法。
[0132]
图4a是根据本发明实施例的另一种数据处理方法的流程图。如图4a所示,该方法可以包括以下步骤:
[0133]
步骤s402,在对象识别模型中确定出分类层,其中,对象识别模型用于对输入的标识进行识别。
[0134]
在本发明上述步骤s402提供的技术方案中,对象识别模型可以为通过深度学习进行训练得到的已有模型,用于对输入的标识(logo)进行识别,并确定该标识所关联的对象,该对象可以是需要交易的商品。
[0135]
在该实施例中,对象识别模型可以包括多个网络层,该多个网络层包括分类层,该分类层可以是对象识别模型的全连接层,其可以在整个对象识别模型中起到分类的作用。
[0136]
步骤s404,基于目标标识确定分类层的原始识别参数。
[0137]
在本发明上述步骤s404提供的技术方案中,在对象识别模型中确定出分类层之后,基于目标标识确定分类层的原始识别参数。
[0138]
在该实施例中,目标标识为需要进行识别的目标分类任务。对象识别模型的分类层是针对于目标标识进行处理的,其中具有与上述目标标识对应的原始识别参数,该原始识别参数的数量也是取决于目标标识的。
[0139]
步骤s406,对原始识别参数进行初始化,得到目标识别参数。
[0140]
在本发明上述步骤s406提供的技术方案中,在对原始识别参数进行初始化,得到目标识别参数之后,可以对原始识别参数进行初始化,得到目标识别参数。
[0141]
在该实施例中,对象识别模型预先训练好的参数可以直接用于模型初始化,但是由于分类层是针对于特定的目标标识的识别,其与目标标识关系密切,从而其并不适用于再次使用对象识别模型预先训练好的参数,也即,不适合共享已训练好的人脸识别模型的参数。因而,该实施例可以在对对象识别模型进行微调的过程中,对分类层中的原始识别参数进行初始化,从而得到目标识别参数。其中,虽然分类层之前的层的参数是来自已经训练好的对象识别模型,但这种也可能会导致表示层和分类层之间不一致,从而导致收敛速度慢。可选地,该实施例的对象识别模型中除了分类层之外的其它层,都可以使用对象识别模型中已训练好的对应参数进行初始化。
[0142]
在该实施例中,在对对象识别模型进行微调时,可以以适当的学习率对人脸识别模型进行微调,以达到在新数据集上更好的效果。
[0143]
步骤s408,基于具有目标识别参数的分类层对目标标识进行识别,得到目标标识的识别结果。
[0144]
在本发明上述步骤s408提供的技术方案中,在对原始识别参数进行初始化,得到目标识别参数之后,基于具有目标识别参数的分类层对目标标识进行识别,得到目标标识的识别结果,该识别结果也即目标标识的分类结果,该方法可以应用在相似对象召回等大型分类场景下。
[0145]
步骤s410,基于识别结果输出目标标识所指示的目标对象的信息。
[0146]
在本发明上述步骤s410提供的技术方案中,在基于具有目标识别参数的分类层对目标标识进行识别,得到目标标识的识别结果之后,可以基于识别结果输出目标标识所指
示的目标对象的信息,其中,目标对象为目标标识所指示的对象,也即,目标标识是基于目标对象而存在的,可以通过识别结果确定出目标对象的信息,该目标对象的信息可以包括目标对象的属性信息或者与其相关的信息等,进而将目标对象的信息输出至显示器进行显示,或者输出至语音播放器进行语音播放等,此处不做具体限制。
[0147]
在该实施例中,由于分类层可以用于实现对目标对象的分类,可以基于具有目标参数的分类层对目标标识进行识别,从而得到目标标识所管理的目标对象。
[0148]
下面对该实施例的上述方法进行进一步介绍。
[0149]
作为一种可选的实施方式,步骤s406,对原始识别参数进行初始化,得到目标识别参数,包括:对原始识别参数进行随机初始化,得到目标识别参数。
[0150]
在该实施例中,可以是对原始识别参数进行随机初始化,从而得到目标识别参数,以更好地实现对对象识别模型进行微调。
[0151]
作为一种可选的实施方式,步骤s406,对原始识别参数进行初始化,得到目标识别参数,包括:获取分类层的标识特征数据和对应的标签;将原始识别参数、标识特征数据和标签输入至损失函数中,得到目标识别参数。
[0152]
在该实施例中,在实现对原始识别参数进行初始化,得到目标识别参数时,可以是先获取分类层的标识图像特征数据和对应的标签,比如,通过xi∈rd表示分类层的第i幅标识图像特征,通过yi∈{1,

c}表示对应的标签,其中,d用于表示分类层的参数的维数,c用于表示分类数。该实施例可以将原始识别参数、标识图像特征数据和对应的标签输入至损失函数中,以得到目标识别参数,比如,通过进行表示,其中,w用于表示分类层的原始参数,l(
·
)用于表示损失函数,n用于表示特征数据和对应的标签的数量。
[0153]
图4b是根据本发明实施例的另一种数据处理的示意图。如图4b所示,计算设备可以获取目标标识(logo),将其输入至计算设备中的对象识别模型中,该对象识别模型可以为通过深度学习进行训练得到的已有模型,用于对输入的标识(logo)进行识别,并确定该标识所关联的对象,该对象可以是需要交易的商品。该对象识别模型可以包括多个网络层,其中包括分类层,该分类层可以是对象识别模型的全连接层,其可以在整个对象识别模型中起到分类的作用。在对象识别模型中确定出分类层之后,确定与目标标识对应的分类层的原始识别参数。
[0154]
在确定与目标标识对应的分类层的原始识别参数之后,可以对原始识别参数进行初始化,可以是在对人脸识别模型进行微调的过程中,对原始识别参数进行初始化,得到目标识别参数。在对原始识别参数进行初始化,得到目标识别参数之后,由于分类层可以用于实现对目标标识的分类,可以基于具有目标识别参数的分类层对目标标识进行识别,得到目标标识的识别结果,进而输出目标标识所指示的目标对象的信息,可以是将目标对象的信息输出至计算设备的显示器进行显示,或者输出至计算设备的语音播放器进行语音播放等,此处不做具体限制。
[0155]
本发明实施例还提供了另一种一种数据处理方法。该方法可以包括:获取模型训练请求;响应模型训练请求,基于目标任务确定目标模型的分类层的原始参数;对原始参数进行初始化,得到目标参数;基于目标参数对目标模型进行更新;输出更新后的目标模型,其中,更新后的目标模型包括具有目标参数的分类层,具有目标参数的分类层用于对目标
任务进行分类,并基于得到的目标任务的分类结果输出目标任务所指示的目标对象的信息。
[0156]
在该实施例中,为了能够训练得到一个处理精度较高的模型,往往需要采用大量训练样本进行多次训练,整个训练过程的数据量和运算量较大。为了减少用户设备(例如智能手机、平板电脑、笔记本电脑、掌上电脑、个人计算机等)的资源消耗,可以由服务器进行模型训练,用户设备中仅部署训练好的模型,以方便用户使用。进一步地,为了大幅度减少用户设备的运算负担,可以直接将训练好的模型部署在服务器中,用户设备通过特定接口连接服务器,将待处理数据发送给服务器,服务器利用部署好的模型对待处理数据进行处理,并将处理结果反馈给用户设备。
[0157]
上述步骤中的模型训练请求可以根据用户的模型使用需求生成,该请求中可以携带需要处理的数据类型,以及预期达到的处理结果等,例如,与目标任务有关的数据,可以是人脸图像,还可以是目标标识(logo)。
[0158]
由于服务器可以为不同的用户提供模型训练服务,模型使用需求不同,模型的具体结构以及训练样本均不同,在一种可选的实施例中,可以在用户设备上提供一个交互界面,用户在输入区域内输入模型训练请求,从而用户设备可以通过网络将模型训练请求发送给服务器。为了更加有针对性,服务器可以针对用户的类型,给用户提供不同的模型训练方案,由用户在输入区域内进行选择,从而用户设备可以根据用户的选择结果生成模型训练请求,并通过网络发送给服务器。
[0159]
该实施例的服务器响应模型训练请求,基于目标任务确定目标模型的分类层的原始参数,其中,目标模型可以为通过深度学习进行训练得到的已有模型,比如,为卷积神经网络模型,该目标模型所使用的场景可以包括但不限于人脸识别场景、标识识别场景等与分类相关的场景。
[0160]
在该实施例中,上述目标模型包括多个网络层,该多个网络层包括分类层,该分类层可以是目标模型的全连接层,其可以在整个目标模型中起到分类的作用,可以称为线性分类器。在目标模型中确定出分类层之后,基于目标任务确定分类层的原始参数。其中,目标任务是由目标模型所需要进行分类的对象,也可以称为目标分类任务。该实施例的分类层是针对于目标任务的,其中具有与上述目标任务对应的原始参数,该原始参数的数量也是取决于目标任务的。在基于目标任务确定分类层的原始参数之后,对原始参数进行初始化,得到目标参数。其中,目标模型预先训练好的参数可以直接用于模型初始化,但是由于分类层是针对于特定的目标任务的,其与目标任务关系密切,从而其并不适用于再次使用目标模型预先训练好的参数。因而,该实施例可以在对目标模型进行微调的过程中,对分类层中的原始参数进行初始化,得到目标参数。
[0161]
在对原始参数进行初始化,得到目标参数之后,基于目标参数对目标模型进行更新,更新后的目标模型包括具有目标参数的分类层,该具有目标参数的分类层用于对目标任务进行分类,以得到目标任务的分类结果,并且基于分类结果输出目标任务所指示的目标对象的信息。其中,目标对象可以为目标任务所属的对象,也即,目标任务是基于目标对象而存在的,比如,目标任务为人脸图像,则目标对象可以为人脸对象,再比如,目标任务为目标标识,则目标对象可以为目标标识所指示的产品对象。
[0162]
在基于目标参数对目标模型进行更新之后,可以输出更新后的目标模型。在一种
可选的实施例中,如果更新后的目标模型需要部署在用户设备中,则服务器可以通过网络将更新后的目标模型传输至用户设备;如果更新后的目标模型需要部署在服务器中,则可以直接将更新后的目标模型进行上线,从而用户可以使用更新后的目标模型对目标任务进行分类,从而提高对任务进行分类的效率,并且基于得到的目标任务的分类结果输出目标任务所指示的目标对象的信息。
[0163]
该实施的方法适用于深度学习中的特征识别场景,可以使用凸优化(convex optimization)的优化方式改进相关技术中的非凸优化的方式,提高了模型的训练速度以及收敛速度,从而解决了对任务进行分类的效率低的技术问题,达到了提高对任务进行分类的效率的技术效果。
[0164]
实施例2
[0165]
下面结合优选的实施方式对本发明的技术方案进行举例说明。
[0166]
在深度学习中,会有很多场景需要对已有模型,在新的数据集上进行细微调整,以达到在新数据集上有更好效果。在人脸识别、相似对象召回等大规模分类场景上,模型的训练操作会花费较长的时间,会有部分时间花费在全连接层的初始化上,而该问题属于凸优化的问题。
[0167]
该实施例图1所述的方法为模型微调的优选初始化方法(optimal initialization for fine-tuning,简称为opt init),如图5(a)、图5(b)、图5(c)中的实线条所表示的结果。该实施例将训练损失(train loss)作为评价优化性能的标准度量,其中,图5(a)是根据本发明实施例的一种在迭代上的训练损失的示意图。图5(b)是根据本发明发实施例的一种在单次训练迭代上的训练损失的示意图。图5(c)是根据本发明实施例的一种在运行时间上的训练损失的示意图。
[0168]
在相关技术中,还有通过随机梯度法对分类层进行训练的方法,如图5(a)、图5(b)、图5(c)中的虚线线条1或虚线线条2所表示的结果(rand init)。其中,图(a)中的虚线条3用于表示未优化的全连接层。
[0169]
该实施例比较训练损失,对于图5(a)中的迭代次数,由于sgd只访问mini-batch例子在每个迭代中,而该实施例的方法可以优化整个数据集,该方法在训练一次迭代后损失就可以小很多。此外,该方法具有如图7所示的线性收敛速度,sgd的收敛速度慢得多。在经过5次迭代后,opt init在分类层中的性能超过了原始参数。由仿真结果表明,该实施例的方法能有效地得到期望的解。
[0170]
图5(b)为不同epoch数下的训练损失,其中一个epoch定义为一次性传递所有示例。通过sgd对参数进行多次更新。比如,当批大小为256时,它有5005次更新。与此相反,该实施例的opt init方法更新一次参数,但在5次更新后优于基线方法。结果表明,该实施例的opt init方法更新次数较少,效率更高。
[0171]
该实施例还比较了各个方法的运行时间。如表1所示,表1为本发明实施例的imagenet上的运行时间的比较表。
[0172]
表1 imagenet上的运行时间的比较表
[0173]
[0174][0175]
其中,feat ext用于表示提取特征的时间。“sgd256”和“sgd2048”包含批大小的运行时间。
[0176]
显然,opt init方法的第一步要比其他步骤更有效。这是由于第一步只计算一次d
×
d矩阵的逆,而其他步骤必须调用算子c次。此外,这两种方法中的步骤至少比基准方法快10倍。考虑到即使是sgd2048在一个epoch中有626次更新,它的训练代价也比每个epoch只有一次更新的opt init方法的高。为了说明该实施例的opt init方法的效率,可以将训练损失与运行时间进行比较,如图5(c)所示,opt init方法的效率更高,其运行时间小于使用sgd优化分类层的运行时间。
[0177]
该实施例可以在流行的基准测试数据集上对在imagenet上预先训练的模型进行微调。可选地,使用4个数据集,包括:鸟类数据集、狗数据集、宠物数据集、花数据集,其中,鸟类数据集包含了来自200个类的11788只鸟的图像,狗数据集包括了来自120个类的20580只狗的图片,宠物包括了由37个猫狗类的7349张图片的组成,花包括了来自102个班级的8189张花的图片。
[0178]
图6(a)是根据本发明实施例的一种针对鸟类数据集的训练损失的示意图。图6(b)是根据本发明实施例的一种针对狗数据集的训练损失的示意图;图6(c)是根据本发明实施例的一种针对宠物数据集的训练损失的示意图;图6(d)是根据本发明实施例的一种针对花数据集的训练损失的示意图。
[0179]
上述所有这些数据集都提供了标准的训练/测试方法。在对模型进行微调时,对除分类层外的所有层的参数进行初始化;训练模型,可以采用256小批量的sgd对模型进行微调,动量衰减和重量衰减分别为0.9和0.0001。
[0180]
可选地,该实施例在{0.1,0.05,0.01,0.005,0.001}中搜索分类层的初始学习率,在花数据集上的期望为0.01。该实施例的每个模型都将进行微调,学习速率将衰减10倍。以避免过度学习。
[0181]
图7(a)是根据本发明实施例的一种鸟类数据集的测试精度的示意图。图7(b)是根据本发明实施例的一种狗数据集的测试精度的示意图。图7(c)是根据本发明实施例的一种宠物数据集的测试精度的示意图。图7(d)是根据本发明实施例的一种花数据集的测试精度的示意图。表2是根据本发明实施例的一种不同数据集的测试精度(test acc)(%)比较表。
[0182]
表2不同数据集的测试精度(%)表
[0183]
方法鸟狗宠物花rand init 微调75.981.991.088.4opt init58.978.588.880.2opt init 微调76.682.591.589.4
[0184]
在表2比较了各个方法初始化的测试精度和微调后的结果。该实施例的初始化方法与预先训练的特征显示,对狗数据集和宠物数据集的性能进行优化。此外,所隐含的线性分类器的准确性,对鸟类数据集和花数据集初始化的分类层超过了50%,其中可以包含200和249102类。
[0185]
在该实施例中,图6(a)、图6(b)、图6(c)、图6(d)、图7(a)、图7(b)、图7(c)、图7(d)
总结了基准数据集上的训练损失和测试精度。首先,可以观察到使用这两种初始化方法进行微调可以在这些紧凑的数据集上显示良好的性能。结果表明,在样本数量有限的情况下,微调是训练深度神经网络的一种有效方法。其次,使用opt init方法优于使用rand init方法。这是因为微调中的初始化问题是命凸问题,而该实施例的方法从预训练的模型中获得比随机初始化更好的带特征的初始化参数。
[0186]
在相关技术中,在分类数较少,单台gpu机器能训练的情况下,使用sgd方法对分类层进行训练的收敛速度相较于使用opt init对分类层进行训练的速度会慢,训练时间也会更长。
[0187]
而在分类数较多,比如,人脸识别、相似对象召回,这种高级别的分类,单台gpu机器无法训练,需要多台gpu机器并行计算时,使用sgd方法对分类层进行训练的网络传输开销会高于使用opt init方法对网络层进行训练的网络传输开销,并且训练迭代的收敛轮数也会多于使用opt init方法的训练迭代的收敛轮数。
[0188]
该实施例在高级别分类的人脸识别场景上,使用opt init方法可以节约2/3训练时间,从而提升了训练速度,而且训练精度高于使用sgd方法。
[0189]
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
[0190]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如rom/ram、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
[0191]
实施例3
[0192]
本发明实施例还提供了一种数据处理装置。需要说明的是,该实施例的数据处理装置可以用于执行本发明图2所示实施例的数据处理方法。
[0193]
图8是根据本发明实施例的一种数据处理装置的流程图。如图8所示,该装置可以包括:第一确定单元81、第二确定单元82、第一初始化单元83、分类单元84和第一输出单元85。
[0194]
第一确定单元81,用于在目标模型中确定出分类层。
[0195]
第二确定单元82,用于基于目标任务确定分类层的原始参数。
[0196]
第一初始化单元83,用于对原始参数进行初始化,得到目标参数。
[0197]
分类单元84,用于基于具有目标参数的分类层对目标任务进行分类,得到目标任务的分类结果。
[0198]
第一输出单元85,用于基于分类结果输出目标任务所指示的目标对象的信息。
[0199]
此处需要说明的是,上述第一确定单元81、第二确定单元82、第一初始化单元83、分类单元84和第一输出单元85分别对应于实施例1的步骤s202至步骤s210,五个单元与对
应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述单元作为装置的一部分可以运行在实施例1提供的计算机终端10中。
[0200]
本发明实施例还提供了另一种数据处理装置。需要说明的是,该实施例的数据处理装置可以用于执行本发明图3所示实施例的数据处理方法。
[0201]
图9是根据本发明实施例的另一种数据处理装置的流程图。如图9所示,该数据处理装置90可以包括:第三确定单元91、第四确定单元92、第二初始化单元93、第一识别单元94和第二输出单元95。
[0202]
第三确定单元91,用于在人脸识别模型中确定出分类层,其中,人脸识别模型用于对输入的人脸图像进行识别。
[0203]
第四确定单元92,用于基于目标人脸图像确定分类层的原始识别参数。
[0204]
第二初始化单元93,用于对原始识别参数进行初始化,得到目标识别参数。
[0205]
第一识别单元94,用于基于具有目标识别参数的分类层对目标人脸图像进行识别,得到目标人脸图像的识别结果;
[0206]
第二输出单元95,用于基于识别结果输出目标人脸图像所指示的人脸对象的信息。
[0207]
此处需要说明的是,上述第三确定单元91、第四确定单元92、第二初始化单元93、第一识别单元94和第二输出单元95分别对应于实施例1的步骤s302至步骤s310,五个单元与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述单元作为装置的一部分可以运行在实施例1提供的计算机终端10中。
[0208]
本发明实施例还提供了另一种数据处理装置。需要说明的是,该实施例的数据处理装置可以用于执行本发明图4所示实施例的数据处理方法。
[0209]
图10是根据本发明实施例的另一种数据处理装置的流程图。如图10所示,该数据处理装置100可以包括:第五确定单元101、第六确定单元102、第三初始化单元103、第二识别单元104和第三输出单元105。
[0210]
第五确定单元101,用于在对象识别模型中确定出分类层,其中,对象识别模型用于对输入的标识进行识别。
[0211]
第六确定单元102,用于基于目标标识确定分类层的原始识别参数。
[0212]
第三初始化单元103,用于对原始识别参数进行初始化,得到目标识别参数。
[0213]
第二识别单元104,用于基于具有目标识别参数的分类层对目标标识进行识别,得到目标标识的识别结果;
[0214]
第三输出单元105,用于基于识别结果输出目标标识所指示的目标对象的信息。
[0215]
此处需要说明的是,上述第五确定单元101、第六确定单元102、第三初始化单元103、第二识别单元104和第三输出单元105分别对应于实施例1的步骤s402至步骤s410,五个单元与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述单元作为装置的一部分可以运行在实施例1提供的计算机终端10中。
[0216]
该实施例的数据处理装置中,对分类层中的与目标任务对应的参数,在模型微调过程中进行初始化,调整后的参数可以使得分类层对于任务分类具有更好的效果,且收敛速度块,训练时间短,开销低,从而解决了对任务进行分类的效率低的技术问题,达到了提高对任务进行分类的效率的技术效果。
[0217]
实施例4
[0218]
本发明的实施例可以提供一种数据处理系统,其可以包括计算机终端,该计算机终端可以是计算机终端群中的任意一个计算机终端设备。可选地,在本实施例中,上述计算机终端也可以替换为移动终端等终端设备。
[0219]
可选地,在本实施例中,上述计算机终端可以位于计算机网络的多个网络设备中的至少一个网络设备。
[0220]
在本实施例中,上述计算机终端可以执行数据处理方法中以下步骤的程序代码:在目标模型中确定出分类层;基于目标任务确定分类层的原始参数;对原始参数进行初始化,得到目标参数;基于具有目标参数的分类层对目标任务进行分类,得到目标任务的分类结果;基于分类结果输出目标任务所指示的目标对象的信息。
[0221]
可选地,图11是根据本发明实施例的一种计算机终端的结构框图。如图11所示,该计算机终端a可以包括:一个或多个(图中仅示出一个)处理器112、存储器114、以及传输装置116。
[0222]
其中,存储器可用于存储软件程序以及模块,如本发明实施例中的数据处理方法和装置对应的程序指令/模块,处理器通过运行存储在存储器内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的数据处理方法。存储器可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端a。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
[0223]
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:在目标模型中确定出分类层;基于目标任务确定分类层的原始参数;对原始参数进行初始化,得到目标参数;基于具有目标参数的分类层对目标任务进行分类,得到目标任务的分类结果;基于分类结果输出目标任务所指示的目标对象的信息。
[0224]
可选地,上述处理器还可以执行如下步骤的程序代码:对原始参数进行随机初始化,得到目标参数。
[0225]
可选地,上述处理器还可以执行如下步骤的程序代码:获取分类层的特征数据和对应的标签;将原始参数、特征数据和标签输入至损失函数中,得到目标参数。
[0226]
可选地,上述处理器还可以执行如下步骤的程序代码:基于交叉熵损失函数对原始参数、特征数据和标签进行训练,得到目标参数。
[0227]
可选地,上述处理器还可以执行如下步骤的程序代码:从目标参数中确定出目标列参数,其中,目标列参数为目标参数中多列参数中的任一列参数;对目标列参数进行更新,其中,更新后的目标列参数的性能优于更新前的目标列参数,目标参数中除目标列参数之外的列参数保持不变。
[0228]
可选地,上述处理器还可以执行如下步骤的程序代码:对目标参数中的多列参数进行循环更新。
[0229]
可选地,上述处理器还可以执行如下步骤的程序代码:获取目标列参数对应的更新概率;基于更新概率对目标参数进行更新。
[0230]
可选地,上述处理器还可以执行如下步骤的程序代码:通过目标因子使得更新后
的目标参数对应的函数线性收敛。
[0231]
可选地,上述处理器还可以执行如下步骤的程序代码:确定与更新概率对应的逆矩阵;基于逆矩阵对目标参数进行更新。
[0232]
作为一种可选的示例,处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:在人脸识别模型中确定出分类层,其中,人脸识别模型用于对输入的人脸图像进行识别;基于目标人脸图像确定分类层的原始识别参数;对原始识别参数进行初始化,得到目标识别参数;基于具有目标识别参数的分类层对目标人脸图像进行识别,得到目标人脸图像的识别结果;基于识别结果输出目标人脸图像所指示的人脸对象的信息。
[0233]
可选地,上述处理器还可以执行如下步骤的程序代码:对原始识别参数进行随机初始化,得到目标识别参数。
[0234]
可选地,上述处理器还可以执行如下步骤的程序代码:获取分类层的人脸图像特征数据和对应的标签;将原始识别参数、人脸图像特征数据和标签输入至损失函数中,得到目标识别参数。
[0235]
作为一种可选的示例,处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:在对象识别模型中确定出分类层,其中,对象识别模型用于对输入的标识进行识别;基于目标标识确定分类层的原始识别参数;对原始识别参数进行初始化,得到目标识别参数;基于具有目标识别参数的分类层对目标标识进行识别,得到目标标识的识别结果;基于识别结果输出目标标识所指示的目标对象的信息。
[0236]
可选地,上述处理器还可以执行如下步骤的程序代码:对原始识别参数进行随机初始化,得到目标识别参数。
[0237]
可选地,上述处理器还可以执行如下步骤的程序代码:获取分类层的标识特征数据和对应的标签;将原始识别参数、标识特征数据和标签输入至损失函数中,得到目标识别参数。
[0238]
作为一种可选的实施方式,处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:获取模型训练请求;响应模型训练请求,基于目标任务确定目标模型的分类层的原始参数;对原始参数进行初始化,得到目标参数;基于目标参数对目标模型进行更新;输出更新后的目标模型,其中,更新后的目标模型包括具有目标参数的分类层,具有目标参数的分类层用于对目标任务进行分类,并基于得到的目标任务的分类结果输出目标任务所指示的目标对象的信息。
[0239]
采用本发明实施例,提供了一种数据处理方法,在目标模型中确定出分类层;基于目标任务确定分类层的原始参数;对原始参数进行初始化,得到目标参数;基于具有目标参数的分类层对目标任务进行分类,得到目标任务的分类结果;基于分类结果输出目标任务所指示的目标对象的信息。也就是说,该实施例对分类层中的与目标任务对应的参数,在模型微调过程中进行初始化,调整后的参数可以使得分类层对于任务分类具有更好的效果,且收敛速度块,训练时间短,开销低,从而解决了对任务进行分类的效率低的技术问题,达到了提高对任务进行分类的效率的技术效果。
[0240]
本领域普通技术人员可以理解,图11所示的结构仅为示意,计算机终端也可以是智能手机(如android手机、ios手机等)、平板电脑、掌声电脑以及移动互联网设备(mobile internet devices,mid)、pad等终端设备。图11其并不对上述电子装置的结构造成限定。例
如,计算机终端a还可包括比图11中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图11所示不同的配置。
[0241]
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(read-only memory,rom)、随机存取器(random access memory,ram)、磁盘或光盘等。
[0242]
实施例5
[0243]
本发明的实施例还提供了一种计算机可读存储介质。可选地,在本实施例中,上述计算机可读存储介质可以用于保存上述实施例一所提供的数据处理方法所执行的程序代码。
[0244]
可选地,在本实施例中,上述计算机可读存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。
[0245]
可选地,在本实施例中,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:在目标模型中确定出分类层;基于目标任务确定分类层的原始参数;对原始参数进行初始化,得到目标参数;基于具有目标参数的分类层对目标任务进行分类,得到目标任务的分类结果;基于分类结果输出目标任务所指示的目标对象的信息。
[0246]
可选地,计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:对原始参数进行随机初始化,得到目标参数。
[0247]
可选地,计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:获取分类层的特征数据和对应的标签;将原始参数、特征数据和标签输入至损失函数中,得到目标参数。
[0248]
可选地,计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:基于交叉熵损失函数对原始参数、特征数据和标签进行训练,得到目标参数。
[0249]
可选地,计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:从目标参数中确定出目标列参数,其中,目标列参数为目标参数中多列参数中的任一列参数;对目标列参数进行更新,其中,更新后的目标列参数的性能优于更新前的目标列参数,目标参数中除目标列参数之外的列参数保持不变。
[0250]
可选地,计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:目标参数中的多列参数进行循环更新。
[0251]
可选地,计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码::获取目标列参数对应的更新概率;基于更新概率对目标参数进行更新。
[0252]
可选地,计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:通过目标因子使得更新后的目标参数对应的函数线性收敛。
[0253]
可选地,计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:确定与更新概率对应的逆矩阵;基于逆矩阵对目标参数进行更新。
[0254]
作为一种可选的示例,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:在人脸识别模型中确定出分类层,其中,人脸识别模型用于对输入的人脸图像进行识别;基于目标人脸图像确定分类层的原始识别参数;对原始识别参数进行初始化,得到目标识别参数;基于具有目标识别参数的分类层对目标人脸图像进行识别,得到目标人脸图
像的识别结果;基于识别结果输出目标人脸图像所指示的人脸对象的信息。
[0255]
可选地,计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:对原始识别参数进行随机初始化,得到目标识别参数。
[0256]
可选地,计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:获取分类层的人脸图像特征数据和对应的标签;将原始识别参数、人脸图像特征数据和标签输入至损失函数中,得到目标识别参数。
[0257]
作为一种可选的示例,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:在对象识别模型中确定出分类层,其中,对象识别模型用于对输入的标识进行识别;基于目标标识确定分类层的原始识别参数;对原始识别参数进行初始化,得到目标识别参数;基于具有目标识别参数的分类层对目标标识进行识别,得到目标标识的识别结果;基于识别结果输出目标标识所指示的目标对象的信息。
[0258]
可选地,计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:对原始识别参数进行随机初始化,得到目标识别参数。
[0259]
可选地,计算机可读存储介质还被设置为存储用于执行以下步骤的程序代码:获取分类层的标识特征数据和对应的标签;将原始识别参数、标识特征数据和标签输入至损失函数中,得到目标识别参数。
[0260]
作为一种可选的实施方式,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:获取模型训练请求;响应模型训练请求,基于目标任务确定目标模型的分类层的原始参数;对原始参数进行初始化,得到目标参数;基于目标参数对目标模型进行更新;输出更新后的目标模型,其中,更新后的目标模型包括具有目标参数的分类层,具有目标参数的分类层用于对目标任务进行分类,并基于得到的目标任务的分类结果输出目标任务所指示的目标对象的信息。
[0261]
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
[0262]
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
[0263]
在本技术所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
[0264]
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0265]
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0266]
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用
时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
[0267]
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献