一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

机器学习模型的训练方法、装置、电子设备和存储介质与流程

2022-02-25 20:01:41 来源:中国专利 TAG:


1.本公开的实施例涉及机器学习技术领域,具体涉及机器学习模型的训练方法、装置、电子设备和存储介质。


背景技术:

2.目前迁移训练的方式可以分为两种。一种是特征的迁移,一种是同特征但是数据量数据分布不一致的迁移的。第一种特征的迁移研究在学术领域,目前商用的就是联邦训练的方式,本质是基于加密算法的特征撞库。第二种同特征但是数据量数据分布不一致的迁移停留在理论阶段,比如one-shot learning等,缺少可落地的迁移方法。
3.因此,有必要提出一种新的进行机器学习模型训练的技术方案。


技术实现要素:

4.本公开的实施例提出了机器学习模型的训练方法、装置、电子设备和存储介质。
5.第一方面,本公开提供了一种机器学习模型的训练方法,包括:
6.利用第一数据集进行机器学习训练,得到第一模型,其中,上述第一数据集中的第一数据具有相应的标注标签;
7.利用第二数据集的子集对上述第一模型进行更新,得到第二模型,其中,上述第二数据集的子集中的第二数据具有通过上述第一模型获得的预测标签;
8.根据上述第二模型在上述第一数据集上的预测结果,从上述第二数据集的子集中筛选出目标数据;
9.将上述目标数据由上述第二数据集转移至上述第一数据集,得到更新后的第一数据集;
10.利用上述更新后的第一数据集对上述第二模型进行更新,得到目标模型。
11.在一些可选的实施方式中,上述方法还包括:
12.将上述目标模型作为新的上述第一模型,重复执行从对上述第一模型进行更新至得到目标模型的处理过程,直至达到预设的停止条件。
13.在一些可选的实施方式中,上述利用第二数据集的子集对上述第一模型进行更新,得到第二模型,包括:
14.将上述第二数据集中的上述第二数据输入上述第一模型,得到上述第二数据的预测标签以及相应的预测概率;
15.基于上述第二数据对应的上述预测概率,对上述第二数据集中的上述第二数据进行筛选,得到上述第二数据集的子集;
16.利用上述第二数据集的子集对上述第一模型进行机器学习训练,得到上述第二模型。
17.在一些可选的实施方式中,上述基于上述第二数据对应的上述预测概率,对上述第二数据集中的上述第二数据进行筛选,得到上述第二数据集的子集,包括:
18.选取上述第二数据集中预测概率大于第一阈值的全体第二数据,以及在预测概率大于第二阈值并且小于或者等于上述第一阈值的第二数据中进行随机抽取,以得到上述第二数据集的子集,其中,上述第一阈值大于上述第二阈值。
19.在一些可选的实施方式中,上述根据上述第二模型在上述第一数据集上的预测结果,从上述第二数据集的子集中筛选出目标数据,包括:
20.将上述第一数据集中的第一数据输入上述第二模型,得到上述第一数据的预测标签;
21.根据上述第一数据的预测标签和标注标签,得到上述第一数据集的预测标签对应的分类指标;
22.基于上述分类指标对上述第一数据集的预测标签进行筛选,得到目标预测标签;
23.将上述第二数据集的子集中与上述目标预测标签对应的第二数据确定为上述目标数据。
24.在一些可选的实施方式中,上述基于上述分类指标包括精确率、召回率和/或精确率和召回率的调和平均数。
25.在一些可选的实施方式中,上述基于上述分类指标对上述第一数据集的预测标签进行筛选,得到目标预测标签,包括:
26.将上述第一数据集的预测标签对应的分类指标与预设分类指标进行比较,并且将分类指标优于上述预设分类指标的预测标签确定为上述目标预测标签。
27.第二方面,本公开提供了一种机器学习模型的训练装置,包括:
28.第一训练单元,用于利用第一数据集进行机器学习训练,得到第一模型,其中,上述第一数据集中的第一数据具有相应的标注标签;
29.第二训练单元,用于利用第二数据集的子集对上述第一模型进行更新,得到第二模型,其中,上述第二数据集的子集中的第二数据具有通过上述第一模型获得的预测标签;
30.筛选单元,用于根据上述第二模型在上述第一数据集上的预测结果,从上述第二数据集的子集中筛选出目标数据;
31.转移单元,用于将上述目标数据由上述第二数据集转移至上述第一数据集,得到更新后的第一数据集;
32.第三训练单元,用于利用上述更新后的第一数据集对上述第二模型进行更新,得到目标模型。
33.在一些可选的实施方式中,上述装置还包括循环单元,用于:
34.将上述目标模型作为新的上述第一模型,重复执行从对上述第一模型进行更新至得到目标模型的处理过程,直至达到预设的停止条件。
35.在一些可选的实施方式中,上述第二训练单元还用于:
36.将上述第二数据集中的上述第二数据输入上述第一模型,得到上述第二数据的预测标签以及相应的预测概率;
37.基于上述第二数据对应的上述预测概率,对上述第二数据集中的上述第二数据进行筛选,得到上述第二数据集的子集;
38.利用上述第二数据集的子集对上述第一模型进行机器学习训练,得到上述第二模型。
39.在一些可选的实施方式中,上述第二训练单元还用于:
40.选取上述第二数据集中预测概率大于第一阈值的全体第二数据,以及在预测概率大于第二阈值并且小于或者等于上述第一阈值的第二数据中进行随机抽取,以得到上述第二数据集的子集,其中,上述第一阈值大于上述第二阈值。
41.在一些可选的实施方式中,上述筛选单元还用于:
42.将上述第一数据集中的第一数据输入上述第二模型,得到上述第一数据的预测标签;
43.根据上述第一数据的预测标签和标注标签,得到上述第一数据集的预测标签对应的分类指标;
44.基于上述分类指标对上述第一数据集的预测标签进行筛选,得到目标预测标签;
45.将上述第二数据集的子集中与上述目标预测标签对应的第二数据确定为上述目标数据。
46.在一些可选的实施方式中,上述基于上述分类指标包括精确率、召回率和/或精确率和召回率的调和平均数。
47.在一些可选的实施方式中,上述筛选单元还用于:
48.将上述第一数据集的预测标签对应的分类指标与预设分类指标进行比较,并且将分类指标优于上述预设分类指标的预测标签确定为上述目标预测标签。
49.第三方面,本公开提供了一种电子设备,包括:
50.一个或多个处理器;
51.存储装置,其上存储有一个或多个程序,
52.当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如本公开第一方面描述的方法。
53.第四方面,本公开提供了一种计算机可读存储介质,其上存储有计算机程序,其中,上述计算机程序被一个或多个处理器执行时实现如本公开第一方面描述的方法。
54.在本公开提供的机器学习模型的训练方法、装置、电子设备和存储介质中,利用第二数据集的子集对第一模型进行更新得到第二模型,根据第二模型在第一数据集上的预测结果从第二数据集的子集中筛选出目标数据,将目标数据由第二数据集转移至第一数据集得到更新后的第一数据集,利用更新后的第一数据集对第二模型进行更新得到目标模型,能够实现同特征但是数据量数据分布不一致的迁移训练,实现机器学习模型的快速迭代,提高机器学习模型的运行效果。
附图说明
55.通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显。附图仅用于示出具体实施方式的目的,而并不认为是对本发明的限制。在附图中:
56.图1是根据本公开的机器学习模型的训练系统的一个实施例的系统架构图;
57.图2是根据本公开的机器学习模型的训练方法的一个实施例的流程图;
58.图3是根据本公开的机器学习模型的训练方法的一个具体例子的示意图;
59.图4是根据本公开的机器学习模型的训练装置的一个实施例的结构示意图;
60.图5是适于用来实现本公开的实施例的电子设备的计算机系统的结构示意图。
具体实施方式
61.下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
62.需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
63.图1示出了可以应用本公开的机器学习模型的训练方法、装置、终端设备和存储介质的实施例的示例性系统架构100。
64.如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103、服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
65.用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如语音交互类应用、视频会议类应用、短视频社交类应用、网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
66.终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有麦克风和扬声器的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、mp3播放器(moving picture experts group audio layer iii,动态影像专家压缩标准音频层面3)、mp4(moving picture experts group audio layer iv,动态影像专家压缩标准音频层面4)播放器、便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
67.服务器105可以与终端设备101、102、103建立连接并处理终端设备101、102、103发送的数据(例如第一数据或者第二数据)。
68.在一些情况下,本公开所提供的机器学习模型的训练方法可以由服务器105执行,相应地,机器学习模型的训练装置可以设置于服务器105中。
69.需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
70.应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
71.继续参考图2,其示出了根据本公开的机器学习模型的训练方法的一个实施例的流程210,可应用于图1中的服务器105,该流程210包括以下步骤:
72.步骤211,利用第一数据集进行机器学习训练,得到第一模型。
73.在本实施例中,第一数据集为已标注数据集,第一数据集中的第一数据具有相应的标注标签。
74.在本实施例中,第一数据集可以是小数据集,其包含的数据量例如为2万。
75.在本实施例中,第一模型可以是决策树或者神经网络等类型的机器学习模型。
76.在本实施例中,可以将第一数据集进一步分成训练集合和验证集合,以进行机器学习训练。
77.在一个例子中,第一模型可以是对话机器人模型,第一数据集可以是语料数据集。此外,本实施例中的方法也可以应用于其他场景,本公开对此不作限定。
78.步骤212,利用第二数据集的子集对第一模型进行更新,得到第二模型。
79.在本实施例中,第二数据集可以是未标注数据集。第二数据集及其子集中的第二数据可以具有通过第一模型获得的预测标签。
80.在本实施例中,第二数据集可以是大数据集,其包含的数据量例如为12万。
81.在本实施例中,第一数据集和第二数据集可以是同特征但是数据量数据分布不一致两个数据集。
82.在一个例子中,步骤212可以进一步包括以下步骤:
83.第一步,将第二数据集中的第二数据输入第一模型,得到第二数据的预测标签以及相应的预测概率。
84.第二步,基于第二数据对应的预测概率,对第二数据集中的第二数据进行筛选,得到第二数据集的子集。
85.第三步,利用第二数据集的子集(其中的第二数据具有通过第一模型获得的预测标签)对第一模型进行机器学习训练,得到第二模型。
86.上述第二步的具体实施方式例如是:选取第二数据集中预测概率大于第一阈值的全体第二数据,以及在预测概率大于第二阈值并且小于或者等于第一阈值的第二数据中进行随机抽取,以得到第二数据集的子集,其中,第一阈值大于第二阈值。
87.在上述例子中,第二数据集的子集包括全选部分(即预测概率大于第一阈值的第二数据)和随机选取部分(即预测概率大于第二阈值并且小于或者等于第一阈值的第二数据)。其中,全选部分可用于保证数据特征的一致性,随机选取部分可用于实现数据特征的扩展。
88.上述第一阈值例如是0.8,上述第二阈值例如是0.5。在上述随机抽取步骤中,抽取比例(即抽取的数据量在候选数据量中的占比)例如是0.4。
89.步骤213,根据第二模型在第一数据集上的预测结果,从第二数据集的子集中筛选出目标数据。
90.在一个例子中,步骤213可以进一步包括以下步骤:
91.第一步,将第一数据集中的第一数据输入第二模型,得到第一数据的预测标签。
92.第二步,根据第一数据的预测标签和标注标签,得到第一数据集的预测标签对应的分类指标。
93.第三步,基于分类指标对第一数据集的预测标签进行筛选,得到目标预测标签。
94.第四步,将第二数据集的子集中与目标预测标签对应的第二数据确定为目标数据。
95.上述分类指标可以包括精确率(precision)、召回率(recall)和/或精确率和召回率的调和平均数(f1)。可以根据每个预测标签的分类报告(classification report)确定
相应的分类指标。
96.上述第三步的具体实施方式例如是:将第一数据集的预测标签对应的分类指标与预设分类指标进行比较,并且将分类指标优于预设分类指标的预测标签确定为目标预测标签。其中,可以将步骤211中第一模型在验证集合上的分类指标作为预设分类指标。
97.步骤214,将目标数据由第二数据集转移至第一数据集,得到更新后的第一数据集。
98.在本实施例中,可以将目标数据添加至第一数据集中,并从第二数据集中将目标数据删除,以将目标数据由第二数据集转移至第一数据集。
99.步骤215,利用更新后的第一数据集对第二模型进行更新,得到目标模型。
100.在一个例子中,可以将目标模型作为新的第一模型,重复执行从对步骤212至步骤215处理过程,直至达到预设的停止条件,以便得到最终的机器学习模型。上述停止条件例如是无法再筛选出分类指标优于预设分类指标的预测标签。
101.在本公开提供的机器学习模型的训练方法中,利用第二数据集的子集对第一模型进行更新得到第二模型,根据第二模型在第一数据集上的预测结果从第二数据集的子集中筛选出目标数据,将目标数据由第二数据集转移至第一数据集得到更新后的第一数据集,利用更新后的第一数据集对第二模型进行更新得到目标模型,能够实现同特征但是数据量数据分布不一致的迁移训练,实现机器学习模型的快速迭代,提高机器学习模型的运行效果。
102.在实际的商业运作的很多场景中,训练数据只占预测数据的一小部分,所以常常会出现生产在线运行的效果比训练验证的效果差的情况,这个时候就需要不断的迭代模型。通过传统的方式,一个模型的迭代周期非常的长,常常会造成公司的损失,而通过本公开实施例中的方式,可以实现模型的快速迭代,有利于提高模型优化的速度。
103.图3是根据本公开的机器学习模型的训练方法的一个具体例子的示意图。如图3所示,该例子可以包括以下步骤:
104.第一步:通过小数据集训练已选择的模型,让该模型带参数。训练完成之后,用该模型去待标注的数据集进行预测,这个时候待标注的数据集就会有模型预测出来的概率和标签。
105.第二步,从预测的结果中,选择预测概率大于0.85的所有数据,在概率小于0.85大于0.5的数据中抽样0.4的数据,这些数据变成新的数据集。
106.第三步,将这些数据集训练已选择的模型,让该模型带上新参数。训练完成之后,用该模型反相对已经标注正确的小数据集的数据进行预测。
107.第四步,在小数据的这个集合中,将模型的结果进行错误报告的分析,打出classification report,看precision,f1,recall的值,我们看那些分类的结果是最好的。然后取对应的分类的新的数据集的数据。我们认为该数据为“正确数据”。
108.第五步,将第四步得到的数据加入到小数据集中,在需要迁移训练的大数据集中删除该数据。这样得到新的小数据集和需要迁移的大数据集。
109.第六步,重复上述步骤,直到classification report的衡量值中再也没有办法出到有价值的数据,则视为迁移完成。剩下的数据是和之前的数据特征不一样的新数据集。
110.在本实施例中,最终可以得到优化后的机器学习模型,以及更新后的第一数据集
和第二数据集。
111.进一步参考图4,作为对上述图2所示方法的实现,本公开提供了一种机器学习模型的训练装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种终端设备中。
112.如图4所示,本实施例的机器学习模型的训练装置410包括:第一训练单元411、第二训练单元412、筛选单元413、转移单元414和第三训练单元415。其中,第一训练单元411,用于利用第一数据集进行机器学习训练,得到第一模型,其中,上述第一数据集中的第一数据具有相应的标注标签;第二训练单元412,用于利用第二数据集的子集对上述第一模型进行更新,得到第二模型,其中,上述第二数据集的子集中的第二数据具有通过上述第一模型获得的预测标签;筛选单元413,用于根据上述第二模型在上述第一数据集上的预测结果,从上述第二数据集的子集中筛选出目标数据;转移单元414,用于将上述目标数据由上述第二数据集转移至上述第一数据集,得到更新后的第一数据集;第三训练单元415,用于利用上述更新后的第一数据集对上述第二模型进行更新,得到目标模型。
113.在本实施例中,第一训练单元411、第二训练单元412、筛选单元413、转移单元414和第三训练单元415的具体处理及其所带来的技术效果可分别参考图2对应实施例中步骤211、步骤212、步骤213、步骤214和步骤215的相关说明,在此不再赘述。
114.在一些可选的实施方式中,上述装置还包括循环单元(图4中未示出),用于:将上述目标模型作为新的上述第一模型,重复执行从对上述第一模型进行更新至得到目标模型的处理过程,直至达到预设的停止条件。
115.在一些可选的实施方式中,上述第二训练单元412还用于:将上述第二数据集中的上述第二数据输入上述第一模型,得到上述第二数据的预测标签以及相应的预测概率;基于上述第二数据对应的上述预测概率,对上述第二数据集中的上述第二数据进行筛选,得到上述第二数据集的子集;利用上述第二数据集的子集对上述第一模型进行机器学习训练,得到上述第二模型。
116.在一些可选的实施方式中,上述第二训练单元412还用于:选取上述第二数据集中预测概率大于第一阈值的全体第二数据,以及在预测概率大于第二阈值并且小于或者等于上述第一阈值的第二数据中进行随机抽取,以得到上述第二数据集的子集,其中,上述第一阈值大于上述第二阈值。
117.在一些可选的实施方式中,上述筛选单元413还用于:将上述第一数据集中的第一数据输入上述第二模型,得到上述第一数据的预测标签;根据上述第一数据的预测标签和标注标签,得到上述第一数据集的预测标签对应的分类指标;基于上述分类指标对上述第一数据集的预测标签进行筛选,得到目标预测标签;将上述第二数据集的子集中与上述目标预测标签对应的第二数据确定为上述目标数据。
118.在一些可选的实施方式中,上述基于上述分类指标包括精确率、召回率和/或精确率和召回率的调和平均数。
119.在一些可选的实施方式中,上述筛选单元413还用于:将上述第一数据集的预测标签对应的分类指标与预设分类指标进行比较,并且将分类指标优于上述预设分类指标的预测标签确定为上述目标预测标签。
120.需要说明的是,本公开的实施例提供的机器学习模型的训练装置中各单元的实现
细节和技术效果可以参考本公开中其它实施例的说明,在此不再赘述。
121.下面参考图5,其示出了适于用来实现本公开的终端设备或服务器的计算机系统500的结构示意图。图5示出的计算机系统500仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
122.如图5所示,计算机系统500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(rom)502中的程序或者从存储装置508加载到随机访问存储器(ram)503中的程序而执行各种适当的动作和处理。在ram 503中,还存储有计算机系统500操作所需的各种程序和数据。处理装置501、rom 502以及ram 503通过总线504彼此相连。输入/输出(i/o)接口505也连接至总线504。
123.通常,以下装置可以连接至i/o接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风等的输入装置506;包括例如液晶显示器(lcd)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置508;以及通信装置509。通信装置509可以允许计算机系统500与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备的计算机系统500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
124.特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从rom 502被安装。在该计算机程序被处理装置501执行时,执行本公开的实施例的方法中限定的上述功能。
125.需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、rf(射频)等等,或者上述的任意合适的组合。
126.上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
127.上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电
子设备执行时,使得该电子设备实现如图2所示的实施例及其可选实施方式示出的机器学习模型的训练方法。
128.可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c ,还包括常规的过程式程序设计语言—诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
129.附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
130.描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一训练单元还可以被描述为“用于利用第一数据集进行机器学习训练,得到第一模型的单元”。
131.以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献