一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

模型训练方法、装置、电子设备及计算机可读存储介质与流程

2021-10-29 22:20:00 来源:中国专利 TAG:人工智能 电子设备 装置 可读 模型


1.本技术涉及人工智能技术领域,特别是涉及一种模型训练方法、装置、电子设备及计算机可读存储介质。


背景技术:

2.随着ai(artificial intelligence,人工智能)技术的快速发展,基于ai算法的模型的应用范围也越来越广泛。相关技术中,为了得到精确度较高的模型,通常需要基于多个训练样本,对初始结构的模型进行多次训练。
3.另外,为了避免出现过拟合现象,在模型的训练过程中需要打乱训练样本的顺序。例如,训练样本的数目为100,且训练样本存储在预设的存储设备。当需要对模型进行训练时,可以从该存储设备中随机读取,得到上述100个训练样本,并基于读取到的训练样本的顺序,对模型进行训练,在基于第100个训练样本对模块训练结束后,可以再次从该存储设备中随机读取,得到上述100个训练样本,并基于读取到的训练样本的顺序,对模型进行训练,以此类推,直至模型达到收敛条件。
4.可见,相关技术中,需要通过多次训练样本的随机读取,才能完成模型的训练,会导致模型训练的时间较长,降低了模型训练的效率。


技术实现要素:

5.本技术实施例的目的在于提供一种模型训练方法、装置、电子设备及计算机可读存储介质,能够缩短模型训练的时长,提高模型训练的效率。具体技术方案如下:
6.第一方面,为了达到上述目的,本技术实施例公开了一种模型训练方法,所述方法包括:
7.获取多个训练样本;
8.基于所述多个训练样本,生成多个训练样本集,其中,每一所述训练样本集包含所述多个训练样本,且各所述训练样本集中所述多个训练样本的顺序随机;
9.在生成所述多个训练样本集的过程中,根据已生成的所述训练样本集对预设模型进行训练;
10.输出训练好的所述预设模型。
11.可选的,所述基于所述多个训练样本,生成多个训练样本集,包括:
12.基于预设分布式计算平台和所述多个训练样本,依次生成多个训练样本集。
13.可选的,所述方法还包括:
14.将生成的训练样本集发布至预设队列中;
15.所述根据已生成的所述训练样本集对预设模型进行训练,包括:
16.依次提取所述预设队列中的训练样本集,并在提取到每一所述训练样本集时,根据该训练样本集对预设模型进行训练。
17.可选的,所述方法还包括:
18.当所述预设队列中无可消费的训练样本集时,暂停所述根据该训练样本集对预设模型进行训练的操作,直至对所述预设模型进行训练的次数达到预设次数。
19.可选的,所述将生成的训练样本集发布至预设队列中,包括:
20.构建连接至预设队列的多个连接池;
21.通过所述多个连接池,将生成的训练样本集发送至所述预设队列中。
22.可选的,所述根据已生成的所述训练样本集对预设模型进行训练,包括:
23.按照已生成的所述训练样本集的生成时间顺序,从最早生成的训练样本集开始,依次利用已生成的所述训练样本集对预设模型进行训练。
24.可选的,所述获取多个训练样本,包括:
25.接收训练样本筛选指令,其中,所述训练样本筛选指令中携带有预设筛选条件;
26.从预设训练样本数据库中,提取满足所述预设筛选条件的多个训练样本。
27.可选的,所述预设训练样本数据库为mongodb数据库,所述预设训练样本数据库中的训练样本以json格式存储。
28.可选的,所述方法还包括:
29.存储所述获取的多个训练样本至预设归档数据库;
30.和/或
31.在输出训练好的所述预设模型的同时,存储输出的所述预设模型,以及该预设模型与对应的训练样本的关联性数据至预设归档数据库。
32.第二方面,为了达到上述目的,本技术实施例公开了一种模型训练装置,所述装置包括:
33.获取模块,用于获取多个训练样本;
34.生成模块,用于基于所述多个训练样本,生成多个训练样本集,其中,每一所述训练样本集包含所述多个训练样本,且各所述训练样本集中所述多个训练样本的顺序随机;
35.训练模块,用于在生成所述多个训练样本集的过程中,根据已生成的所述训练样本集对预设模型进行训练;
36.输出模块,用于输出训练好的所述预设模型。
37.可选的,所述生成模块,具体用于基于预设分布式计算平台和所述多个训练样本,依次生成多个训练样本集。
38.可选的,所述装置还包括:
39.发送模块,用于将生成的训练样本集发布至预设队列中;
40.所述训练模块,具体用于依次提取所述预设队列中的训练样本集,并在提取到每一所述训练样本集时,根据该训练样本集对预设模型进行训练。
41.可选的,所述训练模块,具体用于当所述预设队列中无可消费的训练样本集时,暂停所述根据该训练样本集对预设模型进行训练的操作,直至对所述预设模型进行训练的次数达到预设次数。
42.可选的,所述发送模块具体用于构建连接至预设队列的多个连接池;
43.通过所述多个连接池,将生成的训练样本集发送至所述预设队列中。
44.可选的,所述训练模块,具体用于按照已生成的所述训练样本集的生成时间顺序,从最早生成的训练样本集开始,依次利用已生成的所述训练样本集对预设模型进行训练。
45.可选的,所述获取模块,具体用于接收训练样本筛选指令,其中,所述训练样本筛选指令中携带有预设筛选条件;
46.从预设训练样本数据库中,提取满足所述预设筛选条件的多个训练样本。
47.可选的,所述预设训练样本数据库为mongodb数据库,所述预设训练样本数据库中的训练样本以json格式存储。
48.可选的,所述装置还包括:
49.第一存储模块,用于存储所述获取的多个训练样本至预设归档数据库;
50.和/或
51.第二存储模块,用于在输出训练好的所述预设模型的同时,存储输出的所述预设模型,以及该预设模型与对应的训练样本的关联性数据至预设归档数据库。
52.另一方面,为了达到上述目的,本技术实施例还公开了一种电子设备,所述电子设备包括存储器和处理器;
53.所述存储器,用于存放计算机程序;
54.所述处理器,用于执行所述存储器上所存放的程序时,实现如上述第一方面所述的模型训练方法。
55.另一方面,为了达到上述目的,本技术实施例还公开了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时,实现如上述第一方面所述的模型训练方法。
56.另一方面,为了达到上述目的,本技术实施例还公开了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面所述的模型训练方法。
57.本技术实施例提供了一种模型训练方法,可以获取多个训练样本;基于多个训练样本,生成多个训练样本集,其中,每一训练样本集包含多个训练样本,且各训练样本集中多个训练样本的顺序随机;在生成多个训练样本集的过程中,根据已生成的训练样本集对预设模型进行训练;输出训练好的预设模型。
58.基于上述处理,只需一次读取得到训练样本,即可生成多个训练样本集,在保证各训练样本集中训练样本的顺序随机的前提下,减少训练样本读取的次数,进而,能够缩短模型训练的时间,提高模型训练的效率。
59.当然,实施本技术的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
60.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
61.图1为本技术实施例提供的模型训练方法的一种流程图;
62.图2为本技术实施例提供的模型训练方法的另一种流程图;
63.图3为本技术实施例提供的模型训练方法的另一种流程图;
64.图4为本技术实施例提供的模型训练方法的另一种流程图;
65.图5为本技术实施例提供的一种模型训练系统的工作流程图;
66.图6为本技术实施例提供的一种模型训练装置的结构图;
67.图7为本技术实施例提供的一种电子设备的结构图。
具体实施方式
68.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
69.相关技术中,需要通过多次训练样本的随机读取,才能完成模型的训练,会导致模型训练的时间较长,降低了模型训练的效率。
70.为了解决上述问题,本技术实施例提供了一种模型训练方法,该方法可以应用于电子设备,电子设备用于对预设模型进行训练,参见图1,该方法可以包括以下步骤:
71.s101:获取多个训练样本。
72.s102:基于多个训练样本,生成多个训练样本集。
73.其中,每一训练样本集包含多个训练样本,且各训练样本集中多个训练样本的顺序随机。
74.s103:在生成多个训练样本集的过程中,根据已生成的训练样本集对预设模型进行训练。
75.s104:输出训练好的预设模型。
76.可见,本技术实施例提供的模型训练方法,只需一次读取得到多个训练样本,即可生成多个训练样本集,在保证各训练样本集中训练样本的顺序随机的前提下,减少训练样本读取的次数,进而,能够缩短模型训练的时间,提高模型训练的效率。
77.在步骤s101中,一种实现方式中,电子设备本地可以存储有训练样本,当需要对预设模型进行训练时,电子设备可以直接从本地读取,得到多个训练样本。
78.或者,训练样本可以存储在预设的存储设备中,当需要对预设模型进行训练时,电子设备可以从存储设备读取,得到多个训练样本。
79.在一个实施例中,预设的存储设备可以为高性能的ssd(solid state disk,固态硬盘),从ssd中读取训练样本,能够进一步提高读取训练样本速度,缩短模型训练的时长,提高模型训练的效率。
80.另外,为了进一步提高模型训练的效率,可以预先构建训练样本数据库,电子设备可以根据用户的需求,从训练样本数据库中提取训练样本。
81.在一个实施例中,s101可以包括以下步骤:接收训练样本筛选指令,从预设训练样本数据库中,提取满足预设筛选条件的多个训练样本。
82.其中,训练样本筛选指令中携带有预设筛选条件。
83.预设筛选条件可以包括训练样本的标签、存储训练样本的时间、训练样本的类型。
84.一种实现方式中,可以建立数据库(即预设训练样本数据库),用于存储预先获取的训练样本。预设训练样本数据库可以为mongodb数据库、mysql、hive或其他类型的数据库。
85.当需要对预设模型进行训练时,用户可以向电子设备输入携带预设筛选条件的训练样本筛选指令,相应的,电子设备可以提取预设筛选条件,进而,可以从预设训练样本数据库中,获取满足预设筛选条件的训练样本,用于对预设模型进行训练。
86.例如,可以获取基于标注系统生成的带标签的训练样本、技术人员通过线下渠道收集的训练样本,以及其他已公开的数据集,数据集可以包括imagenet(图网)、mnist、cifar-10等,上述标注系统可以是基于mysql或其他类型的数据库构建的。
87.然后,可以将获取的上述数据存储在预设训练样本数据库中,后续,可以根据用户的训练样本筛选指令,从预设训练样本数据库中提取符合预设筛选条件的训练样本。
88.基于上述处理,用户可以选择所需的训练样本对预设模型进行训练,能够满足用户的个性化需求。
89.在一个实施例中,预设训练样本数据库可以为mongodb数据库,预设训练样本数据库中的训练样本可以以json格式存储。
90.在本技术实施例中,可以使用mongodb数据库存储训练样本,相对于关系型数据库(例如,mysql),mongodb数据库的表结构、字段类型灵活可变,模式自由,相对于基于hdfs(hadoop distributed file system,分布式文件系统)的hive,mongodb数据库拥有更好的灵活性和对大数据量低延迟查询特性。
91.另外,基于json格式存储训练样本,能够提高数据生成和数据解析的效率,有效地提升数据的传输效率,以进一步提高模型训练的效率。
92.在步骤s102中,生成的训练样本集的数目,可以根据预设模型达到收敛时的训练次数确定。
93.例如,训练样本集的数目可以为训练预设模型所需要的epoch(时期)。1个epoch等于使用全部训练样本对预设模型训练一次。
94.在一个实施例中,为了进一步提高模型训练的效率,参见图2,s102可以包括以下步骤:
95.s1021:基于预设分布式计算平台和多个训练样本,依次生成多个训练样本集。
96.其中,预设分布式计算平台可以为spark分布式计算平台或其他分布式计算平台。
97.在本技术实施例中,在获取多个训练样本后,电子设备可以调用预设分布式计算平台对应的api(application programming interface,应用程序接口),进而,可以基于预设分布式计算平台对多个训练样本进行处理,借助于预设分布式计算平台的分布式计算能力,可以快速地依次生成多个训练样本集,且生成的每一训练样本集都包含上述多个训练样本,生成的各训练样本集中训练样本的顺序随机,能够提高生成训练样本集的速度,缩短模型训练的时长,提高模型训练的效率。
98.在一个实施例中,在图2的基础上,参见图3,该方法还可以包括以下步骤:
99.s105:将生成的训练样本集发布至预设队列中。
100.相应的,s103可以包括以下步骤:s1031:依次提取预设队列中的训练样本集,并在提取到每一训练样本集时,根据该训练样本集对预设模型进行训练。
101.一种实现方式中,在基于预设分布式计算平台,每生成一个训练样本集后,可以基于消息系统,对预设模型进行训练。消息系统可以为kafka(卡夫卡)系统、mq(message queue,消息队列)系统。
102.例如,预设分布式计算平台可以作为消息系统的发布端,在每生成一个训练样本集后,预设分布式计算平台可以将该训练样本集发布至消息系统的预设队列中。
103.相应的,电子设备中可以配置有模型训练模块,该模型训练模块可以作为消息系统的消费端。
104.基于消息系统的点对点传递模式,当预设分布式计算平台将一个训练样本集发布至预设队列中时,模型训练模块可以从预设队列中提取该训练样本集,并基于该训练样本集对预设模型进行训练,即,模型训练模块可以在预设分布式计算平台将一个训练样本集发布至预设队列后,消费该训练样本集,然后,还可以将该训练样本集从预设队列中删除。
105.基于上述处理,能够实现生成训练样本集的同时,基于生成的训练样本集对预设模型进行训练,缩短模型训练的时间,且能够降低训练样本集所占的存储空间。
106.在一个实施例中,s105可以包括以下步骤:
107.构建连接至预设队列的多个连接池;通过多个连接池,将生成的训练样本集发送至预设队列中。
108.在本技术实施例中,为了进一步缩短模型训练的时长,提高模型训练的效率,可以通过多个连接池,向预设队列发送训练样本集。
109.构建的连接池的数目可以由技术人员根据经验进行设置。例如,连接池的数目可以为3,或者,也可以为5,但并不限于此。示例性的,可以结合spark分布式计算平台和kafka系统,将训练样本集发送至预设队列中。
110.基于spark分布式计算平台,可以依次生成多个训练样本集,生成的训练样本集可以存储在spark的分区中。另外,可以构建多个kafka的连接池,基于连接池对kafka producer(卡夫卡制造者)进行封装,并将封装后的kafka producer广播发送至多个spark executor(卡夫卡执行者),进而,在多个spark executor得到封装后的kafka producer后,可以获取连接池,并分别通过每一连接池将spark的分区中的训练样本集发送至预设队列中。
111.基于上述处理,通过多个连接池,能够提高向预设队列发送训练样本集的速度,以进一步缩短模型训练的时长,提高模型训练的效率。
112.在一个实施例中,在图3的基础上,参见图4,该方法还可以包括以下步骤:
113.s106:当预设队列中无可消费的训练样本集时,暂停根据该训练样本集对预设模型进行训练的操作,直至对预设模型进行训练的次数达到预设次数。
114.在本技术实施例中,当预设队列中存在训练样本集时,模型训练模块可以从预设队列中依次提取训练样本集进行消费。当预设队列中无可消费的训练样本集时,模型训练模块可以暂停对预设模型进行训练,直至根据所生成的所有训练样本集对预设模型进行训练,此时,预设模型达到收敛状态,得到训练后的预设模型。
115.基于上述处理,依次根据生成的每一训练样本集对预设模型进行训练,能够缩短模型训练的时长,提高模型训练的效率。
116.在一个实施例中,步骤s103可以包括以下步骤:按照已生成的训练样本集的生成时间顺序,从最早生成的训练样本集开始,依次利用已生成的训练样本集对预设模型进行训练。
117.在本技术实施例中,可以按照训练样本集的生成时间的先后顺序,依次根据每一
训练样本集对预设模型进行训练。
118.例如,在每生成一个训练样本集后,可以将该训练样本集发送至预设队列中,也就是说,预设队列中的训练样本集是按照生成时间的先后顺序排列的,相应的,从预设队列中提取训练样本集时,先提取到的训练样本集是较早生成的,后提取到的训练样本集是较晚生成的,进而,基于从预设队列中提取训练样本集的顺序,对预设模型进行训练,能够保证按照训练样本集的生成时间的先后顺序,对预设模型进行训练。
119.在一个实施例中,该方法还可以包括以下步骤:存储获取的多个训练样本至预设归档数据库;和/或,在输出训练好的预设模型的同时,存储输出的预设模型,以及该预设模型与对应的训练样本的关联性数据至预设归档数据库。
120.在本技术实施例中,可以设置预设归档数据库,相应的,可以将获取的多个训练样本存储至预设归档数据库。
121.另外,在训练好预设模型后,也可以将训练得到的预设模型和使用的训练样本对应地存储在预设归档数据库中。
122.后续,当用户对上述预设训练样本数据库中的训练样本进行修改时,基于本技术实施例提供的方法,可以根据修改后的训练样本对预设模型进行训练,进而,还可以将训练得到的新的模型和对应的修改后的训练样本存储在预设归档数据库中。基于预设训练样本数据库和预设归档数据库,能够实现模型和训练样本的追溯。
123.参见图5,图5为本技术实施例提供的一种模型训练系统的工作流程图,该模型训练系统可以包括etl(extract transform load,抽取转换加载)模块、数据生成模块、生命周期管理模块、分布式shuffle模块、模型训练模块。
124.图5中,etl模块可以获取标注数据库、外部数据源和公开数据集中的多个训练样本,标注数据库中可以存储标注系统生成的带标签的训练样本,外部数据源可以包括技术人员通过线下渠道收集的训练样本,公开数据集可以包括imagenet、mnist、cifar-10等,上述数据可以用于对预设模型进行训练。
125.训练数据仓库可以表示上述实施例中的预设训练样本数据库,etl模块可以将获取的训练样本,以json格式存储在训练数据仓库中。
126.数据生成模块负责生成用于对预设模型进行训练的训练样本,例如,可以获取用户输入的筛选条件,并从训练数据仓库中,提取满足筛选条件的多个训练样本,用于对预设模型进行训练,并向分布式shuffle模块发送。
127.分布式shuffle模块可以基于spark分布式计算平台和kafka系统实现。分布式shuffle模块可以作为消息系统的发布端,在接收数据生成模块发送的多个训练样本后,依据spark强大的分布式计算能力,按照预设的epoch,生成多个训练样本集,并实时写入kafka(即上述实施例中的预设队列)。
128.在对模型进行训练的过程中,为避免模型过拟合,需要对训练样本进行shuffle操作,相关技术中,对训练样本进行shuffle操作,往往会导致较高的时间成本和硬件成本,而基于上述分布式shuffle模块,借助于spark运算框架和kafka系统,只需要一次读取多个训练样本,能够降低时间成本和硬件成本,进而,可以提高模型的训练效率,降低成本。
129.模型训练模块可以作为消息系统的消费端,基于训练程序和预设队列中的训练样本集,对预设模型进行训练。模型训练模块可以实时消费预设队列中的训练样本集,即,可
以从预设队列中提取分布式shuffle模块发布的训练样本集,并基于该训练样本集对预设模型进行训练。当预设队列中没有可消费的训练样本集时,模型训练模块可以暂停训练,直至训练的次数达到预设的epoch,进而,可以输出训练得到的预设模型。
130.另外,模块训练模块还可以将训练后的预设模型以及对应的训练样本,存储在预设的归档数据库中。
131.在对预设模型进行训练和迭代优化的过程中,往往会对训练样本的标签或者属性进行修改,同时,由于对模型进行训练的过程比较繁琐,且模型训练过程中容易出错,相关技术中,缺乏对整个模型训练过程中的数据进行全链路的流转和追溯方法,从而可能会导致模型的训练周期变得冗长。
132.而基于图5中的生命周期管理模块,当训练数据仓库的数据发生修改时,可以及时将修改前后的训练样本同步到预设归档数据库,实现训练样本的可追溯。另外,基于图5的模型训练系统,能够提高训练样本集的处理效率,进而,能够缩短模型的训练周期,提高模型的训练效率。
133.基于相同的发明构思,本技术实施例还提供了一种模型训练装置,参见图6,图6为本技术实施例提供的一种模型训练装置的结构图,装置包括:
134.获取模块601,用于获取多个训练样本;
135.生成模块602,用于基于所述多个训练样本,生成多个训练样本集,其中,每一所述训练样本集包含所述多个训练样本,且各所述训练样本集中所述多个训练样本的顺序随机;
136.训练模块603,用于在生成所述多个训练样本集的过程中,根据已生成的所述训练样本集对预设模型进行训练;
137.输出模块604,用于输出训练好的所述预设模型。
138.可选的,所述生成模块602,具体用于基于预设分布式计算平台和所述多个训练样本,依次生成多个训练样本集。
139.可选的,所述装置还包括:
140.发送模块,用于将生成的训练样本集发布至预设队列中;
141.所述训练模块603,具体用于依次提取所述预设队列中的训练样本集,并在提取到每一训练样本集时,根据该训练样本集对预设模型进行训练。
142.可选的,所述训练模块603,具体用于当所述预设队列中无可消费的训练样本集时,暂停所述根据该训练样本集对预设模型进行训练的操作,直至对所述预设模型进行训练的次数达到预设次数。
143.可选的,所述发送模块具体用于构建连接至预设队列的多个连接池;
144.通过所述多个连接池,将生成的训练样本集发送至所述预设队列中。
145.可选的,所述训练模块603,具体用于按照已生成的所述训练样本集的生成时间顺序,从最早生成的训练样本集开始,依次利用已生成的所述训练样本集对预设模型进行训练。
146.可选的,所述获取模块601,具体用于接收训练样本筛选指令,其中,所述训练样本筛选指令中携带有预设筛选条件;
147.从预设训练样本数据库中,提取满足所述预设筛选条件的多个训练样本。
148.可选的,所述预设训练样本数据库为mongodb数据库,所述预设训练样本数据库中的训练样本以json格式存储。
149.可选的,所述装置还包括:
150.第一存储模块,用于存储所述获取的多个训练样本至预设归档数据库;
151.和/或
152.第二存储模块,用于在输出训练好的所述预设模型的同时,存储输出的所述预设模型,以及该预设模型与对应的训练样本的关联性数据至预设归档数据库。
153.本技术实施例提供的模型训练装置,只需一次读取得到训练样本,即可生成多个训练样本集,在保证各训练样本集中训练样本的顺序随机的前提下,减少训练样本读取的次数,进而,能够缩短模型训练的时间,提高模型训练的效率。
154.本技术实施例还提供了一种电子设备,如图7所示,包括存储器701和处理器702;
155.存储器701,用于存放计算机程序;
156.处理器702,用于执行存储器701上所存放的程序时,实现本技术实施例提供的模型训练方法。
157.具体的,上述模型训练方法,包括:
158.获取多个训练样本;
159.基于所述多个训练样本,生成多个训练样本集,其中,每一所述训练样本集包含所述多个训练样本,且各所述训练样本集中所述多个训练样本的顺序随机;
160.在生成所述多个训练样本集的过程中,根据已生成的所述训练样本集对预设模型进行训练;
161.输出训练好的所述预设模型。
162.需要说明的是,上述模型训练方法的其他实现方式与前述方法实施例部分相同,这里不再赘述。
163.上述电子设备可以具备有实现上述电子设备与其他设备之间通信的通信接口。
164.上述的处理器,通信接口,存储器通过通信总线完成相互间的通信,此处提到的通信总线可以是外设部件互连标准(peripheral component interconnect,简称pci)总线或扩展工业标准结构(extended industry standard architecture,简称eisa)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。
165.存储器可以包括随机存取存储器(random access memory,简称ram),也可以包括非易失性存储器(non-volatile memory,简称nvm),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
166.上述的处理器可以是通用处理器,包括中央处理器(central processing unit,简称cpu)、网络处理器(network processor,简称np)等;还可以是数字信号处理器(digital signal processing,简称dsp)、专用集成电路(application specific integrated circuit,简称asic)、现场可编程门阵列(field-programmable gate array,简称fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
167.本技术实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行本技术实施例提供的模型训练方法。
168.本技术实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行
时,使得计算机执行本技术实施例提供的模型训练方法。
169.在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本技术实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(dsl))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,dvd)、或者半导体介质(例如固态硬盘solid state disk(ssd))等。
170.需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
171.本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、电子设备、计算机可读存储介质以及计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
172.以上所述仅为本技术的较佳实施例,并非用于限定本技术的保护范围。凡在本技术的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本技术的保护范围内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜