一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种目标特征提取方法及装置与流程

2022-05-06 06:35:53 来源:中国专利 TAG:


1.本技术涉及智能技术领域,特别是涉及一种目标特征提取方法及装置。


背景技术:

2.神经网络作为机器学习研究中的一个新兴领域,通过模仿人脑的机制来分析数据,已在智能领域得到广泛应用。在图像处理的应用场景下,通过将待处理的图像输入网络模型,即可提取出图像中的目标特征,实现端到端的图像处理功能。上述网络模型基于神经网络建立并通过训练得到,网络模型的训练过程直接影响着图像处理结果的准确性。
3.相关技术中,在训练网络模型的过程中需要人工配置一些参数,如网络模型的中间层数量、所使用的激活函数、损失函数、迭代次数等,下文称这些参数为超参数。超参数的设置将对训练得到的网络模型的性能产生影响,因此超参数的设定也将影响到图像处理结果的准确性。
4.然而,在相关技术中,超参往往是技术人员根据自身的调参经验设置的,如果设置的不合理,会导致网络模型精度较差,进一步影响图像处理结果的准确性。


技术实现要素:

5.本技术实施例的目的在于提供一种目标特征提取方法及装置,以提高图像处理结果的准确性。具体技术方案如下:
6.第一方面,本技术实施例提供了一种目标特征提取方法,该方法包括:
7.获取待处理的图像;
8.利用预先训练的网络模型,从上述图像中提取目标特征;其中,网络模型为采用数据并行训练方式,利用针对不同训练阶段设置的不同超参分别对多个初始神经网络进行训练得到。
9.在一种可能的实施例中,所述网络模型的训练方式,包括:
10.采用预先设置的同一超参,对多个初始神经网络进行数据并行训练;
11.在满足预先设定的第一停止条件的情况下,停止对所述多个初始神经网络的训练,得到多个更新神经网络;
12.在每个不同的训练阶段中,对所述多个更新神经网络进行并行训练,并在每个训练阶段完成后,对该训练阶段训练得到的各神经网络进行精度测试,其中,在每个训练阶段中针对每个更新神经网络设置的超参不同;
13.在满足预先设定的第二停止条件的情况下,停止对所述多个更新神经网络的并行训练,并根据最后一个训练阶段训练得到的各神经网络中精度最高的神经网络的网络结构,确定最终训练得到的网络模型。
14.在一种可能的实施例中,所述在每个不同的训练阶段中,对所述多个更新神经网络进行并行训练,并在每个训练阶段完成后,对该训练阶段训练得到的各神经网络进行精度测试的步骤,包括:
15.在每个训练阶段中,并行地针对每个更新神经网络,采用按照预设规则设置的该更新神经网络对应的超参,对该更新神经网络进行单次训练,得到单次训练后的神经网络;
16.在每个训练阶段完成后,对每个单次训练后的神经网络进行精度测试,确定该训练阶段训练得到的精度最高的神经网络;
17.将该训练阶段训练得到的精度最高的神经网络的网络权值拷贝至其他各单次训练后的神经网络;
18.将各单次训练后的神经网络作为新的更新神经网络,开始下一个训练阶段的并行训练,其中,在除第一个训练阶段外的其他训练阶段中,一个更新神经网络对应的超参被设置为上一个训练阶段得到的精度最高的神经网络对应的超参。
19.在一种可能的实施例中,所述预设规则包括:
20.如果该更新神经网络为上一个训练阶段训练得到的精度最高的神经网络,则保持该更新神经网络对应的超参不变;
21.如果该更新神经网络不为上一个训练阶段训练得到的精度最高的神经网络,则随机设置该更新神经网络对应的超参。
22.在一种可能的实施例中,所述随机设置该更新神经网络对应的超参,包括:
23.在指定超参范围内随机设置该更新神经网络对应的超参,其中,所述指定超参范围为根据上一个训练阶段训练得到的精度最高的神经网络对应的超参确定得到的。
24.在一种可能的实施例中,在所述在每个不同的训练阶段中,对所述多个更新神经网络进行并行训练,并在每个训练阶段完成后,对该训练阶段训练得到的各神经网络进行精度测试之后,所述方法还包括:
25.若已经完成的训练阶段的数量达到预设阈值,则停止对所述多个更新神经网络的并行训练,并根据最后一个训练阶段训练得到的各神经网络中精度最高的神经网络的网络结构,确定最终训练得到的网络模型。
26.在一种可能的实施例中,所述对所述多个更新神经网络进行并行训练,包括:
27.利用多个gpu对所述多个更新神经网络进行并行训练,其中,每个gpu用于对一个更新神经网络进行训练。
28.在一种可能的实施例中,在所述利用预先训练的网络模型,从所述图像中提取目标特征的步骤之后,所述方法还包括:
29.基于所述目标特征,对所述目标进行识别,得到目标识别结果。
30.第二方面,本技术实施例提供了一种目标特征提取装置,该装置包括:
31.获取模块,用于获取待处理的图像;
32.特征提取模块,用于利用预先训练的网络模型,从上述图像中提取目标特征;其中,网络模型为采用数据并行训练方式,利用针对不同训练阶段设置的不同超参分别对多个初始神经网络进行训练得到。
33.第三方面,本技术实施例提供了一种计算机设备,包括处理器和机器可读存储介质,机器可读存储介质存储有能够被处理器执行的机器可执行指令,处理器被机器可执行指令促使:实现本技术实施例第一方面提供的方法。
34.第四方面,本技术实施例提供了一种机器可读存储介质,存储有机器可执行指令,在被处理器调用和执行时,实现本技术实施例第一方面提供的方法。
35.第五方面,本技术实施例提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行本技术实施例第一方面提供的方法。
36.本技术实施例提供的一种目标特征提取方法及装置,通过获取待处理的图像,利用预先训练的网络模型,从图像中提取目标特征。其中,网络模型是采用数据并行训练方式,利用针对不同训练阶段设置的不同超参分别对多个初始神经网络进行训练得到。在进行网络模型训练时,采用数据并行训练方式,利用针对不同训练阶段设置的不同超参分别对多个初始神经网络进行训练,针对每个初始神经网络,无需设置统一的超参,超参的设置更为灵活,网络模型受超参的影响降低,保证了网络模型的精度,利用训练得到的网络模型进行目标特征提取,所提取的目标特征更为精准,从而提高了图像处理结果的准确性。
附图说明
37.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
38.图1为本技术实施例的目标特征提取方法的流程示意图;
39.图2为本技术一实施例的网络模型训练的流程示意图;
40.图3为图2所示实施例中s203执行的流程示意图;
41.图4为本技术另一实施例的网络模型训练的流程示意图;
42.图5为本技术实施例的常规数据并行训练的流程示意图;
43.图6为本技术实施例的非常规数据并行训练的流程示意图;
44.图7为本技术实施例的精度测试以及网络权值拷贝的流程示意图;
45.图8为本技术实施例的目标特征提取装置的结构示意图;
46.图9为本技术实施例的计算机设备的结构示意图。
具体实施方式
47.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
48.为了提高图像处理结果的准确性,本技术实施例提供了一种目标特征提取方法、装置、计算机设备及机器可读存储介质。下面,首先对本技术实施例所提供的目标特征提取方法进行介绍。
49.为更清楚的对本技术实施例提供的目标特征提取方法进行说明,下面将对本技术实施例提供的目标特征提取方法的应用场景进行示例性说明,以下示例仅是本技术实施例提供的目标特征提取方法的一种可能的应用场景,在其他可能的实施例中,本技术实施例提供的目标特征提取方法也可以应用于其他可能的应用场景吗,以下示例对此不做任何限制。
50.为了提高图像分析结果的准确性,可以采用分布式训练的方式对用于图像分析的
网络模型进行训练,分布式训练的方式主要包括数据并行训练和模型并行训练。数据并行训练是指:针对多个初始神经网络,分别输入训练样本进行训练,将训练后的各神经网络的网络结构进行组合得到最终的网络模型。模型并行训练是指:将初始神经网络拆分为不同的部分,针对不同的部分,分别输入训练样本进行训练,将训练后的各部分的网络结构进行拼接得到最终的网络模型。
51.在相应的分布式训练的方案中,利用同一超参,对不同网络结构的初始神经网络进行训练,最早达到停止训练条件的初始神经网络的网络结构更优,因此,在最早达到停止训练条件的初始神经网络之后分别添加其他初始神经网络,进一步进行训练,确定出下一个到达停止训练条件的初始神经网络,以此往复,能够得到最终的网络模型。该方案利用初始神经网络到达停止训练条件的先后顺序从很多个神经网络中筛选出更快达到停止训练条件的,重复多次后,最后可得到精度较高的网络模型。
52.但是其中的超参往往是技术人员根据自身的调参经验设置的,如果设置的不合理,会导致网络模型精度较差,进一步影响图像处理结果的准确性。
53.基于此,本技术实施例提供了一种目标特征提取方法,本技术实施例所提供的目标特征提取方法的执行主体可以为具有图像处理功能的计算机设备,执行主体中至少包括具有数据处理能力的核心处理芯片。实现本技术实施例所提供的一种目标特征提取方法的方式可以为设置于执行主体中的软件、硬件电路和逻辑电路的至少一种方式。
54.如图1所示,为本技术实施例的目标特征提取方法的流程示意图,该方法可以包括如下步骤。
55.s101,获取待处理的图像。
56.s102,利用预先训练的网络模型,从上述图像中提取目标特征;其中,网络模型为采用数据并行训练方式,利用针对不同训练阶段设置的不同超参分别对多个初始神经网络进行训练得到。
57.应用本技术实施例,通过获取待处理的图像,利用预先训练的网络模型,从图像中提取目标特征。其中,网络模型是采用数据并行训练方式,利用针对不同训练阶段设置的不同超参分别对多个初始神经网络进行训练得到。在进行网络模型训练时,采用数据并行训练方式,利用针对不同训练阶段设置的不同超参分别对多个初始神经网络进行训练,针对每个初始神经网络,无需设置统一的超参,超参的设置更为灵活,网络模型受超参的影响降低,保证了网络模型的精度,利用训练得到的网络模型进行目标特征提取,所提取的目标特征更为精准,从而提高了图像处理结果的准确性。
58.本技术实施例中,待处理的图像可以是从前端图像采集设备获取或者从本地数据库中获取的需要进行目标识别、目标检测等处理的图像,在对图像进行处理时,需要提取图像中的目标特征,目标特征具体指的是能够表征目标属性的信息,例如,人体五官、车牌、宠物面部等。
59.在本技术实施例中,采用网络模型对待处理的图像进行目标特征提取,网络模型是利用训练样本对神经网络训练得到。具体的,在本技术实施例中,网络模型是采用数据并行训练方式,利用针对不同训练阶段设置的不同超参分别对多个初始神经网络进行训练得到。数据并行训练是指:针对多个初始神经网络,分别输入训练样本进行训练,将训练后的各神经网络的网络结构进行组合得到最终的网络模型。多个初始神经网络可以是网络结构
相同的多个神经网络,也可以是网络结构不同的多个神经网络,这里不做具体限定。神经网络可以是卷积神经网络、循环神经网络、长短期记忆网络等,这里也不做具体限定。
60.在本技术实施例中,多个初始神经网络可以分布在不同的gpu(graphics processing unit,图像处理器)上,则网络模型的训练过程具体可以是计算机设备中的各gpu协作完成的,另外,计算机设备中还可以设置一个处理器,用来协调各gpu。
61.在本技术实施例的另一种实现方式中,在s102之后,该方法还可以包括:基于目标特征,对目标进行识别,得到目标识别结果。
62.结合具体的应用场景,本技术实施例中,在提取出目标特征后,可以基于目标特征对目标进行识别,得到目标识别结果,目标识别结果可以包括目标的位置、类别等信息。
63.在本技术实施例的网络模型训练过程中,分为多个不同的训练阶段,每个训练阶段在对神经网络进行训练时所使用的超参不同,并且,训练每个神经网络所使用的超参也可以不同。超参指的是训练过程中所使用的约束参数,例如学习率、批量大小、动量、权重衰减等。下面对具体如何训练进行介绍。
64.如图2所示的网络模型训练的流程,可以包括如下步骤。
65.s201,采用预先设置的同一超参,对多个初始神经网络进行数据并行训练。
66.s202,在满足预先设定的第一停止条件的情况下,停止对多个初始神经网络的训练,得到多个更新神经网络。
67.s203,在每个不同的训练阶段中,对多个更新神经网络进行并行训练,并在每个训练阶段后,对该训练阶段训练得到的各神经网络进行精度测试,其中,在每个训练阶段中针对每个更新神经网络设置的超参不同。。
68.s204,在满足预先设定的第二停止条件的情况下,停止对多个更新神经网络的并行训练,并根据最后一个训练阶段训练得到的各神经网络中精度最高的神经网络的网络结构,确定最终训练得到的网络模型。
69.在本技术实施例的网络模型训练过程中,主要分为两种不同的训练阶段,即常规数据并行训练阶段和非常规数据并行训练阶段,训练过程中可以包括多个常规数据并行训练阶段和多个非常规数据并行训练阶段,在一个训练阶段中可以进行多次训练,也可以进行单次训练。常规数据并行训练阶段就是采用预先设置的同一超参,利用训练样本对多个初始神经网络进行数据并行训练,在满足预先设定的第一停止条件的情况下,停止对多个初始神经网络的训练,得到多个更新神经网络。其中,第一停止条件可以是已经完成常规数据并行训练阶段训练的次数达到一定次数或者训练的精度达到一定精度,具体的训练过程参照传统的数据并行训练,这里不再赘述。
70.非常规数据并行训练阶段是对上一个训练阶段得到的多个更新神经网络进行多次训练,第一个非常规数据并行训练阶段的上一个训练阶段为最后一个常规数据并行训练阶段,除第一个非常规数据并行训练阶段以外的其他训练阶段的上一个训练阶段为上一个非常规数据并行训练阶段,为描述方便在,下文中的“训练阶段”在没有特别说明的情况下是指非常规数据并行训练阶段。
71.在每个训练阶段完成后,对该训练阶段训练得到的各神经网络进行精度测试,在满足预先设定的第二停止条件的情况下,停止对多个更新神经网络的并行训练,并根据最后一个训练阶段训练得到的各神经网络中精度最高的神经网络的网络结构,确定最终训练
得到的网络模型。其中,每个训练阶段中设置的每个更新神经网络对应的超参不同,即在同一个训练阶段中任意两个更新神经网络对应的超参不同,超参不同可以是指超参不完全相同也可以是指超参完全不同,示例性的,假设一共包括三个超参,分别记为超参1、超参2以及超参3,则两个更新神经网络对应的超参不同,可以是指这两个更新神经网络各自对应的超参1-3中任一超参不同,也可以是指这两个更新神经网络各自对应的超参1-3中每个超参不同。
72.由于在同一训练阶段中为不同更新神经网络设置的超参不同,则每个更新神经网络训练后的网络权值会不相同,网络权值不同,会使得每个训练后的神经网络的精度也不相同,通过多个训练阶段的训练,会有神经网络的精度越来越高,这样,在满足预先设定的第二停止条件的情况下,可以停止对多个更新神经网络的并行训练,并根据最后一个训练阶段训练得到的各神经网络中精度最高的神经网络的网络结构,确定最终训练得到的网络模型。具体的,精度测试的过程,可以是将已经标记有标签信息的数据输入神经网络,获得神经网络的分析结果,分析结果越接近标签信息,则神经网络的精度越高。第二停止条件可以是已经完成非常规数据并行训练阶段训练的次数达到一定次数或者某一个神经网络训练的精度达到一定精度,这里不做具体限定。
73.在申请实施例的另一种实现方式中,在s203之后,还可以包括:若已经完成的常规训练阶段和非常规训练阶段的的总次数达到预设阈值,则停止对多个更新神经网络的训练,并根据最后一个训练阶段训练得到的各神经网络中精度最高的神经网络的网络结构,确定最终训练得到的网络模型。
74.基于图2所示实施例,如图3所示,s203具体可以包括如下步骤。
75.s2031,在每个训练阶段中,并行地针对每个更新神经网络,采用按照预设规则的该更新神经网络对应的超参,对该更新神经网络进行单次训练,得到单次训练后的神经网络。
76.s2032,在每个训练阶段完成后,对每个单次训练后的神经网络进行精度测试,确定该训练阶段训练得到的精度最高的神经网络。
77.s2033,将该训练阶段训练得到的精度最高的神经网络的网络权值拷贝至其他各单次训练后的神经网络。
78.s2034,将各单次训练后的神经网络作为新的更新神经网络,开始下一个训练阶段的并行训练,其中,在除第一个训练阶段外的其他训练阶段中,一个更新神经网络对应的超参被设置为上一个训练阶段得到的精度最高的神经网络对应的超参。
79.在具体实施时,在在第一个训练阶段时,可以采用按照预设规则设置的每个更新神经网络对应的超参,分别对每个更新神经网络进行单次训练,这里预设规则根据应用场景的不同可以不同,但是应当满足为不同的更新神经网络设置不同的超参,例如预设规则设置可以是随机设置,并且随机设置超参的方式可以是随机选择,也可以指定超参变化规律、超参变化范围等,示例性的,在一种可能的实施例中,可以是在指定超参范围内随机设置更新神经网络对应的超参,其中,指定超参范围为根据上一个训练阶段训练得到的精度最高的神经网络对应超参确定得到的,例如可以从指定超参的50%-150%范围内随机产生超参。
80.在每个训练阶段完成后,可以对每个单次训练后的神经网络进行精度测试,确定
出精度最高的神经网络。将精度最高的神经网络的网络权值拷贝至其他各单次训练后的神经网络,这样在开始下一次训练时,每个神经网络的网络权值是相同的,保证每个神经网络的训练基准相同。然后,将各单次训练后的神经网络作为新的更新神经网络,开始下一个训练阶段的并行训练。在下一个训练阶段中,一个更新神经网络的超参被设置为前述精度最高的神经网络对应的超参,例如假设第n个训练阶段训练得到的神经网络中精度最高的神经网络为神经网络a,则在第n 1个训练阶段中一个更新神经网络对应的超参与在神经网络a对应的超参相同。
81.实现在下一个训练阶段中一个更新神经网络的超参被设置为前述精度最高的神经网络对应的超参的方式,根据应用场景的不同可以不同。
82.在一种可能的实施例中,可以是在设置更新神经网络的超参时,将任一更新神经网络对应的超参设置为上一个训练阶段训练得到的精度最高的神经网络对应的超参,并随机设置除该任一更新神经网络以外的其他更新神经网络对应的超参。
83.例如,以前述示例为例,可以是在第n个训练阶段训练得到的除神经网络a以外的任一神经网络对应的超参设置为神经网络a对应的超参,并重新随机设置在第n个训练阶段训练得到的除该任一神经网络以外的其他神经网络对应的超参。关于预设规则可以参见前述相关说明在此不再赘述,重新设置后神经网络对应的超参应当与重新设置前该神经网络对应的超参不同。
84.在另一种可能的实施例中,也可以是对于上一个训练阶段训练得到的精度最高的神经网络,保持该更新神经网络对应的超参不变。对于不为上一个训练阶段得到的精度最高的神经网络,则随机设置该更新神经网络对应的超参。
85.例如,以前述示例为例,可以是保持神经网络a对应的超参不变,并重新按照预设规则设置在第n个训练阶段训练得到的除神经网络a以外的其他神经网络对应的超参。选用该实施例,由于无需重新设置神经网络a的超参,因此可以降低重新设置神经网络的超参所消耗的系统资源。
86.为了便于理解,下面结合具体实例,主要对本技术实施例中网络模型训练的过程进行介绍。如图4所示,包括如下步骤。
87.s401,在不同的gpu上配置相同的超参。
88.s402,常规数据并行训练。
89.常规数据并行训练的过程如图5所示,训练样本输入各gpu,由各gpu采用配置的超参对各自部署的初始神经网络进行训练,得到多个更新神经网络。
90.s403,判断是否满足预先设定的第一停止条件。如果是则执行s404,否则返回s401。
91.s404,在不同的gpu上配置不同的超参。
92.每个gpu上的超参是随机配置的。
93.s405,非常规数据并行训练。
94.非常规数据并行训练的过程如图6所示,训练样本输入各gpu,由各gpu分别采用配置的超参对各自部署的初始神经网络进行单次训练(也称为单次epoch训练),每个gpu的训练结果不同。
95.s406,精度测试以及网络权值拷贝。
96.该步骤的实现过程如图7所示,对每个gpu的训练结果分别进行精度测试,确定出精度最高的神经网络,然后将精度最高的神经网络的网络权值拷贝至其他各单次训练后的神经网络。
97.s407,判断训练的总次数是否达到上限。如果是则执行s409,否则执行s408。
98.s408,判断是否满足预先设定的第二停止条件。如果是则执行s409,否则返回s404。
99.如果不满足预先设定的第二停止条件,可以维持精度最高的神经网络对应的超参不变,将其他各单次训练后的神经网络的超参随机设置。然后,采用各单次训练后的神经网络对应的超参,对各单次训练后的神经网络进行下一次训练。
100.s409,根据最后一次非常规数据训练得到的各神经网络中精度最高的神经网络的网络结构,确定最终训练得到的网络模型,并保存该网络模型。
101.可见,本方案区别于传统配置单一训练超参的模式,能自动调整超参以达到精度调优的目的。首先,引入停止条件作为网络模型不同阶段训练起始条件,这一方面能很大程度上减少网络权值初始值对超参选择的干扰,另一方面也减少整个训练过程中的人为参与;其次,由于采用非常规分布式训练过程,加快了训练过程中超参调整的速度,从而加快精度调优。因此,能够缩短网络模型的训练过程,训练得到的网络模型更为准确,因此,利用训练得到的网络模型进行目标特征提取,所提取的目标特征更为精准,从而提高了图像处理结果的准确性。
102.相应于上述方法实施例,本技术实施例提供了一种目标特征提取装置,如图8所示,该装置可以包括:
103.获取模块810,用于获取待处理的图像;
104.特征提取模块820,用于利用预先训练的网络模型,从上述图像中提取目标特征;其中,网络模型为采用数据并行训练方式,利用针对不同训练阶段设置的不同超参分别对多个初始神经网络进行训练得到。
105.在一种可能的实施例中,该装置还可以包括:训练模块;
106.所述训练模块,用于采用预先设置的同一超参,对多个初始神经网络进行数据并行训练;在满足预先设定的第一停止条件的情况下,停止对所述多个初始神经网络的训练,得到多个更新神经网络;在每个不同的训练阶段中,对所述多个更新神经网络进行并行训练,并在每个训练阶段完成后,对该训练阶段训练得到的各神经网络进行精度测试,其中,在每个训练阶段中针对每个更新神经网络设置的超参不同;在满足预先设定的第二停止条件的情况下,停止对所述多个更新神经网络的并行训练,并根据最后一个训练阶段训练得到的各神经网络中精度最高的神经网络的网络结构,确定最终训练得到的网络模型。
107.在一种可能的实施例中,所述训练模块,具体用于:
108.在每个训练阶段中,并行地针对每个更新神经网络,采用按照预设规则设置的该更新神经网络对应的超参,对该更新神经网络进行单次训练,得到单次训练后的神经网络;
109.在每个训练阶段完成后,对每个单次训练后的神经网络进行精度测试,确定该训练阶段训练得到的精度最高的神经网络;
110.将该训练阶段训练得到的精度最高的神经网络的网络权值拷贝至其他各单次训练后的神经网络;
111.将各单次训练后的神经网络作为新的更新神经网络,开始下一个训练阶段的并行训练,其中,在除第一个训练阶段外的其他训练阶段中,一个更新神经网络对应的超参被设置为上一个训练阶段得到的精度最高的神经网络对应的超参
112.在一种可能的实施例中,所述预设规则包括:
113.如果该更新神经网络为上一个训练阶段训练得到的精度最高的神经网络,则保持该更新神经网络对应的超参不变;
114.如果该更新神经网络不为上一个训练阶段训练得到的精度最高的神经网络,则随机设置该更新神经网络对应的超参。
115.在一种可能的实施例中,所述训练模块随机设置该更新神经网络对应的超参,包括:
116.在指定超参范围内随机设置该更新神经网络对应的超参,其中,所述指定超参范围为根据上一个训练阶段训练得到的精度最高的神经网络对应的超参确定得到的。
117.在一种可能的实施例中,所述训练模块在所述在每个不同的训练阶段中,对所述多个更新神经网络进行并行训练,并在每个训练阶段完成后,对该训练阶段训练得到的各神经网络进行精度测试之后,还用于:
118.若已经完成的训练阶段的数量达到预设阈值,则停止对所述多个更新神经网络的并行训练,并根据最后一个训练阶段训练得到的各神经网络中精度最高的神经网络的网络结构,确定最终训练得到的网络模型。
119.在一种可能的实施例中,所述训练模块对所述多个更新神经网络进行并行训练,包括:
120.利用多个gpu对所述多个更新神经网络进行并行训练,其中,每个gpu用于对一个更新神经网络进行训练。
121.在一种可能的实施例中,所述装置还包括识别模块,用于在所述利用预先训练的网络模型,从所述图像中提取目标特征的步骤之后,基于所述目标特征,对所述目标进行识别,得到目标识别结果。
122.本技术实施例提供了一种计算机设备,如图9所示,包括处理器901和机器可读存储介质902,机器可读存储介质902存储有能够被处理器901执行的机器可执行指令,处理器901被机器可执行指令促使:实现如上述目标特征提取方法的所有步骤。
123.上述机器可读存储介质可以包括ram(random access memory,随机存取存储器),也可以包括nvm(non-volatile memory,非易失性存储器),例如至少一个磁盘存储器。可选的,机器可读存储介质还可以是至少一个位于远离上述处理器的存储装置。
124.上述处理器可以是通用处理器,包括cpu(central processing unit,中央处理器)、np(network processor,网络处理器)等;还可以是dsp(digital signal processing,数字信号处理器)、asic(application specific integrated circuit,专用集成电路)、fpga(field-programmable gate array,现场可编程门阵列)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
125.机器可读存储介质902与处理器901之间可以通过有线连接或者无线连接的方式进行数据传输,并且计算机设备可以通过有线通信接口或者无线通信接口与其他的设备进行通信。图9所示的仅为处理器901与机器可读存储介质902之间通过总线进行数据传输的
示例,不作为具体连接方式的限定。
126.本实施例中,处理器901通过读取机器可读存储介质902中存储的机器可执行指令,并通过运行该机器可执行指令,能够实现:应用本技术实施例,通过获取待处理的图像,利用预先训练的网络模型,从图像中提取目标特征。其中,网络模型是采用数据并行训练方式,利用针对不同训练阶段设置的不同超参分别对多个初始神经网络进行训练得到。在进行网络模型训练时,采用数据并行训练方式,利用针对不同训练阶段设置的不同超参分别对多个初始神经网络进行训练,针对每个初始神经网络,无需设置统一的超参,超参的设置更为灵活,网络模型受超参的影响降低,保证了网络模型的精度,利用训练得到的网络模型进行目标特征提取,所提取的目标特征更为精准,从而提高了图像处理结果的准确性。
127.在本技术提供的又一实施例中,还提供了一种机器可读存储介质,存储有机器可执行指令,在被处理器调用和执行时,实现如上述目标特征提取方法的所有步骤。
128.在本技术提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如上述目标特征提取方法的所有步骤。
129.在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本技术实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、dsl(digital subscriber line,数字用户线))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如软盘、硬盘、磁带)、光介质(例如dvd(digital versatile disc,数字多功能光盘))、或者半导体介质(例如ssd(solid state disk,固态硬盘))等。
130.对于装置、计算机设备、机器可读存储介质及计算机程序产品实施例而言,由于其涉及的方法内容基本相似于前述的方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
131.需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
132.本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于目标特征提取装置、计算机设备、机器可读存储介质及计算机程序产品实施例而言,由于其基本相
似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
133.以上所述仅为本技术的较佳实施例,并非用于限定本技术的保护范围。凡在本技术的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本技术的保护范围内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献