一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于联邦学习的模型训练方法、装置、设备和介质与流程

2022-10-26 13:22:20 来源:中国专利 TAG:


1.本公开涉及人工智能领域,具体为深度学习领域,尤其涉及一种基于联邦学习的模型训练方法、装置、设备和介质。


背景技术:

2.联邦学习(federated learning)是一种新兴的人工智能基础技术。
3.目前,联邦学习的研究主要集中在横向联邦和纵向联邦,在横向联邦学习场景中,各节点(client)在本地训练数据,将训练的模型参数信息上传到中央服务器,由中央服务器(paramserver)聚合参数信息以达到共同训练的目的。


技术实现要素:

4.本公开提供了一种基于联邦学习的模型训练方法、装置、设备和介质。
5.根据本公开的一方面,提供了一种基于联邦学习的模型训练方法,该方法包括:
6.获取联邦学习的各参与方通过自身训练样本进行相同模型训练所得的局部网络参数;
7.根据各所述局部网络参数,确定各所述参与方的训练评价数据;
8.根据各所述训练评价数据,对各所述参与方进行聚类;
9.根据相同类别的参与方的局部网络参数,确定相应参与方的全局网络参数;
10.将各所述参与方的全局网络参数反馈至相应参与方,以供模型训练。
11.根据本公开的另一方面,提供了一种电子设备,该电子设备包括:
12.至少一个处理器;以及
13.与所述至少一个处理器通信连接的存储器;其中,
14.所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开任一实施例提供的基于联邦学习的模型训练方法。
15.根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行根据本公开任一实施例提供的基于联邦学习的模型训练方法。
16.本公开实施例提高了所训练模型的精度和鲁棒性。
17.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
18.附图用于更好地理解本方案,不构成对本公开的限定。其中:
19.图1是本公开实施例提供的一种基于联邦学习的模型训练方法的示意图;
20.图2是本公开实施例提供的另一种基于联邦学习的模型训练方法的示意图;
21.图3是本公开实施例提供的又一种基于联邦学习的模型训练方法的示意图;
22.图4是本公开实施例提供的再一种基于联邦学习的模型训练方法的示意图;
23.图5是本公开实施例提供的一种基于联邦学习的模型训练装置的示意图;
24.图6是用来实现本公开实施例的基于联邦学习的模型训练方法的电子设备的框图。
具体实施方式
25.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
26.本公开实施例提供的基于联邦学习的模型训练方法和基于联邦学习的模型训练装置,适用于利用联邦学习方法,对至少一个参与方的本地模型进行联合训练的场景中。本公开实施例所提供的各基于联邦学习的模型训练方法,可以由基于联邦学习的模型训练装置执行,该装置可以采用软件和/或硬件实现,并具体配置于电子设备中,该电子设备可以是具有一定数据运算能力的电子设备,例如可以是服务器。为了便于表述,以下将该电子设备统称为中央服务器,不应理解为对电子设备的具体呈现形式的限定。
27.为了便于理解,首先对基于联邦学习的模型训练方法进行详细说明。
28.参见图1所示基于联邦学习的模型训练方法,包括:
29.s101、获取联邦学习的各参与方通过自身训练样本进行相同模型训练所得的局部网络参数。
30.联邦学习是一种分布式机器学习技术,其核心思想是通过在多个拥有训练样本的数据源之间进行分布式模型训练,在不需要交换训练样本的前提下,仅通过交换模型参数或中间结果的方式,构建模型。参与方用于表征联邦学习中拥有训练样本的数据源,可以作为训练节点参与基于联邦学习的模型训练。参与方的数量为至少一个,不同参与方可以同时进行模型训练。一个参与方用于训练一个模型,各参与方训练的模型结构相同。自身训练样本是指参与方自身持有或存储的样本数据,无需向其他参与方进行训练样本的共享。各参与方的自身训练样本可以相同,也可以至少部分不同。局部网络参数用于表征各参与方对模型进行训练后得到的网络参数。
31.具体的,参与联邦学习的各参与方,利用自身训练样本对相同模型进行训练,将训练后的模型参数作为局部网络参数发送至中央服务器;中央服务器接收各参与方的局部网络参数。
32.s102、根据各所述局部网络参数,确定各所述参与方的训练评价数据。
33.训练评价数据用于表征参与方对模型进行训练的训练情况。具体的,各参与方之间由于自身训练样本不同或节点训练能力不同,导致模型训练后得到的局部网络参数存在差异。因此,通过训练评价数据可以量化不同参与方的模型训练情况,用以作为后续对参与方进行聚类的重要参照。参与方与训练评价数据相对应。
34.其中,训练评价数据可以包括局部密度数据和跟随距离数据等。
35.本公开实施例对训练评价数据的确定方式不作任何限定。在一个可选实施例中,
可以根据各参与方得到的局部网络参数,可以通过dpc(clustering by fast search and find of density peaks,密度峰值聚类)算法,确定各参与方的局部密度数据和跟随距离数据,作为训练评价数据,以供后续使用。
36.s103、根据各所述训练评价数据,对各所述参与方进行聚类。
37.具体的,根据各参与方的训练评价数据,对参与方进行聚类,得到至少一个类别的参与方。相同类别的参与方的训练评价数据相同或近似,且相同类别的参与方的数量为至少一个。
38.s104、根据相同类别的参与方的局部网络参数,确定相应参与方的全局网络参数。
39.全局网络参数是指属于相同类别的参与方的网络参数的联合训练结果。
40.具体的,可以对相同类别的参与方的局部网络参数求平均值,将平均值作为相应参与方的全局网络参数;也可以基于预设联合平均(fedavg)算法,对相同类别的参与方的局部网参数进行加权平均,将加权平均结果作为相应参与方的全局网络参数。其中,可以根据相同类别的参与方的自身训练样本数量,确定局部网络参数的权重。
41.s105、将各所述参与方的全局网络参数反馈至相应参与方,以供模型训练。
42.具体的,中央服务器将各参与方的全局网络参数发送至相应的参与方;各参与方接收到全局网络参数后,将全局网络参数作为训练基础,继续采用自身的训练样本对自身模型进行训练,得到新的局部网络参数反馈至中央服务器,直至满足训练截止条件。需要说明的是,在首次进行训练时,各参与方通过默认的初始化参数作为本次模型训练的基础。
43.其中,训练截止条件可以包括下述至少一种:迭代训练次数达到预设训练次数和参与方自身的训练样本数量达到预设样本数量。其中,预设训练次数和预设样本数量可以由技术人员根据需要或经验值进行设置或调整。
44.现有技术中,在联邦学习场景中,且各参与方的自身训练样本的质量差异,和/或参与方对应训练节点的训练能力的不同,使得不同参与方训练所得的局部网络参数分布往往不一致,而将非独立同分布的局部网络参数所确定的全局网络参数作为各参与方的联合训练参数,将会导致不同参与方所训练得到的模型精度较低,且鲁棒性较差。
45.在本公开实施例中,由于各参与方的全局网络参数基于相同类别的参与方的局部网络参数进行确定,且相同类别的参与方的训练评价数据相同或近似,使得联合训练得到的全局网络参数,能够适配相应参与方的训练样本质量和/或模型训练能力,避免出现不同参与方之间由于样本质量差异过大或训练能力差异过大,导致参与方所训练模型参差不齐的情况发生,能够加速各参与方的模型的收敛,提高各参与方所训练模型的精度和鲁棒性。
46.在上述各技术方案的基础上,本公开还提供了一个可选实施例,在该实施例中,将“训练评价数据”进一步具体化为:“训练评价数据包括局部密度数据和跟随距离数据”,以进一步限定训练评价数据。需要说明的是,在本公开实施例中未详述部分,可参见其他实施例中的相关表述,在此不再赘述。
47.参见图2所示的基于联邦学习的模型训练方法,包括:
48.s201、获取联邦学习的各参与方通过自身训练样本进行相同模型训练所得的局部网络参数。
49.s202、根据各所述局部网络参数,确定各所述参与方的训练评价数据。所述训练评价数据包括局部密度数据和跟随距离数据。
50.s203、根据各所述训练评价数据,对各所述参与方进行聚类。
51.s204、根据相同类别的参与方的局部网络参数,确定相应参与方的全局网络参数。
52.s205、将各所述参与方的全局网络参数反馈至相应参与方,以供模型训练。
53.其中,局部密度数据用于表征各参与方的局部网络参数在局部区域范围内的分布密度。具体的,各参与方中的任一参与方的局部密度数据可以通过该参与方的局部网络参数与其他各参与方的局部网络参数之间的距离进行描述。一个参与方对应一个局部密度数据,局部密度数据越大,表明局部密度数据对应的参与方与其他各参与方之间的分布越集中。
54.其中,对于各参与方中的任一参与方,在其他参与方中,确定局部密度数据大于该参与方的局部密度数据所对应的其他参与方,跟随距离数据用于表征该参与方与满足上述条件的其他参与方之间的最小距离。示例性的,跟随距离数据可以是各参与方中的任一参与方,与其他各参与方之间的距离的较大值或较小值;也可以是各参与方中的任一参与方,与其他各参与方之间的距离的最大值或最小值。跟随距离数据可以通过局部网络参数进行确定。一个参与方对应一个跟随距离数据。
55.可选的,根据各所述局部网络参数,确定各所述参与方的局部密度数据,可以包括:根据不同参与方的局部网络参数,确定不同参与方之间的参数差异数据;针对各参与方,根据该参与方对应的参数差异数据,确定该参与方的局部密度数据。
56.其中,参数差异数据用于表征不同参与方的局部网络参数之间的差异情况。具体的,可以将不同参与方的局部网络参数之间的距离与预设距离之间的差,作为不同参与方之间的参数差异数据;或者,可以将不同参与方的局部网络参数之间的距离与预设距离之间的比值,作为不同参与方之间的参数差异数据。其中,预设距离可以根据实际情况进行设置。参与方对应的参数差异数据是指,针对一个参与方,该参与方与其他各参与方之间的参数差异数据。一个参与方对应至少一个参数差异数据。
57.具体的,根据不同参与方的局部网络参数,确定不同参与方的局部网络参数之间的距离,将不同参与方的局部网络参数之间的距离与预设距离之间的比值,确定为不同参与方之间的参数差异数据。针对各参与方,将该参与方与其他参与方之间的参数差异数据进行整合,并将整合结果作为该参与方的局部密度数据。
58.示例性的,可以是将该参与方与其他参与方之间的参数差异数据加权求和,得到该参与方的局部密度数据。其中,不同参数差异数据的权重可以相同或不同,本公开对此不作任何限定,仅需保证在确定该参与方的局部密度数据时,权重之和为1即可。
59.上述技术方案,通过不同参与方的局部网络参数,确定不同参与方之间的参数差异数据,能够通过参数差异数据对不同参与方之间的局部网络参数进行区分,并针对各参与方,根据该参与方对应的参数差异数据,确定该参与方的局部密度数据,为各参与方的聚类提供了数据基础。
60.可选的,所述根据不同参与方的局部网络参数,确定不同参与方之间的参数差异数据,可以包括:根据不同参与方的局部网络参数,确定不同参与方之间的参数距离数据;将邻域截断距离与不同参与方之间的参数距离数据的比值,作为不同参与方之间的参数差异数据。
61.其中,参数距离数据用于表征不同参与方的局部网络参数之间的距离,该距离可
以是欧式距离或其他距离等,本公开对距离的具体确定方式不作任何限定。其中,邻域截断距离为确定参数差异数据的参数,邻域截断距离可以根据实际情况进行设置或调整。
62.示例性的,在各参与方中,针对任意两个不同参与方,根据两个不同参与方的局部网络参数,确定两个不同参与方之间的距离,并将所确定距离作为不同参与方之间的参数距离数据;将邻域截断距离与不同参与方之间的距离的比值,确定为不同参与方之间的参数差异数据。
63.具体的,可以采用以下公式,确定参数差异数据:
[0064][0065]
其中,d(i,j)为第i个参与方与第j个参与方之间的参数差异数据;dc为邻域截断距离;d(i,j)为第i个参与方和第j个参与方之间的参数距离数据。
[0066]
上述技术方案,通过不同参与方的局部网络参数,确定不同参与方之间的参数距离数据,将邻域截断距离与不同参与方之间的参数距离数据的比值,作为不同参与方之间的参数差异数据,能够有效区分不同参与方之间参数差异数据,在邻域区域(对应邻域阶段距离)内的差异情况,从而为各参与方在邻域区域内的有限制聚类,奠定了基础。
[0067]
在一个可选实施例中,邻域截断断离可以由技术人员根据需要或经验值进行人为设置,或者通过大量试验调整确定。
[0068]
在另一可选实施例中,可以构造关于邻域截断距离的局部密度信息熵,通过最小化信息熵自适应地确定邻域截断距离。
[0069]
为了提高不同情况下邻域截断距离确定结果的准确度,减少邻域截断距离确定周期,同时减少邻域阶段距离确定过程的数据运算量,在又一可选实施例中,本公开还提供了一种邻域截断距离的自动化确定方式。
[0070]
示例性的,可以根据不同参与方之间的参数距离数据,确定所述邻域截断距离。
[0071]
可选的,可以对不同参与方之间的参数距离数据取平均值,并将均值结果作为邻域截断距离。或者可选的,还可以对不同参与方之间的参数距离数据进行加权平均,并将加权平均结果作为邻域截断距离。其中,不同参与方之间的参数距离数据对应的权重,可以根据实际情况进行设置,仅需保证权重之和为1即可。
[0072]
上述技术方案,通过不同参与方之间的参数距离数据,确定邻域截断距离,实现了邻域截断距离确定的自动化,提高了邻域截断距离确定结果的准确性,进而提高了不同参与方之间的参数差异数据确定的准确性,为各参与方的聚类提供了数据支撑。
[0073]
可选的,所述针对各参与方,根据该参与方对应的参数差异数据,确定该参与方的局部密度数据,包括:针对各参与方,将该参与方对应的各参数差异数据映射至指数空间,得到相应密度关联数据;将该参与方的各密度关联数据进行叠加,得到该参与方的所述局部密度数据。
[0074]
其中,密度关联数据用于表征参数差异数据在指数空间对应的数据。一个参数差异数据对应一个密度关联数据。示例性的,将参数差异数据作为预设指数函数的指数进行数据变换,从而将参数差异数据映射至指数空间,将数据变换结果为密度关联数据。其中,预设指数函数的底数可以根据实际情况进行设置。
[0075]
示例性的,底数可以为e,也即,采用以下公式确定密度关联数据:
[0076]de
(i,j)=e
d(i,j)

[0077]
其中,de(i,j)为第i个参与方与第j个参与方之间的密度关联数据;d(i,j)为第i个参与方与第j个参与方之间的参与差异数据。
[0078]
具体的,针对各参与方,将该参与方对应的各参数差异数据分别映射值指数空间,得到各参数差异数据对应的密度关联数据。将该参与方的各密度关联数据进行加权求和,得到的加权求和结果作为该参与方的局部密度数据。
[0079]
示例性的,可以通过以下公式确定参与方的局部密度数据:
[0080][0081]
其中,i和j为参与方的标识;ρi为第i个参与方的局部密度数据;n为参与方的数量;de(i,j)为第i个参与方与第j个参与方之间的密度关联数据。
[0082]
上述技术方案,针对各参与方,将该参与方对应的各参数差异数据映射至指数空间,得到相应密度关联数据,将该参与方的各密度关联数据进行叠加,得到该参与方的局部密度数据,能够在小样本的情况下,提高所确定局部密度数据的准确度,进而提高聚类结果的准确度。同时,由于本公开中的参数差异数据为邻域截断距离与不同参数法之间的参数距离数据的比值,能够缩小不同距离之间的差异。同时,通过将该比值映射至指数空间后进行累加,能够在有效区分不同参与方之间的局部密度数据的同时,避免出现个别距离过大对整体局部密度数据的影响,从而提高了局部密度数据确定的准确性。
[0083]
在一种可选实施方式中,可以对各参与方的局部密度数据进行归一化,并将归一化后的局部密度数据确定为新的局部密度数据,能够消除数据间差异的影响,从而将确定的局部密度数据映射至(0,1)之间,为后续的数据处理提高了便捷。
[0084]
具体的,对各参与方的局部密度数据进行归一化,可以通过以下公式进行:
[0085][0086]
其中,ρ'i为第i个参与方归一化后的局部密度数据;ρi为第i个参与方的局部密度数据;ρ
min
为各参与方的局部密度数据的最小值;ρ
max
为各参与方的局部密度数据的最大值。
[0087]
通过对局部密度数据进行归一化,能够进一步降低参数差异数据对密度关联数据的影响,提高了后续数据处理的便捷度。
[0088]
以上对局部密度数据的确定过程进行了示意性说明,以下将对跟随距离的确定进行详述。
[0089]
可选的,根据各所述局部网络参数,确定各所述参与方的跟随距离数据,包括:根据不同参与方的局部网络参数,确定不同参与方之间的参数距离数据;针对所述局部密度数据较小的参与方,将该参与方与其他参与方之间的较小参数距离数据作为该参与方的跟随距离数据;针对所述局部密度数据较大的参与方,将该参与方与其他参与方之间的较大参数距离数据作为该参与方的跟随距离数据。
[0090]
其中,参数距离数据用于表征不同参与方的局部网络参数之间的距离,与前述局部密度数据确定过程中的参数距离数据确定方式可以相同或不同。为了简化计算,可以将局部密度数据确定过程中的参数距离数据,在进行跟随距离数据确定时加以复用。
[0091]
具体的,根据不同参与方的局部网络参数,两两之间确定不同参与方之间的参数
距离数据。针对局部密度数据较小的参与方,从该参与方与其他参与方之间的参数距离数据中,选择较小的参数距离数据,作为该参与方的跟随距离数据。针对局部密度数据较大的参与方,从该参与方与其他参与方之间的参数距离数据中,选择较大的参数距离数据,作为该参与方的跟随距离数据。
[0092]
在一种可选实施方式中,针对局部密度数据最大的参与方,从该参与方与其他参与方之间的参数距离数据中,选择最大的参数距离数据,作为该参与方的跟随距离数据。针对局部密度数据最大的参与方之外的参与方,从该参与方与其他参与方之间的参数距离数据中,选择最小的参数距离数据,作为该参与方的跟随距离数据。
[0093]
示例性的,局部密度数据最大的参与方为第i个参与方,针对局部密度数据最大的参与方,可以通过如下公式确定跟随距离数据:
[0094]
δi=max
i≠j d(i,j);
[0095]
其中,δi为第i个参与方的跟随距离数据;d(i,j)为第i个参与方和第j个参与方之间的参数距离数据。
[0096]
针对局部密度数据最大的参与方之外的参与方,可以通过如下公式确定跟随距离数据:
[0097][0098]
其中,δi为第i个参与方的跟随距离数据;ρi为第i个参与方的局部密度数据;ρj为第j个参与方的局部密度数据;d(i,j)为第i个参与方和第j个参与方之间的参数距离数据。
[0099]
可选的,针对局部密度数据最大的参与方之外的参与方,还可以通过如下公式确定跟随距离数据:
[0100][0101]
其中,δi为第i个参与方的跟随距离数据;ρ'i为第i个参与方归一化后的局部密度数据;ρj'为第j个参与方归一化后的局部密度数据;d(i,j)为第i个参与方和第j个参与方之间的参数距离数据。
[0102]
上述技术方案,通过不同参与方的局部网络参数,确定不同参与方之间的参数距离数据,针对参与方的局部密度数据的不同情况确定该参与方的跟随距离数据,提高了跟随距离数据确定的准确性。
[0103]
本公开实施例的技术方案,通过局部密度数据和跟随距离数据,能够对局部网络参数的分布情况进行描述,为局部网络数据的聚类提供了数据基础。
[0104]
在上述各技术方案的基础上,本公开还提供了一个可选实施例,在该实施例中,将“根据各所述训练评价数据,对各所述参与方进行聚类”步骤,进一步具体化为:“根据各参与方的局部密度数据与局部密度阈值的相对大小,以及各参与方的跟随距离数据与跟随距离阈值的相对大小,确定各聚类中心;根据各所述聚类中心,对各所述参与方进行聚类”,以进一步限定对参与方的聚类机制。需要说明的是,在本公开实施例中未详述部分,可参见其他实施例中的相关表述,在此不再赘述。
[0105]
参见图3所示的基于联邦学习的模型训练方法,包括:
[0106]
s301、获取联邦学习的各参与方通过自身训练样本进行相同模型训练所得的局部网络参数。
[0107]
s302、根据各所述局部网络参数,确定各所述参与方的训练评价数据。所述训练评价数据包括局部密度数据和跟随距离数据。
[0108]
s303、根据各参与方的局部密度数据与局部密度阈值的相对大小,以及各参与方的跟随距离数据与跟随距离阈值的相对大小,确定各聚类中心。
[0109]
其中,局部密度阈值是指对局部密度数据的大小进行判断的依据。局部密度阈值可以由技术人员根据实际情况或大量试验进行确定。其中,跟随距离阈值是指对跟随距离数据的大小进行判断的依据。跟随距离阈值可以由技术人员根据实际情况或大量试验进行设置。其中,聚类中心用于表征对参与方进行聚类后,各参与方所属的类别聚类簇的中心点。其中,聚类簇的数量为至少一个;针对各聚类簇,相应聚类中心的数量为一个。
[0110]
示例性的,将各参与方的局部密度数据与局部密度阈值进行对比,将各参与方的跟随距离数据与跟随距离阈值进行对比,将局部密度数据大于等于局部密度阈值,且跟随距离数据大于等于跟随距离阈值的参与方确定为聚类中心。
[0111]
具体的,可以采用以下公式,确定聚类中心:
[0112]
c={ρi≥ρc∧δi≥δc,i=1,2,3,4,

,n};
[0113]
其中,c为聚类中心的集合;ρi为第i个参与方的局部密度数据;ρc为局部密度阈值;δi为第i个参与方的跟随距离数据;δc为跟随距离阈值;n为参与方的数量。
[0114]
可选的,还可以采用以下公式,确定聚类中心:
[0115]
c={ρ'i≥ρc∧δi≥δc,i=1,2,3,4,

,n};
[0116]
其中,c为聚类中心的集合;ρ'i为第i个参与方归一化后的局部密度数据;ρc为局部密度阈值;δi为第i个参与方的跟随距离数据;δc为跟随距离阈值;n为参与方的数量。
[0117]
在一个可选实施例中,局部密度阈值和跟随距离阈值可以采用以下方式进行确定:根据不同参与方的局部密度数据,确定所述局部密度阈值;以及,根据不同参与方的跟随距离数据,确定所述跟随距离阈值。
[0118]
具体的,可以对不同参与方的局部密度数据进行统计,并根据统计结果,确定所述局部密度阈值;以及,可以对不同参与方的跟随距离数据进行统计,并根据统计结果,确定所述跟随距离阈值。其中,统计结果,可以是平均值、加权平均值或中位数等,本公开对此不作任何限定。
[0119]
示例性的,可以确定不同参与方的局部密度数据的平均值,并将局部密度数据的平均值作为局部密度阈值。以及,确定不同参与方的跟随距离数据的平均值,并将跟随距离数据的平均值作为跟随距离阈值。
[0120]
具体的,局部密度阈值可以通过如下公式进行确定:
[0121][0122]
其中,ρc为局部密度阈值;ρi为第i个参与方的局部密度数据;n为参与方的数量;λ为预设值,可以通过大量试验进行设置。
[0123]
可选的,局部密度阈值还可以通过如下公式进行确定:
[0124][0125]
其中,ρc为局部密度阈值;ρ'i为第i个参与方归一化后的局部密度数据;n为参与方
的数量;λ为预设值,可以通过大量试验进行设置。
[0126]
具体的,跟随距离阈值可以通过如下公式进行确定:
[0127][0128]
其中,δc为跟随距离阈值;δi为第i个参与方的跟随距离数据;n为参与方的数量;β为预设值,可以通过大量试验进行设置。
[0129]
上述技术方案,通过根据不同参与方的局部密度数据确定局部密度阈值,根据不同参与方的跟随距离数据确定跟随距离阈值,实现了局部密度阈值和跟随距离阈值的自动化选取,提高了局部密度阈值和跟随距离阈值的选取效率和准确度。同时,上述各阈值的确定过程,需要借助不同参数与的局部密度数据和跟随距离数据,而上述各数据与本次联邦学习过程中各参与方的局部网络参数息息相关,因此,本公开的阈值确定方式,能够与更加适配本地联邦学习过程,更具针对性。
[0130]
s304、根据各所述聚类中心,对各所述参与方进行聚类。
[0131]
具体的,针对各参与方,将该参与方分配至局部密度数据比该参与方的局部密度数据高,且跟随距离数据最新小的聚类中心对应聚类簇中,从而实现对参与方的聚类。
[0132]
s305、根据相同类别的参与方的局部网络参数,确定相应参与方的全局网络参数。
[0133]
s306、将各所述参与方的全局网络参数反馈至相应参与方,以供模型训练。
[0134]
本公开实施例的技术方案,通过各参与方的局部密度数据与局部密度阈值的相对大小,以及各参与方的跟随距离数据与跟随距离阈值的相对大小,确定各聚类中心,实现了聚类中心的自动化选取,与现有技术中通过散点图选取聚类中心的方式相比,提高了聚类中心选取的效率和准确度,减少了人工工作量。
[0135]
在上述各技术方案的基础上,本公开还提供了一个优选实施例,用于实现基于联邦学习的模型训练方法。在该实施例中,通过中央服务器接收各参与方进行模型训练后的局部网络参数,用于对各参与方进行聚类。在中央服务器中,对相同类型的参与方,利用局部网络参数确定相应参与方的全局网络参数,并将全局网络参数反馈值相应参与方,以供参与方进行模型训练。
[0136]
参见图4所示的基于联邦学习的模型训练方法,包括:
[0137]
s401、中央服务器向各参与方发送预先设置的初始网络参数。
[0138]
s402、各参与方将初始网络参数,作为所训练模型的待调整网络参数,更新待训练模型。
[0139]
s403、各参与方根据本地的训练样本对待训练模型进行训练,得到局部网络参数。
[0140]
s404、各参与方将局部网络参数发送至中央服务器。
[0141]
s405、中央服务器将接收到的各参与方的局部网络参数,确定为权重集合w={w1,w2,w3,
……
,wn}。
[0142]
其中,w1表示第1个参与方的局部网络参数,w2表示第2个参与方的局部网络参数,以次类推。
[0143]
s406、基于预设聚类方法,对w进行聚类,得到聚类簇集合c={c1,c2,c3,
……
,cm}。
[0144]
其中,c1表示第1个聚类簇,c2表示第2个聚类簇,以次类推。
[0145]
其中,预设聚类方法如下:
[0146]
1)确定各参与方的局部密度数据。
[0147]
示例性的,根据不同参与方的局部网络参数,确定不同参与方之间的参数距离数据。
[0148]
具体的,可以通过以下公式确定第i个参与方的局部密度数据:
[0149][0150]
其中,ρi为第i个参与方的局部密度数据;n为参与方的数量;dc为邻域截断距离;d(i,j)为第i个参与方和第j个参与方之间的参数距离数据;其中,i=1,2,3,

,n。
[0151]
示例性的,可以采用以下公式,对各参与方的局部密度数据进行归一化,得到归一化后的局部密度数据:
[0152][0153]
其中,ρ'i为第i个参与方归一化后的局部密度数据;ρi为第i个参与方的局部密度数据;ρ
min
为各参与方的局部密度数据的最小值;ρ
max
为各参与方的局部密度数据的最大值。
[0154]
2)确定各参与方的跟随距离数据。
[0155]
示例性的,针对所述归一化后的局部密度数据,归一化后的局部密度数据最大的参与方,将该参与方与其他参与方之间的最大参数距离数据作为该参与方的跟随距离数据;
[0156]
具体的,归一化后的局部密度数据最大的参与方为第i个参与方,可以通过如下公式确定跟随距离数据:
[0157]
δi=max
i≠j d(i,j);
[0158]
其中,δi为第i个参与方的跟随距离数据;d(i,j)为第i个参与方和第j个参与方之间的参数距离数据。
[0159]
示例性的,针对归一化后的局部密度数据最大的参与方之外的参与方,从该参与方与其他参与方之间的参数距离数据中,选择最小的参数距离数据,作为该参与方的跟随距离数据;
[0160]
具体的,可以通过如下公式确定跟随距离数据:
[0161][0162]
其中,δi为第i个参与方的跟随距离数据;ρ'i为第i个参与方归一化后的局部密度数据;ρj'为第j个参与方归一化后的局部密度数据;d(i,j)为第i个参与方和第j个参与方之间的参数距离数据。
[0163]
3)对各参与方进行聚类。
[0164]
示例性的,根据不同参与方的局部密度数据,确定局部密度阈值。
[0165]
具体的,局部密度阈值可以通过如下公式进行确定:
[0166][0167]
其中,ρc为局部密度阈值;ρ'i为第i个参与方归一化后的局部密度数据;n为参与方的数量;λ为预设值,可以通过大量试验进行设置。
[0168]
示例性的,根据不同参与方的跟随距离数据,确定所述跟随距离阈值。
[0169]
具体的,跟随距离阈值可以通过如下公式进行确定:
[0170][0171]
其中,δc为跟随距离阈值;δi为第i个参与方的跟随距离数据;n为参与方的数量;β为预设值,可以通过大量试验进行设置。
[0172]
示例性的,根据不同参与针对局部密度数据最大的参与方之外的参与方,从该参与方与其他参与方之间的参数距离数据中,选择最小的参数距离数据,作为该参与方的跟随距离数据与跟随距离阈值的相对大小,确定各聚类中心;根据各聚类中心,对各参与方进行聚类。
[0173]
具体的,可以采用以下公式,确定聚类中心:
[0174]
c={ρ'i≥ρc∧δi≥δc,i=1,2,3,4,

,n};
[0175]
其中,c为聚类中心的集合;ρ'i为第i个参与方归一化后的局部密度数据;ρc为局部密度阈值;δi为第i个参与方的跟随距离数据;δc为跟随距离阈值;n为参与方的数量。
[0176]
s407、针对各聚类簇,根据该聚类簇对应的各参与方局部网络参数,通过预设平均算法确定全局网络参数。
[0177]
其中,预设平均算法可以是fedavg算法。
[0178]
s408、将各聚类簇对应的全局网络参数,反馈至相应聚类簇对应的各参与方。
[0179]
s409、各参与方将接收到的全局网络参数作为自身的待调整网络参数,更新待训练模型。
[0180]
s410、各参与方判断是否达到预设迭代次数;若是,则执行s411;否则,返回执行s403。
[0181]
s411、将更新后的待训练模型作为自身的联合训练模型。
[0182]
在本公开实施例中,由于各参与方的全局网络参数基于相同类别的参与方的局部网络参数进行确定,且相同类别的参与方的训练评价数据相同或近似,使得联合训练得到的全局网络参数,能够适配相应参与方的训练样本质量和/或模型训练能力,避免出现不同参与方之间由于样本质量差异过大或训练能力差异过大,导致参与方所训练模型参差不齐的情况发生,能够加速各参与方的模型的收敛,提高各参与方所训练模型的精度和鲁棒性。
[0183]
作为上述各基于联邦学习的模型训练方法的实现,本公开还提供了一种实施上述各基于联邦学习的模型训练方法的执行装置的可选实施例。
[0184]
参见图5所示的基于联邦学习的模型训练装置500,包括:局部网络参数获取模块501、训练评价数据获取模块502、聚类模块503、全局网络参数确定模块504和全局网络参数反馈模块505。
[0185]
其中,局部网络参数获取模块501,用于获取联邦学习的各参与方通过自身训练样本进行相同模型训练所得的局部网络参数;
[0186]
训练评价数据获取模块502,用于根据各所述局部网络参数,确定各所述参与方的训练评价数据;
[0187]
聚类模块503,用于根据各所述训练评价数据,对各所述参与方进行聚类;
[0188]
全局网络参数确定模块504,用于根据相同类别的参与方的局部网络参数,确定相应参与方的全局网络参数;
[0189]
全局网络参数反馈模块505,用于将各所述参与方的全局网络参数反馈至相应参与方,以供模型训练。
[0190]
在本公开实施例中,由于各参与方的全局网络参数基于相同类别的参与方的局部网络参数进行确定,且相同类别的参与方的训练评价数据相同或近似,使得联合训练得到的全局网络参数,能够适配相应参与方的训练样本质量和/或模型训练能力,避免出现不同参与方之间由于样本质量差异过大或训练能力差异过大,导致参与方所训练模型参差不齐的情况发生,能够加速各参与方的模型的收敛,提高各参与方所训练模型的精度和鲁棒性。
[0191]
可选的,所述训练评价数据包括局部密度数据和跟随距离数据。
[0192]
可选的,所述训练评价数据获取模块502,包括:
[0193]
参数差异数据获取单元,用于根据不同参与方的局部网络参数,确定不同参与方之间的参数差异数据;
[0194]
局部密度数据确定单元,用于针对各参与方,根据该参与方对应的参数差异数据,确定该参与方的局部密度数据。
[0195]
可选的,所述参数差异数据获取单元,包括:
[0196]
参数距离数据确定子单元,用于根据不同参与方的局部网络参数,确定不同参与方之间的参数距离数据;
[0197]
参数差异数据确定子单元,用于将邻域截断距离与不同参与方之间的参数距离数据的比值,作为不同参与方之间的参数差异数据。
[0198]
可选的,所述参数差异数据获取单元,还包括:
[0199]
邻域截断距离确定子单元,用于根据不同参与方之间的参数距离数据,确定所述邻域截断距离。
[0200]
可选的,所述局部密度数据确定单元,包括:
[0201]
密度关联数据确定子单元,用于针对各参与方,将该参与方对应的各参数差异数据映射至指数空间,得到相应密度关联数据;
[0202]
局部密度数据确定子单元,用于该参与方的各密度关联数据进行叠加,得到该参与方的所述局部密度数据。
[0203]
可选的,所述训练评价数据获取模块,包括:
[0204]
参数距离数据确定单元,用于根据不同参与方的局部网络参数,确定不同参与方之间的参数距离数据;
[0205]
跟随距离数据第一确定单元,用于针对所述局部密度数据较小的参与方,将该参与方与其他参与方之间的较小参数距离数据作为该参与方的跟随距离数据;
[0206]
跟随距离数据第二确定单元,用于针对所述局部密度数据较大的参与方,将该参与方与其他参与方之间的较大参数距离数据作为该参与方的跟随距离数据。
[0207]
可选的,所述聚类模块503,包括:
[0208]
聚类中心确定单元,用于根据各参与方的局部密度数据与局部密度阈值的相对大小,以及各参与方的跟随距离数据与跟随距离阈值的相对大小,确定各聚类中心;
[0209]
聚类单元,用于根据各所述聚类中心,对各所述参与方进行聚类。
[0210]
可选的,所述聚类模块503,还包括:
[0211]
局部密度阈值确定单元,用于根据不同参与方的局部密度数据,确定所述局部密
度阈值;以及,
[0212]
跟随距离阈值确定单元,用于根据不同参与方的跟随距离数据,确定所述跟随距离阈值。
[0213]
上述基于联邦学习的模型训练装置可执行本公开任意实施例所提供的基于联邦学习的模型训练方法,具备执行各基于联邦学习的模型训练方法相应的功能模块和有益效果。
[0214]
本公开的技术方案中,所涉及的局部网络参数、评价数据和全局网络参数的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
[0215]
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
[0216]
图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
[0217]
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(rom)602中的计算机程序或者从存储单元608加载到随机访问存储器(ram)603中的计算机程序,来执行各种适当的动作和处理。在ram 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、rom 602以及ram 603通过总线604彼此相连。输入/输出(i/o)接口605也连接至总线604。
[0218]
设备600中的多个部件连接至i/o接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
[0219]
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如基于联邦学习的模型训练方法。例如,在一些实施例中,基于联邦学习的模型训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由rom 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到ram 603并由计算单元601执行时,可以执行上文描述的基于联邦学习的模型训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行基于联邦学习的模型训练方法。
[0220]
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、现场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系
统的系统(soc)、复杂可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
[0221]
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
[0222]
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
[0223]
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
[0224]
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。
[0225]
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与vps服务中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
[0226]
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思
考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术及机器学习/深度学习技术、大数据处理技术、知识图谱技术等几大方向。
[0227]
云计算(cloud computing),指的是通过网络接入弹性可扩展的共享物理或虚拟资源池,资源可以包括服务器、操作系统、网络、软件、应用和存储设备等,并可以按需、自服务的方式对资源进行部署和管理的技术体系。通过云计算技术,可以为人工智能、区块链等技术应用、模型训练提供高效强大的数据处理能力。
[0228]
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开提供的技术方案所期望的结果,本文在此不进行限制。
[0229]
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献