一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种高效安全,低通信的纵向联邦学习方法与流程

2022-03-16 05:21:06 来源:中国专利 TAG:


1.本发明涉及联邦学习技术领域,尤其涉及一种高效安全,低通信的纵向联邦学习方法。


背景技术:

2.联邦学习是由google提出的,用于在分布式的设备或存储有数据的服务器上共同训练模型的机器学习技术。与传统的中心化学习想比,联邦学习不需要将数据汇集在一起,减少了设备之间的传输成本,同时极大的保护了数据的隐私情况。
3.自提出以来,联邦学习已得到了巨大的发展。尤其随着分布式场景越来越广泛的应用,联邦学习应用越来越受到人们的重视。根据数据划分方式的不同,联邦学习主要分为横向联邦学习和纵向联邦学习。在横向联邦学习中,分布在不同设备中的数据拥有相同的特征,却属于不同的用户。而在纵向联邦学习中,分布在不同设备上的数据属于相同的用户却有着不同的特征。两种联邦学习范式有着截然不同的训练机制,目前的研究大多将他们分别来讨论。因此虽然目前横向联邦学习已经有了较大的发展,纵向联邦学习却仍存在安全性以及效率低下等问题需要解决。
4.如今随着大数据时代的到来,公司可以轻易获得庞大的数据集,但不同的特征的数据却难以获取。因此在工业界,纵向联邦学习越来越受到人们的重视。如果可以借助横向联邦学习的优势,在纵向联邦学习的过程中借助横向联邦学习,则可以事半功倍的研究出更加安全,高效的纵向联邦学习机制。


技术实现要素:

5.本发明的目的在于提供了一种高效安全,低通信的纵向联邦学习方法,在参与者包含不同特征数据(包含仅有一方参与者持有标签的情形)的情况下训练模型补齐每个参与者的特征数据,再利用横向联邦学习利用每个参与者持有的数据共同训练模型,解决了纵向联邦学习过程中安全效率以及通信量等问题。以极小的精度损失为代价,更加高效、快速的完成训练。
6.本发明的目的是通过以下技术方案来实现的:
7.一种高效安全,低通信的纵向联邦学习方法,包括以下步骤:
8.(1)所有参与者选择持有数据特征集合的部分特征,再将所选特征的部分样本添加满足差分隐私的噪声之后连同所选样本的数据索引互相发送给其他参与者;所述持有数据特征集合由特征数据和标签数据组成。将标签数据视为一特征参与特征数据补齐过程,当多方(不包含所有)或仅有一方参与者持有标签时,标签数据同样视为一缺失特征,进行模型训练并预测并进行补齐所有参与者的标签。
9.(2)所有参与者依据数据索引将数据对齐,并以接收的特征数据作为标签,以每个缺失的特征作为学习任务,利用相同数据索引中原本持有的特征数据,分别训练多个模型;
10.(3)所有参与者利用步骤(2)训练的多个模型预测其他数据索引对应的数据以补
齐缺失的特征数据;
11.(4)所有参与者利用横向联邦学习方法共同合作,得到最终的训练模型。
12.进一步地,当所有参与者均持有标签数据时,所述持有数据特征集合仅由特征数据组成。
13.进一步地,所述步骤(1)中,所述数据特征集合为个人隐私信息。在纵向联邦学习的场景中,发送索引数据并不会泄露额外信息。
14.进一步地,所述步骤(1)中,每个参与者利用blinkml方法确定发送给其他每个参与者的每个所选特征的最佳样本数量,再依据确定的最佳样本数量将每个所选特征的部分样本添加满足差分隐私的噪声之后连同所选样本的数据索引发送给其他对应参与者。该方法只需要提前发送极少数量的样本给对方,便可以确定需要发送的最佳(最少)的样本量。
15.进一步地,每个参与者利用blinkml方法确定发送给其他每个参与者的每个所选特征的最佳样本数量,具体为:
16.(a)每个参与者针对选择的每个特征i,均匀并随机选择n0个样本数据,添加差分隐私噪声后连同所选样本的数据索引互相发送给其他参与者。
17.(b)收到数据的参与者j依据数据索引将数据对齐,收到数据的参与者j依据数据索引将数据对齐,并以接收的该特征i数据作为标签,利用相同数据索引中原本持有的特征数据来训练获得模型m
i,j

18.(c)构建矩阵q,q的每一行为n0个每个样本更新m
i,j
的模型参数θ
i,j
而得来的参数梯度;
19.(d)计算l=uλ,其中,u为矩阵q奇异值分解后大小为n0
×
n0的矩阵,λ为对角矩阵,其对角线上第r个元素的值为其中sr为∑中的第r个奇异值,β为正则化系数,可取0.001;∑为矩阵q的奇异值矩阵。
20.(e)从正态分布n(θ
i,j
,α1ll
t
)中抽样得到再从正态分布中抽样得到θ
i,j,n,k
,重复k次得到k对k表示抽样次数。
21.其中,其中,表示发送给参与者j的第i个特征的候选样本数量;n为每个参与者的样本总数。
22.(f)计算其中,表示参与者j以样本x持有的特征数据作为输入,为模型参数,模型m
i,j
的输出,d为样本集合,e(*)为期望;∈为实数表示阈值。
23.如果p>1-δ,令如果p<1-δ,令δ表示阈值,为实数。按照步骤(e)(f)过程执行多次,直至收敛得到每个特征应当选择的最优的候选样本数量
24.(g)所述参与者针对参与者j,每个特征i随机选择的样本数量为
25.进一步地,所述步骤(2)中,每个参与者若存在缺失特征未接收到数据,则利用labeled-unlabeled的多任务学习(a.pentina and c.h.lampert,“multi-task learning with labeled and unlabeled tasks,”in proceedings of the 34th international conference on machine learning-volume 70,ser.icml’17.jmlr.org,2017,p.2807-2816.)方法获得未接收到数据缺失特征的模型,具体为:
26.(a)参与者将自身已有的数据划分为m个数据集s,分别对应每个缺失特征的训练数据,其中m为参与者缺失特征的数量,i为缺失特征中有标签任务的集合;
27.(b)根据训练数据计算数据集之间的差异disc(s
p
,sq),p,q∈{1,...,m},p≠q,disc(s
p
,s
p
)=0;
28.(c)对于每个无标签的任务,最小化得到权重σ
t
={σ1,...,σm},
29.(e)对于每个无标签的任务,可通过最小化有标签任务的训练误差的凸组合得到其模型m
t
,t∈{1,...,m}/i:
[0030][0031]
其中
[0032][0033]
l(*)为模型以数据集s
p
的样本作为输入的损失函数,表示数据集s
p
的样本量,x为输入的样本特征,y为标签。
[0034]
进一步地,所有参与者利用横向联邦学习来合作训练一个模型,此横向联邦学习方法不限于某特定方法。
[0035]
与现有技术相比,本发明的有益效果如下:本发明将纵向联邦学习与横向联邦学习相结合,通过将纵向联邦学习转化为横向联邦学习,为纵向联邦学习的发展提供了新的思路;通过将差分隐私应用到本发明的方法当中,保证了数据隐私,为数据安全提供了理论上的保证;结合多任务学习的方法,极大降低数据的通信量,降低了训练时间。本发明的高效安全,低通信的纵向联邦学习方法具有使用简便,训练高效等优点,在保护数据隐私的同时,可以在工业场景中实现。
附图说明
[0036]
图1为本发明的纵向联邦学习的流程图
具体实施方式
[0037]
互联网时代的到来虽然为大数据的收集提供了条件,但随着数据安全问题逐渐暴露,以及企业对数据隐私的保护,数据“孤岛”问题的越来越严重。同时,得益于互联网技术
的发展,各个企业虽然拥有大量的数据,但由于业务限制等原因,这些数据的用户特征各不相同,如果加以利用,可以训练一个精度更高,泛化能力更强的模型。因此企业之间分享数据,打破数据“孤岛”的同时,保护数据隐私,成为解决该问题的方法之一。
[0038]
本发明就是针对上述场景。即数据在保存在本地的前提下,利用多方数据来共同训练一个模型,在控制精度损失的同时,保护各方的数据隐私安全,提高训练效率。
[0039]
如图1为本发明一种高效安全,低通信的纵向联邦学习方法的流程图,本发明中所采用的数据特征集合为个人隐私信息,具体包括以下步骤:
[0040]
(1)所有参与者选择持有数据特征集合的部分特征以及所选特征的少量样本,其中特征的选择方法为随机选择,样本的选择方法优选为blinkml方法,具体包括以下步骤:
[0041]
(a)每个参与者针对选择的每个特征i,均匀并随机选择n0个样本数据,添加差分隐私噪声后连同所选样本的数据索引互相发送给其他参与者,其中n0极小,优选为1-1%
×
n的正整数;其中n为样本总数。
[0042]
(b)接收数据的参与者j依据数据索引将数据对齐,并以接收的该特征i数据作为标签利用相同数据索引中原本持有的特征数据,训练获得模型m
i,j
,模型m
i,j
的模型参数矩阵θ
i,j
的大小为1
×di,j
;d
i,j
为模型参数的数量;
[0043]
(c)利用n0个样本和θ
i,j
构建矩阵q(矩阵大小为n0×di,j
),q的每一行表示每个样本更新θ
i,j
而得来的参数梯度;
[0044]
(d)利用矩阵分解q
t
=u∑v
t
得到∑,其中∑为非负的对角矩阵,u,v分别满足q
t
q=u,v
t
v=i,i为单位矩阵。再构建对角矩阵λ,其对角线上第r个元素的值为sr为∑中的第r个奇异值,β为正则化系数,可取0.001,计算l=uλ;
[0045]
(e)重复以下过程k次,得到k对(e)重复以下过程k次,得到k对θ
i,j,n,k
分别表示第k个采样得到的用或n个样本训练得到的模型参数;表示发送给参与者j的第i个特征的最佳候选样本数量。
[0046]
a.从正态分布n(θ
i,j
,α1ll
t
)中抽样得到其中
[0047]
b.从正态分布中抽样得到θ
i,j,n,k
,其中
[0048]
其中,其中,表示发送给参与者j的第i个特征的候选样本数量;
[0049]
(f)计算其中,表示参与者j以样本x持有的特征数据作为输入,为模型参数,模型m
i,j
输出即预测的特征i数据,d为样本集合,e(*)表示期望;∈为实数表示阈值,例如0.1,0.01等,根据要求的模型精度(1-∈)选取。
[0050]
如果p>1-δ,令如果p<1-δ,令δ表
示阈值,为实数,一般取0.05。按照步骤(e)(f)过程执行多次,直至收敛得到每个特征应当选择的最优的候选样本数量
[0051]
(g)将得到的的大小发送给原来的参与者,所述参与者针对参与者j,每个特征i随机选择个样本。每个参与者按照如上步骤确定要发送给每个参与者,每个选择的特征的最优的样本数量,并选择样本。
[0052]
(2)所有参与者将步骤(1)选中的数据添加满足差分隐私的噪声,并将添加完噪声之后的数据以及数据索引互相发送给其他参与者;
[0053]
(3)所有参与者接收所有数据后依据数据索引将数据对齐,并以相同数据索引中原本持有的特征数据作为输入,以接收的特征数据作为标签分别训练多个模型。具体来说,若将所有参与者拥有的特征看作一个集合,所有参与者以每个缺失的特征看作一个学习任务。利用步骤(2)接收到的特征数据作为每个任务的标签,将已有的数据作为输入来预测缺失的特征训练多个模型。
[0054]
对于未接收到数据的特征,利用labeled-unlabled的多任务学习方法来学习该任务的模型,以一个参与者为例,该过程包括以下步骤:
[0055]
(a)参与者将自身已有的数据划分为m个数据集s,分别对应每个缺失特征的训练数据,其中m为缺失特征的数量,i为缺失特征中有标签任务的特征数量;
[0056]
(b)根据训练数据计算数据集之间的差异disc(s
p
,sq),p,q∈{1,...,m},p≠q,disc(s
p
,s
p
)=0;
[0057]
(c)对于每个无标签的任务,最小化得到权重σ
t
={σ1,...,σm},其中i为有标签任务的集合;
[0058]
(e)对于每个无标签的任务,可通过最小化有标签任务的训练误差的凸组合得到其模型m
t
,t∈{1,...,m}/i:
[0059][0060]
其中
[0061][0062]
l(*)为模型以数据集s
p
的样本作为输入的损失函数,表示数据集s
p
的样本量,x为输入的样本特征,y为标签。
[0063]
(4)所有参与者利用所述训练得到的每个任务对应的模型来预测其他数据索引对应的数据以补齐缺失的特征数据;
[0064]
(5)所有参与者利用横向联邦学习方法共同合作,得到最终的训练模型,此横向联邦学习方法不限于某特定方法。
[0065]
为使本技术的目的、技术方案和优点更加清楚,下面将结合实施例对本发明的技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本技术一部分实施例,而不是全
部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
[0066]
实施例
[0067]
a、b分别代表一家银行以及一家电商公司,希望通过本发明的联邦学习方法共同训练一个模型,用于预测用户的经济水平。由于银行和电商公司的业务不同,训练数据持有的特征不同,因此他们一起合作共同训练一个精度更高,泛化性能更强的模型是可行的。a、b分别持有数据(xa,ya),(xb,yb),其中为训练数据,为训练数据,为其对应的标签,n表示数据量的大小。a、b的训练数据中包含相同的用户样本,但每个样本拥有不同的特征。用ma,mb分别表示a、b的特征数量,即:分别表示a、b的特征数量,即:由于用户隐私问题以及其他原因,a、b之间不能互享数据,因此数据都保存在本地。为了解决这种情况,该银行和电商公司可以使用下面展示的纵向联邦学习来合作训练一个模型。
[0068]
步骤s101,银行a和电商公司b随机选择持有数据特征集合的部分特征以及所选特征的少量样本;
[0069]
具体地,银行a以及电商公司b分别从其拥有的ma,mb个特征中随机选择ra,rb个特征,针对选中的每个特征,a,b分别随机选择个样本,其中ia=1...ra,ib=1...rb;
[0070]
步骤s1011,针对每个特征,银行a以及电商公司b利用blinkml法确定样本数量,可以在减少数据传输量的同时,保证该特征模型的训练精度;
[0071]
具体地,以a发送b特征ia的部分样本为例。a随机选择n0个样本发送给b,n0非常小,b计算b利用接受到的n0个样本的特征ia作为标签训练模型利用n0个样本和构建矩阵q,q的每一行代表用每个样本更新而得来的梯度;利用矩阵分解q
t
=u∑v
t
得到∑,构建对角矩阵λ,第r个元素的值为sr为∑中的第r个奇异值,β为正则化系数,可取0.001,计算l=ua;重复以下过程k次,得到k对
[0072]
a.从正态分布和抽样得到其中
[0073]
b.从正态分布中抽样得到其中计算如果p>1-δ,令如果p<1-δ,令并重复上个过程以及此过程。值得注意的是,该过程实际上是一个二分查找的过程,用于查找最优的之后,b将的大小发送给a。类似的,此过程也可以用于确定b发送给a的最小样本数量。
[0074]
步骤s1011,a和b分别将选中的数据添加满足差分隐私的噪声,并将添加完噪声之后的数据以及数据索引发送给对方。数据索引可以保证后续阶段进行数据对齐。在纵向联邦学习的场景下,索引不会泄露额外信息。
[0075]
步骤s102,a和b分别将预测每个缺失的特征看作一个学习任务,以接收到的特征数据作为标签来分别训练多个模型。同时对于没有数据的特征,利用labeled-unlabeled的多任务学习方法来训练模型;
[0076]
具体地,以a发送给b部分样本为例。
[0077]
(a)b将自身已有的数据划分为ma个数据集,分别对应每个特征的训练数据,其中ma为缺失特征的数量,本实施例中也为a拥有的特征数量;
[0078]
(b)根据训练数据计算数据集之间的差异disc(s
p
,sq),p,q∈{1,...,ma},p≠q,disc(s
p
,s
p
)=0;
[0079]
(c)假设i为有标签任务的集合,i∈{1,...,ma},|i|=ra,对于每个无标签的任务,最小化得到权重
[0080]
(d)对于有标签的任务,可以利用接收到标签直接训练得到其对应的模型;
[0081]
(e)对于每个无标签的任务,可通过最小化有标签任务的训练误差的凸组合得到其模型m
t
t∈{1,...,ma}/i:
[0082][0083]
其中
[0084][0085]
l(*)为模型以数据集s
p
的样本作为输入的损失函数,表示数据集s
p
的样本量,x为输入的样本特征,y为数据集s
p
训练任务时的标签。
[0086]
步骤s103,a和b利用训练得到的模型分别预测其他样本的数据以补齐缺失的特征数据。
[0087]
步骤s104,a和b利用横向联邦学习方法共同合作训练,得到最终的训练模型。
[0088]
本发明的高效安全,低通信的纵向联邦学习方法,通过与横向联邦学习相结合,可以在不暴露参与者本地数据的情况下,利用每个参与者持有的数据共同训练模型。其隐私保护水平满足差分隐私,模型的训练结果接近中心化学习。
[0089]
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献