一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于联邦学习的模型训练方法、装置、系统、设备和介质与流程

2021-10-24 07:54:00 来源:中国专利 TAG:学习 电子设备 联邦 装置 模型


1.本发明实施例涉及机器学习技术领域,具体涉及一种基于联邦学习的模型训练方法、装置、系统、电子设备、及存储介质。


背景技术:

2.当前,工业企业纷纷加入工智能浪潮,但人工智能技术在工业场景落地效果不佳,其问题主要在于人工智能技术需要大量优质数据来提高智能水平。但从目前来看,绝大多数企业都存在数据量少、数据质量差的问题,不足以支撑人工智能技术的实现;同时国内外监管环境逐步加强数据保护,数据在安全合规的前提下自由流动是大势所趋;企业所拥有的数据往往都有巨大的潜在价值。
3.一方面,若两个企业甚至企业间的部门都不会提供各自数据共享,导致即使在同一个企业内,数据也往往以孤岛的形式出现。
4.另一方面,若各参与方都上传全部数据,将所有数据聚合训练得到虚拟模型,再反馈至各参与方共享最优模型,则需要各参与方上传所有数据,这会使占用的带宽较大,通信开销过大。


技术实现要素:

5.有鉴于此,本发明实施例提供一种基于联邦学习的模型训练方法、装置、电子设备、及存储介质,以避免大量工业数据泄露的同时,保证了模型训练的效果。
6.本发明实施例的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本发明实施例的实践而习得。
7.在本公开的第一方面,本发明实施例提供了一种基于联邦学习的模型训练方法,由各私有云端服务器执行,包括:
8.获取本地数据,将所获取的本地数据经过本地模型识别后,根据识别结果生成样本集共享给公有云端服务器,以使所述公有云端服务器采用所述样本集对联合模型进行训练并共享所述联合模型,其中所述样本集的数据量小于所述本地数据的数据量;
9.下载所述联合模型,用所下载的联合模型替换本地模型。
10.于一实施例中,根据识别结果生成样本集共享给公有云端服务器包括:
11.根据本地模型不能识别的数据生成样本集共享给公有云端服务器;和/或
12.根据本地模型识别错误的数据生成样本集共享给公有云端服务器。
13.于一实施例中,在获取本地数据之后还包括:基于所述本地数据对本地模型进行训练,将训练后的本地模型算法参数发送给公有云端服务器,以使所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数。
14.于一实施例中,所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数包括:
15.采用先验数据集计算联合模型的效果指标得到第一指标值;
16.将联合模型算法参数替换为所接收的所述本地模型算法参数后,采用所述先验数据集计算替换算法参数后的联合模型的效果指标得到第二指标值;
17.根据所述第一指标值和所述第二指标值的大小确定是否需要采用所接收的所述本地模型算法参数更新联合模型。
18.于一实施例中,所述效果指标包括准确率和/或召回率。
19.于一实施例中,根据识别结果生成样本集共享给公有云端服务器包括:
20.根据识别结果生成样本集,将所述样本集加密后上链存储到区块链中共享给公有云端服务器。
21.在本公开的第二方面,本发明实施例还提供了一种基于联邦学习的模型训练装置,配置于各私有云端服务器中,所述装置包括:
22.训练样本上传单元,用于获取本地数据,将所获取的本地数据经过本地模型识别后,根据识别结果生成样本集共享给公有云端服务器,以使所述公有云端服务器采用所述样本集对联合模型进行训练并共享所述联合模型,其中所述样本集的数据量小于所述本地数据的数据量;
23.模型下载单元,用于下载所述联合模型,用所下载的联合模型替换本地模型。
24.于一实施例中,所述训练样本上传单元用于根据识别结果生成样本集共享给公有云端服务器包括,用于:
25.根据本地模型不能识别的数据生成样本集共享给公有云端服务器;和/或
26.根据本地模型识别错误的数据生成样本集共享给公有云端服务器。
27.于一实施例中,所述训练样本上传单元还用于,在获取本地数据之后,基于所述本地数据对本地模型进行训练,将训练后的本地模型算法参数发送给公有云端服务器,以使所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数。
28.于一实施例中,所述训练样本上传单元中,所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数包括:
29.采用先验数据集计算联合模型的效果指标得到第一指标值;
30.将联合模型算法参数替换为所接收的所述本地模型算法参数后,采用所述先验数据集计算替换算法参数后的联合模型的效果指标得到第二指标值;
31.根据所述第一指标值和所述第二指标值的大小确定是否需要采用所接收的所述本地模型算法参数更新联合模型。
32.于一实施例中,所述效果指标包括准确率和/或召回率。
33.于一实施例中,所述训练样本上传单元用于根据识别结果生成样本集共享给公有云端服务器包括:
34.用于根据识别结果生成样本集,将所述样本集加密后上链存储到区块链中共享给公有云端服务器。
35.在本公开的第三方面,本发明实施例还提供了一种基于联邦学习的模型训练系统,包括公有云端服务器和多个私有云端服务器;
36.各私有云端服务器获取本地数据,将所获取的本地数据经过本地模型识别后,根据识别结果生成样本集共享给公有云端服务器,其中所述样本集的数据量小于所述本地数据的数据量;
37.所述公有云端服务器采用所述样本集对联合模型进行训练并共享所述联合模型;
38.各私有云端服务器从所述公有云端服务器下载所述联合模型,用所下载的联合模型替换本地模型。
39.于一实施例中,所述公有云端服务器采用所述样本集对联合模型进行训练之前还包括,判断所述样本集是否需要训练;
40.若判断所述样本集需要训练,再采用所述样本集对联合模型进行训练。
41.于一实施例中,所述根据识别结果生成样本集共享给公有云端服务器包括:
42.根据识别结果生成样本集,将所述样本集加密后上链存储到区块链中共享给公有云端服务器。
43.在本公开的第四方面,提供了一种电子设备。该电子设备包括:处理器;以及存储器,用于存储可执行指令,所述可执行指令在被所述处理器执行时使得所述电子设备执行第一方面中的方法。
44.在本公开的第五方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现第一方面中的方法。
45.本发明实施例提出的技术方案的有益技术效果是:
46.本发明实施例通过各私有云端服务器获取本地数据,将所获取的本地数据经过本地模型识别后,根据识别结果生成样本集共享给公有云端服务器,以使所述公有云端服务器采用所述样本集对联合模型进行训练并共享所述联合模型,其中所述样本集的数据量小于所述本地数据的数据量;下载所述联合模型,用所下载的联合模型替换本地模型。本发明实施例的技术方案能够在避免大量工业数据泄露的同时,保证了模型训练的效果。
附图说明
47.为了更清楚地说明本发明实施例中的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明实施例中的一部分实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据本发明实施例的内容和这些附图获得其他的附图。
48.图1是根据本发明实施例提供的一种基于联邦学习的模型训练系统的方法流程示意图;
49.图2是根据本发明实施例提供的一种基于联邦学习的模型训练系统的交互示意图;
50.图3是根据本发明实施例提供的另一种基于联邦学习的模型训练系统的方法流程示意图;
51.图4是根据本发明实施例提供的一种基于联邦学习的模型训练方法的流程示意图;
52.图5是根据本发明实施例提供的另一种基于联邦学习的模型训练方法的流程示意图;
53.图6是根据本发明实施例提供的一种基于联邦学习的模型训练装置的结构示意图;
54.图7示出了适于用来实现本发明实施例的电子设备的结构示意图。
具体实施方式
55.为使本发明实施例解决的技术问题、采用的技术方案和达到的技术效果更加清楚,下面将结合附图对本发明实施例的技术方案作进一步的详细描述,显然,所描述的实施例仅仅是本发明实施例中的一部分实施例,而不是全部的实施例。基于本发明实施例中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明实施例保护的范围。
56.需要说明的是,本发明实施例中术语“系统”和“网络”在本文中常被可互换使用。本发明实施例中提到的“和/或”是指包括一个或更多个相关所列项目的任何和所有组合。本公开的说明书和权利要求书及附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于限定特定顺序。
57.还需要说明是,本发明实施例中下述各个实施例可以单独执行,各个实施例之间也可以相互结合执行,本发明实施例对此不作具体限制。
58.本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
59.下面结合附图并通过具体实施方式来进一步说明本发明实施例的技术方案。
60.图1是根据本发明实施例提供的一种基于联邦学习的模型训练系统的方法流程示意图,本实施例以前述实施例为基础,进行了改进优化。如图1所示,本实施例所述的基于联邦学习的模型训练系统的方法包括:
61.在步骤s110中,各私有云端服务器获取本地数据,将所获取的本地数据经过本地模型识别后,根据识别结果生成样本集共享给公有云端服务器,其中所述样本集的数据量小于所述本地数据的数据量。
62.各私有云端服务器根据识别结果生成样本集共享给公有云端服务器时,可根据本地模型不能识别的数据生成样本集共享给公有云端服务器,或者还可根据本地模型识别错误的数据生成样本集共享给公有云端服务器。再或还可根据本地模型不能识别和识别错误的的数据生成样本集共享给公有云端服务器,以减少各各私有云端服务器向公有云端服务器上传数据的数据量,能够避免大量工业数据泄露。
63.根据本公开的一个或多个实施例,根据识别结果生成样本集共享给公有云端服务器时,还可根据识别结果生成样本集,将所述样本集加密后上链存储到区块链中共享给公有云端服务器,能够进一步增加各私有云端服务器向云端服务器上传数据的安全性和可追溯性。
64.在步骤s120中,所述公有云端服务器采用所述样本集对联合模型进行训练并共享所述联合模型。
65.由于各私有云端服务器上的本地模型是通过从公有云端服务器上下载联合模型获得,因此各私有云端服务器上的本地模型的准确率不高于公有云端服务器上的联合模型,因此各私有云端服务器上的本地模型能够正确识别的数据,联合模型也能够识别,因此采用私有云端服务器上的本地模型能够识别的数据对联合模型进行训练意义不大,难以使联合模型的识别能力得到增强,因此各私有云端服务器上本地模型能够识别的数据,可排除掉,以减少向公有云端服务器上传的数据量,能够减少带宽占用,降低通信开销。
66.在步骤s130中,各私有云端服务器从所述公有云端服务器下载所述联合模型,用
所下载的联合模型替换本地模型。
67.联合模型采用各私有云端服务器上传的数据进行训练后,能够获得更强的识别能力,各私有云端服务器将本地模型更新为联合模型也能够提高对本地数据的识别能力,从而不能识别或识别错误的数据相应会减少,向公有云端服务器上传的数据最相应会减少,能够进一步减少带宽占用,降低通信开销。
68.根据本公开的一个或多个实施例,所述公有云端服务器采用所述样本集对联合模型进行训练之前,还可判断所述样本集是否需要训练,若判断所述样本集需要训练,再采用所述样本集对联合模型进行训练。
69.根据本公开的一个或多个实施例,所述根据识别结果生成样本集共享给公有云端服务器,可根据识别结果生成样本集,将所述样本集加密后上链存储到区块链中共享给公有云端服务器。
70.本发明实施例通过各私有云端服务器获取本地数据,将所获取的本地数据经过本地模型识别后,根据识别结果生成样本集共享给公有云端服务器,公有云端服务器采用所述样本集对联合模型进行训练并共享所述联合模型;各私有云端服务器下载所述联合模型,用所下载的联合模型替换本地模型,能够在避免大量工业数据泄露的同时,保证了模型训练的效果。
71.图2是根据本发明实施例提供的一种基于联邦学习的模型训练系统的交互示意图,本实施例所述的基于联邦学习的模型训练系统是一种各参与工厂将各自不确定的数据进行加密后提供给虚拟模型,训练优化并反馈至各参与方共享的机器学习模型训练方法。如图2所示,本实施例的技术方案主要采用联邦学习和区块链等技术,公开了一种各参与工厂提供一部分加密数据供虚拟模型训练优化并反馈至各参与方共享的机器学习模型训练方法,各参与工厂只分享部分自身不确定的数据且进行加密,能够保证最大程度的数据隐私,且消耗较少的通信开销就能得到满足性能需求的机器学习模型。
72.图3是根据本发明实施例提供的一种基于联邦学习的模型训练系统的方法流程示意图,如图3所示,本实施例所述的基于联邦学习的模型训练系统的方法包括:
73.在步骤s301中,各工厂日常采集数据。
74.在步骤s302中,工厂判断数据是否需要上传,若是则执行步骤s304,否则执行步骤s303。
75.在步骤s303中,不上传数据,返回步骤s301。
76.在步骤s304中,上传数据至联合模型。
77.在步骤s305中,联合模型判断收集的数据是否需要训练,若是则执行步骤s306,否则结束。
78.在步骤s306中,联合模型训练更新优化。
79.在步骤s307中,各参与工厂下载最优化模型。
80.本实施例所述技术方案中,各参与工厂启动本地算法模型训练,并将各自训练的模型共享形成联合模型,同时将各自模型数据集中无法被各自模型识别的、不确定的数据发送给联合模型。因此,联合模型就能收集到所有参与工厂的不确定的数据集,且这部分数据集是有利于模型进行训练优化的有效数据,联合模型利用这些数据进行训练优化,得到相对训练前更优的模型。各参与工厂可直接下载优化后的联合模型,此时的联合模型不仅
能够识别之前各自模型识别不了的数据集,还能够识别其他参与工厂识别不了的数据。例如工厂a之前无法识别数据集[a,b,c],工厂b之前无法识别数据集[d,e,f,g],工厂c之前无法识别数据集[h,i,g,k,l,m,n],经过联合模型收集数据进行训练优化后,联合模型能够识别[a,b,c,d,e,f,g,h,i,j,k,l,m,n]。各工厂下载联合模型并用所下载的联合模型替换本地模型之后,工厂a不仅能够识别之前它识别不了的数据集[a,b,c],还能够识别工厂b、c不能够识别的[d,e,f,g,h,i,j,k,l,m,n],同理,对于工厂b及工厂c来说,也能够识别所有参与工厂之前不能够识别的数据集。
[0081]
上述过程为首次模型训练的过程,从第二次开始,各参与工厂只需实时发送自身不能够识别、不确定的数据集至联合模型,而无需再将各自模型共享,联合模型在收集到新的数据后,判断该数据是否需要进行训练,剔除与数据集中重合的数据,只利用新的需要进行训练的数据进行模型优化,由此不断根据各参与方上传的数据集进行迭代更新,得到优化的联合模型,而各参与工厂也能够下载得到优化模型。
[0082]
在此过程中,各参与工厂只是需要上传部分不确定的数据且通过区块链上链方式对数据进行加密,能够保证最大程度的数据隐私,维护工业数据安全,且只需占用较小的带宽,减少通信开销,也能最大效率地贡献有效数据,有利于模型迅速优化。
[0083]
本实施例技术方案通过各参与方只上传部分不确定数据,且进行加密上传,在保证工业数据安全的同时,最大化地减少通信开销,且虚拟模型能够得到所有优质且有效数据,持续训练得到优化模型,反馈至各工厂共享最优模型能够使传输数据少,且不重复上传,占用较小带宽,使通信开销花费少。
[0084]
图4示出了本发明实施例提供的一种基于联邦学习的模型训练方法的流程示意图,本实施例可适用于各私有云端服务器基于联邦学习进行模型训练的情况,该方法可以由配置于各私有云端服务器中的基于联邦学习的模型训练装置来执行,如图4所示,本实施例所述的基于联邦学习的模型训练方法包括:
[0085]
在步骤s410中,获取本地数据,将所获取的本地数据经过本地模型识别后,根据识别结果生成样本集共享给公有云端服务器,以使所述公有云端服务器采用所述样本集对联合模型进行训练并共享所述联合模型,其中所述样本集的数据量小于所述本地数据的数据量。
[0086]
其中,根据识别结果生成样本集共享给公有云端服务器,可根据本地模型不能识别的数据和/或识别错误的数据生成样本集共享给公有云端服务器。
[0087]
其中,具体的共享方法可包括多种,例如可根据识别结果生成样本集,将所述样本集加密后上链存储到区块链中共享给公有云端服务器。
[0088]
在步骤s420中,下载所述联合模型,用所下载的联合模型替换本地模型。
[0089]
本实施例通过各私有云端服务器获取本地数据,将所获取的本地数据经过本地模型识别后,根据识别结果生成样本集共享给公有云端服务器,以使所述公有云端服务器采用所述样本集对联合模型进行训练并共享所述联合模型,其中所述样本集的数据量小于所述本地数据的数据量;下载所述联合模型,用所下载的联合模型替换本地模型。本发明实施例的技术方案能够在避免大量工业数据泄露的同时,保证了模型训练的效果。
[0090]
图5示出了本发明实施例提供的另一种基于联邦学习的模型训练方法的流程示意图,本实施例以前述实施例为基础,进行了改进优化。如图5所示,本实施例所述的基于联邦
学习的模型训练方法包括:
[0091]
在步骤s510中,获取本地数据。可周期性地获取本地的增量数据用以进行模型训练。
[0092]
在步骤s520中,基于所述本地数据对本地模型进行训练,将训练后的本地模型算法参数发送给公有云端服务器,以使所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数。
[0093]
其中,所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数的方法可包括多种,例如可采用先验数据集计算联合模型的效果指标得到第一指标值,将联合模型算法参数替换为所接收的所述本地模型算法参数后,采用所述先验数据集计算替换算法参数后的联合模型的效果指标得到第二指标值,根据所述第一指标值和所述第二指标值的大小确定是否需要采用所接收的所述本地模型算法参数更新联合模型。
[0094]
其中,所述效果指标用于度量模型的预测能力,其度量角度可包括多种,本实施例对此不作限定,例如可包括准确率、召回率等其中一种或多种的综合指标。
[0095]
在步骤s530中,将所获取的本地数据经过本地模型识别后,根据识别结果生成样本集共享给公有云端服务器,以使所述公有云端服务器采用所述样本集对联合模型进行训练并共享所述联合模型,其中所述样本集的数据量小于所述本地数据的数据量。
[0096]
其中,根据识别结果生成样本集共享给公有云端服务器,可根据本地模型不能识别的数据和/或识别错误的数据生成样本集共享给公有云端服务器。
[0097]
其中,具体的共享方法可包括多种,例如可根据识别结果生成样本集,将所述样本集加密后上链存储到区块链中共享给公有云端服务器。
[0098]
在步骤s540中,下载所述联合模型,用所下载的联合模型替换本地模型,返回步骤s510。
[0099]
本实施例通过各私有云端服务器获取本地数据,将所获取的本地数据经过本地模型识别后,根据识别结果生成样本集共享给公有云端服务器,以使所述公有云端服务器采用所述样本集对联合模型进行训练并共享所述联合模型,其中所述样本集的数据量小于所述本地数据的数据量;下载所述联合模型,用所下载的联合模型替换本地模型,能够在避免大量工业数据泄露的同时,保证了模型训练的效果。
[0100]
作为上述各图所示方法的实现,本技术提供了一种基于联邦学习的模型训练装置的一个实施例,图6示出了本实施例提供的一种基于联邦学习的模型训练装置的结构示意图,该装置实施例与图4和图5所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。如图6所示,本实施例所述的基于联邦学习的模型训练装置包括训练样本上传单元610和模型下载单元620。
[0101]
所述训练样本上传单元610被配置为,用于获取本地数据,将所获取的本地数据经过本地模型识别后,根据识别结果生成样本集共享给公有云端服务器,以使所述公有云端服务器采用所述样本集对联合模型进行训练并共享所述联合模型,其中所述样本集的数据量小于所述本地数据的数据量。
[0102]
所述模型下载单元620被配置为,用于下载所述联合模型,用所下载的联合模型替换本地模型。
[0103]
根据本公开的一个或多个实施例,所述训练样本上传单元610被配置为,用于根据
识别结果生成样本集共享给公有云端服务器包括,用于根据本地模型不能识别的数据生成样本集共享给公有云端服务器;和/或根据本地模型识别错误的数据生成样本集共享给公有云端服务器。
[0104]
根据本公开的一个或多个实施例,所述训练样本上传单元610被配置为,还用于在获取本地数据之后,基于所述本地数据对本地模型进行训练,将训练后的本地模型算法参数发送给公有云端服务器,以使所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数。
[0105]
根据本公开的一个或多个实施例,所述训练样本上传单元610中,所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数包括:采用先验数据集计算联合模型的效果指标得到第一指标值;将联合模型算法参数替换为所接收的所述本地模型算法参数后,采用所述先验数据集计算替换算法参数后的联合模型的效果指标得到第二指标值;
[0106]
根据所述第一指标值和所述第二指标值的大小确定是否需要采用所接收的所述本地模型算法参数更新联合模型。
[0107]
根据本公开的一个或多个实施例,所述效果指标包括准确率和/或召回率。
[0108]
根据本公开的一个或多个实施例,所述训练样本上传单元610用于根据识别结果生成样本集共享给公有云端服务器包括:用于根据识别结果生成样本集,将所述样本集加密后上链存储到区块链中共享给公有云端服务器。
[0109]
本实施例提供的基于联邦学习的模型训练装置可执行本公开方法实施例所提供的基于联邦学习的模型训练方法,具备执行方法相应的功能模块和有益效果。
[0110]
下面参考图7,其示出了适于用来实现本发明实施例的电子设备700的结构示意图。本发明实施例中的上述终端设备,例如为移动设备、电脑、或浮动车中内置的车载设备等,或其任意组合。在一些实施例中,移动设备例如可以包括手机、智能家居设备、可穿戴设备、智能移动设备、虚拟现实设备等,或其任意组合。图7示出的电子设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
[0111]
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(rom)702中的程序或者从存储装置708加载到随机访问存储器(ram)703中的程序而执行各种适当的动作和处理。在ram 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、rom 702以及ram 703通过总线704彼此相连。输入/输出(i/o)接口705也连接至总线704。
[0112]
通常,以下装置可以连接至i/o接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(lcd)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
[0113]
特别地,根据本发明实施例的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明实施例的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代
码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从rom 702被安装。在该计算机程序被处理装置701执行时,执行本发明实施例的方法中限定的上述功能。
[0114]
需要说明的是,本发明实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd

rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、rf(射频)等等,或者上述的任意合适的组合。
[0115]
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
[0116]
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取本地数据,将所获取的本地数据经过本地模型识别后,根据识别结果生成样本集共享给公有云端服务器,以使所述公有云端服务器采用所述样本集对联合模型进行训练并共享所述联合模型,其中所述样本集的数据量小于所述本地数据的数据量;下载所述联合模型,用所下载的联合模型替换本地模型。
[0117]
可以以一种或多种程序设计语言或其组合来编写用于执行本发明实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c ,还包括常规的过程式程序设计语言—诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络包括局域网(lan)或广域网(wan)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
[0118]
附图中的流程图和框图,图示了按照本发明实施例各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。
也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0119]
描述于本发明实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
[0120]
以上描述仅为本发明实施例的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本发明实施例中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本发明实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜