一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于联邦学习的模型训练方法、装置、系统、设备和介质与流程

2021-10-24 07:54:00 来源:中国专利 TAG:人工智能 电子设备 联邦 装置 模型


1.本发明实施例涉及人工智能技术领域,具体涉及一种基于联邦学习的模型训练方法、装置、系统、电子设备、及存储介质。


背景技术:

2.工业数据是工业信息化的核心,尤其是制造业企业在生产运营中对工业数据有着高度的依赖,例如工艺参数、设备运行数据、生产数据等一系列工业数据是影响制造生产的关键数据,这些数据的安全直接关系到制造生产线的稳定运行,数据的丢失、恶意篡改或者错误都会导致整条产线的停产,对工业生产造成巨大的损失。此外,关乎国计民生的关键企业,工业数据的外泄也会影响到国家安全。出于对工业数据的保护,制造企业出于数据安全的考虑,对外不共享也不传输数据,导致数据孤岛形成,这成为当前人工智能技术在工业场景落地和持续优化的挑战。在工业智能化过程中,如何有效的既保护数据安全也能够使用充足的数据量进行模型训练,解决人工智能模型持续优化的问题成为制造业技术发展的关键所在。
3.为保障工业企业数据安全,目前大多采用私有云方案,数据不出厂,数据安全可靠,但由于数据不开放,不共享,导致工业数据分散,优质数据少,影响了数据模型训练和优化,不足以支撑人工智能技术落地实现。


技术实现要素:

4.有鉴于此,本发明实施例提供一种基于联邦学习的模型训练方法、装置、电子设备、及存储介质,以在保证工业数据安全的同时,保证了模型训练的效果。
5.本发明实施例的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本发明实施例的实践而习得。
6.在本公开的第一方面,本发明实施例提供了一种基于联邦学习的模型训练方法,由各私有云端服务器执行,包括:
7.基于本地数据对本地模型进行训练,将训练后的本地模型算法参数发送给公有云端服务器,以使所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数;
8.接收所述公有云端服务器推送的更新后的联合模型算法参数;
9.若验证需要采用所接收的所述联合模型算法参数更新本地模型,则将本地模型算法参数更新为所接收的联合模型算法参数。
10.于一实施例中,验证是否需要采用所接收的所述联合模型算法参数更新本地模型包括:
11.采用先验数据集计算本地模型的效果指标得到第一指标值;
12.将本地模型算法参数替换为所接收的所述联合模型算法参数后,采用所述先验数据集计算替换算法参数后的本地模型的效果指标得到第二指标值;
13.根据所述第一指标值和所述第二指标值的大小确定是否需要采用所接收的所述联合模型算法参数更新本地模型。
14.于一实施例中,所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数包括:
15.采用先验数据集计算联合模型的效果指标得到第三指标值;
16.将联合模型的算法参数替换为所接收的所述本地模型算法参数后,采用所述先验数据集计算替换算法参数后的联合模型的效果指标得到第四指标值;
17.根据所述第三指标值和所述第四指标值的大小确定是否需要采用所接收的所述本地模型算法参数更新联合模型。
18.于一实施例中,所述效果指标包括准确率和/或召回率。
19.于一实施例中,在基于本地数据对本地模型进行训练之前还包括,接收公有云端服务器下发的初始模型算法参数;
20.基于本地数据对本地模型进行训练包括:基于所述初始模型算法参数和本地数据对本地模型进行训练。
21.在本公开的第二方面,本发明实施例还提供了一种基于联邦学习的模型训练装置,配置于各私有云端服务器中,所述装置包括:
22.本地训练与参数上传单元,用于基于本地数据对本地模型进行训练,将训练后的本地模型算法参数发送给公有云端服务器,以使所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数;
23.联合模型参数接收单元,用于接收所述公有云端服务器推送的更新后的联合模型算法参数;
24.验证与更新单元,用于若验证需要采用所接收的所述联合模型算法参数更新本地模型,则将本地模型算法参数更新为所接收的联合模型算法参数。
25.于一实施例中,所述验证与更新单元用于验证是否需要采用所接收的所述联合模型算法参数更新本地模型包括:
26.采用先验数据集计算本地模型的效果指标得到第一指标值;
27.将本地模型算法参数替换为所接收的所述联合模型算法参数后,采用所述先验数据集计算替换算法参数后的本地模型的效果指标得到第二指标值;
28.根据所述第一指标值和所述第二指标值的大小确定是否需要采用所接收的所述联合模型算法参数更新本地模型。
29.于一实施例中,所述本地训练与参数上传单元中所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数包括:
30.采用先验数据集计算联合模型的效果指标得到第三指标值;
31.将联合模型的算法参数替换为所接收的所述本地模型算法参数后,采用所述先验数据集计算替换算法参数后的联合模型的效果指标得到第四指标值;
32.根据所述第三指标值和所述第四指标值的大小确定是否需要采用所接收的所述本地模型算法参数更新联合模型。
33.于一实施例中,所述效果指标包括准确率和/或召回率。
34.于一实施例中,所述装置还包括初始模型参数接收单元,用于在基于本地数据对
本地模型进行训练之前,接收公有云端服务器下发的初始模型算法参数;
35.所述本地训练与参数上传单元用于基于本地数据对本地模型进行训练包括:用于基于所述初始模型算法参数和本地数据对本地模型进行训练。
36.在本公开的第三方面,提供了一种基于联邦学习的模型训练系统,包括公有云端服务器和多个私有云端服务器;
37.各私有云端服务器基于本地数据对本地模型进行训练,将训练后的本地模型算法参数发送给所述公有云端服务器;
38.所述公有云端服务器验证是否需要采用所接收的参数更新联合模型算法参数,若是则采用所接收的参数更新联合模型算法参数,将更新后的联合模型算法参数推送到各私有云端服务器;
39.各私有云端服务器若接收到所述公有云端服务器推送的联合模型算法参数,则验证是否需要采用所接收的所述联合模型算法参数更新本地模型,若是则将本地模型算法参数更新为所接收的联合模型算法参数。
40.于一实施例中,在各私有云端服务器基于本地数据对本地模型进行训练之前还包括:
41.所述公有云端服务器将初始模型算法参数发送到各私有云端服务器,各私有云端服务器基于所述初始模型算法参数和本地数据对本地模型进行训练。
42.在本公开的第四方面,提供了一种电子设备。该电子设备包括:处理器;以及存储器,用于存储可执行指令,所述可执行指令在被所述处理器执行时使得所述电子设备执行第一方面中的方法。
43.在本公开的第五方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现第一方面中的方法。
44.本发明实施例提出的技术方案的有益技术效果是:
45.本发明实施例通过各私有云端服务器基于本地数据对本地模型进行训练,将训练后的本地模型算法参数发送给公有云端服务器,以使所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数;接收所述公有云端服务器推送的更新后的联合模型算法参数;若验证需要采用所接收的所述联合模型算法参数更新本地模型,则将本地模型算法参数更新为所接收的联合模型算法参数,能够在保证工业数据安全的同时,保证了模型训练的效果。
附图说明
46.为了更清楚地说明本发明实施例中的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明实施例中的一部分实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据本发明实施例的内容和这些附图获得其他的附图。
47.图1是根据本发明实施例提供的一种基于联邦学习的模型训练方法的流程示意图;
48.图2是根据本发明实施例提供的一种基于联邦学习的模型训练系统的方法流程示意图;
49.图3a是根据本发明实施例提供的另一种基于联邦学习的模型训练系统的方法示意图;
50.图3b是根据本发明实施例提供的另一种基于联邦学习的模型训练系统的方法流程示意图;
51.图4是根据本发明实施例提供的一种基于联邦学习的模型训练装置的结构示意图;
52.图5是根据本发明实施例提供的另一种基于联邦学习的模型训练装置的结构示意图;
53.图6示出了适于用来实现本发明实施例的电子设备的结构示意图。
具体实施方式
54.为使本发明实施例解决的技术问题、采用的技术方案和达到的技术效果更加清楚,下面将结合附图对本发明实施例的技术方案作进一步的详细描述,显然,所描述的实施例仅仅是本发明实施例中的一部分实施例,而不是全部的实施例。基于本发明实施例中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明实施例保护的范围。
55.需要说明的是,本发明实施例中术语“系统”和“网络”在本文中常被可互换使用。本发明实施例中提到的“和/或”是指包括一个或更多个相关所列项目的任何和所有组合。本公开的说明书和权利要求书及附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于限定特定顺序。
56.还需要说明是,本发明实施例中下述各个实施例可以单独执行,各个实施例之间也可以相互结合执行,本发明实施例对此不作具体限制。
57.本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
58.下面结合附图并通过具体实施方式来进一步说明本发明实施例的技术方案。
59.图1示出了本发明实施例提供的一种基于联邦学习的模型训练方法的流程示意图,本实施例可适用于多个私有云端服务器通过联邦学习训练模型的情况,该方法可以由各私有云端服务器上配置的基于联邦学习的模型训练装置来执行,如图1所示,本实施例所述的基于联邦学习的模型训练方法包括:
60.在步骤s110中,基于本地数据对本地模型进行训练,将训练后的本地模型算法参数发送给公有云端服务器,以使所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数。
61.其中,所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数时,可采用先验数据集进行验证,以确定联邦模型若采用该私有云端服务器所训练的本地模型算法参数,联邦模型的训练效果是否更优(比如模型精度是否更高)。具体地,可采用先验数据集计算联合模型的效果指标得到第三指标值,将联合模型的算法参数替换为所接收的所述本地模型算法参数后,采用所述先验数据集计算替换算法参数后的联合模型的效果指标得到第四指标值,根据所述第三指标值和所述第四指标值的大小确定是否需要采用所接收的所述本地模型算法参数更新联合模型。
62.在步骤s120中,接收所述公有云端服务器推送的更新后的联合模型算法参数。
63.在步骤s130中,验证是否需要采用所接收的所述联合模型算法参数更新本地模型,若是则执行步骤s140,否则返回步骤s110。
64.例如,可采用先验数据集计算本地模型的效果指标得到第一指标值,将本地模型算法参数替换为所接收的所述联合模型算法参数后,采用所述先验数据集计算替换算法参数后的本地模型的效果指标得到第二指标值,根据所述第一指标值和所述第二指标值的大小确定是否需要采用所接收的所述联合模型算法参数更新本地模型。
65.在步骤s140中,将本地模型算法参数更新为所接收的联合模型算法参数。
66.根据本公开的一个或多个实施例,所述效果指标可包括多种,包括但不限于模型预测的准确率、召回率等。
67.根据本公开的一个或多个实施例,各私有云端服务器在基于本地数据对本地模型进行训练之前还可接收公有云端服务器下发的初始模型算法参数,基于所述初始模型算法参数和本地数据对本地模型进行训练,以同步各私有云端服务器的本地模型的初始状态。
68.本实施例通过各私有云端服务器基于本地数据对本地模型进行训练,将训练后的本地模型算法参数发送给公有云端服务器,以使所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数;接收所述公有云端服务器推送的更新后的联合模型算法参数;若验证需要采用所接收的所述联合模型算法参数更新本地模型,则将本地模型算法参数更新为所接收的联合模型算法参数,能够在保证工业数据安全的同时,保证了模型训练的效果。
69.图2是根据本发明实施例提供的一种基于联邦学习的模型训练系统的方法流程示意图,本实施例所述的基于联邦学习的模型训练系统包括公有云端服务器和多个私有云端服务器。如图2所示,本实施例所述的基于联邦学习的模型训练方法包括:
70.在步骤s210中,各私有云端服务器基于本地数据对本地模型进行训练,将训练后的本地模型算法参数发送给所述公有云端服务器;
71.在步骤s220中,所述公有云端服务器验证是否需要采用所接收的参数更新联合模型算法参数,若是则采用所接收的参数更新联合模型算法参数,将更新后的联合模型算法参数推送到各私有云端服务器;
72.在步骤s230中,各私有云端服务器若接收到所述公有云端服务器推送的联合模型算法参数,则执行步骤s240。
73.在步骤s240中,验证是否需要采用所接收的所述联合模型算法参数更新本地模型,若是则执行步骤s250,否则返回步骤s210。
74.在步骤s250中,将本地模型算法参数更新为所接收的联合模型算法参数。
75.根据本公开的一个或多个实施例,在步骤s210之前,所述公有云端服务器还可将初始模型算法参数发送到各私有云端服务器,各私有云端服务器基于所述初始模型算法参数和本地数据对本地模型进行训练。
76.本实施例技术方案在保证工业数据安全的同时,在不需要开放数据的前提下,满足了工业数据模型持续优化,提升ai技术在工业应用中的使用效果。
77.图3a是根据本发明实施例提供的另一种基于联邦学习的模型训练系统的方法示意图,本实施例是一种在私有云进行本地的模型训练并将各地模型整合优化为联合模型然
后反馈给各地的一种安全的数据模型训练方案,
78.如图3a所示,本实施例主要采用联邦学习、分布式计算、算法模型整合优化等技术。联邦学习是一种分布式协同训练机器学习模型的范式,可以在无需集中训练数据的情况下载大量边缘设备(客户端)上进行协作训练机器学习模型,其特点是大量分散阶段链接到集中式服务器,这些参与者彼此之间的信任为零,并且只能访问本地训练数据。分布式计算是把一个大计算任务拆分成多个小计算任务分布到若干台机器上去计算,然后再进行结果汇总,联邦学习过程中的分布式计算是在各地进行计算形成数据模型,然后将模型上传进行结果汇总。算法模型的汇总是在同一参数定义的基础上,通过联邦学习和分布式计算,将本地的计算和模型整合成联合模型。在联合机器学习设定中,全局模型由中央参数服务器初始化并维护,并由该服务器共享给边缘设备。为了分布式协同训练出全局模型,客户端使用本地私有数据计算模型更新,然后将其更新的模型上传到服务器,同时将隐私敏感的培训数据保留在自己的设备上,通过分布式安全聚合的多次迭代,联邦学习系统训练得到整合的模型。
79.图3b示出了本发明实施例提供的又一种基于联邦学习的模型训练方法的流程示意图,本实施例以前述实施例为基础,进行了改进优化。如图3b所示,本实施例所述的基于联邦学习的模型训练方法包括:
80.在步骤s301中,工厂私有云启动模型训练。
81.在步骤s302中,将模型算法参数共享给联合模型。
82.在步骤s303中,联合模型验证是否需要更新,若是则执行步骤s305,否则执行步骤s304。
83.在步骤s304中,不更新现有模型,执行步骤s306。
84.在步骤s305中,更新现有联合模型。
85.在步骤s306中,联合模型向工厂推送更新后的模型算法参数。
86.在步骤s307中,工厂私有云判断联合模型是否为最优,若是则执行步骤s310,否则执行步骤s308。
87.在步骤s308中,不更新现有模型,执行步骤s309。
88.在步骤s309中,持续本地训练,结束。
89.在步骤s310中,迭代更新本地模型。
90.工厂私有云启动本地算法模型训练,并将训练的模型共享给联合模型,联合模型接收工厂共享模型前需要进行模型验证,如果不需要更新现有模型将不更新,是利用工厂共享的信息对现有模型进行优化更新,在对应多个工厂端的共享的时候会利用多个工厂的共享信息进行模型优化。联合模型会定期向(多个)工厂端推送联合模型,工厂端接到推送会进行模型验证,如果推送模型优于现有本地模型,对本地模型进行迭代更新,否则更新现有本地模型,持续的进行本地训练。推送过程是各本地模型在不断进行学习的过程中将学习后更新的参数实时地推送给联合模型进行参数更新,联合模型根据实时参数更新后,将更新后的模型参数反向推送给各工厂端,这些参数基于统一的定义规则,工厂本地端的算法模型不断的伴随联合模型的更新推送迭代更新。
91.本实施例技术方案主要采用联邦学习、分布式计算、算法模型联合整合等技术,联合模型可置于公有云上,各地无需共享数据,只需共享数据模型,通过公有云不断优化联合
模型在共享给各地做持续模型优化。整个流程数据不出厂,共享本地数据模型训练结果提升工业ai技术落地的使用效果。在保证工业数据安全的同时,在不需要开放数据的前提下,满足了工业数据模型持续优化,提升ai技术在工业应用中的使用效果。
92.作为上述各图所示方法的实现,本技术提供了一种基于联邦学习的模型训练装置的一个实施例,图4示出了本实施例提供的一种基于联邦学习的模型训练装置的结构示意图,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各私有云端服务器中的各种电子设备中。如图4所示,本实施例所述的基于联邦学习的模型训练装置包括本地训练与参数上传单元410、联合模型参数接收单元420和验证与更新单元430。
93.所述本地训练与参数上传单元410被配置为,用于基于本地数据对本地模型进行训练,将训练后的本地模型算法参数发送给公有云端服务器,以使所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数。
94.所述联合模型参数接收单元420被配置为,用于接收所述公有云端服务器推送的更新后的联合模型算法参数。
95.所述验证与更新单元430被配置为,用于若验证需要采用所接收的所述联合模型算法参数更新本地模型,则将本地模型算法参数更新为所接收的联合模型算法参数。
96.根据本公开的一个或多个实施例,所述验证与更新单元430被配置为,还用于:
97.采用先验数据集计算本地模型的效果指标得到第一指标值;
98.将本地模型算法参数替换为所接收的所述联合模型算法参数后,采用所述先验数据集计算替换算法参数后的本地模型的效果指标得到第二指标值;
99.根据所述第一指标值和所述第二指标值的大小确定是否需要采用所接收的所述联合模型算法参数更新本地模型。
100.根据本公开的一个或多个实施例,所述本地训练与参数上传单元410中所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数包括:
101.采用先验数据集计算联合模型的效果指标得到第三指标值;
102.将联合模型的算法参数替换为所接收的所述本地模型算法参数后,采用所述先验数据集计算替换算法参数后的联合模型的效果指标得到第四指标值;
103.根据所述第三指标值和所述第四指标值的大小确定是否需要采用所接收的所述本地模型算法参数更新联合模型。
104.根据本公开的一个或多个实施例,所述效果指标包括准确率和/或召回率。
105.根据本公开的一个或多个实施例,所述装置还包括初始模型参数接收单元,用于在基于本地数据对本地模型进行训练之前,接收公有云端服务器下发的初始模型算法参数;
106.所述本地训练与参数上传单元用于基于本地数据对本地模型进行训练包括:用于基于所述初始模型算法参数和本地数据对本地模型进行训练。
107.本实施例提供的基于联邦学习的模型训练装置可执行本公开方法实施例所提供的基于联邦学习的模型训练方法,具备执行方法相应的功能模块和有益效果。
108.图5示出了本发明实施例提供的另一种基于联邦学习的模型训练装置的结构示意图,如图5所示,本实施例所述的基于联邦学习的模型训练装置包括初始模型参数接收单元510、本地训练与参数上传单元520、联合模型参数接收单元530和验证与更新单元540。
109.所述初始模型参数接收单元510被配置为,用于接收公有云端服务器下发的初始模型算法参数。
110.所述本地训练与参数上传单元520被配置为,用于基于本地数据对本地模型进行训练包括:用于基于所述初始模型算法参数和本地数据对本地模型进行训练,将训练后的本地模型算法参数发送给公有云端服务器,以使所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数。
111.所述联合模型参数接收单元530被配置为,用于接收所述公有云端服务器推送的更新后的联合模型算法参数。
112.所述验证与更新单元540被配置为,用于若验证需要采用所接收的所述联合模型算法参数更新本地模型,则将本地模型算法参数更新为所接收的联合模型算法参数。
113.根据本公开的一个或多个实施例,所述验证与更新单元540被配置为用于验证是否需要采用所接收的所述联合模型算法参数更新本地模型包括:被配置为用于:
114.采用先验数据集计算本地模型的效果指标得到第一指标值;
115.将本地模型算法参数替换为所接收的所述联合模型算法参数后,采用所述先验数据集计算替换算法参数后的本地模型的效果指标得到第二指标值;
116.根据所述第一指标值和所述第二指标值的大小确定是否需要采用所接收的所述联合模型算法参数更新本地模型。
117.根据本公开的一个或多个实施例,所述本地训练与参数上传单520中所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数包括:
118.采用先验数据集计算联合模型的效果指标得到第三指标值;
119.将联合模型的算法参数替换为所接收的所述本地模型算法参数后,采用所述先验数据集计算替换算法参数后的联合模型的效果指标得到第四指标值;
120.根据所述第三指标值和所述第四指标值的大小确定是否需要采用所接收的所述本地模型算法参数更新联合模型。
121.根据本公开的一个或多个实施例,所述效果指标包括准确率和/或召回率。
122.本实施例提供的基于联邦学习的模型训练装置可执行本公开方法实施例所提供的基于联邦学习的模型训练方法,具备执行方法相应的功能模块和有益效果。
123.下面参考图6,其示出了适于用来实现本发明实施例的电子设备600的结构示意图。本发明实施例中的上述终端设备,例如为移动设备、电脑、或浮动车中内置的车载设备等,或其任意组合。在一些实施例中,移动设备例如可以包括手机、智能家居设备、可穿戴设备、智能移动设备、虚拟现实设备等,或其任意组合。图6示出的电子设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
124.如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(rom)602中的程序或者从存储装置608加载到随机访问存储器(ram)603中的程序而执行各种适当的动作和处理。在ram 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、rom 602以及ram 603通过总线604彼此相连。输入/输出(i/o)接口605也连接至总线604。
125.通常,以下装置可以连接至i/o接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(lcd)、扬声器、振
动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
126.特别地,根据本发明实施例的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明实施例的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从rom 602被安装。在该计算机程序被处理装置601执行时,执行本发明实施例的方法中限定的上述功能。
127.需要说明的是,本发明实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd

rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、rf(射频)等等,或者上述的任意合适的组合。
128.上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
129.上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:基于本地数据对本地模型进行训练,将训练后的本地模型算法参数发送给公有云端服务器,以使所述公有云端服务器验证是否需要采用所接收的所述算法参数更新联合模型算法参数;接收所述公有云端服务器推送的更新后的联合模型算法参数;若验证需要采用所接收的所述联合模型算法参数更新本地模型,则将本地模型算法参数更新为所接收的联合模型算法参数。
130.可以以一种或多种程序设计语言或其组合来编写用于执行本发明实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c ,还包括常规的过程式程序设计语言—诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络包括局
域网(lan)或广域网(wan)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
131.附图中的流程图和框图,图示了按照本发明实施例各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
132.描述于本发明实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
133.以上描述仅为本发明实施例的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本发明实施例中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本发明实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜