一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种移动边缘计算辅助多层联邦学习方法与流程

2022-07-14 00:30:08 来源:中国专利 TAG:


1.本发明属于新一代信息技术中的无线通信网络应用领域,具体一种高效多层联邦学习设计方法。该发明可以应用于5g无线通信网络以及其它蜂窝通信网络中的传感设备联邦学习过程设计。


背景技术:

2.在车联网、智慧城市、智能家居等现代物联网场景中,越来越多的智能设备可以应用人工智能算法来提供更加人性化的服务。传统的机器学习任务都在一个设备或一个中央节点上处理。例如,作为集中式机器学习方法之一,卷积神经网络通常用于通过使用足够的传感器数据(例如来自手机、相机、雷达等)进行训练来预测交通流量。然而,将所有数据发送到中央要训练的节点会给城市无线网络带来负担。联邦学习可以使每个带有传感器的设备都可以通过机器学习算法在本地训练数据,并将模型参数上传到中央节点进行聚合。这种传统的联邦学习方法通过结合不同类型设备的训练模型参数,显著降低了传输成本,并带来了更加精准的人工智能模型。
3.由于获得高精度的训练结果需要在本地节点和中心节点之间进行多次全局迭代,因此低延迟是联邦学习的关键性能。过去,很多研究都集中在通过调整学习机制来提高联邦学习的效率。然而,在智能车联网网络中,由于车联网设备的计算能力有限以及本地设备与远程数据中心之间的传输距离长,这些方法在训练时间预算下都存在训练精度低和学习性能下降的问题。为了解决这些问题,边缘计算被认为是一种很有前途的分布式计算范式,它允许将延迟敏感和计算密集型任务从分布式移动设备卸载到附近的边缘服务器。通过使用移动边缘服务器辅助联邦学习,利用边缘服务器的计算和存储能力使模型训练更接近车联网设备。
4.dinh等人专注于通过解决由移动边缘服务器和多个用户组成的无线网络中用户数据的异构性来实现联合学习算法。(dinh c t,tran n h,nguyen m n h,et al.federated learning over wireless networks:convergence analysis and resource allocation[j].ieee/acm transactions on networking,2020,29(1):398-409.)nishio等人设计了一种新的联邦学习协议,该协议有效地执行了fl,并允许移动边缘服务器聚合尽可能多的客户端更新并加速性能改进。(nishio t,yonetani r.client selection for federated learning with heterogeneous resources in mobile edge[c]//icc 2019-2019ieee international conference on communications(icc).ieee,2019:1-7.)zhou zhi等人考虑了数据样本传输中的队列和调度策略,以最小化联邦边缘学习中通信和计算的总成本。(z.zhou,s.yang,l.pu and s.yu,"cefl:online admission control,data scheduling,and accuracy tuning for cost-efficient federated learning across edge nodes,"in ieee internet of things journal,vol.7,no.10,
pp.9341-9356,oct.2020,doi:10.1109/jiot.2020.2984332.)xiang ma提出了一种新的调度策略和功率分配方案,以最大化在基于非正交多址(noma)的网络中卸载到边缘计算服务器的数据的总数据速率。(ma x,sun h,hu r q.scheduling policy and power allocation for federated learning in noma based mec[c]//globecom 2020-2020ieee global communications conference.ieee,2020:1-7.)qunsong zeng等人设计了物联网设备和相关移动边缘服务器之间的带宽分配策略,以最大限度地减少联邦学习中设备的总能耗。(zeng q,du y,huang k,et al.energy-efficient radio resource allocation for federated edge learning[c]//2020ieee international conference on communications workshops(icc workshops).ieee,2020:1-6.)尽管上述工作考虑了移动边缘服务器辅助训练进入联邦学习,但他们对于移动边缘服务器的应用仍然像传统的联邦学习一样充当中心节点。其计算能力非常有限,无法满足众多车联网设备的需求。由于车联网设备在现代车联网场景中分布广泛,单一的移动边缘服务器会让设备经历长距离传输和不稳定的无线信道环境。多台移动边缘服务器可以为分布式设备提供合理的平台,以近距离卸载其本地数据并帮助训练大数据样本。此外,联邦学习需要分布式无线设备将模型参数上传到中心节点。中心节点将聚合这些参数以更新全局模型,然后反馈给分布式设备进行下一次迭代。云服务器是一种很有前途的解决方案,可以在多层学习架构中扮演中心节点的角色,因为它具有强大的计算能力来帮助训练和聚合。
[0005]
本发明提出了一种无线局域网的移动边缘服务器辅助多层联邦学习方法,来实现车联网设备在联邦学习中的数据训练。该架构由多个移动边缘服务器和云服务器组成,可以辅助训练和计算。每个移动边缘服务器可以被视为一个分布式节点,用于训练从车联网设备卸载的数据样本,来自车联网设备的数据样本可以部分卸载到移动边缘服务器和云服务器进行联合训练,并将模型参数传输到中央云服务器进行聚合。由于移动边缘服务器允许将计算敏感和延迟敏感的任务从分布式车联网设备卸载到边缘服务器,因此它有可能降低训练延迟的性能,因为部分训练任务被转移到移动边缘服务器和云端。此外,由于联邦学习涉及分布式设备和聚合中心节点之间的学习模型交换,计算和通信资源的合理分配是影响学习效率和准确性的关键问题。因此提出了一个优化问题,通过联合优化计算和通信资源,包括数据卸载率的决策、移动边缘服务器中的计算资源分配和无线传输中的带宽分配,来最小化联邦训练的总延迟。


技术实现要素:

[0006]
为了解决上述传统联邦学习中的问题,本发明提供了一种边缘计算辅助的高效多层联邦学习方法。为达到上述目标,本发明设计了多层联邦学习方法以及合理的计算资源、通信资源分配方案。边缘计算辅助的多层联邦学习方法设计步骤如下:步骤一:车联网设备将需要移动边缘服务器和云服务器辅助计算的数据集卸载到可接入的边缘计算服务器上。同时进行剩余数据集的训练,训练结束后,将训练结果参数发送给云服务器。
[0007]
步骤二:边缘计算服务器接收到来自各个接入的设备训练数据集后,将需要云计算服务器辅助的数据集发送到云服务器,同时训练边缘服务器需要辅助的数据集。训练结束后,将训练结果参数发送给云服务器。
[0008]
步骤三:云服务器接收到需要辅助训练的数据集后,开始训练。训练结束后,等待所有分布式节点的结果都上传到云服务器后进行合并聚合,并将全局训练结果参数返回给各个分布式计算节点。
[0009]
步骤四:根据各层数据发送计算的通信参数以及计算参数,建立系统数学模型,计算产生优化目标。优化目标为最小化各层计算结果到达云服务器的最大时延。优化变量包括卸载数据集大小选择,以及卸载到边缘计算服务器的带宽分配以及边缘计算服务器的计算资源分配。根据环境参数确定约束条件。
[0010]
步骤五:将优化问题转化为二次约束二次规划(qcqp)问题形式。引入辅助变量,将目标函数简化为求解辅助变量最小值。
[0011]
步骤六:将目标函数以及优化变量转换为矩阵表达式。并将约束条件逐一转换成线性矩阵表达式。由于得到的表达式仍然为非凸问题,我们引入新的矩阵变量并放松秩为1的条件,将优化问题转化为半正定规划问题。
[0012]
步骤七:利用yalmip求解器,将目标函数以及约束条件作为输入条件,输出包含优化变量的矩阵结果。将卸载比例分配、带宽分配以及计算资源分配等优化参数从输出的矩阵结果中恢复。
[0013]
步骤八:将计算出的卸载比例分配、带宽分配以及计算资源分配参数结果导入总时延计算模型,产生边缘计算辅助的多层联邦学习资源分配方案。
[0014]
进一步具体地,针对于发明内容的步骤一,假设共有m个边缘计算服务器,j个物联网设备,记为j∈j。物联网设备利用随机梯度下降方法进行本地模型参数训练,具体迭代过程可描述为其中n为本地迭代次序,lj为本地损失函数。最终设备层训练结果到达云服务器的最终时间为包含在设备本地训练的时间和训练结果上传到云端的时间
[0015]
针对于发明内容的步骤二,边缘计算服务器同样利用随机梯度下降方法训练收到的来自接入设备卸载的数据集,最终边缘服务器层训练结果到达云服务器最终时间为包含卸载到边缘计算服务器和云服务器的数据样本在无线网络中的传输时间和数据样本在边缘服务器的计算时间以及训练结果上传到云服务器的时间
[0016]
针对于发明内容的步骤三,云服务器收到需要卸载的数据样本后进行训练,得到最后的训练结果所需要的时延为其中还包含数据样本传输到边缘计算服务器的时间数据样本从边缘计算服务器到云服务器的时间以及数据样本在云服务器训练的时间最终云服务器进行各层训练结果的合并与聚合
得到聚合结果向所有分布式车联网设备广播本轮训练结果。
[0017]
针对于发明内容的步骤四,多层边缘计算服务器辅助联邦学习的总时延取决于各层中最后到达云服务器的时间,所以总时延优化目标为其中uj为卸载比例变量,f
j,m
为计算资源分配变量,b
j,m
为通信带宽分配变量。
[0018]
针对于发明内容的步骤五,引入辅助变量t来代替各层训练结果到达云服务器的时延最大值,即优化目标函数变换为
[0019]
针对于发明内容的步骤六,将优化变量转换为矩阵表达式并将所有约束条件转化为矩阵表达式。为了将优化问题转换为qcqp形式,引入新的变量zj=[wj,1]
t
。目标函数变换为为求解变换后的非凸问题,定义通过去掉zj的秩为1的约束,进而得到优化目标函数变换为
[0020]
针对于发明内容的步骤七,利用求解器yalmip计算得到变量zj后,因为并且zj(9)=1,那么可以从zj(9,i)=zj(i)恢复出原始优化变量。
[0021]
针对于发明内容的步骤八,将计算出的卸载比例变量、计算资源分配变量和带宽资源分配变量结果导入总时延计算模型,得到多层联邦学习的最小时延。
附图说明
[0022]
图1为移动边缘计算辅助高效联邦学习方法设计图;图2为多层联邦学习过程示意图;图3为多层联邦学习时延表达示意图;图4为多层联邦学习方法与传统联邦学习等方法在同样训练精度下时延对比图;图5为多层联邦学习方法与传统联邦学习等方法在同样数据样本数量下时延对比图。
具体实施方式
[0023]
参照图1至图5对本发明实施例做进一步说明。为进一步阐述本发明所采取的技术手段和功效,以下说明中结合实例,对本发明中的具体实施方式,性能进行说明。
[0024]
本实例中公布了一种移动边缘计算辅助高效联邦学习设计方法。附图中展示了本发明说明的实施例,通过本参照附图,来实现本发明的各个方面。以下的构思和实施方式可以采用任意的一种方式来实现,而不仅仅局限于以下所描述的实施方式。
[0025]
本实例采用长度为1km的双向道路,车联网设备随机分布在其中,装备有边缘计算
服务器的无线接入点均匀的分布在整条车道中。云服务器与边缘计算服务器之间利用高速光纤相连。联邦学习任务为图像识别数字。每个车联网设备随机产生10000到50000个数据样本。数据样本大小为2kbits。训练数据样本需要的cpu转数为104到3*104转。边缘计算服务器的计算能力为2ghz,云计算服务器的计算能力为10ghz。
[0026]
每个无线接入点被分配的信道带宽为10mhz,车联网设备发送功率分布在20dbm到50dbm之间,噪声功率σ2为-50dbm。可以得到频率复用时辅助卸载的传输速率,用于计算传输时延输时延信道信息采用模型|h
j,m
|2=g
j,mdj,m-δ
,其中g
j,m
为瑞利衰落参数,路径衰落模型为128.1 37.6log(d
j,m
),d
j,m
是设备与边缘计算服务器之间的距离。
[0027]
假设车联网设备在本地训练、边缘计算服务器上训练和云服务器上训练的数据比例为将优化参数和已知的实验参数带入到各层训练时延表达式中,得出各层训练时延的函数表达式。
[0028]
通过引入辅助参数将时延表达式代入训练时延约束,将优化参数和实验参数带入到边缘计算服务器计算资源约束和通信资源约束中。
[0029]
得出各个约束的矩阵表达式,并进行qcqp问题形式的转换。引入新的变量zj=[wj,1]
t
。目标函数变换为为求解变换后的非凸问题,定义通过去掉zj的秩为1的约束,进而得到优化目标函数变换为
[0030]
将优化目标和约束矩阵表达式代入yalmip求解器中,计算得到变量zj后,因为并且zj(9)=1,那么可以从zj(9,i)=zj(i)恢复出原始优化变量。
[0031]
将得到结果与原最优化问题结合,计算出总体时延性能,根据第二步随机生成训练任务信息,进行1000次计算求解,取平均,得到移动边缘计算辅助高效联邦学习方法设计的平均性能结果,记为multi-layer fl scheme。
[0032]
为了进行性能比较,我们考虑以下情况作为基准方案:1)传统的联邦学习方案:所有数据样本都在本地设备上训练,参数在云服务器上聚合。
[0033]
2)云辅助学习方案:数据样本既可以在设备上训练,也可以在云端训练。聚合将在云服务器上实现。
[0034]
3)中心学习方案:所有数据样本都发送到云服务器进行训练,模型参数在云端聚合。分别记为existing fl scheme,cloud assisted learning scheme和central learning scheme。
[0035]
从图4中可以看出,随着对训练精度的要求增加,总时延增加,本方法优于传统的联邦学习方案和其它联邦学习方案,减小了训练学习时延。
[0036]
在图5中,可以发现,随着训练数据样本数量的增加,总时延增加,本方法优于传统的联邦学习方案和其它联邦学习方案,减小了训练学习时延。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献