一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种负荷预测方法及系统与流程

2021-11-05 21:38:00 来源:中国专利 TAG:


1.本发明涉及电力负荷技术领域,尤其涉及一种负荷预测方法及系统。


背景技术:

2.越来越多可再生能源的加入,给电网带来很大的波动性和不确定性,虚拟电厂(virtual power plants,简称vpp)则可以通过聚合分布式发电、柔性负荷和储能等分布式能源参与电力市场运行,促进供需互动,减少可再生能源随机性和波动性对电力系统的影响。要想实现这个目标,其中最关键的一步则是精准及时的预测单个用户的用电需求,使得vpp提前知道不同用户所需电量是实现其灵活性电力调度的前提与关键所在。
3.现有研究表明,使用深度神经网络进行负荷预测的性能优于其他预测方法,如自回归综合移动平均(auto regressive integrated moving average,简称arima)和支持向量回归(support vector regression,简称svr)方法。尤其是作为时间序列模型的循环神经网络(recurrent neural networks,简称rnns),该神经网络可以根据t时刻之前的数据,预测t时刻即将产生的数据,这一特点非常适用于单个用户的负荷预测问题。然而,现有的基于rnn的负荷预测框架,都是假设将所有数据传输到云服务器上进行模型训练,负荷数据中包含了很多敏感信息,如用电设备使用情况、家庭居住情况和电费账单等,通过网络将这些数据传输出去,会使其面临恶意拦截和滥用,从而导致隐私安全无法被保证。
4.联邦学习(federated learning,简称fl)作为保护用户隐私安全的有效手段最近被广泛关注,最新的研究也提出了基于fl的负荷预测方法,该方法不需要传输原始的用电数据,而只需要传输训练出来的模型参数即可。中心服务器首先将初始化模型参数下发给客户端,客户端进行本地模型训练后,将本地模型上传到中心服务器,中心服务器将所有客户端的本地模型进行聚合再下发给客户端,如此循环下去,直到满足收敛条件为止。该方法是通过聚合用户的模型参数来获取所有用户共享的负荷规律,最终得到的是一个全局的负荷预测模型。然而,从信息的角度来看,vpp中不同的用户设备之间具有很大的异质性,会对fl训练效率带来很大的影响;从能源的角度来看,不同用户的用电行为和规律存在差异化,因此使用fl得到的全局模型对所有的用户进行负荷预测时,会导致负荷预测准确率下降的问题。因此,现在亟需一种负荷预测方法及系统来解决上述问题。


技术实现要素:

5.针对现有技术存在的问题,本发明提供一种负荷预测方法及系统。
6.本发明提供一种负荷预测方法,包括:
7.101,根据当前轮次联邦学习的最优分组匹配策略,每个边缘服务器将对应分组内上一轮次联邦学习得到的本地模型进行聚合,得到每个边缘服务器在当前轮次联邦学习的全局模型,并将各自当前轮次联邦学习的全局模型发送到对应分组的用户终端;
8.102,每个用户终端通过各自的用电负荷数据,对接收到的当前轮次联邦学习的全局模型进行本地训练,得到每个用户终端在当前轮次联邦学习的本地模型;
9.103,根据当前轮次联邦学习得到的全局模型和当前轮次联邦学习得到的每个本地模型之间的模型相似度,以及当前轮次联邦学习的每个用户终端完成本地训练所需的时延,获取下一轮次联邦学习的最优分组匹配策略;
10.104,重复步骤101至步骤103,若满足预设训练条件,得到多组训练好的负荷预测模型,并将训练结束时最后一轮次联邦学习得到的最优分组匹配策略作为目标分组匹配策略;
11.105,基于所述目标分组匹配策略,通过每组训练好的负荷预测模型,对各自组内的用户终端进行负荷预测,得到每个用户终端的负荷预测结果。
12.根据本发明提供的一种负荷预测方法,所述方法还包括:
13.在第一轮联邦学习过程中,通过边缘服务器向每个用户终端发送初始全局模型,所述初始全局模型是由边缘服务器从中心服务器获取得到的;
14.每个用户终端通过各自的用电负荷数据,对接收到的所述初始全局模型进行本地训练,得到每个用户终端的初始本地模型;
15.根据所述初始全局模型和每个初始本地模型之间的模型相似度,以及每个用户终端完成本地训练所需的时延,将每个用户终端划分到对应的边缘服务器,得到后续联邦学习过程中用户终端和边缘服务器之间的初始分组匹配策略。
16.根据本发明提供的一种负荷预测方法,所述根据当前轮次联邦学习得到的全局模型和当前轮次联邦学习得到的每个本地模型之间的模型相似度,以及当前轮次联邦学习的每个用户终端完成本地训练所需的时延,获取下一轮次联邦学习的最优分组匹配策略,包括:
17.在当前轮次联邦学习过程中,以最小化每个边缘服务器的全局模型和每个用户终端的本地模型之间的模型相似度距离,最小化每个用户终端的计算时延和模型参数上传通信时延为优化目标,构建分组匹配策略优化问题,并对所述分组匹配策略优化问题进行求解,得到下一轮次联邦学习的最优分组匹配策略。
18.根据本发明提供的一种负荷预测方法,所述分组匹配策略优化问题的公式为:
[0019][0020]
s.t.
[0021][0022][0023]
其中,r
ik
表示第i个用户终端是否属于第k个边缘服务器,r
ik
取值为1或0;表示本地模型w
i
和边缘服务器上全局模型之间的模型相似度距离,表示在第i个用户终端上进行本地训练所需要的计算时延,表示第i个用户终端和第k个边缘服务器之间的模型参数上传通信时延,t
max
表示最大时延阈值。
[0024]
根据本发明提供的一种负荷预测方法,所述对所述分组匹配策略优化问题进行求
解,得到下一轮次联邦学习的最优分组匹配策略,包括:
[0025]
基于kuhn

munkres匹配算法,对分组匹配策略优化问题进行求解,得到最优分组匹配策略。
[0026]
根据本发明提供的一种负荷预测方法,所述对所述分组匹配策略优化问题进行求解,得到下一轮次联邦学习的最优分组匹配策略,还包括:
[0027]
基于盖尔

沙普利匹配算法,对分组匹配策略优化问题进行求解,得到最优分组匹配策略。
[0028]
根据本发明提供的一种负荷预测方法,所述训练好的负荷预测模型是由长短期记忆网络构建得到的。
[0029]
本发明还提供一种负荷预测系统,包括:
[0030]
组内全局模型发送模块,用于执行步骤101,根据当前轮次联邦学习的最优分组匹配策略,每个边缘服务器将对应分组内上一轮次联邦学习得到的本地模型进行聚合,得到每个边缘服务器在当前轮次联邦学习的全局模型,并将各自当前轮次联邦学习的全局模型发送到对应分组的用户终端;
[0031]
组内本地训练模块,用于执行步骤102,每个用户终端通过各自的用电负荷数据,对接收到的当前轮次联邦学习的全局模型进行本地训练,得到每个用户终端在当前轮次联邦学习的本地模型;
[0032]
最优分组匹配策略计算模块,用于执行步骤103,根据当前轮次联邦学习得到的全局模型和当前轮次联邦学习得到的每个本地模型之间的模型相似度,以及当前轮次联邦学习的每个用户终端完成本地训练所需的时延,获取下一轮次联邦学习的最优分组匹配策略;
[0033]
循环训练模块,用于执行步骤104,重复步骤101至步骤103,若满足预设训练条件,得到多组训练好的负荷预测模型,并将训练结束时最后一轮次联邦学习得到的最优分组匹配策略作为目标分组匹配策略;
[0034]
多分组负荷预测模块,用于执行步骤105,基于所述目标分组匹配策略,通过每组训练好的负荷预测模型,对各自组内的用户终端进行负荷预测,得到每个用户终端的负荷预测结果。
[0035]
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述负荷预测方法的步骤。
[0036]
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述负荷预测方法的步骤。
[0037]
本发明提供的一种负荷预测方法及系统,基于边缘服务器和用户终端之间协同的多分组联邦学习的负荷预测架构,对所有的用户终端进行分组,一个边缘服务器对应一个分组,通过边缘服务器聚合组内多个用户终端的信息,得到属于本组用户终端的负荷预测模型。在保护用户隐私的同时,提出适用于负荷预测的新型联邦学习算法,提升负荷预测的精度,减少模型训练时间具有实际意义,高效精准的负荷预测有助于vpp精细化地感知用户的用电需求,从而实现更加精准及时的调度,以消纳更多的新能源。
附图说明
[0038]
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0039]
图1为本发明提供的负荷预测方法的流程示意;
[0040]
图2为本发明提供的基于边端协同的多分组联邦学习负荷预测架构的示意图;
[0041]
图3为本发明提供的rmse指标对比的实验结果示意图;
[0042]
图4为本发明提供的mape指标对比的实验结果示意图;
[0043]
图5为本发明提供的模型训练时效性对比结果示意图;
[0044]
图6为本发明提供的负荷预测系统的结构示意图;
[0045]
图7为本发明提供的电子设备的结构示意图。
具体实施方式
[0046]
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0047]
虚拟电厂作为解决新能源发电不确定性的有效手段,可以聚合大量分布式电源、负荷和储能等灵活性资源,通过vpp智能管控云平台,对灵活性资源进行调度,以更好的应对新能源发电的实时变化,实现电网中的供需实时平衡。在这个过程中,最关键的是需要预测不同用户负荷需求,以便于更好的制定调度计划。在现有的fl中,可以通过收集分布式终端上的信息,来学习到一个中心化的模型,通过迭代训练,最终得到用于负荷预测的模型。在现有基于fl的负荷预测方法中,一次迭代包含有四个步骤:1、中心服务器初始化一个全局模型并下发给所有的终端设备,在负荷预测的实例中,终端设备可以是智能电表等;2、终端设备通过自己的数据对下发的全局模型进行训练,即智能电表根据本地存储的用电负荷数据进行模型训练,并将本地训练好的模型参数上传到云平台;3、云平台收到本地训练好的模型参数{w1,w2,...,w
m
}后,将其聚合得到一个新的全局模型以上步骤重复迭代直到满足停止条件为止(如达到了期望的精度或者预设的训练时间)。
[0048]
具体地,第i个用户终端上的本地私有数据d
i
为:
[0049][0050]
其中,x
j
表示输入的第j个特征,y
j
表示输入的第j个特征对应的标签值。通过w来表示神经网络模型的参数,l
i
(w)表示数据集上的损失函数。在负荷预测中,损失函数往往用均方误差来表示:
[0051]
[0052]
其中,f(
·
)表示神经网络模型函数。训练的过程就是在上述数据集中最小化损失函数,这个训练过程通常是通过随机梯度下降(stochastic gradient descent,简称sgd)的方法进行求解,即:
[0053][0054]
其中,η表示学习率,即梯度下降算法里的步长,r表示本地训练的轮次。
[0055]
在经过多轮本地训练后,每个终端设备可以得到各自的模型参数w
i
。假设有m个终端设备,终端上的用电负荷数据为在进行负荷预测模型训练时,为了保护用户隐私,这些负荷数据都不能直接上传,中心服务器只能将所有终端设备上训练得到的模型参数进行聚合,通过求平均的方式得到一个全局的具体过程可表示为:
[0056][0057]
由此可见,现有fl最终只能得到一个全局的模型。然而,一方面,每个用户的用电模式具有差异化特点,不同类别的用户所需要的负荷预测模型应该是不一样的,所以在使用现有的fl进行负荷预测,会存在模型异质性的问题,导致模型预测精度低;另一方面,不同终端设备上的计算资源,以及该终端设备和云平台之间的通信时延也存在差异化的特点,所以会存在资源异质性问题,导致模型训练的时延高。
[0058]
图1为本发明提供的负荷预测方法的流程示意图,如图1所示,本发明提供了一种负荷预测方法,包括:
[0059]
步骤101,根据当前轮次联邦学习的最优分组匹配策略,每个边缘服务器将对应分组内上一轮次联邦学习得到的本地模型进行聚合,得到每个边缘服务器在当前轮次联邦学习的全局模型,并将各自当前轮次联邦学习的全局模型发送到对应分组的用户终端;
[0060]
步骤102,每个用户终端通过各自的用电负荷数据,对接收到的当前轮次联邦学习的全局模型进行本地训练,得到每个用户终端在当前轮次联邦学习的本地模型;
[0061]
步骤103,根据当前轮次联邦学习得到的全局模型和当前轮次联邦学习得到的每个本地模型之间的模型相似度,以及当前轮次联邦学习的每个用户终端完成本地训练所需的时延,获取下一轮次联邦学习的最优分组匹配策略;
[0062]
在本发明中,引入边缘服务器,提出了基于多分组fl的负荷预测架构,图2为本发明提供的基于边端协同的多分组联邦学习负荷预测架构的示意图,如图2所示,所有的用户终端(本实施例以智能电表进行说明)会形成总共k个分组,表示为c1,

,c
k
,每个分组对应一个边缘服务器进行联邦学习。在本发明中,在当前轮次联邦学习的分组确定之后,一次迭代包含有四个步骤:1、边缘服务器初始化一个全局模型w
k
发送给对应的本组用户终端,即第k个边缘服务器将自身的全局模型发送到本组内每个用户终端;2、用户终端通过各自的本地数据对该全局模型进行训练,得到一组模型参数并将该参数上传给对应的边缘服务器;3、边缘服务器对本组内上传的这些模型进行聚合,从而形成一个新的全局模型
[0063][0064]
其中,r
ik
表示用户终端i是否属于分组k,即:
[0065][0066]
由于多分组fl把用户终端分成了多个组分别进行fl的训练,所以其中w
i
和之间的距离,要比现有集中式fl中w
i
和之间的距离小。由fl的原理可知,w
i
和之间的距离越小,整体fl的损失函数也就越小,可以提升负荷预测的精度,需要说明的是,在本发明中,通过l2距离计算本地模型与全局模型(聚合模型)之间的距离,通过该距离定义两个模型之间的相似度,距离越小说明两个模型越相似。此外,多分组fl架构还需要最小化模型训练的通信时延和计算时延,从而得到边缘服务器和用户终端之间的优化匹配。
[0067]
步骤104,重复步骤101至步骤103,若满足预设训练条件,得到多组训练好的负荷预测模型,并将训练结束时最后一轮次联邦学习得到的最优分组匹配策略作为目标分组匹配策略。
[0068]
在本发明中,迭代以上步骤,直到满足预设训练条件为之,例如,训练结果满足了所要求的模型准确率,或者训练时间超过了规定的时长。并且,在训练结束之后,也同时确定了边缘服务器和用户终端之间的最终分组,从而在后续的负荷预测中,每个分组的边缘服务器和用户终端进行组内的负荷预测。
[0069]
在上述实施例的基础上,所述方法还包括:
[0070]
在第一轮联邦学习过程中,通过边缘服务器向每个用户终端发送初始全局模型,所述初始全局模型是由边缘服务器从中心服务器获取得到的;
[0071]
每个用户终端通过各自的用电负荷数据,对接收到的所述初始全局模型进行本地训练,得到每个用户终端的初始本地模型;
[0072]
根据所述初始全局模型和每个初始本地模型之间的模型相似度,以及每个用户终端完成本地训练所需的时延,将每个用户终端划分到对应的边缘服务器,得到后续联邦学习过程中用户终端和边缘服务器之间的初始分组匹配策略。
[0073]
在本发明中,在进行上述重复步骤之前,边缘服务器首先从中心服务器获取到一个相同的初始全局模型,在第一轮联邦学习过程中,所有用户终端都会通过边缘服务器获取到该初始全局模型。进一步地,在第一轮联邦学习过程中,每个用户终端均是对这个初始全局模型进行本地训练,进而根据该初始全局模型和每个初始本地模型之间的模型相似度,以及每个用户终端完成本地训练所需的时延,将每个用户终端划分到对应的边缘服务器,得到一个初始分组匹配策略,并将该初始分组匹配策略作为后续循环训练过程。在后续循环训练过程中,中心服务器不再对用户终端的本地模型进行聚合,而是通过每个分组内的边缘服务器进行组内的模型聚合。
[0074]
步骤105,基于所述目标分组匹配策略,通过每组训练好的负荷预测模型,对各自组内的用户终端进行负荷预测,得到每个用户终端的负荷预测结果。
[0075]
在本发明中,每个分组内的边缘服务器和用户终端,对应一个训练好的负荷预测模型,基于该负荷模型,可对差异性较小或用电规律相似的用户终端进行负荷预测。本发明提供的负荷预测方法,可运用于居民用电和企业用电的负荷预测中,实现居民用电和企业用电之间的分组负荷预测,更进一步地,实现不同生活习惯的居民用电分组,和不同生产规律的企业用电分组的负荷预测。需要说明的是,本发明还可以应用于其他负荷预测领域中,例如,电动汽车充电领域中,进行不同类型(例如,私家车充电场和公共交通充电场),不同区域(例如,老城区的充电场和高新区的充电场)的负荷预测。
[0076]
本发明提供的负荷预测方法,基于边缘服务器和用户终端之间协同的多分组联邦学习的负荷预测架构,对所有的用户终端进行分组,一个边缘服务器对应一个分组,通过边缘服务器聚合组内多个用户终端的信息,得到属于本组用户终端的负荷预测模型。在保护用户隐私的同时,提出适用于负荷预测的新型联邦学习算法,提升负荷预测的精度,减少模型训练时间具有实际意义,高效精准的负荷预测有助于vpp精细化地感知用户的用电需求,从而实现更加精准及时的调度,以消纳更多的新能源。
[0077]
在上述实施例的基础上,所述根据当前轮次联邦学习得到的全局模型和当前轮次联邦学习得到的每个本地模型之间的模型相似度,以及当前轮次联邦学习的每个用户终端完成本地训练所需的时延,获取下一轮次联邦学习的最优分组匹配策略,包括:
[0078]
在当前轮次联邦学习过程中,以最小化每个边缘服务器的全局模型和每个用户终端的本地模型之间的模型相似度距离,最小化每个用户终端的计算时延和模型参数上传通信时延为优化目标,构建分组匹配策略优化问题,并对所述分组匹配策略优化问题进行求解,得到下一轮次联邦学习的最优分组匹配策略。
[0079]
在本发明中,针对现有fl的负荷预测中,能源域的模型异质性和信息域的资源异质性问题,将能源域和信息域的问题联合建模,最小化每个用户终端本地模型和组内中心聚合模型之间距离的同时,也最小化模型训练所需的通信和计算时延。其中,模型异质性是指不同类型用户的用电行为不同,所需的负荷预测模型应该是差异化的,然而传统fl只聚合成一个单一的模型;资源异质性是指不同的用户终端的通信和计算资源差异化,会严重影响模型的训练效率。因此,本发明在多分组fl架构下,对能源域和信息域的两个问题进行联合建模。
[0080]
具体地,针对能源域的模型异质性问题,本发明将用户终端划分为具有相似用电模式的多个组,而不是将所有的用户用户一起训练,得到一个全局的负荷预测模型。由于fl中要以保护用户隐私安全为前提,所以不能直接通过用户的负荷数据进行分组,因此本发明通过不同用户终端本地训练出来的模型参数,对用户终端进行分组,以最小化组内全局模型和本地模型之间的距离为优化目标,从而得到最优分组结果,即:
[0081][0082]
其中,dist(
·
)表示一个可以测量本地模型w
i
和边缘服务器上的聚合模型之间的相似程度,该值越小说明两个模型越相似,本发明采用了l2距离进行计算,即:
[0083][0084]
进一步地,针对信息域中资源异质性的问题,由于不同的用户终端上的计算资源
不同,所以每个用户终端完成本地训练的时延将会有很大差异。而且,由于5g等无线通信的低成本、高速率的优势,越来越多的智能终端开始使用无线通信的方式,因此不同设备的位置不同以及发射功率的不同等,都会造成其通信时延的的差异化。针对这一特点,在对用户终端进行分组时,除了要考虑模型参数之间的距离以外,还需要结合当前的资源状况,最小化fl过程中本地更新模型的计算时延,以及用户终端将模型参数上传给边缘服务器的通信时延。需要说明的是,本发明定义边缘服务器的资源是相对充足且稳定的,因此,边缘服务器上进行模型聚合的计算时延和边缘服务器下发模型的通信时延在本发明不作考虑。所以,基于信息域中资源异质性,最小化每个用户终端的计算时延和模型参数上传通信时延为优化目标,表示为:
[0085][0086]
其中,表示在第i个用户终端上进行本地训练所需要的计算时延,表示第i个用户终端和第k个边缘服务器之间的通信时延,即用户终端将模型参数上传到边缘服务器的通信时延,表示为:
[0087][0088]
其中,d表示上传的模型参数大小,p表示用户终端上的发射功率,b表示从用户终端到边缘服务器上传模型的无线信道的带宽,g表示小尺度衰弱下的信道增益,d
ik
表示第i个用户终端和第k个分组边缘服务器之间的距离,a表示路径损耗指数因子,σ2表示噪声功率。
[0089]
综上所述,在进行多分组的fl时,需要联合考虑上述两方面的优化目标。首先,需要最小化分组内全局模型和终端本地模型之间的距离;其次,需要最小化训练时间。因此,该问题可联合建模为:
[0090][0091]
s.t.
[0092][0093][0094][0095]
其中,第一个约束条件表示每个用户终端进行一轮本地训练时,所需要的通信和计算时延要小于一个阈值,即小于最大时延阈值;第二个约束条件表示多个用户终端可以被选择分在一个组,第三个约束条件表示一个用户终端仅能被分在一个分组里。
[0096]
进一步地,本发明在多分组fl负荷预测的架构下,提出了将边缘服务器和用户终端之间的分组匹配策略求解与fl中的参数优化进行交替迭代更新的算法,主要采用了一种
随机最大期望(stoch

astic expectation maximization,简称sem)的优化框架,其主要步骤为:1、固定w
i
,更新边缘服务器和用户终端之间的匹配策略2、基于得到的匹配策略更新得到本组新的初始化全局模型3、基于新的初始化全局模型进行本地模型更新。
[0097]
在上述实施例的基础上,所述对所述分组匹配策略优化问题进行求解,得到下一轮次联邦学习的最优分组匹配策略,包括:基于kuhn

munkres匹配算法,对分组匹配策略优化问题进行求解,得到最优分组匹配策略。
[0098]
在上述实施例的基础上,所述对所述分组匹配策略优化问题进行求解,得到下一轮次联邦学习的最优分组匹配策略,还包括:基于盖尔

沙普利匹配算法,对分组匹配策略优化问题进行求解,得到最优分组匹配策略。
[0099]
在本发明中,可采用两种匹配算法对上述联合建模得到的优化问题进行求解,即基于kuhn

munkres(简称km)匹配算法和盖尔

沙普利匹配算法(gale

shapley,简称gs)分别设计了fl

km算法和fl

gs算法。
[0100]
进一步地,基于每个用户终端上初始化的w
i
以及不同用户终端上进行本地模型训练的计算和通信时延,通过上述匹配算法对问题进行求解,得到边缘服务器和用户终端之间在当前联邦学习的最优分组匹配策略本发明根据拉格朗日乘子法,将上述联合建模得到的优化问题重新表达,得到所述分组匹配策略优化问题的公式为:
[0101][0102]
s.t.
[0103][0104][0105]
其中,r
ik
表示第i个用户终端是否属于第k个边缘服务器,r
ik
取值为1或0;表示本地模型w
i
和边缘服务器上全局模型之间的模型相似度距离,表示在第i个用户终端上进行本地训练所需要的计算时延,表示第i个用户终端和第k个边缘服务器之间的模型参数上传通信时延,t
max
表示最大时延阈值。
[0106]
当采用fl

km匹配算法进行求解时,该算法详细过程如下所示:
[0107]
[0108][0109]
在上述fl

km匹配算法中,首先,边缘服务器将初始化的模型参数w
i
下发给用户终端;然后,通过km匹配算法得到匹配策略r
ik
。具体地,边缘服务器和用户终端之间的匹配可以描述为一个二分图g,其中,一边的顶点代表边缘服务器s
k
,另一边的顶点代表用户终端设备c
i
,由于km匹配算法是最大权值匹配,而本发明是最小化优化目标,因此将s
k
和c
i
之间的边权值设置为优化目标的倒数,即:
[0110][0111]
将二分图中所有的三元组(k,i,weight
ki
)输入到km算法,即可得到最优分组匹配策略r
ik

[0112]
最后,根据得到的最优分组匹配结果r
ik
和w
i
,边缘服务器更新对应分组的全局模型然后,将下发给本组的用户终端,用户终端进行新一轮的本地更新得到新的w
i
,迭代以上过程直到满足循环结束条件为止,如训练满足了所要求的模型准确率或者训练时间超过了预设时长。
[0113]
此外,gs算法作为一种分布式的稳定匹配算法,也可以对上述优化问题进行求解。gs算法主要是根据双方的偏好排名得到最优的匹配策略r
ik
,当采用fl

gs匹配算法进行求解时,该算法详细过程如下所示:
[0114][0115]
在上述fl

gs匹配算法中,对于每个边缘服务器s
k
,以weight
ki
的值降序排序得到偏好列表为e
k
,所有边缘服务器得到的偏好列表集合为e={e1,e2,...,e
k
,...,e
k
};同样地,用户终端得到的偏好列表集合为c={c1,c2,...,c
i
,...,c
m
}。将e和c输入gs算法中,即可得到当前联邦学习的最优分组匹配策略r
ik
。最后,根据得到的最优分组匹配结果r
ik
和w
i
,边缘服务器更新对应分组的全局模型然后,将下发给本组的用户终端,用户终端进行新一轮的本地更新得到新的w
i
,迭代以上过程直到满足循环结束条件为止,如训练满足了所要求的模型准确率或者训练时间超过了预设时长。
[0116]
本发明通过fl

km和fl

gs算法,在fl模型训练的同时,联合优化了边缘服务器和用户终端之间的匹配策略,又可以在新的匹配策略下更高效地对fl模型进行训练,最终在降低模型预测误差的同时,减少模型训练时间。
[0117]
在上述实施例的基础上,所述训练好的负荷预测模型是由长短期记忆网络构建得到的。
[0118]
在本发明中,所训练的预测模型采用基于时间序列的长短期记忆(long short

term memory,简称lstm)神经网络。lstm作为一种有效的rnn架构,是专门用来处理具有时间依赖性的数据的。它能够建立先前信息和当前环境之间的时间相关性,即在t

1时间点所做的决策可能会影响t时间点所作的决策。lstm的这种特性非常适合于单个用户的负荷预测问题,因为有研究表明,用户本身每天的前一段时间的用电量是影响后一段时间用电量的最重要因素之一。
[0119]
同时,lstm保留了rnn时序性特点,也解决了传统rnn在处理长期依赖时存在的梯度消失问题。梯度消失主要是指由于长期时间依赖会使得梯度值很小,导致权重永远不会改变。lstm模型在rnn的基础上增加了输入门、输出门和遗忘门,通过控制哪些记忆信息应该被遗忘。对于短期的负荷预测来说,则可以通过lstm模型从历史数据中形成用户用电模式的抽象,保留有用的记忆信息,对未来的用电情况进行预测。
[0120]
在一实施例中,为了验证本发明提供的负荷预测方法的有效性,使用的验证数据来自爱尔兰能源监管委员会(commission for energy regulation,简称cer)发起的智能计量电力客户行为试验(cbts)。试验于2009年7月1日至2010年12月31日进行,有超过5000名爱尔兰居民消费者和中小企业参与。在本实施例中,随机地选择了其中的60个用户进行分析,每个用户的用电负荷数据为间隔1小时的用电功率。
[0121]
为了进一步的分析,需要对用电负荷数据进行预处理。首先,将用电负荷数据进行归一化为0到1之间的值;然后,将归一化数据的时间序列转换为根据前12个时间点预测下一个时间点的值;最后,将预处理后的数据分为训练集(70%)和测试集(30%)。使用最常用的均方根误差(root mean square error,简称rmse)和平均绝对百分比误差(mean absolute percentage error,简称mape)来评估模型的性能,其中,rmse可以用来定量的衡量预测误差,mape是用来量化相对于真实值的百分比误差,它们的表达式如下:
[0122][0123][0124]
其中,是真实的值,y
i
为预测得到的值,q为预测值的数量,这两个指标都是值越小说明模型性能越好。
[0125]
在本实施例中,仿真实验是在8核、2.1ghz的主频、16g内存的服务器上进行的,该服务器带有2080ti

11g的gpu显卡。使用pytorch 1.7.1的深度学习框架来构建lstm深度神经网络。具体地,假设有3个边缘服务器、60个终端,随机生成边缘服务器的位置,在其周围随机生成用户终端的位置。对于边缘服务器和用户终端之间的通信信道,设置为用户终端向边缘服务器上行的带宽为1mhz,信道增益g的均值为1,路径损耗指数因子a为3.5,噪声功率σ2为10

10
w,每个用户终端上的功率p设置为0.1w到0.2w之间的一个随机值。对于用于终端上的计算时延,随机地设置为1s到10s中的一个值,因为本实施例测试一轮训练在单个gpu上运行需要0.1s,而用户终端的计算能力较弱,所需的计算时延是gpu上的10到100倍。
[0126]
进一步地,本实施例对于负荷预测的深度学习模型使用的是lstm模型,该lstm模型为两层结构,第一层有50个神经元,第二层有100个神经元,最后接一个全连接层。损失函数使用的是均方误差,优化器使用的是自适应矩估计(adam)方法,学习率设置为0.01。由于本实施例主要是为了评估fl的性能,因此对于lstm中的超参数不做过多的分析。
[0127]
通过上述的仿真设置进行仿真实验之后,对仿真结果进行分析。首先,比较所提出的fl

km算法的负荷预测误差,所选择的基准为1、传统的集中式联邦学习(fl):通过聚合不同用户终端上的预测模型,得到一个全局的负荷预测模型;2、基于终端聚类的多中心fl(fl

cluster):在fl的过程中,根据用户终端上的模型参数,对用户终端进行聚类,最终每个类别得到一个预测模型,该方法可以有效解决模型异质性的问题,但是未考虑资源异质性导致的训练效率低的问题。本实施例进一步提出了fl

km和fl

gs算法,不仅解决了模型异质性问题,还考虑了资源异质性,在提升预测准确率的同时也降低了模型训练所需的时延。
[0128]
图3为本发明提供的rmse指标对比的实验结果示意图,如图3所示,横坐标表示fl
的训练轮次,实验结果表明本实施例所提出的fl

km算法相比传统的fl方法,预测误差降低了12.58%、相比fl

cluster预测误差降低了8.11%。此外,fl

gs算法虽然优于其他方法,但性能要低于fl

km算法,主要是因为km算法属于集中式匹配算法,可以根据全局信息进行匹配,而gs算法属于分布式匹配算法,仅根据偏好列表里的信息进行匹配,所以其匹配的性能要比km算法差。但fl

gs算法的性能仍优于fl和fl

cluster算法,可见通过匹配算法和fl的优化过程相结合,可以很好的提升fl中负荷预测模型的精度。
[0129]
图4为本发明提供的mape指标对比的实验结果示意图,如图4所示,fl

km和fl

gs算法在相对于真实值的百分比误差上要优于其他两个基准方法。由此可见,本实施例可以将具有相同数据分布的用户聚集在一个组进行fl,突破了fl下模型异质性的限制,降低了负荷预测的误差。
[0130]
进一步地,在比较训练时效性时,图5为本发明提供的模型训练时效性对比结果示意图,如图5所示,主要对比了fl

km、fl

gs和fl

cluster的性能,横坐标是指在仿真环境下的训练时间。实验结果表明,利用匹配理论驱动下的fl算法和fl

cluster在时间维度上的对比,要比从训练轮次维度上的对比差距更大。由此可见,fl

km、fl

gs通过将计算和通信时延作为匹配的考虑因素,显著的减少了达到某个误差所需要的训练时间。模型训练时效性定量对比结果如表1所示:
[0131]
表1
[0132] t
0.09
(s)t
0.08
(s)t
0.07
(s)fl

cluster3438566314168fl

gs115012931437fl

km4264261364减少百分比87.60%92.47%90.37%
[0133]
其中,t
α
表示当rmse的值达到a时所需的训练时间。实验结果表明,fl

km和fl

gs算法下模型的训练时间要比fl

cluster少,当训练达到误差为0.07时,fl

km所需的训练时间比fl

cluster减少了90.37%。由此可见,本实施例将通信和计算时延作为匹配算法需要考虑的重要因素之一,突破资源异质性对模型训练的约束,显著降低了模型训练时延。
[0134]
本发明提供的负荷预测方法,在保护用户数据隐私安全的同时,提升了负荷预测模型的精度以及训练效率,通过能源域和信息域深度融合的新思路,将能源角度上负荷预测模型的精准拟合与信息角度上通信和计算资源的约束深度融合,提出了能源信息紧耦合下的高效负荷预测方法,为虚拟电厂中的灵活调度决策提供更加精准及时的预测数据支撑。
[0135]
图6为本发明提供的负荷预测系统的结构示意图,如图6所示,本发明提供了一种负荷预测系统,包括组内全局模型发送模块601、组内本地训练模块602、最优分组匹配策略计算模块603、循环训练模块604和多分组负荷预测模块605,其中,组内全局模型发送模块601用于执行步骤101,根据当前轮次联邦学习的最优分组匹配策略,每个边缘服务器将对应分组内上一轮次联邦学习得到的本地模型进行聚合,得到每个边缘服务器在当前轮次联邦学习的全局模型,并将各自当前轮次联邦学习的全局模型发送到对应分组的用户终端;组内本地训练模块602用于执行步骤102,每个用户终端通过各自的用电负荷数据,对接收到的当前轮次联邦学习的全局模型进行本地训练,得到每个用户终端在当前轮次联邦学习
的本地模型;最优分组匹配策略计算模块603用于执行步骤103,根据当前轮次联邦学习得到的全局模型和当前轮次联邦学习得到的每个本地模型之间的模型相似度,以及当前轮次联邦学习的每个用户终端完成本地训练所需的时延,获取下一轮次联邦学习的最优分组匹配策略;循环训练模块604用于执行步骤104,重复步骤101至步骤103,若满足预设训练条件,得到多组训练好的负荷预测模型,并将训练结束时最后一轮次联邦学习得到的最优分组匹配策略作为目标分组匹配策略;多分组负荷预测模块605用于执行步骤105,基于所述目标分组匹配策略,通过每组训练好的负荷预测模型,对各自组内的用户终端进行负荷预测,得到每个用户终端的负荷预测结果。
[0136]
本发明提供的负荷预测系统,基于边缘服务器和用户终端之间协同的多分组联邦学习的负荷预测架构,对所有的用户终端进行分组,一个边缘服务器对应一个分组,通过边缘服务器聚合组内多个用户终端的信息,得到属于本组用户终端的负荷预测模型。在保护用户隐私的同时,提出适用于负荷预测的新型联邦学习算法,提升负荷预测的精度,减少模型训练时间具有实际意义,高效精准的负荷预测有助于vpp精细化地感知用户的用电需求,从而实现更加精准及时的调度,以消纳更多的新能源。
[0137]
本发明提供的系统是用于执行上述各方法实施例的,具体流程和详细内容请参照上述实施例,此处不再赘述。
[0138]
图7为本发明提供的电子设备的结构示意图,如图7所示,该电子设备可以包括:处理器(processor)701、通信接口(communicationsinterface)702、存储器(memory)703和通信总线704,其中,处理器701,通信接口702,存储器703通过通信总线704完成相互间的通信。处理器701可以调用存储器703中的逻辑指令,以执行负荷预测方法,该方法包括:101,根据当前轮次联邦学习的最优分组匹配策略,每个边缘服务器将对应分组内上一轮次联邦学习得到的本地模型进行聚合,得到每个边缘服务器在当前轮次联邦学习的全局模型,并将各自当前轮次联邦学习的全局模型发送到对应分组的用户终端;102,每个用户终端通过各自的用电负荷数据,对接收到的当前轮次联邦学习的全局模型进行本地训练,得到每个用户终端在当前轮次联邦学习的本地模型;103,根据当前轮次联邦学习得到的全局模型和当前轮次联邦学习得到的每个本地模型之间的模型相似度,以及当前轮次联邦学习的每个用户终端完成本地训练所需的时延,获取下一轮次联邦学习的最优分组匹配策略;104,重复步骤101至步骤103,若满足预设训练条件,得到多组训练好的负荷预测模型,并将训练结束时最后一轮次联邦学习得到的最优分组匹配策略作为目标分组匹配策略;105,基于所述目标分组匹配策略,通过每组训练好的负荷预测模型,对各自组内的用户终端进行负荷预测,得到每个用户终端的负荷预测结果。
[0139]
此外,上述的存储器703中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read

onlymemory)、随机存取存储器(ram,randomaccessmemory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0140]
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的负荷预测方法,该方法包括:101,根据当前轮次联邦学习的最优分组匹配策略,每个边缘服务器将对应分组内上一轮次联邦学习得到的本地模型进行聚合,得到每个边缘服务器在当前轮次联邦学习的全局模型,并将各自当前轮次联邦学习的全局模型发送到对应分组的用户终端;102,每个用户终端通过各自的用电负荷数据,对接收到的当前轮次联邦学习的全局模型进行本地训练,得到每个用户终端在当前轮次联邦学习的本地模型;103,根据当前轮次联邦学习得到的全局模型和当前轮次联邦学习得到的每个本地模型之间的模型相似度,以及当前轮次联邦学习的每个用户终端完成本地训练所需的时延,获取下一轮次联邦学习的最优分组匹配策略;104,重复步骤101至步骤103,若满足预设训练条件,得到多组训练好的负荷预测模型,并将训练结束时最后一轮次联邦学习得到的最优分组匹配策略作为目标分组匹配策略;105,基于所述目标分组匹配策略,通过每组训练好的负荷预测模型,对各自组内的用户终端进行负荷预测,得到每个用户终端的负荷预测结果。
[0141]
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的负荷预测方法,该方法包括:101,根据当前轮次联邦学习的最优分组匹配策略,每个边缘服务器将对应分组内上一轮次联邦学习得到的本地模型进行聚合,得到每个边缘服务器在当前轮次联邦学习的全局模型,并将各自当前轮次联邦学习的全局模型发送到对应分组的用户终端;102,每个用户终端通过各自的用电负荷数据,对接收到的当前轮次联邦学习的全局模型进行本地训练,得到每个用户终端在当前轮次联邦学习的本地模型;103,根据当前轮次联邦学习得到的全局模型和当前轮次联邦学习得到的每个本地模型之间的模型相似度,以及当前轮次联邦学习的每个用户终端完成本地训练所需的时延,获取下一轮次联邦学习的最优分组匹配策略;104,重复步骤101至步骤103,若满足预设训练条件,得到多组训练好的负荷预测模型,并将训练结束时最后一轮次联邦学习得到的最优分组匹配策略作为目标分组匹配策略;105,基于所述目标分组匹配策略,通过每组训练好的负荷预测模型,对各自组内的用户终端进行负荷预测,得到每个用户终端的负荷预测结果。
[0142]
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
[0143]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
[0144]
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管
参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献