一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于强化和模仿学习的多微网电能交易的定价策略及系统的制作方法

2021-11-29 13:27:00 来源:中国专利 TAG:


1.本发明属于电力系统数据安全和控制技术领域,涉及一种基于强化和模仿学习的多微网电能交易的定价策略。


背景技术:

2.智能电网是一个典型的信息物理系统(cps),能够实现信息和电力在各实体之间的双向传输,包括发电厂、最终用户和每个终端用户。与传统电网相比,智能电网保证了能源的安全、高效、可靠的分配。微电网作为智能电网中的局部配电系统,因其具有环境友好性和自我可持续性等优点,近年来备受关注。为满足负荷需求,可再生发电机组被集成到微网中。然而,间歇性可再生发电机组由于不可预测的环境因素不能满足微网的负荷需求,特别是在负荷高峰时期,这一现象更为严重。因此,微网仍需要从考虑主电网(mpg)处购电。在主电网和微网之间的电力交易市场中,主电网负责根据定价策略制定交易价格,微网确定电力交易量。因此,主电网的定价策略在智能电网的电力市场中起着重要的作用。一方面,主电网的定价策略在很大程度上决定了能源市场的经济效益。另一方面,主电网的定价策略对需求响应的实现起着重要作用。因此,有必要制定一种既能实现经济利润最大化又能实现需求响应的有效定价策略。
3.博弈论是分析电力市场中主电网和微网之间相互作用过程并制定电价策略的有力工具。主电网

微网电能交易市场可以看作一个典型的斯塔克尔伯格交易模型,主电网作为领导者,各微网作为模型中的跟随者。已有相关研究表明,斯塔克尔伯格博弈模型虽然可以精确地模拟电力交易,但仍存在一个难以解决的问题,即先前的研究是在假定主电网完全了解电力消费者的准确效用函数的基础上制定主电网的定价策略。然而,在现实世界中,这种假设是不切实际的,因为效用函数属于消费者的私人信息,消费者大多不愿意将这些信息泄露给他人。
4.近年来,强化学习(rl)和模仿学习(il)的快速发展使得在不了解微网效用函数的前提下学习定价策略成为了可能。强化学习通过智能体与环境的交互作用来帮助智能体学习最优的行动策略,并被引入到电力市场定价策略学习中。模仿学习方法提供专家知识,允许智能体在学习行动策略时模仿专家行为策略。因此,rl经常与il方法结合使用来提高策略的学习效率。
5.然而,在电力市场中应用基于rl和il(ril)的方法时,仍面临两个主要的挑战:1)微网电力市场环境下的奖励函数由于日结算机制的存在而变得稀疏;其中主电网仅在日结算时获得该天的经济收益,极大地降低了rl方法的学习效率;2)ril方法的性能依赖于专家知识数据集的质量。然而,在智能电网电力交易研究领域,公认的专家数据集较少,这使得il方法难以直接应用于电力市场。


技术实现要素:

6.针对现有技术中存在的问题,本发明的目的在于利用强化和模仿学习算法,为主
电网在主电网

微网电能交易市场中制定最优的定价策略。该方法能够克服奖励函数稀疏,缺少专家数据集等缺点,实现主电网经济效益的最大化。
7.本发明是通过以下技术方案来实现:
8.一种基于强化和模仿学习的多微网电能交易的定价策略,包括以下步骤:
9.步骤1、将能源交易中主电网的定价策略问题转化为马尔科夫博弈模型,定义马尔科夫博弈模型的环境状态、博弈者的行为和奖赏函数;
10.步骤2、构建主电网的深度神经网络,包括策略网络、评判网络、目标策略网络和目标评判网络;
11.策略网络用于根据代理人的行为信息输出定价策略,评判网络用于评判代理人的行为策略,目标网络则用于策略网络和评判网络的更新;
12.步骤3、根据前若干个训练片段的预测平均值并结合大数定律确定当前训练片段微网电能需求预测值;
13.步骤4、根据需求预测值并结合当前电能市场环境状态确定主电网的定价行为;
14.步骤5、根据定价行为确定主电网的奖赏函数;
15.步骤6、将上一时刻的市场环境状态、定价行为、奖赏函数以及当前的环境状态作为过渡集合,采用过渡集合对主电网的策略网络和评判网络进行更新;
16.步骤7、重复步骤3

6,直至完成所有训练片段中所有时刻的主电网策略网络和评判网络的更新,策略网络输出最优的定价策略。
17.优选的,步骤3中微网电能需求预测值的确定方法如下:
[0018][0019]
其中,e为训练片段,为在训练片段e时微网在时刻t的需求量,相应需求量的预测值。
[0020]
优选的,步骤4中确定主电网的定价行为的方法如下:
[0021]
所述主电网观察电能市场当前的环境状态,并依据所观察到的状态以及随机产生的噪声n
t
选择执行定价行为。
[0022]
优选的,所述主电网的定价行为的表达式如下:
[0023]
a
t
=μ(s
t
) u
t
(0,ζ
t
i)
[0024]
其中,u
t
(0,ζ
t
i)是用于确定探索率的随机高斯噪声,s
t
代表当前时刻状态,μ代表策略网络,ζ为初始噪声大小,值为0.95,i代表单位矩阵。
[0025]
优选的,所述过渡集合的表达式如下:
[0026]
{s
t
‑1,a
t
‑1,r
t
‑1s
t
}
[0027]
其中,s
t
‑1为上一时刻的环境状态,a
t
‑1为上一时刻的行为信息,r
t
‑1为上一时刻的奖赏函数,s
t
为当前时刻的环境状态。
[0028]
优选的,所述主电网的策略网络的更新方法如下:
[0029][0030]
其中,θ
u
为策略网络的参数,q(x
j
,a
j
)为评判网络的输出;
[0031]
所述评价网络的更新方法如下:
[0032][0033]
其中f为每次策略训练时选取的数据量,γ为折扣因子,q

(x
j
,a
j
)为目标评判网络的输出。
[0034]
优选的,所述目标策略网络和目标评判网络的参数跟随策略网络和评价网络进行软更新:
[0035]
θ
μ


τθ
μ
(1

τ)θ
μ

[0036]
θ
q


τθ
q
(1

τ)θ
q

[0037]
其中,τ表示软更新参数,τ=1,θ
u

为目标策略网络的参数,θ
q
为评判网络的参数,θ
q

为目标评判网络的参数。
[0038]
优选的,所述深度神经包括普通训练数据库和专家知识训练数据库,步骤7中,当前训练片段结束时,对于训练数据{(x
t
,a
t
,r
t
,x
t 1
),t∈[1,t]},将其加入普通训练数据库,当累计奖赏时,同时将其加入专家知识训练数据库中。
[0039]
优选的,步骤7中在策略训练开始阶段,从专家知识训练数据库选取较多的训练数据,进行下一片段的训练时,减小从专家知识训练数据库选取的训练数据数量,同时增加普通训练数据库选取的训练数据数量。
[0040]
一种基于强化和模仿学习的多微网电能交易的定价策略的系统,包括博弈模块,用于将能源交易中主电网的定价策略问题转化为马尔科夫博弈模型;
[0041]
深度神经网络模块、构建主电网的深度神经网络,包括策略网络、评判网络、目标策略网络和目标评判网络;
[0042]
策略网络用于根据代理人的行为信息输出定价策略,评判网络用于评判代理人的行为策略,目标网络则用于策略网络和评判网络的更新;
[0043]
需求预测模块,用于根据前若干个训练片段的预测平均值并结合大数定律确定当前训练片段微网电能需求预测值;
[0044]
定价行为模块,用于根据需求预测值并结合当前电能市场环境状态确定主电网的定价行为;
[0045]
奖赏模块,用于根据定价行为确定主电网的奖赏函数;
[0046]
训练模块、用于将上一时刻的市场环境状态、定价行为、奖赏函数以及当前的环境状态作为过渡集合对主电网的策略网络和评判网络进行训练更新,策略网络输出最优的定价策略。
[0047]
与现有技术相比,本发明具有以下有益的技术效果:
[0048]
本发明公开了一种基于强化和模仿学习算法的主电网定价策略,该定价策略包括微网电能需求的预测,自生成专家知识模仿学习机制以及策略学习机制,该方法能够在主电网未知各微网效用函数参数的前提下,制定最优的定价策略,从而最大化其个人经济效益,该方法利用强化和模仿学习算法学习最优定价策略,通过实验证明了其在一定的迭代后能够收敛达到至经济效益的最优状态,与其他的策略方法相比,本方法能够最大限度的市场的整体经济效益,实现需求响应,减小电能供应和分配的压力。
附图说明
[0049]
图1为本发明中智能电网下主电网

微网电能交易的市场模型图;
[0050]
图2为本发明中基于强化和模仿学习算法的定价策略算法模型图。
具体实施方式
[0051]
下面结合附图对本发明做进一步的详细说明,所述是对本发明的解释而不是限定。
[0052]
主电网和微网之间的电力交易是一个单领导者多跟随者电能交易市场,其中主电网作为电能交易市场的卖家,扮演领导者的角色,即首先做出定价策略;各微网作为电能交易市场的买家,扮演跟随者的角色,即根据电能价格决定电能购买数量。在该电能交易市场中,主电网需要制定最优的定价策略,从而最大化其经济效益。
[0053]
首先将该电能交易市场建模为一个斯塔克尔博格交易模型,在该模型中,主电网作为博弈模型的领导者,首先制定定价策略;各微网作为博弈模型的跟随者,根据主电网制定的电能价格确定电能交易数量。
[0054]
主电网作为该模型中的领导者需要决定其定价策略从而最大化其经济效益,主电网的目标函数可以表述如下:
[0055][0056]
约束条件为:
[0057]
p
min
≤p
t
≤p
max
[0058]
其中p
t
为所需决定的电能价格,为各微网的电能购买量,ω,β表示主电网生产电能的成本参数,n代表微网的数量。
[0059]
主电网依据一定策略制定电能价格后,各微网决定其能源购买的数量以最大化其经济效益,微网的目标函数表述为:
[0060][0061]
约束条件为:
[0062][0063]
其中表示微网i在t时刻的电能需求量,α为用于描述电能需求与实际购买量存在差异而造成的经济损失,k表示电能需求与实际购买量可能的最大差异值。
[0064]
主电网和各微网之间的电能交易构成了一个斯塔克尔伯格模型,该模型中存在着一个斯塔克尔博格均衡策略,在该均衡策略下,任何参与者都无法通过改变其交易策略提高其个人的经济效益,该均衡策略具体描述如下:
[0065]
对于任意给定的电能价格p
t
,微网i的最优电能购买策略如下:
[0066]
[0067]
首先,对微网的效用函数求导,可以得到其二阶导数为

2α。由于α为正数,其二阶导数为负数,因此其一阶导数单调递减。当一阶导数为0时,当时,一阶导数大于0,当时,一阶导数小于0,因此微网的效用函数先单调递增,后单调递减。考虑到约束条件,当时,其效用函数取得最大值。
[0068]
基于微网最优的电能购买策略,主电网的最优定价策略如下:
[0069][0070]
其中
[0071][0072][0073][0074][0075]
证明:将微网的最优购买策略代入主电网的效用函数,可以得到
[0076][0077]
约束条件不变。
[0078]
将上式转化为拉格朗日等式:
[0079][0080]
kkt条件为:
[0081][0082]
λ1(p
min

p
t
)=0,λ2(p
t

p
max
)=0
[0083]
λ1≤0,λ2≤0
[0084]
对上式进行求解,即可得到
[0085][0086]
其中
[0087][0088][0089]
该均衡策略虽然在理论上是可得的,由于该均衡策略假定主电网已知各微网的效用函数参数,但是在实际场景中由于主电网无法获得各微网效用函数的参数,因此其无法计算最优的定价策略。为了解决这一问题,本文提出了一个基于强化和模仿学习算法的最优定价策略,从而使得主电网在无法获得微网效用函数参数的情况下,同样能够学习到最优定价策略。
[0090]
参阅图1和图2,一种基于强化和模仿学习的多微网电能交易的定价策略,其核心是一个单智能体强化和模仿学习方法,在策略学习开始前,首先需要对马尔科夫决策过程模型和网络模型进行初始化,具体包括以下步骤:
[0091]
步骤1、将能源交易中的定价策略问题转化为马尔科夫博弈模型,定义马尔科夫博弈模型的环境状态、转移概率、博弈者的行为和奖赏函数;
[0092]
为了利用强化学习方法解决定价策略问题,首先需要将该问题建立成一个马尔科夫决策过程模型,对强化学习中所设计的状态,行为等代理人和环境信息进行定义。基于电能交易市场的马尔科夫决策过程模型主要由五个要素构成:
[0093]
1、智能体:主电网;
[0094]
2、环境状态s
t
:时刻t,以及本时刻微网的需求的预测量d
t

[0095]
3、行为a
t
:主电网的在时刻t的定价p
t

[0096]
4、转移概率
[0097]
5、奖赏函数r:主电网在时刻t所获得的个人效益。
[0098]
在智能体与环境的交互中,整条训练轨迹可以表示为x1,a1,r1,x2,a2,r2,k,x
t
,a
t
,r
t
,强化学习方法的目标是学习一个最优行为策略π
*
:s

p(a)从而能够获得最大的累计奖赏其中γ∈[0,1]是折扣因子。
[0099]
步骤2、构建深度神经网络,包括策略网络、评判网络、目标策略网络、目标评判网络、普通训练数据库和专家知识训练数据库。
[0100]
本强化和模仿学习方法框架主要由四类深度神经网络构成:策略网络,评判网络,目标策略网络和目标评判网络。
[0101]
其中,策略网络用于输出代理人的行为信息,评判网络用于评判代理人的行为策略的好坏,目标策略网络和目标评判网络分别用于策略网络和评判网络的更新。在学习过程开始前需要对各个网络进行初始化。
[0102]
本技术所提出的强化和模仿学习算法中,包含两个训练数据库,其中一个作为普通训练数据库,所有训练数据都存储其中。另一个作为专家知识训练数据库,只有训练数据累计奖赏大于某一个阈值时才存储器中。具体的,对于训练数据{(x
t
,a
t
,r
t
,x
t 1
),t∈[1,t]},当累计奖赏时,认为其学习策略很优秀,足以作为专家知识令智能体在策略学习时进行模仿,并将其放入专家知识训练数据库中。
[0103]
深度神经网络的整个学习过程可以分为e个片段,每个片段又可以分为t个时段,该方法的执行主要可分为以下几个步骤:
[0104]
步骤3、根据前若干个训练片段的平均值并结合大数定律确定当前训练片段微网电能需求预测值。
[0105]
对微网的电能需求预测,微网的电能需求量对于主电网的电能调度极为重要,只有根据微网的需求量预测才能对电能的生产安排进行准确的调度。然而在实际场景中,电能需求量是微网的个人信息,在交易前微网往往不愿意对其他用户透露这一信息。为了解决这一问题,采用历史信息对微网进行预测。
[0106]
假设微网i在时刻t的需求量为在某一训练片段e中,为了对其进行预测,可以将这一值近似为前e

1个训练片段中的平均值,根据大数定律,该近似值在训练片段趋于无穷大时等于其真实值。具体地,本发明对微网电能需求预测值按下式进行计算:
[0107][0108]
其中,e为训练片段,为在训练片段e时微网在时刻t的需求量,相应需求量的预测值。
[0109]
步骤4、根据需求预测值并结合当前电能市场环境状态确定主电网的定价行为。
[0110]
在对电能需求的预测后,主电网观察电能市场环境状态,并依据所观察到的状态以及随机产生的噪声n
t
选择执行定价行为,t时刻选取的行为如下:
[0111]
a
t
=μ(s
t
) u
t
(0,ζ
t
i)
[0112]
其中,u
t
(0,ζ
t
i)是用于确定探索率的随机高斯噪声,μ代表策略网络,ζ为初始噪声大小,值为0.95。i代表单位矩阵。。
[0113]
步骤5、根据定价行为确定主电网的奖赏函数,将上一时刻的市场环境状态、行为信息、奖赏函数以及当前的环境状态作为过渡集合用于更新策略网络;
[0114]
在前两个阶段结束后,市场环境的当前状态s
t
,行为信息以及主电网在本时段的奖赏函数可以被确定下来,将从上一时刻到这一时刻的过渡集合{s
t
‑1,a
t
‑1,r
t
‑1s
t
}存储进普通训练数据库中。
[0115]
步骤6、采用过渡集合对主电网的策略网络和评判网络进行更新。
[0116]
在策略训练时,随机选取普通训练数据库和专家知识训练数据库中的数据进行训练。其中,在训练开始阶段,从专家知识训练数据库选取较多的训练数据,以提升学习效率,
随着学习的不断进行,逐渐减小从专家知识训练数据库选取的训练数据数量。
[0117]
策略训练过程中,策略网络按照下式进行更新:
[0118][0119]
其中,θ
u
为策略网络的参数,q(x
j
,a
j
)为评判网络的输出;
[0120]
评价网络按下式进行更新:
[0121][0122]
其中f为每次策略训练时选取的数据量,γ为折扣因子,q

(x
j
,a
j
)为目标评判网络的输出。
[0123]
目标网络参数跟随策略网络和评价网络进行软更新:
[0124]
θ
μ


τθ
μ
(1

τ)θ
μ

[0125]
θ
q


τθ
q
(1

τ)θ
q

[0126]
其中,τ表示软更新参数,τ=1,θ
u

为目标策略网络的参数,θ
q
为评判网络的参数,θ
q

为目标评判网络的参数。
[0127]
步骤7、若时段尚未达到最终时段t,则重复步骤3,否则进入步骤8。
[0128]
步骤8、在该训练片段结束时,对于训练数据{(x
t
,a
t
,r
t
,x
t 1
),t∈[1,t]},当累计奖赏时,认为其学习策略很优秀,足以作为专家知识令智能体在策略学习时进行模仿,并将其放入专家知识训练数据库中。在策略训练时,随机选取普通训练数据库和专家知识训练数据库中的数据进行训练。其中,在训练开始阶段,从专家知识训练数据库选取较多的训练数据,以提升学习效率,随着学习的不断进行,逐渐减小从专家知识训练数据库选取的训练数据数量。
[0129]
为解决日解决机制带来的奖励函数系数的问题,本发明对奖赏函数进行重构,对所有储存在专家知识训练数据库中的非结算时刻的奖赏函数,均设置奖赏函数为r
t
= 1,这保证了任意时刻的训练数据的有效性,能够有效的提升策略学习效率。
[0130]
在该训练片段结束后,若训练片段的执行次数尚未到e,则重新执行步骤3,直至策略更新结束。
[0131]
本发明所述的基于强化和模仿学习算法的主电网定价策略,能够在主电网未知各微网效用函数参数的前提下,制定最优的定价策略,从而最大化其个人经济效益。利用强化和模仿学习算法学习最优定价策略,该策略包含三部分:微网电能需求的预测,自生成专家知识模仿学习机制以及策略学习机制。该方法的输入为策略网络的初始结构,输出是主电网的定价策略。本方法实施简单,实用性强,并且通过实验证明了其在一定的迭代后能够收敛达到至经济效益的最优状态,该方法可以提升电能交易市场的经济效益,提高用户参与个体化电能交易市场的积极性,促进智能电网个体化电能交易的发展。与其他的策略方法相比,本方法能够最大限度的市场的整体经济效益,实现需求响应,减小电能供应和分配的压力。
[0132]
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献