一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种配电网无功优化的方法及装置与流程

2022-02-19 09:00:14 来源:中国专利 TAG:


1.本发明涉及配电网无功优化领域,更具体涉及一种配电网无功优化的方法及装置。


背景技术:

2.大规模分布式电源并入传统配电网对其拓扑结构、运行状态以及控制方法等带来了很大的挑战。为解决分布式电源并网对配电网带来的负面影响。用于改善电网运行状态的电力设备数量逐步增加。配电网无功优化指电力系统安全稳定的前提之下通过调节负荷节点的有功以及无功功率、变压器分接头变比、负荷节点的无功补偿容量等方式使得配电网的电压波动和有功损耗达到最小的过程。
3.传统的无功优化求解方法均需要利用配电网物理模型并将其简化,通过策略迭代的方法找寻最优解。例如中国专利公开号cn110729740a,提供配电网无功优化方法、装置、计算机设备及可读存储介质,该方法包括:获取配电网系统的无功优化模型,根据所述无功优化模型,将所述配电网系统网损优化函数以及离散无功设备动作损失优化函数,转化为所述配电网无功优化对应的马尔科夫决策过程,以状态价值为目标,求解所述马尔科夫决策过程,得到所述离散无功调节设备的配置信息,并根据所述配置信息对所述配电网系统进行配置,以实现配电网系统的无功优化,该方法能够在充分考虑低电压等级电网的低感知度的情况下,不需要对配电网的潮流状态进行建模,就可以实现无忧优化,有效减少了配电网系统网损和电容器动作,从而提高了配电网系统运行的经济性。大规模分布式电源以及电力设备的介入在一定程度上增加了无功优化模型的复杂程度。不仅增加了计算时间,而且计算精度较低。为能够让配电网运行更加安全、经济且稳定,急需一种计算时间短、精度高、且不依赖物理模型的一种新的无功优化方法。
4.近些年来,随着大数据技术在各行各业的快速发展,各领域的专家对大数据技术的重视程度越来越高。配电网在数据采集的过程中涵盖了大量的历史负荷数据。由于负荷数据来源的地理位置相近,因此数据之间的相关性较强。这就使得数据驱动技术在配电网无功优化上的应用成为了可能。数据驱动是指利用深度学习技术,将大量的数据进行分析,从而得出有效的数据信息,用于指导配电网后续无功优化的进程。数据驱动技术在配电网无功优化领域主要分为两大类:相似度匹配算法以及分类器训练算法。前者主要包含了随机矩阵理论,关联法则等,后者主要包含了支持向量机、深度置信网络以及卷积神经网络,上述方法可对传统无功优化方法计算时间问题得以有效解决。利用随机矩阵理论和关联法则虽然可以处理大维数据,但这两种方法处理数据速度较慢,算法收敛性一般。采用svm可以利用cnn进行无功优化,因其网络结构非全连接层可导致在网络计算速度快,但传统的cnn结构忽略了节点之间的拓扑结构,使得配电网的有效信息损失一部分,从而更难使得计算精度得以提升。


技术实现要素:

5.本发明所要解决的技术问题在于现有技术配电网无功优化方法的计算时间长以及精度低的问题。
6.本发明通过以下技术手段实现解决上述技术问题的:一种配电网无功优化的方法,所述方法包括以下步骤:
7.步骤一:将配电网的历史负荷、拓扑数据以及对应的历史无功优化策略输入改进的cnn网络进行特征提取;所述改进的cnn网络包括3个卷积层、3个池化层以及1个全连接层,按照卷积

池化

卷积

池化

卷积

池化

全连接层的方式连接;
8.步骤二:特征提取后的配电网数据中历史负荷、拓扑数据作为dbn网络的输入,对应的历史无功优化策略作为dbn网络的输出,设置网络参数,通过粒子群优化算法不断更新dbn网络连接权重,训练dbn网络,直到达到预设的迭代次数或者网络损耗不变的时候停止训练得到无功优化模型;
9.步骤三:将实时获取的历史负荷、拓扑数据输入无功优化模型,通过已经训练好的无功优化模型,得出实时的无功优化策略,利用实时的无功优化策略对配电网进行无功优化。
10.本发明通过粒子算优化算法自动调整dbn网络连接权重,以历史特征指标为输入,历史无功优化策略为输出运用dbn网络学习特征指标和无功优化策略之间的函数关系得到无功优化模型,再通过当前时刻特征提取后的数据作为输入,通过已经学习好的无功优化模型,得出实时的无功优化策略,模型简单,模型经过训练优化,计算时间短,精度高,改进的cnn网络包括3个卷积层、3个池化层以及1个全连接层,层数相比现有技术更多,更有效的提取原始数据,进一步提高精度。
11.进一步地,所述步骤一包括:
12.将配电网的连接节点关系矩阵结合配电网历史负荷数据形成混合特征矩阵a;
13.通过公式b=a i对混合特征矩阵进行预处理得到邻阶矩阵b,其中a表示配电网的连接节点关系矩阵,i表示单位矩阵;
14.对邻阶矩阵b通过公式进行规范化得到更新后的混合特征矩阵,其中d为对角矩阵;
15.将更新后的混合特征矩阵输入改进的cnn网络进行特征提取。
16.进一步地,所述步骤一中改进的cnn网络中一个卷积层和一个池化层作为单层卷积神经网络,通过错误率最小试选法选出每个单层卷积神经网络中卷积层以及池化层的卷积核大小。
17.更进一步地,所述错误率最小试选法包括:
18.在单层卷积神经网络中先固定卷积核尺寸大小计算改进的cnn网络的错误率,然后不断调整卷积核大小,每一次调整卷积核大小的时候计算改进的cnn网络的错误率,在改进的cnn网络的错误率最小的时候或者达到预设的错误率值的时候停止卷积核大小的调整,将当前得到的卷积核大小作为最终确定的单层卷积神经网络的卷积核大小。
19.进一步地,所述dbn网络包括顺次级联的多个rbm网络和一个bp神经网络。
20.进一步地,所述通过粒子群优化算法不断更新dbn网络连接权重包括:
21.步骤201:设置多组dbn网络连接权重,并且将设置的每组dbn网络连接权重作为一个粒子的粒子值;
22.步骤202:对粒子群各参数进行设置,即粒子的群体规模、学习因子、惯性权重以及最大迭代次数;
23.步骤203:根据粒子值通过公式计算粒子的适应度值,其中,n代表样本数目,m代表粒子维数,p
ij
代表第i个样本中第j维粒子的重构值,t
ij
代表第i个样本中第j维粒子的实际值;
24.步骤204:将每个粒子的适应度值与群体极值p比较,如果当前粒子的适应度值大于群里极值p则当前粒子为最佳粒子,利用最佳粒子对应的dbn网络连接权重对dbn网络进行更新;如果当前粒子的适应度值不大于群里极值p,则更新每个粒子的速度和位置,更新粒子值,返回执行步骤203。
25.进一步地,所述步骤二中每一次更新dbn网络连接权重后将dbn网络的输入输出数据集分成测试集和训练集进行dbn网络训练,测试集与训练集的比例为3:7。
26.本发明还提供一种配电网无功优化的装置,所述装置包括:
27.特征提取模块,用于将配电网的历史负荷、拓扑数据以及对应的历史无功优化策略输入改进的cnn网络进行特征提取;所述改进的cnn网络包括3个卷积层、3个池化层以及1个全连接层,按照卷积

池化

卷积

池化

卷积

池化

全连接层的方式连接;
28.模型优化模块,用于特征提取后的配电网数据中历史负荷、拓扑数据作为dbn网络的输入,对应的历史无功优化策略作为dbn网络的输出,设置网络参数,通过粒子群优化算法不断更新dbn网络连接权重,训练dbn网络,直到达到预设的迭代次数或者网络损耗不变的时候停止训练得到无功优化模型;
29.无功优化模块,用于将实时获取的历史负荷、拓扑数据输入无功优化模型,通过已经训练好的无功优化模型,得出实时的无功优化策略,利用实时的无功优化策略对配电网进行无功优化。
30.进一步地,所述特征提取模块还用于:
31.将配电网的连接节点关系矩阵结合配电网历史负荷数据形成混合特征矩阵a;
32.通过公式b=a i对混合特征矩阵进行预处理得到邻阶矩阵b,其中a表示配电网的连接节点关系矩阵,i表示单位矩阵;
33.对邻阶矩阵b通过公式进行规范化得到更新后的混合特征矩阵,其中d为对角矩阵;
34.将更新后的混合特征矩阵输入改进的cnn网络进行特征提取。
35.进一步地,所述特征提取模块中改进的cnn网络中一个卷积层和一个池化层作为单层卷积神经网络,通过错误率最小试选法选出每个单层卷积神经网络中卷积层以及池化层的卷积核大小。
36.更进一步地,所述错误率最小试选法包括:
37.在单层卷积神经网络中先固定卷积核尺寸大小计算改进的cnn网络的错误率,然
后不断调整卷积核大小,每一次调整卷积核大小的时候计算改进的cnn网络的错误率,在改进的cnn网络的错误率最小的时候或者达到预设的错误率值的时候停止卷积核大小的调整,将当前得到的卷积核大小作为最终确定的单层卷积神经网络的卷积核大小。
38.进一步地,所述dbn网络包括顺次级联的多个rbm网络和一个bp神经网络。
39.进一步地,所述通过粒子群优化算法不断更新dbn网络连接权重包括:
40.步骤201:设置多组dbn网络连接权重,并且将设置的每组dbn网络连接权重作为一个粒子的粒子值;
41.步骤202:对粒子群各参数进行设置,即粒子的群体规模、学习因子、惯性权重以及最大迭代次数;
42.步骤203:根据粒子值通过公式计算粒子的适应度值,其中,n代表样本数目,m代表粒子维数,p
ij
代表第i个样本中第j维粒子的重构值,t
ij
代表第i个样本中第j维粒子的实际值;
43.步骤204:将每个粒子的适应度值与群体极值p比较,如果当前粒子的适应度值大于群里极值p则当前粒子为最佳粒子,利用最佳粒子对应的dbn网络连接权重对dbn网络进行更新;如果当前粒子的适应度值不大于群里极值p,则更新每个粒子的速度和位置,更新粒子值,返回执行步骤203。
44.进一步地,所述模型优化模块中每一次更新dbn网络连接权重后将dbn网络的输入输出数据集分成测试集和训练集进行dbn网络训练,测试集与训练集的比例为3:7。
45.本发明的优点在于:本发明通过粒子算优化算法自动调整dbn网络连接权重,以历史特征指标为输入,历史无功优化策略为输出运用dbn网络学习特征指标和无功优化策略之间的函数关系得到无功优化模型,再通过当前时刻特征提取后的数据作为输入,通过已经学习好的无功优化模型,得出实时的无功优化策略,模型简单,模型经过训练优化,计算时间短,精度高,改进的cnn网络包括3个卷积层、3个池化层以及1个全连接层,层数相比现有技术更多,更有效的提取原始数据,进一步提高精度。
附图说明
46.图1为本发明实施例所公开的一种配电网无功优化的方法中改进的cnn网络结构示意图;
47.图2为本发明实施例所公开的一种配电网无功优化的方法中dbn网络结构示意图;
48.图3为本发明实施例所公开的一种配电网无功优化的方法中无功优化模型的数学表示;
49.图4为本发明实施例所公开的一种配电网无功优化的方法的流程图;
50.图5为本发明实施例所公开的一种配电网无功优化的方法中ieee33节点拓扑结构示意图;
51.图6为本发明实施例所公开的一种配电网无功优化的方法与pso、svm、dbn以及cnn的电压偏差对比;
52.图7为本发明实施例所公开的一种配电网无功优化的方法与pso、svm、dbn以及cnn
的网损对比;
53.图8为本发明实施例所公开的一种配电网无功优化的方法与pso、svm、dbn以及cnn的综合函数对比。
具体实施方式
54.为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
55.实施例1
56.如图4所示,一种配电网无功优化的方法,所述方法包括以下步骤:
57.步骤一:将配电网的历史负荷、拓扑数据以及对应的历史无功优化策略输入改进的cnn网络进行特征提取;所述改进的cnn网络包括3个卷积层、3个池化层以及1个全连接层,按照卷积

池化

卷积

池化

卷积

池化

全连接层的方式连接;具体过程为:
58.将配电网的连接节点关系矩阵结合配电网历史负荷数据形成混合特征矩阵a;
59.节点自身不存在连接,零阶矩阵对角线元素显示0,这并不利于后面特征提取计算,为了解决上述问题,将混合特征矩阵a增加单位矩阵,也即通过公式b=a i对混合特征矩阵进行预处理得到邻阶矩阵b,其中a表示配电网的连接节点关系矩阵,i表示单位矩阵;
60.由于零阶矩阵并没有进行规范化,导致在后续的矩阵变换中零阶矩阵和输入特征的差距过大,对深度学习神经网络造成了较大的影响,为解决此类问题,通常将b进行规范处理,对邻阶矩阵b通过公式进行规范化得到更新后的混合特征矩阵,其中d为对角矩阵;对于某时刻而言,邻接矩阵阶数为33*33,负荷为1*33,因此将两者相乘可得到新的特征矩阵,由于在每个时刻邻接矩阵不变,但负荷会不断变化,因而在计算新的特征矩阵时只需要将不同负荷数据和邻接矩阵相乘得到每个时刻的特征矩阵为1*33,便形成了新的混合特征矩阵。将每个时刻的混合特征矩阵进行计算,即可将每个时刻混合特征矩阵数据作为后文cnn模型的初始数据。将更新后的混合特征矩阵输入改进的cnn网络进行特征提取。
61.常规的cnn网络的卷积核通常选取奇数。为了使特征提取效果得到增强,卷积核大小不能过大,范围为1*1,3*3,5*5,7*7,9*9。如图1所示,改进的cnn网络中一个卷积层和一个池化层作为单层卷积神经网络,通过错误率最小试选法选出每个单层卷积神经网络中卷积层以及池化层的卷积核大小,以此确定卷积核范围。所述错误率最小试选法包括:在单层卷积神经网络中先固定卷积核尺寸大小计算改进的cnn网络的错误率,然后不断调整卷积核大小,每一次调整卷积核大小的时候计算改进的cnn网络的错误率,在改进的cnn网络的错误率最小的时候或者达到预设的错误率值的时候停止卷积核大小的调整,将当前得到的卷积核大小作为最终确定的单层卷积神经网络的卷积核大小。本实施例中,步骤(1):在单层卷积神经网络中(c1层和s2层)先固定卷积核尺寸大小,再依次次增加批尺寸数,再改变卷积核大小,重复上述步骤,通过实验结果得出c1和s2最佳卷积核个数以及批尺寸个数。步骤(2):将上层网络中参数作为c3层输入,重复步骤(1),通过实验结果得出c3和s4最佳卷积
核个数以及批尺寸个数。步骤(3):将上层网络中参数作为c5层输入,重复步骤(1),通过实验结果得出c5和s6最佳卷积核个数以及批尺寸个数。
62.步骤二:特征提取后的配电网数据中历史负荷、拓扑数据作为dbn网络的输入,对应的历史无功优化策略作为dbn网络的输出,设置网络参数,通过粒子群优化算法不断更新dbn网络连接权重,训练dbn网络,直到达到预设的迭代次数或者网络损耗不变的时候停止训练得到无功优化模型;配电网无功优化即通过选择合适的无功调节方式,使得配电网的电压波动和网损最小。从函数角度而言,其关键在于如何利用粒子群优化算法优化dbn网络,使得配电网各节点负荷x、拓扑结构a与电力设备状态y之间建立函数映射关系,pso

dbn模型进行无功优化时,通过输入前文改进cnn处理后的历史数据以及历史输出的电力设备控制策略,利用该模型学习负荷、节点的拓扑结构和电力设备控制策略之间的映射关系。再运用cnn处理后的实时数据,通过已经学习好的映射关系得出实时电力设备控制策略。
63.如图2所示,所述dbn网络包括顺次级联的多个rbm网络和一个bp神经网络。每一次更新dbn网络连接权重后将dbn网络的输入输出数据集分成测试集和训练集进行dbn网络训练,测试集与训练集的比例为3:7。
64.在建立dbn模型之初,dbn网络初始权重是通过随机赋值所得出,若赋值不恰当会使得dbn模型在训练中会出现局部收敛现象,因而本文采用粒子群算法对dbn网络初始权重进行优化。所述通过粒子群优化算法不断更新dbn网络连接权重包括:
65.步骤201:设置多组dbn网络连接权重,并且将设置的每组dbn网络连接权重作为一个粒子的粒子值;
66.步骤202:对粒子群各参数进行设置,即粒子的群体规模、学习因子、惯性权重以及最大迭代次数;
67.步骤203:根据粒子值通过公式计算粒子的适应度值,其中,n代表样本数目,m代表粒子维数,p
ij
代表第i个样本中第j维粒子的重构值,t
ij
代表第i个样本中第j维粒子的实际值;
68.步骤204:将每个粒子的适应度值与群体极值p比较,如果当前粒子的适应度值大于群里极值p则当前粒子为最佳粒子,利用最佳粒子对应的dbn网络连接权重对dbn网络进行更新;如果当前粒子的适应度值不大于群里极值p,则更新每个粒子的速度和位置,更新粒子值,返回执行步骤203。
69.步骤三:如图3所示,将实时获取的历史负荷、拓扑数据输入无功优化模型,通过已经训练好的无功优化模型,得出实时的无功优化策略,利用实时的无功优化策略对配电网进行无功优化,其中pso

dbn网络为粒子群算法优化的dbn网络也即无功优化模型。
70.以下通过仿真实验效果证明本发明的效果:如图5所示,本发明以ieee33节点系统作为研究对象,图5对系统的22节点和33节点增加无功补偿,在16到17支路,19到20支路,24到25支路,26到27支路进行变压器分接头变比的调节,历史数据量的大小取两个月,以每小时为计量单位,共1440个样本数据集。
71.为了使得无功优化的效果更好,本发明需要对改进的cnn网络以及粒子群算法优化的dbn网络(pso

dbn)的相关参数进行确定。在改进的cnn特征提取部分,1120组作为训练
集,280组作为测试集。激活函数为relu。根据前文错误率最小试选法步骤对网络参数的特征提取能力进行衡量,c1层在批尺寸为32,卷积核7*7时最小错误率值最小,即为最佳网络参数。同理,c3以及c5层分别在批尺寸在16和32以及卷积核大小为5*5和3*3时为最佳网络参数。在pso

dbn的参数选取部分,粒子群参数不变,对dbn的网络参数进行改进。
72.本发明的方法与pso、svm、dbn以及cnn作为对比,所得结果如图到图所示。图6到图8分别说明了五种优化方法的电压偏差,网损以及综合函数的指标,本发明的方法电压偏差小,网损小,综合函数小说明收敛速度快,计算时间短。
73.通过以上技术方案,本发明首先运用配电网连接节点关系矩阵将节点拓扑结构信息加入网络输入层中,并结合配电网负荷数据形成混合特征矩阵,然后将传统的cnn结构改成lenet7结构以及将节点拓扑结构信息加入到网络输入上,结构相较于传统cnn而言增加了一个隐含层以及池化层,可加强cnn的特征提取能力,通过粒子算优化算法自动调整dbn网络连接权重,以历史特征指标为输入,历史无功优化策略为输出运用dbn网络学习特征指标和无功优化策略之间的函数关系得到无功优化模型,再通过当前时刻特征提取后的数据作为输入,通过已经学习好的无功优化模型,得出实时的无功优化策略,模型简单,模型经过训练优化,计算时间短,精度高,改进的cnn网络包括3个卷积层、3个池化层以及1个全连接层,层数相比现有技术更多,更有效的提取原始数据,进一步提高精度。
74.实施例2
75.基于实施例1,本发明实施例2还提供一种配电网无功优化的装置,所述装置包括:
76.特征提取模块,用于将配电网的历史负荷、拓扑数据以及对应的历史无功优化策略输入改进的cnn网络进行特征提取;所述改进的cnn网络包括3个卷积层、3个池化层以及1个全连接层,按照卷积

池化

卷积

池化

卷积

池化

全连接层的方式连接;
77.模型优化模块,用于特征提取后的配电网数据中历史负荷、拓扑数据作为dbn网络的输入,对应的历史无功优化策略作为dbn网络的输出,设置网络参数,通过粒子群优化算法不断更新dbn网络连接权重,训练dbn网络,直到达到预设的迭代次数或者网络损耗不变的时候停止训练得到无功优化模型;
78.无功优化模块,用于将实时获取的历史负荷、拓扑数据输入无功优化模型,通过已经训练好的无功优化模型,得出实时的无功优化策略,利用实时的无功优化策略对配电网进行无功优化。
79.具体的,所述特征提取模块还用于:
80.将配电网的连接节点关系矩阵结合配电网历史负荷数据形成混合特征矩阵a;
81.通过公式b=a i对混合特征矩阵进行预处理得到邻阶矩阵b,其中a表示配电网的连接节点关系矩阵,i表示单位矩阵;
82.对邻阶矩阵b通过公式进行规范化得到更新后的混合特征矩阵,其中d为对角矩阵;
83.将更新后的混合特征矩阵输入改进的cnn网络进行特征提取。
84.具体的,所述特征提取模块中改进的cnn网络中一个卷积层和一个池化层作为单层卷积神经网络,通过错误率最小试选法选出每个单层卷积神经网络中卷积层以及池化层的卷积核大小。
85.更具体的,所述错误率最小试选法包括:
86.在单层卷积神经网络中先固定卷积核尺寸大小计算改进的cnn网络的错误率,然后不断调整卷积核大小,每一次调整卷积核大小的时候计算改进的cnn网络的错误率,在改进的cnn网络的错误率最小的时候或者达到预设的错误率值的时候停止卷积核大小的调整,将当前得到的卷积核大小作为最终确定的单层卷积神经网络的卷积核大小。
87.具体的,所述dbn网络包括顺次级联的多个rbm网络和一个bp神经网络。
88.具体的,所述通过粒子群优化算法不断更新dbn网络连接权重包括:
89.步骤201:设置多组dbn网络连接权重,并且将设置的每组dbn网络连接权重作为一个粒子的粒子值;
90.步骤202:对粒子群各参数进行设置,即粒子的群体规模、学习因子、惯性权重以及最大迭代次数;
91.步骤203:根据粒子值通过公式计算粒子的适应度值,其中,n代表样本数目,m代表粒子维数,p
ij
代表第i个样本中第j维粒子的重构值,t
ij
代表第i个样本中第j维粒子的实际值;
92.步骤204:将每个粒子的适应度值与群体极值p比较,如果当前粒子的适应度值大于群里极值p则当前粒子为最佳粒子,利用最佳粒子对应的dbn网络连接权重对dbn网络进行更新;如果当前粒子的适应度值不大于群里极值p,则更新每个粒子的速度和位置,更新粒子值,返回执行步骤203。
93.具体的,所述模型优化模块中每一次更新dbn网络连接权重后将dbn网络的输入输出数据集分成测试集和训练集进行dbn网络训练,测试集与训练集的比例为3:7。
94.以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献