一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于PDBN-DNN少样本条件下永磁同步电机的性能预测方法

2022-12-31 16:42:42 来源:中国专利 TAG:

基于pdbn-dnn少样本条件下永磁同步电机的性能预测方法
技术领域
1.本发明属于智能制造领域,尤其是涉及基于pdbn-dnn少样本条件下永磁同步电机的性能预测方法。


背景技术:

2.近年来智能制造已席卷工业、能源、电力等行业,日益成为未来制造业发展的重大趋势和核心内容。电工装备、机械装备等装备行业作为制造业的重点领域,目前也正在向着大数据进发,尤其永磁同步电机性能的分析与优化一直是国内外研究的热点。虽然目前已经有许多成熟的算法并且都已经投入使用,但是其中的弊端也很明显,最大的问题就是许多算法都需要大规模的标注数据,但是获取大量数据这件事情十分耗费物力和财力,针对训练传统深度学习模型需大量数据而永磁同步电机领域目标任务有标签样本量少且不易采集的问题。


技术实现要素:

3.有鉴于此,本发明旨在提出基于pdbn-dnn少样本条件下永磁同步电机的性能预测方法,提供了一种基于pdbn-dnn改进的少样本条件下永磁同步电机深度迁移学习性能预测方法,以解决在样本量不足的情况下,对永磁同步电机性能预测的问题,实验证明本发明提出的方法能够有效预测在少样本情况下对永磁同步电机进行性能预测。
4.为达到上述目的,本发明的技术方案是这样实现的:
5.基于pdbn-dnn少样本条件下永磁同步电机的性能预测方法,包括以下步骤:
6.s1、选择历史电机数据集为源域,目标电机数据集为目标域,其中源域数据全部有标签,目标域数据部分有标签;
7.s2、使用dbn对目标域的无标签样本进行特征自学习;
8.s3、借助源域的有标签样本建立参数共享的预训练深度置信网络;
9.s4、进行模型迁移,使用目标域数据进行适配层训练和全网络微调,得到深度迁移学习模型;
10.s5、将目标电机的设计参数输入建立的深度迁移学习模型中,输出相应的性能数据。
11.进一步,在步骤s1中,使用无标签的目标域样本进行dbn的逐层无监督预训练,得到高度抽象的重要特征;
12.dbn由多个rbm堆叠而成,dbn无监督预训练采用无标签样本作为网络的输入,从rbm出发,通过找出数据的联合概率分布,来自动获取潜藏在数据中难以解读的高层信息。
13.进一步,rbm为基于能量的模型,隐藏层由互不相连的隐藏变量h组成,可观测层由互不相连的可视变量v组成,对于一组状态量(v,h),它的能量函数可以定义为e
θ
(v,h),隐含层与可视层的联合概率分布可以定义为p(v,h),即:
[0014][0015]
式中:
[0016]
vi表示可视变量的状态;
[0017]hj
表示隐藏变量的状态;
[0018]wij
表示可视变量i与隐藏变量j之间的权重;
[0019]ai
(bj)表示可视或隐藏变量的偏置值;
[0020]
θ=(ai,w
ij
,bj)表示rbm模型的参数;
[0021]
表示归一化因子,代表rbm中所有变量能量函数的代数和;
[0022]
由于可视或隐藏变量之间相互独立,因此当已知可视或隐藏变量时,则可计算可视或隐藏变量的条件概率为:
[0023][0024]
式中:σ(
·
)表示rbm的激活函数,采用relu激活函数训练rbm。
[0025]
进一步,采用对比散度算法,结合多次gibbs采样更新迭代rbm模型参数,最终求得rbm最优的参数组合θ,计算方法为:
[0026][0027]
式中:
[0028]
α代表学习率;
[0029]

·

data
代表数据分布的数学期望;
[0030]

·

model
代表模型定义的数学期望。
[0031]
一种电子设备,包括处理器以及与处理器通信连接,且用于存储所述处理器可执行指令的存储器,所述处理器用于执行基于pdbn-dnn少样本条件下永磁同步电机的性能预测方法。
[0032]
一种服务器,包括至少一个处理器,以及与所述处理器通信连接的存储器,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述处理器执行,以使所述至少一个处理器执行基于pdbn-dnn少样本条件下永磁同步电机的性能预测方法。
[0033]
一种计算机可读取存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现基于pdbn-dnn少样本条件下永磁同步电机的性能预测方法。
[0034]
相对于现有技术,本发明所述的基于pdbn-dnn少样本条件下永磁同步电机的性能预测方法具有以下有益效果:
[0035]
(1)dbn的无监督学习使其获得了目标域的重要特征,并用源域有标签样本再训练
建立了参数共享的pdbn-dnn网络;
[0036]
(2)在pdbn-dnn网络的基础上,通过网络冻结、适配层训练和全网络微调建立了模型迁移的tl-dbn-dnn模型;
[0037]
(3)仅使用5%的目标域标注数据时,tl-dbn-dnn模型的精度和传统算法相仿,但减少使用约35%-55%的目标域标注数据。
附图说明
[0038]
构成本发明的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
[0039]
在附图中:
[0040]
图1为本发明一种基于深度迁移学习的预测思路框架图;
[0041]
图2为深度迁移学习模型图;
[0042]
图3为基于pdbn-dnn网络小样本模型迁移图;
[0043]
图4为pdbn-dnn网络结构图;
[0044]
图5为电机性能预测实现流程图。
具体实施方式
[0045]
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
[0046]
下面将参考附图并结合实施例来详细说明本发明。
[0047]
本方案针对现有技术所存在的不足,提出一种少样本条件下永磁同步电机深度迁移学习性能预测方法,本发明方法解决了传统永磁同步电机在标签样本量少且不易采集的情况下不能很好的训练模型的问题,使得在历史电机数据重学习到的知识迁移应用到目标电机性能分析中,使用极少量目标电机有标签样本,建立电机性能预测方法,实现目标电机设计参数与性能数据的映射。在目标电机缺少性能数据标签的情况下,也可以在较短时间内对其性能做出高精度的预测,为永磁同步电机的智能设计与优化提供了新的思路和实践办法。
[0048]
图1为本发明的基于深度迁移学习的预测框架图,选择历史电机数据集为源域,目标电机数据集为目标域。其中源域全部有标注,目标域只有少量标注。
[0049]
通过历史电机的数据样本训练深度学习模型,建立由历史电机设计参数xs至性能数据的ys的非线性映射关系fs:xs→ys
,即为获取的电机性能预测知识。由于历史电机与目标电机的数据之间存在分布差异,历史电机的性能预测知识fs不能准确实现目标电机的性能分析。深度迁移学习能够对不同领域的数据进行有效挖掘和关联,实现知识的迁移和复用。即,深度迁移学习将从历史电机数据中学习到的知识fs,迁移应用到目标电机性能分析中,使用极少量目标电机有标签样本,建立电机性能预测方法,实现目标电机设计参数x
t
与性能数据y
t
的映射。
[0050]
图2为深度迁移学习模型。建模过程主要分为三部分,首先使用dbn对大量目标域无标签样本进行特征自学习;其次借助大量源域有标签样本建立参数共享的预训练深度置信网络(pre-training dbn-dnn,pdbn-dnn);最后进行模型迁移,使用少量目标域有标签数
据进行适配层训练和全网络微调,得到深度迁移学习模型(transfer learning-dbn-dnn,tl-dbn-dnn)。
[0051]
使用大量目标域无标签样本进行dbn的逐层无监督预训练,得到高度抽象的重要特征。目标域一般存在大量无标签样本,进行数据挖掘将有助于揭示特征情况。dbn由多个rbm堆叠而成,具有强大的特征提取能力。dbn无监督预训练是采用无标签样本作为网络的输入,从rbm出发,通过找出数据的联合概率分布,来自动获取潜藏在数据中难以解读的高层信息。可以理解为是一种无监督的数据编码,输出的信息对数据有一定表征作用。
[0052]
rbm是一种基于能量的模型,隐藏层由互不相连的隐藏变量h组成,可观测层由互不相连的可视变量v组成,对于一组状态量(v,h),它的能量函数可以定义为e
θ
(v,h),隐含层与可视层的联合概率分布可以定义为p(v,h),即:
[0053][0054]
式中:vi表示可视变量的状态;hj表示隐藏变量的状态;w
ij
表示可视变量i与隐藏变量j之间的权重;ai(bj)表示可视(隐藏)变量的偏置值,θ=(ai,w
ij
,bj)表示rbm模型的参数,表示归一化因子,代表rbm中所有变量能量函数的代数和。
[0055]
可视(隐藏)变量之间相互独立。因此当已知可视(隐藏)变量时,则可计算隐藏(可视)变量的条件概率为:
[0056][0057]
式中:σ(
·
)表示rbm的激活函数,本文采用relu激活函数训练rbm,一方面能克服梯度消失,极大可能的保留数据信息;另一方面该激活函数会使一些输出为0,使网络具有稀疏性,缓解过拟合问题。
[0058]
为了使网络最终达到平衡状态,本文采用对比散度(contrastive divergence,cd)算法,结合多次gibbs采样更新迭代rbm模型参数,最终求得rbm最优的参数组合θ,计算方法为:
[0059][0060]
式中:
[0061]
α代表学习率;
[0062]

·

data
代表数据分布的数学期望;
[0063]

·

model
代表模型定义的数学期望。
[0064]
使用目标域无标签样本对dbn进行无监督预训练后,在此基础上借助大量源域有标签样本建立参数共享的pdbn-dnn网络。目标域有标签的样本量十分稀少,这部分数据不
足以训练深度学习模型。历史任务中存在大量的具有相似分布的源域数据,因此借助源域有标签样本对网络进行再训练。先将dbn扩展为深度置信网络-深度神经网络(dbn-dnn),然后使用源域数据集对建立的dbn-dnn网络进行训练。在无监督学习阶段,把dbn的每相邻两层都看作不带标签的rbm进行特征学习。在无监督学习完成后,进一步通过有监督学习方法对网络的全部参数进行调优。有监督学习算法选用后向传播(backward propagation,bp)算法从输出层到输入层逐层实现对网络参数的调整。dnn网络设置在dbn网络之后,将最后一层rbm的输出向量作为它的输入向量,对网络进行有监督学习。网络参数训练完成后,得到pdbn-dnn网络,pdbn-dnn的网络结构图如图4所示。
[0065]
在上述训练好的pdbn-dnn网络的基础上,结合少量目标域有标签样本实现模型迁移。由于源域数据与目标域数据存在一定的分布差异,照搬原模型可能会出现不好的学习效果。如何迁移已有知识以适配目标域数据以及最大化目标域数据价值是模型迁移的关键。模型迁移过程,如图3所示。本发明结合迁移学习中的finetune思想,将已训练好的pdbn-dnn网络参数冻结,增加适配层以获得新的学习空间,接着使用少量目标域有标签样本对增加的适配层进行训练。其中增加的批归一化层(batch normalization,bn)能避免前向网络参数变化导致后面网络层输入数据的分布变化,且有利于解决模型因目标域有标签样本少而出现过拟合的问题。在回归器前增加的全连接层(fully connected layer,fc)一方面可以让网络学习新的知识,另一方面也可以通过调节其权值,保存或者舍弃部分源域网络的特征,达到既保存源域有价值信息又能进一步学习目标域信息的目的。网络训练至测试集误差稳定收敛时取消冻结。尽管增加的适配层能够学习目标域信息,可这是建立在源域训练好的模型基础上的,再次利用少量目标域有标签样本以较小的学习率对整个网络进行微调,最终得到能够有效预测目标域数据的深度迁移学习模型tl-dbn-dnn。
[0066]
电机性能预测实现流程,如图5所示。具体预测步骤为:
[0067]
数据采样及预处理:通过pmsm模型得到设计参数与性能数据的样本集,为排除数据的数量级和量纲对预测精度与收敛速度带来的影响,进行数据预处理操作,即将输入、输出矩阵均进行归一化。
[0068]
训练深度迁移学习模型:首先使用目标电机无标签样本对dbn进行无监督预训练;其次使用历史电机的有标签样本建立参数共享的pdbn-dnn网络;最后进行模型迁移,使用少量目标电机的有标签样本完成网络结构的训练与更新,得到最终模型。
[0069]
预测电机性能数据:将目标电机的设计参数输入所建立的tl-dbn-dnn模型,输出其相应的性能数据。
[0070]
结果分析:将预测数据反归一化,得到目标电机性能数据预测值,将预测值与实际值对比,分析误差。
[0071]
下面以电机为例,对pdbn-dnn少样本条件下永磁同步电机的性能预测方法实现进行实例说明。首先进行数据读取,建立历史装备数据集和目标装备数据集。采用三个不同的永磁同步电机,对3个电机依次编号,电机1选取prius2004电机,电机2选取prius2010电机,电机3选取prius2017电机。三个电机关键尺寸对比。其中电机2和电机1相比,整体结构较为相似,两者定子外径及转子外径的尺寸一致,铁心长度和气隙长度有少许差别,均内置“v”型永磁体,但电机2增加了中间磁桥,且转子外圆开有辅助槽。电机3和电机1相比,整体结构相差较大,定子外径及转子外径的尺寸大幅度减小,铁心长度和气隙长度有少许差别,电机
3内置“v 一”型永磁体,增加了中间磁桥,且转子外圆开有辅助槽。
[0072]
在三个永磁同步电机二维有限元仿真模型中各选取6个输入变量,分别为永磁体厚度、永磁体宽度、定子槽高、气隙长度、定子槽口高度、定子槽口宽度。选取的变量均是影响电机性能相对重要的参数,也是优化的重点。选取电机输出功率和转矩脉动两个输出变量作为预测性能数据。得到3个电机的数据量分别各为3072组。
[0073]
电机1与电机2结构较为相似,电机1与电机3结构相差较大。分别将电机1-电机2、电机1-电机3作为相似电机组与差异电机组,使用不同算法模型进行对比验证。
[0074]
分别使用四种算法建立电机性能预测模型:dnn、dbn-dnn、dbn-dnn-finetune、本文方法。其中dnn与dbn-dnn模型使用历史电机数据进行训练,目标电机测试集样本作为测试。dbn-dnn-finetune与所提方法的区别是没有对训练后的pdbn-dnn网络添加适配层,而是在冻结网络层后直接使用少量目标电机有标签样本进行微调,当测试集误差基本不变时完成训练。
[0075]
电机1-电机2为相似电机组,其中电机1为历史电机,电机2为目标电机。设置网络结构时选择隐层数为4,每层的神经元个数为26,20,12,8。dbn无监督预训练使用带动量的随机梯度下降优化器,动量设置为0.4,学习率为0.01,pdbn-dnn训练、适配层训练和全网络微调使用自适应矩估计(adaptive moment estimation,adam)优化器,学习率分别为0.01,0.001和0.0001。仅使用目标电机5%有标签数据参与训练,剩余数据作为测试集。
[0076]
电机2不同模型预测效果对比。深度迁移学习模型的预测误差最小,预测精度最高。dnn模型是由多层自适应的非线性单元组成,具有层内单元无连接,层间单元全连接的特点,通过逐层学习不断减小模型预测误差,泛化能力有限,预测效果最差。dbn-dnn模型通过dbn无监督学习,使用堆叠的rbm进行权重偏置的初始化,学习输入数据特征的耦合关系完成特征提取,为dnn网络训练提供合理的初始参数,相比dnn模型具有更好的非线性拟合能力和泛化能力,故预测误差比dnn模型略低。但dnn和dbn-dnn模型的预测精度均不高,主要是由于在单一任务下学习的特征,在另一任务上泛化时,由于两者存在一定的分布差异,而传统算法模型无法实现跨任务的学习,导致预测精度的显著下降。相比之下,dbn-dnn-finetune模型获得了较好的预测效果,这是因为在训练过程中使用了少量的目标域数据对训练好的pdbn-dnn网络进行微调,然而未能考虑对训练好的pdbn-dnn网络添加或替换适配层,使网络获得新的学习空间,故预测效果也并非最优。
[0077]
电机1-电机3为差异电机组,其中电机1为历史电机,电机3为目标电机。设置网络结构时选择隐层数为5,每层的神经元个数为32,20,16,10,6。dbn无监督预训练使用带动量的随机梯度下降优化器,动量设置为0.4,学习率为0.02,pdbn-dnn训练、适配层训练和参数微调使用adam优化器,学习率分别为0.01,0.002和0.0001。仅使用目标电机5%有标签数据参与训练,剩余数据作为测试集。
[0078]
差异电机组不同模型预测效果对比。四种模型的整体表现与相似电机组相似,深度迁移学习模型预测精度最高,dbn-dnn-finetune预测精度略低,dnn和dbn-dnn模型效果最差。但四种模型预测时彼此间的差距相比于相似电机组被拉大,这是由于差异电机组相较于相似电机组,电机间结构差异程度的增大导致源域和目标域数据分布差异变大。此时dnn和dbn-dnn作为传统的算法模型,已经无法实现对目标电机数据的有效预测。dbn-dnn-finetune模型也无法解决源域和目标域数据分布差异变大的情况,预测效果显著下降。而
本文所提出的深度迁移学习模型的预测误差仍在可接受范围内,能够实现对目标电机性能的有效预测。
[0079]
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
[0080]
在本技术所提供的几个实施例中,应该理解到,所揭露的方法和系统,可以通过其它的方式实现。例如,以上所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。上述单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
[0081]
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。
[0082]
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献