一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于深度学习的储罐穹顶位移数据修复方法及装置与流程

2021-12-04 12:21:00 来源:中国专利 TAG:


1.本发明属于储罐穹顶位移数据修复技术领域,涉及一种基于深度学习的储罐穹顶位移数据修复方法及装置。


背景技术:

2.采用位移传感器对于评估lng储罐结构动力响应具有重要意义。但是在振动台实验中,某些位移传感器会发生失效或者异常从而导致数据丢失,这些数据很难恢复。
3.现有的基于人工智能方法对lng储罐结构位移进行预测方法主要分为两种。一种是“浅层”机器学习方法,加速度传感数据具有高度非线性和非高斯性,“浅层”的模型对位移响应的长期预测具有一定的局限性,无法处理海量的监测数据且准确率较低。另一种方法是传统的深度神经网络模型,具有普遍性、效率高等特点,但准确性有待进一步的提高。因此,现有的预测方法无法用于修复传感器的位移数据。


技术实现要素:

4.有鉴于此,本发明的目的在于提供一种基于eemd

1dcnn

lstm模型深度学习的储罐穹顶位移数据修复方法及装置。
5.为达到上述目的,本发明提供如下技术方案:
6.一种基于深度学习的储罐穹顶位移数据修复方法,用于lng储罐穹顶位移数据缺失时的修复,包括以下步骤:
7.步骤s1、将lng储罐穹顶位移数据缺失的测点作为待修复测点,在待修复测点周围选取多个测点作为关联测点,并获取待修复测点在数据缺失时段前某一时段的历史位移数据以及关联测点在对应时段的历史位移数据,通过集合经验模态分解算法将上述测点的历史位移数据分别分解为多个本征模态函数分量;
8.步骤s2、将分解得到的本征模态函数分量作为1dcnn

lstm模型的输入特征,通过1dcnn模型提取关联测点的位移与待修复测点的位移的空间相关性特征,再把提取的空间相关性特征送入到lstm模型,获取时间上的依赖度特性;
9.步骤s3、定义1dcnn

lstm模型的损失函数,当1dcnn

lstm模型的损失函数的值收敛为一个固定值保持不变时,结束训练,得到eemd

1dcnn

lstm模型;
10.步骤s4、获取待修复测点在数据缺失时段前的位移数据以及关联测点在数据缺失时段及数据缺失时段前的位移数据,将上述位移数据输入eemd

1dcnn

lstm模型预测出待修复测点在数据缺失时段的位移数据;将预测出的位移数据作为待修复测点在数据缺失时段的位移数据,完成缺失数据的修复。
11.进一步的,集合经验模态分解算法通过以下步骤实现:
12.步骤s11、选定原始信号的处理次数m;
13.步骤s12、选择m个不同幅值的随机白噪声,将原始信号分别与各个白噪声结合,得到m个新的信号;
14.步骤s13、对m个新的信号分别进行经验模态分解,得到一系列本征模态函数分量;
15.步骤s14、对相应模态的本征模态函数分量分别求均值,得到集合经验模态分解结果。
16.进一步的,m个所述白噪声的尺度呈现均匀分布状态,且其能量在频谱上也呈现均匀分布状态。
17.进一步的,一个测点的位移数据的时间序列形成一维数据;所述一维数据通过eemd分解成多个imf序列,形成二维数据;获取多个关联测点的数据后,形成三维数据,并将所述三维数据作为1dcnn模型的输入特征映射组。
18.进一步的,lstm的单个神经单元的体系结构包括输入门、遗忘门、输出门以及记忆单元,用于实现信息的输入和输出,其运算过程如下:
19.γ
i
=σ(w
i,x
x
t
w
i,h
h
t
‑1 b
i
)
20.γ
f
=σ(w
f,x
x
t
w
f,h
h
t
‑1 b
f
)
21.γ
o
=σ(w
o,x
x
t
w
o,h
h
t
‑1 b
o
)
[0022][0023][0024]
h
t
=γ
o
*tanh(c
t
)
[0025]
其中,w
i,x
、w
i,h
、w
f,x
、w
f,h
、w
o,x
、w
o,h
、w
c,x
、w
c,h
表示权重矩阵;b
i
、b
f
、b
c
、b
o
表示偏置矩阵;x
t
表示时间t时刻的输入特征;c
t
‑1表示更新前的神经元;c
t
表示更新后的神经元;h
t
‑1表示(t

1)时刻的输出特征;h
t
表示t时刻的输出特征;γ
i
表示输入门;γ
f
表示遗忘门;γ
o
表示输出门;为候选神经元;σ为sigmoid函数;tanh为双曲正切函数。
[0026]
进一步的,1dcnn

lstm模型的损失函数l(x,y)定义为:
[0027][0028]
其中,n表示样本的个数,x
i
表示第i个样本的实际值,y
i
表示第i个样本的预测值。
[0029]
一种基于深度学习的储罐穹顶位移数据修复装置,包括:
[0030]
位移数据采集模块,用于实时采集lng储罐穹顶各测点的位移数据并传输到计算分析模块;
[0031]
计算分析模块,用于实时监测lng储罐穹顶各测点的位移数据是否有缺失,当监测到某一测点的位移数据发生缺失时,将位移数据缺失的测点作为待修复测点,并在待修复测点周围选取多个测点作为关联测点,将待修复测点的位移数据和关联测点的位移数据输入eemd

1dcnn

lstm模型,对缺失的位移数据进行预测,使用预测的位移数据对缺失的位移数据进行补全,完成数据修复;以及
[0032]
输出模块,用于输出位移数据采集模块采集的各测点的位移数据,以及待修复测点的修复的位移数据。
[0033]
进一步的,所述计算分析模块包括数据读取单元、监测单元、eemd

1dcnn

lstm模型和存储单元;
[0034]
所述数据读取单元用于读取位移数据采集模块采集的lng储罐穹顶各测点的位移
数据;
[0035]
所述监测单元用于实时监测lng储罐穹顶各测点的位移数据是否有缺失;
[0036]
所述eemd

1dcnn

lstm模型包括集合经验模态分解单元和1dcnn

lstm模型,所述集合经验模态分解单元用于通过集合经验模态分解算法将待修复测点和各关联测点的位移数据分别分解为多个本征模态函数分量,并将各本征模态函数分量形成的向量作为1dcnn

lstm模型的输入特征;所述1dcnn

lstm模型用于根据输入特征预测出待修复测点缺失的位移数据;
[0037]
所述存储单元用于存储位移数据采集模块采集的lng储罐穹顶各测点的位移数据,以及eemd

1dcnn

lstm模型预测的位移数据。
[0038]
进一步的,还包括检测单元和报警单元,所述检测单元用于指定一位移数据正常的测点为待修复测点,并将eemd

1dcnn

lstm模型预测的该测点的位移数据与位移数据采集模块采集的该测点的真实位移数据进行比较,当两者的差值超出预先设置的阈值时,使报警单元输出报警信号,提示预测数据偏移过大。
[0039]
本发明中,将eemd、1dcnn和lstm组合成一个新的模型,其中,eemd能使复杂非线性位移数据分解为有限个频率由高到低的本征模态函数的线性组合,并且分解出来的各imf分量包含了原信号的不同时间尺度的局部特征信号;1dcnn模型具有局部连接、权值共享等特点,能够保留、提取imf之间的空间相关性特征;lstm模型能够充分挖掘变量之间的非线性关系,自适应地感知上下时间序列特性信息;因此,组合的新模型非常适合处理有空间关联的复杂长期时序动态信息,能够大大提高预测精度,非常适合用于cng储罐穹顶缺失位移数据的修复。另外,eemd算法与1dcnn

lstm模型对硬件的要求不高,实现成本低。
附图说明
[0040]
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
[0041]
图1为本发明基于深度学习的储罐穹顶位移数据修复方法的一个优选实施例的流程图;
[0042]
图2为获取待修复测点和关联测点的数据进行预测的示意图;
[0043]
图3为通过eemd算法对数据进行分解的示意图;
[0044]
图4为1dcnn

lstm模型的结构示意图;
[0045]
图5为一维卷积神经网络计算过程的示意图;
[0046]
图6为lstm的单个神经元体系的结构示意图;
[0047]
图7为本发明基于深度学习的储罐穹顶位移数据修复装置的一个优选实施例的结构框图。
具体实施方式
[0048]
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示
意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
[0049]
如图1所示,本发明基于深度学习的储罐穹顶位移数据修复方法的一个优选实施例包括以下步骤:
[0050]
步骤s1、将lng储罐穹顶位移数据缺失的测点作为待修复测点,在待修复测点周围选取多个测点作为关联测点,并获取待修复测点在数据缺失时段前某一时段的历史位移数据以及关联测点在对应时段的历史位移数据。如图2所示,假设待修复测点缺失了时间步t到时间步(t 1)之间的位移数据,则获取待修复测点在时间步t之前k个时间步的位移数据,以及关联测点从时间步(t

k)到时间步(t 1)之间的位移数据。
[0051]
之后,通过eemd(ensembleempirical mode decomposition,集合经验模态分解)算法,将上述测点的历史位移数据分别分解为多个imf(intrinsic mode functions,本征模态函数)分量。imf分量满足以下两个条件:
[0052]
(1)函数在整个时间范围内,极值点个数与过零点个数相等或相差1;
[0053]
(2)在任意时刻点,上包络线和下包络线的均值均为0。
[0054]
如图3所示,集合经验模态分解算法通过以下步骤实现:
[0055]
步骤s11、选定原始信号的处理次数m;
[0056]
步骤s12、选择m个不同幅值的随机白噪声,将原始信号分别与各个白噪声结合,得到m个新的信号n1(t),n2(t),
……
,n
j
(t),
……
,n
m
(t);m个所述白噪声的尺度呈现均匀分布状态,且其能量在频谱上也呈现均匀分布状态。
[0057]
步骤s13、对m个新的信号分别进行emd(empirical mode decomposition,集合经验模态分解),得到一系列imf分量。下面以对n1(t)进行emd为例对emd算法的具体过程进行说明:
[0058]
步骤s131、将n1(t)作为emd的待分解信号x(t)。
[0059]
步骤s132、对待分解信号x(t)进行筛分。筛分的过程就是从待分解信号中减去它的平均包络线函数,得到一个新的函数;具体为:找出待分解信号x(t)所有的极大值点,用三次样条函数拟合成待分解信号x(t)的上包络线;找出待分解信号x(t)所有的极小值点,用三次样条函数拟合成待分解信号x(t)的下包络线;计算上包络线和下包络线的均值得到第一个平均包络线函数m1(t);将待分解信号x(t)减去第一个平均包络线函数m1(t),得到第一个中间分量函数d
1,1
(t)。
[0060]
步骤s133、判断中间分量函数d
1,1
(t)是否满足imf分量的两个条件,如果满足则将d
1,1
(t)记为待分解信号的第一个imf分量imf1(t);如果不满足则继续按步骤s12对d
1,1
(t)进行筛分,直至中间分量函数满足imf分量的条件。假设k次筛分后得到的中间分量函数d
1,k
(t)满足imf分量的条件,则将d
1,k
(t)记为待分解信号的第一个imf分量,对于n1(t),其第一个imf分量记为a
1,1

[0061]
步骤s134、从待分解信号x(t)中减去第一个imf分量,得到第一个剩余分量函数r1(t);将第一个剩余分量函数r1(t)继续按步骤s12和步骤s13进行分解(分解就是通过反复筛分的方式从信号中分解出imf分量),得到第二个imf分量,对于n1(t),其第二个imf分量记为a
2,1
;使用第一个剩余分量函数r1(t)减去第二个imf分量,得到第二个剩余分量函数r2(t)。继续按步骤s12和步骤s13对第二个剩余分量函数r2(t)进行分解;假设经过n次分解
后,得到的第n个剩余分量函数r
n
(t)为单调函数,则停止分解,将剩余分量函数r
n
(t)作为残余量res。如图2所示,此时,将信号n1(t)分解成了n个imf分量(即a
1,1
、a
2,1

……
、a
i,1

……
、a
n,1
)和一个残余量res。
[0062]
按照以上方法,将n2(t)通过emd分解为即a
1,2
、a
2,2

……
、a
i,2

……
、a
n,2

[0063]
……

[0064]
将n
j
(t)通过emd分解为即a
1,j
、a
2,j

……
、a
i,j

……
、a
n,j

[0065]
……

[0066]
将n
m
(t)通过emd分解为即a
1,m
、a
2,m

……
、a
i,m

……
、a
n,m

[0067]
步骤s14、对相应模态的imf分量分别求均值,得到a1、a2、
……
、a
i

……
、a
n
作为最终的imf分量,即为集合经验模态分解结果。求平均值的公式为:
[0068][0069]
从emd的分解过程中可以看出,与傅里叶变换和小波分解相比较,emd不需要设定基函数,具有自适应性,因此适用范围更广泛。将待分解信号x(t)分解后,第一个imf分量包含待分解信号x(t)中的时间尺度最小(频率最高)的成分,随着imf分量阶数的增加,其对应的频率成分逐渐降低,r
n
(t)(即本实施例中的残余量res)的频率成分最低。根据emd分解的收敛条件,分解得到的残余量r
n
(t)为单调函数时,其时间周期将大于信号的记录长度,因此可以将残余量r
n
(t)作为待分解信号x(t)的趋势项。
[0070]
步骤s2、将分解得到的本征模态函数分量(即a1、a2、
……
、a
i

……
、a
n
)作为1dcnn

lstm模型的输入特征,通过1dcnn(一维卷积神经网络)模型提取关联测点的位移与待修复测点的位移的空间相关性特征,再把提取的空间相关性特征送入到lstm(long

short term memory;长短期记忆网络)模型,获取时间上的依赖度特性。如图4所示,所述1dcnn

lstm模型由1dcnn模型和lstm模型拼接而成。
[0071]
cnn被广泛应用于图像处理领域,通常来说,图像是三维数据即x
·
y
·
z,本实施例中使用cnn处理时间序列的信号问题,因此需要将时间序列的信号数据变成三维数据。一个传感器(即测点)的位移数据的时间序列是1d,通过eemd分解成多个imf序列,变成2d数据,同时处理多个传感器,将会再增加一个维度,因此最终可以视为3d数据处理,从面以类似于图像数据的方式进行处理。1dcnn包括卷积层和池化层,其工作原理如下。
[0072]
卷积层的作用是提取一个局部区域的特征,不同的卷积核相当于不同的特征提取器。卷积层的神经元和全连接网络一样都是一维结构。由于卷积网络主要应用在图像处理上,而图像为二维结构,因此为了更充分地利用图像的局部信息,通常将神经元组织为三维结构的神经层,其大小为高度m
×
宽度n
×
深度d,看成是由d个m
×
n大小的二维结构的特征映射构成。
[0073]
特征映射(feature map)为经过卷积提取到的特征,每个特征映射可以作为一类抽取的特征。为了提高卷积网络的表示能力,可以在每一层使用多个不同的特征映射,以更好地表示特征。
[0074]
不失一般性,假设一个卷积层的结构如下:
[0075]
(1)输入特征映射组:为三维张量(tensor);其中,m表示一个传感器
的位移数据包括的时间步个数,n表示传感器位移数据经过一次eemd分解得到的imf分量个数,d表示传感器的个数。每个切片(slice)矩阵为一个输入特征映射,1≤d≤d。
[0076]
(2)输出特征映射组:为三维张量,其中每个切片矩阵为一个输出特征映射,1≤p≤p。
[0077]
(3)卷积核:为四维张量;其中,u表示卷积核的行数,v表示卷积核的列数,例如:u
×
v可取值3
×
5。每个切片矩阵为一个二维卷积核,1≤d≤d;1≤p≤p。
[0078]
为了计算输出特征映射y
p
,用卷积核w
p,1
、w
p,2

……
、w
p,d
分别对输入特征映射x1、x2、
……
、x
d
进行卷积,然后将卷积结果相加,并加上一个标量偏置b得到卷积层的净输入z
p
,这里净输入是指没有经过非线性激活函数的净活性值(net activation)。
[0079]
再经过非线性激活函数后得到输出特征映射y
p

[0080][0081]
y
p
=f(z
p
)
[0082]
其中为三维卷积核;b
p
表示偏置矩阵;f()为非线性激活函数,一般用relu函数。计算过程如图5所示,图中的虚线框表示卷积核。如果希望卷积层输出p个特征映射,可以将上述计算过程重复p次,得到p个输出特征映射y1、y1、
……
、y
p
。在输入为输出为的卷积层中,每一个输出特征映射都需要d个滤波器以及一个偏置。假设每个滤波器的大小为u
×
v,那么共需要p
×
d
×
(u
×
v) p个参数。
[0083]
从上述计算过程可以看出,1dcnn模型具有局部连接、权值共享等特点,能够保留、提取imf之间的空间相关性特征。
[0084]
cnn的输出特征映射z
p
被送入对应的lstm。如图6所示,lstm的单个神经单元的体系结构包括输入门、遗忘门、输出门以及记忆单元,用于实现信息的输入和输出,其运算过程如下:
[0085][0086]
γ
f
=σ(w
f,x
x
t
w
f,h
h
t
‑1 b
f
)
[0087]
γ
o
=σ(w
o,x
x
t
w
o,h
h
t
‑1 b
o
)
[0088][0089][0090]
h
t
=γ
o
*tanh(c
t
)
[0091]
其中,w
i,x
、w
i,h
、w
f,x
、w
f,h
、w
o,x
、w
o,h
、w
c,x
、w
c,h
表示权重矩阵;b
i
、b
f
、b
c
、b
o
表示偏置矩阵;x
t
表示时间t时刻的输入特征,即cnn对应时刻的输出特征映射y
p
;c
t
‑1表示更新前的神经元;c
t
表示更新后的神经元;h
t
‑1表示(t

1)时刻(即上一时刻)的输出特征;h
t
表示t时刻(即当前时刻)的输出特征;γ
i
表示输入门;γ
f
表示遗忘门;γ
o
表示输出门;为候选神经元;σ
为sigmoid函数;tanh为双曲正切函数。
[0092]
lstm神经网络的训练算法的具体为:首先,前向计算每个lstm单元的输出值;然后,反向计算每个lstm单元的误差项,利用相应的误差项计算每个权重的梯度;最后,权重通过梯度下降算法更新。lstm模型能够充分挖掘变量之间的非线性关系,自适应地感知上下时间序列特性信息,非常适合处理复杂的长期时序动态信息。
[0093]
步骤s3、定义1dcnn

lstm模型的损失函数,当1dcnn

lstm模型的损失函数的值收敛为一个固定值保持不变时,结束训练,得到eemd

1dcnn

lstm模型。
[0094]
其中,1dcnn

lstm模型的损失函数l(x,y)可定义为:
[0095][0096]
其中,n表示样本的个数,x
i
表示第i个样本的实际值(即真实值),y
i
表示第i个样本的预测值。
[0097]
当损失函数的值收敛为一个固定值保持不变时,认为此时1dcnn

lstm模型的参数为最优的模型参数,停止模型训练。
[0098]
步骤s4、获取待修复测点在数据缺失时段前的位移数据以及关联测点在数据缺失时段及数据缺失时段前的位移数据,将上述位移数据输入eemd

1dcnn

lstm模型预测出待修复测点在数据缺失时段的位移数据;将预测出的位移数据作为待修复测点在数据缺失时段的位移数据,完成缺失数据的修复。
[0099]
本发明还提供一种基于深度学习的储罐穹顶位移数据修复装置,如附图7所示,本发明基于深度学习的储罐穹顶位移数据修复装置的一个优选实施例包括位移数据采集模块、计算分析模块和输出模块。
[0100]
所述位移数据采集模块用于实时采集lng储罐穹顶各测点的位移数据并传输到计算分析模块;
[0101]
所述计算分析模块用于实时监测lng储罐穹顶各测点的位移数据是否有缺失,当监测到某一测点的位移数据发生缺失时,将位移数据缺失的测点作为待修复测点,并在待修复测点周围选取多个测点作为关联测点,将待修复测点的位移数据和关联测点的位移数据输入eemd

1dcnn

lstm模型,对缺失的位移数据进行预测,使用预测的位移数据对缺失的位移数据进行补全,完成数据修复。
[0102]
所述计算分析模块包括数据读取单元、监测单元、eemd

1dcnn

lstm模型和存储单元。
[0103]
所述数据读取单元用于读取位移数据采集模块采集的lng储罐穹顶各测点的位移数据;优选为采用包括gps数据采集单元和/或北斗定位数据采集单元的模块。
[0104]
所述监测单元用于实时监测lng储罐穹顶各测点的位移数据是否有缺失;
[0105]
所述eemd

1dcnn

lstm模型包括集合经验模态分解单元和1dcnn

lstm模型,所述集合经验模态分解单元用于通过集合经验模态分解算法将待修复测点和各关联测点的位移数据分别分解为多个本征模态函数分量,并将各本征模态函数分量形成的向量作为1dcnn

lstm模型的输入特征;所述1dcnn

lstm模型用于根据输入特征预测出待修复测点缺失的位移数据。
[0106]
所述存储单元用于存储位移数据采集模块采集的lng储罐穹顶各测点的位移数
据,以及eemd

1dcnn

lstm模型预测的位移数据。
[0107]
所述输出模块用于输出位移数据采集模块采集的各测点的位移数据,以及待修复测点的修复的位移数据。所述预测数据输出模块优选为采用可视化模块,例如显示器,以可视的方式输出历史数据和预测数据。
[0108]
为检测模型的预测偏差是否过大,还可包括检测单元和报警单元,所述检测单元用于指定一位移数据正常的测点为待修复测点,通过eemd

1dcnn

lstm模型预测出该测点的位移数据,并将预测的位移数据与位移数据采集模块采集的该测点的真实位移数据进行比较,当两者的差值超出预先设置的阈值时,使报警单元输出报警信号,提示预测数据偏移过大。从而提醒操作人员需要重新对模型进行训练,以提高模型的准确度;从而提醒操作人员可能需要重新对模型进行训练,以提高模型的预测准确度。当然,操作人员不对报警进行处理也不会影响模型工作。
[0109]
本实施例中,分析模块采用eemd算法与1dcnn

lstm模型,对计算和存储能力要求不高,对硬件的要求不高,实现成本低。
[0110]
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献