一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种地震数据去噪方法与流程

2022-03-19 21:25:33 来源:中国专利 TAG:


1.本发明涉及地震数据采集与处理技术领域,特别是涉及一种地震数据去噪方法。


背景技术:

2.在地震数据采集的过程中,受环境影响通常会产生许多噪音。因为各种噪音的存在,使得地震的偏移和反演过程出现许多的假象,严重影响到后续的处理与解释工作。因此,在进行后续的地震数据处理过程前,需要对噪音进行衰减。传统方法基于滤波的技术对地震数据中被假设为高斯分布的随机噪音进行去除。传统方法中通常使用滤波或预测技术对相干噪音进行衰减。地滚波沿着地表移动,会覆盖浅层反射信号,针对地滚波频率和速度的特性,虽然,传统方法针对地震数据噪音衰减问题提出了许多解决方案,但是仍存在假设不精确以及参数选择不合适等问题,降低地震数据去噪的效率和准确率,从而提升成本。


技术实现要素:

3.本发明的目的是提供一种地震数据去噪方法,能够提高地震数据去噪的精度和效率。
4.为实现上述目的,本发明提供了如下方案:
5.一种地震数据去噪方法,包括:
6.获取包括随机噪音、面波和线性噪音的含噪地震数据;
7.将含噪地震数据输入随机噪音去噪模型,得到第一去噪地震数据;
8.将第一去噪地震数据输入面波去噪模型,得到第二去噪地震数据;
9.将第二去噪地震数据输入线性噪音去噪模型,得到第三去噪地震数据;随机噪音去噪模型、面波去噪模型和线性噪音去噪模型均是利用历史含噪地震数据训练深度学习网络得到的;深度学习网络是通过transformer模型对卷积神经网络进行改进后得到的。
10.根据本发明提供的具体实施例,本发明公开了以下技术效果:
11.本发明提供了一种地震数据去噪方法,通过transformer模型对卷积神经网络进行改进后并训练得到随机噪音去噪模型、面波去噪模型和线性噪音去噪模型对含噪地震数据进行去噪处理,能够提高地震数据去噪的精度和效率。
附图说明
12.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
13.图1为本发明实施例中地震数据去噪方法流程图;
14.图2为本发明实施例中transformer编码器的内部结构示意图;
15.图3为本发明实施例中mlp模块内部结构示意图;
16.图4为本发明实施例中transcnn网络模型结构图;
17.图5为本发明实施例中合成地震数据的训练集;
18.图6为本发明实施例中transcnn对于合成地震数据的去噪结果;
19.图7为本发明实施例中用于测试transcnn的实际地震数据;
20.图8为本发明实施例中transcnn对于实际地震数据的去噪结果;
21.图9为本发明实施例中transcnn对于实际地震数据去除的噪音。
具体实施方式
22.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
23.本发明的目的是提供一种地震数据去噪方法,能够提高地震数据去噪的精度和效率。
24.为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
25.如图1,本发明提供了一种地震数据去噪方法,包括:
26.步骤101:获取包括随机噪音、面波和线性噪音的含噪地震数据;
27.步骤102:将含噪地震数据输入随机噪音去噪模型,得到第一去噪地震数据;
28.步骤103:将第一去噪地震数据输入面波去噪模型,得到第二去噪地震数据;
29.步骤104:将第二去噪地震数据输入线性噪音去噪模型,得到第三去噪地震数据;随机噪音去噪模型、面波去噪模型和线性噪音去噪模型均是利用历史含噪地震数据训练深度学习网络得到的;深度学习网络是通过transformer模型对卷积神经网络进行改进后得到的。
30.在步骤101:之前还包括:
31.构建深度学习网络;
32.获取历史含噪地震数据;
33.去除历史含噪地震数据中的随机噪音,得到第一历史去噪地震数据;
34.以历史含噪地震数据为输入,以第一历史去噪地震数据为输出,对深度学习网络进行训练,得到随机噪音去噪模型。
35.在步骤101:之前还包括:
36.去除第一历史去噪地震数据中的面波,得到第二历史去噪地震数据;
37.以第一历史去噪地震数据为输入,以第二历史去噪地震数据为输出,对深度学习网络进行训练,得到面波去噪模型。
38.在步骤101:之前还包括:
39.去除第二历史去噪地震数据中的线性噪音,得到第三历史去噪地震数据;
40.以第二历史去噪地震数据为输入,以第三历史去噪地震数据为输出,对深度学习网络进行训练,得到线性噪音去噪模型。
41.具体的,深度学习网络包括一个编码器和一个解码器;编码器为基于transformer
模型和卷积神经网络构建混合编码器;解码器为卷积神经网络。
42.对于随机噪音的去除网络,通过含有随机噪音的数据作为输入数据,不含随机噪音的数据作为标签数据,从而训练针对于去除随机噪音的transcnn网络模型。
43.cnn-transformer的结构及特点:
44.卷积神经网络(cnn)善于提取局部特征,却不具备提取全局表征的能力。而transformer模型中,自注意力模块可以很好的捕捉长期特征,也就是说transformer模块更注重全局信息,但是却容易忽略局部特征细节。本发明将transformer结构整合到cnn的网络结构中,可以兼顾全局特征和局部特征。
45.本发明通过transformer模块改进卷积神经网络,从而提升地震数据去噪的效果。也就是说,本发明的权利主要集中在transformer模块在地震数据去噪中的应用。如图2,整个transformer模块由12个encoder block(编码器块)所组成,其中每个encoder block中均含有layer norm层(layer normalization层,线性标准化层)、多头自注意力机制层(msa)、mlp层(多层感知器,即图中的mlp block)及dropout层(dropout层为深度学习术语,随机舍弃,防止过拟合)。
46.具体的编码器块先是一个layer normalization层,其作用是对输入encoder block的数据进行标准化。紧接着是一个多头自注意力机制层,其中msa的数学表达为:
47.multihead(q,k,v)=concat(head1,...,headh)
[0048][0049][0050]
其中,multihead表示多头;q、k、v分别表示注意力机制所有q(即query)的拼接、所有k(即key)的拼接、所有v(即information to be extracted,要提取的信息)的拼接;concat表示拼接;attention表示注意力机制;softmax表示激活函数;为矩阵,head1、headh、headi表示多头注意力机制中的第1、h、i个头;dk表示k的空间维度。
[0051]
然后是通过一个dropout层,然后通过一个残差模块将原始输入数据加到网络生成的中间数据中。紧接着又通过了一个layer normalization层。
[0052]
之后的数据通过一个mlp块。mlp块(mlp block)的具体结构如图3所示。其是由线性层\gelu激活函数层和dropout层组成。其中gelu层(高斯误差线性单元)是一个新的激活函数层,其中引入了随机正则的思想,是一种对神经元输入的概率描述,直观上更符合自然的认识。值得注意的是通过mlp block的输入数据和输出数据的维度是一致的,也就是说mlp block会将输入的数据变化后再还原为原始维度,最后将数据输出。
[0053]
如图2,编码器块中紧接着mlp block的是一个dropout层,最后又是一个残差模块,将msa输出的中间数据与mlp block输出的数据相加得到最终的encoder block的输出结果。而transformer的结构就是encoder block的重复堆叠12次。
[0054]
此外,本发明将transformer与cnn网结合,更好的为地震数据去噪服务。首先,本发明并没有将transformer作为纯编码器使用,而是将其与cnn相结合构建的混合编码器。
混合编码器的含义是transcnn网络并不是直接对输入数据通过transformer模块进行编码,然后在通过cnn网络解码,还原回原始数据,通过cnn网络提取输入数据的特征,在将特征图送入transformer模块中提取全局特征,最后在通过cnn网络进行解码,从而得到需要的输入数据。具体为将输入数据,通过几层卷积神经网络提取数据的特征,可以得到一个中间特征图(hidden feature),如图4。然后通过线性映射(linear projection)将中间特征图转化为满足transformer模块所需要的维度。然后通过transformer模块得到提取了全局特征的中间特征图,最后通过reshape(重采样)操作将特征转化为cnn网络所需维度,从而实现基于cnn与transformer的混合编码。本发明目的是将输入的含噪音地震数据,通过cnn网络提取隐藏特征,再通过transformer模块进行混合编码,从而得到可以关注全局和局部特征的编码。图4中,noisy date表示含噪数据;clean date表示含噪数据。upsampl表示上采样,downsampl表示下采样。
[0055]
本发明transcnn中的解码结构(decoder block)。在transcnn中的编码结构是将输入数据通过cnn以及transformer混合编码,从而得到一个关注全局及局部特征的编码。而transcnn的解码结构则是将这个混合编码,还原为需要的数据维度,具体为还原成不含噪音的干净地震数据。对于cnn-transformer所得到的隐藏特征序列,我们通过reshape的方式将其还原为接下来的cnn解码器所输入的维度。通过cnn解码器我们将中间层数据最终还原为不含噪音的地震数据。其中,每一个上采样块(upsampling blcok)是由一个2
×
的反池化层,一个3*3的卷积层以及relu层(线性整流函数,rectified linear unit,又称修正线性单元,是一种人工神经网络中常用的激活函数)所组成。此外,对于每个上采样块,transcnn都使用了传统unet(unet为神经网络结构)中的跳跃连接(skip-connections)操作。也就是将之前编码器中对应尺度中的信息引入到上采样模块中。即通过跳跃连接可以更好的将较浅的卷积层特征引入过来,会含有更多的低阶信息。通过这种跳跃连接操作,可以使网络更好地将隐藏特征层转化为最后的干净的地震数据。
[0056]
transcnn的整体结构如图4所示。图4中,feature concatenation为特征层拼接,transcnn由cnn-transformer编码器与cnn解码器构成。cnn-transformer编码器是由三个下采样模块(downsampling block)以及transformer模块所构成。其中每个下采样模块,均由2
×
的池化层,两个3*3的卷积层以及relu层所组成。而transformer层则由12个encoder block所构成。其中最后一个下采样层与transformer层中间,通过线性映射层连接,使最后一个下采样层的输出维度与transformer层的输入维度一致。而cnn-transformer的编码器最后一层则是将transformer模块的输出特征还原为解码器部分所需要的维度。
[0057]
cnn解码器,是由四个上采样模块以及最后一层的单层卷积模块所组成。其中上采样模块是由一个2
×
的反池化层,一个3*3的卷积层以及relu层所组成。而最后一层卷积层则是将多通道数据转化为单通道数据,也就是干净的地震数据,从而实现从含噪音地震数据到干净地震数据的编码解码过程。本发明侧重于transcnn网络对于地震数据噪音衰减工作的应用。针对于地震数据中噪音的衰减工作,具体包括面波,随机噪音及线性噪音的衰减。以下以随机噪音为例测试transcnn网络的噪音衰减性能。面波及线性噪音的基于transcnn网络的衰减理论与随机噪音相同。
[0058]
具体的,如图5,transcnn网络的训练数据集,主要为合成数据集,其中为含
噪音地震数据,为干净地震数据,对于数据集的构建使用了数据增广策略,提升了样本的多样性。
[0059]
transcnn对于合成地震数据的去噪结果,如图6。图6中,(a)为干净的地震数据,(b)为加噪音的地震数据,(c)为传统方法中使用f-x反褶积方法(fxdm)的去噪结果,(d)为使用自适应滤波器(apf)的去噪结果,(e)为使用不含transformer的传统cnn网络去噪结果,(f)为transcnn网络的去噪结果。纵坐标是时间(s),横坐标是距离(km)。可以发现transcnn网络由于使用了transformer可以更好地去除噪音,更好地保持地震数据的原始细节。
[0060]
根据图7-9,图7-9中,纵坐标均为时间采样点数,横坐标均为采样点数。可以发现基于cnn-transformer的网络可以很好地实现噪音衰减任务,并很好地保持地震数据的结构不被破坏。
[0061]
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
[0062]
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上,本说明书内容不应理解为对本发明的限制。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献