一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于高效通道注意力机制的火灾烟雾图像分割方法

2022-11-30 11:38:11 来源:中国专利 TAG:


1.本发明属于火灾烟雾图像分割技术领域,特别是涉及一种基于高效通道注意力机制的火灾烟雾图像分割方法。


背景技术:

2.传统分割算法主要有基于阈值的分割、边缘分割、区域分割、图分割等。但是这些方法只能用来处理较为简单的场景,在火灾烟雾分割上会出现精确度不够高,分割出的图像不够明显等问题。深度学习分割算法模型主要有fcn模型,unet模型,vnet模型,unet 模型和segnet模型等。jonathanlong等人(2015)提出了fcn模型,fcn模型提出了像素级的分类,是语义分割模型的重大突破。olafronneberger等人(2015)提出了unet模型,在fcn模型基础上对解码器进行了卷积加深处理。milletarif等人(2016)提出了vnet模型,该模型验证diceloss可以处理前景和背景像素的数量不平衡的情况。zongweizhou等人(2018)提出了unet 模型,该模型采用深层监督学习的方法,叠加浅层和深层特征,不同深度的特征值依靠不同的解码路径还原让网络学习不同深度的特征。badrinarayananv等人(2017年)提出segnet模型,该模型的整个特征映射不是使用池化索引,而是从编码器传输到解码器,然后使用concatenation串联来执行卷积。以上方法存在以下不足:(1)下采样过程中,由于感受野的不足,会导致丢失部分特征信息。(2)仅提取图像的整体特征,没有特别关注重要特征。


技术实现要素:

3.本发明的目的是提供一种基于高效通道注意力机制的火灾烟雾图像分割方法,以解决上述现有技术存在的问题。
4.为实现上述目的,本发明提供了一种基于高效通道注意力机制的火灾烟雾图像分割方法,包括:
5.获取训练图片,输入所述训练图片的标签信息;
6.构建图像分割模型,基于所述图像分割模型对所述标签信息分别进行下采样与上采样;
7.基于跳跃连接结构获取与所述训练图片尺寸大小相同的数据;
8.计算dice损失函数并基于所述dice损失函数判断所述图像分割模型是否收敛,若模型收敛,则输出图像分割模型;
9.对所述图像分割模型进行测试,获取分割结果。
10.可选地,基于所述图像分割模型对所述标签信息分别进行下采样与上采样的过程中包括:
11.构建高效通道注意力机制;
12.基于所述高效通道注意力机制与所述图像分割模型对所述标签信息进行下采样;
13.基于所述下采样的输出结果进行上采样。
14.可选地,对所述标签信息分别进行下采样与上采样的过程中还包括:
15.进行下采样的过程中将所述图像分割模型的卷积池化单元替换为空洞卷积;
16.所述空洞卷积的第四层卷积核为5
×
5,第五层卷积核变为21
×
21。
17.可选地,所述空洞卷积第四层与第五层的空洞率分别设置为2和4,当空洞率为2时,所述空洞卷积感受野的计算公式为:
18.rf
i 1
=rfi (k-1)
×
si19.其中,rf
i 1
表示当前层的感受野,rfi表示上一层的感受野,k表示卷积核大小。
20.当空洞率为4时,则在上述计算公式的基础上将上一层的感受野变为空洞率为2时计算出来的感受野,且卷积核大小发生改变。
21.可选地,所述高效通道注意力机制包括:
22.在不降低维数的通道级全局平均池化之后,通过考虑每个通道及其k个邻居来捕获局部跨通道交互信息,k代表局部跨通道交互的覆盖率。
23.可选地,基于跳跃连接结构获取与原图尺寸大小相同的数据的过程包括:
24.基于跳跃连接结构,将相同维度的下采样图像和上采样图像相加,以连接底层信息和高层信息,获取与原图片尺寸大小相同的数据。
25.可选地,所述dice损失函数的计算方法为:
[0026][0027]
其中,x代表ground truth标签,y代表预测的分割图像。
[0028]
可选地,基于所述dice损失函数判断模型是否收敛的过程中还包括:
[0029]
若模型不收敛,则将误差反向传播,更新网络模型参数。
[0030]
可选地,对所述图像分割模型进行测试的过程包括:
[0031]
将测试样本图像输入至训练后的深度神经网络进行测试。
[0032]
本发明的技术效果为:
[0033]
本发明提出了基于高效通道注意力机制的(dceca-unet )模型。首先,为扩大下采样时的感受野,该模型将神经网络中普通卷积替换为空洞卷积避免了增加网络深度导致的特征图像丢失的问题。其次,利用高效通道注意力机制,自动选择由深度网络提取特征中重要的特征信息,提高分割精度。最后,训练网络,实现端到端的图像分割。本发明所提方法显著优于unet,unet ,dc-unet ,dcse-unet 等现有图像分割方法,且综合了空洞卷积扩大感受野的思路以及高效通道注意力机制,有效的提高了图像的分割精度。实验结果表明,相比于其他方法,本发明提出的基于高效通道注意力机制的(dceca-unet )模型不仅降低了网络模型的参数量,而且对火焰烟雾的分割有良好性能。
附图说明
[0034]
构成本技术的一部分的附图用来提供对本技术的进一步理解,本技术的示意性实施例及其说明用于解释本技术,并不构成对本技术的不当限定。在附图中:
[0035]
图1为本发明实施例中的步骤流程图;
[0036]
图2为本发明实施例中的dceca-unet 结构示意图;
[0037]
图3为本发明实施例中的分割实验结果对比图。
具体实施方式
[0038]
需要说明的是,在不冲突的情况下,本技术中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本技术。
[0039]
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
[0040]
实施例一
[0041]
如图1-3所示,本实施例中提供一种基于高效通道注意力机制的火灾烟雾图像分割方法。
[0042]
参照图1,本发明的实现步骤如下:
[0043]
(1)训练阶段:
[0044]
1a)输入训练图片的标签信息;
[0045]
1b)传送信息到带有高效通道注意力机制的下采样模块;
[0046]
1c)将卷积池化单元替换为空洞卷积的高效通道注意力机制的下采样模块;
[0047]
1d)将下采样模块每一层的输出结果传入上采样模块,对数据进行上采样,并利用跳跃连接结构,将相同维度的下采样图像和上采样图像相加,以连接底层信息和高层信息。最终可以得到与原图尺寸大小一致的数据;
[0048]
上述过程中涉及的高效通道注意力机制具体实现方式如下:
[0049]
不降低维数的通道级全局平均池化之后,通过考虑每个通道及其k个邻居来捕获局部跨通道交互信息,k代表的是局部跨通道交互的覆盖率,为了避免用交叉验证对k进行手动调优;
[0050]
eca模块的k值为5,该模块局部跨通道交互覆盖率为5,其通道维数计算公式为:
[0051]
c=φ(k)=2
(γ*k-b) (5)
[0052]
卷积核大小计算公式为:
[0053][0054]
其中|t
odd
表示距离t最近的奇数,c为通道维数,卷积核大小为k。
[0055]
上述过程中涉及的空洞卷积的实现方式如下:
[0056]
空洞卷积结合入下采样的第4层和第5层,空洞率分别设置成了2和4,使用不同空洞率有利于得到不同尺度的图像同时扩大感受野。下图是当空洞率为2时的卷积过程,其感受野rf的计算公式为:
[0057]
rf
i 1
=rfi (k-1)
×
siꢀꢀ
(7)
[0058]
其中,rf
i 1
表示当前层的感受野,rfi表示上一层的感受野,k表示卷积核大小。
[0059]
当空洞率为4时,只需在上述计算公式的基础上将上一层的感受野变为空洞率为2时计算出来的感受野,且卷积核大小发生改变。
[0060]
在该模型中,第四层的卷积核变为了5
×
5,第五层的卷积核变为了21
×
21,这使得在前3个阶段的卷积层感受野没变的情况下,第4,5层能够保持较大的feature map,这样做可以舍去增加过多下采样,不会让特征图变得过小,有利于解决普通卷积造成的内部数据结构丢失,空间层级化信息丢失等问题。
[0061]
1e)计算dice损失函数
[0062][0063]
其中,x代表ground truth标签,y代表预测的分割图像。使用该损失函数忽略了大量背景像素,解决了正负样本不均衡的问题,使得网络收敛速度较高于交叉熵等其它损失函数。
[0064]
1f)根据dice损失函数判断模型是否收敛:
[0065]
由下采样获得图像特征,网络对进行卷积后的特征进行学习,并作出预测和评价,评价指标为diceloss,来评价模型预测结果的好坏,当模型收敛时,预测结果最为理想。当模型不收敛时,误差反向传播,更新网络模型参数;模型收敛时,输出图像分割模型。
[0066]
(2)测试阶段:
[0067]
2a)输入测试样本的图像到训练好的深度神经网络;
[0068]
(3)查看分割结果。
[0069]
本发明使用了高效通道注意力机制和空洞卷积图像分割方法,进一步包括:
[0070]
使用labelme工具对采集的图片进行标记。
[0071]
根据标记好的图片随机划分训练样本和测试样本。
[0072]
在unet卷积网络模型基础上增加unet 卷积网络模型。
[0073]
在之前构建好的模型下采样部分第四层和第五层卷积分别设置空洞率为2和4。
[0074]
引入高效通道注意力机制,在不降低维数的通道级全局平均池化之后,通过考虑每个通道及其k个邻居来捕获局部跨通道交互信息。
[0075]
将划分的验证样本投入到所述训练好的卷积网络模型中,获得预测结果。
[0076]
将所述预测结果与真实标注进行对比,计算识别率。
[0077]
与现有的技术及方法相比,本实施例提出了一种基于高效通道注意力机制的(dceca-unet )模型。首先,为扩大下采样时的感受野,该模型将神经网络中普通卷积替换为空洞卷积避免了增加网络深度导致的特征图像丢失的问题。其次,利用高效通道注意力机制,自动选择由深度网络提取特征中重要的特征信息,提高分割精度。最后,训练网络,实现端到端的图像分割。本发明所提方法显著优于unet,unet ,dc-unet ,dcse-unet 等现有图像分割方法,且综合了空洞卷积扩大感受野的思路以及高效通道注意力机制,有效的提高了图像的分割结果。实验结果表明,相比于其他方法,本发明提出的基于高效通道注意力机制的(dceca-unet )模型不仅降低了网络模型的参数量,而且对火焰烟雾的分割有良好性能。
[0078]
1.引入空洞卷积的原因:在没有提出空洞卷积前,想要降低图像的尺寸同时扩大感受野,只能增加下采样层数,使用池化层减小图像的尺寸扩大感受野。而在进行池化时进行下采样会导致一个十分严重的问题:图像细节信息丢失,小目标的信息无法重新建立。空洞卷积的提出解决了在下采样时带来的图像信息残缺或丢失、分辨率降低这两个问题。
[0079]
在该模型中,第四层的卷积核变为了5
×
5,第五层的卷积核变为了21
×
21,这使得在前3个阶段的卷积层感受野没变的情况下,第4,5层能够保持较大的特征图,这样做可以舍去增加过多下采样,不会让特征图变得过小,有利于解决普通卷积造成的内部数据结构丢失,空间层级化信息丢失等问题。
[0080]
2.引入eca通道注意力原因:为了增强重要的特征信息,抑制不重要的特征信息,该方法引入了注意力机制对网络所提的深度特征进行选择,增强对分割最有意的特征信息。在unet 模型中,为了避免在编码器时丢失大量的空间精确细节信息,使用了跳跃连接的方法,将编码器中提取的map直接concat到解码器相对应的层,而注意力机制的结合,可以有效抑制无关区域中的激活,减少冗余部分的跳跃。
[0081]
而本文提出的模型,在不降低维数的通道级全局平均池化之后,通过考虑每个通道及其k个邻居来捕获局部跨通道交互信息,k代表的是局部跨通道交互的覆盖率,为了避免用交叉验证对k进行手动调优。
[0082]
综上所述,本实施例提出的一种基于高效通道注意力机制的(dceca-unet )方法。该方法显著优于unet,unet ,dc-unet ,dcse-unet 等现有图像分割方法,且综合了空洞卷积扩大感受野的思路以及高效通道注意力机制,有效的提高了图像的分割精度。
[0083]
以上所述,仅为本技术较佳的具体实施方式,但本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本技术的保护范围之内。因此,本技术的保护范围应该以权利要求的保护范围为准。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献