一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于全卷积轻量化神经网络的SAR图像目标识别方法

2022-11-12 22:31:55 来源:中国专利 TAG:

一种基于全卷积轻量化神经网络的sar图像目标识别方法
技术领域
1.本发明涉及雷达图像处理领域,具体涉及一种基于全卷积轻量化神经网络的sar图像目标识别方法。


背景技术:

2.合成孔径雷达(sar)作为一种高分辨率成像雷达,能够在各种气象条件下大范围、持续性的工作,得到类似光学照相的高分辨率雷达图像。在军事领域,sar由于对目标(如飞机、坦克、舰船)等有着极强的发现能力,而被广泛应用。作为sar图像解译领域的一个重要分支,对sar图像中的目标进行快速实时的自动识别已经越来越受到关注。
3.自深度学习领域alexnet问世以来,越来越多的神经网络在图像分类任务达到了极高的准确率,sar图像目标自动识别领域也因此得到了快速发展。但神经网络的性能越强,所需的计算量就越大,对存储空间的要求也就越高,很多边缘性设备并不具备这些条件,这就使得构建轻量化网络或模型压缩越来越受到重视。典型的轻量化网络比如mobi lenet系列、shufflenet系列等等均取得了不错的轻量化效果。而对于模型压缩技术来说,主要可以分为剪枝、量化、知识蒸馏等技术。
4.通过模型压缩技术可以在构建的轻量化网络的基础上,进一步压缩模型大小,使模型满足存储、计算能力受限的边缘性小型设备。因此,本发明提出一种基于全卷积轻量化神经网络的sar图像目标识别方法。


技术实现要素:

5.针对现有技术中存在的问题,本发明的目的在于提供一种基于全卷积轻量化神经网络的sar图像目标识别方法。
6.为了达到上述目的,本发明采用以下技术方案予以实现。
7.一种基于全卷积轻量化神经网络的sar图像目标识别方法,包括以下步骤:
8.步骤1,获得sar图像集,将每个sar图像和对应的类别作为一组数据,得到包含多组数据的样本集;将样本集随机划分为训练集和测试集,并对所有样本均做归一化处理;
9.步骤2,构建基于注意力机制的全卷积轻量化神经网络模型ψ;
10.步骤3,对基于注意力机制的全卷积轻量化神经网络模型ψ进行训练,得到训练好的基于注意力机制的全卷积轻量化神经网络模型ψ’;
11.步骤4,对训练好的基于注意力机制的全卷积轻量化神经网络模型ψ’进行基于细粒度的模型饱和量化压缩处理;
12.步骤5,使用处理后的基于注意力机制的全卷积轻量化神经网络模型对sar图像目标进行识别,得到该sar图像目标的目标类型。
13.与现有技术相比,本发明的有益效果为:构建基于注意力机制的全卷积轻量化神经网络模型,并对网络模型进行基于细粒度的模型饱和量化压缩处理,使得网络模型在能够嵌入到fpga等边缘设备,满足实时性、低存储的需求的同时,对sar图像保持较高的识别
精度。
附图说明
14.下面结合附图和具体实施例对本发明做进一步详细说明。
15.图1为本发明方法的流程图;
16.图2为本发明方法的基于注意力机制的全卷积轻量化神经网络的框架图;
17.图3为本发明方法的深度可分离卷积模块的结构示意图;
18.图4为本发明方法的se注意力机制模块的结构示意图;
19.图5为一次训练后的网络模型未经模型饱和量化压缩处理对测试样本识别分类的热力图;
20.图6为一次训练后的网络模型经过模型饱和量化压缩处理后对测试样本识别分类的热力图。
具体实施方式
21.下面将结合实施例对本发明的实施方案进行详细描述,但是本领域的技术人员将会理解,下列实施例仅用于说明本发明,而不应视为限制本发明的范围。
22.参考图1,一种基于全卷积轻量化神经网络的sar图像目标识别方法,包括以下步骤:
23.步骤1,获得sar图像集,将每个sar图像和对应的类别作为一组数据,得到包含多组数据的样本集;将样本集随机划分为训练集和测试集,并对所有样本均做归一化处理;
24.步骤2,构建基于注意力机制的全卷积轻量化神经网络模型ψ;
25.具体的,参考图2,基于注意力机制的全卷积轻量化神经网络模型ψ包含依次级联的第一深度可分离卷积模块、第二深度可分离卷积模块、第一最大池化层、第三深度可分离卷积模块、第一se注意力机制模块、第四深度可分离卷积模块、第二se注意力机制模块、第五深度可分离卷积模块、第二最大池化层、第六深度可分离卷积模块、第七深度可分离卷积模块、第八深度可分离卷积模块、第三最大池化层、第九深度可分离卷积模块、第四最大池化层、第十深度可分离卷积模块、第十一深度可分离卷积模块、全局平均池化层。
26.参考图3,所有深度可分离卷积模块均包含依次级联的的深度可分离卷积层、bn层和relu激活函数层;
27.深度可分离卷积层主要由逐通道卷积和逐点卷积两个部分过程组成,其中逐通道卷积的一个卷积核负责一个通道,一个通道只被一个卷积核卷积,这个过程产生的特征图通道数和输入的通道数完全一样;逐点卷积与常规卷积非常相似,其卷积核尺寸为1
×1×
m,m为上一层的通道数,逐点卷积运算会将逐通道卷积产生的特征图在深度方向上进行加权组合,产生新的特征图,新特征图的通道数为逐点卷积的卷积核数量;深度可分离卷积与常规卷积相比,计算量只有常规卷积的1/3;
28.参考图4,se注意力机制模块的输入为h
×w×
c的特征图,其中h、w分别为特征图的高和宽,c为特征图的通道;将h
×w×
c的特征图首先经过全局池化操作,得到1
×1×
c的特征图,再将1
×1×
c的特征图经过1
×
1的卷积核降维为原来通道数c的1/4,经过relu激活函数后,将特征图再经过1
×
1的卷积核升维为原始通道数c,再经过h_sigmoid激活函数激活
后得到1
×1×
c的特征图,将此1
×1×
c的特征图与输入的h
×w×
c的特征图进行矩阵全乘,得到不同通道重要性的新特征图后输入下一层。
29.基于注意力机制的全卷积轻量化神经网络模型ψ的输入为sar图像,输出为该sar图像中目标的类别。
30.步骤3,对基于注意力机制的全卷积轻量化神经网络模型ψ进行训练,得到训练好的基于注意力机制的全卷积轻量化神经网络模型ψ’;
31.步骤3的子步骤如下:
32.子步骤3.1,将训练集数据输入基于注意力机制的全卷积轻量化神经网络模型ψ,计算网络输出层的损失函数,计算公式如下:
[0033][0034]
式中,yi为样本的真实标签,为样本的预测标签;
[0035]
子步骤3.2,通过反向传播算法和adam优化器对网络进行训练,且调用余弦学习率衰减策略,更新网络中的每一层参数;
[0036]
子步骤3.3,重复子步骤3.2,反复迭代不断更新参数,直到损失函数收敛,得到训练好的基于注意力机制的全卷积轻量化神经网络模型ψ’。
[0037]
步骤4,对训练好的基于注意力机制的全卷积轻量化神经网络模型ψ’进行基于细粒度的模型饱和量化压缩处理;
[0038]
基于细粒度的模型饱和量化压缩方法,将浮点数计算转换为定点数计算,加速前向推理,权重浮点类型存储转换为定点类型存储,压缩模型存储空间;
[0039]
步骤4的子步骤如下:
[0040]
子步骤4.1,从测试集中随机选出一部分数据作为校准集;将校准集的每一张sar图像都跑一次前向推理,统计每一层的每一个通道数据的分布直方图,其中每一个分布直方图的bin为2048;
[0041]
子步骤4.2,将原始分布直方图从第128个bin开始,一直到最后一个bin均进行截断处理,计算原始分布直方图与截断后的分布直方图的kl散度,kl散度的计算公式如下:
[0042][0043]
式中,p为原始分布,q为截断后的分布,信息熵交叉熵
[0044]
令kl散度最小的bin作为最佳阈值t;每一层的每一个通道数据都需要找到一个最佳阈值t,用该最佳阈值t来进行量化的过程称为饱和量化;
[0045]
子步骤4.3,利用最佳阈值t计算激活值的量化因子scale_x,并提前存储为量化因子表,方便后续前向推理中直接调用;
[0046]
子步骤4.4,利用权重数据中每一层的每一通道中的绝对值最大值对该通道权重数据提前做量化,即非饱和量化,并对量化好的定点型权重数据做好存储,存储后的权重文件大小为原来的1/4;量化公式为:
[0047][0048]
式中,w为浮点型权重,qw为int8位宽的定点型权重;
[0049]
子步骤4.5,利用量化因子scale_x,在前向推理过程中,实时对激活值数据进行饱和量化,量化公式为:
[0050]
x=scake_x
×
qx
[0051]
式中,x为浮点型激活值,qx为定点型激活值;
[0052]
子步骤4.6,前向推理过程中,读取提前存储好的定点型权重及其量化因子,并实时对激活值完成饱和量化,每一层量化结束后,将定点权重与定点激活值相乘后再用量化因子反量化成浮点型数据后进入下一层,每一层均如此;则前向推理过程中的计算便由原来的浮点计算转换为了8位定点计算,达到了计算加速的效果;
[0053]
子步骤4.7,为进一步减小前向推理过程中的计算量,提高前向推理的速度,我们在前向推理过程中将bn层与该bn层前面的卷积层合并计算。
[0054]
具体的,普通卷积层的计算公式为:y
conv
=ω
·
x b;
[0055]
普通的bn层计算中,需要计算一个minibatch中的元素的均值方差,然后对于x需要减去均值除以标准差,最后利用两个参数γ,β进行仿射变换,具体公式如下:
[0056][0057]
其中,μ
β
为一个minibatch中元素的均值;
[0058][0059]
其中,为一个minibatch中元素的方差;
[0060][0061]
其中,∈为防止分母项为0的一个数值极小的常数;
[0062][0063]
bn融合过程如下:
[0064][0065]
令则有:
[0066][0067]
这样便完成了前向推理中bn层与卷积层的计算融合,达到了减少计算量和推理加速的效果。
[0068]
步骤5,使用处理后的基于注意力机制的全卷积轻量化神经网络模型对sar图像目标进行识别,得到该sar图像目标的目标类型。
[0069]
仿真试验
[0070]
仿真试验的运行环境:nvidia gtx 1080 gpu,在pycharm编译器中使用tensorflow框架完成。
[0071]
sar图像集为mstar的eoc数据集,包含btr70、bmp2、t70三个类别;其中训练集包含698幅sar图像和相应的类别标签,测试集包含1365幅sar图像和相应的类别标签,每幅sar图像的待识别目标区域均在图像正中心位置。使用训练集对基于注意力机制的全卷积轻量化神经网络模型进行7次训练,分别使用7次训练后的基于注意力机制的全卷积轻量化神经网络模型进行如下仿真。
[0072]
仿真1:基于注意力机制的全卷积轻量化神经网络模型未经模型饱和量化压缩处理,直接对测试集进行识别。
[0073]
仿真2:基于注意力机制的全卷积轻量化神经网络模型经过模型饱和量化压缩处理后,再对测试集进行识别。
[0074]
参考图5、图6,可以看出,虽然模型饱和量化压缩处理会为网络模型带来一定的识别精度损失,但是识别精度损失很小。
[0075]
7次训练下的仿真1与仿真2的网络模型权重存储大小和平均识别精度如下表所示。
[0076] 仿真1的网络模型仿真2的网络模型权重存储大小802kb201kb平均识别精度97.75%97.30%
[0077]
从上表可以看出,基于注意力机制的全卷积轻量化网络模型经过模型饱和量化压缩处理,权重文件存储大小进一步压缩为至1/4,同时平均识别精度损失也不到0.5%,保持在97%以上,说明本发明方法能在满足fpga等边缘设备对于存储空间要求的同时对sar图像保持较高的识别精度。
[0078]
虽然,本说明书中已经用一般性说明及具体实施方案对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献