一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于改进SSD学习模型的无人机树木种类识别方法与流程

2021-11-09 21:44:00 来源:中国专利 TAG:

一种基于改进ssd学习模型的无人机树木种类识别方法
技术领域
1.本发明属于人工智能目标识别领域,涉及无人机航拍场景下对树木种类判定,具体涉及一种基于改进ssd学习模型的无人机树木种类识别方法。


背景技术:

2.树种分类在智慧园林领域有着重要价值,在树木资源管理和监测和碳储存估算等方面发挥重要作用。无人机遥感属于低空遥感技术,与各种高分辨率卫星相比,无人机在获取影像过程中受大气因素的干扰较小,在小区域遥感应用方面有着良好的前景。利用无人机获取超高空间分辨率的影像为提取树种空间信息提供了新的手段,而准确快速提取树种分类信息的技术则是无人机影像在智慧园林领域发挥作用的关键。
3.现有的用于提高无人机影像树种分类精度的方法多是通过传统机器学习及添加手工特征变量的方式,不同的特征变量会导致获得的分类效果不同,手工添加特征变量往往依靠经验,具有一定的盲目性。深度学习是人工智能的重要进展之一,颠覆了传统算法的设计思路,能够自动从数据中学习特征,避免了传统算法中人工设计、提取特征的复杂性和局限性,在没有人为干预的情况下,具有极大的特征学习潜力。在遥感领域中,深度学习,特别是卷积神经网络(cnn),已经被广泛应用于遥感图像的分类、提取、识别和检索,全面超越了传统方法。
4.目前用于树种分类的深度学习算法有两种,分别为one

stage方法和two

stage方法。one

stage方法,比如yolo和ssd。主要思路是均匀的在图片的不同位置上密集抽样,抽样时可以采用不同的比例和长宽比,然后用cnn提取特征后直接分类与回归,整个过程只需要一步,所以优点是速度快。但是均匀的密集采样的缺点是训练困难,主要是因为正样本与负样本(背景)及其不均衡,导致模型准确度较低。two

stage方法,比如r

cnn系算法。主要思路是先通过启发式方法或者cnn网络产生一系列稀疏的候选框,然后对这些候选框进行分类和回归,优点是准确度高。


技术实现要素:

5.发明目的:针对以上问题,本发明提出一种基于改进ssd学习模型的深度学习的树木种类识别方法,针对无人机航拍场景下的小块树木场景,通过在树木数据集上进行训练提取泛化的不同种类的树木所具有的特征表示,突出特征之间的可区分度,使树木种类识别准确度显著提高。
6.技术方案:为实现本发明的目的,本发明所采用的技术方案是:一种基于改进ssd学习模型的无人机树木种类识别方法,包括以下步骤:
7.(1)获取无人机拍摄的树木数据集,构建聚类样本即默认候选框尺度样本集、默认候选框宽高比样本集,使用k

means 方法进行聚类,分别得到默认候选框的尺度和宽高比信息,用于代替基准ssd学习模型中生成的默认候选框;
8.(2)构建卷积神经网络,即改进基准ssd学习模型,针对虚焦、过曝和混叠效应三种
图片噪声,自适应产生滤波层,模型最后添加一个全局特征融合网络;改进的基准ssd学习模型包括卷积层、滤波层、激活函数层、池化层、bn层、融合层、softmax层和全局特征融合网络;
9.(3)改进网络的softmax损失函数,针对基准ssd学习模型所使用的softmax损失函数,引入中心损失函数进行修正;
10.(4)使用改进后的ssd学习模型在树木数据集上进行训练提取不同种类的树木所具有的特征表示,使用训练好的模型识别树木种类。
11.进一步的,在步骤(1)中,使用k

means 方法聚类生成默认候选框的过程如下:
12.首先确定聚类样本,其中默认候选框尺度样本集为s={s1,

,s
k
,

,s
t
},共t个样本,即无人机拍摄的树木数据集中所标注的t个树木目标尺度,为样本集中第k个样本,w
k
、h
k
分别为无人机拍摄的树木数据集中所标注的第k个树木目标边界框的宽高信息,w
o
、h
o
则分别为原始图像的宽高信息;
13.默认候选框宽高比样本集r={r1,

,r
k
,

,r
t
},共t个样本,即数据集中标注的t个树木目标的宽高比例信息,其中r
k
=w
k
h
k
/w
o
h
o

14.其次,运用k

means 聚类算法对默认候选框尺度和宽高比两个样本集进行聚类,包括初始化k个聚类中心以及进行标准k

means聚类迭代两个步骤,在两个步骤中所采用距离公式均为:
[0015][0016]
式中μ
sj
和μ
rj
分别是针对尺度样本集s和宽高比样本集r聚类过程中的第j个聚类中心;
[0017]
最后运行基准k

means聚类算法,默认候选框尺度聚类k值设为6,对应改进ssd学习模型中6个用于检测回归的特征图;宽高比聚类设为6,与基准ssd学习模型相同,6个用于分类回归的特征图层依据其尺寸选择相应默认候选框尺度,每个尺度对应聚类得到的6个宽高比,用于取代原始ssd学习模型中的默认候选框。
[0018]
进一步的,在步骤(2)中,自适应产生滤波层过程如下:
[0019]
f为输入特征图的通道,共c个通道,将输入的特征图依次分为g个连续通道组,记通道组为f
g
,每个通道组的特征共享相同的滤波器参数,每个通道特征学习到的滤波器为其维度为h
×
w
×
1,h代表滤波器高度,w代表滤波器宽度,1代表滤波器的通道数,最后组合成一个h
×
w
×
g的滤波层,为每个学习到的滤波层添加一个通过模型学习得到的自适应权重系数λ
n
,n代表第n种滤波层,n∈[1,3];
[0020]
在融合前,引入softmax层对三个滤波层的权重参数λ
n
进行处理得到λ'
n
,公式如下:
[0021][0022]
训练过程中,λ'反向传播更新流程为,求出损失函数关于滤波层中每个位置的参数w
i,j,l
的导数,对求导结果求和再求平均,采用梯度下降法进行更新,公式如下:
[0023][0024]
其中,k代表更新进行到的次数,α代表学习率,l代表损失函数;
[0025]
融合时,采用对应元素相加的方法,使3个滤波层融合成针对三种噪声的自适应滤波层w’g
,融合公式如下:
[0026][0027]
然后对第l组中通道特征图f,利用对应的第l组滤波器进行滤波操作,公式如下:
[0028]
f’i,j,l
=w’i,j,l
*f
i,j,l
[0029]
其中,f’i,j,l
为与输入特征图f在(i,j)位置处的输出特征。
[0030]
进一步的,在步骤(2)中,全局特征融合网络如下:
[0031]
全局特征融合网络由三部分组成,包括一条自上而下的特征补充增强路径、一条自下而上的不同维度特征生成路径、引入注意力机制的特征融合模块;
[0032]
在自上而下的特征补充增强路径中,将经过conv4_3、conv7、conv8_2、conv9_2、conv10_2、conv11_2层输出的结果,记作c
i
,i∈[1,6],共6个特征图进行融合,在特征图进入融合前,都预先使用1
×
1的卷积核,进行通道调整,卷积核个数与上一层特征图通道数一致,公式如下:
[0033][0034]
其中,c'代表经过1
×
1的卷积核进行通道调整后的特征图,i代表第i层,h代表特征图的高度,w代表特征图的宽度,c代表特征图的通道数,
·
代表卷积操作,kernel代表卷积核;
[0035]
调整后的特征图进行2倍最邻近插值上采样,得到u
i
,i∈[1,6],然后与下一层特征图进行元素式操作;元素式操作采用方法为对应元素的积,公式如下:
[0036][0037]
其中,p代表元素式操作融合结果,i代表第i层,代表对应元素相乘操作;
[0038]
在自下而上的不同维度特征生成路径中,对{p1,p2,p3}三层进行操作,从p1到p3,空间尺寸采用下采样,生成与{p1,p2,p3}相对应的特征图{n1,n2,n3},从n
i
到n
i 1
的过程为:n
i
通过与一个大小为3
×
3、步长为2的卷积核做卷积减小尺寸,产生与p
i 1
尺寸相同的特征图,之后p
i 1
与下采样的特征图采用对应元素积的方式进行元素式操作,元素式操作后的特征图经过另外一个大小为3
×
3、步长为1的卷积核产生n
i 1
,上述操作公式如下:
[0039][0040]
其中,代表大小为3
×
3、步长为1的卷积核,代表大小为3
×
3、步长为2的卷积核,代表对应元素相乘操作,最终产生的{n1,n2,n3}与{p1,p2,p3}每一层相互对应,空间尺寸和通道尺寸相同;
[0041]
在特征图引入注意力机制的特征融合模块前,将不同层级的特征图{n1,n2,n3}通过线性插值或者最大池化重构成n2的尺寸大小,得到{m1,m2,m3},然后取均值得到平衡语义特征m
b
,在第i层分辨率特征记作m
i
,m
b
公式如下:
[0042][0043]
其中,i代表特征图总层数;
[0044]
将平衡语义特征m
b
∈r
h
×
w
×
c
输入se注意力模块,进入通道注意力分支进行运算,产生相应的注意力图,在通道注意力分支中,通过全局池化操作聚合特征图的空间信息m
avg
∈r1×1×
c
,通过一个1
×1×
(c/r)全连接层和一个relu激活函数,其中r由经验值设定,再通过一个1
×1×
c全连接层和一个sigmoid激活函数,产生通道注意力图m
c
∈r1×1×
c
,上述过程公式如下:
[0045]
m
c
=σ(fc2(γ(fc1(m
avg
))))
[0046]
其中σ代表sigmoid函数,γ代表relu函数,fc代表全连接层;
[0047]
将得到的m
c
作用于se注意力模块的输入特征图m
b
,得到经过注意力机制增强特征表示a,公式如下:
[0048][0049]
将se注意力模块的输出a使用相同但相反的过程,重构到与各层级对应相同的尺寸,得到{a1,a2,a3},与输入{p1,p2,p3}进行加和操作,得到{g1,g2,g3},公式如下:
[0050]
g
i
=a
i
p
i
,i∈(1,2,3)
[0051]
用{g1,g2,g3}替代原模型中的{p1,p2,p3},最终{g1,g2,g3,p4,p5,p6}进入检测层。
[0052]
进一步的,在步骤(3)中,softmax损失函数改进如下:
[0053]
改进softmax损失函数,针对基准ssd学习模型所使用的softmax损失函数,引入中心损失函数进行修正,中心损失函数l
c
定义如下:
[0054][0055]
其中y
i
表示第i个样本的类别,c
yi
表示第y
i
种类别样本的特征中心点,x
i
表示在全连接层以前提取到的特征,m表示mini

batch的大小,即更新一次训练参数时所要求训练的图片数量的大小;
[0056]
损失函数改进如下,在基准ssd学习模型的损失函数的基础上,结合中心损失函数,引入参数η、用于调节基准ssd损失函数和中心损失函数的比例,如下,
[0057][0058]
其中,l
conf
(x,c)为置信损失函数,l
loc
(x,l,g)为位置损失函数,α为加权系数,用来衡量位置损失在总损失中占的比例,参数η、表示基准ssd损失函数l(x,c,l,g)和中心损失函数的比例权重,n为默认框的正样本数量,x表示提取到的特征,c为类别置信度预测值,l为默认框所对应边界框的偏移位置预测值,g为真值标签的位置参数。
[0059]
有益效果:与现有技术相比,本发明的技术方案具有以下有益的技术效果:
[0060]
1、与传统的目标识别算法相比,基于改进ssd学习模型的深度学习的树木种类识别算法通过在在树木数据集上进行训练提取泛化的不同种类的树木所具有的特征表示,突
出特征之间的可区分度,提高针对小目标的检测以及抗图片噪声能力,使树木种类识别准确度显著提高。
[0061]
2、基于改进ssd学习模型的深度学习的树木种类识别算法通过增加自适应滤波层,减少了虚焦、过曝、混叠效应对航拍图像小目标检测的影响;增加全局特征融合网络,增加了对小目标检测的准确度;改进损失函数,减少了同种类别提取到的特征间距过大导致分类不理想的的问题。
[0062]
3、与以往的深度学习目标识别算法相比,基于改进ssd学习模型的深度学习的树木种类识别算法对不同大小的卷积层提取到的特征进行综合的计算量较小,能够直接预测目标分类类别和边界框坐标值,满足了无人机拍摄树木场景对于实时性的要求。
附图说明
[0063]
图1为改进ssd学习模型中自适应滤波层原理图;
[0064]
图2为改进ssd学习模型中全局特征融合网络结构图;
[0065]
图3为se注意力模块结构图;
[0066]
图4为本发明改进ssd学习模型结构图。
具体实施方式
[0067]
下面结合附图和实施例对本发明的技术方案作进一步的说明。
[0068]
本发明所述的一种基于改进ssd学习模型的无人机树木种类识别方法,包括以下步骤:
[0069]
(1)获取无人机拍摄的树木数据集,构建聚类样本即默认候选框尺度样本集、默认候选框宽高比样本集,使用k

means 方法进行聚类,分别得到默认候选框的尺度和宽高比信息,用于代替基准ssd学习模型中生成的默认候选框(改进默认候选框的生成)。
[0070]
首先确定聚类样本,其中默认候选框尺度样本集为s={s1,

,s
k
,

,s
t
},共t个样本,即无人机拍摄的树木数据集中所标注的t个树木目标尺度,为样本集中第k个样本,w
k
、h
k
分别为无人机拍摄的树木数据集中所标注的第k个树木目标边界框的宽高信息,w
o
、h
o
则分别为原始图像的宽高信息;
[0071]
默认候选框宽高比样本集r={r1,

,r
k
,

,r
t
},与尺度样本集相似,共t个样本,即数据集中标注的t个树木目标的宽高比例信息,其中r
k
=w
k
h
k
/w
o
h
o

[0072]
其次,运用k

means 聚类算法对默认候选框尺度和宽高比两个样本集进行聚类,包括初始化k个聚类中心以及进行标准k

means聚类迭代两个步骤,在两个步骤中所采用距离公式均为:
[0073][0074]
式中μ
sj
和μ
rj
分别是针对尺度样本集s和宽高比样本集r聚类过程中的第j个聚类中心;k

means 聚类算法摒弃随机选择k个初始聚类中心的方式,而是先随机获取一个样本集中的数据作为第一个聚类中心,然后通过距离公式运算得出计算每个样本到最近聚类中心的距离,由此,每一个样本都有一个长度,长度越大的样本,被选为下一个聚类中心的概率越高;然后不断重复至得到k个初始聚类中心;
[0075]
最后运行基准k

means聚类算法,如下:
[0076]
依次比较每一个对象到每一个聚类中心的距离,将对象分配到距离最近的聚类中心的类簇中,得到k个类簇{s1,s2,s3,

,s
k
};
[0077]
k

means算法用中心定义了类簇的原型,类簇中心就是类簇内所有对象在各个维度的均值,其计算公式如下:
[0078][0079]
式中,c
l
表示第l个聚类中心,|s
l
|表示第l个类簇中对象的个数,x
i
表示第l个类簇中第i个对象;
[0080]
该方法选择的初始聚类中心较基准方法更加准确;默认候选框尺度聚类k值设为6,对应改进ssd学习模型中6个用于检测回归的特征图;宽高比聚类设为6,与基准ssd学习模型相同,6个用于分类回归的特征图层依据其尺寸选择相应默认候选框尺度,每个尺度对应聚类得到的6个宽高比,用于取代原始ssd学习模型中的默认候选框。
[0081]
(2)构建卷积神经网络,即改进基准ssd学习模型,针对虚焦、过曝和混叠效应三种图片噪声,自适应产生滤波层,减小三类噪声给小目标特征提取带来的影响;增加一个全局特征融合网络,以增强对小目标的检测准确度;改进的ssd学习模型包括卷积层、滤波层、激活函数层、池化层、bn层、融合层、softmax层和全局特征融合网络。
[0082]
无人机拍摄图像过程中,受摄像头、环境等因素的影响,会导致航拍图像产生混叠现象、虚焦、过曝等现象,影响树木种类的识别,故在卷积神经网络中增加针对不同噪声的自适应滤波层。针对混叠现象、虚焦、过曝3种噪声,学习产生3种自适应滤波器,然后将3种滤波器融合,生成最终的自适应滤波层。由于特征图的不同通道包含如边缘、颜色变化等不同频率的特征,故采用的自适应滤波层所使用的滤波器不仅针对特征的空间位置分布层面学习到对应的滤波器参数,同时考虑到在特征图的不同通道上学习不同的滤波器参数。
[0083]
滤波层训练过程和预测过程如图1所示,自适应产生滤波层过程如下:
[0084]
f为输入特征图的通道,共c个通道,考虑到为每个通道的特征预测不同的滤波器计算代价过大,便将输入的特征图依次分为g个连续通道组,记通道组为f
g
,每个通道组的特征共享相同的滤波器参数;
[0085]
输入特征图经过一个卷积操作后跟随一个批量标准化(batch

normalization,bn)层,bn层通过对输入数据归一化并固定数据分布,使其均值为0,方差为1,满足正态分布,防止协方差偏移,对数据做归一化操作的计算公式如下:
[0086][0087]
其中,x=(x
(1)
...x
(d)
)表示维度为d的向量x,e(x)表示输入数据的期望,var[x]表示数据的方差;在方法中引入两个可学习参数γ
(k)
和β
(k)
进行平移和缩放;
[0088]
bn操作要对每一批输入数据进行归一化,具体操作如下:
[0089]
计算输入数据均值:
[0090][0091]
式中,x
i
为第i个输入的数据,m为输入数据的总个数;
[0092]
计算输入数据的方差:
[0093][0094]
式中,x
i
为第i个输入的数据,m为输入数据的总个数,μ
b
为输入数据均值;
[0095]
进行归一化:
[0096][0097]
式中,x
i
为第i个输入的数据,μ
b
为输入数据均值,为输入数据的方差,ε为一极小值,防止分母为0;
[0098]
得到输出值:
[0099][0100]
式中,γ和β为两个可学习参数,为归一化后的第i个输入的数据;
[0101]
并引入softmax层以保证每个学习到的滤波层参数均为正数、和为1,以保证其为低通滤波器;
[0102][0103]
其中,v为输入的数组,v
i
为数组中的第i个元素;
[0104]
每个通道特征学习到的滤波器为其维度为h
×
w
×
1,h代表滤波器高度,w代表滤波器宽度,1代表滤波器的通道数,最后组合成一个h
×
w
×
g的滤波层;
[0105]
同时为每个学习到的滤波层添加一个通过模型学习得到的自适应权重系数λ
n
,n代表第n种滤波层,n∈[1,3];
[0106]
在融合前,引入softmax层对三个滤波层的权重参数λ
n
进行处理得到λ'
n
,以保证每个学习到的λ'
n
为正数,公式如下:
[0107][0108]
训练过程中,λ'反向传播更新流程为,求出损失函数关于滤波层中每个位置的参数w
i,j,l
的导数,对求导结果求和再求平均,采用梯度下降法进行更新,公式如下:
[0109][0110]
其中,k代表更新进行到的次数,α代表学习率,l代表损失函数;
[0111]
融合时,采用对应元素相加的方法,使3个滤波层融合成针对三种噪声的自适应滤波层w’g
,融合公式如下:
[0112][0113]
然后对第l组中通道特征图f,利用对应的第l组滤波器进行滤波操作,公式如下:
[0114]
f’i,j,l
=w’i,j,l
*f
i,j,l
[0115]
其中,f’i,j,l
为与输入特征图f在(i,j)位置处的输出特征。
[0116]
在基准ssd学习模型中,特征提取骨干vgg

16网络中的conv4_3层后的特征图用于预测小尺度目标,因此在该层前的前三次最大池化层前,即在conv1_2、conv2_2、conv3_3层后,引入滤波层,滤波层输入的特征图通道数设定滤波器核尺寸为3
×
3,特征图通道组数为4、6、8。
[0117]
卷积网络中随着卷积层的深度增加,得到的特征图的感受野更大,因此会丢失掉更多的小尺度目标的细节信息,导致对小尺度目标检测的不准确,故在原始ssd学习模型后,增加一个全局特征融合网络,全局特征融合网络如图2所示;
[0118]
全局特征融合网络由三部分组成,包括一条自上而下的特征补充增强路径、一条自下而上的不同维度特征生成路径、引入注意力机制的特征融合模块;
[0119]
在自上而下的特征补充增强路径中,全局特征融合网络将低分辨率、高语义信息的高层特征和高分辨率、低语义信息的低层特征进行自上而下的连接,使得所有尺度下的特征都有丰富的语义信息,将特征图,即经过conv4_3、conv7、conv8_2、conv9_2、conv10_2、conv11_2层输出的结果,记作c
i
,i∈[1,6],共6个特征图进行融合;
[0120]
特征融合计算时,需要特征图的分辨率和通道数严格相同,所以在特征图进入融合前,都预先使用1
×
1的卷积核,进行通道调整,卷积核个数与上一层特征图通道数一致,公式如下:
[0121][0122]
其中,c'代表经过1
×
1的卷积核进行通道调整后的特征图,i代表第i层,h代表特征图的高度,w代表特征图的宽度,c代表特征图的通道数,
·
代表卷积操作,kernel代表卷积核;
[0123]
调整后的特征图进行2倍最邻近插值上采样,得到u
i
,i∈[1,6],然后与下一层特征图进行元素式操作;元素式操作采用方法为对应元素的积,求积的一个优点是它可以用来抑制或突出某个区域内的特性,这可能进一步有利于小目标检测,公式如下:
[0124][0125]
其中,p代表元素式操作融合结果,i代表第i层,代表对应元素相乘操作;
[0126]
在自下而上的不同维度特征生成路径中,为了增强低层细节信息到高层的传递,将自上而下的特征补充增强路径提取出的低层的细节信息传递到高层的语义特征图,因为在ssd学习模型中,前三层提取出更多关于小目标的信息,故选择对{p1,p2,p3}三层进行操作,从p1到p3,空间尺寸采用下采样,生成与{p1,p2,p3}相对应的特征图{n1,n2,n3},从n
i
到n
i 1
的过程为:n
i
通过与一个大小为3
×
3、步长为2的卷积核做卷积减小尺寸,产生与p
i 1
尺寸相同的特征图,之后p
i 1
与下采样的特征图采用对应元素积的方式进行元素式操作,元素式操作后的特征图经过另外一个大小为3
×
3、步长为1的卷积核产生n
i 1
,上述操作公式如下:
[0127][0128]
其中,代表大小为3
×
3、步长为1的卷积核,代表大小为3
×
3、步长为2的卷积核,代表对应元素相乘操作;最终产生的{n1,n2,n3}与{p1,p2,p3}每一层相互对应,空间尺寸和通道尺寸相同;
[0129]
在特征图引入注意力机制的特征融合模块前,将不同层级的特征图{n1,n2,n3}通过线性插值或者最大池化重构成n2的尺寸大小,得到{m1,m2,m3},然后取均值得到平衡语义特征m
b
,在第i层分辨率特征记作m
i
,m
b
公式如下:
[0130][0131]
其中,i代表特征图总层数;
[0132]
为减少平衡语义特征的信息冗余,进一步增强特征表达,采用se注意力模块利用注意力机制对融合特征图的有效特征进行了加强,se注意力模块如图3所示;
[0133]
将融合得到的平衡语义特征m
b
∈r
h
×
w
×
c
输入se注意力模块,进入通道注意力分支进行运算,产生相应的注意力图;在通道注意力分支中,通过全局池化操作聚合特征图的空间信息m
avg
∈r1×1×
c
,通过一个1
×1×
(c/r)全连接层和一个relu激活函数,其中r由经验值设定,再通过一个1
×1×
c全连接层和一个sigmoid激活函数,产生通道注意力图m
c
∈r1×1×
c
,上述过程公式如下:
[0134]
m
c
=σ(fc2(γ(fc1(m
avg
))))
[0135]
其中σ代表sigmoid函数,γ代表relu函数,fc代表全连接层;
[0136]
在上述操作之后,将得到的m
c
作用于se注意力模块的输入特征图m
b
,得到经过注意力机制增强特征表示a,公式如下:
[0137][0138]
为了将平衡后语义特征信息反馈到每一个层级,将se注意力模块的输出a使用相同但相反的过程,重构到与各层级对应相同的尺寸,得到{a1,a2,a3},与输入{p1,p2,p3}进行加和操作,得到{g1,g2,g3},公式如下:
[0139]
g
i
=a
i
p
i
,i∈(1,2,3)
[0140]
{g1,g2,g3}与{p1,p2,p3}相比,平衡了各层级间的差异性,增强了各层的原始特征,用{g1,g2,g3}替代原模型中的{p1,p2,p3},最终{g1,g2,g3,p4,p5,p6}进入检测层。
[0141]
最终搭建的针对无人机拍摄的树木种类检测的模型结构如图4所示。
[0142]
(3)改进网络的softmax损失函数,针对基准ssd学习模型所使用的softmax损失函数,引入中心损失函数进行修正;具体为:
[0143]
卷积神经网络的最后一层通常为损失层,损失层的作用就是将目标任务转化为损失函数的形式,损失层将卷积神经网络的预测结果和当前目标的真实值作为输入,通过比较预测值与真实值之间的误差来计算损失,得到网络的损失函数,之后在反向传播过程中,使用随机梯度下降算法来更新每一层的参数,在经过前向传播来计算损失,直到找到合适的权重来最小化损失函数值,使得整个网络模型收敛;
[0144]
目标检测算法的训练过程中,会计算目标的分类损失和回归损失,当前,分类任务常使用的损失函数为softmax损失函数;
[0145]
基准ssd学习模型所使用的softmax损失函数没有要求同种类别提取到的特征聚合,只包括不同类别提取到的特征进行分离,包括类别置信度和位置损失两部分;
[0146][0147]
其中n为默认框的正样本数量,α为加权系数,c为类别置信度预测值,l为默认框所对应边界框的偏移位置预测值,g为真值标签的位置参数,包括航拍树木目标中心位置与宽高信息的偏移量,位置损失为:
[0148][0149]
其中,s
l1
为smooth l1损失用于计算预测边界框偏移与真值标签偏移之差,为第i个默认候选框与第j个类别为的真值标签相匹配,此时取值为1,未匹配则为负样本取值为0;
[0150]
类别置信度损失中包含正样本以及部分负样本的对数损失,类别置信度损失为:
[0151][0152]
center loss中心损失函数针对softmax损失函数所表现出的问题,即同种类别提取到的特征间距过大,对每一个类别都维护一个类特征的中心点,如果在特征层中,该样本提取到的特征距离该类别特征中心的距离太远,就要获得惩罚;类特征中心点在网络中自行随机生成,在每一个batch迭代过程中更新中心点,即对类特征的中心点进行随机初始化,其中batch是每更新一次训练参数时的样本大小;随后每一个batch迭代过程中计算当前提取到的特征与类特征中心点的距离的平方和;
[0153]
中心损失函数l
c
定义如下:
[0154][0155]
其中y
i
表示第i个样本的类别,c
yi
表示第y
i
种类别样本的特征中心点,x
i
表示在全连接层以前提取到的特征,m表示mini

batch的大小,即更新一次训练参数时所要求训练的图片数量的大小;通过使用最小化中心损失计算,同一类别的样本特征会向所属类别的特征中心点聚集,从而促使整体分类过程中的同种类别的特征差异减小;
[0156]
损失函数改进如下,在基准ssd学习模型的损失函数的基础上,结合中心损失函数,引入参数η、用于调节基准ssd损失函数和中心损失函数的比例,如下,
[0157][0158]
其中,l
conf
(x,c)为置信损失函数,l
loc
(x,l,g)为位置损失函数,α为加权系数,用来衡量位置损失在总损失中占的比例,参数η、表示基准ssd损失函数l(x,c,l,g)和中心损失函数的比例权重,n为默认框的正样本数量,x表示提取到的特征,c为类别置信度预测值,l为默认框所对应边界框的偏移位置预测值,g为真值标签的位置参数。
[0159]
(4)使用改进后的ssd学习模型在树木数据集上进行训练提取不同种类的树木所具有的特征表示,使用训练好的模型识别树木种类。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献