一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种柚子病虫害的快速识别方法与流程

2021-10-24 07:35:00 来源:中国专利 TAG:病虫害 柚子 识别 检测 目标


1.本发明涉及目标检测技术领域,尤其涉及一种柚子病虫害的快速识别方法。


背景技术:

2.农业病虫害是影响农业经济损害的重要因素之一,各种病虫害给农产品产量和品质带来恶劣的影响,因此做好病虫害的预防意义重大,而做好病虫害的预防,必须做好病虫害的预测和诊断。目前,大多数种植户对农作物病虫害的判别方法停留在传统的实地目测上,通过农作物的外观表面形态并结合个人的生产经验等进行判断,多依赖于个人经验,误差较大,且难以一一甄别。专家对于病虫害识别虽然具有丰富经验,但往往不能及时赶往现场,或者因有限的人力资源不能进行大型区域识别,容易导致误判和漏判。因此,如何有效、快捷地防治农作物病虫害,成为当前智慧农业必须考虑的问题。柚子是常见的水果之一,营养丰富,市场需求量大,但其在生长过程中也不可避免会遭受病虫害,常见的病虫害有螨类、蚧类、潜叶蛾类、炭疽病等,只有准确得知是何种病虫类型,才能对症下药,有助于果实的成长。


技术实现要素:

3.本发明的目的是克服上述现有技术的缺点,提供一种实用性高、目标检测准确性好、可提高种植效益的基于yolov5的柚子病虫害的快速识别方法。
4.本发明是通过以下技术方案来实现的:
5.s1、收集柚子病虫害的图片,采用labelimg对各图片中的病虫害根据其类别进行标注,构成数据集,将数据集按照一定的比例随机分为训练集和验证集;
6.s2、将训练集和验证集中的图片输入yolov5x网络模型进行模型训练,得到yolov5x网络模型的最佳权重数据;
7.s3、将最佳权重数据加载到yolov5x网络模型中,输入待识别图片,输出识别的病虫害类别;
8.所述yolov5网络模型包括依次连接的输入端、backbone骨干网络、neck网络和head输出端,所述s2步骤中将训练集和验证集中的图片输入yolov5网络模型进行模型训练的方法为:
9.s2

1、图片预处理:图片进入输入端,输入端对图片进行预处理,预处理包括mosaic数据增强、自适应锚框计算和自适应图片缩放;
10.s2

2、特征提取:预处理后的图片进入backbone骨干网络,进行特征提取后得到三个不同大小的特征图;
11.s2

3、特征融合:将s2

2步骤得到的三个不同大小的特征图输入neck网络进行特征融合,得到三个尺度的特征图;
12.s2

4、预测输出:将s2

3步骤得到的三个尺度的特征图输入head输出端,得到三个特征张量,由此得到预测框的位置、类别和置信度;在训练阶段,将预测框与真实框进行匹
配得出正负样本,然后通过计算损失函数来调节权重参数,验证阶段采用加权非极大值抑制的方式筛选预测框,通过计算准确率、平均精度来不断优化模型参数。
13.进一步的,所述病虫害包括桔小实蝇、菜粉蝶、柑橘凤蝶幼虫、柑橘凤蝶、疮痂果、疮痂叶、溃疡果、潜叶蛾、砂皮病、黄斑病、蚧壳虫、铁锈虱、炭疽果、黑星病、脚腐病、膏药病、炭疽叶、煤烟病、蚜虫、黑刺粉虱、红蜘蛛。
14.进一步的,yolov5x网络模型的初始锚框设定为[116,90,156,198,373,326]、[30,61,62,45,59,119]、[10,13,16,30,33,23],网络模型在初始锚框的基础上训练得到预测框,并和真实框进行比较,根据差值反向更新,迭代调整网络模型参数。
[0015]
进一步的,所述yolov5网络模型的训练中通过设置参数cache

images来缓存图像以加快训练速度,设置参数rect进行矩形训练,设置参数multi

scale进行多尺度训练,设置参数evolve进化超参数,使用默认初始学习率lr0=0.01、lrf=0.2,动量momentum=0.937。
[0016]
进一步的,所述backbone骨干网络包含focus结构和csp结构,focus结构中含有切片操作,将预处理后尺寸为640
×
640
×
3的图片接入focus结构中,通过切片操作与concat操作,得到160
×
160
×
12的特征图,然后进行一次32个卷积核操作,得到160
×
160
×
32的特征图。
[0017]
进一步的,所述s2

2中三个不同大小的特征图分别为m1、m2、m3,特征图m1的大小为80
×
80,特征图m2的大小为40
×
40,特征图m3的大小为20
×
20;
[0018]
所述neck网络采用fpn pan的结构,特征金字塔fpn利用上采样的方式对信息进行传递融合,路径聚合网络pan采用自底向上的特征金字塔;s2

3步骤中三个尺度的特征图分别为f2、p1、p2;所述neck网络将特征图m3进行上采样,然后和特征图m2特征融合,得到40
×
40的特征图f1;特征图f1再经过上采样和特征图m1特征融合,得到80
×
80的特征图f2;特征图f2经过步长为2的conv结构,和特征图f1特征融合,得到40
×
40的特征图p1;特征图p1经过步长为2的conv结构,和特征图m3特征融合,得到20
×
20的特征图p2。
[0019]
进一步的,所述head输出端包括detect结构,特征图f2、p1、p2输入到detect结构后得到80
×
80
×
(b
×
(5 c))、40
×
40
×
(b
×
(5 c))、40
×
40
×
(b
×
(5 c))这三个特征张量,其中c为数据集分类数,b为每个特征张量的锚框数量,b=3,c=2;
[0020]
每个特征张量为(t
x
,t
y
,t
w
,t
h
,p
o
,p
c1
,p
c2
)
×
3,其中t
x
、t
y
是预测框目标中心点相对于该点所在网格左上角的偏移量,t
w
、t
h
分别是预测框相对于锚框在宽度和高度上的缩放尺度,p
o
为置信度信息,(p
c1
,p
c2
)为类别信息;以图片每个网格的中心作为锚框的中心基点,通过(t
x
,t
y
,t
w
,t
h
)和锚框的宽高,可以得出预测框的位置;假设某一网格(中心)距离图片左上角的边距为(c
x
,c
y
),该网格对应的锚框的宽和高分别为(p
w
,p
h
),则预测框的位置信息就可以表示为:
[0021]
b
x
=2σ(t
x
)

0.5 c
x
[0022]
b
y
=2σ(t
y
)

0.5 c
y
[0023]
b
w
=p
w
(2σ(t
w
))2[0024]
b
h
=p
h
(2σ(t
h
))2[0025]
其中,b
x
、b
y
分别为预测框的中心点坐标,b
w
、b
h
分别为预测框的宽度和高度,σ是sigmoid函数,预测框的置信度为σ(p
o
),预测框的类别为(σ(p
c1
),σ(p
c2
))。
[0026]
进一步的,所述s2

4中在训练阶段,将预测框与真实框进行匹配得出正负样本,包括:
[0027]
采用跨网格匹配,即从真实框所在网格的上下左右的四个网格中找到离真实框中心点最近的两个网格,再加上真实框所在网格共三个网格进行匹配,计算真实框和这三个网格的所有锚框的宽高比,当真实框的宽与锚框的宽的比值、真实框的高与锚框的高的比值均大于1/4且小于4,则认为匹配,即同时满足下列公式:
[0028][0029][0030]
hyp=4
[0031]
其中,gt_w是真实框的宽,gt_h是真实框的高,anchor_w是锚框的宽,anchor_h是锚框的高;
[0032]
否则认为不匹配;
[0033]
匹配的锚框通过预测框的回归公式得出匹配的预测框的位置信息,预测框的回归公式如下:
[0034]
b
x
=2σ(t
x
)

0.5 c
x
[0035]
b
y
=2σ(t
y
)

0.5 c
y
[0036]
b
w
=p
w
(2σ(t
w
))2[0037]
b
h
=p
h
(2σ(t
h
))2[0038]
其中,b
x
、b
y
分别为预测框的中心点坐标,b
w
、b
h
分别为预测框的宽度和高度,σ是sigmoid函数,预测框的置信度为σ(p
o
),预测框的类别为(σ(p
c1
),σ(p
c2
));
[0039]
匹配的预测框作为正样本,计算与真实框的定位损失、置信度损失和分类损失,正样本匹配的真实框的置信度为真实框和正样本的交并比;不匹配的预测框则作为负样本,只计算与真实框的置信度损失,而负样本匹配的真实框的置信度为0。
[0040]
进一步的,所述损失函数包括分类损失函数loss(class)、定位损失函数loss(box)和置信度损失函数loss(obj),损失函数loss的定义如下:
[0041]
loss=loss(box) loss(obj) loss(class)
[0042][0043][0044][0045]
loss(giou)=1

giou
[0046][0047][0048][0049]
式中的参数有以下定义:网格为s
×
s,每个网格产生b个锚框,a为真实框矩形面积,b为预测框矩形面积,c为真实框与预测框形成的最小外接矩形面积,即同时包含了预测框和真实框的最小框的面积;iou指交并比,预测框和真实框的交集和并集的比值;表示第i个网格的第j个预测框匹配上了这个目标,如果匹配,否则为0;表示第i个网格的第j个预测框不匹配该目标;是第i个网格边界框的真实置信度,c是第i个网格边界框预测的置信度;是真实的条件类别概率,p
i
(c)是网络预测的条件类别概率;loss(bce)是指二元交叉熵损失;λ
box
是指定位损失的权重系数,λ
class
是指分类损失的权重系数;而置信度损失由两部分组成,正样本置信度损失和负样本置信度损失,λ
obj
是指正样本置信度损失的权重系数,λ
noobj
是指负样本置信度损失的权重系数。
[0050]
本发明通过采集可涵盖几乎所有类别的柚子病虫害图片作为训练预测模型的数据集,数据范围广,可提高目标检测的实用性;采用yolov5网络模型对柚子病虫害进行识别检测,模型尺寸小,检测速度快,方便快速部署,并可检测各种大小的目标,达到快速识别和预测的目的,为预防病虫害提供技术支撑。
附图说明
[0051]
图1为本发明实施例中的标注的病虫害图片。
[0052]
图2为本发明实施例中的标注的另一病虫害图片。
[0053]
图3为本发明实施例中的识别结果图。
[0054]
图4为本发明实施例中的另一识别结果图
[0055]
图5为本发明实施例中的标签类别识别效果展示图。
[0056]
图6为本发明实施例中目标检测评价指标(map)示意图。
[0057]
图7为本发明实施例中目标检测准确率(precision)的示意图。
具体实施方式
[0058]
一种柚子病虫害的快速识别方法,包括如下步骤:
[0059]
s1、收集柚子病虫害的图片,如图1、图2所示,采用labelimg对各图片中病虫害根据其类别进行标注,构成数据集,将数据集按照一定的比例随机分为训练集和验证集。对病虫害类别标注需要一定的专业知识,务必准确无误。
[0060]
病虫害包括桔小实蝇、菜粉蝶、柑橘凤蝶幼虫、柑橘凤蝶、疮痂果、疮痂叶、溃疡果、潜叶蛾、砂皮病、黄斑病、蚧壳虫、铁锈虱、炭疽果、黑星病、脚腐病、膏药病、炭疽叶、煤烟病、蚜虫、黑刺粉虱、红蜘蛛。图片可来自于网络,以及实地拍摄。
[0061]
训练集、验证集和测试集可按一定的比例划分,如总数据集800张图片,可分配训练集560张,验证集160张,测试集80张。测试集中的图片无需标注。
[0062]
本发明可采取如下运行环境:windows10操作系统,选用pytorch架构,使用nvidia 2080ti的显卡进行运算,cpu为intel(r)core(tm)e5,python3.7语言,cuda10.0加速环境。
[0063]
s2、将训练集和验证集中的图片输入yolov5x网络模型进行模型训练,得到yolov5x网络模型的最佳权重数据。
[0064]
s3、将最佳权重数据加载到yolov5x网络模型中,输入待识别图片,如图3、图4所示,输出识别的病虫害类别。
[0065]
本发明采用yolov5(you only look once)进行目标识别,yolov5的图像推理速度最快达0.007s,即每秒可处理140帧,满足视频图像实时检测需求,同时结构更为小巧,yolov5s版本的权重数据文件为yolov4的1/9,大小为27mb。
[0066]
yolov5网络模型包括依次连接的输入端、backbone骨干网络、neck网络和head输出端,将训练集和验证集中的图片输入yolov5网络模型进行模型训练的方法和步骤为:
[0067]
s2

1、图片预处理:图片进入输入端,输入端对图片进行预处理,预处理包括mosaic数据增强、自适应锚框计算和自适应图片缩放。
[0068]
图片预处理是将输入的图像缩放到网络的输入大小,并进行归一化等操作。在网络训练阶段,yolov5使用mosaic数据增强操作提升模型的训练速度和网络的精度,并提出了一种自适应锚框计算与自适应图片缩放方法。mosaic方式是一种混合四幅训练图像的数据增强方法,这种数据增强的方法可以丰富检测物体的背景,提高检测的精度。mosaic数据增强的基本流程为首先随机读取四张图片,然后分别对四张图片进行裁剪、翻转、缩放、色域变化等,并且按照四个方向位置摆好,最后再进行图片的组合,非常适合小目标的检测。
[0069]
在yolo系列算法中,针对不同的数据集,都需要设定特定长宽的锚点框。在网络训练阶段,模型在初始锚点框的基础上输出对应的预测框,计算其与真实框之间的差距,并执行反向更新操作,从而更新整个网络的参数,因此设定初始锚点框也是比较关键的一环,同时需要将输入图片的尺寸变换成固定大小,再送入检测模型中训练。本实施例中,图片预处理后的固定尺寸大小为640
×
640
×
3,yolov5网络模型的初始锚框设定为[116,90,156,198,373,326]、[30,61,62,45,59,119]、[10,13,16,30,33,23],网络模型在初始锚框的基础上训练得到预测框,并和真实框进行比较,根据差值反向更新,迭代调整网络模型参数。
[0070]
s2

2、特征提取:预处理后的图片进入backbone骨干网络,进行特征提取后得到三个不同大小的特征图。
[0071]
backbone骨干网络包含focus结构和csp结构,focus结构中含有切片操作,将预处理后尺寸为640
×
640
×
3的图片接入focus结构中,通过切片操作与concat操作,得到160
×
160
×
12的特征图,然后进行一次32个卷积核操作(该通道个数仅仅针对的是yolov5s结构,其它结构会有相应的变化),得到160
×
160
×
32的特征图。
[0072]
yolov5模型里中设计了2种跨阶段局部网络csp(cross stage partial network)结构,bottleneckcsp(true)和bottleneckcsp(false)。其中,bottleneckcsp(true)结构主要应用于backbone网络中,bottleneckcsp(false)结构主要应用于neck网络结构中。这两种csp结构采用了密集跨层跳层连接的思想,进行局部跨层融合,利用不同层的特征信息来获得更为丰富的特征图。
[0073]
s2

3、特征融合:将s2

2步骤得到的三个不同大小的特征图输入neck网络进行特征融合,得到三个尺度的特征图。
[0074]
本实施例中,预处理后的图片尺寸为640
×
640
×
3,三个不同大小的特征图分别为m1、m2、m3,特征图m1的大小为80
×
80,特征图m2的大小为40
×
40,特征图m3的大小为20
×
20。
[0075]
yolov5的neck网络采用fpn pan的结构,特征金字塔fpn利用上采样的方式对信息进行传递融合,路径聚合网络pan采用自底向上的特征金字塔;s2

3步骤中三个尺度的特征图分别为f2、p1、p2;所述neck网络将特征图m3进行上采样,然后和特征图m2融合,得到40
×
40的特征图f1;特征图f1再经过上采样和特征图m1特征融合,得到80
×
80的特征图f2;特征图f2经过步长为2的conv结构,和特征图f1特征融合,得到40
×
40的特征图p1;特征图p1经过步长为2的conv结构,和特征图m3特征融合,得到20
×
20的特征图p2。
[0076]
yolov5网络模型在neck网络部分构建pan网络结构,通过在fpn结构的基础上增加一条自下而上的路径,缩短了底层特征图信息与顶层特征图信息融合的路径,整个特征图融合的过程均使用concat拼接完成。head输出端部分根据提取的特征预测目标,通过在三个不同尺度的特征图上,分别对应使用三种不同大小的锚框预测目标,并使用加权极大值抑制的方式对目标框进行筛选。
[0077]
s2

4、预测输出:将s2

3步骤得到的三个尺度的特征图输入head输出端,得到三个特征张量,由此得到预测框的位置、类别和置信度。在训练集阶段,直接将预测框与真实框进行匹配得出正负样本,然后计算yolov5损失函数(包括分类损失函数、定位损失函数和置信度损失函数);在验证集阶段,采用加权非极大值抑制,筛选出预测框,得出准确率、平均精度等评价指标来不断优化模型参数。
[0078]
head输出端包括损失函数和非极大值抑制(nms)。yolov5的损失函数包括分类损失、定位损失和置信度损失,预测框的训练过程中使用giou_loss作为定位损失函数,通过计算损失函数giou_loss调节权重参数,有效解决了边界框不重合时问题。
[0079]
目标检测的后处理过程中,针对出现的众多目标框的筛选,采用加权nms(非极大值抑制)的方式筛选预测框,并通过与真实框比对,获得最优目标框,并使用反向传播算法以进一步训练yolov5网络,优化模型参数。
[0080]
yolov5不同的层使用不同的学习率调整方法,分别分为权重层(weight)、偏执层(bias)和归一化层(batchnorm2d),单独调整不同层的学习率可以使得模型训练的更好。由于刚开始训练时,模型的权重是随机初始化的,此时若选择一个较大的学习率,可能带来模型的不稳定,选择预热学习率的方式,可以使得开始训练的迭代次数内学习率较小,在预热的小学习率下,模型可以慢慢趋于稳定,等模型相对稳定后在选择预先设置的学习率进行训练,使得模型收敛速度变得更快,模型效果更佳。小学习率的范围为0到初始学习率,即0到0.01。yolov5在对学习率更新就采用了warm

up的方法预热学习率,在warm

up阶段以后采用的余弦退火算法来对学习率进行更新。
[0081]
本实施例中,所述yolov5网络模型的训练中通过设置参数cache

images来缓存图像以加快训练速度,设置参数rect进行矩形训练,设置参数multi

scale进行多尺度训练,设置参数evolve进化超参数。设置训练的数据集最大迭代次数(epoch)为300次,每次模型训练的输入图片数量(batchsize)为12,使用默认初始学习率lr0=0.01、lrf=0.2,动量
momentum=0.937。依据此模型配置,对柚子病虫害摄食行为数据集进行训练,训练结果如图3、图4所示,图中的框代表预测框的位置,预测框上标记有类别和置信度信息,如mushi0.9表示类别为柑橘木虱、置信度为0.9,fengdie 0.9表示类别为凤蝶、置信度为0.9。
[0082]
yolov5的head输出端包括detect结构,本实施例中,特征图f2、p1、p2输入到detect结构后得到80
×
80
×
(b
×
(5 c))、40
×
40
×
(b
×
(5 c))、40
×
40
×
(b
×
(5 c))这三个特征张量,其中c为数据集分类数,为了加快收敛,为每种尺度的特征张量设置了b个锚框(anchor box),预测框(bounding box)在设置的锚框基础上微调,b=3,c=2。
[0083]
预测框的回归方法如下:
[0084]
yolov5网络每个尺度网络输出为一个s
×
s
×
(b
×
(5 c))的张量。输出特征图的高度、宽度相当于将图像划分为s
×
s个网格,图像的每个网格对应输出特征图平面上的一个点。
[0085]
设每个特征张量为:(t
x
,t
y
,t
w
,t
h
,p
o
,p
c1
,p
c2
)
×
3,其中(t
x
,t
y
,t
w
,t
h
)为定位信息,t
x
、t
y
是预测框目标中心点相对于该点所在网格左上角的偏移量,t
w
、t
h
是预测框相对于锚框在宽度和高度上的缩放尺度,p
o
为置信度信息,(p
c1
,p
c2
)为类别信息;以图片每个网格的中心作为锚框的中心基点,通过(t
x
,t
y
,t
w
,t
h
)和锚框的宽高,可以得出预测框的位置。具体为:假设某一网格(中心)距离图像左上角的边距为(c
x
,c
y
),该网格对应的锚框的宽和高分别为(p
w
,p
h
),则预测框的位置信息就可以表示为:
[0086]
b
x
=2σ(t
x
)

0.5 c
x
[0087]
b
y
=2σ(t
y
)

0.5 c
y
[0088]
b
w
=p
w
(2σ(t
w
))2[0089]
b
h
=p
h
(2σ(t
h
))2[0090]
其中,b
x
、b
y
分别为预测框的中心点坐标,b
w
、b
h
分别为预测框的宽度和高度,σ是sigmoid函数,预测框的置信度为σ(p
o
),预测框的类别为(σ(p
c1
),σ(p
c2
))。
[0091]
真实框和预测框的匹配:
[0092]
如上所述,yolov5网络的输出张量能得到众多的预测框,为了降低计算量,需要匹配出与真实框(标注的边框)接近的预测框,再计算损失函数。
[0093]
采用跨网格匹配,即从真实框(标注的边框)所在网格的上下左右的四个网格中找到离真实框中心点最近的两个网格,再加上真实框所在网格共三个网格进行匹配,计算真实框和这三个网格的所有的预测框宽高比,当真实框的宽与锚框的宽的比值、真实框的高与锚框的高的比值均大于1/4且小于4,则认为匹配,匹配的预测框通过预测框的回归公式得出匹配预测框的位置信息。预测框的回归公式为上述预测框的位置信息表达式。否则则认为不匹配。
[0094]
宽高比表达公式为:
[0095][0096]
[0097]
hyp=4
[0098]
式中gt_w是真实框的宽,gt_h是真实框的高,anchor_w是预测框的宽,anchor_h是预测框的高。这两个不等式都要满足才认为匹配。
[0099]
匹配的预测框作为正样本,计算与真实框的定位损失、置信度损失和分类损失,正样本匹配的真实框的置信度为真实框和正样本的交并比iou;不匹配的预测框则作为负样本,只计算与真实框的置信度损失,而负样本匹配的真实框的置信度为0。
[0100]
模型优化:计算yolov5的损失函数,使用反向传播算法进一步训练yolov5网络,通过验证集不断优化模型参数。
[0101]
所述损失函数包括分类损失函数loss(class)、定位损失函数loss(box)和置信度损失函数loss(obj),损失函数loss的定义如下:
[0102]
loss=loss(box) loss(obj) loss(class)
[0103][0104][0105][0106]
loss(giou)=1

giou
[0107][0108][0109][0110]
式中的参数有以下定义,网格为s
×
s,每个网格产生b个锚框,b对应上式中的b,意思是指遍历每个网格的锚框,查找符合条件能匹配真实框的预测框。a为真实框矩形面积,b为预测框矩形面积,c为真实框与预测框形成的最小外接矩形面积,即同时包含了预测框和真实框的最小框的面积;iou(intersection over union)指交并比,预测框和真实框的交集和并集的比值;表示第i个网格的第j个预测框匹配上了这个目标,如果匹配,否则为0;表示第i个网格的第j个预测框不匹配该目标;是第i个网格边界框的真实置信度,c是第i个网格边界框预测的置信度;是真实的条件类别概率,p
i
(c)是网络预测的条件类别概率;loss(bce)是指二元交叉熵损失(binary cross entropy);λ
box
是指定位损失的权重系数,λ
class
是指分类损失的权重系数;而置信度损失由两部分组成,正样本置信度损失和负样本置信度损失,λ
obj
是指正样本置信度损失的权重系数,λ
noobj
是指负
样本置信度损失的权重系数。
[0111]
本发明得到的yolov5x网络模型的识别效果如图5

图7所示,图5中柱状图显示本模型可识别21种病虫害,800张原始图片,标注框x,y坐标在整个图中的位置分布很均匀,标注框height与width的选取也很平均,右上的矩形框为左下图与右下图的可视化展示。
[0112]
map(mean average precision)表示平均准确率均值,取值在[0,1]之间,map越大,模型检测性能越高,是评价目标检测算法性能的最重要指标之一。将检测图像中,对某一个类别的所有目标检测框的置信度由大到小排序,逐个计算累计至每个检测框时的准确率及召回率,并绘制precision

recall曲线。ap即为单个类别precision

recall曲线与精度、召回率坐标轴围成的面积,map为多个类别ap的平均值。
[0113]
如图6所示,map

0.5训练epoch在220轮之后在0.7535附近趋于稳定,map

0.5:0.9训练epoch在150轮之后在0.65附近趋于稳定,box_loss.预测框位置box的loss在200轮之后趋于稳定,cls_loss置信度score的loss在150轮之后趋于稳定。图7为准确率与召回率共同构建的map图,图中all classes 0.685map@0.5。
[0114]
结果表明:用本发明的方法训练的yolov5模型的目标定位准确,识别率高,yolov5算法能实现柚子病虫害实时检测,准确率和检测速度均能满足实验场景需求,为其他种类水果的病虫害检测提供参考。上列详细说明是针对本发明可行实施例的具体说明,该实施例并非用以限制本发明的专利范围,凡未脱离本发明所为的等效实施或变更,均应包含于本案的专利范围中。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜