一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

对农作物种植区域面积进行提取的无监督域自适应方法与流程

2022-02-22 18:05:36 来源:中国专利 TAG:


1.本发明涉及遥感影像技术领域,尤其涉及一种对农作物种植区域面积进行提取的无监督域自适应方法。


背景技术:

2.农作物产品作为日常生活中的必需品越来越受消费者的重视,需求的增加给优质的农作物及其产区带来了很多机会。对农作物种植区域进行高效,精确的面积估计是提高农业生产力、实现农业集约化发展的前提和基础,对于有关部门进行农作物种植管理、农作物产量预估并制定相关调控政策具有重要意义。
3.丰富的遥感影像和快速发展的语义分割算法为农作物种植区域分割带来了新的机遇。然而,由于领域偏移现象使得分割算法无法在大规模农作物种植区域应用。遥感图像获取时受到不同传感器,天气,时间等方面的影响,不同条件下获取的遥感影像存在差异,可将这些存在差异的影像视为不同领域下的影像,将存在标签用于训练的图像称为源域图像,没有标签的图像称为目标域图像。在源域数据集上训练的模型,当应用对象是与训练集的相同域的图像时,可以得到较好的分割效果。但来自不同域的图像进行分割时,性能会严重下降。通常的解决方案是在目标域上创建一个新的语义标记数据集并重新训练模型。但是,这种方法周期长、成本高,不适合实际应用。
4.无监督领域自适应方法可以在不使用目标域图像标签的条件下帮助模型适应新的领域,可以一定程度上解决领域偏移问题。其本质就是通过对源域和目标域的特征分布进行调整来缓解领域偏移问题。之前的大部分无使用生成对抗网络的监督域自适应方法根据图像中的对象的分割结果存在一定相似性这一观点,在源域和目标域的概率/标签空间上进行特征对齐都是,然而,将这种思想应用于无固定轮廓的农作物区域分割时,在边缘分布对齐过程中会出现严重的类错配,不同类特征的对齐会导致对齐失败。
5.本发明通过构建类级特征集合域自适应模型,减少了类错配问题,以较小的成本缓解不同域之间的领域偏移问题,从而获得了推广能力较强的分割模型。


技术实现要素:

6.本发明的目的是为了以最小的成本解决分割模型中的推广问题,一般的训练好的模型无法在新获取的遥感影像上取得令人满意的效果,主要是不同领域的图像存在分布差异,本发明的类级特征集合域自适应模型在不需要产生额外标记成本的基础上,使得模型能够完成新获取影像上的农作物种植区域面积提取的工作。
7.一种对农作物种植区域面积进行提取的无监督域自适应方法,包括以下步骤:
8.步骤1:收集不同领域遥感图像,选取某一领域遥感图像,标记后进行裁剪制作源域数据集,其他领域图像直接裁剪后制作目标域数据集;
9.步骤2:通过源域数据集和目标域数据集对类级特征集合域自适应模型进行训练,得到分割模型;
10.步骤3:将需要识别的遥感图像放入模型得到结果;
11.步骤4:根据遥感图像分辨率和分割结果计算农作物种植区域面积;
12.在步骤1中,收集的遥感影像可以是来自不同领域的存在差异的影像。只有源域数据集的图像存在对应标签,目标域数据集的图像不需要对应标签。
13.在步骤2中,对类级特征集合域自适应模型进行训练获取最终模型包括以下步骤:
14.(1):构建类级特征集合域自适应模型;
15.(2):将不同领域数据集输入模型交替训练模型的生成器和鉴别器,反复迭代直至模型性能达到最优;
16.在步骤(1)中,类级特征集合域自适应模型由一个生成器和一个类级特征集合鉴别器组成,生成器学习潜在特征,对图像中不同对象进行区分,类级特征集合鉴别器提取图像上的类别特征集合后,判断该集合属于源域或目标域下的哪种类别。
17.在步骤(2)中,交替训练模型的生成器和鉴别器包括以下步骤:
18.1):使用源域数据训练生成器模型,得到一个基础分割模型;
19.2):固定生成器参数,将源域数据和目标域数据输入生成器获取潜在特征,提取类别特征集合;
20.3):将提取类别特征集合放入鉴别器中完成对类级特征集合鉴别器的训练;
21.4):固定鉴别器参数,根据生成器产生的分割损失和鉴别器的对抗损失重新调整生成器参数;
22.5):重复步骤2)-步骤4),直至模型产生损失趋于稳定;
23.在步骤3)中,用于训练鉴别器的损失函数定义如下:
[0024][0025]
是源域图像的某一类别特征集合的判别输出,是源域图像的域标签。是目标域图像的某一类别特征集合的判别输出,是目标域图像的域标签。c为输入图像的类别数。k是的维度,值与c相等。
[0026]
在步骤4)中,用于训练生成器的损失函数定义如下:
[0027][0028][0029][0030]
其中l
seg
是分割损失和是对抗损失。h、w、c分别为输入图像的高度、宽度和类别数。ps是是源图像的分割输出,即对图像的每一个像素点的预测概率。ys是源域图像对应的one-hot标签。是目标域图像的某一类别特征集合的判别输出,是目标域图像的域标签。xs,ys,x
t
分别代表源域图像,源域图像对应标签和目标域图像。λ
adv
是控制对抗损失影响的权重因子
[0031]
类级特征集合由生成器提供的深度语义特征进行计算获取,首先获取特征加权
图,其通道数等同于类别数,特征加权图每一层对应某一类别,每层的值代表对应像素点属于某一类别的程度。根据特征加权图中该像素点属于某一类别的权重和像素的特征表示加权求和得到类级特征集合。类级特征集合在鉴别器中通过多层线性变换和激活函数后得到判别输出。在自适应学习的过程中,对对抗学习中的对抗损失进行重新加权,将更多注意力聚焦在我们期望学习的类别上。
[0032]
在步骤3中,对需要进行农作物识别的区域的遥感影像切割为模型可识别的小图,输入生成器得到分割结果。
[0033]
在步骤4中,将图像拼接后,根据图像中识别为农作物种植区域的像素点个数和单个像素点代表面积计算整体农作物种植区域面积。
[0034]
与现有技术相比,本发明具有如下技术效果:
[0035]
(1):本发明为了高效、准确的获取农作物种植区域面积,提供了一种通过遥感影像识别农作物种植区域的方法;相比于一般的人工统计,更加节约成本,效率更高。相比于传统方法识别遥感影像上的农作物种植区域,识别精度更高,更容易在大范围区域上推广;
[0036]
(2):本发明提出的类级特征集合域自适应模型不需要额外标记数据,可以适应多个领域的遥感影像数据;一般的域自适应方法不能保证在实际应用中有效完成对农作物种植区域的分割。遥感影像中的农作物种植区域没有明确的边缘结构,这就导致无法利用图像中的对象的分割结果间的相似性进行对齐。同时,域自适应中常见的类失配问题也使得模型无法达到最佳性能。本发明构建类级特征集合域自适应模型通过类级特征集合对齐不同领域特征,可以较好解决一般的域自适应方法中的问题,提升模型的性能;
[0037]
(3):本发明对对抗学习中的对抗损失进行重新加权,将更多注意力聚焦在我们期望学习的类别上,一般的无监督域自适应方法中学习全部对象的特征相比,本发明可以在我们期望学习的类别上有更好的表现;
[0038]
(4):本发明通过设计类级特征集合鉴别器,提取网络中具有深度语义特征的类级特征集合,类级特征集合可以有效的对不同类别的特征和上下文信息进行表示。在域自适应中使用设计的类特征集合鉴别器,可以在区分域内不同类别特征的同时对齐域间相同类别,大大抑制了类不匹配问题;
附图说明
[0039]
下面结合附图和实施例对本发明作进一步说明:
[0040]
图1为本发明的流程图;
[0041]
图2为本发明的训练模型的流程图;
[0042]
图3为本发明中网络结构图;
[0043]
图4为本发明中类级特征集合鉴别器图;
具体实施方式
[0044]
本发明的目的是为了以最小的成本解决分割模型中的领域偏移问题,实现农作物种植区域面积的提取工作。
[0045]
对农作物种植区域面积进行提取的无监督域自适应方法,包括以下步骤:
[0046]
步骤1:收集不同领域遥感图像,选取某一领域遥感图像,标记后进行裁剪制作源
域数据集,其他领域图像直接裁剪后制作目标域数据集;
[0047]
步骤2:通过源域数据集和目标域数据集对类级特征集合域自适应模型进行训练,得到分割模型;
[0048]
步骤3:将需要识别的遥感图像放入模型得到结果;
[0049]
步骤4:根据遥感图像分辨率和分割结果计算农作物种植区域面积;
[0050]
在步骤1中,收集的遥感影像可以是来自不同领域的存在差异的影像。只有源域数据集的图像存在对应标签,目标域数据集的图像不需要对应标签。
[0051]
在步骤2中,对类级特征集合域自适应模型进行训练获取最终模型包括以下步骤:
[0052]
(1):构建类级特征集合域自适应模型;
[0053]
(2):将不同领域数据集输入模型交替训练模型的生成器和鉴别器,反复迭代直至模型性能达到最优;
[0054]
在步骤(1)中,类级特征集合域自适应模型由一个生成器和一个类级特征集合鉴别器组成,生成器学习潜在特征,对图像中不同对象进行区分,类级特征集合鉴别器提取图像上的类别特征集合后,判断该集合属于源域或目标域下的哪种类别。
[0055]
在步骤(2)中,交替训练模型的生成器和鉴别器包括以下步骤:
[0056]
1):使用源域数据训练生成器模型,得到一个基础分割模型;
[0057]
2):固定生成器参数,将源域数据和目标域数据输入生成器获取潜在特征,提取类别特征集合;
[0058]
3):将提取类别特征集合放入鉴别器中完成对类级特征集合鉴别器的训练;
[0059]
4):固定鉴别器参数,根据生成器产生的分割损失和鉴别器的对抗损失重新调整生成器参数;
[0060]
5):重复步骤2)-步骤4),直至模型产生损失趋于稳定;
[0061]
在步骤3)中,用于训练鉴别器的损失函数定义如下:
[0062][0063]
是源域图像的某一类别特征集合的判别输出,是源域图像的域标签。是目标域图像的某一类别特征集合的判别输出,是目标域图像的域标签。c为输入图像的类别数。k是的维度,值与c相等。
[0064]
在步骤4)中,用于训练生成器的损失函数定义如下:
[0065][0066][0067][0068]
其中l
seg
是分割损失和是对抗损失。h、w、c分别为输入图像的高度、宽度和类别数。ps是是源图像的分割输出,即对图像的每一个像素点的预测概率。ys是源域图像对应
的one-hot标签。是目标域图像的某一类别特征集合的判别输出,是目标域图像的域标签。xs,ys,x
t
分别代表源域图像,源域图像对应标签和目标域图像。λ
adv
是控制对抗损失影响的权重因子
[0069]
类级特征集合由生成器提供的深度语义特征进行计算获取,首先获取特征加权图,其通道数等同于类别数,特征加权图每一层对应某一类别,每层的值代表对应像素点属于某一类别的程度。根据特征加权图中该像素点属于某一类别的权重和像素的特征表示加权求和得到类级特征集合。类级特征集合在鉴别器中通过多层线性变换和激活函数后得到判别输出。在自适应学习的过程中,对对抗学习中的对抗损失进行重新加权,将更多注意力聚焦在我们期望学习的类别上。
[0070]
在步骤3中,对需要进行农作物识别的区域的遥感影像切割为模型可识别的小图,输入生成器得到分割结果。
[0071]
在步骤4中,将图像拼接后,根据图像中识别为农作物种植区域的像素点个数和单个像素点代表面积计算整体农作物种植区域面积。
[0072]
实施例:
[0073]
本发明在遥感图像上进行农作物种植区域面积提取方法按照以下方式进行:
[0074]
步骤1:获取遥感影像,选取某一领域遥感图像作为源域,适应arcgis进行标记,共包含两种类别,包括农作物种植区域和背景,其他领域遥感图像作为目标域。
[0075]
步骤2:将目标域图像,源域图像和标记进行裁剪和数据增强操作,裁剪后图像大小为512
×
512像素。获得带标签的源域数据集和没有标签的目标域数据集。
[0076]
步骤3:构建类级特征集合域自适应模型,类级特征集合域自适应模型由一个生成器和一个类级特征集合鉴别器组成,生成器学习图像潜在特征,对图像中不同对象进行区分,类级特征集合鉴别器提取图像上的类别特征集合后,判断该集合属于源域或目标域下的哪种类别。如图4所示,类级特征集合由生成器提供的深度语义特征进行计算获取,首先获取特征加权图,其通道数等同于类别数,特征加权图每一层对应某一类别,每层的值代表对应像素点属于某一类别的程度。根据特征加权图中该像素点属于某一类别的权重和像素的特征表示加权求和得到类级特征集合。类级特征集合在鉴别器中通过多层线性变换和激活函数后得到判别输出。
[0077]
步骤4:定义损失函数。用于训练鉴别器的损失函数定义如下:
[0078][0079]
是源域图像的某一类别特征集合的判别输出,是源域图像的域标签。是目标域图像的某一类别特征集合的判别输出,是目标域图像的域标签。c为输入图像的类别数。k是的维度,值与c相等。
[0080]
用于训练生成器的损失函数定义如下:
[0081]
[0082][0083][0084]
其中l
seg
是分割损失和是对抗损失。h、w、c分别为输入图像的高度、宽度和类别数。ps是是源图像的分割输出,即对图像的每一个像素点的预测概率。ys是源域图像对应的one-hot标签。是目标域图像的某一类别特征集合的判别输出,是目标域图像的域标签。xs,ys,x
t
分别代表源域图像,源域图像对应标签和目标域图像。λ
adv
是控制对抗损失影响的权重因子
[0085]
步骤5:交替训练模型的生成器和鉴别器。使用源域数据训练生成器模型,得到一个基础分割模型;固定生成器参数,将源域数据和目标域数据输入生成器获取潜在特征,提取类别特征集合;将提取类别特征集合放入鉴别器中完成对类级特征集合鉴别器的训练;固定鉴别器参数,根据生成器产生的分割损失和鉴别器的对抗损失重新调整生成器参数;重复上述步骤,直至模型产生损失趋于稳定;
[0086]
步骤6:对需要进行农作物识别的区域的遥感影像切割为模型可识别的小图,输入生成器得到分割结果:将图像拼接后,根据图像中识别为农作物种植区域的像素点个数和单个像素点代表面积计算整体农作物种植区域面积。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献