一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于目标场景的遥感影像样本优选方法与流程

2023-02-04 17:08:47 来源:中国专利 TAG:


1.本发明属于遥感影像处理领域,具体涉及一种基于目标场景的遥感影像样本优选方法。


背景技术:

2.近年来,信息化时代的到来为遥感领域提供了海量遥感数据的支持,推动了遥感技术的飞速发展。其中,机器学习技术能够有效地实现对海量数据的应用,使遥感领域上升到一个新的层面。
3.众所周知,大量高质量的遥感样本的数据支持能够有效提升遥感领域机器学习模型的训练效果。然而,生成如此庞大的高质量遥感样本数据集,成本高并具有挑战性。最近的研究显示,尤其是在训练深度神经网络时,不同的样本对网络训练的效果也不尽相同。在一些场景下,通过去除一大部分的训练样本数据能够得到相近甚至更好的训练效果,即低质量的样本数据和噪声数据可能会对训练产生负面影响。在另一些场景下,由于能够大量获取的训练样本数据与测试数据存在于不同的域,无法避免地会导致训练数据和测试数据间特征等的不匹配。因而,选择相关性最高的样本数据来最小化数据间的不匹配也尤为重要。
4.将遥感样本数据的价值量化,能够直观的体现不同样本数据间价值的差异,从而基于量化的价值选取价值高的样本用于目标场景的应用,减小差错样本和噪声样本的影响,提升针对目标场景的样本匹配性。除此之外,价值量化的样本数据还能有助于指导提供更优的数据采集方案,为高效地构建超大样本数据集提供了新的思路。目前常见的数据价值量化方法面临着两个主要的问题:价值量化效果不好,如loo(leave-one-out)方法在面临几乎相同的样本数据时,会低估这些样本数据的价值;计算成本庞大,如data shapley方法,计算复杂度随着样本数据的增加呈指数式增长。因而,需要有一种基于新型数据价值量化方法的遥感影像样本优选方法,用于提高遥感样本优选的效率和效果。


技术实现要素:

5.上述现有技术的问题,将强化学习技术用于基于目标场景的遥感影像样本优选,通过构建的强化学习决策框架和少量目标场景样本数据,将初始遥感样本价值量化,根据量化的价值对初始遥感样本进行优选,优选出匹配目标场景的样本,实现了基于目标场景的低计算成本下的精准样本优选。
6.为实现上述技术目的,本发明提供一种基于目标场景的遥感影像样本优选方法,该方法包括以下步骤:
7.s1:获取初始样本的特征向量和目标场景样本的特征向量;
8.s2:将所述初始样本的特征向量作为模型输入、以所述目标场景样本的特征向量作为校准数据对强化学习决策框架中的价值评估模型和预测模型进行迭代训练,获得基于目标场景的价值评估模型和预测模型;
9.s3:使用所述基于目标场景的价值评估模型对所述初始样本进行价值评估得到样本估值,基于所述样本估值选取适用于目标场景的样本。
10.可选地,步骤s2包括:
11.s21:对所述初始样本的特征向量进行分组,获得分组后的样本的特征向量;
12.s22:将各分组后的样本的特征向量输入至所述强化学习决策框架中的价值评估模型,得到各组样本的估值;
13.s23:根据各组样本的估值的概率分布,筛选估值满足预设要求的初始样本的特征向量并输入所述强化学习决策框架中的预测模型;
14.s24:以目标场景样本的特征向量作为校准数据,基于损失和奖励策略通过所述预测模型计算损失和奖励;
15.s25:基于所述损失,优化所述预测模型,并将所述奖励回馈至所述价值评估模型进行模型优化;
16.s26:迭代步骤s21-s25至预设迭代次数,得到基于目标场景的价值评估模型和预测模型。
17.可选地,步骤s24包括:
18.基于预测模型的输出值和所述校准数据,使用损失函数计算损失;
19.根据所述损失计算并更新移动平均损失;
20.基于所述损失和所述移动平均损失计算奖励,其中,所述损失用于指导降低奖励,所述移动平均损失用于指导提升奖励。
21.可选地,所述根据所述损失计算并更新移动平均损失,包括:
22.根据所述损失,通过以下公式计算并更新移动平均损失
[0023][0024]
其中,l
avg
为移动平均损失,t为移动平均周期,vk为校准数据,n为校准数据的数量,lp为本次计算得到的损失。
[0025]
可选地,步骤s3包括:
[0026]
将所述初始样本的特征向量输入所述基于目标场景的价值评估模型,得到所述初始样本的样本估值;
[0027]
基于所述样本估值的分布,对所述初始样本的估值进行二值化采样,得到仅包含0和1的优选估值;
[0028]
选取所述优选估值为1的样本作为适用于目标场景的样本。
[0029]
可选地,步骤s1包括:
[0030]
使用卷积神经网络获取初始样本的特征图和目标场景样本的特征图,将所述特征图转化为特征向量的形式,以获得初始样本和目标场景样本的特征向量;
[0031]
或,使用预设特征提取算子对初始样本和目标场景样本进行特征提取,获得初始样本和目标场景样本的特征向量,其中,所述预设特征提取算子包括sift、hog或lbp。
[0032]
本发明的有益效果为:提出了一种基于目标场景的遥感影像样本优选方法,将强化学习技术用于基于目标场景的遥感影像样本优选,通过构建的强化学习决策框架和少量目标场景样本数据,将初始遥感样本价值量化,根据量化的价值对初始遥感样本进行优选,
优选出匹配目标场景的样本,实现了基于目标场景的低计算成本下的精准样本优选。
附图说明
[0033]
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0034]
图1为本发明基于目标场景的遥感影像样本优选方法实施例的流程示意图;
[0035]
图2为本发明构建的强化学习决策框架的结构图。
具体实施方式
[0036]
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
[0037]
请参照图1,图1为本发明基于目标场景的遥感影像样本优选方法实施例的流程示意图,该方法包括以下步骤:
[0038]
s1:提取初始样本和目标场景样本的特征向量。
[0039]
应当理解的是,遥感样本特征的提取对整个优选方法的准确率有较大影响,需要使用适合遥感样本特性的特征提取方法。可选地,使用卷积神经网络获取初始样本的特征图和少量目标场景样本的特征图,将所述特征图转化为特征向量的形式,以获得初始样本和少量目标场景样本的特征向量;
[0040]
或,使用预设特征提取算子对初始样本和少量目标场景样本进行特征提取,获得初始样本和少量目标场景样本的特征向量,其中,所述预设特征提取算子包括sift、hog或lbp。
[0041]
本实施例中使用卷积神经网络对初始样本和少量目标场景样本进行特征提取。实际应用中,可选用resnet101作为卷积神经网络模型,使用relu函数作为激活函数防止网络退化现象,并在模型中添加bn层用来调整数据分布,提升网络泛化能力。
[0042]
s2:将所述初始样本的特征向量作为模型输入、以所述目标场景样本的特征向量作为校准数据对强化学习决策框架中的价值评估模型和预测模型进行迭代训练,获得基于目标场景的价值评估模型和预测模型。
[0043]
本实施例中所述强化学习决策框架如图2所示,该强化学习决策框架中包括采样器、价值评估模型和预测模型。
[0044]
需要说明的是,本实施例上述价值评估模型和上述预测模型均由神经网络构成。本实施例使用一个多层感知机(mlp,multilayer perceptron)构建价值评估模型。mlp包含两个隐层,使用sigmoid函数作为激活函数。mlp输出每个输入样本对应的估值,估值范围为0~1,该估值表征每个输入样本被后续选择的概率。后续通过采样器将估值二值化为0和1,然后优选估值为1的样本作为优选样本并输入后续的预测模型中。
[0045]
需要说明的是,价值评估模型输出的是样本的估值,并不基于先验样本标签,因此
常见监督学习方式不适用于该场景。本发明使用强化学习方法,借助基于目标场景的预测模型,通过奖励策略将奖励回馈至价值评估模型指导模型的优化。
[0046]
具体地,步骤s2包括:
[0047]
s21:对所述初始样本的特征向量进行分组,获得分组后的样本的特征向量。
[0048]
s22:将各分组后的样本的特征向量输入至所述强化学习决策框架中的价值评估模型,得到各组样本的估值。
[0049]
s23:根据各组样本的估值的概率分布,筛选估值满足预设要求的初始样本的特征向量并输入所述强化学习决策框架中的预测模型。
[0050]
s24:以目标场景样本的特征向量作为校准数据,基于损失和奖励策略通过所述预测模型计算损失和奖励。
[0051]
s25:基于所述损失,优化所述预测模型,并将所述奖励回馈至所述价值评估模型进行模型优化。
[0052]
s26:迭代步骤s21-25至预设迭代次数,得到基于目标场景的价值评估模型和预测模型。
[0053]
本实施例中,对所述初始样本的特征向量进行分组的方式可以是随机分组,所述预设迭代次数可以设为200次。
[0054]
以一具体实施例说明筛选所述估值满足预设要求的初始样本的特征向量的过程:
[0055]
初始样本数量可为50000个,目标场景的少量样本数量可为200个,初始样本和目标场景的少量样本均经过标准化和归一化处理。实际训练过程中,可将初始样本划分为1000组,每组50个,一次输入一组样本的特征向量,逐个输入至价值评估模型,得到该组样本的估值,使用多域分布采样器对该组样本的估值进行采样,得到仅包含0和1的优选估值。使用乘法器对所述优选估值和该组样本的特征向量进行相乘,得到优选估值为1的满足要求的优选样本的特征向量。
[0056]
本实施例中使用交叉熵损失函数计算预测模型的损失。
[0057]
具体地,步骤s24包括:
[0058]
基于预测模型的输出值和所述校准数据,使用损失函数计算损失;
[0059]
根据所述损失计算并更新移动平均损失;
[0060]
基于所述损失和所述移动平均损失计算奖励,其中,所述损失用于指导降低奖励,所述移动平均损失用于指导提升奖励。
[0061]
本实施例中预测模型根据损失反向传播进行训练,根据所述损失计算并更新移动平均损失,基于所述损失和所述移动平均损失计算奖励,所述损失指导减少奖励,所述移动平均损失指导提升奖励。其中,所述移动平均损失的计算方法为:
[0062][0063]
其中,l
avg
为移动平均损失,t为移动平均周期,vk为校准数据,n为校准数据的数量,lp为本次计算得到的损失。本实施例中可选取t=20,n=20。
[0064]
s3:使用所述基于目标场景的价值评估模型对所述初始样本进行价值评估得到样本估值,基于所述样本估值选取适用于目标场景的样本。
[0065]
具体地,步骤s3包括:
[0066]
将所述初始样本的特征向量输入所述基于目标场景的价值评估模型,得到所述初始样本的样本估值。
[0067]
基于所述样本估值的分布,对所述初始样本的估值进行二值化采样,得到仅包含0和1的优选估值。
[0068]
选取所述优选估值为1的样本作为适用于目标场景的样本。
[0069]
应当理解的是,经过前述训练过程已得到基于目标场景的价值评估模型和预测模型。将初始样本输入该价值评估模型可以得到所有初始样本的估值。此时可以选择继续使用采样器将估值根据分布进行二值化处理,并选取值为1的样本作为适用于目标场景的优选样本,或者根据初始样本的估值的排序来根据需求选取一定比例的高估值样本。
[0070]
本实施例中选取最终估值高于所有初始样本估值中值的样本作为适用于目标场景的优选样本。
[0071]
经过实验验证,使用优选样本对目标场景进行解译,解译准确率明显优于使用所有初始样本的情况,证明了优选样本的有效性。整体运算时间远小于同样初始样本和设置下的loo和data shapley方法。
[0072]
本发明的有益效果为:提出了一种基于目标场景的遥感影像样本优选方法,将强化学习技术用于基于目标场景的遥感影像样本优选,通过构建的强化学习决策框架和少量目标场景样本数据,将初始遥感样本价值量化,根据量化的价值对初始遥感样本进行优选,优选出匹配目标场景的样本,实现了基于目标场景的低计算成本下的精准样本优选。
[0073]
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
[0074]
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献