一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于对比对抗学习的领域自适应方法及装置与流程

2022-02-22 23:19:36 来源:中国专利 TAG:


1.本发明涉及计算机视觉的技术领域,尤其涉及一种基于对比对抗学习的领域自适应方法,以及基于对比对抗学习的领域自适应装置。


背景技术:

2.本发明重点解决无监督领域自适应的图像分类问题,将深度网络和领域自适应问题相结合。通过在特征空间对样本的特征进行处理,减小源域和目标域分布的差异,使得源域上学到的知识同样可以作用于目标域。深度无监督领域自适应作为一个备受关注的研究领域,已有大量的学者参与了这个领域的研究工作。目前,深度无监督领域自适应方法主要可以分为三类,分别是:基于分布距离度量的方法,基于域对抗的方法以及基于重构误差的方法。
3.(1)基于分布距离度量的方法:
4.这类方法的核心思想是通过最小化不同域之间的分布距离来实现不同域数据之间的对齐。目前最大平均差异(mmd)、相关性对齐(coral)和wasserstein度量这三类度量分布距离的方式被广泛应用在这类算法中。最大平均差异(mmd)最初用于检验两个分布是否相同,现在一般用于度量两个分布之间的相似性。该度量通过寻找在样本空间上的一个连续函数,求不同分布的样本在该函数上的函数值的均值来求解两个分布对应于这一函数的平均差异。如果平均值不同,那么样本很可能不是来自同一个分布,因为可以确定当且仅当两个分布相等时,他们之间的mmd距离为零。将这种思想用于深度自适应方法时,可以通过对深度网络进行最小化特征分布之间的mmd距离的约束,来实现减小特征分布之间的mmd距离,并达到最小化深度网络对应层之间的输出特征之间的分布差异的目的。考虑到深度网络具有多层结构,其中每一层都会输出相应的特征。为了探索mmd距离约束与不同层间输出之间的适配性,longetal.提出了多项式核mmd(mk-mmd)算法。此外,bousmalis等人在探索了基于mmd的领域自适应方法的有效性。基于相关性对齐(coral)的自适应方法与mk-mmd方法相似,更多的考虑了整个域的空间结构,从数据波动性的角度考虑域间分布的对齐。这类方法通过减小源特征和目标特征的二阶统计量(协方差)之间的距离,使得数据的波动性相似,通过这种方式使位于两个域的不同分布的结构较为一致,从而减小两个分布之间的差异。由最优运输问题定义的wasserstein距离也叫做推土机距离(emd),用于度量不同分布之间的距离。这类方法通过求解最优运输规划问题最小化域分布差异。
5.(2)基于域对抗的方法:
6.学者们将对抗的思想引入da,得到了基于域对抗方法的领域自适应方法。基于对抗的领域自适应方法引入域判别器,成功的将领域自适应问题和对抗网络结合在一起。域判别器最大化域分布差异,特征提取器最小化域分布差异。这类方法通过特征提取器和域判别器之间的对抗,将来自源域和目标域的数据投影到了一个公共空间中,得到了不同域数据在该空间中的域不变表示,并利用这些域不变表示特征实现域间数据差异的消除。这种基于域对抗的方法通常需要通过交替迭代的方式寻找最优解。为了减少模型的时间复杂
度,通过引入梯度反转层,使得网络成为一个端到端的模型,来实现模型复杂度的降低。此外,shen等人使用wasserstein距离约束域判别器进行域对抗学习,减小数据分布之间的差异,取得了良好的成果。
7.(3)基于误差重构的方法
8.相对于减小数据分布之间的差异,该方法假设可以获得样本分类信息的特征,同时该特征可用于重构原始数据。这类方法需要编码器和解码器。编码器对源域数据编码,而后分类器对该特征进行分类,这样使得编码器生成的特征能够区分源域的样本(即是一个比较好的特征),对于目标域特征用解码器解码,尽量还原目标域的样本。这样得到的特征所在的特征空间在源域和目标域样本上相近。
9.上述方法都有其各自的优势,但也普遍存在待解决的难题。即如何在自适应过程中充分挖掘源域样本有效信息,有效防止误匹配以及如何在自适应过程中适配底层的特征。


技术实现要素:

10.为克服现有技术的缺陷,本发明要解决的技术问题是提供了一种基于对比对抗学习的领域自适应方法,其保障了分类器的多样性,使得双分类器能够更高效的找出处于分类边界的样本,使得模型学习到的特征含有更多有效信息,从而较好地解决无监督领域自适应问题,在传统基于双分类器对抗方法的基础上,不仅考虑分类器在目标域上的决策边界,同时也进一步关注域间差异。
11.本发明的技术方案是:这种基于对比对抗学习的领域自适应方法,该方法包括以下步骤:
12.(1)在源域数据上使用损失函数l
cls
(xs,ys)训练整个网络模型,优化过程定义为公式(1):
[0013][0014]
其中,l
ce
(
·

·
)是交叉熵损失,θg,θ
c1
θ
c2
分别是特征网络g,c1,c2中的参数;
[0015]
(2)固定特征提取器中参数,仅更新分类器c1和c2,最小化分类器分类损失以及最大化分类器对目标域样本判别差异,损失函数为公式
[0016]
(2):
[0017][0018]
其中,l
dis
(
·

·
)表示双分类器对目标域样本判别差异仅更新分类器中的参数,同时模型加入分布对齐损失并最小化特征相似度,定义为公式(7):
[0019][0020]
其中,θ
c1
,θ
c2
分别代表了分类器c1和c2中的参数,λ和η分别代表损失函数中的平衡参数;
[0021]
(3)固定分类器c1和c2中的参数,使用l
dis
更新特征提取器中的参数,在这一步骤中保留了自适应损失项,定义为公式(8):
[0022][0023]
本发明在源域数据上使用损失函数l
cls
(xs,ys)训练整个网络模型,固定特征提取器中参数,仅更新分类器c1和c2,最小化分类器分类损失以及最大化分类器对目标域样本判别差异,固定分类器c1和c2中的参数,使用l
dis
更新特征提取器中的参数,在这一步骤中保留了自适应损失项,因此保障了分类器的多样性,使得双分类器能够更高效的找出处于分类边界的样本,使得模型学习到的特征含有更多有效信息,从而较好地解决无监督领域自适应问题,在传统基于双分类器对抗方法的基础上,不仅考虑分类器在目标域上的决策边界,同时也进一步关注域间差异。
[0024]
还提供了一种基于对比对抗学习的领域自适应装置,该装置包括:
[0025]
训练模块,其配置来在源域数据上使用损失函数l
cls
(xs,ys)训练整个网络模型,优化过程定义为公式(1):
[0026][0027]
其中,l
ce
(
·

·
)是交叉熵损失,θg,θ
c1
θ
c2
分别是特征网络g,c1,c2中的参数;分类器更新模块,其配置来固定特征提取器中参数,仅更新分类器c1和c2,最小化分类器分类损失以及最大化分类器对目标域样本判别差异,损失函数为公式(2):
[0028][0029]
其中,l
dis
(
·

·
)表示双分类器对目标域样本判别差异仅更新分类器中的参数,同时模型加入分布对齐损失并最小化特征相似度,定义为公式(7):
[0030][0031]
其中,θ
c1
,θ
c2
分别代表了分类器c1和c2中的参数,λ和η分别代表损失函数中的平衡参数;
[0032]
特征提取器更新模块,其配置来固定分类器c1和c2中的参数,使用l
dis
更新特征提取器中的参数,在这一步骤中保留了自适应损失项,定义为公式(8):
[0033]
附图说明
[0034]
图1示出了传统的双分类器对抗训练方法的步骤二、三。
[0035]
图2是本发明的模型结构流程图。
[0036]
图3是四种方法的数据分布结构图。
[0037]
图4是分类器差异图。
[0038]
图5是根据本发明的基于对比对抗学习的领域自适应方法的流程图。
具体实施方式
[0039]
如图5所示,这种基于对比对抗学习的领域自适应方法,该方法包括以下步骤:
[0040]
(1)在源域数据上使用损失函数l
cls
(xs,ys)训练整个网络模型,优化过程定义为公
式(1):
[0041][0042]
其中,l
ce
(
·

·
)是交叉熵损失,θg,θ
c1
θ
c2
分别是特征网络g,c1,c2中的参数;
[0043]
(2)固定特征提取器中参数,仅更新分类器c1和c2,最小化分类器分类损失以及最大化分类器对目标域样本判别差异,损失函数为公式(2):
[0044][0045]
其中,l
dis
(
·

·
)表示双分类器对目标域样本判别差异仅更新分类器中的参数,同时模型加入分布对齐损失并最小化特征相似度,定义为公式(7):
[0046][0047]
其中,θ
c1
,θ
c2
分别代表了分类器c1和c2中的参数,λ和η分别代表损失函数中的平衡参数;
[0048]
(3)固定分类器c1和c2中的参数,使用l
dis
更新特征提取器中的参数,在这一步骤中保留了自适应损失项,定义为公式(8):
[0049][0050]
本发明在源域数据上使用损失函数l
cls
(xs,ys)训练整个网络模型,固定特征提取器中参数,仅更新分类器c1和c2,最小化分类器分类损失以及最大化分类器对目标域样本判别差异,固定分类器c1和c2中的参数,使用l
dis
更新特征提取器中的参数,在这一步骤中保留了自适应损失项,因此保障了分类器的多样性,使得双分类器能够更高效的找出处于分类边界的样本,使得模型学习到的特征含有更多有效信息,从而较好地解决无监督领域自适应问题,在传统基于双分类器对抗方法的基础上,不仅考虑分类器在目标域上的决策边界,同时也进一步关注域间差异。
[0051]
优选地,所述步骤(1)中,首先采用随机数据增强的方式将xi增强两次分别获得和然后两个视角的数据同时送入特征提取器,经过分类器中的隐藏层映射后获得不同视角的特征和
[0052]
优选地,所述步骤(2)中,使用余弦相似度度量不同视角特征之间的差异,为公式(4):
[0053][0054]
其中,表示和之间的余弦相似度,两个分类器期望最小化和之间的余弦相似度,而特征提取器期望最大化两者的相似度。
[0055]
优选地,所述步骤(2)中,使用mlp以及梯度停止技巧防止模式崩塌,带有对称关系分类器差异损失为公式(5):
[0056][0057]
其中,模块m的输入和输出维度一致以满足向量余弦相似度计算的需要。
(y
t
|x
t
)之间的差异,而特征提取器期望通过提取共性特征最小化两个分类器的输出差异。该模型的目的是找到处于分类器决策边界的目标域样本,并通过限制分类器输出一致使得提高边界点的置信度。关于模型处理目标域数据的整体结构示意图如图1所示。
[0078]
传统双分类器对抗训练方法的三个步骤如下:
[0079]
步骤1:在源域数据上使用损失函数l
cls
(xs,ys)训练整个网络模型,优化过程定义如下:
[0080][0081]
上式中l
ce
(
·

·
)是交叉熵损失,θg,θ
c1
θ
c2
分别是特征网络g,c1,c2中的参数。
[0082]
步骤2:固定特征提取器中参数,仅更新分类器c1和c2。最小化分类器分类损失以及最大化分类器对目标域样本判别差异。损失函数定义如下:
[0083][0084]
上式中,l
dis
(
·

·
)表示双分类器对目标域样本判别差异。
[0085]
步骤3:固定分类器c1和c2中的参数,通过最小化l
dis
(
·

·
)更新特征提取器中的参数,损失函数定义如下:
[0086][0087]
重复以上三个步骤直到模型收敛。模型可以有效找到目标域数据的决策边界样本点以及利用双分类器的多样性改善模型分类性能。
[0088]
2基于对比对抗学习的双分类器方法
[0089]
如上所述,双分类器对抗方法可根据不同分类器之间的差异找出处于分类边界的样本。然而分类器c1和c2共享特征提取器中的特征,仅依靠分类器中的参数不足以保证分类器的多样性。为提高不同分类器的多样性,本发明参考simsiam模型,采用不同的数据增强方式获得不同视角的特征,同时将双分类器对抗模型紧密结合双分类器思想。首先采用随机数据增强的方式将xi增强两次分别获得和然后两个视角的数据同时送入特征提取器,经过分类器中的隐藏层映射后获得不同视角的特征和由于输入不同分类器中的特征存在差异,因此从输入数据的角度保证了分类器输出的多样性。
[0090]
传统的双分类器对抗模型通常使用l1范数度量分类器输出差异。但仅考虑预测概率的差异会令模型无法关注到特征中有效信息。因此将双分类器模型结合了对比学习思想,使用不同分类器中的特征差异定义分类器的差异。由对比学习思想可知,通过减小不同视角特征差异可以增强数据据的表征能力,从而提升模型的性能。本文使用余弦相似度度量不同视角特征之间的差异,公式定义如下:
[0091][0092]
上式表示和之间的余弦相似度。两个分类器期望最小化和之间的余弦相似度,而特征提取器期望最大化两者的相似度。在对比学习中,仅优化上式会造成模式崩塌等问题,因此使用了mlp以及梯度停止技巧防止该问题。综上所述,带有对称关系分类器差异损失定义如下:
[0093][0094]
上式中,模块m的输入和输出维度一致以满足向量余弦相似度计算的需要。
[0095]
尽管基于双分类器对抗模型可以高效的找出处于分类边界的样本,但却无法保证模型向正确的方向收敛。例如对于一个三分类任务,分类器对当前的目标样本预测概率分别是[0.98,0.01,0.01]和[0.97,0.01,0.02],但该样本的真实标签可能是[0,1,0]。尽管此时两个分类器的输出差异小,但两个分类器的输出依旧是错误的。这是因为在训练过程中,模型仅关注两个分类器在目标域数据上的预测差异,但最小化此差异并不能有效指导边界点向对应的类别中心收敛。由现有的领域自适应理论可知,模型在目标域上的分类误差主要由源域数据的判别误差以及两域之间的差异所界定。忽略域分布匹配会极大限制模型的性能。
[0096]
为解决上述问题,使用sliced wasserstein距离减小源域和目标域数据标签分布的差异,使得目标域数据向着正确的方向移动。最终的自适应损失定义如下:
[0097][0098]
上式中,fs和f
t
分别表示源域和目标域特征。模型整体的优化训练过程如下:
[0099]
在步骤一中,模型和传统的双分类器对抗模型一样,使用源域数据交叉熵损失更新整个模型的参数。
[0100]
步骤二中固定特征提取器中参数,仅更新分类器中的参数,同时模型加入分布对齐损失并最小化特征相似度。公式定义如下:
[0101][0102]
上式中,θ
c1
,θ
c2
分别代表了分类器c1和c2中的参数,λ和η分别代表损失函数中的平衡参数。
[0103]
步骤三中,模型固定住两个分类器中的参数,并且使用l
dis
更新特征提取器中的参数。在这一步骤中,保留了自适应损失项,公式定义如下:
[0104][0105]
图2中xs和x
t
分别代表原始的源域和目标域数据,和是源域数据经过两次随机数据增强得到的图片样本。和是目标域数据经过两次随机数据增强得到的图片样本。f
v1
和f
v2
分别是经过特征提取器g以及全连接层fc映射后的不同视角的特征。和是分类器c1对源域和目标域的预测概率,和是分类器c2对源域和目标域的预测概率。上图中的mlp模块各层中均包含有bn层,主要由三层全连接层构成并且输出层的维度为1024,隐含层的节点数量为512,这使得mlp类似于一个瓶颈的结构。通过mlp模块映射可以预防特征模式崩塌问题。
[0106]
本发明对上述方法进行了实验验证,并使用平均的分类精度衡量模型的性能,并取得了明显的效果。实验部分所使用的样本为有标注的源域样本以及未标注的目标域样本。
[0107]
本实验选择image-clef验证模型的效果。其中,image-clef-da数据集由三个子域
构成,分别是caltech-256(c),imagenet ilsvrc 2012(i)以及pascalvoc 2012(p)。整个数据集中含有1800张图片样本,每一个子域中分别含有600张图片样本并包含有12个类别。为直观显示模型的效果,进行数据可视化实验。为证明模型中各模块的作用,同样在该数据集上开展了消融实验。所有的代码均使用python以及pytorch,使用的显卡为rtx 3090。
[0108]
为了突出模型的性能,实验选取了三种主流对比方法:
[0109]
source-only:此方法使用resnet-50作为模型的主干网络。该方法使用源域数据训练好分类器,而后将该模型直接对目标域数据分类。此方法为所有对比方法的基准线。
[0110]
经典方法:为证明基于双分类器对抗模型的性能优势,本文分别选择了较为经典的基于mmd距离度量的方法以及基于域判别器对抗的模型方法。deep adaptation network(dan)方法使用mmd距离减小分布之间的差异。domain adversarial neural network(dann)使用判别器辨别当前数据来自于源域还是目标域。在dann的基础上,conditional domain adversarial network(cdan)使用多重线性映射进行特征融合,使得源域和目标域分布结构更加清晰,从而实现了域分布结构匹配,提升了模型的性能。
[0111]
双分类器对抗方法:为证明本模型的性能优势,本文同样选择与基于双分类器对抗方法比较。mcd是首次使用双分类器对抗训练的模型,该方法使用l1范数度量两个分类器中的差异。在mcd的基础上,swd使用了wasserstein距离度量两个分类器的输出差异。最近jada模型在mcd的基础上结合了判别器对抗方法的思想,成功的使用判别器对齐两个数据分布。通过对比上述方法能体现本模型的有效性。
[0112]
本部分将讨论模型image-clef数据集上的实验结果。所有实验数据均为模型30次迭代之后的输出。所有实验结果记录于表1中,其中识别任务记作s

t,s表示有标注数据所在的源域,t表示无标注数据所在的目域,s

t表示利用源域的标注数据解决目标域数据的分类任务:
[0113]
methodi

pp

ii

cc

ic

pp

cavgsource-only74.883.991.578.065.591.280.7dan74.582.292.886.369.289.882.5dann75.086.096.287.074.391.585.0cdan76.790.697.090.574.593.587.1mcd77.389.292.788.271.092.385.1swd76.990.793.888.374.293.886.3jada78.290.195.990.876.894.187.7ours79.992.595.492.778.894.288.8
[0114]
表1
[0115]
由表1可知,本文所选取的模型达到了最优平均精度。特别是对于迁移较为困难的任务c

p,本模型提升效果最为突出。实验结果证明对比学习能充分学习到复杂样本中的有效信息。
[0116]
为更直观展现模型优点,本文使用t-sne对迁移任务p

c进行数据降维可视化。同时选取source-only、mcd以及swd作为对比方法。数据可视化结果如图3所示。图中“ο”代表源域数据,
“×”
代表目标域数据。如图3所示,由于存在域差异,source-only方法无法有效提高模型在目标域上的分类精度。相比于source-only方法,mcd以及swd都能减少目标域上
处在分类边界的样本。但当目标域数据分布结构较复杂时,不同类别样本的距离依旧不清晰。由图可知,本模型中数据分布结构较为清晰,不同类别之间的距离较大。不同域中相同类别之间也对齐的更为紧密,从而证明了标签分布匹配的有效性。
[0117]
由图4中可知,在模型训练的开始阶段分类器的输出准确率差异较大,并且两个分类器在模型的初始阶段性能均次于双分类器的综合性能。这表明两个视角的数据能够在训练初期提供互补的信息,因此分类器综合输出性能会提高。随着模型训练次数增加,模型性能逐渐趋向于一致,三条曲线趋向一致。这表明双分类器的输出差异较小,证明了特征相似性对分类器输出的影响。以上实验结果证明了结合域对齐以及对比学习可以有效提升模型的性能。
[0118]
以上所述,仅是本发明的较佳实施例,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属本发明技术方案的保护范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献