一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种图像分类模型的训练方法及图像分类方法与流程

2022-09-07 13:02:50 来源:中国专利 TAG:


1.本技术涉及图像识别领域,尤其涉及一种图像分类模型的训练方法及图像分类方法。


背景技术:

2.近年来,深度神经网络在语音、图像领域取得突飞猛进的进展,尤其在图像领域,随着大量的标记训练数据和大量的计算资源的出现,深度神经网络模型可以直接广泛地应用于多数场景下的图像识别和分类。
3.然而,由于雾天场景的复杂性,例如,雾天场景包含众多类似场景,如霾、烟、沙尘等,其中,雾的浓度也具有多样性,使得利用现有的训练方法训练后的图像分类模型在对雾天场景的图像进行识别和分类时往往会产生极大的分类误差。


技术实现要素:

4.为解决上述技术问题,本技术实施例提供了一种图像分类模型的训练方法及图像分类方法,以减小图像分类模型在对雾天场景的图像进行识别和分类时的分类误差,提高识别精度。
5.为实现上述目的,本技术提供了如下技术方案:
6.一种图像分类模型的训练方法,包括:
7.s1:获取带标签的样本图像集,所述样本图像集包含多个真实雾天场景的样本图像和多个合成雾天场景的样本图像;
8.s2:将所述样本图像集中的各个样本图像输入所述图像分类模型中,对所述图像分类模型进行训练,以使得所述图像分类模型提取的所述样本图像的特征与其场景信息无关且基于该特征确定的所述样本图像的类别结果与其标签一致,其中,所述样本图像的场景信息表征所述样本图像属于真实雾天场景还是合成雾天场景。
9.可选的,将所述样本图像集中的各个样本图像输入所述图像分类模型中,对所述图像分类模型进行训练,以使得所述图像分类模型提取的所述样本图像的特征与其场景信息无关且基于该特征确定的所述样本图像的类别结果与其标签一致包括:
10.s21:将所述样本图像集中的各个样本图像输入所述图像分类模型中;
11.s22:基于所述样本图像,对所述图像分类模型中的特征提取器和域判别器进行对抗训练,以使得所述域判别器根据所述特征提取器提取的所述样本图像的特征无法确定所述样本图像的场景信息;
12.s23:基于所述样本图像和所述样本图像的标签,对所述图像分类模型中的特征提取器和标签分类器进行训练,以使得所述标签分类器根据所述特征提取器提取的所述样本图像的特征确定的所述样本图像的类别结果与所述样本图像的标签一致。
13.可选的,基于所述样本图像,对所述图像分类模型中的特征提取器和域判别器进行对抗训练,以使得所述域判别器根据所述特征提取器提取的所述样本图像的特征无法确
定所述样本图像的场景信息包括:
14.s221:利用所述特征提取器提取所述样本图像的第一特征信息;
15.s222:利用所述域判别器根据所述第一特征信息确定所述样本图像的场景信息;
16.s223:如果所述域判别器根据所述第一特征信息能够确定所述样本图像的场景信息,则改变所述特征提取器和所述域判别器的网络参数,返回s221,直至所述域判别器根据所述第一特征信息无法确定所述样本图像的场景信息。
17.可选的,利用所述特征提取器提取所述样本图像的第一特征信息包括:
18.s2211:利用所述特征提取器中的第一特征提取器提取所述样本图像的预设特征;
19.s2212:利用所述特征提取器中的第二特征提取器基于所述样本图像的预设特征得到所述样本图像的多个第一特征,不同所述第一特征的尺度不同;
20.其中,所述第一特征信息包括所述样本图像的各个第一特征。
21.可选的,利用所述域判别器根据所述第一特征信息确定所述样本图像的场景信息包括:
22.利用所述域判别器中的第一域判别器根据所述第一特征信息中的各第一特征直接确定所述样本图像的场景信息;其中,所述第一域判别器与所述第一特征一一对应;
23.如果所述域判别器根据所述第一特征信息能够确定所述样本图像的场景信息,则改变所述特征提取器和所述域判别器的网络参数,返回s221,直至所述域判别器根据所述第一特征信息无法确定所述样本图像的场景信息包括:
24.如果所述域判别器中至少一个所述第一域判别器根据其对应的所述样本图像的第一特征能够确定所述样本图像的场景信息,则改变所述特征提取器和所述域判别器的网络参数,返回s221,直至所述域判别器中各个所述第一域判别器根据其对应的所述样本图像的第一特征均无法确定所述样本图像的场景信息。
25.可选的,基于所述样本图像和所述样本图像的标签,对所述图像分类模型中的特征提取器和标签分类器进行训练,以使得所述标签分类器根据所述特征提取器提取的所述样本图像的特征确定的所述样本图像的类别结果与所述样本图像的标签一致包括:
26.s231:利用所述特征提取器提取所述样本图像的第一特征信息,所述第一特征信息包括所述样本图像的各个第一特征,其中,不同所述第一特征的尺度不同;
27.s232:将所述样本图像的各个第一特征进行融合,得到融合特征;
28.s233:利用所述标签分类器根据所述融合特征,确定所述样本图像属于各类别结果的概率;
29.s234:确定所述样本图像属于各类别结果中概率最大的类别结果是否与所述样本图像的标签一致;
30.s235:如果所述样本图像属于各类别结果中概率最大的类别结果与所述样本图像的标签不一致,则改变所述特征提取器和所述标签分类器的网络参数,返回s231,直至所述样本图像属于各类别结果中概率最大的类别结果与所述样本图像的标签一致。
31.可选的,利用所述域判别器根据所述第一特征信息确定所述样本图像的场景信息还包括:
32.基于所述样本图像属于各类别结果的概率与所述融合特征,得到所述样本图像属于各类别结果的概率与所述融合特征的乘积;
33.利用所述域判别器中的第二域判别器根据所述样本图像属于各类别结果的概率与所述融合特征的乘积确定所述样本图像的场景信息;其中,所述第二域判别器与所述样本图像的各类别结果一一对应;
34.如果所述域判别器根据所述第一特征信息能够确定所述样本图像的场景信息,则改变所述特征提取器和所述域判别器的网络参数,返回s221,直至所述域判别器根据所述第一特征信息无法确定所述样本图像的场景信息还包括:
35.如果所述域判别器中至少一个所述第二域判别器根据其对应的所述样本图像属于该类别结果的概率与所述融合特征的乘积能够确定所述样本图像的场景信息,则改变所述特征提取器和所述域判别器的网络参数,返回s221,直至所述域判别器中各个所述第二域判别器根据其对应的所述样本图像属于该类别结果的概率与所述融合特征的乘积均无法确定所述样本图像的场景信息。
36.可选的,获取带标签的样本图像集包括:
37.s11:获取多个真实雾天场景的样本图像;
38.s12:获取多个合成雾天场景的样本图像;
39.其中,获取多个合成雾天场景的样本图像包括:
40.s121:获取多个带标签的无雾场景的样本图像;
41.s122:基于循环生成对抗网络模型,将各个所述无雾场景的样本图像转化成所述合成雾天场景的样本图像,其中,所述合成雾天场景的样本图像与所述真实雾天场景的样本图像在像素域上的分布差异小于预设值。
42.可选的,基于循环生成对抗网络模型,将各个所述无雾场景的样本图像转化成所述合成雾天场景的样本图像之前,该方法还包括:基于多个所述无雾场景的样本图像和多个所述真实雾天场景的样本图像,对所述循环生成对抗网络模型进行训练,该训练过程包括:
43.s101:将各个所述无雾场景的样本图像输入所述循环生成对抗网络模型中的第一生成器,生成仿真实雾天场景的样本图像;
44.s102:利用所述循环生成对抗网路模型中的第一鉴别器基于所述真实雾天场景的样本图像对s101中所述第一生成器生成的仿真实雾天场景的样本图像进行识别,如果所述第一鉴别器能够识别出s101中所述第一生成器生成的仿真实雾天场景的样本图像为假,则改变所述第一生成器和所述第一鉴别器的网络参数;
45.s103:将s101中所述第一生成器生成的仿真实雾天场景的样本图像输入所述循环生成对抗网络模型中的第二生成器,生成仿无雾场景的样本图像;
46.s104:利用所述循环生成对抗网路模型中的第二鉴别器基于所述无雾场景的样本图像对s103中所述第二生成器生成的仿无雾场景的样本图像进行识别,如果所述第二鉴别器能够识别出s103中所述第二生成器生成的仿无雾场景的样本图像为假,则改变所述第二生成器和所述第二鉴别器的网络参数,返回s101;
47.同时,该训练过程还包括:
48.s105:将各个所述真实雾天场景的样本图像输入所述第二生成器,生成仿无雾场景的样本图像;
49.s106:利用所述第二鉴别器基于所述无雾场景的样本图像对s105中所述第二生成
器生成的仿无雾场景的样本图像进行识别,如果所述第二鉴别器能够识别出s105中所述第二生成器生成的仿无雾场景的样本图像为假,则改变所述第二生成器和所述第二鉴别器的网络参数;
50.s107:将s105中所述第二生成器生成的仿无雾场景的样本图像输入所述第一生成器,生成仿真实雾天场景的样本图像;
51.s108:利用所述第一鉴别器基于所述真实雾天场景的样本图像对s107中所述第一生成器生成的仿真实雾天场景的样本图像进行识别,如果所述第一鉴别器能够识别出s107中所述第一生成器生成的仿真实雾天场景的样本图像为假,则改变所述第一生成器和所述第一鉴别器的网络参数,返回s105;
52.直至所述第一鉴别器无法识别出所述第一生成器生成的仿真实雾天场景的样本图像为假,且所述第二鉴别器无法识别出所述第二生成器生成的仿无雾场景的样本图像为假。
53.一种图像分类方法,包括:
54.s100:获取待分类雾天场景图像;
55.s200:利用上述任一项所述的训练方法训练后的图像分类模型,对所述待分类雾天场景图像进行分类;
56.s300:输出所述待分类雾天场景图像的类别结果。
57.与现有技术相比,上述技术方案具有以下优点:
58.本技术实施例所提供的图像分类模型的训练方法,包括:s1:获取带标签的样本图像集,所述样本图像集包含多个真实雾天场景的样本图像和多个合成雾天场景的样本图像;s2:将所述样本图像集中的各个样本图像输入所述图像分类模型中,对所述图像分类模型进行训练,以使得所述图像分类模型提取的所述样本图像的特征与其场景信息无关且基于该特征确定的所述样本图像的类别结果与其标签一致,其中,所述样本图像的场景信息表征所述样本图像属于真实雾天场景还是合成雾天场景。由此可见,利用本技术实施例所提供的训练方法对所述图像分类模型进行训练后,不仅使得所述图像分类模型基于其提取的所述样本图像的特征确定的所述样本图像的类别结果与所述样本图像的标签一致,还使得所述图像分类模型提取的该特征与所述样本图像的场景信息无关,即所述图像分类模型提取的该特征为不变性特征,不会受到所述样本图像是合成雾天场景还是真实雾天场景的影响,从而使得后续利用本技术实施例所提供的训练方法训练后的所述图像分类模型在对雾天场景的图像进行识别和分类时不会受到合成雾天场景还是真实雾天场景的影响,进而大大减小分类误差,提高识别精度。
附图说明
59.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
60.图1为本技术一个实施例所提供的训练方法的流程示意图;
61.图2为本技术另一个实施例所提供的训练方法中,获取带标签的样本图像集的流
程示意图;
62.图3为本技术再一个实施例所提供的训练方法中,获取带标签的样本图像集中多个合成雾天场景的样本图像的流程示意图;
63.图4为图3获取带标签的样本图像集中多个合成雾天场景的样本图像的过程中,所利用的循环生成对抗网络模型的结构示意图;
64.图5和图6均为对图4中循环生成对抗网络模型进行训练的流程示意图;
65.图7为本技术又一个实施例所提供的训练方法中,对图像分类模型进行训练的流程示意图;
66.图8为图7中图像分类模型的结构示意图;
67.图9为本技术再一个实施例所提供的训练方法中,对图像分类模型中的特征提取器和域判别器进行对抗训练的流程示意图;
68.图10为本技术又一个实施例所提供的训练方法中,利用特征提取器提取样本图像的第一特征信息的流程示意图;
69.图11为本技术再一个实施例所提供的训练方法中,所利用的特征提取器中的第二特征提取器的结构示意图;
70.图12为本技术又一个实施例所提供的训练方法中,对图像分类模型中的特征提取器和标签分类器进行训练的流程示意图;
71.图13为本技术一个实施例所提供的图像分类方法的流程示意图。
具体实施方式
72.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
73.在下面的描述中阐述了很多具体细节以便于充分理解本技术,但是本技术还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本技术内涵的情况下做类似推广,因此本技术不受下面公开的具体实施例的限制。
74.其次,本技术结合示意图进行详细描述,在详述本技术实施例时,为便于说明,表示器件结构的剖面图会不依一般比例作局部放大,而且所述示意图只是示例,其在此不应限制本技术保护的范围。此外,在实际制作中应包含长度、宽度及深度的三维空间尺寸。
75.正如背景技术部分所述,由于雾天场景的复杂性,例如,雾天场景包含众多类似场景,如霾、烟、沙尘等,其中,雾的浓度也具有多样性,使得利用现有的训练方法训练后的图像分类模型在对雾天场景的图像进行识别和分类时往往会产生极大的分类误差。
76.为解决上述技术问题,现有的研究方法提供了一些解决手段,主要的研究方法为在现有的卷积神经网络的基础上,结合数据增强的方法对图像分类模型进行训练。例如,利用去雾算法对雾天场景图像进行去雾处理,得到去雾后的正常场景图像;基于去雾后的正常场景图像对图像分类模型进行训练。然而,目前大多数去雾算法,需要大量成对的雾天场景图像和正常场景图像进行训练,而收集和生成更多的雾天场景图像还会加大训练时间和成本,而且由于雾天环境的特殊性,训练数据中雾天场景图像多是合成的,很难在像素域上
和真实雾天场景图像减小分布差异,从而使得基于去雾后的正常场景图像训练后的图像分类模型在对真实雾天场景图像进行识别和分类时并没有显著的改善。此外,还有利用大气退化模型对训练数据进行加雾处理,进而基于加雾后的训练数据对图像分类模型进行训练,然而,这种方法难以适用真实多样性的雾天场景。
77.发明人研究发现,要想成功地构建雾天场景的图像分类模型,需要事先为每个特定雾天场景提供足够数量的手动标注图像,然而,在实际情况下,获得足够数量的多样性雾天场景的标注图像成本较高,因此,需要利用合成雾天场景图像来对图像分类模型进行训练。但由于合成雾天场景图像和真实雾天场景图像不仅在像素域上(如图像风格)有差异,还在特征域上(如图像映射到特征空间的特征分布)有差异,因此,在利用现有的训练方法对图像分类模型进行训练时,难以使得图像分类模型提取到训练数据的不变性特征,即图像分类模型提取的训练数据的特征会受到合成雾天场景的影响,这是导致训练后的图像分类模型在对真实雾天场景图像进行识别和分类时往往还会产生很大的分类误差的主要原因。
78.有鉴于此,本技术实施例提供了一种图像分类模型的训练方法,如图1所示,该训练方法包括:
79.s1:获取带标签的样本图像集,所述样本图像集包含多个真实雾天场景的样本图像和多个合成雾天场景的样本图像;
80.具体的,在本技术的一个实施例中,如图2所示,获取带标签的样本图像集包括:
81.s11:获取多个真实雾天场景的样本图像;
82.可选的,所述样本图像集中多个真实雾天场景的样本图像可以从网络上的图像、视频中获取,通过逐张进行筛选,手动分类进行标注,得到多个带标签的真实雾天场景的样本图像。
83.s12:获取多个合成雾天场景的样本图像;
84.可选的,在本技术的一个实施例中,如图3所示,获取多个合成雾天场景的样本图像包括:
85.s121:获取多个带标签的无雾场景的样本图像;
86.具体的,带标签的无雾场景的样本图像可以基于当前一些较大的公开数据集而获取,例如caltech-256,pascal,voc和imagenet等,这些数据集中无雾场景的样本图像通常便于获取,无需标注。
87.s122:基于循环生成对抗网络模型,将各个所述无雾场景的样本图像转化成所述合成雾天场景的样本图像,其中,所述合成雾天场景的样本图像与所述真实雾天场景的样本图像在像素域上的分布差异小于预设值。
88.具体的,在本技术的一个实施例中,所述循环生成对抗网络模型为cyclegan(cycle generative adversarial networks)网络模型,利用cyclegan网络模型,对各个所述无雾场景的样本图像进行数据增强,得到所述合成雾天场景的样本图像,以减小所述合成雾天场景的样本图像与所述真实雾天场景的样本图像在像素域上的分布差异,使得所述合成雾天场景的样本图像与所述真实雾天场景的样本图像在像素域上的分布差异小于预设值,即使得所述合成雾天场景的样本图像与所述真实雾天场景的样本图像在风格上类似。需要说明的是,所述预设值用于评判所述合成雾天场景的样本图像与所述真实雾天场
景的样本图像在像素域上的分布差异,即两者在风格上的类似程度,本技术对具体的所述预设值并不做限定,具体视情况而定。
89.基于循环生成对抗网络模型,将各个所述无雾场景的样本图像转化成所述合成雾天场景的样本图像之前,还需要基于多个所述无雾场景的样本图像和多个所述真实雾天场景的样本图像,对所述循环生成对抗网络模型进行训练,以使得利用训练后的所述循环生成对抗网络模型将各个所述无雾场景的样本图像转化成的所述合成雾天场景的样本图像与所述真实雾天场景的样本图像在像素域上的分布差异小于所述预设值。
90.具体的,结合图4和图5所示,对所述循环生成对抗网络模型的训练过程包括:
91.s101:将各个所述无雾场景的样本图像a输入所述循环生成对抗网络模型中的第一生成器10,生成仿真实雾天场景的样本图像fake_b;
92.s102:利用所述循环生成对抗网路模型中的第一鉴别器20基于所述真实雾天场景的样本图像b对s101中所述第一生成器10生成的仿真实雾天场景的样本图像fake_b进行识别,如果所述第一鉴别器20能够识别出s101中所述第一生成器10生成的仿真实雾天场景的样本图像fake_b为假,则改变所述第一生成器10和所述第一鉴别器20的网络参数;
93.s103:将s101中所述第一生成器10生成的仿真实雾天场景的样本图像fake_b输入所述循环生成对抗网络模型中的第二生成器30,生成仿无雾场景的样本图像cyclic_a;
94.s104:利用所述循环生成对抗网路模型中的第二鉴别器40基于所述无雾场景的样本图像a对s103中所述第二生成器30生成的仿无雾场景的样本图像cyclic_a进行识别,如果所述第二鉴别器40能够识别出s103中所述第二生成器30生成的仿无雾场景的样本图像cyclic_a为假,则改变所述第二生成器30和所述第二鉴别器40的网络参数,返回s101;
95.同时,结合图4和图6所示,该训练过程还包括:
96.s105:将各个所述真实雾天场景的样本图像b输入所述第二生成器30中,生成仿无雾场景的样本图像fake_a;
97.s106:利用所述第二鉴别器40基于所述无雾场景的样本图像a对s105中所述第二生成器30生成的仿无雾场景的样本图像fake_a进行识别,如果所述第二鉴别器40能够识别出s105中所述第二生成器30生成的仿无雾场景的样本图像fake_a为假,则改变所述第二生成器30和所述第二鉴别器40的网络参数;
98.s107:将s105中所述第二生成器30生成的仿无雾场景的样本图像fake_a输入所述第一生成器10,生成仿真实雾天场景的样本图像cyclic_b;
99.s108:利用所述第一鉴别器20基于所述真实雾天场景的样本图像b对s107中所述第一生成器10生成的仿真实雾天场景的样本图像cyclic_b进行识别,如果所述第一鉴别器20能够识别出s107中所述第一生成器10生成的仿真实雾天场景的样本图像cyclic_b为假,则改变所述第一生成器10和所述第一鉴别器20的网络参数,返回s105;
100.直至所述第一鉴别器20无法识别出所述第一生成器10生成的仿真实雾天场景的样本图像fake_b和cyclic_b为假,且所述第二鉴别器40无法识别出所述第二生成器30生成的仿无雾场景的样本图像fake_a和cyclic_a为假。
101.需要说明的是,继续如图4所示,在对所述循环生成对抗网络模型进行训练的过程中,所述第一生成器10和所述第一鉴别器20形成对抗训练,具体的,所述第一生成器10基于所述无雾场景的样本图像a尽力生成与所述真实雾天场景的样本图像b风格类似的仿真实
雾天场景的样本图像fake_b,同理,所述第一生成器10基于所述仿无雾场景的样本图像fake_a尽力生成与所述真实雾天场景的样本图像b风格类似的仿真实雾天场景的样本图像cyclic_b,而所述第一鉴别器20尽力识别出所述第一生成器10生成的仿真实雾天场景的样本图像fake_b和cyclic_b为假,通过所述第一生成器10和所述第一鉴别器20的对抗训练,拉近fake_b和b在像素域上的分布以及cyclic_b和b在像素域上的分布,最终使得所述第一鉴别器20无法识别出所述第一生成器10生成的仿真实雾天场景的样本图像fake_b和cyclic_b为假,即所述第一生成器10生成的仿真实雾天场景的样本图像fake_b和cyclic_b均与所述真实雾天场景的样本图像b在像素域上的分布差异小于预设值,即在风格上类似。
102.同理,继续如图4所示,所述第二生成器30和所述第二鉴别器40也形成对抗训练,具体的,所述第二生成器30基于所述真实雾天的样本图像b尽力生成与所述无雾场景的样本图像a风格类似的仿无雾场景的样本图像fake_a,同理,所述第二生成器30基于所述仿真实雾天场景的样本图像fake_b尽力生成与所述无雾场景的样本图像a风格类似的仿无雾场景的样本图像cyclic_a,而所述第二鉴别器40尽力识别出所述第二生成器30生成的仿无雾场景的样本图像fake_a和cyclic_a为假,通过所述第二生成器30和所述第二鉴别器40的对抗训练,拉近fake_a和a在像素域上的分布以及cyclic_a和a在像素域上的分布,最终使得所述第二鉴别器40无法识别出所述第二生成器30生成的仿无雾场景的样本图像fake_a和cyclic_a为假,即所述第二生成器30生成的仿无雾场景的样本图像fake_a和cyclic_a均与所述无雾场景的样本图像a在像素域上的分布差异小于预设值,即在风格上类似。
103.另外,所述第一生成器10和所述第一鉴别器20的对抗训练与所述第二生成器30和所述第二鉴别器40的对抗训练还必须满足循环一致性,以进一步减小所述第一生成器10生成的仿真实雾天场景的样本图像fake_b和cyclic_b与所述真实雾天场景的样本图像b在像素域上的分布差异,即所述第一生成器10生成的仿真实雾天场景的样本图像fake_b和cyclic_b与所述真实雾天场景的样本图像b在风格上的类似度更高,以便于后续利用所述第一生成器10将各个所述无雾场景的样本图像转化成所述合成雾天场景的样本图像,且所述合成雾天场景的样本图像与所述真实雾天场景的样本图像在像素域上的分布差异小于预设值。
104.还需要说明的是,在对所述循环生成对抗网络模型进行训练的过程中,所述无雾场景的样本图像a和所述真实雾天场景的样本图像b可以为非对齐的,即无需一一匹配,从而大大减小获取带标签的样本图像集中多个合成雾天场景的样本图像的成本。
105.由此可见,在本技术实施例所提供的训练方法中,利用训练后的循环生成对抗网络模型减小所述合成雾天场景的样本图像与所述真实雾天场景的样本图像在像素域上的分布差异。
106.s2:将所述样本图像集中的各个样本图像输入所述图像分类模型中,对所述图像分类模型进行训练,以使得所述图像分类模型提取的所述样本图像的特征与其场景信息无关且基于该特征确定的所述样本图像的类别结果与其标签一致,其中,所述样本图像的场景信息表征所述样本图像属于真实雾天场景还是合成雾天场景。
107.具体的,在本技术的一个实施例中,如图7所示,将所述样本图像集中的各个样本图像输入所述图像分类模型中,对所述图像分类模型进行训练,以使得所述图像分类模型提取的所述样本图像的特征与其场景信息无关且基于该特征确定的所述样本图像的类别
结果与其标签一致包括:
108.s21:将所述样本图像集中的各个样本图像输入所述图像分类模型中;
109.s22:基于所述样本图像,对所述图像分类模型中的特征提取器和域判别器进行对抗训练,以使得所述域判别器根据所述特征提取器提取的所述样本图像的特征无法确定所述样本图像的场景信息。
110.训练时,如图8所示,将所述样本图像集中的各个样本图像xi输入所述图像分类模型后,所述图像分类模型中的特征提取器100基于所述样本图像xi尽力提取出与所述样本图像xi的场景信息无关的特征,而所述域判别器200根据所述特征提取器100提取的所述样本图像xi的特征,尽力确定出所述样本图像xi的场景信息,即所述样本图像xi属于合成雾天场景还是真实雾天场景,通过所述特征提取器100和所述域判别器200的对抗训练,使得所述域判别器200根据所述特征提取器100提取的所述样本图像xi的特征无法确定所述样本图像xi的场景信息,即所述特征提取器100提取的所述样本图像xi的特征与所述样本图像xi的场景信息无关,也即所述特征提取器100提取的所述样本图像xi的特征为不变性特征,不会受到所述样本图像xi是合成雾天场景还是真实雾天场景的影响,从而使得后续利用本技术实施例所提供的训练方法训练后的所述图像分类模型在对雾天场景的图像进行识别和分类时不会受到合成雾天场景还是真实雾天场景的影响,进而大大减小分类误差,提高识别精度。
111.具体的,在本技术的一个实施例中,如图9所示,基于所述样本图像,对所述图像分类模型中的特征提取器和域判别器进行对抗训练,以使得所述域判别器根据所述特征提取器提取的所述样本图像的特征无法确定所述样本图像的场景信息包括:
112.s221:利用所述特征提取器提取所述样本图像的第一特征信息。
113.考虑到现有的图像分类模型的训练方法中大都关注于提取所述样本图像的单一特征,而单一特征仅仅代表所述样本图像少部分数据的特征信息,具有局限性。因此,在上述实施例的基础上,在本技术的一个实施例中,如图10所示,利用所述特征提取器提取所述样本图像的第一特征信息包括:
114.s2211:利用所述特征提取器中的第一特征提取器提取所述样本图像的预设特征;
115.s2212:利用所述特征提取器中的第二特征提取器基于所述样本图像的预设特征得到所述样本图像的多个第一特征,不同所述第一特征的尺度不同;
116.其中,所述第一特征信息包括所述样本图像的各个第一特征。
117.具体的,继续如图8所示,所述特征提取器100中的第一特征提取器110为去掉全连接层的卷积神经网络(convolutionalneuralnetworks,cnn),用于将输入到所述图像分类模型中的所述样本图像xi映射到特征空间,提取所述样本图像xi的预设特征;所述特征提取器100中的第二特征提取器120包含多个特征提取单元,每个特征提取单元基于所述第一特征提取器110提取的所述样本图像xi的预设特征提取得到所述样本图像xi的一个第一特征,不同特征提取单元基于所述第一特征提取器110提取的所述样本图像xi的预设特征提取得到的所述样本图像xi的第一特征的尺度不同,所述第一特征信息包括所述样本图像xi的各个第一特征。
118.可选的,在本技术的一个实施例中,继续如图8所示,所述第二特征提取器120包含四个特征提取单元g
m1
至g
m4
,分别基于所述样本图像xi的预设特征提取得到所述样本图像xi的四个尺度不同的第一特征,则所述第一特征信息包括所述样本图像的四个尺度不同的第一特征。具体的,所述第二特征提取器120的网络结构示意图如图11所示,其中,所述第二特征提取器120的输入端与所述第一特征提取器110的输出端相连,输入所述样本图像xi的预设特征,然后在所述第二特征提取器120中,通过1x1,3x3,5x5等卷积、3x3池化操作组合起来提取四个尺度不同的第一特征,其中的池化以及卷积后的尺寸一样,通道相加,这样不仅扩充了网络的宽度,还提升了网络针对不同尺度的适应性,使用的卷积层能够提取输入的所述样本图像xi的预设特征的每一个细节信息,同时也可以很好地帮助所述第一特征提取器110中的卷积神经网络提取丰富的预设特征信息。
119.需要说明的是,与现有的图像分类模型的训练方法中大都关注于提取所述样本图像的单一特征相比,本技术实施例所提供的训练方法中,利用所述特征提取器中的第一特征提取器和第二特征提取器提取所述样本图像在特征域上多个不同尺度的第一特征,以能够充分代表所述样本图像数据的特征信息,便于后续通过所述特征提取器和所述域判别器的对抗训练,使得所述特征提取器能够提取到所述样本图像的不变性特征。
120.s222:利用所述域判别器根据所述第一特征信息确定所述样本图像的场景信息;
121.s223:如果所述域判别器根据所述第一特征信息能够确定所述样本图像的场景信息,则改变所述特征提取器和所述域判别器的网络参数,返回s221,直至所述域判别器根据所述第一特征信息无法确定所述样本图像的场景信息。
122.具体的,在本技术的一个实施例中,利用所述域判别器根据所述第一特征信息确定所述样本图像的场景信息包括:
123.利用所述域判别器中的第一域判别器根据所述第一特征信息中的各第一特征直接确定所述样本图像的场景信息;其中,所述第一域判别器与所述第一特征一一对应;
124.如果所述域判别器根据所述第一特征信息能够确定所述样本图像的场景信息,则改变所述特征提取器和所述域判别器的网络参数,返回s221,直至所述域判别器根据所述第一特征信息无法确定所述样本图像的场景信息包括:
125.如果所述域判别器中至少一个所述第一域判别器根据其对应的所述样本图像的第一特征能够确定所述样本图像的场景信息,则改变所述特征提取器和所述域判别器的网络参数,返回s221,直至所述域判别器中各个所述第一域判别器根据其对应的所述样本图像的第一特征均无法确定所述样本图像的场景信息。
126.需要说明的是,继续如图8所示,所述第一域判别器dg与所述第一特征一一对应,即所述第一域判别器dg与所述第二特征提取器中的特征提取单元(g
m1
至g
m4
)一一对应,具体训练时,对于每个第一特征来说,所述第一特征提取器110和所述第二特征提取器120中该第一特征的特征提取单元联合起来与该第一特征对应的所述第一域判别器dg形成对抗训练,所述第一特征提取器110和所述第二特征提取器120中该第一特征的特征提取单元联合起来尽力使得提取的所述样本图像的该第一特征与所述样本图像的场景信息无关,而该第一特征对应的所述第一域判别器dg尽力根据所述样本图像的该第一特征确定所述样本图像的场景信息,如果该第一特征对应的所述第一域判别器dg根据其对应的所述样本图像的该第一特征能够确定所述样本图像的场景信息,则改变所述第一特征提取器110和所述第二特征提取器120中该第一特征的特征提取单元的网络参数以及该第一特征对应的所述第一域判别器dg的网络参数,返回s221,直至所述域判别器中该第一特征对应的所述第一域
判别器dg根据其对应的所述样本图像的该第一特征无法确定所述样本图像的场景信息,即通过所述第一特征提取器110和所述第二特征提取器120中该第一特征的特征提取单元联合起来与该第一特征对应的所述第一域判别器dg的对抗训练,使得所述域判别器200中该第一特征对应的所述第一域判别器dg根据所述样本图像的该第一特征无法确定所述样本图像的场景信息,也即使得所述第一特征提取器110和所述第二特征提取器120中该第一特征的特征提取单元联合起来提取的所述样本图像的该第一特征与所述样本图像的场景信息无关。
127.以此类推,所述第一特征提取器110和所述第二特征提取器120中各第一特征的特征提取单元分别联合起来与其对应的所述第一域判别器dg形成对抗训练,以使得所述域判别器中各个所述第一域判别器dg根据其对应的所述样本图像的第一特征均无法确定所述样本图像的场景信息,也即使得所述第一特征提取器110和所述第二特征提取器120中各第一特征的特征提取单元联合起来提取的所述样本图像的各第一特征均与所述样本图像的场景信息无关。
128.下面继续以所述第二特征提取器120包含四个特征提取单元g
m1
至g
m4
为例,对所述第一特征提取器110和所述第二特征提取器120中各第一特征的特征提取单元分别联合起来与其对应的所述第一域判别器dg的对抗训练进行描述。
129.继续如图8所示,所述第一特征提取器110中去掉全连接层的卷积神经网络为gf,所述第二特征提取器120包含四个特征提取单元,分别为第一特征提取单元g
m1
、第二特征提取单元g
m2
、第三特征提取单元g
m3
以及第四特征提取单元g
m4
,与其一一对应的所述第一域判别器分别为d
g1
、d
g2
、d
g3
和d
g4

130.具体训练时,将所述样本图像xi输入所述图像分类模型中,利用所述第一特征提取器110中去掉全连接层的卷积神经网络gf提取所述样本图像xi的预设特征,并输出给所述第二特征提取器120,然后利用所述第二特征提取器120中的第一特征提取单元g
m1
基于所述样本图像xi的预设特征提取得到第一尺度的第一特征,并输出给与其对应的所述第一域判别器d
g1
中,所述第一域判别器d
g1
根据该第一尺度的第一特征确定所述样本图像xi的场景信息,如果所述第一域判别器d
g1
根据该第一尺度的第一特征能够确定所述样本图像xi的场景信息,则改变所述第一特征提取器110和所述第二特征提取器120中的第一特征提取单元g
m1
的网络参数,以及所述第一域判别器d
g1
的网络参数,以此类推,利用所述第二特征提取器120中的第四特征提取单元g
m4
基于所述样本图像xi的预设特征提取得到第四尺度的第一特征,并输出给与其对应的所述第一域判别器d
g4
中,所述第一域判别器d
g4
根据该第四尺度的第一特征确定所述样本图像xi的场景信息,如果所述第一域判别器d
g4
根据该第四尺度的第一特征能够确定所述样本图像xi的场景信息,则改变所述第一特征提取器110和所述第二特征提取器120中的第四特征提取单元g
m4
的网络参数,以及所述第一域判别器d
g4
的网络参数。
131.对于一个第一特征来说,其对应的所述第一域判别器dg的损失函数l
g1
定义如下:
[0132][0133]
其中,ns为所述样本图像集中合成雾天场景的样本图像的数据数量,n
t
为所述样本图像集中真实雾天场景的样本图像的数据数量,xi为所述样本图像,ds指代所述样本图像集
中合成雾天场景的样本图像集合,d
t
指代所述样本图像集中真实雾天场景的样本图像集合,di是所述样本图像xi的场景信息,即所述样本图像xi属于合成雾天场景还是真实雾天场景,gf为所述第一特征提取器中去掉全连接层的卷积神经网络,gm为所述第二特征提取器中该第一特征的特征提取单元,dg为该第一特征对应的所述第一域判别器,l
d1
为每一个样本图像xi对应的所述第一域判别器dg的损失,则全部所述第一域判别器的损失函数lg定义为:
[0134][0135]
即最后全部所述第一域判别器的损失函数为lg。
[0136]
需要说明的是,在训练过程中,对于每个第一特征来说,其对应的所述第一域判别器dg尽力根据所述样本图像的该第一特征确定所述样本图像xi的场景信息,即网络不断最小化所述第一域判别器dg的损失l
g1
,也即不断最小化全部所述第一域判别器的损失lg,但是,训练的目的是使得所述特征提取器100提取的所述样本图像的每个第一特征与所述样本图像的场景信息无关,即使得所述域判别器200中各个所述第一域判别器dg根据其对应的所述样本图像的第一特征均无法确定所述样本图像的场景信息,因此,继续如图8所示,在所述第二特征提取器120中的每个特征提取单元和相应的所述第一域判别器dg之间增加了反转梯度层grl,使得每个所述第一域判别器dg的损失经过所述反转梯度层grl后,将最小化的损失反转,从而优化所述特征提取器100和各个所述第一域判别器dg的网络参数,进而使得所述特征提取器基于所述样本图像xi尽力提取出与所述样本图像xi的场景信息无关的特征。
[0137]
由此可见,在本技术实施例所提供的训练方法中,利用所述特征提取器中的第一特征提取器和第二特征提取器提取所述样本图像在特征域上多个不同尺度的第一特征,以增强提取的所述样本图像的各第一特征在特征域分布的代表性和多样性;并利用对所述特征提取器和所述第一域判别器的对抗训练,使得各个所述第一域判别器根据其对应的所述样本图像的第一特征均无法确定所述样本图像的场景信息,即所述特征提取器提取的所述样本图像的各第一特征均与所述样本图像的场景信息无关,为不变性特征,不会受到所述样本图像是合成雾天场景还是真实雾天场景的而影响,从而减小所述合成雾天场景的样本图像和所述真实雾天场景的样本图像在特征域上的分布差异,进而使得后续利用本技术实施例所提供的训练方法训练后的所述图像分类模型在对雾天场景的图像进行识别和分类时不会受到合成雾天场景还是真实雾天场景的影响,大大减小分类误差,提高识别精度。
[0138]
s23:基于所述样本图像和所述样本图像的标签,对所述图像分类模型中的特征提取器和标签分类器进行训练,以使得所述标签分类器根据所述特征提取器提取的所述样本图像的特征确定的所述样本图像的类别结果与所述样本图像的标签一致。
[0139]
具体的,在本技术的一个实施例中,如图12所示,基于所述样本图像和所述样本图像的标签,对所述图像分类模型中的特征提取器和标签分类器进行训练,以使得所述标签分类器根据所述特征提取器提取的所述样本图像的特征确定的所述样本图像的类别结果与所述样本图像的标签一致包括:
[0140]
s231:利用所述特征提取器提取所述样本图像的第一特征信息,所述第一特征信息包括所述样本图像的各个第一特征,其中,不同所述第一特征的尺度不同。
[0141]
需要说明的是,无论是s22:基于所述样本图像,对所述图像分类模型中的特征提取器和域判别器进行对抗训练,以使得所述域判别器基于所述特征提取器提取的所述样本图像的特征无法确定所述样本图像的场景信息,还是s23:基于所述样本图像和所述样本图像的标签,对所述图像分类模型中的特征提取器和标签分类器进行训练,以使得所述标签分类器根据所述特征提取器提取的所述样本图像的特征确定的所述样本图像的类别结果与所述样本图像的标签一致,第一步都需要利用所述特征提取器提取所述样本图像的第一特征信息,在前述对s22的描述中,利用所述特征提取器提取所述样本图像的第一特征信息的步骤为s221,即s231和s221一致,均包括:
[0142]
s2211:利用所述特征提取器中的第一特征提取器提取所述样本图像的预设特征;
[0143]
s2212:利用所述特征提取器中的第二特征提取器基于所述样本图像的预设特征得到所述样本图像的多个第一特征,不同所述第一特征的尺度不同;
[0144]
其中,所述第一特征信息包括所述样本图像的各个第一特征。
[0145]
上述实施例的基础上,在本技术的一个实施例中,s231和s221分别单独进行,在本技术的另一个实施例中,s231和s221合并为一步,即采用s231或s221中的任意一步提取得到所述样本图像的第一特征信息。但本技术对s231和s221单独进行,还是合并成一步进行并不做限定,具体视情况而定。
[0146]
s232:将所述样本图像的各个第一特征进行融合,得到融合特征;
[0147]
s233:利用所述标签分类器根据所述融合特征,确定所述样本图像属于各类别结果的概率;
[0148]
s234:确定所述样本图像属于各类别结果中概率最大的类别结果是否与所述样本图像的标签一致;
[0149]
s235:如果所述样本图像属于各类别结果中概率最大的类别结果与所述样本图像的标签不一致,则改变所述特征提取器和所述标签分类器的网络参数,返回s231,直至所述样本图像属于各类别结果中概率最大的类别结果与所述样本图像的标签一致。
[0150]
具体训练时,继续如图8所示,利用所述特征提取器100中的融合层将所述样本图像xi的各个第一特征进行融合,得到融合特征f,并将所述融合特征f输出给所述标签分类器300;其中,所述特征提取器100提取的所述样本图像xi的各个第一特征的融合公式为:
[0151][0152]
其中,nf为所述特征提取器100提取的所述样本图像xi的第一特征的数量,即所述第二特征提取器120中的多尺度特征提取单元的数量。
[0153]
然后利用所述标签分类器300中的全连接层以及softmax根据所述融合特征f,确定所述样本图像属于各类别结果的概率;并确定所述样本图像属于各类别结果中概率最大的类别结果是否与所述样本图像的标签一致,所述标签分类器300的类别损失函数ly定义为:
[0154]
[0155]
其中,gy是所述标签分类器,c为所述样本图像xi的类别结果的数量,是所述标签分类器根据所述融合特征f确定的所述样本图像xi属于c个类别结果的概率。
[0156]
需要说明的是,在训练过程中,网络不断最小化所述标签分类器300的损失ly,如果所述样本图像xi属于c个类别结果中概率最大的类别结果与所述样本图像的标签不一致,则改变所述特征提取器100和所述标签分类器300的网络参数,具体的,改变所述特征提取器中所述第一特征提取器和所述第二特征提取器的网络参数以及所述标签分类器的网络参数,返回s231,直至所述样本图像属于c个类别结果中概率最大的类别结果与所述样本图像的标签一致。
[0157]
由此可见,在本技术实施例所提供的训练方法中,利用对所述特征提取器和所述标签分类器的训练,使得所述标签分类器根据所述特征提取器提取的所述样本图像的特征确定的所述样本图像的类别结果与所述样本图像的标签一致。
[0158]
需要说明的是,在前述实施例中,通过对所述特征提取器和所述第一域判别器进行对抗训练,虽然使得各个所述第一域判别器根据其对应的所述样本图像的第一特征均无法确定所述样本图像的场景信息,即所述特征提取器提取的所述样本图像的各第一特征均与所述样本图像的场景信息无关,但仍只使得所述合成雾天场景的样本图像和所述真实雾天场景的样本图像在特征域上的整体分布趋于一致,对于在特征域上每个类别结果的特征分布来说,所述合成雾天场景的样本图像和所述真实雾天场景的样本图像仍存在差异,从而还会影响所述图像分类模型在对雾天场景的图像进行识别和分类时的分类误差。
[0159]
因此,为进一步减小所述图像分类模型在对雾天场景的图像进行识别和分类时的分类误差,提高识别精度,在上述实施例的基础上,在本技术的一个实施例中,利用所述域判别器根据所述第一特征信息确定所述样本图像的场景信息还包括:
[0160]
基于所述样本图像属于各类别结果的概率与所述融合特征,得到所述样本图像属于各类别结果的概率与所述融合特征的乘积;
[0161]
利用所述域判别器中的第二域判别器根据所述样本图像属于各类别结果的概率与所述融合特征的乘积确定所述样本图像的场景信息;其中,所述第二域判别器与所述样本图像的各类别结果一一对应;
[0162]
如果所述域判别器根据所述第一特征信息能够确定所述样本图像的场景信息,则改变所述特征提取器和所述域判别器的网络参数,返回s221,直至所述域判别器根据所述第一特征信息无法确定所述样本图像的场景信息还包括:
[0163]
如果所述域判别器中至少一个所述第二域判别器根据其对应的所述样本图像属于该类别结果的概率与所述融合特征的乘积能够确定所述样本图像的场景信息,则改变所述特征提取器和所述域判别器的网络参数,返回s221,直至所述域判别器中各个所述第二域判别器根据其对应的所述样本图像属于该类别结果的概率与所述融合特征的乘积均无法确定所述样本图像的场景信息。
[0164]
需要说明的是,所述第二域判别器与所述样本图像的各类别结果一一对应,所述样本图像的类别结果为c类,则所述第二域判别器的数量也为c个,具体如图8中d
l1
至d
lc
所示。具体训练时,继续如图8所示,在前述实施例基于所述样本图像和所述样本图像的标签,对所述图像分类模型中的特征提取器100和标签分类器300进行训练的基础上,将所述标签分类器300根据所述融合特征f确定的所述样本图像xi属于每一个类别结果的概率与所述
融合特征一一相乘,得到所述样本图像xi属于各个类别结果的概率与所述融合特征f的乘积,用该乘积来表征所述样本图像xi在c个类别结果的参与程度,总共得到c个乘积,并将所述样本图像xi属于各个类别结果的概率与所述融合特征f的乘积输出给各个类别结果对应的所述第二域判别器d
l
中,利用所述第二域判别器d
l
根据所述样本图像xi属于各个类别结果的概率与所述融合特征f的乘积确定所述样本图像的场景信息。
[0165]
对于所述样本图像xi的每一个类别结果来说,所述特征提取器100和该类别结果对应的所述第二域判别器d
l
形成对抗训练,所述特征提取器100尽力基于所述样本图像xi得到与所述样本图像的场景信息无关的融合特征f,从而使得所述标签分类器300根据所述融合特征f,确定所述样本图像xi属于各个类别结果的概率,进而得到所述样本图像xi属于各个类别结果的概率与所述融合特征f的乘积,所述第二域判别器d
l
尽力根据其对应的所述样本图像xi属于该类别结果的概率与所述融合特征f的乘积确定所述样本图像xi的场景信息,如果所述第二域判别器d
l
根据其对应的所述样本图像xi属于该类别结果的概率与所述融合特征f的乘积能够确定所述样本图像xi的场景信息,则改变所述特征提取器100和该类别结果对应的所述第二域判别器d
l
的网络参数,返回s221,直至该第二域判别器d
l
根据其对应的所述样本图像xi属于该类别结果的概率与所述融合特征f的乘积无法确定所述样本图像的场景信息,即通过所述特征提取器100和该类别结果对应的所述第二域判别器d
l
的对抗训练,使得所述域判别器200中该类别结果对应的所述第二域判别器d
l
根据所述样本图像xi属于该类别结果的概率与所述融合特征f的乘积无法确定所述样本图像的场景信息。
[0166]
以此类推,所述特征提取器100和每一个类别结果对应的所述第二域判别器d
l
形成对抗训练,以使得所述域判别器200中各个所述第二域判别器根据其对应的所述样本图像属于该类别结果的概率与所述融合特征的乘积均无法确定所述样本图像的场景信息。
[0167]
全部所述第二域判别器d
l
的损失函数定义为:
[0168][0169]
其中,d
l
为所述第二域判别器,为所述第二域判别器对于所述样本图像xi的每一个类别结果的判别损失,是所述标签分类器根据所述融合特征,确定的所述样本图像xi属于的各个类别结果。
[0170]
需要说明的是,在训练过程中,与所述特征提取器100和所述第一域判别器dg的对抗训练类似,对于每一个类别结果来说,其对应的所述第二域判别器d
l
尽力根据所述样本图像xi属于该类别结果的概率与所述融合特征f的乘积确定所述样本图像xi的场景信息,即网络也不断最小化所述第二域判别器d
l
的损失,但是训练的目的是进一步拉近所述合成雾天场景的样本图像和所述真实雾天场景的样本图像在特征域上每个类别结果的特征分布,即使得所述域判别器200中各个所述第二域判别器d
l
根据其对应的所述样本图像属于该类别结果的概率与所述融合特征的乘积均无法确定所述样本图像的场景信息。因此,在所述特征提取器100和各个类别结果对应的所述第二域判别器d
l
之间也增加反转梯度层grl,使得每个所述第二域判别器d
l
的损失经过反转所述梯度层grl后,将最小化的损失反转,从而优化所述特征提取器100和各个类别结果对应的所述第二域判别器d
l
的网络参数,进而拉近所述合成雾天场景的样本图像和所述真实雾天场景的样本图像在特征域上每个类别结
果的特征分布。
[0171]
由此可见,在本技术实施例所提供的训练方法中,利用对所述特征提取器和各个类别结果对应的所述第二域判别器的对抗训练,使得各个所述第二域判别器根据其对应的所述样本图像属于该类别结果的概率与所述融合特征的乘积均无法确定所述样本图像的场景信息,从而拉近所述合成雾天场景的样本图像和所述真实雾天场景的样本图像在特征域上每个类别结果的特征分布,从而进一步减小所述图像分类模型在对雾天场景的图像进行识别和分类时的分类误差,提高识别精度。
[0172]
最终,在利用本技术实施例所提供的训练方法对所述图像分类图像进行训练的过程中,所述图像分类模型总体的损失函数由全部所述第一域判别器的损失函数、全部所述第二域判别器的损失函数以及所述标签分类器的损失函数混合而成,具体如下:
[0173][0174]
其中,θf为骨干网络参数,θm为多尺度特征参数,θy为标签分类器参数,θd为所述第一域判别器的损失,为所述第二域判别器的损失,λ为超参数,用来决定所述第一域判别器的损失和所述第二域判别器的损失在总体损失中所占的比重。
[0175]
需要说明的是,在训练过程中,网络不断最小化所述标签分类器的损失ly,以使得所述标签分类器根据所述特征提取器提取的所述样本图像的特征确定的所述样本图像的类别结果与所述样本图像的标签一致;同时,网络不断最小化所述第一域判别器和所述第二域判别器的损失,并通过反转梯度层将所述第一域判别器和所述第二域判别器最小化的损失反转,即在公式(6)中,所述第一域判别器和所述第二域判别器的总损失λ(lg l
l
)与所述标签分类器的损失ly符号相反,以使得所述特征提取器基于所述样本图像提取的所述样本图像的特征与其场景信息无关。
[0176]
具体的,对上述各网络参数的优化过程如下:
[0177][0178][0179][0180][0181][0182][0183]
其中,μ为学习率。
[0184]
需要说明的是,在训练过程中,当所述图像分类模型总体的损失函数趋于稳定,不
再下降时,说明所述图像分类模型总体的损失函数收敛,训练结束。
[0185]
此外,本技术实施例还提供了一种图像分类方法,如图13所示,该图像分类方法包括:
[0186]
s100:获取待分类雾天场景图像;
[0187]
s200:利用上述任一项所述的训练方法训练后的图像分类模型对所述待分类雾天场景图像进行分类;
[0188]
s300:输出所述待分类雾天场景图像的类别结果。
[0189]
由于s200中利用上述任一项所述的训练方法对所述图像分类模型的训练过程已在上述各实施例中进行了详细地阐述,此处不再赘述。
[0190]
综上,本技术实施例所提供的图像分类模型的训练方法及图像分类方法,包括:s1:获取带标签的样本图像集,所述样本图像集包含多个真实雾天场景的样本图像和多个合成雾天场景的样本图像;s2:将所述样本图像集中的各个样本图像输入所述图像分类模型中,对所述图像分类模型进行训练,以使得所述图像分类模型提取的所述样本图像的特征与其场景信息无关且基于该特征确定的所述样本图像的类别结果与其标签一致,其中,所述样本图像的场景信息表征所述样本图像属于真实雾天场景还是合成雾天场景。由此可见,利用本技术实施例所提供的训练方法对所述图像分类模型进行训练后,不仅使得所述图像分类模型基于其提取的所述样本图像的特征确定的所述样本图像的类别结果与所述样本图像的标签一致,还使得所述图像分类模型提取的该特征与所述样本图像的场景信息无关,即所述图像分类模型提取的该特征为不变性特征,不会受到所述样本图像是合成雾天场景还是真实雾天场景的影响,从而使得后续利用本技术实施例所提供的训练方法训练后的所述图像分类模型在对雾天场景的图像进行识别和分类时不会受到合成雾天场景还是真实雾天场景的影响,进而大大减小分类误差,提高识别精度。
[0191]
本说明书中各个部分采用并列和递进相结合的方式描述,每个部分重点说明的都是与其他部分的不同之处,各个部分之间相同相似部分互相参见即可。
[0192]
对所公开的实施例的上述说明,本说明书中各实施例中记载的特征可以相互替换或组合,使本领域专业技术人员能够实现或使用本技术。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本技术的精神或范围的情况下,在其它实施例中实现。因此,本技术将不会被限制于本文所示的实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献