一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

图像数据生成方法、模型训练方法、装置、设备及介质与流程

2022-03-04 23:03:56 来源:中国专利 TAG:


1.本发明涉及人工智能领域,特别涉及一种图像数据生成方法、模型训练方法、装置、设备及介质。


背景技术:

2.随着人工智能与深度神经网络模型的快速发展与应用,卷积神经模型已经被广泛应用,但是其缺点也比较明显,例如具有较大的参数量、计算量、内存占用。而模型微调可以缓解现有卷积神经网络参数量大、计算量大、内存占用多等问题,具有为神经网络压缩参数、提升速度、降低内存占用等“潜在”优势,但在模型微调时会将单一精度优化到更低的精度,使得模型的准确度大幅降低。目前是通过模型微调方法以减少模型准确度的损耗。该方法的基本原理是借助原始数据集,对模型进行少量的“再训练”,以提高精确度,但是实际应用中,原始数据集通常规模巨大并且很难获取,因此无法实操。
3.综上可见,如何避免获取原始数据集困难的情况,进而提高初始神经网络模型的精确度是本领域有待解决的问题。


技术实现要素:

4.有鉴于此,本发明的目的在于提供一种图像数据生成方法、模型训练方法、装置、设备及介质,能够避免获取原始数据集困难的情况,进而提高初始神经网络模型的精确度。其具体方案如下:
5.第一方面,本技术公开了一种图像数据生成方法,包括:
6.构建包含第一正则项和第二正则项的目标函数;其中,所述第一正则项以迭代图像为变量参数,所述第二正则项以所述迭代图像的特征图为变量参数,并且,非初次迭代的所述迭代图像为基于所述目标函数的函数值构建的图像;
7.获取预先经过训练的初始神经网络模型,然后从所述初始神经网络模型的归一化层中提取出预保存特征图信息;
8.创建噪声图像,并将所述噪声图像作为初次迭代图像,然后提取出所述初次迭代图像的特征图;
9.以所述初次迭代图像的特征图、所述预保存特征图信息和所述初次迭代图像作为初次迭代参数,并基于预设迭代次数针对所述目标函数展开多次迭代运算,以生成相应的图像数据,以便将所述图像数据作为训练数据对所述初始神经网络模型进行重新训练。
10.可选的,所述构建包含第一正则项和第二正则项的目标函数,包括:
11.基于预先经过训练的所述初始神经网络模型以及预先指定的待生成图像类别,构建与所述初始神经网络模型对应的分类损失函数;
12.构建以所述迭代图像为变量参数的用于控制图像自然特性的第一正则项,并构建以所述迭代图像的特征图为变量参数的用于控制图像逼真程度的第二正则项;
13.构建包含所述第一正则项、所述第二正则项和所述分类损失函数的目标函数。
14.可选的,所述构建以所述迭代图像为变量参数的用于控制图像自然特性的第一正则项,包括:
15.以所述迭代图像为变量参数,分别构建全局方差和l2正则项,并为所述全局方差和所述l2正则项分配相应的权重系数,以得到用于控制图像自然特性的第一正则项。
16.可选的,所述构建以所述迭代图像的特征图为变量参数的用于控制图像逼真程度的第二正则项,包括:
17.以所述迭代图像的特征图为变量参数,构建特征图信息计算函数,并基于所述特征图信息计算函数与所述预保存特征图信息之间的差构建用于控制图像逼真程度的第二正则项。
18.可选的,所述从所述初始神经网络模型的归一化层中提取出预保存特征图信息,包括:
19.从所述初始神经网络模型的归一化层中提取出预保存的特征图均值信息和特征图方差信息;
20.相应的,所述以所述迭代图像的特征图为变量参数,构建特征图信息计算函数,并基于所述特征图信息计算函数与所述预保存特征图信息之间的差构建用于控制图像逼真程度的第二正则项,包括:
21.以所述迭代图像的特征图为变量参数,分别构建特征图均值函数和特征图方差函数;
22.基于所述特征图均值函数与所述特征图均值信息之间的差构建第一l2正则项,以及基于所述特征图方差函数与所述特征图方差信息之间的差构建第二l2正则项;
23.构建包含所述第一l2正则项和所述第二l2正则项的用于控制图像逼真程度的第二正则项。
24.可选的,所述基于预设迭代次数针对所述目标函数展开多次迭代运算,以生成相应的图像数据之前,还包括:
25.确定用于配置所述目标函数的超参数信息,并利用所述超参数信息对所述目标函数进行配置;其中,将学习率、批量大小和迭代次数中的一种或几种参数信息确定为所述超参数信息。
26.第二方面,本技术公开了一种神经网络模型训练方法,包括:
27.获取预先经过训练的初始神经网络模型;
28.根据训练精度需求,确定出图像需求量;
29.基于所述图像需求量重复执行多次前述公开的图像数据生成方法,以得到包含相应数量个图像数据的训练数据集;
30.利用所述训练数据集对所述初始神经网络模型进行重新训练,以得到优化后的神经网络模型。
31.第三方面,本技术公开了一种图像数据生成装置,包括:
32.函数构建模块,用于构建包含第一正则项和第二正则项的目标函数;其中,所述第一正则项以迭代图像为变量参数,所述第二正则项以所述迭代图像的特征图为变量参数,并且,非初次迭代的所述迭代图像为基于所述目标函数的函数值构建的图像;
33.特征图信息提取模块,用于获取预先经过训练的初始神经网络模型,然后从所述
初始神经网络模型的归一化层中提取出预保存特征图信息;
34.迭代图像创造模块,用于创建噪声图像,并将所述噪声图像作为初次迭代图像,然后提取出所述初次迭代图像的特征图;
35.图像数据生成模块,用于以所述初次迭代图像的特征图、所述预保存特征图信息和所述初次迭代图像作为初次迭代参数,并基于预设迭代次数针对所述目标函数展开多次迭代运算,以生成相应的图像数据,以便将所述图像数据作为训练数据对所述初始神经网络模型进行重新训练。
36.第四方面,本技术公开了一种图像数据生成设备,包括:
37.存储器,用于保存计算机程序;
38.处理器,用于执行所述计算机程序,以实现前述公开的图像数据生成方法的步骤。
39.第五方面,本技术公开了一种计算机可读存储介质,其特征在于,用于存储计算机程序;其中,所述计算机程序被处理器执行时实现前述公开的图像数据生成方法的步骤。
40.可见,本技术首先构建包含第一正则项和第二正则项的目标函数;其中,所述第一正则项以迭代图像为变量参数,所述第二正则项以所述迭代图像的特征图为变量参数,并且,非初次迭代的所述迭代图像为基于所述目标函数的函数值构建的图像;获取预先经过训练的初始神经网络模型,然后从所述初始神经网络模型的归一化层中提取出预保存特征图信息;创建噪声图像,并将所述噪声图像作为初次迭代图像,然后提取出所述初次迭代图像的特征图;以所述初次迭代图像的特征图、所述预保存特征图信息和所述初次迭代图像作为初次迭代参数,并基于预设迭代次数针对所述目标函数展开多次迭代运算,以生成相应的图像数据,以便将所述图像数据作为训练数据对所述初始神经网络模型进行重新训练。由此可见,本技术通过创建包含第一正则项和第二正则项的目标函数,并将预先经过训练的初始神经网络模型中预保存的特征图信息、噪声图像以及噪声图像的特征图输入至所述目标函数,以生成与预先经过训练的初始神经网络模型对应的图像数据作为训练数据,因此无需获取预先经过训练的初始神经网络模型的原始数据,降低获取训练数据的难度,又因通过基于预设迭代次数针对所述目标函数展开多次迭代运算,以保证获取到的图像数据更加接近所述原始数据,进而能够使得所述图像数据作为训练数据,以提高后续利用训练数据集对初始神经网络模型进行再次训练的效率。
附图说明
41.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
42.图1为本技术公开的一种图像数据生成方法流程图;
43.图2为本技术公开的一种具体的图像数据生成方法流程图;
44.图3为本技术公开的一种神经网络模型训练方法流程图;
45.图4为本技术公开的一种具体的神经网络模型训练方法流程图;
46.图5为本技术公开的一种图像数据生成装置结构示意图;
47.图6为本技术公开的一种电子设备结构图。
具体实施方式
48.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
49.当前,减少模型准确度的损耗的方法是通过需要原始数据集对预先经过训练的初始神经网络模型进行少量的“再训练”,以提高精确度,但是实际应用中,原始数据集通常规模巨大并且很难获取,因此无法实操。
50.为此,本技术相应的提供了一种图像数据生成方法,能够避免获取原始数据集困难的情况,进而提高初始神经网络模型的精确度。
51.参见图1所示,本技术实施例公开了一种图像数据生成方法,包括:
52.步骤s11:构建包含第一正则项和第二正则项的目标函数;其中,所述第一正则项以迭代图像为变量参数,所述第二正则项以所述迭代图像的特征图为变量参数,并且,非初次迭代的所述迭代图像为基于所述目标函数的函数值构建的图像。
53.本实施例中所述构建包含第一正则项和第二正则项的目标函数,可以包括:基于预先经过训练的初始神经网络模型以及预先指定的待生成图像类别,构建与所述初始神经网络模型对应的分类损失函数;构建以所述迭代图像为变量参数的用于控制图像自然特性的第一正则项,并构建以所述迭代图像的特征图为变量参数的用于控制图像逼真程度的第二正则项;构建包含所述第一正则项、所述第二正则项和所述分类损失函数的目标函数。其中可以理解的是,预先指定的待生成图像类别可以是基于所述初始神经网络模型将所有的类别作为待生成图像类别,也可以是针对性的选择一个待生成图像类别,例如本实施例中可以任意选取一个imagenet数据集中定义的类别作为待生成图像类别。
54.步骤s12:获取预先经过训练的初始神经网络模型,然后从所述初始神经网络模型的归一化层中提取出预保存特征图信息。
55.可以理解的是,本实施例中,从所述初始神经网络模型的归一化层中提取出预保存特征图信息后,对预保存特征图信息进行提取,以获得特征图均值信息和特征图方差信息。例如,在卷积神经网络(convolutional neural networks,即cnn)模型的归一化层(batch normalization)层中提取出保存的与原始数据集相关的特征图均值信息和特征图方差信息,以便后续将所述特征图均值信息和所述特征图方差信息输入至所述目标函数中。
56.步骤s13:创建噪声图像,并将所述噪声图像作为初次迭代图像,然后提取出所述初次迭代图像的特征图。
57.本实施例中,创建噪声图像可以是随机的噪声图像,并基于预设图像要求对尺寸进行设定,例如本实施例中尺寸大小设定为224
×
224,需要注意的是,由于所述目标函数在后续生成相应的图像数据之前要进行多次迭代运算,所以创建的噪声图像只是作为初次的迭代图像,因此可以理解的是对所述噪声图像提取出的特征图也只是初次迭代图像的特征图
58.步骤s14:以所述初次迭代图像的特征图、所述预保存特征图信息和所述初次迭代图像作为初次迭代参数,并基于预设迭代次数针对所述目标函数展开多次迭代运算,以生
成相应的图像数据,以便将所述图像数据作为训练数据对所述初始神经网络模型进行重新训练。
59.本实施例中,所述基于预设迭代次数针对所述目标函数展开多次迭代运算,以生成相应的图像数据之前,具体的还包括:确定用于配置所述目标函数的超参数信息,并利用所述超参数信息对所述目标函数进行配置;其中,将学习率(learning rate,即lr)、批量大小(batchsize)和迭代次数(epoch)中的一种或几种参数信息确定为所述超参数信息。本实施例可以基于预设训练精度需求对所述超参数进行设定,当需要训练稳定,则批量大小设置为高数值,减小随机梯度的方差,降低引入的噪声,例如本实施例中,首先将学习率设定为0.05,批量大小设定为512,迭代次数设定为10000次,然后将初次迭代图像的特征图、所述预保存特征图信息和所述初次迭代图像输入至所述目标函数中,进行迭代次数为10000次的迭代运算,最后获取图像数据作为训练数据。
60.可以理解是,当期望待生成图像类别包含了所有定义的类别时,则将所有的类别依次作为预先指定的待生成图像类别,然后基于预先经过训练的初始神经网络模型以及所述预先指定的待生成图像类别构建与所述初始神经网络模型对应的分类损失函数,然后构建包含所述第一正则项、所述第二正则项和所述分类损失函数的目标函数,重复上述步骤s12、s13以及s14,以生成相应的图像数据集。例如将imagenet数据集中所有定义的类别依次作为预先指定的待生成图像类别,重复执行上述步骤之后,最终获取到100到1000个图像数据。本实施例通过将所有定义的类别作为预先指定的待生成图像类别,可以使得生成的图像数据更加全面,并且该图像数据作为训练数据,使得该训练数据更加具有可靠性,能够使得被该训练数据再次训练后的初始神经网络模型保持较好的精度。
61.可见,本技术首先构建包含第一正则项和第二正则项的目标函数;其中,所述第一正则项以迭代图像为变量参数,所述第二正则项以所述迭代图像的特征图为变量参数,并且,非初次迭代的所述迭代图像为基于所述目标函数的函数值构建的图像;获取预先经过训练的初始神经网络模型,然后从所述初始神经网络模型的归一化层中提取出预保存特征图信息;创建噪声图像,并将所述噪声图像作为初次迭代图像,然后提取出所述初次迭代图像的特征图;以所述初次迭代图像的特征图、所述预保存特征图信息和所述初次迭代图像作为初次迭代参数,并基于预设迭代次数针对所述目标函数展开多次迭代运算,以生成相应的图像数据,以便将所述图像数据作为训练数据对所述初始神经网络模型进行重新训练。由此可见,本技术通过创建包含第一正则项和第二正则项的目标函数,并将预先经过训练的初始神经网络模型中预保存特征图信息、噪声图像以及噪声图像的特征图输入至所述目标函数,以生成与预先经过训练的初始神经网络模型对应的图像数据作为训练数据,因此无需获取预先经过训练的初始神经网络模型的原始数据,降低获取训练数据的难度,又因通过基于预设迭代次数针对所述目标函数展开多次迭代运算,以保证获取到的图像数据更加接近所述原始数据,进而能够使得所述图像数据作为训练数据,进而提高后续利用训练数据集对初始神经网络模型进行再次训练的效率。
62.参见图2所示,本发明实施例公开了一种具体的图像数据生成方法,相对于上一实施例,本实施例对技术方案作了进一步的说明和优化。具体的:
63.步骤s21:构建以所述迭代图像为变量参数的用于控制图像自然特性的第一正则项。
64.本实施例中,所述构建以所述迭代图像为变量参数的用于控制图像自然特性的第一正则项,可以包括:以所述迭代图像为变量参数,分别构建全局方差和l2正则项,并为所述全局方差和所述l2正则项分配相应的权重系数,以得到用于控制图像自然特性的第一正则项。本实施例中,所述全局方差可以降低图像中每一个点与周围上下左右的差距,所述l2正则项可以防止生成的图像过拟合进而使得图像更加和谐。其中,所述第一正则项公式如下:
[0065][0066]
其中上述指第一正则项,为全局方差(tv也即total variance,即全局方差),为l2正则项,α
tv
和分别是全局方差和l2正则项的权重系数。
[0067]
步骤s22:构建以所述迭代图像的特征图为变量参数的用于控制图像逼真程度的第二正则项。
[0068]
本实施例中,所述构建以所述迭代图像的特征图为变量参数的用于控制图像逼真程度的第二正则项,包括:以所述迭代图像的特征图为变量参数,构建特征图信息计算函数,并基于所述特征图信息计算函数与所述预保存特征图信息之间的差构建用于控制图像逼真程度的第二正则项。
[0069]
本实施例中,所述以所述迭代图像的特征图为变量参数,构建特征图信息计算函数,并基于所述特征图信息计算函数与所述预保存特征图信息之间的差构建用于控制图像逼真程度的第二正则项,包括:以所述迭代图像的特征图为变量参数,分别构建特征图均值函数和特征图方差函数;基于所述特征图均值函数与后续从所述初始神经网络模型的归一化层中提取出预保存的特征图均值信息之间的差构建第一l2正则项,以及基于所述特征图方差函数与后续从所述初始神经网络模型的归一化层中提取出预保存的特征图方差信息之间的差构建第二l2正则项;构建包含所述第一l2正则项和所述第二l2正则项的用于控制图像逼真程度的第二正则项。具体的,所述第二正则项的公式为:
[0070][0071]
其中,上述为第二正则项,x
l
为迭代图像的第l层特征图,mean(x
l
)为第l层特征图均值函数,var(x
l
)是第l层特征图方差函数,μ
l
为预保存第l层特征图均值信息,为预保存第l层特征图方差信息,||
·
||2运算符是l2正则计算。
[0072]
步骤s23:构建包含所述第一正则项和所述第二正则项的目标函数;非初次迭代的所述迭代图像为基于所述目标函数的函数值构建的图像。
[0073]
本实施例中,首先需要构建用于生成图像数据的目标函数,该目标函数需要包含以下两项:以迭代图像为变量参数的第一正则项和以迭代图像的特征图为变量参数的第二正则项。其中,需要注意的是,非初次迭代的迭代图像为基于该目标函数的函数值所构建的图像。也即,本实施例中,是通过对构建的目标函数进行多次迭代,而生成最终的图像数据,并且,除第一次迭代外,其后的每一次迭代,上述目标函数都是以上一次迭代完成后该目标函数输出的函数值所构建的图像作为本次迭代的输入值,通过这种方式从而达到不断迭代更新的目的。
[0074]
需要注意的是,本实施例中所述目标函数不仅包括所述第一正则项和所述第二正则项,还包括表现预测数据与实际数据之间差距程度即模型的鲁棒性的分类损失函数,其中所述分类函数是基于预先经过训练的初始神经网络模型以及预先指定的待生成图像类别构建的,当分类损失函数越小时,模型的鲁棒性就越好。具体的目标函数公式如下:
[0075][0076]
其中,上述x
*
代表目标函数,h代表迭代图像尺寸的长度,w代表迭代图像的宽度,c是rgb(r(red)、g(green)、b(blue))通道,代表迭代图像的域,l(
·
)是预先经过训练的初始神经网络模型的分类损失函数,φ(x)是所述初始神经网络模型,φ0是预先指定的待生成图像类别,是所述第一正则项,是所述第二正则项。
[0077]
步骤s24:获取预先经过训练的初始神经网络模型,然后从所述初始神经网络模型的归一化层中提取出预保存特征图信息。
[0078]
步骤s25:创建噪声图像,并将所述噪声图像作为初次迭代图像,然后提取出所述初次迭代图像的特征图。
[0079]
步骤s26:以所述初次迭代图像的特征图、所述预保存特征图信息和所述初次迭代图像作为初次迭代参数,并基于预设迭代次数针对所述目标函数展开多次迭代运算,以生成相应的图像数据,以便将所述图像数据作为训练数据对所述初始神经网络模型进行重新训练。
[0080]
其中,关于上述步骤s24、s25和s26更加具体的处理过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
[0081]
由此可见,本技术实施例所述第一正则项中全局方差的作用是让图像中的每一个像素点与其周围像素点的差别不会太大,l2正则项的作用是让生成的图像更加和谐,通过全局方差和l2正则项的设定,第一正则项能够控制图像的自然特性,也即第一正则项能够实现让生成的图像更加类似自然图像,又因为所述第二正则项使得生成图像更加逼真,生成的图像数据更接近初始神经网络模型的原始数据,所以保证了生成的图像数据可以代替初始神经网络模型的原始数据,进而实现了降低后续对初始神经网络模型重新训练的难度,并保证了后续重新训练后的初始神经网络模型准确度。
[0082]
参见图3所示,本技术实施例公开了一种神经网络模型训练方法,包括:
[0083]
步骤s31:获取预先经过训练的初始神经网络模型。
[0084]
本实施例中,在对模型进行重新训练训练之前,首先要获取已经用原始数据集训练过的初始神经网络模型。
[0085]
步骤s32:根据训练精度需求,确定出图像需求量。
[0086]
本实施例中,上述训练精度需求也即希望训练后的神经网络模型需要达到的精度,并根据该精度需求确定出图像的需求量。可以理解的是,当对模型进行训练时,训练数据越全面,训练后的模型性能越好,也即精度越高,但与此同时,过多的训练数据也会带来更多的计算量和内存占用。因此需要根据具体的需求对训练数据的数量进行确定,当训练精度需求不太高时,以获取合适的图像需求量,从而避免计算量和内存占用过大。
[0087]
步骤s33:基于所述图像需求量重复执行多次前述公开的图像数据生成方法,以得到包含相应数量个图像数据的训练数据集。
[0088]
本实施例中,在根据训练精度需求并确定好图像需求量之后,则通过前述公开的图像数据生成方法生成相应数量个图像数据,以便将这些图像数据进行整理并作为训练数据集。
[0089]
步骤s34:利用所述训练数据集对所述初始神经网络模型进行重新训练,以得到优化后的神经网络模型。
[0090]
本实施例中,如图4所示,在得到与图像需求量相应数量的训练数据集后,则利用该训练数据集对初始神经网络模型进行迭代重训练,也即模型微调,以得到优化后的神经网络模型。
[0091]
本实施例中,在得到优化后的神经网络模型之后,还可以包括:对优化后的神经网络模型进行验证,以确定优化后的神经网络模型相较于初始神经网络模型的准确度下降率。中高比特重新训练的情况下,优化后的神经网络模型应与初始神经网络模型准确率持平,而超低比特即小于等于4比特的情况下,优化后的神经网络模型相较于初始神经网络模型,准确率下降率应保持在10%。当优化后的神经网络模型相较于初始神经网络模型的准确度下降率过高时,该优化后的神经网络模型则不能被接受使用。
[0092]
可见,本技术实施例首先获取预先经过训练的初始神经网络模型;根据训练精度需求,确定出图像需求量;基于所述图像需求量重复执行多次前述公开的图像数据生成方法,以得到包含相应数量个图像数据的训练数据集;利用所述训练数据集对所述初始神经网络模型进行重新训练,以得到优化后的神经网络模型。由此可见,本技术基于所述图像需求量重复执行多次前述公开的图像数据生成方法就能够获取到用于训练初始神经网络模型的训练数据,无需获取到预训练初始神经网络模型的原始数据,进而避免了因为难以获取原始数据而无法再次对初始神经网络模型进行训练的问题,又由于是根据训练精度需求,确定出图像需求量,因此实现了对初始神经网络模型高效训练,并能够保持较好的精度。
[0093]
参见图5所示,本技术实施例公开了一种图像数据生成装置,包括:
[0094]
函数构建模块11,用于构建包含第一正则项和第二正则项的目标函数;其中,所述第一正则项以迭代图像为变量参数,所述第二正则项以所述迭代图像的特征图为变量参数,并且,非初次迭代的所述迭代图像为基于所述目标函数的函数值构建的图像;
[0095]
特征图信息提取模块12,用于获取预先经过训练的初始神经网络模型,然后从所述初始神经网络模型的归一化层中提取出预保存特征图信息;
[0096]
迭代图像创造模块13,用于创建噪声图像,并将所述噪声图像作为初次迭代图像,然后提取出所述初次迭代图像的特征图;
[0097]
图像数据生成模块14,用于以所述初次迭代图像的特征图、所述预保存特征图信息和所述初次迭代图像作为初次迭代参数,并基于预设迭代次数针对所述目标函数展开多次迭代运算,以生成相应的图像数据,以便将所述图像数据作为训练数据对所述初始神经网络模型进行重新训练。
[0098]
可见,本技术首先构建包含第一正则项和第二正则项的目标函数;其中,所述第一正则项以迭代图像为变量参数,所述第二正则项以所述迭代图像的特征图为变量参数,并且,非初次迭代的所述迭代图像为基于所述目标函数的函数值构建的图像;获取预先经过训练的初始神经网络模型,然后从所述初始神经网络模型的归一化层中提取出预保存特征
图信息;创建噪声图像,并将所述噪声图像作为初次迭代图像,然后提取出所述初次迭代图像的特征图;以所述初次迭代图像的特征图、所述预保存特征图信息和所述初次迭代图像作为初次迭代参数,并基于预设迭代次数针对所述目标函数展开多次迭代运算,以生成相应的图像数据,以便将所述图像数据作为训练数据对所述初始神经网络模型进行重新训练。由此可见,本技术通过创建包含第一正则项和第二正则项的目标函数,并将预先经过训练的初始神经网络模型中预保存特征图信息、噪声图像以及噪声图像的特征图输入至所述目标函数,以生成与预先经过训练的初始神经网络模型对应的图像数据作为训练数据,因此无需获取预先经过训练的初始神经网络模型的原始数据,降低获取训练数据的难度,又因通过基于预设迭代次数针对所述目标函数展开多次迭代运算,以保证获取到的图像数据更加接近所述原始数据,进而能够使得所述图像数据作为训练数据,进而提高后续利用训练数据集对初始神经网络模型进行再次训练的效率。
[0099]
在一些具体实施例中,所述函数构建模块11,包括:
[0100]
分类损失函数构建单元,用于基于预先经过训练的所述初始神经网络模型以及预先指定的待生成图像类别,构建与所述初始神经网络模型对应的分类损失函数。
[0101]
目标函数构建单元,用于构建以所述迭代图像为变量参数的用于控制图像自然特性的第一正则项,并构建以所述迭代图像的特征图为变量参数的用于控制图像逼真程度的第二正则项;构建包含所述第一正则项、所述第二正则项和所述分类损失函数的目标函数。
[0102]
在一些具体实施例中,所述函数构建模块11,包括:
[0103]
第一正则项创建单元,用于以所述迭代图像为变量参数,分别构建全局方差和l2正则项,并为所述全局方差和所述l2正则项分配相应的权重系数,以得到用于控制图像自然特性的第一正则项。
[0104]
第二正则项创建单元,用于以所述迭代图像的特征图为变量参数,构建特征图信息计算函数,并基于所述特征图信息计算函数与所述预保存特征图信息之间的差构建用于控制图像逼真程度的第二正则项。
[0105]
在一些具体实施例中,所述第二正则项创建单元,包括:
[0106]
均值方差信息提取单元,用于从所述初始神经网络模型的归一化层中提取出预保存的特征图均值信息和特征图方差信息。
[0107]
均值方差函数构建单元,用于以所述迭代图像的特征图为变量参数,分别构建特征图均值函数和特征图方差函数。
[0108]
l2正则项构建单元,用于基于所述特征图均值函数与所述特征图均值信息之间的差构建第一l2正则项,以及基于所述特征图方差函数与所述特征图方差信息之间的差构建第二l2正则项。
[0109]
第二正则项构建单元,用于构建包含所述第一l2正则项和所述第二l2正则项的用于控制图像逼真程度的第二正则项。
[0110]
在一些具体实施例中,所述图像数据生成模块14,包括:
[0111]
超参数配置单元,用于确定用于配置所述目标函数的超参数信息,并利用所述超参数信息对所述目标函数进行配置;其中,将学习率、批量大小和迭代次数中的一种或几种参数信息确定为所述超参数信息。
[0112]
图6为本发明实例提供的一种计算机设备的结构示意图。具体可以包括:至少一个
处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,所述存储器22用于存储计算机程序,所述计算机程序由所述处理器21加载并执行,以实现前述任一实施例公开的由计算机设备执行的图像数据生成方法中的相关步骤。
[0113]
本实施例中,电源23用于为计算机设备20上的各硬件设备提供工作电压;通信接口24能够为计算机设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本技术技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
[0114]
其中,处理器21可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器21可以采用dsp(digital signal processing,数字信号处理)、fpga(field-programmable gate array,现场可编程门阵列)、pla(programmable logic array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器21也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称cpu(central processing unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器21可以在集成有gpu(graphics processing unit,图像处理器),gpu用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器21还可以包括ai(artificial intelligence,人工智能)处理器,该ai处理器用于处理有关机器学习的计算操作。
[0115]
另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作系统221、计算机程序222及数据223等,存储方式可以是短暂存储或者永久存储。
[0116]
其中,操作系统221用于管理与控制计算机设备20上的各硬件设备以及计算机程序222,以实现处理器21对存储器22中海量数据223的运算与处理,其可以是windows、unix、linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由计算机设备20执行的图像数据生成方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。数据223除了可以包括计算机设备接收到的由外部设备传输进来的数据,也可以包括由自身输入输出接口25采集到的数据等。
[0117]
进一步的,本发明实施例还公开了一种存储介质,所述存储介质中存储有计算机程序,所述计算机程序被处理器加载并执行时,实现前述任一实施例公开的由图像数据生成过程中执行的方法步骤。
[0118]
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0119]
以上对本发明所提供的一种图像数据生成方法、模型训练方法、装置、设备及介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实
施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献