一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

模型训练方法、超分辨率重建方法、装置、设备及介质与流程

2022-05-17 23:13:04 来源:中国专利 TAG:


1.本发明涉及人工智能技术,特别涉及一种模型训练方法、超分辨率重建方法、装置、设备及介质。


背景技术:

2.超分辨率(super resolution,即sr)是从给定的低分辨率(low resolution ,即lr)图像中恢复高分辨率(high resolution,即hr)图像的过程,是计算机视觉的一个经典应用。通过软件或硬件的方法,从观测到的低分辨率图像重建出相应的高分辨率图像,在监控设备、卫星图像遥感、数字高清、显微成像、视频编码通信、视频复原和医学影像等领域都有重要的应用价值。而当前在使用超分辨率模型对图像进行重建,以得到相应的超分辨率图像时,仍存在图像质量较低、不清晰的问题。
3.综上,如何提高超分辨率模型的性能,以便利用该超分辨率模型对图像进行处理时,能得到更高质量的超分辨率图像是目前有待解决的问题。


技术实现要素:

4.有鉴于此,本发明的目的在于提供一种模型训练方法、超分辨率重建方法、装置、设备及介质,能够提高超分辨率模型的性能,以便利用该超分辨率模型对图像进行处理时,能得到更高质量的超分辨率图像。其具体方案如下:第一方面,本技术公开了一种超分辨率模型训练方法,包括获取对原始分辨率图像进行下采样后得到的下采样图像,并对所述下采样图像进行特征提取以得到初始特征图;按照预设采样比率对所述初始特征图进行两次随机采样,分别得到第一特征图和第二特征图,基于所述第一特征图和所述第二特征图构建对比损失函数;利用预设上采样方法对所述初始特征图进行处理得到超分辨率图像,基于所述原始分辨率图像和所述超分辨率图像构建l1损失函数;基于所述对比损失函数和所述l1损失函数构建总损失函数,并利用所述总损失函数对原始超分辨率模型进行训练,以得到训练后的超分辨率模型。
5.可选的,所述利用所述总损失函数对原始超分辨率模型进行训练,以得到训练后的超分辨率模型之前,还包括:按照预设下采样倍数对若干数量张原始分辨率图像进行下采样,以得到相应的下采样图像;基于所述原始分辨率图像和所述下采样图像构造用于训练所述原始超分辨率模型的训练集,其中,所述训练集中的训练样本包含所述原始分辨率图像以及对应的所述下采样图像。
6.可选的,所述利用所述总损失函数对原始超分辨率模型进行训练,以得到训练后的超分辨率模型,包括:
确定预设迭代次数和预设优化器的超参数信息;其中,所述超参数信息包括学习率和批量大小;基于所述预设迭代次数和所述预设优化器并利用所述训练集和所述总损失函数对原始超分辨率模型进行训练,以得到训练后的超分辨率模型。
7.可选的,所述基于所述第一特征图和所述第二特征图构建对比损失函数,包括:将所述第一特征图和所述第二特征图分别输入多层感知机网络,得到与所述第一特征图对应的第一输出值和与所述第二特征图对应的第二输出值;基于所述第一特征图和所述第二特征图以及所述第一输出值和所述第二输出值构建对比损失函数。
8.可选的,所述利用预设上采样方法对所述初始特征图进行处理得到超分辨率图像,包括:利用插值方法对所述初始特征图的像素点进行扩充,得到扩充后特征图;将所述扩充后特征图输入至最后一层卷积层的滤波器数量为三的卷积神经网络,以便通过所述卷积神经网络对所述扩充后特征图进行处理以降低所述扩充后特征图的通道数,得到通道数为三的超分辨率图像。
9.可选的,所述基于所述对比损失函数和所述l1损失函数构建总损失函数,包括:为所述对比损失函数和所述l1损失函数分配相应的权重系数;利用所述权重系数分别对所述对比损失函数和所述l1损失函数进行相应的加权,以构建总损失函数。
10.第二方面,本技术公开了一种图像超分辨率重建方法,包括:获取待重建低分辨率图像;利用前述公开的超分辨率模型训练方法训练得到的超分辨率模型对所述待重建低分辨率图像进行处理,以得到相应的超分辨率图像。
11.第三方面,本技术公开了一种超分辨率模型训练装置,包括特征提取模块,用于获取对原始分辨率图像进行下采样后得到的下采样图像,并对所述下采样图像进行特征提取以得到初始特征图;对比损失函数构建模块,用于按照预设采样比率对所述初始特征图进行两次随机采样,分别得到第一特征图和第二特征图,基于所述第一特征图和所述第二特征图构建对比损失函数;l1损失函数构建模块,用于利用预设上采样方法对所述初始特征图进行处理得到超分辨率图像,基于所述原始分辨率图像和所述超分辨率图像构建l1损失函数;模型训练模块,用于基于所述对比损失函数和所述l1损失函数构建总损失函数,并利用所述总损失函数对原始超分辨率模型进行训练,以得到训练后的超分辨率模型。
12.第四方面,本技术公开了一种电子设备,包括:存储器,用于保存计算机程序;处理器,用于执行所述计算机程序,以实现前述公开的超分辨率模型训练方法的步骤。
13.第五方面,本技术公开了一种计算机可读存储介质,用于存储计算机程序;其中,所述计算机程序被处理器执行时实现前述公开的超分辨率模型训练方法的步骤。
14.可见,本技术首先获取对原始分辨率图像进行下采样后得到的下采样图像,并对所述下采样图像进行特征提取以得到初始特征图;然后按照预设采样比率对所述初始特征图进行两次随机采样,分别得到第一特征图和第二特征图,基于所述第一特征图和所述第二特征图构建对比损失函数;接着利用预设上采样方法对所述初始特征图进行处理得到超分辨率图像,基于所述原始分辨率图像和所述超分辨率图像构建l1损失函数;最后基于所述对比损失函数和所述l1损失函数构建总损失函数,并利用所述总损失函数对原始超分辨率模型进行训练,以得到训练后的超分辨率模型。由此可见,本技术在获得对原始分辨率图像进行下采样得到的下采样图后,先对下采样图进行特征提取以得到初始特征图,再对初始特征图进行两次随机采样,以得到初始特征图对应的第一特征图和第二特征图;然后基于第一特征图和第二特征图构建对比损失函数,并结合l1损失函数构建总损失函数对原始超分辨率模型进行训练,以得到性能更好的超分辨率模型,以便后续利用该超分辨率模型对图像进行处理时,能得到更高质量的超分辨率图像。
附图说明
15.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
16.图1为本技术公开的一种超分辨率模型训练方法流程图;图2为本技术公开的一种具体的超分辨率模型训练方法流程图;图3为本技术公开的一种具体的超分辨率模型训练方法流程图;图4为本技术公开的一种图像超分辨率重建方法流程图;图5为本技术公开的一种超分辨率模型训练装置结构示意图;图6为本技术公开的一种电子设备结构图。
具体实施方式
17.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
18.超分辨率是从给定的低分辨率图像中恢复高分辨率图像的过程,是计算机视觉的一个经典应用。当前在使用超分辨率模型对图像进行重建,以得到相应的超分辨率图像时,仍存在图像质量较低、不清晰的问题。为此,本技术实施例公开了一种超分辨率模型训练方法和图像超分辨率重建方法,能够提高超分辨率模型的性能,以便利用该超分辨率模型对图像进行处理时,能得到更高质量的超分辨率图像。
19.参见图1所示,本技术实施例公开了一种超分辨率模型训练方法,该方法包括:步骤s11:获取对原始分辨率图像进行下采样后得到的下采样图像,并对所述下采样图像进行特征提取以得到初始特征图。
20.本实施例中,首先对原始分辨率图像进行下采样,具体可以为利用matlab中的
resize函数对原始分辨率图像下采样,以获得相应的下采样图像。然后对该下采样图像进行特征提取以得到初始特征图,需要注意的是,对下采样图像进行特征提取后,得到的初始特征图的图像大小与下采样图像一致,但通道数会增加,记为c。
21.步骤s12:按照预设采样比率对所述初始特征图进行两次随机采样,分别得到第一特征图和第二特征图,基于所述第一特征图和所述第二特征图构建对比损失函数。
22.本实施例中,按照预设采样比率对初始特征图进行两次随机采样,分别得到第一特征图和第二特征图;其中,将预设采样比率记为、假设初始特征图的图像大小为h*w,那么第一特征图和第二特征图的图像大小为,一般将的值取为0.5,那么得到的第一特征图和第二特征图为初始特征图的图像大小的一半,再基于第一特征图和第二特征图构建对比损失函数。通过这种采样方式的对比学习,可以使得学习的特征图具有更加紧密的关联,在对图像进行大倍率超分辨率的时候,效果更加清晰。
23.需要指出的是,本实施例中,可以将第二特征图作为第一特征图的正样本,而对其他不同初始特征图进行随机采样得到的图像则作为负样本,也即,将与目标图像更相近的图像作为正样本,不相关的图像作为负样本。
24.步骤s13:利用预设上采样方法对所述初始特征图进行处理得到超分辨率图像,基于所述原始分辨率图像和所述超分辨率图像构建l1损失函数。
25.本实施例中,上述利用预设上采样方法对所述初始特征图进行处理,以得到超分辨率图像,包括:利用插值方法对所述初始特征图的像素点进行扩充,得到扩充后特征图;将所述扩充后特征图输入至最后一层卷积层的滤波器数量为三的卷积神经网络,以便通过所述卷积神经网络对所述扩充后特征图进行处理以降低所述扩充后特征图的通道数,得到通道数为三的超分辨率图像。可以理解的是,本实施例需要将获得的c通道的初始特征图,映射回rgb三通道图像。在这个过程中,先将h*w*c特征图利用插值方法扩充成sh*sw*c的特征图,再将这个放大了s2倍数的特征图映射成rgb图像,这样就实现了s2倍数的超分辨率。例如,假设上述初始特征图的通道数为512,图像大小为48
×
48,首先利用插值方法对初始特征图的像素点进行扩充,当扩充倍数为4时,得到图像大小为96
×
96,通道数仍为512的扩充后特征图,再将扩充后特征图输入至最后一层卷积层的滤波器数量为三的卷积神经网络,并通过所述卷积神经网络对扩充后特征图进行处理以降低扩充后特征图的通道数,得到通道数为三的超分辨率图像,也即得到了映射后的rgb三通道图像。可以理解的是,滤波器的数量决定了输出图像的通道数,也即滤波器的数量为多少,那么输出的特征图的通道数就是多少。得到超分辨率图像后,再对超分辨率图像和原始分辨率图像计算l1损失,以构建l1损失函数。需要指出的是,l1损失函数也可以称为最小绝对值偏差或绝对值损失函数,它用于最小化目标值与估计值的绝对差值;本实施例中,其是用于对原始分辨率图像和超分辨率图像之间的差距进行最小化。
26.步骤s14:基于所述对比损失函数和所述l1损失函数构建总损失函数,并利用所述总损失函数对原始超分辨率模型进行训练,以得到训练后的超分辨率模型。
27.本实施例中,基于对比损失函数和l1损失函数构建模型的总损失函数,然后利用该总损失函数对原始超分辨率模型进行训练,以得到训练后的超分辨率模型。
28.可见,本技术首先获取对原始分辨率图像进行下采样后得到的下采样图像,并对所述下采样图像进行特征提取以得到初始特征图;然后按照预设采样比率对所述初始特征
图进行两次随机采样,分别得到第一特征图和第二特征图,基于所述第一特征图和所述第二特征图构建对比损失函数;接着利用预设上采样方法对所述初始特征图进行处理得到超分辨率图像,基于所述原始分辨率图像和所述超分辨率图像构建l1损失函数;最后基于所述对比损失函数和所述l1损失函数构建总损失函数,并利用所述总损失函数对原始超分辨率模型进行训练,以得到训练后的超分辨率模型。由此可见,本技术在获得对原始分辨率图像进行下采样得到的下采样图后,先对下采样图进行特征提取以得到初始特征图,再对初始特征图进行两次随机采样,以得到初始特征图对应的第一特征图和第二特征图;然后基于第一特征图和第二特征图构建对比损失函数,并结合l1损失函数构建总损失函数对原始超分辨率模型进行训练,以得到性能更好的超分辨率模型,以便后续利用该超分辨率模型对图像进行处理时,能得到更高质量的超分辨率图像。
29.参见图2所示,本技术实施例公开了一种具体的超分辨率模型训练方法,相对于上一实施例,本实施例对技术方案作了进一步的说明和优化。具体包括:步骤s21:获取对原始分辨率图像进行下采样后得到的下采样图像,并对所述下采样图像进行特征提取以得到初始特征图。
30.步骤s22:按照预设采样比率对所述初始特征图进行两次随机采样,分别得到第一特征图和第二特征图,基于所述第一特征图和所述第二特征图构建对比损失函数。
31.步骤s23:利用预设上采样方法对所述初始特征图进行处理得到超分辨率图像,基于所述原始分辨率图像和所述超分辨率图像构建l1损失函数。
32.步骤s24:基于所述对比损失函数和所述l1损失函数构建总损失函数,并确定预设迭代次数和预设优化器的超参数信息;其中,所述超参数信息包括学习率和批量大小。
33.本实施例中,需要确定预设迭代次数和选取的预设优化器的超参数信息,超参数信息可以包括但不限于学习率和批量大小(即batchsize)。预设优化器具体可以为adam优化器,学习率可以设为0.0001,批量大小可以为16。
34.步骤s25:基于所述预设迭代次数和所述预设优化器并利用训练集和所述总损失函数对原始超分辨率模型进行训练,以得到训练后的超分辨率模型。
35.本实施例中,在对原始超分辨率模型进行训练,以得到训练后的超分辨率模型之前,还包括:按照预设下采样倍数对若干数量张原始分辨率图像进行下采样,以得到相应的下采样图像;基于所述原始分辨率图像和所述下采样图像构造用于训练所述原始超分辨率模型的训练集,其中,所述训练集中的训练样本包含所述原始分辨率图像以及对应的所述下采样图像。也即,本实施例首先采集若干数量张原始分辨率图像,然后按照预设下采样倍数对这些原始分辨率图像进行下采样,以得到不同倍数下的下采样图像,上述预设下采样倍数可以为2倍、3倍或4倍,并且,还需要指出的是,上述原始分辨率图像一般选取分辨率大于2000的图像。然后将这些成对的原始分辨率图像和对应的下采样图像作为训练集。同样以验证集:训练集=2:8的比例,在不同的原始分辨率图像上按照上述方式制作验证集。
36.本实施例中,基于预设优化器并利用训练集和所述总损失函数对原始超分辨率模型进行训练,当训练次数到达预设迭代次数后则停止训练,以得到训练后的超分辨率模型。
37.其中,关于上述步骤s21、s22和s23更加具体的处理过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
38.可见,本技术实施例通过基于原始分辨率图像和对应的下采样图像构造用于训练
原始超分辨率模型的训练集,然后确定预设迭代次数和预设优化器的超参数信息,然后基于预设迭代次数和预设优化器并利用训练集和总损失函数对原始超分辨率模型进行训练,以得到性能更好的超分辨率模型。
39.参见图3所示,本技术实施例公开了一种具体的超分辨率模型训练方法,相对于上一实施例,本实施例对技术方案作了进一步的说明和优化。具体包括:步骤s31:获取对原始分辨率图像进行下采样后得到的下采样图像,并对所述下采样图像进行特征提取以得到初始特征图。
40.步骤s32:按照预设采样比率对所述初始特征图进行两次随机采样,分别得到第一特征图和第二特征图,将所述第一特征图和所述第二特征图分别输入多层感知机网络,得到与所述第一特征图对应的第一输出值和与所述第二特征图对应的第二输出值。
41.本实施例中,在得到第一特征图和第二特征图后,还需要将第一特征图和第二特征图输入至多层感知机网络(multilayer perceptron,即mlp)中,得到与第一特征图对应的第一输出值和与第二特征图对应的第二输出值。其中,本实施例中的多层感知机网络具体可以为5层结构。
42.当然,本实施例除了可以将第一特征图和第二特征图输入至多层感知机网络,还可以将第一特征图和第二特征图输入一个尺寸为1
×
1的卷积核中,得到与第一特征图对应的第一输出值和与第二特征图对应的第二输出值。上述多层感知机网络和1
×
1的卷积核都能实现不改变特征图的宽和高,只在通道上对图像进行降维处理,如此一来,能够减少参数量,降低对比损失函数计算的复杂度,并提升计算效率。
43.步骤s33:基于所述第一特征图和所述第二特征图以及所述第一输出值和所述第二输出值构建对比损失函数。
44.本实施例中,基于第一特征图和第二特征图以及第一输出值和第二输出值构建对比损失函数,可以理解的是,假设以n为一次训练所抓取的数据样本,则对n张初始特征图进行两次随机采样后,会得到2n张采样后的特征图。将第一特征图记为、第二特征图记为,第一输出值记为,第二输出值记为,那么对第一特征图和第二特征图进行对比损失计算的公式如下:;其中,contr表示对比度,l
contr
表示对比损失函数;sim用于求余弦相似度,即归一化后的点积;t是超参数温度,默认取值为0.5;n为批量大小,即一次训练抓取的数据样本数量;为第一特征图、为第二特征图,为第一输出值,为第二输出值。
45.整个数据样本的对比损失函数的计算公式为:
;其中,contr表示对比度;n为批量大小;为第一特征图、为第二特征图。
46.步骤s34:利用预设上采样方法对所述初始特征图进行处理得到超分辨率图像,基于所述原始分辨率图像和所述超分辨率图像构建l1损失函数。
47.本实施中,l1损失函数的计算公式为:;其中,l
img
表示l1损失函数;ihr表示原始分辨率图像;isr表示超分辨率图像;||*||表示范数。
48.步骤s35:为所述对比损失函数和所述l1损失函数分配相应的权重系数;利用所述权重系数分别对所述对比损失函数和所述l1损失函数进行相应的加权,以构建总损失函数,并利用所述总损失函数对原始超分辨率模型进行训练,以得到训练后的超分辨率模型。
49.本实施例中,在利用对比损失函数和l1损失函数构建总损失函数时,需要为对比损失函数和l1损失函数分配相应的权重系数,并进行相应的加权计算以构建总损失函数。总损失函数的计算公式为:;其中,loss表示总损失函数,表示权重系数,本实施例中将设为0.5;l
img
表示l1损失函数;l
contr
表示对比损失函数。
50.在另一种具体实施方式中,为了防止超分辨率模型过拟合,并提高超分辨率模型重建的稳定性,还可以在上述总损失函数的基础上,再增加一个l2权重衰减以形成新的总损失函数,并利用上述新的总损失函数对原始超分辨率模型进行训练。其中,本实施例中的上述l2权重衰减的具体表达式可以是:;其中,wi为第i个样本计算时模型的参数值,n为批量大小,λ为权重值,一般将λ取为0.1;那么在这种情况下,最后得到一个新的总损失函数为:。
51.可见,本技术实施例在得到第一特征图和第二特征图后,再将第一特征图和第二特征图分别输入多层感知机网络,得到与第一特征图对应的第一输出值和与第二特征图对应的第二输出值,然后基于第一特征图和第二特征图以及第一输出值和第二输出值构建对比损失函数。并且,在构建总损失函数时,还需为对比损失函数和l1损失函数分配相应的权重系数,以得到加权计算后的总损失函数,以便利用该总损失函数对原始超分辨率模型进行训练,以得到性能更好的超分辨率模型。本技术通过引入对比损失函数,对模型在特征层
进行监督,使得模型生成的图像在边缘处更加清晰锐化,能够让超分辨率模型达到更优的超分辨率效果。
52.参见图4所示,本技术实施例公开了一种图像超分辨率重建方法,该方法包括:步骤s41:获取待重建低分辨率图像。
53.步骤s42:利用前述公开的超分辨率模型训练方法训练得到的超分辨率模型对所述待重建低分辨率图像进行处理,以得到相应的超分辨率图像。
54.可见,本技术实施例中,首先获取待重建低分辨率图像,然后利用前述公开的超分辨率模型训练方法训练得到的超分辨率模型对所述待重建低分辨率图像进行处理,以得到相应的超分辨率图像。由此可见,本技术可以获取任意一张待重建的低分辨率图像,并利用本技术中的超分辨率模型进行处理,以实现图像的超分辨率,达到恢复图像质量的目的。
55.需要指出的是,本技术公开的这种基于对比学习构建对比损失函数的方法可以应用于任意的超分辨率模型中,以实现对超分辨率算法进行有效的提升,并提升图像恢复的质量。
56.参见图5所示,本技术实施例还公开了一种超分辨率模型训练装置,该装置包括:特征提取模块11,用于获取对原始分辨率图像进行下采样后得到的下采样图像,并对所述下采样图像进行特征提取以得到初始特征图;对比损失函数构建模块12,用于按照预设采样比率对所述初始特征图进行两次随机采样,分别得到第一特征图和第二特征图,基于所述第一特征图和所述第二特征图构建对比损失函数;l1损失函数构建模块13,用于利用预设上采样方法对所述初始特征图进行处理得到超分辨率图像,基于所述原始分辨率图像和所述超分辨率图像构建l1损失函数;模型训练模块14,用于基于所述对比损失函数和所述l1损失函数构建总损失函数,并利用所述总损失函数对原始超分辨率模型进行训练,以得到训练后的超分辨率模型。
57.可见,本技术首先获取对原始分辨率图像进行下采样后得到的下采样图像,并对所述下采样图像进行特征提取以得到初始特征图;然后按照预设采样比率对所述初始特征图进行两次随机采样,分别得到第一特征图和第二特征图,基于所述第一特征图和所述第二特征图构建对比损失函数;接着利用预设上采样方法对所述初始特征图进行处理得到超分辨率图像,基于所述原始分辨率图像和所述超分辨率图像构建l1损失函数;最后基于所述对比损失函数和所述l1损失函数构建总损失函数,并利用所述总损失函数对原始超分辨率模型进行训练,以得到训练后的超分辨率模型。由此可见,本技术在获得对原始分辨率图像进行下采样得到的下采样图后,先对下采样图进行特征提取以得到初始特征图,再对初始特征图进行两次随机采样,以得到初始特征图对应的第一特征图和第二特征图;然后基于第一特征图和第二特征图构建对比损失函数,并结合l1损失函数构建总损失函数对原始超分辨率模型进行训练,以得到性能更好的超分辨率模型,以便后续利用该超分辨率模型对图像进行处理时,能得到更高质量的超分辨率图像。
58.图6为本技术实施例提供的一种电子设备的结构示意图。具体可以包括:至少一个处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,所述存储器22用于存储计算机程序,所述计算机程序由所述处理器21加载并执行,以实现前述任一实施例公开的由计算机设备执行的超分辨率模型训练方法中的相关步骤。
59.本实施例中,电源23用于为计算机设备20上的各硬件设备提供工作电压;通信接口24能够为计算机设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本技术技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
60.其中,处理器21可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器21可以采用dsp(digital signal processing,数字信号处理)、fpga(field-programmable gate array,现场可编程门阵列)、pla(programmable logic array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器21也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称cpu(central processing unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器21可以在集成有gpu(graphics processing unit,图像处理器),gpu用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器21还可以包括ai(artificial intelligence,人工智能)处理器,该ai处理器用于处理有关机器学习的计算操作。
61.另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作系统221、计算机程序222及数据223等,存储方式可以是短暂存储或者永久存储。
62.其中,操作系统221用于管理与控制计算机设备20上的各硬件设备以及计算机程序222,以实现处理器21对存储器22中海量数据223的运算与处理,其可以是windows、unix、linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由计算机设备20执行的超分辨率模型训练方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。数据223除了可以包括计算机设备接收到的由外部设备传输进来的数据,也可以包括由自身输入输出接口25采集到的数据等。
63.进一步的,本技术实施例还公开了一种计算机可读存储介质,所述存储介质中存储有计算机程序,所述计算机程序被处理器加载并执行时,实现前述任一实施例公开的由超分辨率模型训练过程中执行的方法步骤。
64.本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
65.专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。
66.结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(ram)、内存、只读存
储器(rom)、电可编程rom、电可擦除可编程rom、寄存器、硬盘、可移动磁盘、cd-rom、或技术领域内所公知的任意其它形式的存储介质中。
67.最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
68.以上对本发明所提供的一种模型训练方法、超分辨率重建方法、装置、设备及介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献