一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

图像的残差胶囊网络分类模型、分类方法、设备及存储介质

2022-04-16 12:52:50 来源:中国专利 TAG:


1.本发明属于图像分类技术领域,涉及一种图像的残差胶囊网络分类模型、分类方法、设备及存储介质。


背景技术:

2.卷积神经网络已经在图像分类、目标检测等领域取得了巨大的成功,它的成功得益于它具有提取数据中隐含的特征和潜在信息的强大能力。但是卷积神经网络也有一些缺点和限制,比如,需要各种情况的训练样本来提高泛化性,导致训练需要大样本。池化的过程中会丢失位置、大小和方向等空间信息。另外,池化层能保持平移不变性和控制参数的数量,但是它不能明确表示特征位置之间的关系,相同的物体可能由于方向的不同从而识别为两个不同的物体,从而影响分类的精度。
3.胶囊网络(capsnet)不同于cnn使用标量,它将标量替换为向量神经元,向量的长度代表实体存在的概率大小,方向代表实例化参数。这样包含图像中实体的各种属性,有姿态(位置、大小、方向)、变形、速度、色调、纹理等。同时,capsnet中使用步幅卷积和动态路由来实现参数大小的控制,使用动态路由替代卷积神经网络中的池化层,解决池化过程中信息丢失的问题。capsnet在mnist数据集上实现了最先进的性能,同时在仿射变换数字的识别中比cnn表现还要好。
4.capsnet是专门为识别mnist数据集设计的架构,被认为是深度学习领域的又一次变革,在未来有很好的发展前景。但capsnet无法对fash-mnist、cifar-10等数据集实现高精度分类,可能的原因有以下两点:(1)在主胶囊层的前面只有两层的卷积提取模块。在复杂的数据集中图片都是多通道和高分辨的彩色图片,两层的卷积不能提取到图片中深层次信息,从而导致了识别率不高。为了提取到图片中的显著特征和深层次的抽象特征,增加卷积提取模块的深度是非常有必要的。(2)三层全连接层对于复杂数据集重构误差大,导致分类精度下降,找到一种有用的重构方法对于网络的性能非常重要。


技术实现要素:

5.为了解决上述问题,本发明提供一种图像的残差胶囊网络分类模型,重构图像还原真实性强,重构误差小,具有高效率、低人力、高精度的识别效果,模型参数量小、运行速度快、分类精度高。
6.本发明的第二目的是,提供一种图像的残差胶囊网络分类模型的分类方法。
7.本发明的第三目的是,提供一种电子设备。
8.本发明的第四目的是,提供一种计算机存储介质。
9.本发明所采用的技术方案是,一种图像的残差胶囊网络分类模型,包括
10.残差提取模块,所述残差提取模块用于提取编入胶囊层的待分类图像的深层信息;
11.胶囊模块,包括主胶囊层与数字胶囊,所述主胶囊层用于实现标量神经元到向量
神经元的转换,通过路由算法实现主胶囊层与数字胶囊之间参数的迭代更新,所述数字胶囊层用于识别特征所属类别;
12.重构模块,所述重构模块基于数字胶囊层的识别结果通过反卷积重构图像,得到分类后图像。
13.进一步的,所述残差提取模块由三个依次相连的残差提取块组成,每个残差提取块均包含滤波器、四个残差单元、一个1
×
1卷积层、beta-mish激活函数层,三个依次相连的残差提取块包含的滤波器个数成倍递增;每个残差提取块中的残差单元密集连接,即对于每一层残差单元,所有先前层的特征图都用作输入,每一层残差单元输出的特征图则用作所有后续层的输入。
14.进一步的,第一个所述残差单元先将输入特征分解为n条支路,每个分支依次经过3
×
3卷积、bn层和beta-mish激活层后,再融合n个分支的结果,得到特征图t,对特征图t进行1
×
1卷积后和旁路h1(x)相加,再通过beta-mish函数将其激活,获得第i个残差提取块的第1个残差单元的输出i=1,2,3,i为残差提取块的编号;作为后续三个残差单元的输入,作为后续两个残差单元的输入,作为后续一个残差单元的输入;其中,分别表示第i个残差提取块的第2、3个残差单元的输出,表示第1个残差提取块的第1个残差单元的输出;
15.第i个残差提取块的最终输出为:级联4个残差单元的输出经过1
×
1卷积和beta-mish激活层后,和第i个残差提取块的输入融合而成。
16.进一步的,在输入所述胶囊网络之前,通过激活函数beta-mish增加分类模型的非线性;所述主胶囊层中胶囊的个数和维数的乘积等于输入主胶囊层的特征图的个数;所述数字胶囊层接受主胶囊层的输出,数字胶囊的个数取决于图像的种类,每一个数字胶囊对应一个分类标签。
17.进一步的,所述重构模块包括
18.全连接层,数量为1;
19.反卷积层,数量为4,4个反卷积层的卷积核大小都为3
×
3,步幅分别为1、2、2、1,滤波器的数量成倍递减。
20.一种图像的残差胶囊网络分类模型的分类方法,按照以下步骤进行:
21.步骤s1、将待分类图像输入到图像的残差胶囊网络分类模型的残差提取模块;
22.步骤s2、残差提取模块先通过一层卷积、批归一化和beta-mish激活层提取待分类图像的初级特征,再通过三个依次相连的残差提取块提取待分类图像的深层特征,得到用于提取编入胶囊层的待分类图像的深层信息;
23.步骤s3、将残差提取模块提取的深层信息编入到胶囊模块的主胶囊层,实现标量神经元到向量神经元的转换,在损失函数的约束下,通过路由算法实现主胶囊与数字胶囊之间参数的迭代更新,由数字胶囊层识别特征所属类别;
24.步骤s4、对数字胶囊层的识别结果通过重构模块完成图像重构,得到分类后图像。
25.进一步的,所述步骤s2中提取深层信息的方法具体为:
26.初级特征x0输入至第1个残差提取块,通过一层卷积、批归一化和beta-mish激活层进一步提取输入特征,第1个残差提取块中的第1个残差单元先将输入特征分解为n条支
路,每个分支依次经过3
×
3卷积、批归一化和beta-mish激活层后,再融合n个分支的结果,得到特征图t,对t进行1
×
1卷积后和旁路相加,再通过beta-mish函数激活,获得第1个残差单元的输出其中,旁路为x0经过1
×
1卷积操作、批归一化得到;
27.x0及的级联结果作为第1个残差提取块的第2个残差单元的输入特征,通过与第1个残差单元相同的操作,获得第2个残差单元的输出1个残差单元相同的操作,获得第2个残差单元的输出对应的旁路公式此时i=1,j=2,即x0及的级联结果;
28.x0、及的级联结果作为第1个残差提取块的第3个残差单元的输入特征,通过与第1个残差单元相同的操作,获得第3个残差单元的输出与第1个残差单元相同的操作,获得第3个残差单元的输出对应的旁路公式此时i=1,j=3;
29.x0、及的级联结果作为第1个残差提取块的第4个残差单元的输入特征,通过与第1个残差单元相同的操作,获得第4个残差单元的输出征,通过与第1个残差单元相同的操作,获得第4个残差单元的输出对应的旁路公式此时i=1,j=4;
30.第1个残差提取块的最终输出为级联4个残差单元的输出经过1
×
1卷积和beta-mish激活层后,和第1个reb的输入x0融合而成,即x1;
31.如果i=2,x1输入至第2个残差提取块的第1个残差单元,通过与第1个残差提取块相同的操作,第2个残差提取块最终输出x2;
32.如果i=3,x2输入至第3个残差提取块的第1个残差单元,通过与第1个残差提取块相同的操作,第3个残差提取块最终输出x3。
33.进一步的,所述步骤s3中,主胶囊层和数字胶囊层的关系为,
[0034][0035][0036][0037][0038][0039]
其中,sn是主胶囊层提取的综合特征向量,是主胶囊层的输出的预测向量,vn是对应数字胶囊特征向量,表示第n个数字胶囊,一个数字胶囊对应一个类别,uk是主胶囊层中第m个胶囊的输出,k表示主胶囊层中第m个胶囊的输出特征的个数;w
kn
是uk的权重矩阵,c
kn
是的耦合系数,b
kn
的初值取0,squash是压缩函数;
[0040]
损失函数为:
[0041]
[0042]
其中,n表示类别,kn表示n类是否存在,存在为1,不存在则为0;m

惩罚假阳性,n类存在但是预测不存在会导致损失函数很大;m-惩罚假阴性,λ1是为了减小分类错误导致的误差而引入的权值,取0到1之间的实数值;λ2为重构模块的重构损失的比例系数;x
xy
、分别表示输入的待分类图像和输出的重建图像的第x行第y列像素点的灰度值,x、y分别表示输入的待分类图像或输出的重建图像的行数和列数。
[0043]
一种电子设备,采用上述方法实现分类。
[0044]
一种计算机存储介质,所述存储介质中存储有至少一条程序指令,所述至少一条程序指令被处理器加载并执行以实现上述分类方法。
[0045]
本发明的有益效果是:
[0046]
本发明引入特征图分解、提取、合并的方法设计残差单元,并采用密集连接重构各残差单元提取的特征,保证图像中深层信息的充分提取,并编入到胶囊模块。融合小卷积核和恒等映射提取不同特征,并利用残差网络进行特征融合,以确保充分提取用于胶囊网络编码的图像特征。这种结构可以解决由于网络层简单叠加而引起的多参数和模型退化问题,同时有助于提取深层特征。
[0047]
本发明在编码胶囊网络之前,使用激活函数beta-mish来增加分类模型的非线性,使其能够在略为负值时获得更好的梯度流,从而确保胶囊网络能够激活更多的神经元。
[0048]
本发明通过四层级联反褶积得到重建模块,在减少参数数量的同时,捕获输入图像中更多的空间关系,保证重建图像的真实性。
[0049]
本发明采用原始图像与还原后图像的误差来调节网络的参数,利于提高图像还原的真实性,利于网络参数优化,利于提高图像的分类精度,应用范围广,应用方法灵活多样,解决了现有胶囊网络图像还原的真实性不高、网络参数不够优化及分类精度不高的问题,对实现图像的精准分类具有重要意义。
附图说明
[0050]
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0051]
图1是本发明实施例的图像的残差胶囊网络分类模型的结构示意图。
[0052]
图2是本发明实施例的图像的残差胶囊网络分类模型的分类方法的流程图。
[0053]
图3是本发明实施例的图像的残差胶囊网络分类模型的残差提取块模块(reb)的结构图。
[0054]
图4是本发明实施例的图像的残差胶囊网络分类模型的残差提取块模块(reb)中残差单元(ru)的结构图。
[0055]
图5是本发明实施例的图像的残差胶囊网络分类模型和不同胶囊网络模型在数据集cifar-10上分类精度和模型参数。
具体实施方式
[0056]
下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0057]
实施例1,
[0058]
一种图像的残差胶囊网络分类模型,如图1所示,包括依次连接的残差提取模块、胶囊模块和重构模块;残差提取模块,用于提取编入胶囊层的待分类图像的深层信息;胶囊模块,用于实现分类,它通过主胶囊层实现标量神经元到向量神经元的转换,利用路由算法实现主胶囊与数字胶囊之间参数的迭代更新,由数字胶囊层识别特征所属类别;重构模块,用于重构图像,针对数字胶囊层的识别结果使用反卷积重构图像,得到分类后图像。
[0059]
其中,残差提取模块由三个依次相连的残差提取块(reb)组成;三个依次相连的reb包含的滤波器个数成倍递增,少量增加参数的同时,互补提取有助于提高分类精度的多种特征,滤波器个数越多模型参数越多,一般通过实验确定性能和效率的折衷值,实施例中三个依次相连的reb包含的滤波器个数分别为64、128、256。
[0060]
如图3所示,reb均包含四个残差单元(ru)、一个1
×
1卷积层和beta-mish激活函数层;ru采用密集连接,即对于每一层ru,所有先前层的特征图都用作输入,而每一层ru输出的特征图则用作所有后续层的输入。
[0061]
在编码胶囊网络之前,使用激活函数beta-mish来增加分类模型的非线性,使其能够在略为负值时获得更好的梯度流,从而确保胶囊网络能够激活更多的神经元。本发明实施例残差提取模块的结构更有效的发挥了beta-mish的激活特性,beta-mish也有效激发了输入输出特征之间的非线性,共同作用,能够有效提取用于编入胶囊层的待分类图像的深层信息。
[0062]
如图4所示,ru先将输入特征分解为n条支路,每个分支依次经过3
×
3卷积、bn层和beta-mish激活层后,再“concat”融合n个分支的结果,得到特征图t,对t进行1
×
1卷积后和旁路h1(x)相加,再用beta-mish函数将其激活,获得第i个残差提取块(reb)的第1个ru的输出为残差提取块(reb)的编号;是后续三个ru的输入,是后续两个ru的输入,是后续一个ru的输入。其中,分别表示第i个残差提取块(reb)的第2、3个ru的输出,能否理解为表示第1个残差提取块(reb)的第1个ru的输出。
[0063]
第i个reb的最终输出为级联4个ru的输出经过1
×
1卷积和beta-mish激活层后,和第i个reb的输入融合而成。
[0064]
胶囊模块包括主胶囊层和数字胶囊层;主胶囊层中胶囊的个数和维数的乘积等于输入主胶囊层的特征图的个数,每一个输出都是8维向量,即主胶囊层包含32个8维胶囊;三个依次相连的reb包含的滤波器分别为64、128、256,输入主胶囊层的就是经过第三个reb的输出,共256个特征图。数字胶囊层接受主胶囊层的输出,数字胶囊的个数取决于图像的种类,每一个数字胶囊对应一个分类标签。
[0065]
重构模块由一个全连接层,4个反卷积层构成;4个反卷积层的卷积核大小都为3
×
3,步幅分别为1、2、2、1,滤波器的数量成倍递减,降低特征的维数;在一些实施例中,滤波器
数量为8的倍数,滤波器的具体数量分别为64、32、16、8。
[0066]
图1中capsule i表示第i(i=1,

,32)个主胶囊,label表示待分类图像所属类别。残差提取块的数量、每个残差提取块中残差单元的数量更多可能会进一步提交分类精度,同时会降低模型分类效率;更少则会反之。目前给定的数量是通过实验确定的分类精度和分类效率的最佳折衷值。实验表明,残差单元将输入特征分解为12条支路时效果最佳。
[0067]
实施例2,
[0068]
一种图像的残差胶囊网络分类模型的分类方法,如图1-2所示,按照以下步骤进行:
[0069]
步骤s1、将待分类图像输入到图像的残差胶囊网络分类模型的残差提取模块;
[0070]
步骤s2、残差提取模块先利用一层3
×
3卷积、批归一化和beta-mish激活层提取待分类图像的初级特征,再通过一层1
×
1卷积、批归一化和beta-mish激活层进一步提取输入特征,利用三个依次相连的残差提取块(reb)提取待分类图像的深层特征,得到用于提取编入胶囊层的待分类图像的深层信息;初级特征与深层信息之间既独立又有相关性,每一幅图像都必须包含初级特征(边缘、轮廓)和深层特征(纹理、细节)。
[0071]
提取深层信息的公式为,
[0072]
x0=g3×3(x)
[0073][0074][0075][0076][0077]
t=con(t1,t2···
tn)
[0078]
h1(x)=g1×1(x
i-1
)
[0079][0080]
其中,xi表示第i个残差提取块模块(reb)的输出,表示第i个reb中的第j个残差单元(ru)的输出,i=1,2,3,j=1,2,3,4,con(
·
)是级联操作(即把4个ru的输出合成一个结果的操作),g1×1(
·
)和g3×3(
·
)分别是1
×
1和3
×
3卷积操作,t为对ru的n个支路提取特征t1,t2···
tn的融合结果,h1(x)和h2(x)均为旁路。表示第i个reb中第j个ru块的映射函数;x表示待分类图像。
[0081]
x0表示待分类图像x经过一个3
×
3的卷积,bn层和beta-mish激活函数层后,得到的特征图,即初级特征;x0为三个依次相连的残差提取块(reb)的输入。
[0082]
x
i-1
表示第i个reb的输入;每个reb均包含四个残差单元(ru)、一个1
×
1卷积层和beta-mish激活函数层,表示第i个reb中的第1个残差单元(ru)的输出。表示第i个reb中的第j-1个残差单元(ru)的输出。
[0083]
如图4所示,如果i=1,x0输入至第1个reb,第1个reb中的第1个ru(ru1)先将输入特征分解为n条支路,每个分支依次经过3
×
3卷积、bn层和beta-mish激活层后,再“concat”融合n个分支的结果,得到特征图t,对t进行1
×
1卷积后和旁路h1(x)相加,再用beta-mish
函数将其激活,获得第1个ru的输出其中,旁路h1(x)为x0经过1
×
1卷积操作、批归一化得到;
[0084]
x0及的级联结果作为第1个reb的第2个ru(ru2)的输入特征,通过与ru1相同的操作,获得第2个ru的输出2个ru的输出对应的旁路公式此时i=1,j=2,即x0及的级联结果。
[0085]
x0、及的级联结果作为第1个reb的ru3的输入特征,通过与ru1相同的操作,获得第3个ru的输出获得第3个ru的输出对应的旁路公式此时i=1,j=3。
[0086]
x0、、及的级联结果作为第1个reb的ru4的输入特征,通过与ru1相同的操作,获得第4个ru的输出作,获得第4个ru的输出对应的旁路公式此时i=1,j=4。
[0087]
第1个reb的最终输出为级联4个ru的输出经过1
×
1卷积和beta-mish激活层后,和第1个reb的输入x0融合而成,即x1。
[0088]
如果i=2,x1输入至第2个reb的ru1,通过与第1个reb相同的操作,第2个reb最终输出x2。
[0089]
如果i=3,x2输入至第3个reb的ru1,通过与第1个reb相同的操作,第3个reb最终输出x3。
[0090]
步骤s3、将残差提取模块提取的深层信息编入到胶囊模块的主胶囊层,实现标量神经元到向量神经元的转换,在损失函数的约束下,利用路由算法实现主胶囊与数字胶囊之间参数的迭代更新,由数字胶囊层识别特征所属类别;
[0091]
主胶囊层和数字胶囊层的关系为,
[0092][0093][0094][0095][0096][0097]
其中,sn是主胶囊层提取的综合特征向量,是主胶囊层的输出的预测向量,vn是对应数字胶囊特征向量,表示第n个数字胶囊,一个数字胶囊对应一个类别,uk是主胶囊层中第m个胶囊的输出,k表示主胶囊层中第m个胶囊的输出特征的个数,k=1,

,1152;w
kn
是uk的权重矩阵,c
kn
是的耦合系数,b
kn
的初值取0,squash是压缩函数,它将向量vn的长度压缩在0到1之间,将小向量压缩为0,大向量压缩为单位向量1。表示迭代运算。
[0098]
损失函数为:
[0099][0100]
其中,n表示类别,kn表示n类是否存在,存在为1,不存在则为0;m

为0.9,惩罚假阳性,n类存在但是预测不存在会导致损失函数很大;m-为0.1,惩罚假阴性,n类不存在但是预测存在则会导致损失函数很大;λ1是为了减小分类错误导致的误差而引入的权值,一般取0到1之间的实数值;λ2为重构模块的重构损失的比例系数。x
xy
、分别表示输入的待分类图像和输出的重建图像的第x(x=1,

,x)行第y(y=1,

,y)列像素点的灰度值,x、y分别表示输入的待分类图像和输出的重建图像的行数和列数。
[0101]
本发明损失函数包含三部分:(1)某类别存在与否导致的损失;(2)减小分类错误导致的误差;(3)重构模块的重构损失。在本发明实施例提出的分类方法的限定下,在本发明自定义的损失函数的约束下训练本发明设计的残差胶囊网络分类模型,使其获得最佳的参数模型,有效提高了模型的分类精度。
[0102]
步骤s4、对数字胶囊层的识别结果通过一个全连接层和4个反卷积层的重构模块完成图像重构,得到分类后图像。
[0103]
实验在keras环境下进行,采用adam优化器作为梯度下降算法进行训练,并设置λ1=0.5,λ2=0.0005(避免重构损失在训练过程中占据主导地位)。批量大小设置为128,训练设置为150个周期,每个周期执行390次迭代,初始学习率为0.001。在训练过程中,学习率分阶段降低,使网络达到最优。所有实验都是在一台拥有11gb内存gtx2080ti的计算机上进行。
[0104]
实施例中本发明提出的图像的残差胶囊网络分类模型的名称简记为res-capsnet,模型中的激活函数使用beta-mish,残差提取块(reb)中的每个残差单元(ru)都包含12个分支。
[0105]
为了验证res-capsnet模型的性能,在标准数据集cifar-10上开展实验,并与capsnet[s.sabour,n.frosst,and g.e.hinton,“dynamic routing between capsules,”inproc.int.conf.neural inf.process.syst.,nov.2017,pp.3856-3866]、ms-capsnet[c.xiang,l.zhang,y.tang,w.zou and c.xu,“ms-capsnet:a novel multi-scale capsule network,”ieee signal processing letters,vol.25,no.12,pp.1850-1854,dec.2018]、fsc-capsnet[t.han,r.sun,f.shao andy.sui,“feature and spatial relationship coding capsule network”.j of electronic imaging,vol.29,no.2,pp.023004,2020]、rs-capsnet[s.yang et al.,"rs-capsnet:an advanced capsule network,"ieee access,vol.8,pp.85007-85018,2020]、rs-capsnet(7-ens)[s.yang et al.,"rs-capsnet:an advanced capsule network,"ieee access,vol.8,pp.85007-85018,2020]、deepcaps_sau_att[x.ning et al.,"bdars_capsnet:bi-directional attention routing sausage capsule network,"in ieee access,vol.8,pp.59059-59068,2020]、和dcnet [s.s.r.phaye,a.sikka,a.dhall,and d.bathula,“dense and diverse capsule networks:making the capsules learn better,”2018,arxiv:1805.04001]七个模型的分类精度和模型参数量进行了比较,结果见表1和图5,图5的横坐标和纵坐标分别表示参数量和分类精度。显然,res-capsnet(aug)的分类精度最高,参数最
少。res-capsnet在这两项指标中排名第二。rs-capsnet和rs-capsnet(7-ens)在参数方面排名第三。deepcaps_sau_att在分类准确率方面排名第三,但参数数量很高。
[0106]
表1 不同模型对cifar-10的分类精度和参数量
[0107]
modelcifar-10(%)parameters(m)capsnet68.9311.7ms-capsnet75.7011.2fsc-capsnet80.0334.0rs-capsnet89.815.01rs-capsnet(7-ens)91.325.01deepcaps_sau_att91.7613.43dcnet 89.3213.4res-capsnet92.134.01res-capsnet(aug)93.334.01
[0108]
从图5还可以看出,通过使用图像数据增强(ida)技术,即翻转、平移和旋转,可以进一步提高分类精度,从而增强图像数据。res-capsnet是cifar-10上的结果,res-capsnet(aug)是ida后在cifar-10上的结果。在参数相同的情况下,res-capsnet(aug)的分类精度比res-capsnet高1.30%。
[0109]
综上所述,res-capsnet的模型结构是合理的。综合分类精度和模型参数,res-capsnet优于当前先进的胶囊网络方法。主要原因是res-capsnet的残差提取模块融合了残差学习、小卷积核和恒等映射的优点。这种结构一方面保证了模型参数的有效缩减,另一方面保证了图像的特征信息得到充分提取,从而保证胶囊中有足够的信息被编码,充分发挥胶囊网络的空间关系优势,将局部特征映射到全局特征。
[0110]
本发明实施例在设计出的残差提取模块基础上引入capsnet的将标量替换为向量神经元(向量的长度代表实体存在的概率大小,方向代表实例化参数)的特性。从而使得残差提取模块所提取特征能够包含图像中实体的各种属性,有姿态(位置、大小、方向)、变形、速度、色调、纹理等,提高模型的分类精度。本发明实施例的模型结构决定了参数量较少,相比capsnet,res-capsnet大大降低了参数量,降低量达到了65.73%。本发明实施例可以应用于煤矸图像分类、标准图像分类、目标检测等领域,泛化性强,可以解决实际应用中因模型参数量而无法推广应用的问题。
[0111]
本发明实施例所述图像的分类方法如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器或者网络设备等)执行本发明实施例所述图像的分类方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、rom、ram、磁碟或者光盘等各种可以存储程序代码的介质。
[0112]
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献