一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

超图神经网络分类方法和装置与流程

2021-12-15 02:42:00 来源:中国专利 TAG:


1.本技术涉及复杂网络节点分类技术领域,尤其涉及一种超图神经网络分类方法和装置。


背景技术:

2.图神经网络由于其在处理非结构化数据上优异的性能逐渐吸引了大批学者们的注意力。相比于传统的卷积神经网络,图神经网络通常被用于复杂网络分析上,如药物结构预测、蛋白质

标靶预测、社交网络推荐等等。目前图网络中的边只能连接两个点,换句话说只能建模成对关联,这使得其在建模和学习高阶复杂关联数据上受到了很大的限制。如何直接建模高阶复杂关联,提高模型的学习效率变得非常重要。目前针对复杂网络节点分类主要的挑战有:难以直接建模和学习高阶数据中的复杂关联;多模态下的节点的关联性很难直接在网络学习的过程中被融合进去;关联复杂性的提高极大的降低了训练速度和推理速度;难以生成多模态高阶关联数据的统一表示用于下游的分类或者检索任务。


技术实现要素:

3.本技术旨在至少在一定程度上解决相关技术中的技术问题之一。
4.为此,本技术的第一个目的在于提出一种超图神经网络分类方法,解决了现有方法难以直接建模高阶复杂关联以及模型的学习效率较低技术问题,通过定义关联规则来量化不同种类的节点联系,层级地建模了单模态

多模态下的复杂关联,使得多模态协同下复杂网络的知识学习变得更加快速准确,同时通过融合传统超图学习与深度学习方法,设计了一种高阶嵌入融合层来学习模态内和模态间的知识表示,使得超图神经网络系统有着更强大的建模能力,提高了对复杂关联数据的分类预测能力。
5.本技术的第二个目的在于提出一种超图神经网络分类装置。
6.本技术的第三个目的在于提出一种非临时性计算机可读存储介质。
7.为达上述目的,本技术第一方面实施例提出了一种超图神经网络分类方法,包括:获取待预测标签数据;构建待预测标签数据的超图关联矩阵及原始特征矩阵;针对待预测标签数据中的不同模态分别构建超图神经网络,生成第一超图神经网络模型;将预设的第二超图神经网络模型与第一超图神经网络模型进行匹配合并,将第一超图神经网络模型中每层的未训练参数替换为已训练过的特征转换参数;将超图关联矩阵与原始特征矩阵输入到第一超图神经网络模型中得到最终的分类预测结果。
8.可选地,在本技术的一个实施例中,预设的第二超图神经网络模型的生成包括以下步骤:
9.获取训练数据集,训练数据集中包括已知标签的关联数据;
10.使用多模态数据特征间的关联构建不同类型的超边组,通过融合不同类型的超边组来构建多个单模态的超图表示结构;
11.构建超图神经网络模型来对多个单模态的超图表示结构分别进行学习,并使用训
练数据集对超图神经网络模型进行训练得到优化后的特征变换参数,从而得到预设的第二超图神经网络模型。
12.可选地,在本技术的一个实施例中,多个单模态的超图表示结构的构建,具体包括以下步骤:
13.给定多模态多类型数据关联,依据距离度量、属性相似方式定义不同的数据关联规则;
14.根据不同的数据关联规则构建不同的超边组;
15.联合单一模态内所有的超边组来构建一个单模态的超图表示结构,所有的单模态的超图表示结构共同构成单模态的超图表示结构,其中,每一个单一模态的数据产生一个对应的单模态超图表示结构。
16.可选地,在本技术的一个实施例中,单模态的超图表示结构表示为:
[0017][0018]
其中,是模态i生成的超图结构表示,v
i
是模态i中所包含的所有数据点的集合,e
i
是通过模态i中数据的关联构建出来的超边的集合,w
i
中包含了超边集合e
i
中每一个超边对应的权重。
[0019]
可选地,在本技术的一个实施例中,使用训练数据集对超图神经网络模型进行训练,包括以下步骤:
[0020]
步骤s1:获取训练数据集中一组数据的原始数据特征,以及数据包含的每个模态的超图关联矩阵;
[0021]
步骤s2、通过一层全连接层运算,将原始数据特征转化为适应于深度网络的基础特征,并将基础特征嵌入至超图神经网络模型;
[0022]
步骤s3、联合超图关联矩阵与特征转换参数构建超图卷积层,针对每个模态生成相应的高阶特征,并将高阶特征嵌入至超图神经网络模型;
[0023]
步骤s4、融合超图神经网络提取的高阶特征嵌入,并生成统一嵌入表示,将统一嵌入表示输入到全连接分类网络获得最终的数据分类预测;
[0024]
步骤s5、重复执行步骤s1、s2、s3、s4,直到模型在训练数据集上的特征转换参数的损失函数收敛,完成训练。
[0025]
为达上述目的,本技术第二方面实施例提出了一种超图神经网络分类装置,包括获取模块、构建模块、生成模块、匹配合并模块、预测模块,其中,
[0026]
获取模块,用于获取待预测标签数据;
[0027]
构建模块,用于构建待预测标签数据的超图关联矩阵及原始特征矩阵;
[0028]
生成模块,用于针对待预测标签数据中的不同模态分别构建超图神经网络,生成第一超图神经网络模型;
[0029]
匹配合并模块,用于将预设的第二超图神经网络模型与第一超图神经网络模型进行匹配合并,将第一超图神经网络模型中每层的未训练参数替换为已训练过的特征转换参数;
[0030]
预测模块,用于将超图关联矩阵与原始特征矩阵输入到第一超图神经网络模型中得到最终的分类预测结果。
[0031]
可选地,在本技术的一个实施例中,匹配合并模块,还用于:
[0032]
获取训练数据集,训练数据集中包括已知标签的关联数据;
[0033]
使用多模态数据特征间的关联构建不同类型的超边组,通过融合不同类型的超边组来构建多个单模态的超图表示结构;
[0034]
构建超图神经网络模型来对多个单模态的超图表示结构分别进行学习,并使用训练数据集对超图神经网络模型进行训练得到优化后的特征变换参数,从而得到预设的第二超图神经网络模型。
[0035]
为了实现上述目的,本技术第三方面实施例提出了一种非临时性计算机可读存储介质,当存储介质中的指令由处理器被执行时,能够执行一种超图神经网络分类方法。
[0036]
本技术实施例的超图神经网络分类方法、超图神经网络分类装置和非临时性计算机可读存储介质,解决了现有方法难以直接建模高阶复杂关联以及模型的学习效率较低技术问题,通过定义关联规则来量化不同种类的节点联系,层级地建模了单模态

多模态下的复杂关联,使得多模态协同下复杂网络的知识学习变得更加快速准确,同时通过融合传统超图学习与深度学习方法,设计了一种高阶嵌入融合层来学习模态内和模态间的知识表示,使得超图神经网络系统有着更强大的建模能力,提高了对复杂关联数据的分类预测能力。
[0037]
本技术使用超图建模数据间的复杂关联,设计了超图神经网络来学习多模态的高阶嵌入,针对传统超图学习速度慢开销大等缺点,通过近似的超图拉普拉斯将其简化为特征与可学习参数间的矩阵相乘,从而大大的提高了特征提取的速度,降低了内存的开销,同时提升了分类精度;并且本技术从两个层级进行多模态复杂关联的学习:模态内学习和模态间学习,其中模态内的学习利用构建好的超图神经网络进行迭代优化,模态间的学习使用高阶嵌入融合层来对多个高阶特征进行融合,使得系统能充分挖掘数据间的复杂关联,更好的建模多模态信息,从而达到更优的类别预测性能。
[0038]
本技术附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本技术的实践了解到。
附图说明
[0039]
本技术上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
[0040]
图1为本技术实施例一所提供的一种超图神经网络分类方法的流程图;
[0041]
图2为本技术实施例的超图神经网络分类方法的架构图;
[0042]
图3为本技术实施例的超图神经网络分类方法的超图神经网络架构示意图;
[0043]
图4为本技术实施例二所提供的一种超图神经网络分类装置的结构示意图。
具体实施方式
[0044]
下面详细描述本技术的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本技术,而不能理解为对本技术的限制。
[0045]
下面参考附图描述本技术实施例的超图神经网络分类方法和装置。
[0046]
图1为本技术实施例一所提供的一种超图神经网络分类方法的流程图。
[0047]
如图1所示,该超图神经网络分类方法包括以下步骤:
[0048]
步骤101,获取待预测标签数据;
[0049]
步骤102,构建待预测标签数据的超图关联矩阵及原始特征矩阵;
[0050]
步骤103,针对待预测标签数据中的不同模态分别构建超图神经网络,生成第一超图神经网络模型;
[0051]
步骤104,将预设的第二超图神经网络模型与第一超图神经网络模型进行匹配合并,将第一超图神经网络模型中每层的未训练参数替换为已训练过的特征转换参数;
[0052]
步骤105,将超图关联矩阵与原始特征矩阵输入到第一超图神经网络模型中得到最终的分类预测结果。
[0053]
本技术实施例的超图神经网络分类方法,通过获取待预测标签数据;构建待预测标签数据的超图关联矩阵及原始特征矩阵;针对待预测标签数据中的不同模态分别构建超图神经网络,生成第一超图神经网络模型;将预设的第二超图神经网络模型与第一超图神经网络模型进行匹配合并,将第一超图神经网络模型中每层的未训练参数替换为已训练过的特征转换参数;将超图关联矩阵与原始特征矩阵输入到第一超图神经网络模型中得到最终的分类预测结果。由此,能够解决现有方法难以直接建模高阶复杂关联以及模型的学习效率较低技术问题,通过定义关联规则来量化不同种类的节点联系,层级地建模了单模态

多模态下的复杂关联,使得多模态协同下复杂网络的知识学习变得更加快速准确,同时通过融合传统超图学习与深度学习方法,设计了一种高阶嵌入融合层来学习模态内和模态间的知识表示,使得超图神经网络系统有着更强大的建模能力,提高了对复杂关联数据的分类预测能力。
[0054]
本技术使用超图建模数据间的复杂关联,设计了超图神经网络来学习多模态的高阶嵌入,针对传统超图学习速度慢开销大等缺点,通过近似的超图拉普拉斯将其简化为特征与可学习参数间的矩阵相乘,从而大大的提高了特征提取的速度,降低了内存的开销,同时提升了分类精度;并且本技术从两个层级进行多模态复杂关联的学习:模态内学习和模态间学习,其中模态内的学习利用构建好的超图神经网络进行迭代优化,模态间的学习使用高阶嵌入融合层来对多个高阶特征进行融合,使得系统能充分挖掘数据间的复杂关联,更好的建模多模态信息,从而达到更优的类别预测性能。
[0055]
进一步地,在本技术实施例中,预设的第二超图神经网络模型的生成包括以下步骤:
[0056]
获取训练数据集,训练数据集中包括已知标签的关联数据;
[0057]
使用多模态数据特征间的关联构建不同类型的超边组,通过融合不同类型的超边组来构建多个单模态的超图表示结构;
[0058]
构建超图神经网络模型来对多个单模态的超图表示结构分别进行学习,并使用训练数据集对超图神经网络模型进行训练得到优化后的特征变换参数,从而得到预设的第二超图神经网络模型。
[0059]
进一步地,在本技术实施例中,多个单模态的超图表示结构的构建,具体包括以下步骤:
[0060]
给定多模态多类型数据关联,依据距离度量、属性相似方式定义不同的数据关联规则;
[0061]
根据不同的数据关联规则构建不同的超边组;
[0062]
联合单一模态内所有的超边组来构建一个单模态的超图表示结构,所有的单模态的超图表示结构共同构成单模态的超图表示结构,其中,每一个单一模态的数据产生一个对应的单模态超图表示结构。
[0063]
针对原始数据定义了k个规则,
[0064]
对已知标签的f种模态的数据
[0065]
m={m1,m2,

,m
f
}
[0066]
其中,m是多模态数据的全体集合。利用定义好的规则全集分别在每个模态上构建关联子集族,进一步,模态i通过关联子集族定义了对应的超边组
[0067]
通过一个超图关联矩阵h来表示单一模态超图的邻接矩阵,其定义如下:
[0068][0069]
其中,v指的是某一个顶点,e指的是某一个超边。
[0070]
进一步地,在本技术实施例中,单模态的超图表示结构表示为:
[0071][0072]
其中,是模态i生成的超图结构表示,v
i
是模态i中所包含的所有数据点的集合,e
i
是通过模态i中数据的关联构建出来的超边的集合,w
i
中包含了超边集合e
i
中每一个超边对应的权重。
[0073]
表示单一模态超图的邻接矩阵h定义如下:
[0074][0075]
其中,v指的是某一个顶点,e指的是某一个超边。
[0076]
进一步地,在本技术实施例中,使用训练数据集对超图神经网络模型进行训练,包括以下步骤:
[0077]
步骤s1:获取训练数据集中一组数据的原始数据特征,以及数据包含的每个模态的超图关联矩阵;
[0078]
步骤s2、通过一层全连接层运算,将原始数据特征转化为适应于深度网络的基础特征,并将基础特征嵌入至超图神经网络模型;
[0079]
步骤s3、联合超图关联矩阵与特征转换参数构建超图卷积层,针对每个模态生成相应的高阶特征,并将高阶特征嵌入至超图神经网络模型;
[0080]
步骤s4、融合超图神经网络提取的高阶特征嵌入,并生成统一嵌入表示,将统一嵌入表示输入到全连接分类网络获得最终的数据分类预测;
[0081]
步骤s5、重复执行步骤s1、s2、s3、s4,直到模型在训练数据集上的特征转换参数的损失函数收敛,完成训练。
[0082]
单模态超图神经网络的输入为x
i
和h
i
,其中x
i
为第i个模态的节点特征的矩阵,h
i
为第i个模态超图关联矩阵。
[0083]
基础特征转换层l0被定义为θ0x其中θ0为可训练参数。
[0084]
传统的超图上普卷积计算方式为:
[0085]
g

x=φ((φ
t
g)


t
x))=φg(λ)φ
t
x
[0086]
其中,

指的是哈密尔顿乘积,g(λ)=diag(g(λ1),g(λ2),...,g(λ
n
))指的是傅里叶变换系数的函数。由于其计算上需要进行多次傅里叶正逆变换,需要消耗大量的时间和空间。本技术使用切比雪夫多项式对其进行了近似,计算得到的超图卷积层的公式如下:
[0087][0088]
构建多个单模态超图卷积,公式如下:
[0089][0090]
针对每一个模态,均使用单独的可学习参数θ
i
、超图关联矩阵h
i
。其中每个超图里节点的度和超边的度都有着如下的定义:
[0091][0092]
其中,d(v)指的是顶点v的度,d(e)指的是超边e的度,h(v,e)是h矩阵中对应项的值。获得每个模态的高阶特征表示之后,通过拼接操作将它们融合成统一的多模态联合特征表示,如下;
[0093][0094]
其中,x

是最终的多模态联合特征表示,被用于后续的类别预测。
[0095]
y=pred(x

)
[0096]
其中,y是网络最终预测的分类标签,pred(
·
)是分类预测函数,本技术在设计时使用一层全连接层来实现分类预测函数,但是实际部署上不局限于一层全连接层,可以使用其他的分类模型来替换,如:svm和随机森林等。
[0097]
图2为本技术实施例的超图神经网络分类方法的架构图。
[0098]
如图2所示,该超图神经网络分类方法,使用多模态数据特征间的关联构建不同类型的超边组,通过融合不同类型的超边组来构建多个单模态的超图表示结构;构建超图神经网络模型来对多个单模态超图结构表示分别进行学习。针对已知标签的关联数据训练得到优化后的特征变换参数,从而获得嵌入知识的超图神经网络模型;针对未知数据的预测任务,对每个待检测点计算其与已知点的关联性,并通过嵌入知识的超图神经网络模型上节点与超边间特征的迭代,得到对未知数据的分类预测结果。本技术融合传统超图学习与深度学习方法,设计了一种超图神经网络分类方法,来提高对复杂关联数据的分类预测能力。
[0099]
图3为本技术实施例的超图神经网络分类方法的超图神经网络架构示意图。
[0100]
如图3所示,该超图神经网络分类方法构建超图神经网络模型来对多个单模态的超图表示结构分别进行学习,并使用训练数据集对超图神经网络模型进行训练得到优化后
的特征变换参数,从而得到预设的第二超图神经网络模型,包括:步骤s1、通过一层全连接层运算,将原始数据特征转化为适应于深度网络的基础特征,并将基础特征嵌入至超图神经网络模型;步骤s2、联合超图关联矩阵与特征转换参数构建超图卷积层,针对每个模态生成相应的高阶特征,并将高阶特征嵌入至超图神经网络模型;步骤s3、融合超图神经网络提取的高阶特征嵌入,并生成统一嵌入表示,将统一嵌入表示输入到全连接分类网络获得最终的数据分类预测;步骤s4、重复执行步骤s1、s2、s3,直到模型在训练数据集上的特征转换参数收敛,从而得到预设的第二超图神经网络模型。
[0101]
图4为本技术实施例二所提供的一种超图神经网络分类装置的结构示意图。
[0102]
如图4所示,该超图神经网络分类装置,包括:获取模块10、构建模块20、生成模块30、匹配合并模块40、预测模块50,其中,
[0103]
获取模块10,用于获取待预测标签数据;
[0104]
构建模块20,用于构建待预测标签数据的超图关联矩阵及原始特征矩阵;
[0105]
生成模块30,用于针对待预测标签数据中的不同模态分别构建超图神经网络,生成第一超图神经网络模型;
[0106]
匹配合并模块40,用于将预设的第二超图神经网络模型与第一超图神经网络模型进行匹配合并,将第一超图神经网络模型中每层的未训练参数替换为已训练过的特征转换参数;
[0107]
预测模块50,用于将超图关联矩阵与原始特征矩阵输入到第一超图神经网络模型中得到最终的分类预测结果。
[0108]
进一步地,在本技术实施例中,匹配合并模块,还用于:
[0109]
获取训练数据集,训练数据集中包括已知标签的关联数据;
[0110]
使用多模态数据特征间的关联构建不同类型的超边组,通过融合不同类型的超边组来构建多个单模态的超图表示结构;
[0111]
构建超图神经网络模型来对多个单模态的超图表示结构分别进行学习,并使用训练数据集对超图神经网络模型进行训练得到优化后的特征变换参数,从而得到预设的第二超图神经网络模型。
[0112]
针对未知数据的预测任务,对每个待检测点计算其与已知点的关联性,并通过第二超图神经网络模型上节点与超边间特征的迭代,得到对未知数据的分类预测结果。
[0113]
本技术实施例的超图神经网络分类装置,包括:获取模块、构建模块、生成模块、匹配合并模块、预测模块,其中,获取模块,用于获取待预测标签数据;构建模块,用于构建待预测标签数据的超图关联矩阵及原始特征矩阵;生成模块,用于针对待预测标签数据中的不同模态分别构建超图神经网络,生成第一超图神经网络模型;匹配合并模块,用于将预设的第二超图神经网络模型与第一超图神经网络模型进行匹配合并,将第一超图神经网络模型中每层的未训练参数替换为已训练过的特征转换参数;预测模块,用于将超图关联矩阵与原始特征矩阵输入到第一超图神经网络模型中得到最终的分类预测结果。由此,能够解决现有方法难以直接建模高阶复杂关联以及模型的学习效率较低技术问题,通过定义关联规则来量化不同种类的节点联系,层级地建模了单模态

多模态下的复杂关联,使得多模态协同下复杂网络的知识学习变得更加快速准确,同时通过融合传统超图学习与深度学习方法,设计了一种高阶嵌入融合层来学习模态内和模态间的知识表示,使得超图神经网络系
统有着更强大的建模能力,提高了对复杂关联数据的分类预测能力。
[0114]
本技术使用超图建模数据间的复杂关联,设计了超图神经网络来学习多模态的高阶嵌入,针对传统超图学习速度慢开销大等缺点,通过近似的超图拉普拉斯将其简化为特征与可学习参数间的矩阵相乘,从而大大的提高了特征提取的速度,降低了内存的开销,同时提升了分类精度;并且本技术从两个层级进行多模态复杂关联的学习:模态内学习和模态间学习,其中模态内的学习利用构建好的超图神经网络进行迭代优化,模态间的学习使用高阶嵌入融合层来对多个高阶特征进行融合,使得系统能充分挖掘数据间的复杂关联,更好的建模多模态信息,从而达到更优的类别预测性能。
[0115]
为了实现上述实施例,本技术还提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例的超图神经网络分类方法。
[0116]
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本技术的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
[0117]
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本技术的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
[0118]
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本技术的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本技术的实施例所属技术领域的技术人员所理解。
[0119]
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(ram),只读存储器(rom),可擦除可编辑只读存储器(eprom或闪速存储器),光纤装置,以及便携式光盘只读存储器(cdrom)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
[0120]
应当理解,本技术的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(pga),现场可编程门阵列(fpga)等。
[0121]
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
[0122]
此外,在本技术各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
[0123]
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本技术的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本技术的限制,本领域的普通技术人员在本技术的范围内可以对上述实施例进行变化、修改、替换和变型。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献