一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于BiLSTM和TextRank进行新闻文本分类的方法与流程

2022-12-20 01:48:23 来源:中国专利 TAG:

一种基于bilstm和textrank进行新闻文本分类的方法
技术领域
1.本发明属于计算机领域,具体涉及一种基于bilstm和textrank进行新闻文本分类的方法、系统、设备及可读存储介质。


背景技术:

2.新闻是人们获取信息、了解时事热点的重要途径。随着用户碎片化的使用场景逐渐增多,大量新闻文本信息均以短文本的形式呈现并进行传播。与长文本相比,新闻短文本的内容具有词汇不规范、特征维度稀疏和语义模糊的问题,因此现有的文本分类方法直接应用于新闻短文本分类中效果不佳。
3.传统文本分类算法通常基于向量空间模型,该方法将文本数据用特征词及权值构成的向量表示。但使用该方法在表示新闻短文本时,高维稀疏问题与语义缺失问题则更加严重。在此基础上进一步考虑了文本的“词”粒度和“文本”粒度,对词向量模型与lda主题模型(latent dirichlet allocation,lda)进行融合,在分类效果上有一定的提升。近年来,深度学习在自然语言处理领域取得了显著的进展,例如,hochreiter等提出了长短时记忆神经网络(long short-term memory,lstm),解决了传统rnn梯度爆炸和消失的问题。由于lstm能捕捉全局词义的特征,因此在文本分类中取得了不错的成绩。
4.但对新闻文本的处理传统的分类方式上仍然存在较大的改进空间。


技术实现要素:

5.为解决上述问题,本发明提出一种基于bilstm和textrank进行新闻文本分类的方法,包括:
6.对文本数据集进行预处理得到文本分词向量,通过所述文本数据集的文本分词向量训练bilstm分类模型并得到关于所述数据集的全局语义的特征向量;
7.通过textrank算法从所述文本数据集的文本分词向量提取文本关键词并基于所述文本关键词得到关于文本关键词的特征向量;
8.基于所述全局语义的特征向量和所述文本关键词的特征向量构建全连接神经网络分类模型,并通过所述全连接神经网络分类模型对目标文本分别进行分类。
9.在本发明的一些实施方式中,对文本数据集进行预处理包括:
10.通过jieba分词工具对所述文本数据集中的文本进行分词,并过滤掉停用词得到文本分词结果。
11.在本发明的一些实施方式中,方法还包括:
12.基于所述文本分词结果加载glove词嵌入模型将所述文本分词结果转换成文本分词向量。
13.在本发明的一些实施方式中,通过所述文本数据集的文本分词向量训练bilstm分类模型并得到关于所述数据集的全局语义的特征向量包括:
14.将所述文本分词向量和对应分类类别输入到bilstm模型中进行模型训练,并将训
练好的bilstm模型层的向量作为所述文本数据集的全局语义的特征向量。
15.在本发明的一些实施方式中,通过textrank算法从所述文本数据集的文本分词向量提取文本关键词并基于所述文本关键词得到关于文本关键词的特征向量包括:
16.通过所述文本分词向量中的贡献关系构建候选关键词图,并基于所述候选关键词图通过textrank算法进行迭代运算直至所述候选关键此图中各节点的权重收敛;
17.将所述候选关键词图各节点根据其权重进行倒序排序,并将倒序排序后所述关键词图中的节点前预定个数的节点作为最终关键词;
18.基于所述最终关键词加载glove词嵌入模型将所述最终关键词转换成文本关键词的特征向量。
19.在本发明的一些实施方式中,基于所述全局语义的特征向量和所述文本关键词的特征向量构建全连接神经网络分类模型包括:
20.将所述全局语义的特征向量和所述文本关键词的特征向量进行拼接;
21.将拼接后的特征向量输入到全连接神经网络进行训练以得到所述全连接神经网络模型。
22.在本发明的一些实施方式中,通过所述全连接神经网络分类模型对目标文本分别进行分类包括:
23.通过textrank算法对目标文本的文本分词向量提取文本关键词并基于所述文本关键词构建关于目标文本关键词的特征向量;
24.获取全局语义向量和将所述全局语义向量和所述目标文本关键词的特征向量进行拼接得到目标特征向量;
25.将所述目标特征向量输入到全连接神经网络分类模型对所述目标文本进行分类。
26.本发明的另一方面还提出一种基于bilstm和textrank进行新闻文本分类系统,包括:
27.第一模型处理模块,所述第一模型处理模块配置用于对文本数据集进行预处理得到文本分词向量,通过所述文本数据集的文本分词向量训练bilstm分类模型并得到关于所述数据集的全局语义的特征向量;
28.第二模型处理模块,所述第二模型处理模块配置用于通过textrank算法从所述文本数据集的文本分词向量提取文本关键词并基于所述文本关键词得到关于文本关键词的特征向量;
29.分类模型模块,所述分类模型模块配置用于基于所述全局语义的特征向量和所述文本关键词的特征向量构建全连接神经网络分类模型,并通过所述全连接神经网络分类模型对目标文本分别进行分类。
30.本发明的又一方面还提出一种计算机设备,包括:
31.至少一个处理器;以及
32.存储器,所述存储器存储有可在所述处理器上运行的计算机指令,所述指令由所述处理器执行时实现上述实施方式中任意一项所述方法的步骤。
33.本发明的再一方面还提出一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述实施方式中任意一项所述方法的步骤。
34.通过本发明提出的一种基于bilstm和textrank进行新闻文本分类的方法,通过bilstm求得文本的全局语义的特征向量,再通过textrank提取文本的关键词,基于关键词和全局语义的特征向量训练对应的全连接神经网络模型对新闻文本进行分类,可显著提高新闻文本分类的准确性。
附图说明
35.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
36.图1为本发明实施例提供的一种基于bilstm和textrank进行新闻文本分类的方法流程图;
37.图2为本发明实施例提供的一种基于bilstm和textrank进行新闻文本分类的系统的结构示意图;
38.图3为本发明实施例提供的一种计算机设备的结构示意图;
39.图4为本发明实施例提供的一种计算机可读存储介质的结构示意图。
40.图5为本发明实施例提供的bilstm模型训练的过程示意图;
41.图6为本发明实施例提供的bilstm模型测试和推断的过程示意图;
42.图7为本发明实施例提供的textrank模型提取文本关键词特征向量的过程示意图;
43.图8为本发明实施例提供的基于bilstm和textrank的文本分类训练过程示意图;
44.图9为本发明实施例提供的基于bilstm和textrank的文本分类的测试和推断过程示意图。
具体实施方式
45.为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
46.本发明应旨在解决自然语言处理领域中文本分类问题,以新闻文本为例,传统文本分类算法通常基于向量空间模型,该方法将文本数据用特征词及权值构成的向量表示。但使用该方法在表示新闻短文本时,高维稀疏问题与语义缺失问题则更加严重。虽然有文献提出通过长短时记忆神经网络(long short-term memory,lstm),解决了传统rnn梯度爆炸和消失的问题。但是在新闻文本中存在主题词,这些主题词往往决定了新闻的分类类别,因此传统的分类方式并未将这一内容考虑进去。
47.如图1所示,为解决上述问题,本发明的第一方面提出一种基于bilstm和textrank进行新闻文本分类的方法,包括:
48.步骤s1、对文本数据集进行预处理得到文本分词向量,通过所述文本数据集的文本分词向量训练bilstm分类模型并得到关于所述数据集的全局语义的特征向量;
49.步骤s2、通过textrank算法从所述文本数据集的文本分词向量提取文本关键词并基于所述文本关键词得到关于文本关键词的特征向量;
50.步骤s3、基于所述全局语义的特征向量和所述文本关键词的特征向量构建全连接神经网络分类模型,并通过所述全连接神经网络分类模型对目标文本分别进行分类。
51.在本发明的实施例中,在步骤s1中,本发明先通过bilstm算法得到预处理后的文本数据集的全局语义特征向量,具体是以训练模型的方式将预处理后的文本数据集的文本分词向量输入到bilstm进行迭代训练,将满足预定损失率时的bilstm层的向量作为文本数据集对应的全局语义特征向量。
52.在步骤s2中,将文本数据集的文本分词向量输入到textrank算法中提取出该文本数据集的关键词,并根据获得的文本数据集的关键词构建关于文本关键词的特征向量。
53.在步骤s3中,通过文本数据集的全局语义特征向量和文本文本关键词的特征向量作为输入,训练全连接神经网络模型。在需要通过训练好的全连接神经网络模型进行预测时,对目标文本进行预处理得到目标文本特征向量,然后将目标文本特征向量经过步骤s2的textrank提取到目标文本特征的关键词并生成目标文本关键词特征向量,进一步获取步骤s1中的全局语义特征向量,将全局语义特征向量和目标文本关键词特征向量作为输入输入训练好的全连接神经网络模型中得到分类结果。
54.在本发明的一些实施方式中,对文本数据集进行预处理包括:
55.通过jieba分词工具对所述文本数据集中的文本进行分词,并过滤掉停用词得到文本分词结果。
56.对应文本数据集的预处理,本发明采用jieba分词工具进行分词处理同时将停用词等无意的文字或字符过滤掉。
57.在本发明的一些实施方式中,方法还包括:
58.基于所述文本分词结果加载glove词嵌入模型将所述文本分词结果转换成文本分词向量。
59.在本实施例中,在通过jieba分词工具对文本数据集进行分词处理后,将其分词结果通过glove算法计算出分词结果的词向量。
60.在本发明的一些实施方式中,通过所述文本数据集的文本分词向量训练bilstm分类模型并得到关于所述数据集的全局语义的特征向量包括:
61.将所述文本分词向量和对应分类类别输入到bilstm模型中进行模型训练,并将训练好的bilstm模型层的向量作为所述文本数据集的全局语义的特征向量。
62.在本实施例中,每一个文本内容对应一个分类标签,在训练bilstm模型时同时将文本内容的特征向量和对应的分类标签对
63.在本发明的一些实施方式中,通过textrank算法从所述文本数据集的文本分词向量提取文本关键词并基于所述文本关键词得到关于文本关键词的特征向量包括:
64.通过所述文本分词向量中的贡献关系构建候选关键词图,并基于所述候选关键词图通过textrank算法进行迭代运算直至所述候选关键此图中各节点的权重收敛;
65.将所述候选关键词图各节点根据其权重进行倒序排序,并将倒序排序后所述关键词图中的节点前预定个数的节点作为最终关键词;
66.基于所述最终关键词加载glove词嵌入模型将所述最终关键词转换成文本关键词的特征向量。
67.在本发明的一些实施方式中,基于所述全局语义的特征向量和所述文本关键词的
特征向量构建全连接神经网络分类模型包括:
68.将所述全局语义的特征向量和所述文本关键词的特征向量进行拼接;
69.将拼接后的特征向量输入到全连接神经网络进行训练以得到所述全连接神经网络模型。
70.在本发明的一些实施方式中,通过所述全连接神经网络分类模型对目标文本分别进行分类包括:
71.通过textrank算法对目标文本的文本分词向量提取文本关键词并基于所述文本关键词构建关于目标文本关键词的特征向量;
72.获取全局语义向量和将所述全局语义向量和所述目标文本关键词的特征向量进行拼接得到目标特征向量;
73.将所述目标特征向量输入到全连接神经网络分类模型对所述目标文本进行分类。
74.实施例:
75.本发明建立了一种基于bilstm和textrank进行新闻文本分类的方法。在训练阶段,首先,利用数据集训练bilstm分类模型,得到bilstm层的输出即为文本的全局语义的特征向量;然后利用textrank算法,提取文本的关键词,加载glove词嵌入模型将提权的关键词转换为关键词向量;随后将全局语义的特征向量和关键词向量进行拼接,输入到全连接神经网络训练分类模型。在测试阶段,将数据输入到训练好的bilstm模型,得到bilstm层的输出即为文本的全局语义的特征向量;然后利用textrank算法,提取文本的关键词,加载glove词嵌入模型将提权的关键词转换为关键词向量;随后将全局语义的特征向量和关键词向量进行拼接,输入到全连接神经网络模型得到最后的分类。详细过程如下:
76.首先,如图5所示,图5示出的是本发明基于bilstm模型的全局语义特征的提取的示意图,内容如下:
77.1)首先,对于给定的新闻文本数据集,利用jieba分词工具对给定的文本进行分词,并过滤掉停用词,得到文本的分词结果;
78.2)加载glove词嵌入模型,将步骤1)中的分词结果转换成词向量;
79.3)将给定的新闻文本数据集对应的词向量和对应的分类类别,输入到bilstm模型中进行模型训练;
80.4)训练好的模型的bilstm层得到的向量就是文本对应的全局语义的特征。测试或推理过程与上述过程相同区别在于将文本数据集替换为目标文本数据,参考图6。
81.其次,通过textrank的对新闻文本数据集进行关键词的提取。
82.textrank算法是一种基于图的用于关键词抽取和文档摘要的排序算法,由谷歌的网页重要性排序算法pagerank算法改进而来,它利用一篇文档内部的词语间的共现信息(语义)便可以抽取关键词,它能够从一个给定的文本中抽取出该文本的关键词、关键词组,并使用抽取式的自动文摘方法抽取出该文本的关键句。textrank算法的基本思想是将文档看作一个词的网络,该网络中的链接表示词与词之间的语义关系。算法原理如下:
83.84.贡献程度。in(vi)是整个文本中,共现关系包含词i的所有词的集合;out(vj)是词j的共现关系中所包含的所有词的集合;w
ji
表示词i和词j的相似度,可以通过词i和词j的词向量求余弦相似度获得;ws(vj)表示上次迭代结束后词j的权重。d是阻尼系数,一般为0.85。
85.具体地,如图7所示,图7示出的是本实施例基于textrank的关键词的提取过程示意图,包括:
86.1)对于给定的文本,利用jieba进行分词和词性标注,并过滤掉停用词,只保留制定词性的单词,如名词、动词、形容词;
87.2)加载glove词嵌入模型,将所有词转换成词向量;
88.3)构建候选关键词图,其中为节点集,由1)生成的候选关键词组成,而后采用共现关系(co-occurrence)构造任意两点之间的边,两个节点之间存在边仅当他们对应的词汇在长度为k的窗口中共现,k表示窗口大小,即最多共现k个单词;
89.4)根据上面公式(1),迭代传播各节点的权重,直至收敛;
90.5)对节点权重进行倒序排序,从而获得最重要的t个单词,作为最终的关键词。
91.6)加载glove词嵌入模型,将最终的t个关键词转换成词向量;
92.7)将最终t个关键词的词向量求均值作为文本对应的关键词的特征。
93.最后,训练基于bilstm和textrank的文本分类全连接上神经网络模型。参考附图8过程如下:
94.1)将bilstm模型获得的全局语义向量与textrank模型的关键词特征向量进行拼接;拼接之后的词向量融合了全局的语义特征和关键词特征;
95.2)将拼接之后的向量输入到全连接神经网络进行分类。
96.进一步,附图9示出了本发明通过基于bilstm和textrank和全连接神经网络模型的分类过程示意图,首先将目标文本通过预处理的方式生成目标文本向量,将目标文本向量通过textrank提取对应的关键词,并将提取的关键词生成目标关键词文本向量,然后将目标文本关键词向量和bilstm模型的全局语义向量输入到全连接神经网络模型得出对应的分类结果。
97.为评估本发明方法在新闻文本分类中的效果,与传统的bilstm模型进行对比。评价指标包括准确率(precision)、召回率(recall)和f1值(f1-score),为对比方便,取10个类比的平均值,得出模型的对比结果如下表:
98.模型precisionrecallf1-scorebilstm88.3489.7489.03bilstm textrank90.8491.0390.93
99.可以看出本发明提出的算法在准确率、召回率和f1值上都优于传统的bilstm模型。
100.通过本发明建立了一种基于bilstm和textrank进行新闻文本分类的方法。在训练阶段,首先,利用数据集训练bilstm分类模型,得到bilstm层的输出即为文本的全局语义的特征向量;然后利用textrank算法,提取文本的关键词,加载glove词嵌入模型将提权的关键词转换为关键词向量;随后将全局语义的特征向量和关键词向量进行拼接,输入到全连接神经网络进行分类模型的训练。在测试阶段,将数据输入到训练好的bilstm模型,得到
bilstm层的输出即为文本的全局语义的特征向量;然后利用textrank算法,提取文本的关键词,加载glove词嵌入模型将提权的关键词转换为关键词向量;随后将全局语义的特征向量和关键词向量进行拼接,输入到全连接神经网络模型得到最后的分类。
101.如图2所示,本发明的另一方面还提出一种基于bilstm和textrank进行新闻文本分类系统,包括:
102.第一模型处理模块1,所述第一模型处理模块1配置用于对文本数据集进行预处理得到文本分词向量,通过所述文本数据集的文本分词向量训练bilstm分类模型并得到关于所述数据集的全局语义的特征向量;
103.第二模型处理模块2,所述第二模型处理模块2配置用于通过textrank算法从所述文本数据集的文本分词向量提取文本关键词并基于所述文本关键词得到关于文本关键词的特征向量;
104.分类模型模块3,所述分类模型模块3配置用于基于所述全局语义的特征向量和所述文本关键词的特征向量构建全连接神经网络分类模型,并通过所述全连接神经网络分类模型对目标文本分别进行分类。
105.如图3所示,本发明的又一方面还提出一种计算机设备,包括:
106.至少一个处理器21;以及
107.存储器22,所述存储器22存储有可在所述处理器21上运行的计算机指令23,所述指令23由所述处理器21执行时实现一种基于bilstm和textrank进行新闻文本分类的方法,包括:
108.对文本数据集进行预处理得到文本分词向量,通过所述文本数据集的文本分词向量训练bilstm分类模型并得到关于所述数据集的全局语义的特征向量;
109.通过textrank算法从所述文本数据集的文本分词向量提取文本关键词并基于所述文本关键词得到关于文本关键词的特征向量;
110.基于所述全局语义的特征向量和所述文本关键词的特征向量构建全连接神经网络分类模型,并通过所述全连接神经网络分类模型对目标文本分别进行分类。
111.在本发明的一些实施方式中,对文本数据集进行预处理包括:
112.通过jieba分词工具对所述文本数据集中的文本进行分词,并过滤掉停用词得到文本分词结果。
113.在本发明的一些实施方式中,方法还包括:
114.基于所述文本分词结果加载glove词嵌入模型将所述文本分词结果转换成文本分词向量。
115.在本发明的一些实施方式中,通过所述文本数据集的文本分词向量训练bilstm分类模型并得到关于所述数据集的全局语义的特征向量包括:
116.将所述文本分词向量和对应分类类别输入到bilstm模型中进行模型训练,并将训练好的bilstm模型层的向量作为所述文本数据集的全局语义的特征向量。
117.在本发明的一些实施方式中,通过textrank算法从所述文本数据集的文本分词向量提取文本关键词并基于所述文本关键词得到关于文本关键词的特征向量包括:
118.通过所述文本分词向量中的贡献关系构建候选关键词图,并基于所述候选关键词图通过textrank算法进行迭代运算直至所述候选关键此图中各节点的权重收敛;
119.将所述候选关键词图各节点根据其权重进行倒序排序,并将倒序排序后所述关键词图中的节点前预定个数的节点作为最终关键词;
120.基于所述最终关键词加载glove词嵌入模型将所述最终关键词转换成文本关键词的特征向量。
121.在本发明的一些实施方式中,基于所述全局语义的特征向量和所述文本关键词的特征向量构建全连接神经网络分类模型包括:
122.将所述全局语义的特征向量和所述文本关键词的特征向量进行拼接;
123.将拼接后的特征向量输入到全连接神经网络进行训练以得到所述全连接神经网络模型。
124.在本发明的一些实施方式中,通过所述全连接神经网络分类模型对目标文本分别进行分类包括:
125.通过textrank算法对目标文本的文本分词向量提取文本关键词并基于所述文本关键词构建关于目标文本关键词的特征向量;
126.获取全局语义向量和将所述全局语义向量和所述目标文本关键词的特征向量进行拼接得到目标特征向量;
127.将所述目标特征向量输入到全连接神经网络分类模型对所述目标文本进行分类。如图4所示,本发明的再一方面还提出一种计算机可读存储介质401,所述计算机可读存储介质401存储有计算机程序402,所述计算机程序被处理器执行时实现一种基于bilstm和textrank进行新闻文本分类的方法,包括:
128.对文本数据集进行预处理得到文本分词向量,通过所述文本数据集的文本分词向量训练bilstm分类模型并得到关于所述数据集的全局语义的特征向量;
129.通过textrank算法从所述文本数据集的文本分词向量提取文本关键词并基于所述文本关键词得到关于文本关键词的特征向量;
130.基于所述全局语义的特征向量和所述文本关键词的特征向量构建全连接神经网络分类模型,并通过所述全连接神经网络分类模型对目标文本分别进行分类。
131.在本发明的一些实施方式中,对文本数据集进行预处理包括:
132.通过jieba分词工具对所述文本数据集中的文本进行分词,并过滤掉停用词得到文本分词结果。
133.在本发明的一些实施方式中,方法还包括:
134.基于所述文本分词结果加载glove词嵌入模型将所述文本分词结果转换成文本分词向量。
135.在本发明的一些实施方式中,通过所述文本数据集的文本分词向量训练bilstm分类模型并得到关于所述数据集的全局语义的特征向量包括:
136.将所述文本分词向量和对应分类类别输入到bilstm模型中进行模型训练,并将训练好的bilstm模型层的向量作为所述文本数据集的全局语义的特征向量。
137.在本发明的一些实施方式中,通过textrank算法从所述文本数据集的文本分词向量提取文本关键词并基于所述文本关键词得到关于文本关键词的特征向量包括:
138.通过所述文本分词向量中的贡献关系构建候选关键词图,并基于所述候选关键词图通过textrank算法进行迭代运算直至所述候选关键此图中各节点的权重收敛;
139.将所述候选关键词图各节点根据其权重进行倒序排序,并将倒序排序后所述关键词图中的节点前预定个数的节点作为最终关键词;
140.基于所述最终关键词加载glove词嵌入模型将所述最终关键词转换成文本关键词的特征向量。
141.在本发明的一些实施方式中,基于所述全局语义的特征向量和所述文本关键词的特征向量构建全连接神经网络分类模型包括:
142.将所述全局语义的特征向量和所述文本关键词的特征向量进行拼接;
143.将拼接后的特征向量输入到全连接神经网络进行训练以得到所述全连接神经网络模型。
144.在本发明的一些实施方式中,通过所述全连接神经网络分类模型对目标文本分别进行分类包括:
145.通过textrank算法对目标文本的文本分词向量提取文本关键词并基于所述文本关键词构建关于目标文本关键词的特征向量;
146.获取全局语义向量和将所述全局语义向量和所述目标文本关键词的特征向量进行拼接得到目标特征向量;
147.将所述目标特征向量输入到全连接神经网络分类模型对所述目标文本进行分类。
148.通过本发明建立的一种基于bilstm和textrank进行新闻文本分类的方法,在训练阶段,首先,利用数据集训练bilstm分类模型,得到bilstm层的输出即为文本的全局语义的特征向量;然后利用textrank算法,提取文本的关键词,加载glove词嵌入模型将提权的关键词转换为关键词向量;随后将全局语义的特征向量和关键词向量进行拼接,输入到全连接神经网络训练分类模型。在测试阶段,将数据输入到训练好的bilstm模型,得到bilstm层的输出即为文本的全局语义的特征向量;然后利用textrank算法,提取文本的关键词,加载glove词嵌入模型将提权的关键词转换为关键词向量;随后将全局语义的特征向量和关键词向量进行拼接,输入到全连接神经网络模型得到最后的分类。
149.以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
150.应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
151.上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
152.本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
153.所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上所述的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本
发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献