一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

分类标签的核心语句提取方法、系统、设备及存储介质与流程

2022-02-22 06:58:47 来源:中国专利 TAG:


1.本发明涉及用自然语言处理领域,具体地说,涉及分类标签的核心语句提取方法、系统、设备及存储介质。


背景技术:

2.中国互联网旅游行业近年来增速发展,同时大数据和人工智能技术近年来更是飞速发展。大数据和人工智能技术已经被成功运用在互联网旅游行业。同时针对旅游领域的海量数据,传统的人工方法已经落后,需要人工智能来代替人工,提升处理效率。现如今随着深度学习的兴起,自然语言处理迎来了蓬勃的发展。在自然语言处理的任务之中基本可以分为三个小的模块,文本数据搜集和预处理,将文本进行编码和表征,设计模型解决具体任务。当然在部分问题中将文本进行编码和表征与设计模型解决具体任务的界限不是特别的清晰。
3.目前对于将文本进行编码和表征已经有了很优秀的进展,从n-gram,word2vec,慢慢的到transformer,bert等。对于将文本进行编码和表征的技术有了长足的进步,不限于仅仅统计词频,开始更加深入的挖掘语义、逻辑等深层的文本的含义。但是目前公司应用的语料库与学术上所作比较的语料库存在着差异,公司应用的语料库库中有着大量的冗余数据、乃至错误数据。而这些冗余或不好的数据在一定程度上制约着,现有模型的精度,我们使用的模型效果往往不能达到在学术领域使用的语料库的效果。当然在目前深度学习之中,也一直在探寻可以抗高噪声,高冗余的模型方式。
4.在目前使用的语料之中,存在这一定的冗余数据,冗余数据大大提高了模型的计算量,本文提出的提取核心句模型通过深度学习的方式去除了部分冗余数据,使模型在保证效果的前提下,显著减少了计算量。
5.因此,本发明提供了一种分类标签的核心语句提取方法、系统、设备及存储介质。


技术实现要素:

6.针对现有技术中的问题,本发明的目的在于提供分类标签的核心语句提取方法、系统、设备及存储介质,克服了现有技术的困难,能够通过深度学习的方式去除了部分冗余数据,大幅提升神经网络分类模型中选取核心语句的准确性,大幅度降低模型计算成本。
7.本发明的实施例提供一种分类标签的核心语句提取方法,包括以下步骤:
8.s110、提供语句训练文本,所述语句训练文本中的每个训练语句具有至少一文本预设标签;
9.s120、对所述语句训练文本进行中文分词获得字词,根据预设索引字典将所述训练语句中字词的文本依次转化为对应的数字,获得所述训练语句的数字序列并复制扩充一次;
10.s130、将所述数字序列转化为对应的字词向量矩阵,该向量矩阵分别输入神经网络分类模型进行预训练,获得所述训练语句的语句编码向量;
11.s140、通过所述神经网络分类模型来获取所述训练语句的模型预测标签,根据所述文本预设标签和模型预测标签的标签类别概率分布获得交叉熵损失值和两个相同语句的kl散度计算损失值,根据所述交叉熵损失值和kl散度计算损失值获得总损失值;
12.s150、经过迭代训练获得总损失最小时的神经网络分类模型作为训练后的神经网络分类模型;
13.s170、将所述语句训练文本输入训练后的神经网络分类模型中的特征提取器,获得所述训练语句对应的语句编码向量;
14.s180、根据各个所述标签对应的所有所述语句编码向量的平均值获得每个所述标签对应的中心向量;以及
15.s190、分别对同一所述标签的中心向量和每个所述语句编码向量进行归一化然后获得两者相似度,针对每个所述标签分别提取对应的相似度最高的w个所述语句编码向量对应的训练语句作为核心语句。
16.优选地,所述步骤s150之后,步骤s170之前还包括:
17.s160、去除所述神经网络分类模型中的分类器,将所述神经网络分类模型的其余模块作为特征提取器。
18.优选地,所述步骤s110中,所述预设的文本预设标签包括:意图类别标签和/或情绪类别标签。
19.优选地,所述步骤s120中,包括以下步骤:
20.s121、对所述语句训练文本进行中文分词获得字词;
21.s122、根据所述中文分词的结果建立所述字词到数字的索引字典;
22.s123、根据索引字典将所述字词的文本序列转化为对应的原始数字序列;
23.s124、将每句话的原始数字序列复制一次获得扩充数字序列。
24.优选地,所述步骤s130中,所述神经网络分类模型为bert文本分类神经网络。
25.优选地,所述步骤s140中,包括以下步骤:
26.s141、使用bert文本分类神经网络预训练,直接传入两层全连接层,并且根据所述文本预设标签和模型预测的标签类别概率分布分别计算每一类标签的交叉熵损失值loss1:
[0027][0028]
其中,n为具有每类所述文本预设标签的训练语句的总量,m为所述文本预设标签的种类总量;
[0029]yij
是第j类标签下的第i个训练语句标签的模型预测标签属于哪种文本预设标签的第一矩阵,所述第一矩阵中与所述模型预测标签相同的所述文本预设标签对应的元素值为1,其余所述文本预设标签对应的元素值为0;
[0030]
p
ij
是第j类标签下的第i个训练语句标签的模型预测标签属于每类文本预设标签的各概率作为元素值的第二矩阵,所述第二矩阵中所有所述元素值的总和为1;
[0031]
s142、根据所述原始数字序列和扩充数字序列kl散度计算该类所述标签的损失值loss2:
[0032][0033]
其中,y1为原始数字序列对应的语句编码向量,y2为原始数字序列对应的语句编码向量;
[0034]
s143、获得该类所述标签的总损失值loss:
[0035]
loss=loss1 α
×
loss2;
[0036]
其中,α的取值范围是(0,5]。
[0037]
优选地,所述步骤s150中,使用adam优化算法进行迭代训练获得总损失最小时的神经网络分类模型作为训练后的神经网络分类模型。
[0038]
优选地,所述步骤s190中,包括以下步骤:
[0039]
s191、获得具有同一所述标签的所述中心向量和语句编码向量之间夹角的余弦值similarity:
[0040][0041]
其中,ai为具有同一所述标签的所述语句编码向量,bi为同一所述标签的中心向量,n为语句编码向量中元素的总量;
[0042]
s192、对所述相似度进行自大到小进行排序;
[0043]
s193、提取排序靠前的f(x)个所述语句编码向量对应的训练语句作为所述标签的核心语句。
[0044]
优选地,所述步骤s190中,随着所述标签对应的训练语句的总数增大,则所述标签对应核心语句的数量占所述训练语句的总数的比例缩小,比例f(x)=w/x,并且
[0045][0046]
本发明的实施例还提供一种分类标签的核心语句提取系统,用于实现上述的分类标签的核心语句提取方法,所述分类标签的核心语句提取系统包括:
[0047]
样本提供模块,提供语句训练文本,所述语句训练文本中的每个训练语句具有至少一文本预设标签;
[0048]
数字序列模块,对所述语句训练文本进行中文分词获得字词,根据预设索引字典将所述训练语句中字词的文本依次转化为对应的数字,获得所述训练语句的数字序列并复制扩充一次;
[0049]
网络预训练模块,将所述数字序列转化为对应的字词向量矩阵,该向量矩阵分别输入神经网络分类模型进行预训练,获得所述训练语句的语句编码向量;
[0050]
总损失计算模块,通过所述神经网络分类模型来获取所述训练语句的模型预测标签,根据所述文本预设标签和模型预测标签的标签类别概率分布获得交叉熵损失和两个相同语句的kl散度计算损失,根据所述交叉熵损失和kl散度计算损失获得总损失;
[0051]
迭代训练模块,经过迭代训练获得总损失最小时的神经网络分类模型作为训练后
的神经网络分类模型;
[0052]
语句编码模块,将所述语句训练文本输入训练后的神经网络分类模型中的特征提取器,获得所述训练语句对应的语句编码向量;
[0053]
中心向量模块,根据各个所述标签对应的所有所述语句编码向量的平均值获得每个所述标签对应的中心向量;以及
[0054]
核心语句模块,分别对同一所述标签的中心向量和每个所述语句编码向量进行归一化然后获得两者相似度,针对每个所述标签分别提取对应的相似度最高的f(x)个所述语句编码向量对应的训练语句作为核心语句。
[0055]
本发明的实施例还提供一种分类标签的核心语句提取设备,包括:
[0056]
处理器;
[0057]
存储器,其中存储有所述处理器的可执行指令;
[0058]
其中,所述处理器配置为经由执行所述可执行指令来执行上述分类标签的核心语句提取方法的步骤。
[0059]
本发明的实施例还提供一种计算机可读存储介质,用于存储程序,所述程序被执行时实现上述分类标签的核心语句提取方法的步骤。
[0060]
本发明的目的在于提供分类标签的核心语句提取方法、系统、设备及存储介质,能够通过深度学习的方式去除了部分冗余数据,大幅提升神经网络分类模型中选取核心语句的准确性,大幅度降低模型计算成本。
附图说明
[0061]
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。
[0062]
图1是本发明的分类标签的核心语句提取方法的流程图。
[0063]
图2是本发明的分类标签的核心语句提取系统的模块示意图。
[0064]
图3是本发明的分类标签的核心语句提取设备的结构示意图。
[0065]
图4是本发明一实施例的计算机可读存储介质的结构示意图。
具体实施方式
[0066]
以下通过特定的具体实例说明本技术的实施方式,本领域技术人员可由本技术所揭露的内容轻易地了解本技术的其他优点与功效。本技术还可以通过另外不同的具体实施方式加以实施或应用系统,本技术中的各项细节也可以根据不同观点与应用系统,在没有背离本技术的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,本技术中的实施例及实施例中的特征可以相互组合。
[0067]
下面以附图为参考,针对本技术的实施例进行详细说明,以便本技术所属技术领域的技术人员能够容易地实施。本技术可以以多种不同形态体现,并不限定于此处说明的实施例。
[0068]
在本技术的表示中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的表示意指结合该实施例或示例表示的具体特征、结构、材料或者特点包括于本技术的至少一个实施例或示例中。而且,表示的具体特征、结构、材料或者特点可以
在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本技术中表示的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
[0069]
此外,术语“第一”、“第二”仅用于表示目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本技术的表示中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
[0070]
为了明确说明本技术,省略与说明无关的器件,对于通篇说明书中相同或类似的构成要素,赋予了相同的参照符号。
[0071]
在通篇说明书中,当说某器件与另一器件“连接”时,这不仅包括“直接连接”的情形,也包括在其中间把其它元件置于其间而“间接连接”的情形。另外,当说某种器件“包括”某种构成要素时,只要没有特别相反的记载,则并非将其它构成要素排除在外,而是意味着可以还包括其它构成要素。
[0072]
当说某器件在另一器件“之上”时,这可以是直接在另一器件之上,但也可以在其之间伴随着其它器件。当对照地说某器件“直接”在另一器件“之上”时,其之间不伴随其它器件。
[0073]
虽然在一些实例中术语第一、第二等在本文中用来表示各种元件,但是这些元件不应当被这些术语限制。这些术语仅用来将一个元件与另一个元件进行区分。例如,第一接口及第二接口等表示。再者,如同在本文中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文中有相反的指示。应当进一步理解,术语“包含”、“包括”表明存在的特征、步骤、操作、元件、组件、项目、种类、和/或组,但不排除一个或多个其他特征、步骤、操作、元件、组件、项目、种类、和/或组的存在、出现或添加。此处使用的术语“或”和“和/或”被解释为包括性的,或意味着任一个或任何组合。因此,“a、b或c”或者“a、b和/或c”意味着“以下任一个:a;b;c;a和b;a和c;b和c;a、b和c”。仅当元件、功能、步骤或操作的组合在某些方式下内在地互相排斥时,才会出现该定义的例外。
[0074]
此处使用的专业术语只用于言及特定实施例,并非意在限定本技术。此处使用的单数形态,只要语句未明确表示出与之相反的意义,那么还包括复数形态。在说明书中使用的“包括”的意义是把特定特性、区域、整数、步骤、作业、要素及/或成份具体化,并非排除其它特性、区域、整数、步骤、作业、要素及/或成份的存在或附加。
[0075]
虽然未不同地定义,但包括此处使用的技术术语及科学术语,所有术语均具有与本技术所属技术领域的技术人员一般理解的意义相同的意义。普通使用的字典中定义的术语追加解释为具有与相关技术文献和当前提示的内容相符的意义,只要未进行定义,不得过度解释为理想的或非常公式性的意义。
[0076]
图1是本发明的分类标签的核心语句提取方法的流程图。如图1所示,本发明的实施例提供一种分类标签的核心语句提取方法,包括以下步骤:
[0077]
s110、提供语句训练文本,语句训练文本中的每个训练语句具有至少一文本预设标签;
[0078]
s120、对语句训练文本进行中文分词获得字词,根据预设索引字典将训练语句中字词的文本依次转化为对应的数字,获得训练语句的数字序列并复制扩充一次;
[0079]
s130、将数字序列转化为对应的字词向量矩阵,该向量矩阵分别输入神经网络分类模型进行预训练,获得训练语句的语句编码向量;
[0080]
s140、通过神经网络分类模型来获取训练语句的模型预测标签,根据文本预设标签和模型预测标签的标签类别概率分布获得交叉熵损失值和两个相同语句的kl散度计算损失值,根据交叉熵损失值和kl散度计算损失值获得总损失值;
[0081]
s150、经过迭代训练获得总损失最小时的神经网络分类模型作为训练后的神经网络分类模型;
[0082]
s160、去除神经网络分类模型中的分类器,将神经网络分类模型的其余模块作为特征提取器;
[0083]
s170、将语句训练文本输入训练后的神经网络分类模型中的特征提取器,获得训练语句对应的语句编码向量;
[0084]
s180、根据各个标签对应的所有语句编码向量的平均值获得每个标签对应的中心向量;以及
[0085]
s190、分别对同一标签的中心向量和每个语句编码向量进行归一化然后获得两者相似度,针对每个标签分别提取对应的相似度最高的w个语句编码向量对应的训练语句作为核心语句。
[0086]
在一个优选实施例中,步骤s110中,预设的文本预设标签包括:意图类别标签和/或情绪类别标签。
[0087]
在一个优选实施例中,步骤s120中,包括以下步骤:
[0088]
s121、对语句训练文本进行中文分词获得字词;
[0089]
s122、根据中文分词的结果建立字词到数字的索引字典;
[0090]
s123、根据索引字典将字词的文本序列转化为对应的原始数字序列;
[0091]
s124、将每句话的原始数字序列复制一次获得扩充数字序列。
[0092]
在一个优选实施例中,步骤s130中,神经网络分类模型为bert文本分类神经网络。
[0093]
在一个优选实施例中,步骤s140中,包括以下步骤:
[0094]
s141、使用bert文本分类神经网络预训练,直接传入两层全连接层,并且根据所述文本预设标签和模型预测的标签类别概率分布分别计算每一类标签的交叉熵损失值loss1:
[0095][0096]
其中,n为具有每类所述文本预设标签的训练语句的总量,m为所述文本预设标签的种类总量;
[0097]yij
是第j类标签下的第i个训练语句标签的模型预测标签属于哪种文本预设标签的第一矩阵,所述第一矩阵中与所述模型预测标签相同的所述文本预设标签对应的元素值为1,其余所述文本预设标签对应的元素值为0;
[0098]
p
ij
是第j类标签下的第i个训练语句标签的模型预测标签属于每类文本预设标签的各概率作为元素值的第二矩阵,所述第二矩阵中所有所述元素值的总和为1;
[0099]
s142、根据原始数字序列和扩充数字序列kl散度计算该类标签的损失值loss2:
[0100][0101]
其中,y1为原始数字序列对应的语句编码向量,y2为原始数字序列对应的语句编码向量;
[0102]
s143、获得该类标签的总损失值loss:
[0103]
loss=loss1 α
×
loss2;
[0104]
其中,α的取值范围是(0,5]。
[0105]
在一个优选实施例中,步骤s150中,使用adam优化算法进行迭代训练获得总损失最小时的神经网络分类模型作为训练后的神经网络分类模型。
[0106]
在一个优选实施例中,步骤s190中,包括以下步骤:
[0107]
s191、获得具有同一标签的中心向量和语句编码向量之间夹角的余弦值similarity:
[0108][0109]
其中,ai为具有同一标签的语句编码向量,bi为同一标签的中心向量;
[0110]
s192、对相似度进行自大到小进行排序;
[0111]
s193、提取排序靠前的f(x)个语句编码向量对应的训练语句作为标签的核心语句。
[0112]
优选地,步骤s190中,随着标签对应的训练语句的总数增大,则标签对应核心语句的数量占训练语句的总数的比例缩小,比例f(x)=w/x,并且
[0113][0114]
本发明提取核心句模型的运行,首先接收带有标签的语料数据,将文本向量化,输入到模型中,然后经过上述模型的计算,获得其中的核心语句。本发明的具体实施方式如下:
[0115]
(1)采集用户的几万条点评或聊天记录等数据,人工打上标签,标签为所需识别的意图,情绪,意图均可。以其作为训练数据,可以利用复制和随机采样的方式对训练数据进行重采样和欠采样。
[0116]
(2)对采样数据进行前期处理,处理过程包括分词、生成字词到数字的索引字典、根据索引字典将字词的文本序列转化为与其对应的数字序列,并将每句话的数字序列复制扩充一次,用于实现之后r-drop,r-drop将通过数据扩增所得到的结果是为正样本对,而在同一batch的多有其他样本视为负样本对;r-drop(regularized dropout)将“dropout两次”的思想用到了有监督任务中,每个实验结果几乎都取得了明显的提升。
[0117]
(3)将文本的数字序列转化为对应的字词向量矩阵,该向量矩阵分别输入bert做预训练。
[0118]
(4)使用bert文本分类神经网络预训练,直接传入两层全连接层,并且根据文本预
设标签和模型预测的标签类别概率分布分别计算每一类标签的交叉熵损失值loss1:
[0119][0120]
其中,n为具有文本预设标签的训练语句数量,yi为各类文本预设标签,为该类文本预设标签的训练语句获得的模型预测标签与文本预设标签相同的概率;
[0121]
根据原始数字序列和扩充数字序列kl散度计算该类标签的损失值loss2:
[0122][0123]
其中,y1为原始数字序列对应的语句编码向量,y2为原始数字序列对应的语句编码向量,相对熵(relative entropy),又被称为kullback-leibler散度(kullback-leibler divergence)或信息散度(information divergence),是两个概率分布(probability distribution)间差异的非对称性度量。在信息理论中,相对熵等价于两个概率分布的信息熵(shannon entropy)的差值。由于kl散度是现有的算法,此处不再赘述。
[0124]
获得该类标签的总损失值loss:
[0125]
loss=loss1 α
×
loss2;
[0126]
其中,α的取值范围是(0,5]。
[0127]
通过使用标记数据对模型进行预训练来获取意图特征信息。具体来说在交叉熵损失的监督下学习特征表示,通过loss2(对称kl散度)让相似的距离缩小,而负样本距离拉大,也就是说令几乎相同的语句的相似度更高,不相同的语句相似度更小,这就利于之后进行语句匹配。
[0128]
(5)使用adam(adaptive moment estimation)优化算法对loss极小化,不断迭代训练得到最终可以很好识别意图的分类模型。基于低阶矩的自适应估计的adam是一种基于一阶梯度的随机目标函数优化算法。
[0129]
(6)在预训练后,去掉分类器(softmax层),在后续过程中使用网络的其余部分作为特征提取器。
[0130]
(7)之后我们将所有语料带入(5)中的特征提取器中得到每一句的编码。
[0131]
(8)根据各个标签下的语句编码的平均值确定标签中心点。
[0132]
(9)计算标签下每一句话与中心点的相似度(点积)并做归一化处理,即为计算夹角余弦值:
[0133][0134]
其中,ai为具有同一标签的语句编码向量,bi为同一标签的中心向量;由于计算两个向量之间夹角余弦值是现有的算法,此处不再赘述。
[0135]
并以与中心点相似度排序,根据标签下语句的数量x,提取不同的核心句数量(标签下句子数目越大,核心句的数量占标签下句子比例越小),在实际使用中通过可自行调节核心句占比,对于计算量与模型效果之前进行考量,选择合适比例。例如通过如下公式来获得核心句数量
[0136][0137]
f(x)为该标签占比,x为其标签数目,上述不同分段的比例,可针对不同数据集进行超参数调优。在使用上述分段占比策略与统一10%占比效果比较如下表所示,以所有非核心句与每个标签下核心句的相似程度比较,若句子标签与核心句相似程度最高的标签相同则视为正确,反之错误,以此计算其准确率。在相同的测试环境下,使用现有技术的统一占比的提取核心句的语句匹配的准确率为92.31%,采用本发明的分段占比为93.05%,可见在采用分段占比后,提取核心句效果有所提升。
[0138]
在一个具体的提取核心句的实施场景下,其中,评价指标:以所有非核心句与每个标签下核心句的相似程度比较,若句子标签与核心句相似程度最高的标签相同则视为正确,反之错误。以此计算其准确率。
[0139]
数据:在产品标签数据集之中,共计有68485条句子,237个不同标签,其中标签下句子分布不均。问题反馈数据集,共计1000条句子,32个不同标签。产品标签数据集的提取核心句效果为93.05%,问题反馈数据集的提取核心句效果为99.88%。
[0140]
应用场景:现在比较在去除冗余数据前后,语句匹配的效果。以语句匹配的准确率,所耗时间为其评价指标。核心句匹配的语句匹配效果的准确率为94.89%,耗时67.5s;所有语料匹配的语句匹配效果的准确率为95.54%,耗时1675s。其中核心句数量为2903句,语料原有数据量为68485句,可以看出在通过本发明的提取核心句后进行语句匹配效果差距不大,但是耗时大幅度缩短。
[0141]
图2是本发明的分类标签的核心语句提取系统的模块示意图。如图2所示,本发明的分类标签的核心语句提取系统5包括:
[0142]
样本提供模块51,提供语句训练文本,语句训练文本中的每个训练语句具有至少一文本预设标签;
[0143]
数字序列模块52,对语句训练文本进行中文分词获得字词,根据预设索引字典将训练语句中字词的文本依次转化为对应的数字,获得训练语句的数字序列并复制扩充一次;
[0144]
网络预训练模块53,将数字序列转化为对应的字词向量矩阵,该向量矩阵分别输入神经网络分类模型进行预训练,获得训练语句的语句编码向量;
[0145]
总损失计算模块54,通过神经网络分类模型来获取训练语句的模型预测标签,根据文本预设标签和模型预测标签的标签类别概率分布获得交叉熵损失和两个相同语句的kl散度计算损失,根据交叉熵损失和kl散度计算损失获得总损失;
[0146]
迭代训练模块55,经过迭代训练获得总损失最小时的神经网络分类模型作为训练后的神经网络分类模型;
[0147]
特征提取模块56,去除神经网络分类模型中的分类器,将神经网络分类模型的其余模块作为特征提取器;
[0148]
语句编码模块57,将语句训练文本输入训练后的神经网络分类模型中的特征提取器,获得训练语句对应的语句编码向量;
[0149]
中心向量模块58,根据各个标签对应的所有语句编码向量的平均值获得每个标签对应的中心向量;以及
[0150]
核心语句模块59,分别对同一标签的中心向量和每个语句编码向量进行归一化然后获得两者相似度,针对每个标签分别提取对应的相似度最高的f(x)个语句编码向量对应的训练语句作为核心语句。
[0151]
本发明的分类标签的核心语句提取系统能够通过深度学习的方式去除了部分冗余数据,大幅提升神经网络分类模型中选取核心语句的准确性,大幅度降低模型计算成本。
[0152]
上述实施例仅为本发明的优选例,并不用来限制本发明,凡在本发明的原则之内,所做的任何等同替代、修改和变化,均在本发明的保护范围之内。
[0153]
本发明实施例还提供一种分类标签的核心语句提取设备,包括处理器。存储器,其中存储有处理器的可执行指令。其中,处理器配置为经由执行可执行指令来执行的分类标签的核心语句提取方法的步骤。
[0154]
如上所示,该实施例本发明的分类标签的核心语句提取系统能够通过深度学习的方式去除了部分冗余数据,大幅提升神经网络分类模型中选取核心语句的准确性,大幅度降低模型计算成本。
[0155]
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
[0156]
图3是本发明的分类标签的核心语句提取设备的结构示意图。下面参照图3来描述根据本发明的这种实施方式的电子设备600。图3显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
[0157]
如图3所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
[0158]
其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元610可以执行如图1中所示的步骤。
[0159]
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(ram)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(rom)6203。
[0160]
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
[0161]
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
[0162]
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调
器等等)通信。这种通信可以通过输入/输出(i/o)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(lan),广域网(wan)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、raid系统、磁带驱动器以及数据备份存储平台等。
[0163]
本发明实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现的分类标签的核心语句提取方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。
[0164]
如上所示,该实施例本发明的分类标签的核心语句提取系统能够通过深度学习的方式去除了部分冗余数据,大幅提升神经网络分类模型中选取核心语句的准确性,大幅度降低模型计算成本。
[0165]
图4是本发明的计算机可读存储介质的结构示意图。参考图4所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(cd-rom)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
[0166]
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。
[0167]
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、rf等等,或者上述的任意合适的组合。
[0168]
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如java、c 等,还包括常规的过程式程序设计语言—诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(lan)或广域网(wan),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
[0169]
综上,本发明的目的在于提供分类标签的核心语句提取方法、系统、设备及存储介质,能够通过深度学习的方式去除了部分冗余数据,大幅提升神经网络分类模型中选取核心语句的准确性,大幅度降低模型计算成本。
[0170]
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献