一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

文章标题生成方法、装置、存储介质及电子设备

2022-12-07 16:58:13 来源:中国专利 TAG:


1.本发明涉及文本处理技术领域,具体涉及一种文章标题生成方法、装置、存储介质及电子设备。


背景技术:

2.标题和摘要对于文章的创作是非常重要的,但构思一个具有吸引力且贴近文章内容的标题和从文章中抽取或生成符合文章主旨的摘要并非易事。目标摘要生成需要将初始的长文章进行压缩、归纳和总结,从而形成短小精悍且具有概括性含义的短篇文本。文章标题生成需要在摘要生成的基础上,进一步精炼,并搭配适当的风格。
3.传统的人工阅读并总结的方式效率较低,且受作者主观性影响较大,可能会由于作者的主观因素导致误判,因此生成的文本标题和摘要常常不够准确。在自然语言处理领域内,目前主流的标题自动生成和摘要自动生成方法可分为抽取式和生成式。抽取式是从原文中抽取关键的句子组成摘要,该方法存在丢失信息的风险;生成式则是在理解原文的基础上进行语言的重新组织表达,该方法难以保证生成摘要或标题的通顺度且如果原文章长度过长,生成的效果也会难以保障。


技术实现要素:

4.本发明的目的在于提出一种文章标题生成方法、装置、存储介质及电子设备,以提高文章标题生成的精确度。
5.本发明提供一种文章标题生成方法,包括以下步骤:根据文本摘要算法从目标文章中提取目标摘要;基于预训练的标题生成模型和所述目标摘要,生成第一候选文章标题;基于所述标题生成模型和所述目标文章,生成第二候选文章标题;计算所述第一候选文章标题和所述第二候选文章标题的标题匹配度,根据所述标题匹配度从所述第一候选文章标题中确定目标文章标题;所述标题生成模型的训练方法包括以下步骤:获取训练用的原始文本集,所述原始文本集包括原始文章和原始标题;对所述原始文本集进行预处理,得到格式规范的输入数据,所述预处理为将所述原始文本集的格式统一化处理;将预处理后的输入数据向改良后的gpt-2模型输入并进行训练,所述改良后的gpt-2模型为在gpt-2模型的下游增加fc层,得到预训练的标题生成模型。
6.根据本发明提出的文章标题生成方法,具有以下有益效果:本发明采用标题生成模型和目标摘要生成第一候选文章标题,采用标题生成模型和目标文章生成第二候选文章标题,将目标摘要生成的第一候选文章标题和目标文章生成的第二候选文章标题进行匹配计算,根据匹配计算结果从第一候选文章标题中得到贴合目标文章内容的标题作为目标文章标题,从而提高文章标题生成的精确度。
7.另外,根据本发明提供的文章标题生成方法,还可以具有如下附加的技术特征:进一步地,计算所述第一候选文章标题和所述第二候选文章标题的标题匹配度,根据所述标题匹配度从所述第一候选文章标题中确定目标文章标题的步骤包括:计算所述第一候选文章标题和所述第二候选文章标题的标题匹配度,将与所述第二候选文章标题匹配度最高的所述第一候选文章标题作为目标文章标题。
8.进一步地,计算所述第一候选文章标题和所述第二候选文章标题的标题匹配度,根据所述标题匹配度从所述第一候选文章标题中确定目标文章标题的步骤包括:计算所述第一候选文章标题和所述第二候选文章标题的标题匹配度,以及计算所述第一候选文章标题的标题通顺度;根据所述标题匹配度和所述标题通顺度确定所述第一候选文章标题的目标文章标题。
9.进一步地,将预处理后的输入数据向改良后的gpt-2模型输入并进行训练,得到预训练的标题生成模型的步骤包括:向改良后的gpt-2模型中输入所述输入数据,所述改良后的gpt-2模型输出每个预测的token值,根据所述预测的token值和原始token值计算所述改良后的gpt-2模型的损失值,根据所述损失值不断优化所述改良后的gpt-2模型,得到预训练的标题生成模型。
10.进一步地,所述根据文本摘要算法从目标文章中提取目标摘要的步骤包括:计算目标文章的总字符长度和句子数量,根据所述目标文章的总字符长度和所述句子数量计算摘要长度;使用textrank算法计算所述目标文章中每句话占整篇所述目标文章的权重,按照权重顺序降序排序,根据所述权重顺序和所述摘要长度选取目标句子,再根据所述目标句子在所述目标文章中的顺序拼接成目标摘要。
11.进一步地,所述基于所述标题生成模型和所述目标文章,生成第二候选文章标题的步骤为:向预训练的标题生成模型中导入目标文章,得到预测标题列表;对所述预测标题列表中的各个预测标题通过kenlm计算困惑度,将各个所述预测标题的困惑度升序排序,将所述预测标题困惑度小于预设困惑度的所述预测标题作为第二候选文章标题。
12.本发明还提供一种文章标题生成装置,所述装置包括:提取模块,用于根据文本摘要算法从目标文章中提取目标摘要;第一生成模块,用于基于预训练的标题生成模型和所述目标摘要,生成第一候选文章标题;第二生成模块,用于基于所述标题生成模型和所述目标文章,生成第二候选文章标题;计算模块,用于计算所述第一候选文章标题和所述第二候选文章标题的标题匹配度,根据所述标题匹配度从所述第一候选文章标题中确定目标文章标题;所述标题生成模型的训练方法包括以下步骤:获取训练用的原始文本集,所述原始文本集包括原始文章和原始标题;对所述原始文本集进行预处理,得到格式规范的输入数据,所述预处理为将所述
原始文本集的格式统一化处理;将预处理后的输入数据向改良后的gpt-2模型输入并进行训练,所述改良后的gpt-2模型为在gpt-2模型的下游增加fc层,得到预训练的标题生成模型。
13.本发明还提供一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上所述的文章标题生成方法。
14.本发明还提供一种电子设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的文章标题生成方法。
15.本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
16.本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:图1是本发明的第一实施例的文章标题生成方法的流程图;图2是本发明的第二实施例的文章标题生成方法的流程图;图3是本发明的第三实施例的文章标题生成装置的结构框图;附图标号:10、提取模块;20、第一生成模块;30、第二生成模块;40、计算模块。
具体实施方式
17.为使本发明的目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。附图中给出了本发明的若干实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
18.请参照图1和图3所示,本发明的第一实施例提供一种文章标题生成方法,包括步骤s101~s104:步骤s101、根据文本摘要算法从目标文章中提取目标摘要;目标文章即为将要采用本发明的方法自动生成标题的被测文章,将被测的目标文章,通过现有的文本摘要算法,包括但不限于textrank算法、哈希算法、md5算法等,得到目标文章对应的目标摘要,在本发明的实施例中,优选textrank算法。
19.textrank算法是现有的一种文本排序算法,它能够从一个给定的文本中提取出该文本的关键词、关键词组,并使用抽取式的自动文摘方法提取出该文本的关键句。
20.textrank算法根据词之间的共现关系构造网络;textrank算法构造的网络中的边是无向有权边。通过textrank算法可得到两个节点之间的边连接具有的重要程度,从而可以通过排序得到包含信息较为重要的句子,在将得到的重要句子在原来的文中的顺序拼接成摘要。
21.在本实施例中,上述步骤s101,根据文本摘要算法从目标文章中提取目标摘要的步骤具体包括:
步骤s1011、计算目标文章的总字符长度和句子数量,根据所述目标文章的总字符长度和所述句子数量计算摘要长度;例如,如果文章的长度小于标题生成模型的输入(512字符),对文章不做处理,直接作为目标摘要,否则使用textrank算法,计算出文章中的每句话对整篇文章的权重(贡献),在保证取出的子句的长度相加不超过512的前提下,按照权重排序,并按照子句在原来文章中的顺序拼接成目标摘要。
22.步骤s1012、使用textrank算法计算所述目标文章中每句话占整篇所述目标文章的权重,按照权重顺序降序排序,根据所述权重顺序和所述摘要长度选取目标句子,再根据所述目标句子在所述目标文章中的顺序拼接成目标摘要。
23.具体的,依据textrank算法对文章根据词之间的共现关系构造网络,从中得到最重要的t个单词,作为top-t关键词;对于得到的top-t关键词,在原始文章中进行标记,并提取关键词组;迭代计算句子中每个关键词的textrank值,计算出文章中每句话的textrank值,并排序,按降序取出适当长度的句子(总字数限制在512以下),并按文章中出现的顺序重新排序,得到文章摘要。
24.通过在数据预处理过程中加入textrank-rouge算法,本方法可以降低文本输入到模型中的特征损失,最大程度的保证文本信息的完整性,且降低了后续计算中对显存的需求,从而在提高文章摘要生成的准确性的同时降低了计算成本。
25.步骤s102、基于预训练的标题生成模型和所述目标摘要,生成第一候选文章标题;基于预训练的标题生成模型,该标题生成模型可以为目前现有的标题生成模型,也可以为在基于现有标题生成模型进行改良后的标题模型,在本发明中优选为改良后的gpt-2 (generative pre-training,生成性预训练)模型,将步骤s101得到的目标摘要作为模型的输入,为该目标摘要输出一个精炼的句子作为标题。
26.在本实施例中,所述步骤s102中的标题生成模型的训练方法包括以下步骤:步骤s1021、获取训练用的原始文本集,所述原始文本集包括原始文章和原始标题;训练前,将原始文本集划分为训练集和验证集,训练集用于训练模型,验证集用于验证模型。
27.步骤s1022、对所述原始文本集进行预处理,得到格式规范的输入数据,所述预处理为将所述原始文本集的格式统一化处理;具体的,预处理包括字符编码标准化,英文大小写字母统一化,中文繁简字统一化,删除特殊符号和空格。通过正则表达式,将文章中的html的标签、例如“/n”、" nbsp"、“/s”等特殊符号和连续的多余空格删除,得到格式统一规范的输入数据。
28.步骤s1023、将预处理后的输入数据向改良后的gpt-2模型输入并进行训练,所述改良后的gpt-2模型为在gpt-2模型的下游增加fc层,得到预训练的标题生成模型。
29.具体的,将文本转换为模型的输入,输入为 wordembedding segmentembedding positionembedding,三个编码拼凑到一起,形成一个(n,3,512)的张量。
30.在gpt-2模型的下游增加了一个fc层,将gpt-2模型最后一层的输出放大到词典的大小,然后根据模型的fc的输出基于mask机制的原理预测出每个token值,并计算title的token与原来token的损失值;迭代以上操作,保存每次迭代的模型,最后选择在验证集上表
现最好的一个批次。
31.通过在训练过程中使用改进的gpt-2模型,文章生成的标题并与摘要生成的标题进行匹配,本方法可以提高模型训练的效率并提高标题生成的精确度;步骤s103、基于所述标题生成模型和所述目标文章,生成第二候选文章标题;步骤s102和步骤s103的标题生成模型为同一模型,将目标文章输入到标题生成模型中,输出第二候选文章标题。
32.在本实施例中,上述步骤s103具体包括:步骤s1031、向预训练的标题生成模型中导入目标文章,得到预测标题列表;步骤s1032、对所述预测标题列表中的各个预测标题通过kenlm计算困惑度,将各个所述预测标题的困惑度升序排序,将所述预测标题困惑度小于预设困惑度的所述预测标题作为第二候选文章标题。
33.kenlm是一个c 编写统计语言模型工具。
34.s 表示当前句子;n 表示句子长度;p(ωi) 表示第i个词的概率,p(ωi|ω1ω2ω3…
ω
i-1
) 表示基于前i-1个词,计算得出第i个词的概率, pp(s)代表句子的困惑度,也就是句子的通顺度。困惑度越低,句子越流畅。
35.在本步骤中,通过使用kenlm工具计算预测标题的困惑度,选择困惑度较低,也即将预测标题比较流畅的作为第二候选文章标题,从而保证目标文章标题的通顺度。
36.步骤s104、计算所述第一候选文章标题和所述第二候选文章标题的标题匹配度,根据标题匹配度从所述第一候选文章标题中确定目标文章标题。
37.将第一候选文章标题中的各个文章标题和第二候选文章标题进行标题匹配度计算,分别计算得到rouge-1、rouge-2和rouge-l的分数,将所有分数相加得到最终的匹配度得分。
38.rouge是现有基于摘要中n元词(n-gram)的共现信息来评价摘要,是一种面向n元词召回率的评价方法。rouge准则由一系列的评价方法组成,包括rouge-n(n是n-gram中n,取值有1,2,3,4),rouge-l等。
39.在本实施例中,步骤s104具体包括:计算所述第一候选文章标题和所述第二候选文章标题的标题匹配度,将与所述第二候选文章标题匹配度最高的所述第一候选文章标题作为目标文章标题。
40.本发明将匹配度得分最高,即将最贴合目标文章内容的标题作为目标文章标题,从而提高文章标题生成的精确度。
41.请参照图2所示,本发明的第二实施例提供一种文章标题生成方法,包括以下步
骤:步骤s201、根据文本摘要算法从目标文章中提取目标摘要;步骤s202、基于预训练的标题生成模型和所述目标摘要,生成第一候选文章标题;步骤s203、基于所述标题生成模型和所述目标文章,生成第二候选文章标题;步骤s204、计算所述第一候选文章标题和所述第二候选文章标题的标题匹配度,以及计算所述第一候选文章标题的标题通顺度;步骤s205、根据所述标题匹配度和所述标题通顺度确定所述第一候选文章标题的目标文章标题;所述标题生成模型的训练方法包括以下步骤:获取训练用的原始文本集,所述原始文本集包括原始文章和原始标题;对所述原始文本集进行预处理,得到格式规范的输入数据,所述预处理为将所述原始文本集的格式统一化处理;将预处理后的输入数据向改良后的gpt-2模型输入并进行训练,所述改良后的gpt-2模型为在gpt-2模型的下游增加fc层,得到预训练的标题生成模型。
42.其中model_score表示最终的匹配度总分数,pp(s)为句子困惑度得分,score为综合得分,将综合得分最高的第一候选文章标题确定为目标文章标题。
43.本发明第二实施例的步骤s201~步骤s203与第一实施例中的步骤s101~步骤s103的技术方案相同,不同点为本发明的第二实施例计算了第一候选文章标题的通顺度,根据标题匹配度和标题通顺度综合考虑后确定最终的目标文章标题,使最终得到的目标文章标题既保证精确度,又保证了通顺度,通顺度采用上述步骤s1032的kenlm计算。
44.请参照图3所示,本发明的第三实施例提供一种文章标题生成装置,所述装置包括:提取模块10,用于根据文本摘要算法从目标文章中提取目标摘要;第一生成模块20,用于基于预训练的标题生成模型和所述目标摘要,生成第一候选文章标题;第二生成模块30,用于基于所述标题生成模型和所述目标文章,生成第二候选文章标题;计算模块40,用于计算所述第一候选文章标题和所述第二候选文章标题的标题匹配度,根据所述标题匹配度从所述第一候选文章标题中确定目标文章标题。
45.在本发明的实施例中,所述计算模块40具体包括:计算所述第一候选文章标题和所述第二候选文章标题的标题匹配度,将与所述第二候选文章标题匹配度最高的所述第一候选文章标题作为目标文章标题。
46.在本发明的另一实施例中,所述计算模块40包括:计算所述第一候选文章标题和所述第二候选文章标题的标题匹配度,以及计算所述第一候选文章标题的标题通顺度;根据所述标题匹配度和所述标题通顺度确定所述第一候选文章标题的目标文章标题。
47.在本发明的实施例中,所述提取模块10包括:计算目标文章的总字符长度和句子数量,根据所述目标文章的总字符长度和所述句子数量计算摘要长度;使用textrank算法计算所述目标文章中每句话占整篇所述目标文章的权重,按照权重顺序降序排序,根据所述权重顺序和所述摘要长度选取目标句子,再根据所述目标句子在所述目标文章中的顺序拼接成目标摘要。
48.在本发明的实施例中,所述第二生成模块30包括:向预训练的标题生成模型中导入目标文章,得到预测标题列表;对所述预测标题列表中的各个预测标题通过kenlm计算困惑度,将各个所述预测标题的困惑度升序排序,将所述预测标题困惑度小于预设困惑度的所述预测标题作为第二候选文章标题。
49.本发明提供的一种文章标题生成方法,本发明采用标题生成模型和目标摘要生成第一候选文章标题,采用标题生成模型和目标文章生成第二候选文章标题,将目标摘要生成的第一候选文章标题和目标文章生成的第二候选文章标题进行匹配计算,根据匹配计算结果从第一候选文章标题中得到贴合目标文章内容的标题作为目标文章标题,从而提高文章标题生成的精确度。
50.在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通讯、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。
51.计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(ram),只读存储器(rom),可擦除可编辑只读存储器(eprom或闪速存储器),光纤装置,以及便携式光盘只读存储器(cdrom)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
52.应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(pga),现场可编程门阵列(fpga)等。
53.在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、
ꢀ“
示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何
的一个或多个实施例或示例中以合适的方式结合。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献