一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于自监督学习的无监督机器阅读理解训练方法与流程

2021-11-10 04:09:00 来源:中国专利 TAG:


1.本发明涉及一种机器阅读理解模型训练方法,特别是一种基于自监督学习的无监督机器阅读理解模型训练方法,属于自然语言处理技术领域。


背景技术:

2.机器阅读理解技术是指给定一个文本段落和一个相关的问题,利用机器学习的方法训练模型,使模型能够从文本段落中提取问题的答案。
3.机器阅读理解技术是构建智能信息服务的支撑技术之一。互联网文本数据包含着大量的信息和知识,但是这些数据以非结构化的方式储存。以信息检索为主的传统信息获取技术难以满足用户精细化和多样化的信息需求。以机器阅读理解为核心构建的自动问答系统为解决用户的精细化信息需求提供了有效手段。
4.机器阅读理解模型往往依赖大量人工标注的训练数据进行训练,难以直接应用于新的领域和低资源语言。现有的预训练语言模型并非为阅读理解任务所设计,预训练语言模型关注的上下文相关词预测能力与阅读理解所需的答案提取能力之间存在能力偏差。现有的基于合成数据的无监督机器阅读理解方法难以生成高质量的阅读理解数据,使用这些合成数据训练的机器阅读理解模型难以满足真实应用场景对性能和鲁棒性的要求。
5.自监督学习是指通过设计自监督训练任务,利用无标注数据本身的信息训练模型,使模型具备特定能力的技术。


技术实现要素:

6.为更有效地训练无监督机器阅读理解模型,本发明提供了一种基于自监督学习的无监督机器阅读理解训练方法。
7.内容包括:(一)针对机器阅读理解的自监督学习任务及其训练方法;(二)用于无监督阅读理解模型的问句转换方法。针对机器阅读理解的自监督学习任务能够利用语料库自身的信息,直接学习机器阅读理解所需的能力。用于无监督阅读理解模型的问句转换方法与自监督学习相配合,解决无标注语料中的陈述句与阅读理解任务中的问句之间句法不一致的问题。
8.本发明所采用的技术方案概述如下:
9.一种基于自监督学习的无监督机器阅读理解训练方法,包括以下部分:
10.1)自监督学习任务的设定和训练:输入语料库中的每个自然语言文本段落,自监督学习任务首先寻找段落中重复出现的有意义的词或词组,并将其中的一个词或词组替换为设定的[mask]符号(通常设定为特殊的字符,与一般英语单词不同);然后利用统计信息对替换后的段落进行筛选;最后训练机器阅读理解模型根据段落中[mask]符号的上下文信息,从替换后的段落中定位一个连续的字符串(通过预测字符串的起止位置),填补段落中的[mask]位置。
[0011]
2)面向无监督机器阅读理解的问句转换方法:在模型测试和应用阶段,在将阅读
理解任务中的问句输入经过上述训练的机器阅读理解模型之前,将问句转换为带有[mask]符号的陈述句,从而保持模型训练阶段和测试(应用)阶段输入数据形式的一致性;在这一阶段的转换中,寻找问句中出现的疑问词,将疑问词替换为[mask];再将转换后所得陈述句输入模型中,获取答案。
[0012]
进一步地,技术1)部分选取的有意义的词或词组是指满足以下条件的字符串:(1)该字符串在文本段落中出现次数t满足2≤t≤4;(2)该字符串不包括停止词和标点符号;(3)该字符串的长度不大于5个词。通过该约束条件,使得被替换成[mask]的词或词组包含更多的信息,从而有利于训练机器阅读理解模型。
[0013]
进一步地,技术1)部分所涉及的数据筛选部分包括定义自监督数据的打分函数:
[0014]
(1)score
pass
:计算段落中所有词的tf

idf值之和。
[0015]
(2)score
mask
:计算被替换的词组中所有词的tf

idf值之和。
[0016]
(3)score
ans
:计算[mask]的上下文词序列与答案位置上下文词序列之间的tf

idf相似度。
[0017]
数据的打分为上述三个分数的加权和,即
[0018]
score=score
pass
αscore
mask
βscore
ans
[0019]
其中α和β为超参数。综合利用三个打分函数对数据进行排序,能够进一步选择有利于训练阅读理解模型的数据。
[0020]
进一步地,技术1)部分还包括一个迭代数据筛选机制。迭代数据筛选机制利用在一部分自监督数据(上述筛选后的若干段落)上训练得到的模型,对剩余的数据进行打分,去除分数低于某一设定阈值的自监督数据,利用剩余的自监督数据进行下一个迭代轮次的训练。该迭代数据筛选机制能够在模型迭代训练的过程中对数据进行进一步的筛选,以保证最终用于训练阅读理解模型的数据的质量。
[0021]
进一步地,技术2)部分使用基于模板的问句转换算法,将问句中的疑问代词替换为带有[mask]字符的模板,从而将问句转换为陈述句。该问句转换方法能够有效解决问答情境下的问句与模型训练情境下的陈述句之间的句法结构不一致的问题。
[0022]
与现有技术相比,本发明的有益效果是:
[0023]
1)提出了针对机器阅读理解的自监督学习任务及其训练方法,能够利用语料库自身的信息,直接学习机器阅读理解所需的能力,而不需要任何人工标注的阅读理解数据,也不需要利用启发式规则人工合成训练数据。
[0024]
2)提出了用于无监督阅读理解模型的问句转换方法,能够有效解决无标注语料中的陈述句与阅读理解任务中的问句之间的句法不一致问题,提高了阅读理解模型的鲁棒性。
附图说明
[0025]
图1为针对机器阅读理解的自监督学习训练方法流程图。
[0026]
图2为模型测试时,将阅读理解任务中的问句转换为带有[mask]符号的陈述句的示意图。
具体实施方式
[0027]
为使本发明的上述目的、特征和优点能够更加明显易懂,下面对本发明做进一步详细说明。
[0028]
本发明包括一种基于自监督学习的无监督机器阅读理解训练方法,包括两个关键部分:
[0029]
1)自监督学习任务的设定和训练:输入语料库中的每个自然语言文本段落,自监督学习任务首先寻找段落中重复出现的有意义的词或词组,并将其中的一个词或词组替换为设定的[mask]符号;然后利用统计信息对替换后的段落进行筛选;最后训练机器阅读理解模型根据段落中[mask]符号的上下文信息,从替换后的段落中定位一个连续的字符串(通过预测字符串的起止位置),填补段落中的[mask]位置。
[0030]
2)面向无监督机器阅读理解的问句转换方法:在模型测试和应用阶段,在将阅读理解任务中的问句输入经过上述训练的机器阅读理解模型之前,将问句转换为带有[mask]符号的陈述句,从而保持模型训练阶段和测试(应用)阶段输入数据形式的一致性。
[0031]
自监督学习任务:
[0032]
具体地,本发明设计的针对机器阅读理解的自监督任务可形式化地表示为
[0033][0034]
给定一个带有[mask]字符的文本段落p
mask
,自监督任务要求机器阅读理解模型在该段落中预测一个字符串的开始和结束位置[i
start
,i
end
],这个字符串可以填充[mask]字符的内容。
[0035]
例如,在图1所示的文本段落中,第二个“vitamin d”被替换为[mask]字符,自监督任务要求机器阅读理解系统预测第一个“vitamin d”的起止位置,利用第一个“vitamin d”填充这个[mask]位置。
[0036]
与现有的预训练语言模型不同,该自监督任务将填补[mask]字符的方式限制为段落中的一个连续字符串。通过该自监督任务的训练,机器阅读理解模型能够自动学习挖掘文本段落中句子之间深层关联关系的能力,以及准确地从段落中提取所需的字符串的能力,这是机器阅读理解所需的核心能力。
[0037]
为了更有效地进行自监督学习训练,被替换为[mask]字符的部分应该是有意义的词组,具有足够的信息量。为此,首先寻找在文本段落中出现两次的字符串,并选取需要满足以下条件的字符串:
[0038]
(1)该字符串在文本段落中出现次数t满足2≤t≤4,因为频率过高的字符串往往是信息量低的;
[0039]
(2)该字符串不包括停止词和标点符号,因为停止词和标点符号通常不会出现在问题的简短答案中;
[0040]
(3)该字符串的长度不大于5个词,因为过长的字符串的上下文能够提供的信息较少。
[0041]
自监督学习使用交叉熵损失函数训练机器阅读理解模型。给定一个p
mask
,训练目标是最大化正确的起止位置的对数概率。具体地,训练目标函数为
[0042][0043]
其中和表示机器阅读理解模型输出的起止位置的概率,j是训练数据的编号,n是训练数据总数。
[0044]
数据排序筛选:
[0045]
使用一个数据排序筛选机制去除自监督学习数据中过于容易预测的低质量数据。该数据排序机制使用基于tf

idf的数据打分函数,包含三个部分:
[0046]
(1)score
pass
:为了评估文本段落的质量,排除无意义的段落,计算段落中所有词的tf

idf值之和。
[0047]
(2)score
mask
:为了评估被替换为[mask]字符的词组的信息量,避免替换过于简单的、无意义的词组,计算被替换的词组中所有词的tf

idf值之和。
[0048]
(3)score
ans
:为了在存在多个答案位置的情况中选取更好的答案位置,计算[mask]的上下文词序列与答案位置上下文词序列之间的tf

idf相似度,上下文为大小为10个词的窗口。两个句子(词语序列)之间可以利用各个词的tf

idf数值计算相似度。
[0049]
数据的打分为上述三个分数的加权和,即
[0050]
score=score
pass
αscore
mask
βscore
ans
[0051]
其中α和β为超参数。
[0052]
根据该分数对所有自监督数据由大到小进行排序,取分数最高的前n条数据进行自监督学习。
[0053]
通过数据排序机制,机器阅读理解模型能够利用更高质量的段落进行更有效的学习。
[0054]
迭代数据筛选:
[0055]
在自监督数据中,并非所有的数据中的[mask]字符都是可预测的,而这与阅读理解任务的设定不一致。为了减少这类不可预测的数据,使用了一个迭代数据筛选机制,以滤除预测概率低的自监督数据。
[0056]
具体地,自监督数据首先被划分为5组。首先使用一组数据训练机器阅读理解模型,然后利用训练后的模型计算下一组各个数据的预测概率,去除概率小于某一设定阈值τ的数据。再利用剩余的数据继续训练机器阅读理解模型。重复上述过程,直到5组数据都被用于训练。
[0057]
为计算数据的预测概率,首先利用模型计算文本段落中各个单词位置为开始和结束位置的概率,则一个子字符串的概率为其头尾的开始/结束概率的乘积。取子字符串概率最高的20个子字符串,对其概率进行softmax归一化,数据的预测概率则为其中正确答案字符串的归一化概率,如果正确答案没有包含在概率最高的20个子字符串中,则数据的预测概率为0。
[0058]
机器阅读理解模型:
[0059]
本发明中的机器阅读理解模型可采取多种不同结构的模型,包括但不限于基于bert(bidirectional encoder representations from transformers)等预训练语言模型
的机器阅读理解模型。
[0060]
问句转换:
[0061]
在模型测试和实际使用阶段,为了解决无标注语料中的陈述句与阅读理解任务中的问句之间存在句法不一致问题,需要将问句转换为带有[mask]符号的陈述句。具体地,如图2所示,在问题输入机器阅读理解模型之前,首先使用基于模板的问句转换算法,将问句中的疑问代词替换为带有[mask]字符的模板,从而将问句转换为陈述句。随后,机器阅读理解模型根据转换后的陈述句,从给定的文本段落中抽取问题的答案。
[0062]
以上实施例仅用于说明本发明的技术方案而非对其进行限制,本领域的普通技术人员可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明的原理和范围,本发明的保护范围应以权利要求书所述为准。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献