一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于知识映射的事件关系抽取、语篇关系分析方法及装置与流程

2021-10-24 04:28:00 来源:中国专利 TAG:关系 抽取 事件 方法 自然语言


1.本发明涉及一种事件关系抽取方法,特别是涉及一种基于知识映射的事件关系抽取、语篇关系分析方法及装置,属于自然语言处理技术领域。


背景技术:

2.以事件为核心的知识图谱结构化地存储事件以及事件之间的关系,是机器智能理解的关键技术,并广泛应用在诸如自动问答,阅读理解,常识知识获取等下游任务中。
3.近年来,半自动构建的以事件为核心的知识图谱受到了研究人员的广泛关注。这类方法能够在少量或者没有人为干预的情况下从海量的自然语言文本中构建出大规模的事件知识图谱。通常,知识图谱中的每一个节点表示一个结构化的事件,每一条连边表示一个事件对存在的关系,并且事件关系的抽取十分依赖显式的连接词。例如,如图1所示,事件e2:“per orders two hamburgers”与事件e3:“per is so hungry”之间由于存在连接词“because”才能抽取出事件关系reason。
4.然而,基于连接词的事件关系抽取方法面临着覆盖率过低的问题。大量有价值的事件关系因为没有显式的连接词而没有被抽取。本发明将其称为“隐式事件关系”。如图1所示,事件e1:“per goes to the restaurant”与事件e3:“per is so hungry”之间的隐式事件关系reason由于缺少显式连接词而被遗漏。同时,由于高质量的事件关系抽取数据的缺少,很难利用监督学习从零开始训练一个有效的事件关系分类器。


技术实现要素:

5.为解决上述问题,本发明公开了一种基于知识映射的事件关系抽取、语篇关系分析方法及装置,利用字词表示级别的知识映射模块、语义表示级别的知识映射模块及粗粒度分类级别的知识映射模块,发现大量有价值的隐式事件关系,有效地提升下游自然语言理解任务性能。
6.为达到上述目的,本发明采用具体技术方案是:
7.一种基于知识映射的事件关系抽取方法,其步骤包括:
8.1)基于语言模型,挖掘事件文本中存在相似的词法与句法结构,得到特殊字词[cls]的嵌入表示h
[cls]

[0009]
2)基于变分自编码的语义表示编码器,获取事件文本中可类推的语义关系表示h
z

[0010]
3)根据嵌入表示h
[cls]
与语义关系表示h
z
进行粗粒度关系分类,并获得粗粒度类别嵌入表示
[0011]
4)利用嵌入表示h
[cls]
、语义关系表示h
z
及粗粒度类别嵌入表示对事件文本中事件对的关系类别进行分类,得到事件关系抽取结果。
[0012]
进一步地,所述语言模型包括:bert模型。
[0013]
进一步地,通过以下步骤得到事件对中特殊字词[cls]的嵌入表示h
[cls]

[0014]
1)对于文本中的事件关系对<e1,e2>,序列化地表示为其中特殊字词[cls]是事件关系对的开始标记,特殊字词[sep]是事件关系对中每一个事件的结束标记,e是事件关系对中出现的自然语言字符;
[0015]
2)对序列中的每一自然语言字符e,将获取的词向量、分割向量及位置向量拼接在一起,得到各字词的初始字词表示向量;
[0016]
3)利用各字词的初始字词表示向量,获取序列表示向量;
[0017]
4)将序列表示向量输入语言模型,得到特殊字词[cls]的嵌入表示h
[cls]

[0018]
进一步地,通过以下步骤获取事件文本中可类推的语义关系表示h
z

[0019]
1)通过独立的关系嵌入表示网络获得输出端的关系嵌入表示h
y

[0020]
2)通过一个非线性的变换层,将嵌入表示h
[cls]
与关系嵌入表示h
y
映射到一个公共的语义表示空间,得到在同一空间的语义表示h

z
=tanh(w
z
[h
[cls]
;h
y
] b
z
),其中w为可学习的参数矩阵,b为可学习的偏置项;
[0021]
3)通过线性回归方法,分别得到第一高斯语义表示参数μ=w
μ
h

z
b
μ
与第二高斯语义表示参数log(σ2)=w
σ
h

z
b
σ

[0022]
4)通过重参数的方法,获得最终的语义关系表示h
z
=μ σ

∈,其中∈是服从标准高斯分布的噪声。
[0023]
进一步地,粗粒度关系分类的标准包括:时序关系、应变关系、比较关系和阐述关系。
[0024]
进一步地,通过以下步骤得到粗粒度类别嵌入表示
[0025]
1)获取粗粒度分类结果y
c

[0026]
2)将粗粒度分类结果y
c
输入粗粒度关系嵌入网络,获得粗粒度类别嵌入表示其中粗粒度关系嵌入网络接受一个具体的关系,通过一个映射矩阵得到该关系对应的稠密向量表示。
[0027]
进一步地,利用一分类器,对事件文本中事件对的关系类别进行分类,其中训练分类器的目标函数l(θ)=α(l(θ;y) λkl(p||q)) (1

α(l(θ;y
c
)),λ与α分别是两个超参数,y
c
为粗粒度关系分类,kl(p||q)是语义表示编码器中的kl距离,l(θ;y
c
)=logp(y
c
|h
[cls]
,h
z
),p为先验模型。
[0028]
一种基于知识映射的语篇关系分析方法,其步骤包括:
[0029]
1)基于语言模型,挖掘语篇文本中存在相似的词法与句法结构,得到特殊字词[cls]的嵌入表示h
[cls]

[0030]
2)基于变分自编码的语义表示编码器,获取语篇文本中可类推的语义关系表示h
z

[0031]
3)根据嵌入表示h
[cls]
与语义关系表示h
z
进行粗粒度关系分类,并获得粗粒度类别嵌入表示
[0032]
4)利用嵌入表示h
[cls]
、语义关系表示h
z
及粗粒度类别嵌入表示对语篇文本中事件对的关系类别进行分类,得到语篇关系分析结果。
[0033]
一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述所述的方法。
[0034]
一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机以执行上述所述的方法。
[0035]
与现有技术相比,本发明的积极效果:
[0036]
1)通过多层级从语篇到事件的知识映射,能够大幅度降低训练事件关系抽取数据要求,发现大量有价值的隐式事件关系,相较于从零开始训练的模型以及简单的迁移学习等框架有稳定的准确率提升;
[0037]
2)丰富了大量有价值的隐式事件关系后的事件知识图谱,能够更有效地提升下游自然语言理解任务性能。
附图说明
[0038]
图1为从语篇到事件的知识映射范式方法示意图。
[0039]
图2为变分语义编码器有向图结构。
[0040]
图3为模型概览图。
具体实施方式
[0041]
为了使本技术领域的人员更好地理解本发明实施例中的技术方案,并使本发明的目的、特征和优点能够更加明显易懂,下面结合附图对本发明中技术核心作进一步详细的说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
[0042]
如图1所示,为了克服基于连接词的事件关系抽取方法低覆盖率的不足以及利用监督学习从零开始训练一个事件关系分类器遇到的高质量人工标注数据瓶颈,本发明提供了一种基于知识映射的事件关系抽取方法。其主要利用语篇和事件之间存在的多层级人类语言学关联,内容包括:(一)字词表示级别的知识映射模块;(二)语义表示级别的知识映射模块;(三)粗粒度分类级别的知识映射模块。字词表示级别的知识映射模块充分挖掘了语篇文本和事件文本存在相似的词法和句法结构。语义表示级别的知识映射模块充分建模了语篇语义和事件语义蕴含可类推的语义关系。粗粒度分类级别的知识映射模块充分利用了语篇关系和事件关系共享相同的粗粒度分类标准。通过上述多层级从语篇到事件的知识映射范式,本发明能够大幅度降低训练事件关系抽取数据要求,发现大量有价值的隐式事件关系,相较于从零开始训练的模型以及简单的迁移学习等框架有稳定的准确率提升,并更有效地提升下游自然语言理解任务性能。
[0043]
本发明所采用的技术方案概述如下:
[0044]
一种基于知识映射的事件关系抽取方法,其关键步骤包括:
[0045]
关键技术
[0046]
1)字词表示级别的知识映射模块,通过共享基于预训练模型的字词表示编码器,充分挖掘了语篇文本和事件文本存在相似的词法和句法结构,为事件关系抽取提供更具有泛化性的字词表示信息;
[0047]
2))语义表示级别的知识映射模块,通过共享基于变分语义表示编码器,充分建模了语篇语义和事件语义蕴含可类推的语义关系,为事件关系抽取提供更精确的语义表示信
息;
[0048]
3)粗粒度分类级别的知识映射模块,通过共享基于粗粒度类别解码器,充分利用了语篇关系和事件关系共享相同的粗粒度分类标准,为事件关系抽取提供更可信的粗粒度类别表示信息;
[0049]
4)基于上述三个不同层级的知识映射模块,获得更具有泛化性的字词表示信息,更精确的语义表示信息和更可信的粗粒度类别表示信息,使用事件关系类别分类器对事件对关系类别分类,从而大幅度降低训练事件关系抽取数据要求。
[0050]
本发明涉及以下所述的关键要素:
[0051]
一)核心技术
[0052]
1.字词表示级别的知识映射模块
[0053]
最近相关工作展示出相似的自然语言任务文本具有相似的词法和句法结构因此应当具有相似的字词表示。因此,字词表示级别的知识映射模块共享语篇分析以及事件关系抽取的基于预训练模型的字词表示编码器参数。通过多任务学习的框架,字词表示编码器在接收更多的监督信号的条件下能够更加有效地编码出具有泛化性的字词表示信息。
[0054]
具体地,给定一个事件关系对<e1,e2>,本发明首先将其序列化地表示为:
[0055][0056]
其中,[cls]以及[sep]是两个特别的字符分别是整个事件关系对的开始标记和事件关系对中每一个事件的结束标记,e则是事件关系对中出现的自然语言字符。对序列中的每个字词,本发明将其对应的词向量,分割向量以及位置向量拼接在一起作为最终初始的字词表示向量。然后,将整个事件对序列输入基于预训练语言模型bert的字词表示编码器,通过多层编码器transformer的更新。最终,本发明获取字词表示编码器的顶层特殊字符[cls]对应的隐藏层向量表示作为整个事件对的字词级别表示:
[0057][0058]
相似地,针对语篇分析输入,本发明通过相同的方法获得整个语篇分析对的字词级别表示
[0059]
如图3所示,通过映射字词级别的语篇知识到事件,本发明共享相同的基于预训练语言模型bert的字词表示编码器。在优化阶段,字词表示编码器参数能够同时受益于事件关系抽取数据和语篇关系分析数据带来的监督信号。
[0060]
2.语义表示级别的知识映射模块
[0061]
由于事件关系和语篇关系分析都需要准确地表示输入对地深层次语义表示,浅层地字词级别表示还远远不能满足该要求。基于预训练模型bert的字词级别表示往往有各向异性的缺点,无法建模连续地语义空间。
[0062]
为了解决这个缺陷,本发明引入了基于变分自编码的语义表示编码器。变分语义表示编码器将各项异性的字词级别表示投影到连续光滑的高斯分布空间。并且,本发明通过共享事件关系和语篇关系任务的语义表示编码器参数,以充分建模语篇语义和事件语义蕴含可类推的语义关系。
[0063]
具体地,如图2所示,变分语义编码器是由生成模型p以及变分模型q组成的有向
图,并通过自编码器训练方法进行参数训练。本发明假设语义表示h
z
服从高斯分布其中μ和σ2分别是高斯分布的均值和方差。基于该假设,原本事件关系/语篇关系的条件概率能够表达为:
[0064][0065]
后验近似为q(h
z
|h
[cls]
,h
y
),其中h
[cls]
根据不同的任务(事件关系抽取或者语篇关系分析)可以是或者为特殊字词[cls]对应的嵌入表示,h
y
可以是或者为关系的嵌入表示。具体地,本发明首先通过共享的基于预训练语言模型bert获得输入端的嵌入表示h
[cls
(同步骤一)和通过独立的关系嵌入表示网络获得输出端的关系嵌入表示h
y
。其次,本发明再通过一个非线性的变换层将上述字词级别表示与关系嵌入表示映射到一个公共的语义表示空间以获得在同一空间的语义表示h

z

[0066]
h

z
=tanh(w
z
[h
[cls]
;h
y
] b
z
)
[0067]
再通过线性回归方法获得第一高斯语义表示参数μ和第二高斯语义表示参数log(σ2):
[0068]
μ=w
μ
h

z
b
μ
,log(σ2)=w
σ
h

z
b
σ
[0069]
其中,w和b分别是可学习的参数矩阵和偏置项。最后,本发明通过重参数的技巧获得最终的语义表示:
[0070]
h
z
=μ σ


[0071]
其中,∈是服从标准高斯分布的噪声,h
z
据不同的任务(事件关系抽取或者语篇关系分析)可以是或者
[0072]
先验模型p(h
z
|h
[cls]
)和后验近似q(h
z
|h
[cls]
,h
y
)拥有相同的神经网络结构,除了h
y
的缺少。并且这两个模型参数是独立于彼此的。
[0073]
在测试阶段,由于无法直接获得h
y
,本发明直接平均先验模型p(h
z
|h
[cls]
)以获得语义表示h
z
。在训练阶段,本发明通过最小化生成模型p与变分模型q之间的kullback

leibler距离kl(p||q)来拉近这两个模型之间的表示距离:
[0074]
kl(q(h
z
|h
[cls]
,h
y
)||p(h
z
|h
[cls]
))
[0075]
如图3所示,通过映射语义级别的语篇知识到事件,本发明共享相同的基于变分自编码器的语义表示编码器。在优化阶段,变分语义编码器能够同时受益于事件关系抽取数据和语篇关系分析数据带来的监督信号与格外加入的kl距离约束。
[0076]
3.粗粒度分类级别的知识映射模块
[0077]
字词级别的知识映射模块以及语义级别的知识映射模块很好地覆盖了输入端的相关知识。然而,本发明发现,事件关系抽取与语篇关系分析在输出端共享相同的粗粒度分类标准:temporal(时序关系),contingency(应变关系),comparison(比较关系)和expansion(阐述关系)。因此本发明在输出端引入从粗粒度到细粒度的框架拉近事件和语篇异构的细粒度类别距离。具体的,本发明根据字词级别的表示h
[cls]
与深度语义表示h
z
先进行粗粒度的关系分类:
[0078]
y
c
=classifier
coarse
(h
[cls]
,h
z
)
[0079]
其中,y
c
是粗粒度的分类结果,属于{temporal(时序关系),contingency(应变关系),comparison(比较关系),expansion(阐述关系)}中的其中一个。其次,本发明再通过粗粒度关系嵌入网络获得粗粒度类别嵌入表示具体的,粗粒度关系嵌入网络接受一个具体的关系,通过一个映射矩阵得到该关系对应的稠密向量表示。
[0080]
如图3所示,通过映射粗粒度分类级别的语篇知识到事件,本发明共享相同的粗粒度关系分类器。在优化阶段,粗粒度关系分类器能够同时受益于事件关系抽取数据和语篇关系分析数据带来的监督信号。
[0081]
4.基于上述三个层次知识映射的事件关系抽取模块
[0082]
基于上述三个不同层级的知识映射模块,获得更具有泛化性的字词表示信息,更精确的语义表示信息和更可信的粗粒度类别表示信息,使用事件关系类别分类器对事件对关系类别分类。最终目标函数如下:
[0083]
l(θ)=α(l(θ;y) λkl(p||q)) (1

α(l(θ;y
c
))
[0084]
其中,y根据不同的任务(事件关系抽取或者语篇关系分析)可以是y
e
(代表事件关系)或者y
d
(代表语篇关系),λ和α分别是两个超参数,kl(p||q)是语义编码器中的kl距离,l(θ;y)和l(θ;y
c
)分别是细粒度的关系抽取目标与粗粒度的关系抽取目标:
[0085][0086]
l(θ;y
c
)=log p(y
c
|h
[cls]
,h
z
)
[0087]
值得注意的是,整个模型中只有基于预训练语言模型的字词表示编码器,基于变分自编码器的语义表示编码器和粗粒度级别分类器的参数是共享的,细粒度级别分类器参数以及其他参数是独立的。
[0088]
以抽取事件e1:“per goes to the restaurant”与事件e3:“per is so hungry”之间的隐式事件关系reason为例。
[0089]
场景:
[0090]
训练语料:
[0091]
事件关系抽取训练例1:<“per orders two hamburgers”;“per is so hungry”>的细粒度关系标记为“reason”,粗粒度标记为“contingency”。
[0092]
语篇关系分析训练例1:<“tom orders two hamburgers”;“tom is so hungry”>的细粒度关系标记为“reason”,粗粒度标记为“cause”。
[0093]
测试语料:
[0094]
测试例1:<“per goes to the restaurant”;“per is so hungry”>。
[0095]
实施:
[0096]
(一)基于训练语料,使用神经网络模型构建事件关系抽取分类器。在本方法中,神经网络模型基于字词表示级别的知识映射模块,语义表示级别的知识映射模块,粗粒度分类级别的知识映射模块以及最终的事件关系分类器。
[0097]
(二)基于神经网络模型,判定测试实例中每个事件对的粗粒度关系与细粒度关系。例如测试例1,模型将<“per goes to the restaurant”;“per is so hungry”>细粒度关系标记为“reason”,粗粒度标记为“contingency”。在本例中,这是由于,之前在模型训练中,模型从事件关系抽取训练实例1和语篇关系分析训练实例1中学习到了更具有泛化性的
字词表示信息,更精确的语义表示信息和更可信的粗粒度类别表示信息。从而对测试例1做出正确的判断。
[0098]
实验数据
[0099]
与现有的技术相比,本发明在公开的数据aser和pdtb2.0上展现出充足的进步性。其中,aser是当前公开的权威事件知识图谱用于评价事件关系抽取性能,pdtb2.0是当前公开的权威语篇关系数据用于评价语篇关系分析性能。具体数据包括:表1中的本发明与现有技术在事件关系抽取上的表现对比和表2中本发明与现有技术在语篇关系分析上的表现对比,具体如下:
[0100][0101]
表1
[0102]
方法准确率基于预训练语言模型的抽取技术50.91与本发明同架构但没有引入语篇知识的抽取技术52.86本发明54.09
[0103]
表2
[0104]
其中,f1分数是指关系抽取精确率和召回率的调和平均值,用于综合衡量系统的精确性和召回性。
[0105]
以上所述实施例仅表达了本发明的实施方式,其描述较为具体,但并不能因此理解为对本发明范围的限制。应当指出,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明的保护范围应当以所附权利要求为准。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜