一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于多任务模型的词语处理方法及装置与流程

2022-02-19 00:02:13 来源:中国专利 TAG:


1.本技术涉及计算机技术领域,特别涉及一种基于多任务模型的词语处理方法及装置、多任务模型的训练方法及装置、计算设备及计算机可读存储介质。


背景技术:

2.实体识别是指在非结构化的文本中识别并抽出具有特定意义或指代性强的实体,比如人名、地名、组织结构名、日期时间、专有名词等。
3.关系是两个或多个实体之间的某种联系,关系抽取是从文本中检测和识别出实体与实体之间具有的某种语义关系,比如句子“北京是中国的首都、政治中心和文化中心”,其中表述的关系可以为(中国,首都,北京)、(中国,政治中心,北京)或(中国,文化中心,北京)。
4.共指消解是特殊的关系抽取,共指消解的其中一个实体通常是另外一个实体在当前语境下的不同说法,两个实体之间的关系可以表示为(实体1,共指,实体2)。
5.目前,对于语句的实体识别任务、关系抽取任务、共指消解任务均是分别进行的,多任务之间信息无法共享,互相无法约束,进而导致实体识别、关系抽取、共指消解的效果均不理想。


技术实现要素:

6.有鉴于此,本技术实施例提供了一种基于多任务模型的词语处理方法及装置、多任务模型的训练方法及装置、计算设备及计算机可读存储介质,以解决现有技术中存在的技术缺陷。
7.本技术实施例提供了一种基于多任务模型的词语处理方法,包括:
8.获取候选实体片段,并基于所述候选实体片段生成候选实体片段编码向量;
9.通过实体识别模型对所述候选实体片段编码向量进行实体识别处理和分类剪枝处理,获得识别剪枝编码向量;
10.将所述识别剪枝编码向量输入至关系抽取模型进行两次打分,生成第一关系对最终编码向量,将所述第一关系对最终编码向量通过所述关系抽取模型进行处理,确定所述候选实体片段中词语之间的关系;
11.将所述识别剪枝编码向量输入至共指消解模型进行两次打分,生成第二关系对最终编码向量,将所述第二关系对最终编码向量通过所述共指消解模型进行处理,确定所述候选实体片段中词语之间的共指关系。
12.可选地,将所述识别剪枝编码向量输入至关系抽取模型进行两次打分,生成第一关系对最终编码向量,将所述第一关系对最终编码向量通过所述关系抽取模型进行处理,确定所述候选实体片段中词语之间的关系,包括:
13.通过关系抽取模型对所述识别剪枝编码向量进行第一次打分,并基于分值对所述识别剪枝编码向量进行剪枝,获得关系抽取编码向量;
14.基于所述关系抽取编码向量进行第二次打分生成第一关系对最终编码向量,通过所述关系抽取模型对所述第一关系对最终编码向量进行关系抽取处理,获得关系抽取结果,并基于所述关系抽取结果确定所述候选实体片段中词语之间的关系。
15.可选地,将所述识别剪枝编码向量输入至共指消解模型进行两次打分,生成第二关系对最终编码向量,将所述第二关系对最终编码向量通过所述共指消解模型进行处理,确定所述候选实体片段中词语之间的共指关系,包括:
16.通过共指消解模型对所述识别剪枝编码向量进行第一次打分,并基于分值对所述识别剪枝编码向量进行剪枝,获得共指消解编码向量;
17.基于所述共指消解编码向量进行第二次打分生成第二关系对最终编码向量,通过所述共指消解模型对所述第二关系对最终编码向量进行共指消解处理,获得共指消解结果,并基于所述共指消解结果确定所述候选实体片段中词语之间的共指关系。
18.可选地,所述实体识别模型与所述关系抽取模型、共指消解模型共用一个用于打分的前馈神经网络;
19.所述通过实体识别模型对所述候选实体片段编码向量进行实体识别处理和分类剪枝处理,获得识别剪枝编码向量,包括:
20.将所述候选实体片段编码向量输入至实体识别模型中,通过所述前馈神经网络对所述候选实体片段编码向量进行打分;
21.基于所述候选实体片段编码向量的分数对所述候选实体编码向量进行分类处理,获得所述候选实体编码向量的分类标签,并对所述候选实体编码向量进行剪枝,获得识别剪枝编码向量。
22.可选地,所述关系抽取模型与所述实体识别模型共用一个用于打分的前馈神经网络;
23.通过关系抽取模型对所述识别剪枝编码向量进行第一次打分,并基于分值对所述识别剪枝编码向量进行剪枝,包括:
24.将所述识别剪枝编码向量输入至所述关系抽取模型中,通过所述前馈神经网络对所述识别剪枝编码向量进行第一次打分,得到所述识别剪枝编码向量的分数;
25.将分数大于或等于预设阈值的识别剪枝编码向量作为关系抽取编码向量。
26.可选地,所述共指消解模型与所述实体识别模型共用一个用于打分的前馈神经网络;
27.通过共指消解模型对所述识别剪枝编码向量进行第一次打分,并基于分值对所述识别剪枝编码向量进行剪枝,获得共指消解编码向量,包括:
28.将所述识别剪枝编码向量输入至所述共指消解模型中,通过所述前馈神经网络对所述识别剪枝编码向量进行第一次打分,得到所述识别剪枝编码向量的分数;
29.将分数大于或等于预设阈值的识别剪枝编码向量作为共指消解编码向量。
30.可选地,所述基于所述关系抽取编码向量进行第二次打分生成第一关系对最终编码向量,包括:
31.基于关系抽取编码向量以及所述关系抽取编码向量的分类标签,获得第一初始关系对编码向量;
32.对所述第一初始关系对编码向量进行分类预测处理,基于所述分类预测的结果按
照预设比例对所述第一初始关系对编码向量进行剪枝,获得第一关系对编码向量;
33.将所述第一关系对编码向量通过所述前馈神经网络进行第二次打分,基于第二次打分的分数以及所述第一关系对编码向量得到第一关系对最终编码向量。
34.可选地,基于第二次打分的分数以及所述第一关系对编码向量得到第一关系对最终编码向量,包括:
35.基于所述第一关系对编码向量的第二次打分的分数生成第一权重分数;
36.基于第一权重分数对所述第一关系对编码向量对应的关系抽取编码向量依次进行注意力处理,得到第一中间向量;
37.基于所述第一中间向量和所述第一关系对编码向量对应的关系抽取编码向量进行门控处理,得到第一门控向量;
38.根据所述第一门控向量、所述第一中间向量以及所述第一关系对编码向量对应的关系抽取编码向量进行重新编码,生成重新编码后的第一更新编码向量;
39.基于所述第一更新编码向量以及所述第一更新编码向量的分类标签,生成第一关系对最终编码向量。
40.可选地,所述对所述第一初始关系对编码向量进行分类预测处理,基于所述分类预测的结果按照预设比例对所述第一初始关系对编码向量进行剪枝,获得第一关系对编码向量,包括:
41.通过前馈神经网络对所述第一初始关系对编码向量进行打分,获得第一初始关系对编码向量的分数;
42.对所述第一初始关系对编码向量进行分类预测处理,获得所述第一初始关系对编码向量的类别;
43.基于所述第一初始关系对编码向量的类别和分数对所述第一初始关系对编码向量进行剪枝,获得第一关系对编码向量。
44.可选地,所述基于关系抽取编码向量以及所述关系抽取编码向量的分类标签,获得第一初始关系对编码向量,包括:
45.将所述关系抽取编码向量的分类标签进行编码处理,生成第一标签向量;
46.基于任意两个所述关系抽取编码向量及其对应的所述第一标签向量,获得任意两个所述关系抽取编码向量的第一初始关系对编码向量。
47.可选地,所述基于关系抽取编码向量以及所述关系抽取编码向量的分类标签,获得第一初始关系对编码向量,包括:
48.将所述关系抽取编码向量的分类标签进行编码处理,生成第一标签向量;
49.基于任意两个所述关系抽取编码向量在所述候选实体片段中的位置,确定该任意两个关系抽取编码向量之间的语义向量;
50.基于任意两个所述关系抽取编码向量、该任意两个关系抽取编码向量之间的语义向量以及每个所述关系抽取编码向量对应的所述第一标签向量,获得任意两个所述关系抽取编码向量的第一初始关系对编码向量。
51.可选地,确定该任意两个关系抽取编码向量之间的语义向量,包括:
52.确定该任意两个关系抽取编码向量之间的多个词向量;
53.将所述任意两个关系抽取编码向量之间的多个词向量进行池化处理或者注意力
处理,得到对应的语义向量。
54.可选地,获得任意两个所述关系抽取编码向量的第一初始关系对编码向量,包括:根据任意两个所述关系抽取编码向量在所述候选实体片段中的语义关系,分别获得任意两个所述关系抽取编码向量的正向语义关系的第一初始关系对编码向量和反向语义关系的第一初始关系对编码向量。
55.可选地,通过前馈神经网络对所述第一初始关系对编码向量进行打分,获得第一初始关系对编码向量的分数,包括:
56.通过前馈神经网络对任意两个所述关系抽取编码向量的正向语义关系的第一初始关系对编码向量和反向语义关系的第一初始关系对编码向量进行打分,并使反向语义关系的第一初始关系对编码向量的分数小于预设阈值。
57.可选地,所述基于所述共指消解编码向量进行第二次打分生成第二关系对最终编码向量,包括:
58.基于共指消解编码向量以及所述共指消解编码向量的分类标签,获得第二初始关系对编码向量;
59.对所述第二初始关系对编码向量进行分类预测处理,基于所述分类预测的结果按照预设比例对所述第二初始关系对编码向量进行剪枝,获得第二关系对编码向量;
60.将所述第二关系对编码向量通过所述前馈神经网络进行第二次打分,基于第二次打分的分数以及所述第二关系对编码向量得到第二关系对最终编码向量。
61.可选地,基于第二次打分的分数以及所述第二关系对编码向量得到第二关系对最终编码向量,包括:
62.基于对所述第二关系对编码向量的第二次打分的分数生成第二权重分数;
63.基于第二权重分数对所述第二关系对编码向量对应的共指消解编码向量依次进行注意力处理,得到第二中间向量;
64.基于所述第二中间向量和所述第二关系对编码向量对应的共指消解编码向量进行门控处理,得到第二门控向量;
65.根据所述第二门控向量、所述第二中间向量以及所述第二关系对编码向量对应的共指消解编码向量进行重新编码,生成重新编码后的第二更新编码向量;
66.基于所述第二更新编码向量以及所述第二更新编码向量的分类标签,生成第二关系对最终编码向量。
67.可选地,基于共指消解编码向量以及所述共指消解编码向量的分类标签,获得第二初始关系对编码向量,包括:
68.将所述共指消解编码向量的分类标签进行编码处理,生成第二标签向量;
69.基于任意两个所述共指消解编码向量及其对应的所述第二标签向量,获得任意两个所述共指消解编码向量的第二初始关系对编码向量。
70.可选地,基于共指消解编码向量以及所述共指消解编码向量的分类标签,获得第二初始关系对编码向量,包括:
71.将所述共指消解编码向量的分类标签进行编码处理,生成第二标签向量;
72.基于任意两个所述共指消解编码向量在所述候选实体片段中的位置,确定该任意两个共指消解编码向量之间的语义向量;
73.基于任意两个所述共指消解编码向量、该任意两个共指消解编码向量之间的语义向量以及每个所述共指消解编码向量对应的所述第二标签向量,获得任意两个所述共指消解编码向量的第二初始关系对编码向量。
74.可选地,确定该任意两个共指消解编码向量之间的语义向量,包括:
75.确定该任意两个共指消解编码向量之间的多个词向量;
76.将所述任意两个共指消解编码向量之间的多个词向量进行池化处理或者注意力处理,得到对应的语义向量。
77.可选地,对所述第二初始关系对编码向量进行分类预测处理,基于所述分类预测的结果按照预设比例对所述第二初始关系对编码向量进行剪枝,获得第二关系对编码向量,包括:
78.通过前馈神经网络对所述第二初始关系对编码向量进行打分,获得第二初始关系对编码向量的分数;
79.对所述第二初始关系对编码向量进行分类预测处理,获得所述第二初始关系对编码向量的类别;
80.基于所述第二初始关系对编码向量的类别和分数对所述第二初始关系对编码向量进行剪枝,获得第二关系对编码向量。
81.可选地,通过所述关系抽取模型对所述第一关系对最终编码向量进行关系抽取处理,获得关系抽取结果,包括:通过所述关系抽取模型对所述第一关系对最终编码向量进行打分,并基于打分结果对所述第一关系对最终编码向量进行分类预测处理,获得关系抽取结果。
82.可选地,通过所述共指消解模型对所述第二关系对最终编码向量进行共指消解处理,获得共指消解结果,包括:通过所述共指消解模型对所述第二关系对最终编码向量进行打分,并基于打分结果对所述第二关系对最终编码向量进行分类预测处理,获得共指消解结果。
83.可选地,所述方法还包括:将所述第一关系对最终编码向量以及所述第二关系对最终编码向量输入至所述实体识别模型进行实体识别处理。
84.本技术实施例提供了一种多任务模型的训练方法,包括:
85.获取至少两个样本候选实体对以及每个所述样本候选实体对的分类标签,并基于每个样本候选实体对的样本候选实体生成样本候选实体编码向量;
86.通过实体识别模型对所述样本候选实体编码向量进行实体识别处理和分类剪枝处理,获得样本识别剪枝编码向量;
87.分别将所述样本识别剪枝编码向量输入至关系抽取模型和共指消解模型中进行两次打分处理,获得第一样本关系对最终编码向量和第二样本关系对最终编码向量;
88.基于所述第一样本关系对最终编码向量和所述第二样本关系对最终编码向量分别确定所述实体识别模型、所述关系抽取模型和所述共指消解模型的损失值,并对所述实体识别模型、所述关系抽取模型和所述共指消解模型进行训练。
89.可选地,分别将所述样本识别剪枝编码向量输入至关系抽取模型和共指消解模型中进行两次打分处理,获得第一样本关系对最终编码向量和第二样本关系对最终编码向量,包括:
90.将所述样本识别剪枝编码向量输入至所述关系抽取模型中,通过所述关系抽取模型对所述样本识别剪枝编码向量进行第一次打分,并基于分值对所述样本识别剪枝编码向量进行剪枝,获得样本关系抽取编码向量,基于所述样本关系抽取编码向量进行第二次打分生成第一样本关系对最终编码向量;
91.将所述样本识别剪枝编码向量输入至所述共指消解模型中,通过共指消解模型对所述样本识别剪枝编码向量进行第一次打分,并基于分值对所述样本识别剪枝编码向量进行剪枝,获得样本共指消解编码向量,基于所述样本共指消解编码向量进行第二次打分生成第二样本关系对最终编码向量。
92.可选地,基于所述样本关系抽取编码向量进行第二次打分生成第一样本关系对最终编码向量,包括:
93.基于样本关系抽取编码向量以及所述样本关系抽取编码向量的分类标签,获得第一初始样本关系对编码向量;
94.对所述第一初始样本关系对编码向量进行分类预测处理,基于所述分类预测的结果按照预设比例对所述第一初始样本关系对编码向量进行剪枝,获得第一样本关系对编码向量;
95.将所述第一样本关系对编码向量通过所述前馈神经网络进行第二次打分,基于第二次打分的分数以及所述第一样本关系对编码向量得到第一样本关系对最终编码向量。
96.可选地,基于第二次打分的分数以及所述第一样本关系对编码向量得到第一样本关系对最终编码向量,包括:
97.基于所述第一样本关系对编码向量的第二次打分的分数生成第一样本权重分数;
98.基于第一样本权重分数对所述第一样本关系对编码向量对应的样本关系抽取编码向量依次进行注意力处理,得到第一样本中间向量;
99.基于所述第一样本中间向量和所述第一样本关系对编码向量对应的样本关系抽取编码向量进行门控处理,得到第一样本门控向量;
100.根据所述第一样本门控向量、所述第一样本中间向量以及所述第一样本关系对编码向量对应的样本关系抽取编码向量进行重新编码,生成重新编码后的第一样本更新编码向量;
101.基于所述第一样本更新编码向量以及所述第一样本更新编码向量的分类标签,生成第一样本关系对最终编码向量。
102.可选地,基于所述样本共指消解编码向量进行第二次打分生成第二样本关系对最终编码向量,包括:
103.基于样本共指消解编码向量以及所述样本共指消解编码向量的分类标签,获得第二初始样本关系对编码向量;
104.对所述第二初始样本关系对编码向量进行分类预测处理,基于所述分类预测的结果按照预设比例对所述第二初始样本关系对编码向量进行剪枝,获得第二样本关系对编码向量;
105.将所述第二样本关系对编码向量通过所述前馈神经网络进行第二次打分,基于第二次打分的分数以及所述第二样本关系对编码向量得到第二样本关系对最终编码向量。
106.可选地,基于第二次打分的分数以及所述第二样本关系对编码向量得到第二样本
关系对最终编码向量,包括:
107.基于所述第二样本关系对编码向量的第二次打分的分数生成第二样本权重分数;
108.基于第二样本权重分数对所述第二样本关系对编码向量对应的样本共指消解编码向量依次进行注意力处理,得到第二样本中间向量;
109.基于所述第二样本中间向量和所述第二样本关系对编码向量对应的样本共指消解编码向量进行门控处理,得到第二样本门控向量;
110.根据所述第二样本门控向量、所述第二样本中间向量以及所述第二样本关系对编码向量对应的样本共指消解编码向量,生成重新编码后的第二样本更新编码向量;
111.基于所述第二样本更新编码向量以及所述第二样本更新编码向量的分类标签,生成第二样本关系对最终编码向量。
112.可选地,分别基于所述第一样本关系对最终编码向量和所述第二样本关系对最终编码向量确定所述实体识别模型、所述关系抽取模型和所述共指消解模型的损失值,包括:
113.基于所述第一样本关系对最终编码向量的分值以及分类标签、所述第二样本关系对最终编码向量的分值以及分类标签利用交叉熵损失函数计算实体识别模型的损失值;
114.基于第一样本关系对最终编码向量的分值与第一样本关系对最终编码向量的分类标签利用交叉熵损失函数计算关系抽取模型的损失值;
115.基于第二样本关系对最终编码向量的分值与第二样本关系对最终编码向量的分类标签利用交叉熵损失函数计算共指消解模型的损失值。
116.可选地,第一样本关系对最终编码向量包括两个样本关系抽取编码向量;
117.基于第一样本关系对最终编码向量的分值与第一样本关系对最终编码向量的分类标签利用交叉熵损失函数计算关系抽取模型的损失值,包括:
118.在所述分类标签为对称关系标签的情况下,将所述第一样本关系对最终编码向量的两个样本关系抽取编码向量进行反向排列,生成反向第一样本关系对最终编码向量;
119.将所述第一样本关系对最终编码向量的分值以及对应的分类标签、所述反向第一样本关系对最终编码向量以及对应的分类标签分别利用交叉熵损失函数计算关系抽取模型的损失值。
120.本技术实施例提供了一种基于多任务模型的词语处理装置,包括:
121.实体片段获取模块,被配置为获取候选实体片段,并基于所述候选实体片段生成候选实体片段编码向量;
122.实体识别剪枝模块,被配置为通过实体识别模型对所述候选实体片段编码向量进行实体识别处理和分类剪枝处理,获得识别剪枝编码向量;
123.关系抽取处理模块,被配置为将所述识别剪枝编码向量输入至关系抽取模型进行二次打分,生成第一关系对最终编码向量,将所述第一关系对最终编码向量通过所述关系抽取模型进行处理,确定所述候选实体片段中词语之间的关系;
124.共指消解处理模块,被配置为将所述识别剪枝编码向量输入至共指消解模型进行二次打分,生成第二关系对最终编码向量,将所述第二关系对最终编码向量通过所述共指消解模型进行处理,确定所述候选实体片段中词语之间的共指关系。
125.本技术实施例提供了一种多任务模型的训练装置,包括:
126.样本获取模块,被配置为获取至少两个样本候选实体对以及每个所述样本候选实
体对的分类标签,并基于每个样本候选实体对的样本候选实体生成样本候选实体编码向量;
127.样本识别模块,被配置为通过实体识别模型对所述样本候选实体片段编码向量进行实体识别处理和分类剪枝处理,获得样本识别剪枝编码向量;
128.样本处理模块,被配置为分别将所述样本识别剪枝编码向量输入至关系抽取模型和共指消解模型中进行两次打分处理,获得第一样本关系对最终编码向量和第二样本关系对最终编码向量;
129.模型训练模块,被配置为分别基于所述第一样本关系对最终编码向量和第二样本关系对最终编码向量分别确定所述实体识别模型、所述关系抽取模型和所述共指消解模型的损失值,并对所述实体识别模型、所述关系抽取模型和所述共指消解模型进行训练。
130.本技术实施例提供了一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行所述指令时实现如上所述的基于多任务模型的词语处理方法或多任务模型的训练方法的步骤。
131.本技术实施例提供了一种计算机可读存储介质,其存储有计算机指令,其特征在于,该指令被处理器执行时实现如上所述的基于多任务模型的词语处理方法或多任务模型的训练方法的步骤。
132.本技术提供的基于多任务模型的词语处理方法及装置,首先通过实体识别模型对候选实体片段编码向量进行实体识别处理和分类剪枝处理获得识别剪枝编码向量,以减少候选实体片段编码向量中的负例,再将识别剪枝编码向量分别输入至关系抽取模型和共指消解模型进行两次打分,分别得到第一关系对最终编码向量和第二关系对最终编码向量,然后将第一关系对最终编码向量通过关系抽取模型进行处理确定候选实体片段中词语之间的关系、将第二关系对最终编码向量通过共指消解模型进行处理确定候选实体片段中词语之间的共指关系,从而通过两次打分分别对关系抽取任务和共指消解任务增加约束,提升了关系抽取模型和共指消解模型的评价指标,可以更加准确地分别获取候选实体片段中词语之间的关系以及共指关系。
133.其次,本技术中先通过关系抽取模型的前馈神经网络对识别剪枝编码向量进行第一次打分得到关系抽取编码向量,再基于关系抽取编码向量依次进行分类预测、剪枝得到第一关系对编码向量,将所述第一关系对编码向量通过关系抽取模型的前馈神经网络进行第二次打分,最后基于第二次打分的分数以及第一关系对编码向量对应的关系抽取编码向量进行注意力处理和门控处理,最终得到第一关系对最终编码向量,从而实现了对关系抽取编码向量进行了信息的更新,融入了其他的关系抽取编码向量的信息,使得关系抽取任务有了明显的提升。
134.再次,本技术中先通过共指消解模型的前馈神经网络对识别剪枝编码向量进行第一次打分得到共指消解编码向量,再基于共指消解编码向量依次进行分类预测、剪枝得到第二关系对编码向量,将所述第二关系对编码向量通过共指消解模型的前馈神经网络进行第二次打分,最后基于第二次打分的分数以及第二关系对编码向量对应的共指消解编码向量进行注意力处理和门控处理,最终得到第二关系对最终编码向量,从而实现了对共指消解编码向量进行了信息的更新,融入了其他的共指消解编码向量的信息,使得共指消解任务有了明显的提升。
135.另外,将所述第一关系对最终编码向量以及所述第二关系对最终编码向量输入至所述实体识别模型进行实体识别处理,使得实体识别任务的评价指标有了明显的提升。
136.本技术提供的多任务模型的训练方法及装置,在训练过程中首先将关系抽取任务、共指消解任务、实体识别任务进行有机结合,再分别对关系抽取模型、共指消解模型和实体识别模型进行训练,可以有效提高模型训练的效果,提高关系抽取模型、共指消解模型和实体识别模型的性能。
附图说明
137.图1是本技术一实施例所述的多任务模型的结构示意图;
138.图2是本技术一实施例所述的基于多任务模型的词语处理方法的步骤流程示意图;
139.图3是本技术一实施例所述的基于多任务模型的词语处理方法的步骤流程示意图;
140.图4是本技术一实施例所述的多任务模型的训练方法的步骤流程示意图;
141.图5是本技术一实施例所述的基于多任务模型的词语处理装置的结构示意图;
142.图6是本技术一实施例所述的多任务模型的训练装置的结构示意图;
143.图7是本技术一实施例所述的计算设备的结构示意图。
具体实施方式
144.在下面的描述中阐述了很多具体细节以便于充分理解本技术。但是本技术能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本技术内涵的情况下做类似推广,因此本技术不受下面公开的具体实施的限制。
145.在本说明书一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书一个或多个实施例。在本说明书一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本说明书一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
146.应当理解,尽管在本说明书一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在
……
时”或“当
……
时”或“响应于确定”。
147.首先,对本发明一个或多个实施例涉及的名词术语进行解释。
148.实体识别:是指在非结构化的文本中识别并抽出具有特定意义或指代性强的实体,比如人名、地名、组织结构名、日期时间、专有名词等。
149.实体识别模型:用于执行实体识别任务的模型。
150.关系抽取:从文本中检测和识别出实体与实体之间具有的某种语义关系,比如句子“北京是中国的首都、政治中心和文化中心”,其中表述的关系可以为(中国,首都,北京)、(中国,政治中心,北京)或(中国,文化中心,北京)。
151.关系抽取模型:用于执行关系抽取任务的模型。
152.共指消解:特殊的关系抽取,共指消解的其中一个实体通常是另外一个实体在当前语境下的不同说法,两个实体之间的关系可以表示为(实体1,共指,实体2)。
153.共指消解模型:用于执行共指消解任务的模型。
154.候选实体片段(span):由语句中的一个词或多个词组成的片段。
155.候选实体片段编码向量(span embedding):候选实体片段经过编码器的编码处理生成的向量。
156.识别剪枝编码向量:候选实体片段编码向量经过剪枝后剩余的编码向量。
157.剪枝:根据预设的规则进行筛选。
158.关系抽取编码向量:基于关系抽取处理结果对识别剪枝编码向量进行剪枝后剩余的编码向量。
159.第一标签向量:对关系抽取编码向量的分类标签进行编码处理得到的编码向量。
160.第一初始关系对编码向量:基于两个关系抽取编码向量及其第一标签向量以及距离特征向量组合而成的编码向量。
161.第一关系对编码向量:基于第一初始关系对编码向量的分数对第一初始关系对编码向量进行剪枝后剩余的编码向量。
162.共指消解编码向量:基于共指消解处理结果对识别剪枝编码向量进行剪枝后剩余的编码向量。
163.第二标签向量:对共指消解编码向量的分类标签进行编码处理得到的编码向量。
164.第二关系对编码向量:基于两个共指消解编码向量及其第二标签向量以及距离特征向量组合而成的编码向量。
165.前馈神经网络(feedforward neural network,ffnn):一种最简单的神经网络,各神经元分层排列,每个神经元只与前一层的神经元相连,接收前一层的输出,并输出给下一层.各层间没有反馈,是目前应用最广泛、发展最迅速的人工神经网络之一。在本技术中,实体识别模型、关系抽取模型、共指消解模型共用一个用于打分的前馈神经网络进行打分。
166.卷积神经网络(convolutional neural networks,cnn):是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习(deep learning)的代表算法之一,在本技术中,通过cnn网络编码得到每一个词相应的字符级别的特征。
167.分类标签:用于标识编码向量类型的标识。
168.正确率:是指识别出的正确实体数与识别出的实体数的比值,取值在0-1之间,数值越大,正确率越高。
169.召回率:是指识别出的正确实体数与样本的实体数的比值,取值在0-1之间,数值越大,找回率越高。
170.加权调和平均值:又称f1值,f1值=(2*正确率*召回率)/(正确率 召回率)。
171.在本技术中,提供了一种基于多任务模型的词语处理方法及装置、多任务模型的训练方法及装置、计算设备及计算机可读存储介质,在下面的实施例中逐一进行详细说明。
172.如图1所示,本实施例提供了一种多任务模型,所述多任务模型用于本技术所述的基于多任务模型的词语处理方法,包括编码器、实体识别模型、关系抽取模型与共指消解模型,其中,实体识别模型、关系抽取模型与共指消解模型共用一个前馈神经网络。
173.实体识别模型,是用于识别非结构化输入文本中的实体的模型,在本实施例中,实体识别模型对所述候选实体片段编码向量进行实体识别处理和分类剪枝处理,获得识别剪枝编码向量。
174.关系抽取模型,是用于检测、识别、抽取实体与实体之间语义关系的模型,在本实施例中,关系抽取模型对所述识别剪枝编码向量进行第一次打分,并基于分值对所述识别剪枝编码向量进行剪枝,获得关系抽取编码向量;基于关系抽取编码向量进行第二次打分生成第一关系对最终编码向量,通过关系抽取模型对第一关系对最终编码向量进行关系抽取处理,获得关系抽取结果,并基于关系抽取结果确定候选实体片段中词语之间的关系。
175.共指消解模型,是用于检测、识别、抽取存在共指关系的实体的模型,在本实施例中,共指消解模型对所述识别剪枝编码向量进行第一次打分,并基于分值对所述识别剪枝编码向量进行剪枝,获得共指消解编码向量;基于共指消解编码向量生成第二关系对最终编码向量,通过共指消解模型对第二关系对最终编码向量进行共指消解处理,获得共指消解结果,并基于共指消解结果确定候选实体片段中词语之间的共指关系。
176.并且,将所述第一关系对最终编码向量以及所述第二关系对最终编码向量输入至所述实体识别模型进行实体识别处理,以提升实体识别模型的实体识别效果。
177.本实施例提供的多任务模型,通过将关系抽取模型、实体识别模型、共指消解模型进行有机结合,三者共用一个用于打分的前馈神经网络,可以实现关系抽取模型、实体识别模型、共指消解模型彼此之间的信息共享,提高上述关系抽取模型、实体识别模型、共指消解模型的正确率和召回率。
178.如图2所示,图2是示出了根据本技术一实施例的基于多任务模型的词语处理方法的步骤流程图,包括步骤s210至步骤s240,其中,步骤s230与步骤s240为并列步骤,无必然先后执行顺序。
179.s210、获取候选实体片段,并基于所述候选实体片段生成候选实体片段编码向量。
180.其中,候选实体片段是由目标语句或目标段落、目标文章中的一个或多个词语组合成的词语集合,每一个词语均表示一个实体。具体地,可以通过对目标语句或目标段落、目标文章等进行分词处理,再在上述分词处理的结果中抽取一个或多个目标词语组合成词语集合,即得到候选实体片段。
181.例如,假设对目标语句进行分词处理后,得到分词处理结果a1-a10在内的10个词语,在上述分词处理结果中进行抽取得到a1-a6组成的词语集合,并将上述词语集合作为候选实体片段。
182.在实际应用中,可以将候选实体片段输入至编码器中进行编码处理,生成候选实体片段编码向量。
183.在本实施例中,编码器包括双向lstm、预训练的bert模型、cnn网络及其任意组合。
184.优选地,首先通过预训练的bert模型对包含若干候选实体片段的语句进行编码处理后得到该语句词级别的特征向量,通过cnn网络进行编码处理后得到该语句字符级别的特征向量,将上述词级别的特征向量以及字符级别的特征向量进行拼接,得到拼接向量,再将上述拼接向量通过双向lstm网络进行编码处理后得到带有上下文特征的特征向量,最后基于抽取得到的候选实体片段利用注意力机制计算得到每个候选实体片段编码向量,候选实体片段的编码向量可以通过下式表示:
[0185][0186]
其中,g
i
表示候选实体片段的编码向量,x
start(i)*
、x
end(i)*
表示候选实体片段起止位置的向量,φ
(i)
表示额外的特征,表示基于注意力机制对每一个候选实体片段中的词进行计算得到的结果,的具体计算过程如下:
[0187][0188][0189][0190][0191]
具体地,t表示候选实体片段,i表示候选实体片段中的词,公式(2)表示候选实体片段中每一个词对应的编码向量x
t*
由经过双向lstm的正向传播输出的向量(h
t,1
)以及反向传播输出的向量(h
t,-1
)组成,公式(3)表示候选实体片段t的参数α通过其参数w与前馈神经网络对该候选实体片段打出的分数点乘得到,公式(4)表示候选实体片段中每一个词的权重a
i,t
基于其所在的候选实体片段的参数α以及该词在候选实体片段的总参数得到,公式(5)表示候选实体片段中每一个词对应的编码向量该词在该候选实体片段中的权重参数a
i,t
与该候选实体片段编码向量x
t
得到。
[0192]
本实施例通过获取候选实体片段,并对候选实体片段进行编码处理,以为后续其他任务的执行做好准备,提高后续任务执行的效率。
[0193]
s220、通过实体识别模型对所述候选实体片段编码向量进行实体识别处理和分类剪枝处理,获得识别剪枝编码向量。
[0194]
需要说明的是,在本实施例中,实体识别模型与关系抽取模型、共指消解模型共用一个用于打分的前馈神经网络。
[0195]
具体地,所述步骤s220还可以包括步骤s221至步骤s222。
[0196]
s221、将所述候选实体片段编码向量输入至实体识别模型中,通过所述前馈神经网络对所述候选实体片段编码向量进行打分。
[0197]
其中,每一个候选实体片段编码向量的分数均由基础分数(mention score)和分类分数(classifier score)组成,并且上述基础分数和分类分数均通过前馈神经网络打分得到。候选实体片段编码向量的分数可以为基础分数与分类分数之和、平均值、加权平均值等均可,本技术对此不做限制。
[0198]
前馈神经网络是利用深度学习的原理对候选实体片段编码向量进行打分的,具体而言,通过利用前馈神经网络对候选实体片段编码向量再次进行计算或编码,并映射出相应的分数,即获得候选实体片段编码向量的分数。需要说明的是,前馈神经网络对于分数的映射可以通过后续任务的执行、损失值的计算、梯度的回传等不断进行调整。候选实体片段编码向量的分数可以为十分制分数、百分制分数、千分制分数等,本技术对此不做限制。
[0199]
本实施例通过对候选实体片段编码向量进行打分,进而进行实体识别处理,可以提高实体识别处理的准确性,提高实体识别模型的效果。
[0200]
s222、基于所述候选实体片段编码向量的分数对所述候选实体编码向量进行分类处理,获得所述候选实体编码向量的分类标签,并对所述候选实体编码向量进行剪枝,获得识别剪枝编码向量。
[0201]
在实际应用中,基于所述候选实体片段编码向量的分数对所述候选实体编码向量进行分类处理,获得每一个候选实体片段编码向量的分类标签,进而可以获得每一个候选实体片段编码向量所属的类别,可以按照分类结果剪枝掉其中一个或几个类别中一定比例的候选实体片段编码向量,并将剩余的候选实体编码向量作为识别剪枝编码向量,也可以剪枝掉分数小于预设阈值的候选实体编码向量,并将剩余的候选实体编码向量作为识别剪枝编码向量,本技术对此不做限制。
[0202]
例如,假设候选实体片段编码向量共存在第一类、第二类
……
第n类等n个类别,其中第n类为负例,即不属于前面类别的所有候选实体片段编码向量均归为第n类,经过分类处理后,m个候选实体片段编码向量中的m1个属于第一类,m2个属于第二类
……
m
n
个属于第n类(m1 m2
……
m
n
=m),那么可以根据以下三种方式对上述候选实体片段编码向量进行剪枝:(1)第一类剪枝掉p1%的候选实体片段编码向量,第二类剪枝掉p2%的候选实体片段编码向量
……
第n类剪枝掉p
n
%的候选实体片段编码向量,并将剩余的候选实体编码向量作为识别剪枝编码向量,其中,p1、p2……
p
n
的数值既可以相同,也可以不同;(2)第一类、第二类
……
第n-1类的候选实体片段编码向量不进行剪枝,第n类剪枝掉p
n
%的候选实体片段编码向量,并将剩余的候选实体编码向量作为识别剪枝编码向量;(3)将其中的一类或多类的分数小于预设阈值的候选实体片段编码向量剪枝掉,并将剩余的候选实体编码向量作为识别剪枝编码向量,其中分数的预设阈值可以视具体情况确定,本技术对此不做限制。
[0203]
在本实施例中,对候选实体片段编码向量进行分类处理和剪枝处理,有助于提高后续关系抽取模型和共指消解模型输入编码向量的质量,为关系抽取任务和共指消解任务的执行打下基础。
[0204]
s230、将所述识别剪枝编码向量输入至关系抽取模型进行两次打分,生成第一关系对最终编码向量,将所述第一关系对最终编码向量通过所述关系抽取模型进行处理,确定所述候选实体片段中词语之间的关系。
[0205]
具体地,所述步骤s230还可以包括步骤s231至步骤s232。
[0206]
s231、通过关系抽取模型对所述识别剪枝编码向量进行第一次打分,并基于分值
对所述识别剪枝编码向量进行剪枝,获得关系抽取编码向量。
[0207]
具体地,关系抽取模型与实体识别模型共用一个用于打分的前馈神经网络;
[0208]
步骤s231包括:将识别剪枝编码向量输入至关系抽取模型中,通过前馈神经网络对识别剪枝编码向量进行第一次打分,得到识别剪枝编码向量的分数,然后将分数大于或等于预设阈值的识别剪枝编码向量作为关系抽取编码向量。
[0209]
其中,每一个识别剪枝码向量的分数均由基础分数和分类分数组成,并且上述基础分数和分类分数均通过前馈神经网络打分得到。
[0210]
本实施例通过对识别剪枝编码向量进行打分,在实体识别任务的基础上对识别剪枝编码向量进一步进行处理,有助于进一步为后续关系抽取任务的执行做好铺垫。
[0211]
s232、基于所述关系抽取编码向量进行第二次打分生成第一关系对最终编码向量,通过所述关系抽取模型对所述第一关系对最终编码向量进行关系抽取处理,获得关系抽取结果,并基于所述关系抽取结果确定所述候选实体片段中词语之间的关系。
[0212]
具体地,步骤s232中基于所述关系抽取编码向量进行第二次打分生成第一关系对最终编码向量,包括下述步骤s2321至步骤s2323:
[0213]
s2321、基于关系抽取编码向量以及所述关系抽取编码向量的分类标签,获得第一初始关系对编码向量。
[0214]
具体地,可以将所述关系抽取编码向量的分类标签进行编码处理,生成第一标签向量;基于所述关系抽取编码向量和所述第一标签向量,获得第一初始关系对编码向量。
[0215]
在实际应用中,每一个第一初始关系对编码向量均由两个关系抽取编码向量以及两个关系抽取编码向量对应的分类标签编码向量组成,换而言之,可以将候选实体片段中两个词语的关系抽取编码向量以及两个词语各自的第一标签向量进行拼接,获得第一初始关系对编码向量,如下所示:
[0216]
span_pair_embeddings=torch.cat([span1_embeddings,span2_embeddings,span1_embeddings*span2_embeddings,span1_label_embedding,span2_label_embedding],-1)。
[0217]
其中,torch.cat是用于将两个或多个向量拼接在一起的函数,span_pair_embeddings表示第一初始关系对编码向量,span1_embeddings表示关系抽取编码向量1,span2_embeddings表示关系抽取编码向量2,span1_label_embedding表示关系抽取编码向量1的标签向量,span2_label_embedding表示关系抽取编码向量2的标签向量。
[0218]
需要说明的是,分类标签属于候选实体片段的特征信息的一种,除此之外,在生成第一初始关系对编码向量时还可以结合其他类型的特征信息,如距离等,可视具体情况而定,本技术对此不做限制。
[0219]
例如,可以将候选实体片段中两个词语的关系抽取编码向量、两个词语各自的第一标签向量以及两个词语之间的距离特征向量进行拼接,获得第一初始关系对编码向量,如下所示:
[0220]
span_pair_embeddings=torch.cat([span1_embeddings,span2_embeddings,span1_embeddings*span2_embeddings,antecedent_distance_embeddings,span1_label_embedding,span2_label_embedding],-1)。
[0221]
其中,torch.cat是用于将两个或多个向量拼接在一起的函数,span_pair_
embeddings表示第一初始关系对编码向量,span1_embeddings表示关系抽取编码向量1,span2_embeddings表示关系抽取编码向量2,antecedent_distance_embeddings表示关系抽取编码向量1与关系抽取编码向量2的距离特征向量,span1_label_embedding表示关系抽取编码向量1的标签向量,span2_label_embedding表示关系抽取编码向量2的标签向量。
[0222]
再例如,第一初始关系对编码向量的具体生成方法包括:
[0223]
将所述关系抽取编码向量的分类标签进行编码处理,生成第一标签向量;
[0224]
基于任意两个所述关系抽取编码向量在所述候选实体片段中的位置,确定该任意两个关系抽取编码向量之间的语义向量;
[0225]
基于任意两个所述关系抽取编码向量、该任意两个关系抽取编码向量之间的语义向量以及每个所述关系抽取编码向量对应的所述第一标签向量,获得任意两个所述关系抽取编码向量的第一初始关系对编码向量。
[0226]
具体地,确定该任意两个关系抽取编码向量之间的语义向量,包括:确定该任意两个关系抽取编码向量之间的多个词向量;将任意两个关系抽取编码向量之间的多个词向量进行池化处理或者注意力处理,得到对应的语义向量。
[0227]
在具体应用中,对于候选实体片段[w1,w2,

,wx-1,wx],[w1,w2]是关系抽取编码向量span1,[wx-1,wx]是关系抽取编码向量span2,那么其中的[w3,

,wx-2]为该任意两个关系抽取编码向量span1和span2之间的词向量,将两个关系抽取编码向量span1和span2之间的词向量[w3,

,wx-2]进行池化处理或者注意力处理,得到对应的语义向量,从而可以增加第一初始关系对编码向量的语义信息,增强第一初始关系对编码向量的表达能力。
[0228]
对于池化处理,需要说明的是,对于词向量[w3,

,wx-2],如果全部保留这些信息就会有信息冗余,增加了计算难度,这时候池化处理就相当于降维操作,以实现对向量进行压缩,保留主要特征。池化处理是在一个小矩阵区域内,取该区域的最大值或平均值来代替该区域,从而得到最终的语义向量。该小矩阵的大小可以根据实际需要而设置。
[0229]
对于注意力处理,计算公式如前述公式(3)~(5)所示,在此便不再赘述。
[0230]
具体地,第一初始关系对编码向量的计算如下:
[0231]
span_pair_embeddings=torch.cat([span1_embeddings,span2_embeddings,span1_embeddings*span2_embeddings,segment_info,span1_label_embedding,span2_label_embedding],-1)。
[0232]
其中,torch.cat是用于将两个或多个向量拼接在一起的函数,span_pair_embeddings表示第一初始关系对编码向量,span1_embeddings表示关系抽取编码向量1,span2_embeddings表示关系抽取编码向量2,segment_info表示关系抽取编码向量1与关系抽取编码向量2之间的词向量,span1_label_embedding表示关系抽取编码向量1的标签向量,span2_label_embedding表示关系抽取编码向量2的标签向量。
[0233]
需要说明的是,在计算span_pair_embeddings的过程中,并非所有的词之间都可以产生关系,例如在一段文字里,隔了很远的词之间基本就不会产生关系了。所以本实施例中就设定了一个距离阈值,若span1和span2之间的距离超过阈值,便直接将该span1和span2的span_pair_embeddings进行剪枝。距离阈值的数值可以根据实际需求而设置,例如设置距离阈值为60个词单元。
[0234]
可选地,获得任意两个所述关系抽取编码向量的第一初始关系对编码向量,包括:
embedding12在当前的类别比较高,那么pair span-embedding21就应该是一个负例,所以要强制给一个很低的分数。实际应用阶段,该分数可以设置为0,也可以设置为其他分数。
[0247]
具体地,通过前馈神经网络对所述第一初始关系对编码向量进行打分,获得第一初始关系对编码向量的分数,包括:通过前馈神经网络对任意两个所述关系抽取编码向量的正向语义关系的第一初始关系对编码向量和反向语义关系的第一初始关系对编码向量进行打分,并使反向语义关系的第一初始关系对编码向量的分数小于预设阈值。
[0248]
本实施例中,预设阈值可以设置为多个数值,例如为0。
[0249]
本实施例通过对第一初始关系对编码向量进行打分、分类和剪枝,获得第一关系对编码向量,有助于进一步提高关系抽取任务的执行效率和效果。
[0250]
s2323、将所述第一关系对编码向量通过所述前馈神经网络进行第二次打分,基于第二次打分的分数以及所述第一关系对编码向量得到第一关系对最终编码向量。
[0251]
本实施例中,步骤s2323中的基于第二次打分的分数以及所述第一关系对编码向量得到第一关系对最终编码向量,包括下述步骤s21~s24:
[0252]
s21、基于第一关系对编码向量的第二次打分的分数生成第一权重分数。
[0253]
第一权重分数的计算参见下述公式(7):
[0254]
s(i,j)=s
m
(i) s
m
(j) s
a
(i,j)
ꢀꢀꢀ
(7)
[0255]
其中,i,j代表关系抽取编码向量;
[0256]
s
m
(i)代表第一关系对编码向量中的关系抽取编码向量i可以作为一个实体的分数;
[0257]
s
m
(j)代表第一关系对编码向量中的关系抽取编码向量j可以作为一个实体的分数;
[0258]
s
a
(i,j)代表关系抽取编码向量j可能是关系抽取编码向量i的先行词的分数;
[0259]
s(i,j)代表第一权重分数。
[0260]
s22、基于第一权重分数对所述第一关系对编码向量对应的关系抽取编码向量依次进行注意力处理,得到第一中间向量。
[0261]
第一中间向量的计算参见下述公式(8)~(9):
[0262][0263][0264]
其中,g代表第一关系对编码向量对应的关系抽取编码向量;
[0265]
p代表注意力的权重系数;
[0266]
a代表第一中间向量;
[0267]
s代表第一权重分数;
[0268]
i,j均代表[0,n]集合中的一个参量。
[0269]
s23、基于所述第一中间向量和所述第一关系对编码向量对应的关系抽取编码向量进行门控处理,得到第一门控向量。
[0270]
第一门控向量的计算参见下述公式(10):
[0271][0272]
其中,σ表示逻辑sigmod函数,
[0273]
w
f
表示权重参数,
[0274]
代表第i个第一中间向量;
[0275]
代表第i个第一关系对编码向量对应的关系抽取编码向量;
[0276]
i代表[0,n]集合中的一个参量;
[0277]
代表第i个第一门控向量。
[0278]
s24、根据第一门控向量、第一中间向量以及所述第一关系对编码向量对应的关系抽取编码向量进行重新编码,生成重新编码后的第一更新编码向量。
[0279]
具体地,第一更新编码向量的计算公式如下式(11)所示:
[0280][0281]
其中,代表第i个第一门控向量;
[0282]
代表第i个第一中间向量;
[0283]
代表第i个第一关系对编码向量对应的关系抽取编码向量;
[0284]
代表第i个第一更新编码向量。
[0285]
根据此公式可知,第一更新编码向量的计算是利用第一门控向量来重新对第一关系对编码向量对应的关系抽取编码向量进行再次编码,这个数值是(0,1)之间。可以理解为新得到的第一更新编码向量有多少(f)来自原来的关系抽取编码向量有多少(1-f)来自第一中间向量
[0286]
s25、基于所述第一更新编码向量以及所述第一更新编码向量的分类标签,生成第一关系对最终编码向量。
[0287]
具体地,第一关系对最终编码向量的计算如下:
[0288]
fspan_pair_embeddings=torch.cat([f1_embeddings,f2_embeddings,f1_embeddings*f2_embeddings,segment_info,f1_label_embedding,f2_label_embedding],-1)。
[0289]
其中,torch.cat是用于将两个或多个向量拼接在一起的函数,fspan_pair_embeddings表示第一关系对最终编码向量,f1_embeddings表示第一更新编码向量1,f2_embeddings表示第一更新编码向量2,segment_info表示第一更新编码向量1与第一更新编码向量2之间的词向量,f1_label_embedding表示第一更新编码向量1的标签向量,f2_label_embedding表示第一更新编码向量2的标签向量。
[0290]
通过步骤s21~s24,先通过关系抽取模型的前馈神经网络对识别剪枝编码向量进行第一次打分得到关系抽取编码向量,再基于关系抽取编码向量依次进行分类预测、剪枝得到第一关系对编码向量,将所述第一关系对编码向量通过关系抽取模型的前馈神经网络进行第二次打分,最后基于第二次打分的分数以及第一关系对编码向量对应的关系抽取编
码向量进行注意力处理和门控处理,然后再进行重新编码,最终得到第一关系对最终编码向量,从而实现了对关系抽取编码向量进行了信息的更新,融入了其他的关系抽取编码向量的信息,使得关系抽取任务有了明显的提升。
[0291]
最终,在得到第一关系对最终编码向量后,通过关系抽取模型对所述第一关系对最终编码向量进行打分,并基于打分结果对所述第一关系对最终编码向量进行分类预测处理,获得关系抽取结果。
[0292]
s240、将所述识别剪枝编码向量输入至共指消解模型进行两次打分,生成第二关系对最终编码向量,将所述第二关系对最终编码向量通过所述共指消解模型进行处理,确定所述候选实体片段中词语之间的共指关系。
[0293]
具体地,所述步骤s240还可以包括步骤s241至步骤s242:
[0294]
s241、通过共指消解模型对所述识别剪枝编码向量进行第一次打分,并基于分值对所述识别剪枝编码向量进行剪枝,获得共指消解编码向量。
[0295]
具体地,共指消解模型与实体识别模型共用一个用于打分的前馈神经网络;
[0296]
步骤s241包括:将识别剪枝编码向量输入至共指消解模型中,通过前馈神经网络对识别剪枝编码向量进行第一次打分,得到识别剪枝编码向量的分数,然后将分数大于或等于预设阈值的识别剪枝编码向量作为共指消解编码向量。
[0297]
其中,每一个识别剪枝码向量的分数均由基础分数和分类分数组成,并且上述基础分数和分类分数均通过前馈神经网络打分得到。
[0298]
本实施例通过对识别剪枝编码向量进行打分,在实体识别任务的基础上对识别剪枝编码向量进一步进行处理,有助于进一步为后续共指消解任务的执行做好铺垫。
[0299]
s242、基于所述共指消解编码向量进行第二次打分生成第二关系对最终编码向量,通过所述共指消解模型对所述第二关系对最终编码向量进行共指消解处理,获得共指消解结果,并基于所述共指消解结果确定所述候选实体片段中词语之间的共指关系。
[0300]
具体地,步骤s242中基于所述共指消解编码向量进行第二次打分生成第二关系对最终编码向量,包括下述步骤s2421至步骤s2423:
[0301]
s2421、基于共指消解编码向量以及所述共指消解编码向量的分类标签,获得第二初始关系对编码向量。
[0302]
具体地,可以将所述共指消解编码向量的分类标签进行编码处理,生成第二标签向量;基于任意两个所述共指消解编码向量及其对应的所述第二标签向量,获得任意两个所述共指消解编码向量的第二初始关系对编码向量。
[0303]
在实际应用中,每一个第二关系对编码向量均由两个共指消解编码向量以及两个共指消解取编码向量对应的分类标签编码向量组成,换而言之,可以将候选实体片段中两个词语的共指消解编码向量以及两个词语各自的第二标签向量进行拼接,获得第二关系对编码向量,如下所示:
[0304]
span_pair_embeddings=torch.cat([span1_embeddings,span2_embeddings,span1_embeddings*span2_embeddings,span1_label_embedding,span2_label_embedding],-1)。
[0305]
其中,torch.cat是用于将两个或多个向量拼接在一起的函数,span_pair_embeddings表示第二关系对编码向量,span1_embeddings表示共指消解编码向量1,span2_
embeddings表示共指消解编码向量2,span1_label_embedding表示共指消解编码向量1的标签向量,span2_label_embedding表示共指消解编码向量2的标签向量。
[0306]
需要说明的是,分类标签属于候选实体片段的特征信息的一种,除此之外,在生成第二关系对编码向量时还可以结合其他类型的特征信息,如距离等,可视具体情况而定,本技术对此不做限制。
[0307]
例如,可以将候选实体片段中两个词语的共指消解编码向量、两个词语各自的第二标签向量以及两个词语之间的距离特征向量进行拼接,获得第二关系对编码向量,如下所示:
[0308]
span_pair_embeddings=torch.cat([span1_embeddings,span2_embeddings,span1_embeddings*span2_embeddings,antecedent_distance_embeddings,span1_label_embedding,span2_label_embedding],-1)。
[0309]
其中,torch.cat是用于将两个或多个向量拼接在一起的函数,span_pair_embeddings表示第二关系对编码向量,span1_embeddings表示共指消解编码向量1,span2_embeddings表示共指消解编码向量2,antecedent_distance_embeddings表示共指消解编码向量1与共指消解编码向量2的距离特征向量,span1_label_embedding表示共指消解编码向量1的标签向量,span2_label_embedding表示共指消解编码向量2的标签向量。
[0310]
本实施例基于共指消解编码向量以及所述共指消解编码向量的分类标签,获得第二关系对编码向量,有助于提高共指消解任务的执行效率和效果。
[0311]
在另一种具体实施方案中,步骤s2421包括:将所述共指消解编码向量的分类标签进行编码处理,生成第二标签向量;基于任意两个共指消解编码向量在候选实体片段中的位置,确定该任意两个共指消解编码向量之间的语义向量;基于任意两个共指消解编码向量、该任意两个共指消解编码向量之间的语义向量以及每个共指消解编码向量对应的第二标签向量,获得任意两个共指消解编码向量的第二初始关系对编码向量。
[0312]
具体地,确定该任意两个共指消解编码向量之间的语义向量,包括:确定该任意两个共指消解编码向量之间的多个词向量;将所述任意两个共指消解编码向量之间的多个词向量进行池化处理或者注意力处理,得到对应的语义向量。
[0313]
在具体应用中,对于候选实体片段[z1,z2,

,zx-1,zx],[z1,z2]是共指消解编码向量span3,[zx-1,zx]是共指消解编码向量span4,那么其中的[z3,

,zx-2]为该任意两个共指消解编码向量span3和span4之间的词向量,将两个共指消解编码向量span3和span4之间的词向量[z3,

,zx-2]进行池化处理或者注意力处理,得到对应的语义向量,从而可以增加第二初始关系对编码向量的语义信息,增强第二初始关系对编码向量的表达能力。
[0314]
对于池化处理,需要说明的是,对于词向量[z3,

,zx-2],如果全部保留这些信息就会有信息冗余,增加了计算难度,这时候池化处理就相当于降维操作,以实现对向量进行压缩,保留主要特征。池化处理是在一个小矩阵区域内,取该区域的最大值或平均值来代替该区域,从而得到最终的语义向量。该小矩阵的大小可以根据实际需要而设置。
[0315]
对于注意力处理,计算公式如前述公式(3)~(5)所示,在此便不再赘述。
[0316]
具体地,第二初始关系对编码向量的计算如下:
[0317]
span_pair_embeddings=torch.cat([span3_embeddings,span4_embeddings,span3_embeddings*span4_embeddings,segment_info,span3_label_embedding,span4_
label_embedding],-1)。
[0318]
其中,torch.cat是用于将两个或多个向量拼接在一起的函数,span_pair_embeddings表示第二初始关系对编码向量,span3_embeddings表示共指消解编码向量1,span4_embeddings表示共指消解编码向量2,segment_info表示共指消解编码向量1与共指消解编码向量2之间的词向量,span3_label_embedding表示共指消解编码向量1的标签向量,span4_label_embedding表示共指消解编码向量2的标签向量。
[0319]
需要说明的是,在计算span_pair_embeddings的过程中,并非所有的词之间都可以产生关系,例如在一段文字里,隔了很远的词之间基本就不会产生关系了。所以本实施例中就设定了一个距离阈值,若span3和span4之间的距离超过阈值,便直接将该span3和span4的span_pair_embeddings进行剪枝。距离阈值的数值可以根据实际需求而设置,例如设置距离阈值为60个词单元。
[0320]
s2422、对所述第二初始关系对编码向量进行分类预测处理,基于所述分类预测的结果按照预设比例对所述第二初始关系对编码向量进行剪枝,获得第二关系对编码向量。
[0321]
具体地,步骤s2422包括:
[0322]
通过前馈神经网络对所述第二初始关系对编码向量进行打分,获得第二初始关系对编码向量的分数;
[0323]
对所述第二初始关系对编码向量进行分类预测处理,获得所述第二初始关系对编码向量的类别;
[0324]
基于所述第二初始关系对编码向量的类别和分数对所述第二初始关系对编码向量进行剪枝,获得第二关系对编码向量。
[0325]
在实际应用中,可以通过softmax函数确定第二初始关系对编码向量的类别,softmax函数的公式如公式(6)所示,在此便不再赘述。
[0326]
具体地,共指消解处理的过程包括打分与分类预测处理,换而言之,通过所述共指消解模型对所述第二关系对编码向量进行打分,并基于打分结果对所述第二关系对编码向量进行分类预测处理,即完成共指消解处理,获得共指消解结果,并确定词语之间的共指关系。
[0327]
本实施例通过对第二关系对编码向量进行共指消解处理,确定词语之间的共指关系,可以共指消解任务的准确率,进而有效提高词语共指关系确定的准确率。
[0328]
s2423、将所述第二关系对编码向量通过所述前馈神经网络进行第二次打分,基于第二次打分的分数以及所述第二关系对编码向量得到第二关系对最终编码向量。
[0329]
本实施例中,步骤s2423中的基于第二次打分的分数以及所述第二关系对编码向量得到第二关系对最终编码向量,包括下述步骤s31~s35:
[0330]
s31、基于对第二关系对编码向量的第二次打分的分数生成第二权重分数。
[0331]
第二权重分数的计算参见下述公式(12):
[0332]
s(i,j)=s
m
(i) s
m
(i) s
a
(i,j)
ꢀꢀꢀ
(12)
[0333]
其中,i,j代表共指消解编码向量;
[0334]
s
m
(i)代表第二关系对编码向量中的共指消解编码向量i可以作为一个实体的分数;
[0335]
s
m
(j)代表第二关系对编码向量中的共指消解编码向量j可以作为一个实体的分
数;
[0336]
s
a
(i,j)代表共指消解编码向量j可能是共指消解编码向量i的先行词的分数;
[0337]
s(i,j)代表第二权重分数。
[0338]
s32、基于第二权重分数对所述第二关系对编码向量对应的共指消解编码向量依次进行注意力处理,得到第二中间向量。
[0339]
第二中间向量的计算参见下述公式(13)和(14):
[0340][0341][0342]
其中,g代表第二关系对编码向量对应的共指消解编码向量;
[0343]
p代表注意力的权重系数;
[0344]
a代表第二中间向量;
[0345]
s代表第一权重分数;
[0346]
i,j均代表[0,n]集合中的一个参量。
[0347]
s33、基于所述第二中间向量和所述第二关系对编码向量对应的共指消解编码向量进行门控处理,得到第二门控向量。
[0348]
第二门控向量的计算参见下述公式(15):
[0349][0350]
其中,σ表示逻辑sigmod函数,
[0351]
w
f
表示权重参数,
[0352]
代表第i个第二中间向量;
[0353]
代表第i个第二关系对编码向量对应的共指消解编码向量;
[0354]
i代表[0,n]集合中的一个参量;
[0355]
代表第i个第二门控向量。
[0356]
s34、根据第二门控向量、第二中间向量以及所述第二关系对编码向量对应的共指消解编码向量进行重新编码,生成重新编码后的第二更新编码向量。
[0357]
具体地,第一更新编码向量的计算公式如下式(16)所示:
[0358][0359]
其中,代表第i个第二门控向量;
[0360]
代表第i个第二中间向量;
[0361]
代表第i个第二关系对编码向量对应的共指消解编码向量;
[0362]
代表第i个第二更新编码向量。
[0363]
根据此公式可知,第二更新编码向量的计算是利用第二门控向量来重新对第二关
系对编码向量对应的共指消解编码向量进行再次编码,这个数值是(0,1)之间。可以理解为新得到的第二更新编码向量有多少(f)来自原来的共指消解编码向量有多少(1-f)来自第二中间向量
[0364]
s35、基于所述第二更新编码向量以及所述第二更新编码向量的分类标签,生成第二关系对最终编码向量。
[0365]
具体地,第二关系对最终编码向量的计算参见下述公式:
[0366]
fspan_pair_embeddings=torch.cat([f3_embeddings,f4_embeddings,f3_embeddings*f4_embeddings,segment_info,f3_label_embedding,f4_label_embedding],-1)。
[0367]
其中,torch.cat是用于将两个或多个向量拼接在一起的函数,fspan_pair_embeddings表示第二关系对最终编码向量,f3_embeddings表示第二更新编码向量1,f4_embeddings表示第二更新编码向量2,segment_info表示第二更新编码向量1与第二更新编码向量2之间的词向量,f3_label_embedding表示第二更新编码向量1的标签向量,f4_label_embedding表示第二更新编码向量2的标签向量。
[0368]
通过步骤s31~s35,本实施例先通过共指消解模型的前馈神经网络对识别剪枝编码向量进行第一次打分得到共指消解编码向量,再基于共指消解编码向量依次进行分类预测、剪枝得到第二关系对编码向量,将所述第二关系对编码向量通过共指消解模型的前馈神经网络进行第二次打分,最后基于两次打分的分数以及第二关系对编码向量对应的共指消解编码向量进行注意力处理和门控处理,然后进行重新编码得到第二更新编码向量,最终基于第二更新编码向量以及第二更新编码向量的分类标签得到第二关系对最终编码向量,从而实现了对共指消解编码向量进行了信息的更新,融入了其他的共指消解编码向量的信息,使得共指消解任务有了明显的提升。
[0369]
最终,在得到第二关系对最终编码向量后,通过所述共指消解模型对所述第二关系对最终编码向量进行打分,并基于打分结果对所述第二关系对最终编码向量进行分类预测处理,获得共指消解结果。
[0370]
另外,本实施例在得到第一关系对最终编码向量以及第二关系对最终编码向量后,将第一关系对最终编码向量以及第二关系对最终编码向量输入至实体识别模型进行实体识别处理,使得实体识别任务的评价指标(average f1)有了明显的提升。
[0371]
本实施例提供的基于多任务模型的词语处理方法,首先通过实体识别模型对候选实体片段编码向量进行实体识别处理和分类剪枝处理获得识别剪枝编码向量,以减少候选实体片段编码向量中的负例,再将识别剪枝编码向量分别输入至关系抽取模型和共指消解模型进行两次打分,分别得到第一关系对最终编码向量和第二关系对最终编码向量,然后将第一关系对最终编码向量通过关系抽取模型进行处理确定候选实体片段中词语之间的关系、将第二关系对最终编码向量通过共指消解模型进行处理确定候选实体片段中词语之间的共指关系,从而通过两次打分分别对关系抽取任务和共指消解任务增加约束,提升了关系抽取模型和共指消解模型的评价指标,可以更加准确地分别获取候选实体片段中词语之间的关系以及共指关系。
[0372]
另外,本实施例中通过根据任意两个关系抽取编码向量在候选实体片段中的语义
关系,分别获得任意两个关系抽取编码向量的正向语义关系的第一初始关系对编码向量和反向语义关系的第一初始关系对编码向量,从而在获取关系抽取结果的过程中,引入了语义关系的考量,从而可以使关系抽取结果更加准确。
[0373]
参见图3,本实施例提供一种基于多任务模型的词语处理方法,包括:
[0374]
s310、获取候选实体片段,并基于所述候选实体片段生成候选实体片段编码向量。
[0375]
其中,步骤s310与前述实施例中的步骤s210相同,关于步骤s310的具体解释参见前述实施例的详述,在此便不再赘述。
[0376]
s311、将所述候选实体片段编码向量输入至实体识别模型中,通过所述前馈神经网络对所述候选实体片段编码向量进行打分。
[0377]
s312、基于所述候选实体片段编码向量的分数对所述候选实体编码向量进行分类处理,获得所述候选实体编码向量的分类标签,并对所述候选实体编码向量进行剪枝,获得识别剪枝编码向量。
[0378]
s313、通过关系抽取模型对所述识别剪枝编码向量进行第一次打分,并基于分值对所述识别剪枝编码向量进行剪枝,获得关系抽取编码向量。
[0379]
具体地,步骤s313包括:将所述识别剪枝编码向量输入至所述关系抽取模型中,通过所述前馈神经网络对所述识别剪枝编码向量进行第一次打分,得到所述识别剪枝编码向量的分数;将分数大于或等于预设阈值的识别剪枝编码向量作为关系抽取编码向量。
[0380]
s314、基于所述关系抽取编码向量进行第二次打分生成第一关系对最终编码向量。
[0381]
具体地,步骤s314包括下述步骤s3141~s3143:
[0382]
s3141、基于关系抽取编码向量以及所述关系抽取编码向量的分类标签,获得第一初始关系对编码向量。
[0383]
s3142、对所述第一初始关系对编码向量进行分类预测处理,基于所述分类预测的结果按照预设比例对所述第一初始关系对编码向量进行剪枝,获得第一关系对编码向量。
[0384]
s3143、将所述第一关系对编码向量通过所述前馈神经网络进行第二次打分,基于第二次打分的分数以及第一关系对编码向量得到第一关系对最终编码向量。
[0385]
具体地,对于步骤s3141~s3143的详细解释,参见前述实施例的步骤s2321至步骤s2323的详细内容,在此便不再赘述。
[0386]
s315、通过所述关系抽取模型对所述第一关系对最终编码向量进行关系抽取处理,获得关系抽取结果,并基于所述关系抽取结果确定所述候选实体片段中词语之间的关系。
[0387]
具体地,步骤s315包括:通过所述关系抽取模型对所述第一关系对最终编码向量进行打分,并基于打分结果对所述第一关系对最终编码向量进行分类预测处理,获得关系抽取结果。
[0388]
s316、通过共指消解模型对所述识别剪枝编码向量进行第一次打分,并基于分值对所述识别剪枝编码向量进行剪枝,获得共指消解编码向量。
[0389]
步骤s316包括:将所述识别剪枝编码向量输入至所述共指消解模型中,通过所述前馈神经网络对所述识别剪枝编码向量进行第一次打分,得到所述识别剪枝编码向量的分数;将分数大于或等于预设阈值的识别剪枝编码向量作为共指消解编码向量。
[0390]
s317、基于所述共指消解编码向量进行第二次打分生成第二关系对最终编码向量。
[0391]
具体地,步骤s317包括步骤s3171~s3173:
[0392]
s3171、基于共指消解编码向量以及所述共指消解编码向量的分类标签,获得第二初始关系对编码向量。
[0393]
s3172、对所述第二初始关系对编码向量进行分类预测处理,基于所述分类预测的结果按照预设比例对所述第二初始关系对编码向量进行剪枝,获得第二关系对编码向量。
[0394]
s3173、将所述第二关系对编码向量通过所述前馈神经网络进行第二次打分,基于第二次打分的分数以及第二关系对编码向量得到第二关系对最终编码向量。
[0395]
具体地,对于步骤s3171~s3173的详细解释,参见前述实施例的步骤s2421至步骤s2423的详细内容,在此便不再赘述。
[0396]
s318、通过所述共指消解模型对所述第二关系对最终编码向量进行共指消解处理,获得共指消解结果,并基于所述共指消解结果确定所述候选实体片段中词语之间的共指关系。
[0397]
具体地,步骤s318包括:通过所述共指消解模型对所述第二关系对最终编码向量进行打分,并基于打分结果对所述第二关系对最终编码向量进行分类预测处理,获得共指消解结果。
[0398]
s319、将所述第一关系对最终编码向量以及所述第二关系对最终编码向量输入至所述实体识别模型进行实体识别处理。
[0399]
本实施例中,通过实体识别模型对候选实体片段编码向量进行实体识别处理和分类剪枝处理获得识别剪枝编码向量,以减少候选实体片段编码向量中的负例,再将识别剪枝编码向量分别输入至关系抽取模型和共指消解模型进行两次打分,分别得到第一关系对最终编码向量和第二关系对最终编码向量,然后将第一关系对最终编码向量通过关系抽取模型进行处理确定候选实体片段中词语之间的关系、将第二关系对最终编码向量通过共指消解模型进行处理确定候选实体片段中词语之间的共指关系,从而通过两次打分分别对关系抽取任务和共指消解任务增加约束,提升了关系抽取模型和共指消解模型的评价指标,可以更加准确地分别获取候选实体片段中词语之间的关系以及共指关系。
[0400]
另外,将所述第一关系对最终编码向量以及所述第二关系对最终编码向量输入至所述实体识别模型进行实体识别处理,使得实体识别任务的评价指标有了明显的提升。
[0401]
如图4所示,本实施例提供一种多任务模型的训练方法,包括步骤s410至步骤s440。
[0402]
s410、获取至少两个样本候选实体对以及每个所述样本候选实体对的分类标签,并基于每个样本候选实体对的样本候选实体生成样本候选实体编码向量。
[0403]
具体内容可以参见上述实施例,在此不再赘述。
[0404]
s420、通过实体识别模型对所述样本候选实体片段编码向量进行实体识别处理和分类剪枝处理,获得样本识别剪枝编码向量。
[0405]
具体地,假设共存在n类的样本候选实体片段(n≥1,且n为整数),那么不属于上述n个类别的样本候选实体片段均属于负例,基于所述样本候选实体片段编码向量的分数对所述样本候选实体编码向量进行分类处理,获得每一个样本候选实体片段编码向量的分类
标签,进而可以获得每一个样本候选实体片段编码向量所属的类别,按照预设的比例剪枝掉负例中的部分样本候选实体片段编码向量后,剩余的其他样本候选实体片段编码向量即为识别剪枝编码向量。其中,负例中被剪枝掉的样本候选实体片段编码向量的比例可以视具体情况而定,如六分之一、五分之一等均可,本技术对此不做限制。
[0406]
本实施例通过对样本候选实体编码向量进行分类处理,并剪枝掉负例中的部分编码向量,可以使模型同时对于呈适当比例的正例和负例进行学习,即从正确和错误两个方面同时进行学习,有助于提高模型训练效果。
[0407]
s430、分别将所述样本识别剪枝编码向量输入至关系抽取模型和共指消解模型中进行两次打分处理,获得第一样本关系对最终编码向量和第二样本关系对最终编码向量。
[0408]
具体地,步骤s430包括:
[0409]
s431、将所述样本识别剪枝编码向量输入至所述关系抽取模型中,通过所述关系抽取模型对所述样本识别剪枝编码向量进行第一次打分,并基于分值对所述样本识别剪枝编码向量进行剪枝,获得样本关系抽取编码向量,基于所述样本关系抽取编码向量进行第二次打分生成第一样本关系对最终编码向量。
[0410]
具体地,步骤s431包括下述步骤s4311~s4313:
[0411]
s4311、基于样本关系抽取编码向量以及所述样本关系抽取编码向量的分类标签,获得第一初始样本关系对编码向量(span_pair_embedding)。
[0412]
其中,对于第一初始样本关系对编码向量的生成过程,可以参见前述实施例的第一初始关系对编码向量的生成过程,在此便不再赘述。
[0413]
s4312、对所述第一初始样本关系对编码向量进行分类预测处理,基于所述分类预测的结果按照预设比例对所述第一初始样本关系对编码向量进行剪枝,获得第一样本关系对编码向量。
[0414]
s4313、将所述第一样本关系对编码向量通过所述前馈神经网络进行第二次打分,基于第二次打分的分数以及所述第一样本关系对编码向量得到第一样本关系对最终编码向量。
[0415]
具体地,步骤s4313中的基于两次打分的分数以及所述第一样本关系对编码向量得到第一样本关系对最终编码向量,包括:
[0416]
s41、基于所述第一样本关系对编码向量的第二次打分的分数生成第一样本权重分数。
[0417]
s42、基于第一样本权重分数对所述第一样本关系对编码向量对应的样本关系抽取编码向量依次进行注意力处理,得到第一样本中间向量。
[0418]
s43、基于所述第一样本中间向量和所述第一样本关系对编码向量对应的样本关系抽取编码向量进行门控处理,得到第一样本门控向量。
[0419]
s44、根据所述第一样本门控向量、所述第一样本中间向量以及所述第一样本关系对编码向量对应的样本关系抽取编码向量进行重新编码,生成重新编码后的第一样本更新编码向量。
[0420]
s45、基于所述第一样本更新编码向量以及所述第一样本更新编码向量的分类标签,生成第一样本关系对最终编码向量。
[0421]
其中,对于第一样本关系对最终编码向量的生成过程,可以参见前述实施例的第
一关系对最终编码向量的生成过程,即步骤s21~s25,在此便不再赘述。
[0422]
s432、将所述样本识别剪枝编码向量输入至所述共指消解模型中,通过共指消解模型对所述样本识别剪枝编码向量进行第一次打分,并基于分值对所述样本识别剪枝编码向量进行剪枝,获得样本共指消解编码向量,基于所述样本共指消解编码向量进行第二次打分生成第二样本关系对最终编码向量。
[0423]
具体地,步骤s432中基于所述样本共指消解编码向量进行第二次打分生成第二样本关系对最终编码向量,包括:
[0424]
s4321、基于样本共指消解编码向量以及所述样本共指消解编码向量的分类标签,获得第二初始样本关系对编码向量(span_pair_embedding)。
[0425]
s4322、对所述第二初始样本关系对编码向量进行分类预测处理,基于所述分类预测的结果按照预设比例对所述第二初始样本关系对编码向量进行剪枝,获得第二样本关系对编码向量。
[0426]
s4323、将所述第二样本关系对编码向量通过所述前馈神经网络进行第二次打分,基于两次打分的分数以及所述第二样本关系对编码向量得到第二样本关系对最终编码向量。
[0427]
具体地,步骤s4323中基于两次打分的分数以及所述第二样本关系对编码向量得到第二样本关系对最终编码向量,包括下述步骤s51~s54:
[0428]
s51、基于所述第二样本关系对编码向量的第二次打分的分数生成第二样本权重分数。
[0429]
s52、基于第二样本权重分数对所述第二样本关系对编码向量对应的样本共指消解编码向量依次进行注意力处理,得到第二样本中间向量。
[0430]
s53、基于所述第二样本中间向量和所述第二样本关系对编码向量对应的样本共指消解编码向量进行门控处理,得到第二样本门控向量。
[0431]
s54、根据所述第二样本门控向量、所述第二样本中间向量以及所述第二样本关系对编码向量对应的样本共指消解编码向量进行重新编码,生成重新编码后的第二样本更新编码向量。
[0432]
s55、基于所述第二样本更新编码向量以及所述第二样本更新编码向量的分类标签,生成第二样本关系对最终编码向量。
[0433]
其中,对于第二样本关系对最终编码向量的生成过程,可以参见前述实施例的第二关系对最终编码向量的生成过程,即步骤s31~s35,在此便不再赘述。
[0434]
s440、基于所述第一样本关系对最终编码向量和所述第二样本关系对最终编码向量分别确定所述实体识别模型、所述关系抽取模型和所述共指消解模型的损失值,并对所述实体识别模型、所述关系抽取模型和所述共指消解模型进行训练。
[0435]
具体地,步骤s440包括下述步骤s441~s443:
[0436]
s441、基于所述第一样本关系对最终编码向量的分值以及分类标签、所述第二样本关系对最终编码向量的分值以及分类标签利用交叉熵损失函数计算实体识别模型的损失值。
[0437]
s442、基于第一样本关系对最终编码向量的分值与第一样本关系对最终编码向量的分类标签利用交叉熵损失函数计算关系抽取模型的损失值。
[0438]
具体地,第一样本关系对最终编码向量包括两个样本关系抽取编码向量,步骤s442包括下述步骤s4421~s4422:
[0439]
s4421、在所述分类标签为对称关系标签的情况下,将所述第一样本关系对最终编码向量的两个样本关系抽取编码向量进行反向排列,生成反向第一样本关系对最终编码向量。
[0440]
在一种具体使用场景下,在分类标签为对称关系标签的情况下,比如conjunction,在标注的时候通常是(span1,span2,conjunction),所以可以做一个数据增强,增加反向第一样本关系对编码向量(span2,span1)得到(span2,span1,conjunction)后再后续计算损失值。
[0441]
s4422、将所述第一样本关系对最终编码向量的分值以及对应的分类标签、所述反向第一样本关系对最终编码向量以及对应的分类标签分别利用交叉熵损失函数计算关系抽取模型的损失值。
[0442]
具体地,分别基于实体识别模型、关系抽取模型、共指消解的损失值,自模型的输出层开始至输入层为止,反向调整模型中每一层神经元节点的权重值,对模型进行训练。
[0443]
本实施例中通过根据任意两个样本关系抽取编码向量在候选实体片段中的语义关系,分别获得任意两个样本关系抽取编码向量的正向语义关系的第一样本关系对最终编码向量和反向语义关系的反向第一样本关系对最终编码向量,从而在训练过程中引入了语义关系的考量,从而可以使关系抽取结果更加准确。
[0444]
s443、基于第二样本关系对最终编码向量的分值与第二样本关系对最终编码向量的分类标签利用交叉熵损失函数计算共指消解模型的损失值。
[0445]
例如,在实体识别模型训练过程中,经过交叉熵计算得到的一组损失值的结果可能是[-0.0000,-6.8651,-9.8858,-9.3611,-9.4160,-8.8986,-10.0036],其中,7个数分别对应着数字0~6,每个数字代表一个分类标签。
[0446]
通过f.softmax变成分类概率[9.9856e-01,1.0421e-03,5.0818e-05,8.5878e-05,8.1292e-05,1.3638e-04,4.5174e-05],最后取最大值就是最终损失值。
[0447]
交叉熵损失函数的公式如下所示:
[0448][0449]
交叉熵是表示两个概率分布p、q的差异,其中p表示真实分布即样本识别剪枝编码向量、第一样本关系对编码向量和第二样本关系对编码向量对应的分类标签的编码向量,q表示非真实分布即样本识别剪枝编码向量、第一样本关系对编码向量和第二样本关系对编码向量,h(p,q)表示损失值。
[0450]
本技术提供的多任务模型的训练方法,在训练过程中首先将关系抽取任务、共指消解任务、实体识别任务进行有机结合,再分别对关系抽取模型、共指消解模型和实体识别模型进行训练,可以有效提高模型训练的效果,提高关系抽取模型、共指消解模型和实体识别模型的性能。
[0451]
如图5所示,本实施例公开了一种基于多任务模型的词语处理装置,包括:
[0452]
实体片段获取模块510,被配置为获取候选实体片段,并基于所述候选实体片段生
成候选实体片段编码向量;
[0453]
实体识别剪枝模块520,被配置为通过实体识别模型对所述候选实体片段编码向量进行实体识别处理和分类剪枝处理,获得识别剪枝编码向量;
[0454]
关系抽取处理模块530,被配置为将所述识别剪枝编码向量输入至关系抽取模型进行两次打分,生成第一关系对最终编码向量,将所述第一关系对最终编码向量通过所述关系抽取模型进行处理,确定所述候选实体片段中词语之间的关系;
[0455]
共指消解处理模块540,被配置为将所述识别剪枝编码向量输入至共指消解模型进行两次打分,生成第二关系对最终编码向量,将所述第二关系对最终编码向量通过所述共指消解模型进行处理,确定所述候选实体片段中词语之间的共指关系。
[0456]
可选地,所述关系抽取处理模块530,进一步被配置为:
[0457]
通过关系抽取模型对所述识别剪枝编码向量进行第一次打分,并基于分值对所述识别剪枝编码向量进行剪枝,获得关系抽取编码向量;
[0458]
基于所述关系抽取编码向量进行第二次打分生成第一关系对最终编码向量,通过所述关系抽取模型对所述第一关系对最终编码向量进行关系抽取处理,获得关系抽取结果,并基于所述关系抽取结果确定所述候选实体片段中词语之间的关系。
[0459]
可选地,所述共指消解处理模块540,进一步被配置为:
[0460]
通过共指消解模型对所述识别剪枝编码向量进行第一次打分,并基于分值对所述识别剪枝编码向量进行剪枝,获得共指消解编码向量;
[0461]
基于所述共指消解编码向量进行第二次打分生成第二关系对最终编码向量,通过所述共指消解模型对所述第二关系对最终编码向量进行共指消解处理,获得共指消解结果,并基于所述共指消解结果确定所述候选实体片段中词语之间的共指关系。
[0462]
可选地,所述实体识别模型与所述关系抽取模型、共指消解模型共用一个用于打分的前馈神经网络;
[0463]
所述实体识别剪枝模块520,进一步被配置为:
[0464]
将所述候选实体片段编码向量输入至实体识别模型中,通过所述前馈神经网络对所述候选实体片段编码向量进行打分;
[0465]
基于所述候选实体片段编码向量的分数对所述候选实体编码向量进行分类处理,获得所述候选实体编码向量的分类标签,并对所述候选实体编码向量进行剪枝,获得识别剪枝编码向量。
[0466]
可选地,所述关系抽取模型与所述实体识别模型共用一个用于打分的前馈神经网络;
[0467]
所述关系抽取处理模块530,进一步被配置为:
[0468]
将所述识别剪枝编码向量输入至所述关系抽取模型中,通过所述前馈神经网络对所述识别剪枝编码向量进行第一次打分,得到所述识别剪枝编码向量的分数;
[0469]
将分数大于或等于预设阈值的识别剪枝编码向量作为关系抽取编码向量。
[0470]
可选地,所述共指消解模型与所述实体识别模型共用一个用于打分的前馈神经网络;
[0471]
所述共指消解处理模块540,进一步被配置为:
[0472]
将所述识别剪枝编码向量输入至所述共指消解模型中,通过所述前馈神经网络对
所述识别剪枝编码向量进行第一次打分,得到所述识别剪枝编码向量的分数;
[0473]
将分数大于或等于预设阈值的识别剪枝编码向量作为共指消解编码向量。
[0474]
可选地,所述关系抽取处理模块530,进一步被配置为:
[0475]
基于关系抽取编码向量以及所述关系抽取编码向量的分类标签,获得第一初始关系对编码向量;
[0476]
对所述第一初始关系对编码向量进行分类预测处理,基于所述分类预测的结果按照预设比例对所述第一初始关系对编码向量进行剪枝,获得第一关系对编码向量;
[0477]
将所述第一关系对编码向量通过所述前馈神经网络进行第二次打分,基于第二次打分的分数以及所述第一关系对编码向量得到第一关系对最终编码向量。
[0478]
可选地,所述关系抽取处理模块530,进一步被配置为:
[0479]
基于所述第一关系对编码向量的第二次打分的分数生成第一权重分数;
[0480]
基于第一权重分数对所述第一关系对编码向量对应的关系抽取编码向量依次进行注意力处理,得到第一中间向量;
[0481]
基于所述第一中间向量和所述第一关系对编码向量对应的关系抽取编码向量进行门控处理,得到第一门控向量;
[0482]
根据所述第一门控向量、所述第一中间向量以及所述第一关系对编码向量对应的关系抽取编码向量进行重新编码,生成重新编码后的第一更新编码向量;
[0483]
基于所述第一更新编码向量以及所述第一更新编码向量的分类标签,生成第一关系对最终编码向量。
[0484]
可选地,所述关系抽取处理模块530,进一步被配置为:
[0485]
通过前馈神经网络对所述第一初始关系对编码向量进行打分,获得第一初始关系对编码向量的分数;
[0486]
对所述第一初始关系对编码向量进行分类预测处理,获得所述第一初始关系对编码向量的类别;
[0487]
基于所述第一初始关系对编码向量的类别和分数对所述第一初始关系对编码向量进行剪枝,获得第一关系对编码向量。
[0488]
可选地,所述关系抽取处理模块530,进一步被配置为:
[0489]
将所述关系抽取编码向量的分类标签进行编码处理,生成第一标签向量;
[0490]
基于任意两个所述关系抽取编码向量及其对应的所述第一标签向量,获得任意两个所述关系抽取编码向量的第一初始关系对编码向量。
[0491]
可选地,所述关系抽取处理模块530,进一步被配置为:
[0492]
将所述关系抽取编码向量的分类标签进行编码处理,生成第一标签向量;
[0493]
基于任意两个所述关系抽取编码向量在所述候选实体片段中的位置,确定该任意两个关系抽取编码向量之间的语义向量;
[0494]
基于任意两个所述关系抽取编码向量、该任意两个关系抽取编码向量之间的语义向量以及每个所述关系抽取编码向量对应的所述第一标签向量,获得任意两个所述关系抽取编码向量的第一初始关系对编码向量。
[0495]
可选地,所述关系抽取处理模块530,进一步被配置为:
[0496]
确定该任意两个关系抽取编码向量之间的多个词向量;
[0497]
将所述任意两个关系抽取编码向量之间的多个词向量进行池化处理或者注意力处理,得到对应的语义向量。
[0498]
可选地,所述关系抽取处理模块530,进一步被配置为:
[0499]
根据任意两个所述关系抽取编码向量在所述候选实体片段中的语义关系,分别获得任意两个所述关系抽取编码向量的正向语义关系的第一初始关系对编码向量和反向语义关系的第一初始关系对编码向量。
[0500]
可选地,所述关系抽取处理模块530,进一步被配置为:通过前馈神经网络对任意两个所述关系抽取编码向量的正向语义关系的第一初始关系对编码向量和反向语义关系的第一初始关系对编码向量进行打分,并使反向语义关系的第一初始关系对编码向量的分数小于预设阈值。
[0501]
可选地,所述共指消解处理模块540,进一步被配置为:
[0502]
基于共指消解编码向量以及所述共指消解编码向量的分类标签,获得第二初始关系对编码向量;
[0503]
对所述第二初始关系对编码向量进行分类预测处理,基于所述分类预测的结果按照预设比例对所述第二初始关系对编码向量进行剪枝,获得第二关系对编码向量;
[0504]
将所述第二关系对编码向量通过所述前馈神经网络进行第二次打分,基于第二次打分的分数以及所述第二关系对编码向量得到第二关系对最终编码向量。
[0505]
可选地,所述共指消解处理模块540,进一步被配置为:
[0506]
基于对所述第二关系对编码向量的第二次打分的分数生成第二权重分数;
[0507]
基于第二权重分数对所述第二关系对编码向量对应的共指消解编码向量依次进行注意力处理,得到第二中间向量;
[0508]
基于所述第二中间向量和所述第二关系对编码向量对应的共指消解编码向量进行门控处理,得到第二门控向量;
[0509]
根据所述第二门控向量、所述第二中间向量以及所述第二关系对编码向量对应的共指消解编码向量进行重新编码,生成重新编码后的第二更新编码向量;
[0510]
基于所述第二更新编码向量以及所述第二更新编码向量的分类标签,生成第二关系对最终编码向量。
[0511]
可选地,所述共指消解处理模块540,进一步被配置为:
[0512]
将所述共指消解编码向量的分类标签进行编码处理,生成第二标签向量;
[0513]
基于任意两个所述共指消解编码向量及其对应的所述第二标签向量,获得任意两个所述共指消解编码向量的第二初始关系对编码向量。
[0514]
可选地,所述共指消解处理模块540,进一步被配置为:
[0515]
将所述共指消解编码向量的分类标签进行编码处理,生成第二标签向量;
[0516]
基于任意两个所述共指消解编码向量在所述候选实体片段中的位置,确定该任意两个共指消解编码向量之间的语义向量;
[0517]
基于任意两个所述共指消解编码向量、该任意两个共指消解编码向量之间的语义向量以及每个所述共指消解编码向量对应的所述第二标签向量,获得任意两个所述共指消解编码向量的第二初始关系对编码向量。
[0518]
可选地,所述共指消解处理模块540,进一步被配置为:
[0519]
确定该任意两个共指消解编码向量之间的多个词向量;
[0520]
将所述任意两个共指消解编码向量之间的多个词向量进行池化处理或者注意力处理,得到对应的语义向量。
[0521]
可选地,所述共指消解处理模块540,进一步被配置为:
[0522]
通过前馈神经网络对所述第二初始关系对编码向量进行打分,获得第二初始关系对编码向量的分数;
[0523]
对所述第二初始关系对编码向量进行分类预测处理,获得所述第二初始关系对编码向量的类别;
[0524]
基于所述第二初始关系对编码向量的类别和分数对所述第二初始关系对编码向量进行剪枝,获得第二关系对编码向量。
[0525]
可选地,所述关系抽取处理模块530,进一步被配置为:通过所述关系抽取模型对所述第一关系对最终编码向量进行打分,并基于打分结果对所述第一关系对最终编码向量进行分类预测处理,获得关系抽取结果。
[0526]
可选地,所述共指消解处理模块540,进一步被配置为:通过所述共指消解模型对所述第二关系对最终编码向量进行打分,并基于打分结果对所述第二关系对最终编码向量进行分类预测处理,获得共指消解结果。
[0527]
可选地,所述装置还包括:实体识别模块,被配置为:将所述第一关系对最终编码向量以及所述第二关系对最终编码向量输入至所述实体识别模型进行实体识别处理。
[0528]
本技术提供的基于多任务模型的词语处理装置,首先通过实体识别模型对候选实体片段编码向量进行实体识别处理和分类剪枝处理获得识别剪枝编码向量,以减少候选实体片段编码向量中的负例,再将识别剪枝编码向量分别输入至关系抽取模型和共指消解模型进行两次打分,分别得到第一关系对最终编码向量和第二关系对最终编码向量,然后将第一关系对最终编码向量通过关系抽取模型进行处理确定候选实体片段中词语之间的关系、将第二关系对最终编码向量通过共指消解模型进行处理确定候选实体片段中词语之间的共指关系,从而通过两次打分分别对关系抽取任务和共指消解任务增加约束,提升了关系抽取模型和共指消解模型的评价指标,可以更加准确地分别获取候选实体片段中词语之间的关系以及共指关系。
[0529]
本实施例提供的基于多任务模型的词语处理装置,实现了关系抽取模型、共指消解模型、实体识别模型的有机结合,实现了关系抽取任务、共指消解任务、实体识别任务的有机结合,实现了上述三个任务中信息的共享,可以有效提高关系抽取、共指消解、实体识别的正确率、召回率,有效提高词语关系确定基于多任务模型的词语处理的准确率。
[0530]
上述为本实施例的一种基于多任务模型的词语处理装置的示意性方案。需要说明的是,该装置的技术方案与上述的基于多任务模型的词语处理方法的技术方案属于同一构思,装置的技术方案未详细描述的细节内容,均可以参见上述基于多任务模型的词语处理方法的技术方案的描述。
[0531]
如图6所示,本实施例公开了一种多任务模型的训练装置,包括:
[0532]
样本片段获取模块610,被配置为获取样本候选实体片段,并基于所述样本候选实体片段生成样本候选实体片段编码向量;
[0533]
样本识别剪枝模块620,被配置为通过实体识别模型对所述样本候选实体片段编
码向量进行实体识别处理和分类剪枝处理,获得样本识别剪枝编码向量;
[0534]
样本处理模块630,被配置为分别将所述样本识别剪枝编码向量输入至关系抽取模型和共指消解模型中进行两次打分处理,获得第一样本关系对最终编码向量和第二样本关系对最终编码向量;
[0535]
模型训练模块640,被配置为分别基于第一样本关系对最终编码向量和第二样本关系对最终编码向量确定所述实体识别模型、所述关系抽取模型和所述共指消解模型的损失值,并对所述实体识别模型、所述关系抽取模型和所述共指消解模型进行训练。
[0536]
可选地,所述样本处理模块630进一步被配置为:
[0537]
将所述样本识别剪枝编码向量输入至所述关系抽取模型中,通过所述关系抽取模型对所述样本识别剪枝编码向量进行第一次打分,并基于分值对所述样本识别剪枝编码向量进行剪枝,获得样本关系抽取编码向量,基于所述样本关系抽取编码向量进行第二次打分生成第一样本关系对最终编码向量;
[0538]
将所述样本识别剪枝编码向量输入至所述共指消解模型中,通过共指消解模型对所述样本识别剪枝编码向量进行第一次打分,并基于分值对所述样本识别剪枝编码向量进行剪枝,获得样本共指消解编码向量,基于所述样本共指消解编码向量进行第二次打分生成第二样本关系对最终编码向量。
[0539]
可选地,所述样本处理模块630进一步被配置为:
[0540]
基于样本关系抽取编码向量以及所述样本关系抽取编码向量的分类标签,获得第一初始样本关系对编码向量;
[0541]
对所述第一初始样本关系对编码向量进行分类预测处理,基于所述分类预测的结果按照预设比例对所述第一初始样本关系对编码向量进行剪枝,获得第一样本关系对编码向量;
[0542]
将所述第一样本关系对编码向量通过所述前馈神经网络进行第二次打分,基于两次打分的分数以及所述第一样本关系对编码向量得到第一样本关系对最终编码向量。
[0543]
可选地,所述样本处理模块630进一步被配置为:
[0544]
基于所述第一样本关系对编码向量的第二次打分的分数生成第一样本权重分数;
[0545]
基于第一样本权重分数对所述第一样本关系对编码向量对应的样本关系抽取编码向量依次进行注意力处理,得到第一样本中间向量;
[0546]
基于所述第一样本中间向量和所述第一样本关系对编码向量对应的样本关系抽取编码向量进行门控处理,得到第一样本门控向量;
[0547]
根据所述第一样本门控向量、所述第一样本中间向量以及所述第一样本关系对编码向量对应的样本关系抽取编码向量进行重新编码,生成重新编码后的第一样本更新编码向量;
[0548]
基于所述第一样本更新编码向量以及所述第一样本更新编码向量的分类标签,生成第一样本关系对最终编码向量。
[0549]
可选地,所述样本处理模块630进一步被配置为:
[0550]
基于样本共指消解编码向量以及所述样本共指消解编码向量的分类标签,获得第二初始样本关系对编码向量;
[0551]
对所述第二初始样本关系对编码向量进行分类预测处理,基于所述分类预测的结
果按照预设比例对所述第二初始样本关系对编码向量进行剪枝,获得第二样本关系对编码向量;
[0552]
将所述第二样本关系对编码向量通过所述前馈神经网络进行第二次打分,基于两次打分的分数以及所述第二样本关系对编码向量得到第二样本关系对最终编码向量。
[0553]
可选地,所述样本处理模块630进一步被配置为:
[0554]
基于所述第二样本关系对编码向量的第二次打分的分数生成第二样本权重分数;
[0555]
基于第二样本权重分数对所述第二样本关系对编码向量对应的样本共指消解编码向量依次进行注意力处理,得到第二样本中间向量;
[0556]
基于所述第二样本中间向量和所述第二样本关系对编码向量对应的样本共指消解编码向量进行门控处理,得到第二样本门控向量;
[0557]
根据所述第二样本门控向量、所述第二样本中间向量以及所述第二样本关系对编码向量对应的样本共指消解编码向量,生成重新编码后的第二样本更新编码向量;
[0558]
基于所述第二样本更新编码向量以及所述第二样本更新编码向量的分类标签,生成第二样本关系对最终编码向量。
[0559]
可选地,模型训练模块640,进一步被配置为:
[0560]
基于所述第一样本关系对最终编码向量的分值以及分类标签、所述第二样本关系对最终编码向量的分值以及分类标签利用交叉熵损失函数计算实体识别模型的损失值;
[0561]
基于第一样本关系对最终编码向量的分值与第一样本关系对最终编码向量的分类标签利用交叉熵损失函数计算关系抽取模型的损失值;
[0562]
基于第二样本关系对最终编码向量的分值与第二样本关系对最终编码向量的分类标签利用交叉熵损失函数计算共指消解模型的损失值。
[0563]
可选地,第一样本关系对最终编码向量包括两个样本关系抽取编码向量,模型训练模块640,进一步被配置为:
[0564]
在所述分类标签为对称关系标签的情况下,将所述第一样本关系对最终编码向量的两个样本关系抽取编码向量进行反向排列,生成反向第一样本关系对最终编码向量;
[0565]
将所述第一样本关系对最终编码向量的分值以及对应的分类标签、所述反向第一样本关系对最终编码向量以及对应的分类标签分别利用交叉熵损失函数计算关系抽取模型的损失值。
[0566]
本技术提供的多任务模型的训练装置,在训练过程中首先将关系抽取任务、共指消解任务、实体识别任务进行有机结合,再分别对关系抽取模型、共指消解模型和实体识别模型进行训练,可以有效提高模型训练的效果,提高关系抽取模型、共指消解模型和实体识别模型的性能。
[0567]
如图7所示,图7是示出了根据本说明书一实施例的计算设备700的结构框图。该计算设备700的部件包括但不限于存储器770和处理器720。处理器720与存储器770通过总线730相连接,数据库750用于保存数据。
[0568]
计算设备700还包括接入设备740,接入设备740使得计算设备700能够经由一个或多个网络760通信。这些网络的示例包括公用交换电话网(pstn)、局域网(lan)、广域网(wan)、个域网(pan)或诸如因特网的通信网络的组合。接入设备740可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(nic))中的一个或多个,诸如ieee802.77无线局域
网(wlan)无线接口、全球微波互联接入(wi-max)接口、以太网接口、通用串行总线(usb)接口、蜂窝网络接口、蓝牙接口、近场通信(nfc)接口,等等。
[0569]
在本说明书的一个实施例中,计算设备700的上述部件以及图7中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图7所示的计算设备结构框图仅仅是出于示例的目的,而不是对本说明书范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
[0570]
计算设备700可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或pc的静止计算设备。计算设备700还可以是移动式或静止式的服务器。所述计算设备可以上述任一实施例所述的方法。
[0571]
本技术一实施例还提供一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现如前所述基于多任务模型的词语处理方法或多任务模型的训练方法的步骤。
[0572]
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的基于多任务模型的词语处理方法或多任务模型的训练方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述基于多任务模型的词语处理方法或多任务模型的训练方法的技术方案的描述。
[0573]
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、u盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
[0574]
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本技术并不受所描述的动作顺序的限制,因为依据本技术,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本技术所必须的。
[0575]
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
[0576]
以上公开的本技术优选实施例只是用于帮助阐述本技术。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本技术的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本技术。本技术仅受权利要求书及其全部范围和等效物的限制。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献