一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种确定机构属性的方法及装置

2022-06-08 10:32:40 来源:中国专利 TAG:


1.本技术涉及数据分析领域,更具体地说,涉及一种确定机构属性的方法及装置。


背景技术:

2.属性是基于属性的访问控制机制实施的前提与基础,机构属性是用来对非结构化文本资源所归属的管理与应用机构进行描述的一类资源属性信息。在访问控制的实施阶段,机构属性能够从空间维度对数据资源的访问控制行为进行约束,是一类重要的访问控制资源属性。在访问控制策略中,可以通过利用机构属性来实现对用户访问行为的授权与访问控制。因此,为客体资源打上机构属性标记具有重要价值。
3.现有访问控制属性管理技术主要依靠安全专家的经验手工实现对客体资源访问控制属性的标注与管理。但是,在具有海量、动态特征的复杂大数据环境中,客体资源规模巨大且增速极快,安全专家难以通过人力来实施这种劳动密集型的属性标记与管理工作,无法适应大数据场景下的动态访问控制的实施需求,因此,急需将安全人员从繁重的属性管理工作中解脱出来,减小机构属性管理工作对管理员个人专业知识的依赖,提高机构属性管理的可靠性和准确性。


技术实现要素:

4.本技术实施例提供一种确定机构属性的方法及装置,能够自动确定待匹配文本资源对应的机构属性,从而将安全人员从繁重的属性管理工作中解脱出来,减小机构属性管理工作对管理员个人专业知识的依赖,提高机构属性管理的可靠性和准确性。
5.为了实现上述目的,本技术实施例提供如下技术方案:
6.一种确定机构属性的方法,包括:
7.获取待匹配文本资源集合,所述待匹配文本资源集合包括至少一个待匹配文本资源;
8.获取候选机构属性集合,所述候选机构属性集合包括至少一个候选机构属性;
9.将所述待匹配文本资源输入联合模型中,得到所述待匹配文本资源的融合特征;其中,所述联合模型包括长短期记忆网络和胶囊网络,所述融合特征由所述长短期记忆网络和所述胶囊网络分别输出的第二特征处理结果融合得到;
10.根据所述融合特征和所述候选机构属性,计算所述待匹配文本资源与所述候选机构属性的匹配度;
11.将所述匹配度最高的候选机构属性确定为所述待匹配文本资源对应的机构属性。
12.优选的,所述将所述待匹配文本资源输入联合模型中,得到所述待匹配文本资源的融合特征,包括:
13.将所述待匹配文本资源输入所述联合模型的输入层中,得到词向量特征;
14.将所述词向量特征输入所述联合模型的联合处理层中,得到第一特征处理结果和第二特征处理结果,所述联合处理层包括所述长短期记忆网络和所述胶囊网络;
15.将所述第一特征处理结果和所述第二特征处理结果输入所述联合模型的融合输出层中,得到所述待匹配文本资源的融合特征。
16.优选的,所述将所述待匹配文本资源输入所述联合模型的输入层中,得到词向量特征,包括:
17.将所述待匹配文本资源输入所述输入层中,所述输入层通过预训练语言模型生成;
18.通过所述预训练语言模型对所述待匹配文本资源进行特征提取,得到所述词向量特征。
19.优选的,所述将所述词向量特征输入所述联合模型的联合处理层中,得到第一特征处理结果和第二特征处理结果,包括:
20.将所述词向量特征输入所述联合处理层中的第一处理子层中;
21.通过所述第一处理子层对所述词向量特征进行计算,得到注意力机制输出值,并将所述注意力机制输出值输入至所述长短期记忆网络中;
22.通过所述长短期记忆网络对所述注意力机制输出值进行计算,得到所述第一特征处理结果;
23.将所述词向量特征输入到所述联合处理层的第二处理子层中;
24.通过所述第二处理子层对所述词向量特征进行卷积计算,得到卷积特征,并将所述卷积特征输入至所述胶囊网络中;
25.通过所述胶囊网络对所述卷积特征进行计算,得到所述第二特征处理结果。
26.优选的,所述将所述第一特征处理结果和所述第二特征处理结果输入所述联合模型的融合输出层中,得到所述待匹配文本资源的融合特征,包括:
27.将所述第一特征处理结果和所述第二特征处理结果输入所述联合模型的融合输出层中;
28.通过所述融合处理层对所述第一特征处理结果和所述第二特征处理结果进行拼接处理,得到拼接特征;
29.将所述拼接特征输入全连接网络中,得到所述融合特征。
30.一种确定机构属性的装置,包括:
31.第一获取单元,用于获取待匹配文本资源集合,所述待匹配文本资源集合包括至少一个待匹配文本资源;
32.第二获取单元,用于获取候选机构属性集合,所述候选机构属性集合包括至少一个候选机构属性;
33.输入单元,用于将所述待匹配文本资源输入联合模型中,得到所述待匹配文本资源的融合特征;
34.匹配度计算单元,用于根据所述融合特征和所述候选机构属性,计算所述待匹配文本资源与所述候选机构属性的匹配度,其中,所述联合模型包括长短期记忆网络和胶囊网络,所述融合特征由所述长短期记忆网络和所述胶囊网络分别输出的特征处理结果融合得到;
35.确定单元,用于将所述匹配度最高的候选机构属性确定为所述待匹配文本资源对应的机构属性。
36.优选的,所述输入单元包括第一输入模块、第二输入模块以及第三输入模块;
37.所述第一输入模块,用于将所述待匹配文本资源输入所述联合模型的输入层中,得到词向量特征;
38.所述第二输入模块,用于将所述词向量特征输入所述联合模型的联合处理层中,得到第一特征处理结果和第二特征处理结果,所述联合处理层包括所述长短期记忆网络和所述胶囊网络;
39.所述第三输入模块,用于将所述第一特征处理结果和所述第二特征处理结果输入所述联合模型的融合输出层中,得到所述待匹配文本资源的融合特征。
40.优选的,所述第一输入模块,具体用于:
41.将所述待匹配文本资源输入所述输入层中,所述输入层通过预训练语言模型中生成;
42.通过所述预训练语言模型对所述待匹配文本资源进行特征提取,得到所述词向量特征。
43.优选的,所述第二输入模块,具体用于:
44.将所述词向量特征输入所述联合处理层中的第一处理子层中;
45.通过所述第一处理子层对所述词向量特征进行计算,得到注意力机制输出值,并将所述注意力机制输出值输入至所述长短期记忆网络中;
46.通过所述长短期记忆网络对所述注意力机制输出值进行计算得到所述第一特征处理结果;
47.将所述词向量特征输入到所述联合处理层的第二处理子层中;
48.通过所述第二处理子层对所述词向量特征进行卷积计算,得到卷积特征,并将所述卷积特征输入至所述胶囊网络中;
49.通过所述胶囊网络对所述卷积特征进行计算,得到所述第二特征处理结果。
50.优选的,所述第三输入模块,具体用于:
51.将所述第一特征处理结果和所述第二特征处理结果输入所述联合模型的融合输出层中;
52.通过所述融合处理层对所述第一特征处理结果和所述第二特征处理结果进行拼接处理,得到拼接特征;
53.将所述拼接特征输入全连接网络中,得到所述融合特征。
54.本技术实施例提供了一种确定机构属性的方法,该方法包括获取待匹配文本资源集合,所述待匹配文本资源集合包括至少一个待匹配文本资源;获取候选机构属性集合,所述候选机构属性集合包括至少一个候选机构属性;将所述待匹配文本资源输入联合模型中,得到所述待匹配文本资源的融合特征;其中,所述联合模型包括长短期记忆网络和胶囊网络,所述融合特征由所述长短期记忆网络和所述胶囊网络分别输出的特征处理结果融合得到;根据所述融合特征和所述候选机构属性,计算所述待匹配文本资源与所述候选机构属性的匹配度;将所述匹配度最高的候选机构属性确定为所述待匹配文本资源对应的机构属性。可见,在本技术实施例中,能够自动确定待匹配文本资源对应的机构属性,从而将安全人员从繁重的属性管理工作中解脱出来,减小机构属性管理工作对管理员个人专业知识的依赖,提高机构属性管理的可靠性和准确性。
附图说明
55.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
56.图1为本技术实施例提供的一种确定机构属性的方法的实施例示意图;
57.图2为本技术实施例提供的另一种确定机构属性的方法的实施例示意图;
58.图3为本技术实施例提供的一种bert模型将待匹配文本资源进行向量化处理的示意图;
59.图4为本技术实施例提供的bert模型与其他语言模型的结构对比图;
60.图5为本技术实施例提供的胶囊网络中动态路由机制的处理示意图;
61.图6为本技术实施例提供的一种联合模型的结构示意图;
62.图7(a)为本技术实施例中单次训练输入数据量batch_size对模型性能影响的实验结果;
63.图7(b)为本技术实施例中bilstm结构中的神经元units数量对模型性能影响的实验结果;
64.图7(c)为本技术实施例中胶囊网络结构中路由数routings对模型性能影响的实验结果;
65.图7(d)为本技术实施例中胶囊网络结构中胶囊数目num_capsule对模型性能影响的实验结果;
66.图7(e)为本技术实施例中连接门控卷积单元gatedconv前的卷积结构中卷积核尺寸kernel_size对模型性能影响的实验结果;
67.图7(f)为本技术实施例中卷积结构中filters数目对模型性能的影响的实验结果;
68.图8(a)为本技术实施例中不同模型accurary的对比;
69.图8(b)为本技术实施例中不同模型precision的对比;
70.图8(c)为本技术实施例中不同模型recall的对比;
71.图8(d)为本技术实施例中不同模型f1-measure的对比;
72.图9为本技术实施例提供的一种确定机构属性的装置的结构示意图。
具体实施方式
73.下面将结合本发明实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
74.图1是本技术实施例提供的一种确定机构属性的方法的实施例示意图。
75.如图1所述,本技术实施例提供了一种确定机构属性的方法,包括:
76.100、获取待匹配文本资源集合,所述待匹配文本资源集合包括至少一个待匹配文本资源。
77.在本技术实施例中,首先可以获取待匹配文本资源集合,其中待匹配文本资源集合至少包括一个待匹配文本资源。可以理解的是,待匹配文本资源集合可以是某个领域的文本资源的合集,例如医学领域的文本资源,机械领域的文本资源或法学领域的文本资源等。
78.200、获取候选机构属性集合,所述候选机构属性集合包括至少一个候选机构属性。
79.在本技术实施例中,还可以获取由待匹配文本资源集合中所有待匹配文本资源对应的机构属性组成的集合,也即候选机构属性集合,其中候选机构属性集合包括至少一个候选机构属性。可以理解的是,每个待匹配文本资源都应该有一个唯一对应的机构属性,这些机构属性可以作为每个待匹配文本资源的候选机构属性。候选机构属性可以是医学领域的机构属性,例如儿科、消化内科、神经内科、皮肤科等。
80.300、将所述待匹配文本资源输入联合模型中,得到所述待匹配文本资源的融合特征。
81.在本技术实施中,预先训练出了一个联合模型,用于获取待匹配文本资源的融合特征,该联合模型可以包括输入层、联合处理层以及融合输出层。具体地,该联合模型可以包括长短期记忆网络和胶囊网络,融合特征可以由长短期记忆网络计算得到的第一特征处理结果和胶囊网络计算得到的第二特征处理结果融合得到。可以理解的是,经过联合模型计算得到的待匹配文本资源的融合特征可以很好地体现待匹配文本资源的文本含义,可用于直接与候选机构属性进行匹配,从而确定出待匹配文本资源对应的机构属性。
82.可选的,如图2所示,本技术实施例提供了另一种确定机构属性的方法,其中步骤s300可以包括:
83.s310、将所述待匹配文本资源输入所述联合模型的输入层中,得到词向量特征。
84.在本技术实施例中,可以先将待匹配文本资源输入到联合模型的输入层中,获得待匹配文本资源的词向量。
85.可选的,在联合模型中的输入层可以使用预训练语言模型(bidirectional encoder representation from transformers,bert)来对待匹配文本进行向量化,得到待匹配文本资源的词向量。可以理解的是,基于迁移学习的思想将基于各领域的海量文本资源训练得到的预训练语言模型,应用于解决如何确定非结构化文本资源的机构属性的问题,能够有效地避免特定自然语言处理(natural language processing,nlp)任务中特定训练数据不足的问题,提高词向量模型的泛化能力,能够充分地对字级、词级、句子级关系表示特征进行了描述。
86.bert模型将待匹配文本资源进行向量化处理的过程如图3所示。其中,token embeddings用来表示词向量,在对中文文本资源进行处理的过程中既可以是词向量,也可以是字向量。为了实现细粒度的文本表示,可以采用字向量来对资源进行描述。cls标志是文本资源的首个字符,用来标识文本资源的开始。sep标志用来表示文本资源内语句的结束与分割。segment embeddings用来区分不同的句子信息。position embeddings用于学习与获取文本内字词的位置信息。对于给定的文本资源,将这个3部分embeddings进行求和处理后,得到输入文本资源最终的文本级向量表示。
87.如图4所示,本技术实施例中的bert模型与其它语言模型结构相比,bert模型基于
双向transformer技术进行词向量的训练,该模型兼容了openai gpt、elmo等模型的优点,能够同时建立左右两侧的上下文依赖关系,并且具有更深的训练层数和更好的训练并行性,在多项nlp任务中都具有非常优异的性能。
88.s320、将所述词向量特征输入所述联合模型的联合处理层中,得到第一特征处理结果和第二特征处理结果。
89.在本技术实施例中,在接收到由输入层输出的待匹配文本资源的词向量特征后,可以将其输入联合处理层中,得到第一特征处理结果和第二特征处理结果,在联合处理层中可以包括长短期记忆网络和胶囊网络。可以理解的是,联合处理层可以包括第一处理子层和第二处理子层,分别用于对词向量特征进行计算得到第一特征处理结果和第二特征处理结果。
90.可选的,第一特征处理子层可以为att_bilstm层。第一特征处理子层计算得到第一特征处理结果的具体步骤可以为:
91.首先,计算不同词向量特征间的注意力权重,计算方法如下:
92.ei=tanh(wi·hi
bi)(1)
[0093][0094]
其中,hi是向attention中输入的第i个隐藏层状态,wi是权重系数,bi是的偏置。αi是hi对应的注意力权重,tanh()为深度学习中一个特定的激活函数,exp()为以自然常数e为底的指数函数。依据注意力权重向量α∈r
l
,对h进行注意力的加权计算,得到经过注意力机制的输出s,计算方法如下:
[0095][0096]
其次,第一特征处理子层可以包括长短期记忆网络(long short term memory,lstm),bilstm中单个lstm结构单元包括输入门i、遗忘门f、输出门o和细胞状态c四部分内容,计算方法如下:
[0097]i(t)
=σ(wix
(t)
u
ih(t-1)
bi)(4)
[0098]f(t)
=σ(wfx
(t)
ufh
(t-1)
bf)(5)
[0099]o(t)
=σ(wox
(t)
u
oh(t-1)
bo)(6)
[0100]g(t)
=tanh(wgx
(t)
ugh
(t-1)
bg)(7)
[0101][0102][0103]
其中,i
(t)
、f
(t)
、o
(t)
、c
(t)
分别表示在t时刻的输入门、遗忘门、输出门和细胞状态的值,x
(t)
表示t时刻的输入词向量,h
(t)
表示t时刻的隐藏层向量,σ表示sigmoid激活函数,w和b分别是权重矩阵和偏置向量,并且将上述经过注意力机制计算得到的输出结果s作为公式(4)-(8)中x(t)中t=1时对应的输入值。h
forward
和h
backward
分别是bilstm中前向lstm和反向lstm中结构单元输出的隐藏层向量,将h
forward
和h
backward
链接得到bilstm在t时刻的输出,计
算方法如下:
[0104]ct
=concat(h
forward
,h
backward
)(10)
[0105]
其中,h
forward
和h
backward
分别对应待匹配文字资源中的语句在2个方向上的上下文信息。可以理解的是,第一特征处理子层可以将ct作为第一特征处理结果进行输出,第一特征处理结果实际上为用于表示待匹配文本资源中上下文关系的全局特征。
[0106]
在本技术实施例中,由于长短期记忆网络能够解决传统循环神经网络中存在的上下文长期依赖问题,同时考虑到文本资源的上下文词语存在相关性,一个词语可能与其前一个和下一个词语都存在相应关联。因此,引入bilstm网络将两个时序方向相反的lstm链接到同一个网络输出中,从而使得第一处理子层既可以获取历史信息,也能够获取未来信息,进而能够挖掘出待匹配文本资源中上下文关系的全局特征。
[0107]
可选的,第二特征处理子层可以为capsule_net层,第二特征处理子层计算得到第二特征处理结果的具体步骤可以为:
[0108]
首先,对待匹配文本资源的词向量特征进行一维标准卷积计算,该层通过各种卷积滤波器在句子的不同位置提取n-gram特征。计算方法如下:
[0109][0110]
其中,nj是输入映射的集合,是用于连接第i个输入特征映射和第j个输出特征映射的卷积核,是第j个特征映射的偏置项,f是激活函数。
[0111]
门控卷积单元(gated linear units,glu)能够在保留计算单元非线性计算能力的前提下,有效地降低梯度弥散现象的发生。glu在卷积计算中引入了门控机制,控制哪一个特征能够被激活。与池化操作相比,不会丢失空间信息。计算方法如下:
[0112][0113]
其中,x表示门控卷积计算单元的输入,w表示权重、b表示偏置,v激活权重、c表示激活偏置。
[0114]
其次,第二特征处理子层可以包括胶囊网络(capsule network),如图5所示,在胶囊网络中使用squashing压缩函数作为网络的激活函数对向量进行压缩,在保留向量输入方向的同时,将压缩输入向量的模长至(0,1)之间。非线性的squashing函数可以看作是对输入向量进行压缩和再分配的一种方法计算方法如下:
[0115][0116]
其中,vj是第j个胶囊的输出向量,sj是总输入向量。
[0117]
胶囊网络通过动态路由机制(dynamic routing)来计算不同层胶囊间的耦合系数,类似于对输入的特征向量进行聚类计算,从而进行特征选择的过程。依据动态路由机制对特征聚类,当某一特征的相似特征越多时,就认为该类特征越强,从而能够有效的弱化离群特征,筛选表达能力强的特征。详细的计算方法如下:
[0118]
[0119]
其中,cij为不同层胶囊间的耦合系数,表示低层胶囊与与高层胶囊间的对应权重。bij是胶囊i与胶囊j之间的连接权重,bik是指胶囊i与胶囊k之间的连接权重,由上下胶囊的相似程度决定,用于预测上胶囊的输出向量。
[0120]
所有胶囊的总输入向量sj是对下胶囊层的所有预测向量的加权求和,计算方法如下:
[0121][0122][0123]
其中,为下层胶囊的预测向量,w
ij
是权重矩阵,ui是上层胶囊的输出向量。
[0124]bij
作为胶囊i与胶囊j之间的连接权重用于更新耦合系数cij,在路由动态迭代计算过程中,b
ij
会不断更新。计算方法如下:
[0125]
vj=squash(sj)(17)
[0126][0127]
其中,vj为更新后的第j个胶囊的输出向量,作为第二特征处理结果输出。
[0128]
在本技术实施例中,胶囊网络的输出形式与卷积神经网络不同,卷积神经网络的输出是标量,而胶囊神经网络的输出是向量。由于胶囊神经网络能够更好的应对数据的模糊性,实现对不同文本结构模式的同时识别,如单词的位置信息和单词的语法结构,因此,通过引入胶囊网络来处理机构属性确定任务,能够提取出待匹配文本资源中富含上下文语言信息的局部特征。
[0129]
s330、将所述第一特征处理结果和所述第二特征处理结果输入所述联合模型的融合输出层中,得到所述待匹配文本资源的融合特征。
[0130]
在本技术实施例中,在得到表征待匹配文本资源中上下文语言信息的全局特征的第一特征处理结果,以及表征匹配文本资源中上下文语言信息的局部特征的第二特征处理结果后,将该第一特征处理结果和第二特征处理结果输入到融合输出层中,得到待匹配文本资源的融合特征。
[0131]
具体地,可以融合处理层可以先将得到的第一特征处理结果和第二特征处理结果进行拼接,得到拼接特征ff,计算方法如下:
[0132][0133]
其中,表示拼接操作,fpr1表示第一特征处理结果,fpr2表示第二特征处理结果。
[0134]
然后,再将拼接特征ff输入到一个全连接网络dense中,得到融合特征。
[0135]
s400、根据所述融合特征和所述候选机构属性,计算所述待匹配文本资源与所述候选机构属性的匹配度。
[0136]
在本技术实施例中,在获得联合模型输出的待匹配文本资源的融合特征后,需要根据融合特征以及候选机构属性集合中的候选机构属性,分别确定出待匹配文本资源与每个候选机构属性的匹配率。
[0137]
具体地,可以通过softmax函数得到结果待匹配文本资源与每个候选机构属性的
匹配率,计算方法如下:
[0138][0139]
其中,k代表候选机构属性集合中候选机构属性的总个数,sk(f)为待匹配文本资源与候选机构属性k的匹配率,f为融合特征。
[0140]
s500、将所述匹配度最高的候选机构属性确定为所述待匹配文本资源对应的机构属性
[0141]
在本技术实施例中,在分别计算得到待匹配文本资源与候选机构属性集合中每个候选机构属性的匹配率后,从中选取数值最高的匹配度,并将该匹配度对应的候选机构属性,确定为待匹配文本资源对应的机构属性。
[0142]
在本技术实施中提供了一种确定机构属性的方法,该方法包括获取待匹配文本资源集合,所述待匹配文本资源集合包括至少一个待匹配文本资源;获取候选机构属性集合,所述候选机构属性集合包括至少一个候选机构属性;将所述待匹配文本资源输入联合模型中,得到所述待匹配文本资源的融合特征;其中,所述联合模型包括长短期记忆网络和胶囊网络,所述融合特征由所述长短期记忆网络和所述胶囊网络分别输出的特征处理结果融合得到;根据所述融合特征和所述候选机构属性,计算所述待匹配文本资源与所述候选机构属性的匹配度;将所述匹配度最高的候选机构属性确定为所述待匹配文本资源对应的机构属性。可见,在本技术实施例中,能够自动确定待匹配文本资源对应的机构属性,从而将安全人员从繁重的属性管理工作中解脱出来,减小机构属性管理工作对管理员个人专业知识的依赖,提高机构属性管理的可靠性和准确性。
[0143]
在本技术的另一个实施例中,如图6所示,提供了一种联合模型的结构示意图。首先将待匹配文本资源输入联合模型的输入层中,输入层基于迁移学习思想,通过bert预训练语言模型将输入的待匹配文本资源转化为词向量作为特征输出。再将词向量特征分别输入到att_bilstm层和capsule_net层中进行并行分析处理。在att_bilstm层中,先经过一个spatialdropout1d层,从而防止网络模型过拟合。之后,再建立注意力机制,通过bilstm获取和挖掘文本资源内部的语义关系及特征,输出对应的第一特征处理结果fpr1。在capsule_net层中,先经过一个conv1d层来获取待匹配文本资源的上下文关系,再通过一个门控卷积单元gatedconv来激活有效特征,通过胶囊网络capsule利用动态路由机制输出第二特征处理结果fpr2。然后,由融合输出层来将att_bilstm层和capsule_net层中的输出结果fpr1和fpr2进行拼接,实现混合特征拼接,将融合特征输入到全连接网络dense中来获取该资源所对应的融合特征信息,最后通过计算匹配率来确定待匹配文本资源对应的机构属性,从而提高机构属性管理的可靠性和准确性。
[0144]
基于本技术提供的方案,实现了自动确定待匹配文本资源对应的机构属性,从而将安全人员从繁重的属性管理工作中解脱出来,减小机构属性管理工作对管理员个人专业知识的依赖,提高机构属性管理的可靠性和准确性。
[0145]
下面将结合试验数据进行说明:
[0146]
1、试验设置
[0147]
为了验证本技术所提出的一种确定机构属性方法的有效性,可以基于中文医疗导诊科室文本资源数据集进行仿真实验。该数据集涵盖15个医院科室的机构属性信息,共计
10072条非结构化文本资源,数据集的详细描述信息如表1所示。
[0148]
表1
[0149][0150][0151]
通过对数据集进行随机分割,得到由8057(80%)条数据构成的训练数据集以及由2015(20%)条数据构成的测试数据集。实验过程中输入层使用的bert预训练语言模型的词向量维度为3072,使用交叉熵(categorical cross entropy)作为损失函数,使用adam optimizer作为模型训练的优化器,设置优化器的学习率为1e-3去最小化训练过程中总的loss值。实验的软硬件环境如下:操作系统为win1064位,cpu为intel(r)core(tm)i7-4710mq@2.5ghz,gpu为geforce gtx 850m,内存大小为16gb,python的版本为3.6,tensorflow版本为1.14.0,keras版本为2.1.3。并且设计了如下2个实验来对本技术所提出的一种确定机构属性方法的性能进行评估和对比,它们分别是不同超参数的性能对比以及与基准方法的性能对比。
[0152]
2、不同超参数模型的性能对比
[0153]
不同超参数模型的性能对比实验目的是检验出本技术提出的确定机构属性方法的有效性,是否能够正确的确定出待匹配文本资源所对应的机构属性,检验不同超参数对模型学习性能的影响。实验结果如图8所示。实验分别验证和对比了单次训练输入数据量batch_size、bilstm结构中的神经元units数目、胶囊网络结构中路由数routings、胶囊网络结构中胶囊数目num_capsule、卷积结构中卷积核尺寸kernel_size以及卷积结构中filters数目对模型性能的影响。分别从准确率accuracy、精确率precision、召回率recall以及f1-measure这四个评价维度对实验性能进行评估。
[0154]
图7(a)是单次训练输入数据量batch_size对模型性能影响的实验结果,由该实验结果可知,随着输入batch_size的不断增加,模型的各项性能指标的变化趋势是稳步增加,这是由于随着单次训练输入数据量batch_size增加,模型能够依据更多数据进行更有效的训练。但是,当batch_size增加到一定规模时,反而容易导致训练过程过快的达到过拟合,从而影响了训练性能的进一步提高。通过实验发展,在batch_size为100时,模型的整体性能表现较优。图7(b)是bilstm结构中的神经元units数量对模型性能影响的实验结果,由实验结果可知,当units数目为120时,模型的整体性能表现较优,能够充分的挖掘到文本上下文本的语义信息。因此,无需设置过高的units数目值,过高的units数目值反而会降低模型的训练效率。另外,在实验过程中我们发现,bilstm的units数目对训练过程的收敛速度有
一定的影响,随着units数目值增长,训练收敛越来越慢。因此,也没有必要选取过高的units数目值。图7(c)是胶囊网络结构中路由数routings对模型性能影响的实验结果,由实验结果可知,当路由数routings值为8时,模型的整体性能表现较优。这是因为动态路由机制在此条件下能够使不同特征间达到更好的特征选择结果,平衡不同特征对模型的影响程度,筛选较优特征用于机构属性的挖掘。图7(d)是胶囊网络结构中胶囊数目num_capsule对模型性能影响的实验结果,当num_capsule值为20时,模型性能表现最好。图7(e)是连接门控卷积单元gatedconv前的卷积结构中卷积核尺寸kernel_size对模型性能影响的实验结果,卷积核尺寸对模型性能的影响与文本资源词向量的表示形式有关,过短的卷积核尺寸将无法有效挖掘前后存在序列关联的词向量间的空间关系,而过长的卷积核尺寸将容易导致序列词向量空间关系的丢失,使得关注文本资源的注意力分散,从而影响实验性能。通过实验发现,当卷积核尺寸kernel_size为5时,能够较好地兼顾上下文的词关联,模型性能表现最好。图7(f)是卷积结构中filters数目对模型性能的影响的实验结果,当filters数为64时,模型性能表现最好。filters数过少将导致机构属性挖掘模型的欠拟合,filters数过多导致机构挖掘模型过拟合,从而影响了系统性能的进一步提升。
[0155]
3、与基准方法的性能对比
[0156]
为了比较不同神经网络模型在确定机构属性上的性能差异,本技术选取了7个常用的神经网络模型作为基准对比模型。基准对比模型的描述信息如表2所示。
[0157]
表2
[0158][0159]
[0160]
并且由图8(a)-图8(b)所展示的实验结果可知,与其它基准方法的性能相比,本技术所提供的确定机构属性的方法具有更好的综合属性确定效果。在f1-measure性能指标上与其它方法相比分别有2.06%至8.18%的综合性能提升,能够更好地满足自动确定待匹配文本资源对应的机构属性的应用需求。
[0161]
与上述方法实施例相对应,本技术实施例还提供了一种确定机构属性的装置,其结构如图9所示,包括:
[0162]
第一获取单元100,用于获取待匹配文本资源集合,所述待匹配文本资源集合包括至少一个待匹配文本资源;
[0163]
第二获取单元200,用于获取候选机构属性集合,所述候选机构属性集合包括至少一个候选机构属性;
[0164]
输入单元300,用于将所述待匹配文本资源输入联合模型中,得到所述待匹配文本资源的融合特征;
[0165]
匹配度计算单元400,用于根据所述融合特征和所述候选机构属性,计算所述待匹配文本资源与所述候选机构属性的匹配度,其中,所述联合模型包括长短期记忆网络和胶囊网络,所述融合特征由所述长短期记忆网络和所述胶囊网络分别输出的特征处理结果融合得到;
[0166]
确定单元500,用于将所述匹配度最高的候选机构属性确定为所述待匹配文本资源对应的机构属性。
[0167]
可选的,输入单元300包括第一输入模块、第二输入模块以及第三输入模块;
[0168]
所述第一输入模块,用于将所述待匹配文本资源输入所述联合模型的输入层中,得到词向量特征;
[0169]
所述第二输入模块,用于将所述词向量特征输入所述联合模型的联合处理层中,得到第一特征处理结果和第二特征处理结果,所述联合处理层包括所述长短期记忆网络和所述胶囊网络;
[0170]
所述第三输入模块,用于将所述第一特征处理结果和所述第二特征处理结果输入所述联合模型的融合输出层中,得到所述待匹配文本资源的融合特征。
[0171]
可选的,所述第一输入模块,具体用于:
[0172]
将所述待匹配文本资源输入所述输入层中,所述输入层通过预训练语言模型中;
[0173]
通过所述预训练语言模型对所述待匹配文本资源进行特征提取,得到所述词向量特征。
[0174]
可选的,所述第二输入模块,具体用于:
[0175]
将所述词向量特征输入所述联合处理层中的第一处理子层中;
[0176]
所述第一处理子层根据所述词向量特征进行计算,得到注意力机制输出值,并将所述注意力机制输出值输入至所述长短期记忆网络中;
[0177]
通过所述长短期记忆网络对所述注意力机制输出值进行计算得到所述第一特征处理结果;
[0178]
将所述词向量特征输入到所述联合处理层的第二处理子层中;
[0179]
通过所述第二处理子层对所述词向量特征进行卷积计算,得到卷积特征,并将所述卷积特征输入至胶囊网络中;
[0180]
通过所述胶囊网络对所述卷积特征进行计算,得到所述第二特征处理结果。
[0181]
可选的,所述第三输入模块,具体用于:
[0182]
将所述第一特征处理结果和所述第二特征处理结果输入所述联合模型的融合输出层中;
[0183]
通过所述融合处理层对所述第一特征处理结果和所述第二特征处理结果进行拼接处理,得到拼接特征;
[0184]
将所述拼接特征输入全连接网络中,得到所述融合特征。
[0185]
本技术实施例提供了一种确定机构属性的装置,该装置可以获取待匹配文本资源集合,所述待匹配文本资源集合包括至少一个待匹配文本资源;获取候选机构属性集合,所述候选机构属性集合包括至少一个候选机构属性;将所述待匹配文本资源输入联合模型中,得到所述待匹配文本资源的融合特征,其中,所述联合模型包括长短期记忆网络和胶囊网络,所述融合特征由所述长短期记忆网络和所述胶囊网络分别输出的特征处理结果融合得到;根据所述融合特征和所述候选机构属性,计算所述待匹配文本资源与所述候选机构属性的匹配度;将所述匹配度最高的候选机构属性确定为所述待匹配文本资源对应的机构属性。可见,在本技术实施例中,能够自动确定待匹配文本资源对应的机构属性,从而将安全人员从繁重的属性管理工作中解脱出来,减小机构属性管理工作对管理员个人专业知识的依赖,提高机构属性管理的可靠性和准确性。
[0186]
在本技术中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0187]
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本技术。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本技术的精神或范围的情况下,在其它实施例中实现。因此,本技术将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献