一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于知识图谱的常识缺失信息多跳推理方法

2022-05-08 06:45:21 来源:中国专利 TAG:


1.本发明涉及知识图谱技术领域,具体涉及一种基于知识图谱的常识缺失信息多跳推理方法。


背景技术:

2.在过去几年中,代表实体之间结构关系的知识图谱(knowledge graph)引起了学术界和工业界的极大研究关注。
3.常识知识图谱存储丰富的信息,特别是以三元体的形式(头实体、关系、尾实体),例如(汤姆汉克斯,出生于,加利福尼亚州)。常识知识图谱的推理任务主要是解决信息缺失的问题,例如(汤姆汉克斯,出生于,?),对尾实体即加利福尼亚州进行预测
4.现有技术中,知识图谱推理可分为两类方法,一类是基于嵌入的方法,关注于如何将节点和边嵌入到向量空间中,尽管基于嵌入的模型能够预测正确的缺失信息,但它们的推理过程无法解释且不直观;另一种是多跳推理的方法,它应用多个步骤来达到目标答案,同时生成其推理路径。基于强化学习的方法是一种经典的多跳推理方法,在连续空间中进行路径搜索,并且通过引入多种奖励函数,使得路径查找更加灵活、可控。
5.尽管如此,仍然缺乏一种优雅的方法来处理一对多的困境,即同一个实体有多个关系,或者同一个实体关系对具有多个尾实体,尤其是在一些具有较大实体平均度数的数据集中。之前的方法均没有考虑实体与关系之间的逻辑关系,并且利用(关系,实体)对来形成潜在的动作空间,它们都忽略了大量有价值的和固有的信息,这样使得学习变得困难和不充分。另一个问题是动作空间(即所有关系和尾部实体的组合)将显著增大,这也加剧了学习的难度,并且减慢了训练速度。


技术实现要素:

6.针对现有技术中的上述不足,本发明提供了一种基于分层强化学习的知识图谱推理方法,解决了现有技术中一对多的困境,导致动作空间显著增大,训练速度减缓,学习难度加大和不充分的问题。
7.为了达到上述发明目的,本发明采用的技术方案为:
8.一种基于知识图谱的常识缺失信息多跳推理方法,包括以下步骤:
9.s1、根据常识缺失信息构建输入头实体及查询关系,并进行预处理,得到预处理后的输入头实体及查询关系,并初始化当前时间步数;
10.s2、构建长短期记忆网络,对路径历史信息进行编码,得到隐藏状态变量;
11.s3、构建高层次策略网络,并根据隐藏状态变量、预处理后的输入头实体及查询关系作为高层次策略网络,得到高层次决策结果;
12.s4、构建低层次策略网络,并根据高层次决策结果及预处理后的输入头实体及查询关系,得到预测的目标实体;
13.s5、判断当前步数是否达到预设步数最大值,若满足则输出预测的目标实体,得到
目标实体候选集,并进入步骤s6,否则返回步骤s2;
14.s6、对目标候选集中预测的各目标实体进行评分,选择最高评分所对应的预测实体作为最终预测结果。
15.优选地,步骤s1具体为:
16.将常识缺失信息映射到向量空间,并初始化输入头实体及查询关系的表示,得到预处理后的输入头实体及查询关系,并初始化当前时间步数。
17.优选地,步骤s3具体包括以下分步骤:
18.s31、根据预处理后的输入头实体及查询关系构建当前时刻下的高层次策略状态;
19.s32、根据当前时刻下的高层次策略状态构建高层次动作集合;
20.s33、利用不少于一层的全连接层构建初始高层次策略网络,并将隐藏状态变量、高层次动作集合作为高层次策略网络输入,得到初始高层次决策结果;
21.s34、在初始高层次决策网络后添加关系dropout网络,得到高层次决策网络,并结合初始高层次决策结果得到高层次决策结果;
22.s35、利用reinforce算法构建策略梯度函数,优化高层次策略网络,其梯度更新可表示为:
[0023][0024]
其中,θ
h*
为更新后的梯度,为高层次策略网络的期望函数,θh为高层次策略函数参数,α为学习率,β为信息熵的权重,为高层次策略函数的梯度,log为对数函数,为熵正则化项,为高层次奖赏函数,rq为查询关系,e
t
为当前时刻t下访问的当前实体,为高层次策略网络更新前的梯度。
[0025]
优选地,步骤s32具体为:
[0026]
根据当前时刻下的高层次策略状态构建初始高层次动作集合,并添加当前时刻下的高层次策略状态中数据集所对应的逆向三元组,得到高层次动作集合。
[0027]
优选地,步骤s33中初始高层次策略网络模型表示为:
[0028][0029]
其中,为初始高层次策略网络输出的模型函数,σ(.)为softmax激活函数,o
t
为堆叠的基于option空间的表征,relu(.)为激活函数,w2为可学习的参数,w1为可学习的参数,h
t
为隐藏状态变量,为当前时刻t下的高层次策略状态,rq为查询关系,e
t
为当前时刻t下访问的当前实体。
[0030]
优选地,步骤s34中高层次决策网络的模型表达式为:
[0031][0032]
mi~bernoulli(1-α),i=1,

,|o
t
|
[0033]
其中,为高层次决策网络输出的模型函数,

为正比关系符号,m为掩码向量,mi为掩码向量中第i个参数向量,∈为常数参量,~为映射,bernoulli(.)为伯努利函数,α为学习率。
[0034]
优选地,步骤s4具体包括以下分步骤:
[0035]
s41、根据高层次决策结果及预处理后的源实体及查询关系构建低层次策略状态,低层次策略状态表示为:
[0036][0037]
其中,为当前时刻t下的低层次状态,es为源实体,rq为查询关系,e
t
为当前时刻t下访问的当前实体,o
t
为高层次决策结果;
[0038]
s42、根据当前时刻下的低层次策略状态构建低层次动作集合,然后对低层次动作空间进行评分,得到优化后的低层次动作空间;
[0039]
s43、利用长短期记忆网络,对隐藏状态变量进行编码更新,得到更新后的隐藏状态变量,表示为:
[0040]
h0=lstm(0,[r0,es])
[0041]ht*
=lstm(h
t-1
,(o
t-1

t-1
)),t》0
[0042]
其中,h
t*
为当前时刻t下更新后的隐藏状态变量,h
t-1
为前一时刻下的隐藏状态变量,o
t-1
、a
t-1
分别为上一时刻的高层次动作向量和低层次动作向量,r0为初始关系,es为源实体,lstm(.)为长短期记忆网络模型函数。
[0043]
s44、利用不少于一层的全连接层,构建初始低层次策略网络,并根据更新后的隐藏状态变量、低层次策略状态以及低层次动作集合,得到预测的初始目标实体概率,初始低层次策略网络表达为:
[0044][0045]
其中,为初始低层次策略网络输出函数值,σ(.)为softmax激活函数,relu(.)为激活函数,w3、w4分别为可学习的参数,a
t
为低层次动作集合,o
t
为高层次决策结果,即当前时刻t下的高层次动作向量,e
t
为当前时刻t下访问的当前实体,rq为查询关系;
[0046]
s45、根据当前实体与高层次决策结果,构建奖励函数,其奖励函数表示为:
[0047][0048]
其中,r
l
(s
t
)为奖励函数,e
t
为t时刻的实体,e
target
为目标实体,f(.)为基于嵌入式模型函数;
[0049]
s46、在初始低层次策略网络后添加低层次关系dropout网络,得到低层次策略网络,并根据初始目标实体,得到预测的目标实体概率;
[0050]
s47、利用reinforce算法构建策略梯度,优化低层次策略网络,其梯度更新可表示为:
[0051][0052]
其中,θ
l
为低层次策略函数参数,β为信息熵的权重,α为学习率,为低层次策略函数的梯度,为低层次策略网络的期望函数,log为对数函数,h(μ)为熵正则化项;θ
l
*为更新后的梯度。
[0053]
优选地,步骤s42具体为:
[0054]
根据当前时刻下的低层次策略状态中当前实体及其对应的查询关系出线边集,得到初始低层次动作集合,并融合当前节点上的自循环实体动作,得到低层次动作集合,然后根据当前实体与选择的关系,计算所有实体作为尾部实体的概率,并将前k评分的实体作为动作空间,得到优化后的低层次动作空间。
[0055]
优选地,步骤s46的低层次策略网络表示为:
[0056][0057]
其中,为低层次策略网络输出函数值,

为正比关系符号,∈为常数参量,n为低层次策略网络的掩码向量。
[0058]
优选地,步骤s6具体为:
[0059]
根据目标候选集中预测的各目标实体所对应的低层次策略网络输出函数值,即为各目标实体的候选概率,并将该候选概率作为评分标准,选择最高评分所对应的目标实体作为最终预测结果。
[0060]
本发明具有以下有益效果:
[0061]
通过构建将多跳推理方法建模为半马尔科夫决策过程,根据常识缺失信息构建输入头实体及查询关系并进行预处理,并构建长短期记忆网络对路径历史信息进行编码,得到隐藏状态变量;构建高层次策略网络,并根据隐藏状态变量、预处理后的输入头实体及查询关系作为高层次策略网络,得到高层次决策结果;并构建低层次策略网络结合高层次决策结果进行预测,得到预测的目标实体,进行评分,根据预设步数最大值进行强化学习迭代,并根据评分得到最终预测结果;本发明采用分层强化的学习框架,将预测任务分解为一个用于关系检测的高层次决策过程和一个用于实体推理的低层次决策过程,有效地控制动作空间,得到更加准确的预测目标实体。
附图说明
[0062]
图1为本发明提供的一种基于知识图谱的常识缺失信息多跳推理方法的步骤流程图;
[0063]
图2为本发明实施例中高层次决策过程;
[0064]
图3步骤s3的分步骤流程图;
[0065]
图4为本发明实施例中低层次决策过程;
[0066]
图5步骤s4的分步骤流程图;
[0067]
图6为本发明实施例中低层次决策过程的历史信息编码过程;
[0068]
图7为本发明实施例中嵌入不同维度在umls数据集的实验对比图。
具体实施方式
[0069]
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
[0070]
如图1所示,本发明实施例提供一种基于知识图谱的常识缺失信息多跳推理方法,包括以下步骤:
[0071]
s1、根据常识缺失信息构建输入头实体及查询关系,并进行预处理,得到预处理后的输入头实体及查询关系,并初始化当前时间步数;
[0072]
优选地,步骤s1具体为:
[0073]
将常识缺失信息映射到向量空间,并初始化输入头实体及查询关系的表示,得到预处理后的输入头实体及查询关系,并初始化当前时间步数。
[0074]
可选的,本发明实施例的常识缺失信息,例如:汤姆汉克斯,出生于x,其中出生地则为常识信息中缺失的内容,将存在信息缺失的常识信息映射到向量空间,得到输入头实体及查询关系;
[0075]
可选的,本发明实施例中,利用半马尔科夫过程进行多跳推理的推理过程,去计算式表示:p((r,e)|s
t
)=p(r|s
t
)p(e|s
t
,r),其中,e为实体,r为关系,s
t
为当前时刻t强化学习代理的状态;可通过分解学习过程来转换策略的目标,即通过逐步学习,得到预测的尾实体;强化学习代理可从环境中学习到当前的高层次状态,然后结合高层次策略网络选择最优方案,得到当前选择的关系,作为高层次策略网络的输出,进入低层次策略网络中,进行迭代,最终得到满足目标实体或超过预设步数最大值,作为预测的尾实体。
[0076]
s2、构建长短期记忆网络,对路径历史信息进行编码,得到隐藏状态变量;可选的,本发明实例中,综合考虑图谱和搜索路径信息,为了更好的满足排序,代理需要满足的记录信息不仅包括现在正在发生的事情,还包括过去发生的事情,通过长短期记忆网络(long short term memory,lstm)来编码搜索历史信息,即(es,r1,e1,

,r
t
,e
t
)记为h
t
,本发明实施例中将长短期记忆网络的隐藏单元维度设置为200,层数为3,其计算的过程可表示为:
[0077]
h0=lstm(0,r0),
[0078]ht
=lstm(h
t-1

t-1
),t》0
[0079]
其中,r0为初始关系,一般采用随机或直接用0赋值,h0为初始隐藏状态变量,h
t-1
为前一时刻下的隐藏状态变量,h
t
为当前时刻的隐藏状态变量,a
t-1
为前一时刻下的动作向量。
[0080]
s3、构建高层次策略网络,并根据隐藏状态变量、预处理后的输入头实体及查询关系作为高层次策略网络,得到高层次决策结果;
[0081]
可选的,高层次策略网络的目标是为了选择连接到目标实体中最有可能的关系,基于头实体、查询关系与当前时间t所在的实体拼接形成高层次策略的状态,高层次策略网络则根据其做出相应关系的决策。
[0082]
如图2、3所示,步骤s3具体包括以下分步骤:
[0083]
s31、根据预处理后的输入头实体及查询关系构建当前时刻下的高层次策略状态;
[0084]
可选的,本发明实施例中关系选择的策略不仅仅取决于知识图谱中当前节点信息,还取决于查询关系,则当前时刻下的高层次策略状态可表示为:其中,es为源实体、rq为查询关系、e
t
为在当前时刻t访问的当前实体。
[0085]
s32、根据当前时刻下的高层次策略状态构建高层次动作集合;
[0086]
优选地,步骤s32具体为:
[0087]
根据当前时刻下的高层次策略状态构建初始高层次动作集合,并添加当前时刻下的高层次策略状态中数据集所对应的逆向三元组,得到高层次动作集合。
[0088]
可选的,来自状态的高层次动作集合o
t
涵盖了当前实体e
t
的所有外出关系;可表示为:o
t
={r|e
t
,(e
t
,r,e

)∈g},其中,e

是尾部实体,那么从o
t
中按照高层次策略选择μ
t
,且为了广泛的探索,将展开搜索过程定义为一个固定的时间步,且还添加了逆向三元组,具体的,以(e1,r,e2)为例,则向数据集中添加逆向三元组(e2,r-1
,e1),其中,r-1
为该三元组关系r的逆向关系。
[0089]
s33、利用不少于一层的全连接层构建初始高层次策略网络,并将隐藏状态变量、高层次动作集合作为高层次策略网络输入,得到初始高层次决策结果;
[0090]
可选的,初始高层次策略网络采用两层全连接层,其隐藏单元维度为200,激活函数为relu函数。
[0091]
优选地,步骤s33中初始高层次策略网络模型表示为:
[0092][0093]
其中,为初始高层次策略网络输出的模型函数,σ(.)为softmax激活函数,o
t
为堆叠的基于option空间的表征,relu(.)为激活函数,w2为可学习的参数,w1为可学习的参数,h
t
为隐藏状态变量,为当前时刻t下的高层次策略状态,rq为查询关系,e
t
为当前时刻t下访问的当前实体。
[0094]
s34、在初始高层次决策网络后添加关系dropout网络,得到高层次决策网络,并结合初始高层次决策结果得到高层次决策结果;
[0095]
可选的,为了实现搜索过程的随机,添加了基于高层次动作的关系dropout网络,使得搜索更加多样化。
[0096]
优选地,步骤s34中高层次决策网络的模型表达式为:
[0097][0098]
mi~bernoulli(1-α),=1,

,|o
t
|
[0099]
其中,为高层次决策网络输出的模型函数,

为正比关系符号,m为掩码向量,mi为掩码向量中第i个参数向量,∈为常数参量;当mi=0的情况下,常数参量∈取值几乎为0,bernoulli(.)为伯努利函数,α为学习率。
[0100]
s35、利用reinforce算法构建策略梯度函数,优化高层次策略网络,其梯度更新可表示为:
[0101][0102]
其中,θ
h*
为更新后的梯度,为高层次策略网络的期望函数,θh为高层次策略函数参数,α为学习率,β为信息熵的权重,为高层次策略函数的梯度,log为对数函数,为熵正则化项,为高层次奖赏函数,rq为查询关系,e
t
为当前时刻t下访问的当前实体,为高层次策略网络更新前的梯度。
[0103]
可选的,高层次奖赏可从环境中进行反馈,得到一个中间报酬用于后续的奖赏估计,如果强化学习代理到达目标实体,它将得到1作为鼓励,否则会得到一个小于1的数字作为惩罚;本发明实施例中可通过一预先训练的基于嵌入的模型来进行辅助,分配一个分数来进行三元组的可能性评价。
[0104]
可选的,对于高层次策略网络的目标为最大化预期累积回报,可表示为:
[0105]
其中,j(θh)为高层次策略的目标函数,为其期望函数,g为知识图谱,为其期望函数,rh(s
t
)为高层次奖赏函数,es为源实体、rq为查询关系;为了优化上述目标,本发明实施例中使用策略梯度方法与reinforce算法,并为了探索更多的路径,本发明实施例中还添加了熵正则化项h(μ)和h(π)。
[0106]
s4、构建低层次策略网络,并根据高层次决策结果及预处理后的输入头实体及查询关系,得到预测的目标实体;
[0107]
可选的,类似于高层次策略网络,低层次强化学习的任务是根据头实体和选择的关系来决定尾实体;为了使所选的关系在低层策略过程中可访问,本发明实施例中从高层策略输出中选取选项o
t
作为低层尾实体决策过程的额外输入。这样,高层决策的结果会影响低层次策略的学习。
[0108]
如图4、5所示,步骤s4具体包括以下分步骤:
[0109]
s41、根据高层次决策结果及预处理后的源实体及查询关系构建低层次策略状态,低层次策略状态表示为:
[0110][0111]
其中,为当前时刻t下的低层次状态,es为源实体,rq为查询关系,e
t
为当前时刻t下访问的当前实体,o
t
为高层次决策结果;
[0112]
s42、根据当前时刻下的低层次策略状态构建低层次动作集合,然后对低层次动作空间进行评分,得到优化后的低层次动作空间;
[0113]
优选地,步骤s42具体为:
[0114]
根据当前时刻下的低层次策略状态中当前实体及其对应的查询关系出线边集,得到初始低层次动作集合,并融合当前节点上的自循环实体动作,得到低层次动作集合,然后
根据当前实体与选择的关系,计算所有实体作为尾部实体的概率,并将前k评分的实体作为动作空间,得到优化后的低层次动作空间。
[0115]
可选的,对于构建的高层次及低层次框架中包含一个变体,即动态展望机制,其用于改善动作空间,在低层次强化学习过程中的动作空间,原来是所有连接到相应的头实体和关系的实体。嵌入模型由于映射到低维向量空间而具有鲁棒性,因此,本发明实施例中在决策时将嵌入信息注入到行动空间中,具体的,即为针对对于当前实体和选择的关系,计算所有实体作为尾实体的概率,然后根据前k评分的实体作为动作空间,其中k为各数据集中所预设的。
[0116]
可选的,在时刻t的动作是为前一个(所选)实体-关系对和头实体-关系(查询)对选择最有希望的尾部实体。低级状态的动作空间at是当前实体e
t
和选定关系r
t
的出线边集,其中,a
t
={(e

|e
t
,r
t
,(e
t
,r
t
,e
t

)∈g)},e
t

是对应的尾实体;为了让强化学习智能体做出更智能的选择,本发明实施例中还在每个动作空间中添加一个特殊的动作,即停留在当前节点上的自循环实体动作,且根据高层次策略的决定关系,动作空间at满足表示将特定头部实体和关系的所有出线边(尾实体)叠加在动作空间at中,其中,d2为实体嵌入维数。
[0117]
s43、利用长短期记忆网络,对隐藏状态变量进行编码更新,得到更新后的隐藏状态变量,表示为:
[0118]
h0=lstm(0,[r0,es])
[0119]ht*
=lstm(h
t-1
,(o
t-1

t-1
),t》0
[0120]
其中,h
t*
为当前时刻t下更新后的隐藏状态变量,h
t-1
为前一时刻下的隐藏状态变量,o
t-1
、a
t-1
分别为上一时刻的高层次动作向量和低层次动作向量,r0为初始关系,es为源实体;
[0121]
可选的,如图6所示,为了简化计算和表示,采用与长短期记忆网络相同结构的长短期记忆网络,即其长短期记忆网络的隐藏单元维度设置为200,层数为3;对高层次与低层次决策策略来记录整个路径。
[0122]
s44、利用不少于一层的全连接层,构建初始低层次策略网络,并根据更新后的隐藏状态变量、低层次策略状态以及低层次动作集合,得到预测的初始目标实体,初始低层次策略网络表达为:
[0123][0124]
其中,为初始低层次策略网络输出函数值,σ(.)为softmax激活函数,relu(.)为激活函数,w3、w4分别为可学习的参数,a
t
为低层次动作集合,o
t
为高层次决策结果,即当前时刻t下的高层次动作向量,e
t
为当前时刻t下访问的当前实体,rq为查询关系;
[0125]
可选的,本实施例中初始低层次策略网络包含两个全连接层,其隐藏单元维度为200,激活函数采用relu函数。
[0126]
s45、根据当前实体与高层次决策结果,构建奖励函数,进行评分,其奖励函数表示为:
237-50%,保留了原始数据集的10%和50%的事实;
[0143]
2)nell-995;
[0144]
3)kinship;
[0145]
4)统一医学语言系统(umls);
[0146]
数据集间的实体和关系,如表1所示,可知小规模的知识图谱经常面临平均度数大的一对多困境。同时,大规模的知识图往往受到巨大的实体空间的影响。
[0147]
表1
[0148][0149]
评价指标:
[0150]
在测试集上,基于(e
ead
,r,?)(尾实体未知),在候选尾实体的集合中对真正的尾实体e
tail
进行排序,假设ranki就是正确尾实体的第i次查询。采用如下两个评测指标进行有效性的验证:
[0151]
1)hits@k=∑i1(ranki《k)/n
[0152]
2)
[0153]
其中,mrr(mean reciprocal rank)为平均倒数排名,hits@k为正确答案预测排名不超过k的概率。
[0154]
参数设置:
[0155]
实际中,为了公平比较,可将实体和关系的维度设置为200,在历史信息编码部分,使用三层lstm并将隐藏状态的维度设置为200;此外,添加的熵正则化项将其权重设置在0到0.1之间;并使用adam优化,其学习率介于0.001和0.003之间;具体的,不同的数据集有不同的学习率;在对低层次动作空间的动态展望中,将umls的k设置为16,kinship设置为96,nell-995设置为32,fb15k-237设置为64;本发明实施例中使用pytorch框架来实现并在gpu机器上训练模型。
[0156]
实验结果:
[0157]
1)模型比较
[0158]
如表2所示,umls的结果表明本发明实施例的模型具有较大的平均度数。在同样较小的数据集kinship上,本发明实施例提高了hits@1和mrr性能。有趣的是,在nell-995上,本发明实施例的模型明显优于以前的方法。在fb15k-237-10%和fb15k-237-50%上,本发明实施例在hits@3和hits@10上表现出优势,并在mrr上表现出有竞争力的结果;本发明实
施例对fb15k-237数据集略有改进的猜测是,与其他数据集相比,fb15k-237的实体和关系涵盖了许多领域,这可能会混淆智能体学习。不仅对于度数大的实体,还是对于度数较小的实体,本发明实施例都可以解决困境并取得卓越的结果。这意味着本发明实施例的模型对于多跳推理是稳健有效的;
[0159]
2)消融实验
[0160]
对分层框架的变体,动态前景进行评价,如表3所示,在nell-995、umls和kinship数据集上,去除动态前景模块时,与本发明实施例的模型相比mrr略有下降。此外,本发明实施例计算了16、32、96g中k的mrr结果,其中k是候选者的数量。本发明实施例可以看到,对于不同大小的数据集,需要设置不同的k值。一般来说,拥有更大实体平均度数的数据集需要更大的k,除了umls,其中k=16是最好的。综上所述,动态展望是本发明实施例的框架中改善动作空间不可或缺的组成部分,使本发明实施例的分层框架在常识知识图谱推理中取得了更好的表现。
[0161]
3)分析实验
[0162]
a.泛化能力
[0163]
对未知数据的泛化能力对于进一步应用至关重要。在本发明实施例的实验中,在训练集中看到了测试集中的一些三元组。根据表4和表5中的第一行,本发明实施例可以看到大约96.8%的验证集在kinship上在之前看过查询数据,而只有15.3%看到了nell-995上的查询。为了研究本发明实施例的模型对未见查询的泛化,本发明实施例对数据集中的已见查询和未见查询进行了实验,包括少量未见查询(kinship和umls)和大量未见查询(nell-995),与multihop-kg进行比较。以上两个表的结果表明,本发明实施例的模型在可见查询和不可见查询方面的性能都优于multihop-kg方法。本发明实施例的分层框架在不同大小的不同数据集中显示了强大的泛化性;
[0164]
b.嵌入维度的影响
[0165]
实体和关系嵌入携带着极其多样化和丰富的信息。嵌入的不同维度可以为代理传递不同数量的信息以进行推理。通过这种方式,本发明实施例进行了一项实验,以调查关系和实体嵌入的维度如何影响学习。嵌入维度在100、200、300的上进行测试,如图7所示;
[0166]
本发明实施例可以看到随着维度的增加,指标的性能(例如,mrr、hits@1、hits@3和hits@10)更好;可知这是因为维度较大的关系和实体嵌入可以携带足够的信息进行推理。
[0167]
表2
[0168][0169]
表3
[0170]
modelnell-995umlskinship去除动态展望机制81.289.281.1k=1681.094.583.8k=3282.190.082.0k=968089.985.8
[0171]
表4
[0172][0173]
表5
[0174][0175]
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0176]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0177]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0178]
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
[0179]
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发
明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献