一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种实体对齐的主动学习框架方法与流程

2021-12-15 00:16:00 来源:中国专利 TAG:


1.本发明属于知识图谱技术领域,更具体地说,涉及基于主动学习原理的实体对齐方法。


背景技术:

2.近年来,知识图谱在越来越多的领域上得以应用,而知识图谱的构建与完善需要多源知识的融入。实体对齐是多源数据融合中的重要过程。当数据来自于不同的知识库体系,需要分辨其描述的是否为同一个实体,将相关信息融合,最终生成目标知识图谱中唯一的实体。这一般会被认为是一个求最相似问题或判断两个实体是否是同一个的二分类问题,实体名称、实体携带的属性以及其拓扑关系信息等,都可以作为有用特征。同时,通过规则或其它方法限制实体数量,缩小匹配的实体范围。
3.主动学习是机器学习的子领域,也称为查询学习、最优实验设计。在整个训练过程中有着人工参与的环节,通过查询策略筛选出合适的数据交给人工进行标注。主动学习从未标注样本集中选择部分样本,标注后补充到已标注样本集中来继续训练模型,降低人工标注的代价。通过标注少量的数据使得模型的性能能够与全标签数据训练的模型性能持平设置更优,于是便可以通过主动学习的方式来减少数据标注的成本,又可以保留相关模型的学习能力。
4.而现有的实体对齐研究中,很多方法要么只使用实体的属性,要么只使用实体的拓扑关系,相关研究人员也注意到只使用一方面信息无法完全表达出实体的含义,因此开始使用实体的多方面的信息。但这些方法都需要大量的标签数据依赖训练模型,因此这些研究成果在实际应用中具有很大的局限和不足。


技术实现要素:

5.为了克服上述现有技术的缺点,本发明以解决实际环境中缺少标签数据,而难以把实体对齐模型工程应用为出发点,提供了实体对齐的主动学习框架,设置两个独立模型,这两个模型都是判断两个实体是否对齐的二元分类器,它们可以是基于任何机器学习模型和启发式算法。两个模型通过主动学习过程完成交互和增强,同时考虑协同训练的方式,增加训练数据。
6.为了达到上述目的,本发明提供了一种实体对齐的主动学习框架方法,包括如下步骤:
7.s 1、实体分块:
8.对输入的实体集先根据实体的相关信息,对实体进行一个粗略的匹配;从所有的实体对中,筛选出潜在匹配的实体对作为候选项;对此设置分块函数,每个分块函数确定一块,块内保存实体对,所述实体对可能在不同的块中同时存在;
9.s2、训练集生成:
10.根据实体分块的结果,从每个块中选择一部分实体对,以及通过随机匹配的方式
生成一部分实体对,然后这两部分的实体对共同组成要输入到主动学习过程中的训练集,即无标签数据集;
11.s3、主动学习过程:
12.根据不同的场景,设置不同的学习引擎,即侧重不同的分类器模型;当实体的关系信息缺失或者稀疏时,设置两个基于属性的模型作为学习引擎。当实体的关系或者属性信息都比较完善时,则设置基于属性的模型和基于关系的模型为学习引擎;
13.然后将学习引擎对训练集的预测结果中最为冲突的一些实体对交由专家判断是否加入到标注样本集。由于学习引擎需要较多的标注数据,如果只通过人工标注,标注数据的数量较少;因此根据协同训练的思想,在基于属性的模型和基于关系的模型预测的结果中,将预测一致的实体对直接作为标注数据加入标注样本集;最后再根据标注样本集训练学习引擎和更新训练集。
14.s4、候选集生成与预测:
15.根据步骤s1实体的分块,以及步骤s3中得到标注样本集,通过分支定界算法,以最大正例覆盖范围和最小数据量为目标,确定哪一块为最终要预测的候选集;然后让两个学习引擎都对候选集进行预测,在把两个结果进行合并,得到最终的预测结果;
16.s5、专家对实体对齐结果进行审核,如对结果不满意,返回到s1步骤主动学习过程中,重新s1~s4步骤,继续训练,学习引擎加载上次训练停止时的参数,训练集也与停止时保持一致;在标注了一些数据后,学习引擎得到新的学习数据,对新的候选集进行预测,然后专家再审核;循环这样一个过程,直至结果满意。
17.优选方式下,步骤s1所述分块函数通过hash函数、canopy聚类、tf

idf、编辑距离levenshtein或red

blue set cover算法实现。
18.本发明的有益效果:
19.与现有技术相比,本发明能够在无标签数据的情况进行实体对齐,同时学习引擎都是可以替换的,不同的场景使用不同的模型即可。本发明的方法可以应用于实体对齐相关的各个领域。
附图说明
20.图1为本发明实体对齐的主动学习框架的整体流程图。
具体实施方式
21.下面结合附图和实施例详细说明本发明的实施方式。
22.如图1所示,本发明一种实体对齐的主动学习框架,其包括步骤:
23.(1)实体分块:
24.对输入的实体集先根据实体的相关信息,对实体进行一个粗略的匹配。从所有的实体对中,筛选出潜在匹配的实体对作为候选项。通过分块来有效降低计算量,如不进行分块,因为实体是要进行两两比对来发现两个实体是否能够对齐的,因此时间复杂度上会达到o(n2)。通过设置分块,来降低要计算的实体对数量。对此设置分块函数,分块函数可以通过hash函数、canopy聚类、red

blue set cover算法等方式来实现。每个分块函数确定一块,块内保存实体对,这些实体对可能在不同的块中同时存在。
25.(2)训练集生成:
26.根据实体分块的结果,从每个块中选择一部分实体对,以及通过随机匹配的方式生成一部分实体对,然后这两部分的实体对共同组成要输入到主动学习过程中的训练集,即无标签数据集。通过随机匹配来补充块内缺失的实体对,让训练数据更具多样性。同时保证训练集的实体对无重复。
27.(3)主动学习过程:
28.根据不同的场景,设置不同的学习引擎,即侧重不同的分类器模型;当实体的关系信息缺失或者稀疏时,设置两个基于属性的模型作为学习引擎。当实体的关系或者属性信息都比较完善时,则设置基于属性的模型和基于关系的模型为学习引擎;
29.然后将学习引擎对训练集的预测结果中最为冲突的一些实体对交由专家判断是否加入到标注样本集。由于学习引擎需要较多的标注数据,如果只通过人工标注,标注数据的数量较少;因此根据协同训练的思想,在基于属性的模型和基于关系的模型预测的结果中,将预测一致的实体对直接作为标注数据加入标注样本集;最后再根据标注样本集训练学习引擎和更新训练集。
30.(4)候选集生成与预测:
31.根据步骤(1)实体的分块,以及步骤(3)中得到标注样本集,通过分支定界算法,以最大正例覆盖范围和最小数据量为目标,确定哪一块为最终要预测的候选集。然后让两个学习引擎都对候选集进行预测,在把两个结果进行合并,得到最终的预测结果。
32.因为在实际的生产环境中缺少标签数据,无法通过相应的指标判断预测结果的好坏,因此需要提供继续训练功能,来对学习引擎能够继续训练,从而保证得到一个较优的结果;具体说,需要专家在对实体对齐结果进行审核,如对结果不满意,可返回到主动学习过程中,继续训练,学习引擎加载上次训练停止时的参数,训练集也与停止时保持一致。在标注了一些数据后,学习引擎得到新的学习数据,对新的候选集进行预测,然后专家再审核。循环这样一个过程,直至结果满意。
33.本发明提供一种实体对齐的主动学习框架,从缩小实体对齐的范围出发,然后考虑生产环境中缺少标签数据的问题,使用多角度的两个学习引擎相互对抗和增强的方式,来进行模型的训练,以完成实体对齐任务。该方法主要包括:实体分块、训练集生成、主动学习过程和候选集生成与预测。主动学习过程中包含对实体的不同侧重的模型,可以分别考虑实体的属性和关系。同时对无标签数据的指标难以测量问题,提出使用继续训练这一方式进行补足,从而满足实体对齐模型在无标签数据的情况下的应用,又可保持模型的性能。
34.图1给出本发明整体流程图,主要过程描述如下:
35.首先把实体根据其属性进行分块,分块函数采取了hash函数、tf

idf、编辑距离levenshtein以及canopy聚类进行分块。hash函数通过映射,例如:字符串的前n个字符、n

grams、字符串中的数字等方式提取出key,这样具有相同的key的实体会分到一块内。tf

idf也是对关键字的提取,通过评估某个字符或者词对一个文档的重要程度,在得到关键词后,通过canopy距离完成块的聚集。编辑距离levenshtein是计算一个字符串转换为另一字符串需要的最少编辑次数,在得到两个字符串的编辑距离后,同样通过canopy距离完成块的聚集。canopy聚类是一种快速聚类的方法,在给定的对象集合中,随机选取一个对象,以该对象为中心创建一个canopy,然后遍历该组对象的其余部分,如果当前对象与中心点的
距离小于t1,则将该对象添加到这个中心点所在的canopy中,如果距离小于t2则在集合中删除该对象。最后会得到一组canopy,每个canopy包含至少一个对象,而每个对象可能在多个canopy中,通过指定t1和t2来作为阈值,可以得到一个块。这些分块函数设置可处理的数据类型,即需要对实体的属性指定其数据类型。
36.其中,hash函数,即散列函数,是把任意长度的输入(又叫做预映射pre

image)通过散列算法变换成固定长度的输出,该输出就是散列值。tf

idf,tf

idf(term frequency

inverse document frequency)是一种用于信息检索与数据挖掘的常用加权技术。levenshtein,又称编辑距离,一种相似度算法,指的是两个字符串之间,由一个转换成另一个所需的最少编辑操作次数。许可的编辑操作包括将一个字符替换成另一个字符,插入一个字符,删除一个字符。由俄国科学家levenshtein提出。canopy聚类,一种主流聚类算法。n

grams,一种基于统计语言模型的算法。它的基本思想是将文本里面的内容按照字节进行大小为n的滑动窗口操作,形成了长度是n的字节片段序列。
37.如学习引擎是使用的深度学习模型,即要对实体生成初始化向量,可以通过bert或者使用预训练的词向量等方式得到实体的初始化表达。然后通过分开和随机匹配得到了训练集,开始主动学习。
38.bert,bert(bidirectional encoder representation from transformers),是一个预训练的语言表征模型,可参见文献,jacob devlin,ming

wei chang,kenton lee,kristina toutanova.bert:pre

training of deep bidirectional transformers for language understanding[j].2018.
[0039]
学习引擎可以利用任何二元分类的算法,因此以逻辑回归分类器和rdgcn为例,分别作为基于属性的模型和基于关系的模型。在考虑使用关系模型时要加载实体的关系信息,为此要构建一个图结构。通过复制一些实体来构成初始化数据,让学习引擎完成初始化。然后学习引擎分别对训练集进行预测,从预测结果中,选择各自较高分数的正例和负例然后取交集,加入到标注样本集中。然后再从预测结果中选择预测结果相差最大的一些实体对交由专家判断,专家标注后加入到标注样本集中。
[0040]
rdgcn,一种卷积双向网络,可参见文献,wu y,liu x,feng y,et al.relation

aware entity alignment for heterogeneous knowledge graphs[c]//twenty

eighth international joint conference on artificial intelligence ijcai

19.2019。
[0041]
通过标注样本集训练学习引擎和更新训练集,学习引擎继续预测训练集,通过一致性判断和人工标注再得到新的标注样本。重复这个过程,直至专家主观判定停止训练。
[0042]
停止标注后,根据分支定界算法和标注样本集,以最大正例覆盖范围和最小数据量为目标,选择出一块或者几块作为候选集,让学习引擎进行预测。在预测结果上,为保证准确率让两个预测结果取交集,生成最终的实体对齐结果。
[0043]
专家在对实体对齐结果进行审核,如对结果不满意,可返回到主动学习过程中,继续训练,学习引擎加载上次训练停止时的参数,训练集也与停止时保持一致。在标注了一些数据后,学习引擎得到新的学习数据,对新的候选集进行预测,然后专家再审核。循环这样一个过程,直至结果满意。
[0044]
实施例
[0045]
在本实施例中,在gtx 1080 8g显卡上,采用深度学习框架tensorflow。
[0046]
数据集:实验评估是在经过处理后的公开数据集dbp15k上进行的。该数据集包括两个实体集,分别包括19388和19572个实体,共有15000对实体是对齐实体。
[0047]
为证明两个学习引擎的有效性,通过在dbp15k上测试precision指标,结果如表1所示。
[0048]
表1
[0049]
methodprecisionlr35.02%rdgcn35.51%本发明方法71.86%
[0050]
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献