一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

双视角图神经网络模型的训练方法、装置、设备及介质与流程

2022-07-06 07:07:17 来源:中国专利 TAG:


1.本发明涉及人工智能技术领域,特别涉及一种双视角图神经网络模型的训练方法、装置、设备及介质。


背景技术:

2.图数据是一种数据结构,图神经网络是深度学习在图结构上的一个分支。常见的图数据包含节点和边,其中,节点包含了实体信息,边包含实体间的关系信息。现在许多学习任务都需要处理图数据,比如物理系统建模、社交网络分析、交通网络分析、蛋白质结构预测以及分子性质预测等,这些都需要模型能够从图数据的输入中学习相关的知识,于是图神经网络模型随之诞生。
3.尽管图神经网络在过去几年取得了巨大的成功,但在有监督或半监督机器学习模型中,大部分模型基于“聚合邻居信息,更新节点自身状态”进行构建,在此范式中,节点特征得到充分的学习。而现实的许多图数据中,边上存在丰富的信息,它们在当前大多模型中未被充分利用。
4.发明人意识到,上述对比学习的方法中,对于需要模型学习到迁移性较强的、可重用的、有共性的知识,这种只关注节点信息的做法会导致图数据在模型中使用时通常主要利用了节点特征,忽略了边上信息,从而使得模型的迁移性和泛化能力不足的问题。


技术实现要素:

5.本发明的目的在于提供一种双视角图神经网络模型的训练方法、装置、设备及介质,以解决图数据在模型中使用时通常主要利用了节点特征,忽略了边上信息,从而使得模型的迁移性和泛化能力不足的技术问题。
6.第一方面,提供了一种双视角图神经网络模型的训练方法,包括:
7.获得多个具有标签的图数据,所述图数据中包括节点、边和属性信息,并基于属性信息构建节点特征矩阵和节点邻接矩阵;
8.互换图数据中节点和边的位置,获得互换后图数据,并基于所述互换后图数据的属性信息构建边特征矩阵和边邻接矩阵;
9.将所述节点特征矩阵和所述节点邻接矩阵输入至待训练双视角图神经网络模型的节点视角网络,得到图数据的第一判断结果,所述节点视角网络为gnn网络;
10.将所述边特征矩阵和所述边邻接矩阵输入至待训练双视角图神经网络模型的边视角网络,得到图数据的第二判断结果,所述边视角网络为gnn网络;
11.将所述图数据的第一判断结果和所述图数据的第二判断结果加权处理,得到图数据的判断结果,并基于所述图数据的判断结果和图数据的标签,联合训练所述节点视角网络和所述边视角网络,更新所述待训练双视角图神经网络模型的参数,得到训练好的双视角图神经网络模型。
12.第二方面,提供了一种双视角图神经网络模型的训练装置,包括:
13.图数据获取模块,用于获得多个具有标签的图数据,所述图数据中包括节点、边和属性信息,并基于属性信息构建节点特征矩阵和节点邻接矩阵;
14.互换后图数据获取模块,用于互换图数据中节点和边的位置,获得互换后图数据,并基于所述互换后图数据的属性信息构建边特征矩阵和边邻接矩阵;
15.第一判断结果获取模块,用于将所述节点特征矩阵和所述节点邻接矩阵输入至待训练双视角图神经网络模型的节点视角网络,得到图数据的第一判断结果,所述节点视角网络为gnn网络;
16.第二判断结果获取模块,用于将所述边特征矩阵和所述边邻接矩阵输入至待训练双视角图神经网络模型的边视角网络,得到图数据的第二判断结果,所述边视角网络为gnn网络;
17.模型训练模块,用于将所述图数据的第一判断结果和所述图数据的第二判断结果加权处理,得到图数据的判断结果,并基于所述图数据的判断结果和图数据的标签,联合训练所述节点视角网络和所述边视角网络,更新所述待训练双视角图神经网络模型的参数,得到训练好的双视角图神经网络模型。
18.第三方面,提供了一种计算机设备,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述智能问答处理方法的步骤。
19.第四方面,提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现上述智能问答处理方法的步骤。
20.本发明的双视角图神经网络模型的训练方法、系统、设备及介质,设计节点和边互补视角的对比学习来训练图神经网络,通过将节点特征矩阵和节点邻接矩阵输入至节点视角网络,将边特征矩阵和边邻接矩阵输入至边视角网络,同时训练两个网络,使得两个网络中权重的更新与节点和边的特征都相关,最终获得训练好的双视角图神经网络模型。采用对比学习的思想,从输入数据中构造出正负样本,让模型在隐式表示空间对正负样本进行判别,充分利用节点和边的特征信息,使模型具有较好的迁移性。得到的模型具有较好的泛化性,当需要解决具体的下游任务时,可以直接使用训练好的双视角图神经网络模型来进行微调,从而避免为每一个下游任务从零开始训练全新的模型。此外,提出的双视角的图神经网络自监督训练策略,可以更有效地学到丰富的关键的图表示信息,捕捉到节点和边数据中的通用结构规律,进而赋予其在不限定种类的下游图挖掘任务上的拟合能力。另一方面,本发明的方法,使原来的手工调参、依靠机器学习工程师和专家的方式,转变到可适用于大规模、可复制的工业施展的方式。
附图说明
21.为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图:
22.图1显示为本发明一实施例中双视角图神经网络模型的训练方法的一应用环境示意图;
23.图2显示为本发明一实施例中双视角图神经网络模型的训练方法的流程示意图;
24.图3显示为本发明一实施例中步骤s30的流程示意图;
25.图4显示为本发明一实施例中步骤s31的流程示意图;
26.图5显示为本发明一实施例中步骤s40的流程示意图;
27.图6显示为本发明一实施例中双视角图神经网络模型的训练装置的结构框图;
28.图7是本发明一实施例中计算机设备的一结构示意图;
29.图8是本发明一实施例中计算机设备的另一结构示意图。
具体实施方式
30.本发明实施例提供的双视角图神经网络模型的训练方法,可应用在如图1的应用环境中,其中,客户端通过网络与服务端进行通信。服务端可以通过客户端设计节点和边互补视角的对比学习来训练图神经网络,通过将节点特征矩阵和节点邻接矩阵输入至节点视角网络,将边特征矩阵和边邻接矩阵输入至边视角网络,同时训练两个网络,使得两个网络中权重的更新与节点和边的特征都相关,最终获得训练好的双视角图神经网络模型。采用对比学习的思想,从输入数据中构造出正负样本,让模型在隐式表示空间对正负样本进行判别,充分利用节点和边的特征信息,使模型具有较好的迁移性。得到的模型具有较好的泛化性,当需要解决具体的下游任务时,可以直接使用训练好的双视角图神经网络模型来进行微调,从而避免为每一个下游任务从零开始训练全新的模型。此外,提出的双视角的图网络自监督训练策略,可以更有效地学到丰富的关键的图表示信息,捕捉到节点和边数据中的通用结构规律,进而赋予其在不限定种类的下游图挖掘任务上的拟合能力。另一方面,本发明的方法,使原来的手工调参、依靠机器学习工程师和专家的方式,转变到可适用于大规模、可复制的工业施展的方式。其中,客户端可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务端可以用独立的服务器或者是多个服务器组成的服务器集群来实现。下面通过具体的实施例对本发明进行详细的描述。
31.请参阅图2所示,图2为本发明实施例提供的双视角图神经网络模型的训练方法的一个流程示意图,包括如下步骤:
32.s10、获得多个具有标签的图数据,所述图数据中包括节点、边和属性信息,并基于属性信息构建节点特征矩阵和节点邻接矩阵。
33.本实施例中,图数据是从开源的图数据库或自己制作的数据集中获得,具体获取方式不做限定。其中,图数据是以“图”这种数据结构存储和查询数据,它的数据模型主要是以属性信息、节点和边来体现。图数据的属性信息是指节点和边中含有的表征图数据自身性质的信息。例如,对于化合物的图数据,其属性信息可以是化合物中各原子的性质、具体原子结构等。图数据通过节点和边的组合,能够快速解决复杂的关系问题。例如,对于化合物结构,节点表示化合物中的各原子,边表示连接原子之间化学键的信息。图数据中每个节点和相邻的节点之间通过边相连接,并由此构成节点邻接矩阵。对于节点数为n的图数据来说,节点邻接矩阵是一个n行n列的矩阵,节点邻接矩阵中第i行第j列的元素表示“节点i、j之间是否有边”。其中一种表示方法为:若节点i、j之间有边,则这个元素是1,否则是0。当然,还可将其表示为:若节点i、j之间有边,则这个元素是0,否则是1。节点特征矩阵表示该图数据中含有的各节点的特征,节点特征矩阵中的每一行表示图数据中一个节点的特征。
例如对于化合物来说,节点的特征可以是各原子的大小、原子的重量等。
34.s20、互换图数据中节点和边的位置,获得互换后图数据,并基于所述互换后图数据的属性信息构建边特征矩阵和边邻接矩阵;
35.本实施例中,考虑到自监督学习中,对比学习是目前最有效的技术手段之一。所谓自监督对比学习,其实就是对于任意两个数据点,若越相似(属于同一类)其图表示就会越接近。基于对比学习的自监督学习模型,在图像和基于序列的语言数据结构上取得了很大的成功。该思路主要是从输入数据中构造出不同的样本,通过引导预训练模型在隐式表示空间对正负样本进行判别来学习输入数据中的特征。基于上述考量,考虑到边中具有一系列特征,通过将节点和边进行互换,把原来图的节点变成新图的边,原来图的边变成新图的节点,构建双视角的图数据。此时两个视角信息互补,可以获得更加充分丰富对比学习的效果。边特征矩阵和边邻接矩阵的构建方法与上述节点特征矩阵和节点邻接矩阵相似,在此不再赘述。通过随机改变边特征矩阵的任意两行或多行之间的顺序,得到负样本边特征矩阵。例如对于边特征矩阵中行序号为1、2、3的3个节点,改变第1节点和第2节点的位置得到负样本边特征矩阵为2、1、3。
36.s30、将所述节点特征矩阵和所述节点邻接矩阵输入至待训练双视角图神经网络模型的节点视角网络,得到图数据的第一判断结果,所述节点视角网络为gnn网络。
37.在步骤s30中,所述将所述节点特征矩阵和所述节点邻接矩阵输入所述节点视角网络,得到图数据的第一判断结果,包括:
38.s31、将节点特征矩阵和节点邻接矩阵输入至所述节点视角网络,提取节点的局部特征;
39.s32、将所述节点的局部特征和预设的节点的平均特征进行比较,得到图数据的第一判断结果。
40.具体地,步骤s31包括以下过程:
41.s311、将节点特征矩阵进行特征扰动处理,得到节点的负样本特征矩阵;
42.s312、将节点邻接矩阵、节点特征矩阵和节点的负样本特征矩阵输入所述节点视角网络,提取节点的正样本局部特征和节点的负样本局部特征,获得节点的局部特征。
43.s40、将所述边特征矩阵和所述边邻接矩阵输入至待训练双视角图神经网络模型的边视角网络,得到图数据的第二判断结果,所述边视角网络为gnn网络。
44.本实施例中,将节点特征矩阵进行特征扰动处理,得到节点负样本特征矩阵,其中,特征扰动是指将节点特征矩阵的多行进行随机互换。例如,图数据中有4个节点,每个节点有32维特征,节点特征矩阵的行序号为1、2、3、4,将其进行特征扰动后,使得第2个节点和第3个节点的位置进行互换,此时虽然网络的拓扑结构没有改变,但每个位置上节点的特征已经发生改变,并由此得到节点的负样本特征矩阵,行序号为1、3、2、4。将节点特征矩阵和节点的负样本特征矩阵、节点邻接矩阵输入至预设的节点视角网络。提取节点的正样本局部特征时,每一层卷积层通过学习邻接矩阵和该层卷积层中节点特征矩阵从而获得下一层卷积层中正样本数据的相关特征。提取节点的负样本局部特征时,每一层卷积层通过学习邻接矩阵和该层卷积层中节点的负样本特征矩阵从而获得下一层卷积层中负样本数据的相关特征。通过这种多个卷积层的堆叠,实现图数据中节点信息的聚合和更新。节点的正样本局部特征和节点的负样本局部特征共同形成节点的局部特征。将节点的局部特征和节点
的平均特征进行两者相似性比较,得到图数据的第一判断结果。将边的局部特征和边的平均特征进行两者相似性比较,得到图数据的第二判断结果。其中,所述提取节点的负样本局部特征方法为:其中,e为节点的负样本局部特征,σ为sigmord函数,为节点特征矩阵与单位矩阵相加后的度矩阵,a为节点特征矩阵,i为单位矩阵,x为节点邻接矩阵,θ为预设的参数矩阵。可以理解的是,边视角网络的处理过程与节点视角网络的处理过程类似,在此不做赘述。
45.s40、将所述图数据的第一判断结果和所述图数据的第二判断结果加权处理,得到图数据的判断结果,并基于所述图数据的判断结果和图数据的标签,联合训练所述节点视角网络和所述边视角网络,更新所述待训练双视角图神经网络模型的参数,得到训练好的双视角图神经网络模型
46.本实施例中,考虑到个体自身的特征已经无法完全代表个体的所有信息,这有可能是在数据采集过程中丢失错误或者一些个体的伪装,造成了一些特征的偏差。需要它邻居节点的信息作为当前节点的信息补充。进而得到比单一个体特征,更完整的信息。因此使用gcn网络作为节点视角网络和边视角网络提取节点和边的特征。图神经网络模型学习的主要过程,是通过迭代对图数据中节点的邻居信息进行聚合和更新。在一次迭代中,每一个节点通过聚合邻居节点的特征及自己在上一层的特征来更新自己的信息,通常也会对聚合后的信息进行非线性变换。通过堆叠多层网络,每个节点可以获取到相应跳数内的邻居节点信息。将节点特征矩阵和节点邻接矩阵输入至预设的节点视角网络后,通过gcn网络读取其中的节点的信息,提取节点的局部特征。同样的方法提取边的局部特征,并通过损失函数计算损失值,并根据损失值更新节点视角网络的权重以及边视角网络的权重。此时,由于损失值中含有节点和边的信息,在更新节点视角网络的权重时,会同时考虑到边的信息,同理,在更新边视角网络的参数时,会同时考虑到节点的信息,从而使得边视角网络中含有节点信息,节点视角网络中含有边信息,训练时实现了两者的联合训练,实现了双视角的网络学习。具体地,可根据图数据的第一判断结果和图数据的第二判断结果的重要性,对两者进行加权处理,得到图数据的判断结果。所述图数据的判断结果j的计算方法为j=αj1 βj2,其中,j1为图数据的第一判断结果,j2为图数据的第二判断结果,α为图数据的第一判断结果的权重,β为图数据的第二判断结果的权重。α、β均为取值范围为[0,1]范围内的任一数。对于社交网络型图数据来说,节点中包含的信息更多,因此α取值大于β;对于文本序列类图数据来说,边包含的信息更多,因此α取值小于β。可以理解的是,α、β取值本领域技术人员可根据实际图数据的类型适应性选择。
[0047]
本实施例中,所述将节点特征矩阵和节点邻接矩阵输入预设的节点视角网络之前,还包括:对节点特征矩阵进行均值化处理,获得节点的平均特征。其中,节点的平均特征获得方法为:其中,σ为sigmord函数,m为节点的数量,hi为第i个节点的特征。
[0048]
步骤s40中,所述基于所述图数据的判断结果和图数据的标签联合训练所述节点视角网络和所述边视角网络,更新所述待训练双视角图神经网络模型的参数包括以下过程:
[0049]
s41、获取节点视角网络和边视角网络的当前权重值;
[0050]
s42、根据预设的权重更新规则,利用损失值和当前权重值得到新的权重值;
[0051]
s43、使用新的权重值作为节点视角网络和边视角网络的权重。
[0052]
本实施例中双视角图神经网络模型是基于两个gcn网络与softmax层进行构建,具体地,以链接预测为例,将图数据送入两个gcn网络后,通过图卷积运算得到图数据中所求信息(链接)的特征向量,将所求信息的特征向量送入至softmax层进行映射,得到图数据中是否含有所求信息的概率值。将此概率值通过损失函数进行损失计算,根据计算的结果,更新双视角图神经网络模型中的各参数和权重,得到更新后的双视角图神经网络模型。再次进行训练,直至损失函数收敛。训练结束,得到训练好的双视角图神经网络模型,封装使用。在本实施例中,权重更新规则为:按照链式求导法则进行求导。具体地,误差反向传播梯度计算公式为:gradp=((w
p-1
)
t
grad
p-1
)δ,其中,δ为当前的损失值,gradp为第p层的误差反向传播梯度,w
p-1
为第p-1次迭代训练时图神经元的权重,根据反向传播梯度,使用下式计算权重更新值:wp=wp-1-ε
·
gradp,其中,ε为学习率,wp表示当前图神经元的权重。需要说明的是,节点视角网络与边视角网络的训练过程类似,因此边视角网络的训练过程在此不再赘述。
[0053]
本实施例中,损失值的计算方法为loss=αl1 βl2,其中,α为节点视角网络的损失函数l1的因子参数,β为边视角网络的损失函数l2的因子参数。也即损失函数是节点视角网络的损失函数与边视角网络的损失函数加和,同时考虑到两个网络的侧重点不同,设置不同的因子参数,通过调整对应的因子参数,实现双视角图神经网络损失函数的构造。训练时,通过梯度下降法,不断调整两个视角网络的参数,实现网络的构建。进一步地,所述将节点的负样本特征矩阵输入节点视角网络,提取节点的负样本局部特征方法为:其中,e为节点的负样本特征,σ为sigmord函数,为节点特征矩阵与单位矩阵相加后的度矩阵,a为节点特征矩阵,i为单位矩阵,x为节点邻接矩阵,θ为预设的参数矩阵。本实施例中,节点视角网络的损失函数l1的公式为:其中,n为正样本节点数,m为负样本节点数,为第k个正样本提取局部特征后节点的表示向量,为第a个负样本提取局部特征后节点的表示向量,为正样本全局特征,d为判别器,若趋近1表示正样本全局特征与局部特征相似,若趋近0表示两者不相似。根据损失值更新节点视角网络的权重值。
[0054]
可以理解的是,本实施例中的双视角图神经网络模型能够应用于多种不同的领域中,如:语音识别、医疗诊断、应用程序的测试等。
[0055]
可见,在上述方案中,设计节点和边互补视角的对比学习来训练图神经网络,通过将节点特征矩阵和节点邻接矩阵输入至节点视角网络,将边特征矩阵和边邻接矩阵输入至边视角网络,同时训练两个网络,使得两个网络中权重的更新与节点和边的特征都相关,最终获得训练好的双视角图神经网络模型。采用对比学习的思想,从输入数据中构造出正负样本,让模型在隐式表示空间对正负样本进行判别,充分利用节点和边的特征信息,使模型
具有较好的迁移性。得到的模型具有较好的泛化性,当需要解决具体的下游任务时,可以直接使用训练好的双视角图神经网络模型来进行微调,从而避免为每一个下游任务从零开始训练全新的模型。此外,提出的双视角的图网络自监督训练策略,可以更有效地学到丰富的关键的图表示信息,捕捉到节点和边数据中的通用结构规律,进而赋予其在不限定种类的下游图挖掘任务上的拟合能力。另一方面,本发明的方法,使原来的手工调参、依靠机器学习工程师和专家的方式,转变到可适用于大规模、可复制的工业施展的方式。
[0056]
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
[0057]
在一实施例中,提供一种双视角图神经网络模型的训练装置,该双视角图神经网络模型的训练装置与上述实施例中双视角图神经网络模型的训练方法一一对应。如图6所示,该双视角图神经网络模型的训练装置包括图数据获取模块111、互换后图数据获取模块112、第一判断结果获取模块113、第二判断结果获取模块114和模型训练模块115。各功能模块详细说明如下:
[0058]
图数据获取模块111,用于获得多个具有标签的图数据,所述图数据中包括节点、边和属性信息,并基于属性信息构建节点特征矩阵和节点邻接矩阵。
[0059]
互换后图数据获取模块112,用于互换图数据中节点和边的位置,获得互换后图数据,并基于所述互换后图数据的属性信息构建边特征矩阵和边邻接矩阵;
[0060]
第一判断结果获取模块113,用于将所述节点特征矩阵和所述节点邻接矩阵输入至待训练双视角图神经网络模型的节点视角网络,得到图数据的第一判断结果,所述节点视角网络为gnn网络;
[0061]
第二判断结果获取模块114,用于将所述边特征矩阵和所述边邻接矩阵输入至待训练双视角图神经网络模型的边视角网络,得到图数据的第二判断结果,所述边视角网络为gnn网络;
[0062]
模型训练模块115,用于将所述图数据的第一判断结果和所述图数据的第二判断结果加权处理,得到图数据的判断结果,并基于所述图数据的判断结果和图数据的标签,联合训练所述节点视角网络和所述边视角网络,更新所述待训练双视角图神经网络模型的参数,得到训练好的双视角图神经网络模型.
[0063]
在一实施例中,第一判断结果获取模块113,具体用于:
[0064]
将节点特征矩阵和节点邻接矩阵输入至所述节点视角网络,提取节点的局部特征;
[0065]
将所述节点的局部特征和预设的节点的平均特征进行比较,得到图数据的第一判断结果。
[0066]
在一实施例中,第一判断结果获取模块113,具体用于:
[0067]
将节点特征矩阵进行特征扰动处理,得到节点的负样本特征矩阵;
[0068]
将节点特征矩阵和节点的负样本特征矩阵输入所述节点视角网络,提取节点的正样本局部特征和节点的负样本局部特征,获得节点的局部特征。
[0069]
在一实施例中,第一判断结果获取模块113,具体用于:
[0070]
对节点特征矩阵进行均值化处理,获得节点的平均特征。
[0071]
在一实施例中,第一判断结果获取模块113,还用于:
[0072]
所述提取节点的负样本局部特征方法为:其中,e为节点的负样本局部特征,σ为sigmord函数,为节点特征矩阵与单位矩阵相加后的度矩阵,a为节点特征矩阵,i为单位矩阵,x为节点邻接矩阵,θ为预设的参数矩阵。
[0073]
在一实施例中,模型训练模块115,具体用于:
[0074]
获取所述节点视角网络和所述边视角网络的当前参数值;
[0075]
根据预设的参数更新规则,获得所述图数据判断结果的损失值,根据所述损失值和当前参数值得到新的参数值;
[0076]
使用新的参数值作为所述待训练双视角图神经网络模型的参数。
[0077]
在一实施例中,模型训练模块115,还用于:
[0078]
所述图数据的判断结果j的计算方法为j=αj1 βj2,其中,j1为图数据的第一判断结果,j2为图数据的第二判断结果,α为图数据的第一判断结果的权重,β为图数据的第二判断结果的权重。
[0079]
本发明提供了一种双视角图神经网络模型的训练装置,设计节点和边互补视角的对比学习来训练图神经网络,通过将节点特征矩阵和节点邻接矩阵输入至节点视角网络,将边特征矩阵和边邻接矩阵输入至边视角网络,同时训练两个网络,使得两个网络中权重的更新与节点和边的特征都相关,最终获得训练好的双视角图神经网络模型。采用对比学习的思想,从输入数据中构造出正负样本,让模型在隐式表示空间对正负样本进行判别,充分利用节点和边的特征信息,使模型具有较好的迁移性。得到的模型具有较好的泛化性,当需要解决具体的下游任务时,可以直接使用训练好的双视角图神经网络模型来进行微调,从而避免为每一个下游任务从零开始训练全新的模型。此外,提出的双视角图网络训练策略,可以更有效地学到丰富的关键的图表示信息,捕捉到节点和边数据中的通用结构规律,进而赋予其在不限定种类的下游图挖掘任务上的拟合能力。另一方面,本发明的方法,使原来的手工调参、依靠机器学习工程师和专家的方式,转变到可适用于大规模、可复制的工业施展的方式。
[0080]
关于双视角图神经网络模型的训练装置的具体限定可以参见上文中对于双视角图神经网络模型的训练方法的限定,在此不再赘述。上述双视角图神经网络模型的训练装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
[0081]
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务端,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性和/或易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的客户端通过网络连接通信。该计算机程序被处理器执行时以实现一种双视角图神经网络模型的训练方法服务端侧的功能或步骤。
[0082]
在一个实施例中,提供了一种计算机设备,该计算机设备可以是客户端,其内部结
构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部服务器通过网络连接通信。该计算机程序被处理器执行时以实现一种双视角图神经网络模型的训练方法客户端侧的功能或步骤
[0083]
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
[0084]
获得多个具有标签的图数据,所述图数据中包括节点、边和属性信息,并基于属性信息构建节点特征矩阵和节点邻接矩阵;
[0085]
互换图数据中节点和边的位置,获得互换后图数据,并基于所述互换后图数据的属性信息构建边特征矩阵和边邻接矩阵;
[0086]
将所述节点特征矩阵和所述节点邻接矩阵输入至待训练双视角图神经网络模型的节点视角网络,得到图数据的第一判断结果,所述节点视角网络为gnn网络;
[0087]
将所述边特征矩阵和所述边邻接矩阵输入至待训练双视角图神经网络模型的边视角网络,得到图数据的第二判断结果,所述边视角网络为gnn网络;
[0088]
将所述图数据的第一判断结果和所述图数据的第二判断结果加权处理,得到图数据的判断结果,并基于所述图数据的判断结果和图数据的标签,联合训练所述节点视角网络和所述边视角网络,更新所述待训练双视角图神经网络模型的参数,得到训练好的双视角图神经网络模型。
[0089]
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
[0090]
获得多个具有标签的图数据,所述图数据中包括节点、边和属性信息,并基于属性信息构建节点特征矩阵和节点邻接矩阵;
[0091]
互换图数据中节点和边的位置,获得互换后图数据,并基于所述互换后图数据的属性信息构建边特征矩阵和边邻接矩阵;
[0092]
将所述节点特征矩阵和所述节点邻接矩阵输入至待训练双视角图神经网络模型的节点视角网络,得到图数据的第一判断结果,所述节点视角网络为gnn网络;
[0093]
将所述边特征矩阵和所述边邻接矩阵输入至待训练双视角图神经网络模型的边视角网络,得到图数据的第二判断结果,所述边视角网络为gnn网络;
[0094]
将所述图数据的第一判断结果和所述图数据的第二判断结果加权处理,得到图数据的判断结果,并基于所述图数据的判断结果和图数据的标签,联合训练所述节点视角网络和所述边视角网络,更新所述待训练双视角图神经网络模型的参数,得到训练好的双视角图神经网络模型。
[0095]
需要说明的是,上述关于计算机可读存储介质或计算机设备所能实现的功能或步骤,可对应参阅前述方法实施例中,服务端侧以及客户端侧的相关描述,为避免重复,这里不再一一描述。
[0096]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机
可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双数据率sdram(ddrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。
[0097]
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
[0098]
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献