一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于高通滤波和l

2022-12-20 01:29:59 来源:中国专利 TAG:

一种基于高通滤波和l
21
范数的图神经网络系统的商品分类方法
技术领域
1.本发明涉及一种基于高通滤波和l
21
范数的图神经网络系统的商品分类方法,属于商品分类技术领域。


背景技术:

2.随着神经网络的飞速发展,同时启发于传统机器学习中的诸如卷积神经网络、周期神经网络、生成对抗网和自动编码器等的传统方法,图神经网络以其能够有效处理复杂的图数据而备受关注。图神经网络是指使用神经网络来学习图,提取和发掘图中的特征和模式,满足分类、聚类、预测、分割、生成等图学习任务需求的算法总称,其通过在图中的节点、边和相关语义上制定一定的策略,将图转化为规范且标准的表示,并输入到多种不同的神经网络中进行训练。与其他图学习算法相比较,图神经网络具有对图更强大的非线性拟合能力,能够学习到图中节点以及边的内在规律和更加深层次的语义特征,因此图神经网络能表现出更高的准确率和更好的鲁棒性。
3.本技术提供一种基于高通滤波和l
21
范数的图神经网络系统的商品分类方法。


技术实现要素:

4.本发明的目的在于克服现有技术中的不足,提供一种基于高通滤波和l
21
范数的图神经网络系统的商品分类方法,能够对多个商品进行分类。
5.为达到上述目的,本发明是采用下述技术方案实现的:
6.本发明提供一种基于高通滤波和l
21
范数的图神经网络系统的商品分类方法所述基于高通滤波和l
21
范数的图神经网络系统包括顺次设置的输入层、第一图卷积神经网络层、带泄露线性整流函数层、第二图卷积神经网络层、基于高通滤波和l
21
范数的图神经网络层、对数归一化指数函数层和输出层;
7.所述商品分类方法包括以下步骤:
8.利用输入层接收n个商品的特征矩阵和邻接矩阵,其中,特征矩阵的每一行表示一个商品的图节点特征;
9.利用第一图卷积神经网络层、带泄露线性整流函数层以及第二图卷积神经网络层初步处理特征矩阵,获得原始信号;
10.基于邻接矩阵,利用基于高通滤波和l
21
范数的图神经网络层处理原始信号,获得第一矩阵,第一矩阵每行的各元素表示为对应商品的一种类别;
11.利用对数归一化指数函数层,将第一矩阵转换为第二矩阵,第二矩阵的各元素表示第一矩阵中对应元素的概率;
12.基于最大值原则,将第二矩阵各行最大元素对应的第一矩阵中的类别,确定为对应商品的分类。
13.进一步地,所述邻接矩阵为表示n个商品关系的n
×
n矩阵。
14.进一步地,所述第一矩阵和第二矩阵均为n行,m列的矩阵;
15.其中,n为商品数量,m为商品的类别数。
16.进一步地,所述利用基于高通滤波和l
21
范数的图神经网络层,基于邻接矩阵处理原始信号,获得第一矩阵,包括(1)式:
[0017][0018]
式中,为高通滤波项,为图拉普拉斯正则项,为l
21
范数项,为求最小时候的y值,i为单位矩阵,为图的拉普拉斯矩阵,为正则化的图邻接矩阵,是图的度矩阵,α为邻接矩阵,x 表示原始信号,y是第一矩阵,||
·
||f是frobenius范数,β,ρ1和ρ2分别为第一参数,tr(
·
)是矩阵的迹,δ是图的诱导矩阵,是的l
21
范数,ε是图中边的集合,vi是图的第i个顶点,vj是图的第j个顶点,di是第i个顶点对应的度矩阵的值,dj是第j个顶点对应的度矩阵的值,yi和yj是第i个顶点和第j个顶点对应的y 的值,y
t
表示y的转置。
[0019]
进一步地,所述利用基于高通滤波和l
21
范数的图神经网络层,基于邻接矩阵处理原始信号,获得第一矩阵,包括采用近端交替预测校正算法对(1)式进行求解,具体如下:
[0020]
步骤1:将(1)式转化为(2)式,具体如下:
[0021][0022]
式中,
[0023]
步骤2:将(2)式中对部分的求解转换为其对应的共轭函数的求解,具体如下:
[0024][0025]
式中,为上确界,g
*
(z)为的共轭函数,z为对应共轭函数的待求解矩阵变量;
[0026]
步骤3:将(2)式对应的优化问题进一步转换为(3)式对应的优化问题,具体如下:
[0027]
[0028]
步骤4:执行以下迭代步骤求解(3)式对应的优化问题,具体如下:
[0029]
s41采用最速下降法求解y
k 1
,具体(4)式:
[0030][0031]
式中,k为迭代次数,且k的初始值为0,上标k均表示初始迭代次数状态或上一次迭代次数更新状态,上标k 1均表示当前初始状态或当前更新状态,γ为最速下降法的参数,为的转置,δ是图的诱导矩阵,是f(y)的梯度,y的初始值是x,z的初始值是0矩阵;
[0032]
s42采用最速上升法求解求解z
k 1
,具体如下:
[0033]
s421根据最速上升法求解
[0034][0035]
式中,是最速上升法求解过程中第一步求解的中间变量,η是近端交替算法求解的参数,是最速上升法求解的参数;
[0036]
s422根据近端交替算法求解z
k 1
,求解公式如下所示:
[0037][0038]
式中,为的临近算子,并最终利用(6)式按列求得对应的z
k 1
,具体如下:
[0039][0040]
式中,p表示向量矩阵的第p行,||
·
||2表示l2范数,λ1为参数。
[0041]
s43判断迭代次数是否达标,如果未达标,则令yk=y
k 1
,zk=z
k 1
,k=k 1,并返回步骤s41,否则停止迭代并令yk=y
k 1
,zk=z
k 1
,通过(7)式更新并输出y,具体如下:
[0042][0043]
进一步地,所述判断迭代次数是否达标包括:
[0044]
当k大于等于100时,迭代次数达标;
[0045]
当k小于100时,迭代次数不达标。
[0046]
与现有技术相比,本发明所达到的有益效果:
[0047]
本发明利用基于高通滤波和l
21
范数的图神经网络层,根据特征矩阵和邻接矩阵,
确定多个商品可能的类别,并基于概率最大原则,确定各商品的类别,以提高商品分类的准确性。
附图说明
[0048]
图1所示为本发明基于高通滤波和l
21
范数的图神经网络系统的一种实施例结构示意图;
[0049]
图2所示为本发明基于高通滤波和l
21
范数的图神经网络系统的商品分类方法的一种实施例流程图。
具体实施方式
[0050]
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
[0051]
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”等的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
[0052]
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以通过具体情况理解上述术语在本发明中的具体含义。
[0053]
实施例1
[0054]
本发明提供一种基于高通滤波和l
21
范数的图神经网络系统的商品分类方法所述基于高通滤波和l
21
范数的图神经网络系统包括顺次设置的输入层、第一图卷积神经网络层、带泄露线性整流函数层、第二图卷积神经网络层、基于高通滤波和l
21
范数的图神经网络层、对数归一化指数函数层和输出层。
[0055]
所述商品分类方法包括以下步骤:
[0056]
s1利用输入层接收n个商品的特征矩阵x
in
和邻接矩阵a,其中,特征矩阵x
in
的每一行表示一个商品的图节点特征。
[0057]
应用中,邻接矩阵a为表示n个商品关系的n
×
n矩阵。
[0058]
实际应用时,n大于等于1。
[0059]
s2利用第一图卷积神经网络层、带泄露线性整流函数层以及第二图卷积神经网络层初步处理特征矩阵,获得原始信号x。
[0060]
应用中,第一图卷积神经网络层采用经典gcn对输入层输入的x
in
进行第一次处理,输出处理后的x
gcn1
;带泄露线性整流层对第一图卷积神经网络层输出的x
gcn1
进行非线性处
理,增加图神经网络各层之间的非线性关系,输出处理后的x
leakyrelu
;第二图卷积神经网络模块,采用经典gcn对带泄露线性整流层输出的x
leakyrelu
进行第二次处理,输出处理后的x。
[0061]
s3基于邻接矩阵a,利用基于高通滤波和l
21
范数的图神经网络层处理原始信号x,获得第一矩阵y,第一矩阵y每行的各元素表示为对应商品的一种类别。
[0062]
应用中,基于高通滤波和l
21
范数的图神经网络层包含集高通滤波处理,全局图光滑处理以及具有图局部光滑自适应功能。
[0063]
s4利用对数归一化指数函数层,将第一矩阵y转换为第二矩阵y',第二矩阵y'的各元素表示第一矩阵y中对应元素的概率。
[0064]
应用中,第一矩阵和第二矩阵均为n行,m列的矩阵。其中,n为商品数量,m为商品的类别数。
[0065]
s5基于最大值原则,将第二矩阵y'各行最大元素对应的第一矩阵y中的类别,确定为对应商品的分类。
[0066]
应用中,m值根据商品数据集的不同而不同,以computers为例,m为10,且10个类别分别为:台式机、数据存储、笔记本电脑、监视器、计算机组件、视频投影仪、路由器、平板电脑、网络产品、网络摄像头。则y'的每一行向量的第0个位置为判断该商品为“台式机”的概率,第1个位置为判断该商品为“数据存储”的概率,

,依次类推,最终根据选取概率最大的位置为对应商品的类别。
[0067]
实际应用时,针对不同领域的商品,需要利用对应领域的历史数据集训练基于高通滤波和l
21
范数的图神经网络系统,以获得可以用于对应领域的商品分类的基于高通滤波和l
21
范数的图神经网络系统。其中,历史数据集包括n个商品的特征矩阵和邻接矩阵。
[0068]
本发明利用基于高通滤波和l
21
范数的图神经网络层,根据特征矩阵和邻接矩阵,确定多个商品可能的类别,并基于概率最大原则,确定各商品的类别,以提高商品分类的准确性。
[0069]
实施例2
[0070]
在实施例1的基础上,本实施例详细介绍了获得第一矩阵y的具体方法。
[0071]
利用基于高通滤波和l
21
范数的图神经网络层,基于邻接矩阵a处理原始信号x,获得第一矩阵y,包括(1)式:
[0072][0073]
式中,为高通滤波项,为图拉普拉斯正则项,为l
21
范数项,为求最小时候的y值,i为单位矩阵,为图的拉普拉斯矩阵,为正则化的图邻接矩阵,是图的度矩阵,α为邻接矩阵,x 表示原始信号,y是第一矩阵,||
·
||f是frobenius范数,β,ρ1和ρ2分别为第一参数,
tr(
·
)是矩阵的迹,δ是图的诱导矩阵,是的l
21
范数,ε是图中边的集合,vi是图的第i个顶点,vj是图的第j个顶点,di是第i个顶点对应的度矩阵的值,dj是第j个顶点对应的度矩阵的值,yi和yj是第i个顶点和第j个顶点对应的y 的值,y
t
表示y的转置。
[0074]
应用中,采用高通滤波核对原始信号进行高通滤波处理,采用图拉普拉斯正则项对原始信号进行全局图光滑处理,采用l
21
范数增强原始信号处理过程中的局部光滑自适应性。
[0075]
实际应用时,所述利用基于高通滤波和l
21
范数的图神经网络层,基于邻接矩阵a处理原始信号x,获得第一矩阵y,包括采用近端交替预测校正算法对(1)式进行求解,具体如下:
[0076]
步骤1:将(1)式转化为(2)式,具体如下:
[0077][0078]
式中,
[0079]
步骤2:将(2)式中对部分的求解转换为其对应的共轭函数的求解,具体如下:
[0080][0081]
式中,为上确界,g
*
(z)为的共轭函数,z为对应共轭函数的待求解矩阵变量;
[0082]
步骤3:将(2)式对应的优化问题进一步转换为(3)式对应的优化问题,具体如下:
[0083][0084]
步骤4:执行以下迭代步骤求解(3)式对应的优化问题,具体如下:
[0085]
s41采用最速下降法求解y
k 1
,具体(4)式:
[0086][0087]
式中,k为迭代次数,且k的初始值为0,上标k均表示初始迭代次数状态或上一次迭代次数更新状态,上标k 1均表示当前初始状态或当前更新状态,γ为最速下降法的参数,为的转置,δ是图的诱导矩阵,是f(y)的梯度,y的初始值是x,z的初始值是0矩阵。
[0088]
s42采用最速上升法求解求解z
k 1
,具体如下:
[0089]
s421根据最速上升法求解
[0090][0091]
式中,是最速上升法求解过程中第一步求解的中间变量,η是近端交替算法求解的参数,是最速上升法求解的参数;
[0092]
s422根据近端交替算法求解z
k 1
,求解公式如下所示:
[0093][0094]
式中,为的临近算子,并最终利用(6)式按列求得对应的z
k 1
,具体如下:
[0095][0096]
式中,p表示向量矩阵的第p行,||
·
||2表示l2范数,λ1为参数。
[0097]
s43判断迭代次数是否达标:
[0098]
当k小于100时,迭代次数不达标,则令yk=y
k 1
,zk=z
k 1
,k=k 1,并返回步骤s41;
[0099]
当k大于等于100时,迭代次数达标,停止迭代并令yk=y
k 1
,zk=z
k 1
,通过(7)式更新并输出y,具体如下:
[0100][0101]
实施例3
[0102]
本实施例采用不同的图神经网络对商品图进行分类,并计算各图神经网络分类结果的精度,详见表1。
[0103]
表1不同的图神经网络的商品分类精度
[0104]
图数据集本技术gcngatsgcappnpgraphsagecora83.06
±
0.9179.6
±
1.180.1
±
1.280.2
±
1.582.2
±
1.379.0
±
1.1citeseer71.20
±
1.3968.9
±
1.268.9
±
1.868.9
±
1.370.4
±
1.267.5
±
2.0pubmed79.94
±
2.0877.6
±
2.377.6
±
2.275.5
±
2.978.9
±
2.277.6
±
2.0cs92.86
±
0.3791.6
±
0.691.1
±
0.590.1
±
1.392.5
±
0.391.7
±
0.5physics94.78
±
0.3393.3
±
0.893.3
±
0.793.1
±
0.693.7
±
0.792.5
±
0.8computers81.91
±
1.1979.8
±
1.679.3
±
2.473.0
±
2.080.1
±
2.180.7
±
1.7photo92.58
±
1.3790.3
±
1.289.6
±
1.683.5
±
2.990.8
±
1.390.9
±
1.0
[0105]
通过表1可知,处理cora、citeseer、pubmed、cs、physics、computers和photo七组
数据集时,本技术方法分类结果的精度均高于gcn(图卷积神经网络)、gat(图注意力神经网络)、sgc(简化图卷积网络)、appnp(加速的神经预测个性化传播)以及graphsage (图抽样聚合神经网络)的精度,可见,本技术的方法具有有效性。
[0106]
本领域内的技术人员应明白,本技术的实施例可提供为方法、系统、或计算机程序产品。因此,本技术可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本技术可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0107]
本技术是参照根据本技术实施例的方法、设备(系统)、和计算机程序产品的流程图和/ 或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/ 或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0108]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0109]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0110]
以上结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献