一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于半监督的图卷积神经网络的文本分类方法与流程

2021-12-14 23:37:00 来源:中国专利 TAG:


1.本发明涉及人工智能领域,具体是一种基于半监督的图卷积神经网络的文本分类方法。


背景技术:

2.自然语义文档也包含了内部图结构,例如句法和语义分析树,它们定义了句子中单词之间的句法/语义关系,已有研究者借助图结构试图阐明其中的作用关系,因此,有研究者开始考虑文档中的图结构对文档特征表示的影响,另一面,文档与文档之间也存在相互作用关系,所熟知的具有相同语义的文档具有相似的分布,而非相似的文档具有不同的分布,即可以推测:文本的特征表示可以依赖于相近的文档特征。而文档于文档之间的作用关系,可以转化为图结构表示。同时受限于标记数据稀疏的影响,无法有效的进行监督学习。因此将利用图的可传播的优点,结合图节点的特征表示学习,设计依托于文本与文本之间的交互关系半监督学习文本分类框架。已有研究展开了基于图结构的文本分类,
3.如textrank最早探究图结构应用于文本分类的模型,图结构中的节点可以是文档或单词等,而边的关系可以是语义关系或词汇关系等。
4.在此概念下,peng等人出了一种基于图卷积神经网络的模型,将文本分类任务转化为图分类任务,为此,他首先通过滑动窗口在单词序列上滑动,通过在该滑动窗口内单词与单词的共现情形,构建基于单词的文本图结构,使得其能够捕获非连续和长远距离单词的语义特征,另一方面使用图卷积,对不同层次的语义特征进行提取,取得了良好的实验效果。
5.yao等人采用图卷积在构建的文本

单词图中,与peng等人不同的是,将图构建在语料库中,他们不仅依据单词与单词的共现概率构建单词与单词之间的边,还将文本依据该文本是否包含该单词将其嵌入到图中。该方法不仅能够捕获单词与本文档内的语境义,还能学习到其他文档中的语境义,这种单词能够跨文档学习的语境义使得单词具备了丰富的语境义,同时其也无距离限制,能够学习到长远距离中单词的语境义,为此使得其获得了文档较好的特征表示能力,同时也取得了比较好的实验效果。
6.peng等人出一种基于层次分类和基于图胶囊注意力机制的方法,该模型利用了类标签之间的关系。
7.故现有采用基于图的方法去研究如何构建好的文本表示,大多数是基于单词与文本的图结构关系,具有局限性。


技术实现要素:

8.本技术针对背景技术中存在的问题,将研究重点聚焦于文本与文本之间的关系,提出了一种基于半监督的图卷积神经网络的文本分类方法。
9.技术方案:
10.一种基于半监督的图卷积神经网络的文本分类方法,通过文本分类模型实现文本
分类,所述文本分类模型的构建包括以下步骤:
11.s1、构建句子或者文档的特征编码:将输入的句子或者文档输入到bert模型中,并采用谷歌开源的训练好的模型参数,对句子进行编码,抽取bert最后一层输出序列中的第一个向量作为句子或者段落的特征编码向量;
12.s2、构建文档

文档的关系图:考虑文档与文档之间的关关系,基于以下两条规则:
13.(1)图中的每一个节点表示文档;
14.(2)依据文档之间的相似度建议文档与文档之间的关系,即如果文档与文档之间的语义相似度超过阈值,则两文档之间建立边的联系,否则,没有边关系;
15.s3、文档节点的特征表示学习:将构建的句子或者段落的特征编码向量作为文档节点的特征,该特征为该节点的初始化向量,然后通过两层的图卷积操作,聚合其自身特征和邻居节点的特征,最后通过一层全连接层并经过激活函数softmax输出其标签分布;
16.s4、文档节点的标签类别推断:对于已知真实标签的节点采用其原始标签,对于未知标签的节点通过s3的方式对其进行计算,将通过s3预测输出的标签分布,然后采用基于图的传播的方式,根据邻居节点的标签预测该未知节点的标签。
17.s1中给定文档doc={w1,w2,w3…
w
l
},其中w
i
代表文档doc中第i个位置上的单词,l代表文档中单词的个数,采用预训练模型bert将文档固定成特定维度的向量作为文档的语义特征表示,即:
18.x=bert(doc)
19.式中,x∈r
m
表示文档doc的特征向量,其维度为m维。
20.s2中采用如下公式构建文档与文档之间的关系:
21.sim=consine(x
i
,x
j
)
[0022][0023]
式中,sim表示图中节点x
i
和x
j
之间的相似度,即两文档之间的语义相似度,α是超参数;e(i,j)表示图中节点i和节点j之间的边关系。
[0024]
s3中采用a表示图的连接矩阵,然后采用x
(1)
表示节点的特征向量,x
(2)
表示带标记数据的标签分布;标签分布预测模型定义为:
[0025]
将bert输出的特征向量x
(0)
作为文档节点的初始特征向量
[0026][0027]
然后,通过聚合邻居节点的特征和自身的特征,进而更新上一层的特征:
[0028][0029][0030]
这里h
(1)
和h
(2)
分别代表第一层经过信息转化矩阵w
(1)
和第二层信息转化为矩阵w
(2)
激活后得到的特征向量,其中i表示单位矩阵且与a的维度一样,是矩阵的度,σ代表的是激活函数relu;
[0031]
最终将文档节点最后一层特征,通过全连接神经网络和激活函数softmax,得到标签分布y:
[0032]
y=softmax(w
(3)
h
(2)
b
(3)
)
[0033]
其中w
(3)
是全连接层的信息转化参数,而b
(2)
是全连接层的偏置参数,y是预测出的标签分布。
[0034]
s4中推断未知标签的节点,采用a表示图的连接矩阵,其中对于已经真实标签节点的标签分布采用one

hot编码,对于未知标签分布的邻居节点,通过s3得到标签分布,采用y
(0)
表示未知节点的邻居节点的标签分布,并且采用y
(1)
表示经过第一层图卷积模型更新过后的标签分布,y
(2)
表示经过第二层图卷积模型更新过后的标签分布;
[0035]
首先将得到未知节点的邻居节点的标签分布y
(0)
作为初始化特征,输入到以下模型中:
[0036][0037][0038]
接着再经过一层的全连接层和激活函数softmax,得到未知节点的标签分布:
[0039]
y
(l)
=softmax(w
(6)
h
(2)
b
(6)
)
[0040]
其中w
(4)
,w
(5)
,w
(6)
是每一层模型对应的信息转化矩阵,而b
(6)
代表全连接层的偏置参数,其中i表示单位矩阵且与a的维度一样,是矩阵的度,σ代表的是激活函数relu。
[0041]
本发明的有益效果
[0042]
(1)为构建文本与文本之间的语义关系,采用bert模型将文本进行编码成固定的向量,进而分析了文本与文本之间的相似关系,构建了文档

文档之间的边关系。
[0043]
(2)基于假设:文本的特征表示可以依赖于相近的文档特征,利用图卷积神经网络聚合文档节点的邻居节点特征进行特征学习,增强目标文档节点的特征表示。
[0044]
(3)为了解决带标签数据稀疏的问题,利用两种gcn模型分别进行节点的特征学习和节点的标签传播,其不仅可以进行促进节点的特征学习还可以进行标签信息传播,有效的解决了标记数据稀疏的问题。
具体实施方式
[0045]
下面结合实施例对本发明作进一步说明,但本发明的保护范围不限于此:
[0046]
实验数据集
[0047]
我们对四个广泛使用的公共数据进行了实验,包括subj、sst

2、agnews和cr,对于所有数据集,我们也仅仅是从原始数据集中删除一些低频词,接下来我们将要详细的介绍相关数据集,相关统计信息显示在表1中。
[0048]
表1 50%划分数据集统计
[0049][0050]
subj:情感分类数据集,其任务是确定句子的情绪是否是肯定的或者否定的,它有9,000个训练样本和1,000测试样本,在本实验中,将这训练集与测试机合成,依据类别数目相同,将其划分为5,000的训练集和5,000的测试集。
[0051]
agnews:该数据集是关于互联网新闻的,它包含四个类别,娱乐,体育,世界和商业,共有12,000个训练样本和7,600个测试样本,在本实验中,只使用测试集的7,600个样本,将其划分为3,800的训练集和3,800的测试集。
[0052]
sst

2:该数据集是斯坦福大学公开的情感分析的数据集,与sst

1相似,与之不同的是sst

2是一个情感二分类数据集,将情感分为积极类和消极类,真实实验中,将数据集划分为4,370个训练样本和4,370个测试集样本。
[0053]
cr:该数据是关于电影评论的一个情感数据集。与sst

2相似的是,该数据集也是一个情感分析数据集,这实验中将会使用1,760个样本用于训练,1,760个样本用于测试。
[0054]
基准模型
[0055]
在对比试验中,将本技术提出的方法(tgln:time graph long node,简称tgln模型)与同几个很有竞争力的基准模型进行对比,包括:cnn、lstm、bi

lstm、fasttext、swem、dr

agg、gcn。这些模型的具体描述如下:
[0056]
cnn:用于文本分类的经典模型,将n

gram集成到cnn模型中,使用不同尺寸的卷积对文本进行局部特征提取,然后使用一层最大的池化层,最后使用一层全连接层输出标签分布。
[0057]
lstm:将文本视作单词序列,并利用lstm对文本进行建模,将其最后一步的输出作为整个文本的特征表征,此后将文本特征输入到全连接网络中得出标签分布。
[0058]
bi

lstm:虽然lstm模型在文本分类领域中不常使用,但是双向的lstm模型常常应用于自然语义处理领域中,其将每一步的前向传播隐藏向量和后向传播隐藏向量进行拼接,并将每一步得出的向量进行平均,然后通过全连接神经网络进行分类。
[0059]
fasttext:是简单高效的文本分类模型,其将单词采用n

grams方式组合,然后直接将组合成的向量输入到全连接神经网络中进行分类。
[0060]
swem:简单单词嵌入模型,采用简单的池化策略对词向量进行过滤,得出文本的特征表示,进而输入全连接分类网络中。
[0061]
gcn:一种基于图卷积的文本分类方法,在本文实验中,主要利用了两层的图卷积神经网络进行实验。
[0062]
评价指标
[0063]
由于数据集中都是均衡数据,为此采用准确率作为平均模型性能的指标,采用t表示预测正确的样本数目,采用f表示预测错误的样本数目,则准确率的公式可以定义为:
[0064][0065]
实验结果分析
[0066]
在本节中,我们将所提出的模型与相关的基准模型就准确率指标上进行了对比。第一点,从表2中,我们可以发现我们的模型在四个数据集上正确率性能都比其他的模型要好,同时也发现图卷积模型(gcn)也取得了比较好的实验效果,为此可能是基于图的方法在基于半监督的方法上会优于基于深度的方法,相比较深度的方法,基于图神经网络的方法比较“浅显”,故而参数量比较小,即所需要训练的数据就相比较而言较少,从而基于图的方法与深度的方法相比在带标记较少的文本分类任务上取得了比较好的实验。另一方面tgln模型与gcn模型相比,除了利用邻居节点特征进行特征学习,还同时利用了标签信息,利用已知节点的标签信息去推断未被标记的节点。进一步的证明了特征学习加图推理的方法的可行性和潜能性。
[0067]
表2实验对比模型准确率平均指标
[0068][0069]
第二点,在实验阶段我们对文本相似度勾边所设立的阈值进行了分析,对此我们分别探究了0.5、0.75、0.85、0.9这四个阈值对模型效果的影响,通过表3我们发现随着所设立的阈值越高则边数越少,即文档与文档之间的连接就越稀疏,同时从表4中,我们发现随着设立阈值的慢慢变高,模型的性能指标也会随着升高。此现象一方面表明了通过低相似度的语义所构建的关系,会对节点的原始语义特征造成一定的干扰,从而扰乱分类器的性能。而另一方面通过高相似的语义所构建的节点关系,会对节点的原始语义表征进行增强,从而提高了模型分类的性能。
[0070]
表3不同阈值中各数据勾边统计
[0071][0072][0073]
表4训练集占50%条件下不同阈值各数据集准确率统计
[0074][0075]
第三点,我们也探究了tcln模型能否适应小数据集的训练,是否能够取的比较不错的效果,因此,如表5所示,我们分别探究了20%,30%,40%,50%的训练量在不同阈值下的各种数据集上实验,首先肯定是,随着训练集的数目增多,测试的效果越来越好。同时也发现即使训练量为20%依然能够取得比较好的实验效果,证明了tcln模型在半监督学习下的文本分类的潜能性。
[0076]
表5不同训练集所取得的准确率统计
[0077][0078]
本文中所描述的具体实施例仅仅是对本发明精神做举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献