一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于ChineseBERT模型和注意力机制的化工突发事件新闻分类方法

2022-05-18 12:19:52 来源:中国专利 TAG:

基于chinesebert模型和注意力机制的化工突发事件新闻分类方法
技术领域
1.本发明属于文本分类和自然语言处理技术领域,具体涉及一种基于chinesebert模型和注意力机制的化工突发事件新闻分类方法。


背景技术:

2.chinesebert模型主要是融合字形与拼音信息的中文预训练模型,模型将字符嵌入(char embedding)、字形嵌入(glyph embedding)和拼音嵌入(pinyin embedding)进行拼接起来;然后通过融合层,得到一个d维融合嵌入(fusion embedding);最后将其与位置嵌入(position embedding)、片段嵌入(segment embedding)相加,形成transformer-encoder层的输入。由于预训练时没有使用nsp任务,因此模型结构省略了片段嵌入(segment embedding)。
3.mlp多层感知机,也叫做人工神经网络,除了输入输出层,它中间可以有多个隐层,最简单的mlp只含一个隐层,即三层的结构,多层感知机层与层之间是全连接的。多层感知机最底层是输入层,中间是隐藏层,最后是输出层。
4.attention机制就是对输入的每个元素考虑不同的权重参数,从而更加关注与输入的元素相似的部分,而抑制其它无用的信息。其最大的优势就是能一步到位的考虑全局联系和局部联系,且能并行化计算,这在大数据的环境下尤为重要的。
5.在面对新闻文本分类问题的时候,研究者们会选择将语句相似度、神经网络等融入到文本分类中,忽略了文本数据训练时的时间复杂度,中文字符拼音信息,深层次文本特征的提取问题以及对应数据的语义信息。因此,通过改进chinesebert预训练模型的架构和共享bert模型的参数,来提高模型的鲁棒性和降低时间复杂度,同时结合连级注意力机制得到字符到子序列上下文特征信息,从而解决中文化工突发事件新闻文本分类的问题,进而提高文本分类的准确度。
6.现有的文本分类方法中,有的只关注分类短文本的特征向量与预设特征向量簇集合中特征向量簇的中心向量的相似度,没有考虑文本信息的实体特征信息;有的只关注主题语义特征,没有考虑文本的全局特征信息。也有的方法主要是进行特征的简单提取,没有考虑使用预训练模型,还有长依赖项的关系。
7.在面对化工突发事件新闻文本分类问题时,已有论文主要基于传统的特征提取方法和主题识别方法,其次基于深度神经网络分类模型等,但是关于文本分类还有很多的问题有待解决:化工新闻信息在训练时的时间复杂度、空间复杂度和模型的鲁棒性问题;特征提取的信息不能充分的刻画文本的全文信息,有些语义是不同的,例如同字异义的,全局的上下文信息不够全面现象;对于chinesebert这个中文预训练模型,在预训练时候,对于字形信息,需要通过不同的字体的实例化图像进行处理,之后还需要进行识别学习和扁平化操作,占用很多的空间复杂度;并且模型是从头训练,在向量层需要,但是在transformer-encoder层也是从头训练,导致时间复杂度增加。


技术实现要素:

8.发明目的:针对现有技术中存在的问题,本发明提出一种基于chinesebert模型和注意力机制的化工突发事件新闻分类方法,能够多层面精确刻画文本数据特征,通过改进chinesebert模型的架构,即抽取拼音向量和字符向量来进行融合,之后加入位置向量进行整合,输入到bert模型中进行训练,其中的bert参数实行共享,降低时间复杂度,解耦属于同一字符形式的不同语义,同时使用连级注意力机制来增进上下文特征信息,来弥补传统新闻文本特征信息丢失问题,提高化工突发事件新闻实际应用效率,实现准确的文本分类。
9.技术方案:本发明提出一种基于chinesebert模型和注意力机制的化工突发事件新闻分类方法,具体包括以下步骤:
10.(1)将化工突发事件新闻文本数据d进行文本预处理,得到新闻文本数据d1;
11.(2)通过word2vec模型处理化工突发文本数据d1,得到文本特征向量r1,将词向量r1输入到word attention模型中,得到新的词依赖特征信息h1,再将词依赖特征信息h1输入到seq attention模型,得到子序列特征信息h2;
12.(3)通过对文本数据d1进行开源拼音包处理,得到对应的拼音序列,之后输入到mlp,经过最大池化层输出拼音向量h3,对预处理后的文本进行one-hot编码,得到字符向量h4,与拼音向量h3进行矩阵化嵌入,得到2维矩阵向量r3;
13.(4)将矩阵特征信息r3与位置向量信息r4进行整合得到特征信息h5,输入h5至bert预训练模型中,得到对应的特征信息h6;
14.(5)将步骤(2)中的上下文特征信息h2与步骤(4)中的语义特征信息h6进行整合,输入到cnn模型中,得到最终的文本分类结果。
15.进一步地,所述步骤(1)包括以下步骤:
16.(11)定义化工突发事件新闻文本数据集为d,定义text为单个文本数据,定义id,title,label分别为单个文本序列号,数据的标题,文本标签,并且满足关系text={id,title,label},d={text1,text2,

,texti,

,textn},texti为d中第i个文本信息数据,其中,n=len(d)为d中文本数量,变量i∈[1,n];
[0017]
(12)定义处理后的化工突发事件文本数据集为d1,d1={text1,text2,

,textj,

,textm},textj为d1中第j个文本信息数据,其中,m=len(d1)分别为d1中文本数量,变量j∈[1,m];
[0018]
(13)读取数据集d,遍历整个数据集;
[0019]
(14)如果title==null,执行(15),否则执行(16);
[0020]
(15)删除对应行数据;
[0021]
(16)根据停用词表去除一些无用的字符;
[0022]
(17)保存预处理后的文本数据集d1。
[0023]
进一步地,所述步骤(2)包括以下步骤:
[0024]
(201)读取预处理后的文本数据集d1;
[0025]
(202)定义词特征向量集r1;
[0026]
(203)通过word2vec模型进行数据分词处理,由word2vec模型进行训练得到文本词特征向量
[0027]
(204)保存词特征向量r1,并且满足(204)保存词特征向量r1,并且满足为数据向量集中第i个词特征向量,其中,变量i∈[1,a],a为分词后词向量的数量;
[0028]
(205)定义基于注意力机制的词依赖特征向量h1;
[0029]
(206)将词特征向量r1,输入到attention机制中,得到基于注意力的词依赖特征向量其中表示文本中的第j个词依赖特征向量,满足变量j∈[1,b],b为词依赖特征向量的数量,其中的attention机制的输入与调整方法为,使用softmax归一化,进行权重矩阵wf调节,之后乘v,其中,dk为一个q和k向量的维度,为尺度标量因子,分别代表query,key,value;
[0030]
(207)定义循环变量k,用来学习第一级注意力机制的词特征向量h1,k初始值为1;
[0031]
(208)定义基于注意力机制的子序列依赖特征向量h2;
[0032]
(209)如果k≤b则执行(210),否则执行(212);
[0033]
(210)将词依赖特征向量h1,输入到attention机制中,得到基于注意力的子序列依赖特征向量其中表示文本中的第t个子序列依赖特征向量,满足变量t∈[1,c],c为子序列依赖特征向量的数量;
[0034]
(211)k=k 1;
[0035]
(212)输出并保存二级注意力机制的特征向量h2。
[0036]
进一步地,所述步骤(3)包括以下步骤:
[0037]
(31)定义拼音特征向量h3,定义one-hot字符向量h4,定义融合嵌入矩阵r3;
[0038]
(32)读入文本数据d1到开源的拼音包里,得到拼音表示,将其输入到mlp中,神经网络中由3个隐藏层,每个隐藏层64个节点数,然后由最大池化层得到拼音向量满足满足为数据向量集中第i个字符对应的拼音向量,其中,变量i∈[1,d],d为拼音向量的数量;
[0039]
(33)读取预处理数据d1,通过one-hot编码字符向量,得到字符向量满足满足为数据向量集中第j个字符特征向量,其中,变量j∈[1,e];
[0040]
(34)融合拼音向量h3和字符向量h4,得到融合嵌入向量主要使用具有可学习矩阵的全连接层诱导矩阵向量的嵌入,融合矩阵向量其中表示文本中的第t个字符对应的融合特征向量,变量t∈[1,s]。
[0041]
进一步地,所述步骤(4)包括以下步骤:
[0042]
(41)定义位置向量r4,定义融合位置向量的特征向量矩阵h5,定义bert预训练后的特征向量h6;
[0043]
(42)将融合矩阵向量r3与positional embedding相加,得到整合特征向量矩阵其中,变量h∈[1,f];
[0044]
(43)读取整合特征向量矩阵h5输入到bert模型中训练,得到最终的特征信息向量
h6,其中h6,其中为bert训练后向量第p个特征向量,其中,变量p∈[1,g],对bert模型的训练参数共享,得到对应的训练特征向量。
[0045]
进一步地,所述步骤(5)包括以下步骤:
[0046]
(51)读取上下文特征信息h2,读取语义信息h6;
[0047]
(52)将h2和h6整合得到的特征向量输入到cnn分类模型中的卷积层,将先前层的特征映射与卷积核卷积,并加上相应修正偏差b1,作为权重的修正超参数;
[0048]
(53)通过隐藏层激活函数的相关运算,输出特征映射,使用leaky-relu激活函数,作为隐藏层的激活函数,如下公式,leaky-relu为所有负值分配一个非零的斜率:
[0049][0050]
其中,ai是固定的超参数,i表示对应第i个特征信息的ai;
[0051]
(54)定义预测标签集l,使用最大池化层进行处理,之后进行全连接操作,进行文本分类l={label},得到最终的文本分类结果s。
[0052]
有益效果:与现有技术相比,本发明的有益效果:本发明基于chinesebert模型的改进,利用拼音和字符向量信息进行整合嵌入,同时添加位置向量信息进行整合,输入到bert模型中进行训练,其中的bert参数使用共享机制,用来解耦属于同一字符形式的不同语义,节省资源消耗的同时得到对应的上下文语义信息;同时使用word2vec模型进行预处理数据的处理,接着使用连级的attention机制进行信息学习,得到词到序列的特征信息与上下文关联;最后融合以上两部分的特征向量输入到cnn分类模型中,得到最终的文本分类结果。
附图说明
[0053]
图1为本发明的流程图;
[0054]
图2为新闻文本数据预处理流程图;
[0055]
图3为word2vec模块和连级attention机制特征信息提取流程图;
[0056]
图4为拼音与字符向量嵌入流程图;
[0057]
图5为特征融合嵌入及bert模型训练流程图;
[0058]
图6为多特征融合文本分类流程图。
具体实施方式
[0059]
下面结合附图对本发明作进一步详细说明。
[0060]
本发明提出一种基于chinesebert模型和注意力机制的化工突发事件新闻分类方法,如图1所示,具体包括以下步骤:
[0061]
本发明涉及的变量,如表1所示:
[0062]
表1变量说明表
[0063]
[0064][0065]
步骤1:对化工突发事件新闻数据集d通过遍历和筛选,得到预处理后的化工突发事件新闻集d1。如图2所示,具体方法为:
[0066]
步骤1.1:定义化工突发事件新闻文本数据集为d,定义text为单个文本数据,定义id,title,label分别为单个文本序列号,数据的标题,文本标签,并且满足关系text={id,title,label},d={text1,text2,

,texti,

,textn},texti为d中第i个文本信息数据,其中,n=len(d)为d中文本数量,变量i∈[1,n];
[0067]
步骤1.2:定义处理后的化工突发事件文本数据集为d1,d1={text1,text2,

,textj,

,textm},textj为d1中第j个文本信息数据,其中,m=len(d1)分别为d1中文本数量,变量j∈[1,m];
[0068]
步骤1.3:读取数据集d,遍历整个数据集;
[0069]
步骤1.4:如果title==null,执行步骤1.5,否则执行步骤1.6;
[0070]
步骤1.5:删除对应行数据;
[0071]
步骤1.6:根据停用词表去除一些无用的字符;
[0072]
步骤1.7:保存预处理后的文本数据集d1。
[0073]
步骤2:读取预处理后的数据集d1,经过word2vec模型训练,得到文本词向量,作为
第一级注意力机制的输入,然后让其作为第二级注意力机制的输入,得到最终的上下文特征向量。如图3所示,具体方法为:
[0074]
步骤2.1:读取预处理后的文本数据集d1;
[0075]
步骤2.2:定义词特征向量集r1;
[0076]
步骤2.3:通过word2vec模型进行数据分词处理,由word2vec模型进行训练得到文本词特征向量
[0077]
步骤2.4:保存词特征向量r1,并且满足步骤2.4:保存词特征向量r1,并且满足为数据向量集中第i个词特征向量,其中,变量i∈[1,a],a为分词后词向量的数量;
[0078]
步骤2.5:定义基于注意力机制的词依赖特征向量h1;
[0079]
步骤2.6:将词特征向量r1,输入到attention机制中,得到基于注意力的词依赖特征向量其中表示文本中的第j个词依赖特征向量,满足变量j∈[1,b],b为词依赖特征向量的数量,其中的attention机制的输入与调整方法为,使用softmax归一化,进行权重矩阵wf调节,之后乘v,其中,dk为一个q和k向量的维度,为尺度标量因子,q,k,v是张量,分别代表query,key,value;
[0080]
步骤2.7:定义循环变量k,用来学习第一级注意力机制的词特征向量h1,k初始值为1;
[0081]
步骤2.8:定义基于注意力机制的子序列依赖特征向量h2;
[0082]
步骤2.9:如果k≤b则执行步骤2.10,否则执行2.12;
[0083]
步骤2.10:将词依赖特征向量h1,输入到attention机制中,得到基于注意力的子序列依赖特征向量其中表示文本中的第t个子序列依赖特征向量,满足变量t∈[1,c],c为子序列依赖特征向量的数量;
[0084]
步骤2.11:k=k 1;
[0085]
步骤2.12:输出并保存二级注意力机制的特征向量h2。
[0086]
步骤3:读取预处理后的新闻数据集d1,由开源拼音包进行处理,之后输入到mlp中进行向量化,同时对新闻数据集d1进行one-hot编码,得到的字符向量与拼音向量进行融合矩阵嵌入,得到2维矩阵向量r3。如图4所示,具体方法为:
[0087]
步骤3.1:定义拼音特征向量h3,定义one-hot字符向量h4,定义融合嵌入矩阵r3;
[0088]
步骤3.2:读入文本数据d1到开源的拼音包里,得到拼音表示,将其输入到mlp中,神经网络中由3个隐藏层,每个隐藏层64个节点数,然后由最大池化层得到拼音向量满足足为数据向量集中第i个字符对应的拼音向量,其中,变量i∈[1,d],d为拼音向量的数量;
[0089]
步骤3.3:读取预处理数据d1,通过one-hot编码字符向量,得到字符向量满足满足为数据向量集中第j个字符特征向量,其中,变量j∈[1,e];
[0090]
步骤3.4:融合拼音向量h3和字符向量h4,得到融合嵌入向量主要使用具有可
学习矩阵的全连接层诱导矩阵向量的嵌入,融合矩阵向量其中表示文本中的第t个字符对应的融合特征向量,变量t∈[1,s]。
[0091]
步骤4:将矩阵特征信息r3与位置向量融合,得到特征信息h5,输入到bert模型中进行向量化训练,得到最终的语义特征信息h6。如图5所示,具体方法为:
[0092]
步骤4.1:定义位置向量r4,定义融合位置向量的特征向量矩阵h5,定义bert预训练后的特征向量h6;
[0093]
步骤4.2:将融合矩阵向量r3与positional embedding相加,得到整合特征向量矩阵其中,变量h∈[1,f];
[0094]
步骤4.3:读取整合特征向量矩阵h5输入到bert模型中训练,得到最终的特征信息向量h6,其中向量h6,其中为bert训练后向量第p个特征向量,其中,变量p∈[1,g],对bert模型的训练参数共享,得到对应的训练特征向量。
[0095]
步骤5:将步骤2、4得到的特征信息进行整合,进行全连接处理,输入到cnn模型中分类处理,得到最终的文本分类结果。如图6所示,具体方法为:
[0096]
步骤5.1:读取上下文特征信息h2,读取语义信息h6;
[0097]
步骤5.2:将h2和h6整合得到的特征向量输入到cnn分类模型中的卷积层(隐藏单元),将先前层的特征映射与卷积核卷积,并加上相应修正偏差b1,作为权重的修正超参数;
[0098]
步骤5.3:通过隐藏层激活函数的相关运算,输出特征映射,使用leaky-relu激活函数,作为隐藏层的激活函数,如下公式,leaky-relu为所有负值分配一个非零的斜率:
[0099][0100]
其中,ai是固定的超参数,i表示对应第i个特征信息的ai;
[0101]
步骤5.4:定义预测标签集l,使用最大池化层进行处理,之后进行全连接操作,进行文本分类l={label},得到最终的文本分类结果s。
[0102]
本发明可与化工突发事件新闻结合,从而完成基于连级的attention机制的学习得到文本上下文特征提取,并且使用chinesebert预训练模型在使用拼音和字符信息的基础上添加位置信息,并且输入到bert模型中进行训练得到最终的语义特征信息,两者进行融合嵌入通过cnn模型进行文本分类操作,对于化工安全新闻根据《国家突发公共事件总体应急预案》的突发事件分类,对其中的一部分分类总结,得到化工突发事件的类别(如火灾,爆炸、易燃、易爆、有毒气体泄漏)进行化工新闻突发事件的分类。
[0103]
本发明可以用于自然语言处理的分类、特征信息提取以及拼音字符信息进行预训练得到语义特征信息等方面,还有各种化工新闻文本的分类。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献