一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于关键词结构编码的涉案微博评价对象抽取方法与流程

2022-02-20 00:44:56 来源:中国专利 TAG:


1.本发明涉及基于关键词结构编码的涉案微博评价对象抽取方法,属于自然语言处理技术领域。


背景技术:

2.微博等社交媒体的蓬勃发展让人们获得更丰富、更及时的信息,同时每天也会产生大量评论。其中,与案件相关的评论在网络上迅速传播,所产生的舆论会干扰有关机构的工作。为此,获取涉案微博评论的评价对象,对于后续进行案件相关评论的细粒度情感分析,掌握案件舆论走向具有重要的作用。涉案微博评价对象抽取的目的是从微博用户的评论文本中识别出被评价的对象,例如,在“这次事故女司机是无辜的”这一评论中,需要识别出评价对象“女司机”。针对某个案件,网友的评论通常都会围绕微博正文中所提及的案件发生的人物、地点等关键词展开。换句话说,正文中出现的案件关键词构成了用户评论的评价对象。所以,微博正文中与案件相关的关键词信息对于涉案微博评价对象抽取任务是有效的。


技术实现要素:

3.本发明提供了基于关键词结构编码的涉案微博评价对象抽取方法,以用于解决了涉案微博评论的评价对象抽取任务,以及解决现有方法通常将评价对象抽取视为一个序列标注任务,并未考虑涉案微博的领域特点,即评论通常围绕正文中出现的案件关键词展开讨论等问题。
4.本发明的技术方案是:基于关键词结构编码的涉案微博评价对象抽取方法,所述基于关键词结构编码的涉案微博评价对象抽取方法的具体步骤如下:
5.step1、收集用于涉案微博评价对象抽取的微博正文和微博评论文本,对微博正文和微博评论文本进行去重与筛选,并从微博正文中获取多个案件关键词;
6.作为本发明的优选方案,所述step1中,使用scrapy作为爬取工具,收集用于涉案微博评价对象抽取的微博正文和微博评论文本,对微博正文和微博评论文本进行去重与筛选,然后使用textrank从微博正文中抽取多个案件关键词。
7.此优选方案设计是本发明的重要组成部分,主要为本发明收集语料过程,为本发明抽取涉案微博评价对象提供了数据支撑。
8.step2、对涉案微博评论文本进行分词,词性标注等预处理,定制涉案微博评价对象抽取的标注体系,标记微博评价文本,将标记好的微博评论语料按照8:1:1的比例分配训练语料、验证语料和测试语料;
9.step3、获取评论语句对应的字符向量和词向量,训练数据经过预处理后作为bilstm的输入,然后送入双层高速网络;
10.step4、获取案件关键词对应的词向量,训练数据经过预处理后作为bilstm的输入,然后经过结构编码操作,得到关键词的结构化表征;
11.step5、采用交互注意力机制融合评论表征与关键词的结构化表征,训练涉案微博评价对象抽取模型;
12.step6、将融合之后的表征输入crf,用于进行涉案微博评价对象抽取。
13.作为本发明的优选方案,所述步骤step2的具体步骤为:
14.step2.1、定制的涉案微博评价对象抽取的标注体系采用了xml的可扩展标记语言组织文本,分别针对评价对象文本、评价对象的开始位置、评价对象的结束位置对收集到的微博评论文本进行标记;
15.step2.2、再将实验数据分为训练语料、验证语料和测试语料。
16.本发明使用的数据集为人工标注共2200条涉案微博评论,标注内容为涉案微博评论句中的评价对象,分别是#奔驰女司机维权案#和#重庆公交车坠江案#两个数据集。
17.此优选方案设计是本发明的重要组成部分,主要为本发明提供语料预处理过程,为后续工作提供模型训练时所需训练语料和为模型验证时提供验证语料以及为模型测试时提供测试语料;并且为本发明抽取涉案微博评价对象提供了支撑和挖掘的对象。
18.作为本发明的优选方案,所述步骤step3的具体步骤:
19.step3.1、将评论语句中的字符与词输入到embedding层中得到评论语句对应的字符向量和词向量其中t表示句子中字符的总个数,表示句子中第j个位置的字符,表示第j个位置的字符对应的词;
20.step3.2、将词嵌入和字符嵌入分别输入bi-lstm进行编码,并将编码得到的隐表示进行拼接;
21.step3.3、将拼接之后的表示输入双层高速网络,以此平衡字符向量和词向量的贡献比,得到具有上下文语义特征的评论多粒度向量表示。
22.所述bi-lstm和高速网络:
23.将词嵌入和字符嵌入分别输入bi-lstm进行编码,并将编码得到的隐表示和进行拼接得到表示
24.hc=bilstm(xc),
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(1)
25.hw=bilstm(xw),
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(2)
[0026][0027]
其中,表示拼接操作,d表示嵌入维度。
[0028]
然后将其输入双层高速网络,以此平衡字符向量和词向量的贡献比,得到具有上下文语义特征的评论多粒度向量表示
[0029]
k=o(h
cw
,wo)
·
t(h
cw
,w
t
) h
cw
·
c(h
cw
,wc),
ꢀꢀꢀꢀ
(4)
[0030]
其中,o表示非线性函数,t表示转换门,c表示携带门,wo、w
t
和wc是权重矩阵。
[0031]
模型输入如图2所示,和分别是评论语句对应的字符向量和词向量,其中t表示句子中字符的总个数,表示句子中第j个位置的字符,表示第j个位置的字符对应的词。
[0032]
此优选方案设计是本发明的重要组成部分,主要为本发明提供向量编码的过程,
利用结构编码操作,将关键词组合表示为多个语义片段,综合利用多个关键词的信息指导评价对象的抽取,进而提升模型的性能。
[0033]
作为本发明的优选方案,本发明利用bi-lstm和结构编码机制提取关键词的结构编码表征,然后结合交互注意力机制将其与评论句子表征融合,最后送入crf,进行评价对象抽取,其中:
[0034]
所述步骤step4的具体步骤为:
[0035]
step4.1、给定一个评论句对应的一组案件关键词,将其输入到embedding层中得到的词向量序列表示为u={u1,u2,

,uf},其中f表示关键词的总个数;
[0036]
step4.2、将词向量送入bi-lstm,得到具有上下文语义特征的案件关键词向量表示;
[0037]
step4.3、利用结构编码操作将具有上下文语义特征的案件关键词的向量表示转化为结构化表示。
[0038]
作为本发明的优选方案,所述步骤step5的具体步骤为:
[0039]
step5.1、将具有上下文语义特征的评论多粒度向量表示与关键词的结构化表示做交互注意力,由此得到的关键词表征用来表示评论句,;
[0040]
step5.2、将融合之后的信息与评论句字符嵌入通过bi-lstm得到的隐表示进行点乘,再和评论句词嵌入通过bi-lstm得到的隐表示进行简单拼接,得到最终的表征。
[0041]
作为本发明的优选方案,所述步骤step6的具体步骤为:将最终的特征表达输入到评价对象抽取层中,利用crf得到条件概率最大的输出序列,从而实现涉案微博评价对象的抽取。
[0042]
作为本发明的优选方案,所述结构编码机制:
[0043]
给定一个评论句对应的一组案件关键词,其词向量序列表示为u={u1,u2,

,uf},其中f表示关键词的总个数。将其送入bi-lstm,得到具有上下文语义特征的案件关键词向量表示
[0044]
l=bilstm(u),
ꢀꢀꢀ
(5)
[0045]
然后使用结构编码操作将具有上下文语义特征的案件关键词的向量表示转化为结构化表示
[0046]
a=softmax(w
2 tanh(w1l
t
)),
ꢀꢀꢀꢀꢀꢀ
(6)
[0047]
h=al,
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(7)
[0048]
其中是一个权重矩阵,w1和w2是可训练的两个参数。r是一个超参数,表示转换为结构化表示的结构数量。
[0049]
使用惩罚项z作为损失函数中的一部分来保证h中结构化表示的多样性。
[0050][0051]
其中,i表示单位矩阵,||
·
||f表示矩阵的frobenius范数。
[0052]
所述交互注意力机制:
[0053]
将具有上下文语义特征的评论多粒度向量表示与关键词编码层得到的结构化表示做交互注意力,由此得到的关键词表征
用来表示评论句,具体操作如下。
[0054]
对结构化表示中的每一个特征表示进行加权求和,由此得到信息交互的关键词表征。
[0055][0056]
其中注意力权重α
j,i
用相应的匹配分数s
j,i
通过softmax函数计算得到,s
j,i
通过特征向量kj和hi的双线性乘积计算得到的:
[0057][0058]sj,i
=tanh(kjwhi b),
ꢀꢀꢀꢀꢀ
(11)
[0059]
其中,w和b是可训练的两个参数。
[0060]
将上述融合之后的信息与评论句子字符嵌入通过bi-lstm得到的隐表示进行点乘,再和评论句子词嵌入通过bi-lstm得到的隐表示进行简单拼接,得到最终的表征
[0061][0062]
其中,
·
表示按位相乘,表示简单拼接。该表征既融合了关键词信息,又保留了原有的评论句的字符级信息和词级信息在时序上的上下文依赖关系。
[0063]
作为本发明的优选方案,将最终的特征表达输入到评价对象抽取层中,利用crf得到条件概率最大的输出序列,从而实现涉案微博评价对象的抽取。
[0064]
将g={g1,g2,
…gt
}通过一个线性层后,得到表示g

,其中g

i,j
是序列中第i个字符的标签j的得分。设输入序列为x={x1,x2,

x
t
},标签序列为y={y1,y2,
…yt
},标签预测的分数为:
[0065][0066]
p(y|x)=softmax{score(x,y)},
ꢀꢀꢀꢀꢀꢀꢀꢀ
(14)
[0067]
其中,q是转移分数矩阵,q
i,j
表示从标签i转移到标签j的分数。对所有可能的标签序列的得分应用softmax函数,从而得到给定输入x的条件下标签序列y的概率p(y|x)。本文采用负对数似然函数作为损失函数,最后利用维特比算法得到条件概率最大的输出序列。
[0068][0069]
loss=l zi,
ꢀꢀꢀꢀꢀꢀꢀꢀ
(16)
[0070]
其中zi表示第i个训练实例的惩罚项(见公式(8))。
[0071]
本发明的有益效果是:
[0072]
1、本发明的基于关键词结构编码的涉案微博评价对象抽取方法,结合涉案微博数据的特点,提出了利用微博正文中的关键词信息指导评论中的评价对象抽取;
[0073]
2、本发明的基于关键词结构编码的涉案微博评价对象抽取方法,提出利用结构编码机制对微博正文关键词进行编码,从而能综合利用多个关键词信息;
[0074]
3、本发明的基于关键词结构编码的涉案微博评价对象抽取方法,加入了交互注意力机制,将评论句子表征和案件关键词结构表征进行深度融合;
[0075]
4、本发明的基于关键词结构编码的涉案微博评价对象抽取方法,解决了涉案微博评论的评价对象抽取任务。
附图说明
[0076]
图1为本发明提出的涉案微博评价对象抽取流程图;
[0077]
图2为本发明提出的基于关键词结构编码的涉案微博评价对象抽取模型图;
[0078]
图3为设置不同关键词数量的f1值对比示意图。
具体实施方式
[0079]
实施例1:如图1-图3所示,基于关键词结构编码的涉案微博评价对象抽取方法,具体步骤如下:
[0080]
step1、收集用于涉案微博评价对象抽取的微博正文和微博评论文本,对微博正文和微博评论文本进行去重与筛选,并从微博正文中获取多个案件关键词;
[0081]
作为本发明的优选方案,所述step1中,使用scrapy作为爬取工具,收集用于涉案微博评价对象抽取的微博正文和微博评论文本,对微博正文和微博评论文本进行去重与筛选,然后使用textrank从微博正文中抽取多个案件关键词。
[0082]
step2、对涉案微博评论文本进行分词,词性标注等预处理,定制涉案微博评价对象抽取的标注体系,标记微博评价文本,将标记好的微博评论语料按照8:1:1的比例分配训练语料、验证语料和测试语料;
[0083]
作为本发明的优选方案,所述步骤step2的具体步骤为:
[0084]
step2.1、定制的涉案微博评价对象抽取的标注体系采用了xml的可扩展标记语言组织文本,分别针对评价对象文本、评价对象的开始位置、评价对象的结束位置对收集到的微博评论文本进行标记;
[0085]
step2.2、再将实验数据分为训练语料、验证语料和测试语料。
[0086]
step3、获取评论语句对应的字符向量和词向量,训练数据经过预处理后作为bilstm的输入,然后送入双层高速网络;
[0087]
作为本发明的优选方案,所述步骤step3的具体步骤:
[0088]
step3.1、将评论语句中的字符与词输入到embedding层中得到评论语句对应的字符向量和词向量其中t表示句子中字符的总个数,表示句子中第j个位置的字符,表示第j个位置的字符对应的词;
[0089]
step3.2、将词嵌入和字符嵌入分别输入bi-lstm进行编码,并将编码得到的隐表示进行拼接;
[0090]
step3.3、将拼接之后的表示输入双层高速网络,以此平衡字符向量和词向量的贡献比,得到具有上下文语义特征的评论多粒度向量表示。
[0091]
所述bi-lstm和高速网络:
[0092]
将词嵌入和字符嵌入分别输入bi-lstm进行编码,并将编码得到的隐表示
和进行拼接得到表示
[0093]
hc=bilstm(xc),
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(1)
[0094]hw
=bilstm(xw),
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(2)
[0095][0096]
其中,表示拼接操作,d表示嵌入维度。
[0097]
然后将其输入双层高速网络,以此平衡字符向量和词向量的贡献比,得到具有上下文语义特征的评论多粒度向量表示
[0098]
k=o(h
cw
,wo)
·
t(h
cw
,w
t
) h
cw
·
c(h
cw
,wc),
ꢀꢀꢀꢀ
(4)
[0099]
其中,o表示非线性函数,t表示转换门,c表示携带门,wo、w
t
和wc是权重矩阵。
[0100]
模型输入如图2所示,和分别是评论语句对应的字符向量和词向量,其中t表示句子中字符的总个数,表示句子中第j个位置的字符,表示第j个位置的字符对应的词。
[0101]
step4、获取案件关键词对应的词向量,训练数据经过预处理后作为bilstm的输入,然后经过结构编码操作,得到关键词的结构化表征;
[0102]
作为本发明的优选方案,本发明利用bi-lstm和结构编码机制提取关键词的结构编码表征,然后结合交互注意力机制将其与评论句子表征融合,最后送入crf,进行评价对象抽取,其中:
[0103]
所述步骤step4的具体步骤为:
[0104]
step4.1、给定一个评论句对应的一组案件关键词,将其输入到embedding层中得到的词向量序列表示为u={u1,u2,

,uf},其中f表示关键词的总个数;
[0105]
step4.2、将词向量送入bi-lstm,得到具有上下文语义特征的案件关键词向量表示;
[0106]
step4.3、利用结构编码操作将具有上下文语义特征的案件关键词的向量表示转化为结构化表示。
[0107]
作为本发明的优选方案,所述步骤step5的具体步骤为:
[0108]
step5.1、将具有上下文语义特征的评论多粒度向量表示与关键词的结构化表示做交互注意力,由此得到的关键词表征用来表示评论句,;
[0109]
step5.2、将融合之后的信息与评论句字符嵌入通过bi-lstm得到的隐表示进行点乘,再和评论句词嵌入通过bi-lstm得到的隐表示进行简单拼接,得到最终的表征。
[0110]
作为本发明的优选方案,所述步骤step6的具体步骤为:将最终的特征表达输入到评价对象抽取层中,利用crf得到条件概率最大的输出序列,从而实现涉案微博评价对象的抽取。
[0111]
作为本发明的优选方案,所述结构编码机制:
[0112]
给定一个评论句对应的一组案件关键词,其词向量序列表示为u={u1,u2,

,uf},其中f表示关键词的总个数。将其送入bi-lstm,得到具有上下文语义特征的案件关键词向量表示
[0113]
l=bilstm(u),
ꢀꢀꢀꢀꢀꢀꢀꢀ
(5)
[0114]
然后使用结构编码操作将具有上下文语义特征的案件关键词的向量表示转化为结构化表示
[0115]
a=softmax(w2tanh(w1l
t
)),
ꢀꢀꢀꢀꢀꢀ
(6)
[0116]
h=al,
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(7)
[0117]
其中是一个权重矩阵,w1和w2是可训练的两个参数。r是一个超参数,表示转换为结构化表示的结构数量。
[0118]
使用惩罚项z作为损失函数中的一部分来保证h中结构化表示的多样性。
[0119][0120]
其中,i表示单位矩阵,||
·
||f表示矩阵的frobenius范数。
[0121]
所述交互注意力机制:
[0122]
将具有上下文语义特征的评论多粒度向量表示与关键词编码层得到的结构化表示做交互注意力,由此得到的关键词表征用来表示评论句,具体操作如下。
[0123]
对结构化表示中的每一个特征表示进行加权求和,由此得到信息交互的关键词表征。
[0124][0125]
其中注意力权重α
j,i
用相应的匹配分数s
j,i
通过softmax函数计算得到,s
j,i
通过特征向量kj和hi的双线性乘积计算得到的:
[0126][0127]sj,i
=tanh(kjwhi b),
ꢀꢀꢀꢀꢀ
(ii)
[0128]
其中,w和b是可训练的两个参数。
[0129]
将上述融合之后的信息与评论句子字符嵌入通过bi-lstm得到的隐表示进行点乘,再和评论句子词嵌入通过bi-lstm得到的隐表示进行简单拼接,得到最终的表征
[0130][0131]
其中,
·
表示按位相乘,表示简单拼接。该表征既融合了关键词信息,又保留了原有的评论句的字符级信息和词级信息在时序上的上下文依赖关系。
[0132]
作为本发明的优选方案,将最终的特征表达输入到评价对象抽取层中,利用crf得到条件概率最大的输出序列,从而实现涉案微博评价对象的抽取。
[0133]
将g={g1,g2,
…gt
}通过一个线性层后,得到表示g

,其中g

i,j
是序列中第i个字符
的标签j的得分。设输入序列为x={x1,x2,

x
t
},标签序列为y={y1,y2,
…yt
},标签预测的分数为:
[0134][0135]
p(y|x)=softmax{score(x,y)},
ꢀꢀꢀꢀ
(14)
[0136]
其中,q是转移分数矩阵,q
i,j
表示从标签i转移到标签j的分数。对所有可能的标签序列的得分应用softmax函数,从而得到给定输入x的条件下标签序列y的概率p(y|x)。本文采用负对数似然函数作为损失函数,最后利用维特比算法得到条件概率最大的输出序列。
[0137][0138]
loss=l zi,
ꢀꢀꢀꢀꢀꢀꢀ
(16)
[0139]
其中zi表示第i个训练实例的惩罚项(见公式(8))。
[0140]
step7、分别对案件关键词数量和质量进行实验探究,经过实验,证明模型设置的合理性与高效性,又将该模型与现有模型进行对比,证明本方法在涉案微博评价对象抽取上具有较好效果。
[0141]
实验采用精确率(p)、召回率(r)、和f1值作为评价指标进行对比实验。
[0142][0143][0144][0145]
其中,tp表示正样本被识别为正样本,fp表示负样本被识别为正样本,fn表示正样本被识别为负样本。
[0146]
本发明实验所使用的预训练词向量是基于ctb 6.0(chinese treebank 6.0)语料库训练得到,字符嵌入是基于大规模标准分词后的中文语料库gigaword训练得到,嵌入维度均为50。通过实验比较,选择关键词个数为20。
[0147]
实验使用随机梯度下降算法(sgd)优化参数,dropout的大小设置为0.4,学习率设置为0.012,l2设置为1e-8。
[0148]
本发明模型分别与crf、lstm-crf、bilstm-crf、bilstm-cnn-crf和bert-crf五个基准模型进行了对比实验。基准模型介绍如下。
[0149]
crf:该方法是解决序列标注问题用的最多的方法之一,通过学习观察序列来预测标签序列。
[0150]
lstm-crf:该方法也是序列标注问题中常用的方法,使用lstm解决了远距离依赖问题。
[0151]
bilstm-crf:该模型使用bilstm从两个方向编码信息,来更好的捕获上下文信息,同时使用crf向最终的预测标签添加约束。
[0152]
bilstm-cnn-crf:该模型在结合bilstm和crf优势的基础上,又融合了cnn抽取局部特征,进行评价对象抽取。
[0153]
bert-crf:该方法将评论句输入预训练bert模型,得到的表示送入crf,抽取评价对象词项。
[0154]
为了保证比较的公平性,本发明实验将上述模型的学习率、dropout、批次等参数设置为与本文模型一致,lstm的隐层向量大小设置为100,cnn卷积核的尺寸设置为(2,3,4)。bert-crf实验中使用的bert预训练语言模型为google发布的bert-base(chinese)模型。实验分别在两个数据集上进行,表1给出了对比实验的结果。
[0155]
表1基准模型对比实验结果(%)
[0156][0157]
通过表1可以看出,相比其他模型而言,基于传统机器学习的crf模型的性能都是最低的,在两个数据集上的f1值只有56.14%和45.81%,这是由于crf模型需要定义大量的特征函数,根据自定义的语言特征模板进行评价对象抽取,并没有抽取相应的语义特征。与crf模型相比,lstm-crf、bilstm-crf和bilstm-cnn-crf模型利用lstm对评论信息进行了抽取,因此性能获得了提升。其中,bilstm-crf模型比起lstm-crf模型性能提升明显,这是由于bilstm是从前后两个方向编码信息,能够更好的捕获双向语义依赖关系,可以提取到某些很重要词的完整特征,而单向的lstm只能捕获到单向的词序列信息。融合了cnn模型之后,f1值又有所提升,说明cnn可以很好的捕获局部特征。在基准模型中,基于预训练bert的bert-crf模型的p、r、f1值都是最高的,这是由于bert包含了很多预训练语料中蕴含的外部知识和语义信息。在两个数据集上,本文模型的p、r、f1值对比所有基准模型均有所提高,验证了本文模型抽取涉案微博评论的评价对象的有效性。
[0158]
为了验证本文模型中结构编码机制和案件关键词信息的有效性,针对#奔驰女司机维权案#数据集进行了消融实验,实验结果如表2所示。
[0159]
表2消融实验结果对比(%)
[0160][0161]
通过表2的实验结果可以看出,当没有融入案件关键词时,模型的p、r、f1值均大幅下降,说明案件关键词的融入可以很好的指导模型学习涉案微博领域的特征,进而抽取评价对象词项。当没有使用结构编码机制时,模型的f1值降低了1.26%,p值降低了3.79%,r值反而升高了0.67%,可以看出结构编码机制以牺牲一部分召回率换取了评价对象抽取精
确率大的提升,说明结构编码机制可以有效帮助模型综合利用各个案件关键词的信息,对模型的指导作用更准确。
[0162]
本发明针对两个数据集分别采用不同数量的案件关键词进行了实验,实验结果如图3所示。
[0163]
通过图3的实验结果可以看出,当案件关键词数量采用20和30时,性能相对较好。特别是当关键词数个数为20时,模型在两个数据集上的f1值都是最高的。说明当关键词数量过少时,其信息量不足,无法充分指导模型学习涉案微博领域的特征,而当关键词数量过多时,可能会引入噪声数据,让模型学习到错误的信息,导致模型性能下降。
[0164]
为了探究案件关键词质量对模型的影响,本发明分别采用textrank和tf-idf两种关键词提取方法进行了实验。由于上述实验结果证明,抽取20个关键词融入模型的效果最好,所以从#女车主维权案#数据集的正文中利用两种方法分别抽取20个关键词,抽取结果如表3所示。
[0165]
表3不同工具抽取到的案件关键词
[0166][0167]
通过表3可以看出,textrank抽取到的关键词信息与正文中所提及的案件核心要素更相关,而tf-idf会抽取到一些高频的噪声词,比如“热议、称有”等。
[0168]
将表3得到的不同质量的关键词融入模型进行实验,实验结果如表4所示。
[0169]
表4不同质量关键词的实验结果对比(%)
[0170][0171]
表4的实验结果证明了使用textrank抽取关键词的效果要优于tf-idf。原因可能是通过tf-idf抽取到的关键词包含很多与评价对象无关的噪声词,这些词并不构成网友评论的评价对象,影响了模型的性能。
[0172]
从以上数据可以看出,使用结构编码机制综合利用微博正文的案件关键词信息,并通过交互注意力机制将其融入评论句子表示,来指导评价对象的抽取。所提出的结构编码机制使模型能够更准确的抽取评价对象词项,且使用textrank抽取一定数量的关键词融入模型能够得到最好的性能。
[0173]
上面结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献