一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于样本扩充的网络舆情分析方法与流程

2022-02-25 22:52:03 来源:中国专利 TAG:


1.本发明涉及数据分析技术领域,具体涉及一种基于样本扩充的网络舆情分析方法。


背景技术:

2.舆情是“舆论情况”的简称,是指在一定的社会空间内,围绕社会事件的发生、发展的变化,作为主体的民众对作为客体的社会管理者、企业、个人及其他各类组织及其政治、社会、道德等方面的取向产生和持有的社会态度。
3.网络舆情即发生在网络上的舆情。由于网络空间的开放特性,舆论的发布和扩散方式多种多样,一些片面、煽动性的舆情信息也很容易在网络上传播,这些负面信息若不能及时发现和处理,会对社会产生不良影响。因此,面对大规模的网络舆情信息,如何利用大数据技术,快速且准确的分析出网络舆情倾向,成为及时应对各种网络舆情的关键。
4.目前,应用较为广泛的网络舆情倾向性分析方法为基于nlp(natural languageprocessing,自然语言处理)的网络舆情分析方法。但基于监督学习的nlp方法对网络舆情倾向性的预测准确度受模型训练样本质量的影响较大,当样本数据量过少或者噪声太大时,采用nlp算法训练而得的模型的预测性能较差,所以需要寻找一种全新的方法解决样本质量问题,以快速且准确的分析出网络舆情倾向。


技术实现要素:

5.本发明以提高网络舆情预测准确性为目的,提供了一种网络舆情分析方法。
6.为达此目的,本发明采用以下技术方案:
7.提供一种基于样本扩充的网络舆情分析方法,包括步骤:
8.s1,扩充情感极性词典,
9.s2,以四元组形式表达所述情感极性词典中的每个情感词,并从所述四元组中提取出模型训练样本,然后基于albert和textcnn算法训练形成网络舆情倾向性分析模型;
10.s3,将当前舆情信息作为所述网络舆情倾向性分析模型的输入,模型预测输出当前网络舆情的倾向性。
11.作为本发明的一种优选方案,步骤s1中,扩充所述情感极性词典的方法具体包括步骤:
12.s11,对网络舆情语料库进行分词操作,所分得的词作为待计算情感极性的候选词;
13.s12,计算所分得的每个所述候选词的情感倾向性概率值;
14.s13,提取出情感倾向性概率值大于预设概率阈值的所述候选词;
15.s14,计算步骤s13提取的所述候选词与所述情感极性词典中的同义词的语义相似度,得到相似度值sim;
16.s15,判断所述相似度值sim是否大于或等于预设的相似度阈值,
17.若是,则赋予参与相似度计算的所述候选词的情感极性为与其具有最高相似度的所述同义词的情感极性;
18.若否,则对参与相似度计算的所述候选词作情感极性计算并赋予其所计算的情感极性;
19.s16,将赋予情感极性后的所述候选词添加到所述情感极性词典中。
20.作为本发明的一种优选方案,步骤s12中,通过以下公式(1)计算所述候选词的情感倾向性概率值:
[0021][0022]
公式(1)中,p(wi|cj)表示待求解的所述候选词的情感倾向性概率值;
[0023]nij
表示候选词wi在情感倾向类别cj下的所有文档中出现的总次数,其中候选词包括情感词和非情感词;
[0024]
|v|表示所述情感极性词典中的总单词数;
[0025]
wi表示参与情感倾向性概率计算的第i个所述候选词;
[0026]cj
表示第j个情感倾向类别。
[0027]
作为本发明的一种优选方案,步骤s14中,通过以下公式(2)计算所述相似度值sim:
[0028][0029]
公式(2)中,w表示所述候选词;
[0030]
w1表示hownet义原树中的一个词语节点;
[0031]
depth(w)表示在hownet义原树中候选词w节点距离义原树根结点的深度;
[0032]
depth(w1)表示在hownet义原树中w1节点距离义原树根结点的深度;
[0033]
dist(w,w1)表示w1节点与w节点间的路径距离;
[0034]
α表示深度对相似度计算的影响参数。
[0035]
作为本发明的一种优选方案,预设的所述相似度阈值为0.6。
[0036]
作为本发明的一种优选方案,步骤s25中,通过以下公式(3)对参与相似度计算的所述候选词作情感极性计算:
[0037][0038]
公式(3)中,so_pmi(w)表示对所述候选词的情感极性计算结果;
[0039]
w表示待进行情感极性计算的所述候选词;
[0040]ci
表示所述情感极性词典中的第i个基准褒义词;
[0041]di
表示所述情感极性词典中的第i个基准贬义词;
[0042]
n表示基准词总数;
[0043]
p(w)表示候选词w在文本中单独出现的概率;
[0044]
p(ci)表示ci在文本中单独出现的概率;
[0045]
p(di)表示di在文本中单独出现的概率;
[0046]
p(w&ci)表示候选词w与ci在文本中同时出现的概率;
[0047]
p(w&di)表示候选词w与di在文本中同时出现的概率。
[0048]
作为本发明的一种优选方案,所述四元组的表达形式为(m,w,r,d)表示,其中m表示修饰词;w表示极性词;r表示修饰词m与极性词w之间的关系;d表示修饰词m与极性词 w之间的距离。
[0049]
作为本发明的一种优选方案,步骤s2中,基于albert和textcnn算法训练所述网络舆情倾向性分析模型的方法步骤包括:
[0050]
s21,从表征情感词的所述四元组中提取出极性词向量、修饰词向量和以及表征修饰词与极性词间距离的位置向量;
[0051]
s22,以步骤s21提取的关联每个所述情感词的所述极性词向量、所述修饰词向量和所述位置向量为模型训练样本,并基于albert和textcnn算法训练形成所述网络舆情倾向性分析模型。
[0052]
作为本发明的一种优选方案,基于亲和度的舆情迁移算法扩展所述网络舆情语料库,具体步骤包括:
[0053]
s111,利用wmd算法从已有的网络舆情样本库中筛选出与当前网络舆情领域相似的数据样本;
[0054]
s112,计算所筛选的所述数据样本与当前网络舆情样本中的情感词的领域亲和度;
[0055]
s113,判断步骤s112计算的所述领域亲和度是否大于预设的领域亲和度阈值,
[0056]
若是,则将所述数据样本添加到当前网络舆情样本数据集中;
[0057]
若否,则过滤掉所述数据样本。
[0058]
作为本发明的一种优选方案,步骤s112中通过以下公式(4)计算所述领域亲和度:
[0059][0060]
公式(4)中,s
ij
表示待求解的文本ti与文本tj间情感词的领域相似度;
[0061]hij
表示同时出现在所述文本ti与所述文本tj中的情感词的集合;
[0062]
k表示集合h
ij
中的第k个情感词;
[0063]
nk表示所述集合h
ij
中情感词的数量;
[0064]wki
表示所述集合h
ij
中的第k个情感词与所述文本ti中的第i个情感词的关联度;
[0065]wkj
表示所述集合h
ij
中的第k个情感词与所述文本tj中的第j个情感词的关联度;
[0066]wki
通过以下公式(5)计算而得:
[0067][0068]
公式(5)中,f
ik
表示同时出现在ti、tj中的情感词的频率;
[0069]fi
表示ti中情感词出现的频率;
[0070]fk
表示情感词k在ti或tj中出现的频率;
[0071]dik
表示两个情感词在同一文本中的平均词向量距离;
[0072]wkj
通过以下公式(6)计算而得:
[0073][0074]
公式(6)中,f
jk
表示同时出现在ti、tj中的情感词(共现情感词)的频率;
[0075]fj
表示tj中情感词出现的频率;
[0076]fk
表示情感词k在ti或tj中出现的频率;
[0077]djk
表示两个情感词在同一文本中的平均词向量距离。
[0078]
本发明具有以下有益效果:
[0079]
1、本发明以情感极性词典中的数据为网络舆情倾向性分析模型的训练样本,通过扩充情感极性词典,增加了模型训练样本的数据量,解决了样本类型不平衡的问题,有利于提升模型对网络舆情倾向性的预测准确度。
[0080]
2、结合albert算法和textcnn算法训练网络舆情倾向性分析模型,克服了单独使用 textcnn算法训练模型存在的不能学习到网络舆情文本更深层次、更全面的信息的缺陷,提升模型了对网络舆情倾向性的预测准确度。
附图说明
[0081]
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍。显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0082]
图1是本发明一实施例提供的基于样本扩充的网络舆情分析方法的实现步骤图;
[0083]
图2是扩充情感极性词典的方法步骤图;
[0084]
图3是扩充情感极性词典的方法原理框图;
[0085]
图4是基于albert和textcnn算法训练网络舆情倾向性分析模型的方法步骤图;
[0086]
图5是本实施例训练网络舆情倾向性分析模型的网络结构图;
[0087]
图6是基于亲和度的舆情迁移算法扩展网络舆情语料库的方法步骤图。
具体实施方式
[0088]
下面结合附图并通过具体实施方式来进一步说明本发明的技术方案。
[0089]
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本专利的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
[0090]
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若出现术语“上”、“下”、“左”、“右”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
[0091]
在本发明的描述中,除非另有明确的规定和限定,若出现术语“连接”等指示部件之间的连接关系,该术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个部件内部的连通或两个部件的相互作用关系。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
[0092]
本发明为解决现有算法对网络舆情倾向性预测不够准确的问题,提供如下技术方案:
[0093]
1、设计了一种融合hownet算法、multinomialnb算法、so-pmi算法的极性词典扩充算法,以扩充情感极性词典,增加模型训练样本,提高模型对网络舆情倾向性分析的准确度。
[0094]
2、定义情感极性词典的语义规则,以四元组形式表达情感极性词典中的每一个情感词,并从四元组中提取出极性词向量、修饰词向量以及位置向量作为模型训练样本,提升了样本质量,有利于进一步提升模型预测网络舆情倾向性的准确度。
[0095]
3、结合albert算法和textcnn算法训练网络舆情倾向性分析模型,克服了单独使用 textcnn算法训练模型存在的不能学习到网络舆情文本更深层次、更全面的信息的缺陷。
[0096]
4、为解决样本类型不平衡的问题,本发明提供了基于亲和度的舆情迁移算法,以情感词的亲和度作为桥梁,扩展网络舆情的语料库,降低了训练样本类型不平衡、噪声过大或者样本数量过少对模型训练效果的影响。
[0097]
具体地,如图所示,本实施例提供的基于样本扩充的网络舆情分析方法包括如下步骤:
[0098]
步骤s1,扩充情感极性词典;
[0099]
步骤s2,以四元组形式表达情感极性词典中的每个情感词,并从四元组中提取出模型训练样本,然后基于albert和textcnn算法训练形成网络舆情倾向性分析模型;
[0100]
步骤s3,将当前舆情信息作为网络舆情倾向性分析模型的输入,模型预测输出当前网络舆情的倾向性。
[0101]
在情感极性词典中,一个词语对应一个情感极性,比如词语“不满意”中的“满意”就是表达情感的极性词,“不”为对极性词“满意”的修饰词。本实施例中,我们采用中国台湾大学 (ntsusd)提出的简体中文情感词典(以下称情感极性词典)作为网络舆情倾向性分析模型训练的数据集。但由于该情感极性词典覆盖的情感词汇不够全面,缺少一些语义相似但出现频率相对较低的词语,所以需要对该情感极性词典进行扩充。
[0102]
情感极性词典扩充,即从语料库中识别出与词典中的基准词具有语义相似度的候选词以及候选词对应的情感极性词然后添加到情感极性词典中。hownet是一种利用义原分类树计算词汇间语义相似度的算法。so-pmi是一种计算词语情感极性的算法,它通过选取一些代表褒义和贬义的基准词,并计算候选词与基准词在文本中的共现(共同出现)概率,以确定候选词的情感倾向。但hownet算法和so-pmi算法本身都存在一些缺点。由于义原分类树是通过人工方式整理,因此hownet算法对某些词汇的相似度计算可能并不准确。而so-pmi算法在计算情感极性时,受语料库影响较大,如果候选词或基准词在文本中出现的频次较低,算法的性能就会下降。因此,为了解决hownet算法的相似度计算结果以及so-pmi算法
的情感极性计算结果可能并不准确的问题,本发明通过将hownet算法和so-pmi算法结合,并融入 multinomialnb算法,创新提出了一种基于hownet-multinomialnb-so-pmi的极性词典扩充算法。通过该极性词典扩充算法可以从语料库中较为准确地提取出具有情感倾向性的候选词,提高了后续应用hownet算法对所筛选的候选词与基准词的相似度计算的准确度,且有利于提升后续应用so-pmi算法对候选词情感极性计算的准确度。
[0103]
具体地,如图2和图3所示,应用基于hownet-multinomialnb-so-pmi的极性词典扩充算法扩充情感极性词典的方法步骤如下:
[0104]
步骤s11,针对当前网络热点的舆情语料库,首先利用jieba分词模型进行中文分词操作,如语料“我不满意”通过jieba分词模型可以分词为“我/不/满意”,所分得的词作为待计算情感极性的候选词。但由于分词而得的候选词数量庞大,如果不对这些候选词进行筛选而全部作为情感极性的计算对象,无疑计算量巨大,且分得的部分词如“我”并不具备情感极性计算价值,浪费计算资源,降低了计算效果;所以,我们通过步骤s12-s13来解决这个问题,
[0105]
步骤s12,计算所分得的每个候选词的情感倾向性概率值;
[0106]
步骤s13,提取出情感倾向性概率值大于预设概率阈值的候选词;
[0107]
我们通过训练多项式贝叶斯multinomialnb分类器从步骤s11中分词而得的全部候选词中筛选出具有情感倾向性的候选词。multinomialnb分类器筛选候选词的技术核心是计算候选词具有情感倾向性的概率,当计算的情感倾向性概率值高于预设概率阈值时, multinomialnb分类器将这个候选词筛选出来作为后续的情感极性计算对象。multinomialnb 分类器计算候选词的情感倾向性概率的方法通过以下公式(1)表达:
[0108][0109]
公式(1)中,p(wi|cj)表示待求解的候选词的情感倾向性概率值;
[0110]nij
表示候选词wi在情感倾向类别cj下的所有文档中出现的总次数,候选词包括情感词和非情感词;
[0111]
|v|表示情感极性词典中的总单词数;
[0112]
wi表示参与情感倾向性概率计算的第i个候选词;
[0113]cj
表示第j个情感倾向类别。
[0114]
经过多次实验结果对比,我们将multinomialnb分类器的维度设置为1500,alpha平滑参数设置为0.01。
[0115]
请继续参照图2和图3,筛选出候选词后,转入:
[0116]
步骤s14,计算步骤s13提取的候选词与情感极性词典中的同义词的语义相似度,得到相似度值sim。本发明优选利用hownet算法计算候选词与同义词的相似度,改进后的hownet 算法计算相似度值sim的过程通过以下公式(2)表达:
[0117][0118]
公式(2)中,w表示所述候选词;
[0119]
w1表示hownet义原树中的一个词语节点;
[0120]
depth(w)表示在hownet义原树中该候选词节点距离义原树根结点的深度;
[0121]
depth(w1)表示在hownet义原树中w1节点距离义原树根结点的深度;
[0122]
dist(w,w1)表示w1节点与w节点间的路径距离;
[0123]
α表示深度对相似度计算的影响参数;
[0124]
以下对应用公式(2)计算词语相似度值的方法进行举例说明:
[0125]
设当前的hownet义原树为“植物(根节点)->树(w1)->庄稼(w2)->花草(w)”,则根据公式(2)求得:
[0126][0127]
中的2.5即深度对相似度计算的影响参数α,3即候选词节点w(花草)距离义原树根结点(植物)的深度,1即w1节点(树)距离义原树根结点(植物)的深度,2 即w1节点与w节点间的路径距离dist(w,w1)。最后求得相似度sim值为0.71。
[0128]
步骤s15,判断相似度值sim是否大于或等于预设的相似度阈值(经多次实验结果比对,本实施例将该相似度阈值设置为0.6),
[0129]
若是,则赋予参与相似度计算的候选词的情感极性为与其具有最高相似度(相似度值越高代表越具相似度)的同义词的情感极性(情感极性通常包括支持性、反对性和中立性情感极性,以及每种类型的情感极性的强度),
[0130]
若否,则对参与相似度计算的候选词作情感极性计算并赋予其所计算的情感极性。本发明利用so-pmi算法对相似度低于相似度阈值的候选词作情感极性计算,计算方法如以下公式 (3)表达:
[0131][0132]
公式(3)中,so_pmi(w)表示对候选词的情感极性计算结果;
[0133]
w表示待进行情感极性计算的候选词;
[0134]ci
表示情感极性词典中的第i个基准褒义词;
[0135]di
表示情感极性词典中的第i个基准贬义词;
[0136]
n表示基准词总数;
[0137]
p(w)表示候选词w在文本中单独出现的概率;
[0138]
p(ci)表示ci在文本中单独出现的概率;
[0139]
p(di)表示di在文本中单独出现的概率;
[0140]
p(w&ci)表示候选词w与ci在文本中同时出现的概率;
[0141]
p(w&di)表示候选词w与di在文本中同时出现的概率。
[0142]
以下对应用公式(3)计算情感极性的方法进行举例说明:
[0143]
设候选词为“优雅”,基准褒义词为“美丽”,基准贬义词为“丑陋”。当前共有6个分词处理后的文本{优雅/美丽}、{优雅/美丽}、{优雅}、{美丽}、{优雅/丑陋}、{丑陋},则根据公式(3)求得:
[0144][0145]
中的即候选词(优雅)与基准褒义词(美丽)在文本中同时出现的概率,分母中的即候选词(优雅)、基准褒义词(美丽)和基准贬义词(丑陋)在文本中单独出现的概率,分子中的即候选词(优雅)与基准贬义词(丑陋)在文本中同时出现的概率。最后求得候选词的情感极性为1。
[0146]
步骤s16,将赋予情感极性后的候选词添加到情感极性词典中。
[0147]
当词汇上下文语境不同时,相同情感词的情感倾向可能也并不相同,此外情感词的情感倾向还容易受修饰词的影响。为了充分表达出情感极性词典中收录的情感词的语义,本发明定义了词典的语义规则,包括词语极性规则、极性强度规则、否定词语规则、表情加权规则、转折词规则,并以四元组形式(m,w,r,d)来表达每个词语最小的独立情感单元,m表示修饰词;w表示极性词;r表示修饰词m与极性词w之间的关系;d表示修饰词m与极性词w 之间的距离。
[0148]
本发明定义的词典语义规则具体内容如下:
[0149]
1、词语极性规则。本发明将词语极性分为3个类型,分别为 1、0、-1,其中 1代表支持性词汇,即对当前网络舆情表示赞同、支持的词汇;-1代表反对性词汇,即对当前网络舆情表示批判、反对的词汇;0代表中立词汇,即对当前网络舆情不包含感情色彩的词汇。
[0150]
2、极性强度规则。本发明将词语的极性强度分为5个等级,权值分别为0.5、1、2、3、 4。极性强度越大代表相应程度词的情感极性越强烈,比如4代表带有煽动性的程度词。
[0151]
3、否定词语规则。否定词语规则包含2类,分别为否定词和双重否定词,权值分别为-1、 1。一些典型的否定词比如为“不”、“不是”、“不会”。双重否定词包括“不是不”、“不可能不”等。
[0152]
4、表情加权规则。经过研究发现,在网络中有很多表情都包含有强烈的情感色彩,因此表情符号对于情感倾向性的判断也很重要,但由于表情符号不同于其他情感词,不能与程度副词搭配使用,因此,将表情符号的词语极性赋予权重p,p值取极性强度等级的中位数,即 2。
[0153]
5、转折词规则。由于中文表达经常含有转折词语,且这样的表达常常强调转折后面的词语情感,因此在情感倾向分析中,对于转折词后的极性词语,同样设置极性强度等级的中位数,即2。
[0154]
对四元组表达形式的举例请见下表1:
[0155]
[0156]
表1
[0157]
表1中的“n”表示否定修饰词,即修饰词与极性词的关系为否定,如“不满意”中的“不”为修饰词,“满意”为极性词,四元组(不,满意,n,-1)中的“n”即表示修饰词“不”和极性词“满意”间的关系为否定,这里的四元组表达形式中的
“‑
1”表示修饰词在极性词的左侧第一个位置。(不是,满意,n,-2)中的
“‑
2”则表示修饰词在极性词的左侧第二个位置。(很,满意,v,-1)中的“v”表示副词修饰词,表示修饰词“很”与极性词“满意”间的关系为副词。
[0158]
四元组表达了词典中词语更多的情感特征信息,同时减少了冗余信息。以四元组代替传统的词向量作为模型训练样本,由于表达了更多的词语情感特征,提升了样本情感数据的丰富程度,有利于提升模型训练效果,提高模型预测网络舆情情感倾向的准确度。另外由于四元组减少了冗余信息,有利于提升模型的训练速度。
[0159]
本发明基于albert和textcnn算法训练网络舆情倾向性分析模型,采用的模型训练网络结构请参照图5。本发明训练网络舆情倾向性分析模型的方法步骤如图4所示,包括:
[0160]
步骤s21,从表征情感词的每个四元组(m,w,r,d)中提取出极性词向量、修饰词向量以及表示修饰词与极性词间距离的位置向量;
[0161]
步骤s22,将步骤s21提取的关联每条情感词的极性词向量、修饰词向量和位置向量输入到图5所示的albert模型中。在albert模型中,向量会经过由transformer block模块组成的中间层。其中,transformer block模块的层数为12,transformer block模块是一个encoder-decoder编解码结构,由6个编码器和6个解码器堆叠形成。
[0162]
在编码器和解码器模块中,每个输入向量都将进入到自注意力机制模型和多头注意力机制模型中,以此来得到每个向量的全局信息。其中注意力机制模型的作用是为了得出所关注部分与上下文之间的相似度信息。
[0163]
然后,将每个情感词的极性词向量、修饰词向量和位置向量的输出向量进行结合,组合一个情感词列向量。并将当前文本的所有情感词列向量组合为文本向量矩阵t,该矩阵融合了全文的语义信息。然后将文本向量矩阵t输入到textcnn模型中。经过卷积核大小为4的卷积层的卷积操作提取出文本向量矩阵t的卷积特征。随后进入池化层,池化操作为最大池化,具体过程为在feature map求一个最大值,然后把得到的值进行concate连接,输出特征向量。最后,将该特征向量输入到全连接层和softmax层作情感倾向分类任务,同时添加 dropout正则化层,使用0.5的概率随机屏蔽训练数据以防止过拟合。同时textcnn模型使用adam算法进行参数迭代更新,其中学习率为5e-4,训练轮次为20。
[0164]
为了解决因样本类型不平衡导致训练而得的模型预测网络舆情情感倾向准确度不高的问题,我们设计了基于亲和度的舆情迁移算法以扩充语料库。具体地,如图6所示,基于亲和度的舆情迁移算法扩展网络舆情语料库的方法包括:
[0165]
步骤s111,利用wmd算法从已有的网络舆情样本库中初步筛选出与当前网络舆情领域相似的数据样本。wmd(word mover’s distance)算法通过计算两个文本间的距离,进而衡量两个文本的相似度。
[0166]
步骤s112,计算所筛选的数据样本与当前网络舆情样本中的情感词的领域亲和度,领域亲和度计算方法具体通过以下公式(4)表达:
[0167][0168]
公式(4)中,s
ij
表示待求解的文本ti与文本tj间情感词的领域相似度;
[0169]hij
表示同时出现在文本ti与所述文本tj中的情感词的集合;
[0170]
k表示集合h
ij
中的第k个情感词;
[0171]
nk表示集合h
ij
中情感词的数量;
[0172]wki
表示集合h
ij
中的第k个情感词与文本ti中的第i个情感词的关联度;
[0173]wkj
表示集合h
ij
中的第k个情感词与文本tj中的第j个情感词的关联度;
[0174]wki
通过以下公式(5)计算而得:
[0175][0176]
公式(5)中,f
ik
表示同时出现在ti、tj中的情感词(共现情感词)的频率;
[0177]fi
表示ti中情感词出现的频率;
[0178]fk
表示情感词k在ti或tj中出现的频率;
[0179]dik
表示两个情感词在同一文本中的平均词向量距离;
[0180]wkj
通过以下公式(6)计算而得:
[0181][0182]
公式(6)中,f
jk
表示同时出现在ti、tj中的情感词(共现情感词)的频率;
[0183]fj
表示tj中情感词出现的频率;
[0184]fk
表示情感词k在ti或tj中出现的频率;
[0185]djk
表示两个情感词在同一文本中的平均词向量距离;
[0186]
以下对应用公式(4)-(6)计算情感词领域相似度的方法进行举例说明:
[0187]
假设文本ti为:“民众表示赞同,支持这个提案”;文本tj为:“我支持,应该加快推进”。经过分词及去除停用词(这里两个文本中的停用词为“,”)后,得到ti为:“民众/赞同/支持 /提案”,tj为:“支持/加快/推进”,则ti中的情感词为{赞同,支持},tj中的情感词为{支持,推进},hij为{支持},nk=1。
[0188]
根据公式(5)求得:
[0189][0190]
中的即ti和tj中的共性情感词“支持”出现在ti、tj中的频率(共现情感词出现次数与ti、tj文本中的情感词数量之比);即共性情感词“支持”在ti出现的频率(共现情感词与ti文本中的情感词数量之比);即ti中情感词“赞同”在ti出现的频率(情感词“赞
同”与 ti文本中的情感词数量之比);1即两个情感词在同一文本中的平均词向量距离。ti中的情感词“赞同”在情感词“支持”左侧的第一个位置,则对ti中“赞同”与“支持”的距离用数值“1”表示。
[0191]
同样的,根据公式(6)求得:
[0192][0193]
中的“2”即表示tj中的情感词“支持”在情感词“推进”左侧的第二个位置。
[0194]
所以通过公式(4)计算得到ti和tj中的情感词的相似度为
[0195][0196]
综上,本发明以情感极性词典中的数据为网络舆情倾向性分析模型的训练样本,通过扩充情感极性词典,增加了模型训练样本的数据量,有利于提升模型对网络舆情倾向性的预测准确度。另外,通过结合albert算法和textcnn算法训练网络舆情倾向性分析模型,解决了单独使用textcnn算法训练模型存在的不能学习到网络舆情文本更深层次、更全面的信息的缺陷,提升模型了对网络舆情倾向性的预测准确度。此外,基于亲和度的舆情迁移算法扩充网络舆情的语料库,根本性解决了因不同类型的语料库数量不平衡,情感极性词典难以扩充,模型训练因样本量过少或噪声太大对训练效果的影响。
[0197]
需要声明的是,上述具体实施方式仅仅为本发明的较佳实施例及所运用技术原理。本领域技术人员应该明白,还可以对本发明做各种修改、等同替换、变化等等。但是,这些变换只要未背离本发明的精神,都应在本发明的保护范围之内。另外,本技术说明书和权利要求书所使用的一些术语并不是限制,仅仅是为了便于描述。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献