一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于文本和情感极性的评论有用性预测方法、设备及介质与流程

2022-04-02 05:52:29 来源:中国专利 TAG:


1.本发明涉及自然语言处理技术领域,具体而言,涉及基于文本和情感极性的评论有用性预测方法、设备及介质。


背景技术:

2.网上购物时用户无法直接接触到商品,只能通过图片或商品介绍来了解商品。但这些信息是有限的,消费者在做出购买决定之前,难以从多个角度了解商品;因此商品的评论成为用户了解商品的一个最为重要的渠道。毫无疑问,评论是电子商务网站中宝贵的财富,其中不仅包含了用户对商品特征的详细描述,还囊括了商品或服务的改进意见。
3.然而,随着电商网站商品和评论的增加,消费者需要花费大量精力去区分评论的质量,这显然是一项耗时且费力的工作,同时大大影响了用户体验。另一方面,企业也希望从评论中获得用户有价值的反馈信息,用于改进商品或服务,提升竞争力在未来的竞争中获得成功,这也是电子商务客户服务的一项关键工作。高质量的评论是反馈信息的重要来源,然而由于评论数量大,质量良莠不齐,这些问题也大大影响了企业从评论中获取信息的效率和质量,由此给电子商务客户服务带来了诸多困难。
4.因此,能够自动预测评论的有用性将会是一件非常有意义的工作。目前的研究主要是从评论的内容入手,现有的研究团队认为评论内容丰富则将会是比较有用的。但通过大量阅读评论发现,大部分有价值的评论的情感极性是极度正面或者负面的。换句话说,当用户认为一个商品比较好或比较差时,他们更有可能写出有价值的评论。因此,本技术从这个角度入手,将评论的内容和评论的情感极性结合起来用以预测评论的有用性。


技术实现要素:

5.本发明的目的在于提供基于文本和情感极性的评论有用性预测方法、设备及介质,其通过将评论内容与评论的情感极性相结合,并通过多任务学习的方式进行模型训练,高效的获取进行了评论的有用性预测;同时通过对评论表示向量的分类,进一步提高了评论有用性预测的效率。
6.本发明的实施例通过以下技术方案实现:第一方面,提供基于文本和情感极性的评论有用性预测方法,包括如下步骤,获取评论数据,并对所述评论数据进行编码处理,所述编码处理包括基于词级注意力机制对评论词进行编码获取评论词所在评论句子的表示向量,以及基于句子级注意力机制对评论句子进行编码获取评论的表示向量;将评论的表示向量送入预测模型的两个全连接层,分别获取评论的有用性预测概率和评论情感极性预测概率,并基于交叉熵损失函数构建评论有用性概率预测的第一损失函数和评论情感极性概率预测的第二损失函数,再对所述第一损失函数与第二损失函数进行优化。
7.进一步的,所述基于词级注意力机制对评论词进行编码获取评论词所在评论句子
的表示向量,包括:获取评论句子中词的序列,其中l∈[1,l],l表示评论中有l条评论句子,t表示评论句子l中词的数量,通过词嵌入矩阵得到词的表示向量,其中m为词典中词的综述,为表示词向量维度的参数,,,再将评论句子l中的词向量序列送入第一双向gru网络中,其中第一时间步的计算如下式(1)、(2)所示,(1)(2)通过式(1)、(2)得到两个隐状态,,再拼接两个隐状态得到第一双向gru网络的第一时间步的输出,其中,第一时间步表示评论词;将送入第一多层感知机得到向量,如下式(3)所示,(3)其中,为可学习的参数,为待学习的随机初始化的向量参数;再计算向量的转置向量与向量的内积,再通过softmax函数得到每个第一时间步基于词级注意力机制输出的权重,如下式(4)所示,(4)其中,为待学习的随机初始化的向量参数;最后通过加权求和每个第一时间步输出得到句子l的表示向量,如下式(5)所示,(5)。
[0008]
进一步的,所述基于句子级注意力机制对评论句子进行编码获取评论的表示向量,包括:获取评论中评论句子的表示向量集合,将向量集合输入第二双向gru网络中,其中第二时间步的计算如下式(6)、(7)所示,(6)(7)通过式(6)、(7)得到两个隐状态,,再拼接两个隐状态得到第二双向gru网络的第二时间步的输出,其中,第二时间步表示评论句子;将送入第一多层感知机得到向量,如下式(8)所示,(8)其中,为可学习的参数,为待学习的随机初始化的向量参数;再计算向量的转置向量与向量的内积,再通过softmax函数得到每个第二
时间步基于句子级注意力机制输出的权重,如下式(9)所示,(9)其中,为待学习的随机初始化的向量参数;最后通过加权求和每个第二时间步输出得到评论的表示向量,如下式(10)所示,(10)。
[0009]
进一步的,所述评论的有用性预测概率的获取如下式(11)所示,(11)其中,为评论的有用性预测概率,为可学习的参数。
[0010]
进一步的,所述评论情感极性预测概率采用softmax函数获取概率分布,如下式(12)所示,(12)其中,为评论情感极性预测概率,为可学习的参数。
[0011]
进一步的,构建评论有用性概率预测的第一损失函数为,采用二元交叉熵损失函数构建第一损失函数,如下式(13)所示,(13)其中,c为训练用评论数据集, c∈(n1,n2,

,nk),k∈[1,k],为表示评论有用性的真实标签;构建评论情感极性概率预测的第二损失函数为,采用多元交叉熵损失函数构建第二损失函数,如下式(14)所示,(14)其中,为表示评论情感极性的真实标签;所述对所述第一损失函数与第二损失函数进行优化如下式(15)所示,(15)其中,为所述预测模型的损失函数,θ为可学习的参数。
[0012]
进一步的,在将评论的表示向量送入预测模型之前还包括,将所有评论的表示向量基于相似度进行分类,在被分在同一类的评论中选取一条评论,用被选择评论的表示向量代表其所在的评论分类进行评论的有用性预测以及评论情感极性预测。
[0013]
进一步的,所述将所有评论的表示向量基于相似度进行分类包括,预设相似度阈值区间,当两条评论的向量相似度位于所述相似度阈值区间时,两条评论判定为同一分类。
[0014]
第二方面,提供一种电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的基于文本和情感极性的评论有用性预测方法。
[0015]
第三方面,一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现上述的基于文本和情感极性的评论有用性预测方法。
[0016]
本发明实施例的技术方案至少具有如下优点和有益效果:本技术通过将评论内容与评论的情感极性相结合,并通过多任务学习的方式进行模型训练,高效的获取进行了评论的有用性预测;同时通过对评论表示向量的分类,进一步提高了评论有用性预测的效率。
附图说明
[0017]
图1为本发明实施例1提供方法流程示意图;图2为本发明实施例2提供方法流程示意图。
具体实施方式
[0018]
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
[0019]
网络购物的评论是购买者了解商品的有用信息之一,也是商家了解用户反馈的重要渠道,但是目前存在大量的刷评论以及无用评论,获取有用评论愈发的困难,基于此,本技术期望通过评论文本与评论的情感极性相结合,并采用多任务学习的方式得到评论有用性预测模型,进而能够在大量评论中快速高效的筛选出有用的评论。
[0020]
实施例1本实施例提供基于文本和情感极性的评论有用性预测方法,包括如下步骤,获取评论数据,并对所述评论数据进行编码处理,所述编码处理包括基于词级注意力机制对评论词进行编码获取评论词所在评论句子的表示向量;其中,所述基于词级注意力机制对评论词进行编码获取评论词所在评论句子的表示向量,包括:获取评论句子中词的序列,其中l∈[1,l],l表示评论中有l条评论句子,t表示评论句子l中词的数量,通过词嵌入矩阵得到词的表示向量,其中其中m为词典中词的综述,为表示词向量维度的参数,,,再将评论句子l中的词向量序列送入第一双向gru网络中,其中第一时间步的计算如下式(1)、(2)所示,(1)(2)通过式(1)、(2)得到两个隐状态,,再拼接两个隐状态得到第一双向gru网络的第一时间步的输出,其中,第一时间步表示评论词;将送入第一多层感知机得到向量,如下式(3)所示,(3)
其中,为可学习的参数,为待学习的随机初始化的向量参数;再计算向量的转置向量与向量的内积,再通过softmax函数得到每个第一时间步基于词级注意力机制输出的权重,如下式(4)所示,(4)其中,为待学习的随机初始化的向量参数;最后通过加权求和每个第一时间步输出得到句子l的表示向量,如下式(5)所示,(5)。
[0021]
所述编码处理还包括基于句子级注意力机制对评论句子进行编码获取评论的表示向量,具体包括:获取评论中评论句子的表示向量集合,将向量集合输入第二双向gru网络中,其中第二时间步的计算如下式(6)、(7)所示,(6)(7)通过式(6)、(7)得到两个隐状态,,再拼接两个隐状态得到第二双向gru网络的第二时间步的输出,其中,第二时间步表示评论句子;将送入第一多层感知机得到向量,如下式(8)所示,(8)其中,为可学习的参数,为待学习的随机初始化的向量参数;再计算向量的转置向量与向量的内积,再通过softmax函数得到每个第二时间步基于句子级注意力机制输出的权重,如下式(9)所示,(9)其中,为待学习的随机初始化的向量参数;最后通过加权求和每个第二时间步输出得到评论的表示向量,如下式(10)所示,(10)。
[0022]
获取所有评论的表示向量之后,将评论的表示向量送入预测模型的两个全连接层,分别获取评论的有用性预测概率和评论情感极性预测概率;其中,所述评论的有用性预测概率的获取如下式(11)所示,(11)其中,为评论的有用性预测概率,为可学习的参数。
[0023]
由于评论的情感极性对评论有用性预测具有帮助,即评论越是正面或负面,其有
用的概率越大,因此我们希望评论的表示向量中能包括评论情感极性的信息,因此我们将评论的表示向量送入预测模型的一全连接层计算情感极性预测概率,具体如下。
[0024]
所述评论情感极性预测概率采用softmax函数获取概率分布,如下式(12)所示,(12)其中,为评论情感极性预测概率,为可学习的参数。
[0025]
再基于交叉熵损失函数构建评论有用性概率预测的第一损失函数和评论情感极性概率预测的第二损失函数;其中,构建评论有用性概率预测的第一损失函数具体为,采用二元交叉熵损失函数构建第一损失函数,如下式(13)所示,(13)其中,c为训练用评论数据集, c∈(n1,n2,

,nk),k∈[1,k],为表示评论有用性的真实标签;构建评论情感极性概率预测的第二损失函数具体为,采用多元交叉熵损失函数构建第二损失函数,如下式(14)所示,(14)其中,为表示评论情感极性的真实标签;最后再对所述第一损失函数与第二损失函数进行优化如下式(15)所示,(15)其中,为所述预测模型的损失函数,θ为可学习的参数。
[0026]
实施例2在本实施例在实施例1的基础上,考虑了如何增加预测效率的问题,由于很多低质量评论是通过复制粘贴评论的,因此存在大量的评论相同或相似度极高,因此我们可以提前将评论的表示向量进行分类,进而可以将相同或相似度极高的评论归在一个分类中,预测时仅需预测一个分类中的某一个评论即可,即用分类中的一个评论的有用性预测概率来代表该分类的有用性预测概率。
[0027]
本实施例的具体实施方式如下,在将评论的表示向量送入预测模型之前,将所有评论的表示向量基于相似度进行分类,在被分在同一类的评论中选取一条评论,用被选择评论的表示向量代表其所在的评论分类进行评论的有用性预测以及评论情感极性预测。
[0028]
可以知晓的是,上述分类可以采用的方法包括:余弦相似度、欧式距离、汉明距离等;将所有的评论的表示向量通过上述方法之一进行分类。
[0029]
另外需要说明的是,当多个评论的向量相同时,即为相同评论,相同评论必定被分在同一分类中,但是对于相似的评论,其相似度是作为其分类的依据,由于本技术的分类有别于对异常的筛选分类,因此在本技术中,会预设相似度阈值区间,当两条评论的向量相似度位于所述相似度阈值区间时,两条评论判定为同一分类。
[0030]
如采用余弦相似度进行分类时,当两评论的表示向量的余弦取值在[0.95~1]中时,则被判定为同一分类,其中[0.95~1]为相似度阈值区间;可以知晓的是,相似度阈值区间可根据实际情况进行预设。
[0031]
当采用欧式距离时,当两评论的表示向量的距离在[0~0.05]中时,则被判定为同一分类,其中[0~0.05]为相似度阈值区间;同样,此时相似度阈值区间可根据实际情况进行预设。
[0032]
实施例3本实施例提供一种电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行实施例1或实施例2所述的基于文本和情感极性的评论有用性预测方法。
[0033]
实施例4本实施例提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现实施例1或实施例2所述的基于文本和情感极性的评论有用性预测方法。
[0034]
本技术通过将评论内容与评论的情感极性相结合,并通过多任务学习的方式进行模型训练,高效的获取进行了评论的有用性预测;同时通过对评论表示向量的分类,进一步提高了评论有用性预测的效率。
[0035]
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献