一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于主题集成聚类的产品典型性特质挖掘方法及系统

2022-07-27 22:10:05 来源:中国专利 TAG:


1.本发明属于自然语言处理中的产品评论分析与挖掘技术领域,具体涉及一种基于主题集成聚类的产品典型性特质挖掘方法及系统。


背景技术:

2.在电子商务和网络购物应用快速发展的今天,人们总是习惯性的浏览商品描述与用户评论,这使得用户评论所包含的众多意见乃至购物导向,将直接影响着人们的购买行为。随着越来越多的用户乐于在互联网上分享自己的观点或体验,产品评论信息呈现爆炸式增长,也使得潜在用户及商家难以阅读所有评论,难以直观地获取评论所蕴含的内容,更难以了解其他用户对某一产品各方面特质所进行的情感描述,而这些问题单纯依靠人力已无法真正有效解决。因此,迫切需要一种无监督的产品评论挖掘方法来帮助用户快速整理海量评论,获取评论中某个(类)产品的典型性特质。
3.目前短评文本的无监督挖掘任务主要包含两个关键问题:
4.一是评论文本的聚类分析;
5.二是评论文本的特征抽取。
6.以隐含狄利克雷分布(latent dirichlet allocation,lda)为代表的主题模型具有较好的无监督聚类能力,其通过词在文档集中的共现性,实现了词间隐含语义关系的描述。利用这一特点对用户评论内容进行事先聚类,能够克服在产品典型性特质挖掘过程中需要海量训练语料的缺陷,将评论信息的使用大大“轻量化”,使的特征抽取的整个过程能在较小规模的语料库上完成。但在线产品评论数据与普通文本数据又存在着诸多差异:高噪声、特征稀疏、主题分散等,这些特点使得一些适合于传统文档数据的主题模型,应用于在线产品评论数据的特征提取时往往效果不佳。
7.存在的主要问题为:
8.1)主题个数难以准确判断;
9.2)单一的主题模型无法在全部数据集上获得较好的主题聚类效果;
10.3)一些通用观点词(“好”、“不错”、“不如
……”
等)的频繁出现,导致主题模型将特征聚类到错误的主题类别中;
11.4)难以解释每个主题所代表的产品及特征。
12.近年来,集成学习技术在机器学习领域获得了极大的关注,其通过组合多个精确度一般的机器学习模型,利用单个模型之间的差异性,获得比单个模型更好的学习结果。在文本分类、数据挖掘、模式识别等众多领域的最新研究成果表明,大多数通过集成学习得到的模型要明显优于单个模型。因此,对于同一文档集数据,当设置不同的主题个数、使用不同的参数,乃至引入不同的词性,甚至每次运行之间,均会生成不同的主题模型。


技术实现要素:

13.本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于主题
集成聚类的产品典型性特质挖掘方法及系统,将多个主题模型引入集成学习中,以解决对短评文本进行产品典型性特质挖掘时所存在的语义表征丢失、聚类效率低以及可解释能力不足的问题。
14.本发明采用以下技术方案:
15.一种基于主题集成聚类的产品典型性特质挖掘方法,包括以下步骤:
16.s1、对评论文本数据进行预处理,保留分词结果中的词性信息,再利用文本不同的词性筛选,构建融入词性信息的lda主题模型;
17.s2、利用步骤s1构建的多个融入词性信息的lda主题模型,将lda主题模型获取的聚类结果作为原始评论文本数据的新增属性;通过最大互信息系数方法计算原始评论文本数据在基聚类空间内的相关性,以此构建最大相关系数矩阵;采用对称非负矩阵分解方法获取最大相关系数矩阵的相应划分,完成原始评论文本数据主题聚类集成;
18.s3、利用步骤s2得到的原始评论文本数据主题聚类集成构建任意文本中某一个词在特定窗口下的词性属性矩阵,并在词性属性矩阵中引入文本的主题概率,利用集成学习方法,对同一个词的多个词性属性矩阵进行集成,通过预置的位置属性向量与词性属性矩阵的乘积,获取词的词性标记序列向量,采用 mean-shift算法,利用词对相似度排序方法,获取产品短评文本的典型性特质,实现对产品的特性描述。
19.具体的,步骤s1具体为:
20.s101、对给定的某产品原始评论语料库a={a1,a2,...,am}进行预处理,得到分句集合d={d1,d2,...,dn},标识每条分句di,i∈{1,2,...,n}为一个独立的新文档,集合 d定义为一个新语料库,包含|we|个词,e为单词性或词性组合,n篇文档,每篇文档di中含有个词,令语料库d中的主题数量为k;
21.s102、利用gibbs采样算法对词性lda模型进行主题提取,每轮只遍历步骤s101所获取语料库d中的文档一次,在经过对所有文档中词的多轮迭代gibbs 采样后,得到文档
‑‑
主题分布θ,以及主题
‑‑
词项分布获取一组基聚类结果。
22.进一步的,lda主题模型生成文档的过程如下:
23.为每个主题k选择一个分布为每个文档di选择一个分布对于文档di中的每个词选择主题选择词表示文档di中第j个词的主题分配情况,α和β为狄利克雷参数。
24.具体的,步骤s2具体为:
25.s201、在步骤s101获取的语料库d上,重复运算s次词性lda模型,获得语料库d的聚类结果q;
26.s202、根据mic方法,计算步骤s201得到的聚类结果q的相似性矩阵x;
27.s203、使用synmf对步骤s202得到的相似性矩阵x进行聚类,得到主题聚类集成结果。
28.进一步的,步骤s202构建相似性矩阵x具体为:
29.s2021、通过步骤s201获取n*s的基聚类结果矩阵q,其中,n为语料库 d中的文档数,s为不同聚类算法计算的结果数;
30.s2022、对步骤s2021基聚类结果矩阵q中的每个行向量,计算向量之间的互信息值i(ti;tj);再次,归一化i(ti;tj)值,将i(ti;tj)值转化到(0,1)区间之内;
31.s2023、重复步骤s2021和步骤s2022,得到所有向量间的归一化互信息值,构建n*n维的相似性矩阵x。
32.进一步的,步骤s203对相似性矩阵x进行聚类具体为:
33.构造相似性矩阵x的synmf分解模型;利用拉格朗日乘子方法及kkt条件求解synmf分解模型中的h
ij
;对synmf分解模型中的过程矩阵h进行二值化处理;获得语料库d的集成聚类标签h*。
34.具体的,步骤s3具体为:
35.s301、在步骤s2获得的任意聚类评论集中,构造每个词wi的词性属性矩阵
36.s302、在步骤s301构造的每个词wi的词性属性矩阵中引入所属文本的主题概率信息,并对同一个词wi的多个词性属性矩阵进行集成,利用词性位置权重信息,构建词性标记序列向量pos(wi);
37.s303、利用实词两两组合的策略,构建步骤s301中聚类评论集的无序词对;
38.s304、通过步骤s302构建的词性标记序列向量pos(wi),计算步骤s303所获得词对中对应词的词性标记序列向量差,构建无序词对的向量集合p
t

39.s305、在步骤s304获得集合p
t
未被标记的数据点中任选一个点p作为中心点;
40.s306、将距离中心点p,半径为h范围内的所有点记为集合g,指定集合g 属于簇r,把簇r对集合g内点的访问频率加1;
41.s307、以p为中心点,计算p点到步骤s306的集合g中每个点的向量,并将向量相加,得到的结果为mean-shift向量;
42.s308、中心点p沿mean-shift方向移动,移动距离为||mean-shift||;重复步骤s306~s308,直到||mean-shift||《t,t为阈值,此时中心点p迭代收敛,将迭代过程中遇到的所有数据点都归类为簇r;
43.s309、当中心点p收敛时,如果簇r的中心点与其他已经存在的簇中心点距离小于阈值,将这两个簇合并,否则,把簇r作为新的聚类,增加1类;重复步骤s305~s309直到所有的数据点都已被标记访问;
44.s3010、根据每个类,对每个点的访问频率,取访问频率最大的类作为当前点集的所属类;
45.s3011、对每个簇中的词对进行自身相似度排序,各自选取绝对值最高的l 个词对,构建产品典型性特质的可解释性描述集y。
46.进一步的,步骤s301中,词性属性矩阵的构造方法为:
47.选取每个词前后各2个相邻词组成其词性序列,考虑相邻的实词形式,词性标注按顺序依次为n,v,a,m,q,r,b;词性属性矩阵v的元素v
i,j
为:
[0048][0049]
其中,1≤i≤5,1≤j≤7。
[0050]
进一步的,步骤s302中,将词性位置权重设置为词性标记序列向量为词性位置权重z与词性属性矩阵v的乘积,即pos=v*z
[0051]
第二方面,本发明实施例提供了基于主题集成聚类的产品典型性特质挖掘系统,包括:
[0052]
lda模块,对评论文本数据进行预处理,构建融入词性信息的lda主题模型;
[0053]
聚类模块,利用lda模块构建的多个融入词性信息的lda主题模型,将 lda主题模型获取的聚类结果作为原始评论文本数据的新增属性;通过最大互信息系数方法计算原始评论文本数据在基聚类空间内的相关性,以此构建最大相关系数矩阵;采用对称非负矩阵分解方法获取最大相关系数矩阵的相应划分,完成原始评论文本数据主题聚类集成;
[0054]
挖掘模块,利用聚类模块得到的原始评论文本数据主题聚类集成构建任意文本中某一个词在特定窗口下的词性属性矩阵,并在词性属性矩阵中引入文本的主题概率,利用集成学习方法对同一个词的多个词性属性矩阵进行集成,通过预置的位置属性向量与词性属性矩阵的乘积,获取词的词性标记序列向量,利用词对相似度排序方法,获取产品短评文本的典型性特质,实现对产品的特性描述。
[0055]
与现有技术相比,本发明至少具有以下有益效果:
[0056]
本发明一种基于主题集成聚类的产品典型性特质挖掘方法,将集成学习技术应用于lda主题模型中,借助词性多样性的筛选,在保证lda主题模型局部差异性前提下,获得了较高的整体集成性能;同时,提出了基于词性标记序列向量的词对表示方法,从词性角度赋予了词对向量新的可解释性;并且利用 mean-shift算法发现词对的团聚类特征,并使用词对自身语义相似性的排序策略,获取产品典型性特质的可解释性集合;该发明能够使短评文本分析效率和准确率得到一定的提高、有效且实用;另外,产品典型性特质识别及可解释性集合的获取对于评论意见的细粒度挖掘至关重要,并能对产品销售方的销售决策及经营改善产生巨大影响。
[0057]
进一步的,步骤s1通过保留分词结果中的词性信息,提升了词的语义表述性,以此增强了多义词在不同词性下的区分度;并在lda主题模型上,利用不同词性的特征筛选,精简原始数据,降低文本空间的维数,最终提升主题聚类性能。
[0058]
进一步的,lda主题模型具有较好的无监督聚类能力,其通过词在文档集中的共现性,实现了词间隐含语义关系的描述。利用这一特点对用户评论内容进行事先聚类,能够克服在产品典型性特质挖掘过程中需要海量训练语料的缺陷,将评论信息的使用大大“轻量化”,使的特征抽取的整个过程能在较小规模的语料库上完成。
[0059]
进一步的,步骤s2采用对称非负矩阵分解方法获取最大相关系数矩阵的相应划分,实现主题聚类集成,解决了单一主题模型难以精准判定主题个数,更难以有效获取主题所代表的产品特征的问题。
[0060]
进一步的,步骤s202构建相似性矩阵x,不仅能够有效处理离散型数据,还能够通过对连续型数据进行离散处理,真正实现对混合类型数据的处理;通过构建互信息特征矩阵来寻找变量之间的最大信息系数,可以更精确地表示出数据属性间关联性的大小。
[0061]
进一步的,步骤s203对相似性矩阵x进行聚类,具有较好的鲁棒性,通过采用对称非负矩阵分解方法获取最大相关系数矩阵的相应划分,解决了单一主题模型难以精准判定
主题个数,更难以有效获取主题所代表的产品特征的问题。
[0062]
进一步的,步骤s3利用词的词性标注向量差,构建局部词对(word-pair) 向量矩阵,利用mean-shift算法发现词对的团聚类特征,并通过全局范围的词对语义相似性排序,获取产品典型性特质的解释集合。解决了由于产品评论篇幅短小、数据稀疏,句法难以分析所出现的产品典型性特质识别难、可解释性集合获取难等方面的问题。
[0063]
进一步的,步骤s301中构造词性属性矩阵从词性角度赋予了词对向量新的可解释,通过以词性信息替代更为复杂的句法分析,以此提高产品典型性特质挖掘方法性能。
[0064]
进一步的,在步骤s302中,将词性标记序列向量表示为词性位置权重z与词性属性矩阵v的乘积,即pos=v*z。其目的是在特定大小的滑动窗口下,从词性角度赋予词向量新的可解释性,使得复杂的句法分析,能够以词性信息替代,以此提高产品典型性特质挖掘方法性能。
[0065]
综上所述,本发明通过在各类已有聚类集成算法和模型研究的基础上,尝试利用非负矩阵分解算法对单一的主题模型进行相应聚类集成,以此改善模型的泛化性能,提高聚类结果的准确性、稳定性和鲁棒性,实现数据集的并行处理。
[0066]
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
[0067]
图1为本发明基于主题集成聚类的产品典型性特质挖掘方法整体流程图;
[0068]
图2为融入词性信息的lda主题模型构建过程流程图;
[0069]
图3为基于非负矩阵分解的主题集成聚类算法过程流程图;
[0070]
图4为基于mean-shift算法的产品典型性特质解释性方法过程流程图;
[0071]
图5为本发明一实施例提供的计算机设备的示意图。
具体实施方式
[0072]
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0073]
在本发明的描述中,需要理解的是,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
[0074]
还应当理解,在本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
[0075]
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/ 或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
[0076]
应当理解,尽管在本发明实施例中可能采用术语第一、第二、第三等来描述预设范
围等,但这些预设范围不应限于这些术语。这些术语仅用来将预设范围彼此区分开。例如,在不脱离本发明实施例范围的情况下,第一预设范围也可以被称为第二预设范围,类似地,第二预设范围也可以被称为第一预设范围。
[0077]
取决于语境,如在此所使用的词语“如果”可以被解释成为“在
……
时”或“当
……
时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
[0078]
在附图中示出了根据本发明公开实施例的各种结构示意图。这些图并非是按比例绘制的,其中为了清楚表达的目的,放大了某些细节,并且可能省略了某些细节。图中所示出的各种区域、层的形状及它们之间的相对大小、位置关系仅是示例性的,实际中可能由于制造公差或技术限制而有所偏差,并且本领域技术人员根据实际所需可以另外设计具有不同形状、大小、相对位置的区域 /层。
[0079]
本发明提供了一种基于主题集成聚类的产品典型性特质挖掘方法,通过在预处理阶段,保留分词结果中的词性信息,并利用文本不同的词性筛选,构造融入词性信息的lda主题模型;将多个lda主题模型获取的聚类结果,看成为原始数据的新增属性,以此定义原始数据在基聚类空间上的表达;通过最大互信息系数方法(maximal information coefficient,mic)计算原始数据在基聚类空间内的相关性,以此构建最大相关系数矩阵;采用对称非负矩阵分解方法获取最大相关系数矩阵的相应划分,实现主题聚类集成;构建任意文本中某一个词在特定窗口下的词性属性矩阵,并在该词的词性属性矩阵中引入文本的主题概率,以此区分不同文本对目标词的影响;利用集成学习方法,对同一个词的多个词性属性矩阵进行集成,通过预置的位置属性向量与词性属性矩阵的乘积,获取词的词性标记序列向量;采用mean-shift算法,利用词对相似度排序方法,获取产品短评文本的典型性特质。本发明将多个主题模型引入集成学习中,解决了对短评文本进行产品典型性特质挖掘时所存在的语义表征丢失、聚类效率低以及可解释能力不足等问题。
[0080]
请参阅图1,本发明一种基于主题集成聚类的产品典型性特质挖掘方法,包括以下步骤:
[0081]
s1、通过在文本预处理阶段,保留分词结果中的词性信息,再利用文本不同的词性筛选,构造融入词性信息的lda主题模型;
[0082]
在文本预处理阶段采用中国科学院计算技术研究所的ictclas分词系统,对短评语料信息进行分词处理,并使用ictclas提供的词性标注功能来保留词性信息。经观察发现,评价对象所用特征词一般使用意义比较具体,且在文本中能够表示实在意义的实词形式(名词、动词、形容词、数词、量词、代词、区别词)。因此,本发明以词性信息替代更为复杂的句法分析,通过将不同词性筛选或词性组合,应用于词性lda主题模型中,在不严重损害分类结果与性能的前提下,降低了特征空间维度,并获取到了多个有效的聚类结果。本发明采用自然标注信息(标点符号)进行分句的切分,并假设以此能够无监督的获得具有单一主题特质的单句。
[0083]
请参阅图2,词性lda主题模型构建方法为:
[0084]
s101、对给定的某产品原始评论语料库a={a1,a2,...,am}进行预处理,得到分句集合d={d1,d2,...,dn},标识每条分句di,i∈{1,2,...,n}为一个独立的新文档,那么集合
d做为一个新语料库,包含|we|个词(e为单词性或词性组合),n篇文档,每篇文档di中含有个词,则令语料库d中的主题数量为k。那么lda生成文档的过程如下所示:
[0085]
为每个主题k选择一个分布
[0086]
为每个文档di选择一个分布
[0087]
对于文档di中的每个词
[0088]
‑‑
选择主题
[0089]
‑‑
选择词
[0090]
其中,表示文档di中第j个词的主题分配情况,α和β为狄利克雷参数。
[0091]
s102、为了获取θ和本发明采用gibbs采样算法对词性lda模型进行主题提取,该算法每轮只需对语料库d中的文档遍历一次,在经过对所有文档中词的多轮迭代gibbs采样后,得到“文档—主题”分布θ,以及“主题—词项”分布以此实现了将具有相同或相关主题信息的不同分句聚集到一起,获取到一组基聚类结果。
[0092]
s2、通过步骤s1构建多个融入词性信息的lda主题模型,并将lda主题模型获取的聚类结果,看成为原始数据的新增属性;通过最大互信息系数方法计算原始数据在基聚类空间内的相关性,以此构建最大相关系数矩阵;采用对称非负矩阵分解方法获取最大相关系数矩阵的相应划分,实现主题聚类集成;
[0093]
请参阅图3,利用不同词性筛选及词性组合获取候选产品特征词,重复使用 lda主题模型计算,最终获得s个不同的基聚类结果q=[q1,q2,
……qs
],q为 n*s维的矩阵,矩阵的每一行代表一个文档在s种不同聚类算法中被分配的类别标签,而矩阵的每一列则代表一次基聚类计算的结果;获取所有基聚类结果具体为:
[0094]
s201、在步骤s101获取的语料库d上,重复运算s次词性lda模型获得语料库d的聚类结果q;
[0095]
s202、根据mic方法计算q的相似性矩阵x;
[0096]
构建相似性矩阵x具体为:
[0097]
s2021、通过步骤s201获取n*s的基聚类结果矩阵q,其中,n为语料库 d中的文档数,s为不同聚类算法计算的结果数;
[0098]
s2022、对q中的每个行向量(对应于语料库d中的一个文档),计算向量之间的互信息值i(ti;tj);再次,归一化i(ti;tj)值,将i(ti;tj)值转化到(0,1)区间之内;
[0099]
向量之间的互信息值计算方法为:
[0100][0101]
i(ti;tj)=h(ti) h(tj)-h(ti,tj)
ꢀꢀꢀ
(2)
[0102]
其中,两个离散随机样本点ti与tj,i,j∈{1,2,

,n},i≠j,i(ti;tj)为样本点 ti与tj的之间互信息,h(ti;tj)为样本点ti与tj的联合信息熵。
[0103]
归一化i(ti;tj)值的计算方法为:
[0104][0105]
其中,h(ti)、h(tj)分别表示样本点ti和tj的信息熵。
[0106]
s2023、重复上述过程得到所有向量间的归一化互信息值,以此构建n*n维的相似性矩阵x,该相似性矩阵x为一个对称阵,主对角线上的值是向量自身的互信息值为1,其余为两两向量间的互信息值,即nmi(ti;tj)。
[0107]
s203、使用synmf对相似性矩阵x进行聚类。
[0108]
s2031、构造相似性矩阵x的synmf分解模型;
[0109][0110]
其中,h
ij
为文档i属于聚类j的强度,j为拉格朗日函数,hh
t
为非负矩阵分解矩阵,f为范数。
[0111]
最小化j的求解可以采用拉格朗日乘子方法,通过将有约束的原始问题转化为无约束的对偶问题,利用梯度下降法求解。
[0112]
s2032、利用拉格朗日乘子方法及kkt条件求得h
ij
;再次,对矩阵h进行二值化处理;
[0113]
s2033、获得语料库d的集成聚类标签h*。
[0114]
s3、步骤s2完成后,构建任意文本中某一个词在特定窗口下的词性属性矩阵,并在该词的词性属性矩阵中引入文本的主题概率,以此区分不同文本对目标词的影响,利用集成学习方法,对同一个词的多个词性属性矩阵进行集成,通过预置的位置属性向量与词性属性矩阵的乘积,获取词的词性标记序列向量,采用mean-shift算法,利用词对相似度排序方法,获取产品短评文本的典型性特质。
[0115]
请参阅图4,具体步骤如下:
[0116]
s301、在任意聚类评论集中,构造每个词wi的词性属性矩阵
[0117]
词性属性矩阵的构造方法为:
[0118]
选取每个词前后各2个相邻词组成其词性序列,仅考虑相邻的实词形式(名词、动词、形容词、数词、量词、代词、区别词),其词性标注按顺序依次为n, v,a,m,q,r,b;那么,词性属性矩阵v,其元素为:
[0119][0120]
其中,1≤i≤5,1≤j≤7。
[0121]
s302、在每个词wi的词性属性矩阵中引入其所属文本的主题概率信息,并对同一个词wi的多个词性属性矩阵进行集成,利用词性位置权重信息,构建其词性标记序列向量pos(wi);
[0122]
词性标记序列向量pos(wi)的构造方法为:
[0123]
本发明将词性位置权重设置为那么,词性标记序列向量就是词性位置权重z与词性属性矩阵v的乘积,即pos=v*z。
[0124]
s303、利用实词两两组合的策略,构建聚类评论集的无序词对;
[0125]
s304、通过词对中对应词的词性标记序列向量差,构建无序词对的向量集合 p
t

[0126]
s305、在集合p
t
未被标记的数据点中任选一个点p作为中心点;
[0127]
s306、将距离中心点p,半径为h范围内的所有点,记为集合g,指定其属于簇r。同时,把簇r对这些点的访问频率加1;
[0128]
s307、以p为中心点,计算该点到集合g中每个点的向量,并将这些向量相加,得到的结果为mean-shift向量;
[0129]
s308、p=p mean-shift,即p沿着mean-shift方向移动,移动距离为||mean
‑ꢀ
shift||;重复步骤s306~s308,直到||mean-shift||《t(阈值),则此时p迭代收敛,将迭代过程中遇到的所有数据点都归类为簇r;
[0130]
s309、当p收敛时,如果簇r的中心点与其他已经存在的簇中心点距离小于阈值,那么将这两个簇合并,否则,把簇r作为新的聚类,增加1类;重复步骤s305~s309直到所有的数据点都已被标记访问;
[0131]
s3010、根据每个类,对每个点的访问频率,取访问频率最大的那个类,作为当前点集的所属类;
[0132]
s3011、对每个簇中的词对进行自身相似度排序,各自选取绝对值最高的l 个词对,构建产品典型性特质的可解释性描述集y。
[0133]
本发明最终得到的产品短评文本的典型性特质,能够帮助用户快速整理海量评论,获取评论中所代表的产品及特征,其获取到的可解释性集合对于评论意见的细粒度挖掘至关重要,并能对产品销售方的销售决策及经营改善产生巨大影响。
[0134]
本发明重点研究主题模型的集成学习方法,通过在各类已有聚类集成算法和模型研究的基础上,尝试利用非负矩阵分解算法对单一的主题模型进行相应聚类集成,以此改善模型的泛化性能,提高聚类结果的准确性、稳定性和鲁棒性,实现数据集的并行处理。
[0135]
本发明再一个实施例中,提供一种基于主题集成聚类的产品典型性特质挖掘系统,该系统能够用于实现上述基于主题集成聚类的产品典型性特质挖掘方法,具体的,该基于主题集成聚类的产品典型性特质挖掘系统包括lda模块、聚类模块以及挖掘模块。
[0136]
其中,lda模块,对评论文本数据进行预处理,保留分词结果中的词性信息,再利用文本不同的词性筛选,构建融入词性信息的lda主题模型;
[0137]
聚类模块,利用lda模块构建的多个融入词性信息的lda主题模型,将 lda主题模型获取的聚类结果作为原始评论文本数据的新增属性;通过最大互信息系数方法计算原始评论文本数据在基聚类空间内的相关性,以此构建最大相关系数矩阵;采用对称非负矩阵分解方法获取最大相关系数矩阵的相应划分,完成原始评论文本数据主题聚类集成;
[0138]
挖掘模块,利用聚类模块得到的原始评论文本数据主题聚类集成构建任意文本中某一个词在特定窗口下的词性属性矩阵,并在词性属性矩阵中引入文本的主题概率,利用集成学习方法,对同一个词的多个词性属性矩阵进行集成,通过预置的位置属性向量与词性属性矩阵的乘积,获取词的词性标记序列向量,采用mean-shift算法,利用词对相似度排序方法,获取产品短评文本的典型性特质,实现对产品的特性描述。
[0139]
本发明再一个实施例中,提供了一种终端设备,该终端设备包括处理器以及存储器,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器用于执行
所述计算机存储介质存储的程序指令。处理器可能是中央处理单元(centralprocessingunit,cpu),还可以是其他通用处理器、数字信号处理器(digitalsignalprocessor、dsp)、专用集成电路(applicationspecificintegratedcircuit,asic)、现成可编程门阵列(field-programmablegatearray,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其是终端的计算核心以及控制核心,其适于实现一条或一条以上指令,具体适于加载并执行一条或一条以上指令从而实现相应方法流程或相应功能;本发明实施例所述的处理器可以用于基于主题集成聚类的产品典型性特质挖掘方法的操作,包括:
[0140]
对评论文本数据进行预处理,保留分词结果中的词性信息,再利用文本不同的词性筛选,构建融入词性信息的lda主题模型;利用构建的多个融入词性信息的lda主题模型,将lda主题模型获取的聚类结果作为原始评论文本数据的新增属性;通过最大互信息系数方法计算原始评论文本数据在基聚类空间内的相关性,以此构建最大相关系数矩阵;采用对称非负矩阵分解方法获取最大相关系数矩阵的相应划分,完成原始评论文本数据主题聚类集成;利用原始评论文本数据主题聚类集成构建任意文本中某一个词在特定窗口下的词性属性矩阵,并在词性属性矩阵中引入文本的主题概率,利用集成学习方法,对同一个词的多个词性属性矩阵进行集成,通过预置的位置属性向量与词性属性矩阵的乘积,获取词的词性标记序列向量,采用mean-shift算法,利用词对相似度排序方法,获取产品短评文本的典型性特质,实现对产品的特性描述。
[0141]
本发明再一个实施例中,本发明还提供了一种存储介质,具体为计算机可读存储介质(memory),所述计算机可读存储介质是终端设备中的记忆设备,用于存放程序和数据。可以理解的是,此处的计算机可读存储介质既可以包括终端设备中的内置存储介质,当然也可以包括终端设备所支持的扩展存储介质。计算机可读存储介质提供存储空间,该存储空间存储了终端的操作系统。并且,在该存储空间中还存放了适于被处理器加载并执行的一条或一条以上的指令,这些指令可以是一个或一个以上的计算机程序(包括程序代码)。需要说明的是,此处的计算机可读存储介质可以是高速ram存储器,也可以是非不稳定的存储器(non-volatilememory),例如至少一个磁盘存储器。
[0142]
可由处理器加载并执行计算机可读存储介质中存放的一条或一条以上指令,以实现上述实施例中有关基于主题集成聚类的产品典型性特质挖掘方法的相应步骤;计算机可读存储介质中的一条或一条以上指令由处理器加载并执行如下步骤:
[0143]
对评论文本数据进行预处理,保留分词结果中的词性信息,再利用文本不同的词性筛选,构建融入词性信息的lda主题模型;利用构建的多个融入词性信息的lda主题模型,将lda主题模型获取的聚类结果作为原始评论文本数据的新增属性;通过最大互信息系数方法计算原始评论文本数据在基聚类空间内的相关性,以此构建最大相关系数矩阵;采用对称非负矩阵分解方法获取最大相关系数矩阵的相应划分,完成原始评论文本数据主题聚类集成;利用原始评论文本数据主题聚类集成构建任意文本中某一个词在特定窗口下的词性属性矩阵,并在词性属性矩阵中引入文本的主题概率,利用集成学习方法,对同一个词的多个词性属性矩阵进行集成,通过预置的位置属性向量与词性属性矩阵的乘积,获取词的词性标记序列向量,采用mean-shift算法,利用词对相似度排序方法,获取产品短评文本的典型性特质,实现对产品的特性描述。
[0144]
请参阅图5,该实施例的计算机设备60包括:处理器61、存储器62以及存储在存储器62中并可在处理器61上运行的计算机程序63,该计算机程序63 被处理器61执行时实现实施例中的心率测量方法,为避免重复,此处不一一赘述。或者,该计算机程序63被处理器61执行时实现实施例基于主题集成聚类的产品典型性特质挖掘系统中各模型/单元的功能,为避免重复,此处不一一赘述。
[0145]
计算机设备60可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。计算机设备60可包括,但不仅限于,处理器61、存储器62。本领域技术人员可以理解,图5仅仅是计算机设备60的示例,并不构成对计算机设备 60的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如计算机设备还可以包括输入输出设备、网络接入设备、总线等。
[0146]
所称处理器61可以是中央处理单元(central processing unit,cpu),还可以是其它通用处理器、数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现场可编程门阵列(field
‑ꢀ
programmable gate array,fpga)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
[0147]
存储器62可以是计算机设备60的内部存储单元,例如计算机设备60的硬盘或内存。存储器62也可以是计算机设备60的外部存储设备,例如计算机设备60上配备的插接式硬盘,智能存储卡(smart media card,smc),安全数字(secure digital,sd)卡,闪存卡(flash card)等。
[0148]
进一步地,存储器62还可以既包括计算机设备60的内部存储单元也包括外部存储设备。存储器62用于存储计算机程序以及计算机设备所需的其它程序和数据。存储器62还可以用于暂时地存储已经输出或者将要输出的数据。
[0149]
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中的描述和所示的本发明实施例的组件可以通过各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0150]
为了验证本发明对短评文本中产品典型性特质可解释性描述集挖掘的有效性,选取从jd、amazon、大众点评等在线平台获取的部分产品用户评论信息,对比本发明与标准lda模型、k-means算法、基于特征聚类的特征选择方法 (fsfc)之间的特征抽取结果。为了描述方便,我们仅列举一类产品(手机) 的其中3个聚类结果集,并采取人工方式指定标签,其标签可解释性描述集的选取,采用各算法相对应的排序策略,仅保留前10个词或5个词对。具体实验结果如表1所示。
[0151]
表1产品(手机)部分典型性特质的可解释性描述集
[0152][0153][0154]
从表1中看出,每一个标签可解释性描述集下的词较好的与产品某一个典型性特质相关联,且词内部具有较好的一致性。
[0155]
例如:表1的第1列大概率描述的是手机外观这一典型性特质。
[0156]
然而,在有些标签可解释性描述集下也存在着一些无关的“噪声词”,表1 中加黑的这些词就与当前标签集无关,即无法准确解释产品典型性特质的错误词。从整体角度来看,无词性的特征集要比有词性的特征集,词的集中度更高,但可解释性减弱。
[0157]
通过定性分析,进一步证明本发明对于构建产品典型性特质的可解释性描述集是可行的。
[0158]
综上所述,本发明一种基于主题集成聚类的产品典型性特质挖掘方法及系统,具有以下特点:
[0159]
(1)实现了无监督的短评文本产品典型性特质挖掘模型构建。提高了短评文本主题类聚性及特征选择能力,提升了对产品典型性特质识别及可解释性。
[0160]
(2)将集成学习技术应用于lda主题模型中,借助词性多样性的筛选,在保证lda主题模型局部差异性前提下,获得了较高的整体集成性能;
[0161]
(3)提出了一种利用词对的词性标记序列向量差代替传统意义上的词向量,进行产品典型性特质分析的方法,这进一步压缩了向量空间的维数,以词性信息取代了复杂的句法分析;
[0162]
(4)利用mean-shift算法,在不借助任何先验知识的前提下,实现了任意形状词对集合的密度估计及簇划分,有效克服了特征空间需服从已知概率密度函数结构的前置要求。
[0163]
本领域内的技术人员应明白,本技术的实施例可提供为方法、系统、或计算机程序产品。因此,本技术可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本技术可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、 cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0164]
本技术是参照根据本技术实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/ 或方框图中的每一
流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0165]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0166]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0167]
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献