一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

长尾级联流行度预测模型、训练方法及预测方法与流程

2022-02-19 07:00:48 来源:中国专利 TAG:


1.本发明属于深度学习(deep learning)中的信息扩散(information diffusion)、信息级联(information cascade)和流行度预测(popularity prediction)领域,是一种基于解耦思想(decoupling scheme)来解决长尾级联预测(long

tailed cascade prediction)问题的通用方法。


背景技术:

2.信息扩散是指信息通过交互作用从一个地方传播到另一个地方的过程,该领域涵盖了来自众多科学领域的技术,包括社会学,流行病学和人种论等不同领域的技术。本发明是针对信息级联的扩散进行合理有效的建模和流行度预测。信息级联的一项典型任务是预测某一条级联(推文、微博等),在特定一段时间段后潜在受影响用户的规模,也即流行度预测。特别地,twitter,facebook,微信和新浪微博等在线社交平台的出现为信息的产生和传播带来了前所未有的便利。用户通过社交网络以级联的形式传播各种新闻,事件和帖子。因此,这一对信息级联流行度的准确预测任务对于这些平台的用户和所有者都很有价值。例如,了解哪种类型的推文传播更广泛,可以帮助营销专家设计他们的策略;预测谣言的潜在影响用户,使得管理员可以及早进行干预以避免严重后果等。
3.传统的方法将精力集中在对级联的传播进行转发关系和时间特征建模,传统的建模方法面临着数据集严重不平衡的挑战,为了防止损失函数或度量指标受到少部分极值数据的影响,传统的方法重新制定了问题定义,例如将问题转化为分类问题,预测一条级联是否会超过级联的中值大小;或者是采用其他的评估指标,如k

top覆盖率、确定/相关系数及其变量、排名。
4.然而,现实中的数据集存在极度不平衡的现象,服从长尾分布(long

tail distribution)。例如在级联预测问题中,大的级联占据少数,小的级联占大多数,该现象导致实例丰富的数据支配训练过程,从而导致模型的预测非常保守,使得预测值分布在相对中间大小的范围内,从而降低了预测性能。
5.但是,目前还没有研究从数据服从长尾分布的角度来解决级联预测效果低下的回归问题。


技术实现要素:

6.本发明的目的旨在针对传统方法直接回避长尾数据带来的预测准确率不高、可解释性低等技术现状,提供一种直面长尾级联信息数据的流行度预测模型及训练方法,利用解耦思想,进行分步训练,以此来提高流行度预测准确率,能够作为现有的级联流行度预测模型的可拔插的通用方法,并具有较强的可解释性。
7.本发明的另一目的旨在提供一种长尾级联流行度预测方法。
8.本发明提供的长尾级联流行度预测模型可以使用传统的级联流行度预测模型(例如deepcas、deephawkes、vacas等)作为本发明长尾级联流行度预测模型的基线模型,所有
基线模型都是采用联合训练的方式,本发明在基线模型基础之上采用解耦训练的思想。
9.本发明提供的长尾级联流行度预测模型包括骨干网络、以及位于骨干网络之后的回归器,所述回归器包括并行设置的原始回归器和设计的子网络sub;所述骨干网络和原始回归器构成长尾级联流行度预测模型的基线模型;
10.所述骨干网络用于提取长尾级联的时间特征和空间特征;
11.所述原始回归器用于依据骨干网络提取的时间特征和空间特征,得到该长尾级联流行度的原始预测值;
12.所述子网络sub用于依据骨干网络提取的时间特征和空间特征,得到该长尾级联流行度的加权偏差;
13.以该长尾级联流行度的原始预测值与加权偏差之和作为最终流行度预测值。
14.上述长尾级联流行度预测模型,所述骨干网络使用时序模型和图模型来提取信息级联的时间特征和图的演化特征(即空间特征)。其理论基础可以参考文献【bingyi kang,sainingxie,marcus rohrbach,zhicheng yan,albert gordo,jiashifeng,and yanniskalantidis.2020.decoupling representation and classifier for long

tailed recognition.iniclr.】。本发明对于骨干网络的具体形式不进行任何限定,本领域技术人员可以选择能够实现时间特征和空间特征提取的相关技术手段。
15.上述长尾级联流行度预测模型,所述原始回归器即为传统的级联流行度预测模型的回归器,采用的是多层感知机mlp(multilayer perceptron)。
16.上述长尾级联流行度预测模型,所述子网络sub包括并行设置的第一分支子网络和第二分支子网络;第一分支子网络用于获取该条长尾级联在r个类别中的偏差b
r
;第二分支子网络通过依次设置的全连接层和softmax函数得到该条长尾级联在r个类别的偏差的概率p
r
,则该条长尾级联流行度的加权偏差为则将原始的预测值与设计的孪生网络(子网络)产生的加权偏差值相结合,得到最后纠正偏差后的最终流行度预测值,值,表示回归器输出的该长尾级联流行度的原始预测值。由于预测值结合了基线模型的多层感知机产生的原始预测值和子网络产生的加权偏差值,子网络针对不同类别的级联自适应地调整加权偏差,从而使回归器纠正模型的预测值。
17.本发明构建上述长尾级联流行度预测模型的思路为,主要从长尾分布的角度,利用解耦的思想,两步训练模型,首先随机初始化整个网络的参数(包括回归器参数和骨干网络参数),利用不同的采样策略来提取骨干网络的特征表示(representation),然后将骨干网络(backbone)的参数固定住,再通过几种不同的方法微调回归器(regressor),该回归器结合了原始的预测值和由子网络(sub)产生的加权偏差值(weighted bias),达到更准确预测流行度的目的。
18.基于上述发明思路,本发明提供的长尾级联流行度预测模型训练方法,包括以下步骤:
19.s1数据预处理:统计每一条级联在观测时间内的转发路径,将每一条级联的历史转发过程用加权的有向无环图来表示,并划分出输入数据和流行度标签,得到训练集数据;经过预处理后的原始数据集为长尾分布,将其按照标签的大小降序排序,将训练集划分为r大类;
20.s2提取骨干网络的参数:基于步骤s1预处理后的r大类训练集,分别采用多种采样策略学习长尾级联流行度预测模型的骨干网络表示,从多种采样策略得到的结果中筛选出骨干网络的最优表示;
21.s3微调回归器:基于步骤s1预处理后的r大类训练集,分别采用多种微调方法对骨干网络固定后的长尾级联流行度预测模型进行微调,得到长尾级联流行度预测模型。
22.上述长尾级联流行度预测模型训练方法,步骤s1的目的在于对原始历史转发数据进行预处理,转化成模型需要的输入数据。信息级联流行度预测旨在通过观察它的早期演化过程来预测未来的级联大小。对于原始数据集,令c表示一条感兴趣的级联,该级联从时间常数t0开始,通过网络进行传播。针对不同的数据集,每条级联有不同的观测时间t
s
,以及观测时间内的转发数量|c(t
s
)|。对原始数据集按照以下分步骤进行预处理:
23.s11对原始数据集进行筛选;本步骤中过滤掉原始数据集在观测时间内转发量|c(t
s
)|<10的级联,对于|c(t
s
)|>100的级联,只会选择前100名的参与者;
24.s12对筛选出的每一条级联的历史转发过程用加权有向无环图来表示,得到训练集数据,并划分出输入数据和标签(即流行度);例如输入数据为x={x
i
=c
i
(t
s
)},y
i
=p
i
(t
p
),i∈{1,2,

,n},其中x
i
表示级联观测时间内的转发,y
i
表示x
i
的标签(即流行度),t
p
为预测时间,n表示训练集总数量;
25.s13将训练集数据按照流行度划分为r大类;n
j
代表类别j训练样本的个数,r代表类别的个数,所以训练集的总数量
26.上述长尾级联流行度预测模型训练方法,步骤s2的目的在于解决极端不平衡数据(长尾分布数据)的表示学习,即提取模型骨干网络部分的参数直到模型收敛。用z
i
=f(x
i
;θ)代表级联x
i
的表示,其中f(x
i
;θ)是由长尾级联流行度预测模型去除回归器后的骨干网络实现的,θ表示骨干网络部分的参数。不同的采样策略会学习到不同效果的骨干网络的表示,为学习到最好的表示,将训练集原始的长尾数据喂入现有的级联流行度预测模型(即未添加子网络sub的长尾级联流行度预测模型),通过不同的采样策略训练骨干网络,提取出模型的骨干网络的最优表示,然后将骨干网络的参数固定住。本发明采用一系列不同的采样策略分别对分类后的训练集数据进行采样,来学习出效果不同的表示z,最终筛选出最好的骨干网络表示z
*
,则z
*
对应了最好的采样策略,蕴含了表示级联最好的时间特征和空间特征,然后将训练好的骨干网络参数固定。本发明使用的采样策略包括但不限于实例平衡采样、类平衡采样、平方根采样和渐进平衡采样等,令p
j
为从类别j采样的概率,考虑
27.(1)实例平衡采样策略(instance

balanced sampling),这是最常见的采用策略之一,训练集中的每个样本具有相等的被选择概率,即q=1:
[0028][0029]
n
j
表示当前类别的样本数量、n
r
表示不同类别的样本数量。
[0030]
(2)类平衡采样策略(class

balanced sampling),不同类别的样本具有相等的被选择概率,即q=0:
[0031][0032]
(3)平方根采样策略(square

rootsampling),作为实例平衡采样和类平衡采样之间的折衷策略,令q=1/2:
[0033][0034]
(4)渐进平衡采样策略(progressively

balanced sampling),该策略结合了前几种策略的特征,其中e是当前迭代次数,e是控制迭代总数的超参数:
[0035][0036]
上述步骤s3的目的在于通过微调回归器,以获取更准确的预测值。子网络sub中的两个分支子网络均为多层感知机,因此回归器由多个多层感知机组成,其中参数包括w和b,w表示线性映射矩阵(即回归器权重),b表示偏置常数。传统的基线模型,对于n个观测到的级联c
i
(t
s
)(1≤i≤n),可以将流行度预测形式化为通过最小化以下损失函数来解决的回归问题:
[0037][0038][0039]
其中,p
i
(t
p
)=|c
i
(t
p
)|是级联c
i
(t
p
)的真实值,是级联c
i
(t
p
)的预测值(记作),θ是模型所有可训练的参数,包括骨干网络和回归器的参数。
[0040]
为解决长尾问题,本发明在传统的级联流行度预测模型的原始回归器基础上,通过在骨干网络之后另外添加的2个分支作为子网络sub构成当前的回归器,来针对不同类别的级联自适应地调整加权偏差。因此,整个长尾级联流行度预测模型的损失函数如下:
[0041][0042][0043]
其中,ce
loss
表示交叉熵损失函数。
[0044]
本发明设计了两种微调回归器的方法,包括回归器重新训练法和η归一化回归器训练法。利用这两种微调方法对回归器进行重新训练,旨在通过微调来纠正决策边界,从而使回归器能够区分不同的级联类别并进行更准确的预测。
[0045]
(1)回归器重训练法:首先将s2中得到的骨干网络参数θ保持固定,然后随机初始化回归器,并使用类平衡采样策略对训练集进行采样,进一步对整个长尾级联流行度预测模型(即以作为损失函数)进行训练,从而经过一小部分迭代次数来优化回归器。
[0046]
(2)η归一化回归器训练法:首先按照回归器重训练方法对回归器进行训练,在对回归器进行微调后,回归器权重的范数趋于相似。为了使决策边界更具区分性,本发明通过重缩放过程:w表示回归器权重;调整回归器权重范数来纠正决策边界的不平衡。在这种情况下,使s2中得到的骨干网络参数θ以及按照回归器重训练方法得到的回归
器参数b保持固定,并使用正则化回归器中的w,再使用类平衡采样策略对训练集进行采样,进一步对整个长尾级联流行度预测模型(即以作为损失函数)进行训练,学习正则化缩放因子η(即仅使用类平衡采样在训练集上学习缩放因子η)。
[0047]
本发明进一步提供了一种长尾级联流行度预测方法,将待预测级联输入到构建的长尾级联流行度预测模型中,得到该待预测级联的流行度预测值;具体包括以下步骤:
[0048]
l1将待预测级联的历史转发过程用加权有向无环图来表示;
[0049]
l2将使用加权有向无环图表示的待预测级联输入到构建的长尾级联流行度预测模型中,得到该待预测级联的流行度预测值。
[0050]
将流行度预测值与设定的阈值比较,可以确定该待预测级联的变化趋势,从而最大化影响营销设计、谣言预测等下游任务。
[0051]
至此,本发明就实现了从长尾角度利用解耦思想来提高级联流行度预测的方法。需要声明一点的是,本发明是一个可拔插的通用方法,本发明可以轻松地合并到现有的级联流行度预测模型中。
[0052]
与现有的技术相比,本发明具有以下有益效果:
[0053]
(1)本发明基于解耦思想来对长尾级联流行度预测模型进行训练,整个训练分为两个阶段:骨干网络表示提取和回归器微调;这样只需要使用采样策略学习到良好的表示,并且利用预先设计好的方法微调回归器,就可以极大的缓解长尾问题导致的预测精度不高的问题,而不需要转化问题的定义,或者采用其他的度量指标。
[0054]
(2)本发明设计了一个新颖的概率孪生网络(子网络),以针对不同的流行度类别自适应地调整加权偏差,从而使回归器更正模型的预测值,有效提高流行度预测准确率。
[0055]
(3)本发明可以轻松地合并到现有长尾级联流行度预测模型中,是一个可拔插的通用方法,具有一定的通用价值并且具有较强的可解释性。
[0056]
(4)本发明显著提高了预测精度,并缓解了长尾级联预测问题,并具有较强的可解释性。
[0057]
(5)本发明引入了长尾分布影响的新颖考虑,直面数据极度不平衡的问题;本发明的解决思路,可以启发其他的应用领域在面临数据不平衡的现象时,从数据本身出发,使用解耦思想,两步训练模型。
[0058]
(6)本发明对于理解社交网络平台的演化过程极其重要;例如,通过本发明精确预测某条微博在未来一段时间的转发量,可以用于营销设计,谣言预测,最大化影响下游任务。
附图说明
[0059]
图1为对信息级联的扩散过程的解释。
[0060]
图2为本发明长尾级联流行度预测模型示意图;(a)为框架图;(b)为以vacas作为基线模型的详细示意图。
[0061]
图3为不同采样策略在不同回归器微调方法下的效果对比问题;其中(a)对应weibo数据集,(b)对应twitter数据集。
[0062]
术语解释
[0063]
信息级联(information cascade):附图1以一个示例说明了该过程:一个根节点发布一条公共内容后,根节点的朋友和关注者将看到公共内容后一个接一个的进行转发。这样,公共内容通过社交网络的边缘传播并创建了信息级联,信息级联的一项典型任务是预测某一条级联(推文、微博等),在一段观测时间段后潜在受影响用户的规模。其理论基础可以参考文献【j.cheng,l.adamic,p.a.dow,j.m.kleinberg,and j.leskovec.can cascades be predicted?in proc.of www,2014.】
具体实施方式
[0064]
结合附图对本发明做进一步描述。
[0065]
实施例1
[0066]
如图2(a)所示,本实施例提供的长尾级联流行度预测模型包括骨干网络、以及位于骨干网络之后的回归器,回归器包括并行设置的原始回归器和子网络sub;骨干网络和原始回归器构成长尾级联流行度预测模型的基线模型。使用传统的级联流行度预测模型(例如deepcas、deephawkes、vacas等)作为本发明长尾级联流行度预测模型的基线模型。
[0067]
骨干网络用于提取长尾级联的时间特征和空间特征,可以使用时序模型和图模型来实现。
[0068]
原始回归器,即传统的级联流行度预测模型的回归器,用于依据骨干网络提取的时间特征和空间特征,得到该长尾级联流行度的原始预测值。本实施例采用的是多层感知机mlp(multilayer perceptron)。
[0069]
子网络sub用于依据骨干网络提取的时间特征和空间特征,得到该长尾级联流行度的加权偏差。子网络sub包括并行设置的第一分支子网络和第二分支子网络;两个分支子网络均为多层感知机。第一分支子网络采用传统多层感知机,依据骨干网络提取的该条长尾级联的时间特征和空间特征获取该条长尾级联在r个类别中的偏差br;第二分支子网络通过依次设置的全连接层和softmax函数得到该条长尾级联在r个类别的偏差的概率pr,则该条长尾级联流行度的加权偏差为则将原始的预测值与设计的孪生网络(子网络)产生的加权偏差值相结合,得到最后纠正偏差后的最终流行度预测值,网络(子网络)产生的加权偏差值相结合,得到最后纠正偏差后的最终流行度预测值,表示回归器输出的该长尾级联流行度的原始预测值。
[0070]
以vacas基线模型为例,对长尾级联流行度预测模型的实现方式进行详细解释。如图2(b)所示,vacas整个模型被分为2个部分,前面的骨干网络和后面的回归器,其中骨干网络用于时间特征和空间特征的学习,不同的基线模型使用不同的技术或方法实现对空间和时间特征的学习。给定一条级联c
i
,该级联在观测时间内级联图(cascade graph)的演化过程可以表示成g
i
={g
i
(t0),g
i
(t1)

,g
i
(t
o
)}。vacas使用图小波(graph wavelet)学习到级联图g
i
的扩散嵌入(diffusion embedding),也即学习到每个节点在图中的上下文嵌入,将学习到的节点嵌入送进2个分支:其中一个是两层级的vae(variational autoencoder)(其理论基础可以参考文献【d.p.kingma and m.welling,“auto

encodingvariational bayes,”in iclr,2014.】)实现对空间特征进行建模,分别为sub

graph vaes和cascade vae。首先,我们计算出每个sub

graph的均值μ
i
和方差σ
i
,然后使用vae得到每个sub

graph的隐变量z1。将sub

graph vaes的隐变量z1作为cascade vae的输入,然后使用基于rnn的
vae对隐变量z1继续重建得到z2,上述过程的联合概率可以表示为p
θ
(g
i
,z1,z2)=p
θ
(z1)p(z2|z1)p
θ
(g
i
|z1,z2);另一个分支,将节点嵌入送进2层的双向gru(bi

gru)对时间特征进行建模,经过两层gru分别得到特征h1和h2。最后,将两个分支的结果串联(concatenate)起来得到时空特征。至此,实现了骨干网络的功能。在骨干网络后面并联连接一个多层感知机(mlp)和一个子网络sub;其中多层感知机(mlp)作为回归器的一部分进行流行度预测,输出值为长尾级联流行度的原始预测值;子网络sub结构如前所述,其输出值为长尾级联流行度的加权偏差。
[0071]
实施例2
[0072]
如图2所示,本实施例提供的长尾级联流行度预测模型训练方法分为两步:第一步,首先将原始的长尾分布的数据集喂入模型,使用s2中提到的4种采样方法提取模型骨干网络部分的参数,也就是提取模型的时间和空间特征,直到模型收敛,我们选取四种方法中得到的最好的表示,并将骨干网络的参数固定。接下来进行第二步,先随机初始化回归器的参数,然后使用s3中提到的2种方法微调回归器,直到模型收敛,选取预测效果最好的微调方法,最终得到最优的预测模型。
[0073]
本实施例采用实施例1提供的基于解耦骨干网路和回归器的长尾级联流行度预测模型在两个不同的服从长尾分布的真实数据集(weibo数据集、twitter数据集,第一个数据集来源参考文献【qi cao,huawei shen,keting cen,wentaoouyang,and xueqi cheng.2017.deep

hawkes:bridging the gap between prediction and understanding of information cascades.in cikm.1149

1158】第二个数据集来源参考文献【lilianweng,filippomenczer,and yong

yeolahn.2013.virality prediction and community structure in social networks.scientific reports3(2013)】)上进行训练得到相应的长尾级联流行度预测模型,并对其预测效果进行解释。
[0074]
本实施例提供了实施例1中长尾级联流行度预测模型的训练方法,包括以下步骤:
[0075]
s1数据预处理:统计每一条级联在观测时间内的转发路径,将每一条级联的历史转发过程用加权的有向无环图来表示,并划分出输入数据和流行度标签,得到训练集数据;经过预处理后的原始数据集为长尾分布,将其按照标签的大小降序排序,将训练集划分为r大类。
[0076]
以weibo数据集和twitter数据集作为原始数据集。对于原始数据集,令c表示一条感兴趣的级联,该级联从时间常数t0开始,通过网络进行传播。针对不同的数据集,每条级联有不同的观测时间t
s
,以及观测时间内的转发数量|c(t
s
)|。对原始数据集按照以下分步骤进行预处理:
[0077]
s11对原始数据集进行筛选;本步骤中过滤掉原始数据集中|c(t
s
)|<10的级联,对于|c(t
s
)|>100的级联,只会选择前100名的参与者。
[0078]
s12对筛选出的每一条级联的历史转发过程用加权有向无环图来表示,得到用加权有向无环图表示的数据集。
[0079]
本实施例中,使用的是现有数据集,为了对训练后的长尾级联流行度预测模型预测效果进行验证和测试,这里,将数据集划分为训练集(占70%),验证集(占15%),测试集(占15%)。并将各数据集划分出输入数据和标签(即流行度);以训练集为例,输入数据可表示为x={x
i
=c
i
(t
s
)},y
i
=p
i
(t
p
),i∈{1,2,

,n},其中x
i
表示级联观测时间内的转发,y
i

示x
i
的标签(即流行度),t
p
为预测时间,n表示训练集总数量。
[0080]
s13将训练集数据按照流行度划分为r大类;n
j
代表类别j训练样本的个数,r代表类别的个数,所以训练集的总数量
[0081]
本实施例中,将训练集数据按照流行度划分为三大类,即r=3;具体为:流行度较多类(many

shot,占20%),流行度适中类(medium

shot,占60%)和流行度较少类(few

shot,占20%)。
[0082]
s2提取骨干网络的参数:基于步骤s1预处理后的r大类训练集,分别采用多种采样策略学习长尾级联流行度预测模型的骨干网络表示,从多种采样策略得到的结果中筛选出骨干网络的最优表示。
[0083]
分别采用前面给出的实例平衡采样、类平衡采样、平方根采样和渐进平衡采样对分类后的训练集数据进行采样,并利用采样后的数据对回归器参数固定的长尾级联流行度预测模型进行训练,从中筛选出最好的骨干网络表示z
*
,则z
*
对应了最好的采样策略,蕴含了表示级联最好的时间特征和空间特征,然后将训练好的骨干网络参数固定。
[0084]
本步骤包括以下步骤:
[0085]
s21分别采用前面给出的实例平衡采样、类平衡采样、平方根采样和渐进平衡采样任一采样策略对分类后的训练集数据进行采样,得到采样后的训练集数据,并输入至长尾级联流行度预测模型。
[0086]
s22随机初始化骨干网络和回归器参数,并将回归器参数固定,只对骨干网络的参数进行学习,以作为损失函数,对采样后的训练集数据进行学习,直至模型收敛,也即度量指标mean squared logarithmic error(msle)或者mean absolute percentage error(mape),在验证集上连续10个迭代都没下降就停止训练。
[0087]
按照上述步骤s21

s22,分别采用实例平衡采样、类平衡采样、平方根采样和渐进平衡采样后的训练集数据对骨干网络(此时,回归器参数固定)进行训练。以预测值和真实值y
i
之间误差最小,也即度量指标msle或mape最小的骨干网络表示作为最好的骨干网络表示z
*

[0088]
s3微调回归器:基于步骤s1预处理后的r大类训练集,分别采用多种微调方法对骨干网络固定后的长尾级联流行度预测模型进行微调,直至模型再次收敛,最后得到长尾级联流行度预测模型。
[0089]
本实施例分别采用两种微调回归器的方法(回归器重新训练法和η归一化回归器训练法)确定长尾级联流行度预测模型的回归器参数。下面分别给出详细解释。
[0090]
(一)回归器重训练法
[0091]
对长尾级联流行度预测模型回归器的训练过程包括以下步骤:
[0092]
s31随机初始化回归器参数,即随机初始化w和b。
[0093]
s32使用类平衡采样策略对步骤s1得到的训练集进行采样,并将采样后的训练集数据输入长尾级联流行度预测模型。
[0094]
s33将s2中得到的骨干网络参数θ保持固定,使用采样后的训练集数据对长尾级联流行度预测模型进行训练,最小化级联流行度真实值y
i
和预测值之间的损失函数来学习回归器参数w和b。
[0095]
这里,所使用的损失函数为:
[0096][0097]
θ是模型所有可训练的参数,由于骨干网络参数θ已经固定,因此这里可训练参数为回归器的参数w和b。
[0098]
其中s32和s33都是以训练集去指导模型参数的调整,以验证集去验证训练集得到的模型参数,直至度量指标msle或mape在验证集上连续10个迭代都没下降就停止训练,也即收敛到最优参数的模型。
[0099]
训练得到的长尾级联流行度预测模型记为最终的长尾级联流行度预测模型。
[0100]
(二)η归一化回归器训练法
[0101]
对长尾级联流行度预测模型回归器的训练过程包括以下步骤:
[0102]
s31

随机初始化回归器参数,即随机初始化w和b。
[0103]
s32

使用类平衡采样策略对步骤s1得到的训练集进行采样。
[0104]
s33

将s2中得到的骨干网络参数θ保持固定,使用步骤s32

采样后的训练集数据对长尾级联流行度预测模型进行训练,最小化级联流行度真实值y
i
和预测值之间的损失函数来学习回归器参数w和b。
[0105]
这里,所使用的损失函数为:
[0106][0107]
θ是模型所有可训练的参数,由于骨干网络参数θ已经固定,因此这里可训练参数为回归器的参数w和b。
[0108]
s34

将s2中得到的骨干网络参数θ以及s33

中得到的回归器参数w和b保持固定,并使用正则化回归器中的w,然后用步骤s32

采样后的训练集数据对长尾级联流行度预测模型进行训练,得到正则化缩放因子η。
[0109]
这里,所使用的损失函数为:
[0110][0111]
θ是模型所有可训练的参数,由于骨干网络参数和回归器参数已经固定,因此这里可训练参数为缩放因子η。
[0112]
其中s32

,s33

和s34

都是以训练集去指导模型参数的调整,以验证集去验证训练集得到的模型参数,直至度量指标msle或mape在验证集上连续10个迭代都没下降就停止训练,最终收敛到最优参数的模型。
[0113]
训练得到的长尾级联流行度预测模型记为最终的长尾级联流行度预测模型。
[0114]
作为一个通用的可拔插方法,本发明以3个不同的基线模型(deepcas、deephawkes、vacas)构建实施例1中的长尾级联流行度预测模型,然后按照上述步骤s1

s3对构建的长尾级联流行度预测模型进行训练。
[0115]
再利用训练好的长尾级联流行度预测模型对测试集数据按照以下步骤对长尾级联流行度进行预测:
[0116]
l1将待预测级联的历史转发过程用加权有向无环图来表示。
[0117]
这里,测试集数据是由步骤s12中划分得到的,已经用加权有向无环图进行表示。
[0118]
l2将使用加权有向无环图表示的待预测级联输入到构建的长尾级联流行度预测
模型中,得到该待预测级联的流行度预测值。
[0119]
本实施例,采用了两种常用的度量方法(值越小,预测效果越好),即均方对数算术误差(msle)和平均绝对百分比误差(mape),来对流行度预测效果进行评价,结果见表1所示。
[0120]
表1:所有联合训练和解耦训练得到的msle对比图
[0121][0122]
表1中的3个基线方法的介绍如下:
[0123]
deepcas:是第一个通过使用多个随机游走过程进行级联预测的端到端深度学习模型。【cheng li,jiaqi ma,xiaoxiaoguo,and qiaozhu mei.2017.deepcas:an end

to

end predictor of information cascades.in www.577

586.】
[0124]
deephawkes:结合了深度学习和hawkes的自激点过程,弥合了预测性能和可解释性之间的差距。【qi cao,huawei shen,keting cen,wentaoouyang,and xueqi cheng.2017.deep

hawkes:bridging the gap between prediction and understanding of information cascades.in cikm.1149

1158.】
[0125]
vacas:集成了信息级联的分层扩散模型和时空结构特征,同时还捕获了扩散不确定性。【fan zhou,xoveexu,kunpeng zhang,gocetrajcevski,and ting zhong.2020.variational information diffusion for probabilistic cascades prediction.ininfocom.1618

1627.】
[0126]
plain:是指直接使用步骤s12得到的训练集数据对三个基线模型(deepcas、deephawkes和vacas)进行训练后(将回归器的权重参数w,b和骨干网络的参数θ一起训练,使用的损失函数为再使用训练好的模型对测试集进行流行度预测的效果。
[0127]
joint:是指使用不同采样策略对训练集数据进行采用后的数据对三个基线模型(deepcas、deephawkes和vacas)进行训练后(将回归器的权重参数w,b和骨干网络的参数θ一起训练,使用的损失函数为再使用训练好的模型对测试集进行流行度预测的效果。
[0128]
rrt(regressor re

training):是指按照前面给出的骨干网络训练方法和回归器重训练方法对三个基线模型(deepcas、deephawkes和vacas)进行训练后,再使用训练好的模型对测试集进行流行度预测的效果;这里由于模型不包含子网络sub,因此用于训练模型
使用的损失函数为
[0129]
η

norm(η

normalized regressor):是指按照前面给出的骨干网络训练法和η归一化回归器训练方法对三个基线模型(deepcas、deephawkes和vacas)进行训练后,再使用训练好的模型对测试集进行流行度预测的效果;这里由于模型不包含子网络sub,因此用于训练模型使用的损失函数为
[0130]
joint sub:是指使用不同采样策略对训练集数据进行采用后的数据对由三个基线模型(deepcas、deephawkes和vacas)和子网络sub组成的实施例1中的长尾级联流行度预测模型进行训练后(将回归器的权重参数w,b和骨干网络的参数θ一起联合训练,使用的损失函数为再使用训练好的模型对测试集进行流行度预测的效果。
[0131]
rrt sub:是指按照前面给出的骨干网络训练方法和回归器重训练方法对由三个基线模型(deepcas、deephawkes和vacas)和子网络sub组成的实施例1中的长尾级联流行度预测模型进行训练后(使用的损失函数为),再使用训练好的模型对测试集进行流行度预测的效果。
[0132]
η

norm sub:是指按照前面给出的骨干网络训练方法和η归一化回归器训练方法对由三个基线模型(deepcas、deephawkes和vacas)和子网络sub组成的实施例1中的长尾级联流行度预测模型进行训练后(使用的损失函数为),再使用训练好的模型对测试集进行流行度预测的效果。
[0133]
表1显示了3个基线模型的原始结果(plain),在基线模型加上回归器微调方法(joint、rrt、η

norm,即不包含子网络sub),以及本发明的解耦方法(joint sub、rrt sub、η

norm sub)后的预测结果的对比实验结果。可以很容易地观察到,本发明提出的方案在两个数据集上都优于所有原始基线模型。具体来说,表现最好的方案(η

norm sub)与deepcas、deephawkes和vacas相比,msle分别降低了9.7%、11.8%和9.1%。
[0134]
通过表1可进一步观测到,本发明提出的rrt sub和η

norm sub方案在很大程度上优于联合训练的基线模型。例如,当将相同的采样策略应用于表示学习,将deepcas与η

norm sub一起使用,与joint sub相比,它可将性能提高4.8%。解耦方案rrt/η

norm sub始终比联合训练得到更低的预测误差,这是由于它们通过调整回归器权值的更新过程来实现有效的再平衡操作,从而匹配长尾分布和子网络产生的加权偏差。本发明提供的长尾级联流行度预测模型对极端值/离群值具有鲁棒性,当联合训练整个网络时,避免了实例丰富的数据造成的预测偏差。
[0135]
本发明使用s2中的4种采样策略学习到骨干网络的表示z
i
=f(x
i
;θ),然后将骨干网络的参数θ固定,最后使用s3中的2种微调方法对回归器进行微调。一共有4 4*2=12种组合方式(其中第一个4代表骨干网络和回归器联合训练,4*2代表解耦训练(也即进一步对回归器微调),从中选出最好的一种组合方式。可以从表1及图3总结出,将η

norm sub解耦方案与实例平衡采样策略相结合,可以获得性能最佳的预测模型。
[0136]
由此可知,本发明从模型会受到长尾分布的影响这个新颖的角度,提出一个新的训练模型方法,缓解数据极度不平衡的问题。本发明利用解耦的思想,整个训练分为两个阶段:表示提取和微调回归器。本发明设计了一个新颖的概率孪生网络(子网络),以针对不同
的流行度类别自适应地调整加权偏差,从而使回归器更正模型的预测值。本发明可以轻松地合并到现有模型中,显著提高了预测精度,并缓解了长尾级联预测问题,具有较强的可解释性。所提方案在性能上的改进表明,将表示学习与回归器解耦是解决信息级联预测中长尾回归问题的一个很有前景希望的方向。
[0137]
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献