一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于神经网络和移动上下文的兴趣点推荐方法与流程

2021-10-24 12:25:00 来源:中国专利 TAG:兴趣 推荐 神经网络 上下文 特别


1.本发明涉及兴趣点推荐技术领域,特别涉及基于神经网络和移动上下文的兴趣点推荐方 法。


背景技术:

2.兴趣点推荐,旨在通过挖掘用户的历史地点签到记录来为用户推荐没有访问过的可能感 兴趣的地点。兴趣点推荐不仅可以丰富用户的出行体验,也能为第三方商家带来利益。因此, 兴趣点推荐具有研究价值。与大多数其他的推荐领域一样,兴趣点推荐仍然采用经典的协同 过滤与矩阵分解。矩阵分解和协同过滤等经典方式,通常面临着数据稀疏和无法深层次刻画 用户偏好等挑战。
3.但是,传统的兴趣点推荐仍然存在如下问题:
4.(1)协同过滤在进行推荐的时候,为了发现偏好相同的用户,需要计算目标用户与全体 用户的相似度,计算量过于庞大。况且,每当用户访问了一个地点,该用户和地点的向量随 即发生改变,则相应的协同过滤计算需要重新进行。矩阵分解面临同样的问题,即原始的矩 阵不断地发生改变,不能保持恒定的分解后的隐因子矩阵。因此,如何设计一个通用的模型 能够在用户和地点数据不断变化的同时动态地适应和完成推荐,将会是兴趣点推荐的一大难 题。
5.(2)协同过滤和矩阵分解最大的特点是它们都是基于一些运算规则和数学流程的标准化算 法。因此,这两种算法无法挖掘出用户和地点之间潜在的关系。这个问题是目前协同过滤和 矩阵分解面临的最大挑战,也是目前许多研究的重心。用户和地点之间的潜在关系,是一种 非线性的隐式关系。如果明确了这种潜在关系,那么推荐任务将不再依赖于显式的原始特征, 而是深层次地判定用户是否会访问某个地点。如何有效地挖掘用户和地点之间的潜在关系将 会是兴趣点推荐的另外一个大难题。


技术实现要素:

6.针对现有技术存在的上述问题,本发明的要解决的技术问题是:如何更准确的为用户推 荐兴趣点。
7.为解决上述技术问题,本发明采用如下技术方案:基于神经网络和移动上下文的兴趣点 推荐方法,包括如下步骤:
8.s100:构建训练数据集ds,训练数据集ds中训练样本是第i个用户u
i
和第j个地点l
j
构 成的数据组;定义用户集合,地点集合和用户地点矩阵,其中用户集合表示为u= {u1,u2,u3,...,u
m
},m表示用户数量,地点集合表示为l={l1,l2,l3,...,l
n
},n表示地点的数量, 用户地点矩阵表示为r:u
×
l,r
ij
表示了用户u
i
和地点l
j
之间的原始联系,即用户u
i
访问地 点l
j
的次数;
9.s110:建立联合神经网络模型,并对联合神经网络模型进行训练,计算用户访问未知地 点的预测概率值;
10.s120:建立移动上下文的兴趣点推荐模型,计算用户访问未知地点的预测得分;
11.s200:进行联合神经网络模型和移动上下文的兴趣点推荐模型的融合,计算用户访问未 知地点的预测分数,根据所述预测分数由大到小排序,得到该用户对未知地点感兴趣程度的 推荐列表;
12.进行联合神经网络模型和移动上下文的兴趣点推荐模型的融合的过程如公式(1)所示:
[0013][0014]
其中,final
ij
是模型融合后的预测分数,nor是归一化函数,β是控制基于联合神经网络 的推荐算法的混合权重,union
ij
是联合神经网络模型得到预测概率值,是移动 上下文的兴趣点推荐模型得到的预测得分。
[0015]
作为改进,所述s110建立联合神经网络模型,建立联合神经网络模型计算用户访问未知地 点的预测概率值的过程如下:
[0016]
s111:构建特征提取网络对每个训练样本进行特征的提取,得到每个样本的用户初级特 征向量和地点初级特征向量;
[0017]
s112:构建降维网络对每个训练样本的用户初级特征向量和地点初级特征向量分别进行 向量降维处理,得到每个训练样本对应的用户高级特征向量和地点高级特征向量,且用户高 级特征向量和地点高级特征向量的维数相等;
[0018]
s113:针对每个训练样本将对应的用户高级特征向量和地点高级特征向量进行拼接得到 每个训练样本高阶的特征组合信息;
[0019]
s114:构建关系挖掘网络,将每个训练样本高阶的特征组合信息作为输入,输出每个训 练样本中用户与配对的地点之间的预测结果co
ij

[0020]
s115:构建用户隐因子矩阵u
lf
和地点隐因子矩阵l
lf
,计算矩阵分解的预测结果mf
ij

[0021]
s116:构建联合神经网络,根据预测结果co
ij
和矩阵分解的预测结果mf
ij
计算最终预测 结果union
ij
,并采用sigmoid函数将union
ij
转化为预测概率值;
[0022]
s117:计算损失,计算u
i
对l
j
是否感兴趣的真实概率值与u
i
对l
j
是否感兴趣的预测概率值 之间的损失,根据损失值更新特征提取网络、降维网络,关系挖掘网络,隐因子矩阵u
lf
和地 点隐因子矩阵l
lf
和联合神经网络的参数,再将所有训练样本依次输入更新参数后的特征提取 网络、降维网络和关系挖掘网络进行继续训练;当损失不在下降时,特征提取网络、降维网 络和关系挖掘网络训练完成;
[0023]
s118:对于用户集合中的任一用户,预测该用户对多个未知地点是否感兴趣,将该用户 和多个地点输入训练好的特征提取网络、降维网络和关系挖掘网络,得到该用户对多个位置 地点的预测概率值。
[0024]
作为改进,所述s111构建特征提取网络为局部特征提取层,具体如下:用户u
i
的原始向 量以表示,地点l
j
的原始向量以表示,定义一个局部窗口window大小的数值,将输入或 按照该局部窗口window大小划分为若干局部模块,同时,根据局部窗口的数量将第一层神 经网络划分为不同的部分,输入或的每个局部模块与第一层神经网络的每个
部分对应;
[0025]
表示用户向量或地点向量的输入层如公式(3)所示,进行局部特征提取的第一层神经网 络如公式(4)所示。
[0026][0027][0028]
其中,w_n是根据局部窗口大小得到的局部窗口个数,和in1分别是第一层神经网络中 第一个局部窗口对应的网络权重和输入,是第一个局部窗口的网络偏置项,和in2分别是 第一层神经网络中第二个局部窗口对应的网络权重和输入,是第二个局部窗口的网络偏置 项,和in
w_n
分别是是第一层神经网络中第w_n个局部窗口对应的网络权重和输入,第w_n个局部窗口的网络偏置项,con表示拼接操作,即将所有局部学习的结果整合在一起作 为第一层网络的输出,f是激活函数,采用relu形式,如公式(5)所示:
[0029]
f(x)=max(0,x)
ꢀꢀ
(5)。
[0030]
作为改进,所述s112构建的降维网络具体如下:设包含局部特征提取层在内的降维神经 网络一共有m层,如公式(6)所示:
[0031]
layer
k
=f(w
k
layer
k
‑1 b
k
),k=2,3...,m
ꢀꢀꢀꢀ
(6)
[0032]
其中,w
k
和b
k
分别是第k层网络的权重和偏置,layer
k
‑1是k

1层的输出结果,当k=2时, 输入来自于局部特征提取层的结果,f采用relu激活函数;
[0033]
在每一层神经网络发挥非线性作用之前,先将中间输入拉回到标准的正态分布,如(7) 所示:
[0034]
layer
k
=f(bn
k
(w
k
layer
k
‑1 b
k
))
ꢀꢀ
(7)
[0035][0036][0037]
其中,bn
k
是第k层的批量归一化处理,γ和β是需要训练得到的参数,∈是极小量参数, bn
k
在单个神经元上的计算形式,如公式(8)所示,neu
mid
代表了未经激活函数处理的单个 神经元的中间输出值,如公式(9)所示,和分别是该神经元在层权重w
k
和层偏置b
k
的 对应部分,是该神经元在输入layer
k
‑1的对应部分,μ(neu
mid
)计算的是一个批次的 训练数据集在该神经元上的平均值,σ(neu
mid
)2计算的是方差;
[0038]
μ(neu
mid
)和σ(neu
mid
)2分别如公式(10)和公式(11)所示:
[0039]
μ(neu
mid
)=1/|batch|∑
z
x
z
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(10)
[0040]
σ(neu
mid
)2=1/|batch|∑
z
(x
z

μ(neu
mid
))2ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(11)
[0041]
其中,batch代表了一个训练批次,x
z
代表了训练批次中的单个输入数据,每层网络中的 每一个神经元都在激活函数之前执行批量归一化处理,将数据分布进行重新调整,之后才让 激活函数执行非线性映射操作;
[0042]
构建两个结构完成相同的降维降维网络,即用户降维降维网络和地点降维降维网
络,经 过向量降维网络后,用户向量和地点向量的新表达分别如公式(12)和公式(13)所示:
[0043][0044][0045]
其中,是用户降维降维网络的批量归一化、神经网络权重和偏置,是用户降维降维网络的批量归一化、神经网络权重和偏置,是面向地点降维降维网络的批量归一化、神经网络权重和偏置,和分别是降维后 的用户高级特征向量和地点高级特征向量。
[0046]
作为改进,所述s114构建关系挖掘网络,具体公式(15)所示,同时加入了drop

out 来缓解关系挖掘网络的过拟合现象,如公式(16)所示:
[0047][0048][0049]
其中,关系挖掘网络的层数为n,w
k
和b
k
是每一层网络的权重和偏置,f是relu激活函 数,是由drop计算得到的由0或1表示的向量,其维度和所在层的神经元个数保持一致, drop函数在生成向量的时候,每一个维度取决于bernoulli(p),而bernoulli(p)会按照概率p生 成为1或0。
[0050]
作为改进,所述s115构建用户隐因子矩阵u
lf
和地点隐因子矩阵l
lf
,计算矩阵分解的预 测结果mf
ij
的过程为:
[0051]
构建用户隐因子矩阵u
lf
和地点隐因子矩阵l
lf
,并初始化;
[0052]
矩阵分解的预测结果如公式(17)所示:
[0053][0054]
其中,是用户u
i
在u
lf
中的对应向量,是地点l
j
在l
lf
中的对应向量。
[0055]
作为改进,在构建联合神经网络,如公式(18)所示:
[0056]
union
ij
=f(w
co
co
ij
w
mf
mf
ij
b)
ꢀꢀꢀꢀ
(18)
[0057]
其中,w
co
和w
mf
分别为co
ij
和mf
ij
对应的网络权重,b是网络的偏置。
[0058]
作为改进,所述s120移动上下文的兴趣点推荐模型的过程如下:设所有的地点类别构成 了类别集合c={c1,c2,c3,...,c
s
},其类别总数为s;
[0059]
s121:通过聚类算法,同时结合地点自身的流行度,计算用户u
i
在区域条件下访问地点l
j
的 概率
[0060]
s122:构建距离偏好模型,计算用户u
i
访问地点l
j
地点上的距离得分
[0061]
s123:构建类别偏好模型,计算用户u
i
访问地点l
j
地点上的类别得分
[0062]
s124:将区域概率、距离分数、类别分数进行融合构建移动上下文的兴趣点推荐模型, 如公式(25)所示:
[0063][0064]
其中,α是控制距离分数的权重系数。
[0065]
作为改进,所述s121计算用户u
i
在区域条件下访问地点l
j
的概率的过程如下:采 用k

means聚类方法将所述地点进行聚类并划分为re区域,如公式(26)所示:
[0066][0067]
其中,区域集合为region={r1,r2,r3,...,r
re
},区域个数为re,l
j
是属于区域r
k
的兴趣点, μ(r
k
)表示的是区域的聚类中心,dis计算的是地点l
j
到μ(r
k
)的距离;
[0068]
随机选取区域的区域中心作为初始中心,计算每个地点到re个初始中心的加权距离,若 第j个地点与第t个初始中心距离最小,则将第j个地点化为第t个初始中心所在的区域,再 次随机选取区域中心更新初始中心,并计算每个地点与更新后的re个区域中心的加权距离, 若第j个地点与t个更新后的区域中心距离最小,则将第j个地点化为第t个区域中心所在的 区域,如此循环,直至区域中心和化入区域内的地点不再变化,则区域划分完成;
[0069]
用户u
i
的原始向量以转换为基于区域的用户向量使用协同过滤技术来对未知的区 域进行填充,如公式(27)所示:
[0070][0071]
其中,是用户u
i
的区域向量中未知的第z个维度,即代表了没有访问过的区域, group(i)是用户的相似用户群体,sim
i,p
计算的是用户u
i
与他们用户之间的相似度,表示 的是相似用户的区域向量中的第z个维度,相似度的计算方式如公式(28)所示:
[0072][0073]
公式4.5采用的是余弦相似度,得到用户u
i
与其他用户的相似度后,确定相似用户群体 group(i);
[0074]
兴趣点的公众流行度,如公式(29)所示:
[0075][0076][0077][0078]
其中,是用户u
i
在区域条件下访问地点l
j
的概率,是用户u
i
自身的初始区域访 问概率,是根据公众流行度计算的热度访问概率,r
z
是地点l
j
所属的区域,计算 的是用户区域向量之和,pop(l
j
)代表的是地点的访问人数,pop(r
z
)代表的是区域的访问人数。
[0079]
作为改进,所述s122构建距离偏好模型,计算用户u
i
访问地点l
j
地点上的距离得分
的过程如下:
[0080]
所述距离偏好模型如公式(32)所示:
[0081]
γ(x,θ)=a

bx
′ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(32)
[0082]
log pro(l
j
,l
v
)=log a b log dis(l
j
,l
v
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(33)
[0083]
pro(l
j
,l
v
)=a
×
dis(l
j
,l
v
)
b
ꢀꢀꢀꢀ
(34)
[0084]
其中,x表示的是l
j
和l
v
之间的距离,x

是距离的对数值,θ是未知参数集合,a

表示log a, γ(x,θ)=logpro(l
j
,l
v
),l
j
是未知地点,l
v
是用户u
i
曾经访问过的某个地点,a和b分别是幂律 分布的参数,dis表示的是两个地点之间的距离,log是以2为底数的对数计算;
[0085]
采取基础的最小二乘法来获取目标参数a和b,通过寻找最优的a

和b,来使得损失函数最 小化,所述损失函数如公式(35)所示:
[0086]
min
θ
1/2∑
x∈ds
(γ(x,θ)

ρ(x))2 δ||θ||2ꢀꢀ
(35)
[0087]
其中,ds是训练数据集,x是训练数据集中真实存在的相邻签到地点之间的距离,ρ(x)是 该距离的真实发生概率的对数值,δ为权重系数,通过寻找最优的a

和b,来使得损失函数最 小化,最终,将a

还原成a,基于幂律分布的公式(34)便就得到了确认。
[0088]
设用户u
i
的历史地点集合为l(u
i
),那么未知地点l
j
相对于用户的地点访问概率如公式(36) 所示:
[0089][0090]
对地点访问概率进行归一化来表示用户u
i
在该地点上的距离得分如公 式(37)所示:
[0091][0092]
其中,min
geo
(u
i
)表示对于用户u
i
而言所有未知地点中的最小访问概率,max
geo
(u
i
)表 示对于用户u
i
而言所有未知地点中的最大访问概率。
[0093]
作为改进,所述s123构建类别偏好模型,计算用户u
i
访问地点l
j
地点上的类别得分的过程如下:
[0094]
设包含m个用户的集合u和包含s个类别的集合c共同组成了原始用户类别矩阵uc:u
×
c, 其中每个元素代表了用户访问某个类别的次数;
[0095]
设原始用户类别矩阵uc的用户隐因子矩阵和类别隐因子矩阵分别为u
lf
和c
lf
,用户u
i
对 于特定类别c
v
的预测如公式(38)所示:
[0096][0097]
其中,和分别是用户u
i
和类别c
v
对应的隐因子向量;
[0098]
设对于用户u
i
而言,c
v
是已经观测的类别,即正例,c
z
是未观测类别,即负例,正例和负 离之间的差值如公式(39)所示:
[0099][0100]
其中,是未观测类别c
z
对应的隐因子向量,采用sigmoid函数将所述差值转化
为概率 值,如公式(40)所示:
[0101][0102]
通过对训练数据集中的真实类别访问情况进行统计,每个用户的正负类别配对情况都能 够被计算,设目标函数如公式(41)所示:
[0103]
goal
cate
=∏
u,v,z
pro(c
v
>c
z
)
ꢀꢀ
(41)
[0104]
其中,u、v和z代表了数据集中用户u的正负类别配对情况;
[0105]
采用梯度下降法来迭代更新u
lf
和c
lf
,会目标函数(41)逐渐收敛;
[0106]
用户u
i
在地点l
i
上的类别偏好分数进行归一化计算,如公式(42)所示:
[0107][0108]
其中,c
v
是地点l
j
的对应类别,min
cate
(u
i
)表示对于用户u
i
而言所有类别中的最小值, max
cate
(u
i
)则表示对于用户u
i
而言所有类别中的最大值。
[0109]
相对于现有技术,本发明至少具有如下优点:
[0110]
本发明将联合神经网络和移动上下文的推荐相结合,两个模型相辅相成,一方面,神经 网络强大的映射能力使得深度挖掘用户和地点之间的潜在偏好成为可能。另一方面,神经网 络能够很好地适应各种复杂稀疏的数据分布。推荐系统和其他领域的预测任务不同,其应当 具备一定的合理性和解释性。兴趣点相关的移动上下文就能够满足这个要求。有效地处理移 动上下文能够直观明了地揭示用户的显式偏好,且使得推荐结果更加合理。
[0111]
神经网络虽然不具备推荐的解释性,但能够挖掘用户和地点之间的深层潜在关联。移动 上下文虽然不能刻画用户的深层地点偏好,但能够在显式偏好的条件下增强推荐的合理性和 解释性。因此,将这相辅相成的二者进行结合便实现更为精准和全面的综合推荐。简而言之, 联合神经网络模型和移动上下文的兴趣点推荐模型相互弥补自身的不足,继而使得结合的最 终效果胜于单独任何一方。
附图说明
[0112]
图1为联合神经网络模型的框架图。
[0113]
图2为局部特征提取层的框架图。
[0114]
图3为降维神经网络的框架图。
[0115]
图4为关系挖掘网络的框架图。
[0116]
图5为联合神经网络的框架图。
[0117]
图6为基于神经网络和移动上下文的兴趣点推荐方法的框架图。
[0118]
图7为区域划分的原理简图。
[0119]
图8为距离偏好模型计算的框架图。
[0120]
图9为类别偏好模型计算的框架图。
[0121]
图10第一种策略下对ndcg和recall的影响,图10(a)为西雅图数据下ndcg和recall 的影响,图10(b)为洛杉矶数据下ndcg和recall的影响。
[0122]
图11第二种策略下对ndcg和recall的影响,图11(a)为西雅图数据下ndcg和recall 的影响,图11(b)为洛杉矶数据下ndcg和recall的影响。
[0123]
图12本发明策略下对ndcg和recall的影响,图12(a)为西雅图数据下ndcg和
recall 的影响,图12(b)为洛杉矶数据下ndcg和recall的影响。
具体实施方式
[0124]
下面对本发明作进一步详细说明。
[0125]
兴趣点推荐,旨在通过挖掘用户的历史签到记录来求解用户的个人偏好,然后向其推荐 可能感兴趣的新地点。设有包括m个用户的用户集合u={u1,u2,u3,...,u
m
},以及n个地点的 地点集合l={l1,l2,l3,...,l
n
}。这些全体的用户和地点构成了用户地点矩阵r:u
×
l,其中r
ij
表 示了用户u
i
和地点l
j
之间的原始联系,即用户u
i
访问地点l
j
的次数。
[0126]
r反映了原始的用户和地点之间的联系,这种联系是显式且可观测的。也可以使用由0 或1表示的指示关系,即如果用户访问了某个地点,则取值为1,如果未曾访问过则为0。兴 趣点推荐算法的目的就是基于已观测的原始矩阵r,来预测没有被观测的项,也就是预测用 户在新地点上的访问行为。
[0127]
参见图6,基于神经网络和移动上下文的兴趣点推荐方法,包括如下步骤:
[0128]
s100:构建训练数据集ds,训练数据集ds中训练样本是第i个用户u
i
和第j个地点l
j
构 成的数据组。
[0129]
定义用户集合,地点集合和用户地点矩阵,其中用户集合表示为u={u1,u2,u3,...,u
m
},m表示用户数量,地点集合表示为l={l1,l2,l3,...,l
n
},n表示地点的数量,用户地点矩阵表 示为r:u
×
l,r
ij
表示了用户u
i
和地点l
j
之间的原始联系,即用户u
i
访问地点l
j
的次数。
[0130]
s110:建立联合神经网络模型,并对联合神经网络模型进行训练,计算用户访问未知地 点的预测概率值;
[0131]
参见图1,所述建立联合神经网络模型计算用户访问未知地点的预测概率值的过程如下:
[0132]
s111:构建特征提取网络对每个训练样本进行特征的提取,得到每个样本的用户初级特 征向量和地点初级特征向量。
[0133]
参见图2,所述构建特征提取网络为局部特征提取层,具体如下:
[0134]
用户u
i
的原始向量以表示,地点l
j
的原始向量以表示,第一层神经网络和输入之间采 用局部学习的方式,定义一个局部窗口window大小的数值,将输入或按照该局部窗口 window大小划分为若干局部模块,同时,根据局部窗口的数量将第一层神经网络划分为不同 的部分,输入或的每个局部模块与第一层神经网络的每个部分对应,局部特征学习让第一 层的神经元专注于各自小范围内的特征信息。
[0135]
表示用户向量或地点向量的输入层如公式(3)所示,进行局部特征提取的第一层神经网 络如公式(4)所示。
[0136][0137][0138]
其中,w_n是根据局部窗口大小得到的局部窗口个数(window number),和in1分
别是 第一层神经网络中第一个局部窗口对应的网络权重和输入,是第一个局部窗口的网络偏置 项,和in2分别是第一层神经网络中第二个局部窗口对应的网络权重和输入,是第二个 局部窗口的网络偏置项,和in
w_n
分别是是第一层神经网络中第w_n个局部窗口对应的网 络权重和输入,第w_n个局部窗口的网络偏置项,con表示拼接操作,即将所有局部学习 的结果整合在一起作为第一层网络的输出,f是激活函数,采用relu形式,如公式(5)所示:
[0139]
f(x)=max(0,x)
ꢀꢀ
(5)。
[0140]
由于输入接收层的原始数据所包含的信息最多,因此神经网络的第一层显得尤为重要。 局部学习能够让神经网络更专注于规定范围内的学习,而不是大范围的全连接学习。这利于 网络更有效地从输入数据中学习初始特征信息,而且不同局部窗口之间互不干扰,从而实现 局部式的“因地制宜”。
[0141]
s112:构建降维网络对每个训练样本的用户初级特征向量和地点初级特征向量分别进行 向量降维处理,得到每个训练样本对应的用户高级特征向量和地点高级特征向量,且用户高 级特征向量和地点高级特征向量的维数相等。
[0142]
局部学习阶段尽可能地保留了原始输入数据的信息,但得到的初级特征向量并不能直接 用于后续的推荐任务中,一是没有深层次地学习特征,二是维度仍然较高,不利于计算。因 此,本发明搭建了降维神经网络来进一步地学习高阶特征,并对向量的维度进行缩减。
[0143]
所述s112构建的降维网络具体如下:
[0144]
设包含局部特征提取层在内的降维神经网络一共有m层,如公式(6)所示:
[0145]
layer
k
=f(w
k
layer
k
‑1 b
k
),k=2,3...,m
ꢀꢀꢀꢀ
(6)
[0146]
其中,w
k
和b
k
分别是第k层网络的权重和偏置,layer
k
‑1是k

1层的输出结果,当k=2时, 输入来自于局部特征提取层的结果,f采用relu激活函数;神经网络通过逐层映射将输入变 换到其他的特征空间中,这存在一个问题,即会使得原有的数据分布发生改变。虽然使用降 维网络来提取特征信息,但仍然应该遵循原始的数据分布,因为后续的神经网络要挖掘用户 和地点之间的潜在关系。一旦数据分布发生了改变,那么可能会导致用户和地点的复杂关系 发生变化,挖掘出错误的结论。
[0147]
在每一层神经网络发挥非线性作用之前,先将中间输入拉回到标准的正态分布,如(7) 所示:
[0148]
layer
k
=f(bn
k
(w
k
layer
k
‑1 b
k
))
ꢀꢀ
(7)
[0149][0150][0151]
其中,bn
k
是第k层的批量归一化处理,它既能够处理数据的分布,又能在一定程度上 缓解过拟合,γ和β是需要训练得到的参数,用于补偿网络的映射能力,∈是极小量参数,防 止分母为0,bn
k
在单个神经元上的计算形式,如公式(8)所示,neu
mid
代表了未经激活函 数处理的单个神经元的中间输出值,如公式(9)所示,和分别是该神经元在层权重 w
k
和层偏置b
k
的对应部分,是该神经元在输入layer
k
‑1的对应部分,μ
(neu
mid
)计 算的是一个批次的训练数据集在该神经元上的平均值,σ(neu
mid
)2计算的是方差;
[0152]
μ(neu
mid
)和σ(neu
mid
)2分别如公式(10)和公式(11)所示:
[0153]
μ(neu
mid
)=1/|batch|∑
z
x
z
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(10)
[0154]
σ(neu
mid
)2=1/|batch|∑
z
(x
z

μ(neu
mid
))2ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(11)
[0155]
其中,batch代表了一个训练批次,x
z
代表了训练批次中的单个输入数据,每层网络中的 每一个神经元都在激活函数之前执行批量归一化处理,将数据分布进行重新调整,之后才让 激活函数执行非线性映射操作;
[0156]
构建两个结构完成相同的降维降维网络,即用户降维降维网络和地点降维降维网络,用 户降维降维网络面向用户,地点降维降维网络面向地点,继而将各自的高阶信息提取出来, 同时达到降维的作用。经过向量降维网络后,用户向量和地点向量的新表达分别如公式(12) 和公式(13)所示:
[0157][0158][0159]
其中,是用户降维降维网络的批量归一化、神经网络权重和偏置,是用户降维降维网络的批量归一化、神经网络权重和偏置,是面向地点降维降维网络的批量归一化、神经网络权重和偏置,和分别是降维后 的用户高级特征向量和地点高级特征向量。新向量包含高阶特征,且冗余信息较少,维度较 小。整个向量降维网络如图3所示。
[0160]
s113:针对每个训练样本将对应的用户高级特征向量和地点高级特征向量进行拼接得到 每个训练样本高阶的特征组合信息。
[0161]
使用神经网络技术的主要目的就是挖掘用户和地点之间的潜在关系。原始的用户向量和 地点向量通过降维神经网络后,变成了和这两个新向量包含原始数据的高阶特征,且不 含冗余信息,维度更小。因此,这两个新向量足以用于后续的推荐算法,适合深层次的计算。
[0162]
所述针对每个训练样本将对应的用户高级特征向量和地点高级特征向量进行拼接得到每 个训练样本高阶的特征组合信息的过程具体为:将和组合在一起,如公式(14)所示:
[0163][0164]
其中,运算符表示的是拼接操作,是和的唯一配对向量,是用户u
i
和地点l
j
之 间高阶的特征组合信息,单个用户和单个地点之间仅有唯一的配对向量,因此能够有针对性 的挖掘用户和地点之间的潜在关系。这种专属的配对信息在进行关系挖掘的时候不会受其他 用户和地点的影响。
[0165]
s114:构建关系挖掘网络,将每个训练样本高阶的特征组合信息作为输入,输出每个训 练样本中用户与配对的地点之间的预测结果co
ij

[0166]
所述构建关系挖掘网络,具体公式(15)所示,同时加入了drop

out来缓解关系挖
掘网 络的过拟合现象,如公式(16)所示:
[0167][0168][0169]
其中,关系挖掘网络的层数为n,w
k
和b
k
是每一层网络的权重和偏置,f是relu激活函 数,是由drop计算得到的由0或1表示的向量,其维度和所在层的神经元个数保持一致, drop函数在生成向量的时候,每一个维度取决于bernoulli(p),而bernoulli(p)会按照概率p生 成为1或0。在降维神经网络中,通过batch

normalization来达到保持数据分布的作用。在 关系挖掘网络中,采用丢弃神经元的drop

out形式,避免了网络的过度学习。通过挖掘的 潜在关系来对未知的地点进行预测和推荐,一是不应该让神经网络在训练数据上过度拟合, 二是不需要对唯一配对向量进行特征提取。经过关系挖掘网络后,得到单个输出值co
ij
, 其表示的是用户u
i
和地点l
j
之间的潜在关系。潜在关系揭示了用户和地点之间的关联程度。关 系挖掘网络如图4所示。
[0170]
s115:构建用户隐因子矩阵u
lf
和地点隐因子矩阵l
lf
,计算矩阵分解的预测结果mf
ij

[0171]
构建用户隐因子矩阵u
lf
和地点隐因子矩阵l
lf
,并初始化,lf是laten factor),通过矩 阵分解对于推荐预测进行校正。
[0172]
矩阵分解的预测结果如公式(17)所示:
[0173][0174]
其中,是用户u
i
在u
lf
中的对应向量,是地点l
j
在l
lf
中的对应向量;
[0175]
矩阵分解的预测结果可以在联合网络中对关系挖掘的结果做进一步的加强。通过神经网 络挖掘出来的潜在关系可以作为一种独有的隐式偏好,其深层次地刻画了用户。如果进一步 地联合深度矩阵分解,则能充分发挥隐式偏好的作用。
[0176]
s116:构建联合神经网络,根据预测结果co
ij
和矩阵分解的预测结果mf
ij
计算最终预测 结果union
ij
,并采用sigmoid函数将union
ij
转化为预测概率值。
[0177]
参见图5,构建联合神经网络,如公式(18)所示:
[0178]
union
ij
=f(w
co
co
ij
w
mf
mf
ij
b)
ꢀꢀꢀꢀ
(18)
[0179]
其中,w
co
和w
mf
分别为co
ij
和mf
ij
对应的网络权重,b是网络的偏置;
[0180]
所述s430中采用sigmoid函数将union
ij
转化为概率值,所述s500根据损失值进行参数 更新时,也对联合神经网络的参数进行更新。
[0181]
通过构建关系挖掘网络和深度矩阵分解,得到了两种不同的预测结果,即co
ij
和mf
ij
。co
ij
表示的是用户u
i
和地点l
j
之间的潜在关系,而mf
ij
则可以看成是对推荐结果的加强。为了将关 系挖掘和矩阵分解进行结合,整个联合神经网络仅有输出层发挥作用,因为联合神经网络的 目的仅在于结合co
ij
和mf
ij
,得到了最终的用户u
i
访问地点l
j
的概率union
ij
。sigmoid函数如 公式(19)所示:
[0182]
f(x)=1/(1 e

x
)
ꢀꢀ
(19)
[0183]
s117:计算损失,计算u
i
对l
j
是否感兴趣的真实概率值与u
i
对l
j
是否感兴趣的预测概率值 之间的损失,根据损失值更新特征提取网络、降维网络,关系挖掘网络,隐因子矩阵
u
lf
和地 点隐因子矩阵l
lf
和联合神经网络的参数,再将所有训练样本依次输入更新参数后的特征提取 网络、降维网络和关系挖掘网络进行继续训练。
[0184]
当损失不在下降时,特征提取网络、降维网络和关系挖掘网络训练完成。
[0185]
联合神经网络的最终输出union
ij
代表了用户访问未知地点的概率,同时也是生成推荐结 果的依据。因为union
ij
是概率值。
[0186]
所述计算u
i
对l
j
是否感兴趣的真是概率值与u
i
对l
j
是否感兴趣的预测概率值之间的损失使 用的损失函数为如公式(20)所示:
[0187]
loss=

∑r
ij∈batch
(i(r
ij
)log union
ij
(1

i(r
ij
))log(1

union
ij
))(20)
[0188]
其中,i表示的是指示函数,如果r
ij
大于0,i(r
ij
)的值为1,否则为0,损失函数中的r
ij
属 于当前采样的批次。基于指示函数,原有的兴趣点推荐任务可以看作是二分类任务,即“访问
”ꢀ
与“不访问”的选择。
[0189]
s118:对于用户集合中的任一用户,预测该用户对多个未知地点是否感兴趣,将该用户 和多个地点输入训练好的特征提取网络、降维网络和关系挖掘网络,得到该用户对多个位置 地点的预测概率值。
[0190]
s120:建立移动上下文的兴趣点推荐模型,计算用户访问未知地点的预测得分,具体过 程如下:设所有的地点类别构成了类别集合c={c1,c2,c3,...,c
s
},其类别总数为s。
[0191]
s121:参见图7,通过聚类算法,同时结合地点自身的流行度,计算用户u
i
在区域条件 下访问地点l
j
的概率具体过程如下:
[0192]
用户在地点上的访问行为通常比较稀疏,而在区域上的访问行为更加稠密和直观。区域, 指的是若干邻近兴趣点的集合。探索用户的区域偏好能够进一步缩小候选兴趣点的范围,从 而增强推荐的命中率。采用k

means聚类方法将所述地点进行聚类并划分为re区域,如公式 (26)所示:
[0193][0194]
其中,区域集合为region={r1,r2,r3,...,r
re
},区域个数为re,re为人为设定的经验值,l
j
是属于区域r
k
的兴趣点,μ(r
k
)表示的是区域的聚类中心,dis计算的是地点l
j
到μ(r
k
)的距离;
[0195]
随机选取区域的区域中心作为初始中心,计算每个地点到re个初始中心的加权距离,若 第j个地点与第t个初始中心距离最小,则将第j个地点化为第t个初始中心所在的区域,再 次随机选取区域中心更新初始中心,并计算每个地点与更新后的re个区域中心的加权距离, 若第j个地点与t个更新后的区域中心距离最小,则将第j个地点化为第t个区域中心所在的 区域,如此循环,直至区域中心和化入区域内的地点不再变化,则区域划分完成;
[0196]
虽然区域划分的依据是距离,但区域本身是一种不同于距离因素的移动上下文。用户u
i
的 原始向量以转换为基于区域的用户向量使用协同过滤技术来对未知的区域进行填充, 如公式(27)所示:
[0197][0198]
其中,是用户u
i
的区域向量中未知的第z个维度,即代表了没有访问过的区
域, group(i)是用户的相似用户群体,sim
i,p
计算的是用户u
i
与他们用户之间的相似度,表示 的是相似用户的区域向量中的第z个维度,相似度的计算方式如公式(28)所示:
[0199][0200]
公式4.5采用的是余弦相似度,得到用户u
i
与其他用户的相似度后,确定相似用户群体 group(i),确定相似用户群体group(i)采用现有的大多数基于协同过滤的推荐方法进行。本 发明中相似用户群体个数设置为35。
[0201]
虽然被填充的区域向量足以直观地表明用户的区域访问行为,但区域中的不同兴趣点存 在着差异。区域的目的是辅助兴趣点推荐,故最终需要细化到具体的兴趣点上。考虑到公众 对于单个用户的出行影响,在区域的基础上加入兴趣点的公众流行度,兴趣点的公众流行度, 如公式(29)所示:
[0202][0203][0204][0205]
其中,是用户u
i
在区域条件下访问地点l
j
的概率,是用户u
i
自身的初始区域访 问概率,是根据公众流行度计算的热度访问概率,r
z
是地点l
j
所属的区域,计算 的是用户区域向量之和,pop(l
j
)代表的是地点的访问人数,pop(r
z
)代表的是区域的访问人数, 上述公式中的加1操作是为了防止概率为0。
[0206]
地理距离,作为移动上下文中最为关键的因素,在兴趣点推荐中扮演着重要的角色。在 一个城市中,除开长途旅行或观光,用户通常情况下倾向于访问那些距离历史地点集合较近 的新地点。随着距离的增长,用户访问的倾向逐渐降低,即用户会优先探索其周边的兴趣点。
[0207]
s122:参见图9,构建距离偏好模型,计算用户u
i
访问地点l
j
地点上的距离得分具 体过
[0208]
程如下:所述距离偏好模型如公式(32)所示:
[0209]
γ(x,θ)=a

bx
′ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(32)
[0210]
log pro(l
j
,l
v
)=log a blog dis(l
j
,l
v
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(33)
[0211]
pro(l
j
,l
v
)=a
×
dis(l
j
,l
v
)
b
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(34)
[0212]
其中,x表示的是l
j
和l
v
之间的距离,x

是距离的对数值,θ是未知参数集合,a

表示log a, γ(x,θ)=log pro(l
j
,l
v
),l
j
是未知地点,l
v
是用户u
i
曾经访问过的某个地点,a和b分别是幂律 分布的参数,dis表示的是两个地点之间的距离,log是以2为底数的对数计算。
[0213]
采取基础的最小二乘法来获取目标参数a和b,通过寻找最优的a

和b,来使得损失函数最 小化,所述损失函数如公式(35)所示:
[0214]
通过最小化误差的平方和来寻找数据的最佳函数匹配,即拟合目标函数,该目标
函数在 本小节中则是模拟距离偏好的线性模型。利用最小二乘法,可以简便地求得未知的参数,其 优化的损失函数如公式(35)所示。
[0215]
min
θ 1/2∑
x∈ds
(γ(x,θ)

ρ(x))2 δ||θ||2ꢀꢀ
(35)
[0216]
其中,ds是训练数据集,x是训练数据集中真实存在的相邻签到地点之间的距离,ρ(x)是 该距离的真实发生概率的对数值,由于用户的签到数据可以形成地点序列,故足以直接统计 出所有不同的距离x,以及这些距离出现的次数和概率ρ(x),公式(35)的最后一项是正则化 项,δ为权重系数,通过寻找最优的a

和b,来使得损失函数最小化,最终,将a

还原成a,基 于幂律分布的公式(34)便就得到了确认。
[0217]
设用户u
i
的历史地点集合为l(u
i
),那么未知地点l
j
相对于用户的地点访问概率如公式(36) 所示:
[0218][0219]
公式(36)是以未知地点l
j
对于历史地点集合l(u
i
)的平均概率来表示访问概率的,之所 以不采用连乘形式,是因为当用户的历史地点过多的时候,连乘会导致本身就偏小的距离概 率变得更加的小。为了防止小数过小并考虑到后续的计算,本发明决定采用平均概率的形式。 只有当未知地点相距所有历史地点都较近的时候,平均概率才会越高。
[0220]
对地点访问概率进行归一化来表示用户u
i
在该地点上的距离得分如公 式(37)所示:
[0221][0222]
其中,min
geo
(u
i
)表示对于用户u
i
而言所有未知地点中的最小访问概率,max
geo
(u
i
)表 示对于用户u
i
而言所有未知地点中的最大访问概率。
[0223]
类别因素可以作为一种辅助兴趣点推荐的有效特征。对用户的类别记录进行分析和挖掘, 可以充分获取用户的类别偏好,从而将该偏好映射为对地点的访问分数,不同于直接对地点 进行预测,研究用户对不同类别的相对排序显得更有意义。
[0224]
s123:参见图12,构建类别偏好模型,计算用户u
i
访问地点l
j
地点上的类别得分具体过程如下:
[0225]
设包含m个用户的集合u和包含s个类别的集合c共同组成了原始用户类别矩阵uc:u
×
c, 其中每个元素代表了用户访问某个类别的次数;
[0226]
设原始用户类别矩阵uc的用户隐因子矩阵和类别隐因子矩阵分别为u
lf
和c
lf
,用户u
i
对 于特定类别c
v
,的预测如公式(38)所示,c
v
是未知地点l
j
的对应类别:
[0227][0228]
其中,和分别是用户u
i
和类别c
v
对应的隐因子向量;
[0229]
设对于用户u
i
而言,c
v
是已经观测的类别,即正例,c
z
是未观测类别,即负例,正例和负 离之间的差值如公式(39)所示:
[0230][0231]
其中,是未观测类别c
z
对应的隐因子向量,公式(39)是用绝对值表示的差值。排序 模型的目标是希望正例和负例之间的差值越大越好,即充分地将正向偏好和负向偏
好区分开 来。采用sigmoid函数将所述差值转化为概率值,如公式(40)所示:
[0232][0233]
通过对训练数据集中的真实类别访问情况进行统计,每个用户的正负类别配对情况都能 够被计算,设目标函数如公式(41)所示:
[0234]
goal
cate
=∏
u,v,z pro(c
v
>c
z
)
ꢀꢀ
(41)
[0235]
其中,u、v和z代表了数据集中用户u的正负类别配对情况;
[0236]
采用梯度下降法来迭代更新u
lf
和c
lf
,会目标函数(41)逐渐收敛;
[0237]
用户u
i
在地点l
j
上的类别偏好分数进行归一化计算,如公式(42)所示:
[0238][0239]
其中,c
v
是地点l
j
的对应类别,min
cate
(u
i
)表示对于用户u
i
而言所有类别中的最小值, max
cate
(u
i
)则表示对于用户u
i
而言所有类别中的最大值。
[0240]
s124:将区域概率、距离分数、类别分数进行融合构建移动上下文的兴趣点推荐模型, 如公式(25)所示:
[0241][0242]
其中,α是控制距离分数的权重系数,α是人为设定的经验值。
[0243]
5200:进行联合神经网络模型和移动上下文的兴趣点推荐模型的融合,计算用户访问未 知地点的预测分数,根据所述预测分数由大到小排序,得到该用户对未知地点感兴趣程度的 推荐列表;
[0244]
进行联合神经网络模型和移动上下文的兴趣点推荐模型的融合的过程如公式(1)所示:
[0245][0246]
其中,final
ij
是模型融合后的预测分数,nor是归一化函数,β是控制基于联合神经网络 的推荐算法的混合权重,union
ij
是联合神经网络模型得到预测概率值,是移动上 下文的兴趣点推荐模型得到的预测得分。
[0247]
实验验证:
[0248]
推荐系统的完整流程包括召回和排序两个阶段。“召回”指的是从大量的地点中先行选取 少部分的候选地点,然后这部分候选地点才真正地参与后续的预测评分计算。召回的目的在 于缩小候选项的范围,因为现实世界的项目数量过于庞大,没有必要去计算用户在所有项目 上的偏好。“排序”指的是对取出的候选地点进行偏好预测的分数计算,然后根据分数大小进 行排序,从而生成top

k的推荐列表。
[0249]
对于兴趣点推荐而言,有多种策略将联合神经网络模型和移动上下文的兴趣点推荐模型 进行结合。第一种策略是首先按照基于移动上下文的兴趣点推荐模型进行地点的先行召回, 然后使用基于联合神经网络的推荐算法进行精确排序。第二种策略是在第一种策略的基础上 将两种算法进行替换。第三种策略是从模型融合的角度出发,按照一定比例混合两种模型的 预测输出值。第一种和第二种策略遵循先召回、后排序的准则。第三种策略则是模型融合。
[0250]
实验部分主要围绕如下几个方面展开了实验:
[0251]

在第一种和第二种策略的召回阶段中,对比不同的召回比例。
[0252]

在第三种策略中,明确模型融合的混合权重。
[0253]

对比所有策略的最终结果,为不同场景选取合适的策略。
[0254]
1.实验数据集
[0255]
本文所有的数据集都来自于基于地理位置的社交网站foursquare。第三章使用的城市数 据是洛杉矶数据集和西雅图数据集。第四章使用的城市数据是纽约数据集和旧金山数据集。
[0256]
为了兼顾两个章节的不同算法,本节选取西雅图数据集和旧金山数据集进行实验。因为 在第三章和第四章中已经进行了数据集的划分,所以本节可以直接使用已经划分好的数据集。 数据集的具体情况如表1所示。
[0257]
表1数据集详情
[0258][0259]
2.评价标准
[0260]
采用ndcg和recall作为实验的评价指标。ndcg和recall都已经在前面的章节中进行过 具体介绍,故不再赘述。ndcg和recall分别如公式(21)和公式(22)所示。
[0261]
ndcg@k=1/m∑
u
dcg
u
@k/idcg
u
@k
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(21)
[0262]
recall@k=1/m∑
u
|rec
u
∩test
u
|/|test
u
|
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(22)
[0263]
其中,k代表了推荐的个数,rec
u
是为用户u生成的基于联合神经网络和移动上下文的综 合推荐列表。在本章的三种推荐策略下,rec
u
对应于和test
u
是用户 真正感兴趣点的地点,即测试数据,m是用户总数,ndcg的计算需要使用到dcg和idcg。idcg 反映的是理想情况下的排序,而dcg反映的是真实的排序情况,它们分别如公式(23)和公 式(24)所示。
[0264]
dcgu@k=∑z 1/log(z 1)
ꢀꢀꢀꢀ
(23)
[0265][0266]
3.实验设置
[0267]
首先,随机地选取70%作为训练数据,剩下的30%作为测试数据。其次,联合神经网络 模型需要提前训练,训练过程中的batch

size(一个批次的大小)为512,初始的学习率为0.001。 接着,移动上下文的兴趣点推荐模型中的部分内容也需要提前求解,参见在先申请202010148082x基于区域划分和上下文影响的兴趣点推荐方法。
[0268]
在所有的准备工作完成后,则可以进行实验。需要通过实验来明确的参数的详细信息如 表2所示。
[0269]
表2参数实验
[0270][0271]
4.实验结果分析
[0272]
在第一种策略中,召回阶段使用的是基于移动上下文的推荐算法,排序阶段使用的是基 于联合神经网络的推荐算法。第一种策略的实验结果如图10所示。对于两个数据集而言,召 回阶段的最佳召回比例均为10%。
[0273]
不难看出,两个数据集呈现一致的规律,即在所有的推荐个数下,ndcg和recall都随着 召回比例的上升而下降。虽然从数值的角度来看,下降的幅度并非很大,但仍然说明了先行 召回的地点数量不宜过多。由于排序阶段的工作是基于召回阶段的结果,故召回的候选地点 集合很大程度上决定了排序的质量。
[0274]
在第二种策略中,召回阶段使用的是基于联合神经网络的推荐算法,排序阶段使用的是 基于移动上下文的推荐算法。第二种策略的实验结果如图11所示。两个数据集同样存在数值 变化幅度较小的现象。
[0275]
对于西雅图数据集而言,当推荐个数k=10和k=20的时候,10%是最佳的召回比例,而 当k=30的时候,最佳召回比例为20%,略胜于10%。由此可见,小比例仍然能带来最合适 的推荐结果。从综合的角度而言,本发明将西雅图数据集的召回比例选取为10%。
[0276]
对于旧金山数据集而言,ndcg和recall存在不同的规律。无论是何种推荐个数,ndcg 的最佳召回比例都是10%。而只有当k=10的时候,recall的最佳召回比例才是10%,其余的 时候都是40%。这可能是因为ndcg和recall在该数据集下产生了差异性的计算结果。考虑 到较小的召回数量有助于节省排序阶段的运行时间,将旧金山数据集的最佳召回比例选取为 10%。
[0277]
从图10和图11的结合可以看出,策略二明显优于策略一,即同样的推荐个数和召回比 例下,策略二能够实现更高的ndcg和recall。这表明隐式偏好适合于先行召回,显式偏好 适合于排序。联合神经网络捕捉用户的隐式偏好,从而在大范围内的地点中初步地筛选出具 有潜在访问可能的地点。移动上下文揭示用户的显式偏好,直观明了地为每一个候选地点进 行预测计算,继而完成在显式偏好条件下的排序推荐。
[0278]
在第三种策略即本发明方法中,将基于联合神经网络的算法的输出与基于移动上下文的 算法的输出按照一定混合权重进行结合。第三种策略的实验结果如图12所示。
[0279]
对于西雅图数据集而言,所有的曲线都是先上升后下降。top

30在混合权重为0.2的时 候实现最优的ndcg和recall。而top

20的最优ndcg和recall则是发生在混合权重为0.4和 0.1的时候,top

10的最优ndcg和recall发生在混合权重为0.4和0.2的时候。所有的曲线 在达到峰值后开始显著下降,说明适当地加入一些隐式偏好就能够最大程度地提升混合模型。
[0280]
对于旧金山数据集而言,所有的曲线同样呈现先上升后下降的规律。top

30在混合权重 分别为0.2和0.1的时候拥有最优的ndcg和recall。而top

20的最优ndcg和recall则是发 生在混合权重为0.3和0.1的时候,top

10的最优ndcg和recall发生在混合权重为
0.5和0.2 的时候。
[0281]
总的来看,对于两个数据集而言,所有的ndcg曲线的变化幅度大于所有的recall曲线。 同时,top

10的ndcg曲线有着最大的变化幅度。这表明混合权重对于排序结果的影响更为 深刻。但考虑到推荐的核心目标是提升命中程度,因此站在最大recall的角度,将西雅图数 据集和旧金山数据集的最佳混合权重分别选取为0.2和0.1。值得一提的是,如果以搜索为核 心目标,那么在其他更大值的混合比例下,ndcg才能达到最大。
[0282]
在最优参数的条件下,三种推荐策略的结果对比如表3所示。第二种策略在ndcg方面 是最优的,而第三种策略在recall方面是最优的。第一种策略差于其余两种策略。策略一和 策略二属于同一种类型,且在前面已经进行过对比。策略三从模型融合的角度,能够比先召 回、后排序的模式命中更多兴趣点。当数据集特别庞大的时候,先行召回一定的地点也许更 加适合推荐系统。如果推荐列表是由上至下的竖状排列,即以搜索为主的推荐场景,应当选 择以排序为主的第二种策略。如果推荐列表是直接全部地展示给用户,例如网站首页的推荐 板块,那么应当采取以吸引用户点击为主的第三种策略。
[0283]
表3三种推荐策略的对比
[0284][0285][0286]
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施 例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进 行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利 要求范围当中。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜