一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于最大化吞吐量的基站内容缓存与协作内容预取方法

2022-06-05 03:28:53 来源:中国专利 TAG:


1.本发明属于高铁通信技术领域,涉及一种基于最大可提供吞吐量的基站内容缓存与协作内容预取方法。


背景技术:

2.随着移动网络的不断发展,人们在高铁列车运行途中,也趋向于有更大的带宽需求,使用移动设备请求视频内容。然而在乘坐高铁时,由于高铁以将近300km/h高速移动,用户在请求内容时会快速跨过每个小区,不断与基站进行连接建立、断开,请求数据状态不稳定;自由空间存在的路径损耗以及由于高速移动产生的多普勒频移,都会对网络信号质量造成一定程度的影响,用户服务质量欠佳。在数据流量高峰期,回程链路负担过重,数据中心对用户请求无法正常满足,并且同一数据被重复多次请求,加大了通信信令开销,也会加重数据中心的网络负担。
3.在无线边缘端使用缓存可以有效的处理诸如视频播放的庞大流量,请求内容重复,传输信道不稳定等问题。在非高峰期对用户请求进行预测缓存,方便用户在流量高峰期直接在本地请求数据,由于请求的内容是直接从靠近用户端的服务器发送,不需要回程成本,所以通过这种方式可以缓解回程链路压力,减少网络拥塞,降低服务时延。对数据进行预先获取也是提高用户服务质量的一种方法,根据用户活动轨迹预测用户下一次请求位置,该处基站根据当前请求内容从数据中心预取数据。
4.对于高速移动中的用户,多普勒效应是不可忽略的,目前大多通信模型都期望通过作用物理层来消除这一影响,但是,这个方法比较复杂并且不能完全抵消这一效应,特别是在未来基站工作频率、列车移动速度都大幅提升,这一影响将会更加明显。
5.因此,亟需一种新的缓存方法来解决由于高铁高移动特性导致用户与基站连接频繁切换,逗留时间较短等问题,从而缓解回程链路拥挤,用户请求响应慢等问题。


技术实现要素:

6.有鉴于此,本发明的目的在于提供一种基于最大化吞吐量的基站内容缓存与协作内容预取方法,解决由于高铁高移动特性导致用户与基站连接频繁切换,逗留时间较短等问题。本发明基于基站协作内容预取,内容缓存方案,以自适应满足用户多样化服务需求。
7.为达到上述目的,本发明提供如下技术方案:
8.一种基于最大化吞吐量的基站内容缓存与协作内容预取方法,具体包括以下步骤:
9.s1:构建联合考虑多普勒效应和自由空间损耗的高铁通信模型,是一个高速铁路(high-speed railway,hsr)运行途中轨道基站(后称基站)对内容独立缓存、协作预取模型,包括hsr系统模型、基于文件流行分布缓存模型和系统运动模型;
10.s2:构建缓存放置优化问题,即构建目标函数:以最小化用户请求延时为优化目标;
11.s3:将优化问题拆分为基站缓存优化和用户缓存优化两部分,即将目标函数拆分为最大化基站实际可提供网络吞吐量和基站缓存约束下最大化用户缓存两个子函数,并对两个子函数分别求解。
12.进一步,步骤s1中,构建的hsr系统模型是指高铁运行途中,基站通过内容缓存、内容预取响应用户请求的系统,由1个宏基站(在本发明相当于数据中心)、b个轨道基站(基站集合用b={1,2,

,b}表示)及列车组成;为了减缓通信信号穿透损耗问题,本发明在列车顶端部署一个移动中继(mr)用来收集k个用户(用户集合用k={1,2,

,k}表示)请求,并将其转发给轨道基站;宏基站包含所有用户可能请求文件f={1,

,f,

,f},假设文件大小相同,均为qbit,请求概率服从zipf分布,利用mds编码将文件f均分为n段(利用分段集合n={1,2,

,n}表示);本发明考虑的基站在列车轨道上覆盖范围不重叠,故不存在连接选择和干扰问题。基站、用户均具有一定的缓存能力,缓存空间分别表示为ss1={s1,

,si,

,sb}、ss2={s1,

,sk,

,sk},其中si表示第i个轨道基站的缓存空间,sk表示第k个用户的缓存空间;基站之间,用户之间缓存相互独立,用户缓存在基站之后,不与基站缓存相同文件段。
13.进一步,步骤s1中,构建的基于文件流行分布缓存模型,包括:文件流行分布即用户对文件偏好程度。通常情况下,用户对文件偏好因人而异,但针对所有用户,zipf分布大体可以评估一个文件的流行程度。用户请求第m个文件f的概率可以表示为:
[0014][0015]
其中,α是zipf分布的偏态因子,m是文件序号。
[0016]
用户请求内容时:首先,会查找自身缓存库,已缓存内容直接响应;否则用户将请求兴趣包(文件索引)聚合到mr,由mr转发用户请求到轨道基站;轨道基站接收用户请求兴趣包后,检查本地缓存;如果兴趣包对应内容已存在本地(缓存或者预取得到,在本发明中假设基站一旦与用户断开连接立马丢弃预取内容,不占用缓存空间),轨道基站直接将用户请求内容回馈给mr,由mr转发给对应用户;否则,轨道基站转发请求兴趣包给宏基站m,轨道基站通过回程链路下载用户请求内容交给mr(在本发明中假设用户与mr之间能提供足够、稳定的通信带宽,在后续研究中将忽视其传播时延)。由于宏基站处理延迟和回程延迟,由宏基站到用户的端到端时延必定比用户从轨道基站本地获取内容时间长,且宏基站到用户之间是多跳链路,易受安全威胁。为了提高用户体验,增强数据安全,需要更多利用率高的内容被缓存在本地。
[0017]
进一步,步骤s1中,构建的系统运动模型,具体包括:给定列车移动速度v和时间t,列车行驶距离为s(t)=v*t,给定基站与列车轨道距离为d,第i个基站覆盖范围为di,则基站i与列车连接范围为t时刻列车在基站i覆盖区域相对行驶距离为列车与基站的距离为列车相对基站高速移动,产生多普勒频移fd(t):
[0018]
[0019]
其中,f'表示基站工作频率,c=3*10^8(m/s),c表示光速;表示列车运行方向与基站之间的夹角,则基站实际工作频率为f
i'
(t)=f'-fd(t);
[0020]
轨道基站作为信号发送端与用户进行通信时,由于辐射能量的扩散,信号质量无法避免会产生衰减。在这儿为了简便起见,本发明以自由空间传播损耗为例:
[0021]
p
il
(t)=32.45 20logf
i'
(t)(mhz) 20logd2i(t)(km)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)
[0022]
t时刻用户信噪比可由下式得到:
[0023][0024]
其中,δ2表示高斯白噪声方差,p
ir
(t)表示用户接收功率,pi表示第i个基站发射功率。轨道基站可给用户提供的速率ri(t)为:
[0025]ri
(t)=blog(1 snri(t))
ꢀꢀꢀꢀꢀꢀꢀꢀ
(5)
[0026]
其中,b是信道带宽,snri(t)表示t时刻用户信噪比。
[0027]
进一步,步骤s2中,构建缓存放置优化问题,具体包括:首先构建基于系统延时最小化的缓存放置问题:定义为轨道基站缓存策略c1的一个元素;如果则表示文件f的第n段在轨道基站i的缓存库中,否则,轨道基站i中未缓存该段;同理,用户缓存策略c2的元素表示用户k对文件f第n段缓存情况;当则表示文件f的第n段已缓存在用户k本地,否则,用户k中未缓存文件该段;初始缓存下,用户、轨道基站在各自缓存空间约束下,独立按照文件zipf分布进行内容缓存;当用户请求文件f时,一旦轨道基站中有关文件f(预取及缓存)的所有资源全部传输给用户后,用户仍然处于当前基站覆盖区域,轨道基站需向宏基站(数据中心)请求相关内容;整个过程中如果无线链路速率ri大于回程链路速率rm,则文件实际传输速率会从ri降低到rm,否则,用户全程以速率ri接收文件;由于高铁在每个基站覆盖范围逗留时间较短,但每个轨道基站缓存策略相对稳定,不随时间瞬时变化,故利用轨道基站能提供速率平均值求解缓存(后面提到的轨道基站速率均指平均速率):
[0028][0029]
轨道基站i可为文件f提供实际网络吞吐量可表示为:
[0030][0031]
其中,第一项表示轨道基站i预取与缓存数据总和,第二项表示轨道基站最大可提供网络吞吐量;表示用户在轨道基站i覆盖区域逗留时间;表示轨道基站i缓存文件f的数据大小;定义用户请求服务速率为rq,宏基站提供服务速率rm;
[0032]
则整个系统总时延即优化问题可表示为:
[0033][0034]
其中,a1表示请求文件f在基站上造成的总时延,a2表示用户通过缓存f文件段可弥补的时延;则请求文件f的时延可表示为tf=a2-a1;q(f)表示用户请求文件f的概率。
[0035]
从优化函数可以看出:当rq≤min{rm,ri},用户请求内容能得到无延时服务;否则,由延时函数可以看出要使系统时延最小,可以从用户缓存以及基站缓存两部分分别考虑优化。则优化问题可分为两个子函数。
[0036]
进一步,步骤s3中,基站缓存优化部分:通过优化基站缓存策略让轨道基站为其覆盖范围内连接的终端用户提供最大网络吞吐量,具体通过以下op1函数优化:
[0037][0038]
约束条件为:
[0039][0040][0041][0042]
其中,st1是轨道基站缓存空间约束,st2是轨道基站缓存放置二进制选择,st3表示轨道基站i缓存文件f的数据大小。
[0043]
进一步,步骤s3中,利用贪婪算法求解基站最优缓存。
[0044]
进一步,步骤s3中,用户缓存优化部分:让用户在不重复缓存轨道基站已缓存文件段的前提下最大化用户缓存数据,使用户缓存补偿时延最大,具体通过以下op2函数优化:
[0045][0046]
约束条件为:
[0047][0048]
[0049][0050][0051]
其中,st1是用户缓存空间约束,st2是文件多样性下轨道基站缓存约束,st3表示用户k对文件f第n段的布尔缓存决策,st4表示用户k对文件f缓存数据。
[0052]
进一步,步骤s3中,求解用户缓存优化的目标函数op2,包括:用户之间独立优化缓存能解耦合为k个并行的子函数op2.1:
[0053][0054]
约束条件:
[0055]
s.t1、s.t2、s.t3、s.t4
[0056]
且q'(f)<0
[0057]
由约束条件st5可以看出用户缓存策略优化是一个简单的不同权值的空间分配问题,由于缓存空间有限,故在当用户缓存空间无法完全弥补基站传输造成的时延时,用户需按文件流行度依次缓存基站无法满足用户请求文件的文件段,以最大化缓存收益;
[0058]
表示当前轨道基站能满足用户对文件f的需求,故用户无需缓存;有:
[0059][0060]
表示当前轨道基站无法满足用户对文件f的需求;如果用户缓存空间剩余量足以缓存一段文件,并且轨道基站未缓存该段,则用户缓存该段,否则,用户不缓存该段。
[0061][0062]
则目标函数op通过两个子目标函数分别求解最优缓存放置,可得到系统最优缓存放置。
[0063]
本发明的有益效果在于:
[0064]
(1)本发明考虑了多个具有一定缓存能力基站覆盖区域的移动高铁场景下的缓存模型,为了更好的为旅途用户提供服务,基站之间可以协作预取用户请求数据。
[0065]
(2)本发明提出了最小化用户请求延时系统,考虑了高铁移动过程中产生的多普勒平移以及信号从轨道基站发射端到用户终端的损耗,为了保证充分利用用户缓存空间,保证文件多样性,用户不与基站缓存相同文件段。
[0066]
(3)本发明将最小化用户请求延时拆分为基站和用户两部分,针对基站可通过转化变为最大化基站实际提供网络吞吐量,采用贪婪算法求解。本发明在系统平均延时、文件命中率、基站吞吐量和缓存空间占用率上都有显著改善。
[0067]
(4)本发明不仅能提供更多网络吞吐量,明显降低系统延时,有效提高文件命中率,还能节约缓存空间。
[0068]
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
[0069]
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
[0070]
图1为高铁环境下基站缓存协作预取内容结构;
[0071]
图2为用户请求文件模型;
[0072]
图3为高铁运动模型与基站相对位置。
具体实施方式
[0073]
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
[0074]
请参阅图1~图3,本发明提供了一种基于最大化吞吐量的基站内容缓存与协作内容预取方法,包括以下步骤:
[0075]
步骤1:建立一个高铁高速移动模型,利用不同基站覆盖范围、列车运行速度构建了用户与基站的相对运动模型。整个模型主要包含三个部分:hsr系统模型、基于文件流行分布缓存模型、系统运动模型。
[0076]
1)hsr系统模型
[0077]
hsr系统模型是指高铁运行途中,基站通过内容缓存、内容预取响应用户请求的框架,如图1。整个模型由1个宏基站(在本发明相当于数据中心)、b个轨道基站(基站集合用b={1,2,

,b}表示)及列车组成;为了减缓通信信号穿透损耗问题,本发明在列车顶端部署一个移动中继(mr)用来收集k个用户(用户集合用k={1,2,

,k}表示)请求,并将其转发给轨道基站;宏基站包含所有用户可能请求文件f={1,

,f,

,f},假设文件大小相同,均为qbit,请求概率服从zipf分布,利用mds编码将文件f均分为n段(利用分段集合n={1,2,

,n}表示);本发明考虑的基站在列车轨道上覆盖范围不重叠,故不存在连接选择和干扰问题。基站、用户均具有一定的缓存能力,缓存空间分别表示为ss1={s1,

,si,

,sb}、ss2={s1,

,sk,

,sk},其中si表示第i个轨道基站的缓存空间,sk表示第k个用户的缓存空间;基站之间,用户之间缓存相互独立,用户缓存在基站之后,不与基站缓存相同文件段。
[0078]
2)基于文件流行分布缓存模型
[0079]
文件流行分布即用户对文件偏好程度。通常情况下,用户对文件偏好因人而异,但针对所有用户,zipf分布大体可以评估一个文件的流行程度。用户请求第m个文件f的概率可以表示为:
[0080][0081]
其中,α是zipf分布的偏态因子,m是文件序号。
[0082]
用户请求内容时:首先,会查找自身缓存库,已缓存内容直接响应;否则用户将请求兴趣包(文件索引)聚合到mr,由mr转发用户请求到轨道基站;轨道基站接收用户请求兴趣包后,检查本地缓存。如果兴趣包对应内容已存在本地(缓存或者预取得到,在本发明中假设基站一旦与用户断开连接立马丢弃预取内容,不占用缓存空间),轨道基站直接将用户请求内容回馈给mr,由mr转发给对应用户。否则,轨道基站转发请求兴趣包给宏基站m,轨道基站通过回程链路下载用户请求内容交给mr(在本发明中假设用户与mr之间能提供足够、稳定的通信带宽,在后续研究中将忽视其传播时延)。由于宏基站处理延迟和回程延迟,由宏基站到用户的端到端时延必定比用户从轨道基站本地获取内容时间长,且宏基站到用户之间是多跳链路,易受安全威胁。为了提高用户体验,增强数据安全,需要更多利用率高的内容被缓存在本地。用户k请求文件f流程如图2。
[0083]
3)本实施例考虑以下移动模型:给定列车移动速度v和时间t,列车行驶距离为s(t)=v*t,给定基站与列车轨道距离为d,第i个基站覆盖范围为di,则基站i与列车连接范围为t时刻列车在基站i覆盖区域相对行驶距离为列车与基站的距离为
[0084]
列车相对基站高速移动,产生多普勒频移fd(t):
[0085][0086]
其中,f'表示基站工作频率,c=3*10^8(m/s),c表示光速;表示列车运行方向与基站之间的夹角,则基站实际工作频率为f
i'
(t)=f'-fd(t);
[0087]
轨道基站作为信号发送端与用户进行通信时,由于辐射能量的扩散,信号质量无法避免会产生衰减。在这儿为了简便起见,本发明以自由空间传播损耗为例:
[0088]
p
il
(t)=32.45 20logf
i'
(t)(mhz) 20logd2i(t)(km)
ꢀꢀꢀꢀꢀꢀ
(3)
[0089]
t时刻用户信噪比可由下式得到:
[0090][0091]
其中,δ2表示高斯白噪声方差,p
ir
(t)表示用户接收功率,pi表示第i个基站发射功率。轨道基站可给用户提供的速率ri(t)为:
[0092]ri
(t)=blog(1 snri(t))
ꢀꢀꢀꢀꢀꢀꢀꢀ
(5)
[0093]
其中,b是信道带宽,snri(t)表示t时刻用户信噪比。
[0094]
步骤2:构建缓存放置方案;
[0095]
针对高速移动场景下存在多普勒频移和连接频繁切换等问题,本发明将边缘缓存技术应用于基于相邻基站协作预取内容的hsr通信模型中,旨在降低用户请求时延,提高用
户服务质量。基于此,本发明提出通过优化基站、用户缓存放置来最小化系统延时。
[0096]
1)构建缓存放置优化问题
[0097]
首先构建基于系统延时最小化的缓存放置问题。定义为轨道基站缓存策略c1的一个元素;如果则表示文件f的第n段在轨道基站i的缓存库中,否则,轨道基站i中未缓存该段;同理,用户缓存策略c2的元素表示用户k对文件f第n段缓存情况;当则表示文件f的第n段已缓存在用户k本地,否则,用户k中未缓存文件该段;初始缓存下,用户、轨道基站在各自缓存空间约束下,独立按照文件zipf分布进行内容缓存;当用户请求文件f时,一旦轨道基站中有关文件f(预取及缓存)的所有资源全部传输给用户后,用户仍然处于当前基站覆盖区域,轨道基站需向宏基站(数据中心)请求相关内容;整个过程中如果无线链路速率ri大于回程链路速率rm,则文件实际传输速率会从ri降低到rm,否则,用户全程以速率ri接收文件;由于高铁在每个基站覆盖范围逗留时间较短,但每个轨道基站缓存策略相对稳定,不随时间瞬时变化,故利用轨道基站能提供速率平均值求解缓存(后面提到的轨道基站速率均指平均速率):
[0098][0099]
轨道基站i可为文件f提供实际网络吞吐量可表示为:
[0100][0101]
其中,第一项表示轨道基站i预取与缓存数据总和,第二项表示轨道基站最大可提供网络吞吐量;表示用户在轨道基站i覆盖区域逗留时间;表示轨道基站i缓存文件f的数据大小;定义用户请求服务速率为rq,宏基站提供服务速率rm;
[0102]
则整个系统总时延即优化问题可表示为:
[0103][0104]
其中,a1表示请求文件f在基站上造成的总时延,a2表示用户通过缓存f文件段可弥补的时延;则请求文件f的时延可表示为tf=a2-a1;q(f)表示用户请求文件f的概率。
[0105]
从优化函数可以看出:当rq≤min{rm,ri},用户请求内容能得到无延时服务;否则,由延时函数可以看出要使系统时延最小,可以从用户缓存以及基站缓存两部分分别考虑优化。则优化问题可分为两个子函数。
[0106]
2)基站缓存放置
[0107]
针对基站部分:可通过优化基站缓存策略让基站为其覆盖范围内连接的终端用户提供最大网络吞吐量。基站缓存放置可通过op1函数优化:
[0108][0109]
约束条件为:
[0110][0111][0112][0113]
其中,st1是轨道基站缓存空间约束,st2是轨道基站缓存放置二进制选择,st3表示轨道基站i缓存文件f的数据大小;从op1可以看出,当(δti δt
i-1
)r
m-riδti≥0时,换句话说,当宏基站与轨道基站速率比时,基站不缓存,实际提供网络吞吐量即可达到最大可提供值。本文主要考虑宏基站、轨道基站比值的情况下基站缓存放置策略。
[0114]
当基站缓存足够大时,通过内容预取、内容缓存为用户所有请求提供本地服务时,基站缓存不需要考虑用户请求文件概率(本发明利用文件流行度表征)。对所有文件无差别缓存。
[0115][0116]
但基站缓存空间相对文件数量有限,因此,下面将考虑基站为所有文件提供本地缓存,需要利用文件请求概率,缓存利用率更高的文件段。分析问题op1发现其可以看作在拟阵约束下的单调次模函数最大化问题。根据目标函数的特性,本发明提出了利用贪婪算法求解基站最优缓存。
[0117]
首先定义基站缓存放置位置集合为ξ:
[0118][0119]
ξ可以分为b个相互独立子集ξ1,ξ2,

,ξb,其中可以分为f个独立子集其中表示所有可能放置在轨道基站缓存策略c1i上的文件段集合;
[0120]
可以证明轨道基站缓存空间约束是轨道基站缓存位置ξ的一个分区拟阵,目标函数op1是一个单调次模函数。基于目标函数的性质,采用贪婪算法求解基站最优缓存。
[0121]
3)用户缓存放置
[0122]
针对用户缓存,需要让用户在不重复缓存基站已缓存文件段的前提下最大化用户缓存数据,使用户缓存补偿时延最大。用户缓存放置可通过op2函数优化:
[0123][0124]
约束条件为:
[0125][0126][0127][0128][0129]
其中,st1是用户缓存空间约束,st2是文件多样性下轨道基站缓存约束,st3表示用户k对文件f第n段的布尔缓存决策,st4表示用户k对文件f缓存数据。
[0130]
对目标函数op2,包括:用户之间独立优化缓存能解耦合为k个并行的子函数op2.1:
[0131][0132]
约束条件:
[0133]
s.t1、s.t2、s.t3、s.t4
[0134]
且q'(f)<0
[0135]
由约束条件st5可以看出用户缓存策略优化是一个简单的不同权值的空间分配问题,由于缓存空间有限,故在当用户缓存空间无法完全弥补基站传输造成的时延时,用户需按文件流行度依次缓存基站无法满足用户请求文件的文件段,以最大化缓存收益;
[0136]
表示当前轨道基站能满足用户对文件f的需求,故用户无需缓存;有:
[0137][0138]
表示当前轨道基站无法满足用户对文件f的需求;如果用户缓存空间剩余量足以缓存一段文件,并且轨道基站未缓存该段,则用户缓存该段,否则,用户不缓存该段。
[0139][0140]
则目标函数op通过两个子目标函数分别求解最优缓存放置,可得到系统最优缓存放置。
[0141]
实施例1:
[0142]
本实施例提供了一种缓存放置方法,在初始缓存下基站、用户独立同分布按zipf缓存内容。缓存策略分别定义为c1、c2,用ss1={s1,...,si,...sb}和ss2={s1,...,sk,...sk}表示基站、用户缓存空间。根据基站发射功率和最低通信snr可计算基站覆盖范围。
[0143]
1)更新基站缓存。
[0144]
(1)基站内容预取(基站以全双工方式通信:在响应用户的同时作为接收机与红基站通信)。列车进入当前基站并向基站发送请求兴趣包(需要基站响应的文件段索引),记该基站为用户请求文件经过的第一个基站i,该基站立马根据实际可提供网络吞吐量与用户需求索引对比,一旦发现实际提供网络吞吐量无法满足用户需求,立马向下一基站i 1发送处理后的用户需求索引(用户需求与基站i处理需求之间的差值,即需继续向下一基站请求的文件段)。基站i 1接收到需求索引后(此时,用户仍处于基站i覆盖区域),首先基站检查本地缓存如果基站i 1不做任何操作,待用户运动到其覆盖区域后直接响应用户;否则基站i 1在δti时间内向宏基站预取内容,等用户进入基站i 1时计算其实际可提供网络吞吐量然后对比需求与实际可提供网络吞吐量,如果基站i 1的实际吞吐量大于用户需求,直接响应用户;否则,基站响应用户的同时会将处理后的用户需求索引转发给下一基站。
[0145]
(2)评估缓存收益。当基站缓存空间有限时,无法满足所有文件无延时服务,需要评估每段文件缓存收益,使其缓存利用率最大化。
[0146]
(3)实施缓存。在当前缓存状态下计算基站最大可提供吞吐量和各个文件实际网络吞吐量差值,用其乘以文件流行度即可用来近似评估当前缓存下各个文件缓存文件段可带来的收益。将其按降序排序作为缓存优先级,在基站剩余缓存空间可缓存文件段时,按优先级缓存文件段。
[0147]
2)更新用户缓存。
[0148]
用户缓存策略在基站缓存全部更新完成后作为补充缓存。
[0149]
对于基站缓存更新后,实际吞吐量仍无法达到最大吞吐量的文件,用户以文件概率作为缓存优先级,优先缓存流行度高且未被基站缓存的文件段。
[0150]
在基站、用户缓存均更新完毕后,当前缓存放置即为此时文件缓存最优放置,可以最小化系统中用户请求响应时延。
[0151]
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献