一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种移动边缘计算任务卸载与分配方法

2023-02-02 01:32:45 来源:中国专利 TAG:


1.本发明属于移动边缘计算技术领域,具体涉及一种移动边缘计算任务卸载与分配方法。


背景技术:

2.近年来,伴随着5g站上新的高峰,移动网络和移动智能设备不断发展,移动应用程序趋于多样化,如图像识别、在线视频游戏、增强和虚拟现实等。同时,物联网的发展使得移动设备的数量迅速增加。越来越多的应用程序对计算速率有很高的要求,而移动设备常常无法满足需求。移动边缘计算技术是指在移动网络边缘部署计算和存储资源,为移动网络提供it服务环境和云计算速率,从而为用户提供超低时延、高带宽的网络服务解决方案。计算卸载是指将资源密集型计算任务迁移到附近资源丰富的基础设施进行处理,可以使得用户体验质量得到保障。
3.现有边缘计算相关技术中,发布卸载决策的实体并没有明确定位,多数研究默认卸载决策由本地设备提供。本地设备的计算速率存在局限性,因此在理论上具有较好效果的算法在实际场景中会因为复杂度高而较难部署。其次,指定最优卸载决策应该针对系统整体,依靠本地设备获取当前系统下用户节点以及边缘服务器的信息比较困难,共享信息则会带来额外的通信开销。


技术实现要素:

4.本发明的目的在于针对解决背景技术中提出的问题,提出一种移动边缘计算任务卸载与分配方法。
5.为实现上述目的,本发明所采取的技术方案为:
6.本发明提出的一种移动边缘计算任务卸载与分配方法,应用于移动边缘计算任务卸载与分配系统,移动边缘计算资源卸载与分配系统包括依次分布的若干个移动用户设备、一个调度中心节点、若干个边缘服务器和一个云服务器,调度中心节点用于将各移动用户设备卸载的任务传输至边缘服务器和云服务器执行,移动边缘计算任务卸载与分配方法,应用于调度中心节点,包括:
7.获取边缘服务器的计算速率和执行任务需的cpu周期,获取移动用户设备的本地执行任务需的cpu周期、本地计算速率、传输至调度中心节点的任务大小、传输速率,获取云服务器执行任务需的cpu周期、计算速率,获取单位时间内到达边缘服务器的任务数量、任务等待的平均队列长度、调度中心节点传输至云服务的时延,以最小化最大系统时延构建优化模型,优化模型如下:
[0008][0009]
其中,t
ilocal
表示移动用户设备的本地执行任务时延,表示移动用户设备传输至调度中心节点的传输时延,表示边缘服务器的执行任务时延,t
x,c
表示云服务器的执
行总时延,tq表示边缘服务器的平均队列等待时延。
[0010]
对优化模型进行求解,得到最佳卸载决策。
[0011]
根据得到的最佳卸载决策,将移动用户设备的任务分配给边缘服务器或云服务器。
[0012]
优选地,移动用户设备的本地执行任务时延,表示如下:
[0013][0014]
其中,
[0015][0016][0017]
其中,表示移动用户设备i的本地执行任务所需的cpu周期,f
ilocal
表示移动用户设备i的本地计算速率,ε表示移动用户设备的本地执行任务中每执行一比特数据所需的cpu周期,表示移动用户设备i在本地执行需处理的任务数据大小,d
ij
表示移动用户设备i的子任务j的任务数据大小,α
ij
表示移动用户设备i总任务中的子任务j卸载决策。
[0018]
移动用户设备i的总任务卸载决策表示如下:
[0019][0020]
其中,αi=0表示移动用户设备i的所有任务均在本地执行,0<αi<1表示移动用户设备i的一部分任务传输至在边缘服务器执行,另一部分在本地执行,αi=1表示移动用户设备i的所有任务均传输至边缘服务器执行。
[0021]
优选地,移动用户设备传输至调度中心节点的传输时延,表示如下:
[0022][0023]
且,
[0024][0025][0026]
其中,r
i,k
表示移动用户设备i的传输速率,di表示移动用户设备i的所有任务数据大小,b表示移动用户设备与调度中心节点的传输信道带宽,k表示子信道个数,pi表示移动用户设备i的信号发射功率,hk表示子信道的信道增益,σ2表示噪声功率,i
x,k
表示附近其他移动用户设备所造成的干扰,p
x
表示附近其他移动用户设备的信号发射功率,n表示移动用户设备的数量。
[0027]
优选地,边缘服务器的执行任务时延,表示如下:
[0028][0029]
其中,表示边缘服务器或云服务器执行x个任务所需的cpu周期,表示边缘服务器的计算速率。
[0030]
优选地,云服务器的执行总时延,表示如下:
[0031][0032]
且,
[0033][0034]
其中,表示调度中心节点传输至云服务的时延,fc表示云服务器的计算速率,表示云服务器的执行任务时延。
[0035]
优选地,边缘服务器的平均队列等待时延,表示如下:
[0036][0037]
其中,
[0038][0039][0040][0041][0042][0043]
其中,lq表示任务到达边缘服务器等待的平均队列长度,λ表示单位时间内到达边缘服务器的任务数量,m表示边缘服务器的数量,s表示边缘服务器的接待任务的次数,且s=m,ρ
*
表示边缘服务器执行任务的速率,p0表示各边缘服务器处于空闲的概率,μ表示边缘服务器单位时间内可以执行的任务数,表示所有边缘服务器和云服务器的平均计算速率,表示所有卸载至调度中心节点的任务的时延,表示边缘服务器执行单个任务所需的cpu周期。
[0044]
优选地,对优化模型进行求解,得到最佳卸载决策,包括:
[0045]
通过模拟退火算法对优化模型进行求解,对模拟退火算法随机初始化,定义初始
温度为t
init
,结束温度为t
end
,冷却系数为ξ,且比例参数同时随机初始化卸载决策向量q={p,ω},其中,各移动用户设备的任务卸载决策的集p={α1,α2,...,αn},被卸载任务选择的边缘服务器编号的集n
sub
表示所有被卸载子任务数。
[0046]
输入初始化参数计算本地执行任务时延、传输时延、边缘服务器执行任务时延、云服务器的执行总时延和边缘服务器的平均队列等待时延,根据优化模型计算d
optimal
值为y
old
,且迭代次数初始化为episode,并输入至模拟退火算法中进行迭代,当t
init
趋向于稳定值时t,随机扰动产生新的卸载决策向量q
new
,并输出d
optimal
值为y
new
,若y
new
<y
old
,则d
optimal
=y
new
,q=q
new
,直至当迭代次数达到episode,且温度达到t
end
时,决策向量q不再更新,输出最佳d
optimal
和最佳的决策向量q。
[0047]
与现有技术相比,本发明的有益效果为:
[0048]
本方法统一的调度中心节点,调度中心节点部署在移动用户设备和各边缘服务器之间,集成边缘服务器所有的卸载任务,并统一分配计算将计算卸载问题构造为系统时延的最大值最小化模型,通过设计迭代算法解决此优化问题,得出最佳卸载决策,并将移动用户设备的任务分配给边缘服务器或云服务器,实现显著降低时延,减少能耗,提高效率。
附图说明
[0049]
图1为本发明移动边缘计算任务卸载与分配方法的模块框图;
[0050]
图2为本发明调度中心节点的原理图;
[0051]
图3为本发明模拟退火算法的流程图;
[0052]
图4为本发明依据模拟退火算法的算法图。
具体实施方式
[0053]
下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
[0054]
需要说明的是,当组件被称为与另一个组件“连接”时,它可以直接与另一个组件连接或者也可以存在居中的组件。除非另有定义,本文所使用的所有的技术和科学术语与属于本技术的技术领域的技术人员通常理解的含义相同。本文中在本技术的说明书中所使用的术语只是为了描述具体的实施例的目的,不是在于限制本技术。
[0055]
如图1-4所示,一种移动边缘计算任务卸载与分配方法,包括应用于移动边缘计算任务卸载与分配系统,移动边缘计算资源卸载与分配系统包括依次分布的若干个移动用户设备、一个调度中心节点、若干个边缘服务器和一个云服务器,调度中心节点用于将各移动用户设备卸载的任务传输至边缘服务器和云服务器执行,移动边缘计算任务卸载与分配方法,应用于调度中心节点,包括:
[0056]
获取边缘服务器的计算速率和执行任务需的cpu周期,获取移动用户设备的本地执行任务需的cpu周期、本地计算速率、传输至调度中心节点的任务大小、传输速率,获取云服务器执行任务需的cpu周期、计算速率,获取单位时间内到达边缘服务器的任务数量、任
务等待的平均队列长度、调度中心节点传输至云服务的时延,以最小化最大系统时延构建优化模型,优化模型如下:
[0057][0058]
其中,t
ilocal
表示移动用户设备的本地执行任务时延,表示移动用户设备传输至调度中心节点的传输时延,表示边缘服务器的执行任务时延,t
x,c
表示云服务器的执行总时延,tq表示边缘服务器的平均队列等待时延。
[0059]
需要说明的是,如图1所示,包含n个移动用户设备(user)、m个边缘服务器(mec)、1个云服务器以及1个调度中心节点(dcn),调度中心节点位于用户与边缘服务器之间,且调度中心节点与各边缘服务器的距离小于调度中心节点与云服务器的距离。由于调度中心节点与边缘服务器之间的距离较近且调度中心节点具备高传输功率,因此忽略调度中心节点向边缘服务器传输任务造成的时延。
[0060]
如图2所示,为调度中心节点(dcn)的模块组成以及工作原理,其中图2中的用户终端即为移动用户设备。调度中心节点包括信息模块、决策逻辑模块、采集模块、传输模块和队列缓冲区,信息模块存储各边缘服务器的计算速率、云服务器的计算速率、调度中心节点传输至云服务的时延,采集模块收集本地计算速率、传输至调度中心节点的任务大小、传输速率。信息模块和采集模块将获得的信息发送到决策逻辑模块,决策逻辑模块得到边缘服务器执行任务所需的cpu周期、本地执行任务所需的cpu周期、云服务器执行任务所需的cpu周期、单位时间内到达边缘服务器的任务数量、任务等待的平均队列长度,从而决策逻辑模块进行决策生成与任务分配。队列缓冲区包含等待传输和执行的已卸载子任务。传输模块负责依据决策逻辑模块提供的卸载决策,将子任务分配给边缘服务器或者云服务器。
[0061]
在卸载过程开始时,每个移动用户设备均会将提交至采集模块,包括任务数据大小、信道信息等。然后,调度中心节点运行一个特定的算法,通过收集所有用户的信息来决定应该卸载哪个任务,并分配计算资源,然后测量总卸载任务数据大小、远程计算资源等因素。当任务卸载部分到达调度中心节点时,它将被转发到一个指定的边缘服务器。同时,调度中心节点检测指定的边缘服务器的计算速率,并动态调整任务卸载决策。如果任务前往的边缘服务器被占用,则该任务将存储在排队缓冲区中。一旦指定的边缘服务器资源被释放或有一个更好的选项可用,调度中心节点将立即卸载该任务。
[0062]
具体为,移动用户设备的本地执行任务时延,表示如下:
[0063][0064]
其中,
[0065][0066][0067]
其中,表示移动用户设备i的本地执行任务所需的cpu周期,f
ilocal
表示移动用户设备i的本地计算速率,ε表示移动用户设备的本地执行任务中每执行一比特数据所需的
cpu周期,表示移动用户设备i在本地执行需处理的任务数据大小,d
ij
表示移动用户设备i的子任务j的任务数据大小,α
ij
表示移动用户设备i总任务中的子任务j卸载决策使用α
ij
={0,1}表示移动用户设备i总任务中的第j个子任务的卸载决策。
[0068]
移动用户设备i的总任务卸载决策表示如下:
[0069][0070]
其中,αi=0表示移动用户设备i的所有任务均在本地执行,0<αi<1表示移动用户设备i的一部分任务传输至在边缘服务器执行,另一部分在本地执行,αi=1表示移动用户设备i的所有任务均传输至边缘服务器执行。例如αi=0.6表示移动用户设备i的任务百分之六十在边缘服务器执行,百分之四十在本地执行。
[0071]
移动用户设备传输至调度中心节点的传输时延,表示如下:
[0072][0073]
且,
[0074][0075][0076]
其中,r
i,k
表示移动用户设备i的传输速率,di表示移动用户设备i的所有任务数据大小,b表示移动用户设备与调度中心节点的传输信道带宽,k表示子信道个数,pi表示移动用户设备i的信号发射功率,hk表示子信道的信道增益,σ2表示噪声功率,i
x,k
表示附近其他移动用户设备所造成的干扰,p
x
表示附近其他移动用户设备的信号发射功率,n表示移动用户设备的数量。
[0077]
边缘服务器的执行任务时延,表示如下:
[0078][0079]
其中,表示边缘服务器或云服务器执行x个任务所需的cpu周期,表示边缘服务器的计算速率,是按照现有研究中主流的参数量级来设置的,一般设置为2.5*10^7bit每秒。
[0080]
云服务器的执行总时延,表示如下:
[0081][0082]
且,
[0083][0084]
其中,表示调度中心节点传输至云服务的时延(由于调度中心节点与云服务器
距离较远,因此需要将调度中心节点与云服务器之间的传输时延纳入考虑),fc表示云服务器的计算速率,是按照现有研究中主流的参数量级来设置的,一般设置为5*10^7bit每秒,表示云服务器的执行任务时延。
[0085]
虽然所有任务同时传输,但由于数据大小的不同,它们将在不同的时间段到达边缘服务器。因此,当任务到达时,边缘服务器可能仍然在处理较早到达的任务。排队时延必须被考虑到。在本技术中,假设各边缘服务器处理的任务数是无限的,队列的长度是无限的。该系统遵循先到先得(first come first service,fcfs)的原则。
[0086]
边缘服务器的平均队列等待时延,表示如下:
[0087][0088]
其中,
[0089][0090][0091][0092][0093][0094]
其中,lq表示任务到达边缘服务器等待的平均队列长度,λ表示单位时间内到达边缘服务器的任务数量,m表示边缘服务器的数量,s表示边缘服务器的接待任务的次数,且s=m,ρ
*
表示边缘服务器执行任务的速率,p0表示各边缘服务器处于空闲的概率,μ表示边缘服务器单位时间内可以执行的任务数,表示所有边缘服务器和云服务器的平均计算速率(本技术假设任务到达边缘服务器的时间服从泊松分布。对边缘服务器的计算速率进行处理,计算边缘和云服务器的平均计算速率),表示所有卸载至调度中心节点的任务的时延,表示边缘服务器执行单个任务所需的cpu周期(单个任务所需cpu周期等价于数学期望)。由于云服务器的计算资源足够从而不考虑任务抵达云服务器时的等待时延。
[0095]
对优化模型进行求解,得到最佳卸载决策。
[0096]
具体为,通过模拟退火算法对优化模型进行求解,模拟退火算法的过程如图3所示,具体思路是首先设置一个初始温度,在该温度下初始化一个解。根据初始化的解求出目标函数(本技术中指的是优化模型)值。随后设置每个温度下的迭代次数,在每次迭代中生成一个新解,并求出新解对应得目标函数值。如果新解对应的目标函数值优于初始解,则将初始解和初始目标函数值替换为新解与新目标函数值。否则根据metropolis准则接受新
解,接受新解的概率如下:
[0097][0098]
其中,f(ω)和f(ω')表示目标函数的初始值和最新值。
[0099]
具体为,对模拟退火算法随机初始化,定义初始温度为t
init
,结束温度为t
end
,冷却系数为ξ,且比例参数同时随机初始化卸载决策向量q={p,ω},其中,各移动用户设备的任务卸载决策的集p={α1,α2,...,αn},被卸载任务选择的边缘服务器编号的集n
sub
表示所有被卸载子任务数。
[0100]
输入初始化参数计算本地执行任务时延、传输时延、边缘服务器执行任务时延、云服务器的执行总时延和边缘服务器的平均队列等待时延,根据优化模型计算d
optimal
值为y
old
,且迭代次数初始化为episode,并输入至模拟退火算法中进行迭代,当t
init
趋向于稳定值时t,随机扰动产生新的卸载决策向量q
new
,并输出d
optimal
值为y
new
,若y
new
<y
old
,则d
optimal
=y
new
,q=q
new
,且t也同样被重新赋值为tξ,直至当迭代次数达到episode,且温度达到t
end
时,决策向量q不再更新,输出最佳d
optimal
和最佳的决策向量q。
[0101]
初始化参数包括:移动用户设备和边缘服务器的数量、移动用户设备的本地计算速率、各边缘服务器计算速率、云服务器计算速率、各移动用户设备的所有任务数据大小、移动用户设备与调度中心节点的传输信道带宽、信道增益、各移动用户设备的发射功率、初始化卸载决策向量。
[0102]
根据得到的最佳卸载决策,将移动用户设备的任务分配给边缘服务器或云服务器。
[0103]
具体为,优先考虑将卸载任务传输至边缘服务器处理,因为边缘服务器的地理位置比云服务器更靠近用户且数量多,但是当调度中心节点收集到前往的边缘服务器均处于繁忙状态且传给剩余的边缘服务器执行时延超过传给云服务器的执行时延的时,这时候新的任务可以交由云服务器处理。
[0104]
本方法统一的调度中心节点,调度中心节点部署在移动用户设备和各边缘服务器之间,集成边缘服务器所有的卸载任务,并统一分配计算将计算卸载问题构造为系统时延的最大值最小化模型,通过设计迭代算法解决此优化问题,得出最佳卸载决策,并将移动用户设备的任务分配给边缘服务器或云服务器,实现显著降低时延,减少能耗,提高效率。
[0105]
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
[0106]
以上所述实施例仅表达了本技术描述较为具体和详细的实施例,但并不能因此而理解为对申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本技术构思的前提下,还可以做出若干变形和改进,这些都属于本技术的保护范围。因此,本技术专利的保护范围应以所附权利要求为准。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献