一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

算力资源分配方法、装置、电子设备及储存介质与流程

2022-04-30 14:49:12 来源:中国专利 TAG:


1.本发明涉及云计算技术领域,尤其涉及一种算力资源分配方法、装置、电子设备及储存介质。


背景技术:

2.算力资源是可调用计算资源的总和,包含软件和硬件,本地及远程资源。硬件包括pc,工作站和服务器等物理计算设备,智能仪器(比如示波器),以及其配套附件。软件包括操作系统(windows系列,linux等),开发环境(ide,编译器等),行业软件(如matlab,cad等),办公等其他辅助类工具。通过在算力服务器中进行配置,从而实现算力资源的分配。并在所算力服务器中进行各类智能分析算法的部署,并执行对应的计算任务。而现有的算力服务器中,算法与算力服务器的绑定方式为紧耦合方式。
3.相关技术中,算法与算力服务器的采用紧耦合方式会使得算力资源使用不均衡,造成算力资源严重碎片化,从而使得算力资源无法充分利用。


技术实现要素:

4.本发明实施例提供一种算力资源分配方法、装置、电子设备及储存介质,旨在解决上述背景技术中存在的问题。
5.为了解决上述技术问题,本发明是这样实现的:
6.第一方面,本发明实施例提供了一种算力资源分配方法,所述方法包括:
7.根据多个算法各自的算法属性,确定所述多个算法各自的算力需求特征;
8.根据所述多个算法各自的算力需求特征,对算力平台的资源池进行资源规划,获得多个子资源池;其中,一个子资源池的算力资源与一类算法的算力需求特征匹配;
9.获取所述多个算法各自的软件镜像文件,并部署于所述多个算法各自匹配的子资源池,其中,所述软件镜像文件包括多种应用软件;
10.获取用户的算法应用需求,从所述多个子资源池中确定与所述算法应用需求匹配的目标子资源池。
11.可选地,所述算力平台包括多个服务区域,每个所述服务区域多个子资源池,每个所述子资源池匹配一种算法。
12.可选地,从所述多个子资源池中确定与所述算法应用需求匹配的目标子资源池的步骤包括:
13.获取所述用户的算法应用需求中的算法类型需求和用户的定位信息;
14.根据所述用户的定位信息,在所述算力平台上确定本次算法应用需求的目标服务区域;
15.根据所述算法类型需求指示的算法类型,在所述目标服务区域中确定与所述算法类型匹配的目标子资源池。
16.可选地,在确定算法应用需求的目标子资源池之后,所述方法还包括:
17.在所述目标子资源池中,基于所述算法类型从所述多种应用软件中确定目标软件;
18.在所述目标软件执行计算任务,并生成所述计算任务对应的计算结果;
19.将所述计算结果生成响应信息并反馈至用户。
20.可选地,所述方法还包括:
21.监控所述多个子资源池中的算力资源的占用情况;
22.确定所述多个子资源池中的算力资源占用小于预设阈值的第一子资源池,并对所述第一子资源池进行持续监控;
23.若所述第一子资源池的算力资源在所述持续监期间内仍然小于预设阈值,则将所述第一子资源池的算力资源回收至备用算力资源池。
24.可选地,所述方法还包括:
25.监控所述多个子资源池中的算力资源的占用情况;
26.确定所述多个子资源池中的算力资源占用大于预设阈值的第二子资源池,并对所述第二子资源池进行持续监控;
27.若所述第二子资源池的算力资源在所述持续监期间内仍然大于预设阈值,则调用所述备用算力资源池中的算力资源,对所述第二子资源池的算力资源进行扩充。
28.可选地,所述多个算法各自的软件镜像文件部署于所述多个算法各自匹配的子资源池所采用的部署方式为:容器部署方式或虚拟机部署方式。
29.本发明实施例第二方面提出一种算力资源分配装置,所述装置包括:
30.需求确定单元,用于根据多个算法各自的算法属性,确定所述多个算法各自的算力需求特征;
31.规划单元,用于根据所述多个算法各自的算力需求特征,对算力平台的资源池进行资源规划,获得多个子资源池;其中,一个子资源池的算力资源与一类算法的算力需求特征匹配;
32.获取单元,用于获取所述多个算法各自的软件镜像文件,并部署于所述多个算法各自匹配的子资源池,其中,所述软件镜像文件包括多种应用软件;
33.分配单元,用于获取用户的算法应用需求,从所述多个子资源池中确定与所述算法应用需求匹配的目标子资源池。
34.发明实施例第三方面提出一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
35.存储器,用于存放计算机程序;
36.处理器,用于执行存储器上所存放的程序时,实现本发明实施例第一方面提出方法步骤。
37.本发明实施例第四方面提出一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例第一方面提出方法。
38.本发明实施例包括以下优点:根据多个算法各自的算法属性,确定所述多个算法各自的算力需求特征,根据多个算法各自的算力需求特征,对算力平台的资源池进行资源规划,获得多个子资源池。因此可以对算力平台的算力资源进行更精细的规划,并且使得规划后的算力资源与实际使用环境更匹配。获取多个算法各自的软件镜像文件,并部署于多
个算法各自匹配的子资源池,获取用户的算法应用需求,从多个子资源池中确定与算法应用需求匹配的目标子资源池。相比于现有技术,本技术能够根据算法自身对特定算力资源的需求,对算力资源池进行合理的管理和划分。在接收到用户的算法应用请求后,能够快速分配服务区域和算力资源,提升了客户算法的应用场景适配性并且提高了平台的计算效率。并且本发明由于对平台的算力资源规划更精细,当进行算力资源分配时会更快更准确,从而提高智能分析的响应效率。
附图说明
39.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
40.图1是本发明实施例中算力资源分配系统的系统架构图;
41.图2是本发明实施例中一种算力资源分配方法的步骤流程图;
42.图3是本发明实施例中一种算力资源分配装置的模块示意图;
43.图4是本发明实施例中电子设备的功能模块示意图。
具体实施方式
44.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
45.相关技术中,现有的算力平台接收用户的算力资源请求,并根据算力资源请求在算力平台的算力服务器中执行相应的计算任务,并将相应的计算结果通过网络反馈给用户。而现有的算力平台中,与预存的算法为紧耦合的绑定方式。即现有的算力算力平台中,以一台算力服务器为例,将其对应的cpu(central processing unit,中央处理器)资源a、gpu(graphics processing unit,图像处理器)资源b以及mem(memory,内存)资源c,当然还包括其他算力资源,如显存等进行平均配置,获得多个子服务器,每个子服务器上部署了各个类型的算法。用户在请求算力平台的服务时,算力平台资源的分配原则为先到先得分配,当某种类型的算法对某种算力资源(即资源a、b、c的某一种)占用耗尽时,客户只能等待。而对算力资源的扩充需要在平台的物理资源建设扩充,因此周期长,成本高。
46.基于此,发明人提出了本技术的发明构思:根据算法对算力资源的需求特征进行合理规划,在客户向算力平台获取不同算法需求的时候,根据用户的算法需求快速分配对应的算法资源。
47.如图1所示的算力资源管理系统,系统包括:算法管理模块、算力平台以及资源管理模块,其中,所述算法管理模块用于管理录入算法的算力需求特征、软件镜像以及算法属性。资源管理模块包括资源部署子模块、资源监控子模块以及资源监控子模块,资源部署子模块用于根据预先录入算法的算力需求特征进行资源匹配规划,并从算法管理模块获取先录入算法的软件镜像。资源监控子模块用于实施监控各个子资源池中的算力资源的占用情
2080加速卡以及12gb显存,对mem资源的需求为10gb。则从算力资源池中分配相应的算力资源给算法2和算法5,生成子资源池2,子资源池2中的算力资源与算法2和算法5需求算力资源匹配。对应算法3和算法6,其对cpu资源的需求为4核4线程,geforce gtx 970加速卡以及2gb显存,对mem资源的需求为100gb和cpu资源的需求为4核4线程,geforce gtx980加速卡以及4gb显存,对mem资源的需求为100gb。则从算力资源池中分配相应的算力资源给算法3和算法6,生成子资源池3,子资源池3中的算力资源与算法3和算法6需求算力资源匹配。在对所有的录入算法的m种进行资源分配后,生成n个子资源池,n个子资源池中的算力资源加起来之后,即是边缘算力服务器的全部的算力资源。算法1和算法4属于同一类算法,即对cpu资源要求比较高的算法类别,因此可以都指向到cpu配比高的资源池,共用一个子资源池。算法2和算法5属于同一类算法,即对gpu资源要求比较高的算法类别,因此可以都指向到gpu配比高的资源池,共用一个子资源池。算法3和算法6属于同一类算法,即对mem资源要求比较高的算法类别,因此可以都指向到mem配比高的资源池,共用一个子资源池。根据每种算法对算力资源需求的侧重不同,合理的对算力资源池的算力资源进行划分,从而使得子资源池中的算力资源与一类算法的算力需求特征匹配。
53.步骤s203:获取所述多个算法各自的软件镜像文件,并部署于所述多个算法各自匹配的子资源池,其中,所述软件镜像文件包括多种应用软件。
54.在本实施方式中,将算力平台的资源池进行资源规划,得到多个子资源池之后,算法管理模块获取先录入算法的软件镜像。软件镜像文件和zip压缩包类似,它将特定的一系列文件按照一定的格式制作成单一的文件,包含了各种应用软件。对算力平台的资源池进行资源规划的过程是一个硬件部署的过程,在将硬件部署完成后,将每种算法各自的软件镜像文件部署到对应的子资源池的过程,是一个软件的部署的过程。当硬件部署和软件部署都完成后,即实现对算法应用环境的部署。
55.步骤s204:获取用户的算法应用需求,从所述多个子资源池中确定与所述算法应用需求匹配的目标子资源池。
56.在本实施方式中,在应用阶段,算力平台接收用户的算法的应用需求,并提取算法的应用需求中的相关参数,基于相关参数从已经规划和配置好的子资源池中为用户匹配对应的目标子资源池,并利用目标子资源池中的算力资源执行相应的计算任务。
57.在上述步骤s201至步骤s204对应的实施方式中,通过根据算法自身对特定算力资源的需求,对算力平台的算力资源进行合理的管理和划分。在接收到用户的算法应用请求后,能够快速分配服务区域和算力资源,从而提高了算力平台的计算效率。并且对算力资源规划更精细,当进行算力资源分配时会更快更准确,从而智能分析的响应效率。
58.在一种可行的实施方式中,所述算力平台包括多个服务区域,每个所述服务区域多个子资源池,每个所述子资源池匹配一种算法。
59.在实施方式中,算力平台包括多个服务区域,每个服务区域对应的一个边缘算力服务器。作为示例的,算力平台包含4台边缘算力服务器,每台边缘算力服务器根据其分配的任务。边缘算力服务器1设置在北京,其服务的区域为a片区;边缘算力服务器2设置在成都,其服务的区域为b片区;边缘算力服务器3设置在福建,其服务的区域为c片区;边缘算力服务器2设置在上海,其服务的区域为d片区。边缘算力服务器1-4上都的子资源池的配置都相同,也可以根据地区对算法需求的差异,配置不同的子资源池。并在子资源池中部署对应
的特定算法。若边缘算力服务器1-4上都的子资源池的配置都相同,则边缘算力服务器1-4都包含n个子资源池,n个子资源池中部署相同的m个算法,子资源池1匹配算法类别a,子资源池2匹配算法类别b
……
,子资源池n匹配算法类别n。若边缘算力服务器1-4上都的子资源池的配置不相同,则边缘算力服务器1和2包含n个子资源池,n个子资源池中部署n个算法类别,子资源池1匹配算法类别a,子资源池2匹配算法类别b
……
,子资源池n匹配算法类别n;缘算力服务器3和4包含m个子资源池,m个子资源池中部署m个类别算法,子资源池1匹配算法类别a,子资源池2匹配算法类别b
……
,子资源池m匹配算法类别m。并且边缘算力服务器1和2中的算法类别a与边缘算力服务器3和4中的算法类别a所属的类别不相同。
60.在一种可行的实施方式中,步骤s204中,多个子资源池中确定与所述算法应用需求匹配的目标子资源池的步骤包括以下子步骤:
61.步骤s204-1:获取所述用户的算法应用需求中的算法类型需求和用户的定位信息;
62.步骤s204-2:根据所述用户的定位信息,在所述算力平台上确定本次算法应用需求的目标服务区域;
63.步骤s204-3:根据所述算法类型需求指示的算法类型,在所述目标服务区域中确定与所述算法类型匹配的目标子资源池。
64.在步骤s204-1至s204-3的实施方式中,当用户向算力平台发送算法应用需求,算法应用需求中至少包括用户的算法类型需求和用户的定位信息,用户的定位信息用于表征用户的所属区域信息。作为示例的,位于成都的用户在向算力平台发送算法应用需求时,其应用需求中携带有表征用户属于成都的标识信息,当算力平台检测到用户属于成都的标识信息后,成都属于b片区,因此将用户的算法应用需求对应的计算任务将发送给边缘算力服务器2。在边缘算力服务器2中,再获取算法应用需求中的算法类型需求。在边缘算力服务器2的n个子资源池中,根据算法类型需求确定目标子资源池。作为示例的,若用户算法类型需求中的算法为退火算法,而在边缘算力服务器2中,退火算法部署在子资源池a中,则将子资源池a确定为本次算法应用需求的目标子资源池。即通过用户算法应用需求中的算法 用户的定位信息快速的为用户分配目标子资源池,并利用目标子资源池满足用户的计算需求。在算法应用需求中还可以包括用户的场景应用需求,场景应用需求是指用户对计算任务的时延要求和对边缘算力服务器并发量的要求,作为示例的,如果要求响应速度快或者并发量大,那势必要对使用算力的优先级更高。从而基于优先级进行目标子资源池的分配。提升了算力资源的利用率,并且也提高了响应速度。
65.在一种可行的实施方式中,在确定算法应用需求的目标子资源池之后,所述方法还包括以下步骤:
66.步骤s204-4:在所述目标子资源池中,基于所述算法类型从所述多种应用软件中确定目标软件;
67.在本步骤中,当根据步骤s204-1至步骤s204-3确定出用户本次算法应用需求的目标子资源池之后,此时的目标子资源池可以将其理解为一台pc机,而在该pc机上根据算法软件镜像预装了满足pc机运行和算法运行的多种软件。因此在执行算法任务时,在目标子资源池中的软件中确定执行本次计算任务的目标软件。
68.步骤s204-5:在所述目标软件执行计算任务,并生成所述计算任务对应的计算结
果;
69.在本步骤中,在执行本次计算任务的目标软件将本次计算任务的初始参数输入到目标软件中,将初始参数带入到算法模型中,从而得到本次计算任务的计算结果。
70.步骤s204-6:将所述计算结果生成响应信息并反馈至用户。
71.在本步骤中,将在子资源池中执行计算任务对应的计算结果封装成响应数据包,在根据用户的定位信息将响应数据包发送给用户,从而实现整个计算任务的闭环。
72.在一种可行的实施方式中,所述方法还包括对子资源池的算力资源的监控,其具体包括以下步骤:
73.步骤s205-1:监控所述多个子资源池中的算力资源的占用情况;
74.步骤s205-2:确定所述多个子资源池中的算力资源占用小于预设阈值的第一子资源池,并对所述第一子资源池进行持续监控;
75.步骤s205-3:若所述第一子资源池的算力资源在所述持续监期间内仍然小于预设阈值,则将所述第一子资源池的算力资源回收至备用算力资源池。
76.在步骤s205-1至步骤s205-3所述的实施方式中,资源监控子模块用于监控各个子资源池的算力资源的占用情况。作为示例的,对应边缘算力服务器1中的n个子资源池,当n个子资源池中的编号为m子资源池由于执行的计算任务对算力的需求较小,因此使得m子资源池中的算力资源占用小于预设阈值,这里的预设阈值为阈值下限值,阈值下限值可以为百分之五,阈值下限值可以根据实际情况进行调整,本技术对此不进行限定。将算力资源占用低于百分之五的子资源池定义为第一子资源池,资源监控子模块对第一子资源池的算力资源占用情况进行实时监控,若在预设的时间t内,其算力资源占用都小于预设的百分之五,则说明第一子资源池中的算力资源都处于闲置未使用的状态。因此,可以将所有第一子资源池中的算力资源都进行回收,并将其都储存在备用算力资源池中。通过监控各个子资源池中的算力资源的使用情况,动态的进行调整并回收,充分的利用了算力资源。
77.同理,资源监控子模块还用于监控和调整各个子资源池的算力资源的占用大于预设上限阈值,其具体包括以下步骤:
78.步骤s205-4:监控所述多个子资源池中的算力资源的占用情况;
79.步骤s205-5:确定所述多个子资源池中的算力资源占用大于预设阈值的第二子资源池,并对所述第二子资源池进行持续监控;
80.步骤s205-6:若所述第二子资源池的算力资源在所述持续监期间内仍然大于预设阈值,则调用所述备用算力资源池中的算力资源,对所述第二子资源池的算力资源进行扩充。
81.在步骤s205-4至步骤s205-6所述的实施方式中,作为示例的,对应边缘算力服务器1中的n个子资源池,当n个子资源池中的编号为p子资源池由于执行的计算任务对算力的需求较大,因此使得p子资源池中的算力资源占用大于预设阈值,这里的预设阈值为阈值上限值,阈值上限值可以为百分之九十五,阈值上限值可以根据实际情况进行调整,本技术对此不进行限定。将算力资源占用高于百分之九十五的子资源池定义为第二子资源池,资源监控子模块对第二子资源池的算力资源占用情况进行实时监控,若在预设的时间t内,其算力资源占用都高于预设的百分之九十五,则说明第二子资源池中的算力资源都处于满负荷运行状态。如果按照满负荷运行状态进行持续运行,可能会出现将资源耗尽,而当出现需要
使用p子资源池中的算力资源的用户时,用户需要进行等待的情况出现。因此,可以调用并储存在备用算力资源池中的算力资源,对p子资源池进行算力资源的扩展,从而满足高算力需求。通过监控各个子资源池中的算力资源的使用情况,在算力资源处于用尽状态时,调用备用算力资源池中的算力资源以及算法镜像进行快速扩充,充分的利用了算力资源。从而提高了算力平台的快速部署能力。
82.在一种可行的实施方式中,多个算法各自的软件镜像文件部署于所述多个算法各自匹配的子资源池所采用的部署方式为:容器部署方式或虚拟机部署方式。
83.在本实施方式中,采用虚拟机部署方式主要包括以下优点:虚拟机可减少在服务器设备上的支出,可以利用一个物理服务器资源切分成多个独立的虚拟机来完成许多工作。可以利用虚拟机管理程序的集中功能高效地管理所有虚拟环境。并且这些系统完全相互独立,这意味着可以在不同的虚拟机里安装不同的系统环境。最重要的是,虚拟机与主机操作系统隔离,是进行实验和开发应用程序的安全场所。而采用容器部署方式主要包括以下优点:容器占用的大小比虚拟机小很多,甚至可以小到10mb,可以轻松限制容器的内存和cpu使用率。与部署应用需要部署整个操作系统的虚拟机相比,容器非常轻巧且启动迅速。因此可以快速扩展容器并添加相同的容器。因此,选择容器部署方式或虚拟机部署方式可以基于应用的场景进行选择,本技术对此不进行限定。
84.本发明实施例还提供了一种算力资源分配装置,参照图3,示出了本发明一种算力资源分配装置的功能模块图,该装置可以包括以下模块:
85.需求确定单元301,用于根据多个算法各自的算法属性,确定所述多个算法各自的算力需求特征;
86.规划单元302,用于根据所述多个算法各自的算力需求特征,对算力平台的资源池进行资源规划,获得多个子资源池;其中,一个子资源池的算力资源与一类算法的算力需求特征匹配;
87.部署单元303,用于获取所述多个算法各自的软件镜像文件,并部署于所述多个算法各自匹配的子资源池,其中,所述软件镜像文件包括多种应用软件;
88.分配单元304,用于获取用户的算法应用需求,从所述多个子资源池中确定与所述算法应用需求匹配的目标子资源池。
89.在一种可行的实施方式中,所述分配单元304包括:
90.获取子单元,用于获取所述用户的算法应用需求中的算法类型需求和用户的定位信息;
91.确定子单元,用于根据所述用户的定位信息,在所述算力平台上确定本次算法应用需求的目标服务区域;
92.匹配子单元,用于根据所述算法类型需求指示的算法类型,在所述目标服务区域中确定与所述算法类型匹配的目标子资源池。
93.在一种可行的实施方式中,所述分配单元304还包括:
94.定位子单元,用于在所述目标子资源池中,基于所述算法类型从所述多种应用软件中确定目标软件;
95.执行子单元,用于在所述目标软件执行计算任务,并生成所述计算任务对应的计算结果;
96.反馈子单元,用于将所述计算结果生成响应信息并反馈至用户。
97.在一种可行的实施方式中,所述装置还包括:监控调度单元,所述监控调度单元包括:
98.第一监控子单元,用于监控所述多个子资源池中的算力资源的占用情况;
99.第一确定子单元,用于确定所述多个子资源池中的算力资源占用小于预设阈值的第一子资源池,并对所述第一子资源池进行持续监控;
100.回收子单元,用于若所述第一子资源池的算力资源在所述持续监期间内仍然小于预设阈值,则将所述第一子资源池的算力资源回收至备用算力资源池。
101.在一种可行的实施方式中,所述监控调度单元还包括:
102.第二监控子单元,用于监控所述多个子资源池中的算力资源的占用情况;
103.第二监控子单元,用于确定所述多个子资源池中的算力资源占用大于预设阈值的第二子资源池,并对所述第二子资源池进行持续监控;
104.扩充子单元,用于若所述第二子资源池的算力资源在所述持续监期间内仍然大于预设阈值,则调用所述备用算力资源池中的算力资源,对所述第二子资源池的算力资源进行扩充。
105.在一种可行的实施方式中,所述部署单元303包括:
106.第一监控子单元,用于采用虚拟机部署方式多个算法各自的软件镜像文件部署于所述多个算法各自匹配的子资源池。
107.第二监控子单元,用于采用容器部署方式将多个算法各自的软件镜像文件部署于所述多个算法各自匹配的子资源池。
108.基于同一发明构思,本发明另一实施例提供一种电子设备,如图4所示,包括处理器41、通信接口42、存储器43和通信总线44,其中,处理器41,通信接口42,存储器43通过通信总线44完成相互间的通信,
109.存储器43,用于存放计算机程序;
110.处理器41,用于执行存储器43上所存放的程序时,实现本发明实施例第一方面的步骤。
111.上述终端提到的通信总线可以是外设部件互连标准(peripheral component interconnect,简称pci)总线或扩展工业标准结构(extended industry standard architecture,简称eisa)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
112.通信接口用于上述终端与其他设备之间的通信。
113.存储器可以包括随机存取存储器(random access memory,简称ram),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
114.上述的处理器可以是通用处理器,包括中央处理器(central processing unit,简称cpu)、网络处理器(network processor,简称np)等;还可以是数字信号处理器(digital signal processing,简称dsp)、专用集成电路(application specific integrated circuit,简称asic)、现场可编程门阵列(field-programmable gate array,简称fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
115.在本发明提供的又一实施例中,还提供了一种计算机可读储存介质,包含本技术实施例第二方面所述的算力资源分配装置。
116.本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用储存介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
117.本发明实施例是参照根据本发明实施例的方法、终端设备(装置)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
118.这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
119.这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
120.最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。“和/或”表示可以选择两者之中的任意一个,也可以两者都选择。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
121.以上对本发明所提供的一种算力资源分配方法、装置、电子设备及储存介质,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献