一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于人工智能的服务器容量预测方法、装置、设备及介质与流程

2021-12-01 01:51:00 来源:中国专利 TAG:


1.本技术涉及人工智能技术领域,具体而言,本技术涉及一种基于人工智能的服务器容量预测方法、装置、设备及介质。


背景技术:

2.在计算机行业中,任何一个软件系统都需要消耗一定的硬件服务器资源,硬件资源的配置高低与数量多少直接关乎到运行成本,而硬件资源的配置和数量是根据服务器容量来评估的。因此需要有一种准确的服务器容量的预测方法,来根据容量大小规划硬件配置与数量。
3.传统的服务器容量的预测方法,根据技术专家的个人经验进行预测,不仅效率低下,而且预测的精度也难以保证。


技术实现要素:

4.本技术的主要目的为提供一种基于人工智能的服务器容量预测方法、装置、设备及介质,以提高服务器容量的预测效率及精度。
5.为了实现上述发明目的,本技术提供一种基于人工智能的服务器容量预测方法,其包括以下步骤:
6.获取影响服务器容量预测的所有指标,从所述所有指标中筛选出对服务器容量影响程度大于预设值的目标指标;
7.将所述目标指标转换成tps形式,得到所述服务器的tps;
8.将所述tps输入预先训练好的服务器容量预测模型,得到所述服务器的cpu利用率;其中,所述服务器容量预测模型为神经网络模型,用于根据输入的tps评估服务器的cpu利用率;
9.根据所述cpu利用率预测所述服务器的容量。
10.优选地,所述tps包括多个,所述将所述tps输入预先训练好的服务器容量预测模型,得到所述服务器的cpu利用率,包括:
11.将各个tps分别输入所述服务器容量预测模型中的不同神经元,得到各个神经元对应的输出值;其中,各个神经元预置有对应的权重;
12.将各个所述输出值乘以对应神经元的权重后进行求和,得到求和结果;
13.将所述求和结果输入预设的激活函数进行转换,得到所述服务器的cpu利用率。
14.进一步地,所述将所述tps输入预先训练好的服务器容量预测模型之前,还包括:
15.获取训练集;其中,每个训练集包括多个tps样本及已确定的目标cpu利用率;
16.将所述训练集输入预先构建的神经网络模型进行训练;
17.判断所述神经网络模型输出的训练结果是否满足要求;
18.若是,将训练结果满足要求的神经网络模型作为所述服务器容量预测模型。
19.优选地,所述将所述训练集输入预先构建的神经网络模型进行训练,包括:
20.将每个训练集的多个tps样本分别输入所述神经网络模型的不同神经元进行训练;
21.所述将当前训练结果满足要求的神经网络模型作为所述服务器容量预测模型,包括:
22.将训练结果满足要求的神经网络模型的所有神经元进行组合后,得到所述服务器容量预测模型。
23.优选地,所述判断所述神经网络模型输出的训练结果是否满足要求,包括:
24.根据所述训练结果计算所述神经网络模型的损失值;
25.判断所述损失值是否小于预设损失值;
26.当确定所述损失值小于预设损失值时,则判定所述神经网络模型输出的训练结果满足要求;
27.当确定所述损失值不小于预设损失值时,利用反向传播算法调整所述神经网络模型的参数,并返回执行所述将所述训练集输入预先构建的神经网络模型进行训练的步骤,以对调整参数后的所述神经网络模型再次训练,直至所述损失值小于预设损失值为止。
28.优选地,所述从所述所有指标中筛选出对服务器容量影响程度大于预设值的目标指标,包括:
29.计算各个指标对预测所述服务器容量的影响程度值;
30.根据所述影响程度值的大小对各个指标进行排序,筛选出排在前n位的指标作为目标指标;其中,排在前n位的指标的影响程度值都大于预设值,所述n为正整数。
31.优选地,所述根据所述cpu利用率预测所述服务器的容量,包括:
32.获取标准cpu利用率;
33.根据所述cpu利用率及标准cpu利用率预测所述服务器的容量;其中,所述服务器的容量使所述服务器的cpu利用率在所述标准cpu利用率内。
34.本技术还提供一种基于人工智能的服务器容量预测装置,其包括:
35.获取模块,用于获取影响服务器容量预测的所有指标,从所述所有指标中筛选出对服务器容量影响程度大于预设值的目标指标;
36.转换模块,用于将所述目标指标转换成tps形式,得到所述服务器的tps;
37.输入模块,用于将所述tps输入预先训练好的服务器容量预测模型,得到所述服务器的cpu利用率;其中,所述服务器容量预测模型为神经网络模型,用于根据输入的tps评估服务器的cpu利用率;
38.预测模块,用于根据所述cpu利用率预测所述服务器的容量。
39.本技术还提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
40.本技术还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述任一项所述方法的步骤。
41.本技术所提供的一种基于人工智能的服务器容量预测方法、装置、设备及介质,通过获取影响服务器容量预测的所有指标,从所有指标中筛选出对服务器容量影响程度大于预设值的目标指标;将目标指标转换成tps形式,得到服务器的tps;将tps输入预先训练好的服务器容量预测模型,得到服务器的cpu利用率,根据cpu利用率预测所述服务器的容量。
本技术只要将tps输入服务器容量预测模型,就能自动输出cpu利用率,基于cpu利用率准确预测所述服务器的容量,减少了人工预测的工作量,提高了效率,同时确保服务器容量预测的精度。
附图说明
42.图1为本技术一实施例的基于人工智能的服务器容量预测方法的流程示意图;
43.图2为本技术一实施例的基于人工智能的服务器容量预测装置的结构示意框图;
44.图3为本技术一实施例的计算机设备的结构示意框图。
45.本技术目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
46.为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本技术进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本技术,并不用于限定本技术。
47.本技术实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(artificial intelligence,ai)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
48.人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
49.参考图1,本技术提出一种基于人工智能的服务器容量预测方法,以服务器为执行主体,服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(content delivery network,cdn)、以及大数据和人工智能平台等基础云计算服务的云服务器。
50.本技术中,该基于人工智能的服务器容量预测方法用于提高服务器容量的预测效率及精度,参照图1,其中一个实施例中,该基于人工智能的服务器容量预测方法包括如下步骤:
51.s11、获取影响服务器容量预测的所有指标,从所述所有指标中筛选出对服务器容量影响程度大于预设值的目标指标;
52.s12、将所述目标指标转换成tps形式,得到所述服务器的tps;
53.s13、将所述tps输入预先训练好的服务器容量预测模型,得到所述服务器的cpu利用率;其中,所述服务器容量预测模型为神经网络模型,用于根据输入的tps评估服务器的cpu利用率;
54.s14、根据所述cpu利用率预测所述服务器的容量。
55.如上述步骤s11所述,本技术获取影响服务器容量预测的所有指标,该指标可通过服务器的历史运行状态进行确定,或从服务器的历史运行参数中进行获取。其中,该指标包括请求量、用户量、线程切换数等等。例如,对于业务系统,业务系统在生产环境每时每刻的
流量、请求量、用户量、线程切换数、iops(input/output operations per second,即每秒进行读写(i/o)操作的次数,多用于数据库等场合,衡量随机访问的性能)等等指标都可以收集到,通过对这些已有的指标进行分析、总结,来预测当系统流量达到一个从未有过的量级时,cpu利用率会是多少。
56.其中,指标的选取并不是越多越好,过多的指标将很容易产生“过拟合”的情况。因此,需要从所有指标中筛选出对服务器容量影响程度大于预设值的目标指标,以尽可能选择对服务器容量影响较大的少量指标,如请求量。其中,该预设值可自定义设置。
57.如上述步骤s12所述,经过分析总结,发现服务器的绝大多数指标最终都会表现在tps上,比如服务器的并发数上升,则tps一般也会上升;再比如服务器的响应时间增加,则tps很可能会降低。另外,服务器的容量风险基本上都是随着流量增长而产生的,而体现流量增长最直观的指标就是tps。因此,本实施例的所有指标都会影响tps,可以将所有目标指标都转换成tps形式,得到服务器的tps。其中,tps,transactions per second(每秒传输的事物处理个数),即服务器每秒处理的事务数。
58.如上述步骤s13所述,服务器的cpu利用率是衡量服务器容量是否充足的一个重要表现。例如,当服务器的cpu利用率在大多数时间达到90%以上时,则认为服务器容量不充足。因此,可选择将服务器的tps,以及该服务器所依赖的所有服务器的tps作为输入,将tps输入预先训练好的服务器容量预测模型,将cpu利用率作为服务器容量预测模型的输出结果。其中,cpu利用率是评价服务器容量的主要因素,服务器容量预测模型为根据历史tps训练机器学习模型得到,能够实现对cpu利用率的预测,以便根据cpu利用率对服务器容量进行预测,避免现有技术中通过人工预测而可能导致的预测效率及精度较低的问题,提高了服务器容量预测方法的智能化程度。
59.如上述步骤s14所述,本实施例可预先设定一参考服务器容量,则服务器容量预测模型输出的cpu利用率为该参考服务器容量下的cpu利用率,则根据服务器容量预测模型输出的cpu利用率预测服务器的容量,例如,当参考服务器容量为100g,cpu利用率为80%时,大于设定的范围50%,则需增大参考服务器容量,预测得到的服务器的容量可以是200g。
60.本技术所提供的一种基于人工智能的服务器容量预测方法,通过获取影响服务器容量预测的所有指标,从所有指标中筛选出对服务器容量影响程度大于预设值的目标指标;将目标指标转换成tps形式,得到服务器的tps;将tps输入预先训练好的服务器容量预测模型,得到服务器的cpu利用率,根据cpu利用率预测所述服务器的容量。本技术只要将tps输入服务器容量预测模型,就能自动输出cpu利用率,基于cpu利用率准确预测所述服务器的容量,减少了人工预测的工作量,提高了效率,同时确保服务器容量预测的精度。
61.在一实施例中,所述tps包括多个,在步骤s13中,所述将所述tps输入预先训练好的服务器容量预测模型,得到所述服务器的cpu利用率,可具体包括:
62.s131、将各个tps分别输入所述服务器容量预测模型中的不同神经元,得到各个神经元对应的输出值;其中,各个神经元预置有对应的权重;
63.s132、将各个所述输出值乘以对应神经元的权重后进行求和,得到求和结果;
64.s133、将所述求和结果输入预设的激活函数进行转换,得到所述服务器的cpu利用率。
65.本实施例可采用神经网络算法进行建模,将服务器自身的tps、依赖其他服务器的
各tps作为输入,并引入神经元,利用神经元预置的数学算法计算得到输出值,每个输出值需要乘以神经元上预置的权重w后进行求和,可再与一个外部的偏置常数b相加,得到最终的求和结果,将这个求和结果输入一个激活函数进行转换,最终得到服务器的cpu利用率。
66.其中,服务器容量预测模型是一组按层次组成的神经元。每个神经元都是一个数学运算,它接受输入,计算得到输出值,将输出值乘以它的权重。
67.其中,激活函数(activation functions)对于人工神经网络模型去学习、理解非常复杂和非线性的函数来说具有十分重要的作用。它们将非线性特性引入到我们的网络中。在神经元中,输入的各个tps通过加权,求和后,还被输入一个函数中,这个函数就是激活函数。引入激活函数是为了增加神经网络模型的非线性,没有激活函数的每层都相当于矩阵相乘。
68.本实施例将不同的指标对应的tps输入不同的神经元中进行运算,可实现同步运算,提高计算效率;同时结合神经元上的权重进行运算,得到输出值,以侧重某些指标,提高cpu利用率的计算精度。
69.在一实施例中,所述将所述tps输入预先训练好的服务器容量预测模型之前,还可包括:
70.获取训练集;其中,每个训练集包括多个tps样本及已确定的目标cpu利用率;
71.将所述训练集输入预先构建的神经网络模型进行训练;
72.判断所述神经网络模型输出的训练结果是否满足要求;
73.若是,将训练结果满足要求的神经网络模型作为所述服务器容量预测模型。
74.本实施例可获取tps样本,并可对获取得到的tps样本进行归一化预处理,如转换为统一的数据格式,或将tps样本中无实质意义的数据去除。然后利用归一化预处理的tps样本建立神经网络模型的训练集和测试集。例如,可将tps样本中百分之九十的部分作为训练集,将剩余百分之十的部分作为测试集,将训练集输入预先构建的神经网络模型进行多次训练,并判断所述神经网络模型每次训练后,输出的训练结果是否满足要求,若是,则将训练结果满足要求的神经网络模型作为所述服务器容量预测模型。
75.此外,还可采用k折交叉验证法对服务器容量预测模型进行评估,k折交叉验证使用了无重复抽样技术,每次迭代过程中,每个样本点只有一次被划入训练集或测试集的机会,因此得到的结论是比较稳定的。通过k折交叉验证的方法,可以对服务器容量预测模型优劣进行定量分析,提升对服务器容量预测模型准确度的评判效率。
76.在一实施例中,所述将所述训练集输入预先构建的神经网络模型进行训练,包括:
77.将每个训练集的多个tps样本分别输入所述神经网络模型的不同神经元进行训练;
78.所述将当前训练结果满足要求的神经网络模型作为所述服务器容量预测模型,包括:
79.将训练结果满足要求的神经网络模型的所有神经元进行组合后,得到所述服务器容量预测模型。
80.本实施例在经过多次迭代评估之后得到一个最优模型。具体的,将每个训练集的多个tps样本分别输入神经网络模型的不同神经元进行训练,以对每个神经元进行独立训练,将多个训练好的神经元组合起来构成服务器容量预测模型。该服务器容量预测模型可
包含一层输入层,两层隐藏层和一层输出层,通过在训练过程中不断地调整各层的权重,最终形成可供预测的服务器容量预测模型。
81.在一实施例中,所述判断所述神经网络模型输出的训练结果是否满足要求,包括:
82.根据所述训练结果计算所述神经网络模型的损失值;
83.判断所述损失值是否小于预设损失值;
84.当确定所述损失值小于预设损失值时,则判定所述神经网络模型输出的训练结果满足要求;
85.当确定所述损失值不小于预设损失值时,利用反向传播算法调整所述神经网络模型的参数,并返回执行所述将所述训练集输入预先构建的神经网络模型进行训练的步骤,以对调整参数后的所述神经网络模型再次训练,直至所述损失值小于预设损失值为止。
86.在本实施例中,在对神经网络模型每次训练后,可利用损失函数计算训练完成后的损失值,并在损失值满足预设阈值或小于预设损失值时,即满足要求,则表明神经网络模型达到训练要求,完成所述神经网络模型的训练,将完成训练的神经网络模型作为服务器容量预测模型,以提高服务器容量预测模型的预测精度。
87.当所述损失值不小于预设损失值时,可根据损失值在神经网络模型的神经网络结构中进行前向传递,调整神经网络模型的相关参数,基于重新设置的相关参数对调整后的神经网络模型进行重新训练,并计算再次训练,直至损失值小于预设损失值为止,至此神经网络模型训练结束。
88.其中,反向传播算法是一种监督学习算法,常被用来训练多层感知机,该方法对神经网络中所有权重计算损失函数的梯度,这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。具体的,反向传播算法主要由两个环节(激励传播、权重更新)反复循环迭代,直到神经网络对输入的响应达到预定的目标范围为止。
89.在一实施例中,所述从所述所有指标中筛选出对服务器容量影响程度大于预设值的目标指标,包括:
90.计算各个指标对预测所述服务器容量的影响程度值;
91.根据所述影响程度值的大小对各个指标进行排序,筛选出排在前n位的指标作为目标指标;其中,排在前n位的指标的影响程度值都大于预设值,所述n为正整数。
92.本实施例可根据各个指标在服务器历史运行中对该服务器的cpu占用情况,计算各个指标对预测服务器容量的影响程度值,该影响程度值可用于评估各个指标对预测服务器容量的影响程度,因此影响程度越大,则相应的影响程度值也越大,然后根据所述影响程度值的大小对各个指标进行排序,筛选出排在前n位的指标,将排在前n位的指标作为目标指标,如筛选出排在前三位的指标作为目标指标。
93.在一实施例中,所述根据所述cpu利用率预测所述服务器的容量,包括:
94.获取标准cpu利用率;
95.根据所述cpu利用率及标准cpu利用率预测所述服务器的容量;其中,所述服务器的容量使所述服务器的cpu利用率在所述标准cpu利用率内。
96.本实施例可预先设定一参考服务器容量及标准cpu利用率,则服务器容量预测模型输出的cpu利用率为该参考服务器容量下的cpu利用率,则根据服务器容量预测模型输出的cpu利用率及标准cpu利用率预测服务器的容量,例如,当参考服务器容量为100g,cpu利
用率为80%时,标准cpu利用率为50%,因此cpu利用率大于设定的标准cpu利用率,则需增大参考服务器容量,预测得到的服务器的容量可以是200g,使所述服务器的cpu利用率为40%,在所述标准cpu利用率内。
97.参照图2,本技术实施例中还提供一种基于人工智能的服务器容量预测装置,包括:
98.获取模块11,用于获取影响服务器容量预测的所有指标,从所述所有指标中筛选出对服务器容量影响程度大于预设值的目标指标;
99.转换模块12,用于将所述目标指标转换成tps形式,得到所述服务器的tps;
100.输入模块13,用于将所述tps输入预先训练好的服务器容量预测模型,得到所述服务器的cpu利用率;其中,所述服务器容量预测模型为神经网络模型,用于根据输入的tps评估服务器的cpu利用率;
101.预测模块14,用于根据所述cpu利用率预测所述服务器的容量。
102.本技术获取影响服务器容量预测的所有指标,该指标可通过服务器的历史运行状态进行确定,或从服务器的历史运行参数中进行获取。其中,该指标包括请求量、用户量、线程切换数等等。例如,对于业务系统,业务系统在生产环境每时每刻的流量、请求量、用户量、线程切换数、iops(input/output operations per second,即每秒进行读写(i/o)操作的次数,多用于数据库等场合,衡量随机访问的性能)等等指标都可以收集到,通过对这些已有的指标进行分析、总结,来预测当系统流量达到一个从未有过的量级时,cpu利用率会是多少。
103.其中,指标的选取并不是越多越好,过多的指标将很容易产生“过拟合”的情况。因此,需要从所有指标中筛选出对服务器容量影响程度大于预设值的目标指标,以尽可能选择对服务器容量影响较大的少量指标,如请求量。其中,该预设值可自定义设置。
104.本技术经过分析总结,发现服务器的绝大多数指标最终都会表现在tps上,比如服务器的并发数上升,则tps一般也会上升;再比如服务器的响应时间增加,则tps很可能会降低。另外,服务器的容量风险基本上都是随着流量增长而产生的,而体现流量增长最直观的指标就是tps。因此,本实施例的所有指标都会影响tps,可以将所有目标指标都转换成tps形式,得到服务器的tps。其中,tps,transactions per second(每秒传输的事物处理个数),即服务器每秒处理的事务数。
105.服务器的cpu利用率是衡量服务器容量是否充足的一个重要表现。例如,当服务器的cpu利用率在大多数时间达到90%以上时,则认为服务器容量不充足。因此,可选择将服务器的tps,以及该服务器所依赖的所有服务器的tps作为输入,将tps输入预先训练好的服务器容量预测模型,将cpu利用率作为服务器容量预测模型的输出结果。其中,cpu利用率是评价服务器容量的主要因素,服务器容量预测模型为根据历史tps训练机器学习模型得到,能够实现对cpu利用率的预测,以便根据cpu利用率对服务器容量进行预测,避免现有技术中通过人工预测而可能导致的预测效率及精度较低的问题,提高了服务器容量预测方法的智能化程度。
106.本实施例可预先设定一参考服务器容量,则服务器容量预测模型输出的cpu利用率为该参考服务器容量下的cpu利用率,则根据服务器容量预测模型输出的cpu利用率预测服务器的容量,例如,当参考服务器容量为100g,cpu利用率为80%时,大于设定的范围
50%,则需增大参考服务器容量,预测得到的服务器的容量可以是200g。
107.如上所述,可以理解地,本技术中提出的所述基于人工智能的服务器容量预测装置的各组成部分可以实现如上所述基于人工智能的服务器容量预测方法任一项的功能,具体结构不再赘述。
108.参照图3,本技术实施例中还提供一种计算机设备,其内部结构可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括存储介质、内存储器。该存储介质存储有操作系统、计算机程序和数据库。该内存器为存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储指标、tps等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于人工智能的服务器容量预测方法。
109.上述处理器执行上述的基于人工智能的服务器容量预测方法,包括:
110.获取影响服务器容量预测的所有指标,从所述所有指标中筛选出对服务器容量影响程度大于预设值的目标指标;
111.将所述目标指标转换成tps形式,得到所述服务器的tps;
112.将所述tps输入预先训练好的服务器容量预测模型,得到所述服务器的cpu利用率;其中,所述服务器容量预测模型为神经网络模型,用于根据输入的tps评估服务器的cpu利用率;
113.根据所述cpu利用率预测所述服务器的容量。
114.本技术一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现一种基于人工智能的服务器容量预测方法,包括步骤:
115.获取影响服务器容量预测的所有指标,从所述所有指标中筛选出对服务器容量影响程度大于预设值的目标指标;
116.将所述目标指标转换成tps形式,得到所述服务器的tps;
117.将所述tps输入预先训练好的服务器容量预测模型,得到所述服务器的cpu利用率;其中,所述服务器容量预测模型为神经网络模型,用于根据输入的tps评估服务器的cpu利用率;
118.根据所述cpu利用率预测所述服务器的容量。
119.本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双速据率sdram(ssrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。
120.综上所述,本技术的最大有益效果在于:
121.本技术所提供的一种基于人工智能的服务器容量预测方法、装置、设备及介质,通过获取影响服务器容量预测的所有指标,从所有指标中筛选出对服务器容量影响程度大于预设值的目标指标;将目标指标转换成tps形式,得到服务器的tps;将tps输入预先训练好的服务器容量预测模型,得到服务器的cpu利用率,根据cpu利用率预测所述服务器的容量。本技术只要将tps输入服务器容量预测模型,就能自动输出cpu利用率,基于cpu利用率准确预测所述服务器的容量,减少了人工预测的工作量,提高了效率,同时确保服务器容量预测的精度。
122.需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
123.以上所述仅为本技术的优选实施例,并非因此限制本技术的专利范围,凡是利用本技术说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本技术的专利保护范围内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献