一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

故障GPU的预测方法、装置、电子设备及存储介质与流程

2022-02-22 07:52:55 来源:中国专利 TAG:

故障gpu的预测方法、装置、电子设备及存储介质
技术领域
1.本公开涉及计算机技术领域,具体地,涉及一种故障gpu的预测方法、装置、电子设备及存储介质。


背景技术:

2.随着智能终端的快速普及,图形处理器(graphic processing unit,gpu)在通用计算领域的使用越来越广泛,拥有几百个计算核心的gpu,在计算能力上可以达到每秒万亿次浮点运算(tera floating-point operations per second,tflops)。在通用计算领域,gpu强大的浮点运算能力是中央处理器(central processing unit,cpu)无法比拟的,gpu的通用计算能力,可以弥补cpu并行计算能力的不足。
3.在相关技术为了便于了解gpu集群中的每个gpu的状态,会在每个gpu的节点上部署一个守护进程,通过守护进程收集gpu的型号、温度、功耗、使用时间、使用状态等gpu信息,然后展示gpu信息,并在根据gpu信息确定gpu产生故障时,进行报警。
4.然而,这种方式只有在检测到gpu产生故障时,才进行报警,告知用户端gpu产生了故障,此后,用户端才会更换gpu、或将产生故障的gpu的程序迁移到其他gpu上去执行,这样会影响业务的正常进行。


技术实现要素:

5.提供该部分内容以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该部分内容并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
6.第一方面,本公开提供一种故障gpu的预测方法,该方法包括:
7.获取多个gpu中每个gpu的参数信息,得到参数信息集合;
8.将所述参数信息集合输入到预先训练好的多个预测模型中,得到每个预测模型对应的预测结果;
9.根据所述预测结果从所述多个gpu中确定故障gpu。。
10.第二方面,本公开提供一种故障gpu的预测装置,该装置包括:
11.参数信息集合获取模块,用于获取多个gpu中每个gpu的参数信息,得到参数信息集合;
12.预测结果获取模块,用于将所述参数信息集合输入到预先训练好的多个预测模型中,得到每个预测模型对应的预测结果;
13.预测模块,用于根据所述预测结果从所述多个gpu中确定故障gpu。
14.第三方面,本公开提供一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现第一方面所述方法的步骤。
15.第四方面,本公开提供一种电子设备,包括:
16.存储装置,其上存储有一个或多个计算机程序;
17.一个或多个处理装置,用于执行所述存储装置中的所述一个或多个计算机程序,以实现第一方面所述方法的步骤。
18.本公开提供的技术方案通过获取多个gpu中每个gpu的参数信息,得到参数信息集合;再将所述参数信息集合输入到预先训练好的多个预测模型中,得到每个预测模型对应的预测结果,从而能够得到多个不同模型针对gpu的故障率的预测结果。最后根据所述预测结果从所述多个gpu中确定故障gpu,从而能够结合多个预测模型的预测结果更准确地在gpu出现故障之前就预测出故障gpu,以提醒用户及时处理,避免影响业务的正常运行。
19.本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
20.结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。在附图中:
21.图1是根据一示例性实施例示出的一种故障gpu的预测方法的流程图。
22.图2是根据另一示例性实施例示出的一种故障gpu的预测方法的流程图。
23.图3是根据图2实施例示出的基于级联架构模型实施故障gpu的预测方法的示意图。
24.图4是根据又一示例性实施例示出的一种故障gpu的预测方法的流程图。
25.图5是根据图4实施例示出的基于级联架构模型实施故障gpu的预测方法的示意图。
26.图6是根据一示例性实施例示出的一种故障gpu的预测装置的框图。
27.图7是根据一示例性实施例示出的一种电子设备的结构示意图。
具体实施方式
28.下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
29.应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
30.本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
31.需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
32.需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
33.本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
34.在相关技术中,为了提前对gpu的故障进行预测,通常是在gpu的节点部署检测进程,以从节点中提取出cpu的状态参数,再将gpu的状态参数与预设的平均状态参数进行比较,最后根据比较结果,确定gpu是否将产生故障。
35.然而,这种预测方式太过单一,而平均状态参数无法真实地反映gpu的故障标准,所以无法保证预测结果的准确度。
36.针对上述问题,本公开提供了一种故障gpu的预测方法、装置、电子设备及存储介质,能够提高对故障gpu的预测准确性。
37.下面对本公开所涉及的专业术语进行解释说明:
38.滑动窗口(sliding window):滑动窗口算法是在给定特定窗口大小的数组或字符串上执行要求的操作。该技术可以将一部分问题中的嵌套循环转变为一个单循环,因此它可以减少时间复杂度。
39.一维卷积神经网络(1d-cnn):一维卷积神经网络的输入是一个向量和一个卷积核,输出也是一个向量。通常状况下,输入向量长度远大于卷积核的长度。
40.多层感知机(multilayer perceptron,mlp)也叫人工神经网络(artificial neural network,ann),除了输入输出层,它中间可以有多个隐层,最简单的mlp只含一个隐层,即三层的结构。其输出向量的长度取决于卷积操作的填充方案,等宽卷积的输出。
41.梯度提升(gradient boosting,gb)模型,这是利用损失函数的负梯度在当前模型的值,作为提升树算法中残差的近似值,拟合一个梯度提升模型。
42.图1是根据一示例性实施例示出的一种故障gpu的预测方法的流程图,如图1所示,该方法可以包括以下步骤:
43.110、获取多个gpu中每个gpu的参数信息,得到参数信息集合。
44.示例性的,本实施例提供的故障gpu的预测方法可以应用于电子设备,该电子设备可以包括终端设备、服务器等,该电子设备可以分别与多个具有gpu的待测设备建立通信链路。以下以电子设备为服务器进行说明。
45.在一些实施方式中,服务器可以实时接收多个待测设备中每个待测设备上传的其gpu的参数信息,得到多个gpu的参数信息,然后将多个gpu的参数信息整合为一个参数信息集合,其中,服务器对一个参数信息集合中的多个gpu的参数信息的接收时间是相同的。例如,服务器将从9:00到12:00接收的多个gpu的参数信息作为参数信息集合,该参数信息集合中每个gpu的参数信息的接收时间都为9:00到12:00。
46.其中,gpu的参数信息可以表征gpu的状态。可选的,参数信息包括但不限于:温度、功耗、gpu利用率、gpu显存利用率等等。
47.120、将参数信息集合输入到预先训练好的多个预测模型中,得到每个预测模型对应的预测结果。
48.示例性的,例如,服务器中配置有预先训练好的多个预测模型,例如预测模型包括第一预测模型和第二预测模型,服务器可以将参数信息集合分别输入到第一预测模型和第二预测模型中,再获取第一预测模型根据该参数信息集合输出的第一预测结果,以及第二预测模型根据该参数信息集合输出的第二预测结果。其中,预测结果包括参数信息集合中
每个gpu对应的故障率。
49.130、根据预测结果从多个gpu中确定故障gpu。
50.承接上述示例,服务器可以根据第一预测结果筛选出满足预设条件的第一故障gpu,例如筛选出第一预测结果中故障率大于第一概率阈值(如80%)的gpu作为第一故障gpu。再根据第二预测结果筛选出满足第二预设条件的第二故障gpu,例如筛选出第二预测结果中故障率大于第二概率阈值(如90%)的gpu作为第二故障gpu,最后将第一故障gpu和第二故障gpu中相同的gpu的那个为故障gpu。其中,第一概率阈值和第二概率阈值可以相同也可以不同,在此不做限定。
51.可见,在本实施例中,通过获取多个gpu中每个gpu的参数信息,得到参数信息集合;再将参数信息集合输入到预先训练好的多个预测模型中,得到每个预测模型对应的预测结果,从而能够得到多个不同模型针对gpu的故障率的预测结果。最后根据预测结果从多个gpu中确定故障gpu,从而能够结合多个预测模型的预测结果在gpu出现故障之前就预测出故障gpu,以提醒用户及时处理,避免影响业务的正常运行,其中,由于确定故障gpu考虑了不同预测模型的预测结果,所以考虑的因素更加全面,使得预测更加准确。
52.图2是根据另一示例性实施例示出的一种故障gpu的预测方法的流程图,如图2所示,该方法可以包括以下步骤:
53.210、获取多个gpu中每个gpu的参数信息,得到参数信息集合。
54.其中,步骤210的具体实施方式可以参考步骤110,故不在此赘述。
55.220、将参数信息集合输入到第一预测模型,得到第一预测模型对应的第一预测结果,第一预测结果包括每个gpu对应的第一故障率。
56.示例性的,例如参数信息集合包括gpu1对应的参数信息1、gpu2对应的参数信息2、gpu3对应的参数信息3

以及gpu10对应的参数信息10。服务器可以将参数信息1至参数信息10输入至第一预测模型中,获得第一预测模型输出的gpu1的第一故障率a1、gpu2的第一故障率a2、

以及gpu10的第一故障率a10。
57.230、根据每个gpu对应的第一故障率,从多个gpu选取第一目标gpu。
58.在一些实施方式中,步骤230的具体实施方式可以包括:
59.将第一预测结果中第一故障率最大的前m个gpu确定为第一目标gpu。
60.示例性的,服务器可以将第一故障率a1、第一故障率a2、第一故障率a3
……
第一故障率a10按照从大到小的顺序进行排序,然后从排序中选取出前m个第一故障率对应的gpu确定为第一目标gpu。例如m=3,第一故障率排在前三的分别是第一故障率a2、第一故障率a4以及第一故障率a6,那么第一目标gpu包括gpu2、gpu4和gpu6。其中,m为正整数,m可以根据gpu的总数量确定,例如m可以等于gpu的总数量乘以k1%。
61.在另一些实施方式中,步骤230的具体实施方式可以包括:
62.将第一预测结果中第一故障率大于或等于第一故障率阈值的gpu确定为第一目标gpu。可选的,第一故障率阈值可以是用户自定义设置,也可以是所有第一故障率的平均值。
63.240、将第一目标gpu的参数信息输入到第二预测模型,得到第二预测模型对应的第二预测结果,第二预测结果包括第一目标gpu中的每个gpu对应的第二故障率。
64.示例性的,服务器可以将gpu2的参数信息a2、gpu4的参数信息a4和gpu6的参数信息a6输入至第二预测模型中,获得第二预测模型输出的gpu2对应的第二故障率b2、gpu4对
应的第二故障率b4以及gpu6对应的第二故障率b6。
65.250、根据第一目标gpu中的每个gpu对应的第二故障率,从第一目标gpu中确定故障gpu。
66.在一些实施方式中,步骤250的具体实施方式包括:
67.将第二预测结果中第二故障率最大的前n个第一目标gpu确定为故障gpu。
68.示例性的,服务器可以将第二故障率b2、第二故障率b4、第二故障率b6按照从大到小的顺序进行排序,然后从排序中选取出前n个第二故障率对应的gpu确定为第二目标gpu。例如n=1,第二故障率排在第一的是第二故障率b4,那么服务器可以将第二故障率b4对应的gpu4确定为故障gpu。
69.那么第二目标gpu包括gpu5、gpu2。其中,n为正整数,n可以根据gpu的总数量确定,例如n可以等于gpu的总数量乘以k2%,其中,k1和k2可以相同也可以不同,在此不做限定。
70.在另一些实施方式中,步骤250的具体实施方式可以包括:
71.将第二预测结果中第二故障率大于或等于第二故障率阈值的第一目标gpu确定为故障gpu。可选的,第二故障率阈值可以是用户自定义设置,也可以是所有第二故障率的平均值。
72.可选的,第一预测模型为1d-cnn模型,第二预测模型为mlp模型,或者,第一预测模型为mlp模型,第二预测模型为1d-cnn模型。其中,第一预测模型和第二预测模型都与先根据gpu的多个参数信息样本进行训练,能够根据输入的gpu的参数信息输出该gpu的故障率。
73.示例性的,在实际应用中,如图3所示,1d-cnn模型和mlp模型可以形成级联(cascading)架构的模型,服务器可以将参数信息集合先输入至1d-cnn模型中,1d-cnn模型预测分数最高的topk1%的第一目标gpu,再将第一目标gpu的参数信息输入至mlp模型进行预测,将mlp模型预测分数最高的topk2%作为故障gpu。其中,预测分数可以和故障率呈正相关。
74.在一些实施方式中,在级联架构中的级联的模型数量可以不做限定,不同模型的级联顺序可以不做限定。例如,在上述第一预测模型和第二预测模型的基础上还可以级联第三预测模型,第二预测模型可以根据上述方式得到第二目标gpu,再将第二目标gpu的参数信息输入至第三预测模型中,再将第三预测模型输出的预测分数最高的topk3%的gpu作为故障gpu。以此类推,可以通过该方式级联多个相同或不同的模型来预测故障gpu。
75.可以理解的是,在本实施例中预测模型的训练可以是端到端的训练,即多个模型联合在一起进行训练。
76.在本实施方式中,提出的基于cascading技术的gpu故障时序模型,经实验数据验证预测精度平均提升精度11.1%,从而有效提升了预测准确性。
77.图4是根据又一示例性实施例示出的一种故障gpu的预测方法的流程图,如图4所示,该方法可以包括以下步骤:
78.310、获取多个gpu中每个gpu的参数信息,得到参数信息集合。
79.其中,步骤310的具体实施方式可以参考步骤110,故不在此赘述。
80.在一些实施方式中,步骤310的具体实施方式可以包括:按照预设周期获取多个gpu中每个gpu的参数信息,得到参数信息集合,其中,预设周期的周期时长大于或等于指定时长。
81.示例性的,例如指定时长为1天,预设周期可以为每3天预测一次,那么预先训练好的预测模型每次将获取3天的多个gpu中每个gpu的参数信息,得到参数信息集合,然后再基于该参数信息集合进行预测。
82.考虑到预测模型能够根据1天获取参数信息集合确定gpu出现故障,那么根据3天获取参数信息集合也肯定能够确定gpu出现故障,毕竟1天内会坏的gpu,3天内肯定会坏,在本实施方式中,通过使预设周期的周期时长大于或等于指定时长,可以有效增加预测时间长度,经实验数据验证可以平均提升预测模型精度4.1%,从而有效提升预测模型的预测精度。
83.在一些实施方式中,在步骤310之前,该方法还可以包括:获取gpu的参数信息样本;再通过预设的滑动窗口对参数信息样本进行滑动采样,得到第一样本;然后基于第一样本进行模型训练,得到多个预测模型。
84.示例性的,服务器可以将历史采集的多个gpu的参数信息作为参数信息样本,得到多个参数信息样本,然后将多个参数信息样本按照指定方式排列,然后通过预设的滑动窗口对参数信息样本进行滑动采样,例如,滑动窗口的窗口大小为预设大小(如3个)、滑动方向为预设方向(如从左到右),那么每3个参数信息样本可以进行一次采样,从而得到第一样本,再将第一样本输入到指定的不同模型(如1d-cnn模型、mlp模型等)中进行训练得到多个预测模型。
85.可选的,指定方式可以是随机排列,也可以是按照时间先后进行排列,在此不做限定。
86.在本实施方式中,通过对训练样本通过预设的滑动窗口进行滑动采样,可以使正样数量提升大约至60倍,从而提升训练好的预测模型的预测准确性。
87.320、将参数信息集合输入到第一预测模型,得到第一预测模型对应的第一预测结果,第一预测结果包括每个gpu对应的第一故障率。
88.示例性的,例如参数信息集合包括gpu1对应的参数信息1、gpu2对应的参数信息2、gpu3对应的参数信息3

以及gpu10对应的参数信息10。服务器可以将参数信息1至参数信息10输入至第一预测模型中,获得第一预测模型输出的gpu1的第一故障率a1、gpu2的第一故障率a2、

以及gpu10的第一故障率a10。
89.330、将参数信息集合输入到第二预测模型,得到第二预测模型对应的第二预测结果,第二预测结果包括每个gpu对应的第二故障率。
90.承接上述示例,服务器还可以将参数信息1至参数信息10输入至第二预测模型中,获得第二预测模型输出的gpu1的第二故障率b1、gpu2的第二故障率b2、

以及gpu10的第二故障率b10。
91.340、将参数信息集合输入到第三预测模型,得到第三预测模型对应的第三预测结果,第三预测结果包括每个gpu对应的第三故障率。
92.承接上述示例,服务器还可以将参数信息1至参数信息10输入至第三预测模型中,获得第三预测模型输出的gpu1的第三故障率c1、gpu2的第三故障率c2、

以及gpu10的第三故障率c10。
93.350、根据每个gpu对应的第一故障率,从多个gpu选取第一目标gpu。
94.在一些实施方式中,将第一预测结果中第一故障率最大的前m个gpu确定为第一目
标gpu。
95.示例性的,例如m=4,第一预测结果中,第一故障率从大到小的排序为:a2、a3、a4、a10

,那么可以确定第一目标gpu为gpu2、gpu3、gpu4、gpu10。
96.360、根据每个gpu对应的第二故障率,从多个gpu选取第二目标gpu。
97.在一些实施方式中,将第二预测结果中第二故障率最大的前n个gpu确定为第二目标gpu。
98.示例性的,例如n=4,第二预测结果中,第二故障率从大到小的排序为:b1、b3、b2、b7

,那么可以确定第二目标gpu为gpu1、gpu3、gpu2、gpu7。
99.370、根据每个gpu对应的第三故障率,从多个gpu选取第三目标gpu。
100.在一些实施方式中,将第三预测结果中第三故障率最大的前k个gpu确定为第三目标gpu。
101.示例性的,例如k=3,第三预测结果中,第三故障率从大到小的排序为:c3、c5、c6、c9

,那么可以确定第三目标gpu为gpu3、gpu5、gpu6、gpu9。
102.380、将第一目标gpu、第二目标gpu和第三目标gpu中的相同gpu确定为故障gpu。
103.承接上述示例,可以将gpu3确定为故障gpu。
104.其中,m、n、k均为正整数,m、n、k可以相同也可以不同,在此不做限定。可选的,m、n、k可以根据gpu的总数量确定,具体可以是gpu的总数量k%。
105.可选的,第一预测模型为1d-cnn模型,第二预测模型为mlp模型,第三预测模型为gb模型。
106.示例性的,在实际应用中,如图5所示,1d-cnn模型、mlp模型和gb模型可以形成并行(parallel)架构的模型,服务器可以将参数信息集合分别输入至1d-cnn模型、mlp模型和gb模型中,然后取1d-cnn模型、mlp模型和gb模型的预测分数为前k1%的gpu的交集,作为故障gpu。其中,gpu的预测分数可以和该gpu的故障率呈正相关。
107.在一些实施方式中,该parallel架构的模型可以包括的预测模型的数量为至少两个,具体数量在此不做限定,例如,该parallel架构的模型还可以包括4个或者更多预测模型,多个与预测模型为不同的预测模型,从而能够结合多种模型的决策来确定故障gpu。
108.在本实施例中,通过提出parallel架构的模型来预测故障gpu,经实验数据验证可以平均提升精度13%,从而有效提升预测准确性。
109.可以理解的是,在本实施例中,parallel架构的模型可以是基于第一样本分别对每一预测模型单独进行训练得到。
110.在一些实施方式中,该方法还包括:
111.若当前使用的预测模型的使用时长在预设时长以上,则获取gpu的新的参数信息样本,并通过预设的滑动窗口对新的参数信息样本进行滑动采样,得到第二样本;基于第二样本进行模型训练,得到多个预测模型。
112.示例性的,例如预设时长为15天,则服务器可以在每间隔15天就重新获取gpu的新的参数信息样本,并通过预设的滑动窗口对新的参数信息样本进行滑动采样,得到第二样本,再基于第二样本进行模型的重新训练,得到多个新的预测模型,从而多个预测模型为流式模型,而不是一个固定的静态模型。
113.在本实施方式中,通过采用利用流式模型技术,相比于固定模型,经实验数据验
证,可以平均提升24.7%的精度,从而提升了预测模型的预测准确性。
114.图6是根据一示例性实施例示出的一种故障gpu的预测装置的框图,如图6所示,该装置500可以包括:参数信息集合获取模块510、预测结果获取模块520以及预测模块530。其中:
115.参数信息集合获取模块510,用于获取多个gpu中每个gpu的参数信息,得到参数信息集合。
116.预测结果获取模块520,用于将参数信息集合输入到预先训练好的多个预测模型中,得到每个预测模型对应的预测结果。
117.预测模块530,用于根据预测结果从多个gpu中确定故障gpu。
118.在一些实施方式中,多个预测模型包括第一预测模型和第二预测模型,预测结果获取模块520,包括:
119.第一预测结果确定子模块,用于将参数信息集合输入到第一预测模型,得到第一预测模型对应的第一预测结果,第一预测结果包括每个gpu对应的第一故障率。
120.第一目标gpu确定子模块,用于根据每个gpu对应的第一故障率,从多个gpu选取第一目标gpu。
121.第二预测结果确定子模块,用于将第一目标gpu的参数信息输入到第二预测模型,得到第二预测模型对应的第二预测结果,第二预测结果包括第一目标gpu中的每个gpu对应的第二故障率。
122.相应的,预测模块530,包括:
123.故障gpu确定子模块,用于根据第一目标gpu中的每个gpu对应的第二故障率,从第一目标gpu中确定故障gpu。
124.在一些实施方式中,第一目标gpu确定子模块,还用于将第一预测结果中第一故障率最大的前m个gpu确定为第一目标gpu,其中,m为正整数。
125.故障gpu确定子模块,还用于将第二预测结果中第二故障率最大的前n个第一目标gpu确定为故障gpu,其中,n为正整数。
126.在一些实施方式中,第一预测模型为1d-cnn模型,第二预测模型为mlp模型;或者,第一预测模型为mlp模型,第二预测模型为1d-cnn模型。
127.在一些实施方式中,预测模型包括第一预测模型、第二预测模型以及第三预测模型,预测结果获取模块520具体用于:
128.将参数信息集合输入到第一预测模型,得到第一预测模型对应的第一预测结果,第一预测结果包括每个gpu对应的第一故障率。
129.将参数信息集合输入到第二预测模型,得到第二预测模型对应的第二预测结果,第二预测结果包括每个gpu对应的第二故障率。
130.将参数信息集合输入到第三预测模型,得到第三预测模型对应的第三预测结果,第三预测结果包括每个gpu对应的第三故障率。
131.相应的,预测模块530具体用于根据每个gpu对应的第一故障率,从多个gpu选取第一目标gpu;根据每个gpu对应的第二故障率,从多个gpu选取第二目标gpu;根据每个gpu对应的第三故障率,从多个gpu选取第三目标gpu;将第一目标gpu、第二目标gpu和第三目标gpu中的相同gpu确定为故障gpu。
132.在一些实施方式中,预测结果获取模块520具体还用于将第一预测结果中第一故障率最大的前m个gpu确定为第一目标gpu;将第二预测结果中第二故障率最大的前n个gpu确定为第二目标gpu;将第三预测结果中第三故障率最大的前k个gpu确定为第三目标gpu,其中,m、n、k均为正整数。
133.在一些实施方式中,第一预测模型为1d-cnn模型,第二预测模型为mlp模型,第三预测模型为gb模型。
134.在一些实施方式中,参数信息集合获取模块510具体用于按照预设周期获取多个gpu中每个gpu的参数信息,得到参数信息集合,其中,预设周期的周期时长大于或等于指定时长。
135.在一些实施方式中,该装置500还包括:
136.样本获取模块,用于获取gpu的参数信息样本。
137.预处理模块,用于通过预设的滑动窗口对参数信息样本进行滑动采样,得到第一样本。
138.第一模型训练模块,用于基于第一样本进行模型训练,得到多个预测模型。
139.在一些实施方式中,该装置500还包括:
140.第二样本获取模块,用于若当前使用的预测模型的使用时长在预设时长以上,则获取gpu的新的参数信息样本,并通过预设的滑动窗口对新的参数信息样本进行滑动采样,得到第二样本。
141.第二模型训练模块,用于基于第二样本进行模型训练,得到多个预测模型。
142.下面参考图7,其示出了适于用来实现本公开实施例的电子设备600的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、pda(个人数字助理)、pad(平板电脑)、pmp(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字tv、台式计算机等等的固定终端。图7示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
143.如图7所示,电子设备600可以包括处理装置(例如中央处理器、gpu等)601,其可以根据存储在只读存储器(rom)602中的程序或者从存储装置608加载到随机访问存储器(ram)603中的程序而执行各种适当的动作和处理。在ram 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、rom 602以及ram 603通过总线604彼此相连。输入/输出(i/o)接口605也连接至总线604。
144.通常,以下装置可以连接至i/o接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(lcd)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
145.特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装
置608被安装,或者从rom 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
146.需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、rf(射频)等等,或者上述的任意合适的组合。
147.在一些实施方式中,电子设备可以利用诸如http(hypertext transfer protocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“lan”),广域网(“wan”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
148.上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
149.上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取多个gpu中每个gpu的参数信息,得到参数信息集合;将参数信息集合输入到预先训练好的多个预测模型中,得到每个预测模型对应的预测结果;根据预测结果从多个gpu中确定故障gpu。
150.或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取多个gpu中每个gpu的参数信息,得到参数信息集合;将参数信息集合输入到预先训练好的多个预测模型中,得到每个预测模型对应的预测结果;根据预测结果从多个gpu中确定故障gpu。
151.可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如java、smalltalk、c ,还包括常规的过程式程序设计语言——诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)——连接到用户计算机,或者,可以连接到外部计算机(例如
利用因特网服务提供商来通过因特网连接)。
152.附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
153.描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定。
154.本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、片上系统(soc)、复杂可编程逻辑设备(cpld)等等。
155.在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
156.以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
157.此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
158.尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此
处将不做详细阐述说明。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献