一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种AI芯片计算性能的测试方法、装置、设备、及介质与流程

2021-10-30 01:50:00 来源:中国专利 TAG:介质 性能测试 装置 芯片 计算

一种ai芯片计算性能的测试方法、装置、设备、及介质
技术领域
1.本公开涉及计算机技术领域,尤其涉及人工智能和深度学习技术领域,具体涉及一种ai芯片计算性能的测试方法、装置、设备、及介质。


背景技术:

2.在人工智能(artificial intelligence,ai)芯片的开发过程中,需要提前或者同步开发与ai芯片对应的性能模拟器。ai芯片的性能模拟器,用于对ai芯片执行计算过程的性能进行模拟,达到性能模拟结果接近ai芯片的真实性能结果。
3.目前的ai芯片性能模拟器,通常都是按照ai芯片的硬件设计和实现方式,正向开发得到的性能模拟器。但是,由于ai芯片设计越来越复杂,目前的性能模拟器的开发方案中,往往对开发人员的专业水平要求特别高,需要开发人员深入理解ai芯片的设计和实现方法,并且需要耗费大量的开发资源和时间成本;其次,模拟结果准确性精度很难提高,模拟器的灵活性比较低,版本迭代的成本较高。


技术实现要素:

4.本公开提供了一种ai芯片计算性能的测试方法、装置、设备、及介质。
5.根据本公开的一方面,提供了一种ai芯片计算性能的测试方法,所述方法包括:
6.根据待测ai芯片在开发过程中所形成的各项仿真模拟数据,形成待测ai芯片的计算性能结果数据;
7.获取与待测业务功能匹配的功能指令集,所述功能指令集使用与待测ai芯片匹配的标准指令集中的多项指令组合构成;
8.根据所述功能指令集,以及所述计算性能结果数据,预测所述待测ai芯片执行所述业务功能所需的计算耗时。
9.根据本公开的另一方面,提供了一种ai芯片计算性能的测试装置,所述装置包括:
10.性能结果形成模块,用于根据待测ai芯片在开发过程中所形成的各项仿真模拟数据,形成待测ai芯片的计算性能结果数据;
11.指令集获取模块,用于获取与待测业务功能匹配的功能指令集,所述功能指令集使用与待测ai芯片匹配的标准指令集中的多项指令组合构成;
12.耗时预测模块,用于根据所述功能指令集,以及所述计算性能结果数据,预测所述待测ai芯片执行所述业务功能所需的计算耗时。
13.根据本公开的另一方面,提供了一种电子设备,包括:
14.至少一个处理器;以及
15.与所述至少一个处理器通信连接的存储器;其中,
16.所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开中任一实施例所述的方法。
17.根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储
介质,所述计算机指令用于使所述计算机执行本公开中任一实施例所述的方法。
18.根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现本公开中任一实施例所述的方法。
19.本公开实施例的技术方案可以保证ai芯片计算性能预测结果的准确性,降低性能模拟器的开发和调试工作量。
20.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
21.图1是根据本公开实施例的一种ai芯片计算性能的测试方法的流程示意图;
22.图2是根据本公开实施例的又一种ai芯片计算性能的测试方法的流程示意图;
23.图3是根据本公开实施例的又一种ai芯片计算性能的测试方法的流程示意图;
24.图4是根据本公开实施例的一种ai芯片计算性能的测试装置的结构示意图;
25.图5是根据本公开实施例的ai芯片计算性能的测试方法的电子设备的框图。
具体实施方式
26.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
27.图1是根据本公开实施例的一种ai芯片计算性能的测试方法的流程示意图,本实施例适用于对ai芯片的计算性能进行预测的情形,该方法可以通过ai芯片计算性能的测试装置来执行,该装置可以通过软件和/或硬件的方式实现,并一般可以集成在具有数据处理功能的终端或者服务器中。具体的,参考图1,该方法具体包括如下步骤:
28.步骤110、根据待测ai芯片在开发过程中所形成的各项仿真模拟数据,形成待测ai芯片的计算性能结果数据。
29.在本实施例中,待测ai芯片为等待预测计算性能的ai芯片。在待测ai芯片的开发过程中,可以通过性能仿真工具对待测ai芯片的计算性能进行仿真,得到与待测ai芯片对应的各项仿真模拟数据。其中,所述性能仿真工具具体可以为电子设计自动化(electronic design automation,eda)工具。
30.在一个具体的实施例中,可以通过所述性能仿真工具,对所述待测ai芯片针对不同的计算指令,得到的计算结果数据,以及计算过程的耗时进行仿真,得到与待测ai芯片对应的各项仿真模拟数据。其中,每项仿真模拟数据可以包括仿真过程涉及到的计算指令、得到的计算结果以及计算耗时。
31.在本实施例中,在获取到待测ai芯片在开发过程中所形成的各项仿真模拟数据后,可选的,可以将仿真模拟数据中包括的计算指令,以及对应的计算耗时,作为待测ai芯片的计算性能结果数据。
32.步骤120、获取与待测业务功能匹配的功能指令集,所述功能指令集使用与待测ai芯片匹配的标准指令集中的多项指令组合构成。
33.在此步骤中,每个待测ai芯片都对应一个标准指令集,所述标准指令集中包括待测ai芯片可以执行的多项计算指令。在对ai芯片针对某项业务功能的计算性能进行预测时,可以获取与该业务功能匹配的功能指令集。其中,待测业务功能可以为性能仿真工具对待测ai芯片没有仿真过的业务功能。
34.在本实施例中,所述功能指令集可以由与待测ai芯片匹配的标准指令集中的多项计算指令组合得来,所述业务功能可以包括算术运算功能和其他各种运算(例如逻辑运算等)功能。
35.步骤130、根据所述功能指令集,以及所述计算性能结果数据,预测所述待测ai芯片执行所述业务功能所需的计算耗时。
36.在本实施例中,可选的,可以获取功能指令集中的多项计算指令,在所述计算性能结果数据中查询与各项计算指令分别对应的计算耗时,根据与各项计算指令分别对应的计算耗时,预测待测ai芯片执行所述功能指令集所需的计算耗时(也即待测ai芯片执行所述业务功能所需的计算耗时)。
37.在一个具体的实施例中,假设通过性能仿真工具对待测ai芯片针对各项计算指令的计算性能进行仿真后,得到的计算性能结果数据中记载了待测ai芯片执行计算指令a的耗时为t1,执行计算指令b的耗时为t2,执行计算指令c的耗时为t3。假设与待测业务功能匹配的功能指令集中包括计算指令a、计算指令b以及计算指令c,则可以根据各项指令之间的关系,以及与各项计算指令分别对应的计算耗时t1、t2和t3,预测待测ai芯片执行所述业务功能所需的计算耗时。
38.相关技术中,待测ai芯片在开发过程中,需要通过性能仿真工具对待测ai芯片针对各项计算指令的计算性能进行仿真,得到各项仿真模拟数据。但是,这些仿真模拟数据是无法穷尽到所有计算指令组合形式的。本实施例提供的ai芯片计算性能的测试方法可以集成在ai芯片的性能模拟器中,通过获取仿真工具对待测ai芯片已经仿真得到的计算性能结果数据,去预测仿真工具没有仿真过的功能指令集所对应的性能结果,一方面可以保证ai芯片性能预测结果的准确性;另一方面无需开发人员深入理解ai芯片的设计和实现方法,由此可以大大降低性能模拟器的开发和调试工作量,节省性能模拟器消耗的开发资源以及时间成本,对于设计方案变化比较频繁的ai芯片,可以降低性能模拟器的版本迭代成本,提高性能模拟器的灵活性。
39.本公开实施例的技术方案,通过根据待测ai芯片在开发过程中所形成的各项仿真模拟数据,形成待测ai芯片的计算性能结果数据,然后获取与待测业务功能匹配的功能指令集,并根据功能指令集以及计算性能结果数据,预测待测ai芯片执行业务功能所需的计算耗时的技术手段,可以保证ai芯片计算性能预测结果的准确性,降低性能模拟器的开发和调试工作量。
40.图2是根据本公开实施例的又一种ai芯片计算性能的测试方法的流程示意图,本实施例是对上述技术方案的进一步细化,本实施例中的技术方案可以与上述一个或者多个实施方式结合。具体的,参考图2,该方法具体包括如下步骤:
41.步骤210、根据待测ai芯片在开发过程中所形成的各项仿真模拟数据,形成待测ai芯片的计算性能结果数据。
42.在本实施例的一个实施方式中,根据待测ai芯片在开发过程中所形成的各项仿真
模拟数据,形成待测ai芯片的计算性能结果数据,包括下述至少一项:
43.步骤211、在所述仿真模拟数据中,获取与标准指令集中的各标准指令分别对应的计算耗时,形成指令维度下的计算性能结果数据;
44.在本实施例中,可以通过性能仿真工具,对所述待测ai芯片针对各项标准指令的计算性能进行仿真,得到仿真模拟数据,然后将所述仿真模拟数据中包括的与各项标准指令分别对应的计算耗时,作为指令维度下的计算性能结果数据。
45.步骤212、在所述仿真模拟数据中,获取与各功能模块分别对应的计算耗时,形成单功能模块维度下的计算性能结果数据,所述功能模块由多个标准指令组合构成;
46.在本实施例中,所述功能模块可以由多个标准指令组合构成,用于实现特定的计算功能。其中,可以通过性能仿真工具,对待测ai芯片针对各功能模块的计算性能进行仿真,得到仿真模拟数据,然后将所述仿真模拟数据中包括的与各功能模块分别对应的计算耗时,作为单功能模块维度下的计算性能结果数据。
47.步骤213、在所述仿真模拟数据中,获取与各功能模块组分别对应的计算耗时,形成功能模块组维度下的计算性能结果数据,所述功能模块组中包括多个功能模块,以及各功能模块之间的协同工作关系。
48.在本实施例中,功能模块组中包括多个功能模块,以及各功能模块之间的协同工作关系,例如各功能模块之间的数据交互关系,以及执行顺序关系(例如串行执行关系或者并行执行关系)等。
49.其中,可以通过性能仿真工具,对待测ai芯片针对各功能模块组的计算性能进行仿真,得到仿真模拟数据,然后将所述仿真模拟数据中包括的与各功能模块组分别对应的计算耗时,作为功能模块组维度下的计算性能结果数据。
50.这样设置的好处在于,通过性能仿真工具对待测ai芯片进行不同维度下计算性能的仿真,可以保证仿真得到的计算性能结果数据覆盖尽可能多的指令组合形式,由此可以提高后续计算性能预测结果的准确性,提高ai芯片计算性能的预测效率。
51.步骤220、获取与待测业务功能匹配的功能指令集,所述功能指令集使用与待测ai芯片匹配的标准指令集中的多项指令组合构成。
52.步骤230、将所述功能指令集输入至计算性能预测模型中,获取所述计算性能预测模型预测得到的,所述待测ai芯片执行所述业务功能所需的计算耗时;其中,所述计算性能预测模型,使用所述计算性能结果数据作为训练样本训练得到。
53.在本实施例中,可以使用所述计算性能结果数据对神经网络模型进行迭代训练,得到所述计算性能预测模型。其中,所述神经网络模型具体可以为循环神经网络(recurrent neural network,rnn)模型。
54.在一个具体的实施例中,可选的,可以将第一数量的计算性能结果数据作为训练数据集,将第二数量的计算性能结果数据作为测试数据集。其中,第一数量大于第二数量。所述训练数据集用于输入至预先构建的神经网络模型,并根据输出结果调整神经网络模型的参数,从而完成对神经网络模型的训练;所述测试数据集用于测试训练后的神经网络模型的处理结果的准确率,根据所述准确率确定所述训练后的神经网络模型是否可以作为计算性能预测模型。
55.在本实施例中,通过构建性能预测模型,并将与待测业务功能匹配的功能指令集
输入至计算性能预测模型,可以实现ai芯片计算性能预测过程的自动化,提高ai芯片计算性能的预测效率;其次,通过将不同维度下仿真得到的计算性能结果数据作为训练样本,并利用该训练样本对计算性能预测模型进行训练,可以提高ai芯片计算性能预测结果的准确性。
56.本公开实施例的技术方案,通过根据待测ai芯片在开发过程中所形成的各项仿真模拟数据,形成待测ai芯片的计算性能结果数据,然后获取与待测业务功能匹配的功能指令集,并将所述功能指令集输入至计算性能预测模型中,获取所述计算性能预测模型预测得到的,所述待测ai芯片执行所述业务功能所需的计算耗时的技术手段,可以保证ai芯片计算性能预测结果的准确性,降低性能模拟器的开发和调试工作量。
57.本公开实施例是对上述实施例的进一步细化,与上述实施例相同或相应的术语解释,本公开实施例不再赘述。图3为本公开实施例提供的一种ai芯片计算性能的测试方法的流程图,本实施例的方法具体包括如下步骤:
58.步骤310、根据待测ai芯片在开发过程中所形成的各项仿真模拟数据,形成待测ai芯片的计算性能结果数据。
59.步骤320、获取与待测业务功能匹配的功能指令集,所述功能指令集使用与待测ai芯片匹配的标准指令集中的多项指令组合构成。
60.步骤330、将所述功能指令集输入至计算性能预测模型中,获取所述计算性能预测模型预测得到的,所述待测ai芯片执行所述业务功能所需的计算耗时。
61.在本实施例的一个实施方式中,所述计算性能结果数据中还包括:与标准指令、功能模块或者功能模块组分别对应的输入数据集。
62.在本实施例中,ai芯片在执行特定的计算指令时,如果与计算指令对应的输入数据发生变化,则该ai芯片针对所述计算指令的计算性能通常也会产生相应地变化。例如,当与计算指令对应的输入数据的范围变大时,ai芯片针对所述计算指令的计算耗时通常也会变长。
63.为了提高ai芯片计算性能预测结果的准确性,可以结合与各标准指令、功能模块以及功能模块组分别对应的输入数据集,对待测ai芯片进行不同维度下计算性能的仿真,得到仿真模拟数据,然后将所述仿真模拟数据中包括的与各项标准指令、功能模块、功能模块组分别对应的计算耗时以及输入数据集,作为计算性能结果数据。
64.在本实施中,可选的,将所述功能指令集输入至计算性能预测模型中,获取所述计算性能预测模型预测得到的,所述待测ai芯片执行所述业务功能所需的计算耗时,包括:将所述功能指令集以及与所述待测业务功能对应的输入数据集共同输入至计算性能预测模型中,获取所述计算性能预测模型预测得到的,所述待测ai芯片执行所述业务功能所需的计算耗时。
65.其中,将功能指令集以及与待测业务功能对应的输入数据集共同输入至计算性能预测模型后,计算性能预测模型会将待测ai芯片针对所述功能指令集,以及所述输入数据集的计算耗时的预测结果进行输出。
66.这样设置的好处在于,可以对ai芯片针对同一计算指令下的不同输入数据集的计算性能进行预测,可以提高ai芯片计算性能预测结果的准确性。
67.在本实施例的另一个实施方式中,所述计算性能结果数据中还包括:与标准指令、
功能模块或者功能模块组分别对应的片上系统soc环境描述信息。
68.在本实施例中,ai芯片在执行特定的计算指令时,如果与计算指令对应的soc环境描述信息发生变化,则该ai芯片针对所述计算指令的计算性能通常也会产生相应地变化。其中,所述soc环境描述信息可以为ai芯片的硬件系统描述信息。例如,当与计算指令对应的ai芯片存储器的存储速度变快时,ai芯片针对所述计算指令的计算耗时通常也会变短。
69.为了提高ai芯片计算性能预测结果的准确性,可以结合与各标准指令、功能模块以及功能模块组分别对应的soc环境描述信息,对待测ai芯片进行不同维度下计算性能的仿真,得到仿真模拟数据,然后将所述仿真模拟数据中包括的与各项标准指令、功能模块、功能模块组分别对应的计算耗时以及soc环境描述信息,作为计算性能结果数据。
70.在本实施例中,可选的,将所述功能指令集输入至计算性能预测模型中,获取所述计算性能预测模型预测得到的,所述待测ai芯片执行所述业务功能所需的计算耗时,包括:将所述功能指令集以及与所述待测业务功能对应的soc环境描述信息共同输入至计算性能预测模型中,获取所述计算性能预测模型预测得到的,所述待测ai芯片执行所述业务功能所需的计算耗时。
71.其中,将功能指令集以及与待测业务功能对应的soc环境描述信息共同输入至计算性能预测模型后,计算性能预测模型会将待测ai芯片针对功能指令集,以及soc环境描述信息的计算耗时的预测结果进行输出。
72.这样设置的好处在于,可以对ai芯片针对同一计算指令下的不同硬件环境的计算性能进行预测,可以提高ai芯片计算性能预测结果的准确性。
73.在本实施例中,所述soc环境描述信息包括下述至少一项:soc芯片类型、soc芯片上配置的存储器类型、soc芯片上配置的访问存储配置类型、以及soc芯片的带宽。
74.在一个具体的实施例中,soc芯片类型可以包括图形处理器(graphics processing unit,gpu)、现场可编程逻辑门阵列(field programmable gate array,fpga)以及专用集成电路(application specific integrated circuit,asic)等。soc芯片上配置的存储器类型可以包括只读存储器,以及随机读写存储器等。soc芯片上配置的访问存储配置类型可以包括允许访问存储器,以及禁止访问存储器等。
75.这样设置的好处在于,可以保证仿真得到的计算性能结果数据覆盖尽可能多的soc环境描述信息,由此可以提高后续计算性能预测结果的准确性,提高ai芯片计算性能的预测效率。
76.步骤340、如果确定所述计算耗时超过预设的计算耗时门限,则重新构建与所述待测业务功能匹配的改进后功能指令集。所述改进后功能指令集下的ai芯片计算性能优于所述功能指令集下的ai芯片计算性能。
77.在本实施例中,如果计算性能预测模型输出的待测ai芯片执行业务功能所需的计算耗时,超过预设的计算耗时门限,则可以认为待测ai芯片对所述业务功能的执行效率较低。在这种情况下,为了提高待测ai芯片对所述业务功能的执行效率,可以对与待测业务功能匹配的功能指令集进行改进,得到改进后功能指令集。
78.在一个具体的实施例中,可以对与待测业务功能匹配的功能指令集中包括的多项指令进行简化,或者对每项指令中涉及的计算方式进行优化,以提高待测ai芯片对所述业务功能的执行效率。
79.步骤350、将所述改进后功能指令集输入至计算性能预测模型中,获取所述计算性能预测模型预测得到的,所述待测ai芯片执行所述业务功能所需的新的计算耗时。
80.步骤360、如果所述新的计算耗时大于或者等于所述计算耗时,则使用所述计算性能结果数据对所述计算性能预测模型继续训练。
81.在本实施例中,对与待测业务功能匹配的功能指令集进行改进后,如果计算性能预测模型输出的新的计算耗时大于或者等于改进之前的计算耗时,则可以认为性能预测模型的预测结果不准确。在这种情况下,可以将所述计算性能结果数据继续输入至性能预测模型,然后根据性能预测模型的输出结果调整模型的参数,直至性能预测模型的预测结果准确为止。
82.这样设置的好处在于,通过对计算性能预测模型继续训练,可以提高ai芯片计算性能预测结果的准确性。
83.本公开实施例通过根据待测ai芯片在开发过程中所形成的各项仿真模拟数据,形成待测ai芯片的计算性能结果数据,并获取与待测业务功能匹配的功能指令集,将功能指令集输入至计算性能预测模型中,获取计算性能预测模型预测得到的,待测ai芯片执行业务功能所需的计算耗时,如果确定计算耗时超过预设的计算耗时门限,则重新构建与待测业务功能匹配的改进后功能指令集,然后将改进后功能指令集输入至计算性能预测模型中,获取计算性能预测模型预测得到的,待测ai芯片执行业务功能所需的新的计算耗时,如果新的计算耗时大于或者等于计算耗时,则使用计算性能结果数据对计算性能预测模型继续训练的技术手段,可以保证ai芯片计算性能预测结果的准确性,降低性能模拟器的开发和调试工作量。
84.需要说明的是,本公开的技术方案中,所涉及的用户个人信息的获取、存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
85.本公开实施例还提供了一种ai芯片计算性能的测试装置,用于执行上述的ai芯片计算性能的测试方法。
86.图4为本公开实施例提供的一种ai芯片计算性能的测试装置400的结构图,该装置包括:性能结果形成模块410、指令集获取模块420和耗时预测模块430。
87.其中,性能结果形成模块410,用于根据待测ai芯片在开发过程中所形成的各项仿真模拟数据,形成待测ai芯片的计算性能结果数据;
88.指令集获取模块420,用于获取与待测业务功能匹配的功能指令集,所述功能指令集使用与待测ai芯片匹配的标准指令集中的多项指令组合构成;
89.耗时预测模块430,用于根据所述功能指令集,以及所述计算性能结果数据,预测所述待测ai芯片执行所述业务功能所需的计算耗时。
90.本公开实施例的技术方案,通过根据待测ai芯片在开发过程中所形成的各项仿真模拟数据,形成待测ai芯片的计算性能结果数据,然后获取与待测业务功能匹配的功能指令集,并根据功能指令集以及计算性能结果数据,预测待测ai芯片执行业务功能所需的计算耗时的技术手段,可以保证ai芯片计算性能预测结果的准确性,降低性能模拟器的开发和调试工作量。
91.在上述各实施例的基础上,性能结果形成模块410包括:
92.第一结果形成单元,用于在所述仿真模拟数据中,获取与标准指令集中的各标准
指令分别对应的计算耗时,形成指令维度下的计算性能结果数据;
93.第二结果形成单元,用于在所述仿真模拟数据中,获取与各功能模块分别对应的计算耗时,形成单功能模块维度下的计算性能结果数据,所述功能模块由多个标准指令组合构成;
94.第三结果形成单元,用于在所述仿真模拟数据中,获取与各功能模块组分别对应的计算耗时,形成功能模块组维度下的计算性能结果数据,所述功能模块组中包括多个功能模块,以及各功能模块之间的协同工作关系。
95.耗时预测模块430,包括:
96.模型输入单元,用于将所述功能指令集输入至计算性能预测模型中,获取所述计算性能预测模型预测得到的,所述待测ai芯片执行所述业务功能所需的计算耗时;
97.其中,所述计算性能预测模型,使用所述计算性能结果数据作为训练样本训练得到。
98.所述计算性能结果数据中还包括:与标准指令、功能模块或者功能模块组分别对应的输入数据集;
99.模型输入单元,包括:
100.数据集输入子单元,用于将所述功能指令集以及与所述待测业务功能对应的输入数据集共同输入至计算性能预测模型中,获取所述计算性能预测模型预测得到的,所述待测ai芯片执行所述业务功能所需的计算耗时。
101.所述计算性能结果数据中还包括:与标准指令、功能模块或者功能模块组分别对应的片上系统soc环境描述信息;
102.模型输入单元,还包括:
103.描述信息输入子单元,用于将所述功能指令集以及与所述待测业务功能对应的soc环境描述信息共同输入至计算性能预测模型中,获取所述计算性能预测模型预测得到的,所述待测ai芯片执行所述业务功能所需的计算耗时。
104.所述soc环境描述信息包括下述至少一项:soc芯片类型、soc芯片上配置的存储器类型、soc芯片上配置的访问存储配置类型、以及soc芯片的带宽。
105.所述装置还包括:
106.指令集改进模块,用于如果确定所述计算耗时超过预设的计算耗时门限,则重新构建与所述待测业务功能匹配的改进后功能指令集,所述改进后功能指令集下的ai芯片计算性能优于所述功能指令集下的ai芯片计算性能;
107.指令集输入模块,用于将所述改进后功能指令集输入至计算性能预测模型中,获取所述计算性能预测模型预测得到的,所述待测ai芯片执行所述业务功能所需的新的计算耗时;
108.模型训练模块,用于如果所述新的计算耗时大于或者等于所述计算耗时,则使用所述计算性能结果数据对所述计算性能预测模型继续训练。
109.本公开实施例所提供的ai芯片计算性能的测试装置可执行本公开任意实施例所提供的ai芯片计算性能的测试方法,具备执行方法相应的功能模块和有益效果。
110.根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
111.图5示出了可以用来实施本公开的实施例的示例电子设备500的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
112.如图5所示,设备500包括计算单元501,其可以根据存储在只读存储器(rom)502中的计算机程序或者从存储单元508加载到随机访问存储器(ram)503中的计算机程序,来执行各种适当的动作和处理。在ram 503中,还可存储设备500操作所需的各种程序和数据。计算单元501、rom 502以及ram 503通过总线504彼此相连。输入/输出(i/o)接口505也连接至总线504。
113.设备500中的多个部件连接至i/o接口505,包括:输入单元506,例如键盘、鼠标等;输出单元507,例如各种类型的显示器、扬声器等;存储单元508,例如磁盘、光盘等;以及通信单元509,例如网卡、调制解调器、无线通信收发机等。通信单元509允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
114.计算单元501可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元501的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算ai芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元501执行上文所描述的各个方法和处理,例如ai芯片计算性能的测试方法。例如,在一些实施例中,ai芯片计算性能的测试方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由rom 502和/或通信单元509而被载入和/或安装到设备500上。当计算机程序加载到ram 503并由计算单元501执行时,可以执行上文描述的ai芯片计算性能的测试方法的一个或多个步骤。备选地,在其他实施例中,计算单元501可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行ai芯片计算性能的测试方法。
115.本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、ai芯片上系统的系统(soc)、负载可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
116.用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
117.在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd

rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
118.为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
119.可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)、区块链网络和互联网。
120.计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端

服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与vps服务中,存在的管理难度大,业务扩展性弱的缺陷。
121.应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开提供的技术方案所期望的结果,本文在此不进行限制。
122.上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜