一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

神经网络处理器验证方法、装置、电子设备及存储介质与流程

2022-03-01 22:28:46 来源:中国专利 TAG:


1.本公开涉及人工智能技术领域,特别涉及人工智能芯片和云计算等领域的神经网络处理器验证方法、装置、电子设备及存储介质。


背景技术:

2.神经网络处理器(npu,neural network processing unit)是人工智能芯片的大脑,是最为核心的模块,其计算性能决定了芯片的性能。
3.人工智能算法通常都是基于神经网络处理器的计算实现的,一旦神经网络处理器发生故障,人工智能芯片就将无法使用,因此对神经网络处理器进行有效可靠的验证是非常必要的。但针对神经网络处理器的验证,目前还没有较好的实现方法。


技术实现要素:

4.本公开提供了神经网络处理器验证方法、装置、电子设备及存储介质。
5.一种神经网络处理器验证方法,包括:
6.向神经网络处理器发送待验证的计算指令;
7.获取所述神经网络处理器返回的计算结果,所述计算结果为所述神经网络处理器根据所述计算指令对源数据进行计算得到的;
8.根据所述计算结果确定验证是否通过。
9.一种神经网络处理器验证装置,包括:第一处理模块、第二处理模块以及第三处理模块;
10.所述第一处理模块,用于向神经网络处理器发送待验证的计算指令;
11.所述第二处理模块,用于获取所述神经网络处理器返回的计算结果,所述计算结果为所述神经网络处理器根据所述计算指令对源数据进行计算得到的;
12.所述第三处理模块,用于根据所述计算结果确定验证是否通过。
13.一种电子设备,包括:
14.至少一个处理器;以及
15.与所述至少一个处理器通信连接的存储器;其中,
16.所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如以上所述的方法。
17.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使计算机执行如以上所述的方法。
18.一种计算机程序产品,包括计算机程序/指令,所述计算机程序/指令被处理器执行时实现如以上所述的方法。
19.上述公开中的一个实施例具有如下优点或有益效果:根据验证需求,可向神经网络处理器发送对应的计算指令,并可根据获取到的计算结果确定验证是否通过,即可实现对于神经网络处理器的有效验证,而且,可适用于各种类型的神经网络处理器,具有普遍适
用性等。
20.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
21.附图用于更好地理解本方案,不构成对本公开的限定。其中:
22.图1为本公开所述神经网络处理器验证方法实施例的流程图;
23.图2为本公开所述验证平台的架构示意图;
24.图3为本公开所述神经网络处理器验证装置实施例300的组成结构示意图;
25.图4示出了可以用来实施本公开的实施例的电子设备400的示意性框图。
具体实施方式
26.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
27.另外,应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
28.图1为本公开所述神经网络处理器验证方法实施例的流程图。如图1所示,包括以下具体实现方式。
29.在步骤101中,向神经网络处理器发送待验证的计算指令。
30.在步骤102中,获取神经网络处理器返回的计算结果,所述计算结果为神经网络处理器根据获取到的计算指令对源数据进行计算得到的。
31.在步骤103中,根据计算结果确定验证是否通过。
32.上述方法实施例所述方案中,可根据验证需求,向神经网络处理器发送对应的计算指令,并可根据获取到的计算结果确定验证是否通过,即可实现对于神经网络处理器的有效验证,而且,可适用于各种类型的神经网络处理器,具有普遍适用性等。
33.神经网络处理器主要用于实现卷积矩阵向量操作(gemv)、卷积神经网络(cnn,convolutional neural networks)等各种计算,因此对神经网络处理器的验证主要集中在通过指令对各种计算功能的验证。
34.针对待验证的神经网络处理器,每次进行验证时分别验证哪种计算功能可根据实际需要而定。
35.针对当前验证的计算功能,可向神经网络处理器发送该计算功能对应的计算指令,所述计算指令用于指示神经网络处理器所需执行的计算功能,即告知神经网络处理器需要进行何种计算,之后可获取神经网络处理器返回的计算结果,所述计算结果为神经网络处理器根据获取到的计算指令对源数据进行计算得到的,源数据为计算指令对应的源数据。
36.本公开的一个实施例中,可通过与神经网络处理器之间的第一信息交互总线将计
算指令发送给神经网络处理器,并可通过与神经网络处理器之间的第二信息交互总线获取神经网络处理器返回的计算结果。
37.其中,第一信息交互总线和第二信息交互总线可为高级外围总线(apb,advanced peripheral bus)、高级高性能总线(ahb,advanced high performance bus)、集成电路总线(iic,inter-integrated circuit)、串行外设接口(spi,serial peripheral interface)等各种神经网络处理器支持的总线接口,并可适配各种神经网络处理器支持的总线协议,具体实现时可根据实际需要灵活选取。
38.借助于信息交互总线,可方便高效地实现与神经网络处理器之间的信息交互,且可适用于各种总线接口及总线协议等,具有普遍适用性。
39.本公开的一个实施例中,可获取神经网络处理器在获取到计算指令后发起的数据请求,将源数据提供给神经网络处理器。比如,可对计算指令和源数据进行存储,相应地,可将所存储的源数据提供给神经网络处理器。
40.也就是说,神经网络处理器在获取到计算指令后,可进一步获取对应的源数据,即计算所需的数据,进而可根据计算指令对源数据进行计算,得到计算结果,并可将计算结果返回。
41.在获取到神经网络处理器返回的计算结果后,可根据获取到的计算结果确定本次验证是否通过。
42.本公开的一个实施例中,可将获取到的计算结果与对应的期望值进行比对,根据比对结果确定本次验证是否通过。通过比对操作,可高效准确地获取到所需的验证结果。
43.本公开的一个实施例中,可利用仿真的神经网络处理器模型,根据计算指令对源数据进行计算,将得到的计算结果作为所述期望值。
44.神经网络处理器模型可为利用高级语言编写的神经网络处理器模型,即仿真的神经网络处理器,可认为其计算结果是准确的。
45.相应地,可将获取自神经网络处理器的计算结果与获取自神经网络处理器模型的计算结果进行比对,若一致,则可确定本次验证通过,否则,可确定本次验证不通过。
46.本公开的一个实施例中,还可监控第一信息交互总线的行为,从中提取出计算指令,若确定提取出的计算指令与发送给神经网络处理器的计算指令不一致,也可确定本次验证不通过,如可进行告警等。
47.通过上述处理,可确保发送给神经网络处理器的计算指令为正确的指令,从而避免了神经网络处理器由于获取到的计算指令错误所造成的计算错误问题。
48.作为一种可能的实现方式,上述方法实施例的执行主体可为基于通用验证方法学(uvm,universal verification methodology)的验证平台。
49.图2为本公开所述验证平台的架构示意图。如图2所示,其中可包括:主代理(mst_agent)、从代理(slv_agent)、寄存器模型(reg_model)、存储器模型(mem_model)、仿真模型(cmodel)和比对模块(scoreboard)等。
50.如图2所示,验证平台可通过第一信息交互总线(mst_interface)和第二信息交互总线(slv_interface)与神经网络处理器进行信息交互,其中,主代理可通过第一信息交互总线与神经网络处理器进行信息交互,从代理可通过第二信息交互总线与神经网络处理器进行信息交互。第一代理和第二代理均是一个通用的概念,可以是apb、ahb、iic、spi等各种
总线代理,具体实现时可根据实际需要灵活选取。
51.如图2所示,可通过主代理驱动第一信息交互总线向神经网络处理器发送计算指令,神经网络处理器可驱动第二信息交互总线与从代理进行信息交互,完成源数据获取和计算结果的存放等。
52.如图2所示,寄存器模型可用来镜像神经网络处理器中的寄存器,可通过前门访问方式对神经网络处理器的寄存器进行读写。
53.如图2所示,存储器模型中可包括第一存储器模块(mem1)和第二存储器模块(mem2),第一存储器模块可用于存储源数据和计算指令,第二存储器模块可用于存储神经网络处理器返回的计算结果。
54.如图2所示,仿真模型可为利用高级语言编写的神经网络处理器模型,可用于生成期望值,仿真模型可通过直接程序接口(dpi,direct programming interface)集成到验证平台中。
55.如图2所示,比对模块可用于将神经网络处理器返回的计算结果与仿真模型生成的期望值进行比对,即比较是否一致。
56.如图2所示,主代理中可进一步包括:主序列(mst_seqr)、主驱动(mst_driver)以及主监控器(mst_monitor)等。其中,主序列可用于将计算指令和神经网络处理器的寄存器配置信息等发送给主驱动,主驱动可用于将获取到的计算指令和寄存器配置信息等按照第一信息交互总线协议发出,配置、驱动神经网络处理器,主监控器可用于采集第一信息交互总线上的计算指令等。
57.如图2所示,从代理中可进一步包括:从序列(slv_seqr)、从驱动(slv_driver)以及从监控器(slv_monitor)等。其中,从序列可用于将第一存储器模块中的源数据发送给从驱动,从驱动可用于根据神经网络处理器的数据请求,将源数据提供给神经网络处理器,从监控器可用于采集神经网络处理器返回的计算结果,并可存储到第二存储器模块中。
58.以下结合图2所示验证平台,对本公开所述神经网络处理器验证方法进行进一步说明。
59.如图2所示,针对当前验证的计算功能,可通过主代理驱动第一信息交互总线向神经网络处理器发送该计算功能对应的计算指令,另外,还可将计算指令和对应的源数据存储到第一存储器模块中。
60.主监控器还可监控第一信息交互总线的行为,从中提取出计算指令,发送给比对模块,比对模块若确定提取出的计算指令与发送给神经网络处理器的计算指令不一致,可确定本次验证不通过。
61.如图2所示,神经网络处理器获取到计算指令后,可驱动第二信息交互总线,通过从代理访问第一存储器模块,获取源数据,进一步地,神经网络处理器可根据计算指令对源数据进行计算,得到计算结果,并可驱动第二信息交互总线,通过从代理访问第二存储器模块,从而将计算结果存储到第二存储器模块中。
62.如图2所示,还可将第一存储器模块中存储的源数据和计算指令提供给神经网络处理器模型,以便由神经网络处理器模型根据计算指令对源数据进行计算,将得到的计算结果作为期望值,提供给比对模块。
63.相应地,比对模块可将从第二存储器模块中获取的计算结果与从仿真模型中获取
的计算结果进行比对,即比较两者是否一致,若一致,可确定本次验证通过,否则,可确定本次验证不通过。
64.需要说明的是,对于前述的方法实施例,为了简单描述,将其表述为一系列的动作组合,但是本领域技术人员应该知悉,本公开并不受所描述的动作顺序的限制,因为依据本公开,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本公开所必须的。
65.总之,采用本公开方法实施例所述方案,可实现对于神经网络处理器的有效验证,并可适用于各种类型的神经网络处理器以及各种类型的总线接口和总线协议等,具有普遍适用性。
66.以上是关于方法实施例的介绍,以下通过装置实施例,对本公开所述方案进行进一步说明。
67.图3为本公开所述神经网络处理器验证装置实施例300的组成结构示意图。如图3所示,包括:第一处理模块301、第二处理模块302以及第三处理模块303。
68.第一处理模块301,用于向神经网络处理器发送待验证的计算指令。
69.第二处理模块302,用于获取神经网络处理器返回的计算结果,所述计算结果为神经网络处理器根据所述计算指令对源数据进行计算得到的。
70.第三处理模块303,用于根据计算结果确定验证是否通过。
71.上述装置实施例所述方案中,可根据验证需求,向神经网络处理器发送对应的计算指令,并可根据获取到的计算结果确定验证是否通过,即可实现对于神经网络处理器的有效验证。
72.神经网络处理器主要用于实现各种计算,因此对神经网络处理器的验证主要集中在通过指令对各种计算功能的验证。
73.针对待验证的神经网络处理器,每次进行验证时分别验证哪种计算功能可根据实际需要而定。
74.针对待验证的计算功能,第一处理模块301可向神经网络处理器发送该计算功能对应的计算指令,所述计算指令用于指示神经网络处理器所需执行的计算功能,即告知神经网络处理器需要进行何种计算,相应地,第二处理模块302可获取神经网络处理器返回的计算结果,所述计算结果为神经网络处理器根据获取到的计算指令对源数据进行计算得到的,源数据为计算指令对应的源数据。
75.本公开的一个实施例中,第一处理模块301可通过与神经网络处理器之间的第一信息交互总线将计算指令发送给神经网络处理器,第二处理模块302可通过与神经网络处理器之间的第二信息交互总线获取神经网络处理器返回的计算结果。
76.其中,第一信息交互总线和第二信息交互总线可为apb、ahb、iic、spi等各种神经网络处理器支持的总线接口,并可适配各种神经网络处理器支持的总线协议,具体实现时可根据实际需要灵活选取。
77.本公开的一个实施例中,第二处理模块302可获取神经网络处理器在获取到计算指令后发起的数据请求,将源数据提供给神经网络处理器。比如,可对计算指令和源数据进行存储,相应地,可将所存储的源数据提供给神经网络处理器。
78.也就是说,神经网络处理器在获取到计算指令后,可进一步获取对应的源数据,即计算所需的数据,进而可根据计算指令对源数据进行计算,得到计算结果,并可将计算结果返回。
79.在获取到神经网络处理器返回的计算结果后,第三处理模块303可根据获取到的计算结果确定验证是否通过。
80.本公开的一个实施例中,第三处理模块303可将获取到的计算结果与对应的期望值进行比对,根据比对结果确定验证是否通过。
81.本公开的一个实施例中,第三处理模块303可利用仿真的神经网络处理器模型,根据计算指令对源数据进行计算,将得到的计算结果作为所述期望值。
82.神经网络处理器模型可为利用高级语言编写的神经网络处理器模型,即仿真的神经网络处理器,可认为其计算结果是准确的。
83.也就是说,第三处理模块303可将获取自神经网络处理器的计算结果与获取自神经网络处理器模型的计算结果进行比对,若一致,则可确定验证通过,否则,可确定验证不通过。
84.本公开的一个实施例中,第一处理模块301还可监控第一信息交互总线的行为,从中提取出计算指令,相应地,第三处理模块303若确定提取出的计算指令与发送给神经网络处理器的计算指令不一致,也可确定验证不通过。
85.图3所示装置实施例的具体工作流程可参照前述方法实施例中的相关说明。
86.总之,采用本公开装置实施例所述方案,可实现对于神经网络处理器的有效验证,并可适用于各种类型的神经网络处理器以及各种类型的总线接口和总线协议等,具有普遍适用性。
87.本公开所述方案可应用于人工智能领域,特别涉及人工智能芯片和云计算等领域。人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术,人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术,人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
88.另外,本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
89.根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
90.图4示出了可以用来实施本公开的实施例的电子设备400的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字助理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
91.如图4所示,设备400包括计算单元401,其可以根据存储在只读存储器(rom)402中的计算机程序或者从存储单元408加载到随机访问存储器(ram)403中的计算机程序,来执
行各种适当的动作和处理。在ram 403中,还可存储设备400操作所需的各种程序和数据。计算单元401、rom 402以及ram 403通过总线404彼此相连。输入/输出(i/o)接口405也连接至总线404。
92.设备400中的多个部件连接至i/o接口405,包括:输入单元406,例如键盘、鼠标等;输出单元407,例如各种类型的显示器、扬声器等;存储单元408,例如磁盘、光盘等;以及通信单元409,例如网卡、调制解调器、无线通信收发机等。通信单元409允许设备400通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
93.计算单元401可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元401的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元401执行上文所描述的各个方法和处理,例如本公开所述的方法。例如,在一些实施例中,本公开所述的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元408。在一些实施例中,计算机程序的部分或者全部可以经由rom 402和/或通信单元409而被载入和/或安装到设备400上。当计算机程序加载到ram 403并由计算单元401执行时,可以执行本公开所述的方法的一个或多个步骤。备选地,在其他实施例中,计算单元401可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行本公开所述的方法。
94.本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、负载可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
95.用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
96.在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
97.为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机
具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
98.可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。
99.计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
100.应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
101.上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献