一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

神经网络模型的解释方法、装置、电子设备和存储介质与流程

2022-05-18 15:15:59 来源:中国专利 TAG:


1.本公开涉及人工智能技术领域,具体涉及深度学习技术领域,尤其涉及一种神经网络模型的解释方法、装置、电子设备和存储介质。


背景技术:

2.随着机器学习和数据挖掘技术的飞速发展,神经网络技术提高了模型对复杂数据输入的表达能力和适应性。然而,模型在大量数据中挖掘复杂的规律和知识并进行判断的过程中,模型的自可解释性是至关重要的。


技术实现要素:

3.本公开提供了一种神经网络模型的解释方法、装置、电子设备、存储介质以及计算机程序产品。
4.根据本公开的第一方面,提供了一种神经网络模型的解释方法,包括:获取神经网络模型的输入数据以及与所述输入数据对应的输出数据,其中,所述神经网络模型包括依次连接的各层网络,每层网络对应多个候选概念;获取所述神经网络模型基于所述输入数据得到所述输出数据所经过的关键推断路径,其中,所述关键推断路径包括:所述神经网络模型中对所述输入数据进行处理时,各层网络所使用的目标概念,其中,所述目标概念为多个所述候选概念中的一个;根据各层网络对应的目标概念,分别确定各层网络对应的解释信息;输出所述关键推断路径以及所述解释信息。
5.根据本公开的第二方面,提供了一种神经网络模型的解释装置,包括:第一获取模块,用于获取神经网络模型的输入数据以及与所述输入数据对应的输出数据,其中,所述神经网络模型包括依次连接的各层网络,每层网络对应多个候选概念;第二获取模块,用于获取所述神经网络模型基于所述输入数据得到所述输出数据所经过的关键推断路径,其中,所述关键推断路径包括:所述神经网络模型中对所述输入数据进行处理时,各层网络所使用的目标概念,其中,所述目标概念为多个所述候选概念中的一个;确定模块,用于根据各层网络对应的目标概念,分别确定各层网络对应的解释信息;输出模块,用于输出所述关键推断路径以及所述解释信息。
6.根据本公开的第三方面,提供了一种电子设备,其中,电子设备包括处理器和存储器;所述处理器通过读取所述存储器中存储的可执行程序代码来运行与所述可执行程序代码对应的程序,以用于实现如上述第一方面提出的神经网络模型的解释方法。
7.根据本公开的第四方面,提出了一种计算机可读存储介质,其上存储有计算机程序,包括该程序被处理器执行时实现如上述第一方面提出的神经网络模型的解释方法。计算机程序产品,包括当所述计算机程序产品中的指令处理器执行时实现如上述第一方面提出的神经网络模型的解释方法。
8.根据本公开的第五方面,提出了一种计算机程序产品,其特征在于,当所述计算机程序产品中的指令处理器执行时实现如上述第一方面提出的神经网络模型的解释方法。
9.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
10.附图用于更好地理解本方案,不构成对本公开的限定。其中:
11.图1是根据本公开第一实施例的神经网络模型的解释方法的流程示意图;
12.图2是根据本公开实施例的一种神经网络模型的结构的示意图;
13.图3是根据本公开第二实施例的神经网络模型的解释方法的流程示意图;
14.图4是根据本公开第三实施例的神经网络模型的解释方法的流程示意图;
15.图5是根据本公开第四实施例的神经网络模型的解释方法的流程示意图;
16.图6是根据本公开第五实施例的神经网络模型的解释装置的结构示意图;
17.图7是根据本公开第六实施例的神经网络模型的解释装置的结构示意图;
18.图8是用来实现本公开实施例的神经网络模型的解释方法的电子设备的结构框图。
具体实施方式
19.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
20.图1是根据本公开第一实施例的神经网络模型的解释方法的流程示意图,如图所示,该神经网络模型的解释方法包括以下步骤:
21.步骤101,获取神经网络模型的输入数据以及与输入数据对应的输出数据,其中,神经网络模型包括依次连接的各层网络,每层网络对应多个候选概念。
22.本公开实施例以该神经网络模型的解释方法被配置于神经网络模型的解释装置中来举例说明,该神经网络模型的解释装置可以应用于任一电子设备中,以使该电子设备可以执行神经网络模型的解释功能。
23.其中,电子设备可以为任一具有计算能力的设备,例如可以为个人计算机(personal computer,简称pc)、服务器、移动终端等,移动终端例如可以为手机、平板电脑、个人数字助理、穿戴式设备等具有各种操作系统的硬件设备。
24.本公开的一些实施例中,其中,所述神经网络模型包括依次连接的各层网络,每层网络对应多个候选概念。其中,每层网络中的各个候选概念与每层网络中的各个隐藏单元对应。其中,本实施例中的每一个隐藏单元对应一个候选概念。
25.其中,神经网络模型的结构示例图,如图2所示。具体地,在将输入数据中的各个观测变量的变量值输入至神经网络模型后,可根据各个观测变量与第一层网络中对应候选概念之间的定量关系,可确定出对应观测变量的变量值转化为第一层网络中对应候选概念的估计值。对于第一层网络中的各个候选概念,可对输入数据中各个观测变量值转化为该候选概念的估计值进行加权求和,以得到所述候选概念的估计值。
26.其中,可以理解的是,对于不同应用场景而言,不同应用场景所使用的神经网络模
型不同,并且不同应用场景所对应的各观测变量是不同的。
27.举例而言,不同的应用场景可以是对一个学生是否能考高分进行估计或者对一个苹果进行分类等其他应用场景。其中,不同的应用场景所使用的神经网络模型是不同的,其观测变量和各个观测指标也是不尽相同的。例如,对一个学生能否考高分进行估计,则其观测变量可以是“这个学生的学习努力程度”。如需进一步进行明确的解释,还可以观察“这个学生是否经常去图书馆学习”,或者“这个学生的作业上交情况”,或者“这个学生是否逃课”等其他观测变量。再例如,对一个苹果进行分类,其观测变量可以苹果的大小、颜色、表皮纹路等观测变量。
28.其中,可以理解的是,第k层网络中的候选概念是第k-1层网络中的候选概念的上层概念,其中,k为2到n的正整数。
29.对于第k层网络中的各个候选概念,该候选概念的估计值的确定方式为:获取第k-1层网络中的各个候选概念转化为该候选概念的估计值,对第k-1层网络中的各个候选概念转化为该候选概念的估计值进行加权求和,以得到所述候选概念的估计值,其中,k为2到n的正整数。
30.其中,第k-1层网络中的各个候选概念转化为该候选概念的估计值是基于第k-1层网络中的各个候选概念与该候选概念之间的定量关系而确定出的。其中,第k-1层网络中的对应候选概念转化为该候选概念的估计值表示第k-1层网络中的对应候选概念符合第k层网络中的该候选概念的符合程度。可以理解的是,符合程度越高,则对应的估计值越大,反之则相反。
31.在一些实施例中,上述估计值可以通过概率值的方式表示,在另一些实施例中,上述估计值可通过分数的方式表示,在实际应用中,可根据实际应用场景的需求来确定估计值的表示形式,该实施例对此不作具体限定。
32.举例而言,假设k等2,第一层网络中包括三个候选概念,分别为候选概念a、候选概念b和候选概念c,第二层网络中包括两个候选概念,分别为候选概念d和候选概念e,假设现在需要计算第二层网络中的候选概念d的估计值,候选概念a转化为候选概念d的定量关系为h1,候选概念b转化为候选概念d的定量关系为h2,候选概念c转化为候选概念d的定量关系为h3,此时,可将候选概念a的估计值输入定量关系h1中,以得到候选概念a转化为候选概念d的估计值h
ad
,估计值h
ad
可以表示候选概念a符合候选概念d的符合程度。另外,可将候选概念b的估计值输入定量关系h2中,以得到候选概念b转化为候选概念d的估计值h
bd
。另外,可将候选概念c的估计值输入定量关系h3中,以得到候选概念c转化为候选概念d的估计值h
cd
,然后,对估计值h
ad
、估计值h
bd
、和估计值h
cd
进行加权求和,以得到第二层网络中候选概念d的估计值,其中,计算第二层网络中候选概念d的估计值y的公式如下:
33.y=w1*h
ad
w2*h
ad
w3*h
ad
,其中,w1表示候选概念a对候选概念d的权重,w2表示候选概念b对候选概念d的权重,w3表示候选概念a对候选概念d的权重。
34.需要说明的是,可以运用定量关系去实现量化物理含义不同的明确的概念之间的关系,在一些实施例中,本实施例的定量关系可以是一个单变量的非线性函数。
35.步骤102,获取神经网络模型基于输入数据得到输出数据所经过的关键推断路径,其中,关键推断路径包括:神经网络模型中对输入数据进行处理时,各层网络所使用的目标概念,其中,目标概念为多个候选概念中的一个。
36.本公开的一些实施例中,获取神经网络模型基于输入数据得到输出数据所经过的关键推断路径的一种可能实现方式为以输出数据的网络层为最后层级,从输出自上而下递归地识别中各层网络中的目标概念。
37.具体地,可获取与输出数据对应的最后一层网络,并可将最后一层中的各个候选概念作为目标概念,并根据定量关系的重要性自后向前递推至输入层,分别找出每层网络的目标概念,进而组成模型的关键推断路径。找到模型的关键推断路径之后,可以沿着关键推断路径从下而上识别地记录各层网络中的目标概念。
38.在一些实施例中,上述关键推断路径可以为一条或者多条。
39.在一些实施例中,获取神经网络模型基于输入数据得到输出数据所经过的一条关键推断路径的一种示例性的实施方式可以为:针对每层网络,可获取当前层网络中的多个候选概念各自的估计值,并从多个候选概念中选择估计值最大的候选概念作为目标概念。
40.关于获取神经网络模型基于输入数据得到输出数据所经过的一条关键推断路径的其他方式,将在后续实施例中描述。
41.步骤103,根据各层网络对应的目标概念,分别确定各层网络对应的解释信息。
42.本公开的一些实施例中,可根据生成的关键推断路径,针对样本或者整个任务,从上而下地生成不同层级的解释,为用户展示关键概念、概念到输出的关键推断路径以及转化过程。
43.其中,需要说明的是,模型可自动地生成对不同层级的解释。在模型生成对不同层级的解释的过程中,不需对模型提供概念信息,可由模型学习得到概念信息。
44.步骤104,输出关键推断路径以及解释信息。在一些实施例中,可通过显示的方式来输出关键推断路径以及解释信息。例如,可在电子设备的交互界面中显示关键推断路径以及解释信息。
45.本公开的一些实施例中,解释信息可以包括:目标概念的语义信息。
46.其中,目标概念的语义信息可以为概念的直观解释。
47.在本公开的一些实施例中,为了给出更多的解释信息,上述解释信息可以包括目标概念的语义信息和估计值。
48.本公开的一些实施例中,为了给出更多的解释信息,实现对模型的输出结果的更全面的解释,上述解释信息还可以包括:目标概念对应的目标样本的样本特征。
49.本公开的一些实施例中,目标概念对应的目标样本的样本特征可以是在投票过程中的中间样本值,即在各层网络中下层概念i对上层概念j的估计。
50.本公开实施例提供的神经网络模型的解释方法,获取神经网络模型的输入数据以及与输入数据对应的输出数据,其中,神经网络模型包括依次连接的各层网络,每层网络对应多个候选概念;获取神经网络模型基于输入数据得到输出数据所经过的关键推断路径,其中,关键推断路径包括:神经网络模型中对输入数据进行处理时,各层网络所使用的目标概念,其中,目标概念为多个候选概念中的一个;根据各层网络对应的目标概念,分别确定各层网络对应的解释信息;输出关键推断路径以及解释信息。由此,提出了一种神经网络模型的解释方法。
51.本公开的一些实施例中,步骤102获取神经网络模型基于输入数据得到输出数据所经过的关键推断路径的一种可能实现方式,如图3所示,可以包括:
52.步骤301,获取与输出数据对应的第j层网络,其中,j等于n,n为神经网络模型中网络的总层数。
53.其中,可以理解的是,上述第j层网络即为与输出数据对应的最后一层网络。该神经网络模型的网络总层数的值可以为n,即此时的j的值与n的值相等。
54.步骤302,获取第j层网络中的目标概念。
55.在一些实施例中,在神经网络模型对输入数据进行处理的过程中,神经网络网络模型中的各层网络中均有各个候选概念的估计值。因此,对于第j层网络而言,可获取第j层网络中多个候选概念各自的估计值,可将估计值最大的候选概念作为第j层的目标概念。在另一些实施例中,对于第j层网络中,可从第j层网络所对应的多个候选概念中随机选择一个作为目标概念,该实施例对确定第j层网络中的目标概念的方式不作具体限定。
56.步骤303,获取第i层网络中每个候选概念与目标概念之间的定量关系,其中,i等于j减1。
57.在一些实施例中,由模型的最后一层网络自上而下递推,获取最后一层网络的下一层网络中每一个候选概念与目标概念之间的定量关系,即此时的网络层级为第i层,其中i的值等于j减1。
58.步骤304,根据第i层网络中每个候选概念以及定量关系,确定第i层网络的目标概念。
59.具体地,在第i层的多个候选概念中,可根据本层级网络中每一个候选概念以及定量关系找出本层级网络的目标概念。
60.在一些实施例中,根据第i层网络中每个候选概念以及定量关系,确定第i层网络的目标概念可通过多种方式实现,一种示例性实施方式可以为:可获取各个所述定量关系的重要性值,并按照重要性从大到小的顺序,对本层级网络中的各个候选概念进行排序,并将排序在第一位的候选概念作为本层级网络的目标概念。
61.步骤305,对j进行减1处理,若j大于2,则转至获取第j层网络中的目标概念的步骤。
62.具体地,在模型的由最后一层网络自上而下递推的过程中,每一个递推都需对j进行减1处理,若对j进行减1处理后生成新的j的值大于2,说明此时的网络层级未到第一层级即输入层,则继续转至获取第j层网络中的目标概念的步骤。
63.步骤306,若j等于2,则根据各层网络中的目标概念,生成关键推断路径。
64.具体地,在模型的由最后一层网络自上而下递推的过程中,每一个递推都需对j进行减1处理,若对j进行减1处理后生成新的j的值等于2,说明此时的递推已经到达第一层即输入层,则可根据生成关键推断路径的步骤找出关键推断路径。
65.在本实施例中,从输出开始从上而下逐渐确定出了各层网络中的目标概念,并基于各层网络中的目标概念,准确生成了神经网络模型对输入数据进行处理而得到输出数据的一条关键推断路径,由此,准确反映出了神经网络模型中内部的推断逻辑,提高了模型的可解释性。
66.本公开的一些实施例中,为了可以准确确定出第j层网络中的目标概念,步骤304根据第i层网络中每个候选概念以及定量关系,确定第i层网络的目标概念的一种可实现方式,如图4所示,可以包括:
67.步骤401,获取各个定量关系的重要性值。
68.在一些实施例中,可根据预先保存的定量关系和重要性值之间的对应关系,获取各个定量关系的重要性值。
69.在一些实施例中,在神经网络模型训练完成后,可确定出神经网络模型中各个定量关系的重要性值,并预先保存的定量关系与重要性值之间的对应关系。。
70.步骤402,按照各个定量关系的重要性值从大到小的顺序,对各个定量关系进行排序,以得到排序结果。
71.步骤403,按照排序结果依次取出定量关系,并从第i层网络中的多个候选概念中,获取所取出的定量关系所对应的候选概念。
72.步骤404,对所取出的定量关系所对应的候选概念的估计值进行累积,直至累积值大于预设阈值。
73.具体地,将所取出的定量关系所对应的候选概念的估计值进行加和处理,直至其加和的值大于预设阈值。
74.其中,预设阈值是预先设置的候选概念估计值的加和值的临界值。
75.步骤405,从排序结果中所取出的对应定量关系的候选概念中,确定出第i层网络的目标概念。
76.具体地,在排序结果中所取出的对应定量关系的候选概念的数量为多个情况下,可选择其中一个候选概念作为第i层网络的目标概念。
77.在排序结果中所取出的对应定量关系的候选概念的数量为一个的情况下,可将在排序结果中所取出的对应定量关系的候选概念作为第i层网络的目标概念。
78.例如,假设i等于2,j等于3,第3层网络中的目标概念为候选概念d,假设第2层网络中包括三个候选概念,分别为候选概念a、候选概念b和候选概念c,并且,候选概念a转化为候选概念d的定量关系为h1,候选概念b转化为候选概念d的定量关系为h2,候选概念c转化为候选概念d的定量关系为h3,按照定量关系的重要性从大到小对定量关系进行排序,排序结果为:定量关系h3,定量关系h2,定量关系h1。此时,可从排序结果中先取出定量关系h3,并从第2层网络中的多个候选概念中可确定出该定量关系h3对应的候选概念为候选概念c,并确定该候选概念c的估计值是否大于或者等于预设阈值。如果小于,则继续从排序结果中取出定量关系h2,并从第2层网络中的多个候选概念中,确定该定量关系h2对应的候选概念为候选概念b,并对候选概念a的估计值和候选概念b的估计值进行求和,并确定该求和值是否大于或者等于预设阈值,如果大于或者等于,则从候选概念b和候选概念c中任选一个作为第2层网络中的目标概念。如果小于,则继续从排序结果读取对应的定量关系,并确定所取出的所有定量关系所对应的候选概念的估计值的累积值是否大于或者等于预设阈值,直至累积值大于预设阈值。
79.在本公开的一个实施例中,为了使得用户可以了解更多的神经网络模型的处理过程,还可以在关键推荐路径中标注相邻的两层网络中目标概念之间的定量关系。如图5所示,该方法还可以包括:
80.步骤501,对于关键推断路径中任意相邻的两层网络,根据相邻的两层网络中的目标概念,获取相邻的两层网络中的目标概念之间的定量关系。
81.具体地,在模型的一条或多条关键推断路径中,任意相邻的两层网络中的目标概
念之间的投票通道即为此相邻的两层网络中的目标概念之间的定量关系。
82.步骤502,在关键推荐路径中相邻的两层网络中的目标概念之间标注定量关系。
83.具体地,在任意相邻的两层网络中,可根据下层概念i对上层概念j的估计值的影响大小,筛选出显著高、一般、显著低的样本,标注他们的特征性差异。
84.本实施例提供的神经网络模型的解释方法,可以通过逐层分析各层网络中的目标概念,并向用户提供各层网络对应的解释信息,有效地解释模型,提高了模型的自可解释性。
85.与上述几种实施例提供的神经网络模型的解释方法相对应,本公开的一个实施例还提供了一种神经网络模型的解释装置,由于本公开实施例提供的神经网络模型的解释装置与上述几种实施例提供的神经网络模型的解释方法相对应,因此神经网络模型的解释方法的实施方式也适用于本公开实施例提供的神经网络模型的解释装置,在下述实施例中不再详细描述。
86.图6是根据本公开第五实施例的神经网络模型的解释装置的结构示意图。如图6所示,该神经网络模型的解释装置600包括:第一获取模块601、第二获取模块602、确定模块603以及输出模块604。其中:
87.第一获取模块601,用于获取神经网络模型的输入数据以及与输入数据对应的输出数据,其中,神经网络模型包括依次连接的各层网络,每层网络对应多个候选概念;
88.第二获取模块602,用于获取神经网络模型基于输入数据得到输出数据所经过的关键推断路径,其中,关键推断路径包括:神经网络模型中对输入数据进行处理时,各层网络所使用的目标概念,其中,目标概念为多个候选概念中的一个。
89.确定模块603,用于根据各层网络对应的目标概念,分别确定各层网络对应的解释信息;
90.输出模块604,用于输出关键推断路径以及解释信息。
91.本公开实施例提供的神经网络模型的解释装置,获取神经网络模型的输入数据以及与输入数据对应的输出数据,其中,神经网络模型包括依次连接的各层网络,每层网络对应多个候选概念;获取神经网络模型基于输入数据得到输出数据所经过的关键推断路径,其中,关键推断路径包括:神经网络模型中对输入数据进行处理时,各层网络所使用的目标概念,其中,目标概念为多个候选概念中的一个;根据各层网络对应的目标概念,分别确定各层网络对应的解释信息;输出关键推断路径以及解释信息。由此,提出了一种神经网络模型的解释装置。
92.本公开实施例中,图7是根据本公开第六实施例的神经网络模型的解释装置的结构示意图,如图7所示,该神经网络模型的解释装置700还可以包括:第一获取模块701、第二获取模块702、确定模块703、输出模块704、第三获取模块705和标注模块706。其中,第二获取模块702可以包括第一获取单元7021、第二获取单元7022、第三获取单元7023、确定单元7024和判断单元7025。其中:
93.第三获取模块705,用于对于关键推断路径中任意相邻的两层网络,根据相邻的两层网络中的目标概念,获取相邻的两层网络中的目标概念之间的定量关系;
94.标注模块706,用于在关键推荐路径中相邻的两层网络中的目标概念之间标注定量关系。
95.本公开实施例中,第二获取模块702,包括:
96.第一获取单元7021,用于获取与输出数据对应的第j层网络,其中,j等于n,n为神经网络模型中网络的总层数;
97.第二获取单元7022,用于获取第j层网络中的目标概念;
98.第三获取单元7023,用于获取第i层网络中每个候选概念与目标概念之间的定量关系,其中,i等于j减1;
99.确定单元7024,用于根据第i层网络中每个候选概念以及定量关系,确定第i层网络的目标概念;
100.判断单元7025,用于对j进行减1处理,若j大于2,则转至获取第j层网络中的目标概念的步骤;若j等于2,则根据各层网络中的目标概念,生成关键推断路径。
101.本公开实施例中,确定单元7024,具体用于:
102.获取各个定量关系的重要性值;
103.按照各个定量关系的重要性值从大到小的顺序,对各个定量关系进行排序,以得到排序结果;
104.按照排序结果依次取出定量关系,并从第i层网络中的多个候选概念中,获取所取出的定量关系所对应的候选概念;
105.对所取出的定量关系所对应的候选概念的估计值进行累积,直至累积值大于预设阈值;
106.从排序结果中所取出的对应定量关系的候选概念中,确定出第i层网络的目标概念。
107.本公开实施例中,解释信息包括:目标概念的语义信息。
108.本公开实施例中,解释信息还包括:目标概念对应的目标样本的样本特征。
109.本实施例提供的神经网络模型的解释装置,可以通过逐层分析各层网络中的目标概念,并向用户提供各层网络对应的解释信息,有效地解释模型,提高了模型的自可解释性。
110.需要说明的是,本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均在征得用户同意的前提下进行,并且均符合相关法律法规的规定,且不违背公序良俗。
111.根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
112.图8是用来实现本公开实施例的神经网络模型的解释方法的电子设备的结构框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
113.如图8所示,设备800包括计算单元801,其可以根据存储在只读存储器(rom)802中的计算机程序或者从存储单元808加载到随机访问存储器(ram)803中的计算机程序,来执行各种适当的动作和处理。在ram 803中,还可存储设备800操作所需的各种程序和数据。计
算单元801、rom 802以及ram 803通过总线804彼此相连。输入/输出(i/o)接口805也连接至总线804。
114.设备800中的多个部件连接至i/o接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
115.计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如神经网络模型的解释方法。例如,在一些实施例中,神经网络模型的解释方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由rom 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到ram 803并由计算单元801执行时,可以执行上文描述的神经网络模型的解释方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行神经网络模型的解释方法。
116.本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、负载可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
117.用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
118.在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
119.为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视
器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
120.可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。
121.计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
122.其中,需要说明的是,人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
123.应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
124.上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献