一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

多模式神经网络定时方法、定时处理器和存储介质

2022-04-24 21:24:12 来源:中国专利 TAG:


1.本发明涉及信号处理技术领域,特别涉及一种多模式神经网络定时方法、定时处理器和存储介质。


背景技术:

2.在辐射探测和新型医学成像设备中,广泛存在对探测器时间分辨的需求。例如,在基于飞行时间技术(time-of-flight,tof)的正电子发射断层成像(positron emission tomography,pet)中,需要测量由正负电子对湮灭产生的成对光子到达探测器模块的时间差,以此来确定湮灭发生的具体位置。又如,在高能物理实验中,量能器时间分辨能力有助于进行粒子鉴别和初级/次级顶点衰变过程的识别。
3.目标神经网络作为一种新型特征提取算法,将一段时间内的所有采样点信号作为输入,将时间等特征数据作为输出,能更充分地利用采样点对于目标任务的有益信息,具有提高时间分辨的潜力。进一步地,针对目标神经网络中特定运算而设计的目标神经网络加速器从硬件层面提高了目标神经网络正向推理的效率,能在专用集成电路(application specific integrated circuit,asic)或现场可编程逻辑门列(field programmable gate array,fpga)上实现。
4.在辐射探测和医学影像领域,不同的应用往往有着不同的技术需求,需要针对不同应用场景设计不同的目标神经网络定时处理器,实现成本比较高。


技术实现要素:

5.有鉴于此,本技术提供一种多模式神经网络定时方法、定时处理器和存储介质,能够在低成本前提下,实现不同应用场景下多神经网络的定时。
6.配送线路确定方法和装置,能够快速、准确地确定出优化的配送线路集。
7.为解决上述技术问题,本技术的技术方案是这样实现的:
8.在一个实施例中,提供了一种多模式神经网络定时处理器,所述定时处理器包括:处理单元、全局缓存单元、输入逻辑单元和输出逻辑单元,通过片上互联进行数据传输;并根据应用场景将处理单元阵列进行处理单元集群划分,划分后的每个所述处理单元集群中的处理单元共享特征图缓存;其中,所述处理单元阵列为所述定时处理器中的所有处理单元的集合;
9.所述处理单元,用于缓存特征图和卷积核数据,并进行相关运算;
10.所述全局缓存单元,用于缓存定时所需的卷积核数据;
11.所述输入逻辑单元,用于输入采样脉冲点信号;
12.所述输出逻辑单元,用于输出定时结果。
13.在另一个实施例中,提供了一种多模式神经网络定时方法,应用于高计数率优化运算场景中的定时处理器上,所述方法包括:
14.通过全局缓存单元向目标神经网络负载的每一层对应的处理单元集群的卷积核
缓存加载对应层的卷积核数据;
15.采样点脉冲信号到达输入逻辑单元;
16.若所述目标神经网络负载的第一层对应的处理单元集群空闲,则通过输入逻辑单元将所述采样点脉冲信号载入第一层对应的处理单元集群的特征图缓存,并进行目标神经网络的正向推理运算;
17.当前层对应的处理单元集群完成对应层的运算时,若后一层对应的处理单元集群空闲,则将当前层的运算结果载入后一层对应的处理单元集群的特征图缓存;
18.当最后一层对应的处理单元集群完成对应层的运算时,将运算结果传送到输出逻辑单元;
19.通过所述输出逻辑单元输出对所述采样点脉冲信号对应的定时结果。
20.在另一个实施例中,提供了一种多模式神经网络定时方法,其特征在于,应用于单事件效应优化运算场景中的定时处理器上,所述方法包括:
21.通过全局缓存单元向每个所述处理单元组合的卷积核缓存同时传输相同的卷积核数据;
22.采样点脉冲信号到达输入逻辑单元;
23.若确定所述处理单元组合均空闲,则将所述采样点脉冲信号从所述输入逻辑单元同时载入所述第一预设值个处理单元组合的特征图缓存,并开始目标神经网络的正向推理运算;
24.当所述处理单元组合中所有处理单元均完成运算时,将运算结果传输到所述输出逻辑单元;
25.基于第一预设值个处理单元组合的运算结果,通过所述输出逻辑单元按照预设判决原则确定与所述采样点脉冲信号对应的定时结果。
26.在另一个实施例中,提供了一种多模式神经网络定时方法,应用于不确定度估计优化运算场景的定时处理器上,所述方法包括:
27.通过全局缓存单元向每个所述处理单元集群的卷积核缓存传输不同版本的目标神经网络卷积核数据;
28.采样点脉冲信号到达输入逻辑单元;
29.若确定所述处理单元集群均空闲,则通过所述逻辑输入单元将所述采样点脉冲信号分别载入到每个所述处理单元集群的特征图缓存;并开始目标神经网络的正向推理运算;
30.当所述处理单元集群完成运算时,将运算结果传输到所述输出逻辑单元;
31.基于所述运算结果通过输出逻辑单元确定所述采样点脉冲信号对应的不确定度。
32.在另一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现在不同应用场景下的所述定时处理器定时处理方法。
33.在另一个实施例中,提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现在不同应用场景下的所述定时处理器定时处理方法。
34.由上面的技术方案可见,上述实施例中基于通用的定时器,在不同应用场景中通过对处理单元阵列进行处理单元集群的划分,在每个处理单元集群中的处理单元共享特征图缓存;能够在复用硬件资源的条件下,针对各种应用场景进行定时处理。该定时处理器能
够在低成本条件下,实现不同应用场景下多神经网络的定时。该技术方案能够极大地提高设计系统结构的灵活性和通用性。
附图说明
35.为了更清楚地说明本技术实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
36.图1为本技术实施例中多模式目标神经网络定时处理器结构示意图;
37.图2为本技术实施例中高计数率优化运算场景中定时处理器结构示意图;
38.图3为本技术实施例中高计数率优化运算场景中定时流程示意图;
39.图4为本技术实施例中单事件效应优化运算场景中定时处理器结构示意图;
40.图5为本技术实施例中单事件效应优化运算场景中定时流程示意图;
41.图6为本技术实施例中不确定度估计优化运算场景中定时处理器结构示意图;
42.图7为本技术实施例中不确定度估计优化运算场景中定时流程示意图。
具体实施方式
43.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
44.本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含。例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其他步骤或单元。
45.下面以具体实施例对本发明的技术方案进行详细说明。下面几个具体实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
46.本技术实施例中提供一种多模式神经网络定时处理器,该定时处理器具有通用的目标神经网络定时处理器架构,能够在复用硬件资源的条件下,通过处理单元的划分,针对各种应用场景进行定时处理。该定时处理器能够在低成本条件下,实现各种应用场景中的定时处理。该技术方案能够极大地提高设计系统结构的灵活性和通用性。
47.下面结合附图,给出本技术实施例中提供的通用多模式目标神经网络定时器的结构。
48.参见图1,图1为本技术实施例中多模式目标神经网络定时处理器结构示意图。图1中的定时处理器包括:处理单元、全局缓存单元、输入逻辑单元和输出逻辑单元,通过片上互联进行数据传输;
49.处理单元,用于缓存特征图和卷积核数据,并进行相关运算;
50.其中,处理单元包括:乘加运算核心、特征图缓存和卷积核缓存;
51.通过乘加运算核心进行乘加相关运算;
52.通过特征图缓存进行特征图缓存;
53.通过卷积核缓存来缓存卷积核数据。
54.为了正常工作,处理单元中还包括必要的控制逻辑,本技术实施例中对控制逻辑的实现并未进行改变,因此,这里不对其进行赘述。
55.全局缓存单元,用于缓存定时所需的卷积核数据;
56.输入逻辑单元,用于输入采样脉冲点信号;这里的采样脉冲信号可以为adc采样脉冲信号。
57.输出逻辑单元,用于输出定时结果。
58.图1中以片上互联进行数据传输为例,处理单元之间也可以通过私有的互联总线进行数据传输。
59.基于上述结构上通用的定时处理器,应用于不同应用场景中时,可以根据应用场景将处理单元阵列进行处理单元集群划分,划分后的每个所述处理单元集群中的处理单元共享特征图缓存;其中,所述处理单元阵列为所述定时处理器中的所有处理单元的集合。图1中的左侧一列为一个处理单元集群示例,所述处理单元集群中的处理单元共享特征图缓存。
60.下面分别针对不同应用场景的需求,描述使用上述定时处理器在各应用场景中进行定时的过程。
61.若应用场景为高计数率优化运算场景,则基于目标神经网络负载的层数,以及每一层的数据存储需求和运算量将所述处理单元阵列中的处理单元划分为n个处理单元集群;其中,n为大于1的整数。
62.在划分处理单元集群时,每个处理单元集群中的处理单元在空间或拓扑上位置是相邻的,且划分后的处理单元集群中包括的处理单元在空间上或拓扑上是不重合的,即一个处理单元不会划分到多个处理单元集群中。
63.将目标神经网络的第一层对应的处理单元集群与输入逻辑单元相连;
64.不同层的处理单元集群的特征图缓存构成流水线的级联结构;
65.将目标神经网络的最后一层对应的处理单元集群与输出逻辑单元相连。
66.在具体实现时,以n等于3为例,将处理单元阵列划分为3个处理单元集群,每个处理单元集群中的处理单元共享特征图缓存。参见图2,图2为本技术实施例中高计数率优化运算场景中定时处理器结构示意图。
67.图2中,处理单元阵列共划分3个处理单元集群,分别为处理单元集群21、处理单元集群22和处理单元集群23。
68.每个处理单元集群中的处理单元的特征图缓存共享,即特征图缓存单元共享。
69.将目标神经网络的第一层对应的处理单元集群21与输入逻辑单元相连;
70.不同层的处理单元集群(处理单元集群21、处理单元集群22和处理单元集群23)的特征图缓存构成流水线的级联结构;
71.将目标神经网络的最后一层对应的处理单元集群23与输出逻辑单元相连。
72.下面结合附图,详细说明在高计数率优化运算场景中进行定时处理的过程。
73.参见图3,图3为本技术实施例中高计数率优化运算场景中定时流程示意图。具体步骤为:
74.步骤301,通过全局缓存单元向目标神经网络负载的每一层对应的处理单元集群的卷积核缓存加载对应层的卷积核数据。
75.这里的目标神经网络即在该应用场景下定时使用的神经网络。如图3中,全局缓存单元通过片上互联分别向3个处理单元集群的卷积核缓存加载对应层的卷积核数据。
76.本步骤为在运算定时之前进行的准备工作,若不需要更新卷积核数据,则不需要每次接收到采样点脉冲信号之前进行该准备工作,进行一次即可。
77.步骤302,采样点脉冲信号到达输入逻辑单元。
78.此时,接收到需要进行处理的采样点脉冲信号。
79.步骤303,若所述目标神经网络负载的第一层对应的处理单元集群空闲,则通过输入逻辑单元将所述采样点脉冲信号载入第一层对应的处理单元集群的特征图缓存,并进行目标神经网络的正向推理运算。
80.本步骤需要判断目标神经网络负载的第一层对应的处理单元集群是否空闲,即图2中的处理单元集群21是否空闲,如果是,加载采样点脉冲信号进行处理;否则,等待,直到目标神经网络负载的第一层对应的处理单元集群空闲再加载采样点脉冲信号。
81.这里只需要第一层对应的处理单元集群空闲即可,不需要所有处理单元集群空闲,因此,在之前的采样点脉冲信号尚未完成运算的情况下,允许新的采样点脉冲信号进入流水线,可以实现处理单元集群在空间和时间上的并行运算,提高运算效率。
82.步骤304,当前层对应的处理单元集群完成对应层的运算时,若后一层对应的处理单元集群空闲,则将当前层的运算结果载入后一层对应的处理单元集群的特征图缓存。
83.如图2中处理单元集群21完成运算时,若处理单元集群22空闲,则将处理单元集群21的运算结果载入处理单元集群22的特征图缓存;若处理单元集群22不空闲,则将运算结果先缓存在处理单元集群21的特征图缓存中,直到处理单元集群22空闲,以此类推,实现流水线操作。
84.步骤305,当最后一层对应的处理单元集群完成对应层的运算时,将运算结果传送到输出逻辑单元。
85.如图2中处理单元集群23完成运算时,将运算结果通过片上互联传送到输出逻辑单元。
86.这里的运算结果即为处理定时结果。
87.步骤306,通过所述输出逻辑单元输出对所述采样点脉冲信号对应的定时结果。
88.本实施例中将处理单元阵列划分为多个处理单元集群,并在处理单元集群内部共享特征图缓存;输入逻辑,处理单元集群和输出逻辑通过片上互联构成层次化的流水线结构,并预先加载卷积核缓存的数据;按照事件驱动的方式,对输入采样点脉冲信号进行流水线化的神经网络推理操作,并将定时结果从流水线最后一级传出;流水线使得系统能对不同事件的输入采样点脉冲信号进行空间和时间上的并行处理,以此提高系统的吞吐量,使得其能适应高计数率的需求。
89.若应用场景为单事件效应优化运算场景,则将所述处理单元阵列中的处理单元按
照空间或拓扑上的相邻关系划分为第一预设值个处理单元组合;
90.将所述处理单元组合划分为多个处理单元集群;
91.或,将每个所述处理单元组合作为一个处理单元集群。
92.在具体实现时,可以先将处理单元划分为第一预设值个处理单元组合,即先划分为多个部分,若其中的某个处理单元组合可以再次进行划分,则划分为多个处理单元集群,若其中的某个处理单元组合不再进行多个处理单元集群的划分,则将该组合作为一个处理单元集群,即划分的第一预设值个处理单元可以都再进行处理单元集群的划分,也可以都不再进行处理单元集群的划分,还可以选择其中的部分处理单元组合划分为处理单元集群。
93.以第一预设值为3,且不再将所有处理单元组合划分,每个处理单元组合作为一个处理单元集群为例。
94.同一处理单元集群中共享特征图缓存。
95.每个处理单元集群中的处理单元的个数可以均分,若由于处理单元的总个数不能被n整除,且余数为m,则选择n个处理单元集群中的m个处理单元集群分别分配一个处理单元。
96.在划分处理单元集群时,每个处理单元集群中的处理单元在空间或拓扑上位置是相邻的,且划分后的处理单元集群中包括的处理单元在空间上或拓扑上是不重合的,即一个处理单元不会划分到多个处理单元集群中。
97.每个处理单元集群与输入逻辑单元和输出逻辑单元相连;
98.不同处理单元集群之间无关联。
99.在具体实现时,将处理单元阵列划分为3个处理单元组合,不再进行处理单元集群的划分,即每个组合作为一个处理单元集群,这样处理单元组合中的处理单元共享特征图缓存。参见图4,图4为本技术实施例中单事件效应优化运算场景中定时处理器结构示意图。
100.图4中,处理单元阵列共划分3个组合,分别为处理单元组合41、处理单元组合42和处理单元组合43。
101.每个处理单元组合中的处理单元的特征图缓存共享,即特征图缓存单元共享。
102.将处理单元组合41、处理单元组合42和处理单元组合43分别与输入逻辑单元和输出逻辑单元相连。
103.下面结合附图,详细说明在单事件效应优化运算场景中进行定时处理的过程。
104.参见图5,图5为本技术实施例中单事件效应优化运算场景中定时流程示意图。具体步骤为:
105.步骤501,通过全局缓存单元向每个处理单元组合的卷积核缓存同时传输相同的卷积核数据。
106.本步骤为运算开始前的准备工作,若不需要更新卷积核数据,则不需要每次接收到采样点脉冲信号之前进行该准备工作,进行一次即可。
107.如图4中,全局缓存单元通过片上互联分别向3个处理单元集群的卷积核缓存加载相同的卷积核数据。
108.步骤502,采样点脉冲信号到达输入逻辑单元。
109.步骤503,若确定所述处理单元组合均空闲,则将所述采样点脉冲信号从所述输入
逻辑单元同时载入所述第一预设值个处理单元组合的特征图缓存,并开始目标神经网络的正向推理运算。
110.若所述处理单元组合未再划分处理单元集群,则需要所有处理单元组合空闲;
111.若将所述处理单元组合划分为多个处理单元集群,且每个所述处理单元组合的第一个处理单元集群均空闲,则确定所述处理单元组合均空闲。
112.若将一个组合划分为多个处理单元集群,即在一个处理单元组合中有多个处理单元集群,则可以按照针对高计数率优化运算场景中的流水线的方式进行处理。
113.若一次未能缓存全部的卷积核数据,且当前卷积核数据的运算已经完成,则通过全局缓存单元再次加载相同的卷积核数据。
114.步骤504,当处理单元组合中所有处理单元均完成运算时,将运算结果传输到所述输出逻辑单元。
115.每个处理单元组合完成运算时,将运算结果通过片上互联传输给输出逻辑单元。
116.步骤505,基于第一预设值个处理单元组合的运算结果,通过所述输出逻辑单元按照预设判决原则确定与所述采样点脉冲信号对应的定时结果并输出。
117.这里的预设判决原则与第一预设值有关,如第一预设值为3,则判决原则可以为有两个处理单元组合的运算结果相同时,结果有效,即为定时处理结果;
118.若第一预设值为5,则判决原则可以为有三个处理单元组合的运算结果相同时,结果有效,即为定时处理结果。
119.本实施例中,如果单事件效应污染了多个处理单元组合中的某一个的运算结果,或几个运算结果,但是剩余的运算结果都是正确的,则该次神经网络推理过程仍然有效,因此,本实施例能在一定程度上减少单事件效应的影响。并且多个处理单元组合在空间上或拓扑上处于不同位置,在一次神经网络推理过程中在多个位置发生单事件效应并对结果产生影响的可能性是极小的。
120.若应用场景为不确定度估计优化运算场景,则基于目标神经网络负载的层数和运算规模,将所述处理单元阵列划分为第二预设值个处理单元集群。
121.第二预设值可以为大于4的整数;
122.每个处理单元集群中的处理单元共享特征图缓存。
123.在具体实现时,可以先将处理单元划分为第二预设值个处理单元集合。
124.每个处理单元集群中的处理单元的个数可以均分,若由于处理单元的总个数不能被n整除,且余数为m,则选择n个处理单元集群中的m个处理单元集群分别分配一个处理单元。
125.在划分处理单元集群时,每个处理单元集群中的处理单元在空间或拓扑上位置是相邻的,且划分后的处理单元集群中包括的处理单元在空间上或拓扑上是不重合的,即一个处理单元不会划分到多个处理单元集群中。
126.每个处理单元集群与输入逻辑单元和输出逻辑单元相连;
127.不同处理单元集群之间无关联。
128.在实际应用中,为了完成不确定估计,优选地,将处理单元阵列划分为5个以上处理单元集群的实现方案为优,但不限制具体划分的处理单元集群的个数。
129.本技术实施例中,为了图像更清晰,以将处理单元阵列划分为2个处理单元集群,
每个处理单元集群中的处理单元共享特征图缓存为例。参见图6,图6为本技术实施例中不确定度估计优化运算场景中定时处理器结构示意图。
130.图6中以划分两个处理单元集群为例,具体为处理单元集群61和处理单元集群62。每个处理单元集群中的处理单元共享特征图缓存。
131.处理单元集群61和处理单元集群62分别与输入逻辑单元和输出逻辑单元相连。每个处理单元集群中的处理单元在空间上或拓扑上存在相邻关系,处理单元集群61和处理单元集群62中不存在相同的处理单元。
132.下面结合附图,详细描述在不确定度估计优化运算场景中进行定时处理的过程。
133.参见图7,图7为本技术实施例中不确定度估计优化运算场景中定时流程示意图。具体步骤为:
134.步骤701,通过全局缓存单元向每个所述处理单元集群的卷积核缓存传输不同版本的目标神经网络卷积核数据。
135.本步骤为运算开始前的准备工作,若不需要更新卷积核数据,则不需要每次接收到采样点脉冲信号之前进行该准备工作,进行一次即可。
136.如图6中,全局缓存单元通过片上互联分别向2个处理单元集群的卷积核缓存加载不同版本的目标神经网络卷积核数据。
137.步骤702,采样点脉冲信号到达输入逻辑单元。
138.步骤703,若确定所述处理单元集群均空闲,则通过所述输入逻辑单元将所述采样点脉冲信号分别载入到每个所述处理单元集群的特征图缓存;并开始目标神经网络的正向推理运算。
139.若所述处理单元集群完成运算时,则将运算结果传输到所述输出逻辑单元;
140.若所述处理单元集群未缓存全部的卷积核数据,且当前缓存的卷积核数据的运算已完成,则通过全局缓存单元再次向各个所述处理单元集群的卷积核缓存加载相应版本的卷积核数据,进行卷积核数据的刷新,并继续进行目标神经网络的正向推理,直到完成运算;
141.若所述处理单元集群未完成所有版本神经网络的推理过程,且当前缓存的版本的卷积核数据的运算已完成,则通过全局缓存单元再次向各个所述处理单元集群的卷积核缓存加载剩余版本的卷积核数据,进行卷积核数据的刷新,并继续进行目标神经网络的正向推理,直到完成运算。
142.步骤704,当所述处理单元集群完成运算时,将运算结果传输到所述输出逻辑单元。
143.步骤705,基于所述运算结果通过输出逻辑单元确定所述采样点脉冲信号对应的不确定度,并输出。
144.本技术实施例中所述运算结果包括:
145.预测值和预测不确定度;
146.或,预测值。
147.具体实现时,若运算结果中包括预测值和预测不确定度,且采用n个版本的神经网络卷积核进行推理,则通过下式确定采样点脉冲信号对应的不确定度:
[0148][0149][0150]
其中,i为1到n的整数,μi为第i个版本的神经网络卷积核对应的预测值,σi为第i个版本的神经网络卷积核对应的不确定度。
[0151]
若运算结果中仅包括预测值,且采用n个版本的神经网络卷积核进行推理,则通过下式确定采样点脉冲信号对应的不确定度:
[0152][0153][0154]
其中,i为1到n的整数,μi为第i个版本的神经网络卷积核对应的预测值。
[0155]
针对不确定度估计场景,通过多个版本的神经网络卷积核进行多次推理。
[0156]
本技术实施例中可以通过随机初始化参数,预先训练多个版本的神经网络卷积核,存储在全局缓存中;根据需要,选择将处理单元阵列划分为若干个处理单元集群;一旦有新的采样点脉冲信号到达输入逻辑,将其同时加载到每个处理单元集群的特征图缓存;每个处理单元集群使用一个版本的卷积核进行推理,将推理的定时结果传送到输出逻辑;如果处理单元集群数目小于神经网络卷积核的版本数目,则通过全局缓存刷新处理单元集群的卷积核缓存,并使用新的卷积核进行推理,直到所有版本的神经网络卷积核推理完毕。
[0157]
在另一个实施例中,还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现不同应用场景中定时处理器定时的方法。
[0158]
在另一个实施例中,还提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现不同应用场景中定时处理器定时的方法。
[0159]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
[0160]
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献