一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种提高嵌入式设备运行机器学习模型的速度的方法与流程

2022-05-21 08:05:01 来源:中国专利 TAG:


1.本技术涉及深度学习技术领域,具体涉及一种提高嵌入式设备运行机器学习模型的速度的方法。


背景技术:

2.随着深度学习技术的迅猛发展,深度学习技术广泛地应用于机器视角、人工智能以及嵌入式设备等领域,但是在深度学习技术应用于嵌入式设备中,仍存在计算效率低、运行耗时长等问题,因此需要对嵌入式设备的性能进行优化,提升嵌入式设备的运行速度;目前的优化方案仅能通过对深度学习技术中的卷积网络进行网络参数/结构修改的方式来实现优化,这种修改需要人工实现,耗费人力物力,同时也无法保证对嵌入式设备运行速度优化的效果。


技术实现要素:

3.本技术提供一种提高嵌入式设备运行机器学习模型的速度的方法,能够提高嵌入式设备运行机器学习模型的速度。
4.为解决上述技术问题,本技术采用的技术方案是:提供一种提高嵌入式设备运行机器学习模型的速度的方法,该方法包括:获取训练完成的机器学习模型;基于机器学习模型生成在嵌入式设备中运行对应的运行模型,运行模型包括多个子运行模型;获取每个子运行模型在嵌入式设备中运行的运行耗时,生成运行耗时列表;基于当前待处理数据的数量与运行耗时列表制定当前运行模型,并将当前运行模型发送至嵌入式设备,以使得嵌入式设备运行当前运行模型,当前运行模型包括子运行模型,当前运行模型的功能与机器学习模型的功能相同。
5.为解决上述技术问题,本技术采用的另一技术方案是:提供一种优化装置,该优化装置包括互相连接的存储器和处理器,其中,存储器用于存储计算机程序,计算机程序在被处理器执行时,用于实现上述技术方案中的提高嵌入式设备运行机器学习模型的速度的方法。
6.为解决上述技术问题,本技术采用的又一技术方案是:提供一种优化系统,其包括相互连接的优化装置和嵌入式设备,优化装置为上述技术方案中的优化装置,嵌入式设备用于运行当前运行模型。
7.为解决上述技术问题,本技术采用的又一技术方案是:提供一种计算机可读存储介质,其用于存储计算机程序,计算机程序在被处理器执行时,用于实现上述技术方案中的提高嵌入式设备运行机器学习模型的速度的方法。
8.通过上述方案,本技术的有益效果是:先获取训练完成的机器学习模型;然后对该机器学习模型进行处理,以生成预备在嵌入式设备中运行对应的运行模型;再获取运行模型中每个子运行模型在嵌入式设备中运行的运行耗时,生成运行耗时列表;最后根据当前待处理数据的数量与运行耗时列表制定当前运行模型,并将当前运行模型发送至嵌入式设
备,以使得嵌入式设备运行当前运行模型;由于将整个机器学习模型划分为多个子运行模型,并根据子运行模型应用在嵌入式设备中的运行耗时列表来自适应生成当前运行模型,能够选择花费的时间成本较少的当前运行模型来实现机器学习模型所具有的功能,提高嵌入式设备运行机器学习模型的速度,无需人工对机器学习模型的参数/结构进行修改,同时不受限于机器学习模型的种类,具有更高的灵活性以及普遍性。
附图说明
9.为了更清楚地说明本技术实施例中的技术模型,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。其中:
10.图1是本技术提供的提高嵌入式设备运行机器学习模型的速度的方法一实施例的流程示意图;
11.图2是本技术提供的提高嵌入式设备运行机器学习模型的速度的方法另一实施例的流程示意图;
12.图3是本技术提供的生成最终运行耗时列表的流程示意图;
13.图4是本技术提供的生成当前运行模型的示意图;
14.图5是本技术提供的优化装置一实施例的结构示意图;
15.图6是本技术提供的优化系统一实施例的结构示意图;
16.图7是本技术提供的计算机可读存储介质一实施例的结构示意图。
具体实施方式
17.下面结合附图和实施例,对本技术作进一步的详细描述。特别指出的是,以下实施例仅用于说明本技术,但不对本技术的范围进行限定。同样的,以下实施例仅为本技术的部分实施例而非全部实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本技术保护的范围。
18.在本技术中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本技术的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
19.需要说明的是,本技术中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本技术的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
20.请参阅图1,图1是本技术提供的提高嵌入式设备运行机器学习模型的速度的方法
一实施例的流程示意图,该方法包括:
21.步骤11:获取训练完成的机器学习模型。
22.机器学习模型可包括神经网络、支持向量机、决策树或聚类算法等,在此不作限定,可根据实际情况进行选择应用,获取训练完成的机器学习模型,能够使得机器学习模型应用在嵌入式设备中时达到预期的效果,防止机器学习模型本身缺陷导致在应用过程中出现运行问题,为了实现更优的运行效果,还可采用结构合理有效以及裁剪压缩处理后的成熟模型作为机器学习模型。
23.在一具体的实施方式中,可先获取待处理数据,然后获取训练完成的机器学习模型,从而通过获取到的机器学习模型对待处理数据进行图像处理,具体地,待处理数据可包括图像或视频,通过采用机器学习模型对图像或视频进行处理,可实现目标检测、目标识别、重建或者跟踪等任务;可以理解地,在其他实施方式中,还可先获取待处理数据以及训练样本数据,然后再获取机器学习模型,从而通过训练样本数据对获取到的机器学习模型进行训练,以得到训练完成的机器学习模型,从而通过训练完成的机器学习模型对待处理数据进行图像处理,其中,训练样本数据可包括用于模型训练的图像样本或视频样本。
24.步骤12:基于机器学习模型生成在嵌入式设备中运行对应的运行模型。
25.机器学习模型可应用于嵌入式设备,在嵌入式设备中实现相应的功能,具体地,在将机器学习模型应用于嵌入式设备中时,可先通过嵌入式设备中的对应的转换芯片将机器学习模型转换为嵌入式设备对应的平台模型(即运行模型),运行模型可作为机器学习模型在嵌入式设备中的实体模型实现与机器学习模型相同的功能。例如:机器学习模型为分类模型,其可对图像、视频或语音等输入数据进行分类处理,输出对应的分类结果,在将该分类模型应用在嵌入式设备中时,嵌入式设备可通过运行对应的运行模型实现相应的分类功能。
26.进一步地,运行模型可包括多个子运行模型,例如:训练完成的机器学习模型的维度为x,则在将该机器学习模型转换为运行模型时,可对应生成x个子运行模型,分别用b1、b2、

、bx来表示。
27.步骤13:获取每个子运行模型在嵌入式设备中运行的运行耗时,生成运行耗时列表。
28.可将每个子运行模型在嵌入式设备中进行运行试验,获取每个子运行模型在嵌入式设备中运行的运行耗时,从而生成运行耗时列表,运行耗时列表可包括所有子运行模型以及其各自对应的运行耗时,如下表所示:
[0029][0030]
步骤14:基于当前待处理数据的数量与运行耗时列表制定当前运行模型,并将当前运行模型发送至嵌入式设备,以使得嵌入式设备运行当前运行模型。
[0031]
由于受到应用场景等因素的影响,在实际应用过程中,输入至运行模型的待处理
数据的数量会发生变化,根据当前待处理数据的数量以及运行耗时列表制定当前运行模型,能够从多个子运行模型中选择出在当前应用场景下耗时最小的运行模型作为当前运行模型(该当前运行模型的功能与机器学习模型的功能相同),并将当前运行模型发送至嵌入式设备,以使得嵌入式设备运行当前运行模型,从而提高嵌入式设备的运行速度。
[0032]
进一步地,当前运行模型包括子运行模型,当前运行模型包含的子运行模型的数量可为一个、两个、三个或者三个以上,其包含的子运行模型的维度以及数量可根据当前待处理数据的数量以及运行耗时来进行选择;可以理解地,当前运行模型中包含的每个子运行模型对应的运行次数也可根据当前运行模型以及待处理数据的数量进行合理分配。例如:当前的子运行模型包括b1~b8,当前待处理数据的数量为10,若确定当前运行模型为b1,则可运行子运行模型b1十次,若确定当前运行模型为b1与b8,则可分别运行子运行模型b1两次,子运行模型b8一次。
[0033]
在本实施例所提供的方案中先统计机器学习模型部署到嵌入式设备后对应的运行模型;然后测试该运行模型中的每个子运行模型的耗时,得到运行耗时列表;然后根据当前应用环境中的待处理数据的数量以及运行耗时列表,自适应制定运行耗时最短的当前运行模型,采用该当前运行模型执行与机器学习模型所执行的任务相同的任务,能够提高嵌入式设备运行机器学习模型的速度,无需人工对机器学习模型的参数/结构进行修改,具有更高的灵活性,同时不受机器学习模型的类型的限制,可适用于任何机器学习模型的应用场景下,具有较高的普适性。
[0034]
请参阅图2,图2是本技术提供的提高嵌入式设备运行机器学习模型的速度的方法另一实施例的流程示意图,该方法包括:
[0035]
步骤21:获取训练完成的机器学习模型。
[0036]
上述步骤21与上述实施例中的步骤11相同,在此不再赘述。
[0037]
步骤22:基于机器学习模型生成在嵌入式设备中运行对应的运行模型。
[0038]
输入至机器学习模型的数据具有尺寸大小,可用n
icihi
wi来表示,其中,ni表示输入数据的数量,ci表示输入数据的通道,hi表示输入数据的高度,wi表示输入数据的宽度,利用机器学习模型对输入数据的处理,可输出尺寸大小为n0c0h0w0的结果数据,机器学习模型输入数据尺寸n
icihi
wi与输出数据尺寸n0c0h0w0呈固定的比例,可以理解地,运行模型在运行时输入数据的尺寸与输出数据的尺寸的比例与机器学习模型相同,以数据数量n为例,若机器学习模型的输入数据的数量ni为1,输出数据的数量n0为3,则在运行模型的输入数据的数量为2时,其输出数据的数量便为6。
[0039]
进一步地,运行模型可包括多个子运行模型,子运行模型的数量与机器学习模型的维度相同,多个子运行模型的维度的最大值等于机器学习模型的数量,机器学习模型的维度即为机器学习模型能够同时处理的数据的数量(即上述数据尺寸的n),训练完成的机器学习模型的维度是固定值,例如:以输入数据为图片为例,训练完成的机器学习模型的维度为x,则在将该机器学习模型转换为运行模型时,可对应生成x个子运行模型,分别用b1、b2、

、bx来表示,x个子运行模型b1、b2、

、bx的维度分别为1、2、

、x,即子运行模型b1可同时处理一张图片,b2可同时处理两张图片,以此类推,bx可同时处理x张图片。
[0040]
步骤23:获取每个子运行模型在嵌入式设备中运行的运行耗时,生成运行耗时列表。
[0041]
可将每个子运行模型在嵌入式设备中进行运行试验,获取每个子运行模型在嵌入式设备中运行的运行耗时,从而生成运行耗时列表,然后再根据当前待处理数据的数量与运行耗时列表制定当前运行模型,以使得嵌入式设备运行当前运行模型,下面对基于当前待处理数据的数量与运行耗时列表制定当前运行模型的步骤进行介绍,其具体包括步骤24~26:
[0042]
步骤24:基于运行耗时列表在多个子运行模型中筛选出至少一个优选子运行模型。
[0043]
运行耗时列表包括子运行模型以及对应的运行耗时,可基于运行耗时列表对嵌入式设备转换生成的多个子运行模型进行删减,将耗时较长的子运行模型删除,筛选出至少一个耗时较短的优选子运行模型,并同时对运行耗时列表中的对应子运行模型的信息进行更新,生成包含至少一个优选子运行模型的最终运行耗时列表,以使得嵌入式设备接收到最终运行耗时列表后,运行对应的优选子运行模型,从而实现对嵌入式设备运行速度的提升。
[0044]
在一具体的实施例中,可先从多个子运行模型中选择一个子运行模型作为待选模型;然后将待选模型依次与多个子运行模型中的其他子运行模型进行比较,得到比较结果;然后再基于比较结果生成优选子运行模型;具体地,比较结果可包含最终运行耗时列表,优选子运行模型即为最终运行耗时列表中包含的子运行模型。具体地,可先将待选模型依次与其他子运行模型比较进行以一次筛选,得到中间运行耗时列表;然后再对中间运行耗时列表中的子运行模型进行筛选,得到最终运行耗时列表,即通过对运行耗时列表进行两次筛选,生成了最终运行耗时列表。
[0045]
进一步地,将待选模型与其他子运行模型依次进行比较,如果待选模型的维度小于其他子运行模型的维度,且待选模型的运行耗时大于其他子运行模型的运行耗时,则在运行耗时列表中删除待选模型,并返回从多个子运行模型中选择一个子运行模型作为待选模型的步骤,直至对多个子运行模型遍历完毕,生成中间运行耗时列表。
[0046]
例如:当前的子运行模型包括b1~b10,其对应的运行耗时分别为t1~t10,可将b1作为待选模型,与其他的子运行模型b2~b10依次进行比较,然后在比较过程中出现t1》t3的情况,即运行子运行模型b1来处理一个数据所花费的时间比运行子运行模型b3同时处理三个数据的时间都要长,则此时在运行耗时列表中删除耗时较长的子运行模型b1,然后再将下一个子运行模型b2作为待选模型,与其他子运行模型进行比较,以此类推,直至运行耗时列表中所有子运行模型都轮询完毕,得到更新后的中间运行耗时列表。
[0047]
上述对运行耗时列表中的多个子运行模型进行的一次筛选,是在处理不同数量的数据的情况下进行比较的,仅能避免待选模型的维度小于其他子运行模型的维度,且待选模型的运行耗时大于其他子运行模型的运行耗时的情况,然而在一次筛选后生成的中间运行耗时列表中的子运行模型中,还可能存在维度较小的子运行模型的运行耗时虽然比维度较大的子运行模型的运行耗时小,但是在处理相同数量的数据时,还可能存在运行多次维度较小的子运行模型所需的运行耗时比运行一次维度较大的子运行模型所需的运行耗时还小的情况,所以此时再对中间运行耗时列表中的子运行模型进行二次筛选,将上述情况下的维度较大的冗余的子运行模型删除,具体步骤如图3所示:
[0048]
步骤31:在中间运行耗时列表中选择一个子运行模型作为候选模型。
[0049]
步骤32:计算剩余模型的维度与候选模型的维度的比值,得到维度比值。
[0050]
剩余模型为中间运行耗时列表中除候选模型以外的子运行模型,以中间运行耗时列表包含子运行模型b1与b8为例,计算候选模型的维度与剩余模型的维度的比值,可将b1作为候选模型,将其与剩余模型b8进行比较,计算b8与b1的维度的比值,得到维度比值为8,然后再基于维度比值计算出在处理相同数量的数据时候选模型所需的运行耗时。
[0051]
步骤33:将候选模型的运行耗时与维度比值相乘,得到乘积数值。
[0052]
以上述剩余模型b8与候选模型b1的维度比值为8为例,此时可将候选模型b1的运行耗时t1与维度比值8相乘,便可得到候选模型b1在处理八个数据时所需的运行耗时8*t1,即乘积数值,从而在处理相同数量的数据的条件下,与b8的运行耗时t8进行比较。
[0053]
具体地,在计算候选模型与剩余模型的维度比值时,可判断维度比值是否大于预设数值,其中,预设数值可为1,即判断维度比值是否大于1,若维度比值大于1,则执行判断乘积数值是否小于对应的子运行模型的运行耗时的步骤;若维度比值小于1,则返回在中间运行耗时列表中选择一个子运行模型作为候选模型的步骤,重新选择新的候选模型;可以理解地,由于子运行模型的运行耗时指的是运行一次子运行模型所需的时间,每个子运行模型的运行耗时是固定值,其不会因为待处理数据的数量变小而变小,即尽管采用维度为3的子运行模型处理一个数据,其所需的时间与其处理三个数据所需的时间相同,故在基于维度比值计算出在处理相同数量的数据时各自所需的运行耗时,然后进行运行耗时的比较时,应以维度较大的子运行模型的数据处理能力为基准进行运行耗时的比较,即对候选模型进行乘积数据计算时,所用到的维度比值大于1;例如:将b1与b8进行比较时,可比较两者处理八个数据时所需的运行耗时。
[0054]
步骤34:判断乘积数值是否小于剩余模型的运行耗时。
[0055]
在计算出乘积数值后,即计算出候选模型在与剩余模型处理相同数量的数据时所需的运行耗时,将其与剩余模型的运行耗时进行比较,判断乘积数值是否小于剩余模型的运行耗时,从而判断是否出现运行一次维度较大的子运行模型所需的运行耗时比运行多次维度较小的子运行模型所需的运行耗时还大的情况。
[0056]
步骤35:若乘积数值小于剩余模型的运行耗时,则在中间运行耗时列表中删除剩余模型。
[0057]
在乘积数值小于剩余模型的运行耗时时,则在中间运行耗时列表中将维度较大的剩余模型删除,保留耗时更小的候选模型,并返回在中间运行耗时列表中选择一个子运行模型作为候选模型的步骤,直至对中间运行耗时列表遍历完毕,生成包含至少一个优选子运行模型的最终运行耗时列表;例如:候选模型为b1,其运行耗时为t1,剩余模型为b4,其运行耗时为t4,此时计算出的剩余模型与候选模型的维度比值为4,且数值大于1,则此时将候选模型的运行耗时t1与维度比值4相乘,得到乘积数值4*t1,即表示候选模型处理四个数据所需的时间,然后将乘积数值4*t1与剩余模型的运行耗时t4比较,若4*t1小于t4,则说明分别运行四次b1所需的时间比运行一次b4所需的时间短,则此时可将剩余模型b4删除,保留耗时较小的b1。
[0058]
步骤25:基于当前待处理数据的数量对至少一个优选子运行模型进行组合,生成至少一个待选运行模型。
[0059]
待选运行模型包括至少一个优选子运行模型以及优选子运行模型的运行次数,所
有优选子运行模型的维度与对应的运行次数的乘积之和大于或等于当前待处理数据的数量;具体地,以最终运行耗时列表中包含优选子运行模型b1以及b4,当前待处理数据的数量为10为例进行说明,运行当前的优选子运行模型处理10个数据,待选运行模型可包括下述几种运行方案:运行十次b1、运行六次b1以及一次b4、运行两次b4以及两次b1、运行三次b4等。
[0060]
可以理解地,可通过添加空白数据的方式填补b4中的数据空位,从而能够利用b4处理数量小于四个的数据,此时便还可采用类似于运行八次b1以及一次b4或者运行三次b4的方案来处理十个当前待处理数据。
[0061]
步骤26:将所有待选运行模型中总运行耗时最小的待选运行模型作为当前运行模型。
[0062]
计算待选运行模型中包含的所有优选子运行模型的运行耗时与对应的运行次数的乘积之和,得到待选运行模型的总运行耗时,从所有待选运行模型中选择总运行耗时最小的作为当前运行模型;例如:待选运行模型有第一待选运行模型以及第二待选运行模型,第一待选运行模型包含优选子运行模型b1(运行耗时为t1),对应的运行次数为10,则第一待选运行模型的总运行耗时便为10*t1,第二待选运行模型包含优选子运行模型b1(运行耗时为t1)与b4(运行耗时为t4),对应的运行次数分别为6与1,则第二待选运行模型的总运行耗时便为6*t1 t4,若(6*t1 t4)小于10*t1,说明第二待选运行模型的总运行耗时更小,则可将第二个待选运行模型作为当前运行模型。
[0063]
例如,如图4所示,以待处理数据的数量为9为例,优选子运行模型包括b1~b8,且各自对应的运行耗时为t1~t8,根据当前待处理数据的数量对多个优选子运行模型进行组合,生成多个待选运行模型,例如图4中的:“b1 b8”、“b2 b7”、“b3 b6”以及“b4 b5”,从而完成对这9个待处理数据的处理,每个待选运行模型对应的总运行耗时分别为ta(ta=t1 t8)、tb(tb=t2 t7)、tc(tc=t3 t6)以及td(td=t4 t5),然后在总运行耗时ta~td中选择出总运行耗时最小的待选运行模型作为当前运行模型;可以理解地,图4仅以上述四个待选运行模型为例进行说明,实际应用场景下待选运行模型还可包含如5*b1 b4等多种组合方式,然后在所有待选运行模型中选择总运行耗时最小的待选运行模型作为当前运行模型。
[0064]
步骤27:将当前运行模型中包含的所有优选子运行模型打包,生成压缩数据,并将压缩数据发送至嵌入式设备,以使得嵌入式设备基于当前运行模型运行优选子运行模型。
[0065]
将优选子运行模型打包并发送至嵌入式设备,以使得嵌入式设备基于耗时最小的当前运行模型运行优选子运行模型,从而提高嵌入式设备应用机器学习模型的运行速度;可以理解地,嵌入式设备运行子运行模型需要对应的运行组件,在当前运行模型中包含的优选子运行模型的数量为多个时,嵌入式设备可根据运行组件的数量来选择同时运行多个优选子运行模型,还是依次运行多个优选子运行模型。
[0066]
本实施例根据运行耗时列表在多个子运行模型中筛选出至少一个优选子运行模型,通过对多个子运行模型两次筛选,将多个子运行模型中耗时较大的子运行模型删除,筛选出优选子运行模型;区别于相关技术中对数据的尺寸高度/宽度进行调整以调整嵌入式设备的运行速度的方案,本方案是通过对待处理数据的数量进行划分,然后再根据当前待处理数据的数量,从所有待选运行模型中选取总运行耗时最小的待选运行模型作为当前运行模型,以使得嵌入式设备运行当前运行模型,最终实现对嵌入式设备运行速度的提升,无
需人工干预以对待处理数据的数量进行划分,可以做到完全自动化测试获取,减少嵌入式设备之间因芯片不一样引入的多余工作量;而且通过采用在嵌入式设备中自动实测子运行模型的运行耗时的方式,用实际测量的时间数据来代表嵌入式设备的硬件性能,避免不同的嵌入式设备的硬件差异,能够获取不同的嵌入式设备在各自应用环境下的运行耗时列表,从而实现对所有类型的嵌入式设备的适配,为不同类型的嵌入式设备提供适用于各自性能以及应用环境的优化方案;而且,无需人工参与测量计算,大大减少嵌入式设备所需的工作量,能够实现对嵌入式设备上运行的模型的自适应调整,节省人力物力;此外,本实施例无需对机器学习模型的算法本身进行改进,实现简单。
[0067]
请参阅图5,图5是本技术提供的优化装置一实施例的结构示意图,优化装置50包括互相连接的存储器51和处理器52,存储器51用于存储计算机程序,计算机程序在被处理器52执行时,用于实现上述实施例中的提高嵌入式设备运行机器学习模型的速度的方法。
[0068]
请参阅图6,图6是本技术提供的优化系统一实施例的结构示意图,该优化系统60包括相互连接的优化装置61和嵌入式设备62,优化装置61为上述技术方案中的优化装置,嵌入式设备62用于运行当前运行模型。
[0069]
请参阅图7,图7是本技术提供的计算机可读存储介质一实施例的结构示意图,计算机可读存储介质70用于存储计算机程序71,计算机程序71在被处理器执行时,用于实现上述实施例中的提高嵌入式设备运行机器学习模型的速度的方法。
[0070]
计算机可读存储介质70可以是服务端、u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0071]
在本技术所提供的几个实施方式中,应该理解到,所揭露的方法以及设备,可以通过其它的方式实现。例如,以上所描述的设备实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
[0072]
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式模型的目的。
[0073]
另外,在本技术各个实施方式中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0074]
以上所述仅为本技术的实施例,并非因此限制本技术的专利范围,凡是利用本技术说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本技术的专利保护范围内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献