一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

用于处理数据的方法、电子设备和计算机程序产品与流程

2021-11-03 23:31:00 来源:中国专利 TAG:


1.本公开的实施例总体涉及数据处理,具体涉及用于处理数据的方法、电子设备和计算机程序产品。


背景技术:

2.当前,深度学习在诸多数据处理领域中广泛应用,诸如搜索技术、数据挖掘、机器学习、机器翻译、自然语言处理、多媒体学习、推荐和个性化技术等。深度学习使机器模仿视听和思考等人类的活动,解决了很多复杂的模式识别难题,使得人工智能相关技术取得了很大进步。然而,深度学习通常需要非常繁重的计算。因此,需要提高深度学习的性能。


技术实现要素:

3.本公开的实施例提供了用于处理数据的方法、电子设备和计算机程序产品。
4.在本公开的第一方面,提供了一种用于处理数据的方法。该方法包括:确定与深度学习模型的第一输入相关联的因素,因素影响用于执行深度学习模型的线程数目;基于因素,使用第一输入生成多个第一部分输入,多个第一部分输入中的每个第一部分输入是第一输入的一部分;以及通过利用深度学习模型对多个第一部分输入执行操作,生成深度学习模型的输出。
5.在本公开的第二方面,提供了一种电子设备。该设备包括至少一个处理单元和至少一个存储器。至少一个存储器被耦合到至少一个处理单元并且存储用于由至少一个处理单元执行的指令。该指令当由至少一个处理单元执行时使得设备执行动作,该动作包括:确定与深度学习模型的第一输入相关联的因素,因素影响用于执行深度学习模型的线程数目;基于因素,使用第一输入生成多个第一部分输入,多个第一部分输入中的每个第一部分输入是第一输入的一部分;以及通过利用深度学习模型对多个第一部分输入执行操作,生成深度学习模型的输出。
6.在本公开的第三方面,提供了一种计算机程序产品。计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,机器可执行指令在被执行时使机器实现根据本公开的第一方面所描述的方法的任意步骤。
7.提供发明内容部分是为了以简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或必要特征,也无意限制本公开的范围。
附图说明
8.通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。
9.图1示出了本公开的一些实施例能够在其中实现的数据处理环境的示例的示意
图;
10.图2示出了根据本公开的一些实施例的用于处理数据的方法的流程图;
11.图3示出了根据本公开的一些实施例的按通道划分方式的示例的示意图;
12.图4示出了根据本公开的一些实施例的交叉乘运算划分方式的示例的示意图;
13.图5示出了根据本公开的一些实施例的一个矩阵和一个标量之间的按元素运算划分方式的示例的示意图;
14.图6示出了根据本公开的一些实施例的两个矩阵之间的按元素运算划分方式的示例的示意图;
15.图7示出了根据本公开的一些实施例的一个矩阵的按元素运算划分方式的示例的示意图;以及
16.图8示出了可以用来实施本公开内容的实施例的示例设备的示意性框图。
17.在各个附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
18.下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
19.在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
20.在深度学习模型并行负载均衡调度中,可能存在非常繁重的计算。这样的计算需要诸如图形处理单元(gpu)等的设备执行大量线程。然而,这样的计算难以以均衡的方式被调度到不同设备中,并且将导致设备的性能下降。
21.例如,核函数在线程需求方面非常不均衡。一些繁重的核函数可能消耗一个gpu能够处理的最大数目的线程,而另一些核函数可能仅消耗非常少量的线程。在这种情况下,由于一个繁重的核函数占用了gpu上的所有线程资源,使得其他核函数没有线程资源,因此即使将多个核函数调度到gpu中以用于同时执行,也无法实现真正的并行性。
22.此外,这也将损害设备的性能。在将一个繁重的核函数与其他核函数一起调度到gpu中以执行时,因为其他核函数无法与该繁重的核函数并行执行,因此gpu内部调度器必须调度所有核函数进出gpu内核以执行。这样的gpu内部调度对于gpu来说将是非常大的开销。另外,一旦使用了gpu中的所有线程,就必须在所有线程之间使用额外的线程同步,这对gpu来说又是另一项开销。
23.根据本公开的示例实施例,提出了一种用于处理数据的改进方案。在该方案中,确定与深度学习模型的输入相关联的因素。因素可以影响用于执行深度学习模型的线程数目。基于因素,使用输入生成多个部分输入。多个部分输入中的每个部分输入是输入的一部分。由此,通过利用深度学习模型对多个部分输入执行操作,生成深度学习模型的输出。
24.以此方式,本方案可以将繁重的计算划分为若干个适量的计算,这将有利于负载均衡和设备性能。此外,本方案还可以将不具有并行性的深度学习模型优化为具有并行性,从而进一步提高负载均衡和设备性能。
25.在下文中,将结合图1-图7更详细地描述本方案的具体示例。图1示出了根据本公开的一些实施例的数据处理环境100的示例的示意图。数据处理环境100包括计算设备110。计算设备110可以包括但不限于分布式计算设备、云计算设备、大型计算机、服务器、个人计算机、桌面计算机、膝上型计算机、平板计算机、个人数字助理、中央处理单元(cpu)、gpu等任何具有计算能力的设备。
26.计算设备110能够获取深度学习模型140的输入,例如输入120(在下文中,称为“第一输入120”)和输入130(在下文中,称为“第二输入130”)。深度学习模型140可以是用于深度学习计算的任何模型,诸如cifar-10等。深度学习模型140可以被部署在计算设备110外,也可以被部署在计算设备110内。
27.深度学习模型的输入可以是与图像、视频、音频、文本等任何数据形式有关的信息。在下文中,将以图像作为输入的示例以便于描述。例如,第一输入120可以是表示一个图像的矩阵a,而第二输入130可以是表示另一图像的矩阵b。应理解,虽然图1中示出了两个输入,但是输入的数目不限于此,并且可以是更多或更少的任何适当数目。
28.计算设备110可以将第一输入120和第二输入130应用于深度学习模型140以生成输出150,即结果r。第一输入120和/或第二输入130的数据量可能非常大,从而可能导致非常繁重的计算。为此,计算设备110可以将第一输入120和/或第二输入130划分为多个部分输入,每个部分输入仅具有适当的数据量,并且将这些部分输入应用于深度学习模型以生成输出150。
29.通过将较大的输入划分为多个较小的输入,可以提高负载均衡和设备性能。此外,由于输入被划分为多个部分,使得每个部分可以并行处理,因此还可以将不具有并行性的深度学习模型优化为具有并行性。
30.以下将结合图2-图7对计算设备110进行的操作进行详细描述。图2示出了根据本公开的一些实施例的用于处理数据的方法200的流程图。例如,方法200可以由如图1所示的计算设备110来执行。应当理解的是,方法200还可以包括未示出的附加步骤和/或可以省略所示出的步骤,本公开的范围在此方面不受限制。为了便于理解,将参考图3-图7对方法200进行描述。
31.在210,计算设备110确定与深度学习模型140的第一输入120相关联的因素。该因素影响用于执行深度学习模型140的线程数目。注意,在下文中,仅为了便于理解,以第一输入120为例进行描述。事实上,计算设备110可以对第二输入130或深度学习模型140的任何输入进行与第一输入110类似的操作,反之亦然。
32.在某些实施例中,计算设备110可以预先确定深度学习计算消耗的线程资源是否过大。例如,计算设备110可以预测要用于执行深度学习模型140的线程数目是否超过预定线程阈值。预定线程阈值可以根据深度学习模型140的性质以及用于执行深度学习模型140的设备的性质而设置。例如,可以为具有较高处理能力的设备设置更高的预定线程阈值。
33.如果确定深度学习计算消耗的线程资源过大,这通常意味着深度学习模型140的输入的数据量过大。因此,计算设备110可以进一步确定是与输入相关联的什么因素导致了
消耗的线程资源过大。在某些实施例中,输入可以具有各种属性,例如批大小、通道数、高度和宽度。例如,批大小指示在一个批次中处理的图像的数目、通道数指示图像的通道(例如,rgb通道)的数目、高度指示图像在纵向方向上的像素数,宽度指示图像在横向方向上的像素数。通道数、高度和宽度可以成为影响用于执行深度学习模型140的线程数目的因素。此外,由于高度和宽度表征了图像的大小,因此在下文中也可以被统称为“大小”。
34.计算设备110可以将图像的通道数与通道阈值进行比较。如果确定图像的通道数超过通道阈值,则计算设备110可以将因素确定为通道数。此外,计算设备110还可以将图像的高度和/或宽度与大小阈值进行比较。如果确定图像的高度或宽度中的至少一项的大小超过大小阈值,则计算设备110可以将因素确定为大小。
35.在220,计算设备110基于因素,使用第一输入生成多个第一部分输入。多个第一部分输入中的每个第一部分输入是第一输入的一部分。针对不同的因素,可以对输入采用不同的划分方式。
36.在某些实施例中,在因素是通道数的情况下,由于针对某个通道的计算与其他通道不相关,因此在这种情况下仅需要按照通道对输入进行划分。具体地,计算设备110将第一输入120划分为多个部分输入(在下文中,称为“第一部分输入”)。多个第一部分输入中的每个第一部分输入的通道数与通道划分阈值相关联。将参考图3对这种划分方式进行描述。
37.图3示出了根据本公开的一些实施例的按通道划分方式300的示例的示意图。如图3所示,第一输入120和第二输入分别是表示一个图像的矩阵a和表示另一个图像的矩阵b。计算设备110可以将第一输入120和第二输入130分别划分为多个部分输入,与每个部分输入相关联的通道数不超过通道划分阈值。类似于线程阈值,通道划分阈值也取决于例如深度学习模型的性质以及用于执行深度学习模型的设备的性质。具体地,第一输入120被划分为多个部分输入a1、a2、
……
、a
n
,并且第二输入130被划分为多个部分输入(在下文中,称为“第二部分输入”)b1、b2、
……
、b
n

38.在某些实施例中,在因素是大小的情况下,取决于输入的类型、深度学习模型要对输入执行的操作的类型以及一个输入相对于另一个输入的大小,可以对输入进行不同的划分。例如,关于输入的类型,由于矩阵通常导致繁重的计算,而标量通常不会如此,因此可以对矩阵进行划分,而无需对标量进行划分。
39.此外,关于操作的类型和相对大小,计算设备110可以进行如下操作。在某些实施例中,计算设备110可以确定将利用深度学习模型对多个第一部分输入执行的操作的类型,并且基于类型使用大小划分阈值将第一输入120划分为多个第一部分输入。
40.操作的类型包括交叉乘运算和按元素运算。一方面,在操作的类型是交叉乘运算的情况下,除了第一输入120以外,深度学习模型还具有第二输入130。假设第一输入120和第二输入130分别是表示图像的矩阵a和矩阵b。计算设备110可以进一步确定两个输入的相对大小。如果确定第一输入120的大小超过第二输入130的大小,则计算设备110可以将第一输入120划分为多个子矩阵以作为多个第一部分输入。每个子矩阵的大小不超过大小划分阈值。类似于线程阈值和通道划分阈值,大小划分阈值也取决于例如深度学习模型的性质以及用于执行深度学习模型的设备的性质。
41.相反,如果确定第一输入120的大小小于第二输入130的大小,则计算设备110可以将第一输入120划分为多个中间部分输入。每个中间部分输入是包括第一输入120的至少一
个列向量的矩阵。进一步地,计算设备110可以将多个中间部分输入中的每个中间部分输入划分为多个子矩阵以作为多个第一部分输入。每个子矩阵的大小不超过大小划分阈值。注意,如上所述,计算设备110可以对第二输入130或深度学习模型140的任何输入进行与第一输入110类似的操作,反之亦然。将参考图4对这种划分方式进行描述。
42.图4示出了根据本公开的一些实施例的交叉乘运算划分方式400的示例的示意图。假设第一输入120为m
×
n的矩阵a,第二输入130为n
×
p的矩阵b,并且矩阵a大于矩阵b。如图4所示,对于矩阵a,计算设备110可以将其划分为多个子矩阵a
11

……
、a
n1

……
、a
m1

……
a
mn
,以作为多个部分输入。每个子矩阵的大小不超过大小划分阈值。具体地,每个子矩阵的行数和列数不超过大小划分阈值。
43.对于矩阵b,计算设备110可以将矩阵b划分为多个中间部分输入。每个中间部分输入是包括矩阵b的至少一个列向量的矩阵。例如,图4示出了作为一个中间部分输入的矩阵c,其为矩阵b的一个列向量。由于矩阵b一共有p列,因此存在p个中间部分输入。
44.进一步地,计算设备110可以将每个中间部分输入划分为多个子矩阵c1、
……
、c
n
,以作为多个部分输入。每个子矩阵的大小不超过大小划分阈值。具体地,每个子矩阵的行数和列数不超过大小划分阈值。
45.另一方面,在操作的类型是按元素运算的情况下,计算设备110将第一输入120划分为多个子矩阵以作为多个第一部分输入。每个子矩阵的大小不超过大小划分阈值。将参考图5-图7对这种划分方式进行描述。
46.图5示出了根据本公开的一些实施例的一个矩阵和一个标量之间的按元素运算划分方式500的示例的示意图。假设第一输入120为m
×
n的矩阵a,第二输入130为标量b,并且按元素计算为矩阵a加上标量b(a b)。如图5所示,对于矩阵a,计算设备110可以将其划分为多个子矩阵a
11

……
、a
n1

……
、a
m1

……
a
mn
,以作为多个部分输入。每个子矩阵的大小不超过大小划分阈值。具体地,每个子矩阵的行数和列数不超过大小划分阈值。此外,对于标量b,如上所述,由于矩阵通常导致繁重的计算,而标量通常不会如此,因此可以对矩阵进行划分,而无需对标量进行划分。
47.图6示出了根据本公开的一些实施例的两个矩阵之间的按元素运算划分方式600的示例的示意图。假设第一输入120为m
×
n的矩阵a,第二输入130为m
×
n的矩阵b,并且按元素计算为矩阵a加上矩阵b(a b)。如图6所示,对于矩阵a,计算设备110可以将其划分为多个子矩阵a
11

……
、a
n1

……
、a
m1

……
a
mn
,以作为多个部分输入。每个子矩阵的大小不超过大小划分阈值。具体地,每个子矩阵的行数和列数不超过大小划分阈值。此外,对于矩阵b,计算设备110可以采用与矩阵a相同的划分方式。也就是说,计算设备110可以将矩阵b划分为多个子矩阵b
11

……
、b
n1

……
、b
m1

……
b
mn
,以作为多个部分输入。每个子矩阵的大小不超过大小划分阈值。
48.图7示出了根据本公开的一些实施例的一个矩阵的按元素运算划分方式700的示例的示意图。假设第一输入120为m
×
n的矩阵a,并且按元素计算为单矩阵运算。如图7所示,对于矩阵a,计算设备110可以将其划分为多个子矩阵a
11

……
、a
n1

……
、a
m1

……
a
mn
,以作为多个部分输入。每个子矩阵的大小不超过大小划分阈值。具体地,每个子矩阵的行数和列数不超过大小划分阈值。
49.以上述列举的方式,计算设备110实现了针对各种不同类型的运算,对深度学习模
型的输入进行合理划分,从而避免了数据量过大的输入带来的繁重计算,并且确保了计算效率和并行性。
50.由于深度学习模型的输入被划分为多个部分输入,因此计算图也将相应地改变。对完整输入进行计算的计算节点改变为对部分输入进行计算的计算节点。以下将描述深度学习模型对这些部分输入进行的计算。
51.在230,计算设备110通过利用深度学习模型140对多个第一部分输入执行操作,生成深度学习模型140的输出150。在某些实施例中,计算设备110可以通过利用深度学习模型140对多个第一部分输入执行操作,生成深度学习模型140的多个部分输出。然后,计算设备110可以通过组合这些部分输出,生成最终的输出150。
52.例如,在图3的示例中,深度学习模型对部分输入a1、a2、
……
、a
n
和b1、b2、
……
、b
n
执行操作,生成了部分输出r1、r2、
……
、r
n
。然后,计算设备110可以组合这些部分输出r1、r2、
……
、r
n
来生成输出150,即结果r。例如,组合操作可以通过全连接的方式来实现。此外,出于性能的考虑,在gpu执行深度学习计算的情况下,组合操作可以在cpu中执行,而不是在gpu中执行,以避免在cpu和gpu的存储器之间进行复制,并且可以在cpu中高效执行组合操作。
53.在图4的示例中,针对一个中间部分输入c,深度学习模型对部分输入a
11

……
、a
n1

……
、a
m1

……
a
mn
和c1、
……
、c
n
执行交叉乘运算,生成了部分输出d
11

……
、d
n1

……
、d
m1

……
d
mn
。这些部分输出d
11

……
、d
n1

……
、d
m1

……
d
mn
可以组合成中间输出d。对于每个中间部分输入,深度学习模型都将进行类似操作,以生成中间输出。进一步地,计算设备110可以组合对于全部中间部分输入生成的全部中间输出,来生成输出150,即结果r。
54.在图5的示例中,深度学习模型对部分输入a
11

……
、a
n1

……
、a
m1

……
a
mn
和标量b执行加法运算,生成了部分输出r
11

……
、r
n1

……
、r
m1

……
r
mn
。然后,计算设备110可以组合这些部分输出r
11

……
、r
n1

……
、r
m1

……
r
mn
来生成输出150,即结果r。
55.在图6的示例中,深度学习模型对部分输入a
11

……
、a
n1

……
、a
m1

……
a
mn
和部分输入b
11

……
、b
n1

……
、b
m1

……
b
mn
执行加法运算,生成了部分输出r
11

……
、r
n1

……
、r
m1

……
r
mn
。然后,计算设备110可以组合这些部分输出r
11

……
、r
n1

……
、r
m1

……
r
mn
来生成输出150,即结果r。
56.此外,在图7的示例中,深度学习模型对部分输入a
11

……
、a
n1

……
、a
m1

……
a
mn
执行单矩阵运算,生成了部分输出r
11

……
、r
n1

……
、r
m1

……
r
mn
。然后,计算设备110可以组合这些部分输出r
11

……
、r
n1

……
、r
m1

……
r
mn
来生成输出150,即结果r。
57.以此方式,原本在一个设备上需要使用大量线程执行的深度学习计算,可以分布在多个设备上并行执行。由于每个设备仅需要执行深度学习计算的一部分,因此消耗的线程减少。由此,可以避免过度占用一个设备的线程资源,从而提高负载均衡和设备性能。
58.图8示出了可以用来实施本公开内容的实施例的示例设备800的示意性框图。例如,如图1所示的计算设备110可以由设备800来实施。如图所示,设备800包括中央处理单元(cpu)810,其可以根据存储在只读存储器(rom)820中的计算机程序指令或者从存储单元880加载到随机访问存储器(ram)830中的计算机程序指令,来执行各种适当的动作和处理。在ram 830中,还可存储设备800操作所需的各种程序和数据。cpu 810、rom 820以及ram 830通过总线840彼此相连。输入/输出(i/o)接口850也连接至总线840。
59.设备800中的多个部件连接至i/o接口850,包括:输入单元860,例如键盘、鼠标等;输出单元870,例如各种类型的显示器、扬声器等;存储单元880,例如磁盘、光盘等;以及通信单元890,例如网卡、调制解调器、无线通信收发机等。通信单元890允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
60.上文所描述的各个过程和处理,例如方法200,可由处理单元810执行。例如,在一些实施例中,方法200可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元880。在一些实施例中,计算机程序的部分或者全部可以经由rom 820和/或通信单元890而被载入和/或安装到设备800上。当计算机程序被加载到ram 830并由cpu 810执行时,可以执行上文描述的方法200的一个或多个动作。
61.本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
62.计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、静态随机存取存储器(sram)、便携式压缩盘只读存储器(cd-rom)、数字多功能盘(dvd)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
63.这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
64.用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(isa)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如java、smalltalk、c 等,以及常规的过程式编程语言—诸如“c”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(fpga)或可编程逻辑阵列(pla),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
65.这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
66.这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
67.也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
68.附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
69.以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献