一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

量子神经网络训练方法及装置、电子设备和介质与流程

2022-03-23 07:06:41 来源:中国专利 TAG:


1.本公开涉及计算机领域,尤其涉及量子计算机技术领域,具体涉及一种量子神经网络训练方法、装置、电子设备、计算机可读存储介质和计算机程序产品。


背景技术:

2.日常生产生活中很多问题都属于函数模拟的问题,比如股票走势预测、天气预报等。随着人工智能技术的发展,深度神经网络(deep neural network,dnn)被广泛地应用于解决上述问题。然而dnn模型需要的参数很多,对于大型的dnn参数量常常数以亿计,另外模型的超参数也很难调节,训练时很容易过拟合。
3.随着量子计算领域的飞速的发展,近期的量子计算设备已经可以支持一些浅层量子电路的实验。因此,如何利用量子计算设备解决上述问题成为关键。


技术实现要素:

4.本公开提供了一种量子神经网络训练方法、装置、电子设备、计算机可读存储介质和计算机程序产品。
5.根据本公开的一方面,提供了一种量子神经网络训练方法,包括:确定l 1个参数化量子电路以及l个数据编码电路,所述参数化量子电路和数据编码电路均包括相应的待训练参数,其中l为正整数;获取多个训练数据对,每个所述训练数据对包括自变量数据以及与所述自变量数据相关的因变量数据,其中所述自变量数据包括一个或多个数据值;对于所述训练数据对中的每一个,执行以下操作:将所述l 1个参数化量子电路以及l个数据编码电路交替串联以构成量子神经网络,并使得所述量子神经网络中的每一个数据编码电路分别对该训练数据对中的自变量数据进行编码;以及将所述量子神经网络从初始量子态开始运行,并通过测量方法对所获得的量子态进行测量以获得测量结果;根据所有所述训练数据对所对应的测量结果以及相对应的因变量数据,计算损失函数;以及调节所述l 1个参数化量子电路以及所述l个数据编码电路的待训练参数,以最小化所述损失函数。
6.根据本公开的另一方面,提供了一种量子神经网络训练系统,包括:量子计算机,被配置为:确定l 1个参数化量子电路以及l个数据编码电路,所述参数化量子电路和数据编码电路均包括相应的待训练参数,其中l为正整数;对于多个训练数据对中的每一个执行以下操作,其中,每个所述训练数据对包括自变量数据以及与所述自变量数据相关的因变量数据,其中所述自变量数据包括一个或多个数据值:将所述l 1个参数化量子电路以及l个数据编码电路交替串联以构成量子神经网络,并使得所述量子神经网络中的每一个数据编码电路分别对该训练数据对中的自变量数据进行编码;以及将所述量子神经网络从初始量子态开始运行,并通过测量方法对所获得的量子态进行测量以获得测量结果;经典计算机,配置为:根据所有所述训练数据对所对应的测量结果以及相对应的因变量数据,计算损失函数;以及调节所述l 1个参数化量子电路以及所述l个数据编码电路的待训练参数,以最小化所述损失函数。
7.根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;存储器存储有可被至少一个处理器执行的指令,该指令被至少一个处理器执行,以使至少一个处理器能够执行本公开所述的方法。
8.根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行本公开所述的方法。
9.根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现本公开所述的方法。
10.根据本公开的一个或多个实施例,不仅充分利用了量子计算机的计算优势,还引入了可训练的数据编码方式,它将经典数据映射到量子态时引入了一组可训练的参数,而不需要特别考虑如何设计数据编码电路;可灵活地扩展到多比特的情况,以方便地进行多元函数的模拟。
11.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
12.附图示例性地示出了实施例并且构成说明书的一部分,与说明书的文字描述一起用于讲解实施例的示例性实施方式。所示出的实施例仅出于例示的目的,并不限制权利要求的范围。在所有附图中,相同的附图标记指代类似但不一定相同的要素。
13.图1示出了根据本公开的实施例的量子神经网络训练方法的流程图;
14.图2示出了根据本公开的实施例的图1中的基于测量结果计算损失函数的流程图;
15.图3示出了根据本公开的实施例的一个示例性应用中待训练的量子神经网络的示意图;
16.图4示出了根据本公开的实施例的另一个示例性应用中待训练的量子神经网络的示意图;
17.图5示出了基于图4所示的应用所获得的模拟结果的对比示意图;
18.图6示出了根据本公开的实施例的量子神经网络训练系统的结构框图;以及
19.图7示出了能够用于实现本公开的实施例的示例性电子设备的结构框图。
具体实施方式
20.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
21.在本公开中,除非另有说明,否则使用术语“第一”、“第二”等来描述各种要素不意图限定这些要素的位置关系、时序关系或重要性关系,这种术语只是用于将一个元件与另一元件区分开。在一些示例中,第一要素和第二要素可以指向该要素的同一实例,而在某些情况下,基于上下文的描述,它们也可以指代不同实例。
22.在本公开中对各种所述示例的描述中所使用的术语只是为了描述特定示例的目的,而并非旨在进行限制。除非上下文另外明确地表明,如果不特意限定要素的数量,则该
要素可以是一个也可以是多个。此外,本公开中所使用的术语“和/或”涵盖所列出的项目中的任何一个以及全部可能的组合方式。
23.下面将结合附图详细描述本公开的实施例。
24.迄今为止,正在应用中的各种不同类型的计算机都是以经典物理学为信息处理的理论基础,称为传统计算机或经典计算机。经典信息系统采用物理上最容易实现的二进制数据位存储数据或程序,每一个二进制数据位由0或1表示,称为一个位或比特,作为最小的信息单元。经典计算机本身存在着不可避免的弱点:一是计算过程能耗的最基本限制。逻辑元件或存储单元所需的最低能量应在kt的几倍以上,以避免在热胀落下的误动作;二是信息熵与发热能耗;三是计算机芯片的布线密度很大时,根据海森堡不确定性关系,电子位置的不确定量很小时,动量的不确定量就会很大。电子不再被束缚,会有量子干涉效应,这种效应甚至会破坏芯片的性能。
25.量子计算机(quantum computer)是一类遵循量子力学性质、规律进行高速数学和逻辑运算、存储及处理量子信息的物理设备。当某个设备处理和计算的是量子信息,运行的是量子算法时,他就是量子计算机。量子计算机遵循着独一无二的量子动力学规律(特别是量子干涉)来实现一种信息处理的新模式。对计算问题并行处理,量子计算机比起经典计算机有着速度上的绝对优势。量子计算机对每一个叠加分量实现的变换相当于一种经典计算,所有这些经典计算同时完成,并按一定的概率振幅叠加起来,给出量子计算机的输出结果,这种计算称为量子并行计算。量子并行处理大大提高了量子计算机的效率,使得其可以完成经典计算机无法完成的工作,例如一个很大的自然数的因子分解。量子相干性在所有的量子超快速算法中得到了本质性的利用。因此,用量子态代替经典态的量子并行计算,可以达到经典计算机不可比拟的运算速度和信息处理功能,同时节省了大量的运算资源。
26.在实际问题中,通常只知道自变量x∈rd和因变量y∈r的具体数值,而不知道产生这一变化的多元函数f:rd→
r的具体形式。函数模拟问题就是已知数据x∈rd和y∈r,找到一个可能实现这种变化的参数化模型f
θ
(例如dnn模型)使其对于任意精度ε>0满足|f(x)-f
θ
(x)|<ε。
27.函数模拟是人工智能领域重要的问题,在实际生活中有着广泛的应用。随着人工智能技术的发展,深度神经网络(deepneuralnetwork,dnn)被广泛地应用于解决日常生产生活中的函数模拟的问题,比如股票走势预测、天气预报等。然而dnn模型需要的参数很多,对于大型的dnn参数量常常数以亿计,会消耗巨大的计算资源。另外,由于损失函数空间随着参数变多会变得更复杂,即很难进行优化,同时会带来过拟合的风险。而量子计算近几年得到了飞速的发展,近期的量子计算设备已经可以支持一些浅层量子电路的实验。因此,如何利用量子计算机对于经典计算机在机器学习任务上的性能优势来解决实际生活中抽象出来的函数模拟的问题,具有重要意义。
28.因此,根据本公开的实施例一种量子神经网络训练方法。如图1所示,所述方法100包括:确定l 1个参数化量子电路以及l个数据编码电路,参数化量子电路和数据编码电路均包括相应的待训练参数(步骤110);获取多个训练数据对,每个训练数据对包括自变量数据以及与自变量数据相关的因变量数据(步骤120);对于训练数据对中的每一个,执行以下操作(步骤130):将l 1个参数化量子电路以及l个数据编码电路交替串联以构成量子神经网络,并使得量子神经网络中的每一个数据编码电路分别对该训练数据对中的自变量数据
进行编码(步骤1301);以及将量子神经网络从初始量子态开始运行,并通过测量方法对所获得的量子态进行测量以获得测量结果(步骤1302);根据所有训练数据对所对应的测量结果以及相对应的因变量数据,计算损失函数(步骤140);以及调节l 1个参数化量子电路以及l个数据编码电路的待训练参数,以最小化损失函数(步骤150)。
29.在本公开中,自变量数据可以包括一个或多个数据值。也就是说,在上述的包含自变量x∈rd和因变量y∈r的数据对中,自变量x可以为一组数值,例如x={x1,x2,x3}。
30.根据本公开的实施例,不仅充分利用了量子计算机的计算优势,还引入了可训练的数据编码方式,它将经典数据映射到量子态时引入了一组可训练的参数,而不需要特别考虑如何设计数据编码电路;可灵活地扩展到多比特的情况,以方便地进行多元函数的模拟。
31.在本公开中,量子神经网络(quantumneuralnetwork,qnn)包括可训练的参数化量子电路(parameterized quantumcircuit,pqc)。量子电路是量子计算领域最常用的描述工具,可以包括量子门,每个量子门操作在数学上可用酉矩阵表示。
32.在本公开中,将待训练的l 1个参数化量子电路以及l个数据编码电路交替串联以构成量子神经网络。也即,以参数化量子电路开始,依次串接编码电路和参数化量子电路(以参数化量子电路结尾),整体构成量子神经网络。示例地,对于构造的l 1个参数化量子电路{w
(0)
(θ0),w
(1)
(θ1),...,w
(l)

l
)}和l个数据编码电路{s
(1)
(ω1,x),s
(2)

ω
2,x),...,s
(l)

l
,x)},其所构成的量子神经网络对应的数学形式如下所示:
33.u(θ,ω,x)=w
(l)

l
)s
(l)

l
,x)
…w(1)
(θ2)s
(1)
(ω1,x)w
(0)
(θ0)其中,x为输入数据,在函数模拟的问题中为需要模拟的函数的自变量;θ=(θ
l


,θ0),ω=(ω
l


,ω1)。这里,θj和ωj(j=0(1),...,l)均为电路中可训练的参数向量,w
(j)
(θj)为参数化量子电路部分,s
(j)
(ωj,x)为数据编码部分。
34.需要注意的是,l的具体数值以及量子电路使用的量子比特个数可以根据需要灵活设置,在此不作限制。
35.在本公开中,初始量子态可以为任何合适的量子态,例如|0>态、|1>态等,在此不作限制。
36.根据一些实施例,如图2所示,步骤140还可以包括:确定测量方法所对应的测量结果的第一取值区间以及所确定的因变量数据的第二取值区间(步骤210);响应于确定第二取值区间与第一取值区间不相同,通过数据变换将测量结果的取值区间变换为第二取值区间(步骤220);以及根据所有训练数据变换后的测量结果以及相对应的因变量数据,计算损失函数(步骤230)。
37.根据一些实施例,所述测量方法可以包括但不限于:泡利x测量、泡利y测量和泡利z测量。
38.示例地,在通过泡利z测量对第一量子电路作用后的量子态进行测量以获得测量结果时,由于泡利z测量的取值范围在[-1,1]区间内,如果要模拟的函数的取值范围也在[-1,1]区间内,也无需进行数据变换过程;如果要模拟的函数的取值范围在其他区间[a,b]内,则可以通过对运行第一量子电路后测量得到的取值在[-1,1]间的测量结果《z>进行缩放,以得到取值在[a,b]间的测量结果
[0039]
在一些示例中,可以基于多个训练数据对中的因变量数据确定其相对应的第二取值区间,也即待模拟的函数的取值区间。函数模拟问题中的训练数据与相应的场景相对应,例如股票走势预测、天气预报等。因此,可以根据该训练数据,确定该函数模型场景下的因变量取值范围。需注意的是,该第二取值区间可以为待模拟函数的近似取值范围。
[0040]
在一些示例中,通过数据编码电路对训练数据对中的自变量数据进行编码。这里数据编码电路的量子比特数可以与自变量数据的个数相同,也可以不相同。也就是说,量子电路的量子比特数可以根据情况具体设定,在此不作限制。多量子比特的参数化量子电路可能有更强的函数模拟能力,所以有时会考虑使用多量子比特的参数化量子电路。所以,需要根据实际情况进行数据编码。
[0041]
示例地,输入数据x=(x0,x1,

,x
m-1
)
t
,数据编码电路的可训练参数ω=(ω0,ω1,

,ω
m-1
)
t
,其中m为输入数据的维度。如果数据维度m大于量子比特数n,可以先编码数据x的前n个元素(x0,x1,

,x
n-1
)
t
,然后按照同样的方式编码(xn,x
n 1


,x
2n-1
)
t


、(

,x
m-1
,0,

,0)
t
,超过数据维度m时可以用0填充。应当理解,也可以使用任何合适的编码方式对输入数据(自变量数据)进行编码,在此不作限制。
[0042]
根据一些实施例,可以基于梯度下降法或其他最优化方法调节该l 1个参数化量子电路以及l个数据编码电路的待训练参数。
[0043]
根据一些实施例,可以基于任何合适的算法构建损失函数,包括但不限于均方误差、绝对值误差等。
[0044]
在根据本公开的一个示例性实施例中,训练数据集为xi为函数自变量,yi为函数值,m为训练数据集中的数据对个数。设置待训练的量子神经网络的层数l,也即数据编码电路的个数,参数化量子电路比数据编码电路多一个。设置电路的量子比特数n。其中l和n的值可以根据需要灵活设置。基于上述数据执行以下步骤:
[0045]
步骤1:基于量子比特数n构造l 1个参数化量子电路和l个数据编码电路{s
(1)
(ω1,x),s
(2)
(ω2,x),...,s
(l)

l
,x)},其中θ,ω是电路中可训练的参数,x是输入的函数自变量数据。
[0046]
步骤2:对于训练数据集中的每对数据(xi,yi),重复以下步骤3-5。
[0047]
步骤3:将初始量子态设为|0》态,其可以表示为一个第一位为1其余位皆为0的2n维的向量,即执行参数化量子电路w
(0)
(θ0),紧接着,对于所有的j=1,...,l,依次交替执行数据编码电路s
(j)
(ωj,xi)和参数化量子电路w
(j)
(θj)。所有这些待训练的电路整体记为u(θ,ω,xi),即待训练的量子神经网络。
[0048]
步骤4:所有电路依次运行完成后,对运行得到的量子态进行测量得到期望值,例如作为预测的函数输出值。其中,表示u的共轭转置,是泡利矩阵是泡利矩阵和n-1个单位矩阵
的张量积,表示对运行得到的量子态的第一个量子比特进行测量。
[0049]
步骤5:计算预测值《z》i与真实值yi间的平方误差li(ω,θ)=|《z》
i-yi|2。
[0050]
步骤6:完成上述步骤后,对训练数据集中的所有数据(xi,yi),计算均方误差作为损失函数。
[0051]
步骤7:通过梯度下降法或者其他最优化方法调整电路中的参数θ,ω,重复步骤2-7直到损失函数l不再下降或者达到设定的迭代次数,此时得到的参数记为θ
*
和ω
*

[0052]
步骤8:优化后的参数化量子电路和数据编码电路组成了一个训练好的量子函数模拟器,即可作为根据当前示例性实施例的输出。
[0053]
在上述实施例中,虽然选择可观测量的期望值作为qnn的预测。但是可以理解的是,也可以根据具体使用的硬件设备和应用场景选择其它适合的可观测量,例如其中和和为泡利矩阵,i是虚数单位。另外,量子神经网络的初始量子态并不限于|0》态,此处仅为示例性的,其他任何合适的量子态都是可能的。
[0054]
根据本公开的方法,在数据编码电路中引入了可训练的参数,因此不需要特别考虑经典数据到量子态的数据编码电路结构,也不需要设计特殊的参数化量子电路,只需要提供给模型训练数据即可;而且可以灵活的扩展至多量子比特的情况,进而模拟多元函数。
[0055]
在一个示例性应用中,基于本公开的方法模拟如下函数:
[0056][0057]
其中,待训练的量子神经网络(包括参数化量子电路和数据编码电路)可以如图3所示,该量子电路为单量子比特的qnn模型。参数化量子电路w
(j)
(θj)由量子门三个量子门组成(其中k=0,1,2是量子门的参数,均为标量);数据编码电路s
(j)
(ωj,x)包含量子门r
x
(ωjx)(其中ωj,x均为标量)。量子神经网络的深度记为l,期望值《z》作为模型的输出。
[0058]
在另一个示例性应用中,基于本公开的方法模拟由高斯过程随机生成的多元函数,其具体形式为:
[0059]
f(x)=k(x)
t
k-1b[0060]
其中,k(x)
t
=(k(x,a1),...k(x,am))
t
是一个向量,k是给定的核函数(kernel function),k是核矩阵(kernel matrix),其矩阵元为k
ij
=k(ai,aj),ai∈rd是一系列随机的数据点,b=(b1,...,bm)∈rm是对应这些随机数据点的随机函数值。
[0061]
在该应用中,输入数据x的维度为2或者3,相应地可以分别使用两量子比特和三量子比特的qnn模型。当前其他比特数的待训练qnn模型也是可能的,在此不作限制。图4展示了三量子比特的qnn的量子电路。两量子比特的电路与其类似。如图4所示,参数化量子电路w(j)
(θj)的构造包含两步:1)在每个量子比特i上先后作用三个量子门(其中k=0,1,2,i=0,1,2是量子门的参数,均为标量);2)对量子比特对(0,1)、(1,2)、(2,0)分别执行控制非门(cnot),即图4中的操作。数据编码电路s
(j)
(wj,x)的构造需要在每个量子比特i上作用量子门
[0062]
本应用的模拟结果如图5所示。其中“target”表示需要模拟的函数;“dnn”为经典dnn模型的模拟结果;“qnn”为本公开qnn模型的模拟结果。其中“gf2d”、“gf3d”分别对应由高斯过程随机生成二元、三元函数,即输入数据x分别为二维、三维的向量。图5中采用的是输入数据x的前两维。
[0063]
在上述两个应用中,可以看出,将经典dnn网络模拟效果和根据本公开方法的模拟效果进行对比,可以看出根据本公开方法的模拟效果显著优于经典dnn网络模拟效果;根据本公开方法使用的参数量更少,即利用的资源更少,而且在相同迭代条件下精度更高,更具有实用性和有效性。
[0064]
根据本公开的实施例,如图6所示,还提供了一种量子神经网络训练系统600,包括:量子计算机610,被配置为:确定l 1个参数化量子电路以及l个数据编码电路,所述参数化量子电路和数据编码电路均包括相应的待训练参数,其中l正整数;对于多个训练数据对中的每一个执行以下操作,其中,每个所述训练数据对包括自变量数据以及与所述自变量数据相关的因变量数据,其中所述自变量数据包括一个或多个数据值:将所述l 1个参数化量子电路以及l个数据编码电路交替串联以构成量子神经网络,并使得所述量子神经网络中的每一个数据编码电路分别对该训练数据对中的自变量数据进行编码;以及将所述量子神经网络从初始量子态开始运行,并通过测量方法对所获得的量子态进行测量以获得测量结果;经典计算机620,配置为:根据所有所述训练数据对所对应的测量结果以及相对应的因变量数据,计算损失函数;以及调节所述l 1个参数化量子电路以及所述l个数据编码电路的待训练参数,以最小化所述损失函数。
[0065]
这里,参数化量子电路训练系统600的上述各单元的操作分别与前面描述的步骤110~150的操作类似,在此不再赘述。
[0066]
根据本公开的实施例,还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
[0067]
参考图7,现将描述可以作为本公开的服务器或客户端的电子设备700的结构框图,其是可以应用于本公开的各方面的硬件设备的示例。电子设备旨在表示各种形式的数字电子的计算机设备,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
[0068]
如图7所示,电子设备700包括计算单元701,其可以根据存储在只读存储器(rom)702中的计算机程序或者从存储单元708加载到随机访问存储器(ram)703中的计算机程序,
来执行各种适当的动作和处理。在ram703中,还可存储电子设备700操作所需的各种程序和数据。计算单元701、rom 702以及ram 703通过总线704彼此相连。输入/输出(i/o)接口705也连接至总线704。
[0069]
电子设备700中的多个部件连接至i/o接口705,包括:输入单元706、输出单元707、存储单元708以及通信单元709。输入单元706可以是能向电子设备700输入信息的任何类型的设备,输入单元706可以接收输入的数字或字符信息,以及产生与电子设备的用户设置和/或功能控制有关的键信号输入,并且可以包括但不限于鼠标、键盘、触摸屏、轨迹板、轨迹球、操作杆、麦克风和/或遥控器。输出单元707可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。存储单元708可以包括但不限于磁盘、光盘。通信单元709允许电子设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信收发机和/或芯片组,例如蓝牙tm设备、802.11设备、wifi设备、wimax设备、蜂窝通信设备和/或类似物。
[0070]
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如方法100。例如,在一些实施例中,方法100可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由rom 702和/或通信单元709而被载入和/或安装到电子设备700上。当计算机程序加载到ram 703并由计算单元701执行时,可以执行上文描述的方法100的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法100。
[0071]
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、复杂可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
[0072]
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
[0073]
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电
子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
[0074]
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
[0075]
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。
[0076]
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
[0077]
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行、也可以顺序地或以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
[0078]
虽然已经参照附图描述了本公开的实施例或示例,但应理解,上述的方法、系统和设备仅仅是示例性的实施例或示例,本发明的范围并不由这些实施例或示例限制,而是仅由授权后的权利要求书及其等同范围来限定。实施例或示例中的各种要素可以被省略或者可由其等同要素替代。此外,可以通过不同于本公开中描述的次序来执行各步骤。进一步地,可以以各种方式组合实施例或示例中的各种要素。重要的是随着技术的演进,在此描述的很多要素可以由本公开之后出现的等同要素进行替换。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献