一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种语音转换方法、装置、存储介质及电子设备与流程

2022-02-22 17:29:35 来源:中国专利 TAG:


1.本公开涉及自然语音处理、语音和深度学习等人工智能技术领域,尤其涉及语音转换方法、装置、存储介质及电子设备。


背景技术:

2.语音转换是指将源音频转化成具有目标发音人的音色特点的语音。在变声、配音、语音模仿等多个领域有着重要的用途,是当前语音技术的前沿且重要的技术分支。但是,目前的语音转换过程,需要首先获取大量的目标发音人的语料,进行语音编码模型的训练和声码器的训练,模型训练过程繁琐码器对声学特征进行语音转换,才能得到最终的目标语音。


技术实现要素:

3.本公开提供了一种用于语音转换方法、装置、设备以及存储介质。
4.根据本公开的一方面,提供了一种语音转换方法,包括:接收待转换的源音频;对所述源音频进行内容信息编码,得到第一特征;获取目标发音人的指定音频;对所述指定音频进行语音识别,得到第二特征;将所述第一特征和所述第二特征输入至语音转换模型,得到目标音频。
5.根据本公开一实施方式,所述将所述第一特征和所述第二特征输入至语音转换模型,得到目标音频,包括:将所述第一特征和所述第二特征输入至语音转换模型,基于源音频的帧,在所述第一特征中添加所述第二特征,得到联合编码;对所述联合编码进行特征融合,得到融合特征;将所述融合特征进行信号转换,得到所述目标音频。
6.根据本公开一实施方式,所述方法还包括:对所述源音频和所述指定进行基频提取,得到基频信息;相应的所述将所述第一特征和所述第二特征输入至语音转换模型,得到目标音频,包括:将所述基频信息、所述第一特征和所述第二特征输入至语音转换模型,得到目标音频。
7.根据本公开一实施方式,所述方法还包括:对所述目标音频进行内容信息编码,得到内容特征;根据所述内容特征与所述第一特征,对所述目标音频行第一损失判别。
8.根据本公开一实施方式,所述方法还包括:获取目标发音人的样本音频;基于所述样本音频和所述目标音频,进行判别模型训练;利用所述判别模型,对所述目标音频进行第二损失判别。
9.根据本公开一实施方式,所述第二特征包括目标发音人的音色特征;所述第一特征包括所述源音频的内容特征信息。
10.根据本公开的第二方面,提供了一种语音转换装置,包括:接收模块,用于接收待转换的源音频;内容信息编码模块,用于对所述源音频进行内容信息编码,得到第一特征;指定音频获取模块,用于获取目标发音人的指定音频;识别模块,用于对所述指定音频进行语音识别,得到第二特征;转换模块,用于将所述第一特征和所述第二特征输入至语音转换
模型,得到目标音频。
11.根据本公开一实施方式,所述转换模块包括:编码子模块,用于将所述第一特征和所述第二特征输入至语音转换模型,基于源音频的帧,在所述第一特征中添加所述第二特征,得到联合编码;特征融合子模块,用于对所述联合编码进行特征融合,得到融合特征;声码转换子模块,用于将所述融合特征进行信号转换,得到所述目标音频。
12.根据本公开一实施方式,所述装置还包括:基频提取模块,用于对所述源音频和所述指定进行基频提取,得到基频信息;相应的所述转换模块将所述第一特征和所述第二特征输入至语音转换模型,得到目标音频,包括:所述转换模块将所述基频信息、所述第一特征和所述第二特征输入至语音转换模型,得到目标音频。
13.根据本公开一实施方式,所述装置还包括:目标内容编码模块,用于对所述目标音频进行内容信息编码,得到内容特征;第一损失判别模块,用于根据所述内容特征与所述第一特征,对所述目标音频行第一损失判别。
14.根据本公开一实施方式,所述装置还包括:样本获取模块,用于获取目标发音人的样本音频;判别模型训练模块,用于基于所述样本音频和所述目标音频,进行判别模型训练;第一损失判别模块,用于利用所述判别模型,对所述目标音频进行第二损失判别。
15.根据本公开的第三方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述语音转换方法。
16.根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行上述语音转换方法。
17.根据本公开的第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现上述语音转换方法。
18.本公开实施例语音转换方法,对所接收的待转换的源音频进行内容信息编码,得到第一特征,并获取目标发音人的指定音频,以对指定音频进行语音识别,得到第二特征,最后将第一特征和第二特征输入至语音转换模型,得到目标音频。这里采用端到端的语音转换训练,有效避免了单独训练声码器的繁琐过程,不再需要获取目标发音人的大量音频进行单独的声码器模型训练。由此,不需要平行数据,就能够实现由任意源音频到目标发音人的音色转换。并且,这里将声学模型和声码器进行协同建模,语音转换的整个过程中,整体模型规模大幅减小。显著节存储资源和计算资源,并有效提升语音转换效率。
19.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
20.附图用于更好地理解本方案,不构成对本公开的限定。其中:
21.图1是根据本公开第一实施例语音转换方法的实现流程示意图;
22.图2是根据本公开第二实施例语音转换方法的实现流程示意图;
23.图3是根据本公开语音转换方法的具体应用示例的模型架构示意图;
24.图4是根据本公开语音转换装置的一种可选组成结构示意图;
25.图5示出了可以用来实施本公开的实施例的示例电子设备的示意性框图。
具体实施方式
26.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
27.图1是根据本公开第一实施例语音转换方法的实现流程示意图。参考图1,本公开第一实施例提供的语音转换方法,至少包括如下操作:
28.s101,接收待转换的源音频。
29.在本公开这一实施方式中,待转换的源音频可以是任意需要进行语音转换的音频。举例说明,在做配音音频或做变声处理过程中,需要将说话人a说出的语句y转换为具有目标发音人b的音色特点的目标音频,则源音频指说话人a所说出的语句y的音频。这里对源音频的示例不形成本公开对源音频描述的限定。
30.s102,对源音频进行内容信息编码,得到第一特征。
31.在本公开这一实施方式中,第一特征可以包括源音频的内容特征信息。源音频的内容特征信息可以包括源音频中音色特征之外的其他所有声学特征。例如:语言内容特征、韵律节奏特征和语气特征等。对源音频进行内容信息编码,包括对源音频中的语言内容特征、韵律节奏特征和语气特征等这些特征进行编码。
32.这里,可以通过利用语音内容编码器对源音频的内容进行编码。内容编码器对源音频的处理过程是把声音转化成机器能识别的数字向量。采用自然语音处理技术中通用的语音内容编码器即可实现,此处不再赘述。
33.s103,获取目标发音人的指定音频。
34.在本公开这一实施方式中,目标发音人的指定音频可以是目标发音人的任意一句音频。
35.s104,对指定音频进行语音识别,得到第二特征。
36.在本公开这一实施方式中,可以采用通用的gst(global slation traslation,全局风格转换)技术对指定音频进行语音识别,得到第二特征。其中,第二特征指目标发音人的音色特征。
37.同样的,对指定音频进行语音识别的过程也可以采用其他适用的语音识别技术,本公开对此不做限定。
38.s105,将第一特征和第二特征输入至语音转换模型,得到目标音频。
39.在本公开这一实施方式中,通过以下操作实现将第一特征和第二特征输入至语音转换模型,得到目标音频:将第一特征和第二特征输入至语音转换模型,基于源音频的帧,在第一特征中添加第二特征,得到联合编码;对联合编码进行特征融合,得到融合特征;将融合特征进行信号转换,得到目标音频。
40.在本公开这一实施方式中,第二特征是从目标发音人的指定音频中识别得到的音色特征,第一特征是从源音频中提取的内容特征、语气特征和韵律节奏特征等音色特征之外的特征。语音转换模型具有联合网络和声码器两者的功能,在模型训练过程中,将用于生
成源的音频声学特征的联合网络和用于将声学特征转换成目标音频的声码器作为一个完整的语音转换模型进行训练。有效避免了采集目标发音人的大量音频进行声码器训练的过程,不需要平行数据,就能够实现由任意源音频到目标发音人的音色转换。
41.这里,第一特征即用于示出源音频的声学特征,将第一特诊和第二特征输入至语音转换模型,首先,可以基于源音频的帧,在第一特征的每一帧上通过向量加或者向量拼接的方式添加用于示出目标发音人音色特诊的第二特征,得到联合编码。然后,经过多层堆叠的神将网络进行特征融合,得到融合特征。这里可以使用的神将网络算法包括但不限于mlp(multilayer perceptron,多层感知机)、卷积网络、rnn(recurrent neural network,循环神经网络)等。最后,通过ddsp(differentiable digital signal processing,可微分数字信号处理技术)处理,生成目标音频。
42.在本公开这一实施方式中,为了更优的转化效果以及ddsp的输入需要还对源音频和指定进行基频提取,得到基频信息;相应的将基频信息、第一特征和第二特征同时输入至语音转换模型,得到目标音频。
43.举例说明,可以由基频提取器从源音频和指定音频中提取基频信息f0,并将f0输入语音转换模型架构中,作为ddsp处理的输入,其中,基频信息f0包括源音频的基频信息f0s和目标发音人的基频信息f0
t

44.在本公开另一实施方式中,还在将基频信息f0输入语音转换模型之前,对基频信息f0进行归一化处理。
45.这里,基频提取器可以采用crepe(convolutional representation for pitch estimation,卷积神经网络)、spice(self-supervised pitch estimation,自监督高音估计)和swipe(sawtooth wave inspired pitch estimator,锯齿波启发音调估计)等成熟的技术方案。具体的,基于源音频中的任意音频,利用基频提取器获取源音频的基频信息f0s。然后利用下式1计算得到目标发音人的基频信息f0
t

[0046][0047]
其中,means,vars分别表示源音频的发音人的基频均值和方差,可以通过本公开所涉及的基频提取器提前获取并计算;
[0048]
mean
t
,var
t
分别表示目标发音人的基频均值和方差,可以通过本公开所涉及的基频提取器提前获取并计算。
[0049]
图2是根据本公开第二实施例语音转换方法的实现流程示意图。
[0050]
参考图2,本公开第二实施例提供的语音转换方法,至少包括如下操作:
[0051]
s201,接收待转换的源音频。
[0052]
在本公开这一实施方式中,待转换的源音频可以是任意需要进行语音转换的音频。举例说明,在做配音音频或做变声处理过程中,
[0053]
s202,对源音频进行内容信息编码,得到第一特征。
[0054]
s203,获取目标发音人的指定音频。
[0055]
s204,对指定音频进行语音识别,得到第二特征。
[0056]
s205,将第一特征和第二特征输入至语音转换模型,得到目标音频。
[0057]
s206,对目标音频进行内容信息编码,得到内容特征。
[0058]
在本公开这一实施方式中,为了对语音转换模型进行优化训练,执行以下操作中s206~s210进行模型优化。其中操作s206~s207为一组操作,操作s208~s210为一组操作,实际应用过程中,可以选择其中一组操作,或者同时执行以上两组操作。
[0059]
在本公开这一实施方式中,利用内容编码器对经过语音转换模型生成的目标音频进行内容信息编码,得到目标音频的内容特征。这里,对目标音频进行内容信息编码,包括对目标音频中的语言内容特征、韵律节奏特征和语气特征等这些特征进行编码。
[0060]
s207,根据内容特征与第一特征,对目标音频行第一损失判别。
[0061]
在本公开这一实施方式中,基于操作s206得到的目标音频的内容特征和操作s202中得到的源音频的第一特征,对目标音频行第一损失判别。这里,可以基于内容特征和第一特征逐点计算损失loss,举例说明,损失loss的计算可以包括但不局限于均方误差mes_loss和均绝对误差l1_loss。
[0062]
s208,获取目标发音人的样本音频。
[0063]
在本公开这一实施方式中,为增强生成音频的自然度,还采用gan(generative adversarial networks,生成式对抗网络)对语音转换模型进行对抗训练。这里,需要获取目标发音人的样本音频,目标发音人的样本音频可以是目标发音人的指定音频之外的任意真实音频。
[0064]
s209,基于样本音频和目标音频,进行判别模型训练。
[0065]
在本公开这一实施方式中,可以基于样本音频和目标音频,计算样本音频和目标音频之间的realloss和fake loss,real loss越接近0,fake loss越接近1,则表明gan模型的精度和准确度越好,参数越优化。据此,对判别模型进行训练,判别模型可以是gan模型。
[0066]
s210,利用判别模型,对目标音频进行第二损失判别。
[0067]
在本公开这一实施方式中,可以利用判别模型,对目标音频进行第二损失判别,从而根据第二损失的判别对语音转换模型的模型参数进行调整,优化语音转换模型,提高语音转换的精度和准确度。
[0068]
其中,其中,s201~s205的具体实现过程与图1所示实施例中操作s101~s105的具体实现过程相类似,这里不再赘述。
[0069]
图3是根据本公开语音转换方法的具体应用示例的模型架构示意图。参考图3,本公开语音转换方法的具体应用示例的模型架构可以包括:内容编码器、目标发音人编码器、解码器(decoder)三部分组成。
[0070]
这里内容编码器用于对源音频进行内容信息编码,得到源音频的内容信息(content)。目标发音人编码器用于对目标发音人的任一音频进行音色特征的识别,由于后续操作中将用到目标发音人的其他音频,这里为了区分,在图3中以目标发音人音频1示出目标发音人的任一音频。解码器decoder包括联合网络和ddsp两者的功能,但是这里解码器不需要对联合网络和ddsp分别进行模型训练,而是直接将其作为一个decoder模型,协同训练,用于实现语音转换的操作。
[0071]
用户输入任意源音频(source_wav1)至内容编码器,并输入目标发音人的任意一句音频(target_wav2)至目标发音人编码器。
[0072]
内容编码器用于将源音频(source_wav1)进行压缩和内容编码,得到内容信息(content)。这里内容信息指除说话人音色以外的语言内容,韵律节奏,语气等信息。
[0073]
目标发音人编码器用于对目标发音人的任意一句音频进行语音识别,得到代表目标发音人的独特音色的编码向量(target_emb),可以采用已成熟gst等技术进行语音识别。
[0074]
解码器(decoder)用于在源音频的内容信息(content)上添加目标发音人的音色特征(target_emb),并通过生成保留源音频内容信息的目标音频(target_wav1)。decoder在结构上可以包括联合网络和ddsp两个部分。联合网络在内容编码的每一帧上,通过向量加或者拼接的方式添加目标发音人的音色编码。然后,再经过多层堆叠的神将网络进行特征融合。这里,神经网络包括但不限于mlp、卷积网络和rnn等结构。最后,通过ddsp生成具有目标说话人音色特点的且内容与源音频一致的目标音频(target_wav1)。
[0075]
为了更优的语音转换效果,并满足ddsp的输入需求,本公开具体应用示例中,还由基频提取器从源音频和指定音频中提取基频信息f0,并将f0输入语音转换模型架构中,作为ddsp处理的输入。其中,基频信息f0包括源音频的基频信息f0s和目标发音人的基频信息f0
t
。在本公开的优化实施方式中,还对基频信息f0进行归一化处理。
[0076]
这里,基频提取器可以采用crepe(convolutional representation for pitch estimation,卷积神经网络)、spice(self-supervised pitch estimation,自监督高音估计)和swipe(sawtooth wave inspired pitch estimator,锯齿波启发音调估计)等成熟的技术方案。具体的,基于源音频中的任意音频,利用基频提取器获取源音频的基频信息f0s。然后利用下式1计算得到目标发音人的基频信息f0
t

[0077][0078]
其中,means,vars分别表示源音频的发音人的基频均值和方差,可以通过本公开所涉及的基频提取器提前获取并计算;
[0079]
mean
t
,var
t
分别表示目标发音人的基频均值和方差,可以通过本公开所涉及的基频提取器提前获取并计算。
[0080]
此外,对语音转换模型的训练阶段可以采用第一损失函数content_loss和gan对抗训练。这里,content_loss可以通过内容编码器对生成的目标音频重新提取内容信息,将目标音频的内容信息与源音频的内容信息逐点计算损失loss。并根据计算得到的损失loss,优化deocder的参数。
[0081]
采用gan模型进行对抗训练可以包括以下具体操作:可以获取目标发音人的其他真实音频(target_wav2),为了与前述目标发音人的音色特征进行编码过程中所获取的目标发音人的音频进行区分,图3中以目标发音人音频2示出目标发音人的其他真实音频。将目标发音人音频2和生成的目标音频(target_wav1)输入至生成式对网络gan模型,进行第二损失判别,得到第二损失判别结果。具体的,可以计算经过解码器decoder得到的目标音频与目标发音人音频2是real/fake loss,并由此对gan模型进行训练。然后,利用迭代训练的gan模型对生成的目标音频进行第二损失判别。进一步根据损失判别结果优化deocder解码器的参数。由此,进一步增强了目标音频的自然度。
[0082]
图4是根据本公开语音转换装置的一种可选组成结构示意图;如图4所示,本公开的实施例中语音转换装置40,包括:接收模块401,用于接收待转换的源音频;内容信息编码模块402,用于对源音频进行内容信息编码,得到第一特征;指定音频获取模块403,用于获取目标发音人的指定音频;识别模块404,用于对指定音频进行语音识别,得到第二特征;转
换模块405,用于将第一特征和第二特征输入至语音转换模型,得到目标音频。
[0083]
在本公开这一实施方式中,转换模块402包括:编码子模块,用于将第一特征和第二特征输入至语音转换模型,基于源音频的帧,在第一特征中添加第二特征,得到联合编码;特征融合子模块,用于对联合编码进行特征融合,得到融合特征;声码转换子模块,用于将融合特征进行信号转换,得到目标音频。
[0084]
在本公开这一实施方式中,装置40还包括:基频提取模块,用于对源音频和指定进行基频提取,得到基频信息;相应的转换模块将第一特征和第二特征输入至语音转换模型,得到目标音频,包括:转换模块将基频信息、第一特征和第二特征输入至语音转换模型,得到目标音频。
[0085]
在本公开这一实施方式中,装置40还包括:目标内容编码模块,用于对目标音频进行内容信息编码,得到内容特征;第一损失判别模块,用于根据内容特征与第一特征,对目标音频行第一损失判别。
[0086]
在本公开这一实施方式中,装置40还包括:样本获取模块,用于获取目标发音人的样本音频;判别模型训练模块,用于基于样本音频和目标音频,进行判别模型训练;第一损失判别模块,用于利用判别模型,对目标音频进行第二损失判别。
[0087]
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
[0088]
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
[0089]
图5示出了可以用来实施本公开的实施例的示例电子设备的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
[0090]
如图5所示,设备500包括计算单元501,其可以根据存储在只读存储器(rom)502中的计算机程序或者从存储单元508加载到随机访问存储器(ram)503中的计算机程序,来执行各种适当的动作和处理。在ram 503中,还可存储设备500操作所需的各种程序和数据。计算单元501、rom 502以及ram 503通过总线504彼此相连。输入/输出(i/o)接口505也连接至总线504。
[0091]
设备500中的多个部件连接至i/o接口505,包括:输入单元506,例如键盘、鼠标等;输出单元507,例如各种类型的显示器、扬声器等;存储单元508,例如磁盘、光盘等;以及通信单元509,例如网卡、调制解调器、无线通信收发机等。通信单元509允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
[0092]
计算单元501可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元501的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元501执行上文所描述的各个方法和处理,例如语音转换方法。例如,在一些实施例中,语音转换方法可被实现为计算机软件程序,其
被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由rom 502和/或通信单元509而被载入和/或安装到设备500上。当计算机程序加载到ram 503并由计算单元501执行时,可以执行上文描述的语音转换方法的一个或多个步骤。备选地,在其他实施例中,计算单元501可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行语音转换方法。
[0093]
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、负载可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
[0094]
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
[0095]
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
[0096]
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
[0097]
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。
[0098]
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
[0099]
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
[0100]
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献