一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

数据处理方法与流程

2022-07-30 13:21:20 来源:中国专利 TAG:


1.本技术涉及语音识别技术领域,例如涉及一种数据处理方法。


背景技术:

2.目前,语音识别技术已经成为人机接口的关键一步,广泛应用于各类家电设备。语音识别技术可以将人类的语音中的词汇内容转换为计算机可读的输入,例如按键、二进制编码或者字符序列。一般来说,语音识别技术需要采集大量的语音数据进行模型训练,才能保证识别的准确性。
3.而语音属于敏感数据,如果用户不愿共享自己的语音数据用于模型训练,则无法保证识别的准确性。并且,如果在采集语音数据的过程中出现数据泄露,则会存在严重的隐私安全隐患。
4.现有技术中,提供一种基于联邦学习的移动设备射频分布识别方法,包括:通过瑞利衰落信道采集时域数据,并对时域数据进行预处理;根据预处理后的时域数据,利用移动设备构建基于联邦学习的分布式计算模型;根据时域数据的层次划分,利用动态样本选择算法对分布式计算模型进行训练,完成基于联邦学习的移动设备射频分布识别。
5.可见,上述识别方法虽然可以基于联邦学习,为本地的敏感数据提供隐私保护,但采用动态样本选择算法对该分布式计算模型进行训练,需要先获得该分布式计算模型中的所有移动设备训练的模型,再基于所有移动设备的样本量对汇总后的模型进行训练。因此,会非常影响模型训练的进度,浪费较长时间。


技术实现要素:

6.为了对披露的实施例的一些方面有基本的理解,下面给出了简单的概括。所述概括不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围,而是作为后面的详细说明的序言。
7.本公开实施例提供了一种数据处理方法,在保证用户的隐私安全的同时,保证模型训练的进度。
8.在一些实施例中,所述数据处理方法包括:服务端获得至少一个客户端各自提交的未收敛的训练模型,训练模型由至少一个客户端采用各自的本地语音数据,对用于语音识别的预设模型进行模型训练而得到;以预设模型为基础模型,以训练模型为目标模型,对基础模型和目标模型进行融合,得到融合模型;将融合模型发送至训练模型对应的客户端,以便训练模型对应的客户端继续采用本地语音数据,对融合模型进行模型训练。
9.在一些实施例中,所述数据处理方法包括:客户端采用本地语音数据对用于语音识别的预设模型进行模型训练,得到训练模型;在训练模型未收敛的情况下,将训练模型提交至服务端,以便服务端以预设模型为基础模型,以训练模型为目标模型,对基础模型和目标模型进行融合,得到融合模型,并发送至客户端;继续采用本地语音数据对融合模型进行模型训练。
10.本公开实施例提供的数据处理方法,可以实现以下技术效果:
11.服务端在获得至少一个客户端采用各自的本地语音数据,对用于语音识别的预设模型进行模型训练而得到的未收敛的训练模型的时候,便可以预设模型为基础模型,以各训练模型为目标模型,对基础模型和目标模型进行融合,得到融合模型。并且,服务端将融合模型发送至训练模型对应的客户端后,训练模型对应的客户端可以继续采用本地语音数据,对融合模型进行模型训练。和现有技术相比,这样可以通过联邦学习的方式对一个或多个客户端的训练模型进行融合,客户端只需将训练模型上传到服务端,而无需上传本地的语音数据,从而有助于避免数据泄露,保证用户的隐私安全。并且,服务端在获得客户端的训练模型时,可以直接进行模型融合,而无需同时获取所有客户端训练好的模型,从而以这种异步融合的方式缩短模型训练时间,保证模型训练的进度。此外,当服务端获取多个客户端的训练模型并进行融合时,其相当于融合了多个训练模型的数据集,当客户端继续训练融合后的模型时,可以提高模型的准确率和泛化能力。
12.以上的总体描述和下文中的描述仅是示例性和解释性的,不用于限制本技术。
附图说明
13.一个或多个实施例通过与之对应的附图进行示例性说明,这些示例性说明和附图并不构成对实施例的限定,附图中具有相同参考数字标号的元件示为类似的元件,附图不构成比例限制,并且其中:
14.图1是本公开实施例提供的一个数据处理系统的示意图;
15.图2是本公开实施例提供的一个数据处理方法的流程图;
16.图3是本公开实施例提供的一个数据处理方法的流程图;
17.图4是本公开实施例提供的一个数据处理方法的流程图;
18.图5是本公开实施例提供的一个数据处理方法的流程图;
19.图6是本公开实施例提供的一个数据处理方法的流程图;
20.图7是本公开实施例提供的一个数据处理方法的流程图;
21.图8是本公开实施例提供的一个数据处理装置的示意图。
具体实施方式
22.为了能够更加详尽地了解本公开实施例的特点与技术内容,下面结合附图对本公开实施例的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本公开实施例。在以下的技术描述中,为方便解释起见,通过多个细节以提供对所披露实施例的充分理解。然而,在没有这些细节的情况下,一个或多个实施例仍然可以实施。在其它情况下,为简化附图,熟知的结构和装置可以简化展示。
23.本公开实施例的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开实施例的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含。
24.除非另有说明,术语“多个”表示两个或两个以上。
25.本公开实施例中,字符“/”表示前后对象是一种“或”的关系。例如,a/b表示:a或b。
26.术语“和/或”是一种描述对象的关联关系,表示可以存在三种关系。例如,a和/或b,表示:a或b,或,a和b这三种关系。
27.术语“对应”可以指的是一种关联关系或绑定关系,a与b相对应指的是a与b之间是一种关联关系或绑定关系。
28.本公开实施例中,终端设备是指具有无线连接功能的电子设备,终端设备可以通过连接互联网,与如上的智能家电设备进行通信连接,也可以直接通过蓝牙、wifi等方式与如上的智能家电设备进行通信连接。在一些实施例中,终端设备例如为移动设备、电脑、或悬浮车中内置的车载设备等,或其任意组合。移动设备例如可以包括手机、智能家居设备、可穿戴设备、智能移动设备、虚拟现实设备等,或其任意组合,其中,可穿戴设备例如包括:智能手表、智能手环、计步器等。
29.图1是本公开实施例提供的一个数据处理系统的示意图。结合图1所示,本公开实施例提供一种数据处理系统,可以包括服务端,以及至少一个客户端。作为一种示例,至少一个客户端可以分别部署于至少一个配置有语音采集装置的终端设备,与部署于云端服务器的服务端相配合,通过本技术实施例提供的方案,在保证用户的隐私安全的同时,保证模型训练的进度。
30.在实际应用过程中,客户端需要利用其关联的终端设备配置的语音采集装置,预先采集语音数据并保存于本地,以采用本地语音数据对用于语音识别的预设模型进行模型训练。当对预设模型进行模型训练的次数满足训练次数阈值时,客户端可以将训练后的预设模型,即训练模型,提交至服务端。
31.对应地,服务端可以在获得训练模型时,以预设模型为基础模型,以训练模型为目标模型,对基础模型和目标模型进行融合,得到融合模型,并将该融合模型发送至客户端。进一步地,客户端可以继续采用本地语音数据对该融合模型进行模型训练,直至得到收敛的可用模型。
32.如此,服务端可以通过联邦学习的方式对一个或多个客户端的训练模型进行融合,客户端只需将训练模型上传到服务端,而无需上传本地的语音数据,从而有助于避免数据泄露,保证用户的隐私安全。并且,服务端在获得客户端的训练模型时,可以直接进行模型融合,而无需同时获取所有客户端训练好的模型,从而以这种异步融合的方式缩短模型训练时间,保证模型训练的进度。此外,当服务端获取多个客户端的训练模型并进行融合时,其相当于融合了多个训练模型的数据集,当客户端继续训练融合后的模型时,可以提高模型的准确率和泛化能力。具体实现方式可参见下文所作介绍。
33.图2是本公开实施例提供的一个数据处理方法的流程图。结合图2所示,本公开实施例提供一种可应用于客户端的数据处理方法,可以包括:
34.s21,客户端采用本地语音数据对用于语音识别的预设模型进行模型训练,得到训练模型。
35.s22,客户端在训练模型未收敛的情况下,将训练模型提交至服务端,以便服务端以预设模型为基础模型,以训练模型为目标模型,对基础模型和目标模型进行融合,得到融合模型,并发送至客户端。
36.s23,客户端继续采用本地语音数据对融合模型进行模型训练。
37.可选地,可以通过如下方式进行模型训练:客户端将预处理后的本地和语音数据
输入至训练对象模型,得到输出结果;客户端根据输出结果、预处理后的本地语音数据的真实结果,以及服务端发送的用于约束模型训练的约束模型,确定损失值,并生成损失梯度,利用损失梯度更新训练对象模型的模型权重,以对训练对象模型进行训练,直至训练对象模型的训练次数大于或等于训练次数阈值;其中,训练对象模型包括预设模型,或者,基础模型和目标模型融合而得的融合结果模型。如此,客户端可以采用本地语音数据对模型进行多次训练。而该模型,既可以是用于语音识别的预设模型,又可以是多轮融合得到的融合结果模型,从而提高模型的准确率与泛化能力。
38.可选地,训练次数阈值可以通过如下方式确定:客户端获得本地语音数据的本地样本量;客户端根据预设关联关系,将本地样本量对应的训练次数作为训练次数阈值;其中,预设关联关系为不同的样本量与可用训练次数之间的关联关系。如此,可以根据本地样本量选取训练迭代的次数,保证每次模型训练的效率。
39.可选地,客户端根据输出结果、预处理后的本地语音数据的真实结果,以及服务端发送的用于约束模型训练的约束模型,确定损失值,可以包括:
40.loss=l α
×
|w
c2-w
avg2
||241.其中,loss为损失值,l为预设模型的输出结果,α为超参数,w
c2
为目标模型的模型权重,w
avg2
为约束模型的模型权重。
42.如此,可以对模型的训练过程进行约束,保证模型的训练朝着全局最优点进行优化。
43.可选地,可以通过如下方式对本地语音数据进行预处理,包括:客户端对本地语音数据进行mfcc(mel-frequency cepstral coefficients,梅尔频率倒谱系数)特征提取,得到本地语音数据的特征参数时间序列。这样,可以模拟人耳对语音的处理特点,尽可能地保证后续语音识别模型的可靠性和准确性。
44.综上,采用本公开实施例提供的数据处理方法,服务端可以通过联邦学习的方式对一个或多个客户端的训练模型进行融合,而客户端只需将训练模型上传到服务端,无需上传本地的语音数据,从而有助于避免数据泄露,保证用户的隐私安全。并且,服务端在获得客户端的训练模型时,可以直接进行模型融合,而无需同时获取所有客户端训练好的模型,从而以这种异步融合的方式缩短模型训练时间,保证模型训练的进度。此外,当服务端获取多个客户端的训练模型并进行融合时,其相当于融合了多个训练模型的数据集,当客户端继续训练融合后的模型时,可以提高模型的准确率和泛化能力。
45.图3是本公开实施例提供的一个数据处理方法的流程图。结合图3所示,本公开实施例提供一种可应用于客户端的数据处理方法,可以包括:
46.s21,客户端采用本地语音数据对用于语音识别的预设模型进行模型训练,得到训练模型。
47.s22,客户端在训练模型未收敛的情况下,将训练模型提交至服务端,以便服务端以预设模型为基础模型,以训练模型为目标模型,对基础模型和目标模型进行融合,得到融合模型,并发送至客户端。
48.s23,客户端继续采用本地语音数据对融合模型进行模型训练。
49.s31,客户端在训练后的融合模型未收敛的情况下,将训练后的融合模型提交至服务端,以便服务端以融合模型为基础模型,以训练后的融合模型为目标模型,对基础模型和
目标模型进行融合,得到二次融合模型,并发送至客户端。
50.s32,客户端继续采用本地语音数据对二次融合模型进行模型训练,并提交至服务端进行融合,直至得到收敛的可用模型。
51.综上,采用本公开实施例提供的数据处理方法,服务端可以通过联邦学习的方式对一个或多个客户端的训练模型进行融合,而客户端只需将训练模型上传到服务端,无需上传本地的语音数据,从而有助于避免数据泄露,保证用户的隐私安全。并且,服务端在获得客户端的训练模型时,可以直接进行模型融合,而无需同时获取所有客户端训练好的模型,从而以这种异步融合的方式缩短模型训练时间,保证模型训练的进度。此外,采用这种多轮融合训练机制,当服务端获取多个客户端的训练模型并进行融合时,其相当于融合了多个训练模型的数据集,从而在客户端继续训练融合后的模型时,可以提高模型的准确率和泛化能力。
52.图4是本公开实施例提供的一个数据处理方法的流程图。结合图4所示,本公开实施例提供一种可应用于服务端的数据处理方法,可以包括:
53.s41,服务端获得至少一个客户端各自提交的未收敛的训练模型,训练模型由至少一个客户端采用各自的本地语音数据,对用于语音识别的预设模型进行模型训练而得到。
54.s42,服务端以预设模型为基础模型,以训练模型为目标模型,对基础模型和目标模型进行融合,得到融合模型。
55.可选地,可以通过如下方式进行融合:服务端确定当前融合过程的当前基础模型和当前目标模型;服务端确定当前目标模型的融合权重;服务端根据融合权重,以当前基础模型为基础模型,以当前目标模型为目标模型,对基础模型和目标模型进行融合。这样,依据融合权重进行模型融合,有助于保证融合后得到的模型的识别效果,从而提高模型的准确性。
56.具体地,服务端确定当前目标模型的融合权重,可以包括:
[0057][0058]
其中,λ为融合权重,ts为当前基础模型的融合次数,tc为当前目标模型的融合次数,α为超参数。
[0059]
目标模型的融合次数越多,则证明其样本量越大,训练次数越多,因此其融合权重越大。而目标模型的融合次数越少,则证明其样本量越小,训练次数越少,因此其融合权重越小。如此,采用权重衰减的策略,确定目标模型的融合权重,有助于降低训练次数较少、融合次数较少的目标模型对融合后整体模型的影响,提高模型的准确性。
[0060]
进一步地,服务端根据融合权重,以当前基础模型为基础模型,以当前目标模型为目标模型,对基础模型和目标模型进行融合,可以包括:
[0061]

[0062]ws
=(1-λ)
×ws
λ
×
wc[0063]
其中,ws'为当前基础模型和当前目标模型对应的融合结果模型的参数,ws为当前基础模型的参数,λ为融合权重,wc为当前目标模型的参数。
[0064]
如此,依据融合权重进行模型融合,有助于保证融合后得到的模型的识别效果,从而提高模型的准确性。
[0065]
s43,服务端将融合模型发送至训练模型对应的客户端,以便训练模型对应的客户端继续采用本地语音数据,对融合模型进行模型训练。
[0066]
综上,采用本公开实施例提供的数据处理方法,服务端可以通过联邦学习的方式对一个或多个客户端的训练模型进行融合,客户端只需将训练模型上传到服务端,而无需上传本地的语音数据,从而有助于避免数据泄露,保证用户的隐私安全。并且,服务端在获得客户端的训练模型时,可以直接进行模型融合,而无需同时获取所有客户端训练好的模型,从而以这种异步融合的方式缩短模型训练时间,保证模型训练的进度。此外,当服务端获取多个客户端的训练模型并进行融合时,其相当于融合了多个训练模型的数据集,当客户端继续训练融合后的模型时,可以提高模型的准确率和泛化能力。
[0067]
图5是本公开实施例提供的一个数据处理方法的流程图。结合图5所示,本公开实施例提供一种可应用于服务端的数据处理方法,可以包括:
[0068]
s41,服务端获得至少一个客户端各自提交的未收敛的训练模型,训练模型由至少一个客户端采用各自的本地语音数据,对用于语音识别的预设模型进行模型训练而得到。
[0069]
s42,服务端以预设模型为基础模型,以训练模型为目标模型,对基础模型和目标模型进行融合,得到融合模型。
[0070]
s43,服务端将融合模型发送至训练模型对应的客户端,以便训练模型对应的客户端继续采用本地语音数据,对融合模型进行模型训练。
[0071]
s51,服务端获得用于约束模型训练的约束模型,并发送至训练模型对应的客户端,以便训练模型对应的客户端依据约束模型,进行模型训练。
[0072]
可选地,服务端获得用于约束模型训练的约束模型,可以包括:
[0073][0074]
其中,w
avg
为约束模型的参数,w
c1
为目标模型的参数,k为目标模型的数量。
[0075]
即,约束模型的参数可以通过对k个目标模型的参数求和而得到。
[0076]
如此,可以对客户端的模型训练过程进行约束,保证模型的训练朝着全局最优点进行优化。
[0077]
综上,采用本公开实施例提供的数据处理方法,服务端可以通过联邦学习的方式对一个或多个客户端的训练模型进行融合,客户端只需将训练模型上传到服务端,而无需上传本地的语音数据,从而有助于避免数据泄露,保证用户的隐私安全。并且,服务端在获得客户端的训练模型时,可以直接进行模型融合,而无需同时获取所有客户端训练好的模型,从而以这种异步融合的方式缩短模型训练时间,保证模型训练的进度。此外,当服务端获取多个客户端的训练模型并进行融合时,其相当于融合了多个训练模型的数据集,并且当客户端继续依据约束模型,训练融合后的模型时,可以提高模型的准确率和泛化能力,并保证模型的训练朝着最优点进行优化。
[0078]
图6是本公开实施例提供的一个数据处理方法的流程图。结合图6所示,本公开实施例提供一种可应用于服务端的数据处理方法,可以包括:
[0079]
s41,服务端获得至少一个客户端各自提交的未收敛的训练模型,训练模型由至少一个客户端采用各自的本地语音数据,对用于语音识别的预设模型进行模型训练而得到。
[0080]
s42,服务端以预设模型为基础模型,以训练模型为目标模型,对基础模型和目标
模型进行融合,得到融合模型。
[0081]
s43,服务端将融合模型发送至训练模型对应的客户端,以便训练模型对应的客户端继续采用本地语音数据,对融合模型进行模型训练。
[0082]
s61,服务端获得训练模型对应的客户端提交的未收敛的训练后的融合模型。
[0083]
s62,服务端以融合模型为基础模型,以训练后的融合模型为目标模型,对基础模型和目标模型进行融合,得到二次融合模型。
[0084]
s63,服务端将二次融合模型发送至训练模型对应的客户端进行模型训练,并在训练后的二次融合模型未收敛的情况下进行融合,直至得到收敛的可用模型。
[0085]
采用本公开实施例提供的数据处理方法,服务端可以通过联邦学习的方式对一个或多个客户端的训练模型进行融合,客户端只需将训练模型上传到服务端,而无需上传本地的语音数据,从而有助于避免数据泄露,保证用户的隐私安全。并且,服务端在获得客户端的训练模型时,可以直接进行模型融合,而无需同时获取所有客户端训练好的模型,从而以这种异步融合的方式缩短模型训练时间,保证模型训练的进度。此外,当服务端获取多个客户端的训练模型并进行融合时,其相当于融合了多个训练模型的数据集,当客户端继续训练融合后的模型时,可以提高模型的准确率和泛化能力。
[0086]
图7是本公开实施例提供的一个数据处理方法的流程图。结合图7所示,本公开实施例提供一种数据处理方法,可以包括:
[0087]
s71,客户端采用本地语音数据对用于语音识别的预设模型进行模型训练,得到训练模型。
[0088]
s72,客户端在训练模型未收敛的情况下,将训练模型提交至服务端。
[0089]
s73,服务端以预设模型为基础模型,以训练模型为目标模型,对基础模型和目标模型进行融合,得到融合模型。
[0090]
s74,服务端将融合模型发送至训练模型对应的客户端。
[0091]
s75,客户端继续采用本地语音数据对融合模型进行模型训练。
[0092]
s76,客户端在训练后的融合模型未收敛的情况下,将训练后的融合模型提交至服务端。
[0093]
s77,服务端以融合模型为基础模型,以训练后的融合模型为目标模型,对基础模型和目标模型进行融合,得到二次融合模型。
[0094]
s78,服务端将二次融合模型发送至客户端。
[0095]
s79,客户端继续采用本地语音数据对二次融合模型进行模型训练,并提交至服务端进行融合,直至得到收敛的可用模型。
[0096]
采用本公开实施例提供的数据处理方法,服务端可以通过联邦学习的方式对一个或多个客户端的训练模型进行融合,客户端只需将训练模型上传到服务端,而无需上传本地的语音数据,从而有助于避免数据泄露,保证用户的隐私安全。并且,服务端在获得客户端的训练模型时,可以直接进行模型融合,而无需同时获取所有客户端训练好的模型,从而以这种异步融合的方式缩短模型训练时间,保证模型训练的进度。此外,当服务端获取多个客户端的训练模型并进行融合时,其相当于融合了多个训练模型的数据集,当客户端继续训练融合后的模型时,可以提高模型的准确率和泛化能力。
[0097]
图8是本公开实施例提供的一个数据处理装置的示意图。结合图8所示,本公开实
施例提供一种数据处理装置,包括处理器(processor)100和存储器(memory)101。可选地,该装置还可以包括通信接口(communication interface)102和总线103。其中,处理器100、通信接口102、存储器101可以通过总线103完成相互间的通信。通信接口102可以用于信息传输。处理器100可以调用存储器101中的逻辑指令,以执行上述实施例的数据处理方法。
[0098]
此外,上述的存储器101中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
[0099]
存储器101作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序,如本公开实施例中的方法对应的程序指令/模块。处理器100通过运行存储在存储器101中的程序指令/模块,从而执行功能应用以及数据处理,即实现上述实施例中的数据处理方法。
[0100]
存储器101可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储器101可以包括高速随机存取存储器,还可以包括非易失性存储器。
[0101]
本公开实施例提供了一种存储介质,存储有计算机可执行指令,所述计算机可执行指令设置为执行上述的数据处理方法。
[0102]
上述的存储介质可以是暂态计算机可读存储介质,也可以是非暂态计算机可读存储介质。
[0103]
本公开实施例的技术方案可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括一个或多个指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开实施例所述方法的全部或部分步骤。而前述的存储介质可以是非暂态存储介质,包括:u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。
[0104]
以上描述和附图充分地示出了本公开的实施例,以使本领域的技术人员能够实践它们。其他实施例可以包括结构的、逻辑的、电气的、过程的以及其他的改变。实施例仅代表可能的变化。除非明确要求,否则单独的部件和功能是可选的,并且操作的顺序可以变化。一些实施例的部分和特征可以被包括在或替换其他实施例的部分和特征。而且,本技术中使用的用词仅用于描述实施例并且不用于限制权利要求。如在实施例以及权利要求的描述中使用的,除非上下文清楚地表明,否则单数形式的“一个”(a)、“一个”(an)和“所述”(the)旨在同样包括复数形式。类似地,如在本技术中所使用的术语“和/或”是指包含一个或一个以上相关联的列出的任何以及所有可能的组合。另外,当用于本技术中时,术语“包括”(comprise)及其变型“包括”(comprises)和/或包括(comprising)等指陈述的特征、整体、步骤、操作、元素,和/或组件的存在,但不排除一个或一个以上其它特征、整体、步骤、操作、元素、组件和/或这些的分组的存在或添加。在没有更多限制的情况下,由语句“包括一个
…”
限定的要素,并不排除在包括所述要素的过程、方法或者设备中还存在另外的相同要素。本文中,每个实施例重点说明的可以是与其他实施例的不同之处,各个实施例之间相同相似部分可以互相参见。对于实施例公开的方法、产品等而言,如果其与实施例公开的方法部分相对应,那么相关之处可以参见方法部分的描述。
[0105]
本领域技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及
算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,可以取决于技术方案的特定应用和设计约束条件。所述技术人员可以对每个特定的应用来使用不同方法以实现所描述的功能,但是这种实现不应认为超出本公开实施例的范围。所述技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
[0106]
本文所披露的实施例中,所揭露的方法、产品(包括但不限于装置、设备等),可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,可以仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例。另外,在本公开实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
[0107]
附图中的流程图和框图显示了根据本公开实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这可以依所涉及的功能而定。在附图中的流程图和框图所对应的描述中,不同的方框所对应的操作或步骤也可以以不同于描述中所披露的顺序发生,有时不同的操作或步骤之间不存在特定的顺序。例如,两个连续的操作或步骤实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这可以依所涉及的功能而定。框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献