一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于语谱图的语音情感识别方法

2022-06-02 10:26:13 来源:中国专利 TAG:


1.本发明属于语音处理与情感识别技术领域,更具体的说,尤其涉及一种基于语谱图的语音情感识别方法。


背景技术:

2.语音情感识别通俗来讲就是计算机对人类相关情感的感知和理解过程的模拟,如悲伤,喜悦,愤怒,中性等;首先从采集到的原始语音信号中提取出表达情感的声学特征,然后对这些声学特征与人类情感的映射关系进行建模,实现对语音情感的识别,如图1所示。
3.近年来,语音情感识别研究工作引起了广大研究人员的关注,在情感描述模型引入、语音情感数据库的构建、深度情感特征提取等领域的各个方面都得到了很大发展。
4.当前,用于语音情感识别的声学特征主要可以分为3大类,包括韵律学特征、基于谱的相关特征和音质特征。虽然上述的情感特征提取的方法已经被广泛应用,但是越来越多的研究表明,无论是韵律学相关特征还是基于谱的特征,亦或是声音质量特征,都各自存在很大的缺点,而这些缺点都极大的影响最终情感识别的性能。
5.首先,基于韵律学的特征的情感区分能力十分有限,例如在愤怒、害怕、高兴和惊奇的等情感下的语音信号中,基频特征往往具有相似的表现。而基于谱相关的特征对不同语言的表示能力表现出很大差异,对于不同的语言效果可能不佳。其次,以上三种不同的情感特征提取方法都是基于统计的特性对语音进行相关特征的提取,并不能很好的反映语音本身的时序特征,在人们的日常生活交流过程当中,情感的表达往往是一个时序的过程。而传统的基于统计的方法来对语音特征进行提取,提取到的特征往往跟信号的采样率相关,这会不可避免的造成一些相关的信息的损失。


技术实现要素:

6.有鉴于此,本发明的目的在于提供一种基于语谱图的语音情感识别方法,用于实现对输入语音的情感的识别。
7.本技术公开了一种基于语谱图的语音情感识别方法,包括:
8.获取语音信息并对所述语音信息按预设分割方式进行分段处理,得到多个语音片段;其中,各个语音片段之间具备时序关系;
9.对各个语音片段分别进行数据预处理;
10.对数据预处理后的各个语音片段,获取各个语音片段对应的语谱图;其中,不同情绪的语谱图不同;
11.将所获取的语谱图输入至情感识别模型,得到语音情感识别结果;其中,所述情感识别模型通过深度卷积神经网络进行深层情感特征的学习并再通过长短期记忆网络捕获不同语音片段之间的上下文关系进行训练得到。
12.可选的,所述各个语音片段分别进行数据预处理,包括:
13.对各个所述语音片段分别进行预加重处理;
14.对进行预加重处理后的各个语音片段分别进行分帧和加窗。
15.可选的,对各个所述语音片段分别进行预加重处理,包括:
16.采用一阶高通数字滤波器来实现对各个所述语音片段分别进行预加重处理。
17.可选的,对各个所述语音片段分别进行预加重处理所采用的传递函数为:
18.y(k)=x(k)-ax(k-1);
19.其中,a为预加重系数;x(k)为语音片段,其中k=0,1,2,

,m,y(k)为对x(k)进行预加重处理后输出语音片段。
20.可选的,对进行预加重处理后的各个语音片段分别进行分帧和加窗,包括:
21.对各个所述进行预加重处理后的语音片段,分别采用可移动的有限长度的窗口加权进行分帧;其中,进行分帧方式为交叠分帧。
22.可选的,采用可移动的有限长度的窗口加权进行分帧所采用的公式为:
23.wf(n)=w(n)*f(n);
24.其中,f(n)为窗函数,表示加窗时的计算过程;w(n)为原始语音信号;wf(n)为加窗后的语音信号。
25.可选的,所述窗函数为汉明窗函数。
26.可选的,对数据预处理后的各个语音片段,获取各个语音片段对应的语谱图,包括:
27.对各个数据预处理后的语音片段,进行时频分析处理,得到各个语音片段的语谱图。
28.可选的,情感识别模型的构建过程,包括:
29.获取语音训练样本并对所述语音训练样本按预设分割方式进行分段处理,得到多个语音片段样本;其中,各个语音片段样本之间具备时序关系;
30.对相应的语音片段样本进行数据预处理;以及,对数据预处理后的语音片段样本,获取语谱图样本;
31.将所述语谱图样本输入至深度卷积神经网络,以进行深度情感特征的提取,并将深度卷积神经网络所提取的特征送入长短期记忆网络进行学习,接着通过全连接分类层对最终的语音情感做出划分;得到语音情感识别训练结果;
32.依据所述训练结果与所述语音训练样本的真实结果进行比较,如果比较值满足预设条件,则完成情感识别模型的构建。
33.可选的,所述深度卷积神经网络为vgg16网络;
34.将vgg16网络的各卷积层中卷积核替换成空洞卷积;并在每层卷积之后都添加相应的批量标准化bn层。
35.从上述技术方案可知,本发明提供的一种基于语谱图的语音情感识别方法,包括:获取语音信息并对语音信息按预设分割方式进行分段处理,得到多个语音片段;其中,各个语音片段之间具备时序关系;对各个语音片段分别进行数据预处理;对数据预处理后的各个语音片段,获取各个语音片段对应的语谱图;其中,不同情绪的语谱图不同;将各个语谱图输入至情感识别模型,得到语音情感识别结果;其中,情感识别模型通过深度卷积神经网络进行深层情感特征的学习并再通过长短期记忆网络捕获不同语音片段之间的上下文关系进行训练得到;也即,将得到的语谱图输入到深度卷积神经网络进行深层情感特征的学
习并在此基础上通过长短期记忆网络捕获不同语音片段之间的上下文关系,最终实现对输入语音的情感的识别;同时,通过情感识别模型实现了更好地建模语音上下文之间的时序关系。
附图说明
36.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
37.图1是现有技术提供的语音情感识别方案的示意图;
38.图2是本发明实施例提供的一种基于语谱图的语音情感识别方法的流程图;
39.图3是本发明实施例提供的另一种基于语谱图的语音情感识别方法的流程图;
40.图4是本发明实施例提供的另一种基于语谱图的语音情感识别方法的流程图;
41.图5和图6是本发明实施例提供的一种基于语谱图的语音情感识别方法中所涉及的某一段语音经过预加重的前后对比图;
42.图7是本发明实施例提供的一种基于语谱图的语音情感识别方法中所涉及的帧移的示意图;
43.图8和图9是本发明实施例提供的一种基于语谱图的语音情感识别方法中所涉及的原始语谱图和经过分帧加窗后的语谱图;
44.图10是本发明实施例提供的一种基于语谱图的语音情感识别方法中所涉及的语谱图的生成过程;
45.图11本发明实施例提供的一种基于语谱图的语音情感识别方法中所涉及的语音片段转化为语谱图的示意图;
46.图12本发明实施例提供的一种基于语谱图的语音情感识别方法中所涉及的四种情绪的语谱图;
47.图13本发明实施例提供的一种基于语谱图的语音情感识别方法中所涉及的情感识别模型的构建示意图。
具体实施方式
48.为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
49.在本技术中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
50.本技术实施例提供了一种基于语谱图的语音情感识别方法,用于解决现有技术中
基于统计的方法来对语音特征进行提取,提取到的特征往往跟信号的采样率相关,这会不可避免的造成一些相关的信息的损失的问题。
51.参见图2,该基于语谱图的语音情感识别方法,包括:
52.s101、获取语音信息并对语音信息按预设分割方式进行分段处理,得到多个语音片段。
53.其中,各个语音片段之间具备时序关系。
54.需要说明的是,为了更好的捕捉语音上下文之间的时序关系,对单个语音片段进行分割。
55.具体的,预设分割方式可以是按预设时长进行分割如500ms,也可以是按照语义进行分割,也可以是均等分割,此处不再一一赘述,视实际情况而定即可,均在本技术的保护范围内。
56.另外,分割后的各个语音片段之间可以有重叠部分,其重叠部分的时长视实际情况而定即可,此处不再一一赘述,视实际情况而定即可,均在本技术的保护范围内。
57.s102、对各个语音片段分别进行数据预处理。
58.需要说明的是,需要对各个语音片段进行数据预处理,以使数据预处理后能更加能够体现出情感表达。
59.其具体的处理方式,此处不再一一赘述,视实际情况而定即可,均在本技术的保护范围内。
60.s103、对数据预处理后的各个语音片段,获取各个语音片段对应的语谱图。
61.其中,主要原理是不同情绪的语谱图不同。
62.不同于大多数的相关研究直接使用梅尔倒谱系数、能量特征、短时过零率等相关特征作为模型的输入;本技术设计了语谱图更形象地表现语音特征之间的时序关系。
63.语谱图表示语音信号频率随时间的变化关系,横轴表示时间,纵轴表示频率,这不同于现有的基于统计方法提取的特征,不会造成信息的损失。
64.需要说明的是,因为一张固定大小的语谱图所能表示的信息总是有限的,而且为了提高方法的准确性,可以将语音片段的时间固定为500ms,因为本专利最终的目的是为了分析人们在说一句话过程中所反映的情感,而根据生活经验一句话所对应的语音时长通常是1s-15s,我们所说的分段是指在此基础上将语音划分为500ms的片段,连续性体现在我们不仅要提取每张语谱图对应的特征,同时还要分析同一份语音对应的多张语谱图特征之间的关系(比如两秒的语音,那么将会被划分为4段,经过变换也就对应4张语谱图),而添加长短期记忆网络的目的就是为了捕获时序关系,也就是连续性。
65.s104、将所获取的语谱图输入至情感识别模型,得到语音情感识别结果。
66.其中,情感识别模型通过深度卷积神经网络进行深层情感特征的学习并再通过长短期记忆网络捕获不同语音片段之间的上下文关系进行训练得到。
67.上述说明中,对语音进行分段处理,将各段语音信号所得的语谱图作为神经网络共同的输入,最终通过长短期记忆网络进一步获取语音片段之间的上下文关系,从而使语音情感识别结果更准确。
68.在本实施例中,获取语音信息并对语音信息按预设分割方式进行分段处理,得到多个语音片段;其中,各个语音片段之间具备时序关系;对各个语音片段分别进行数据预处
理;对数据预处理后的各个语音片段,获取各个语音片段对应的语谱图;其中,不同情绪的语谱图不同;将各个语谱图输入至情感识别模型,得到语音情感识别结果;也即,将得到的语谱图输入到深度卷积神经网络进行深层情感特征的学习并在此基础上通过长短期记忆网络捕获不同语音片段之间的上下文关系,最终实现对输入语音的情感的识别;同时,通过情感识别模型实现了更好地建模语音上下文之间的时序关系。
69.在实际应用中,参见图3,上述步骤s102、各个语音片段分别进行数据预处理,包括:
70.s201、对各个语音片段分别进行预加重处理。
71.声音通过口腔向外界传播,其中人类的口唇对声音的低频部分影响比较小,但是对高频部分的影响相对较大。研究表明,对800hz以上的高频部分信息容易造成较大的衰减。考虑到这一问题对语音情感识别的性能容易造成影响,受限对原始语音信号进行预加重处理,主要是为了对语音的高频部分进行加重,去除口唇辐射的影响,增加语音的高频部分分辨率,从而在一定程度上降低低频段信息所占的比重,使信号整体频谱显得更加平稳。
72.在实际应用中,对各个语音片段分别进行预加重处理,包括:
73.采用一阶高通数字滤波器来实现对各个语音片段分别进行预加重处理。
74.当然也不排斥采用其他方式或器件来实现对语音片段分别进行预加重处理,此处不再一一赘述,视实际情况而定即可,均在本技术的保护范围内。
75.在实际应用中,对各个语音片段分别进行预加重处理所采用的传递函数为:
76.y(k)=x(k)-ax(k-1);
77.其中,a为预加重系数;x(k)为语音片段,其中k=0,1,2,

,m,y(k)为对x(k)进行预加重处理后输出语音片段。
78.图5和图6是casia情感语料库中伤心类的某一段语音经过预加重的前后对比图,图5为原始语音频谱,图6是预加重处理后的频谱,可以看出通过预加重之后的频谱更加平稳。
79.在本实施例中,采用预加重技术提升语音的高频段频谱值,提高高频部分的分辨率,在一定程度上降低低频段信息所占的比重,使得信号整体频谱显得更加平稳,同时为解决语音的不稳定性导致了特征参数的时变性问题,对原始语音信号进行了分帧和加窗处理并采用交叠分帧来保证语音段间的连续性和平滑性。
80.s202、对进行预加重处理后的各个语音片段分别进行分帧和加窗。
81.进行预加重数字滤波处理后,再对语音信号进行加窗和分帧处理。
82.研究表明,语音信号具有短时平稳性,一般10
‑‑
30ms内可以认为语音信号近似不变;这样就可以把语音信号分为一些短段来来进行处理,这就是分帧,语音信号的分帧是采用可移动的有限长度的窗口进行加权的方法来实现的。一般每秒的帧数约为33~100帧,其具体取值视情况而定,均在本技术的保护范围内。
83.一般的分帧方法有连续分帧和交叠分帧两种方法,前一帧和后一帧的交叠部分称为帧移,帧移与帧长的比值一般为0~0.5。由于语音具有连贯性,采用交叠分帧来保证语音段间的连续性和平滑性;其中,帧长为10到30ms之间居多。
84.也即,对进行预加重处理后的各个语音片段分别进行分帧和加窗,包括:
85.对各个进行预加重处理后的语音片段,分别采用可移动的有限长度的窗口加权进
行分帧。其中,进行分帧方式为交叠分帧。
86.帧移是指两帧重叠部分,可以将帧移设置为帧长的一半。如图7所示帧长和帧移之间的关系,若帧长为30ms,15ms即为帧间重叠部分。分帧需要借助相关函数来实现对特定区域内波形的增强。函数对抽样帧周边的波形进行增强,对其余部分进行相应的减弱,类似于图像变换或者矩阵运算。具体操作是将每帧里对应的值转化为其自身与窗序列相应元素的乘积。
87.采用可移动的有限长度的窗口加权进行分帧所采用的公式为:
88.wf(n)=w(n)*f(n);
89.其中,f(n)为窗函数,表示加窗时的计算过程;w(n)为原始语音信号;wf(n)为加窗后的语音信号。
90.目前,主要的窗函数有三种汉明窗、汉宁窗和矩形窗。其函数表达式分别如下述公式所示,其中n表示帧长。
91.汉明窗函数:
92.汉宁窗函数:
93.矩形窗函数:
94.矩形窗相当使信号突然截断所乘的窗函数,它的旁瓣较大,且衰减较慢,旁瓣的个负峰值为主瓣的21%,第一个正峰值为主瓣的12.6%,第二个负峰值为主瓣的9%,故矩形窗效果不是很好,泄漏较大。汉宁窗的频谱时间上是由三个矩形窗经相互平移叠加二乘,汉宁窗的第一旁瓣幅值是主瓣的0.027%,这样旁瓣可以最大限度地互相抵消,从而达到加强主瓣的作用,使泄漏得到较为有效的抑制。采用汉宁窗可以是主瓣加宽,倍频程衰减为18db/otc,虽然平率分辨率比矩形窗稍有下降,但频谱幅值精度大为提高。汉明窗与汉宁窗同属于余弦窗函数,它比汉宁窗在减小旁瓣幅值方面效果较好,但主瓣比汉宁窗也稍微宽一些。海明窗的最大旁瓣比汉宁窗低,约为汉宁窗的1/5,其主瓣衰减率可达40db/otc,这是汉明窗比汉宁窗的优越之处。因此选取汉明窗进行分帧。
95.也即,在实际应用中,窗函数为汉明窗函数。
96.需要说明的是,分帧和分段不是一个概念,分帧是将语音划分为30ms的片段进行处理,并不是将语音切割,只是在窗函数处理的过程中每次处理语音的30ms的片段,依次进行直到处理完整条语音(即处理完之后整条语音仍然是完整的,所以图五显示的仍是大片段)。而分段是将语音切割成500ms语音片段,目的是对每个片段进行语谱图的计算。
97.如图8和图9所示,分别表示原始语谱图和经过分帧加窗后的语谱图;其中,图8为原始语谱图;图9为经过分帧加窗后的语谱图。
98.在实际应用中,上述步骤s103、对数据预处理后的各个语音片段,获取各个语音片段对应的语谱图,包括:
99.对各个数据预处理后的语音片段,进行时频分析处理,得到各个语音片段的语谱
图。
100.采用不同方式对语音信号进行描述,一般可以从不同的方面反应语音信息,如何描述一段语音对后续的情感特征提取和识别效果有很大影响。因为语音是一维时域信号,从直观上来说无法直接获取其频域信息,时频分析是一种常见的语音处理方式,经过时频分析处理可以获取对应语音片段的语谱图。语谱图是一种表达语音数据的可视化形式,它是彩色的二维图像,横轴代表语音片段的时间,纵轴代表输入语音的频率,其中的二维坐标点表示某时刻的声音频率,同时坐标点在坐标中还可以表达出能量信息,语谱图中的颜色的深浅程度表示能量的大小差异,可以很直观的知道颜色越深的地方,表示该处能量越高,因此语谱图能够将时间-频率-能量的三维信息展示在二维图像当中,而这些信息中同时也包含了丰富的情感信息。
101.具体的,如图10所示,其为语谱图的生成过程(其中包含上述步骤s101和s102的内容)。也就是说,将步骤s102输出的语音信息进行傅里叶变换之后得到相应的语谱图。
102.具体的生成步骤如下:
103.(1)对于输入的语音片段y,首先使用前面介绍的预加重和分帧加窗方法进行预处理工作,然后将其划分为1s的语音片段y(n),其中n=0,1,2

k,k为划分的语音片段总数,同时前后两段的语音片段之间设置100ms的重叠率,最后不足1s的部分使用0进行填充,以此获取全部的语音信息。
104.(2)将每个语音片段的情感类别定义为其相应的完整的语音所对应的情感。
105.(3)通过将离散语音信号yi(n)分帧后表示为y
i,n
(m),n=0,1,2,

,n-1,其中,n表示一帧的长度,n为帧序号,m表示一帧当中的采样点序号。并对其进行短时傅里叶变换(stft),变换公式如下述公式所示:
[0106][0107]
最终每个语音片段转化为如图11所示的语谱图,如图11所示,其左侧表示语音信号,右侧为转换得到的语谱图。
[0108]
从图11的语谱图可以观察出,在横向上,语音频率随着时间进行动态的变化,可以很直观的发现很多横向连接的纹路同时伴随着上下的起伏,在学术上将这些纹路称为“声纹”。一般声纹是存在周期性的,在300hz处为强点周期,因此声纹主要集中出现在频率为n*300hz的区域,从语谱图中可以看出相应的区域会比其他区域颜色更深,也更加明显,这些声纹可以理解为人耳所听到的声音中存在的显著区域。语谱图当中包含共振峰信息,并且相比一维时序信号更容易理解并且更直观。所以用于识别的效果较好。
[0109]
如图12所示,其为同一个人用四种情绪说同一句话所得的语谱图:我想现在进去。
[0110]
在本实施例中,通过使用语谱图的方式来表示语音情感特征比传统的基于统计的方法更直观,且能够更好的表示语音的时序关系。
[0111]
也就是说,不同于大多数的相关研究直接使用梅尔倒谱系数、能量特征、短时过零率等相关特征作为模型的输入,我们设计了语谱图更形象地表现语音特征之间的时序关系,并对语音进行分段处理,将各段语音信号所得的语谱图作为神经网络共同的输入,最终通过lstm进一步获取语音片段之间的上下文关系。
[0112]
在实际应用中,参见图4,情感识别模型的构建过程,包括:
[0113]
s301、获取语音训练样本并对语音训练样本按预设分割方式进行分段处理,得到
多个语音片段样本。
[0114]
其中,各个语音片段样本之间具备时序关系。
[0115]
s302、对相应的语音片段样本进行数据预处理;以及,对数据预处理后的语音片段样本,获取语谱图样本。
[0116]
其中,主要原理是不同情绪的语谱图不同。
[0117]
s303、将语谱图样本输入至深度卷积神经网络,以进行深度情感特征的提取,并将深度卷积神经网络所提取的特征送入长短期记忆网络进行学习,接着通过全连接分类层对最终的语音情感做出划分;得到语音情感识别训练结果。
[0118]
s304、依据训练结果与语音训练样本的真实结果进行比较,如果比较值满足预设条件,则完成情感识别模型的构建。
[0119]
具体的,如图13所示,形式上首先对输入的语音数据进行分段处理,对每个语音片段分别提取其相应的语谱图作为深度卷积神经网络的输入,进行深度情感特征的提取,同时为了捕获各语音片段之间的时序关系,将深度卷积神经网络提取的特征送入长短期记忆网络进行学习,接着通过全连接分类层对最终的语音情感做出划分。
[0120]
同时,为了获得最适合语谱图数据的深度学习模型,对一些传统的深度卷积神经网络进行了大量的调研工作和对比实验,主要包括resnet-50,vgg16,mobilenet,senet,shufflenet等,实验过程中所使用的数据集为汉语情感语料库(casia),对其中的喜悦,悲伤,愤怒和中性4种不同的情感进行识别,每种类别包括语音数据200条。结果表明vgg16网络在语谱图的语音情感识别工作中取得了最佳的性能,所以最终将vgg16作为的骨干网络。
[0121]
也即,在实际应用中,深度卷积神经网络为vgg16网络。
[0122]
将vgg16网络的各卷积层中卷积核替换成空洞卷积;并在每层卷积之后都添加了相应的bn(batchnormalization,批量标准化)层。
[0123]
考虑到语谱图中的深度情感特征主要是时序上的能量之间的关系,各像素点之间在空间上的关系相对紧密,为了增大模型的感受,同时不引入额外的参数,将vgg中的各卷积层中一般的卷积核替换成空洞卷积,同时为了防止过拟合,在每层卷积之后都添加了相应的bn层,最终通过隐层节点数为128的单层lstm模型和全连接层对提取的卷积特征做进一步的处理,并使用softmax激活函数输出语音的情感类别。
[0124]
为了构建最适合语谱图的语音情感识别模型,当前主流的深度卷积神经网络进行了大量的对比实验,最终将vgg作为模型的骨干网络同时针对语谱图数据的特点,对vgg骨干网络进行了相应的修改并加入了bn层,取得了良好的情感识别性能;使用lstm网络获取不同语音段之间的时序信息。
[0125]
在本实施例中,同时考虑语音谱相关特征以及语音时序关系的特征表示方法-语谱图,为了更好的捕捉语音上下文之间的时序关系,对单个语音片段进行分割,分别对其进行语谱图的提取,同时将得到的语谱图输入到深度卷积神经网络进行深层情感特征的学习并在此基础上通过长短期记忆网络捕获不同语音片段之间的上下文关系,最终实现对输入语音的情感的识别。同时,为了更好的对语谱图进行建模,比较了多种传统的深度卷积神经网络对语谱图数据的学习能力,设计了更好的用于语谱图分类的基于空洞卷积vgg网络作为骨干网络。最终,在语音的情感识别工作中取得了良好的性能。
[0126]
本说明书中的各个实施例中记载的特征可以相互替换或者组合,各个实施例之间
相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
[0127]
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
[0128]
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献