一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种低资源端到端的模糊命令词识别系统的制作方法

2022-08-17 09:46:23 来源:中国专利 TAG:


1.本发明涉及语音识别技术,尤其涉及一种低资源端到端的模糊命令词识别系统。


背景技术:

2.命令词识别技术是一种让机器通过对语音命令进行识别和理解,将相应的语音指令转换为相应的硬件控制指令的人工智能技术。传统命令词系统只需要对固定种类的命令词进行识别。但是用户使用中有时会在命令词前后增加自己的习惯用语,或嵌入在其他句子中间,将原本的设计者确定的命令词变成不确定的模糊命令词,如何提升模糊命令词的准确识别成为一项新的挑战。
3.传统命令词识别技术包含语音端点检测(voice activity detection,vad)模块、声学模型模块、解码网络构建模块以及语音解码模块。其中语音端点检测模块、解码网络构建模块及语音解码模块对内存的消耗较大,极大的限制了命令词系统在内存受限产品上的推广。同时解码网络构建需要预先知道命令词的文本内容,当输入语音为模糊命令词时,由于系统无法知道模糊命令词准确的文本内容,因而无法建立准确的解码网络,进而极大的降低了传统命令词技术在模糊命令词上的识别准确度。


技术实现要素:

4.本发明的目的在于提供一种低资源端到端的模糊命令词建模方法及相关方法和设备,以能够更准确地识别模糊命令词,并降低内存消耗。
5.以下给出一个或多个方面的简要概述以提供对这些方面的基本理解。此概述不是所有构想到的方面的详尽综览,并且既非旨在指认出所有方面的关键性或决定性要素亦非试图界定任何或所有方面的范围。其唯一的目的是要以简化形式给出一个或多个方面的一些概念以为稍后给出的更加详细的描述之序。
6.根据本发明的第一方面,提供了一种低资源端到端的模糊命令词建模方法,包括:将所有的背景音频(除命令词外的所有音频)看做一个类别,并用类别编号0表示。而命令词音频则根据其命令词类别使用类别编号c(1≤c≤c)表示,其中c表示命令词的种类,不同类别的命令词使用不同的类别编号。集合{c|1≤c≤c}表示命令词类别集合,集合{c|0≤c≤c}则表示命令词加背景类别集合。对训练集中的音频生成时间对齐标注,包括将背景音频的所有时刻标注为编号0和将命令词音频中命令词结束前后一段时间(例如70ms)内的时刻标注为该命令词对应的类别编号。将时间对齐标注和从训练集中提取的音频特征输入训练工具进行训练,将类别编号作为基本的建模单元,采用交叉熵准则作为训练目标函数,得到第一阶段声学模型。
7.在一实施例中,所述命令词音频包括模糊命令词音频,所述模糊命令词音频通过将背景音频与命令词音频进行拼接得到。
8.在一实施例中,所述命令词语音对应的时刻为命令词结束时刻及其前后若干帧。
9.在一实施例中,所述命令词结束时刻通过将命令词语音送入通用语音识别模型生
成时间对齐信息得到。
10.在一实施例中,所述对训练集中的音频生成时间对齐标注还包括:将命令词音频中的非命令词语音对应的时刻标注为类别编号-1,类别编号-1对应的时刻不参与声学模型目标函数的计算。
11.在一实施例中,所述训练目标函数如下:
12.j=∑n∑klog(p(n,k,y
n,k
)),
13.其中n表示音频标号,k表示帧步长,y
n,k
表示第n条音频对应的时间标注向量y在第k帧对应的类别编号,p(n,k,y
n,k
)表示声学模型经过前向运算预测的第n条音频在第k帧判别为类别编号y
n,k
的概率。
14.在一实施例中,该方法还包括:
15.使用第一阶段声学模型对训练集的音频特征进行前向运算,得到预测概率矩阵p(n,k,c),其中n表示音频编号,k表示帧步长,c表示类别编号;
16.对于命令词音频,计算命令词对应的编号的预测概率峰值,将预测概率峰值对应的帧重新标注为该命令词对应的类别编号,并将其他帧标注为类别编号-1。
17.在一实施例中,所述预测概率峰值对应的帧为预测概率峰值对应时间的前后若干帧。
18.在一实施例中,该方法还包括:对于背景音频,计算类别编号0的预测概率值,根据预测概率值选择需要优化的帧,将需要优化的帧重新标注为第类别编号0,并将其他帧标注为类别编号-1。
19.在一实施例中,所述根据预测概率值选择需要优化的帧,包括:判断预测概率是否小于第一阈值,选择将小于第一阈值的帧作为需要优化的帧。
20.在一实施例中,该方法还包括:以第一阶段声学模型作为初始模型,将重新标注后的时间对齐标注和和从训练集中提取的音频特征输入优化器进行训练,采用交叉熵准则作为训练目标函数,得到第二阶段声学模型。
21.根据本发明的第二方面,提供了一种命令词片段检测方法,包括:获取音频,提取音频特征,输入如上述第一方面所述声学模型建模方法得到的声学模型,逐帧检查类别编号0的预测概率,当类别编号0的预测概率大于第二阈值时,认为该帧音频命令为背景音频,当类别编号0的预测概率小于第二阈值时,认为该帧音频命令为命令词音频。
22.根据本发明的第三方面,提供了一种命令词片段解码方法,包括:获取音频,提取音频特征,输入如上述第一方面所述声学模型建模方法得到的声学模型,计算命令词各类别编号的预测概率,根据最大似然估计得到的最优类别编号找到对应的命令词。
23.根据本发明的第四方面,提供了一种命令词识别方法,包括:
24.获取待识别音频,提取音频特征,输入如第一方面所述低资源端到端的模糊命令词建模方法得到的声学模型;
25.逐帧检查类别编号0的预测概率,当类别编号0的预测概率大于第二阈值时,认为该帧音频命令为背景语音,当第类别编号0的预测概率小于第二阈值时,认为该帧音频命令为命令词语音,将相邻的命令词帧组合到一起得到命令词片段;
26.计算命令词对应的编号的预测概率,根据最大似然估计得到的最优类别编号,找到对应的命令词文本。
27.根据本发明的第五方面,提供了一种设备,包括存储器和处理器;
28.所述存储器,用于存储可执行指令;
29.所述处理器,用于当执行所述可执行指令时,实现如第一方面所述的低资源端到端的模糊命令词建模方法。
30.根据本发明的第六方面,提供了一种设备,包括存储器和处理器;
31.所述存储器,用于存储可执行指令;
32.所述处理器,用于当执行所述可执行指令时,实现如第二方面所述的命令词片段检测方法或如第三方面所述的命令词片段解码方法或如第四方面所述的命令词识别方法。
33.根据本发明的第六方面,提供了一种可读存储介质,所述存储介质上存储有程序,当所述程序被处理器执行时,实现如第一方面所述的低资源端到端的模糊命令词建模方法、如第二方面所述的命令词片段检测方法、如第三方面所述的命令词片段解码方法或如第四方面所述的命令词识别方法。
34.本发明实施例的有益效果包括:通过对训练集中的背景音频和命令词音频以不同的类别编号进行区分,并以类别编号作为基本建模单元,获得的声学模型能够无需单独的vad模型便可完成对命令词片段的检测,同时解码无需生成解码网络和状态网格,从而减少了内存消耗。
附图说明
35.为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
36.在结合以下附图阅读本公开的实施例的详细描述之后,能够更好地理解本发明的上述特征和优点。在附图中,各组件不一定是按比例绘制,并且具有类似的相关特性或特征的组件可能具有相同或相近的附图标记。
37.图1是本技术实施例提供的声学模型训练流程图;
38.图2是本技术实施例提供的语音识别流程图;
39.图3是本技术实施例提供的模糊命令词时频谱图;
40.图4是一个模糊命令词音频在一阶段生成的时间对齐标注示意图;
41.图5是一个模糊命令词音频在二阶段生成标注向量的过程示意图;
42.图6是一个背景音频在二阶段生成标注向量的过程示意图。
具体实施方式
43.以下结合附图和具体实施例对本发明作详细描述。注意,以下结合附图和具体实施例描述的诸方面仅是示例性的,而不应被理解为对本发明的保护范围进行任何限制。
44.本实施例提供了一种声学模型建模方法,包括以下步骤:
45.s1.对训练集中的音频生成时间对齐标注,包括:
46.①
将背景音频的所有时刻标注为类别编号0;
47.②
将命令词音频中命令词语音对应的时刻标注为该命令词对应的类别编号c(1≤
c≤c);
48.其中,命令词音频指的是包含命令词的音频,背景音频指的是不包含命令词单词的音频。可根据命令词包含的单词确立命令词单词集[w1,w2,w3,...,wn],其中wn表示命令词包含的单词。例如假设命令词只有

打开微信



回到表盘

两条,那么命令词单词集为[打开,微信,回到,表盘]。从通用识别数据的标注文本中筛选出不包含命令词单词集的数据作为背景音频。
[0049]
需要说明的是,背景音频包含所有的非命令词音频,且不论其音频对应的文本是什么,均归为一个类别,并分配数字0作为其类别编号。而命令词音频则根据命令词的种类进行分类,不同种类的命令词单独归为一个类别,并分别以一个数字作为其类别编号。例如命令词共有c个类别则,类别编号0表示背景音频,类别编号1表示第一种命令词,2表示第二种命令词,...,c表示第c种命令词。同时创建类别编号-1作为特殊的类别编号,该类别对应的特征不会参与目标函数的计算。
[0050]
s2.将时间对齐标注和从训练集中提取的音频特征输入训练工具进行训练,采用类别编号作为基本建模单元,采用交叉熵准则(cross entropy criteria)作为训练目标函数,得到第一阶段声学模型。
[0051]
通过将背景音频和不同种类命令词语音以不同的类别编号进行区分,并以这些类别编号作为基本建模单元进行建模,后续检测命令词片段时,只需逐帧计算该帧为类别0(即背景音频)的概率p(k,0),便可根据p(k,0)是否高于阈值来判断第k帧是背景音频还是命令词音频,从而能够代替vad模型完成对命令词片段的检测,节省vad模型带来的计算资源消耗和内存消耗。
[0052]
进一步地,由于不同类别的命令词使用不同的类别编号,在后续进行语音识别时,可直接根据类别编号找到对应的命令词,无需像传统命令词系统那样需要创建解码网络和生成状态网格,因此能够极大的降低命令词解码部分的内存消耗。
[0053]
一般情况下语音命令词的设置通常是产品设计者根据产品功能设计的固定词条,如智能手表中的命令词

回到表盘



打开微信



开始运动

等。但是用户使用中有时会在命令词前后增加自己的习惯用语,或嵌入在其他句子中间,将原本的设计者确定的命令词变成不确定的模糊命令词,例如命令词

打开微信

对应的实际语音可能是

我要打开微信



打开微信,我看下朋友圈



我每天醒来的第一件事就是打开微信

。近年来随着可穿戴设备、智能家居、智能车载的快速发展,产品设计者除了对命令词识别系统的计算资源和存储资源严苛的要求外,还要求命令词系统能够对模糊命令词准确识别。
[0054]
因此,在可能的实施例中,训练集中的命令词音频还包括模糊命令词音频,为了扩展模糊命令词的训练数据,可将背景音频与命令词音频的头部或尾部进行拼接,将拼接音频用于模型的训练,以提高声学模型对模糊命令词音频的识别准确率。
[0055]
在可能的实施例中,一个完整的训练集的获得过程如下:
[0056]
步骤101:根据命令词包含的单词确立命令词单词集[w1,w2,w3,...,wn],其中wn表示命令词包含的单词。从通用识别数据的标注文本中筛选出不包含命令词单词集的数据作为背景音频训练集。
[0057]
步骤102:使用通用语音识别模型对背景音频、命令词音频生成时间对齐信息,根据时间对齐信息确定每条音频中语音的开始时间和结束时间。随机抽取一条背景音频与当
前命令词音频配对,假设背景音频的文本为s1,语音部分的开始时间为t1秒,结束时间为t2秒,音频时长为t3秒。假设命令词音频的文本为s1语音部分的开始时间为t4秒,结束时间为t5秒,音频时长为t6秒。
[0058]
步骤103:假设命令词音频的信号为背景音频信号为s1(t),命令词音频信号为s2(t),取l=min(t3-t2,t4,0.1)得到汉宁窗。首先对背景音频信号s1(t)进行能量归一化,令归一化之后的信号平均能量与命令词音频信号s2(t)相等。随后将背景音频与命令词音频的头部使用汉宁窗进行拼接得到音频信号s3(t),具体公式如下:
[0059][0060][0061]
得到的拼接音频可以分成三个部分,第一部分t<t2时段为背景音频的信号,其中t=t1为背景语音开始时间,t=t2为背景语音结束时间。第二部分t2≤t<t2 l为背景音频与命令词音频静音部分的叠加,为了防止频谱泄露的产生,在这一段使用了汉宁窗。第三部分t2 l≤t<t2-t4 l t6为命令词音频的信号。其中t=t2 l为命令词语音开始时间,t=t2-t4 l t6为拼接音频结束时间。得到的拼接音频信号的时频谱图如图3所示。可以看到背景音频语音与命令词语音在时间上的间隔长度为l,当l足够小时得到的拼接音频可以近似等于模糊命令词语音。除了将背景音频与命令词头部进行拼接,也可以选择在尾部进行拼接。将拼接音频作为模糊命令词音频与命令词音频、背景音频混合,作为最终命令词模型的训练集。
[0062]
在可能的实施例中,s1中命令词语音对应的时刻为命令词结束时刻t及其前后第一时段(例如70毫秒)内的时刻。命令词结束时刻可以通过将命令词语音带入通用语音识别模型生成时间对齐信息得到。
[0063]
此外,对训练集中的音频生成时间对齐标注时,还可将命令词音频中的非命令词语音对应的时刻标注为类别编号-1,类别编号-1对应的时刻不参与声学模型目标函数的计算,以提高计算识别的准确度。
[0064]
在可能的实施例中,一个完整的对训练集的时间对齐标注过程如下:
[0065]
步骤201:对训练集中的命令词音频、模糊命令词音频、背景音频分别生成时间对齐标注。针对命令词音频和模糊命令词音频,两者时间对齐标注生成方法相同。首先根据步骤102(步骤103)确定命令词(模糊命令词)音频中命令词语音结束时间t,以t为中心,将左右70毫秒对应的时刻标注为该命令词对应的类别编号c(1≤c≤c),其余时刻标注为类别编号-1。类别编号c(1≤c≤c)表示该命令词的对应的类别,与命令词文本一一对应,假设命令词个数为c,则所有命令词的类别编号范围为[1,c],类别编号-1表示不确定,在后续将不会参与模型训练,得到的时间对齐标注如图4所示。
[0066]
步骤202:针对背景音频,将所有时刻均标注为类别编号0。类别编号0表示非命令词,用于对除了命令词之外所有音频信号(包括静音,噪声,人声语音等)进行建模。类别编号0将承担vad的功能,将音频中非命令词信号与命令词信号区分出来。
[0067]
步骤203:对步骤201和202中的时间对齐标注按照10毫秒为一帧进行分帧,将时间标注对齐标注转化为命令词编号的时间标注向量。例如某条命令词音频时长为200毫秒,命令词终止时间为100毫秒(仅举例,实际命令词音频时长一般在0.5秒到2秒),命令词对应的编号为5。根据步骤201,则会将30毫秒到170毫秒部分标注为5,其余时刻标注为-1。以10毫秒分帧之后最终的到的标注向量为[-1,-1,-1,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,-1,-1,-1]。
[0068]
s2具体包括:
[0069]
步骤204:对训练集中的音频进行分帧加窗后提取梅尔倒谱特征,与步骤201、202得到的时间对齐标注一起送入训练工具进行训练。模型结构使用一维卷积网络,模型感受野设置为160。使用类别编号作为声学模型的基本建模单元,假设命令词种类为c,那么总的建模单元个数为c 1,则声学模型输出层类别总数也为c 1。采用交叉熵准则作为声学模型训练目标函数,其公式如下:
[0070][0071]
上述公式中n表示音频标号,k表示帧步长,y
n,k
表示第n条音频对应的时间标注向量y在第k帧对应的命令词编号。p(n,k,y
n,k
)表示声学模型经过前向运算预测的第n条音频在第k帧判别为命令词编号y
n,k
的概率。当y
n,k
等于-1时,p(n,k,y
n,k
)将会被丢弃,不参与目标函数j的计算。计算目标函数j之后,使用反向传播算法计算声学模型参数的梯度,最后使用随机梯度算法对声学模型参数进行更新。经过训练之后便可得到第一阶段声学模型。
[0072]
进一步地,在上述第一阶段声学模型的训练过程中,由于标注向量是基于通用语音识别模型获得的,并不一定适合以类别编号作为建模单元的命令词模型的训练。因此可以以第一阶段声学模型为基础,重新进行标注和训练,以获得更精确的第二阶段声学模型。
[0073]
第二阶段声学模型训练过程包括:
[0074]
步骤301:使用步骤204得到的第一阶段声学模型对训练集梅尔倒谱特征进行前向运算,获得预测概率矩阵p(n,k,c),其中n表示音频编号,k表示帧步长,c表示类别编号。
[0075]
当音频n为命令词(模糊命令词)音频时,假设命令词编号为cn,则根据以下公式计算预测概率峰值对应的时间k
n,peak

[0076][0077]
随后将k
n,peak
左右若干帧(例如5帧)标注为命令词编号cn,其余帧标注为-1,得到该音频新的时间标注向量用于二阶段模型训练。
[0078]
图5展示了上述过程,图中最高的箭头对应的位置则是k
n,peak
,k
n,peak
左右5帧数据均标注为cn,其余时刻标注为-1。与步骤203生成的标注向量不同,本步骤不是使用通用语音识别模型,而是使用步骤204的命令词模型生成的标注向量,因此更适合于命令词模型的训练。
[0079]
优选地,第二阶段的训练还包括步骤302:当音频n为背景音频时,类别编号为0,则根据以下公式计算p(n,k,0)小于阈值e(例如0.5)对应的时刻集合k
low

[0080]klow
={k|p(n,k,0)<e}
[0081]
随后将属于集合k
low
的帧标注为0,其余时刻标注为-1。图6展示了上述过程,低于虚线的箭头对应的位置表示集合k
low
。集合k
low
表示预测概率较低的帧,将这些帧标注为0,而将其余预测概率较高的帧标注为-1,则在第二阶段训练过程中能够有针对性的对预测概率较低的帧进行优化。
[0082]
步骤303:将步骤301,302得到的训练集标注向量与训练集梅尔倒谱特征一起送入优化器进行训练,以步骤204得到的一阶段声学模型作为初始模型,将训练学习率调整为步骤204的十分之一,目标函数为依然为j,使用反向传播计算声学模型参数的梯度,最后使用随机梯度算法对声学模型参数进行更新。经过训练之后便可得到第二阶段声学模型。
[0083]
一个完整的从步骤101到步骤303的声学模型训练建模过程如图1所示。
[0084]
用一条短音频对上述声学模型进行测试:
[0085]
对短音频进行分帧加窗后提取梅尔倒谱特征,随后送入步骤303得到的第二阶段声学模型进行前向运算,得到预测概率矩阵p(k,c),其中k表示帧步长,c表示类别编号。由于模型采用类别编号作为建模单元,同时使用了文本丰富的背景数据对类别编号0进行训练,因此可以通过p(k,0)代替vad模型。测试表明,当输入音频为背景音频时,向量p(k,0)的数值均高于0.5,当输入音频为命令词(模糊命令词)时,p(k,0)仅在命令词结束附近的概率会低于0.5,其余时刻概率均高于0.5。说明基于此特点,可以使用p(k,0)直接替代vad模型完成长音频下命令词片段的检测,从而能够节省vad模型带来的计算资源消耗和内存消耗。
[0086]
在此基础上,本技术实施例提供了一种命令词片段检测方法,包括:获取音频,提取音频特征,输入上述声学模型建模方法得到的声学模型,逐帧检查类别编号0的预测概率,当类别编号0的预测概率大于第二阈值时,认为该帧音频命令为背景音频,当类别编号0的预测概率小于第二阈值时,认为该帧音频命令为命令词音频。
[0087]
例如,给定一条长音频(可能包含多个命令词,命令词之间可能包含非命令词语音),对音频进行分帧加窗提取梅尔倒谱特征,随后送入声学模型进行前向运算,得到概率矩阵p(k,c)。逐帧检查p(k,0),若p(k,0)小于0.5,则认为该帧为命令词帧,若p(k,0)大于0.5则认为该帧为非命令词帧。将相邻命令词帧组合到一起便能够得到一个命令词片段。
[0088]
容易理解地,还可利用不同命令词一一对应的编号实现解码。因此本技术实施例还提供了一种命令词片段解码方法,包括:获取音频,提取音频特征,输入上述声学模型建模方法得到的声学模型,计算命令词对应的编号的预测概率,根据最大似然估计得到的编号找到对应的命令词。
[0089]
假设通过上述命令词片段检测方法得到的命令词片段为ω={m,m 1,m 2,...,m l-1},其中l表示该片段的长度,m表示命令词片段的第一帧对应的帧步长,ω表示该片段的所有帧的集合。分别计算各命令词的似然度,使用如下公式进行最大似然估计:
[0090][0091]
其中符号表示最大似然估计得到的类别编号,将符号转化为对应的命令词文本,并输出到终端。随后对下一个命令词帧集合重复上述步骤,直至处理完所有的集合。由于解码过程中无需向传统命令词系统那样需要创建解码网络和生成状态网格,因此极大的降低了命令词解码部分的内存消耗。
[0092]
将上述命令词片段检测方法和解码方法相结合,便可获得一种命令词识别方法,如图2所示,包括:步骤401、输入音频并提取特征,带入声学模型,进行前向运算;步骤402、通过上述命令词片段检测方法检测命令词帧,将相邻的命令词帧组合到一起得到命令词片段;步骤403、通过上述命令词片段解码方法确定对应的命令词。
[0093]
容易理解地,本技术实施例还提供了一种设备,用于进行声学模型建模,该设备包括存储器和处理器;
[0094]
其中,存储器可用于存储指令、程序、代码、代码集或指令集。存储器可以包括存储程序区和存储数据区,其中存储程序区可存储用于实现操作系统的指令、用于至少一个功能的指令以及用于实现上述声音模型建模方法的指令等;存储数据区可存储上述声音模型建模方法中涉及到的数据等。
[0095]
处理器可以包括一个或者多个处理核心。处理器通过运行或执行存储在存储器内的指令、程序、代码集或指令集,调用存储在存储器内的数据,执行本技术的各种功能和处理数据。处理器可以为特定用途集成电路、数字信号处理器、数字信号处理装置、可编程逻辑装置、现场可编程门阵列、中央处理器、控制器、微控制器和微处理器中的至少一种。可以理解地,对于不同的设备,用于实现上述处理器功能的电子器件还可以为其它,本技术实施例不作具体限定。
[0096]
本技术实施例还提供一种设备,例如可以是智能音箱、车载终端、移动终端等,该设备包括存储器和处理器。当处理器执行存储器中的可执行指令时,能够实现上述的命令词片段检测方法,或命令词片段解码方法,或命令词识别方法。
[0097]
本技术实施例上述方法如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read only memory)、磁碟或者光盘等各种可以存储程序代码的介质。这样,本发明实施例不限制于任何特定的硬件和软件结合。
[0098]
综上所述,本技术实施例提供了一种低资源端到端的模糊命令词建模方法,通过该方法得到的声学模型无需语音端点检测和解码网络构建两个模块,简化了命令词系统的复杂度。由于无需创建解码网络和生成状态网格,可将语音解码部分(不含声学模型部分)的内存消耗控制在10kb以内,极大的扩展命令词系统在内存受限产品上的推广,并直接支持模糊命令词识别。
[0099]
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
[0100]
提供对本公开的先前描述是为使得本领域任何技术人员皆能够制作或使用本公开。对本公开的各种修改对本领域技术人员来说都将是显而易见的,且本文中所定义的普适原理可被应用到其他变体而不会脱离本公开的精神或范围。由此,本公开并非旨在被限定于本文中所描述的示例和设计,而是应被授予与本文中所公开的原理和新颖性特征相一致的最广范围。
[0101]
以上所述仅为本技术的较佳实例而已,并不用以限制本技术,凡在本技术的精神
和原则之内,所做的任何修改、等同替换、改进等,均应包含在本技术保护的范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献