一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

语音识别方法、装置、设备、介质及产品与流程

2022-04-16 15:25:24 来源:中国专利 TAG:


1.本技术涉及语音识别领域,具体而言,涉及一种语音识别方法、装置、设备、介质及产品。


背景技术:

2.随着语音识别技术的发展与商业化应用,语音识别技术越来越多的用于各类场景,比如客服、质检、车载、手机、音箱、家居等。其中,在通用应用场景下,由于端到端语音识别模型(即用于进行语音识别的神经网络模型)具有较强的拟合能力,能够取得较为明显的语音识别效果优势,因此,被广泛应用。
3.然而,发明人研究发现,端到端语音识别模型的拟合能力,也导致其存在领域化定制以及话术功能不成熟等问题,继而在对特定领域语音进行识别时,存在严重的误触发现象。因此,端到端语音识别模型难以同时适应通用场景与特定领域下的语音识别需求。


技术实现要素:

4.为了克服现有技术中的至少一个不足,本技术实提供一种语音识别方法、装置、设备及介质。
5.第一方面,本技术实施例提供一种语音识别方法,应用于电子设备,所述方法包括:
6.获取目标语音;
7.通过具有词典的语言模型识别所述目标语音的声学识别结果,获得所述目标语音的多个候选文本;
8.通过端到端语音识别模型的解码层对所述多个候选文本分别进行打分,获得各所述候选文本的得分;
9.根据各所述候选文本的得分,从所述多个候选文本中选取目标文本;
10.将所述目标文本作为所述目标语音的语音识别结果。
11.第二方面,本技术实施例提供一种语音识别装置,应用于电子设备,所述语音识别装置,包括:
12.语音获取模块,用于获取目标语音;
13.语音处理模块,用于通过具有词典的语言模型识别所述目标语音的声学识别结果,获得所述目标语音的多个候选文本;
14.所述语音处理模块,还用于通过端到端语音识别模型的解码层对所述多个候选文本分别进行打分,获得各所述候选文本的得分;
15.文本输出模块,用于根据各所述候选文本的得分,从所述多个候选文本中选取目标文本;
16.所述文本输出模块,还用于将所述目标文本作为所述目标语音的语音识别结果。
17.第三方面,本技术实施例提供一种电子设备,所述电子设备包括处理器以及存储
器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,实现所述的语音识别方法。
18.第四方面,本技术实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被所述处理器执行时,实现所述的语音识别方法。
19.第五方面,本技术实施例提供一种计算机程序产品,包括计算机程序/指令,所述计算机程序/指令被处理器执行时实现所述的语音识别方法。
20.相对于现有技术而言,本技术具有以下有益效果:
21.本实施例提供的语音识别方法、装置、设备、介质及产品中,电子设备通过具有词典的语言模型识别目标语音的声学识别结果,获得目标语音的多个候选文本;然后,通过端到端语音识别模型的解码层对多个候选文本分别进行打分,获得各候选文本的得分;并根据各候选文本的得分,从多个候选文本中选取目标文本;由于该语言模型中的词典以及文本语料可以根据特定领域的需要进行调整,因此,该方法不仅能够适应通用场景,而且还能够通过调整词典以及文本语料以适应特定领域的语音识别需求。
附图说明
22.为了更清楚地说明本技术实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本技术的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
23.图1为本技术实施例提供的电子设备的结构示意图;
24.图2为本技术实施例提供的传统混合语音识别模型的结构示意图;
25.图3为本技术实施例提供的语音识别方法的步骤流程图;
26.图4为本技术实施例提供的端到端语音识别模型与语言模型之间的数据流转示意图;
27.图5为本技术实施例提供的端到端语音识别模型的训练示意图;
28.图6为本技术实施例提供语音识别装置的结构示意图。
29.图标:120-存储器;130-处理器;140-通信装置;201-语音获取模块;202-音处理模块;203-文本输出模块。
具体实施方式
30.为使本技术实施例的目的、技术方案和优点更加清楚,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本技术一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本技术实施例的组件可以以各种不同的配置来布置和设计。
31.因此,以下对在附图中提供的本技术的实施例的详细描述并非旨在限制要求保护的本技术的范围,而是仅仅表示本技术的选定实施例。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
32.应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一
个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
33.在本技术的描述中,需要说明的是,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。此外,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
34.应该理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本技术内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
35.相关技术中,由于神经网络能够提供较强的拟合能力,因此,基于神经网络的端到端语音识别模型被广泛应用。例如,语音输入法、智能客服等领域。
36.发明人研究发现,为了提高端到端语音识别模型的通用能力,需要通过大量的语音文本成对的样本对其进行训练,这也导致了端到端语音识别模型在识别特定领域话术时,存在明显的效果瓶颈问题,其中在识别特定领域的话术时会存在严重的误触发现象。可以理解为,端到端语音识别模型的识别效果,受样本空间的影响,若想要端到端语音识别模型能够识别特定领域的话术,则需要提高样本空间中特定领域的样本比重,对端到端语音识别模型进行重新训练。因此,端到端语音识别模型难以同时适应通用场景与特定领域下的语音识别需求。
37.此外,发明人还研究发现,与端到端语音识别模型恰恰相反的是,传统混合语音识别模型则应用于各类特定领域场景下的语音识别。其中,传统混合语音识别模型可便捷地使用特定领域场景下的文本语料对语言模型进行优化,以达到提升在特定领域场景下的语音识别效果。
38.基于上述技术问题的发现,发明人经过创造性劳动提出下述技术方案以解决或者改善上述问题。需要注意的是,以上现有技术中的方案所存在的缺陷,均是发明人在经过实践并仔细研究后得出的结果,因此,上述问题的发现过程以及下文中本技术实施例针对上述问题所提出的解决方案,都应该是发明人在发明创造过程中对本技术做出的贡献,而不应当理解为本领域技术人员所公知的技术内容。
39.鉴于次,为了至少部分解决相关技术问题,本实施例提供一种应用于电子设备的语音识别方法。该方法中,通过将传统混合语音识别模型中的语言模型与端到端语音识别模型相结合,使得该方法不仅能够适应通用场景,而且还能适应特定领域的语音是被需求。
40.其中,本实施例所指的电子设备,可以是服务器或者用户终端。其中,该服务器可以是,但不限于,web(网站)服务器、ftp(file transfer protocol,文件传输协议)服务器等。在另外的一些实施场景中,该电子设备还可以是用户终端。其中,该用户终端可以是,但不限于,智能手机、智能语音助手(例如,智能音箱)、个人电脑(personal computer,pc)、平板电脑、个人数字助理(personal digital assistant,pda)、移动上网设备(mobile internet device,mid)、等。
41.本实施例还提供该电子设备的一种结构示意图。如图1所示,该电子设备可以包括存储器120、处理器130、通信装置140。
42.其中,存储器120、处理器130以及通信装置140各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。
43.其中,该存储器120可以是,但不限于,随机存取存储器(random access memory,ram),只读存储器(read only memory,rom),可编程只读存储器(programmable read-only memory,prom),可擦除只读存储器(erasable programmable read-only memory,eprom),电可擦除只读存储器(electric erasable programmable read-only memory,eeprom)等。其中,存储器120用于存储程序,该处理器130在接收到执行指令后,执行该程序。该通信装置140用于收发数据。
44.该处理器130可能是一种集成电路芯片,具有信号的处理能力。上述的处理器可以是通用处理器,包括中央处理器(central processing unit,简称cpu)、网络处理器(network processor,简称np)等;还可以是数字信号处理器(dsp)、专用集成电路(asic)、现场可编程门阵列(fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本技术实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
45.考虑到本实施例涉及到语音识别,因此,为了本领域技术人员能够更为清楚的理解本方案。下面先对本实施例涉及的相关术语进行解释说明。
46.首先,本实施例提供的语音识别方法使用了传统混合语音识别模型中的语言模型。如图2所示,传统混合语音识别模型在对目标语音进行识别时,通常包括特征提取、声学模型以及解码三个阶段。其中,在解码阶段,则需要具有词典的语言模型对待识别语音的声学特征进行解码。值得说明的是,该语言模型可以是,但不限于通用语言模型、领域语言模型、自适应语言模型等。本领域技术人员可以根据需要适应性进行选择。
47.其中,特征提取阶段:直接对目标语音的原始波形进行识别,并不能取得很好的识别效果,因此,需要将时域的语音波形信号转换成频域信号后,再进行特征提取。主流的声学特征系数包括线性预测倒谱系数(linear predictive cepstral coefficient,lpcc)和mel倒谱系数(mel frequency cepstrum coefficient,mfcc)、滤波器组(filter bank)。
48.其中,线性预测倒谱系数以发声模型作为出发点,利用lpc(linear predictive cepstral)技术求倒谱系数。mel倒谱系数则模拟听觉模型,把语音经过滤波器组模型的输出作为声学特征,然后利用离散傅里叶变换(discrete fourier transform,dft)进行变换。
49.声学模型阶段:通过声学模型对特征提取阶段获得的声学特征进行处理,获得目标语音的发音单元。其中,常见的声学模型包括隐马尔科夫模型、高斯混合模型等。应理解的是,单词的发音由发音单元构成。例如,英语的所有发音可以由卡内基梅隆大学提供的39个发音单元构成;中文的所有发音则可以由全部的声母以及韵母所表征的发音单元构成。其中,中文的发音单元包括带音调和未带有音调两种情况。
50.下面以带有音调的发音单元为例,进行示例性说明。“我”的发音由“w”和“o_3”这两个发音单元构成;“爱”的发音由“ai_4”这一个发音单元构成。其中,“o_3”中的“3”表示发3声,“ai_4”中的“4”表示发4声。
51.并且,假定该目标语音为中文语音,本实施例中包括多个发音单元的发音单元序
列可以对应一个或多个中文的文字,本实施例不做具体的限定。例如,若该发音单元序列中的发音单元为“w、o_3”时,该发音单元序列可以对应中文“我”;若该发音单元序列中的发音单元为“w、o_3、ai_4”,则该发音单元序列可以对应中文“我爱”。
52.解码阶段:由于发音单元相对于整个目标语音而言是相对独立的,并且,同样的发音单元还存在同音字的情况;因此,需要语言模型使用词典将相对孤立分散的发音单元进行解码,以获得与目标语音相匹配的目标文本。
53.此外,本实施例还涉及到热词以及词典。其中,热词指的是在特定领域当中高频出现的词汇,或者,在特定时间段高频出现的词汇。
54.示例性的,在语音识别领域,“梅尔频率倒谱系数”、“声学”、“语言模型”、“声学模型”、“马尔科夫”等,则属于该语音识别领域的热词。同理,在图像识别领域,“卷积”、“卷积核”、“卷积层”、“训练”、“样本”、“标签”等,则属于该图像识别领域的热词。
55.词典:词典中包含能够处理的单词集合,用于根据声学模型识别出来的发音单元,来找到对应的文本。
56.下面结合上述相关术语的介绍,对本实施例提供的语音识别模型进行详细阐述。如图3所示,该语音识别方法包括:
57.步骤s101,获取目标语音。
58.应理解,本实施例所指的目标语音为待识别语音,并且,该目标语音可以是,但不限于中文语音、英文语音等。此外,本实施例并不限制该目标语音的语音时长,本领域技术人员可以根据需要,进行适应性调整。
59.步骤s102,通过具有词典的语言模型识别目标语音的声学识别结果,获得目标语音的多个候选文本。
60.其中,该语音识别模型即为传统混合语音识别模型中的语言识别模型,该声学识别结果表示从目标语音中识别出的发音单元。因此,电子设备可以通过具有词典的语言模型识对目标语音的发音单元进行分析,获得多个候选文本。其中,本实施例不对多个候选文本的具体数量进行限制,本领域技术人员可以根据实际需要进行适应性调整。
61.需要说明的是,传统混合语音识别模型,在热词、词边界、语言模型自适应等方面,具有很好的识别效果,且已经得到商业化应用。而传统混合语音识别模型中的语言模型具有词典,因此,在面对特定领域的语音识别需求时,可以对语言模型的词典进行适应性调整。例如,针对喜欢听歌的用户群体以及喜欢听新闻的用户群体,可以使用不同的词典。
62.作为一种可能的实现方式,电子设备可以接收对词典中热词的权重调整操作;然后,响应于该权重调整操作,调整该热词在词典的权重。由此,将语言模型引入到端到端语音识别模型中,可以适应特定领域的话术,继而提高语音识别精度。
63.示例性的,假定目标语音的实际文本为“我要削笔”,但语言模型识别出的候选文本可能存在以下情况:
64.(我要削一支笔,0.4、1.5);
65.(我要买笔,0.5,1.8);
66.(我要消笔,0.7、0.9);
67.(我要削笔,0.7、1.8)。
68.其中,“(我要削一支笔,0.4、1.5)”中,“0.4”表示“我要削一支笔”的声学得分,“1.5”表示“我要削一支笔”的语言模型得分。
69.以“(我要消笔,0.7、0.9)”与“(我要削笔,0.7、1.8)”为例,两者的发音单元序列一致,声学得分一致,但“我要消笔”的文本话术不合理,因此,其语言模型得分低于“我要削笔”的语言模型得分。
70.步骤s103,通过端到端语音识别模型的解码层对多个候选文本分别进行打分,获得各候选文本的得分。
71.本实施例中的端到端语音识别模型又名seq2seq模型,包括编码层以及解码层;其中,编码层用于对输入序列进行编码;解码层用于将编码层输出的编码向量进行解码,以获得输出序列。如此,通过该seq2seq模型构建输入序列与输出序列之间的映射关系。例如,本实施例中的端到端语音识别模型,其输入序列为目标语音,其输出序列为目标语音对应的目标文本。
72.其中,解码层的工作原理可以表示为:
73.y1=f(e);
74.y2=f(e,y1);
75.y3=f(e,y1,y2);
76.yn=f(e,y1,y2...yn);
77.式中,e表示编码层输出的编码向量,y1表示解码层依据编码向量解码出的一个子序列;而解码层在获得子序列y2时,则需要依赖于编码向量e以及子序列y1;解码层在获得数子序列y3时,则需要依赖于编码向量e、子序列y1以及子序列y2;最后,解码层对子序列组合而成的“y1、y1、y1…yn”进行打分。
78.基于解码层上述的工作原理,将本实施例中的每个候选文本用于替换上述“y1、y1、y1…yn”,如此,以获得每个候选文本的得分。即电子设备将多个候选文本输入到解码层,由解码层对多个候选文本分别进行打分,获得各候选文本的得分。
79.步骤s104,根据各候选文本的得分,从多个候选文本中选取目标文本。
80.示例性的,该电子设备可以根据每个候选文本的得分,从中选取得分最高的候选文本作为目标文本。
81.步骤s105,将目标文本作为目标语音的语音识别结果。
82.由此,电子设备通过具有词典的语言模型识别目标语音的声学识别结果,获得目标语音的多个候选文本;然后,通过端到端语音识别模型的解码层对多个候选文本分别进行打分,获得各候选文本的得分;并根据各候选文本的得分,从多个候选文本中选取目标文本;由于该语言模型中的词典以及文本语料可以根据特定领域的需要进行调整,因此,该方法不仅能够适应通用场景,而且还能够通过调整词典以及文本语料以适应特定领域的语音识别需求。
83.本实施例中,语言识别模型所识别的声学识别结果源自于端到端语言识别模型。请参照图4,本实施例提供一种语言识别模型与端到端语音识别模型之间的数据流转关系图。
84.如图4所示,端到端语音识别模型还包括编码层以及连接时序分类层,电子通过具有词典的语言模型识别目标语音的声学识别结果之前,通过编码层对目标语音进行编码,获得目标语音的声学编码信息;将声学编码信息输入到连接时序分类层进行处理,获得目
标语音的声学识别结果。
85.其中,该连接时序分类(connectionist temporal classification,ctc)层,用于对声学编码信息进行分类,获得目标语音对应的发音单元,使得语言模型能够根据发音单元获得目标语音的候选文本。
86.为了提高端到端语音识别模型的识别精度,请在此参见图4,在端到端语音识别模型的编码层与解码层之间还配置有注意力机制层。基于该注意力机制层,电子设备通过注意力机制层对声学编码信息进行调整;然后,将调整后的声学编码信息输入到解码层,使得解码层依据调整后的声学编码信息对多个候选文本分别进行打分,获得各候选文本的得分。
87.此外,本实施例中的端到端语音识别模型属于一种机器学习模型,因此,本实施例还提供有相应的训练法方法;而在该训练方法中,则通过连接时序分类层的声学损失对注意力机制层形成约束。
88.如图5所示,电子设备获取样本语音;将样本语音输入到配置的待训练模型进行识别;最后,根据待训练模型识别样本语音的声学损失以及文本损失,调整待训练的语音识别模型的模型参数,以获得上述端到端语音识别模型。
89.其中,该待训练模型与端到端语音识别模型具有相同的模型结构,因此,不再对其进行赘述,具体可以参见图4中端到端语音识别模型的详细描述。继续参见图5,该声学损失由连接时序分类层输出的预测发音进行计算获得,文本损失由解码层输出的预测文本进行计算获得,因此,上述声学损失可以基于连接时序分类准则获得,文本损失可以基于交叉熵准则获得。
90.电子设备融合声学损失以及文本损失以获得融合损失,然后,通过反向梯度传播算法的方式,调整待训练模型的模型参数,直到待训练模型满足预设收敛条件时,获得预训练的端到端语音识别模型。作为一种实现方式,电子设备可以使用声学损失与文本损失各自的预设权重,进行加权求和,获得该融合损失。例如,假定声学损失的权重是0.5时,则文本损失的权重同样为0.5。
91.此外,上述预设收敛条件可以是,但不限于,模型损失值不再下降时停止迭代;在迭代次数达到设定次数时停止迭代,或者,模型损失值低于设定阈值时停止迭代。因此,本领域技术人员可以根据训练目标,进行适应性选择。
92.基于与语音识别方法相同的发明构思,本实施还提供一种语音识别装置,应用电子设备。其中,语音识别装置包括至少一个可以软件形式存储于存储器120中的功能模块。如图6所示,从功能上划分,语音识别装置可以包括:
93.语音获取模块201,用于获取目标语音。
94.本实施例中,该语音获取模块201用于实现图3中的步骤s101,关于该语音获取模块201的详细描述,可以参见步骤s101的详细描述。
95.语音处理模块202,用于通过具有词典的语言模型识别目标语音的声学识别结果,获得目标语音的多个候选文本;
96.语音处理模块202,还用于通过端到端语音识别模型的解码层对多个候选文本分别进行打分,获得各候选文本的得分;
97.本实施例中,该语音处理模块202用于实现图3中的步骤s102-s103,关于该语音处
理模块202的详细描述,可以参见步骤s102-s103的详细描述。
98.文本输出模块203,用于根据各候选文本的得分,从多个候选文本中选取目标文本;
99.文本输出模块203,还用于将目标文本作为目标语音的语音识别结果。
100.本实施例中,该文本输出模块203用于实现图3中的步骤s104-s105,关于该文本输出模块203的详细描述,可以参见步骤s104-s105的详细描述。
101.可选地,端到端语音识别模型还包括编码层以及连接时序分类层,通过具有词典的语言模型识别目标语音的声学识别结果之前,语音处理模块202还用于:
102.通过编码层对目标语音进行编码,获得目标语音的声学编码信息;
103.将声学编码信息输入到连接时序分类层进行处理,获得目标语音的声学识别结果。
104.此外,需要说明的是,该语音识别装置还可以包括其他软件功能模块,用于实现上述语音识别方法的其他步骤或者子步骤。同理,上述语音获取模块201、语音处理模块202以及文本输出模块203,同样可以用于实现上述语音识别方法的其他步骤或者子步骤。对此,本实施例不做具体的限定。
105.可选地,本实施例还提供一种电子设备,电子设备包括处理器以及存储器,存储器存储有计算机程序,计算机程序被处理器执行时,实现本实施例提供的语音识别方法。
106.本实施例还提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时,实现本实施例提供的语音识别方法。
107.本实施例还提供一种计算机程序产品,包括计算机程序/指令,计算机程序/指令被处理器执行时实现的语音识别方法。
108.综上所述,本实施例提供的语音识别方法、装置、设备、介质及产品中,电子设备通过具有词典的语言模型识别目标语音的声学识别结果,获得目标语音的多个候选文本;然后,通过端到端语音识别模型的解码层对多个候选文本分别进行打分,获得各候选文本的得分;并根据各候选文本的得分,从多个候选文本中选取目标文本;由于该语言模型中的词典以及文本语料可以根据特定领域的需要进行调整,因此,该方法不仅能够适应通用场景,而且还能够通过调整词典以及文本语料以适应特定领域的语音识别需求。
109.在本技术所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本技术的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
110.另外,在本技术各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
111.所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
112.以上所述,仅为本技术的各种实施方式,但本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本技术的保护范围之内。因此,本技术的保护范围应所述以权利要求的保护范围为准。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献