一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种文本生成模型及文本生成方法与流程

2022-05-11 11:18:27 来源:中国专利 TAG:


1.本公开涉及计算机网络技术领域,尤其涉及文本生成方案。


背景技术:

2.自然语言生成(nlg)是自然语言处理(nlp)领域的重要组成部分,他的主要目的是降低人类和机器之间的沟通鸿沟,将非语言格式的数据转换成人类可以理解的语言格式。
3.学术界目前常用编码器-解码器(encoder-decoder)网络结构进行文本生成,encoder用来分析输入数据(通常为序列),将输入序列压缩成指定长度的向量,这个向量用来指示这个序列的语义。decoder用来负责将语义向量、属性的特征表示等解码生成自然语言。
4.现有的网络结构对于生成连贯的短文本有较好的效果,但对于段落式的长文本而言,无法在生成过程中对输入数据动态建模、很好地捕获长文本复杂的语义结构,导致无法获取远距离的信息,进而造成生成文本质量不佳。
5.另外,对于广告类的长文本而言,生成文本的多样性也十分关键。通常来说,传统模型对应一组输入只能给出一组或几组固定的输出,但对于广告、评论等应用场景,频繁出现重复的文本是不可接受的。
6.因此,需要一种新的文本生成方案,以解决生成段落式的长文本时,语义表达不连贯、多样性匮乏的问题。


技术实现要素:

7.本公开提供了一种文本生成模型及文本生成方法,以力图解决或者至少缓解上面存在的至少一个问题。
8.根据本公开的一个方面,提供了一种解码模块,适于布置在文本生成模型中,与编码模块相耦接,包括:子句内容规划单元,与编码模块耦接,适于接收编码模块的输出,对编码模块输出的第一向量进行处理,以确定出至少一个指示子句语义特征的第二向量;单词生成单元,与子句内容规划单元耦接,适于对第二向量进行处理,生成多个单词对应的词向量,以及,利用词向量,组合成至少一个句向量,来生成长文本。
9.可选地,在根据本公开的解码模块中,单词生成单元还适于,在每个时间步进行束搜索,得到各句向量的概率值;按照概率值从大到小的顺序,依序选取第一数量个句向量,作为候选序列;针对候选序列,分别计算每两个句向量之间的差异值;基于差异值,重构候选序列;重复迭代计算差异值的步骤和重构候选序列的步骤,直至差异值满足预设条件时,确定出属于候选序列的句向量。
10.可选地,在根据本公开的解码模块中,单词生成单元还适于,当两个句向量的差异值大于阈值时,从候选序列中移除这两个句向量中的一个;依序增加一个概率值最大的句向量至候选序列,来重构出候选序列。
11.可选地,在根据本公开的解码模块中,子句内容规划单元还适于,基于编码模块输
出的第一向量和上一时间步所输出的子句语义特征,确定出当前时间步子句语义特征的概率分布;基于概率分布,生成指示当前时间步的子句语义特征的第二向量。
12.可选地,在根据本公开的解码模块中,子句语义特征至少包括以下特征中的一个:子句的实体属性、主题特征、情感特征。
13.可选地,在根据本公开的解码模块中,子句内容规划单元采用循环神经网络或长短期记忆网络。
14.根据本公开的另一方面,提供了一种文本生成模型,包括:编码模块,适于对输入数据进行处理,以提取出指示其语义特征的第一向量;如上所述的解码模块,与编码模块耦接,适于对第一向量进行处理,以生成至少一个句向量,来组成长文本。
15.根据本公开的再一方面,提供了一种文本生成方法,包括步骤:从输入数据中提取出指示其语义特征的第一向量;基于第一向量,确定出至少一个指示子句语义特征的第二向量;对第二向量进行处理,生成多个词向量;以及利用词向量,组合成至少一个句向量,来生成长文本。
16.根据本公开的再一方面,提供了一种计算设备,包括:一个或多个处理器存储器;一个或多个程序,其中所述一个或多个程序存储在存储器中并被配置为由一个或多个处理器执行,一个或多个程序包括用于执行如上任一方法的指令。
17.根据本公开的再一方面,提供了一种存储一个或多个程序的计算机可读存储介质,一个或多个程序包括指令,指令在被计算设备执行时,使得计算设备执行如上所述的任一方法。
18.综上所述,根据本公开的解码模块,通过引入子句内容规划单元,将解码器结构划分层次,不是一次性生成整个句子,而是先确定子句表述内容,再进行单词生成。在单词生成单元进行单词生成时,通过设置束搜索的限制条件,来实现多样化的文本生成。整个方案充分利用句子级别和单词级别的表示,充分捕捉长文本不同粒度的语义信息,来生成语义连贯且不重复的长文本。
附图说明
19.为了实现上述以及相关目的,本文结合下面的描述和附图来描述某些说明性方面,这些方面指示了可以实践本文所公开的原理的各种方式,并且所有方面及其等效方面旨在落入所要求保护的主题的范围内。通过结合附图阅读下面的详细描述,本公开的上述以及其它目的、特征和优势将变得更加明显。遍及本公开,相同的附图标记通常指代相同的部件或元素。
20.图1示出了根据本公开一些实施例的计算设备100的示意图;
21.图2示出了根据本公开一些实施例的文本生成模型200的示意图;
22.图3示出了根据本公开一些实施例的解码模块220的结构示意图;以及
23.图4示出了根据本公开一些实施例的文本生成方法400的流程示意图。
具体实施方式
24.下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例
所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
25.如前文所述,在进行描述性长文本生成的encoder-decoder网络结构中,长文本天然的语言特性,会导致生成文本语义表达不连贯、多样性匮乏的问题。通常对于这一类场景,可以尽可能提高训练数据集的数量及质量,保证在训练过程中数据的多样化。但在实践过程中,单纯靠多样化训练数据来改善长文本的生成,效果并不理想。
26.本公开通过对decoder阶段的神经网络进行改造,设计一个层次化的解码器结构作为生成网络,充分捕捉长文本句子间的语义信息。
27.根据本公开实施例所提供的文本自动生成方案,应用在广告、评论等生成描述性长文本的场景中,一方面,使得输出的文本是连贯的,另一方面,保证文本的多样性,避免在长文本中出现大量的重复语句。
28.本公开实施例的文本自动生成方案,可以在一台或多台计算设备中执行。图1是示例计算设备100的框图。
29.在基本的配置102中,计算设备100典型地包括系统存储器106和一个或者多个处理器104。存储器总线108可以用于在处理器104和系统存储器106之间的通信。
30.取决于期望的配置,处理器104可以是任何类型的处理,包括但不限于:微处理器(μp)、微控制器(μc)、数字信息处理器(dsp)或者它们的任何组合。处理器104可以包括诸如一级高速缓存110和二级高速缓存112之类的一个或者多个级别的高速缓存、处理器核心114和寄存器116。示例的处理器核心114可以包括运算逻辑单元(alu)、浮点数单元(fpu)、数字信号处理核心(dsp核心)或者它们的任何组合。示例的存储器控制器118可以与处理器104一起使用,或者在一些实现中,存储器控制器118可以是处理器104的一个内部部分。
31.取决于期望的配置,系统存储器106可以是任意类型的存储器,包括但不限于:易失性存储器(诸如ram)、非易失性存储器(诸如rom、闪存等)或者它们的任何组合。系统存储器106可以包括操作系统120、一个或者多个应用122以及程序数据124。在一些实施方式中,应用122可以布置为在操作系统上利用程序数据124进行操作。
32.计算设备100还可以包括有助于从各种接口设备(例如,输出设备142、外设接口144和通信设备146)到基本配置102经由总线/接口控制器130的通信的接口总线140。示例的输出设备142包括图形处理单元148和音频处理单元150。它们可以被配置为有助于经由一个或者多个a/v端口152与诸如显示器或者扬声器之类的各种外部设备进行通信。示例外设接口144可以包括串行接口控制器154和并行接口控制器156,它们可以被配置为有助于经由一个或者多个i/o端口158和诸如输入设备(例如,键盘、鼠标、笔、语音输入设备、触摸输入设备)或者其他外设(例如打印机、扫描仪等)之类的外部设备进行通信。示例的通信设备146可以包括网络控制器160,其可以被布置为便于经由一个或者多个通信端口164与一个或者多个其他计算设备162通过网络通信链路的通信。
33.网络通信链路可以是通信介质的一个示例。通信介质通常可以体现为在诸如载波或者其他传输机制之类的调制数据信号中的计算机可读指令、数据结构、程序模块,并且可以包括任何信息递送介质。“调制数据信号”可以是这样的信号,它的数据集中的一个或者多个或者它的改变可以在信号中编码信息的方式进行。作为非限制性的示例,通信介质可以包括诸如有线网络或者专线网络之类的有线介质,以及诸如声音、射频(rf)、微波、红外
(ir)或者其它无线介质在内的各种无线介质。这里使用的术语计算机可读介质可以包括存储介质和通信介质二者。在一些实施例中,计算机可读介质中存储一个或多个程序,这一个或多个程序中包括执行某些方法的指令。
34.计算设备100可以实现为小尺寸便携(或者移动)电子设备的一部分,这些电子设备可以是诸如蜂窝电话、个人数字助理(pda)、个人媒体播放器设备、无线网络浏览设备、个人头戴设备、应用专用设备、或者可以包括上面任何功能的混合设备。计算设备100还可以实现为包括桌面计算机和笔记本计算机配置的个人计算机。计算设备100也可以实现为具有上述配置的服务器。
35.在根据本公开的实施例中,计算设备100被配置为执行文本生成方法,其中,计算设备100的应用122中包含执行根据本公开的文本生成方法400的多条程序指令,而程序数据124中还可以存储用于执行该方法400的文本生成模型200的相关数据,包括不限于训练数据、超参数信息等。
36.图2示出了根据本公开一些实施例的文本生成模型200的示意图。文本生成模型200用于对输入的序列进行处理,来生成文本,尤其是段落式的长文本。
37.文本生成模型200包括耦接的编码模块210和解码模块220。根据本公开的一些实施方式,编码模块210和解码模块220均采用循环神经网络(recurrent neural networks,rnn)。
38.如图2所示,编码模块210接收输入数据,对输入数据进行处理,以提取出输入数据的语义特征。输入数据可以是文本、数字、图像等,通常以序列的形式输入编码模块210。
39.在一种实施例中,编码模块210的作用是把一个不定长的输入序列变换成一个定长的语义变量,记作第一向量。这个第一向量就指示了输入数据的语义特征。
40.假设输入序列是x1,...,x
t
,其中xi是输入序列中的第i个词,在时间步t,rnn将输入x
t
的特征向量x
t
和上个时间步的隐藏状态h
t-1
变换为当前时间步的隐藏状态h
t
。用函数f表达rnn隐藏层的变换:
41.h
t
=f(xt,h
t-1
)
42.接下来,编码模块210通过自定义函数q,将各个时间步的隐藏状态变换为第一向量:
43.z=q(h1,...,h
t
)
44.例如,当选择q(h1,...,h
t
)=h
t
时,第一向量是输入序列最终时间步的隐藏状态h
t

45.以上描述的编码模块210是一个单向的rnn,每个时间步的隐藏状态只取决于该时间步及之前的输入子序列。根据本公开的实施方式,也可以使用双向rnn来构造编码模块210。在这种情况下,编码模块210每个时间步的隐藏状态同时取决于该时间步之前和之后的子序列(包括当前时间步的输入),并编码了整个序列的信息。此处不再展开。
46.解码模块220接收第一向量,在对第一向量进行处理后,生成至少一个句向量,来组成长文本。
47.在现有的文本生成模型中,通用的解码器结构是从编码器获得的隐变量信息(即,第一向量)中直接生成单词,每个时间步生成一个单词,由单词拼接形成句子。
48.根据本公开的解码模块220,将解码器结构划分层次,不是一次性生成整个句子,
而是先确定子句表述内容,再进行单词生成,以充分利用句子级别和单词级别的表示,充分捕捉长文本不同粒度的语义信息,以生成语义连贯且不重复的长文本。
49.如图2所示,解码模块220又包括子句内容规划单元222和单词生成单元224。图3示出了根据本公开一些实施例的解码模块220的结构示意图。
50.如图3,子句内容规划单元222接收编码模块210输出的第一向量(如图3中所示的z),对第一向量进行处理,以确定出至少一个指示子句语义特征的第二向量,子句语义特征在图3中表示为mt n。
51.根据本公开的实施方式,一个子句可以包含多个子句语义特征。在一种实施例中,子句语义特征表示了每个子句要表述的属性和特征值,其至少包括以下特征中的一个:子句的实体属性、主题特征、情感态度特征(例如褒贬情感等),不限于此。子句语义特征用于指导单词生成单元224的文本生成任务,将文本生成任务限定范围,从而将长文本的生成任务划分为子句生成的子任务。
52.在一种实施例中,子句语义特征mt n以二元组的数学形式表达,以适配多种语义特征,表达形式如下,ti表示第i个子句所有的语义特征:
53.ti={mt-n,...,mt,mt n}
54.ti={《x
t-n
,y
t-n
》,
……
《x
t
,y
t
》,
……
《x
t n
,y
t n
》},
55.其中,《x
t
,y
t
》在此处的数学表达是特征向量:
56.x
t
={mc},c∈{1,2,...c
hidden
}
57.y
t
={mc},c∈{1,2,...c
hidden
}
58.结合图3,在子句内容规划单元222中,st-1,st,st 1分别表示一个循环神经网络在t-1,t和t 1时刻的状态。st表示该循环神经网络在t时刻所处的状态,它的输入包括编码模块210的输出的第一向量z以及st-1的隐藏层输出w。该输出w代表了一个子句的处理,即ti。换言之,子句内容规划单元222基于编码模块210输出的第一向量和上一时间步所输出的子句语义特征,解码后得到当前时间步的子句语义特征。
59.根据本公开的实施例,子句内容规划单元222采用循环神经网络(rnn)或长短期记忆网络(lstm)。
60.如前文所述,子句内容规划单元222输出的第二向量ti是一个c
hidden
维的向量,而ti中具体包含几个语义特征,则要依据rnn或lstm网络中超参数阈值p来进行判断。在一种实施例中,子句内容规划单元222可以利用自定义的输出层和softmax运算,来基于编码模块210输出的第一向量和上一时间步所输出的子句语义特征,确定出当前时间步子句语义特征的概率分布。之后,基于该概率分布,生成指示当前时间步的子句语义特征的第二向量。具体地,第二向量中包含c
hidden
维语义特征,作为候选语义特征。通过概率分布确定出每个候选语义特征属于当前时间步的子句的概率值,仅当候选语义特征属于该子句的概率值大于阈值p时,才将该语义特征输出(例如,将其对应在第二向量中的数字输出为1);否则,不输出该语义特征(例如,将其对应在第二向量中的数字输出为0)。
61.根据本公开的实施方式,子句内容规划单元222可以作为一个通用单元,在不影响原始网络结构的情况下插入到不同解码器网络结构中,进行子句生成任务的确定,从而将解码器划分层次,捕捉到子句语义特征,以便于生成语义连贯的长文本。
62.继续如图3,除子句内容规划单元222外,解码模块220还包括单词生成单元224。单
词生成单元224可以采用通用的解码器网络结构,通过对特定词语的选择,捕捉细粒度的语义特征。在一种实施例中,单词生成单元224先对第二向量进行处理,生成多个单词对应的词向量。之后,利用词向量,组合成至少一个句向量,来生成长文本。
63.根据本公开的实施方式,单词生成单元224的整体设计思路是对束搜索进行扩展,以增加文本多样性,其核心思想是在解码器的束搜索的过程中加入多样性的限制条件。
64.如图3,在单词生成单元224中,ht-p,...,ht-2,ht-1,ht,ht 1,...分别表示一个循环神经网络在t-p,t-2,t-1,t,t 1...等时刻的状态。以ht为例,其表示该循环神经网络在t时刻所处的状态,它的输入包括子句内容规划单元222的输出的对应时间步的第二向量、以及ht-1的隐藏层输出w;它的输出yt与ht 1时刻的输出yt 1,组合得到一个句向量,对应子句“however”。关于解码模块的更具体地描述,可参考前文对编码模块210的描述及现有的编码器结构,此处不再赘述,本公开在现有的解码模块的基础上,引入了束搜索的限制条件,在下文中会对其进行重点阐述。
65.单词生成单元224先对第二向量进行解码,以得到指示单词的词向量。本公开对此不做过多限制,采用通用的解码器处理方式即可。
66.在一种实施例中,单词生成单元224通过如下方式来从词向量中组合生成句向量。
67.第一步,在每个时间步进行束搜索,得到各句向量的概率值。按照概率值从大到小的顺序,依序选取第一数量个句向量,作为候选序列。假设,各句向量按照概率值从大到小的顺序,记为:1,2,3,...,k,k 1,...。第一数量为k,则依序保留前k个最大概率值的句向量(即,序列),形成候选序列。
68.第二步,针对候选序列,分别计算每两个句向量之间的差异值。在一种实施例中,将候选序列中的句向量两两分组,计算每两个句向量之间的差异值。差异值可以定义为两个句向量的欧氏距离值,当然不限于此。
69.假设两个句向量表示为,a(x
11
,x
12
……
x
1n
)与b(x
21
,x
22
……
x
2n
),则两个句向量之间的差异值s
ab
通过如下公式来确定:
[0070][0071]
第三步,基于差异值,重构候选序列。在一种实施例中,设定超参数:关于差异分数的阈值t。当两个句向量的差异值大于该阈值t时,从候选序列中移除这两个句向量中的一个。可选地,从这两个句向量中随机选取一个句向量进行移除。同时,依序增加一个概率值最大的句向量(即,第k 1个句向量)至候选序列,来重构出候选序列。
[0072]
第四步,基于重构的候选序列,重复迭代计算差异值的步骤(即,上述第二步)和重构候选序列的步骤(即,上述第三步),直至所算得的差异值满足预设条件时,确定出属于候选序列的句向量。如前文所述,预设条件,即两个句向量的差异值不大于阈值t。
[0073]
最后,若两个句向量的差异值不大于阈值t,则每个时间步不断地延展序列,直到解码阶段完成。
[0074]
根据本公开的单词生成单元224,在束搜索的过程中,通过计算句子间的差异值,来增加多样性限制条件,这样,在增加文本多样性的同时,也保证了生成文本之间的差异
性。
[0075]
需要说明的是,不论是子句内容规划单元222、单词生成单元224、还是由二者所组成的解码模块220,均可以作为一个通用的网络模块,单独插入通用的解码器网络结构中或直接作为解码器网络,而不影响原始神经网络的结构。将此网络模块的神经元参数引入神经网络的参数集合和损失函数,通过梯度反向传播,整个神经网络不断学习,直至网络参数收敛。
[0076]
本公开的文本生成模型200,主要解决了长文本生成中语义不连贯以及多样性不足的问题,将文本生成中常见的encoder-decoder结构的解码器划分层次,引入子句内容规划单元222,用于捕捉句子级别的语义信息,即较高层次的语义特征:句子的主题、表达的褒贬情感等。另外,还利用差异化的束搜索设计单词生成单元224,用于生成表达形式多样的长文本。
[0077]
图4示出了根据本公开一些实施例的文本生成方法400的流程示意图。文本生成方法400基于文本生成模型200来执行。需要说明的是,方法400的执行流程,与文本生成模型200和解码模块220的相关描述互为补充,重复之处不再赘述。
[0078]
概括来讲,方法400的执行流程为,将输入数据输入文本生成模型200中,经处理后输出包含多个句子的长文本。输入数据可以是文本、图像、音频、文本等,本公开对此不作限制。以下对各执行步骤进行说明。
[0079]
如图4所示,该文本生成方法400始于步骤s410。在步骤s410中,基于编码模块210,从输入数据中提取出指示其语义特征的第一向量。
[0080]
随后在步骤s420中,基于第一向量,利用解码模块220中的子句内容规划单元222,确定出至少一个指示子句语义特征的第二向量。
[0081]
随后,在步骤s430中,利用解码模块220中的单词生成单元224,对第二向量进行处理,生成多个词向量。
[0082]
随后,在步骤s440中,利用词向量,组合成至少一个句向量,来生成长文本。
[0083]
根据一种实施例,在每个时间步进行束搜索,得到各句向量的概率值。按照概率值从大到小的顺序,依序选取第一数量个句向量,作为候选序列。之后,针对该候选序列,分别计算每两个句向量之间的差异值。并基于差异值,重构候选序列。之后,重复迭代计算差异值的步骤和重构候选序列的步骤,直至差异值满足预设条件时,确定出属于候选序列的句向量。关于差异值的计算和预设条件的设置,可参考前文相关描述。
[0084]
根据本公开的文本生成方法,通过步骤s420,将长文本生成任务划分为多个子任务,充分捕捉子句间的语义信息,从而改善语义不连贯的问题。通过步骤s430和步骤s440,在束搜索时加入差异性考量,增加文本多样性。
[0085]
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本公开的实施例可以在没有这些具体细节的情况下被实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
[0086]
类似地,应当理解,为了精简本公开并帮助理解各个公开方面中的一个或多个,在上面对本公开的示例性实施例的描述中,本公开的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本公开要求比在每个权利要求中所明确记载的特征更多特征。更确切地说,如下面的
权利要求书所反映的那样,公开方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本公开的单独实施例。
[0087]
本领域那些技术人员应当理解在本文所公开的示例中的设备的模块或单元或组件可以布置在如该实施例中所描述的设备中,或者可替换地可以定位在与该示例中的设备不同的一个或多个设备中。前述示例中的模块可以组合为一个模块或者此外可以分成多个子模块。
[0088]
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
[0089]
本公开还公开了:
[0090]
a6、如a2所述的解码模块,其中,所述单词生成单元还适于通过以下方式来确定两个句向量之间的差异值:
[0091][0092]
其中,两个句向量表示为,a(x
11
,x
12
……
x
1n
)与b(x
21
,x
22
……
x
2n
)。
[0093]
a7、如a1-6中任一项所述的解码模块,其中所述子句内容规划单元采用循环神经网络或长短期记忆网络。
[0094]
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本公开的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
[0095]
此外,所述实施例中的一些在此被描述成可以由计算机系统的处理器或者由执行所述功能的其它装置实施的方法或方法元素的组合。因此,具有用于实施所述方法或方法元素的必要指令的处理器形成用于实施该方法或方法元素的装置。此外,装置实施例的在此所述的元素是如下装置的例子:该装置用于实施由为了实施该公开的目的的元素所执行的功能。
[0096]
如在此所使用的那样,除非另行规定,使用序数词“第一”、“第二”、“第三”等等来描述普通对象仅仅表示涉及类似对象的不同实例,并且并不意图暗示这样被描述的对象必须具有时间上、空间上、排序方面或者以任意其它方式的给定顺序。
[0097]
尽管根据有限数量的实施例描述了本公开,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本公开的范围内,可以设想其它实施例。此外,应当注意,
本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本公开的主题而选择的。因此,在不偏离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。对于本公开的范围,对本公开所做的公开是说明性的,而非限制性的,本公开的范围由所附权利要求书限定。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献