一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于域适应半监督学习的SAR目标识别方法

2022-08-28 05:10:12 来源:中国专利 TAG:

基于域适应半监督学习的sar目标识别方法
技术领域
1.本发明涉及合成孔径雷达(synthetic aperture radar,sar)目标识别技术领域,尤其涉及一种基于域适应半监督学习的sar目标识别方法。


背景技术:

2.合成孔径雷达是一种主动式对地观测系统,能够实现全天时、全天候的观测。因此,sar在海洋监测、地物勘探等方面具有独一无二的优势。sar图像目标识别旨在识别sar图像中的目标类别,是sar应用中的一项重要任务。传统的sar图像目标识别方法主要通过手动设计并提取目标的几何、微波散射等特征,再结合基于机器学习的分类器进行识别。随着深度学习的发展,通过构建神经网络自动学习层级特征成为了sar图像目标识别领域的主流方法,但是这些方法依赖于大量的标记数据。在实际应用中,sar图像的获取和标注需要花费大量的人力和物力,高昂的成本限制了深度学习方法在该领域中的应用。
3.针对sar图像标记样本少这一问题的主要解决方案包括基于半监督学习的方法、基于迁移学习的方法和基于元学习的方法,这些方法采用不同的方式减少对标记样本量的需求。基于半监督学习的方法通过生成无标记样本的伪标签,使无标记样本也能够用于模型训练;基于迁移学习的方法将由其他任务中学习到的知识迁移到目标任务中,从而减少模型训练对样本量的需求;基于元学习的方法构建多个元任务,通过优化所有元任务的方式获得全局模型,使其在只需要少量目标任务数据的情况下便可以快速适应目标任务。
4.本发明属于基于半监督学习的方法,这类方法的关键在于如何有效地使用无标记样本。现有文献首先利用标记样本训练初始模型,再利用初始模型计算无标记样本的伪标签,最后使用无标记样本和其对应的伪标签对模型进行优化。但是,在实现本发明构思的过程中,发明人发现现有文献中至少存在以下三方面问题:1)现有方法利用初始模型预测置信度高的无标记样本和其对应伪标签来优化模型,初始模型对筛选出的无标记样本具有较高的预测置信度,说明初始模型对正确计算出这些样本的类别已经有较大的把握,因此这些样本对初始模型的继续优化的作用较为有限;2)现有方法没有考虑标记样本和无标记样本间的域差异,由于无标记样本的伪标签是由标记样本训练的初始模型得到的,因而当标记样本和无标记样本间存在域差异时,容易为无标记样本生成错误的伪标签,因为后续要利用无标记样本及其伪标签对初始模型进行优化,使用带有错误伪标签的无标记样本进行训练会严重影响模型的优化;3)现有方法没有考虑错误的伪标签对模型训练的影响,当采用带有错误伪标签的无标记样本训练模型时,会使模型向着错误的方向更新,从而降低模型的准确度。


技术实现要素:

5.有鉴于此,本发明提供了一种基于域适应半监督学习的sar目标识别方法,至少部分解决无标记样本对初始模型的继续优化的作用较为有限、模型的准确度不高的技术问
题。
6.本发明提供的基于域适应半监督学习的sar目标识别方法,包括:获取标记样本集和无标记样本集,对标记样本集中的每个标记样本进行弱增强,生成第一弱增强样本,对无标记样本集中的每个无标记样本分别进行弱增强和强增强,生成第二弱增强样本和强增强样本;将第一弱增强样本、第二弱增强样本和强增强样本分别输入卷积神经网络模型中的特征提取器,获得对应的特征图,计算标记样本集和无标记样本集间的域适应损失;将特征图展开为向量后输入卷积神经网络模型中的特征分类器,分别计算第一弱增强样本、第二弱增强样本和强增强样本的预测概率;根据第一弱增强样本的预测概率,计算每个标记样本的分类损失;根据第二弱增强样本的预测概率筛选部分无标记样本,计算部分无标记样本的分类损失;根据域适应损失、每个标记样本的分类损失和部分无标记样本的分类损失,计算标记样本集和无标记样本集的总损失;使用梯度下降算法优化总损失,更新卷积神经网络模型的参数;加载训练好的卷积神经网络模型,输入待测样本,输出待测样本的预测类别。
7.进一步地,弱增强依次包括翻转和裁剪变换,强增强包括以下中的任意两种:对比度变换、亮度变换、颜色变换、图像旋转、图像锐化、横向剪切、纵向剪切、横向平移、纵向平移、随机剪切。
8.进一步地,特征提取器使用resnet18网络,输入样本的尺寸为128
×
128,特征图的尺寸为512
×1×
1;特征分类器包含全连接层和softmax层,其中,全连接层的输入为第一弱增强样本、第二弱增强样本和强增强样本展开后的512维向量,输出为10维向量,全连接层的输出经过softmax层后得到10维的预测概率向量。
9.进一步地,标记样本集和无标记样本集间的域适应损失根据以下公式计算得出:式中,l
da
为域适应损失;n
x
为标记样本集中的标记样本总个数;nu为无标记样本集中的无标记样本总个数;分别为第i个和第j个第一弱增强样本的特征图;分别为第i个和第j个第二弱增强样本的特征图;k(
·
)表示高斯核函数。
10.进一步地,每个标记样本的分类损失根据以下公式计算得出:进一步地,每个标记样本的分类损失根据以下公式计算得出:式中,l
ce
(p,y)为交叉熵函数;c为预设的目标类别总数;p=[p1,

,pc]
t
为预测概
率;y=[y1,

,yc]
t
为类别标签;[
·
]
t
表示对向量的转置操作;为第i个标记样本xi的分类损失;为第i个第一弱增强样本的预测概率;为第i个第一弱增强样本的类别标签。
[0011]
进一步地,根据第二弱增强样本的预测概率筛选部分无标记样本,包括:判断每个第二弱增强样本的预测概率中的最大元素是否不小于预设概率阈值,如果是,则保留该第二弱增强样本,否则,移除该第二弱增强样本。
[0012]
进一步地,计算部分无标记样本的分类损失,包括:将部分无标记样本划分为部分弱增强样本和部分强增强样本;使用部分弱增强样本的预测概率,计算部分强增强样本的伪标签;根据部分强增强样本的预测概率和部分强增强样本的伪标签,计算得出部分无标记样本的分类损失。
[0013]
进一步地,部分无标记样本的分类损失由交叉熵损失和top-k损失的加权求和得到,其中:交叉熵损失是使用交叉熵函数计算出的部分强增强样本的预测概率与部分强增强样本的伪标签之间的差异;top-k损失是使用top-k损失函数计算出的部分强增强样本的预测概率与部分强增强样本的伪标签之间的差异。
[0014]
进一步地,top-k损失根据以下公式计算得出:式中,表示top-k损失;表示类别空间;表示由中元素构成的k元组集合;表示k元组集合中包含元素y的子集合;为预测概率p中最大k个元素对应位置所构成的k元组;为中间系数,其计算方法为:当时,=0,否则,,α为间隔参数;τ表示温控参数。
[0015]
进一步地,标记样本集和无标记样本集的总损失由域适应损失、每个标记样本的分类损失和部分无标记样本的分类损失求和得出。
[0016]
与现有技术相比,本发明提供的基于域适应半监督学习的sar目标识别方法,至少具有以下有益效果:(1)针对现有方法筛选出的无标记样本对提升模型性能作用有限的问题,本方法将无标记样本做强弱两种方式的增强,基于同一样本的弱增强和强增强样本应该具有相同类别标签的一致性准则,在初始模型更容易正确预测其类别的弱增强样本上计算伪标签并进行样本的筛选,将更具有多样性、识别难度更大的强增强样本用于模型的训练,使得模型能够得到更加有效的训练;(2)针对现有方法没有考虑标记和无标记样本间的域差异导致错误伪标签多的问
题,本方法通过构建域适应损失减少标记和无标记样本间的域差异,有效地减少了错误伪标签的数量;(3)针对现有方法没有考虑错误伪标签对模型训练产生影响的问题,本方法通过在无标记样本的分类损失中加入top-k损失降低错误伪标签对模型训练的影响。
附图说明
[0017]
通过以下参照附图对本发明实施例的描述,本发明的上述以及其他目的、特征和优点将更为清楚,在附图中:图1示意性示出了根据本发明实施例的基于域适应半监督学习的sar目标识别方法的操作流程图;图2示意性示出了根据本发明实施例的基于域适应半监督学习的sar目标识别方法的流程图;图3示意性示出了根据本发明实施例的无标记样本筛选过程的流程图;图4示意性示出了根据本发明实施例的无标记样本的分类损失计算过程的流程图;图5示意性示出了根据本发明实施例的卷积神经网络模型训练过程中的迭代次数与总损失曲线。
具体实施方式
[0018]
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0019]
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本发明。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
[0020]
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
[0021]
图1示意性示出了根据本发明实施例的基于域适应半监督学习的sar目标识别方法的操作流程图。
[0022]
如图1所示,本发明实施例提供的基于域适应半监督学习的sar目标识别方法,主要包括以下关键步骤:输入标记和无标记样本集,生成弱增强与强增强样本,计算域适应损失,计算样本预测概率,计算标记样本分类损失,筛选无标记样本,计算无标记样本分类损失,计算总损失,优化总损失更新模型参数以及模型加载和测试。
[0023]
图2示意性示出了根据本发明实施例的基于域适应半监督学习的sar目标识别方法的流程图。
[0024]
结合图2,对图1所示的方法进行详细描述。如图2所示,该实施例的基于域适应半监督学习的sar目标识别方法,可以包括操作s110~操作s180。
[0025]
在操作s110,获取标记样本集和无标记样本集,对标记样本集中的每个标记样本进行弱增强,生成第一弱增强样本,对无标记样本集中的每个无标记样本分别进行弱增强和强增强,生成第二弱增强样本和强增强样本。
[0026]
具体地,获取标记样本集x和无标记样本集u。对于每一次迭代过程,获取的标记样本集x包含n
x
个标记样本xi,i=1,

, n
x
。获取的无标记样本集u包含nu个无标记样本uj,j=1,

, nu。
[0027]
其中,对每个标记样本xi进行弱增强,生成第一弱增强样本。对每个无标记样本uj分别进行弱增强和强增强,生成第二弱增强样本和强增强样本。
[0028]
本实施例中,弱增强依次包括翻转和裁剪变换,强增强包括以下中的任意两种:对比度变换、亮度变换、颜色变换、图像旋转、图像锐化、横向剪切、纵向剪切、横向平移、纵向平移、随机剪切。
[0029]
具体来说,在弱增强过程中依次对每个样本(包含标记样本和无标记样本)进行翻转和裁剪2种变换得到弱增强样本。强增强包含10种更为复杂的图像变换方式,具体为:对比度变换、亮度变换、颜色变换、图像旋转、图像锐化、横向剪切、纵向剪切、横向平移、纵向平移、随机剪切,在强增强过程中先在10种变换方式中随机选取2种,再对每个无标记样本依次进行这2种变换得到强增强样本。
[0030]
在操作s120,将第一弱增强样本、第二弱增强样本和强增强样本分别输入卷积神经网络模型中的特征提取器,获得对应的特征图,计算标记样本集和无标记样本集间的域适应损失。
[0031]
本实施例中,特征提取器例如可以使用resnet18网络,输入样本的尺寸为128
×
128,特征图的尺寸为512
×1×
1。
[0032]
具体地,将分别输入卷积神经网络模型中的特征提取器,获得对应的特征图。在第1次迭代时,特征提取器中的参数随机生成,在第t次(t>1)迭代时,采用第t-1次迭代输出的模型参数。
[0033]
接着,根据这三种特征图,计算标记样本集和无标记样本集间的域适应损失。本实施例中,标记样本集和无标记样本集间的域适应损失根据以下公式计算得出:式中,l
da
为域适应损失;n
x
为标记样本集中的标记样本总个数;nu为无标记样本集中的无标记样本总个数;分别为第i个和第j个第一弱增强样本的特征图;分别为第i个和第j个第二弱增强样本的特征图;k(
·
)表示高斯核函数。
[0034]
可见,该域适应损失基于最大平均差异来计算。通过优化域适应损失l
da
,可以减小标记样本集和无标记样本集间的域差异。
[0035]
在操作s130,将特征图展开为向量后输入卷积神经网络模型中的特征分类器,分别计算第一弱增强样本、第二弱增强样本和强增强样本的预测概率。
[0036]
具体地,将特征图展开为向量后输入卷积神经网络模型中的特征分类器,分别计算第一弱增强样本、第二弱增强样本和强增强样本的预测概率。
[0037]
本实施例中,特征分类器可以包含全连接层和softmax层。其中,全连接层的输入为第一弱增强样本、第二弱增强样本和强增强样本展开后的512维向量,输出为10维向量,全连接层的输出经过softmax层后得到10维的预测概率向量。在第1次迭代时,全连接层的参数随机生成,在第t次(t>1)迭代时,采用第t-1次迭代输出的模型参数。
[0038]
在操作s140,根据第一弱增强样本的预测概率,计算每个标记样本的分类损失。
[0039]
本实施例中,使用交叉熵函数计算每个标记样本的分类损失,交叉熵函数的计算方法如下所示:式中,l
ce
(p,y)为交叉熵函数;c为预设的目标类别总数;p=[p1,

,pc]
t
为预测概率;y=[y1,

,yc]
t
为类别标签;[
·
]
t
表示对向量的转置操作。
[0040]
在此基础上,每个标记样本的分类损失根据以下公式计算得出:式中,为第i个标记样本xi的分类损失;为第i个第一弱增强样本的预测概率;为第i个第一弱增强样本的类别标签。
[0041]
在操作s150,根据第二弱增强样本的预测概率筛选部分无标记样本,计算部分无标记样本的分类损失。
[0042]
图3示意性示出了根据本发明实施例的无标记样本筛选过程的流程图。
[0043]
如图3所示,本实施例中,上述操作s150中的根据第二弱增强样本的预测概率筛选部分无标记样本,可以进一步包括操作s1501。
[0044]
在操作s1501,判断每个第二弱增强样本的预测概率中的最大元素是否不小于预设概率阈值,如果是,则保留该第二弱增强样本,否则,移除该第二弱增强样本。
[0045]
具体地,对于无标记样本uj,当其对应的第二弱增强样本的预测概率中的最大元素大于或者等于预设概率阈值t时,说明对该无标记样本预测的置信度高,将其保留,否则将其移除。
[0046]
接着,进行部分无标记样本的分类损失的计算。
[0047]
图4示意性示出了根据本发明实施例的部分无标记样本的分类损失计算过程的流程图。
[0048]
如图4所示,本实施例中,上述操作s150中的计算部分无标记样本的分类损失,可以进一步包括操作s1502~操作s1504。
[0049]
在操作s1502,将部分无标记样本划分为部分弱增强样本和部分强增强样本。
[0050]
将筛选后的无标记样本,也即部分无标记样本记为,为筛选后无标记样本的数目,也即部分无标记样本的数目。在该部分无标记样本中,分别记为划分出的部分弱增强样本和部分强增强样本,分别记为部分弱增强样本和部分强增强样本的预测概率。
[0051]
在操作s1503,使用部分弱增强样本的预测概率,计算部分强增强样本的伪标签。
[0052]
利用部分弱增强样本的预测概率,计算部分强增强样本的伪标签,计算方法为:首先将设置为,然后将中最大元素的值置为1,其余值置为0。
[0053]
在操作s1504,根据部分强增强样本的预测概率和部分强增强样本的伪标签,计算得出部分无标记样本的分类损失。
[0054]
本实施例中,部分无标记样本的分类损失由交叉熵损失和top-k损失的加权求和得到。
[0055]
其中,交叉熵损失是使用交叉熵函数计算出的部分强增强样本的预测概率与部分强增强样本的伪标签之间的差异。
[0056]
具体地,交叉熵损失为,即为使用上述交叉熵函数计算出的,部分强增强样本的预测概率与部分强增强样本的伪标签之间的误差。
[0057]
top-k损失是使用top-k损失函数计算出的部分强增强样本的预测概率与部分强增强样本的伪标签之间的差异。可以理解的是,将类别标签y的类别标号(即y中非零元素的位置)记为y,当y属于预测概率p中最大的k个元素对应位置构成的集合时,top-k损失l
top-k
均能输出较小的损失值,因此能够减小错误伪标签对模型训练的影响。
[0058]
具体地,top-k损失根据以下公式计算得出:式中,表示top-k损失;表示类别空间;表示由中元素构成的k元组集合;表示k元组集合中包含元素y的子集合;为预测概率p中
最大k个元素对应位置所构成的k元组;为中间系数,其计算方法为:当时,=0,否则,,α为间隔参数;τ表示温控参数。
[0059]
部分无标记样本的分类损失定义为交叉熵损失和top-k损失的加权和,计算方法如下所示:其中,为伪标签的类别标号;λ表示权重参数。
[0060]
接着,在操作s160,根据域适应损失、每个标记样本的分类损失和部分无标记样本的分类损失,计算标记样本集和无标记样本集的总损失。
[0061]
本实施例中,标记样本集和无标记样本集的总损失由域适应损失、每个标记样本的分类损失和部分无标记样本的分类损失求和得出。
[0062]
具体地,标记样本集和无标记样本集的总损失l
total
,包含标记样本集和无标记样本集间的域适应损失l
da
、n
x
个标记样本的分类损失的和、个部分无标记样本的分类损失的和,计算方法如下所示:接着,在操作s170,使用梯度下降算法优化总损失,更新卷积神经网络模型的参数。
[0063]
使用梯度下降算法优化总损失l
total
,根据总损失,重复上述操作s110到操作s170,对卷积神经网络模型的参数进行迭代优化,直至当前迭代次数达到预先设定的总迭代次数。
[0064]
在操作s180,加载训练好的卷积神经网络模型,输入待测样本,输出待测样本的预测类别。
[0065]
该预测类别即为最终的识别结果。
[0066]
通过本发明的实施例,将无标记样本做强弱两种方式的增强,将更具有多样性、识别难度更大的强增强样本用于模型的训练,并将强增强样本所对应弱增强样本的伪标签作为其伪标签以保证伪标签的正确性,通过对强弱增强样本的使用使得模型能够得到更加有效的训练。并且,通过构建域适应损失减少标记和无标记样本间的域差异,有效地减少了错误伪标签的数量,以及,通过在无标记样本的分类损失中加入top-k损失降低错误伪标签对模型训练的影响。综合上述三方面因素,有效增强sar目标识别的准确度。
[0067]
以上只是示例性说明,本发明的实施例不限于此。例如,在一些实施例中,上述操作s120中的特征提取器可以采用其他神经网络结构,如vgg、inception等网络。
[0068]
又例如,在一些实施例中,上述操作s120中的域适应损失的计算还可以采用kl散度(kullback-leibler divergence)、js散度(jensen

shannon divergence)、wasserstein距离等。
[0069]
下面通过实际数据的处理示例来验证本发明上述的实施例的方法的处理效果。实验采用mstar数据集的10分类任务,在该任务中包含10个类别的sar车辆目标。训练集包含俯仰角为17度的共2747个样本,测试集包含俯仰角为15度的共2425个样本。
[0070]
步骤1,从训练集中的每种目标类别中随机选取15个作为标记样本,构成标记样本集x,剩余训练集样本构成无标记样本集u。对于每一次迭代过程,从x和u中分别读取64个标记样本xi,i=1,

,64和64个无标记样本uj,j=1,

,64。即n
x
=64,nu=64。
[0071]
对每个标记样本xi进行弱增强,生成第一弱增强样本。对每个无标记样本uj分别进行弱增强和强增强,生成第二弱增强样本和强增强样本。
[0072]
步骤2,计算标记样本集和无标记样本集间的域适应损失。将分别输入卷积神经网络模型中的特征提取器,获得对应的特征图。
[0073]
特征提取器使用resnet18网络,输入图像的尺寸为128
×
128,特征图的尺寸为512
×1×
1。计算域适应损失l
da

[0074]
tsne是由t分布和随机近邻嵌入(stochastic neighbor embedding,sne)组成,是一种可视化工具,将高位数据降到2-3维,然后画成图。tsne是目前效果最好的数据降维和可视化方法。
[0075]
为了便于辨别,发明人利用tsne可视化特征图对域差异损失的效果进行验证,通过对比加入域适应损失前的结果与加入域适应损失后的结果,可以得到在加入域适应损失前,标记样本和无标记样本间存在较大的域差异,在加入域适应损失后,域差异明显减小,表明本发明实施例的方法加入域适应损失的有效性。
[0076]
步骤3,计算第一弱增强样本、第二弱增强样本和强增强样本的预测概率。
[0077]
将特征图展开为向量后输入卷积神经网络模型中的特征分类器,分别计算第一弱增强样本、第二弱增强样本和强增强样本的预测概率。
[0078]
特征分类器包含全连接层和softmax层。其中,全连接层的输入为展开后的512维向量,输出为10维向量,全连接层的输出经过softmax层后得到10维的预测概率向量。
[0079]
步骤4,计算每个标记样本的分类损失。使用交叉熵函数l
ce
(p,y)计算每个标记样本xi的分类损失。
[0080]
步骤5,筛选部分无标记样本。保留预测概率中的最大元素大于或者等于预设概率阈值t的无标记样本,t取0.8。将筛选后的无标记样本记为,为筛选后无标记样本的数目。分别记为划分出的部分弱增强样本和部分强增强样本,
为对应样本的预测概率。
[0081]
利用部分弱增强样本的预测概率,计算部分强增强样本的伪标签。
[0082]
步骤6,计算部分无标记样本的分类损失。计算部分无标记样本的交叉熵损失和top-k损失l
top-k
。在计算top-k损失时,相关参数设置如下:k=3;间隔参数α=1;温控参数τ=0.5。计算部分无标记样本的分类损失,其中,权重参数λ设置为0.2。
[0083]
步骤7,计算标记样本集和无标记样本集的总损失l
total

[0084]
步骤8,使用adam梯度下降算法优化总损失l
total
,更新模型参数,学习率设置为0.0001。重复步骤1到8,直至达到预先设定的总迭代次数n
t
,n
t
设置为6000。
[0085]
图5示意性示出了根据本发明实施例的卷积神经网络模型训练过程中的迭代次数与总损失曲线。横轴表示迭代次数,纵轴表示损失值,由图5中可知随着迭代次数的增加损失值持续下降,表明模型进行了有效的训练。
[0086]
步骤9,加载训练好的卷积神经网络模型,输入测试样本,输出预测类别,得到最终的识别结果。
[0087]
最终计算得知,本发明实施例的方法的识别率为89.32%,现有方案的识别率为60.54%,识别结果说明了本发明实施例的方法的先进性。
[0088]
从以上的描述中,可以看出,本发明上述的实施例提供的基于域适应半监督学习的sar目标识别方法,至少实现了以下技术效果:1)现有方法使用初始模型预测置信度高的无标记样本和其对应伪标签来优化模型,本方法将无标记样本做强弱两种方式的增强,以初始模型在弱增强样本上的预测置信度为筛选无标记样本的依据,根据同一样本的弱增强样本和强增强样本应该具有相同类别标签的一致性准则,将筛选后无标记样本的强增强样本和其对应弱增强样本的伪标签对模型进行优化;2)现有方法没有考虑标记样本和无标记样本间的域差异,本方法通过构建标记样本和无标记样本之间的域适应损失减小域差异;3)现有方法没有考虑错误的伪标签对模型训练的影响,本方法在计算无标记样本的分类损失过程中加入了top-k损失,能够减轻错误的伪标签对模型训练的影响。
[0089]
附图中示出了一些方框图和/或流程图。应理解,方框图和/或流程图中的一些方框或其组合可以由计算机程序指令来实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,从而这些指令在由该处理器执行时可以创建用于实现这些方框图和/或流程图中所说明的功能/操作的装置。
[0090]
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。因此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个、三个等,除非另有明确具体的限定。此外,位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。
[0091]
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详
细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献