一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

室内场景下的目标驱动视觉语义导航方法、存储介质及设备

2022-12-06 23:46:04 来源:中国专利 TAG:


1.本发明涉及场景感知和导航技术领域,特别是涉及基于主动视觉的室内场景感知和导航技术领域。


背景技术:

2.随着人口老龄化的现象越来越严重以及劳动力结构的优化升级,劳动力成本逐年增加,越来越多的行业开始讲目光投向以机器人为主导的解决方案。以机器人代替人来进行简单的、重复性较高的低技术作业,是解放劳动力的有效方法和未来趋势。室内环境中的机器人要求其具备良好的目标识别和导航能力,对机器人的自主性要求较高。想要其能够胜任更复杂的任务,提供更富人性化的服务,需要提升其对周围环境的感知能力。因此研究机器人在场景中的导航方法是具有现实意义和应用价值的。
3.为了实现机器人在室内场景中的视觉导航,目前的方法主要包括场景的三维度量以、语义映射以及路径规划。这类方法通常需要提前建立一个三维的场景地图,并为地图和路径跟踪提供一种可靠的定位,这使得它们在已知的场景中有较好的表现,在场景发生改变或者在类似的未知场景中时,策略的导航效果不尽如人意。为了克服上述方法的局限性,利用基于数据驱动的机器学习方式进行导航开始逐渐出现。这种方式以端到端的方式直接学习原始的视觉感知信息和机器人动作之间的逻辑映射关系,形成一种语义视觉导航的新模式。这种新模式下,导航不依赖地图进行,即使在新的类似环境中,也能够利用以往的导航经验进行导航。
4.经过对现有技术的公开文献检索发现,目前针对室内环境中的目标驱动下的视觉语义导航方式,只使用当前时刻数据来进行动作决策,历史时刻场景信息和相应动作信息对当前时刻决策的影响被忽略了。同时,在导航模型的训练过程中,模型的输出存在大量的非法动作,导致训练样例无效,造成数据的较低的利用率。并且在进行导航的过程中没有关注到目标物体在观察者视野中的成像质量,使得机器人接近目标物体后,检测器对目标物体不敏感。


技术实现要素:

5.鉴于以上所述现有技术的缺点,本发明的目的在于提供一种室内场景下的目标驱动视觉语义导航方法、存储介质及设备,用于解决现有技术中针对室内环境中的目标驱动下的视觉语义导航效果差的技术问题。
6.为实现上述目的及其他相关目的,本发明提供一种室内场景下的目标驱动视觉语义导航方法,所述方法包括:分析室内场景数据中目标物体的尺寸分布情况;对尾部尺寸物体图像进行样本增强;基于增强后的尾部尺寸物体图像训练目标检测器;基于所述目标检测器和神经网络构建目标驱动下的视觉语义导航网络模型;对所述视觉语义导航网络模型进行训练;确定目标驱动下的视觉语义导航步骤,并基于所述视觉语义导航步骤和训练的所述视觉语义导航网络模型完成视觉语义导航任务。
7.于本发明的一实施例中,所述分析室内场景数据中目标物体的尺寸分布情况包括:统计场景数据中大尺寸物体,中等尺寸物体,小尺寸物体的检测框的数量,以及包含大尺寸、中等尺寸、小尺寸物体的图像的数量,并分析它们各自的占比情况,得到数据集的尺寸分布情况,并确定占比最多的头部尺寸物体图像以及占比最少的尾部尺寸物体图像。
8.于本发明的一实施例中,所述对尾部尺寸物体图像进行样本增强包括:利用头部尺寸物体图像生成尾部尺寸物体图像:对于较大尺寸的头部尺寸物体图像生成较小尺寸的尾部尺寸物体图像采用图像缩小拼接的方式;对于较小尺寸的头部尺寸物体图像生成较大尺寸的尾部尺寸物体图像采用自适应局部截取放大法。
9.于本发明的一实施例中,所述基于增强后的尾部尺寸物体图像训练目标检测器包括:基于增强后的尾部尺寸物体图像构建数据集终态;在数据集终态和数据集初态之间构建一系列的数据集过渡态,在每个训练迭代中,选取不同的数据集过渡态对目标检测器进行训练。
10.于本发明的一实施例中,所述基于所述目标检测器和神经网络构建目标驱动下的视觉语义导航网络模型中:输入为:取当前时刻为基准的前三个时刻的场景信息和相应的动作信息,作为历史时刻信息进行输入;输出为:前进、后退、左移、右移、顺时针转动、逆时针转动六维动作空间中概率分数最大的一个动作。
11.于本发明的一实施例中,所述基于所述目标检测器和神经网络构建目标驱动下的视觉语义导航网络模型中:利用基于长短期记忆神经网络和卷积神经网络提取当前时刻场景信息,目标矩形标定框,动作空间信息的特征量,构建上述特征量与输出之间的映射关系,建立相应的视觉语义导航模型。
12.于本发明的一实施例中,所述对所述视觉语义导航网络模型进行训练包括:采用预设步长为一个训练批次;若在一个训练批次内,机器人与目标物体的距离信息小于距离度量阈值且物体在视野内的检测评分高于评分阈值,则说明此时机器人已经完成了导航任务,开始下一批次的训练;否则,令机器人根据导航策略重复上述决策、移动过程,直到机器人满足上述任务结束条件或者决策步长达到所述预设步长;在每个批次的一系列动作尝试结束之后,评估相应的奖励因子,并基于奖励因子对所述视觉语义导航网络模型的权重进行更新,使得所述视觉语义导航网络模型能够学习到相应的导航策略。
13.于本发明的一实施例中,所述目标驱动下的视觉语义导航步骤包括:所述视觉语义导航网络模型接收场景的rgb-d图像,对目标的观察角度和距离进行评估,产生动作决策,调整机器人位置,在新的位置下重复上述决策过程,直到机器人到达目标附近或者决策次数达到上限。
14.为实现上述目的及其他相关目的,本发明还提供一种存储介质,存储有程序指令,其中,所述程序指令被执行时实现如上所述的室内场景下的目标驱动视觉语义导航方法的步骤。
15.为实现上述目的及其他相关目的,本发明还提供一种电子设备,包括存储器,用于存储计算机程序;处理器,用于运行所述计算机程序以实现如上所述的室内场景下的目标驱动视觉语义导航方法的步骤。
16.为实现上述目的及其他相关目的,本发明还提供一种移动机器人,应用如上所述的电子设备。
17.如上所述,本发明的室内场景下的目标驱动视觉语义导航方法、存储介质及设备具有以下有益效果:
18.本发明通过分析场景数据中的物体尺寸分布不平衡现象与模型对不同尺寸物体检测能力差异之间的联系,设计了一种多尺寸目标自适应的图像增强方法,用来完成对不同尺寸物体图像的增强,并基于这种方式设计实现了一种数据集物体尺寸分布动态平衡方法,动态地调整训练过程中数据集内不同尺寸物体的分布状态,来增强尾部尺寸物体对模型的监督。在保证模型对头部尺寸物体的检测性能的情况下,提高其对尾部尺寸物体的检测能力。同时基于conv-lstm与cnn网络构建了一种视觉语义导航网络模型,建立了优化的lstm初始化方法和基于动作空间优化的模型训练方法,使得模型能够直接根据场景语义上下文信息产生导航策略,不依赖于的场景地图建模,并使得在已知场景中构建的导航策略能够衍生到类似的未知场景中。本发明可以辅助机器人在室内场景中进行导航,提升其场景感知能力,为室内移动机器人开展多种任务提供帮助。
附图说明
19.为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
20.图1显示为本发明的室内场景下的目标驱动视觉语义导航方法流程图。
21.图2显示为本发明中的多尺寸图像自适应局部截取法说明图。
22.图3显示为本发明的物体尺寸分布动态平衡训练方法。
23.图4(a)和图4(b)显示为本发明的动态平衡训练过程中,场景数据的变化情况。
24.图5显示为本发明中构建的视觉语义导航模型vsnn。
25.图6(a)和图6(b)显示为本发明的模型训练过程和验证过程。
26.图7显示为本技术一实施例中的电子设备的原理框图。
27.元件标号说明
28.101
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
电子设备
29.1001
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
处理器
30.1002
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
存储器
31.s100~s600
ꢀꢀꢀꢀꢀ
步骤
具体实施方式
32.以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
33.本实施例的目的在于提供一种室内场景下的目标驱动视觉语义导航方法、存储介质及设备,用于解决现有技术中针对室内环境中的目标驱动下的视觉语义导航效果差的技
术问题。本实施例的室内场景下的目标驱动视觉语义导航方法可以解决室内复杂场景中的导航问题。方法能够保证模型的训练高效性,并且在进行导航的同时,调整观察视角,在接近目标物体的同时具备一个较好的观察角度,同时方法不依赖于场景地图的构建,在未知的类似环境中也能发挥一定的效果。
34.本实施例提供了一种室内场景下的目标驱动视觉语义导航方法,包括:多尺寸物体图像增强方法;数据集物体尺寸分布动态平衡训练方法;基于长短期记忆(long short term memory,lstm)网络以及卷积神经网络(convolutional neural networks,cnn)构建的目标驱动下的视觉语义导航模型;基于逆序推理的lstm初始化方法和基于动作空间优化的训练方法;目标驱动下的视觉语义导航一般步骤。本实施例可以辅助机器人在室内场景中进行导航,提升其场景感知能力,为室内移动机器人开展多种任务提供帮助。
35.以下将详细阐述本发明的室内场景下的目标驱动视觉语义导航方法、存储介质及设备的原理及实施方式,使本领域技术人员不需要创造性劳动即可理解本发明的室内场景下的目标驱动视觉语义导航方法、存储介质及设备。
36.实施例1
37.如图1所示,本实施例中所述室内场景下的目标驱动视觉语义导航方法包括:
38.步骤s100,分析室内场景数据中目标物体的尺寸分布情况;
39.步骤s200,对尾部尺寸物体图像进行样本增强;
40.步骤s300,基于增强后的尾部尺寸物体图像训练目标检测器;
41.步骤s400,基于所述目标检测器和神经网络构建目标驱动下的视觉语义导航网络模型;
42.步骤s500,对所述视觉语义导航网络模型进行训练;
43.步骤s600,确定目标驱动下的视觉语义导航步骤,并基于所述视觉语义导航步骤和训练的所述视觉语义导航网络模型完成视觉语义导航任务。
44.以下结合图2至图6(b)对本实施例的室内场景下的目标驱动视觉语义导航方法的步骤s100至步骤s600进行详细说明。
45.步骤s100,分析室内场景数据中目标物体的尺寸分布情况。
46.于本实施例中,所述分析室内场景数据中目标物体的尺寸分布情况包括:统计场景数据中大尺寸物体,中等尺寸物体,小尺寸物体的检测框的数量,以及包含大尺寸、中等尺寸、小尺寸物体的图像的数量,并分析它们各自的占比情况,得到数据集的尺寸分布情况,并确定占比最多的头部尺寸物体图像以及占比最少的尾部尺寸物体图像。
47.步骤s200,对尾部尺寸物体图像进行样本增强。
48.于本实施例中,所述对尾部尺寸物体图像进行样本增强包括:利用头部尺寸物体图像生成尾部尺寸物体图像:对于较大尺寸的头部尺寸物体图像生成较小尺寸的尾部尺寸物体图像采用图像缩小拼接的方式;对于较小尺寸的头部尺寸物体图像生成较大尺寸的尾部尺寸物体图像采用自适应局部截取放大法。
49.具体地,于本实施例中,对于较大尺寸图像转化为较小尺寸图像,利用临域插值法将四张大尺寸图像缩小为原图像的四分之一,并进行图像拼接,同时将各图像中的目标用矩形标注框重新进行标定;对于较小尺寸图像转化为交大尺寸图像,采用多尺寸目标自适应局部截取方法,即在图像中划分图像子区,考察目标与各分割线的相交情况,根据不同的
相交情况,将目标划入不同的区域内,最后将包含目标的子图像通过三次样条插值法放大到原图大小,完成增强过程。
50.步骤s300,基于增强后的尾部尺寸物体图像训练目标检测器。
51.于本实施例中,所述基于增强后的尾部尺寸物体图像训练目标检测器包括:基于增强后的尾部尺寸物体图像构建数据集终态;在数据集终态和数据集初态之间构建一系列的数据集过渡态,在每个训练迭代中,选取不同的数据集过渡态对目标检测器进行训练。
52.即本实施例中,首先确认场景数据集终态,利用前述尾部尺寸物体图像样本增强方法,在数据集初态和终态之间构建一系列的过渡态,在每一次的迭代训练中,使用不同的数据集过渡态对目标检测器进行训练。
53.步骤s400,基于所述目标检测器和神经网络构建目标驱动下的视觉语义导航网络模型。
54.于本实施例中,所述基于所述目标检测器和神经网络构建目标驱动下的视觉语义导航网络模型中:输入为:取当前时刻为基准的前三个时刻的场景信息和相应的动作信息,作为历史时刻信息进行输入;输出为:前进、后退、左移、右移、顺时针转动、逆时针转动六维动作空间中概率分数最大的一个动作。
55.于本实施例中,所述基于所述目标检测器和神经网络构建目标驱动下的视觉语义导航网络模型中:利用基于长短期记忆神经网络和卷积神经网络提取当前时刻场景信息,目标矩形标定框,动作空间信息的特征量,构建上述特征量与输出之间的映射关系,建立相应的视觉语义导航模型。
56.即本实施例中,模型的输出为前进、后退、左移、右移、顺时针转动、逆时针转动六维动作空间中概率分数最大的一个动作;模型输入的设计中,考虑动作决策的历史相关性,引入当前时刻前三个历史时刻的场景信息和对应动作信息,利用conv-lstm提取相关的特征量,并利用cnn提取当前时刻场景信息、目标矩形标定框、动作空间的特征信息,构建上述特征量与输出之间的映射关系,建立相应的视觉语义导航模型。
57.步骤s500,对所述视觉语义导航网络模型进行训练。
58.于本实施例中,所述对所述视觉语义导航网络模型进行训练包括:采用预设步长(例如预设步长t=5)为一个训练批次;若在一个训练批次内,机器人与目标物体的距离信息小于距离度量阈值(例如700)且物体在视野内的检测评分高于评分阈值,则说明此时机器人已经完成了导航任务,开始下一批次的训练;否则,令机器人根据导航策略重复上述决策、移动过程,直到机器人满足上述任务结束条件或者决策步长达到所述预设步长;在每个批次的一系列动作尝试结束之后,评估相应的奖励因子,并基于奖励因子对所述视觉语义导航网络模型的权重进行更新,使得所述视觉语义导航网络模型能够学习到相应的导航策略。
59.具体地,于本实施例中,视觉语义导航模型的训练包括以下步骤:
60.1)在任务初始阶段,会有历史信息的缺失,需要进行lstm层的初始化。采用逆序推理的方式,从当前时刻场景信息,推理出可能存在的历史时刻的场景信息,填补缺失的历史时刻信息,完成lstm初始化。由于导航任务多为从远处接近目标,所以这里的推理首选后退动作,若后退为非法动作则从动作空间上选取其他合法动作进行。
61.2)为了减少网络产生非法动作,引起过多的无效训练,降低数据利用率,导致模型
效率低下。在模型产生动作决策之后,需要对动作进行评估,当发现为非法动作的时候,就用动作空间上的其他合法动作代替非法动作,前述动作以前进动作为优先选择,若前进动作为非法动作,则在动作空间上选取其他合法动作。
62.3)为了使得模型能够学习到所需要的策略,基于强化学习的方式对模型进行训练,以前述目标检测器对目标的评分以及目标距离观察者的距离作为考察量构建奖励因子。给模型当前时刻的相应输入,让模型进行动作决策,得到下一时刻的输入,并进行上述考察量的评估。以5步决策为一个训练批次,5步内若机器人能够达到一个位置,在该位置下,目标物体的检测评分和距离度量都满足阈值要求,则说明机器人成功完成了导航任务,这时候计算响应的奖励因子,给模型一个正向的激励,并开始下一个批次的训练。否则继续让机器人进行上述评估、决策、移动过程,直到完成任务或者决策步长达到预定上限,并计算响应的奖励因子,对模型进行更新。
63.步骤s600,确定目标驱动下的视觉语义导航步骤,并基于所述视觉语义导航步骤和训练的所述视觉语义导航网络模型完成视觉语义导航任务。
64.于本实施例中,所述目标驱动下的视觉语义导航步骤包括:所述视觉语义导航网络模型接收场景的rgb-d图像,对目标的观察角度和距离进行评估,产生动作决策,调整机器人位置,在新的位置下重复上述决策过程,直到机器人到达目标附近或者决策次数达到上限。
65.即目标驱动下的视觉语义导航的一般步骤流程如下:获取当前场景的rgb-d图像,并对目标的观察角度和距离进行评估,若其达到任务结束条件,则说明机器人已经运动到了目标物体附近。否则,由模型产生动作决策,让机器人在场景中移动去接近物体。
66.以下以示例对本实施例的室内场景下的目标驱动视觉语义导航方法进行说明。
67.1、首先分析场景数据中不同尺寸物体的分布情况,确定头部尺寸以及尾部尺寸。以active vision dataset为例,其尺寸分布情况见表1中的初始分布。可以确认头部尺寸为中等尺寸物体,尾部尺寸为大尺寸物体,因此利用中等尺寸物体来对大尺寸物体和小尺寸物体进行图像增强。
68.表1场景数据物体尺寸分布情况表
[0069][0070]
2、在进行图像增强时,利用中等尺寸物体图像产生小尺寸物体图像时,采用图像拼接的方式,即4张中等尺寸物体图像缩小为其原大小的四分之一,然后拼接成一份图像。在利用中等尺寸物体图像产生大尺寸物体图像的时候,采用自适应局部截取法,如图2所示。将原图划分为5个区域,考察目标与分割线的相交情况,除去原本在区域内的目标外,将与分割线l1、l2相交的目标划入s1区,将与分割线l3、l4相交的目标划入s1区,将与分割线l1、l2、l3、l4相交的目标划入s5区。各区进行长宽等比例放缩,使得区域能够完整包括目标,同
时将含有目标的子区域放大成原图像大小,完成增强过程。
[0071]
3、以faster-rcnn为骨干网络,采用物体尺寸分布动态平衡训练方法对其进行训练,相应的过程如图3所示。处理之后的数据尺寸分布如表1中增强分布所示,训练过程中的物体尺寸分布变化情况如图4(a)与图4(b)所示。为评估方法的性能,表2给出了不同模型的对比,可以看到本发明提出的方法提高了模型的检测能力。
[0072]
表2模型性能对比
[0073][0074]
4、构建视觉语义导航模型,如图5所示。其具体包括:模型输出为前进、后退、左移、右移、顺时针转动、逆时针转动六维动作空间上的某个动作;模型的输入设计中,取当前时刻的前三个时刻的场景信息和相应的动作信息构成历史时刻信息,利用conv-lstm进行特征提取,并取当前时刻场景rgb-d图像信息,目标矩形标定框,动作空间信息构成当前时刻信息,利用cnn进行特种提取。
[0075]
5、视觉语义导航模型的训练流程如图6(a)所示。模型在每个场景中都获取相应的场景rgb-d图像,根据导航策略产生的动作决策进行移动,并评估目标的观测难易度和距离。训练过程中,采用步长t=5为一个训练批次。若在一个训练批次内,机器人与目标物体的距离信息小于距离度量阈值700且物体在视野内的检测评分高于0.5,则说明此时机器人已经完成了导航任务,可以直接开始下一批次的训练。否则,让机器人根据导航策略重复上述决策、移动过程,直到机器人满足上述任务结束条件或者决策步长达到t。在每个批次的一系列动作尝试结束之后,都要根据式(1-1)、式(1-2)评估相应的奖励因子,进行模型权重的更新,使其能够学习到相应的导航策略。在本实施例中,取β1=0.3、β2=0.7,α=2500。在训练中,需要采用基于逆序推理的lstm初始化方式完成缺失的历史场景信息的填充,并监督模型产生的动作决策是否有效,采用基于动作空间的优化方式进行训练。
[0076]
进行导航任务的测试,其过程如图6(b)所示。在当前时刻获取到场景rgb-d图像,进行评估,若机器人与目标的距离度量小于700,则说明机器人已经运动到了目标附近。否则,由模型产生动作决策,让机器人在场景中去移动,接近目标物体。在训练场景和测试场景中,不同导航决策的实际效果见表3、表4。
[0077]
表3导航决策性能对比(训练集)
[0078]
策略子集1子集2子集3平均random0.2420.2480.2390.243forward0.1750.1940.1770.182pg0.4200.3670.3850.391aodn0.5320.5770.5370.549
vsnn0.6850.6370.5500.636
[0079]
表4导航决策性能对比(测试集)
[0080][0081]
由上可见,本实施例充分考虑场景数据中存在的物体尺寸分布极度不平衡状态,通过尺寸动态平衡训练方法,使得检测器能更好的检测尾部尺寸物体。同时构建了视觉语义导航网络,能够直接根据场景的语义上下文信息构建导航策略,不依赖于场景地图的构建,并能在未知的类似场景中也能发挥较好的性能。
[0082]
实施例2
[0083]
如图7所示,本实施例提供一种电子设备101,所述电子设备101包括:处理器1001及存储器1002;所述存储器1002用于存储计算机程序;所述处理器1001用于执行所述存储器1002存储的计算机程序,以使所述电子设备101执行如实施例1中室内场景下的目标驱动视觉语义导航方法的步骤。由于室内场景下的目标驱动视觉语义导航方法的步骤的具体实施过程已经在实施例1中进行了详细说明,在此不再赘述。
[0084]
处理器1001为(central processing unit,中央处理器)。存储器1002通过系统总线与处理器1001连接并完成相互间的通信,存储器1002用于存储计算机程序,处理器1001用于运行计算机程序,以使所述处理器1001执行所述的室内场景下的目标驱动视觉语义导航方法。存储器1002可能包含随机存取存储器(random access memory,简称ram),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
[0085]
此外,本实施例还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器1001执行时实现实施例1中所述的室内场景下的目标驱动视觉语义导航方法中的步骤。实施例1已经对所述室内场景下的目标驱动视觉语义导航方法进行了详细说明,在此不再赘述。
[0086]
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过计算机程序相关的硬件来完成。前述的计算机程序可以存储于一计算机可读存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:rom、ram、磁碟或者光盘等各种可以存储程序代码的介质。
[0087]
综上所述,本发明通过分析场景数据中的物体尺寸分布不平衡现象与模型对不同
尺寸物体检测能力差异之间的联系,设计了一种多尺寸目标自适应的图像增强方法,用来完成对不同尺寸物体图像的增强,并基于这种方式设计实现了一种数据集物体尺寸分布动态平衡方法,动态地调整训练过程中数据集内不同尺寸物体的分布状态,来增强尾部尺寸物体对模型的监督。在保证模型对头部尺寸物体的检测性能的情况下,提高其对尾部尺寸物体的检测能力。同时基于conv-lstm与cnn网络构建了一种视觉语义导航网络模型,建立了优化的lstm初始化方法和基于动作空间优化的模型训练方法,使得模型能够直接根据场景语义上下文信息产生导航策略,不依赖于的场景地图建模,并使得在已知场景中构建的导航策略能够衍生到类似的未知场景中。本发明可以辅助机器人在室内场景中进行导航,提升其场景感知能力,为室内移动机器人开展多种任务提供帮助。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
[0088]
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中包括通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献