一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种眨眼数据的统计方法、装置、介质及电子设备与流程

2021-11-10 04:11:00 来源:中国专利 TAG:


1.本技术涉及图像处理技术领域,具体涉及一种眨眼数据的统计方法、装置、计算机可读存储介质及电子设备。


背景技术:

2.眨眼又称瞬目反射,是一种快速的眼睑的周期性运动,是由提上睑肌和眼轮匝肌的收缩和放松过程中产生的作用力而形成的。根据眨眼时上下眼睑在整个眼睑长度上完全接触与否,可以将眨眼的过程分为完全眨眼和不完全眨眼。
3.眨眼时产生的肌肉作用力促进睑板腺睑脂的分泌,并将分泌的睑脂挤压至眼睑边缘,上下眼睑彼此接触便可将其沿着睑缘均匀扩散至泪膜中,从而形成泪膜的脂质层,达到润滑眼表,减少泪液蒸发的作用。眨眼异常则会相应地引起一系列眼部症状与体征的变化。当出现不完全眨眼时,眼部肌肉挤压力变小,睑板腺将睑脂分泌到眼睑边缘脂质储存库的驱动力减弱,睑脂停滞并凝固于腺管中。此外,随着上下眼睑接触的减少,眼睑边缘脂质储存库脂质减少,进一步出现泪膜分布不均匀。长期阻塞会引起睑板腺的废用性萎缩,从而导致睑板腺丢失。所以当不完全眨眼增多时,会出现更高的眼表疾病指数(osdi)评分、更多的睑板腺丢失以及更差的泪膜稳定性,对于眨眼不完全者,干眼诊断标准的比例也更高。
4.当患者的眼睛表现异常时,可能出现不同程度的眼部灼热感、刺激感或异物感,从而导致眨眼频次改变、眨眼幅度异常、完全闭合时间异常等。因此,可以统计患者眨眼数据以预判其眼睛表现是否正常,然而,现有的统计多是通过人工计数实现的,这样的统计效率不高,而且统计精度也不高。


技术实现要素:

5.为了解决上述技术问题,提出了本技术。本技术的实施例提供了一种眨眼数据的统计方法、装置、计算机可读存储介质及电子设备,解决了上述统计眨眼数据效率和精度不高的问题。
6.根据本技术的一个方面,提供了一种眨眼数据的统计方法,包括:获取预设时间段内包含眼部运动的视频数据;识别所述视频数据的每帧图像,得到上眼睑和下眼睑之间的目标区域;计算所述目标区域对应的睑裂高度;根据所述睑裂高度,确定所述目标区域的开合状态;其中,所述开合状态包括睁眼状态、闭眼状态和半睁眼状态;以及根据所述视频数据中所有帧图像的所述目标区域的开合状态,统计得到所述预设时间段内的眨眼数据。
7.在一实施例中,所述识别所述视频数据的每帧图像,得到上眼睑和下眼睑之间的目标区域包括:将所述视频数据的每帧图像输入识别模型,得到所述上眼睑和所述下眼睑之间的所述目标区域;其中,所述识别模型包括神经网络模型。
8.在一实施例中,所述识别所述视频数据的每帧图像,得到上眼睑和下眼睑之间的目标区域包括:根据所述上眼睑和所述下眼睑之间区域的像素值,选取所述视频数据的每帧图像中封闭的种子区域;当存在所述种子区域时,以所述种子区域为中心向周围扩展以
确定所述目标区域的边界线;以及对确定了所述目标区域的边界线的每帧图像进行二值化处理,得到包含所述目标区域的二值化图像。
9.在一实施例中,所述识别所述视频数据的每帧图像,得到上眼睑和下眼睑之间的目标区域包括:当不存在所述种子区域时,确定所述目标区域为闭眼状态。
10.在一实施例中,所述计算所述目标区域对应的睑裂高度包括:根据所述上眼睑的两端端点得到第一参考线;根据所述下眼睑的两端端点得到第二参考线;根据所述第一参考线和所述第二参考线,确定睑裂高度方向;以及选取所述睑裂高度方向上所述上眼睑和所述下眼睑之间的最大距离作为所述睑裂高度。
11.在一实施例中,所述根据所述睑裂高度,确定所述目标区域的开合状态包括:选取所述视频数据的所有睑裂高度中的最大值和最小值;计算所述睑裂高度与所述最大值之间的最大差异以及与所述最小值之间的最小差异;当所述最大差异小于或等于第一预设差异时,确定所述目标区域的开合状态为睁眼状态;当所述最小差异小于或等于第二预设差异时,确定所述目标区域的开合状态为闭眼状态;以及当所述最大差异大于所述第一预设差异且所述最小差异大于所述第二预设差异时,确定所述目标区域的开合状态为半睁眼状态。
12.在一实施例中,所述根据所述视频数据中所有帧图像的所述目标区域的开合状态,统计得到所述预设时间段内的眨眼数据包括:根据所述视频数据中所有帧图像的所述目标区域的开合状态,获取所述视频数据中的完全眨眼次数和不完全眨眼次数;其中,单次完全眨眼表示所述目标区域的开合状态由睁眼状态变为闭眼状态后再次变为睁眼状态,单次不完全眨眼表示所述目标区域的开合状态由睁眼状态变为半睁眼状态后再次变为睁眼状态。
13.根据本技术的另一个方面,提供了一种眨眼数据的统计装置,包括:视频获取模块,用于获取预设时间段内包含眼部运动的视频数据;图像识别模块,用于识别所述视频数据的每帧图像,得到上眼睑和下眼睑之间的目标区域;高度计算模块,用于计算所述目标区域对应的睑裂高度;状态确定模块,用于根据所述睑裂高度,确定所述目标区域的开合状态;其中,所述开合状态包括睁眼状态、闭眼状态和半睁眼状态;以及数据统计模块,用于根据所述视频数据中所有帧图像的所述目标区域的开合状态,统计得到所述预设时间段内的眨眼数据。
14.根据本技术的另一个方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述任一所述的眨眼数据的统计方法。
15.根据本技术的另一个方面,提供了一种电子设备,所述电子设备包括:处理器;以及用于存储所述处理器可执行指令的存储器;所述处理器用于执行上述任一所述的眨眼数据的统计方法。
16.本技术提供的一种眨眼数据的统计方法、装置、计算机可读存储介质及电子设备,通过获取预设时间段内包含眼部运动的视频数据,然后识别视频数据的每帧图像,得到上眼睑和下眼睑之间的目标区域,计算目标区域对应的睑裂高度,并且根据睑裂高度,确定目标区域的开合状态;最后根据视频数据中所有帧图像的目标区域的开合状态,统计得到预设时间段内的眨眼数据;即通过自动获取一段时间内的视频数据并对该视频数据中的每帧图像进行识别,以得到上眼睑和下眼睑之间的目标区域,并且根据睑裂高度来确定开合状
态,从而统计眨眼数据,不仅降低了数据统计的难度,而且通过自动识别目标区域来计算睑裂高度,从而可以准确获知眨眼的数据,为后续的预判提供了准确的数据基础。
17.附图说明
18.通过结合附图对本技术实施例进行更详细的描述,本技术的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本技术实施例的进一步理解,并且构成说明书的一部分,与本技术实施例一起用于解释本技术,并不构成对本技术的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
19.图1是本技术一示例性实施例提供的一种眨眼数据的统计方法的流程示意图。
20.图2是本技术一示例性实施例提供的一种目标区域识别方法的流程示意图。
21.图3是本技术一示例性实施例提供的一种睑裂高度计算方法的流程示意图。
22.图4是本技术一示例性实施例提供的一种目标区域开合状态确定方法的流程示意图。
23.图5是本技术一示例性实施例提供的一种眨眼数据的统计装置的结构示意图。
24.图6是本技术另一示例性实施例提供的一种眨眼数据的统计装置的结构示意图。
25.图7是本技术一示例性实施例提供的电子设备的结构图。
26.具体实施方式
27.下面,将参考附图详细地描述根据本技术的示例实施例。显然,所描述的实施例仅仅是本技术的一部分实施例,而不是本技术的全部实施例,应理解,本技术不受这里描述的示例实施例的限制。
28.图1是本技术一示例性实施例提供的一种眨眼数据的统计方法的流程示意图。如图1所示,该眨眼数据的统计方法包括:步骤100:获取预设时间段内包含眼部运动的视频数据。
29.通过获取预设时间段内包含眼部运动的视频数据,以分析得到该时间段内眨眼次数,从而可以统计出对应患者的眨眼频率,继而为医生后续确诊提供数据支撑。具体的获取方式可以是通过摄像装置(例如摄像头等)采集人眼部的视频数据,其中,视频数据包括多帧图像数据。
30.步骤200:识别视频数据的每帧图像,得到上眼睑和下眼睑之间的目标区域。
31.通过识别视频数据中的每帧图像,以得到上眼睑和下眼睑之间的区域作为目标区域,即眼球区域或眼睛睁开区域。
32.在一实施例中,步骤200的具体实现方式可以是:将视频数据的每帧图像输入识别模型,得到上眼睑和下眼睑之间的目标区域;其中,识别模型包括神经网络模型。该识别模型可以由标准图像数据训练得到。
33.步骤300:计算目标区域对应的睑裂高度。
34.通过计算目标区域的睑裂高度,即眼睛睁开的高度,以确定当前图像中的眼睛是否睁开以及睁开的比例。
35.步骤400:根据睑裂高度,确定目标区域的开合状态;其中,开合状态包括睁眼状态、闭眼状态和半睁眼状态。
36.在计算得到睑裂高度后,根据该睑裂高度以确定当前图像中眼睛的开合状态。即判断当前图像中眼睛是睁眼状态、闭眼状态或半睁眼状态。
37.步骤500:根据视频数据中所有帧图像的目标区域的开合状态,统计得到预设时间段内的眨眼数据。
38.在获取了每帧图像中目标区域的开合状态(即眼睛的状态)后,根据所有连续的目标区域的开合状态的变化,统计得到在该预设时间内患者眨眼次数等数据。
39.在一实施例中,步骤500的具体实现方式可以是:根据视频数据中所有帧图像的目标区域的开合状态,获取视频数据中的完全眨眼次数和不完全眨眼次数;其中,单次完全眨眼表示目标区域的开合状态由睁眼状态变为闭眼状态后再次变为睁眼状态,单次不完全眨眼表示目标区域的开合状态由睁眼状态变为半睁眼状态后再次变为睁眼状态。也就是说,根据连续图像中目标区域的开合状态的周期性变化以确定眼睛的一次眨眼过程,从而统计眨眼次数(包括完全眨眼和不完全眨眼)、眨眼频率(包括完全眨眼和不完全眨眼)等数据。
40.本技术提供的一种眨眼数据的统计方法,通过获取预设时间段内包含眼部运动的视频数据,然后识别视频数据的每帧图像,得到上眼睑和下眼睑之间的目标区域,计算目标区域对应的睑裂高度,并且根据睑裂高度,确定目标区域的开合状态;最后根据视频数据中所有帧图像的目标区域的开合状态,统计得到预设时间段内的眨眼数据;即通过自动获取一段时间内的视频数据并对该视频数据中的每帧图像进行识别,以得到上眼睑和下眼睑之间的目标区域,并且根据睑裂高度来确定开合状态,从而统计眨眼数据,不仅降低了数据统计的难度,而且通过自动识别目标区域来计算睑裂高度,从而可以准确获知眨眼的数据,为后续的预判提供了准确的数据基础。
41.图2是本技术一示例性实施例提供的一种目标区域识别方法的流程示意图。如图2所示,步骤200可以包括:步骤210:根据上眼睑和下眼睑之间区域的像素值,选取视频数据的每帧图像中封闭的种子区域。
42.由于图像中不同位置的像素值是不同的,根据眼球区域对应的像素值选取一个封闭的区域作为种子区域,即选取一小块区域(该区域必为目标区域内的一部分)做为确定目标区域的依据。
43.步骤220:当存在种子区域时,以种子区域为中心向周围扩展以确定目标区域的边界线。
44.当存在种子区域时,即上眼睑和下眼睑之间存在目标区域(此时可能眼睛为睁眼或半睁眼状态),以该种子区域为中心向周围扩展。具体的,以该种子区域为中心检测周围的像素点的像素值与该种子区域边界像素点的像素值之间的差值,当该差值小于一个预设值时,则说明该周围的像素点也为目标区域,直至该差值大于该预设值时,即找到了目标区域的边界线,从而确定了目标区域范围。
45.步骤230:对确定了目标区域的边界线的每帧图像进行二值化处理,得到包含目标区域的二值化图像。
46.在确定了目标区域的边界线后,对图像进行二值化处理,即将目标区域的像素值
调整为一个固定灰度值(例如255等)、而将其他的非目标区域统一调整为背景(其灰度值调整为0),从而可以更加鲜明的实现目标区域与其他区域的对比。
47.在一实施例中,如图2所示,步骤200还可以包括:步骤240:当不存在种子区域时,确定目标区域为闭眼状态。
48.若种子区域不存在,即上眼睑和下眼睑之间存在目标区域,说明此时的上眼睑和下眼睑是相互贴合的,也就是说此时眼睛为闭眼状态。
49.图3是本技术一示例性实施例提供的一种睑裂高度计算方法的流程示意图。如图3所示,步骤300可以包括:步骤310:根据上眼睑的两端端点得到第一参考线。
50.步骤320:根据下眼睑的两端端点得到第二参考线。
51.在获取了目标区域的边界线后,该边界线的上下边界即为上眼睑和下眼睑的图像,根据上眼睑和下眼睑的两端端点即可得到第一参考线和第二参考线。具体的,第一参考线和第二参考线可以分别为上眼睑两端端点的连线、下眼睑两端端点的连线。
52.步骤330:根据第一参考线和第二参考线,确定睑裂高度方向。
53.由于每个人的眼睑不同,甚至有的人眼睛有些倾斜,此时若按照水平和竖直方向来计算睑裂高度会出现不准确的情况。因此,本技术通过上眼睑和下眼睑确定第一参考线和第二参考线,然后根据第一参考线和第二参考线来确定睑裂高度的方向。具体的,可以是根据第一参考线和第二参考线得到一个参考方向,该参考方向可以由第一参考线和第二参考线拟合得到,即第一参考线和第二参考线上的所有点到该参考方向所在直线的距离总和最小。在得到参考方向后,即可确定睑裂高度的方向为与该参考方向垂直的方向。
54.步骤340:选取睑裂高度方向上上眼睑和下眼睑之间的最大距离作为睑裂高度。
55.在确定了睑裂方向后,即可计算沿着睑裂方向上眼睑和下眼睑之间的多个距离值,选取其中的最大值作为睑裂高度可以更好的反应当前眼睛的开合状态。
56.图4是本技术一示例性实施例提供的一种目标区域开合状态确定方法的流程示意图。如图4所示,步骤400可以包括:步骤410:选取视频数据的所有睑裂高度中的最大值和最小值。
57.由于每个人睁眼和闭眼状态不同,例如有的人闭眼时其上眼睑和下眼睑之间的睑裂高度并不是零,因此,本技术在计算得到每帧图像中的睑裂高度后,选取所有睑裂高度中的最大值和最小值,分别以该最大值和最小值作为该患者的睁眼最大状态和闭眼状态。
58.步骤420:计算睑裂高度与最大值之间的最大差异以及与最小值之间的最小差异。
59.分别计算所有图像中的睑裂高度与最大值之间的最大差异以及与最小值之间的最小差异,从而来判断该睑裂高度对应的开合状态。
60.步骤430:当最大差异小于或等于第一预设差异时,确定目标区域的开合状态为睁眼状态。
61.当最大差异小于或等于第一预设差异时,即说明当前图像中目标区域的睑裂高度与最大睁眼状态的差异较小,此时可以确定当前图像对应的眼睛开合状态为睁眼状态。
62.步骤440:当最小差异小于或等于第二预设差异时,确定目标区域的开合状态为闭眼状态。
63.当最小差异小于或等于第二预设差异时,即说明当前图像中目标区域的睑裂高度
与最小睁眼状态的差异较小,此时可以确定当前图像对应的眼睛开合状态为闭眼状态。其中,第二预设差异可以等于第一预设差异,也可以不等于。
64.步骤450:当最大差异大于第一预设差异且最小差异大于第二预设差异时,确定目标区域的开合状态为半睁眼状态。
65.当最大差异大于第一预设差异且最小差异大于第二预设差异时,即说明当前图像中目标区域的睑裂高度与最大睁眼状态的差异较大,同时与最小睁眼状态的差异较大,此时可以确定当前图像对应的眼睛开合状态为半睁眼状态。
66.图5是本技术一示例性实施例提供的一种眨眼数据的统计装置的结构示意图。如图5所示,该眨眼数据的统计装置50包括:视频获取模块51,用于获取预设时间段内包含眼部运动的视频数据;图像识别模块52,用于识别视频数据的每帧图像,得到上眼睑和下眼睑之间的目标区域;高度计算模块53,用于计算目标区域对应的睑裂高度;状态确定模块54,用于根据睑裂高度,确定目标区域的开合状态;其中,开合状态包括睁眼状态、闭眼状态和半睁眼状态;以及数据统计模块55,用于根据视频数据中所有帧图像的目标区域的开合状态,统计得到预设时间段内的眨眼数据。
67.本技术提供的一种眨眼数据的统计装置,通过视频获取模块51获取预设时间段内包含眼部运动的视频数据,然后图像识别模块52识别视频数据的每帧图像,得到上眼睑和下眼睑之间的目标区域,高度计算模块53计算目标区域对应的睑裂高度,并且状态确定模块54根据睑裂高度,确定目标区域的开合状态;最后数据统计模块55根据视频数据中所有帧图像的目标区域的开合状态,统计得到预设时间段内的眨眼数据;即通过自动获取一段时间内的视频数据并对该视频数据中的每帧图像进行识别,以得到上眼睑和下眼睑之间的目标区域,并且根据睑裂高度来确定开合状态,从而统计眨眼数据,不仅降低了数据统计的难度,而且通过自动识别目标区域来计算睑裂高度,从而可以准确获知眨眼的数据,为后续的预判提供了准确的数据基础。
68.在一实施例中,图像识别模块52可以进一步配置为:将视频数据的每帧图像输入识别模型,得到上眼睑和下眼睑之间的目标区域;其中,识别模型包括神经网络模型。该识别模型可以由标准图像数据训练得到。
69.在一实施例中,状态确定模块54可以进一步配置为:根据视频数据中所有帧图像的目标区域的开合状态,获取视频数据中的完全眨眼次数和不完全眨眼次数;其中,单次完全眨眼表示目标区域的开合状态由睁眼状态变为闭眼状态后再次变为睁眼状态,单次不完全眨眼表示目标区域的开合状态由睁眼状态变为半睁眼状态后再次变为睁眼状态。
70.图6是本技术另一示例性实施例提供的一种眨眼数据的统计装置的结构示意图。如图6所示,图像识别模块52可以包括:种子选取单元521,用于根据上眼睑和下眼睑之间区域的像素值,选取视频数据的每帧图像中封闭的种子区域;边界线确定单元522,用于当存在种子区域时,以种子区域为中心向周围扩展以确定目标区域的边界线;二值化单元523,用于对确定了目标区域的边界线的每帧图像进行二值化处理,得到包含目标区域的二值化图像。
71.在一实施例中,状态确定模块54可以进一步配置为:当不存在种子区域时,确定目标区域为闭眼状态。
72.在一实施例中,如图6所示,高度计算模块53可以包括:第一获取单元531,用于根
据上眼睑的两端端点得到第一参考线;第二获取单元532,用于根据下眼睑的两端端点得到第二参考线;方向确定单元533,用于根据第一参考线和第二参考线,确定睑裂高度方向;高度选取单元534,用于选取睑裂高度方向上上眼睑和下眼睑之间的最大距离作为睑裂高度。
73.在一实施例中,如图6所示,状态确定模块54可以包括:最值选取单元541,用于选取视频数据的所有睑裂高度中的最大值和最小值;差异计算单元542,用于计算睑裂高度与最大值之间的最大差异以及与最小值之间的最小差异;状态判断单元543,用于当最大差异小于或等于第一预设差异时,确定目标区域的开合状态为睁眼状态,当最小差异小于或等于第二预设差异时,确定目标区域的开合状态为闭眼状态,当最大差异大于第一预设差异且最小差异大于第二预设差异时,确定目标区域的开合状态为半睁眼状态。
74.下面,参考图7来描述根据本技术实施例的电子设备。该电子设备可以是第一设备和第二设备中的任一个或两者、或与它们独立的单机设备,该单机设备可以与第一设备和第二设备进行通信,以从它们接收所采集到的输入信号。
75.图7图示了根据本技术实施例的电子设备的框图。
76.如图7所示,电子设备10包括一个或多个处理器11和存储器12。
77.处理器11可以是中央处理单元(cpu)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备10中的其他组件以执行期望的功能。
78.存储器12可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(ram)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(rom)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器11可以运行所述程序指令,以实现上文所述的本技术的各个实施例的眨眼数据的统计方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
79.在一个示例中,电子设备10还可以包括:输入装置13和输出装置14,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
80.在该电子设备是单机设备时,该输入装置13可以是通信网络连接器,用于从第一设备和第二设备接收所采集的输入信号。
81.此外,该输入设备13还可以包括例如键盘、鼠标等等。
82.该输出装置14可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出设备14可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
83.当然,为了简化,图7中仅示出了该电子设备10中与本技术有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备10还可以包括任何其他适当的组件。
84.除了上述方法和设备以外,本技术的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本技术各种实施例的眨眼数据的统计方法中的步骤。
85.所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本技术实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如
java、c 等,还包括常规的过程式程序设计语言,诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
86.此外,本技术的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本技术各种实施例的眨眼数据的统计方法中的步骤。
87.所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑盘只读存储器(cd

rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。
88.以上结合具体实施例描述了本技术的基本原理,但是,需要指出的是,在本技术中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本技术的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本技术为必须采用上述具体的细节来实现。
89.本技术中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
90.还需要指出的是,在本技术的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本技术的等效方案。
91.提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本技术。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本技术的范围。因此,本技术不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
92.为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本技术的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献