一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

穿戴式设备的制作方法

2022-02-22 00:08:41 来源:中国专利 TAG:


1.本说明书涉及增强现实技术领域,尤其涉及一种穿戴式设备。


背景技术:

2.随着计算机技术的快速发展,增强现实(augmented reality,ar)的概念被消费者普遍认知,从而广泛地应用于各个领域,特别是在穿戴式设备领域,比如,智能头盔、智能眼镜、智能手表,等等。现有技术中的穿戴式设备中的摄像头只能获取视场范围内的平面图像,无法获取深度信息,也无法帮助用户判断物体的位置。
3.因此,需要提供一种能够获取物体位置信息的穿戴式设备,以生成并显示立体图像,从而应用于更广泛的场景。


技术实现要素:

4.本说明书提供一种穿戴式设备,能够获取物体的位置信息,以生成并显示立体图像,从而应用于更广泛的场景。
5.本说明书提供一种穿戴式设备,包括壳体、激光雷达、视觉传感器、控制装置以及显示装置,所述激光雷达安装在所述壳体上,运行时测量目标视场内的物体相对于所述激光雷达的位置数据,所述位置数据包括三维坐标信息;所述视觉传感器安装在所述壳体上,运行时采集所述目标视场内的图像数据;所述控制装置安装在所述壳体上,与所述激光雷达以及所述视觉传感器通信连接,实时获取所述位置数据以及所述图像数据,并实时将所述位置数据与所述图像数据进行叠加处理,生成立体图像;以及所述显示装置安装在所述壳体上,与所述控制装置通信连接,接收并显示所述立体图像。
6.在一些实施例中,所述激光雷达运行时向所述目标视场发射多个不同角度的电磁波信号,并接收所述目标视场内的物体反射回的多个反射电磁波信号,从而获取所述目标视场内的物体相对于所述激光雷达的三维坐标信息。
7.在一些实施例中,所述穿戴式设备为头戴式设备,用于穿戴于目标对象的头部,所述显示装置位于所述目标对象的眼睛的前方。
8.在一些实施例中,所述立体图像包括具有深度信息的图像数据。
9.在一些实施例中,所述立体图像包括所述目标视场的三维模型数据。
10.在一些实施例中,所述穿戴式设备还包括热成像装置,安装在所述壳体上,与所述控制装置通信连接,运行时采集所述目标视场内的热影像数据。
11.在一些实施例中,所述控制装置实时接收所述热影像数据,并实时将所述热影像数据、所述位置数据以及所述图像数据进行叠加,得到所述立体图像,所述立体图像包括所述热影像数据与所述位置数据以及所述图像数据叠加处理后的图像数据。
12.在一些实施例中,所述激光雷达、所述视觉传感器以及所述热成像装置按照预设位置关系安装,且彼此的距离不超过预设值。
13.在一些实施例中,所述壳体包括第一壳体以及第二壳体,所述穿戴式设备工作时
通过所述第一壳体被穿戴在目标对象上,所述第一壳体包括容置腔,所述显示装置以及所述控制装置安装在所述容置腔内;所述激光雷达、所述视觉传感器以及所述热成像装置安装在所述第二壳体上,所述第二壳体与所述第一壳体固定连接,将所述显示装置以及所述控制装置封闭在所述容置腔内。
14.在一些实施例中,所述控制装置包括通信模块,运行时与外部电子设备通信连接,以从所述外部电子设备获取虚拟模型数据,或向所述外部电子设备发送所述立体图像,所述控制装置能够接收所述虚拟模型数据,并将所述虚拟模型数据与所述立体图像数据进行叠加处理生成显示图像,并通过所述显示装置显示所述显示图像。
15.由以上技术方案可知,本说明书提供的穿戴式设备上设置有激光雷达,激光雷达可向目标视场内发射多组不同角度的电磁波信号,并接收目标视场内的物体对电磁波信号的反射,从而实时计算出目标视场内的物体相对于激光雷达的位置数据,例如三维坐标信息。穿戴式设备还可以通过摄像头实时采集目标视场的图像数据。控制装置可以实时将图像数据与位置数据叠加,从而实时获取目标视场的立体图像,并将立体图像通过显示装置进行显示,以帮助目标对象(佩戴者)判断物体位置。在一些实施例中,穿戴式设备还可以包括热成像装置以生成热影像数据。控制装置可以将立体图像与热影像数据进行叠加处理并控制显示装置显示该叠加处理的结果,以帮助目标对象获取目标视场内的温度分布数据,从而使穿戴式设备应用于更多场景。
16.本说明书提供的穿戴式设备的其他功能将在以下说明中部分列出。本说明书提供的穿戴式设备的创造性方面可以通过实践或使用下面详细示例中的方法、装置和组合得到充分解释。
附图说明
17.为了更清楚地说明本说明书实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
18.图1示出了根据本说明书的实施例提供的一种穿戴式设备的整体结构示意图;
19.图2示出了根据本说明书的实施例提供的一种穿戴式设备的爆炸结构示意图;
20.图3示出了根据本说明书的实施例提供的一种穿戴式设备的硬件结构示意图;
21.图4示出了根据本说明书的实施例提供的一种数据叠加的方法的流程图;
22.图5示出了根据本说明书的实施例提供的一种穿戴式设备应用于灾难救援时显示装置的画面的示意图;
23.图6示出了根据本说明书的实施例提供的一种穿戴式设备应用于灾难救援时显示装置的画面的示意图;
24.图7示出了根据本说明书的实施例提供的一种穿戴式设备应用于灾难救援时显示装置的画面的示意图;
25.图8示出了根据本说明书的实施例提供的一种穿戴式设备应用于三维物体实时扫描时的场景示意图;
26.图9示出了根据本说明书的实施例提供的一种穿戴式设备应用于三维物体实时扫
描时显示装置的画面的示意图;
27.图10示出了根据本说明书的实施例提供的一种穿戴式设备远程传输的场景示意图;
28.图11示出了根据本说明书的实施例提供的一种穿戴式设备应用于手势识别时显示装置的画面的示意图;
29.图12示出了根据本说明书的实施例提供的另一种穿戴式设备应用于手势识别时显示装置的画面的示意图;以及
30.图13示出了根据本说明书的实施例提供的一种穿戴式设备应用于滑雪时显示装置的画面的示意图。
具体实施方式
31.以下描述提供了本说明书的特定应用场景和要求,目的是使本领域技术人员能够制造和使用本说明书中的内容。对于本领域技术人员来说,对所公开的实施例的各种局部修改是显而易见的,并且在不脱离本说明书的精神和范围的情况下,可以将这里定义的一般原理应用于其他实施例和应用。因此,本说明书不限于所示的实施例,而是与权利要求一致的最宽范围。
32.这里使用的术语仅用于描述特定示例实施例的目的,而不是限制性的。比如,除非上下文另有明确说明,这里所使用的,单数形式“一”,“一个”和“该”也可以包括复数形式。当在本说明书中使用时,术语“包括”、“包含”和/或“含有”意思是指所关联的整数,步骤、操作、元素和/或组件存在,但不排除一个或多个其他特征、整数、步骤、操作、元素、组件和/或组的存在或在该系统/方法中可以添加其他特征、整数、步骤、操作、元素、组件和/或组。
33.考虑到以下描述,本说明书的这些特征和其他特征、以及结构的相关元件的操作和功能、以及部件的组合和制造的经济性可以得到明显提高。参考附图,所有这些形成本说明书的一部分。然而,应该清楚地理解,附图仅用于说明和描述的目的,并不旨在限制本说明书的范围。还应理解,附图未按比例绘制。
34.本说明书提供一种穿戴式设备。穿戴式设备可以是任意形式的可穿戴在人体身上的智能电子设备。在一些实施例中,穿戴式设备可以是着装类,穿戴在目标对象躯干上或者四肢上的电子设备,例如智能手环、智能手表,等等。在一些实施例中,穿戴式设备可以是头戴式设备,头戴式设备用于穿戴于目标对象头部,比如智能头盔、智能眼镜,等等。为了方便展示,在本说明书中,我们将以穿戴式设备为头戴式设备为例进行描述。其中,目标对象可以是佩戴者,佩戴者可以是人类。
35.图1示出了根据本说明书的实施例提供的一种穿戴式设备001的整体结构示意图;图2示出了根据本说明书的实施例提供的一种穿戴式设备001的爆炸结构示意图。如图1和图2所示,穿戴式设备001可以包括壳体100、激光雷达200、视觉传感器400、控制装置600以及显示装置800。在一些实施例中,穿戴式设备001还可以包括热成像装置900。
36.壳体100可以是穿戴式设备001各个零部件的安装基座或机架。激光雷达200、视觉传感器400、控制装置600、显示装置800以及热成像装置900可以安装在壳体100上,也可以安装在壳体100内部。壳体100还可以是穿戴式设备001的穿戴基体。穿戴式设备001可以通过壳体100被穿戴在目标对象上的目标部位,比如头部。壳体100的材质可以为任意材质,比
如金属材质、非金属材质、高分子材质等等。壳体100可以包括刚性部件,也可以包括柔性部件。壳体100的外观可以根据佩戴方式以及佩戴部位的不同做适应性设计,本说明书对此不做限定。壳体100上可以包括可调节装置,以调节壳体100的尺寸,从而增强于不同的目标对象的适配性和舒适度。
37.在一些实施例中,壳体100可以包括第一壳体120和第二壳体140。第一壳体120可以是控制装置600以及显示装置800的安装基体,也可以是穿戴式设备001的穿戴基体。穿戴式设备001工作时可以通过第一壳体120被穿戴在目标对象上。第一壳体120可以包括容置腔122。显示装置800以及控制装置600可以安装在容置腔122内。在一些实施例中,第一壳体120上还可以设有数据传输接口124,用于与外部电子设备6进行连接,以进行数据传输。数据传输接口124可以是任意形式的数据接口,比如,usb接口、type-c接口,等等。
38.第二壳体140可以与第一壳体120固定连接,以将显示装置800以及控制装置600封闭在容置腔122内。固定连接方式可以是螺纹连接、卡扣连接、粘接、焊接、铆接等连接方式中的至少一种。第二壳体140与第一壳体120连接后可以对显示装置800以及控制装置600形成密封保护,防止显示装置800以及控制装置600被外界破坏。第二壳体140可以包括安装槽142、传感器保护镜片144和显示装置保护镜片146。激光雷达200、视觉传感器400以及热成像装置900安装在第二壳体140中的安装槽142中。传感器保护镜片144可以位于安装槽142外部,以对激光雷达200、视觉传感器400以及热成像装置900形成保护。显示装置保护镜片146的位置与显示装置800的安装位置相对应,以对显示装置800形成保护。
39.图3示出了根据本说明书的实施例提供的一种穿戴式设备001的硬件结构示意图。
40.如图1至图3所示,激光雷达200可以安装在壳体100上,具体可以安装在安装槽142中。激光雷达200在运行时可以测量目标视场内的物体相对于激光雷达200的位置数据。位置数据可以是三维坐标信息。即激光雷达200运行时可以测量目标视场内的物体在激光雷达200的基准坐标系中的坐标信息。激光雷达200可以用作测量距离与角度,通过发射微波信号,接收经物体反射的微波信号的反射信号计算时间差,来计算物体与激光雷达200的距离与角度。具体地,激光雷达200可以包括发射传感器和接收传感器。发射传感器可以向外发射电磁波信号。具体地,发射传感器可以向外发射多个不同发射角度的电磁波信号。接收传感器可以接收经目标视场内的物体反射回的电磁波信号。具体的,接收传感器可以接收经目标视场内的物体反射回的多个反射电磁波信号。激光雷达200可以基于每个电磁波信号与其对应的反射电磁波信号的时间差,确定当前电磁波信号的发射角度上的物体与激光雷达200的距离,并基于当前电磁波信号的发射角度确定发射角度上的物体相对于激光雷达200的三维坐标信息。
41.目标视场可以是激光雷达200的感应范围。目标视场根据使用需求进行设定和更改。
42.在一些实施例中,激光雷达200可以用作三维空间扫描,从而建立目标视场的三维模型。具体地,激光雷达200可以获取目标视场内不同位置的物体相对于激光雷达200的三维坐标信息,从而获取目标视场内的物体之间的相对坐标信息。当激光雷达200的位置和姿态发生变化时,计算设备(比如控制装置600)可以从目标视场内选取一个固定点作为基准点,根据激光雷达200在不同时刻获取的不同位置的物体相对于激光雷达200的三维坐标信息,计算得到不同位置的物体相对于基准点的三维坐标信息,从而建立目标视场内的物体
的三维模型。激光雷达200可以实时进行位置数据的采集,计算设备可以实时进行三维建模。
43.如图1至图3所示,视觉传感器400可以安装在壳体100上,具体可以安装在安装槽142中。视觉传感器400运行时可以采集目标视场内的图像数据。视觉传感器400可以是摄像头,比如rgb摄像头,再比如红外摄像头,等等。视觉传感器400可以拍摄目标视场内的图像。视觉传感器400的感应范围可以与激光雷达200的感应范围接近。在一些实施例中,视觉传感器400的感应范围可以包括目标视场。在一些实施例中,目标视场可以包括视觉传感器400的感应范围。
44.如图1至图3所示,热成像装置900可以安装在壳体100上,具体可以安装在安装槽142中。热成像装置900运行时可以采集目标视场内的热影像数据。热成像装置900可以包括红外探测器和光学成像物镜,光学成像物镜接受被测目标的红外辐射能量分布图形,红外探测器将该图形反映到红外探测器的光敏元件上,从而获得热影像数据。热影像数据可以是通过不同颜色来显示物体的不同温度的图像。热成像装置900的感应范围可以与激光雷达200的感应范围接近。在一些实施例中,热成像装置900的感应范围可以包括目标视场。在一些实施例中,目标视场可以包括热成像装置900的感应范围。
45.激光雷达200、视觉传感器400以及热成像装置900按照预设位置关系安装。为了使激光雷达200、视觉传感器400以及热成像装置900之间的感应范围尽可能一致,降低三者之间的视觉误差,以尽可能减少误差率,三者之间的距离应尽可能小,且彼此的距离不超过预设值。预设值可以通过实验方式获取,也可以通过机器学习获取。
46.激光雷达200、视觉传感器400以及热成像装置900之间可以按照预设方式排列。比如,激光雷达200、视觉传感器400以及热成像装置900可以线性排列,即排列为一列,可以是水平线性排列,也可以是竖直线性排列,还可以是任意方向的线性排列等等。在一些实施例中,激光雷达200可以位于中间,视觉传感器400以及热成像装置900分别位于激光雷达200的两侧。在一些实施例中,视觉传感器400可以位于中间,激光雷达200以及热成像装置900分别位于视觉传感器400的两侧。在一些实施例中,热成像装置900可以位于中间,激光雷达200以及视觉传感器400分别位于热成像装置900的两侧。在一些实施例中,激光雷达200、视觉传感器400以及热成像装置900可以是矩形排列,比如,三者可以分为两行,其中一行中包含三者中的一个,另外一行中包含三者中的另外两个。在一些实施例中,激光雷达200位于第一行,视觉传感器400和热成像装置900并列位于激光雷达200的下方。在一些实施例中,视觉传感器400位于第一行,激光雷达200和热成像装置900并列位于视觉传感器400的下方。
47.如图1至图3所示,控制装置600可以安装在壳体100上,具体可以安装在第一壳体120的容置腔122内。控制装置600可以与激光雷达200、视觉传感器400以及热成像装置900通信连接,实时获取位置数据、图像数据以及热影像数据。在一些实施例中,控制装置600还可以实时将位置数据与图像数据进行叠加处理,生成立体图像。立体图像可以包括位置数据与图像数据叠加处理后的数据。在一些实施例中,控制装置600还可以实时将热影像数据、位置数据以及图像数据进行叠加处理,实时得到立体图像。此时,立体图像可以包括热影像数据与位置数据以及图像数据叠加处理后的图像数据。在一些实施例中,控制装置600还可以与显示装置800通信连接,控制显示装置800显示立体图像。也就是说,控制装置600
可以实时将位置数据、图像数据以及热影像数据进行数据叠加处理,以获取立体图像或立体温度分布图像。
48.控制装置600可以包括具有数据信息处理功能的硬件设备和驱动该硬件设备工作所需的程序。当然,控制装置600也可以仅为具有数据处理能力的硬件设备,或者,仅为运行在硬件设备中的程序。在一些实施例中,控制装置600可以包括电路板。控制装置600可以执行数据叠加处理的方法。数据叠加处理的方法将在本说明书中的其他部分介绍。如图3所示,控制装置600可以包括至少一个存储介质630和至少一个中央处理器620。在一些实施例中,控制装置600还可以包括通信模块650和内部通信总线610。同时,控制装置600还可以包括周边控制模块640、电源控制模块680以及显示控制模块690。
49.内部通信总线610可以连接不同的系统组件,该系统组件包括存储介质630、中央处理器620、通信模块650以及周边控制模块640、电源控制模块680、显示控制模块690。内部通信总线610还可以连接激光雷达200、视觉传感器400、热成像装置900以及显示装置800。
50.周边控制模块640支持控制装置600和其他组件之间的输入/输出。
51.通信模块650用于控制装置600与外界进行数据通信,比如,通信模块650可以用于控制装置600与外部电子设备6的数据传输。通信模块650可以是有线通信模块,也可以是无线通信模块。有线通信模块可以与数据传输接口124电连接。所述有线通信模块所采用的通信方式包括但不局限于移动高清链接技术(hml)、通用串行总线(usb)、高清多媒体接口(hdmi),等等。所述无线通信模块所采用的通信方式包括但不局限于无线保真技术(wifi)、蓝牙通信技术、低功耗蓝牙通信技术、基于ieee802.11s的通信技术,等等。在一些实施例中,通信模块650中还可以包括定位模块,以对穿戴式设备001进行定位,比如gps模块。通信模块650运行时可以与外部电子设备6通信连接,以从外部电子设备6获取虚拟模型数据,或向外部电子设备6发送立体图像。控制装置600能够接收虚拟模型数据,并将虚拟模型数据与立体图像进行叠加处理,并通过显示装置800显示叠加处理结果。外部电子设备6可以是任意智能电子设备,比如智能手机、电脑、平板、智能手环,等等。
52.存储介质630可以包括数据存储装置。数据存储装置可以是非暂时性存储介质,也可以是暂时性存储介质。比如,数据存储装置可以包括磁盘632、只读存储介质(rom)634或随机存取存储介质(ram)636中的一种或多种。存储介质630还包括存储在数据存储装置中的至少一个指令集。指令是计算机程序代码,计算机程序代码可以包括执行本说明书提供的数据叠加处理的方法的程序、例程、对象、组件、数据结构、过程、模块等等。
53.至少一个中央处理器620可以同至少一个存储介质630以及通信模块650通过内部通信总线610通信连接。至少一个中央处理器620用以执行上述至少一个指令集。当控制装置600运行时,至少一个中央处理器620读取至少一个指令集,并且根据至少一个指令集的指示执行本说明书提供的数据叠加处理的方法。中央处理器620可以执行数据叠加处理方法包含的所有步骤。中央处理器620可以是一个或多个处理器的形式,在一些实施例中,中央处理器620可以包括一个或多个硬件处理器,例如微控制器,微处理器,精简指令集计算机(risc),专用集成电路(asic),特定于应用的指令集处理器(asip),中央处理单元(cpu),图形处理单元(gpu),物理处理单元(ppu),微控制器单元,数字信号处理器(dsp),现场可编程门阵列(fpga),高级risc机器(arm),可编程逻辑器件(pld),能够执行一个或多个功能的任何电路或处理器等,或其任何组合。仅仅为了说明问题,在本说明书中控制装置600中仅
描述了一个中央处理器620。然而,应当注意,本说明书中控制装置600还可以包括多个处理器,因此,本说明书中披露的操作和/或方法步骤可以如本说明书所述的由一个处理器执行,也可以由多个处理器联合执行。例如,如果在本说明书中控制装置600的中央处理器620执行步骤a和步骤b,则应该理解,步骤a和步骤b也可以由两个不同中央处理器620联合或分开执行(例如,第一处理器执行步骤a,第二处理器执行步骤b,或者第一和第二处理器共同执行步骤a和b)。
54.电源控制模块680可以用于控制穿戴式设备001的电池管理。
55.显示控制模块690可以用于控制显示装置800进行显示。
56.显示装置800可以安装在壳体100上,具体可以安装在第一壳体120的容置腔122内。显示装置800可以与控制装置600通信连接,接收并显示立体图像或立体温度分布图像。当穿戴式设备001佩戴在目标对象头部时,显示装置800可以位于目标对象眼睛的正前方。显示装置800可以包括一个或多个显示器。
57.图4示出了根据本说明书的实施例提供的一种数据叠加处理的方法p100的流程图。控制装置600可以执行方法p100。具体地,中央处理器620可以执行方法p100。如图4所示,方法p100可以包括:
58.s110:控制装置600接收图像数据以及位置数据。
59.具体地,控制装置600可以实时从视觉传感器400中获取图像数据。控制装置600可以实时从激光雷达200中获取位置数据。
60.在一些实施例中,方法p100还可以包括:
61.s120:控制装置600接收热影像数据。
62.控制装置600可以实时从热成像装置900中获取热影像数据。
63.方法p100还可以包括:
64.s140:控制装置600实时对图像数据和位置数据进行叠加处理,或实时对热影像数据、图像数据以及位置数据进行叠加处理,生成立体图像。
65.在一些实施例中,控制装置600可以基于时间戳,获取同一时刻的图像数据和位置数据进行叠加处理。如前所述,位置数据包括目标视场内的物体相对于激光雷达200的三维坐标信息。控制装置600中可以有预先存储有激光雷达200、视觉传感器400以及热成像装置900之间的相对位置关系。控制装置600可以基于激光雷达200与视觉传感器400之间的相对位置关系以及位置数据,计算得到目标视场内的物体相对于视觉传感器400的三维坐标信息。控制装置600还可以基于目标视场内的物体相对于视觉传感器400的三维坐标信息以及图像数据中每个像素点在图像数据中的坐标,计算得到每个像素点对应的深度信息,即每个像素点中的物体与视觉传感器400的距离,从而得到立体图像。立体图像至少包括图像数据和位置数据进行叠加处理后的图像数据。
66.在一些实施例中,控制装置600可以基于热影像数据对热影像中的物体进行温度标识。温度标识可以是用数字标识温度,也可以是用不同的颜色标识不同的温度。控制装置600可以基于时间戳,获取同一时刻的热影像数据、图像数据和位置数据进行叠加处理,生成立体图像。此时,立体图像可以包括热影像数据、图像数据和位置数据进行叠加处理后的图像数据。
67.在一些实施例中,立体图像可以包括具有深度信息的图像数据,即深度图像。在一
些实施例中,立体图像可以包括目标视场内的三维模型数据。如前所述,激光雷达200可以用于三维空间扫描。控制装置600可以基于位置数据,确定目标视场内的物体的相对位置关系,从而构建目标视场的三维模型。控制装置600还可以将图像数据与三维模型叠加处理,得到立体图像,即包含目标视场内的三维模型的图像。
68.在一些实施例中,步骤s140还可以包括:控制装置600接收外部电子设备6发送的虚拟模型,并将虚拟模型与立体图像进行叠加处理。控制装置600可以通过通信模块接收外部电子设备6发送的虚拟模型。控制装置600可以将虚拟模型与立体图像进行比对分析,获取参考点,并将虚拟模型进行运算使之与立体图像相匹配,以参考点为基准,将虚拟模型与立体图像叠加处理,得到虚实结合立体图像。此时,立体图像可以包括虚拟模型与立体图像进行叠加处理得到的虚实结合立体图像。
69.在一些实施例中,方法p100还可以包括:
70.s160:控制装置600判断步骤s140的运算结果是否正确。
71.在一些实施例中,方法p100还可以包括:
72.s170:控制装置600确定运算结果正确,控制显示装置800显示立体图像。
73.控制装置600可以通过显示控制模块690控制显示装置800显示立体图像。
74.在一些实施例中,方法p100还可以包括:
75.s180:控制装置600确定运算结果正确,通过通信模块650向外部电子设备6发送立体图像。
76.在一些实施例中,方法p100还可以包括:
77.s190:控制装置600确定运算结果不正确,重新执行步骤s140。
78.本说明书提供的穿戴式设备001可以应用于灾难救援的场景。一般灾难现场环境较乱,救援人员搜救生还者的困难程度相当高,并且救援人员很难判断灾难现场中的受难者是否仍生还。另外,假如灾难现场早期存在建筑物,而真实的灾难现场的建筑物已经遭到破坏,使得救援难度再次提升。此时,救援人员可以佩戴本说明书提供的穿戴式设备001通过激光雷达200实时获取灾难现场的物体的位置数据,进而计算出灾难现场的物体之间的相对距离。穿戴式设备001还可以通过激光雷达200实时多方位测量,根据测量结果构建灾难现场的三维模型,并与视觉传感器400采集的图像数据相结合,生成灾难现场的立体图像,提高灾难现场的三维模型与实际场景的匹配度。穿戴式设备001还可以将早期的建筑物的三维虚拟模型与扫描建立的灾难现场的立体图像进行叠加比对,帮助救援人员了解灾害发生前与灾害发生后的建筑结构的差异,使救援人员可以找出更好的救援路线来执行救灾任务。由于灾难现场的生还者可能被建筑物掩埋,救援人员很难通过肉眼识别。穿戴式设备001还可以将热成像装置900生成的热影像叠加至立体图像中,获得灾难现场可视范围内的所有物体的温度分布,帮助救援人员快速有效地从灾难现场识别出生还者以及生还者的位置。本说明书提供的穿戴式设备001在应用于灾难救援场景时,可帮助救援人员快速建立灾难现场的立体图像,有效快速地规划救援路线以及快速识别生还者的位置,有效提高救援效率。穿戴式设备001还可以将灾难现场的立体图像通过无线传输模块传输至外部的指挥中心或控制中心,从而与远端的指挥中心或控制中心以及多个不同位置的灾难现场的人员协同合作,协助救援人员识别和救助生还者,提高生还者的救援生还率以及避免救援人员在灾难现场受难。
79.图5示出了根据本说明书的实施例提供的一种穿戴式设备001应用于灾难救援时显示装置800的画面801的示意图。救援人员通过观看显示装置800上显示的画面801了解灾难现场。在画面801中显示的影像为实际灾难现场的立体图像。画面801中底部显示有安装于显示装置800中的操作系统的操作按钮。救援人员可以通过操作按钮实现对系统的操作。
80.图6示出了根据本说明书的实施例提供的一种穿戴式设备001应用于灾难救援时显示装置800的画面802的示意图。救援人员通过观看显示装置800上显示的画面802了解灾难现场。在画面802中显示的影像为实际灾难现场的立体图像与灾难现场的原建筑物的三维模型1叠加后的虚实叠加的图像,有效帮助救援人员通过虚实叠加的方式了解灾难发生前后的差异性,并能从中找出最佳救援线路。画面802中底部显示有操作系统的操作按钮。救援人员可以通过操作按钮实现对系统的操作。
81.图7示出了根据本说明书的实施例提供的一种穿戴式设备001应用于灾难救援时显示装置800的画面803的示意图。救援人员通过观看显示装置800上显示的画面803了解灾难现场。在画面803中显示的影像为实际灾难现场的立体图像与热影像数据叠加后的图像,可以有效帮助救援人员了解灾难现场的温度分布,根据温度分布快速识别出人形图示的位置可能存在生还者2。画面803中底部显示有操作系统的操作按钮。救援人员可以通过操作按钮实现对系统的操作。
82.本说明书提供的穿戴式设备001可以应用于实时三维建模的场景。传统的穿戴式设备中的三维模型需要通过扫描器事先扫描物体或现场进行建立,或者通过计算机依据物体比例事先建立。当实际物体或场景发生变化时,需要重新修改事先建立好的三维模型,此方式耗时长,无法做到同步即时更新。本说明书提供的穿戴式设备001可以通过激光雷达200、视觉传感器400,实时获取现场物体的位置数据,从而生成立体图像,以实时建立现场物体的三维模型。另外,热成像装置900还可以获取现场物体的温度分布。将激光雷达200、视觉传感器400以及热成像装置900实时采集的数据进行叠加,可实时生成现场物体的三维立体模型,并可以根据现场物体的变化进行实时同步更改三维立体模型,省去事先建立三维模型的操作,并且不受限于实际物体或场景的变动。穿戴式设备001还可以将实时建立的三维模型与早期的三维模型进行叠加比对,以帮助佩戴者快速识别出前后的差异,并做出合理的判断。
83.图8示出了根据本说明书的实施例提供的一种穿戴式设备001应用于三维物体实时扫描时的场景示意图。穿戴式设备001可以通过激光雷达200实现对物体3的扫描,并通过控制装置600进行计算,建立物体3的三维模型,然后通过显示装置800进行显示。
84.图9示出了根据本说明书的实施例提供的一种穿戴式设备001应用于三维物体实时扫描时显示装置800的画面804的示意图。佩戴者可以通过观看显示装置800上显示的画面804,将物体3的实际图像4与物体3的三维模型5进行对比。穿戴式设备001还可以将物体3的实际图像4与物体3的三维模型5进行叠加显示以进行对比。画面804中底部显示有操作系统的操作按钮。佩戴者可以通过操作按钮实现对系统的操作。
85.图10示出了根据本说明书的实施例提供的一种穿戴式设备001远程传输的场景示意图。如前所述,穿戴式设备001可以将生成的立体图像通过通信模块650传输至外部电子设备6以进行即时通迅。通信模块650可以是无线通信模块,比如wi-fi模块,蓝牙模块,等等。在一些实施例中,通信模块650中还可以包括定位模块,比如gps模块,以生成穿戴式设
备001的位置信息,并将位置信息传输给外部电子设备6。
86.本说明书提供的穿戴式设备001可以应用于手势识别场景。传统的穿戴式设备中手势识别的方式大多采用rgb摄像头来作为手势识别的采集元件。但rgb摄像头在进行手势识别时容易受到拍摄现场光线强度的干扰,而造成误判或失效。当拍摄现场光线不足以提供rgb摄像头进行成像机制时,则可能造成采集的图像黑暗,无法正确识别手势。本说明书提供的穿戴式设备001克服了光线的限制,通过激光雷达200来提升手势识别的精确度。通过激光雷达200获取物体的位置数据,从而确定手势的动态的立体姿态,从而获取手部的动态手势;通过热成像装置900测量手部温度,并依照手部温度分布状况刻画出手部的外形曲线,从而从画面中识别出手部;将位置数据、热影像数据与图像数据叠加,可快速识别出手部即时摆动姿态,识别出手部小肢体动态动作,同时提高手势识别的精度。本说明书提供的穿戴式设备001可以应用于小肢体动作之手势识别场景,比如,手指点击虚拟键盘的动作,利用手指细微动作调整音量,使用较为细腻的手势动作用来控制系统中的相关功能设定。
87.图11示出了根据本说明书的实施例提供的一种穿戴式设备001应用于手势识别时显示装置800的画面805的示意图。图12示出了根据本说明书的实施例提供的另一种穿戴式设备001应用于手势识别时显示装置800的画面806示意图。佩戴者可以通过画面805和画面806观看虚拟场景与现实场景叠加的图像。穿戴式设备001可以通过激光雷达200、视觉传感器400以及热成像装置900精确获取手部的细节动作以及动态姿态,以进行精确的手势识别。画面805和画面806中底部显示有操作系统的操作按钮。佩戴者可以通过操作按钮实现对系统的操作。
88.本说明书提供的穿戴式设备001可以应用于滑雪场景。滑雪是一种具有相当危险程度的运动。尤其是在夜间滑雪时,由于夜间光线强度不足以照亮所有范围,导致滑雪场内存在光线微弱的光线死角,从而影像人眼识别和判断的能力,使危险升级。再者,由于滑雪场地均为白色,可能造成正处于下滑之滑雪者无法正确识别出着白色服装的滑雪者,从而引发安全事故。当滑雪者佩戴本说明书提供的穿戴式设备001(以智能眼镜为例)时,穿戴式设备001通过激光雷达200、视觉传感器400以及热成像装置900可实时获取佩戴者前方的立体图像,以实时获取佩戴者前方存在的物体或人,并通过显示装置800显示给佩戴者,从而帮助佩戴者更好地判断前方的景象,以及时做出正确的判断,提升滑雪的安全性。
89.图13示出了根据本说明书的实施例提供的一种穿戴式设备001应用于滑雪时显示装置800的画面807的示意图。画面807中可以显示佩戴者前方的立体图像,从而判断佩戴者前方是否存在障碍物,以及佩戴者与障碍物的距离。画面807还可以显示佩戴者前方的热影像数据,以显示温度分布,从而判断佩戴者前方是否存在人类,例如其他滑雪者,以及佩戴者与其他滑雪者的距离。佩戴者可以通过观看画面807事先发现前方的障碍物或其他滑雪者,以做出合理的动作,避免事故发生,提高滑雪的安全性。画面807中底部显示有操作系统的操作按钮。佩戴者可以通过操作按钮实现对系统的操作。
90.综上,本说明书提供的穿戴式设备001,通过其上设置的激光雷达200,实时测量目标视场内的物体的位置数据,从而获取目标视场内的物体的相对位置和距离,以生成目标视场的三维模型数据。同时穿戴式设备001还可以将视觉传感器400获取的图像数据与激光雷达200获取的位置数据进行叠加处理以生成立体图像并通过显示装置800进行显示,以帮助目标对象(佩戴者)更快速的识别物体的位置以及与佩戴者的距离。穿戴式设备001还可
以将热成像装置900采集的热影像数据与立体图像叠加处理,以帮助佩戴者识别出是否存在人体以及人体的位置。本说明书提供的穿戴式设备001可以实时建立场景的三维模型,并能将三维模型与实际场景叠加处理,从而使穿戴式设备001可以应用于更多场景,比如灾难救援场景、三维建模场景、手势识别场景以及滑雪场景,等等。
91.上述对本说明书特定实施例进行了描述。其他实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者是可能有利的。
92.综上所述,在阅读本详细公开内容之后,本领域技术人员可以明白,前述详细公开内容仅以示例的方式呈现,不是限制性的。尽管这里没有明确说明,但是本领域技术人员可以理解,本说明书囊括对实施例的各种合理改变,改进和修改。这些改变,改进和修改旨在由本说明书提出,并且在本说明书的示例性实施例的精神和范围内。
93.此外,本说明书中的某些术语已被用于描述本说明书的实施例。例如,“一个实施例”,“实施例”和/或“一些实施例”意味着结合该实施例描述的特定特征,结构或特性可以被包括在本说明书的至少一个实施例中。因此,可以强调并且应当理解,在本说明书的各个部分中对“实施例”或“一个实施例”或“替代实施例”的两个或更多个引用不一定都指代相同的实施例。此外,特定特征,结构或特性可以在本说明书的一个或多个实施例中适当地组合。
94.应当理解,在本说明书的实施例的前述描述中,为了帮助理解一个特征,出于简化本说明书的目的,本说明书将各种特征组合在单个实施例、附图或其描述中。然而,这并不是说这些特征的组合是必须的,本领域技术人员在阅读本说明书的时候完全有可能将其中一部分特征提取出来作为单独的实施例来理解。也就是说,本说明书中的实施例也可以理解为多个次级实施例的整合。而每个次级实施例的内容在于少于单个前述公开实施例的所有特征的时候也是成立的。
95.本文引用的每个专利,专利申请,专利申请的出版物和其他材料,例如文章,书籍,说明书,出版物,文件,物品等,可以通过引用结合于此。用于所有目的的全部内容,除了与其相关的任何起诉文件历史,可能与本文件不一致或相冲突的任何相同的,或者任何可能对权利要求的最宽范围具有限制性影响的任何相同的起诉文件历史。现在或以后与本文件相关联。举例来说,如果在与任何所包含的材料相关联的术语的描述、定义和/或使用与本文档相关的术语、描述、定义和/或之间存在任何不一致或冲突时,使用本文件中的术语为准。
96.最后,应理解,本文公开的申请的实施方案是对本说明书的实施方案的原理的说明。其他修改后的实施例也在本说明书的范围内。因此,本说明书披露的实施例仅仅作为示例而非限制。本领域技术人员可以根据本说明书中的实施例采取替代配置来实现本说明书中的申请。因此,本说明书的实施例不限于申请中被精确地描述过的实施例。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献