一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

增强现实AR场景的展示方法及装置与流程

2022-04-09 04:25:00 来源:中国专利 TAG:

增强现实ar场景的展示方法及装置
技术领域
1.本公开涉及增强现实技术领域,具体涉及一种增强现实场景的展示方法及装置。


背景技术:

2.增强现实(augmented reality,ar)技术通过将虚拟模型叠加到真实世界中,从而将真实的环境和虚拟的对象实时地在同一个画面或者空间呈现。对于ar场景,如何丰富虚拟对象与真实场景的交互,优化展示效果是主要的研究方向之一。


技术实现要素:

3.本公开实施方式提供了一种增强现实ar场景的展示方法、装置、ar设备以及存储介质。
4.第一方面,本公开实施方式提供了一种增强现实场景的展示方法,所述方法包括:
5.响应于从当前场景图像中识别到目标标识对象,根据所述目标标识对象对应的虚拟对象在世界坐标系中的第一位姿数据,确定所述虚拟对象在ar设备的屏幕坐标系的第二位姿数据;
6.基于所述第二位姿数据,在所述ar设备展示所述虚拟对象;
7.在所述虚拟对象的展示过程中,响应于从所述当前场景图像中未识别到所述目标标识对象,基于预先设置的在所述屏幕坐标系中的目标位姿数据,在所述ar设备的屏幕上展示所述虚拟对象。
8.在一些实施方式中,所述在所述虚拟对象的展示过程中,响应于从所述当前场景图像中未识别到所述目标标识对象,基于预先设置的在所述屏幕坐标系中的目标位姿数据,在所述ar设备的屏幕上展示所述虚拟对象,包括:
9.在所述虚拟对象的展示过程中,响应于从所述当前场景图像中未识别到所述目标标识对象,确定当前已展示进度;
10.基于所述目标位姿数据和所述已展示进度,在所述ar设备的屏幕上继续展示所述虚拟对象。
11.在一些实施方式中,本公开所述的展示方法,还包括:
12.响应于从所述当前场景图像中重新识别到所述目标标识对象,重新执行基于所述第二位姿数据,在所述ar设备展示所述虚拟对象的步骤。
13.在一些实施方式中,本公开所述的展示方法,还包括:
14.在从所述当前场景图像中识别到所述目标标识对象的情况下,以第一展示效果展示所述虚拟对象;
15.在从所述当前场景图像中未识别到所述目标标识对象的情况下,以第二展示效果展示所述虚拟对象,所述第二展示效果不同于所述第一展示效果。
16.在一些实施方式中,所述目标位姿数据包括针对所述虚拟对象的展示位置数据和展示姿态数据;所述基于预先设置的在所述屏幕坐标系中的目标位姿数据,在所述ar设备
的屏幕上展示所述虚拟对象,包括:
17.在所述展示位置数据所指示的屏幕位置处,以所述展示姿态数据所指示的姿态展示所述虚拟对象。
18.在一些实施方式中,所述根据所述目标标识对象对应的虚拟对象在世界坐标系中的第一位姿数据,确定所述虚拟对象在所述ar设备的屏幕坐标系的第二位姿数据,包括:
19.根据所述虚拟对象在世界坐标系中的预设位姿,确定所述第一位姿数据;所述世界坐标系为根据预先提取的所述目标标识对象的特征确定的;
20.根据所述第一位姿数据,以及所述世界坐标系与所述ar设备的屏幕坐标系的映射关系,确定所述虚拟对象在所述屏幕坐标系的第二位姿数据。
21.在一些实施方式中,所述从当前场景图像中识别到目标标识对象,包括:
22.对所述当前场景图像进行特征点提取,得到所述当前场景图像包括的至少一个特征点对应的特征信息;
23.根据所述至少一个特征点对应的特征信息与预先存储的所述目标标识对象的特征点信息进行对比,识别所述当前场景图像中的所述目标标识对象。
24.第二方面,本公开实施方式提供了一种增强现实ar场景的展示装置,所述装置包括:
25.第一位姿确定模块,被配置为响应于从当前场景图像中识别到目标标识对象,根据所述目标标识对象对应的虚拟对象在世界坐标系中的第一位姿数据,确定所述虚拟对象在ar设备的屏幕坐标系的第二位姿数据;
26.第一展示模块,被配置为基于所述第二位姿数据,在所述ar设备展示所述虚拟对象;
27.第二展示模块,被配置为在所述虚拟对象的展示过程中,响应于从所述当前场景图像中未识别到所述目标标识对象,基于预先设置的在所述屏幕坐标系中的目标位姿数据,在所述ar设备的屏幕上展示所述虚拟对象。
28.第三方面,本公开实施方式提供了一种ar设备,包括:
29.处理器;和
30.存储器,与所述处理器可通信连接,所述存储器存储有能够被所述处理器读取的计算机指令,所述计算机指令用于使所述处理器执行根据第一方面任一实施方式所述的方法。
31.第四方面,本公开实施方式提供了一种存储介质,存储有计算机指令,所述计算机指令用于使计算机执行根据第一方面任一实施方式所述的方法。
32.本公开实施方式的展示方法,在虚拟对象的展示过程中,响应于从当前场景图像中未识别到目标标识对象,也即目标标识对象marker由当前场景图像中丢失的情况下,可基于预先设置的在屏幕坐标系中的目标位姿数据,在ar设备的屏幕上展示虚拟对象,从而虚拟对象的展示效果不会中断,提高ar展示效果和用户观看体验。
附图说明
33.为了更清楚地说明本公开具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的
附图是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
34.图1是根据本公开一些实施方式中ar设备的结构示意图。
35.图2是根据本公开一些实施方式中ar设备的结构示意图。
36.图3是根据本公开一些实施方式中ar设备的结构框图。
37.图4是根据本公开一些实施方式中展示方法的流程图。
38.图5是根据本公开一些实施方式中展示方法的原理图。
39.图6是根据本公开一些实施方式中展示方法的流程图。
40.图7是根据本公开一些实施方式中展示方法的流程图。
41.图8是根据本公开一些实施方式中展示方法的原理图。
42.图9是根据本公开一些实施方式中展示方法的原理图。
43.图10是根据本公开一些实施方式中展示方法的原理图。
44.图11是根据本公开一些实施方式中展示方法的流程图。
45.图12是根据本公开一些实施方式中展示方法的流程图。
46.图13是根据本公开一些实施方式中展示装置的结构框图。
具体实施方式
47.下面将结合附图对本公开的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本公开一部分实施方式,而不是全部的实施方式。基于本公开中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本公开保护的范围。此外,下面所描述的本公开不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
48.增强现实ar场景中对虚拟对象展示时,可以利用预先制作好的标识对象(marker)来确定虚拟对象的展示方式。其中,标识对象marker例如为基于汉明码(hamming code)技术绘制在物品表面的预设图形等,预设图形可以是例如卡通形象、二维码、条形码等。ar设备通过摄像头识别到当前场景图像中出现该marker时,可在marker表面或者所在场景空间中展示对应的虚拟对象。
49.但是相关技术中,在虚拟对象的展示过程中,一旦marker从当前场景中消失(例如被移动走),虚拟对象的展示效果也会被中断,从而无法展示虚拟对象。也即,只有用户利用ar设备拍摄到marker时,才能观看到虚拟对象的展示效果,而在用户移动状态下,当ar设备拍摄不到marker,用户又期望于继续观看完整的展示效果则无法实现,导致展示效果不佳。
50.本公开实施方式提供了一种增强现实ar场景的展示方法、装置、ar设备以及存储介质,旨在提高ar场景中虚拟对象的展示效果,提高用户体验。
51.在一些实施方式中,本公开提供了一种增强现实ar场景的展示方法,该方法可以应用于ar设备。可以理解,本公开实施方式所述的ar设备,可以是任何具有ar功能的终端设备,例如ar眼镜、ar头盔等头戴式设备,又例如智能手机、平板电脑等手持式设备,再例如智能手表、智能手环等腕戴式设备等等,本公开对此不作限制。
52.如图1所示,在一个示例中,本公开所述的ar设备以ar眼镜为例进行说明。ar设备100包括主体101,主体101为实现眼镜佩戴及支撑的支架结构。显示屏110设置在主体101
上,用户在佩戴ar设备100之后,显示屏110可以位于用户眼睛的正前方,从而便于用户观察到显示屏110上显示的画面。ar设备100还包括摄像头120,摄像头120用于采集当前场景的真实场景图像。ar设备100还包括设于主体101内部的处理器,处理器用于将摄像头120采集的真实场景图像与虚拟对象进行叠加之后,在显示屏110上展示。
53.如图2所示,在一个示例中,本公开所述的ar设备以智能手机为例进行说明。ar设备100包括壳体102,壳体102为实现手机主体支撑的外壳结构。显示屏110设置在壳体102正面,摄像头120设置在壳体102的正面和/或背面,例如图2中(b)所示,摄像头120设于壳体的背面。摄像头120用于采集当前场景的真实场景图像,从而智能手机的处理器将摄像头120采集的真实场景图像与虚拟对象进行叠加之后,在显示屏110上展示。
54.当然可以理解,ar设备的具体设备类型不局限于上述示例的ar眼镜和智能手机,本公开对此不再赘述。图3中示出了本公开ar设备的结构框图,下面结合图3对本公开实施方式的ar设备进一步说明。
55.如图3所示,在一些实施方式中,ar设备100包括处理器130、存储器140、摄像头120、显示屏110以及imu(inertial measurement unit,惯性测量单元)传感器160。
56.处理器130、存储器140、摄像头120、显示屏110以及imu传感器160通过总线150建立任意两者之间的可通信连接。
57.处理器130可以为任何类型,具备一个或者多个处理核心的处理器。其可以执行单线程或者多线程的操作,用于解析指令以执行获取数据、执行逻辑运算功能以及下发运算处理结果等操作。
58.存储器140可包括非易失性计算机可读存储介质,例如至少一个磁盘存储器件、闪存器件、相对于处理器130远程设置的分布式存储设备或者其他非易失性固态存储器件。存储器可以具有程序存储区,用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,供处理器130调用以使处理器130执行下文一个或者多个方法步骤。存储器140还可以包括易失性随机存储介质、或者硬盘等存储部分,作为数据存储区,用以存储处理器130下发输出的运算处理结果及数据。
59.摄像头120用于采集当前场景图像,从而处理器130可以根据采集到的当前场景图像进行虚拟对象的融合处理,实现ar展示效果。在本公开实施方式中,摄像头120可以是任何适于实施的摄像头类型,例如黑白摄像头、rgb摄像头等,摄像头120的数量既可以是单目摄像头,也可以是双目摄像头,本公开对此不作限制。
60.显示屏110用于接收处理器130下发的显示信息,从而根据显示信息在显示屏110上呈现出对应的显示图像,以使用户可以通过显示屏110观察到ar展示效果。在本公开实施方式中,显示屏110可以是任何适于实施的显示屏类型,例如lcd(liquid crystal display,液晶显示)显示屏、oled(organic light-emitting diode,有机发光半导体)显示屏等,本公开对此不作限制。
61.imu传感器160为惯性测量传感器,主要用来检测和测量ar设备自身的加速度与旋转运动,其基本原理是利用惯性定律实现,可以基于传感器信号实时对ar设备自身位姿进行解算。在一些实施方式中,imu传感器160可以包括例如三轴或六轴陀螺仪、加速度传感器等。
62.在上述ar设备结构基础上,下面对本公开实施方式的增强现实ar场景的展示方法
进行说明。
63.如图4所示,在一些实施方式中,本公开示例的增强现实ar场景的展示方法包括:
64.s410、响应于从当前场景图像中识别到目标标识对象,根据目标标识对象对应的虚拟对象在世界坐标系中的第一位姿数据,确定虚拟对象在ar设备的屏幕坐标系的第二位姿数据。
65.具体而言,当前场景图像是指利用ar设备的摄像头实时采集到的场景图像。例如图1所示的ar眼镜中,通过摄像头120采集取景范围内的成像数据,通过数据处理将采集到的场景图像显示在显示屏110上,用户在显示屏110上观看到的图像即为当前场景图像。可以理解,随着ar设备的位姿发生改变,采集到的当前场景图像随之改变,也即当前场景图像为实时图像。
66.目标标识对象指用于触发ar效果展示的标识物,也即上文所述的marker,目标标识对象(marker)的具体呈现方式可以是例如二维码、预设图形等,本公开对此不作限制。
67.例如一个示例中,如图5所示,目标标识对象210为绘制于明信片200表面的卡通图形,该卡通图形可以基于例如汉明码(hamming code)技术进行绘制,从而ar设备在采集到该卡通图形时,可以对卡通图形进行识别解析。对于汉明码绘制和解析的过程,本领域技术人员参照相关技术即可理解并充分实施,本公开对此不作限制。
68.例如另一个示例中,目标标识对象为绘制于物体表面的预设图形,ar设备在采集到包括该预设图形的场景图像时,可以通过图像检测技术对场景图像进行特征点提取和识别,从而可以从场景图像中识别到该预设图像。对于图像检测和预设图像的识别过程,本领域技术人员参照相关技术即可理解并充分实施,本公开对此不作限制。
69.可以理解,目标标识对象具有对应的虚拟对象,例如一个示例中,可以预先建立包括至少一个虚拟对象的模型数据库,模型数据库中的虚拟对象具有与之对应的目标标识对象,从而在ar设备由当前场景图像中识别到目标标识对象时,可以基于对应关系通过查找模型数据库,确定与该目标标识对象对应的虚拟对象。
70.虚拟对象表示在ar设备的显示屏上渲染呈现的虚拟形象,通过将虚拟对象与显示屏上显示的真实场景图像进行融合展示,可以呈现出虚拟对象与真实场景产生互动的展示效果。
71.本公开实施方式中,ar设备通过图像检测技术对采集到的当前场景图像进行检测识别,在从当前场景图像中识别到目标标识对象的情况下,即可确定与目标标识对象对应的虚拟对象。
72.在基于marker进行ar展示时,其原理是找到虚拟对象在建立的世界坐标系中的位姿信息与在ar设备的屏幕坐标系的位姿信息的映射关系。本公开实施方式中,定义虚拟对象在世界坐标系中的位姿信息为第一位姿数据,定义虚拟对象在ar设备的屏幕坐标系中的位姿信息为第二位姿数据。
73.在一些实施方式中,可以基于图像检测技术预先对目标标识对象进行特征提取,得到目标标识对象的至少一个预设关键点,基于至少一个预设关键点建立世界坐标系。在得到世界坐标系之后,可将世界坐标系与ar设备的屏幕坐标系进行对齐处理,得到两个坐标系之间的映射关系。在对虚拟对象进行展示时,可以根据虚拟对象在世界坐标系中的第一位姿数据,通过该映射关系确定虚拟对象在屏幕坐标系中的第二位姿数据,基于第二位
姿数据实现虚拟对象在ar设备屏幕上的展示。本公开下文实施方式中对此进行具体说明,在此暂不详述。
74.s420、基于第二位姿数据,在ar设备展示虚拟对象。
75.具体而言,在确定虚拟对象在ar设备的屏幕坐标系中的第二位姿数据之后,即可根据该第二位姿数据将虚拟对象在对应的屏幕位置进行展示呈现,以使得用户可以在屏幕的对应位置观察到该虚拟对象。
76.另外,可以理解,由于虚拟对象在世界坐标系与屏幕坐标系中具有上述的映射关系,在虚拟对象固定在世界坐标系某个位置时,随着目标标识对象的移动,虚拟对象的位姿随之发生移动,虚拟对象在屏幕坐标系的位置相应发生移动,使得用户观看到虚拟对象吸附在目标标识对象上的视觉效果。例如,在真实场景中,当用户手持图5所示的明信片200移动时,在ar设备屏幕上观看到的虚拟对象在明信片200的表面随之移动。
77.s430、在虚拟对象的展示过程中,响应于从当前场景图像中未识别到目标标识对象,基于预先设置的屏幕坐标系中的目标位姿数据,在ar设备的屏幕上展示虚拟对象。
78.在一个示例场景中,以上述图5所示的明信片200为例,当用户通过ar设备识别到明信片200上的目标标识对象210时,即可在ar设备的显示屏上观看到对应的虚拟对象的展示效果。
79.当明信片200与ar设备100的相对位置发生改变时,例如,用户手持明信片200移动脱离ar设备100的取景范围,也即ar设备100的摄像头120无法识别到目标标识对象210时,此时并非直接中断虚拟对象的展示效果,而是基于预先设置的目标位姿数据继续展示虚拟对象。
80.具体而言,可以预先在ar设备的屏幕坐标系中设置目标位姿数据,目标位姿数据表示虚拟对象在屏幕坐标系中的展示位置和姿态相关的数据。从而,在ar设备100无法识别到目标标识对象时,不会中断虚拟对象的展示效果,而是以预设设置的目标位姿数据继续展示虚拟对象。
81.在一些实施方式中,目标位姿数据包括虚拟对象的展示位置数据。例如一个示例中,展示位置数据可以表示将虚拟对象展示在ar设备显示屏的中央。例如另一个示例中,展示位置数据可以表示将虚拟对象展示在ar设备显示屏的右下角。例如又一个示例中,可以基于虚拟对象的初始位置,利用同步定位与建图(simultaneous localization and mapping,slam)技术,实时定位虚拟对象在ar设备显示屏上的展示位置数据。本公开对此不作限制。
82.在一些实施方式中,目标位姿数据包括虚拟对象的展示姿态数据,例如展示姿态数据可以表示虚拟对象在展示位置旋转;又例如展示姿态数据可以表示虚拟对象在展示位置做出预设动作;再例如,展示姿态数据可以与第二位姿数据中包括的姿态数据相同,也即虚拟对象继续以之前的姿态进行展示;等等,本公开对此不作限制。
83.在对虚拟对象进行展示时,可基于展示位置数据确定虚拟对象在ar设备屏幕上的展示位置,基于展示姿态数据确定虚拟对象的展示姿态,从而以该展示姿态在对应的展示位置处展示虚拟对象。
84.在一些实施方式中,在当前场景图像中重新出现该目标标识对象时,ar设备可以重新基于前述s410和s420所述的方式进行ar效果的展示。本公开下述实施方式中对此进行
说明,在此暂不详述。
85.本公开实施方式的展示方法,在ar效果展示场景中,在当前场景图像中无法识别到marker的情况下,虚拟对象的展示不会中断,从而无需对用户使用ar设备的位置进行限制,可以给予用户更高的自由度。
86.例如一个示例场景中,用户佩戴图1所示的ar眼镜参观布置有目标标识对象的场景时,用户期望观看某个目标标识对象所对应的完整展示内容。此时,无需限制用户必须停留在该目标标识对象位置,在虚拟对象展示过程中,用户可以继续移动,即使ar眼镜采集不到目标标识对象,依旧可以在显示屏上展示完整的内容,使得用户可以观看到完整的展示内容,提高用户体验。
87.通过上述可知,本公开实施方式中,在ar展示场景中,在当前场景图像中无法识别到marker的情况下,虚拟对象的展示不会中断,提高ar展示效果,提高用户体验。
88.本公开实施方式中,在ar效果展示时,ar设备需要从采集到的当前场景图像中识别出目标标识对象(marker)。如图6所示,在一些实施方式中,从当前场景图像中识别目标标识对象(marker)的过程包括:
89.s610、对当前场景图像进行特征点提取,得到当前场景图像包括的至少一个特征点对应的特征信息。
90.s620、根据至少一个特征点对应的特征信息与预先存储的目标标识对象的特征点信息进行对比,识别当前场景图像中的目标标识对象。
91.具体而言,ar设备100可以通过摄像头120采集到当前场景图像,可以理解,当前场景图像可以是摄像头采集到的单帧图像,也可以是摄像头采集到的视频流中的多帧图像,本公开对此不作限制。
92.在对当前场景图像进行处理的过程中,可以通过图像检测算法,定位出当前场景图像中包括待测对象的检测区域,然后在检测区域中提取得到各个待测对象的一个或多个特征点。
93.当前场景图像以图5为例,可以通过图像检测算法,首先确定明信片200区域为待测区域,然后对明信片200上包括的“小龙人”和“祥云”等待测对象进行特征点提取,得到每个待测对象的特征信息。
94.在得到各个待测对象的特征信息之后,可以将待测对象的特征信息与预先存储的目标标识对象的特征点信息进行对比,若两者相似度大于预设阈值,则表示待测对象即为目标标识对象;反之,若相似度不大于预设阈值,表示当前场景图像中不包括目标标识对象。
95.仍以图5为例,假设预先存储的目标标识对象的特征点信息对应为“小龙人”卡通形象,从而将当前场景图像中提取到的小龙人的特征信息与预先存储特征点信息进行对比,两者相似度大于预设阈值,从而确定当前场景图像中识别到目标标识对象。
96.示例性地,本公开实施方式所述的特征点的信息可以包括特征点对应的纹理特征值、rgb特征值、灰度值等能够标识该特征点特征的信息,本公开对此不作限制。
97.在从当前场景图像中识别到目标标识对象时,即可进一步获取目标标识对象所对应的虚拟对象,以及该虚拟对象展示所需的位姿数据等。下面结合图7实施方式进行说明。
98.如图7所示,在一些实施方式中,本公开示例的展示方法,确定虚拟对象的第二位
姿数据的过程包括:
99.s710、根据虚拟对象在世界坐标系中的预设位姿,确定第一位姿数据。
100.s720、根据第一位姿数据,以及世界坐标系与ar设备的屏幕坐标系的映射关系,确定虚拟对象在屏幕坐标系的第二位姿数据。
101.具体而言,当前场景图像以图5为例,目标标识对象为绘制于明信片200表面的卡通形象,当ar设备通过前述图6实施方式,对当前场景图像检测识别到包括的目标标识对象时,可以基于图像检测技术对目标标识对象进行特征提取,得到目标标识对象的至少一个预设关键点,然后根据提取到的预设关键点建立世界坐标系。
102.例如一个示例中,如图5所示,预设关键点可以是目标标识对象的中心点,将目标标识对象的中心点作为坐标系原点o,以平行于明信片200短边且穿过原点o的方向作为x轴,以平行于明信片200长边且穿过原点o的方向作为y轴,以垂直于x轴和y轴且穿过原点o的方向作为z轴,从而建立世界坐标系o-xyz。
103.可以理解,图5中建立世界坐标系的过程仅作为本公开实施方式的一个示例,在其他实施方式中,还可以依据其他预设关键点建立世界坐标系,例如可以明信片200左下角的顶点作为坐标原点o建立坐标系,本公开对此不作限制。
104.继续参照图5,在建立世界坐标系之后,可以将世界坐标系与ar设备的屏幕坐标系进行对齐处理,从而构建出世界坐标系与屏幕坐标系之间的映射关系。例如一些实施方式中,可以将世界坐标系通过旋转和平移处理对应到ar设备的相机坐标系,然后从相机坐标系映射到ar设备的屏幕坐标系中。
105.对于世界坐标系与屏幕坐标系的对齐处理过程,本领域技术人员参照相关技术毫无疑问可以理解并充分实施,本公开对此不再赘述。
106.基于前述可知,在进行ar效果展示时,预先设置的展示效果中包括有展示虚拟对象所需的相关数据,例如虚拟对象的模型渲染数据以及虚拟对象的位姿数据等。例如图5示例中,预先设置的展示效果为:卡通形象“小龙人”在图示位置处旋转。从而展示效果数据中包括渲染卡通形象所需的模型渲染数据以及表示卡通形象在预设位置旋转的位姿数据。
107.从而,ar设备即可根据预先设置的展示效果数据确定虚拟对象在世界坐标系中的第一位姿数据。以虚拟对象“小龙人”为例,展示效果数据表示虚拟对象在世界坐标系的原点o位置持续旋转,从而,ar设备根据展示效果数据确定的第一位姿数据即包括虚拟对象的位置数据为原点o(0,0,0),姿态数据为旋转相关的数据。
108.在确定第一位姿数据之后,ar设备即可根据前述的映射关系,将虚拟对象在世界坐标系中的第一位姿数据映射处理到屏幕坐标系中,得到虚拟对象在屏幕坐标系中的第二位姿数据。在确定第二位姿数据之后,ar设备即可根据第二位姿数据在显示屏下展示虚拟对象。在图5示例中,ar设备上展示的ar效果可参照图8所示,虚拟对象在明信片200表面呈现立体形象,并且虚拟对象在对应的位置呈现旋转的效果。
109.以图8所示,虚拟对象“小龙人”在ar设备显示屏上的展示位置,是基于世界坐标系中的位姿数据映射到屏幕坐标系中确定的。从而,当明信片200发生位姿变化时,建立的世界坐标系随之变化,虚拟对象跟随坐标系变化产生位姿变化,对应的展示效果表现为虚拟对象吸附在明信片200表面,其位姿随明信片200变化而变化。
110.在一些示例场景中,ar设备位置保持不变,用户在真实世界中将图5中所示的明信
片200向左移动,直至移出ar设备的摄像头的取景范围。在移动过程中,某个时刻ar设备采集的当前场景图像如图9所示,此时,当前场景图像中已经识别不到或者只能识别到不完整的目标标识对象210,在本公开实施方式中,即可基于前述图4所述的方法流程,根据预设的目标位姿数据,将虚拟对象展示在ar设备显示屏上。
111.图10中示出了根据本公开实施方式的展示方法,ar设备显示屏上的展示效果。如图10所示,在本示例中,在当前场景图像中无法识别到目标标识对象的情况下,将虚拟对象在显示屏110的显示界面中央进行展示。
112.当然,可以理解,图10仅作为一种是示例性的展示效果,在其他实施方式中,本领域技术人员基于本公开发明构思,还可以实现其他任何适于实施的展示效果,本公开对此不再枚举。
113.通过上述可知,本公开实施方式中,在ar展示场景中,在当前场景图像中无法识别到marker的情况下,虚拟对象的展示不会中断,提高ar展示效果,提高用户体验。
114.在一些实施方式中,考虑到一些场景中,ar展示效果具有连贯性,为保证用户观看不中断,在当前场景图像中无法识别到目标标识对象的前后,可以保持ar展示内容的连贯。下面结合图11实施方式进行说明。
115.如图11所示,在一些实施方式中,本公开示例的展示方法,还包括:
116.s1110、在虚拟对象的展示过程中,响应于从当前场景图像中未识别到目标标识对象,确定当前已展示进度。
117.s1120、基于目标位姿数据和已展示进度,在ar设备的屏幕上继续展示虚拟对象。
118.具体而言,在虚拟对象的展示过程中,展示的内容往往具有展示进度。例如对于文物展览馆场景,用户在扫描场景中预先布置的marker之后,ar设备展示的内容可以是一段文物介绍的视频或动画。
119.本本示例中,在当前场景图像中无法识别到目标标识对象(marker)时,可以标记当前展示的视频或动画的播放进度,从而通过上述实施方式所述的展示方法,在ar设备的显示屏预设位置以当前播放进度继续展示虚拟对象,也即实现续播,保证marker消失前后展示内容的连贯性。
120.在一些实施方式中,展示内容中还可以包括音频数据,音频数据同样可以基于上述方式实现续播放,从而无论用户看到的画面内容还是音频内容,在marker消失前后均是连贯的,提高ar展示效果。
121.通过上述可知,本公开实施方式中,根据已展示进度在ar设备屏幕上继续展示虚拟对象,保证marker消失前后展示内容的连贯性,提高ar展示效果及用户体验。
122.在上述实施方式中,在当前场景图像中识别不到目标标识对象的情况下,可以按照上述实施方式过程实现虚拟对象的不中断展示。在一些实施方式中,在当前场景图像中再次重新出现目标标识对象时,还可以重新执行上述实施方式的过程,使得虚拟对象再次呈现吸附在目标标识对象上的展示效果。
123.例如一些实施方式中,本公开示例的展示方法,还包括:
124.响应于从当前场景图像中重新识别到目标标识对象,重新执行基于第二位姿数据,在ar设备展示虚拟对象的步骤。
125.例如图10示例中,当前场景图像中无法识别到或者无法识别到完整的目标标识对
象,从而在ar设备的显示屏110的预设位置展示虚拟对象。在一个示例场景中,在真实场景中,ar设备位置保持不变,明信片200逐渐向右移动,从而ar设备的摄像头采集的当前场景图像中重新识别到目标标识对象。
126.在此情况下,可以基于前述图4实施方式所述的过程,重新执行s410~s420的步骤,使得虚拟对象重新基于第二位姿数据在明信片表面展示,呈现为吸附在明信片表面的展示效果。对于具体过程,本领域技术人员参照前述实施方式即可理解并充分实施,本公开对此不再赘述。
127.通过上述可知,本公开实施方式中,在当前场景图像重新识别到目标标识对象的情况下,可以重新基于目标标识对象确定第二位姿数据对虚拟对象进行展示,增强互动效果,提高展示效果和用户体验。
128.在一些实施方式中,为增强ar展示效果,可以针对识别到目标标识对象和识别不到目标标识对象两种情况,对虚拟对象渲染不同的展示效果。下面结合图12实施方式进行说明。
129.如图12所示,在一些实施方式中,本公开示例的展示方法还包括:
130.s1210、在从当前场景图像中识别到目标标识对象的情况下,以第一展示效果展示虚拟对象。
131.s1220、在从当前场景图像中未识别到目标标识对象的情况下,以第二展示效果展示虚拟对象。
132.具体而言,第一展示效果不同于第二展示效果。可以理解,展示效果可以包括多个维度,例如亮度、透明度、虚化程度、大小、展示位置、展示角度等等,第一展示效果与第二展示效果可以至少在一个维度上存在不同。
133.例如一个示例中,在当前场景图像中可以识别到目标标识对象的情况下,虚拟对象的展示效果可如图8所示,也即虚拟对象的第一展示效果所包括的诸如亮度、透明度、虚化程度、位置以及大小均按照前述第二位姿数据进行展示即可。
134.在当前场景图像中无法识别到目标标识对象的情况下,虚拟对象不再以第一展示效果进行展示,而是以第二展示效果进行展示。例如,虚拟对象的透明度增加,由不透明变换为半透明;又例如,虚拟对象的大小变小,由原始大小缩小为一半大小;再例如,虚拟对象的亮度变暗,有原始亮度变低为一半亮度;等等,本公开对此不再枚举。
135.在一个示例场景中,用户佩戴图1所示的ar眼镜参观预先布置有目标标识物的展览馆,随着ar眼镜在当前场景图像中识别到目标标识对象,即可根据前述实施方式以不透明的方式展示虚拟对象。随着用户位置移动,ar眼镜无法采集到该目标标识对象,从而在ar眼镜的显示屏上以50%透明度展示虚拟对象。当ar眼镜再次采集到该目标标识对象,ar眼镜的显示屏上再次以不透明的方式展示虚拟对象。
136.上述仅作为本公开实施方式的一种示例,在其他实施方式中,在marker消失前后,展示效果还可以具有其他区别,本公开对此不作限制。
137.通过上述可知,本公开实施方式中,针对marker消失前后设置不同的虚拟对象展示效果,一方面增强互动性和趣味性,另一方面提示用户目标标识对象从当前场景图像中消失,提高用户体验。
138.本公开实施方式提供了一种增强现实ar场景的展示装置,该装置可应用于ar设
备。在一些实施方式中,ar设备可以是例如图1所示的ar眼镜。在另一些实施方式中,ar设备可以是例如图2所示的智能手机。本公开对此不作限制。
139.如图13所示,在一些实施方式中,本公开示例的增强现实ar场景的展示装置,包括:
140.第一位姿确定模块10,被配置为响应于从当前场景图像中识别到目标标识对象,根据目标标识对象对应的虚拟对象在世界坐标系中的第一位姿数据,确定虚拟对象在ar设备的屏幕坐标系的第二位姿数据;
141.第一展示模块20,被配置为基于第二位姿数据,在ar设备展示虚拟对象;
142.第二展示模块30,被配置为在虚拟对象的展示过程中,响应于从当前场景图像中未识别到目标标识对象,基于预先设置的在屏幕坐标系中的目标位姿数据,在ar设备的屏幕上展示虚拟对象。
143.通过上述可知,本公开实施方式中,在ar展示场景中,在当前场景图像中无法识别到marker的情况下,虚拟对象的展示不会中断,提高ar展示效果,提高用户体验。
144.在一些实施方式中,第二展示模块30被配置为:
145.在虚拟对象的展示过程中,响应于从当前场景图像中未识别到目标标识对象,确定当前已展示进度;
146.基于目标位姿数据和已展示进度,在ar设备的屏幕上继续展示虚拟对象。
147.在一些实施方式中,第二展示模块30被配置为:
148.响应于从当前场景图像中重新识别到目标标识对象,重新执行基于第二位姿数据,在ar设备展示虚拟对象的步骤。
149.在一些实施方式中,第一展示模块20被配置为:在从当前场景图像中识别到目标标识对象的情况下,以第一展示效果展示虚拟对象;
150.第二展示模块30被配置为:在从当前场景图像中未识别到目标标识对象的情况下,以第二展示效果展示虚拟对象,第二展示效果不同于第一展示效果。
151.在一些实施方式中,目标位姿数据包括针对虚拟对象的展示位置数据和展示姿态数据;第二展示模块30被配置为:
152.在展示位置数据所指示的屏幕位置处,以展示姿态数据所指示的姿态展示虚拟对象。
153.在一些实施方式中,第一位姿确定模块10,被配置为:
154.根据虚拟对象在世界坐标系中的预设位姿,确定第一位姿数据;世界坐标系为根据预先提取的目标标识对象的特征确定的;
155.根据第一位姿数据,以及世界坐标系与ar设备的屏幕坐标系的映射关系,确定虚拟对象在屏幕坐标系的第二位姿数据。
156.在一些实施方式中,第一位姿确定模块10,被配置为:
157.对当前场景图像进行特征点提取,得到当前场景图像包括的至少一个特征点对应的特征信息;
158.根据至少一个特征点对应的特征信息与预先存储的目标标识对象的特征点信息进行对比,识别当前场景图像中的目标标识对象。
159.通过上述可知,本公开实施方式中,在ar展示场景中,在当前场景图像中无法识别
到marker的情况下,虚拟对象的展示不会中断,提高ar展示效果,提高用户体验。针对marker消失前后设置不同的虚拟对象展示效果,一方面增强互动性和趣味性,另一方面提示用户目标标识对象从当前场景图像中消失,提高用户体验。
160.本公开实施方式提供了一种ar设备,包括:
161.处理器;和
162.存储器,与处理器可通信连接,存储器存储有能够被处理器读取的计算机指令,计算机指令用于使处理器执行根据第一方面任一实施方式的方法。
163.本公开实施方式提供了一种存储介质,存储有计算机指令,计算机指令用于使计算机执行根据第一方面任一实施方式的方法。
164.具体而言,对于本公开示例的ar设备和存储介质相关实现方式,本领域技术人员参照前述实施方式可以理解并充分实施,本公开对此不再赘述。
165.本公开涉及增强现实领域,通过获取现实环境中的目标对象的图像信息,进而借助各类视觉相关算法实现对目标对象的相关特征、状态及属性进行检测或识别处理,从而得到与具体应用匹配的虚拟与现实相结合的ar效果。示例性的,目标对象可涉及与人体相关的脸部、肢体、手势、动作等,或者与物体相关的标识物、标志物,或者与场馆或场所相关的沙盘、展示区域或展示物品等。视觉相关算法可涉及视觉定位、slam、三维重建、图像注册、背景分割、对象的关键点提取及跟踪、对象的位姿或深度检测等。具体应用不仅可以涉及跟真实场景或物品相关的导览、导航、讲解、重建、虚拟效果叠加展示等交互场景,还可以涉及与人相关的特效处理,比如妆容美化、肢体美化、特效展示、虚拟模型展示等交互场景。可通过卷积神经网络,实现对目标对象的相关特征、状态及属性进行检测或识别处理。上述卷积神经网络是基于深度学习框架进行模型训练而得到的网络模型。
166.显然,上述实施方式仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本公开创造的保护范围之中。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献