一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

虚拟相机拍摄参数获取方法、装置、电子设备和存储介质与流程

2021-09-25 01:57:00 来源:中国专利 TAG:电子设备 装置 获取 拍摄 参数


1.本发明涉及计算机技术领域,具体涉及虚拟相机拍摄参数获取方法、装置、电子设备和存储介质。


背景技术:

2.相关技术中,拍摄虚拟空间中的虚拟对象所采用的方案一般为:通过设置关键帧的方式,来设置虚拟摄像机在虚拟空间中的位置等拍摄参数,从而控制虚拟摄像机对虚拟空间中的虚拟对象进行拍摄。
3.相关技术中的这种拍摄方案,虚拟摄像机的拍摄参数对关键帧的依赖较大,而摄像机的调整一般是比较频繁的,这就导致需要频繁地设置虚拟摄像机的关键帧。


技术实现要素:

4.本发明实施例提供虚拟相机拍摄参数获取方法、装置、电子设备和存储介质,可以基于增强现实设备对虚拟对象的拍摄参数,预测出模型空间中虚拟相机拍摄虚拟对象所需的拍摄参数,避免了关键帧频繁设置的问题。
5.本发明实施例提供一种虚拟相机拍摄参数获取方法,该方法包括:
6.获取增强现实设备中的设备摄像机在现实空间中的第一拍摄参数,并将所述第一拍摄参数同步为用于拍摄虚拟对象的虚拟摄像机在虚拟空间中的第二拍摄参数;
7.获取所述虚拟空间与所述虚拟对象所处的模型空间之间的第一空间转化信息;
8.基于所述第一空间转化信息将所述第二拍摄参数转化到所述模型空间中,得到第三拍摄参数;
9.根据所述第三拍摄参数确定虚拟相机在所述模型空间中拍摄所述虚拟对象的轨迹数据。
10.本发明实施例提供一种虚拟相机拍摄参数获取装置,该装置包括:
11.参数获取单元,用于获取增强现实设备中的设备摄像机在现实空间中的第一拍摄参数,并将所述第一拍摄参数同步为用于拍摄虚拟对象的虚拟摄像机在虚拟空间中的第二拍摄参数;
12.第一转化信息获取单元,用于获取所述虚拟空间与所述虚拟对象所处的模型空间之间的第一空间转化信息;
13.转化单元,用于基于所述第一空间转化信息将所述第二拍摄参数转化到所述模型空间中,得到第三拍摄参数;
14.轨迹数据获取单元,用于根据所述第三拍摄参数确定虚拟相机在所述模型空间中拍摄所述虚拟对象的轨迹数据。
15.在一个示例性实施例中,装置还包括:显示单元,用于:
16.根据所述第二拍摄参数,从所述虚拟空间中采集所述虚拟对象的虚拟拍摄画面;
17.将所述虚拟拍摄画面实时渲染到通过所述设备摄像机采集的现实拍摄场景中。
18.在一个示例性实施例中,装置还包括:动画信息获取单元,用于在显示单元根据所述第二拍摄参数,从所述虚拟空间中采集所述虚拟对象的虚拟拍摄画面之前,获取所述虚拟对象在所述模型空间的第一动画信息;获取将所述虚拟对象从所述模型空间转换到所述虚拟空间的第二空间转化信息;基于所述第二空间转化信息对所述第一动画信息中的虚拟对象进行空间转换,得到第二动画信息;
19.显示单元,用于根据所述第二拍摄参数,对所述第二动画信息中的虚拟对象进行拍摄得到虚拟拍摄画面。
20.在一个示例性实施例中,显示范围确定单元,用于在显示单元根据所述第二拍摄参数,对所述第二动画信息中的虚拟对象进行拍摄得到虚拟拍摄画面前,
21.基于所述第二动画信息,确定所述虚拟对象在所述现实空间中需要的运动区域范围;获取所述增强现实设备所处环境的环境参数,基于所述环境参数和所述运动区域范围,确定所述虚拟对象在所述现实空间的目标运动区域;将第二动画信息中虚拟对象的运动起始点设置在所述目标运动区域对应的虚拟空间区域中。
22.在一个示例性实施例中,动画信息获取单元,用于:
23.获取所述虚拟对象在所述模型空间中的第一尺寸信息,以及所述虚拟对象在所述虚拟空间中的第二尺寸信息;
24.基于所述第一尺寸信息和所述第二尺寸信息,确定所述虚拟对象对应的第二空间转化信息。
25.在一个示例性实施例中,所述第二拍摄参数有多个,每一所述第二拍摄参数包括所述虚拟摄像机在所述虚拟空间中的第二拍摄位置以及所述第二拍摄位置上的第二相机参数;
26.转化单元,用于基于所述第一空间转化信息将所述第二拍摄参数中的第二拍摄位置和第二相机参数分别转化到所述模型空间中,得到第三拍摄参数。
27.在一个示例性实施例中,所述转化包括坐标系矩阵变换、缩放、旋转以及平移中的至少一种。
28.在一个示例性实施例中,所述第二空间转化信息为第二空间转化矩阵,所述第一空间转化信息为第一空间转化矩阵;
29.第一转化信息获取单元,用于:
30.获取所述虚拟空间的第一坐标系以及所述模型空间的第二坐标系;
31.在所述第一坐标系、第二坐标系以及所述第二空间转化矩阵之间满足的坐标系转换等式中,对所述第二空间转化矩阵基于等号进行移项处理,得到第一空间转化矩阵。
32.在一个示例性实施例中,轨迹数据获取单元,用于:
33.获取目标应用程序中虚拟相机使用的轨迹数据的数据格式;
34.将所述第三拍摄参数转换为符合所述数据格式的数据,得到所述虚拟相机在所述模型空间中拍摄所述虚拟对象的轨迹数据。
35.本发明实施例还提供一种电子设备,包括存储器,处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述计算机程序时实现如上所述方法的步骤。
36.本发明实施例还提供一种存储介质,其上存储有计算机程序,其中,所述计算机程
序被处理器执行时实现如上所述方法的步骤。
37.本发明实施例提供了一种虚拟相机拍摄参数获取方法、装置、电子设备和存储介质,可获取增强现实设备中的设备摄像机在现实空间中的第一拍摄参数,并将第一拍摄参数同步为用于拍摄虚拟对象的虚拟摄像机在虚拟空间中的第二拍摄参数;获取虚拟空间与虚拟对象所处的模型空间之间的第一空间转化信息;基于第一空间转化信息将第二拍摄参数转化到模型空间中,得到第三拍摄参数;根据第三拍摄参数确定虚拟相机在模型空间中拍摄虚拟对象的轨迹数据。由此,利用了增强现实设备中虚拟空间和现实空间的对应关系,快速而准确地获取增强现实设备的虚拟摄像机的第二拍摄参数,从而将该第二拍摄参数转化到模型空间中得到所需的信息,避免了频繁设置虚拟相机关键帧的问题。
附图说明
38.为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
39.图1是本发明实施例提供的虚拟相机拍摄参数获取系统的示意图;
40.图2是本发明实施例提供的一种虚拟相机拍摄参数获取方法的流程图;
41.图3是本发明实施例提供的一种虚拟相机拍摄参数获取装置的结构示意图;
42.图4是本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
43.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
44.本发明实施例提供一种虚拟相机拍摄参数获取方法、装置、电子设备和存储介质。具体地,本实施例提供适用于虚拟相机拍摄参数获取装置的虚拟相机拍摄参数获取方法,该虚拟相机拍摄参数获取装置可以集成在电子设备中。该电子设备可以为终端等设备,例如可以为手机、平板电脑、笔记本电脑、台式电脑等、智能穿戴设备、ar(augmented reality,增强现实)设备等。
45.其中,该增强现实设备可以为:带有摄像头和显示界面并具有ar功能的设备,增强现实设备的设备类型不限,例如可以为安装有ar应用程序的智能手机,或者ar眼镜、ar头盔等等。
46.本实施例的虚拟相机拍摄参数获取方法,可以由增强现实设备实现,或者可以由增强现实设备和终端共同实现。
47.本实施例以增强现实设备和终端共同实现虚拟相机拍摄参数获取方法为例进行示例说明。
48.参考图1,本发明实施例提供的虚拟相机拍摄参数获取系统包括增强现实设备10和终端20等;增强现实设备10与终端20之间通过网络连接,比如,通过有线或无线网络连接
等。
49.增强现实设备10,可以用于获取增强现实设备中的设备摄像机在现实空间中的第一拍摄参数,并将所述第一拍摄参数同步为用于拍摄虚拟对象的虚拟摄像机在虚拟空间中的第二拍摄参数;将第二拍摄参数发送给终端20。
50.其中,终端20,可以用于获取增强现实设备的虚拟空间与所述虚拟对象所处的模型空间之间的第一空间转化信息;基于所述第一空间转化信息将所述第二拍摄参数转化到所述模型空间中,得到第三拍摄参数;根据所述第三拍摄参数确定虚拟相机在所述模型空间中拍摄所述虚拟对象的轨迹数据。
51.在一个示例中,增强现实设备和上述终端可以是同一个设备,由该设备基于ar技术显示虚拟对象,记录虚拟对象显示过程中增强现实设备的虚拟摄像机在虚拟空间中的第二拍摄参数,以及执行本实施例中获取第二拍摄参数之后的一系列操作。
52.其中,增强现实设备可以和服务器连接,增强现实设备显示虚拟对象的过程可以基于增强现实设备和服务器的通信实现。
53.其中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、cdn、以及大数据和人工智能平台等基础云计算服务的云服务器,但并不局限于此。
54.以下分别进行详细说明。需说明的是,以下实施例的描述顺序不作为对实施例优选顺序的限定。
55.本发明实施例的一个方面提供了一种虚拟相机拍摄参数获取方法,如图2所示,本实施例的虚拟相机拍摄参数获取方法的流程可以如下:
56.201、获取增强现实设备中的设备摄像机在现实空间中的第一拍摄参数,并将所述第一拍摄参数同步为用于拍摄虚拟对象的虚拟摄像机在虚拟空间中的第二拍摄参数。
57.本实施例对增强现实技术进行简单说明,ar技术是一种利用设备摄影机拍摄到的图像,实时地计算设备摄影机的拍摄参数如位置和旋转信息等,并将该拍摄参数应用到虚拟空间的虚拟摄像机上,获取该虚拟摄像机在虚拟空间中采集的图像,然后将两个摄像机拍摄到的图像一起显示的技术,可以产生虚拟对象显示在现实世界的画面中的效果。
58.本实施例中的第一拍摄参数和第二拍摄参数中包含的信息的类型是相同的,例如,两种拍摄参数都包括拍摄位置,以及在拍摄位置上的相机参数。在第一拍摄参数中,拍摄位置为设备摄像机在现实空间中的拍摄位置(为区分,可称为第一拍摄位置),相机参数为设备摄像机的相机参数(为区分,可称为第一相机参数),在第二拍摄参数中,拍摄位置为虚拟摄像机在虚拟空间中的拍摄位置(为区分,可称为第二拍摄位置),相机参数为虚拟摄像机在虚拟空间中的相机参数(为区分,可称为第二相机参数)。
59.在一示例性的实施例中,相机参数中的拍摄位置,可以以坐标的形式表示,本实施例对此没有限制,相机参数包括但不限于相机旋转信息(俯仰角)、广角信息、焦距、拍摄频率以及感光度等等参数。可选的,增强现实设备中可以设置一应用接口,增强现实设备的第二拍摄参数可以通过该应用接口传输给终端。
60.可选的,相机参数包括具体参数类型不限,可以根据步骤204中虚拟相机在模型空间中拍摄虚拟对象时的实际需要设置。
61.可以理解的是,在ar设备中,设备摄像机的位置和角度等拍摄参数,与增强现实设备的虚拟空间中虚拟摄像机的位置和角度是同步变化的。
62.很多增强现实设备中,增强现实设备为了实现将现实空间和虚拟空间采集的画面叠加显示,可以自动将实体的设备摄像机在现实空间中的第一拍摄参数转换为虚拟摄像机在虚拟空间中的第二拍摄参数,所以在一个示例性实施例中,可以直接从增强现实设备中获取其虚拟摄像机在虚拟空间中的第二拍摄参数。
63.可以理解的是,在增强现实设备的使用过程中,虚拟对象在虚拟空间存在一定的显示时长,设备摄像机和虚拟摄像机会持续采集画面,所以第一拍摄参数的数量是有多个的,第二拍摄参数的数量相应的也有多个,具体的数量可以基于拍摄频率以及拍摄时长来确定。其中,基于多个第一拍摄参数可以确定在多个第一拍摄位置上的第一相机参数,所以可以确定设备摄像机在现实空间中的第一拍摄轨迹,类似的,基于多个第二拍摄参数可以确定多个第二拍摄位置上的第二相机参数,所以基于多个第二拍摄参数,可以得到虚拟摄像机在虚拟空间中的第二拍摄轨迹。当然第一拍摄参数可以根据用户对增强现实设备的操作,或增强现实设备自身的检测和控制等进行调整,本示例对此没有限制。
64.可选的,一个示例中,虚拟空间的空间信息,例如空间坐标系,虚拟空间中物体的显示效果等,可以根据具体的需要设置,使得虚拟对象在虚拟空间中的显示效果如大小等,满足增强现实设备对虚拟对象的拍摄需求。
65.本实施例的虚拟对象的类型和来源不限,虚拟对象是指在虚拟场景(或虚拟空间)中可被控制的动态对象。可选地,该动态对象可以是虚拟人物、虚拟动物、动漫人物、虚拟物品等。
66.本实施例中,步骤201中的虚拟空间即为增强现实设备实现增强现实功能时,需要采集的虚拟对象所处的虚拟空间,也即为增强现实设备中虚拟对象实际显示的虚拟空间,虚拟摄像机为在虚拟空间中拍摄虚拟对象画面的虚拟的摄像机,可以理解的是,该虚拟摄像机拍摄虚拟对象得到的画面叠加到增强现实设备实体的设备摄像机从现实空间采集的画面,则得到了增强现实设备显示的虚实结合的画面。
67.可以理解的是,该虚拟空间中虚拟对象的尺寸即为显示在现实空间画面(从现实空间采集的画面)上虚拟对象的尺寸,例如,虚拟对象在虚拟空间中显示为2米高的虚拟男性,则增强现实设备显示的画面中,虚拟男性身高为2米。
68.本实施例中,为了实现ar设备的显示画面包括虚拟对象和现实空间的画面,在将第一拍摄参数转换为第二拍摄参数后,还包括:根据所述第二拍摄参数,从所述虚拟空间中采集所述虚拟对象的虚拟拍摄画面;将所述虚拟拍摄画面实时渲染到通过所述设备摄像机采集的现实拍摄场景中。
69.其中,现实拍摄场景是设备摄像机通过第一拍摄参数对现实空间进行拍摄得到的。
70.可选的,增强现实设备在将第一拍摄参数转换为第二拍摄参数前,需要基于虚拟对象的虚拟空间和现实空间进行三维注册,即将虚拟空间准确定位到现实空间中,避免在增强现实设备运动或虚拟对象的移动过程中,发生空间漂移,影响ar画面的显示。三维注册后,可将虚拟对象放置到现实场景中。可选的,在增强现实设备开启ar功能后,增强现实设备可以扫描环境中的特征点,基于特征点进行三维注册将虚拟空间和现实空间联系在一
起,然后在现实空间中摆放好需要拍摄的虚拟对象。
71.一个示例中,将所述第一拍摄参数同步为用于拍摄虚拟对象的虚拟摄像机在虚拟空间中的第二拍摄参数,可以包括:获取增强现实设备所处的现实空间的第一空间坐标系,以及虚拟空间的第二空间坐标系,确定从所述第一空间坐标系转换到第二空间坐标系的空间转化信息,基于所述空间转化信息对第一拍摄参数进行转化,得到用于拍摄虚拟对象的虚拟摄像机在虚拟空间中的第二拍摄参数。
72.在一个可选的示例中,增强现实设备上的ar应用程序(实现ar功能的应用程序)可以实现上述的坐标系转化步骤,利用转化得到的第二拍摄参数来控制虚拟摄像机拍摄虚拟空间中显示的虚拟对象。
73.本实施例中,坐标系的转换,包括但不限于坐标系的平移、旋转以及尺度变换如缩放等处理。
74.在一个可选的示例中,拍摄参数包括拍摄位置和相机参数,步骤“基于所述空间转化信息对第一拍摄参数进行转化,得到用于拍摄虚拟对象的虚拟摄像机在虚拟空间中的第二拍摄参数”,可以包括:
75.基于空间转化信息将第一拍摄参数中的第一拍摄位置和第一相机参数,转换到虚拟空间的空间坐标系中,得到第二拍摄参数的第二拍摄位置和相机参数。
76.202、获取所述虚拟空间与所述虚拟对象所处的模型空间之间的第一空间转化信息。
77.本实施例中的虚拟对象原本是设置在模型空间中的虚拟对象,模型空间也称对象空间或局部空间,每个模型(虚拟对象)都有自己的模型空间,模型空间也是一种虚拟的空间,模型空间可以理解为放置虚拟对象的几何模型的虚拟为三维坐标空间。
78.可选地,模型空间可以是虚拟对象的动画在增强现实设备中播放前,虚拟对象所处的虚拟的空间。例如,该模型空间可以理解为虚拟对象的生成空间,或者为虚拟对象所在游戏或动画的虚拟空间,该模型空间中虚拟对象的模型参数是原始模型参数。可选地,原始模型参数包括虚拟对象在制作的过程中被设置的模型参数,或虚拟对象在游戏中的模型设置参数,例如,虚拟对象在模型空间中高度被设置为4米,或者,在运行游戏程序产生的虚拟空间中虚拟对象高度被设置为10米等等。
79.根据前述描述可知,本实施例中增强现实设备的虚拟空间,为增强现实设备中虚拟对象实际显示的虚拟空间。该虚拟空间中虚拟对象的尺寸即为显示在现实空间画面上虚拟对象的尺寸。所以可以理解的是,若在ar设备的虚拟空间中按照模型空间中虚拟对象的原始模型参数显示虚拟对象,则可能会造成虚拟对象或高、虚拟对象过大或过小等问题,虚拟对象的可拍摄性得不到保证。例如,模型空间中虚拟对象高五米,或虚拟对象高2厘米等。
80.若是按照模型空间中虚拟对象的尺寸显示在ar画面中呈现给操作者,操作者可能无法通过增强现实设备观察到完整的虚拟对象;或操作者通过增强现实设备观察到的虚拟对象过小,无法分辨虚拟对象的动作等;从而不能保证得到的第三拍摄参数的准确性,由此,对于在模型空间中采用轨迹数据控制虚拟相机拍摄虚拟对象得到的视频,其对象完整性、视频清晰度、视频展示效果等不能得到保证。
81.所以为了虚拟对象在现实空间中的可拍摄性(例如避免虚拟对象在现实空间中太大或太小等,不利于拍摄),可以先将模型空间中的虚拟对象转换到增强现实设备的虚拟空
间中,得到在现实空间中高度合适的虚拟对象,然后在增强现实设备中进行显示。例如将模型空间中高度为4米的虚拟对象,转换至虚拟对象中得到高度为1.8米的虚拟对象等,便于拍摄。
82.可选的,本实施例的虚拟对象包括但不限于动态和静态的虚拟对象,在ar设备显示过程中,虚拟对象可以处于静止状态,由用户操作ar设备针对虚拟对象进行拍摄,或者虚拟对象可以处于运动状态,由用户操作ar设备跟随虚拟对象进行拍摄等等,本实施例对此没有限制。
83.本实施例中,步骤“根据所述第二拍摄参数,从所述虚拟空间中采集所述虚拟对象的虚拟拍摄画面”之前,可以包括:
84.获取所述虚拟对象在所述模型空间的第一动画信息;
85.获取将所述虚拟对象从所述模型空间转换到所述虚拟空间的第二空间转化信息;
86.基于所述第二空间转化信息对所述第一动画信息中的虚拟对象进行空间转换,得到第二动画信息;
87.对应的,步骤“根据所述第二拍摄参数,从所述虚拟空间中采集所述虚拟对象的虚拟拍摄画面”,包括:
88.根据所述第二拍摄参数,对所述第二动画信息中的虚拟对象进行拍摄得到虚拟拍摄画面。
89.可选的,一个示例中,第一动画信息中除了虚拟对象,可以不包括其他虚拟人、物等,第一动画信息可以包括从游戏、动画片等导出的动画中,除去背景信息以及所述虚拟对象之外的前景信息得到的动画。
90.可选地,步骤“基于所述第二空间转化信息对所述第一动画信息中的虚拟对象进行空间转换,得到第二动画信息”,可以包括:将第一动画信息的每一帧图像中的虚拟对象,基于第二空间转化信息从模型空间转化到虚拟空间得到转化后图像,对转化后图像按照第一动画中的顺序组合,得到第二动画信息。
91.其中,第二空间转化信息,可以是提前计算好的,也可以是实时计算的,本示例对此没有限制。一个示例中,为了简化第二空间转化信息,可以设置虚拟空间的坐标原点与模型空间的坐标原点重合,虚拟空间的三个坐标轴与模型空间的三个坐标轴重合,可选的,将所述虚拟对象从所述模型空间转换到所述虚拟空间的第二空间转化信息的计算过程可以包括:获取所述虚拟对象在所述模型空间中的第一尺寸信息,以及所述虚拟对象在所述虚拟空间中的第二尺寸信息;基于所述第一尺寸信息和所述第二尺寸信息,确定将所述虚拟对象从模型空间转化到虚拟空间的第二空间转化信息。
92.可选的,尺寸信息是可以描述虚拟对象的模型尺寸的参数,包括但不限于身高、腰围等信息。基于第一尺寸信息和第二尺寸信息,可以确定虚拟空间的坐标系在三个坐标轴方向相对于模型空间的坐标系在三个坐标轴方向上的变化信息,根据三个坐标轴方向上的变化信息,可以得到将所述虚拟对象从模型空间转化到虚拟空间的第二空间转化信息。
93.例如,虚拟对象在模型空间高5.4米,希望虚拟对象在ar设备的虚拟空间高1.8米,则可以将模型空间按照z轴(身高方向)方向压缩三倍,按照x轴和y轴方向均压缩3倍,得到身高1.8米的虚拟对象。
94.在另一个实施例中,基于第一尺寸信息和第二尺寸信息,可以确定虚拟空间和模
型空间之间的缩放参数,根据该缩放参数,可以确定将所述虚拟对象从模型空间转化到虚拟空间的第二空间转化信息。
95.可选的,虚拟对象在虚拟空间中的第二尺寸信息,可以设置在虚拟对象的第一动画信息的源文件中,在读取源文件后,可以从该源文件获取该第二尺寸信息,一个示例中,虚拟对象的第二尺寸信息,可以是根据虚拟对象的对象类型实时确定的。
96.在获取第一动画信息后,可以对第一动画信息中的虚拟对象进行类型识别,确定虚拟对象的目标对象类型,根据目标对象类型的实体对象在现实空间中的尺寸,确定虚拟对象在ar设备的虚拟空间中的第二尺寸信息。
97.例如,ar设备中可以预先设置对象类型,与该对象类型下实体对象在现实空间中的尺寸的对应关系。基于该对应关系以及从第一动画信息中识别出的目标对象类型,可以自动确定第二尺寸信息,避免每一次采集本实施例的轨迹信息都需要对虚拟对象设置第二尺寸信息。
98.比如,该对应关系中人这一对象类型对应的现实空间中的尺寸为1.8米,则识别为人形生物的虚拟对象,其第二尺寸信息均为1.8米。
99.一个示例中,ar设备的操作者在ar设备上对虚拟对象的显示需求设置虚拟对象在虚拟空间中的第二尺寸信息,例如,操作者可以在ar显示的操作界面中实时设置虚拟对象在虚拟空间上的第二尺寸信息,或者操作者可以在ar显示的操作界面设置增强现实设备上显示出的虚拟对象与现实空间画面的占比要求,例如,虚拟对象占现实空间画面的比例不低于10%等。ar设备可以基于该占比要求,确定虚拟空间中虚拟对象的第二尺寸信息。由此,可以使得ar设备的操作者拍摄更满足资深拍摄需求的虚拟对象,从而进一步保证模型空间中对虚拟对象的拍摄效果。
100.一个示例中,虚拟空间的坐标原点与模型空间的坐标原点可以不重合,虚拟空间的三个坐标轴与模型空间的三个坐标轴也可以不重合,可以对模型空间的坐标系进行缩放、旋转、平移等操作,实现空间坐标系的转化。可选的,第二空间转化信息除了包括虚拟空间与模型空间的缩放参数,还可以包括虚拟空间和模型空间的坐标系之间的平移参数以及旋转参数等等。
101.一个示例中,模型空间和虚拟空间的坐标系之间的变化可以基于坐标系矩阵变换实现,在该示例中,第二空间转化信息可以是一个矩阵,即第二空间转化矩阵,通过该一个矩阵,可以描述对模型空间的旋转、平移以及缩放等中的至少一个操作。
102.本实施例中,第一空间转化信息可以基于第二空间转化信息得到。例如,若第二空间转化信息包括旋转参数和/或平移参数和/或缩放参数;则对第二空间转化信息中的参数进行逆处理,如将旋转参数的旋转方向、平移参数的平移方向,缩放参数的缩放方向进行反向处理,可以得到第一空间转化信息中的旋转参数和/或平移参数和/或缩放参数。
103.例如,第二空间转化信息为矩阵,则第一空间转化信息可以基于对第二空间转化矩阵的矩阵移项处理等得到。
104.可选地,步骤“获取所述虚拟空间与所述虚拟对象所处的模型空间之间的第一空间转化信息”,可以包括:
105.获取所述虚拟空间的第一坐标系以及所述模型空间的第二坐标系;
106.在所述第一坐标系、第二坐标系以及所述第二空间转化矩阵之间满足的坐标系转
换等式中,对所述第二空间转化矩阵基于等号进行移项处理,得到第一空间转化矩阵。
107.例如,在坐标系转换等式中,第二空间转化矩阵位于等号右边,则将第二空间转化矩阵移动到等号左边,等号左边增加的矩阵即为第一空间转化矩阵。
108.203、基于所述第一空间转化信息将所述第二拍摄参数转化到所述模型空间中,得到第三拍摄参数。
109.本实施例中的转化,包括但不限于坐标系矩阵变换、缩放、旋转以及平移中的至少一种。本实施例中的转化和转换的含义类似。
110.即第二拍摄参数可以通过坐标系矩阵变换、缩放、旋转以及平移等方式,转化到模型空间中。
111.一个示例性实施例中,步骤203可以包括:基于所述第一空间转化信息将所述第二拍摄参数中的第二拍摄位置和第二相机参数分别转化到所述模型空间中,得到第三拍摄参数。
112.从虚拟对象的角度看,步骤203中的转化可以实现把对虚拟对象的操作(如旋转、移动、缩放)等转化为在模型空间中的正确信息,例如,为了虚拟对象在虚拟空间的拍摄需要,虚拟对象被缩小一半,则步骤203的转化,可以将缩小的虚拟对象放大一倍,还原到其在模型空间中的样子。
113.其中,第二相机参数包括但不限于相机的旋转参数、焦距、白平衡、广角等等信息。
114.第二相机参数中,一些参数在转化前后是可以保持不变的,例如白平衡等。而拍摄位置、旋转参数等,是可以跟随坐标系变化而变化的,其中,基于虚拟相机的旋转参数可以确定虚拟相机在虚拟空间中的姿态信息,一个示例中,相机的旋转参数可以描述相机的光轴方向相较于坐标系中三个坐标轴方向的旋转角度。可选的,一个示例中,旋转参数可以通过欧拉角描述。
115.可选的,第一空间转化信息为第一空间转化矩阵,基于所述第一空间转化信息将所述第二拍摄参数中的第二拍摄位置和第二相机参数分别转化到所述模型空间中,得到第三拍摄参数,可以包括:将第二拍摄参数中的第二拍摄位置与第一空间转化矩阵相乘,得到模型空间中第三拍摄参数包含的第三拍摄位置;将第二相机参数中跟随坐标系变化的参数与第一空间转化矩阵相乘,将乘积结果和第二相机参数中不跟随坐标系变化的参数融合,得到模型空间中第三拍摄参数包含的第三相机参数。其中,该融合可以理解为将参数组合起来。
116.其中,第一拍摄参数转化为第二拍摄参数的过程,可以参考上述第二拍摄参数转化为第三拍摄参数的过程,在此不再赘述。
117.204、根据所述第三拍摄参数确定虚拟相机在所述模型空间中拍摄所述虚拟对象的轨迹数据。
118.本实施例中的轨迹数据包括两层含义:虚拟相机在模型空间中的运动轨迹,以及虚拟相机在运动轨迹的每个点(第三拍摄位置)上的相机参数(即第三相机参数)。其中,该运动轨迹可以基于第三拍摄参数中的第三拍摄位置确定。可选地,第三拍摄位置按照(拍摄时的)先后顺序组合可以得到虚拟相机在模型空间中的运动轨迹。
119.在虚拟对象会在目标虚拟空间中运动的情况下,获取拍摄参数时,可以将拍摄参数和虚拟对象在虚拟空间中的运动时间对应起来,从而为目标虚拟空间提供更为准确的拍
摄参数。
120.可选的,本实施例的方法还可以包括:以虚拟对象基于第二动画信息显示在现实空间画面开始统计虚拟对象的运动时间,建立第二拍摄参数与该运动时间的第一对应关系。
121.在获取轨迹数据后,还可以基于该第一对应关系,确定各个第三拍摄参数与运动时间的对应关系。从而确定虚拟对象的运动时间与轨迹数据(中的第三拍摄位置)的对应关系。由此,在基于轨迹数据在模型空间拍摄虚拟对象时,还可以参考运动时间,对虚拟相机进行更准确的控制。
122.可选的,考虑到虚拟对象可以运动时,若现实空间的运动区域不够,增强现实设备的操作者可能会遇到障碍物,导致无法一次完成虚拟对象的拍摄,所以本实施例中,可以基于增强现实设备对环境参数的检测,确定出合适的拍摄地区。
123.可选的,步骤“根据所述第二拍摄参数,对所述第二动画信息中的虚拟对象进行拍摄得到虚拟拍摄画面”前,还可以包括:
124.基于第二动画信息,确定所述虚拟对象在所述现实空间中需要的运动区域范围;
125.获取所述增强现实设备所处环境的环境参数,基于所述环境参数和所述运动区域范围,确定所述虚拟对象在所述现实空间的目标运动区域;
126.将第二动画信息中虚拟对象的运动起始点设置在所述目标运动区域对应的虚拟空间区域中。
127.其中,环境参数包括但不限于环境中物体的尺寸、类型等,环境参数可以包括增强现实设备所处环境的一定范围内(如360度范围内)的环境参数。目标运动区域的范围大于该运动区域范围,且目标运动区域内可以提供虚拟对象运动的无障碍物的运动路径。
128.可选地,将第二动画信息中虚拟对象的运动起始点设置在所述目标运动区域对应的虚拟空间区域中时,可以根据现实空间与虚拟空间的关联(如坐标系之间的转换关系),将目标运动区域转换到虚拟空间中,得到目标运动区域在虚拟空间对应的虚拟空间区域。然后将虚拟对象在虚拟空间中的运动起始点,设置在虚拟空间区域中。
129.可选的,可以通过在增强现实设备显示的画面中显示提示信息(如提示朝目标运动区域运动的方向,或者目标运动区域在现实空间的位置等的信息),提示用户将增强现实设备转动到可以拍摄目标运动区域的位置。
130.可选的,本实施例中,还可以对轨迹数据进行格式转换,使其符合在模型空间拍摄的应用程序的需求。
131.可选的,本实施例中,根据所述第三拍摄参数确定虚拟相机在所述模型空间中拍摄所述虚拟对象的轨迹数据,可以包括:
132.获取目标应用程序中虚拟相机使用的轨迹数据的数据格式;
133.将所述第三拍摄参数转换为符合所述数据格式的数据,得到所述虚拟相机在所述模型空间中拍摄所述虚拟对象的轨迹数据。
134.其中,目标应用程序是具有拍摄虚拟对象的需求的程序,例如目标应用程序可以是虚拟对象所属的游戏程序,或者可以播放动画的应用程序等等。
135.该数据格式中可以包括目标应用程序的拍摄参数的模板信息,该模板信息中包括第三拍摄参数中各参数的填写位置,可以将第三拍摄参数填写到模板中对应的填写位置
上,对填写好的模板按照预设数据格式中的模板处理方式进行处理,得到目标应用程序可以使用的轨迹数据。
136.采用本实施例的方法,可获取增强现实设备中的设备摄像机在现实空间中的第一拍摄参数,并将第一拍摄参数同步为用于拍摄虚拟对象的虚拟摄像机在虚拟空间中的第二拍摄参数;获取虚拟空间与虚拟对象所处的模型空间之间的第一空间转化信息;基于第一空间转化信息将第二拍摄参数转化到模型空间中,得到第三拍摄参数;根据第三拍摄参数确定虚拟相机在模型空间中拍摄虚拟对象的轨迹数据。由此,利用了增强现实设备中虚拟空间和现实空间的对应关系,快速而准确地获取增强现实设备的虚拟摄像机的第二拍摄参数,从而将该第二拍摄参数转化到模型空间中得到所需的信息,大大降低了模型空间中虚拟对象的拍摄对关键帧的依赖。
137.为了更好地实施以上方法,相应的,本发明实施例还提供一种虚拟相机拍摄参数获取装置。参考图3,该虚拟相机拍摄参数获取装置包括:
138.参数获取单元301,用于获取增强现实设备中的设备摄像机在现实空间中的第一拍摄参数,并将所述第一拍摄参数同步为用于拍摄虚拟对象的虚拟摄像机在虚拟空间中的第二拍摄参数;
139.第一转化信息获取单元302,用于获取所述虚拟空间与所述虚拟对象所处的模型空间之间的第一空间转化信息;
140.转化单元303,用于基于所述第一空间转化信息将所述第二拍摄参数转化到所述模型空间中,得到第三拍摄参数;
141.轨迹数据获取单元304,用于根据所述第三拍摄参数确定虚拟相机在所述模型空间中拍摄所述虚拟对象的轨迹数据。
142.在一个示例性实施例中,装置还包括:显示单元,用于:
143.根据所述第二拍摄参数,从所述虚拟空间中采集所述虚拟对象的虚拟拍摄画面;
144.将所述虚拟拍摄画面实时渲染到通过所述设备摄像机采集的现实拍摄场景中。
145.在一个示例性实施例中,装置还包括:动画信息获取单元,用于在显示单元根据所述第二拍摄参数,从所述虚拟空间中采集所述虚拟对象的虚拟拍摄画面之前,获取所述虚拟对象在所述模型空间的第一动画信息;获取将所述虚拟对象从所述模型空间转换到所述虚拟空间的第二空间转化信息;基于所述第二空间转化信息对所述第一动画信息中的虚拟对象进行空间转换,得到第二动画信息;
146.显示单元,用于根据所述第二拍摄参数,对所述第二动画信息中的虚拟对象进行拍摄得到虚拟拍摄画面。
147.在一个示例性实施例中,显示范围确定单元,用于在显示单元根据所述第二拍摄参数,对所述第二动画信息中的虚拟对象进行拍摄得到虚拟拍摄画面前,基于所述第二动画信息,确定所述虚拟对象在所述现实空间中需要的运动区域范围;获取所述增强现实设备所处环境的环境参数,基于所述环境参数和所述运动区域范围,确定所述虚拟对象在所述现实空间的目标运动区域;将第二动画信息中虚拟对象的运动起始点设置在所述目标运动区域对应的虚拟空间区域中。
148.在一个示例性实施例中,动画信息获取单元,用于:
149.获取所述虚拟对象在所述模型空间中的第一尺寸信息,以及所述虚拟对象在所述
虚拟空间中的第二尺寸信息;
150.基于所述第一尺寸信息和所述第二尺寸信息,确定所述虚拟对象对应的第二空间转化信息。
151.在一个示例性实施例中,所述第二拍摄参数有多个,每一所述第二拍摄参数包括所述虚拟摄像机在所述虚拟空间中的第二拍摄位置以及所述第二拍摄位置上的第二相机参数;
152.转化单元,用于:
153.基于所述第一空间转化信息将所述第二拍摄参数中的第二拍摄位置和第二相机参数分别转化到所述模型空间中,得到第三拍摄参数。
154.在一个示例性实施例中,所述转化包括坐标系矩阵变换、缩放、旋转以及平移中的至少一种。
155.在一个示例性实施例中,所述第二空间转化信息为第二空间转化矩阵,所述第一空间转化信息为第一空间转化矩阵;
156.第一转化信息获取单元,用于:
157.获取所述虚拟空间的第一坐标系以及所述模型空间的第二坐标系;
158.在所述第一坐标系、第二坐标系以及所述第二空间转化矩阵之间满足的坐标系转换等式中,对所述第二空间转化矩阵基于等号进行移项处理,得到第一空间转化矩阵。
159.在一个示例性实施例中,轨迹数据获取单元,用于:
160.获取目标应用程序中虚拟相机使用的轨迹数据的数据格式;
161.将所述第三拍摄参数转换为符合所述数据格式的数据,得到所述虚拟相机在所述模型空间中拍摄所述虚拟对象的轨迹数据。
162.采用本技术的装置,可获取增强现实设备中的设备摄像机在现实空间中的第一拍摄参数,并将第一拍摄参数同步为用于拍摄虚拟对象的虚拟摄像机在虚拟空间中的第二拍摄参数;获取虚拟空间与虚拟对象所处的模型空间之间的第一空间转化信息;基于第一空间转化信息将第二拍摄参数转化到模型空间中,得到第三拍摄参数;根据第三拍摄参数确定虚拟相机在模型空间中拍摄虚拟对象的轨迹数据。由此,利用了增强现实设备中虚拟空间和现实空间的对应关系,快速而准确地获取增强现实设备的虚拟摄像机的第二拍摄参数,从而将该第二拍摄参数转化到模型空间中得到所需的信息,避免了频繁设置虚拟相机关键帧的问题。
163.此外,本技术实施例还提供一种电子设备,该电子设备可以为终端,该终端可以为智能手机、平板电脑、笔记本电脑、触控屏幕、游戏机、个人计算机(pc,personal computer)、个人数字助理(personal digital assistant,pda)等终端设备。如图4所示,图4为本技术实施例提供的电子设备的结构示意图。该电子设备1000包括有一个或者一个以上处理核心的处理器401、有一个或一个以上计算机可读存储介质的存储器402及存储在存储器402上并可在处理器上运行的计算机程序。其中,处理器401与存储器402电性连接。本领域技术人员可以理解,图中示出的电子设备结构并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
164.处理器401是电子设备1000的控制中心,利用各种接口和线路连接整个电子设备1000的各个部分,通过运行或加载存储在存储器402内的软件程序和/或模块,以及调用存
储在存储器402内的数据,执行电子设备1000的各种功能和处理数据,从而对电子设备1000进行整体监控。
165.在本技术实施例中,电子设备1000中的处理器401会按照如下的步骤,将一个或一个以上的应用程序的进程对应的指令加载到存储器402中,并由处理器401来运行存储在存储器402中的应用程序,从而实现各种功能:
166.获取增强现实设备中的设备摄像机在现实空间中的第一拍摄参数,并将所述第一拍摄参数同步为用于拍摄虚拟对象的虚拟摄像机在虚拟空间中的第二拍摄参数;
167.获取所述虚拟空间与所述虚拟对象所处的模型空间之间的第一空间转化信息;
168.基于所述第一空间转化信息将所述第二拍摄参数转化到所述模型空间中,得到第三拍摄参数;
169.根据所述第三拍摄参数确定虚拟相机在所述模型空间中拍摄所述虚拟对象的轨迹数据。
170.以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
171.可选的,如图4所示,电子设备1000还包括:触控显示屏403、射频电路404、音频电路405、输入单元406以及电源407。其中,处理器401分别与触控显示屏403、射频电路404、音频电路405、输入单元406以及电源407电性连接。本领域技术人员可以理解,图4中示出的电子设备结构并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
172.触控显示屏403可用于显示图形用户界面以及接收用户作用于图形用户界面产生的操作指令。触控显示屏403可以包括显示面板和触控面板。其中,显示面板可用于显示由用户输入的信息或提供给用户的信息以及电子设备的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。可选的,可以采用液晶显示器(lcd,liquid crystal display)、有机发光二极管(oled,organic light

emitting diode)等形式来配置显示面板。触控面板可用于收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板上或在触控面板附近的操作),并生成相应的操作指令,且操作指令执行对应程序。可选的,触控面板可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器401,并能接收处理器401发来的命令并加以执行。触控面板可覆盖显示面板,当触控面板检测到在其上或附近的触摸操作后,传送给处理器401以确定触摸事件的类型,随后处理器401根据触摸事件的类型在显示面板上提供相应的视觉输出。在本技术实施例中,可以将触控面板与显示面板集成到触控显示屏403而实现输入和输出功能。但是在某些实施例中,触控面板与触控面板可以作为两个独立的部件来实现输入和输出功能。即触控显示屏403也可以作为输入单元406的一部分实现输入功能。
173.在本技术实施例中,通过处理器401在触控显示屏403上生成视频页面。
174.射频电路404可用于收发射频信号,以通过无线通信与网络设备或其他电子设备建立无线通讯,与网络设备或其他电子设备之间收发信号。
175.音频电路405可以用于通过扬声器、传声器提供用户与电子设备之间的音频接口。音频电路405可将接收到的音频数据转换后的电信号,传输到扬声器,由扬声器转换为声音
信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路405接收后转换为音频数据,再将音频数据输出处理器401处理后,经射频电路404以发送给比如另一电子设备,或者将音频数据输出至存储器402以便进一步处理。音频电路405还可能包括耳塞插孔,以提供外设耳机与电子设备的通信。
176.输入单元406可用于接收输入的数字、字符信息或用户特征信息(例如指纹、虹膜、面部信息等),以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
177.电源407用于给电子设备1000的各个部件供电。可选的,电源407可以通过电源管理系统与处理器401逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源407还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
178.尽管图4中未示出,电子设备1000还可以包括摄像头、传感器、无线保真模块、蓝牙模块等,在此不再赘述。
179.在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
180.本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
181.为此,本技术实施例提供一种计算机可读存储介质,其中存储有多条计算机程序,该计算机程序能够被处理器进行加载,以执行本技术实施例所提供的任一种虚拟相机拍摄参数获取方法中的步骤。例如,该计算机程序可以执行如下步骤:
182.获取增强现实设备中的设备摄像机在现实空间中的第一拍摄参数,并将所述第一拍摄参数同步为用于拍摄虚拟对象的虚拟摄像机在虚拟空间中的第二拍摄参数;
183.获取所述虚拟空间与所述虚拟对象所处的模型空间之间的第一空间转化信息;
184.基于所述第一空间转化信息将所述第二拍摄参数转化到所述模型空间中,得到第三拍摄参数;
185.根据所述第三拍摄参数确定虚拟相机在所述模型空间中拍摄所述虚拟对象的轨迹数据。
186.以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
187.其中,该存储介质可以包括:只读存储器(rom,read only memory)、随机存取记忆体(ram,random access memory)、磁盘或光盘等。
188.由于该存储介质中所存储的计算机程序,可以执行本技术实施例所提供的任一种虚拟相机拍摄参数获取方法中的步骤,因此,可以实现本技术实施例所提供的任一种虚拟相机拍摄参数获取方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
189.以上对本技术实施例所提供的一种虚拟相机拍摄参数获取方法、装置、存储介质及电子设备进行了详细介绍,本文中应用了具体个例对本技术的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本技术的方法及其核心思想;同时,对于本领域的技术人员,依据本技术的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本技术的限制。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜