一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

用于通过光学系统产生和显示虚拟对象的方法与流程

2021-11-05 22:46:00 来源:中国专利 TAG:


1.本发明涉及一种根据权利要求1的用于通过光学系统产生和显示虚拟对象的方法。


背景技术:

2.用于所谓的增强现实(augmented reality)和混合现实(mixed reality)的眼镜变得越来越重要和流行。在此,将信息导入数据眼镜的用户的视界中。这种眼镜具有至少一个至少部分透明的显示器,该显示器布置在用户的至少一只眼睛之前。与所谓的虚拟现实(virtual reality)相比,增强现实和混合现实始终与环境有着直接的关系。
3.实际上,这种类型的眼镜(例如所谓的谷歌眼镜(google glass))会导致许多问题。在作为眼镜一部分的显示器上简单地呈现信息已被证明是极其不利的。由于呈现内容,使得极大地改变了用户的注视行为。事实上,用户几乎不会通过呈现信息得到支持,这是因为该用户或者说该用户的眼睛被迫不断在呈现的信息与环境之间切换。这会很快导致疲劳,并且给大脑带来沉重负担。由于新显示信息的视觉刺激吸引了用户的目光,因此所显示的内容还会使用户从真实环境中分散注意力,而且不管在其他视线方向上是否存在可能的在现实世界中更重要的事物应被引起更多关注。这就会导致事故。因此,这种已知的眼镜可能引起与其本意恰好相反的事情。这种眼镜提高了复杂性,而不是为用户带来方便。
4.此外,所有人在某种程度上都是独特的。人的眼睛相对于鼻子和耳朵的布置均不相同,并且也分别具有独特的彼此间距。每个眼镜配戴者都知道要通过配镜师来相应地调整眼镜,其中,配镜师通过对眼镜进行机械改变,例如通过弯曲眼镜腿或鼻托,使眼镜匹配于各个眼镜配戴者的各自的情况。相应地,也分别个体地针对用户匹配光学镜片。
5.在用于增强现实或混合现实的已知系统中,到目前为止,尚不可能将虚拟对象的显示与现实世界的对象相结合或者以能预定且有意的方式使它们相协调。


技术实现要素:

6.因此,本发明的任务是,给出一种开头提到的类型的方法,利用该方法可以避免所提到的缺点,并且利用该方法可以以与现实环境进行能预定的组合的方式来显示虚拟对象。
7.根据本发明,这通过权利要求1的特征来实现。
8.由此,将内容精确地呈现在人们在相关时间点反正已经注视的那个地方。人很少偶然地凝视,而是往往是出于相关的人的环境的原因才如此。虚拟对象在智能眼镜中的呈现是另外的事件,并且将吸引用户的注意。在许多情况下,用户不是偶然地注视真实环境中的特定的对象,而是因为某些原因。如果一个对象显现在其智能眼镜中,则用户会自动注视该对象。由此,使他失去对现实的注视。在对安全至关重要的环境中,例如在工业或实验室中,这可能会导致疏忽和事故。通过将内容精确地显示在用户已经注视的地方,用户就不必由于所显示的内容或图像而改变他的视觉上的注意力。由此使得用户可以对实际环境和显
示的内容同等地做出反应。由此,即使在最难掌握的情况下,也能为用户提供尽可能好的支持,而不会分心或不知所措。
9.由此,数据眼镜,特别是由眼动追踪眼镜和显示器单元构成的光学系统,可以快速且简单地匹配于个体用户。由此能够使得内容并不是在显示器上的任意地方显示,而是将相关的光学系统进行匹配,使得相应的内容可以显示在用户正在看过去的地方。由此能够使得将虚拟对象的显示与现实世界的对象组合起来,或者以能预定且有意的方式使它们相协调。
10.由此可以确保的是,在用户的实际的视线方向上或在关于用户的实际的视线方向明确限定且有意选择的位置中显示由显示器显示的或在显示器上显示的内容。
11.本发明的方法在实践中能快速且简单地执行。
12.从属权利要求涉及本发明的另外的有利设计方案。
13.在此,明确地引用专利权利要求的语句,由此在此通过引用将权利要求插入到说明书中,并且认为权利要求在文字上被复制。
附图说明
14.参考附图详细描述了本发明,在附图中仅示例性示出了优选实施方式。其中:
15.图1以透视图示出了由眼动追踪眼镜和显示器单元构成的本发明的系统的第一实施方式;
16.图2以平面图示出了由眼动追踪眼镜和显示器单元构成的本发明的系统的第二实施方式;
17.图3示出了第一和第二显示器相对于用户的眼睛的空间布置的示意性透视图;
18.图4示出了由眼动追踪眼镜和显示器单元组成的本发明的系统的实施例的框图;
19.图5示出了第一显示器、第一眼睛和真实对象(现实对象)的空间布置的示意性透视图;
20.图6示出了根据图5的由第一显示器和第一眼睛构成的布置,其具有在第一显示器上呈现的虚拟对象(标签);和
21.图7示出了根据图5的由第一显示器和第一眼睛构成的布置,其具有布置在第一显示器之外的,且未呈现的虚拟对象(标签)。
具体实施方式
22.图1、2和4分别示出了根据本发明地匹配于个体用户的光学系统1的不同实施方式或呈现方案。此外,本发明的光学系统1用于限定地显示虚拟对象16,这些虚拟对象响应于能预定的状态或能预定的事件而产生。这些虚拟对象16在限定的视野环境中呈现在系统1的至少一个显示器4、10中的能预定的定位处。
23.光学系统1至少由眼动追踪眼镜2和至少一个与眼动追踪眼镜2连接的显示器单元3构成。
24.眼动追踪眼镜2具有至少一个第一眼睛检测相机5,其用于创建用户的第一眼睛6的第一眼睛视频。眼动追踪眼镜2优选地还具有第二眼睛检测相机11,其用于创建用户的第二眼睛12的第二眼睛视频。眼动追踪眼镜2优选具有至少一个从佩戴眼动追踪眼镜2的用户
1的角度来看向前指向的视场相机14。至少一个眼睛检测相机5或优选两个眼睛检测相机5、11布置在眼动追踪眼镜2的所谓的鼻架中。在图2中可以清楚地看到两个眼睛检测相机5、11的布置。
25.从at 513.987b1中已知一种特别优选的眼动追踪眼镜2,如图1和2所示,从中可以得知优选的眼动追踪眼镜2的更多细节。然而,所讨论的方法也可以用其他眼动追踪眼镜2来执行。
26.眼动追踪眼镜2被设置和构造成用于探测用户的视线方向。
27.图4尤其示出了眼动追踪眼镜2的框图,其中,但是实际使用的眼动追踪眼镜2可以具有另外的部件。除了已经描述的眼睛检测相机5、11之外,眼动追踪眼镜2特别地具有眼动追踪眼镜2的至少一个控制器18和用于与显示器单元3通信的接口19。眼动追踪镜2还优选具有另外的部件,例如能量供应单元。
28.如图1所示,显示器单元3具有至少一个(至少)部分透明的第一显示器4。特别地,显示器单元3还具有第二显示器10。两个显示器4、10也可以一体式地构造,其中,在此设置的是,各个显示器延伸经过两只眼睛6、12。根据本发明的实例,第一显示器4总是配属于用户的左眼,其中,然而这不是强制性的规定,右眼也可以称为第一眼睛6。
29.显示器单元3优选地是独立于眼动追踪眼镜2的设备,但是其被构造成用于与特定类型的眼动追踪眼镜2整合并且布置在该特定的眼动追踪眼镜2上并且与该眼动追踪眼镜机械连接。根据本发明的实例,总是使用由眼动追踪眼镜2和与之机械连接的显示器单元3构成的系统1,其中,还可以设置两个设备2、3的一体式的实施方案。
30.第一显示器4至少区域式布置在眼动追踪眼镜2的第一观察区域7中。优选地设置的第二显示器10至少区域式布置在眼动追踪眼镜2的第二观察区域13中。作为观察区域7、13,在此被理解为处于用户的视线或光学视界之内的区域。特别地,观察区域7、13与眼动追踪眼镜2的片材容纳开口相同。如果眼动追踪眼镜不具有“镜片”和/或不具有框或仅具有部分构造的框,则观察区域7、13特别是在传统的眼镜中通常布置“镜片”的那个区域。
31.如图1所示,第一显示器4和可能的第二显示器10可以布置在眼动追踪眼镜2的面对用户的一侧上,或者如图2所示,可以布置在眼动追踪眼镜2的背离用户的一侧上。此外,它们也可以布置在眼动追踪眼镜2中。
32.第一和可能的第二显示器4、10位置固定地布置在显示器单元3中。设置的是,它们不会在运行中倾斜或枢转。显示器单元3也不具有相应的致动器。
33.第一和可能的第二显示器4、10优选地被构造为所谓的波导显示器,并且基本上是透明的。
34.第一和可能的第二显示器4、10优选地被构造为所谓的“单焦平面”显示器。它是仅具有唯一的显示平面的显示器。与之不同地,也已知有所谓的“多焦平面”显示器,但是本发明实例并未使用它们。
35.图4尤其示出了显示器单元3的框图,其中,但是实际使用的显示器单元3也可以具有其他部件。除了已经描述的显示器4、10之外,显示器单元3还具有显示器单元3的控制器22和用于与眼动追踪眼镜2通信的显示器单元3的第一接口20。
36.此外,显示器单元3具有显示器驱控单元8,其与控制器22连接或与其一体式构成。显示器驱控单元8驱控第一显示器4以及优选设置的第二显示器10,并且在此负责在第一显
示器4和优选在第二显示器10上或在它们中图像或要呈现的对象16的定位和变形。图像或对象16由控制器22生成,并且被传输到显示器驱控单元8以进行呈现。
37.显示器单元3还具有显示器单元3的第二接口21,其被设置并且相应地构造成用于与环境通信。相应地合适或优选的传输方法或系统当前是众所周知且广泛使用的,并且在蜂窝移动通信领域中被称为3g(umts)或4g(lte)或5g,其中,还可以使用另外的因特网或wlan的系统。相应的另外的协议例如是具有众多变体的ieee 802。
38.此外,显示器单元3优选地具有与控制器22连接的导航和位置确定单元23。相应的单元从所谓的智能电话中已知。导航和位置确定单元23不仅可以特别是借助卫星导航方法并且必要时在收集移动电话提供商的连接数据的情况下来确定显示器单元3在全球坐标系中的定位,以及还可以特别是借助至少一个倾斜传感器来确定显示器单元3的空间位置或取向。
39.显示器单元3还优选地具有另外的部件,例如能量供应单元。
40.由于在眼动追踪眼镜2和/或显示器单元3的制造期间可能出现尺寸规格的微小的个体偏差,因此优选设置的是,在测量台上获知各个或每个个体的眼动追踪眼镜2的第一眼睛检测相机5和/或第二眼睛检测相机11的独特的定位和取向(在它们供货前),并且将相应的数据存储在各自的眼动追踪眼镜2的存储器或控制器18中。
41.优选地设置的是,在测量台中还(同样分别个体地)获知针对第一眼睛检测相机5的和/或第二眼睛检测相机11的至少一个能预定的光学误差的至少一个值,并且将至少一个所获知的值同样保存在存储器或控制器18中并且在下面描述的方法步骤中加以考虑。
42.此外,优选地设置的是,在测量台中逐个获知每个显示器单元3的第一显示器4以及优选设置的第二显示器10的独特的位置和取向,并且将在此获知的数据保存在各自的显示器单元3的控制器22中。这些数据优选地在下面描述的方法步骤中加以考虑。
43.前述获知实际的尺寸和光学误差的动作在将各自的眼动追踪眼镜2和/或各自的显示器单元3交付给用户之前就已经完成。这也称为固有校准。
44.在本发明的通过光学系统产生和显示虚拟对象16的方法的范围内设置的是,使光学系统1匹配于个体用户。这至少包括以下步骤:
45.‑
由用户戴上眼动追踪眼镜2。
46.‑
随后,通过眼动追踪眼镜2获知第一眼睛6的至少一个能预定的眼睛尺寸和/或至少一个能预定的眼睛定位。
47.‑
随后,根据至少一个所获知的眼睛尺寸和/或至少一个所获知的眼睛定位以及第一眼睛检测相机5的定位和取向,获知第一显示器4的至少一个几何的显示器显示设定的至少一个第一目标值。
48.‑
随后,使显示器单元3的用于驱控第一显示器4的显示器驱控单元8至少与该第一目标值相匹配。
49.由此,使得本发明的用于增强现实或混合现实的个体光学系统1可以快速且容易地匹配于个体用户。由此,首次能够实现的是,不是在显示器4、10上的任意地方显示内容,而是对相关的光学系统1进行匹配,使得相应内容可以在用户已看过去的地方显示。由此,另外也能够实现的是,将虚拟对象16的显示与现实世界的真实对象15组合起来,或者以能预定且有意的方式使它们相协调。
50.由此可以确保通过显示器4、10显示的或在显示器4、10上显示的内容在用户的实际的视线方向上显示,或者在关于用户的实际视线方向明确限定且有意选择的位置和/或变形度中显示。
51.可以设置的是,对于个体光学系统1仅执行唯一一次相应的匹配或校准,以使该光学系统匹配于特定的用户。优选地设置的是,以能预定的时间间隔重复进行匹配。
52.所述方法步骤分别仅针对一只眼睛6来强制设置,并且能仅针对一只眼睛6来实施。这涉及也许仅有一只眼睛6的用户或在其中用户仅使用一只眼睛6的情况。
53.优选地,本发明的方法针对用户的两只眼睛6、12来设置。因此,下面特别是针对两只眼睛6、12来描述本发明的方法,其中,所有这些即使在仅以一只眼睛6或在仅一只眼睛6的情况下也能执行的方法步骤也被设置成针对仅一只眼睛6的方法步骤。
54.因此,本发明的方法在优选的基本变型方案中具有以下另外的方法步骤:
55.‑
通过眼动追踪眼镜2获知第二眼睛12的至少一个能预定的眼睛尺寸和/或至少一个能预定的眼睛定位。
56.‑
随后,根据至少一个所获知的眼睛尺寸和/或至少一个所获知的眼睛定位以及第二眼睛检测相机11的定位和取向,获知第二显示器10的至少一个几何的显示器显示设定的至少一个第二目标值。
57.‑
随后,使用于驱控第二显示器10的显示器驱控单元8至少与第二目标值相匹配。
58.下面将详细阐述各个步骤。
59.戴上眼动追踪眼镜2与戴上任意其他眼镜相同,这通常是公知的并且无需进一步阐述。与眼动追踪眼镜2一起,还戴上与之连接的显示器单元3。
60.在戴上眼动追踪眼镜2之后,通过眼动追踪眼镜2获知第一眼睛6的以及优选还有第二眼睛12的至少一个能预定的眼睛尺寸和/或至少一个能预定的眼睛定位。特别地,眼睛尺寸是眼睛直径或眼睛半径以及还有瞳孔直径。优选地,两者都被确定。特别地,眼睛定位是眼睛6、12的瞳孔的定位、特别是两个瞳孔彼此间的间距,以及两个眼睛6、12彼此间的空间位置。优选地,两者都被确定。
61.为了获知第一眼睛6的和第二眼睛12的眼睛定位,特别设置的是,确定眼睛6、12间中部的定位。身体或头部在眼睛6、12的区域中的中心线被称为中部。此外,为此,确定第一眼睛检测相机5和第二眼睛检测相机11相对于眼睛6、12间中部的定位。
62.为了获知眼睛定位或眼睛尺寸,优选设置的是,将用户看向能预定数量的多个预定的控制点时的至少一个典型注视序列记录下来。在此,将如下用户的注视行为称为典型注视序列或注视序列:他被诱导从特定的停留点出发注视特定的控制点或者在控制点固定的情况下让用户的头部以能预定的方式运动。优选设置的是,控制点被布置成处于与光学系统1不同的距离和不同的间距中或者说以此方式来布置。由此产生的优点将在后面讨论。
63.在获知眼睛尺寸和眼睛定位之后设置的是,根据至少一个所获知的眼睛尺寸和/或至少一个所获知的眼睛定位以及第一眼睛检测相机5的定位和取向,获知第一显示器4的至少一个几何的显示器显示设定的至少一个第一目标值。还优选设置的是,根据至少一个所获知的眼睛尺寸和/或至少一个所获知的眼睛定位以及第二眼睛检测相机11的定位和取向,获知第二显示器10的至少一个几何的显示器显示设定的至少一个第二目标值。
64.因此,在此方法步骤的过程中,获知了被称为目标值的值或参数。这些目标值规定
了,必须在哪个定位和/或以怎样的变形度来将图像或虚拟对象16呈现在各自的显示器4、10的显示区域之内,以此使得该图像或虚拟对象必须针对注视在其眼睛6、12前方倾斜布置的显示器4、10的用户来显示,以此使得该图像或虚拟对象针对该用户再次在完全确定的或预定的部位处呈现,并且基本上没有失真。特别地,目标值不是单个值,而是分别是值或者说矢量的组或集合。特别地,在此设置的是,针对通常与不同的观察间距相关联的不同的眼睛姿态分别获知、存储和考虑不同的目标值。
65.图3示出了仅有眼睛6、12和两个显示器4、10的相应的视图。
66.相应地,几何的显示器显示设定涉及至少一种如下的设定:其与显示器中对象的几何的呈现有关,但与它的颜色或对比度无关。因此,几何的显示器显示设定与各自的显示器4、10的显示区域之内的所呈现的对象16的位置或定位,变形度和大小有关。
67.在获知第一目标值以及优选第二目标值之后,使显示器单元3的用于驱控第一显示器4的显示器驱控单元8与第一目标值相匹配,以及使显示器单元3的用于驱控第二显示器10的显示器驱控单元8与第二目标值相匹配。通过匹配显示器驱控单元8可以实现的是,向用户呈现要呈现的对象,使得要呈现的对象(相对于用户的眼睛6、12)实际上呈现在它们应显现的地方,并且具有所要求的变形度以显得不失真。
68.所要求的变形度的程度以及期望的定位即使对于一个且同一用户来说在所有注视状态下也不是恒定的。特别地,它们随着到用户所注视的点的距离而变化。如已经提到的,因此在获知眼睛尺寸和/或眼睛定位的范围内特别优选地设置的是,在布置于距光学系统1第一距离处的第一控制点处获知第一目标值的第一距离值和第二目标值的第一距离值,并且在布置于距光学系统1第二距离处的第二控制点处获知第一目标值的第二距离值和第二目标值的第二距离值,其中,第一距离不同于第二距离。因此,第一目标值和第二目标值的不同的值或量可以以涉及到第一和第二眼睛6、12的不同设定距离或眼睛6、12的不同的彼此指向的姿态的方式来获知。尤其设置的是,控制点以至少四个不同的距离布置。从所获知的距离值中可以外推出关于设定距离的相应的走向,并且将其存储用于将来针对特定的眼睛姿态显示虚拟对象16。
69.目标值的类型与所使用的显示器4、10的类型直接相关。显示器4、10通常具有所谓的基础设定,其也被称为默认设定。在输送给这样的显示器的视频信号没有被有意地改变或匹配的情况下,相应的图像或视频根据默认设定呈现。由此,使得相应的图像通常在不失真的情况下呈现在各自的显示器的中心。
70.因此特别优选地设置的是,获知用于在第一眼睛6之前呈现虚拟对象16的第一显示区域9的第一目标定位和/或第一目标变形度来作为几何的显示器显示设定的第一目标值,其中,从第一显示区域9的第一目标定位和/或第一目标变形度与第一显示器4的第一显示区域基础设定之间的至少一个偏差出发,获知至少一个第一修正系数和/或第一修正函数,其中,至少利用第一修正系数或第一修正函数使显示器驱控单元8匹配于用户。在此,第一显示区域9是第一显示器4之内的子区域。
71.相应地针对第二眼睛优选设置的是,获知用于在第二眼睛12之前呈现虚拟对象16的第二显示区域17的第二目标定位和/或第二目标变形度作为几何的显示器显示设定的第二目标值,其中,从第二显示区域17的第二目标定位和/或第二目标变形度与第二显示器10的第二显示区域基础设定之间的至少一个偏差出发,获知至少一个第二修正系数和/或第
二修正函数,其中,至少利用第二修正系数或第二修正函数使显示器驱控单元8匹配于用户。在此,第二显示区域17是第二显示器10之内的子区域。
72.在上述关系中,修正函数建立了在用户的特定的眼睛姿态和/或视线方向与在各自的条件下分别被设置用于显示虚拟对象的修正系数之间的关系。眼睛是具有准连续地改变定位的能力的。已经表明的是,修正系数的值也显示出同样的准连续的特性。
73.通过修正系数或修正函数的上述使用能够实现容易地匹配显示器4、10或显示器驱控单元8。在此特别优选设置的是,修正系数或修正函数被记录为具有不同距离值的数组。
74.图3清楚地示出了对于两个所示的眼睛,各自的显示区域9、17如何明显偏离两个显示器4、10的各自的中心。
75.通过光学系统1的根据本发明执行的匹配能够实现以能预定的方式关于用户的视线方向或注视行为显示虚拟对象16。特别地,由此能够实现的是,以能预定的关系与真实对象15一起显示虚拟对象16。
76.在根据所描述的方法使所描述的光学系统1与用户相匹配或进行校准之后,可以进一步产生并显示虚拟对象16。在用于通过光学系统1产生和显示虚拟对象16的方法中,设置有以下另外的方法步骤:
77.‑
由眼动追踪眼镜2获知第一眼睛6的当前视线方向。
78.‑
响应于能预定的状态和/或能预定的事件地产生虚拟对象16。
79.‑
在考虑第一目标值的情况下,由显示器驱控单元8在第一显示器4中在所获知的第一眼睛6的视线方向上的定位处显示虚拟对象16。
80.如已经说明的,特别是设置使用两个显示器4、10。在此,特别地还设置的是,在相应地匹配或校准眼动追踪眼镜2时,与前述的方法步骤同时进行以下的另外的方法步骤:
81.‑
由眼动追踪眼镜2获知第二眼睛12的当前的视线方向。
82.‑
在考虑第二目标值的情况下,由显示器驱控单元8也在第二显示器10中在所获知的第二眼睛12的视线方向上的定位处显示虚拟对象16。
83.特别地,在使用具有基础设定的显示器4、10时设置的是,将虚拟对象16以偏移和/或变形了第一修正系数和/或第一修正函数的方式显示在第一显示器4中,以及优选地,将虚拟对象16以偏移和/或变形了第二修正系数和/或第二修正函数的方式显示在第二显示器10中。
84.设置的是,虚拟对象呈现在所获知的第一眼睛6或第二眼睛12的视线方向上的定位处。在此设置的是,进行呈现的相关的定位随视线方向一起移行或相应地移动。因此,在此优选设置的是,由眼动追踪眼镜2持续地获知第一眼睛6的和/或第二眼睛12的当前的视线方向,并且持续地使有虚拟对象16显示的定位与当前的视线方向或多个当前的视线方向相匹配。
85.由于眼睛6、12中的至少一只眼睛在观察虚拟对象16时可能有一定的轻微且非有意的运动,这些运动分别被眼动追踪眼镜2检测到,因此显示定位的紧跟着的跟随会导致显示定位的不停运动,这使得用户感到烦躁或摇晃。为了避免这种情况,可以设置的是,当前的视线方向必须与最近一次获知的视线方向偏离了能预定的量、特别是2
°
,才让有虚拟对象16显示的定位与当前的视线方向相匹配。
86.替选地可以设置的是,对在一定的时间段内或者在能预定的过去时段内对分别获知的视线方向求平均,并且让有虚拟对象16显示的定位位于求平均的视线方向中。在此,可以根据情况来匹配过去时段的长度。过去时段的长度优选为约0.1s至0.3s。
87.当能预定的状态和/或能预定的事件发生时,产生并显示虚拟对象16。在此,这样的状态或这样的事件仅在分别满足了预定的多个判据时才被视为发生。
88.根据第一优选的变型方案设置的是,光学系统具有至少一个视场相机14,其中,通过视场相机14探测能预定的真实对象15,其中,探测到能预定的真实对象15是用于产生虚拟对象16的能预定的事件或针对相应事件的判据。由此,例如可以在现实世界中的方位上支持用户。借助相应的图像处理程序已经能够识别出真实对象15。在此,也可以设置有面部识别。
89.根据第二优选的变型方案设置的是,系统被构造成用于探测用户的至少一个状态值,由系统对该状态值就超过边界值方面进行监控,并且超过边界值是用于产生虚拟对象16的能预定的事件。例如,可以根据观察和评估注视行为来获知针对用户的清醒/疲倦状态的疲倦值,为此不需要另外的传感器。
90.此外可以设置的是,光学系统1具有至少一个另外的传感器,用以获知用户的生理变量,尤其是心跳和/或皮肤电导率,并且/或者光学系统与相应的外部传感器连接,以便显示其值。例如,光学系统1也可以与血压传感器连接。相应的外部传感器也可以是记录用户以外的其他生命体的身体功能的传感器。因此,例如可以告知教练其一名运动员的危急状况。此外,至少一个传感器可以是技术设备的传感器。
91.根据第三优选的变型方案设置的是,该系统具有至少一个导航和位置确定单元23,用以探测系统1的空间取向和所在地,并且能预定的地点和能预定的空间取向是用于产生虚拟对象16的能预定的事件。对系统1的空间取向和所在地的探测特别是可以借助如在智能电话领域中已知的所谓的基于所在地相关的服务或基于位置的服务来支持。
92.图5至图7示出了用于显示与真实对象15有关的虚拟对象16的示例,其中,该真实对象是简单地存在于其中还是被探测或识别为对象15无关紧要。图5示出了用户的第一眼睛6,其通过第一显示器4正在注视真实对象15,该真实对象在图5中被标示为“现实对象”。根据特别简单的反应,虚拟对象16以框的形式显示在显示器4中,使得该虚拟对象16围绕真实对象15并且该框看起来基本上是矩形的。
93.图6示出了类似的情况,其中,但是未示出真实对象15。代替围边,现在呈现了呈标签(tag)形式的另外的虚拟对象16。相关的标签在此与视线方向侧向邻接地呈现。由于通过眼动追踪眼镜2可以明确地知道用户正在注视哪里,因此可以将虚拟对象定位在视线方向处或视线方向旁边,使得在没有显著改变视线方向的情况下其可以被用户识别出或读取出。
94.图7示出了当用户从该虚拟对象16或标签转开或将注视转向其他物品时,对虚拟对象16或标签的影响。相关的虚拟对象16在此保留其在空间中所分配到的定位。由于它现在位于显示器4的显示区域9之外,因此不再呈现它。一旦用户再次朝相应方向充分运动,虚拟对象16也将再次被呈现。
95.优选地设置的是,在正在注视真实对象15时,由眼动追踪眼镜2获知用户的两只眼睛6、12的设定距离,并且将虚拟对象16有位置移动和/或变形地呈现在第一和第二显示器
4、10上,使得其作为单个对象显现在与真实对象15相同的与两只眼睛6、12的设定距离上。因此,尽管虚拟对象16呈现在直接布置在用户的眼睛6、12之前的显示器4、10上,然而用户的眼睛6、12看到虚拟对象16如真实对象15那样出现在与之相配属的那个距离上。由此,消除了否则将不断需要的到不同距离上的重新聚焦。
96.因此设置的是,虚拟对象16被显示为所谓的立体图像。
97.由眼动追踪眼镜以如下方式获知两只眼睛6、12的设定距离,即,获知两只眼睛6、12的角度姿态,并且由此计算出眼睛6、12聚焦到哪个距离上。在此可以完全放弃获知以长度为单位的距离值。设定距离也可以以一个角度或多个角度的形式来获知和处理。换而言之,因此由眼动追踪眼镜2获知两只眼睛的当前的姿态,并且虚拟对象16有位置移动和/或变形地呈现在第一和第二显示器4、10上,使得其作为单个对象显现在两只眼睛6、12所对准的距离上。
98.本发明的系统1优选地不具有单独的用于获知系统1与真实对象15之间的距离的距离传感器。
99.在此尤其设置的是,为了在第一和第二显示器4、10中呈现虚拟对象16,显示器驱控单元8考虑到第一目标值的和第二目标值的相当于两个眼睛6、12的设定距离的至少一个距离值。如果没有存储第一目标值的和第二目标值的一个或多个距离值,则设置的是,显示器驱控单元8在两个相邻的距离值之间进行内插。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献