一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

感测眼镜的制作方法

2021-10-09 14:32:00 来源:中国专利 TAG:申请 手语 眼镜 美国 题为

技术特征:
1.一种用于手语识别的可穿戴系统,所述可穿戴系统包括:头戴式显示器,被配置为向用户呈现虚拟内容;成像系统,被配置为对所述用户的环境成像;以及硬件处理器,与所述头戴式显示器和所述成像系统通信,并被编程为:接收由所述成像系统捕获的图像;利用对象识别器检测所述图像中的手势;识别手语中的所述手势的含义;基于与所述用户相关联的上下文信息来辨别目标语言;基于所识别的含义将所述手势翻译为所述目标语言;至少部分地基于将所述手势翻译为所述目标语言来生成虚拟内容;以及使所述头戴式显示器将所述虚拟内容渲染给所述用户。2.根据权利要求1所述的可穿戴系统,其中,所述成像系统包括被配置为对所述用户的周围成像的一个或多个广角相机。3.根据权利要求1所述的可穿戴系统,其中,所述硬件处理器还被编程为访问与所述手势相关联的辅助信息;以及由所述头戴式显示器渲染的所述虚拟内容包括所述辅助信息。4.根据权利要求1所述的可穿戴系统,其中,为了基于与所述用户相关联的上下文信息来辨别目标语言,所述硬件处理器被编程为:基于以下中的至少一个将所述目标语言设置为所述用户理解的语言:所述可穿戴系统捕获的所述用户的语音、所述用户的位置、或者来自所述用户选择所述语言作为所述目标语言的输入。5.根据权利要求1所述的可穿戴系统,其中,所述硬件处理器被编程为确定所述目标语言是否是口语;并且响应于确定所述目标语言是口语,以所述目标语言播放与所翻译的手势相关联的语音的音频流。6.根据权利要求1所述的可穿戴系统,其中,所述硬件处理器被编程为确定所述目标语言是否是另一种手语,并且响应于确定所述目标语言是另一种手语,将所述另一种手语中另一手势的图形呈现为所述手势的翻译。7.根据权利要求1所述的可穿戴系统,其中,为了识别所述手语中的所述手势的含义,所述硬件处理器被编程为在由所述成像系统捕获的图像的一部分上应用深度神经网络技术。8.根据权利要求1所述的可穿戴系统,其中,所述硬件处理器还被编程为至少部分地基于所述用户的位置从候选手语的列表中辨别所述手语。9.根据权利要求1所述的可穿戴系统,其中,为了基于所识别的含义将所述手势翻译为所述目标语言,所述硬件处理器被编程为将所述手势转换为所述目标语言的文本表达。10.根据权利要求1所述的可穿戴系统,其中,所述硬件处理器被编程为确定所检测的手势的源;并且在确定所检测的手势的源是所述可穿戴系统的所述用户时,将以所述目标语言的所述手势的翻译传送到另一用户的可穿戴设备。11.根据权利要求1所述的可穿戴系统,其中,所述硬件处理器被编程为检测由所述头戴式显示器从显示器解除所述虚拟内容的条件,并且响应于检测到所述条件,由所述头戴式显示器从所述显示器移除所述虚拟内容。
12.根据权利要求11所述的可穿戴系统,其中,所述条件包括以下中的至少一个:持续时间、用户的手势或来自用户输入设备的输入。13.根据权利要求1所述的可穿戴系统,其中,所述图像包括视频的一帧或多帧。14.一种用于手语识别的方法,所述方法包括:接收由成像系统捕获的图像;分析所述图像以检测用户的手势;至少部分地基于所检测的手势来检测手语中的通信的存在;识别所述手语中的所述手势的含义;辨别所述手势将被翻译为的目标语言;基于所识别的含义将所述手势翻译为所述目标语言;至少部分地基于将所述手势翻译为所述目标语言来生成虚拟内容;以及使头戴式显示器将所述虚拟内容渲染给所述用户。15.根据权利要求14所述的方法,其中,从第一可穿戴设备接收所述图像,所述第一可穿戴设备被配置为呈现混合现实内容而所述虚拟内容被传送到第二可穿戴设备用于渲染,其中,所述第一可穿戴设备和所述第二可穿戴设备被配置向所述用户呈现混合现实内容。16.根据权利要求14所述的方法,其中,基于所识别的含义将所述手势翻译为所述目标语言包括将所述手势转换为以所述目标语言的文本表达。17.根据权利要求14所述的方法,其中,所述虚拟内容包括以所述目标语言的文本表达或说明所述目标语言的另一个的图形。18.根据权利要求14所述的方法,其中,识别所述手语中的所述手势的含义包括:在由所述成像系统捕获的图像的一部分上应用深度神经网络技术。19.根据权利要求14所述的方法,其中,检测所述手语中的所述通信的存在包括:从候选手语的列表中辨别所述手语;以及确定所检测的手势对应于所述手语的表达。20.根据权利要求19所述的方法,其中,确定所检测的手势对应于所述手语的表达包括与做出所述手势的人的嘴唇运动和在所述用户正在做出所述手势时捕获的音频数据相关地分析所述手势。21.一种用于手语识别的可穿戴系统,所述可穿戴系统包括:头戴式显示器,其被配置为向用户呈现虚拟内容;音频传感器,其被配置为检测来自所述用户的环境的音频;面向外成像系统,其被配置为对所述用户的所述环境成像;以及硬件处理器,其与所述头戴式显示器和所述成像系统通信,并被编程为:接收由所述面向外成像系统所捕获的多个图像;利用对象识别器检测所述多个图像中的至少一组手;确定所述至少一组手的相对大小;基于所述至少一组手的相对大小在多个人中辨别所述至少一组手的源;利用所述对象识别器检测所述多个图像中的所述至少一组手的至少一个手势;确定所述至少一个手势的所述源属于所述用户以外的人;响应于所述确定识别手语中的所述至少一个手势的含义;
基于与所述用户相关联的上下文信息来辨别目标语言,其中,所述上下文信息包括:对所述图像进行分析来获得所述目标语言中字符的存在,或者对所述音频传感器所获得的音频数据进行分析来获得所述用户的语音;基于所识别的含义并进一步基于确定所述至少一个手势的源属于所述用户以外的人而将所述至少一个手势翻译为所述目标语言;至少部分地基于将所述手势翻译为所述目标语言来生成虚拟内容;以及使所述头戴式显示器将所述虚拟内容渲染给所述用户。22.根据权利要求21所述的可穿戴系统,其中,所述成像系统包括被配置为对所述用户的周围进行成像的一个或多个广角相机。23.根据权利要求21所述的可穿戴系统,其中,所述硬件处理器还被编程为访问与所述手势相关联的辅助信息;以及由所述头戴式显示器渲染的所述虚拟内容包括所述辅助信息。24.根据权利要求21所述的可穿戴系统,其中,为了基于与所述用户相关联的上下文信息来辨别目标语言,所述硬件处理器被编程为:基于以下中的至少一个将所述目标语言设置为所述用户理解的语言:所述可穿戴系统捕获的所述用户的语音、所述用户的位置、或者来自所述用户选择所述语言作为所述目标语言的输入。25.根据权利要求21所述的可穿戴系统,其中,所述硬件处理器被编程为确定所述目标语言是否是口语;并且响应于确定所述目标语言是口语,以所述目标语言播放与所翻译的手势相关联的语音的音频流。26.根据权利要求21所述的可穿戴系统,其中,所述硬件处理器被编程为确定所述目标语言是否是另一种手语,并且响应于确定所述目标语言是另一种手语,将所述另一种手语中另一手势的图形呈现为所述手势的翻译。27.根据权利要求21所述的可穿戴系统,其中,为了识别所述手语中的所述手势的所述含义,所述硬件处理器被编程为在由所述成像系统所捕获的图像的至少一部分上应用深度神经网络技术。28.根据权利要求21所述的可穿戴系统,其中,所述硬件处理器还被编程为至少部分地基于所述用户的位置从候选手语的列表中辨别所述手语。29.根据权利要求21所述的可穿戴系统,其中,为了基于所识别的含义将所述手势翻译为所述目标语言,所述硬件处理器被编程为将所述手势转换为所述目标语言的文本表达。30.根据权利要求21所述的可穿戴系统,其中,所述硬件处理器被编程为确定所检测的手势的源;并且在确定所检测的手势的源是所述可穿戴系统的所述用户时,将以所述目标语言的所述手势的翻译传送到另一用户的可穿戴设备。31.根据权利要求21所述的可穿戴系统,其中,所述硬件处理器被编程为检测由所述头戴式显示器从显示器解除所述虚拟内容的条件,并且响应于检测到所述条件,由所述头戴式显示器从所述显示器移除所述虚拟内容。32.根据权利要求31所述的可穿戴系统,其中,所述条件包括以下中的至少一个:持续时间、用户的手势、或来自用户输入设备的输入。33.根据权利要求21所述的可穿戴系统,其中,所述图像包括视频的一帧或多帧。
34.一种用于手语识别的方法,所述方法包括:在包括配置为向可穿戴系统的用户呈现虚拟内容的头戴式显示器的所述可穿戴系统的控制下:接收由所述可穿戴系统的成像系统捕获的图像;分析所图像以检测人的手势;确定与所述人的所述手势相关联的一组手的相对大小;基于所述相对大小辨别所述人的所述手势的源;确定所述人的所述手势的所述源属于所述用户以外的人;至少部分地基于所检测的手势来检测手语中的通信的存在;如果所述人的所述手势不是所述用户的所述手势,则识别所述手语中的所述手势的含义;辨别所述手势将被翻译为的目标语言,其中辨别所述目标语言包括:分析所述图像以检测所述目标语言中的字符的存在,或者分析所述可穿戴系统获得的音频数据以检测所述用户的语音;基于所识别的含义并进一步基于确定所述人的所述手势的所述源属于所述用户以外的人而将所述手势翻译为所述目标语言;至少部分地基于将所述手势翻译为所述目标语言来生成虚拟内容;以及使所述头戴式显示器将所述虚拟内容渲染给所述用户。35.根据权利要求34所述的方法,其中,所述可穿戴系统还被配置为:将第二虚拟内容传送到第二可穿戴系统以用于所述第二可穿戴系统的渲染。36.根据权利要求34所述的方法,其中,基于所识别的含义将所述手势翻译为所述目标语言包括:将所述手势转换为以所述目标语言的文本表达。37.根据权利要求34所述的方法,其中,所述虚拟内容包括以所述目标语言的文本表达或说明所述目标语言的另一个的图形。38.根据权利要求34所述的方法,其中,识别所述手语中的所述手势的所述含义包括:在由所述成像系统捕获的图像的至少一部分上应用深度神经网络技术。39.根据权利要求34所述的方法,其中,检测所述手语中的所述通信的存在包括:从候选手语的列表中辨别所述手语;以及确定所检测的手势对应于所述手语的表达。40.根据权利要求39所述的方法,其中,确定所检测的手势对应于所述手语的表达包括与做出所述手势的人的嘴唇运动和在所述人正在做出所述手势时捕获的音频数据相关地分析所述手势。41.一种计算系统,包括:硬件计算机处理器;具有存储在其上的软件指令的非暂时性计算机可读介质,所述软件指令由所述硬件计算机处理器执行以使所述计算系统执行包括以下操作的操作:经由一个或多个网络与多个可穿戴ar设备进行通信;接收由所述多个可穿戴ar设备中的第一可穿戴ar设备的面向外成像系统所捕获的图像信息,其中,所述图像信息包括所述第一可穿戴ar设备的第一佩戴者的一只或多只手的
图像;至少基于对所述第一佩戴者的所述一只或多只手的所述图像的分析,自动检测所接收的图像信息中的手语;将所检测的手语转换为文本;以及通过所述一个或多个网络将所转换的文本传输到所述多个可穿戴ar设备中的第二可穿戴ar设备,其中,所述第二可穿戴ar设备被配置为向所述第二可穿戴ar设备的第二佩戴者显示所转换的文本。42.根据权利要求41所述的系统,其中,所述软件指令还被配置为使所述计算系统:通过所述一个或多个网络传输所述第一可穿戴ar设备的所述第一佩戴者的世界地图。43.根据权利要求42所述的系统,其中,所述第一佩戴者的所述世界地图包括所述第一可穿戴ar设备的所述第一佩戴者的化身。44.根据权利要求41所述的系统,其中,所述软件指令还被配置为使所述计算系统辨别目标语言。45.根据权利要求21所述的系统,其中,所述软件指令还被配置为使所述计算系统:基于以下各项中的至少一项来辨别所述第二ar设备的所述第二佩戴者理解的目标语言:由所述第二ar设备所捕获的语音、所述第二ar设备的位置、或来自所述第二ar设备的所述佩戴者的输入。46.根据权利要求45所述的系统,其中,所转换的文本是所述目标语言。47.根据权利要求41所述的系统,其中,所述自动检测手语包括:检测所接收的图像信息中的一系列手势。48.根据权利要求47所述的系统,其中,所述将所检测的手语转换为文本包括:访问手语字典以将所检测的手势翻译为文本。49.根据权利要求41所述的系统,其中,所述将所检测的手语转换为文本包括:使用机器学习算法。50.根据权利要求41所述的系统,其中,所述软件指令还被配置为使所述计算系统:确定所检测的手语的源,所述源包括人,以及基于所确定的源来转换所检测的手语。51.根据权利要求50所述的系统,其中,所述确定所检测的手语的源至少基于所述图像信息中的所述一只或多只手的大小。52.根据权利要求21所述的系统,其中,所述软件指令还被配置为使所述计算系统:基于所转换的文本将音频流传输到所述第二可穿戴ar设备。53.一种促进可穿戴ar设备之间通信的方法,所述方法包括:经由一个或多个网络与多个可穿戴ar设备进行通信;接收由所述多个可穿戴ar设备中的第一可穿戴ar设备的面向外成像系统所捕获的图像信息,其中,所述图像信息包括所述第一可穿戴ar设备的第一佩戴者的一只或多只手的图像;至少基于对所述第一佩戴者的所述一只或多只手的所述图像的分析,自动检测所接收的图像信息中的手语;将所检测的手语转换为文本;以及
通过一个或多个网络将所转换的文本传输到所述多个可穿戴ar设备中的第二可穿戴ar设备,其中,所述第二可穿戴ar设备被配置为向所述第二可穿戴ar设备的第二佩戴者显示所转换的文本。54.根据权利要求53所述的方法,包括:通过所述一个或多个网络传输所述第一可穿戴ar设备的所述第一佩戴者的世界地图。55.根据权利要求54所述的方法,其中,所述第一佩戴者的所述世界地图包括所述第一可穿戴ar设备的所述第一佩戴者的化身。56.根据权利要求53所述的方法,包括:辨别目标语言。57.根据权利要求53所述的方法,包括基于以下各项中的至少一项来辨别所述第二ar设备的所述第二佩戴者理解的目标语言:由所述第二ar设备所捕获的语音、所述第二ar设备的位置、或来自所述第二ar设备的所述佩戴者的输入。58.根据权利要求57所述的方法,其中,所转换的文本是所述目标语言。59.根据权利要求53所述的方法,其中,所述自动检测手语包括:检测所接收的图像信息中的一系列手势。60.根据权利要求53所述的方法,其中,所述将所检测的手语转换为文本包括:访问手语字典以将所检测的手势翻译为文本。61.根据权利要求53所述的方法,其中,所述将所检测的手语转换为文本包括:使用机器学习算法。62.根据权利要求53所述的方法,所述方法包括:确定所检测的手语的源,所述源包括人,以及基于所确定的源来转换所检测的手语。63.根据权利要求53所述的方法,所述方法包括:基于所述图像信息中的所述一只或多只手的大小来确定所检测的手语的源是所述第一可穿戴ar设备的所述佩戴者。64.根据权利要求53所述的方法,所述方法包括:基于所转换的文本将音频流传输到所述第二可穿戴ar设备。65.一种被配置为投影增强现实图像内容的头戴式显示设备,所述显示设备包括:框架,其被配置为佩戴在用户的头部上并被配置为在所述用户的眼睛前方支撑显示器;一个或多个相机,其被配置为生成光信号;处理电子器件,其被配置为:接收来自所述一个或多个相机的所述光信号;从所述光信号中辨别所述用户的环境中的至少一个物理对象;确定所述至少一个物理对象是否包括文本;响应于确定所述至少一个物理对象包括文本,确定要应用于所述文本的修改;至少基于所确定的修改和所述文本,生成经修改的文本;生成包括所述经修改的文本的所述至少一个物理对象的虚拟表示;指示所述显示器在所述用户的所述环境中渲染所述至少一个物理对象的所述虚拟表示以遮挡所述至少一个物理对象。66.根据权利要求65所述的头戴式显示设备,其中,所述显示器包括一个或多个光源以
及一个或多个波导堆叠,所述一个或多个波导堆叠被配置为将光引导到所述用户的眼睛以在所述眼睛中形成图像。67.根据权利要求66所述的头戴式显示设备,其中,所述一个或多个光源被配置为将光引导到所述波导堆叠中。68.根据权利要求66所述的头戴式显示设备,其中,所述一个或多个光源包括光纤扫描投影仪。69.根据权利要求65所述的头戴式显示设备,其中,所述一个或多个相机包括一个或多个摄像机。70.根据权利要求65所述的头戴式显示设备,其中,所述处理电子器件被配置为使用光学字符识别算法将所述光信号中的一个或多个字母或字符转换为文本。71.根据权利要求70所述的头戴式显示设备,其中,所述处理电子器件被配置为访问数据库以辨别用于所述一个或多个字母或字符的所述文本或语言的可能候选。72.根据权利要求70所述的头戴式显示设备,其中,所述处理电子器件被配置为接收与以下中的一个或多个相关联的输入:所述用户参与的活动、所述用户的地理位置、所述用户的行进速度、所述用户的海拔高度、由所述显示器所检测的环境噪声的音量或类型、由所述显示器所检测的区域中的可见光或其他光的级别或类型、由所述显示器所检测的温度或气候、所述文本距所述用户的感知距离、或由所述显示器所检测的单词的类别。73.根据权利要求65所述的头戴式显示设备,还包括gps系统。74.根据权利要求65所述的头戴式显示设备,其中,所述经修改的文本采用与所述文本的第一字体大小不同的第二字体大小。75.根据权利要求65所述的头戴式显示设备,其中,所述经修改的文本比所述文本对所述用户更易读。76.根据权利要求65所述的头戴式显示设备,其中,所述经修改的文本包括添加到所述文本的图形元素。77.根据权利要求65所述的头戴式显示设备,其中,所述经修改的文本包括具有采用与所述文本的一个或多个字母或字符的第一字体不同的第二字体的所述文本的一个或多个字母或字符的文本。78.根据权利要求65所述的头戴式显示设备,其中,所述处理电子器件被配置为相对于所述用户在没有所述头戴式显示器的情况下看到的内容来放大所述文本的一个或多个字母或字符。79.根据权利要求65所述的头戴式显示设备,其中,所述虚拟表示包括界定内部区域的边界区域。80.根据权利要求79所述的头戴式显示设备,其中,所述处理电子器件被配置为在所述内部区域内显示所述经修改的文本的一个或多个字母或字符。81.根据权利要求80所述的头戴式显示设备,其中,所述处理电子器件被配置为在不同于第一背景的第二背景下显示所述文本的所述一个或多个字母或字符,所述用户在没有所述头戴式显示器的情况下将在所述第一背景下阅读所述一个或多个字母或字符。82.根据权利要求81所述的头戴式显示设备,其中,所述第二背景包括单色背景。83.根据权利要求82所述的头戴式显示设备,其中,所述单色背景包括白色。
84.根据权利要求81所述的头戴式显示设备,其中,所述第一背景包括所述用户在没有所述头戴式显示器的情况下将看到的内容。85.根据权利要求65所述的头戴式显示设备,其中,所述文本适于由文本编辑器编辑。86.根据权利要求65所述的头戴式显示设备,其中,如果所述文本的所述一个或多个字母或字符看起来比第一距离阈值更近,则在看起来比第二深度更靠近所述用户的第一深度处显示所述虚拟表示。87.根据权利要求65所述的头戴式显示设备,其中,如果所述一个或多个字母或字符看起来比第二距离阈值更远,则在看起来比第一深度更远离所述用户的第二深度处显示所述虚拟表示。88.根据权利要求87所述的头戴式显示设备,其中,如果所述一个或多个字母或字符看起来比第一距离阈值更远且比所述第二距离阈值更近,则在看起来比所述第一深度更远离所述用户但比所述第二深度更靠近所述用户的第三深度处显示所述文本。89.一种用于通过增强现实系统提供从手语转换而来的文本的方法,所述方法包括:在包括成像系统的增强现实ar系统的控制下:通过所述成像系统捕获图像信息;检测所述图像信息中的手势,所述手势为用于手语识别的候选;在所检测的手势中识别手语;将所识别的手语转换为文本;以及显示所转换的文本。90.根据权利要求89所述的方法,还包括:接收对所转换的文本的辅助信息的请求;检索与所请求的所转换的文本相关联的辅助信息;使用所述ar系统显示所述辅助信息;检测用于解除显示所转换的文本或所述辅助信息的条件;以及解除显示所转换的文本或所述辅助信息。91.根据权利要求90所述的方法,其中,用于解除显示所转换的文本或所述辅助信息的所述条件基于用户界面交互。92.根据权利要求91所述的方法,其中,所述用户界面交互至少部分地基于所述ar系统的用户的眼睛运动。93.根据权利要求90所述的方法,其中,用于解除显示所转换的文本或所述辅助信息的所述条件至少部分地基于持续时间。94.根据权利要求90所述的方法,其中,用于解除显示所转换的文本或所述辅助信息的所述条件至少部分地基于附加手语手势的转换或附加辅助信息的接收。95.根据权利要求90所述的方法,还包括:检测用于重新显示被解除显示的所转换的文本或所述辅助信息的条件;重新显示被解除显示的所转换的文本或所述辅助信息。96.根据权利要求89所述的方法,其中,将所识别的手语转换为文本包括:应用深度学习技术。97.根据权利要求96所述的方法,其中,所述深度学习技术包括神经网络。98.根据权利要求89所述的方法,其中,所述ar系统在手语识别和文本转换中使用手语
字典。99.根据权利要求98所述的方法,其中,所述ar系统识别对于所述ar系统的用户是国外的手语。100.根据权利要求99所述的方法,其中,所述ar系统通过处理候选手语的列表来识别所述手语,所述列表至少部分地基于所述ar系统的位置来被优先化。101.根据权利要求99所述的方法,其中,所述ar系统通过处理候选手语的列表来识别所述手语,所述列表至少部分地基于在所述ar系统的环境中所检测的口语来被优先化。102.一种用于翻译手语的增强现实ar装置,包括:ar显示器;成像系统;数据存储器,其配置为存储计算机可执行指令和数据;以及与数据存储器通信的处理器,其中,所述计算机可执行指令在被执行时使所述处理器:接收由所述成像系统所捕获的图像信息;检测所接收的图像或视频信息中的手势;识别所检测的手势中的手语;将所识别的手语翻译为所述ar装置的用户理解的语言;以及使用所述ar显示器来显示与所翻译的手语相关联的信息。103.根据权利要求102所述的装置,其中,所述计算机可执行指令在被执行时还使所述处理器:接收对关于所翻译的手语的辅助信息的请求;检索与所请求的手语相关的辅助信息;以及使用所述ar显示器来显示所检索的辅助信息。104.根据权利要求102所述的装置,其中,所述处理器通过将所接收的图像信息通过通信网络发送到远程处理器来检测所述手势并识别所述手语,以便所述远程处理器检测所述手势并识别所述手语。105.根据权利要求102所述的装置,其中,所述成像系统包括多个相机或广角相机。106.根据权利要求102所述的装置,其中,所述处理器还被配置为:确定所检测的手势的源;并且在确定所检测的手势的源是所述ar装置的所述用户时,将所翻译的手语传输到另一设备进行显示。107.根据权利要求102所述的装置,还包括音频放大器,并且所述处理器还被编程为通过所述音频放大器以音频呈现所翻译的手语。108.根据权利要求107所述的装置,其中,所述处理器还被配置为通过所述音频放大器以音频呈现所述辅助信息。109.根据权利要求102所述的装置,其中,所述ar装置的所述用户理解的所述语言包括与所识别的手语不同的手语。110.一种用于促进涉及一种或多种手语的远程通信的增强现实ar系统,包括:多个可穿戴ar设备,每个可穿戴ar设备包括:ar显示器;成像系统;以及用于通过通信网络进行通信的通信系统;一个或多个数据存储器,其被配置为存储计算机可执行指令和数据;以及
与所述数据存储器通信的一个或多个处理器,其中,所述计算机可执行指令在被执行时将所述一个或多个处理器配置为:接收由所述多个可穿戴ar设备中的第一可穿戴ar设备的所述成像系统所捕获的图像信息;检测所接收的图像信息中的手语;将所检测的手语转换为文本;通过所述通信网络将所转换的文本传输到所述多个可穿戴ar设备中的第二可穿戴ar设备;以及在所述第二可穿戴ar设备的所述ar显示器上显示所转换的文本。111.根据权利要求110所述的系统,其中,所述第二可穿戴ar设备还显示第一用户的世界地图。112.根据权利要求111所述的系统,其中,所述第一用户的所述世界地图包括所述第一用户的化身。113.根据权利要求110所述的系统,其中,所述多个可穿戴ar设备中的每一个包括一个或多个数据存储器以及一个或多个处理器,并且所述处理器功能由本地处理器执行。114.一种被配置为投影增强现实图像内容的头戴式显示设备,所述显示设备包括:框架,其被配置为佩戴在所述用户的头部上并被配置为在所述用户的眼睛前方支撑显示器;一个或多个相机,其被配置为接收光信号;以及处理电子器件,其被配置为:接收来自所述一个或多个相机的信号;从所述信号中辨别图像;确定所述图像是否包括文本;将所述文本转换为经修改的文本;以及指示所述显示器渲染所述经修改的文本。115.根据权利要求114所述的头戴式显示设备,其中,所述显示器包括一个或多个光源以及一个或多个波导堆叠,所述一个或多个波导堆叠被配置为将光引导到所述用户的眼睛以在所述眼睛中形成图像。116.根据权利要求115所述的头戴式显示设备,其中,所述一个或多个光源被配置为将光引导到所述波导堆叠中。117.根据权利要求116所述的头戴式显示设备,其中,所述一个或多个光源包括光纤扫描投影仪。118.根据权利要求114所述的头戴式显示设备,其中,所述一个或多个相机包括一个或多个摄像机。119.根据权利要求114所述的头戴式显示设备,其中,所述处理电子器件被配置为使用光学字符识别算法将所述图像中的一个或多个字母或字符转换为文本。120.根据权利要求119所述的头戴式显示设备,其中,所述处理电子器件被配置为访问数据库以辨别用于所述一个或多个字母或字符的所述文本或语言的可能候选。121.根据权利要求120所述的头戴式显示设备,其中,所述处理电子器件被配置为接收与以下中的一个或多个相关联的输入:所述用户参与的活动、所述用户的地理位置、所述用
户的行进速度、所述用户的海拔高度、由所述显示器所检测的环境噪声的音量或类型、由所述显示器所检测的区域中的可见光或其他光的级别或类型、由所述显示器所检测的温度或气候、所述文本距所述用户的感知距离、或由所述显示器所检测的单词的类别。122.根据权利要求114所述的头戴式显示设备,还包括gps系统。123.根据权利要求122所述的头戴式显示设备,其中,所述经修改的文本采用与所述文本的第一字体大小不同的第二字体大小。所述第二字体大小可以大于所述第一字体大小。124.根据权利要求123所述的头戴式显示设备,其中,所述经修改的文本比所述文本对所述用户更易读。125.根据权利要求124所述的头戴式显示设备,其中,所述处理电子器件被配置为将图形元素部分地添加到所述文本以形成所述经修改的文本。126.根据权利要求114所述的头戴式显示设备,其中,所述处理电子器件被配置为以与所述一个或多个字母或字符的第一字体不同的第二字体显示所述文本的所述一个或多个字母或字符。127.根据权利要求114所述的头戴式显示设备,其中,所述处理电子器件被配置为相对于所述用户在没有所述头戴式显示器的情况下看到的内容来放大所述文本的所述一个或多个字母或字符。128.根据权利要求114所述的头戴式显示设备,其中,所述处理电子器件被配置为显示边界区域,所述边界区域界定内部区域。129.根据权利要求128所述的头戴式显示设备,其中,所述处理电子器件被配置为在所述内部区域内显示所述一个或多个字母或字符。130.根据权利要求114所述的头戴式显示设备,其中,所述处理电子器件被配置为在与第一背景不同的第二背景下显示所述文本的所述一个或多个字母或字符,所述用户在没有所述头戴式显示器的情况下将在所述第一背景下阅读所述一个或多个字母或字符。131.根据权利要求130所述的头戴式显示设备,其中,所述第二背景包括单色背景。132.根据权利要求131所述的头戴式显示设备,其中,所述单色背景包括白色。133.根据权利要求130所述的头戴式显示设备,其中,所述第一背景包括所述用户在没有所述头戴式显示器的情况下将看到的内容。134.根据权利要求114所述的头戴式显示设备,其中,所述文本适于由文本编辑器编辑。135.一种用于使用头戴式显示器投影增强现实图像内容的方法,所述方法包括:在硬件处理器的控制下:接收来自一个或多个相机的光信号;使用光学字符识别模块,从所述信号中辨别图像;确定所述图像是否包括一个或多个字母或字符;将所述一个或多个字母或字符转换为文本;以及在所述头戴式显示器上显示所述文本,其中,显示所述文本包括:通过光学透射目镜将光作为图像传输到所述用户。136.根据权利要求135所述的方法,还包括:将光引导到所述用户的眼睛以在所述眼睛中形成图像。
137.根据权利要求135所述的方法,还包括:使用光纤扫描投影仪将光引导到所述目镜。138.根据权利要求135所述的方法,其中,使用光学字符识别模块包括:辨别用于所述一个或多个字母或字符的所述文本或语言的可能候选。139.根据权利要求135所述的方法,其中,使用光学字符识别模块包括接收包括与以下中的一个或多个相关联的信息的输入:所述用户参与的活动、所述用户的地理位置、所述用户的行进速度、所述用户的海拔高度、由所述显示器所检测的环境噪声的音量或类型、由所述显示器所检测的区域中的可见光或其他光的级别或类型、由所述显示器所检测的温度或气候、所述一个或多个字母或字符距所述用户的感知距离、或由所述显示器所检测的单词的类别。140.根据权利要求135所述的方法,其中,将所述一个或多个字母或字符转换成文本包括:以不同于与所述一个或多个字母或字符相关联的第一语言的第二语言来显示所述文本。141.根据权利要求140所述的方法,包括:将所述文本翻译成所述第二语言。142.根据权利要求135所述的方法,还包括:从gps系统接收位置数据。143.根据权利要求135所述的方法,其中,在所述头戴式显示器上显示所述一个或多个字母或字符包括:以与所述一个或多个字母或字符的第一字体大小不同的第二字体大小显示所述一个或多个字母或字符。144.根据权利要求135所述的方法,其中,在所述头戴式显示器上显示所述一个或多个字母或字符包括:与没有所述头戴式显示器的情况相比,向所述用户更易读地显示所述一个或多个字母或字符。145.根据权利要求135所述的方法,其中,在所述头戴式显示器上显示所述一个或多个字母或字符包括:以大于所述用户在没有头戴式显示器的情况下出现的字体大小的字体大小显示所述一个或多个字母或字符。146.根据权利要求135所述的方法,其中,在所述头戴式显示器上显示所述一个或多个字母或字符包括:以与所述一个或多个字母或字符的第一字体不同的第二字体显示所述一个或多个字母或字符。147.根据权利要求135所述的方法,其中,在所述头戴式显示器上显示所述一个或多个字母或字符包括:相对于所述用户在没有所述头戴式显示器的情况下将看到的内容来放大所述一个或多个字母或字符。148.根据权利要求135所述的方法,其中,在所述头戴式显示器上显示所述一个或多个字母或字符包括显示边界区域,所述边界区域界定内部区域。149.根据权利要求148的所述方法,其中,在所述头戴式显示器上显示所述一个或多个字母或字符包括:在所述内部区域内显示所述一个或多个字母或字符。150.根据权利要求135所述的方法,其中,在所述头戴式显示器上显示所述一个或多个字母或字符包括:在与第一背景不同的第二背景下显示所述一个或多个字母或字符,所述用户在没有所述头戴式显示器的情况下将在所述第一背景下阅读所述一个或多个字母或字符。151.根据权利要求150所述的方法,其中,所述第二背景包括单色背景。
152.根据权利要求151所述的方法,其中,所述单色背景包括白色。153.根据权利要求150所述的方法,其中,所述第一背景包括所述用户在没有所述头戴式显示器的情况下将看到的内容。154.根据权利要求135所述的方法,其中,所述文本适于由文本编辑器编辑。155.根据权利要求135所述的方法,其中,将所述一个或多个字母或字符转换成文本包括:接收来自用户的输入。156.根据权利要求155所述的方法,其中,接收来自用户的输入包括接收以下中的一项或多项:口头命令、手势、头部的运动、或用户的一只或多只眼睛的运动。157.根据权利要求135所述的方法,其中,如果所述一个或多个字母或字符看起来比第一距离阈值更近,则在看起来比第二深度更近的第一深度处显示所述文本。158.根据权利要求135所述的方法,其中,如果所述一个或多个字母或字符看起来比第二距离阈值更远,则在看起来比第一深度更远的第二深度处显示所述文本。159.根据权利要求157所述的方法,其中,如果所述一个或多个字母或字符看起来比第一距离阈值更远且比所述第二距离阈值更近,则在看起来比所述第一深度更远但比所述第二深度更近的第三深度处显示所述文本。160.根据权利要求157所述的方法,其中,所述第一距离阈值是80厘米。161.根据权利要求157所述的方法,其中,所述第二距离阈值是600厘米。162.根据权利要求157所述的方法,其中,所述第二距离阈值与所述第一距离阈值之间的差小于100米。163.一种增强现实系统,包括:面向外成像系统;非暂时性存储器,其被配置为存储由所述面向外成像系统所获取的图像;以及硬件处理器,其被编程为:接收所述面向外成像系统所获取的所述增强现实系统的用户的环境的图像;分析所述图像以辨别所述用户的环境中的标示;识别所述标示上的文本;将所述文本的至少一部分转换为目标语言;并指示显示器将所转换的文本渲染给所述用户。164.根据权利要求163所述的增强现实系统,其中,所述硬件处理器被编程为修改与所述文本相关联的显示特征。165.根据权利要求163所述的增强现实系统,其中,为了将所述文本的至少一部分转换为目标语言,所述硬件处理器被编程为:辨别所述标示上的所述文本的语言并将所述语言转换为所述目标语言。166.根据权利要求163所述的增强现实系统,其中,所述硬件处理器被编程为:至少部分地基于所述用户的位置来确定所述目标语言。167.根据权利要求163所述的增强现实系统,其中,为了识别所述标示上的文本,所述硬件处理器被编程为:识别所述目标语言中的文本。168.根据权利要求167所述的增强现实系统,其中,所述硬件处理器被编程为:不转换所述目标语言中的所述文本。

技术总结
用于混合现实设备的感测眼镜系统能够促进用户与其他人或者与环境进行交互。作为一个示例,感测眼镜系统能够识别并且解释手语,并且向混合现实设备的用户呈现翻译的信息。可穿戴系统还能够识别用户环境中的文本,修改该文本(例如,通过改变文本的内容或显示特征),以及渲染修改的文本以遮挡原始的文本。及渲染修改的文本以遮挡原始的文本。及渲染修改的文本以遮挡原始的文本。


技术研发人员:E
受保护的技术使用者:奇跃公司
技术研发日:2017.09.12
技术公布日:2021/10/8
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文章

  • 日榜
  • 周榜
  • 月榜