一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种增强现实的分布式服务器智能眼镜系统及控制方法与流程

2022-03-09 08:07:11 来源:中国专利 TAG:


1.本技术涉及增强现实技术领域,具体涉及一种基于增强现实的分布式服务器智能眼镜系统及控制方法。


背景技术:

2.目前,基于元宇宙的vr眼镜迎来了一波热潮,越来越多的公司和企业宣布加入元宇宙的行列进行相关产品的研发。vr眼镜作为元宇宙的主流产品主打沉浸式和全虚拟,但该类产品由于打造的是全虚拟的世界平台容易让使用者沉迷虚拟世界,逃离现实世界,易于产生降低人均生产效率和生产价值的不良影响。
3.同时,在现实生活中经常出现构想或设计的实际复现成本较大且建设周期较长的情况,并且由于现实世界中缺少互动性和趣味性而让越来越多的人选择在网上畅游,并且在现实世界中的行动成本和检索成本较高而让越来越多的人选择在网上购物、点外卖,上述现象都是由于现实世界与虚拟世界还未实现互联互通所导致的。
4.因此,将虚拟世界与现实世界在同一个平台上进行融合的系统和方法不仅能预防用户沉浸于虚拟世界,而且降低了现实世界的实现成本提高了现实世界的趣味性、互动性和针对性,该项技术、系统与应用能够真正让人们在体验真实生活的同时享受虚拟生活的便利。


技术实现要素:

5.一种基于增强现实的分布式服务器智能眼镜系统包括若干布置于不同位置的分布式服务器和若干可接入网络的ar/mr/vr智能眼镜。
6.一种基于增强现实的分布式服务器智能眼镜系统控制方法包括如下步骤:
7.s1.ar/mr/vr智能眼镜通过网络或gps或雷达或图像访问布置于该空间区域的分布式服务器;
8.s2.被访问的分布式服务器通过数据通信将存储的二/三维图像/视频数据、音频数据、文字数据传输至访问的ar/mr/vr智能眼镜;
9.s3.ar/mr/vr智能眼镜通过成像装置将所接收到的二/三维图像/视频数据、音频数据、文字数据进行可视化呈现。
10.其中,s1所述的通过网络访问包括如下步骤:ar/mr/vr智能眼镜通过接入分布式服务器的无线局域网络完成访问。
11.其中,s1所述的通过gps访问包括如下步骤:
12.s4.分布式服务器上传所属区块的gps信息至云端;
13.s5.云端将ar/mr/vr智能眼镜实时上传的gps信息与分布式服务器上传所属区块的gps信息进行比对;
14.s6.若比对时完成匹配,由云端连接ar/mr/vr智能眼镜对对应匹配的分布式服务器进行访问。
15.所述的分布式服务器每隔一定时间间隔对gps信息进行更新并上传。
16.所述的更新并上传包括如下步骤:
17.s7.在t1时间内对gps信息进行测量,若在t1时间内gps信息发生变化,则将该服务器标记为移动区块内的分布式服务器并设置该分布式服务器每隔t2时间间隔对gps信息进行更新并上传;
18.s8.若在t1时间内gps信息没有发生变化,则将将该服务器标记为固定区块内的分布式服务器并设置该分布式服务器每隔t3时间间隔对gps信息进行更新并上传。
19.其中,t1<t3,t2<t3。
20.所述的更新并上传通过手动选择是移动区块还是固定区块来完成gps信息上传的时间间隔的设置,若分布式服务器为移动区块则时间间隔为t2,若分布式服务器为固定区块则时间间隔为t3。
21.所述的被访问的分布式服务器的选择包括如下步骤:建立用户选择通道是通过向用户ar/mr/vr智能眼镜的客户端发送选择窗口已手动完成访问/接入服务器的选择。
22.所述的被访问的分布式服务器的选择包括如下步骤:通过获取用户 ar/mr/vr智能眼镜感知模块的图像数据,通过与分布式服务器上所存储的识别数据或定位数据进行比对,计算相似度,选取相似度高的分布式服务器进行访问/接入。
23.所述的被访问的分布式服务器的选择包括如下步骤:通过划分可被访问的服务器的gps区域完成选择,对重合或交叉区域进行分界处理。
附图说明
24.图1为本技术智能眼镜系统硬件逻辑框图;
25.图2为本技术实施例一外部呈现图;
26.图3为本技术实施例二外部框架图;
27.图4为本技术实施例三外部框架图;
28.图5为本技术实施例四外部框架图;
29.图6为本技术实施例六外部框架图;
30.图7为本技术实施例十外部框架图;
31.图8为本技术实施例十一分布式服务器区块规划图。
具体实施方式
32.下面详细描述本技术的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本技术,而不能理解为对本技术的限制。
33.如图1上所示,一种基于增强现实的智能眼镜系统硬件包括若干 vr/ar/mr智能眼镜接入设备、服务器以及基于服务器的若干多层互联网区域,其中所述的vr/ar/mr智能眼镜接入设备通过无线通讯与服务器相连,所述的服务器上运行着所述的若干多层互联网区域,所述的互联网区域可视为某一虚拟世界的切片,所述的若干切片可以叠加以特定数量组合成新的切片,用户可通过所述的vr/ar/mr智能眼镜接入设备选择某一切片进行投射。在 vr/ar/mr智能眼镜接入设备对所述的互联网区域进行数据获取,即进行信息检索和信
息交互功能时:所述的服务器将根据所选切片所对应的目标信息数据对所述的vr/ar/mr智能眼镜接入设备所上传的实时数据进行筛选和分类,保留特定数据,所述的vr/ar/mr智能眼镜接入设备与所述的服务器上的该切片完成特定信息数据的关联和交互,所述的服务器上的该切片根据特定信息数据的确认将该信息数据所对应的多维数据传输至所述的vr/ar/mr智能眼镜接入设备进行投射。所述的vr/ar/mr智能眼镜接入设备包含若干不同类型的传感器和若干数据输入设备,在vr/ar/mr智能眼镜接入设备对所述的互联网区域进行数据上传,即进行信息发布和信息标记功能时:通过所述的传感器对当下的环境信息和人物动作信息进行抓取,通过所述的数据输入设备进行输入,获得的数据上传至所述的服务器上,所述的服务器上的该切片对数据进行分类和筛选,将筛选后的数据进行数据存储并可在所述的互联网区域的该切片下被检索、被交互并作为特定信息数据被投射至与服务器建立特定信息数据关联和交互的vr/ar/mr智能眼镜接入设备上。
34.如图1下所示,一种基于增强现实的智能眼镜系统硬件包括若干智能眼镜接入设备、智能手机、服务器以及基于服务器的若干多层互联网区域,其中所述的智能眼镜接入设备通过蓝牙连接与所述的智能手机建立数据通道,所述的智能手机通过无线通讯与服务器相连,所述的服务器上运行着所述的若干多层互联网区域,所述的互联网区域可视为某一虚拟世界的切片,所述的若干切片可以叠加以特定数量组合成新的切片,用户可通过所述的智能手机选择某一切片进行该切片信息数据在app界面上的展示。所述的智能眼镜包含前置感知模块,在智能手机对所述的互联网区域进行数据获取,即进行信息检索和信息交互功能时:通过所述的感知模块实时获取视频信息数据,通过蓝牙连接将视频信息数据传输至所述的智能手机的app中,通过无线通讯建立app客户端与所述的互联网区域的数据连接,所述的服务器将根据所选切片所对应的目标信息数据对所述的app客户端所上传的实时视频信息数据进行筛选和分类,保留特定数据,所述的智能手机与所述的服务器上的该切片完成特定视频信息数据的关联和交互,所述的服务器上的该切片根据特定信息数据的确认将该信息数据所对应的多维数据传输至所述的智能手机中并在app客户端内进行呈现。在智能手机对所述的互联网区域进行数据上传,即进行信息发布和信息标记功能时:通过所述的智能手机进行数据输入,获得的数据上传至所述的服务器上,所述的服务器上的该切片对数据进行分类和筛选,将筛选后的数据进行数据存储并可在所述的互联网区域的该切片下被检索、被交互并作为特定信息数据被呈现在所述的智能手机的app界面上。
35.实施例一,一种基于增强现实的智能眼镜系统软件包括多元场景,多元场景分为不同的功能性场景,所述的功能性场景包含留言场景、创作场景、互动场景、生物场景、购物场景、检索场景、推送场景、联名场景、设计场景、标注场景、交友场景、导航场景、直播场景,但不限于上述功能性场景,每个功能性场景通过切换或叠加的方式在智能眼镜上进行可视化呈现;其中所述的每个功能性场景中可分为不同的主题性场景,所述的主题性场景包含对应不同人物、游戏、电影、动漫的场景,但不限于上述主题性场景,所述的主题性场景即为上述的切片,所述的若干切片可以叠加,以特定数量组合成新的切片,即所述的主题性场景可以单独在智能眼镜上进行可视化呈现,也可以组合在智能眼睛上进行可视化呈现。若所述的主题性场景有n个,则用户可切换的主题性场景的个数上限为:(2
n-1)。
36.如图2所示,实施例一中基于增强现实的智能眼镜系统硬件包括智能眼镜本体101、交互操控装置102,所述的智能眼镜本体101与所述的交互操控装置102建立数据连接,
用户可通过交互操控装置102完成智能眼镜本体101 上虚拟场景的切换,其中在所述的智能眼镜本体101上的虚拟成像包含场景标签:场景一201、场景二202、场景三203、场景四204
……
,实现场景间的可视化切换,更进一步地,所述的场景标签可具备下级标签,用以展开某一场景下的下分场景,通过所述的交互操控装置102实现场景的切换与下钻。
37.更进一步地,在数据后台中每一种场景对应有使用率、至少一个特征标准及一组ar参数。其中所述的场景一、场景二、场景三、场景四
……
的排序方式根据每一种场景的对应使用率进行从高到低的排序。其中,所述的使用率计算公式可以为:式中,t(i)为第i个场景的使用时长,为用户使用智能眼镜的总时长。
38.更进一步地,为了逐步适应用户习惯进行数据更新服务,具体方法如下:
39.s52.建立用户数据库存储用户的特征数据,例如对每一种场景的使用时长,或对每一种场景的使用率,或对每一种场景的使用频次;
40.s53.每经过一段时间更新一次用户的特征数据,根据特征数据进行场景由高到低的排序。
41.更进一步地,为了更加匹配用户需求进行个性化定制服务,具体方法如下:
42.s54.对后台所有用户的特征数据进行归类;
43.s55.根据归类后的用户特征数据建立用户画像,每一类用户画像对应于某一用户特征数据的区间,同时对应于某一种场景排序;
44.s56.根据新用户操作完成该用户在用户画像上的归类,执行该类用户画像对应的场景排序。
45.更进一步地,可实现场景的自主切换与选择,具体方法如下:
46.s57.分析检测周围环境数据以取得周围环境的至少一个主体特征;
47.s58.将每一场景的特征标准与该主体特征进行比对,若完成匹配则将场景自主切换至与主体特征匹配的特征标准所对应的场景。
48.在所述的场景的自主切换与选择中,其特征标准可设定为人像占全图像比例的三分之一及以上,也可以是其他比例,例如四分之一、五分之一等,由厂家自行设定。
49.实施例二,一种基于增强现实的智能眼镜系统在留言功能下的可视化场景叠加态可在实景通过所述的智能眼镜的镜片时叠加语音数据和文字数据的可视化成像,实现留言功能的智能眼镜系统硬件如图3所示,包括智能眼镜本体一301、成像装置一401、感知模块一402、语音输入装置一403、文字输入装置一404、定位模块一405、通信模块一406以及服务器一407。其中所述的成像装置一401、感知模块一402、语音输入装置一403、文字输入装置一404、定位模块一405、通信模块一406分别与所述的智能眼镜本体一301建立数据连接,所述的通信模块一406与所述的服务器一407采用远程通信方式建立数据连接。其中,感知模块一402可以为摄像头,也可以为激光雷达。
50.实施例二中控制具备留言功能的基于增强现实的智能眼镜系统的方法如下:
51.s1.通过在智能眼镜上的界面切换或选择进入留言场景的增强现实界面;
52.s2.通过智能眼镜上的定位模块和感知模块获取实时gps信息和图像信息;
53.s3.将gps信息和图像信息通过通信模块上传至服务器,与服务器所存储的历史数据中语音数据和文字数据所附带的gps信息和图像信息进行匹配;
54.s4.匹配成功后服务器将历史数据中对应匹配的语音数据、文字数据进行数据回传,通过智能眼镜的通信模块进行数据接收,通过智能眼镜的成像装置进行数据呈现。
55.更进一步地,为了使历史数据和实时数据在匹配过程中减少匹配次数提升匹配速度,对历史数据进行预处理,方法如下:
56.s5.根据历史数据中语音数据、文字数据所附带的gps信息和图像信息中的一个或多个信息进行园区的划分,确定对应园区gps信息和图像信息中的一个或多个信息范围;
57.s6.将历史数据中语音数据、文字数据根据划定的范围进行归类,完成以园区为主体的数据划分。
58.其中s5中所述的园区的划分具体可以为:
59.s51.根据gps信息对园区进行初步划分,园区1、园区2、园区3、园区4 分别对应一个gps范围;
60.s52.根据感知模块所获取的图像信息对园区进行二次划分,对图像特征量或标志物进行识别和提取,对每个园区特征量或标志物完成标注,园区1—标记点1、园区1—标记点2、园区1—标记点3,园区2—标记点1、园区2—标记点2、园区2—标记点3,园区3—标记点1、园区3—标记点2、园区3—标记点3。
61.对完成预处理的数据进行匹配的方法如下:
62.s7.将服务器历史数据中语音数据、文字数据根据其所附带的gps信息和图像信息与园区的各区块的gps信息和图像信息进行匹配;
63.s8.若完成匹配,则对该条语音数据或文字数据迁移至匹配园区区块内;
64.s9.将智能眼镜上的实时gps信息和实时图像信息与园区的各区块的gps 信息和图像信息进行匹配;
65.s10.若完成匹配,则将该园区区块中的语音数据和文字数据虚拟成像至该智能眼镜上。
66.更进一步地,为了完成历史数据的更新,对实时数据进行捕捉,方法如下:
67.s11.通过智能眼镜的语音输入装置和文字输入装置获取语音数据和文字数据,包括语音数据和文字数据所附带的gps信息和图像信息,通过定位模块和感知模块获取实时信息;
68.s12.将语音数据和文字数据以及其附带的gps信息和图像信息上传至服务器的历史数据库。
69.实施例三,一种基于增强现实的智能眼镜系统在创作功能下的可视化场景叠加态可在实景通过所述的智能眼镜的镜片时叠加图像数据的可视化成像,实现创作功能的智能眼镜系统硬件如图4所示,包括智能眼镜本体二501、操作手柄502、成像装置二504、感知模块二503、定位模块二505、通信模块二506以及服务器二507。其中,所述的操作手柄502、成像装置二504、感知模块二503、定位模块二505、通信模块二506分别与所述的智能眼镜本体二501 建立数据连接,所述的通信模块二506与所述的服务器二507采用远程通信方式建立数据连接。其中,感知模块二503可以为摄像头,也可以为激光雷达。
70.实施例三中控制具备创作功能的基于增强现实的智能眼镜系统的方法包括展示层与创作层,其中展示层的方法基本与实施例二相同,如下:
71.s13.通过在智能眼镜上的界面切换或选择进入创作场景的增强现实展示层界面;
72.s14.通过智能眼镜上的定位模块和感知模块获取实时gps信息和图像信息;
73.s15.将gps信息和图像信息通过通信模块上传至服务器,与服务器所存储的历史数据中三维图像数据和二维图像数据所附带的gps信息和图像信息进行匹配;
74.s16.匹配成功后服务器将历史数据中对应匹配的三维图像数据、二维图像数据进行数据回传,通过智能眼镜的通信模块进行数据接收,通过智能眼镜的成像装置进行数据呈现。
75.更进一步地,为了使历史数据和实时数据在匹配过程中减少匹配次数提升匹配速度,对历史数据进行预处理,方法与实施例二对历史数据进行预处理的方法一致。
76.其中创作层的方法如下:
77.s23.通过在智能眼镜上的界面切换或选择进入创作场景的增强现实创作层界面;
78.s24.用户通过智能眼镜的操作手柄构建三维图像数据或二维图像数据,通过成像装置将构建的实时三维图像数据或实时二维图像数据成像在智能眼镜的镜片上,根据智能眼镜的定位模块获取当下的gps信息,根据智能眼镜的感知模块获取当下实景的图像信息,将gps信息和图像信息附带在所述的三维图像数据或二维图像数据中;
79.s25.将上述打包后的数据通过通信模块上传至服务器,通过服务器将三维图像数据或二维图像数据传输给其他智能眼镜进行成像展示。
80.其中,实施例三中的三维图像数据和二维图像数据是通过智能眼镜结合操作手柄完成,也可通过其他端口完成三维图像数据和二维图像数据的构建,如 pc端、移动端等。该三维图像数据和二维图像数据所对应的位置也可通过输入位置坐标完成图像的放置,也可通过客户端打开位置信息图像,拖动三维图像数据和二维图像数据至信息图像的位置完成图像的放置。更进一步地,三维图像数据和二维图像数据可存储于开源创作库,在端口进行创作时可拖动复制,便于端口的二次创作。
81.实施例四,一种基于增强现实的智能眼镜系统在互动功能下的可视化场景叠加态可在实景通过所述的智能眼镜的镜片时叠加图像数据的可视化成像,实现互动功能的智能眼镜系统硬件如图5所示,包括智能眼镜本体三701、成像装置三601、感知模块三602、定位模块三605、通信模块三606、动作捕捉装置三603、服务器三607以及图像建模及触发设置端口三702。其中,所述的成像装置三601、感知模块三602、定位模块三605、通信模块三606、动作捕捉装置三603分别与所述的智能眼镜本体三701建立数据连接,所述的通信模块三606与所述的服务器三607采用远程通信方式建立数据连接,所述的图像建模及触发设置端口三702与所述的服务器三607建立数据连接。其中,感知模块三602可以为摄像头,也可以为激光雷达。
82.实施例四中控制具备互动功能的基于增强现实的智能眼镜系统的方法如下:
83.s29.通过在智能眼镜上的界面切换或选择进入互动场景的增强现实界面;
84.s30.通过智能眼镜上的定位模块和感知模块获取实时gps信息和图像信息;
85.s31.将实时gps信息和图像信息通过通信模块上传至服务器,与服务器所存储的开发端口制作的二/三维图像/视频数据所设置的gps位置与特征区域位置进行匹配;
86.s32.匹配成功后服务器将对应匹配的二/三维图像/视频数据进行数据回传,通过智能眼镜的通信模块进行数据接收,通过智能眼镜的成像装置进行数据呈现,完成数据的静态/动态可视化呈现;
87.s33.用户根据呈现的图像/视频数据进行相应操作与互动,通过动作捕捉装置完成用户操作的感应,若满足开发端口所设置的触发条件,则图像/视频数据根据开发端口所设置的变量进行可视化呈现。其中,实施例四的场景可进一步与其他具有知名度的主题结合实现联名场景的构建。
88.实施例五,一种基于增强现实的智能眼镜系统在生物功能下的可视化场景叠加态可在实景通过所述的智能眼镜的镜片时叠加图像数据的可视化成像,实现生物功能的智能眼镜系统硬件与实施例四相同。
89.实施例五中控制具备生物功能的基于增强现实的智能眼镜系统的方法如下:
90.s34.通过在智能眼镜上的界面切换或选择进入生物场景的增强现实界面;
91.s35.通过智能眼镜上的定位模块和感知模块获取实时gps信息和图像信息;
92.s36.将实时gps信息和图像信息通过通信模块上传至服务器,与服务器所存储的开发端口制作的生物视频数据所设置的gps位置与特征区域位置进行匹配;
93.s37.匹配成功后服务器将对应匹配的生物视频数据进行数据回传,通过智能眼镜的通信模块进行数据接收,通过智能眼镜的成像装置进行数据呈现,完成数据的动态可视化呈现;
94.s38.用户根据呈现的生物视频数据进行相应操作与互动,通过动作捕捉装置完成用户操作的感应,若满足开发端口所设置的触发条件,则生物视频数据根据开发端口所设置的反馈变量进行可视化呈现。
95.构建该实际特性数据的方法如下:
96.s341.构建实际特性数据中的不变量数据,搭建不变量数据的可视化模型;
97.s342.构建实际特性数据中的变量数据,设置变量数据关于时间的公式,将该公式通过传递函数作用在可视化模型上,完成可视化模型的定量变化设置;
98.s343.设置变量数据的阈值,搭建变量数据超过阈值后的可视化模型,若变量数据的值超过所设置的阈值,则将可视化模型进行前后切换,完成可视化模型的定性变化设置。其中,所述的生物数据可以为生物的实际特性数据,实际特性数据公式如下:
99.f(θi)=f0(θi(0)) f1(θi(t,s,...)) f2(θi(m,n,...))(i=0,1,2,3,...,n)
100.其中,θi为可视化模型的所有参量指标;f0(θi(0))为可视化模型的不变量数据;f1(θi(t,s,...))为可视化模型的变量数据;f2(θi(m,n,...))为可视化模型的反馈数据;t,s,...为随时间变化而变化并对可视化模型产生影响的参量,例如时间、气候、光照、需进食量;m,n,...为传感器所感应得到的触发参量,例如喂食量、浇水量、互动量。
101.实施例六,一种基于增强现实的智能眼镜系统在购物功能下的可视化场景叠加态可在实景通过所述的智能眼镜的镜片时叠加相关信息数据的可视化成像,实现购物功能的智能眼镜系统硬件如图6所示,包括智能眼镜本体四801、成像装置四901、感知模块四902、通信模块四906、服务器四907。其中,所述的成像装置四901、感知模块四902、通信模块四906分别与所述的智能眼镜本体四801建立数据连接,所述的通信模块四906与所述的服务器四907 采用远程通信方式建立数据连接。其中,感知模块四902可以为摄像头,也可以为激光雷达。更进一步地,为了捕捉人眼所停留的位置细节屏蔽无关信息数据的显示,设置后置摄像头四905,所述的后置摄像头四905与所述的智能眼镜本体四801建立数据连接;更进一步地,为了完成产品的操作体验,设置动作捕捉装置四903,所述的动作捕捉装置四903与
所述的智能眼镜本体四801 建立数据连接;更进一步地,为了完成产品的虚拟建模,设置图像建模及触发设置端口四802,所述的图像建模及触发设置端口四802与所述的服务器四907 建立数据连接。
102.实施例六中控制具备购物功能的基于增强现实的智能眼镜系统的方法如下:
103.s39.通过在智能眼镜上的界面切换或选择进入购物场景的增强现实界面;
104.s40.通过智能眼镜的感知模块获取视野内的图像,通过算法对图像进行识别,识别相应的物品种类;
105.s41.在网络数据库和内置数据库中搜索物品种类所关联的信息,通过智能眼镜的成像装置进行关联信息的成像。
106.其中,s41中所述的关联信息可以为物品的百科介绍以及各平台的购物链接。更进一步地,购物链接以指标值的高低进行排序,所述的指标可以为物品价格。其中,s41中所述的关联信息的获取方式可以为通过其他pc端口、移动端口、智能眼镜端口对物品进行标注,对图像数据进行文字标注或链接标注。
107.实施例七,一种基于增强现实的智能眼镜系统在检索功能下的可视化场景叠加态可在实景通过所述的智能眼镜的镜片时叠加相关检索数据的可视化成像,实现检索功能的智能眼镜系统硬件与实施例二相同。更进一步地,为了使实施例七同实施例六具备信息筛选的功能,可在智能眼镜上设置后置摄像头。
108.实施例七中控制具备检索功能的基于增强现实的智能眼镜系统的方法如下:
109.s42.通过在智能眼镜上的界面切换或选择进入检索场景的增强现实界面;
110.s43.通过智能眼镜的感知模块获取视野内的图像,通过算法对图像进行识别,识别图像中的特征点并完成特征对象的锁定,通过通信模块将该特征对象数据上传至服务器;
111.s44.将服务器中网络数据库和内置数据库存储的特征对象所关联的信息通过通信模块回传至智能眼镜,通过智能眼镜的成像装置进行关联信息的成像。
112.其中,关联信息可以包括其他用户对特征对象所上传的文字数据、语音数据、图像数据等多维度数据,其他端口对特征对象所上传的文字数据、语音数据、图像数据等多维度数据。
113.实施例八,一种基于增强现实的智能眼镜系统在推送功能下的可视化场景叠加态可在实景通过所述的智能眼镜的镜片时叠加相关推送数据的可视化成像,实现推送功能的智能眼镜系统硬件除了无需定位模块以外其他与实施例二相同。
114.实施例八中控制具备推送功能的基于增强现实的智能眼镜系统的方法如下:
115.s52.通过在智能眼镜上的界面切换或选择进入推送场景的增强现实界面;
116.s53.通过智能眼镜的感知模块获取视野内的图像,完成视频内容的识别进行内容定位,根据系统设定对特定定位内容信息数据通过通信模块上传至服务器,服务器将内置广告、信息、内容周边回传至智能眼镜;
117.s54.智能眼镜通过成像模块将推送回的广告、信息、内容周边进行可视化呈现。
118.更进一步地为了增加视频内容的趣味性和互动性,可增设评论版块完成智能眼镜各用户之间针对视频内容的讨论。
119.实施例九,一种基于增强现实的智能眼镜系统在设计功能下的可视化场景叠加态
可在实景通过所述的智能眼镜的镜片时叠加相关设计元素数据的可视化成像,实现设计功能的智能眼镜系统硬件除了无需定位模块以外其他与实施例四相同。
120.实施例九中控制具备设计功能的基于增强现实的智能眼镜系统的方法如下:
121.s55.通过在智能眼镜上的界面切换或选择进入设计场景的增强现实界面;
122.s56.通过端口在基本框架上对设计元素进行虚拟化建模,完成建模时对设计元素结构数据和设计元素相对于基本框架的位置关系数据进行保存并上传云端,通过云端服务器将设计元素数据上传至智能眼镜中;
123.s57.通过感知模块获取视野内实际图像,通过系统识别实际图像的基本框架,用户通过动作捕捉装置完成设计元素的选择,通过成像装置完成设计元素的可视化呈现。
124.其中s56和s57中所述的基本框架可以为人体骨骼或轮廓,也可以为衣服的边框和轮廓。其中,s57中所述的通过成像装置完成设计元素的可视化呈现有以下两种方案:
125.方案一、通过设计元素相对于基本框架的位置关系数据完成成像的设计元素在识别出的实际图像基本框架上的位置确认与锁定;
126.方案二、通过动作捕捉装置将设计元素人为移动到指定位置。
127.实施例十,一种基于增强现实的智能眼镜系统在标注功能下的可视化场景叠加态可在实景通过所述的智能眼镜的镜片时叠加相关标注数据的可视化成像,实现标注功能的智能眼镜系统硬件如图7所示,包括智能眼镜本体五1001、输入装置五1002、成像装置五1004、感知模块五1003、定位模块五1005、通信模块五1006以及服务器五1007。其中,所述的输入装置五1002、成像装置五1004、感知模块五1003、定位模块五1005、通信模块五1006分别与所述的智能眼镜本体五1001建立数据连接,所述的通信模块五1006与所述的服务器五1007采用远程通信方式建立数据连接。其中,所述的感知模块五1003 可以为摄像头,也可以为激光雷达;所述的输入装置五1002可以为语音输入,也可以为文字输入。
128.实施例十中控制具备标注功能的基于增强现实的智能眼镜系统的方法如下:
129.s45.通过在智能眼镜上的界面切换或选择进入标注场景的增强现实界面;
130.s46.通过智能眼镜的感知模块获取视野内的图像,通过算法对图像进行识别,识别图像中的物体轮廓,通过感知模块获取用户行为操作,根据用户操作完成标注物体的选择;
131.s47.在完成标注后,智能眼镜系统通过感知模块感应到标注物体后自动跟随标注物体的路径并存储标注物体在感知模块的感知区域内消失前的最终位置坐标,同时,通过感知模块实时感知标注物体是否重新出现在感知区域内,若出现则继续自动跟随标注物体的路径并更新标注物体在感知模块的感知区域内消失前的最终位置坐标,如此循环往复;
132.s48.通过输入装置获取寻找某一标注物体的指令,调取后台所存储的该标注物体最终位置坐标,根据最终位置坐标和此时智能眼镜实时位置坐标形成指导路径,通过指导路径生成指引标志,通过成像装置对指引标志进行可视化成像。
133.其中,感知模块感应标注物体的具体方法可以为:
134.s471.在标注物体时通过感知模块对标注物体的特征点进行提取并完成对应数据的存储;
135.s472.当感知模块感应到相应物体时,对其特征点进行提取并与存储的标注物体的特征点进行比对,若匹配则系统确定感应到标注物体。
136.其中,s472中所述的匹配具体可以为比对的相似度超过设定阈值。
137.其中,s47中所述的位置坐标可以通过定位模块进行获取。
138.一种基于增强现实的智能眼镜系统在交友功能下的可视化场景叠加态可在实景通过所述的智能眼镜的镜片时叠加相关综合数据的可视化成像,交友功能的智能眼镜为上述实施例中的一项或几项结合,完成智能眼镜间的数据交互,包括图像数据、文字数据和语音数据。
139.一种基于增强现实的智能眼镜系统在导航功能下的可视化场景叠加态可在实景通过所述的智能眼镜的镜片时叠加相关位置数据的可视化成像,导航功能的智能眼镜为上述实施例中的一项或几项结合,完成智能眼镜间的数据交互,包括位置数据和图像数据。
140.一种基于增强现实的智能眼镜系统在直播功能下的可视化场景叠加态可在实景通过所述的智能眼镜的镜片时叠加相关视频数据的可视化成像,直播功能的智能眼镜为上述实施例中的一项或几项结合,完成智能眼镜间的数据交互,包括位置数据和图像数据。
141.其中,智能眼镜系统接入的服务器可以是中心部署的服务器,也可以是边缘部署的分布式服务器,服务器的数量不限。若服务器为分布式服务器,则可以布置在各个位置,智能眼镜可通过gps感应、网络感应、雷达感应等多种空间感应方式完成对分布式服务器的访问,分布式服务器可以布置在如公交车、店铺、学校、医院、事业单位、企业等公共空间内。
142.实施例十一,一种基于增强现实的分布式服务器智能眼镜系统包括若干布置于不同位置的分布式服务器和若干可接入网络的ar/mr/vr智能眼镜。一种控制分布式服务器智能眼镜系统的控制方法如下:
143.s59.ar/mr/vr智能眼镜通过网络或gps或雷达或图像访问布置于该空间区域的分布式服务器;
144.s60.被访问的分布式服务器通过数据通信将存储的二/三维图像/视频数据、音频数据、文字数据传输至访问的ar/mr/vr智能眼镜;
145.s61.ar/mr/vr智能眼镜通过成像装置将所接收到的二/三维图像/视频数据、音频数据、文字数据进行可视化呈现。
146.其中,ar/mr/vr智能眼镜通过网络访问布置于该空间区域的分布式服务器具体可以为:ar/mr/vr智能眼镜通过接入分布式服务器的无线局域网络完成访问。
147.其中,ar/mr/vr智能眼镜通过gps访问布置于该空间区域的分布式服务器具体可以为:
148.s591.分布式服务器上传所属区块的gps信息至云端;
149.s592.云端将ar/mr/vr智能眼镜实时上传的gps信息与分布式服务器上传所属区块的gps信息进行比对;
150.s593.若比对时完成匹配,由云端连接ar/mr/vr智能眼镜对对应匹配的分布式服务器进行访问。
151.更进一步地,为了适应在可移动公共空间区域内布置的分布式服务器以及分布式服务器被移动的情况,每隔一定时间间隔对gps信息进行更新并上传;更进一步地,为了区分两种情况并且不占用传输资源提出以下方法:
152.s594.在t1时间内对gps信息进行测量,若在t1时间内gps信息发生变化,则将该服务器标记为移动区块内的分布式服务器并设置该分布式服务器每隔t2时间间隔对gps信息
进行更新并上传;
153.s595.若在t1时间内gps信息没有发生变化,则将将该服务器标记为固定区块内的分布式服务器并设置该分布式服务器每隔t3时间间隔对gps信息进行更新并上传。
154.其中,t1<t3,t2<t3。其中,当固定的分布式服务器完成搬运后,不论它是被搬去固定区块还是移动区块,可以通过手动输入端启动s594和s595 的测量。其中,在不同移动区块内的t2的值根据实际情况可以不同,例如不同的移动速度、不同的移动范围对t2的取值区间都有影响。为了避免移动区块在测量过程中出现在t1时间内已从原坐标出发移动一段时间后返回原坐标而并系统错误判定为固定区块,t1应该取得足够小。
155.当然,上述方法只是系统自判别的方法,也可通过手动选择是移动区块还是固定区块来完成gps信息上传的时间间隔的设置。
156.其中,ar/mr/vr智能眼镜通过雷达或图像访问布置于该空间区域的分布式服务器具体可以为:ar/mr/vr智能眼镜通过识别完成分布式服务器的确认,确认完成后通过建立数据连接完成访问。
157.更进一步地,在所有分布式服务器上传的gps区域范围中若出现重合或交叉的情况,云端可通过划分区域或建立用户选择通道或二次条件输入的方法解决服务器数据链路的矛盾。
158.其中,如图8所示,划分区域主要对分布式服务器进行有序规划,建立有序的分布式服务器智能眼镜系统数据通信机制。
159.其中,建立用户选择通道是通过向用户ar/mr/vr智能眼镜的客户端发送选择窗口已手动完成访问/接入服务器的选择。
160.其中,二次条件输入是通过获取用户ar/mr/vr智能眼镜感知模块的图像数据,通过与分布式服务器上所存储的识别数据或定位数据进行比对,计算相似度,选取相似度高的分布式服务器进行访问/接入。
161.更进一步地,为了增加系统互动性,添加下述步骤:
162.s62.ar/mr/vr智能眼镜可通过客户端输入数据信息或编辑已有的数据信息;
163.s63.通过ar/mr/vr智能眼镜的通信模块上传至被访问的分布式服务器;
164.s64.分布式服务器通过数据筛选及数据通信将客户端上传的数据更新信息更新在存储后台并将数据更新信息传输至每个访问的ar/mr/vr智能眼镜中;
165.s65.ar/mr/vr智能眼镜通过成像装置对原本的二/三维图像/视频数据、音频数据、文字数据进行更新。
166.更进一步地,为了防止客户端任意修改更新数据,对二/三维图像/视频数据、音频数据、文字数据有选择性地进行锁定,锁定后只允许分布式服务器对 ar/mr/vr智能眼镜进行单向数据传输,不允许ar/mr/vr智能眼镜对分布式服务器进行数据传输。
167.更进一步地,为了防止ar/mr/vr智能眼镜和特定分布式服务器进行数据通信时其他分布式服务器对其进行干扰,需在该分布式服务器上安装信号屏蔽模块,在所属区块内对其他分布式服务器数据进行屏蔽。
168.其中,上述实施例中通过设备获取人为操作的装置可以是图像传感器、雷达传感器、触摸传感器、按键传感器、语音传感器等可以获取人类行为的装置。其中,上述实施例中进入某一场景是通过人为选择完成,也可以通过识别该区域是否设有场景来自动进入该场
景,更进一步地,若识别到有多个场景,通过算法获取用户习惯完成场景选择并自动进入该场景。其中,本发明所保护的智能眼镜可以是只具备单独功能/单独场景的单一功能智能眼镜,也可以是具备多种功能/多种场景的多种功能智能眼镜,多种功能智能眼镜可以是单独功能/ 单独场景的两个及两个以上组合,包括硬件的组合和功能的组合。
169.在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本技术的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
170.尽管上面已经示出和描述了本技术的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本技术的限制,本领域的普通技术人员在本技术的范围内可以对上述实施例进行变化、修改、替换和变型。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献