一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

虚拟对象控制方法、装置、电子设备及可读存储介质与流程

2022-02-20 01:07:37 来源:中国专利 TAG:


1.本公开涉及计算机技术领域,具体而言,涉及一种虚拟对象控制方法、装置、电子设备和存储介质。


背景技术:

2.随着计算机技术与网络技术的发展,视频直播成为一种热门的交互方式。越来越多的用户选择通过直播平台来观看视频直播,比如游戏直播、新闻直播等。为了提升直播效果,出现了虚拟主播代替真实主播进行视频直播的方式。
3.在虚拟主播进行直播时,观众用户的参与度在不断提高,观众用户通过弹幕的方式与虚拟主播进行互动,已经越来越频繁。然而,现有的弹幕大都以文字的形式展示,观众用户与虚拟主播之间互动的体验欠佳。


技术实现要素:

4.本公开实施例至少提供一种虚拟对象控制方法、装置、电子设备及存储介质。
5.第一方面,本公开实施例提供了一种虚拟对象控制方法,应用于游戏平台,包括:
6.获取直播视频流,所述直播视频流基于3d场景信息生成,所述3d场景信息用于渲染后生成3d场景,所述3d场景信息包含至少一个虚拟角色信息以及至少一个虚拟对象信息,所述虚拟角色信息用于渲染后生成虚拟角色,所述虚拟角色通过动作捕捉设备捕捉的控制信息驱动;
7.发送所述直播视频流,以在用户终端展示与所述直播视频流相应的直播画面;
8.获取所述用户终端发送的弹幕信息;
9.在所述弹幕信息符合第一预设条件的情况下,基于所述弹幕信息以及所述至少一个虚拟对象信息生成至少一个虚拟对象;
10.控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互。
11.本公开实施例中,在弹幕信息符合第一预设条件的情况下,基于所述弹幕信息以及所述至少一个虚拟对象信息生成至少一个虚拟对象,并控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互,也即,用户所发的弹幕信息可以代替用户以虚拟对象的形式进入到3d场景中与虚拟角色进行交互,如此,不仅提高了用户在直播过程中的参与度,还提升了用户的交互体验。
12.根据第一方面,在一种可能的实施方式中,所述获取所述用户终端发送的弹幕信息,包括:
13.通过直播平台获取所述用户终端发送的弹幕信息。
14.本公开实施例中,通过直播拨平台可以实时获取到用户终端发送的弹幕信息,进而可以基于弹幕信息生成至少一个虚拟对象。
15.根据第一方面,在一种可能的实施方式中,所述控制所述至少一个虚拟对象进入
所述3d场景中与所述至少一个虚拟角色进行交互,包括:
16.控制所述至少一个虚拟对象进入所述3d场景中,并向靠近目标虚拟角色的方向移动直至与所述目标虚拟角色接触;
17.识别所述虚拟对象与所述目标虚拟角色的接触部位,并根据所述接触部位的类型,确定与所述接触部位的类型对应的目标交互行为;
18.基于所述目标交互行为,控制所述虚拟对象与所述目标虚拟角色进行交互。
19.本公开实施例中,根据虚拟对象与目标虚拟觉色的接触部位的类型,确定与目标交互行为,可以使得目标交互行为与接触部位相匹配,提升了交互行为的观赏体验。
20.根据第一方面,在一种可能的实施方式中,所述控制所述至少一个虚拟对象进入所述3d场景中,并向靠近目标虚拟角色的方向移动直至与所述目标虚拟角色接触,包括:
21.基于每个虚拟对象所携带的弹幕信息,从所述至少一个虚拟角色中确定与所述每个虚拟对象对应的目标虚拟角色;
22.控制所述每个虚拟对象进入所述3d场景中,并向靠近与所述每个虚拟对象对应的目标虚拟角色的方向移动直至与所述目标虚拟角色接触。
23.本公开实施例中,基于每个虚拟对象所携带的弹幕信息,从所述至少一个虚拟角色中确定与所述每个虚拟对象对应的目标虚拟角色,使得每个虚拟对象所接触的目标虚拟角色与用户产生关联,增强了用户在直播过程中的参与感,提升了用户的直播体验。
24.根据第一方面,在一种可能的实施方式中,所述接触部位为所述目标虚拟角色的脚部,所述基于所述目标交互行为,控制所述虚拟对象与所述目标虚拟角色进行交互,包括:
25.获取所述目标虚拟角色的脚部的控制信息;
26.基于所述控制信息驱动所述目标虚拟角色的脚部运动;
27.根据所述目标虚拟角色的脚部的运动状态,控制所述虚拟对象远离所述目标虚拟角色的移动状态。
28.本公开实施例中,根据所述目标虚拟角色的脚部的运动状态,控制所述虚拟对象远离所述目标虚拟角色的移动状态,可以使得虚拟对象与目标虚拟角色之间的交互更加逼真,提升用户的直播体验。
29.根据第一方面,在一种可能的实施方式中,所述根据所述目标虚拟角色的脚部的运动状态,控制所述虚拟对象远离所述目标虚拟角色的移动状态,包括:
30.获取所述目标虚拟角色的脚部的运动信息,所述运动信息由控制对象驱动生成;
31.基于所述运动信息,控制所述虚拟对象的移动状态。
32.本公开实施例中,基于目标虚拟角色的脚部的运动信息,控制所述虚拟对象的移动状态,可以使得虚拟对象的移动状态与脚部的运动信息一致,提升了虚拟对象与虚拟角色交互的真实感。
33.根据第一方面,在一种可能的实施方式中,所述3d场景信息还包括虚拟镜头,所述移动状态包括移动方向,所述方法还包括:
34.在所述虚拟对象的移动方向为朝向所述虚拟镜头方向的情况下,若所述虚拟对象的移动状态满足第二预设条件,获取并显示预设的与虚拟镜面碰撞的特效。
35.本公开实施例中,由于在虚拟对象的移动状态满足第二预设条件情况下,获取并
显示预设的与虚拟镜面碰撞的特效,不仅增强了用户在直播过程中的观赏体验,还增强了直播过程中的趣味性。
36.根据第一方面,在一种可能的实施方式中,所述控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互,包括:
37.获取所述至少一个虚拟角色在所述3d场景中的第一实时位置信息;
38.基于所述第一实时位置信息,控制所述至少一个虚拟对象相对于所述至少一个虚拟角色移动。
39.本公开实施例中,根据虚拟角色在3d场景中的实时位置,来控制所述至少一个虚拟对象相对于所述至少一个虚拟角色移动,可以提升虚拟对象相对于虚拟角色移动的精度。
40.根据第一方面,在一种可能的实施方式中,所述至少一个虚拟对象的数量为多个,所述方法还包括:
41.获取所述至少一个虚拟对象在所述3d场景中的第二实时位置信息;
42.基于所述第二实时位置信息,控制所述至少一个虚拟对象之间进行互动。
43.本公开实施例中,基于虚拟对象的实时位置信息,控制虚拟对象时间的互动,如此,使得虚拟对象之间也存在交互行为,提升了虚拟对象的交互行为的丰富性。
44.根据第一方面,在一种可能的实施方式中,所述控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互,包括:
45.确定每个虚拟对象携带的弹幕信息的用户资源信息;
46.基于所述用户资源信息,确定所述每个虚拟对象的运动状态;
47.基于所述运动状态,控制所述每个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互。
48.本公开实施例中,将虚拟对象的运动状态和用户的资源信息相结合,也即将虚拟对象和用户之间关联起来,提升了用户在直播过程中的参与感与趣味性。
49.第二方面,本公开实施例提供了一种虚拟对象控制方法,应用于直播平台,包括:
50.通过游戏平台获取直播视频流,所述直播视频流基于3d场景信息生成,所述3d场景信息用于渲染后生成3d场景,所述3d场景信息包含至少一个虚拟角色信息以及至少一个虚拟对象信息,所述虚拟角色信息用于渲染后生成虚拟角色,所述虚拟角色通过动作捕捉设备捕捉的控制信息驱动;
51.将所述直播视频流发送到至少一个用户终端,以在所述用户终端展示与所述直播视频流相应的直播画面;
52.获取所述用户终端发送的弹幕信息;
53.将所述弹幕信息发送至游戏平台,以使得所述游戏平台基于所述弹幕信息以及所述至少一个虚拟对象信息生成至少一个虚拟对象,并控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互。
54.根据第二方面,在一种可能的实施方式中,所述方法还包括:
55.接收所述游戏平台发送的弹幕处理结果信息;
56.在所述弹幕信息处理成功的情况下,将所述弹幕信息删除,不展示于所述直播画面中;其中,所述弹幕信息处理成功是指,所述弹幕信息与所述至少一个虚拟对象信息结
合,并生成了所述至少一个虚拟对象。
57.本公开实施例中,在所述弹幕信息处理成功的情况下,将所述弹幕信息删除,不展示于所述直播画面中,如此,可以避免显示的弹幕信息和生成的虚拟对象所携带的弹幕信息重复的情况发生,提升用户的直播体验。
58.第三方面,本公开实施例提供了一种虚拟对象控制装置,包括:
59.第一获取模块,用于获取直播视频流,所述直播视频流基于3d场景信息生成,所述3d场景信息用于渲染后生成3d场景,所述3d场景信息包含至少一个虚拟角色信息以及至少一个虚拟对象信息,所述虚拟角色信息用于渲染后生成虚拟角色,所述虚拟角色通过动作捕捉设备捕捉的控制信息驱动;
60.第一发送模块,用于发送所述直播视频流,以在用户终端展示与所述直播视频流相应的直播画面;
61.第二获取模块,用于获取所述用户终端发送的弹幕信息;
62.第一生成模块,用于在所述弹幕信息符合第一预设条件的情况下,基于所述弹幕信息以及所述至少一个虚拟对象信息生成至少一个虚拟对象;
63.交互模块,用于控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互。
64.根据第三方面,在一种可能的实施方式中,第二获取模块具体用于:
65.通过直播平台获取所述用户终端发送的弹幕信息。
66.根据第三方面,在一种可能的实施方式中,所述交互模块具体用于:
67.控制所述至少一个虚拟对象进入所述3d场景中,并向靠近目标虚拟角色的方向移动直至与所述目标虚拟角色接触;
68.识别所述虚拟对象与所述目标虚拟角色的接触部位,并根据所述接触部位的类型,确定与所述接触部位的类型对应的目标交互行为;
69.基于所述目标交互行为,控制所述虚拟对象与所述目标虚拟角色进行交互。
70.根据第三方面,在一种可能的实施方式中,所述交互模块具体用于:
71.基于每个虚拟对象所携带的弹幕信息,从所述至少一个虚拟角色中确定与所述每个虚拟对象对应的目标虚拟角色;
72.控制所述每个虚拟对象进入所述3d场景中,并向靠近与所述每个虚拟对象对应的目标虚拟角色的方向移动直至与所述目标虚拟角色接触。
73.根据第三方面,在一种可能的实施方式中,所述接触部位为所述目标虚拟角色的脚部,所述交互模块具体用于:
74.获取所述目标虚拟角色的脚部的控制信息;
75.基于所述控制信息驱动所述目标虚拟角色的脚部运动;
76.根据所述目标虚拟角色的脚部的运动状态,控制所述虚拟对象远离所述目标虚拟角色的移动状态。
77.根据第三方面,在一种可能的实施方式中,所述交互模块具体用于:
78.获取所述目标虚拟角色的脚部的运动信息,所述运动信息由控制对象驱动生成;
79.基于所述运动信息,控制所述虚拟对象的移动状态。
80.根据第三方面,在一种可能的实施方式中,所述3d场景信息还包括虚拟镜头,所述
交互模块具体用于:
81.在所述虚拟对象的移动方向为朝向所述虚拟镜头方向的情况下,若所述虚拟对象的移动状态满足第二预设条件,获取并显示预设的与虚拟镜面碰撞的特效。
82.根据第三方面,在一种可能的实施方式中,所述交互模块具体用于:
83.获取所述至少一个虚拟角色在所述3d场景中的第一实时位置信息;
84.基于所述第一实时位置信息,控制所述至少一个虚拟对象相对于所述至少一个虚拟角色移动。
85.根据第三方面,在一种可能的实施方式中,所述交互模块具体用于:
86.获取所述至少一个虚拟对象在所述3d场景中的第二实时位置信息;
87.基于所述第二实时位置信息,控制所述至少一个虚拟对象之间进行互动。
88.根据第三方面,在一种可能的实施方式中,所述交互模块具体用于:
89.确定每个虚拟对象携带的弹幕信息的用户资源信息;
90.基于所述用户资源信息,确定所述每个虚拟对象的运动状态;
91.基于所述运动状态,控制所述每个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互。
92.第四方面,本公开实施例提供了一种虚拟对象控制装置,包括:
93.第三获取模块,用于通过游戏平台获取直播视频流,所述直播视频流基于3d场景信息生成,所述3d场景信息用于渲染后生成3d场景,所述3d场景信息包含至少一个虚拟角色信息以及至少一个虚拟对象信息,所述虚拟角色信息用于渲染后生成虚拟角色,所述虚拟角色通过动作捕捉设备捕捉的控制信息驱动;
94.第二发送模块,用于将所述直播视频流发送到至少一个用户终端,以在所述用户终端展示与所述直播视频流相应的直播画面;
95.第四获取模块,用于获取所述用户终端发送的弹幕信息;
96.第三发送模块,用于将所述弹幕信息发送至游戏平台,以使得所述游戏平台基于所述弹幕信息以及所述至少一个虚拟对象信息生成至少一个虚拟对象,并控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互。
97.根据第四方面,在一种可能的实施方式中,所述虚拟对象控制装置还包括:
98.信息接收模块,用于接收所述游戏平台发送的弹幕处理结果信息;
99.弹幕处理模块,在所述弹幕信息处理成功的情况下,将所述弹幕信息删除,不展示于所述直播画面中;其中,所述弹幕信息处理成功是指,所述弹幕信息与所述至少一个虚拟对象信息结合,并生成了所述至少一个虚拟对象。
100.第五方面,本公开实施例提供了一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如第一方面或者第二方面所述的虚拟对象控制方法。
101.第六方面,本公开实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如第一方面或者第二方面所述的虚拟对象控制方法。
102.为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合
所附附图,作详细说明如下。
附图说明
103.为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
104.图1示出了本公开实施例所提供的一种虚拟对象控制方法的执行主体的示意图;
105.图2示出了本公开实施例所提供的第一种虚拟对象控制方法的流程图;
106.图3示出了本公开实施例所提供的一种发送直播视频流的示意图;
107.图4示出了本公开实施例所提供的一种生成的虚拟对象的示意图;
108.图5示出了本公开实施例所提供的一种至少一个虚拟对象进入3d场景的示意图;
109.图6示出了本公开实施例所提供的第一种控制虚拟对象与虚拟角色进行交互的方法流程图;
110.图7示出了本公开实施例所提供的一种控制虚拟对象的移动状态的方法流程图;
111.图8示出了本公开实施例所提供的一种虚拟角色踢开虚拟对象的示意图;
112.图9示出了本公开实施例所提供的一种虚拟对象与虚拟镜面碰撞的效果示意图;
113.图10示出了本公开实施例所提供的第二种控制虚拟对象与虚拟角色进行交互的方法流程图;
114.图11示出了本公开实施例所提供的一种多个虚拟对象之间进行互动的示意图;
115.图12示出了本公开实施例所提供的第三种控制虚拟对象与虚拟角色进行交互的方法流程图;
116.图13示出了本公开实施例所提供的第一种虚拟对象的运动状态的示意图;
117.图14示出了本公开实施例所提供的第二种虚拟对象的运动状态的示意图;
118.图15示出了本公开实施例所提供的第三种虚拟对象的运动状态的示意图;
119.图16示出了本公开实施例所提供的另一种虚拟对象控制方法的流程图;
120.图17示出了本公开实施例所提供的一种虚拟对象控制装置的结构示意图;
121.图18示出了本公开实施例所提供的另一种虚拟对象控制装置的结构示意图;
122.图19示出了本公开实施例所提供的一种电子设备的示意图。
具体实施方式
123.为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
124.应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
125.本文中术语“和/或”,仅仅是描述一种关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括a、b、c中的至少一种,可以表示包括从a、b和c构成的集合中选择的任意一个或多个元素。
126.随着计算机技术与网络技术的发展,视频直播成为一种热门的交互方式。越来越多的用户选择通过直播平台来观看视频直播,比如游戏直播、新闻直播等。为了提升直播效果,出现了虚拟主播代替真实主播进行视频直播的方式。
127.经研究发现,在虚拟主播进行直播时,观众用户的参与度在不断提高,观众用户通过弹幕的方式与虚拟主播进行互动,已经越来越频繁。然而,现有的弹幕大都以文字的形式展示,观众用户与虚拟主播之间互动的体验欠佳。
128.本公开提供的一种虚拟对象控制方法,包括:获取直播视频流,所述直播视频流基于3d场景信息生成,所述3d场景信息用于渲染后生成3d场景,所述3d场景信息包含至少一个虚拟角色信息以及至少一个虚拟对象信息,所述虚拟角色信息用于渲染后生成虚拟角色,所述虚拟角色通过动作捕捉设备捕捉的控制信息驱动;发送所述直播视频流,以在用户终端展示与所述直播视频流相应的直播画面;获取所述用户终端发送的弹幕信息;在所述弹幕信息符合第一预设条件的情况下,基于所述弹幕信息以及所述至少一个虚拟对象信息生成至少一个虚拟对象;控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互。
129.本公开实施例中,在弹幕信息符合第一预设条件的情况下,基于所述弹幕信息以及所述至少一个虚拟对象信息生成至少一个虚拟对象,并控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互,也即,用户所发的弹幕信息可以虚拟对象的形式替代用户进入到3d场景中与虚拟角色进行交互,如此,不仅提高了用户在直播过程中的参与度,还提升了用户的交互体验。
130.请参阅图1,为本公开实施例所提供的虚拟对象控制方法的执行主体的示意图,该方法的执行主体为电子设备100,其中电子设备100可以包括终端和服务器。例如,该方法可应用于终端中,终端可以是图1中所示智能手机10、台式计算机20、笔记本电脑30等,还可以是图1中未示出的智能音箱、智能手表、平板电脑等,并不限定。该方法还可应用于服务器40,或者可应用于由终端和服务器40所组成的实施环境中。服务器40可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云存储、大数据和人工智能平台等基础云计算服务的云服务器。
131.在另一些实施方式中,电子设备100还可以包括ar(augmented reality,增强现实)设备、vr(virtual reality,虚拟现实)设备、mr(mixed reality,混合现实)设备等。比如,ar设备可以是具有ar功能的手机或平板电脑,也可以是ar眼镜,在此不做限定。
132.需要说明的是,在一些实施方式中,服务器40可以通网络50分别与智能手机10、台式计算机20及笔记本电脑30进行通信。网络50可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
133.参见图2所示,为本公开实施例提供的第一种虚拟对象控制方法的流程图,该第一
种虚拟对象控制方法可以应用于游戏平台的服务器中,在一些可能的实现方式中,该第一种虚拟对象控制方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。该虚拟对象控制方法包括以下s101~s105:
134.s101,获取直播视频流,所述直播视频流基于3d场景信息生成,所述3d场景信息用于渲染后生成3d场景,所述3d场景信息包含至少一个虚拟角色信息以及至少一个虚拟对象信息,所述虚拟角色信息用于渲染后生成虚拟角色,所述虚拟角色通过动作捕捉设备捕捉的控制信息驱动。
135.示例性地,虚拟角色的一种形态是对演员(中之人)动作捕捉获取控制信号,驱动游戏引擎中的虚拟角色动作,同时获取演员声音,将演员声音与虚拟角色画面融合,生成视频数据。
136.动作捕捉设备包括穿在演员身体上的肢体动作捕捉设备(如衣服)、戴在演员手上的手部动作捕捉设备(如手套)、面部动作捕捉设备(如摄像头)以及声音捕捉设备(比如麦克风、喉麦等)中至少一种。
137.其中,直播视频流是进行连续视频直播所需要的数据流。可以理解,视频通常由画面和/或声音等组成的,画面属于视频帧,声音则属于音频帧。本公开实施例中,获取直播视频流的过程可以是直接获取生成好的直播视频流的过程,也可以是基于3d场景信息生成直播视频流的过程,不做限定,只要能最终拿到直播视频流即可。
138.其中,3d渲染环境是运行于电子设备中的3d游戏引擎,能够基于待渲染数据生成基于一个或者多个视角的影像信息。虚拟角色信息是存在于游戏引擎中的角色模型,能够在渲染后生成相应的虚拟角色,同理,虚拟对象信息也可以在渲染后生成相应的虚拟对象。不同的是,所述虚拟角色通过动作捕捉设备捕捉的控制信息驱动,而虚拟对象则不需要,可以通过系统控制。本公开实施例中,虚拟角色可以包括虚拟主播或者数字人。虚拟对象可以是虚拟动物形象、虚拟卡通形象等。
139.3d场景信息可以运行于计算机cpu(central processing uni,中央处理器)、gpu(graphics processing unit,图形处理器)以及存储器中,其包含网格化的模型信息以及和贴图纹理信息。相应地,作为示例,虚拟角色信息和虚拟对象信息包含但不限于网格化的模型数据、体素数据及贴图纹理数据或者其组合。其中,网格包括但不限于三角形网格、四边形网格、其他多边形网格或者其组合。本公开实施例中,网格为三角形网格。
140.s102,发送所述直播视频流,以在所述用户终端展示与所述直播视频流相应的直播画面。
141.示例性地,参见图3所示,游戏平台的服务器40在获取到直播视频流后可以实时地将直播视频流发送至直播平台200,直播平台200再将直播视频流发送至多个用户终端300进行视频直播。
142.s103,获取所述用户终端发送的弹幕信息。
143.其中,弹幕是指在观看直播视频时弹出的评论性字幕。可以理解,在直播过程中,用户终端的用户(比如观众)可以通过用户终端发送弹幕以和虚拟角色进行互动。本公开实施例中,弹幕信息可以是弹幕的具体内容,也可以是发送弹幕的用户标识(比如用户账号或者用户昵称)。
144.请再次参阅图3,在直播过程中,直播平台200可以实时获取所述用户终端100发送
的弹幕信息,并将弹幕信息发送至游戏平台,如此,游戏平台可以通过直播平台200获取所述用户终端100发送的弹幕信息。
145.s104,在所述弹幕信息符合第一预设条件的情况下,基于所述弹幕信息以及所述至少一个虚拟对象信息生成至少一个虚拟对象。
146.参见图4所示,在所述弹幕信息符合第一预设条件的情况下,可以将弹幕信息与至少一个虚拟对象信息结合生成至少一个虚拟对象b,如此,使得对象b携带有弹幕信息的内容,如图4中所示,其中一个虚拟对象b所携带的弹幕信息内容为“我是舰长2”,另一个虚拟对象b所携带的弹幕信息内容为“不想洗衣服”。
147.其中,第一预设条件可以根据实际需求而设定,比如第一预设条件可以是弹幕信息内容符合预设内容,也可以是弹幕信息所携带的用户标识符合预设要求,比如该用户标识对应的用户关注了该虚拟角色,在此不做具体限定。
148.s105,控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互。
149.参见图5所示,在生成至少一个虚拟对象b后,可以控制至少一个虚拟对象b进入所述3d场景中与至少一个虚拟角色a进行交互。其中,交互包括不限于动作交互、行为交互及语言交互等。
150.参见图6所示,针对上述步骤s105,在控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互时,可以包括以下s1051~s1053:
151.s1051,控制所述至少一个虚拟对象进入所述3d场景中,并向靠近目标虚拟角色的方向移动直至与所述目标虚拟角色接触。
152.示例性地,请再次参阅图5,生成至少一个虚拟对象b后,控制至少一个虚拟对象b向靠近目标虚拟角色a的方向移动,直至与目标虚拟角色a接触。当然,在其他实施例中,也可以控制虚拟对象b进入3d场景后在距离目标虚拟角色a的预设距离范围内与目标虚拟角色a进行互动,比如与目标虚拟角色a隔空互动。
153.需要说明的是,若在3d场景中只存在一个虚拟角色的情况下,该一个虚拟角色即为目标虚拟角色;若在3d场景中存在多个虚拟角色的情况下,则可以从多个虚拟角色中确定目标虚拟角色,具体地,可以通过如下(1)~(2)的方式从多个虚拟角色中确定目标虚拟角色。
154.(1)基于每个虚拟对象所携带的弹幕信息,从所述至少一个虚拟角色中确定与所述每个虚拟对象对应的目标虚拟角色。
155.(2)控制所述每个虚拟对象进入所述3d场景中,并向靠近与所述每个虚拟对象对应的目标虚拟角色的方向移动直至与所述目标虚拟角色接触。
156.示例性地,可以根据弹幕携带的用户标识,识别发送该弹幕的用户与哪个虚拟角色存在预设的关联关系,将与该用户存在关联关系的虚拟角色,确定为目标虚拟角色,例如,若发送该弹幕的用户只关注了其中一个虚拟角色,或者其用户名称包含其中一个虚拟角色的名字,则该将虚拟角色确定为目标虚拟角色。如此,可以增强用户的互动兴趣。
157.另外,还可以对弹幕进行语义识别,根据语义识别的内容,从多个虚拟角色中确定目标虚拟角色。例如,可以将多个虚拟角色根据性格或者所擅长的技能进行分类,得到每个虚拟角色的分类标签,然后根据识别到的语义的内容确定所述弹幕所属的类别标签,并将
该类别标签对应的虚拟角色确定为目标虚拟角色。例如,若其中一个虚拟角色的类别标签为“娱乐大王”,另一个虚拟角色的分类标签的“劳动模范”,通过语义识别,得到弹幕内容为“不想洗衣服”(如图4所示),则确定该弹幕与劳动有关,因此将标签为“劳动模范”的虚拟角色确定为目标虚拟角色。如此,用户可以在交互过程中变换不同的弹幕,进而更换不同的目标虚拟角色,提升了交互的趣味性。
158.s1052,识别所述虚拟对象与所述目标虚拟角色的接触部位,并根据所述接触部位的类型,确定与所述接触部位的类型对应的目标交互行为。
159.示例性地,可以预先根据不同的接触类型设定不同的交互行为,比如,若接触部位为目标虚拟角色的腿部,则可以设定“抱一抱”目标虚拟角色的交互行为,若接触部位为目标虚拟角色的脚部,则设定“踢开”的交互行为,若接触部位为目标虚拟角色的手臂部位,则设定“绕手臂转动”的交互行为,因此,在确定接触部位的类型后,即可确定与该接触部位对应的目标交互行为。
160.s1053,基于所述目标交互行为,控制所述虚拟对象与所述目标虚拟角色进行交互。
161.可以理解,在确定目标交互行为后,即可基于所述目标交互行为,控制所述虚拟对象与所述目标虚拟角色进行交互。在一些实施方式中,虚拟对象与目标虚拟角色的接触部位为脚部,与该脚部对应的目标交互行为为“踢开”的目标交互行为,也即,控制虚拟对象远离虚拟角色脚部的目标交互行为。因此,参见图7所示,针对步骤s1053,在基于所述目标交互行为,控制所述虚拟对象与所述目标虚拟角色进行交互时,可以包括以下s10531~s10533:
162.s10531,获取所述目标虚拟角色的脚部的控制信息。
163.s10532,基于所述控制信息驱动所述目标虚拟角色的脚部运动。
164.s10533,根据所述目标虚拟角色的脚部的运动状态,控制所述虚拟对象远离所述目标虚拟角色的移动状态。
165.示例性地,参见图8所示,可以通过戴在演员脚部的动作捕捉设备来获取目标虚拟角色a的脚部的控制信息,并基于所述控制信息驱动所述目标虚拟角色a的脚部运动,进而可以根据目标虚拟角色a的脚部的运动状态,控制所述虚拟对象b远离所述目标虚拟角色的移动状态。如此,可以使得虚拟对象与目标虚拟角色之间的交互更加逼真,提升用户的直播体验。
166.具体地,可以获取所述目标虚拟角色a的脚部的运动信息,并基于所述目标虚拟角色a的脚部的运动信息,控制所述虚拟对象b的移动状态。其中,所述虚拟角色a的脚部的运动信息由控制对象(演员)驱动生成,目标虚拟角色a的脚部的运动信息包括目标虚拟角色a脚部的运动方向、运动速度及运动加速度等信息,因此,基于该运动信息即可确定虚拟对象的移动方向、移动速度及移动加速度等信息,进而可以控制虚拟对象b的移动状态。如图8所示,针对不同的虚拟对象b,由于目标虚拟角色a的脚部的运动信息不同,导致不同的虚拟对象b的移动状态不同,也即,不同的虚拟对象b被“踢飞”的程度以及方向不同。
167.在另一些实施方式中,虚拟对象的移动状态还可以和目标虚拟角色的接触部位的着装的质感相匹配,例如,若目标虚拟角色的脚部穿着为毛茸茸的鞋子,则可以控制虚拟对象以较慢的第一移动状态离开所述目标虚拟角色,若目标虚拟角色的脚部穿着为质感光滑
的皮靴,则可以控制虚拟对象以较快的第二移动状态离开所述目标虚拟角色。如此,使得虚拟对象的移动状态和用户的感官一致,有利于增强用户的代入感,进一步提升用户的直播体验。
168.在一些实施方式中,所述3d场景信息还包括虚拟镜头,在所述虚拟对象的移动方向为朝向所述虚拟镜头方向的情况下,若所述虚拟对象的移动状态满足第二预设条件,获取并显示预设的与虚拟镜面碰撞的特效,如此,不仅增强了用户在直播过程中的观赏体验,还增强了直播过程中的趣味性。
169.其中,第二预设条件可以根据实际需求而设定,比如,在一些实施方式中,第二预设条件可以是虚拟对象的移动速度大于预设速度,也可以是虚拟对象的移动加速度大于预设加速度,此处不做限定。另外,预设的与虚拟镜面碰撞的特效可以根据虚拟对象的属性来确定,其中,属性包括但不限于虚拟对象的材质、类型等。比如,若虚拟对象为易碎的杯子,则与虚拟镜面碰撞的特效可以是玻璃碎裂的特效,若虚拟对象为不易碎的小动物,则与虚拟镜面碰撞的特效可以是虚拟对象与虚拟镜面碰撞后发生形变的特效,如图9所示,虚拟对象b与虚拟镜面碰撞后呈扁平状贴合在虚拟镜面上,并可延虚拟镜面向下滑动,也即,呈现撞击后边扁平并掉落的特效。
170.参见图10所示,在一些实施方式中,针对上述步骤s105,在控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互时,可以包括以下s105a~s105b:
171.s105a,获取所述至少一个虚拟角色在所述3d场景中的第一实时位置信息。
172.s105b,基于所述第一实时位置信息,控制所述至少一个虚拟对象相对于所述至少一个虚拟角色移动。
173.示例性地,请再次参阅图5,在至少一个虚拟对象b进入3d场景之后,需要获取所述至少一个虚拟角色在所述3d场景中的第一实时位置信息,基于所述第一实时位置信息,控制所述至少一个虚拟对象b相对于所述至少一个虚拟角色移动a移动,如此,可以使得虚拟对象b相对于虚拟角色a的移动更加精准。
174.在一些实施方式中,在至少一个虚拟对象b的数量为多个的情况下,参见图11所示,还可以获取多个虚拟对象b在所述3d场景中的第二实时位置信息,基于所述第二实时位置信息,控制多个虚拟对象b之间进行互动,例如,可以控制多个虚拟对象b之间相互靠近,集中互动。如此,提升了虚拟对象的交互行为的丰富性。
175.在另一些实施方式中,参见图12所示,针对上述步骤s105,在控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互时,还可以包括以下s105m~s105k:
176.s105m,确定每个虚拟对象携带的弹幕信息的用户资源信息。
177.s105n,基于所述用户资源信息,确定所述每个虚拟对象的运动状态。
178.s105k,基于所述运动状态,控制所述每个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互。
179.示例性地,参见图13、图14及图15,由于每个虚拟对象b是由不同的弹幕信息生成的,但是不同的弹幕信息也有可能是同一个用户发送的,因此,为了提升用户参与直播的趣味性,可以确定每个虚拟对象b携带的弹幕信息的用户资源信息,并基于用户资源信息,确
定所述每个虚拟对象的运动状态,其中,用户资源信息可以是用户的“点赞”信息,与虚拟形象的交互次数信息等确定每个虚拟对象的运动状态,具体可以为,“点赞”的用户对应的虚拟对象运动速度可以更快,没有点赞的用户对应的虚拟对象跑几步会跌倒。
180.比如,若用户的资源信息较多,则虚拟对象b可以以图13中较为轻盈愉悦的运动状态进入所述3d场景中与所述至少一个虚拟角色进行交互;若用户的资源信息中等,则虚拟对象b可以以图14中的常规稳健的运动状态进入所述3d场景中与所述至少一个虚拟角色进行交互;若用户的资源信息较少,则虚拟对象b可以以图15中的较为笨拙的运动状态进入所述3d场景中与所述至少一个虚拟角色进行交互。当然图13至图15中的运动状态仅仅是示意,其他实施方式中,还可以是其他的运动状态,或者是多个不同的状态相结合而形成的组合状态。如此,将虚拟对象的运动状态和用户的资源信息相结合,也即将虚拟对象和用户之间关联起来,提升了用户在直播过程中的参与感与趣味性。
181.参见图16所示,为本公开实施例提供的第二种虚拟对象控制方法的流程图,该第二种虚拟对象控制方法可以应用于直播平台,在一些可能的实现方式中,该第二种虚拟对象控制方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。该虚拟对象控制方法包括以下s201~s205:
182.s201,通过游戏平台获取直播视频流,所述直播视频流基于3d场景信息生成,所述3d场景信息用于渲染后生成3d场景,所述3d场景信息包含至少一个虚拟角色信息以及至少一个虚拟对象信息,所述虚拟角色信息用于渲染后生成虚拟角色,所述虚拟角色通过动作捕捉设备捕捉的控制信息驱动。
183.其中,步骤s201与前述步骤s101类似,在此不再赘述。
184.s202,将所述直播视频流发送到至少一个用户终端,以在所述用户终端展示与所述直播视频流相应的直播画面。
185.其中,步骤s202与前述步骤s102类似,在此不再赘述。
186.s203,获取用户终端发送的弹幕信息。
187.其中,步骤s203与前述步骤s103类似,在此不再赘述。
188.s204,将所述弹幕信息发送至游戏平台,以使得所述游戏平台基于所述弹幕信息以及所述至少一个虚拟对象信息生成至少一个虚拟对象,并控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互。
189.其中,步骤s204与前述步骤s104及步骤s105类似,在此不再赘述。
190.在一些实施方式中,直播平台还接收所述游戏平台发送的弹幕处理结果信息;在所述弹幕信息处理成功的情况下,将所述弹幕信息删除,不展示于所述直播画面中;其中,所述弹幕信息处理成功是指,所述弹幕信息与所述至少一个虚拟对象信息结合,并生成了所述至少一个虚拟对象。如此,可以避免显示的弹幕信息和生成的虚拟对象所携带的弹幕信息重复的情况发生,提升用户的直播体验。
191.本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
192.基于同一技术构思,本公开实施例中还提供了与虚拟对象控制方法对应的虚拟对象控制装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述虚拟对象控
制方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
193.参照图17所示,为本公开实施例提供的一种虚拟对象控制装置500的示意图,所述装置包括:
194.第一获取模块501,用于获取直播视频流,所述直播视频流基于3d场景信息生成,所述3d场景信息用于渲染后生成3d场景,所述3d场景信息包含至少一个虚拟角色信息以及至少一个虚拟对象信息,所述虚拟角色信息用于渲染后生成虚拟角色,所述虚拟角色通过动作捕捉设备捕捉的控制信息驱动;
195.第一发送模块502,用于发送所述直播视频流,以在用户终端展示与所述直播视频流相应的直播画面;
196.第二获取模块503,用于获取所述用户终端发送的弹幕信息;
197.第一生成模块504,用于在所述弹幕信息符合第一预设条件的情况下,基于所述弹幕信息以及所述至少一个虚拟对象信息生成至少一个虚拟对象;
198.交互模块505,用于控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互。
199.在一种可能的实施方式中,第二获取模块503具体用于:
200.通过直播平台获取所述用户终端发送的弹幕信息。
201.在一种可能的实施方式中,所述交互模块505具体用于:
202.控制所述至少一个虚拟对象进入所述3d场景中,并向靠近目标虚拟角色的方向移动直至与所述目标虚拟角色接触;
203.识别所述虚拟对象与所述目标虚拟角色的接触部位,并根据所述接触部位的类型,确定与所述接触部位的类型对应的目标交互行为;
204.基于所述目标交互行为,控制所述虚拟对象与所述目标虚拟角色进行交互。
205.在一种可能的实施方式中,所述交互模块505具体用于:
206.基于每个虚拟对象所携带的弹幕信息,从所述至少一个虚拟角色中确定与所述每个虚拟对象对应的目标虚拟角色;
207.控制所述每个虚拟对象进入所述3d场景中,并向靠近与所述每个虚拟对象对应的目标虚拟角色的方向移动直至与所述目标虚拟角色接触。
208.在一种可能的实施方式中,所述接触部位为所述目标虚拟角色的脚部,所述交互模块505具体用于:
209.获取所述目标虚拟角色的脚部的控制信息;
210.基于所述控制信息驱动所述目标虚拟角色的脚部运动;
211.根据所述目标虚拟角色的脚部的运动状态,控制所述虚拟对象远离所述目标虚拟角色的移动状态。
212.在一种可能的实施方式中,所述交互模块505具体用于:
213.获取所述目标虚拟角色的脚部的运动信息,所述运动信息由控制对象驱动生成;
214.基于所述运动信息,控制所述虚拟对象的移动状态。
215.在一种可能的实施方式中,所述3d场景信息还包括虚拟镜头,所述交互模块505具体用于:
216.在所述虚拟对象的移动方向为朝向所述虚拟镜头方向的情况下,若所述虚拟对象
的移动状态满足第二预设条件,获取并显示预设的与虚拟镜面碰撞的特效。
217.在一种可能的实施方式中,所述交互模块505具体用于:
218.获取所述至少一个虚拟角色在所述3d场景中的第一实时位置信息;
219.基于所述第一实时位置信息,控制所述至少一个虚拟对象相对于所述至少一个虚拟角色移动。
220.在一种可能的实施方式中,所述交互模块505具体用于:
221.获取所述至少一个虚拟对象在所述3d场景中的第二实时位置信息;
222.基于所述第二实时位置信息,控制所述至少一个虚拟对象之间进行互动。
223.在一种可能的实施方式中,所述交互模块505具体用于:
224.确定每个虚拟对象携带的弹幕信息的用户资源信息;
225.基于所述用户资源信息,确定所述每个虚拟对象的运动状态;
226.基于所述运动状态,控制所述每个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互。
227.参见图18所示,为本公开实施例提供的一种虚拟对象控制装置600的示意图,所述装置包括:
228.第三获取模块601,用于通过游戏平台获取直播视频流,所述直播视频流基于3d场景信息生成,所述3d场景信息用于渲染后生成3d场景,所述3d场景信息包含至少一个虚拟角色信息以及至少一个虚拟对象信息,所述虚拟角色信息用于渲染后生成虚拟角色,所述虚拟角色通过动作捕捉设备捕捉的控制信息驱动;
229.第二发送模块602,用于将所述直播视频流发送到至少一个用户终端,以在所述用户终端展示与所述直播视频流相应的直播画面;
230.第四获取模块603,用于获取所述用户终端发送的弹幕信息;
231.第三发送模块604,用于将所述弹幕信息发送至游戏平台,以使得所述游戏平台基于所述弹幕信息以及所述至少一个虚拟对象信息生成至少一个虚拟对象,并控制所述至少一个虚拟对象进入所述3d场景中与所述至少一个虚拟角色进行交互。
232.在一种可能的实施方式中,所述虚拟对象控制装置600还包括:
233.信息接收模块605,用于接收所述游戏平台发送的弹幕处理结果信息;
234.弹幕处理模块606,在所述弹幕信息处理成功的情况下,将所述弹幕信息删除,不展示于所述直播画面中;其中,所述弹幕信息处理成功是指,所述弹幕信息与所述至少一个虚拟对象信息结合,并生成了所述至少一个虚拟对象。
235.关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。
236.基于同一技术构思,本公开实施例还提供了一种电子设备。参照图19所示,为本公开实施例提供的电子设备700的结构示意图,包括处理器701、存储器702、和总线703。其中,存储器702用于存储执行指令,包括内存7021和外部存储器7022;这里的内存7021也称内存储器,用于暂时存放处理器701中的运算数据,以及与硬盘等外部存储器7022交换的数据,处理器701通过内存7021与外部存储器7022进行数据交换。
237.本技术实施例中,存储器702具体用于存储执行本技术方案的应用程序代码,并由处理器701来控制执行。也即,当电子设备700运行时,处理器701与存储器702之间通过总线
703通信,使得处理器701执行存储器702中存储的应用程序代码,进而执行前述任一实施例中所述的方法。
238.其中,存储器702可以是,但不限于,随机存取存储器(random access memory,ram),只读存储器(read only memory,rom),可编程只读存储器(programmable read-only memory,prom),可擦除只读存储器(erasable programmable read-only memory,eprom),电可擦除只读存储器(electric erasable programmable read-only memory,eeprom)等。
239.处理器701可能是一种集成电路芯片,具有信号的处理能力。上述的处理器可以是通用处理器,包括中央处理器(central processing unit,cpu)、网络处理器(network processor,np)等;还可以是数字信号处理器(dsp)、专用集成电路(asic)、现场可编程门阵列(fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
240.可以理解的是,本技术实施例示意的结构并不构成对电子设备700的具体限定。在本技术另一些实施例中,电子设备700可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
241.本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中的虚拟对象控制方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。
242.本公开实施例还提供一种计算机程序产品,该计算机程序产品承载有程序代码,所述程序代码包括的指令可用于执行上述方法实施例中的虚拟对象控制方法的步骤,具体可参见上述方法实施例,在此不再赘述。
243.其中,上述计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(software development kit,sdk)等等。
244.所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
245.所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
246.另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
247.所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(read-only memory,rom)、随机存取存储器(random access memory,ram)、磁碟或者光盘等各种可以存储程序代码的介质。
248.最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献