一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种图像数据处理方法、装置以及计算机可读存储介质与流程

2021-09-07 19:22:00 来源:中国专利 TAG:数据处理 装置 可读 图像 计算机


1.本技术涉及数据处理的技术领域,尤其涉及一种图像数据处理方法、装置以及计算机可读存储介质。


背景技术:

2.针对现有的游戏直播场景,在游戏直播画面中可以显示用户所录入的评论性言论,该评论性言论在游戏直播画面中可以以弹幕的形式进行显示。由于一个游戏所面向的用户众多,每个用户都可以在观看游戏直播时录入弹幕,因此,游戏直播画面中所显示的弹幕的数量也会异常地多。
3.现有技术中,通常是直接将所有的弹幕在游戏直播画面中进行流动显示,因此,这众多的弹幕就很有可能会对游戏直播画面中的游戏角色造成遮挡,导致游戏直播画面中各个游戏角色的显示效果差。
4.申请内容
5.本技术提供了一种图像数据处理方法、装置以及计算机可读存储介质,可在图像上显示多媒体数据时,提升图像中虚拟用户对象的显示效果。
6.本技术一方面提供了一种图像数据处理方法,包括:
7.获取图像中虚拟用户对象所在的第一对象图像区域;第一对象图像区域是根据虚拟用户对象集群对应的相似虚拟属性对象所获取到的;虚拟用户对象集群包含虚拟用户对象;虚拟用户对象与相似虚拟属性对象在图像中具备相对位置关系;
8.获取用于在图像上独立显示的多媒体数据;
9.对处于第一对象图像区域中的多媒体数据进行隐藏显示,对处于背景图像区域中的多媒体数据与背景图像区域进行叠加显示;背景图像区域为图像中除第一对象图像区域之外的图像区域。
10.本技术一方面提供了一种图像数据处理装置,包括:
11.识别模块,用于获取图像中虚拟用户对象所在的第一对象图像区域;第一对象图像区域是根据虚拟用户对象集群对应的相似虚拟属性对象所获取到的;虚拟用户对象集群包含虚拟用户对象;虚拟用户对象与相似虚拟属性对象在图像中具备相对位置关系;
12.获取模块,用于获取用于在图像上独立显示的多媒体数据;
13.显示模块,用于对处于第一对象图像区域中的多媒体数据进行隐藏显示,对处于背景图像区域中的多媒体数据与背景图像区域进行叠加显示;背景图像区域为图像中除第一对象图像区域之外的图像区域。
14.其中,识别模块,包括:
15.匹配获取单元,用于获取包含相似虚拟属性对象的匹配图像;
16.遍历单元,用于将匹配图像在图像中进行滑动遍历,得到图像中匹配图像对应的匹配图像区域;匹配图像区域与匹配图像具备图像相似性;
17.区域确定单元,用于根据匹配图像区域,确定第一对象图像区域。
18.其中,遍历单元,包括:
19.比例获取子单元,用于获取图像对应的第一缩放比例,获取匹配图像对应的第二缩放比例;
20.比例确定子单元,用于若第一缩放比例不等于第二缩放比例,则获取统一缩放比例;
21.缩放子单元,用于根据统一缩放比例对图像和匹配图像进行缩放,得到缩放图像和缩放匹配图像;
22.第一遍历子单元,用于将缩放匹配图像在缩放图像上进行滑动遍历,得到匹配图像区域。
23.其中,遍历单元,包括:
24.步长获取子单元,用于获取滑动步长,基于滑动步长将匹配图像在图像中进行滑动遍历;
25.覆盖获取子单元,用于获取匹配图像进行滑动遍历之后的滑动位置,在图像中滑动位置处,获取匹配图像对应的覆盖区域图像;
26.相似匹配子单元,用于对覆盖区域图像和匹配图像进行图像相似匹配,得到图像匹配度;
27.第一区域确定子单元,用于当图像匹配度大于或者等于图像匹配度阈值时,将图像中覆盖区域图像所指向的图像区域,确定为匹配图像区域。
28.其中,遍历单元,包括:
29.灰度图获取子单元,用于获取图像对应的第一灰度图像,获取匹配图像对应的第二灰度图像;
30.第二遍历子单元,用于将第二灰度图像在第一灰度图像中进行滑动遍历,得到匹配图像对应的匹配图像区域。
31.其中,虚拟用户对象为游戏角色对象;相似虚拟属性对象为游戏角色对象对应的血条对象;匹配图像为包含血条对象的图像。
32.其中,匹配图像区域包括第一图像匹配区域和第二图像匹配区域;
33.区域确定单元,包括:
34.位置获取子单元,用于获取第一匹配图像区域在图像中的第一匹配位置,获取第二匹配图像区域在图像中的第二匹配位置;
35.第一目标确定子单元,用于当第一匹配位置与第二匹配位置之间的位置距离小于或者等于距离阈值时,将第一匹配位置或第二匹配位置确定为目标位置,根据目标位置,确定第一对象图像区域;
36.第二目标确定子单元,用于当第一匹配位置和第二匹配位置之间的位置距离大于距离阈值时,将第一匹配位置和第二匹配位置均确定为目标位置,根据目标位置,确定第一对象图像区域。
37.其中,第一目标确定子单元,包括:
38.区域获取子单元,用于当存在至少两个目标位置时,在图像中获取每个目标位置分别对应的位置图像区域;位置图像区域为虚拟用户对象所在的区域;
39.区域合并子单元,用于将每个目标位置分别对应的位置图像区域进行区域合并,
得到第一对象图像区域。
40.其中,第一目标确定子单元,包括:
41.第一获取子单元,用于获取相似虚拟属性对象的对象宽度和相似虚拟属性对象的对象长度;
42.第二区域确定子单元,用于根据目标位置、相似虚拟属性对象的对象宽度和相似虚拟属性对象的对象长度,确定相似虚拟属性对象在图像中的第二对象图像区域;
43.第三区域确定子单元,用于根据第二对象图像区域和虚拟用户对象,确定第一对象图像区域。
44.其中,第三区域确定子单元,包括:
45.第二获取子单元,用于获取虚拟用户对象的对象高度,获取虚拟用户对象的对象长度;
46.第四区域确定子单元,用于根据虚拟用户对象的对象高度、虚拟用户对象的对象长度、第二对象图像区域在图像中的区域位置以及虚拟用户对象和第二对象图像区域在图像中的相对位置,确定第一对象图像区域。
47.其中,显示模块,包括:
48.蒙版设置单元,用于将所述第一对象图像区域设置为蒙版图像区域;
49.隐藏显示单元,用于基于所述蒙版图像区域,对处于所述第一对象图像区域中的多媒体数据进行隐藏显示。
50.本技术一方面提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行如本技术中一方面中的方法。
51.本技术一方面提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序包括程序指令,该程序指令当被处理器执行时使该处理器执行上述一方面中的方法。
52.本技术获取图像中虚拟用户对象所在的第一对象图像区域;第一对象图像区域是根据虚拟用户对象集群对应的相似虚拟属性对象所获取到的;虚拟用户对象集群包含虚拟用户对象;虚拟用户对象与相似虚拟属性对象在图像中具备相对位置关系;获取用于在图像上独立显示的多媒体数据;对处于第一对象图像区域中的多媒体数据进行隐藏显示,对处于背景图像区域中的多媒体数据与背景图像区域进行叠加显示;背景图像区域为图像中除第一对象图像区域之外的图像区域。由此可见,本技术提出的方法可以通过虚拟用户对象的相似虚拟属性对象,来识别虚拟用户对象在图像中所在的图像区域(即第一对象图像区域),进而实现在图像中显示多媒体数据时,该多媒体数据不会对图像中的虚拟用户对象造成遮挡。
附图说明
53.为了更清楚地说明本技术或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
54.图1是本技术提供的一种系统架构示意图;
55.图2a是本技术提供的一种区域识别的场景示意图;
56.图2b是本技术提供的一种终端的页面示意图;
57.图3是本技术提供的一种图像数据处理方法的流程示意图;
58.图4是本技术提供的一种获取目标位置的场景示意图;
59.图5是本技术提供的一种获取对象图像区域的场景示意图;
60.图6是本技术提供的一种区域合并的场景示意图;
61.图7是本技术提供的另一种终端的页面示意图;
62.图8是本技术提供的一种图像数据处理装置的结构示意图;
63.图9是本技术提供的一种计算机设备的结构示意图。
具体实施方式
64.下面将结合本技术中的附图,对本技术中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
65.请参见图1,是本技术提供的一种系统架构示意图。如图1所示,该系统架构示意图包括服务器100以及多个终端设备,多个终端设备具体包括终端设备200a、终端设备200b和终端设备200c。其中,终端设备200a、终端设备200b和终端设备200c均能通过网络与服务器100之间相互通信,终端设备可以是手机、平板电脑、笔记本电脑、掌上电脑、移动互联网设备(mobile internet device,mid)、可穿戴设备(例如智能手表、智能手环等)。此处以终端设备200a、终端设备200b与服务器100之间的通信为例进行说明。
66.终端设备200a中包括直播客户端,主播可以通过该直播客户端进行游戏直播,终端设备200b中包括观众客户端,观众可以通过该观众客户端观看主播的游戏直播。在主播通过直播客户端进行游戏直播的过程中,终端设备200a可以捕捉到游戏直播中的每一帧游戏画面,每一帧游戏画面都对应有一个游戏画面图像(可以称之为一帧游戏画面图像)。由于本方案是需要实现游戏画面中弹幕对游戏角色(即游戏人物)不造成遮挡,因此,需要识别每个游戏画面图像中的游戏角色所在的图像区域,并需要将该图像区域设置为蒙版图像区域。其中,蒙版图像区域指被保护的图像区域,后续,在游戏画面图像中显示弹幕时,弹幕在该蒙版图像区域中可以不进行显示。其中,识别每个游戏画面图像中游戏角色所在的图像区域可以是由终端设备200a来执行,也可以是由服务器100来执行。换句话说,得到每个游戏画面图像中的蒙版图像区域可以是由终端设备200a来执行,也可以是由服务器100来执行。
67.若是由终端设备200a来识别获取每个游戏画面图像中的蒙版图像区域,则后续,终端设备200a可以将获取到的每个游戏画面图像以及识别出的每个游戏画面图像中的蒙版图像区域(包括蒙版图像区域的区域大小以及区域位置)发送给服务器100。接着,服务器100可以将获取到的每个游戏画面图像以及每个游戏画面图像中的蒙版图像区域发送给终端设备200b。终端设备200b可以根据获取到的每个游戏画面图像中的蒙版图像区域,在观众客户端中显示每个游戏画面图像以及获取到的弹幕(指用户的评论性言论),弹幕在每个游戏画面图像中的蒙版图像区域中不进行显示(可以理解为隐藏显示),弹幕在每个游戏画
面图像中除蒙版图像区域之外的图像区域中正常显示。
68.若是由服务器100来识别获取每个游戏画面图像中的蒙版图像区域,则首先,终端设备200a可以将通过直播客户端获取到的每一帧游戏画面图像发送至服务器100,服务器100可以对每一帧游戏画面图像中游戏角色所在的图像进行识别,同样,可以得到每一帧游戏画面图像中的蒙版图像区域。接着,服务器100可以将获取到每一帧游戏画面图像和识别出的每一帧游戏画面图像中的蒙版图像区域一并发送至终端设备200b。终端设备200b可以根据获取到的每个游戏画面图像中的蒙版图像区域,在观众客户端中显示每个游戏画面图像以及获取到的弹幕(指用户的评论性言论),弹幕在每个游戏画面图像中的蒙版图像区域中不进行显示(可以理解为隐藏显示),弹幕在每个游戏画面图像中除蒙版图像区域之外的图像区域中正常显示。
69.其中,本技术中主要描述了如何对游戏画面图像中游戏角色所在的图像区域进行识别,下述图2a对应的实施例中具体描述了如何对游戏画面图像中的游戏角色所在的图像区域进行识别。由于识别每一个游戏画面图像中的游戏角色所在的图像区域的方法均相同且相互独立,因此,图2a对应的实施例中是以对一个游戏画面图像中的游戏角色所在的图像区域进行识别。图2a对应的实施例中的执行主体可以是终端设备200a中的直播客户端,也可以是服务器100。实际上,图2a对应的实施例中的执行主体也可以是终端设备200b中的观众客户端,只是一般采用终端设备200a中的直播客户端或者服务器100作为识别游戏画面图像中的游戏角色所在的图像区域的执行主体。
70.请参见图2a,是本技术提供的一种区域识别的场景示意图。由于对于游戏画面图像中的每个游戏角色而言,不同的游戏角色具有不同的技能,每个技能在被释放时,被释放的每个技能在游戏画面图像中所显示的技能特效也不同。因此,如果直接对游戏画面图像中的图像内容进行识别,以通过识别出游戏画面图像中的每个游戏角色来确定每个游戏角色所在的图像区域,这会导致识别不准确,且识别难度极大。本技术主要是通过每个游戏角色都具备的特征物来帮助识别出每个游戏角色在游戏画面图像中所在的图像区域,该特征物即是每个游戏角色都具有的血条。如图2a所示,首先,可以准备一个包含血条的模板图像100a。从图2a中可以看出,模板图像100a中只包括了血条的部分图像。这是因为,每个游戏角色在不同游戏状态下,血条中显示的游戏等级、血条中的血量多少以及技能冷却状态都不尽相同,因此,可以选择一个在大多数情况下,每个游戏角色在不同游戏状态下血条的图像都相似的部分图像,该部分图像在此处可以指靠近血条的头部的部分图像。模板图像100a中的游戏等级可以是任意游戏等级,例如1到15级的任意一级。
71.如图2a所示,图像101a为一个游戏画面图像,在图像101a中包括3个游戏角色,该3个游戏角色分别为游戏角色101c、游戏角色103c以及游戏角色105c。其中,游戏角色101c的血条为血条100c,游戏角色103c的血条为血条102c,游戏角色105c的血条为血条104c。可以看出血条100c、血条102c和血条104c中的血量多少、技能冷却状态和游戏等级都不同。可以将上述模板图像100a在图像101a中进行滑动匹配,可以理解为是将模板图像100a放置在图像101a之上(如界面102a所示),依次挪动模板图像100a在图像101a中的放置位置,每挪动到一个放置位置,则将模板图像100a与模板图像100a在图像101a中对图像101a造成覆盖遮挡区域的图像(可以将该图像称之为覆盖区域图像)之间进行图像相似度的匹配。通过此种滑动匹配方式,即可得到在图像101a中与模板图像100a相似的图像区域。如图2a所示,通过
上述滑动匹配方式,可以得到图像101a中与模板图像100a相似的图像区域为区域100b、区域101b以及区域102b(如界面103a所示)。
72.由于每个游戏角色的血条通常具有相同的长度和相同的宽度,且该长度和宽度通常为固定值,因此,可以获取到血条的长度和血条的宽度。如界面104a所示,可以将图像区域100b中左上角的位置作为基准点,再根据血条的长度和血条的宽度,得到识别出的游戏角色101c的血条所在区域103b。血条所在区域103b的区域长度为血条的长度,区域宽度为血条的宽度,区域的左上角即为图像区域100b对应的基准点。可以将图像区域101b中左上角的位置作为基准点,再根据血条的长度和血条的宽度,得到识别出的游戏角色103c的血条所在区域105b。血条所在区域105b的区域长度为血条的长度,区域宽度为血条的宽度,区域的左上角即为图像区域101b对应的基准点。可以将图像区域102b中左上角的位置作为基准点,再根据血条的长度和血条的宽度,得到识别出的游戏角色105c的血条所在区域104b。血条所在区域104b的区域长度为血条的长度,区域宽度为血条的宽度,区域的左上角即为图像区域102b对应的基准点。
73.由于每个游戏角色与其血条的位置通常是上下位置关系,即每个游戏角色的血条分别在每个游戏角色的正上方,因此,可以将识别出的血条所在区域的长度作为对应的游戏角色所在区域的长度(水平长度)。此外,由于本技术中是通过游戏角色的血条在图像101a中的所在图像区域来定位游戏角色在图像101a中的所在图像区域,因此,不对不同游戏角色进行区分。则可以设定一个游戏角色的高度,每个游戏角色对应于同一个高度。如界面105a所示,可以以血条所在区域103b的区域下边缘作为对应的游戏角色所在区域的上边缘,再通过获取到的游戏角色的高度,即可得到游戏角色101c在图像101a中的所在区域106b,区域106b的区域高度即为游戏角色的高度。可以以血条所在区域104b的区域下边缘作为对应的游戏角色所在区域的上边缘,再通过获取到的游戏角色的高度,即可得到游戏角色105c在图像101a中的所在区域108b,区域108b的区域高度即为游戏角色的高度。可以以血条所在区域105b的区域下边缘作为对应的游戏角色所在区域的上边缘,再通过获取到的游戏角色的高度,即可得到游戏角色103c在图像101a中的所在区域107b,区域107b的区域高度即为游戏角色的高度。
74.可以将血条所在区域103b和游戏角色所在区域106b进行合并得到游戏角色101c对应的蒙版图像区域1109b。可以将血条所在区域105b和游戏角色所在区域107b进行合并得到游戏角色103c对应的蒙版图像区域110b。可以将血条所在区域104b和游戏角色所在区域108b进行合并得到游戏角色105c对应的蒙版图像区域111b。因此,最终得到的图像101a中的蒙版图像区域包括蒙版图像区域109b、蒙版图像区域110b和蒙版图像区域111b。可以将上述图像101a和图像101a中的蒙版图像区域(包括蒙版图像区域的大小和位置)发送给终端设备200b,终端设备200b在获取到图像101a和图像101a中的蒙版图像区域之后,可以在观众客户端中显示图像101a以及获取到的弹幕,该弹幕在图像101a中的蒙版图像区域中不显示,在图像101a的除蒙版图像区域之外的图像区域中正常显示。请参见图2b,是本技术提供的一种终端的页面示意图。终端页面107a为终端设备200b中的观众客户端显示图像101a以及弹幕的页面,为了便于说明本技术所提供的方法,在终端页面107a中显示了在图2a中所得到的蒙版图像区域109b、蒙版图像区域110b和蒙版图像区域111b。由终端页面107a可以看出,弹幕(包括“快点放大招呀”、“666666666”、“完了完了”、“国服第一刺客”、

加油”、“房管来了”、“辅助跟不上阿”以及“233333”)在蒙版图像区域109b、蒙版图像区域110b和蒙版图像区域111b中不显示,而在非蒙版图像区域109b、非蒙版图像区域110b和非蒙版图像区域111b的图像区域中正常显示。实际上,终端设备200b中的观众客户端所显示的图像101b以及弹幕为终端页面108a中所显示的样子。
75.在游戏中,游戏人物头顶一般都带着血条信息,而血条信息除了血量多少会产生变化,其他都是固定的。因此在本实施例中,通过定位游戏人物的血条位置,定位游戏人物所在的位置。因此目标检测问题可简化成图像匹配问题,通过图像匹配得到弹幕蒙版区域,最终在用户端生成不遮挡的视频弹幕,以这种方法检测游戏人物所在的位置不仅精确度高,而且检测速度快,可以满足实时要求。通过本技术所提供的方法,由于是通过与每个游戏角色相关联的血条来获取每个游戏角色在游戏画面图像中所在的图像区域,因此,无需通过图像识别来识别出游戏画面图像中的每个游戏角色的所在图像区域,只需要将模板图像100a在游戏画面图像中进行滑动匹配即可(即只需对比模板图像与覆盖区域图像之间的相似度),提高了获取每个游戏角色在游戏画面图像中的所在图像区域的效率。因此,可以以较快的速度获取到每一帧游戏画面图像中的蒙版图像区域,使得观众客户端也可以较快地获取到每一帧游戏画面图像以及每一帧游戏画面图像中的蒙版图像区域,实现实时地对每一帧游戏画面图像进行显示(显示的方式为在蒙版图像区域中隐藏显示弹幕)。
76.请参见图3,是本技术提供的一种图像数据处理方法的流程示意图,如图3所示,方法可以包括:
77.步骤s101,获取图像中虚拟用户对象所在的第一对象图像区域;第一对象图像区域是根据虚拟用户对象集群对应的相似虚拟属性对象所获取到的;虚拟用户对象集群包含虚拟用户对象;虚拟用户对象与相似虚拟属性对象在图像中具备相对位置关系;
78.具体的,本技术可应用在游戏直播场景中,用户客户端(指可以观看游戏直播的客户端,该用户客户端可以是浏览器或者是视频播放器)可以获取到虚拟用户对象在图像中所在的第一对象图像区域。其中,该图像可以是在游戏直播过程中所获取到的游戏画面中的任意一帧游戏画面图像,虚拟用户对象指游戏应用中的游戏角色,即游戏人物。由此可知,虚拟用户对象集群也就是游戏中所有游戏角色所构成的集群。由于在游戏过程中,每个虚拟用户对象都有其对应的血条,该血条表征了每个虚拟用户对象在游戏过程中的生命体征。因此,虚拟用户对象集群对应的相似虚拟属性对象可以指每个虚拟用户对象都具有的血条对象,在不同的游戏状态中,每个虚拟用户对象对应的血条对象的显示形态也会有所差异(例如血条对象中的血量会有所差异,血条对象中技能冷却状态会有所差异)。
79.由于,在实际的游戏直播应用场景中,一个游戏应用中会有若干个虚拟用户对象,每个虚拟用户对象所具备的技能也各不相同,每个技能在被释放时,其所显示的技能特效也不相同。因此,若是直接通过图像识别来识别图像中的虚拟用户对象,进而通过识别结果来得到虚拟用户对象在图像中所在的图像区域,会不准确,且识别难度极大。因此,本技术所提供的方法,是通过每个虚拟用户对象都具备的相似虚拟属性对象(即血条对象)来帮助获取到虚拟用户对象在图像中所在的图像区域。原因为:通常在一个游戏应用的游戏画面中,一个虚拟用户对象对应有一个相似虚拟属性对象,虚拟用户对象与其相似虚拟属性对象在游戏画面中是同时显示的。某个虚拟用户对象与其对应的相似虚拟属性对象之间具备相对位置关系,该相对位置关系可以表征虚拟用户对象与其相似虚拟属性对象之间的相对
位置。该相对位置可以包括虚拟用户对象的所在图像区域和对应的相似虚拟属性对象的所在图像区域之间的区域相对位置,例如该两个所在图像区域之间对应顶点(所在图像区域可以是矩形区域,因此可以包括区域左下角的顶点、区域左上角的顶点、区域右下角的顶点和区域右上角的顶点)之间的相对位置。虚拟用户集群中的每个虚拟用户对象与其对应的相似虚拟属性对象之间的相对位置关系均相同。因此,可以理解的是,不用对不同虚拟用户对象进行区分,当检测到了相似虚拟属性对象在图像中的所在图像区域之后,可以将相似虚拟属性对象的所在图像区域结合上相似虚拟属性对象与虚拟用户对象之间的相对位置,来得到对应的虚拟用户对象在图像中的所在图像区域。
80.可以将虚拟用户对象在图像中所在的图像区域称之为第一对象图像区域,将相似虚拟属性对象在图像中所在的图像区域称之为第二对象图像区域。在本技术中,主要描述了如何确定一个图像中的虚拟用户对象所在的图像区域,可以理解的是,在游戏直播过程中,可以获取到若干帧游戏直播画面中的图像,并且识别所获取到的每帧图像中的虚拟用户对象所在的图像区域的过程均相同且相互独立。
81.其中,本技术中需要识别虚拟用户对象所在的图像区域(即第一对象图像区域)的每帧图像均可以是由直播客户端所获取到的。其中,直播客户端指用于支持主播进行游戏直播的客户端,在主播进行游戏直播的过程中,直播客户端可以获取到主播的游戏直播过程中的每一帧游戏画面图像。下述对用户客户端所获取到的第一对象图像区域(包括第一对象图像区域在图像中的区域大小和区域位置)进行说明。
82.可选的,用户客户端获取到的第一对象图像区域可以是上述直播客户端通过识别图像中的虚拟用户对象所在的图像区域而得到的,也可以是服务器通过识别图像中的虚拟用户对象所在的图像区域而得到的,还可以是用户客户端自己通过识别图像中的虚拟用户对象所在的图像区域而得到的。即直播客户端、服务器和用户客户端均可以作为得到图像中的第一对象图像区域的执行主体,直播客户端、服务器和用户客户端如何识别得到图像中的第一对象图像区域的原理均相同(即识别过程相同)。
83.若上述第一对象图像区域是由直播客户端通过识别图像中的虚拟用户对象所在的图像区域而得到的,则用户客户端获取到第一对象图像区域的过程可以是:
84.支持主播通过直播客户端进行游戏直播,在游戏直播过程中,直播客户端可以获取到主播在进行游戏直播时游戏画面中的每一帧游戏画面图像,该游戏画面图像可以是上述第一对象图像区域所在的图像。直播客户端可以对图像中的虚拟用户对象所在的图像区域进行识别(具体识别过程参见下述),并得到虚拟用户对象在图像中的第一对象图像区域。直播客户端可以将获取到的第一对象图像区域以及该第一对象图像区域对应帧的图像发送至服务器,服务器可以将该第一对象图像区域以及对应帧的图像转发至用户客户端。换句话说,在这种场景下,用户客户端获取到的第一对象图像区域以及该第一对象图像区域所在的图像首先是由直播客户端发送给服务器,再由服务器转发给自己的。
85.若上述第一对象图像区域是由服务器通过识别图像中的虚拟用户对象所在的图像区域而得到的,则用户客户端获取到第一对象图像区域的过程可以是:
86.首先,直播客户端可以在主播进行游戏直播的过程中,获取到游戏直播过程中每一帧游戏画面,一帧游戏画面对应于一个图像。直播客户端可以将获取到的每一个图像发送至服务器,服务器可以对图像中的虚拟用户对象所在的图像区域进行识别,并得到图像
中虚拟用户对象所在的第一对象图像区域。服务器可以将获取到的第一对象图像区域以及该第一对象图像区域所在的图像发送至用户客户端。
87.若上述第一对象图像区域是由用户客户端自己通过识别图像中的虚拟用户对象所在的图像区域而得到的,则用户客户端获取到第一对象图像区域的过程可以是:
88.首先,直播客户端可以在主播进行游戏直播的过程中,获取到游戏直播过程中的每一帧游戏画面所对应的每一帧图像。直播客户端可以将获取到的每一帧图像发送至服务器,服务器可以将获取到的每一帧图像再发送至用户客户端。用户客户端在获取到每一帧图像之后,可以自行识别并得到图像中虚拟用户对象所在的第一对象图像区域。
89.需要进行说明的是,在实际应用场景中,通常是由直播客户端或者服务器来识别以获取到图像中虚拟用户对象所在的第一对象图像区域,但是,在某些场景中,也可以由用户客户端来实现对图像的识别以获取到虚拟用户对象在图像中的第一对象图像区域。
90.下述以执行主体为用户客户端为例,对如何获取图像中虚拟用户对象所在的第一对象图像区域进行具体说明,可以理解的是,若是由直播客户端或者服务器来识别图像中虚拟用户对象所在的第一对象图像区域,此间识别过程与下述过程相同:
91.由于本技术所提供的方法是通过虚拟用户对象集群对应的相似虚拟属性对象,间接来定位虚拟用户对象在图像中所在的图像区域(即第一对象图像区域),因此,首先需要识别出相似虚拟属性对象在图像中所在的图像区域。在本技术所提供的方法中,采用的相似虚拟属性对象为每个虚拟用户对象都具备的血条对象,在某些场景下,相似虚拟属性对象还可以是与虚拟用户对象相关联的其他对象,一个虚拟用户对象对应于一个相似虚拟属性对象。由于相似属性对象与对应的虚拟用户对象在图像中的相对位置具备一定的规律(例如相互之间的距离是多少,上下左右方向上相互之间的排版规律等),因此,可以通过相似属性对象在图像中所在的图像区域推算出对应的虚拟用户对象在图像中所在的图像区域。下述为如何确定相似虚拟属性对象在图像中所在的第二对象图像区域的过程:
92.首先,可以获取包含相似虚拟属性对象的匹配图像,该匹配图像中可以包含部分的相似虚拟属性对象,也可以包含全部的相似虚拟属性对象。在本技术中,相似虚拟属性对象为血条对象。由于在游戏直播过程中,虚拟用户对象对应的血条对象的显示形态可能是实时动态变化的,例如血条对象中所显示的血量多少的变化、血条对象中所显示的角色游戏等级的变化以及血条对象中所显示的技能冷却状态的变化等。因此,匹配图像最好能够包含在游戏直播过程中,多种显示形态下的血条对象均具有的相似部分对象。可选的,可以将包含靠近血条对象的头部的部分对象的图像作为匹配图像(例如上述图2a中的模板图像100a),匹配图像中可以包含血条对象的头部(即包含角色游戏等级的部分对象)以及靠近血条对象的头部的2格血(例如血条中一共有10格血,但是只取靠近血条的头部的2格血,也可以是0格血或者1格血等,具体根据实际应用场景决定,对此不作限制)。
93.可以将匹配图像在游戏直播过程中获取到的图像上进行滑动遍历,可以获取用于进行滑动遍历的滑动步长,可以根据该滑动步长将匹配图像在图像中进行滑动遍历,进行滑动遍历的过程也就是进行图像匹配的过程。举个例子,滑动步长可以是1个像素点(也可以是2个像素点或者3个像素点等,具体根据实际应用场景决定,对此不作限制),则该滑动遍历可以理解为是将匹配图像放置在图像上依次滑动,每次在图像中滑动的距离为1个像素点。换句话说,匹配图像在图像中每隔1个像素点的距离滑动1次。可以获取匹配图像进行
滑动遍历后在图像中的滑动位置,匹配图像每在图像中滑动1次都对应有1个滑动位置。可以获取匹配图像在每个滑动位置处,对图像造成覆盖遮挡处的覆盖区域图像,1个滑动位置对应于1个覆盖区域图像。可以将匹配图像与每个覆盖区域图像进行图像相似匹配,即匹配覆盖区域图像与匹配图像之间的相似度,可以得到图像匹配度,一个覆盖区域图像对应于一个图像匹配度。可以设定一个图像匹配度阈值,可以将图像匹配度大于或者等于图像匹配度阈值的覆盖区域图像在图像中的图像区域称之为匹配图像区域。匹配图像区域可以有多个,可以将该匹配图像区域先记录下来,该匹配图像区域所对应的覆盖区域图像即为匹配出的图像中与匹配图像具备图像相似性的局部图像。换句话说,该匹配图像区域所对应的覆盖区域图像与匹配图像具备较高的相似度(也可以称之为匹配度)。其中,对匹配图像与覆盖区域图像之间进行图像相似度的匹配的算法可以是opencv(一个基于伯克利软件套件许可发行的跨平台计算机视觉库)自带的matchtemplate(一种模板匹配函数)。
94.得到上述匹配图像区域时还有可能有以下几种情况:
95.第一种,由于匹配图像与图像(用于识别得到第一对象图像区域的游戏画面图像)所对应的缩放比例可能不同,这会导致在将匹配图像放置于图像上进行滑动遍历时,匹配图像与图像中相似虚拟属性对象的图像区域不能契合。换句话说,这会导致即使匹配图像滑动到了图像中相似虚拟属性对象的位置处,由于匹配图像过大或者过小,匹配图像所对应的覆盖区域图像也会过大或者过小。覆盖区域图像过大,则表明覆盖区域图像中除了包含相似虚拟属性对象之外,还包含了图像中相似虚拟属性对象的一些背景图像。覆盖区域图像过小,则表明覆盖区域图像中只包含了相似虚拟属性对象的很少部分的对象内容。这都会导致在将匹配图像与覆盖区域图像之间进行相似匹配时,得到的匹配结果并不准确。因此,需要将匹配图像的缩放比例与图像的缩放比例统一到一致。下述描述了如何将匹配图像的缩放比例与图像的缩放比例统一到一致:
96.可以将图像对应的缩放比例称之为第一缩放比例,将匹配图像对应的缩放比例称之为第二缩放比例。当第一缩放比例与第二缩放比例不相等时,则可以获取统一缩放比例,该统一缩放比例可以是任意的缩放比例(例如为50%)。可以通过该统一缩放比例对匹配图像进行缩放,得到缩放匹配图像。可以通过该统一缩放比例对图像进行缩放,得到缩放图像。进而,可以将缩放匹配图像在缩放图像中进行滑动遍历,得到上述匹配图像区域。
97.第二种,由于不同虚拟用户对象所具备的相似虚拟属性对象的颜色可能是不同的,因此,为了识别的准确性,需要将上述匹配图像以及图像进行灰度化。通过将匹配图像以及图像进行灰度化,可以解决相似虚拟属性对象颜色不同的问题。对图像进行灰度化,可以得到图像对应的灰度图,可以将图像对应的灰度图称之为第一灰度图。对匹配图像进行灰度化,可以得到匹配图像对应的灰度图,可以将匹配图像对应的灰度图称之为第二灰度图。可以将第二灰度图在第一灰度图中进行滑动遍历,得到上述匹配图像区域。
98.上述两种情况可以进行结合使用,具体为:得到缩放图像以及缩放匹配图像之后,可以将缩放图像和缩放匹配图像进行灰度化,进而将进行灰度化之后的缩放匹配图像在进行灰度化之后的缩放图像上进行滑动匹配,得到上述匹配图像区域。
99.可以得到每个匹配图像区域对应在图像中的匹配位置。通常,匹配图像区域为矩形的区域,因此,可以将匹配图像区域的左上角处的像素点在图像中的像素点位置作为匹配图像区域对应的匹配位置。假设上述获取到的匹配图像区域包括第一图像匹配区域和第
二图像匹配区域,由于获取到的匹配图像区域可以有多个,因此,第一图像匹配区域和第二图像匹配区域可以是该多个匹配图像区域中的任意两个匹配图像区域。可以通过上述方式,获取到第一图像匹配区域对应在图像中的匹配位置,可以将第一图像匹配区域对应的匹配位置称之为第一匹配位置。同理,可以获取到第二图像匹配区域对应在图像中的匹配位置,可以将第二图像匹配区域对应的匹配位置称之为第二匹配位置。
100.可以设定一个距离阈值(例如为1个像素距离或者2个像素距离等),当上述第一匹配位置和第二匹配位置之间的位置距离大于设定的距离阈值时,则表明第一匹配位置对应的第一图像匹配区域和第二匹配位置对应的第二图像匹配区域所指向的相似虚拟属性对象为同一个。因此,这种情形下,需要将第一匹配位置和第二匹配位置进行合并,合并的方式即为从第一匹配位置和第二匹配位置中选择出(可以是任意选择)一个匹配位置作为目标位置。进行一个合并之后的匹配位置不再与其他匹配位置进行合并。当上述第一匹配位置和第二匹配位置之间的位置距离大于所设定的距离阈值时,无需对第一匹配位置和第二匹配位置进行合并,可以将第一匹配位置和第二匹配位置均作为目标位置。通过此种方式,可以对每个图像匹配区域所对应的匹配位置进行合并,最终得到一个或者多个目标位置。一个目标位置对应于一个相似虚拟属性对象,即一个目标位置表明识别出图像中有1个血条对象,多个目标位置表明识别出图像中有多个血条对象。匹配图像、覆盖区域图像以及图像匹配区域的大小尺寸相同,都为匹配图像的大小尺寸。
101.请参见图4,是本技术提供的一种获取目标位置的场景示意图。如图4所示,图像100d为一帧游戏画面图像。图像100d中包括虚拟用户对象101j、虚拟用户对象103j以及虚拟用户对象105j。其中,虚拟用户对象101j对应的相似虚拟属性对象为虚拟属性对象100j,虚拟用户对象103j对应的相似虚拟属性对象为虚拟属性对象102j,虚拟用户对象105j对应的相似虚拟属性对象为虚拟属性对象104j。在虚拟属性对象100j、虚拟属性对象102j和虚拟属性对象104j中的血量多少以及技能冷却状态均不相同。可以将匹配图像106j在图像100d上进行滑动匹配,可以得到图像匹配区域100e、图像匹配区域101e、图像匹配区域102e、图像匹配区域108e、图像匹配区域109e以及图像匹配区域111e。其中,通常在将匹配图像在图像中进行滑动匹配时,对于图像中的一个相似虚拟属性对象会得到多个图像匹配区域(例如3个或者5个等)。此处,如图4所示,上述图像匹配区域100e、图像匹配区域101e、图像匹配区域102e对应于虚拟属性对象100j;图像匹配区域108e和图像匹配区域109e对应于虚拟属性对象104j;图像匹配区域111e对应于虚拟属性对象102j。
102.接着,如界面101d所示,可以得到图像匹配区域100e的匹配位置103e(匹配位置103e即为图像匹配区域100e的区域左上角的位置)、图像匹配区域101e的匹配位置104e(匹配位置104e即为图像匹配区域101e的区域左上角的位置)、图像匹配区域102e的匹配位置105e(匹配位置105e即为图像匹配区域102e的区域左上角的位置)、图像匹配区域108e的匹配位置106e(匹配位置106e即为图像匹配区域108e的区域左上角的位置)、图像匹配区域109e的匹配位置107e(匹配位置107e即为图像匹配区域109e的区域左上角的位置),以及图像匹配区域111e的匹配位置110e(匹配位置110e即为图像匹配区域111e的区域左上角的位置)
103.如界面102d所示,由于匹配位置103e、匹配位置104e和匹配位置105e之间(指位置距离最小的两个匹配位置之间)的位置距离小于距离阈值,因此,可以将匹配位置103e、匹
配位置104e和匹配位置105e进行合并(合并的原理是从匹配位置103e、匹配位置104e和匹配位置105e中选择一个匹配位置作为目标位置),可以将匹配位置104e作为目标位置m1。通常在对多个匹配位置进行合并时,都会选择该多个匹配位置中处于中间位置的匹配位置。可选的,也可以从需要进行合并的多个匹配位置中随机选择一个匹配位置作为目标位置。可以理解为,所得到的多个匹配位置之间的误差是以某个位置为中心,向四周进行偏移的,因此,选择中心处的匹配位置通常会更加准确。由于匹配位置106e和匹配位置107e之间的位置距离小于距离阈值,因此,可以将匹配位置106e和匹配位置107e进行合并(同样的,合并的原理是在匹配位置106e和匹配位置107e中随机选择一个匹配位置作为目标位置),可以将匹配位置106e作为目标位置m2。匹配位置110e附近没有与其位置距离小于距离阈值的匹配位置,因此,可以直接将匹配位置110e作为目标位置m3。
104.通过上述过程即得到了图像100d中的3个目标位置(如界面103d所示),该3个目标位置分别为目标位置m1、目标位置m2和目标位置m3。其中,有图4可以看出,目标位置1对应于虚拟属性对象100j的左上角的位置,目标位置2对应于虚拟属性对象104j的左上角的位置,目标位置3对应于虚拟属性对象102j的左上角的位置。
105.可以根据所得到的目标位置来得到第二对象图像区域:在本技术中,每个虚拟用户对象所具备的相似虚拟属性对象(即血条对象)的长度和宽度通常是固定的,所以可以预先设定相似虚拟属性对象对应的对象长度和对象宽度,后续,可以直接获取到相似虚拟属性对象对应的对象长度和对象宽度。通常,所获取到的第二对象图像区域也是矩形区域,因此,可以将目标位置作为第二对象图像区域的区域左上角的位置,并且,第二对象图像区域的区域长度为获取到的相似虚拟属性对象的对象长度,第二对象图像区域的区域宽度为获取到的相似虚拟属性对象的对象宽度。通过上述的方式,即可得到图像中的第二对象图像区域,所得到的第二对象图像区域即为识别出来的相似虚拟属性对象在图像中所在的图像区域。当存在多个目标位置时,每个目标位置分别对应于一个第二对象图像区域,即一个目标位置对应于一个第二对象图像区域。
106.在得到第二对象图像区域之后,可以通过该第二对象图像区域得到位置图像区域。一个第二对象图像区域对应于一个位置图像区域,换句话说,一个目标位置对应于一个位置图像区域。该位置图像区域是指每个虚拟用户对象在图像中所在的图像区域,一个虚拟用户对象对应于一个位置图像区域。若是只存在一个位置图像区域(也就是只存在一个目标位置/第二对象图像区域),则可以将该位置图像区域直接作为上述第一对象图像区域。若是存在多个位置图像区域,则可以将该多个位置图像区域进行区域合并,得到第一对象图像区域。下述为如何通过一个第二对象图像区域得到对应的位置图像区域的过程,得到每个第二对象图像区域对应的位置图像区域的过程均相同。第一对象图像区域中可以只包括位置图像区域不包括第二对象图像区域,第一对象图像区域中也可以既包括位置图像区域也包括第二对象图像区域。若是第一对象图像区域中可以只包括位置图像区域,则可以将位置图像区域或者合并之后的位置图像区域直接作为第一对象图像区域。若是第一对象图像区域中既包括位置图像区域也包括第二对象图像区域,则可以将所有位置图像区域和所有第二对象图像区域进行合并得到第一对象图像区域。
107.首先,可以获取虚拟用户对象的对象高度和虚拟用户对象的对象长度,位置图像区域也为矩形区域,位置图像区域的区域长度即为虚拟用户对象的对象长度,位置图像区
域的区域高度即为虚拟用户对象的对象高度。由于本技术中不是直接通过识别图像中的虚拟用户对象来得到虚拟用户对象在图像中所在的图像区域,而是通过借助相似虚拟属性对象来快速得到虚拟用户对象在图像中所在的图像区域,因此,本技术中,对于不同虚拟用户对象不进行区分,可以将每个虚拟用户对象所对应的对象高度均设定为一个对象高度,即所有虚拟用户对象分别对应的第一对象图像区域的区域高度是相同的,该区域高度即为设定的每个虚拟用户对象所对应的对象高度(例如为100个像素高度)。
108.其中,在本技术的游戏直播场景中,虚拟用户对象(即游戏人物/英雄)与相似虚拟属性对象(即血条对象)在游戏画面图像中的相对位置,通常是上下垂直显示的位置关系,即在虚拟用户对象的正上方显示有其对应的相似虚拟属性对象。因此,可以将第二对象图像区域的区域下边缘在垂直方向的边缘位置作为位置图像区域的区域上边缘在垂直方向的边缘位置。每个虚拟用户对象对应对象长度也可以相同,可以将第二对象图像区域的区域长度(水平方向的长度)直接作为虚拟用户对象的对象长度。或者,可以将第一对象图像区域的区域长度进行适当的缩短或者增长之后,作为虚拟用户对象的对象长度。可以通过第二对象图像区域的区域下边缘的中心点的位置来确定位置图像区域的区域上边缘的位置,可以使得位置图像区域的区域上边缘的中心点的位置与第二对象图像区域的区域下边缘的中心点的位置相同,即最终所得到的位置图像区域和对应的第二对象图像区域之间是相互上下垂直且水平居中的位置关系。
109.因此,通过上述过程,即可根据第二对象图像区域在图像中的区域位置、虚拟用户对象与第二对象图像区域在图像中的相对位置、虚拟用户对象的对象长度以及虚拟用户对象的对象高度,得到第一对象图像区域。
110.请参见图5,是本技术提供的一种获取对象图像区域的场景示意图。界面103d为上述图4中的界面103d,界面103d中包括目标位置1、目标位置2和目标位置3。可以获取相似虚拟属性对象的对象长度(假设为长度1)以及对象宽度(假设为宽度1)。因此,如界面104d所示,可以根据目标位置m1、长度1和宽度1得到第二对象图像区域100f,可以根据目标位置m2、长度1和宽度1得到第二对象图像区域102f,可以根据目标位置m3、长度1和宽度1得到第二对象图像区域101f。接着可以获取虚拟用户对象的对象高度(假设为高度1),此处直接将第二对象图像区域的区域长度作为虚拟用户对象的对象长度。如界面105d所示,则可以得到第二对象图像区域100f对应位置图像区域103f,位置图像区域103f的区域上边缘即为第二对象图像区域100f的区域下边缘,位置图像区域103f为目标位置m1对应的位置图像区域。可以得到第二对象图像区域102f对应位置图像区域104f,位置图像区域104f的区域上边缘即为第二对象图像区域102f的区域下边缘,位置图像区域104f为目标位置m2对应的位置图像区域。可以得到第二对象图像区域101f对应位置图像区域105f,位置图像区域105f的区域上边缘即为第二对象图像区域101f的区域下边缘,位置图像区域105f为目标位置m3对应的位置图像区域。
111.此处,第一对象图像区域中既包括位置图像区域也包括第二对象图像区域,因此,如界面106d所示,将上述第二对象图像区域100f与位置图像区域103f进行合并,可以得到区域106f;将上述第二对象图像区域102f与位置图像区域104f进行合并,可以得到区域107f;将上述第二对象图像区域101f与位置图像区域105f进行合并,可以得到区域108f。将上述区域106f、区域107f和区域108f进行区域合并,即可得到图像100d中虚拟用户对象所
在的第一对象图像区域。其中,请一并参见上述图4,区域106f即为虚拟用户对象101j以及其对应的相似虚拟属性对象100j在图像100d中所在的图像区域,区域107f即为虚拟用户对象105j以及其对应的相似虚拟属性对象104j在图像100d中所在的图像区域,区域108f即为虚拟用户对象103j以及其对应的相似虚拟属性对象102j在图像100d中所在的图像区域。
112.请参见图6,是本技术提供的一种区域合并的场景示意图。如图6所示,在图像100g中包括虚拟用户对象102h和虚拟用户对象103h。其中,虚拟用户对象102h对应的相似虚拟属性对象为100h,虚拟用户对象103h对应的相似虚拟属性对象为101h。如界面101g所示,虚拟用户对象102h在图像100g中所在的图像区域可以是区域104h(为矩形区域,包含了相似虚拟属性对象103h),虚拟用户对象103h在图像100g中所在的图像区域可以是区域105h(为矩形区域,包含了相似虚拟属性对象101h)。区域104h与区域105h有相交的图像区域。因此,图像100g中虚拟用户对象所在的图像区域(即第一对象图像区域)可以是将区域104h和区域105h进行合并所得到的区域106h(如界面102g所示)。区域106h即是区域104h与区域105h在图像100g中总共所占的图像区域。
113.步骤s102,获取用于在图像上独立显示的多媒体数据;
114.具体的,用户客户端可以获取到用于在图像上独立显示的多媒体数据,该多媒体数据可以是游戏直播过程中网友所录入的弹幕数据。其中,弹幕数据指评论性言论。在一定场景中,弹幕数据的数据形式可以是文字的形式,还可以是图像的形式,或者是视频的形式等,对此不作限制。
115.步骤s103,对处于第一对象图像区域中的多媒体数据进行隐藏显示,对处于背景图像区域中的多媒体数据与背景图像区域进行叠加显示;背景图像区域为图像中除第一对象图像区域之外的图像区域;
116.具体的,用户客户端可以将获取到的第一对象图像区域设置为蒙版图像区域,其中,蒙版图像区域指被保护的图像区域,多媒体数据在蒙版图像区域中不进行显示。用户客户端可以承载在终端设备中,用户客户端可以通过终端设备显示上述获取到的图像,并可以在所显示的图像之上独立显示上述多媒体数据。多媒体数据可以在图像上进行流动显示,例如从终端设备的终端页面中从左往右进行流动显示。并且,多媒体数据在图像上进行显示时,处于图像中的蒙版图像区域中的多媒体数据不进行显示(可以称之为隐藏显示),处于图像的背景图像区域中的多媒体数据与背景图像区域进行叠加显示(即将多媒体数据叠加显示在背景图像区域之上)。其中,背景图像区域也就是图像中除了第一对象图像区域之外的图像区域。通过此种方式,即可实现多媒体数据(即弹幕数据)对游戏直播画面中的虚拟用户对象(即游戏角色)进行不遮挡显示。
117.可选的,对第一对象图像区域中的多媒体数据进行隐藏显示的方式也可以是将处于第一对象图像区域中的多媒体数据按照某个透明度进行显示,还可以是将第一对象图像区域中的多媒体数据缩小到某个尺寸进行显示,第一对象图像区域中的多媒体数据如何显示可以根据实际应用场景决定,对此不作限制。可以在用户客户端中提供一个显示按钮,用户客户端可以响应该显示按钮上的点击操作(可以将该点击操作称之为针对多媒体数据的显示操作),再在图像中显示多媒体数据。
118.请参见图7,是本技术提供的另一种终端的页面示意图。如图7所示,用户客户端可以通过承载其的终端设备100g显示上述图4中的图像100d,还可以在该图像100d上显示弹
幕数据(即多媒体数据,包括“哈哈哈哈哈”、“笑死了”、“这操作666阿”、“队员之间没有配合”、“666666666666666”以及“23333”)。由于通过上述图5对应的实施例已经获取到了图像100d中虚拟用户对象所在的第一对象图像区域(包括区域106f、区域107f和区域108f)。因此,用户客户端可以将该第一对象图像区域设置为蒙版图像区域。如终端页面108f所示,弹幕数据在该蒙版图像区域中不显示(为了便于描述,终端页面108f中显示了第一对象图像区域的区域边框),实际上,终端设备100g在显示图像100d以及弹幕数据时,显示的为终端页面109f中所显示的画面。
119.本技术获取图像中虚拟用户对象所在的第一对象图像区域;第一对象图像区域是根据虚拟用户对象集群对应的相似虚拟属性对象所获取到的;虚拟用户对象集群包含虚拟用户对象;虚拟用户对象与相似虚拟属性对象在图像中具备相对位置关系;获取用于在图像上独立显示的多媒体数据;对处于第一对象图像区域中的多媒体数据进行隐藏显示,对处于背景图像区域中的多媒体数据与背景图像区域进行叠加显示;背景图像区域为图像中除第一对象图像区域之外的图像区域。由此可见,本技术提出的方法可以通过虚拟用户对象的相似虚拟属性对象,来识别虚拟用户对象在图像中所在的图像区域(即第一对象图像区域),进而实现在图像中显示多媒体数据时,该多媒体数据不会对图像中的虚拟用户对象造成遮挡。
120.请参见图8,是本技术提供的一种图像数据处理装置的结构示意图。该图像数据处理装置可以是运行于计算机设备中的一个计算机程序(包括程序代码),例如该图像数据处理装置为一个应用软件,该图像数据处理装置可以用于执行本技术实施例提供的方法中的相应步骤。如图8所示,该图像数据处理装置1可以包括:识别模块11、获取模块12和显示模块13;
121.识别模块11,用于获取图像中虚拟用户对象所在的第一对象图像区域;第一对象图像区域是根据虚拟用户对象集群对应的相似虚拟属性对象所获取到的;虚拟用户对象集群包含虚拟用户对象;虚拟用户对象与相似虚拟属性对象在图像中具备相对位置关系;
122.获取模块12,用于获取用于在图像上独立显示的多媒体数据;
123.显示模块13,用于对处于第一对象图像区域中的多媒体数据进行隐藏显示,对处于背景图像区域中的多媒体数据与背景图像区域进行叠加显示;背景图像区域为图像中除第一对象图像区域之外的图像区域。
124.其中,识别模块11、获取模块12和显示模块13的具体功能实现方式请参见图3对应的实施例中的步骤s101,这里不再进行赘述。
125.其中,识别模块11,包括:匹配获取单元111、遍历单元112和区域确定单元113;
126.匹配获取单元111,用于获取包含相似虚拟属性对象的匹配图像;
127.遍历单元112,用于将匹配图像在图像中进行滑动遍历,得到图像中匹配图像对应的匹配图像区域;匹配图像区域与匹配图像具备图像相似性;
128.区域确定单元113,用于根据匹配图像区域,确定第一对象图像区域。
129.其中,匹配获取单元111、遍历单元112和区域确定单元113的具体功能实现方式请参见图3对应的实施例中的步骤s101,这里不再进行赘述。
130.其中,遍历单元112,包括:比例获取子单元11201、比例确定子单元11202、缩放子单元11203和第一遍历子单元11204;
131.比例获取子单元11201,用于获取图像对应的第一缩放比例,获取匹配图像对应的第二缩放比例;
132.比例确定子单元11202,用于若第一缩放比例不等于第二缩放比例,则获取统一缩放比例;
133.缩放子单元11203,用于根据统一缩放比例对图像和匹配图像进行缩放,得到缩放图像和缩放匹配图像;
134.第一遍历子单元11204,用于将缩放匹配图像在缩放图像上进行滑动遍历,得到匹配图像区域。
135.其中,比例获取子单元11201、比例确定子单元11202、缩放子单元11203和第一遍历子单元11204的具体功能实现方式请参见图3对应的实施例中的步骤s101,这里不再进行赘述。
136.其中,遍历单元112,包括:步长获取子单元11205、覆盖获取子单元11206、相似匹配子单元11207和第一区域确定子单元11208;
137.步长获取子单元11205,用于获取滑动步长,基于滑动步长将匹配图像在图像中进行滑动遍历;
138.覆盖获取子单元11206,用于获取匹配图像进行滑动遍历之后的滑动位置,在图像中滑动位置处,获取匹配图像对应的覆盖区域图像;
139.相似匹配子单元11207,用于对覆盖区域图像和匹配图像进行图像相似匹配,得到图像匹配度;
140.第一区域确定子单元11208,用于当图像匹配度大于或者等于图像匹配度阈值时,将图像中覆盖区域图像所指向的图像区域,确定为匹配图像区域。
141.其中,步长获取子单元11205、覆盖获取子单元11206、相似匹配子单元11207和第一区域确定子单元11208的具体功能实现方式请参见图3对应的实施例中的步骤s101,这里不再进行赘述。
142.其中,遍历单元112,包括:灰度图获取子单元11209和第二遍历子单元11210;
143.灰度图获取子单元11209,用于获取图像对应的第一灰度图像,获取匹配图像对应的第二灰度图像;
144.第二遍历子单元11210,用于将第二灰度图像在第一灰度图像中进行滑动遍历,得到匹配图像对应的匹配图像区域。
145.其中,灰度图获取子单元11209和第二遍历子单元11210的具体功能实现方式请参见图3对应的实施例中的步骤s101,这里不再进行赘述。
146.其中,虚拟用户对象为游戏角色对象;相似虚拟属性对象为游戏角色对象对应的血条对象;匹配图像为包含血条对象的图像。
147.其中,匹配图像区域包括第一图像匹配区域和第二图像匹配区域;
148.区域确定单元113,包括:位置获取子单元1131、第一目标确定子单元1132和第二目标确定子单元1133;
149.位置获取子单元1131,用于获取第一匹配图像区域在图像中的第一匹配位置,获取第二匹配图像区域在图像中的第二匹配位置;
150.第一目标确定子单元1132,用于当第一匹配位置与第二匹配位置之间的位置距离
小于或者等于距离阈值时,将第一匹配位置或第二匹配位置确定为目标位置,根据目标位置,确定第一对象图像区域;
151.第二目标确定子单元1133,用于当第一匹配位置和第二匹配位置之间的位置距离大于距离阈值时,将第一匹配位置和第二匹配位置均确定为目标位置,根据目标位置,确定第一对象图像区域。
152.其中,位置获取子单元1131、第一目标确定子单元1132和第二目标确定子单元1133的具体功能实现方式请参见图3对应的实施例中的步骤s101,这里不再进行赘述。
153.其中,第一目标确定子单元1132,包括:区域获取子单元11321和区域合并子单元11322;
154.区域获取子单元11321,用于当存在至少两个目标位置时,在图像中获取每个目标位置分别对应的位置图像区域;位置图像区域为虚拟用户对象所在的区域;
155.区域合并子单元11322,用于将每个目标位置分别对应的位置图像区域进行区域合并,得到第一对象图像区域。
156.其中,区域获取子单元11321和区域合并子单元11322的具体功能实现方式请参见图3对应的实施例中的步骤s101,这里不再进行赘述。
157.其中,第一目标确定子单元1132,包括:第一获取子单元11323、第二区域确定子单元11324和第三区域确定子单元11325;
158.第一获取子单元11323,用于获取相似虚拟属性对象的对象宽度和相似虚拟属性对象的对象长度;
159.第二区域确定子单元11324,用于根据目标位置、相似虚拟属性对象的对象宽度和相似虚拟属性对象的对象长度,确定相似虚拟属性对象在图像中的第二对象图像区域;
160.第三区域确定子单元11325,用于根据第二对象图像区域和虚拟用户对象,确定第一对象图像区域。
161.其中,第一获取子单元11323、第二区域确定子单元11324和第三区域确定子单元11325的具体功能实现方式请参见图3对应的实施例中的步骤s101,这里不再进行赘述。
162.其中,第三区域确定子单元11325,包括:第二获取子单元113251和第四区域确定子单元113252;
163.第二获取子单元113251,用于获取虚拟用户对象的对象高度,获取虚拟用户对象的对象长度;
164.第四区域确定子单元113252,用于根据虚拟用户对象的对象高度、虚拟用户对象的对象长度、第二对象图像区域在图像中的区域位置以及虚拟用户对象和第二对象图像区域在图像中的相对位置,确定第一对象图像区域。
165.其中,第二获取子单元113251和第四区域确定子单元113252的具体功能实现方式请参见图3对应的实施例中的步骤s101,这里不再进行赘述。
166.其中,显示模块13,包括:蒙版设置单元131和响应单元132;
167.蒙版设置单元131,用于将所述第一对象图像区域设置为蒙版图像区域;
168.隐藏显示单元132,用于基于所述蒙版图像区域,对处于所述第一对象图像区域中的多媒体数据进行隐藏显示。
169.其中,蒙版设置单元131和隐藏显示单元132的具体功能实现方式请参见图3对应
的实施例中的步骤s103,这里不再进行赘述。
170.本技术获取图像中虚拟用户对象所在的第一对象图像区域;第一对象图像区域是根据虚拟用户对象集群对应的相似虚拟属性对象所获取到的;虚拟用户对象集群包含虚拟用户对象;虚拟用户对象与相似虚拟属性对象在图像中具备相对位置关系;获取用于在图像上独立显示的多媒体数据;对处于第一对象图像区域中的多媒体数据进行隐藏显示,对处于背景图像区域中的多媒体数据与背景图像区域进行叠加显示;背景图像区域为图像中除第一对象图像区域之外的图像区域。由此可见,本技术提出的方法可以通过虚拟用户对象的相似虚拟属性对象,来识别虚拟用户对象在图像中所在的图像区域(即第一对象图像区域),进而实现在图像中显示多媒体数据时,该多媒体数据不会对图像中的虚拟用户对象造成遮挡。
171.请参见图9,是本技术提供的一种计算机设备的结构示意图。如图9所示,计算机设备1000可以包括:处理器1001,网络接口1004和存储器1005,此外,计算机设备1000还可以包括:用户接口1003,和至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,用户接口1003可以包括显示屏(display)、键盘(keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如wi-fi接口)。存储器1005可以是高速ram存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器1005可选的还可以是至少一个位于远离前述处理器1001的存储装置。如图9所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及设备控制应用程序。
172.在图9所示的计算机设备1000中,网络接口1004可提供网络通讯功能;而用户接口1003主要用于为用户提供输入的接口;而处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现前文图3中对应实施例中对图像数据处理方法的描述。应当理解,本技术中所描述的计算机设备1000也可执行前文图8所对应实施例中对图像数据处理装置1的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
173.此外,这里需要指出的是:本技术还提供了一种计算机可读存储介质,且计算机可读存储介质中存储有前文提及的图像数据处理装置1所执行的计算机程序,且计算机程序包括程序指令,当处理器执行程序指令时,能够执行前文图3所对应实施例中对图像数据处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本技术所涉及的计算机存储介质实施例中未披露的技术细节,请参照本技术方法实施例的描述。作为示例,程序指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算机设备上执行,分布在多个地点且通过通信网络互连的多个计算设备可以组成区块链系统。
174.本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,上述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,上述的存储介质可为磁碟、光盘、只读存储记忆体(read-only memory,rom)或随机存储记忆体(random access memory,ram)等。
175.以上所揭露的仅为本技术较佳实施例而已,当然不能以此来限定本技术之权利范
围,因此依本技术权利要求所作的等同变化,仍属本技术所涵盖范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜