一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

视频通话方法、装置、存储介质及电子设备与流程

2021-11-05 19:39:00 来源:中国专利 TAG:


1.本技术涉及互联网技术领域,具体涉及一种视频通话方法、装置、存储介质及电子设备。


背景技术:

2.随着终端的硬件能力越来越强大,用户在同一终端上看视频的同时进行通话的情景经常出现。但是视频的播放及通话的进行通常相互独立,双方会互相产生视觉等感觉上的影响,目前存在停止视频播放及通话中一方或双方的部分功能减少相互影响的方案,但是效果有限,导致视频通话效果较差,通话趣味性较低,用户体验较差。


技术实现要素:

3.本技术实施例提供一种视频通话方案,可以有效提升视频通话效果,提升通话趣味性及用户体验。
4.为解决上述技术问题,本技术实施例提供以下技术方案:
5.根据本技术的一个实施例,一种视频通话方法,其包括:获取目标终端中所播放视频对应的视频播放数据;获取所述目标终端中所进行视频通话对应的视频通话数据;对所述视频播放数据及所述视频通话数据进行融合处理,以生成融合视频数据;控制所述目标终端基于所述融合视频数据播放调整后所述视频,或基于所述融合视频数据更新所述视频通话。
6.在本技术的一些实施例中,所述对所述视频播放数据及所述视频通话数据进行融合处理,以生成融合视频数据,包括:基于所述视频通话数据进行脸部图像检测处理,以从所述视频通话数据中提取第一对象对应的脸部图像数据;基于所述视频播放数据进行脸部图像检测处理,以从所述视频播放数据中提取第二对象对应的脸部图像数据;基于所述第一对象对应的脸部图像数据及所述第二对象对应的脸部图像数据,对所述视频播放数据及所述视频通话数据进行融合处理,得到所述融合视频数据。
7.在本技术的一些实施例中,所述基于所述视频通话数据进行脸部图像检测处理,以从所述视频通话数据中提取第一对象对应的脸部图像数据,包括:从参与所述视频通话的对象中确定与所述视频中的视频场景匹配的对象,作为所述第一对象;从所述视频通话数据中获取所述第一对象对应的视频通话画面数据;基于所述视频通话画面数据进行脸部图像检测处理,以从所述视频通话画面数据中提取第一对象对应的脸部图像数据。
8.在本技术的一些实施例中,所述基于所述视频播放数据进行脸部图像检测处理,以从所述视频播放数据中提取第二对象对应的脸部图像数据,包括:基于所述视频播放数据进行脸部图像检测处理,以确定所述视频播放数据中的所有角色对象;从所有所述角色对象中确定所述第一对象所匹配的角色对象,作为所述第二对象;从所述视频播放数据中提取所述第二对象对应的脸部图像数据。
9.在本技术的一些实施例中,所述融合视频数据包括第一融合视频数据;所述基于
所述第一对象对应的脸部图像数据及所述第二对象对应的脸部图像数据,对所述视频播放数据及所述视频通话数据进行融合处理,得到所述融合视频数据,包括:利用所述第一对象对应的脸部图像数据替换所述视频播放数据中所述第二对象对应的脸部图像数据,得到所述第一融合视频数据。
10.在本技术的一些实施例中,所述融合视频数据包括第一融合视频数据;所述基于所述第一对象对应的脸部图像数据及所述第二对象对应的脸部图像数据,对所述视频播放数据及所述视频通话数据进行融合处理,得到所述融合视频数据,包括:将所述第一对象对应的脸部图像数据叠加至所述视频播放数据中所述第二对象对应的脸部图像数据之上,得到所述第一融合视频数据。
11.在本技术的一些实施例中,所述融合视频数据包括第二融合视频数据;所述基于所述第一对象对应的脸部图像数据及所述第二对象对应的脸部图像数据,对所述视频播放数据及所述视频通话数据进行融合处理,得到所述融合视频数据,包括:利用所述第二对象对应的脸部图像数据替换所述视频通话数据中所述第一对象对应的脸部图像数据,得到所述第二融合视频数据。
12.在本技术的一些实施例中,所述融合视频数据包括第二融合视频数据;所述基于所述第一对象对应的脸部图像数据及所述第二对象对应的脸部图像数据,对所述视频播放数据及所述视频通话数据进行融合处理,得到所述融合视频数据,包括:将所述第二对象对应的脸部图像数据叠加至所述视频通话数据中所述第一对象对应的脸部图像数据之上,得到所述第二融合视频数据。
13.在本技术的一些实施例中,所述融合视频数据包括第一融合视频数据及第二融合视频数据中至少一种;所述控制所述目标终端基于所述融合视频数据播放调整后所述视频,或基于所述融合视频数据更新所述视频通话,包括:控制所述目标终端基于所述第一融合视频数据播放调整后所述视频,以及控制所述目标终端基于所述第二融合视频数据更新所述视频通话中至少一种。
14.根据本技术的一个实施例,一种视频通话装置,其包括:第一获取模块,用于获取目标终端中所播放视频对应的视频播放数据;第二获取模块,用于获取所述目标终端中所进行视频通话对应的视频通话数据;融合模块,用于对所述视频播放数据及所述视频通话数据进行融合处理,以生成融合视频数据;控制模块,用于控制所述目标终端基于所述融合视频数据播放调整后所述视频,或基于所述融合视频数据更新所述视频通话。
15.根据本技术的另一实施例,一种存储介质,其上存储有计算机可读指令,当所述计算机可读指令被计算机的处理器执行时,使计算机执行本技术实施例所述的方法。
16.根据本技术的另一实施例,一种电子设备可以包括:存储器,存储有计算机可读指令;处理器,读取存储器存储的计算机可读指令,以执行本技术实施例所述的方法。
17.本技术实施例中,获取目标终端中所播放视频对应的视频播放数据;获取目标终端中所进行视频通话对应的视频通话数据;对视频播放数据及视频通话数据进行融合处理,以生成融合视频数据;控制目标终端基于融合视频数据播放调整后视频,或基于融合视频数据更新视频通话。
18.以这种方式,对视频播放数据及视频通话数据进行融合处理,可以将两个相互独立的视频内容及视频通话内容进行内容融合,使得两个相互独立的内容得以关联,控制目
标终端基于融合视频数据播放调整后视频,或基于融合视频数据更新视频通话,可以有效提升视频通话效果,提升通话趣味性及用户体验。
附图说明
19.为了更清楚地说明本技术实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
20.图1示出了可以应用本技术实施例的系统的示意图。
21.图2示出了根据本技术的一个实施例的视频播放方法的流程图。
22.图3示出根据本技术实施例的一种场景下视频通话方法的流程图。
23.图4示出了根据本技术的一个实施例的视频播放装置的框图。
24.图5示出了根据本技术的一个实施例的电子设备的框图。
具体实施方式
25.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
26.在以下的说明中,本技术的具体实施例将参考由一部或多部计算机所执行的步骤及符号来说明,除非另有述明。因此,这些步骤及操作将有数次提到由计算机执行,本文所指的计算机执行包括了由代表了以一结构化型式中的数据的电子信号的计算机处理单元的操作。此操作转换该数据或将其维持在该计算机的内存系统中的位置处,其可重新配置或另外以本领域测试人员所熟知的方式来改变该计算机的运作。该数据所维持的数据结构为该内存的实体位置,其具有由该数据格式所定义的特定特性。但是,本技术原理以上述文字来说明,其并不代表为一种限制,本领域测试人员将可了解到以下所述的多种步骤及操作亦可实施在硬件当中。
27.图1示出了可以应用本技术实施例的系统100的示意图。如图1所示,系统100可以包括服务器101、第一终端102及第二终端103。第一终端102及第二终端103可以是任意的计算机设备,例如电脑、手机、智能手表以及家电设备等。服务器101可以是服务器集群或者云服务等。一个示例中,第一终端102为电视。
28.服务器101与第一终端102及第二终端103之间可以通过有线或者无线连接的方式连接。
29.第一终端102可以与第二终端103通过服务器101进行视频通话,第一终端102与第二终端103中在进行视频通话的同时可以播放视频。
30.本示例的一种实施方式中,以第一终端102为目标终端为例,第一终端102或者服务器101获取目标终端中所播放视频对应的视频播放数据;获取目标终端中所进行视频通话对应的视频通话数据;对视频播放数据及视频通话数据进行融合处理,以生成融合视频数据;控制目标终端基于融合视频数据播放调整后视频,或基于融合视频数据更新视频通
话。
31.图2示意性示出了根据本技术的一个实施例的视频播放方法的流程图。该视频播放方法的执行主体可以是任意的设备,例如图1所示的第一终端102或者服务器101。
32.如图2所示,该视频播放方法可以包括步骤s210至步骤s240。
33.步骤s210,获取目标终端中所播放视频对应的视频播放数据;
34.步骤s220,获取目标终端中所进行视频通话对应的视频通话数据;
35.步骤s230,对视频播放数据及视频通话数据进行融合处理,以生成融合视频数据;
36.步骤s240,控制目标终端基于融合视频数据播放调整后视频,或基于融合视频数据更新视频通话。
37.下面描述进行视频播放时,所进行的各步骤的具体过程。
38.在步骤s210中,获取目标终端中所播放视频对应的视频播放数据。
39.本示例的实施方式中,目标终端中所播放视频例如电视剧或者电影等视频,用户可以在目标终端看视频的同时与其它终端的用户进行线上视频通话。视频播放数据即视频的内容数据,可以从目标终端中的视频播放数据缓存区获取该视频播放数据。
40.在步骤s220中,获取目标终端中所进行视频通话对应的视频通话数据。
41.本示例的实施方式中,目标终端中所进行视频通话可以包括同时打开视频画面及音频的通话,也可以包括关闭视频画面而打开音频的通话等。
42.视频通话数据可以包括多个用户的视频通话数据,即目标终端中所进行视频通话对应的视频通话数据可以包括:使用目标终端的用户a对应的视频通话数据,以及使用其它终端的用户b对应的视频通话数据,可以理解,其它终端可以包括至少1个或至少2个。
43.视频通话数据视频画面数据及音频数据,可以实时获取服务器发送至目标终端的视频画面数据(即使用其它终端的用户b对应的视频通话数据),以及获取目标终端生成的视频画面数据(即使用其它终端的用户b对应的视频通话数据)。
44.在步骤s230中,对视频播放数据及视频通话数据进行融合处理,以生成融合视频数据。
45.本示例的实施方式中,对视频播放数据及视频通话数据中的部分数据进行融合处理,生成视频播放数据对应的第一融合视频数据,可以用于更新目标终端中播放的视频得到调整后视频,和/或生成视频通话数据对应的第二融合视频数据,可以用于更新视频通话的视频画面或者音频信息。
46.一种实施方式中,可以在监测到用户打开“融合模式”的情况下,对视频播放数据及视频通话数据进行融合处理,以生成融合视频数据。一种实施例中,可以在监测到视频通话符合“预定通话状态”时,对视频播放数据及视频通话数据进行融合处理,以生成融合视频数据,其中,一个示例中,预定通话状态可以是监测视频通话刚开启或者视频通话断线等,一个示例中,可以基于视频通话中的音频数据提取通话关键词,根据通话关键词确定用户的状态(例如高兴或者悲伤等)符合预定通话状态,或者基于视频通话中的视频通话画面数据进行脸部图像检测,提取脸部图像特征,根据脸部图像特征确定用户的状态符合预定通话状态。
47.对视频播放数据及视频通话数据进行融合处理,可以将两个相互独立的视频内容及视频通话内容进行内容融合,使得两个相互独立的内容得以关联,提升视频通话通话效
果。
48.一种实施例中,对视频播放数据及所述视频通话数据进行融合处理,以生成融合视频数据,包括:
49.基于视频通话数据进行脸部图像检测处理,以从视频通话数据中提取第一对象对应的脸部图像数据;基于视频播放数据进行脸部图像检测处理,以从视频播放数据中提取第二对象对应的脸部图像数据;基于第一对象对应的脸部图像数据及第二对象对应的脸部图像数据,对视频播放数据及视频通话数据进行融合处理,得到融合视频数据。
50.脸部图像检测处理可以通过脸部图像识别从视频通话数据中识别出脸部图像对应区域,从而从对应区域中可以获取脸部图像数据,其中,第一对象可以是与目标终端通话的其它终端对应的用户,或者使用目标终端的用户,或者视频通话中出现的其他生物对象。
51.脸部图像检测处理可以通过脸部图像识别从视频播放数据中识别出脸部图像对应区域,从而从对应区域中可以获取脸部图像数据,其中,第二对象可视频中出现的用户或者其他生物对象对应的角色。
52.然后,基于第一对象对应的脸部图像数据及第二对象对应的脸部图像数据,对视频播放数据及视频通话数据进行融合处理,得到融合视频数据,可以对两个独立内容中的脸部图像进行融合关联。
53.一种实施例中,基于视频通话数据进行脸部图像检测处理,以从视频通话数据中提取第一对象对应的脸部图像数据,包括:
54.从参与视频通话的对象中确定与视频中的视频场景匹配的对象,作为第一对象;从视频通话数据中获取第一对象对应的视频通话画面数据;基于视频通话画面数据进行脸部图像检测处理,以从视频通话画面数据中提取第一对象对应的脸部图像数据。
55.参与视频通话的对象可以包括至少一个,例如参与视频通话的对象可以包括使用目标终端的用户a,以及使用其它终端的用户b,其它终端可以包括至少1个或至少2个。
56.一个示例中,与视频中的视频场景匹配的对象为与目标终端通话的其它终端对应的用户。
57.一个示例中,可以基于视频播放数据中的音频数据提取对话关键词,根据对话关键词确定视频中的视频场景,或者视频播放数据中的视频画面数据进行图像识别,提取视频中的场景对象,根据场景对象确定视频中的视频场景。其中视频场景例如欢乐场景或者古典场景等。然后,可以基于视频通话中的视频通话画面数据进行脸部图像检测,提取脸部图像特征,根据脸部图像特征确定用户的状态(例如高兴或者悲伤等),然后,根据预设的匹配表,可以查询用户的状态匹配的视频场景,进而可以从参与视频通话的对象中确定与视频中的视频场景匹配的对象,作为第一对象。
58.然后,可以确定第一对象对应的终端,或者第一对象对应的终端对应的视频通话数据,从视频通话数据中获取视频通话画面数据进行脸部图像检测处理,从视频通话画面数据中提取第一对象对应的脸部图像数据。
59.一种实施例中,基于视频播放数据进行脸部图像检测处理,以从视频播放数据中提取第二对象对应的脸部图像数据,包括:
60.基于视频播放数据进行脸部图像检测处理,以确定视频播放数据中的所有角色对象;从所有角色对象中确定第一对象所匹配的角色对象,作为第二对象;从视频播放数据中
提取第二对象对应的脸部图像数据。
61.对视频播放数据中的每一帧视频画面数据进行脸部图像检测处理,可以提取出脸部图像数据,根据脸部图像数据提取脸部图像特征,然后,基于所有脸部图像特征可以进行对象识别(例如人脸识别或者动物识别等),识别出所有的角色对象的对象信息(可以包括对象类别、年龄等信息),然后,可以基于视频通话画面数据进行脸部图像检测处理,以从视频通话画面数据中提取第一对象对应的脸部图像数据中的脸部图像特征进行对象识别,得到第一对象的对象信息。
62.然后,可以基于第一对象的对象信息与每个角色对象的对象信息进行匹配,确定所有角色对象中与第一对象所匹配的角色对象(例如与第一对象的对象信息相似度最大的角色对象),作为第二对象。
63.最后,可以从脸部图像检测处理提取出的脸部图像数据获取第二对象对应的脸部图像数据。
64.一种实施例中,融合视频数据包括第一融合视频数据;基于第一对象对应的脸部图像数据及第二对象对应的脸部图像数据,对视频播放数据及视频通话数据进行融合处理,得到融合视频数据,包括:
65.利用第一对象对应的脸部图像数据替换视频播放数据中第二对象对应的脸部图像数据,或将第一对象对应的脸部图像数据叠加至视频播放数据中第二对象对应的脸部图像数据之上,得到第一融合视频数据。
66.利用第一对象对应的脸部图像数据,可以等比例替换视频播放数据中第二对象对应的脸部图像数据,将视频播放数据转化为第一融合视频数据,或者将第一对象对应的脸部图像数据按照预定比例叠加至视频播放数据中第二对象对应的脸部图像数据之上,将视频播放数据转化为第一融合视频数据。
67.其中,通过对第一对象对应的脸部图像数据及第二对象对应的脸部图像数据,进行脸部区域坐标的计算对比,将第一对象对应的脸部图像数据等比例伸缩或者按照预定比例伸缩对齐至第二对象对应的脸部图像数据,然后进行替换或者叠加。
68.一种实施例中,融合视频数据包括第二融合视频数据;基于第一对象对应的脸部图像数据及第二对象对应的脸部图像数据,对视频播放数据及所述视频通话数据进行融合处理,得到融合视频数据,包括:
69.利用第二对象对应的脸部图像数据替换视频通话数据中第一对象对应的脸部图像数据,或将第二对象对应的脸部图像数据叠加至视频通话数据中第一对象对应的脸部图像数据之上,得到第二融合视频数据。
70.利用第二对象对应的脸部图像数据,可以等比例替换视频通话数据中第一对象对应的脸部图像数据,将视频通话数据转化为第二融合视频数据,或将第二对象对应的脸部图像数据按照预定比例叠加至视频通话数据中第一对象对应的脸部图像数据之上,将视频通话数据转化为第二融合视频数据。
71.其中,通过对第二对象对应的脸部图像数据及第一对象对应的脸部图像数据,进行脸部区域坐标的计算对比,将第二对象对应的脸部图像数据等比例伸缩或者按照预定比例伸缩对齐至第一对象对应的脸部图像数据,然后进行替换或者叠加。
72.在步骤s240中,控制目标终端基于融合视频数据播放调整后视频,或基于融合视
频数据更新视频通话。
73.本示例的实施方式中,融合视频数据可以包括视频播放数据对应的第一融合视频数据,目标终端基于第一融合视频数据进行播放即可播放调整后视频。
74.融合视频数据可以包括视频通话数据对应的第二融合视频数据,目标终端基于第二融合视频数据更新视频通话的画面或者音频等即可更新视频通话。
75.一种实施例中,融合视频数据包括第一融合视频数据及第二融合视频数据中至少一种,控制目标终端基于融合视频数据播放调整后视频,或基于融合视频数据更新所述视频通话,包括:
76.控制目标终端基于第一融合视频数据播放调整后视频,以及控制目标终端基于第二融合视频数据更新视频通话中至少一种。
77.融合视频数据仅包括第一融合视频数据时,可以控制目标终端基于第一融合视频数据进行视频播放,同时基于原来的视频通话数据进行视频通话。融合视频数据仅包括第二融合视频数据时,可以控制目标终端基于第二融合视频数据进行视频通话,同时基于原来的视频播放数据进行视频播放。融合视频数据包括第一融合视频数据及第二融合视频数据时,可以控制目标终端基于第一融合视频数据进行视频播放,同时基于第二融合视频数据进行视频通话。可以理解对第一融合视频数据及第二融合视频数据是控制播放可以根据需求进行组合设置。
78.以这种方式,基于步骤s210至步骤s240,对视频播放数据及视频通话数据进行融合处理,可以将两个相互独立的视频内容及视频通话内容进行内容融合,使得两个相互独立的内容得以关联,控制目标终端基于融合视频数据播放调整后视频,或基于融合视频数据更新视频通话,可以有效提升视频通话效果,提升通话趣味性及用户体验。
79.图3示出根据本技术实施例的一种场景下视频通话方法的流程图。该场景下以目标终端为智能电视为例进行说明,用户a在智能电视上边看视频节目(p1)边视频通话(与用户b的视频通话),目标终端中所播放视频对应的视频播放数据即电视节目对应的视频播放数据,目标终端中所进行视频通话对应的视频通话数据即智能电视上进行的视频通话(与用户b的视频通话)对应的视频通话数据。
80.用户a在智能电视上打开应用本技术实施例进行视频通话功能(即打开融合模式,例如换脸模式)的前提下,用户a正在观看视频节目(p1),另一位用户b播打了视频通话给用户a,可以通过智能电视上的弹窗等形式提醒用户a有消息,用户a在智能电视上接通视频通话后,视频节目(p1)继续同时播放。
81.基于本技术的实施例,对视频播放数据及视频通话数据进行融合处理,以生成融合视频数据;控制智能电视基于融合视频数据播放调整后视频,或基于融合视频数据更新视频通话。
82.进而,用户b的人脸可以显示在视频节目(p1)中的人物的头像位置。可以通过某个指令切换用户b的人脸在视频节目(p1)中的其它人物(包括增加标签,男性,女性等)的头像位置。这时用户a又可以看视频节目又可以和用户b视频通话。
83.参阅图3,智能电视上视频通话的步骤具体可以包括:
84.步骤一:用户a观看视频节目(p1),且打开“换脸模式”。
85.步骤二:判断智能电视中是否有视频通讯画面(即视频通话的画面),此时如果判
断暂无远端视频通讯画面,视频播放画面处理模块正常播放视频节目(p1)的画面;如果用户b通过视频通讯模块向用户a发起通讯,用户a同意通讯,并两用户通讯连接成功,则判断有远端视频通讯画面,进而执行步骤三。
86.步骤三:获取智能电视中所播放视频(视频节目(p1))对应的视频播放数据,获取智能电视中所进行视频通话对应的视频通话数据。
87.具体地,获取智能电视中所进行视频通话对应的视频通话数据,具体可以通过视频通讯模块将视频通话数据中用户b的视频通话画面数据(即拉流解码用户画面数据(p2))通过解码得到后送到人脸识别模块处理。
88.获取智能电视中所播放视频(视频节目(p1))对应的视频播放数据,具体可以通过视频通讯模块通知视频播放画面处理模块也将视频节目(p1)对应的视频播放数据送到人脸识别模块处理。
89.步骤四:对视频播放数据及视频通话数据进行融合处理,以生成融合视频数据。
90.融合处理可以包括:
91.a.基于视频通话数据进行脸部图像检测处理,以从视频通话数据中提取用户b对应的脸部图像数据,具体可以通过人脸识别模块对用户b的视频通话画面数据(即拉流解码用户画面数据(p2))进行人脸识别,分割出用户b对应的脸部图像数据;
92.b.基于视频播放数据进行脸部图像检测处理,以从视频播放数据中提取第二对象(视频节目(p1)中至少一个对象)对应的脸部图像数据,具体可以通过人脸识别模块对视频播放数据进行人脸识别,分割出第二对象(视频节目(p1)中至少一个对象)对应的脸部图像数据。
93.c.获得用户b对应的脸部图像数据p2

1(其中可以包含人脸106个关键点,人脸区域坐标,性别参数,人脸个数等,用户b可以包括至少一个),以及第二对象对应的脸部图像数据p1

1。
94.d.送脸部图像数据p2

1及脸部图像数据p1

1到脸部图像替换计算模块,脸部图像替换计算模块通过人脸区域坐标的计算对比(画面存在人脸大小不一致的情况),将用户b的脸部图像数据p2

1等比例伸缩到脸部图像数据p1

1,再将视频播放数据中的脸部图像数据p1

1替换为用户b的脸部图像数据p2

1,替换的方式以下可分为2种处理方式:
95.(1):利用脸部图像数据p2

1替换视频播放数据中脸部图像数据p1

1,得到第一融合视频数据p1

2,即对本地播放的视频节目(p1)的整个视频播放数据中将需要替换的人脸数据值改成用户b人脸数据值。
96.(2):将脸部图像数据p2

1叠加至视频播放数据中脸部图像数据p1

1之上,得到第一融合视频数据p1

2,即将用户b的人脸数据图像坐标对齐本地播放视频节目(p1)的视频播放数据中脸部图像数据p1

1的坐标,然后通过图像合成的方式将用户b的头像叠加合成到视频播放数据中。
97.步骤五:控制智能电视基于融合视频数据播放调整后所述视频,具体可以通过脸部图像替换计算模块将计算出最后的结果图像数据(即第一融合视频数据p1

2)送到视频播放画面处理模块中继续播放,智能电视显示输入的画面。
98.步骤流:系统画面刷新,即智能电视如果还在换脸模式中,重复上述步骤。
99.为便于更好的实施本技术实施例提供的视频播放方法,本技术实施例还提供一种
基于上述视频播放方法的视频播放装置。其中名词的含义与上述视频播放方法中相同,具体实现细节可以参考方法实施例中的说明。图3示出了根据本技术的一个实施例的视频播放装置的框图。
100.如图4所示,视频播放装置300中可以包括第一获取模块310、第二获取模块320、融合模块330及控制模块340。
101.第一获取模块310可以用于获取目标终端中所播放视频对应的视频播放数据;第二获取模块320可以用于获取所述目标终端中所进行视频通话对应的视频通话数据;融合模块330可以用于对所述视频播放数据及所述视频通话数据进行融合处理,以生成融合视频数据;控制模块340可以用于控制所述目标终端基于所述融合视频数据播放调整后所述视频,或基于所述融合视频数据更新所述视频通话。
102.一种实施例中,所述融合模块330,包括:第一提取单元,用于基于所述视频通话数据进行脸部图像检测处理,以从所述视频通话数据中提取第一对象对应的脸部图像数据;第二提取单元,用于基于所述视频播放数据进行脸部图像检测处理,以从所述视频播放数据中提取第二对象对应的脸部图像数据;对象融合单元,用于基于所述第一对象对应的脸部图像数据及所述第二对象对应的脸部图像数据,对所述视频播放数据及所述视频通话数据进行融合处理,得到所述融合视频数据。
103.在本技术的一些实施例中,所述第一提取单元,用于:从参与所述视频通话的对象中确定与所述视频中的视频场景匹配的对象,作为所述第一对象;从所述视频通话数据中获取所述第一对象对应的视频通话画面数据;基于所述视频通话画面数据进行脸部图像检测处理,以从所述视频通话画面数据中提取第一对象对应的脸部图像数据。
104.在本技术的一些实施例中,所述第二提取单元,用于:基于所述视频播放数据进行脸部图像检测处理,以确定所述视频播放数据中的所有角色对象;从所有所述角色对象中确定所述第一对象所匹配的角色对象,作为所述第二对象;从所述视频播放数据中提取所述第二对象对应的脸部图像数据。
105.在本技术的一些实施例中,所述融合视频数据包括第一融合视频数据;所述对象融合单元,用于:利用所述第一对象对应的脸部图像数据替换所述视频播放数据中所述第二对象对应的脸部图像数据,得到所述第一融合视频数据。
106.在本技术的一些实施例中,所述融合视频数据包括第一融合视频数据;所述对象融合单元,用于:将所述第一对象对应的脸部图像数据叠加至所述视频播放数据中所述第二对象对应的脸部图像数据之上,得到所述第一融合视频数据。
107.在本技术的一些实施例中,所述融合视频数据包括第二融合视频数据;所述对象融合单元,用于:利用所述第二对象对应的脸部图像数据替换所述视频通话数据中所述第一对象对应的脸部图像数据,得到所述第二融合视频数据。
108.在本技术的一些实施例中,所述融合视频数据包括第二融合视频数据;所述对象融合单元,用于:将所述第二对象对应的脸部图像数据叠加至所述视频通话数据中所述第一对象对应的脸部图像数据之上,得到所述第二融合视频数据。
109.在本技术的一些实施例中,所述融合视频数据包括第一融合视频数据及第二融合视频数据中至少一种;所述控制模块340,用于:控制所述目标终端基于所述第一融合视频数据播放调整后所述视频,以及控制所述目标终端基于所述第二融合视频数据更新所述视
频通话中至少一种。
110.以这种方式,基于视频播放装置300,对视频播放数据及视频通话数据进行融合处理,可以将两个相互独立的视频内容及视频通话内容进行内容融合,使得两个相互独立的内容得以关联,控制目标终端基于融合视频数据播放调整后视频,或基于融合视频数据更新视频通话,可以有效提升视频通话效果,提升通话趣味性及用户体验。
111.应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本技术的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
112.此外,本技术实施例还提供一种电子设备,该电子设备可以为终端或者服务器,如图5所示,其示出了本技术实施例所涉及的电子设备的结构示意图,具体来讲:
113.该电子设备可以包括一个或者一个以上处理核心的处理器401、一个或一个以上计算机可读存储介质的存储器402、电源403和输入单元404等部件。本领域技术人员可以理解,图5中示出的电子设备结构并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
114.处理器401是该电子设备的控制中心,利用各种接口和线路连接整个计算机设备的各个部分,通过运行或执行存储在存储器402内的软件程序和/或模块,以及调用存储在存储器402内的数据,执行计算机设备的各种功能和处理数据,从而对电子设备进行整体监控。可选的,处理器401可包括一个或多个处理核心;优选的,处理器401可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户页面和应用程序等,调制解调处理器主要处理无线通讯。可以理解的是,上述调制解调处理器也可以不集成到处理器401中。
115.存储器402可用于存储软件程序以及模块,处理器401通过运行存储在存储器402的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器402可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机设备的使用所创建的数据等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器402还可以包括存储器控制器,以提供处理器401对存储器402的访问。
116.电子设备还包括给各个部件供电的电源403,优选的,电源403可以通过电源管理系统与处理器401逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源403还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
117.该电子设备还可包括输入单元404,该输入单元404可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
118.尽管未示出,电子设备还可以包括显示单元等,在此不再赘述。具体在本实施例中,电子设备中的处理器401会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器402中,并由处理器401来运行存储在存储器402中的应用程序,
从而实现各种功能,如处理器401可以执行下述步骤:
119.获取目标终端中所播放视频对应的视频播放数据;获取所述目标终端中所进行视频通话对应的视频通话数据;对所述视频播放数据及所述视频通话数据进行融合处理,以生成融合视频数据;控制所述目标终端基于所述融合视频数据播放调整后所述视频,或基于所述融合视频数据更新所述视频通话。
120.在本技术的一些实施例中,所述对所述视频播放数据及所述视频通话数据进行融合处理,以生成融合视频数据时,处理器401可以执行:基于所述视频通话数据进行脸部图像检测处理,以从所述视频通话数据中提取第一对象对应的脸部图像数据;基于所述视频播放数据进行脸部图像检测处理,以从所述视频播放数据中提取第二对象对应的脸部图像数据;基于所述第一对象对应的脸部图像数据及所述第二对象对应的脸部图像数据,对所述视频播放数据及所述视频通话数据进行融合处理,得到所述融合视频数据。
121.在本技术的一些实施例中,所述基于所述视频通话数据进行脸部图像检测处理,以从所述视频通话数据中提取第一对象对应的脸部图像数据时,处理器401可以执行:从参与所述视频通话的对象中确定与所述视频中的视频场景匹配的对象,作为所述第一对象;从所述视频通话数据中获取所述第一对象对应的视频通话画面数据;基于所述视频通话画面数据进行脸部图像检测处理,以从所述视频通话画面数据中提取第一对象对应的脸部图像数据。
122.在本技术的一些实施例中,所述基于所述视频播放数据进行脸部图像检测处理,以从所述视频播放数据中提取第二对象对应的脸部图像数据时,处理器401可以执行:基于所述视频播放数据进行脸部图像检测处理,以确定所述视频播放数据中的所有角色对象;从所有所述角色对象中确定所述第一对象所匹配的角色对象,作为所述第二对象;从所述视频播放数据中提取所述第二对象对应的脸部图像数据。
123.在本技术的一些实施例中,所述融合视频数据包括第一融合视频数据;所述基于所述第一对象对应的脸部图像数据及所述第二对象对应的脸部图像数据,对所述视频播放数据及所述视频通话数据进行融合处理,得到所述融合视频数据时,处理器401可以执行:利用所述第一对象对应的脸部图像数据替换所述视频播放数据中所述第二对象对应的脸部图像数据,得到所述第一融合视频数据。
124.在本技术的一些实施例中,所述融合视频数据包括第一融合视频数据;所述基于所述第一对象对应的脸部图像数据及所述第二对象对应的脸部图像数据,对所述视频播放数据及所述视频通话数据进行融合处理,得到所述融合视频数据时,处理器401可以执行:将所述第一对象对应的脸部图像数据叠加至所述视频播放数据中所述第二对象对应的脸部图像数据之上,得到所述第一融合视频数据。
125.在本技术的一些实施例中,所述融合视频数据包括第二融合视频数据;所述基于所述第一对象对应的脸部图像数据及所述第二对象对应的脸部图像数据,对所述视频播放数据及所述视频通话数据进行融合处理,得到所述融合视频数据时,处理器401可以执行:利用所述第二对象对应的脸部图像数据替换所述视频通话数据中所述第一对象对应的脸部图像数据,得到所述第二融合视频数据。
126.在本技术的一些实施例中,所述融合视频数据包括第二融合视频数据;所述基于所述第一对象对应的脸部图像数据及所述第二对象对应的脸部图像数据,对所述视频播放
数据及所述视频通话数据进行融合处理,得到所述融合视频数据时,处理器401可以执行:将所述第二对象对应的脸部图像数据叠加至所述视频通话数据中所述第一对象对应的脸部图像数据之上,得到所述第二融合视频数据。
127.在本技术的一些实施例中,所述融合视频数据包括第一融合视频数据及第二融合视频数据中至少一种;所述控制所述目标终端基于所述融合视频数据播放调整后所述视频,或基于所述融合视频数据更新所述视频通话时,处理器401可以执行:控制所述目标终端基于所述第一融合视频数据播放调整后所述视频,以及控制所述目标终端基于所述第二融合视频数据更新所述视频通话中至少一种。
128.本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过计算机程序来完成,或通过计算机程序控制相关的硬件来完成,该计算机程序可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
129.为此,本技术实施例还提供一种存储介质,其中存储有计算机程序,该计算机程序能够被处理器进行加载,以执行本技术实施例所提供的任一种方法中的步骤。
130.其中,该存储介质可以包括:只读存储器(rom,read only memory)、随机存取记忆体(ram,random access memory)、磁盘或光盘等。
131.由于该存储介质中所存储的计算机程序,可以执行本技术实施例所提供的任一种方法中的步骤,因此,可以实现本技术实施例所提供的方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
132.本领域技术人员在考虑说明书及实践这里公开的实施方式后,将容易想到本技术的其它实施方案。本技术旨在涵盖本技术的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本技术的一般性原理并包括本技术未公开的本技术领域中的公知常识或惯用技术手段。
133.应当理解的是,本技术并不局限于上面已经描述并在附图中示出的实施例,而可以在不脱离其范围的情况下进行各种修改和改变。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献