一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

视频处理方法、装置、设备和介质与流程

2021-12-17 21:11:00 来源:中国专利 TAG:


1.本公开涉及人工智能技术领域,尤其涉及知识图谱和深度学习技术领域,具体涉及一种视频处理方法、装置、电子设备、计算机可读存储介质和计算机程序产品。


背景技术:

2.随着信息传播技术的发展,视频成为承载信息传递的主要方式之一,被应用到人际交流、工业生产、社会生活的各个方面。视频拆分是对视频数据进行二次加工,将包含多个片段或场景的视频按照特定的逻辑和需求进行拆分的技术手段,在视频智能分析、媒资管理、互联网短视频平台等领域具有重要意义。
3.在此部分中描述的方法不一定是之前已经设想到或采用的方法。除非另有指明,否则不应假定此部分中描述的任何方法仅因其包括在此部分中就被认为是现有技术。类似地,除非另有指明,否则此部分中提及的问题不应认为在任何现有技术中已被公认。


技术实现要素:

4.本公开提供了一种视频处理方法、装置、电子设备、计算机可读存储介质和计算机程序产品。
5.根据本公开的一方面,提供了一种视频处理方法,所述方法包括:对待处理视频进行镜头级别的拆分以得到多个镜头从所述多个镜头提取多个画面帧;提取所述多个画面帧各自的第一特征向量和所述多个镜头各自的流式特征;基于机器学习模型,确定所述待处理视频的多个片段边界;基于所述多个片段边界将所述待处理视频拆分为多个片段;针对所述多个片段中的每一个片段,基于该片段中每两个相邻镜头的相似度,将该片段拆分为至少一个子片段;针对所述至少一个子片段中的每一个子片段,根据该子片段内的画面帧的所述第一特征向量和该子片段内的镜头的所述流式特征,确定该子片段内属于场景边界的至少一个镜头;以及根据所述场景边界对该子片段内的镜头进行合并,以得到至少一个场景。
6.根据本公开的另一方面,提供了一种视频处理装置,所述装置包括:第一拆分模块,所述第一拆分模块被配置为对待处理视频进行镜头级别的拆分以得到多个镜头;第一提取模块,所述第一提取模块被配置为从所述多个镜头提取多个画面帧;第二提取模块,所述第二提取模块被配置为提取所述多个画面帧各自的第一特征向量和所述多个镜头各自的流式特征;第一确定模块,所述第一确定模块被配置为基于机器学习模型,确定所述待处理视频的多个片段边界;第二拆分模块,所述第二拆分模块被配置为基于所述多个片段边界将所述待处理视频拆分为多个片段;第三拆分模块,所述第三拆分模块被配置为针对所述多个片段中的每一个片段,基于该片段中每两个相邻镜头的相似度,将该片段拆分为至少一个子片段;第二确定模块,所述第二确定模块被配置为针对所述至少一个子片段中的每一个子片段,根据该子片段内的画面帧的所述第一特征向量和该子片段内的镜头的所述流式特征,确定该子片段内属于场景边界的至少一个镜头;以及合并模块,所述合并模块被
配置为针对所述至少一个子片段中的每一个子片段,根据所述场景边界对该子片段内的镜头进行合并,以得到至少一个场景。
7.根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述视频处理方法。
8.根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行上述视频处理方法。
9.根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,其中,计算机程序在被处理器执行时实现上述视频处理方法。
10.根据本公开的一个或多个实施例,本公开提供了一种视频处理方法,利用机器学习在片段、子片段、场景这三个由粗到细的维度上依次对视频进行拆分,提升了视频拆分的效率。应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
11.附图示例性地示出了实施例并且构成说明书的一部分,与说明书的文字描述一起用于讲解实施例的示例性实施方式。所示出的实施例仅出于例示的目的,并不限制权利要求的范围。在所有附图中,相同的附图标记指代类似但不一定相同的要素。
12.图1示出了根据本公开的实施例的方法和装置在其中实施的示例性系统的示意图;
13.图2示出了根据本公开示例性实施例的视频处理方法的流程图;
14.图3示出了根据本公开示例性实施例的确定待处理视频的多个片段边界的流程图;
15.图4示出了根据本公开示例性实施例的将片段拆分为至少一个子片段的流程图;
16.图5示出了根据本公开示例性实施例的确定子片段内属于场景边界的至少一个镜头的流程图;
17.图6示出了根据本公开示例性实施例的视频处理装置的结构框图;
18.图7示出了根据本公开示例性实施例的第二提取模块的结构框图;
19.图8示出了根据本公开示例性实施例的第一确定模块的结构框图;
20.图9示出了根据本公开示例性实施例的第三拆分模块的结构框图;
21.图10示出了根据本公开示例性实施例的第二确定模块的结构框图;以及
22.图11示出了能够用于实现本公开的实施例的示例性电子设备的结构框图。
具体实施方式
23.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
24.在本公开中,除非另有说明,否则使用术语“第一”、“第二”等来描述各种要素不意图限定这些要素的位置关系、时序关系或重要性关系,这种术语只是用于将一个元件与另一元件区分开。在一些示例中,要素和第二要素可以指向该要素的同一实例,而在某些情况下,基于上下文的描述,它们也可以指代不同实例。
25.在本公开中对各种所述示例的描述中所使用的术语只是为了描述特定示例的目的,而并非旨在进行限制。除非上下文另外明确地表明,如果不特意限定要素的数量,则该要素可以是一个也可以是多个。此外,本公开中所使用的术语“和/或”涵盖所列出的项目中的任何一个以及全部可能的组合方式。
26.相关技术中,对视频进行场景层的拆分仍以人工为主,通过浏览整个视频,对场景的起始和结束时刻进行标记后再进行物理拆解。人工拆分的方式存在以下不足:成本较高、效率低、有误差,只能将视频拆分到片段级别,镜头和场景由于粒度较细而无法通过人工完成高效拆解。现有技术中,也有通过将音视频分离后利用语音识别出的文本对视频中的场景进行拆分的方法,然而该方法在某些类型的视频中难以适用,例如,在新闻视频中,新闻视频的场景与主播播报的过程往往无明显的逻辑关系。
27.为解决上述问题中的一个或多个,本公开利用机器学习在片段、子片段、场景这三个由粗到细的维度上依次对视频进行拆分,实现在场景层对视频进行拆分,降低了视频拆分的成本的同时提升了视频拆分的效率。
28.以下将结合附图详细描述本公开的实施例。
29.图1示出了根据本公开的实施例可以将本文描述的各种方法和装置在其中实施的示例性系统100的示意图。参考图1,该系统100包括一个或多个客户端设备101、102、103、104、105和106、服务器120以及将一个或多个客户端设备耦接到服务器120的一个或多个通信网络110。客户端设备101、102、103、104、105和106可以被配置为执行一个或多个应用程序。
30.在本公开的实施例中,服务器120可以运行使得能够执行视频处理方法的一个或多个服务或软件应用。
31.在某些实施例中,服务器120还可以提供可以包括非虚拟环境和虚拟环境的其他服务或软件应用。在某些实施例中,这些服务可以作为基于web的服务或云服务提供,例如在软件即服务(saas)模型下提供给客户端设备101、102、103、104、105和/或106的用户。
32.在图1所示的配置中,服务器120可以包括实现由服务器120执行的功能的一个或多个组件。这些组件可以包括可由一个或多个处理器执行的软件组件、硬件组件或其组合。操作客户端设备101、102、103、104、105和/或106的用户可以依次利用一个或多个客户端应用程序来与服务器120进行交互以利用这些组件提供的服务。应当理解,各种不同的系统配置是可能的,其可以与系统100不同。因此,图1是用于实施本文所描述的各种方法的系统的一个示例,并且不旨在进行限制。
33.在一些实施例中,用户可以使用客户端设备101、102、103、104、105和/或106来执行视频处理的方法或是与服务器120相结合共同执行视频处理方法。客户端设备可以提供使客户端设备的用户能够与客户端设备进行交互的接口。客户端设备还可以经由该接口向用户输出信息。尽管图1仅描绘了六种客户端设备,但是本领域技术人员将能够理解,本公开可以支持任何数量的客户端设备。
34.客户端设备101、102、103、104、105和/或106可以包括各种类型的计算机设备,例如便携式手持设备、通用计算机(诸如个人计算机和膝上型计算机)、工作站计算机、可穿戴设备、智能屏设备、自助服务终端设备、服务机器人、游戏系统、瘦客户端、各种消息收发设备、传感器或其他感测设备等。这些计算机设备可以运行各种类型和版本的软件应用程序和操作系统,例如microsoft windows、apple ios、类unix操作系统、linux或类linux操作系统(例如google chrome os);或包括各种移动操作系统,例如microsoft windows mobile os、ios、windows phone、android。便携式手持设备可以包括蜂窝电话、智能电话、平板电脑、个人数字助理(pda)等。可穿戴设备可以包括头戴式显示器(诸如智能眼镜)和其他设备。游戏系统可以包括各种手持式游戏设备、支持互联网的游戏设备等。客户端设备能够执行各种不同的应用程序,例如各种与internet相关的应用程序、通信应用程序(例如电子邮件应用程序)、短消息服务(sms)应用程序,并且可以使用各种通信协议。
35.网络110可以是本领域技术人员熟知的任何类型的网络,其可以使用多种可用协议中的任何一种(包括但不限于tcp/ip、sna、ipx等)来支持数据通信。仅作为示例,一个或多个网络110可以是局域网(lan)、基于以太网的网络、令牌环、广域网(wan)、因特网、虚拟网络、虚拟专用网络(vpn)、内部网、外部网、公共交换电话网(pstn)、红外网络、无线网络(例如蓝牙、wifi)和/或这些和/或其他网络的任意组合。
36.服务器120可以包括一个或多个通用计算机、专用服务器计算机(例如pc(个人计算机)服务器、unix服务器、中端服务器)、刀片式服务器、大型计算机、服务器群集或任何其他适当的布置和/或组合。服务器120可以包括运行虚拟操作系统的一个或多个虚拟机,或者涉及虚拟化的其他计算架构(例如可以被虚拟化以维护服务器的虚拟存储设备的逻辑存储设备的一个或多个灵活池)。在各种实施例中,服务器120可以运行提供下文所描述的功能的一个或多个服务或软件应用。
37.服务器120中的计算单元可以运行包括上述任何操作系统以及任何商业上可用的服务器操作系统的一个或多个操作系统。服务器120还可以运行各种附加服务器应用程序和/或中间层应用程序中的任何一个,包括http服务器、ftp服务器、cgi服务器、java服务器、数据库服务器等。
38.在一些实施方式中,服务器120可以包括一个或多个应用程序,以分析和合并从客户端设备101、102、103、104、105和106的用户接收的数据馈送和/或事件更新。服务器120还可以包括一个或多个应用程序,以经由客户端设备101、102、103、104、105和106的一个或多个显示设备来显示数据馈送和/或实时事件。
39.在一些实施方式中,服务器120可以为分布式系统的服务器,或者是结合了区块链的服务器。服务器120也可以是云服务器,或者是带人工智能技术的智能云计算服务器或智能云主机。云服务器是云计算服务体系中的一项主机产品,以解决传统物理主机与虚拟专用服务器(vps,virtual private server)服务中存在的管理难度大、业务扩展性弱的缺陷。
40.系统100还可以包括一个或多个数据库130。在某些实施例中,这些数据库可以用于存储数据和其他信息。例如,数据库130中的一个或多个可用于存储诸如音频文件和视频文件的信息。数据库130可以驻留在各种位置。例如,由服务器120使用的数据库可以在服务器120本地,或者可以远离服务器120且可以经由基于网络或专用的连接与服务器120通信。
数据库130可以是不同的类型。在某些实施例中,由服务器120使用的数据库例如可以是关系数据库。这些数据库中的一个或多个可以响应于命令而存储、更新和检索到数据库以及来自数据库的数据。
41.在某些实施例中,数据库130中的一个或多个还可以由应用程序使用来存储应用程序数据。由应用程序使用的数据库可以是不同类型的数据库,例如键值存储库,对象存储库或由文件系统支持的常规存储库。
42.图1的系统100可以以各种方式配置和操作,以使得能够应用根据本公开所描述的各种方法和装置。
43.图2示出了根据本公开示例性实施例的视频处理方法的流程图。
44.如图2所示,所述视频处理方法200可以包括:步骤s201、对待处理视频进行镜头级别的拆分以得到多个镜头;步骤s202、从所述多个镜头提取多个画面帧;步骤s203、提取所述多个画面帧各自的第一特征向量和所述多个镜头各自的流式特征;步骤s204、基于机器学习模型,确定所述待处理视频的多个片段边界;步骤s205、基于所述多个片段边界将所述待处理视频拆分为多个片段;步骤s206、针对所述多个片段中的每一个片段,基于该片段中每两个相邻镜头的相似度,将该片段拆分为至少一个子片段;步骤s207、针对所述至少一个子片段中的每一个子片段,步骤s207

1、根据该子片段内的画面帧的所述第一特征向量和该子片段内的镜头的所述流式特征,确定该子片段内属于场景边界的至少一个镜头;以及步骤s207

2、根据所述场景边界对该子片段内的镜头进行合并,以得到至少一个场景。
45.由此,利用机器学习在片段、子片段、场景这三个由粗到细的维度上依次对视频进行拆分,实现在场景层对视频进行拆分,降低了视频拆分的成本,提升了视频拆分的效率。同时,通过对画面帧的特征和镜头的特征的结合,增强了镜头的视觉表示能力,提升了视频拆分的有效性。
46.在对视频进行编目时,视频可以由粗到细被拆分为四个维度:片段、场景、镜头和帧。可以理解的是,一个场景可以包含一个或多个镜头,场景与场景之间的边界也是镜头与镜头之间的边界。视频中的场景的可以由视频的片段以部分镜头的边界作为拆分点经过拆分得到,也可以由一个或多个镜头合并得到。因此,在场景层的拆分中对镜头的拆分显得尤为重要。示例性的,在步骤s201中,可以利用开源的镜头识别工具pyscenedetect对待处理视频进行镜头级别的拆分以得到多个镜头。
47.根据一些实施例,步骤s202包括:以预设时间间隔从所述多个镜头中的每一个镜头提取画面帧,以得到所述多个画面帧。
48.示例性的,可以将预设时间间隔设置为1s,即对所述多个镜头中的每一个镜头的每1s提取一个画面帧,用该画面帧来表示该镜头在该1s时间内的画面,而排除该1s时间内其它帧的画面,该画面帧可以是该镜头在该1s时间内的中间画面。由于同一个镜头下的画面相差较小,用一个画面帧来表示1s的镜头可以避免由于多个画面帧相似而带来的冗余现象,亦提升了后续对画面帧进行特征提取的效率。
49.可以理解的是,预设时间间隔的取值设置得越大,提取得到的画面帧的数量越小,处理数据所用的时间会相应地减少,视频拆分的效率会相应得到提升,而用于表示镜头特征的画面帧数量的减少,则会影响视频拆分的准确性。因而,预设时间间隔的取值需根据需要和应用场景进行设置,本技术对此不做限定。
50.根据一些实施例,步骤s203包括:提取所述多个镜头各自的流式特征包括:采用时间分段网络从所述多个镜头提取所述流式特征。镜头的流式特征包括对动作的识别、动作的持续的识别等,可以通过镜头的流式特征更好的识别镜头与镜头之间的关联。
51.根据一些实施例,步骤s203还包括:从所述多个画面帧中的每一个画面帧提取多个特征;以及对该画面帧的所述多个特征进行累加和/或拼接,以得到该画面帧的第一特征向量。通过对画面帧的多维度特征的提取,得到对应每一个维度特征的特征向量,通过累加和/或拼接的方式,得到了能够表示该画面帧多维度特征的第一特征向量。由此,在多个维度上更详细、细致的表示了该画面帧。
52.根据一些实施例,从每一个画面帧提取的所述多个特征包括以下各项中的至少一项:该画面帧的图片颜色直方图特征、该画面帧的人脸特征、该画面帧的地点特征和该画面帧的通用物体特征。将在下面的示例性实施例中,对每一个特征给出详细的解释。
53.在一个示例性的实施例中,在提取画面帧的图片颜色直方图特征时,提取三个维度的颜色直方图,例如分别提取rgb的红、绿和蓝这三个维度的颜色直方图,并取三个维度的均值作为该画面帧的图片颜色直方图特征的表示。颜色直方图用于表示不同色彩在整幅图像中所占的比例,虽无法描述图像中的对象或物体,但对于场景而言,同一场景通常具有相似的背景,因此,图片颜色直方图特征可以用于场景的拆分中。颜色直方图具有多种类型,本公开对所使用的颜色直方图的类型不做限定。
54.在一个示例性的实施例中,利用python开源人脸识别库face_recogintion获取画面帧中的人物及其特征列表。考虑到视频中尤其是新闻类的视频中经常出现重要人物讲话或者出席会议的场景,在这些场景中含有相同的人物,因此,人脸特征是场景中较为重要的特征。
55.在一个示例性的实施例中,利用在地点数据集上经过预训练得到的vgg16_hybrid_places_1365模型提取画面帧的地点特征,并得到相应的地点特征向量。
56.在一个示例性的实施例中,利用已有算子对画面帧进行通用物体的识别,其中通用物体可以包括人、车、动物等,将预测结果利用预训练的语言表征模型进行编码以得到物体向量作为该画面帧的通用物体特征。对通用物体的识别所用的算子为现有技术,本公开在此不做展开。
57.根据一些实施例,步骤s204中所述的机器学习模型为自监督学习模型。
58.图3示出了根据本公开示例性实施例的确定待处理视频的多个片段边界的流程图。如图3所示,确定所述待处理视频的多个片段边界包括:步骤s301、获取与所述待处理视频相关联的音频数据所对应的文本数据;步骤s302、将所述文本数据拆分为多个语句;步骤s303、基于所述自监督学习模型,确定所述多个语句中的多个语句边界;步骤s304、以及基于所述多个语句边界确定所述多个片段边界。
59.为便于描述,下文将以待处理视频为新闻类视频为例来描述模型的训练过程以及模型的应用。可以理解的是,本公开所提供的视频处理方法不仅仅适用于新闻类视频的处理,也同样适用于其他类型的视频的处理。
60.在一个示例中,可以采用sentence

bert结构训练所述自监督学习模型。训练样本可以是基于网页上获取的大批量的未标记类型的新闻报道的文本数据所构建的正负样本,其中,正样本包括两个来自同一篇新闻报道中的上下语句,负样本包括来自不同的新闻报
道中的两个语句。采用sentence

bert结构训练所述自监督学习模型时,将两个语句分别输入到两个相同的bert模型中,通过池化获得两个语句的句向量,并将两个句向量和二者按位求差向量进行拼接,再将拼接好的向量乘上一个可训练的权重,经由softmax激活函数以得到表示两个输入的语句是否来自同一篇新闻报道的输出结果。类似地,在应用所述自监督模型时,将在步骤s302中所获取的两个语句作为输入,送入模型进行预测,将预测结果低于第二预设阈值的两个语句确定为语句边界,并基于模型所确定的语句边界来确定片段边界。基于所述自监督模型确定所述待处理视频中的多个片段边界,基于所述多个片段边界将所述待处理视频拆分为多个片段,以实现片段的拆分。
61.图4示出了根据本公开示例性实施例的将片段拆分为至少一个子片段的流程图。如图4所示,将片段拆分为至少一个子片段包括:步骤s401、针对所述多个镜头中的每一个镜头,根据该镜头包含的画面帧的第一特征向量和该镜头的镜头流式特征,确定该镜头的第二特征向量;步骤s402、针对所述多个片段中的每一个片段,步骤s402

1、基于该片段中每两个相邻镜头的所述第二特征向量,确定相似度小于阈值的相邻镜头;以及步骤s402

2、基于相似度小于阈值的相邻镜头,将该片段拆分为至少一个子片段。
62.由此,通过镜头的流式特征与画面帧的多维特征的结合,对镜头进行了多个维度特征的表示,增强了镜头的视觉表示能力。同时,在利用镜头对视频进行拆分时,也提升了视频拆分的有效性和准确性。
63.示例性的,在将片段拆分为至少一个子片段的过程中,可以通过比较连续镜头之间的余弦相似度,将余弦相似度低于预先设定的阈值的前后两个镜头之间作为片段的拆分点,表示视频在该处出现了明显的场景变化,并根据拆分点将片段拆分为至少一个子片段。
64.图5示出了根据本公开示例性实施例的确定子片段内属于场景边界的至少一个镜头的流程图。如图5所示,根据该子片段内的画面帧的所述第一特征向量和该子片段内的镜头的所述流式特征,确定该子片段内属于场景边界的至少一个镜头包括:步骤s501、针对所述多个镜头中的每一个镜头,根据该镜头包含的画面帧的第一特征向量和该镜头的流式特征,确定该镜头的第二特征向量;步骤s502、针对所述至少一个子片段中的每一个子片段,将所述每一个子片段的每三个连续镜头的第二特征向量输入经训练的神经网络,获取所述神经网络的检测结果,所述检测结果表示三个连续镜头中的中间镜头是否属于场景边界;以及步骤s503、基于所述检测结果确定属于场景边界的所述至少一个镜头。由此,通过神经网络来确定场景边界,以在子片段内得到至少一个场景。
65.根据一些实施例,所述的方法中的所述神经网络包括残差网络。将每一个子片段内的每三个连续镜头的第二特征向量输入到残差网络中,残差网络最后一层通过激活函数输出二分类的预测结果。在一个示例中,所输出的预测结果可以是表示三个连续镜头中的中间镜头属于场景边界的0值和表示三个连续镜头中的中间镜头不属于场景边界的1值,并将属于场景边界的镜头与在前镜头合并,以得到至少一个场景。
66.根据本公开的另一方面,提供了一种视频处理装置。如图6所示,所述视频处理装置600包括:第一拆分模块601,被配置为对待处理视频进行镜头级别的拆分以得到多个镜头;第一提取模块602,被配置为从所述多个镜头提取多个画面帧;第二提取模块603,被配置为提取所述多个画面帧各自的第一特征向量和所述多个镜头各自的流式特征;第一确定模块604,被配置为基于机器学习模型,确定所述待处理视频的多个片段边界;第二拆分模
块605,被配置为基于所述多个片段边界将所述待处理视频拆分为多个片段;第三拆分模块606,被配置为针对所述多个片段中的每一个片段,基于该片段中每两个相邻镜头的相似度,将该片段拆分为至少一个子片段;第二确定模块607,被配置为针对所述至少一个子片段中的每一个子片段,根据该子片段内的画面帧的所述第一特征向量和该子片段内的镜头的所述流式特征,确定该子片段内属于场景边界的至少一个镜头;以及合并模块608,所述合并模块被配置为针对所述至少一个子片段中的每一个子片段,根据所述场景边界对该子片段内的镜头进行合并,以得到至少一个场景。
67.所述视频处理装置600的模块601

608的操作与前面描述的步骤s201

s207

2的操作类似,在此不作赘述。
68.根据一些实施例,第一提取模块602还被配置为:以预设时间间隔从所述多个镜头中的每一个镜头提取画面帧,以得到所述多个画面帧。
69.示例性的,可以将预设时间间隔设置为1s,即第一提取模块602对所述多个镜头中的每一个镜头的每1s提取一个画面帧,以该画面帧来表示该镜头在该1s时间内的画面,而排除该1s时间内其它帧的画面,该画面帧可以是该镜头在该1s时间内的中间画面。由于同一个镜头下的画面相差较小,用一帧画面来表示1s的镜头可以避免由于多个画面帧相似而带来的冗余现象,亦提升了后续对画面帧进行特征提取的效率。
70.可以理解的是,预设时间间隔的取值设置得越大,第一提取模块602所提取得到的画面帧的数量越小,处理数据所用的时间会相应地减少,视频拆分的效率会相应得到提升,而用于表示镜头特征的画面帧数量的减少,亦会影响视频拆分的准确性。因而,预设时间间隔的取值需根据需要和应用场景进行设置,本技术对此不做限定。
71.根据一些实施例,第二提取模块603还被配置为:采用时间分段网络从所述多个镜头提取所述流式特征。镜头的流式特征包括对动作的识别、动作的持续等,可以通过第二提取模块603对镜头的流式特征的提取,更好的识别镜头与镜头之间的关联。
72.如图7所示,第二提取模块603包括:第一提取单元701,被配置为从所述多个画面帧中的每一个画面帧提取多个特征;以及累加单元702,被配置为对该画面帧的所述多个特征进行累加和/或拼接,以得到该画面帧的第一特征向量。通过第一提取单元701对画面帧的多维度特征的提取,得到对应每一个维度特征的特征向量,通过累加单元702,得到了能够表示该画面帧多维度特征的第一特征向量。由此,在多个维度上更详细、细致的表示了该画面帧。
73.根据一些实施例,第一提取单元701从每一个画面帧提取的所述多个特征包括以下各项中的至少一项:该画面帧的图片颜色直方图特征、该画面帧的人脸特征、该画面帧的地点特征和该画面帧的通用物体特征。将在下面的示例性实施例中,对每一个特征给出详细的解释。
74.在一个示例性的实施例中,在第一提取单元701提取画面帧的图片颜色直方图特征时,提取三个维度的颜色直方图,例如分别提取rgb的红、绿和蓝这三个维度的颜色直方图,并取三个维度的均值作为该画面帧的图片颜色直方图特征的表示。颜色直方图用于表示不同色彩在整幅图像中所占的比例,虽无法描述图像中的对象或物体,但对于场景而言,同一场景通常具有相似的背景,因此,图片颜色直方图特征可以用于场景的拆分中。颜色直方图具有多种类型,本公开对所使用的颜色直方图的类型不做限定。
75.在一个示例性的实施例中,第一提取单元701利用python开源人脸识别库face_recogintion获取画面帧中的人物及其特征列表。考虑到视频中尤其是新闻类的视频中经常出现重要人物讲话或者出席会议的场景,在这些场景中含有相同的人物,因此,人脸特征是场景中较为重要的特征。
76.在一个示例性的实施例中,第一提取单元701利用在地点数据集上经过预训练得到的vgg16_hybrid_places_1365模型提取画面帧的地点特征,并得到相应的地点特征向量。
77.在一个示例性的实施例中,第一提取单元701利用已有算子对画面帧进行通用物体的识别,其中通用物体可以包括人、车、动物等,将预测结果利用预训练的语言表征模型进行编码以得到物体向量作为该画面帧的通用物体特征。对通用物体的识别所用的算子为现有技术,本公开在此不做赘述。
78.根据一些实施例,所述的机器学习模型为自监督学习模型,并且如图8所示,第一确定模块604包括:第二获取单元801,被配置为获取与所述待处理视频相关联的音频数据所对应的文本数据;第二拆分单元802,被配置为将所述文本数据拆分为多个语句;第五确定单元803,被配置为基于所述自监督学习模型,确定所述多个语句中的多个语句边界;以及第六确定单元804,被配置为基于所述多个语句边界确定所述多个片段边界。
79.如图9所示,第三拆分模块606包括:第一确定单元901,被配置为针对所述多个镜头中的每一个镜头,根据该镜头包含的画面帧的第一特征向量和该镜头的镜头流式特征,确定该镜头的第二特征向量;第二确定单元902,被配置为针对所述多个片段中的每一个片段,基于该片段中每两个相邻镜头的所述第二特征向量,确定相似度小于阈值的相邻镜头;以及第一拆分单元903,被配置为针对所述多个片段中的每一个片段,基于相似度小于阈值的相邻镜头,将该片段拆分为至少一个子片段。
80.由此,通过第一确定单元901对镜头的流式特征与画面帧的多维特征进行结合,对镜头进行了多个维度特征的表示,增强了镜头的视觉表示能力。同时,在利用镜头对视频进行拆分时,也提升了视频拆分的有效性和准确性。
81.示例性的,在第三拆分模块606将片段拆分为至少一个子片段的过程中,可以通过第二确定单元902比较连续镜头之间的余弦相似度,将余弦相似度低于预先设定的阈值的前后两个镜头之间作为片段的拆分点,表示视频在该处出现了明显的场景变化,第一拆分单元903根据拆分点将片段拆分为至少一个子片段。
82.如图10所示,第二确定模块607包括:第三确定单元1001,被配置为针对所述多个镜头中的每一个镜头,根据该镜头包含的画面帧的第一特征向量和该镜头的流式特征,确定该镜头的第二特征向量;第一获取单元1002,被配置为针对所述至少一个子片段中的每一个子片段,将所述每一个子片段的每三个连续镜头的第二特征向量输入经训练的神经网络,获取所述神经网络的检测结果,所述检测结果表示三个连续镜头中的中间镜头是否属于场景边界;以及第四确定单元1003,被配置为基于所述检测结果确定属于场景边界的所述至少一个镜头。由此,通过第一获取单元1002利用神经网络来确定场景边界,以在子片段内得到至少一个场景。
83.根据一些实施例,所述神经网络包括残差网络。第一获取单元1002将每一个子片段内的每三个连续镜头的第二特征向量输入到残差网络中,残差网络最后一层通过激活函
数输出二分类的预测结果。在一个示例中,所输出的预测结果可以是表示三个连续镜头中的中间镜头属于场景边界的0值和表示三个连续镜头中的中间镜头不属于场景边界的1值,合并模块608将属于场景边界的镜头与在前镜头合并,以得到至少一个场景。
84.根据本公开的另一方面,还提供一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的视频处理方法。
85.根据本公开的另一方面,还提供一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行上述的视频处理方法。
86.根据本公开的另一方面,还提供一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被处理器执行时实现上述的视频处理方法。
87.参考图11,现将描述可以作为本公开的服务器的电子设备1100的结构框图,其是可以应用于本公开的各方面的硬件设备的示例。电子设备旨在表示各种形式的数字电子的计算机设备,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
88.如图11所示,设备1100包括计算单元1101,其可以根据存储在只读存储器(rom)1102中的计算机程序或者从存储单元1108加载到随机访问存储器(ram)1103中的计算机程序,来执行各种适当的动作和处理。在ram1103中,还可存储设备1100操作所需的各种程序和数据。计算单元1101、rom 1102以及ram 1103通过总线1104彼此相连。输入/输出(i/o)接口1105也连接至总线1104。
89.设备1100中的多个部件连接至i/o接口1105,包括:输入单元1106、输出单元1107、存储单元1108以及通信单元1109。输入单元1106可以是能向设备1100输入信息的任何类型的设备,输入单元1106可以接收输入的数字或字符信息,以及产生与电子设备的用户设置和/或功能控制有关的键信号输入,并且可以包括但不限于鼠标、键盘、触摸屏、轨迹板、轨迹球、操作杆、麦克风和/或遥控器。输出单元1107可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。存储单元1108可以包括但不限于磁盘、光盘。通信单元1109允许设备1100通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信收发机和/或芯片组,例如蓝牙tm设备、1302.11设备、wifi设备、wimax设备、蜂窝通信设备和/或类似物。
90.计算单元1101可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1101的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元1101执行上文所描述的各个方法和处理,例如视频处理方法。例如,在一些实施例中,视频处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1108。在一些实施例中,计算机程序的部分或者全部可以经由rom 1102和/或通信单元1109而被载入和/或安装到设备1100上。当计算机程序加载到ram 1103并由计算单元1101执行时,可以执行上文描述的方法的一个或
多个步骤。备选地,在其他实施例中,计算单元1101可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行视频处理方法。
91.本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、负载可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
92.用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
93.在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd

rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
94.为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
95.可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。
96.计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端

服务器关系的计算机程序来产生客户端和服务器的关系。
97.应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行、也可以顺序地或以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
98.虽然已经参照附图描述了本公开的实施例或示例,但应理解,上述的方法、系统和设备仅仅是示例性的实施例或示例,本发明的范围并不由这些实施例或示例限制,而是仅由授权后的权利要求书及其等同范围来限定。实施例或示例中的各种要素可以被省略或者可由其等同要素替代。此外,可以通过不同于本公开中描述的次序来执行各步骤。进一步地,可以以各种方式组合实施例或示例中的各种要素。重要的是随着技术的演进,在此描述的很多要素可以由本公开之后出现的等同要素进行替换。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献