一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于多模态模型的视频文本摘要方法、设备及存储介质与流程

2022-04-27 15:26:36 来源:中国专利 TAG:


1.本发明实施例涉及人工智能领域,尤其涉及一种基于多模态模型的视频文本摘要方法、设备及存储介质。


背景技术:

2.目前,在业内智能视频摘要的方法大多使用文本抽取式方法,因为视频中有语音独白,通常使用自动语音识别技术(automatic speech recognition,asr)把声音转成文本,再使用自然语言处理技术,例如计算句子的重要程度,把计算结果为重要的句子抽取出来,由于此方法是从独白中抽取若干句子,所以结果会导致语句之间不通顺。


技术实现要素:

3.以下是对本文详细描述的主题的概述。本概述并非是为了限制权利要求的保护范围。
4.本发明实施例的主要目的在于提出一种基于多模态模型的视频文本摘要方法,能够有效改善在视频中提取的文本摘要内容的准确性。
5.第一方面,本发明实施例提供了一种基于多模态模型的视频文本摘要方法,包括:
6.对视频数据进行特征提取,得到视频特征,所述视频数据为需要提取文本摘要的视频数据;
7.将所述视频特征进行向量化处理,得到视频特征向量;
8.对所述视频数据进行语音提取,得到独白语音信息;
9.通过自动语音识别技术asr将所述独白语音信息转换为文本信息;
10.将所述文本信息进行分词处理,得到多个词信息;
11.将所述视频特征向量和多个所述词信息输入至transformer模型进行训练,得到文本摘要结果,所述transformer模型的编码器中设置用于将图像类特征和文本类特征进行融合的子层,所述子层包括text-vision fusion和add&norm。
12.在一实施例中,所述将所述视频特征向量和所述字典输入至transformer模型进行训练,得到文本摘要结果包括:
13.将所述视频特征向量和所述字典输入至所述transformer模型的设置有用于将图像特征和文本特征进行融合的子层的编码器中进行融合处理,得到融合编码信息;
14.将所述融合编码信息传递至解码器中进行解码处理,生成文本摘要结果。
15.在一实施例中,所述将所述视频特征向量和所述字典输入至transformer模型的设置有用于将图像类特征和文本类特征进行融合的子层的编码器进行融合处理,得到融合编码信息,包括:
16.将所述字典输入至所述transformer模型的所述编码器,并将所述字典依次通过所述编码器中的第一子层和第二子层进行提取处理,得到文本特征向量,所述第一子层包括multi-head self-attention和add&norm,所述第二子层包括ffn和add&norm;
17.将所述文本特征向量和所述视频特征向量输入至用于将图像类特征和文本类特征进行融合的子层进行融合处理,得到融合编码信息。
18.在一实施例中,所述将所述文本特征向量和所述视频特征向量输入至用于将图像类特征和文本类特征进行融合的子层进行融合处理,得到融合编码信息包括:
19.将所述文本特征向量和所述视频特征向量输入至用于将图像类特征和文本类特征进行融合的子层;
20.将zv与权重矩阵进行矩阵相乘处理,得到zv',所述zv为所述视频特征向量;
21.将所述zv'进行矩阵转置处理,得到zv'
t

22.将zv'
t
与z
t
进行矩阵相乘并通过softmax函数进行计算处理,得到a,a为注意力权重;
23.将所述a与zv进行相乘处理得到azv,并将azv与z
t
进行向量拼接处理,得到z’t
,z’t
为融合编码信息。
24.在一实施例中,所述对所述视频数据进行特征提取,得到视频特征向量包括:
25.利用3d resnet-101模型对所述视频数据进行特征提取,得到视频特征向量。
26.在一实施例中,所述将所述文本信息进行分词处理,得到多个词信息包括:
27.使用hanlp分词工具将所述文本信息进行分词处理,得到多个词信息。
28.在一实施例中,所述使用hanlp分词工具将所述文本信息进行分词处理,得到多个词信息包括:
29.所述使用hanlp分词工具将所述文本信息进行分词处理,得到排列在同一行的多个词信息;
30.将多个所述词信息进行分行处理,得到以分行字典结构排列的多个词信息。
31.第二方面,本发明实施例提供了一种基于多模态模型的视频文本摘要装置,包括:
32.第一提取模块,用于对视频数据进行特征提取,得到视频特征,所述视频数据为需要提取文本摘要的视频数据;
33.向量化模块,用于将所述视频特征进行向量化处理,得到视频特征向量;
34.第二提取模块,用于对所述视频数据进行语音提取,得到独白语音信息;
35.转换模块,用于通过自动语音识别技术asr将所述独白语音信息转换为文本信息;
36.分词模块,用于将所述文本信息进行分词处理,得到多个词信息;
37.训练模块,用于将所述视频特征向量和多个所述词信息输入至transformer模型进行训练,得到文本摘要结果,所述transformer模型的编码器中设置用于将图像类特征和文本类特征进行融合的子层,所述子层包括text-vision fusion和add&norm。
38.在一实施例中,训练模块还用于将所述视频特征向量和所述字典输入至所述transformer模型的设置有用于将图像特征和文本特征进行融合的子层的编码器中进行融合处理,得到融合编码信息;将所述融合编码信息传递至解码器中进行解码处理,生成文本摘要结果。
39.在一实施例中,训练模块还用于将所述字典输入至所述transformer模型的所述编码器,并将所述字典依次通过所述编码器中的第一子层和第二子层进行提取处理,得到文本特征向量,所述第一子层包括multi-head self-attention和add&norm,所述第二子层包括ffn和add&norm;将所述文本特征向量和所述视频特征向量输入至用于将图像类特征
和文本类特征进行融合的子层进行融合处理,得到融合编码信息。
40.在一实施例中,训练模块还用于将所述文本特征向量和所述视频特征向量输入至用于将图像类特征和文本类特征进行融合的子层;将zv与权重矩阵进行矩阵相乘处理,得到zv',所述zv为所述视频特征向量;将所述zv'进行矩阵转置处理,得到zv'
t
;将zv'
t
与z
t
进行矩阵相乘并通过softmax函数进行计算处理,得到a,a为注意力权重;将所述a与zv进行相乘处理得到azv,并将azv与z
t
进行向量拼接处理,得到z
t
',z
t
'为融合编码信息。
41.在一实施例中,提取模块还用于利用3d resnet-101模型对所述视频数据进行特征提取,得到视频特征向量。
42.在一实施例中,分词模块还用于使用hanlp分词工具将所述文本信息进行分词处理,得到多个词信息。
43.在一实施例中,分词模块还用于所述使用hanlp分词工具将所述文本信息进行分词处理,得到排列在同一行的多个词信息;
44.将多个所述词信息进行分行处理,得到以分行字典结构排列的多个词信息。
45.第三方面,本发明实施例提供了一种设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的基于多模态模型的视频文本摘要方法。
46.第四方面,一种计算机可读存储介质,存储有计算机可执行指令,所述计算机可执行指令用于执行第一方面所述的基于多模态模型的视频文本摘要方法。
47.本发明实施例包括:基于多模态模型的视频文本摘要方法包括以下步骤:对视频数据进行特征提取,得到视频特征,所述视频数据为需要提取文本摘要的视频数据;将所述视频特征进行向量化处理,得到视频特征向量;对所述视频数据进行语音提取,得到独白语音信息;通过自动语音识别技术asr将所述独白语音信息转换为文本信息;将所述文本信息进行分词处理,得到多个词信息;将所述视频特征向量和多个所述词信息输入至transformer模型进行训练,得到文本摘要结果,所述transformer模型的编码器中设置用于将图像类特征和文本类特征进行融合的子层,所述子层包括text-vision fusion和add&norm。在本实施例的技术方案中,在transformer模型的编码器中新设置用于将图像类特征和文本类特征进行融合的子层,使得视频特征向量和字典在transformer模型训练得出的文本摘要结果更加准确,即能够有效改善在视频中提取的文本摘要内容的准确性。
48.本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
附图说明
49.图1是本发明一个实施例提供的用于执行基于多模态模型的视频文本摘要方法的系统架构平台的示意图;
50.图2是本发明一个实施例提供的基于多模态模型的视频文本摘要方法的流程图;
51.图3是本发明一个实施例提供的基于多模态模型的视频文本摘要方法中改进的transformer模型的示意图;
52.图4是本发明一个实施例提供的基于多模态模型的视频文本摘要方法中的生成文
本摘要结果的流程图;
53.图5是本发明一个实施例提供的基于多模态模型的视频文本摘要方法中生成融合编码信息的示意图;
54.图6是本发明一个实施例提供的基于多模态模型的视频文本摘要方法中编码器中新增子层中融合处理的流程图;
55.图7是本发明一个实施例提供的基于多模态模型的视频文本摘要方法中编码器中新增子层的结构示意图。
具体实施方式
56.为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
57.需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书、权利要求书或上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
58.本技术实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(artificial intelligence,ai)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
59.人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
60.本发明实施例提供了一种基于多模态模型的视频文本摘要方法,该视频文本摘要方法包括以下步骤:对视频数据进行特征提取,得到视频特征,所述视频数据为需要提取文本摘要的视频数据;将所述视频特征进行向量化处理,得到视频特征向量;对所述视频数据进行语音提取,得到独白语音信息;通过自动语音识别技术asr将所述独白语音信息转换为文本信息;将所述文本信息进行分词处理,得到多个词信息;将所述视频特征向量和多个所述词信息输入至transformer模型进行训练,得到文本摘要结果,所述transformer模型的编码器中设置用于将图像类特征和文本类特征进行融合的子层,所述子层包括text-vision fusion和add&norm。在本实施例的技术方案中,在transformer模型的编码器中新设置用于将图像类特征和文本类特征进行融合的子层,使得视频特征向量和字典在transformer模型训练得出的文本摘要结果更加准确,能够有效改善在视频中提取的文本摘要内容的准确性。
61.下面结合附图,对本发明实施例作进一步阐述。
62.如图1所示,图1是本发明一个实施例提供的用于执行基于多模态模型的视频文本摘要方法的系统架构平台100的示意图。
63.在图1的示例中,该系统架构平台100设置有处理器110和存储器120,其中,处理器
110和存储器120可以通过总线或者其他方式连接,图1中以通过总线连接为例。
64.存储器120作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器120可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器120可选包括相对于处理器110远程设置的存储器,这些远程存储器可以通过网络连接至该系统架构平台。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
65.本领域技术人员可以理解的是,该系统架构平台可以应用于5g通信网络系统以及后续演进的移动通信网络系统等,本实施例对此并不作具体限定。
66.本领域技术人员可以理解的是,图1中示出的系统架构平台并不构成对本发明实施例的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
67.系统架构平台100可以是独立的系统架构平台100,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(content delivery network,cdn)、以及大数据和人工智能平台等基础云计算服务的云系统架构平台100。
68.基于上述系统架构平台,下面提出本发明的基于多模态模型的视频文本摘要方法的各个实施例。
69.如图2所示,图2是本发明一个实施例提供的基于多模态模型的视频文本摘要方法的流程图,该基于多模态模型的视频文本摘要方法应用于上述架构平台,并且该基于多模态模型的视频文本摘要方法包括但不限于有步骤s100、步骤s200、步骤s300、步骤s400和步骤s500。
70.步骤s100,对视频数据进行特征提取,得到视频特征,视频数据为需要提取文本摘要的视频数据;
71.步骤s200,将视频特征进行向量化处理,得到视频特征向量;
72.步骤s300,对视频数据进行语音提取,得到独白语音信息;
73.步骤s400,通过自动语音识别技术asr将独白语音信息转换为文本信息;
74.步骤s500,将文本信息进行分词处理,得到多个词信息;
75.步骤s600,将视频特征向量和多个词信息输入至transformer模型进行训练,得到文本摘要结果,transformer模型的编码器中设置用于将图像类特征和文本类特征进行融合的子层,子层包括text-vision fusion和add&norm。
76.在一实施例中,获取需要提取文本摘要的视频数据,视频数据包括视频图像信息和语音信息,其中语音信息包括独白语音信息和背景语音信息,然后对视频数据进行特征提取得到视频特征,并将视频特征进行向量化处理得到视频特征向量,其中视频特征向量为后续训练步骤做准备;同时可以对视频数据进行语音提取得到独白语音信息,并通过自动语音识别技术asr将独白语音信息转换为文本信息,再将文本信息进行分词处理得到多个词信息;接着将已经处理好的视频特征向量和多个词信息输入至transformer模型中进行训练,得到经过将图像类特征和文本类特征进行融合的子层训练处理后的文本摘要结果。由于在transformer模型的编码器中新设置用于将图像类特征和文本类特征进行融合
的子层,该子层包括text-vision fusion和add&norm,使得视频特征向量和字典在transformer模型训练得出的文本摘要结果更加准确,能够有效改善在视频中提取的文本摘要内容的准确性。需要说明的是,可以利用3d resnet-101模型对视频数据进行特征提取得到视频特征向量,也可以利用其它模型对视频数据中的视频特征进行提取,本实施例对其不作唯一限定。
77.可以理解的是,将文本信息进行分词处理得到多个词信息的步骤可以是使用hanlp分词工具将文本信息进行分词处理得到多个词信息,还可以是所述使用hanlp分词工具将所述文本信息进行分词处理,得到排列在同一行的多个词信息;将多个所述词信息进行分行处理,得到以分行字典结构排列的多个词信息,本实施例对其不作具体限定。可以理解的是,本实施例中的字典包括多个词信息,在字典中每个词信息均独立为一行,每个词信息对应一个行位置编号。
78.需要说明的是,参照图3,本实施例在传统的transformer模型中的encoder layer增加一个子层,该子层用于将图像类特征和文本类特征进行融合,包括text-vision fusion和add&norm。那么改进后的transformer模型包括encoder端(编码器)和decoder端(解码器),encoder端中的encoder layer包括三个子层:第一子层(multi-head self-attention和add&norm)、第二子层(ffn和add&norm)和第三子层(text-vision fusion和add&norm),decoder端的decoder layer包括三个子层:第四子层(masked multi-head self-attention和add&norm)、第五子层(multi-head enc-dec attention和add&norm)和第六子层(ffn和add&norm)。
79.需要说明的是,text inputs是输入分好词的文本(字典),传统的transformer模型中这些词会对应有3个embedding。一个是token embedding令牌嵌入,可以叫标记嵌入(token embedding)也叫词嵌入(word embedding))作用是将人类的语言映射到几何空间中,一个是segment embedding分段嵌入,还有一个是positional embedding位置嵌入。在实施例中只使用了token embedding和segment embedding。其中token embedding的获取方法是:将text inputs与一个大小为n*512的权重矩阵相乘,得到向量长度为512的token embedding,其中text inputs是由一个长度为字典行数n作为维度的向量,而且text inputs里的每一个词都会对应字典中的一个位置,在这个位置上标注1,其余位置标注0。
80.参照图4,在一实施例中,步骤s500包括但不限于步骤s410和步骤s420。
81.步骤s410,将视频特征向量和字典输入至transformer模型的设置有用于将图像特征和文本特征进行融合的子层的编码器中进行融合处理,得到融合编码信息;
82.步骤s420,将融合编码信息传递至解码器中进行解码处理,生成文本摘要结果。
83.具体地,将视频特征向量和字典可以分别输入至transformer模型的设置有用于将图像特征和文本特征进行融合的子层的编码器中进行融合处理,得到融合编码信息,然后再将融合编码信息传递至解码器中进行解码处理,从而生成文本摘要结果。由于在transformer模型的编码器中新设置用于将图像类特征和文本类特征进行融合的子层,而不是单纯通过文本特征向量训练出来的,使得视频特征向量和字典在transformer模型训练得出的文本摘要结果更加准确,能够有效改善在视频中提取的文本摘要内容的准确性。
84.参照图5,在一实施例中,步骤s410包括但不限于步骤s510和步骤s520。
85.步骤s510,将字典输入至transformer模型的编码器,并将字典依次通过编码器中
的第一子层和第二子层进行提取处理,得到文本特征向量,第一子层包括multi-head self-attention和add&norm,第二子层包括ffn和add&norm;
86.步骤s520,将文本特征向量和视频特征向量输入至用于将图像类特征和文本类特征进行融合的子层进行融合处理,得到融合编码信息。
87.具体地,可以先将字典输入至transformer模型的编码器进行处理,如先将字典依次通过编码器中的第一子层(multi-head self-attention和add&norm)和第二子层(ffn和add&norm)进行提取处理,得到文本特征向量,然后再将文本特征向量和视频特征向量输入新增的子层中进行图像类特征和文本类特征融合处理得到融合编码信息,由于融合编码信息是由文本特征向量和视频特征向量融合而成的,而不是单纯通过文本特征向量训练出来的,那么将融合编码信息通过解码器进行解码生成文本摘要结果更加准确,能够有效改善在视频中提取的文本摘要内容的准确性。
88.参照图6,在一实施例中,步骤s510包括但不限于步骤s610、步骤s620、步骤s630、步骤s640、步骤s650。
89.步骤s610,将文本特征向量和视频特征向量输入至用于将图像类特征和文本类特征进行融合的子层;
90.步骤s620,将zv与权重矩阵进行矩阵相乘处理,得到zv',zv为视频特征向量;
91.步骤s630,将z’v
进行矩阵转置处理,得到
92.步骤s640,将与z
t
进行矩阵相乘并通过softmax函数进行计算处理,得到a,a为注意力权重;
93.步骤s650,将a与zv进行相乘处理得到azv,并将azv与z
t
进行向量拼接处理,得到z’t
,z’t
为融合编码信息。
94.具体地,将文本特征向量和视频特征向量输入至用于将图像类特征和文本类特征进行融合的子层,在子层中先将zv与权重矩阵进行矩阵相乘处理,得到z’v
,然后将z’v
进行矩阵转置处理得到再将与z
t
进行矩阵相乘并通过softmax函数进行计算处理得到a,将a与zv进行相乘处理得到azv,并将azv与z
t
进行向量拼接处理,得到z’t
。其中zv为视频特征向量,a为注意力权重,z’t
为融合编码信息。
95.在一实施例中,在transformer模型的编码器中新增的用于将图像类特征和文本类特征进行融合的子层中的text-vision fusion的结构参照图7,基于text-vision fusion的结构对文本特征向量和视频特征向量在text-vision fusion中的融合过程,可以通过数学公式表达,具体如下:
[0096][0097][0098]z′
t
=concat(z
t
,azv)w2[0099]
其中w1为权重矩阵,zv为视频特征向量,a为注意力权重,z’t
为融合编码信息。
[0100]
本实施的方法由于引入图像类特征,能够达到在自动文本摘要更好的效果,例如在rouge-1,rouge-2,rouge-l等评估方法中得分更高。
[0101]
基于上述基于多模态模型的视频文本摘要方法,下面分别提出本发明的基于多模
态模型的视频文本摘要方法装置、控制器和计算机可读存储介质的各个实施例。
[0102]
本发明的一个实施例还提供了基于改进题目反应理论的答题序列的预测装置,包括:
[0103]
第一提取模块,用于对视频数据进行特征提取,得到视频特征,所述视频数据为需要提取文本摘要的视频数据;
[0104]
向量化模块,用于将所述视频特征进行向量化处理,得到视频特征向量;
[0105]
第二提取模块,用于对所述视频数据进行语音提取,得到独白语音信息;
[0106]
转换模块,用于通过自动语音识别技术asr将所述独白语音信息转换为文本信息;
[0107]
分词模块,用于将所述文本信息进行分词处理,得到多个词信息;
[0108]
训练模块,用于将所述视频特征向量和多个所述词信息输入至transformer模型进行训练,得到文本摘要结果,所述transformer模型的编码器中设置用于将图像类特征和文本类特征进行融合的子层,所述子层包括text-vision fusion和add&norm。
[0109]
在一实施例中,训练模块还用于将视频特征向量和字典输入至transformer模型的设置有用于将图像特征和文本特征进行融合的子层的编码器中进行融合处理,得到融合编码信息;将融合编码信息传递至解码器中进行解码处理,生成文本摘要结果。
[0110]
在一实施例中,训练模块还用于将字典输入至transformer模型的编码器,并将字典依次通过编码器中的第一子层和第二子层进行提取处理,得到文本特征向量,第一子层包括multi-head self-attention和add&norm,第二子层包括ffn和add&norm;将文本特征向量和视频特征向量输入至用于将图像类特征和文本类特征进行融合的子层进行融合处理,得到融合编码信息。
[0111]
在一实施例中,训练模块还用于将文本特征向量和视频特征向量输入至用于将图像类特征和文本类特征进行融合的子层;将zv与权重矩阵进行矩阵相乘处理,得到zv',zv为视频特征向量;将zv'进行矩阵转置处理,得到zv'
t
;将zv'
t
与z
t
进行矩阵相乘并通过softmax函数进行计算处理,得到a,a为注意力权重;将a与zv进行相乘处理得到azv,并将azv与z
t
进行向量拼接处理,得到z
t
',z
t
'为融合编码信息。
[0112]
在一实施例中,提取模块还用于利用3d resnet-101模型对视频数据进行特征提取,得到视频特征向量。
[0113]
在一实施例中,分词模块还用于使用hanlp分词工具将文本信息进行分词处理,得到多个词信息。
[0114]
在一实施例中,分词模块还用于所述使用hanlp分词工具将所述文本信息进行分词处理,得到排列在同一行的多个词信息;
[0115]
将多个所述词信息进行分行处理,得到以分行字典结构排列的多个词信息。
[0116]
需要说明的是,上述基于多模态模型的视频文本摘要装置的各个实施例与基于多模态模型的视频文本摘要方法的实施例中所使用的技术手段、解决的技术问题以及达到的技术效果一致,此处不作具体赘述,详见基于多模态模型的视频文本摘要方法的实施例。
[0117]
另外,本发明的一个实施例提供了一种设备,该设备包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序。
[0118]
处理器和存储器可以通过总线或者其他方式连接。
[0119]
需要说明的是,本实施例中的设备,可以对应为包括有如图1所示实施例中的存储
器和处理器,能够构成图1所示实施例中的系统架构平台的一部分,两者属于相同的发明构思,因此两者具有相同的实现原理以及有益效果,此处不再详述。
[0120]
实现上述实施例的设备侧的基于多模态模型的视频文本摘要方法所需的非暂态软件程序以及指令存储在存储器中,当被处理器执行时,执行上述实施例的基于多模态模型的视频文本摘要方法,例如,执行以上描述的图2中的方法步骤s100至s600、图4中的方法步骤s410至s420、图5中的方法步骤s510至s520、图6中的方法步骤s610至步骤s650。
[0121]
此外,本发明的一个实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,当计算机可执行指令用于执行上述终端侧的基于多模态模型的视频文本摘要方法,例如,执行以上描述的图2中的方法步骤s100至s600、图4中的方法步骤s410至s420、图5中的方法步骤s510至s520、图6中的方法步骤s610至步骤s650。
[0122]
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统可以被实施为软件、固件、硬件及其适当的组合。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于ram、rom、eeprom、闪存或其他存储器技术、cd-rom、数字多功能盘(dvd)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包括计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
[0123]
以上是对本发明的较佳实施进行了具体说明,但本发明并不局限于上述实施方式,熟悉本领域的技术人员在不违背本发明精神的共享条件下还可作出种种等同的变形或替换,这些等同的变形或替换均包括在本发明权利要求所限定的范围内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献