一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于注意力机制的卷积神经网络相似视频检索方法与流程

2022-06-05 03:44:46 来源:中国专利 TAG:


1.本发明属于相似视频检索技术领域,涉及一种基于注意力机制的卷积神经网络,对相似视频实现检索识别,并采用相应手段对精度以及速度进行提升的技术方案。


背景技术:

2.伴随着大数据的时代,互联网上充满着大量的数据。视频数据作为其中的重要组成部分,正在从各个方面开始影响着人们的日常生活。如何在海量视频数据中实现相似视频检索具有广泛的业务应用,如相似视频去重、相似视频检索等。然而由于各种视频编辑软件诞生,导致了这项工作变得异常的困难。原因在于视频一旦经过了编辑修改,就难以利用传统方法跟原始视频进行匹配了。一般这些修改过的视频大致会呈现如下特点:第一,与原始视频在内容上保证一致;第二,修改原始视频的画质,包括色彩改变、亮度改变、分辨率改变、加入噪声等;第三,在原视频中添加弹幕、logo等其他视频元素。
3.目前相似视频检测方法主要是以两个方面为主:1、视频整体检索,这种方式的速度很快,将视频作为一个整体,表现为一个特征值,但是往往在精度上表现得不是很好,一旦视频发生了修改、截取、拼接等操作,很难被检索出来。2、将视频抽成为一帧帧的图像进行检索,这种方式的精度表现往往很好,但是速度会很慢,当一个视频的时长很长的时候,会很长时间才返回结果,因此很难在具体应用中使用。


技术实现要素:

4.为了解决目前相似视频检索所存在的问题,本发明提供了一种基于注意力机制的卷积神经网络相似视频检索方法,在优化检索速度的同时提升检索的精度。
5.本发明基于注意力机制的卷积神经网络相似视频检索方法,具体步骤如下:
6.步骤1:检索视频的关键帧抽取。
7.步骤2:检索视频的关键帧图像处理。
8.通过去纯色算法和增强图像整体与局部特征;同时将关键帧图像k等分,将分割后的图像缩放到原图大小;加上分割前的关键帧图像,总共是k 1张图像;并对k 1份图像分别做归一化处理,使得每张图像的数值满足标准正态分布。
9.步骤3:关键帧特征提取。
10.步骤4:采用faiss检索,进行检索视频的关键帧特征相似检索。
11.步骤5:帧间结果后处理。
12.通过矫正机制将检索视频每一帧的检索结果重新进行修正,使每个关键帧仅对应一个索引号;将所有的结果按着相同的索引号进行统计,经过softmax机制,最后返回检索到相似视频地置信度。
13.本发明的优点在于:
14.(1)本发明通过采用块结构将视频由原来的一帧帧抽取图像变成了一段抽取一张图像,在不降低视频的多样性特征的同时,极大的提升了检索效率。
15.(2)本发明通过加入位置注意力机制和自适应合并机制,改进了特征提取模型的网络结构,使得模型能够获取到更加丰富的特征同时提高模型的泛化能力;位置注意力机制使得模型更加关注图像的重点区域,从而降低对一些干扰区域的响应,提高模型的泛化能力;自适应合并机制通过融合k个局部特征和1个全局特征,使得模型提取的特征能够同时融合局部与全局特征,极大程度上丰富了提取到的特征值。
16.(3)本发明通过帧间后处理,采用窗口与矫正机制,进一步的降低了模型带来的误差,提升了检索的准确率,而又通过softmax机制将每一帧的匹配结果转换成对应的置信度,能够更好的给检索一个直观的判断,然后通过阈值的筛选,可以极大的提升检索的准确率。
附图说明
17.图1为本发明卷积神经网络相似视频检索方法整体流程图;
18.图2为本发明卷积神经网络相似视频检索方法中视频特征提取流程图;
19.图3为本发明卷积神经网络相似视频检索方法中特征检索流程图;
20.图4为本发明的帧间后处理流程图;图5为加入与没加入注意力机制与自适应合并机制的模型关注特征的区域对比图。
具体实施方式
21.下面结合附图对本发明作进一步详细说明。
22.如图1所示,本发明基于注意力机制的卷积神经网络相似视频检索方法,如图1所示,具体步骤如下:
23.步骤1:检索视频的关键帧抽取。
24.由于帧与帧之间存在着大量的重复数据,因此采用块结构的思想代替传统的连续结构思想,把块抽取的一帧画面称为关键帧,因此在减少视频抽帧画面的同时也极大的提高了整个视频检索的速度。
25.如图2所示,本发明中将视频的对于输入的视频,将首个不是纯色(一帧画面是同一个像素值)的视频画面作为视频的起始关键帧第一关键帧;在确定起始关键帧后,每一个块抽取一帧画面。由于每个视频的fps不一致,导致有时会丢失关键信息,因此所采用的块为自适应大小。
26.随后通过差分法计算视频之后每一帧与前一关键帧之间的相似距离,差分法公式:
[0027][0028]
其中,h表示图像的高,w表示图像的宽,p1(x,y)与p2(x,y)分别表示两个图像的对坐标(x,y)像素值,sd表示相似距离。
[0029]
若当前帧与前一关键帧的相似距离小于阈值dt(distance threshold)时,则丢弃当前帧,继续计算下一帧与当前关键帧的相似距离。若当前帧与前一关键帧的相似距离大于阈值dt (distance threshold)时,则将当前帧记录为关键帧;以此类推,即可抽取出视
频的所有关键帧,由此可以用n个关键帧的图像来代表整个视频。
[0030]
步骤2:检索视频的关键帧图像处理。
[0031]
由于有些视频画面中会有某一行或者某一列是纯色,因此关键帧中存在的这些无关信息,对特征提取模型有着很大的干扰性,严重的影响了模型提取特征时候的纹理和结构特征,因此在确定完关键帧之后,对图像进行预处理。
[0032]
图像预处理采用去纯色算法将关键帧中每行每列中的纯色去掉,留下关键帧对应的纹理与结构特征。所述去纯色算法表示的是抽取图像对角线像素,然后判断该对角点对应的行列元素平均值是否等于对角像素值,若相等,则去掉纯色行或列,否则保留对应行或列。
[0033]
同时为了模型能够更好的理解局部特征和全局特征,因此将再将关键帧图像k等分,将分割后的图像缩放到原图大小;加上分割前的关键帧图像,总共是k 1张图像,从而获取更加丰富的局部与全局特征。然后对这k 1份图像分别做归一化处理,使得每张图像的数值(图像的rgb三个通道值)满足标准正态分布,便于模型的快速收敛。上述归一化处理,表示图像减去均值除以方差,得到一个均值为0,方差为1的图像分布,其中均值是指图像的平均值,方差是指像素点与平均值之间的偏离程度。
[0034]
步骤3:使用改进的resnet-50对关键帧特征提取。
[0035]
原始的resnet-50表示的是模型网络具有50层权重信息的深度残差网络结构;本发明中对原始的resnet-50网络结构进行改进,得到改进的resnet-50包括:
[0036]
1、引入位置注意力机制。
[0037]
位置注意力机制表示的是ca(coordinate attention),对特征图的垂直和水平两个方向分别编码,捕获特征图的距离之间的依存关系,然后通过乘法再将两个方向上的特征合并到特征图上面,用来强调区域的响应响度。由此加强对感兴趣位置的响应强度,减弱相似视频带来的负面影响,更好的提取关键帧特征。
[0038]
2、引入自适应合并机制。
[0039]
自适应合并机制表示的是adaptivemaxpooling concat conv2d模块,先通过最大池化操作获取到每个特征图响应最大的特征,再将这些特征通过连接操作连接在一起,获取到 k 1倍的特征向量,然后再经过卷积操作将k 1个关键帧特征向量合并为一个特征向量,从而将局部特征与全局特征很好的融合在一起,增加模型特征表能力;
[0040]
3、将resnet-50原始的全连接层换成卷积层。
[0041]
由于原始的resnet-50的分类层采用全连接操作的,但这样会导致模型的参数量非常大,不利于检索的速度,因此换成一个卷积核大小为1*1的卷积操作,输入为连接后的维度,输出的维度为类别总数,这样在不影响泛化能力的同时加速了模型的推理速度。
[0042]
从而通过前述1、2、3这3个模块加起来完成了一个k 1份特征图到一份特征向量的输出。
[0043]
随后通过训练数据集对改进的resnet-50网络进行训练和验证;将训练好的模型对k 1 份图像进行特征提取,在提高了推理速度的同时还增强了模型对特征的表达能力。由于改进后的模型自适应合并机制,因此k 1份图像最终会输出为一个特征向量,将这一个特征向量作为当前关键帧的特征。
[0044]
步骤4:检索视频关键帧特征相似检索,引入faiss检索,如图3所示。
[0045]
a、建立视频特征库
[0046]
给定一个原始视频数据库,将原始视频进行排序,针对每个视频建立一个对应的视频索引vid(video index)。
[0047]
随后经过由步骤1~3进行视频特征提取,生成所有原始视频对应的所有关键帧向量。随后由faiss(facebook ai similarity search,facebook的一个开源库)将这些特征向量建立一个对应的特征库,会对每一个特征向量建立一个索引fid,每一个特征向量有且仅有一个fid,用来记录特征向量的同时,也可以更好地与视频的vid做一个对应关系。传统的检索方式通过遍历所有的样本来检索相似距离,一般只能适用小数据量的检索,当数据量达到百万、千万或者亿级别的时候,会使得整个检索的过程变得非常慢,因此本发明中引入faiss来代替传统的检索方式对视频进行建库检索,解决大数据量所带来的问题,在不改变检索结果的同时,能够更加高效的检索数据。
[0048]
b、计算特征与视频特征库的相似距离
[0049]
将关键帧提取到的检索视频的关键帧特征向量与faiss特征库内各个视频关键帧的特征向量分别通过欧式距离计算确定相似距离,根据距离排序,距离越小表明两个关键帧越相似,越大越不相似;随后返回检索视频的各个关键帧对应匹配到的前w个相似特征向量top_w 的fid与相似距离sd构成对应的w个二元组fsdt(fid,sd),再由特征向量fid找到对应库视频的vid,构成w个新的二元组vsdt(vid,sd);通过每一个关键帧检索得到视频对应的n个vsdt,将其汇总在一起定为n-vsdt(维度为:n*w*2)。
[0050]
上述vid(video index)表示视频的索引号;fid(feature index)表示特征向量的索引号;fsdt(feature similar distance tuple)表示特征与相似距离的构成的二元组;vsdt(videosimilar distance tuple)表示匹配对应的视频与特征相似距离构成的二元组;n-vsdt表示有 n个vsdt组成的n维数据。
[0051]
步骤5:帧间结果后处理。
[0052]
由于视频有的关键帧因为抖动、光线等噪音会对特征匹配结果产生一些抖动,因此为了解决这种抖动问题,引入了矫正机制,将每一帧的结果vsdt重新进行修正。对于视频检索的结果,建立左右窗口,对当前的帧的结果由前后帧的结果共同决定,从而解决抖动对最终结果产生的影响;由于视频是采用关键帧特征匹配的方式,所以关系是关键帧-视频,为了使关系调整为视频-视频同时表达两个视频之间相似的置信度,引入了softmax机制。将矫正后的结果送给softmax最后输出视频与视频之间的相似的置信度是多少,然后通过置信度来过滤一些检索不确定的结果,增加检索的准确率。具体方法为:
[0053]
本发明的帧间后处理流程如图4所示,用检索之后的相似视频结果n-vsdt作为帧间后处理的输入,将n-vsdt用sd-t阈值进行判断,这里面的sd-t:表示相似距离阈值(simulation distance threshold);如果vsdt中的相似距离sd小于阈值sd-t,则保留作为矫正关键帧的输入,如果sd大于阈值sd-t,表明两个视频之间的相似程度比较低,则丢弃当前的vsdt,因此过滤掉一些相似距离不满足阈值的视频,提高矫正的精准度。建立左窗口(为:l1)和右窗口(帧窗口长度为:l2),当前帧的结果(当前帧w个vsdt经过处理后对应的唯一 vid)由左右两窗口与当前帧的w个vsdt共同决定,l1窗口投票选出前w个相似视频 vid_l(0,1,2

w),其中vid_l0表示最优相似视频,vid_l1表示次优,以此类推vid_lw 表示最后一个相似vid;l2窗口也投票选出前w个相似视频vid_r(0,1,2

w),当前帧匹配的结果
(vid_c)的结果如下:
[0054]
(1)如果vid_l0与vid_r0的结果相同,则vid_c等于vid_l0;
[0055]
(2)如果vid_l0与vid_r0不相同,则有:
[0056]
a)如果vid_c与vid_l0相同,则vid_c等于vid_l0;
[0057]
b)如果vid_c与vid_r0相同,则vid_c等于vid_r0;
[0058]
c)如果vid_c即不等于vid_l0,也不等于vid_r0,则按着相似级别vid_lw与 vid_rw不断迭代(1)与(2)过程,直到确定vid_c的结果。
[0059]
因为每帧的前后帧数不一样,所以导致了有的前后帧数会小于左右窗口大小,所以为了解决这种情况,这里引入了一个分段函数来自适应解决这个问题,能够根据帧数的长度自动调节左右窗口的大小。分段函数为:
[0060][0061]
其中,l表示窗口长度,x表示前后帧数长度。
[0062]
矫正好每一帧的结果之后,输入到softmax函数,按着置信度由大到小排序输出相似视频的vid,再通过置信度阈值conf决定匹配到相似视频。
[0063]
softmax公式表示为:
[0064][0065]
其中,xi表示每类vid统计的数量,n表示匹配了多少类的vid,p(conf|xi)表示每类 vid对应的置信度是多少。
[0066]
本发明基于注意力机制的卷积神经网络相似视频检索方法,通过采用块结构将视频由原来的一帧帧抽取图像变成了一段抽取一张图像,在不降低视频的多样性特征的同时,极大的提升了检索效率,效率的提升取决于块的大小,而块的大小取决于两个关键帧之间距离,而确定两个关键帧是由相似距离动态确定的;例如:如果一个静止的画面,可能100或者更多帧才取一个关键帧,但是如果帧间变化比较大,也有可能2-3帧就取一个关键帧,如果100 帧取一个关键帧,则提速100倍(剩下99帧会被丢弃,不处理)。
[0067]
同时本发明通过加入位置注意力机制和自适应合并机制,改进了特征提取模型的网络结构,使得模型能够获取到更加丰富的特征同时提高模型的泛化能力;位置注意力机制使得模型更加关注图像的重点区域,从而降低对一些干扰区域的响应,提高模型的泛化能力;自适应合并机制通过融合k个局部特征和1个全局特征,使得模型提取的特征能够同时融合局部与全局特征,极大程度上丰富了提取到的特征值。如图5所示,左图为没有加入注意力机制与自适应合并机制的模型关注特征的地方;右图为改进模型之后,模型关注特征的地方(虚线圈出区域为模型关注的地方);
[0068]
进一步本发明通过帧间后处理,采用窗口与矫正机制,进一步的降低了模型带来的误差,提升了检索的准确率,而又通过softmax机制将每一帧的匹配结果转换成对应的置信度,能够更好的给检索一个直观的判断,然后通过阈值的筛选,可以极大的提升检索的准确率。(以下是在数据集(20万个视频建库,3000个经过变化的视频)上测试的结果:不加后处理:召回率(recall):85.6%,精准度(precision):91.4%,f1-score:88.40%;加入后处
理之后:召回率(recall):90.5%,精准度(precision):96.7%,f1-score:93.49%。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献