一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种轻量型的视频动作识别方法与流程

2021-11-22 12:36:00 来源:中国专利 TAG:


1.本发明涉及一种轻量型的视频动作识别方法。
技术背景
2.计算机视觉技术的突飞猛进和深度学习方法的发展不仅拓宽了其在图像领域的应用,同时也给视频领域带来了新的可能性。依托于强大的gpu并行计算能力以及海量的带标签数据资源,深度学习算法尤其是卷积神经网络极大地提高了计算机代替人眼对人体动作、各类物体等目标进行识别、跟踪、分割和预测的能力,而借助深度学习技术,人体动作识别算法也得到了飞速发展。
3.基于视频的人体动作识别是指利用视觉处理信息系统从一段未知的视频或者是视频帧序列中自动分析、处理其中正在进行的动作,进而自动识别出视频中的人体目标的动作类别。与一帧帧的图像不同的是,视频数据比图像数据多了时间维度的信息,这也使得基于视频的模型计算更为复杂。高性能gpu的出现,使得训练深层卷积神经网络模型成为了现实。但使用视频数据代替图像数据进行特征训练时,模型的计算量会急剧增加,训练的时间开销也会成倍增长,导致网络模型的实际运行速度将难以满足实时处理的需求。所以,设计轻量级基于视频的人体动作识别算法是极其必要的。


技术实现要素:

4.本发明要克服现有技术的上述缺点,提出一种轻量型的视频动作识别方法。
5.本发明首先对帧化处理后的rgb视频帧图像进行图像增强、引导滤波去噪等预处理,同时利用视频帧序列计算光流序列、提取光流特征图。然后设计lrdn模型以实现轻量化地完成特征提取,并利用预处理后的rgb视频帧对其反复进行迭代训练,以优化其性能。最后基于训练好的lrdn网络模型研发轻量化双流卷积循环神经网络,完成对视频动作的识别分类。其中,利用轻量型的lrdn网络来搭建双流卷积神经网络以分别提取视频的空间特征信息和时域特征信息,接着用特征融合网络将二者进行卷积融合,紧接着将时空融合特征输入到含有软注意力机制的bi

gru网络以获取视频的全局时域信息,快速实现视频动作分类识别。
6.为了实现上述目的,本发明采用以下技术方案:
7.一种轻量型的视频动作识别方法,包括如下步骤:
8.步骤一,视频样本预处理;
9.将获取到的实时监控视频或现有视频序列利用opencv进行视频帧化处理,即把将视频转化为一帧帧的rgb图像。然后对rgb视频帧进行图像增强、去噪等预处理,同时通过视频帧序列计算光流序列,进而提取光流特征图像。
10.(1)rgb视频帧图像预处理;
11.对于rgb视频帧图像的预处理,本发明首先对其进行图像增强。具体有:先将图像划分为n个大小相等且互不重叠的图像子块。其次,对于每个子块,将它的像素个数均匀分
配到它的各个灰度级中,由此可得每个灰度级所分配到的平均像素个数,进一步得到对比度阈值t。再次,利用对比度阈值t对每个图像子块的灰度直方图(即局部直方图)进行裁剪,然后将裁剪部分的像素个数均匀分配到各个灰度级,得到各个灰度级平均分配到的像素个数。然后,反复进行像素裁剪和均匀分配,直至各个灰度级的像素个数均小于阈值。紧接着对重新分配像素后的每个图像子块进行直方图均衡化处理。在对图像子块完成直方图均衡化后,若仅仅利用映射函数进行变换得到每个子块像素点的值,则不仅会导致算法耗时严重,还会让互不重叠的图像子块在图像重构时产生块效应。为了提高图像的质量,加快图像的处理速度,最后利用双线性插值算法计算像素点的值。经过图像增强后,图像的亮度和对比度都会得到较理想的改善,直方图的灰度分布也会变得更加均衡。
12.随后,利用引导滤波对经过图像增强的视频帧图像样本进行去噪。引导滤波是一种以较低运算耗时去除噪声、保持边缘的滤波方法。与其他滤波方法相比,它有着更强的适应性和更优的滤波性能。
13.(2)提取光流特征图像;
14.假设视频帧图像梯度恒定且局部光流恒定,本发明提取光流特征图像的步骤主要有:
15.s1:图像的近似建模;
16.使用一个二次多项式来近似表示一个二维的灰色图像。因为图像一般是二维的,那么图像像素点(x,y)的灰度值可以看成是一个二维变量函数f(x,y),若以感兴趣的像素点为中心构建一个局部坐标系(并不是针对整张图像),那么对该函数进行二项展开,可以近似为:
[0017][0018]
其中,x为二维列向量;a为2
×
2的对称矩阵;b为2
×
1的矩阵;c为常量。
[0019]
然后以该像素点为中心,设定一个方形邻域(2n 1)
×
(2n 1),把邻域内的共(2n 1)2个像素点作为样本点,通过计算这些样本点的值和坐标来进行中心像素点的六维系数的估计,估计的方法常使用加权最小二乘法,其中加权是因为在邻域内,距离中心越近的像素点与中心像素具有越大的相关性,而距离越远的点提供的信息则越少,因此可以将邻域以外的像素点的权重都视为0。此处的系数是针对像素点(x,y)而确定的,对于其他像素点可能并不适用,即对于图像中的每个像素点,都有一个六维向量。
[0020]
s2:位移估计;
[0021]
首先通过全局位移来构造一个新的信号,假设某一个像素点m的原始位置为f1(x),即有:
[0022]
[0023]
则像素点m在邻域范围内移动d后,有:
[0024][0025]
其中,a2=a1,b2=b1‑
2a1d,
[0026]
然后通过假定二次多项式中的系数相等来计算整体的位移。假设式(3)中的a1为非奇异矩阵,则可得到图形的全局位移d值为:
[0027][0028]
按照理论推导,其中必定有a2=a1,但实际情况中未必能满足这一项要求,因此可以用均值来近似真实值,若令:
[0029][0030][0031]
则有:
[0032]
ad=δb
ꢀꢀꢀ
(7)
[0033]
d=(a
t
a)
‑1(a
t
δb)
ꢀꢀꢀ
(8)
[0034]
在计算过程中,可以利用一个先验位移值来缩减迭代次数,因为适当的先验位移值意味着更小的相对位移,从而可以得到更加精准的图像帧间的位移估计,进而在迭代位移估计的过程中获得视频图像帧之间的最优位移值。
[0035]
s3:生成光流特征图;
[0036]
本发明利用hsv颜色模型将光流场转换为光流图像。因为经步骤s1和步骤s2提取到的只是一个光流场,该光流场只是一个二维向量场,需要将其转换为光流特征图才能输入网络中进行特征提取。
[0037]
步骤二,设计lrdn模型;
[0038]
本发明通过设计lrdn模型以实现轻量化地完成特征提取,该模型以预处理后的rgb视频帧或者光流特征图为输入,并且主要由三部分组成:浅层特征提取模块、深层特征提取模块以及图像分类模块。
[0039]
首先,利用1层标准卷积和1层改进的深度可分离卷积提取输入图像的浅层特征。其中,本发明对传统深度可分离卷积操作的改进有:第一,在深度卷积前增加一层1
×
1卷积的“扩张”层,目的是为了提升通道数,获得更多特征。第二,最后不采用relu激活函数,而是直接线性输出,目的是防止relu破坏特征。
[0040]
然后,将浅层特征作为深度特征提取模块的输入,利用lrdb中的局部密集连接、特征复用、下采样操作与残差融合结构获取图像的各项细节特征。其中,对于lrdn模型,深层
特征提取模块是其核心部分,而深层特征提取模块主要是由lrdb组成。lrdb通常包含一个密集连接块、一个下采样过渡块以及一个带池化的恒等连接。而对于模型中的最后一个lrdb,通常直接利用1
×
1conv对该密集块的输出特征进行压缩、整理,然后在倒数第二个lrdb输出的深层特征与压缩后的特征之间加入残差连接,获取最终的深层特征。
[0041]
最后,利用全局平均池化聚合特征图,由全连接层作为特征分类器,对输入的图像进行分类。
[0042]
步骤三,训练lrdn模型;
[0043]
利用视频库中每段视频预处理后的rgb视频帧对lrdn模型进行迭代训练,以保证lrdn网络的鲁棒性,使之可稳定用于步骤四轻量化双流卷积循环神经网络的设计。
[0044]
步骤四,设计轻量化双流卷积循环神经网络;
[0045]
本发明基于lrdn网络模型设计轻量化双流卷积循环神经网络,以快速获取视频行为特征数据。为了获得轻量化双流卷积循环神经网络,利用轻量型的lrdn网络来搭建双流卷积神经网络以分别提取视频的空间特征信息和时域特征信息,再将时空特征融合之后的特征输入含有软注意力机制的bi

gru网络以获取视频的全局时域信息,实现快速视频动作分类识别。
[0046]
1)构建空间lrdn网络;
[0047]
综合考虑模型性能、网络计算损耗等因素,选择lrdn网络作为轻量化双流卷积循环神经网络的空间特征提取网络。同时,通过稀疏下采样切割截取视频帧序列作为整段视频的代表。由此,保证每张视频帧图像的代表性,同时维持视频帧的连贯性;另一方面,去除原始视频帧中的冗余信息,减少数据量,降低计算损耗。
[0048]
帧化处理后得到的视频帧经图像增强、去噪等预处理后即可用以空间lrdn网络的训练,最后得到空间lrdn网络模型的参数。同时,为了便于网络后续的特征融合的加速处理,本发明采用lrdn网络全局平均池化后的特征向量作为输入rgb视频帧的空间特征,并将其保存为中间文件。
[0049]
2)搭建时域lrdn网络;
[0050]
轻量化双流卷积循环神经网络的时域特征提取网络与空间特征提取网络采用平行的结构,即有时域lrdn网络,但二者需独立进行训练且彼此的训练方式也有所区别。对于时域lrdn网络的训练,由于光流视频不能直接作为网络的输入,同时也为了提高网络后期的卷积融合速率,因此本发明以空间lrdn网络前向传播选择的rgb视频帧为基准,抽取每帧rgb视频帧所对应的前4张、后5张以及本身共10张光流图组合成堆叠的光流特征图像输入到网络中,以进行时域lrdn网络的前向传播运算,在得到时域lrdn网络的模型参数的同时将时域网络全局平均池化的输出保存为中间文件,用以后续的特征融合。
[0051]
3)设计特征融合网络;
[0052]
在模型的训练过程中,空间lrdn网络负责提取rgb视频帧序列卷积特征,时域lrdn网络负责提取由视频帧序列计算得来的光流序列卷积特征。因两流网络均为lrdn网络,且两个网络流的输入图像尺寸、通道数相同,所以二者输出的特征图大小也是相等的,因此不需要采取额外的变换操作,可直接进行特征融合。
[0053]
本发明采用的卷积融合网络是一个三层堆叠的卷积层,即第一层利用128个尺寸为1
×1×
64的卷积核对输入的特征进行整理、压缩,第二层采用的是64个尺寸为3
×3×
128
的卷积核,第三层再次使用尺寸为1
×1×
64的卷积核进行降维,以减少网络的参数数量和计算量。
[0054]
对于每段视频,利用空间lrdn网络产生的空间特征图和时域lrdn网络产生的时域特征图作为输入对卷积融合网络进行训练,其中训练时在网络的后面添加一层全连接层,由此得到一个维度与空间网络或时域网络输出相同的融合特征图,并在进行前向传播时保存为中间文件用于含有软注意力机制的bi

gru网络的训练。
[0055]
4)建立含有软注意力机制的视频分类器;
[0056]
本发明利用基于软注意力机制的bi

gru网络进一步提取时空融合特征中表征视频序列的全局时域信息。在bi

gru网络的输入端采用软注意力机制,可以让网络模型学会根据视频帧内容的重要性分配不同的权重,通过给关键帧分配更大的权重,让模型的注意力集中于视频片段的关键帧部分,更加关注视频帧序列中与行为相关的区域,从而排除视频内无关信息对视频行为分析的阻扰,进而提升模型对行为识别的效率与准确率。具体过程如下:
[0057]
在模型的解码过程中,将视频时空融合特征序列的加权和作为bi

gru网络的输入,即有:
[0058][0059]
其中,表示t时刻第i帧视频帧在网络模型注意力分配中待学习的权重,且有表示t时刻第i帧视频帧在网络模型注意力分配中待学习的权重,且有反映了在t时刻第i帧视频帧时空融合特征在行为识别过程中的重要程度,该视频帧对模型完成行为识别越有利,则该注意力权重值越大。而值的大小取决于模型当前时刻t输入的时空融合特征q
i
以及bi

gru网络上一时刻的隐藏层状态值h
t
‑1。
[0060]
然后计算出与q
i
、h
t
‑1之间的相关程度
[0061][0062]
其中,m
α
和n
α
表示网络待学习的权重矩阵;b
α
表示待学习的偏置参数;tanh(
·
)表示激活函数。
[0063]
进一步,把进行softmax归一化处理即可得到值的计算公式:
[0064][0065]
此外,本发明利用经典的软注意力机制初始化策略来计算bi

gru网络中单元状态初始值c0和隐藏层状态初始值h0,分别有:
[0066][0067]
[0068]
其中,与为多层感知器;n表示一个视频帧序列的帧数。通过式(12)和式(13)可计算得到注意力权重向量α1,再利用式(9)可得到bi

gru网络的初始输入向量q1。实验证明了利用这种初始化方法会使得网络更加容易收敛。
[0069]
最后,bi

gru网络的输出向量y
t
的计算较为简单,利用网络隐藏层状态h
t
,通过式(14)即可得到,有:
[0070]
y
t
=softmax(wh
t
b)
ꢀꢀꢀ
(14)
[0071]
其中,w表示隐藏层状态h
t
的权重矩阵;b表示偏置向量。softmax分类器会对每一时刻行为类别的概率分布进行预测,最终输出t个类别概率分布。模型最后一个时刻(即第t时刻)输出的概率分布是最具有代表性的,因其关联了整个视频帧序列之间的信息,所以本发明选择最后一个时刻输出的概率分布中概率最大所对应的行为类别为模型当前输入的视频帧序列所属的行为类别。
[0072]
此外,在模型的训练过程中,本发明使用交叉熵损失函数与注意力正则化以及双随机惩罚原则来定义网络的损失函数用于计算模型的预测值与真实值之间的误差,推动其反向传播更新参数。其中,使用双随机惩罚原则是为了对注意力权重值施加额外的约束,从而保证的实现,而使用注意力正则化是为了约束网络模型在视频帧每个区域的观察时间。通过不断优化如式(15)所定义的损失函数,使其达到全局最小,完成对网络模型的训练调优。
[0073][0074]
其中,训练集且r
i
为训练集中的第i个视频样本,为样本的行为类别标签,n为训练集的大小,并且假定当时,有p
g
'(r
i
)=1,当时,则p
g
'(r
i
)=0,即当样本的行为类别标签为g时,模型计算该样本得到的行为类别g所属的概率为1,否则为0;p
g
(r
i
)表示视频样本r
i
对于行为类别g的预测概率值;t表示时间步长的总数;g表示模型待识别的视频行为类别数;表示注意力惩罚系数;ζ表示注意力权重衰减系数;θ表示所有的模型参数。
[0075]
本发明的优点是:
[0076]
本发明基于轻量化双流卷积循环神经网络,提出了一种轻量型的视频动作识别方法。其突出特点有:其一,提出了轻量化卷积神经网络——lrdn模型,它不只是利用更高效的卷积计算方式去减少模型的参数和计算量,还在标准卷积的基础上利用残差连接、密集连接等改变卷积层之间的连接方式以优化模型的结构,降低计算损耗。其二,提出了轻量化双流网络,利用lrdn模型构建轻量化双流卷积网络,以充分提取视频的空间特征信息和时域特征信息。其三,设计了一种能将两路卷积神经网络的输出特征进行真正意义上的互通和融合的特征融合网络。其四,在双向门控循环单元内引入了软注意力机制来提取视频的全局时域信息,一方面减轻模型处理高维度输入数据的计算负担,另一方面提高模型的输出质量。
附图说明
[0077]
图1是本发明的技术路线图;
[0078]
图2是本发明的图像增强的流程图;
[0079]
图3是本发明的深度可分离卷积原理示意图;
[0080]
图4是本发明的hsv颜色模型的概述图;
[0081]
图5是本发明的特征融合网络结构。
具体实施方式
[0082]
为了验证本发明提出的方法的可行性和优越性,现结合应用场景对本发明做进一步的阐述:
[0083]
一种轻量型的视频动作识别方法,包括如下步骤:
[0084]
步骤一,视频样本预处理;
[0085]
将获取到的实时监控视频或现有视频序列利用opencv进行视频帧化处理,即把将视频转化为一帧帧的rgb图像。然后对rgb视频帧进行图像增强、去噪等预处理,同时通过视频帧序列计算光流序列,进而提取光流特征图像。
[0086]
(1)rgb视频帧图像预处理;
[0087]
对于rgb视频帧图像的预处理,本发明首先对其进行图像增强。具体有:先将图像划分为n个大小相等且互不重叠的图像子块。其次,对于每个子块,将它的像素个数均匀分配到它的各个灰度级中,由此可得每个灰度级所分配到的平均像素个数,进一步得到对比度阈值t。再次,利用对比度阈值t对每个图像子块的灰度直方图(即局部直方图)进行裁剪,然后将裁剪部分的像素个数均匀分配到各个灰度级,得到各个灰度级平均分配到的像素个数。然后,反复进行像素裁剪和均匀分配,直至各个灰度级的像素个数均小于阈值。紧接着对重新分配像素后的每个图像子块进行直方图均衡化处理。在对图像子块完成直方图均衡化后,若仅仅利用映射函数进行变换得到每个子块像素点的值,则不仅会导致算法耗时严重,还会让互不重叠的图像子块在图像重构时产生块效应。为了提高图像的质量,加快图像的处理速度,最后利用双线性插值算法计算像素点的值。经过图像增强后,图像的亮度和对比度都会得到较理想的改善,直方图的灰度分布也会变得更加均衡。
[0088]
随后,利用引导滤波对经过图像增强的视频帧图像样本进行去噪。引导滤波是一种以较低运算耗时去除噪声、保持边缘的滤波方法。与其他滤波方法相比,它有着更强的适应性和更优的滤波性能。
[0089]
(2)提取光流特征图像;
[0090]
假设视频帧图像梯度恒定且局部光流恒定,本发明提取光流特征图像的步骤主要有:
[0091]
s1:图像的近似建模;
[0092]
使用一个二次多项式来近似表示一个二维的灰色图像。因为图像一般是二维的,那么图像像素点(x,y)的灰度值可以看成是一个二维变量函数f(x,y),若以感兴趣的像素点为中心构建一个局部坐标系(并不是针对整张图像),那么对该函数进行二项展开,可以近似为:
[0093][0094]
其中,x为二维列向量;a为2
×
2的对称矩阵;b为2
×
1的矩阵;c为常量。
[0095]
然后以该像素点为中心,设定一个方形邻域(2n 1)
×
(2n 1),把邻域内的共(2n 1)2个像素点作为样本点,通过计算这些样本点的值和坐标来进行中心像素点的六维系数的估计,估计的方法常使用加权最小二乘法,其中加权是因为在邻域内,距离中心越近的像素点与中心像素具有越大的相关性,而距离越远的点提供的信息则越少,因此可以将邻域以外的像素点的权重都视为0。此处的系数是针对像素点(x,y)而确定的,对于其他像素点可能并不适用,即对于图像中的每个像素点,都有一个六维向量。
[0096]
s2:位移估计;
[0097]
首先通过全局位移来构造一个新的信号,假设某一个像素点m的原始位置为f1(x),即有:
[0098][0099]
则像素点m在邻域范围内移动d后,有:
[0100][0101]
其中,a2=a1,b2=b1‑
2a1d,
[0102]
然后通过假定二次多项式中的系数相等来计算整体的位移。假设式(3)中的a1为非奇异矩阵,则可得到图形的全局位移d值为:
[0103][0104]
按照理论推导,其中必定有a2=a1,但实际情况中未必能满足这一项要求,因此可以用均值来近似真实值,若令:
[0105][0106][0107]
则有:
[0108]
ad=δb
ꢀꢀꢀ
(7)
[0109]
d=(a
t
a)
‑1(a
t
δb)
ꢀꢀꢀ
(8)
[0110]
在计算过程中,可以利用一个先验位移值来缩减迭代次数,因为适当的先验位移值意味着更小的相对位移,从而可以得到更加精准的图像帧间的位移估计,进而在迭代位移估计的过程中获得视频图像帧之间的最优位移值。
[0111]
s3:生成光流特征图;
[0112]
本发明利用hsv颜色模型将光流场转换为光流图像。因为经步骤s1和步骤s2提取到的只是一个光流场,该光流场只是一个二维向量场,需要将其转换为光流特征图才能输入网络中进行特征提取。
[0113]
步骤二,设计lrdn模型;
[0114]
本发明通过设计lrdn模型以实现轻量化地完成特征提取,该模型以预处理后的rgb视频帧或者光流特征图为输入,并且主要由三部分组成:浅层特征提取模块、深层特征提取模块以及图像分类模块。
[0115]
首先,利用1层标准卷积和1层改进的深度可分离卷积提取输入图像的浅层特征。其中,本发明对传统深度可分离卷积操作的改进有:第一,在深度卷积前增加一层1
×
1卷积的“扩张”层,目的是为了提升通道数,获得更多特征。第二,最后不采用relu激活函数,而是直接线性输出,目的是防止relu破坏特征。
[0116]
然后,将浅层特征作为深度特征提取模块的输入,利用lrdb中的局部密集连接、特征复用、下采样操作与残差融合结构获取图像的各项细节特征。其中,对于lrdn模型,深层特征提取模块是其核心部分,而深层特征提取模块主要是由lrdb组成。lrdb通常包含一个密集连接块、一个下采样过渡块以及一个带池化的恒等连接。而对于模型中的最后一个lrdb,通常直接利用1
×
1conv对该密集块的输出特征进行压缩、整理,然后在倒数第二个lrdb输出的深层特征与压缩后的特征之间加入残差连接,获取最终的深层特征。
[0117]
最后,利用全局平均池化聚合特征图,由全连接层作为特征分类器,对输入的图像进行分类。
[0118]
步骤三,训练lrdn模型;
[0119]
利用视频库中每段视频预处理后的rgb视频帧对lrdn模型进行迭代训练,以保证lrdn网络的鲁棒性,使之可稳定用于步骤四轻量化双流卷积循环神经网络的设计。
[0120]
步骤四,设计轻量化双流卷积循环神经网络;
[0121]
本发明基于lrdn网络模型设计轻量化双流卷积循环神经网络,以快速获取视频行为特征数据。为了获得轻量化双流卷积循环神经网络,利用轻量型的lrdn网络来搭建双流卷积神经网络以分别提取视频的空间特征信息和时域特征信息,再将时空特征融合之后的特征输入含有软注意力机制的bi

gru网络以获取视频的全局时域信息,实现快速视频动作分类识别。
[0122]
1)构建空间lrdn网络;
[0123]
综合考虑模型性能、网络计算损耗等因素,选择lrdn网络作为轻量化双流卷积循环神经网络的空间特征提取网络。同时,通过稀疏下采样切割截取视频帧序列作为整段视频的代表。由此,保证每张视频帧图像的代表性,同时维持视频帧的连贯性;另一方面,去除原始视频帧中的冗余信息,减少数据量,降低计算损耗。
[0124]
帧化处理后得到的视频帧经图像增强、去噪等预处理后即可用以空间lrdn网络的
训练,最后得到空间lrdn网络模型的参数。同时,为了便于网络后续的特征融合的加速处理,本发明采用lrdn网络全局平均池化后的特征向量作为输入rgb视频帧的空间特征,并将其保存为中间文件。
[0125]
2)搭建时域lrdn网络;
[0126]
轻量化双流卷积循环神经网络的时域特征提取网络与空间特征提取网络采用平行的结构,即有时域lrdn网络,但二者需独立进行训练且彼此的训练方式也有所区别。对于时域lrdn网络的训练,由于光流视频不能直接作为网络的输入,同时也为了提高网络后期的卷积融合速率,因此本发明以空间lrdn网络前向传播选择的rgb视频帧为基准,抽取每帧rgb视频帧所对应的前4张、后5张以及本身共10张光流图组合成堆叠的光流特征图像输入到网络中,以进行时域lrdn网络的前向传播运算,在得到时域lrdn网络的模型参数的同时将时域网络全局平均池化的输出保存为中间文件,用以后续的特征融合。
[0127]
3)设计特征融合网络;
[0128]
在模型的训练过程中,空间lrdn网络负责提取rgb视频帧序列卷积特征,时域lrdn网络负责提取由视频帧序列计算得来的光流序列卷积特征。因两流网络均为lrdn网络,且两个网络流的输入图像尺寸、通道数相同,所以二者输出的特征图大小也是相等的,因此不需要采取额外的变换操作,可直接进行特征融合。
[0129]
本发明采用的卷积融合网络是一个三层堆叠的卷积层,即第一层利用128个尺寸为1
×1×
64的卷积核对输入的特征进行整理、压缩,第二层采用的是64个尺寸为3
×3×
128的卷积核,第三层再次使用尺寸为1
×1×
64的卷积核进行降维,以减少网络的参数数量和计算量。
[0130]
对于每段视频,利用空间lrdn网络产生的空间特征图和时域lrdn网络产生的时域特征图作为输入对卷积融合网络进行训练,其中训练时在网络的后面添加一层全连接层,由此得到一个维度与空间网络或时域网络输出相同的融合特征图,并在进行前向传播时保存为中间文件用于含有软注意力机制的bi

gru网络的训练。
[0131]
4)建立含有软注意力机制的视频分类器;
[0132]
本发明利用基于软注意力机制的bi

gru网络进一步提取时空融合特征中表征视频序列的全局时域信息。在bi

gru网络的输入端采用软注意力机制,可以让网络模型学会根据视频帧内容的重要性分配不同的权重,通过给关键帧分配更大的权重,让模型的注意力集中于视频片段的关键帧部分,更加关注视频帧序列中与行为相关的区域,从而排除视频内无关信息对视频行为分析的阻扰,进而提升模型对行为识别的效率与准确率。具体过程如下:
[0133]
在模型的解码过程中,将视频时空融合特征序列的加权和作为bi

gru网络的输入,即有:
[0134][0135]
其中,表示t时刻第i帧视频帧在网络模型注意力分配中待学习的权重,且有表示t时刻第i帧视频帧在网络模型注意力分配中待学习的权重,且有反映了在t时刻第i帧视频帧时空融合特征在行为识别过程中的重要程度,该视
频帧对模型完成行为识别越有利,则该注意力权重值越大。而值的大小取决于模型当前时刻t输入的时空融合特征q
i
以及bi

gru网络上一时刻的隐藏层状态值h
t
‑1。
[0136]
然后计算出与q
i
、h
t
‑1之间的相关程度
[0137][0138]
其中,m
α
和n
α
表示网络待学习的权重矩阵;b
α
表示待学习的偏置参数;tanh(
·
)表示激活函数。
[0139]
进一步,把进行softmax归一化处理即可得到值的计算公式:
[0140][0141]
此外,本发明利用经典的软注意力机制初始化策略来计算bi

gru网络中单元状态初始值c0和隐藏层状态初始值h0,分别有:
[0142][0143][0144]
其中,与为多层感知器;n表示一个视频帧序列的帧数。通过式(12)和式(13)可计算得到注意力权重向量α1,再利用式(9)可得到bi

gru网络的初始输入向量q1。实验证明了利用这种初始化方法会使得网络更加容易收敛。
[0145]
最后,bi

gru网络的输出向量y
t
的计算较为简单,利用网络隐藏层状态h
t
,通过式(14)即可得到,有:
[0146]
y
t
=softmax(wh
t
b)
ꢀꢀꢀ
(14)
[0147]
其中,w表示隐藏层状态h
t
的权重矩阵;b表示偏置向量。softmax分类器会对每一时刻行为类别的概率分布进行预测,最终输出t个类别概率分布。模型最后一个时刻(即第t时刻)输出的概率分布是最具有代表性的,因其关联了整个视频帧序列之间的信息,所以本发明选择最后一个时刻输出的概率分布中概率最大所对应的行为类别为模型当前输入的视频帧序列所属的行为类别。
[0148]
此外,在模型的训练过程中,本发明使用交叉熵损失函数与注意力正则化以及双随机惩罚原则来定义网络的损失函数用于计算模型的预测值与真实值之间的误差,推动其反向传播更新参数。其中,使用双随机惩罚原则是为了对注意力权重值施加额外的约束,从而保证的实现,而使用注意力正则化是为了约束网络模型在视频帧每个区域的观察时间。通过不断优化如式(15)所定义的损失函数,使其达到全局最小,完成对网络模型的训练调优。
[0149][0150]
其中,训练集且r
i
为训练集中的第i个视频样本,为样本的行为类别标签,n为训练集的大小,并且假定当时,有p
g
'(r
i
)=1,当时,则p
g
'(r
i
)=0,即当样本的行为类别标签为g时,模型计算该样本得到的行为类别g所属的概率为1,否则为0;p
g
(r
i
)表示视频样本r
i
对于行为类别g的预测概率值;t表示时间步长的总数;g表示模型待识别的视频行为类别数;表示注意力惩罚系数;ζ表示注意力权重衰减系数;θ表示所有的模型参数。
[0151]
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献