一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于光流约束的时空增强视频异常检测方法

2022-07-30 16:52:03 来源:中国专利 TAG:


1.本发明涉及视频检测技术领域,尤其涉及基于光流约束的时空增强视频异常检测方法。


背景技术:

2.随着物联网与大数据、云计算等信息技术的飞速发展与国民生活需求不断提升,以人为核心的智慧城市逐步形成。智慧安防作为智慧城市的重要组成部分,安防监控工程随处可见,城市化建设已经实现了电子视频监控的全方位覆盖。人工监控一般情况下需要安防人员全天值守,并且安防人员长期对着多个监控画面极易疲惫,很容易错过重要的监控信息。因此,充分利用计算机视觉技术,进行视频异常检测已经成为当前安防监控工程的重要任务。但是,由于视频中的异常事件的概率很低,采集和标注数据都很困难,且存在数据中正负样本分布很不均衡和异常事件判定种类繁多的问题。现有的深度学习的方法,进行视频异常检测时,背景信息过多导致不能很好的捕捉运动物体的语义信息,使得对异常信息不能精确的做出判断。


技术实现要素:

3.本发明为了克服上述技术的不足,提供了一种基于光流约束的时空增强视频异常检测方法,解决了背景信息过多导致不能很好的捕捉运动物体的语义信息,使得对异常信息不能精确的做出判断的问题。
4.为了实现上述目的,本发明采用了如下技术方案:
5.一种基于光流约束的时空增强视频异常检测方法,包括以下步骤:
6.s1:将正常样本作为训练集输入fusionnet-lstm神经网络中,该网络具有编码-预测-解码结构,由卷积层、残差网络层和最大池化层组成;
7.s2:通过特征编码模块对图像通过下采样进行多尺度特征提取,获得更高级的语义信息;
8.s3:通过fusionnet网络,将提取的连续的t帧视频帧(i1,i2,i3…it-1
,i
t
)的高级语义信息输入长短时记忆网络(lstm,long short-term memory)中,得到预测的第n 1帧视频帧;
9.s4:对于得到的预测视频帧,通过fusionnet的解码网络,通过上采样融入背景信息,得到第n 1帧更真实的预测图;
10.s5:计算损失函数;
11.s6:通过损失函数对对抗性训练进行优化,得到一个生成能力较强的生成器;
12.s7:通过不断的迭代训练,得到迭代训练后的生成器模型;
13.s8:将含有异常样本的测试集输入迭代好的生成器模型fusionnet-lstm中,分别计算预测帧(i
t 1
)'和真实帧i
t 1
的峰值信噪比(psnr,peak signal-to-noise ratio),得到异常得分score。
14.进一步地,步骤s5具体还包括以下步骤:
15.s501:均方误差损失(mse)计算:
[0016][0017]
h为真实帧i
t 1
的高,w为真实帧i
t 1
的宽,i
(t 1)'
为预测帧。i,j分别代表图像的空间索引位置;
[0018]
s502:梯度损失计算,梯度损失通过计算水平方向和垂直方向的l1距离可以得到,计算公式如(2)所示:
[0019][0020]
其中,l
grad
为梯度损失,i
t 1
为真实帧,i
(t 1)'
为预测帧,i,j分别代表图像的空间索引位置;
[0021]
s503:强度损失计算,强度损失是预测帧i
(t 1)'
与真实帧i
t 1
之间的l2距离,保证了rgb空间像素的相似性,计算公式如(3)所示:
[0022][0023]
其中,li为强度损失。
[0024]
s504:光流损失计算,计算第t帧和真实的第t 1帧的差值作为真正的运动损失,计算第t帧和预测的第t 1帧的差值计算预测图像的运动损失,取真实的运动损失和预测图像的光流损失的差值绝对值作为光流损失;
[0025]
l
op
(i
t
,i
t 1
,i
(t 1)'
)=||f
op
(i
t
,i
t 1
)-f
op
(i
t
,i
(t 1)'
)||1ꢀꢀꢀꢀ
(4)
[0026]
其中,f
op
为光流函数。
[0027]
进一步地,在步骤s6中,使用梯度损失l
grad
、强度损失li、光流损失l
op
和均方误差损失l
mse
四个损失函数加权来约束生成器,得到优化后的生成器模型,其中,鉴别器采用patch gan对输入图像的每个区域都输出一个预测概率值。
[0028]
具体的,生成器误差计算:
[0029]
lg=λ
grad
l
grad
λili λ
op
l
op
λ
mse
l
mse
ꢀꢀ
(5)
[0030]
其中,λ
grad
、λi、λ
op
、λ
mse
分别为梯度损失、强度损失、光流损失和均方误差损失的权重;
[0031]
鉴别器误差计算:
[0032]
ld=λ
mse
l
mse
ꢀꢀꢀꢀ
(6)
[0033]
其中,λ
mse
为均方误差损失的权重。
[0034]
进一步地,在步骤s7中,迭代训练次数取值大于10000次。
[0035]
进一步地,在步骤s8中,异常得分s计算如下:
[0036]
[0037][0038]
其中,表示i
t
可能的最大取值。
[0039]
具体的,计算出峰值信噪比psnr,通过归一化得到所有t帧的第t帧异常得分
[0040][0041]
相比于现有技术,本发明的有益效果在于:
[0042]
通过fusionnet的残差连接可以减少背景信息对于运动物体语义信息的影响,有效保证了高级语义信息的获取;
[0043]
通过加入光流作为运动约束,有效的保证了预测帧生成的正确;
[0044]
通过加入长短时记忆网络lstm,弥补了fusionnet对于时序特征不明显的问题,使得时空特征提取得以增强;
[0045]
通过对抗性训练,使得预测帧生成更加接近于真实帧,使生成器达到较好的生成水平;
[0046]
综上所述,通过光流约束的时空特征增强的方法可以综合前几帧来检测当前帧是否异常。有效避免了异常数据采集和标注的困难、正负样本不均衡和异常事件种类繁多难以明确界定的问题。通过fusionnet-lstm网络可以使输入视频帧序列的背景信息可以不经过lstm时序预测模块,直接传入解码器中,可以使lstm预测更注重于高级的语义信息,从而在提高检测效率的同时,节省了检测时间。此外,由于增加了光流约束,使得生成器能够生成更加逼真的预测帧。
附图说明
[0047]
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
[0048]
图1是本发明提出的基于光流约束的时空增强视频异常检测方法的流程图;
[0049]
图2是本发明中fusionnet-lstm的预测网络结构图;
[0050]
图3是本发明中uscd ped2数据集上的异常检测psnr结果图。
具体实施方式
[0051]
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
[0052]
一种基于光流约束的时空增强视频异常检测方法,包括以下步骤:
[0053]
s1:将正常样本作为训练集输入fusionnet-lstm神经网络中,该网络具有编码-预测-解码结构,由卷积层、残差网络层和最大池化层组成;
[0054]
s2:通过特征编码模块对图像通过下采样进行多尺度特征提取,获得更高级的语义信息;
[0055]
s3:通过fusionnet网络,将提取的连续的t帧视频帧(i1,i2,i3…it-1
,i
t
)的高级语
义信息输入长短时记忆网络(lstm,long short-term memory)中,得到预测的第n 1帧视频帧;
[0056]
s4:对于得到的预测视频帧,通过fusionnet的解码网络,通过上采样融入背景信息,得到第n 1帧更真实的预测图;
[0057]
s5:计算损失函数;
[0058]
s6:通过损失函数对对抗性训练进行优化,得到一个生成能力较强的生成器。
[0059]
s7:通过不断的迭代训练,得到迭代训练后的生成器模型;
[0060]
s8:将含有异常样本的测试集输入迭代好的生成器模型fusionnet-lstm中,分别计算预测帧(i
t 1
)

和真实帧i
t 1
的峰值信噪比(psnr,peak signal-to-noise ratio),得到异常得分score。
[0061]
在本技术的具体实施中,步骤s5具体还包括以下步骤:
[0062]
s501:均方误差损失(mse)计算:
[0063][0064]
h为真实帧i
t 1
的高,w为真实帧i
t 1
的宽,i
(t 1)

为预测帧。i,j分别代表图像的空间索引位置;
[0065]
s502:梯度损失计算,梯度损失通过计算水平方向和垂直方向的l1距离可以得到,计算公式如(2)所示:
[0066][0067]
其中,l
grad
为梯度损失,i
t 1
为真实帧,i
(t 1)

为预测帧,i,j分别代表图像的空间索引位置;
[0068]
s503:强度损失计算,强度损失是预测帧i
(t 1)

与真实帧i
t 1
之间的l2距离,保证了rgb空间像素的相似性,计算公式如(3)所示:
[0069][0070]
其中,li为强度损失。
[0071]
s504:光流损失计算,计算第t帧和真实的第t 1帧的差值作为真正的运动损失,计算第t帧和预测的第t 1帧的差值计算预测图像的运动损失,取真实的运动损失和预测图像的光流损失的差值绝对值作为光流损失;
[0072]
l
op
(i
t
,i
t 1
,i
(t 1)'
)=||f
op
(i
t
,i
t 1
)-f
op
(i
t
,i
(t 1)'
)||1ꢀꢀꢀꢀ
(4)
[0073]
其中,f
op
为光流函数。
[0074]
在本技术的具体实施中,在步骤s6中,使用梯度损失l
grad
、强度损失li、光流损失l
op
和均方误差损失l
mse
四个损失函数加权来约束生成器,得到优化后的生成器模型,其中,鉴别器采用patch gan对输入图像的每个区域都输出一个预测概率值。
[0075]
具体的,生成器误差计算:
[0076]
lg=λ
grad
l
grad
λili λ
op
l
op
λ
mse
l
mse
ꢀꢀꢀꢀꢀꢀꢀ
(5)
[0077]
其中,λ
grad
、λi、λ
op
、λ
mse
分别为梯度损失、强度损失、光流损失和均方误差损失的权重;
[0078]
鉴别器误差计算:
[0079]
ld=λ
mse
l
mse
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6)
[0080]
其中,λ
mse
为均方误差损失的权重。
[0081]
在本技术的具体实施中,在步骤s7中,迭代训练次数取值大于10000次。
[0082]
在本技术的具体实施中,在步骤s8中,异常得分s计算如下:
[0083][0084][0085]
其中,表示i
t
可能的最大取值。
[0086]
具体的,计算出峰值信噪比psnr,通过归一化得到所有t帧的第t帧异常得分
[0087][0088]
作为同一发明的另一优选实施例:
[0089]
一种基于光流约束的时空增强视频异常检测方法,包括如下步骤:
[0090]
s1:将正常样本作为训练集输入fusionnet-lstm神经网络中,该网络具有编码-预测-解码的对称结构,由卷积层、残差网络层和最大池化层组成;
[0091]
s2:通过fusionnet特征编码模块分别对图像进行2倍、4倍和8倍下采样进行多尺度特征提取,由于残差网络可以将不变的背景信息直接传输进解码网络中,所以不断的下采样可以获得更高级的语义信息传入预测模块;
[0092]
s3:通过fusionnet网络,将提取的连续的t帧视频帧(i1,i2,i3…it-1
,i
t
)的高级语义信息输入长短时记忆网络(lstm,long short-term memory)中,得到预测的第n 1帧视频帧,由于fusionnet的编码器和解码器之间采用残差连接,可以使背景信息直接从编码模块传入解码模块,lstm预测模块则可以更加专注于预测高级的运动语义信息,更加有效的捕获时序信息;
[0093]
s4:对于得到的预测视频帧,通过fusionnet的解码网络,通过2倍、4倍和8倍的上采样结合残差网络传输的背景信息,得到第n 1帧最终的预测图;
[0094]
s5:计算损失函数,通过多种损失约束,使生成更加真实的帧;
[0095]
s6:通过损失函数对抗性训练进行优化,得到一个生成能力较强的生成器;
[0096]
s7:通过不断重复s1-s6的步骤进行迭代训练,得到迭代训练后的生成器模型;
[0097]
s8:将含有异常样本的测试集输入迭代好的生成器模型fusionnet-lstm中,分别计算预测帧(i
t 1
)'和真实帧i
t 1
的峰值信噪比(psnr,peak signal-to-noise ratio),得到异常得分score;
[0098]
进一步的,步骤5包含如下步骤:
[0099]
s501:均方误差损失(mse)计算,
[0100][0101]
h为真实帧i
t 1
的高,w为真实帧i
t 1
的宽,i
(t 1)
'为预测帧。i,j分别代表图像的空间索引位置;
[0102]
s502:梯度损失计算,梯度损失通过计算水平方向和垂直方向的l1距离可以得到,梯度损失函数可以使预测帧和真实帧的梯度保持一致,可以消除预测帧的模糊,使预测帧更加的清晰,具体计算如(11)所示:
[0103][0104]
其中,l
grad
为梯度损失,i
t 1
为真实帧,i
(t 1)'
为预测帧,i,j分别代表图像的空间索引位置。
[0105]
s503:强度损失计算,强度损失是预测帧i
(t 1)

与真实帧i
t 1
之间的l2距离,保证了rgb空间像素的相似性,计算公式如(12)所不:
[0106][0107]
其中,li为强度损失。
[0108]
s504:光流损失计算,计算第t帧和真实的第t 1帧的差值作为真正的运动损失,计算第t帧和预测的第t 1帧的差值计算预测图像的运动损失,取真实的运动损失和预测图像的光流损失的差值绝对值作为光流损失。本发明采用光流估计法flownet2.0,由于均方误差损失、梯度损失和强度损失在运动变化极其微小的时候,难以进行较好的约束,但是flownet2.0由于有较小的卷积核,可以对较小的位移进行高分辨,运动中极其微小的变化也可以产生完全不一样的光流,通过光流约束,可以对运动进行更加正确的预测,光流约束就是为了保证两个光流差尽可能相似。光流损失计算公式如式(13)所示;
[0109]
l
op
(i
t
,i
t 1
,i
(t 1)

)=||f
op
(i
t
,i
t 1
)-f
op
(i
t
,i
(t 1)

)||1ꢀꢀ
(13)
[0110]
其中,f
op
为flownet2.0算法。
[0111]
优选的,步骤s6中:使用梯度损失l
grad
、强度损失li、光流损失l
op
和均方误差损失l
mse
四个损失函数加权来约束生成器,得到优化后的生成器模型。鉴别器采用patch gan对输入图像的每个区域都输出一个预测概率值。
[0112]
生成器误差计算如式(14)所示:
[0113]
lg=λ
grad
l
grad
λili λ
op
l
op
λ
mse
l
mse
ꢀꢀ
(14)
[0114]
其中,λ
grad
、λi、λ
op
、λ
mse
分别为梯度损失、强度损失、光流损失和均方误差损失的权重。
[0115]
鉴别器误差计算如式(15)所示:
[0116]
ld=λ
mse
l
mse
ꢀꢀꢀꢀ
(15)
[0117]
其中,λ
mse
为均方误差损失的权重。
[0118]
优选的,步骤s7中:迭代训练次数取值大于10000次。
[0119]
优选的,步骤s8中:异常得分s计算如下:
[0120][0121][0122]
其中,表示i
t
可能的最大取值。计算出峰值信噪比psnr,通过归一化得到所有t帧的第t帧异常得分
[0123][0124]
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献