CN107274432B - 一种智能视频监控方法 - Google Patents

一种智能视频监控方法 Download PDF

Info

Publication number
CN107274432B
CN107274432B CN201710434834.7A CN201710434834A CN107274432B CN 107274432 B CN107274432 B CN 107274432B CN 201710434834 A CN201710434834 A CN 201710434834A CN 107274432 B CN107274432 B CN 107274432B
Authority
CN
China
Prior art keywords
network
input
encoder
training
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710434834.7A
Other languages
English (en)
Other versions
CN107274432A (zh
Inventor
王田
乔美娜
陈阳
陶飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201710434834.7A priority Critical patent/CN107274432B/zh
Publication of CN107274432A publication Critical patent/CN107274432A/zh
Application granted granted Critical
Publication of CN107274432B publication Critical patent/CN107274432B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于视觉显著性和深度自编码的公共场景智能视频监控方法,包括:对视频进行单帧分解,使用视觉显著性提取运动信息,然后计算相邻帧运动物体的光流,之后的检测过程分为训练和测试两个过程,在训练中,以训练样本的光流作为自编码的输入,通过最小化损失函数来训练整个自编码网络,在测试阶段,分别以训练和测试样本的光流作为输入,提取训练好的自编码网络中的编码器,通过降维提取输入的特征,然后可视化降维后的结果,使用超球体表示训练样本的可视化范围,在输入测试样本时,使用同样的方法可视化,若样本可视化的结果落入超球体范围内,则判定样本正常;反之,落在超球体范围之外,判定样本异常,由此实现视频的智能监控。

Description

一种智能视频监控方法
技术领域
本发明涉及图像处理技术,特别是涉及一种基于视觉显著性和深度自编码的公共场景智能视频监控方法。
背景技术
近几年,监控设备被应用在各行各业,现代机场、车站、医院等公共场景覆盖了成千上万的监控装置,由于视频资料众多,单靠安保人员分析,滤除正常场景下的正常行为,及时发现异常行为,是一个很大的工作量,而随着分析数量的增多,人员的注意力和工作效率会产生明显的下降,为了将人从大量的分析理解中解放出来,研究一种智能视频监控方法具有重要意义。
智能监控***主要涉及三部分的内容:视频中运动信息的提取,即提取视频中的运动目标,由于监控***是固定的,所以这部分主要是提取视频中前景目标的运动信息;行为特征的提取,智能监控***中的一大挑战,要具有唯一性、鲁棒性等特点,提取特征;异常行为检测,分为基于规则的检测,如检测目标是否违反了某些预定义的规则,和基于统计的检测,即在大量的样本中找到行为的模式,使用模式识别的方法和模型进行异常行为识别。现有的技术多位第二种,使用模式识别的方法来进行识别,但这种方法精度相比深度学习的方法的精度低,故本发明使用精度较高的基于深度学习中深度自编码网络来进行异常行为的识别。
发明内容
有鉴于此,本发明的主要目的在于提供一种检测精度高、鲁棒性强的基于视觉显著性和深度自编码的公共场景智能视频监控方法,大大提高了检测精度,同时,能应对多种场景下的异常行为识别,鲁棒性很强。
为了达到上述目的,本发明提出的技术方案为:一种基于视觉显著性和深度自编码的公共场景智能视频监控方法,实现步骤如下:
步骤1、读取公共场景下的视频,将视频分解成单个帧,然后基于高斯差分组合带通滤波器,计算每一帧的视觉显著性图,以此来提取运动信息;
步骤2、在每帧显著性图的基础上,计算相邻帧的光流,从而提取前景目标的运动信息,获取运动特征;
步骤3、在异常识别的算法中包含训练和测试两个过程,在训练过程中,计算训练样本的视觉显著性图并提取运动特征,将得到的光流特征转换为列向量作为深度自编码网络的输入,使用深度自编码网络中编码器的降维和解码器的重建作用,通过最小化损失函数重建输入,训练深度自编码网络;
步骤4、通过最小化损失函数重建输入,训练深度自编码网络后,提取训练好的深度自编码网络的编码器部分作为测试过程中的网络,分别计算出训练样本和测试样本的显著性图和运动特征后,以各个样本的光流特征作为深度自编码网络中编码器的输入,通过所述编码器网络的降维操作,用低维向量来提取最能代表输入的低维特征;
步骤5、在三维坐标中可视化测试过程中编码器网络的结果,用一个超球体表示其中训练样本降维后的分布范围;
步骤6、对于输入测试样本的异常识别,若测试样本可视化的范围落入超球体的范围内,则判定该测试样本为正常序列;反之,落在超球体范围以外,则判定该测试样本为异常序列,由此实现异常行为的识别,公共场景下视频的智能监控。
所述步骤1中视觉显著性图的方法如下:
步骤i)对于一帧图像,图像中每个点的显著度定义为:
S(x,y)=||Iμ-Iwhc(x,y)||
其中,Iμ输入图像在Lab空间中各个像素点颜色的均值,Iwhc(x,y)为对图像进行高斯模糊后,各个像素点在Lab空间的值,S(x,y)表示每个像素点的显著度,为二者的欧氏距离;
步骤ii)首先对图像进行高斯模糊,二维的高斯分布函数为:
其中,x和y分别对应中心点周围8个点的横纵坐标,σ为高斯分布函数的方差,G(x,y)为每个像素点的模糊程度;
对于彩色图像,在R,G,B三个通道,分别使用高斯核与原图像做卷积操作,将每个通道的结果合并,即为高斯模糊后的图像,分别将高斯模糊后的图像和原图像转换到Lab空间
步骤iii)计算高斯模糊后图像每个像素点的Lab值Iwhc(x,y)和原图像各个像素点在Lab空间颜色的均值Iμ,计算二者的欧氏距离,即得到原图像的视觉显著性图。
所述步骤3使用训练深度自编码网络的具体过程为:
步骤i)训练样本中只包含正常样本,在训练过程中,计算训练样本相邻帧图像的光流特征,将光流特征转换为列向量,作为深度自编码网络的输入,自编码是一个以全连接方式,让输出尽可能等于输入的结构为输入层-隐层-输出层的网络,整个网络由左半部分的编码器和右半部分的解码器组成,编码器用于数据降维,提取最能代表输入的特征信息;解码器以尽可能小的误差,以编码器的输出作为解码器的输入,重建整个网络的原始输入,深度自编码网络是在自编码网络的基础上,在编码器网络和解码器网络中增加了几个隐层;
步骤ii)以光流为输入X={x1,x2...xn},网络的激活函数采用ReLU函数f(x)=max(0,x),其中,x为激活函数的输入,即自变量,f(x)是激活函数的因变量,网络的前半部分即编码器网络的输出为:Z=f(wX+b),其中,w为编码器网络的权重,b为编码器网络的偏置,Z为编码器网络的输出,即Z是X降维后的结果,能代表X的特征信息;网络的后半部分即解码器的输出为:Y=f(w'Z+b'),其中,w'为解码器网络的权重,b'为解码器网络的偏置,即Y是X的重建,整个编码器网络以公式化表示为:Y=f(w'(f(wX+b))+b')。
步骤iii)损失函数采用均方误差:MSE=||X-Y||2=||X-f(w'(f(wX+b))+b')||2,而最小化损失函数来重建输入,就是通过深度自编码网络的训练过程,使均方误差最小,此时的输出即是输入的重建。
所述步骤4提取训练好的深度自编码网络的编码器部分作为测试过程中的网络过程为:
步骤i)首先,图像的预处理与训练过程类似,以训练样本和测试样本的光流特征转换的列向量作为网络的输入;
步骤ii)与训练过程中所用到的网络不同,测试过程中提取训练过程得到的训练好的深度自编码网络中的编码器作为测试过程的网络,使用编码器网络的降维作用,将输入压缩为3个神经元,由编码器的特点可知,这三个神经元能包含输入的全部信息。
综上所述,本发明所述的一种基于视觉显著性和深度自编码的公共场景智能视频监控方法,包括:对公共场景下的视频进行单帧分解,在分解出来的视频帧中,使用视觉显著性提取运动信息,然后计算相邻帧运动物体的光流,包括运动速度的大小和方向,之后的检测过程分为训练和测试两个过程,在训练中,以训练样本的光流作为深度自编码的输入,通过最小化损失函数来训练整个深度自编码网络,在测试阶段,分别以训练和测试样本的光流作为输入,提取训练好的深度自编码网络中的编码器,通过编码器网络的降维作用提取输入的特征,根据编码器网络的特性,降维后的特征能代表输入的全部信息,然后可视化降维后的结果,使用超球体表示训练样本的可视化范围,在输入测试样本时,使用同样的方法可视化,若样本可视化的结果落入超球体范围内,则判定样本正常;反之,落在超球体范围之外,判定样本异常,由此实现视频的智能监控。
本发明与现有技术相比的优点在于:
(1)本发明以异常行为的识别为主,使用视觉显著性和光流法初步提取运动信息,然后使用深度学习中的深度自编码器提取特征,进行训练和检测,由于深度自编码器能以最小化损失函数重建输入,编码器的降维作用能提取能表示输入信息的低维特征,所以提取的特征具有很强的鲁棒性,而正是由于特征的鲁棒性,可以很高效地进行异常行为的识别,提高算法精度。由于使用超球体表示正常的范围,在进行异常的判别时,只需要判断可视化结果的范围,所以判断速度快。
(2)本发明具有检测精度高、鲁棒性强等特点,可广泛应用于社区安全防护、医院、银行等公共场景的安全保护。通过使用光流法和深度学习中的深度自编码网络,提取能表示物体全部信息的低维特征,判断精确、鲁棒性强,由于使用超球体表示正常的范围,在进行异常的判别时,只需要判断可视化结果的范围,所以判断速度快。
附图说明
图1为本发明实现流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明作进一步地详细描述。
本发明所述的一种基于视觉显著性和深度自编码的公共场景智能视频监控方法,包括:对公共场景下视频进行单帧分解,在分解出来的视频帧中,使用视觉显著性提取运动信息,然后计算相邻帧运动物体的光流,包括运动速度的大小和方向,之后的检测过程分为训练和测试两个过程,在训练中,以训练样本的光流作为深度自编码的输入,通过最小化损失函数来训练整个深度自编码网络,在测试阶段,分别以训练和测试样本的光流作为输入,提取训练好的深度自编码网络中的编码器,通过编码器网络的降维作用提取输入的特征,根据编码器网络的特性,降维后的特征能代表输入的全部信息,然后可视化降维后的结果,使用超球体表示训练样本的可视化范围,在输入测试样本时,使用同样的方法可视化,若样本可视化的结果落入超球体范围内,则判定样本正常;反之,落在超球体范围之外,判定样本异常,由此实现视频的智能监控。
如图1所示,本发明具体实现如下步骤:
步骤1)、读取公共场景下的视频,将视频分解成单个帧,然后基于高斯差分组合带通滤波器,计算每一帧的视觉显著性图,以此来提取运动信息;
步骤2)、在每帧显著性图的基础上,计算相邻帧的光流,从而提取前景目标的运动信息,获取运动特征;
步骤3)、在异常识别的算法中包含训练和测试两个过程,在训练过程中,计算训练样本的视觉显著性图并提取运动特征,将得到的每帧图像的光流特征转换为列向量作为深度自编码网络的输入,使用深度自编码网络中编码器的降维和解码器的重建,通过最小化损失函数重建输入,训练深度自编码网络;
步骤4)、通过最小化损失函数重建输入,训练深度自编码网络后,提取训练好的深度自编码网络的编码器部分作为测试过程中的网络,分别计算出训练样本和测试样本的显著性图和运动特征后,以各图像帧样本的光流特征作为深度自编码网络中编码器的输入,通过所述编码器网络的降维操作,用低维向量来提取最能代表输入的低维特征;
步骤5)、在三维坐标中可视化测试过程中编码器网络的结果,用一个超球体表示其中训练样本降维后的分布范围;
步骤6)、对于输入测试样本的异常识别,若测试样本可视化的范围落入超球体的范围内,则判定该测试样本为正常序列;反之,落在超球体范围以外,则判定该测试样本为异常序列,由此实现异常行为的识别,公共场景下视频的智能监控。
所述步骤1)中视觉显著性图的计算方法如下:
步骤i)对于一帧图像,图像中每个点的显著度定义为:
S(x,y)=||Iμ-Iwhc(x,y)||
其中,Iμ输入图像在Lab空间中各个像素点颜色的均值,Iwhc(x,y)为对图像进行高斯模糊后,各个像素点在Lab空间的值,S(x,y)表示每个像素点的显著度,为二者的欧氏距离;
步骤ii)首先对图像进行高斯模糊,二维的高斯分布函数为:
其中,x和y分别对应中心点周围8个点的横纵坐标,σ为高斯分布函数的方差,G(x,y)为每个像素点的模糊程度;
在R,G,B三个通道,分别使用高斯核与原图像做卷积操作,将每个通道的结果合并,即为高斯模糊后的图像,分别将高斯模糊后的图像和原图像转换到Lab空间。
步骤iii)计算高斯模糊后图像每个像素点的Lab值Iwhc(x,y)和原图像各个像素点在Lab空间颜色的均值Iμ,计算二者的欧氏距离,即得到原图像的视觉显著性图。
所述步骤3)训练深度自编码网络原理如下:
步骤i)训练样本中只包含正常样本,在训练过程中,计算训练样本相邻帧图像的光流特征,将光流特征转换为列向量,作为深度自编码网络的输入,自编码是一个以全连接方式,让输出尽可能等于输入的结构为输入层-隐层-输出层的网络,整个网络由编码器和解码器组成,编码器用于数据降维,提取最能代表输入的特征信息;解码器以尽可能小的误差,以编码器的输出作为解码器的输入,重建整个网络的原始输入,深度自编码网络是在自编码网络的基础上,在编码器网络和解码器网络中增加了几个隐层;
步骤ii)以光流为输入X={x1,x2...xn},网络的激活函数采用ReLU函数f(x)=max(0,x),其中,x为激活函数的输入,即自变量,f(x)是激活函数的因变量,网络的前半部分即编码器网络的输出为:Z=f(wX+b),其中,w为编码器网络的权重,b为编码器网络的偏置,Z为编码器网络的输出,即Z是X降维后的结果,能代表X的特征信息;网络的后半部分即解码器的输出为:Y=f(w'Z+b'),其中,w'为解码器网络的权重,b'为解码器网络的偏置,即Y是X的重建,整个编码器网络以公式化表示为:Y=f(w'(f(wX+b))+b')。
步骤iii)损失函数采用均方误差:MSE=||X-Y||2=||X-f(w'(f(wX+b))+b')||2,而最小化损失函数来重建输入,就是通过深度自编码网络的训练过程,使均方误差最小,此时的输出即是输入的重建。
所述步骤4)提取训练好的深度自编码网络的编码器部分作为测试过程中的网络具体过程为:
步骤i)首先,图像的预处理与训练过程类似,以训练样本和测试样本的光流特征转换的列向量作为网络的输入;
步骤ii)与训练过程中所用到的网络不同,测试过程中提取训练过程得到的训练好的深度自编码网络中的编码器作为测试过程的网络,使用编码器网络的降维作用,将输入压缩为3个神经元,所述3个神经元能包含输入的全部信息。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于视觉显著性和深度自编码的公共场景智能视频监控方法,其特征在于,实现步骤如下:
步骤1、读取公共场景下的视频,将视频分解成单个帧,然后基于高斯差分组合带通滤波器,计算每一帧的视觉显著性图,以此来提取运动信息;
步骤2、在每帧显著性图的基础上,计算相邻帧的光流,从而提取前景目标的运动信息,获取运动特征;
步骤3、在异常识别的算法中包含训练和测试两个过程,在训练过程中,计算训练样本的视觉显著性图并提取运动特征,将得到的光流特征转换为列向量作为深度自编码网络的输入,使用深度自编码网络中编码器的降维和解码器的重建作用,通过最小化损失函数重建输入,训练深度自编码网络;
步骤4、通过最小化损失函数重建输入,训练深度自编码网络后,提取训练好的深度自编码网络的编码器部分作为测试过程中的网络,分别计算出训练样本和测试样本的显著性图和运动特征后,以各个样本的光流特征作为自编码网络中编码器的输入,通过所述自编码网络中编码器的降维操作,用低维向量来提取最能代表输入的低维特征;
步骤5、在三维坐标中可视化测试过程中编码器网络的结果,用一个超球体表示其中训练样本降维后的分布范围;
步骤6、对于输入测试样本的异常识别,若测试样本可视化的范围落入超球体的范围内,则判定该测试样本为正常序列;反之,落在超球体范围以外,则判定该测试样本为异常序列,由此实现异常行为的识别,公共场景下视频的智能监控。
2.根据权利要求1所述的一种基于视觉显著性和深度自编码的公共场景智能视频监控方法,其特征在于:所述步骤1中,计算每一帧的视觉显著性图的方法如下:
步骤i)对于一帧图像,图像中每个点的显著度为:
S(x,y)=||Iμ-Iwhc(x,y)||
其中,Iμ输入图像在Lab空间中各个像素点颜色的均值,Iwhc(x,y)为对图像进行高斯模糊后,各个像素点在Lab空间的值,S(x,y)表示每个像素点的显著度,为二者的欧氏距离;
步骤ii)首先对图像进行高斯模糊,二维的高斯分布函数为:
其中,x和y分别对应中心点周围8个点的横纵坐标,σ为高斯分布函数的方差,G(x,y)为每个像素点的模糊程度;
在R,G,B三个通道,分别使用高斯核与原图像做卷积操作,将每个通道的结果合并,即为高斯模糊后的图像;分别将高斯模糊后的图像和原图像转换到Lab空间;
步骤iii)计算高斯模糊后图像每个像素点的Lab值Iwhc(x,y)和原图像各个像素点在Lab空间颜色的均值Iμ,计算二者的欧氏距离,即得到原图像的视觉显著性图。
3.根据权利要求1所述的一种基于视觉显著性和深度自编码的公共场景智能视频监控方法,其特征在于:所述步骤3中,训练深度自编码网络的具体实现过程为:
步骤i)训练样本中只包含正常样本,在训练过程中,计算训练样本相邻帧图像的光流特征,将光流特征转换为列向量,作为深度自编码网络的输入,自编码是一个以全连接方式,让输出尽可能等于输入的结构为输入层-隐层-输出层的网络,整个网络由左半部分的编码器和右半部分的解码器组成,编码器用于数据降维,提取最能代表输入的特征信息;解码器以尽可能小的误差,以编码器的输出作为解码器的输入,重建整个网络的原始输入,深度自编码网络是在自编码网络的基础上,在编码器网络和解码器网络中增加了若干个隐层;
步骤ii)以光流为输入X={x1,x2...xn},网络的激活函数采用ReLU函数f(x)=max(0,x),其中,x为激活函数的输入,即自变量,f(x)是激活函数的因变量,网络的前半部分即编码器网络的输出为:Z=f(wX+b),其中,w为编码器网络的权重,b为编码器网络的偏置,Z为编码器网络的输出,即Z是X降维后的结果,能代表X的特征信息;网络的后半部分即解码器的输出为:Y=f(w'Z+b'),其中,w'为解码器网络的权重,b'为解码器网络的偏置,即Y是X的重建,整个编码器网络以公式化表示为:Y=f(w'(f(wX+b))+b');
步骤iii)损失函数采用均方误差:MSE=||X-Y||2=||X-f(w'(f(wX+b))+b')||2,而最小化损失函数来重建输入,就是通过深度自编码网络的训练过程,使均方误差最小,此时的输出即是输入的重建。
4.根据权利要求1所述的一种基于视觉显著性和深度自编码的公共场景智能视频监控方法,其特征在于:所述步骤4中,提取训练好的深度自编码网络的编码器部分作为测试过程中的网络的具体过程为:
步骤i)首先,图像的预处理与训练过程类似,以训练样本和测试样本的光流特征转换的列向量作为网络的输入;
步骤ii)与训练过程中所用到的网络不同,测试过程中提取训练过程得到的训练好的深度自编码网络中的编码器作为测试过程的网络,使用编码器网络的降维作用,将输入压缩为3个神经元,所述3个神经元能包含输入的全部信息。
CN201710434834.7A 2017-06-10 2017-06-10 一种智能视频监控方法 Active CN107274432B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710434834.7A CN107274432B (zh) 2017-06-10 2017-06-10 一种智能视频监控方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710434834.7A CN107274432B (zh) 2017-06-10 2017-06-10 一种智能视频监控方法

Publications (2)

Publication Number Publication Date
CN107274432A CN107274432A (zh) 2017-10-20
CN107274432B true CN107274432B (zh) 2019-07-26

Family

ID=60066526

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710434834.7A Active CN107274432B (zh) 2017-06-10 2017-06-10 一种智能视频监控方法

Country Status (1)

Country Link
CN (1) CN107274432B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107833208B (zh) * 2017-10-27 2021-07-13 哈尔滨工业大学 一种基于动态权重深度自编码的高光谱异常检测方法
CN108830882B (zh) * 2018-05-25 2022-05-17 中国科学技术大学 视频异常行为实时检测方法
CN110009866A (zh) * 2019-04-03 2019-07-12 天津中航亿达科技有限公司 一种视频检测温度异常的方法
CN111107107B (zh) * 2019-12-31 2022-03-29 奇安信科技集团股份有限公司 网络行为的检测方法、装置、计算机设备和存储介质
US11748629B2 (en) * 2020-01-21 2023-09-05 Moxa Inc. Device and method of handling anomaly detection
CN113222926B (zh) * 2021-05-06 2023-04-18 西安电子科技大学 基于深度支持向量数据描述模型的拉链异常检测方法
CN115714731B (zh) * 2022-09-27 2023-06-27 中国人民解放军63921部队 一种基于深度学习自编码器的深空测控链路异常检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778921A (zh) * 2017-02-15 2017-05-31 张烜 基于深度学习编码模型的人员再识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778921A (zh) * 2017-02-15 2017-05-31 张烜 基于深度学习编码模型的人员再识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Dynamic Background Learning through Deep Auto-encoder Networks";Pei Xu etc.;《Proceedings of the 22nd ACM international conference on Multimedia》;20141107;第107-116页
"Optical flow in the presence of spatially-varying motion blur";Travis Portz etc.;《IEEE Conference on Computer Vision and Pattern Recognition》;20120726;第1752-1759页
"基于视觉的目标检测与跟踪综述";尹宏鹏等;《自动化学报》;20161031;第42卷(第10期);第1467-1481页
"视觉显著性检测方法及其应用研究";凌南平;《万方数据知识服务平台》;20141106;第4.1-4.3节

Also Published As

Publication number Publication date
CN107274432A (zh) 2017-10-20

Similar Documents

Publication Publication Date Title
CN107274432B (zh) 一种智能视频监控方法
CN108846365B (zh) 视频中打架行为的检测方法、装置、存储介质及处理器
CN104361327B (zh) 一种行人检测方法和***
CN106960202B (zh) 一种基于可见光与红外图像融合的笑脸识别方法
CN108805002B (zh) 基于深度学习和动态聚类的监控视频异常事件检测方法
CN105139004B (zh) 基于视频序列的人脸表情识别方法
CN105956560B (zh) 一种基于池化多尺度深度卷积特征的车型识别方法
CN109670446A (zh) 基于线性动态***和深度网络的异常行为检测方法
CN107330364A (zh) 一种基于cGAN网络的人群计数方法及***
Mancas et al. Abnormal motion selection in crowds using bottom-up saliency
CN106599789A (zh) 视频类别识别方法和装置、数据处理装置和电子设备
CN108334847A (zh) 一种真实场景下的基于深度学习的人脸识别方法
CN104281853A (zh) 一种基于3d卷积神经网络的行为识别方法
CN110176016B (zh) 一种基于人体轮廓分割与骨骼识别的虚拟试衣方法
CN109389057A (zh) 一种基于多尺度高级语义融合网络的物体检测方法
CN104202547A (zh) 投影画面中提取目标物体的方法、投影互动方法及其***
CN107633226A (zh) 一种人体动作跟踪识别方法及***
CN109117774B (zh) 一种基于稀疏编码的多视角视频异常检测方法
CN107330360A (zh) 一种行人衣着颜色识别、行人检索方法和装置
CN104298974A (zh) 一种基于深度视频序列的人体行为识别方法
CN109740609A (zh) 一种轨距检测方法及装置
CN109145841A (zh) 一种基于视频监控的异常事件的检测方法及装置
CN113312973B (zh) 一种手势识别关键点特征提取方法及***
CN108229300A (zh) 视频分类方法、装置、计算机可读存储介质和电子设备
CN103902989A (zh) 基于非负矩阵分解的人体动作视频识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant