CN112149596A - 一种异常行为检测方法、终端设备及存储介质 - Google Patents

一种异常行为检测方法、终端设备及存储介质 Download PDF

Info

Publication number
CN112149596A
CN112149596A CN202011049302.XA CN202011049302A CN112149596A CN 112149596 A CN112149596 A CN 112149596A CN 202011049302 A CN202011049302 A CN 202011049302A CN 112149596 A CN112149596 A CN 112149596A
Authority
CN
China
Prior art keywords
video
image
neural network
abnormal behavior
behavior detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202011049302.XA
Other languages
English (en)
Inventor
苏鹭梅
陈鑫强
李天友
吴家俊
黄明勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University of Technology
Original Assignee
Xiamen University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University of Technology filed Critical Xiamen University of Technology
Priority to CN202011049302.XA priority Critical patent/CN112149596A/zh
Publication of CN112149596A publication Critical patent/CN112149596A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种异常行为检测方法、终端设备及存储介质,该方法中包括:采集多组连续t+1帧视频图像组成的视频图像序列,将所有视频图像序列组成训练集;构建U‑Net神经网络,U‑Net神经网络的输入为第1~t帧视频图像组成的视频图像序列,输出经过U‑Net神经网络重构后的重构图像,通过训练集对U‑Net神经网络进行训练,使得重构图像与采集的第t+1帧的真实图像的差异最小;通过训练后的U‑Net神经网络对视频中连续帧的图像不断重构,通过重构图像与其对应的真实图像之间的差异与阈值的关系,判断视频中是否存在异常行为。本发明从大量视频数据的规律中自主学习对行为类别的分类,省去了标注标签的工作量。

Description

一种异常行为检测方法、终端设备及存储介质
技术领域
本发明涉及计算机视觉领域,尤其涉及一种异常行为检测方法、终端设备及存储介质。
背景技术
异常行为检测技术在安防***中有广阔的应用前景,目前对于异常行为的实时监控大多依赖于监控人员通过监控***进行人工巡查,但是由于监控人员出现疲劳、注意力无法长时间集中等原因,常常出现异常行为的漏检、误检等情况。因此,能够自动识别视频中的异常行为的***将提高打击违法犯罪的效率。
现有的异常行为检测方法主要分为两种类型:
1)基于传统的手工特征提取的异常行为检测方法。传统的手工特征提取方法包括以下步骤:1.对视频进行采样并提取特征;2.对特征进行编码;3.对编码后的向量进行归一化;4.训练分类器。但是,这种方法所能检测出的异常行为的种类较少,而现实场景中大多包含多种的异常行为,因此这类方法不能很好地胜任复杂场景的检测。
(2)基于深度学习的异常行为检测方法。深度学习中用于异常行为检测的神经网络主要包括卷积神经网络(convolutional neural networks,CNN)和循环神经网络(recurrent neural networks,RNN)。较为经典的方法是Simonyan等人提出的用于行为识别的双流CNN(dual-stream CNN),其将视频视为图像序列,其中空间流用于计算图像帧的CNN特征,时间流用于计算几个图像帧之间的光流CNN特征,最后将两种特征合并。Ji等提出了一种基于3D CNN(three-dimensional CNN)的方法,该方法将时间添加到二维CNN中,使神经网络可以从视频中学习空间和时间信息。但是,上述基于监督学习的异常行为检测方法仅仅依赖于强大的行为检测分类器,并未充分利用先验知识。这种方法存在计算量大从而影响检测速度的问题。并且为监督学习创建标签需要大量的工作,手工创建的标签越少,该算法可用于训练的数据就越少。
发明内容
为了解决上述问题,本发明提出了一种异常行为检测方法、终端设备及存储介质。
具体方案如下:
一种异常行为检测方法,包括以下步骤:
S1:采集多组连续t+1帧视频图像组成的视频图像序列,将所有视频图像序列组成训练集;
S2:构建U-Net神经网络,U-Net神经网络的输入为第1~t帧视频图像组成的视频图像序列,输出经过U-Net神经网络重构后的重构图像,通过训练集对U-Net神经网络进行训练,使得重构图像与采集的第t+1帧的真实图像的差异最小;对U-Net神经网络的训练过程中还包括外观约束、运动约束和信息增益约束;
S3:通过训练后的U-Net神经网络对视频中连续帧的图像不断重构,通过重构图像与其对应的真实图像之间的差异与阈值的关系,判断视频中是否存在异常行为。
进一步的,U-Net神经网络构成的自编码器分为编码器和解码器,编码器负责对图像的特征进行提取,并逐渐减小池化层的空间尺寸,解码器负责对图像的重构并恢复图像的细节和空间尺寸。
进一步的,外观约束包括强度约束和梯度约束;强度约束为计算重构图像与真实图像之间所有像素值的差值,梯度约束为计算重构图像与真实图像之间的梯度。
进一步的,运动约束包括光流损失,光流损失用于计算重构图像的光流与真实图像的光流之间的差值。
进一步的,信息增益约束用于计算重构图像的信息熵与真实图像的信息熵之间的差值。
进一步的,差异通过峰值信噪比来评价。
一种异常行为检测终端设备,包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现本发明实施例上述的方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现本发明实施例上述的方法的步骤。
本发明采用如上技术方案,并具有有益效果:
1、与需要大量手动标注的监督学习相比,本发明采用基于自编码器的无监督学习的方法,分类器不是从人类的现有经验中学习,而是从大量视频数据的规律中自主学习对行为类别的分类,省去了标注标签的工作量。
2、与并未充分利用先验知识的监督学习相比,本发明采用基于自编码器的无监督学习的方法,加入外观约束、运动约束和信息增益约束,充分利用了先验知识。
3、与训练特定种类异常行为的手工特征提取的异常行为检测方法相比,本发明采用基于自编码器的无监督学习的方法,利用大量的包含正常行为的视频来训练自编码器,当视频中出现正常行为时,自编码器生成的重构图像与真实图像之间的差异较小,而当视频中出现异常行为时,自编码器生成的重构图像与真实图像之间的差异较大,从而能够判断复杂场景中的异常行为。
附图说明
图1所示为本发明实施例一方法的流程图。
图2所示为该实施例中方法的流程示意图。
图3所示为该实施例中的U-Net神经网络结构图。
图4所示为该实施例中CUHK Avenue数据集中第7段测试视频的异常行为检测结果。
图5所示为该实施例中UCSD Ped1数据集中第7段测试视频的异常行为检测结果。
图6所示为该实施例中UCSD Ped2数据集中第4段测试视频的异常行为检测结果。
具体实施方式
为进一步说明各实施例,本发明提供有附图。这些附图为本发明揭露内容的一部分,其主要用以说明实施例,并可配合说明书的相关描述来解释实施例的运作原理。配合参考这些内容,本领域普通技术人员应能理解其他可能的实施方式以及本发明的优点。
现结合附图和具体实施方式对本发明进一步说明。
实施例一:
本发明实施例提供了一种异常行为检测方法,如图1和图2所示,所述方法包括以下步骤:
S1:采集多组连续t+1帧视频图像组成的视频图像序列,将所有视频图像序列组成训练集。
连续t+1帧视频图像为从视频中随机抽取,采集的视频图像还需要进行归一化处理,该实施例中将其归一化处理为256×256像素。
S2:构建U-Net神经网络,U-Net神经网络的输入为第1~t帧视频图像组成的视频图像序列,输出经过U-Net神经网络重构后的重构图像,通过训练集对U-Net神经网络进行训练,使得重构图像与采集的第t+1帧的真实图像的差异最小。
该实施例中U-Net神经网络的结构图如图3所示,U-Net的结构类似于全卷积网络(full convolutional networks,FCN),U-Net以其左右对称性而得名,它的主要结构由左半部分的编码器(包括4个下采样过程)和右半部分解码器(包括4个上采样过程)组成。编码器对图像执行特征提取,并逐渐减小池化层的空间尺寸,而解码器用于对图像进行重构并恢复图像的细节和空间尺寸。编码器和解码器之间通常存在级联的过程,将编码器中的特征复制到解码器相应的位置,可以帮助解码器更好地确定目标的细节。中间级联避免了梯度消失和每层图像信息不对称的问题,从而使重构图像的大小与原始图像相同。
在对U-Net神经网络的训练过程中加入了外观约束、运动约束和信息增益约束,以使重构图像更接近真实图像。U-Net神经网络根据输入的第1~t帧视频图像I1,I2,...,It进行重构,生成一张重构图像
Figure BDA0002709044130000061
该重构图像与第t+1帧视频图像相对应,网络训练的结果用于使重构图像
Figure BDA0002709044130000062
与真实图像(第t+1帧视频图像)之间的差异最小。加入的外观约束、运动约束和信息增益约束都用于确保U-Net神经网络生成的重构图像与真实图像尽可能的相近。
下面分别介绍三种约束。
1)外观约束包括强度约束和梯度约束,强度约束利用l2范数距离来度量重构图像
Figure BDA0002709044130000063
与真实图像I之间的像素相似性,计算公式如下:
Figure BDA0002709044130000064
梯度约束用于计算重构图像与真实图像之间的梯度,计算公式如下:
Figure BDA0002709044130000065
其中,i,j表示一个视频帧的宽和高。
2)运动约束包括光流约束,计算公式如下:
Figure BDA0002709044130000066
其中,f表示一个计算图像帧的光流的函数。
3)信息增益约束。
信息增益约束计算了重构图像的信息熵与真实图像的信息熵之差。熵的概念首先起源于热力学领域,香农将熵的概念引入到信息论中,在信息论中熵被用来衡量***的不确定程度。事件的信息量与事件发生的概率成反比。异常行为可以定义为视频中出现意外的、与正常不符的事件,所以作为小概率事件的异常行为通常会带来更大的信息增益。信息熵的计算公式如下:
Figure BDA0002709044130000071
其中,令样本空间H包含n个基本事件w1,w2,...,w3,pi代表wi出现的概率,0≤pi≤1,
Figure BDA0002709044130000072
当***的混乱程度较大时,事件发生的可能性较小,而信息熵则较大。异常行为被定义为意外情况,因此信息熵可用于检测异常行为。亦即,当视频帧为正常行为时,事件的不确定性较小,信息熵较小;当视频帧中具有异常行为时,事件的不确定性较大,信息熵也较大。
在计算了重构图像的信息熵Hr和实际帧的信息熵Ha之后,将重构图像的信息熵中减去真实图像的信息熵,二者的差即为信息增益Hm,信息增益的计算公式如下:
Hm=Hr-Ha
S3:通过训练后的U-Net神经网络对视频中连续帧的图像不断重构,通过重构图像与其对应的真实图像之间的差异与阈值的关系,判断视频中是否存在异常行为。
在实际应用中,针对某个监控视频,采集其连续t帧视频图像输入训练后的U-Net神经网络中,判断U-Net神经网络重构生成的重构图像与该监控视频对应的连续t帧视频图像之后的第t+1帧真实图像的差异是否大于阈值,当大于时则判定监控视频中存在异常行为。
该实施例中差异通过峰值信噪比(peak signal to noise ratio,PSNR)来评价,峰值信噪比PSNR的计算公式为:
Figure BDA0002709044130000073
然后,将峰值信噪比PSNR归一化到[0,1]的范围,可以得到异常分数AS,计算公式如下:
Figure BDA0002709044130000081
异常分数AS表明视频序列中出现异常行为的可能性,异常分数越高,则出现异常行为的可能性越大,而异常分数越低,则出现异常行为的可能性越小,即出现正常行为的可能性越大。因此,设定一个阈值来判断视频序列中是否发生异常行为,当异常分数大于阈值,则认为视频帧中出现了异常行为,而当异常分数小于阈值,则认为视频帧中没有出现异常行为。
模拟实验
本实施例在CUHK Avenue数据集和UCSD Pedestrian数据集上进行实验:
(1)UCSDPedestrian数据集包含2个子集(Ped1和Ped2),每个子集对应于一个不同的场景。Ped1的场景为行人迎向或远离摄像头的方向运动,包含34个训练视频序列和36个测试视频序列。每个视频序列有200帧,分辨率为238×158pixels。Ped2的场景为行人平行于摄像头的方向运动,包含16个训练视频序列和12个测试视频序列。每个视频序列有180帧,分辨率为360×240 pixels。数据集中的异常事件由以下两种情况引起的:车辆在人行道上的行驶(例如:卡车,自行车)和异常的行人运动方式(例如:践踏草坪,跑步)。
CUHK Avenue数据集包含16个训练视频序列和21个测试视频序列,其中异常事件的数量为47个,包括投掷物体、游荡、跑步等。每个视频帧的分辨率为360×640 pixels。数据集中的异常事件包括抛掷物体和跑步等。
该实施例中使用曲线下面积(Area Under Curve,AUC)作为帧级别(frame-level)的评估指标。AUC用于评估视频帧是否被正确分类,AUC的值越高,表示异常行为检测的性能越好。表1展示了不同方法的AUC的结果:
表1
Figure BDA0002709044130000091
如图4所示,为CUHK Avenue数据集中第7段测试视频的异常行为检测的结果。视频中出现了一个在跳跃的小孩,本实施例方法能够从视频中将该异常行为检测出来。
如图5所示,为UCSD Ped1数据集中第7段测试视频的异常行为检测的结果。视频中出现了一个在行走的人群中骑自行车的人,本实施例方法能够从视频中将该异常行为检测出来。
如图6所示,为UCSD Ped2数据集中第4段测试视频的异常行为检测的结果。视频中出现了一个在行走的人群中行驶的车辆,本实施例方法能够从视频中将该异常行为检测出来。
实施例二:
本发明还提供一种异常行为检测终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现本发明实施例一的上述方法实施例中的步骤。
进一步地,作为一个可执行方案,所述异常行为检测终端设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述异常行为检测终端设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,上述异常行为检测终端设备的组成结构仅仅是异常行为检测终端设备的示例,并不构成对异常行为检测终端设备的限定,可以包括比上述更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述异常行为检测终端设备还可以包括输入输出设备、网络接入设备、总线等,本发明实施例对此不做限定。
进一步地,作为一个可执行方案,所称处理器可以是中央处理单元(CentralProcessing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述异常行为检测终端设备的控制中心,利用各种接口和线路连接整个异常行为检测终端设备的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述异常行为检测终端设备的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序;存储数据区可存储根据手机的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现本发明实施例上述方法的步骤。
所述异常行为检测终端设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)以及软件分发介质等。
尽管结合优选实施方案具体展示和介绍了本发明,但所属领域的技术人员应该明白,在不脱离所附权利要求书所限定的本发明的精神和范围内,在形式上和细节上可以对本发明做出各种变化,均为本发明的保护范围。

Claims (8)

1.一种异常行为检测方法,其特征在于,包括以下步骤:
S1:采集多组连续t+1帧视频图像组成的视频图像序列,将所有视频图像序列组成训练集;
S2:构建U-Net神经网络,U-Net神经网络的输入为第1~t帧视频图像组成的视频图像序列,输出经过U-Net神经网络重构后的重构图像,通过训练集对U-Net神经网络进行训练,使得重构图像与采集的第t+1帧的真实图像的差异最小;对U-Net神经网络的训练过程中还包括外观约束、运动约束和信息增益约束;
S3:通过训练后的U-Net神经网络对视频中连续帧的图像不断重构,通过重构图像与其对应的真实图像之间的差异与阈值的关系,判断视频中是否存在异常行为。
2.根据权利要求1所述的异常行为检测方法,其特征在于:U-Net神经网络构成的自编码器分为编码器和解码器,编码器负责对图像的特征进行提取,并逐渐减小池化层的空间尺寸,解码器负责对图像的重构并恢复图像的细节和空间尺寸。
3.根据权利要求1所述的异常行为检测方法,其特征在于:外观约束包括强度约束和梯度约束;强度约束为计算重构图像与真实图像之间所有像素值的差值,梯度约束为计算重构图像与真实图像之间的梯度。
4.根据权利要求1所述的异常行为检测方法,其特征在于:运动约束包括光流损失,光流损失用于计算重构图像的光流与真实图像的光流之间的差值。
5.根据权利要求1所述的异常行为检测方法,其特征在于:信息增益约束用于计算重构图像的信息熵与真实图像的信息熵之间的差值。
6.根据权利要求1所述的异常行为检测方法,其特征在于:差异通过峰值信噪比来评价。
7.一种异常行为检测终端设备,其特征在于:包括处理器、存储器以及存储在所述存储器中并在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1~6中任一所述方法的步骤。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现如权利要求1~6中任一所述方法的步骤。
CN202011049302.XA 2020-09-29 2020-09-29 一种异常行为检测方法、终端设备及存储介质 Withdrawn CN112149596A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011049302.XA CN112149596A (zh) 2020-09-29 2020-09-29 一种异常行为检测方法、终端设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011049302.XA CN112149596A (zh) 2020-09-29 2020-09-29 一种异常行为检测方法、终端设备及存储介质

Publications (1)

Publication Number Publication Date
CN112149596A true CN112149596A (zh) 2020-12-29

Family

ID=73894984

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011049302.XA Withdrawn CN112149596A (zh) 2020-09-29 2020-09-29 一种异常行为检测方法、终端设备及存储介质

Country Status (1)

Country Link
CN (1) CN112149596A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113032780A (zh) * 2021-03-01 2021-06-25 厦门服云信息科技有限公司 一种基于图像分析的Webshell检测方法、终端设备及存储介质
CN116450880A (zh) * 2023-05-11 2023-07-18 湖南承希科技有限公司 一种语义检测的车载视频智能处理方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831447A (zh) * 2012-08-30 2012-12-19 北京理工大学 多类别面部表情高精度识别方法
CN102968779A (zh) * 2012-12-03 2013-03-13 北方民族大学 基于FCM聚类的非下采样Contourlet域MRI图像增强方法
CN108898173A (zh) * 2018-06-25 2018-11-27 重庆知遨科技有限公司 一种多尺度多特征的心电图医学图像融合及分类方法
US20190228313A1 (en) * 2018-01-23 2019-07-25 Insurance Services Office, Inc. Computer Vision Systems and Methods for Unsupervised Representation Learning by Sorting Sequences
CN110705376A (zh) * 2019-09-11 2020-01-17 南京邮电大学 一种基于生成式对抗网络的异常行为检测方法
CN111292323A (zh) * 2020-03-16 2020-06-16 清华大学深圳国际研究生院 部分参考的图像质量评价方法、控制装置及计算机可读存储介质
CN111401239A (zh) * 2020-03-16 2020-07-10 科大讯飞(苏州)科技有限公司 一种视频分析方法、装置、***、设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831447A (zh) * 2012-08-30 2012-12-19 北京理工大学 多类别面部表情高精度识别方法
CN102968779A (zh) * 2012-12-03 2013-03-13 北方民族大学 基于FCM聚类的非下采样Contourlet域MRI图像增强方法
US20190228313A1 (en) * 2018-01-23 2019-07-25 Insurance Services Office, Inc. Computer Vision Systems and Methods for Unsupervised Representation Learning by Sorting Sequences
CN108898173A (zh) * 2018-06-25 2018-11-27 重庆知遨科技有限公司 一种多尺度多特征的心电图医学图像融合及分类方法
CN110705376A (zh) * 2019-09-11 2020-01-17 南京邮电大学 一种基于生成式对抗网络的异常行为检测方法
CN111292323A (zh) * 2020-03-16 2020-06-16 清华大学深圳国际研究生院 部分参考的图像质量评价方法、控制装置及计算机可读存储介质
CN111401239A (zh) * 2020-03-16 2020-07-10 科大讯飞(苏州)科技有限公司 一种视频分析方法、装置、***、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
丛润民 等: "视频显著性检测研究进展" *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113032780A (zh) * 2021-03-01 2021-06-25 厦门服云信息科技有限公司 一种基于图像分析的Webshell检测方法、终端设备及存储介质
CN116450880A (zh) * 2023-05-11 2023-07-18 湖南承希科技有限公司 一种语义检测的车载视频智能处理方法
CN116450880B (zh) * 2023-05-11 2023-09-01 湖南承希科技有限公司 一种语义检测的车载视频智能处理方法

Similar Documents

Publication Publication Date Title
Ravanbakhsh et al. Training adversarial discriminators for cross-channel abnormal event detection in crowds
CN108805015B (zh) 加权卷积自编码长短期记忆网络人群异常检测方法
Zhao et al. Spatio-temporal autoencoder for video anomaly detection
Kim et al. Fully deep blind image quality predictor
Han et al. Density-based multifeature background subtraction with support vector machine
US8811663B2 (en) Object detection in crowded scenes
CN112329685A (zh) 一种融合型卷积神经网络人群异常行为检测的方法
Wang et al. A cognitive memory-augmented network for visual anomaly detection
Nasrollahi et al. Deep learning based super-resolution for improved action recognition
CN111860414A (zh) 一种基于多特征融合检测Deepfake视频方法
Chen et al. A vision based traffic accident detection method using extreme learning machine
CN111259919B (zh) 一种视频分类方法、装置及设备、存储介质
CN113569756B (zh) 异常行为检测与定位方法、***、终端设备及可读存储介质
Luo et al. Traffic analytics with low-frame-rate videos
CN111079539A (zh) 一种基于异常追踪的视频异常行为检测方法
US20230154139A1 (en) Systems and methods for contrastive pretraining with video tracking supervision
Hu et al. Parallel spatial-temporal convolutional neural networks for anomaly detection and location in crowded scenes
Gnanavel et al. Abnormal event detection in crowded video scenes
CN112149596A (zh) 一种异常行为检测方法、终端设备及存储介质
Sabzalian et al. Deep and sparse features for anomaly detection and localization in video
Prawiro et al. Abnormal event detection in surveillance videos using two-stream decoder
Lamba et al. A texture based mani-fold approach for crowd density estimation using Gaussian Markov Random Field
Schneider et al. Unsupervised anomaly detection from time-of-flight depth images
Ghasemi et al. A real-time multiple vehicle classification and tracking system with occlusion handling
Tsai et al. Joint detection, re-identification, and LSTM in multi-object tracking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20201229