CN109753906B - 基于域迁移的公共场所异常行为检测方法 - Google Patents

基于域迁移的公共场所异常行为检测方法 Download PDF

Info

Publication number
CN109753906B
CN109753906B CN201811594841.4A CN201811594841A CN109753906B CN 109753906 B CN109753906 B CN 109753906B CN 201811594841 A CN201811594841 A CN 201811594841A CN 109753906 B CN109753906 B CN 109753906B
Authority
CN
China
Prior art keywords
abnormal
network
data
video
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811594841.4A
Other languages
English (en)
Other versions
CN109753906A (zh
Inventor
王�琦
李学龙
林维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201811594841.4A priority Critical patent/CN109753906B/zh
Publication of CN109753906A publication Critical patent/CN109753906A/zh
Application granted granted Critical
Publication of CN109753906B publication Critical patent/CN109753906B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种基于域迁移的公共场所异常行为检测方法,利用虚拟世界的模拟创建出大量虚拟异常时间视频,解决了异常事件的多样性但是数据不足的问题,又用域迁移的方法将虚拟数据迁移到真实情况下,提高分类检测网络在正式监控视频中的适应性,有效提升训练网络的可用性。

Description

基于域迁移的公共场所异常行为检测方法
技术领域
本发明属于计算机视觉,视频监控领域。针对视频监控的公共场所,检测出视频当中发生的如打架、逃散等异常行为。
背景技术
如今遍及城市公共区域的摄像头每时每刻都在产生无数的监控视频,如果可以通过自动化的方法对采集到的视频进行异常行为的检测,那么这对于公共安全事件的发生具有极强的预防作用。但是由于异常行为的发生频率远小于正常行为发生的频率,以及异常行为的多样性,使得异常事件的检测变得非常困难。
目前公共场所中异常行为的检测方法有两种:第一种是R.Mehran等人在文献“R.Mehran,A.Oyama,and M.Shah,Abnormal crowd behavior detection using socialforce model,Computer Vision and Pattern Recognition,2009.CVPR 2009.IEEEConference on,pp.935-942,2009.”中提出的基于社会力模型的方法,它将行人看作一个个的移动点,将人与人之间的交互看作点与点之间的作用力,通过发现异常的粒子移动来检测视频中的异常行为。
第二种方法是基于光流法的方法,例如“Y.Yu,W.Shen,H.Huang,and Z.Zhang,Abnormal event detection in crowded scenes using two sparse dictionaries withsaliency,Journal of Electronic Imaging,vol.26,no.3,pp.033013,2017.”中提出的方法,通过结合多尺度光流直方图和多尺度梯度直方图来获取一种行人的表面与动作特征,在传统的只包含正常特征的稀疏模型中加入异常特征构建字典。此外,将测试样本的显著性与正常字典和异常字典上的稀疏重构代价相结合,测量测试样本的正常程度。
这些方法都有其局限性,粒子点模型并不能捕捉人物的动作特征,基于光流的特征字典并不能保证所有异常行为均能存在于字典当中。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于域迁移的公共场所异常行为检测方法。
技术方案
一种基于域迁移的公共场所异常行为检测方法,其特征在于步骤如下:
步骤1:利用已有的虚拟图像产品生成虚拟异常数据,虚拟异常数据包括不同的异常类别和正常类别数据,各个类别的数据数量相同;
步骤2:使用步骤1生成的虚拟异常数据训练视频分类网络,得到一个虚拟异常数据分类网络;
步骤3:利用生成的虚拟异常数据和采集的真实数据,训练域迁移网络,获得虚拟异常视频数据对应的真实域视频数据;所述的域迁移网络为改进的cycle-GAN,改进方法:将cycle-GAN网络中,所有的2D卷积结构,都改为面向视频数据的3D卷积结构,3D卷积结构的计算方法为:
Figure BDA0001921126030000021
其中P、Q、R分别表示上一层网络输出的特征图的长宽高,m表示上已成网络输出的特征图数量。最终计算得到在该卷积模块W下,下一层网络中对应的特征图V,b为偏移量,i,j第i层第j个3d卷积结构,x,y,z长宽高上的坐标值;
步骤4:利用步骤3得到的真实域异常数据对步骤2得到的虚拟异常数据分类网络进行进一步分类训练,训练过程和步骤2相同,从而得到真实域的异常视频分类网络;
步骤5:将待测试的真实的异常数据输入到步骤4训练得到的网络模型,利用softmax函数获得该输入视频在隶属于各个异常类别中的概率,取最大值的类别作为该段视频的异常类型即可。
所述的步骤2中的视频分类网络为3DresNet或时空双流视频分类网络。
有益效果
本发明提出的一种基于域迁移的公共场所异常行为检测方法,利用虚拟世界的模拟创建出大量虚拟异常时间视频,解决了异常事件的多样性但是数据不足的问题,又用域迁移的方法将虚拟数据迁移到真实情况下,提高分类检测网络在正式监控视频中的适应性,有效提升训练网络的可用性。
附图说明
图1为本发明的模型、数据流动图;
图2为域迁移网络的数据流动图。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
本发明提出一种基于域迁移的公共场景异常行为检测方法,以解决异常行为多样性、频率低等现象导致异常行为检测的困难性。整个技术方案包括以下步骤:
1.利用已有的虚拟图像产品,如游戏、CG等创建出虚拟的场景、任务、模型与异常相关的动作,录制虚拟世界中的异常行为。
2.在捕获到大量录制好的虚拟视频数据后,利用这些数据训练一个视频分类的深度神经网络,该网络可以有效区分虚拟数据集中的异常行为类别(如打架、逃散等)以及正常情况。
3.利用一些现实中的监控视频,这些视频不必一定有异常事件的发生。利用这些视频和已有的虚拟视频之间的相互转化关系,学习一个域迁移网络,进行无监督的视频域迁移,将虚拟的视频迁移到和现实场景非常相似且逼真的真实视频域,获得大量的包含异常行为的监控视频。
4.利用迁移后的视频作为数据集,再次训练(2)中获得的分类神经网络,来提高该神经网络在跨域后,即真实数据域中的适应能力,提高该网络应用到真实视频监控中的检测能力。
5.在实际运用过程中,每次可将固定时间长度的监控视频实时传入到训练好的神经网络中,获得捕获到的短视频在各个异常类别与正常情况下的分类概率,取概率最高的类别作为该段视频的类别。利用检测结果属于哪一种级别的异常或是正常行为,来确定监控下是否有异常行为的发生。
本发明的具体实现步骤如下:
步骤1,首先需要准备好一个无监督的域迁移网络,该网络的类型为“J.Zhu,T.Park,P.Isola,and A.A.Efros,Unpaired image-to-image translation using cycle-consistent adversarial networks,arXiv preprint,2017.”中提到的cycle-GAN。不同的是,应当将其进行一些修改,使得它可以处理视频域的数据(cycle-GAN只能处理图像)。修改的方法是,将cycle-GAN网络中,所有的2D卷积结构,都改为面向视频数据的3D卷积结构。3D卷积结构的计算方法为:
Figure BDA0001921126030000041
其中P、Q、R分别表示上一层网络输出的特征图的长宽高,m表示上已成网络输出的特征图数量。最终计算得到在该卷积模块W下,下一层网络中对应的特征图V。同时在虚拟世界中模拟并录制相关的异常事件视频数据,在图中表示为圆角方框,即虚拟异常视频数据。这些数据包含打架,追逐,逃散,枪击,奔跑,逮捕等不同的异常类别和正常类别数据。各个类别的时评数据量大致相同。最后,还需要一部分真实的视频监控数据,用来表达现实场景中的监控视频是怎么样的,这些时评数据不需要标注,并且对视频内容也没有限制。
步骤2,初始化一个视频分类网络,该网络可以是3DResNet,也可以是时空双流视频分类网络或者是其他已有的视频分类网络。这里我们采用的是已有的3DResNet,它来自于“K.Hara,H.Kataoka,and Y.Satoh,"Learning spatio-temporal features with 3Dresidual networks for action recognition,"Proceedings of the ICCV Workshop onAction,Gesture,and Emotion Recognition,vol.2,no.3,pp.4,2017”。这个网络是2015年提出的网络结构----ResNet的改进版本,它的改进方法和步骤一中阐述的相同,即将2D的卷积结构改为3D的卷积结构。
步骤3,利用采集到的虚拟异常数据和任意真实数据,对一个域迁移网络进行训练,并获得虚拟异常视频数据对应的真实域视频数据。如图2所示,假定Sreal、Rreal分别为我们采集到的虚拟异常数据和任意真实数据,将其传送到生成网络GStoR和GRtoS中得到Rfake和Sfake,再分别传入GRtoS和GStoR中,获得与Sreal、Rreal对应的视频,经过一致性对比以及鉴别器DR和DS的鉴别来提高域迁移后视频的逼真度。
整个过程可以用下式表示:
Figure BDA0001921126030000051
即在训练生成器的过程中,致力于最小化鉴别器的值与最大化一致性对比;在鉴别器训练过程中则最大化鉴别器的值。最终得到的Rfake便可以看作是图1中虚拟异常视频对应的真实域视频数据。
步骤4,利用步骤3得到的真实域异常数据对步骤2得到的网络进行进一步分类训练,过程和2相同,从而得到真实域的异常视频分类网络。
步骤5,实际测试过程中,将真实的异常数据输入到步骤4训练得到的网络模型,利用softmax函数获得该输入视频在隶属于各个异常类别中的概率,取最大值的类别作为该段视频的异常类型即可。
本发明的效果可以通过以下仿真实验做进一步的说明。
1.仿真条件
本发明以四块GeForce GTX 1080 Ti GPU作为硬件基础,以64位Ubuntu 16.04LTS***上利用3.5.4版本的python编程语言,0.4.1版本的Pytorch和9.2版本的CUDA作为软件环境进行整个发明的实际演练。
2.仿真内容
首先,使用模拟得到的虚拟视频数据集和一些视频数据集中拿到的视频数据按照图1训练,最后得到真实域异常视频分类网络。并且使用了“K.Hara,H.Kataoka,andY.Satoh,Learning spatio-temporal features with 3D residual networks foraction recognition,Proceedings of the ICCV Workshop on Action,Gesture,andEmotion Recognition,vol.2,no.3,pp.4,2017.”和我们自己设计的网络进行对比,以及未经域迁移数据训练的模型和经过了域迁移数据训练的模型结果对比。评断标准有二,一是视频的分类准确率,二是错分类严重性(MISE,misclassification severity)。后者将异常类别按其严重性进行分级,然后计算错分类以后的严重程度。结果如下:
表1:四个模型在真实数据集上的测试结果
Accuracy(%) 3D ResNet 本发明
域迁移前 19.51 17.07
域迁移后 21.14 26.02
从表1可以看出,本发明的网络在经过域迁移后在真实数据集上的分类准确率有了显著提升。并且本发明提出的域迁移技术对3DResNet的性能也有一定的效果提升,使其对公共场所异常行为检测具有更高的预报准确性。
表2:四个模型在真实数据集上的错分类严重性
MISE 3D ResNet 本发明
域迁移前 3.48 3.45
域迁移后 3.45 2.74
从表2看出,我们的方法在错分类严重性上也具有最低的值,也印证了本发明对公共场所异常行为检测具有较低的错误分类严重性。

Claims (2)

1.一种基于域迁移的公共场所异常行为检测方法,其特征在于步骤如下:
步骤1:利用已有的虚拟图像产品生成虚拟异常数据,虚拟异常数据包括不同的异常类别和正常类别数据,各个类别的数据数量相同;
步骤2:使用步骤1生成的虚拟异常数据训练视频分类网络,得到一个虚拟异常数据分类网络;
步骤3:利用生成的虚拟异常数据和采集的真实数据,训练域迁移网络,获得虚拟异常视频数据对应的真实域视频数据;所述的域迁移网络为改进的cycle-GAN,改进方法:将cycle-GAN网络中,所有的2D卷积结构,都改为面向视频数据的3D卷积结构,3D卷积结构的计算方法为:
Figure FDA0003588266120000011
其中P、Q、R分别表示上一层网络输出的特征图的长宽高,m表示上一层网络输出的特征图数量;最终计算得到在卷积模块W下,下一层网络中对应的特征图V,b为偏移量,i,j为第i层第j个3d卷积结构,x,y,z为长宽高上的坐标值;
步骤4:利用步骤3得到的真实域异常数据对步骤2得到的虚拟异常数据分类网络进行进一步分类训练,训练过程和步骤2相同,从而得到真实域的异常视频分类网络;
步骤5:将待测试的真实的异常数据输入到步骤4训练得到的网络模型,利用softmax函数获得输入视频在隶属于各个异常类别中的概率,取最大值的类别作为视频的异常类型即可。
2.根据权利要求1所述的一种基于域迁移的公共场所异常行为检测方法,其特征在于所述的步骤2中的视频分类网络为3DresNet或时空双流视频分类网络。
CN201811594841.4A 2018-12-25 2018-12-25 基于域迁移的公共场所异常行为检测方法 Active CN109753906B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811594841.4A CN109753906B (zh) 2018-12-25 2018-12-25 基于域迁移的公共场所异常行为检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811594841.4A CN109753906B (zh) 2018-12-25 2018-12-25 基于域迁移的公共场所异常行为检测方法

Publications (2)

Publication Number Publication Date
CN109753906A CN109753906A (zh) 2019-05-14
CN109753906B true CN109753906B (zh) 2022-06-07

Family

ID=66403930

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811594841.4A Active CN109753906B (zh) 2018-12-25 2018-12-25 基于域迁移的公共场所异常行为检测方法

Country Status (1)

Country Link
CN (1) CN109753906B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490078B (zh) * 2019-07-18 2024-05-03 平安科技(深圳)有限公司 监控视频处理方法、装置、计算机设备和存储介质
CN111027594B (zh) * 2019-11-18 2022-08-12 西北工业大学 一种基于字典表示的分步式异常检测方法
CN111401149B (zh) * 2020-02-27 2022-05-13 西北工业大学 基于长短期时域建模算法的轻量级视频行为识别方法
CN111666852A (zh) * 2020-05-28 2020-09-15 天津大学 一种基于卷积神经网络的微表情双流网络识别方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107437083A (zh) * 2017-08-16 2017-12-05 上海荷福人工智能科技(集团)有限公司 一种自适应池化的视频行为识别方法
CN107563431A (zh) * 2017-08-28 2018-01-09 西南交通大学 一种结合cnn迁移学习和svdd的图像异常检测方法
CN108140075A (zh) * 2015-07-27 2018-06-08 皮沃塔尔软件公司 将用户行为分类为异常
CN108334832A (zh) * 2018-01-26 2018-07-27 深圳市唯特视科技有限公司 一种基于生成对抗网络的视线估计方法
CN108446667A (zh) * 2018-04-04 2018-08-24 北京航空航天大学 基于生成对抗网络数据增强的人脸表情识别方法和装置
CN108664922A (zh) * 2018-05-10 2018-10-16 东华大学 一种基于人身安全的红外视频人体行为识别方法
CN108805978A (zh) * 2018-06-12 2018-11-13 江西师范大学 一种基于深度学习三维模型的自动生成装置和方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9613277B2 (en) * 2013-08-26 2017-04-04 International Business Machines Corporation Role-based tracking and surveillance
CN108345869B (zh) * 2018-03-09 2022-04-08 南京理工大学 基于深度图像和虚拟数据的驾驶人姿态识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108140075A (zh) * 2015-07-27 2018-06-08 皮沃塔尔软件公司 将用户行为分类为异常
CN107437083A (zh) * 2017-08-16 2017-12-05 上海荷福人工智能科技(集团)有限公司 一种自适应池化的视频行为识别方法
CN107563431A (zh) * 2017-08-28 2018-01-09 西南交通大学 一种结合cnn迁移学习和svdd的图像异常检测方法
CN108334832A (zh) * 2018-01-26 2018-07-27 深圳市唯特视科技有限公司 一种基于生成对抗网络的视线估计方法
CN108446667A (zh) * 2018-04-04 2018-08-24 北京航空航天大学 基于生成对抗网络数据增强的人脸表情识别方法和装置
CN108664922A (zh) * 2018-05-10 2018-10-16 东华大学 一种基于人身安全的红外视频人体行为识别方法
CN108805978A (zh) * 2018-06-12 2018-11-13 江西师范大学 一种基于深度学习三维模型的自动生成装置和方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Action recognition using spatial-optical data organization and sequential learning framework;Yuan Yuan 等;《Neurocomputing》;20180717;第315卷;221-233 *
Learning Spatio-Temporal Features with 3D Residual Networks for Action Recognition;Kensho Hara 等;《2017 IEEE International Conference on Computer Vision Workshops》;20171231;3154-3160 *
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks;Jun-Yan Zhu 等;《2017 IEEE International Conference on Computer Vision》;20171231;2242-2251 *
基于智能监控的中小人群异常行为检测;何传阳 等;《计算机应用》;20160610;第36卷(第6期);1724-1729 *
视频监控中人体异常行为识别;赵仁凤;《宿州学院学报》;20181130;第33卷(第11期);111-115 *

Also Published As

Publication number Publication date
CN109753906A (zh) 2019-05-14

Similar Documents

Publication Publication Date Title
CN109753906B (zh) 基于域迁移的公共场所异常行为检测方法
CN109255322B (zh) 一种人脸活体检测方法及装置
Lu et al. Future frame prediction using convolutional vrnn for anomaly detection
CN109118479B (zh) 基于胶囊网络的绝缘子缺陷识别定位装置及方法
CN106778595B (zh) 基于高斯混合模型的人群中异常行为的检测方法
US20210158023A1 (en) System and Method for Generating Image Landmarks
Bansal et al. People counting in high density crowds from still images
WO2018065158A1 (en) Computer device for training a deep neural network
CN105938559A (zh) 使用卷积神经网络的数字图像处理
Nallaivarothayan et al. An MRF based abnormal event detection approach using motion and appearance features
CN105095905A (zh) 目标识别方法和目标识别装置
Ranjan et al. Improved generalizability of deep-fakes detection using transfer learning based CNN framework
CN104680554B (zh) 基于surf的压缩跟踪方法和***
CN109635791A (zh) 一种基于深度学习的视频取证方法
CN112036381B (zh) 视觉跟踪方法、视频监控方法及终端设备
JP2024513596A (ja) 画像処理方法および装置、ならびにコンピュータ可読ストレージ媒体
de Oliveira Silva et al. Human action recognition based on a two-stream convolutional network classifier
CN110348434A (zh) 相机来源鉴别方法、***、存储介质和计算设备
CN114724218A (zh) 视频检测方法、装置、设备及介质
Xu et al. Tackling small data challenges in visual fire detection: a deep convolutional generative adversarial network approach
Lamba et al. A texture based mani-fold approach for crowd density estimation using Gaussian Markov Random Field
CN117011648A (zh) 一种基于单个真实样本的触觉图像数据集扩充方法及设备
Catruna et al. Gaitpt: Skeletons are all you need for gait recognition
Ariputhiran Feature extraction and classification of high resolution satellite images using GLCM and back propagation technique
Kuo et al. Applications of deep learning to road sign detection in dvr images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant