CN107491749A - 一种人群场景中全局和局部异常行为检测方法 - Google Patents

一种人群场景中全局和局部异常行为检测方法 Download PDF

Info

Publication number
CN107491749A
CN107491749A CN201710684991.3A CN201710684991A CN107491749A CN 107491749 A CN107491749 A CN 107491749A CN 201710684991 A CN201710684991 A CN 201710684991A CN 107491749 A CN107491749 A CN 107491749A
Authority
CN
China
Prior art keywords
crowd
global
local anomaly
src
light stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710684991.3A
Other languages
English (en)
Other versions
CN107491749B (zh
Inventor
金栋梁
朱松豪
邢晓远
闫兴秀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Post and Telecommunication University
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing Post and Telecommunication University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Post and Telecommunication University filed Critical Nanjing Post and Telecommunication University
Priority to CN201710684991.3A priority Critical patent/CN107491749B/zh
Publication of CN107491749A publication Critical patent/CN107491749A/zh
Application granted granted Critical
Publication of CN107491749B publication Critical patent/CN107491749B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种人群场景中全局和局部异常行为检测方法。首先,本发明提出一种新的名为混合光流直方图的特征,然后,对于全局异常行为本发明提出一种双稀疏表示的方法解决这个问题,最后对于局部异常行为,通过先检测当前帧感兴趣区域的前景,接着采用在线加权聚类的方法来进行局部异常行为的检测。在UMN数据集和UCSD数据集中的实验验证了本发明方法的优点。实验结果表明我们的方法较于之前的方法在分析视频中人群的运动行为具有更高的精度。

Description

一种人群场景中全局和局部异常行为检测方法
技术领域
本发明属于图像处理技术领域,尤其涉及一种人群场景中全局和局部异常行为检测方法。
背景技术
视频监控设备已广泛应用于交通路口、商店、银行、地铁车站和学校等公共场所,以保障社会安全。通过视频监控可以很容易地记录在摄像机监视的视频中的情况。然而,对于大多数现有的监控***,不能自动检查异常事件,并且一个人不可能在任何时候都监视监控器。
由于监控设备通常安装在公共场所,因此人群行为分析一直是计算机视觉研究领域的一个新热点。由于遮挡现象,个体行为分析的经典方法不能用于拥挤的场景。拥挤地区的视频监控对公共安全起着越来越重要的作用。本发明提出了一种基于人群运动特征的拥挤场景中的异常检测新方法。
在日常生活中,我们遇到的大多数行为,如行人走在人行道上或站在地铁站的人,都是正常的。然而,有些行为,如人们突然向四面八方散射,一辆超速行驶的汽车出现在人行道上,或者人们打架,与我们经常看到的不同,因此他们被视为异常的行为。总的来说,异常行为很少以不同的形式出现。因此,异常行为检测就是从正常的事件中识别出这些异常事件,这是一个二分类问题。这个问题分为全局异常行为检测(GAA)和局部异常行为检测(LAA)。对于全局异常行为检测,在同一场景的同一时刻只存在异常行为或正常行为。对于局部异常行为检测,正常行为和异常行为同时出现在一个场景中。
发明内容
本发明所要解决的技术问题在于克服现有技术的不足,提出一种人群场景中全局和局部异常行为检测方法,解决现有的检测方法中忽略各个区域之间的信息差异,对于分散的异常行为存在误检的问题。
本发明具体采用以下技术方案解决上述技术问题:
一种人群场景中全局和局部异常行为检测方法,具体包含以下步骤:
步骤1,输入待检测人群场景图像;
步骤2,提取待检测人群场景图像的混合光流直方图;
步骤3,对步骤2特征提取的混合光流直方图进行全局异常行为检测,具体如下:
步骤3.1,通过两个稀疏表示过程分别判断特征提取后的图像是否异常;
步骤3.2,用模糊积分对两个稀疏表示过程的判断进行处理,进而得出结果;
步骤4,对步骤2特征提取的混合光流直方图进行局部异常行为检测,具体如下:
步骤4.1,提取输入图像中感兴趣区域的前景;
步骤4.2,通过在线加权聚类对感兴趣区域进行局部异常检测;
步骤4.3,采用多目标跟踪的方法滤除噪声;
步骤5,通过步骤3和步骤4完成多人群场景中全局和局部异常行为检测。
作为本发明一种人群场景中全局和局部异常行为检测方法的进一步优选方案,在步骤2中,混合光流直方图HG具体表示如下:
HG=(μ,δ)
其中,μ表示光流的期望,δ表示在相同方向的方差,r表示时空容器中有r个持续帧,Hi表示第i个光流直方图。
作为本发明一种人群场景中全局和局部异常行为检测方法的进一步优选方案,在步骤3.1中,所述两个稀疏表示过程均包含一个动态词典更新的过程,其中,动态词典更新过程的表达式如下:
其中,在词典Φ中所有元素的SRC表示为SRCdic=[SRC1 dic,SRC2 dic,...,SRCN dic]T,下一个样本的SRC可表示为SRCy,m*是词典的样本索引,其到达下一个样本y的距离最小,ωm*是新的将取代词典Φ中第m*个样本,bm*是旧词典中第m*个样本;
作为本发明一种人群场景中全局和局部异常行为检测方法的进一步优选方案,两个稀疏表示过程的稀疏表示的公式如下:
其中,SRC为稀疏重构代价,x表示特征权重的系数,y为特征乘以权重系数后的表达式,λ为参数,Φ为词典,|| ||2为欧式距离,||x||1为L1范数。
作为本发明一种人群场景中全局和局部异常行为检测方法的进一步优选方案,所述步骤4.1具体包含如下步骤:
步骤4.11,通过高斯混合模型方法对输入图像进行背景建模,把感兴趣的前景提取出来;
步骤4.12,通过滑动窗口扫描检测当前帧的前景和感兴趣区域ri,再提取区域中的混合光流直方图特征,且ri={di,li},其中,di和li分别对应混合光流直方图特征和空间位置。
作为本发明一种人群场景中全局和局部异常行为检测方法的进一步优选方案,所述步骤4.2具体包含如下步骤:
步骤4.21,将一帧图像的空间位置分为2L-1×2L-1个网格,其中,L是间隔尺寸级;
步骤4.22,在每个网格中我们通过OWC算法对一定时间内的运动特征进行建模:
其中,网格中的聚类更新具体如下:
ωk←ωk+α(okk)
Ck←Ck+ok(α/ωk)(di-Ck)
其中,为权重,Ck是一个网格中k聚类的质心,α是学习率,且0<α<1,若从di到Ck的欧式距离小于阈值θ,则把ok设为1,否则把ok设为0;
步骤4.23,将属于正常聚类的HOHFs认为具有较大的权重,将属于异常聚类的HOHFs认为具有较小的权重,将聚类由ωk降序排序,则定义第一个聚类B为正常,即
其中,δ是决定聚类中最小能定位正常HOHFs的阈值;如果di能够匹配第一个聚类B中的一个,则它被检测为正常,否则为异常。
作为本发明一种人群场景中全局和局部异常行为检测方法的进一步优选方案,所述步骤4.3多目标跟踪如下:
步骤4.31,在时刻t时,获得一组轨迹:T={t1,...,tm},其中ti={xi,t-1,Pi,t-1,A,H,Q,R};m为所获得的轨迹总数,xi,t-1和Pi,t-1为t-1时刻的估计状态和估计状态协方差,A是状态转移矩阵,H是测量矩阵,Q是过程噪声协方差,R是测量噪声协方差;
步骤4.32,通过连通分量标记算法从检测到的异常ROIs的前景像素中提取一系列新的块,其中块的质心定义为Z={z1,t,...,zn,t};
步骤4.33,对一个已存在的轨迹ti,使用t-1时刻的估计状态xi,t-1和估计状态协方差Pi,t-1来预测它的新状态^xi,t和状态协方差^Pi,t;具体计算如下:
其中,A状态转移矩阵,Q是过程噪声协方差;
步骤4.34,通过门控计算将关联现有轨迹ti和zj,t来起到多目标跟踪的效果。
本发明采用上述技术方案,能产生如下技术效果:
1、在特征级,本发明提出了一种新的名为混合光流直方图的描述符,对于全局异常行为检测由两个稀疏进程组成,每个进程都有一个动态词典更新的过程,两个稀疏过程给出两个概率,最后的结果通过模糊积分判断;
2、对于局部异常行为的检测,先提取感兴趣区域的小方块,然后用在线加权聚类的算法进行判断,最后采用多目标跟踪的方法对噪声进行滤波;
3、本发明提出的方法能避免光照变化的阴影的干扰,能准确检测出全局异常和不同类型的局部异常行为,具有一定的鲁棒性,有效性。
附图说明
图1为本发明方法流程图;
图2为UMN数据集中三种不同场景下的实验结果示意图;
图3为UMN数据集中的全局异常行为检测的ROC曲线;
图4(a)为UCSD数据集中的ped1实验结果示意图;
图4(b)为UCSD数据集中的ped2实验结果示意图;
图5为ped1数据集中局部异常行为检测的ROC曲线;
图6为ped2数据集中局部异常行为检测的ROC曲线。
具体实施方式
下面结合附图对本发明的技术方案进行详细说明:
本发明的目的是提供一种新的全局和局部异常行为检测方法,其实现思路为:提出了一种新的描述符名为混合光流直方图的特征。对于全局异常行为的检测有两个稀疏过程,一个判断区域是否正常,另一个判断区域是否异常,每个进程都有一个动态词典更新的过程,两个稀疏过程给出两个概率,最后用模糊积分对这两个判断进行处理,得到该区域的最终结果。对于局部异常行为检测,先提取感兴趣区域的前景,然后通过在线加权聚类进行检测,用多目标跟踪的方法滤除噪声。本发明方法流程图如图1所示。
其中,特征提取的方法:
首先把视频帧分成若干大小相同的小方块,并且沿时间轴的连续帧中的同一位置几个这样的小方块构成一个容器。对于时空容器中的每一块,计算光流的分布信息,其光学矢量可以表示为F(x,y)=(vx(x,y),vy(x,y)),这里vx(x,y),vy(x,y)表示光流沿x轴,y轴,因此,光流在(x,y)上的大小可以表示为:
它的方向可以表示为:
所有像素的光流方向可以在[0,360°)范围内被分为b个相等的区域,像素对范围内光流的贡献是:
这里bk是第k个范围的方向,1≤k≤b。对于时空容器中的每一块,计算了沿b方向的光流分布信息,并且可以得到直方图H=(G1,G2,...,Gb)∈R1*b,然后,针对同一时空容器和不同帧中的一系列小方块,计算期望值和方差。假设在时空容器V中有r个持续帧,计算这些帧的光流直方图,它们的期望和方差如下:
这里μk(1≤k≤b)表示光流在第k个方向的期望,δk(1≤k≤b)表示在相同方向的方差,其中μ=(μ12,...,μb)∈R1*b andδ=(δ12,...,δb)∈R1*b。较大的方差值导致更明显的光流速度变化。此外,还记得速度的变化是加速度,因此,k方向加速度的值可以表示为α∝δk(1≤k≤b).我们结合直方图中的期望和方差来描述局部时空容器中的运动特征,直方图可以表示为HG=(μ,δ)。描述符叫做混合光流直方图。与普通特征提取相比,我们的方法是计算光流在方向和大小上的变化,从而形成加速度信息,从而提高运动状态的表达。
稀疏重构的方法:
视频帧通常用一系列的特征来表示b=[H1,H2,...,HN],这里N是重要特征的总量。为了表示具有高维特征的视频样本,稀疏表示提供了一种合理的方法。把这些特征乘以一组表示特征权重的系数,我们就可以得到:
y=[H1X1,H2X2,…,HNXN]T(6)这里X1,X2,...,XN是系数。为得到最佳的系数组,应该使足够小,这意味着我们需要建立一个优化问题,表示为:
这里L2范数|| ||2表示欧式距离。用矩阵Φ表达特征,公式7为:
在确定样本时,为了使用较少的特征,系数矢量x中必须有一些0元素。L0范数||x||0被添加到公式8中:
L0范数计算非零元素个数,因此,公式9用最少的特征计算最佳的系数组。用L1范数来代替L0范数具有相同的效果,在这里:
公式10是稀疏表示的最终形式。其中x*是重建系数。我们将其修改为公式11,并将稀疏重建成本表示为公式12。
正常帧重构代价较小,而异常帧通常产生较大的重建代价。因此,可以采用SRC作为一类分类问题的异常度量。
动态词典的更新:
词典更新的目的是使词典更准确地描述正常样本。初始词典只包含训练数据的正常样本,我们试图在词典中添加一些测试样本的正常样本,以便词典能更好地处理测试数据。我们解决了如何选择广泛样本来更新词典的问题。在选择了足够的样本来建立词典Φ=[b1,b2,...bN]T后,判断即将到来的样本是否正常。在词典的维度不变的情况下,应增加各种正常样本。扫描字典,找到一个与这个正常样本相距距离最小的样本,将其帧合并到词典中。这里的距离是用稀疏重建成本来衡量的,在词典Φ中所有元素的SRC表示为SRCdic=[SRC1 dic,SRC2 dic,...,SRCN dic]T,下一个样本的SRC可表示为SRCy,动态词典更新表示为:
这里m*是词典的样本索引,其到达下一个样本y的距离最小,ωm*是新的将取代词典Φ中第m*个样本。bm*是旧词典中第m*个样本。
所述双稀疏表示的过程:
本发明中的双稀疏表示是一个包含两个稀疏表示过程的***。词典中只包含正常基,另一个词典的建立包含由第一个稀疏表示过程得到的异常样本。异常词典可以由非常低概率的基组成。第二个稀疏表示的方程是:
这里Φab是异常词典,公式14和15与公式11和12没什么不同,但新词典Φab与正常词典Φ相似需要一个动态词典更新的过程,各种异常样本被添加到词典中。首先测试视频中的几个测试样本是否正常。如果样本正常,Φ则会更新。当样品如果判断为异常则被添加到Φab。在Φab建立后,之后到来的样本会有两个稀疏过程分别判断,这两个稀疏过程是并行的。最后用模糊积分给出判断。作为最终结果,更新过程必须继续下去。如果最终的结果是正常的,则把测试结果添加到Φ中去,否则添加到Φab中。
所述感兴趣区域前景的提取:
通过高斯混合模型(GMM)方法进行背景建模之后,滑动窗口用于扫描检测到当前帧的前景和感兴趣区域(ROI)可能和局部异常行为有关。具体而言,对于滑动窗口内的所有像素,如果前景像素的比例大于阈值,则窗口被高亮显示为ROI。可以看出,这一过程过滤大部分的背景,降低了计算成本以及提高异常检测的鲁棒性。
由于一个异常不只发生在一个帧中,所以我们采用了一个时间为中心的滑动窗口t:{t-n,···,t-1,t,t+1,···,t+n}去提取HOHF描述符。除了运动信息,我们还保留每个ROI的空间位置(即x和y坐标)。从现在开始,一个ROI表示为ri={di,li},这里di和li分别对应HOHF和空间位置。这里HOHF特征通过捕捉方向和运动强度信息区分运动模式。
所述在线加权聚类算法:
一帧图像的空间位置被分为2L-1×2L-1个网格,这里L是间隔尺寸级,ROIs位于相同网格通过在线学习进行聚类。这一步骤有助于克服透视失真,这可能导致提取特征的尺度变化。
在每个网格中我们通过OWC算法对最近时间内的特征进行建模。具体而言,让ω1,...,ωK作为权重,并且C1,...,CK是一个网格中K聚类(K≤T)的质心,这里∑Kk=1ωk=1,K和T分别是现有聚类的数量和指定的最大聚类数。对于一个新的ri,我们先把它的di分配到一个网格中,在网格中用li和聚类更新如下:
ωk←ωk+α(okk) (16)
Ck←Ck+ok(α/ωk)(di-Ck) (17)
这里α(0<α<1)是学习率,如果从di到Ck的欧式距离小于阈值θ把ok设为1,否则设为0。
如果没有现有聚类匹配di,则产生一个新的聚类ωK+1=α和CK+1=di。如果K<T,新的聚类被添加到现有的聚类中。如果K=T,最小权重ωk的聚类被新的聚类替代,权重在这一步后重整。
通常属于正常聚类的HOHFs被认为具有较大的权重,然而表示异常的聚类具有较小的权重。因此,如果聚类是由ωk降序排序,我们定义第一个B聚类为正常:
这里δ是决定聚类中最小能定位正常HOHFs的阈值。换言之,如果di能够匹配第一个聚类B中的一个,则它被检测为正常,否则为异常。
该算法的一个重要优点是它是自适应的。从公式16我们得出一个结论,表示正常HOHFs的一个聚类如果它不能匹配一个新的di以logδ/log(1-α)为原则更新,则它将被认为是一个异常的聚类。同样的,如果我们总是检测一些相似的异常HOHFs,代表这些HOHFs聚类的权重就会逐渐增加最终变成正常聚类。
所述多目标跟踪算法:
尽管我们检测到每帧视频中异常的ROIs,由于运动物体严重遮挡。仍然有一些错误和丢失的检测。假设一个异常事件出现在一个连续的时空位置,我们采用了简化的MTT算法来提高检测性能。
在时刻t时,我们可以获得一组轨迹T={t1,...,tm},其中每个轨迹的状态由卡尔曼滤波器建模。定义为ti={xi,t-1,Pi,t-1,A,H,Q,R}。与此同时,我们通过连通分量标记算法从检测到的异常ROIs的前景像素中提取一系列新的块。这些块的质心定义为Z={z1,t,...,zn,t}。对一个已存在的轨迹ti,我们首先使用t-1时刻的估计状态xi,t-1和估计状态协方差Pi,t-1来预测它的新状态^xi,t和状态协方差^Pi,t
这里A状态转移矩阵,Q是过程噪声协方差。接下来,通过门控计算将关联现有轨迹ti和zj,t。具体来说,构造距离矩阵D,这里Dij是ti和zj,t之间马氏距离平方的度量:
这里zj,t是块j在时刻t的质心,H是测量矩阵,R是测量噪声协方差。当且仅当Dij≤G时,我们把候选的zj,t和轨迹ti关联。这里G是门控大小。当门内有多个块时,我们采用全局最近邻(GNN)方案将最近的块分配给轨迹。由于稀疏的分布块和提出的异常检测器鲁棒,它在我们的方法中效果很好。
一个块可以分配给现有的轨迹,也可以启动一个新的轨迹。如果一个块zj,t被分配给现有轨迹ti,轨迹被更新如下:
这里K是卡尔曼收益,I是单位矩阵。如果没有块被分配给现有轨迹ti,轨迹被更新为:
如果在一定数量的帧中没有为其分配块,则删除现有的轨迹,根据轨迹长度,该轨迹可能消失或噪声。
为了测试我们提出的方法的效果,该算法被应用在几个已发布的数据集中。本发明采用UMN数据集来测试我们全局异常行为检测中的算法性能,而UCSN数据集用于在处理局部异常行为时对算法性能进行测试。
在UMN数据集中的实验结果:
UMN数据集由两个户外场景和一个室内场景组成,每个场景下包含几个人群快速逃生行为。总帧数为7,739,分辨率为320×240。对于每个场景,我们使用500到1600个正常帧进行训练,其余帧用于测试。实验中把特征提取时的参数r设为4,b设为8。
相对而言,与其他数据集比较UMN数据集是相当简单的,所以目前的异常检测算法很好地执行这个数据集。图2给出的是本发明算法在三个不同场景下的正常和异常的实验结果图。图像结果的标注在左上方。我们将UMN数据集上的三种不同方法进行比较,包括社会力模型Social Force Model,光流法Optical Flow和条纹线表示法StreaklineRepresentation Method。ROC曲线如图3所示。ROC曲线显示的真正类率(True PositiveRate,TPR)和假正类率(False Positive Rate,FTR)。TPR为正确标注帧的比例,FPR为错误标注帧的比率。表1是本发明所提出的方法的AUC值和EER值和其余方法的比较。
表1
Method AUC(%) EER(%)
Optical Flow 83 24
Social Force 93.8 12.6
SPM 96.2 13.5
Our Method 97.5 13.2
从图表中可以看出,在三种场景下正常和异常的行为,并把人群突然向四周扩散在右上角标注为异常行为,从ROC曲线、AUC和EER的值可以看出本发明的算法较其它三种方法有一定的优越性、鲁棒性、有效性。
在UCSD数据集中的实验结果:
我们对UCSD数据集进行了局部异常行为检测的实验,该数据集包含两个不同行人通道的子集。第一组,表示为“Ped1”,具有34个训练剪辑和36个测试剪辑,每个具有158×238分辨率,固定的长度为200帧。而第二个被表示为“Ped2”,具有16个训练剪辑和12个测试剪辑,每个测试剪辑的分辨率为240×360,长度从120到180帧不等。实验中,我们应用具有1/2重叠的20×10滑动窗口来提取ROI,两者的时间长度设置为6。参数θ设为0.15,N=8,L=4,T=15,andα=0.001。
同样的图4(a)是ped1的实验结果,图4(b)是ped2的实验结果,图5和图6是本发明所使用的方法同其他三种方法:基于社会力模型的方法(Social Force),基于增量编码长度(Incremental Coding Length,ICL),基于混合动态纹理的分层条件随机场的异常检测(Aconditional random field with a hierarchical mixture of dynamic texture,H-MDT-CRF)在ped1和ped2上的ROC曲线的比较。表2是这四种方法的AUC值和EER值的比较。
表2
从图表中可以看出,在ped1和ped2数据集中,人群中滑滑板,骑车,小汽车,行人踏入草坪被正确标注为红色,测试结果和当前使用比较广泛的异常行为检测方法的ROC曲线、AUC和EER值对比,在性能方面充分证明本发明提出方法的优越性。

Claims (7)

1.一种人群场景中全局和局部异常行为检测方法,其特征在于,具体包含以下步骤:
步骤1,输入待检测人群场景图像;
步骤2,提取待检测人群场景图像的混合光流直方图;
步骤3,对步骤2特征提取的混合光流直方图进行全局异常行为检测,具体如下:
步骤3.1,通过两个稀疏表示过程分别判断特征提取后的图像是否异常;
步骤3.2,用模糊积分对两个稀疏表示过程的判断进行处理,进而得出结果;
步骤4,对步骤2特征提取的混合光流直方图进行局部异常行为检测,具体如下:
步骤4.1,提取输入图像中感兴趣区域的前景;
步骤4.2,通过在线加权聚类对感兴趣区域进行局部异常检测;
步骤4.3,采用多目标跟踪的方法滤除噪声;
步骤5,通过步骤3和步骤4完成多人群场景中全局和局部异常行为检测。
2.根据权利要求1所述的一种人群场景中全局和局部异常行为检测方法,其特征在于,在步骤2中,混合光流直方图HG具体表示如下:
HG=(μ,δ)
其中,μ表示光流的期望,δ表示在相同方向的方差,r表示时空容器中有r个持续帧,Hi表示第i个光流直方图。
3.根据权利要求1所述的一种人群场景中全局和局部异常行为检测方法,其特征在于,在步骤3.1中,所述两个稀疏表示过程均包含一个动态词典更新的过程,其中,动态词典更新过程的表达式如下:
其中,在词典Φ中所有元素的SRC表示为SRCdic=[SRC1 dic,SRC2 dic,...,SRCN dic]T,下一个样本的SRC可表示为SRCy,m*是词典的样本索引,其到达下一个样本y的距离最小,ωm*是新的将取代词典Φ中第m*个样本,bm*是旧词典中第m*个样本。
4.根据权利要求1所述的一种人群场景中全局和局部异常行为检测方法,其特征在于,两个稀疏表示过程的稀疏表示的公式如下:
其中,SRC为稀疏重构代价,x表示特征权重的系数,y为特征乘以权重系数后的表达式,λ为参数,Φ为词典,║║2为欧式距离,║x║1为L1范数。
5.根据权利要求1所述人群场景中全局和局部异常行为检测方法,其特征在于,所述步骤4.1具体包含如下步骤:
步骤4.11,通过高斯混合模型方法对输入图像进行背景建模,把感兴趣的前景提取出来;
步骤4.12,通过滑动窗口扫描检测当前帧的前景和感兴趣区域ri,再提取区域中的混合光流直方图特征,且ri={di,li},其中,di和li分别对应混合光流直方图特征和空间位置。
6.根据权利要求1所述人群场景中全局和局部异常行为检测方法,其特征在于,所述步骤4.2具体包含如下步骤:
步骤4.21,将一帧图像的空间位置分为2L-1×2L-1个网格,其中,L是间隔尺寸级;
步骤4.22,在每个网格中我们通过OWC算法对一定时间内的运动特征进行建模:
其中,网格中的聚类更新具体如下:
ωk←ωk+α(okk)
Ck←Ck+ok(α/ωk)(di-Ck)
其中,为权重,Ck是一个网格中k聚类的质心,α是学习率,且0<α<1,若从di到Ck的欧式距离小于阈值θ,则把ok设为1,否则把ok设为0;
步骤4.23,将属于正常聚类的HOHFs认为具有较大的权重,将属于异常聚类的HOHFs认为具有较小的权重,将聚类由ωk降序排序,则定义第一个聚类B为正常,即
其中,δ是决定聚类中最小能定位正常HOHFs的阈值;如果di能够匹配第一个聚类B中的一个,则它被检测为正常,否则为异常。
7.根据权利要求1所述人群场景中全局和局部异常行为检测方法,其特征在于,所述步骤4.3多目标跟踪如下:
步骤4.31,在时刻t时,获得一组轨迹:T={t1,...,tm},其中ti={xi,t-1,Pi,t-1,A,H,Q,R};m为所获得的轨迹总数,xi,t-1和Pi,t-1为t-1时刻的估计状态和估计状态协方差,A是状态转移矩阵,H是测量矩阵,Q是过程噪声协方差,R是测量噪声协方差;
步骤4.32,通过连通分量标记算法从检测到的异常ROIs的前景像素中提取一系列新的块,其中块的质心定义为Z={z1,t,...,zn,t};
步骤4.33,对一个已存在的轨迹ti,使用t-1时刻的估计状态xi,t-1和估计状态协方差Pi,t-1来预测它的新状态^xi,t和状态协方差^Pi,t;具体计算如下:
其中,A状态转移矩阵,Q是过程噪声协方差;
步骤4.34,通过门控计算将关联现有轨迹ti和zj,t来起到多目标跟踪的效果。
CN201710684991.3A 2017-08-11 2017-08-11 一种人群场景中全局和局部异常行为检测方法 Active CN107491749B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710684991.3A CN107491749B (zh) 2017-08-11 2017-08-11 一种人群场景中全局和局部异常行为检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710684991.3A CN107491749B (zh) 2017-08-11 2017-08-11 一种人群场景中全局和局部异常行为检测方法

Publications (2)

Publication Number Publication Date
CN107491749A true CN107491749A (zh) 2017-12-19
CN107491749B CN107491749B (zh) 2020-11-17

Family

ID=60645076

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710684991.3A Active CN107491749B (zh) 2017-08-11 2017-08-11 一种人群场景中全局和局部异常行为检测方法

Country Status (1)

Country Link
CN (1) CN107491749B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108563217A (zh) * 2018-05-29 2018-09-21 济南浪潮高新科技投资发展有限公司 基于局部和全局统计分析的鲁棒异常检测方法
CN108596045A (zh) * 2018-04-02 2018-09-28 四川大学 一种基于空中监控平台的群体异常行为检测方法
CN108629316A (zh) * 2018-05-08 2018-10-09 东北师范大学人文学院 一种多视角的视频异常事件检测方法
CN108764209A (zh) * 2018-06-11 2018-11-06 南京邮电大学 一种基于监控视频的人物异常行为自动检测方法
CN109117774A (zh) * 2018-08-01 2019-01-01 广东工业大学 一种基于稀疏编码的多视角视频异常检测方法
CN109300144A (zh) * 2018-09-21 2019-02-01 中国矿业大学 一种融合社会力模型和卡尔曼滤波的行人轨迹预测方法
CN109614893A (zh) * 2018-11-28 2019-04-12 中国电子科技集团公司电子科学研究院 基于情境推理的异常行为行踪智能识别方法及装置
CN110443287A (zh) * 2019-07-19 2019-11-12 北京航空航天大学 一种基于稀疏轨迹数据的人群移动流绘制方法
CN112016701A (zh) * 2020-09-09 2020-12-01 四川大学 一种融合时序和属性行为的异常变化检测方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105138982A (zh) * 2015-08-21 2015-12-09 中南大学 一种基于多特征聚类及分类的人群异常检测与评估方法
CN106033548A (zh) * 2015-03-13 2016-10-19 中国科学院西安光学精密机械研究所 基于改进字典学习的拥挤人群异常检测方法
CN106228149A (zh) * 2016-08-04 2016-12-14 杭州电子科技大学 一种视频异常行为检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106033548A (zh) * 2015-03-13 2016-10-19 中国科学院西安光学精密机械研究所 基于改进字典学习的拥挤人群异常检测方法
CN105138982A (zh) * 2015-08-21 2015-12-09 中南大学 一种基于多特征聚类及分类的人群异常检测与评估方法
CN106228149A (zh) * 2016-08-04 2016-12-14 杭州电子科技大学 一种视频异常行为检测方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596045A (zh) * 2018-04-02 2018-09-28 四川大学 一种基于空中监控平台的群体异常行为检测方法
CN108629316A (zh) * 2018-05-08 2018-10-09 东北师范大学人文学院 一种多视角的视频异常事件检测方法
CN108563217A (zh) * 2018-05-29 2018-09-21 济南浪潮高新科技投资发展有限公司 基于局部和全局统计分析的鲁棒异常检测方法
CN108764209A (zh) * 2018-06-11 2018-11-06 南京邮电大学 一种基于监控视频的人物异常行为自动检测方法
CN109117774B (zh) * 2018-08-01 2021-09-28 广东工业大学 一种基于稀疏编码的多视角视频异常检测方法
CN109117774A (zh) * 2018-08-01 2019-01-01 广东工业大学 一种基于稀疏编码的多视角视频异常检测方法
CN109300144A (zh) * 2018-09-21 2019-02-01 中国矿业大学 一种融合社会力模型和卡尔曼滤波的行人轨迹预测方法
CN109300144B (zh) * 2018-09-21 2021-12-24 中国矿业大学 一种融合社会力模型和卡尔曼滤波的行人轨迹预测方法
CN109614893A (zh) * 2018-11-28 2019-04-12 中国电子科技集团公司电子科学研究院 基于情境推理的异常行为行踪智能识别方法及装置
CN109614893B (zh) * 2018-11-28 2023-10-24 中国电子科技集团公司电子科学研究院 基于情境推理的异常行为行踪智能识别方法及装置
CN110443287A (zh) * 2019-07-19 2019-11-12 北京航空航天大学 一种基于稀疏轨迹数据的人群移动流绘制方法
CN110443287B (zh) * 2019-07-19 2022-01-14 北京航空航天大学 一种基于稀疏轨迹数据的人群移动流绘制方法
CN112016701A (zh) * 2020-09-09 2020-12-01 四川大学 一种融合时序和属性行为的异常变化检测方法及***
CN112016701B (zh) * 2020-09-09 2023-09-15 四川大学 一种融合时序和属性行为的异常变化检测方法及***

Also Published As

Publication number Publication date
CN107491749B (zh) 2020-11-17

Similar Documents

Publication Publication Date Title
CN107491749A (zh) 一种人群场景中全局和局部异常行为检测方法
CN105718857B (zh) 一种人体异常行为检测方法及***
Junior et al. Crowd analysis using computer vision techniques
US8213679B2 (en) Method for moving targets tracking and number counting
CN110084228A (zh) 一种基于双流卷积神经网络的危险行为自动识别方法
CN103020986B (zh) 一种运动目标跟踪方法
CN109919122A (zh) 一种基于3d人体关键点的时序行为检测方法
CN109344736A (zh) 一种基于联合学习的静态图像人群计数方法
CN103258193B (zh) 一种基于kod能量特征的群体异常行为识别方法
CN106204640A (zh) 一种运动目标检测***及方法
CN107239762A (zh) 一种基于视觉的公交车内乘客人数统计方法
CN105844234A (zh) 一种基于头肩检测的人数统计的方法及设备
CN106529499A (zh) 基于傅里叶描述子和步态能量图融合特征的步态识别方法
CN102592138B (zh) 基于多模块稀疏投影的密集场景目标跟踪方法
CN106295532B (zh) 一种视频图像中的人体动作识别方法
CN102254183B (zh) 一种基于AdaBoost算法的人脸检测方法
CN106408030A (zh) 基于中层语义属性和卷积神经网络的sar图像分类方法
CN109948690A (zh) 一种基于深度学习和结构信息的高铁场景感知方法
CN103136534A (zh) 自适应的区域行人计数方法及装置
CN106570490A (zh) 一种基于快速聚类的行人实时跟踪方法
CN106127812A (zh) 一种基于视频监控的客运站非出入口区域的客流统计方法
CN110909672A (zh) 一种基于双流卷积神经网络和svm的抽烟动作识别方法
CN107590427A (zh) 基于时空兴趣点降噪的监控视频异常事件检测方法
CN105809206A (zh) 一种行人跟踪方法
Ghidoni et al. Texture-based crowd detection and localisation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 201, building 2, phase II, No.1 Kechuang Road, Yaohua street, Qixia District, Nanjing City, Jiangsu Province

Applicant after: NANJING University OF POSTS AND TELECOMMUNICATIONS

Address before: 210023 Guang Yue Road, Qixia street, Nanjing, Jiangsu Province, No. 9-1

Applicant before: NANJING University OF POSTS AND TELECOMMUNICATIONS

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant