CN107194317B - 一种基于网格聚类分析的暴力行为检测方法 - Google Patents

一种基于网格聚类分析的暴力行为检测方法 Download PDF

Info

Publication number
CN107194317B
CN107194317B CN201710269121.XA CN201710269121A CN107194317B CN 107194317 B CN107194317 B CN 107194317B CN 201710269121 A CN201710269121 A CN 201710269121A CN 107194317 B CN107194317 B CN 107194317B
Authority
CN
China
Prior art keywords
image
optical flow
human body
points
formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710269121.XA
Other languages
English (en)
Other versions
CN107194317A (zh
Inventor
伍冯洁
黎梓毅
黄文恺
张建华
张雨楠
陈志德
冯兆熙
肖颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou University
Original Assignee
Guangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou University filed Critical Guangzhou University
Priority to CN201710269121.XA priority Critical patent/CN107194317B/zh
Publication of CN107194317A publication Critical patent/CN107194317A/zh
Application granted granted Critical
Publication of CN107194317B publication Critical patent/CN107194317B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于网格聚类分析的暴力行为检测方法,步骤包括:S1、从摄像设备或已有的视频文件中读取视频流,获取视频流中的源图片帧;S2、将源图片帧进行预处理;S3、检测预处理后的源图片帧中的人体,并将检测到的人体框出;S4、获取源图片帧的光流特征点,并对对光流特征点进行光流追踪;S5、对光流特征点进行聚类分析,从而获得图像中的运动物体;S6、分析运动物体的运动情况;S7、统计运动物体在连续图像帧中的聚合度变化趋势,用来判断暴力事件的检测。本发明通过视频图像信息计算多个运动物体间的聚合度变化趋势,以及通过人体检测,从而判断是否发生暴力事件。

Description

一种基于网格聚类分析的暴力行为检测方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于网格聚类分析的暴力行为检测方法。
背景技术
对于传统的利用图像处理检测暴力事件的手段中,其核心往往为通过模板匹配,学习模型等方法去判断暴力事件的发生,由于暴力事件发生的复杂性,这种手段的泛用性可能较为不佳,计算量大。针对这一情况,有必要设计一个针对于简化后的暴力事件模型的检测算法。
发明内容
为了克服现有技术存在的缺点与不足,本发明提供一种基于网格聚类分析的暴力行为检测方法,通过视频图像信息计算多个运动物体间的聚合度变化趋势,以及通过人体检测,从而判断是否发生暴力事件。
为解决上述技术问题,本发明提供如下技术方案:一种基于网格聚类分析的暴力行为检测方法,包括如下步骤:
S1、从摄像设备或已有的视频文件中读取视频流,获取视频流中的源图片帧;
S2、将源图片帧进行预处理;
S3、检测预处理后的源图片帧中的人体,并将检测到的人体框出;
S4、获取源图片帧的光流特征点,并对对光流特征点进行光流追踪;
S5、对光流特征点进行聚类分析,从而获得图像中的运动物体,具体为:
将图片帧划分网格,设划分比例为N,h、w分别为图像帧的高度与宽度,m×n是网格的总个数,得到:
Figure GDA0002432490730000011
设b(i,j)为行序号为i(i<m),列序号为j(j<)网格内所存在光流点的数目,p(i)为这一图像帧检测到的光流特征点,一共有s个,δ(p(u))为判定光流点p(u)是否在序号为i、j的网格内,最后累加后则得到每个网格内光流点的个数b(i,j):
Figure GDA0002432490730000021
S6、分析运动物体的运动情况,具体为:
遍历b(i,j),设运动物体判定阈值为K,存在b(i,j)>K时,以i,j序号的网格位置作为该运动物体的位置,从而在这一帧图像中提取数个运动物体的位置,计算运动物体之间的最远距离,以这个最远距离表示运动物体的聚合度;
其中,在计算运动物体间的距离时,当需要判定的运动物体数目不多,直接计算所有运动物体间的距离d(x,y),x,y为运动物体,得到聚合度P:
P=max{d(x,y)}
当需要判定的运动物体数目较多时,使用凸包算法与旋转卡壳算法,求出运动物体间的最远距离;
S7、统计运动物体在连续图像帧中的聚合度变化趋势,用来判断暴力事件的检测。
进一步地,所述步骤S2的预处理,包括图像增益处理、图像灰度化处理、直方图均衡化处理以及图像平滑处理;
其中,所述图像增益处理具体为调节图像的对比度与亮度,公式如下:
g(i,j)=αf(i,j)+β
式中,f(x)为源图像像素,g(x)为输出图像像素,α用于控制对比度,β用于控制亮度;
所述图像灰度化处理具体使用加权平均法将彩色图像转化为灰度图像,公式为:
(i,j)=0.30R(i,j)+0.59G(i,j)+0.11B(i,j)
式中,f、R、G、B分别表示输出的灰度值以及输入的R、G、B分量;
所述直方图均衡化处理用于将原图像所有像素点的灰度分布从集中在某一区域均衡拉伸到整个灰度分布区域中,具体为:先对图像进行直方图计算,得到灰度图灰度分布的概率分布函数p(x),由此函数计算累积概率分布函数c(x),最后利用累积概率分布函数对原始分布做均衡化拉伸得到新的分布,具体公式为:
设概率分布函数为p(x),累积概率分布函数为:
Figure GDA0002432490730000031
式中,x为某一灰度值;
所述图像平滑处理具体使图片去噪平滑,公式为:
Figure GDA0002432490730000032
利用高斯公式在二维上的形式计算出权重矩阵后,将这一权重矩阵与图像作卷积则得到模糊后的图像。
进一步地,所述步骤S3中检测预处理后的源图片帧中的人体,具体通过使用lbp分类器和haar分类器,达到对人体目标追踪的目的,具体步骤为:
(1)预先制作人体样本,并将其使用lbp分类器和haar分类器进行训练:
人将体样本分为正样本与负样本,正样本即为人体的图片,负样本则为其他图片;
原始的lbp特征定义在一个3*3的窗口内,以中心的灰度值为基准,相邻的8个像素值分别与中心像素值作比较,若相邻像素值比中心像素值大,则该位置的被标记为1,否则为0;由此则产生8位二进制数,并将其称为该中心像素点的lbp值;
Haar特征是由矩阵特征模板表示,其包括若干全等的黑色矩阵和白色矩阵,矩特征值是白色矩阵的灰度值减去黑色矩阵像素值的和;
不同的物体有着不同的特征值,于是通过训练特征值获得人体图像的特征,在经过一定样本量的训练后,将人体图像与非人体图像通过特征值的区别分类出来;
在得到这个分类器后,新的人体图像也能被这个分类器所检测出来;
(2)将训练好的人体样本生成各自的xml文件,然后通过opencv的函数以及类的调用载入xml文件,对预处理后的源图片帧进行人体检测;
(3)将检测到的人体在图片中用矩形框标注出来。
进一步地,所述步骤S4,其具体为:
使用Lucas-Kanade光流算法处理图像,获取源图片帧的光流特征点:
Lucas-Kanade光流算法是一种两帧差分的光流估计算法,假设在一个小矩形窗口内其光流保持恒定,对相邻的两帧图像,若序列图像获取的时间间隔很短,且场景和光照条件变化缓慢,那么它们将满足灰度恒定约束,得到式:
I(μ,ν,k)=I(μ+ε,ν+η,k+1)
式中,I(μ,ν,k)表示第k帧图像,I(μ,ν,k+1)表示第k+1帧图像;
根据上式,令I(x)=I(μ,ν,k)、J(x+d)=I(μ+ε,ν+η,k+1),得到目标函数为:
Figure GDA0002432490730000041
式中,w表示一个小矩形窗口,d表示光流;
通过最小化残差E来得到光流d的估计值,得到式下式:
Figure GDA0002432490730000042
将J(x+d)按泰勒级数展开并线性逼近,代入上式中,得到光流d的估计值,如下式所示:
Figure GDA0002432490730000043
Lucas-Kanade光流算法通过计算局部区域的光流来获得目标的运动状态。
进一步地,所述凸包算法,其具体过程为:
在一个实数向量空间V中,对于给定集合X,所有包含X的凸集的交集S被称为X的凸包;
X的凸包使用X内所有点(X1,X2,X3,…,Xn)的线性组合来构造;
在给定二维平面上的点集中,所述凸包就是将最外层的点连接起来构成的凸多边型,它能包含点集中所有的点。
进一步地,所述旋转卡壳算法,其具体过程为:
不断旋转凸包,同时查询每次旋转后的对踵点,计算对踵点间的距离,在旋转计算完所有对踵点的距离后,取这些距离的最大值即得到凸包的最长直径,也就是平面上的两两点的最长距离。
进一步地,所述S7,其具体为:
在存在物体运动的图像序列中,统计其中每一帧聚合度变化的趋势,若在连续的数秒内,聚合度有着明显减小的趋势,则判定发生暴力事件,判断公式为:
Figure GDA0002432490730000051
式中,S为聚合度,k为聚合度降低趋势阈值。
采用上述技术方案后,本发明至少具有如下有益效果:
1、相比以往的公共场合暴力检测手段,本发明的精度更高,反应速度更快。
2、本发明采用了机器检测与人工检测结合的方法,不仅能通过算法检测暴力事件的发生,还提供了人体的检测技术以便监测人员更好的获得监控现场的状况,提高了本检测方法的稳定性。
附图说明
图1是本发明一种基于网格聚类分析的暴力行为检测方法的步骤流程图;
图2是本发明实施例凸包构建中Graham扫描法步骤1示意图;
图3是本发明实施例凸包构建中Graham扫描法步骤2示意图;
图4是本发明实施例凸包构建中Graham扫描法步骤3示意图;
图5是本发明实施例凸包构建中Graham扫描法步骤4示意图;
图6是本发明实施例凸包构建中Graham扫描法步骤5示意图;
图7是本发明实施例凸包构建中Graham扫描法步骤6示意图;
图8是本发明实施例凸包构建中Graham扫描法步骤7示意图;
图9是本发明实施例中旋转卡壳算法查询凸包得到最长直径的时刻示意图;
图10是本发明实施例中旋转卡壳算法查询每次旋转的对踵点对的距离示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本申请作进一步详细说明。
如图1所示,本发明公开了一种基于网格聚类分析的暴力行为检测方法,其主要步骤共有7步,分别是源图像帧的获取、图像预处理、人体检测、光流追踪、对光流特征点进行聚类分析、运动物体判断以及暴力事件判定,下面对每一步骤进行详细的描述。
1、源图片帧的获取:从摄像头设备或已有视频文件中读取视频流,获取其中的源图片帧。
2、图像预处理:将源图片进行去噪、平滑、增益以及灰度等处理,供后续的人体检测以及光流追踪处理:
(1)图像增益:调节图像的对比度与亮度,用如下公式:
g(i,j)=αf(i,j)+β
其中f(x)为源图像像素,g(x)为输出图像像素,通常用α控制对比度、β控制亮度;
(2)图像灰度化处理:使用加权平均法将彩色图像转化为灰度图像,用如下公式:
f(i,j)=0.30R(i,j)+0.59G(i,j)+0.11B(i,j)
式中,f、R、G、B分别表示输出的灰度值以及输入的R、G、B分量;
(3)直方图均衡化处理:均衡化分布用于将原图像所有像素点的灰度分布从集中在某一区域均衡拉伸到整个灰度分布区域中;
具体步骤为:先对图像进行直方图计算,得到灰度图灰度分布的概率分布函数p(x),由此函数计算累积概率分布函数c(x),最后利用累积概率分布函数对原始分布做均衡化拉伸得到新的分布;
设概率分布函数为p(x),累积概率分布函数:
Figure GDA0002432490730000061
其中,x为某一灰度值;
(4)图像平滑处理,使图片去噪平滑,公式为:
Figure GDA0002432490730000062
利用高斯公式在二维上的形式计算出权重矩阵后,将这一权重矩阵与图像作卷积则得到模糊后的图像。
3、人体检测:通过使用lbp和haar分类器,达到对人体目标追踪的目的,而不是普通的任意物体的目标追踪,具体为:
(1)首先是要自己制作训练样本(因为本项目是对人体的追踪,所以要制作人体的样本,至少3000张以上的样本训练效果比较好)供后续的lbp和haar分类器使用,并且用制作好的样本进行训练;
(2)分类器训练好以后,将会生成各自的xml文件,然后就可以通过opencv的函数以及类的调用载入xml文件,对图片进行人体检测;
(3)将检测到的人体在图片中用矩形框标注出来。
4、光流追踪:
(1)图像灰度化处理;
(2)使用基于图像金字塔的Lucas-Kanade光流算法处理图像,获取光流特征点:Lucas-Kanade光流算法是一种两帧差分的光流估计算法,假设在一个小矩形窗口内其光流保持恒定,对相邻的两帧图像,若序列图像获取的时间间隔很短,且场景和光照条件变化缓慢,那么它们将满足灰度恒定约束,得到式(1):
I(μ,ν,k)=I(μ+ε,ν+η,k+1) (1)
式中,I(μ,ν,k)表示第k帧图像,I(μ,ν,k+1)表示第k+1帧图像;
根据式(1),令I(x)=I(μ,ν,k),J(x+d)=I(μ+ε,ν+η,k+1),得到目标函数如式(2):
Figure GDA0002432490730000071
式中,w表示一个小矩形窗口,d表示光流;
通过最小化残差E来得到光流d的估计值,得到式(3):
Figure GDA0002432490730000072
将J(x+d)按泰勒级数展开并线性逼近,代入式(3)中,得到光流d的估计值,如式(4)所示:
Figure GDA0002432490730000073
Lucas-Kanade光流算法通过计算局部区域的光流来获得目标的运动状态。
5、对光流特征点进行聚类分析:
以图像帧划分网格,设划分比例为N,h,、w分别为图像的高度与宽度,m×n是网格的总个数,公式为:
Figure GDA0002432490730000081
设b(i,j)为行序号为i(i<m),列序号为j(j<)网格内所存在光流点的数目,p(i)为这一图像帧检测到的光流特征点,一共有s个,δ(p(u))为判定光流点p(u)是否在序号为i,j的网格内,是则返回1,否则返回0,公式如下:
Figure GDA0002432490730000082
6、运动物体判断:
遍历b(i,j),,设运动物体判定阈值为K,,存在b(i,j)>K时,以i、j序号的网格位置作为该运动物体的位置,从而在这一帧图像中提取数个运动物体的位置,计算运动物体之间的最远距离,以这个最远距离表示运动物体的聚合度;
在计算运动物体间的距离时:当需要判定的运动物体数目不多,直接计算所有运动物体间的距离d(x,y),x,y为运动物体,得到聚合度P:
P=max{d(x,y)}
当需要判定的运动物体数目较多时,使用凸包与旋转卡壳算法,求出运动物体间的最远距离;
凸包算法:凸包(Convex Hull)是一个计算几何(图形学)中的概念;
在一个实数向量空间V中,对于给定集合X,所有包含X的凸集的交集S被称为X的凸包;
X的凸包可以用X内所有点(X1,...Xn)的线性组合来构造;
在二维欧几里得空间中,凸包可想象为一条刚好包著所有点的橡皮圈;
形象地说,给定二维平面上的点集,凸包就是将最外层的点连接起来构成的凸多边型,它能包含点集中所有的点;
为构建凸包,选用了Graham扫描法,时间复杂度为O(nlogn);
思想:通过设置一个关于候选点的堆栈s来解决凸包问题;
从起始点开始遍历,保证每一条边相对于上一个邻接点都是向左转;
如图2-图8所示,以下用一个凸包构建的例子来说明这个Graham扫描法的原理:
步骤1、如图2,P0,P1,P2进栈;
步骤2、如图3,∠P1P2P3向左转,所以P2出栈,而∠P0P1P3是向左转所以P1不用出栈,P3进栈;
步骤3、如图4,∠P1P3P4是向右转,P4进栈;
步骤4、如图5,∠P3P4P5是向左转,P4出栈,∠P1P3P5是向右转,P5进栈;
步骤5、如图6,同理,会出现P6、P7、P8进栈;
步骤6、如图7,遇到P9,会出现P8、P9出栈,P9进栈;
步骤7、如图8,遇到i=m(12),结束,凸包形成。
如图9所示,为旋转卡壳算法查询凸包得到最长直径的时刻。
如图10所示,为通过旋转卡壳算法查询每次旋转的对踵点对的距离。
可以证明,离散点之间的最长距离点对必定在凸包上,即最长距离为凸包这个多边形的直径,直径又由多边形的平行切线的最远距离决定的,所以只需要查询多边形的对踵点,计算出所有对踵点对的距离并得到最大值即为所求的最长距离。
此算法的优越之处在于随着边的旋转,对踵点对也随之旋转,于是可以快速的得到多边形的直径。
7、暴力事件判定:
在存在物体运动的片段中,统计其中每一帧聚合度变化的趋势,若存在一个连续的数秒内,聚合度有着明显减小的趋势,则判定发生暴力事件:
Figure GDA0002432490730000091
S为聚合度,k为聚合度降低趋势阈值。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解的是,在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种等效的变化、修改、替换和变型,本发明的范围由所附权利要求及其等同范围限定。

Claims (7)

1.一种基于网格聚类分析的暴力行为检测方法,其特征在于,包括如下步骤:
S1、从摄像设备或已有的视频文件中读取视频流,获取视频流中的源图片帧;
S2、将源图片帧进行预处理;
S3、检测预处理后的源图片帧中的人体,并将检测到的人体框出;
S4、获取源图片帧的光流特征点,并对对光流特征点进行光流追踪;
S5、对光流特征点进行聚类分析,从而获得图像中的运动物体,具体为:
将图片帧划分网格,设划分比例为N,h、w分别为图像帧的高度与宽度,m×n是网格的总个数,得到:
Figure FDA0002432490720000011
设b(i,j)为行序号为i(i<m),列序号为j(j<n)网格内所存在光流点的数目,p(i)为这一图像帧检测到的光流特征点,一共有s个,δ(p(u))为判定光流点p(u)是否在序号为i、j的网格内,最后累加后则得到每个网格内光流点的个数b(i,j):
Figure FDA0002432490720000012
S6、分析运动物体的运动情况,具体为:
遍历b(i,j),设运动物体判定阈值为K,存在b(i,j)>K时,以i,j序号的网格位置作为该运动物体的位置,从而在这一帧图像中提取数个运动物体的位置,计算运动物体之间的最远距离,以这个最远距离表示运动物体的聚合度;
其中,在计算运动物体间的距离时,当需要判定的运动物体数目不多,直接计算所有运动物体间的距离d(x,y),x,y为运动物体,得到聚合度P:
P=max{d(x,y)}
当需要判定的运动物体数目较多时,使用凸包算法与旋转卡壳算法,求出运动物体间的最远距离;
S7、统计运动物体在连续图像帧中的聚合度变化趋势,用来判断暴力事件的检测。
2.根据权利要求1所述的一种基于网格聚类分析的暴力行为检测方法,其特征在于,所述步骤S2的预处理,包括图像增益处理、图像灰度化处理、直方图均衡化处理以及图像平滑处理;
其中,所述图像增益处理具体为调节图像的对比度与亮度,公式如下:
g(i,j)=αf(i,j)+β
式中,f(x)为源图像像素,g(x)为输出图像像素,α用于控制对比度,β用于控制亮度;
所述图像灰度化处理具体使用加权平均法将彩色图像转化为灰度图像,公式为:
(i,j)=0.30R(i,j)+0.59G(i,j)+0.11B(i,j)
式中,f、R、G、B分别表示输出的灰度值以及输入的R、G、B分量;
所述直方图均衡化处理用于将原图像所有像素点的灰度分布从集中在某一区域均衡拉伸到整个灰度分布区域中,具体为:先对图像进行直方图计算,得到灰度图灰度分布的概率分布函数p(x),由此函数计算累积概率分布函数c(x),最后利用累积概率分布函数对原始分布做均衡化拉伸得到新的分布,具体公式为:
设概率分布函数为p(x),累积概率分布函数为:
Figure FDA0002432490720000021
式中,x为某一灰度值;
所述图像平滑处理具体使图片去噪平滑,公式为:
Figure FDA0002432490720000022
利用高斯公式在二维上的形式计算出权重矩阵后,将这一权重矩阵与图像作卷积则得到模糊后的图像。
3.根据权利要求1所述的一种基于网格聚类分析的暴力行为检测方法,其特征在于,所述步骤S3中检测预处理后的源图片帧中的人体,具体通过使用lbp分类器和haar分类器,达到对人体目标追踪的目的,具体步骤为:
(1)预先制作人体样本,并将其使用lbp分类器和haar分类器进行训练:
人将体样本分为正样本与负样本,正样本即为人体的图片,负样本则为其他图片;
原始的lbp特征定义在一个3*3的窗口内,以中心的灰度值为基准,相邻的8个像素值分别与中心像素值作比较,若相邻像素值比中心像素值大,则该位置的被标记为1,否则为0;由此则产生8位二进制数,并将其称为该中心像素点的lbp值;
Haar特征是由矩阵特征模板表示,其包括若干全等的黑色矩阵和白色矩阵,矩特征值是白色矩阵的灰度值减去黑色矩阵像素值的和;
不同的物体有着不同的特征值,于是通过训练特征值获得人体图像的特征,在经过一定样本量的训练后,将人体图像与非人体图像通过特征值的区别分类出来;
在得到这个分类器后,新的人体图像也能被这个分类器所检测出来;
(2)将训练好的人体样本生成各自的xml文件,然后通过opencv的函数以及类的调用载入xml文件,对预处理后的源图片帧进行人体检测;
(3)将检测到的人体在图片中用矩形框标注出来。
4.根据权利要求1所述的一种基于网格聚类分析的暴力行为检测方法,其特征在于,所述步骤S4,其具体为:
使用Lucas-Kanade光流算法处理图像,获取源图片帧的光流特征点:
Lucas-Kanade光流算法是一种两帧差分的光流估计算法,假设在一个小矩形窗口内其光流保持恒定,对相邻的两帧图像,若序列图像获取的时间间隔很短,且场景和光照条件变化缓慢,那么它们将满足灰度恒定约束,得到式:
I(μ,ν,k)=I(μ+ε,ν+η,k+1)
式中,I(μ,ν,k)表示第k帧图像,I(μ,ν,k+1)表示第k+1帧图像;
根据上式,令I(x)=I(μ,ν,k)、J(x+d)=I(μ+ε,ν+η,k+1),得到目标函数为:
Figure FDA0002432490720000031
式中,w表示一个小矩形窗口,d表示光流;
通过最小化残差E来得到光流d的估计值,得到式下式:
Figure FDA0002432490720000032
将J(x+d)按泰勒级数展开并线性逼近,代入上式中,得到光流d的估计值,如下式所示:
Figure FDA0002432490720000041
Lucas-Kanade光流算法通过计算局部区域的光流来获得目标的运动状态。
5.根据权利要求1所述的一种基于网格聚类分析的暴力行为检测方法,其特征在于,所述凸包算法,其具体过程为:
在一个实数向量空间V中,对于给定集合X,所有包含X的凸集的交集S被称为X的凸包;
X的凸包使用X内所有点(X1,X2,X3,…,Xn)的线性组合来构造;
在给定二维平面上的点集中,所述凸包就是将最外层的点连接起来构成的凸多边型,它能包含点集中所有的点。
6.根据权利要求1所述的一种基于网格聚类分析的暴力行为检测方法,其特征在于,所述旋转卡壳算法,其具体过程为:
不断旋转凸包,同时查询每次旋转后的对踵点,计算对踵点间的距离,在旋转计算完所有对踵点的距离后,取这些距离的最大值即得到凸包的最长直径,也就是平面上的两两点的最长距离。
7.根据权利要求1所述的一种基于网格聚类分析的暴力行为检测方法,其特征在于,所述S7,其具体为:
在存在物体运动的图像序列中,统计其中每一帧聚合度变化的趋势,若在连续的数秒内,聚合度有着明显减小的趋势,则判定发生暴力事件,判断公式为:
Figure FDA0002432490720000042
式中,S为聚合度,k为聚合度降低趋势阈值。
CN201710269121.XA 2017-04-24 2017-04-24 一种基于网格聚类分析的暴力行为检测方法 Active CN107194317B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710269121.XA CN107194317B (zh) 2017-04-24 2017-04-24 一种基于网格聚类分析的暴力行为检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710269121.XA CN107194317B (zh) 2017-04-24 2017-04-24 一种基于网格聚类分析的暴力行为检测方法

Publications (2)

Publication Number Publication Date
CN107194317A CN107194317A (zh) 2017-09-22
CN107194317B true CN107194317B (zh) 2020-07-31

Family

ID=59873265

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710269121.XA Active CN107194317B (zh) 2017-04-24 2017-04-24 一种基于网格聚类分析的暴力行为检测方法

Country Status (1)

Country Link
CN (1) CN107194317B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052859B (zh) * 2017-10-31 2022-02-25 深圳大学 一种基于聚类光流特征的异常行为检测方法、***及装置
CN108229368B (zh) * 2017-12-28 2020-05-26 浙江大华技术股份有限公司 一种视频显示方法及装置
CN109309798B (zh) * 2018-08-15 2019-05-10 上海极链网络科技有限公司 数据帧自动抓取机构
CN110059531B (zh) * 2018-12-19 2021-06-01 浙江宇视科技有限公司 基于视频图像的打架行为检测方法及装置
MY198232A (en) * 2018-12-26 2023-08-15 Mimos Berhad System and method for detecting aggressive behaviour activity
CN109934183B (zh) * 2019-03-18 2021-09-14 北京市商汤科技开发有限公司 图像处理方法及装置、检测设备及存储介质
CN110503081B (zh) * 2019-08-30 2022-08-26 山东师范大学 基于帧间差分的暴力行为检测方法、***、设备及介质
CN110782433B (zh) * 2019-10-15 2022-08-09 浙江大华技术股份有限公司 基于时序的动态信息暴力抛物检测方法、装置及存储介质
CN115424207B (zh) * 2022-09-05 2023-04-14 南京星云软件科技有限公司 自适应监控***及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140029807A1 (en) * 2011-06-14 2014-01-30 Qualcomm Incorporated Content-adaptive pixel processing systems, methods and apparatus
CN104820824A (zh) * 2015-04-23 2015-08-05 南京邮电大学 基于光流和时空梯度的局部异常行为检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140029807A1 (en) * 2011-06-14 2014-01-30 Qualcomm Incorporated Content-adaptive pixel processing systems, methods and apparatus
CN104820824A (zh) * 2015-04-23 2015-08-05 南京邮电大学 基于光流和时空梯度的局部异常行为检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"公共场所暴力行为的光流场构建及分析方法";黄继东等;《计算机与数字工程》;20170331;第45卷(第3期);论文第2节 *
"基于角点动能的视频群体异常行为检测";逯鹏等;《郑州大学学报》;20150531;第36卷(第3期);论文第1-2节 *
"智能视频监控中人群密度分析及突发异常行为检测";张兵;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170115(第01期);论文第3.1.1,3.2.3,3.3节 *

Also Published As

Publication number Publication date
CN107194317A (zh) 2017-09-22

Similar Documents

Publication Publication Date Title
CN107194317B (zh) 一种基于网格聚类分析的暴力行为检测方法
KR102641115B1 (ko) 객체 검출을 위한 영상 처리 방법 및 장치
Benezeth et al. Review and evaluation of commonly-implemented background subtraction algorithms
US11200451B2 (en) Object recognition method and apparatus
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
CN110298297B (zh) 火焰识别方法和装置
Xiaofeng et al. Discriminatively trained sparse code gradients for contour detection
CN109918971B (zh) 监控视频中人数检测方法及装置
CN104966285B (zh) 一种显著性区域的检测方法
CN109685045B (zh) 一种运动目标视频跟踪方法及***
CN107392866A (zh) 一种光照鲁棒的人脸图像局部纹理增强方法
JP2004348674A (ja) 領域検出方法及びその装置
CN110458792B (zh) 人脸图像质量的评价方法及装置
CN109035274A (zh) 基于背景估计与u型卷积神经网络的文档图像二值化方法
CN108875623B (zh) 一种基于图像特征融合对比技术的人脸识别方法
CN107609571B (zh) 一种基于lark特征的自适应目标跟踪方法
CN109725721B (zh) 用于裸眼3d显示***的人眼定位方法及***
WO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
CN105184771A (zh) 一种自适应运动目标检测***及检测方法
CN111429468B (zh) 细胞核分割方法、装置、设备及存储介质
Katramados et al. Real-time visual saliency by division of gaussians
CN114255468A (zh) 一种笔迹识别方法及其相关设备
CN116758528A (zh) 基于人工智能的丙烯酸乳液颜色变化识别方法
CN110827327B (zh) 一种基于融合的长期目标跟踪方法
CN111274964A (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant