CN102156983A - 基于模式识别与目标跟踪的异常行人位置检测方法 - Google Patents
基于模式识别与目标跟踪的异常行人位置检测方法 Download PDFInfo
- Publication number
- CN102156983A CN102156983A CN2011100800041A CN201110080004A CN102156983A CN 102156983 A CN102156983 A CN 102156983A CN 2011100800041 A CN2011100800041 A CN 2011100800041A CN 201110080004 A CN201110080004 A CN 201110080004A CN 102156983 A CN102156983 A CN 102156983A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- agglomerate
- unusual
- tracks
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
一种视频图像处理技术领域的基于模式识别与目标跟踪的异常行人位置检测方法,利用形状特征进行模式识别,并对识别为异常的区域进行跟踪,在跟踪过程中得到异常行为的时间特性,在结合形状特性与时间特性的基础上进行分析,得出最终的异常行人位置检测结果。本发明可实现在具有多种运动物体、行人密集程度高的复杂场景中鲁棒地对特定异常事件进行检测。本发明不但可以判断出发生了何种异常行为,还可以在视频中标记处异常事件发生的位置,实现了异常事件检测的自动化。
Description
技术领域
本发明涉及的是一种视频图像处理技术领域的方法,具体是一种基于模式识别与目标跟踪的异常行人位置检测方法。
背景技术
随着社会对公共安全的重视和监控设备的普及,视频监控得到了越来越广泛的应用。但是目前的视频监控还主要停留在由人在事后查找异常事件的阶段,既浪费大量人力物力,又无法持久保证准确的检测效果。因此,利用计算机视觉、模式识别等方法来分析和理解人的行为、自动完成视频分析的智能监控技术便成为了国内外研究的热点问题。
异常行人是指在特定环境中行为存在嫌疑的行人,在机场、银行、商场、停车场等场合的视频监控中有很强的应用需求。现有的研究多存在下列问题:首先,用于分析的视频内容过于简单。此类视频往往背景单一,场景中只有少数几个行人,行人的正常行为与异常行为差别很大易于区分。其次,对异常行为的认定过于笼统,将不满足正常要求的行为统统认定为异常。这种定义未免过于简单,即使判断正确,人们也无从知道发生的是何种异常事件、事件发生于哪个位置,仍需要人再作进一步观察,因此还是没有完全实现异常事件的自动检测与识别。
经过对现有技术的文献检索发现,利用形状信息进行模式识别可以在复杂的场景中有效地检测出具有特定形状的物体。该类方法中最具代表性的为Qiang Zhu于2006年在《IEEE Computer Society Conference on Computer Vision and Pattern Recognition》(国际电子电气工程师协会计算机学会计算机视觉与模式识别会议)论文集第2卷1491至1498页上发表的论文“Fast human detection using a cascade of histogram of oriented gradients”(基于梯度方向直方图构建级联分离器实现快速行人检测)。此论文提出了简化HoG(Histograms of Oriented Gradient梯度方向直方图)特征并利用级联分类器完成模式识别,在INRIAPerson数据库上可实现高达95%以上的识别准确率。利用此类方法,可以有助于我们针对某种特定的异常行为完成异常行人区域检测。但是基于形状信息的识别是瞬间的,而异常行为必须要经过一段时间的持续观察才能充分认定。这促使我们寻找一种新的检测方式,将模式识别与目标跟踪结合起来,从形状特性与时间特性两个方面完成异常行人区域的可靠检测。
发明内容
本发明针对现有技术存在的上述不足,提供一种基于模式识别与目标跟踪的异常行人区域检测方法,利用形状特征进行模式识别,对识别为异常的区域进行跟踪,并在跟踪过程中得到异常行为的时间特性,在结合形状特性与时间特性的基础上进行分析,得出最终的检测结果。本发明可实现在具有多种运动物体(车、行人等)、行人密集程度高的复杂场景中鲁棒地对特定异常行人区域进行检测。本发明不但可以判断出发生了何种异常行为,还可以在视频中标记出异常行人出现的位置,实现了异常行人检测的自动化。
本发明是通过以下技术方案实现的,采用高斯混合模型对视频图像的场景进行背景建模,利用阈值化操作和形态学后处理提取视频图像的前景,利用轮廓特征和行人上半身高度先验模型确定行人出现区域;在行人区域采样,提取采样区域的HoG特征并利用模式识别分类器进行识别,得到异常行人区域的形状特性;在分类器识别为异常的区域开辟跟踪团块,采用改进的粒子滤波方法完成跟踪,在跟踪过程中持续利用模式识别分类器进行识别,得到异常行为的时间特性;在结束团块时,结合时间特性与形状特性做出异常行人检测的最终判断。
所述的行人上半身高度先验模型通过以下方式得到:针对待分析的固定摄像头视频,手工标定出位于视频场景中各个位置的行人,得到一组行人上半身高度信息与头顶点信息,采用线性模型来描述行人上半身高度与行人出现位置的相互关系,并利用最小二乘法学习出线性模型的具体参数,得到行人上半身高度先验模型。
所述的模式识别分类器是指:手工采集特定异常行为图片构建图片样本库,提取每张图片的HoG(梯度方向直方图)特征作为训练特征,采用级联Adaboost学习方法对HoG特征分类,训练得到模式识别分类器。
所述的轮廓特征是通过以下方式得到:对视频图像的前景进行轮廓分析得到轮廓峰值点,即轮廓特征。
所述的行人出现区域是指:在轮廓特征处根据行人上半身高度先验模型划定行人区域并统计行人区域内的前景像素比例,当比例大于规定门限Thf时,认为此区域为行人出现区域。
所述的采样是指:以每个行人出现区域中心点为中心,分别向上、下移动区域高度的1/8,再分别向左、右移动行人区域宽度的1/8,而后将区域按1.2倍扩大,再向上、下移动区域高度的1/8,再向左、右移动行人区域宽度的1/8,由此获得9个采样区域。
所述的形状特性是指:利用模式识别分类器对采样区域的HoG特征进行判断后的识别结果。
所述的改进的粒子滤波方法具体包括以下步骤:
a)建立***状态空间和动态模型:状态空间定义为[x,y,w,h],分别代表跟踪团块的质心坐标x、y以及跟踪团块的宽度和高度w、h,其中:坐标的动态模型用二阶自回归过程来模拟: 其中:是k+1时刻两个独立的高斯随机变量,常数C取值为2.0,w,h的动态模型由sw,sh,即w,h的倍数控制:wk+1=(Asw+Bsh)wk,hk+1=(Ash+Bsw)hk,其中:sw,sh分别使用二阶自回归过程,即 其中:随机项表示宽度、高度的相同变化量,是在相同变化量上的偏差;
b)观测模型与置信度的建立:采用图像的HSV(H色度、S饱和度、V光强)色彩分量建立观测直方图,当S和V分别同时大于门限Ths和Thv时,像素被分配到由H和S量化的二维空间{Nw×Nh}中的一点:
其中:bin(pix)是像素pix在直方图中的序号,H(pix)、S(pix)、V(pix)是像素pix的H、S、V分量,Ns、Nh为S、H分量上的量化数,MAX_S、MAX_H是S、H分量的最大值,门限Ths=0.1,Thv=0.2;
当S的幅值小于门限Ths和或V幅值小于门限Thv时,模型抛弃一切颜色信息,根据光强把像素分配到{Nw×Nh}之外的Nv个直方图项中:
最后得到的颜色直方图共有NsNh+Nv个直方项:其中:R为样点x所在的矩形区域,q(x)是该区域的颜色直方图,u是直方图变量;用Bhattacharyya相似系数来衡量两个二维直方图间的距离:其中:q*是目标模板的直方图,是在开辟跟踪团块时统计团块区域颜色直方图获得的。q*(n),q(n;x)是直方图第n个直方项的值。q*(n),q(n;x)相似的置信度为:
c)状态更新:由贝叶斯理论有其中:
d)样本重采样:在粒子数匮乏时按权重排序并筛选,并通过密集采样恢复样本代表性,其中:重采样点的位置是在离散概率分布为上随机抽样产生的。
所述的时间特性是指:在跟踪过程中,持续提取团块区域的HoG特征利用模式识别分类器识别得到的结果。
所述的结合形状特性与时间特性做出异常行人检测的最终判断具体包括以下步骤:
i)时间参数初始化:为跟踪团块分别设立用以检查是否可以纳入为候选异常团块之列的预备期限以及用于判断是否要中断团块寿命的结束期限,同时开辟三个变量分别记录在预备期限和结束期限内跟踪团块被识别为异常的次数以及在跟踪团块整个寿命内被识别为异常的次数;
ii)预备期限时间性能判断:统计初始化后异常识别次数占预备期限的比例,当比例高于设定门限Th_s时,团块纳入候选异常跟踪团块,结束期限相关参数开始初始化;当比例小于Th_s则自动删除此跟踪团块;
iii)结束期限时间性能判断:对于候选异常跟踪团块,每隔结束期限的整数倍时间检查一次在结束期限内团块被识别为异常的次数,若次数占结束期限的比例高于设定门限Th_e则对结束期限相关参数进行初始化;若比例小于Th_e则结束此候选异常跟踪团块的寿命;
iv)跟踪团块异常行人性质判断:在结束候选异常跟踪团块寿命时,统计团块的寿命长度以及在寿命中被识别为异常的次数,若跟踪团块寿命超过规定门限Th_l且在寿命中被识别为异常的次数比例超过规定门限Th_r,则判定异常行人被检测出来,跟踪团块区域即为异常行人区域,异常行人的置信度为识别为异常的次数与寿命之比;否则判定不是异常事件并删除该跟踪团块。
本发明的原理是,由于行人头肩部分彼此遮挡的几率很小且头肩形状具有强可区分性,因此可以通过前景分析寻找头顶点,确定行人区域。在行人区域处提取梯度信息进行模式识别,从形状的角度判断该区域是否异常。仅通过单帧的形状特征来定义异常行人并不充分,还需要对此区域在持续时间中的模式识别结果进行分析,从形状特性和时间特性两方面得出异常行人的最终判断。
与现有技术相比,本发明针对某特定异常行人进行检测,增强了异常行人检测的针对性;输出结果既包含对异常行人的识别又包括异常行人出现的位置,因此可以实现异常行人检测的自动化。本发明提出综合利用模式识别和目标跟踪来完成异常行人检测。利用模式识别的方法得到异常行人的形状特征,利用目标跟踪的方法对跟踪区域进行持续地判断,在综合考虑形状特性与时间特性的基础上,实现更加鲁棒准确的异常行人检测。
附图说明
图1是本发明针对拥抱行为的异常行人检测方法流程图。
图2是场景分析采样图。
图3是分类器训练的正样本图。
图4是前景分割与轮廓分析结果图。
图5是跟踪团块时间性能分析流程图。
图6是最终异常行人检测输出图。
具体实施方式
下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例1
本实施例选取拥抱事件作为异常事件,将拥抱的行人作为异常行人进行检测。实施例对TRECVid2009提供的英国伦敦Gatwick机场监控视频序列(720×576像素,25fps)进行处理。该视频中场景背景处于动态变化之中,不仅有光照变化还有不停变化的广告灯箱,运动物体有行人、行李车、清洁车等,行人遮挡比较严重。本实施例包括如下步骤:
第一步,针对待分析的固定摄像头视频,手工标定出位于视频场景中各个位置的行人,得到一组行人上半身高度信息与头顶点信息,采用线性模型来描述行人上半身高度与行人出现位置的相互关系,并利用最小二乘法学习出线性模型的具体参数,得到行人上半身高度先验模型,具体为:
任意选取视频序列中某一段,对分布在场景各位置的行人进行人工采样,如图2所示标定出行人头顶点和腰部的坐标,由头顶点与腰部的坐标差可获得行人的上半身高度信息。本实施例中,采集了58个行人上半身高度(h0,h1,…,h58)和头顶点图像坐标((x0,y0),(x1,y1),…,(x58,y58))。采用归一化坐标表示头顶点,并用向量来表示,即H=(h0,h1,…,h58)T X=((x0,y0,1),(x1,y1,1),…,(x58,y58,1))T,而后利用线性模型来描述行人上半身高度与头顶点坐标的关系(H=AX)。线性系数A可通过最小二乘估计法获得
解得:
A=(XTX)-1XTH
本实施例的最终拟合函数为:h=0.0034*x-0.4062*y+249.5634
(程序基于OpenCV1.0编写,视频中的图像坐标原点位于左下角。)
第二步,采集拥抱行为图片样本库,提取图片的HoG(梯度方向直方图)特征做输入数据,采用级联Adaboost学习方法生成拥抱的模式识别分类器。
拥抱行为图片样本库需要手动在训练视频上对发生拥抱行为的区域进行分割提取。为了保证提取图片能够刻画拥抱行为的形状特征,选择正方形的窗口,覆盖拥抱者从头顶点到腰部的区域。同时为了克服拥抱姿态变化的问题,将此窗口按1∶1.2比例扩大,保证拥抱行人位于窗口的中心位置。图片分割完成以后,将所有图片统一归一化到的固定尺寸。在本实施例中,共采集了正样本123个负样本133个用于训练,归一化后的图像尺寸为80×80,采集后的图片如图3所示。
本实施例选用Qiang Zhu提出的HoG特征,该特征可以在任意尺度、比例的窗口提取,运算简单。为了确保窗口尺寸、位置分布的合理性,规定窗口的尺寸范围从12×12到80×80,长宽比例为(1∶1)、(1∶2)、(2∶1)三种,相邻窗口间的位移为4,、6、8三种。按此要求,共可以产生4057个不同窗口。HoG特征生成过程为:
①生成对应9个梯度方向区间的9幅二值图
将梯度方向(无符号绝对值梯度)所在范围[0,180)平均划分为9个区间,并开辟9个与行人区域尺寸相同(80×80)的二值图像空间,此9幅二值图像与9个梯度方向区间一一对应。计算拥抱区域内每一点像素的梯度方向,并查看该梯度方向落入哪个区间,落入区间对应的二值图在该位置处赋1,其余二值图在该位置处赋0,由此可得到行人区域的9幅二值图像。
②生成指定窗口的HoG特征
当给定窗口的位置(4057个窗口位置中的一个)时,将该窗口平分为四个子窗口。统计9幅二值图在每个子窗口内值为1的像素个数,生成一个9维的直方图向量。将四个子窗口的向量头尾相接,则构成36维的HoG特征向量。
本实施例采用了LibSVM工具(http://www.csie.ntu.edu.tw/~cjlin/libsvm/)完成弱分类器的训练。首先要指定该弱分类器对应的窗口位置,而后将训练集中正负样本在指定窗口位置处的HoG特征按LibSVM要求写成训练数据文件,由LibSVM学习程序自动产生弱分类器模型。
级联Adaboost分类器的训练步骤如下:
①设定可接受的每个强分类器的最大负样本判错率fmax=0.7和最小正样本通过率dmin=0.9975,级联Adaboost分类器要达到的总负样本判错率目标Ftarget=0.000001,正样本集P,负样本集N。
②设级联排列的强分类器的序号为i,级联到当前第i个强分类器时级联Adaboost分类器的总负样本判错率为Fi、总正样本通过率为Di。初始化Fi=0=1.0,Di=0=1.0。
③当前负样本判错率大于目标负样本判错率(Fi>Ftarget)时,令i=i+1,利用Adaboost方法训练产生一个新的强分类器,得出该强分类器的负样本判错率fi。
④计算当前级联Adaboost分类器的Fi和Di:
Fi=Fi-1·fi,Di=Di-1·dmin。
⑤若Fi仍大于Ftarget,则需更新负样本集。用当前的级联Adaboost分类器在负样本集N中做判断,剔除出可正确判断为负样本的数据,仅保留错判为正样本的数据在N中用于下次训练,返回③。若Fi小于等于Ftarget,则级联Adaboost分类器训练完成。
利用Adaboost方法训练强分类器的过程如下:
①把正、负样本的权重参数wi分别初始化为其中l=123为正样本的个数,m=133为负样本的个数,i为样本序号(i=1,…,256)。设该强分类器的负样本判错率ft=1、正样本通过率dt=0,t=1为强分类器中的弱分类器的序号,也可理解为②中循环执行的次数。
②当ft>fmax时,循环执行以下步骤:
b)在已规定的4057个窗口位置中随机选择203个窗口位置(4057×5%)。对第k个窗口位置(k=1,…,203),在正负图片样本集中提取在此窗口的HoG特征,得到此HoG特征的正负样本数据。而后将数据送入libSVM程序,产生出此特征基于支持向量基的弱分类器hk,并计算hk的错误率
其中,hk(xi)为由hk判断的第i个数据的分类结果,yi为已知的分类结果。
c)选择具有最小错误率εt的弱分类器ht添加到强分类器中。
d)利用当前强分类器的判决结果来更新正负样本的权重。
其中βt=εt/(1-εt);如果xi被分类正确则ei=0,否则ei=1。
e)减小当前强分类器的门限tht,直至满足di>dmin。计算此时的负样本判错率ft。
令t=t+1,返回循环。
③当ft≤fmax时,强分类器训练完成。假设此时共有T个弱分类器,则由此T个弱分类器得到的强分类器表达式为:
在指定参数fmax=0.7、dmin=0.9975、Ftarget=0.000001时,训练的级联Adaboost分类器共产生9个强分类器。
第三步,利用混合高斯模型对视频背景进行自适应建模,计算当前帧图像与背景的差异得到帧差结果,对帧差结果进行阈值化操作和形态学后处理得到前景区域。
视频场景中每一点像素的灰度值可用混合高斯模型来描述
利用高斯混合模型得到背景建模的过程如下:
①以视频第一帧各像素的灰度值来初始化每个像素的混合高斯模型。此时混合高斯模型只有一个高斯函数被初始化,其均值即为当前像素的灰度值,方差被指定为固定值σ2=30,高斯的权值为0.05。
②当读入新一帧图像时,要按高斯函数权值由大至小的顺序查看各高斯函数是否与此像素灰度相匹配。匹配的条件为:像素灰度值与该高斯函数均值的差异不超过Thd=2.5σ=13.69。若找到匹配的高斯函数,则可直接转入③。若此灰度与任何一个高斯函数都不匹配,则按照①初始化一个新的高斯函数。当混合模型中存在未初始化的高斯函数时,直接用此新的高斯函数来初始化;当K个高斯函数都被使用时,则用此新的高斯函数来替换当前混合模型中权值最小的高斯函数。
③当确定好当前像素灰度对应的高斯函数后,需要对混合模型内每个已使用的高斯函数的权值、均值、方差进行更新。背景的建模与更新需要一定时间的累积,规定此时间窗口长度L=200。当视频读入帧数小于200时,更新公式为:
其中,N为帧数,ωk用于记录第k个高斯函数在权值降序排列中的序号。
当帧数超过L后,更新公式为:
更新完毕后,再对混合高斯模型中各高斯函数的权值进行归一化处理。
④把各个高斯函数按其权重由大至小排列,确定权重相加大于Thw=0.7的前B个高斯函数为描述背景的高斯函数。若与当前像素匹配的高斯函数排列位于前B,则判断为背景像素。
将当前帧与背景相减,对其结果进行二值化处理,门限为Thp=15;对此二值图进行后处理来获得前景分割结果,具体方法如下:
对帧差结果进行7倍下采样,而后采用3×3模板进行膨胀、中值滤波、腐蚀,然后7倍上采样还原至原始尺寸,再用3×3模板进行腐蚀、中值滤波、膨胀。通过此后处理,可去除噪声与孔洞,保证前景分割结果尽可能连通,前景轮廓尽可能平滑。
第四步,对前景区域进行轮廓分析,得到轮廓峰值点,在峰值点处根据行人上半身高度先验模型划定行人区域,统计区域内的前景像素比例,根据比例值大小做出行人检测的判断结果,具体过程如下:
①利用Canny方法得到前景图像的轮廓c。
②按顺时针沿轮廓计算曲线纵坐标的一阶导数导数符号改变处设定为初始头顶点位置;
③为避免曲线的微小扰动造成头顶点过于密集,设定相邻头顶点的最小横坐标间隔Thx=50,在此间隔内将纵坐标最大的初始头顶点位置标识为候选头顶点。
④在候选头顶点位置,利用步骤一确定的行人上半身高度拟合函数计算候选头顶点处对应的行人上半身高度h,以h作为宽度得到行人区域。统计矩形区域内前景像素的比例,当比例高于门限值Thf=0.6时,保留该头顶点位置,否则予以剔除。
第五步,在每个行人检测结果处附近进行采样,在每个采样区域提取HoG特征,送入训练好的拥抱检测分类器中进行模式识别,比较所有采样区域的识别结果,做出拥抱形状检测的判断结果。
在本实施例中,采样过程为:
①以行人检测结果确定的区域中心点为中心,分别向上、下移动区域高度的1/8,再分别向左、右移动行人区域宽度的1/8。
②以行人检测结果确定的区域中心点为中心,将区域尺寸扩大1.2倍,而后分别向上、下移动行人区域高度的1/8,再分别向左、右移动行人区域宽度的1/8。
由此每个行人检测区域可对应得到9个采样区域。
第六步,在拥抱分类器识别为拥抱的区域处开辟跟踪团块,采用改进的粒子滤波方法进行跟踪,在跟踪过程中持续利用拥抱分类器对跟踪团块区域进行判断,并利用识别结果修正跟踪。
选择改进的粒子滤波跟踪方法的具体步骤为:
①***状态空间和动态模型建立
状态空间本实施例定义为[x,y,w,h],分别代表跟踪团块的质心坐标,跟踪团块的宽度和高度。开辟新跟踪团块时,用对应的拥抱区域的质心坐标和区域的宽高来初始化状态空间参数。
动态模型描述的是跟踪团块状态随时间变化的转移过程,也称为粒子的传播过程。x,y坐标的动态模型用二阶自回归过程来模拟:
w,h的动态模型由sw,sh(w,h的倍数)按加权系数A、B控制,即
wk+1=(Asw+Bsh)wk hk+1=(Ash+Bsw)hk
sw,sh分别使用二阶自回归过程:
为了防止长时间跟踪后宽度、高度比例失调,进一步对sw,sh求加权平均,引入平滑系数A,B,满足A+B=1,A>B。在本实施例中,A=0.7,B=0.3。
②观测模型与置信度的建立
本实施例采用图像的HSV(色度、饱和度、光强)色彩分量建立观测直方图。当S、V大于门限Ths、Thv时,像素被分配到由H、S量化的二维空间中的一点。在本实施例中,Ths=0.1,Thv=0.2。
bin(pix)是像素pix在直方图中的序号,H(pix)、S(pix)、V(pix)是像素pix的H、S、V分量,Ns、Nh为S、H分量上的量化数,MAX_S、MAX_H是S、H分量的最大值。当S、V幅值小于门限时,模型抛弃一切颜色信息,根据光强把像素分配到{Ns×Nh}之外的Nv个直方图项中。
这样最后得到的颜色直方图共有NsNh+Nv个直方项,用公式表示如下:
R为样点x所在的矩形区域,q(x)是该区域的颜色直方图,u是直方图变量。
利用颜色直方图可得到比较样点和目标模板的直方图接近程度,直方图越接近,样点与目标匹配的概率越大。用Bhattacharyya相似系数来衡量两个二维直方图间的距离:
q*是目标模板的直方图,是在初始化跟踪团块时对团块区域内的颜色进行统计获得的。q*(n),q(n;x)是直方图第n个直方项的值。
最后,匹配置信度可由高斯函数表示,本实施例中高斯函数方差为1:
③状态更新:由贝叶斯理论,状态更新方程为:
其中:xk为k时刻粒子状态值,zk为k时刻粒子观测值。由于p(x)但是难以直接采得有代表性的样本,所以用另一概率分布q(x)作为重要性密度函数。本实施例中选择
权重更新方程为:
④样本重采样:重采样的原理是在粒子数匮乏时去除一些权重小的样点,在权重大的样点附近密集采样,恢复样本代表性。重采样点在离散概率分布
上随机抽样产生,权重大的样点有更多的机会被采到,而被采到的样点被重新赋予相同的权值。其中,Ns是样点数。
在跟踪中,持续进行拥抱形状识别并用识别结果来修正跟踪的具体方法为:对每一帧图像,先按步骤三至步骤五进行拥抱形状检测,而后比较现有跟踪团块与检测结果,若跟踪团块与检测结果指向同一个行人,则用检测结果以重采样的方式来更新跟踪团块的粒子信息;若没有相应的检测结果与跟踪团块一致,则用常规方法更新跟踪团块,并对该跟踪团块进行拥抱识别;若检测结果与所有跟踪团块都不重合,则为新出现的拥抱区域,需要利用此检测结果新开辟一个跟踪团块。
第七步,在跟踪过程中,持续对团块区域进行拥抱形状识别,获得跟踪团块拥抱行为的时间特性,决定是否继续跟踪,并在结束团块寿命时做出拥抱事件的最终判断。
时间特性获得以及利用时间特性判断拥抱事件的流程图如图5所示,具体方法如下:
①时间参数初始化:对于新识别的拥抱区域,在开辟跟踪团块时为此跟踪团块设立两个时间期限,一个是预备期限Tstart=STARTPREPARE=15,用以检查该跟踪团块是否可以纳入为拥抱候选跟踪团块之列;另一个是结束期限Tend=ENDCHECK=15,用于判断是否要中断此跟踪团块的寿命,两期限长度由用户指定。同时还要开辟三个变量用于记录在预备期限和结束期限内跟踪团块被识别为拥抱的次数StartNum和EndNum,以及在跟踪团块整个寿命期间的被识别为拥抱的次数EmbraceNum。
②预备期限时间性能判断:跟踪团块初始化后进入预备期,统计预备期内被识别为拥抱的次数占预备期限的比例,若比例高于设定门限Th_s=60%则可纳入候选拥抱跟踪团块,结束期限相关参数开始初始化;若比例小于Th_s,则自动删除此跟踪团块。
③结束期限时间性能判断:对于候选拥抱图块,每隔结束期限的整数倍时间长度检查一次在此时间内跟踪团块被识别为拥抱的次数。若此次数占结束期限的比例高于设定门限Th_e=20%,则将Tend、EndNum初始化,开始下一个结束期限的判断;若比例小于Th_e,则说明跟踪团块区域已不能再作为拥抱区域了,需要终止团块寿命。
④跟踪团块拥抱事件判断:对于候选拥抱跟踪团块,在结束其寿命时对该团块的寿命长度以及在寿命中被识别为拥抱的次数比例进行判断。若跟踪团块寿命超过规定门限Th_l=25,且在其寿命中跟踪团块被判断为拥抱的次数比例超过规定门限Th_r=75%,认为拥抱事件发生,其拥抱事件置信率即为拥抱次数与寿命之比;若有上述任一条件不满足,则认为不是拥抱事件,直接删除此跟踪团块。
实施效果
依据上述步骤,对TrecVid2009提供的机场监控视频(720×576像素,25fps)进行拥抱检测。所有实验均在PC计算机上实现,计算机的参数为:中央处理器Intel(R)Core(TM)2Duo CPU [email protected],内存1.95GB。视频处理速度与场景中行人的密集程度有关,处理速度范围为:5ms~200ms。在TrecVid2009事件检测大赛拥抱事件检测分项中,利用本实施例得到的检测结果获得了第二名的成绩。
图4给出场景原始图像、前景分割与前景分析的结果。可以看出混合高斯模型能够自适应于场景的动态变化,通过计算当前帧图像与背景的差异,并对差异进行阈值化操作和形态学后处理,能够准确地得到前景区域,并能保证前景轮廓的平滑。每一个检测结果都用圆点标识出来,可以看出轮廓分析的方法能够准确地定位轮廓突出且包含大量前景像素的峰值点,大大缩小了模式识别时搜索的范围,有效提高方法速度。
图6是整个方法的拥抱事件判断输出结果,可以看出本实施例能否准确地检测出拥抱事件,并能够输出拥抱事件发生的位置,可实现拥抱事件的自动检测。
Claims (10)
1.一种基于模式识别与目标跟踪的异常行人位置检测方法,其特征在于,采用高斯混合模型对视频图像的场景进行背景建模,利用阈值化操作和形态学后处理提取视频图像的前景,利用轮廓特征和行人上半身高度先验模型确定行人出现区域;在行人区域采样,提取采样区域的HoG特征并利用模式识别分类器进行识别,得到异常行人区域的形状特性;在分类器识别为异常的区域开辟跟踪团块,采用改进的粒子滤波方法完成跟踪,在跟踪过程中持续利用模式识别分类器进行识别,得到异常行为的时间特性;在结束团块时,结合时间特性与形状特性做出异常行人检测的最终判断。
2.根据权利要求1所述的基于模式识别与目标跟踪的异常行人位置检测方法,其特征是,所述的行人上半身高度先验模型通过以下方式得到:针对待分析的固定摄像头视频,手工标定出位于视频场景中各个位置的行人,得到一组行人上半身高度信息与头顶点信息,采用线性模型来描述行人上半身高度与行人出现位置的相互关系,并利用最小二乘法学习出线性模型的具体参数,得到行人上半身高度先验模型。
3.根据权利要求1所述的基于模式识别与目标跟踪的异常行人位置检测方法,其特征是,所述的模式识别分类器是指:手工采集特定异常行为图片构建图片样本库,提取每张图片的梯度方向直方图特征作为训练特征,采用级联Adaboost学习方法对HoG特征分类,训练得到模式识别分类器。
4.根据权利要求1所述的基于模式识别与目标跟踪的异常行人位置检测方法,其特征是,所述的轮廓特征通过以下方式得到:对视频图像的前景进行轮廓分析得到轮廓峰值点,即轮廓特征。
5.根据权利要求1所述的基于模式识别与目标跟踪的异常行人位置检测方法,其特征是,所述的行人出现区域是指:在轮廓特征处根据行人上半身高度先验模型划定行人区域并统计行人区域内的前景像素比例,当比例大于规定门限Thf时,认为此区域为行人出现区域。
6.根据权利要求1所述的基于模式识别与目标跟踪的异常行人位置检测方法,其特征是,所述的采样是指:以每个行人出现区域中心点为中心,分别向上、下移动区域高度的1/8,再分别向左、右移动行人区域宽度的1/8,而后将区域按1.2倍扩大,再向上、下移动区域高度的1/8,再向左、右移动行人区域宽度的1/8,由此获得9个采样区域。
7.根据权利要求1所述的基于模式识别与目标跟踪的异常行人位置检测方法,其特征是,所述的形状特性是指:利用模式识别分类器对采样区域的HoG特征进行判断后的识别结果。
8.根据权利要求1所述的基于模式识别与目标跟踪的异常行人位置检测方法,其特征是,所述的改进的粒子滤波方法包括以下步骤:
a)建立***状态空间和动态模型:状态空间定义为[x,y,w,h],分别代表跟踪团块的质心坐标x、y以及跟踪团块的宽度和高度w、h,其中:坐标的动态模型用二阶自回归过程来模拟: 其中:是k+1时刻两个独立的高斯随机变量,常数C取值为2.0,w,h的动态模型由sw,sh,即w,h的倍数控制:wk+1=(Asw+Bsh)wk,hk+1=(Ash+Bsw)hk,其中:sw,sh分别使用二阶自回归过程,即 其中:随机项表示宽度、高度的相同变化量,是在相同变化量上的偏差;
b)观测模型与置信度的建立:采用图像的HSV(H色度、S饱和度、V光强)色彩分量建立观测直方图,当S和V分别同时大于门限Ths和Thv时,像素被分配到由H和S量化的二维空间{Nw×Nh}中的一点:
其中:bin(pix)是像素pix在直方图中的序号,H(pix)、S(pix)、V(pix)是像素pix的H、S、V分量,Ns、Nh为S、H分量上的量化数,MAX_S、MAX_H是S、H分量的最大值,门限Ths=0.1,Thv=0.2;
当S的幅值小于门限Ths和或V幅值小于门限Thv时,模型抛弃一切颜色信息,根据光强把像素分配到{Nw×Nh}之外的Nv个直方图项中:
最后得到的颜色直方图共有NsNh+Nv个直方项:其中:R为样点x所在的矩形区域,q(x)是该区域的颜色直方图,u是直方图变量;用Bhattacharyya相似系数来衡量两个二维直方图间的距离:其中:q*是目标模板的直方图,是在开辟跟踪团块时统计团块区域颜色直方图获得的,q*(n),q(n;x)是直方图第n个直方项的值,q*(n),q(n;x)相似的置信度为:
9.根据权利要求1所述的基于模式识别与目标跟踪的异常行人位置检测方法,其特征是,所述的时间特性是指:在跟踪过程中,持续提取团块区域的HoG特征利用模式识别分类器识别得到的结果。
10.根据权利要求1所述的基于模式识别与目标跟踪的异常行人位置检测方法,其特征是,所述的结合形状特性与时间特性做出异常行人检测的最终判断具体包括以下步骤:
i)时间参数初始化:为跟踪团块分别设立用以检查是否可以纳入为候选异常团块之列的预备期限以及用于判断是否要中断团块寿命的结束期限,同时开辟三个变量分别记录在预备期限和结束期限内跟踪团块被识别为异常的次数以及在跟踪团块整个寿命内被识别为异常的次数;
ii)预备期限时间性能判断:统计初始化后异常识别次数占预备期限的比例,当比例高于设定门限Th_s时,团块纳入候选异常跟踪团块,结束期限相关参数开始初始化;当比例小于Th_s则自动删除此跟踪团块;
iii)结束期限时间性能判断:对于候选异常跟踪团块,每隔结束期限的整数倍时间检查一次在结束期限内团块被识别为异常的次数,若次数占结束期限的比例高于设定门限Th_e则对结束期限相关参数进行初始化;若比例小于Th_e则结束此候选异常跟踪团块的寿命;
iv)跟踪团块异常行人性质判断:在结束候选异常跟踪团块寿命时,统计团块的寿命长度以及在寿命中被识别为异常的次数,若跟踪团块寿命超过规定门限Th_l且在寿命中被识别为异常的次数比例超过规定门限Th_r,则判定异常行人被检测出来,跟踪团块区域即为异常行人区域,异常行人的置信度为识别为异常的次数与寿命之比;否则判定不是异常事件并删除团块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011100800041A CN102156983B (zh) | 2011-03-31 | 2011-03-31 | 基于模式识别与目标跟踪的异常行人位置检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011100800041A CN102156983B (zh) | 2011-03-31 | 2011-03-31 | 基于模式识别与目标跟踪的异常行人位置检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102156983A true CN102156983A (zh) | 2011-08-17 |
CN102156983B CN102156983B (zh) | 2013-03-20 |
Family
ID=44438464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011100800041A Expired - Fee Related CN102156983B (zh) | 2011-03-31 | 2011-03-31 | 基于模式识别与目标跟踪的异常行人位置检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102156983B (zh) |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663409A (zh) * | 2012-02-28 | 2012-09-12 | 西安电子科技大学 | 一种基于hog-lbp描述的行人跟踪方法 |
CN102917207A (zh) * | 2012-10-24 | 2013-02-06 | 沈阳航空航天大学 | 基于运动序列的异常行为视觉监测*** |
CN103136763A (zh) * | 2011-12-02 | 2013-06-05 | 富泰华工业(深圳)有限公司 | 用于检测视频序列异常段落的电子装置及其方法 |
CN103425960A (zh) * | 2012-05-25 | 2013-12-04 | 信帧电子技术(北京)有限公司 | 一种视频中快速运动物体侦测方法 |
CN104484324A (zh) * | 2014-09-26 | 2015-04-01 | 徐晓晖 | 一种多模型和模糊颜色的行人检索方法 |
CN104537359A (zh) * | 2015-01-15 | 2015-04-22 | 浙江宇视科技有限公司 | 一种车辆目标检测方法及装置 |
CN104616277A (zh) * | 2013-11-01 | 2015-05-13 | 深圳中兴力维技术有限公司 | 视频结构化描述中的行人定位方法及其装置 |
CN104680193A (zh) * | 2015-02-11 | 2015-06-03 | 上海交通大学 | 基于快速相似性网络融合算法的在线目标分类方法与*** |
CN105430342A (zh) * | 2015-12-01 | 2016-03-23 | 苏州铭冠软件科技有限公司 | 基于内容的视频特征提取与视频结构化处理方法 |
CN105676172A (zh) * | 2016-01-11 | 2016-06-15 | 无锡知谷网络科技有限公司 | 簇式磁场定位的方法、装置和*** |
CN106211072A (zh) * | 2016-07-14 | 2016-12-07 | 广东工业大学 | 一种小型移动主用户的定位方法及装置 |
CN106780564A (zh) * | 2017-02-09 | 2017-05-31 | 辽宁工程技术大学 | 一种基于先验模型约束的抗干扰轮廓跟踪方法 |
CN107025436A (zh) * | 2017-03-13 | 2017-08-08 | 西安电子科技大学 | 一种基于可信度的自更新人员入侵检测方法 |
CN107067411A (zh) * | 2017-01-03 | 2017-08-18 | 江苏慧眼数据科技股份有限公司 | 一种结合密集特征的Mean‑shift跟踪方法 |
CN107230226A (zh) * | 2017-05-15 | 2017-10-03 | 深圳奥比中光科技有限公司 | 人体关联关系的判断方法、装置及存储装置 |
CN104123544B (zh) * | 2014-07-23 | 2018-03-13 | 通号通信信息集团有限公司 | 基于视频分析的异常行为检测方法及*** |
CN108401140A (zh) * | 2018-04-07 | 2018-08-14 | 深圳供电局有限公司 | 一种基于多层视觉处理的智能视频监控***和方法 |
CN108458718A (zh) * | 2017-12-21 | 2018-08-28 | 杭州后博科技有限公司 | 一种结合地理特征的行进异常判断***及方法 |
CN108470071A (zh) * | 2018-03-29 | 2018-08-31 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
CN108549846A (zh) * | 2018-03-26 | 2018-09-18 | 北京航空航天大学 | 一种结合运动特征和头肩结构的行人检测与统计方法 |
CN108764085A (zh) * | 2018-05-17 | 2018-11-06 | 上海交通大学 | 基于生成对抗网络的人群计数方法 |
CN108765468A (zh) * | 2018-05-30 | 2018-11-06 | 中国石油大学(华东) | 一种基于特征融合的目标跟踪方法和装置 |
CN108921872A (zh) * | 2018-05-15 | 2018-11-30 | 南京理工大学 | 一种适用于长程跟踪的鲁棒性视觉目标跟踪方法 |
CN109145882A (zh) * | 2018-10-10 | 2019-01-04 | 惠州学院 | 一种多模态视频目标检测*** |
CN109871911A (zh) * | 2017-12-04 | 2019-06-11 | 昊翔电能运动科技(昆山)有限公司 | 无人机监测动物健康的方法和监测动物健康的无人机 |
CN110175531A (zh) * | 2019-05-05 | 2019-08-27 | 沈阳航空航天大学 | 一种基于姿态的考生位置定位方法 |
CN110751671A (zh) * | 2018-07-23 | 2020-02-04 | 中国科学院长春光学精密机械与物理研究所 | 一种基于核相关滤波与运动估计的目标跟踪方法 |
CN111339898A (zh) * | 2020-02-21 | 2020-06-26 | 上海商汤智能科技有限公司 | 行为检测方法和装置、计算机可读存储介质、计算机设备 |
CN111970050A (zh) * | 2020-07-14 | 2020-11-20 | 电子科技大学 | 一种基于异常检测的联合监测调制格式和光信噪比的*** |
CN112337810A (zh) * | 2020-09-14 | 2021-02-09 | 西安工程大学 | 一种视觉引导分拣珍珠机器人及其分拣方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003346279A (ja) * | 2002-05-22 | 2003-12-05 | Nec Soft Ltd | 通行状況監視・制御方法及び通行状況監視・制御システム |
CN101719216A (zh) * | 2009-12-21 | 2010-06-02 | 西安电子科技大学 | 基于模板匹配的运动人体异常行为识别方法 |
CN101872418A (zh) * | 2010-05-28 | 2010-10-27 | 电子科技大学 | 基于群体环境异常行为的检测方法 |
CN101883261A (zh) * | 2010-05-26 | 2010-11-10 | 中国科学院自动化研究所 | 大范围监控场景下异常目标检测及接力跟踪的方法及*** |
-
2011
- 2011-03-31 CN CN2011100800041A patent/CN102156983B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003346279A (ja) * | 2002-05-22 | 2003-12-05 | Nec Soft Ltd | 通行状況監視・制御方法及び通行状況監視・制御システム |
CN101719216A (zh) * | 2009-12-21 | 2010-06-02 | 西安电子科技大学 | 基于模板匹配的运动人体异常行为识别方法 |
CN101883261A (zh) * | 2010-05-26 | 2010-11-10 | 中国科学院自动化研究所 | 大范围监控场景下异常目标检测及接力跟踪的方法及*** |
CN101872418A (zh) * | 2010-05-28 | 2010-10-27 | 电子科技大学 | 基于群体环境异常行为的检测方法 |
Non-Patent Citations (2)
Title |
---|
《2010 IEEE International Symposium on Broadband Multimedia Systems and Broadcasting》 20100326 Qing Yan et al Real-time Foreground Detection Based on Tempo-spatial Consistency Validation and Gaussian Mixture Model 1-4 1-10 , * |
《中国优秀硕士学位论文全文数据库》 20101031 闫青 监控视频中的车辆及行人检测 全文 1-10 , * |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103136763A (zh) * | 2011-12-02 | 2013-06-05 | 富泰华工业(深圳)有限公司 | 用于检测视频序列异常段落的电子装置及其方法 |
CN103136763B (zh) * | 2011-12-02 | 2017-07-21 | 富泰华工业(深圳)有限公司 | 用于检测视频序列异常段落的电子装置及其方法 |
CN102663409A (zh) * | 2012-02-28 | 2012-09-12 | 西安电子科技大学 | 一种基于hog-lbp描述的行人跟踪方法 |
CN102663409B (zh) * | 2012-02-28 | 2015-04-22 | 西安电子科技大学 | 一种基于hog-lbp描述的行人跟踪方法 |
CN103425960A (zh) * | 2012-05-25 | 2013-12-04 | 信帧电子技术(北京)有限公司 | 一种视频中快速运动物体侦测方法 |
CN103425960B (zh) * | 2012-05-25 | 2017-04-05 | 信帧机器人技术(北京)有限公司 | 一种视频中快速运动物体侦测方法 |
CN102917207A (zh) * | 2012-10-24 | 2013-02-06 | 沈阳航空航天大学 | 基于运动序列的异常行为视觉监测*** |
CN104616277A (zh) * | 2013-11-01 | 2015-05-13 | 深圳中兴力维技术有限公司 | 视频结构化描述中的行人定位方法及其装置 |
CN104123544B (zh) * | 2014-07-23 | 2018-03-13 | 通号通信信息集团有限公司 | 基于视频分析的异常行为检测方法及*** |
CN104484324A (zh) * | 2014-09-26 | 2015-04-01 | 徐晓晖 | 一种多模型和模糊颜色的行人检索方法 |
CN104484324B (zh) * | 2014-09-26 | 2017-11-21 | 罗普特(厦门)科技集团有限公司 | 一种多模型和模糊颜色的行人检索方法 |
CN104537359B (zh) * | 2015-01-15 | 2019-02-15 | 浙江宇视科技有限公司 | 一种车辆目标检测方法及装置 |
CN104537359A (zh) * | 2015-01-15 | 2015-04-22 | 浙江宇视科技有限公司 | 一种车辆目标检测方法及装置 |
CN104680193A (zh) * | 2015-02-11 | 2015-06-03 | 上海交通大学 | 基于快速相似性网络融合算法的在线目标分类方法与*** |
CN104680193B (zh) * | 2015-02-11 | 2018-05-04 | 上海交通大学 | 基于快速相似性网络融合算法的在线目标分类方法与*** |
CN105430342A (zh) * | 2015-12-01 | 2016-03-23 | 苏州铭冠软件科技有限公司 | 基于内容的视频特征提取与视频结构化处理方法 |
CN105676172A (zh) * | 2016-01-11 | 2016-06-15 | 无锡知谷网络科技有限公司 | 簇式磁场定位的方法、装置和*** |
CN106211072A (zh) * | 2016-07-14 | 2016-12-07 | 广东工业大学 | 一种小型移动主用户的定位方法及装置 |
CN107067411A (zh) * | 2017-01-03 | 2017-08-18 | 江苏慧眼数据科技股份有限公司 | 一种结合密集特征的Mean‑shift跟踪方法 |
CN106780564A (zh) * | 2017-02-09 | 2017-05-31 | 辽宁工程技术大学 | 一种基于先验模型约束的抗干扰轮廓跟踪方法 |
CN106780564B (zh) * | 2017-02-09 | 2019-05-14 | 辽宁工程技术大学 | 一种基于先验模型约束的抗干扰轮廓跟踪方法 |
CN107025436A (zh) * | 2017-03-13 | 2017-08-08 | 西安电子科技大学 | 一种基于可信度的自更新人员入侵检测方法 |
CN107230226A (zh) * | 2017-05-15 | 2017-10-03 | 深圳奥比中光科技有限公司 | 人体关联关系的判断方法、装置及存储装置 |
CN109871911A (zh) * | 2017-12-04 | 2019-06-11 | 昊翔电能运动科技(昆山)有限公司 | 无人机监测动物健康的方法和监测动物健康的无人机 |
CN108458718A (zh) * | 2017-12-21 | 2018-08-28 | 杭州后博科技有限公司 | 一种结合地理特征的行进异常判断***及方法 |
CN108549846B (zh) * | 2018-03-26 | 2022-03-22 | 北京航空航天大学 | 一种结合运动特征和头肩结构的行人检测与统计方法 |
CN108549846A (zh) * | 2018-03-26 | 2018-09-18 | 北京航空航天大学 | 一种结合运动特征和头肩结构的行人检测与统计方法 |
CN108470071A (zh) * | 2018-03-29 | 2018-08-31 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
CN108470071B (zh) * | 2018-03-29 | 2022-02-18 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
CN108401140A (zh) * | 2018-04-07 | 2018-08-14 | 深圳供电局有限公司 | 一种基于多层视觉处理的智能视频监控***和方法 |
CN108921872B (zh) * | 2018-05-15 | 2022-02-01 | 南京理工大学 | 一种适用于长程跟踪的鲁棒性视觉目标跟踪方法 |
CN108921872A (zh) * | 2018-05-15 | 2018-11-30 | 南京理工大学 | 一种适用于长程跟踪的鲁棒性视觉目标跟踪方法 |
CN108764085A (zh) * | 2018-05-17 | 2018-11-06 | 上海交通大学 | 基于生成对抗网络的人群计数方法 |
CN108764085B (zh) * | 2018-05-17 | 2022-02-25 | 上海交通大学 | 基于生成对抗网络的人群计数方法 |
CN108765468A (zh) * | 2018-05-30 | 2018-11-06 | 中国石油大学(华东) | 一种基于特征融合的目标跟踪方法和装置 |
CN110751671A (zh) * | 2018-07-23 | 2020-02-04 | 中国科学院长春光学精密机械与物理研究所 | 一种基于核相关滤波与运动估计的目标跟踪方法 |
CN109145882A (zh) * | 2018-10-10 | 2019-01-04 | 惠州学院 | 一种多模态视频目标检测*** |
CN110175531A (zh) * | 2019-05-05 | 2019-08-27 | 沈阳航空航天大学 | 一种基于姿态的考生位置定位方法 |
CN111339898A (zh) * | 2020-02-21 | 2020-06-26 | 上海商汤智能科技有限公司 | 行为检测方法和装置、计算机可读存储介质、计算机设备 |
CN111970050A (zh) * | 2020-07-14 | 2020-11-20 | 电子科技大学 | 一种基于异常检测的联合监测调制格式和光信噪比的*** |
CN111970050B (zh) * | 2020-07-14 | 2022-03-15 | 电子科技大学 | 一种基于异常检测的联合监测调制格式和光信噪比的*** |
CN112337810A (zh) * | 2020-09-14 | 2021-02-09 | 西安工程大学 | 一种视觉引导分拣珍珠机器人及其分拣方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102156983B (zh) | 2013-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102156983B (zh) | 基于模式识别与目标跟踪的异常行人位置检测方法 | |
CN102147869B (zh) | 基于前景分析和模式识别的行人检测方法 | |
Gajjar et al. | Human detection and tracking for video surveillance: A cognitive science approach | |
CN102542289B (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
CN108090429B (zh) | 一种分级前脸卡口车型识别方法 | |
CN101729872B (zh) | 一种基于视频监控图像自动判别道路交通状态的方法 | |
CN101814149B (zh) | 一种基于在线学习的自适应级联分类器训练方法 | |
CN102867188B (zh) | 一种基于级联结构的会场内座位状态检测方法 | |
CN102332092B (zh) | 一种基于视频分析的火焰检测方法 | |
CN103310444B (zh) | 一种基于头顶摄像头的监控行人计数的方法 | |
CN105718866B (zh) | 一种视觉目标检测与识别方法 | |
CN102214291A (zh) | 一种快速准确的基于视频序列的人脸检测跟踪方法 | |
CN104978567B (zh) | 基于场景分类的车辆检测方法 | |
Li et al. | Robust people counting in video surveillance: Dataset and system | |
CN103942577A (zh) | 视频监控中基于自建立样本库及混合特征的身份识别方法 | |
CN103310194A (zh) | 视频中基于头顶像素点梯度方向的行人头肩部检测方法 | |
KR101697161B1 (ko) | 열 영상에서 온라인 랜덤 펀 학습을 이용하여 보행자를 추적하는 장치 및 방법 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN103473539A (zh) | 步态识别方法和装置 | |
CN101800890A (zh) | 一种高速公路监控场景下多车辆视频跟踪方法 | |
CN103020614B (zh) | 基于时空兴趣点检测的人体运动识别方法 | |
Xu et al. | Real-time pedestrian detection based on edge factor and Histogram of Oriented Gradient | |
CN103473571A (zh) | 一种人体检测方法 | |
CN103186775A (zh) | 基于混合描述子的人体运动识别方法 | |
CN106022278A (zh) | 一种视频图像中吉里巴甫服饰人群检测的方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130320 Termination date: 20170331 |
|
CF01 | Termination of patent right due to non-payment of annual fee |