CN103136534A - 自适应的区域行人计数方法及装置 - Google Patents
自适应的区域行人计数方法及装置 Download PDFInfo
- Publication number
- CN103136534A CN103136534A CN2011103870031A CN201110387003A CN103136534A CN 103136534 A CN103136534 A CN 103136534A CN 2011103870031 A CN2011103870031 A CN 2011103870031A CN 201110387003 A CN201110387003 A CN 201110387003A CN 103136534 A CN103136534 A CN 103136534A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- sample
- counting
- model
- video image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供一种自适应的区域行人计数方法及装置,用于对图像中的行人进行计数,所述方法包括:分类器训练步骤,用于基于预先采集的做为行人样本和非行人样本的视频图像,训练计数模型,得到基于该计数模型的用于行人计数的分类器;行人计数步骤,用于获取当前视频图像帧,并采用所述分类器对当前视频图像帧内的行人进行计数;样本提取步骤,用于在当前视频图像帧内提取行人样本和非行人样本,并缓存所提取的行人样本和非行人样本中满足预定条件的行人样本和非行人样本;参数更新步骤,用于当满足更新条件时采用缓存的行人样本和非行人样本更新所述计数模型。本发明能够实时调整分类器参数,有效地提高了***的适应性,避免了重复离线训练。
Description
技术领域
本发明涉及数字图像处理及基于计算机视觉的模式识别领域,特别涉及一种自适应的区域行人计数方法及装置。
背景技术
基于计算机视觉的行人计数***能够通过计算机自动分析处理海量的视频数据,大大减少了工作人员的工作量,实现对公共场所的人群流量统计。
现有的视频行人计数***都无在线自适应学习功能。主要分为两种主流方法:1)基于行人检测和跟踪的行人计数算法。例如:可通过离线训练分类器,检测视频图像中行人头部或头肩来实现行人计数;或针对拥挤人群,用组跟踪的方法跟踪人群,解决遮挡和运动分割不全问题以实现行人计数。2)基于函数回归的行人计数算法。例如:利用动态纹理模型分割运动区域,并利用高斯过程拟合人数,可以同时处理多个运动方向的人群;或提取图像边缘方向特征和前景块直方图特征,离线学习特征与行人数目之间的关系,得到有监督的神经网络分类器来实现行人计数。
但是,现有基于视频的人数计数算法大多采用统计学习的方法,离线收集大量样本,采用训练分类器实现行人或人群的检测,或者采用回归模型拟合行人数目。该类算法性能的优劣与训练过程中样本是否完备息息相关。然而实际中,监控场景各不相同,场景中的行人千差万别,不可能收集到完整的样本集,当训练集与测试集之间差异较大时,计数的准确性也大大降低。
发明内容
为提高视频人数计数***对多场景的适应能力,提高计数的准确性,本发明提供了一种具备在线自适应学习功能的区域行人计数方法及装置,采用该方法进行区域行人计数,场景适应能力强,计数更准确。
本发明提供一种自适应的区域行人计数方法,用于对视频图像中的行人进行计数,包括:分类器训练步骤,用于基于预先采集的做为行人样本和非行人样本的视频图像,训练计数模型,得到基于该计数模型的用于行人计数的分类器;行人计数步骤,用于获取当前视频图像帧,并采用所述分类器对当前视频图像帧内的行人进行计数;样本提取步骤,用于在当前视频图像帧内提取行人样本和非行人样本,并缓存所提取的行人样本和非行人样本中满足预定条件的行人样本和非行人样本;参数更新步骤,用于当满足更新条件时采用缓存的行人样本和非行人样本更新所述计数模型,并更新基于更新后的计数模型的分类器,跳转至行人计数步骤。
本发明还提供一种自适应的区域行人计数装置,用于对视频图像中的行人进行计数,包括:分类器训练单元,用于基于预先采集的做为行人样本和非行人样本的视频图像,训练计数模型,得到基于该计数模型的用于行人计数的分类器;行人计数单元,用于获取当前视频图像帧,并采用所述分类器对当前视频图像帧内的行人进行计数;样本提取单元,用于在当前视频图像帧内提取行人样本和非行人样本,并缓存所提取的行人样本和非行人样本中满足预定条件的行人样本和非行人样本;参数更新单元,用于当满足更新条件时采用缓存的行人样本和非行人样本更新所述计数模型,并更新基于更新后的计数模型的分类器。
本发明采用基于高斯混合模型的贝叶斯分类器结合行人运动信息实现区域行人检测计数,同时在线自动采集高置信度样本,实时调整分类器参数,有效地提高了***对场景的适应性,提高了计数的准确性。
附图说明
图1为本发明实施例的自适应的区域行人计数方法的流程图。
图2示出本发明实施例的应用区域行人计数方法的***流程图。
图3为本发明实施例的LBP纹理特征计算方法。
图4为本发明实施例的透视模型的示意图。
图5为本发明实施例的高置信度行人和非行人样本实例的图。
图6为本发明实施例的高斯混合模型参数在线自适应学习流程图。
图7为本发明实施例的自适应的区域行人计数装置的示意图。
具体实施方式
本发明采用基于高斯混合模型(Gaussian Mixture Model,GMM)的贝叶斯分类器作为基本分类器检测视频图像中的行人目标。首先提取大量预先采集的行人样本和非行人样本的梯度局部二值模式特征(Gradient-Local Binary Patterns,G-LBP),训练得到初始的贝叶斯分类器。结合行人运动信息,该分类器可以实现初步的行人检测计数功能;同时,根据行人和非行人的特性,设定了相应的规则在线提取高置信度样本;当针对特定场景进行区域行人计数时,结合实时采集的高置信度样本的特征,本发明设计了一套更新方案实时更新高斯混合模型的参数,提高***对特定场景的自适应能力,进一步提高行人计数准确性。
图1为本发明实施例的自适应的区域行人计数方法的流程图。本发明的自适应的区域行人计数方法用于对图像中的行人进行计数,如图1所示,分类器训练步骤(步骤S1),用于基于预先采集的做为行人样本和非行人样本的视频图像,训练计数模型,得到基于该计数模型的用于行人计数的分类器;行人计数步骤(步骤S2),用于获取当前视频图像帧,并采用所述分类器对当前视频图像帧内的行人进行计数;样本提取步骤(步骤S3),用于在当前视频图像帧内提取行人样本和非行人样本,并缓存所提取的行人样本和非行人样本中满足预定条件的行人样本和非行人样本;参数更新步骤(步骤S4),用于当满足更新条件时采用缓存的行人样本和非行人样本更新所述计数模型。
为详细说明图1中的技术方案,现结合图2示出的应用本发明的区域行人计数方法的***流程图,从初始分类器训练、实时行人计数、在线自适应学习三部分进行阐述。以下所述的部分内容是为了利于技术方案的理解及完整性而进行说明,并非解决本发明提出的技术问题所必需,并且,以下所述的部分实施例及其中涉及的公式、算法等并非用于限定本发明,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明一实施例中,初始分类器训练包括样本采集、特征提取及分类器训练三个步骤。
涉及样本采集,在本发明一实施例中,选取行人样本数目大于等于10000,非行人样本数目为行人样本数目的5~10倍,并将样本图片的大小归一化到32×80。
涉及特征提取,本发明一实施例提取行人样本和非行人样本的梯度局部二值模式特征(Gradient-Local BinaryPatterns,G-LBP),该特征计算简单快速,能够满足基本分类需求和实时性需求。G-LBP特征提取方法与现有的LBP(LocalBinary Patterns)特征类似,不同之处在于该特征首先提取图像的梯度图,再提取该梯度图的LBP特征,从而能够获得更好的样本分类效果。
本发明采用Sobel梯度算子的得到梯度图像,计算公式为:
Δxf(x,y)=f(x-1,y+1)+2f(x,y+1)+f(x+1,y+1)-f(x-1,y-1)-2f(x,y-1)-f(x+1,y-1)
(1)
Δyf(x,y)=f(x-1,y-1)+2f(x-1,y)+f(x-1,y+1)-f(x+1,y-1)-2f(x+1,y)-f(x+1,y+1)
(2)
G[f(x,y)]=|Δxf(x,y)|+|Δyf(x,y)| (3)
其中,G[f(x,y)]为梯度表达式,f(x,y)为图像中坐标为(x,y)的像素点灰度值。
LBP特征通过比较图像中每个像素与其邻域内像素灰度值的大小,利用二进制模式表示比较结果,进而描述图像的纹理。LBP特征突出的优点是对目标灰度变化不敏感且计算简单迅速,满足视频处理的实时性要求。LBP纹理特征计算方法如图3所示。
其中,像素的局部区域用(P,R)来描述,R为中心像素与其相邻像素的距离,反映了纹理在空间上的分辨率,P为邻域像素的数目。通过不同的P可以获得目标的纹理描述,见公式(4):
式中gc表示中心点yc的灰度值,gp表示以yc为中心点、半径为R的圆环上的第p个等分点的灰度值。th是为了减轻噪音及局部灰度变化影响设置的阈值。本发明选择P=8,R=1,th=1,在梯度图上计算得到G-LBP特征。
涉及分类器训练,本发明一实施例采用基于高斯混合模型的贝叶斯分类器在视频图像中检测行人,该分类器利用收集到的行人样本和非行人样本提取G-LBP特征后训练混合高斯模型得到。本发明的贝叶斯分类器并不限于采用高斯混合模型,也可以是基于单高斯模型的贝叶斯分类器;并且,训练高斯模型的特征也不限于G-LBP特征,也可通过提取行人样本和非行人样本的LBP特征或其他适合训练高斯模型的特征。
高斯密度函数是一种非常重要的连续概率分布函数,可分为单高斯模型和高斯混合模型(Gaussian Mixture Model,GMM)两类。高斯混合模型具备多个单高斯分布共同表征目标的特征,能够平滑地近似任意形状的密度分布。设GMM由M个单高斯分布组成,这些高斯分布线性加和在一起就组成了GMM的概率密度函数,式(5)表示数据x的GMM概率密度分布函数:
其中,μ,∑是GMM的参数(均值、方差),Ni(x|μi,∑i)表示GMM中第i个高斯分布,具体如式(6)所示,d是x的维数,μi,∑i分别是该高斯分布的均值和方差,πi是该高斯密度在GMM中所占的权重。将通过公式(1)至(4)计算出的行人样本和非行人样本的G-LBP特征作为x代入公式(5)中,即可获得对应于所述行人样本和非行人样本的的GMM概率密度分布情况。
在分类器训练阶段,提取所有行人样本和非行人样本的G-LBP特征,所有行人样本用于训练行人样本的GMM,设包含Npos个高斯分布;同理,训练包含Nneg个高斯分布的非行人样本的GMM。本领域技术人员可根据实际情况自行设置上述Npos和Nneg的大小。训练GMM主要是得到贝叶斯分类器的模型的参数,现有的期望最大(Expectation Maximum,EM)算法是估计GMM参数的一种算法。EM算法首先初始化参数,通常采用K均值聚类算法对样本聚类,得到初始的GMM高斯分布的均值和方差;E-step根据初始模型参数或前一步的模型参数计算隐性变量的期望,M-step最大化log似然函数对隐性变量的期望,重新计算模型参数,并重复这两个步骤,直至目标函数收敛,这样最终得到的GMM中每个单高斯模型的参数μi,∑i。
基于高斯混合模型的贝叶斯分类器判别公式如下:
当贝叶斯分类器满足p(x|μpos,∑pos)>p(x|μneg,∑neg)时,即样本在行人类的后验概率密度大于非行人类的后验概率密度,样本归属于行人样本;
当贝叶斯分类器满足p(x|μpos,∑pos)≤p(x|μneg,∑neg)时,即样本在行人类的后验概率密度小于或等于样本在非行人类的后验概率密度,样本归属于非行人样本;
其中μpos,∑pos,μneg,∑neg分别是行人样本类的GMM参数和非行人样本类的GMM参数,p(x|μpos,∑pos),p(x|μneg,∑neg)见公式(5)。
本发明采用基于高斯混合模型的贝叶斯分类器实现视频行人检测计数。在本发明一实施例中,实时行人计数包括前景提取和滑窗搜索这两个步骤。
涉及前景提取,首先,本发明的一实施例采用高斯混合背景建模得到背景区域,背景区域的获取可通过现有技术实现,此处不再赘述;接下来,将背景区域与当前帧进行比较,如公式(7)所示,得到当前帧前景区域以获得行人的运动信息。
其中,Ifore(x,y)为图像中(x,y)位置前景图像的像素值,1表示该点为前景像素,0表示该点为背景像素,I(x,y)为图像中(x,y)位置当前帧图像的像素值,Iback(x,y)为图像中(x,y)位置背景图像的像素值,TH2为设定阈值,本领域技术人员可根据图像所处的场景的实际情况自行条件该设定阈值。
在本发明的一实施例中,行人计数过程采用滑窗搜索检测行人区域。首先,选择包含一定前景区域的搜索窗口,提取这些窗口内的G-LBP特征,再通过前述判别方式得到当前贝叶斯分类器的判别结果,以判别该搜索框是否属于行人目标,最终统计由用户自行确定的感兴趣区域内的行人目标个数以实现计数功能。这里的贝叶斯分类器中的GMM参数在***运行初期是初始GMM参数,从第一次学习之后采用下述的实时在线自适应学习后的参数。在一实施例中,定义***每运行50~100帧进行一次自适应学习。其中,视频图像中不同位置搜索窗口大小依照具有较高搜索效果的透视模型进行计算,但本发明不限于此,采用其他合适的方式计算的搜索窗口大小同样能够实现本发明的技术方案。也可以设定***运行一定时间后进行一次自学习,如10分钟。
图4为一透视模型的示意图。从图4中可以看到,由于摄像机架设具有一定倾斜角度,因此视频中的道路不再平行等宽,这导致离摄像机远的行人小于离摄像机近的行人。本发明采用透视模型解决这一问题。所谓透视模型,就是得到图像区域内不同的位置和该位置对应的搜索窗口大小之间的关系,即搜索窗口的高度近大远小。如图3所示,对每一个场景,手工标定道路线L1和L2,同时标定场景中某个行人的高度Hab,并通过该行人的中点做一条水平直线,交L1和L2分别于点a和b,截取的线段长度为|ab|。那么,图中其它任意位置如中点在直线cd上的行人搜索窗口高度可以通过式(8)计算:
其中,cd水平直线交L1和L2于点c和d,截取的线段长度为Hcd。当通过搜索窗口中点的直线无法相交于图像可显示的道路线L1和L2时,则交于L1和L2的延长线。该方法可以确定图中不同位置搜索窗口的高度,同时固定搜索窗口的宽高比,即可得到该位置搜索窗口的宽度。
在本发明一实施例中,在线自适应学习进一步包括高置信度样本的自动提取和高斯混合模型参数在线自适应学习这两个步骤。
对于一个基于视频的行人计数***,其自适应学习功能主要体现在自动抓住该段视频中行人和非行人样本的特性。行人计数***应用场景里的行人目标,大都处于直立行走或静止状态,而非行人区域,多为路面、路标、围栏、树木等。因此,抓住这两者的不同特点至关重要。本发明根据如下预定条件来选择高置信度样本:
(1)基本分类条件。高置信度样本首先需要满足前述的样本分类的基本条件:行人样本满足条件:p(x|μpos,∑pos)>p(x|μneg,∑neg),即在贝叶斯分类器下,样本在行人类的后验概率密度大于非行人类的后验概率密度则该样本属于行人;非行人样本满足条件:p(x|μpos,∑pos)≤p(x|μneg,∑neg),即在贝叶斯分类器下,样本在行人类的后验概率密度小于或等于样本在非行人类的后验概率密度则该样本属于非行人。
(2)前景分类条件。多数情况下行人都是在行走中的,因此前景图像中,当用户采用搜索窗口进行样本采集时,属于行人样本的搜索窗口中的前景区域所占比例是比较大的;同理,非行人样本的搜索窗口中前景区域比例很小甚至为零。因此,通过统计搜索窗口内前景像素点数目,并设定阈值以确定该搜索窗口是否属于行人;当搜索窗口内前景像素点数目大于或等于设定阈值时,则判断为该搜索窗口内的样本为行人,否则判断为非行人。
(3)边缘分类条件。如图5的右侧所示,将搜索窗口横向平均分为3个部分,纵向平均分为2个部分,同时得到每一图像帧的边缘图像。由于行人多为直立状态,因此,边缘分布比较均匀,且具有对称性,即每个部分都有边缘点,所述边缘为Sobel算子提取后的每个部分的梯度图像的边缘像素点,横向3个部分的边缘点数目差异不大,纵向2个部分的边缘点数目差异也不大;非行人区域边缘点往往分布不均,某些部分的边缘点数目很多,有些很少甚至没有。因此,通过统计各部分边缘点数目,并设定阈值以确定该搜索窗口是否属于行人;当各部分边缘点数目之和大于设定阈值时,则判断为该搜索窗口内的样本为行人,否则判断为非行人。其中,边缘点数目的统计可通过现有的方法来实现,在此不在赘述;并且,本领域技术人员可根据实际情况来设定此处的阈值。
(4)如果搜索窗口满足以上条件,则本发明把这类样本相应地归为高置信度的行人或非行人样本,将上述行人或非行人样本进行计数,并用于自适应学习;不符合上述条件的样本只要符合初始分类器训练中的检测条件,就会仅被计数为行人,本发明把这类样本归于非高置信度行人样本,不用于自适应学习。
本发明的高斯混合模型参数在线自适应过程包括待更新模型的选取和模型参数的更新,如图6所示。
在一实施例中,本发明实时更新分类器参数,使分类器能够在确定当前场景中的样本为行人或非行人时体现较高的置信度。
首先,将根据上述预定条件采集到的高置信度行人/非行人样本按公式(9)找到最佳匹配的行人/非行人样本类中的单高斯模型。最佳匹配距离采用马氏距离或欧几里德距离计算,本实施例以欧几里德距离为例:
其中,待匹配的高置信度样本特征为{xi,i=1,...,dim},单高斯模型均值为{yi,i=1,...,dim},dim是特征维数。匹配结束后,找到包含行人样本最多的个行人样本类的单高斯模型和包含非行人样本最多个非行人样本类的单高斯模型,见图6,高斯混合模型参数更新过程只更新已选择的个单高斯模型,其他单高斯模型不变。本领域技术人员可根据实际情况自行设定上述和的大小。在更新的开始,需要计算分配到待更新的单高斯模型下的高置信度行人、非行人样本的均值和方差其中, 计算公式如下:
其中,fi是N个样本的特征值,μ,∑是该组N个样本的均值和方差。
在一实施例中,本发明可采用现有的高斯混合模型参数更新方法进行模型参数更新,以进行已知原模型参数和新加入的样本数据的情况下的高斯混合模型参数更新。同时,本发明引入学习率α用来调整新加入的样本数据在学习过程中所占的权重。式(12)~(14)显示了高斯混合模型参数更新方法:
其中,μori,∑ori,πori分别是更新前GMM中单高斯分布的均值、方差和在GMM中所占权重。Nnew,μnew,∑new分别是与该单高斯分布匹配的高置信度样本的个数、均值和方差。μ,∑,π分别是更新后单高斯分布的均值、方差和权重,且当所有待更新的单高斯分布更新结束后要将π归一化。N是更新前用于训练GMM的训练样本个数。α是学习率,当学习率高的时候认为该组样本对模型的影响程度大,0≤α≤1。该***每隔一定帧数进行一次高斯混合模型参数更新,之后,所使用的高置信度样本列表清空。然后采用基于更新后的模型参数的分类器继续进行行人计数,并在下一次更新前重新采集一组高置信度样本,这样能够更好地适应每一个时间段行人样本和非行人样本的特性。另外,***更新高斯混合模型参数也不限于每隔一定帧数的情况,也可在每当采集到一定数量的高置信度样本时进行更新,或间隔一定时间后进行更新。
图7为本发明实施例的自适应的区域行人计数装置的示意图。该自适应的区域行人计数装置包括分类器训练单元701、行人计数单元702、样本提取单元703及参数更新单元704;其中,分类器训练单元701参考图1中示出的步骤S1,用于基于预先采集的做为行人样本和非行人样本的视频图像,训练计数模型,得到基于该计数模型的用于行人计数的分类器;行人计数单元702参考图1中示出的步骤S2,用于获取当前视频图像帧,并采用所述分类器对当前视频图像帧内的行人进行计数;样本提取单元703参考图1中示出的步骤S3,用于在当前视频图像帧内提取行人样本和非行人样本,并缓存所提取的行人样本和非行人样本中满足预定条件的行人样本和非行人样本;参数更新单元704参考图1中示出的步骤S4,用于当满足更新条件时采用缓存的行人样本和非行人样本更新所述计数模型,并更新基于更新后的计数模型的分类器。
上述行人计数单元702包括计数单元,所述计数单元用于对从当前视频图像帧中提取的满足所述分类器进行行人判断的分类条件的行人样本进行计数,以获得行人的数量。上述分类器训练单元701包括提取单元,所述提取单元用于提取所采集的行人样本和非行人样本的梯度局部二值模式特征,以训练所述计数模型,其中,当训练模型为高斯混合模型时,可采用公式(1)-(5)进行计数模型的训练。
本发明抓住应用场景中行人和非行人样本的特性,有效地自动提取视频图像中的高置信度的行人和非行人区域;另外,本发明能够实时调整基于高斯混合模型的贝叶斯分类器参数,使***能够适应不同的应用场景,实现准确的行人计数。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁盘、光盘、只读存储器或随机存取存储器等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (14)
1.一种自适应的区域行人计数方法,用于对视频图像中的行人进行计数,其特征在于,包括:
分类器训练步骤,用于基于预先采集的做为行人样本和非行人样本的视频图像,训练计数模型,得到基于该计数模型的用于行人计数的分类器;
行人计数步骤,用于获取当前视频图像帧,并采用所述分类器对当前视频图像帧内的行人进行计数;
样本提取步骤,用于在当前视频图像帧内提取行人样本和非行人样本,并缓存所提取的行人样本和非行人样本中满足预定条件的行人样本和非行人样本;以及
参数更新步骤,用于当满足更新条件时采用缓存的行人样本和非行人样本更新所述计数模型,并更新基于更新后的计数模型的分类器,跳转至行人计数步骤。
2.根据权利要求1所述的自适应的区域行人计数方法,其特征在于,所述计数模型为由多个单高斯模型组成的高斯混合模型。
3.根据权利要求2所述的自适应的区域行人计数方法,其特征在于,所述预定条件包括:
所提取的行人样本满足所述分类器进行行人判断的分类条件或所提取的非行人样本满足所述分类器进行非行人判断的分类条件;
用于提取行人样本或非行人样本的搜索窗口内的像素点数目超过第一阈值;以及
在将所述搜索窗口分为至少两个部分的情况下,连接相邻的部分的边缘上所包括的像素点数目超过第二阈值。
4.根据权利要求3所述的自适应的区域行人计数方法,其特征在于,所述行人计数步骤包括:对从当前视频图像帧中提取的满足所述分类器进行行人判断的分类条件的行人样本进行计数,以获得行人的数量。
5.根据权利要求3所述的自适应的区域行人计数方法,其特征在于,在所述参数更新步骤中,每隔预定帧数的视频图像或每当满足预定条件的行人样本和非行人样本的总数达到预定值时,更新所述计数模型。
6.根据权利要求1所述的自适应的区域行人计数方法,其特征在于,所述分类器训练步骤包括:提取所采集的行人样本和非行人样本的梯度局部二值模式特征,以训练所述计数模型。
7.根据权利要求1所述的自适应的区域行人计数方法,其特征在于,在所述计数模型为由多个单高斯模型组成的高斯混合模型的情况下,在所述参数更新步骤中仅更新所述多个单高斯模型中的部分单高斯模型。
8.一种自适应的区域行人计数装置,用于对视频图像中的行人进行计数,其特征在于,包括:
分类器训练单元,用于基于预先采集的做为行人样本和非行人样本的视频图像,训练计数模型,得到基于该计数模型的用于行人计数的分类器;
行人计数单元,用于获取当前视频图像帧,并采用所述分类器对当前视频图像帧内的行人进行计数;
样本提取单元,用于在当前视频图像帧内提取行人样本和非行人样本,并缓存所提取的行人样本和非行人样本中满足预定条件的行人样本和非行人样本;以及
参数更新单元,用于当满足更新条件时采用缓存的行人样本和非行人样本更新所述计数模型,并更新基于更新后的计数模型的分类器。
9.根据权利要求8所述的自适应的区域行人计数装置,其特征在于,所述计数模型为单高斯模型或由多个单高斯模型组成的高斯混合模型。
10.根据权利要求9所述的自适应的区域行人计数装置,其特征在于,所述预定条件包括:
所提取的行人样本满足所述分类器进行行人判断的分类条件或所提取的非行人样本满足所述分类器进行非行人判断的分类条件;
用于提取行人样本或非行人样本的搜索窗口内的像素点数目超过第一阈值;以及
在将所述搜索窗口分为至少两个部分的情况下,连接相邻的部分的边缘上所包括的像素点数目超过第二阈值。
11.根据权利要求10所述的自适应的区域行人计数装置,其特征在于,所述行人计数单元包括计数单元,所述计数单元用于对从当前视频图像帧中提取的满足所述分类器进行行人判断的分类条件的行人样本进行计数,以获得行人的数量。
12.根据权利要求10所述的自适应的区域行人计数装置,其特征在于,所述参数更新单元每隔预定帧数的视频图像或每当满足预定条件的行人样本和非行人样本的总数达到预定值时,更新所述计数模型。
13.根据权利要求8所述的自适应的区域行人计数装置,其特征在于,所述分类器训练单元包括提取单元,所述提取单元用于提取所采集的行人样本和非行人样本的梯度局部二值模式特征,以训练所述计数模型。
14.根据权利要求8所述的自适应的区域行人计数装置,其特征在于,在所述计数模型为由多个单高斯模型组成的高斯混合模型的情况下,在所述参数更新步骤中仅更新所述多个单高斯模型中的部分单高斯模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011103870031A CN103136534A (zh) | 2011-11-29 | 2011-11-29 | 自适应的区域行人计数方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011103870031A CN103136534A (zh) | 2011-11-29 | 2011-11-29 | 自适应的区域行人计数方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103136534A true CN103136534A (zh) | 2013-06-05 |
Family
ID=48496341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011103870031A Pending CN103136534A (zh) | 2011-11-29 | 2011-11-29 | 自适应的区域行人计数方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103136534A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104517127A (zh) * | 2013-09-27 | 2015-04-15 | 汉王科技股份有限公司 | 一种基于Bag-of-features模型的自学习行人计数方法及装置 |
CN104952090A (zh) * | 2014-03-26 | 2015-09-30 | 富士通株式会社 | 流量显示方法和流量显示设备 |
CN106250828A (zh) * | 2016-07-22 | 2016-12-21 | 中山大学 | 一种基于改进的lbp算子的人群计数方法 |
CN106780348A (zh) * | 2016-11-14 | 2017-05-31 | 吉林大学 | 信号控制下人行横道宽度确定方法 |
CN106919889A (zh) * | 2015-12-25 | 2017-07-04 | 株式会社日立制作所 | 对视频图像中的人头进行检测的方法和装置 |
CN108280251A (zh) * | 2017-12-20 | 2018-07-13 | 同济大学 | 一种基于街道宽度比的丁字路口高风险区域标定方法 |
CN108416284A (zh) * | 2018-03-02 | 2018-08-17 | 北京航空航天大学 | 一种交通信号灯的分割方法 |
CN109657564A (zh) * | 2018-11-28 | 2019-04-19 | 深圳市中电数通智慧安全科技股份有限公司 | 一种人员在岗检测方法、装置、存储介质及终端设备 |
CN110033430A (zh) * | 2019-02-20 | 2019-07-19 | 阿里巴巴集团控股有限公司 | 一种行人数量统计方法和装置 |
CN116662794A (zh) * | 2023-08-02 | 2023-08-29 | 成都凯天电子股份有限公司 | 一种考虑数据分布更新的振动异常监测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060147108A1 (en) * | 2005-01-04 | 2006-07-06 | Samsung Electronics Co., Ltd. | Apparatus and method for detecting heads in input image |
US20070098222A1 (en) * | 2005-10-31 | 2007-05-03 | Sony United Kingdom Limited | Scene analysis |
US20080008360A1 (en) * | 2005-11-05 | 2008-01-10 | Ram Pattikonda | System and method for counting people |
CN101200252A (zh) * | 2007-12-10 | 2008-06-18 | 中国科学院计算技术研究所 | 一种目标场所优化调度方法及*** |
CN102169543A (zh) * | 2011-04-15 | 2011-08-31 | 苏州市慧视通讯科技有限公司 | 基于多源信息融合和在线学习的人头计数方法 |
-
2011
- 2011-11-29 CN CN2011103870031A patent/CN103136534A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060147108A1 (en) * | 2005-01-04 | 2006-07-06 | Samsung Electronics Co., Ltd. | Apparatus and method for detecting heads in input image |
US20070098222A1 (en) * | 2005-10-31 | 2007-05-03 | Sony United Kingdom Limited | Scene analysis |
US20080008360A1 (en) * | 2005-11-05 | 2008-01-10 | Ram Pattikonda | System and method for counting people |
CN101200252A (zh) * | 2007-12-10 | 2008-06-18 | 中国科学院计算技术研究所 | 一种目标场所优化调度方法及*** |
CN102169543A (zh) * | 2011-04-15 | 2011-08-31 | 苏州市慧视通讯科技有限公司 | 基于多源信息融合和在线学习的人头计数方法 |
Non-Patent Citations (3)
Title |
---|
HE YONGGANG 等: "Robust Illumination Invariant Texture Classification Using Gradient Local Binary Patterns", 《2011 INTERNATIONAL WORKSHOP ON MULTI-PLATFORM/MULTI-SENSOR REMOTE SENSING AND MAPPING (M2RSM)》 * |
LI JINGWEN 等: "An efficient self-learning people counting system", 《2011 FIRST ASIAN CONFERENCE ON PATTERN RECOGNITION (ACPR)》 * |
LI JINGWEN 等: "An efficient self-learning people counting system", 《2011 FIRST ASIAN CONFERENCE ON PATTERN RECOGNITION (ACPR)》, 28 November 2011 (2011-11-28) * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104517127A (zh) * | 2013-09-27 | 2015-04-15 | 汉王科技股份有限公司 | 一种基于Bag-of-features模型的自学习行人计数方法及装置 |
CN104952090A (zh) * | 2014-03-26 | 2015-09-30 | 富士通株式会社 | 流量显示方法和流量显示设备 |
CN104952090B (zh) * | 2014-03-26 | 2017-09-15 | 富士通株式会社 | 流量显示方法和流量显示设备 |
CN106919889A (zh) * | 2015-12-25 | 2017-07-04 | 株式会社日立制作所 | 对视频图像中的人头进行检测的方法和装置 |
CN106250828B (zh) * | 2016-07-22 | 2019-06-04 | 中山大学 | 一种基于改进的lbp算子的人群计数方法 |
CN106250828A (zh) * | 2016-07-22 | 2016-12-21 | 中山大学 | 一种基于改进的lbp算子的人群计数方法 |
CN106780348A (zh) * | 2016-11-14 | 2017-05-31 | 吉林大学 | 信号控制下人行横道宽度确定方法 |
CN108280251A (zh) * | 2017-12-20 | 2018-07-13 | 同济大学 | 一种基于街道宽度比的丁字路口高风险区域标定方法 |
CN108280251B (zh) * | 2017-12-20 | 2021-07-20 | 同济大学 | 一种基于街道宽度比的丁字路口高风险区域标定方法 |
CN108416284A (zh) * | 2018-03-02 | 2018-08-17 | 北京航空航天大学 | 一种交通信号灯的分割方法 |
CN109657564A (zh) * | 2018-11-28 | 2019-04-19 | 深圳市中电数通智慧安全科技股份有限公司 | 一种人员在岗检测方法、装置、存储介质及终端设备 |
CN110033430A (zh) * | 2019-02-20 | 2019-07-19 | 阿里巴巴集团控股有限公司 | 一种行人数量统计方法和装置 |
CN110033430B (zh) * | 2019-02-20 | 2023-06-20 | 创新先进技术有限公司 | 一种行人数量统计方法和装置 |
CN116662794A (zh) * | 2023-08-02 | 2023-08-29 | 成都凯天电子股份有限公司 | 一种考虑数据分布更新的振动异常监测方法 |
CN116662794B (zh) * | 2023-08-02 | 2023-11-10 | 成都凯天电子股份有限公司 | 一种考虑数据分布更新的振动异常监测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103136534A (zh) | 自适应的区域行人计数方法及装置 | |
CN101729872B (zh) | 一种基于视频监控图像自动判别道路交通状态的方法 | |
CN106875424B (zh) | 一种基于机器视觉的城市环境行驶车辆行为识别方法 | |
CN108921083B (zh) | 基于深度学习目标检测的非法流动摊贩识别方法 | |
CN101814149B (zh) | 一种基于在线学习的自适应级联分类器训练方法 | |
US20230289979A1 (en) | A method for video moving object detection based on relative statistical characteristics of image pixels | |
CN102542289B (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
US12002225B2 (en) | System and method for transforming video data into directional object count | |
CN102289948B (zh) | 高速公路场景下一种多特征融合的多车辆视频跟踪方法 | |
CN104050481B (zh) | 多模板轮廓特征和灰度相结合的红外图像实时行人检测 | |
CN101794382B (zh) | 一种实时公交车客流量统计的方法 | |
CN108647649B (zh) | 一种视频中异常行为的检测方法 | |
CN104978567B (zh) | 基于场景分类的车辆检测方法 | |
CN101980245B (zh) | 一种基于自适应模板匹配的客流统计方法 | |
CN115995063A (zh) | 作业车辆检测与跟踪方法和*** | |
CN108304798A (zh) | 基于深度学习及运动一致性的街面秩序事件视频检测方法 | |
CN102156983A (zh) | 基于模式识别与目标跟踪的异常行人位置检测方法 | |
CN101800890A (zh) | 一种高速公路监控场景下多车辆视频跟踪方法 | |
CN107491749A (zh) | 一种人群场景中全局和局部异常行为检测方法 | |
CN102044151A (zh) | 基于光照可见度辨识的夜间车辆视频检测方法 | |
CN104850865A (zh) | 一种多特征迁移学习的实时压缩跟踪方法 | |
CN104268528A (zh) | 一种人群聚集区域检测方法和装置 | |
CN103383733A (zh) | 一种基于半机器学习的车道视频检测方法 | |
CN103455820A (zh) | 基于机器视觉技术的车辆检测和跟踪方法及*** | |
CN109255326A (zh) | 一种基于多维信息特征融合的交通场景烟雾智能检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20130605 |