CN104217206A - 基于高清视频的实时上座率统计方法 - Google Patents
基于高清视频的实时上座率统计方法 Download PDFInfo
- Publication number
- CN104217206A CN104217206A CN201310215445.7A CN201310215445A CN104217206A CN 104217206 A CN104217206 A CN 104217206A CN 201310215445 A CN201310215445 A CN 201310215445A CN 104217206 A CN104217206 A CN 104217206A
- Authority
- CN
- China
- Prior art keywords
- image
- banquet
- seat
- scene
- stage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于高清视频的实时上座率统计方法,该方法包括分类模型训练阶段和坐席状态判别阶段,在模型训练阶段,利用大量以标注坐席状态的图像为训练样本,对每张图像提取梯度方向直方图特征,然后再将其特征通过核变换到高维空间建立线性分类器;而在坐席状态判别阶段,采用已标定的场景座位坐标分割输入的图像,对每个子图像提取梯度方向直方图特征,利用已建立的高维空间线性分类器模型判别子图像特征,从而判定该坐席是否被人占用,最后,统计输入图像中的所有子图像的判别结果,获取该场景下当前的上座率。本发明不借助其它传感器,安装快捷,维护方便,不受光线变化的影响,能容忍室内光照环境的变化。
Description
技术领域
本发明属于数字图像处理及模式识别技术领域,具体涉及一种基于高清视频的实时上座率统计方法。
背景技术
众所周知,在诸如大型会场、大型礼堂、电影院、阶梯教室等场所,存在人员分布密集、座位数目多等特点,这给相应的座次管理工作带来障碍,单凭监控人员进行人工监控已不现实,必须使用计算机软件进行辅助工作。传统的座椅状态检测方法是通过在椅子上安装一个传感器,利用压力进行检测[1]。虽然这种传感器不需要外部供电,且为非接触式感应等具有一些优点,但是仍然存在明显不足:(1)应用场所通常座位数目众多,通常都拥有上千个位置,如果每个坐席都安装该传感器将是巨大的工作;(2)虽然传感器单个的稳定性非常好,但随着数目剧增,则出现传感器坏掉的概率将增高,必将带来繁杂的维护;(3)。因为需要在椅子上安装传感器,但对于阶梯教室等简单椅子场所,传感器的安装将会受限。基于上述考虑,本发明提出了基于高清视频的处理方法,能有效地规避上述问题。
对象分类是计算机视觉中一个重要的研究领域,它是指计算机按照人的思维能够进行人类对特定对象的分类活动[2][3]。其应用极其广泛,快速而准确的对象分类技术是现代信息处理技术中的重要组成部分。由于信息量近年来急剧增长,我们也迫切的需要有合适的对象分类技术能够让人们从大量的信息中寻找出自己所需要的信息,图像检索就属于这个类别。此外,对象分类技术还广泛用于公安以及交通监管等***。人脸分类能够使计算机做到在实时的情况下快速检测出场景中的人脸,并对其实施跟踪。人脸的识别***则可以用于公安、边防、以及数据库的快速查找等诸多领域。而人体的检测与识别则可以用于各种需要的安全控制场合进行实时的监控需要[4]。此外,车辆的检测与识别能够在交通监管部门发挥重要的作用,对车牌的检测以及识别是智能交通管理***中的重要组成部分。综上,对象分类技术是计算机视觉的重要组成部分。
本发明主要解决图像和视频中坐席是否被人占据的问题,我们将其对单个坐席的判别当作一个二类的对象分类问题,及坐席为空或被有人就坐。在机器学习的框架中,将整个过程分为两个部分:离线样本训练部分和在线图像检测部分。本发明所使用的样本特征为2005年Dalal[5]提出的梯度方向直方图(Histograms of Oriented Gradients,HOG)。然而该类特征很早就被应用在机器视觉领域中,它得到比较成熟应用的标志是Lowe提出的应用于图像匹配的SIFT(Scale Invariant Feature Transform)[7]特征的出现。Lowe利用局部梯度方向直方图描述图像块,根据此方法进行匹配具有尺度不变性的特征,较为相似的特征如形状上下文(Shape Context)[8]特征和边缘方向直方图(Edge Orientation Histograms,EOH)[9]特征等。Dalal提出的HOG与Lowe的SIFT描述方法之间的区别在于后者是基于关键点检测,是一种稀疏的描述方法,而HOG是将图像均匀地分为相邻的小单元(Cell),然后在所有的小块内统计梯度方向直方图,用这些直方图来描述图像,是一种非稀疏的描述方法。
本发明所使用的分类器是支持向量机(Support Vector Machine,SVM),是一种建立在VC维理论和结构风险最小原理基础上的统计学习方法。它根据有限的样本信息在模型的复杂性(即对特定训练样本的学习清度,Accuracy)和学习能力(即无错误地识别任意样本的能力)之间寻求最佳折中,以期望获得最好的泛化能力。SVM目前在学术界和工业界均享有赞誉,已经被认为是效果最好的分类算法之一,同时也得到广泛的应用。
发明内容
本发明的目的在于提供一种基于高清视频的实时上座率统计方法,以高清监控图像和已标定的坐席位置为输入,利用图像特征提取和模式分类技术,进行每个坐席状态判别,从而完成整个场景中上座率的实时统计。
为实现上述目的,本发明的技术方案如下:一种基于高清视频的实时上座率统计方法,其特征在于该方法包括分类模型训练阶段和坐席状态判别阶段,在模型训练阶段,利用大量以标注坐席状态的图像为训练样本,对每张图像提取梯度方向直方图特征,然后再将其特征通过核变换到高维空间建立线性分类器;而在坐席状态判别阶段,采用已标定的场景座位坐标分割输入的图像,对每个子图像提取梯度方向直方图特征,利用已建立的高维空间线性分类器模型判别子图像特征,从而判定该坐席是否被人占用,最后,统计输入图像中的所有子图像的判别结果,获取该场景下当前的上座率。
本发明的分类模型训练阶段的具体步骤依次是:
步骤1.将已标注的大量输入图像从彩色空间转换到灰度空间,图像记为χ,该图像的坐席状态记为y∈{-1,1},其中-1表示坐席无人,1表示坐席有人,于是大量已标注的图像可以记为((χ1,y1),(χ2,y2),...,(χn,yn));
步骤2.提取图像χ的梯度方向直方图特征,将图像χ按梯度方向均匀划分为若干个区间,计算每个区间的局部梯度方向直方图,所有区域的直方图拼成了最终的特征向量x;采用文章[5]中的方法,对图像进行梯度计算、向量标准化和向量组合,最终形成如图2所示的特征向量,其中每个片段表示着对应区域的直方图。
步骤3.利用支持向量机(SVM)分类器训练特征向量。该分类器将特征向量近似投影到高维空间,利用高维空间的线性可分性计算出最优分界面。最终将分界面的参数记录下来,表示采用该样本集训练的分类器模型。这里的训练指的就是后文中利用libSVM工具[10]对所有正负样本进行线性核的模型训练。
本发明的坐席状态判别阶段的具体步骤依次是:
步骤1.将输入单张待检测图像从彩色空间转换到灰度空间,图像记为I。
步骤2.利用已经标定的场景中坐席位置切割图像。便于描述,我们假定使用矩形(li,ti,wi,hi)代表图像中的座椅,其中l、t、w、h分别代表矩形的左上点的横、纵坐标和宽高,i∈[1,N],N是场景中座椅的总数。于是,切割后形成的子图像可定义为:
χi=I(ti:ti+hi-1,li:li+wi-1)
步骤3.提取子图像χ的梯度方向直方图特征,这里的提取方式跟训练部分的一样,同样得到具有相同维度的特征向量x。
步骤4.利用训练部分保存的分类器模型对上一步获得的特征向量分类。如果训练方法采用了线性核,则分界面模型[6]可表示为
wTx+b
所以,对子图像的检测结果可表示为
其中1表示该子图像中有人就坐,-1表示该坐席是空的。
步骤5.统计所有子图像的检测结果,计算该场景中所有坐席的上座率:
本发明的主要特点有:
(1)不借助其它传感器,安装快捷,维护方便。因为本发明仅利用高清摄像头的图像信息,不需要给每个坐席安装其它传感器,所以在设备安装上非常便捷,同时也降低了安装与维护方面的成本;
(2)不受光线变化的影响,能容忍室内光照环境的变化。本发明所采用的特征是一种基于梯度的直方图特征,而梯度特征本身对光照是不敏感的,及分类特征具备很强的光照稳定性。
(3)具备普适性,能使用各种类型的高清摄像头图像为输入,并不局限于彩色图像。根据一些特殊场景如电影院,由于没有灯照可见光摄像头无法正常拍摄,需要使用红外相机。因为在本发明中,所有的输入图像都有预处理——将彩色图像转换成灰度图。这样之后的操作都是在单通道图像上进行,所以本发明完全能在其它形式的摄像头上使用。
(4)具有很强的鲁棒性,能避免将坐席上异物(如衣服、帽子、阴影)识别为人的情况。因为本发明采用机器学习的框架,将异物的情况当作负样本放入训练,使得训练模型能非常准确地判别出这种情况是没有人占据坐席。
附图说明
图1是本发明的流程图
图2是梯度方向直方图(HOG)特征的示意图
具体实施方式
为了使本发明的目的、技术方案及优点更加明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
图1给出了基于高清视频的实时上座率统计方法的流程图。在样本训练阶段,考虑到收集的训练样本的图像大小不一致,可以先规范化到50×40像素。其中,正负样本总数大于2000个,且比例为1:1时,最后训练的模型将更加优秀。接下来的具体步骤是:
1、首先将图像样本灰度化,假定输入图像为RGB三通道的色彩图像,转换公式为:
H=0.2999*R+0.587*G+0.144*B (1)
其中R、G、B分别表示对应每个像素点的通道强度值,H是转换后灰度空间对应的强度值。
2、计算图像的梯度,公式为:
Gx(x,y)=H(x+1,y)-H(x-1,y) (2)
Gy(x,y)=H(x,y+1)-H(x,y-1) (3)
这里,H(x,y)表示图像在像素点(x,y)处的灰度值,Gx(x,y)、Gy(x,y)分别表示图像中像素点(x,y)处水平方向和垂直方向梯度。
3、计算局部梯度方向直方图。像素点(x,y)的梯度大小定义为:
梯度方向为:
把[-π/2,π/2]的梯度方向均匀划分为K个区间(bink),这里K表示对角度的离散值,
一般取9。各个像素点在分量区间上的幅值为
于是单元Ω的梯度方向直方图为
这里的单元是图像划分成m×n的网格,其中m为纵向网格的个数,n为横向网格的个数,一般m,n∈[4,7]。于是每个单元Ω的向量为υ=[Η1 Η2 ... ΗK]。
4、对局部梯度方向直方图进行对比度标准化,克服光线变化的影响。我们将区域向量,拼成一个2×2×K维的向量vi,j=[υi,jυi,j+1υi+1,jυi+1,j+1],其中i∈[1,m-1],j∈[1,n-1]。然后对向量v使用L2-norm进行标准化:
其中v表示标准化前的特征向量,||v||2表示向量v的第2范式,为了防止除数为0,将ε设定为一个很小的常量10-5。
5、串联所有局部梯度方向直方图,形成最终特征向量x,其维度为(m-1)×(n-1)×36,图2是特征的示意图。
6、利用libSVM工具[10]对所有正负样本进行线性核的模型训练,模型结果可以表示为:
y=wTx+b (9)
其中x是指子图形的向量特征,y指的是检测结果,w表示分界面的法向量,b为该超平面的截距。
在实时图像的坐席判别阶段,需要事先人工标定座椅在图像中的坐标,记为(li,ti,wi,hi)其中l、t、w、h分别代表矩形的左上点的横、纵坐标和宽高,i∈[1,N],N是场景中座椅的总数。接下来的具体步骤是:
1、同训练阶段的步骤1,将待检测图像转换到灰度空间。
2、利用已经标定的场景中坐席位置切割图像,公式为:
χi=I(ti:ti+hi-1,li:li+wi-1) (10)
3、接下来的特征提取与训练阶段的步骤2-5相同。
4、利用训练部分保存的分类器模型对上一步获得的特征向量分类。对子图像的检测可表示为
其中1表示该子图像中有人就坐,-1表示该坐席是空的。
5、统计所有子图像的检测结果,计算该场景中所有坐席的上座率:
参考文献
[1]伊薇斯·德科斯特.座位占用检测器,200480033712.8.
[2]Rafael C.Gonzalez and Richard E.Woods.Digital Image Processing,Second Edition.2007.8.
[3]Richard Szeliski.Computer Vision:Algorithms and Applications.2010.
[4]Piotr D.,et al.Pedestrian Detection:An Evaluation of the State of the Art.In IEEE Trans.OnPAMI,Vol.34,No.4,pp.743-761,2012.
[5]N.Dalal,B.Triggs.Histograms of oriented gradients for human detection.In IEEEInternational Conference on Computer Vision,volume1,pages886-893,2005.
[6]S.Theodoridis and K.Koutroumbas.Pattern Recognition,Fourth Edition,2009.
[7]D.Lowe.Object recognition from local scale-invariant features.International Journal ofComputer Vision60(2),91-110,2004.
[8]Belongie S,Malik J.Matching Shapes.In IEEE International Conference on Computer Vision,2001.
[9]Levi K,Weiss Y.Learning object detection from a small number of examples:the importanceof good feature.In IEEE International Conference on Computer Vision,2004.
[10]libSVM,http://www.csie.ntu.edu.tw/~cjlin/libsvm/.
Claims (3)
1.一种基于高清视频的实时上座率统计方法,其特征在于该方法包括分类模型训练阶段和坐席状态判别阶段,在模型训练阶段,利用大量以标注坐席状态的图像为训练样本,对每张图像提取梯度方向直方图特征,然后再将其特征通过核变换到高维空间建立线性分类器;而在坐席状态判别阶段,采用已标定的场景座位坐标分割输入的图像,对每个子图像提取梯度方向直方图特征,利用已建立的高维空间线性分类器模型判别子图像特征,从而判定该坐席是否被人占用,最后,统计输入图像中的所有子图像的判别结果,获取该场景下当前的上座率。
2.根据权利要求1所述的统计方法,其特征在于分类模型训练阶段的具体步骤依次是:
步骤1.将已标注的大量输入图像从彩色空间转换到灰度空间,图像记为χ,该图像的坐席状态记为y∈{-1,1},其中-1表示坐席无人,1表示坐席有人,于是大量已标注的图像可以记为((χ1,y1),(χ2,y2),...,(χn,yn));
步骤2.提取图像χ的梯度方向直方图特征,将图像χ按梯度方向均匀划分为若干个区间,计算每个区间的局部梯度方向直方图,所有区域的直方图拼成了最终的特征向量x;
步骤3.利用支持向量机分类器训练特征向量,该分类器将特征向量投影到高维空间,利用高维空间的线性分性计算出最优分界面,最终将分界面的参数记录下来,表示采用该群样本训练的分类器模型。
3.根据权利要求1所述的统计方法,其特征在于坐席状态判别阶段的具体步骤为:
步骤1.将输入单张待检测图像从彩色空间转换到灰度空间,图像记为I;
步骤2.利用已经标定的场景中坐席位置切割图像,假定使用矩形(li,ti,wi,hi)代表图像中的座椅,其中l、t、w、h分别代表矩形的左上点的横、纵坐标和宽高,i∈[1,N],N是场景中座椅的总数,切割后形成的子图像可定义为:
χi=I(ti:ti+hi-1,li:li+wi-1);
步骤3.提取子图像χ的梯度方向直方图特征,得到具有相同维度的特征向量x;
步骤4.利用训练部分保存的分类器模型对上一步获得的特征向量分类,分界面模型表示为
wTx+b
对子图像的检测可表示为
其中1表示该子图像中有人就坐,-1表示该坐席是空的。
步骤5.统计所有子图像的检测结果,计算该场景中所有坐席的上座率:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310215445.7A CN104217206A (zh) | 2013-05-31 | 2013-05-31 | 基于高清视频的实时上座率统计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310215445.7A CN104217206A (zh) | 2013-05-31 | 2013-05-31 | 基于高清视频的实时上座率统计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104217206A true CN104217206A (zh) | 2014-12-17 |
Family
ID=52098670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310215445.7A Pending CN104217206A (zh) | 2013-05-31 | 2013-05-31 | 基于高清视频的实时上座率统计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104217206A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104935884A (zh) * | 2015-06-05 | 2015-09-23 | 重庆智韬信息技术中心 | 一种学生上课秩序智能监控的方法 |
CN105550663A (zh) * | 2016-01-07 | 2016-05-04 | 北京环境特性研究所 | 影院上座率统计方法及*** |
CN106204346A (zh) * | 2016-06-30 | 2016-12-07 | 北京文安智能技术股份有限公司 | 一种基于视频分析的影院座位样本自动标注方法、装置及电子设备 |
CN106844614A (zh) * | 2017-01-18 | 2017-06-13 | 天津中科智能识别产业技术研究院有限公司 | 一种户型图功能区域快速识别*** |
CN106940789A (zh) * | 2017-03-10 | 2017-07-11 | 广东数相智能科技有限公司 | 一种基于视频识别的数量统计的方法、***及装置 |
CN111611850A (zh) * | 2020-04-09 | 2020-09-01 | 吴子华 | 一种座位使用状态的分析处理方法、***和存储介质 |
CN113792674A (zh) * | 2021-09-17 | 2021-12-14 | 支付宝(杭州)信息技术有限公司 | 空座率的确定方法、装置和电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101140623A (zh) * | 2007-09-29 | 2008-03-12 | 华为技术有限公司 | 一种基于支持向量机的视频对象识别方法及*** |
US20090030643A1 (en) * | 2007-07-25 | 2009-01-29 | White Timothy J | Method for collecting statistics for movie theaters |
CN102867188A (zh) * | 2012-07-26 | 2013-01-09 | 中国科学院自动化研究所 | 一种基于级联结构的会场内座位状态检测方法 |
CN102867214A (zh) * | 2012-07-26 | 2013-01-09 | 福建天晴数码有限公司 | 区域范围内人数统计管理方法 |
CN103106414A (zh) * | 2012-12-24 | 2013-05-15 | 厦门大学深圳研究院 | 一种智能视频监控中行人的检测方法 |
-
2013
- 2013-05-31 CN CN201310215445.7A patent/CN104217206A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090030643A1 (en) * | 2007-07-25 | 2009-01-29 | White Timothy J | Method for collecting statistics for movie theaters |
CN101140623A (zh) * | 2007-09-29 | 2008-03-12 | 华为技术有限公司 | 一种基于支持向量机的视频对象识别方法及*** |
CN102867188A (zh) * | 2012-07-26 | 2013-01-09 | 中国科学院自动化研究所 | 一种基于级联结构的会场内座位状态检测方法 |
CN102867214A (zh) * | 2012-07-26 | 2013-01-09 | 福建天晴数码有限公司 | 区域范围内人数统计管理方法 |
CN103106414A (zh) * | 2012-12-24 | 2013-05-15 | 厦门大学深圳研究院 | 一种智能视频监控中行人的检测方法 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104935884A (zh) * | 2015-06-05 | 2015-09-23 | 重庆智韬信息技术中心 | 一种学生上课秩序智能监控的方法 |
CN105550663A (zh) * | 2016-01-07 | 2016-05-04 | 北京环境特性研究所 | 影院上座率统计方法及*** |
CN106204346A (zh) * | 2016-06-30 | 2016-12-07 | 北京文安智能技术股份有限公司 | 一种基于视频分析的影院座位样本自动标注方法、装置及电子设备 |
CN106844614A (zh) * | 2017-01-18 | 2017-06-13 | 天津中科智能识别产业技术研究院有限公司 | 一种户型图功能区域快速识别*** |
CN106940789A (zh) * | 2017-03-10 | 2017-07-11 | 广东数相智能科技有限公司 | 一种基于视频识别的数量统计的方法、***及装置 |
CN106940789B (zh) * | 2017-03-10 | 2021-08-31 | 广东数相智能科技有限公司 | 一种基于视频识别的数量统计的方法、***及装置 |
CN111611850A (zh) * | 2020-04-09 | 2020-09-01 | 吴子华 | 一种座位使用状态的分析处理方法、***和存储介质 |
CN113792674A (zh) * | 2021-09-17 | 2021-12-14 | 支付宝(杭州)信息技术有限公司 | 空座率的确定方法、装置和电子设备 |
CN113792674B (zh) * | 2021-09-17 | 2024-03-26 | 支付宝(杭州)信息技术有限公司 | 空座率的确定方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Luvizon et al. | A video-based system for vehicle speed measurement in urban roadways | |
CN104217206A (zh) | 基于高清视频的实时上座率统计方法 | |
CN105046196B (zh) | 基于级联卷积神经网络的前车车辆信息结构化输出方法 | |
CN105930800B (zh) | 一种车道线检测方法及装置 | |
WO2017190574A1 (zh) | 一种基于聚合通道特征的快速行人检测方法 | |
CN109583315B (zh) | 一种面向智能视频监控的多通道快速人体姿态识别方法 | |
CN102915433B (zh) | 基于字符组合的车牌定位和识别方法 | |
CN103425967A (zh) | 一种基于行人检测和跟踪的人流监控方法 | |
CN105913040A (zh) | 暗视觉条件下的双摄像头实时行人检测*** | |
WO2023082784A1 (zh) | 一种基于局部特征注意力的行人重识别方法和装置 | |
CN101383005B (zh) | 一种利用辅助规则纹理的乘客目标图像和背景分离方法 | |
CN105574488A (zh) | 一种基于低空航拍红外图像的行人检测方法 | |
CN104778453A (zh) | 一种基于红外行人亮度统计特征的夜间行人检测方法 | |
CN102663411A (zh) | 一种目标人体识别方法 | |
CN105069816B (zh) | 一种进出口人流量统计的方法及*** | |
CN104463232A (zh) | 一种基于hog特征和颜色直方图特征的密度人群计数的方法 | |
CN103049749B (zh) | 在栅格遮挡下的人体再识别方法 | |
CN102693427A (zh) | 形成和使用用于检测图像的检测器的方法和设备 | |
Zhao et al. | Infrared pedestrian detection with converted temperature map | |
CN103065163B (zh) | 一种基于静态图片的快速目标检测识别***及方法 | |
Luo et al. | Stationary vehicle detection in aerial surveillance with a UAV | |
Wang et al. | A hybrid method of vehicle detection based on computer vision for intelligent transportation system | |
CN103489012A (zh) | 一种基于支持向量机的人群密集度检测方法及*** | |
Li et al. | Automatic passenger counting system for bus based on RGB-D video | |
Mammeri et al. | North-American speed limit sign detection and recognition for smart cars |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20141217 |