CN107103279A - 一种在垂直视角下基于深度学习的客流计数方法 - Google Patents
一种在垂直视角下基于深度学习的客流计数方法 Download PDFInfo
- Publication number
- CN107103279A CN107103279A CN201710139113.3A CN201710139113A CN107103279A CN 107103279 A CN107103279 A CN 107103279A CN 201710139113 A CN201710139113 A CN 201710139113A CN 107103279 A CN107103279 A CN 107103279A
- Authority
- CN
- China
- Prior art keywords
- mrow
- shoulder
- head
- msubsup
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000013135 deep learning Methods 0.000 title claims abstract description 26
- 238000001514 detection method Methods 0.000 claims description 20
- 230000007306 turnover Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 6
- 230000000977 initiatory effect Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000003475 lamination Methods 0.000 claims 1
- 238000000605 extraction Methods 0.000 abstract description 5
- 230000000007 visual effect Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000000481 breast Anatomy 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种在垂直视角下基于深度学习的客流计数方法,该方法垂直视角下进行人流统计,相比于斜拍视角,这个视角更容易应对商场、超市、地铁等公共场所人流很密集的情况;提出利用深度学习检测头肩,利用深度学习强大的学习能力,不需要对视频进行背景建模和前景提取,也不需要对前景进行行人切割,能够更精确更鲁棒地检测到头肩信息;进行匹配跟踪利用的是深度卷积特征,相对于HOG、LBP等手动设计的特征,深度卷积特征有更好的表达能力,能够更好的应对各种场景;本发明是直接将某一层的深度卷积特征拿来做匹配,避免了特征的重复计算,使得更加省时。
Description
技术领域
本发明涉及数字图像处理领域,更具体地,涉及一种在垂直视角下基于深度学习的客流计数方法。
背景技术
近来年,视频客流计数技术一直是业界备受关注的研究热点,它也逐步应用于各大商场连锁店、超市、酒店、机场、地铁、景区等,这些场景下产生的人流量数据能够为很多领域提供很有价值的信息。对于各大商场连锁店、超市而言,面对目前火热的线上电子商务***,如京东、淘宝、天猫、亚马逊等,线下的销售市场一直受到挤迫,科学化的管理显然是提高自身竞争力的有效手段。商场内不同时段、不同区域的人流数据在提高其经营决策的科学性、资源调度的合理性、消费环境的舒适性等方面起到了重要的作用,商业人流数据对商业的绩效考核、商品转化率、店铺选址、商品陈列、广告价值有着很重要的意义。另外,对于展览馆、体育馆、地铁站、公交站、机场等公共场所中,人流数据能够呈现实时精准的的区域人数和人群密度,管理者通过数据分析动态调整工作人员配置计划,控制区域人群数量,使资源更合理使用,同时也能加强安全防范。
目前针对客流计数这个领域,现有技术中有提出了利用局部轮廓的方法去检测头部,他用椭圆模型去拟合头部轮廓,当轮廓拟合度比较高就认为是一个头部。现有技术中还有利用头发的颜色以及头部的轮廓特征进行头部检测,众所周知,头部的轮廓类似一个圆,所以可以利用这个特征检测头部。但是这种特征的缺点就是容易受到轮廓类似圆的其他物体所影响,比如气球等。现有技术中还有提出了一个有效的行人计数方法,第一次使用霍夫圆变换(Hough circle Transform)进行头部检测,后面接上光流(optical flow)法进行跟踪,但是,这个方法的缺点就是光流需要耗费很大的计算力,难以部署到嵌入式设备上。现有技术中还有提出了一种先利用高斯混合背景建模提取前景区域,接着在前景区域使用自适应增强(Adaptive Boosting)方法结合局部二值模式(Local Binary Pattern)特征进行人头检测,最后接上均值漂移(meanshift)跟踪算法进行进出统计,这样一个***依赖于前景提取的完整,而很多时候尤其在画面中行人密集的时候很难提取完好的前景。
发明内容
本发明提供一种明显地提高人流统计准确率的在垂直视角下基于深度学习的客流计数方法。
为了达到上述技术效果,本发明的技术方案如下:
一种在垂直视角下基于深度学习的客流计数方法,包括以下步骤:
S1:在视频画面内绘制进出统计线;
S2:利用深度学习方法在当前画面内进行行人头肩检测;
S3:判断当前画面是否存在头肩,如果是则转到步骤S4;如果不是则转到步骤S2,对下一帧继续检测;
S4:将当前帧检测到的头肩与跟踪列表里的头肩进行匹配更新;
S5:判断跟踪目标起始点和终止点是否在进出线两侧,如果是则转到步骤S6;如果不是则转到步骤S2,对下一帧继续检测;
S6:更新进出的人数信息,接着转到步骤S2,对下一帧继续检测。
进一步地,所述步骤S1中当行人先经过进线再经过出线,表示离开状态,反之,当行人先经过出线再经过进线,表示进入状态。
进一步地,所述步骤S2中使用SSD深度学习检测方法,先在应用场景进行数据学习训练,接着对采集的视频的每一帧进行头肩检测:
其中N表示在多个深度卷积层匹配到的框的个数,如果N=0,设置损失函数L()为0,是一个指示器,表示类别p上第i个检测框与第j个真实框匹配;
定位损失Lloc使用的是预测框l与真实框g的L1范数损失:
置信度损失Lconf采用的是头肩与背景置信度c的softmax损失:
基于上述的损失函数训练出来的模型收敛后可用于行人的头肩检测,给模型输入一张图片后可得到图片中头肩框的坐标位置以及是否为头肩的置信度,接着对采集的视频的每一帧利用该模型进行行人头肩的检测,用深度学习的方法不需要对视频进行背景建模和前景提取,也不需要对前景进行行人切割,解决了对于环境复杂人员密集的场景前景难以提取的问题。
进一步地,所述步骤S4中将当前帧检测到的头肩与跟踪列表里的头肩进行匹配更新,
初始时跟踪列表为空,当检测到画面内有头肩信息时,将头肩信息加入到跟踪列表内,接着使用匈牙利算法对跟踪列表里的头肩与当前帧检测到头肩进行匹配,其中匈牙利算法首先利用距离进行限制,头肩之间质心距离超过一个肩部距离的直接不匹配,接着衡量头肩之间的匹配相似度采用深度卷积层的特征进行度量,将检测到的头肩位置映射回深度卷积层对应的位置,若基础网络是VGG则采用conv4_3层的特征,将头肩的深度卷积特征统一归一化到一个固定的尺寸使得两两之间利用L2范数求得一个匹配相似度:
其中L表示匹配相似度,flast跟踪列表的头肩在conv4_3层的特征,fnow表示当年帧检测到的头肩在conv4_3层的特征;
通过匈牙利算法的最优匹配原则将头肩之间匹配相似度最高的匹配上,剩下没有匹配上的再做下述步骤的处理;
1)如果跟踪列表里有头肩没有匹配上,先暂时保留,如果8帧之后仍旧没有匹配上则认为该跟踪目标已离开将它删除;
2)如果当前帧检测到的头肩没有匹配上,则认为它可能是新出现的跟踪目标,如果后续8帧有出现了5帧以上,则确认它为新出现的目标,将它加入跟踪列表,如果后续8帧该目标出现的次数小于2次,则认为它是噪声,将它删除。
进一步地,所述步骤步骤S5中跟踪目标初次进入画面捕获到的位置即为跟踪起始点,跟踪目标离开画面时跟踪结束,跟踪目标最后存在的位置即为跟踪终止点;采用的是对跟踪目标的跟踪起始点以及跟踪终止点进行判定,通过起始点与终止点与线的相对位置判定是否为一个有效的进入或者离开,避免工作人员在线的两侧徘徊影响计数的现象。
进一步地,所述步骤S6中更新进出的人数信息,根据上一步骤得到的当前帧的离开人数和进入人数更新当前***的总离开人数和进入人数,当前总离开人数等于当前帧的离开人数加上上一帧的总离开人数,当前总进入人数等于当前帧的进入人数加上上一帧的总进入人数,接着转到步骤S2,对下一帧继续检测。
与现有技术相比,本发明技术方案的有益效果是:
本发明是在垂直视角下进行人流统计,相比于斜拍视角,这个视角更容易应对商场、超市、地铁等公共场所人流很密集的情况;提出利用深度学习检测头肩,利用深度学习强大的学习能力,不需要对视频进行背景建模和前景提取,也不需要对前景进行行人切割,能够更精确更鲁棒地检测到头肩信息;进行匹配跟踪利用的是深度卷积特征,相对于HOG、LBP等手动设计的特征,深度卷积特征有更好的表达能力,能够更好的应对各种场景;本发明是直接将某一层的深度卷积特征拿来做匹配,避免了特征的重复计算,使得更加省时。
附图说明
图1为本发明的方法流程图;
图2为本发明自建数据集SYSUHS数据集示意图;
图3为本发明画线规则示意图;
图4为本发明匹配跟踪示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种在垂直视角下基于深度学习的客流计数方法,包含以下步骤:
步骤1:在视频画面内绘制进出统计线:
所绘制的进线与出线需尽可能靠近,且画绘制在画面中间的话会使得人流统计会更加准确。如图3所示,进去线为红色,离开线为绿色,他们都画在电梯通道口,且都画在画面的中心位置。
步骤2:利用深度学习方法在当前画面内进行头肩检测:
使用SSD深度学习检测方法,SSD是一个用于目标检测的框架,利用的是回归的思想直接在图像的多个位置回归出目标边框以及目标类别,并且它利用多个卷积层的特征去预测目标,能够高效并且准确的预测目标。我们预先准备了在商场录制的视频制作了一个数据集SYSUHS,总共有9个场景,总共标注了16万个头肩信息。在该数据集上进行学习训练,训练时采用以下的损失函数:
其中N表示在多个深度卷积层匹配到的框的个数,如果N=0,我们设置损失L()为0。是一个指示器,表示类别p上第i个检测框与第j个真实框匹配。
定位损失Lloc使用的是预测框l与真实框g的L1范数损失:
置信度损失Lconf采用的是头肩与背景置信度c的softmax损失:
基于上述的损失函数训练出来的模型收敛后可用于行人的头肩检测,给模型输入一张图片后可得到图片中头肩框的坐标位置以及是否为头肩的置信度。接着对采集的视频的每一帧利用该模型进行行人头肩的检测。用深度学习的方法不需要对视频进行背景建模和前景提取,也不需要对前景进行行人切割,解决了对于环境复杂人员密集的场景前景难以提取的问题。
步骤3:判断当前画面是否存在头肩。根据步骤2得到的检测结果做判定,如果当前视频画面检测出来的头肩框的个数不为0,则转到步骤4;如果为0则转到步骤2,对下一帧继续检测。
步骤4:将当前帧检测到的头肩与跟踪列表里的头肩进行匹配更新。
初始时跟踪列表为空,当检测到画面内有头肩信息时,将头肩信息加入到跟踪列表内。接着使用匈牙利算法对跟踪列表里的头肩与当前帧检测到头肩进行匹配,其中匈牙利算法首先利用距离进行限制,头肩之间质心距离超过一个肩部距离的直接不匹配。接着衡量头肩之间的匹配相似度采用深度卷积层的特征进行度量,将检测到的头肩位置映射回深度卷积层对应的位置,如果基础网络是VGG则可以采用conv4_3层的特征,将头肩的深度卷积特征统一归一化到一个固定的尺寸使得两两之间可以利用L2范数求得一个匹配相似度:
其中L表示匹配相似度,flast跟踪列表的头肩在conv4_3层的特征,fnow表示当年帧检测到的头肩在conv4_3层的特征。
通过匈牙利算法的最优匹配原则将头肩之间匹配相似度最高的匹配上,剩下没有匹配上的再做下面的处理。
1、如果跟踪列表里有头肩没有匹配上,先暂时保留,如果8帧之后仍旧没有匹配上则认为该跟踪目标已离开将它删除。
2、如果当前帧检测到的头肩没有匹配上,则认为它可能是新出现的跟踪目标,如果后续8帧有出现了5帧以上,则确认它为新出现的目标,将它加入跟踪列表。如果后续8帧该目标出现的次数小于2次,则认为它是噪声,将它删除。
步骤5:判断跟踪目标起始点和终止点是否在进出线两侧,如果是的话转到步骤6,如果不是的话转到步骤2,对下一帧继续检测。
跟踪目标初次进入画面捕获到的位置即为跟踪起始点。当跟踪目标离开画面时跟踪结束,跟踪目标最后存在的位置即为跟踪终止点。这里采用的是对跟踪目标的跟踪起始点以及跟踪终止点进行判定,通过起始点与终止点与线的相对位置判定是否为一个有效的进入或者离开,可以避免有些工作人员在线的两侧徘徊影响计数的现象。如图4所示,画面圆圈代表根据头肩检测找到的一个人,连接圆圈的是一条直线,直线的起点就是跟踪目标的起始点,圆圈的质心就是跟踪目标最新的位置,当跟踪目标离开画面时,此次跟踪结束,目标在画面最后出现的位置即为终止点,通过起始点终止点与线的相对位置即可判定结果并且更新进出的人流信息。
步骤6:更新进出的人数信息,根据上一步骤得到的当前帧的离开人数和进入人数更新当前***的总离开人数和进入人数,当前总离开人数等于当前帧的离开人数加上上一帧的总离开人数,当前总进入人数等于当前帧的进入人数加上上一帧的总进入人数。接着转到步骤2,对下一帧继续检测。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (6)
1.一种在垂直视角下基于深度学习的客流计数方法,其特征在于,包括以下步骤:
S1:在视频画面内绘制进出统计线;
S2:利用深度学习方法在当前画面内进行行人头肩检测;
S3:判断当前画面是否存在头肩,如果是则转到步骤S4;如果不是则转到步骤S2,对下一帧继续检测;
S4:将当前帧检测到的头肩与跟踪列表里的头肩进行匹配更新;
S5:判断跟踪目标起始点和终止点是否在进出线两侧,如果是则转到步骤S6;如果不是则转到步骤S2,对下一帧继续检测;
S6:更新进出的人数信息,接着转到步骤S2,对下一帧继续检测。
2.根据权利要求1所述的在垂直视角下基于深度学习的客流计数方法,其特征在于,所述步骤S1中当行人先经过进线再经过出线,表示离开状态,反之,当行人先经过出线再经过进线,表示进入状态。
3.根据权利要求2所述的在垂直视角下基于深度学习的客流计数方法,其特征在于,所述步骤S2中使用SSD深度学习检测方法,先在应用场景进行数据学习训练,接着对采集的视频的每一帧进行头肩检测:
<mrow>
<mi>L</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>c</mi>
<mo>,</mo>
<mi>l</mi>
<mo>,</mo>
<mi>g</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>N</mi>
</mfrac>
<mrow>
<mo>(</mo>
<msub>
<mi>L</mi>
<mrow>
<mi>c</mi>
<mi>o</mi>
<mi>n</mi>
<mi>f</mi>
</mrow>
</msub>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>c</mi>
</mrow>
<mo>)</mo>
<mo>+</mo>
<msub>
<mi>&alpha;L</mi>
<mrow>
<mi>l</mi>
<mi>o</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>l</mi>
<mo>,</mo>
<mi>g</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>...</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
其中N表示在多个深度卷积层匹配到的框的个数,如果N=0,设置损失函数L()为0,是一个指示器,表示类别p上第i个检测框与第j个真实框匹配;
定位损失Lloc使用的是预测框l与真实框g的L1范数损失:
<mrow>
<msub>
<mi>L</mi>
<mrow>
<mi>l</mi>
<mi>o</mi>
<mi>c</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>l</mi>
<mo>,</mo>
<mi>g</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>&Element;</mo>
<mi>P</mi>
<mi>o</mi>
<mi>s</mi>
</mrow>
<mi>N</mi>
</munderover>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>&Element;</mo>
<mo>{</mo>
<mi>c</mi>
<mi>x</mi>
<mo>,</mo>
<mi>c</mi>
<mi>y</mi>
<mo>,</mo>
<mi>w</mi>
<mo>,</mo>
<mi>h</mi>
<mo>}</mo>
</mrow>
</munder>
<msubsup>
<mi>x</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mi>k</mi>
</msubsup>
<msub>
<mi>smooth</mi>
<mrow>
<mi>L</mi>
<mn>1</mn>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>l</mi>
<mi>i</mi>
<mi>m</mi>
</msubsup>
<mo>-</mo>
<mover>
<msubsup>
<mi>g</mi>
<mi>j</mi>
<mi>m</mi>
</msubsup>
<mo>^</mo>
</mover>
<mo>)</mo>
</mrow>
<mn>...</mn>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
置信度损失Lconf采用的是头肩与背景置信度c的softmax损失:
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>L</mi>
<mrow>
<mi>c</mi>
<mi>o</mi>
<mi>n</mi>
<mi>f</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>c</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mo>-</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>&Element;</mo>
<mi>P</mi>
<mi>o</mi>
<mi>s</mi>
</mrow>
<mi>N</mi>
</munderover>
<msubsup>
<mi>x</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mi>p</mi>
</msubsup>
<mi>log</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mover>
<mi>c</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
<mi>p</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>&Element;</mo>
<mi>N</mi>
<mi>e</mi>
<mi>g</mi>
</mrow>
</munder>
<mi>log</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mover>
<mi>c</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
<mn>0</mn>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>w</mi>
<mi>h</mi>
<mi>e</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<msubsup>
<mover>
<mi>c</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
<mi>p</mi>
</msubsup>
<mo>=</mo>
<mfrac>
<mrow>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>c</mi>
<mi>i</mi>
<mi>p</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mo>&Sigma;</mo>
<mi>p</mi>
</msub>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>c</mi>
<mi>i</mi>
<mi>p</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
<mn>...</mn>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
基于上述的损失函数训练出来的模型收敛后可用于行人的头肩检测,给模型输入一张图片后可得到图片中头肩框的坐标位置以及是否为头肩的置信度,接着对采集的视频的每一帧利用该模型进行行人头肩的检测,用深度学习的方法不需要对视频进行背景建模和前景提取,也不需要对前景进行行人切割,解决了对于环境复杂人员密集的场景前景难以提取的问题。
4.根据权利要求3所述的在垂直视角下基于深度学习的客流计数方法,其特征在于,所述步骤S4中将当前帧检测到的头肩与跟踪列表里的头肩进行匹配更新,
初始时跟踪列表为空,当检测到画面内有头肩信息时,将头肩信息加入到跟踪列表内,接着使用匈牙利算法对跟踪列表里的头肩与当前帧检测到头肩进行匹配,其中匈牙利算法首先利用距离进行限制,头肩之间质心距离超过一个肩部距离的直接不匹配,接着衡量头肩之间的匹配相似度采用深度卷积层的特征进行度量,将检测到的头肩位置映射回深度卷积层对应的位置,若基础网络是VGG则采用conv4_3层的特征,将头肩的深度卷积特征统一归一化到一个固定的尺寸使得两两之间利用L2范数求得一个匹配相似度:
<mrow>
<mi>L</mi>
<mo>=</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>l</mi>
<mi>a</mi>
<mi>s</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>n</mi>
<mi>o</mi>
<mi>w</mi>
</mrow>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>2</mn>
<mn>2</mn>
</msubsup>
<mo>...</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
其中L表示匹配相似度,flast跟踪列表的头肩在conv4_3层的特征,fnow表示当年帧检测到的头肩在conv4_3层的特征;
通过匈牙利算法的最优匹配原则将头肩之间匹配相似度最高的匹配上,剩下没有匹配上的再做下述步骤的处理;
1)如果跟踪列表里有头肩没有匹配上,先暂时保留,如果8帧之后仍旧没有匹配上则认为该跟踪目标已离开将它删除;
2)如果当前帧检测到的头肩没有匹配上,则认为它可能是新出现的跟踪目标,如果后续8帧有出现了5帧以上,则确认它为新出现的目标,将它加入跟踪列表,如果后续8帧该目标出现的次数小于2次,则认为它是噪声,将它删除。
5.根据权利要求4所述的在垂直视角下基于深度学习的客流计数方法,其特征在于,所述步骤步骤S5中跟踪目标初次进入画面捕获到的位置即为跟踪起始点,跟踪目标离开画面时跟踪结束,跟踪目标最后存在的位置即为跟踪终止点;采用的是对跟踪目标的跟踪起始点以及跟踪终止点进行判定,通过起始点与终止点与线的相对位置判定是否为一个有效的进入或者离开,避免工作人员在线的两侧徘徊影响计数的现象。
6.根据权利要求5所述的在垂直视角下基于深度学习的客流计数方法,其特征在于,所述步骤S6中更新进出的人数信息,根据上一步骤得到的当前帧的离开人数和进入人数更新当前***的总离开人数和进入人数,当前总离开人数等于当前帧的离开人数加上上一帧的总离开人数,当前总进入人数等于当前帧的进入人数加上上一帧的总进入人数,接着转到步骤S2,对下一帧继续检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710139113.3A CN107103279B (zh) | 2017-03-09 | 2017-03-09 | 一种在垂直视角下基于深度学习的客流计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710139113.3A CN107103279B (zh) | 2017-03-09 | 2017-03-09 | 一种在垂直视角下基于深度学习的客流计数方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107103279A true CN107103279A (zh) | 2017-08-29 |
CN107103279B CN107103279B (zh) | 2020-06-05 |
Family
ID=59675331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710139113.3A Active CN107103279B (zh) | 2017-03-09 | 2017-03-09 | 一种在垂直视角下基于深度学习的客流计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107103279B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108154110A (zh) * | 2017-12-22 | 2018-06-12 | 任俊芬 | 一种基于深度学习人头检测的密集人流量统计方法 |
CN108171752A (zh) * | 2017-12-28 | 2018-06-15 | 成都阿普奇科技股份有限公司 | 一种基于深度学习的海面船只视频检测与跟踪方法 |
CN108205687A (zh) * | 2018-02-01 | 2018-06-26 | 通号通信信息集团有限公司 | 目标检测***中基于关注点机制定位损失计算方法及*** |
CN108647587A (zh) * | 2018-04-23 | 2018-10-12 | 腾讯科技(深圳)有限公司 | 人数统计方法、装置、终端及存储介质 |
CN109034036A (zh) * | 2018-07-19 | 2018-12-18 | 青岛伴星智能科技有限公司 | 一种视频分析方法、教学质量评估方法及***、计算机可读存储介质 |
CN109101929A (zh) * | 2018-08-16 | 2018-12-28 | 新智数字科技有限公司 | 一种行人计数方法及装置 |
CN109285376A (zh) * | 2018-08-09 | 2019-01-29 | 同济大学 | 一种基于深度学习的公交车客流统计分析*** |
CN109697392A (zh) * | 2017-10-23 | 2019-04-30 | 北京京东尚科信息技术有限公司 | 绘制目标对象热力图的方法及装置 |
CN110309825A (zh) * | 2018-03-20 | 2019-10-08 | 中国科学院深圳先进技术研究院 | 一种复杂背景下的维吾尔文检测方法、***及电子设备 |
CN110688924A (zh) * | 2019-09-19 | 2020-01-14 | 天津天地伟业机器人技术有限公司 | 一种基于rfcn的垂直单目客流量统计方法 |
US10832416B2 (en) | 2018-09-21 | 2020-11-10 | International Business Machines Corporation | Crowd flow rate estimation |
CN113112070A (zh) * | 2021-04-09 | 2021-07-13 | 南京邮电大学 | 一种基于智慧灯杆的景区客流调度方法 |
WO2021159898A1 (zh) * | 2020-02-12 | 2021-08-19 | 深圳壹账通智能科技有限公司 | 基于隐私保护的深度学习方法、***、服务器及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2030744A (en) * | 1978-07-21 | 1980-04-10 | Giken Trading Co | Method for counting the number of persons passing a given point |
CN101477626A (zh) * | 2009-01-16 | 2009-07-08 | 清华大学 | 一种在复杂场景的视频中进行人体头肩检测的方法 |
CN104318578A (zh) * | 2014-11-12 | 2015-01-28 | 苏州科达科技股份有限公司 | 一种视频图像分析方法及*** |
EP2923304A1 (en) * | 2012-11-21 | 2015-09-30 | Pelco, Inc. | Method and system for counting people using depth sensor |
CN105844234A (zh) * | 2016-03-21 | 2016-08-10 | 商汤集团有限公司 | 一种基于头肩检测的人数统计的方法及设备 |
-
2017
- 2017-03-09 CN CN201710139113.3A patent/CN107103279B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2030744A (en) * | 1978-07-21 | 1980-04-10 | Giken Trading Co | Method for counting the number of persons passing a given point |
CN101477626A (zh) * | 2009-01-16 | 2009-07-08 | 清华大学 | 一种在复杂场景的视频中进行人体头肩检测的方法 |
EP2923304A1 (en) * | 2012-11-21 | 2015-09-30 | Pelco, Inc. | Method and system for counting people using depth sensor |
CN104318578A (zh) * | 2014-11-12 | 2015-01-28 | 苏州科达科技股份有限公司 | 一种视频图像分析方法及*** |
CN105844234A (zh) * | 2016-03-21 | 2016-08-10 | 商汤集团有限公司 | 一种基于头肩检测的人数统计的方法及设备 |
Non-Patent Citations (1)
Title |
---|
WEI LIU ET AL.: "SSD: Single Shot MultiBox Detector", 《ARXIV》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697392A (zh) * | 2017-10-23 | 2019-04-30 | 北京京东尚科信息技术有限公司 | 绘制目标对象热力图的方法及装置 |
CN108154110A (zh) * | 2017-12-22 | 2018-06-12 | 任俊芬 | 一种基于深度学习人头检测的密集人流量统计方法 |
CN108154110B (zh) * | 2017-12-22 | 2022-01-11 | 任俊芬 | 一种基于深度学习人头检测的密集人流量统计方法 |
CN108171752A (zh) * | 2017-12-28 | 2018-06-15 | 成都阿普奇科技股份有限公司 | 一种基于深度学习的海面船只视频检测与跟踪方法 |
CN108205687A (zh) * | 2018-02-01 | 2018-06-26 | 通号通信信息集团有限公司 | 目标检测***中基于关注点机制定位损失计算方法及*** |
CN108205687B (zh) * | 2018-02-01 | 2022-04-01 | 通号通信信息集团有限公司 | 目标检测***中基于注意力机制定位损失计算方法及*** |
CN110309825A (zh) * | 2018-03-20 | 2019-10-08 | 中国科学院深圳先进技术研究院 | 一种复杂背景下的维吾尔文检测方法、***及电子设备 |
CN108647587B (zh) * | 2018-04-23 | 2021-08-24 | 腾讯科技(深圳)有限公司 | 人数统计方法、装置、终端及存储介质 |
CN108647587A (zh) * | 2018-04-23 | 2018-10-12 | 腾讯科技(深圳)有限公司 | 人数统计方法、装置、终端及存储介质 |
CN109034036A (zh) * | 2018-07-19 | 2018-12-18 | 青岛伴星智能科技有限公司 | 一种视频分析方法、教学质量评估方法及***、计算机可读存储介质 |
CN109034036B (zh) * | 2018-07-19 | 2020-09-01 | 青岛伴星智能科技有限公司 | 一种视频分析方法、教学质量评估方法及***、计算机可读存储介质 |
CN109285376A (zh) * | 2018-08-09 | 2019-01-29 | 同济大学 | 一种基于深度学习的公交车客流统计分析*** |
CN109285376B (zh) * | 2018-08-09 | 2022-04-19 | 同济大学 | 一种基于深度学习的公交车客流统计分析*** |
CN109101929A (zh) * | 2018-08-16 | 2018-12-28 | 新智数字科技有限公司 | 一种行人计数方法及装置 |
US10832416B2 (en) | 2018-09-21 | 2020-11-10 | International Business Machines Corporation | Crowd flow rate estimation |
CN110688924A (zh) * | 2019-09-19 | 2020-01-14 | 天津天地伟业机器人技术有限公司 | 一种基于rfcn的垂直单目客流量统计方法 |
WO2021159898A1 (zh) * | 2020-02-12 | 2021-08-19 | 深圳壹账通智能科技有限公司 | 基于隐私保护的深度学习方法、***、服务器及存储介质 |
CN113112070A (zh) * | 2021-04-09 | 2021-07-13 | 南京邮电大学 | 一种基于智慧灯杆的景区客流调度方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107103279B (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107103279A (zh) | 一种在垂直视角下基于深度学习的客流计数方法 | |
Singh et al. | Deep spatio-temporal representation for detection of road accidents using stacked autoencoder | |
CN107330396B (zh) | 一种基于多属性和多策略融合学习的行人再识别方法 | |
CN104933710B (zh) | 基于监控视频下的商店人流轨迹智能分析方法 | |
CN106203513B (zh) | 一种基于行人头肩多目标检测及跟踪的统计方法 | |
CN102332095B (zh) | 一种人脸运动跟踪方法和***以及一种增强现实方法 | |
Butenuth et al. | Integrating pedestrian simulation, tracking and event detection for crowd analysis | |
CN109101888A (zh) | 一种游客人流量监控预警方法 | |
Mukherjee et al. | Anovel framework for automatic passenger counting | |
WO2015131734A1 (zh) | 一种前视监视场景下的行人计数方法、装置和存储介质 | |
CN111191667B (zh) | 基于多尺度生成对抗网络的人群计数方法 | |
CN109902573A (zh) | 面向矿井下视频监控的多摄像机无标注行人重识别方法 | |
CN108198200A (zh) | 跨摄像头场景下指定行人在线跟踪方法 | |
CN104094279A (zh) | 大范围优先的跨摄像机视觉目标再识别方法 | |
CN101800890A (zh) | 一种高速公路监控场景下多车辆视频跟踪方法 | |
CN103984915A (zh) | 一种监控视频中行人重识别方法 | |
CN105893962A (zh) | 一种机场安检卡口人流统计方法 | |
CN104298969A (zh) | 基于颜色与haar特征融合的人群规模统计方法 | |
CN109583315A (zh) | 一种面向智能视频监控的多通道快速人体姿态识别方法 | |
CN109583366B (zh) | 一种基于视频图像和WiFi定位的体育建筑疏散人群轨迹生成方法 | |
CN103824114B (zh) | 一种基于截面流量统计的行人流量计数方法和*** | |
CN106203276A (zh) | 一种视频客流统计***及客流统计方法 | |
CN109558790B (zh) | 一种行人目标检测方法、装置及*** | |
CN110378233A (zh) | 一种基于人群行为先验知识的双分支异常检测方法 | |
CN104599291B (zh) | 基于结构相似度和显著性分析的红外运动目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |