CN108804992A - 一种基于深度学习的人群统计方法 - Google Patents
一种基于深度学习的人群统计方法 Download PDFInfo
- Publication number
- CN108804992A CN108804992A CN201710318219.XA CN201710318219A CN108804992A CN 108804992 A CN108804992 A CN 108804992A CN 201710318219 A CN201710318219 A CN 201710318219A CN 108804992 A CN108804992 A CN 108804992A
- Authority
- CN
- China
- Prior art keywords
- deep learning
- human
- demographics
- region
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000013135 deep learning Methods 0.000 title claims abstract description 23
- 230000000007 visual effect Effects 0.000 claims abstract description 12
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 11
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 238000012360 testing method Methods 0.000 claims abstract description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 9
- 238000012417 linear regression Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 210000000746 body region Anatomy 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000010339 dilation Effects 0.000 claims description 4
- 230000003628 erosive effect Effects 0.000 claims description 4
- 238000002474 experimental method Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 abstract description 6
- 238000009434 installation Methods 0.000 abstract description 4
- 230000001629 suppression Effects 0.000 abstract description 3
- 230000000694 effects Effects 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000036624 brainpower Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000000392 somatic effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本方法公开了一种基于深度学习的人群统计方法,该方法通过对视频提取运动前景,使用人体区域模型保证摄像头视角和透视不变性,通过预处理、提取、检测,最终确定人体区域统计人数。该方法不仅可以减少滑动窗口搜索区域提高搜索效率,也克服了监控视频由于视角、距监控场景距离等原因引起的形变且***安装部署简单,基于深度学习卷积神经网络的检测模型提高人体检测准确率,使用非极大值抑制方法排除冗余子区域减少重复计数,使得检测人体,定位人体和统计人群数量的结果更加精确。
Description
所属技术领域
本方法属于视频智能监控领域,具体涉及一种基于深度学习的人群统计方法。
背景技术
随着视频监控***的普及,摄像头已遍布城市各个角落。首先,面对如此海量的摄像头和监控视频,使用人工方式去甄别监控场景中的人群行为和属性是不现实的。其次,面对雨天、雪天、夜景或者人群超密集等复杂场景,单纯凭借肉眼来识别其中的人尚且困难,更不用说统计其中人数。
目前,应用于视频监控***的人群统计方法主要分为三类:第一类利用检测器在图像中滑动逐个判定并统计人体;第二类对图像提取人群运动轨迹特征并聚类,聚类结果为人群计数结果;第三类利用统计学方法估计人群的分布以计算人群的密度,计算得到人群数量。然而以上几种方法均采用手工提取特征的方式,不适用于较复杂场景,要么未引入透视和观察角度不变性使得方法不能处理由于视角和透视原因引起的物体形变,不能很好适用于视野开阔的场景,要么采用了解决透视和观察角度不变性的方法但精确度过于依赖用户手动测量摄像头拍摄角度、观测距离等参数,使得***的安装配置复杂化。而单纯采用检测器处理图像则取决于检测器的好坏,且采用滑动窗口对全图进行遍历计算量巨大,实时性难以保证。
发明内容
本发明提供一种方法,不但可以最大限度减少滑动窗口的搜索区域来提高检测效率和降低复杂场景对人体检测的干扰,而且只需简单配置即可实现透视和观察角度不变性。
为了达到上述目的,本发明提出的一种基于深度学习的人群统计方法包括以下步骤:
步骤1,采用灰度世界算法对预处理图像进行白平衡预处理;
步骤2,采用K近邻算法的背景分割方法提取预处理后的图像;
步骤3,采用保证视角和透视不变性的方法遍历提取出的图像像素,将其坐标(x,y)输入训练好的线性模型得到人体区域的尺寸;
步骤4,采用卷积神经网络作为人体,检测模型;
步骤5,统计最终人体数量。
进一步地,步骤1所述灰度世界算法对图像进行白平衡预处理,进一步包括以下步骤:
1)对预处理图像三个通道取平均值;
2)求取各个通道的增益并将增益值叠加到原图;
3)对结果做规划处理;
公式如下:
Iout=(Rnew,Gnew,Bnew)
其中MR、MG、MB分别表示输入图像R、G、B三个通道的均值,α则表示三个通道的全局均值,K表示各个通道的增益值,Rnew、Gnew、Bnew表示叠加增益后三通道,Iout表示经过增益叠加后的图像;对于上式处理,可能会存在溢出(>255,不会出现小于0的)现象,实验表明若直接将>255像素设置为255可能会造成图像整体偏白,因此采用计算所有Rnew、Gnew、Bnew的最大值,然后利用该最大值将将计算后数据重新线性映射到[0,255]内。所述图像经过白平衡预处理会自动均衡像素的灰度值。
进一步地,其中步骤2所述提取图像采用K近邻算法的背景分割方法,遍历输入图像的每个像素,寻找该像素某个邻域内与之距离最近的K个像素点,对这些点的所属类别进行多数表决,确定当前像素的类别;分类决策规则如下:
其中I(·)为指示函数,即当yi=cj时函数去1,否则0。
进一步地,对步骤2中所述提取预处理后的图像进行膨胀腐蚀运算。
进一步地,其中步骤3所述采用保证视角和透视不变性的方法遍历前景区域每个像素,以像素坐标(x,y)作为子区域中心,将像素坐标(x,y)输入训练好的线性模型得到人体区域的尺寸;人体区域尺寸的计算公式如下:
w=θ0+θ1·x+θ2·y
h=ω0+ω1·x+ω2·y
其中w,h分别表示在坐标(x,y)的人体区域的宽和高;θ,ω分别代表求人体区域宽和高的线性模型的权重,θi和ωi是可学习的权重,通过从检测场景中手动截取人体区域并使用线性回归算法训练得到。
进一步地,在步骤4中将从原图截取经计算后的所有人体区域子图像输入卷积神经网络判断是否为人体。所述的人体尺寸计算是基于线性回归的人体区域模型。将所有被判定存在人体的区域按照网络输出值即判定为人体的置信度排序,将置信度最高的区域作为标准,去掉超过某个设定阈值的所有区域;公式如下:
其中,Sover表示参与判定的两个区域的重叠部分的面积;S表示参与判定的两个区域面积的总和;将f(o)为0的区域去除,剩下的区域为最终结果。
更进一步地,步骤4所述的卷积神经网络作为人体检测模型,其网络结构参考caffe深度学习框架中cifar10网络,对网络各层的参数进行了简化。
因为本发明采用以上技术方案,所以具备以下有益效果:
本方法公开了一种基于深度学习的人群统计方法,该方法通过对视频提取运动前景,使用人体区域模型保证摄像头视角和透视不变性,通过预处理、提取、检测,最终确定人体区域统计人数。该方法不仅可以减少滑动窗口搜索区域提高搜索效率,也克服了监控视频由于视角、距监控场景距离等原因引起的形变且***安装部署简单,基于深度学习卷积神经网络的检测模型提高人体检测准确率,使用非极大值抑制方法排除冗余子区域减少重复计数,使得检测人体,定位人体和统计人群数量的结果更加精确。
附图说明
图1为人数统计方法流程图;
图2为人体区域模型训练流程图;
图3为人体检测模型训练流程图;
图4为人体检测卷积神经网络结构图。
具体实施方式
下面结合附图和实施例对本发明做进一步说明。
如图1-3所示,一种基于深度学习的人群统计方法,包括以下步骤:
步骤1,采用灰度世界算法对预处理图像进行白平衡预处理;
进一步地,所述灰度世界算法的白平衡预处理方法分别先对预处理图像三个通道取平均值,然后求取各个通道的增益并将增益值叠加到原图,最后对结果做规划处理。经过白平衡处理的图像会自动均衡像素的灰度值,防止图像整体偏亮或偏暗,在一定程度上去除光照的干扰。
公式如下:
Iout=(Rnew,Gnew,Bnew)
其中MR、MG、ME分别表示输入图像R、G、B三个通道的均值,α则表示三个通道的全局均值,K表示各个通道的增益值,Rnew、Gnew、Bnew表示叠加增益后三通道,Iout表示经过增益叠加后的图像。对于上式处理,可能会存在溢出(>255,不会出现小于0的)现象,实验表明若直接将>255像素设置为255可能会造成图像整体偏白,因此采用计算所有Rnew、Gnew、Bnew的最大值,然后利用该最大值将将计算后数据重新线性映射到[0,255]内。
步骤2,采用K近邻算法的背景分割方法提取预处理后的图像;
进一步地,所述基于K近邻(KNN)算法的视频运动前景提取技术,遍历输入图像的每个像素,寻找该像素某个邻域内与之距离最近的K个像素点,对这些点的所属类别进行多数表决,确定当前像素的类别,并更新背景。将视频的每一帧化分为背景或前景;分类决策规则如下:
其中I(·)为指示函数,即当yi=cj时函数去1,否则0。
进一步地,对提取的运动前景进行膨胀腐蚀运算,用以消除噪声,得到最终前景区域。
膨胀是将与物体接触的所有背景点合并到该物体中,使边界向外部扩张的过程。如使用3x3的结构元素即膨胀运算模板。扫描图像的每一个像素用结构元素与其覆盖的二值图像做“或”操作,如果都为0,结果图像的该像素为0,否则为1。结果使二值图像扩大一圈。
腐蚀是一种消除边界点,使边界向内部收缩的过程。可以用来消除小且无意义的物体。比如用3x3的腐蚀运算模板。扫描图像的每一个像素用结构元素与其覆盖的二值图像做“与”操作,如果都为1,结果图像的该像素为1,否则为0。结果使二值图像减小一圈。
步骤3,采用保证视角和透视不变性的方法遍历提取出的图像像素,将其坐标(x,y)输入训练好的线性模型得到人体区域的尺寸;
进一步地,使用滑动窗口方法遍历前景区域每个像素,然后遍历的每一个像素点坐标(x,y)输入人体区域模型,得到人体区域尺寸,采用保证视角和透视不变性,使用线性回归模型,建立固定场景图像像素空间坐标与人体区域尺寸的关系。训练前,从场景中手动截取各个位置上的人体区域,尽可能覆盖由远及近的所有坐标。然后使用线性回归训练模型,得到人体区域模型。公式如下:
其中公式(1)为目标函数,hθ(x)表示对目标问题的线性估计函数,y表示目标问题的真实取值;公式(2)是权重更新函数,θ表示线性模型的权重,α表示学习率。
将Iout截取子图像输入训练好的线性人体模型,判断是否是人体。具体是以每个遍历的像素坐标(x,y)作为子区域中心,从Iout截取子图像作为待检测图像。人体区域尺寸的计算公式如下:
w=θ0+θ1·x+θ2·y
h=ω0+ω1·x+ω2·y
其中w,h分别表示在坐标(x,y)的人体区域的宽和高。θ,ω分别代表求人体区域宽和高的线性模型的权重,θi和ωi是可学习的权重,通过从检测场景中手动截取人体区域并使用线性回归算法训练得到。由于物体远近与大小透视关系是一种线性关系,所以人体尺寸计算是基于线性回归的人体区域模型。使用机器学习方法保证视角和透视不变性,使得无论安装部署***,还是改变摄像头拍摄角度、拍摄距离之后重新校正***都更简单。
步骤4,采用卷积神经网络作为人体检测模型;
卷积神经网络作为人体检测模型其网络结构参考caffe深度学习框架中cifar10网络,对网络各层的参数进行了简化。基于深度学习的卷积神经网络模型,在训练过程中,首先从大量的监控视频即人体数据库中采集人体样本,最终获得具有1600正样本及1600负样本的人体样本数据库,以此数据库作为训练样本网络,得到人体检测模型。
如图4所示的卷积神经网络的结构,其中含有两个卷积层(convolution),两个最大值池化层(max pooling),两个局部归一化层(local response normalization),两个全连接层(full connection),一个softmax分类器。卷积层的作用是进行特征提取;池化层对输入的特征图进行压缩,并减少特征的尺度以获取更具有归纳性的特征;局部归一化层作用类似于激活层,作用是归一化输入特征以便加速训练;全连接层作用对输入特征进行总结并将其映射到特定的高位空间以便分类;softmax层则是为了对特征向量进行分类。在人体检测卷积网络模型中,模型的输入为具有3通道的24*24图像,经过第一个卷积层Conv1及激活函数层Relu1得到16通道的24*24的特征图,然后经过池化层Max Pooling1采样后得到16通道12*12的特征图,接着经过局部归一化层特征图保持尺寸不变,之后分别再依次输入卷积层Conv2,激活函数层Relu2,局部归一化层及池化层Max Pooling2得到16通道尺寸为6*6的特征图,最后经过两个全连接层和一个softmax分类器将特征图变换为一个2维特征向量。这样一个具有3通道的24*24的输入图像经过卷积网络被归纳为2个类别,人体或非人体。
步骤5,统计最终人体数量。
进一步地,对步骤4中所有判断为人体的子区域采用非极大值抑制算法,去除冗余区域。将所有被判定存在人体的区域按照网络输出值即判定为人体的置信度排序,然后将置信度最高的区域作为标准,去掉超过某个设定阈值的所有区域。公式如下:
其中,Sover表示参与判定的两个区域的重叠部分的面积;S表示参与判定的两个区域面积的总和;o表示面积重叠部分占全部区域的比例。将f(o)为0的区域去除,剩下的区域为最终结果。根据实验,σ=0.2时方法取得最佳效果。
Claims (10)
1.一种基于深度学习的人群统计方法,其特征在于,包括以下步骤:
步骤1,采用灰度世界算法对预处理图像进行白平衡预处理;
步骤2,采用K近邻算法的背景分割方法提取预处理后的图像;
步骤3,采用保证视角和透视不变性的方法遍历提取出的图像像素,将其坐标(x,y)输入训练好的线性模型得到人体区域的尺寸;
步骤4,采用卷积神经网络作为人体检测模型;
步骤5,统计最终人体数量。
2.根据权利要求1所述的一种基于深度学***衡预处理,进一步包括以下步骤:
1)对预处理图像三个通道取平均值;
2)求取各个通道的增益并将增益值叠加到原图;
3)对结果做规划处理;
公式如下:
lout=(Rnew,Gnew,Bnew)
其中MR、MG、MB分别表示输入图像R、G、B三个通道的均值,α则表示三个通道的全局均值,K表示各个通道的增益值,Rnew、Gnew、Bnew表示叠加增益后三通道,Iout表示经过增益叠加后的图像;对于上式处理,可能会存在溢出(>255,不会出现小于0的)现象,实验表明若直接将>255像素设置为255可能会造成图像整体偏白,因此采用计算所有Rnew、Gnew、Bnew的最大值,然后利用该最大值将将计算后数据重新线性映射到[0,255]内。
3.根据权利要求1或2所述的一种基于深度学***衡预处理会自动均衡像素的灰度值。
4.根据权利要求1所述的一种基于深度学习的人群统计方法,其特征在于:其中步骤2所述提取图像采用K近邻算法的背景分割方法,遍历输入图像的每个像素,寻找该像素某个邻域内与之距离最近的K个像素点,对这些点的所属类别进行多数表决,确定当前像素的类别;分类决策规则如下:
其中I(·)为指示函数,即当yi=cj时函数去1,否则0。
5.根据权利要求1或4所述的一种基于深度学习的人群统计方法,其特征在于:对步骤2中所述提取预处理后的图像进行膨胀腐蚀运算。
6.根据权利要求1所述的一种基于深度学习的人群统计方法,其特征在于:其中步骤3所述采用保证视角和透视不变性的方法遍历前景区域每个像素,以像素坐标(x,y)作为子区域中心,将像素坐标(x,y)输入训练好的线性模型得到人体区域的尺寸;人体区域尺寸的计算公式如下:
w=θ0+θ1·x+θ2·y
h=ω0+ω1·x+ω2·y
其中w,h分别表示在坐标(x,y)的人体区域的宽和高;θ,ω分别代表求人体区域宽和高的线性模型的权重,θi和ωi是可学习的权重,通过从检测场景中手动截取人体区域并使用线性回归算法训练得到。
7.根据权利要求1所述的一种基于深度学习的人群统计方法,其特征在于:在步骤4中将从原图截取经计算后的所有人体区域子图像输入卷积神经网络判断是否为人体。
8.根据权利要求7所述的一种基于深度学习的人群统计方法,其特征在于:将所有被判定存在人体的区域按照网络输出值即判定为人体的置信度排序,将置信度最高的区域作为标准,去掉超过某个设定阈值的所有区域;公式如下:
其中,Sover表示参与判定的两个区域的重叠部分的面积;S表示参与判定的两个区域面积的总和;将f(o)为0的区域去除,剩下的区域为最终结果。
9.根据权利要求1所述的一种基于深度学习的人群统计方法,其特征在于:步骤4所述的卷积神经网络作为人体检测模型,其网络结构参考caffe深度学习框架中cifar10网络,对网络各层的参数进行了简化。
10.根据权利要求1所述的一种基于深度学习的人群统计方法,其特征在于:所述的人体尺寸计算是基于线性回归的人体区域模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710318219.XA CN108804992B (zh) | 2017-05-08 | 2017-05-08 | 一种基于深度学习的人群统计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710318219.XA CN108804992B (zh) | 2017-05-08 | 2017-05-08 | 一种基于深度学习的人群统计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108804992A true CN108804992A (zh) | 2018-11-13 |
CN108804992B CN108804992B (zh) | 2022-08-26 |
Family
ID=64094203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710318219.XA Expired - Fee Related CN108804992B (zh) | 2017-05-08 | 2017-05-08 | 一种基于深度学习的人群统计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108804992B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110276779A (zh) * | 2019-06-04 | 2019-09-24 | 华东师范大学 | 一种基于前后景分割的密集人群图像生成方法 |
CN110562810A (zh) * | 2019-08-01 | 2019-12-13 | 珠海格力电器股份有限公司 | 电梯调度方法、装置、计算机设备和存储介质 |
CN111882555A (zh) * | 2020-08-07 | 2020-11-03 | 中国农业大学 | 基于深度学习的网衣检测方法、装置、设备及存储介质 |
CN114926467A (zh) * | 2022-07-22 | 2022-08-19 | 新恒汇电子股份有限公司 | 全自动引线框架计数方法及装置 |
WO2022179542A1 (zh) * | 2021-02-26 | 2022-09-01 | 腾讯科技(深圳)有限公司 | 群体数量确定方法、装置、设备、存储介质及程序产品 |
CN116385969A (zh) * | 2023-04-07 | 2023-07-04 | 暨南大学 | 基于多摄像头协同和人类反馈的人员聚集检测*** |
CN116805337A (zh) * | 2023-08-25 | 2023-09-26 | 天津师范大学 | 一种基于跨尺度视觉变换网络的人群定位方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101211411A (zh) * | 2007-12-21 | 2008-07-02 | 北京中星微电子有限公司 | 一种人体检测的方法和装置 |
CN102521582A (zh) * | 2011-12-28 | 2012-06-27 | 浙江大学 | 一种适用于低对比度视频的人体上半身检测及分割的方法 |
CN103049788A (zh) * | 2012-12-24 | 2013-04-17 | 南京航空航天大学 | 基于计算机视觉的待过行人数目的检测***及方法 |
CN103051905A (zh) * | 2011-10-12 | 2013-04-17 | 苹果公司 | 使用噪声优化的选择标准计算场景白点 |
CN103226701A (zh) * | 2013-04-24 | 2013-07-31 | 天津大学 | 一种视频语义事件建模方法 |
CN105160313A (zh) * | 2014-09-15 | 2015-12-16 | 中国科学院重庆绿色智能技术研究院 | 视频监控中人群行为分析的方法及装置 |
CN106027787A (zh) * | 2016-06-15 | 2016-10-12 | 维沃移动通信有限公司 | 一种移动终端的白平衡方法及移动终端 |
US20160315682A1 (en) * | 2015-04-24 | 2016-10-27 | The Royal Institution For The Advancement Of Learning / Mcgill University | Methods and systems for wireless crowd counting |
-
2017
- 2017-05-08 CN CN201710318219.XA patent/CN108804992B/zh not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101211411A (zh) * | 2007-12-21 | 2008-07-02 | 北京中星微电子有限公司 | 一种人体检测的方法和装置 |
CN103051905A (zh) * | 2011-10-12 | 2013-04-17 | 苹果公司 | 使用噪声优化的选择标准计算场景白点 |
CN102521582A (zh) * | 2011-12-28 | 2012-06-27 | 浙江大学 | 一种适用于低对比度视频的人体上半身检测及分割的方法 |
CN103049788A (zh) * | 2012-12-24 | 2013-04-17 | 南京航空航天大学 | 基于计算机视觉的待过行人数目的检测***及方法 |
CN103226701A (zh) * | 2013-04-24 | 2013-07-31 | 天津大学 | 一种视频语义事件建模方法 |
CN105160313A (zh) * | 2014-09-15 | 2015-12-16 | 中国科学院重庆绿色智能技术研究院 | 视频监控中人群行为分析的方法及装置 |
US20160315682A1 (en) * | 2015-04-24 | 2016-10-27 | The Royal Institution For The Advancement Of Learning / Mcgill University | Methods and systems for wireless crowd counting |
CN106027787A (zh) * | 2016-06-15 | 2016-10-12 | 维沃移动通信有限公司 | 一种移动终端的白平衡方法及移动终端 |
Non-Patent Citations (1)
Title |
---|
马海军: ""基于卷积神经网络的监控视频人数统计算法"", 《安徽大学学报》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110276779A (zh) * | 2019-06-04 | 2019-09-24 | 华东师范大学 | 一种基于前后景分割的密集人群图像生成方法 |
CN110562810A (zh) * | 2019-08-01 | 2019-12-13 | 珠海格力电器股份有限公司 | 电梯调度方法、装置、计算机设备和存储介质 |
CN111882555A (zh) * | 2020-08-07 | 2020-11-03 | 中国农业大学 | 基于深度学习的网衣检测方法、装置、设备及存储介质 |
CN111882555B (zh) * | 2020-08-07 | 2024-03-12 | 中国农业大学 | 基于深度学习的网衣检测方法、装置、设备及存储介质 |
WO2022179542A1 (zh) * | 2021-02-26 | 2022-09-01 | 腾讯科技(深圳)有限公司 | 群体数量确定方法、装置、设备、存储介质及程序产品 |
CN114926467A (zh) * | 2022-07-22 | 2022-08-19 | 新恒汇电子股份有限公司 | 全自动引线框架计数方法及装置 |
CN116385969A (zh) * | 2023-04-07 | 2023-07-04 | 暨南大学 | 基于多摄像头协同和人类反馈的人员聚集检测*** |
CN116385969B (zh) * | 2023-04-07 | 2024-03-12 | 暨南大学 | 基于多摄像头协同和人类反馈的人员聚集检测*** |
CN116805337A (zh) * | 2023-08-25 | 2023-09-26 | 天津师范大学 | 一种基于跨尺度视觉变换网络的人群定位方法 |
CN116805337B (zh) * | 2023-08-25 | 2023-10-27 | 天津师范大学 | 一种基于跨尺度视觉变换网络的人群定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108804992B (zh) | 2022-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108804992A (zh) | 一种基于深度学习的人群统计方法 | |
CN107833220B (zh) | 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法 | |
CN105678811B (zh) | 一种基于运动检测的人体异常行为检测方法 | |
WO2019101221A1 (zh) | 一种基于场景多维特征的船只检测方法及*** | |
CN108764085B (zh) | 基于生成对抗网络的人群计数方法 | |
CN103971386B (zh) | 一种动态背景场景下的前景检测方法 | |
CN108319949A (zh) | 一种高分辨率遥感图像中多朝向舰船目标检测与识别方法 | |
CN104077605B (zh) | 一种基于颜色拓扑结构的行人搜索识别方法 | |
CN104978567B (zh) | 基于场景分类的车辆检测方法 | |
CN109919053A (zh) | 一种基于监控视频的深度学习车辆停车检测方法 | |
CN108960404B (zh) | 一种基于图像的人群计数方法及设备 | |
CN106991686B (zh) | 一种基于超像素光流场的水平集轮廓跟踪方法 | |
CN106127812B (zh) | 一种基于视频监控的客运站非出入口区域的客流统计方法 | |
CN111383244B (zh) | 一种目标检测跟踪方法 | |
CN111340881B (zh) | 一种动态场景下基于语义分割的直接法视觉定位方法 | |
CN104077776B (zh) | 一种基于颜色空间自适应更新的视觉背景提取方法 | |
CN110827304B (zh) | 一种基于深度卷积网络与水平集方法的中医舌像定位方法和*** | |
CN109871875A (zh) | 一种基于深度学习的建筑物变化检测方法 | |
CN107590427A (zh) | 基于时空兴趣点降噪的监控视频异常事件检测方法 | |
Lian et al. | A novel method on moving-objects detection based on background subtraction and three frames differencing | |
CN110633671A (zh) | 基于深度图像的公交车客流实时统计方法 | |
CN106529432A (zh) | 一种深度融合显著性检测与先验知识的手部区域分割方法 | |
CN109754440A (zh) | 一种基于全卷积网络和均值漂移的阴影区域检测方法 | |
CN107123130A (zh) | 一种基于超像素和混合哈希的核相关滤波目标跟踪方法 | |
Wang et al. | Background extraction based on joint gaussian conditional random fields |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220826 |
|
CF01 | Termination of patent right due to non-payment of annual fee |