CN110276264B - 一种基于前景分割图的人群密度估计方法 - Google Patents

一种基于前景分割图的人群密度估计方法 Download PDF

Info

Publication number
CN110276264B
CN110276264B CN201910446452.5A CN201910446452A CN110276264B CN 110276264 B CN110276264 B CN 110276264B CN 201910446452 A CN201910446452 A CN 201910446452A CN 110276264 B CN110276264 B CN 110276264B
Authority
CN
China
Prior art keywords
crowd
segmentation
graph
network
crowd density
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910446452.5A
Other languages
English (en)
Other versions
CN110276264A (zh
Inventor
徐浩
夏思宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201910446452.5A priority Critical patent/CN110276264B/zh
Publication of CN110276264A publication Critical patent/CN110276264A/zh
Application granted granted Critical
Publication of CN110276264B publication Critical patent/CN110276264B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于前景分割图的人群密度估计方法,该方法包含以下步骤:标注每张图的人头获得点标记图;基于点标记图利用高斯平滑方法得到人群密度图;基于密度图利用阈值分割的方法获得人群前景分割图;分别设计用于图像特征提取的神经网络,用于人群密度回归的神经网络分支,和用于人群前景分割的神经网络分支,最后将两个网络分支的输出融合得到最终输出;制作训练集,训练模型;利用训练好的模型测试输入图像得到人群密度估计结果。本发明方法无需额外的标记信息就可以让神经网络学习到前景分割信息,利用该方法可以有效的避免复杂背景的误检问题。

Description

一种基于前景分割图的人群密度估计方法
技术领域
本发明属于计算机视觉、图像处理领域,尤其涉及一种基于前景分割图的人群密度估计方法。
背景技术
给定一张图片利用计算机视觉技术检测出图像中的人群总数和人群空间分布,这就是人群密度估计任务。现有的人群密度的估计方法主要有基于目标检测的行人检测,头肩检测方法和基于密度图回归两种方式。基于目标检测的方法将人群密度估计转换为行人检测问题,最后对检测到的目标进行统计得到最终的人数。这类方法对于稀疏人群的检测效果较好,对于高密度区域,由于遮挡,尺度等因素,检测准确率会急剧下降。基于密度图回归的方法将图像区块看成整体直接通过局部图像特征回归出该区域的人数,这类方法可以有效的解决目标遮挡、尺度过小等问题,对于高密度人群图像的回归精度较高,存在问题是对于稀疏人群效果较差,容易造成背景误检,无法获得具体目标的位置。
基于单张图的密度图回归方法是目前采用比较多的算法,然而却存在较多的复杂背景误检问题,这在实际应用场景中是必须要避免的,本发明提出一种新的基于前景分割图的人群密度估计方法,可以有效的抑制背景误检问题,不仅可以提高算法的稳定性,还可以提升算法精度。
发明内容
发明目的:针对以上问题,本发明提出一种基于前景分割图的人群密度估计方法,该方法可以同时预测前景分割图和人群密度图,最后将两者融合可以有效的去除背景的误检。
技术方案:为实现本发明的目的,本发明提出一种基于前景分割图的人群密度估计方法,该方法包括以下步骤:
步骤1:标注每张包含人群的图像中的人头获得点标记图;
步骤2:基于点标记图利用高斯平滑方法得到人群密度图;
步骤3:基于人群密度图利用阈值分割的方法获得人群前景分割图;
步骤4:分别设计用于图像特征提取的神经网络(骨干网络),用于人群密度回归的神经网络分支(回归网络分支),和用于人群前景分割的神经网络分支(前景分割网络分支),图像先输入到骨干网络得到图像特征;然后,图像特征同时输入到回归网络和前景分割网络分支分别得到人群密度图和人群前景分割图,最后将两个网络分支的输出融合得到最终输出;
步骤5:利用步骤1-3的方法制作数据集,训练网络模型;
步骤6:利用训练好的模型测试输入图像得到人群密度估计结果。
进一步,所述步骤1中包含如下内容:
对训练集每张人群图片进行标记,标记为点标记,即在每个人头上标记一个点,表示一个人。获得点标记图,点标记图为一个通道数为1的灰度图,其大小与人群图片大小一致,在有人头的位置数值为1,其他为0。
进一步,所述步骤2中包含如下内容:
确定高斯核大小:观察数据集的人头大小分布情况,确定高斯滤波核的大小,高斯核的最佳大小与人头大小一致。
进行高斯核卷积:对步骤1得到的点标记图进行卷积操作,得到人群密度图,网络训练时,作为整个网络最终输出的学习目标。参考图2所示人群密度越高的地方颜色越亮,这里人群密度图的灰度值代表了人群密度。
进一步,所述步骤3中包含如下内容:
确定密度图分割阈值:根据人群密度图的分布情况确定分割阈值;通过分析步骤2中得到的人群密度图可以明显看出人群区域大致位于人群密度图中像素值高于一定阈值的区域,因此可以选取一个阈值对人群密度图进行阈值分割,得到人群前景分割图。
获得人群前景分割图:利用选取的阈值对步骤2中得到的人群密度图进行阈值分割,人群密度图中像素值大于该阈值的位置属于前景区域,将前景分割图中相应位置的值设置为1,小于该阈值的位置属于背景区域,将前景分割图中相应位置的值设置为0,得到人群的前景分割图,网络训练时,作为前景分割网络分支的学习目标。
进一步,所述步骤4中包含如下内容:
骨干网络:采用VGG16网络前10层,包含3层最大池化层和7层卷积层,每层卷积核大小均为3。骨干网络的参数用Θbkd来表示。
回归网络分支:采用堆叠的空洞卷积层设计,堆叠层数为6,空洞卷积层膨胀率均为2,卷积核大小为3。回归网络分支的参数用Θreg来表示。
前景分割网络分支:采用堆叠的空洞卷积设计,堆叠层数为3,空洞卷积层的膨胀率为2,卷积核大小为3。分割网络分支参数用Θseg来表示。
整体结构:将一张包含人群的原始图像先输入到骨干网络得到图像特征,然后,图像特征同时输入到回归网络和前景分割网络分支分别得到人群密度图和人群前景分割图,最后将两个网络分支的结果进行融合得到最终的模型输出结果,即人群密度估计结果。融合为掩膜操作,如下式所示:
Dfinal(x)=Dmask(x,Θsegbkd)*Dreg(x,Θregbkd)
其中,x表示输入图像数据,Dmask(x,Θsegbkd)表示人群前景分割网络分支输出结果,Dreg(x,Θregbkd)表示回归网络分支输出结果,Dfinal(x)表示模型最终输出结果。
进一步,所述步骤5中包含如下内容:
利用步骤1-3中的方法获得数据集,利用数据集训练步骤4中设计的神经网络模型,训练方法采用SGD算法。
参考图2,数据集的制作过程可以描述为如下过程:
首先,人群图像集中的所有图片按步骤1获得其对应的点标记图。然后,对其中的每一张包含人群的图像xi以及其对应点标记图进行如下的过程:
(1)根据数据集人头的整体大小分布确定高斯核的大小σ;
(2)根据σ计算归一化高斯核;
(3)利用高斯核对点标记图进行卷积,得到人群密度图Dgt(xi);
(4)对过程(3)得到的人群密度分布图进行阈值处理可以得到人群前景分割图Sgt(xi)。
模型训练过程如下:
损失函数设计。损失函数包含两部分:最终的模型输出结果与由点标记图生成的人群密度图之间的最小均方误差损失(MSE,Mean Square Error)如式(1)所示;前景分割网络的输出结果与由点标记图生成的人群前景分割图之间的二分类交叉熵损失(Bce,BinaryCross Entropy),如下式所示。
Figure BDA0002073786380000031
Figure BDA0002073786380000032
其中,Lreg和Lseg分别表示整个网络的回归损失和前景分割网络分支的分割损失,N为训练数据批大小,xi表示输入图像数据,Dfinal(xi)表示模型最终输出,Dmask(xisegbkd)表示前景分割网络分支输出的前景分割图,Sgt(xi)和Dgt(xi)分别表示图像xi对应的点标记图生成的前景分割图和人群密度图,Bce函数表示如式3所示:
Figure BDA0002073786380000041
其中,
Figure BDA0002073786380000042
为模型估计输出,yi为目标。
利用SGD算法训练模型。采用标准的SGD优化算法对整个网络模型进行端到端的训练,同时优化整体网络的人群密度回归损失,如式(1),和前景分割网络分支的前景分割损失,如式(2)。训练数据的批大小设置为1,学习率为固定的1e-7,动量参数(momentum)设置为0.005,当两个损失都收敛时,停止训练。收敛的标准是当损失函数小于某个值的时候,即可认为是收敛。训练过程中,训练每进行一个epoch(训练集中的全部样本训练一次)就在验证集上进行验证,保存验证集上准确度最高的模型作为最终模型。
进一步,所述步骤6中包含如下内容:
利用步骤5中训练好的模型测试输入图像得到人群密度估计结果。
有益效果:与现有技术相比,本发明的技术方案具有以下有益效果:
本发明提出基于人群前景分割图的密度估计方法,模型同时预测出前景分割图和人群密度回归图,同时结合了分割学习和密度回归两者的优势在不损失精度的前提下可以有效的抑制基于密度图回归方法的背景误检问题。
此外,本发明中使用的前景分割标记不需要额为的标注,可以直接从人群密度分布图中得出,简单高效。而且。本框架中新增的前景分割网络分支与回归网络分支共享骨干网络的特征提取过程,减少了计算量。训练和预测的时间相较于原始的单独回归框架增加很少。
附图说明
图1是本发明方法的具体流程图;
图2是基于前景分割的人群密度估计框架示意图;
图3由点标记图生成人群密度图和人群前景分割图的生成过程示意图;
图4是本算法与单独回归网络结果的对比结果示意图。
具体实施方式
下面结合示例对本发明中的细节进行进一步的说明。
本发明提出一种基于前景分割图的人群密度估计方法,该方法包括以下步骤:
步骤1:标注每张包含人群的图像中的人头获得点标记图;
步骤2:基于点标记图利用高斯平滑方法得到人群密度图;
步骤3:基于人群密度图利用阈值分割的方法获得人群前景分割图;
步骤4:分别设计用于图像特征提取的神经网络(骨干网络),用于人群密度回归的神经网络分支(回归网络分支),和用于人群前景分割的神经网络分支(前景分割网络分支),图像先输入到骨干网络得到图像特征;然后,图像特征同时输入到回归网络和前景分割网络分支分别得到人群密度图和人群前景分割图,最后将两个网络分支的输出融合得到最终输出;
步骤5:利用步骤1-3的方法制作数据集,训练网络模型;
步骤6:利用训练好的模型测试输入图像得到人群密度估计结果。
进一步,所述步骤1中包含如下内容:
对训练集每张人群图片进行标记,标记为点标记,即在每个人头上标记一个点,表示一个人。获得点标记图,点标记图为一个通道数为1的灰度图,其大小与人群图片大小一致,在有人头的位置数值为1,其他为0。
进一步,所述步骤2中包含如下内容:
确定高斯核大小:观察数据集的人头大小分布情况,确定高斯滤波核的大小,高斯核的最佳大小与人头大小一致。
进行高斯核卷积:对步骤1得到的点标记图进行卷积操作,得到人群密度图,网络训练时,作为整个网络最终输出的学习目标。参考图2所示人群密度越高的地方颜色越亮,这里人群密度图的灰度值代表了人群密度。
进一步,所述步骤3中包含如下内容:
确定密度图分割阈值:根据人群密度图的分布情况确定分割阈值;通过分析步骤2中得到的人群密度图可以明显看出人群区域大致位于人群密度图中像素值高于一定阈值的区域,因此可以选取一个阈值对人群密度图进行阈值分割,得到人群前景分割图。
获得人群前景分割图:利用选取的阈值对步骤2中得到的人群密度图进行阈值分割,人群密度图中像素值大于该阈值的位置属于前景区域,将前景分割图中相应位置的值设置为1,小于该阈值的位置属于背景区域,将前景分割图中相应位置的值设置为0,得到人群的前景分割图,网络训练时,作为前景分割网络分支的学习目标。
进一步,所述步骤4中包含如下内容:
骨干网络:采用VGG16网络前10层,包含3层最大池化层和7层卷积层,每层卷积核大小均为3。骨干网络的参数用Θbkd来表示。
回归网络分支:采用堆叠的空洞卷积层设计,堆叠层数为6,空洞卷积层膨胀率均为2,卷积核大小为3。回归网络分支的参数用Θreg来表示。
前景分割网络分支:采用堆叠的空洞卷积设计,堆叠层数为3,空洞卷积层的膨胀率为2,卷积核大小为3。分割网络分支参数用Θseg来表示。
整体结构:将一张包含人群的原始图像先输入到骨干网络得到图像特征,然后,图像特征同时输入到回归网络和前景分割网络分支分别得到人群密度图和人群前景分割图,最后将两个网络分支的结果进行融合得到最终的模型输出结果,即人群密度估计结果。融合为掩膜操作,如下式所示:
Dfinal(x)=Dmask(x,Θsegbkd)*Dreg(x,Θregbkd)
其中,x表示输入图像数据,Dmask(x,Θsegbkd)表示人群前景分割网络分支输出结果,Dreg(x,Θregbkd)表示回归网络分支输出结果,Dfinal(x)表示模型最终输出结果。
进一步,所述步骤5中包含如下内容:
利用步骤1-3中的方法获得数据集,利用数据集训练步骤4中设计的神经网络模型,训练方法采用SGD算法。
参考图2,数据集的制作过程可以描述为如下过程:
首先,人群图像集中的所有图片按步骤1获得其对应的点标记图。然后,对其中的每一张包含人群的图像xi以及其对应点标记图进行如下的过程:
(1)根据数据集人头的整体大小分布确定高斯核的大小σ;
(2)根据σ计算归一化高斯核;
(3)利用高斯核对点标记图进行卷积,得到人群密度图Dgt(xi);
(4)对过程(3)得到的人群密度分布图进行阈值处理可以得到人群前景分割图Sgt(xi)。
模型训练过程如下:
损失函数设计。损失函数包含两部分:最终的模型输出结果与由点标记图生成的人群密度图之间的最小均方误差损失(MSE,Mean Square Error)如式(1)所示;前景分割网络的输出结果与由点标记图生成的人群前景分割图之间的二分类交叉熵损失(Bce,BinaryCross Entropy),如下式所示。
Figure BDA0002073786380000071
Figure BDA0002073786380000072
其中,Lreg和Lseg分别表示整个网络的回归损失和前景分割网络分支的分割损失,N为训练数据批大小,xi表示输入图像数据,Dfinal(xi)表示模型最终输出,Dmask(xisegbkd)表示前景分割网络分支输出的前景分割图,Sgt(xi)和Dgt(xi)分别表示图像xi对应的点标记图生成的前景分割图和人群密度图,Bce函数表示如式3所示:
Figure BDA0002073786380000073
其中,
Figure BDA0002073786380000074
为模型估计输出,yi为目标。
利用SGD算法训练模型。采用标准的SGD优化算法对整个网络模型进行端到端的训练,同时优化整体网络的人群密度回归损失,如式(1),和前景分割网络分支的前景分割损失,如式(2)。训练数据的批大小设置为1,学习率为固定的1e-7,动量参数(momentum)设置为0.005,当两个损失都收敛时,停止训练。收敛的标准是当损失函数小于某个值的时候,即可认为是收敛。训练过程中,训练每进行一个epoch就在验证集上进行验证,保存验证集上准确度最高的模型作为最终模型。
进一步,所述步骤6中包含如下内容:
利用步骤5中训练好的模型测试输入图像得到人群密度估计结果。

Claims (3)

1.一种基于前景分割图的人群密度估计方法,其特征在于,该方法包括以下步骤:
步骤1:标注每张包含人群的图像中的人头获得点标记图;
步骤2:基于点标记图利用高斯平滑方法得到人群密度图;
步骤3:基于人群密度图利用阈值分割的方法获得人群前景分割图;
步骤4:分别设计用于图像特征提取的神经网络,用于人群密度回归的神经网络分支,和用于人群前景分割的神经网络分支,图像先输入到用于图像特征提取的神经网络得到图像特征;然后,图像特征同时输入到用于人群密度回归的神经网络分支和用于人群前景分割的神经网络分支分别得到人群密度图和人群前景分割图,最后将两个网络分支的输出融合得到最终输出;
步骤5:利用步骤1-3的方法制作数据集,训练步骤4中的网络模型;
步骤6:利用训练好的模型测试输入图像得到人群密度估计结果;
所述基于点标记图利用高斯平滑方法得到人群密度图,其方法如下:
确定高斯核大小:根据图像中人头大小分布情况,确定高斯滤波核的大小;
进行高斯核卷积:对步骤1得到的点标记图进行卷积操作,得到人群密度图,网络训练时,作为整个网络最终输出的学习目标;
所述基于人群密度图利用阈值分割的方法获得人群前景分割图,方法如下:
确定密度图分割阈值:根据人群密度图的分布情况确定分割阈值;
获得人群前景分割图:利用选取的阈值对步骤2中得到的人群密度图进行阈值分割,人群密度图中像素值大于该阈值的位置属于前景区域,将前景分割图中相应位置的像素值设置为1,代表前景;小于该阈值的位置属于背景区域,将前景分割图中相应位置的像素值设置为0,代表背景,得到人群的前景分割图,网络训练时,作为前景分割网络分支的学习目标;
步骤(4)中,设计用于图像特征提取的神经网络,用于人群密度回归的神经网络分支,和用于人群前景分割的神经网络分支,其方法如下:
用于图像特征提取的神经网络:采用VGG16网络前10层,包含3层最大池化层和7层卷积层,每层卷积核大小均为3,网络的参数用Θbkd表示;
用于人群密度回归的神经网络分支:采用堆叠的空洞卷积层设计,堆叠层数为6,空洞卷积层膨胀率均为2,卷积核大小为3,网络分支的参数用Θreg表示;
用于人群前景分割的神经网络分支:采用堆叠的空洞卷积层设计,堆叠层数为3,空洞卷积层的膨胀率为2,卷积核大小为3,网络分支参数用Θseg表示;
整体网络结构:将一张包含人群的原始图像先输入到用于图像特征提取的神经网络得到图像特征,然后,图像特征同时输入到人群密度回归的神经网络分支和人群前景分割的神经网络分支分别得到人群密度图和人群前景分割图,最后将两个网络分支的结果进行融合得到最终的模型输出结果,即人群密度估计结果,融合为掩膜操作,如下式所示:
Dfinal(x)=Dmask(x,Θsegbkd)*Dreg(x,Θregbkd)
其中,x表示输入图像数据,Dmask(x,Θsegbkd)表示人群前景分割神经网络分支输出结果,Dreg(x,Θregbkd)表示回归网络分支输出结果,Dfinal(x)表示模型最终输出结果。
2.根据权利要求1所述的一种基于前景分割图的人群密度估计方法,其特征在于,所述标注每张包含人群的图像中的人头获得点标记图,其方法如下:对每张人群图片进行标记,标记为点标记,即在每个人头上标记一个点,表示一个人,获得点标记图,点标记图为一个通道数为1的灰度图,其大小与人群图片大小一致,在有人头的位置数值为1,其它为0。
3.根据权利要求1所述的一种基于前景分割图的人群密度估计方法,其特征在于,利用步骤1-3的方法制作数据集,训练步骤4中的网络模型的方法如下:
(4.1)设计损失函数:
Figure FDA0003941006710000021
Figure FDA0003941006710000022
其中,Lreg和Lseg分别表示整个网络的回归损失和前景分割网络分支的分割损失,N为训练数据批大小,xi表示输入图像数据,Dfinal(xi)表示模型最终输出,Dmask(xisegbkd)表示前景分割网络分支输出的前景分割图,Sgt(xi)和Dgt(xi)分别表示图像xi对应的点标记图生成的前景分割图和人群密度图,Bce函数表示如式3所示:
Figure FDA0003941006710000023
其中,
Figure FDA0003941006710000024
为模型估计输出,yi为目标;
(4.2)采用标准的SGD优化算法对整个网络模型进行端到端的训练,设置阈值,训练过程中,当损失函数小于阈值时,训练即可停止,获得最终的整个网络模型。
CN201910446452.5A 2019-05-27 2019-05-27 一种基于前景分割图的人群密度估计方法 Active CN110276264B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910446452.5A CN110276264B (zh) 2019-05-27 2019-05-27 一种基于前景分割图的人群密度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910446452.5A CN110276264B (zh) 2019-05-27 2019-05-27 一种基于前景分割图的人群密度估计方法

Publications (2)

Publication Number Publication Date
CN110276264A CN110276264A (zh) 2019-09-24
CN110276264B true CN110276264B (zh) 2023-04-07

Family

ID=67960149

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910446452.5A Active CN110276264B (zh) 2019-05-27 2019-05-27 一种基于前景分割图的人群密度估计方法

Country Status (1)

Country Link
CN (1) CN110276264B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113378608B (zh) * 2020-03-10 2024-04-19 顺丰科技有限公司 人群计数方法、装置、设备及存储介质
CN111507183B (zh) * 2020-03-11 2021-02-02 杭州电子科技大学 一种基于多尺度密度图融合空洞卷积的人群计数方法
CN111582778B (zh) * 2020-04-17 2024-04-12 上海中通吉网络技术有限公司 操作场地货物堆积度量方法、装置、设备及存储介质
CN111723664A (zh) * 2020-05-19 2020-09-29 烟台市广智微芯智能科技有限责任公司 一种用于开放式区域的行人计数方法及***
CN111652168B (zh) * 2020-06-09 2023-09-08 腾讯科技(深圳)有限公司 基于人工智能的群体检测方法、装置、设备及存储介质
CN112001274B (zh) * 2020-08-06 2023-11-17 腾讯科技(深圳)有限公司 人群密度确定方法、装置、存储介质和处理器
CN112115862B (zh) * 2020-09-18 2023-08-29 广东机场白云信息科技有限公司 一种结合密度估计的拥挤场景行人检测方法
CN113515990A (zh) * 2020-09-28 2021-10-19 阿里巴巴集团控股有限公司 图像处理和人群密度估计方法、设备及存储介质
CN112802020B (zh) * 2021-04-06 2021-06-25 中国空气动力研究与发展中心计算空气动力研究所 基于图像修补和背景估计的红外弱小目标检测方法
CN112801063B (zh) * 2021-04-12 2021-07-20 广东众聚人工智能科技有限公司 神经网络***和基于神经网络***的图像人群计数方法
CN113239743A (zh) * 2021-04-23 2021-08-10 普联国际有限公司 一种人群密度检测方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105447458A (zh) * 2015-11-17 2016-03-30 深圳市商汤科技有限公司 一种大规模人群视频分析***和方法
CN108876774A (zh) * 2018-06-07 2018-11-23 浙江大学 一种基于卷积神经网络的人群计数方法
US20190147584A1 (en) * 2017-11-15 2019-05-16 NEC Laboratories Europe GmbH System and method for single image object density estimation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105447458A (zh) * 2015-11-17 2016-03-30 深圳市商汤科技有限公司 一种大规模人群视频分析***和方法
US20190147584A1 (en) * 2017-11-15 2019-05-16 NEC Laboratories Europe GmbH System and method for single image object density estimation
CN108876774A (zh) * 2018-06-07 2018-11-23 浙江大学 一种基于卷积神经网络的人群计数方法

Also Published As

Publication number Publication date
CN110276264A (zh) 2019-09-24

Similar Documents

Publication Publication Date Title
CN110276264B (zh) 一种基于前景分割图的人群密度估计方法
CN108319972B (zh) 一种针对图像语义分割的端到端差异网络学习方法
CN104050471B (zh) 一种自然场景文字检测方法及***
CN113240691A (zh) 一种基于u型网络的医学图像分割方法
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
CN108198201A (zh) 一种多目标跟踪方法、终端设备及存储介质
CN112287941B (zh) 一种基于自动字符区域感知的车牌识别方法
WO2019071976A1 (zh) 基于区域增长和眼动模型的全景图像显著性检测方法
CN107657625A (zh) 融合时空多特征表示的无监督视频分割方法
CN113609896A (zh) 基于对偶相关注意力的对象级遥感变化检测方法及***
CN106815563B (zh) 一种基于人体表观结构的人群数量预测方法
CN109284779A (zh) 基于深度全卷积网络的物体检测方法
CN110415260B (zh) 基于字典与bp神经网络的烟雾图像分割与识别方法
CN110032952B (zh) 一种基于深度学习的道路边界点检测方法
CN114758288A (zh) 一种配电网工程安全管控检测方法及装置
CN104657980A (zh) 一种改进的基于Meanshift的多通道图像分割算法
CN107944437B (zh) 一种基于神经网络和积分图像的人脸定位方法
CN110310305B (zh) 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置
CN112528058B (zh) 基于图像属性主动学习的细粒度图像分类方法
CN107871315B (zh) 一种视频图像运动检测方法和装置
CN111540203A (zh) 基于Faster-RCNN调节绿灯通行时间的方法
CN111126155A (zh) 一种基于语义约束生成对抗网络的行人再识别方法
CN111881914B (zh) 一种基于自学习阈值的车牌字符分割方法及***
CN116630989A (zh) 智能电表可视故障检测方法、***、电子设备及存储介质
CN113673534B (zh) 一种基于Faster RCNN的RGB-D图像果实检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant