CN111709300B - 基于视频图像的人群计数方法 - Google Patents

基于视频图像的人群计数方法 Download PDF

Info

Publication number
CN111709300B
CN111709300B CN202010430583.7A CN202010430583A CN111709300B CN 111709300 B CN111709300 B CN 111709300B CN 202010430583 A CN202010430583 A CN 202010430583A CN 111709300 B CN111709300 B CN 111709300B
Authority
CN
China
Prior art keywords
image
density
background
pedestrian
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010430583.7A
Other languages
English (en)
Other versions
CN111709300A (zh
Inventor
韩铠宇
翁立
王建中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202010430583.7A priority Critical patent/CN111709300B/zh
Publication of CN111709300A publication Critical patent/CN111709300A/zh
Application granted granted Critical
Publication of CN111709300B publication Critical patent/CN111709300B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于视频图像的人群计数方法。本发明方法输入数据为连续视频帧图像,通过对采集的连续视频帧与给定的背景图像做像素减法分离冗余信息得到预处理后的输入图像;将经过预处理的图像输入基于密度分类的编码‑解码网络模型中,使用主干网络提取多尺度特征,并对其进行特征融合用于密度回归给出权重;同时利用提取的多尺度特征上采样得到对应的密度估计图,最终实现不同尺度特征对应的密度图加权得到最终密度估计图。本发明提出的方法针对视频图像的人群计数,在一定程度上利用了行人间的相似性,并利用了冗余信息的过滤,不仅可以得到实时的行人计数,并且能够实时地保留背景图片。

Description

基于视频图像的人群计数方法
技术领域
本发明属于计算机视觉中的人群图像处理领域,具体来说是一种涉及图像中的人群计数以及行人背景分割的方法。
背景技术
人群计数,是对图像或是视频图像序列中的行人进行数量统计。在现实生活中,有效的行人计数在安全管控、区域规划、行为分析等领域有着重要的意义,比如在防止踩踏、交通线路设计、广告位投放、建筑选址等方面提供一定的数据支撑。
目前的行人计数方法主要可以分为三大类:早期的基于检测的方式、基于回归的方式以及如今密度图回归的方式。基于检测的方式是通过一个滑动窗口,并利用边缘等特征进行行人的检测,此类方法受限于行人遮挡,适用于目标较为分散的场合。基于回归的方法在一定程度上提高了遮挡人群中的计数准确度,但是并不能很好地得到行人分布的空间信息。
随着计算机视觉领域的不断发展,行人计数开始转向了密度图回归的方法。相较于上述两种方法,利用密度图回归的方式能够在处理遮挡问题的同时给出了行人的分布情况,从而获得具体的空间分布信息。
如今,行人计数依旧保留着大量计算机视觉领域所共有的问题。例如,视角变换所带来的透视问题使得人群在不同尺度下的检测变得更加困难。现有的计数方法大多采用了深度学习提取多尺度特征的形式,其优势在于利用多层或是多列卷积提取不同尺度的行人特征,在一定程度上解决了透视问题,但是仍旧有提升的空间。
事实上,在针对固定场景的行人计数情况下,常常会出现大量冗余信息。例如周围的环境建筑、停驻的车辆,往往在一定的时间段内都是不发生变化的。在现有的利用深度学习生成密度图的方法中,对干扰数据进行计算会占用一定的资源并导致计算速度变慢。针对这些背景信息的干扰,在处理视频流中可以通过在线背景更新以及背景分割的形式,事先过滤掉冗余信息。
综合以上思路,本发明提出了一种基于视频图像和在线背景分割的人群计数方法。
发明内容
针对现有行人计数领域存在的问题,本发明提出一种基于视频图像的人群计数方法。该方法具有以下优点:
在训练模型阶段,1)选择成熟的多层小卷积核神经网络(Convolutional NeuralNetwork,CNN),例如VGG-16结构,做初步特征提取,在保证对图像具有强大表征能力的同时减少参数,使得模型更为简洁,通用性强;2)利用获得的多尺度特征对图像进行密度估计。在行人间存在相似性,密集程度较大的情况下,以低级特征为主可以更有效地进行统计;在密集程度较小的情况下,行人的高级特征会使得计数更为精准。因此利用密度分类的形式,可以针对不同的遮挡情况进行统计,增加计数的准确度。
在应用过程中,利用背景分割法分离环境干扰,保留关键信息,以稀疏矩阵的形式简化了图像参与计算的部分,加快了后续行人计数回归的速度;利用行人检测的空间信息以及背景分割法保留的信息实现背景的不断更新,最终实现完整背景的分离。
一种基于视频图像的人群计数方法,步骤如下:
步骤一、选取具有标注信息的行人图像数据集,测试集与训练集数量定为6:4,可以根据实际数据集对比例进行修改,然后根据图像自带的人头标注像素点进行高斯函数处理,生成原图像对应的初始真值密度图;
步骤二、搭建基于密度分类的编码-解码卷积网络模型。
所述的基于密度分类的编码-解码卷积网络模型分为一个骨干网络与两个分支:以VGG-16网络作为骨干网络,使用其全部层数提取对应不同尺度特征。通过密度回归分支对提取的不同尺度特征进行融合输入,通过回归实现密度分类,获得解码分支的权重;解码分支利用各尺度特征,上采样解码还原图像,生成各尺度特征对应的人群密度估计图,利用密度回归分支获得的权重进行加权,得到最终密度估计图。
步骤三、通过训练集对步骤二搭建的基于密度分类的编码-解码卷积网络模型进行训练,采用随机梯度下降算法来优化参数,并使用欧几里德距离来计算密度估计图和真值密度图之间的损失。保留效果较优的完整模型,用于实际检测;
步骤四、利用背景分离的预处理方法,实现输入图像的缩减,完成稀疏矩阵的生成,再通过步骤三得到的基于密度分类的编码-解码卷积网络模型,实现最终的计数结果。
背景分离的方法:通过对采集的连续视频帧与给定的背景图像进行像素减法,采用阈值划分的形式保留所有无关背景的信息的图像内容,实现输入图像内容的缩减,提高卷积效率;并通过编码-解码卷积网络模型生成的最终密度估计图,对含有行人部分进行提取,其余部分以背景形式更新至背景图层,实现背景的实时更新。
所述步骤一的具体内容为:
利用二维高斯卷积核将数据集中的带有人头位置标注的行人图像转换为真值密度图,用于损失差计算。选择基于几何适应高斯核的密度图,公式表示如下:
Figure BDA0002500393550000031
真值密度图通过delta脉冲函数与一个高斯函数卷积获得,先卷积后求和。xi表示人头在图像中的像素位置;δ(x-xi)表示图像中人头位置的冲激函数;N为图像中的人头总数;
Figure BDA0002500393550000032
为距离xi人头最近m个人头的平均距离;β为定值,用于生成高斯函数的宽度参数。
进一步的,β=0.3。
通过以上运算将带有人头标注的行人图像转换成真值密度图,并作为卷积神经网络的输出比对进行后续训练。
所述步骤三的具体内容为:
利用测试集图像作为输入对步骤二搭建的基于密度分类的编码-解码卷积网络模型,进行训练,并保留模型参数。使用欧几里得距离计算最终密度估计图和真值密度图之间的损失。采用随机梯度下降算法优化参数,直到损失值收敛到预计值。
采用欧氏距离测量生成的密度图与真实值的距离时,损失函数定义如下:
Figure BDA0002500393550000041
其中,N表示输入编码-解码卷积网络模型的图片数量,Z(Xi;Θ)为第i幅输入图片对应的最终密度估计图,ZGT表示真值密度图。Θ表示网络待学习参数。
采用均方误差(MSE)和平均绝对误差(MAE)对编码-解码卷积网络模型进行评估。MSE用来描述编码-解码卷积网络模型的准确度,MSE越小则准确度越高,MAE能反映出预测值的误差情况。
Figure BDA0002500393550000042
Figure BDA0002500393550000043
其中,Ci表示对图片的预测人数,
Figure BDA0002500393550000044
表示真实人数。
测试过程:选择测试集输入到训练好的模型中进行测试,输出最终人群密度图,统计结果。取最佳结果作为模型参数进行封装。
所述步骤四的具体内容为:
利用背景分离方法,将背景图像从采集的连续视频帧中减去,即输入的初始图像与背景图像做像素减法的方式得到一张差异图。该差异图包含了所有无关背景的信息,所述的所有无关背景的信息包括来往的行人、车辆、光线照射导致的阴影变化。对差异图进行阈值划分滤去光照等细小干扰,得到分离背景的感兴趣区域(ROI,region of interest)。保留的ROI图像,即为输入步骤三模型中的有效图像。上述过程中实现了冗余信息的过滤,以稀疏矩阵的形式,提高了编码-解码卷积网络模型的卷积速率。
得到ROI图像的最终密度估计图后,通过人工标定的形式(根据实际情况给定)构造行人掩膜模板,利用行人掩膜模板与最终密度估计图进行数字图像处理形态学变化的膨胀操作(密度图中的高亮点与掩膜模板进行卷积,得到一个扩大后的区域,代表这当前区域存在行人)得到行人图像,对行人图像进行像素值取反的得到背景更新掩膜;利用背景更新掩膜与初始图像做点乘,得到更新背景图像,用于更新参与背景减法的背景图像,实现背景图像的在线更新。
通过步骤四对采集信息进行预处理,再通过步骤三中所选择的最佳模型进行行人检测计数。实现高效率的行人计数并回馈空间信息。
本发明有益效果如下:
本发明采用了基于密度分类的编码-解码网络用于生成最终密度估计图;利用背景分离方法实现了图像的预处理,加快最终密度估计图的生成。
输入数据为连续视频帧图像,通过对采集的连续视频帧与给定的背景图像做像素减法分离冗余信息得到预处理后的输入图像;将经过预处理的图像输入基于密度分类的编码-解码网络。该网络针对当行人密集程度具有相似性这一特点,使用主干网络提取多尺度特征,并对其进行特征融合用于密度回归给出权重;同时利用提取的多尺度特征上采样得到对应的密度估计图,最终实现不同尺度特征对应的密度图加权得到最终密度估计图。相比较于目前存在的人群计数技术,本发明提出的方法针对视频图像的人群计数,在一定程度上利用了行人间的相似性,并利用了冗余信息的过滤,不仅可以得到实时的行人计数,并且能够实时地保留背景图片。此外,单独利用基于密度分类的编码-解码网络也能实现单张图像的行人计数。
附图说明
图1为本发明方法流程图;
图2为基于密度分类的编码-解码卷积网络模型;
图3为本发明网络模型训练流程图;
图4为背景分离方法示意图;
图5为本发明实际应用流程图。
具体实施方式
以下结合附图与实施例对本发明方法进行进一步描述。
如图1所示,一种基于视频图像的人群计数方法,步骤如下:
步骤一、选取具有标注信息的行人图像数据集,测试集与训练集数量定为6:4,可以根据实际数据集对比例进行修改,然后根据图像自带的人头标注像素点进行高斯函数处理,生成原图像对应的初始真值密度图;
具体内容为:
利用二维高斯卷积核将数据集中的带有人头位置标注的行人图像转换为真值密度图,用于损失差计算。为了使得密度图能够更好地与不同视角且人群很密集的图像对应起来,选择基于几何适应高斯核的密度图,公式表示如下:
Figure BDA0002500393550000061
真值密度图通过delta脉冲函数与一个高斯函数卷积获得,先卷积后求和。xi表示人头在图像中的像素位置;δ(x-xi)表示图像中人头位置的冲激函数;N为图像中的人头总数;
Figure BDA0002500393550000062
为距离xi人头最近m个人头的平均距离;β为定值,用于生成高斯函数的宽度参数。
进一步的,β=0.3。
通过以上运算将带有人头标注的行人图像转换成真值密度图,并作为卷积神经网络的输出比对进行后续训练。
步骤二、搭建基于密度分类的编码-解码卷积网络模型。
如图2所示,所述的基于密度分类的编码-解码卷积网络模型分为一个骨干网络与两个分支:以VGG-16网络作为骨干网络,使用其全部层数提取对应不同尺度特征。通过密度回归分支对提取的不同尺度特征进行融合输入,通过回归实现密度分类,获得解码分支的权重;解码分支利用各尺度特征,上采样解码还原图像,生成各尺度特征对应的人群密度估计图,利用密度回归分支获得的权重进行加权,得到最终密度估计图。
步骤三、通过训练集对步骤二搭建的基于密度分类的编码-解码卷积网络模型进行训练,采用随机梯度下降算法来优化参数,并使用欧几里德距离来计算密度估计图和真值密度图之间的损失。保留效果较优的完整模型,用于实际检测;
如图3所示,具体内容为:
利用测试集图像作为输入对步骤二搭建的基于密度分类的编码-解码卷积网络模型,进行训练,并保留模型参数。使用欧几里得距离计算最终密度估计图和真值密度图之间的损失。采用随机梯度下降算法优化参数,直到损失值收敛到预计值。
采用欧氏距离测量生成的密度图与真实值的距离时,损失函数定义如下:
Figure BDA0002500393550000071
其中,N表示输入编码-解码卷积网络模型的图片数量,Z(Xi;Θ)为第i幅输入图片对应的最终密度估计图,ZGT表示真值密度图。Θ表示网络待学习参数。
采用均方误差(MSE)和平均绝对误差(MAE)对编码-解码卷积网络模型进行评估。MSE用来描述编码-解码卷积网络模型的准确度,MSE越小则准确度越高,MAE能反映出预测值的误差情况。
Figure BDA0002500393550000081
Figure BDA0002500393550000082
其中,Ci表示对图片的预测人数,
Figure BDA0002500393550000083
表示真实人数。
测试过程:选择测试集输入到训练好的模型中进行测试,输出最终人群密度图,统计结果。取最佳结果作为模型参数进行封装。
步骤四、利用背景分离的预处理方法,实现输入图像的缩减,完成稀疏矩阵的生成,再通过步骤三得到的基于密度分类的编码-解码卷积网络模型,实现最终的计数结果。
如图4所示,背景分离的方法:通过对采集的连续视频帧与给定的背景图像进行像素减法,采用阈值划分的形式保留所有无关背景的信息的图像内容,实现输入图像内容的缩减,提高卷积效率;并通过编码-解码卷积网络模型生成的最终密度估计图,对含有行人部分进行提取,其余部分以背景形式更新至背景图层,实现背景的实时更新。
具体内容为:
利用背景分离方法,将背景图像从采集的连续视频帧中减去,即输入的初始图像与背景图像做像素减法的方式得到一张差异图。该差异图包含了所有无关背景的信息,所述的所有无关背景的信息包括来往的行人、车辆、光线照射导致的阴影变化。对差异图进行阈值划分滤去光照等细小干扰,得到分离背景的感兴趣区域(ROI,region of interest)。保留的ROI图像,即为输入步骤三模型中的有效图像。上述过程中实现了冗余信息(背景干扰)的过滤,以稀疏矩阵的形式,提高了编码-解码卷积网络模型的卷积速率。
得到ROI图像的最终密度估计图后,通过人工标定的形式(根据实际情况给定)构造行人掩膜模板,利用行人掩膜模板与最终密度估计图进行数字图像处理形态学变化的膨胀操作(密度图中的高亮点与掩膜模板进行卷积,得到一个扩大后的区域,代表这当前区域存在行人)得到行人图像(仅含行人,每一个行人以一个掩膜模板替代,可以理解为行人掩膜,注意这里已经不是模板了),对行人图像进行像素值取反(二值化后0变成1,1变成0)的得到背景更新掩膜;利用背景更新掩膜与初始图像做点乘,得到更新背景图像,用于更新参与背景减法的背景图像,实现背景图像的在线更新。
如图5所示,通过步骤四对采集信息进行预处理,再通过步骤三中所选择的最佳模型进行行人检测计数。实现高效率的行人计数并回馈空间信息。
以上所述仅为本发明的优先实施例而已,并不用于限制本发明,对本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同的替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于视频图像的人群计数方法,其特征在于,步骤如下:
步骤一、选取具有标注信息的行人图像数据集,测试集与训练集数量定为6:4,然后根据图像自带的人头标注像素点进行高斯函数处理,生成原图像对应的初始真值密度图;
步骤二、搭建基于密度分类的编码-解码卷积网络模型;
所述的基于密度分类的编码-解码卷积网络模型分为一个骨干网络与两个分支:以VGG-16网络作为骨干网络,使用其全部层数提取对应不同尺度特征;通过密度回归分支对提取的不同尺度特征进行融合输入,通过回归实现密度分类,获得解码分支的权重;解码分支利用各尺度特征,上采样解码还原图像,生成各尺度特征对应的人群密度估计图,利用密度回归分支获得的权重进行加权,得到最终密度估计图;
步骤三、通过训练集对步骤二搭建的基于密度分类的编码-解码卷积网络模型进行训练,采用随机梯度下降算法来优化参数,并使用欧几里德距离来计算密度估计图和真值密度图之间的损失;保留效果较优的完整模型,用于实际检测;
步骤四、利用背景分离的预处理方法,实现输入图像的缩减,完成稀疏矩阵的生成,再通过步骤三得到的基于密度分类的编码-解码卷积网络模型,实现最终的计数结果;
背景分离的方法:通过对采集的连续视频帧与给定的背景图像进行像素减法,采用阈值划分的形式保留所有无关背景的信息的图像内容,实现输入图像内容的缩减,提高卷积效率;并通过编码-解码卷积网络模型生成的最终密度估计图,对含有行人部分进行提取,其余部分以背景形式更新至背景图层,实现背景的实时更新。
2.根据权利要求1所述的一种基于视频图像的人群计数方法,其特征在于,步骤一的具体内容为:
利用二维高斯卷积核将数据集中的带有人头位置标注的行人图像转换为真值密度图,用于损失差计算;选择基于几何适应高斯核的密度图,公式表示如下:
Figure FDA0003664498400000021
真值密度图通过delta脉冲函数与一个高斯函数卷积获得,先卷积后求和;xi表示人头在图像中的像素位置;δ(x-xi)表示图像中人头位置的冲激函数;N为图像中的人头总数;
Figure FDA0003664498400000022
为距离xi人头最近m个人头的平均距离;β为定值,用于生成高斯函数的宽度参数;
通过以上运算将带有人头标注的行人图像转换成真值密度图,并作为卷积神经网络的输出比对进行后续训练。
3.根据权利要求2所述的一种基于视频图像的人群计数方法,其特征在于,所述步骤三的具体内容为:
利用测试集图像作为输入对步骤二搭建的基于密度分类的编码-解码卷积网络模型,进行训练,并保留模型参数;使用欧几里得距离计算最终密度估计图和真值密度图之间的损失;采用随机梯度下降算法优化参数,直到损失值收敛到预计值;
采用欧氏距离测量生成的密度图与真实值的距离时,损失函数定义如下:
Figure FDA0003664498400000023
其中,N表示输入编码-解码卷积网络模型的图片数量,Z(Xi;Θ)为第i幅输入图片对应的最终密度估计图,ZGT表示真值密度图;Θ表示网络待学习参数;
采用均方误差(MSE)和平均绝对误差(MAE)对编码-解码卷积网络模型进行评估;MSE用来描述编码-解码卷积网络模型的准确度,MSE越小则准确度越高,MAE能反映出预测值的误差情况;
Figure FDA0003664498400000031
Figure FDA0003664498400000032
其中,Ci表示对图片的预测人数,
Figure FDA0003664498400000033
表示真实人数;
测试过程:选择测试集输入到训练好的模型中进行测试,输出最终人群密度图,统计结果;取最佳结果作为模型参数进行封装。
4.根据权利要求3所述的一种基于视频图像的人群计数方法,其特征在于,所述步骤四的具体内容为:
利用背景分离方法,将背景图像从采集的连续视频帧中减去,即输入的初始图像与背景图像做像素减法的方式得到一张差异图;该差异图包含了所有无关背景的信息,所述的所有无关背景的信息包括来往的行人、车辆、光线照射导致的阴影变化;对差异图进行阈值划分滤去光照细小干扰,得到分离背景的感兴趣区域(ROI,region of interest);保留的ROI图像,即为输入步骤三模型中的有效图像;上述过程中实现了冗余信息的过滤,以稀疏矩阵的形式,提高了编码-解码卷积网络模型的卷积速率;
得到ROI图像的最终密度估计图后,通过人工标定的形式构造行人掩膜模板,利用行人掩膜模板与最终密度估计图进行数字图像处理形态学变化的膨胀操作得到行人图像,对行人图像进行像素值取反的得到背景更新掩膜,其中,密度图中的高亮点与掩膜模板进行卷积,得到一个扩大后的区域,代表这当前区域存在行人;利用背景更新掩膜与初始图像做点乘,得到更新背景图像,用于更新参与背景减法的背景图像,实现背景图像的在线更新;
通过步骤四对采集信息进行预处理,再通过步骤三中所选择的最佳模型进行行人检测计数;实现高效率的行人计数并回馈空间信息。
5.根据权利要求2所述的一种基于视频图像的人群计数方法,其特征在于,进一步的,β=0.3。
CN202010430583.7A 2020-05-20 2020-05-20 基于视频图像的人群计数方法 Active CN111709300B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010430583.7A CN111709300B (zh) 2020-05-20 2020-05-20 基于视频图像的人群计数方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010430583.7A CN111709300B (zh) 2020-05-20 2020-05-20 基于视频图像的人群计数方法

Publications (2)

Publication Number Publication Date
CN111709300A CN111709300A (zh) 2020-09-25
CN111709300B true CN111709300B (zh) 2022-08-12

Family

ID=72538030

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010430583.7A Active CN111709300B (zh) 2020-05-20 2020-05-20 基于视频图像的人群计数方法

Country Status (1)

Country Link
CN (1) CN111709300B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113515990A (zh) * 2020-09-28 2021-10-19 阿里巴巴集团控股有限公司 图像处理和人群密度估计方法、设备及存储介质
CN112632601B (zh) * 2020-12-16 2024-03-12 苏州玖合智能科技有限公司 面向地铁车厢场景的人群计数方法
CN112767316A (zh) * 2020-12-31 2021-05-07 山东师范大学 一种基于多尺度交互式网络的人群计数方法及***
CN112699848B (zh) * 2021-01-15 2022-05-31 上海交通大学 一种针对图像的密集人群的计数方法及***
CN112597985B (zh) * 2021-03-04 2021-07-02 成都西交智汇大数据科技有限公司 一种基于多尺度特征融合的人群计数方法
CN116703904A (zh) * 2023-08-04 2023-09-05 中建八局第一数字科技有限公司 一种基于图像的钢筋数量检测方法、装置、设备及介质
CN117854191A (zh) * 2024-01-10 2024-04-09 北京中航智信建设工程有限公司 一种机场隔离区远程自助查验***及方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190130188A1 (en) * 2017-10-26 2019-05-02 Qualcomm Incorporated Object classification in a video analytics system
CN109101930B (zh) * 2018-08-18 2020-08-18 华中科技大学 一种人群计数方法及***
CN109815867A (zh) * 2019-01-14 2019-05-28 东华大学 一种人群密度估计和人流量统计方法
CN110781780B (zh) * 2019-10-11 2023-04-07 浙江大华技术股份有限公司 空置检测方法及相关装置

Also Published As

Publication number Publication date
CN111709300A (zh) 2020-09-25

Similar Documents

Publication Publication Date Title
CN111709300B (zh) 基于视频图像的人群计数方法
CN106874894B (zh) 一种基于区域全卷积神经网络的人体目标检测方法
CN108427920B (zh) 一种基于深度学习的边海防目标检测方法
CN108133188B (zh) 一种基于运动历史图像与卷积神经网络的行为识别方法
CN108805015B (zh) 加权卷积自编码长短期记忆网络人群异常检测方法
CN110555368B (zh) 基于三维卷积神经网络的跌倒行为识别方法
CN108764085B (zh) 基于生成对抗网络的人群计数方法
CN111723693B (zh) 一种基于小样本学习的人群计数方法
CN111401144B (zh) 一种基于视频监控的手扶电梯乘客行为识别方法
CN110956094A (zh) 一种基于非对称双流网络的rgb-d多模态融合人员检测方法
CN110135296A (zh) 基于卷积神经网络的机场跑道fod检测方法
CN111191667B (zh) 基于多尺度生成对抗网络的人群计数方法
CN108038846A (zh) 基于多层卷积神经网络的输电线路设备图像缺陷检测方法及***
CN110427839A (zh) 基于多层特征融合的视频目标检测方法
CN107563345A (zh) 一种基于时空显著性区域检测的人体行为分析方法
CN110765833A (zh) 一种基于深度学习的人群密度估计方法
CN112232371B (zh) 一种基于YOLOv3与文本识别的美式车牌识别方法
CN101971190A (zh) 实时身体分割***
CN110929593A (zh) 一种基于细节辨别区别的实时显著性行人检测方法
CN105957356B (zh) 一种基于行人数量的交通控制***及方法
CN108416780B (zh) 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法
Patil et al. Motion saliency based generative adversarial network for underwater moving object segmentation
CN106650617A (zh) 一种基于概率潜在语义分析的行人异常识别方法
Wang et al. Removing background interference for crowd counting via de-background detail convolutional network
CN110717863A (zh) 一种基于生成对抗网络的单图像去雪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant