CN111582252A - 人群密度图的获取方法、装置、计算机设备和存储介质 - Google Patents

人群密度图的获取方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN111582252A
CN111582252A CN202010549071.2A CN202010549071A CN111582252A CN 111582252 A CN111582252 A CN 111582252A CN 202010549071 A CN202010549071 A CN 202010549071A CN 111582252 A CN111582252 A CN 111582252A
Authority
CN
China
Prior art keywords
image
density image
crowd
density
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010549071.2A
Other languages
English (en)
Inventor
周康明
彭山珍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Eye Control Technology Co Ltd
Original Assignee
Shanghai Eye Control Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Eye Control Technology Co Ltd filed Critical Shanghai Eye Control Technology Co Ltd
Priority to CN202010549071.2A priority Critical patent/CN111582252A/zh
Publication of CN111582252A publication Critical patent/CN111582252A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种人群密度图的获取方法、装置、计算机设备和存储介质。所述方法包括:获取待处理人群图像,所述待处理人群图像包括在人群密集的拥挤场景下拍摄的图像;将所述待处理人群图像输入至预设的密度图生成网络中,得到目标人群密度图;其中,所述密度图生成网络为对标签密度图像和初始神经网络输出的预测人群密度图像进行下采样处理,并根据下采样后的预测人群密度图像和下采样后的标签密度图像之间的损失,对所述初始神经网络进行训练得到的网络。采用本方法能够提高人群密度图的准确度。

Description

人群密度图的获取方法、装置、计算机设备和存储介质
技术领域
本申请涉及密度图生成技术领域,特别是涉及一种人群密度图的获取方法、装置、计算机设备和存储介质。
背景技术
目前,对于上下班高峰期的地铁站或者节假日的旅游景点等其它人群密集的公共场所的人群密度估计,在公共安全、拥堵避免、流量分析等方面具有广泛的应用,但是公共场所中由于存在背景噪声、人与人之间的遮挡和人群分布的多样性等问题,导致很难生成准确的人群密度图,因此如何生成准确的人群密度图成为当前亟需解决的问题之一。
传统技术中,使用基于特征回归的方法(比如利用深度神经网络做特征回归)生成人群密度图,该方法通常聚焦在降低计数错误率上,也即通过考虑单个像素点的表面特征识别对应像素中是否存在人头的方式来生成人群密度图。
然而,传统技术识别的人头中多了很多假点或者重复识别的人头,从而导致生成的人群密度图的准确度不高。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高人群密度图的准确度的人群密度图的获取方法、装置、计算机设备和存储介质。
一种人群密度图的获取方法,所述方法包括:
获取待处理人群图像,所述待处理人群图像包括在人群密集的拥挤场景下拍摄的图像;
将所述待处理人群图像输入至预设的密度图生成网络中,得到目标人群密度图;其中,所述密度图生成网络为对标签密度图像和初始神经网络输出的预测人群密度图像进行下采样处理,并根据下采样后的预测人群密度图像和下采样后的标签密度图像之间的损失,对所述初始神经网络进行训练得到的网络。
在其中一个实施例中,还包括:
获取训练样本图像;
将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像;
对所述预测人群密度图像和对应的标签密度图像分别进行至少两次下采样处理,得到每次下采样后的预测人群密度图像和对应下采样后的标签密度图像;
根据所述每次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
在其中一个实施例中,还包括:
针对每次下采样处理,计算下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的图像损失值;
根据所述至少两次下采样处理对应的所有图像损失值,调整所述初始神经网络的参数,得到所述密度图生成网络。
在其中一个实施例中,还包括:
计算所述预测人群密度图像和对应的标签密度图像之间的像素损失值;
根据所述像素损失值以及所述至少两次下采样处理对应的所有图像损失值,得到总损失值;
根据所述总损失值调整所述初始神经网络的参数,直至所述总损失值达到预设的标准值,将达到标准值的总损失值对应的初始神经网络作为所述密度图生成网络。
在其中一个实施例中,还包括:
采用预设的空间关联损失函数计算所述预测人群密度图像和对应的标签密度图像之间的像素损失值;其中,所述空间关联损失函数用于获取所述预测人群密度图像和对应的标签密度图像则像素点之间的局部关联损失。
在一个实施例中,还包括:
针对每次下采样处理,采用预设的空间抽象损失函数计算每次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的图像损失值;其中,所述空间抽象损失函数用于获取所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的均方误差损失。
一种网络训练方法,所述方法包括:
获取训练样本图像;
将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像;
对所述预测人群密度图像和对应的标签密度图像分别进行下采样处理,得到下采样后的预测人群密度图像和对应下采样后的标签密度图像;
根据所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
一种人群密度图的获取装置,所述装置包括:
第一获取模块,用于获取待处理人群图像,所述待处理人群图像包括在人群密集的拥挤场景下拍摄的图像;
生成模块,用于将所述待处理人群图像输入至预设的密度图生成网络中,得到目标人群密度图;其中,所述密度图生成网络为对标签密度图像和初始神经网络输出的预测人群密度图像进行下采样处理,并根据下采样后的预测人群密度图像和下采样后的标签密度图像之间的损失,对所述初始神经网络进行训练得到的网络。
一种网络训练装置,所述装置包括:
第二获取模块,用于获取训练样本图像;
训练模块,用于将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像;
采样模块,用于对所述预测人群密度图像和对应的标签密度图像分别进行下采样处理,得到下采样后的预测人群密度图像和对应下采样后的标签密度图像;
调整模块,用于根据所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待处理人群图像,所述待处理人群图像包括在人群密集的拥挤场景下拍摄的图像;
将所述待处理人群图像输入至预设的密度图生成网络中,得到目标人群密度图;其中,所述密度图生成网络为对标签密度图像和初始神经网络输出的预测人群密度图像进行下采样处理,并根据下采样后的预测人群密度图像和下采样后的标签密度图像之间的损失,对所述初始神经网络进行训练得到的网络;
或者,所述处理器执行所述计算机程序时实现以下步骤:
获取训练样本图像;
将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像;
对所述预测人群密度图像和对应的标签密度图像分别进行下采样处理,得到下采样后的预测人群密度图像和对应下采样后的标签密度图像;
根据所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待处理人群图像,所述待处理人群图像包括在人群密集的拥挤场景下拍摄的图像;
将所述待处理人群图像输入至预设的密度图生成网络中,得到目标人群密度图;其中,所述密度图生成网络为对标签密度图像和初始神经网络输出的预测人群密度图像进行下采样处理,并根据下采样后的预测人群密度图像和下采样后的标签密度图像之间的损失,对所述初始神经网络进行训练得到的网络;
或者,所述计算机程序被处理器执行时实现以下步骤:
获取训练样本图像;
将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像;
对所述预测人群密度图像和对应的标签密度图像分别进行下采样处理,得到下采样后的预测人群密度图像和对应下采样后的标签密度图像;
根据所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
上述人群密度图的获取方法、装置、计算机设备和存储介质,所述人群密度图的获取方法首先将在人群密集的拥挤场景下拍摄的图像作为待处理人群图像,然后通过将所述待处理人群图像输入至预设的密度图生成网络中进行人群密度估计的过程得到目标人群密度图。由于所述密度图生成网络为对标签密度图像和初始神经网络输出的预测人群密度图像进行下采样处理,并根据下采样后的预测人群密度图像和下采样后的标签密度图像之间的损失,对所述初始神经网络进行训练得到的网络,因此使用所述预设的密度图生成网络进行人群密度图估计时不仅考虑了待处理人群图像中单独像素点的表面特征,也考虑了每个单独像素点的局部相关性信息,避免了传统方法中训练神经网络时仅考虑单独像素点的表面特征导致的生成的人群密度图的准确率不高的问题,大大提高了生成目标人群密度图像的准确性;进一步地,由于所述预设的密度图生成网络是基于下采样后的预测人群密度图像和下采样后的标签密度图像之间的损失,对所述初始神经网络进行训练得到的网络,因此能够实现通过有效利用像素点之间的局部相关性训练初始神经网络的目的,也能够提高使用所述预设的密度图生成网络对所述待处理人群图像进行人群密度估计的精度,从而大大提高了所述目标人群密度图像的质量,确保了拥挤场景中人群密度图的准确性。
附图说明
图1为一个实施例中人群密度图的获取方法的流程示意图;
图2为另一实施例中人群密度图的获取方法的流程示意图;
图3为再一实施例中人群密度图的获取方法的流程示意图;
图4为又一实施例中人群密度图的获取方法的流程示意图;
图5为一个实施例中网络训练方法的流程示意图;
图6为一个实施例中人群密度图的获取装置的结构框图;
图7为一个实施例中网络训练装置的结构框图;
图8为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的人群密度图的获取方法,其执行主体可以是人群密度图的获取装置,所述人群密度图的获取装置可以通过软件、硬件或者软硬件结合的方式实现成为计算机设备的部分或者全部。可选的,该计算机设备可以为个人计算机(Persodal Computer,PC)、便携式设备、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备等其它电子设备,例如平板电脑、手机等等,所述电子设备可以内置图像采集装置,所述电子设备与所述图像采集装置之间也可以相互独立设置且相互之间可以通过有线或无线连接,所述图像采集装置可以是摄像头,本申请实施例对计算机设备的具体形式并不做限定。
需要说明的是,下述方法实施例的执行主体可以是上述计算机设备的部分或者全部。下述方法实施例以执行主体为计算机设备为例进行说明。
在一个实施例中,如图1所示,提供了一种人群密度图的获取方法,包括以下步骤:
步骤S11,获取待处理人群图像,所述待处理人群图像包括在人群密集的拥挤场景下拍摄的图像。
其中,所述在人群密集的拥挤场景下拍摄的图像可以包括在存在背景噪声、人与人之间的遮挡、人群分布的多样性等公共场所下拍摄的图像,所述公共场所可以包括节日庆典、演唱会或体育赛事等其它大规模群体性活动的所在场所。
具体地,计算机设备可以接收客户端发送的人群密度图获取指令,并根据所述人群密度图获取指令获取所述图像采集装置采集的若干个图像,然后按照预先设置的人群图像要求从所述若干个图像中筛选出人群图像,将所筛选出的人群图像作为所述待处理人群图像;其中,所述预先设置的人群图像要求可以包括背景噪声、人与人之间的遮挡、人群分布的多样性等其它条件。
在实际处理过程中,计算机设备针对筛选出的人群图像进行密度图估计时,通常由于存在的背景噪声、人与人之间的遮挡、人群分布多样性等导致很难生成准确的人群密度图,因此需要结合人群图像中单独像素点的表面特征以及每个单独像素点的局部相关性信息,确定密度图生成网络,以实现将所述待处理人群图像输入至所述密度图生成网络后,能够快速输出更加高质量的人群密度图的目的。.
步骤S12,将所述待处理人群图像输入至预设的密度图生成网络中,得到目标人群密度图;其中,所述密度图生成网络为对标签密度图像和初始神经网络输出的预测人群密度图像进行下采样处理,并根据下采样后的预测人群密度图像和下采样后的标签密度图像之间的损失,对所述初始神经网络进行训练得到的网络。
其中,所述标签密度图像可以包括对所述待处理人群图像进行标签处理后得到的图像,所述标签处理可以包括将所述待处理人群图像中出现人头的区域标记为1、未出现人头的区域或者背景区域均标记为0。并且,所述初始神经网络可以为CSRNet,CSRNet的网络结构如表1所示,CSRNet由前端网络(front-end)和后端网络(back-end)构成,前端网络是在VGG-16上进行微调后得到的,后端网络一共包含4个可选分支,可以选择的是第一个分支,conv3-512-1表示卷积核尺寸为3的卷积-卷积核数量为512-空洞率为1(普通卷积)。
表1
Figure BDA0002541832480000071
具体地,计算机设备在得到所述目标人群密度图之前,可以先获取所述预设的密度图生成网络,所述预设的密度图生成网络可以包括对人群图像对应的标签密度图像,以及所述人群图像输入至所述初始神经网络输出的预测人群密度图像分别进行预设次数的下采样处理,得到下采样处理后的预测人群密度图像和下采样处理后的标签密度图像,然后根据所述下采样处理后的预测人群密度图像和下采样处理后的标签密度图像之间的损失,对所述初始神经网络进行训练后得到的网络。
上述人群密度图的获取方法中,计算机设备首先将在人群密集的拥挤场景下拍摄的图像作为待处理人群图像,然后通过将所述待处理人群图像输入至预设的密度图生成网络中进行人群密度估计的过程得到目标人群密度图。由于所述密度图生成网络为对标签密度图像和初始神经网络输出的预测人群密度图像进行下采样处理,并根据下采样后的预测人群密度图像和下采样后的标签密度图像之间的损失,对所述初始神经网络进行训练得到的网络,因此使用所述预设的密度图生成网络进行人群密度图估计时不仅考虑了待处理人群图像中单独像素点的表面特征,也考虑了每个单独像素点的局部相关性信息,避免了传统方法中训练神经网络时仅考虑单独像素点的表面特征导致的生成的人群密度图的准确率不高的问题,大大提高了生成目标人群密度图像的准确性;进一步地,由于所述预设的密度图生成网络是基于下采样后的预测人群密度图像和下采样后的标签密度图像之间的损失,对所述初始神经网络进行训练得到的网络,因此能够实现通过有效利用像素点之间的局部相关性训练初始神经网络的目的,也能够提高使用所述预设的密度图生成网络对所述待处理人群图像进行人群密度估计的精度,从而大大提高了所述目标人群密度图像的质量,确保了拥挤场景中人群密度图的准确性。
通过上述实施例可知,通过所述预设的密度图生成网络能够实现快速且有效地得到所述目标人群密度图,因此如何对初始神经网络进行训练得到所述预设的密度图生成网络就显得尤为重要。在一个实施例中,如图2所示,步骤S12中所述预设的密度图生成网络的训练过程,可以包括以下步骤:
步骤S121,获取训练样本图像。
其中,所述训练样本图像的数量可以为多个,且每个训练样本图像可以为针对同一人群密集的公共场所拍摄的图像。
具体地,计算机设备可以接收客户端发送的神经网络训练指令,并根据所述神经网络训练指令,且按照预先设置的人群图像要求从所述图像采集装置采集的若干个图像中筛选出多个人群图像,并将所述多个人群图像作为训练样本图像。其中,所述预先设置的人群图像要求可以包括背景噪声、人与人之间的遮挡、人群分布的多样性等其它条件。
步骤S122,将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像。
其中,所述初始神经网络可以为CSRNet,CSRNet是一种当前计算拥挤人群密度的回归网络,且CSRNet由前端网络和后端网络两部分构成,所述前端网络采用剔除了全连接层的VGG-16网络,并且采用3×3的卷积核。由于相同大小的感知域,卷积核越小,卷积层数越多的模型优于更大卷积核且卷积层数较少的模型,因此,为了平衡准确性和资源开销,所述VGG-16网络采用10层卷积层和3层池化层的组合;所述后端网络可以采用六层空洞卷积层,空洞率相同,最后采用一层1×1的普通卷积层输出结果。
具体地,计算机设备在获取到所述训练样本图像时,可以将所述训练样本图像输入至初始神经网络中进行人群密度估计处理,并将所述初始神经网络输出的密度图像作为预测人群密度图像。
步骤S123,对所述预测人群密度图像和对应的标签密度图像分别进行至少两次下采样处理,得到每次下采样后的预测人群密度图像和对应下采样后的标签密度图像。
其中,所述下采样处理可以为最大池化处理,并且下采样处理的尺寸可以为d*d。可选地,d的取值可以为2。
具体地,计算机设备在获取到所述训练样本图像时,可以对所述训练样本图像进行标签处理,得到所述训练样本图像对应的标签密度图像;其中,所述标签处理可以包括将所述训练样本图像中出现人头的区域标记为1、未出现人头的区域或者背景区域均标记为0。然后,计算机设备可以对所述预测人群密度图像和对应的标签密度图像分别进行至少两次下采样处理,得到每次下采样后的预测人群密度图像和对应下采样后的标签密度图像。
在实际处理过程中,当所述训练样本图像的数量为多个时,计算机设备可以对每个训练样本图像分别进行标签处理,也即将每个训练样本图像中出现人头的区域标记为1、未出现人头的区域或者背景区域均标记为0,以此得到各个训练样本图像对应的各个标签样本图像。
步骤S124,根据所述每次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
具体地,当计算机设备获取到所述每次下采样后的预测人群密度图像和对应下采样后的标签密度图像时,可以进一步确定所述每次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,以及确定所述预测人群密度图像和对应的标签密度图像中像素之间的损失,然后根据所确定出的所有损失调整所述初始神经网络的参数,从而得到所述密度图生成网络。
本实施例中,计算机设备通过对训练样本图像输入至初始神经网络后输出的预测人群密度图像以及所述训练样本图像对应的标签密度图像分别至少两次下采样处理,以实现根据每次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失调整所述初始神经网络的参数的目的,进一步能够实现兼顾单个像素点的表面特征信息以及像素点之间的局部相关性训练初始神经网络的目的,从而得到准确度和精确度更高且实际应用价值极高的密度图生成网络。
虽然下采样处理能够有效利用像素点之间的局部相关性,但下采样处理的次数却并不是越多越好,为了确保训练过程中图像的质量和图像细节均能兼顾,可以设置至少两次下采样处理,并且可以通过计算每次下采样处理后对应图像之间的图像损失值调整所述初始神经网络的参数的方式得到所述密度图生成网络。基于此,在一个实施例中,如图3所示,步骤S124还可以包括以下步骤:
步骤S1241,针对每次下采样处理,计算下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的图像损失值。
具体地,针对每次下采样处理,计算机设备可以采用下式,也即预设的空间抽象损失函数计算每次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的图像损失值:
Figure BDA0002541832480000111
为第k次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的图像损失值,Nk为第k次下采样后的预测人群密度图像或者对应下采样后的标签密度图像中的像素点总个数,
Figure BDA0002541832480000112
为第k次下采样后的预测人群密度图像,
Figure BDA0002541832480000113
为第k次下采样后的标签密度图像,Z为所述训练样本图像输入至初始神经网络中得到的预测人群密度图像,Y为对所述训练样本图像进行标签处理后得到的标签密度图像。所述空间抽象损失函数用于获取所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的均方误差损失。
步骤S1242,根据所述至少两次下采样处理对应的所有图像损失值,调整所述初始神经网络的参数,得到所述密度图生成网络。
具体地,计算机设备可以采用下式计算所述至少两次下采样处理对应的所有图像损失值:
Figure BDA0002541832480000114
k=1、2、……、K,K为对所述预测人群密度图像和对应的标签密度图像进行下采样处理的总次数。可选地,K的取值为2。
并且,当计算机设备计算得到所述至少两次下采样处理对应的所有图像损失值时,还可以利用均方误差损失函数计算所述预测人群密度图像和对应的标签密度图像之间的均方误差损失值,然后根据所述至少两次下采样处理对应的所有图像损失值以及所述均方误差损失值,对所述初始神经网络的参数进行调整,直至调整后的参数满足预先设置的神经网络收敛条件时,得到所述密度图生成网络。
本实施例中,计算机设备可以先计算下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的图像损失值,并通过所述至少两次下采样处理对应的所有图像损失值调整所述初始神经网络的参数的训练过程确定所述密度图生成网络,以此体现下采样次数对训练初始神经网络的精度和准确度影响,从而训练得到精度和准确度均很高的密度图生成网络。
由上述实施例可知,通过每次下采样处理后对应图像之间的图像损失值调整所述初始神经网络的参数的方式得到的所述密度图生成网络的精度和准确度均很高,因此通过所述图像损失值调整所述初始神经网络的参数的过程也就尤为重要。基于此,在一个实施例中,如图4所示,步骤S1242可以包括以下步骤:
步骤S21,计算所述预测人群密度图像和对应的标签密度图像之间的像素损失值。
具体地,计算机设备可以采用预设的空间关联损失函数计算所述预测人群密度图像和对应的标签密度图像之间的像素损失值;其中,所述空间关联损失函数用于获取所述预测人群密度图像和对应的标签密度图像则像素点之间的局部关联损失。
Figure BDA0002541832480000121
LSC为所述预测人群密度图像和对应的标签密度图像之间的像素损失值,Zpq为所述预测人群密度图像中宽度为p、高度为q处的密度图,Ypq为所述对应的标签密度图像中宽度为p、高度为q处的密度图,P为所述预测人群密度图像或对应的标签密度图像的最大宽度,Q为所述预测人群密度图像或对应的标签密度图像的最大高度。
步骤S22,根据所述像素损失值以及所述至少两次下采样处理对应的所有图像损失值,得到总损失值。
具体地,计算机设备在计算得到所述预测人群密度图像和对应的标签密度图像之间的像素损失值以及所述至少两次下采样处理对应的所有图像损失值时,可以采用下式计算得到所述总损失值:
L=LSA+λLSC,LSC所述预测人群密度图像和对应的标签密度图像之间的像素损失值,LSA为所述至少两次下采样处理对应的所有图像损失值;λ为设定常数,可选地,λ可以取值为0.5。
步骤S23,根据所述总损失值调整所述初始神经网络的参数,直至所述总损失值达到预设的标准值,将达到标准值的总损失值对应的初始神经网络作为所述密度图生成网络。
具体地,计算机设备在确定出所述总损失值时,可以建立与输入进所述初始神经网络的各个训练样本图像、所述初始神经网络的各个参数之间的目标约束函数,所述目标约束函数可以表示为:k1x1+k2x2+……+kNxN,k1、k2、……、kN为所述初始神经网络的各个参数,x1、x2、……、xN为输入进所述初始神经网络的各个训练样本图像。
然后对所述总损失值进行最小化处理,得到最小化值,并对所述目标约束函数中的至少一个参数进行调整,直至经过调整后的目标约束函数的目标取值与所述最小化值相等,所述预设的标准值可以为所述目标取值,此时将达到标准值的总损失值对应的初始神经网络作为所述密度图生成网络。
在实际处理过程中,计算机设备针对获取的N个训练样本图像得到所述总损失值的过程可以包括以下步骤:
(1)当计算机设备将第i个训练样本图像输入至初始神经网络中得到第i个预测人群密度图像的同时,可以自动对第i个训练样本图像进行标签处理,得到第i个训练样本图像对应的第i个标签密度图像,然后对得到的第i个预测人群密度图像和第i个标签密度图像分别进行至少两次下采样处理,并计算所述至少两次下采样处理对应的所有图像损失值后记为第i个所有图像损失值;同时,计算第i个预测人群密度图像和第i个标签密度图像之间的像素损失值后记为第i个像素损失值。所述第i个所有图像损失值和所述第i个像素损失值
(2)令i+1作为新的i,返回(1)继续执行得到所述第i个所有图像损失值的步骤和得到所述第i个像素损失值的步骤;直至得到第1个所有图像损失值至第N个所有图像损失值,以及第1个像素损失值至第N个像素损失值。
然后将第1个所有图像损失值至第N个所有图像损失值进行累加,得到总图像损失值,同时将所述第1个像素损失值至第N个像素损失值进行累加,得到总像素损失值,再将所述总图像损失值和所述总像素损失值进行加权求和后,得到所述总损失值。
本实施例中,计算机设备通过所述预测人群密度图像和对应的标签密度图像之间的像素损失值以及所述至少两次下采样处理对应的所有图像损失值得到的总损失值调整所述初始神经网络的参数,得到所述密度图生成网络,实现了引入空间关联损失函数和空间抽象损失函数进行网络训练的目的,不仅有效利用了像素点的表面特征,也充分利用了像素点之间的局部相关性,从而能够得到精确度和准确度以及实际应用价值均极高的密度图生成网络。
由于通过训练得到的预设的密度图生成网络能够快速且准确的输出每个待处理人群图像对应的目标人群密度图,因此对神经网络进行训练的训练方法尤为重要。基于此,在一个实施例中,如图5所示,提供了一种网络训练方法,所述方法包括以下步骤:
步骤S31,获取训练样本图像。
具体地,计算机设备获取训练样本图像的过程与上述实施例中步骤121中所述获取训练样本图像的过程相同,此处不再赘述。
步骤S32,将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像。
具体地,计算机设备获取预测人群密度图像的过程与上述实施例中步骤122中所述将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像的过程相同,此处不再赘述。
步骤S33,对所述预测人群密度图像和对应的标签密度图像分别进行下采样处理,得到下采样后的预测人群密度图像和对应下采样后的标签密度图像。
其中,所述进行下采样处理可以包括进行至少两次下采样处理。
具体地,计算机设备得到所述下采样后的预测人群密度图像和对应下采样后的标签密度图像的过程,包括前述实施例步骤S123中所述对所述预测人群密度图像和对应的标签密度图像分别进行至少两次下采样处理,得到每次下采样后的预测人群密度图像和对应下采样后的标签密度图像的过程,此处不再赘述。
步骤S34,根据所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
具体地,计算机设备得到所述密度图生成网络的过程,包括前述实施例步骤S124中所述根据所述每次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络的过程,此处不再赘述。
应该理解的是,虽然图1-5的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1-5中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
由于前述实施例所述的人群密度图的获取方法可以对应一种人群密度图的获取装置,因此,在一个实施例中,如图6所示,提供了一种人群密度图的获取装置,包括:第一获取模块11和生成模块12,其中:
第一获取模块11,用于获取待处理人群图像,所述待处理人群图像包括在人群密集的拥挤场景下拍摄的图像。
生成模块12,用于将所述待处理人群图像输入至预设的密度图生成网络中,得到目标人群密度图;其中,所述密度图生成网络为对标签密度图像和初始神经网络输出的预测人群密度图像进行下采样处理,并根据下采样后的预测人群密度图像和下采样后的标签密度图像之间的损失,对所述初始神经网络进行训练得到的网络。
生成模块12,可以包括:获取子模块、训练子模块、采样子模块和调整子模块。
具体地,获取子模块,用于获取训练样本图像;
训练子模块,用于将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像;
采样子模块,用于对所述预测人群密度图像和对应的标签密度图像分别进行至少两次下采样处理,得到每次下采样后的预测人群密度图像和对应下采样后的标签密度图像;
调整子模块,用于根据所述每次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
调整子模块,可以包括:处理单元和调整单元。
具体地,处理单元,用于针对每次下采样处理,计算下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的图像损失值;
调整单元,用于根据所述至少两次下采样处理对应的所有图像损失值,调整所述初始神经网络的参数,得到所述密度图生成网络。
调整单元,可以包括:处理子单元、确定子单元、调整子单元。
具体地,处理子单元,用于计算所述预测人群密度图像和对应的标签密度图像之间的像素损失值;
处理子单元,用于根据所述像素损失值以及所述至少两次下采样处理对应的所有图像损失值,得到总损失值;
调整子单元,用于根据所述总损失值调整所述初始神经网络的参数,直至所述总损失值达到预设的标准值,将达到标准值的总损失值对应的初始神经网络作为所述密度图生成网络。
处理子单元,还可以用于采用预设的空间关联损失函数计算所述预测人群密度图像和对应的标签密度图像之间的像素损失值;其中,所述空间关联损失函数用于获取所述预测人群密度图像和对应的标签密度图像则像素点之间的局部关联损失。
处理单元,还可以用于针对每次下采样处理,采用预设的空间抽象损失函数计算每次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的图像损失值;其中,所述空间抽象损失函数用于获取所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的均方误差损失。
关于人群密度图的获取装置的具体限定可以参见上文中对于人群密度图的获取方法的限定,在此不再赘述。上述人群密度图的获取装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
由于前述实施例所述的网络训练方法可以对应一种网络训练装置,因此,在一个实施例中,如图7所示,提供了一种网络训练装置,包括:第二获取模块21、训练模块22、采样模块23和调整模块24,其中:
第二获取模块21,用于获取训练样本图像;
训练模块22,用于将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像;
采样模块23,用于对所述预测人群密度图像和对应的标签密度图像分别进行下采样处理,得到下采样后的预测人群密度图像和对应下采样后的标签密度图像;
调整模块24,用于根据所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
关于网络训练装置的具体限定可以参见上文中对于网络训练方法的限定,在此不再赘述。上述网络训练装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图8所示。该计算机设备包括通过***总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***和计算机程序。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种人群密度图的获取方法和网络训练方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取待处理人群图像,所述待处理人群图像包括在人群密集的拥挤场景下拍摄的图像;
将所述待处理人群图像输入至预设的密度图生成网络中,得到目标人群密度图;其中,所述密度图生成网络为对标签密度图像和初始神经网络输出的预测人群密度图像进行下采样处理,并根据下采样后的预测人群密度图像和下采样后的标签密度图像之间的损失,对所述初始神经网络进行训练得到的网络。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取训练样本图像;将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像;对所述预测人群密度图像和对应的标签密度图像分别进行至少两次下采样处理,得到每次下采样后的预测人群密度图像和对应下采样后的标签密度图像;根据所述每次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
针对每次下采样处理,计算下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的图像损失值;根据所述至少两次下采样处理对应的所有图像损失值,调整所述初始神经网络的参数,得到所述密度图生成网络。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
计算所述预测人群密度图像和对应的标签密度图像之间的像素损失值;根据所述像素损失值以及所述至少两次下采样处理对应的所有图像损失值,得到总损失值;根据所述总损失值调整所述初始神经网络的参数,直至所述总损失值达到预设的标准值,将达到标准值的总损失值对应的初始神经网络作为所述密度图生成网络。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
采用预设的空间关联损失函数计算所述预测人群密度图像和对应的标签密度图像之间的像素损失值;其中,所述空间关联损失函数用于获取所述预测人群密度图像和对应的标签密度图像则像素点之间的局部关联损失。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
针对每次下采样处理,采用预设的空间抽象损失函数计算每次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的图像损失值;其中,所述空间抽象损失函数用于获取所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的均方误差损失。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取训练样本图像;将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像;对所述预测人群密度图像和对应的标签密度图像分别进行下采样处理,得到下采样后的预测人群密度图像和对应下采样后的标签密度图像;根据所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取待处理人群图像,所述待处理人群图像包括在人群密集的拥挤场景下拍摄的图像;
将所述待处理人群图像输入至预设的密度图生成网络中,得到目标人群密度图;其中,所述密度图生成网络为对标签密度图像和初始神经网络输出的预测人群密度图像进行下采样处理,并根据下采样后的预测人群密度图像和下采样后的标签密度图像之间的损失,对所述初始神经网络进行训练得到的网络。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取训练样本图像;将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像;对所述预测人群密度图像和对应的标签密度图像分别进行至少两次下采样处理,得到每次下采样后的预测人群密度图像和对应下采样后的标签密度图像;根据所述每次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
针对每次下采样处理,计算下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的图像损失值;根据所述至少两次下采样处理对应的所有图像损失值,调整所述初始神经网络的参数,得到所述密度图生成网络。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
计算所述预测人群密度图像和对应的标签密度图像之间的像素损失值;根据所述像素损失值以及所述至少两次下采样处理对应的所有图像损失值,得到总损失值;根据所述总损失值调整所述初始神经网络的参数,直至所述总损失值达到预设的标准值,将达到标准值的总损失值对应的初始神经网络作为所述密度图生成网络。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
采用预设的空间关联损失函数计算所述预测人群密度图像和对应的标签密度图像之间的像素损失值;其中,所述空间关联损失函数用于获取所述预测人群密度图像和对应的标签密度图像则像素点之间的局部关联损失。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
针对每次下采样处理,采用预设的空间抽象损失函数计算每次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的图像损失值;其中,所述空间抽象损失函数用于获取所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的均方误差损失。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取训练样本图像;将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像;对所述预测人群密度图像和对应的标签密度图像分别进行下采样处理,得到下采样后的预测人群密度图像和对应下采样后的标签密度图像;根据所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (11)

1.一种人群密度图的获取方法,其特征在于,所述方法包括:
获取待处理人群图像,所述待处理人群图像包括在人群密集的拥挤场景下拍摄的图像;
将所述待处理人群图像输入至预设的密度图生成网络中,得到目标人群密度图;其中,所述密度图生成网络为对标签密度图像和初始神经网络输出的预测人群密度图像进行下采样处理,并根据下采样后的预测人群密度图像和下采样后的标签密度图像之间的损失,对所述初始神经网络进行训练得到的网络。
2.根据权利要求1所述的方法,其特征在于,所述预设的密度图生成网络的训练过程,包括:
获取训练样本图像;
将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像;
对所述预测人群密度图像和对应的标签密度图像分别进行至少两次下采样处理,得到每次下采样后的预测人群密度图像和对应下采样后的标签密度图像;
根据所述每次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
3.根据权利要求2所述的方法,其特征在于,所述根据所述每次采样后的预测人群密度图像和对应采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络,包括:
针对每次下采样处理,计算下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的图像损失值;
根据所述至少两次下采样处理对应的所有图像损失值,调整所述初始神经网络的参数,得到所述密度图生成网络。
4.根据权利要求3所述的方法,其特征在于,所述根据所述至少两次下采样处理对应的所有图像损失值,调整所述初始神经网络的参数,得到所述密度图生成网络,包括:
计算所述预测人群密度图像和对应的标签密度图像之间的像素损失值;
根据所述像素损失值以及所述至少两次下采样处理对应的所有图像损失值,得到总损失值;
根据所述总损失值调整所述初始神经网络的参数,直至所述总损失值达到预设的标准值,将达到标准值的总损失值对应的初始神经网络作为所述密度图生成网络。
5.根据权利要求4所述的方法,其特征在于,所述计算所述预测人群密度图像和对应的标签密度图像之间的像素损失值,包括:
采用预设的空间关联损失函数计算所述预测人群密度图像和对应的标签密度图像之间的像素损失值;其中,所述空间关联损失函数用于获取所述预测人群密度图像和对应的标签密度图像则像素点之间的局部关联损失。
6.根据权利要求3或4所述的方法,其特征在于,所述计算下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的图像损失值,包括:
针对每次下采样处理,采用预设的空间抽象损失函数计算每次下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的图像损失值;其中,所述空间抽象损失函数用于获取所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的均方误差损失。
7.一种网络训练方法,其特征在于,所述方法包括:
获取训练样本图像;
将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像;
对所述预测人群密度图像和对应的标签密度图像分别进行下采样处理,得到下采样后的预测人群密度图像和对应下采样后的标签密度图像;
根据所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
8.一种人群密度图的获取装置,其特征在于,所述装置包括:
第一获取模块,用于获取待处理人群图像,所述待处理人群图像包括在人群密集的拥挤场景下拍摄的图像;
生成模块,用于将所述待处理人群图像输入至预设的密度图生成网络中,得到目标人群密度图;其中,所述密度图生成网络为对标签密度图像和初始神经网络输出的预测人群密度图像进行下采样处理,并根据下采样后的预测人群密度图像和下采样后的标签密度图像之间的损失,对所述初始神经网络进行训练得到的网络。
9.一种网络训练装置,其特征在于,所述装置包括:
第二获取模块,用于获取训练样本图像;
训练模块,用于将所述训练样本图像输入至初始神经网络中,得到预测人群密度图像;
采样模块,用于对所述预测人群密度图像和对应的标签密度图像分别进行下采样处理,得到下采样后的预测人群密度图像和对应下采样后的标签密度图像;
调整模块,用于根据所述下采样后的预测人群密度图像和对应下采样后的标签密度图像之间的损失,调整所述初始神经网络的参数,得到所述密度图生成网络。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述的方法的步骤或权利要求7所述的方法的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤或权利要求7所述的方法的步骤。
CN202010549071.2A 2020-06-16 2020-06-16 人群密度图的获取方法、装置、计算机设备和存储介质 Withdrawn CN111582252A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010549071.2A CN111582252A (zh) 2020-06-16 2020-06-16 人群密度图的获取方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010549071.2A CN111582252A (zh) 2020-06-16 2020-06-16 人群密度图的获取方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN111582252A true CN111582252A (zh) 2020-08-25

Family

ID=72124133

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010549071.2A Withdrawn CN111582252A (zh) 2020-06-16 2020-06-16 人群密度图的获取方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN111582252A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112084959A (zh) * 2020-09-11 2020-12-15 腾讯科技(深圳)有限公司 一种人群图像处理方法及装置
CN112183627A (zh) * 2020-09-28 2021-01-05 中星技术股份有限公司 生成预测密度图网络的方法和车辆年检标数量检测方法
CN113869269A (zh) * 2021-10-13 2021-12-31 平安银行股份有限公司 活动现场拥挤度检测方法、装置、电子设备及存储介质
CN114862070A (zh) * 2022-07-07 2022-08-05 西南交通大学 预测人群疏散能力瓶颈的方法、装置、设备及存储介质
WO2022228142A1 (zh) * 2021-04-26 2022-11-03 腾讯科技(深圳)有限公司 对象密度确定方法、装置、计算机设备和存储介质

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112084959A (zh) * 2020-09-11 2020-12-15 腾讯科技(深圳)有限公司 一种人群图像处理方法及装置
CN112084959B (zh) * 2020-09-11 2024-04-16 腾讯科技(深圳)有限公司 一种人群图像处理方法及装置
CN112183627A (zh) * 2020-09-28 2021-01-05 中星技术股份有限公司 生成预测密度图网络的方法和车辆年检标数量检测方法
WO2022228142A1 (zh) * 2021-04-26 2022-11-03 腾讯科技(深圳)有限公司 对象密度确定方法、装置、计算机设备和存储介质
CN113869269A (zh) * 2021-10-13 2021-12-31 平安银行股份有限公司 活动现场拥挤度检测方法、装置、电子设备及存储介质
CN114862070A (zh) * 2022-07-07 2022-08-05 西南交通大学 预测人群疏散能力瓶颈的方法、装置、设备及存储介质
CN114862070B (zh) * 2022-07-07 2022-09-23 西南交通大学 预测人群疏散能力瓶颈的方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN111582252A (zh) 人群密度图的获取方法、装置、计算机设备和存储介质
US10685421B1 (en) Configurable convolution engine for interleaved channel data
WO2020103647A1 (zh) 物体关键点的定位方法、图像处理方法、装置及存储介质
CN106204660B (zh) 一种基于特征匹配的地面目标跟踪装置
JP7154678B2 (ja) 目標の位置取得方法、装置、コンピュータ機器及びコンピュータプログラム
US10319066B2 (en) Convolution engine with per-channel processing of interleaved channel data
CN107633526A (zh) 一种图像跟踪点获取方法及设备、存储介质
CN106797451A (zh) 具有模型验证和管理的视觉对象跟踪***
CN111062981A (zh) 图像处理方法、装置及存储介质
CN112084959B (zh) 一种人群图像处理方法及装置
CN112200041B (zh) 视频动作识别方法、装置、存储介质与电子设备
CN111666922A (zh) 视频匹配方法、装置、计算机设备和存储介质
WO2021099904A1 (en) Methods and systems for forecasting crowd dynamics
CN114096994A (zh) 图像对齐方法及装置、电子设备、存储介质
CN112115900B (zh) 图像处理方法、装置、设备及存储介质
CN114937125B (zh) 可重建度量信息预测方法、装置、计算机设备和存储介质
CN108073936B (zh) 目标跟踪方法、装置及设备
CN108537165A (zh) 用于确定信息的方法和装置
CN111652152A (zh) 人群密度检测方法、装置、计算机设备和存储介质
CN110232417B (zh) 图像识别方法、装置、计算机设备及计算机可读存储介质
CN115861891B (zh) 视频目标检测方法、装置、设备及介质
CN111079905A (zh) 卷积神经网络处理方法、装置和电子***
CN116229130A (zh) 模糊图像的类型识别方法、装置、计算机设备和存储介质
CN110288646A (zh) 一种基于图像的人体尺寸计算方法及装置
CN110062226B (zh) 一种视频编码方法、视频解码方法、装置、***及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20200825

WW01 Invention patent application withdrawn after publication