CN111815665B - 基于深度信息与尺度感知信息的单张图像人群计数方法 - Google Patents

基于深度信息与尺度感知信息的单张图像人群计数方法 Download PDF

Info

Publication number
CN111815665B
CN111815665B CN202010662406.1A CN202010662406A CN111815665B CN 111815665 B CN111815665 B CN 111815665B CN 202010662406 A CN202010662406 A CN 202010662406A CN 111815665 B CN111815665 B CN 111815665B
Authority
CN
China
Prior art keywords
density
density map
map
depth
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010662406.1A
Other languages
English (en)
Other versions
CN111815665A (zh
Inventor
田玲
朱大勇
张栗粽
罗光春
邬丹丹
董文琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202010662406.1A priority Critical patent/CN111815665B/zh
Publication of CN111815665A publication Critical patent/CN111815665A/zh
Application granted granted Critical
Publication of CN111815665B publication Critical patent/CN111815665B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机视觉技术,其公开了一种基于深度信息与尺度感知信息的单张图像人群计数方法,提高预测能力并降低计算复杂度。该方法包括:S1、对输入样本图片对应的人头中心坐标数据进行高斯映射,生成初步真值密度图,并基于深度估计算法得到的深度信息修正初步真值密度图,获得真值密度图;S2、采用密度估计网络对输入样本图片进行人群密度图的预测,生成预测密度图,根据预测密度图与真值密度图计算损失误差,通过梯度反向传播调整网络参数,经过迭代,生成密度预测模型;S3、在对单张图像进行人群计数时,利用密度预测模型生成此图像的预测密度图,通过计算获取此图像中的总人数。

Description

基于深度信息与尺度感知信息的单张图像人群计数方法
技术领域
本发明涉及计算机视觉技术,具体涉及一种基于深度信息与尺度感知信息的单张图像人群计数方法。
背景技术
人群计数旨在通过输入一张图片,经网络模型处理后,输出该图片对应的人群密度图,最后对密度图上每个像素对应的人数概率求和得到最终的总人数。由于遮挡、视角变化、人群尺度变化和分布多样性等问题,人群计数任务充满了挑战。
早期的方法主要通过目标检测器定位人群中每一个行人,检测到的目标数量即为计数结果。但是这些方法使用手工特征进行分类器的训练,在高度拥挤的场景中表现较差。为了解决复杂场景人群计数问题,现有利用卷积神经网络生成人群密度图,通过捕获尺度变化改善计数的性能。
2016年Zhang等人提出了MCNN算法来应对尺度变化,该算法由三个分支网络组成,每个分支网络采用不同大小的感受野对特征进行采样。对于给定的图片,分别经过三个分支网络处理,将得到的结果进行通道融合,最后通过1*1卷积得到最终的密度图。但是由于该设计方案仅仅涉及三个不同的尺度的卷积,每一类只能服务于一定的密度等级。然而,在实际的场景中存在着密集的变化,人群分布不均,不能严格将人群图片归于哪一个类别,所以MCNN算法的有效性被分支数目所限制。
2018年Cao等人提出了SANet算法来改善尺度感知结构,使用Inception结构集成尺度信息,在每一个卷积层上使用多个卷积核进行卷积操作,将各部分信息融合,充分共享了底层到顶层的信息。该网络中包括四个Inception结构,并在每个Inception结构后使用转置卷积进行尺度还原,使得生成的密度图与输入的密度图大小相同,可以进行像素级别的监督。但是人群计数场景中,受相机角度的影响,图像中远距离的行人表现为小目标。图像中这种小目标居多,且为主要的研究对象。使用Inception结构虽然可以集成多尺度信息,但随着网络的前向传递,特征高度抽象化,小目标的细节特征丢失,导致最终小目标的预测能力下降。另外,使用转置卷积进行尺度还原,计算的复杂度高,在一定训练批次范围内,其性能没有突出优势。
发明内容
本发明所要解决的技术问题是:提出一种基于深度信息与尺度感知信息的单张图像人群计数方法,提高预测能力并降低计算复杂度。
本发明解决上述技术问题采用的技术方案是:
基于深度信息与尺度感知信息的单张图像人群计数方法,包括以下步骤:
S1、对输入样本图片对应的人头中心坐标数据进行高斯映射,生成初步真值密度图,并基于深度估计算法得到的深度信息修正初步真值密度图,获得真值密度图;
S2、采用密度估计网络对输入样本图片进行人群密度图的预测,生成预测密度图,根据预测密度图与真值密度图计算损失误差,通过梯度反向传播调整网络参数,经过迭代,生成密度预测模型;
S3、在对单张图像进行人群计数时,利用密度预测模型生成此图像的预测密度图,通过计算获取此图像中的总人数。
作为进一步优化,步骤S1具体包括:
S11、将样本图片标签数据中的人头坐标点以固定尺寸的高斯核进行高斯分布映射,在图像的所有位置进行映射值的叠加,形成初步真值密度图F1(x);
S12、将样本图片标签数据中的人头坐标点以几何自适应高斯核进行高斯分布映射,在图像的所有位置进行映射值的叠加,形成初步真值密度图F2(x);
S13、采用单目深度估计算法提取输入样本图片中各个像素位置的深度信息,形成深度估计图Depth(x);
S14、基于深度估计图Depth(x)的信息,利用阈值分割算法确定最终的真值密度图:
Figure BDA0002579100810000021
其中,δ为预设的分割阈值,F1(i,j)表示初步真值密度图F1(x)中坐标(i,j)对应的值,F2(i,j)表示初步真值密度图F2(x)中坐标(i,j)对应的值,Depth(i,j)表示Depth(x)中坐标(i,j)处的深度值,M(i,j)表示最终的真值密度图在坐标(i,j)对应的值。
作为进一步优化,步骤S2中,所述密度估计网络包括:基础特征提取模块、多尺度捕获模块以及尺度转移模块;所述基础特征提取模块用于提取图片的纹理等低级特征;所述多尺度捕获模块用于图片特征的进一步提取、融合多尺度信息以及保存小目标的细节特征;所述尺度转移模块用于特征图的尺度还原,将特征图提升至输入图片的尺寸大小。
作为进一步优化,所述基础特征提取模块由VGG16网络中conv4_3之前的卷积层组成;所述多尺度捕获模块采用四层稠密连接层,每一层使用3×3卷积核提取特征,使用边缘填充保持特征图的分辨率不变,卷积的增长率设为256;所述尺度转移模块采用亚像素卷积进行特征图的尺度还原,将特征图的分辨率提升至输入图片大小。
作为进一步优化,步骤S2中,根据预测密度图与真值密度图计算损失误差,具体包括:
使用欧式距离作为损失函数度量预测密度图与真值密度图之间的误差,表达式为:
Figure BDA0002579100810000031
其中,F(Xi;θ)是网络输出的预测密度图,θ表示网络中的学习参数,Xi表示输入的第i张图片,
Figure BDA0002579100810000032
表示第i张图片的真值密度图,N是训练图片的数量。
本发明的有益效果是:
(1)监督信息更为精确:
本发明利用深度信息指导真值密度图的生成,生成的真值密度图比以往单一方式生成的真值密度图更为精确。利用该信息指导网络训练,预测的密度图更接近真实值。
(2)能够捕获大范围的尺度变化:
本发明利用稠密连接构建适合当前场景的多尺度捕获模块,融合多尺度信息的同时,保留更多的小目标细节特征,将有助于提高网络对于多尺度目标的预测性能。
(3)以较低计算复杂度进行尺度还原:
本发明利用亚像素卷积模块进行尺度还原,避免使用双线性插值上采样而忽略图像自身特性的问题,同时避免了使用转置卷积上采样的计算复杂性。
附图说明
图1为本发明基于深度信息与尺度感知信息的人群计数算法流程图;
图2为真值密度图的生成过程图;
图3为密度估计网络生成预测密度图进行人群计数的过程图。
具体实施方式
本发明旨在提出一种基于深度信息与尺度感知信息的单张图像人群计数方法,提高预测能力并降低计算复杂度。其核心思想是:(1)训练预测模型:首先生成初步真值密度图,然后,基于深度估计算法得到的深度信息修正初步真值密度图,从而获得真值密度图,用于点对点监督密度估计网络产生的预测密度图,根据真值密度图与预测密度图之间的误差,通过梯度反传调整网络参数,经过迭代,从而产生最终的预测模型;(2)基于训练的预测模型来实现输入图片的密度图的预测,并计算图中的总人数。
本发明中真值密度图生成,并不是借助单一的固定高斯核映射或几何自适应高斯核映射,而是基于人群图片的来源分析,图片中距离相机近的目标尺寸大,目标之间距离较大。距离相机较远的目标受视角影响,目标较小、目标之间距离较小。鉴于此,引入图片的深度信息来指导真值密度图的生成,获取更为精确的密度图监督预测密度图的生成。
本发明中获取预测密度图的过程中,使用稠密连接结构,融合多尺度特征的同时充分保留小目标细节特征,解决了现有方法在捕获多尺度特征时丢失小目标细节特征的问题。为了提升预测图的分辨率,充分利用图像自身信息,使用通道信息填充维度信息的方法。避免了现有方法使用线性插值上采样引入的手工特征的影响,同时避免转置卷积方式带来的计算复杂度。
在具体实现上,如图1所示,本发明中的基于深度信息与尺度感知信息的人群计数算法流程包括以下步骤:
S1:获得输入样本图片的真值密度图:
为获得输入样本图片的真值密度图标签,需要对输入图片对应的人头中心坐标数据进行高斯映射,生成初步真值密度图。然后基于深度估计算法得到的深度信息修正初步真值密度图,得到的真值密度图标签用于点对点监督密度估计网络产生的预测密度图。
这里会利用两种高斯映射方式,分别为固定高斯核函数和几何自适应高斯核函数,由这两种方式生成的初步真值密度图再通过深度信息进行融合生成最终的真值密度图,具体过程如图2所示。
S11、固定高斯核映射方式:
假定一个头部标注点的坐标为xi,使用δ(x-xi)表示高斯分布位置,因此有N个人头的图片可以表示为
Figure BDA0002579100810000041
对应的人群密度图可以表示为F(x)=片(x)*Gσ(x)。其中Gσ(x)表示高斯核函数,坐标越趋近中心点,值越大,σ表示函数作用的区域范围大小。这种密度函数假设每个头部标注点xi在图像空间的分布是相互独立的,但是在三维空间由于透视失真的影响,不同样本涉及的区域范围大小不同。
S12、几何自适应高斯核映射方式:
通过每个人与邻近对象的平均距离决定相关参数对于图片中的每个头部标记xi,标记其m个临近对象标记为
Figure BDA0002579100810000042
对象之间的平均距离为
Figure BDA0002579100810000043
其在人群图像中的分布为高斯核
Figure BDA0002579100810000044
其中σi
Figure BDA0002579100810000045
相关。该方法生成的密度图可以表示为
Figure BDA0002579100810000046
Figure BDA0002579100810000047
其中
Figure BDA0002579100810000048
β为超参数。
S13、深度估计图的提取:
本发明通过单目深度估计算法计算出输入样本图片对应的深度图,基于深度图的信息,利用阈值分割算法进行图片中每个位置的高斯映射值的修正,融合两种密度图信息形成最终的密度图。具体的,可以使用monodepth算法估计输入样本图片的深度信息,输入样本图片经过monodepth算法模型得到一张灰度图,该图上的每个像素值代表相机到物体表面的距离。
S14、利用深度信息融合S11、S12中生成的密度图:
假定输入图片为X∈Rh×h×c,其中h表示图片的尺寸大小,c表示图片的维度,使用固定高斯核函数得到真值密度图F1(x)。对输入图片使用几何自适应高斯核函数映射,得到的真值密度图为F2(x)。将输入图片经monodepth模型处理,得到深度信息图Depth(x)。基于深度信息对得到的两类真值密度图信息做进一步的处理,对于真值密度图F1(x)、F2(x),根据预设的深度阈值δ进行分割的操作如下:
Figure BDA0002579100810000051
其中F1(i,j)表示密度图F1(x)中坐标(i,j)对应的值,F2(i,j)表示密度图F2(x)中坐标(i,j)对应的值,Depth(i,j)表示Depth(x)中坐标(i,j)处的深度值,M(i,j)表示最终的真值密度图在坐标(i,j)对应的值。
S2、基于密度估计网络获取输入样本图片的预测密度图(密度估计图):
本发明中所采用的密度估计网络有三个主要部分组成:基础特征提取模块、多尺度捕获模块、尺度还原模块;其中,基础特征提取模块主要用于提取图片的纹理等低级特征;多尺度捕获模块用于特征的进一步提取、融合多尺度信息以及保存小目标的细节特征;尺度转移模块主要用于特征图的尺度还原,将特征图提升到输入图片的尺寸大小。
S21、基础特征提取模块:
该模型可以使用预训练的VGG模块中的层。以256×256大小的图片作为输入,分析VGG16中的卷积层,conv4_3层其感受野范围达到了172,已远远超出了大目标的尺度。当前场景下,大目标的尺度在图片中的占比不到二分之一,最终,本发明决定采用的基础特征提取模块由VGG16中conv4_3之前的卷积层组成。
S22、多尺度捕获模块:
为保留当前场景中小目标的细节特征,基础特征提取模块输出的特征信息通过多尺度模块依次向后传递,避免了现有研究方法丢失细节信息造成的性能瓶颈。与Resnet的随机短连接不同,稠密连接在层与层之间保证了最大程度的信息共享。通过感受野分析,增加四层稠密连接,其感受野范围能够满足所有尺寸目标的语义信息的提取。为了保证该模块能够提取到足够的上下文信息,同时避免增长率过高,该模块每一层使用3×3卷积核提取特征,使用边缘填充保持特征图的分辨率不变,卷积的增长率设为256。由于基础网络的输出通道为512维,进入尺度捕获模块之前需要进行维度转换为256通道的特征图。
S23、尺度还原模块:
该模块基于亚像素卷积提升特征图的分辨率,由于基础特征提取部分使用三次池化操作将图片进行8倍下采样,大小变为原来的1/8。在多尺度捕获模块,需要将多层特征图进行通道连接,故使用边缘填充保持特征图大小不变。为了进行尺度还原,我们需要对特征图进行8倍上采样。由于亚像素卷积操作中低分辨率特征图的数量必须是上采样因子的平方数,所以,本文在多尺度捕获模块结构后增加一个1×1卷积,将特征图的通道数调整为上采样因子的平方数64。最后,使用通道特征进行特征图的维度填充。
基于上述结构的密度估计网络生成预测密度图的过程如图3所示,输入样本图片首先经过基础特征提取部分提取基础特征,然后进入多尺度特征捕获模块融合尺度信息,最后进行尺度还原生成预测密度图。
在生成输入样本图片的预测密度图后,根据预测密度图与真值密度图计算损失误差,通过梯度反向传播调整网络参数,经过迭代,生成密度预测模型;
在训练过程中,使用欧式距离作为损失函数训练人群密度估计算法,欧式损失主要用于计算像素级别的估计误差,其表达式为
Figure BDA0002579100810000061
其中F(Xi;θ)是网络输出的密度估计图,θ表示网络中的学习参数,Xi表示输入的第i张图片,
Figure BDA0002579100810000062
表示第i张图片的真值标签图,N是训练图片的数量。
密度预测模型的输入:用于训练的人群图片及标签数据
Figure BDA0002579100810000063
输出:预测密度图
Figure BDA0002579100810000064
训练过程如下:
1、数据预处理:获取图片的初步真值密度图F1(Xi)、F2(Xi);取图片的深度图信息Depth(Xi);确定深度分割阈值δ;基于深度信息,得到最终的真值密度图M(Xi);
2、模型参数初始化,然后训练模型,直至模型收敛:按批次载入图片;基础特征提取,更新特征图Fi 1∈Rh1×h1×c1←Xi∈Rh×h×c;对特征图进行通道变换Fi 1∈Rh1×h1×c2←Fi 1∈Rh1 ×h1×c1;多尺度捕获,更新特征图Fi 2←Fi 1;对特征图进行通道变换
Figure BDA0002579100810000067
Figure BDA0002579100810000068
尺度还原,获取预测图
Figure BDA0002579100810000065
计算M(Xi),
Figure BDA0002579100810000066
的误差,更新模型参数。
其中模型参数的初始化,除了参与训练的VGG部分,其余部分的卷积核参数均使用高斯函数进行初始化,其标准差设置为0.01。模型的优化使用Adam算法代替常规的随机梯度下降算法,为了使得模型能够快速收敛,设置固定的学习率为1e-5
在训练出稳定的密度预测模型后,就可以在实际应用中,利用此模型对输入图片生成此图像的预测密度图,在获得密度图之后,通过像素点求和即可获得图中的总人数,其为现有计算,这里不再赘述。

Claims (4)

1.基于深度信息与尺度感知信息的单张图像人群计数方法,其特征在于,包括以下步骤:
S1、对输入样本图片对应的人头中心坐标数据进行高斯映射,生成初步真值密度图,并基于深度估计算法得到的深度信息修正初步真值密度图,获得真值密度图;
S2、采用密度估计网络对输入样本图片进行人群密度图的预测,生成预测密度图,根据预测密度图与真值密度图计算损失误差,通过梯度反向传播调整网络参数,经过迭代,生成密度预测模型;
S3、在对单张图像进行人群计数时,利用密度预测模型生成此图像的预测密度图,通过计算获取此图像中的总人数;
步骤S1具体包括:
S11、将样本图片标签数据中的人头坐标点以固定尺寸的高斯核进行高斯分布映射,在图像的所有位置进行映射值的叠加,形成初步真值密度图F1(x);
S12、将样本图片标签数据中的人头坐标点以几何自适应高斯核进行高斯分布映射,在图像的所有位置进行映射值的叠加,形成初步真值密度图F2(x);
S13、采用单目深度估计算法提取输入样本图片中各个像素位置的深度信息,形成深度估计图Depth(x);
S14、基于深度估计图Depth(x)的信息,利用阈值分割算法确定最终的真值密度图:
Figure FDA0003842397960000011
其中,δ为预设的分割阈值,F1(i,j)表示初步真值密度图F1(x)中坐标(i,j)对应的值,F2(i,j)表示初步真值密度图F2(x)中坐标(i,j)对应的值,Depth(i,j)表示Depth(x)中坐标(i,j)处的深度值,M(i,j)表示最终的真值密度图在坐标(i,j)对应的值。
2.如权利要求1所述的基于深度信息与尺度感知信息的单张图像人群计数方法,
其特征在于,步骤S2中,所述密度估计网络包括:基础特征提取模块、多尺度捕获模块以及尺度转移模块;所述基础特征提取模块用于提取图片的纹理等低级特征;所述多尺度捕获模块用于图片特征的进一步提取、融合多尺度信息以及保存小目标的细节特征;所述尺度转移模块用于特征图的尺度还原,将特征图提升至输入图片的尺寸大小。
3.如权利要求2所述的基于深度信息与尺度感知信息的单张图像人群计数方法,
其特征在于,所述基础特征提取模块由VGG16网络中conv4_3之前的卷积层组成;所述多尺度捕获模块采用四层稠密连接层,每一层使用3×3卷积核提取特征,使用边缘填充保持特征图的分辨率不变,卷积的增长率设为256;所述尺度转移模块采用亚像素卷积进行特征图的尺度还原,将特征图的分辨率提升至输入图片大小。
4.如权利要求1-3任意一项所述的基于深度信息与尺度感知信息的单张图像人群计数方法,其特征在于,
步骤S2中,根据预测密度图与真值密度图计算损失误差,具体包括:
使用欧式距离作为损失函数度量预测密度图与真值密度图之间的误差,表达式为:
Figure FDA0003842397960000021
其中,F(Xi;θ)是网络输出的预测密度图,θ表示网络中的学习参数,Xi表示输入的第i张图片,
Figure FDA0003842397960000022
表示第i张图片的真值密度图,N是训练图片的数量。
CN202010662406.1A 2020-07-10 2020-07-10 基于深度信息与尺度感知信息的单张图像人群计数方法 Active CN111815665B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010662406.1A CN111815665B (zh) 2020-07-10 2020-07-10 基于深度信息与尺度感知信息的单张图像人群计数方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010662406.1A CN111815665B (zh) 2020-07-10 2020-07-10 基于深度信息与尺度感知信息的单张图像人群计数方法

Publications (2)

Publication Number Publication Date
CN111815665A CN111815665A (zh) 2020-10-23
CN111815665B true CN111815665B (zh) 2023-02-17

Family

ID=72841731

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010662406.1A Active CN111815665B (zh) 2020-07-10 2020-07-10 基于深度信息与尺度感知信息的单张图像人群计数方法

Country Status (1)

Country Link
CN (1) CN111815665B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112767451B (zh) * 2021-02-01 2022-09-06 福州大学 一种基于双流卷积神经网络的人群分布预测方法及其***
CN112861718A (zh) * 2021-02-08 2021-05-28 暨南大学 一种轻量级特征融合人群计数方法及***
CN113436239A (zh) * 2021-05-18 2021-09-24 中国地质大学(武汉) 一种基于深度信息估计的单目图像三维目标检测方法
CN113688747B (zh) * 2021-08-27 2024-04-09 国网浙江省电力有限公司双创中心 图像中人员目标检测方法、***、装置及存储介质
CN113807274B (zh) * 2021-09-23 2023-07-04 山东建筑大学 一种基于图像反透视变换的人群计数方法及***
CN113869285B (zh) * 2021-12-01 2022-03-04 四川博创汇前沿科技有限公司 一种人群密度估计装置、方法和存储介质
CN114926409B (zh) * 2022-04-29 2024-05-28 贵州航天云网科技有限公司 一种智能工业元器件数据采集方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295557A (zh) * 2016-08-05 2017-01-04 浙江大华技术股份有限公司 一种人群密度估计的方法及装置
CN107301387A (zh) * 2017-06-16 2017-10-27 华南理工大学 一种基于深度学习的图像高密度人群计数方法
CN107862261A (zh) * 2017-10-25 2018-03-30 天津大学 基于多尺度卷积神经网络的图像人群计数方法
CN109145708A (zh) * 2018-06-22 2019-01-04 南京大学 一种基于rgb和d信息融合的人流量统计方法
WO2019084854A1 (en) * 2017-11-01 2019-05-09 Nokia Technologies Oy Depth-aware object counting
CN109858424A (zh) * 2019-01-25 2019-06-07 佳都新太科技股份有限公司 人群密度统计方法、装置、电子设备和存储介质
CN110765817A (zh) * 2018-07-26 2020-02-07 株式会社日立制作所 人群计数模型的选择方法、装置、设备及其存储介质
CN111126177A (zh) * 2019-12-05 2020-05-08 杭州飞步科技有限公司 人数统计的方法及装置
CN111242036A (zh) * 2020-01-14 2020-06-05 西安建筑科技大学 一种基于编码-解码结构多尺度卷积神经网络的人群计数方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8861816B2 (en) * 2011-12-05 2014-10-14 Illinois Tool Works Inc. Method and apparatus for prescription medication verification

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295557A (zh) * 2016-08-05 2017-01-04 浙江大华技术股份有限公司 一种人群密度估计的方法及装置
CN107301387A (zh) * 2017-06-16 2017-10-27 华南理工大学 一种基于深度学习的图像高密度人群计数方法
CN107862261A (zh) * 2017-10-25 2018-03-30 天津大学 基于多尺度卷积神经网络的图像人群计数方法
WO2019084854A1 (en) * 2017-11-01 2019-05-09 Nokia Technologies Oy Depth-aware object counting
CN109145708A (zh) * 2018-06-22 2019-01-04 南京大学 一种基于rgb和d信息融合的人流量统计方法
CN110765817A (zh) * 2018-07-26 2020-02-07 株式会社日立制作所 人群计数模型的选择方法、装置、设备及其存储介质
CN109858424A (zh) * 2019-01-25 2019-06-07 佳都新太科技股份有限公司 人群密度统计方法、装置、电子设备和存储介质
CN111126177A (zh) * 2019-12-05 2020-05-08 杭州飞步科技有限公司 人数统计的方法及装置
CN111242036A (zh) * 2020-01-14 2020-06-05 西安建筑科技大学 一种基于编码-解码结构多尺度卷积神经网络的人群计数方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《Cascaded Multi-Task Learning of Head Segmentation and Density Regression for RGBD Crowd Counting》;Desen Zhou等;《IEEE Access》;20200529;全文 *
《多层次特征融合的人群密度估计》;陈朋等;《中国图象图形学报》;20180831;全文 *

Also Published As

Publication number Publication date
CN111815665A (zh) 2020-10-23

Similar Documents

Publication Publication Date Title
CN111815665B (zh) 基于深度信息与尺度感知信息的单张图像人群计数方法
CN107154023B (zh) 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN109886121B (zh) 一种遮挡鲁棒的人脸关键点定位方法
CN109377530B (zh) 一种基于深度神经网络的双目深度估计方法
CN108648161B (zh) 非对称核卷积神经网络的双目视觉障碍物检测***及方法
CN111612807B (zh) 一种基于尺度和边缘信息的小目标图像分割方法
CN112488210A (zh) 一种基于图卷积神经网络的三维点云自动分类方法
CN113052835B (zh) 一种基于三维点云与图像数据融合的药盒检测方法及其检测***
CN111259945B (zh) 引入注意力图谱的双目视差估计方法
Zhou et al. Scale adaptive image cropping for UAV object detection
CN114863573B (zh) 一种基于单目rgb-d图像的类别级6d姿态估计方法
CN111524135A (zh) 基于图像增强的输电线路细小金具缺陷检测方法及***
CN112862792B (zh) 一种用于小样本图像数据集的小麦白粉病孢子分割方法
CN113673590B (zh) 基于多尺度沙漏密集连接网络的去雨方法、***和介质
CN112396607A (zh) 一种可变形卷积融合增强的街景图像语义分割方法
CN113065546A (zh) 一种基于注意力机制和霍夫投票的目标位姿估计方法及***
CN112465021B (zh) 基于图像插帧法的位姿轨迹估计方法
CN109740539B (zh) 基于超限学习机和融合卷积网络的3d物体识别方法
CN114724120A (zh) 基于雷视语义分割自适应融合的车辆目标检测方法及***
CN114429555A (zh) 由粗到细的图像稠密匹配方法、***、设备及存储介质
CN114898284B (zh) 一种基于特征金字塔局部差异注意力机制的人群计数方法
CN112084952B (zh) 一种基于自监督训练的视频点位跟踪方法
CN112509021A (zh) 一种基于注意力机制的视差优化方法
CN111414931A (zh) 一种基于图像深度的多分支多尺度小目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant