CN111191667A - 基于多尺度生成对抗网络的人群计数方法 - Google Patents

基于多尺度生成对抗网络的人群计数方法 Download PDF

Info

Publication number
CN111191667A
CN111191667A CN201811356818.1A CN201811356818A CN111191667A CN 111191667 A CN111191667 A CN 111191667A CN 201811356818 A CN201811356818 A CN 201811356818A CN 111191667 A CN111191667 A CN 111191667A
Authority
CN
China
Prior art keywords
density map
crowd
density
network
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811356818.1A
Other languages
English (en)
Other versions
CN111191667B (zh
Inventor
咸良
杨建兴
周圆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University Marine Technology Research Institute
Original Assignee
Tianjin University Marine Technology Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University Marine Technology Research Institute filed Critical Tianjin University Marine Technology Research Institute
Priority to CN201811356818.1A priority Critical patent/CN111191667B/zh
Publication of CN111191667A publication Critical patent/CN111191667A/zh
Application granted granted Critical
Publication of CN111191667B publication Critical patent/CN111191667B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

基于多尺度生成对抗网络的人群计数方法,采用一种对抗的训练方式来进行人群密度预测。生成模型和判别模型采用联合交替迭代的训练方式优化最大最小问题。其中,训练生成网络用于生成准确的人群密度图从而欺骗过判别器,相反,判别器被训练用于辨别生成的密度图和真实的密度图标签。同时,判别器的输出会为生成器提供密度图位置和预测精度的反馈。两个网络同时竞争训练从而提升生成的效果直到生成器生成的样本不能被判别器正确判断。本专利提出的人群密度检测算法在引入对抗损失之后,采用对抗的训练方式使卷积神经网络生成更加高质量的密度图,从而提升网络人群计数的准确率。

Description

基于多尺度生成对抗网络的人群计数方法
技术领域
本发明涉及图像处理、计算机视觉领域,具体是一种基于多尺度生成对抗网络的人群计数算法。
背景技术
随着我国人口的不断增长,大规模人群聚集的场合越来越多。为了有效控制公共场所的人群数量,防止人群密度过载造成意外事故,视频监控成为了目前的主要手段。在视频监控和安防领域中,人群分析吸引了越来越多研究者的关注,成为了当前计算机视觉领域十分火热的研究课题。人群计数任务是准确估计出图片中人群的总人数同时给出人群密度的分布情况。图片人群计数可以用于许多的领域,例如事故预防、空间规划、消费习惯分析和交通调度等。
目前,应用于智能监控上主流的人群计数算法主要分为两类:基于检测的人群计数算法与基于回归的人群计数算法。基于检测的人群计数算法,即在监控视频中,假设每帧图像的所有行人都能通过人工设计的视觉目标检测器被精确检测并定位,通过累计所有检测到的目标从而得到人数的估计值。Papageorgiou等早在1998提出了通过提取图像中不同尺度的小波特征训练SVM分类器,用于行人检测任务中。Lin等在2001年提出了一种改进的方法,即通过预先对图像进行直方图均衡以及Haar小波变换,之后再提取多尺度的人头部轮廓统计特征,最终使用SVM进行检测器训练,此算法在视频清晰度较高时能得到更加准确的人群检测计数结果,但其受环境变化和监控镜头视角影响较大。Dalal等在2005年提出一种基于梯度方向直方图(HOG)特征的行人检测算法,结合线性SVM对图像中的人群进行分类检测并统计得出人群数量,进一步提高了行人检测的准确率。
然而,当监控场景中人群密度较高时,人群遮挡问题始终会导致基于检测器的人群计数算法无法准确检测和跟踪大部分行人。
发明内容
为了解决现有技术存在的问题,本专利基于多尺度生成对抗网络的人群计数方法,将单列卷积神经网络在不同深度的特征进行融合,解决了人群图像中的尺度变化和遮挡等问题,同时,网络模型加入判别器的对抗损失,采用一种对抗的训练方式来进行人群密度预测,生成更加高质量的密度图。
基于多尺度生成对抗网络的人群计数方法,具体步骤如下:
1. 人群场景高斯核密度图
现有的人群计数训练数据集提供了人群图像以及对应标记的人头坐标,无法直接利用采用人头的坐标值作为训练标签,本发明将给定的人头坐标数据转换为人群密度分布图的形式,在数据集的人群图像中,对于给定的人头坐标
Figure 830709DEST_PATH_IMAGE001
,可以用离散的
Figure 160060DEST_PATH_IMAGE002
表示对应的人头的坐标位置,因此每张图像中的N个人头的位置可以标记为:
Figure 172009DEST_PATH_IMAGE003
为了将人头位置坐标函数转换为连续的密度函数,将高斯滤波器
Figure 903205DEST_PATH_IMAGE004
与人头位置函数卷积得到密度方程,具体方程如下所示:
Figure 771935DEST_PATH_IMAGE005
2. 构建多尺度生成对抗网络
基于深度卷积神经网络的人群计数方法,在复杂核高密度的人群场景下,预测的人群密度图的质量不够理想,其原因主要是因为在复杂人群场景下,行人和背景之间具有很高的相似度,卷积神经网络的方法会出现错误检测和分类的现象。同时,预测的密度图的质量很大程度上影响着人群计数的准确率。本发明提出一种基于多尺度卷积生成对抗网络(Multi-Scale Generative Adversarial Networks, MS-GAN)的人群计数方法,引入多抗损失函数来提高预测的准确性。
多尺度生成对抗网络模型结构图如图一所示,主要包括两个部分:生成器和判别器。其中生成器是多尺度卷积神经网络,生成器以人群图像作为输入,输出为预测的人群密度前文中已经介绍过的图像,然后将得到的密度图和人群图像相叠加同时输入到判别器中,训练判别器来辨别输入的是生成的密度图还是真实的密度图。同时由于人群图像的叠加输入,判别器还需要辨别生成的密度图与人群图像是否匹配。
3. 基于内容损失函数设计
本文提出的网络模型中,生成器用于学***均平方误差(Mean Square Error, MSE):
Figure 336384DEST_PATH_IMAGE006
其中
Figure 135712DEST_PATH_IMAGE007
代表生成器生成的密度图,参数
Figure 190256DEST_PATH_IMAGE008
作为生成器网络模型的参数。除此之外,
Figure 901991DEST_PATH_IMAGE009
代表第
Figure 205934DEST_PATH_IMAGE010
张人群图像,
Figure 12216DEST_PATH_IMAGE011
表示人群图像
Figure 937577DEST_PATH_IMAGE009
的真实标签密度图。
Figure 335061DEST_PATH_IMAGE012
表示为所有训练图像的个数。
4.对抗损失函数设计
判别器的目的是区分生成的密度图和真实标签密度图的差异。因此,本文将生成的密度图标记为0真实的密度图标签标记为1。判别器的输出代表生成的密度图是真实密度图的概率。本方法中采用一个额外的对抗损失函数来提升生成密度图的质量。对抗损失(Adversarial Loss)函数如下式表示:
Figure 595141DEST_PATH_IMAGE013
其中,
Figure 955846DEST_PATH_IMAGE014
代表预测的密度图
Figure 516140DEST_PATH_IMAGE015
与对应的人群图像的匹配程度。判别器的输出是一种张量的形式,将人群图像
Figure 818946DEST_PATH_IMAGE016
和生成的密度图
Figure 48545DEST_PATH_IMAGE017
或真实的密度图标签
Figure 993368DEST_PATH_IMAGE018
在第三个维度上进行叠加。最后对于生成器的损失函数是平均平方误差和对抗损失的加权和,生成器的损失函数如下所示:
Figure 877010DEST_PATH_IMAGE019
本文通过大量实验的效果,设置
Figure 101449DEST_PATH_IMAGE020
去权衡两种损失数值的比重。该模型在实际训练过程中证明,两种损失函数的结合使网络的训练更加稳定,使密度图的预测更加准确。
5. 对抗网络联合训练
基于对抗网络的人群密度图预测模型,与最初的生成对抗网络的目的不尽相同,首先人群密度估计的目的是产生准确的密度图,而不是生成真实的自然图像。因此,本文提出的人群密度估计模型中的输入不再是服从正太分布的随机噪声而是输入一张人群图像。其次,由于人群图像中包含了人群场景的分布信息,本文提出的人群密度预测模型中把人群图像作为人群密度图的条件信息,将人群密度图和人群图像同时输入到判别器中。在实际训练过程中,本文采用条件对抗网络模型,联合训练的目的是为了估计高质量的人群密度图。生成器和判别器的联合训练公式如下所示:
Figure 70542DEST_PATH_IMAGE021
其中,
Figure 553476DEST_PATH_IMAGE022
表示为生成器,生成器网络以人群图像
Figure 307937DEST_PATH_IMAGE016
作为输入,网络的输出为预测的人群密度图
Figure 952545DEST_PATH_IMAGE017
Figure 408934DEST_PATH_IMAGE023
表示为判别器,判别器的输出是人群密度图像是真实密度图的概率。判别器的目的是为了辨别生成器的生成的密度图
Figure 446291DEST_PATH_IMAGE017
和真实的标签密度图
Figure 38946DEST_PATH_IMAGE018
。同时训练生成器产生无法被判别器辨别的高质量的密度图。
基于生成对抗网络的人群计数模型采用一种对抗的训练方式来进行人群密度预测。生成模型和判别模型采用联合交替迭代的训练方式优化最大最小问题。其中,训练生成网络用于生成准确的人群密度图从而欺骗过判别器,相反,判别器被训练用于辨别生成的密度图和真实的密度图标签。同时,判别器的输出会为生成器提供密度图位置和预测精度的反馈。两个网络同时竞争训练从而提升生成的效果直到生成器生成的样本不能被判别器正确判断。本专利提出的人群密度检测算法在引入对抗损失之后,采用对抗的训练方式使卷积神经网络生成更加高质量的密度图,从而提升网络人群计数的准确率。
附图说明
图1是多尺度生成对抗网络结构图。
具体实施方式
本发明需要解决给定一张人群图像或者视频中的一帧,然后估计该图像各个区域人群的密度以及人数总计。
多层级卷积神经网络的结构如图1中的生成器部分所示所示,在网络的前三个卷积块中,分别对Conv-1,Conv-2,Conv-3三个不同的卷积块上采用多尺度卷积模块(inception)进行多尺度特征提取,多尺度卷积模块采用三种不同尺度大小
Figure 854456DEST_PATH_IMAGE024
的卷积核去获取不同尺度的特征,每一个多尺度卷积模块都对深度特征做了多尺度的特征表达。为了使不同尺度的特指那个图的尺寸一致,本文将不同尺寸的特征图采用池化的方法将特征图池化到统一尺寸。其中conv-1采用两层池化,conv-2采用一层池化,最终与conv-3的尺寸一致。最后在将不同层级不同尺度的特征输入到conv-4卷积层采用1×1的卷积核进行特征融合。在网络最后融合了三个不同尺度的特征,使用融合之后的特征图进行密度图回归。该网络能大幅度提升对高密度人群场景中小尺度行人的检测,最终提升人群密度图预测的效果。
融合判别器的多尺度生成对抗网络模型如图1所示,模型主要包括两个部分,生成器和判别器,其中生成器是前文中已经介绍过的多尺度卷积神经网络,生成器以人群图像作为输入,输出为预测的人群密度图像,然后将得到的密度图和人群图像相叠加同时输入到判别器中,训练判别器来辨别输入的是生成的密度图还是真实的密度图。同时由于人群图像的叠加输入,判别器还需要辨别生成的密度图与人群图像是否匹配。
本文的实验时基于Tensorflow深度学***均平方损失训练生成器20个epoch,在此基础上加入判别器,交替优化两个网络进行100个epoch的训练。判别器的输入是以张量的形式输入的,张量的结构主要包括RGB三个通道原始图像和单个通道密度图,最终组成的维度为
Figure 647978DEST_PATH_IMAGE026
的张量。
本发明在UCF_CC_50数据集上与其他方法进行了比较。实验结果的评价标准采用平均绝对误差(MAE):
Figure 360719DEST_PATH_IMAGE027
,和均方误差(MSE):
Figure 363441DEST_PATH_IMAGE028
(N为图片数量,
Figure 794423DEST_PATH_IMAGE029
为第i幅图像中实际的人头数,
Figure 891692DEST_PATH_IMAGE030
为第i幅图像通过本发明提供的网络输出的人头数)来衡量算法的准确性。在UCF_CC_50商场数据集上,本发明与现有算法的技术对比,如下表所示(MS-GAN为本发明算法):
表中的实验性能比较表示,本发明的方法在准确性和稳定性上均好于MCNN和CrowdNet,在MSE和MAE两个指标上MS-GAN为多种基于卷积神经网络的人群计数算法中表现最好,说明MS-GAN在多种场景中的人数估计误差相对平均,具有相对更高的稳定性。预测的人群密度图的质量明显优于其他基于卷积神经网络的人群计数方法。
Figure 6409DEST_PATH_IMAGE031

Claims (1)

1.基于多尺度生成对抗网络的人群计数方法,其特征在于:具体步骤如下:
1人群场景高斯核密度图:
将给定的人头坐标数据转换为人群密度分布图的形式,在数据集的人群图像中,对于给定的人头坐标
Figure 22337DEST_PATH_IMAGE001
,可以用离散的
Figure 261689DEST_PATH_IMAGE002
表示对应的人头的坐标位置,因此每张图像中的N个人头的位置可以标记为:
Figure 788309DEST_PATH_IMAGE003
为了将人头位置坐标函数转换为连续的密度函数,将高斯滤波器
Figure 706587DEST_PATH_IMAGE004
与人头位置函数卷积得到密度方程,具体方程如下所示:
Figure 14071DEST_PATH_IMAGE005
2构建多尺度生成对抗网络:
多尺度生成对抗网络模型结构主要包括两个部分:生成器和判别器,其中生成器是多尺度卷积神经网络,生成器以人群图像作为输入,输出为预测的人群密度图,然后将得到的密度图和人群图像相叠加同时输入到判别器中,训练判别器来辨别输入的是生成的密度图还是真实的密度图,同时由于人群图像的叠加输入,判别器还需要辨别生成的密度图与人群图像是否匹配;
3基于内容损失函数设计:
采用基于像素级的损失函数,计算预测密度图和真实密度图之间的欧氏距离作为网络的损失函数,损失函数采用像素级的平均平方误差(Mean Square Error, MSE):
Figure 560459DEST_PATH_IMAGE006
其中
Figure 888672DEST_PATH_IMAGE007
代表生成器生成的密度图,参数
Figure 435191DEST_PATH_IMAGE008
作为生成器网络模型的参数,除此之外,
Figure 765941DEST_PATH_IMAGE009
代表第
Figure 307780DEST_PATH_IMAGE010
张人群图像,
Figure 213420DEST_PATH_IMAGE011
表示人群图像
Figure 965344DEST_PATH_IMAGE009
的真实标签密度图,
Figure 614631DEST_PATH_IMAGE012
表示为所有训练图像的个数;
4对抗损失函数设计:
采用一个额外的对抗损失函数来提升生成密度图的质量,对抗损失(AdversarialLoss)函数如下式表示:
Figure 10977DEST_PATH_IMAGE013
其中,
Figure 304162DEST_PATH_IMAGE014
代表预测的密度图与对应的人群图像的匹配程度,判别器的输出是一种张量的形式,将人群图像
Figure 606147DEST_PATH_IMAGE016
和生成的密度图
Figure 43951DEST_PATH_IMAGE017
或真实的密度图标签
Figure 494655DEST_PATH_IMAGE018
在第三个维度上进行叠加,最后对于生成器的损失函数是平均平方误差和对抗损失的加权和,生成器的损失函数如下所示:
Figure 96537DEST_PATH_IMAGE019
通过大量实验的效果,设置
Figure 307201DEST_PATH_IMAGE020
去权衡两种损失数值的比重,该模型两种损失函数的结合使网络的训练更加稳定,使密度图的预测更加准确;
5对抗网络联合训练:
采用条件对抗网络模型,目的是为了估计高质量的人群密度图,生成器和判别器的联合训练公式如下所示:
Figure 350244DEST_PATH_IMAGE021
其中,
Figure 96483DEST_PATH_IMAGE022
表示为生成器,生成器网络以人群图像
Figure 44716DEST_PATH_IMAGE016
作为输入,网络的输出为预测的人群密度图
Figure 432972DEST_PATH_IMAGE017
Figure 533783DEST_PATH_IMAGE023
表示为判别器,判别器的输出是人群密度图像是真实密度图的概率,判别器的目的是为了辨别生成器的生成的密度图
Figure 716503DEST_PATH_IMAGE017
和真实的标签密度图
Figure 916147DEST_PATH_IMAGE018
,同时训练生成器产生无法被判别器辨别的高质量的密度图。
CN201811356818.1A 2018-11-15 2018-11-15 基于多尺度生成对抗网络的人群计数方法 Active CN111191667B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811356818.1A CN111191667B (zh) 2018-11-15 2018-11-15 基于多尺度生成对抗网络的人群计数方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811356818.1A CN111191667B (zh) 2018-11-15 2018-11-15 基于多尺度生成对抗网络的人群计数方法

Publications (2)

Publication Number Publication Date
CN111191667A true CN111191667A (zh) 2020-05-22
CN111191667B CN111191667B (zh) 2023-08-18

Family

ID=70707024

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811356818.1A Active CN111191667B (zh) 2018-11-15 2018-11-15 基于多尺度生成对抗网络的人群计数方法

Country Status (1)

Country Link
CN (1) CN111191667B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111832413A (zh) * 2020-06-09 2020-10-27 天津大学 基于时空多尺度网络的人流密度图估计、定位和跟踪方法
CN111898903A (zh) * 2020-07-28 2020-11-06 北京科技大学 一种钢铁产品均匀性和综合质量评估方法及***
CN112818944A (zh) * 2021-03-08 2021-05-18 北方工业大学 面向地铁车站场景的密集人群计数方法
CN112818945A (zh) * 2021-03-08 2021-05-18 北方工业大学 适用于地铁车站人群计数的卷积网络构建方法
CN113313118A (zh) * 2021-06-25 2021-08-27 哈尔滨工程大学 基于多尺度特征融合的自适应可变占比目标检测方法
CN113392779A (zh) * 2021-06-17 2021-09-14 中国工商银行股份有限公司 基于生成对抗网络的人群监控方法、装置、设备及介质
CN114463694A (zh) * 2022-01-06 2022-05-10 中山大学 一种基于伪标签的半监督人群计数方法及装置
CN114648724A (zh) * 2022-05-18 2022-06-21 成都航空职业技术学院 一种基于生成对抗网络的轻量化高效目标分割与计数方法
CN114972111A (zh) * 2022-06-16 2022-08-30 慧之安信息技术股份有限公司 一种基于gan图像修复的密集人群计数方法
CN115983142A (zh) * 2023-03-21 2023-04-18 之江实验室 基于深度生成对抗式网络的区域人口演化模型构造方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740945A (zh) * 2016-02-04 2016-07-06 中山大学 一种基于视频分析的人群计数方法
WO2016183766A1 (en) * 2015-05-18 2016-11-24 Xiaogang Wang Method and apparatus for generating predictive models
US20180075581A1 (en) * 2016-09-15 2018-03-15 Twitter, Inc. Super resolution using a generative adversarial network
CN107862261A (zh) * 2017-10-25 2018-03-30 天津大学 基于多尺度卷积神经网络的图像人群计数方法
CN108764085A (zh) * 2018-05-17 2018-11-06 上海交通大学 基于生成对抗网络的人群计数方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016183766A1 (en) * 2015-05-18 2016-11-24 Xiaogang Wang Method and apparatus for generating predictive models
CN105740945A (zh) * 2016-02-04 2016-07-06 中山大学 一种基于视频分析的人群计数方法
US20180075581A1 (en) * 2016-09-15 2018-03-15 Twitter, Inc. Super resolution using a generative adversarial network
CN107862261A (zh) * 2017-10-25 2018-03-30 天津大学 基于多尺度卷积神经网络的图像人群计数方法
CN108764085A (zh) * 2018-05-17 2018-11-06 上海交通大学 基于生成对抗网络的人群计数方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吴淑窈;刘希庚;胡昌振;王忠策;: "基于卷积神经网络人群计数的研究与实现", 科教导刊(上旬刊), no. 09 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111832413A (zh) * 2020-06-09 2020-10-27 天津大学 基于时空多尺度网络的人流密度图估计、定位和跟踪方法
CN111832413B (zh) * 2020-06-09 2021-04-02 天津大学 基于时空多尺度网络的人流密度图估计、定位和跟踪方法
CN111898903A (zh) * 2020-07-28 2020-11-06 北京科技大学 一种钢铁产品均匀性和综合质量评估方法及***
CN112818944A (zh) * 2021-03-08 2021-05-18 北方工业大学 面向地铁车站场景的密集人群计数方法
CN112818945A (zh) * 2021-03-08 2021-05-18 北方工业大学 适用于地铁车站人群计数的卷积网络构建方法
CN113392779A (zh) * 2021-06-17 2021-09-14 中国工商银行股份有限公司 基于生成对抗网络的人群监控方法、装置、设备及介质
CN113313118A (zh) * 2021-06-25 2021-08-27 哈尔滨工程大学 基于多尺度特征融合的自适应可变占比目标检测方法
CN114463694A (zh) * 2022-01-06 2022-05-10 中山大学 一种基于伪标签的半监督人群计数方法及装置
CN114463694B (zh) * 2022-01-06 2024-04-05 中山大学 一种基于伪标签的半监督人群计数方法及装置
CN114648724A (zh) * 2022-05-18 2022-06-21 成都航空职业技术学院 一种基于生成对抗网络的轻量化高效目标分割与计数方法
CN114648724B (zh) * 2022-05-18 2022-08-12 成都航空职业技术学院 一种基于生成对抗网络的轻量化高效目标分割与计数方法
CN114972111A (zh) * 2022-06-16 2022-08-30 慧之安信息技术股份有限公司 一种基于gan图像修复的密集人群计数方法
CN115983142A (zh) * 2023-03-21 2023-04-18 之江实验室 基于深度生成对抗式网络的区域人口演化模型构造方法
CN115983142B (zh) * 2023-03-21 2023-08-29 之江实验室 基于深度生成对抗式网络的区域人口演化模型构造方法

Also Published As

Publication number Publication date
CN111191667B (zh) 2023-08-18

Similar Documents

Publication Publication Date Title
CN111191667A (zh) 基于多尺度生成对抗网络的人群计数方法
CN108830252B (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN106897670B (zh) 一种基于计算机视觉的快递暴力分拣识别方法
CN108921051B (zh) 基于循环神经网络注意力模型的行人属性识别网络及技术
CN108416250B (zh) 人数统计方法及装置
CN105022982B (zh) 手部运动识别方法和装置
CN108764085B (zh) 基于生成对抗网络的人群计数方法
CN111723693B (zh) 一种基于小样本学习的人群计数方法
CN104616316B (zh) 基于阈值矩阵和特征融合视觉单词的人物行为识别方法
Zhou et al. Adversarial learning for multiscale crowd counting under complex scenes
CN111709300B (zh) 基于视频图像的人群计数方法
CN110298297A (zh) 火焰识别方法和装置
CN106815563B (zh) 一种基于人体表观结构的人群数量预测方法
CN110909672A (zh) 一种基于双流卷积神经网络和svm的抽烟动作识别方法
Galčík et al. Real-time depth map based people counting
CN106056078A (zh) 一种基于多特征回归式集成学习的人群密度估计方法
Saif et al. Moment features based violence action detection using optical flow
CN104123569B (zh) 一种基于有监督学习的视频人数信息统计方法
Kim et al. Estimation of crowd density in public areas based on neural network.
Waddenkery et al. Adam-Dingo optimized deep maxout network-based video surveillance system for stealing crime detection
Shreedarshan et al. Crowd recognition system based on optical flow along with SVM classifier
CN114943873A (zh) 一种工地人员异常行为分类方法及装置
CN112818945A (zh) 适用于地铁车站人群计数的卷积网络构建方法
Ma et al. Crowd estimation using multi-scale local texture analysis and confidence-based soft classification
Khan et al. Multiple moving vehicle speed estimation using Blob analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant