CN110889343A - 基于注意力型深度神经网络的人群密度估计方法及装置 - Google Patents

基于注意力型深度神经网络的人群密度估计方法及装置 Download PDF

Info

Publication number
CN110889343A
CN110889343A CN201911118138.0A CN201911118138A CN110889343A CN 110889343 A CN110889343 A CN 110889343A CN 201911118138 A CN201911118138 A CN 201911118138A CN 110889343 A CN110889343 A CN 110889343A
Authority
CN
China
Prior art keywords
neural network
deep neural
attention
image
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911118138.0A
Other languages
English (en)
Other versions
CN110889343B (zh
Inventor
陈宋健
冯瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN201911118138.0A priority Critical patent/CN110889343B/zh
Publication of CN110889343A publication Critical patent/CN110889343A/zh
Application granted granted Critical
Publication of CN110889343B publication Critical patent/CN110889343B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于注意力型深度神经网络的人群密度估计方法,其特征在于,采用基于注意力机制的深度神经网络模型从待测图像中检测出人群密度,包括如下步骤:步骤S1,对待测图像进行预处理获得预处理图像;步骤S2,搭建基于注意力机制的分组扩张深度神经网络模型;步骤S3,根据训练集对分组扩张深度神经网络模型进行训练;步骤S4,将预处理图像输入训练完成的分组扩张深度神经网络模型,从而得出各个预处理图像中的人群密度结果并进行输出,其中,分组扩张深度神经网络模型具有两个模块,包括普通卷积模块以及带有注意力机制的解码卷积模块,解码卷积模块的每一个卷积操作之后都跟着一个通道注意力加成以及一个空间注意力加成。

Description

基于注意力型深度神经网络的人群密度估计方法及装置
技术领域
本发明属于计算机视觉以及人工智能技术领域,涉及一种高密度人群场景下的人群密度估计方法及装置,具体涉及一种基于注意力机制的深度神经网络模型的人群密度估计方法及装置。
背景技术
在当前机器学习技术及计算机硬件性能高速提升的情况下,近年来计算机视觉、自然语言处理和语音检测等应用领域取得了突破性进展。人群密度估计作为计算机视觉领域一项基础的任务,其精度也得到了大幅提升。
人群密度估计任务可具体描述如下:
对于拍摄的图片或者录制的视频以及摄像头下的人群场景,生成密度图用以表示单位面积内人群的密度,再以该密度图为基础,将密度图中单位面积人群密度加和,得到最终整体场景的人群密度,或者是整个视频的人群密度变化。
人群密度估计对计算机视觉领域和实际应用具有重要意义,在过去几十年里激励大批研究人员密切关注并投入研究。随着强劲的机器学习理论和特征分析技术的发展,近十几年人群密度估计课题相关的研究活动有增无减,每年都有最新的研究成果和实际应用发表和公布。不仅如此,人群密度估计也被应用到很多实际任务,例如智能视频监控、人群态势分析等。
然而,现有技术的多种人群密度估计方法的检测准确率仍然较低而不能应用于实际通用的估计任务。因此,人群密度估计还远未被完美解决,仍旧是重要的挑战性的研究课题。
为了提高密度估计的准确率,目前常用的方法是增加预测模型训练时的训练数据。然而,一方面,收集大量的训练数据是一件极其困难的工作,另一方面,训练数据量增多也导致模型训练时间延长,甚至有可能然后训练无法实际完成。
发明内容
为解决上述问题,提供一种结构简单、训练消耗少、同时还能保证检测精度的人群密度估计方法及装置,本发明采用了如下技术方案:
本发明提供了一种基于注意力型深度神经网络的人群密度估计方法,用于人群密度的估计,其特征在于,采用基于注意力机制的深度神经网络模型从待测图像中检测出人群密度,包括如下步骤:步骤S1,对待测图像进行预处理获得预处理图像;步骤S2,搭建基于注意力机制的分组扩张深度神经网络模型;步骤S3,把包含多张训练图像的训练集输入搭建好的分组扩张深度神经网络模型从而进行模型训练;步骤S4,将预处理图像输入训练完成的分组扩张深度神经网络模型,从而得出各个预处理图像中的人群密度结果并进行输出,其中,分组扩张深度神经网络模型具有两个模块,包括普通卷积模块以及带有注意力机制的解码卷积模块,解码卷积模块的每一个卷积操作之后都跟着一个通道注意力加成以及一个空间注意力加成。
本发明提供的基于注意力型深度神经网络的人群密度估计方法,还可以具有这样的技术特征,其中,分组扩张深度神经网络模型包含的模型优化器为随机梯度下降,学习率为十的负七次方,步骤S3包括如下子步骤:步骤S3-1,将训练集中的各个训练图像依次输入分组扩张深度神经网络模型并进行一次迭代;步骤S3-2,采用分组扩张深度神经网络模型最后一层的模型参数分别计算出损失误差;步骤S3-3,将损失误差反向传播从而更新分组扩张深度神经网络模型的模型参数;步骤S3-4,重复步骤S3-2至步骤S3-3直至达到训练完成条件,得到训练后的分组扩张深度神经网络模型。
本发明提供的基于注意力型深度神经网络的人群密度估计方法,还可以具有这样的技术特征,其中,待测图像为高密度人群图像,步骤S1中进行的预处理包括对待测图像进行图像分割。
本发明提供的基于注意力型深度神经网络的人群密度估计方法,还可以具有这样的技术特征,其中,图像的分割方法为将图像均等分成9份。
本发明提供的基于注意力型深度神经网络的人群密度估计方法,还可以具有这样的技术特征,其中,步骤S1的预处理还包括将分割得到的图像进行正则化。
本发明还提供了一种基于注意力型深度神经网络的人群密度估计装置,用于人群密度的估计,其特征在于,采用基于注意力机制的深度神经网络模型从待测图像中检测出人群密度,包括:预处理部,用于对待测图像进行预处理获得预处理图像;密度预测部,用于从预处理图像中预测出人群密度结果并进行输出,该密度预测部包含一个训练好的基于注意力机制的分组扩张深度神经网络模型,其中,分组扩张深度神经网络模型具有两个模块,包括普通卷积模块以及带有注意力机制的解码卷积模块,解码卷积模块的每一个卷积操作之后都跟着一个通道注意力加成以及一个空间注意力加成。
发明作用与效果
根据本发明的基于注意力型深度神经网络的人群密度估计方法及装置,由于引入了包括通道注意力和空间注意力在内的两种注意力机制的分组扩张深度神经网络模型作为预测模型,从而使模型能够更好的定位到人群和识别人群的密度,因此,此模型能够学习到更多的特征,更好地进行特征表达,更加适合高密度人群的人群密度估计任务,能够最终提高人群密度估计的精度。另外,本实施例的分组扩张深度神经网络模型仅具有一个普通卷积模块以及一个解码卷积模块,因此其结构简单,不需要使用模型混合、多任务训练以及度量学习等方法,因此,与现有的高精度模型相比,该分组扩张深度神经网络模型的构建快速方便,且训练过程所消耗的计算量也较小。
附图说明
图1是本发明实施例中基于注意力型深度神经网络的人群密度估计方法的流程图;
图2是本发明实施例中分组扩张深度神经网络模型的结构示意图;
图3是本发明实施例中注意力模块的结构示意图;以及
图4是本发明实施例中通道注意力的结构示意图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下结合实施例及附图对本发明的AAA作具体阐述。
<实施例>
本实施例所采用的数据集为UCF-QNRF。UCF-QNRF是一个具有挑战性的高密度场景的数据集,该数据集包含了1535张标记图片和总数为1251642个人头的标注信息,该数据集中每张图片的人数范围为49到12865,并且该数据集图片的平均分辨率为2013乘2902,是一个高分辨率的数据集。
另外,本实施例的基于注意力型深度神经网络的人群密度估计方法所实现的硬件平台需要一张NVIDIA 1080Ti显卡(GPU加速)。
本实施例首先对数据集图片进行预处理,然后训练基于注意力机制的深度神经网络模型,最后通过该深度神经网络模型得到图片的人群密度。具体包括4个过程:预处理、搭建模型、训练模型及密度预测。
图1是本发明实施例中基于注意力型深度神经网络的人群密度估计方法的流程图。
如图1所示,基于注意力型深度神经网络的人群密度估计方法包括如下步骤:
步骤S1,对待测图像进行预处理获得预处理图像。
本实施例中,待测图像为从UCF-QNRF数据集中得到的图像,由于该数据集的高分比率,无法将图像直接输入到模型中,需要对图像进行分割,将其平均分成9等份,然后输入模型中,并且将分割后的数据集进行复制,这样就得到了两倍的训练数据,增大了数据量,从而增加了模型的预测精度。
本实施例的上述过程中,分割图像是针对图像分辨率过高的措施;复制一份训练数据是为了增加获取的图像数量,实现数据扩充从而让从待测图像中获取的数据量更为丰富,进而增加迭代的epoch。
在其他实施例中,待测图像也可以是单张图像(例如照片等),这种情况下不需要分割操作。另外,在其他实施例中,也可以不对图像进行复制,或者采用其他的现有技术中的数据扩充方式(例如垂直翻转、水平翻转与垂直翻转结合等)。
步骤S2,搭建分组扩张深度神经网络模型(以下简称深度神经网络模型或是模型)。
本实施例中的步骤S2中,利用现有的深度学习框架,搭建基于注意力机制的深度神经网络模型。该基于注意力机制的深度神经网络模型是引入注意力机制的深度神经网络模型,主要可以分为两个模块,一是基于VGG-16的前层网络模块(即普通卷积模块),一是引入包括通道注意力和空间注意力在内的两种注意力的解码卷积模块。
具体地,本实施例的深度神经网络模型由卷积层、池化层、通道注意力和空间注意力组成,其中在解码卷积模块中,每一个卷积操作后都跟着一个注意力模块。
图2是本发明实施例中分组扩张深度神经网络模型的结构示意图。
如图2所示,分组扩张深度神经网络模型包括依次设置的输入层I、基于VGG-16的前十层网络B1、卷积层C1、卷积层C2、注意力模块A1、卷积层C3、注意力模块A2、卷积层C4、注意力模块A3、卷积层C5、注意力模块A4、卷积层C6、注意力模块A5、卷积层C7和卷积层C8。具体如下:
(1)输入层I,用于输入各个经过预处理的图像
(2)多个卷积结构,包括卷积结构C1(卷积核大小为3×3,滑动步长为1,填充为0,输出为输入图像的1/64大小)、卷积结构C2(卷积核大小为3×3,滑动步长为1,填充为0,输出为输入图像的1/64大小)、卷积结构C3(卷积核大小为3×3,滑动步长为1,填充为0,输出为输入图像的1/64大小)、卷积结构C4(卷积核大小为3×3,滑动步长为1,填充为0,输出为输入图像的1/64大小)、卷积结构C5(卷积核大小为3×3,滑动步长为1,填充为0,输出为输入图像的1/64大小)、卷积结构C6(卷积核大小为3×3,滑动步长为1,填充为0,输出为输入图像的1/64大小)、卷积结构C7(卷积核大小为1×1,滑动步长为1,填充为0,输出为输入图像的1/64大小);
(3)多个注意力模块:A1、A2、A3、A4、A5,如图3所示,各个注意力模块皆由通道注意力和空间注意力组成,并且和原输入组合在一起。同时,每个注意力后都要进行sigmoid函数合并操作。
图4本发明实施例中通道注意力的结构图。
如图4所示,首先对输入的特征图进行最大池化和平均池化,再将这两个结果加和,通过sigmoid函数就得到了通道注意力。
步骤S3,把训练数据输入搭建好的基于注意力机制的深度神经网络模型,从而进行模型训练。
本实施例中,采用人群数据集UCF-QNRF作为训练集。对于该训练集,采用与步骤S1相同的预处理方法,从而获得了包含1251642个人头的1535张图像;进一步将这些图像做分割和复制,以实现数据增强,然后再进行正则化处理,得到的多张图像即为本实施例的训练集。
上述训练集中的图像分批次进入网络模型进行训练,每次进入网络模型的训练图像批次大小为1,一共迭代训练2000次。
本实施例的基于注意力机制的深度神经网络模型的包含的模型参数为随机设置,优化器为随机梯度下降(SGD),学习率为十的负七次方。
模型训练过程中,每次迭代(即训练集图像通过模型)后,最后一层的模型参数分别计算出损失误差(Square Loss平方差损失),然后将计算得到的损失误差(Square Loss)反向传播,从而更新模型参数。另外,模型训练的训练完成条件与常规的深度神经网络模型相同,即,各层的模型参数收敛后就完成训练。
经过上述迭代训练并在迭代过程中进行误差计算和反向传播的过程,即可获得训练完成的基于注意力机制的深度神经网络模型。本实施例用该训练完成的模型在复杂场景下进行人群密度估计。
步骤S4,将经过预处理得到的预处理图像输入训练完成的基于注意力机制的深度神经网络模型,从而通过该模型得出人群密度结果并输出。
本实施例中,预处理图像通过基于注意力机制的深度神经网络模型后输出了对应的密度图,根据该密度图就能得到该张图片的人群密度。
另外,本实施例还采用UCF-QNRF测试集作为待测图像来对上述模型进行测试,其中的场景就是高密度人群场景。具体过程为:
利用UCF-QNRF数据集,对其数据集中的多个图像进行如步骤S1所描述的预处理,得到334张图像(即预处理后的预处理图像)作为测试集,依次输入训练好的基于注意力机制的深度神经网络模型,生成对应的密度图并计算得到人群密度结果。另外,还采用了现有技术中的其他人群密度估计模型对同样的测试集进行了对比测试,结果如下表所示:
表1本发明与其他常规技术在UCF-QNRF数据集上进行人群密度估计的对比测试结果
Figure BDA0002274654220000091
Figure BDA0002274654220000101
表1中,MCNN、CP-CNN、TDF-CNN、ic-CNN、D-ConvNet、CSRNet为现有技术中常见人群密度估计准确率较高的几种模型。MAE代表平均绝对误差,MSE代表均方误差,表示了预测结果与实际结果直接的绝对值差以及方差。
上述测试表明,本实施例的基于注意力机制的深度神经网络模型的人群密度估计方法对测试集的人群密度估计生成的平均绝对误差(MAE)为237.0,均方误差(MSE)为276.9,其在人群密度估计上的预测结果是当前已有方法中准确率最高的。经过测试,本发明方法在大规模密集人群中的误差率只有10%左右。
实施例作用与效果
根据本实施例提供的基于注意力型深度神经网络的人群密度估计方法及装置,由于引入了包括通道注意力和空间注意力在内的两种注意力机制的分组扩张深度神经网络模型作为预测模型,从而使模型能够更好的定位到人群和识别人群的密度,因此,此模型能够学习到更多的特征,更好地进行特征表达,更加适合高密度人群的人群密度估计任务,能够最终提高人群密度估计的精度。另外,本实施例的分组扩张深度神经网络模型仅具有一个普通卷积模块以及一个解码卷积模块,因此其结构简单,不需要使用模型混合、多任务训练以及度量学习等方法,因此,与现有的高精度模型相比,该分组扩张深度神经网络模型的构建快速方便,且训练过程所消耗的计算量也较小。
另外,实施例中,通过表1的结果也可以证明,相比于传统的计算机视觉方法,本实施例的方法大幅提升了目标检测的准确率,在不同检测难度、不同检测环境下均具有良好的检测精度,尤其是在复杂场景中精度更好。
另外,上述实施例的基于注意力机制的深度神经网络的人群密度估计方法中,引入了包括通道注意力和空间注意力的两种注意力机制,其中空间注意力起到了很显著的作用,同时通道注意力也有小幅的提升,同时引入两个注意力,相辅相成使得精度同时变高。
上述实施例仅用于举例说明本发明的具体实施方式,而本发明不限于上述实施例的描述范围。
例如,上述实施例提供了一种基于注意力机制和深度神经网络的人群密度估计方法及装置,该方法主要包括预处理、搭建模型、训练模型及估计人群密度的步骤。然而,为了实际使用时更为方便,本发明中训练好的分组扩张深度神经网络模型也可以打包形成一个密度估计部,该密度估计部可以与用于对待测图像进行预处理的预处理部构成基于注意力型深度神经网络模型的人群密度估计装置,使得待测图像经过预处理部处理后由密度估计部估计并输出相应的人群密度。

Claims (6)

1.一种基于注意力型深度神经网络的人群密度估计方法,用于人群密度的估计,其特征在于,采用基于注意力机制的深度神经网络模型从待测图像中检测出人群密度,包括如下步骤:
步骤S1,对所述待测图像进行预处理获得预处理图像;
步骤S2,搭建基于注意力机制的分组扩张深度神经网络模型;
步骤S3,把包含多张训练图像的训练集输入搭建好的所述分组扩张深度神经网络模型从而进行模型训练;
步骤S4,将所述预处理图像输入训练完成的所述分组扩张深度神经网络模型,从而得出各个预处理图像中的人群密度结果并进行输出,
其中,所述分组扩张深度神经网络模型具有两个模块,包括普通卷积模块以及带有注意力机制的解码卷积模块,
所述解码卷积模块的每一个卷积操作之后都跟着一个通道注意力加成以及一个空间注意力加成。
2.根据权利要求1所述的基于注意力型深度神经网络的人群密度估计方法,其特征在于:
其中,所述分组扩张深度神经网络模型包含的模型优化器为随机梯度下降,学习率为十的负七次方,
所述步骤S3包括如下子步骤:
步骤S3-1,将所述训练集中的各个所述训练图像依次输入所述分组扩张深度神经网络模型并进行一次迭代;
步骤S3-2,采用所述分组扩张深度神经网络模型最后一层的模型参数分别计算出损失误差;
步骤S3-3,将所述损失误差反向传播从而更新所述分组扩张深度神经网络模型的模型参数;
步骤S3-4,重复步骤S3-2至步骤S3-3直至达到训练完成条件,得到训练后的所述分组扩张深度神经网络模型。
3.根据权利要求1所述的基于注意力型深度神经网络的人群密度估计方法,其特征在于:
其中,所述待测图像为高密度人群图像,
所述步骤S1中进行的所述预处理包括对所述待测图像进行图像分割。
4.根据权利要求3所述的基于注意力型深度神经网络的人群密度估计方法,其特征在于:
其中,所述图像的分割方法为将图像均等分成9份。
5.根据权利要求1所述的基于注意力型深度神经网络的人群密度估计方法,其特征在于:
其中,步骤S1的所述预处理还包括将分割得到的所述图像进行正则化。
6.一种基于注意力型深度神经网络的人群密度估计装置,用于人群密度的估计,其特征在于,采用基于注意力机制的深度神经网络模型从待测图像中检测出人群密度,包括:
预处理部,用于对所述待测图像进行预处理获得预处理图像;
密度预测部,用于从所述预处理图像中预测出人群密度结果并进行输出,该密度预测部包含一个训练好的基于注意力机制的分组扩张深度神经网络模型,
其中,所述分组扩张深度神经网络模型具有两个模块,包括普通卷积模块以及带有注意力机制的解码卷积模块,
所述解码卷积模块的每一个卷积操作之后都跟着一个通道注意力加成以及一个空间注意力加成。
CN201911118138.0A 2019-11-15 2019-11-15 基于注意力型深度神经网络的人群密度估计方法及装置 Active CN110889343B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911118138.0A CN110889343B (zh) 2019-11-15 2019-11-15 基于注意力型深度神经网络的人群密度估计方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911118138.0A CN110889343B (zh) 2019-11-15 2019-11-15 基于注意力型深度神经网络的人群密度估计方法及装置

Publications (2)

Publication Number Publication Date
CN110889343A true CN110889343A (zh) 2020-03-17
CN110889343B CN110889343B (zh) 2023-05-05

Family

ID=69747608

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911118138.0A Active CN110889343B (zh) 2019-11-15 2019-11-15 基于注意力型深度神经网络的人群密度估计方法及装置

Country Status (1)

Country Link
CN (1) CN110889343B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111640119A (zh) * 2020-04-09 2020-09-08 北京邮电大学 一种图像处理方法、处理装置、电子设备及存储介质
CN111680648A (zh) * 2020-06-12 2020-09-18 成都数之联科技有限公司 一种目标密度估计神经网络的训练方法
CN111832414A (zh) * 2020-06-09 2020-10-27 天津大学 一种基于图正则光流注意力网络的动物计数方法
CN112464971A (zh) * 2020-04-09 2021-03-09 丰疆智能软件科技(南京)有限公司 害虫检测模型构建方法
CN112766123A (zh) * 2021-01-11 2021-05-07 山东师范大学 一种基于纵横交叉注意力网络的人群计数方法及***
CN112818907A (zh) * 2021-02-22 2021-05-18 复旦大学 一种基于课程学习机制的人群密度估计方法及装置
CN112818849A (zh) * 2021-01-31 2021-05-18 南京工业大学 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法
CN112818904A (zh) * 2021-02-22 2021-05-18 复旦大学 一种基于注意力机制的人群密度估计方法及装置
CN112989952A (zh) * 2021-02-20 2021-06-18 复旦大学 一种基于遮罩引导的人群密度估计方法及装置
CN113361374A (zh) * 2021-06-02 2021-09-07 燕山大学 一种人群密度估计方法及***
CN114120245A (zh) * 2021-12-15 2022-03-01 平安科技(深圳)有限公司 基于深度神经网络的人群图像分析方法、装置以及设备
CN114511636A (zh) * 2022-04-20 2022-05-17 科大天工智能装备技术(天津)有限公司 一种基于双滤注意力模块的果实计数方法及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447008A (zh) * 2018-11-02 2019-03-08 中山大学 基于注意力机制和可变形卷积神经网络的人群分析方法
CN109492618A (zh) * 2018-12-06 2019-03-19 复旦大学 基于分组扩张卷积神经网络模型的目标检测方法及装置
CN110070073A (zh) * 2019-05-07 2019-07-30 国家广播电视总局广播电视科学研究院 基于注意力机制的全局特征和局部特征的行人再识别方法
CN110188685A (zh) * 2019-05-30 2019-08-30 燕山大学 一种基于双注意力多尺度级联网络的目标计数方法及***
KR20190113119A (ko) * 2018-03-27 2019-10-08 삼성전자주식회사 합성곱 신경망을 위한 주의집중 값 계산 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190113119A (ko) * 2018-03-27 2019-10-08 삼성전자주식회사 합성곱 신경망을 위한 주의집중 값 계산 방법
CN109447008A (zh) * 2018-11-02 2019-03-08 中山大学 基于注意力机制和可变形卷积神经网络的人群分析方法
CN109492618A (zh) * 2018-12-06 2019-03-19 复旦大学 基于分组扩张卷积神经网络模型的目标检测方法及装置
CN110070073A (zh) * 2019-05-07 2019-07-30 国家广播电视总局广播电视科学研究院 基于注意力机制的全局特征和局部特征的行人再识别方法
CN110188685A (zh) * 2019-05-30 2019-08-30 燕山大学 一种基于双注意力多尺度级联网络的目标计数方法及***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JUNYU GAO ET AL.: "SCAR: Spatial-/Channel-wise Attention Regression Networks for Crowd Counting", 《NEUROCOMPUTING》 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112464971A (zh) * 2020-04-09 2021-03-09 丰疆智能软件科技(南京)有限公司 害虫检测模型构建方法
CN111640119A (zh) * 2020-04-09 2020-09-08 北京邮电大学 一种图像处理方法、处理装置、电子设备及存储介质
CN111640119B (zh) * 2020-04-09 2023-11-17 北京邮电大学 一种图像处理方法、处理装置、电子设备及存储介质
CN111832414A (zh) * 2020-06-09 2020-10-27 天津大学 一种基于图正则光流注意力网络的动物计数方法
CN111832414B (zh) * 2020-06-09 2021-05-14 天津大学 一种基于图正则光流注意力网络的动物计数方法
CN111680648B (zh) * 2020-06-12 2023-04-18 成都数之联科技股份有限公司 一种目标密度估计神经网络的训练方法
CN111680648A (zh) * 2020-06-12 2020-09-18 成都数之联科技有限公司 一种目标密度估计神经网络的训练方法
CN112766123A (zh) * 2021-01-11 2021-05-07 山东师范大学 一种基于纵横交叉注意力网络的人群计数方法及***
CN112818849B (zh) * 2021-01-31 2024-03-08 南京工业大学 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法
CN112818849A (zh) * 2021-01-31 2021-05-18 南京工业大学 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法
CN112989952A (zh) * 2021-02-20 2021-06-18 复旦大学 一种基于遮罩引导的人群密度估计方法及装置
CN112818904A (zh) * 2021-02-22 2021-05-18 复旦大学 一种基于注意力机制的人群密度估计方法及装置
CN112818907A (zh) * 2021-02-22 2021-05-18 复旦大学 一种基于课程学习机制的人群密度估计方法及装置
CN113361374A (zh) * 2021-06-02 2021-09-07 燕山大学 一种人群密度估计方法及***
CN113361374B (zh) * 2021-06-02 2024-01-05 燕山大学 一种人群密度估计方法及***
CN114120245A (zh) * 2021-12-15 2022-03-01 平安科技(深圳)有限公司 基于深度神经网络的人群图像分析方法、装置以及设备
CN114120245B (zh) * 2021-12-15 2024-07-23 平安科技(深圳)有限公司 基于深度神经网络的人群图像分析方法、装置以及设备
CN114511636A (zh) * 2022-04-20 2022-05-17 科大天工智能装备技术(天津)有限公司 一种基于双滤注意力模块的果实计数方法及***
CN114511636B (zh) * 2022-04-20 2022-07-12 科大天工智能装备技术(天津)有限公司 一种基于双滤注意力模块的果实计数方法及***

Also Published As

Publication number Publication date
CN110889343B (zh) 2023-05-05

Similar Documents

Publication Publication Date Title
CN110889343B (zh) 基于注意力型深度神经网络的人群密度估计方法及装置
Zhu Research on road traffic situation awareness system based on image big data
EP4206976A1 (en) Model training method and apparatus, body posture detection method and apparatus, and device and storage medium
CN110852267B (zh) 基于光流融合型深度神经网络的人群密度估计方法及装置
CN110378844A (zh) 基于循环多尺度生成对抗网络的图像盲去运动模糊方法
CN109598220A (zh) 一种基于多元输入多尺度卷积的人数统计方法
CN114339409B (zh) 视频处理方法、装置、计算机设备及存储介质
CN112818904A (zh) 一种基于注意力机制的人群密度估计方法及装置
CN112507904B (zh) 一种基于多尺度特征的教室人体姿态实时检测方法
CN112818849B (zh) 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法
CN114519844A (zh) 一种基于视觉转化器的人群密度估计方法及***
CN102122391B (zh) 一种运动捕获数据自动分割方法
CN111428650A (zh) 一种基于sp-pggan风格迁移的行人重识别方法
Son et al. Partial convolutional LSTM for spatiotemporal prediction of incomplete data
CN111401209B (zh) 一种基于深度学习的动作识别方法
CN117351414A (zh) 一种基于深度神经网络的人群密度估计方法
CN114485417B (zh) 一种结构振动位移识别方法及***
CN112926681B (zh) 一种基于深度卷积神经网络的目标检测方法及装置
CN112818907A (zh) 一种基于课程学习机制的人群密度估计方法及装置
CN114882580A (zh) 一种基于深度学习的运动动作一致性的度量方法
CN112989952B (zh) 一种基于遮罩引导的人群密度估计方法及装置
CN114049329A (zh) 基于卷积lstm神经网络的面向材料有效区域位移场测量方法
Song et al. Spatial-aware dynamic lightweight self-supervised monocular depth estimation
CN114511818A (zh) 一种基于多尺度注意力机制的人群密度估计方法及***
Bao et al. Pose ResNet: a 3D human pose estimation network model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant