CN110135325B - 基于尺度自适应网络的人群人数计数方法及*** - Google Patents
基于尺度自适应网络的人群人数计数方法及*** Download PDFInfo
- Publication number
- CN110135325B CN110135325B CN201910390191.XA CN201910390191A CN110135325B CN 110135325 B CN110135325 B CN 110135325B CN 201910390191 A CN201910390191 A CN 201910390191A CN 110135325 B CN110135325 B CN 110135325B
- Authority
- CN
- China
- Prior art keywords
- scale
- image
- network
- counting
- adaptive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 9
- 238000013341 scale-up Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 5
- 230000007246 mechanism Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/77—Determining position or orientation of objects or cameras using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于尺度自适应网络的人群人数计数方法及***,包括:获取包含人群的原始图像并将其缩放;根据缩放后的图像生成密度图并分别对图像和密度图随机截取图像块;利用图像块及每个图像块所对应的密度图块来训练尺度自适应网络;利用训练完成的尺度自适应网络,针对每幅图像输出密度图,并将密度图中的所有像素加和,最终得到原始图像中所有人数。本发明有效提升了人群计数的准确度和对人头尺寸差异及复杂背景的鲁棒性。
Description
技术领域
本发明属于图像处理领域,尤其涉及一种基于尺度自适应网络的人群人数计数方法及***。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
人群计数(Crowd Counting)是指针对视频或图像中的人群,统计个体目标数目。近年来,基于模式识别和机器学习的人群计数被广泛的研究和应用在智能监控领域,如:机场车站等地的人流量监控及大型商场区域性人群分布等。通过监控某场所的人数能为管理机构提供实时密度信息,有效控制人流量,从而提供给管理者准确的人数及其分布信息,可防止因人群密度过大而造成的潜在危机。然而,由于人头尺寸差异,人群无规律分布以及复杂背景等问题,人群计数仍面临着很大的挑战。
发明人发现,现有的人群计数方法大部分着重在输出单一数字来表示人数,无法展示人群分布等细节信息,因此现实应用意义不大。自2015年开始,逐渐出现了输出密度图并基于密度图得到人数的人群计数方法,但应对多尺度目标及复杂背景的能力较弱,计算耗时也相对较长。
发明内容
为了解决上述问题,本发明提出一种基于尺度自适应网络的人群人数计数方法及***,针对图像中人头尺寸差异及复杂背景设计了由基础网络、尺度扩大单元、单元密集连接模式和通道注意力单元组成的尺度自适应网络,对每幅图像输出其对应的密度图及人数。
在一些实施方式中,采用如下技术方案:
基于尺度自适应网络的人群人数计数方法,包括:
获取包含人群的原始图像,对原始图像进行缩放处理,并根据样本的人数标签生成对应的密度图;所述样本的人数标签指的是原始图像中标出的人头中心在图像中的位置;
从缩放后的图像中截取设定数量的图像块,从密度图中截取设定数量的密度图像块;
基于扩张卷积神经网络及通道注意力机制构建尺度自适应人群计数网络;
利用所述图像块和密度图像块训练尺度自适应人群计数网络;
利用训练完成的尺度自适应人群计数网络,计算每幅待测图像的密度图,并将密度图中的所有像素进行累加得到待测图像中的人数。
在另一些实施方式中,采用如下技术方案:
基于尺度自适应网络的人群人数计数***,包括:
用于获取包含人群的原始图像,对原始图像进行缩放处理的模块;
用于根据样本的人数标签生成对应的密度图的模块;所述样本的人数标签指的是原始图像中标出的人头中心在图像中的位置;
用于从缩放后的图像中截取设定数量的图像块的模块,用于从密度图中截取设定数量的密度图像块的模块;
用于基于扩张卷积神经网络及通道注意力机制构建尺度自适应人群计数网络的模块;
用于利用所述图像块和密度图像块训练尺度自适应人群计数网络的模块;
用于利用训练完成的尺度自适应人群计数网络,计算每幅待测图像的密度图,并将密度图中的所有像素进行累加得到待测图像中的人数的模块。
在另一些实施方式中,采用如下技术方案:
一种终端设备,包括服务器,所述服务器包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现权利要求1-4任一项所述的基于尺度自适应网络的人群人数计数方法。
在另一些实施方式中,采用如下技术方案:
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时执行权利要求1-4任一项所述的基于尺度自适应网络的人群人数计数方法。
与现有技术相比,本发明的有益效果是:
(1)本发明针对图像中背景复杂,人头尺寸差异等特点设计了尺度自适应网络。其中由传统卷积分支和空洞卷积分支组成的尺度扩大单元可提取具有两种不同感受野的特征;采用密集连接模式将多个尺度扩大单元进行连接,进一步增大了感受野范围,同时使感受野在一定范围内分布更密集,因此可有效处理图像或视频中人头尺寸差异问题;通道注意力单元来针对输入图像中不同的人头尺寸有选择性地增强具有合适感受野的特征通道,有效缓解了不同特征通道间的竞争所导致的负面影响。
(2)借助深度卷积神经网络自动学习图像特征,从而避免了设计特征提取器以对图像进行手动特征提取的复杂任务。
(3)输出为密度图,可提供人群分布等细节信息,且根据密度图的像素加和可直接得到人数。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1是尺度自适应网络的结构图;
图2是尺度扩大单元结构图;
图3是扩张卷积和传统卷积对比;
图4是通道注意力单元结构图。
具体实施方式
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本发明使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例一
鉴于深度学习在机器视觉领域的广泛应用(跟踪,检测,定位等)以及卷积神经网络在图像处理,特征学习方面的强大性能。
在一个或多个实施方式中,公开了一种基于尺度自适应网络的人数计数方法,该方法针对人头尺寸差异和背景复杂等问题,利用扩张卷积神经网络和传统卷积神经网络的结合,获取具有多个感受野的特征输出密度图并进行人群计数:
采用了传统卷积神经网络和扩张卷积神经网络进行人群计数;为获取具有更多感受野的特征以应对人头尺寸差异和复杂背景,将多个单元采取密集链接模式;为降低多个特征通道间的竞争性,设计了通道注意力单元。
基于尺度自适应网络的人数计数方法,具体包括:
步骤1:获取包含人群的原始图像,对原始图像进行放缩处理。具体操作为将获取的原始图像的长和宽各重置为与原图尺寸最接近的16的倍数。这样便于为网络训练样本的分割以及网络训练中的降维。
根据样本的人数标签生成对应的密度图;样本的人数标签指的是原始图像中标出的人头中心在图像中的位置;
密度图D的生成方法见公式(1)。
其中J为图像中人群位置的个数,xi表示人头具***置的坐标。G(·)和σi则分别表示高斯核和其方差。当数据为密集人群时,σi由根据目标与离其最近的两个目标的距离通过K近邻算法计算而来。数据为稀疏人群时,将σi直接选定一个固定值。
步骤2:随机对每幅图像截取9个原图的长、宽1/4大小的图像块,对密度图进行相同的操作;
步骤3:利用图像块和对应的密度图像块来训练尺度自适应网络;
步骤4:利用训练完成的尺度自适应网络,计算每幅图像的密度图,并对密度图中的所有像素进行累加得到图像中的人数。将待测图像输入到已经训练好的尺度自适应人群计数网络,输出对应的密度图。将密度图中所有的像素进行加和,得到待测图像中的人数。
其中,尺度自适应网络训练模块可进一步细分为4个单元,分别是基础网络、尺度扩大单元、单元密集连接模式和通道注意力单元。其中基础网络为传统的卷积层,用来提取初级特征。尺度扩大单元由传统卷积分支和扩张卷积分支组成,可提取具有不同感受野大小的特征图。单元密集连接模式为将每个尺度扩大单元输出的密度图进一步输入到其下一个及其之后的每个尺度扩大单元。通道注意力单元的目的是为不同的图像选择具有合适感受野特征的密度图通道,从而降低多个特征通道间的竞争性。
图1为尺度自适应网络结构图。该网络首先由三个卷积层进行浅层特征提取,然后将提取的特征继续传送到3个堆叠的尺度扩大单元(Scale expansion unit,SEU)进行多尺度特征提取。每个尺度扩大单元均由简单的卷积分支组成,在扩大特征感受野数量的同时有效控制了参数量。另外,尺度扩大单元之间采用密集连接模式(Dense connectivitypattern,DCP),从而可以获取具有分布较密集且范围较大感受野的特征。但具有不同大小感受野的特征通道间存在竞争,为了针对不同的输入选取具有相对应尺寸感受野的特征,在每个尺度扩大单元后***了通道注意力单元(Residual channel-wise attentionunit,RCAU)对特征通道分配不同的权重以针对不同的输入来加强具有合适感受野的特征通道。
尺度扩大单元由两个分支组成,分别是传统卷积分支和空洞卷积分支。在空洞卷积分支中,采用了两层空洞卷积操作。通过在卷积核中***空洞,使其获得较大的感受野。由图2可知,尺度扩大单元所提取的特征图中每个像素所对应的原图范围在传统卷积分支中为3×3个像素(白色区域),而在空洞卷积分支中对应的原图范围大小则为9×9个像素(浅灰色部分)。因此,传统卷积分支和空洞卷积分支分别具有3×3和9×9的感受野大小。两个分支所提取的特征进行融合,然后传送到下个尺度扩大单元或特征提取层进一步进行特征提取,在这种方式下,单个尺度扩大单元将感受野数量增加了一倍。另外,需要注意的是,尺度扩大单元中的传统卷积和空洞卷积操作均增加了填充项来保证输出与输入特征图的大小保持一致,因此两个分支所提取的特征可直接进行堆叠,无需进行特征图尺寸的调整。
图3是卷积核都为3×3的传统卷积和空洞卷积操作对比示意图。图中浅灰色部分为待卷积的原图。其中深灰色像素为卷积核,均为3×3,而空洞卷积通过***空白,其卷积模板大小变为5×5。最终经过卷积操作得到的特征图大小也不同。
在进行人群计数时,所提取特征的感受野对能输出高准确度的密度图至关重要。若感受野太小,则仅能覆盖目标的一部分,易导致漏计;而感受野太大则易提取到不相关的背景信息,这不利于进行计数。通过对多个尺度扩大单元进行密集连接,计数网络可提取到具有在较大范围内密集分布的感受野的特征,但对于人群计数这一任务,并非所有特征均有必要,因为具有不同感受野的特征通道间存在竞争关系,其中对输入图像来说具有不合适感受野的特征应尽量进行抑制来获取更准确的密度图。为此,本实施例设计了通道注意力单元来自适应加强或减弱相关通道特征的权重,其结构见图4;通道注意力单元针对输入的特征,首先学***均值得到1×1的输出,因此N个通道的特征图最终将形成1×N的向量;然后通过两个卷积层进一步进行处理;最终由Sigmoid函数获得每个通道的权重。接下来每个特征图分别乘以其所分配到的权重并与原特征图相加。
在ShanghaiTech-B数据集上进行实验。
4.1ShanghaiTech-B数据集:
该数据集共含400幅训练图像和316幅测试图像,图像中人数目标最少9,最多为578,平均每幅图像中有123个人。其图像大小均为768×1024像素。
采用平均预测绝对误差MAE和平均平方预测误差MSE两个指标作为评价标准,MAE的值越低,则该方法准确性越高,MSE的值越低,则该方法的鲁棒性越好。
实验结果较仅包含基础网络(BN)以及分别加入尺度扩大单元(SEU)、密集连接模式(DCP)和通道注意力单元(RCAU)的网络结构对比如下:
实施例二
在一个或多个实施方式中,公开了一种基于尺度自适应网络的人数计数***,包括:
用于获取包含人群的原始图像,对原始图像进行缩放处理的模块;
用于根据样本的人数标签生成对应的密度图的模块;所述样本的人数标签指的是原始图像中标出的人头中心在图像中的位置;
用于从缩放后的图像中截取设定数量的图像块的模块,用于从密度图中截取设定数量的密度图像块的模块;
用于基于扩张卷积神经网络及通道注意力机制构建尺度自适应人群计数网络的模块;
用于利用所述图像块和密度图像块训练尺度自适应人群计数网络的模块;
用于利用训练完成的尺度自适应人群计数网络,计算每幅待测图像的密度图,并将密度图中的所有像素进行累加得到待测图像中的人数的模块。
实施例三
在一个或多个实施方式中,公开了一种终端设备,包括服务器,所述服务器包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现实施例一中的基于扩张卷积神经网络的人群人数计数方法。为了简洁,在此不再赘述。
应理解,本实施例中,处理器可以是中央处理单元CPU,处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC,现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。
结合实施例一中的方法步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器、闪存、只读存储器、可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
本领域普通技术人员可以意识到,结合本实施例描述的各示例的单元即算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (7)
1.基于尺度自适应网络的人群人数计数方法,其特征在于,包括:
获取包含人群的原始图像,对原始图像进行缩放处理,并根据样本的人数标签生成对应的密度图;所述样本的人数标签指的是原始图像中标出的人头中心在图像中的位置;
从缩放后的图像中截取设定数量的图像块,从密度图中截取设定数量的密度图像块;
基于扩张卷积神经网络及通道注意力机制构建尺度自适应人群计数网络:所述尺度自适应人群计数网络首先由卷积层进行浅层特征提取,然后将提取的特征继续传送到堆叠的尺度扩大单元进行多尺度特征提取,所述尺度扩大单元之间采用密集连接模式;所述尺度扩大单元包括传统卷积分支和空洞卷积分支;
利用所述图像块和密度图像块训练尺度自适应人群计数网络;
利用训练完成的尺度自适应人群计数网络,计算每幅待测图像的密度图,并将密度图中的所有像素进行累加得到待测图像中的人数。
3.如权利要求1所述的基于尺度自适应网络的人群人数计数方法,其特征在于,在每个尺度扩大单元后***了通道注意力单元对特征通道分配不同的权重以针对不同的输入来加强具有合适感受野的特征通道。
4.如权利要求3所述的基于尺度自适应网络的人群人数计数方法,其特征在于,在空洞卷积分支中,采用了两层空洞卷积操作,将两个分支所提取的特征进行融合,然后传送到下个尺度扩大单元或特征提取层进行特征提取。
5.基于尺度自适应网络的人群人数计数***,其特征在于,包括:
用于获取包含人群的原始图像,对原始图像进行缩放处理的模块;
用于根据样本的人数标签生成对应的密度图的模块;所述样本的人数标签指的是原始图像中标出的人头中心在图像中的位置;
用于从缩放后的图像中截取设定数量的图像块的模块,用于从密度图中截取设定数量的密度图像块的模块;
用于基于扩张卷积神经网络及通道注意力机制构建尺度自适应人群计数网络的模块:所述尺度自适应人群计数网络首先由卷积层进行浅层特征提取,然后将提取的特征继续传送到堆叠的尺度扩大单元进行多尺度特征提取,所述尺度扩大单元之间采用密集连接模式;所述尺度扩大单元包括传统卷积分支和空洞卷积分支;
用于利用所述图像块和密度图像块训练尺度自适应人群计数网络的模块;
用于利用训练完成的尺度自适应人群计数网络,计算每幅待测图像的密度图,并将密度图中的所有像素进行累加得到待测图像中的人数的模块。
6.一种终端设备,其特征在于,包括服务器,所述服务器包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现权利要求1-4任一项所述的基于尺度自适应网络的人群人数计数方法。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时执行权利要求1-4任一项所述的基于尺度自适应网络的人群人数计数方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910390191.XA CN110135325B (zh) | 2019-05-10 | 2019-05-10 | 基于尺度自适应网络的人群人数计数方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910390191.XA CN110135325B (zh) | 2019-05-10 | 2019-05-10 | 基于尺度自适应网络的人群人数计数方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110135325A CN110135325A (zh) | 2019-08-16 |
CN110135325B true CN110135325B (zh) | 2020-12-08 |
Family
ID=67573402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910390191.XA Active CN110135325B (zh) | 2019-05-10 | 2019-05-10 | 基于尺度自适应网络的人群人数计数方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110135325B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110956122B (zh) * | 2019-11-27 | 2022-08-02 | 深圳市商汤科技有限公司 | 图像处理方法及装置、处理器、电子设备、存储介质 |
CN111626184B (zh) * | 2020-05-25 | 2022-04-15 | 齐鲁工业大学 | 一种人群密度估计方法及*** |
CN111583655B (zh) * | 2020-05-29 | 2021-12-24 | 苏州大学 | 一种车流量检测方法、装置、设备及介质 |
CN111753671A (zh) * | 2020-06-02 | 2020-10-09 | 华东师范大学 | 一种现实场景的人群计数方法 |
CN111723693B (zh) * | 2020-06-03 | 2022-05-27 | 云南大学 | 一种基于小样本学习的人群计数方法 |
CN111652152A (zh) * | 2020-06-04 | 2020-09-11 | 上海眼控科技股份有限公司 | 人群密度检测方法、装置、计算机设备和存储介质 |
CN111738136A (zh) * | 2020-06-19 | 2020-10-02 | 新希望六和股份有限公司 | 显微对象的数量确定方法、装置、计算机设备和存储介质 |
CN111738922A (zh) * | 2020-06-19 | 2020-10-02 | 新希望六和股份有限公司 | 密度网络模型的训练方法、装置、计算机设备和存储介质 |
CN111950458A (zh) * | 2020-08-12 | 2020-11-17 | 每步科技(上海)有限公司 | 一种游泳馆监控***、方法及智能机器人 |
CN112084959B (zh) * | 2020-09-11 | 2024-04-16 | 腾讯科技(深圳)有限公司 | 一种人群图像处理方法及装置 |
CN112541891B (zh) * | 2020-12-08 | 2022-09-09 | 山东师范大学 | 一种基于空洞卷积高分辨率网络的人群计数方法及*** |
CN112541469B (zh) * | 2020-12-22 | 2023-09-08 | 山东师范大学 | 基于自适应分类的人群计数方法及*** |
CN112580545B (zh) * | 2020-12-24 | 2022-07-29 | 山东师范大学 | 基于多尺度自适应上下文网络的人群计数方法及*** |
CN112767316A (zh) * | 2020-12-31 | 2021-05-07 | 山东师范大学 | 一种基于多尺度交互式网络的人群计数方法及*** |
CN112734736B (zh) * | 2021-01-15 | 2022-10-04 | 山东农业大学 | 一种基于计算机视觉的蜂群群势精准测算方法及装备 |
CN113052827B (zh) * | 2021-03-30 | 2022-12-27 | 齐鲁工业大学 | 基于多分支扩张卷积神经网络的人群计数方法及*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104992223A (zh) * | 2015-06-12 | 2015-10-21 | 安徽大学 | 基于深度学习的密集人数估计方法 |
CN106407946A (zh) * | 2016-09-29 | 2017-02-15 | 北京市商汤科技开发有限公司 | 跨线计数方法和深度神经网络训练方法、装置和电子设备 |
CN107330364A (zh) * | 2017-05-27 | 2017-11-07 | 上海交通大学 | 一种基于cGAN网络的人群计数方法及*** |
CN108364023A (zh) * | 2018-02-11 | 2018-08-03 | 北京达佳互联信息技术有限公司 | 基于注意力模型的图像识别方法和*** |
CN109584161A (zh) * | 2018-11-29 | 2019-04-05 | 四川大学 | 基于通道注意力的卷积神经网络的遥感图像超分辨率重建方法 |
-
2019
- 2019-05-10 CN CN201910390191.XA patent/CN110135325B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104992223A (zh) * | 2015-06-12 | 2015-10-21 | 安徽大学 | 基于深度学习的密集人数估计方法 |
CN106407946A (zh) * | 2016-09-29 | 2017-02-15 | 北京市商汤科技开发有限公司 | 跨线计数方法和深度神经网络训练方法、装置和电子设备 |
CN107330364A (zh) * | 2017-05-27 | 2017-11-07 | 上海交通大学 | 一种基于cGAN网络的人群计数方法及*** |
CN108364023A (zh) * | 2018-02-11 | 2018-08-03 | 北京达佳互联信息技术有限公司 | 基于注意力模型的图像识别方法和*** |
CN109584161A (zh) * | 2018-11-29 | 2019-04-05 | 四川大学 | 基于通道注意力的卷积神经网络的遥感图像超分辨率重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110135325A (zh) | 2019-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110135325B (zh) | 基于尺度自适应网络的人群人数计数方法及*** | |
WO2021244079A1 (zh) | 智能家居环境中图像目标检测方法 | |
Zhou et al. | D-LinkNet: LinkNet with pretrained encoder and dilated convolution for high resolution satellite imagery road extraction | |
WO2019100723A1 (zh) | 训练多标签分类模型的方法和装置 | |
CN109840521B (zh) | 一种基于深度学习的一体化车牌识别方法 | |
US10002313B2 (en) | Deeply learned convolutional neural networks (CNNS) for object localization and classification | |
WO2019100724A1 (zh) | 训练多标签分类模型的方法和装置 | |
CN111950453B (zh) | 一种基于选择性注意力机制的任意形状文本识别方法 | |
CN108062574B (zh) | 一种基于特定类别空间约束的弱监督目标检测方法 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
Li et al. | Adaptive deep convolutional neural networks for scene-specific object detection | |
CN112651438A (zh) | 多类别图像的分类方法、装置、终端设备和存储介质 | |
Chen et al. | Research on recognition of fly species based on improved RetinaNet and CBAM | |
CN110909618B (zh) | 一种宠物身份的识别方法及装置 | |
Zhang et al. | Road recognition from remote sensing imagery using incremental learning | |
CN113159300A (zh) | 图像检测神经网络模型及其训练方法、图像检测方法 | |
CN111626184A (zh) | 一种人群密度估计方法及*** | |
CN113888461A (zh) | 基于深度学习的小五金件缺陷检测方法、***及设备 | |
CN111695373B (zh) | 斑马线的定位方法、***、介质及设备 | |
CN106874862A (zh) | 基于子模技术和半监督学习的人群计数方法 | |
CN112634369A (zh) | 空间与或图模型生成方法、装置、电子设备和存储介质 | |
CN116958962A (zh) | 一种基于改进YOLOv8s的疏果前石榴果实检测方法 | |
CN112329784A (zh) | 一种基于时空感知及多峰响应的相关滤波跟踪方法 | |
Zhou et al. | Adaptive irregular graph construction-based salient object detection | |
CN109284752A (zh) | 一种车辆的快速检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |