CN111738164A - 一种基于深度学习的行人检测方法 - Google Patents

一种基于深度学习的行人检测方法 Download PDF

Info

Publication number
CN111738164A
CN111738164A CN202010586392.XA CN202010586392A CN111738164A CN 111738164 A CN111738164 A CN 111738164A CN 202010586392 A CN202010586392 A CN 202010586392A CN 111738164 A CN111738164 A CN 111738164A
Authority
CN
China
Prior art keywords
pedestrian
matrix
pixel
height
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010586392.XA
Other languages
English (en)
Other versions
CN111738164B (zh
Inventor
陈凌霄
廖宏
肖杨
杜奕霖
杨程
彭一峰
黄铭斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi Computing Center Co ltd
Original Assignee
Guangxi Computing Center Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi Computing Center Co ltd filed Critical Guangxi Computing Center Co ltd
Priority to CN202010586392.XA priority Critical patent/CN111738164B/zh
Publication of CN111738164A publication Critical patent/CN111738164A/zh
Application granted granted Critical
Publication of CN111738164B publication Critical patent/CN111738164B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及行人检测***技术领域,具体涉及一种基于深度学习的行人检测方法。包括以下步骤:S1布置摄像机,获取当前分析场景的视频录像,对录像中的行人进行包围框标注,作为深度学习的训练数据集;S2根据训练数据集中行人在图像中各个位置的像素宽度和高度计算出相应的行人像素宽度矩阵W和行人像素高度矩阵H;S3利用矩阵W和矩阵H计算图像中各个区域位置的锚点框的尺度Scale和长宽比Ratio;S4进行深度学习Faster Rcnn模型训练;S5:获取每个行人的位置坐标和宽高,采用训练好的Faster Rcnn模型统计当前场景的总人数或局部密度。本发明提高了检测准确度,降低了误检。

Description

一种基于深度学习的行人检测方法
技术领域
本发明涉及计算机视觉和深度学习领域,尤其涉及安防监控、智能视频分析的行人检测***技术领域,具体涉及一种基于深度学习的行人检测方法。
背景技术
随着计算机科学技术的飞速发展,应用计算机视觉技术自动对监控场景中的行人目标进行智能分析,逐渐成为研究热点。通过行人检测,可以进行高密度状态报警,统计行人流量等,来取代传统人力监控值守。近些年来,深度学习神经网络取得了跨越式发展,逐步取代了传统目标检测方法。传统算法往往需要根据特定的领域进行手工设计特征,而且一般只能检测出某一类别。深度学习通过大规模样本集的监督学习,让深度神经网络自动学习目标特征,不但比传统算法精度更高而且还可以同时检测多类目标。目前基于深度学习的目标检测方法分为两类,一种是基于一步法的目标检测方法,其直接从图像回归出目标的位置坐标,例如SSD,YOLO等,但这类算法往往对小目标检测精度不高,会发生大量漏检;另外一种是基于两步法的目标检测方法,例如Faster-RCNN等,此类算法首先通过基础网络对图像提取特征图,然后通过RPN网络生成候选区域,再通过分类算法进行目标分类。多目标深度学习检测算法被称为通用目标检测算法,对于监控场景中的行人检测效果不佳。发明内容
为了解决上述问题,本发明提供了一种基于深度学习的行人检测方法,具体技术方案如下:
一种基于深度学习的行人检测方法,包括以下步骤:
S1:在需要分析的场景处布置摄像机,获取当前分析场景的视频录像,对录像中的行人进行包围框标注,并存储行人标注数据文件,作为深度学习的训练数据集;
S2:根据训练数据集中行人在图像中各个位置的像素宽度和高度计算出相应的行人像素宽度矩阵W和行人像素高度矩阵H;
S3:利用行人像素宽度矩阵W和行人像素高度矩阵H计算图像中各个区域位置的锚点框的尺度Scale和长宽比Ratio;
S4:在当前场景图像数据集进行深度学习Faster Rcnn模型训练,得到训练好的FasterRcnn模型的权重参数;
S5:对当前场景部署行人检测***,获取每个行人的位置坐标和宽高,采用训练好的Faster Rcnn模型统计当前场景的总人数或局部密度。
优选地,所述步骤S2包括以下步骤:
S21:读取本地存储的行人标注数据文件;
S22:创建行人像素宽度矩阵W和行人像素高度矩阵H,行人像素宽度矩阵W和行人像素高度矩阵H的维度分别对应摄像机图像的像素宽度和高度;
S23:若训练数据集图像中某个像素点为行人包围框的中心点,则将此包围框的像素宽度值和像素高度值分别写入到行人像素宽度矩阵W和行人像素高度矩阵H的相应位置;若行人像素宽度矩阵W和行人像素高度矩阵H相应位置已经存在数值,则计算写入值与存储值的加和平均值,然后再写入行人像素宽度矩阵W和行人像素高度矩阵H相应位置;
S24:检查上述步骤得到的行人像素宽度矩阵W和行人像素高度矩阵H中是否存在0值点,若存在,则进行相邻像素距离插值计算出当前位置的像素值,并写入到行人像素宽度矩阵W和行人像素高度矩阵H的相应位置。
优选地,所述步骤S3包括以下步骤:
S31:将行人像素宽度矩阵W和行人像素高度矩阵H进行n*n网格化,通过遍历训练数据集,得到当前分析场景中行人最大像素高度h1和最小像素高度h2,则n=h2/h1,其中n为向下取整得到的整数;
S32:计算行人像素宽度矩阵W每个网格内的平均像素值作为相应的训练RPN网络的尺度Scale;
S33:计算行人像素宽度矩阵W和行人像素高度矩阵H每个网格内的平均值分别为
Figure 100002_DEST_PATH_IMAGE001
Figure 18813DEST_PATH_IMAGE002
,则每个网格内的长宽比Ratio为{1:
Figure 100002_DEST_PATH_IMAGE003
/
Figure 322755DEST_PATH_IMAGE002
}。
优选地,所述步骤S4中在RPN网络训练过程中,通过RPN网络生成的候选框中心坐标来获取锚点框的尺度Scale和长宽比Ratio。
优选地,所述步骤S5包括以下步骤:
S51:利用摄像机sdk自动获取分析场景的实时视频流,解码获得分析场景的图像;
S52:加载训练好的Faster Rcnn模型的权重参数,将解码图像输入训练好的FasterRcnn模型得到卷积特征图;
S53:在卷积特征图上进行RPN网络推理,得到目标候选区域,再进行Fast RCNN分类和区域框回归得到目标分类分数和行人宽高。
本发明的有益效果为:对监控场景下目标行人检测效果有所提高,提高了检测准确度,降低了误检。
附图说明
图1为本发明的流程示意图;
图2为本发明锚点框的选取示意图。
具体实施方式
为了更好的理解本发明,下面结合附图和具体实施例对本发明作进一步说明:
如图1所示,一种基于深度学习的行人检测方法包括以下步骤:
S1:在需要分析的场景处布置摄像机,获取当前分析场景的视频录像,由于行人在场景中行走较慢,因此对视频进行每50帧的跳帧处理,从视频中抽取包含行人的图像,这些图像构成原始数据集。使用开源标注软件Labelimg对录像中的行人进行包围框标注,并存储行人标注数据文件,作为深度学习的训练数据集。
S2:根据训练数据集中行人在图像中各个位置的像素宽度和高度计算出相应的行人像素宽度矩阵W和行人像素高度矩阵H;包括以下步骤:
S21:读取本地存储的行人标注数据文件;
S22:创建行人像素宽度矩阵W和行人像素高度矩阵H,行人像素宽度矩阵W和行人像素高度矩阵H的维度分别对应摄像机图像的像素宽度和高度;
S23:若训练数据集图像中某个像素点为行人包围框的中心点,则将此包围框的像素宽度值和像素高度值分别写入到行人像素宽度矩阵W和行人像素高度矩阵H的相应位置;若行人像素宽度矩阵W和行人像素高度矩阵H相应位置已经存在数值,则计算写入值与存储值的加和平均值,然后再写入行人像素宽度矩阵W和行人像素高度矩阵H相应位置;
S24:检查上述步骤得到的行人像素宽度矩阵W和行人像素高度矩阵H中是否存在0值点,若存在,则进行相邻像素距离插值计算出当前位置的像素值,并写入到行人像素宽度矩阵W和行人像素高度矩阵H的相应位置。
S3:利用行人像素宽度矩阵W和行人像素高度矩阵H计算图像中各个区域位置的锚点框的尺度Scale和长宽比Ratio;包括以下步骤:
S31:将行人像素宽度矩阵W和行人像素高度矩阵H进行n*n网格化,通过遍历训练数据集,得到当前分析场景中行人最大像素高度h1(近处目标)和最小像素高度h2(远处目标),则n=h2/h1,其中n为向下取整得到的整数;
S32:计算行人像素宽度矩阵W每个网格内的平均像素值作为相应的训练RPN网络的尺度Scale;
S33:计算行人像素宽度矩阵W和行人像素高度矩阵H每个网格内的平均值分别为
Figure 660195DEST_PATH_IMAGE001
Figure 365983DEST_PATH_IMAGE002
,则每个网格内的长宽比Ratio为{1:
Figure 701150DEST_PATH_IMAGE003
/
Figure 492388DEST_PATH_IMAGE002
}。
S4:在当前场景图像数据集进行深度学习Faster Rcnn模型训练,得到训练好的Faster Rcnn模型的权重参数;具体为:使用公开的VGG-16模型作为特征提取基础网络结构,使用其基础13个卷积层。在RPN网络训练过程中,通过RPN网络生成的候选框中心坐标来获取锚点框的尺度Scale和长宽比Ratio。如图2所示,其中矩形框1是由本方法生成的,将行人紧凑包裹。矩形框2-4是传统方法生成的矩形框,与实际行人大小相差较大。由于RPN网络训练过程中生成的候选框的像素宽高和分析场景中的行人像素高度相似,所以提高了RPN网络生成候选框的精度,进一步提高了最终的FasterRCNN行人检测精度。本步骤采用Faster RCNN端到端的反向传播算法训练最终模型。当迭代10万次后,保存训练好的FasterRcnn模型的权重参数到本地硬盘。
S5:对当前场景部署行人检测***,获取每个行人的位置坐标和宽高,采用训练好的Faster Rcnn模型统计当前场景的总人数或局部密度;包括以下步骤:
S51:利用摄像机sdk自动获取分析场景的实时视频流,解码获得分析场景的图像;
S52:加载训练好的Faster Rcnn模型的权重参数,将解码图像输入训练好的FasterRcnn模型得到卷积特征图;
S53:在卷积特征图上进行RPN网络推理,得到目标候选区域,再进行Fast RCNN分类和区域框回归得到目标分类分数和行人宽高。
本实施例采用英特尔i7-8700k CPU以及英伟达1080Ti GPU进行训练,采用传统的Faster-rcnn神经网络算法与本发明的方法对CityPersons数据集进行检测并进行对比,结果如表1所示:
表1 对比结果
CityPersons数据集
Figure DEST_PATH_IMAGE005
<i>Faster-rcnn</i> 76.3
本方法 82.6
Figure 633519DEST_PATH_IMAGE006
计算方法:
1、针对某一个类别,设定IOU阈值,本实施例设定阈值为0.5,(意思是检测为人的目标的预测边界框和真实边界框的交并比要大于0.5,大于该阈值的认为是TP,其它的认为是FP,TP表示检测对了的正样本,FP表示检测错了的正样本,然后用测试样本中真实的正样本数量减去TP,就得到了FN,FN是漏检的正样本),统计出ground truth框的个数(计算召回率的分母)M和检测框个数N;IOU表示交并比,即目标预测框和真实框的交集和并集的比例。
2、从计算机内存初始化一个二维数组
Figure DEST_PATH_IMAGE007
(i=1,2,3,...,N.j=1,2),第一列存储目标分类的预测分数,第二列用于标记检测框是否为TP。
3、从计算机内存初始化precision(查准率),recall(召回率)结果矩阵
Figure 256131DEST_PATH_IMAGE008
(i=1,2,3,...,N.j=1,2),第一列存储召回值,第二列存储对应的精度值。precision=TP/(TP+FP);recall=TP/(TP+FN)。
4、对每张图像每个检测框与与ground Truth计算IOU,大于阈值的为TP,否则为FP,并赋值给数组
Figure 27778DEST_PATH_IMAGE007
5、对二维数组
Figure 40733DEST_PATH_IMAGE007
第一列预测分数进行从大到小进行排序(第二列也跟随第一列排序)。
6、对二维数组
Figure 923238DEST_PATH_IMAGE007
逐行计算当前时刻的查准率和召回率,得到一组(
Figure DEST_PATH_IMAGE009
),赋值到
Figure 406215DEST_PATH_IMAGE008
的第i行。
7、计算当前类别下的AP(Average Precision,平均精确度),具体是通过
Figure 348764DEST_PATH_IMAGE008
绘制PR曲线,然后用插值法(0、0.1、0.2,...1)共11个插值点或者曲线上所有点进行插值求曲线下的面积即为
Figure 849015DEST_PATH_IMAGE010
P-R曲线下的面积可以用于评估该曲线对应的模型的能力,也就是说面积越大模型性能越好。
本发明不局限于以上所述的具体实施方式,以上所述仅为本发明的较佳实施案例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于深度学习的行人检测方法,其特征在于:包括以下步骤:
S1:在需要分析的场景处布置摄像机,获取当前分析场景的视频录像,对录像中的行人进行包围框标注,并存储行人标注数据文件,作为深度学习的训练数据集;
S2:根据训练数据集中行人在图像中各个位置的像素宽度和高度计算出相应的行人像素宽度矩阵W和行人像素高度矩阵H;
S3:利用行人像素宽度矩阵W和行人像素高度矩阵H计算图像中各个区域位置的锚点框的尺度Scale和长宽比Ratio;
S4:在当前场景图像数据集进行深度学习Faster Rcnn模型训练,得到训练好的FasterRcnn模型的权重参数;
S5:对当前场景部署行人检测***,获取每个行人的位置坐标和宽高,采用训练好的Faster Rcnn模型统计当前场景的总人数或局部密度。
2.根据权利要求1所述的一种基于深度学习的行人检测方法,其特征在于:所述步骤S2包括以下步骤:
S21:读取本地存储的行人标注数据文件;
S22:创建行人像素宽度矩阵W和行人像素高度矩阵H,行人像素宽度矩阵W和行人像素高度矩阵H的维度分别对应摄像机图像的像素宽度和高度;
S23:若训练数据集图像中某个像素点为行人包围框的中心点,则将此包围框的像素宽度值和像素高度值分别写入到行人像素宽度矩阵W和行人像素高度矩阵H的相应位置;若行人像素宽度矩阵W和行人像素高度矩阵H相应位置已经存在数值,则计算写入值与存储值的加和平均值,然后再写入行人像素宽度矩阵W和行人像素高度矩阵H相应位置;
S24:检查上述步骤得到的行人像素宽度矩阵W和行人像素高度矩阵H中是否存在0值点,若存在,则进行相邻像素距离插值计算出当前位置的像素值,并写入到行人像素宽度矩阵W和行人像素高度矩阵H的相应位置。
3.根据权利要求1所述的一种基于深度学习的行人检测方法,其特征在于:所述步骤S3包括以下步骤:
S31:将行人像素宽度矩阵W和行人像素高度矩阵H进行n*n网格化,通过遍历训练数据集,得到当前分析场景中行人最大像素高度h1和最小像素高度h2,则n=h2/h1,其中n为向下取整得到的整数;
S32:计算行人像素宽度矩阵W每个网格内的平均像素值作为相应的训练RPN网络的尺度Scale;
S33:计算行人像素宽度矩阵W和行人像素高度矩阵H每个网格内的平均值分别为
Figure DEST_PATH_IMAGE001
Figure 1243DEST_PATH_IMAGE002
,则每个网格内的长宽比Ratio为{1:
Figure DEST_PATH_IMAGE003
/
Figure 843297DEST_PATH_IMAGE002
}。
4.根据权利要求1所述的一种基于深度学习的行人检测方法,其特征在于:所述步骤S4中在RPN网络训练过程中,通过RPN网络生成的候选框中心坐标来获取锚点框的尺度Scale和长宽比Ratio。
5.根据权利要求1所述的一种基于深度学习的行人检测方法,其特征在于:所述步骤S5包括以下步骤:
S51:利用摄像机sdk自动获取分析场景的实时视频流,解码获得分析场景的图像;
S52:加载训练好的Faster Rcnn模型的权重参数,将解码图像输入训练好的FasterRcnn模型得到卷积特征图;
S53:在卷积特征图上进行RPN网络推理,得到目标候选区域,再进行Fast RCNN分类和区域框回归得到目标分类分数和行人宽高。
CN202010586392.XA 2020-06-24 2020-06-24 一种基于深度学习的行人检测方法 Active CN111738164B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010586392.XA CN111738164B (zh) 2020-06-24 2020-06-24 一种基于深度学习的行人检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010586392.XA CN111738164B (zh) 2020-06-24 2020-06-24 一种基于深度学习的行人检测方法

Publications (2)

Publication Number Publication Date
CN111738164A true CN111738164A (zh) 2020-10-02
CN111738164B CN111738164B (zh) 2021-02-26

Family

ID=72650864

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010586392.XA Active CN111738164B (zh) 2020-06-24 2020-06-24 一种基于深度学习的行人检测方法

Country Status (1)

Country Link
CN (1) CN111738164B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112598738A (zh) * 2020-12-25 2021-04-02 南京大学 一种基于深度学习的人物定位方法
CN112633168A (zh) * 2020-12-23 2021-04-09 长沙中联重科环境产业有限公司 一种垃圾车翻桶动作识别方法、装置及垃圾车
CN113361370A (zh) * 2021-06-02 2021-09-07 南京工业大学 一种基于深度学习的异常行为检测方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874894A (zh) * 2017-03-28 2017-06-20 电子科技大学 一种基于区域全卷积神经网络的人体目标检测方法
CN107437099A (zh) * 2017-08-03 2017-12-05 哈尔滨工业大学 一种基于机器学习的特定服饰图像识别与检测方法
US20180096595A1 (en) * 2016-10-04 2018-04-05 Street Simplified, LLC Traffic Control Systems and Methods
CN108021848A (zh) * 2016-11-03 2018-05-11 浙江宇视科技有限公司 客流量统计方法及装置
CN108830152A (zh) * 2018-05-07 2018-11-16 北京红云智胜科技有限公司 深度学习网络和人工特征相联合的行人检测方法及***
CN109117806A (zh) * 2018-08-22 2019-01-01 歌尔科技有限公司 一种手势识别方法和装置
US20190043178A1 (en) * 2018-07-10 2019-02-07 Intel Corporation Low-light imaging using trained convolutional neural networks
CN109902806A (zh) * 2019-02-26 2019-06-18 清华大学 基于卷积神经网络的噪声图像目标边界框确定方法
CN109977812A (zh) * 2019-03-12 2019-07-05 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN110136098A (zh) * 2019-04-15 2019-08-16 江苏大学 一种基于深度学习的线缆顺序检测方法
CN110263712A (zh) * 2019-06-20 2019-09-20 江南大学 一种基于区域候选的粗精行人检测方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180096595A1 (en) * 2016-10-04 2018-04-05 Street Simplified, LLC Traffic Control Systems and Methods
CN108021848A (zh) * 2016-11-03 2018-05-11 浙江宇视科技有限公司 客流量统计方法及装置
CN106874894A (zh) * 2017-03-28 2017-06-20 电子科技大学 一种基于区域全卷积神经网络的人体目标检测方法
CN107437099A (zh) * 2017-08-03 2017-12-05 哈尔滨工业大学 一种基于机器学习的特定服饰图像识别与检测方法
CN108830152A (zh) * 2018-05-07 2018-11-16 北京红云智胜科技有限公司 深度学习网络和人工特征相联合的行人检测方法及***
US20190043178A1 (en) * 2018-07-10 2019-02-07 Intel Corporation Low-light imaging using trained convolutional neural networks
CN109117806A (zh) * 2018-08-22 2019-01-01 歌尔科技有限公司 一种手势识别方法和装置
CN109902806A (zh) * 2019-02-26 2019-06-18 清华大学 基于卷积神经网络的噪声图像目标边界框确定方法
CN109977812A (zh) * 2019-03-12 2019-07-05 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN110136098A (zh) * 2019-04-15 2019-08-16 江苏大学 一种基于深度学习的线缆顺序检测方法
CN110263712A (zh) * 2019-06-20 2019-09-20 江南大学 一种基于区域候选的粗精行人检测方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112633168A (zh) * 2020-12-23 2021-04-09 长沙中联重科环境产业有限公司 一种垃圾车翻桶动作识别方法、装置及垃圾车
CN112633168B (zh) * 2020-12-23 2023-10-31 长沙中联重科环境产业有限公司 一种垃圾车翻桶动作识别方法、装置及垃圾车
CN112598738A (zh) * 2020-12-25 2021-04-02 南京大学 一种基于深度学习的人物定位方法
CN112598738B (zh) * 2020-12-25 2024-03-19 南京大学 一种基于深度学习的人物定位方法
CN113361370A (zh) * 2021-06-02 2021-09-07 南京工业大学 一种基于深度学习的异常行为检测方法
CN113361370B (zh) * 2021-06-02 2023-06-23 南京工业大学 一种基于深度学习的异常行为检测方法

Also Published As

Publication number Publication date
CN111738164B (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
CN111738164B (zh) 一种基于深度学习的行人检测方法
Li et al. Adaptive deep convolutional neural networks for scene-specific object detection
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN110135354B (zh) 一种基于实景三维模型的变化检测方法
CN113963445B (zh) 一种基于姿态估计的行人摔倒动作识别方法及设备
CN107784288B (zh) 一种基于深度神经网络的迭代定位式人脸检测方法
CN114241548A (zh) 一种基于改进YOLOv5的小目标检测算法
CN111814597A (zh) 一种耦合多标签分类网络和yolo的城市功能分区方法
CN114758288A (zh) 一种配电网工程安全管控检测方法及装置
CN112949338A (zh) 深度学习与Hough变换结合的二维条码精确定位方法
CN111275010A (zh) 一种基于计算机视觉的行人重识别方法
CN113033516A (zh) 对象识别统计方法及装置、电子设备、存储介质
CN111091101A (zh) 基于一步法的高精度行人检测方法、***、装置
CN117495735B (zh) 一种基于结构引导的建筑物立面纹理自动修复方法及***
CN113706481A (zh) ***质量检测方法、装置、计算机设备和存储介质
CN112149665A (zh) 一种基于深度学习的高性能多尺度目标检测方法
CN112861970A (zh) 一种基于特征融合的细粒度图像分类方法
CN112419202A (zh) 基于大数据及深度学习的野生动物图像自动识别***
CN114495266A (zh) 非站立姿态检测方法、装置、计算机设备及存储介质
CN116091946A (zh) 一种基于YOLOv5的无人机航拍图像目标检测方法
CN117437382B (zh) 一种数据中心部件的更新方法及***
CN110570450B (zh) 一种基于级联的上下文感知框架的目标跟踪方法
CN117115824A (zh) 一种基于笔划区域分割策略的视觉文本检测方法
Li A crowd density detection algorithm for tourist attractions based on monitoring video dynamic information analysis
CN113139540B (zh) 背板检测方法及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant