CN111797795A - 一种基于YOLOv3与SSR的行人检测算法 - Google Patents

一种基于YOLOv3与SSR的行人检测算法 Download PDF

Info

Publication number
CN111797795A
CN111797795A CN202010667461.XA CN202010667461A CN111797795A CN 111797795 A CN111797795 A CN 111797795A CN 202010667461 A CN202010667461 A CN 202010667461A CN 111797795 A CN111797795 A CN 111797795A
Authority
CN
China
Prior art keywords
algorithm
yolov3
value
image
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010667461.XA
Other languages
English (en)
Inventor
张翮翔
呼子宇
郝若欣
马学敏
高博
高泽航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanshan University
Original Assignee
Yanshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanshan University filed Critical Yanshan University
Priority to CN202010667461.XA priority Critical patent/CN111797795A/zh
Publication of CN111797795A publication Critical patent/CN111797795A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于YOLOv3与SSR的行人检测算法,具体步骤如下:首先利用图像采集设备采集到行人的图像,网络自动提取关键帧,将彩色的关键帧进行降维处理转化灰度图像,利用TrAdaBoost生成具有一定迁移学习能力的分类器,对灰度图像的进行分类,若达到预定值,则直接传输到YOLOv3网络中进行行人检测;若未达到预定值,则传输到SSR算法进行图像处理,再传输到YOLOv3算法中进行行人检测,本发明通过使用TrAdaBoost算法对关键帧进行选取分析,生成具有一定迁移学习能力的分类器,使***整体网络更加智能化。

Description

一种基于YOLOv3与SSR的行人检测算法
技术领域
本发明涉及检测技术领域,具体是一种基于YOLOv3与SSR的行人检测算法。
背景技术
行人检测算法的发展可以分为两个阶段:第一个阶段为人工设计行人的空间特征然后进行全局空间的行人检测,通过HOG6特征、Hart14小波特征等来训练分类器进行行人的分类和检测。这些传统的检测算法在当时取得了令人瞩目的效果,其中著名的算法有Hoang等人提出的基于可变尺度梯度特征直方图的行人特征设计方法,并结合支持向量机对行人图像进行分类。Dollar等人将聚合通道特征与HOG特征进行融合,提高了模型在复杂背景环境下的行人检测。虽然这些传统的检测算法实现了行人检测功能,但是人工设计行人的特征难以全面有效的表达行人的信息,并且程序本身运算量大,难以实现实时检测。第二个阶段为基于深度卷积网络的行人检测算法,该类算法使用深度卷积网络提取行人的特征,从而摆脱了人工设计特征的束缚,得到的行人特征有效性和全面性均有所提升。深度卷积网络可以分为三类:第一类算法为基于区域框建议的目标检测算法,如;R-CNN,Fastert R-CNN3,15,Mask R-CNN4等,该类算法检测精度是所有算法中最高的,但是算法计算量大,检测速度缓慢,对硬件要求较高。第二类算法为基于学习搜索的算法,如AttentionNet等,这类算法的检测精度低,且因为需要搜索全局所以检测速度更加缓慢。第三类为基于回归思想的检测算法,如SSD5,YOLO[1-2]等算法。此类算法在一定程度上降低了检测精度,但提高检测速度,使实时检测成为了可能。
但是其精度较低的缺点阻碍了其技术的发展。
发明内容
本发明的目的在于提供一种基于YOLOv3与SSR的行人检测算法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种基于YOLOv3与SSR的行人检测算法,具体步骤如下:首先利用图像采集设备采集到行人的图像,网络自动提取关键帧,将彩色的关键帧进行降维处理转化灰度图像,利用TrAdaBoost生成具有一定迁移学习能力的分类器,对灰度图像的进行分类,若达到预定值,则直接传输到YOLOv3网络中进行行人检测;若未达到预定值,则传输到SSR算法进行图像处理,再传输到YOLOv3算法中进行行人检测。
作为本发明的进一步技术方案:YOLOv3网络是经过改进后的YOLOv3算法,改进步骤如下:A、增加算法检测尺度;B、目标框维度聚类;C、改变损失函数。
作为本发明的进一步技术方案:所述YOLOv3算法使用的检测网络为DarkNet-53网络,并使用3种不同比例的特征图融合,包括一个下采样特征图,尺度大小为13×13,两个上采样特征图,尺度大小分别为26×26,52×52。
作为本发明的进一步技术方案:步骤B具体是:选用在COCO数据集中的高宽比大于2的先验框,然后采用K-means聚类重新分析行人数据集,从而得到了适合室内行人的最优anchor个数和高宽比。
作为本发明的进一步技术方案:所述YOLOv3算法采用重叠度交并比的计算方法计算bounding box与真实框之间的距离,具体公式为
Figure BDA0002580822510000021
d(box,centroid)=1-IOU(box,centroid),式中:B表示box,C表示centroid。box为样本聚类结果;centroid为所有簇的中心;IOU(box,centroid)为所有簇中心与所有聚类框的交并比。
作为本发明的进一步技术方案:所述YOLOV3算法采用交叉熵损失函数提升检测效果,函数的表达式定义为下式:
Figure BDA0002580822510000022
当公式中的y的值等于1时,x的值越接近1,则损失函数的值越小;相反,x的值越接近0,则损失函数的值越大,如果公式中y的值等于0,则x的值越接近0,网络的损失函数的值越小;否则,x的值越接近1,则损失函数的值越大。
作为本发明的进一步技术方案:采用算法TrAdaBoost作为样本迁移学***均值与对比度平均值,并标记出是否需要SSR算法进行处理,不需要处理的标记为0,需要处理的标记为1,另制作未标注的测试数据集S沿用原算法中的基本分类算法Learner,迭代次数为M,接着使用TrAdaBoost算法对样本进行迁移学***均值与对比度平均值,输入到分类器网络中,由分类器进行分类,若该关键帧被标记为1,则需要将图像输入到SSR算法中进行图像处理,若该关键帧被TrAdaBoost算法标记为0,则直接跳过图像处理算法,直接将图像输入到YOLOv3算法进行预测,分类器的函数表达式为
Figure BDA0002580822510000031
其中N为迭代次数,数值为
Figure BDA0002580822510000032
ht(x)表示调用分类算法Learner。
与现有技术相比,本发明的有益效果是:本发明通过使用TrAdaBoost算法对关键帧进行选取分析,生成具有一定迁移学***均检测精度得到了进一步的提高。
附图说明
图1是本发明的整体方框图。
图2为原网络多尺度检测结构图。
图3为多尺度检测图。
图4为K值与正确率曲线图。
图5为原始图像直方图。
图6为处理后图像直方图。
图7为灰度曲线对比图。
图8为算法正确率对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,实施例1:一种基于YOLOv3与SSR的行人检测算法,具体步骤如下:首先利用图像采集设备采集到行人的图像,网络自动提取关键帧,将彩色的关键帧进行降维处理转化灰度图像,利用TrAdaBoost生成具有一定迁移学习能力的分类器,对灰度图像的进行分类,若达到预定值,则直接传输到YOLOv3网络中进行行人检测;若未达到预定值,则传输到SSR算法进行图像处理,再传输到YOLOv3算法中进行行人检测。
YOLOv3网络是经过改进后的YOLOv3算法,改进步骤如下:
A、增加算法检测尺度;为了使模型对于行人目标更加敏感,我们增加了原有的YOLOv3算法的检测尺度,通过多尺度融合的方法,加强网络分析利用底层特征的高分辨率和高层特征的高语义信息的能力,从而达到提高检测精度的目的。YOLOv3算法使用的检测网络为DarkNet-53网络,并使用3种不同比例的特征图融合,包括一个下采样特征图,尺度大小为13×13,两个上采样特征图,尺度大小分别为26×26,52×52。YOLOv3在这三个尺度上进行不同尺度的目标检测如图2所示。本文将原来3个不同尺度特征提取增加到4个不同的尺度检测模块,尺度的具体大小为6×6选用上采样的方式进行连接具体如图3所示。原有的检测网络对图像使用卷积层进行上采样或者下采样,在图像输入为416×416的情况下,原有的尺度可以契合卷积层的运算。当我们增加一个尺度6×6大小后,通过上采样的方法,得到的检测框大小为12×12,所以我们修改了这一层的上采样公式,使得最终获得检测框的大小为13×13,从而可以与原有的网络进行信息融合连接到最终检测结果。虽然在一定程度上降低了检测的速度,但对于非刚性目标行人来讲,检测精度大大提升。
B、目标框维度聚类;本专利所提出的行人检测算法主要应用在大型室内公共场所的行人检测,为了使YOLOv3网络中的anchor boxes参数更加契合行人检测的需要,我们选用了在COCO数据集中的高宽比大于2的先验框,然后采用K-means聚类重新分析行人数据集,从而得到了适合室内行人的最优anchor个数和高宽比。传统上的K-means聚类算法是通过对样本间相似性进行聚类分析,使用欧式距离或曼哈顿距离作为距离测试公式,从而得到anchor的数量和高宽比等信息。这样的直接进行相似性聚类的方式会产生对于离群点和孤立点敏感,对集群的目标容易忽视的问题,这样对于行人检测这类检测密度大的目标来说,会产生极大的误差。为了解决聚类分析的误差问题,YOLOv3算法采用重叠度交并比(Intersection Over Union,IOU)的计算方法计算bounding box与真实框之间的距离,具体公式为:
Figure BDA0002580822510000051
d(box,centroid)=1-IOU(box,centroid),式中:B表示box,C表示centroid。box为样本聚类结果;centroid为所有簇的中心;IOU(box,centroid)为所有簇中心与所有聚类框的交并比。选取合适的IOU分数,可以在模型复杂度和召回率之间取得好的平衡。为了寻找更适合的参数,我们做了大量的对比实验,最后确定聚类个数K值(簇值)选择为10,即anchor个数为10。图5是K值与正确率曲线图,每个中心点的具体坐标为:X坐标[46.03 161.60 85.99 34.14 112.89 36.76 51.13 15.47 74.12 65.09];Y坐标[288.82347.16 330.20 97.17 322.029 173.12 213.84 41.71 246.51 315.55]。从曲线图中可以观察到,聚类个数K逐渐增加,正确率逐渐提高。当K>10的时候,增速减缓,为了兼顾正确率和运算速度,最终选择了K=10。从图中还可以观察到,YOLOv3中的K-means聚类算法的分析效果要优于未改进的K-means聚类算法。
改变损失函数,通过改变损失函数也可以提升检测效果,YOLOV3算法利用了交叉熵损失函数,该类函数可以提高算法应对复杂环境的能力,赋予网络一定的迁移学***衡,并且需要差异化边界框和类别判断的损失因子。虽然这些因子在检测目标较大时影响细微,但对于检测目标比较小的时候,影响很大,而我们研究的行人就有这样的特点,距离摄像装备较远的行人,其个体在整张图像上来说,属于小目标边缘化范畴。为了提高这类特征的检测效果,我们首先沿用了原有YOLOv316的交叉熵函数作为损失函数作为网络的损失函数,并且进行网络训练,在网络不断学习图像素材的同时,监测损失函数的拟合情况和模型正确率的数值,并不断的调整损失函数,使参数达到最优。
SSR图像处理算法(Single Scale Retinex)是Retinex经典算法之一,具有增强图像亮度,凸显图像细节,增强对比度的功能。Retinex算法的原理是:对于一张图片hn(x,y),可以分成入射图像In(x,y)和反射图像R(x,y),入射光照射到物体上经过反射作用到接受器最终生成图像。具体公式为:
Figure BDA0002580822510000062
其中,R(x,y)表示了物体的反射,该项数值与物体本身有关;而In(x,y)表示入射光图像,决定了像素的显像范围。r(x,y)=logIm(x,y)-log[F(x,y)*Im(x,y)],式中,r(x,y)是输出图像,*代表卷积运算。F(x,y)是中心环绕函数,表示为:
Figure BDA0002580822510000063
式中的C是高斯环绕尺度,λ是一个尺度,它的取值必须满足下式:∫∫F(x,y)dxdy=1,上面的式中可以看出,SSR算法中的卷积是对入射图像的计算,通过计算像素点与周围区域在加权平均的作用下,估计图像中照度的变化,并将Im(x,y)去除,只保留In(x,y)属性。算法处理效果灰度直方图如图6所示。
为了客观的研究图像的亮度和对比度,我们将RGB图像转换成灰度图像进而测得图像的亮度和对比度,根据灰度值绘画出灰度值直方图。上方图为原图像,下方图像为SSR算法处理后的图像。观察直方图,原图像的灰度值范围要小于经过算法处理后的图像,图像整体对比度提升。原图像的平均灰度值小于算法处理后的图像,从而推断出经过SSR算法处理后的图像,在整体的亮度和对比度方面均有所提升。修饰后的图像将展示出更多的特征信息供检测网络进行检测,从图像层面提高了检测的精度。
实施例2,在实施例1的基础上,本设计提出的行人检测方法中,我们选用算法TrAdaBoost作为样本迁移学***均值与对比度平均值,并标记出是否需要SSR算法进行处理,不需要处理的标记为0,需要处理的标记为1,另制作未标注的测试数据集S沿用原算法中的基本分类算法Learner,迭代次数为M,接着使用TrAdaBoost算法对样本进行迁移学***均值与对比度平均值,输入到分类器网络中,由分类器进行分类,若该关键帧被标记为1,则需要将图像输入到SSR算法中进行图像处理,若该关键帧被TrAdaBoost算法标记为0,则直接跳过图像处理算法,直接将图像输入到YOLOv3算法进行预测,分类器的函数表达式为
Figure BDA0002580822510000071
其中N为迭代次数,数值为
Figure BDA0002580822510000072
ht(x)表示调用分类算法Learner。
实施例3,在实施例2的基础上,为了提升模型检测的精度,可以对图像先进行预处理,通过修改相关参数达到提升亮度,对比度,曝光度等参数的目的。通过对处理后的图像进行网络测试,我们发现其结果在一定程度上能够提升网络检测精度,从而证明了通过应用图像预处理算法来增强网络检测精度的可行性。为了进一步研究算法与网络的作用机理,我们设置了对比实验来进行验证,具体如下:选用SSR,MSRCR13,McCann9917三种方法进行比较。比较指标为图像整体亮度,区域对比度,网络预测效果三个方面进行。测量亮度的方法是图片原色乘以亮度系数_Brightness。对比度是图像黑与白的比值,代表了从黑到白的层次变化。比值越大,从黑到白的渐变层次越多,从而色彩表现越丰富,具体计算方法为创建一个对比度为0的颜色(rgb=0.5),然后每个颜色使用对比度系数(_Contrast)和对比度0进行差值。网络预测效果则是通过网络测试计算预测的正确率和IOU值。图7为图像灰度曲线,表格1为图像处理算法各项性能测试结果。
表1:各项算法性能表:
算法 Backbone mAP% Recall% AP<sub>50</sub>
SSR Darknet 80.62 73.39 83.71
McCann99 Darknet 79.83 73.31 79.62
MSRCR Darknet 58.96 56.53 -
Image Darknet 74.69 70.22 72.01
从以实验结果中可以观察到,经过图像处理算法运算后,图片的灰度值有了明显的变化。MSRCR算法对于图像的处理更加注重于黑化处理,降低图片亮度。SSR、McCann99两个算法则注重于提升图像整体亮度。二者经过比较后发现,SSR算法在提升彩色对比度和处理速度上要优于McCann99算法。根据我们需要的高亮度,高对比度的要求,我们选用了SSR算法作为图像处理的预算法。随后对该算法进行参数调整,使得算法本身对图像的亮度更加敏感,有利于将行人与背景环境分割出来。
目标检测算法对比实验具体为通过对比不同的检测网络模型,探究各个网络模型在解决行人检测问题上的优缺点,从而选取较为合适的检测算法来提升整体模型的性能。目标检测算法实验的评价指标为正确率P。选用作对比实验的模型为Faster R-CNN网络,SSD两个网络,这两个网络都是比较典型的目标检测网络。Faster R-CNN网络是R-CNN网络的改进版本,相较于原网络,该网络拥有更精准的检测效果,到目前为止,Faster R-CNN网络依然是所有检测网络中检测精度最高的一种,也正因为拥有高正确率,从而造成了检测流程复杂,网络计算量大,所以检测时间漫长,在小型计算机上无法实现实时检测。SSD检测网络可以说是吸收了Faster R-CNN网络和YOLO网络中的一些优点,在稍降检测正确率的同时大大加快了检测的速度,扩展了应用范围,使实时检测应用成为可能。具体实验步骤为在我们自主收集的数据集上,对这三种网络进行相同条件下的训练和测试。设置同样的训练参数,如学习率,batch,subdivisions等数值,每两千次保存训练权重,并应用该权重对检验网络性能和检测速度。统计、记录数据并绘制曲线图,通过比较曲线图来获取实验结果,具体结果如图8。从图中可以观察到,YOLOv3的准确率略高于SSD网络,比Faster R-CNN网络的检测精度低。随后对网络模型进行测速实验,具体结果如表2所示,得出YOLOv3的运算速度是三种网络中最快的,最高达到22fps左右。从而证明了基于YOLOv3算法的行人检测网络的可行性。
表2:算法检测速度对比表:
算法 视频格式 视频分辨率 Fps
YOLOv3 Mp4 1080p 22.2
SSD Mp4 1080p 20.5
Faster R-CNN Mp4 1080p 18.4
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (7)

1.一种基于YOLOv3与SSR的行人检测算法,其特征在于,具体步骤如下:首先利用图像采集设备采集到行人的图像,网络自动提取关键帧,将彩色的关键帧进行降维处理转化灰度图像,利用TrAdaBoost生成具有一定迁移学习能力的分类器,对灰度图像的进行分类,若达到预定值,则直接传输到YOLOv3网络中进行行人检测;若未达到预定值,则传输到SSR算法进行图像处理,再传输到YOLOv3算法中进行行人检测。
2.根据权利要求1所述的一种基于YOLOv3与SSR的行人检测算法,其特征在于,YOLOv3网络是经过改进后的YOLOv3算法,改进步骤如下:A、增加算法检测尺度;B、目标框维度聚类;C、改变损失函数。
3.根据权利要求2所述的一种基于YOLOv3与SSR的行人检测算法,其特征在于,所述YOLOv3算法使用的检测网络为DarkNet-53网络,并使用3种不同比例的特征图融合,包括一个下采样特征图,尺度大小为13×13,两个上采样特征图,尺度大小分别为26×26,52×52。
4.根据权利要求3所述的一种基于YOLOv3与SSR的行人检测算法,其特征在于,步骤B具体是:选用在COCO数据集中的高宽比大于2的先验框,然后采用K-means聚类重新分析行人数据集,从而得到了适合室内行人的最优anchor个数和高宽比。
5.根据权利要求4所述的一种基于YOLOv3与SSR的行人检测算法,其特征在于,所述YOLOv3算法采用重叠度交并比的计算方法计算bounding box与真实框之间的距离,具体公式为
Figure FDA0002580822500000011
d(box,centroid)=1-IOU(box,centroid),式中:B表示box,C表示centroid。box为样本聚类结果;centroid为所有簇的中心;IOU(box,centroid)为所有簇中心与所有聚类框的交并比。
6.根据权利要求5所述的一种基于YOLOv3与SSR的行人检测算法,其特征在于,所述YOLOV3算法采用交叉熵损失函数提升检测效果,函数的表达式定义为下式:
Figure FDA0002580822500000012
当公式中的y的值等于1时,x的值越接近1,则损失函数的值越小;相反,x的值越接近0,则损失函数的值越大,如果公式中y的值等于0,则x的值越接近0,网络的损失函数的值越小;否则,x的值越接近1,则损失函数的值越大。
7.根据权利要求1所述的一种基于YOLOv3与SSR的行人检测算法,其特征在于,采用算法TrAdaBoost作为样本迁移学***均值与对比度平均值,并标记出是否需要SSR算法进行处理,不需要处理的标记为0,需要处理的标记为1,另制作未标注的测试数据集S沿用原算法中的基本分类算法Learner,迭代次数为M,接着使用TrAdaBoost算法对样本进行迁移学***均值与对比度平均值,输入到分类器网络中,由分类器进行分类,若该关键帧被标记为1,则需要将图像输入到SSR算法中进行图像处理,若该关键帧被TrAdaBoost算法标记为0,则直接跳过图像处理算法,直接将图像输入到YOLOv3算法进行预测,分类器的函数表达式为
Figure FDA0002580822500000021
其中N为迭代次数,数值为
Figure FDA0002580822500000022
ht(x)表示调用分类算法Learner。
CN202010667461.XA 2020-07-13 2020-07-13 一种基于YOLOv3与SSR的行人检测算法 Pending CN111797795A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010667461.XA CN111797795A (zh) 2020-07-13 2020-07-13 一种基于YOLOv3与SSR的行人检测算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010667461.XA CN111797795A (zh) 2020-07-13 2020-07-13 一种基于YOLOv3与SSR的行人检测算法

Publications (1)

Publication Number Publication Date
CN111797795A true CN111797795A (zh) 2020-10-20

Family

ID=72808293

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010667461.XA Pending CN111797795A (zh) 2020-07-13 2020-07-13 一种基于YOLOv3与SSR的行人检测算法

Country Status (1)

Country Link
CN (1) CN111797795A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052200A (zh) * 2020-12-09 2021-06-29 江苏科技大学 一种基于yolov3网络的声呐图像目标检测方法
CN113420695A (zh) * 2021-07-01 2021-09-21 河钢雄安数字科技有限公司 一种基于MSRCR和YOLOv4-Tiny算法的火焰快速检测方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104951758A (zh) * 2015-06-11 2015-09-30 大连理工大学 市区环境下基于视觉的车载行人检测与跟踪方法及***
CN107292246A (zh) * 2017-06-05 2017-10-24 河海大学 基于hog‑pca和迁移学习的红外人体目标识别方法
CN108681696A (zh) * 2018-04-28 2018-10-19 河海大学 融合多特征降维和迁移学习的红外目标稳健性识别方法
CN109815886A (zh) * 2019-01-21 2019-05-28 南京邮电大学 一种基于改进YOLOv3的行人和车辆检测方法及***
CN109886303A (zh) * 2019-01-21 2019-06-14 武汉大学 一种基于粒子群优化的TrAdaboost样本迁移航空影像分类方法
CN109934121A (zh) * 2019-02-21 2019-06-25 江苏大学 一种基于YOLOv3算法的果园行人检测方法
US20200051252A1 (en) * 2018-08-13 2020-02-13 Nvidia Corporation Scene embedding for visual navigation
US20200082165A1 (en) * 2016-12-16 2020-03-12 Peking University Shenzhen Graduate School Collaborative deep network model method for pedestrian detection
AU2020100371A4 (en) * 2020-03-12 2020-04-16 Jilin University Hierarchical multi-object tracking method based on saliency detection
CN111291633A (zh) * 2020-01-17 2020-06-16 复旦大学 一种实时行人重识别方法及装置
CN111382723A (zh) * 2020-03-30 2020-07-07 北京云住养科技有限公司 求救识别的方法、装置及***

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104951758A (zh) * 2015-06-11 2015-09-30 大连理工大学 市区环境下基于视觉的车载行人检测与跟踪方法及***
US20200082165A1 (en) * 2016-12-16 2020-03-12 Peking University Shenzhen Graduate School Collaborative deep network model method for pedestrian detection
CN107292246A (zh) * 2017-06-05 2017-10-24 河海大学 基于hog‑pca和迁移学习的红外人体目标识别方法
CN108681696A (zh) * 2018-04-28 2018-10-19 河海大学 融合多特征降维和迁移学习的红外目标稳健性识别方法
US20200051252A1 (en) * 2018-08-13 2020-02-13 Nvidia Corporation Scene embedding for visual navigation
CN109815886A (zh) * 2019-01-21 2019-05-28 南京邮电大学 一种基于改进YOLOv3的行人和车辆检测方法及***
CN109886303A (zh) * 2019-01-21 2019-06-14 武汉大学 一种基于粒子群优化的TrAdaboost样本迁移航空影像分类方法
CN109934121A (zh) * 2019-02-21 2019-06-25 江苏大学 一种基于YOLOv3算法的果园行人检测方法
CN111291633A (zh) * 2020-01-17 2020-06-16 复旦大学 一种实时行人重识别方法及装置
AU2020100371A4 (en) * 2020-03-12 2020-04-16 Jilin University Hierarchical multi-object tracking method based on saliency detection
CN111382723A (zh) * 2020-03-30 2020-07-07 北京云住养科技有限公司 求救识别的方法、装置及***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王鑫;张鑫;宁晨;: "基于多特征降维和迁移学习的红外人体目标识别方法", 计算机应用, no. 12, pages 3490 - 3495 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052200A (zh) * 2020-12-09 2021-06-29 江苏科技大学 一种基于yolov3网络的声呐图像目标检测方法
CN113052200B (zh) * 2020-12-09 2024-03-19 江苏科技大学 一种基于yolov3网络的声呐图像目标检测方法
CN113420695A (zh) * 2021-07-01 2021-09-21 河钢雄安数字科技有限公司 一种基于MSRCR和YOLOv4-Tiny算法的火焰快速检测方法

Similar Documents

Publication Publication Date Title
CN111104898B (zh) 基于目标语义和注意力机制的图像场景分类方法及装置
CN112150821B (zh) 轻量化车辆检测模型构建方法、***及装置
CN111695482A (zh) 一种管道缺陷识别方法
CN110909800A (zh) 一种基于Faster R-CNN改进算法的车辆检测方法
CN111160249A (zh) 基于跨尺度特征融合的光学遥感图像多类目标检测方法
CN110569782A (zh) 一种基于深度学习目标检测方法
CN113313082B (zh) 一种基于多任务损失函数的目标检测方法及***
CN108734200B (zh) 基于bing特征的人体目标视觉检测方法和装置
CN113609896A (zh) 基于对偶相关注意力的对象级遥感变化检测方法及***
CN109903339B (zh) 一种基于多维融合特征的视频群体人物定位检测方法
CN110738132B (zh) 一种具备判别性感知能力的目标检测质量盲评价方法
CN112926652B (zh) 一种基于深度学习的鱼类细粒度图像识别方法
CN108256462A (zh) 一种商场监控视频中的人数统计方法
CN111582339A (zh) 一种基于深度学习的车辆检测与识别的方法
CN111259808A (zh) 一种基于改进ssd算法的交通标识的检测识别方法
CN114332921A (zh) 基于改进聚类算法的Faster R-CNN网络的行人检测方法
CN115240119A (zh) 一种基于深度学习的视频监控中行人小目标检测方法
CN110909656B (zh) 一种雷达与摄像机融合的行人检测方法和***
CN117372898A (zh) 一种基于改进yolov8的无人机航拍图像目标检测方法
CN111797795A (zh) 一种基于YOLOv3与SSR的行人检测算法
CN114399799A (zh) 一种基于YOLOv5网络的口罩佩戴检测方法
CN113496480A (zh) 一种焊缝图像缺陷的检测方法
CN111815582A (zh) 改进背景先验和前景先验的二维码区域检测方法
CN109902692A (zh) 一种基于局部区域深度特征编码的图像分类方法
CN110910497B (zh) 实现增强现实地图的方法和***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination