CN111738300A - 一种交通标志及信号灯检测和识别的优化算法 - Google Patents
一种交通标志及信号灯检测和识别的优化算法 Download PDFInfo
- Publication number
- CN111738300A CN111738300A CN202010463642.0A CN202010463642A CN111738300A CN 111738300 A CN111738300 A CN 111738300A CN 202010463642 A CN202010463642 A CN 202010463642A CN 111738300 A CN111738300 A CN 111738300A
- Authority
- CN
- China
- Prior art keywords
- classification
- feature
- stage
- candidate
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种交通标志及信号灯检测和识别的优化算法;该算法分为特征提取阶段、区域候选阶段、层次分类阶段。特征提取阶段引入Ghost bottleneck模块构建特征提取网络,在ImageNet上进行大数据训练,得到预训练模型,通过预训练后的特征提取网络提取图像特征,并对特征图进行池化处理;区域候选阶段采用RPN子网获取候选区域,对候选区域对应的特征图进行裁剪和缩放,使得待分类的特征子图尺寸相同;层次分类阶段通过层次分类的方法对图像进行分类,识别出交通信号灯和交通标志。本发明的算法较之基线算法在各方面性能都得到极大提升,能满足自动驾驶***的实时性、可靠性要求。
Description
技术领域
本发明属于统计模式识别与图像处理技术领域,具体的说,涉及一种交通标志及信号灯检测和识别的优化算法。
背景技术
交通标志和信号灯检测是自动驾驶汽车道路场景感知的重要组成部分。交通标志和信号灯检测的关键问题为在满足实时性要求的情况下进行目标的定位与识别,具体是指在复杂的快速移动的图像序列中,检查目标物体是否存在,并精确快速的计算出目标在图像中所处位置的一种技术,要解决的主要问题有处于复杂光照、复杂背景、多尺度、多视角、遮挡等条件下目标识别定位。
对于交通信号灯和交通标志的识别,目前多数研究将其视为两个不同的问题:即交通信号灯识别和交通标志识别。传统的交通信号灯识别方法多依赖于信号灯的颜色和形状等直观特征,因此适用性较差;基于深度的学习方法则将其看作是目标检测的特例,如采用YOLO目标检测算法来进行交通信号灯的检测与识别。交通标志检测识别方法的发展比较类似,但是使用基于深度学习的目标检测方法计算代价高昂,运算量无法降低,须使用高功耗、高算力的GPU进行运算,由于车载电源电力供应限制,难以满足实时性要求。
发明内容
本发明的目的在于提供一种基于深度学习的交通标志及交通信号灯的检测和识别优化算法;该算法基于轻量级骨干网的层次细分类的网络结构同时定位并识别图像中的交通信号灯和交通标志,能满足实时性和准确性的要求,可应用于实时自动驾驶***,为自动驾驶汽车的道路行驶行为作出预警和限制,避免交通事故的发生。本发明的技术方案具体介绍如下。
一种交通标志及信号灯检测和识别的优化算法,其分为三个阶段:特征提取阶段、区域候选阶段和层次分类阶段;特征提取阶段引入GhostNet的Ghost bottleneck模块构建特征提取网络,在经典图像分类数据集ImageNet上进行大数据训练,得到预训练模型,通过预训练后的特征提取网络提取图像中所包含的丰富的语义信息,并对特征图进行池化处理;区域候选阶段采用Faster-RCNN中的RPN子网获取候选区域(Region Proposal),对候选区域对应的特征图进行裁剪和缩放操作,使得所有待分类的特征子图均有相同的尺寸;层次分类阶段分类子网将通过两级渐进的层次分类的方法来对图像进行分类从而识别其中的交通信号灯和交通标志。
本发明中,特征提取阶段的具体步骤如下:
(1)构建特征表达网络,对输入图像通过较小普通卷积核提取图像最基本的原始特征,将输出的特征图输入一系列Ghost bottleneck模块,通道逐渐增加,这些Ghostbottleneck根据其输入特征图的大小分为不同的阶段,最后,利用全局平均池和卷积层将特征图转换为特征向量以进行最终分类,将特征表达网络在经典图像分类数据集ImageNet图像分类训练上进行大数据训练,得到预训练模型;
(2)分离特征提取网络,将预训练后的特征表达网络的1-18层作为特征提取层,并对前五层的参数、梯度、batchnormalize系数进行固定,最终对输出的特征图进行平均池化处理。
本发明中,区域候选阶段的具体步骤如下:
(1)候选区域获取,区域候选阶段采用FasterR-CNN中的RPN子网来获取候选区域,将特征提取阶段得到的池化后的特征图作为输入,先进行卷积丰富语义信息后送入RPN网络获取候选区域的坐标;
(3)正候选区域筛选,对所有候选区域按置信度从大到小进行排序,选取前300个候选区域送入后续分类阶段;
(4)候选区域特征图获取,将候选区域的坐标表达转换为该区域所对应的特征图,对送入子网之前候选区域对应的特征图缩放至7×7大小,使所有待分类的特征子图均有相同的尺寸。
本发明中,层次分类阶段的具体步骤如下:
(1)全局分类阶段
全局分类阶段将对特征子图进行初步分类,即将其分为交通信号灯、交通标志和背景类。全局分类结果正确,进行下一步细分类;
(2)细分类阶段
细分类阶段结合特征图和全局分类的信息,在全局分类的类别下进行更加细致的分类,即对于全局分类是信号灯的,进一步将其分类为红灯、黄灯和绿灯;对于全局分类是交通标志的,则进一步将其分类为各种具体的交通标志,在分类子网中增加包围盒回归层,该层的输出目标区域的精细包围盒坐标。
和现有技术相比,本发明的有益效果如下:
(1)特征提取阶段,采用经过模型剪枝、压缩优化后移适合边缘计算的轻量级Ghost bottleneck模块构建特征提取图像中所包含的网络提取特征,并对输出的特征图进行池化处理,减少特征冗余,前向推理速度快,内存占用低;
(2)层次分类阶段,对于每一个特征子图,采用两级渐进的层次分类的方法,充分考虑到交通标志、信号灯及自然场景三大类别之前的类间差异和类内差异,有效的提高了分类准确率。改进后的算法较之基线算法在各方面性能都得到极大提升,能满足自动驾驶***的实时性、可靠性要求。
附图说明
图1:GhostNet网络流程图。
图2:本发明的算法流程图。
具体实施方式
下面结合附图和实施例对本发明的技术方案进行详细阐述。
本发明提出的交通标志及交通信号灯识的检测和识别的优化算法,具体分为3个阶段:特征提取,区域候选阶段,分类阶段。
一、特征提取阶段
(1)构建特征表达网络
构建特征表达网络,首先确定特征提取网络的输入图像大小为512×512×3,对输入图像通过较小的16个3×3,stride=2普通卷积核提取图像最基本的原始特征,将输出的特征图输入一系列的Ghost bottleneck,Ghost bottleneck通道逐渐增加。这些Ghostbottleneck根据其输入特征图的大小分为不同的阶段。除了每个阶段的最后一个Ghostbottleneck是stride=2,其他所有Ghost bottleneck都以stride=1进行应用。最后,利用全局平均池和卷积层将特征图转换为1280维特征向量以进行最终分类,特征表达网络具体构成如图1所示。将特征表达网络在经典图像分类数据集ImageNet图像分类训练上进行大数据训练,得到预训练模型。
(2)分离特征提取网络
通过预训后的特征表达网络能够较好的提取图像中所包含的丰富的基本语义特征,将预训练后的特征表达网络的前18层作为特征提取层,并对前五层的参数、梯度、batchnormalize系数、进行固定,关闭dropout,不受梯度反向传播影响,作为图像基本特征提取器,并对输出的特征图进行7×7平均池化处理,得到特征图F1送入后续区域候选RPN网络。
二、提取候选区域阶段
(1)候选区域获取
区域候选阶段采用Faster-RCNN中的RPN子网来获取候选区域(RegionProposal)。将特征提取阶段得到的池化后的特征图F1作为输入,先进行卷积核大小为1x1,stride为1,卷积核个数为960的普通卷积,得到语义丰富的特征图F2,然后送入RPN网络即可得到候选区域由RPN网络得到的所有感兴趣的候选区域候选区域包括其坐标及置信度。
(2)正负候选区域区分
让G表示图像中所有的Ground Truth,为了区分RPN网络所得到的正确的候选区域和错误的候选区域对候选区域和对应Ground Truth的交并比进行计算,其中候选区域和对应Ground Truth的交并比在0.7至1之间的候选区域将其列为正样例候选区域和对应Ground Truth的交并比在0.01至0.3的将其列为负样例忽略候选区域和对应Ground Truth的交并比在0.3至0.7之间的候选区域。具体可定义为:
(3)正候选区域筛选
(4)候选区域特征图获取
将候选区域坐标所对应的特征图F1部分进行裁剪、拼接。提取候选区域所对应的特征图F1′。在送入子网之前,对候选区域对应的特征图F1′缩放至7×7大小得到F1″,至此所有待分类的特征子图F1″均有相同的尺寸,送入后续分类网络。
三、分类阶段
对于每一个特征子图F1″,分类子网将通过层次分类的方法来对图像进行分类从而识别其中的交通信号灯和交通标志,具体来说,层次分类方法分为两个阶段:全局分类阶段和细分类阶段。
(1)全局分类阶段
全局分类阶段将对特征图通过全连接层进行初步分类,得到全局分类结果p,其包括交通信号灯、交通标志和背景类。全局分类结果是交通信号灯或者交通标志的,将进行下一步细分类。
(2)细分类阶段
细分类阶段结合特征图F1″和全局分类p的信息,在全局分类的类别下进行更加细致的分类,得到细分类结果对于全局分类是交通信号灯的,进一步将其分类为红灯、黄灯和绿灯;对于全局分类是交通标志的,则进一步将其分类为各种具体的交通标志(如:禁止行人通行等)。在分类子网中增加包围盒回归层,该层的输出为目标区域的精细包围盒坐标t。
(3)结果表达
最后,整个网络输出为输入图像中检测结果,包括全局分类结果p,细分类结果以及位置信息t。输出结果表达为:全局分类结果p加细分类结果以及位置信息t(如:交通信号灯:红灯:[0.1,0.2),(0.2,0.4)])。
四、损失函数计算
从上述的网络描述中可以看到,网络的输出包含三项内容,即全局分类结果p,细分类结果和包围盒位置t。因此,这个网络的损失函数也从三个方面来度量预测值和真实值的差异,分别是:全局分类损失Lcls、细分类损失L′cls和包围盒定位损失Lloc。具体定义如下:
全局分类损失Lcls中pi和ui分别是网络预测的全局分类结果及其真实值,Ntot表示候选区域总数,用于归一化全局分类损失;
细分类损失L′cls中和分别是网络预测的细分类结果及其真实值,的取值为1或0,用以表示全局分类的结果是否正确,通过将的值置为0,就可以避免全局分类错误的项被计算两次,Ng则表示正确的全局分类区域数,用以归一化细分类损失;
包围盒定位损失Lloc中ti和vi分别是网络预测的包围盒位置及其真实值,N+表示分类正确的候选区域总数,用于归一化包围盒定位损失;
L(pi,ti)=λLcls+L′cls+Lloc (6)
最终网络损失函数采用加权相加,权重参数λ用于平衡包围盒定位误差与全局分类及细分类损失,λ是一个超参数,其值通过实验确定为2。
五、网络训练
网络的训练过程采用迁移学习的思路,即整个训练过程分为两个阶段:预训练阶段,迁移学习。
(1)预训练阶段
预训练阶段将对特征表达网络在经典图像分类数据集ImageNet上进行大数据图像分类训练,得到预训练模型。特征表达网络的网络结构如图1所示,在训练阶段,超参数设置如下:batch size=1024,learningrate=0.5且采用linear decay,weight decay=4e-5,momentum=0.9,label smooth=0.1,dropout=0.1,共计迭代30000次以上。
(2)迁移学习阶段
在迁移学习阶段,本发明的训练采用MSCOCO目标检测数据集来进行训练,获得一个较好的初始模型。第二阶段的则是在初始模型的基础上,使用基线作者使用的交通信号灯及交通标志数据集Tsinghua-Tencent 100K进行fine-tuning,以获得一个具备较强泛化能力的最终检测模型。除了两阶段的训练方法外,训练过程中还采用以下策略:较大的batchsize(实验采用batchsize=32)进行训练;设定较小的Loss(如0.03)阈值或较大的迭代次数(实验为5万次迭代)阈值;采取每隔若干次迭代(如10万次)将学习率加倍的方法。
实施例1
使用基线算法作者的测试集Tsinghua-Tencent 100K来做多组对比实验,该测试集共1500幅图像,共计3120个交通标志及交通信号灯。使用作者使用的基准对面积小于322(小)、面积在322至962(中)、面积大于962(大)的检测结果分别进行统计,交并比(IoU)阈值设置为0.5,对其精准率、召回率、mAP分别进行计算,此外为了对比研究本发明的计算量,内存消耗,对基线算法和本发明的平均前向推理速度、内存占用和模型大小进行统计。
表1对比实验各方面性能参照表
与基线方法对比:本发明采用了经过模型压缩、剪枝后的轻量级特征提取网络,由上表可以看出本发明在保证大、中、小目标的精准率和召回率和基线方法相差不超过两个百分点,并且在中等目标检测上的召回率和精确率较基线方法提升1.2,1.46个百分点,然而,其内存占用仅为906MB,是基线方法的三分之一,其运算推理速度可达到每秒15帧,为基线方法的4倍,能够满足自动驾驶***高实时性的要求,本发明最大的优势在于其在保证精度最大化情况下,具有较好的高实时性,为该发明在车载设备上运行提供了极大的可能性。
Claims (4)
1.一种交通标志及信号灯检测和识别的优化算法,其特征在于,其分为三个阶段:特征提取阶段、区域候选阶段和层次分类阶段;特征提取阶段引入GhostNet的Ghostbottleneck模块构建特征提取网络,在经典图像分类数据集ImageNet上进行大数据训练,得到预训练模型,通过预训练后的特征提取网络提取图像中所包含的丰富的语义信息,并对特征图进行池化处理;区域候选阶段采用Faster-RCNN中的RPN子网获取候选区域,对候选区域对应的特征图进行裁剪和缩放操作,使得所有待分类的特征子图均有相同的尺寸;层次分类阶段分类子网将通过两级渐进的层次分类的方法来对图像进行分类从而识别其中的交通信号灯和交通标志。
2.根据权利要求1所述的优化算法,其特征在于,特征提取阶段的具体步骤如下:
(1)构建特征表达网络,对输入图像通过较小普通卷积核提取图像最基本的原始特征,将输出的特征图输入一系列Ghost bottleneck模块,通道逐渐增加,这些Ghostbottleneck根据其输入特征图的大小分为不同的阶段,最后,利用全局平均池和卷积层将特征图转换为特征向量以进行最终分类,将特征表达网络在经典图像分类数据集ImageNet图像分类训练上进行大数据训练,得到预训练模型;
(2)分离特征提取网络,将预训练后的特征表达网络的1-18层作为特征提取层,并对前五层的参数、梯度、batchnormalize系数进行固定,最终对输出的特征图进行平均池化处理。
3.根据权利要求1所述的优化算法,其特征在于,区域候选阶段的具体步骤如下:
(1)候选区域获取,区域候选阶段采用FasterR-CNN中的RPN子网来获取候选区域,将特征提取阶段得到的池化后的特征图作为输入,先进行卷积丰富语义信息后送入RPN网络获取候选区域的坐标;
(3)正候选区域筛选,对所有候选区域按置信度从大到小进行排序,选取前300个候选区域送入后续分类阶段;
(4)候选区域特征图获取,将候选区域的坐标表达转换为该区域所对应的特征图,对送入子网之前候选区域对应的特征图缩放至7×7大小,使所有待分类的特征子图均有相同的尺寸。
4.根据权利要求1所述的优化算法,其特征在于,层次分类阶段的具体步骤如下:
(1)全局分类阶段
全局分类阶段将对特征子图进行初步分类,即将其分为交通信号灯、交通标志和背景类,全局分类结果正确,进行下一步细分类;
(2)细分类阶段
细分类阶段结合特征图和全局分类的信息,在全局分类的类别下进行更加细致的分类,即对于全局分类是信号灯的,进一步将其分类为红灯、黄灯和绿灯;对于全局分类是交通标志的,则进一步将其分类为各种具体的交通标志,在分类子网中增加包围盒回归层,该层的输出目标区域的精细包围盒坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010463642.0A CN111738300A (zh) | 2020-05-27 | 2020-05-27 | 一种交通标志及信号灯检测和识别的优化算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010463642.0A CN111738300A (zh) | 2020-05-27 | 2020-05-27 | 一种交通标志及信号灯检测和识别的优化算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111738300A true CN111738300A (zh) | 2020-10-02 |
Family
ID=72647915
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010463642.0A Pending CN111738300A (zh) | 2020-05-27 | 2020-05-27 | 一种交通标志及信号灯检测和识别的优化算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111738300A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112926501A (zh) * | 2021-03-23 | 2021-06-08 | 哈尔滨理工大学 | 一种基于YOLOv5网络结构的交通标志检测算法 |
CN113052254A (zh) * | 2021-04-06 | 2021-06-29 | 安徽理工大学 | 多重注意力幽灵残差融合分类模型及其分类方法 |
CN113361643A (zh) * | 2021-07-02 | 2021-09-07 | 人民中科(济南)智能技术有限公司 | 基于深度学习的通用标志识别方法、***、设备及存储介质 |
CN113378890A (zh) * | 2021-05-17 | 2021-09-10 | 浙江工业大学 | 一种基于改进YOLO v4的轻量级行人车辆检测方法 |
CN113963350A (zh) * | 2021-11-08 | 2022-01-21 | 西安链科信息技术有限公司 | 车辆识别检测方法、***、计算机设备、存储介质及终端 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103903013A (zh) * | 2014-04-15 | 2014-07-02 | 复旦大学 | 一种无标记平面物体识别的优化算法 |
US20150221116A1 (en) * | 2013-05-29 | 2015-08-06 | Capso Vision, Inc. | Method of Overlap-Dependent Image Stitching for Images Captured Using a Capsule Camera |
CN108009518A (zh) * | 2017-12-19 | 2018-05-08 | 大连理工大学 | 一种基于快速二分卷积神经网络的层次化交通标识识别方法 |
CN108985169A (zh) * | 2018-06-15 | 2018-12-11 | 浙江工业大学 | 基于深度学习目标检测与动态背景建模的商店跨门经营检测方法 |
CN110163187A (zh) * | 2019-06-02 | 2019-08-23 | 东北石油大学 | 基于f-rcnn的远距离交通标志检测识别方法 |
CN110929593A (zh) * | 2019-11-06 | 2020-03-27 | 哈尔滨工业大学(威海) | 一种基于细节辨别区别的实时显著性行人检测方法 |
-
2020
- 2020-05-27 CN CN202010463642.0A patent/CN111738300A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150221116A1 (en) * | 2013-05-29 | 2015-08-06 | Capso Vision, Inc. | Method of Overlap-Dependent Image Stitching for Images Captured Using a Capsule Camera |
CN103903013A (zh) * | 2014-04-15 | 2014-07-02 | 复旦大学 | 一种无标记平面物体识别的优化算法 |
CN108009518A (zh) * | 2017-12-19 | 2018-05-08 | 大连理工大学 | 一种基于快速二分卷积神经网络的层次化交通标识识别方法 |
CN108985169A (zh) * | 2018-06-15 | 2018-12-11 | 浙江工业大学 | 基于深度学习目标检测与动态背景建模的商店跨门经营检测方法 |
CN110163187A (zh) * | 2019-06-02 | 2019-08-23 | 东北石油大学 | 基于f-rcnn的远距离交通标志检测识别方法 |
CN110929593A (zh) * | 2019-11-06 | 2020-03-27 | 哈尔滨工业大学(威海) | 一种基于细节辨别区别的实时显著性行人检测方法 |
Non-Patent Citations (1)
Title |
---|
KAI HAN: "GhostNet: More Features from Cheap Operations", 《ARXIV》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112926501A (zh) * | 2021-03-23 | 2021-06-08 | 哈尔滨理工大学 | 一种基于YOLOv5网络结构的交通标志检测算法 |
CN113052254A (zh) * | 2021-04-06 | 2021-06-29 | 安徽理工大学 | 多重注意力幽灵残差融合分类模型及其分类方法 |
CN113378890A (zh) * | 2021-05-17 | 2021-09-10 | 浙江工业大学 | 一种基于改进YOLO v4的轻量级行人车辆检测方法 |
CN113378890B (zh) * | 2021-05-17 | 2024-03-22 | 浙江工业大学 | 一种基于改进YOLO v4的轻量级行人车辆检测方法 |
CN113361643A (zh) * | 2021-07-02 | 2021-09-07 | 人民中科(济南)智能技术有限公司 | 基于深度学习的通用标志识别方法、***、设备及存储介质 |
CN113963350A (zh) * | 2021-11-08 | 2022-01-21 | 西安链科信息技术有限公司 | 车辆识别检测方法、***、计算机设备、存储介质及终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hasegawa et al. | Robust Japanese road sign detection and recognition in complex scenes using convolutional neural networks | |
CN108171136B (zh) | 一种多任务卡口车辆以图搜图的***及方法 | |
CN108830188B (zh) | 基于深度学习的车辆检测方法 | |
CN111738300A (zh) | 一种交通标志及信号灯检测和识别的优化算法 | |
Li et al. | Traffic light recognition for complex scene with fusion detections | |
CN108921083B (zh) | 基于深度学习目标检测的非法流动摊贩识别方法 | |
Zhang et al. | Pedestrian detection method based on Faster R-CNN | |
CN110263786B (zh) | 一种基于特征维度融合的道路多目标识别***及方法 | |
CN111368754B (zh) | 一种基于全局上下文信息的机场跑道异物检测方法 | |
CN107038442A (zh) | 一种基于深度学习的车牌检测和整体识别方法 | |
CN109492596A (zh) | 一种基于K-means聚类和区域推荐网络的行人检测方法及*** | |
Pei et al. | Localized traffic sign detection with multi-scale deconvolution networks | |
CN108985145A (zh) | 小尺寸交通标志检测识别的反向连接深度神经网络模型方法 | |
CN112270286A (zh) | 一种抗阴影干扰的单***目标跟踪方法 | |
CN114882351B (zh) | 一种基于改进YOLO-V5s的多目标检测与跟踪方法 | |
CN112949510A (zh) | 基于Faster R-CNN热红外影像人物探测方法 | |
Hasegawa et al. | Robust detection and recognition of japanese traffic sign in the complex scenes based on deep learning | |
Yun et al. | Part-level convolutional neural networks for pedestrian detection using saliency and boundary box alignment | |
CN112418207A (zh) | 一种基于自注意力蒸馏的弱监督文字检测方法 | |
CN112307894A (zh) | 一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法 | |
CN110555425A (zh) | 一种视频流实时行人检测方法 | |
CN115909276A (zh) | 基于改进YOLOv5的复杂天气下小交通标志目标检测方法 | |
Chen et al. | Research on vehicle detection and tracking algorithm for intelligent driving | |
Pazhoumand-Dar et al. | DTBSVMs: A new approach for road sign recognition | |
Li et al. | Chinese license plate recognition algorithm based on unet3+ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20201002 |