CN108898078A - 一种多尺度反卷积神经网络的交通标志实时检测识别方法 - Google Patents
一种多尺度反卷积神经网络的交通标志实时检测识别方法 Download PDFInfo
- Publication number
- CN108898078A CN108898078A CN201810617284.7A CN201810617284A CN108898078A CN 108898078 A CN108898078 A CN 108898078A CN 201810617284 A CN201810617284 A CN 201810617284A CN 108898078 A CN108898078 A CN 108898078A
- Authority
- CN
- China
- Prior art keywords
- characteristic pattern
- convolution
- traffic sign
- deconvolution
- pixel size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及计算机应用技术领域机器学习理论及应用子领域,特别是一种多尺度反卷积神经网络的交通标志实时检测识别方法。包括以下步骤:S1:采集交通标志照片或视频;S2:输入CRN模型,经过卷积和池化,提取图片特征信息;S3:将CRN模型的最后一层特征图作为MFPN模型的输入,经过卷积形成多个特征图,再经过反卷积对不同特征图进行融合;S4:将MFPN模型的最后一层特征图,经过卷积,形成多个特征图;S5:对多个特征图进行拼接;S6:经过多尺度检测,得到交通标志的位置信息和类别信息。本发明的技术方案通过上采样和底层特征做横向连接融合,充分利用了底层和顶层特征信息,在检测和识别小目标的交通标志上取得了长足进步,提高检测精度。
Description
技术领域
本发明涉及计算机应用技术领域机器学习理论及应用子领域,特别是一种多尺度反卷积神经网络的交通标志实时检测识别方法。
背景技术
交通标志是道路交通***的一个重要组成部分,其作用主要包括显示当前路段的交通状况,提示驾驶环境中的危险和困难、警告驾驶员、为驾驶员指路等,为安全舒适的驾驶提供有用信息。如果完全靠驾驶员自己注意和发现交通标识并做出正确的反应,难免会增加驾驶负担,加速疲劳,严重地可能会导致交通事故。因此,安全可靠快速的交通标识识别***显得越来越重要,大量研究人员也都致力于这一领域的研究。
近几年来,随着人工智能的发展,各大厂商也在大力发展各自的自动驾驶汽车。然而,没有复杂的人工智能模型和高分辨率的地图来分析以及在复杂的环境中学习的能力,自动驾驶将难以安全的运行。全面而复杂的自动驾驶***涉及传感、感知、定位、决策、实时操作***、异构计算、图形视频处理以及云计算技术等。目标检测是智能对象收集器感知中的关键步骤,而目标检测和跟踪可以通过深度学习来实现。深度学习在近几年来也一直处于快速发展阶段,特别是使用卷积神经网络来处理图像,在图像识别和检测领域都达到了前所未有的高度。
从最开始的LeCun Y等人提出最早的神经网络模型LeNet[参考文献1],虽然简单,但是已经具备了卷积层、池化层、全连接层等理念,而这些都是现代卷积神经网络最基本的组成部分。在2012年,深度学习的历史转折点出现了,Krizhevsky等人提出了AlexNet[参考文献2]在网络中使用非线性激活函数ReLU,防止过拟合的方法Dropout以归一化层的使用,在ImageNet图像分类竞赛中以绝对性的优势取得了冠军,深度学习开始重回历史舞台。2014年来自牛津大学的Simonyan等人提出了VGG[参考文献3]网络,在网络中使用了更小的3×3卷积核来作为一个序列模仿出更大的感受视野,网络层数也从AlexNet的几层达到了十几层,识别精度进一步提高。同年来自谷歌的Christian Szegedy等人开始追求减少深度神经网络的计算开销提出了GoogLeNet[参考文献4]以及Inception结构,在图像分类中也达到了最高的精度,网络深度也进一步加深。虽然在2014年使用卷积神经网络图像分类的结果令人欣喜,但是在现实生活中,场景都是非常复杂,一张图片中往往包含多个目标,不仅仅要对图片进行分类,还需要对同一张图片的不同对象进行检测,得到物体在图像中的位置。因此RossGirshick等人提出了R-CNN[参考文献5],先预先提取一系列可能是物体的候选区域,然后使用卷积神经网络进行提取特征,最后把特征送入SVM分类器分类,再使用回归器精细修正候选框位置,该网络也是第一个使用卷积神经网络来进行目标检测。为了提高网络速度,RossGirshick又提出Fast R-CNN[参考文献6],将整张图片直接送人深度网络中,然后在特征图上生成候选区域,减少了候选区域的重复计算,然而对于候选区域生成还是存在速度慢等问题。因此,在2015年任少卿,何恺明,Ross Girshick和孙剑等人提出了Faster R-CNN[参考文献7]网络结构,在网络结构中提出了区域建议网络RPN,能够快读生成候选区域,并且通过交替训练,使RPN和Fast-RCNN网络共享网络参数,但这些方法都存在检测速度慢的问题。
为了解决能够实时检测目标,Redmon等人使用了一种新的物体检测方法YOLO[参考文献8],在此之前,物体检测方法主要是通过region proposal产生大量的可能包含待检测物体的候选区域,再用分类器去判断每个候选区域里是否包含有物体,以及物体所属类别,而YOLO不同于这些物体检测方法,它将物体检测转化为回归问题解决,直接从一整张图像来预测出边界以及所含物体的置信度概率,速度能够达到之前检测物体算法的两倍,但在定位的时候更容易出错,并且对物体尺度比较敏感,对较大物体泛化能力比较插。针对这个问题,来自北卡罗来纳大学的刘威在ECCV 2016提出了SSD[参考文献9]网络结构,该网络将faster R-CNN和YOLO两个网络框架完美的结合,即保持了速度,又保证了精度,SSD采用了多层feature map同时进行预测,能够检测出不同尺度的物体。但是仍存在对小目标检测不足的情况。为了改善YOLOv1的泛化不足以及改进对小目标检测问题,Redmon等人又提出了YOLOv2[参考文献10]版本,同样借鉴了Faster R-CNN中的anchor思想,在每一个中心可以预测9种不同大小的建议框,并且去除全连接层,在保持原有速度的优势之下,精度上得以提升。但对于小目标检测还存在问题,因此TsungYi Lin等人提出了FPN[参考文献11]网络结构,都是只采用顶层特征做预测,但底层特征图所包含的特征信息比较少,特征图比较大,目标的位置信息更准确,因此更容易检测出小目标;而对于高层的特征图所包含的特征信息更多,但特征图比较小,目标位置信息更粗略,因此对于小目标检测性能不好。
参考文献:
[1]LeCun Y,Bottou L,Bengio Y,et al.Gradient-based learning applied todocument recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.
[2]Krizhevsky A,Sutskever I,Hinton G E.ImageNet classification withdeep convolutional neural networks[C]//International Conference on NeuralInformation Processing Systems.Curran Associates Inc.2012:1097-1105.
[3]Simonyan K,Zisserman A.Very Deep Convolutional Networks for Large-Scale Image Recognition[J].Computer Science,2014.
[4]Szegedy C,Liu W,Jia Y,et al.Going deeper with convolutions[C].Cvpr,2015.
[5]Girshick R,Donahue J,Darrell T,et al.Rich feature hierarchies foraccurate object detection and semantic segmentation[C]//Proceedings of theIEEE conference on computer vision and pattern recognition.2014:580-587.
[6]Girshick R.Fast R-CNN[J].Computer Science,2015.
[7]Ren S,He K,Girshick R,et al.Faster R-CNN:towards real-time objectdetection with region proposal networks[C]//International Conference onNeural Information Processing Systems.MIT Press,2015:91-99.
[8]Redmon J,Divvala S,Girshick R,et al.You Only Look Once:Unified,Real-Time Object Detection[C]//Computer Vision and Pattern Recognition.IEEE,2016:779-788.
[9]Liu W,Anguelov D,Erhan D,et al.SSD:Single Shot MultiBox Detector[J].2015:21-37.
[10]Redmon J,Farhadi A.YOLO9000:Better,Faster,Stronger[C]//IEEEConference on Computer Vision and Pattern Recognition.IEEE Computer Society,2017:6517-6525.
[11]TsungYi Lin,Dollar P,Girshick R,et al.Feature Pyramid Networksfor Object Detection[J].2016:936-944.
发明内容
针对以上不足,本发明提供了一种多尺度反卷积神经网络的交通标志实时检测识别方法,通过上采样和底层特征做横向连接融合,充分利用了底层和顶层特征信息,在检测和识别小目标的交通标志上取得了长足进步,提高检测精度。
本发明的技术方案为:
一种多尺度反卷积神经网络的交通标志实时检测识别方法,包括以下步骤:
S1:采集交通标志照片或视频;
S2:输入CRN模型,经过卷积和池化,提取图片特征信息;
S3:将CRN模型的最后一层特征图作为MFPN模型的输入,经过卷积形成多个特征图,再经过反卷积对不同特征图进行融合;
S4:将MFPN模型的最后一层特征图,经过卷积,形成多个特征图;
S5:对多个特征图进行拼接;
S6:经过多尺度检测,得到交通标志的位置信息和类别信息。
所述步骤S2具体包括:
S21:对照片或视频进行预处理,输出像素大小统一的图片;
S22:经过池化,使图片像素缩小一半;
S23:做步长为1的两次卷积,提取特征图;
S24:经过池化,使图片像素缩小一半;
S25:做步长为1的两次卷积,提取特征图;
S26:经过池化,使图片像素缩小一半;
S27:做步长为1的两次卷积,再做步长为2的一次卷积,提取特征图。
所述步骤S3具体包括:
S31:做步长为2的m+1次卷积,形成像素大小为n×n、2n×2n、4n×4n、8n×8n、…、2mn×2mn等多个特征图(n为正整数,m为正整数);
S32:对像素大小为n×n的特征图做步长为2的反卷积,然后与步骤S31的像素大小为2n×2n的特征图相融合,得到像素大小为2n×2n的特征图;
S33:对步骤S32所得到的像素大小为2n×2n的特征图做步长为2的反卷积,然后与步骤S31的像素大小为4n×4n的特征图相融合,得到像素大小为4n×4n的特征图;
S34:对步骤S33所得到的像素大小为4n×4n的特征图做步长为2的反卷积,然后与步骤S31的像素大小为8n×8n的特征图相融合,得到像素大小为8n×8n的特征图;
S35:重复以上步骤,直至最后得到像素大小为2mn×2mn的特征图。
所述步骤S4的卷积为步长为2的卷积。
所述卷积和反卷积的卷积核大小为3×3或5×5或7×7。
本发明通过使用残差网络构建CRN模型提取交通标志图片的特征,形成不同特征图。使用反卷积网络构建MFPN模型,把高层具有低分辨率、高语义信息特征图和低层具有高分辨率、低语义信息的特征图进行自上而下的侧边连接,使得所有尺度下的特征都有丰富的语义信息。使用特征金字塔网络结构对MFPN模型各层特征进行充分融合,得到具有丰富语义的多种特征图。对各特征图进行多尺度的交通标志检测与识别。实验表明,该方法对变形,残缺,模糊,高噪声及远距离拍摄的小交通标志的图片都具有良好的适应性,提高了自动驾驶、辅助驾驶过程中交通标志实时识别的效率,提高了对模糊、残缺的交通标志图片检测与识别的准确率。
附图说明
图1为本发明的多尺度反卷积神经网络的总体模型结构图;
图2为本发明的CRN模型结构图;
图3为本发明的MRPN模型结构图;
图4为本发明多尺度反卷积神经网络的交通标志实时检测识别方法步骤图;
图5为本发明CRN模型的操作步骤图;
图6为本发明MRPN模型的操作步骤图。
具体实施方式
以下将结合附图对本发明的构思、具体结构及产生的技术效果作进一步说明,以充分地了解本发明的目的、特征和效果。
参考图1和图4,本发明的多尺度反卷积神经网络的交通标志实时检测识别方法,包括以下步骤:
S1:利用车辆的摄像头采集交通标志照片或视频;
S2:输入CRN模型,经过卷积和池化,提取图片特征信息;
参考图2和图5,步骤S2具体包括:
S21:对照片或视频进行预处理,输出像素大小512×512的图片(也可以为其它尺寸的图片,后续图片大小则同比例缩放);
S22:经过池化,使图片像素缩小为256×256;
S23:使用卷积核大小为3×3,做步长为1的两次卷积,提取特征图;
S24:经过池化,使图片像素缩小为128×128;
S25:使用卷积核大小为3×3,做步长为1的两次卷积,提取特征图;
S26:经过池化,使图片像素缩小为64×64;
S27:使用卷积核大小为3×3,做步长为1的两次卷积,再使用卷积核大小为3×3,做步长为2的一次卷积,提取特征图。
经过每个步骤处理的特征图片像素大小如下表所示:
S3:将CRN模型的最后一层特征图作为MFPN模型的输入,经过卷积形成多个特征图,再经过反卷积对不同特征图进行融合;
参考图3和图6,步骤S3具体包括:
S31:使用卷积核大小为3×3,做步长为2的五次卷积,形成像素大小分别为64×64、32×32、16×16、8×8、4×4的五个特征图;
S32:使用卷积核大小为3×3,对像素大小为4×4的特征图做步长为2的反卷积,然后与步骤S31的像素大小为8×8的特征图相融合,得到像素大小为8×8的特征图;
S33:使用卷积核大小为3×3,对步骤S32所得到的像素大小为8×8的特征图进行步长为2的反卷积,然后与步骤S31的像素大小为16×16的特征图相融合,得到像素大小为16×16的特征图;
S34:使用卷积核大小为3×3,对步骤S33所得到的像素大小为16×16的特征图进行步长为2的反卷积,然后与步骤S31的像素大小为32×32的特征图相融合,得到像素大小为32×32的特征图;
S35:使用卷积核大小为3×3,对步骤S34所得到的像素大小为32×32的特征图进行步长为2的反卷积,然后与步骤S31的像素大小为64×64的特征图相融合,得到像素大小为64×64的特征图。
经过每个步骤处理的特征图片像素大小如下表所示:
S4:将MFPN模型的最后一层特征图,使用卷积核大小为3×3,做步长为2的卷积,形成五个特征图;
S5:对五个特征图层进行拼接;
S6:经过多尺度检测,得到交通标志的位置信息和类别信息。
本发明的多尺度反卷积神经网络的交通标志实时检测识别方法,结合SSD、FPN网络各自网络结构的优势,用于无人驾驶及辅助驾驶场景中对交通标志的检测。首先采用CRN网络作为提取图片特征信息,然后使用MFPN结构充分融合低层与高层特征,以提高小目标的检测结果,最后使用多尺度特征进行目标检测,使网络泛化能力提高,对不同大小的交通标志都能够检测出来,解决了现有技术中对于变形、残缺、模糊、高噪声以及远距离拍摄的交通标志小目标进行检测的困难。
以上公开的仅为本发明的实施例,但是,本发明并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。
Claims (5)
1.一种多尺度反卷积神经网络的交通标志实时检测识别方法,其特征在于,包括以下步骤:
S1:采集交通标志照片或视频;
S2:输入CRN模型,经过卷积和池化,提取图片特征信息;
S3:将CRN模型的最后一层特征图作为MFPN模型的输入,经过卷积形成多个特征图,再经过反卷积对不同特征图进行融合;
S4:将MFPN模型的最后一层特征图,经过卷积,形成多个特征图;
S5:对多个特征图进行拼接;
S6:经过多尺度检测,得到交通标志的位置信息和类别信息。
2.根据权利要求1所述的多尺度反卷积神经网络的交通标志实时检测识别方法,其特征在于,所述步骤S2具体包括:
S21:对照片或视频进行预处理,输出像素大小一致的图片;
S22:经过池化,使图片像素缩小一半;
S23:做步长为1的两次卷积,提取特征图;
S24:经过池化,使图片像素缩小一半;
S25:做步长为1的两次卷积,提取特征图;
S26:经过池化,使图片像素缩小一半;
S27:做步长为1的两次卷积,再做步长为2的一次卷积,提取特征图。
3.根据权利要求1所述的多尺度反卷积神经网络的交通标志实时检测识别方法,其特征在于,所述步骤S3具体包括:
S31:做步长为2的m+1次卷积,形成像素大小为n×n、2n×2n、4n×4n、8n×8n、…、2mn×2mn等多个特征图(n为正整数,m为正整数);
S32:对像素大小为n×n的特征图做步长为2的反卷积,然后与步骤S31的像素大小为2n×2n的特征图相融合,得到像素大小为2n×2n的特征图;
S33:对步骤S32所得到的像素大小为2n×2n的特征图做步长为2的反卷积,然后与步骤S31的像素大小为4n×4n的特征图相融合,得到像素大小为4n×4n的特征图;
S34:对步骤S33所得到的像素大小为4n×4n的特征图做步长为2的反卷积,然后与步骤S31的像素大小为8n×8n的特征图相融合,得到像素大小为8n×8n的特征图;
S35:重复以上步骤,直至最后得到像素大小为2mn×2mn的特征图。
4.根据权利要求1所述的多尺度反卷积神经网络的交通标志实时检测识别方法,其特征在于,所述步骤S4的卷积为步长为2的卷积。
5.根据权利要求1或2或3或4所述的多尺度反卷积神经网络的交通标志实时检测识别方法,其特征在于,所述卷积和反卷积的卷积核大小为3×3或5×5或7×7。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810617284.7A CN108898078A (zh) | 2018-06-15 | 2018-06-15 | 一种多尺度反卷积神经网络的交通标志实时检测识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810617284.7A CN108898078A (zh) | 2018-06-15 | 2018-06-15 | 一种多尺度反卷积神经网络的交通标志实时检测识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108898078A true CN108898078A (zh) | 2018-11-27 |
Family
ID=64344646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810617284.7A Pending CN108898078A (zh) | 2018-06-15 | 2018-06-15 | 一种多尺度反卷积神经网络的交通标志实时检测识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108898078A (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109753959A (zh) * | 2018-12-21 | 2019-05-14 | 西北工业大学 | 基于自适应多尺度特征融合的路面交通标志检测方法 |
CN109886159A (zh) * | 2019-01-30 | 2019-06-14 | 浙江工商大学 | 一种非限定条件下的人脸检测方法 |
CN109903339A (zh) * | 2019-03-26 | 2019-06-18 | 南京邮电大学 | 一种基于多维融合特征的视频群体人物定位检测方法 |
CN110032935A (zh) * | 2019-03-08 | 2019-07-19 | 北京联合大学 | 一种基于深度学习级联网络的交通信号标识检测识别方法 |
CN110110783A (zh) * | 2019-04-30 | 2019-08-09 | 天津大学 | 一种基于多层特征图连接的深度学习目标检测方法 |
CN110147753A (zh) * | 2019-05-17 | 2019-08-20 | 电子科技大学 | 一种检测图像中小物体的方法及装置 |
CN110210538A (zh) * | 2019-05-22 | 2019-09-06 | 雷恩友力数据科技南京有限公司 | 一种家居图像多目标识别方法及装置 |
CN110309914A (zh) * | 2019-07-03 | 2019-10-08 | 中山大学 | 基于边缘服务器与移动端设备协同的深度学习模型推理加速方法 |
CN110322509A (zh) * | 2019-06-26 | 2019-10-11 | 重庆邮电大学 | 基于层级类激活图的目标定位方法、***及计算机设备 |
CN110348342A (zh) * | 2019-06-27 | 2019-10-18 | 广东技术师范大学天河学院 | 一种基于全卷积网络的管道病害图像分割方法 |
WO2020113412A1 (zh) * | 2018-12-04 | 2020-06-11 | 深圳大学 | 一种目标检测方法和*** |
CN111372042A (zh) * | 2020-01-16 | 2020-07-03 | 上海眼控科技股份有限公司 | 故障检测方法、装置、计算机设备和存储介质 |
CN111401410A (zh) * | 2020-02-27 | 2020-07-10 | 江苏大学 | 一种基于改进级联神经网络的交通标志检测方法 |
CN111860623A (zh) * | 2020-07-03 | 2020-10-30 | 北京林业大学 | 基于改进ssd神经网络的统计树木数量的方法及*** |
CN113159079A (zh) * | 2020-01-07 | 2021-07-23 | 顺丰科技有限公司 | 目标检测方法、装置、计算机设备和存储介质 |
CN113221604A (zh) * | 2020-02-05 | 2021-08-06 | 北京京东乾石科技有限公司 | 目标识别方法、装置、存储介质及电子设备 |
WO2021169049A1 (zh) * | 2020-02-24 | 2021-09-02 | 大连理工大学 | 一种真实场景下玻璃检测的方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105825203A (zh) * | 2016-03-30 | 2016-08-03 | 大连理工大学 | 基于点对匹配和几何结构匹配的地面箭头标志检测与识别方法 |
CN106529391A (zh) * | 2016-09-08 | 2017-03-22 | 长安大学 | 一种鲁棒的限速交通标志检测与识别方法 |
CN106886755A (zh) * | 2017-01-19 | 2017-06-23 | 北京航空航天大学 | 一种基于交通标志识别的交叉口车辆违章检测*** |
CN107122776A (zh) * | 2017-04-14 | 2017-09-01 | 重庆邮电大学 | 一种基于卷积神经网络的交通标志检测与识别方法 |
CN107341517A (zh) * | 2017-07-07 | 2017-11-10 | 哈尔滨工业大学 | 一种基于深度学习层级间特征融合的多尺度小物体检测方法 |
CN107368787A (zh) * | 2017-06-16 | 2017-11-21 | 长安大学 | 一种面向深度智驾应用的交通标志识别算法 |
-
2018
- 2018-06-15 CN CN201810617284.7A patent/CN108898078A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105825203A (zh) * | 2016-03-30 | 2016-08-03 | 大连理工大学 | 基于点对匹配和几何结构匹配的地面箭头标志检测与识别方法 |
CN106529391A (zh) * | 2016-09-08 | 2017-03-22 | 长安大学 | 一种鲁棒的限速交通标志检测与识别方法 |
CN106886755A (zh) * | 2017-01-19 | 2017-06-23 | 北京航空航天大学 | 一种基于交通标志识别的交叉口车辆违章检测*** |
CN107122776A (zh) * | 2017-04-14 | 2017-09-01 | 重庆邮电大学 | 一种基于卷积神经网络的交通标志检测与识别方法 |
CN107368787A (zh) * | 2017-06-16 | 2017-11-21 | 长安大学 | 一种面向深度智驾应用的交通标志识别算法 |
CN107341517A (zh) * | 2017-07-07 | 2017-11-10 | 哈尔滨工业大学 | 一种基于深度学习层级间特征融合的多尺度小物体检测方法 |
Non-Patent Citations (2)
Title |
---|
SONGWEN PEI ET AL.: "Localized Traffic Sign Detection with Multi-scale Deconvolution Networks", 《ARXIV:1804.10428V2》 * |
徐志 等: "基于图像显著性特征的交通标志注视点预测方法", 《武汉理工大学学报( 交通科学与工程版)》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020113412A1 (zh) * | 2018-12-04 | 2020-06-11 | 深圳大学 | 一种目标检测方法和*** |
CN109753959B (zh) * | 2018-12-21 | 2022-05-13 | 西北工业大学 | 基于自适应多尺度特征融合的路面交通标志检测方法 |
CN109753959A (zh) * | 2018-12-21 | 2019-05-14 | 西北工业大学 | 基于自适应多尺度特征融合的路面交通标志检测方法 |
CN109886159B (zh) * | 2019-01-30 | 2021-03-26 | 浙江工商大学 | 一种非限定条件下的人脸检测方法 |
CN109886159A (zh) * | 2019-01-30 | 2019-06-14 | 浙江工商大学 | 一种非限定条件下的人脸检测方法 |
CN110032935A (zh) * | 2019-03-08 | 2019-07-19 | 北京联合大学 | 一种基于深度学习级联网络的交通信号标识检测识别方法 |
CN109903339B (zh) * | 2019-03-26 | 2021-03-05 | 南京邮电大学 | 一种基于多维融合特征的视频群体人物定位检测方法 |
CN109903339A (zh) * | 2019-03-26 | 2019-06-18 | 南京邮电大学 | 一种基于多维融合特征的视频群体人物定位检测方法 |
CN110110783A (zh) * | 2019-04-30 | 2019-08-09 | 天津大学 | 一种基于多层特征图连接的深度学习目标检测方法 |
CN110147753A (zh) * | 2019-05-17 | 2019-08-20 | 电子科技大学 | 一种检测图像中小物体的方法及装置 |
CN110210538A (zh) * | 2019-05-22 | 2019-09-06 | 雷恩友力数据科技南京有限公司 | 一种家居图像多目标识别方法及装置 |
CN110322509A (zh) * | 2019-06-26 | 2019-10-11 | 重庆邮电大学 | 基于层级类激活图的目标定位方法、***及计算机设备 |
CN110348342A (zh) * | 2019-06-27 | 2019-10-18 | 广东技术师范大学天河学院 | 一种基于全卷积网络的管道病害图像分割方法 |
CN110309914A (zh) * | 2019-07-03 | 2019-10-08 | 中山大学 | 基于边缘服务器与移动端设备协同的深度学习模型推理加速方法 |
CN113159079A (zh) * | 2020-01-07 | 2021-07-23 | 顺丰科技有限公司 | 目标检测方法、装置、计算机设备和存储介质 |
CN111372042B (zh) * | 2020-01-16 | 2021-09-03 | 上海眼控科技股份有限公司 | 故障检测方法、装置、计算机设备和存储介质 |
CN111372042A (zh) * | 2020-01-16 | 2020-07-03 | 上海眼控科技股份有限公司 | 故障检测方法、装置、计算机设备和存储介质 |
CN113221604A (zh) * | 2020-02-05 | 2021-08-06 | 北京京东乾石科技有限公司 | 目标识别方法、装置、存储介质及电子设备 |
WO2021169049A1 (zh) * | 2020-02-24 | 2021-09-02 | 大连理工大学 | 一种真实场景下玻璃检测的方法 |
US11361534B2 (en) | 2020-02-24 | 2022-06-14 | Dalian University Of Technology | Method for glass detection in real scenes |
CN111401410A (zh) * | 2020-02-27 | 2020-07-10 | 江苏大学 | 一种基于改进级联神经网络的交通标志检测方法 |
CN111860623A (zh) * | 2020-07-03 | 2020-10-30 | 北京林业大学 | 基于改进ssd神经网络的统计树木数量的方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108898078A (zh) | 一种多尺度反卷积神经网络的交通标志实时检测识别方法 | |
Khan et al. | Image segmentation and shape analysis for road-sign detection | |
CN104809443B (zh) | 基于卷积神经网络的车牌检测方法及*** | |
CN105260712B (zh) | 一种车辆前方行人检测方法及*** | |
Saleh et al. | Cyclist detection in lidar scans using faster r-cnn and synthetic depth images | |
Hoang et al. | Enhanced detection and recognition of road markings based on adaptive region of interest and deep learning | |
Kim et al. | Multi-task convolutional neural network system for license plate recognition | |
CN104299006A (zh) | 一种基于深度神经网络的车牌识别方法 | |
Anishiya et al. | Number plate recognition for indian cars using morphological dilation and erosion with the aid of ocrs | |
Liang et al. | Deep infrared pedestrian classification based on automatic image matting | |
Fleyeh | Traffic and road sign recognition | |
Zheng et al. | A review of remote sensing image object detection algorithms based on deep learning | |
Daniell et al. | Artificial neural networks for automatic target recognition | |
Liu et al. | CAFFNet: channel attention and feature fusion network for multi-target traffic sign detection | |
Han et al. | Research on remote sensing image target recognition based on deep convolution neural network | |
Guo et al. | Traffic-sign spotting in the wild via deep features | |
Lu et al. | A cross-scale and illumination invariance-based model for robust object detection in traffic surveillance scenarios | |
Zuo et al. | A remote sensing image semantic segmentation method by combining deformable convolution with conditional random fields | |
Li et al. | Detection of road objects based on camera sensors for autonomous driving in various traffic situations | |
Pervej et al. | Real-time computer vision-based bangla vehicle license plate recognition using contour analysis and prediction algorithm | |
Kheder et al. | Transfer learning based traffic light detection and recognition using CNN inception-V3 model | |
CN112347967B (zh) | 一种复杂场景下融合运动信息的行人检测方法 | |
Khin et al. | License plate detection of Myanmar vehicle images captured from the dissimilar environmental conditions | |
Li et al. | Fast monocular visual place recognition for non-uniform vehicle speed and varying lighting environment | |
Kitvimonrat et al. | A robust method for Thai license plate recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181127 |