CN106778646A - 基于卷积神经网络的车型识别方法及装置 - Google Patents
基于卷积神经网络的车型识别方法及装置 Download PDFInfo
- Publication number
- CN106778646A CN106778646A CN201611214482.6A CN201611214482A CN106778646A CN 106778646 A CN106778646 A CN 106778646A CN 201611214482 A CN201611214482 A CN 201611214482A CN 106778646 A CN106778646 A CN 106778646A
- Authority
- CN
- China
- Prior art keywords
- image
- vehicle
- gray scale
- layer
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了基于卷积神经网络的车型识别方法,该方法包括:选取已标签车型的样本图像,对卷积神经网络进行训练,获取训练好的车型识别模型;采集或者输入彩色场景视频图像;采用加权平均法对每帧彩色场景图像进行灰度化处理,获取每帧灰度场景图像;采用均值漂移背景更新背景法更新背景图像,计算每帧灰度场景图像与背景图像的差分图像,对差分图像进行中值滤波、连通区域标记、连通区域筛选处理,获取每帧灰度场景图像的感兴趣区域图像;采用训练好的车型识别模型对每帧灰度场景图像的感兴趣区域图像进行分类识别,输出识别结果。与现有技术相比,本发明能快速地对场景图像中的车型进行识别,且识别准确率高。
Description
技术领域
本发明涉及图像处理、视频监控以及安防,特别涉及车型识别方法及装置。
背景技术
车辆识别技术是智能交通***(Intelligent Transportation System,简称ITS)的重要组成部分,是从车辆分类的标准出发,对各种车辆进行信息采集,然后利用这些信息对车辆进行分类识别的一种技术。车型识别技术在打击车辆盗窃、规范交通秩序、停车场管理、高速公路自动计费、环境监管等方面具有广阔的应用前景。
基于图像的车型识别主要有:1)基于特征的车型识别,如采用Harris角点特征、Gabor特征和SIFT(Scale Invariant Feature Transform)特征等进行车型识别,但该类方法由于各特征本身的特点,当存在光照变化、视角变化、遮挡时,会极大地影响识别率;2)基于模板的车型识别,该类方法通常存在提取难度大,计算复杂等特点;3)基于神经网络的车型识别,通过大量车型样本图像对神经网络的训练,以获取训练好的分类模型,该类方法依赖于网络结构和样本选取。近年来,随着深度学习在图像识别领域的优异表现,基于卷积神经网络的车型识别受到了极大的追捧。
公开号为CN106056102A的中国发明专利申请公开了一种基于视频图像分析的道路车型分类方法,包括:获取视频图像中的每一帧;将视频图像中的每一帧输入至高斯混合模型中,得到前景车辆中心点;将视频图像中的每相邻两帧以及前景车辆中心点输入至卡尔曼滤波器中,得到最优帧;将最优帧输入至卷积神经网络中,得到高维特征向量;将高维特征向量输入车型分类模型中,得到车型分析结果。然而该发明计算量较大,且对于复杂的环境鲁棒性较差。
综上所述,目前迫切需要提出一种快速且适于复杂环境下的车辆的车型识别方法及装置。
发明内容
有鉴于此,本发明的主要目的在于实现车辆的车型的快速识别,且识别准确率高,鲁棒性较好。
为达到上述目的,按照本发明的第一个方面,提供了的基于卷积神经网络的车型识别方法,该方法包括:
第一步骤,选取已标签车型的样本图像,对卷积神经网络进行训练,获取训练好的车型识别模型;
第二步骤,采集或者输入彩色场景视频图像;
第三步骤,采用加权平均法对每帧彩色场景图像进行灰度化处理,获取每帧灰度场景图像;
第四步骤,采用均值漂移背景更新背景法更新背景图像,计算每帧灰度场景图像与背景图像的差分图像,对差分图像进行中值滤波、连通区域标记、连通区域筛选处理,获取每帧灰度场景图像的感兴趣区域图像;以及
第五步骤,采用训练好的车型识别模型对每帧灰度场景图像的感兴趣区域图像进行分类识别,输出识别结果。
进一步地,所述第一步骤包括:
样本选取步骤,选取LINum1个已标记MNum种车型的灰度图像作为样本图像,选取LINum2个已标记非车辆的灰度图像作为负样本图像;
初步训练步骤,利用卷积神经网络对正样本图像和负样本图像进行训练,获得初步训练车型分类模型;
二次训练步骤,选取TINum个测试图像,根据初步训练车型分类模型对测试图像进行反复训练,直至车型分类模型收敛;
模型输出步骤,将收敛的车型分类模型作为车型识别模型并输出。
进一步地,所述初步训练步骤中卷积神经网络包括:
输入层,输入宽度为Width、高度为Height的灰度图像;
第一层卷积层,输出Th_CK1个卷积核,卷积核的大小为CKSi1*CKSi1、步长为1;
第一层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第二层卷积层,输出Th_CK2个卷积核,卷积核的大小为CKSi2*CKSi2、步长为1;
第二层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第三层卷积层,输出Th_CK3个卷积核,卷积核的大小为CKSi3*CKSi3、步长为1;
第三层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第四层卷积层,输出Th_CK4个卷积核,卷积核的大小为CKSi4*CKSi4、步长为1;
第四层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第五层卷积层,输出Th_CK5个卷积核,卷积核的大小为CKSi5*CKSi5、步长为1;
第一层全连接层,采用ReLU作为激活函数,输出Th_Neur个神经元;
第二层全连接层,输出MNum+1个神经元,即MNum种车型类别和1种非车辆类别。
进一步地,所述二次训练步骤包括:
训练特征提取步骤,根据初步训练车型分类模型,提取TINum个灰度测试图像的特征;
训练分类判定步骤,计算测试图像的特征与每种车型类别特征的相似度Simik,k表示第k种车型类别,k∈{1,2,…,MNum,MNum+1},选取Simik值最大的车型类别作为候选车型类别;
反复训练步骤,计算判定结果与真实结果的误差,利用反向传播算法来训练车型分类模型,重复训练特征提取步骤和训练分类判定步骤,直至车型分类模型收敛。
进一步地,所述第三步骤中加权平均法包括:统计第i帧彩色场景图像内像素点(x,y)的红色分量值Ri(x,y)、绿色分量值Gi(x,y)、蓝色分量值Bi(x,y),根据加权公式fi(x,y)=0.114×Ri(x,y)+0.587×Gi(x,y)+0.299×Bi(x,y),获取第i帧场景图像内像素点(x,y)的加权灰度值fi(x,y)。
进一步地,所述第四步骤包括:
均值漂移背景更新步骤,计算第i帧灰度场景图像的背景图像Bi(x,y)=(1-α)×Bi-1(x,y)+α×fi-1(x,y),其中B0(x,y)=f0(x,y);
差分图像计算步骤,计算第i帧灰度场景图像fi(x,y)与背景图像Bi(x,y)的差分图像;
中值滤波处理步骤,分别采用中值滤波算法对每帧灰度场景图像的差分图像进行处理,获取每帧灰度场景图像的前景图像;
连通区域标记步骤,采用连通区域标记法对每帧灰度场景图像的前景图像进行标记,获取每帧灰度场景图像内的连通区域;
连通区域筛选步骤,统计每帧灰度场景图像内的每个连通区域内前景点的数量,若连通区域内前景点的数量大于标记阈值MT,则将该连通区域设为感兴趣区域,否则将该连通区域内的前景点全设为背景点;
感兴趣区域图像提取步骤,根据每帧灰度场景图像内感兴趣区域的位置,提取该帧灰度场景图像中相应位置内的图像作为感兴趣区域图像。
进一步地,所述第五步骤包括:
识别特征提取步骤,利用车型识别模型分别提取感兴趣区域图像的特征;
识别分类判定步骤,计算提取的感兴趣区域图像特征与每一种车型类别特征的相似度Simik,k表示第k种类别,k∈{1,2,…,MNum,MNum+1},选取Simik值最大的类别作为车型类别。
按照本发明的另一个方面,提供了的基于卷积神经网络的车型识别装置,该装置包括:
车型识别模型训练模块,用于选取已标签车型的样本图像,对卷积神经网络进行训练,获取训练好的车型识别模型;
彩色场景视频图像获取模块,用于采集或者输入彩色场景视频图像;
场景灰度图像获取模块,用于采用加权平均法对每帧彩色场景图像进行灰度化处理,获取每帧灰度场景图像;
感兴趣区域图像提取模块,用于采用均值漂移背景更新背景法更新背景图像,计算每帧灰度场景图像与背景图像的差分图像,对差分图像进行中值滤波、连通区域标记、连通区域筛选处理,获取每帧灰度场景图像的感兴趣区域图像;以及
感兴趣区域图像分类识别模块,用于采用训练好的车型识别模型对每帧灰度场景图像的感兴趣区域图像进行分类识别,输出识别结果。
进一步地,所述车型识别模型训练模块包括:
样本选取模块,用于选取LINum1个已标记MNum种车型的灰度图像作为样本图像,选取LINum2个已标记非车辆的灰度图像作为负样本图像;
初步训练模块,用于利用卷积神经网络对正样本图像和负样本图像进行训练,获得初步训练车型分类模型;
二次训练模块,用于选取TINum个测试图像,根据初步训练车型分类模型对测试图像进行反复训练,直至车型分类模型收敛;
模型输出模块,用于将收敛的车型分类模型作为车型识别模型并输出。
进一步地,所述初步训练模块中卷积神经网络包括:
输入层,输入宽度为Width、高度为Height的灰度图像;
第一层卷积层,输出Th_CK1个卷积核,卷积核的大小为CKSi1*CKSi1、步长为1;
第一层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第二层卷积层,输出Th_CK2个卷积核,卷积核的大小为CKSi2*CKSi2、步长为1;
第二层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第三层卷积层,输出Th_CK3个卷积核,卷积核的大小为CKSi3*CKSi3、步长为1;
第三层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第四层卷积层,输出Th_CK4个卷积核,卷积核的大小为CKSi4*CKSi4、步长为1;
第四层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第五层卷积层,输出Th_CK5个卷积核,卷积核的大小为CKSi5*CKSi5、步长为1;
第一层全连接层,采用ReLU作为激活函数,输出Th_Neur个神经元;
第二层全连接层,输出MNum+1个神经元,即MNum种车型类别和1种非车辆类别。
进一步地,所述二次训练模块包括:
训练特征提取模块,用于根据初步训练车型分类模型,提取TINum个灰度测试图像的特征;
训练分类判定模块,用于计算测试图像的特征与每种车型类别特征的相似度Simik,k表示第k种车型类别,,k∈{1,2,…,MNum,MNum+1},选取Simik值最大的车型类别作为候选车型类别;
反复训练模块,用于计算判定结果与真实结果的误差,利用反向传播算法来训练车型分类模型,重复训练特征提取模块和训练分类判定模块,直至车型分类模型收敛。
进一步地,所述场景灰度图像获取模块中加权平均法包括:统计第i帧彩色场景图像内像素点(x,y)的红色分量值Ri(x,y)、绿色分量值Gi(x,y)、蓝色分量值Bi(x,y),根据加权公式fi(x,y)=0.114×Ri(x,y)+0.587×Gi(x,y)+0.299×Bi(x,y),获取第i帧场景图像内像素点(x,y)的加权灰度值fi(x,y)。
进一步地,所述感兴趣区域图像提取模块包括:
均值漂移背景更新模块,用于计算第i帧灰度场景图像的背景图像Bi(x,y)=(1-α)×Bi-1(x,y)+α×fi-1(x,y),其中B0(x,y)=f0(x,y);
差分图像计算模块,用于计算第i帧灰度场景图像fi(x,y)与背景图像Bi(x,y)的差分图像;
中值滤波处理模块,用于分别采用中值滤波算法对每帧灰度场景图像的差分图像进行处理,获取每帧灰度场景图像的前景图像;
连通区域标记模块,用于采用连通区域标记法对每帧灰度场景图像的前景图像进行标记,获取每帧灰度场景图像内的连通区域;
连通区域筛选模块,用于统计每帧灰度场景图像内的每个连通区域内前景点的数量,若连通区域内前景点的数量大于标记阈值MT,则将该连通区域设为感兴趣区域,否则将该连通区域内的前景点全设为背景点;
感兴趣区域图像提取模块,用于根据每帧灰度场景图像内感兴趣区域的位置,提取该帧灰度场景图像中相应位置内的图像作为感兴趣区域图像。
进一步地,所述感兴趣区域图像分类识别模块包括:
识别特征提取模块,用于利用车型识别模型分别提取感兴趣区域图像的特征;
识别分类判定模块,用于计算提取的感兴趣区域图像特征与每一种车型类别特征的相似度Simik,k表示第k种类别,k∈{1,2,…,MNum,MNum+1},选取Simik值最大的类别作为车型类别。
与现有的车型识别技术相比,本发明的基于卷积神经网络的车型识别方法及装置一方面采用卷积神经网络进行训练和识别的模型,提高了车型识别的准确率;另一方面采用背景差分算法先提取感兴趣区域,再对感兴趣区域进行分类识别,降低了计算的复杂度。
附图说明
图1示出了按照本发明的基于卷积神经网络的车型识别方法的流程图。
图2示出了按照本发明的基于卷积神经网络的车型识别装置的框架图。
具体实施方式
为使贵审查员能进一步了解本发明的结构、特征及其他目的,现结合所附较佳实施例详细说明如下,所说明的较佳实施例仅用于说明本发明的技术方案,并非限定本发明。
图1给出了按照本发明的基于卷积神经网络的车型识别方法的流程图。如图1所示,按照本发明的基于卷积神经网络的车型识别方法包括:
第一步骤S1,选取已标签车型的样本图像,对卷积神经网络进行训练,获取训练好的车型识别模型;
第二步骤S2,采集或者输入彩色场景视频图像;
第三步骤S3,采用加权平均法对每帧彩色场景图像进行灰度化处理,获取每帧灰度场景图像;
第四步骤S4,采用均值漂移背景更新背景法更新背景图像,计算每帧灰度场景图像与背景图像的差分图像,对差分图像进行中值滤波、连通区域标记、连通区域筛选处理,获取每帧灰度场景图像的感兴趣区域图像;以及
第五步骤S5,采用训练好的车型识别模型对每帧灰度场景图像的感兴趣区域图像进行分类识别,输出识别结果。
进一步地,所述第一步骤S1包括:
样本选取步骤S11,选取LINum1个已标记MNum种车型的灰度图像作为样本图像,选取LINum2个已标记非车辆的灰度图像作为负样本图像;
初步训练步骤S12,利用卷积神经网络对正样本图像和负样本图像进行训练,获得初步训练车型分类模型;
二次训练步骤S13,选取TINum个测试图像,根据初步训练车型分类模型对测试图像进行反复训练,直至车型分类模型收敛;
模型输出步骤S14,将收敛的车型分类模型作为车型识别模型并输出。
进一步地,所述样本选取步骤S11中MNum∈[3,30],可根据需求设置已标记车型的种类数量。例如,MNum选为3时,已标记车型包括:小型车、中型车、大型车;MNum选为19时,已标记车型包括:小轿车、吉普车、的士头货车、摩托车、面包车、小型货车、轻型货车、小型客车、中型客车、大型客车、中型货车、大型豪华客车、双层大客车、大型货车、大型拖(挂)车、20英尺集装箱车、重型货车、重型拖(挂)车、40英尺集装箱车。优选地,MNum选为19。
进一步地,所述LINum1≥4000,LINum2≥2000。优选地,所述LINum1≥16000,LINum2≥8000。
进一步地,所述初步训练步骤S12中卷积神经网络包括:
输入层,输入宽度为Width、高度为Height的灰度图像;
第一层卷积层,输出Th_CK1个卷积核,卷积核的大小为CKSi1*CKSi1、步长为1;
第一层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第二层卷积层,输出Th_CK2个卷积核,卷积核的大小为CKSi2*CKSi2、步长为1;
第二层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第三层卷积层,输出Th_CK3个卷积核,卷积核的大小为CKSi3*CKSi3、步长为1;
第三层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第四层卷积层,输出Th_CK4个卷积核,卷积核的大小为CKSi4*CKSi4、步长为1;
第四层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第五层卷积层,输出Th_CK5个卷积核,卷积核的大小为CKSi5*CKSi5、步长为1;
第一层全连接层,采用ReLU作为激活函数,输出Th_Neur个神经元;
第二层全连接层,输出MNum+1个神经元,即MNum种车型类别和1种非车辆类别。
进一步地,所述Width∈[64,256],Height∈[64,256];Th_CK1∈[16,32],CKSi1为3或者5;KSi∈[2,4];Th_CK2∈[16,32],CKSi2为3或者5;Th_CK3∈[32,64],CKSi3为3或者5;Th_CK4∈[32,64],CKSi4为3或者5;Th_CK5∈[64,128],CKSi5为3或者5;Th_Neur∈[100,10000]。
优选地,Width设为128,Height设为128。Th_CK1设为16,CKSi1设为3,KSi设为2,Th_CK2设为16,CKSi2设为3,Th_CK3设为32,CKSi3设为3,Th_CK4设为32,CKSi4设为3,Th_CK5设为64,CKSi5设为3。Th_Neur设为120。
所述池化层中最大池化法通过现有技术实现。
所述第一层全连接层中ReLU全称为Rectified Linear Units,中文译为修正线性单元,可以参考文献“Taming the ReLU with Parallel Dither in a Deep NeuralNetwork.AJR Simpson.Computer Science,2015”。
进一步地,所述二次训练步骤S13包括:
训练特征提取步骤S131,根据初步训练车型分类模型,提取TINum个灰度测试图像的特征;
训练分类判定步骤S132,计算测试图像的特征与每种车型类别特征的相似度Simik,k表示第k种车型类别,k∈{1,2,…,MNum,MNum+1},选取Simik值最大的车型类别作为候选车型类别;
反复训练步骤S133,计算判定结果与真实结果的误差,利用反向传播算法来训练车型分类模型,重复训练特征提取步骤S131和训练分类判定步骤S132,直至车型分类模型收敛。
进一步地,选取TINum个测试图像包括MNum种车型的灰度图像和非车辆的灰度图像。所述TINum≥1000。优选地,TINum≥6000。
进一步地,训练分类判定步骤S132中所述车型类别包括MNum种车型类别和1种非车辆类别。
所述反复训练步骤S133中反向传播算法通过现有的技术实现。
进一步地,所述第二步骤S2中采集或者输入彩色场景视频图像是指可以通过图像传感器采集公路、卡口等实际场景的彩色图像,也可以直接输入已有的实际场景的彩***图像。
进一步地,所述第三步骤S3中加权平均法包括:统计第i帧彩色场景图像内像素点(x,y)的红色分量值Ri(x,y)、绿色分量值Gi(x,y)、蓝色分量值Bi(x,y),根据加权公式fi(x,y)=0.114×Ri(x,y)+0.587×Gi(x,y)+0.299×Bi(x,y),获取第i帧场景图像内像素点(x,y)的加权灰度值fi(x,y)。
进一步地,所述第四步骤S4包括:
均值漂移背景更新步骤S41,计算第i帧灰度场景图像的背景图像Bi(x,y)=(1-α)×Bi-1(x,y)+α×fi-1(x,y),其中B0(x,y)=f0(x,y);
差分图像计算步骤S42,计算第i帧灰度场景图像fi(x,y)与背景图像Bi(x,y)的差分图像;
中值滤波处理步骤S43,分别采用中值滤波算法对每帧灰度场景图像的差分图像进行处理,获取每帧灰度场景图像的前景图像;
连通区域标记步骤S44,采用连通区域标记法对每帧灰度场景图像的前景图像进行标记,获取每帧灰度场景图像内的连通区域;
连通区域筛选步骤S45,统计每帧灰度场景图像内的每个连通区域内前景点的数量,若连通区域内前景点的数量大于标记阈值MT,则将该连通区域设为感兴趣区域,否则将该连通区域内的前景点全设为背景点;
感兴趣区域图像提取步骤S46,根据每帧灰度场景图像内感兴趣区域的位置,提取该帧灰度场景图像中相应位置内的图像作为感兴趣区域图像。
进一步地,均值漂移背景更新步骤S41中α∈[0.02,0.04]。优选地,α选为0.03。
进一步地,所述中值滤波处理步骤S43中中值滤波算法通过现有技术实现。
进一步地,所述连通区域标记步骤S44中连通区域标记法通过现有技术实现。
进一步地,所述连通区域筛选步骤S45中标记阈值MT∈[40,100]。优选地,标记阈值MT选为60。
进一步地,所述第五步骤S5包括:
识别特征提取步骤S51,利用车型识别模型分别提取感兴趣区域图像的特征;
识别分类判定步骤S52,计算提取的感兴趣区域图像特征与每一种车型类别特征的相似度Simik,k表示第k种类别,k∈{1,2,…,MNum,MNum+1},选取Simik值最大的类别作为车型类别。
图2给出了按照本发明的基于卷积神经网络的车型识别装置的框架图。如图2所示,按照本发明的基于卷积神经网络的车型识别装置包括:
车型识别模型训练模块1,用于选取已标签车型的样本图像,对卷积神经网络进行训练,获取训练好的车型识别模型;
彩色场景视频图像获取模块2,用于采集或者输入彩色场景视频图像;
场景灰度图像获取模块3,用于采用加权平均法对每帧彩色场景图像进行灰度化处理,获取每帧灰度场景图像;
感兴趣区域图像提取模块4,用于采用均值漂移背景更新背景法更新背景图像,计算每帧灰度场景图像与背景图像的差分图像,对差分图像进行中值滤波、连通区域标记、连通区域筛选处理,获取每帧灰度场景图像的感兴趣区域图像;以及
感兴趣区域图像分类识别模块5,用于采用训练好的车型识别模型对每帧灰度场景图像的感兴趣区域图像进行分类识别,输出识别结果。
进一步地,所述车型识别模型训练模块1包括:
样本选取模块11,用于选取LINum1个已标记MNum种车型的灰度图像作为样本图像,选取LINum2个已标记非车辆的灰度图像作为负样本图像;
初步训练模块12,用于利用卷积神经网络对正样本图像和负样本图像进行训练,获得初步训练车型分类模型;
二次训练模块13,用于选取TINum个测试图像,根据初步训练车型分类模型对测试图像进行反复训练,直至车型分类模型收敛;
模型输出模块14,用于将收敛的车型分类模型作为车型识别模型并输出。
进一步地,所述样本选取模块11中MNum∈[3,30],可根据需求设置已标记车型的种类数量。例如,MNum选为3时,已标记车型包括:小型车、中型车和大型车;MNum选为19时,已标记车型包括:小轿车、吉普车、的士头货车、摩托车、面包车、小型货车、轻型货车、小型客车、中型客车、大型客车、中型货车、大型豪华客车、双层大客车、大型货车、大型拖(挂)车、20英尺集装箱车、重型货车、重型拖(挂)车、40英尺集装箱车。优选地,MNum选为19。
进一步地,所述LINum1≥4000,LINum2≥2000。优选地,所述LINum1≥16000,LINum2≥8000。
进一步地,所述初步训练模块12中卷积神经网络包括:
输入层,输入宽度为Width、高度为Height的灰度图像;
第一层卷积层,输出Th_CK1个卷积核,卷积核的大小为CKSi1*CKSi1、步长为1;
第一层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第二层卷积层,输出Th_CK2个卷积核,卷积核的大小为CKSi2*CKSi2、步长为1;
第二层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第三层卷积层,输出Th_CK3个卷积核,卷积核的大小为CKSi3*CKSi3、步长为1;
第三层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第四层卷积层,输出Th_CK4个卷积核,卷积核的大小为CKSi4*CKSi4、步长为1;
第四层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第五层卷积层,输出Th_CK5个卷积核,卷积核的大小为CKSi5*CKSi5、步长为1;
第一层全连接层,采用ReLU作为激活函数,输出Th_Neur个神经元;
第二层全连接层,输出MNum+1个神经元,即MNum种车型类别和1种非车辆类别。
进一步地,所述Width∈[64,256],Height∈[64,256];Th_CK1∈[16,32],CKSi1为3或者5;KSi∈[2,4];Th_CK2∈[16,32],CKSi2为3或者5;Th_CK3∈[32,64],CKSi3为3或者5;Th_CK4∈[32,64],CKSi4为3或者5;Th_CK5∈[64,128],CKSi5为3或者5;Th_Neur∈[100,10000]。
优选地,Width设为128,Height设为128。Th_CK1设为16,CKSi1设为3,KSi设为2,Th_CK2设为16,CKSi2设为3,Th_CK3设为32,CKSi3设为3,Th_CK4设为32,CKSi4设为3,Th_CK5设为64,CKSi5设为3。Th_Neur设为120。
所述池化层中最大池化法通过现有技术实现。
所述第一层全连接层中ReLU全称为Rectified Linear Units,中文译为修正线性单元,可以参考文献“Taming the ReLU with Parallel Dither in a Deep NeuralNetwork.AJR Simpson.Computer Science,2015”。
进一步地,所述二次训练模块13包括:
训练特征提取模块131,用于根据初步训练车型分类模型,提取TINum个灰度测试图像的特征;
训练分类判定模块132,用于计算测试图像的特征与每种车型类别特征的相似度Simik,k表示第k种车型类别,k∈{1,2,…,MNum,MNum+1},选取Simik值最大的车型类别作为候选车型类别;
反复训练模块133,用于计算判定结果与真实结果的误差,利用反向传播算法来训练车型分类模型,重复训练特征提取模块131和训练分类判定模块132,直至车型分类模型收敛。
进一步地,选取TINum个测试图像包括MNum种车型的灰度图像和非车辆的灰度图像。所述TINum≥1000。优选地,TINum≥6000。
进一步地,训练分类判定模块132中所述车型类别包括MNum种车型类别和1种非车辆类别。
所述反复训练模块133中反向传播算法通过现有的技术实现。
进一步地,所述彩色场景视频图像获取模块2中采集或者输入彩色场景视频图像是指可以通过图像传感器采集公路、卡口等实际场景的彩色图像,也可以直接输入已有的实际场景的彩***图像。
进一步地,所述场景灰度图像获取模块3中加权平均法包括:统计第i帧彩色场景图像内像素点(x,y)的红色分量值Ri(x,y)、绿色分量值Gi(x,y)、蓝色分量值Bi(x,y),根据加权公式fi(x,y)=0.114×Ri(x,y)+0.587×Gi(x,y)+0.299×Bi(x,y),获取第i帧场景图像内像素点(x,y)的加权灰度值fi(x,y)。
进一步地,所述感兴趣区域图像提取模块4包括:
均值漂移背景更新模块41,用于计算第i帧灰度场景图像的背景图像Bi(x,y)=(1-α)×Bi-1(x,y)+α×fi-1(x,y),其中B0(x,y)=f0(x,y);
差分图像计算模块42,用于计算第i帧灰度场景图像fi(x,y)与背景图像Bi(x,y)的差分图像;
中值滤波处理模块43,用于分别采用中值滤波算法对每帧灰度场景图像的差分图像进行处理,获取每帧灰度场景图像的前景图像;
连通区域标记模块44,用于采用连通区域标记法对每帧灰度场景图像的前景图像进行标记,获取每帧灰度场景图像内的连通区域;
连通区域筛选模块45,用于统计每帧灰度场景图像内的每个连通区域内前景点的数量,若连通区域内前景点的数量大于标记阈值MT,则将该连通区域设为感兴趣区域,否则将该连通区域内的前景点全设为背景点;
感兴趣区域图像提取模块46,用于根据每帧灰度场景图像内感兴趣区域的位置,提取该帧灰度场景图像中相应位置内的图像作为感兴趣区域图像。
进一步地,均值漂移背景更新模块41中α∈[0.02,0.04]。优选地,α选为0.03。
进一步地,所述中值滤波处理模块43中中值滤波算法通过现有技术实现。
进一步地,所述连通区域标记模块44中连通区域标记法通过现有技术实现。
进一步地,所述连通区域筛选模块45中标记阈值MT∈[40,100]。优选地,标记阈值MT选为60。
进一步地,所述感兴趣区域图像分类识别模块5包括:
识别特征提取模块51,用于利用车型识别模型分别提取感兴趣区域图像的特征;
识别分类判定模块52,用于计算提取的感兴趣区域图像特征与每一种车型类别特征的相似度Simik,k表示第k种类别,k∈{1,2,…,MNum,MNum+1},选取Simik值最大的类别作为车型类别。
与现有的车型识别技术相比,本发明的基于卷积神经网络的车型识别方法及装置一方面采用卷积神经网络进行训练和识别的模型,提高了车型识别的准确率;另一方面采用背景差分算法先提取感兴趣区域图像,再对感兴趣区域图像进行分类识别,降低了计算的复杂度。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围,应当理解,本发明并不限于这里所描述的实现方案,这些实现方案描述的目的在于帮助本领域中的技术人员实践本发明。任何本领域中的技术人员很容易在不脱离本发明精神和范围的情况下进行进一步的改进和完善,因此本发明只受到本发明权利要求的内容和范围的限制,其意图涵盖所有包括在由所附权利要求所限定的本发明精神和范围内的备选方案和等同方案。
Claims (18)
1.基于卷积神经网络的车型识别方法,其特征在于,该方法包括:
第一步骤,选取已标签车型的样本图像,对卷积神经网络进行训练,获取训练好的车型识别模型;
第二步骤,采集或者输入彩色场景视频图像;
第三步骤,采用加权平均法对每帧彩色场景图像进行灰度化处理,获取每帧灰度场景图像;
第四步骤,采用均值漂移背景更新背景法更新背景图像,计算每帧灰度场景图像与背景图像的差分图像,对差分图像进行中值滤波、连通区域标记、连通区域筛选处理,获取每帧灰度场景图像的感兴趣区域图像;以及
第五步骤,采用训练好的车型识别模型对每帧灰度场景图像的感兴趣区域图像进行分类识别,输出识别结果。
2.如权利要求1所述的方法,其特征在于,所述第一步骤包括:
样本选取步骤,选取LINum1个已标记MNum种车型的灰度图像作为样本图像,选取LINum2个已标记非车辆的灰度图像作为负样本图像;
初步训练步骤,利用卷积神经网络对正样本图像和负样本图像进行训练,获得初步训练车型分类模型;
二次训练步骤,选取TINum个测试图像,根据初步训练车型分类模型对测试图像进行反复训练,直至车型分类模型收敛;
模型输出步骤,将收敛的车型分类模型作为车型识别模型并输出。
3.如权利要求2所述的方法,其特征在于,所述初步训练步骤中卷积神经网络包括:
输入层,输入宽度为Width、高度为Height的灰度图像;
第一层卷积层,输出Th_CK1个卷积核,卷积核的大小为CKSi1*CKSi1、步长为1;
第一层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第二层卷积层,输出Th_CK2个卷积核,卷积核的大小为CKSi2*CKSi2、步长为1;
第二层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第三层卷积层,输出Th_CK3个卷积核,卷积核的大小为CKSi3*CKSi3、步长为1;
第三层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第四层卷积层,输出Th_CK4个卷积核,卷积核的大小为CKSi4*CKSi4、步长为1;
第四层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第五层卷积层,输出Th_CK5个卷积核,卷积核的大小为CKSi5*CKSi5、步长为1;
第一层全连接层,采用ReLU作为激活函数,输出Th_Neur个神经元;
第二层全连接层,输出MNum+1个神经元,即MNum种车型类别和1种非车辆类别。
4.如权利要求2所述的方法,其特征在于,所述二次训练步骤包括:
训练特征提取步骤,根据初步训练车型分类模型,提取TINum个灰度测试图像的特征;
训练分类判定步骤,计算测试图像的特征与每种车型类别特征的相似度Simik,k表示第k种车型类别,k∈{1,2,…,MNum,MNum+1},选取Simik值最大的车型类别作为候选车型类别;
反复训练步骤,计算判定结果与真实结果的误差,利用反向传播算法来训练车型分类模型,重复训练特征提取步骤和训练分类判定步骤,直至车型分类模型收敛。
5.如权利要求2~4所述的方法,所述MNum∈[3,30],LINum1≥4000,LINum2≥2000,TINum≥1000,Width∈[64,256],Height∈[64,256],Th_CK1∈[16,32],CKSi1为3或者5,KSi∈[2,4],Th_CK2∈[16,32],CKSi2为3或者5,Th_CK3∈[32,64],CKSi3为3或者5,Th_CK4∈[32,64],CKSi4为3或者5,Th_CK5∈[64,128],CKSi5为3或者5,Th_Neur∈[100,10000]。
6.如权利要求1所述的方法,所述第三步骤中加权平均法包括:统计第i帧彩色场景图像内像素点(x,y)的红色分量值Ri(x,y)、绿色分量值Gi(x,y)、蓝色分量值Bi(x,y),根据加权公式fi(x,y)=0.114×Ri(x,y)+0.587×Gi(x,y)+0.299×Bi(x,y),获取第i帧场景图像内像素点(x,y)的加权灰度值fi(x,y)。
7.如权利要求1所述的方法,其特征在于,所述第四步骤包括:
均值漂移背景更新步骤,计算第i帧灰度场景图像的背景图像Bi(x,y)=(1-α)×Bi-1(x,y)+α×fi-1(x,y),其中B0(x,y)=f0(x,y);
差分图像计算步骤,计算第i帧灰度场景图像fi(x,y)与背景图像Bi(x,y)的差分图像;
中值滤波处理步骤,分别采用中值滤波算法对每帧灰度场景图像的差分图像进行处理,获取每帧灰度场景图像的前景图像;
连通区域标记步骤,采用连通区域标记法对每帧灰度场景图像的前景图像进行标记,获取每帧灰度场景图像内的连通区域;
连通区域筛选步骤,统计每帧灰度场景图像内的每个连通区域内前景点的数量,若连通区域内前景点的数量大于标记阈值MT,则将该连通区域设为感兴趣区域,否则将该连通区域内的前景点全设为背景点;
感兴趣区域图像提取步骤,根据每帧灰度场景图像内感兴趣区域的位置,提取该帧灰度场景图像中相应位置内的图像作为感兴趣区域图像。
8.如权利要求7所述的方法,所述α∈[0.02,0.04],MT∈[40,100]。
9.如权利要求1所述的方法,其特征在于,所述第五步骤包括:
识别特征提取步骤,利用车型识别模型分别提取感兴趣区域图像的特征;
识别分类判定步骤,计算提取的感兴趣区域图像特征与每一种车型类别特征的相似度Simik,k表示第k种类别,k∈{1,2,…,MNum,MNum+1},选取Simik值最大的类别作为车型类别。
10.基于卷积神经网络的车型识别装置,其特征在于,该装置包括:
车型识别模型训练模块,用于选取已标签车型的样本图像,对卷积神经网络进行训练,获取训练好的车型识别模型;
彩色场景视频图像获取模块,用于采集或者输入彩色场景视频图像;
场景灰度图像获取模块,用于采用加权平均法对每帧彩色场景图像进行灰度化处理,获取每帧灰度场景图像;
感兴趣区域图像提取模块,用于采用均值漂移背景更新背景法更新背景图像,计算每帧灰度场景图像与背景图像的差分图像,对差分图像进行中值滤波、连通区域标记、连通区域筛选处理,获取每帧灰度场景图像的感兴趣区域图像;以及感兴趣区域图像分类识别模块,用于采用训练好的车型识别模型对每帧灰度场景图像的感兴趣区域图像进行分类识别,输出识别结果。
11.如权利要求10所述的装置,其特征在于,所述车型识别模型训练模块包括:样本选取模块,用于选取LINum1个已标记MNum种车型的灰度图像作为样本图像,选取LINum2个已标记非车辆的灰度图像作为负样本图像;
初步训练模块,用于利用卷积神经网络对正样本图像和负样本图像进行训练,获得初步训练车型分类模型;
二次训练模块,用于选取TINum个测试图像,根据初步训练车型分类模型对测试图像进行反复训练,直至车型分类模型收敛;
模型输出模块,用于将收敛的车型分类模型作为车型识别模型并输出。
12.如权利要求11所述的装置,其特征在于,所述初步训练模块中卷积神经网络包括:
输入层,输入宽度为Width、高度为Height的灰度图像;
第一层卷积层,输出Th_CK1个卷积核,卷积核的大小为CKSi1*CKSi1、步长为1;
第一层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第二层卷积层,输出Th_CK2个卷积核,卷积核的大小为CKSi2*CKSi2、步长为1;
第二层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第三层卷积层,输出Th_CK3个卷积核,卷积核的大小为CKSi3*CKSi3、步长为1;
第三层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第四层卷积层,输出Th_CK4个卷积核,卷积核的大小为CKSi4*CKSi4、步长为1;
第四层池化层,采用最大池化法输出KSi*KSi、步长为2的核;
第五层卷积层,输出Th_CK5个卷积核,卷积核的大小为CKSi5*CKSi5、步长为1;
第一层全连接层,采用ReLU作为激活函数,输出Th_Neur个神经元;
第二层全连接层,输出MNum+1个神经元,即MNum种车型类别和1种非车辆类别。
13.如权利要求11所述的装置,其特征在于,所述二次训练模块包括:
训练特征提取模块,用于根据初步训练车型分类模型,提取TINum个灰度测试图像的特征;
训练分类判定模块,用于计算测试图像的特征与每种车型类别特征的相似度Simik,k表示第k种车型类别,k∈{1,2,…,MNum,MNum+1},选取Simik值最大的车型类别作为候选车型类别;
反复训练模块,用于计算判定结果与真实结果的误差,利用反向传播算法来训练车型分类模型,重复训练特征提取模块和训练分类判定模块,直至车型分类模型收敛。
14.如权利要求11~13所述的装置,所述MNum∈[3,30],LINum1≥4000,LINum2≥2000,TINum≥1000,Width∈[64,256],Height∈[64,256],Th_CK1∈[16,32],CKSi1为3或者5,KSi∈[2,4],Th_CK2∈[16,32],CKSi2为3或者5,Th_CK3∈[32,64],CKSi3为3或者5,Th_CK4∈[32,64],CKSi4为3或者5,Th_CK5∈[64,128],CKSi5为3或者5,Th_Neur∈[100,10000]。
15.如权利要求10所述的装置,所述场景灰度图像获取模块中加权平均法包括:统计第i帧彩色场景图像内像素点(x,y)的红色分量值Ri(x,y)、绿色分量值Gi(x,y)、蓝色分量值Bi(x,y),根据加权公式fi(x,y)=0.114*Ri(x,y)+0.587×Gi(x,y)+0.299×Bi(x,y),获取第i帧场景图像内像素点(x,y)的加权灰度值fi(x,y)。
16.如权利要求10所述的装置,其特征在于,所述感兴趣区域图像提取模块包括:
均值漂移背景更新模块,用于计算第i帧灰度场景图像的背景图像Bi(x,y)=(1-α)×Bi-1(x,y)+α×fi-1(x,y),其中B0(x,y)=f0(x,y);
差分图像计算模块,用于计算第i帧灰度场景图像fi(x,y)与背景图像Bi(x,y)的差分图像;
中值滤波处理模块,用于分别采用中值滤波算法对每帧灰度场景图像的差分图像进行处理,获取每帧灰度场景图像的前景图像;
连通区域标记模块,用于采用连通区域标记法对每帧灰度场景图像的前景图像进行标记,获取每帧灰度场景图像内的连通区域;
连通区域筛选模块,用于统计每帧灰度场景图像内的每个连通区域内前景点的数量,若连通区域内前景点的数量大于标记阈值MT,则将该连通区域设为感兴趣区域,否则将该连通区域内的前景点全设为背景点;
感兴趣区域图像提取模块,用于根据每帧灰度场景图像内感兴趣区域的位置,提取该帧灰度场景图像中相应位置内的图像作为感兴趣区域图像。
17.如权利要求16所述的装置,其特征在于,所述α∈[0.02,0.04],MT∈[40,100]。
18.如权利要求10所述的装置,其特征在于,所述感兴趣区域图像分类识别模块包括:
识别特征提取模块,用于利用车型识别模型分别提取感兴趣区域图像的特征;识别分类判定模块,用于计算提取的感兴趣区域图像特征与每一种车型类别特征的相似度Simik,k表示第k种类别,k∈{1,2,…,MNum,MNum+1},选取Simik值最大的类别作为车型类别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611214482.6A CN106778646A (zh) | 2016-12-26 | 2016-12-26 | 基于卷积神经网络的车型识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611214482.6A CN106778646A (zh) | 2016-12-26 | 2016-12-26 | 基于卷积神经网络的车型识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106778646A true CN106778646A (zh) | 2017-05-31 |
Family
ID=58920698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611214482.6A Pending CN106778646A (zh) | 2016-12-26 | 2016-12-26 | 基于卷积神经网络的车型识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106778646A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107316024A (zh) * | 2017-06-28 | 2017-11-03 | 北京博睿视科技有限责任公司 | 基于深度学习的周界报警算法 |
CN107563433A (zh) * | 2017-08-29 | 2018-01-09 | 电子科技大学 | 一种基于卷积神经网络的红外小目标检测方法 |
CN107992865A (zh) * | 2018-01-26 | 2018-05-04 | 重庆邮电大学 | 一种基于视频分析的车辆识别方法和*** |
CN109034024A (zh) * | 2018-07-16 | 2018-12-18 | 浙江工业大学 | 基于图像目标检测的物流车辆车型分类识别方法 |
CN109977826A (zh) * | 2019-03-15 | 2019-07-05 | 百度在线网络技术(北京)有限公司 | 物体的类别识别方法和装置 |
WO2020048183A1 (zh) * | 2018-09-04 | 2020-03-12 | 上海海事大学 | 一种级联式由粗到精的卷积神经网络船舶类型识别方法 |
CN111178292A (zh) * | 2019-12-31 | 2020-05-19 | 东软集团(北京)有限公司 | 一种车型识别方法、装置及设备 |
CN113255706A (zh) * | 2021-07-16 | 2021-08-13 | 南京奕荣芯科技有限公司 | 一种基于卷积神经网络算法的目标识别方法及*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102044151A (zh) * | 2010-10-14 | 2011-05-04 | 吉林大学 | 基于光照可见度辨识的夜间车辆视频检测方法 |
CN104112370A (zh) * | 2014-07-30 | 2014-10-22 | 哈尔滨工业大学深圳研究生院 | 基于监控图像的停车场智能车位识别方法及*** |
CN104657748A (zh) * | 2015-02-06 | 2015-05-27 | 中国石油大学(华东) | 一种基于卷积神经网络的车型识别方法 |
CN106022285A (zh) * | 2016-05-30 | 2016-10-12 | 北京智芯原动科技有限公司 | 一种基于卷积神经网络的车款识别方法及装置 |
GB201616095D0 (en) * | 2016-09-21 | 2016-11-02 | Univ Oxford Innovation Ltd | A neural network and method of using a neural network to detect objects in an environment |
-
2016
- 2016-12-26 CN CN201611214482.6A patent/CN106778646A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102044151A (zh) * | 2010-10-14 | 2011-05-04 | 吉林大学 | 基于光照可见度辨识的夜间车辆视频检测方法 |
CN104112370A (zh) * | 2014-07-30 | 2014-10-22 | 哈尔滨工业大学深圳研究生院 | 基于监控图像的停车场智能车位识别方法及*** |
CN104657748A (zh) * | 2015-02-06 | 2015-05-27 | 中国石油大学(华东) | 一种基于卷积神经网络的车型识别方法 |
CN106022285A (zh) * | 2016-05-30 | 2016-10-12 | 北京智芯原动科技有限公司 | 一种基于卷积神经网络的车款识别方法及装置 |
GB201616095D0 (en) * | 2016-09-21 | 2016-11-02 | Univ Oxford Innovation Ltd | A neural network and method of using a neural network to detect objects in an environment |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107316024A (zh) * | 2017-06-28 | 2017-11-03 | 北京博睿视科技有限责任公司 | 基于深度学习的周界报警算法 |
CN107316024B (zh) * | 2017-06-28 | 2021-06-29 | 北京博睿视科技有限责任公司 | 基于深度学习的周界报警算法 |
CN107563433A (zh) * | 2017-08-29 | 2018-01-09 | 电子科技大学 | 一种基于卷积神经网络的红外小目标检测方法 |
CN107563433B (zh) * | 2017-08-29 | 2020-11-17 | 电子科技大学 | 一种基于卷积神经网络的红外小目标检测方法 |
CN107992865A (zh) * | 2018-01-26 | 2018-05-04 | 重庆邮电大学 | 一种基于视频分析的车辆识别方法和*** |
CN109034024A (zh) * | 2018-07-16 | 2018-12-18 | 浙江工业大学 | 基于图像目标检测的物流车辆车型分类识别方法 |
CN109034024B (zh) * | 2018-07-16 | 2021-02-02 | 浙江工业大学 | 基于图像目标检测的物流车辆车型分类识别方法 |
WO2020048183A1 (zh) * | 2018-09-04 | 2020-03-12 | 上海海事大学 | 一种级联式由粗到精的卷积神经网络船舶类型识别方法 |
CN109977826A (zh) * | 2019-03-15 | 2019-07-05 | 百度在线网络技术(北京)有限公司 | 物体的类别识别方法和装置 |
CN111178292A (zh) * | 2019-12-31 | 2020-05-19 | 东软集团(北京)有限公司 | 一种车型识别方法、装置及设备 |
CN113255706A (zh) * | 2021-07-16 | 2021-08-13 | 南京奕荣芯科技有限公司 | 一种基于卷积神经网络算法的目标识别方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106778646A (zh) | 基于卷积神经网络的车型识别方法及装置 | |
CN103605977B (zh) | 一种车道线的提取方法及装置 | |
CN107545239B (zh) | 一种基于车牌识别与车辆特征匹配的套牌检测方法 | |
CN106570494A (zh) | 基于卷积神经网络的交通信号灯识别方法及装置 | |
CN109657632B (zh) | 一种车道线检测识别方法 | |
CN103235938B (zh) | 车牌检测与识别的方法及*** | |
CN108108761A (zh) | 一种基于深度特征学习的快速交通信号灯检测方法 | |
CN108734189A (zh) | 浓雾天气下基于大气散射模型和深度学习的车牌识别*** | |
CN103824081B (zh) | 一种室外恶劣光照条件下的快速鲁棒交通标志检测方法 | |
CN103971097B (zh) | 一种基于多尺度笔画模型的车牌识别方法与*** | |
CN107633220A (zh) | 一种基于卷积神经网络的车辆前方目标识别方法 | |
CN108009518A (zh) | 一种基于快速二分卷积神经网络的层次化交通标识识别方法 | |
CN105809138A (zh) | 一种基于分块识别的道路警告标志检测与识别方法 | |
CN104463241A (zh) | 一种智能交通监控***中的车辆类型识别方法 | |
CN110866879B (zh) | 一种基于多密度雨纹感知的图像去雨方法 | |
CN107944341A (zh) | 基于交通监控图像的司机未系安全带自动检测*** | |
CN105956524A (zh) | 一种交通标识识别方法及装置 | |
CN106384100A (zh) | 一种基于部件的精细车型识别方法 | |
CN107516064A (zh) | 使用环绕摄像机***的并行场景基元检测 | |
CN107704853A (zh) | 一种基于多分类器的交通信号灯的识别方法 | |
CN103324958B (zh) | 一种复杂背景下基于投影法和svm的车牌定位方法 | |
CN105447503A (zh) | 基于稀疏表示lbp和hog融合的行人检测方法 | |
CN108960079A (zh) | 一种图像识别方法及装置 | |
CN107704833A (zh) | 一种基于机器学习的前方车辆检测与跟踪方法 | |
CN105893960A (zh) | 基于相位对称性的道路交通标志检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170531 |