CN106886778B - 一种监控场景下车牌字符分割与识别方法 - Google Patents

一种监控场景下车牌字符分割与识别方法 Download PDF

Info

Publication number
CN106886778B
CN106886778B CN201710278593.1A CN201710278593A CN106886778B CN 106886778 B CN106886778 B CN 106886778B CN 201710278593 A CN201710278593 A CN 201710278593A CN 106886778 B CN106886778 B CN 106886778B
Authority
CN
China
Prior art keywords
character
license plate
training
image
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710278593.1A
Other languages
English (en)
Other versions
CN106886778A (zh
Inventor
柯逍
张毓峰
郭文忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN201710278593.1A priority Critical patent/CN106886778B/zh
Publication of CN106886778A publication Critical patent/CN106886778A/zh
Application granted granted Critical
Publication of CN106886778B publication Critical patent/CN106886778B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/158Segmentation of character regions using character size, text spacings or pitch estimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种监控场景下车牌字符分割与识别方法,包括以下步骤:步骤S1:对车牌字符图像进行分类,为显式特征分类器和隐式特征分类器的训练做好准备;步骤S2:输入车牌图像;步骤S3:对车牌图像采用投影分割法和连通域法相结合的字符分割方法进行字符分割;步骤S4:采用显式特征分类器和隐式特征分类器相融合的方法对车牌字符进行识别。本发明采用投影分割法和连通域法相结合的方法来改善车牌字符分割的效果,针对车牌字符识别特征考虑单一的问题,提出了基于显式特征分类器与隐式特征分类器融合的方法,能够结合两者在特征提取上的优势,从而改善字符识别的效果。

Description

一种监控场景下车牌字符分割与识别方法
技术领域
本发明涉及模式识别与计算机视觉领域,特别是一种监控场景下车牌字符分割与识别方法。
背景技术
随着平安中国建设步伐的加快,监控摄像头分布越来越广,摄像头的分辨率越来越高,直接使用这些遍布大街小巷的监控环境与使用标准卡口的车辆图像采集装置相比,带来了一些新的挑战。传统的车牌识别***在公路收费、停车场等方面运用广泛,但大多数的运用场景都需要一些特殊硬件设备的支持,如地感线圈,一次只能对一辆车进行识别,识别速度慢,且图像传输大多采用模拟信号,图像层次感不强,对比度较差,为了保证分辨率往往不能采集到车辆全景,从而导致不能满足刑侦、治安的相关业务要求。监控环境场景下基于动态视频流的车牌检测与识别***无需安装其它硬件设备,能够同时对图像中的多个车牌进行检测,不受硬件和环境的制约,效率高,能够对多帧视频图像分别进行识别,选择置信度最高的作为最终结果,从而降低单帧图像对识别结果的影响,识别准确率较高。但基于监控环境场景下的车牌检测***也面临着许多挑战,例如车牌角度变化大,长期使用的摄像头表面附着的尘埃会使采集到的图像模糊,噪点增多。这些都给车牌字符识别带来了巨大挑战。近年来,随着计算机图像处理、人工智能、模式识别、视频传输等技术的不断发展,基于动态视频流的车牌算法在犯罪侦查、交通事故快速处理等社会生活中获得越来越广泛的应用。
虽然国内外学者也纷纷对此展开了研究,提出了一些高水平和使用性强的车牌字符分割与识别算法,但是仍然存在字符分割效果不理想,车牌字符识别特征考虑单一的问题。垂直投影分割法算法简单,速度快,但对噪声较为敏感,对车牌字符不连通的情况效果较差;连通域法对字符形变、光照、天气环境不敏感,但是对字符不连通的情况效果比较不理想。因此我们采用投影分割法和连通域法相结合的方法来改善车牌字符分割的效果。针对字符识别特征考虑单一,识别准确率不高的情况,我们采用显式特征分类器与隐式特征分类器相融合的方法。基于先验知识的人工提取到的显式特征具有较强的针对性,但提取到的特征一般为浅层的特征,且特征提取太过依赖人的经验和主观意识,提取到的特征的不同对分类性能影响很大,甚至提取的特征的顺序也会影响最后的分类性能,而基于卷积神经网络(CNN)等机器自学习的特征能够自动学习图像深层次的特征,避免了人工对显式特征进行选择,自动从训练数据中学习特征。隐式特征提取能够降低特征选择对分类器的影响,但特征提取的可解释性较差,特征选择完全依赖于模型的选择。本文的方法能够结合两者在特征提取上的优势,从而改善字符识别的效果。
发明内容
有鉴于此,本发明的目的是提供一种监控场景下车牌字符分割与识别方法,以克服现有技术中存在的缺陷。
本发明采用以下方案实现:一种监控场景下车牌字符分割与识别方法,包括以下步骤:
步骤S1:对车牌字符图像进行分类,为显式特征分类器和隐式特征分类器的训练做好准备;
步骤S2:输入车牌图像;
步骤S3:对车牌图像采用投影分割法和连通域法相结合的字符分割方法进行字符分割;
步骤S4:采用显式特征分类器和隐式特征分类器相融合的方法对车牌字符进行识别。
进一步地,在所述步骤S3中,通过如下步骤对车牌字符进行分割:
步骤S31:投影分割法和连通域法相结合的字符分割方法先采用式:f(i,j)=αR(i,j)+βG(i,j)+χB(i,j)),其中令α=0.30,β=0.59,χ=0.11,将车牌图像进行灰度化处理;
步骤S32:将一幅车牌图像进行网格分割,对每个格子计算图像的直方图,并归一化,计算累积均值mu,以及全局灰度均值,再计算被分到类A的概率qA,和被分到类B的概率qB;采用公式:sigma=qA*qB*(muA-muB)*(muA-muB)计算类间方差,循环寻找类间方差最大值,并记下此时的阈值,即为最佳阈值,最后利用这个最佳阈值对格子进行阈值化,重复这个过程直到整个车牌图像都二值化完毕;
步骤S33:提取字符轮廓;
步骤S34:做外接矩形操作;
步骤S35:如果符合尺寸的外接矩形的数目小于7,则说明可能存在字符粘连或者车牌中汉字字符丢失的情况;对于字符粘连的情况对粘连的部分进行投影分割,分割的位置为较为接近图像中点的波谷;
步骤S36:对于汉字字符丢失的情况采用通过特殊字符反推中文字符的方法;令字符块中心在车牌1/7~2/7区间内的字符块为特殊字符,特殊字符的左边即为中文字符;
步骤S37:如果投影字符块数大于7,则说明车牌分割后有些字符可能被分割成多个字符块,因此进一步对投影字符块进行合并处理。
进一步地,在所述步骤S4中,通过如下步骤对车牌字符进行识别:
步骤S41:输入训练图像到隐式特征提取的卷积神经网络;
步骤S42:输入训练图像到显式特征分类网络;
步骤S43:训练隐式特征提取的卷积神经网络,卷积神经网络的训练主要包括两个阶段:
第一个阶段为前向传播阶段:前向传播阶段主要过程为从训练样本中取出一个样本X(xp,yp)将训练样本X作为网络的输入,通过式Ox=fn(...(f2(f1(XpW(1))W(2))...)W(n))计算训练样本X的实际输出;
第二个阶段为反向传播阶段:反向传播阶段将计算训练样本X的实际输出Ox与理想输出Yp的差,根据极小化误差的方法对模型参数的参数进行调整;
步骤S44:训练一个显式特征分类网络;训练显式特征分类网络包括三个阶段:
第一个阶段为提取字符特征阶段:该阶段先采用Gamma矫正法对车牌字符进行矫正,调节图像对比度,再计算每个像素的梯度,获取轮廓信息,然后将字符图像划分成n×n的小单元,其中n=6;然后计算每个小单元的梯度直方图,得到小单元的特征描述子,然后再将小单元按照3×3的方式划分成m×n组,将每组的特征描述子串联起来能到组的特征描述子,将mn个组的特征描述子串联起来得到字符特征Fexture1;将字符的n×n中心矩阵标记为非字符像素,其中n=8,并将其变成低分辨率图像,作为字符特征Fexture2,将Fexture1和Fexture2串联起来得到字符特征;
第二个阶段为训练数据准备阶段:对训练数据的每张图像提取字符特征,并打上类别标签,将所有训练图像整理成一个矩阵;
第三个阶段为训练阶段:将训练矩阵输入到支持向量机中,采用RBF核函数对显式特征分类器进行训练;
步骤S45:将待分类的图像分别输入到显式特征分类网络和隐式特征分类网络中,得到分类结果;
步骤S46:对于每一幅测试图像I,都将得到隐式特征提取网络的置信度向量E={e1,e2,...,eN}和隐式特征网络的置信度向量E′={e′1,e′2,...,e′N},其中N为车牌字符的类别数目;
步骤S47:求出步骤S45中两个向量对应的||E||和||E′||,图像I对应的类别为:
Figure BDA0001278957470000062
其中i为||E||对应的类别,j为||E′||对应的类别。
相较于现有技术,本发明具有以下有益效果:本发明构建的投影分割法和连通域法相结合的字符分割方法能够提高字符分割的准确率。本文提出的基于显式特征分类器与隐式特征分类器融合的方法既能够充分发挥基于先验知识的人工提取到的显式特征具有较强的针对性的特点和基于卷积神经网络(CNN),稀疏自动编码器(AutoEncoder)等机器自学习的特征能够自动学习图像深层次的特征,避免了人工对显式特征进行选择,自动从训练数据中学习特征的特点,又能够避免显式特征提取到的特征一般为浅层的特征,且特征提取太过依赖人的经验和主观意识,提取到的特征的不同对分类性能影响很大,甚至提取的特征的顺序也会影响最后的分类性能的缺点和隐式特征提取的可解释性较差,特征选择完全依赖于模型的选择的缺点,提高了字符分类的准确性。
附图说明
图1为本发明监控场景下车牌字符分割与识别方法的流程图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
本实施例提供一种监控场景下车牌字符分割与识别方法,如图1所示,针对车牌字符识别特征考虑单一的问题,提出了基于显式特征分类器与隐式特征分类器融合的方法。基于先验知识的人工提取到的显式特征具有较强的针对性,但提取到的特征一般为浅层的特征,且特征提取太过依赖人的经验和主观意识,提取到的特征的不同对分类性能影响很大,甚至提取的特征的顺序也会影响最后的分类性能,而基于卷积神经网络(CNN),稀疏自动编码器(AutoEncoder)等机器自学习的特征能够自动学习图像深层次的特征,避免了人工对显式特征进行选择,自动从训练数据中学习特征。隐式特征提取能够降低特征选择对分类器的影响,但特征提取的可解释性较差,特征选择完全依赖于模型的选择,本文的方法能够结合两者在特征提取上的优势,从而改善字符识别的效果,具有包括以下步骤:
步骤S1:对车牌字符图像进行分类,为显式特征分类器和隐式特征分类器的训练做好准备;
步骤S2:输入车牌图像;
步骤S3:对车牌图像采用投影分割法和连通域法相结合的字符分割方法进行字符分割;
步骤S4:采用显式特征分类器和隐式特征分类器相融合的方法对车牌字符进行识别。
在本实施例中,在所述步骤S3中,通过如下步骤对车牌字符进行分割:
步骤S31:投影分割法和连通域法相结合的字符分割方法先采用式:f(i,j)=αR(i,j)+βG(i,j)+χB(i,j)),其中令α=0.30,β=0.59,χ=0.11,将车牌图像进行灰度化处理;
步骤S32:将一幅车牌图像进行网格分割,对每个格子计算图像的直方图,并归一化,计算累积均值mu,以及全局灰度均值,再计算被分到类A的概率qA,和被分到类B的概率qB;采用公式:sigma=qA*qB*(muA-muB)*(muA-muB)计算类间方差,循环寻找类间方差最大值,并记下此时的阈值,即为最佳阈值,最后利用这个最佳阈值对格子进行阈值化,重复这个过程直到整个车牌图像都二值化完毕;
步骤S33:提取字符轮廓;
步骤S34:做外接矩形操作;
步骤S35:如果符合尺寸的外接矩形的数目小于7,则说明可能存在字符粘连或者车牌中汉字字符丢失的情况;对于字符粘连的情况对粘连的部分进行投影分割,分割的位置为较为接近图像中点的波谷;
步骤S36:对于汉字字符丢失的情况采用通过特殊字符反推中文字符的方法;令字符块中心在车牌1/7~2/7区间内的字符块为特殊字符,特殊字符的左边即为中文字符;
步骤S37:如果投影字符块数大于7,则说明车牌分割后有些字符可能被分割成多个字符块,因此进一步对投影字符块进行合并处理。
在本实施例中,在所述步骤S4中,通过如下步骤对车牌字符进行识别:
步骤S41:输入训练图像到隐式特征提取的卷积神经网络;
步骤S42:输入训练图像到显式特征分类网络;
步骤S43:训练隐式特征提取的卷积神经网络,卷积神经网络的训练过程是一个逐渐将初始的“低层”特征通过参数自动学习转化为“高层”特征的表示过程,卷积神经网络的训练主要包括两个阶段:
第一个阶段为前向传播阶段:前向传播阶段主要过程为从训练样本中取出一个样本X(xp,yp)将训练样本X作为网络的输入,通过式Ox=fn(...(f2(f1(XpW(1))W(2))...)W(n))计算训练样本X的实际输出;
第二个阶段为反向传播阶段:反向传播阶段将计算训练样本X的实际输出Ox与理想输出Yp的差,根据极小化误差的方法对模型参数的参数进行调整;
步骤S44:训练一个显式特征分类网络;训练显式特征分类网络包括三个阶段:
第一个阶段为提取字符特征阶段:该阶段先采用Gamma矫正法对车牌字符进行矫正,调节图像对比度,再计算每个像素的梯度,获取轮廓信息,然后将字符图像划分成n×n的小单元,其中n=6;然后计算每个小单元的梯度直方图,得到小单元的特征描述子,然后再将小单元按照3×3的方式划分成m×n组,将每组的特征描述子串联起来能到组的特征描述子,将mn个组的特征描述子串联起来得到字符特征Fexture1;将字符的n×n中心矩阵标记为非字符像素,其中n=8,并将其变成低分辨率图像,作为字符特征Fexture2,将Fexture1和Fexture2串联起来得到字符特征;
第二个阶段为训练数据准备阶段:对训练数据的每张图像提取字符特征,并打上类别标签,将所有训练图像整理成一个矩阵;
第三个阶段为训练阶段:将训练矩阵输入到支持向量机中,采用RBF核函数对显式特征分类器进行训练;
步骤S45:将待分类的图像分别输入到显式特征分类网络和隐式特征分类网络中,得到分类结果;
步骤S46:对于每一幅测试图像I,都将得到隐式特征提取网络的置信度向量E={e1,e2,...,eN}和隐式特征网络的置信度向量E′={e′1,e′2,...,e′N},其中N为车牌字符的类别数目;
步骤S47:求出步骤S45中两个向量对应的||E||和||E′||,图像I对应的类别
Figure BDA0001278957470000101
为:
Figure BDA0001278957470000102
其中i为||E||对应的类别,j为||E′||对应的类别。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (1)

1.一种监控场景下车牌字符分割与识别方法,其特征在于:包括以下步骤:
步骤S1:对车牌字符图像进行分类,为显式特征分类器和隐式特征分类器的训练做好准备;
步骤S2:输入车牌图像;
步骤S3:对车牌图像采用投影分割法和连通域法相结合的字符分割方法进行字符分割;
步骤S4:采用显式特征分类器和隐式特征分类器相融合的方法对车牌字符进行识别;
其中,在所述步骤S3中,通过如下步骤对车牌字符进行分割:
步骤S31:投影分割法和连通域法相结合的字符分割方法先采用式:f(i,j)=αR(i,j)+βG(i,j)+χB(i,j),其中令α=0.30,β=0.59,χ=0.11,将车牌图像进行灰度化处理;
步骤S32:将一幅车牌图像进行网格分割,对每个格子计算图像的直方图,并归一化,计算累积均值mu,以及全局灰度均值,再计算被分到类A的概率qA,和被分到类B的概率qB;采用公式:sigma=qA*qB*(muA-muB)*(muA-muB)计算类间方差,循环寻找类间方差最大值,并记下此时的阈值,即为最佳阈值,最后利用这个最佳阈值对格子进行阈值化,重复这个过程直到整个车牌图像都二值化完毕;
步骤S33:提取字符轮廓;
步骤S34:做外接矩形操作;
步骤S35:如果符合尺寸的外接矩形的数目小于7,则说明可能存在字符粘连或者车牌中汉字字符丢失的情况;对于字符粘连的情况对粘连的部分进行投影分割,分割的位置为较为接近图像中点的波谷;
步骤S36:对于汉字字符丢失的情况采用通过特殊字符反推中文字符的方法;令字符块中心在车牌1/7~2/7区间内的字符块为特殊字符,特殊字符的左边即为中文字符;
步骤S37:如果投影字符块数大于7,则说明车牌分割后有些字符可能被分割成多个字符块,因此进一步对投影字符块进行合并处理;
其中,在所述步骤S4中,通过如下步骤对车牌字符进行识别:
步骤S41:输入训练图像到隐式特征提取的卷积神经网络;
步骤S42:输入训练图像到显式特征分类网络;
步骤S43:训练隐式特征提取的卷积神经网络,卷积神经网络的训练主要包括两个阶段:
第一个阶段为前向传播阶段:前向传播阶段主要过程为从训练样本中取出一个样本X(xp,yp)将训练样本X作为网络的输入,通过式Ox=fn(...(f2(f1(XpW(1))W(2))...)W(n))计算训练样本X的实际输出;
第二个阶段为反向传播阶段:反向传播阶段将计算训练样本X的实际输出Ox与理想输出Yp的差,根据极小化误差的方法对模型参数的参数进行调整;
步骤S44:训练一个显式特征分类网络;训练显式特征分类网络包括三个阶段:
第一个阶段为提取字符特征阶段:该阶段先采用Gamma矫正法对车牌字符进行矫正,调节图像对比度,再计算每个像素的梯度,获取轮廓信息,然后将字符图像划分成n×n的小单元,其中n=6;然后计算每个小单元的梯度直方图,得到小单元的特征描述子,然后再将小单元按照3×3的方式划分成m×n组,将每组的特征描述子串联起来能到组的特征描述子,将m×n个组的特征描述子串联起来得到字符特征Fexture1;将字符的n×n中心矩阵标记为非字符像素,其中n=8,并将其变成低分辨率图像,作为字符特征Fexture2,将Fexture1和Fexture2串联起来得到字符特征;
第二个阶段为训练数据准备阶段:对训练数据的每张图像提取字符特征,并打上类别标签,将所有训练图像整理成一个矩阵;
第三个阶段为训练阶段:将训练矩阵输入到支持向量机中,采用RBF核函数对显式特征分类器进行训练;
步骤S45:将待分类的图像分别输入到显式特征分类网络和隐式特征分类网络中,得到分类结果;
步骤S46:对于每一幅测试图像I,都将得到显式特征提取网络的置信度向量E={e1,e2,...,eN}和隐式特征网络的置信度向量E′={e′1,e′2,...,e′N},其中N为车牌字符的类别数目;
步骤S47:求出步骤S46中两个向量对应的||E||和||E′||,图像I对应的类别
Figure FDA0002293865160000031
为:
Figure FDA0002293865160000032
其中i为||E||对应的类别,j为||E′||对应的类别。
CN201710278593.1A 2017-04-25 2017-04-25 一种监控场景下车牌字符分割与识别方法 Active CN106886778B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710278593.1A CN106886778B (zh) 2017-04-25 2017-04-25 一种监控场景下车牌字符分割与识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710278593.1A CN106886778B (zh) 2017-04-25 2017-04-25 一种监控场景下车牌字符分割与识别方法

Publications (2)

Publication Number Publication Date
CN106886778A CN106886778A (zh) 2017-06-23
CN106886778B true CN106886778B (zh) 2020-02-07

Family

ID=59183579

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710278593.1A Active CN106886778B (zh) 2017-04-25 2017-04-25 一种监控场景下车牌字符分割与识别方法

Country Status (1)

Country Link
CN (1) CN106886778B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107688784A (zh) * 2017-08-23 2018-02-13 福建六壬网安股份有限公司 一种基于深层特征和浅层特征融合的字符识别方法及存储介质
CN107958219A (zh) * 2017-12-06 2018-04-24 电子科技大学 基于多模型和多尺度特征的图像场景分类方法
CN107992897A (zh) * 2017-12-14 2018-05-04 重庆邮电大学 基于卷积拉普拉斯稀疏编码的商品图像分类方法
CN108509912B (zh) * 2018-04-03 2021-09-28 深圳市智绘科技有限公司 多路网络视频流车牌识别方法及***
CN109086767B (zh) * 2018-07-11 2019-05-07 于洋 一种监控场景中模糊车牌的分割方法
CN111126420B (zh) * 2018-10-30 2023-04-25 杭州海康威视数字技术股份有限公司 一种建立识别模型的方法及装置
CN113392838B (zh) * 2021-08-16 2021-11-19 智道网联科技(北京)有限公司 字符分割方法、装置及字符识别方法、装置
CN115171092B (zh) * 2022-09-08 2022-11-18 松立控股集团股份有限公司 一种基于语义增强的端到端车牌检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101398894A (zh) * 2008-06-17 2009-04-01 浙江师范大学 机动车车牌自动识别方法及其实现装置
CN104298976A (zh) * 2014-10-16 2015-01-21 电子科技大学 基于卷积神经网络的车牌检测方法
CN105354574A (zh) * 2015-12-04 2016-02-24 山东博昂信息科技有限公司 一种车号识别方法及装置
CN105354572A (zh) * 2015-12-10 2016-02-24 苏州大学 一种基于简化卷积神经网络的车牌自动识别***
CN106096602A (zh) * 2016-06-21 2016-11-09 苏州大学 一种基于卷积神经网络的中文车牌识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101398894A (zh) * 2008-06-17 2009-04-01 浙江师范大学 机动车车牌自动识别方法及其实现装置
CN104298976A (zh) * 2014-10-16 2015-01-21 电子科技大学 基于卷积神经网络的车牌检测方法
CN105354574A (zh) * 2015-12-04 2016-02-24 山东博昂信息科技有限公司 一种车号识别方法及装置
CN105354572A (zh) * 2015-12-10 2016-02-24 苏州大学 一种基于简化卷积神经网络的车牌自动识别***
CN106096602A (zh) * 2016-06-21 2016-11-09 苏州大学 一种基于卷积神经网络的中文车牌识别方法

Also Published As

Publication number Publication date
CN106886778A (zh) 2017-06-23

Similar Documents

Publication Publication Date Title
CN106886778B (zh) 一种监控场景下车牌字符分割与识别方法
CN107491762B (zh) 一种行人检测方法
CN104392205B (zh) 一种非正常车牌的识别方法和***
CN109918971B (zh) 监控视频中人数检测方法及装置
CN107103317A (zh) 基于图像融合和盲反卷积的模糊车牌图像识别算法
CN110706235B (zh) 一种基于双级级联分割的远红外行人检测方法
CN104463134B (zh) 一种车牌检测方法和***
CN107563985B (zh) 一种红外图像空中运动目标的检测方法
CN103295009B (zh) 基于笔画分解的车牌字符识别方法
CN110263693A (zh) 结合帧间差分与贝叶斯分类器的车辆行人检测识别方法
CN116030396B (zh) 一种用于视频结构化提取的精确分割方法
CN110689003A (zh) 低照度成像车牌识别方法、***、计算机设备及存储介质
CN107564041B (zh) 一种可见光图像空中运动目标的检测方法
CN107122732B (zh) 一种监控场景下高鲁棒性的快速车牌定位方法
CN106919939A (zh) 一种交通标识牌跟踪识别方法及***
CN116363535A (zh) 基于卷积神经网络的无人机航拍影像中的船舶检测方法
CN112347967B (zh) 一种复杂场景下融合运动信息的行人检测方法
CN116311212B (zh) 基于高速摄像机实现运动状态下的船号识别方法及装置
Jin et al. Fusing Canny operator with vibe algorithm for target detection
CN106778765B (zh) 一种车牌识别的方法及装置
CN108009480A (zh) 一种基于特征识别的图像人体行为检测方法
CN116977931A (zh) 一种基于深度学习的高空抛物识别方法
CN107341456B (zh) 一种基于单幅户外彩色图像的天气晴阴分类方法
Kumar et al. Intelligent parking vehicle identification and classification system
CN110866435A (zh) 一种自相似性梯度朝向直方图的远红外行人训练方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant