CN112132130B - 一种面向全场景的实时性车牌检测方法及*** - Google Patents

一种面向全场景的实时性车牌检测方法及*** Download PDF

Info

Publication number
CN112132130B
CN112132130B CN202010999847.0A CN202010999847A CN112132130B CN 112132130 B CN112132130 B CN 112132130B CN 202010999847 A CN202010999847 A CN 202010999847A CN 112132130 B CN112132130 B CN 112132130B
Authority
CN
China
Prior art keywords
license plate
frame
prediction
training
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010999847.0A
Other languages
English (en)
Other versions
CN112132130A (zh
Inventor
柯逍
曾淦雄
林炳辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202010999847.0A priority Critical patent/CN112132130B/zh
Publication of CN112132130A publication Critical patent/CN112132130A/zh
Application granted granted Critical
Publication of CN112132130B publication Critical patent/CN112132130B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种面向全场景的实时性车牌检测方法及***,包括步骤:生成用于网络训练和测试的训练集和测试集;修改YOLOv3‑tiny网络结构,生成MD‑YOLO模型;采用训练集训练构建的MD‑YOLO模型,并基于mAP选取最优的权重文件;将待检测车牌作为训练好的MD‑YOLO模型的输入,输出带车牌检测框的结果返回。本发明能够完成任意场景下的直接车牌区域提取。

Description

一种面向全场景的实时性车牌检测方法及***
技术领域
本发明涉及智能交通图像检测技术领域,特别是一种面向全场景的实时性车牌检测方法及***。
背景技术
机动车的车牌识别技术,在现今的自动化交通控制***中是非常重要的一个环节。可以帮助各类管理***快速完成车辆的识别,确定车辆信息。而车牌检测是实现车牌号码识别的必要步骤,实现高效的车牌检测是整个车牌识别***不可或缺的重要步骤。
在过去,车牌检测的方法以传统数字图像处理技术为核心。此类方法只能处理特定环境中的车牌检测,鲁棒性差。在近几年,以卷积神经网络为代表的深度学习方法的发展,使得对车牌检测在精度和速度上都有所提升,并且鲁棒性得到很大的增强。但是以Fast-RCNN为代表的两阶段检测方法,计算成本高,模型大小大,无法直接部署于终端设备中。此外以YOLO为代表的单阶段检测方法,也存在原始模型和计算量偏大的问题,因此需要开发更轻量化的目标检测模型来实现车牌检测,用于终端部署和车牌的实时检测。
此外,在过去的技术实现中,一般处理的图像中大多只有一张车牌且车牌面积占图片比例较大。然而,在更多的真实场景中,一张图片中存在多种车牌是非常常见的。以往的解决方法是,首先检测出车辆位置,再对每辆车完成车牌检测。这明显使得处理时间大幅增加。因此需要开发一个直接面向任意场景下的直接检测车牌的方法,使得整个提取车牌的时间大幅缩短。
发明内容
有鉴于此,本发明的目的是提出一种面向全场景的实时性车牌检测方法及***,能够完成任意场景下的直接车牌区域提取。
本发明采用以下方案实现:一种面向全场景的实时性车牌检测方法,具体包括以下步骤:
生成用于网络训练和测试的训练集和测试集;
修改YOLOv3-tiny网络结构,生成MD-YOLO模型;
采用训练集训练构建的MD-YOLO模型,并基于mAP选取最优的权重文件;
将待检测车牌作为训练好的MD-YOLO模型的输入,输出带车牌检测框的结果返回。
进一步地,所述生成用于网络训练和测试的训练集和测试集具体为:
收集车牌检测数据集;
使用LableImg对没有标签的图片,手工标注车牌区域,标签包括:一个包含车牌的矩形框,左上角坐标(lx,ly),右下角坐标(rx,ry)和标签名称plate;
对所有已经标注标签的数据进行划分,划分为训练集和测试集。
进一步地,对所述训练数据集使用K-means聚类方法生成锚框,替换原模型的锚框,使得车牌检测精度更高。
进一步地,所述对所述训练数据集使用K-means聚类方法生成锚框,替换原模型的锚框具体为:
定义输入图片的宽和高分别为W和H;在图片中,车牌的坐标为(lxi,lyi,rxi,ryi),i∈{1,2,…,n},其中lxi,lyi表示第i个车牌的左上角坐标,rxi,ryi表示第i个车牌的右下角坐标;
进行车牌宽度和高度的标准化,使用如下计算公式:
Figure BDA0002693899590000031
Figure BDA0002693899590000032
式中,wi代表标准化后的宽度;代表hi代表标准化后的高度;
计算车牌标注框与车牌锚框的距离D,D=1-IoU,其中IoU定义为车牌标注框(wi,hi)与车牌锚(wj,hj)的交并比,其中i表示第i个车牌,j表示第j个锚框;
初始化k个聚类中心,车牌锚框的高和宽为(wj,hj),j∈{1,2,3…k};
计算每个车牌框与车牌锚框的距离D;对每个车牌框,选择D最小的车牌锚框进行分配;
计算每个聚类簇的均值作为下次迭代计算的聚类中心,重复上述步骤直至聚类中心位置趋于稳定。
进一步地,所述修改YOLOv3-tiny网络结构,生成MD-YOLO模型具体为:
所述MD-YOLO模型各层依次为:Conv1,MaxPool,Conv2,MaxPool,Conv3,MaxPool,Conv4,MaxPool,Conv5,MaxPool,Conv6,MaxPool,Conv7,Conv8,Conv9,Conv10,route,Conv11,UpSample,route,Conv12,,Conv13;其中,Conv1至Conv13表示卷积层,MaxPool为最大池化层,route表示实现底层卷积层与当前层的合并输出;
将输入MD-YOLO模型的图片大小修改为416×416,Conv10与Conv13为两个输出层,尺度分别为13×13×C,26×26×C,其中C=(classes+5)×3,classes=1;
调整MD-YOLO的卷积数量和卷积和大小。
进一步地,所述调整MD-YOLO的卷积数量和卷积和大小具体为:Conv1的卷积数量为3,Conv2的卷积数量为3,Conv7的卷积数量为512。Conv9的卷积核大小为1×1,Conv12的卷积核大小为1×1。
进一步地,所述采用训练集训练构建的MD-YOLO模型,并基于mAP选取最优的权重文件具体为:
设定训练的配置文件,每千轮进行一个权重文件保存,进行一次mAP计算,并更新当前最佳mAP值的权重文件;
总共进行35万轮训练;训练结束后,选取最佳mAP值的权重文件作为最后的结果文件。
进一步地,所述将待检测车牌作为训练好的MD-YOLO模型的输入,输出带车牌检测框的结果返回具体为:
将待检测的图像输入训练好的MD-YOLO模型,获取预测的车牌预测框,并得到所有车牌预测框的置信度P;
对所有车牌预测框进行车牌的非极大值抑制,以去除重复选框;
对得到的所有车牌预测框的置信度进行筛选,选择置信度大于预设值的预测框最后预测的最终结果。
进一步地,所述对所有预测框进行车牌的非极大值抑制,以去除重复选框具体为:
计算所有车牌预测框的宽高比;定义,
Figure BDA0002693899590000051
λ是车牌预测框的宽高比,hpred,wpred分别表示预测框的高度和宽度;
采用车牌概率值Pλ对车牌预测框内是否为车牌进行预估,计算公式如下:
Figure BDA0002693899590000052
对每个车牌预测框的置信度P进行更新P=P+Pλ
根据车牌预测框的置信度进行排序,生成边界框列表,选择置信度最高的车牌预测框加入输出列表,并将其从边界框列表中删除;计算置信度最高的车牌预测框与边界框列表中其他预测框的IoU,并删除IoU大于预设阈值的预测框;然后重新对车牌预测框的置信度进行排序,重复本步骤,直至边界框框列表为空,此时输出列表中的车牌预测框为最终得到的车牌预测框。
本发明还提供了一种面向全场景的实时性车牌检测***,包括存储器、处理器以及存储于存储器上并能够被处理器运行的计算机程序指令,当处理器运行该计算机程序指令时,实现如上文所述的方法步骤。
与现有技术相比,本发明有以下有益效果:
1、本发明提供了一种面向全场景的实时性车牌检测方法,使用基于单阶段目标检测网络YOLO进行针对性改进,使得检测精度与速度进一步提高,同时降低网络模型大小,适用于终端部署。
2、本发明使用了多尺度预测方法,明显提高了对小目标物体的检测能力。通过修改卷积核,提高网络非线性度,提高了网络处理复杂环境的能力,使得网络具有全场景检测能力。
3、本发明直接面向车牌进行检测,避免了检测车辆的时间花费,进一步缩小了检测车牌的时间,同时避免了处理在复杂场景下的车牌被遮挡的车辆检测。
通过上述的提升,使得本申请的网络具有终端部署、实时高效检测的能力,并且是一个适用于任意场景的方法,达到一次训练,多场景适用的特点。
附图说明
图1为本发明实施例的方法流程示意图。
图2为本发明实施例的预测效果示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1所示,本实施例提供了一种面向全场景的实时性车牌检测方法,具体包括以下步骤:
S1:生成用于网络训练和测试的训练集和测试集;包括自行建立的多车牌场景数据集和开源的公共单车牌图像数据集;
S2:修改YOLOv3-tiny网络结构,生成MD-YOLO模型;基于车牌识别任务的特点,修改卷积层的卷积数量,平衡网络的精度与速度,同时压缩网络模型大小。修改检测层的卷积核,提高网络的非线性度,提高网络面对复杂环境条件下的检测能力;
S3:采用训练集训练构建的MD-YOLO模型,并基于mAP(mean Average Precision)选取最优的权重文件;
S4:将待检测包含车牌的图像作为训练好的MD-YOLO模型的输入,输出带车牌检测框的结果返回。
在本实施例中,步骤S1中,所述生成用于网络训练和测试的训练集和测试集具体为:
收集车牌检测数据集;包括使用行车记录仪拍摄的视频提取的图片,以及公开的大型中文车牌数据集;
使用LableImg对没有标签的图片,手工标注车牌区域,对图片内的多张人眼可识别的车牌均进行标注,标签包括:一个包含车牌的矩形框,左上角坐标(lx,ly),右下角坐标(rx,ry)和标签名称plate;
对所有已经标注标签的数据进行划分,以7∶3的比例划分为训练集和测试集。
其中,对所述训练数据集使用K-means聚类方法生成锚框,替换原模型的锚框,使得车牌检测精度更高。具体为:
定义输入图片的宽和高分别为W和H;在图片中,车牌的坐标为(lxi,lyi,rxi,ryi),i∈{1,2,…,n},其中lxi,lyi表示第i个车牌的左上角坐标,rxi,ryi表示第i个车牌的右下角坐标;
进行车牌宽度和高度的标准化,使用如下计算公式:
Figure BDA0002693899590000081
Figure BDA0002693899590000082
式中,wi代表标准化后的宽度;代表hi代表标准化后的高度;
计算车牌标注框与车牌锚框的距离D,D=1-IoU,其中IoU定义为车牌标注框(wi,hi)与车牌锚(wj,hj)的交并比,其中i表示第i个车牌,j表示第j个锚框,计算公式如下:
Figure BDA0002693899590000083
初始化k个聚类中心,车牌锚框的高和宽为(wj,hj),j∈{1,2,3…k};
计算每个车牌框与车牌锚框的距离D;对每个车牌框,选择D最小的车牌锚框进行分配;
计算每个聚类簇的均值作为下次迭代计算的聚类中心,重复上述步骤直至聚类中心位置趋于稳定。
在本实施例中,步骤S2中,所述修改YOLOv3-tiny网络结构,生成MD-YOLO模型具体为:
所述MD-YOLO模型各层依次为:Conv1,MaxPool,Conv2,MaxPool,Conv3,MaxPool,Conv4,MaxPool,Conv5,MaxPool,Conv6,MaxPool,Conv7,Conv8,Conv9,Conv10,route,Conv11,UpSample,route,Conv12,,Conv13;其中,Conv1至Conv13表示卷积层,卷积核大小为1或3,MaxPool为最大池化层,核大小为2,步长(stride)为2或1,route表示实现底层卷积层与当前层的合并输出;
将输入MD-YOLO模型的图片大小修改为416×416,Conv10与Conv13两个输出层的尺度分别为13×13×C,26×26×C,其中C=(classes+5)×3,classes=1;两个不同尺度的预测输出,有利于提高小目标车牌的检出率。
调整MD-YOLO的卷积数量和卷积和大小。具体为:Conv1的卷积数量为3,Conv2的卷积数量为3,这两个卷积数量的限制大幅降低了计算量。Conv7的卷积数量为512。Conv9的卷积核大小为1×1,Conv12的卷积核大小为1×1。1×1在降低计算量时,又一定程度上提高了网络非线性度。最终MD-YOLO模型如下表所示。
Figure BDA0002693899590000091
Figure BDA0002693899590000101
在本实施例中,步骤S3中,所述采用训练集训练构建的MD-YOLO模型,并基于mAP选取最优的权重文件具体为:
设定训练的配置文件,每千轮进行一个权重文件保存,进行一次mAP计算,并更新当前最佳mAP值的权重文件;
总共进行35万轮训练;训练结束后,选取最佳mAP值的权重文件作为最后的结果文件。
在本实施例中,所述将待检测车牌作为训练好的MD-YOLO模型的输入,输出带车牌检测框的结果返回具体为:
将待检测的图像输入训练好的MD-YOLO模型,获取预测的车牌预测框,并得到所有车牌预测框的置信度P;
对所有车牌预测框进行车牌的非极大值抑制,以去除重复选框;
对得到的所有车牌预测框的置信度进行筛选,选择置信度大于预设值(本实施例选取0.5)的预测框最后预测的最终结果。
在本实施例中,所述对所有预测框进行车牌的非极大值抑制,以去除重复选框具体为:
计算所有车牌预测框的宽高比;定义,
Figure BDA0002693899590000111
λ是车牌预测框的宽高比,hpred,wpred分别表示预测框的高度和宽度;
采用车牌概率值Pλ对车牌预测框内是否为车牌进行预估,根据车牌的长宽比大约为3.14,因此可以通过λ的范围对预测框是否是车牌进行预估,充分利用先验知识,提高车牌的识别率。在3.14的范围内,具有较高可能性是车牌。为了把车牌出现旋转也考虑进来,本实施例选择较大幅度放宽比例,Pλ定义为由预测框计算的车牌概率值,计算公式如下:
Figure BDA0002693899590000112
对每个车牌预测框的置信度P进行更新P=P+Pλ
根据车牌预测框的置信度进行排序,生成边界框列表,选择置信度最高的车牌预测框加入输出列表,并将其从边界框列表中删除;计算置信度最高的车牌预测框与边界框列表中其他预测框的IoU,并删除IoU大于预设阈值(本实施例设为0.5)的预测框;然后重新对车牌预测框的置信度进行排序,重复本步骤,直至边界框框列表为空,此时输出列表中的车牌预测框为最终得到的车牌预测框。
本实施例还提供了一种面向全场景的实时性车牌检测***,包括存储器、处理器以及存储于存储器上并能够被处理器运行的计算机程序指令,当处理器运行该计算机程序指令时,实现如上文所述的方法步骤。
本实施例通过对YOLOv3-tiny针对车牌检测任务进行改进,通过卷积数量和卷积核的限制,在保证检测精度的前提下,大大降低了模型的计算量和模型的大小,并进一步提高了检测的速度。最后的效果如图2所示,输入包含车牌的图像,返回带车牌标注框的图像。从图2中可以看出本发明对复杂场景的车牌检测非常有效,具有很高的鲁棒性。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。

Claims (5)

1.一种面向全场景的实时性车牌检测方法,其特征在于,包括以下步骤:
生成用于网络训练和测试的训练集和测试集;
修改YOLOv3-tiny网络结构,生成MD-YOLO模型;
采用训练集训练构建的MD-YOLO模型,并基于mAP选取最优的权重文件;
将待检测包含车牌的图像作为训练好的MD-YOLO模型的输入,输出带车牌检测框的结果返回;
所述生成用于网络训练和测试的训练集和测试集具体为:
收集车牌检测数据集;
使用LableImg对没有标签的图片,手工标注车牌区域,标签包括:一个包含车牌的矩形框,左上角坐标(lx,ly),右下角坐标(rx,ry)和标签名称plate;
对所有已经标注标签的数据进行划分,划分为训练集和测试集;
对训练数据集使用K-means聚类方法生成锚框,替换原模型的锚框,使得车牌检测精度更高;
所述对所述训练数据集使用K-means聚类方法生成锚框,替换原模型的锚框具体为:
定义输入图片的宽和高分别为W和H;在图片中,车牌的坐标为(lxi,lyi,rxi,ryi),i∈{1,2,…,n},其中lxi,lyi表示第i个车牌的左上角坐标,rxi,ryi表示第i个车牌的右下角坐标;
进行车牌宽度和高度的标准化,使用如下计算公式:
Figure FDA0003785904430000021
Figure FDA0003785904430000022
式中,wi代表标准化后的宽度;代表hi代表标准化后的高度;
计算车牌标注框与车牌锚框的距离D,D=1-IoU,其中IoU定义为车牌标注框″wi,hi″与车牌锚″wj,hj″的交并比,其中i表示第i个车牌,j表示第j个锚框;
Figure FDA0003785904430000023
初始化k个聚类中心,车牌锚框的高和宽为″wj,hj″,j∈{1,2,3…k};
计算每个车牌框与车牌锚框的距离D;对每个车牌框,选择D最小的车牌锚框进行分配;
计算每个聚类簇的均值作为下次迭代计算的聚类中心,重复上述步骤直至聚类中心位置趋于稳定;
所述修改YOLOv3-tiny网络结构,生成MD-YOLO模型具体为:
所述MD-YOLO模型各层依次为:Conv1,MaxPool,Conv2,MaxPool,Conv3,MaxPool,Conv4,MaxPool,Conv5,MaxPool,Conv6,MaxPool,Conv7,Conv8,Conv9,Conv10,route,Conv11,UpSample,route,Conv12,Conv13;其中,Conv1至Convl3表示卷积层,MaxPool为最大池化层,route表示实现底层卷积层与当前层的合并输出;
将输入MD-YOLO模型的图片大小修改为416×416,Conv10与Conv13作为两个输出层,尺度分别为13×13×C,26×26×C,其中C=(classes+5)×3,classes=1;
调整MD-YOLO的卷积数量和卷积和大小;
所述调整MD-YOLO的卷积数量和卷积和大小具体为:Conv1的卷积数量为3,Conv2的卷积数量为3,Conv7的卷积数量为512;Conv9的卷积核大小为1×1,Conv12的卷积核大小为1×1。
2.根据权利要求1所述的一种面向全场景的实时性车牌检测方法,其特征在于,所述采用训练集训练构建的MD-YOLO模型,并基于mAP选取最优的权重文件具体为:
设定训练的配置文件,每千轮进行一个权重文件保存,进行一次mAP计算,并更新当前最佳mAP值的权重文件;
总共进行35万轮训练;训练结束后,选取最佳mAP值的权重文件作为最后的结果文件。
3.根据权利要求1所述的一种面向全场景的实时性车牌检测方法,其特征在于,所述将待检测包含车牌的图像作为训练好的MD-YOLO模型的输入,输出带车牌检测框的结果返回具体为:
将待检测的图像输入训练好的MD-YOLO模型,获取预测的车牌预测框,并得到所有车牌预测框的置信度P;
对所有车牌预测框进行车牌的非极大值抑制,以去除重复选框;
对得到的所有车牌预测框的置信度进行筛选,选择置信度大于预设值的预测框最后预测的最终结果。
4.根据权利要求3所述的一种面向全场景的实时性车牌检测方法,其特征在于,所述对所有预测框进行车牌的非极大值抑制,以去除重复选框具体为:
计算所有车牌预测框的宽高比;定义,
Figure FDA0003785904430000041
λ是车牌预测框的宽高比,hpred,wpred分别表示预测框的高度和宽度;
采用车牌概率值Pλ对车牌预测框内是否为车牌进行预估,计算公式如下:
Figure FDA0003785904430000042
对每个车牌预测框的置信度P进行更新P=P+Pλ
根据车牌预测框的置信度进行排序,生成边界框列表,选择置信度最高的车牌预测框加入输出列表,并将其从边界框列表中删除;计算置信度最高的车牌预测框与边界框列表中其他预测框的IoU,并删除IoU大于预设阈值的预测框;然后重新对车牌预测框的置信度进行排序,重复本步骤,直至边界框框列表为空,此时输出列表中的车牌预测框为最终得到的车牌预测框。
5.一种面向全场景的实时性车牌检测***,其特征在于,包括存储器、处理器以及存储于存储器上并能够被处理器运行的计算机程序指令,当处理器运行该计算机程序指令时,实现如权利要求1-4任一项所述的一种面向全场景的实时性车牌检测方法步骤。
CN202010999847.0A 2020-09-22 2020-09-22 一种面向全场景的实时性车牌检测方法及*** Active CN112132130B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010999847.0A CN112132130B (zh) 2020-09-22 2020-09-22 一种面向全场景的实时性车牌检测方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010999847.0A CN112132130B (zh) 2020-09-22 2020-09-22 一种面向全场景的实时性车牌检测方法及***

Publications (2)

Publication Number Publication Date
CN112132130A CN112132130A (zh) 2020-12-25
CN112132130B true CN112132130B (zh) 2022-10-04

Family

ID=73841999

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010999847.0A Active CN112132130B (zh) 2020-09-22 2020-09-22 一种面向全场景的实时性车牌检测方法及***

Country Status (1)

Country Link
CN (1) CN112132130B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113435446B (zh) * 2021-07-07 2023-10-31 南京云创大数据科技股份有限公司 一种基于深度学习的倾斜车牌矫正方法
CN114511899A (zh) * 2021-12-30 2022-05-17 武汉光庭信息技术股份有限公司 一种街景视频模糊处理方法、***、电子设备及存储介质
CN115050028B (zh) * 2022-06-15 2024-03-29 松立控股集团股份有限公司 一种恶劣天气下小样本车牌检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110059554A (zh) * 2019-03-13 2019-07-26 重庆邮电大学 一种基于交通场景的多支路目标检测方法
EP3617949A1 (en) * 2017-09-29 2020-03-04 Alibaba Group Holding Limited Method and apparatus for improving vehicle loss assessment image identification result, and server
CN111209921A (zh) * 2020-01-07 2020-05-29 南京邮电大学 基于改进的YOLOv3网络的车牌检测模型及构建方法
CN111401148A (zh) * 2020-02-27 2020-07-10 江苏大学 一种基于改进的多级YOLOv3的道路多目标检测方法
CN111524095A (zh) * 2020-03-24 2020-08-11 西安交通大学 一种用于旋转物体的目标检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3617949A1 (en) * 2017-09-29 2020-03-04 Alibaba Group Holding Limited Method and apparatus for improving vehicle loss assessment image identification result, and server
CN110059554A (zh) * 2019-03-13 2019-07-26 重庆邮电大学 一种基于交通场景的多支路目标检测方法
CN111209921A (zh) * 2020-01-07 2020-05-29 南京邮电大学 基于改进的YOLOv3网络的车牌检测模型及构建方法
CN111401148A (zh) * 2020-02-27 2020-07-10 江苏大学 一种基于改进的多级YOLOv3的道路多目标检测方法
CN111524095A (zh) * 2020-03-24 2020-08-11 西安交通大学 一种用于旋转物体的目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"A New CNN-Based Method for Multi-Directional Car License Plate Detection";Lele Xie等;《IEEE Transactions on Intelligent Transportation Systems》;20180110;第3节、表2以及附图1-9 *

Also Published As

Publication number Publication date
CN112132130A (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
CN112132130B (zh) 一种面向全场景的实时性车牌检测方法及***
CN110807385B (zh) 目标检测方法、装置、电子设备及存储介质
CN108388879B (zh) 目标的检测方法、装置和存储介质
CN111145214A (zh) 目标跟踪方法、装置、终端设备及介质
CN108805016B (zh) 一种头肩区域检测方法及装置
CN110096938B (zh) 一种视频中的动作行为的处理方法和装置
CN111612002A (zh) 一种基于神经网络的多目标物体运动追踪方法
KR20220076398A (ko) Ar장치를 위한 객체 인식 처리 장치 및 방법
CN113033523B (zh) 跌倒判断模型的构建方法及***、跌倒判断方法及***
CN115082752A (zh) 基于弱监督的目标检测模型训练方法、装置、设备及介质
CN111652181B (zh) 目标跟踪方法、装置及电子设备
KR20220098312A (ko) 이미지 내 관련 대상 검출 방법, 장치, 디바이스 및 기록 매체
CN113901911B (zh) 图像识别、模型训练方法、装置、电子设备及存储介质
CN114677330A (zh) 一种图像处理方法、电子设备及存储介质
CN114926791A (zh) 一种路口车辆异常变道检测方法、装置、存储介质及电子设备
CN112597995B (zh) 车牌检测模型训练方法、装置、设备及介质
CN114820765A (zh) 图像识别方法、装置、电子设备及计算机可读存储介质
CN113744280A (zh) 图像处理方法、装置、设备及介质
CN113112479A (zh) 基于关键区块提取的渐进式目标检测方法和装置
CN110222652B (zh) 行人检测方法、装置及电子设备
CN113160272A (zh) 目标跟踪方法、装置、电子设备及存储介质
CN116958873A (zh) 行人跟踪方法、装置、电子设备及可读存储介质
CN111178200A (zh) 一种仪表盘指示灯的识别方法及计算设备
CN115908831A (zh) 一种图像检测方法及装置
CN115311632A (zh) 一种基于多摄像头的车辆重识别方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant