CN114882490A - 一种基于点引导定位的无受限场景车牌检测分类方法 - Google Patents
一种基于点引导定位的无受限场景车牌检测分类方法 Download PDFInfo
- Publication number
- CN114882490A CN114882490A CN202210796539.7A CN202210796539A CN114882490A CN 114882490 A CN114882490 A CN 114882490A CN 202210796539 A CN202210796539 A CN 202210796539A CN 114882490 A CN114882490 A CN 114882490A
- Authority
- CN
- China
- Prior art keywords
- license plate
- point
- classification
- network
- license
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明属于车牌检测分类技术,涉及一种基于点引导定位的无受限场景车牌检测分类方法,使用点引导的车牌定位方法,显式利用空间信息,避免了使用全连接层导致的空间信息利用不充分的问题,增强车牌空间平移建模能力,同时多个点的回归提高了定位的稳定性;在定位车牌准确位置后,再使用对应区域的特征进行车牌的分类任务,将分类回归任务分离成两个通道,缓解了分类回归对于特征平移性的矛盾,不仅可以用来进行无约束场景的车牌检测和分类,还可以用于场景文本检测、人脸检测等各项倾斜目标检测任务,检测精度达98.5%,极大的提升了检测和分类效果。
Description
技术领域
本发明属于车牌检测分类技术,涉及一种基于点引导定位的无受限场景车牌检测分类方法。
背景技术
随着经济快速发展,城市交通拥堵等问题日趋严重,对智慧交通***的建设提出了更高的要求,车牌检测作为智慧交通中一项关键信息处理技术,对城市车辆监管起着非常重要的作用,然而实际应用中车牌受相机角度影响易发生形变,因此车牌检测***仍然存在着效率精度不高的问题。
近年来,随着大数据时代的到来和计算机算力的提升,深度学***定位框就可以很好的定位目标的粗略位置,但是车牌受相机拍摄视角的原因容易产生畸变,使用水平框定位车牌常常包含周围的背景信息,影响车牌的分类以及识别任务。
车牌检测任务需要检测器估计车牌的准确位置,而不仅仅是提供车牌的粗略位置,为了更好的描述车牌位置,现有的方法通常定位车牌的紧致外接边界框,即使用朝向框或者定位车牌的四个角点,然而现有的方法由于存在一些严重的缺陷,不能准确地定位形变的车牌,首先,现有的方法没有充分利用空间信息,常用的基于回归的方式通过使用全连接层预测与锚框之间的偏移向量回归形变车牌的边界框,在模型的卷积特征上,每个特征点对图像上的相邻区域做出响应,当使用全连接层生成矢量时,特征映射和图像之间的像素到像素的映射将丢失,因此空间信息的缺失阻碍了模型定位目标的能力;其次,现有方法存在检核和分类任务矛盾的问题,为了实现精确的边界框定位,网络应能够对车牌的细微平移做出响应从而构造平移等变特性;在车牌分类方面,特征映射应该与目标在空间中保持平移不变性,而以往的方法将两种任务融合在同一路径进行学习,这种目标识别与目标定位之间的矛盾同时也给网络优化带来了困难。
由此可见,针对车牌检测任务,现有的方法还存在空间信息利用不充分以及检测分类矛盾的问题,最终导致车牌检测精度不高,因此急需更有效的方法增强空间信息的利用并且缓解检测分类之间的矛盾。
发明内容
为了克服上述现有技术的不足,本发明设计提供一种基于点引导定位的无受限场景车牌检测分类方法,增强空间信息的利用并缓解检测分类之间的矛盾,可用于非受限场景的车牌检测识别任务中,能够高效的实现车牌检测矫正。
为实现上述目的,本发明通过一组均匀分布在车牌边界和中心的点来表示车牌,显式的编码车牌空间位置与卷积特征图的关系,增强车牌空间平移建模能力,同时多个点的回归提高了定位的稳定性,并针对检测和分类任务特征矛盾的问题,将两个任务分解并给每一个任务分配单独的路径,使不同任务的特征属性放大化,具体包括如下步骤:
(1)构建数据集:收集交通监控、侧方位停车场中含有常规以及倾斜、畸变车牌的图像构建车牌的数据集,标注车牌的位置,通过标注的车牌位置计算表示车牌位置的点集合,点集合包含车牌的中心点、四个角点以及四条边的中心点,并将数据集划分为训练集、验证集和测试集;
(2)主干网络提取基础特征:先对图片的尺寸和数值范围进行初始化处理,再将处理后的图像输入到主干网络中进行卷积特征提取,分别提取主干网络的模块3、模块4和模块5输入到特征金字塔网络中;
(3)特征金字塔提取多尺度特征:特征金字塔网络通过自上而下结构和横向连接的方式融合具有高分辨率的浅层和具有丰富语义信息的深层,实现特征融合,对步骤(2)提取的特征进行强化利用获得卷积特征图集合;
(4)生成高质量水平候选框:根据步骤(3)得到的卷积特征图集合,分别使用两个结构相同的但是不共享参数的全连接层子网络学***外接矩(水平框),经过非极大抑制(NMS)后,选择被预测为车牌的候选框在后续分支中进行点集合预测;
(5)点引导的车牌定位:使用步骤(4)中获得的车牌的候选框对应的卷积特征作为输入,使用感兴趣区域对齐(RoI Align)将特征转换成形状为28×28×D×C的特征图,其中D是预测点的数目,C为预测点的通道数,经过两层反卷积的上采样得到分辨率为112×112的D个热力图,使用Softmax得到特征图中每个位置的数值,即为该位置是预测点的概率;得到含有9个点的点集合后,计算点集合的最小外接矩阵,即为车牌的位置;
(6)车牌分类:根据步骤(4)中获取的车牌位置信息对应的卷积特征,在特征之后使用两个级联的卷积层,对类别特征进行进一步提取,然后使用全连接层将特征拉伸成一维特征,并使用Softmax函数对车牌类型进行分类;
(7)训练网络结构,得到训练好的模型参数;使用数据集中训练集的图像,图片尺
寸为128010243,根据每次训练需要的图像张数B,将图像依次输入到网络中,整个网络的
输入,并且使用IOU阈值作为样本分配策略的衡量标准,步骤(4)输出车牌
的分类置信度和回归坐标位置,其中Class为2,即是否是车牌,N是
输出预测车牌目标的数量,4为车牌的水平框的中心点坐标和框的长宽,采用Focal损失算
预测类别和真实类别的误差,采用Smooth L1损失来计算预测车牌位置与真实车牌位置的
误差;步骤(5)输出9张热力图,其中W和H为112,D和C分别为9和1,并使用二分
类损失,通过反向传播更新参数,经过100轮完整训练集训练迭代后,保存验证集上结果最
好的模型参数,作为最终模型训练好的参数,即得到训练好的车牌检测网络参数;
(8)测试网络输出车牌位置和类别:在测试过程中,保持图片长短边比例不变,将
图像长边缩放(resize)到1280,然后对图片的短边进行填充,使得图像尺寸为12801080,
作为网络的输入,即可输出车牌的分类置信度和车牌的坐标位置,并设置阈值过滤低置信
度的车牌,最后使用非极大抑制(NMS)删除网络输出的冗余的框,得到车牌的位置和类别。
进一步的,步骤(1)所述车牌的类别包含蓝底白字、黄底黑字、白底黑字、黑底白字和新能源车牌,标注的车牌位置为车牌四个角点。
进一步的,步骤(2)所述主干网络使用在ImageNet数据集中经过预训练的ResNet50作为特征提取网络。
进一步的,步骤(3)中特征融合是将对应位置特征图相加,通道数量不变。
进一步的,步骤(5)预测点的数目D为9,包括中心点、四个角点和四条边的中心点,预测点的通道数C为256。
与现有技术相比,本发明的有益效果是:使用点引导的车牌定位方法,显式利用空间信息,避免了使用全连接层导致的空间信息利用不充分的问题,增强车牌空间平移建模能力,同时多个点的回归提高了定位的稳定性;在定位车牌准确位置后,再使用对应区域的特征进行车牌的分类任务,将分类回归任务分离成两个通道,缓解了分类回归对于特征平移性的矛盾,不仅可以用来进行无约束场景的车牌检测和分类,还可以用于场景文本检测、人脸检测等各项倾斜目标检测任务,检测精度达98.5%,极大的提升了检测和分类效果。
附图说明
图1为本发明实现车牌检测分类的网络结构框架示意图。
图2为本发明实现车牌检测分类的流程框图。
具体实施方式
下面结合附图,通过实施例进一步描述本发明,但不以任何方式限制本发明的范围。
实施例:
本实施例提供一种基于点引导定位的无受限场景车牌检测和分类方法,通过一组均匀分布在车牌边界和中心的点来表示车牌,显式的编码车牌空间位置与卷积特征图的关系,增强车牌空间平移建模能力,同时多个点的回归提高了定位的稳定性。并针对检测和分类任务特征矛盾的问题,将两个任务分解并给每一个任务分配单独的路径,缓解了分类回归对于特征平移性的矛盾,所采用的网络结构和流程分别如图1和图2所示,具体包括如下步骤:
(1)数据集构建:
收集交通监控、侧方位停车场等场景的含有常规以及倾斜、畸变车牌的图像,其中车牌类别包含蓝底白字、黄底黑字、白底黑字、黑底白字和新能源车牌,构建车牌的数据集,并标注车牌的位置(主要对车牌四个角点的标注),通过四个角点的位置计算表示车牌位置的点集合,点集合包含车牌的中心点、四个角点以及四条边的中心点,最后将数据集划分为训练集、验证集和测试集;
(2)主干网络提取基础特征:
首先对图片的尺寸和数值范围进行初始化处理,然后将处理后的图像输入到主干网络中进行卷积特征提取,其中主干网络使用在ImageNet数据集中经过预训练的ResNet50作为特征提取网络,分别提取C3、C4和C5(模块3、模块4和模块5)输入到后续网络中;
(3)特征金字塔提取多尺度特征:
在ResNet50之后添加特征金字塔网络,通过自上而下结构和横向连接,以此融合具有高分辨率的浅层和具有丰富语义信息的深层,实现特征融合,其中特征融合是对应位置特征图相加,通道数量不变;特征金字塔网络是针对ResNet50里面形成的多尺度特征进行强化利用获得表达力更强包含多尺度车牌信息的卷积特征图集合;
(3)生成高质量水平候选框:
根据步骤(3)得到的卷积特征图集合,分别使用两个结构相同的但是不共享参数的全连接层子网络学***外接矩(水平框),在训练和测试的时候,特征图中的每个特征点只设置了一个锚框用来学习目标的位置,经过非最大抑制(NMS)后,选择被预测为车牌的候选框在后续分支中进行点集合预测;
(5)点引导的车牌定位模块:
使用步骤(4)中获得的车牌的候选框对应的卷积特征作为输入,使用感兴趣区域对齐(RoI Align)将特征转换成形状为28×28×D×C的特征图,其中D是预测点的数目,C是用于预测每个点的通道数,本实施例中预测点的数目为9(中心点+四个角点+四条边的中心点),C为256;经过两层反卷积的上采样,得到了分辨率为112×112的D个热力图,在使用Softmax之后,特征图中每个位置的数值表示该位置是预测点的概率;在得到含有9个点的点集合后,计算点集合的最小外接矩阵,即为车牌的位置;
(6)车牌分类模块:
获取车牌的位置后,从步骤(4)获取的车牌的位置对应的卷积特征,并在特征之后使用两个级联的卷积层,对类别特征进行进一步提取,然后使用全连接层将特征拉伸成一维特征,并使用Softmax函数对车牌类型进行分类;
(7)训练网络结构,得到训练好的模型参数:
使用数据集中训练集的图像,图片尺寸为128010243,根据每次训练需要的图
像张数B,依次输入到网络中,所以整个网络的输入,并且使用IOU阈值作为
样本分配策略的衡量标准,高质量水平候选框模块输出车牌的分类置信度和
回归坐标位置,其中Class为2,即是否是车牌,N是输出预测车牌目标的数量,4为
车牌的水平框的中心点坐标和框的长宽;采用Focal损失算预测类别和真实类别的误差,采
用Smooth L1损失来计算预测车牌位置与真实车牌位置的误差;点引导的车牌定位模块输
出9张热力图,其中和为112,和分别为9和1,并使用二分类损失,通过
反向传播更新参数,经过100轮完整训练集训练迭代后,保存验证集上结果最好的模型参
数,作为最终模型训练好的参数,即得到训练好的车牌检测网络参数;
(8)测试网络输出车牌位置和类别:
在测试过程中,保持图片长短边比例不变的情况下将图像长边缩放(resize)到
1280,然后对图片的短边进行填充,使得图像尺寸为12801080,作为网络的输入,即可输出
车牌的分类置信度和车牌的坐标位置,并设置阈值过滤低置信度的车牌,最后使用非极大
抑制(NMS)删除网络输出的冗余的框,得到车牌的位置和类别。
本实施例所描述的基于点引导定位的无受限场景车牌检测和分类方法,通过一组均匀分布在车牌边界和中心的点来表示车牌,显式的编码车牌空间位置与卷积特征图的关系,并将检测、分类两个任务分解并给每一个任务分配单独的路径,增强了空间信息的利用并缓解检测和分类之间的矛盾,能够有效的提升车牌检测和分类的精度。
实施例2:
本实施例收集2000张图像作为车牌数据集,其中1200张训练集,400张验证集,400张测试记,采用实施例1的技术方案进行车牌检测分类,统计测试集中所有的图像结果,并使用精度作为评价指标,得到最终的测试精度为98.5%。
需要注意的是,公布实施例的目的在于帮助进一步理解本发明,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换和修改都是可能的。因此,本发明不应局限于实施例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。
Claims (7)
1.一种基于点引导定位的无受限场景车牌检测和分类方法,其特征在于,具体包括如下步骤:
(1)构建数据集:收集交通监控、侧方位停车场中含有常规以及倾斜、畸变车牌的图像构建车牌的数据集,标注车牌的位置,通过标注的车牌位置计算表示车牌位置的点集合,点集合包含车牌的中心点、四个角点以及四条边的中心点,并将数据集划分为训练集、验证集和测试集;
(2)主干网络提取基础特征:先对图片的尺寸和数值范围进行初始化处理,再将处理后的图像输入到主干网络中进行卷积特征提取,并输入到特征金字塔网络中;
(3)特征金字塔提取多尺度特征:特征金字塔网络通过自上而下结构和横向连接的方式融合具有高分辨率的浅层和具有丰富语义信息的深层,实现特征融合,对步骤(2)提取的特征进行强化利用获得卷积特征图集合;
(4)生成高质量水平候选框:根据步骤(3)得到的卷积特征图集合,分别使用两个结构相同的但是不共享参数的全连接层子网络学***外接矩,即水平框,经过非极大抑制后,选择被预测为车牌的候选框在后续分支中进行点集合预测;
(5)点引导的车牌定位:使用步骤(4)中获得的车牌的候选框对应的卷积特征作为输入,使用感兴趣区域对齐将特征转换成形状为28×28×D×C的特征图,其中D是预测点的数目,C为预测点的通道数,经过两层反卷积的上采样得到分辨率为112×112的D个热力图,使用Softmax得到特征图中每个位置的数值,即为该位置是预测点的概率;得到含有9个点的点集合后,计算点集合的最小外接矩阵,即为车牌的位置;
(6)车牌分类:根据步骤(4)中获取的车牌位置信息对应的卷积特征,在特征之后使用两个级联的卷积层,对类别特征进行进一步提取,然后使用全连接层将特征拉伸成一维特征,并使用Softmax函数对车牌类型进行分类;
(7)训练网络结构,得到训练好的模型参数;
(8)测试网络输出车牌位置和类别。
2.根据权利要求1所述基于点引导定位的无受限场景车牌检测和分类方法,其特征在于,步骤(1)所述车牌的类别包含蓝底白字、黄底黑字、白底黑字、黑底白字和新能源车牌,标注的车牌位置为车牌四个角点。
3.根据权利要求2所述基于点引导定位的无受限场景车牌检测和分类方法,其特征在于,步骤(2)所述主干网络使用在ImageNet数据集中经过预训练的ResNet50作为特征提取网络,提取的特征为主干网络的模块3、模块4和模块5输出的特征。
4.根据权利要求3所述基于点引导定位的无受限场景车牌检测和分类方法,其特征在于,步骤(3)中特征融合是将对应位置特征图相加,通道数量不变。
5.根据权利要求4所述基于点引导定位的无受限场景车牌检测和分类方法,其特征在于,步骤(5)预测点的数目D为9,包括中心点、四个角点和四条边的中心点,预测点的通道数C为256。
6.根据权利要求5所述基于点引导定位的无受限场景车牌检测和分类方法,其特征在
于,步骤(7)的具体过程为:使用数据集中训练集的图像,图片尺寸为128010243,根据每次
训练需要的图像张数B,将图像依次输入到网络中,整个网络的输入,并且
使用IOU阈值作为样本分配策略的衡量标准,步骤(4)输出车牌的分类置信度
和回归坐标位置,其中Class为2,即是否是车牌,N是输出预测车牌目标的数量,4
为车牌的水平框的中心点坐标和框的长宽,采用Focal损失算预测类别和真实类别的误差,
采用Smooth L1损失来计算预测车牌位置与真实车牌位置的误差;步骤(5)输出9张热力图,其中W和H为112,D和C分别为9和1,并使用二分类损失,通过反向传播更新参
数,经过100轮完整训练集训练迭代后,保存验证集上结果最好的模型参数,作为最终模型
训练好的参数,即得到训练好的车牌检测网络参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210796539.7A CN114882490B (zh) | 2022-07-08 | 2022-07-08 | 一种基于点引导定位的无受限场景车牌检测分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210796539.7A CN114882490B (zh) | 2022-07-08 | 2022-07-08 | 一种基于点引导定位的无受限场景车牌检测分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114882490A true CN114882490A (zh) | 2022-08-09 |
CN114882490B CN114882490B (zh) | 2022-09-20 |
Family
ID=82683586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210796539.7A Active CN114882490B (zh) | 2022-07-08 | 2022-07-08 | 一种基于点引导定位的无受限场景车牌检测分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114882490B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115861997A (zh) * | 2023-02-27 | 2023-03-28 | 松立控股集团股份有限公司 | 一种关键前景特征引导知识蒸馏的车牌检测识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021103897A1 (zh) * | 2019-11-29 | 2021-06-03 | 深圳云天励飞技术股份有限公司 | 车牌号码识别方法、装置、电子设备及存储介质 |
CN113822278A (zh) * | 2021-11-22 | 2021-12-21 | 松立控股集团股份有限公司 | 一种无受限场景车牌识别方法 |
CN114677502A (zh) * | 2022-05-30 | 2022-06-28 | 松立控股集团股份有限公司 | 一种任意倾斜角度的车牌检测方法 |
CN114677501A (zh) * | 2022-05-30 | 2022-06-28 | 松立控股集团股份有限公司 | 一种基于二维高斯边界框重叠度度量的车牌检测方法 |
-
2022
- 2022-07-08 CN CN202210796539.7A patent/CN114882490B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021103897A1 (zh) * | 2019-11-29 | 2021-06-03 | 深圳云天励飞技术股份有限公司 | 车牌号码识别方法、装置、电子设备及存储介质 |
CN113822278A (zh) * | 2021-11-22 | 2021-12-21 | 松立控股集团股份有限公司 | 一种无受限场景车牌识别方法 |
CN114677502A (zh) * | 2022-05-30 | 2022-06-28 | 松立控股集团股份有限公司 | 一种任意倾斜角度的车牌检测方法 |
CN114677501A (zh) * | 2022-05-30 | 2022-06-28 | 松立控股集团股份有限公司 | 一种基于二维高斯边界框重叠度度量的车牌检测方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115861997A (zh) * | 2023-02-27 | 2023-03-28 | 松立控股集团股份有限公司 | 一种关键前景特征引导知识蒸馏的车牌检测识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114882490B (zh) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yu et al. | A real-time detection approach for bridge cracks based on YOLOv4-FPM | |
CN110032962B (zh) | 一种物体检测方法、装置、网络设备和存储介质 | |
CN110059554B (zh) | 一种基于交通场景的多支路目标检测方法 | |
CN110188705B (zh) | 一种适用于车载***的远距离交通标志检测识别方法 | |
CN111145174B (zh) | 基于图像语义特征进行点云筛选的3d目标检测方法 | |
CN111709416B (zh) | 车牌定位方法、装置、***及存储介质 | |
CN112084869B (zh) | 一种基于紧致四边形表示的建筑物目标检测方法 | |
CN114202672A (zh) | 一种基于注意力机制的小目标检测方法 | |
CN110929577A (zh) | 一种基于YOLOv3的轻量级框架改进的目标识别方法 | |
CN109583483A (zh) | 一种基于卷积神经网络的目标检测方法和*** | |
CN113609896A (zh) | 基于对偶相关注意力的对象级遥感变化检测方法及*** | |
CN111753682B (zh) | 一种基于目标检测算法的吊装区域动态监控方法 | |
CN115205264A (zh) | 一种基于改进YOLOv4的高分辨率遥感船舶检测方法 | |
CN113033520A (zh) | 一种基于深度学习的树木线虫病害木识别方法及*** | |
CN114140683A (zh) | 一种航拍图像目标检测的方法、设备与介质 | |
Chen et al. | ASF-Net: Adaptive screening feature network for building footprint extraction from remote-sensing images | |
CN113033516A (zh) | 对象识别统计方法及装置、电子设备、存储介质 | |
CN117495735B (zh) | 一种基于结构引导的建筑物立面纹理自动修复方法及*** | |
CN114049572A (zh) | 识别小目标的检测方法 | |
CN113496480A (zh) | 一种焊缝图像缺陷的检测方法 | |
CN114677501A (zh) | 一种基于二维高斯边界框重叠度度量的车牌检测方法 | |
CN115311502A (zh) | 基于多尺度双流架构的遥感图像小样本场景分类方法 | |
CN115223017B (zh) | 一种基于深度可分离卷积的多尺度特征融合桥梁检测方法 | |
CN114332921A (zh) | 基于改进聚类算法的Faster R-CNN网络的行人检测方法 | |
CN114519819B (zh) | 一种基于全局上下文感知的遥感图像目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |