CN110188693B - 改进的复杂环境车辆特征提取和停车判别方法 - Google Patents

改进的复杂环境车辆特征提取和停车判别方法 Download PDF

Info

Publication number
CN110188693B
CN110188693B CN201910464427.XA CN201910464427A CN110188693B CN 110188693 B CN110188693 B CN 110188693B CN 201910464427 A CN201910464427 A CN 201910464427A CN 110188693 B CN110188693 B CN 110188693B
Authority
CN
China
Prior art keywords
feature
harr
improved
vehicle
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910464427.XA
Other languages
English (en)
Other versions
CN110188693A (zh
Inventor
赵敏
孙棣华
王齐天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN201910464427.XA priority Critical patent/CN110188693B/zh
Publication of CN110188693A publication Critical patent/CN110188693A/zh
Application granted granted Critical
Publication of CN110188693B publication Critical patent/CN110188693B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/259Fusion by voting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种改进的复杂环境车辆特征提取和停车判别方法,从高速公路实际环境出发,针对高速公路这一特定场景,在分析了基于视频的高速公路异常停车检测问题及难点后,重点研究了高速公路复杂条件下车辆Haar‑like特征提取,以及Adaboost级联分类器停车判别模型应用于高速公路场景时的不足,对基于Haar‑like+Adaboost的高速公路停车事件检测算法做出了改进,提升了高速公路停车事件检测算法的性能,其可以减小在光照变化,视角变化和尺度变化时车辆Harr‑like特征的类内差异,提高特征学习效率,提高高速公路异常停车事件的检测精度和检测***泛化能力。

Description

改进的复杂环境车辆特征提取和停车判别方法
技术领域
本发明涉及交通检测技术和数据处理领域,特别涉及一种改进的复杂环境车辆Harr-like特征提取和Adaboost框架下停车判别方法。
背景技术
高速公路异常停车存在有极大的安全隐患,实时的停车事件态判别可以实时的提供高速公路路段的交通信息,更好的为交通管理人员提供自动化服务。研究复杂露天环境下车辆Harr-like特征提取和基于Adaboostd特征学习优化方法能有效避免现有交通事件检测***在发生复杂环境变化时候就出现高误检、漏检的情况,有利于提升整个交通事件检测***的健壮性及鲁棒性。
阅读现有专利和论文,在基于视频的高速公路车辆识别方面,随着近年来数字图像处理技术的飞速发展,其判别效果也越发显著。主要分为四类:
第一类是基于运动的车辆检测方法,主要是利用目标是运动的这一特点,分析视频中连续帧之间的变化部分,而检测出车辆。目前基于运动的车辆检测方法主要有三种:光流法、帧差法和背景差法。第二类是基于先验知识的车辆检测方法,应用目标、场景的先验知识从图像中定位车辆,这些先验知识主要包括对称性、颜色、阴影、几何特征、纹理和车灯。第三类是基于基于模板的车辆检测方法,利用先验知识预先构造车辆的2D或3D模型,用合适的变换将模型投影到图像空间,模型投影与图像特征进行匹配,取最佳匹配作为检测结果。第四类是基于特征学习的车辆检测方法,将问题视为一个车辆和非车辆的二分类问题,在这个识别***中包含寻找一个能够将两类区分的最适合的分界线,然而由于光照变化,尺度变化和视角变化的存在,准确分类并不是一件容易的事情。目前,基于Harr-like+Adaboost的目标检测算法具有较好的目标分类能力,所需图像样本较少,且特征训练不易产生过拟合,适合用于解决复杂场景车辆检测问题。
发明内容
有鉴于此,本发明的目的之一是提供一种改进的复杂环境车辆特征提取和停车判别方法。本发明从高速公路实际环境出发,针对复杂条件下车辆Harr-like特征类内差异过大的问题,提出了一种改进的复杂环境下车辆Harr-like特征提取和Adaboost框架下停车事件判别方法,可以快速并有效提高算法对高速公路是视角变化,光照变化和尺度变化的适应性,提高停车事件检测准确度和检测***的泛化能力。本发明的目的之二是提供一种***。
本发明的目的是通过以下技术方案实现的:
本发明的改进的复杂环境车辆特征提取和停车判别方法,其特征在于:包括以下步骤:
步骤S1:对视频图像序列进行视角修正;
步骤S2:进行光照修正;
步骤S3:潜在目标区域候选框提取;
步骤S4:进行尺度修正;
步骤S5:通过Harr-like统计学习分类器进行事件判别。
特别地,所述步骤S1包括以下子步骤:
步骤S11:进行感兴趣区域提取;
步骤S12:进行区域视角判别;
步骤S13:进行图像翻转。
特别地,所述步骤2包括以下子步骤:
步骤S21:单高斯背景建模;
步骤S22:ROI区域亮度判别;
步骤S23:Gamma变换。
特别地,所述步骤S3包括以下子步骤:
步骤S31:采用低背景更新率的混合高斯背景建模;
步骤S32:静置物体判别;
步骤S33:前景二值图片膨胀腐蚀;
步骤S34:基于Scanny提取的局部光斑排除;
步骤S35:输出潜在目标候选区域。
特别地,所述步骤S4包括以下子步骤:
步骤S41:加载Harr-Like特征弱分类器;
步骤S42:潜在目标区域变尺度窗口遍历;
步骤S43:检测窗口特征重映射。
特别地,所述步骤S5包括以下子步骤:
步骤S51:输出每个弱分类器Harr-like特征值大小;
步骤S52:采用弱分类器加权投票;
步骤S53:输出检测结果。
特别地,所述方法采用改进的Adaboost特征学习***配合进行,包括:
前期剔除非典型特征,在每一个弱分类器的训练过程中,在对所有Harr-like特征遍历筛选之前,首先预判是否为非典型特征,如果是,则不对该类型的特征进行运算;
针对高速公路场景下车辆存在的局部点块状特征,设计变尺度的中心轮廓特征,使之参与到Adaboost特征学习过程中,通过算法得到该中心轮廓特征中分类能力最优选项,提高分类效果。
本发明的目的之二是通过以下技术方案实现的,该种复杂环境车辆特征提取和停车判别***,包括:
视角修正模块:将不同场景的图像进行视角统一,缩小视角不同引起的的Harr-like特征类内差异;
光照修正模块:通过检测实时亮度,对图像进行亮度调节,缩小光照变化引起的Harr-like特征类内差异;
潜在目标区域候选框提取模块:通过背景差分得到前景目标候选区域和目标尺度信息,减小滑动检测窗口遍历时不必要的运算资源浪费,提高检测实时性,同时为下一步尺度修正提供候选区域信息;
尺度修正模块:对候选区域进行变尺度检测窗口遍历,加载好已经训练好的分类器文件,对其中每一个弱分类器的Harr-like特征,进行Harr-like特征在检测窗口的特征重映射,计算得到相应Harr-like特征值;
Harr-like特征统计学习判别模块:对上一步得到的多个弱分类器特有的Harr-like特征值进行判别,通过加权投票得到最终判决结果。
本发明的有益效果是:本发明从高速公路实际环境出发,针对高速公路这一特定场景,在分析了基于视频的高速公路异常停车检测问题及难点后,重点研究了高速公路复杂条件下车辆Haar-like特征提取,以及Adaboost级联分类器停车判别模型应用于高速公路场景时的不足,对基于Haar-like+Adaboost的高速公路停车事件检测算法做出了改进,提升了高速公路停车事件检测算法的性能,其可以减小在光照变化,视角变化和尺度变化时车辆Harr-like特征的类内差异,提高特征学习效率,提高高速公路异常停车事件的检测精度和检测***泛化能力。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书和权利要求书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
图1为Harr-like和Adaboost检测总体流程图;
图2为改进的Adaboost特征学习算法流程图
图3为本文设计添加的车辆变尺度中心特征模板。
图4为变尺度检测窗口特征重映射示意图;
图5为非典型Harr-like特征举例示意图;
图6为五种Harr-like特征模板示意图;
图7为中心特征类型示意图;
图8为九种Harr-like中心轮廓特征模板及其对车辆局部信息的表征示意图;
图9为特定Haar-like特征正负样本值排序列表。
具体实施方式
以下将参照附图,对本发明的优选实施例进行详细的描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1和图2所示,本发明的改进的复杂环境车辆特征提取和停车判别方法,包括以下步骤:
步骤S1:对视频图像序列进行视角修正;
步骤S2:进行光照修正;
步骤S3:潜在目标区域候选框提取;
步骤S4:进行尺度修正;
步骤S5:通过Harr-like统计学习分类器进行事件判别。
该方法首先针对视角变化,通过感兴趣区域视角自动识别和二维图像影射变换,对图像潜在目标区域进行翻转,减小不同视角导致的车辆外观的显著变化;针对光照变化,通过单高斯背景建模所得背景图片进行实时亮度检测,然后通过Gamma变换使得车辆亮度保持小范围波动;针对尺度变化,对原有的Harr-like特征原型在变尺度窗口中映射的过程做出了改进。
其次针对树荫云影水渍等高速公路场景下的局部光斑干扰,研究一种Adaboost框架下基于滞后更新背景模型的候选区域提取方案,通过对比当前图片和背景图片scanny纹理信息,提高了候选区域提取准确度。并对Harr-like特征统计学习算法进行改进,剔除非典型Harr-like特征,在保证训练效果的前提下,提高了训练速度。最后,针对高速公路场景下车辆局部特征呈现点块状分布的特点,在原有算法基础上设计添加了变尺度Harr-like中心特征,使之参与到基于Adaboost的特征筛选过程中,提高了对车辆目标和非车辆目标的分类能力。
本发明的改进的复杂环境车辆Harr-like特征提取和Adaboost框架下停车判别方法,主要包括以下模块:
(1)视角修正模块:用于将不同场景的图像进行视角统一,缩小视角不同引起的的Harr-like特征类内差异,具体包括:
首先,进行感兴趣区域提取:感兴趣区域的提取属于视角修正的前期处理,其主要目的是从图像中分离出车道区域,去除非车道区域对车灯提取的影响,并得到视角修正区域的原始坐标。通过对高速公路场景下视频图像进行分析,本实施例中,感兴趣区域遵循以下原则进行提取:
①去除非道路区域。由于车辆只可能行驶在道路区域,而非道路区域存在的树木等目标并不在本文的车辆特征提取范围之内。
②去除道路远处区域。在道路的远处,各车辆间存在着大量的遮挡,且目标纹理特征过于模糊不清,使得对车辆特征的提取干扰较大,为了保证车辆特征提取的准确性,本文将道路远处干扰较大的区域不计入感兴趣区域内。
③去除图像中存在的字符干扰。由于部分摄像头采集到的视频图像中包含了道路信息等字符,图像的左上角与右下角显示着道路名称和时间的字符,而左侧的道路上也有摄像机信息的白色字符,对车辆特征的提取和学习有着一定的影响,因此在感兴趣区域选取时应给予去除。综上所述,对图像感兴趣区域的合理选取,不但可以降低车辆特征提取的干扰,为图像视角矫正提供参考信息,同时也提高了算法的处理速度。
最后,根据感兴趣区域信息进行视角判别。根据四边形感兴趣区域的四个角点,可以判定该场景摄像头对车辆的拍摄视角是位于左侧还是右侧,通过图像水平翻转,可以使得所有场景摄像头拍摄到的车辆图像均为同一侧视角(均为左侧视角或均为右侧视角)。
(2)光照修正模块:通过检测实时亮度,对图像进行亮度调节,缩小光照变化引起的Harr-like特征类内差异;
当感兴趣区域(ROI)光照较为充分时候,图像灰度分布集中在高亮部分,这导致图像整体泛白,车辆特征不明显;而在感兴趣区域(ROI)光照很不充分的时候,图像灰度分布集中在了灰暗部分,车辆特征模糊。因此,能够对ROI区域的光照强度有一个自动判别的指标,以利用这个指标对图像灰度分布做出自适应调整,使得车辆图像特征无论是在明亮还是昏暗的场景下保证细节特征的显著性,具有重要的意义。
本发明使用了一种基于场景模型的亮度判别方案。首先取得一段时间内连续的视频图像序列,作为该段时间内场景模型建立的数据来源。然后根据快速学***均值,得到ROI区域亮度判别指数。
在得到当前场景下背景图片之后,即可计算当前场景下像素亮度α,本文采用的图像亮度指标通过计算当前背景图片与正常光照下图片感兴趣区域平均灰度值的比值来表示。当α大于1时,当前场景偏亮,当α小于1时,当前场景偏暗。其中K表示正常光照环境下感兴趣区域平均灰度值,该值为可调阈值,根据实际检测进行适度调整。其中
Figure BDA0002079016220000061
(n表示感兴趣区域像素点的个数,xi表示感兴趣区域某像素点的灰度值。)
根据当前场景下的亮度信息及时对图片进行亮度修正,可以保证车辆的图像局部特征不会由于光照过强和过弱而变得不易提取。目前最常用的光照修正方法就是Gamma校正。所谓伽玛校正就是对图像的伽玛曲线进行编辑,以对图像进行非线性色调编辑的方法,检出图像信号中的深色部分和浅色部分,并使两者比例增大,从而提高图像对比度效果。通常情况下,Gamma校正取固定的矫正值,但是在高速公路场景下,光照时明时暗,这时候如果Gamma校正不能随着光照的动态变化而自适应调整,则可能出现适得其反的效果。本发明提出了一种基于感兴趣区域(ROI)亮度判别的自适应光照修正方案。具体修正方案如下所示:
Figure BDA0002079016220000062
其中I(x,y)表示当前图片在坐标为(x,y)点处的像素值大小,其中Gamma变换指数γ=k*α,即当图像亮度偏高时候,Gamma指数大于1,经过变换之后提高了高亮度值区域的对比度;当图像亮度偏暗沉时候,Gamma指数小于1,经过变换之后提高了低亮度区域的对比度。具体步骤如下:假设图像中有一个像素,值是200,那么对这个像素进行校正必须执行如下步骤:
1.归一化:将像素值转换为0~1之间的实数。算法如下:(i+0.5)/256这里包含1个除法和1个加法操作。对于像素A而言,其对应的归一化值为0.783203。
2.预补偿:根据公式,求出像素归一化后的数据以1/gamma为指数的对应值。这一步包含一个求指数运算。若gamma值为2.2,则1/gamma为0.454545,对归一化后的A值进行预补偿的结果就是0.783203^0.454545=0.894872。
3.反归一化:将经过预补偿的实数值反变换为0~255之间的整数值。具体算法为:f*256-0.5此步骤包含一个乘法和一个减法运算。续前例,将A的预补偿结果0.894872代入上式,得到A预补偿后对应的像素值为228,这个228就是最后送入显示器的数据。
如上所述如果直接按公式编程的话,假设图像的分辨率为800*600,对它进行gamma校正,需要执行48万个浮点数乘法、除法和指数运算。效率太低,根本达不到实时的效果。
针对上述情况,提出了一种快速算法,如果能够确知图像的像素取值范围,例如,0~255之间的整数,则图像中任何一个像素值只能是0到255这256个整数中的某一个;在gamma值已知的情况下,0~255之间的任一整数,经过“归一化、预补偿、反归一化”操作后,所对应的结果是唯一的,并且也落在0~255这个范围内。
如前例,已知gamma值为2.2,像素A的原始值是200,就可求得经gamma校正后A对应的预补偿值为228。基于上述原理,我们只需为0~255之间的每个整数执行一次预补偿操作,将其对应的预补偿值存入一个预先建立的gamma校正查找表(LUT:Look Up Table),就可以使用该表对任何像素值在0~255之间的图像进行Gamma校正。
综上所述,通过离线计算好Gamma校正查找表(LUT:Look Up Table),可以实现快速映射变换,保证了算法的实时性。总体上,使得车辆特征能够对光照变换具有鲁棒性,实现了图像光照自适应修正。
(3)潜在目标区域候选框提取模块:通过背景差分得到前景目标候选区域和目标尺度信息,减小滑动检测窗口遍历时不必要的运算资源浪费,提高检测实时性,同时为下一步尺度修正提供候选区域信息;
首先通过背景差分得到前景目标区域,然后对背景图片和当前图片相应区域进行Scanny纹理提取。在高速公路场景下,路面纹理特征并不随着光照的变化而发生显著的变化,相反一旦车辆停在道路区域之后,该区域的纹理特征会发生显著的变化。根据这一原理,如果目标区域背景图片的纹理特征和实时图片的纹理特征相近,则说明是光线亮度变化导致了高斯提取前景目标的噪声,该候选区域判别为无车辆目标。通过这种方法,显著提高了车辆候选区域的提取准确性。
如图3所示,在车辆目标区域,该区域Scanny纹理和背景同样区域的Scanny纹理具有显著的差别;而对于出现局部光斑的区域,对于相应区域的Scanny纹理,背景图片和待检测图片无显著差异。基于此,则可以排除局部光斑干扰,提高候选区域提取准确性。
(4)尺度修正模块:对候选区域进行变尺度检测窗口遍历,加载好已经训练好的分类器文件,对其中每一个弱分类器的Harr-like特征,进行Harr-like特征在检测窗口的特征重映射,计算得到相应Harr-like特征值;
现有的车辆Harr-like特征提取过程,采用固定比例的大小和固定比例的长宽比进行特征原型到检测窗口的映射,这种方法不能满足高速公路场景下车辆目标尺度变化范围较大这一实际情况。
在对不同尺度的潜在目标区域进行自适应滤波后,本文提出了一种取代原有的尺度固定,长宽比固定的检测窗口特征提取方法,以尺度不固定,长宽比不固定的潜在目标区域为检测窗口,对特征重映射之后进行提取。此方法可以减小训练样本和实际检测目标之间特征值分布的差距,有效提高了检测精度。变尺度特征映射的具体方法如图4所示:
设训练样本图片的大小为24*24像素;潜在目标区域检测窗口遍历到某处的大小为W*H;某一Harr-like边缘特征原型为Feature(x1,y1,x2,y2,s=1,t=2),即该特征矩形在24*24大小的样本图片中位置为:左上角坐标为(x1,y1),右下角坐标为(x2,y2),且由一黑一白两个全等矩形构成。
特征Feature(x1,y1,x2,y2,s=1,t=2)由24*24大小的图片映射到W*H大小的检测窗口,变为Feature(x’1,y’1,x’2,y’2,s=1,t=2)的算法如下:
①计算尺度因子:
X方向尺度因子α=W/24;Y方向尺度因子β=H/24。
②计算左上角映射坐标(x’1,y’1):
x’1=[α*x1],y’1=[β*y1],
其中[]表示对内部元素进行向下取整。
③计算右下角映射坐标(x’2,y’2):
为了保证重映射之后的矩形仍然满足条件矩形的(s,t)条件,通过尺度因子变换比例之后要对坐标进行调整。
Figure BDA0002079016220000081
Figure BDA0002079016220000082
④得到经过特征重映射的检测窗口特征信息(特征矩形左上角和右下角位置以及特征模板类型)Feature(x’1,y’1,x’2,y’2,s=1,t=2),之后通过潜在目标候选区域事先计算好的积分图片计算出该Harr-like特征的特征值大小。
(5)Harr-like特征统计学习判别模块:对上一步得到的多个弱分类器特有的Harr-like特征值进行判别,通过加权投票得到最终判决结果。
通过训练获得T个最佳弱分类器h1(x),...hT(x),可以按照下面的方式组合成一个强分类器:
Figure BDA0002079016220000091
其中
Figure BDA0002079016220000092
该强分类器对待一幅待检测图像时,相当于让所有弱分类器投票,再对投票结果按照弱分类器的错误率加权求和,将投票加权求和的结果与平均投票结果比较得出最终的结果。在实际应用中,可以对加权投票的阈值进行适当调整,以达到所需的最好的分类效果。
以下介绍通过Adaboost算法对车辆Harr-like特征进行统计学习的具体流程:
基于Adaboost的车辆Haar-like特征统计学习基本算法主流程为:
首先,对Adaboost训练强分类器的算法描述如下:
1)给定一系列高速公路场景历史视频采集到的训练样本,其中表示其为负样本(非车辆样本图片),表示其为正样本(车辆样本图片)。n为训练样本总数目;
2)初始化权重w1,i=D(i);其中
Figure BDA0002079016220000093
(对负样本)或
Figure BDA0002079016220000094
(对正样本),m和l分别为负样本(非车辆目标)和正样本(车辆目标)的数量。
3)对t=1,......T:
a.归一化权重,使得所有正负样本的权重之和为1:
Figure BDA0002079016220000095
a.对每个特征f,训练一个弱分类器h(x,f,p,θ);计算对应所有特征的弱分类器的加权qt错误率(εf):
εf=∑iqi|h(xi,f,p,θ)-yi|
b.选取最佳的弱分类器ht(x),该弱分类器拥有最小加权错误率εt
εt=minf,p,θiqi|h(xi,f,p,θ)-yi|=∑iqi|h(xi,ft,ptt)-yi|
ht(x)=h(x,ft,ptt)
c.按照这个最佳弱分类器,调整权重:
Figure BDA0002079016220000096
其中ei=0表示第i个样本被正确分类,ei=1表示第i个样本被错误分类;
Figure BDA0002079016220000101
4)最后的强分类器为:
Figure BDA0002079016220000102
其中:
Figure BDA0002079016220000103
其中λ在0到1范围内,一般取值为0.5,在实际应用中可以对该参数进行调节以满足实际需求。若增大该值,则强分类器的误检测率减少,但是漏检测会增多;若减小该值,则强分类器的误检测率增大,但是漏检测会减少。
其次,对弱分类器模型介绍如下:
一个完整的车辆目标分类弱分类器h(x,f,p,θ)由以下三个要素构成:
1)在当前正负样本权重下,通过遍历所有样本图片和所有Haar-like特征类型得到的分类加权错误率最小的那个特征;
2)通过遍历并排序所有正负样本图片的f特征的特征值,实现最佳分类的特征值界限θ;
3)不等号方向的p,如果目标的特征f的计算结果大于上述阈值θ就会被判决为正样本,则p取正;反之p取负号。
综上,弱分类器的构造如下所示:
Figure BDA0002079016220000104
对弱分类器进行训练的步骤如下:
训练一个弱分类器(特征Feature(x1,y1,x2,y2,s,t))就是在当前权重分布的情况下,确定Feature(x1,y1,x2,y2,s,t)的最优阈值,使得这个弱分类器(特征Feature(x1,y1,x2,y2,s,t))对所有训练样本的加权分类误差最低。选取一个最佳弱分类器就是选择那个对所有正负训练样本的分类误差在所有弱分类器中最低的那个弱分类器,即选取Feature(x1,y1,x2,y2,s,t)为正负样本检测的参考特征之一。
对于每个特征Feature(xi,yi,xj,yj,s,t),计算所有正负训练样本的特征值,并将其排序。通过扫描一遍排好序的特征值,可以为这个特征确定一个最优的阈值,从而训练成一个弱分类器。具体来说,对排好序的表中的每个元素,计算下面四个值:
1)全部车辆样本的权重的和T+
2)全部非人脸样本的权重和T-
3)此元素之前的车辆样本的权重之和S+
4)在此元素之后的非车辆样本的权重之和S-
当选取当前元素的特征值
Figure BDA0002079016220000111
和它前面的一个特征值
Figure BDA0002079016220000112
之间的数作为阈值时,所得到的弱分类器就在当前元素处把样本分开——也就是说这个阈值对应的弱分类器将当前元素前的所有元素分类为车辆(或非车辆),而把当前元素后(含)的所有元素分类为非车辆(或车辆)。得到该阈值下得到的分类误差为:
e=min(S++(T--S-),S-+(T+-S+))
通过把这个排序的表扫描从头到尾扫描一遍就可以为弱分类器选择使分类误差最小的阈值(最优阈值),也就是选取了一个最佳弱分类器。由于在排序列表中,最佳阈值只可能位于正负样本元素相邻的交界处,因此在本文对该算法的实现过程中,并未对所有的元素求取分类误差,而是对排好序的元素列表中所有出现正负样本相邻的元素节点求取分类误差,之后进行筛选,这样提高了求取弱分类器最佳阈值θ的效率。如图9所示:
在实际检测过程中对提取到的目标区域进行特征值计算,当e=S++(T--S-)时候,表示如果该特征值大于该最优阈值,则判定为车辆目标;如果该特征值小于该最优阈值,则判定为非车辆目标。当e=S-+(T+-S+)时候,表示如果该特征值小于该最优阈值,则判定为车辆目标;如果该特征值大于该最优阈值,则判定为非车辆目标。
再次,强分类器的构成如下:
经过T次迭代后,获得了T个最佳弱分类器h1(x),...hT(x),可以按照下面的方式组合成一个强分类器:
Figure BDA0002079016220000113
其中:
Figure BDA0002079016220000114
这个强分类器对待一幅待检测图像时,相当于让所有弱分类器投票,再对投票结果按照弱分类器的错误率加权求和,将投票加权求和的结果与平均投票结果比较得出最终的结果。在实际应用中,可以对加权投票的阈值进行适当调整,以达到所需的最好的分类效果。
本发明采用改进的Adaboost特征学习***与Harr-like相配合,具体包括:
(1))前期剔除部分非典型Harr-like特征
对于占据四个像素的矩形特征,用这样的特征计算特征值随机性太大,经过实验验证,无法寻找到合适的阈值。这一步,特征数量可以减少3,243个;又因为训集的车辆特征都集中在中部,边缘上的矩形特征对提高分类效果的贡献不会特别大,因此可以适当减少边缘的矩形特征,则矩形特征的数量可以进一步减少652个。如图5所示。
因此,对于高速公路场景下Harr-like特征的Adaboost集成学习,可以排除微小Harr-like特征和边缘Harr-like特征的提取和计算,在保证训练效果的前提下,提高训练速度。在本发明的的该进方案中,首先定义微小Harr-like特征为:Small_Feature(x1,y1,x2,y2,s,t),且描述该特征类型的五个参数应同时满足以下六个条件:
1.(s,t)∈{(1,2),(2,1),(1,3),(3,1),(2,2)}
2.x1∈{1,2,...SCALE-s,SCALE-s+1}
3.y1∈{1,2,...SCALE-t,SCALE-t+1}
4.x2∈X={x1+s-1,x1+2*s-1,...,x1+(p-1)*s-1,x1+p*s-1}
5.y2∈Y={y1+t-1,y1+2*t-1,...,y1+(q-1)*t-1,y1+q*t-1}
6.(x2-x1+1)*(y2-y1+1)≤4
其中:
Figure BDA0002079016220000121
Figure BDA0002079016220000122
其次,定义边缘Harr-like特征为:Margin_Feature(x1,y1,x2,y2,s,t)且描述该特征类型的五个参数应同时满足以下六个条件:
1.(s,t)∈{(1,2),(2,1),(1,3),(3,1),(2,2)}
2.x1∈{1,2,...SCALE-s,SCALE-s+1}
3.y1∈{1,2,...SCALE-t,SCALE-t+1}
4.x2∈X={x1+s-1,x1+2*s-1,...,x1+(p-1)*s-1,x1+p*s-1}
5.y2∈Y={y1+t-1,y1+2*t-1,...,y1+(q-1)*t-1,y1+q*t-1}
6.(x1=1∩x2=1)∪(y1=1∩y2=1)∪(x1=SCALE∩x2=SCALE)∪(y1=SCALE∩y2=SCALE)
其中:
Figure BDA0002079016220000123
Figure BDA0002079016220000124
(2)设计适用于高速公路场景车辆特征描述的Harr-like特征模板
首先,Haar-like特征特征值的大小反映了图像的灰度变化情况。目前同常所用到的五个Harr-like特征模板以及相应的类型描述如图6所示。这些特征可以较好得表征车辆在垂直和水平方向的边缘纹理特征:
但是在高速公路场景下,车辆目标同时存在有明显的中心特征(如车辆的左右两侧的车窗),可以对车辆目标和非车辆目标进行很好的区分。因此本文在原有的Harr-like特征模板库中,设计添加了中心特征模板。该中心模板定义如下,即把矩形D中白色区域像素之和减去黑色区域像素值和,作为该中心特征的特征值,如图7所示:
Feature(x1,y1,x2,y2,s,t)
=intgePicture(1)+intgePicture(4)-intgePicture(2)-intgePicture(3)+(intgePicture(5)+intgePicture(8)-intgePicture(6)-intgePicture(7))*2
其中,intgePicture(x)表示原潜在目标区域图片计算得到的积分图在点x处的矩阵计算值。
如图8所示,本发明设计的中心特征共细分有图中所示的几种类型。
本设计方案,充分考虑了高速公路多变场景下视角变化,光照变化和尺度变化因素,针对每种可能存在的影响因素改进了了相应的Harr-like特征提取过程。总体上提高了检测***的健壮性和准确性。
本发明从高速公路实际环境出发,针对高速公路这一特定场景,在分析了基于视频的高速公路异常停车检测问题及难点后,重点研究了高速公路复杂条件下车辆Haar-like特征提取,以及Adaboost级联分类器停车判别模型应用于高速公路场景时的不足,对基于Haar-like+Adaboost的高速公路停车事件检测算法做出了改进,最终提升了高速公路停车事件检测算法的性能。主要包括:
①复杂条件下车辆Harr-like特征提取方面,分别针对视角变化,通过感兴趣区域视角自动识别和二维图像影射变换,对图像潜在目标区域进行翻转,减小不同视角导致的车辆外观的显著变化;针对光照变化,通过单高斯背景建模所得背景图片进行实时亮度检测,然后通过Gamma变换使得车辆亮度保持小范围波动;针对尺度变化,对原有的Harr-like特征原型在变尺度窗口中映射的过程做出了改进。实验结果表明,该一系列的改进有效减小了车辆Haar-like特征在多变场景下的类内差异,提升了检测算法的泛化能力和识别准确性。
②Adaboost框架下级联分类器判别模型改进方面,首先针对树荫云影水渍等高速公路场景下的局部光斑干扰,研究一种Adaboost框架下基于滞后更新背景模型的候选区域提取方案,通过对比当前图片和背景图片scanny纹理信息,提高了候选区域提取准确度。并对Harr-like特征统计学习算法进行改进,剔除非典型Harr-like特征,在保证训练效果的前提下,提高了训练速度。最后,针对高速公路场景下车辆局部特征呈现点块状分布的特点,在原有算法基础上设计添加了变尺度Harr-like中心特征,使之参与到基于Adaboost的特征筛选过程中,提高了对车辆目标和非车辆目标的分类能力。
经验证,本文提出的***,能够在保证事件检测实时性的前提下,提高检测精度。
应当认识到,本发明的实施例可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术-包括配置有计算机程序的非暂时性计算机可读存储介质在计算机程序中实现,其中如此配置的存储介质使得计算机以特定和预定义的方式操作——根据在具体实施例中描述的方法和附图。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机***通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
此外,可按任何合适的顺序来执行本文描述的过程的操作,除非本文另外指示或以其他方式明显地与上下文矛盾。本文描述的过程(或变型和/或其组合)可在配置有可执行指令的一个或多个计算机***的控制下执行,并且可作为共同地在一个或多个处理器上执行的代码(例如,可执行指令、一个或多个计算机程序或一个或多个应用)、由硬件或其组合来实现。所述计算机程序包括可由一个或多个处理器执行的多个指令。
进一步,所述方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本发明的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本文所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本发明所述的基于大数据日志分析的网站入侵检测方法和技术编程时,本发明还包括计算机本身。
计算机程序能够应用于输入数据以执行本文所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本发明优选的实施例中,转换的数据表示物理和有形的对象,包括显示器上产生的物理和有形对象的特定视觉描绘。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (6)

1.改进的复杂环境车辆特征提取和停车判别方法,其特征在于:包括以下步骤:
步骤S1:对视频图像序列进行视角修正;
步骤S11:进行感兴趣区域提取:从图像中分离出车道区域,去除非车道区域对车灯提取的影响,并得到视角修正区域的原始坐标;
步骤S12:进行区域视角判别:根据四边形感兴趣区域的四个角点,判定车辆对应摄像头的拍摄视角是位于左侧还是右侧;
步骤S13:进行图像翻转:水平翻转图像,使得摄像头拍摄的车辆图像均为同一侧视角;
步骤S2:进行光照修正;
步骤S21:单高斯背景建模;
步骤S22:ROI区域亮度判别:图像亮度指标通过计算当前背景图片与正常光照下图片感兴趣区域平均灰度值的比值来表示,计算表达式如下:
Figure FDA0004036825830000011
其中,α表示当前场景下像素亮度,当α大于1时,当前场景偏亮,当α小于1时,当前场景偏暗;K表示正常光照环境下感兴趣区域的平均灰度值,K值为可调阈值,可根据实际检测进行适度调整;n表示感兴趣区域像素点的个数,xi表示感兴趣区域某像素点的灰度值;
步骤S23:进行Gamma变换:根据Gamma校正,提出一种基于感兴趣区域(ROI)亮度判别的自适应光照修正方案:
Figure FDA0004036825830000012
其中,I(x,y)表示当前图片在坐标为(x,y)点处的像素值大小,其中Gamma变换指数γ=k*α,即当图像亮度偏高时候,Gamma指数大于1,经过变换之后提高了高亮度值区域的对比度;当图像亮度偏暗沉时候,Gamma指数小于1,经过变换之后提高了低亮度区域的对比度;
步骤S3:潜在目标区域候选框提取;
步骤S4:进行尺度修正;
步骤S5:通过Harr-like统计学习分类器进行事件判别。
2.根据权利要求1所述的改进的复杂环境车辆特征提取和停车判别方法,其特征在于:所述步骤S3包括以下子步骤:
步骤S31:采用低背景更新率的混合高斯背景建模;
步骤S32:静置物体判别;
步骤S33:前景二值图片膨胀腐蚀;
步骤S34:基于Scanny提取的局部光斑排除;
步骤S35:输出潜在目标候选区域。
3.根据权利要求1所述的改进的复杂环境车辆特征提取和停车判别方法,其特征在于:所述步骤S4包括以下子步骤:
步骤S41:加载Harr-Like特征弱分类器;
步骤S42:潜在目标区域变尺度窗口遍历;
步骤S43:检测窗口特征重映射;
特征Feature(x1,y1,x2,y2,s=1,t=2)由像素24*24的图片映射到W*H大小的检测窗口,变为Feature(x’1,y’1,x’2,y’2,s=1,t=2),算法如下:
①计算尺度因子:
X方向尺度因子α=W/24;Y方向尺度因子β=H/24;其中,取训练样本图片的大小为24*24像素,潜在目标区域检测窗口遍历到某处的大小为W*H,某一Harr-like边缘特征原型为Feature(x1,y1,x2,y2,s=1,t=2),即该特征矩形在24*24大小的样本图片中位置为:左上角坐标为(x1,y1),右下角坐标为(x2,y2),且由一黑一白两个全等矩形构成;
②计算左上角映射坐标(x’1,y’1):
x’1=[α*x1],y’1=[β*y1],
其中,[]表示对内部元素进行向下取整;
③计算右下角映射坐标(x’2,y’2):
Figure FDA0004036825830000021
Figure FDA0004036825830000022
④得到特征信息Feature(x’1,y’1,x’2,y’2,s=1,t=2),之后通过潜在目标候选区域事先计算好的积分图片计算Harr-like特征的特征值。
4.根据权利要求1所述的改进的复杂环境车辆特征提取和停车判别方法,其特征在于:所述步骤S5包括以下子步骤:
步骤S51:输出每个弱分类器Harr-like特征值大小;
步骤S52:采用弱分类器加权投票;
步骤S53:输出检测结果。
5.根据权利要求1所述的改进的复杂环境车辆特征提取和停车判别方法,其特征在于:所述方法采用改进的Adaboost特征学习***配合进行,包括:
前期剔除非典型特征,在每一个弱分类器的训练过程中,在对所有Harr-like特征遍历筛选之前,首先预判是否为非典型特征,如果是,则不对该类型的特征进行运算;
针对高速公路场景下车辆存在的局部点块状特征,设计变尺度的中心轮廓特征,使之参与到Adaboost特征学习过程中,通过算法得到该中心轮廓特征中分类能力最优选项,提高分类效果。
6.改进的复杂环境车辆Harr-like特征提取和Adaboost框架下停车判别***,其特征在于:所述***包括:
视角修正模块:将不同场景的图像进行视角统一,缩小视角不同引起的Harr-like特征类内差异;
光照修正模块:通过检测实时亮度,对图像进行亮度调节,缩小光照变化引起的Harr-like特征类内差异;
潜在目标区域候选框提取模块:通过背景差分得到前景目标候选区域和目标尺度信息,减小滑动检测窗口遍历时不必要的运算资源浪费,提高检测实时性,同时为下一步尺度修正提供候选区域信息;
尺度修正模块:对候选区域进行变尺度检测窗口遍历,加载好已经训练好的分类器文件,对其中每一个弱分类器的Harr-like特征,进行Harr-like特征在检测窗口的特征重映射,计算得到相应Harr-like特征值;
特征重映射:特征Feature(x1,y1,x2,y2,s=1,t=2)由像素24*24的图片映射到W*H大小的检测窗口,变为Feature(x’1,y’1,x’2,y’2,s=1,t=2),算法如下:
①计算尺度因子:
X方向尺度因子α=W/24;Y方向尺度因子β=H/24;其中,取训练样本图片的大小为24*24像素,潜在目标区域检测窗口遍历到某处的大小为W*H,某一Harr-like边缘特征原型为Feature(x1,y1,x2,y2,s=1,t=2),即该特征矩形在24*24大小的样本图片中位置为:左上角坐标为(x1,y1),右下角坐标为(x2,y2),且由一黑一白两个全等矩形构成;
②计算左上角映射坐标(x’1,y’1):
x’1=[α*x1],y’1=[β*y1],
其中,[]表示对内部元素进行向下取整;
③计算右下角映射坐标(x’2,y’2):
Figure FDA0004036825830000041
Figure FDA0004036825830000042
④得到特征信息Feature(x’1,y’1,x’2,y’2,s=1,t=2),之后通过潜在目标候选区域事先计算好的积分图片计算Harr-like特征的特征值;
Harr-like特征统计学习判别模块:对上一步得到的多个弱分类器特有的Harr-like特征值进行判别,通过加权投票得到最终判决结果。
CN201910464427.XA 2019-05-30 2019-05-30 改进的复杂环境车辆特征提取和停车判别方法 Active CN110188693B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910464427.XA CN110188693B (zh) 2019-05-30 2019-05-30 改进的复杂环境车辆特征提取和停车判别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910464427.XA CN110188693B (zh) 2019-05-30 2019-05-30 改进的复杂环境车辆特征提取和停车判别方法

Publications (2)

Publication Number Publication Date
CN110188693A CN110188693A (zh) 2019-08-30
CN110188693B true CN110188693B (zh) 2023-04-07

Family

ID=67719068

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910464427.XA Active CN110188693B (zh) 2019-05-30 2019-05-30 改进的复杂环境车辆特征提取和停车判别方法

Country Status (1)

Country Link
CN (1) CN110188693B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070172B (zh) * 2020-09-11 2023-12-22 湖南人文科技学院 基于目标性分析的异常目标检测方法、装置及计算机设备
CN113415232B (zh) * 2021-07-07 2022-02-01 深圳前海汉视科技有限公司 一种用于障碍物识别的车灯***

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102637257A (zh) * 2012-03-22 2012-08-15 北京尚易德科技有限公司 一种基于视频的交通车辆检测识别***和方法
WO2015147764A1 (en) * 2014-03-28 2015-10-01 Kisa Mustafa A method for vehicle recognition, measurement of relative speed and distance with a single camera
CN104992160A (zh) * 2015-07-16 2015-10-21 山东大学 一种重型卡车夜间前方车辆检测方法
CN105373794A (zh) * 2015-12-14 2016-03-02 河北工业大学 一种车牌识别方法
CN105608431A (zh) * 2015-12-22 2016-05-25 杭州中威电子股份有限公司 一种基于车辆数目与车流速度的高速公路拥堵检测方法
CN107316036A (zh) * 2017-06-09 2017-11-03 广州大学 一种基于级联分类器的害虫识别方法
CN109299672A (zh) * 2018-09-05 2019-02-01 重庆大学 自适应调节阈值和算法结构的停车事件检测***及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9269012B2 (en) * 2013-08-22 2016-02-23 Amazon Technologies, Inc. Multi-tracker object tracking

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102637257A (zh) * 2012-03-22 2012-08-15 北京尚易德科技有限公司 一种基于视频的交通车辆检测识别***和方法
WO2015147764A1 (en) * 2014-03-28 2015-10-01 Kisa Mustafa A method for vehicle recognition, measurement of relative speed and distance with a single camera
CN104992160A (zh) * 2015-07-16 2015-10-21 山东大学 一种重型卡车夜间前方车辆检测方法
CN105373794A (zh) * 2015-12-14 2016-03-02 河北工业大学 一种车牌识别方法
CN105608431A (zh) * 2015-12-22 2016-05-25 杭州中威电子股份有限公司 一种基于车辆数目与车流速度的高速公路拥堵检测方法
CN107316036A (zh) * 2017-06-09 2017-11-03 广州大学 一种基于级联分类器的害虫识别方法
CN109299672A (zh) * 2018-09-05 2019-02-01 重庆大学 自适应调节阈值和算法结构的停车事件检测***及方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于Adaboost与背景差分级联的室内人数统计方法;叶锋等;《福建师范大学学报(自然科学版)》(第01期);12-18 *
多特征多阈值级联AdaBoost行人检测器;崔华等;《交通运输工程学报》;20150415(第02期);113-121 *
计算机视觉在室外移动机器人中的应用;胡斌等;《自动化学报》;20060922(第05期);138-148 *

Also Published As

Publication number Publication date
CN110188693A (zh) 2019-08-30

Similar Documents

Publication Publication Date Title
US10088600B2 (en) Weather recognition method and device based on image information detection
CN107545239B (zh) 一种基于车牌识别与车辆特征匹配的套牌检测方法
CN115082683B (zh) 一种基于图像处理的注塑缺陷检测方法
CN108615226B (zh) 一种基于生成式对抗网络的图像去雾方法
Parker et al. An approach to license plate recognition
US11775875B2 (en) Method for recognizing fog concentration of hazy image
CN107909081B (zh) 一种深度学习中图像数据集的快速获取和快速标定方法
CN109948566B (zh) 一种基于权重融合与特征选择的双流人脸反欺诈检测方法
US7747079B2 (en) Method and system for learning spatio-spectral features in an image
CN109255326B (zh) 一种基于多维信息特征融合的交通场景烟雾智能检测方法
CN110717896A (zh) 基于显著性标签信息传播模型的板带钢表面缺陷检测方法
CN111325769A (zh) 一种目标对象检测方法及装置
CN110689003A (zh) 低照度成像车牌识别方法、***、计算机设备及存储介质
CN110188693B (zh) 改进的复杂环境车辆特征提取和停车判别方法
CN111489330A (zh) 基于多源信息融合的弱小目标检测方法
CN116664565A (zh) 一种光伏太阳能电池片的隐裂检测方法及***
Tangsakul et al. Single image haze removal using deep cellular automata learning
CN110060221B (zh) 一种基于无人机航拍图像的桥梁车辆检测方法
CN107038690A (zh) 一种基于多特征融合的运动阴影去除方法
CN113743421A (zh) 一种水稻叶片花青素显色区域分割及定量分析的方法
TWI498830B (zh) 不均勻光線下的車牌辨識方法及系統
Bala et al. Image simulation for automatic license plate recognition
CN110633705A (zh) 一种低照度成像车牌识别方法及装置
CN111402185A (zh) 一种图像检测方法及装置
Long et al. An Efficient Method For Dark License Plate Detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant