CN110490116A - 一种选择性搜索与机器学习分类的远红外行人检测方法 - Google Patents

一种选择性搜索与机器学习分类的远红外行人检测方法 Download PDF

Info

Publication number
CN110490116A
CN110490116A CN201910746284.1A CN201910746284A CN110490116A CN 110490116 A CN110490116 A CN 110490116A CN 201910746284 A CN201910746284 A CN 201910746284A CN 110490116 A CN110490116 A CN 110490116A
Authority
CN
China
Prior art keywords
pedestrian
candidate region
selective search
far infrared
sliding window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910746284.1A
Other languages
English (en)
Inventor
郑永森
周殿清
李进业
林琳
周伟滨
李卓思
其他发明人请求不公开姓名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Sanmu Intelligent Technology Co Ltd
Original Assignee
Guangzhou Sanmu Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Sanmu Intelligent Technology Co Ltd filed Critical Guangzhou Sanmu Intelligent Technology Co Ltd
Priority to CN201910746284.1A priority Critical patent/CN110490116A/zh
Publication of CN110490116A publication Critical patent/CN110490116A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明公开一种选择性搜索与机器学习分类的远红外行人检测方法,经过选择性搜索算法结合滑动窗口方法从远红外图像中生成候选区域;根据候选区域的不同高度,构建基于局部强度差异直方图特征的双分支支持向量类器同时对候选区域进行分类,获得行人检测框;在此基础上,实现基于行人高度和行人运动方向估计的辅助驾驶提醒功能。***包括:利用选择性搜索与局部滑窗技术获取行人候选区域的候选区域生成模块、基于局部强度差异直方图特征的双分支支持向量机实现候选区域分类的候选区域分类模块、双分支支持向量机训练模块、基于高度和行人运动方向估计的危险行人预警模块。本发明能够兼顾检测准确率和检测速度,算法性能达到实用化要求,并且具备辅助驾驶提醒功能。

Description

一种选择性搜索与机器学习分类的远红外行人检测方法
技术领域
本发明属于计算机视觉与模式识别、图像处理和计算机视觉的辅助驾驶***领域,尤其涉及一种选择性搜索与机器学习分类的远红外行人检测方法。
背景技术
远红外亦称为热红外,根据场景温度成像、不依赖于场景光照,特别适合于需要同时在白天和夜间进行行人检测的车载辅助驾驶***。然而,针对基于热红外的行人检测辅助驾驶***,目前国内普遍存在***检测率低、虚警率高、实时性差的问题,导致无法满足实际应用要求。故研究基于热成像的车载行人检测方法,直接来源于社会与市场的需求。
王小蕾(基于候选区域列举的红外行人检测研究[J]. 淮北师范大学学报(自然科学版), 2019, 40(1): 73-80.)通过选择性搜索算法得到分割结果,然后利用先验知识对分割结果进行合并获得候选区域,在此基础上,基于积分通道特征的Adaboost分类器实现远红外行人检测。该方法虽然取得了较好的实时性效果,但比较依赖于主观的先验知识,而且仅设计了单分支的分类器,未对不同距离的行人外观模式进行分别建模,精度未能达到实用化精度。
石永彪等(基于聚合通道特征的红外行人检测方法[J]. 红外, 2018, 39(05):44-50.)通过图像金字塔上滑窗方法获取远红外行人候选区域,然后基于融合了多种不同的特征的Adaboost分类器实现远红外行人检测。该方法验证了融合多种特征能显著提升远红外行人检测的精度,然而该方法在多个图像金字塔的基础上进行滑窗以获得候选区域,产生了数量庞大的候选区域,虽然特征融合提升了精度,但实时性确比较差,难以满足辅助驾驶***中的实时性要求。
汤琳等(基于HOG特征优化的夜间行人快速识别方案[J]. 计算机工程, 2015, 41(7): 250-256.)通过熵加权方向梯度直方图特征增强对远红外行人的描述,然后头部模板验证和加速的支持向量机实现远红外行人检测。虽然相对于传统的方向梯度直方图特征精度更高,但熵加权方向梯度直方图特征只对轮廓比较明显的远红外行才有比较明显的描述能力提升,对于轮廓特征不明显的远红外行人,改进效果较差。故该方法无法应对多个场景、多个季节下的红外行人检测问题。
专利一种基于红外行人亮度统计特征的夜间行人检测方法(中国专利授权公告号:CN104778453A,授权公告日:2015 年07 月15 日) 构造了一个区分投票区间划分的亮度直方图特征,将其串联梯度方向直方图特征,将这两个特征进行联合构成最终的特征描述符,利用Adaboost结合决策树对候选区域进行分类,完成行人检测。该方法算法比较简单,虽然实时性较好,但由于只是提取了表征能力较差的亮度和梯度统计特征进行候选区域描述,导致***的精度较差。
综上所述,虽然基于远红外成像的车载行人检测方法已经取得了一定的成果,但是,为了满足实际应用的要求,迫切需要在检测准确率、实时性方面做出进一步的改进。
发明内容
本发明实施例的目的在于提供一种选择性搜索与机器学习分类的远红外行人检测方法,旨在解决现有的基于远红外摄像头的车载行人检测方法的识别准确率不达标和/或不尽如人意、实时性需要提高、鲁棒性不强的问题。
一种选择性搜索与机器学习分类的远红外行人检测方法,其特征在于通过选择性搜索算法结合局部滑窗技术生成候选区域,然后构建一个基于局部强度差异直方图特征的双分类器得到检测结果,并根据行人的高度和运动方向输出危险行人报警信息,完成辅助驾驶,具体包括:
步骤一,利用选择性搜索与局部滑动窗口技术获取红外行人候选区域;
步骤二,基于局部强度差异直方图特征的双分支支持向量机实现候选区域分类;
步骤三,根据行人的高度和运动方向输出危险行人报警信息;
进一步,权利要求1所述一种选择性搜索与机器学习分类的远红外行人检测方法,其特征在于,步骤一所述选择性搜索算法结合局部滑窗技术指,选择性搜索算法获得初步候选区域后,在初步候选区域的基础上进行局部滑窗,从而获得最终的候选区域,以弥补目前的选择性搜索算法不能在各种场景获得所有行人候选区域的不足;所述的局部滑窗技术指,对选择性搜索所得的每个矩形框的左上角坐标,分别按照15×30 像素2、75×135 像素2的局部窗口大小进行滑窗,以获得最终的红外行人候选区域。
进一步,权利要求1所述一种选择性搜索与机器学习分类的远红外行人检测方法,其特征在于,步骤二所述的双分支分类器指根据候选区域的高度划分样本空间,构成两个互不相交的样本子集;在每一个样本子集中,提取候选区域的局部强度差异直方图特征,并通过非线性支持向量机学习算法获得双分支结构分类器,将所得的分类器对候选区域进行分类,获得行人检测结果。
进一步,权利要求1所述一种选择性搜索与机器学习分类的远红外行人检测方法,其特征在于,步骤三所述根据行人的高度和运动方向输出危险行人报警信息指对行人高度高于120 个像素或行人从右边向做运动或从左向右运动时,***才输出报警信息,警示驾驶员注意车辆前方危险行人。
本发明提供的一种选择性搜索与机器学习分类的远红外行人检测方法,与现有的基于车载远红外摄像头的行人检测技术相比,本发明具有如下优点和效果:通过在分割结果的基础上进行局部滑窗获取候选区域,弥补了选择性搜索算法进行红外图像分割的不足,能获得更加准确的行人候选区域;设计了基于强度差异直方图特征的双分支支持向量机分类器,相对于单分支分类器的方法,能根据行人的不同距离选择最合适的分支以获得更高的分类精度;同时,强度差异直方图特征是专门针对了红外行人的成像特点、改进了传统的梯度直方图而得,对不同场景下的红外行人具有更高的表征能力;本***不仅能在视频中检测到行人,而且具备基于行人高度和行人运动放心的危险行人预警功能。此外,本***在多种户外交通场景下,能实时运行,并且***准确率较高,满足实际应用的需求。
附图说明
图1是本发明实施例提供的一种选择性搜索与机器学习分类的远红外行人检测方法;
图2是本发明实施例提供的一种选择性搜索与机器学习分类的远红外行人检测方法结构示意图;
图中:A、候选区域生成模块;B、候选区域分类训练模块;C、危险行人预警模块; D、分类器离线训练模块。
图3是本发明实施例提供的基于局部强度差异直方图特征的双分支结构支持向量机分类器结构的实施例图;
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
下面结合附图及具体实施例对本发明的应用原理作进一步描述。
如图1所示,本发明实施例的一种选择性搜索与机器学习分类的远红外行人检测方法包括以下步骤:
S101,利用选择性搜索与局部滑动窗口技术获取红外行人候选区域;
S102,基于局部强度差异直方图特征的双分支支持向量机实现候选区域分类;
S103,根据行人的高度和运动方向输出危险行人报警信息;
步骤S101所述选择性搜索算法结合局部滑窗技术指,选择性搜索算法获得初步候选区域后,在初步候选区域的基础上进行局部滑窗,从而获得最终的候选区域,以弥补目前的选择性搜索算法不能在各种场景获得所有行人候选区域的不足;所述的局部滑窗技术指,对选择性搜索所得的每个矩形框的左上角坐标,分别按照15×30 像素2、75×135 像素2的局部窗口大小进行滑窗,以获得最终的红外行人候选区域。
步骤S102所述的双分支分类器指根据候选区域的高度划分样本空间,构成两个互不相交的样本子集;在每一个样本子集中,提取候选区域的局部强度差异直方图特征,并通过非线性支持向量机学习算法获得双分支结构分类器,将所得的分类器对候选区域进行分类,获得行人检测结果。
步骤S103所述根据行人的高度和运动方向输出危险行人报警信息指对行人高度高于120 个像素或行人从右边向做运动或从左向右运动时,***才输出报警信息,警示驾驶员注意车辆前方危险行人。
如图2所示,本发明实施例的一种选择性搜索与机器学习分类的远红外行人检测方法主要由候选区域生成模块A、候选区域分类模块B、危险行人预警模块C、分类器离线训练模块D组成。
候选区域选取模块A,利用选择性搜索与局部滑窗技术相结合,快速准确地获取行人候选区域。
候选区域分类模块B,与候选区域选取模块A和分类器离线训练模块D连接,根据候选区域的高度大小,对候选区域在线双分支分类。
危险行人预警模块C,根据非线性支持向量机所得到的行人目标,根据行人目标对应候选区域的高度和候选区域的运动方向,确定是否输出闪屏报警信号。
分类器离线训练模块D,用于收集样本、划分样本、尺度缩放和训练分类器、离线确定径向基核函数非线性支持向量机的支持向量参数和截距。
本发明的具体实施例:
本发明方法的整体流程如图1所示,本发明方法主体包括三部分:1. 利用选择性搜索与局部滑动窗口技术获取红外行人候选区域;2. 基于局部强度差异直方图特征的双分支支持向量机实现候选区域分类;3. 根据行人的高度和运动方向输出危险行人报警信息。
1.利用选择性搜索与局部滑动窗口技术获取红外行人候选区域
本发明的候选区域生成,基于目前的选择性搜索算法所得到的低精度候选区域,在该候选区域的基础上,利用所有低精度候选区域的左上角坐标,通过局部滑窗技术,以获得最终的远红外行人候选区域。通过以上两个主要步骤,实现利用选择性搜索区域与局部滑动窗口技术获取红外行人候选区域。故本发明专利的候选区域生成阶段,主要包括两个步骤,第一步:对原始红外图像执行选择性搜索算法获得低精度候选区域,第二步:根据低精度候选区域的左上角坐标,利用局部滑动窗口技术获取红外行人候选区域。
1.1 对原始红外图像执行选择性搜索算法获得低精度候选区域
选择性搜索算法主要包括如下两个步骤:
1)获得图像分割集
将原始远红外图像的表示为G,每个像素点代表图的一个顶点,相邻的两个像素点构成一条边,像素颜色值的差异构成边的权值。然后,将原始输入图像按如下图分割的方式执行分割:a)对于图G的所有边,按照权值进行排序(升序);b)假设S[0]是一个原始分割,相当于每个顶点当做是一个分割区域。c)根据上次S[q-1]的构建,选择一条边o[q](v i, v j),如果v iv j在分割的互不相交的区域中,比较这条边的权值与这两个分割区域之间的最小分割内部差M,如果o[q](v i, v j)< M,那么合并这两个区域,其他区域不变;如果否,什么都不做,并且重复执行此步骤。最后得到的就是所求的分割S = S[m]。
2)分割集融合生成候选区域
该阶段即将生成的分割集通过相似性准则进行多次融合,以获得多个候选区域。具体实施流程如下所示:a)计算区域集R中每个相邻区域的相似度;b)将相似度最高的两个区域进行合并(同时,删除掉这两个区域),得到一个新的区域,添加进R;c)计算新集与所有子集的相似度;d)跳至b),直至S为空为止。在a)中,每个相邻区域的相似度,传统的选择性搜索算法通过图像灰度和空间交叠加权进行度量。本发明提出计算候选区域的强度自相似性特征然后计算特征的切比雪夫距离以完成相似性度量,强度自相似特征可以度量物体内部的自相似性,且所提取的特征维度更高、信息更充分,所以本发明改进了度量的准则。
1.2 根据低精度候选区域的左上角坐标,利用局部滑动窗口技术获取红外行人候选区域
本发明专利中,选择性搜索算法获得的候选区域为精度较低的初步候选区域,在此基础上,本发明专利提出在初步候选区域的基础上进行局部滑窗,从而获得最终的候选区域,以弥补目前的选择性搜索算法不能在各种场景获得所有行人候选区域的不足;具体地,对选择性搜索所得的每个矩形框的左上角坐标,以坐上角坐标为滑窗的左上角坐标,分别按照15×30 像素2、75×135 像素2的局部窗口大小进行滑窗,以获得最终的红外行人候选区域。为候选区域特征提取做准备。
2.基于局部强度差异直方图特征的双分支支持向量机实现候选区域分类
基于局部强度差异直方图特征的双分支支持向量机实现候选区域分类器包括双分支分类器离线训练和分类器在线检测两个部分。
2.1分类器离线训练
1)训练样本准备
通过车载远红外摄像的方式,采集高速公路、国道、市区、郊区场景的数据,共获得长达300 个小时的视频。从中进行随机抽样获取图片。共获得100 万张原始红外图像,对其中出现的所有行人进行手工标注,其中出现的所有行人正样本,构成数据集Dataset1;在10 万张不包含行人的远红外图像中,通过本发明专利的第一步获取候选区域的方法获得非行人样本,即利用选择性搜索与局部滑动窗口技术获取红候选区域,构成数据集Dataset2。在此基础上,合并Dataset1和Dataset2样本集,根据样本高度将合并后的样本集划分为两个互不相交的子集,高度在10 至50 个像素之间(含10 和50 个像素)的样本归为远距离样本,高度大于50 个像素(含50 个像素)的样本归为中近距离样本。
2)双分支支持向量机分类器训练
通过最近邻插值算法对远、中近距离样本进行尺度调整,调整后的样本尺度分别为15×30 像素2、75×135 像素2,在这类尺度的训练集上训练基于强度差异直方图特征的非线性支持向量机分类器,获得双分支支持向量机分类器。
2.2 双分支支持向量机在线检测
对某候选区域,根据其高度,对于高度小于10 个像素或大于220 个像素的候选区域,直接认为其为非行人目标。对于其它高度的候选区域,按图3 选取一个支持向量机分类器分支,提取强度差异直方图特征,按照公式(1)所示的非线性支持向量机的判决函数进行分类。
(1)
其中K(x i, x) 是高斯径向基核函数,x 是候选区域的局部强度直方图特征向量,b 是常量偏移,输入向量x 的响应是f (x),若f (x) > 0,则在双分支支持向量机分类阶段,判断其为行人目标,否则,双分支支持向量机分类阶段,判断其为非行人目标,从而完成对远红外图像中的行人的检测。
3.根据行人的高度和运动方向输出危险行人报警信息
当新人的高度大于150 个像素时,表明行人与车辆的距离较近,此时,本发明的算法以闪屏的方式,提醒驾驶员注意道路行人安全。此外,本发明对连续两帧的行人目标(高度大于100 个像素)进行最近邻匹配跟踪,当后一帧的行人目标由左往右移动或者由右往左移动时(即相邻两帧同一个行人的中点点左边差异大于20 个像素),亦会以闪屏的方式,提醒驾驶员注意道路行人安全。从而完成根据行人的高度和运动方向输出危险行人报警信息,实现基于车载远红外行人检测的辅助驾驶算法。闪屏具体实现方式为:自满足报警条件时刻起,每隔一帧显示一幅全黄色图像,持续时间为50 帧。

Claims (4)

1.一种选择性搜索与机器学习分类的远红外行人检测方法,其特征在于通过选择性搜索算法结合局部滑窗技术生成候选区域,然后构建一个基于局部强度差异直方图特征的双分类器得到检测结果,并根据行人的高度和运动方向输出危险行人报警信息,完成辅助驾驶,具体包括:
步骤一,利用选择性搜索与局部滑动窗口技术获取红外行人候选区域;
步骤二,基于局部强度差异直方图特征的双分支支持向量机实现候选区域分类;
步骤三,根据行人的高度和运动方向输出危险行人报警信息。
2.权利要求1所述一种选择性搜索与机器学习分类的远红外行人检测方法,其特征在于,步骤一所述选择性搜索算法结合局部滑窗技术指,选择性搜索算法获得初步候选区域后,在初步候选区域的基础上进行局部滑窗,从而获得最终的候选区域,以弥补目前的选择性搜索算法不能在各种场景获得所有行人候选区域的不足;所述的局部滑窗技术指,对选择性搜索所得的每个矩形框的左上角坐标,分别按照15×30 像素2、75×135 像素2的局部窗口大小进行滑窗,以获得最终的红外行人候选区域。
3.权利要求1所述一种选择性搜索与机器学习分类的远红外行人检测方法,其特征在于,步骤二所述的双分支分类器指根据候选区域的高度划分样本空间,构成两个互不相交的样本子集;在每一个样本子集中,提取候选区域的局部强度差异直方图特征,并通过非线性支持向量机学习算法获得双分支结构分类器,将所得的分类器对候选区域进行分类,获得行人检测结果。
4.权利要求1所述一种选择性搜索与机器学习分类的远红外行人检测方法,其特征在于,步骤三所述根据行人的高度和运动方向输出危险行人报警信息指对行人高度高于120个像素或行人从右边向做运动或从左向右运动时,***才输出报警信息,警示驾驶员注意车辆前方危险行人。
CN201910746284.1A 2019-08-13 2019-08-13 一种选择性搜索与机器学习分类的远红外行人检测方法 Pending CN110490116A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910746284.1A CN110490116A (zh) 2019-08-13 2019-08-13 一种选择性搜索与机器学习分类的远红外行人检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910746284.1A CN110490116A (zh) 2019-08-13 2019-08-13 一种选择性搜索与机器学习分类的远红外行人检测方法

Publications (1)

Publication Number Publication Date
CN110490116A true CN110490116A (zh) 2019-11-22

Family

ID=68549830

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910746284.1A Pending CN110490116A (zh) 2019-08-13 2019-08-13 一种选择性搜索与机器学习分类的远红外行人检测方法

Country Status (1)

Country Link
CN (1) CN110490116A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822234A (zh) * 2021-11-22 2021-12-21 成都星宇融科电力电子股份有限公司 基于车载热成像的目标检测预警分析方法、***及终端

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103198332A (zh) * 2012-12-14 2013-07-10 华南理工大学 一种实时鲁棒的远红外车载行人检测方法
US20140241623A1 (en) * 2013-02-22 2014-08-28 Nec Laboratories America, Inc. Window Dependent Feature Regions and Strict Spatial Layout for Object Detection
CN104091171A (zh) * 2014-07-04 2014-10-08 华南理工大学 基于局部特征的车载远红外行人检测***及方法
US20160210533A1 (en) * 2015-01-19 2016-07-21 Ebay Inc Fine-grained categorization
CN106096561A (zh) * 2016-06-16 2016-11-09 重庆邮电大学 基于图像块深度学习特征的红外行人检测方法
CN109166094A (zh) * 2018-07-11 2019-01-08 华南理工大学 一种基于深度学习的绝缘子故障定位识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103198332A (zh) * 2012-12-14 2013-07-10 华南理工大学 一种实时鲁棒的远红外车载行人检测方法
US20140241623A1 (en) * 2013-02-22 2014-08-28 Nec Laboratories America, Inc. Window Dependent Feature Regions and Strict Spatial Layout for Object Detection
CN104091171A (zh) * 2014-07-04 2014-10-08 华南理工大学 基于局部特征的车载远红外行人检测***及方法
US20160210533A1 (en) * 2015-01-19 2016-07-21 Ebay Inc Fine-grained categorization
CN106096561A (zh) * 2016-06-16 2016-11-09 重庆邮电大学 基于图像块深度学习特征的红外行人检测方法
CN109166094A (zh) * 2018-07-11 2019-01-08 华南理工大学 一种基于深度学习的绝缘子故障定位识别方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
D.S. KIM等: "Histograms of local intensity differences for pedestrian classification in far-infrared images", 《ELECTRONICS LETTERS》 *
THANH BINH NGUYEN等: "A Real-time Pedestr ian Detection based on AGMM and HOG for Embedded Surveillance", 《JOURNAL OF KOREA MULTIMEDIA SOCIETY》 *
YINGFENG CAI等: "Saliency-Based Pedestrian Detection in Far Infrared Images", 《IEEE ACCESS ( VOLUME: 5)》 *
方卫华: "《跨拦河建筑物安全状态感知、融合与预测》", 31 December 2018, 南京:河海大学出版社 *
李熙莹等: "基于选择性搜索算法的车脸部件检测", 《计算机工程与科学》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822234A (zh) * 2021-11-22 2021-12-21 成都星宇融科电力电子股份有限公司 基于车载热成像的目标检测预警分析方法、***及终端

Similar Documents

Publication Publication Date Title
Li et al. Traffic light recognition for complex scene with fusion detections
CN107729818B (zh) 一种基于深度学习的多特征融合车辆重识别方法
CN104091171B (zh) 基于局部特征的车载远红外行人检测***及方法
CN103902976B (zh) 一种基于红外图像的行人检测方法
CN103198332B (zh) 一种实时鲁棒的远红外车载行人检测方法
Fang et al. Road-sign detection and tracking
CN105913040B (zh) 暗视觉条件下的双摄像头实时行人检测***
CN105260712B (zh) 一种车辆前方行人检测方法及***
Cao et al. A low-cost pedestrian-detection system with a single optical camera
CN103366154B (zh) 可重配置的畅通路径检测***
CN109948418A (zh) 一种基于深度学习的违反导向违法自动审核方法
CN106339657B (zh) 基于监控视频的秸秆焚烧监测方法、装置
CN110263786A (zh) 一种基于特征维度融合的道路多目标识别***及方法
CN107301378A (zh) 图像中多分类器集成的行人检测方法和***
CN104504395A (zh) 基于神经网络实现人车分类的方法和***
CN103903018A (zh) 一种复杂场景中对车牌进行定位的方法和***
CN110347870A (zh) 基于视觉显著性检测与层次聚类法的视频摘要化生成方法
CN103034843A (zh) 一种基于单目视觉的夜间车辆检测方法
CN115601717B (zh) 基于深度学习的交通违法行为分类检测方法及SoC芯片
Ruta et al. Towards real-time traffic sign recognition by class-specific discriminative features
CN111414861A (zh) 基于深度学习实现行人及非机动车辆检测处理的方法
Fleyeh et al. Traffic sign detection based on AdaBoost color segmentation and SVM classification
Zhang et al. Automatic detection of road traffic signs from natural scene images based on pixel vector and central projected shape feature
Prasad et al. HOG, LBP and SVM based traffic density estimation at intersection
CN115376108A (zh) 一种复杂天气下障碍物检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191122

RJ01 Rejection of invention patent application after publication