CN110781769A - 一种快速行人检测与跟踪的方法 - Google Patents

一种快速行人检测与跟踪的方法 Download PDF

Info

Publication number
CN110781769A
CN110781769A CN201910947245.8A CN201910947245A CN110781769A CN 110781769 A CN110781769 A CN 110781769A CN 201910947245 A CN201910947245 A CN 201910947245A CN 110781769 A CN110781769 A CN 110781769A
Authority
CN
China
Prior art keywords
pedestrian
frame
template
image
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910947245.8A
Other languages
English (en)
Inventor
王朗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo Institute of Technology of ZJU
Original Assignee
Ningbo Institute of Technology of ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo Institute of Technology of ZJU filed Critical Ningbo Institute of Technology of ZJU
Priority to CN201910947245.8A priority Critical patent/CN110781769A/zh
Publication of CN110781769A publication Critical patent/CN110781769A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提出一种基于Vibe融合HOG‑SVM方案的快速行人检测与跟踪的方法,1)利用前景检测找出移动目标所在区域;2)仅在这些移动目标所在区域内执行行人检测过程,若检测到行人,记录其位置并转至步骤3);若没有检测到行人,则重复步骤1)、2);3)利用模板匹配算法首先在该位置所在区域搜索行人,而在跟踪过程中,若HOG+SVM检测行人失败时,则模板匹配算法根据上一次检测模板来跟踪行人最有可能的位置;该方法具有较好的精度和实时性。

Description

一种快速行人检测与跟踪的方法
技术领域
本发明涉及行人检测与跟踪技术领域,具体讲是一种快速行人检测与跟踪的方法。
背景技术
目前,行人检测的主要任务是从视频序列中发现动态行人。随着计算机视觉的发展,行人检测在智能辅助驾驶,智能监控,行人分析和智能机器人等领域得到了广泛的应用。然而,由于现实生活背景的复杂性,行人姿势的多样性和拍摄角度的多样化,我们要快速有效地从视频中提取行人是一个巨大的挑战。通过这种方式,行人检测一直是计算机视觉研究领域的一个热门话题。目前,行人检测方法主要分为两种:传统的行人检测方法和基于机器学习的行人检测方法。机器学习是目前行人检测的主流方法。它主要利用静态图像中的边缘,形状和颜色等图像特征来描述行人区域。其中,一些特征可以用来很好地检测行人,如Haar 小波特征,HOG特征,Edgelet特征,Shapelet特征和形状轮廓模板特征等。
目标跟踪是实时定位感兴趣的个别或多个特定对象并获得准确的运动状态。运动物体的外观,轮廓,位置和运动状态在相邻视频帧中具有良好的稳定性和相似性。目标及其周围背景在图像外观上有一些差异。根据这些基本条件,跟踪算法提取描述目标外观的特征,或建立与背景不同的目标模型。目标跟踪算法可以主要分为基于活动轮廓模型的跟踪,基于特征的跟踪,基于区域的跟踪和基于模型的跟踪等。与基于机器学习的方法相比,它们具有各自的优势:它们是通常计算过载率低,不需要收集大量的行人或非行人样本。
直方图梯度(HOG)特征用于目标识别,由Dalal和Triggs于2005年提出。 Dalal将HOG特征与SVM分类器相结合,实现了行人检测领域的突破。HOG特征方法密集地提取图像窗口中定向梯度的局部直方图,可以完全提取行人形状信息和外观信息。它具有极好的辨别力,可以区分行人和其他目标。但是计算HOG 特征需要密集和复杂的扫描,这极大地导致了高计算复杂性和降低的实时性能。
综上所述,行人检测与跟踪的方法存在精度(准确性)和实时性两者的矛盾问题,本申请人旨在进一步研究,兼顾精度和实时性,提出一种快速行人检测与跟踪的方法。
发明内容
本发明所要解决的技术问题是,克服现有技术的缺陷,提供一种基于Vibe 融合HOG-SVM方案的快速行人检测与跟踪的方法,该方法具有较好的精度和实时性。
为解决上述技术问题,本发明提出一种快速行人检测与跟踪的方法,包括以下步骤:
1)利用前景检测找出移动目标所在区域,该步骤中:基于HSV颜色空间的算法删除目标阴影,然后利用Vibe方法、侵蚀和扩张、四邻域的行人轮廓算法和边界扩展来从视频中提取移动目标所在区域;
2)仅在这些移动目标所在区域内执行行人检测过程,该检测过程包括:计算提取所述区域的HOG特征,然后将其发送到SVM分类器,以检测移动目标所在区域内是否有行人;若检测到行人,记录其位置并转至步骤3);若没有检测到行人,则重复步骤1)、2);
3)利用模板匹配算法首先在该位置所在区域搜索行人,而在跟踪过程中,若HOG+SVM检测行人失败时,则模板匹配算法根据上一次检测模板来跟踪行人最有可能的位置;在匹配时,设置一个计时器,当模板匹配的持续时间超过n秒时,将被视为丢失行人,视为模板匹配失败,在模板匹配失败的情况下,使用 Vibe+HOG+SVM算法在当前整个视频帧上重新初始化行人跟踪。
采用上述结构后,与现有技术相比,本发明具有以下优点:本申请根据视频监控的特点提出了一种改进的方法,第1)步骤是使用Vibe方法提取视频中的前景对象区域,但是物体的阴影会影响行人检测的效率,因此本申请在Vibe方法之前利用HSV颜色空间法去除了每帧的阴影。然后,执行侵蚀和扩张、四邻域搜索算法和边界扩展,以进一步改变所提取的前景。第2)步骤,计算提取区域的方向梯度直方图(HOG)特征,然后将其发送到支持向量机(SVM)分类器,以判断行人位置。第3)步骤是使用模板匹配技术来进一步跟踪检测到的行人并处理跟踪丢失情况,接下来设置计时器功能,保证算法的实时性要求。实验结果表明,本申请在识别精度和处理速度方面均优于传统的HOG+SVM和GMM+HOG+ SVM算法,即具有较好的精度和实时性。
作为改进,第1)步骤中,结合正常行人姿势和形态的特征,并根据一套行人检测中的移动区域边界扩张的规则来划分前景提取边界,所述规则为:(1) 当一个边框很小,另一个边框很大,大边框直接位于小边框之上,且两者非常接近,则两者合并;(2)当一个边框很小,另一个边框很大,小边框直接位于大边框上方,且两者非常接近,则两者合并;(3)当一个边框很小,另一个边框很大,大边框完全包含小边框,则小边框被删除;是否接近通过判断两边框边界之间最小距离来判断,该最小距离采用像素值作为阈值进行限定,该阈值的取值范围为自然数3~8,包括3和8,比如阈值为3,则表示大小边框边界距离以3个像素作为阈值,小于或等于3个像素则判定为接近,通过这种方式,我们的方案可以更准确地划分移动区域的边界,从而更有利于精度和实时性的提升;另外,阈值的取值范围为自然数3~8,有利于适应不同的照片质量,从而更有利于精度和实时性的提升。
作为改进,所述匹配选择归一化的平方差分匹配方法,通过归一化模板图像与要匹配的图像的灰度值差的平方和来确定匹配度,这样,更有利于精度和实时性的提升。
设置模板图像M(i,j)的大小为nXm,模板图像M(i,j)叠放在待匹配图像P 上平移,图P大小记为WXH,
Figure BDA0002224141540000032
模板图像覆盖被搜索图的那块区域也即重叠区域设S(i,j),其中(i,j)为S(i,j)在图P上的图左下角坐标,搜索范围是:1≤i≤W-n,1≤j≤H-m,接下来,模板图像在要被搜索的图像上遍历比对,模板图像下的重叠区域设置为R(i,j),其中(i,j)是待匹配图像P中重叠区域S(i,j)的坐标位置;
该匹配方法的归一化平方差定义如下:
Figure BDA0002224141540000031
上式中的R(i,j)值越小,与模板越相似。当值为0时,表示在该位置找到最佳匹配,但在实际***中,模板几乎不可能与模板下的重叠区域完全相同,因此为0的概率非常小。
作为改进,将所述值为最小值的位置视为目标位置,更有利于精度和实时性两者的平衡。
附图说明
图1为本发明一种快速行人检测与跟踪的方法的流程示意图。
图2为删除目标阴影示意图。
图3为基于四邻域的行人轮廓搜索算法示意图。
图4为行人检测中的移动区域边界扩张示意图。
图5为场景一使用HOG+SVM方法的行人跟踪检测结果示意图。
图6为场景一使用GMM+HOG+SVM方法的行人跟踪检测结果示意图。
图7为场景一使用本发明方法的行人跟踪检测结果示意图。
图8为场景二使用HOG+SVM方法的行人跟踪检测结果示意图。
图9为场景二使用GMM+HOG+SVM方法的行人跟踪检测结果示意图。
图10为场景二使用本发明方法的行人跟踪检测结果示意图。
图11为场景一使用HOG+SVM方法的双行人跟踪检测结果示意图。
图12为场景一使用GMM+HOG+SVM方法的双行人跟踪检测结果示意图。
图13为场景一使用本发明方法的双行人跟踪检测结果示意图。
具体实施方式
下面对本发明作进一步详细的说明:
本发明采用的技术方案的主要步骤分别如下:
第1)步是去除阴影效果的影响,本发明去除了视频图像的阴影,然后利用 Vibe方法,侵蚀和扩张,四邻域搜索算法和边界扩展来从视频中提取移动区域。
使用四邻域搜索算法(不包括小像素干扰)的不完美前景提取会导致头部和身体的分离,这对目标检测是有害的。为了防止情况恶化,本发明结合了正常行人姿势和形态的特征,然后制定了一套合并或删除边框的规则:(1)当一个边框很小,另一个边框很大,大边框直接位于小边框之上,且两者非常接近,则两者合并;(2)当一个边框很小,另一个边框很大,小边框直接位于大边框上方,且两者非常接近,则两者合并;(3)当一个边框很小,另一个边框很大,大边框完全包含小边框,则小边框被删除。通过这种方式,本发明可以更准确地划分边界。
是否接近通过判断两边框边界之间最小距离来判断,该最小距离采用像素值作为阈值进行限定,该阈值的取值范围为自然数3~8,包括3和8,本例中取3。
在移动区域,我们还应该考虑前景提取不包含整个人,一些小的移动区域将丢失,例如:头部,脚部等。因此,HOG+SVM算法无法有效地检测运动物体区域中的行人。因此,本发明方法将适当调整边框的大小。此操作后,整个移动物体将位于边界内。
第2)步仅在这些移动区域内执行行人检测过程,从而避免在整个测试帧序列上进行穷举滑动窗口搜索。
计算提取区域的HOG特征,然后将其发送到SVM分类器。一旦检测到行人,第3步中模板匹配方法用于跟踪检测到的行人。找到行人后,记录其位置并围绕它计算感兴趣的区域。然后,我们检测到感兴趣区域中的行人而不是完整图像,这可以显著加快检测过程。
基于模板匹配的目标跟踪算法,即模板匹配算法,主要包括三个步骤:模板建立,匹配跟踪和模板更新。算法的输入是视频中的图像,输出是输入图像的跟踪结果。模板建立属于初始化阶段,算法的主体是匹配和跟踪,模板更新是维护整个目标跟踪过程的链接。
在本发明中,我们选择归一化的平方差分匹配方法,通过归一化模板图像的灰度值差和要匹配的图像的平方和来确定匹配度。我们设置模板图像M(i,j)的大小为nXm,模板图像M(i,j)叠放在待匹配图像P上平移,图P大小记为WXH,
Figure BDA0002224141540000052
模板图像覆盖被搜索图的那块区域也即重叠区域设S(i,j),其中(i,j)为S(i,j)在图P上的图左下角坐标,搜索范围是:1≤i≤W-n,1≤ j≤H-m,接下来,模板图像在要被搜索的图像上遍历比对,模板图像下的重叠区域设置为R(i,j),其中(i,j)是待匹配图像P中重叠区域S(i,j)的坐标位置;
该匹配方法的归一化平方差定义如下:
Figure BDA0002224141540000051
上式中的R(i,j)值越小,与模板越相似。当值为0时,表示在该位置找到最佳匹配,但在实际***中,模板几乎不可能与模板下的重叠区域完全相同,因此为0的概率非常小。作为改进,将所述值为最小值的位置视为目标位置,更有利于精度和实时性两者的平衡。
在检测感兴趣区域时,如果没有检测到行人,我们重复以下步骤:去除阴影, Vibe方法,侵蚀和扩张,四邻域搜索算法和边界扩展,并检测是否有行人.
如果HOG+SVM算法识别行人失败,如视频中的跟踪对象以一定角度旋转它们的身体时,则模板匹配算法根据最后检测到的行人模板跟踪行人的最可能位置。
为了保证识别跟踪的实时性,设置一个计时器。当模板匹配的持续时间超过 n秒时,跟踪窗口将被视为丢失行人,比如n设定为2.5,取2.5时的效果非常好。
在模板匹配失败的情况下,我们使用较慢的Vibe+HOG+SVM算法在当前整个帧上重新初始化行人跟踪,从而降低误报率,提升识别精度,即在当前整个帧上重复步骤1)、2),寻找到行人最有可能的位置。
为了验证本方法与基于HOG的SVM分类器目标检测算法在准确性和实时性上的差异,本文在两种场景上聚焦单、双行人对两种算法做了对比实验,如图5 至图13所示,对比实验结果可以看出,对本发明方法,HOG+SVM算法和GMM+ HOG+SVM算法这三者的效果进行了实验比较。从上面的结果我们可以看出,在使用HOG+SVM算法的行人检测中存在一些错误检测和缺失检查。错误检测的主要原因是不可行的非行人区域可能与视频场景中的行人区域相似。并且HOG+ SVM算法的检测需要扫描整个图像,因此误报率会很高。GMM+HOG+SVM算法基本上解决了HOG+SVM算法的错误检测问题,但仍然存在检测缺失的现象。本发明方法在行人检测中对行人的正面,背面和侧面具有良好的检测效果。它在假阳性率和假阴性率方面远低于原始HOG+SVM算法和GMM+HOG+SVM算法。
在本发明中,使用三种不同的算法来处理六个视频,我们使用准确度和误报率作为***的评估指标,如表1所示。从表1中可以看出,本发明方法的平均准确率是90.84%,而HOG+SVM和GMM+HOG+SVM算法仅约80%。同时,就误报率而言,本发明方法为0%,GMM+HOG+SVM算法为5.39%,而HOG+SVM 算法为48.08%。因此,与HOG+SVM和GMM+HOG+SVM相比,本发明方法大大提高了稳定性和准确性。
表1为本发明与基于HOG+SVM及GMM+HOG+SVM检测算法实验结果对比
Figure BDA0002224141540000071
上述实施例用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。

Claims (5)

1.一种快速行人检测与跟踪的方法,其特征在于,包括以下步骤:
1)利用前景检测找出移动目标所在区域,该步骤中:基于HSV颜色空间的算法删除目标阴影,然后利用Vibe方法、侵蚀和扩张、四邻域的行人轮廓算法和边界扩展来从视频中提取移动目标所在区域;
2)仅在这些移动目标所在区域内执行行人检测过程,该检测过程包括:计算提取所述区域的HOG特征,然后将其发送到SVM分类器,以检测移动目标所在区域内是否有行人;若检测到行人,记录其位置并转至步骤3);若没有检测到行人,则重复步骤1)、2);
3)利用模板匹配算法首先在该位置所在区域搜索行人,而在跟踪过程中,若HOG+SVM检测行人失败时,则模板匹配算法根据上一次检测模板来跟踪行人最有可能的位置;在匹配时,设置一个计时器,当模板匹配的持续时间超过n秒时,将被视为丢失行人,视为模板匹配失败,在模板匹配失败的情况下,使用Vibe+HOG+SVM算法在当前整个视频帧上重新初始化行人跟踪。
2.根据权利要求1所述的快速行人检测与跟踪的方法,其特征在于,第1)步骤中,结合正常行人姿势和形态的特征,并根据一套行人检测中的移动区域边缘扩张的规则来划分前景提取边界,所述规则为:(1)当一个边框很小,另一个边框很大,大边框直接位于小边框之上,且两者非常接近,则两者合并;(2)当一个边框很小,另一个边框很大,小边框直接位于大边框上方,且两者非常接近,则两者合并;(3)当一个边框很小,另一个边框很大,大边框完全包含小边框,则小边框被删除;
是否接近通过判断两边框边界之间最小距离来判断,该最小距离采用像素值作为阈值进行限定,该阈值的取值范围为自然数3~8,包括3和8。
3.根据权利要求1所述的快速行人检测与跟踪的方法,其特征在于,所述匹配选择归一化的平方差分匹配方法,通过归一化模板图像的灰度值差和要匹配的图像的平方和来确定匹配度。
4.根据权利要求3所述的快速行人检测与跟踪的方法,其特征在于,设置模板图像M(i,j)的大小为nXm,模板图像M(i,j)叠放在待匹配图像P上平移,图P大小为WXH,
Figure FDA0002224141530000011
模板图像覆盖被搜索图的那块区域也即重叠区域设S(i,j),其中(i,j)为S(i,j)在图P上的图左下角坐标,搜索范围是:1≤i≤W-n,1≤j≤H-m,接下来,模板图像在要被搜索的图像上遍历比对,模板图像下的重叠区域设置为R(i,j),其中(i,j)是待匹配图像P中重叠区域S(i,j)的坐标位置;
该匹配方法的归一化平方差定义如下:
Figure FDA0002224141530000021
上式中的R(i,j)值越小,与模板越相似。
5.根据权利要求4所述的快速行人检测与跟踪的方法,其特征在于,将所述值为最小值的位置视为目标位置。
CN201910947245.8A 2019-10-01 2019-10-01 一种快速行人检测与跟踪的方法 Pending CN110781769A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910947245.8A CN110781769A (zh) 2019-10-01 2019-10-01 一种快速行人检测与跟踪的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910947245.8A CN110781769A (zh) 2019-10-01 2019-10-01 一种快速行人检测与跟踪的方法

Publications (1)

Publication Number Publication Date
CN110781769A true CN110781769A (zh) 2020-02-11

Family

ID=69384797

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910947245.8A Pending CN110781769A (zh) 2019-10-01 2019-10-01 一种快速行人检测与跟踪的方法

Country Status (1)

Country Link
CN (1) CN110781769A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529938A (zh) * 2020-12-08 2021-03-19 郭金朋 一种基于视频理解的智慧学堂监测方法和***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101216885A (zh) * 2008-01-04 2008-07-09 中山大学 一种基于视频的行人人脸检测与跟踪算法
US20150063628A1 (en) * 2013-09-04 2015-03-05 Xerox Corporation Robust and computationally efficient video-based object tracking in regularized motion environments
CN107291910A (zh) * 2017-06-26 2017-10-24 图麟信息科技(深圳)有限公司 一种视频片段结构化查询方法、装置及电子设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101216885A (zh) * 2008-01-04 2008-07-09 中山大学 一种基于视频的行人人脸检测与跟踪算法
US20150063628A1 (en) * 2013-09-04 2015-03-05 Xerox Corporation Robust and computationally efficient video-based object tracking in regularized motion environments
CN107291910A (zh) * 2017-06-26 2017-10-24 图麟信息科技(深圳)有限公司 一种视频片段结构化查询方法、装置及电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
归加琪: "《监控视频中的前景提取和行人检测跟踪算法研究》", 《万方数据知识服务平台》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529938A (zh) * 2020-12-08 2021-03-19 郭金朋 一种基于视频理解的智慧学堂监测方法和***

Similar Documents

Publication Publication Date Title
JP5726125B2 (ja) 奥行き画像内の物体を検出する方法およびシステム
Ogale A survey of techniques for human detection from video
KR101653278B1 (ko) 색상 기반 얼굴 검출을 통한 실시간 얼굴 추적 시스템
CN110569785B (zh) 一种融合跟踪技术的人脸识别方法
CN106682641A (zh) 基于fhog‑lbph特征的图像行人识别方法
García-Martín et al. Robust real time moving people detection in surveillance scenarios
CN112784712B (zh) 一种基于实时监控的失踪儿童预警实现方法、装置
Kheirkhah et al. A hybrid face detection approach in color images with complex background
Xiao et al. Vehicle and person tracking in aerial videos
CN108319961B (zh) 一种基于局部特征点的图像roi快速检测方法
CN110555867B (zh) 一种融合物体捕获识别技术的多目标物体跟踪方法
Guo et al. Vehicle fingerprinting for reacquisition & tracking in videos
Jun et al. LIDAR and vision based pedestrian detection and tracking system
CN112347967B (zh) 一种复杂场景下融合运动信息的行人检测方法
CN110781769A (zh) 一种快速行人检测与跟踪的方法
Ahlvers et al. Model-free face detection and head tracking with morphological hole mapping
CN108985216B (zh) 一种基于多元logistic回归特征融合的行人头部检测方法
CN112380966B (zh) 基于特征点重投影的单眼虹膜匹配方法
Kassir et al. A region based CAMShift tracking with a moving camera
Xu et al. Car detection using deformable part models with composite features
Le et al. Pedestrian lane detection in unstructured environments for assistive navigation
Jin et al. A method for traffic signs detection, tracking and recognition
Lin et al. Optimal threshold and LoG based feature identification and tracking of bat flapping flight
Campadelli et al. A color based method for face detection
Hu et al. Video text detection with text edges and convolutional neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200211

WD01 Invention patent application deemed withdrawn after publication