CN115188081B - 一种面向复杂场景的检测跟踪一体化方法 - Google Patents

一种面向复杂场景的检测跟踪一体化方法 Download PDF

Info

Publication number
CN115188081B
CN115188081B CN202211108768.1A CN202211108768A CN115188081B CN 115188081 B CN115188081 B CN 115188081B CN 202211108768 A CN202211108768 A CN 202211108768A CN 115188081 B CN115188081 B CN 115188081B
Authority
CN
China
Prior art keywords
tracking
detection
pedestrian
target
detection result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211108768.1A
Other languages
English (en)
Other versions
CN115188081A (zh
Inventor
李波
高渝路
刘偲
汤宗衡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202211108768.1A priority Critical patent/CN115188081B/zh
Publication of CN115188081A publication Critical patent/CN115188081A/zh
Application granted granted Critical
Publication of CN115188081B publication Critical patent/CN115188081B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种面向复杂场景的检测跟踪一体化方法,首先构建检测跟踪深度模型,包括检测模块和身份特征提取模块,其次使用不同场景的数据进行训练,得到模型后,对输入图片进行目标检测并提取对应的目标身份特征;然后,利用背景建模算法提取图像运动信息;接着,设计检测跟踪后处理算法,融合图像运动信息,得到目标跟踪结果;最后,基于目标跟踪轨迹预测对下一帧的检测结果进行修正。本发明所提出的面向复杂场景的检测跟踪一体化方法解决了监控场景下行人目标动态变化造成的检测跟踪困难的问题,有效提高了行人检测跟踪精度。

Description

一种面向复杂场景的检测跟踪一体化方法
技术领域
本发明涉及计算机视觉中的行人检测和行人跟踪技术领域,特别是针对目标动态变化等复杂场景下的行人检测和跟踪领域,特别涉及一种面向复杂场景的检测跟踪一体化方法。
背景技术
随着深度学习技术的不断突破,各项人工智能技术最终落地并改善人们的生活。视频监控中行人检测与跟踪一直是公共安全领域的核心问题之一,其在案件侦破、治安态势预警、大规模***感知和预防等方面发挥着不可替代的作用。然而由于视频监控数据量巨大、真实场景复杂,行人动态变化等,单纯依靠人力识别跟踪跨镜头下的行人效率低下,且会消耗大量的人力财力,而现有的深度学习算法鉴于以上不利因素,检测跟踪效果不理想,也不能较好地满足行人检测跟踪任务的需要。
行人检测就是检测出一个视频某一帧中目标人物的位置。行人跟踪是给定视频中第一帧目标人物以及它的位置,然后利用目标的特征信息跟踪这个目标,并预测他的轨迹,如果出现一些遮挡,也可以根据轨迹来跟踪这个目标。当前深度学习技术主要基于单阶段、两阶段的检测器提取目标的特征信息,通过相似度计算,对目标帧内的检测对象进行排序和匹配,从而得到行人在帧之间的连续变化。但当目标动态变化时,比如遮挡、光线变化、姿态变化、相似目标干扰等会导致跟踪轨迹预测不准和检测器精度不高,从而出现检测跟踪错误的情况。
行人检测跟踪最近几年虽然取得较大进步,但精度仍然无法达到令人满意程度,主要存在跟踪过程目标错误,行人动态变化导致外观特征差异,检测器精度弱,效果不理想等问题,严重阻碍了行人检测和行人跟踪再识别算法性能的提升。
因此,如何针对动态变化的行人目标提高检测精度和跟踪准度,是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明公开了一种面向复杂场景的检测跟踪一体化方法,解决了监控场景下行人目标动态变化造成的检测跟踪困难的问题,通过检测和跟踪相辅相成,来提高行人检测跟踪的精度,精准识别和描绘行人运动轨迹。
为了实现上述目的,本发明采用如下技术方案:
一种面向复杂场景的检测跟踪一体化方法,包括如下步骤:
步骤1:选取行人多目标检测跟踪数据集和通用检测模型,增加身份特征提取模块,构建检测跟踪模型并进行训练;采用训练后的检测跟踪模型对行人多目标检测跟踪数据集中的所有图片,提取行人检测结果和对应的行人身份特征;
步骤2:利用背景建模算法提取所有图片中图像的运动信息;
步骤3:利用步骤2中提取到的运动信息,对检测结果进行修正;设计检测跟踪后处理算法,利用步骤1中的行人检测结果和对应的行人身份特征得到跟踪结果;
步骤4:构建行人检测跟踪算法:利用步骤3得到的跟踪轨迹结果对下一帧的检测结果进行修正,改进目标检测结果,后续将继续用于目标跟踪;
步骤5:根据所述步骤4的行人检测跟踪算法,对需要检测的视频流中行人进行在线检测跟踪。
进一步地,所述步骤1,包括如下步骤:
步骤11:选取行人多目标检测跟踪数据集,选用主流单阶段检测模型;
步骤12:根据所述步骤11中的检测模型,增加身份特征提取模块,采用分类损失对身份特征模型进行监督,构建检测跟踪模型并进行训练;其中,将对象身份视为一项分类任务,如果训练中相同标识ID则认为是同一类别,其过程使用交叉熵损失;
步骤13:根据所述步骤12训练的检测跟踪模型,对所述行人多目标跟踪数据集中的所有图像同时进行检测框预测和身份特征预测;获得的所述行人多目标跟踪图像中的行人检测结果和对应的行人身份特征;选取行人检测结果中心点附近的行人身份特征作为对应的行人身份特征;得到行人目标框和对应行人身份特征。
进一步地,所述步骤2,具体包括如下步骤:
步骤21:对选取的输入图像,进行缩放,降低图像分辨率;
步骤22:根据步骤21中缩放的图像,利用GMM高斯混合模型,初始化参数,构建起模型,区分出前景和背景区域,从而判断运动目标;
步骤23:根据步骤22中检测出来运动目标的位置映射到原始图像中,获得运动目标在原始图像中的区域。
进一步地,所述步骤3,包括如下步骤:
步骤31:从所述步骤2中获得运动区域,利用运动区域对步骤1获得的行人多目标跟踪图像中的行人检测结果进行筛选;
步骤32:选择基于deepsort的多目标跟踪后处理算法,从所述步骤31获得的行人多目标跟踪图像中的行人检测结果,结合所述步骤1中对应的行人身份特征,构建多级后处理流程,进行检测跟踪后处理,得到跟踪轨迹结果;
进一步地,所述步骤4,包括如下步骤::
步骤41:从所述步骤32获得跟踪历史轨迹,基于历史轨迹预测目标序列在当前帧出现的位置,利用该位置修正范围内目标检测结果,提升范围内检测结果置信度;
步骤42:根据步骤41修改后的置信度,重新确定当前帧检测结果,改进行人目标检测结果,后续结果将用于目标跟踪。
经由上述的技术方案可知,与现有技术相比:
本发明公开提供了一种面向复杂场景的检测跟踪一体化方法,本方法构建能同时获取检测结果和身份特征的检测跟踪模型,训练该深度模型并利用该深度模型对数据集中的图像提取目标检测结果和对应的目标身份特征;然后,利用背景建模算法提取图像运动信息,得到的运动信息将辅助后续检测结果的修正;接着,利用运动信息对检测结果进行修正,修正后的检测结果应用到检测跟踪后处理算法,得到目标跟踪结果;最后,利用得到的跟踪轨迹对下一帧的检测结果进行修正。本发明所提出的面向复杂场景的检测跟踪一体化方法解决了监控场景下行人目标动态变化造成的检测跟踪困难的问题,能够有效提高行人检测跟踪精度,在监控场景中能够高效检测跟踪运动变化的行人。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种面向复杂场景的检测跟踪一体化方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种面向复杂场景的检测跟踪一体化方法,针对目标动态变化等复杂场景下的行人检测和跟踪,可以获取视频中行人的精确位置坐标信息及其运动轨迹。在进行行人目标的检测跟踪过程中,利用背景建模算法得到的图像运动信息和目标本身轨迹运动信息来修正检测结果,在修正后的检测结果上进行目标跟踪,该方法能够有效提高行人检测跟踪精度。
首先构建检测跟踪模型,包括检测模块和身份特征提取模块,在不同场景下进行训练,利用得到的模型对输入图片提取目标检测结果和对应的目标身份特征;然后,利用背景建模算法提取图像运动信息;接着,设计检测跟踪后处理算法,融合图像运动信息,得到目标跟踪结果;最后,利用得到的跟踪轨迹对下一帧的检测结果进行修正。本发明所提出的面向复杂场景的检测跟踪一体化方法,具体实施步骤如下:
S1:选取行人多目标检测跟踪数据集和通用检测模型,增加身份特征提取模块,同时训练检测模块和身份特征提取模块,然后对行人多目标检测跟踪数据集中的所有图片提取行人检测结果和对应的行人身份特征;
S1具体包括:
S11:选取行人多目标检测跟踪数据集,选用主流单阶段检测模型;
S12:根据所述S11中的检测模型,增加身份特征提取模块,采用分类损失对身份特征模型进行监督,构建检测跟踪模型并进行训练;
S13:根据所述S12训练的检测跟踪模型,对所述行人多目标检测跟踪数据集中的所有行人图像同时进行检测框预测和身份特征预测;获得的行人多目标跟踪图像中的行人检测结果和行人身份特征,选取行人检测结果中心点附近的行人身份特征作为对应的行人身份特征;得到行人目标框和对应行人身份特征;
S2: 利用背景建模算法提取所有行人图像运动信息,用于辅助行人跟踪算法的检测;
S21:根据S1中选取的输入图像M,首先将输入图像进行缩放,降低图像分辨率,提高处理速度。
S22:根据S21中缩放的图像,利用GMM高斯混合模型,初始化参数,构建起模型,区分出前景和背景区域,从而判断运动目标;
S23:根据S22中检测出来运动目标的位置映射到原始图像M中,获得动目标在原始图像M中的区域;
S3: 利用S2中提取到的运动信息,对检测结果进行修正;设计检测跟踪后处理算法,利用步骤1中的行人检测结果和对应的行人身份特征得到跟踪轨迹结果;
S31:从所述S2中获得运动区域,利用运动区域对S1获得的行人多目标跟踪图像中的行人检测结果进行筛选;
S32:选择基于deepsort的多目标跟踪后处理算法,从所述s31获得的行人多目标跟踪图像中的行人检测结果,结合所述s1中对应的行人身份特征,构建多级后处理流程,进行检测跟踪后处理,得到跟踪结果;
S4:构建行人检测跟踪算法:利用S3得到的跟踪轨迹对下一帧的检测结果进行修正,改进目标检测结果,后续将继续用于目标跟踪;
S41:从所述S32获得跟踪历史轨迹,基于历史轨迹预测目标序列在当前帧出现的位置,利用该位置修正范围内目标检测结果,提升范围内检测结果置信度;
S42:根据41修改后的置信度,重新确定当前帧检测结果,改进行人目标检测结果,后续结果将用于目标跟踪。
S5:根据S4的行人检测跟踪算法,对需要检测的视频流中行人进行在线检测跟踪。
本发明所提出的面向复杂场景的检测跟踪一体化方法,解决了监控场景下行人目标动态变化造成的检测跟踪困难的问题,有效提高了行人检测跟踪精度。
实施例:
利用yolov5作为基础检测器,在骨干网络后面增加中心身份特征提取网络,对数据集中的图像提取,提取目标行人检测结果和对应的目标行人身份特征;然后,利用高斯混合模型算法提取图像运动信息,得到的运动信息将辅助后续检测结果的修正;接着,利用运动信息对检测结果进行修正,修正后的检测结果应用到检测跟踪后处理算法,得到目标跟踪结果;最后,利用得到的跟踪轨迹对下一帧的检测结果进行修正。
如图1所示,多视角生成模块具体过程如下:
选取MOT17数据集,选用yolov5检测模型,增加身份特征提取模块,同时训练检测模块(yolov5检测模型)和身份特征提取模块,然后对该数据集中的所有图片提取行人检测结果和对应的行人身份特征。
根据待检测的输入图像,首先将输入图像进行缩放,降低图像分辨率,提高处理速度。利用GMM高斯混合模型,初始化参数,构建起模型,区分出前景和背景区域,从而判断运动目标。最后,根据检测出来运动目标的位置映射到原始图像中,获得运动目标在原始图像中的区域;
利用先前获得运动信息,划分出当前帧出现在运动区域,对该运动区域内的目标检测结果提升其置信度,根据修改后的置信度,重新确定当前帧检测结果,改进行人目标检测结果。选择基于deepsort的多目标跟踪后处理算法,从之前获得的行人多目标跟踪图像中的行人检测结果和对应的行人身份特征。构建多级后处理流程。
根据得到的跟踪轨迹,预测序列在当前帧的位置,当前帧出现在预测位置中的检测结果修正置信度,获得新的检测结果。
最后,利用上述行人检测跟踪算法,对视频流中行人进行在线检测跟踪。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (1)

1.一种面向复杂场景的检测跟踪一体化方法,其特征在于,具体步骤如下:
步骤1:选取行人多目标检测跟踪数据集和通用检测模型,增加身份特征提取模块,构建检测跟踪模型并进行训练;采用训练后的检测跟踪模型对行人多目标检测跟踪数据集中的所有图片,提取行人检测结果和对应的行人身份特征;
步骤2:利用背景建模算法提取所有图片中图像的运动信息;
步骤3:利用步骤2中提取到的运动信息,对检测结果进行修正;设计检测跟踪后处理算法,利用修正后的行人检测结果和步骤1中得到的对应的行人身份特征得到跟踪轨迹结果;
步骤4:构建行人检测跟踪算法:利用步骤3得到的跟踪轨迹结果对下一帧的检测结果进行修正,改进目标检测结果,后续将继续用于目标跟踪;
步骤5:根据所述步骤4的行人检测跟踪算法,对需要检测的视频流中行人进行在线检测跟踪;
所述步骤1,包括如下步骤:
步骤11:选取行人多目标检测跟踪数据集,选用主流单阶段检测模型;
步骤12:根据所述步骤11中的检测模型,增加身份特征提取模块,采用分类损失对身份特征模型进行监督,构建检测跟踪模型并进行训练;
步骤13:根据所述步骤12训练的检测跟踪模型,对所述行人多目标跟踪数据集中的所有图像同时进行检测框预测和身份特征预测;获得的所述行人多目标跟踪图像中的行人检测结果和对应的行人身份特征;选取行人检测结果中心点附近的行人身份特征作为对应的行人身份特征;得到行人目标框和对应行人身份特征;
所述步骤2,包括如下步骤:
步骤21:对选取的输入图像,进行缩放,降低图像分辨率;
步骤22:根据步骤21中缩放的图像,利用GMM高斯混合模型,初始化参数,构建起模型,区分出前景和背景区域,从而判断运动目标;
步骤23:根据步骤22中检测出来运动目标的位置映射到原始图像中,获得运动目标在原始图像中的区域;
所述步骤3,包括如下步骤:
步骤31:从所述步骤2中获得运动区域,利用运动区域对步骤1获得的行人多目标跟踪图像中的行人检测结果进行筛选;
步骤32:选择基于deepsort的多目标跟踪后处理算法,从所述步骤31获得的行人多目标跟踪图像中的行人检测结果,结合所述步骤1中对应的行人身份特征,构建多级后处理流程,进行检测跟踪后处理,得到跟踪轨迹结果;
所述步骤4,包括如下步骤:
步骤41:从所述步骤32获得跟踪历史轨迹,基于历史轨迹预测目标序列在当前帧出现的位置,利用该位置修正范围内目标检测结果,提升范围内检测结果置信度;
步骤42:根据步骤41修改后的置信度,重新确定当前帧检测结果,改进行人目标检测结果,后续结果将用于目标跟踪。
CN202211108768.1A 2022-09-13 2022-09-13 一种面向复杂场景的检测跟踪一体化方法 Active CN115188081B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211108768.1A CN115188081B (zh) 2022-09-13 2022-09-13 一种面向复杂场景的检测跟踪一体化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211108768.1A CN115188081B (zh) 2022-09-13 2022-09-13 一种面向复杂场景的检测跟踪一体化方法

Publications (2)

Publication Number Publication Date
CN115188081A CN115188081A (zh) 2022-10-14
CN115188081B true CN115188081B (zh) 2022-12-02

Family

ID=83524460

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211108768.1A Active CN115188081B (zh) 2022-09-13 2022-09-13 一种面向复杂场景的检测跟踪一体化方法

Country Status (1)

Country Link
CN (1) CN115188081B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117218517B (zh) * 2023-11-08 2024-01-26 诺比侃人工智能科技(成都)股份有限公司 一种雨雪天气下的室外运动目标检测***

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007134913A (ja) * 2005-11-09 2007-05-31 Matsushita Electric Ind Co Ltd 映像選択方法および映像選択装置
CN110688987A (zh) * 2019-10-16 2020-01-14 山东建筑大学 一种行人位置检测与跟踪方法及***
CN111060924A (zh) * 2019-12-02 2020-04-24 北京交通大学 一种slam与目标跟踪方法
CN111460926A (zh) * 2020-03-16 2020-07-28 华中科技大学 一种融合多目标跟踪线索的视频行人检测方法
CN111639570A (zh) * 2020-05-20 2020-09-08 华中科技大学 一种基于运动模型和单目标线索的在线多目标跟踪方法
CN113554682A (zh) * 2021-08-03 2021-10-26 同济大学 一种基于目标跟踪的安全帽检测方法
CN114140822A (zh) * 2021-11-22 2022-03-04 中国人民银行清算总中心 行人重识别方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111462177B (zh) * 2020-03-14 2023-04-07 华中科技大学 一种基于多线索的在线多目标跟踪方法和***

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007134913A (ja) * 2005-11-09 2007-05-31 Matsushita Electric Ind Co Ltd 映像選択方法および映像選択装置
CN110688987A (zh) * 2019-10-16 2020-01-14 山东建筑大学 一种行人位置检测与跟踪方法及***
CN111060924A (zh) * 2019-12-02 2020-04-24 北京交通大学 一种slam与目标跟踪方法
CN111460926A (zh) * 2020-03-16 2020-07-28 华中科技大学 一种融合多目标跟踪线索的视频行人检测方法
CN111639570A (zh) * 2020-05-20 2020-09-08 华中科技大学 一种基于运动模型和单目标线索的在线多目标跟踪方法
CN113554682A (zh) * 2021-08-03 2021-10-26 同济大学 一种基于目标跟踪的安全帽检测方法
CN114140822A (zh) * 2021-11-22 2022-03-04 中国人民银行清算总中心 行人重识别方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于视频行人重识别和时空特征融合的跟踪算法;惠冠程等;《激光与光电子学进展》;20220630;第59卷(第12期);全文 *

Also Published As

Publication number Publication date
CN115188081A (zh) 2022-10-14

Similar Documents

Publication Publication Date Title
Yang et al. Online learned discriminative part-based appearance models for multi-human tracking
Yang et al. An online learned CRF model for multi-target tracking
Yang et al. Real-time multiple objects tracking with occlusion handling in dynamic scenes
CN113011367A (zh) 一种基于目标轨迹的异常行为分析方法
CN103246896B (zh) 一种鲁棒性车辆实时检测与跟踪方法
CN110660082A (zh) 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法
Huang et al. Feature-Based Vehicle Flow Analysis and Measurement for a Real-Time Traffic Surveillance System.
KR101062225B1 (ko) 감시 카메라를 이용한 지능형 영상 검색 방법 및 시스템
Prokaj et al. Tracking many vehicles in wide area aerial surveillance
CN111626194A (zh) 一种使用深度关联度量的行人多目标跟踪方法
Fradi et al. Spatio-temporal crowd density model in a human detection and tracking framework
CN114240997A (zh) 一种智慧楼宇在线跨摄像头多目标追踪方法
CN115188081B (zh) 一种面向复杂场景的检测跟踪一体化方法
CN114926859A (zh) 一种结合头部跟踪的密集场景下行人多目标跟踪方法
Angelo A novel approach on object detection and tracking using adaptive background subtraction method
KR101492059B1 (ko) 평균이동 알고리즘을 적용한 실시간 객체 추적방법 및 시스템
WO2016019973A1 (en) Method for determining stationary crowds
Kwon et al. Scene modeling-based anomaly detection for intelligent transport system
Xu et al. Smart video surveillance system
Almomani et al. Segtrack: A novel tracking system with improved object segmentation
Boufares et al. Moving object detection system based on the modified temporal difference and otsu algorithm
Luvison et al. Automatic detection of unexpected events in dense areas for videosurveillance applications
Heili et al. Parameter estimation and contextual adaptation for a multi-object tracking CRF model
CN116311166A (zh) 交通障碍物识别方法、装置及电子设备
Liu et al. A review of traffic visual tracking technology

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant