CN111080673A - 一种抗遮挡目标跟踪方法 - Google Patents

一种抗遮挡目标跟踪方法 Download PDF

Info

Publication number
CN111080673A
CN111080673A CN201911261618.2A CN201911261618A CN111080673A CN 111080673 A CN111080673 A CN 111080673A CN 201911261618 A CN201911261618 A CN 201911261618A CN 111080673 A CN111080673 A CN 111080673A
Authority
CN
China
Prior art keywords
target
tracking
detection
candidate
candidate item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911261618.2A
Other languages
English (en)
Other versions
CN111080673B (zh
Inventor
张盛
易梦云
徐赫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen International Graduate School of Tsinghua University
Original Assignee
Shenzhen International Graduate School of Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen International Graduate School of Tsinghua University filed Critical Shenzhen International Graduate School of Tsinghua University
Priority to CN201911261618.2A priority Critical patent/CN111080673B/zh
Publication of CN111080673A publication Critical patent/CN111080673A/zh
Application granted granted Critical
Publication of CN111080673B publication Critical patent/CN111080673B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种抗遮挡目标跟踪方法,首先对于输入视频或图像序列,采用目标检测器对视频中的每一帧图像进行检测得到基于检测的候选项;根据输出当前帧的目标检测结果,运用卡尔曼滤波器预测目标在下一帧的位置得到基于跟踪的候选项。根据置信度评分公式计算候选项的置信度,采用非极大值抑制算法得到最终候选项;将相邻帧的候选项输入特征匹配网络,通过级联匹配算法计算目标间的匹配度。将基于检测的候选项通过深度神经网络进行特征提取,进行特征间相似度的匹配;基于跟踪的候选项进行IOU重合度匹配。根据相邻帧的目标匹配结果确定目标在当前帧的位置从而输出目标运动轨迹。在目标遮挡的情况下检测跟踪到目标,并提高跟踪的精度和性能。

Description

一种抗遮挡目标跟踪方法
技术领域
本发明涉及目标跟踪技术领域,尤其涉及一种抗遮挡目标跟踪方法。
背景技术
近年来,随着深度神经网络的不断发展和GPU算力的不断提升,基于深度学习的方法在计算机视觉任务上取得突破性进展。目标检测、目标识别、目标跟踪、行人重识别等计算机视觉技术快速发展,在智能监控、人机交互、虚拟现实和增强现实、医疗影像分析等诸多行业和领域中得到了广泛应用。
多目标跟踪(Multi Object Tracking)是经典的计算机视觉任务,通过目标跟踪得到的感兴趣区域是进一步进行高层视觉分析的基础,目标跟踪的准确度将直接影响到计算机视觉***的性能。现有的多目标跟踪方法大都采用基于检测的跟踪(Tracking-by-Detection),即基于目标检测器的检测结果下,对帧与帧之间来自相同目标的检测结果进行运动轨迹关联。这种检测方法很大程度上依赖于检测结果。然而,在许多实际应用中,特别是在拥挤的场景中,由于目标之间的交互、目标表观相似和频繁遮挡,检测器的检测结果通常不够准确,从而严重的影响了跟踪的精度和性能。
现有的多目标跟踪算法有的通过大规模数据集重新训练目标检测器以得到更为准确的检测结果,然而忽略了视频图像中的运动信息,方法不够高效。有的通过设计和训练更深的神经网络进行特征提取,以得到更为鲁棒的目标特征,然而基于外观的特征很难解决表观相似性问题,且很难保障算法的实时性能。综上所述,亟需提出新的用于解决目标遮挡交互的抗遮挡目标跟踪方法。
发明内容
本发明为了解决现有的问题,提供一种抗遮挡目标跟踪方法。
为了解决上述问题,本发明采用的技术方案如下所述:
一种抗遮挡目标跟踪方法,包括如下步骤:S1:将视频或图像序列按帧输入到目标检测器中得到目标检测结果,所述目标检测结果是基于检测的候选项,包括每帧图像中所有目标的边界框及检测置信度;S2:根据所述目标检测结果利用联合检测跟踪框架对每帧图像生成基于跟踪的候选项,所述联合检测跟踪框架是通过卡尔曼滤波器及相机运动补偿,对检测结果进行跟踪运动估计,从而得到基于跟踪的候选项;S3:根据所述基于检测的候选项和所述基于跟踪的候选项的置信度大小,运用非极大值抑制算法对所述基于检测的候选项和所述基于跟踪的候选项进行筛选得到筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项;S4:利用预训练好的深度神经网络提取当前帧所有筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项的表观特征;S5:利用级联匹配算法计算相邻帧的目标匹配度,包括:筛选后的所述基于检测的候选项对相邻帧的现有轨迹进行表观特征相似度匹配;筛选后的所述基于跟踪的候选项与相邻帧的现有轨迹的目标边界框进行边界框交并比重合度匹配;S6:根据所述相邻帧的目标匹配度,确定目标在当前帧的位置,从而输出目标运动轨迹。
优选地,所述目标检测器是SDP目标检测器。
优选地,所述置信度由以下置信度评分公式得到:
Figure BDA0002311749100000021
其中,
Figure BDA0002311749100000022
为第t-1帧的检测置信度,
Figure BDA0002311749100000023
为第t帧的跟踪置信度,
Figure BDA0002311749100000024
为待关联轨迹中所述基于检测的候选项的个数,Ntrk为上一次待关联轨迹中所述基于跟踪的候选项的个数,I(·)为二值函数,当函数内为真时,值为1,否则为0,参数α是常数。
优选地,运用非极大值抑制算法对所述基于检测的候选项和所述基于跟踪的候选项进行筛选得到筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项包括如下步骤:S21:根据所有所述基于检测的候选项和所述基于跟踪的候选项的置信度得分大小进行排序得到候选列表;S22:选择置信度最高的所述基于检测的候选项和所述基于跟踪的候选项添加到最终输出列表中并从所述候选项列表中删除;S23:计算置信度最高的所述基于检测的候选项和所述基于跟踪的候选项与其它候选项的边界框交并比并删除边界框交并比大于预设阈值的所述基于检测的候选项和所述基于跟踪的候选项;S24:重复上述过程直至所述候选项列表为空,所述最终输出列表中即为筛选后的所述基于检测的候选项和所述基于跟踪的候选项。
优选地,所述预设阈值是0.3-0.5。
优选地,所述深度神经网络是以GoogLeNet为基础的网络,包括从输入层到inception4e层,之后通过1×1的卷积层进行连接。
优选地,所述神经网络的训练的损失函数为:
ltriplet(Ii,Ij,Ik)=m+d(Ii,Ij)-d(Ii,Ik)
其中,Ii,Ij为来自同一身份的图片,Ii,Ik为来自不同身份的图片,d表示欧式距离,m为常数。
优选地,利用级联匹配算法计算相邻帧的目标匹配度包括如下步骤:S51:获取第一帧的目标检测结果,并将其中每一个目标生成一条轨迹,得到初始轨迹集合
Figure BDA0002311749100000031
筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项组成的候选项集合
Figure BDA0002311749100000032
所述表观特征
Figure BDA0002311749100000033
并构建匹配到的所有候选项集合
Figure BDA0002311749100000034
未匹配的所有候选项集合
Figure BDA0002311749100000035
S52:将筛选后的所述基于检测的候选项
Figure BDA0002311749100000036
与所述初始轨迹集合
Figure BDA0002311749100000037
进行特征相似度计算,根据匹配结果更新所述匹配到的候选项集合
Figure BDA0002311749100000038
所述未匹配的候选项集合
Figure BDA0002311749100000039
所述初始轨迹集合
Figure BDA00023117491000000310
S53:将筛选后的所述基于跟踪的候选项
Figure BDA00023117491000000311
与更新后的所述初始轨迹集合
Figure BDA00023117491000000312
的目标边界框进行边界框交并比重合度匹配,根据匹配结果更新所述匹配到的候选项集合
Figure BDA00023117491000000313
所述未匹配的候选项集合
Figure BDA00023117491000000314
优选地,将所述匹配到的候选项集合
Figure BDA00023117491000000315
中每一个候选项边界框与匹配到的所述初始轨迹集合
Figure BDA00023117491000000316
中的轨迹段进行连接;将所述未匹配的候选项集合
Figure BDA00023117491000000319
初始化成一条新的轨迹;对于所述初始轨迹集合
Figure BDA00023117491000000317
中未匹配到的轨迹段设为临时轨迹段,若在之后连续N帧内没有被匹配到,则认为所述临时轨迹段已经结束,并将其从所述初始轨迹集合
Figure BDA00023117491000000318
中删除。N取值为5~8。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上任一所述方法的步骤。
本发明的有益效果为:提供一种抗遮挡目标跟踪方法,通过联合检测跟踪框架和级联匹配算法共同作用,可以在目标交互遮挡、检测器检测结果不准确时,通过联合联合检测跟踪框架生成更优的候选项,进行目标级联匹配。解决目标交互遮挡时检测不准确的问题,减少目标遮挡对跟踪效果的影响,从而实现目标遮挡时的准确跟踪。
更进一步的,实现非常简单,计算开销较小,算法在GPU上可以达到30帧/秒的运算速度,可以实现实时跟踪。与传统的目标跟踪方法相比,本发明所需的计算开销少,抗遮挡能力强,实时性高。
附图说明
图1是本发明实施例中抗遮挡目标跟踪方法的示意图。
图2是本发明实施例中获取筛选后的基于检测的候选项和筛选后的基于跟踪的候选项的方法示意图。
图3是本发明实施例中利用级联匹配算法计算相邻帧的目标匹配度的方法示意图。
具体实施方式
为了使本发明实施例所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
需要说明的是,当元件被称为“固定于”或“设置于”另一个元件,它可以直接在另一个元件上或者间接在该另一个元件上。当一个元件被称为是“连接于”另一个元件,它可以是直接连接到另一个元件或间接连接至该另一个元件上。另外,连接既可以是用于固定作用也可以是用于电路连通作用。
需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明实施例和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多该特征。在本发明实施例的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
如图1所示,本发明提供一种抗遮挡目标跟踪方法,包括如下步骤:
S1:将视频或图像序列按帧输入到目标检测器中得到目标检测结果,所述目标检测结果是基于检测的候选项,包括每帧图像中所有目标的边界框及检测置信度;
S2:根据所述目标检测结果利用联合检测跟踪框架对每帧图像生成基于跟踪的候选项,所述联合检测跟踪框架是通过卡尔曼滤波器及相机运动补偿,对检测结果进行跟踪运动估计,从而得到基于跟踪的候选项;
以第N帧为例,根据当前帧的SDP目标检测器输出的目标边界框位置作为第N帧基于检测的候选项。同时,将目标边界框的位置输入到卡尔曼滤波器中,估计目标边界框在下一帧的位置,作为第N+1帧基于跟踪的候选项。
S3:根据所述基于检测的候选项和所述基于跟踪的候选项的置信度大小,运用非极大值抑制算法对所述基于检测的候选项和所述基于跟踪的候选项进行筛选得到筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项;
S4:利用预训练好的深度神经网络提取当前帧所有筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项的表观特征;
在本发明的一种实施例中得到的表观特征为512维深度特征;
S5:利用级联匹配算法计算相邻帧的目标匹配度,包括:筛选后的所述基于检测的候选项对相邻帧的现有轨迹进行表观特征相似度匹配;筛选后的所述基于跟踪的候选项与相邻帧的现有轨迹的目标边界框进行边界框交并比重合度匹配;
S6:根据所述相邻帧的目标匹配度,确定目标在当前帧的位置,从而输出目标运动轨迹。
在本发明的一种实施例中,所述目标检测器是SDP目标检测器。
置信度由以下置信度评分公式得到:
Figure BDA0002311749100000051
其中,
Figure BDA0002311749100000052
为第t-1帧的检测置信度,
Figure BDA0002311749100000053
为第t帧的跟踪置信度,Ndet为待关联轨迹中所述基于检测的候选项的个数,Ntrk为上一次待关联轨迹中所述基于跟踪的候选项的个数,I(·)为二值函数,当函数内为真时,值为1,否则为0,参数α是常数。
在本发明的一种实施例中,α值为0.05。
如图2所示,运用非极大值抑制算法对所述基于检测的候选项和所述基于跟踪的候选项进行筛选得到筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项包括如下步骤:
S21:根据所有所述基于检测的候选项和所述基于跟踪的候选项的置信度得分大小进行排序得到候选列表;
S22:选择置信度最高的所述基于检测的候选项和所述基于跟踪的候选项添加到最终输出列表中并从所述候选项列表中删除;
S23:计算置信度最高的所述基于检测的候选项和所述基于跟踪的候选项与其它候选项的边界框交并比并删除边界框交并比大于预设阈值的所述基于检测的候选项和所述基于跟踪的候选项;
S24:重复上述过程直至所述候选项列表为空,所述最终输出列表中即为筛选后的所述基于检测的候选项和所述基于跟踪的候选项。
在本发明的一种实施例中,预设阈值是0.3-0.5。
深度神经网络是以GoogLeNet为基础的网络,包括从输入层到inception4e层,之后通过1×1的卷积层进行连接。网络输入图片大小为160×80,输出目标特征为512维。该网络在大规模行人重识别数据集上进行预训练,损失函数为:
ltriplet(Ii,Ij,Ik)=m+d(Ii,Ij)-d(Ii,Ik)
其中,Ii,Ij为来自同一身份的图片,Ii,Ik为来自不同身份的图片,d表示欧式距离,m为常数。
如图3所示,利用级联匹配算法计算相邻帧的目标匹配度包括如下步骤:
S51:获取第一帧的目标检测结果,并将其中每一个目标生成一条轨迹,得到初始轨迹集合
Figure BDA0002311749100000061
筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项组成的候选项集合
Figure BDA0002311749100000062
所述表观特征
Figure BDA0002311749100000063
并构建匹配到的所有候选项集合
Figure BDA0002311749100000064
未匹配的所有候选项集合
Figure BDA0002311749100000065
S52:将筛选后的所述基于检测的候选项
Figure BDA0002311749100000066
与所述初始轨迹集合
Figure BDA0002311749100000067
进行特征相似度计算,根据匹配结果更新所述匹配到的候选项集合
Figure BDA0002311749100000071
所述未匹配的候选项集合
Figure BDA0002311749100000072
所述初始轨迹集合
Figure BDA0002311749100000073
在本发明的一种实施例中,采用匈牙利算法进行特征相似度匹配。
S53:将筛选后的所述基于跟踪的候选项
Figure BDA0002311749100000074
与更新后的所述初始轨迹集合
Figure BDA0002311749100000075
的目标边界框进行边界框交并比重合度匹配,根据匹配结果更新所述匹配到的候选项集合
Figure BDA0002311749100000076
所述未匹配的候选项集合
Figure BDA0002311749100000077
在本发明的一种实施例中,采用匈牙利算法进行边界框交并比重合度匹配。
更进一步的,将所述匹配到的候选项集合
Figure BDA0002311749100000078
中每一个候选项边界框与匹配到的所述初始轨迹集合
Figure BDA0002311749100000079
中的轨迹段进行连接;将所述未匹配的候选项集合
Figure BDA00023117491000000710
初始化成一条新的轨迹;对于所述初始轨迹集合
Figure BDA00023117491000000711
中未匹配到的轨迹段设为临时轨迹段,若在之后连续N帧内没有被匹配到,则认为所述临时轨迹段已经结束,并将其从所述初始轨迹集合
Figure BDA00023117491000000712
中删除,N一般取值为5~8。
在MOT17公开多目标行人跟踪数据集上,本发明的跟踪结果如下表所示。可以看到,在大多数指标中,特别是在F1得分、跟踪率、ID交换次数和精度中,都优于现有的其他技术,并且可以以实时速度运行。ID交换次数的改进表明,在目标发生交互、遮挡情况下,通过该方法提取的表观特征增强了***的识别能力,减少了跟踪的不准确性。假阳性和跟踪率的改进表明了本发明的抗遮挡目标跟踪方法的有效性。
表1试验结果
方法 精度 F1得分 跟踪率 丢失率 假阳性 假阴性 ID交换次数 速度
HISP 44.6 38.8 15.1% 38.8% 25,478 276,395 10,617 4.7
SORT 43.1 39.8 12.5% 42.3% 28,398 287,582 4,852 143.3
FPSN 44.9 48.4 16.5% 35.8% 33,757 269,952 7,136 10.1
MASS 46.9 46 16.9% 36.3% 25,773 269,116 4,478 17.1
OTCD 44.6 38.8 15.1% 38.8% 25,478 276,359 3,573 46.5
本发明 47.4 50.1 16.8% 37.2% 26,910 267,331 2,760 35.7
本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上内容是结合具体的优选实施方式对本发明所做的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (10)

1.一种抗遮挡目标跟踪方法,其特征在于,包括如下步骤:
S1:将视频或图像序列按帧输入到目标检测器中得到目标检测结果,所述目标检测结果是基于检测的候选项,包括每帧图像中所有目标的边界框及检测置信度;
S2:根据所述目标检测结果利用联合检测跟踪框架对每帧图像生成基于跟踪的候选项,所述联合检测跟踪框架是通过卡尔曼滤波器及相机运动补偿,对所述目标检测结果进行跟踪运动估计,得到基于跟踪的候选项;
S3:根据所述基于检测的候选项和所述基于跟踪的候选项的置信度大小,运用非极大值抑制算法对所述基于检测的候选项和所述基于跟踪的候选项进行筛选得到筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项;
S4:利用预训练好的深度神经网络提取当前帧所有筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项的表观特征;
S5:利用级联匹配算法计算相邻帧的目标匹配度,包括:筛选后的所述基于检测的候选项对相邻帧的现有轨迹进行表观特征相似度匹配;筛选后的所述基于跟踪的候选项与相邻帧的现有轨迹的目标边界框进行边界框交并比重合度匹配;
S6:根据所述相邻帧的目标匹配度,确定目标在当前帧的位置,从而输出目标运动轨迹。
2.如权利要求1所述的抗遮挡目标跟踪方法,其特征在于,所述目标检测器是SDP目标检测器。
3.如权利要求1所述的抗遮挡目标跟踪方法,其特征在于,所述置信度由以下置信度评分公式得到:
Figure FDA0002311749090000011
其中,
Figure FDA0002311749090000012
为第t-1帧的检测置信度,
Figure FDA0002311749090000013
为第t帧的跟踪置信度,Ndet为待关联轨迹中所述基于检测的候选项的个数,Ntrk为上一次待关联轨迹中所述基于跟踪的候选项的个数,I(·)为二值函数,当函数内为真时,值为1,否则为0,参数α是常数。
4.如权利要求1所述的抗遮挡目标跟踪方法,其特征在于,运用非极大值抑制算法对所述基于检测的候选项和所述基于跟踪的候选项进行筛选得到筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项包括如下步骤:
S21:根据所有所述基于检测的候选项和所述基于跟踪的候选项的置信度得分大小进行排序得到候选列表;
S22:选择置信度最高的所述基于检测的候选项和所述基于跟踪的候选项添加到最终输出列表中并从所述候选项列表中删除;
S23:计算置信度最高的所述基于检测的候选项和所述基于跟踪的候选项与其它候选项的边界框交并比并删除边界框交并比大于预设阈值的所述基于检测的候选项和所述基于跟踪的候选项;
S24:重复上述过程直至所述候选项列表为空,所述最终输出列表中即为筛选后的所述基于检测的候选项和所述基于跟踪的候选项。
5.如权利要求4所述的抗遮挡目标跟踪方法,其特征在于,所述预设阈值是0.3-0.5。
6.如权利要求1所述的抗遮挡目标跟踪方法,其特征在于,所述深度神经网络是以GoogLeNet为基础的网络,包括从输入层到inception-4e层,之后通过1×1的卷积层进行连接。
7.如权利要求6所述的抗遮挡目标跟踪方法,其特征在于,所述神经网络的训练的损失函数为:
ltriplet(Ii,Ij,Ik)=m+d(Ii,Ij)-d(Ii,Ik)
其中,Ii,Ij为来自同一身份的图片,Ii,Ik为来自不同身份的图片,d表示欧式距离,m为常数。
8.如权利要求1所述的抗遮挡目标跟踪方法,其特征在于,利用级联匹配算法计算相邻帧的目标匹配度包括如下步骤:
S51:获取第一帧的目标检测结果,并将其中每一个目标生成一条轨迹,得到初始轨迹集合
Figure FDA0002311749090000021
筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项组成的候选项集合
Figure FDA0002311749090000022
所述表观特征
Figure FDA0002311749090000023
并构建匹配到的所有候选项集合
Figure FDA0002311749090000024
未匹配的所有候选项集合
Figure FDA0002311749090000025
S52:将筛选后的所述基于检测的候选项
Figure FDA0002311749090000026
与所述初始轨迹集合
Figure FDA0002311749090000027
进行特征相似度计算,根据匹配结果更新所述匹配到的候选项集合
Figure FDA0002311749090000031
所述未匹配的候选项集合
Figure FDA0002311749090000032
所述初始轨迹集合
Figure FDA0002311749090000033
S53:将筛选后的所述基于跟踪的候选项
Figure FDA0002311749090000034
与更新后的所述初始轨迹集合
Figure FDA0002311749090000035
的目标边界框进行边界框交并比重合度匹配,根据匹配结果更新所述匹配到的候选项集合
Figure FDA0002311749090000036
所述未匹配的候选项集合
Figure FDA0002311749090000037
9.如权利要求8所述的抗遮挡目标跟踪方法,其特征在于,将所述匹配到的候选项集合
Figure FDA0002311749090000038
中每一个候选项边界框与匹配到的所述初始轨迹集合
Figure FDA0002311749090000039
中的轨迹段进行连接;将所述未匹配的候选项集合
Figure FDA00023117490900000310
初始化成一条新的轨迹;对于所述初始轨迹集合
Figure FDA00023117490900000311
中未匹配到的轨迹段设为临时轨迹段,若在之后连续N帧内没有被匹配到,则认为所述临时轨迹段已经结束,并将其从所述初始轨迹集合
Figure FDA00023117490900000312
中删除;N取值为5~8。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-9任一所述方法的步骤。
CN201911261618.2A 2019-12-10 2019-12-10 一种抗遮挡目标跟踪方法 Active CN111080673B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911261618.2A CN111080673B (zh) 2019-12-10 2019-12-10 一种抗遮挡目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911261618.2A CN111080673B (zh) 2019-12-10 2019-12-10 一种抗遮挡目标跟踪方法

Publications (2)

Publication Number Publication Date
CN111080673A true CN111080673A (zh) 2020-04-28
CN111080673B CN111080673B (zh) 2023-04-18

Family

ID=70313832

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911261618.2A Active CN111080673B (zh) 2019-12-10 2019-12-10 一种抗遮挡目标跟踪方法

Country Status (1)

Country Link
CN (1) CN111080673B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112016445A (zh) * 2020-08-27 2020-12-01 重庆科技学院 一种基于监控视频的遗留物检测方法
CN112509338A (zh) * 2020-09-11 2021-03-16 博云视觉(北京)科技有限公司 一种静默式低点视频监控交通拥堵事件检测方法
CN112734800A (zh) * 2020-12-18 2021-04-30 上海交通大学 一种基于联合检测与表征提取的多目标跟踪***和方法
CN112883819A (zh) * 2021-01-26 2021-06-01 恒睿(重庆)人工智能技术研究院有限公司 多目标跟踪方法、装置、***及计算机可读存储介质
CN112990072A (zh) * 2021-03-31 2021-06-18 广州敏视数码科技有限公司 一种基于高低双阈值的目标检测与跟踪方法
CN113223051A (zh) * 2021-05-12 2021-08-06 北京百度网讯科技有限公司 轨迹优化方法、装置、设备、存储介质以及程序产品
CN113592902A (zh) * 2021-06-21 2021-11-02 北京迈格威科技有限公司 目标跟踪方法、装置、计算机设备和存储介质
CN113689462A (zh) * 2020-05-19 2021-11-23 深圳绿米联创科技有限公司 目标物处理方法、装置以及电子设备
CN114972418A (zh) * 2022-03-30 2022-08-30 北京航空航天大学 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170286774A1 (en) * 2016-04-04 2017-10-05 Xerox Corporation Deep data association for online multi-class multi-object tracking
CN109919981A (zh) * 2019-03-11 2019-06-21 南京邮电大学 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170286774A1 (en) * 2016-04-04 2017-10-05 Xerox Corporation Deep data association for online multi-class multi-object tracking
CN109919981A (zh) * 2019-03-11 2019-06-21 南京邮电大学 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周维;陈听海;邱宝鑫: "引入特征重检的抗遮挡目标跟踪方法研究" *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113689462A (zh) * 2020-05-19 2021-11-23 深圳绿米联创科技有限公司 目标物处理方法、装置以及电子设备
CN112016445A (zh) * 2020-08-27 2020-12-01 重庆科技学院 一种基于监控视频的遗留物检测方法
CN112509338A (zh) * 2020-09-11 2021-03-16 博云视觉(北京)科技有限公司 一种静默式低点视频监控交通拥堵事件检测方法
CN112734800A (zh) * 2020-12-18 2021-04-30 上海交通大学 一种基于联合检测与表征提取的多目标跟踪***和方法
CN112883819A (zh) * 2021-01-26 2021-06-01 恒睿(重庆)人工智能技术研究院有限公司 多目标跟踪方法、装置、***及计算机可读存储介质
CN112883819B (zh) * 2021-01-26 2023-12-08 恒睿(重庆)人工智能技术研究院有限公司 多目标跟踪方法、装置、***及计算机可读存储介质
CN112990072A (zh) * 2021-03-31 2021-06-18 广州敏视数码科技有限公司 一种基于高低双阈值的目标检测与跟踪方法
CN113223051A (zh) * 2021-05-12 2021-08-06 北京百度网讯科技有限公司 轨迹优化方法、装置、设备、存储介质以及程序产品
CN113592902A (zh) * 2021-06-21 2021-11-02 北京迈格威科技有限公司 目标跟踪方法、装置、计算机设备和存储介质
CN114972418A (zh) * 2022-03-30 2022-08-30 北京航空航天大学 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法
CN114972418B (zh) * 2022-03-30 2023-11-21 北京航空航天大学 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法

Also Published As

Publication number Publication date
CN111080673B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
CN111080673B (zh) 一种抗遮挡目标跟踪方法
CN109360226B (zh) 一种基于时间序列多特征融合的多目标跟踪方法
CN110516556B (zh) 基于Darkflow-DeepSort的多目标追踪检测方法、装置及存储介质
Sun et al. A survey of multiple pedestrian tracking based on tracking-by-detection framework
US11094070B2 (en) Visual multi-object tracking based on multi-Bernoulli filter with YOLOv3 detection
Feng et al. Dynamic saliency-aware regularization for correlation filter-based object tracking
Zhou et al. Improving video saliency detection via localized estimation and spatiotemporal refinement
Xiang et al. Online multi-object tracking based on feature representation and Bayesian filtering within a deep learning architecture
WO2009109127A1 (en) Real-time body segmentation system
CN111862145B (zh) 一种基于多尺度行人检测的目标跟踪方法
Kim et al. Multiple player tracking in soccer videos: an adaptive multiscale sampling approach
CN110991397B (zh) 一种行进方向确定方法及相关设备
CN110349188B (zh) 基于tsk模糊模型的多目标跟踪方法、装置及存储介质
Al-Shakarji et al. Robust multi-object tracking with semantic color correlation
Naik et al. YOLOv3-SORT: detection and tracking player/ball in soccer sport
Iraei et al. Object tracking with occlusion handling using mean shift, Kalman filter and edge histogram
CN112541441A (zh) 一种融合相关滤波的gm-phd视频多目标跟踪方法
CN111161325A (zh) 基于卡尔曼滤波与lstm的三维多目标跟踪方法
Lit et al. Multiple object tracking with gru association and kalman prediction
Poiesi et al. Tracking multiple high-density homogeneous targets
Lu et al. Multi-target tracking by non-linear motion patterns based on hierarchical network flows
Saada et al. A multi-object tracker using dynamic Bayesian networks and a residual neural network based similarity estimator
Najeeb et al. A survey on object detection and tracking in soccer videos
CN115188081B (zh) 一种面向复杂场景的检测跟踪一体化方法
Khan et al. Foreground detection using motion histogram threshold algorithm in high-resolution large datasets

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant