CN111080673A - 一种抗遮挡目标跟踪方法 - Google Patents
一种抗遮挡目标跟踪方法 Download PDFInfo
- Publication number
- CN111080673A CN111080673A CN201911261618.2A CN201911261618A CN111080673A CN 111080673 A CN111080673 A CN 111080673A CN 201911261618 A CN201911261618 A CN 201911261618A CN 111080673 A CN111080673 A CN 111080673A
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- detection
- candidate
- candidate item
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000001514 detection method Methods 0.000 claims abstract description 93
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 21
- 238000013528 artificial neural network Methods 0.000 claims abstract description 11
- 230000001629 suppression Effects 0.000 claims abstract description 7
- 238000012216 screening Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 8
- 230000003993 interaction Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 101000986595 Homo sapiens Ornithine transcarbamylase, mitochondrial Proteins 0.000 description 1
- 101000642315 Homo sapiens Spermatogenesis-associated protein 17 Proteins 0.000 description 1
- 102100028200 Ornithine transcarbamylase, mitochondrial Human genes 0.000 description 1
- 102100036408 Spermatogenesis-associated protein 17 Human genes 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 201000011278 ornithine carbamoyltransferase deficiency Diseases 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种抗遮挡目标跟踪方法,首先对于输入视频或图像序列,采用目标检测器对视频中的每一帧图像进行检测得到基于检测的候选项;根据输出当前帧的目标检测结果,运用卡尔曼滤波器预测目标在下一帧的位置得到基于跟踪的候选项。根据置信度评分公式计算候选项的置信度,采用非极大值抑制算法得到最终候选项;将相邻帧的候选项输入特征匹配网络,通过级联匹配算法计算目标间的匹配度。将基于检测的候选项通过深度神经网络进行特征提取,进行特征间相似度的匹配;基于跟踪的候选项进行IOU重合度匹配。根据相邻帧的目标匹配结果确定目标在当前帧的位置从而输出目标运动轨迹。在目标遮挡的情况下检测跟踪到目标,并提高跟踪的精度和性能。
Description
技术领域
本发明涉及目标跟踪技术领域,尤其涉及一种抗遮挡目标跟踪方法。
背景技术
近年来,随着深度神经网络的不断发展和GPU算力的不断提升,基于深度学习的方法在计算机视觉任务上取得突破性进展。目标检测、目标识别、目标跟踪、行人重识别等计算机视觉技术快速发展,在智能监控、人机交互、虚拟现实和增强现实、医疗影像分析等诸多行业和领域中得到了广泛应用。
多目标跟踪(Multi Object Tracking)是经典的计算机视觉任务,通过目标跟踪得到的感兴趣区域是进一步进行高层视觉分析的基础,目标跟踪的准确度将直接影响到计算机视觉***的性能。现有的多目标跟踪方法大都采用基于检测的跟踪(Tracking-by-Detection),即基于目标检测器的检测结果下,对帧与帧之间来自相同目标的检测结果进行运动轨迹关联。这种检测方法很大程度上依赖于检测结果。然而,在许多实际应用中,特别是在拥挤的场景中,由于目标之间的交互、目标表观相似和频繁遮挡,检测器的检测结果通常不够准确,从而严重的影响了跟踪的精度和性能。
现有的多目标跟踪算法有的通过大规模数据集重新训练目标检测器以得到更为准确的检测结果,然而忽略了视频图像中的运动信息,方法不够高效。有的通过设计和训练更深的神经网络进行特征提取,以得到更为鲁棒的目标特征,然而基于外观的特征很难解决表观相似性问题,且很难保障算法的实时性能。综上所述,亟需提出新的用于解决目标遮挡交互的抗遮挡目标跟踪方法。
发明内容
本发明为了解决现有的问题,提供一种抗遮挡目标跟踪方法。
为了解决上述问题,本发明采用的技术方案如下所述:
一种抗遮挡目标跟踪方法,包括如下步骤:S1:将视频或图像序列按帧输入到目标检测器中得到目标检测结果,所述目标检测结果是基于检测的候选项,包括每帧图像中所有目标的边界框及检测置信度;S2:根据所述目标检测结果利用联合检测跟踪框架对每帧图像生成基于跟踪的候选项,所述联合检测跟踪框架是通过卡尔曼滤波器及相机运动补偿,对检测结果进行跟踪运动估计,从而得到基于跟踪的候选项;S3:根据所述基于检测的候选项和所述基于跟踪的候选项的置信度大小,运用非极大值抑制算法对所述基于检测的候选项和所述基于跟踪的候选项进行筛选得到筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项;S4:利用预训练好的深度神经网络提取当前帧所有筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项的表观特征;S5:利用级联匹配算法计算相邻帧的目标匹配度,包括:筛选后的所述基于检测的候选项对相邻帧的现有轨迹进行表观特征相似度匹配;筛选后的所述基于跟踪的候选项与相邻帧的现有轨迹的目标边界框进行边界框交并比重合度匹配;S6:根据所述相邻帧的目标匹配度,确定目标在当前帧的位置,从而输出目标运动轨迹。
优选地,所述目标检测器是SDP目标检测器。
优选地,所述置信度由以下置信度评分公式得到:
其中,为第t-1帧的检测置信度,为第t帧的跟踪置信度,为待关联轨迹中所述基于检测的候选项的个数,Ntrk为上一次待关联轨迹中所述基于跟踪的候选项的个数,I(·)为二值函数,当函数内为真时,值为1,否则为0,参数α是常数。
优选地,运用非极大值抑制算法对所述基于检测的候选项和所述基于跟踪的候选项进行筛选得到筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项包括如下步骤:S21:根据所有所述基于检测的候选项和所述基于跟踪的候选项的置信度得分大小进行排序得到候选列表;S22:选择置信度最高的所述基于检测的候选项和所述基于跟踪的候选项添加到最终输出列表中并从所述候选项列表中删除;S23:计算置信度最高的所述基于检测的候选项和所述基于跟踪的候选项与其它候选项的边界框交并比并删除边界框交并比大于预设阈值的所述基于检测的候选项和所述基于跟踪的候选项;S24:重复上述过程直至所述候选项列表为空,所述最终输出列表中即为筛选后的所述基于检测的候选项和所述基于跟踪的候选项。
优选地,所述预设阈值是0.3-0.5。
优选地,所述深度神经网络是以GoogLeNet为基础的网络,包括从输入层到inception4e层,之后通过1×1的卷积层进行连接。
优选地,所述神经网络的训练的损失函数为:
ltriplet(Ii,Ij,Ik)=m+d(Ii,Ij)-d(Ii,Ik)
其中,Ii,Ij为来自同一身份的图片,Ii,Ik为来自不同身份的图片,d表示欧式距离,m为常数。
优选地,利用级联匹配算法计算相邻帧的目标匹配度包括如下步骤:S51:获取第一帧的目标检测结果,并将其中每一个目标生成一条轨迹,得到初始轨迹集合筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项组成的候选项集合所述表观特征并构建匹配到的所有候选项集合未匹配的所有候选项集合S52:将筛选后的所述基于检测的候选项与所述初始轨迹集合进行特征相似度计算,根据匹配结果更新所述匹配到的候选项集合所述未匹配的候选项集合所述初始轨迹集合S53:将筛选后的所述基于跟踪的候选项与更新后的所述初始轨迹集合的目标边界框进行边界框交并比重合度匹配,根据匹配结果更新所述匹配到的候选项集合所述未匹配的候选项集合
优选地,将所述匹配到的候选项集合中每一个候选项边界框与匹配到的所述初始轨迹集合中的轨迹段进行连接;将所述未匹配的候选项集合初始化成一条新的轨迹;对于所述初始轨迹集合中未匹配到的轨迹段设为临时轨迹段,若在之后连续N帧内没有被匹配到,则认为所述临时轨迹段已经结束,并将其从所述初始轨迹集合中删除。N取值为5~8。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上任一所述方法的步骤。
本发明的有益效果为:提供一种抗遮挡目标跟踪方法,通过联合检测跟踪框架和级联匹配算法共同作用,可以在目标交互遮挡、检测器检测结果不准确时,通过联合联合检测跟踪框架生成更优的候选项,进行目标级联匹配。解决目标交互遮挡时检测不准确的问题,减少目标遮挡对跟踪效果的影响,从而实现目标遮挡时的准确跟踪。
更进一步的,实现非常简单,计算开销较小,算法在GPU上可以达到30帧/秒的运算速度,可以实现实时跟踪。与传统的目标跟踪方法相比,本发明所需的计算开销少,抗遮挡能力强,实时性高。
附图说明
图1是本发明实施例中抗遮挡目标跟踪方法的示意图。
图2是本发明实施例中获取筛选后的基于检测的候选项和筛选后的基于跟踪的候选项的方法示意图。
图3是本发明实施例中利用级联匹配算法计算相邻帧的目标匹配度的方法示意图。
具体实施方式
为了使本发明实施例所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
需要说明的是,当元件被称为“固定于”或“设置于”另一个元件,它可以直接在另一个元件上或者间接在该另一个元件上。当一个元件被称为是“连接于”另一个元件,它可以是直接连接到另一个元件或间接连接至该另一个元件上。另外,连接既可以是用于固定作用也可以是用于电路连通作用。
需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明实施例和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多该特征。在本发明实施例的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
如图1所示,本发明提供一种抗遮挡目标跟踪方法,包括如下步骤:
S1:将视频或图像序列按帧输入到目标检测器中得到目标检测结果,所述目标检测结果是基于检测的候选项,包括每帧图像中所有目标的边界框及检测置信度;
S2:根据所述目标检测结果利用联合检测跟踪框架对每帧图像生成基于跟踪的候选项,所述联合检测跟踪框架是通过卡尔曼滤波器及相机运动补偿,对检测结果进行跟踪运动估计,从而得到基于跟踪的候选项;
以第N帧为例,根据当前帧的SDP目标检测器输出的目标边界框位置作为第N帧基于检测的候选项。同时,将目标边界框的位置输入到卡尔曼滤波器中,估计目标边界框在下一帧的位置,作为第N+1帧基于跟踪的候选项。
S3:根据所述基于检测的候选项和所述基于跟踪的候选项的置信度大小,运用非极大值抑制算法对所述基于检测的候选项和所述基于跟踪的候选项进行筛选得到筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项;
S4:利用预训练好的深度神经网络提取当前帧所有筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项的表观特征;
在本发明的一种实施例中得到的表观特征为512维深度特征;
S5:利用级联匹配算法计算相邻帧的目标匹配度,包括:筛选后的所述基于检测的候选项对相邻帧的现有轨迹进行表观特征相似度匹配;筛选后的所述基于跟踪的候选项与相邻帧的现有轨迹的目标边界框进行边界框交并比重合度匹配;
S6:根据所述相邻帧的目标匹配度,确定目标在当前帧的位置,从而输出目标运动轨迹。
在本发明的一种实施例中,所述目标检测器是SDP目标检测器。
置信度由以下置信度评分公式得到:
其中,为第t-1帧的检测置信度,为第t帧的跟踪置信度,Ndet为待关联轨迹中所述基于检测的候选项的个数,Ntrk为上一次待关联轨迹中所述基于跟踪的候选项的个数,I(·)为二值函数,当函数内为真时,值为1,否则为0,参数α是常数。
在本发明的一种实施例中,α值为0.05。
如图2所示,运用非极大值抑制算法对所述基于检测的候选项和所述基于跟踪的候选项进行筛选得到筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项包括如下步骤:
S21:根据所有所述基于检测的候选项和所述基于跟踪的候选项的置信度得分大小进行排序得到候选列表;
S22:选择置信度最高的所述基于检测的候选项和所述基于跟踪的候选项添加到最终输出列表中并从所述候选项列表中删除;
S23:计算置信度最高的所述基于检测的候选项和所述基于跟踪的候选项与其它候选项的边界框交并比并删除边界框交并比大于预设阈值的所述基于检测的候选项和所述基于跟踪的候选项;
S24:重复上述过程直至所述候选项列表为空,所述最终输出列表中即为筛选后的所述基于检测的候选项和所述基于跟踪的候选项。
在本发明的一种实施例中,预设阈值是0.3-0.5。
深度神经网络是以GoogLeNet为基础的网络,包括从输入层到inception4e层,之后通过1×1的卷积层进行连接。网络输入图片大小为160×80,输出目标特征为512维。该网络在大规模行人重识别数据集上进行预训练,损失函数为:
ltriplet(Ii,Ij,Ik)=m+d(Ii,Ij)-d(Ii,Ik)
其中,Ii,Ij为来自同一身份的图片,Ii,Ik为来自不同身份的图片,d表示欧式距离,m为常数。
如图3所示,利用级联匹配算法计算相邻帧的目标匹配度包括如下步骤:
S51:获取第一帧的目标检测结果,并将其中每一个目标生成一条轨迹,得到初始轨迹集合筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项组成的候选项集合所述表观特征并构建匹配到的所有候选项集合未匹配的所有候选项集合
在本发明的一种实施例中,采用匈牙利算法进行特征相似度匹配。
在本发明的一种实施例中,采用匈牙利算法进行边界框交并比重合度匹配。
更进一步的,将所述匹配到的候选项集合中每一个候选项边界框与匹配到的所述初始轨迹集合中的轨迹段进行连接;将所述未匹配的候选项集合初始化成一条新的轨迹;对于所述初始轨迹集合中未匹配到的轨迹段设为临时轨迹段,若在之后连续N帧内没有被匹配到,则认为所述临时轨迹段已经结束,并将其从所述初始轨迹集合中删除,N一般取值为5~8。
在MOT17公开多目标行人跟踪数据集上,本发明的跟踪结果如下表所示。可以看到,在大多数指标中,特别是在F1得分、跟踪率、ID交换次数和精度中,都优于现有的其他技术,并且可以以实时速度运行。ID交换次数的改进表明,在目标发生交互、遮挡情况下,通过该方法提取的表观特征增强了***的识别能力,减少了跟踪的不准确性。假阳性和跟踪率的改进表明了本发明的抗遮挡目标跟踪方法的有效性。
表1试验结果
方法 | 精度 | F1得分 | 跟踪率 | 丢失率 | 假阳性 | 假阴性 | ID交换次数 | 速度 |
HISP | 44.6 | 38.8 | 15.1% | 38.8% | 25,478 | 276,395 | 10,617 | 4.7 |
SORT | 43.1 | 39.8 | 12.5% | 42.3% | 28,398 | 287,582 | 4,852 | 143.3 |
FPSN | 44.9 | 48.4 | 16.5% | 35.8% | 33,757 | 269,952 | 7,136 | 10.1 |
MASS | 46.9 | 46 | 16.9% | 36.3% | 25,773 | 269,116 | 4,478 | 17.1 |
OTCD | 44.6 | 38.8 | 15.1% | 38.8% | 25,478 | 276,359 | 3,573 | 46.5 |
本发明 | 47.4 | 50.1 | 16.8% | 37.2% | 26,910 | 267,331 | 2,760 | 35.7 |
本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上内容是结合具体的优选实施方式对本发明所做的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。
Claims (10)
1.一种抗遮挡目标跟踪方法,其特征在于,包括如下步骤:
S1:将视频或图像序列按帧输入到目标检测器中得到目标检测结果,所述目标检测结果是基于检测的候选项,包括每帧图像中所有目标的边界框及检测置信度;
S2:根据所述目标检测结果利用联合检测跟踪框架对每帧图像生成基于跟踪的候选项,所述联合检测跟踪框架是通过卡尔曼滤波器及相机运动补偿,对所述目标检测结果进行跟踪运动估计,得到基于跟踪的候选项;
S3:根据所述基于检测的候选项和所述基于跟踪的候选项的置信度大小,运用非极大值抑制算法对所述基于检测的候选项和所述基于跟踪的候选项进行筛选得到筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项;
S4:利用预训练好的深度神经网络提取当前帧所有筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项的表观特征;
S5:利用级联匹配算法计算相邻帧的目标匹配度,包括:筛选后的所述基于检测的候选项对相邻帧的现有轨迹进行表观特征相似度匹配;筛选后的所述基于跟踪的候选项与相邻帧的现有轨迹的目标边界框进行边界框交并比重合度匹配;
S6:根据所述相邻帧的目标匹配度,确定目标在当前帧的位置,从而输出目标运动轨迹。
2.如权利要求1所述的抗遮挡目标跟踪方法,其特征在于,所述目标检测器是SDP目标检测器。
4.如权利要求1所述的抗遮挡目标跟踪方法,其特征在于,运用非极大值抑制算法对所述基于检测的候选项和所述基于跟踪的候选项进行筛选得到筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项包括如下步骤:
S21:根据所有所述基于检测的候选项和所述基于跟踪的候选项的置信度得分大小进行排序得到候选列表;
S22:选择置信度最高的所述基于检测的候选项和所述基于跟踪的候选项添加到最终输出列表中并从所述候选项列表中删除;
S23:计算置信度最高的所述基于检测的候选项和所述基于跟踪的候选项与其它候选项的边界框交并比并删除边界框交并比大于预设阈值的所述基于检测的候选项和所述基于跟踪的候选项;
S24:重复上述过程直至所述候选项列表为空,所述最终输出列表中即为筛选后的所述基于检测的候选项和所述基于跟踪的候选项。
5.如权利要求4所述的抗遮挡目标跟踪方法,其特征在于,所述预设阈值是0.3-0.5。
6.如权利要求1所述的抗遮挡目标跟踪方法,其特征在于,所述深度神经网络是以GoogLeNet为基础的网络,包括从输入层到inception-4e层,之后通过1×1的卷积层进行连接。
7.如权利要求6所述的抗遮挡目标跟踪方法,其特征在于,所述神经网络的训练的损失函数为:
ltriplet(Ii,Ij,Ik)=m+d(Ii,Ij)-d(Ii,Ik)
其中,Ii,Ij为来自同一身份的图片,Ii,Ik为来自不同身份的图片,d表示欧式距离,m为常数。
8.如权利要求1所述的抗遮挡目标跟踪方法,其特征在于,利用级联匹配算法计算相邻帧的目标匹配度包括如下步骤:
S51:获取第一帧的目标检测结果,并将其中每一个目标生成一条轨迹,得到初始轨迹集合筛选后的所述基于检测的候选项和筛选后的所述基于跟踪的候选项组成的候选项集合所述表观特征并构建匹配到的所有候选项集合未匹配的所有候选项集合
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-9任一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911261618.2A CN111080673B (zh) | 2019-12-10 | 2019-12-10 | 一种抗遮挡目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911261618.2A CN111080673B (zh) | 2019-12-10 | 2019-12-10 | 一种抗遮挡目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111080673A true CN111080673A (zh) | 2020-04-28 |
CN111080673B CN111080673B (zh) | 2023-04-18 |
Family
ID=70313832
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911261618.2A Active CN111080673B (zh) | 2019-12-10 | 2019-12-10 | 一种抗遮挡目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111080673B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112016445A (zh) * | 2020-08-27 | 2020-12-01 | 重庆科技学院 | 一种基于监控视频的遗留物检测方法 |
CN112509338A (zh) * | 2020-09-11 | 2021-03-16 | 博云视觉(北京)科技有限公司 | 一种静默式低点视频监控交通拥堵事件检测方法 |
CN112734800A (zh) * | 2020-12-18 | 2021-04-30 | 上海交通大学 | 一种基于联合检测与表征提取的多目标跟踪***和方法 |
CN112883819A (zh) * | 2021-01-26 | 2021-06-01 | 恒睿(重庆)人工智能技术研究院有限公司 | 多目标跟踪方法、装置、***及计算机可读存储介质 |
CN112990072A (zh) * | 2021-03-31 | 2021-06-18 | 广州敏视数码科技有限公司 | 一种基于高低双阈值的目标检测与跟踪方法 |
CN113223051A (zh) * | 2021-05-12 | 2021-08-06 | 北京百度网讯科技有限公司 | 轨迹优化方法、装置、设备、存储介质以及程序产品 |
CN113592902A (zh) * | 2021-06-21 | 2021-11-02 | 北京迈格威科技有限公司 | 目标跟踪方法、装置、计算机设备和存储介质 |
CN113689462A (zh) * | 2020-05-19 | 2021-11-23 | 深圳绿米联创科技有限公司 | 目标物处理方法、装置以及电子设备 |
CN114972418A (zh) * | 2022-03-30 | 2022-08-30 | 北京航空航天大学 | 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170286774A1 (en) * | 2016-04-04 | 2017-10-05 | Xerox Corporation | Deep data association for online multi-class multi-object tracking |
CN109919981A (zh) * | 2019-03-11 | 2019-06-21 | 南京邮电大学 | 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法 |
-
2019
- 2019-12-10 CN CN201911261618.2A patent/CN111080673B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170286774A1 (en) * | 2016-04-04 | 2017-10-05 | Xerox Corporation | Deep data association for online multi-class multi-object tracking |
CN109919981A (zh) * | 2019-03-11 | 2019-06-21 | 南京邮电大学 | 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
周维;陈听海;邱宝鑫: "引入特征重检的抗遮挡目标跟踪方法研究" * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113689462A (zh) * | 2020-05-19 | 2021-11-23 | 深圳绿米联创科技有限公司 | 目标物处理方法、装置以及电子设备 |
CN112016445A (zh) * | 2020-08-27 | 2020-12-01 | 重庆科技学院 | 一种基于监控视频的遗留物检测方法 |
CN112509338A (zh) * | 2020-09-11 | 2021-03-16 | 博云视觉(北京)科技有限公司 | 一种静默式低点视频监控交通拥堵事件检测方法 |
CN112734800A (zh) * | 2020-12-18 | 2021-04-30 | 上海交通大学 | 一种基于联合检测与表征提取的多目标跟踪***和方法 |
CN112883819A (zh) * | 2021-01-26 | 2021-06-01 | 恒睿(重庆)人工智能技术研究院有限公司 | 多目标跟踪方法、装置、***及计算机可读存储介质 |
CN112883819B (zh) * | 2021-01-26 | 2023-12-08 | 恒睿(重庆)人工智能技术研究院有限公司 | 多目标跟踪方法、装置、***及计算机可读存储介质 |
CN112990072A (zh) * | 2021-03-31 | 2021-06-18 | 广州敏视数码科技有限公司 | 一种基于高低双阈值的目标检测与跟踪方法 |
CN113223051A (zh) * | 2021-05-12 | 2021-08-06 | 北京百度网讯科技有限公司 | 轨迹优化方法、装置、设备、存储介质以及程序产品 |
CN113592902A (zh) * | 2021-06-21 | 2021-11-02 | 北京迈格威科技有限公司 | 目标跟踪方法、装置、计算机设备和存储介质 |
CN114972418A (zh) * | 2022-03-30 | 2022-08-30 | 北京航空航天大学 | 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法 |
CN114972418B (zh) * | 2022-03-30 | 2023-11-21 | 北京航空航天大学 | 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111080673B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111080673B (zh) | 一种抗遮挡目标跟踪方法 | |
CN109360226B (zh) | 一种基于时间序列多特征融合的多目标跟踪方法 | |
CN110516556B (zh) | 基于Darkflow-DeepSort的多目标追踪检测方法、装置及存储介质 | |
Sun et al. | A survey of multiple pedestrian tracking based on tracking-by-detection framework | |
US11094070B2 (en) | Visual multi-object tracking based on multi-Bernoulli filter with YOLOv3 detection | |
Feng et al. | Dynamic saliency-aware regularization for correlation filter-based object tracking | |
Zhou et al. | Improving video saliency detection via localized estimation and spatiotemporal refinement | |
Xiang et al. | Online multi-object tracking based on feature representation and Bayesian filtering within a deep learning architecture | |
WO2009109127A1 (en) | Real-time body segmentation system | |
CN111862145B (zh) | 一种基于多尺度行人检测的目标跟踪方法 | |
Kim et al. | Multiple player tracking in soccer videos: an adaptive multiscale sampling approach | |
CN110991397B (zh) | 一种行进方向确定方法及相关设备 | |
CN110349188B (zh) | 基于tsk模糊模型的多目标跟踪方法、装置及存储介质 | |
Al-Shakarji et al. | Robust multi-object tracking with semantic color correlation | |
Naik et al. | YOLOv3-SORT: detection and tracking player/ball in soccer sport | |
Iraei et al. | Object tracking with occlusion handling using mean shift, Kalman filter and edge histogram | |
CN112541441A (zh) | 一种融合相关滤波的gm-phd视频多目标跟踪方法 | |
CN111161325A (zh) | 基于卡尔曼滤波与lstm的三维多目标跟踪方法 | |
Lit et al. | Multiple object tracking with gru association and kalman prediction | |
Poiesi et al. | Tracking multiple high-density homogeneous targets | |
Lu et al. | Multi-target tracking by non-linear motion patterns based on hierarchical network flows | |
Saada et al. | A multi-object tracker using dynamic Bayesian networks and a residual neural network based similarity estimator | |
Najeeb et al. | A survey on object detection and tracking in soccer videos | |
CN115188081B (zh) | 一种面向复杂场景的检测跟踪一体化方法 | |
Khan et al. | Foreground detection using motion histogram threshold algorithm in high-resolution large datasets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |