CN115830075A - 一种面向行人多目标跟踪的分级关联匹配方法 - Google Patents

一种面向行人多目标跟踪的分级关联匹配方法 Download PDF

Info

Publication number
CN115830075A
CN115830075A CN202310132470.2A CN202310132470A CN115830075A CN 115830075 A CN115830075 A CN 115830075A CN 202310132470 A CN202310132470 A CN 202310132470A CN 115830075 A CN115830075 A CN 115830075A
Authority
CN
China
Prior art keywords
detection
target
score
frame
track
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310132470.2A
Other languages
English (en)
Inventor
梅桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Guangyinfei Technology Development Co ltd
Original Assignee
Wuhan Guangyinfei Technology Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Guangyinfei Technology Development Co ltd filed Critical Wuhan Guangyinfei Technology Development Co ltd
Priority to CN202310132470.2A priority Critical patent/CN115830075A/zh
Publication of CN115830075A publication Critical patent/CN115830075A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种面向行人多目标跟踪的分级关联匹配方法,包括以下步骤:步骤一:获取目标检测框和检测分数;步骤二:预测轨迹在当前帧的位置;步骤三:根据阈值划分高低检测框;步骤四:使用余弦距离度量外观特征距离;步骤五:使用DIoU距离度量运动特征距离;步骤六:采用DIoU距离度量低分检测和未匹配跟踪目标;步骤七:获得目标轨迹的边界框和身份ID,本发明,采用的分级匹配方法引入了低分检测与跟踪目标匹配策略,以恢复低分检测框中的被遮挡的行人目标,减少检测与轨迹匹配之间的漏检,具有可减少检测与轨迹匹配之间漏检的特点。

Description

一种面向行人多目标跟踪的分级关联匹配方法
技术领域
本发明涉及行人多目标跟踪技术领域,具体为一种面向行人多目标跟踪的分级关联匹配方法。
背景技术
在监控视频场景下,很多时刻存在行人拥挤的情况,此时目标处于局部遮挡或者完全遮挡等不同的状态,导致不能及时地更新跟踪目标的轨迹信息。
为了解决目标交互遮挡问题,进一步提升多目标跟踪算法的准确性和实时性,研究方向被聚焦在建立更可靠的数据关联度量上。大多数方法仅仅保留检测分数高于阈值的检测框与轨迹进行数据关联来获得该轨迹在当前帧的身份信息。如果检测分数低于阈值的目标(例如目标被遮挡)被丢弃,就带来了不可忽视的真实目标丢失和目标身份ID切换。但是如果考虑每帧中所有的高低分检测框,则又会引入更多的误检。因此,设计可减少检测与轨迹匹配之间漏检的一种面向行人多目标跟踪的分级关联匹配方法是很有必要的。
发明内容
本发明的目的在于提供一种面向行人多目标跟踪的分级关联匹配方法,以解决上述背景技术中提出的问题。
为了解决上述技术问题,本发明提供如下技术方案:一种面向行人多目标跟踪的分级关联匹配方法,包括
步骤一:获取目标检测框和检测分数;
步骤二:预测轨迹在当前帧的位置;
步骤三:根据阈值划分高低检测框;
步骤四:使用余弦距离度量外观特征距离;
步骤五:使用DIoU距离度量运动特征距离;
步骤六:采用DIoU距离度量低分检测和未匹配跟踪目标;
步骤七:获得目标轨迹的边界框和身份ID。
根据上述技术方案,获取目标检测框和检测分数的方法进一步包括:
首先,输入视频帧
Figure SMS_1
经过MOT-CN网络的全局上下文信息增强网络,提取视频帧特征
Figure SMS_2
其次,提取的共享特征
Figure SMS_3
将被进一步用于多任务的特征解耦;
然后,特征解耦单元输出的特定特征
Figure SMS_4
输入到检测分支、
Figure SMS_5
输入到特征嵌入单元;
最后,根据中心点分数、中心点偏移量、目标边界框来获得目标检测框
Figure SMS_6
和检测分数
Figure SMS_7
根据上述技术方案,预测轨迹在当前帧的位置的方法进一步包括:
在分离出低分检测框和高分检测框前,使用卡尔曼滤波器
Figure SMS_8
来预测
Figure SMS_9
中每个轨迹在当前帧中的新位置
Figure SMS_10
,计算公式如下:
Figure SMS_11
=KF_predict(
Figure SMS_12
)
其中,
Figure SMS_13
为丢失的轨迹。
根据上述技术方案,根据阈值划分高低检测框的具体步骤包括:
根据设置的检测分数阈值
Figure SMS_15
Figure SMS_18
,将所有检测框分为
Figure SMS_21
Figure SMS_16
两部分集合,即对于分数高于
Figure SMS_19
的检测框,放入高分检测框集合
Figure SMS_20
;对于检测分数范围从
Figure SMS_22
Figure SMS_14
的人,则放入低分检测框集合
Figure SMS_17
根据上述技术方案,使用余弦距离度量外观特征距离的方法具体包括:
首先,在当前帧的高分检测框
Figure SMS_23
和上一帧所有已跟踪的目标轨迹
Figure SMS_24
以及丢失的轨迹
Figure SMS_25
之间进行数据关联计算,即利用余弦距离计算高分检测框
Figure SMS_26
和目标轨迹的预测框
Figure SMS_27
的外观相似度
Figure SMS_28
然后,基于外观相似度使用匈牙利算法完成目标之间的匹配。
根据上述技术方案,使用DIoU距离度量运动特征距离的方法进一步包括:
首先,采用DIoU度量来计算高分检测框
Figure SMS_29
和剩余的目标轨迹的预测框
Figure SMS_30
之间的运动特征相似度
Figure SMS_31
然后,使用匈牙利算法完成目标间的匹配。
根据上述技术方案,采用DIoU距离度量低分检测和未匹配跟踪目标的方法进一步包括:
首先采用DIoU度量来计算低分检测框
Figure SMS_32
和剩余的目标轨迹的预测框
Figure SMS_33
之间的运动特征相似度
Figure SMS_34
然后将不匹配的目标轨迹保留在未匹配跟踪
Figure SMS_35
中,并删除所有不匹配的低分检测框。
根据上述技术方案,获得目标轨迹的边界框和身份ID的方法为:对于
Figure SMS_36
中的每个检测框,当其检测分数高于阈值
Figure SMS_37
并且连续超过两帧存在,则获得新的目标轨迹,输出当前帧中目标轨迹
Figure SMS_38
的边界框和目标的身份ID。
一种使用所述的分级关联匹配方法的分级关联匹配***,其特征在于:该***包括:
MOT-CN网络架构,用于获得目标检测框和检测分数;
轨迹预测模块,用于预测轨迹在当前帧的位置;
划分模块,用于根据阈值划分高低检测框;
分析模块,用于分析度量检测目标特征;
匹配获取模块,用于匹配检测分数后获取目标轨迹的边界框和身份ID。
与现有技术相比,本发明所达到的有益效果是:本发明,采用的分级匹配方法引入了低分检测与跟踪目标匹配策略,以恢复低分检测框中的被遮挡的行人目标,减少检测与轨迹匹配之间的漏检。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例一提供的一种面向行人多目标跟踪的分级关联匹配方法的流程图;
图2为本发明实施例二提供的一种面向行人多目标跟踪的分级关联匹配***模块组成示意图;
图3是本发明的MOT-CN网络框架总体结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一,图1为本发明实施例一提供的一种面向行人多目标跟踪的分级关联匹配方法的流程图,本实施例可适用于监控视频场景下,该方法可以由本发明实施例提供的分级关联匹配***来执行,如图1所示,该方法具体包括以下步骤:
步骤一:获取目标检测框和检测分数。
在本发明实施例中,采用基于MOT-CN网络(Multi-Object Tracking forPedestrians based on CenterNet)来获得目标检测框和检测分数,MOT-CN网络由四部分组成:特征提取单元,特征解耦单元,检测分支和特征嵌入。MOT-CN以视频帧
Figure SMS_39
为输入,其中H、W分别表示输入视频帧
Figure SMS_40
的高度和宽度。
示例性的,首先,输入视频帧
Figure SMS_41
经过MOT-CN的全局上下文信息增强(GlobalContext Enhancement Network,GCEN)网络,提取视频帧特征
Figure SMS_42
。GCEN网络中包含了ResNet-34、深层聚合(DLA)变体以及上下文感知增强(CEM)模块和通道注意引导(CAM)模块。GCEN的CEM模块旨在增强高级语义特征并将增强的语义信息传输到低层的特征级别,探索来自多个感受野的大量上下文信息;同时,当在自上而下的路径中合并特征信息时,在每个横向连接中添加一个CAM模块,来优化每个级别的最终集成特征,以减轻混叠效应。GCEN的整体提取特征过程可被表述为
Figure SMS_43
,其中,
Figure SMS_44
表示共享特征提取操作。
其次,提取的共享特征
Figure SMS_46
将被进一步用于多任务的特征解耦。特征解耦单元由两个分支组成,每个分支均包含一个核大小为
Figure SMS_49
的卷积层,用于将学习到的共享特征分解为检测特定信息和ReID信息,以解决多任务的优化矛盾问题。如图3中灰色的解耦块(Decouple block)所示,特征解耦输入为
Figure SMS_52
,两个分支的输出分别为
Figure SMS_47
Figure SMS_50
,该过程可被表述为:
Figure SMS_53
,
Figure SMS_54
,其中
Figure SMS_45
Figure SMS_48
均表示
Figure SMS_51
的卷积操作。
然后,特征解耦单元输出的特定特征
Figure SMS_56
输入到检测分支、
Figure SMS_60
输入到特征嵌入单元。检测分支单元包含三个并行的分支,分别用于估计目标的中心点位置、目标中心偏移量和目标的边界框大小,以便于根据特定的检测信息对相关目标进行定位。检测分支单元输出的特征依次记为中心点位置矩阵
Figure SMS_64
。检测分支单元的每个分支均由一个
Figure SMS_58
的卷积核和一个
Figure SMS_59
卷积核生成最终的目标特征。该过程可被表述为:
Figure SMS_63
Figure SMS_67
Figure SMS_55
,其中
Figure SMS_62
分别表示中心点分支、中心点偏移量分支和边界框尺寸分支的卷积操作。特征嵌入单元利用每个目标中心点提取特征,以用于后续跟踪过程中的外观特征匹配,提高跟踪的鲁棒性。特征嵌入单元的输入特征为
Figure SMS_66
,将最后得到的嵌入特征记为
Figure SMS_69
,则有:
Figure SMS_57
,其中,
Figure SMS_61
是特征提取网络,其由
Figure SMS_65
卷积层和
Figure SMS_68
卷积层组成。
最后,根据中心点分数、中心点偏移量、目标边界框来获得目标检测框
Figure SMS_76
和检测分数
Figure SMS_71
。具体来说,首先根据中心点分数矩阵F1的数值进行排序,选取前N个点,得到检测分数集
Figure SMS_79
和中心点坐标集
Figure SMS_77
;然后在中心点偏移矩阵F2中根据中心点坐标集
Figure SMS_86
的位置取出对应位置的偏移量
Figure SMS_74
,以及在目标边界框矩阵F3中根据中心点坐标集
Figure SMS_81
的位置取出对应位置的上下宽高值
Figure SMS_78
;最后,计算出目标检测框位置集
Figure SMS_83
Figure SMS_70
,其中全文中t表示视频的第几帧。本步骤获得的
Figure SMS_85
根据
Figure SMS_73
和阈值
Figure SMS_80
Figure SMS_72
进一步将
Figure SMS_82
检测框划分高分检测框
Figure SMS_75
和低分检测框
Figure SMS_84
步骤二:预测轨迹在当前帧的位置。
示例性的,在分离出低分检测框和高分检测框前,使用卡尔曼滤波器
Figure SMS_87
来预测
Figure SMS_88
中每个轨迹在当前帧中的新位置
Figure SMS_89
。计算公式如下:
Figure SMS_90
=KF_predict(
Figure SMS_91
)
其中,
Figure SMS_92
为丢失的轨迹。
步骤三:根据阈值划分高低检测框。
示例性的,在本发明实施例中,根据设置的检测分数阈值
Figure SMS_94
Figure SMS_97
,经过实验分析,取
Figure SMS_100
=0.4,
Figure SMS_95
=0.1,可以使得跟踪性能达到最佳。将所有检测框分为
Figure SMS_98
Figure SMS_101
两部分集合,即对于分数高于
Figure SMS_103
的检测框,将它们放入高分检测框集合
Figure SMS_93
;对于检测分数范围从
Figure SMS_96
Figure SMS_99
的人,将它们放入低分检测框集合
Figure SMS_102
步骤四:使用余弦距离度量外观特征距离。
首先,在当前帧的高分检测框
Figure SMS_104
和上一帧所有已跟踪的目标轨迹
Figure SMS_105
以及丢失的轨迹
Figure SMS_106
之间进行数据关联计算,即利用余弦距离计算高分检测框
Figure SMS_107
和目标轨迹的预测框
Figure SMS_108
的外观相似度
Figure SMS_109
。由于目标的外观向量维数比较高,余弦距离在高维情况下依然保持“相同时为1,正交时为0,相反时为-1”的性质,而欧氏距离的数值则受维度的影响,范围不固定,并且含义也比较模糊。因此本发明选择余弦距离来计算两个目标的外观相似性P1,其计算公式如下:
Figure SMS_110
其中,
Figure SMS_111
代表检测目标外观特征,
Figure SMS_112
代表跟踪目标的外观特征,外观特征由第一步骤的特征嵌入单元获得。
然后,基于外观相似度使用匈牙利算法完成目标之间的匹配。匈牙利算法主要依据相似度矩阵找到检测目标和跟踪目标的最佳匹配,将不匹配的检测框保留在高分检测框
Figure SMS_113
中,将不匹配的目标轨迹保留在未匹配跟踪
Figure SMS_114
中。
步骤五:使用DIoU距离度量运动特征距离。
在本发明实施例中,首先,采用DIoU度量来计算高分检测框
Figure SMS_115
和剩余的目标轨迹的预测框
Figure SMS_116
之间的运动特征相似度
Figure SMS_117
,公式如下:
Figure SMS_118
其中,
Figure SMS_120
是检测框
Figure SMS_124
和预测框
Figure SMS_127
的交并比大小;
Figure SMS_122
Figure SMS_125
=
Figure SMS_128
分别表明检测框
Figure SMS_130
和预测框
Figure SMS_119
的中心点坐标,
Figure SMS_123
是欧式距离,在本步骤中目标的中心点为低维数据,其维数为2,欧式距离适合低维数据测量,而步骤四的外观向量是高维数据,适合使用余弦距离测量,
Figure SMS_126
的计算公式为
Figure SMS_129
,用于计算中心点之间的距离;
Figure SMS_121
是覆盖两框的最小矩形框的对角线长度。
然后,使用匈牙利算法完成目标间的匹配。将不匹配的检测框保留在高分检测框
Figure SMS_131
中,将不匹配的目标轨迹保留在未匹配跟踪
Figure SMS_132
中。
步骤六:采用DIoU距离度量低分检测和未匹配跟踪目标。
在本发明实施例中,首先采用DIoU度量来计算低分检测框
Figure SMS_133
和剩余的目标轨迹的预测框
Figure SMS_134
之间的运动特征相似度
Figure SMS_135
,其公式如下:
Figure SMS_136
其中,
Figure SMS_139
是检测框
Figure SMS_142
和预测框
Figure SMS_143
的交并比大小,
Figure SMS_138
Figure SMS_141
分别表明检测框
Figure SMS_144
和预测框
Figure SMS_145
的中心点坐标,
Figure SMS_137
是欧氏距离,用于计算中心点之间的距离,
Figure SMS_140
是覆盖两框的最小矩形框的对角线长度。
然后将不匹配的目标轨迹保留在未匹配跟踪
Figure SMS_146
中,并删除所有不匹配的低分检测框。
步骤七:获得目标轨迹的边界框和身份ID。
在本发明实施例中,对于
Figure SMS_147
中的每个检测框,如果其检测分数高于阈值
Figure SMS_148
并且连续超过两帧存在,则获得新的目标轨迹,输出当前帧中目标轨迹
Figure SMS_149
的边界框和目标的身份ID。
本发明实施例的基本思路在于,对每个检测框根据其检测分数
Figure SMS_150
和高分检测阈值
Figure SMS_151
和低分检测阈值
Figure SMS_152
进行划分,如果
Figure SMS_153
将检测框划分到高分检测框,如果
Figure SMS_154
将检测框划分到低分检测框,依次对高低分检测框进行分级关联匹配,先将高分检测框与轨迹通过外观特征和运动特征进行相似性度量和数据关联匹配,再将余下不匹配的轨迹和低分检测框再次进行相似度计算并关联起来,以恢复低分检测框中的行人目标同时过滤掉背景检测。运动信息利用DIoU度量运动特征的距离,在抑制冗余框时同时考虑目标框之间的重叠区域和两个边界框的中心点距离。
实施例二,本发明实施例二提供了一种面向行人多目标跟踪的分级关联匹配***,图2为本发明实施例二提供的一种面向行人多目标跟踪的分级关联匹配***模块组成示意图,如图2所示,包括:
MOT-CN网络架构,用于获得目标检测框和检测分数。
轨迹预测模块,用于预测轨迹在当前帧的位置。
划分模块,用于根据阈值划分高低检测框。
分析模块,用于分析度量检测目标特征。
匹配获取模块,用于匹配检测分数后获取目标轨迹的边界框和身份ID。
在本发明的一些实施例中,MOT-CN网络架构包括:
特征提取单元,用于对输入视频帧进行提取视频帧特征。
特征解耦单元,用于将学习到的共享特征分解为检测特定信息和ReID信息。
检测分支单元,用于估计目标的中心点位置、目标中心偏移量和目标的边界框大小。
特征嵌入单元,用于利用每个目标中心点提取特征。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种面向行人多目标跟踪的分级关联匹配方法,其特征在于:具体包括以下步骤:
步骤一:获取目标检测框和检测分数;
步骤二:预测轨迹在当前帧的位置;
步骤三:根据阈值划分高低检测框;
步骤四:使用余弦距离度量外观特征距离;
步骤五:使用DIoU距离度量运动特征距离;
步骤六:采用DIoU距离度量低分检测和未匹配跟踪目标;
步骤七:获得目标轨迹的边界框和身份ID。
2.根据权利要求1所述的一种面向行人多目标跟踪的分级关联匹配方法,其特征在于:获取目标检测框和检测分数的方法进一步包括:
首先,输入视频帧
Figure QLYQS_1
经过MOT-CN网络的全局上下文信息增强网络,提取视频帧特征
Figure QLYQS_2
其次,提取的共享特征
Figure QLYQS_3
将被进一步用于多任务的特征解耦;
然后,特征解耦单元输出的特定特征
Figure QLYQS_4
输入到检测分支、
Figure QLYQS_5
输入到特征嵌入单元;
最后,根据中心点分数、中心点偏移量、目标边界框来获得目标检测框
Figure QLYQS_6
和检测分数
Figure QLYQS_7
3.根据权利要求1所述的一种面向行人多目标跟踪的分级关联匹配方法,其特征在于:预测轨迹在当前帧的位置的方法进一步包括:
在分离出低分检测框和高分检测框前,使用卡尔曼滤波器
Figure QLYQS_8
来预测
Figure QLYQS_9
中每个轨迹在当前帧中的新位置
Figure QLYQS_10
,计算公式如下:
Figure QLYQS_11
=KF_predict(
Figure QLYQS_12
)
其中,
Figure QLYQS_13
为丢失的轨迹。
4.根据权利要求1所述的一种面向行人多目标跟踪的分级关联匹配方法,其特征在于:根据阈值划分高低检测框的具体步骤包括:
根据设置的检测分数阈值
Figure QLYQS_15
Figure QLYQS_18
,将所有检测框分为
Figure QLYQS_21
Figure QLYQS_16
两部分集合,即对于分数高于
Figure QLYQS_17
的检测框,放入高分检测框集合
Figure QLYQS_20
;对于检测分数范围从
Figure QLYQS_22
Figure QLYQS_14
的人,则放入低分检测框集合
Figure QLYQS_19
5.根据权利要求1所述的一种面向行人多目标跟踪的分级关联匹配方法,其特征在于:使用余弦距离度量外观特征距离的方法具体包括:
首先,在当前帧的高分检测框
Figure QLYQS_23
和上一帧所有已跟踪的目标轨迹
Figure QLYQS_24
以及丢失的轨迹
Figure QLYQS_25
之间进行数据关联计算,即利用余弦距离计算高分检测框
Figure QLYQS_26
和目标轨迹的预测框
Figure QLYQS_27
的外观相似度
Figure QLYQS_28
然后,基于外观相似度使用匈牙利算法完成目标之间的匹配。
6.根据权利要求1所述的一种面向行人多目标跟踪的分级关联匹配方法,其特征在于:使用DIoU距离度量运动特征距离的方法进一步包括:
首先,采用DIoU度量来计算高分检测框
Figure QLYQS_29
和剩余的目标轨迹的预测框
Figure QLYQS_30
之间的运动特征相似度
Figure QLYQS_31
然后,使用匈牙利算法完成目标间的匹配。
7.根据权利要求1所述的一种面向行人多目标跟踪的分级关联匹配方法,其特征在于:采用DIoU距离度量低分检测和未匹配跟踪目标的方法进一步包括:
首先采用DIoU度量来计算低分检测框
Figure QLYQS_32
和剩余的目标轨迹的预测框
Figure QLYQS_33
之间的运动特征相似度
Figure QLYQS_34
然后将不匹配的目标轨迹保留在未匹配跟踪
Figure QLYQS_35
中,并删除所有不匹配的低分检测框。
8.根据权利要求1所述的一种面向行人多目标跟踪的分级关联匹配方法,其特征在于:获得目标轨迹的边界框和身份ID的方法为:对于
Figure QLYQS_36
中的每个检测框,当其检测分数高于阈值
Figure QLYQS_37
并且连续超过两帧存在,则获得新的目标轨迹,输出当前帧中目标轨迹
Figure QLYQS_38
的边界框和目标的身份ID。
9.一种使用前述权利要求1-8中任一项所述的分级关联匹配方法的分级关联匹配***,其特征在于:该***包括:
MOT-CN网络架构,用于获得目标检测框和检测分数;
轨迹预测模块,用于预测轨迹在当前帧的位置;
划分模块,用于根据阈值划分高低检测框;
分析模块,用于分析度量检测目标特征;
匹配获取模块,用于匹配检测分数后获取目标轨迹的边界框和身份ID。
CN202310132470.2A 2023-02-20 2023-02-20 一种面向行人多目标跟踪的分级关联匹配方法 Pending CN115830075A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310132470.2A CN115830075A (zh) 2023-02-20 2023-02-20 一种面向行人多目标跟踪的分级关联匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310132470.2A CN115830075A (zh) 2023-02-20 2023-02-20 一种面向行人多目标跟踪的分级关联匹配方法

Publications (1)

Publication Number Publication Date
CN115830075A true CN115830075A (zh) 2023-03-21

Family

ID=85521810

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310132470.2A Pending CN115830075A (zh) 2023-02-20 2023-02-20 一种面向行人多目标跟踪的分级关联匹配方法

Country Status (1)

Country Link
CN (1) CN115830075A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115994928A (zh) * 2023-03-24 2023-04-21 知行汽车科技(苏州)股份有限公司 一种目标跟踪方法、装置、设备及介质
CN116128932A (zh) * 2023-04-18 2023-05-16 无锡学院 一种多目标跟踪方法
CN116681729A (zh) * 2023-06-14 2023-09-01 石家庄铁道大学 基于轨迹预测的抗遮挡多目标跟踪方法
CN116703983A (zh) * 2023-06-14 2023-09-05 石家庄铁道大学 联合遮挡目标检测及目标跟踪方法
CN117173221A (zh) * 2023-09-19 2023-12-05 浙江大学 一种基于真实性分级与遮挡恢复的多目标跟踪方法
CN117496446A (zh) * 2023-12-29 2024-02-02 沈阳二一三电子科技有限公司 一种基于目标检测和级联匹配的人流量统计方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111814889A (zh) * 2020-07-14 2020-10-23 大连理工大学人工智能大连研究院 一种使用无锚框模块和增强分类器的单阶段目标检测方法
CN112288773A (zh) * 2020-10-19 2021-01-29 慧视江山科技(北京)有限公司 基于Soft-NMS的多尺度人体跟踪方法及装置
CN113129345A (zh) * 2021-04-19 2021-07-16 重庆邮电大学 一种基于多特征图融合和多尺度膨胀卷积的目标跟踪方法
CN113674328A (zh) * 2021-07-14 2021-11-19 南京邮电大学 一种多目标车辆跟踪方法
CN113743260A (zh) * 2021-08-23 2021-12-03 北京航空航天大学 一种地铁站台密集人流情况下的行人跟踪方法
CN114639032A (zh) * 2020-12-15 2022-06-17 上海交通大学 准实时数字孪生显示的车辆检测追踪方法、装置及设备
CN114638855A (zh) * 2022-01-21 2022-06-17 山东汇创信息技术有限公司 一种多目标跟踪方法、设备及介质
CN114724059A (zh) * 2022-03-14 2022-07-08 南京邮电大学 一种二次关联低分检测框的链式多目标跟踪方法
CN114820702A (zh) * 2022-04-14 2022-07-29 大连理工大学 一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法
CN114972410A (zh) * 2022-06-16 2022-08-30 上海影谱科技有限公司 一种多级匹配视频赛车追踪方法及***
CN115063454A (zh) * 2022-08-16 2022-09-16 浙江所托瑞安科技集团有限公司 多目标跟踪匹配方法、装置、终端及存储介质
CN115240130A (zh) * 2022-06-15 2022-10-25 首都师范大学 一种行人多目标跟踪方法、装置和计算机可读存储介质
CN115631214A (zh) * 2022-09-29 2023-01-20 深圳市中钞信达金融科技有限公司 一种基于运动信息和语义信息的多目标跟踪方法及***
CN115641454A (zh) * 2022-10-19 2023-01-24 智道网联科技(北京)有限公司 目标跟踪方法、装置及电子设备、计算机可读存储介质

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111814889A (zh) * 2020-07-14 2020-10-23 大连理工大学人工智能大连研究院 一种使用无锚框模块和增强分类器的单阶段目标检测方法
CN112288773A (zh) * 2020-10-19 2021-01-29 慧视江山科技(北京)有限公司 基于Soft-NMS的多尺度人体跟踪方法及装置
CN114639032A (zh) * 2020-12-15 2022-06-17 上海交通大学 准实时数字孪生显示的车辆检测追踪方法、装置及设备
CN113129345A (zh) * 2021-04-19 2021-07-16 重庆邮电大学 一种基于多特征图融合和多尺度膨胀卷积的目标跟踪方法
CN113674328A (zh) * 2021-07-14 2021-11-19 南京邮电大学 一种多目标车辆跟踪方法
CN113743260A (zh) * 2021-08-23 2021-12-03 北京航空航天大学 一种地铁站台密集人流情况下的行人跟踪方法
CN114638855A (zh) * 2022-01-21 2022-06-17 山东汇创信息技术有限公司 一种多目标跟踪方法、设备及介质
CN114724059A (zh) * 2022-03-14 2022-07-08 南京邮电大学 一种二次关联低分检测框的链式多目标跟踪方法
CN114820702A (zh) * 2022-04-14 2022-07-29 大连理工大学 一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法
CN115240130A (zh) * 2022-06-15 2022-10-25 首都师范大学 一种行人多目标跟踪方法、装置和计算机可读存储介质
CN114972410A (zh) * 2022-06-16 2022-08-30 上海影谱科技有限公司 一种多级匹配视频赛车追踪方法及***
CN115063454A (zh) * 2022-08-16 2022-09-16 浙江所托瑞安科技集团有限公司 多目标跟踪匹配方法、装置、终端及存储介质
CN115631214A (zh) * 2022-09-29 2023-01-20 深圳市中钞信达金融科技有限公司 一种基于运动信息和语义信息的多目标跟踪方法及***
CN115641454A (zh) * 2022-10-19 2023-01-24 智道网联科技(北京)有限公司 目标跟踪方法、装置及电子设备、计算机可读存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
YIFU ZHANG 等: ""FairMOT: On the Fairness of Detection and Re-Identification in Multiple Object Tracking"", pages 1 - 19 *
YIFU ZHANG 等: "ByteTrack: Multi-Object Tracking by Associating Every Detection Box", pages 1 - 14 *
明悦: ""多源视觉信息感知与识别"", 北京:北京邮电大学出版社, pages: 115 - 116 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115994928A (zh) * 2023-03-24 2023-04-21 知行汽车科技(苏州)股份有限公司 一种目标跟踪方法、装置、设备及介质
CN116128932A (zh) * 2023-04-18 2023-05-16 无锡学院 一种多目标跟踪方法
CN116681729A (zh) * 2023-06-14 2023-09-01 石家庄铁道大学 基于轨迹预测的抗遮挡多目标跟踪方法
CN116703983A (zh) * 2023-06-14 2023-09-05 石家庄铁道大学 联合遮挡目标检测及目标跟踪方法
CN116703983B (zh) * 2023-06-14 2023-12-19 石家庄铁道大学 联合遮挡目标检测及目标跟踪方法
CN116681729B (zh) * 2023-06-14 2024-01-26 石家庄铁道大学 基于轨迹预测的抗遮挡多目标跟踪方法
CN117173221A (zh) * 2023-09-19 2023-12-05 浙江大学 一种基于真实性分级与遮挡恢复的多目标跟踪方法
CN117173221B (zh) * 2023-09-19 2024-04-19 浙江大学 一种基于真实性分级与遮挡恢复的多目标跟踪方法
CN117496446A (zh) * 2023-12-29 2024-02-02 沈阳二一三电子科技有限公司 一种基于目标检测和级联匹配的人流量统计方法
CN117496446B (zh) * 2023-12-29 2024-03-15 沈阳二一三电子科技有限公司 一种基于目标检测和级联匹配的人流量统计方法

Similar Documents

Publication Publication Date Title
CN115830075A (zh) 一种面向行人多目标跟踪的分级关联匹配方法
JP6759474B2 (ja) 深層学習ネットワーク及び平均シフトに基づく船舶自動追跡方法及びシステム
CN108304808A (zh) 一种基于时空信息与深度网络的监控视频对象检测方法
CN109145836B (zh) 基于深度学习网络和卡尔曼滤波的船只目标视频检测方法
CN106885574A (zh) 一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法
CN111767847B (zh) 一种集成目标检测和关联的行人多目标跟踪方法
CN110349187A (zh) 基于tsk模糊分类器的目标跟踪方法、装置及存储介质
CN110263712A (zh) 一种基于区域候选的粗精行人检测方法
CN113763427B (zh) 一种基于从粗到精遮挡处理的多目标跟踪方法
Han et al. A method based on multi-convolution layers joint and generative adversarial networks for vehicle detection
CN116402850A (zh) 一种面向智能驾驶的多目标跟踪方法
CN109063630B (zh) 一种基于可分离卷积技术和帧差补偿策略的快速车辆检测方法
CN111931571B (zh) 基于在线增强检测的视频文字目标追踪方法与电子设备
Li et al. Bi-directional dense traffic counting based on spatio-temporal counting feature and counting-LSTM network
CN115457082A (zh) 一种基于多特征融合增强的行人多目标跟踪算法
CN114926859A (zh) 一种结合头部跟踪的密集场景下行人多目标跟踪方法
Dong et al. An automatic object detection and tracking method based on video surveillance
Dagvasumberel et al. Railroad near-miss occurrence detection and risk estimation system with data from camera using deep learning
CN113379794B (zh) 基于注意力-关键点预测模型的单目标跟踪***及方法
CN106407989A (zh) 基于快速自动密度聚类的可变尺度红外小目标的检测方法
Li et al. Pedestrian Motion Path Detection Method Based on Deep Learning and Foreground Detection
Tian et al. Pedestrian multi-target tracking based on YOLOv3
Li et al. MPAT: Multi-path attention temporal method for video anomaly detection
CN117853759B (zh) 一种多目标跟踪方法、***、设备和存储介质
Ay et al. A New Automatic Vehicle Tracking and Detection Algorithm for Multi-Traffic Video Cameras.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20230321

RJ01 Rejection of invention patent application after publication