CN112734800A - 一种基于联合检测与表征提取的多目标跟踪***和方法 - Google Patents
一种基于联合检测与表征提取的多目标跟踪***和方法 Download PDFInfo
- Publication number
- CN112734800A CN112734800A CN202011510839.1A CN202011510839A CN112734800A CN 112734800 A CN112734800 A CN 112734800A CN 202011510839 A CN202011510839 A CN 202011510839A CN 112734800 A CN112734800 A CN 112734800A
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- candidate
- joint detection
- characterization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 43
- 238000012512 characterization method Methods 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000000605 extraction Methods 0.000 title claims abstract description 32
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 14
- 238000012216 screening Methods 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 13
- 238000012546 transfer Methods 0.000 claims description 10
- 230000005764 inhibitory process Effects 0.000 claims description 9
- 230000033001 locomotion Effects 0.000 claims description 9
- 230000002779 inactivation Effects 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000012217 deletion Methods 0.000 claims description 3
- 230000037430 deletion Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 2
- 230000010287 polarization Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 3
- 230000000007 visual effect Effects 0.000 abstract 1
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000001629 suppression Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012850 discrimination method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
Abstract
本发明公开了一种基于联合检测与表征提取的多目标跟踪***及方法,涉及计算机视觉跟踪领域,包括联合检测与表征提取模块、轨迹预测模块和候选框筛选模块,其中联合检测与表征提取模块由主干网络、区域选择网络、目标边界框回归器以及表征提取器构成。本发明通过该技术方案降低了待训练网络参数的量级及计算代价,提高了算法效率和多目标跟踪的精度。
Description
技术领域
本发明涉及计算机视觉跟踪领域,尤其涉及一种基于联合检测与表征提取的多目标跟踪***和方法。
背景技术
随着互联网技术的蓬勃发展和智能手机、计算机等设备性能的不断提高与制造成本的持续降低,丰富的图像与视频数据每时每刻都在不断产生。正如一句俗语所说,“一图胜千言”,海量的图像与视频中蕴含了巨大的有价值的信息。如何迅速准确地利用这些数据成为了一个亟需解决的问题。现如今迅速发展的计算机视觉技术能够利用计算机强大的运算能力,代替人眼处理图像数据。目前,计算机视觉技术已经成为众多领域的核心技术。
多目标跟踪(Multi-object tracking,MOT)是计算机视觉领域中的一个重要研究方向,其任务是从视频序列中持续跟踪定位多个目标,如街道上的行人、路上的车辆等,同时保持他们的身份信息不变,进而得出每个目标的运动轨迹。多目标跟踪不仅能够准确地检测视频中目标的时空信息,而且能够为姿势预测、动作识别、行为分析等提供诸多有价值的信息。多目标跟踪算法在智能视频监控、自动驾驶、智能机器人、智能人机交互、智能交通、体育视频分析等领域中都具有广泛的应用,并且近年来已经成为研究的热门方向。
多目标跟踪问题是单目标跟踪问题的扩展。给定一特定目标,单目标跟踪的任务是从场景中持续跟踪该目标。多目标跟踪的任务是在场景中跟踪一系列感兴趣的目标,例如场景中的行人车辆等。因此,相比于单目标跟踪,多目标跟踪还需要额外完成两个任务:
(1)判断场景中目标的数量变化,并且完成新轨迹的初始化与旧轨迹的终止;
(2)保持跟踪目标的身份信息。
目前,基于检测的跟踪是多目标跟踪的主流范式,可分为如下两个相互独立的子任务:
·目标检测,检测当前图像中的目标位置;
·数据关联,将检测结果与已存在的轨迹相互关联。
研究人员通常直接使用预训练好的目标检测模型,因此视频多目标跟踪问题转化为基于检测结果的数据关联问题。为了获得最优的关联结果,作为数据关联的两大关键环节的关联代价与优化算法则成为了基于检测的跟踪算法的研究重点。
国内专利“多目标跟踪方法、装置、电子设备及存储介质”(申请号为202010573301.9)设计了一个初步的多目标跟踪方法,但是其并未考虑场景中目标之间频繁遮挡的问题,这将导致轨迹频繁发生断裂。国内专利申请号为202010605987.5的名称为“一种集成目标检测和关联的行人多目标跟踪方法”提出了能够同时进行目标检测与目标特征提取的模型,但其目标关联步骤仅仅采用了较为简单的阈值判别法,这将导致该方法在多个较为相似目标同时出现的场景中,无法得到目标之间最优的匹配结果。
国内专利“一种基于目标中心点的车辆多目标跟踪方法”(申请号为20201059041.1),通过将车辆检测模型和跟踪模型集成在一个网络中,大大减少了计算量和运行时间,同时简化了基于跟踪的检测,但该方法在数据关联步骤仅仅利用了目标之间的位置信息,同时只采用了较为简单的贪婪匹配法,这将导致该方法在目标密度较大的场景下性能较差。
因此,本领域的技术人员致力于开发一种基于联合检测与表征提取的多目标跟踪***和方法。
发明内容
有鉴于现有技术的上述缺陷,本发明所要解决的技术问题是:1、如何在保持算法精度的前提下提高算法的运算速度;2、如何将目标检测与数据关联两大环节有机结合,通过全面地利用信息来提高跟踪精度。
为实现上述目的,本发明提供了一种基于联合检测与表征提取的多目标跟踪***,其特征在于,包括联合检测与表征提取模块、轨迹预测模块和候选框筛选模块,其中所述联合检测与表征提取模块由主干网络、区域选择网络、目标边界框回归器以及表征提取器构成。
进一步地,所述轨迹预测模块采用线性运动模型,根据轨迹的运动信息来推测跟踪的目标在当前视频帧的可能位置,并对已有轨迹进行修正以降低误差。
进一步地,所述候选框筛选模块采用带有身份传递的非极大化抑制算法,能够以置信度筛选出最优的候选框,并通过身份传递同时完成检测候选框与轨迹的数据关联。
进一步地,所述主干网络采用可以提取图像特征的骨干网络,在骨干网络的基础上建立特征金字塔网络。
进一步地,所述目标边界框回归器与所述表征提取器均采用深度神经网络结构,所述目标边界框回归器使用全连接层网络。
一种基于联合检测与表征提取的多目标跟踪方法,所述方法包括以下步骤:
步骤1、令活动轨迹集为空集,失活轨迹集为空集;将视频帧序列逐帧输入到所述主干网络中,获得当前帧图像的特征表;
步骤2、根据特征表中的信息,利用所述轨迹预测模块与所述联合检测与表征提取模块中的RPN、所述边界框回归器与所述表征提取器等模块功能,生成候选框;
步骤3、采用带有身份传递的非极大抑制法从候选框中筛选出最优的候选框;
步骤4、根据筛选结果更新轨迹,包括轨迹的生成、延申与删除;
步骤5、若当前帧不为视频的最后一帧,则返回第一步,否则结束。
进一步地,所述步骤2还包括:
步骤2.1、检测图像中的目标;
步骤2.2、预测轨迹的可能位置;
步骤2.3、生成候选框;
步骤2.4、提取表征向量。
进一步地,所述步骤3采用带有身份传递的非极化抑制法,具体包括:
步骤3.1、根据所述目标边界框之间的交并比对输入的候选框进行聚类,利用候选框之间的空间关系,将属于同一目标的候选框聚为一类,并将不属于同一目标的候选框加以区分;
步骤3.2、如果聚类结果中某一簇含有带身份标签的候选框,则将该候选框的身份标签传递给该簇中的所有候选框;
步骤3.3、将每一簇中非最大置信度的候选框删除,仅保留簇内置信度最大的那个候选框。
进一步地,所述步骤4还包括:
步骤4.1、更新所述活动轨迹集中的轨迹;
步骤4.2、比对所述失活轨迹集与筛选结果之间的特征,进行重识别操作;
步骤4.3、更新所述失活轨迹集中重识别成功的轨迹,并将其加入到所述活动轨迹集中,重识别失败的筛选结果作为新出现的目标,为其创建轨迹并添加入所述活动轨迹集。
进一步地,采用的重识别方法为一种短期的、基于表征向量之间欧式距离的方法。
技术效果
1、提出联合检测与表征提取模块。不仅可以检测图像中的目标位置,也能提取用于后续重识别的目标外观表征,从而极大地降低了待训练网络参数的量级及计算代价。
2、设计了一种候选框生成模块。该模块通过寻找当前图像中的目标位置以生成“检测候选框”、定向生成与现有轨迹相对应的“轨迹候选框”、提取候选框中的目标特征,可准确地检测图像中的目标位置,并且极大地方便了后续的数据关联步骤,显著提高了算法效率。
3、设计了一种候选框筛选模块。该模块采用一种带有身份传递的非极大抑制算法,既能够通过统一的标准来筛选最精确的目标边界框,显著提高了跟踪的精度;并且通过身份传递操作,高效地完成了候选框与现有轨迹的关联。
以下将结合附图对本发明的构思、具体结构及产生的技术效果作进一步说明,以充分地了解本发明的目的、特征和效果。
附图说明
图1是本发明的一个较佳实施例的***流程图;
图2是本发明的一个较佳实施例的联合检测与表征提取模型结构图;
图3是本发明的一个较佳实施例的目标边界框回归网络示意图;
图4是本发明的一个较佳实施例的表征提取网络示意图。
具体实施方式
以下参考说明书附图介绍本发明的多个优选实施例,使其技术内容更加清楚和便于理解。本发明可以通过许多不同形式的实施例来得以体现,本发明的保护范围并非仅限于文中提到的实施例。
如图1所示,一种基于联合检测与表征提取模块的目标跟踪方法,包含以下步骤:
第二步:基于特征表Ft,通过以下四个步骤生成候选框Ct。
2.4提取表征向量。该步骤为后续的行人重识别环节做准备。算法将候选框Ct与特征表Ft输入到模块的表征提取器中,计算每一个候选框的表征向量。
第三步:候选框筛选。
上述第二步生成的候选框Ct包含两部分:1)来自RPN的检测候选框Dt;2)来自预测模块的轨迹候选框Bt。这两者都不能直接当作当前帧的跟踪结果。首先,检测候选框还未跟轨迹进行关联,故并不带有身份信息;其次,由于预测模块的预测精度有限,直接使用轨迹候选框将使得轨迹精度不高。本方法采用带有身份传递的非极大抑制法从Ct筛选出最优的候选框C′t,步骤如下:
3.1聚类。根据目标边界框之间的交并比(Interaction over union,IoU)对候选框集合Ct进行聚类,利用候选框之间的空间关系,将属于同一目标的候选框聚为一类,并将不属于同一目标的候选框加以区分。
3.2身份传递。如果聚类结果中某一簇含有带身份标签的候选框,则将该候选框的身份标签传递给该簇中的所有候选框。
3.3抑制。将每一簇中非最大置信度的候选框删除,仅保留簇内置信度最大的那个候选框。
该步骤将Ct筛选为最优的候选框C′t,其中C′t=D′t+B′t,D′t表示筛选结果中仍然不带有身份信息的边界框,B′t为带有身份信息的边界框。
第四步:轨迹处理,包括轨迹的生成、延申与删除。
4.1更新轨迹。根据B′t中的身份信息与位置信息,更新T中相应的轨迹;删除活动轨迹集T中无法与B′t关联的轨迹,并将它们添加入失活轨迹集T′中;
4.2重识别。
由于场景中的目标之间频繁遮挡,筛选结果中仍然不带有身份标签的候选框D′t可能为新出现的目标,也可能属于被遮挡目标的轨迹的一部分。为了减少轨迹的断裂,同时保持本算法的在线性与实时性,本专利采用了一种短期的行人重识别方法来判断D′t是否为被遮挡目标:首先,失活轨迹集T′中的轨迹将会被额外保存ts帧时间,且在这段时间内仍然使用轨迹预测模块预测T′中轨迹的位置;根据D′t与T′中轨迹的表征向量之间的距离来判断两者是否为同一目标。为了降低错误重识别率,设置以下判断标准:第一,两者表征向量之间距离必须小于一定阈值;第二,两者之间的交互比大于一定阈值。
重识别步骤完成后,更新失活轨迹集T′中重识别成功的轨迹,并将其加入到活动轨迹集T中。D′t中重识别失败的候选框为新出现的目标,为其创建新轨迹并加入到活动轨迹集T中。
第五步:若当前帧不为视频的最后一帧,则返回第一步;否则结束。
如图2所示,一种基于联合检测与表征提取的多目标跟踪***将设计的联合检测与表征提取模块作为核心骨架,并增添了轨迹预测模块与候选框提取模块以完成多目标跟踪任务。所述联合检测与表征提取模块整体由主干网络、区域选择网络(Region proposalnetwork,RPN)、目标边界框回归器以及表征提取器构成。该模块不仅能够检测图像中的目标位置,同时能够提取目标的表征向量。
主干网络采用可以提取图像特征的骨干网络,如Alexnet、VGG、Resnet系列、Inception系列、Densenet系列、ResNeXt系列等。另外,在骨干网络的基础上建立特征金字塔网络(Feature Pyramid Network,FPN),使其能够基于不同尺度下的特征表,精确地检测目标的位置。
区域选择网络采用Faster RCNN的RPN的结构,它能够从图片中寻找有对象的区域。RPN首先在图像中的每一个像素点上生成大量的基准边界框(Anchors)。其次,在特征表找到每一个基准边界框对应的特征,并以此判断该基准边界框中是否有目标;同时通过目标边界框回归的方法,使基准边界框尽可能符合目标实际位置。一般情况下,RPN生成的基准边界框的宽高比为{1∶2,1∶1,2∶1}。实际应用中,可以根据感兴趣目标的特点来选择合适的宽高比以提高精度与效率。
如图3与图4所示,目标边界框回归器与表征提取器均采用深度神经网络结构。深度神经网络优秀有着强大的拟合能力与特征表示能力,能够有效地提高本算法的准确性。图3所示的目标边界框回归器使用编号为{1,2,3,4}共4层全连接层网络。该模块根据特征表和定位精度较差的边界框,得到定位精度更加准确的边界框,以及其对应的置信度。图4所示的表征提取器使用编号为{5,6,7}共3层全连接层网络。该模块根据特征表与目标边界框,提取目标的表征向量。其生成的表征向量满足以下性质:给定一距离度量方法,视频前后同一目标的表征向量之间的距离足够小,而不同目标的表征向量之间的距离足够大。
所述轨迹预测模块根据轨迹的运动信息来推测跟踪的目标在当前视频帧的可能位置,并对已有轨迹进行修正以降低误差。它可以有效地降低搜索空间,提高跟踪精度。轨迹预测模块根据线性运动模型来预测轨迹在当前时刻最可能的位置。
所述候选框筛选模块采用带有身份传递的非极大化抑制算法。与一般的非极大化抑制不同,带有身份传递的非极大化抑制在聚类后,如果聚类结果中某一簇含有带身份标签的候选框,则将该候选框的身份标签传递给该簇中的所有候选框。该模块能够以置信度筛选出最优的候选框,并通过身份传递同时完成了检测候选框与轨迹的数据关联,避免了复杂的相似性度量计算与二元图分配过程。
本申请实施例还提供了一种电子设备,包括处理器及存储器。
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序时,实现上述任一所述的多目标跟踪方法。
本申请实施例还可提供一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一所述的多目标跟踪方法。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (10)
1.一种基于联合检测与表征提取的多目标跟踪***,其特征在于,包括联合检测与表征提取模块、轨迹预测模块和候选框筛选模块,其中所述联合检测与表征提取模块由主干网络、区域选择网络、目标边界框回归器以及表征提取器构成。
2.如权利要求1所述的基于联合检测与表征提取的多目标跟踪***,其特征在于,所述轨迹预测模块采用线性运动模型,根据轨迹的运动信息来推测跟踪的目标在当前视频帧的可能位置,并对已有轨迹进行修正以降低误差。
3.如权利要求1所述的基于联合检测与表征提取的多目标跟踪***,其特征在于,所述候选框筛选模块采用带有身份传递的非极大化抑制算法,能够以置信度筛选出最优的候选框,并通过身份传递同时完成检测候选框与轨迹的数据关联。
4.如权利要求1所述的基于联合检测与表征提取的多目标跟踪***,其特征在于,所述主干网络采用可以提取图像特征的骨干网络,在骨干网络的基础上建立特征金字塔网络。
5.如权利要求1所述的基于联合检测与表征提取的多目标跟踪***,其特征在于,所述目标边界框回归器与所述表征提取器均采用深度神经网络结构,所述目标边界框回归器使用全连接层网络。
6.一种基于联合检测与表征提取的多目标跟踪方法,其特征在于,所述方法包括以下步骤:
步骤1、令活动轨迹集为空集,失活轨迹集为空集;将视频帧序列逐帧输入到所述主干网络中,获得当前帧图像的特征表;
步骤2、根据特征表中的信息,利用所述轨迹预测模块与所述联合检测与表征提取模块中的RPN、所述边界框回归器与所述表征提取器等模块功能,生成候选框;
步骤3、采用带有身份传递的非极大抑制法从候选框中筛选出最优的候选框;
步骤4、根据筛选结果更新轨迹,包括轨迹的生成、延申与删除;
步骤5、若当前帧不为视频的最后一帧,则返回第一步,否则结束。
7.如权利要求6所述的基于联合检测与表征提取的多目标跟踪方法,其特征在于,所述步骤2还包括:
步骤2.1、检测图像中的目标;
步骤2.2、预测轨迹的可能位置;
步骤2.3、生成候选框;
步骤2.4、提取表征向量。
8.如权利要求6所述的基于联合检测与表征提取的多目标跟踪方法,其特征在于,所述步骤3采用带有身份传递的非极化抑制法,具体包括:
步骤3.1、根据所述目标边界框之间的交并比对输入的候选框进行聚类,利用候选框之间的空间关系,将属于同一目标的候选框聚为一类,并将不属于同一目标的候选框加以区分;
步骤3.2、如果聚类结果中某一簇含有带身份标签的候选框,则将该候选框的身份标签传递给该簇中的所有候选框;
步骤3.3、将每一簇中非最大置信度的候选框删除,仅保留簇内置信度最大的那个候选框。
9.如权利要求6所述的基于联合检测与表征提取的多目标跟踪方法,其特征在于,所述步骤4还包括:
步骤4.1、更新所述活动轨迹集中的轨迹;
步骤4.2、比对所述失活轨迹集与筛选结果之间的特征,进行重识别操作;
步骤4.3、更新所述失活轨迹集中重识别成功的轨迹,并将其加入到所述活动轨迹集中,重识别失败的筛选结果作为新出现的目标,为其创建轨迹并添加入所述活动轨迹集。
10.如权利要求9所述的基于联合检测与表征提取的多目标跟踪方法,其特征在于,采用的重识别方法为一种短期的、基于表征向量之间欧式距离的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011510839.1A CN112734800A (zh) | 2020-12-18 | 2020-12-18 | 一种基于联合检测与表征提取的多目标跟踪***和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011510839.1A CN112734800A (zh) | 2020-12-18 | 2020-12-18 | 一种基于联合检测与表征提取的多目标跟踪***和方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112734800A true CN112734800A (zh) | 2021-04-30 |
Family
ID=75603418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011510839.1A Pending CN112734800A (zh) | 2020-12-18 | 2020-12-18 | 一种基于联合检测与表征提取的多目标跟踪***和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112734800A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113469118A (zh) * | 2021-07-20 | 2021-10-01 | 京东科技控股股份有限公司 | 多目标行人跟踪方法及装置、电子设备、存储介质 |
CN113688264A (zh) * | 2021-09-07 | 2021-11-23 | 深延科技(北京)有限公司 | 生物体重识别方法、装置、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919974A (zh) * | 2019-02-21 | 2019-06-21 | 上海理工大学 | 基于r-fcn框架多候选关联的在线多目标跟踪方法 |
CN110991272A (zh) * | 2019-11-18 | 2020-04-10 | 东北大学 | 一种基于视频跟踪的多目标车辆轨迹识别方法 |
CN111080673A (zh) * | 2019-12-10 | 2020-04-28 | 清华大学深圳国际研究生院 | 一种抗遮挡目标跟踪方法 |
CN111126152A (zh) * | 2019-11-25 | 2020-05-08 | 国网信通亿力科技有限责任公司 | 一种基于视频的多目标行人检测与跟踪的方法 |
CN111476116A (zh) * | 2020-03-24 | 2020-07-31 | 南京新一代人工智能研究院有限公司 | 一种用于车辆检测跟踪的旋翼无人机***及检测跟踪方法 |
CN111639551A (zh) * | 2020-05-12 | 2020-09-08 | 华中科技大学 | 基于孪生网络和长短期线索的在线多目标跟踪方法和*** |
-
2020
- 2020-12-18 CN CN202011510839.1A patent/CN112734800A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919974A (zh) * | 2019-02-21 | 2019-06-21 | 上海理工大学 | 基于r-fcn框架多候选关联的在线多目标跟踪方法 |
CN110991272A (zh) * | 2019-11-18 | 2020-04-10 | 东北大学 | 一种基于视频跟踪的多目标车辆轨迹识别方法 |
CN111126152A (zh) * | 2019-11-25 | 2020-05-08 | 国网信通亿力科技有限责任公司 | 一种基于视频的多目标行人检测与跟踪的方法 |
CN111080673A (zh) * | 2019-12-10 | 2020-04-28 | 清华大学深圳国际研究生院 | 一种抗遮挡目标跟踪方法 |
CN111476116A (zh) * | 2020-03-24 | 2020-07-31 | 南京新一代人工智能研究院有限公司 | 一种用于车辆检测跟踪的旋翼无人机***及检测跟踪方法 |
CN111639551A (zh) * | 2020-05-12 | 2020-09-08 | 华中科技大学 | 基于孪生网络和长短期线索的在线多目标跟踪方法和*** |
Non-Patent Citations (1)
Title |
---|
裴明涛: "视频事件分析与理解", 北京理工大学出版社 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113469118A (zh) * | 2021-07-20 | 2021-10-01 | 京东科技控股股份有限公司 | 多目标行人跟踪方法及装置、电子设备、存储介质 |
CN113469118B (zh) * | 2021-07-20 | 2024-05-21 | 京东科技控股股份有限公司 | 多目标行人跟踪方法及装置、电子设备、存储介质 |
CN113688264A (zh) * | 2021-09-07 | 2021-11-23 | 深延科技(北京)有限公司 | 生物体重识别方法、装置、电子设备及存储介质 |
CN113688264B (zh) * | 2021-09-07 | 2024-06-07 | 深兰机器人(上海)有限公司 | 生物体重识别方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pal et al. | Deep learning in multi-object detection and tracking: state of the art | |
Marvasti-Zadeh et al. | Deep learning for visual tracking: A comprehensive survey | |
US20220383535A1 (en) | Object Tracking Method and Device, Electronic Device, and Computer-Readable Storage Medium | |
Li et al. | When object detection meets knowledge distillation: A survey | |
Han et al. | Adaptive discriminative deep correlation filter for visual object tracking | |
US20220254157A1 (en) | Video 2D Multi-Person Pose Estimation Using Multi-Frame Refinement and Optimization | |
Xiao et al. | Deep learning for occluded and multi‐scale pedestrian detection: A review | |
Kim et al. | CDT: Cooperative detection and tracking for tracing multiple objects in video sequences | |
Chang et al. | Fast Random‐Forest‐Based Human Pose Estimation Using a Multi‐scale and Cascade Approach | |
Wu et al. | FSANet: Feature-and-spatial-aligned network for tiny object detection in remote sensing images | |
CN112734800A (zh) | 一种基于联合检测与表征提取的多目标跟踪***和方法 | |
CN114898403A (zh) | 一种基于Attention-JDE网络的行人多目标跟踪方法 | |
CN116402850A (zh) | 一种面向智能驾驶的多目标跟踪方法 | |
WO2023125119A1 (zh) | 时空动作检测方法、装置、电子设备及存储介质 | |
Urdiales et al. | An improved deep learning architecture for multi-object tracking systems | |
CN114926859A (zh) | 一种结合头部跟踪的密集场景下行人多目标跟踪方法 | |
Zhang et al. | Residual memory inference network for regression tracking with weighted gradient harmonized loss | |
Pang et al. | Analysis of computer vision applied in martial arts | |
CN117593794A (zh) | 改进的YOLOv7-tiny模型及基于该模型的人手脸检测方法及*** | |
Zhu et al. | Spatio-temporal hierarchical feature transformer for UAV object tracking | |
Nalaie et al. | AttTrack: Online deep attention transfer for multi-object tracking | |
Zhang et al. | Action detection with two-stream enhanced detector | |
Hassan et al. | Multi-object tracking: a systematic literature review | |
Yang et al. | Explorations on visual localization from active to passive | |
CN116245913A (zh) | 基于层次化上下文引导的多目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210430 |