CN117242489A - 目标跟踪方法及装置、电子设备、计算机可读介质 - Google Patents
目标跟踪方法及装置、电子设备、计算机可读介质 Download PDFInfo
- Publication number
- CN117242489A CN117242489A CN202280000720.0A CN202280000720A CN117242489A CN 117242489 A CN117242489 A CN 117242489A CN 202280000720 A CN202280000720 A CN 202280000720A CN 117242489 A CN117242489 A CN 117242489A
- Authority
- CN
- China
- Prior art keywords
- target
- candidate
- frame
- matching
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000001514 detection method Methods 0.000 claims abstract description 32
- 239000011159 matrix material Substances 0.000 claims description 94
- 238000004590 computer program Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 6
- 230000002123 temporal effect Effects 0.000 claims description 6
- 230000000875 corresponding effect Effects 0.000 description 44
- 238000012545 processing Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 208000006440 Open Bite Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005067 remediation Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本公开提供一种目标跟踪方法及装置、电子设备、计算机可读介质,属于计算机技术领域。该方法包括:获取预设采集区域的视频流;对视频流的第t帧视频帧进行目标检测,确定第t帧视频帧中的至少一个候选目标的第一候选框,t为整数且1<t≤T,T为视频流的视频帧数量;根据候选目标的置信度及各个候选目标的第一候选框之间的第一交并比,对候选目标进行分级,确定出至少一个匹配级别的候选目标;根据视频流在第t‑1状态的***集合以及预设的匹配策略,对至少一个匹配级别的候选目标分别进行匹配,确定第t帧视频帧的目标跟踪结果;根据T帧视频帧的目标跟踪结果,确定视频流中目标的跟踪轨迹。
Description
本公开属于计算机技术领域,具体涉及一种目标跟踪方法及装置、电子设备、非瞬态计算机可读介质。
目标检测及跟踪是计算机视觉中非常重要的任务,它能够通过传感器的输入数据,对视野范围内的目标(例如车辆、人或物体)的信息进行估计,检测并跟踪视野范围内的单个目标或多个目标。在智慧城市和交通分析等应用场景下,目标检测及跟踪的效果尤为重要。相关技术中的目标跟踪方式,容易受到视角、光线以及拥挤目标的影响,具有较高的目标丢失风险,目标跟踪的效果较差。
发明内容
本公开旨在至少解决相关技术中存在的技术问题之一,提供一种目标跟踪方法及装置、电子设备、非瞬态计算机可读介质。
第一方面,本公开实施例提供一种目标跟踪方法,该方法包括:
获取预设采集区域的视频流;
对所述视频流的第t帧视频帧进行目标检测,确定所述第t帧视频帧中的至少一个候选目标的第一候选框,t为整数且1<t≤T,T为所述视频流的视频帧数量;
根据所述候选目标的置信度及各个所述候选目标的第一候选框之间的第一交并比,对所述候选目标进行分级,确定出至少一个匹配级别的候选目标;
根据所述视频流在第t-1状态的***集合以及预设的匹配策略,对所述至少一个匹配级别的候选目标分别进行匹配,确定所述第t帧视频帧的目标跟踪结果;其中,所述目标跟踪结果包括所述第t帧视频帧中目标的标识 和位置;
根据所述视频流的T帧视频帧的目标跟踪结果,确定所述视频流中目标的跟踪轨迹,所述跟踪轨迹包括目标所对应的视频帧以及在所对应的视频帧中的位置。
第二方面,本公开实施例提供一种目标跟踪装置,该装置包括:
视频流获取模块,用于获取预设采集区域的视频流;
目标检测模块,用于对所述视频流的第t帧视频帧进行目标检测,确定所述第t帧视频帧中的至少一个候选目标的第一候选框,t为整数且1<t≤T,T为所述视频流的视频帧数量;
目标分级模块,用于根据所述候选目标的置信度及各个所述候选目标的第一候选框之间的第一交并比,对所述候选目标进行分级,确定出至少一个匹配级别的候选目标;
目标匹配模块,用于根据所述视频流在第t-1状态的***集合以及预设的匹配策略,对所述至少一个匹配级别的候选目标分别进行匹配,确定所述第t帧视频帧的目标跟踪结果;其中,所述目标跟踪结果包括所述第t帧视频帧中目标的标识和位置;
轨迹确定模块,用于根据所述视频流的T帧视频帧的目标跟踪结果,确定所述视频流中目标的跟踪轨迹,所述跟踪轨迹包括目标所对应的视频帧以及在所对应的视频帧中的位置。
第三方面,本公开实施例提供一种电子设备,包括:
一个或多个处理器;存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述的目标跟踪方法。
第四方面,本公开实施例提供一种非瞬态计算机可读介质,其上存储有计算机程序,其中,所述计算机程序在被处理器执行时实现上述目标跟踪方法中的步骤。
图1a和图1b为同一目标在不同情况下的示意图。
图2为本公开的实施例的目标跟踪方法的流程图。
图3为本公开实施例的目标分级的示意图。
图4为本公开的实施例的采集区域的示意图。
图5为本公开的实施例的目标跟踪装置的框图。
图6为本公开实施例的一种电子设备的结构示意图。
为使本领域技术人员更好地理解本公开的技术方案,下面结合附图和具体实施方式对本公开作进一步详细描述。
除非另外定义,本公开使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本公开中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。同样,“一个”、“一”或者“该”等类似词语也不表示数量限制,而是表示存在至少一个。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
在智慧城市和交通分析等应用场景下,多目标多摄像头跟踪(MTMC)的效果是非常重要的方面。然而,仍有一些挑战需要克服。车辆跨摄像头跟踪的目的是识别在多个路口经过的同一辆车,但由于跨路口的摄像头特征很容易受到严重的视角、光线以及拥挤车辆的影响,因此具有较高的车辆丢失风险。
图1a和图1b为同一目标在不同情况下的示意图。如图1a和图1b所示,图中白色矩形框中的目标为同一车辆,由于不同摄像头的角度不同、光线也不同,导致相关技术中跟踪该目标的成功率较低。
本公开提出了一种有效且准确的***,用于多目标多摄像头跟踪。在单摄像头多跟踪阶段,本公开提出一种多级匹配的单摄像头多跟踪方式,充分利用了目标检测信息并对跟踪异常结果进行拼接,能够提高跟踪结果的准确率和稳定性。在多摄像头匹配阶段,本公开提出一种基于时空限制的匹配策略,使匹配范围大大缩小,从而提高了匹配准确度。
图2为本公开的实施例的目标跟踪方法的流程图。该目标跟踪方法可应用于目标跟踪装置中,该装置可采用软件和/或硬件的方式实现,并一般可集成于电子设备(例如显示设备)中。电子设备可以为终端设备或服务器等,终端设备可以为用户设备(User Equipment,UE)、移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字助理(Personal Digital Assistant,PDA)、手持设备、计算设备、车载设备、可穿戴设备等;服务器可以为云端服务器或边端服务器等。
如图2所示,该目标跟踪方法包括:
步骤S11,获取预设的采集区域的视频流;
步骤S12,对所述视频流的第t帧视频帧进行目标检测,确定所述第t帧视频帧中的至少一个候选目标的第一候选框,t为整数且1<t≤T,T为所述视频流的视频帧数量;
步骤S13,根据所述候选目标的置信度及各个所述候选目标的第一候选框之间的第一交并比,对所述候选目标进行分级,确定出至少一个匹配级别的候选目标;
步骤S14,根据所述视频流在第t-1状态的***集合以及预设的匹配策略,对所述至少一个匹配级别的候选目标分别进行匹配,确定所述第t帧视频帧的目标跟踪结果;其中,所述目标跟踪结果包括所述第t帧视频帧中目标的标识和位置;
步骤S15,根据所述视频流的T帧视频帧的目标跟踪结果,确定所述视频流中目标的跟踪轨迹,所述跟踪轨迹包括目标所对应的视频帧以及在所对应的视频帧中的位置。
举例来说,预设的采集区域可以为摄像头采集的图像所对应的地理区域,例如为城市中的路口、广场等。本公开对此不作限制。
在一些实施例中,可在步骤S11中获取该采集区域的视频流,该视频流可以为摄像头实时采集的视频流,也可以为预先采集的一定时长的视频流,本公开对此不作限制。
在一些实施例中,视频流可包括多帧视频帧,各帧视频帧具有时间戳,用于指示视频帧的采集时刻;各帧视频帧之间可具有一定的时间间隔,例如在帧率为20帧/秒时,相邻视频帧之间时间间隔为0.05秒。
在一些实施例中,对于视频流的第1帧视频帧,可直接对该第1帧视频帧进行目标检测,确定第1帧视频帧中目标的检测框。其中,可采用预设的目标检测网络对第1帧视频帧进行检测,目标检测网络可为卷积神经网络,例如最新的yolov5x6,本公开对目标检测网络的具体网络类型不作限制。
在一些实施例中,可创建该视频流在第1状态的***集合,***集合中包括第1帧视频帧中的目标的***,每个***包括所跟踪的目标的标识、位置、特征信息、该目标的单目标预测方式及预测参数等信息。
在一些实施例中,目标的标识ID用于确定目标的身份,以便对不同的目标进行区分;目标的位置可例如表示为目标的检测框的对角顶点的图像坐标、或者检测框的左上顶点的坐标及检测框高度及宽度。
在一些实施例中,可采用预设的重识别(reid)网络,对目标的检测框对应的区域图像进行特征提取,得到目标的特征信息。该重识别网络可为残差网络,例如resnet101,本公开对重识别网络的具体网络类型不作限制。
在一些实施例中,目标的单目标预测方式可设定为至少一种,例如包括中值光流预测方法、ECO(Efficient Convolution Operators,高效卷积算子)单目标跟踪方法等,本公开对单目标预测方式的数量和具体类型均不作限 制。
在一些实施例中,预测参数可包括多目标跟踪方法(例如,SORT多目标跟踪算法、DeepSORT多目标跟踪算法)中采用的卡尔曼预测模型的预测参数(包括目标的预测速度等);还可包括各个单目标预测方式的预测参数。本公开对预测参数的具体类型及参数数量均不作限制。
在创建该视频流在第1状态的***集合后,可对后续的视频帧进行目标检测及跟踪。
在一些实施例中,针对第1帧视频帧之后的任一视频帧(称为第t帧视频帧,t为整数且1<t≤T,T为所述视频流的视频帧数量),可在步骤S12中,采用目标检测网络对该第t帧视频帧进行目标检测,得到第t帧视频帧中的候选目标的第一候选框,也即候选目标在所述第t帧视频帧中的位置;还可确定出候选目标的置信度,用于表示该候选目标为预设类别(例如车辆、行人)的目标的概率。
在一些实施例中,在步骤S13中,可根据候选目标的置信度及各个候选目标的第一候选框之间的第一交并比,对候选目标进行分级,确定出至少一个匹配级别的候选目标。其中,第一交并比为第一候选框之间的交集区域与并集区域之间的比值,用于表示第一候选框之间的重叠程度。交并比(IOU)越低,则重叠程度越小,也即相互之间的遮挡越少;反之,交并比越高,则重叠程度越大,也即相互之间的遮挡越多。
在一些实施例中,可分别设定置信度阈值和交并比阈值,以对候选目标进行分级。例如,设定一组较高的置信度阈值和较低的交并比阈值,将符合该组阈值的候选目标认为是高质量且无遮挡的目标;设定一组较低的置信度阈值和较低的交并比阈值,将符合该组阈值的候选目标认为是低质量且无遮挡的目标;设定一组较低的置信度阈值和较高的交并比阈值,将符合该组阈值的候选目标认为是低质量且有遮挡的目标。这样,可以为不同类型的目标设定不同匹配策略,以便高效准确地对目标进行匹配。
在一些实施例中,在步骤S14中,可根据所述视频流在第t-1状态的跟 踪器集合以及预设的匹配策略,对所述至少一个匹配级别的候选目标分别进行匹配,确定所述第t帧视频帧的目标跟踪结果。例如,可对高质量且无遮挡的目标进行多次的精确匹配,以提高该部分目标的匹配准确率和成功率。类似地,可为低质量且无遮挡的目标、低质量且有遮挡的目标分别设定不同的匹配策略。
在一些实施例中,目标跟踪结果包括第t帧视频帧中目标的标识和位置,第t帧视频帧中的目标,可包括候选目标中匹配成功的目标,也可包括匹配失败但确定为新增(新出现在视频帧中)的目标。
在一些实施例中,还可在匹配完成后,对不同匹配级别的目标设定针对***集合中的***的创建、更新及补救等策略,以提高各种级别的目标的跟踪效果。
在一些实施例中,通过步骤S12-S14依次对视频流的各个视频帧进行处理,即可得到视频流的T帧视频帧的目标跟踪结果。进而,在步骤S15中,可根据视频流的T帧视频帧的目标跟踪结果,确定视频流中目标的跟踪轨迹,跟踪轨迹包括目标所对应的视频帧以及在所对应的视频帧中的位置。从而,完成多级匹配的单摄像头多跟踪的处理过程。
根据本公开的实施例,能够对视频流的视频帧进行目标检测,确定视频帧中候选目标的候选框;根据候选目标的置信度及候选框之间的交并比,对候选目标分级,确定出至少一个匹配级别的候选目标;根据前一状态的***集合以及预设的匹配策略,对多个匹配级别的候选目标进行匹配,确定视频帧的目标跟踪结果;根据视频流的T帧视频帧的目标跟踪结果,确定视频流中目标的跟踪轨迹,能够充分利用目标检测信息,从而提高跟踪结果的准确率和稳定性。
下面对根据本公开实施例的目标跟踪方法进行展开说明。
如前所述,可在步骤S11中获取采集区域的视频流,并在步骤S12中通过目标检测网络对视频流的视频帧进行目标检测。
针对第t帧视频帧,在步骤S12中采用目标检测网络对该第t帧视频帧 进行目标检测,得到第t帧视频帧中的至少一个候选目标的第一候选框,还可确定出候选目标的置信度。
在一些实施例中,在步骤S13中,根据所述候选目标的置信度及各个所述候选目标的第一候选框之间的第一交并比,对所述候选目标进行分级,确定出至少一个匹配级别的候选目标。其中,针对任一候选目标,步骤S13可包括:
在所述候选目标的置信度大于或等于第一置信度阈值,并且所述候选目标的第一交并比的最大值小于或等于第一交并比阈值的情况下,将所述候选目标确定为第一匹配级别的第一候选目标;
在所述候选目标的置信度小于所述第一置信度阈值且大于或等于第二置信度阈值,并且所述候选目标的第一交并比的最大值小于或等于第一交并比阈值的情况下,将所述候选目标确定为第二匹配级别的第二候选目标;
在所述候选目标的置信度小于所述第一置信度阈值且大于或等于第二置信度阈值,并且所述候选目标的第一交并比的最大值大于所述第一交并比阈值且小于或等于第二交并比阈值的情况下,将所述候选目标确定为第三匹配级别的第三候选目标;
其中,所述第一置信度阈值大于所述第二置信度阈值,所述第一交并比阈值小于所述第二交并比阈值。
图3为本公开实施例的目标分级的示意图。如图3所示,各个矩形框中分别示出了高质量且无遮挡的目标、低质量且无遮挡的目标以及低质量且有遮挡的目标。可见,高质量且无遮挡的目标的信息最准确,低质量且无遮挡的目标能够提供一定的信息,低质量且有遮挡的目标提供的信息最少,且容易导致追踪期间的误匹配。
在一些实施例中,可设定一组较高的第一置信度阈值和较低的第一交并比阈值,将符合该组阈值的候选目标认为是高质量且无遮挡的目标。也即,在候选目标的置信度大于或等于第一置信度阈值,并且候选目标的第一交并比的最大值小于或等于第一交并比阈值的情况下,将候选目标确定为第一匹 配级别的第一候选目标。例如,可将第一置信度阈值conf设定为0.3,第一交并比阈值设定为0.3。本公开对第一置信度阈值和第一交并比阈值的具体取值不作限制。
其中,该候选目标与其他候选目标的第一交并比中的最大值,可表示其他候选目标中与该候选目标之间的重叠程度最高的候选目标。如果该重叠程度最高的候选目标对应的交并比仍然较小,即可表示该候选目标无遮挡。
在一些实施例中,可设定一组较低的第二置信度阈值和较低的第一交并比阈值,将符合该组阈值的候选目标认为是低质量且无遮挡的目标。也即,在候选目标的置信度小于第一置信度阈值且大于或等于第二置信度阈值,并且候选目标的第一交并比的最大值小于或等于第一交并比阈值的情况下,将候选目标确定为第二匹配级别的第二候选目标。例如,可将第二置信度阈值conf设定为0.1。本公开对第二置信度阈值的具体取值不作限制。
其中,第一置信度阈值(例如0.3)大于第二置信度阈值(例如0.1)。并且,可认为第一置信度小于第二置信度阈值的候选目标是无效目标,不对其进行后续处理或直接删除。
在一些实施例中,可设定一组较低的置信度阈值和较高的交并比阈值,将符合该组阈值的候选目标认为是低质量且有遮挡的目标。也即,在候选目标的置信度小于第一置信度阈值且大于或等于第二置信度阈值,并且候选目标的第一交并比的最大值大于第一交并比阈值且小于或等于第二交并比阈值的情况下,将候选目标确定为第三匹配级别的第三候选目标。例如,可将第二交并比阈值设定为0.45。本公开对第二交并比阈值的具体取值不作限制。
其中,第一交并比阈值(例如0.3)小于第二交并比阈值(例如0.45)。并且,可认为第一交并比大于第二交并比阈值的候选目标是无效目标,不对其进行后续处理或直接删除。
通过这种方式,可以为不同类型的目标设定不同匹配策略,以便高效准确地对目标进行匹配。例如,在第t帧视频帧中包括10个候选目标时,可 能确定出第一匹配级别、第二匹配级别、第三匹配级别的候选目标的数量分别为3个、3个、4个。
在一些实施例中,步骤S13中进行分级后,可在步骤S14中进行多级匹配,根据所述视频流在第t-1状态的***集合以及预设的匹配策略,对所述至少一个匹配级别的候选目标分别进行匹配,确定所述第t帧视频帧的目标跟踪结果。
在一些实施例中,在对第t-1帧视频帧处理完成时,可更新得到第t-1状态的***集合,该第t-1状态的***集合中包括:第t-1帧视频帧中匹配成功的第一历史目标的第一***、所述第t-1帧视频帧中匹配失败的第二历史目标的第二***中的至少一种。
其中,第t-1帧视频帧中匹配成功的第一历史目标可包括在第t-1帧视频帧中未丢失的目标,还可包括第t-1帧视频帧中新增的目标;第t-1帧视频帧中匹配失败的第二历史目标可包括在第t-1帧视频帧中丢失,但还未删除(可能在连续丢失若干帧后删除)的目标。
在一些实施例中,可分4个匹配级别依次进行4次匹配,以实现目标追踪。其中,步骤S14可包括:
步骤S1411,对所述第一候选目标进行特征提取,得到所述第一候选目标的第一特征信息;
步骤S1412,根据所述第一历史目标的第一***,采用相应的单目标预测方式,确定所述第一历史目标在所述第t帧视频帧中的第一预测框;
步骤S1413,根据所述第一候选目标的第一特征信息、所述第一候选目标的第一候选框,以及所述第一历史目标在所述第t帧视频帧中的第一预测框,确定所述第一历史目标与所述第一候选目标之间的第一损失矩阵;
步骤S1414,根据第一损失矩阵,确定所述第一历史目标与所述第一候选目标之间的第一匹配结果,所述第一匹配结果包括所述第一匹配级别中匹配成功的第一候选目标、匹配失败的第一候选目标及匹配失败的第一历史目标中的至少一种;
步骤S1415,针对所述第一匹配结果中匹配成功的第一候选目标,将该第一候选目标确定为所述第t帧视频帧中的目标,其中,该目标的标识为相匹配的第一历史目标的标识,该目标的位置为该目标的第一候选框的位置。
举例来说,可首先对高质量且无遮挡的候选目标(第一匹配级别的第一候选目标)与第t-1帧视频帧中匹配成功的第一历史目标之间进行精确匹配。
在一些实施例中,在步骤S1411中,可采用重识别网络,对第t帧视频帧中与第一候选目标的候选框对应的区域图像进行特征提取,得到目标的特征信息(称为第一特征信息)。通过这种方式,可仅提取高质量且无遮挡的候选目标的特征,使得提取到的特征更为准确,从而提高匹配的精度,降低误匹配概率,并且能够减少提取特征的候选目标数量,从而降低计算量。
在一些实施例中,在步骤S1412中,根据第一***中的单目标预测方式和相应的预测参数,分别对各个第一历史目标进行单目标预测,得到第一历史目标在第t帧视频帧中的第一预测框。例如,在采用中值光流预测方法和ECO单目标跟踪方法,根据这两种方法,得到第一历史目标的两个第一预测框。
在一些实施例中,在步骤S1413中,可根据所述第一候选目标的第一特征信息、所述第一候选目标的第一候选框,以及所述第一历史目标在所述第t帧视频帧中的第一预测框,确定所述第一历史目标与所述第一候选目标之间的第一损失矩阵。其中,步骤S1413可包括:
根据所述第一候选目标的第一特征信息和所述第一历史目标的特征信息,确定第一特征距离矩阵;
根据所述第一候选目标的第一候选框和所述第一历史目标在所述第t帧视频帧中的第一预测框,确定第一交并比距离矩阵;
根据所述第一特征距离矩阵和所述第一交并比距离矩阵,确定所述第一损失矩阵。
也就是说,可分别计算各个第一候选目标的第一特征信息与各个第一历史目标的特征信息之间的特征距离,例如特征余弦距离,从而得到第一特征 距离矩阵。例如,在第一候选目标为3个、第一历史目标为4个时,可得到3*4的第一特征距离矩阵。
在一些实施例中,可分别计算各个第一候选目标的第一候选框与各个第一历史目标的第一预测框之间的交并比,得到第一交并比距离矩阵。例如,在第一候选目标为3个、第一历史目标为4个时,可得到3*4的第一交并比距离矩阵。本公开对第一交并比距离矩阵的具体计算方式不作限制。
在一些实施例中,第一历史目标的预测方式包括至少一种单目标预测方式,所述第一交并比距离矩阵相应地包括至少一个交并比距离矩阵。在采用多种单目标预测方式的情况下,可分别得到多个第一交并比距离矩阵。
在一些实施例中,根据第一特征距离矩阵和第一交并比距离矩阵,可确定出第一损失矩阵M1。M1例如表示为:
M1=α1*A1+β1*B1+γ1*C1 (1)
公式(1)中,A1表示第一特征距离矩阵,B1表示采用中值光流预测方法得到的第一交并比距离矩阵,C1表示采用ECO单目标跟踪方法得到的第一交并比距离矩阵,α1、β1、γ1分别表示A1、B1、C1的权重。其中,可对权重α1、β1、γ1进行归一化,也即α1+β1+γ1=1;也可不对权重进行归一化,本公开对此不作限制。应当理解,本领域技术人员可根据实际情况设定权重α1、β1、γ1的具体取值,本公开对此不作限制。
在一些实施例中,可在步骤S1414中,根据第一损失矩阵,确定所述第一历史目标与所述第一候选目标之间的第一匹配结果,第一匹配结果包括所述第一匹配级别中匹配成功的第一候选目标、匹配失败的第一候选目标及匹配失败的第一历史目标中的至少一种。
其中,可设定有第一距离阈值,如果第一损失矩阵中的某一项小于或等于该第一距离阈值,则可认为相应的第一历史目标与第一候选目标之间匹配成功;如果第一损失矩阵中某一项大于该第一距离阈值,则可认为相应的第一历史目标与第一候选目标之间匹配失败。这样,通过匹配处理,可得到匹配成功的第一历史目标与第一候选目标组成的目标对,匹配失败的第一候选 目标及匹配失败的第一历史目标中的至少一种,也即得到第一匹配结果。
本公开对第一距离阈值的具体取值不作限制。
在一些实施例中,在步骤S1415中,针对第一匹配结果中匹配成功的第一候选目标,即可将该第一候选目标确定为第t帧视频帧中的目标,其中,该目标的标识为相匹配的第一历史目标的标识ID,用于表示同一目标;该目标的位置为该目标的第一候选框的位置。
通过这种方式,能够实现高质量且无遮挡的候选目标与前一帧中匹配成功的历史目标之间的精确匹配,提高匹配的精度。
在一些实施例中,在第一次匹配后,如果第一匹配结果中存在匹配失败的第一候选目标和匹配失败的第一历史目标,则可对第一次匹配未能匹配上的第一候选目标和第一历史目标再次匹配。
在一些实施例中,步骤S14还可包括:
步骤S1421,根据第三历史目标的预测参数,通过卡尔曼预测模型进行预测,确定所述第三历史目标在所述第t帧视频帧中的第二预测框,所述第三历史目标为所述第一匹配结果中匹配失败的第一历史目标;
步骤S1422,根据第四候选目标的第一候选框和所述第三历史目标的第二预测框,确定第二交并比距离矩阵,所述第四候选目标为所述第一匹配结果中匹配失败的第一候选目标;
步骤S1423,根据所述第四候选目标的第一候选框和所述第三历史目标在所述第t帧视频帧中的第一预测框,确定第三交并比距离矩阵;
步骤S1424,根据所述第二交并比距离矩阵和所述第三交并比距离矩阵,确定第二损失矩阵;
步骤S1425,根据所述第二损失矩阵,确定所述第四候选目标与所述第三历史目标之间的第二匹配结果,所述第二匹配结果包括匹配成功的第四候选目标、匹配失败的第四候选目标及匹配失败的第三历史目标中的至少一种;
步骤S1426,针对所述第二匹配结果中匹配成功的第四候选目标,将该第四候选目标确定为所述第t帧视频帧中的目标,其中,该目标的标识为相匹配的第三历史目标的标识,该目标的位置为该目标的第一候选框的位置。
举例来说,可将第一匹配结果中匹配失败的第一历史目标称为第三历史目标,第一匹配结果中匹配失败的第一候选目标称为第四候选目标,以便于进行区分。
在一些实施例中,在步骤S1421中,根据第三历史目标的第一***,可得到卡尔曼预测模型的预测参数;通过卡尔曼预测模型进行预测,可确定第三历史目标在第t帧视频帧中的第二预测框。本公开对具体的预测过程不作限制。
在一些实施例中,在步骤S1422中,根据第四候选目标的第一候选框和第三历史目标的第二预测框,确定第二交并比距离矩阵。本公开对第二交并比距离矩阵的具体计算方式不作限制。
在一些实施例中,在步骤S1423中,根据所述第四候选目标的第一候选框和第三历史目标在第t帧视频帧中的第一预测框(前述步骤S1412中得到),确定第三交并比距离矩阵。类似地,在采用多种单目标预测方式的情况下,可分别得到多个第三交并比距离矩阵。本公开对第三交并比距离矩阵的具体计算方式不作限制。
在一些实施例中,在步骤S1424中,根据所述第二交并比距离矩阵和所述第三交并比距离矩阵,确定第二损失矩阵M2。M2例如表示为:
M2=α2*P1+β2*B2+γ2*C2 (2)
公式(2)中,P1表示第二交并比距离矩阵,B2表示采用中值光流预测方法得到的第三交并比距离矩阵,C2表示采用ECO单目标跟踪方法得到的第三交并比距离矩阵,α2、β2、γ2分别表示P、B2、C2的权重。其中,可对权重α2、β2、γ2进行归一化,也即α2+β2+γ2=1;也可不对权重进行归一化,本公开对此不作限制。应当理解,本领域技术人员可根据实际情况设定权重α2、β2、γ2的具体取值,本公开对此不作限制。
在一些实施例中,可在步骤S1425中,根据第二损失矩阵,确定第四候选目标与第三历史目标之间的第二匹配结果,第二匹配结果包括匹配成功的第四候选目标、匹配失败的第四候选目标及匹配失败的第三历史目标中的至少一种。
其中,可设定有第二距离阈值,如果第二损失矩阵中的某一项小于或等于该第二距离阈值,则可认为相应的第四候选目标与第三历史目标之间匹配成功;如果第二损失矩阵中某一项大于该第二距离阈值,则可认为相应的第四候选目标与第三历史目标之间匹配失败。这样,通过匹配处理,可得到匹配成功的第四候选目标与第三历史目标组成的目标对,匹配失败的第四候选目标及匹配失败的第三历史目标中的至少一种,也即得到第二匹配结果。
其中,第二距离阈值可与前面的第一距离阈值不同。本公开对第二距离阈值的具体取值不作限制。
在一些实施例中,在步骤S1426中,针对第二匹配结果中匹配成功的第四候选目标,将该第四候选目标确定为第t帧视频帧中的目标,其中,该目标的标识为相匹配的第三历史目标的标识ID,用于表示同一目标;该目标的位置为该目标的第一候选框的位置。
通过这种方式,能够在第一次匹配的基础上,实现第一次匹配失败的高质量且无遮挡的候选目标与前一帧中匹配成功的历史目标之间的二次匹配,进一步提高匹配的精度和成功率。
在一些实施例中,在第二次匹配后,如果第二匹配结果中存在匹配失败的第四候选目标(匹配失败的高质量且无遮挡的候选目标),则可对该第四候选目标与第t-1帧视频帧中匹配失败的第二历史目标(已经丢失的跟踪的***)进行匹配,即第三次匹配,以便对前一帧或前几帧中未能有效匹配的历史目标进行匹配补救。可能的情况是该历史目标被遮挡而丢失,后面的帧中还可能再次出现。
在一些实施例中,步骤S14还可包括:
步骤S1431,根据第五候选目标的第一特征信息和所述第二历史目标的 特征信息,确定第二特征距离矩阵,所述第五候选目标为所述第二匹配结果中匹配失败的第四候选目标;
步骤S1432,根据所述第二特征距离矩阵,确定所述第五候选目标与所述第二历史目标之间的第三匹配结果,所述第三匹配结果包括匹配成功的第五候选目标、匹配失败的第五候选目标及匹配失败的第二历史目标中的至少一种;
步骤S1433,针对所述第三匹配结果中匹配成功的第五候选目标,将该第五候选目标确定为所述第t帧视频帧中的目标,其中,该目标的标识为相匹配的第二历史目标的标识,该目标的位置为该目标的第一候选框的位置。
举例来说,可将第二匹配结果中匹配失败的第四候选目标(也即两次匹配均失败的第一候选目标)称为第五候选目标,以便于进行区分。
在一些实施例中,在步骤S1431中,根据第五候选目标的第一特征信息和所述第二历史目标的特征信息,确定第二特征距离矩阵。可分别计算各个第五候选目标的第一特征信息与各个第二历史目标的特征信息之间的特征距离,例如特征余弦距离,从而得到第二特征距离矩阵A2。
在一些实施例中,在匹配补救的情况下,可仅采用特征距离进行判断。也即将第二特征距离矩阵直接作为损失矩阵M=A2。在步骤S1432中,根据第二特征距离矩阵,确定第五候选目标与第二历史目标之间的第三匹配结果,第三匹配结果包括匹配成功的第五候选目标、匹配失败的第五候选目标及匹配失败的第二历史目标中的至少一种。
在一些实施例中,类似地,可设定有第三距离阈值,如果第二特征距离矩阵中的某一项小于或等于该第三距离阈值,则可认为相应的第五候选目标与第二历史目标之间匹配成功;如果第二特征距离矩阵中某一项大于该第三距离阈值,则可认为相应的第五候选目标与第二历史目标之间匹配失败。这样,通过匹配处理,可得到匹配成功的第五候选目标与第二历史目标组成的目标对,匹配失败的第五候选目标及匹配失败的第二历史目标中的至少一种,也即得到第三匹配结果。
其中,第三距离阈值可与前面的第一距离阈值和第二距离阈值均不同。本公开对第三距离阈值的具体取值不作限制。
在一些实施例中,在步骤S1433中,针对第三匹配结果中匹配成功的第五候选目标,将该第五候选目标确定为第t帧视频帧中的目标,其中,该目标的标识为相匹配的第二历史目标的标识,用于表示同一目标;该目标的位置为该目标的第一候选框的位置。
通过这种方式,能够在二次匹配的基础上,对二次匹配失败的高质量且无遮挡的候选目标与第二历史目标(已经丢失的跟踪的***)之间的匹配补救,从而进一步提高匹配的成功率。
在一些实施例中,在三次匹配后,如果还存在未匹配上的历史目标(也可称为还有未匹配上的***),则可以与低质量且无遮挡的候选目标和低质量且有遮挡的候选目标进行第四次匹配。第四次匹配的方式可与第二次匹配的方式类似。
在一些实施例中,步骤S14还可包括:
步骤S1441,根据第四历史目标的预测参数,通过卡尔曼预测模型进行预测,确定所述第四历史目标在所述第t帧视频帧中的第三预测框,所述第四历史目标包括所述第二匹配结果中匹配失败的第三历史目标和所述第三匹配结果中匹配失败的第二历史目标;
步骤S1442,根据所述第四历史目标的单目标预测方式,确定所述第四历史目标在所述第t帧视频帧中的第四预测框;
步骤S1443,根据第六候选目标的第一候选框和所述第四历史目标的第三预测框和第四预测框,确定第三损失矩阵,所述第六候选目标包括所述第二候选目标和所述第三候选目标;
步骤S1444,根据所述第三损失矩阵,确定所述第六候选目标与所述第四历史目标之间的第四匹配结果,所述第四匹配结果包括匹配成功的第六候选目标、匹配失败的第六候选目标及匹配失败的第四历史目标中的至少一种;
步骤S1445,针对所述第四匹配结果中匹配成功的第六候选目标,将该第六候选目标确定为所述第t帧视频帧中的目标,其中,该目标的标识为相匹配的第四历史目标的标识,该目标的位置为该目标的第一候选框的位置。
举例来说,可设有第四历史目标,包括第二匹配结果中匹配失败的第三历史目标和第三匹配结果中匹配失败的第二历史目标;还设有第六候选目标,包括第二候选目标(低质量且无遮挡)和第三候选目标(低质量且有遮挡),以便于进行区分。
在一些实施例中,在步骤S1441中,根据第四历史目标的***,可得到卡尔曼预测模型的预测参数,通过卡尔曼预测模型进行预测,确定第四历史目标在第t帧视频帧中的第三预测框。本公开对具体的预测过程不作限制。
在一些实施例中,在步骤S1442中,根据第四历史目标的单目标预测方式,确定第四历史目标在第t帧视频帧中的第四预测框。本公开对具体的预测过程不作限制。
在一些实施例中,在步骤S1443中,根据第六候选目标的第一候选框和第四历史目标的第三预测框和第四预测框,确定第三损失矩阵。也即,根据第一候选框和第三预测框,确定一个交并比距离矩阵;根据第一候选框和第四预测框,确定交并比距离矩阵,其数量与单目标预测方式的数量对应;根据各个交并比距离矩阵的加权和,得到第三损失矩阵。第三损失矩阵的表示方式与公式(2)类似,此处不再赘述。
在一些实施例中,步骤S1444,根据第三损失矩阵,确定第六候选目标与第四历史目标之间的第四匹配结果,第四匹配结果包括匹配成功的第六候选目标、匹配失败的第六候选目标及匹配失败的第四历史目标中的至少一种。
在一些实施例中,类似地,可设定第四距离阈值。通过匹配处理,得到匹配成功的第六候选目标与第四历史目标组成的目标对,匹配失败的第六候选目标及匹配失败的第四历史目标中的至少一种,也即得到第四匹配结果。
在一些实施例中,在步骤S1445中,针对第四匹配结果中匹配成功的第 六候选目标,将该第六候选目标确定为第t帧视频帧中的目标,其中,该目标的标识为相匹配的第四历史目标的标识,用于表示同一目标;该目标的位置为该目标的第一候选框的位置。
通过这种方式,能够在前三次匹配的基础上,实现低质量且无遮挡/有遮挡的候选目标与所有剩余历史目标的***之间的第四次匹配,进一步提高匹配的成功率。
在一些实施例中,在经过上述的前三次匹配后,如果还有未匹配上的第一候选目标,则可认为该目标是新出现的目标。
在一些实施例中,步骤S14还可包括:
步骤S1451,针对所述第三匹配结果中匹配失败的第五候选目标,将该第五候选目标确定为所述第t帧视频帧中的目标,其中,该目标的标识为新创建的标识,该目标的位置为该目标的第一候选框的位置。
也就是说,可将第三匹配结果中匹配失败的第五候选目标直接确定为第t帧视频帧中的目标,为该目标创建新的标识,用于表示新的目标,与现有目标进行区分;该目标的位置为该目标的第一候选框的位置。
这样,就完成了步骤S14的整个匹配过程,得到第t帧视频帧最终的目标跟踪结果,该目标跟踪结果包括前面各步骤中确定的、第t帧视频帧中所有的目标的标识和位置。
在一些实施例中,在得到第t帧视频帧的目标跟踪结果后,还可根据情况对第t-1状态的***集合中的各个***进行创建、更新及补救等,得到第t状态的***集合,以便下一帧(第t+1帧)处理时继续使用。
在一些实施例中,在步骤S14之后,该方法还包括:
在所述***集合中创建该目标的第一***,该目标的第一***包括该目标的标识、位置、特征信息、该目标的单目标预测方式及预测参数。
举例来说,在经过上述的前三次匹配后仍然没有匹配上的候选框,可认为有高质量且无遮挡的新目标进入视野,出现在第t帧图像中。该情况下,可以以该目标的候选框为基础,在***集合中创建该目标的第一***, 包括该目标的标识、位置、特征信息、该目标的单目标预测方式及预测参数等。此时,可初始化卡尔曼预测模型、初始化各单目标预测方式的预测参数,进行光流点采样,以及通过重识别网络提取该目标的特征信息并保存等。
通过这种方式,能够创建新的目标的***,以便于后续处理。
在一些实施例中,对于前面4次匹配中匹配上的各个目标,可对各个目标的***进行更新。
在一些实施例中,在步骤S14之后,该方法还包括:
确定第七候选目标,所述第七候选目标包括:所述第一匹配结果中匹配成功的第一候选目标、所述第二匹配结果中匹配成功的第四候选目标、所述第三匹配结果中匹配成功的第五候选目标、所述第四匹配结果中匹配成功的第六候选目标;
根据所述第七候选目标的位置,更新所述第七候选目标的***。
也就是说,可设定第七候选目标,包括第一匹配结果中匹配成功的第一候选目标、第二匹配结果中匹配成功的第四候选目标、第三匹配结果中匹配成功的第五候选目标、第四匹配结果中匹配成功的第六候选目标,即前面4次匹配中匹配上的所有目标。根据各个第七候选目标的候选框的位置,分别对各个第七候选目标的***进行更新。
在一些实施例中,所述更新所述第七候选目标的***的步骤,包括:
根据所述第七候选目标的位置,更新所述第七候选目标的***中卡尔曼预测模型的预测参数;
针对所述第七候选目标的单目标预测方式,确定所述第七候选目标的候选框与通过所述单目标预测方式确定的预测框之间的第二交并比;
在所述第二交并比大于所述第三交并比阈值的情况下,初始化与所述单目标预测方式对应的预测参数;
在所述第二交并比小于或等于第三交并比阈值的情况下,根据所述第七候选目标的位置,更新与所述单目标预测方式对应的预测参数。
举例来说,对于所有的第七候选目标,都要进行参数的更新。
在一些实施例中,根据第七候选目标的在前一帧或前几帧中的位置以及在第t帧中的位置,可更新相应***中卡尔曼预测模型的预测参数,例如更新卡尔曼预测模型中的预测速度等,以便提高后续预测的精度。
在一些实施例中,对于各个第七候选目标的单目标预测方式,可先判断单目标预测是否偏移。其中,可确定第七候选目标的候选框与通过相应的单目标预测方式确定的预测框之间的第二交并比;如果第二交并比大于预设的第三交并比阈值,则可认为单目标预测发生偏移。该情况下,可初始化与该单目标预测方式对应的预测参数,例如采用候选框对应的第t帧视频帧的区域图像,完全更新用于预测的各种信息,从而实现初始化。
在一些实施例中,如果第二交并比小于或等于预设的第三交并比阈值,则可认为单目标预测未发生偏移,该情况下,可以常规方式更新与该单目标预测方式对应的预测参数,例如采用候选框对应的第t帧视频帧的区域图像,部分更新用于预测的各种信息。
通过这种方式,能够提高参数更新的准确性和有效性,从而提高对后续视频帧的目标追踪预测的精度。
在一些实施例中,对于高质量且无遮挡的目标和低质量且无遮挡的目标,可对***中的特征信息(重识别特征)进行更新;对于低质量且有遮挡的目标,如果更新***中的特征信息(重识别特征),则可能导致后续处理不准确甚至出现误匹配,因此无需进行特征信息的更新。
在一些实施例中,所述更新所述第七候选目标的***的步骤,还包括:
针对所述第七候选目标中的第一候选目标,根据该第一候选目标的第一特征信息,更新该第一候选目标的***中的特征信息;
针对所述第七候选目标中的第二候选目标,对该第二候选目标进行特征提取,得到该第二候选目标的第二特征信息;
根据所述第二特征信息,更新该第二候选目标的***中的特征信息。
也就是说,对于第七候选目标中的第一候选目标(高质量且无遮挡的目 标),在前面的步骤S1411中已得到第一特征信息。该情况下,可根据该第一候选目标的第一特征信息,直接更新该第一候选目标的***中的特征信息。
在一些实施例中,对于第七候选目标中的第二候选目标(低质量且无遮挡的目标),可在当前的步骤中,采用重识别网络,对第t帧视频帧中与该第二候选目标的候选框对应的区域图像进行特征提取,得到该第二候选目标的第二特征信息。进而,根据该第二特征信息,更新该第二候选目标的***中的特征信息。
通过这种方式,能够对高质量且无遮挡的目标和低质量且无遮挡的目标的***中的重识别特征进行更新,从而提高对后续视频帧的目标追踪预测的精度。
在一些实施例中,在步骤S14之后,该方法还包括:
针对所述第四匹配结果中匹配失败的第四历史目标,根据该第四历史目标的第四预测框的位置,更新该第四历史目标的***中卡尔曼预测模型的预测参数。
也就是说,对于四次匹配后还以后未能匹配上的历史目标(匹配失败的第四历史目标),可确定该第四历史目标的追踪器已丢失的帧数,(当前的第t帧丢失,则将已丢失的帧数设为1)。如果已丢失的帧数达到预设的帧数阈值(例如5帧),则可认为该第四历史目标已离开采集区域,删除该第四历史目标的追踪器。
在一些实施例中,如果已丢失的帧数未达到预设的帧数阈值,则可对该第四历史目标的追踪器进行补救。根据采用单目标预测方式得到的、该第四历史目标的第四预测框的位置,更新该第四历史目标的***中卡尔曼预测模型的预测参数,以便继续通过卡尔曼预测模型进行跟踪预测。
通过这种方式,能够在检测结果闪动(消失几帧)的情况下,提高***的稳定性,从而提高目标追踪预测的精度。
通过上述的处理,完成了对第t-1状态的***集合中的各个***进 行创建、更新、补救及删除的整个过程,得到第t状态的***集合,以便下一帧(第t+1帧)处理时继续使用。在对第t+1帧视频帧进行处理时,第t状态的***集合中的各个***所对应的目标即可做为历史目标,与第t+1帧视频帧中检测出的候选目标进行匹配。
在一些实施例中,通过步骤S12-S14依次对视频流的各个视频帧进行处理,即可得到视频流的T帧视频帧的目标跟踪结果。进而,在步骤S15中,可根据视频流的T帧视频帧的目标跟踪结果,确定视频流中目标的跟踪轨迹,跟踪轨迹包括目标所对应的视频帧以及在所对应的视频帧中的位置。从而,完成多级匹配的单摄像头多跟踪的处理过程。
根据本公开的实施例,还能够实现多个摄像头的视频流的跟踪轨迹之间的匹配。在一些实施例中,预设的采集区域可以为多个,可通过多个摄像头分别采集各个采集区域的视频流,得到多个采集区域的视频流。
在一些实施例中,在步骤S15中确定视频流中目标的跟踪轨迹之后,所述方法还包括:
步骤S16,根据所述多个采集区域的地理位置和所述多个采集区域的视频流中目标的跟踪轨迹,通过跟踪轨迹之间的空间关联性对目标进行分组,得到多个空间分组,每个空间分组中包括至少一个目标及该目标的跟踪轨迹;
步骤S17,针对任一空间分组,根据所述空间分组中目标的跟踪轨迹的起始时刻和终止时刻,以及该目标所在的采集区域之间的通过时长区间,对所述空间分组中的目标进行分组,得到多个时间子分组;
步骤S18,对各个时间子分组中目标的跟踪轨迹分别进行聚类,得到所述空间分组的轨迹匹配结果,所述轨迹匹配结果包括不同采集区域的视频流中属于同一目标的跟踪轨迹;
步骤S19,根据所述多个空间分组的轨迹匹配结果,确定所述多个采集区域的视频流的轨迹匹配结果。
举例来说,多摄像头匹配是在得到每个单摄像头的采集区域的视频流中 目标的跟踪轨迹之后,根据目标的特征等信息将多个摄像头的同一辆车的轨迹进行匹配,达到跨摄像头跟踪的效果。
在一些实施例中,可采用跟踪轨迹之间的空间关联性和时间关联性,对各个跟踪轨迹进行过滤,以便提高后续轨迹匹配的准确性。
在一些实施例中,在步骤S16中,根据所述多个采集区域的地理位置和所述多个采集区域的视频流中目标的跟踪轨迹,通过跟踪轨迹之间的空间关联性对目标进行分组,得到多个空间分组。例如,对于地理位置上相邻的两个采集区域,其空间上相关联的目标跟踪轨迹可分为两组,一组是从采集区域1进入采集区域2的目标,另一组是从采集区域2进入采集区域1的目标。这样,能够避免轨迹方向相反的两个目标参与后续聚类,从而降低匹配的错误率。
在一些实施例中,步骤S16可包括:
根据第一采集区域和第二采集区域的地理位置,及所述第一采集区域和所述第二采集区域的视频流中目标的跟踪轨迹,确定第一空间分组和第二空间分组;
其中,所述第一采集区域和所述第二采集区域为所述多个采集区域中相邻的任意两个采集区域,
所述第一空间分组中包括从所述第一采集区域进入所述第二采集区域的目标,所述第二空间分组中包括从所述第二采集区域进入所述第一采集区域的目标。
举例来说,针对多个采集区域中相邻的任意两个采集区域,称为第一采集区域和第二采集区域,可根据第一采集区域和第二采集区域的地理位置,及所述第一采集区域和所述第二采集区域的视频流中目标的跟踪轨迹,确定第一空间分组和第二空间分组。
图4为本公开的实施例的采集区域的示意图。如图4所示,在一些实施例中,可将采集区域(摄像头场景)分为如下9个区域:图中左下角区域为1,顺时针方向区域分别为2、3、4、5、6、7、8,中间区域为9。当一个目 标的跟踪轨迹的结束区域为2,那么认为此目标是去往此路口的左侧路口的。当一个目标的跟踪轨迹的结束区域为6,那么认为此目标是去往此路口的右侧路口的。
在一些实施例中,可将采集区域分为为如下5个区域:1+2=西、3+4=北、5+6=东、7+8=南、9=中。也就是将9个区域可以简化为5个区域。当一个目标的跟踪轨迹在西边结束且在相邻采集区域的东边进入,那么根据相对时间先后,可以认为此目标是去往西边的,反之则是去往东边的。
在一些实施例中,设第二采集区域在第一采集区域左侧相邻的路口,则从第一采集区域的2区域离开的目标(跟踪轨迹的结束区域为第一采集区域的2区域),会从第二采集区域的5区域进入(跟踪轨迹的起始区域为第二采集区域的5区域);此外,从第二采集区域的6区域离开的目标(跟踪轨迹的结束区域为第二采集区域的6区域),会从第一采集区域的1区域进入(跟踪轨迹的起始区域为第一采集区域的2区域)。这样,即可确定出第一空间分组和第二空间分组。
在一些实施例中,第一空间分组中包括从第一采集区域进入第二采集区域的目标,第二空间分组中包括从第二采集区域进入第一采集区域的目标。
这样,分别对多个采集区域中各组相邻的两个采集区域进行处理,即可得到多个空间分组。每个空间分组包括至少一个目标及该目标的跟踪轨迹。在一个采集区域有不同方向的多个相邻的采集区域的情况下,该采集区域的目标可能会分入多个空间分组,例如该采集区域对应图4的十字路口,可能在4个方向上有相邻的采集区域,每个方向上都有第一空间分组和第二空间分组,共对应于8个空间分组。该采集区域中的目标也可能会被重复分入不同的空间分组。本公开对具体的空间分组数量及目标的具体分组方式均不作限制。
通过这种方式,通过跟踪轨迹之间的空间关联性进行分组,能够过滤掉无空间关联性的跟踪轨迹,从而提高跨摄像头跟踪匹配的成功率。
在一些实施例中,在步骤S17中,针对任一空间分组,根据所述空间分 组中目标的跟踪轨迹的起始时刻和终止时刻,以及该目标所在的采集区域之间的通过时长区间,对所述空间分组中的目标进行分组,得到多个时间子分组。
也就是说,可通过跟踪轨迹之间的时间关联性,进一步对各个跟踪轨迹进行过滤。其中,可根据目标的跟踪轨迹中,起始的视频帧和终止的视频帧的时间戳,来确定跟踪轨迹的起始时刻和终止时刻。
在一些实施例中,在步骤S17之前,该方法还可包括:
根据所述第一采集区域和所述第二采集区域之间的距离、最高限速、最低限速及平均车速,确定所述第一采集区域与所述第二采集区域之间的通过时长区间。
也就是说,根据相邻的第一采集区域和第二采集区域之间的距离dn,以及第一采集区域和第二采集区域之间的最高限速、最低限速及平均车速vn,可计算出目标从第一采集区域到第二采集区域,或从第二采集区域到第一采集区域所需的时长,称为通过时长区间,也即通过该距离的最少时间tn_min和最大时间tn_max对应的区间。
例如,第一采集区域和第二采集区域之间的距离为1.5km,最高限速90km/h、最低限速30km/h,平均车速60km/h,则可计算出通过时长分别为1分钟、3分钟及1.5分钟。该情况下,可将通过时长区间设定为[1分钟,3分钟]。
在一些实施例中,步骤S17可包括:
针对与所述第一采集区域和所述第二采集区域对应的第一空间分组,在所述第一采集区域中目标的跟踪轨迹的终止时刻在所述第二采集区域中目标的跟踪轨迹的起始时刻之前,且该终止时刻与该起始时刻之间的时间差处于所述通过时长区间内的情况下,将相应的目标归入同一个时间子分组。
也就是说,对于从第一采集区域进入第二采集区域的目标的第一空间分组,如果第一采集区域中目标的跟踪轨迹的终止时刻在第二采集区域中目标的跟踪轨迹的起始时刻之前,且该终止时刻与该起始时刻之间的时间差处于 通过时长区间内,则相应的目标可能是同一个目标,可归入同一个时间子分组,以便后续进行聚类。
反之,如果第一采集区域中目标的跟踪轨迹的终止时刻在第二采集区域中目标的跟踪轨迹的起始时刻之后,或者该终止时刻与该起始时刻之间的时间差未处于通过时长区间内,则相应的目标不能是同一个目标,不归入同一个时间子分组。
在一些实施例中,对于从第二采集区域进入第一采集区域的目标的第一空间分组,刻采用类似的方式进行判断,确定是否归入同一个时间子分组。
通过这种方式,可通过跟踪轨迹之间的时间关联性,进一步对各个跟踪轨迹进行过滤,进一步缩小后续聚类的范围,从而降低匹配的错误率。
在一些实施例中,在步骤S18中,可对各个时间子分组中目标的跟踪轨迹分别进行聚类,得到所述空间分组的轨迹匹配结果,所述轨迹匹配结果包括不同采集区域的视频流中属于同一目标的跟踪轨迹。
在一些实施例中,聚类的方式可以为层级聚类,其中,步骤S18包括:采用层级聚类的方式,对各个时间子分组中目标的跟踪轨迹分别进行聚类,得到该空间分组的轨迹匹配结果。
应当理解,本领域技术人员可根据实际情况设定聚类的方式,例如还可采用K-means聚类方式等,本公开对具体的聚类方式不作限制。
在一些实施例中,步骤S19中,根据所有的多个空间分组的轨迹匹配结果,可确定多个采集区域的视频流的轨迹匹配结果。这样,实现了多摄像头的目标匹配的整个处理过程。
通过这种方式,在多摄像头的目标匹配中采用时空条件(空间关联性和时间关联性)对目标的跟踪轨迹进行过滤,能够过滤掉大部分不能匹配的跟踪轨迹,从而大大提高了层级聚类的准确率,提高了跨摄像头多目标跟踪的准确率,解决了跨摄像头多目标跟踪准确率不高的技术问题。
根据本公开的实施例,还提供了一种目标跟踪装置。图5为本公开的实施例的目标跟踪装置的框图。如图5所示,该装置包括:
视频流获取模块51,用于获取预设采集区域的视频流;
目标检测模块52,用于对所述视频流的第t帧视频帧进行目标检测,确定所述第t帧视频帧中的至少一个候选目标的第一候选框,t为整数且1<t≤T,T为所述视频流的视频帧数量;
目标分级模块53,用于根据所述候选目标的置信度及各个所述候选目标的第一候选框之间的第一交并比,对所述候选目标进行分级,确定出至少一个匹配级别的候选目标;
目标匹配模块54,用于根据所述视频流在第t-1状态的***集合以及预设的匹配策略,对所述至少一个匹配级别的候选目标分别进行匹配,确定所述第t帧视频帧的目标跟踪结果;其中,所述目标跟踪结果包括所述第t帧视频帧中目标的标识和位置;
轨迹确定模块55,用于根据所述视频流的T帧视频帧的目标跟踪结果,确定所述视频流中目标的跟踪轨迹,所述跟踪轨迹包括目标所对应的视频帧以及在所对应的视频帧中的位置。
在一些实施例中,针对任一候选目标,所述目标分级模块用于:
在所述候选目标的置信度大于或等于第一置信度阈值,并且所述候选目标的第一交并比的最大值小于或等于第一交并比阈值的情况下,将所述候选目标确定为第一匹配级别的第一候选目标;在所述候选目标的置信度小于所述第一置信度阈值且大于或等于第二置信度阈值,并且所述候选目标的第一交并比的最大值小于或等于第一交并比阈值的情况下,将所述候选目标确定为第二匹配级别的第二候选目标;在所述候选目标的置信度小于所述第一置信度阈值且大于或等于第二置信度阈值,并且所述候选目标的第一交并比的最大值大于所述第一交并比阈值且小于或等于第二交并比阈值的情况下,将所述候选目标确定为第三匹配级别的第三候选目标;其中,所述第一置信度阈值大于所述第二置信度阈值,所述第一交并比阈值小于所述第二交并比阈值。
在一些实施例中,所述视频流在第t-1状态的***集合中包括:第t-1 帧视频帧中匹配成功的第一历史目标的第一***、所述第t-1帧视频帧中匹配失败的第二历史目标的第二***中的至少一种,其中,***包括所跟踪的目标的标识、位置、特征信息、该目标的单目标预测方式及预测参数,
其中,所述目标匹配模块,用于:
对所述第一候选目标进行特征提取,得到所述第一候选目标的第一特征信息;根据所述第一历史目标的第一***,采用相应的单目标预测方式,确定所述第一历史目标在所述第t帧视频帧中的第一预测框;根据所述第一候选目标的第一特征信息、所述第一候选目标的第一候选框,以及所述第一历史目标在所述第t帧视频帧中的第一预测框,确定所述第一历史目标与所述第一候选目标之间的第一损失矩阵;根据第一损失矩阵,确定所述第一历史目标与所述第一候选目标之间的第一匹配结果,所述第一匹配结果包括所述第一匹配级别中匹配成功的第一候选目标、匹配失败的第一候选目标及匹配失败的第一历史目标中的至少一种;针对所述第一匹配结果中匹配成功的第一候选目标,将该第一候选目标确定为所述第t帧视频帧中的目标,其中,该目标的标识为相匹配的第一历史目标的标识,该目标的位置为该目标的第一候选框的位置。
在一些实施例中,所述根据所述第一候选目标的第一特征信息、所述第一候选目标的第一候选框,以及所述第一历史目标在所述第t帧视频帧中的第一预测框,确定所述第一历史目标与所述第一候选目标之间匹配的第一损失矩阵,包括:根据所述第一候选目标的第一特征信息和所述第一历史目标的特征信息,确定第一特征距离矩阵;根据所述第一候选目标的第一候选框和所述第一历史目标在所述第t帧视频帧中的第一预测框,确定第一交并比距离矩阵;根据所述第一特征距离矩阵和所述第一交并比距离矩阵,确定所述第一损失矩阵。
在一些实施例中,所述第一历史目标的预测方式包括至少一种单目标预测方式,所述第一交并比距离矩阵相应地包括至少一个交并比距离矩阵。
在一些实施例中,所述目标匹配模块,还用于:
根据第三历史目标的预测参数,通过卡尔曼预测模型进行预测,确定所述第三历史目标在所述第t帧视频帧中的第二预测框,所述第三历史目标为所述第一匹配结果中匹配失败的第一历史目标;根据第四候选目标的第一候选框和所述第三历史目标的第二预测框,确定第二交并比距离矩阵,所述第四候选目标为所述第一匹配结果中匹配失败的第一候选目标;根据所述第四候选目标的第一候选框和所述第三历史目标在所述第t帧视频帧中的第一预测框,确定第三交并比距离矩阵;根据所述第二交并比距离矩阵和所述第三交并比距离矩阵,确定第二损失矩阵;根据所述第二损失矩阵,确定所述第四候选目标与所述第三历史目标之间的第二匹配结果,所述第二匹配结果包括匹配成功的第四候选目标、匹配失败的第四候选目标及匹配失败的第三历史目标中的至少一种;针对所述第二匹配结果中匹配成功的第四候选目标,将该第四候选目标确定为所述第t帧视频帧中的目标,其中,该目标的标识为相匹配的第三历史目标的标识,该目标的位置为该目标的第一候选框的位置。
在一些实施例中,所述目标匹配模块,还用于:
根据第五候选目标的第一特征信息和所述第二历史目标的特征信息,确定第二特征距离矩阵,所述第五候选目标为所述第二匹配结果中匹配失败的第四候选目标;根据所述第二特征距离矩阵,确定所述第五候选目标与所述第二历史目标之间的第三匹配结果,所述第三匹配结果包括匹配成功的第五候选目标、匹配失败的第五候选目标及匹配失败的第二历史目标中的至少一种;针对所述第三匹配结果中匹配成功的第五候选目标,将该第五候选目标确定为所述第t帧视频帧中的目标;其中,该目标的标识为相匹配的第二历史目标的标识,该目标的位置为该目标的第一候选框的位置。
在一些实施例中,所述目标匹配模块,还用于:
根据第四历史目标的预测参数,通过卡尔曼预测模型进行预测,确定所述第四历史目标在所述第t帧视频帧中的第三预测框,所述第四历史目标包括所述第二匹配结果中匹配失败的第三历史目标和所述第三匹配结果中匹配失败的第二历史目标;根据所述第四历史目标的单目标预测方式,确定所 述第四历史目标在所述第t帧视频帧中的第四预测框;根据第六候选目标的第一候选框和所述第四历史目标的第三预测框和第四预测框,确定第三损失矩阵,所述第六候选目标包括所述第二候选目标和所述第三候选目标;根据所述第三损失矩阵,确定所述第六候选目标与所述第四历史目标之间的第四匹配结果,所述第四匹配结果包括匹配成功的第六候选目标、匹配失败的第六候选目标及匹配失败的第四历史目标中的至少一种;针对所述第四匹配结果中匹配成功的第六候选目标,将该第六候选目标确定为所述第t帧视频帧中的目标,其中,该目标的标识为相匹配的第四历史目标的标识,该目标的位置为该目标的第一候选框的位置。
在一些实施例中,所述目标匹配模块,还用于:
针对所述第三匹配结果中匹配失败的第五候选目标,将该第五候选目标确定为所述第t帧视频帧中的目标,其中,该目标的标识为新创建的标识,该目标的位置为该目标的第一候选框的位置;
其中,在所述确定所述第t帧视频帧的目标跟踪结果之后,所述装置还包括:创建模块,用于在所述***集合中创建该目标的第一***,该目标的第一***包括该目标的标识、位置、特征信息、该目标的单目标预测方式及预测参数。
在一些实施例中,在所述确定所述第t帧视频帧的目标跟踪结果之后,所述装置还包括:确定模块,用于确定第七候选目标,所述第七候选目标包括:所述第一匹配结果中匹配成功的第一候选目标、所述第二匹配结果中匹配成功的第四候选目标、所述第三匹配结果中匹配成功的第五候选目标、所述第四匹配结果中匹配成功的第六候选目标;更新模块,用于根据所述第七候选目标的位置,更新所述第七候选目标的***。
在一些实施例中,所述更新模块,用于:
根据所述第七候选目标的位置,更新所述第七候选目标的***中卡尔曼预测模型的预测参数;针对所述第七候选目标的单目标预测方式,确定所述第七候选目标的候选框与通过所述单目标预测方式确定的预测框之间的 第二交并比;在所述第二交并比大于所述第三交并比阈值的情况下,初始化与所述单目标预测方式对应的预测参数;在所述第二交并比小于或等于第三交并比阈值的情况下,根据所述第七候选目标的位置,更新与所述单目标预测方式对应的预测参数。
在一些实施例中,所述更新模块,还用于:
针对所述第七候选目标中的第一候选目标,根据该第一候选目标的第一特征信息,更新该第一候选目标的***中的特征信息;针对所述第七候选目标中的第二候选目标,对该第二候选目标进行特征提取,得到该第二候选目标的第二特征信息;根据所述第二特征信息,更新该第二候选目标的***中的特征信息。
在一些实施例中,在所述确定所述第t帧视频帧的目标跟踪结果之后,所述装置还包括:参数更新模块,用于针对所述第四匹配结果中匹配失败的第四历史目标,根据该第四历史目标的第四预测框的位置,更新该第四历史目标的***中卡尔曼预测模型的预测参数。
在一些实施例中,所述视频流包括多个采集区域的视频流,在所述确定所述视频流中目标的跟踪轨迹之后,所述装置还包括:
空间分组模块,用于根据所述多个采集区域的地理位置和所述多个采集区域的视频流中目标的跟踪轨迹,通过跟踪轨迹之间的空间关联性对目标进行分组,得到多个空间分组,每个空间分组中包括至少一个目标及该目标的跟踪轨迹;时间分组模块,用于针对任一空间分组,根据所述空间分组中目标的跟踪轨迹的起始时刻和终止时刻,以及该目标所在的采集区域之间的通过时长区间,对所述空间分组中的目标进行分组,得到多个时间子分组;聚类模块,用于对各个时间子分组中目标的跟踪轨迹分别进行聚类,得到所述空间分组的轨迹匹配结果,所述轨迹匹配结果包括不同采集区域的视频流中属于同一目标的跟踪轨迹;轨迹匹配模块,用于根据所述多个空间分组的轨迹匹配结果,确定所述多个采集区域的视频流的轨迹匹配结果。
在一些实施例中,所述空间分组模块,用于:
根据第一采集区域和第二采集区域的地理位置,及所述第一采集区域和所述第二采集区域的视频流中目标的跟踪轨迹,确定第一空间分组和第二空间分组;其中,所述第一采集区域和所述第二采集区域为所述多个采集区域中相邻的任意两个采集区域,所述第一空间分组中包括从所述第一采集区域进入所述第二采集区域的目标,所述第二空间分组中包括从所述第二采集区域进入所述第一采集区域的目标。
在一些实施例中,在对所述空间分组中的目标进行分组,得到多个时间子分组之前,所述装置还包括:时长确定模块,用于根据所述第一采集区域和所述第二采集区域之间的距离、最高限速、最低限速及平均车速,确定所述第一采集区域与所述第二采集区域之间的通过时长区间;
其中,所述时间分组模块,用于:针对与所述第一采集区域和所述第二采集区域对应的第一空间分组,在所述第一采集区域中目标的跟踪轨迹的终止时刻在所述第二采集区域中目标的跟踪轨迹的起始时刻之前,且该终止时刻与该起始时刻之间的时间差处于所述通过时长区间内的情况下,将相应的目标归入同一个时间子分组。
在一些实施例中,所述聚类模块,用于:采用层级聚类的方式,对各个时间子分组中目标的跟踪轨迹分别进行聚类,得到所述空间分组的轨迹匹配结果。
图6为本公开实施例的一种电子设备的结构示意图。如图6所示,本公开实施例提供一种电子设备包括:一个或多个处理器101、存储器102、一个或多个I/O接口103。存储器102上存储有一个或多个程序,当该一个或多个程序被该一个或多个处理器执行,使得该一个或多个处理器实现如上述实施例中任一的目标跟踪方法;一个或多个I/O接口103连接在处理器与存储器之间,配置为实现处理器与存储器的信息交互。
其中,处理器101为具有数据处理能力的器件,其包括但不限于中央处理器(CPU)等;存储器102为具有数据存储能力的器件,其包括但不限于随机存取存储器(RAM,更具体如SDRAM、DDR等)、只读存储器(ROM)、 带电可擦可编程只读存储器(EEPROM)、闪存(FLASH);I/O接口(读写接口)103连接在处理器101与存储器102间,能实现处理器101与存储器102的信息交互,其包括但不限于数据总线(Bus)等。
在一些实施例中,处理器101、存储器102和I/O接口103通过总线104相互连接,进而与计算设备的其它组件连接。
根据本公开的实施例,还提供一种非瞬态计算机可读介质。该非瞬态计算机可读介质上存储有计算机程序,其中,该程序被处理器执行时实现如上述实施例中任一的目标跟踪方法中的步骤。
特别地,根据本公开实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在机器可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。在该计算机程序被中央处理单元(CPU)执行时,执行本公开的***中限定的上述功能。
需要说明的是,本公开所示的非瞬态计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何非瞬态计算机可读介质,该非 瞬态计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。非瞬态计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,前述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的电路或子电路可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的电路或子电路也可以设置在处理器中,例如,可以描述为:一种处理器,包括:接收电路和处理电路,该处理模块包括写入子电路和读取子电路。其中,这些电路或子电路的名称在某种情况下并不构成对该电路或子电路本身的限定,例如,接收电路还可以被描述为“接收视频信号”。
可以理解的是,以上实施方式仅仅是为了说明本公开的原理而采用的示例性实施方式,然而本公开并不局限于此。对于本领域内的普通技术人员而言,在不脱离本公开的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本公开的保护范围。
Claims (20)
- 一种目标跟踪方法,包括:获取预设采集区域的视频流;对所述视频流的第t帧视频帧进行目标检测,确定所述第t帧视频帧中的至少一个候选目标的第一候选框,t为整数且1<t≤T,T为所述视频流的视频帧数量;根据所述候选目标的置信度及各个所述候选目标的第一候选框之间的第一交并比,对所述候选目标进行分级,确定出至少一个匹配级别的候选目标;根据所述视频流在第t-1状态的***集合以及预设的匹配策略,对所述至少一个匹配级别的候选目标分别进行匹配,确定所述第t帧视频帧的目标跟踪结果;其中,所述目标跟踪结果包括所述第t帧视频帧中目标的标识和位置;根据所述视频流的T帧视频帧的目标跟踪结果,确定所述视频流中目标的跟踪轨迹,所述跟踪轨迹包括目标所对应的视频帧以及在所对应的视频帧中的位置。
- 根据权利要求1所述的方法,其中,针对任一候选目标,所述根据所述候选目标的置信度及各个所述候选目标的第一候选框之间的第一交并比,对所述候选目标进行分级,确定出至少一个匹配级别的候选目标,包括:在所述候选目标的置信度大于或等于第一置信度阈值,并且所述候选目标的第一交并比的最大值小于或等于第一交并比阈值的情况下,将所述候选目标确定为第一匹配级别的第一候选目标;在所述候选目标的置信度小于所述第一置信度阈值且大于或等于第二置信度阈值,并且所述候选目标的第一交并比的最大值小于或等于第一交并比阈值的情况下,将所述候选目标确定为第二匹配级别的第二候选目标;在所述候选目标的置信度小于所述第一置信度阈值且大于或等于第二置信度阈值,并且所述候选目标的第一交并比的最大值大于所述第一交并比 阈值且小于或等于第二交并比阈值的情况下,将所述候选目标确定为第三匹配级别的第三候选目标;其中,所述第一置信度阈值大于所述第二置信度阈值,所述第一交并比阈值小于所述第二交并比阈值。
- 根据权利要求2所述的方法,其中,所述视频流在第t-1状态的***集合中包括:第t-1帧视频帧中匹配成功的第一历史目标的第一***、所述第t-1帧视频帧中匹配失败的第二历史目标的第二***中的至少一种,其中,***包括所跟踪的目标的标识、位置、特征信息、该目标的单目标预测方式及预测参数,其中,所述根据所述视频流在第t-1状态的***集合以及预设的匹配策略,对所述至少一个匹配级别的候选目标分别进行匹配,确定所述第t帧视频帧的目标跟踪结果,包括:对所述第一候选目标进行特征提取,得到所述第一候选目标的第一特征信息;根据所述第一历史目标的第一***,采用相应的单目标预测方式,确定所述第一历史目标在所述第t帧视频帧中的第一预测框;根据所述第一候选目标的第一特征信息、所述第一候选目标的第一候选框,以及所述第一历史目标在所述第t帧视频帧中的第一预测框,确定所述第一历史目标与所述第一候选目标之间的第一损失矩阵;根据第一损失矩阵,确定所述第一历史目标与所述第一候选目标之间的第一匹配结果,所述第一匹配结果包括所述第一匹配级别中匹配成功的第一候选目标、匹配失败的第一候选目标及匹配失败的第一历史目标中的至少一种;针对所述第一匹配结果中匹配成功的第一候选目标,将该第一候选目标确定为所述第t帧视频帧中的目标,其中,该目标的标识为相匹配的第一历史目标的标识,该目标的位置为该目标的第一候选框的位置。
- 根据权利要求3所述的方法,其中,所述根据所述第一候选目标的 第一特征信息、所述第一候选目标的第一候选框,以及所述第一历史目标在所述第t帧视频帧中的第一预测框,确定所述第一历史目标与所述第一候选目标之间匹配的第一损失矩阵,包括:根据所述第一候选目标的第一特征信息和所述第一历史目标的特征信息,确定第一特征距离矩阵;根据所述第一候选目标的第一候选框和所述第一历史目标在所述第t帧视频帧中的第一预测框,确定第一交并比距离矩阵;根据所述第一特征距离矩阵和所述第一交并比距离矩阵,确定所述第一损失矩阵。
- 根据权利要求4所述的方法,其中,所述第一历史目标的预测方式包括至少一种单目标预测方式,所述第一交并比距离矩阵相应地包括至少一个交并比距离矩阵。
- 根据权利要求3所述的方法,其中,所述根据所述视频流在第t-1状态的***集合以及预设的匹配策略,对所述至少一个匹配级别的候选目标分别进行匹配,确定所述第t帧视频帧的目标跟踪结果,还包括:根据第三历史目标的预测参数,通过卡尔曼预测模型进行预测,确定所述第三历史目标在所述第t帧视频帧中的第二预测框,所述第三历史目标为所述第一匹配结果中匹配失败的第一历史目标;根据第四候选目标的第一候选框和所述第三历史目标的第二预测框,确定第二交并比距离矩阵,所述第四候选目标为所述第一匹配结果中匹配失败的第一候选目标;根据所述第四候选目标的第一候选框和所述第三历史目标在所述第t帧视频帧中的第一预测框,确定第三交并比距离矩阵;根据所述第二交并比距离矩阵和所述第三交并比距离矩阵,确定第二损失矩阵;根据所述第二损失矩阵,确定所述第四候选目标与所述第三历史目标之间的第二匹配结果,所述第二匹配结果包括匹配成功的第四候选目标、匹配 失败的第四候选目标及匹配失败的第三历史目标中的至少一种;针对所述第二匹配结果中匹配成功的第四候选目标,将该第四候选目标确定为所述第t帧视频帧中的目标,其中,该目标的标识为相匹配的第三历史目标的标识,该目标的位置为该目标的第一候选框的位置。
- 根据权利要求6所述的方法,其中,所述根据所述视频流在第t-1状态的***集合以及预设的匹配策略,对所述至少一个匹配级别的候选目标分别进行匹配,确定所述第t帧视频帧的目标跟踪结果,还包括:根据第五候选目标的第一特征信息和所述第二历史目标的特征信息,确定第二特征距离矩阵,所述第五候选目标为所述第二匹配结果中匹配失败的第四候选目标;根据所述第二特征距离矩阵,确定所述第五候选目标与所述第二历史目标之间的第三匹配结果,所述第三匹配结果包括匹配成功的第五候选目标、匹配失败的第五候选目标及匹配失败的第二历史目标中的至少一种;针对所述第三匹配结果中匹配成功的第五候选目标,将该第五候选目标确定为所述第t帧视频帧中的目标;其中,该目标的标识为相匹配的第二历史目标的标识,该目标的位置为该目标的第一候选框的位置。
- 根据权利要求7所述的方法,其中,所述根据所述视频流在第t-1状态的***集合以及预设的匹配策略,对所述至少一个匹配级别的候选目标分别进行匹配,确定所述第t帧视频帧的目标跟踪结果,还包括:根据第四历史目标的预测参数,通过卡尔曼预测模型进行预测,确定所述第四历史目标在所述第t帧视频帧中的第三预测框,所述第四历史目标包括所述第二匹配结果中匹配失败的第三历史目标和所述第三匹配结果中匹配失败的第二历史目标;根据所述第四历史目标的单目标预测方式,确定所述第四历史目标在所述第t帧视频帧中的第四预测框;根据第六候选目标的第一候选框和所述第四历史目标的第三预测框和 第四预测框,确定第三损失矩阵,所述第六候选目标包括所述第二候选目标和所述第三候选目标;根据所述第三损失矩阵,确定所述第六候选目标与所述第四历史目标之间的第四匹配结果,所述第四匹配结果包括匹配成功的第六候选目标、匹配失败的第六候选目标及匹配失败的第四历史目标中的至少一种;针对所述第四匹配结果中匹配成功的第六候选目标,将该第六候选目标确定为所述第t帧视频帧中的目标,其中,该目标的标识为相匹配的第四历史目标的标识,该目标的位置为该目标的第一候选框的位置。
- 根据权利要求7所述的方法,其中,所述根据所述视频流在第t-1状态的***集合以及预设的匹配策略,对所述至少一个匹配级别的候选目标分别进行匹配,确定所述第t帧视频帧的目标跟踪结果,还包括:针对所述第三匹配结果中匹配失败的第五候选目标,将该第五候选目标确定为所述第t帧视频帧中的目标,其中,该目标的标识为新创建的标识,该目标的位置为该目标的第一候选框的位置;其中,在所述确定所述第t帧视频帧的目标跟踪结果之后,所述方法还包括:在所述***集合中创建该目标的第一***,该目标的第一***包括该目标的标识、位置、特征信息、该目标的单目标预测方式及预测参数。
- 根据权利要求8所述的方法,其中,在所述确定所述第t帧视频帧的目标跟踪结果之后,所述方法还包括:确定第七候选目标,所述第七候选目标包括:所述第一匹配结果中匹配成功的第一候选目标、所述第二匹配结果中匹配成功的第四候选目标、所述第三匹配结果中匹配成功的第五候选目标、所述第四匹配结果中匹配成功的第六候选目标;根据所述第七候选目标的位置,更新所述第七候选目标的***。
- 根据权利要求10所述的方法,其中,所述更新所述第七候选目标的***,包括:根据所述第七候选目标的位置,更新所述第七候选目标的***中卡尔曼预测模型的预测参数;针对所述第七候选目标的单目标预测方式,确定所述第七候选目标的候选框与通过所述单目标预测方式确定的预测框之间的第二交并比;在所述第二交并比大于所述第三交并比阈值的情况下,初始化与所述单目标预测方式对应的预测参数;在所述第二交并比小于或等于第三交并比阈值的情况下,根据所述第七候选目标的位置,更新与所述单目标预测方式对应的预测参数。
- 根据权利要求11所述的方法,其中,所述更新所述第七候选目标的***,还包括:针对所述第七候选目标中的第一候选目标,根据该第一候选目标的第一特征信息,更新该第一候选目标的***中的特征信息;针对所述第七候选目标中的第二候选目标,对该第二候选目标进行特征提取,得到该第二候选目标的第二特征信息;根据所述第二特征信息,更新该第二候选目标的***中的特征信息。
- 根据权利要求8所述的方法,其中,在所述确定所述第t帧视频帧的目标跟踪结果之后,所述方法还包括:针对所述第四匹配结果中匹配失败的第四历史目标,根据该第四历史目标的第四预测框的位置,更新该第四历史目标的***中卡尔曼预测模型的预测参数。
- 根据权利要求1所述的方法,其中,所述视频流包括多个采集区域的视频流,在所述确定所述视频流中目标的跟踪轨迹之后,所述方法还包括:根据所述多个采集区域的地理位置和所述多个采集区域的视频流中目标的跟踪轨迹,通过跟踪轨迹之间的空间关联性对目标进行分组,得到多个空间分组,每个空间分组中包括至少一个目标及该目标的跟踪轨迹;针对任一空间分组,根据所述空间分组中目标的跟踪轨迹的起始时刻和 终止时刻,以及该目标所在的采集区域之间的通过时长区间,对所述空间分组中的目标进行分组,得到多个时间子分组;对各个时间子分组中目标的跟踪轨迹分别进行聚类,得到所述空间分组的轨迹匹配结果,所述轨迹匹配结果包括不同采集区域的视频流中属于同一目标的跟踪轨迹;根据所述多个空间分组的轨迹匹配结果,确定所述多个采集区域的视频流的轨迹匹配结果。
- 根据权利要求14所述的方法,其中,所述根据所述多个采集区域的地理位置和所述多个采集区域的视频流中目标的跟踪轨迹,通过跟踪轨迹之间的空间关联性对目标进行分组,得到多个空间分组,包括:根据第一采集区域和第二采集区域的地理位置,及所述第一采集区域和所述第二采集区域的视频流中目标的跟踪轨迹,确定第一空间分组和第二空间分组;其中,所述第一采集区域和所述第二采集区域为所述多个采集区域中相邻的任意两个采集区域,所述第一空间分组中包括从所述第一采集区域进入所述第二采集区域的目标,所述第二空间分组中包括从所述第二采集区域进入所述第一采集区域的目标。
- 根据权利要求15所述的方法,其中,在对所述空间分组中的目标进行分组,得到多个时间子分组之前,所述方法还包括:根据所述第一采集区域和所述第二采集区域之间的距离、最高限速、最低限速及平均车速,确定所述第一采集区域与所述第二采集区域之间的通过时长区间;其中,所述根据所述空间分组中目标的跟踪轨迹的起始时刻和终止时刻,以及该目标所在的采集区域之间的通过时长区间,对所述空间分组中的目标进行分组,得到多个时间子分组,包括:针对与所述第一采集区域和所述第二采集区域对应的第一空间分组,在 所述第一采集区域中目标的跟踪轨迹的终止时刻在所述第二采集区域中目标的跟踪轨迹的起始时刻之前,且该终止时刻与该起始时刻之间的时间差处于所述通过时长区间内的情况下,将相应的目标归入同一个时间子分组。
- 根据权利要求14所述的方法,其中,所述对各个时间子分组中目标的跟踪轨迹分别进行聚类,得到所述空间分组的轨迹匹配结果,包括:采用层级聚类的方式,对各个时间子分组中目标的跟踪轨迹分别进行聚类,得到所述空间分组的轨迹匹配结果。
- 一种目标跟踪装置,包括:视频流获取模块,用于获取预设采集区域的视频流;目标检测模块,用于对所述视频流的第t帧视频帧进行目标检测,确定所述第t帧视频帧中的至少一个候选目标的第一候选框,t为整数且1<t≤T,T为所述视频流的视频帧数量;目标分级模块,用于根据所述候选目标的置信度及各个所述候选目标的第一候选框之间的第一交并比,对所述候选目标进行分级,确定出至少一个匹配级别的候选目标;目标匹配模块,用于根据所述视频流在第t-1状态的***集合以及预设的匹配策略,对所述至少一个匹配级别的候选目标分别进行匹配,确定所述第t帧视频帧的目标跟踪结果;其中,所述目标跟踪结果包括所述第t帧视频帧中目标的标识和位置;轨迹确定模块,用于根据所述视频流的T帧视频帧的目标跟踪结果,确定所述视频流中目标的跟踪轨迹,所述跟踪轨迹包括目标所对应的视频帧以及在所对应的视频帧中的位置。
- 一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或 多个处理器实现如权利要求1至17中任一所述的目标跟踪方法。
- 一种非瞬态计算机可读介质,其上存储有计算机程序,其中,所述计算机程序在被处理器执行时实现如权利要求1至17中任一所述的目标跟踪方法中的步骤。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2022/086749 WO2023197232A1 (zh) | 2022-04-14 | 2022-04-14 | 目标跟踪方法及装置、电子设备、计算机可读介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117242489A true CN117242489A (zh) | 2023-12-15 |
Family
ID=88328559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280000720.0A Pending CN117242489A (zh) | 2022-04-14 | 2022-04-14 | 目标跟踪方法及装置、电子设备、计算机可读介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN117242489A (zh) |
WO (1) | WO2023197232A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117237418B (zh) * | 2023-11-15 | 2024-01-23 | 成都航空职业技术学院 | 一种基于深度学习的运动目标检测方法和*** |
CN117670939B (zh) * | 2024-01-31 | 2024-04-19 | 苏州元脑智能科技有限公司 | 多相机的多目标跟踪方法、装置、存储介质及电子设备 |
CN117784798B (zh) * | 2024-02-26 | 2024-05-31 | 安徽蔚来智驾科技有限公司 | 目标跟踪方法、智能设备及计算机可读存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4208898B2 (ja) * | 2006-06-09 | 2009-01-14 | 株式会社ソニー・コンピュータエンタテインメント | 対象物追跡装置および対象物追跡方法 |
CN111754545B (zh) * | 2020-06-16 | 2024-05-03 | 江南大学 | 一种基于iou匹配的双滤波器视频多目标跟踪方法 |
CN113221750A (zh) * | 2021-05-13 | 2021-08-06 | 杭州飞步科技有限公司 | 车辆追踪方法、装置、设备及存储介质 |
CN113763427B (zh) * | 2021-09-05 | 2024-02-23 | 东南大学 | 一种基于从粗到精遮挡处理的多目标跟踪方法 |
-
2022
- 2022-04-14 WO PCT/CN2022/086749 patent/WO2023197232A1/zh active Application Filing
- 2022-04-14 CN CN202280000720.0A patent/CN117242489A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2023197232A1 (zh) | 2023-10-19 |
WO2023197232A9 (zh) | 2023-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN117242489A (zh) | 目标跟踪方法及装置、电子设备、计算机可读介质 | |
CN112070807B (zh) | 多目标跟踪方法和电子装置 | |
CN109961106B (zh) | 轨迹分类模型的训练方法和装置、电子设备 | |
CN109099929B (zh) | 基于场景指纹的智能车定位装置及方法 | |
CN113822910A (zh) | 多目标跟踪方法、装置、电子设备及存储介质 | |
CN112818885B (zh) | 人脸识别方法、装置、设备及存储介质 | |
CN115546705B (zh) | 目标识别方法、终端设备及存储介质 | |
CN112633255B (zh) | 目标检测方法、装置及设备 | |
CN112836683B (zh) | 用于便携式摄像设备的车牌识别方法、装置、设备和介质 | |
CN112215084A (zh) | 识别对象确定方法、装置、设备及存储介质 | |
CN116311063A (zh) | 监控视频下基于人脸识别的人员细粒度跟踪方法及*** | |
CN115761655A (zh) | 一种目标跟踪方法及装置 | |
CN111753775A (zh) | 鱼的生长评估方法、装置、设备及存储介质 | |
CN114387296A (zh) | 目标轨迹追踪方法、装置、计算机设备及存储介质 | |
CN113160272B (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN112699711A (zh) | 车道线检测方法、装置、存储介质及电子设备 | |
CN111832349A (zh) | 遗留物错误检测的识别方法、装置及图像处理设备 | |
CN112087593A (zh) | 视频配置的更新装置、方法以及电子设备 | |
CN113918510A (zh) | 图片归档方法、装置、终端设备及计算机可读存储介质 | |
CN115953434B (zh) | 轨迹匹配方法、装置、电子设备和存储介质 | |
CN117152949A (zh) | 一种基于无人机的交通事件识别方法及*** | |
CN116434556A (zh) | 车辆信息获取方法及其装置、设备及介质 | |
CN112906495B (zh) | 一种目标检测方法、装置、电子设备及存储介质 | |
CN115393755A (zh) | 视觉目标跟踪方法、装置、设备以及存储介质 | |
CN111597979B (zh) | 一种目标对象聚类方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |