CN114092517A - 基于传统和深度学习算法的多目标跟踪方法 - Google Patents

基于传统和深度学习算法的多目标跟踪方法 Download PDF

Info

Publication number
CN114092517A
CN114092517A CN202111349149.7A CN202111349149A CN114092517A CN 114092517 A CN114092517 A CN 114092517A CN 202111349149 A CN202111349149 A CN 202111349149A CN 114092517 A CN114092517 A CN 114092517A
Authority
CN
China
Prior art keywords
tracks
target
matching
frame
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111349149.7A
Other languages
English (en)
Inventor
高庆磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Aerospace Dawei Technology Co Ltd
Original Assignee
Jiangsu Aerospace Dawei Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Aerospace Dawei Technology Co Ltd filed Critical Jiangsu Aerospace Dawei Technology Co Ltd
Priority to CN202111349149.7A priority Critical patent/CN114092517A/zh
Publication of CN114092517A publication Critical patent/CN114092517A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供基于传统和深度学习算法的多目标跟踪方法,涉及计算机视觉技术领域。该基于传统和深度学习算法的多目标跟踪方法,包括利用目标检测器对视频帧中的目标进行检测,将检测的目标特征提取出来,其中表观特征可以避免遗失目标和对障碍目标处理的能力,运动特征主要是依靠流光、卡尔曼等算法进行目标轨迹预判,而后采用级联匹配以及IOU匹配,然后对目标分配ID。本发明,采用具有鲁棒性的光流算法,避免了卡尔曼滤波轨迹预测出现重大偏差,导致结果准确性下降的现象。通过训练后的yolov5检测模型,经过deepsort追踪模型进行实时性验证,发现跟踪目标准确性大大提高。

Description

基于传统和深度学习算法的多目标跟踪方法
技术领域
本发明涉及计算机视觉技术领域,具体为基于传统和深度学习算法的多目标跟踪方法。
背景技术
计算机视觉一直以来就备受关注,始终是研究的热点。多目标跟踪作为计算机视觉的一部分,也受到国内外学者的研究。通过研究顶会期刊论文,发现目前大多数学者都是卡尔曼滤波和匈牙利算法结合建立追踪模型,这种组合优点就是检测速度提上去了,但对目标跟丢现象却没有进行有效的改进。本发明就是通过增加一种传统算法-流光估计,有效避免扩展的卡尔曼滤波出现预测轨迹出现严重偏离的情况。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了基于传统和深度学习算法的多目标跟踪方法,通过添加改进的光流算法,防止卡尔曼滤波轨迹预测出现重大偏差,导致结果准确性下降的方案。
(二)技术方案
为实现以上目的,本发明通过以下技术方案予以实现:基于传统和深度学习算法的多目标跟踪方法,具体包括:
利用目标检测器对视频帧中的目标进行检测,将检测的目标特征提取出来,其中表观特征可以避免遗失目标和对障碍目标处理的能力,运动特征主要是依靠流光、卡尔曼等算法进行目标轨迹预判,而后采用级联匹配以及IOU匹配,然后对目标分配ID;
所述方法具体包括:
S1、采集数据,对其进行预处理;
S2、采用yolov5结构网络对上述数据集进行训练,得到最优权重模型;
S3、对追踪模型进行改进优化;
S4、将步骤2得到的模型与步骤3模型进行结合,生成多追踪模型;
S5、对追踪模型进行实时性验证。
优选的,所述步骤1中具体包括:
通过采集复杂路口视频,对其进行预处理作为数据集,并将数据集按照一定比例进行划分为训练、验证和测试。
优选的,所述步骤2中采用yolov5结构网络对上述数据集进行训练,得到最优权重模型。
优选的,所述步骤3中对deepsort进行改进,具体方法如下:
在轨迹预测方面增加改进的光流估计-区域匹配法,这类方法是将速度Vm定义为视差d=(dx,dy)T,使得两个时刻的图像区域的匹配最佳,为了得到子象素的精度,对得到的d周围的相似度用一曲面来拟合,求最大值,为解决大运动问题,采取由粗到细的策略;
考虑图像在象素M=(x,y)T,时刻t的灰度值I(x,y,t),令点m的速度为Vm=(Vx,Vy)T,假设m点的灰度保持不变,那么时间间隔很短时dt,其光流估计约束方程为:
I(x,y,t)=I(x+Vxdx,y+Vydy,t+dt);
进行等式变换:
Figure BDA0003355114490000021
其中
Figure BDA0003355114490000022
为m点的梯度;
区域匹配法:速度Vm定义为视差d=(dx,dy)T,另外deepsort中依然采用扩展的卡尔曼滤波,状态估计某时刻的状态(u,v,r,h,u1,v1,r1,h1),其中(u,v,r,h)为当前时刻变量,而(u1,v1,r1,h1)为预测变量,通过匈牙利算法来解决分配问题,把一群检测框和卡尔曼预测的框做分配,让卡尔曼预测的框找到和自己最匹配的检测框,达到追踪的效果。
优选的,所述步骤4中将步骤2得到的模型与改进后的deepsort模型进行结合,生成多追踪模型,具体流程为:
1)创建Tracks,将光流和卡尔曼滤波的运动变量初始化,通过光流与卡尔曼滤波预测其框,二者框进行计算IOU,若大于阈值,则进行5)步骤,否则进行2)步骤;
2)将该帧框和上一帧通过Tracks预测的框进行IOU匹配,再通过IOU匹配的结果计算其代价矩阵;
3)将2)中得到的所有的代价矩阵作为匈牙利算法的输入,得到线性的匹配的结果,得到的结果有三种,第一种是Tracks失配,直接将失配的Tracks删除;第二种是Detections失配,将这样的Detections初始化为一个新的Tracks;第三种是检测框和预测的框框配对成功,说明前一帧和后一帧追踪成功,将其对应的Detections通过卡尔曼滤波更新其对应的Tracks变量;
4)反复循环2)-3)步骤,直到出现确认态的Tracks或者视频帧结束;
5)将两种算法预测框IOU大于阈值以及确认态的Tracks的框与Detections进行级联匹配;
6)进行级联匹配后有三种可能的结果,第一种,Tracks匹配,这样的Tracks通过光流与卡尔曼滤波更新其对应的Tracks变量,第二、第三种是Detections和Tracks失配,这时将之前的不确认状态的Tracks和失配的Tracks一起和Unmatched Detections一一进行IOU匹配,再通过IOU匹配的结果计算其代价矩阵;
7)将6)中得到的所有的代价矩阵作为匈牙利算法的输入,得到线性的匹配的结果,得到的结果有三种,第一种是Tracks失配,我们直接将失配的Tracks删除;第二种是Detections失配,将这样的Detections初始化为一个新的Tracks;第三种是检测框和预测的框框配对成功,说明前一帧和后一帧追踪成功,将其对应的Detections通过卡尔曼滤波更新其对应的Tracks变量;
8)反复循环5)-7)步骤,直到视频结束。
(三)有益效果
本发明提供了基于传统和深度学习算法的多目标跟踪方法。具备以下有益效果:
本发明,采用具有鲁棒性的光流算法,避免了卡尔曼滤波轨迹预测出现重大偏差,导致结果准确性下降的现象。通过训练后的yolov5检测模型,经过deepsort追踪模型进行实时性验证,发现跟踪目标准确性大大提高。
附图说明
图1为本发明的整体流程图;
图2为本发明的追踪模型流程图;
图3为本发明的检测流程图。
具体实施方式
下面将结合本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例:
参考图1-3所示,本发明实施例提供基于传统和深度学习算法的多目标跟踪方法,具体包括:
利用目标检测器对视频帧中的目标进行检测,将检测的目标特征提取出来,其中表观特征可以避免遗失目标和对障碍目标处理的能力,运动特征主要是依靠流光、卡尔曼等算法进行目标轨迹预判,而后采用级联匹配以及IOU匹配,然后对目标分配ID;
该方法具体包括:
S1、采集数据,对其进行预处理;
具体包括:
通过采集复杂路口视频,对其进行预处理作为数据集,并将数据集按照一定比例进行划分为训练、验证和测试;
S2、采用yolov5结构网络对上述数据集进行训练,得到最优权重模型;
S3、对追踪模型进行改进优化;
具体方法如下:
在轨迹预测方面增加改进的光流估计-区域匹配法,这类方法是将速度Vm定义为视差d=(dx,dy)T,使得两个时刻的图像区域的匹配最佳,为了得到子象素的精度,对得到的d周围的相似度用一曲面来拟合,求最大值,为解决大运动问题,采取由粗到细(coarse-to-fine)的策略;
考虑图像在象素M=(x,y)T,时刻t的灰度值I(x,y,t),令点m的速度为Vm=(Vx,Vy)T,假设m点的灰度保持不变,那么时间间隔很短时dt,其光流估计约束方程为:
I(x,y,t)=I(x+Vxdx,y+Vydy,t+dt);
进行等式变换:
Figure BDA0003355114490000051
其中
Figure BDA0003355114490000052
为m点的梯度;
区域匹配法:速度Vm定义为视差d=(dx,dy)T,另外deepsort中依然采用扩展的卡尔曼滤波,状态估计某时刻的状态(u,v,r,h,u1,v1,r1,h1),其中(u,v,r,h)为当前时刻变量,而(u1,v1,r1,h1)为预测变量,通过匈牙利算法来解决分配问题,把一群检测框和卡尔曼预测的框做分配,让卡尔曼预测的框找到和自己最匹配的检测框,达到追踪的效果;
S4、将步骤2得到的模型与步骤3模型进行结合,生成多追踪模型;
具体流程为:
1)创建Tracks,将光流和卡尔曼滤波的运动变量初始化,通过光流与卡尔曼滤波预测其框,二者框进行计算IOU,若大于阈值,则进行5)步骤,否则进行2)步骤;
2)将该帧框和上一帧通过Tracks预测的框进行IOU匹配,再通过IOU匹配的结果计算其代价矩阵(cost matrix,其计算方式是1-IOU);
3)将2)中得到的所有的代价矩阵作为匈牙利算法的输入,得到线性的匹配的结果,得到的结果有三种,第一种是Tracks失配(Unmatched Tracks),直接将失配的Tracks(因为这个Tracks是不确定态了,如果是确定态的话则要连续达到一定的次数(默认30次)才可以删除)删除;第二种是Detections失配(Unmatched Detections),将这样的Detections初始化为一个新的Tracks(new Tracks);第三种是检测框和预测的框框配对成功,说明前一帧和后一帧追踪成功,将其对应的Detections通过卡尔曼滤波更新其对应的Tracks变量;
4)反复循环2)-3)步骤,直到出现确认态(confirmed)的Tracks或者视频帧结束;
5)将两种算法预测框IOU大于阈值以及确认态的Tracks的框与Detections进行级联匹配(之前每次只要Tracks匹配上都会保存Detections其的外观特征和运动信息,默认保存前100帧,利用外观特征和运动信息和Detections进行级联匹配,这么做是因为确认态(confirmed)的Tracks和Detections匹配的可能性更大);
6)进行级联匹配后有三种可能的结果,第一种,Tracks匹配,这样的Tracks通过光流与卡尔曼滤波更新其对应的Tracks变量,第二、第三种是Detections和Tracks失配,这时将之前的不确认状态的Tracks和失配的Tracks一起和Unmatched Detections一一进行IOU匹配,再通过IOU匹配的结果计算其代价矩阵(cost matrix,其计算方式是1-IOU);
7)将6)中得到的所有的代价矩阵作为匈牙利算法的输入,得到线性的匹配的结果,得到的结果有三种,第一种是Tracks失配(Unmatched Tracks),我们直接将失配的Tracks(因为这个Tracks是不确定态了,如果是确定态的话则要连续达到一定的次数(默认30次)才可以删除;第二种是Detections失配(Unmatched Detections),将这样的Detections初始化为一个新的Tracks(new Tracks);第三种是检测框和预测的框框配对成功,说明前一帧和后一帧追踪成功,将其对应的Detections通过卡尔曼滤波更新其对应的Tracks变量;
8)反复循环5)-7)步骤,直到视频结束;
S5、对追踪模型进行实时性验证。
本发明,采用具有鲁棒性的光流算法,避免了卡尔曼滤波轨迹预测出现重大偏差,导致结果准确性下降的现象。通过训练后的yolov5检测模型,经过deepsort追踪模型进行实时性验证,发现跟踪目标准确性大大提高。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (5)

1.基于传统和深度学习算法的多目标跟踪方法,其特征具体包括:
利用目标检测器对视频帧中的目标进行检测,将检测的目标特征提取出来,其中表观特征可以避免遗失目标和对障碍目标处理的能力,运动特征主要是依靠流光、卡尔曼等算法进行目标轨迹预判,而后采用级联匹配以及IOU匹配,最后对目标分配ID;
所述方法具体包括:
S1、采集数据,对其进行预处理;
S2、采用yolov5结构网络对上述数据集进行训练,得到最优权重模型;
S3、对追踪模型进行改进优化;
S4、将步骤2得到的模型与步骤3模型进行结合,生成多追踪模型;
S5、对追踪模型进行实时性验证。
2.根据权利要求1所述的基于传统和深度学习算法的多目标跟踪方法,其特征在于:所述步骤1中具体包括:
通过采集复杂路口视频,对其进行预处理作为数据集,并将数据集按照一定比例进行划分为训练、验证和测试。
3.根据权利要求1所述的基于传统和深度学习算法的多目标跟踪方法,其特征在于:所述步骤2中采用YOLOV5结构网络对上述数据集进行训练,得到最优权重模型。
4.根据权利要求1所述的基于传统和深度学习算法的多目标跟踪方法,其特征在于:所述步骤3中对deepsort进行改进,具体方法如下:
在轨迹预测方面增加改进的光流估计-区域匹配法,这类方法是将速度Vm定义为视差d=(dx,dy)T,使得两个时刻的图像区域的匹配最佳,为了得到子象素的精度,对得到的d周围的相似度用一曲面来拟合,求最大值,为解决大运动问题,采取由粗到细的策略;
考虑图像在象素M=(x,y)T,时刻t的灰度值I(x,y,t),令点m的速度为Vm=(Vx,Vy)T,假设m点的灰度保持不变,那么时间间隔很短时dt,其光流估计约束方程为:
I(x,y,t)=I(x+Vxdx,y+Vydy,t+dt);
进行等式变换:
Figure FDA0003355114480000021
其中
Figure FDA0003355114480000022
为m点的梯度;
区域匹配法:速度Vm定义为视差d=(dx,dy)T,另外deepsort中依然采用扩展的卡尔曼滤波,状态估计某时刻的状态(u,v,r,h,u1,v1,r1,h1),其中(u,v,r,h)为当前时刻变量,而(u1,v1,r1,h1)为预测变量,通过匈牙利算法来解决分配问题,把一群检测框和卡尔曼预测的框做分配,让卡尔曼预测的框找到和自己最匹配的检测框,达到追踪的效果。
5.根据权利要求1所述的基于传统和深度学习算法的多目标跟踪方法,其特征在于:所述步骤4中将步骤2得到的模型与改进后的deepsort模型进行结合,生成多追踪模型,具体流程为:
1)创建Tracks,将光流和卡尔曼滤波的运动变量初始化,通过光流与卡尔曼滤波预测其框,二者框进行计算IOU,若大于阈值,则进行5)步骤,否则进行2)步骤;
2)将该帧框和上一帧通过Tracks预测的框进行IOU匹配,再通过IOU匹配的结果计算其代价矩阵;
3)将2)中得到的所有的代价矩阵作为匈牙利算法的输入,得到线性的匹配的结果,得到的结果有三种,第一种是Tracks失配,直接将失配的Tracks删除;第二种是Detections失配,将这样的Detections初始化为一个新的Tracks;第三种是检测框和预测的框框配对成功,说明前一帧和后一帧追踪成功,将其对应的Detections通过卡尔曼滤波更新其对应的Tracks变量;
4)反复循环2)-3)步骤,直到出现确认态的Tracks或者视频帧结束;
5)将两种算法预测框IOU大于阈值以及确认态的Tracks的框与Detections进行级联匹配;
6)进行级联匹配后有三种可能的结果,第一种,Tracks匹配,这样的Tracks通过光流与卡尔曼滤波更新其对应的Tracks变量,第二、第三种是Detections和Tracks失配,这时将之前的不确认状态的Tracks和失配的Tracks一起和Unmatched Detections一一进行IOU匹配,再通过IOU匹配的结果计算其代价矩阵;
7)将6)中得到的所有的代价矩阵作为匈牙利算法的输入,得到线性的匹配的结果,得到的结果有三种,第一种是Tracks失配,我们直接将失配的Tracks删除;第二种是Detections失配,将这样的Detections初始化为一个新的Tracks;第三种是检测框和预测的框框配对成功,说明前一帧和后一帧追踪成功,将其对应的Detections通过卡尔曼滤波更新其对应的Tracks变量;
8)反复循环5)-7)步骤,直到视频结束。
CN202111349149.7A 2021-11-15 2021-11-15 基于传统和深度学习算法的多目标跟踪方法 Pending CN114092517A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111349149.7A CN114092517A (zh) 2021-11-15 2021-11-15 基于传统和深度学习算法的多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111349149.7A CN114092517A (zh) 2021-11-15 2021-11-15 基于传统和深度学习算法的多目标跟踪方法

Publications (1)

Publication Number Publication Date
CN114092517A true CN114092517A (zh) 2022-02-25

Family

ID=80300845

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111349149.7A Pending CN114092517A (zh) 2021-11-15 2021-11-15 基于传统和深度学习算法的多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN114092517A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114723786A (zh) * 2022-04-24 2022-07-08 东南大学 一种基于MF-DeepSORT的交通多目标跟踪方法及***
CN116630867A (zh) * 2023-07-25 2023-08-22 深圳市美侨医疗科技有限公司 一种基于Mask R-CNN的白带滴虫检测与跟踪方法
CN116993776A (zh) * 2023-06-30 2023-11-03 中信重工开诚智能装备有限公司 一种人员轨迹追踪方法
WO2024000558A1 (zh) * 2022-07-01 2024-01-04 京东方科技集团股份有限公司 目标跟踪方法、目标跟踪***和电子设备

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114723786A (zh) * 2022-04-24 2022-07-08 东南大学 一种基于MF-DeepSORT的交通多目标跟踪方法及***
WO2024000558A1 (zh) * 2022-07-01 2024-01-04 京东方科技集团股份有限公司 目标跟踪方法、目标跟踪***和电子设备
CN116993776A (zh) * 2023-06-30 2023-11-03 中信重工开诚智能装备有限公司 一种人员轨迹追踪方法
CN116993776B (zh) * 2023-06-30 2024-02-13 中信重工开诚智能装备有限公司 一种人员轨迹追踪方法
CN116630867A (zh) * 2023-07-25 2023-08-22 深圳市美侨医疗科技有限公司 一种基于Mask R-CNN的白带滴虫检测与跟踪方法
CN116630867B (zh) * 2023-07-25 2023-11-17 深圳市美侨医疗科技有限公司 一种基于Mask R-CNN的白带滴虫检测与跟踪方法

Similar Documents

Publication Publication Date Title
CN111126152B (zh) 一种基于视频的多目标行人检测与跟踪的方法
CN114092517A (zh) 基于传统和深度学习算法的多目标跟踪方法
CN111161315B (zh) 一种基于图神经网络的多目标跟踪方法和***
CN107507221A (zh) 结合帧差法和混合高斯模型的运动目标检测与跟踪方法
CN106338733B (zh) 基于蛙眼视觉特性的前视声呐目标跟踪方法
CN114972418A (zh) 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法
CN107833239B (zh) 一种基于加权模型约束的寻优匹配目标跟踪方法
CN103886325B (zh) 一种分块的循环矩阵视频跟踪方法
CN102903122A (zh) 基于特征光流与在线集成学习的视频目标跟踪方法
Huang et al. Motion detection with pyramid structure of background model for intelligent surveillance systems
CN107895379A (zh) 一种视频监控中前景提取的改进算法
CN100531405C (zh) 体育视频目标跟踪方法
CN104599291B (zh) 基于结构相似度和显著性分析的红外运动目标检测方法
CN113763427B (zh) 一种基于从粗到精遮挡处理的多目标跟踪方法
CN114913206A (zh) 一种基于多模态融合的多目标跟踪的方法和***
CN113792606A (zh) 基于多目标追踪的低成本自监督行人重识别模型构建方法
CN105608457A (zh) 直方图灰度矩阈值分割法
CN111462173B (zh) 基于孪生网络判别特征学习的视觉跟踪方法
CN107045726A (zh) 一种改良的基于时空上下文模型的目标跟踪方法
CN114694261A (zh) 一种基于多级监督图卷积的视频三维人体姿态估计方法及***
CN113724293A (zh) 一种基于视觉的智能网联公交场景下目标跟踪方法及***
Duan [Retracted] Deep Learning‐Based Multitarget Motion Shadow Rejection and Accurate Tracking for Sports Video
CN113129336A (zh) 一种端到端多车辆跟踪方法、***及计算机可读介质
CN116245913A (zh) 基于层次化上下文引导的多目标跟踪方法
CN115937260A (zh) 一种中心点偏移量和GIoU距离联合度量的多目标跟踪方法、***、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination