CN108447079A - 一种基于tld算法框架的目标跟踪方法 - Google Patents
一种基于tld算法框架的目标跟踪方法 Download PDFInfo
- Publication number
- CN108447079A CN108447079A CN201810202560.3A CN201810202560A CN108447079A CN 108447079 A CN108447079 A CN 108447079A CN 201810202560 A CN201810202560 A CN 201810202560A CN 108447079 A CN108447079 A CN 108447079A
- Authority
- CN
- China
- Prior art keywords
- tracker
- target
- detector
- tracking
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000008569 process Effects 0.000 claims abstract description 10
- 230000003287 optical effect Effects 0.000 claims abstract description 3
- 238000012549 training Methods 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 4
- 238000007689 inspection Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims 1
- 230000002596 correlated effect Effects 0.000 claims 1
- 235000013399 edible fruits Nutrition 0.000 claims 1
- 230000000977 initiatory effect Effects 0.000 claims 1
- 230000010354 integration Effects 0.000 abstract 1
- 239000011159 matrix material Substances 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000012216 screening Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于TLD算法框架的目标跟踪方法,步骤是:(1)用户在初始帧框选跟踪目标,算法进行初始化。(2)***模块中的局部***通过光流法和级联预测器预测在下一帧中的位置。(3)检测器通过滑动窗口扫描和级联分类器对当前帧的目标进行检测,并将分类结果送入学习模块,其中***和检测器二者是并行工作的。(4)整合器通过对***和检测器得到的目标结果进行判定整合,确定最终的目标位置。(5)学习模块通过结构性约束对***和检测器的结果进行修正,对目标样本更新。(6)判定视频帧是否结束,若没有结束则重复(2)‑(4)过程直至跟踪结束。此方法能提高对跟踪目标的鲁棒性,同时能保证跟踪过程中的实时性。
Description
技术领域
本发明属于目标跟踪领域,具体涉及一种基于TLD算法框架的目标跟踪方法。
背景技术
目标跟踪技术在计算机视觉领域作为一个热门的课题,研究价值和实用价值非常重要。所谓目标跟踪技术是指利用计算机及摄像设备模仿人类的视觉***,通过摄像设备获取图像序列进行分析处理,计算出所需目标的参数,例如运动目标的坐标位置信息、目标区域、目标尺寸等等,根据目标的不同特征信息,对图像中的兴趣目标进行关联,得出兴趣目标的完整运动轨迹,它在多个领域有着重要的研究和应用价值,如民用领域中的智能交通***,军事领域中的导航、制导等***。
TLD算法是一种能实现对单目标的长时间在线跟踪的算法,其将跟踪算法与检测算法相融合适用于目标消失再次出现在视场中重新定位以及目标被遮挡的情况,通过在线学习机制对目标模型及跟踪参数进行更新来解决目标在跟踪过程所发生的形变,使得跟踪效果更加稳定、鲁棒。
TLD算法主要由四部分构成:***、P-N学习、检测器、整合器。***预测连续帧间目标的位置。检测器利用级联分类器对多尺度滑动窗口图像进行分类,完成目标的检测,P-N学习通过结构性约束消除级联分类器的分类误差,并更新***和检测器的参数,整合器将***的预测信息和检测器的检测信息进行整合,得到目标的最终位置。
TLD算法较好的解决了被跟踪目标在跟踪过程中的形变及被遮挡问题,能实现对目标的长时间在线跟踪,但当前的TLD跟踪算法计算量大,运算成本高,跟踪实时性较差,鲁棒性不强。
因此,针对以上问题可以看出当前的TLD跟踪算法在计算量、鲁棒性等方面提高空间还很大,如何从多个角度有效地提升TLD跟踪算法将在一段时间内是研究的重点。
发明内容
为解决现有TLD跟踪算法中存在的上述问题,本发明提出了一种基于现有TLD算法框架的跟踪方法,该方法能够在复杂环境下完成对目标的长时间跟踪,其跟踪效果要比TLD跟踪算法更加理想,减少了计算量,增强了鲁棒性。
为实现上述目标,本发明采用以下方案:
(1)在第一帧图像中框选跟踪目标,初始化算法参数;
(2)所述***预测目标在当前帧中的位置信息;
(3)所述检测器与***并行工作,确定目标检测结果;
(4)所述目标跟踪区域输入到学习模块中学习,更新;
(5)所述整合器将***得到的预测位置信息与检测器得到的目标位置信息综合,输出结果;
上述步骤(1)的具体内容是:手动框选待跟踪目标,初始化跟踪算法的参数信息并写入;
上述步骤(2)的具体内容是:
(21)将局部***采用均匀网格的方式分布在目标区域的不同位置,采用中值流***跟踪图像的局部区域,得到两帧之间运动目标的相关性;
(22)根据各个局部***的时间上下文关系,利用当前帧的目标位置信息预测下一帧局部***的正确跟踪情况;
(23)根据各个局部***的空间上下文关系,即短时间内局部***的运动具有一致性来通过相邻的局部***判断跟踪是否成功;
(24)NCC预测器计算局部***之间的归一化交叉相关,将计算所得值排序得到中值,对局部***的NCC值与中值进行比较,判断跟踪结果;
上诉步骤(3)的具体内容是:
(31)滑动窗口多尺度搜索整个图像块,利用积分图计算每个滑动窗口内图像块的方差,若其方差大于跟踪目标方差的1/2则通过方差分类器;
(32)极限学习机分类器对经过方差分类器的图像块进行分类处理,输出结果为1的视为通过极限学习机分类器;
(33)最近邻分类器比较当前图像块和在线模板的相似程度,相似度大于0.65时,图像块为目标;
上述步骤(32)的极限学习机分类器工作过程为:先对初始帧标定的跟踪目标进行训练,训练过程为:随机提取20张与跟踪目标中心位置误差小于20%以及大于跟踪目标重叠率80%的图像块,并进行仿射变换生成400个正训练样本;在随机提取远离目标区域的400个图像块生成负训练样本,设置极限学习机的分类特征数为2,隐含层数50层,并将正负样本进行尺度归一化加入到极限学习机中进行训练;
上述步骤(4)中,学习模块对检测器的更新过程是:在P-N结构性约束中,分别定义P结构性约束和N结构性约束,用来将分类器分类错误的样本进行分类更正,从而形成新的训练样本,把新形成的训练样本加入到检测器中,更新检测器;对于P结构性约束形成的正样本集提高了检测器的鲁棒性,N结构性约束提高了检测器的分类能力;
上述步骤(5)中,整合器根据步骤(2)(3)的输出结果对是否存在目标以及目标位置的判断过程如下:若***和检测器的输出结果都预测到或者检测到了目标的位置信息,则判定当前帧中含有跟踪目标,且以检测器检测到的目标区域为跟踪目标的位置信息;若***预测到了位置信息而检测器没有检测到目标则判定当前帧中含有跟踪目标,且以***预测到的目标位置信息为跟踪目标的最终位置;若***没有预测到目标位置,而检测器检测到了目标的位置,则判定当前帧中含有目标,且以检测器检测到的目标位置信息作为目标在当前帧中的最终位置;若***和检测器都没有跟踪到或检测到目标,则当前帧中不含跟踪目标;
采用上述方案后,本发明具有以下改进:
(1)在TLD***中采用CellFoT法布置局部***,并采用时空上下文预测器与NCC预测器形成级联预测器,此方法不仅提高了跟踪精度和鲁棒性,且相较于原TLD算法中的FB(前向后向算法)提高了运算速度;
(2)在TLD检测器中采用极限学习机分类器与方差分类器,最近邻分类器形成级联分类器进行目标的检测,由于极限学习机具备良好的分类能力,且学习速度极快,提高了检测器的运算速度,提高了TLD跟踪算法的实时性能;
附图说明
图1是当前TLD跟踪算法的总体框图。
图2是本发明的一种基于TLD算法框架的目标跟踪方法的流程图。
图3是本发明中***的流程图。
图4是本发明中检测器的流程图。
具体实施方式
下面结合附图2,对本发明的技术方案进行详细说明。
本发明对现有TLD算法进行了两个方面的改进,以下是改进的详细说明。
一、对TLD算法中***的设计改进
原TLD跟踪算法中***采用前向后向跟踪算法及NCC预测器来对局部***进行筛选,对于FB(前向后向跟踪)法,光流法需要进行前后向两次工作,处理时间过长,本发明中将局部***均匀布置到图像块的中点,将其限制于各图像块活动,解决了原TLD算法可能出现的错误漂移问题,并采用时空上下文预测器和NCC预测器形成级联预测器筛选局部***。
对***的改进整体过程如下:首先对当前帧的图像块进行分割,分成等长等宽的各个单元,并将各局部***置于各单元的中心位置。在下一帧中,各局部***由LK光流法进行跟踪,通过级联预测器的局部***表示跟踪成功,记录对应局部***的中心位移值,若局部***超出其所初始限定的单元,则返回到对应单元的中心。对于级联预测器,由NCC预测器,空间上下文预测器和时间上下文预测器共同组成,其工作过程为:
1)NCC预测器筛选局部***:对每个局部***计算其前后两帧的NCC值,并将计算得到的NCC值进行排序,得到NCC值的中值;将各局部***的NCC值与中值进行比较,若其NCC值大于中值,则通过NCC预测器,反之,舍弃该局部***。NCC的计算公式如下:
其中n为像素点总数,f为上一帧某点的像素灰度值,t为当前帧对应点的像素灰度值,μ为像素平均值,σ为像素方差。
2)对于通过NCC预测器的局部***,进入到空间上下文预测器进行筛选。空间上下文预测器是是利用空间上下文信息假定在短时间内相邻区域的局部***之间具有运动一致性。即以当前局部***为核心,计算其相邻区域内的局部***个数,计算公式如下:
式中,Ni为与局部***i相邻的局部***个数,Z为归一化参数,x′i为下一帧中局部***i的对应点,T为与i点的相邻点的相似性矩阵,εN为对应的映射误差。当大于1时,局部***通过空间上下文预测器,跟踪成功,反之舍弃。
3)对于通过上述两个级联预测器的局部***进行时间上下文预测器的检验,时间上下文预测器是基于时间连续性,利用当前时刻的信息预测下一时刻局部***正确跟踪的概率,采用二值状态的马尔科夫链描述局部***的跟踪状态,t时刻,令st∈{0,1}表示局部***的跟踪状态,0代表跟踪失败,1代表跟踪成功。利用t时刻的状态和状态转换概率t+1时刻局部***的跟踪状态,状态转移矩阵即局部***i的状态转移概率,其转移矩阵如下:
其中,st为局部***i在t时刻的状态。
在t+1时刻,局部***i跟踪成功与跟踪失败的概率计算公式为:
更新状态转移概率公式为:
其中是局部***跟踪成功和失败的个数,是t时刻和t+1时刻都跟踪成功的局部***个数,是t时刻跟踪失败,t+1时刻跟踪成功的局部***个数。
三种预测器间采用级联关系,每种预测器对局部***是否跟踪成功进行判断,局部***只有符合3种预测器条件的才认为跟踪成功,否则,跟踪失败。
二、对TLD算法中检测器的设计改进
原TLD算法中检测器由多尺度滑动窗口搜索策略和级联分类器组成,其中级联分类器由方差分类器、随机蕨分类器和最近邻分类器三部分组成,本发明将原分类器中的随机蕨分类器换成极限学习机分类器,极限学习机分类器是一种深度学习分类器,其工作原理是基于对目标的样本训练来进行对候选区域目标的区分,不同于MIL,SVM等深度学习方法,极限学习机的隐藏层参数是随机产生的,并且不需要调整,其隐藏层的节点可以在训练样本获取前建立好。
在本发明中在初始化跟踪目标后,对极限学习机进行初始化操作,也就是对极限学习机进行样本训练,本发明中样本训练的基本过程如下:
将初始帧框选的目标通过循环矩阵生成20张的目标初始样本,对每个样本进行仿射变换生成400个最终训练样本,此样本为目标样本即样本;在远离目标区域随机提取200个背景图像作为非目标训练样本,即负样本。设定分类类别数为2,即只有目标和背景两种类型的样本,生成训练数据;添加神经元个数为30,进行训练。
本发明中的检测器工作过程如下:
1)初始化滑动窗口大小,滑动窗口进行全局扫描,将每一个扫描区域的图像块输入检测器进行检测;
2)方差分类器通过对每个滑动窗口的图像块方差计算来筛选目标,其判定方法为:方差大于跟踪目标方差的1/2就通过,反之图像块不含目标,包含目标的图像块进入极限学习机分类器;
极限学习机分类器的工作步骤如下:
步骤1:随机分配隐藏节点参数;
隐藏节点输出函数为:h(x)=[G(x,a1,b1),...,G(x,an,bn)]
其中G()为隐藏层点的激活函数,ai是输入权值矩阵,bi是第i个隐藏层的基权值,n为隐藏层点的个数
步骤2:计算隐藏层输出矩阵H;
步骤3:得到输出权重矩阵:β
β=H+T
其中T=[t1,t2,...,tn]T,H+是广义逆矩阵
对于HTH是非奇异矩阵时
其中1/λ为使极限学习机更加稳定的一个正参数,则其输出响应函数为:
对于输出函数大于阈值λ的则通过极限学习机分类器,反之失败,通过极限学习机分类器的图像块进入最近邻分类器;
3)将通过极限学习机分类器的图像块输入到最近邻分类器,比较当前图像块和在线模板库之间的相似程度。相似程度大于0.65的为目标,反之为背景。
Claims (4)
1.一种基于TLD算法框架的目标跟踪方法,其特征在于步骤如下:
步骤1:跟踪目标选择:从当前视频帧中框选待跟踪目标或者导入待跟踪目标结构初始参数进行跟踪,视频流可分从摄像头读入和视频文件读入;
步骤2:提供一***、一学习模块、一检测器以及一整合器,所述***以及检测器可同时独立运行,用以对跟踪目标进行跟踪及检测,所述学习模块通过结构性约束改进***和检测器,所述整合器将***和检测器所得到的目标位置信息进行整合,用以输出目标的最终位置;
步骤3:算法初始化:将提前设置好的初始化参数进行读取,用以对***和检测器进行初始化;
步骤4:下一帧图像输入:输入下一帧图像以进行对视频的逐帧处理;
步骤5:***和检测器工作:***中的局部***对上一帧中的目标进行跟踪,并向学习器反馈跟踪结果;检测器对上一帧中的目标进行多尺度检测,并向学习器反馈检测结果;
步骤6:学习模块工作:针对步骤5中***和检测器反馈的相关结果,学习模块通过结构性约束消除检测器的分类结果,并更新***和检测器的相关参数;
步骤7:整合器工作:整合器将***预测的信息和检测器的检测信息进行整合,将置信度最高的结果作为目标在当前帧的最终位置,同时将目标最终位置框选显示;
步骤8:判断视频帧是否结束:若视频帧未结束则返回步骤4,若结束,则完成目标跟踪过程;若为摄像头输入则手动控制跟踪结束。
2.根据权利要求1所述的一种基于TLD算法框架的目标跟踪方法,其特征在于:所述步骤5中的***包括多个局部***,采用中值流***跟踪图像的各个局部区域,得到两帧之间运动目标的相关性,根据局部***的时空上下文关系添加时空上下文预测器,与NCC(归一化交叉相关)***形成级联预测器,具体步骤如下:
步骤51-1:将当前帧图像进行网格化,并选择各网格中央的点作为特征点均匀布置局部***;
步骤51-2:采用Lucas-Kanade光流法预测下一时刻各个局部***位置,达到迭代次数20次或者满足阈值条件时终止;
步骤51-3:NCC预测器利用跟踪所得到的图像区域与之前被跟踪区域之间的相似度,判断局部***是否跟踪成功;
步骤51-4:空间上下文预测器利用空间上下文信息短时间内相邻局部***之间具有运动一致性,判断局部***是否跟踪成功;
步骤51-5:时间上下文预测器利用时间上下文信息构建马尔科夫链模型,根据当前时刻的信息预测下一时刻局部***正确跟踪的概率,判断局部***是否跟踪成功;
步骤51-6:局部***若都通过所述步骤51-4,步骤51-5,步骤51-6三者的级联预测器,则目标跟踪成功;若未通过任一预测器则局部***跟踪失败。
3.根据权利要求1所述的一种基于TLD算法框架的目标跟踪方法,其特征在于:所述步骤5中的检测器有滑动窗口和级联分类器两部分,级联分类器包括方差分类器、极限学习机分类器和最近邻分类器,具体步骤如下:
步骤52-1:滑动窗口按照当前窗口宽度的10%在水平方向移动,当前窗口高度的10%在垂直方向移动,进行全局扫描;
步骤52-2:方差分类器利用积分图计算每个滑动窗口内的图像块方差,当其大于跟踪目标方差的0.6倍时,通过方差分类器,即检测到了目标;
步骤52-3:极限学习机分类器在所述步骤3中完成初始化训练,产生正负训练样本。将所述步骤52-1检测到目标的图像块进行归一化处理,经过极限学习机对图像块进行分类,分类结果为正样本的即检测到了目标;
步骤52-4:最近邻分类器比较当前图像块和在线模板库的相似程度,当相似程度大于0.65时,目标被检测到。
4.根据权利要求1所述的一种基于TLD算法框架的目标跟踪方法,其特征在于:所述步骤7中的整合器对前述步骤的综合分析的具体过程为:若***和检测器均没有目标跟踪结果输出,则目标丢失,跟踪失败;若***和检测器都有结果输出,则先判断***和检测器的输出结果区域与初始目标重叠率是否大于0.65,若大于0.65则对重叠的目标区域聚类并输出最终结果;若不大于0.65,则将候选区域与目标模型进行匹配,若匹配置信度大于0.65,则将置信度最大的区域作为最终的目标区域;若***和检测器二者只有一个有结果输出,则将输出结果的目标区域作为最终的目标区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810202560.3A CN108447079A (zh) | 2018-03-12 | 2018-03-12 | 一种基于tld算法框架的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810202560.3A CN108447079A (zh) | 2018-03-12 | 2018-03-12 | 一种基于tld算法框架的目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108447079A true CN108447079A (zh) | 2018-08-24 |
Family
ID=63194632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810202560.3A Pending CN108447079A (zh) | 2018-03-12 | 2018-03-12 | 一种基于tld算法框架的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108447079A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109636834A (zh) * | 2018-11-22 | 2019-04-16 | 北京工业大学 | 基于tld改进算法的视频车辆目标跟踪算法 |
CN109903311A (zh) * | 2019-01-24 | 2019-06-18 | 中国矿业大学 | 一种改进tld的矿井下视频目标跟踪方法 |
CN110111370A (zh) * | 2019-05-15 | 2019-08-09 | 重庆大学 | 一种基于tld和深度多尺度时空特征的视觉物体跟踪方法 |
CN110222585A (zh) * | 2019-05-15 | 2019-09-10 | 华中科技大学 | 一种基于级联检测器的运动目标跟踪方法 |
CN111079775A (zh) * | 2018-10-18 | 2020-04-28 | 中国科学院长春光学精密机械与物理研究所 | 一种联合区域约束学习的实时跟踪方法 |
CN111223125A (zh) * | 2020-01-06 | 2020-06-02 | 江苏大学 | 一种基于Python环境下的目标运动视频跟踪方法 |
CN112598698A (zh) * | 2021-03-08 | 2021-04-02 | 南京爱奇艺智能科技有限公司 | 长时间单目标跟踪方法及*** |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102881024A (zh) * | 2012-08-24 | 2013-01-16 | 南京航空航天大学 | 一种基于tld的视频目标跟踪方法 |
CN103699908A (zh) * | 2014-01-14 | 2014-04-02 | 上海交通大学 | 基于联合推理的视频多目标跟踪方法 |
US20140169663A1 (en) * | 2012-12-19 | 2014-06-19 | Futurewei Technologies, Inc. | System and Method for Video Detection and Tracking |
CN104992453A (zh) * | 2015-07-14 | 2015-10-21 | 国家电网公司 | 基于极限学习机的复杂背景下目标跟踪方法 |
CN106204649A (zh) * | 2016-07-05 | 2016-12-07 | 西安电子科技大学 | 一种基于tld算法的目标跟踪方法 |
US20170091950A1 (en) * | 2015-09-30 | 2017-03-30 | Fotonation Limited | Method and system for tracking an object |
CN107248174A (zh) * | 2017-05-15 | 2017-10-13 | 西安电子科技大学 | 一种基于tld算法的目标跟踪方法 |
WO2017185503A1 (zh) * | 2016-04-29 | 2017-11-02 | 高鹏 | 目标跟踪方法和装置 |
-
2018
- 2018-03-12 CN CN201810202560.3A patent/CN108447079A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102881024A (zh) * | 2012-08-24 | 2013-01-16 | 南京航空航天大学 | 一种基于tld的视频目标跟踪方法 |
US20140169663A1 (en) * | 2012-12-19 | 2014-06-19 | Futurewei Technologies, Inc. | System and Method for Video Detection and Tracking |
CN103699908A (zh) * | 2014-01-14 | 2014-04-02 | 上海交通大学 | 基于联合推理的视频多目标跟踪方法 |
CN104992453A (zh) * | 2015-07-14 | 2015-10-21 | 国家电网公司 | 基于极限学习机的复杂背景下目标跟踪方法 |
US20170091950A1 (en) * | 2015-09-30 | 2017-03-30 | Fotonation Limited | Method and system for tracking an object |
WO2017185503A1 (zh) * | 2016-04-29 | 2017-11-02 | 高鹏 | 目标跟踪方法和装置 |
CN106204649A (zh) * | 2016-07-05 | 2016-12-07 | 西安电子科技大学 | 一种基于tld算法的目标跟踪方法 |
CN107248174A (zh) * | 2017-05-15 | 2017-10-13 | 西安电子科技大学 | 一种基于tld算法的目标跟踪方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111079775A (zh) * | 2018-10-18 | 2020-04-28 | 中国科学院长春光学精密机械与物理研究所 | 一种联合区域约束学习的实时跟踪方法 |
CN111079775B (zh) * | 2018-10-18 | 2022-09-20 | 中国科学院长春光学精密机械与物理研究所 | 一种联合区域约束学习的实时跟踪方法 |
CN109636834A (zh) * | 2018-11-22 | 2019-04-16 | 北京工业大学 | 基于tld改进算法的视频车辆目标跟踪算法 |
CN109903311A (zh) * | 2019-01-24 | 2019-06-18 | 中国矿业大学 | 一种改进tld的矿井下视频目标跟踪方法 |
CN110111370A (zh) * | 2019-05-15 | 2019-08-09 | 重庆大学 | 一种基于tld和深度多尺度时空特征的视觉物体跟踪方法 |
CN110222585A (zh) * | 2019-05-15 | 2019-09-10 | 华中科技大学 | 一种基于级联检测器的运动目标跟踪方法 |
CN110222585B (zh) * | 2019-05-15 | 2021-07-27 | 华中科技大学 | 一种基于级联检测器的运动目标跟踪方法 |
CN110111370B (zh) * | 2019-05-15 | 2023-05-30 | 重庆大学 | 一种基于tld和深度多尺度时空特征的视觉物体跟踪方法 |
CN111223125A (zh) * | 2020-01-06 | 2020-06-02 | 江苏大学 | 一种基于Python环境下的目标运动视频跟踪方法 |
CN112598698A (zh) * | 2021-03-08 | 2021-04-02 | 南京爱奇艺智能科技有限公司 | 长时间单目标跟踪方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108447079A (zh) | 一种基于tld算法框架的目标跟踪方法 | |
CN109800689B (zh) | 一种基于时空特征融合学习的目标跟踪方法 | |
US10242266B2 (en) | Method and system for detecting actions in videos | |
CN113963445B (zh) | 一种基于姿态估计的行人摔倒动作识别方法及设备 | |
CN104915970B (zh) | 一种基于轨迹关联的多目标跟踪方法 | |
CN110084831A (zh) | 基于YOLOv3多伯努利视频多目标检测跟踪方法 | |
CN111259779B (zh) | 一种基于中心点轨迹预测的视频动作检测方法 | |
CN104680559B (zh) | 基于运动行为模式的多视角室内行人跟踪方法 | |
CN110427807A (zh) | 一种时序事件动作检测方法 | |
CN110033473A (zh) | 基于模板匹配和深度分类网络的运动目标跟踪方法 | |
CN109448025A (zh) | 视频中短道速滑运动员的自动跟踪与轨迹建模方法 | |
CN109886083A (zh) | 一种基于深度学习的实时场景小脸检测方法 | |
CN112836640A (zh) | 一种单摄像头多目标行人跟踪方法 | |
CN111598928B (zh) | 一种基于具有语义评估和区域建议的突变运动目标跟踪方法 | |
CN105913028A (zh) | 一种基于face++平台的人脸跟踪方法及其装置 | |
CN108460790A (zh) | 一种基于一致性预测器模型的视觉跟踪方法 | |
CN113313123B (zh) | 一种基于语义推断的扫视路径预测方法 | |
CN110298865A (zh) | 基于阈值分离聚类器的天基星空背景弱小点目标跟踪方法 | |
CN107491749A (zh) | 一种人群场景中全局和局部异常行为检测方法 | |
CN110097091A (zh) | 训练与推理数据分布不一致条件下的图像细粒度识别方法 | |
CN110197121A (zh) | 基于DirectShow的运动目标检测方法、运动目标检测模块及监控*** | |
CN114283355A (zh) | 一种基于小样本学习的多目标濒危动物跟踪方法 | |
CN109887004A (zh) | 一种基于tld算法的无人船海域目标跟踪方法 | |
Fan et al. | Video anomaly detection using CycleGan based on skeleton features | |
CN108320301A (zh) | 一种基于跟踪学习检测的目标跟踪优化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
DD01 | Delivery of document by public notice |
Addressee: Li Yabo Document name: Deemed withdrawal notice |
|
DD01 | Delivery of document by public notice | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180824 |