CN110827319B - 一种基于局部敏感直方图改进的Staple目标跟踪方法 - Google Patents
一种基于局部敏感直方图改进的Staple目标跟踪方法 Download PDFInfo
- Publication number
- CN110827319B CN110827319B CN201810917388.XA CN201810917388A CN110827319B CN 110827319 B CN110827319 B CN 110827319B CN 201810917388 A CN201810917388 A CN 201810917388A CN 110827319 B CN110827319 B CN 110827319B
- Authority
- CN
- China
- Prior art keywords
- histogram
- response
- target
- tracking
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000035945 sensitivity Effects 0.000 claims abstract description 28
- 230000004044 response Effects 0.000 claims description 70
- 230000006872 improvement Effects 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 6
- 125000004122 cyclic group Chemical group 0.000 claims description 5
- 230000001105 regulatory effect Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 10
- 239000000284 extract Substances 0.000 abstract description 2
- 238000012360 testing method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241000208140 Acer Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种基于局部敏感直方图改进的Staple目标跟踪方法。该基于局部敏感直方图改进的Staple目标跟踪方法首先计算灰度图像的3通道局部敏感直方图,再通过两个岭回归方程分别求解并提取特征训练两个跟踪模型,其中颜色分类器使用局部敏感直方图的每个通道上提取的直方图训练,最后融合两个跟踪模型的分类结果获得目标在当前帧的位置,从而有效地解决了现有Staple目标跟踪方法在单通道的灰度图像及红外图像上跟踪效果不理想的问题。
Description
技术领域
本发明涉及计算机图像处理的技术领域,具体涉及一种基于局部敏感直方图改进的Staple目标跟踪方法。
背景技术
目标跟踪是计算机视觉领域中一个基础的研究问题,目标跟踪在机器人、视频监控、无人机等领域内广泛应用。目标跟踪主要是根据目标在视频中第一帧的位置,估计目标在后续视频序列帧中出现的轨迹。
自从2010年Blume等人首次将相关滤波(CF)引入目标跟踪领域中,其借助于快速离散傅里叶变换,通过将时域上的卷积转换为频域上的点积的处理,极大提高了目标跟踪效率,满足跟踪任务实时性的要求。近期出现了很多相关滤波***的改进型,比如相关滤波***(Kernelized Correlation Filters,KCF,2015)、判决尺度空间跟踪(Discriminative Scale Space Tracking,DSST,2015)和模板和逐像素融合学习器(Sumof Template And Pixel-wise LEaners,简称STAPLE或者Staple,2016年由牛津大学的L.Bertinetto等人提出),如上相关滤波***都使用了图像梯度特征。特别是Staple,其针对CF类算法中图像梯度特征(比如HOG)局部鲁棒性较好,但对全局的形变效果不好,而颜色信息统计基于全局,提出了融合两种特征,采用融合代价函数来实现物体的跟踪。Staple目标跟踪方法和其他基于判决模型的方法一样,主要是两个模块:跟踪检测模块和模型学习模块。在跟踪检测模块中,Staple目标跟踪方法结合梯度滤波输出以及逐像素的目标置信图来检测新一帧中的目标物体作为跟踪结果。对模型学习模块,其通过岭回归方法,通过逐帧最小化两个代价函数来学习梯度特征参数H以及颜色特征参数B。Staple目标跟踪方法既可以较好的适应形变,同时还可以在普通家用电脑上达到每秒80帧的运行速度。但Staple目标跟踪方法存在针对仅有一个通道的灰度图像跟踪效果较差的缺点。
因此,针对现有的Staple目标跟踪方法存在着跟踪单通道灰度图像效果较差的问题,需要提供一种针对单通道灰度图像也能有很好地跟踪效果的Staple目标跟踪方法。
发明内容
针对现有的Staple目标跟踪方法存在着跟踪单通道灰度图像效果较差的问题,本发明实施例提出一种基于局部敏感直方图改进的Staple目标跟踪方法。本发明实施例所提供的基于局部敏感直方图改进的Staple目标跟踪方法通过引入局部敏感直方图的方式,有效地解决了现有Staple目标跟踪方法存在着跟踪单通道灰度图像效果较差的问题。
该基于局部敏感直方图改进的Staple目标跟踪方法的具体方案如下:一种基于局部敏感直方图改进的Staple目标跟踪方法,包括步骤S1:根据初始灰度图像帧,获取目标初始信息;步骤S2:从所述灰度图像帧中提取三维的局部敏感直方图;步骤S3:从所述三维的局部敏感直方图的前景区域与背景区域计算初始前景颜色直方图与初始背景颜色直方图;步骤S4:初始化相关滤波器,提取梯度直方图特征并且训练所述相关滤波器;步骤S5:初始化尺度滤波器,并且提取不同尺度图像块训练所述尺度滤波器;步骤S6:采用颜色分类器计算每个像素对应的分数,获得每个像素的颜色概率,并应用积分图获得颜色分类器的响应图;步骤S7:在相关区域内检测目标,获得相关滤波的响应图,并将所述相关滤波的响应图的大小调整至与颜色分类器的响应图的大小一致;步骤S8:融合所述颜色分类器的响应图和所述相关滤波的响应图,获得最终响应图,在所述最终响应图中响应最大值处为所述目标的新位置;步骤S9:在目标的新位置处,提取不同尺寸图像块用于检测尺度,选取响应最大的尺度作为新的尺度;步骤S10:更新目标大小,更新前景区域和背景区域,更新尺度滤波器,更新颜色分类器和更新相关滤波器;步骤S11:获得下一帧图像,重复步骤S5、S6、S7、S8、S9、S10,直至视频结束。
优选地,所述目标初始信息包括目标位置、目标的长度、目标的宽度。
优选地,步骤S2包括:步骤S21:将灰度图像帧中不同像素点根据其灰度值投影为一个3通道的图像,具体计算如公式1所示:
其中,I表示一副图像,W为像素的总数,Iq为像素q上的灰度值,b为通道数,N为3;
步骤S22:采用积分直方图将公式1进行简化计算,表达式如公式2所示,
步骤S23:根据公式3计算局部敏感直方图,
优选地,步骤S3包括:步骤S31:将局部敏感直方图的每个通道均分成若干个小区间,定义每个小区间为直方图的一个直方柱;步骤S32:统计落在每一个直方柱中的像素点的个数。
优选地,所述直方柱的宽度设置为8。
优选地,训练所述相关滤波器的具体公式如下式所示:
其中,f为d维特征组成的样本,h为d维的相关滤波器,*表示循环相关,g表示相关滤波器需要的输出,λ是正则化系数。
优选地,采用加权平均法融合所述颜色分类器的响应图和所述相关滤波的响应图,具体计算表达式如下所示:
response=(1-α)response_cf+α·response_p,
其中,response_cf为相关滤波器的响应图,response_p为颜色分类器的响应图,α为常数系数,response为最终响应图。
优选地,相关滤波器的响应图可通过对下式进行逆傅里叶变化获得:
从以上技术方案可以看出,本发明实施例具有以下优点:
本发明实施例所提供的基于局部敏感直方图改进的Staple目标跟踪方法首先计算灰度图像的3通道局部敏感直方图,再通过两个岭回归方程分别求解并提取特征训练两个跟踪模型,其中颜色分类器使用局部敏感直方图的每个通道上提取的直方图训练,最后融合两个跟踪模型的分类结果获得目标在当前帧的位置,从而有效地解决了现有Staple目标跟踪方法在单通道的灰度图像上跟踪效果不理想的问题。
附图说明
图1为本发明实施例提供的基于局部敏感直方图改进的Staple目标跟踪方法的流程示意图;
图2为图1所示实施例的一种简化流程示意图;
图3(a)和图3(b)为本发明实施例所提出的基于局部敏感直方图改进的Staple目标跟踪方法的跟踪性能在OTB2013测试集上的结果示意图;
图4(a)和图4(b)为本发明实施例所提出的基于局部敏感直方图改进的Staple目标跟踪方法(Our,点划线)与Staple(虚线)、KCF(实线)在不同图像的不同序列中的比较示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
如图1所示,本发明实施例基于融合的目标跟踪方法包括十一个步骤。具体如下所示:
步骤S1:根据初始图像帧,获取目标初始信息。在该实施例中,目标初始信息包括目标位置、目标长度和目标宽度。进一步地,在步骤S1中,还包括一些初始化参数、初始化区域的常规初始化操作。
步骤S2:从所述灰度图像帧中提取三维的局部敏感直方图。步骤S2具体可以包括三个步骤:
步骤S21:将灰度图像帧中不同像素点根据其灰度值投影为一个3通道的图像,具体计算如公式1所示:
其中,I表示一副图像,W为像素的总数,Iq为像素q上的灰度值,b为通道数,N为3。
步骤S22:采用积分直方图将公式1进行简化计算,从而有效地降低计算的复杂性,具体的表达式如公式2所示,
根据He等人提出的观点:由于离目标中心较远的像素大概率为背景,因此,离目标中心较远的像素其权重应该小于较近的,获得局部敏感直方图的计算公式如下:
步骤S23:根据公式3计算局部敏感直方图,
局部敏感直方图对背景斑杂下的目标具有良好的处理效果。
步骤S3:从所述三维的局部敏感直方图的前景区域与背景区域计算初始前景颜色直方图fhist与初始背景颜色直方图bhist。步骤S3具体包括两个步骤:步骤S31:将局部敏感直方图的每个通道均分成若干个小区间,定义每个小区间为直方图的一个直方柱;步骤S32:统计落在每一个直方柱中的像素点的个数。直方柱的宽度可根据具体的需求进行选择。在一优选实施例中,将直方柱的宽度设置为8。
步骤S4:初始化相关滤波器,提取梯度直方图特征并且训练所述相关滤波器。初始化相关滤波器,根据目标中心提取样本模板x,对其进行循环移位构造大量的训练样本xi。提取梯度直方图特征(HOG特征)训练生成相关滤波器。
相关滤波器可以由一个岭回归方程求解获得。岭回归方程具体表达式如公式4所示:
对于一个由d维特征组成的样本f,可以通过最小化公式4来训练一个d维的相关滤波器h,具体公式图公式5所示:
其中,*表示循环相关;g表示相关滤波器需要的输出,g是一个高斯函数;λ是正则化系数,用于防止过拟合。
步骤S5:初始化尺度滤波器,并且提取不同尺度图像块训练所述尺度滤波器。在该实施例中,通过上一帧确定的目标位置为中心,提取一系列不同尺度的图像块特征,构建特征金字塔。以H×W为目标尺寸,则在目标位置附近提取总数为S个大小为anH×anW的图像块,a表示尺度系数,具体的表达式如公式10所示:
其中,S代表总数。在该实施例中,S取为33。
步骤S6:采用颜色分类器计算每个像素对应的分数,获得每个像素的颜色概率,并应用积分图获得颜色分类器的响应图。
颜色分类器的响应也是通过求解公式4所示的岭回归方程获得。
令W为颜色分类器对应的区域,则可将公式4改写成公式6。
lhist(x,p,β)=∑(q,y)∈W(βT[∑u∈HψT(x,q)[u]]-y)2 (公式6)
应用线性回归简化计算,使背景区域O的回归值为0,前景区域B的回归值为1,将公式6改写成公式7。
将损失函数分解为直方图中每一个直方柱之和,优选值直方柱之和M=32。公式7中的βTψ[u]可以通过构造查找表k快速获得,k将像素值u映射为所属直方柱的序号,即用颜色直方图进行反向投影。再令βTψ[u]=βk(u),可以获得公式8:
在公式8中,Nj(A)={xi∈A:k(u)=j}为区域A中第j个直方柱中元素个数的总和。进一步,求解得到岭回归问题的解如公式9所示:
步骤S7:在相关区域内检测目标,获得相关滤波的响应图,并将所述相关滤波的响应图的大小调整至与颜色分类器的响应图的大小一致。在该实施例中,相关滤波的响应图求解过程为:
通过最小化公式4并转换到频域计算,可以得到滤波器hl在频域的表达式,具体如公式10所示:
步骤S8:融合所述颜色分类器的响应图和所述相关滤波的响应图,获得最终响应图,在所述最终响应图中响应最大值处为所述目标的新位置。在该实施例中,出于结合两个跟踪模型的想法以达成优势互补的思想,通过常数系数α加权平均集成相关滤波器的响应response_cf与颜色分类器的响应response_p。具体融合的计算表达式如公式10所示:
response=(1-α)response_cf+α·response_p (公式10)
其中,response_cf为相关滤波器的响应图,response_p为颜色分类器的响应图,α为常数系数,response为最终响应图。
步骤S9:在目标的新位置处,提取不同尺寸图像块用于检测尺度,选取响应最大的尺度作为新的尺度。在该实施例中,在新的位置处,提取33个不同的尺度的图像块,并将图像块调整到同一大小,循环移位产生候选尺度图像。调用尺度相关滤波器对候选尺度图像进行检测,选取响应最大的尺度为新的尺度。
步骤S10:更新目标大小,更新前景区域和背景区域,更新尺度滤波器,更新颜色分类器和更新相关滤波器。具体更新尺度滤波器、更新颜色分类器及更新相关滤波器的公式可以借鉴现有的更新公式进行更新。
步骤S11:获得下一帧图像,重复步骤S5、S6、S7、S8、S9、S10,直至视频结束。
在该实施例中,有关相关滤波器滤波、尺度滤波器、颜色分类器的响应等操作步骤可以进行顺序互换或者并列执行,因为这些步骤执行并未有结果依赖关系。
如图2所示,为图1所示实施例的一种简化流程示意图。开始跟踪后,首先进行初始化,再分别训练尺度滤波器和相关滤波器,通过提取局部敏感直方图后再训练颜色分类器,在利用相关滤波器和颜色分类器分别检测目标获得响应,再将相关滤波器的响应和颜色分类器的响应进行融合获得新位置,再检测尺度变化后,再更新相关的条件或滤波器,判断是否需要继续检测目标,若需要则重复上述步骤,直至视频结束。
在该实施例中,首先计算灰度图像的3通道局部敏感直方图,再通过两个岭回归方程分别求解并提取特征训练两个跟踪模型,其中颜色分类器使用局部敏感直方图的每个通道上提取的直方图训练,最后融合两个跟踪模型的分类结果获得目标在当前帧的位置,从而有效地解决了现有Staple目标跟踪方法在单通道的灰度图像上跟踪效果不理想的问题。
如图3所示,本发明实施例所提出的基于局部敏感直方图改进的Staple目标跟踪方法的跟踪性能在OTB2013测试集上的结果。OTB2013测试集是近几年中提出的目标跟踪测试集,其评价标准有精度(precision)和成功率(success rate)。其中,图3(a)为精度方面的性能结果,图3(b)为成功率方面的性能结果。针对OTB2013测试集中,灰度序列较少的情况,本发明中将所有彩色序列转化为灰度序列。其中,OPE意味着一次通过实验,precision是中心误差在20个像素内的帧数与总帧数之比;Success rate是方法给出success曲线下的面积,success曲线的评价标准是由人工标注的跟踪框与方法的跟踪框间的交叠比。如图3所示,本发明实施例所提出的跟踪方法(Our曲线)在成功率和精度上都优于现有的目标跟踪方法。
如图4所示,本发明实施例所提出的基于局部敏感直方图改进的Staple目标跟踪方法(Our,点划线)与Staple(虚线)、KCF(实线)在不同图像的不同的序列中的比较示意图。其中,图4(a)和图4(b)分别代表不同图像的不同序列。从图4(a)和图4(b)比较中发现,本发明提出的目标跟踪方法(Our),在目标遭遇遮挡或者运动模糊等情况,目标丢失后算法可以有效寻回目标以实现长期跟踪。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (8)
1.一种基于局部敏感直方图改进的Staple目标跟踪方法,其特征在于,所述方法包括步骤:
步骤S1:根据初始灰度图像帧,获取目标初始信息;
步骤S2:从所述灰度图像帧中提取三维的局部敏感直方图;
步骤S3:从所述三维的局部敏感直方图的前景区域与背景区域计算初始前景颜色直方图与初始背景颜色直方图;
步骤S4:初始化相关滤波器,提取梯度直方图特征并且训练所述相关滤波器;
步骤S5:初始化尺度滤波器,并且提取不同尺度图像块训练所述尺度滤波器;
步骤S6:采用颜色分类器计算每个像素对应的分数,获得每个像素的颜色概率,并应用积分图获得颜色分类器的响应图;
步骤S7:在相关区域内检测目标,获得相关滤波的响应图,并将所述相关滤波的响应图的大小调整至与颜色分类器的响应图的大小一致;
步骤S8:融合所述颜色分类器的响应图和所述相关滤波的响应图,获得最终响应图,在所述最终响应图中响应最大值处为所述目标的新位置;
步骤S9:在目标的新位置处,提取不同尺寸图像块用于检测尺度,选取响应最大的尺度作为新的尺度;
步骤S10:更新目标大小,更新前景区域和背景区域,更新尺度滤波器,更新颜色分类器和更新相关滤波器;
步骤S11:获得下一帧图像,重复步骤S6、S7、S8、S9、S10,直至视频结束。
2.根据权利要求1所述的一种基于局部敏感直方图改进的Staple目标跟踪方法,其特征在于,所述目标初始信息包括目标位置、目标的长度、目标的宽度。
4.根据权利要求1所述的一种基于局部敏感直方图改进的Staple目标跟踪方法,其特征在于,步骤S3包括:
步骤S31:将局部敏感直方图的每个通道均分成若干个小区间,定义每个小区间为直方图的一个直方柱;
步骤S32:统计落在每一个直方柱中的像素点的个数。
5.根据权利要求4所述的一种基于局部敏感直方图改进的Staple目标跟踪方法,其特征在于,所述直方柱的宽度设置为8。
7.根据权利要求1所述的一种基于局部敏感直方图改进的Staple目标跟踪方法,其特征在于,采用加权平均法融合所述颜色分类器的响应图和所述相关滤波的响应图,具体计算表达式如下所示:
response=(1-α)response_cf+α·response_p,
其中,response_cf为相关滤波器的响应图,response_p为颜色分类器的响应图,α为常数系数,response为最终响应图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810917388.XA CN110827319B (zh) | 2018-08-13 | 2018-08-13 | 一种基于局部敏感直方图改进的Staple目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810917388.XA CN110827319B (zh) | 2018-08-13 | 2018-08-13 | 一种基于局部敏感直方图改进的Staple目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110827319A CN110827319A (zh) | 2020-02-21 |
CN110827319B true CN110827319B (zh) | 2022-10-28 |
Family
ID=69546860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810917388.XA Active CN110827319B (zh) | 2018-08-13 | 2018-08-13 | 一种基于局部敏感直方图改进的Staple目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110827319B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476819A (zh) * | 2020-03-19 | 2020-07-31 | 重庆邮电大学 | 一种基于多相关滤波模型的长时目标跟踪方法 |
CN111931722B (zh) * | 2020-09-23 | 2021-02-12 | 杭州视语智能视觉***技术有限公司 | 一种结合颜色比率特征的相关滤波跟踪方法 |
CN115049706A (zh) * | 2022-06-30 | 2022-09-13 | 北京理工大学 | 一种基于改进Staple的长期目标跟踪方法及*** |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104933542A (zh) * | 2015-06-12 | 2015-09-23 | 临沂大学 | 一种基于计算机视觉的物流仓储监控方法 |
CN105608711A (zh) * | 2016-01-18 | 2016-05-25 | 华东理工大学 | 基于局部敏感直方图的视频动态目标追踪提取方法 |
CN106570893A (zh) * | 2016-11-02 | 2017-04-19 | 中国人民解放军国防科学技术大学 | 一种基于相关滤波的快速稳健视觉跟踪方法 |
CN106651913A (zh) * | 2016-11-29 | 2017-05-10 | 开易(北京)科技有限公司 | 基于相关滤波和颜色直方图统计的目标跟踪方法及adas*** |
CN107452015A (zh) * | 2017-07-28 | 2017-12-08 | 南京工业职业技术学院 | 一种具有重检测机制的目标跟踪*** |
CN107578423A (zh) * | 2017-09-15 | 2018-01-12 | 杭州电子科技大学 | 多特征分层融合的相关滤波鲁棒跟踪方法 |
CN107832683A (zh) * | 2017-10-24 | 2018-03-23 | 亮风台(上海)信息科技有限公司 | 一种目标跟踪方法及*** |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2850594A4 (en) * | 2012-05-14 | 2016-03-23 | In Situ Media Corp | METHOD AND SYSTEM FOR IDENTIFYING NON-DISTINCTIVE IMAGES / OBJECTS IN DIGITAL VIDEO AND TRACKING THESE IMAGES / OBJECTS USING TEMPORAL AND SPACE WAITING WIRES |
US20170119298A1 (en) * | 2014-09-02 | 2017-05-04 | Hong Kong Baptist University | Method and Apparatus for Eye Gaze Tracking and Detection of Fatigue |
-
2018
- 2018-08-13 CN CN201810917388.XA patent/CN110827319B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104933542A (zh) * | 2015-06-12 | 2015-09-23 | 临沂大学 | 一种基于计算机视觉的物流仓储监控方法 |
CN105608711A (zh) * | 2016-01-18 | 2016-05-25 | 华东理工大学 | 基于局部敏感直方图的视频动态目标追踪提取方法 |
CN106570893A (zh) * | 2016-11-02 | 2017-04-19 | 中国人民解放军国防科学技术大学 | 一种基于相关滤波的快速稳健视觉跟踪方法 |
CN106651913A (zh) * | 2016-11-29 | 2017-05-10 | 开易(北京)科技有限公司 | 基于相关滤波和颜色直方图统计的目标跟踪方法及adas*** |
CN107452015A (zh) * | 2017-07-28 | 2017-12-08 | 南京工业职业技术学院 | 一种具有重检测机制的目标跟踪*** |
CN107578423A (zh) * | 2017-09-15 | 2018-01-12 | 杭州电子科技大学 | 多特征分层融合的相关滤波鲁棒跟踪方法 |
CN107832683A (zh) * | 2017-10-24 | 2018-03-23 | 亮风台(上海)信息科技有限公司 | 一种目标跟踪方法及*** |
Non-Patent Citations (7)
Title |
---|
Adaptive Compressive Tracking based on Locality Sensitive Histograms;Sixian Chan等;《Pattern Recognition》;20170714;第72卷;第517-531页 * |
Robust target tracking using adaptive color feature and likelihood fusion;Arnaud Bouix等;《PROCEEDINGS OF SPIE》;20180427;第10645卷;第106450L-1-106450L-6页 * |
Staple: Complementary Learners for Real-Time Tracking;Luca Bertinetto等;《arXiv:1512.01355v2》;20160413;第1-9页 * |
Visual Tracking via Locality Sensitive Histograms;Shengfeng He等;《Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;20131231;第2427-2434页 * |
基于KCF与颜色直方图融合的长时目标跟踪算法;范栋轶等;《2017中国自动化大会》;20171022;第770-777页 * |
基于双模型融合的自适应目标跟踪算法;王艳川等;《计算机应用研究》;20171231;第34卷(第12期);第3828-3833页 * |
基于局部敏感直方图的视频跟踪算法研究;翟亮亮;《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》;20160115(第01期);第I138-485页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110827319A (zh) | 2020-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108053419B (zh) | 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 | |
CN108986140B (zh) | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 | |
CN109285179B (zh) | 一种基于多特征融合的运动目标跟踪方法 | |
CN108346159B (zh) | 一种基于跟踪-学习-检测的视觉目标跟踪方法 | |
CN108509859B (zh) | 一种基于深度神经网络的无重叠区域行人跟踪方法 | |
CN104574445B (zh) | 一种目标跟踪方法 | |
CN107369166B (zh) | 一种基于多分辨率神经网络的目标跟踪方法及*** | |
CN110532970B (zh) | 人脸2d图像的年龄性别属性分析方法、***、设备和介质 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN113361495B (zh) | 人脸图像相似度的计算方法、装置、设备及存储介质 | |
CN103984948B (zh) | 一种基于人脸图像融合特征的软双层年龄估计方法 | |
CN110175649B (zh) | 一种关于重新检测的快速多尺度估计目标跟踪方法 | |
US20140307917A1 (en) | Robust feature fusion for multi-view object tracking | |
CN111767878B (zh) | 嵌入式设备中基于深度学习的交通标志检测方法及*** | |
CN111160249A (zh) | 基于跨尺度特征融合的光学遥感图像多类目标检测方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN110826558B (zh) | 图像分类方法、计算机设备和存储介质 | |
CN104156734A (zh) | 一种基于随机蕨分类器的全自主在线学习方法 | |
CN110827319B (zh) | 一种基于局部敏感直方图改进的Staple目标跟踪方法 | |
CN106570439B (zh) | 一种车辆检测方法及装置 | |
CN111814753A (zh) | 针对雾天条件下的目标检测方法和装置 | |
CN113822352B (zh) | 基于多特征融合的红外弱小目标检测方法 | |
CN109886086B (zh) | 基于hog特征和线性svm级联分类器的行人检测方法 | |
CN109685830B (zh) | 目标跟踪方法、装置和设备及计算机存储介质 | |
CN115147418B (zh) | 缺陷检测模型的压缩训练方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |