CN111161323B - 一种基于相关滤波的复杂场景目标跟踪方法及*** - Google Patents
一种基于相关滤波的复杂场景目标跟踪方法及*** Download PDFInfo
- Publication number
- CN111161323B CN111161323B CN201911419540.2A CN201911419540A CN111161323B CN 111161323 B CN111161323 B CN 111161323B CN 201911419540 A CN201911419540 A CN 201911419540A CN 111161323 B CN111161323 B CN 111161323B
- Authority
- CN
- China
- Prior art keywords
- filter
- image
- target
- tracking
- filtering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001914 filtration Methods 0.000 title claims abstract description 71
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000004044 response Effects 0.000 claims abstract description 64
- 238000012549 training Methods 0.000 claims abstract description 46
- 230000000295 complement effect Effects 0.000 claims abstract description 15
- 230000004927 fusion Effects 0.000 claims abstract description 9
- 238000011156 evaluation Methods 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 2
- 238000007499 fusion processing Methods 0.000 claims description 2
- 238000005286 illumination Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 125000004122 cyclic group Chemical group 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 241000195940 Bryophyta Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于相关滤波的复杂场景目标跟踪方法:步骤1、对带有目标标注框的第一帧视频图像,通过传统相关滤波训练方法得到滤波器;步骤2、读取下一帧图像,将当前帧图像的搜索区域与上一帧得到的滤波器进行卷积操作,得到响应图像,对响应图像计算最大值得到当前帧相关滤波跟踪结果;将当前帧相关滤波跟踪结果与基于颜色直方图的目标跟踪结果进行互补融合,得到当前帧跟踪结果;步骤3、通过评价标准对响应图像判断是否属于复杂场景决定当前帧的滤波器训练方式;步骤4、重复步骤2‑3,直到读取完视频序列的所有帧,目标跟踪结束。采用本方法避免了背景杂乱以及目标严重形变等复杂场景跟踪漂移的问题。
Description
技术领域
本发明涉及计算机视觉目标跟踪领域,特别涉及一种基于相关滤波的复杂场景目标跟踪方法及***。
背景技术
目标跟踪是计算机视觉领域中的一个基本问题,是目前的研究热点之一。其基本定义为,给定视频序列的初始帧以及目标的位置框,在接下来的视频序列中自动给出该目标的位置框。目标跟踪在很多实时视觉应用中扮演着重要角色,例如自动驾驶、智能监视***、无人机监控、智能交通控制和人机交互等。由于其智能性和重要性而受到了广泛关注。
目标跟踪算法根据观测模型的不同可以大致分为生成式方法和判别式方法。生成式方法的典型代表为稀疏编码,判别式方法的典型代表为相关滤波。本发明选用了近年来逐渐占据主流地位的相关滤波方法。通过由目标图像训练的滤波器对图像进行滤波处理,在得到的响应图中寻找最大值位置,即图像中目标的位置。在此种情况下,目标跟踪的过程近似为对搜索区域图像进行相关滤波的过程,寻找目标也就是寻找滤波器响应图像的最大值位置。以最早关于相关滤波的算法MOSSE为例,其利用了输出结果的最小均方误差来训练滤波器。定义滤波器为H,一系列训练图像为F,卷积操作的期望输出为G,则第i帧的最小化问题公式为:
将训练得到的滤波器作用于搜索区域即可得到响应图像。响应值的大小反映了该处图像与初始化目标的相关性,选定响应值最大处作为目标位置。针对相关滤波中样本数量不足对分类器结果的影响,通常采用循环密集采样的方式,利用中心图像块循环移位增加样本。由于循环矩阵时域和频域的特殊性质,在训练滤波器过程中,复杂矩阵求逆转变为简单矩阵点除;在目标跟踪时,滤波器相关性操作变为频域内的点乘操作。此举大幅减少运算量,显著提高了跟踪速度。
尽管相关滤波具有实时性的优势,但当出现背景复杂、形变严重、光照变化及目标遮挡等情况时,容易发生跟踪漂移。因为相关滤波的关键是训练一个具有判别性的相关滤波器,用于区分前景和背景。而当背景杂乱或目标出现形变时,会严重影响滤波器的判别性,导致目标丢失。
发明内容
有鉴于此,本发明针对传统的相关滤波跟踪算法在背景杂乱以及目标严重形变等复杂场景跟踪漂移的问题,提出了一种基于相关滤波的应用于复杂场景的目标跟踪方法,添加动态约束项自适应地学习目标周围背景信息,达到抑制背景,突出目标的目的,同时结合了基于颜色直方图的跟踪结果,以达到和相关滤波结果互补,应对形变与复杂背景的目的。
本发明采用的技术方案如下:一种基于相关滤波的复杂场景目标跟踪方法,包括以下步骤:
步骤1、对带有目标标注框的第一帧视频图像,通过传统相关滤波训练方法得到滤波器;
步骤2、读取下一帧图像,将当前帧图像的搜索区域与上一帧得到的滤波器进行卷积操作,得到响应图像,对响应图像计算最大值得到当前帧相关滤波跟踪结果;将当前帧相关滤波跟踪结果与基于颜色直方图的目标跟踪结果进行互补融合,得到当前帧跟踪结果;
步骤3、通过评价标准对响应图像判断是否属于复杂场景,若不属于复杂场景则采用传统相关滤波训练方法训练当前帧的滤波器,若属于复杂场景则在传统相关滤波训练方法中整合背景信息训练当前帧的滤波器;
步骤4、重复步骤2-3,直到读取完视频序列的所有帧,目标跟踪结束。
进一步的,所述步骤3中评价标准为平均峰值相关能量APCE。
进一步的,所述步骤3中对相应图像是否属于复杂场景的具体判断方法为:计算响应图像的平均峰值相关能量APCE,若APCE低于历史平均值,则表示该图像属于复杂场景;反之,则表示该图像不属于复杂场景。
进一步的,所述步骤3中,整合背景信息训练当前帧的滤波器的具体方法为:在传统相关滤波方法中,添加目标周围的背景信息作为动态约束项进行学习,得到整合背景区域作为约束项的滤波器。
进一步的,所述背景区域为目标区域上下左右相邻的与目标框等大的图像区域或响应图像中具有次高响应峰值对应所在的位置区域。
进一步的,所述步骤4中,互补融合过程如下:
P(t)=(1-γ)PCF(t)+γPCH(t)
其中,PCF(t)为相关滤波跟踪结果,PCH(t)为基于颜色直方图的跟踪结果,γ为互补权重,通过控制γ得到最优融合结果。
本发明还提供了一种基于相关滤波的复杂场景目标跟踪***,包括:初始化模块、相关滤波跟踪模块、判断场景复杂度模块、自适应学习背景模块、自适应互补颜色直方图跟踪结果模块;
初始化模块,对第一帧图像进行滤波器初始化,得到初始的滤波器;
相关滤波跟踪模块,读取视频下一帧图像,并与上一帧训练的滤波器卷积得到响应图像及相关滤波跟踪结果;
判断场景复杂度模块,用于判断是否需要整合背景信息训练滤波器;通过对上一帧的响应图像进行判断,若响应图像峰值模糊或出现多个局部峰值,则需要整合背景信息进行训练滤波器,若响应图像具有一个明确的峰值,则不需整合背景信息,直接采用传统相关滤波方法训练滤波器;
自适应学习模块,用于根据判断场景复杂度模块判断,进行滤波器的训练;
自适应互补颜色直方图跟踪结果模块,自适应的融合通过颜色直方图进行跟踪的目标结果与相关滤波跟踪结果,输出最终目标跟踪结果。
进一步的,所述自适应学习模块训练整合背景信息的滤波器的具体过程为:在传统相关滤波方法的公式基础上,添加目标周围的背景信息作为动态约束项进行学习,得到整合背景区域作为约束项的滤波器。
与现有技术相比,采用上述技术方案的有益效果为:
1、利用相关滤波为基础进行目标跟踪,保证了跟踪速度,可作为实时跟踪的基础。
2、自适应的学习目标周围背景信息,将其整合为动态约束项加入训练模型中,使滤波器更具判别性,增加背景杂乱与复杂场景下跟踪的成功率与精确度。
3、自适应的互补了颜色直方图方法的跟踪结果,弥补了传统相关滤波对于形变以及光照变化的不敏感,提高了跟踪精度。
附图说明
图1是本发明的目标跟踪方法流程图。
具体实施方式
下面结合附图对本发明做进一步描述。
本发明提供了一种基于相关滤波的复杂场景目标跟踪方法,其基本思想是:利用场景复杂度进行自适应的学习,在训练模型中整合目标周围的背景信息作为动态的约束项,防止跟踪漂移,同时结合基于颜色直方图的目标跟踪方法的结果,弥补形变给目标跟踪带来的影响,以此提高跟踪精度与准确度。如图1所示,具体步骤如下:
步骤1、对带有目标标注框的第一帧视频图像,通过传统相关滤波训练方法得到滤波器;
步骤2、读取下一帧图像,将当前帧图像的搜索区域与上一帧得到的滤波器进行卷积操作,得到响应图像,从而得到当前帧相关滤波跟踪结果;将当前帧相关滤波跟踪结果与基于颜色直方图的目标跟踪结果进行互补融合,得到当前帧跟踪结果;
步骤3、通过评价标准对响应图像判断是否属于复杂场景,若不属于复杂场景则采用传统相关滤波训练方法训练当前帧的滤波器,若属于复杂场景则在传统相关滤波训练方法中整合背景信息训练当前帧的滤波器;
步骤4、重复步骤2-3,直到读取完视频序列的所有帧,目标跟踪结束。
对于步骤1,首先将带有标注框的第一帧图像经过传统相关滤波训练得到初始化滤波器。此时,认为所训练得到的滤波器是最为准确的,因为初始标注框的位置是已知的、准确的,此时我们所采用的目标训练样本就是我们需要跟踪的目标,是最为准确的样本。经过第一帧训练得到的滤波器将在下一帧进行卷积操作。
对于步骤2,当前帧图像的搜索区域与上一帧得到的滤波器进行卷积操作,得到响应图像,从而得到当前帧相关滤波跟踪结果,其中,响应图像中最大值的位置就是目标中心的位置,跟踪结果即为该目标中心位置的坐标和目标尺寸。相关滤波器对光照变化、尺度变化等情况具有很强的鲁棒性,但是,由于模型依赖于空间信息,因此滤波器对变形很敏感。同时,基于颜色直方图的***能够很好地处理形变,但当光照明显变化时,可能会导致***跟踪不准确。因此,本发明将这两种***结合起来,在保持相关滤波跟踪优点的同时,减轻了形变对跟踪结果的影响。为了进行融合,本发明提出了一个线性函数,从相关滤波跟踪结果PCF(t)和基于颜色直方图的跟踪结果PCH(t)经过互补权重γ控制得到最佳的线性组合,
P(t)=(1-γ)PCF(t)+γPCH(t)
在滤波器进行相关滤波跟踪过程中,所使用的图像特征可以是手工特征或深度特征,若在相关滤波跟踪时所使用的特征为手工特征,则在结果层面进行融合,即对跟踪结果进行融合;若在相关滤波跟踪时所使用的特征为深度特征,则在响应图像层面进行融合,即对响应图像进行融合。
其中,基于颜色直方图的目标跟踪方法如下:
首先分别提取前景和背景区域,并分别计算它们的颜色直方图分布;然后计算候选区域的颜色直方图分布,并与前景和背景区域的颜色直方图进行比较,得到候选区域属于目标区域的概率;同时在每帧图像中更新前景和背景区域的颜色直方图,以适应场景的变化。在本实施例中,采取RGB颜色模型计算颜色直方图,每个颜色通道有32bins。
对于步骤3,通过本帧的响应图像得分来判断本帧场景复杂度,具体为:通过前一帧训练得到的滤波器与本帧图像的搜索区域进行卷积操作,得到响应图像;通过评价标准对响应图像进行判断,当响应图像显示出场景复杂时,就在本帧训练滤波器的过程中,整合目标周围的背景信息,加强滤波器的判别性。
在本发明中采用了平均峰值相关能量APCE(Average Peak-to-CorrelationEnergy)作为评价标准。则APCE的定义如下:
其中,Rmax,Rmin与Rr,c分别表示响应图像中的最大值,最小值以及第r行、第c列的响应值大小。
由上式可知,APCE反映了响应图像的波动情况、峰值、复杂度,能够反映跟踪结果的可靠性。由于运动模糊、背景杂乱等复杂场景,响应图随机波动,并且在真实目标周围有多个峰值。而理想的响应图应该在真实的目标位置有一个明确的峰值,而在所有其他区域波动较小。因此,当响应图明显波动时,即响应图像峰值模糊或出现多个局部峰值,表示该响应图像属于复杂场景,训练滤波器的过程中需要整合背景信息进行学习;而响应图像在真实目标位置有一个明确的峰值,且在其他区域波动较小,则表示该响应图像不属于复杂场景。
为了消除偶然的一帧图像的误差,我们需要结合既往多帧图像的响应图像进行分析。如果当前帧响应图像的APCE低于其历史平均值时,我们就考虑在训练滤波器过程中整合背景信息进行学***均值时,则不需要整合背景信息。
在步骤3中对于需要整合背景信息进行训练滤波器的具体方法为:背景信息作为动态的约束项加入训练模型,从而得到整合背景信息的滤波器。
训练具体过程为:首先对图像中目标周围的背景信息进行采样,这些选定的背景图像块将被视为负样本。它们可以代表不同的背景和不同的干扰因素。换言之,我们希望学习的滤波器在目标区域具有高响应,而对于所选背景图像块具有最低响应。为了实现这一点,本发明将背景图像区域作为约束项添加进传统相关滤波公式中。
传统相关滤波公式中,需要从一系列训练样本中学习得到多通道滤波器f。定义J{x}表示从训练样本中提取到的特征图像,则滤波器与特征图像卷积得到的相应分数可表示为:
Sf{x}=f*J{x}
当结合背景信息进行学习时,目标函数可以表示为:
其中αk表示赋给第k个训练样本xk的权重,yk为响应结果的期望输出;第二项中的ω:Ω→R,通过在ω中分配更高的权重来抑制位于目标区域之外的滤波器中的系数,反之亦然;第三项则为本发明中提到的有关背景区域的约束项,xki表示在目标训练样本xk周围的第i个背景样本。通过帕塞瓦尔定理以及迭代法原理,本发明得到了目标函数的封闭解,即解决普通的问题:
其中以及W表示dMN×dMN的块对角矩阵。
由此,便可得到整合背景区域作为约束项的滤波器,实现对于背景信息的学习。
优选的,背景区域选取目标区域上下左右相邻的与目标框等大的图像区域,因为目标在这些区域出现的可能性较高,以此作为训练样本,可提高效用;同时也可以选用在响应图像中,除了目标位置的次高响应峰值对应的位置,因为这个位置出现的可能是相似目标,所以此举可以抑制相似目标的干扰。
本发明还提供了一种基于相关滤波的复杂场景目标跟踪***,其特征在于,包括:初始化模块、相关滤波跟踪模块、判断场景复杂度模块、自适应学习背景模块、自适应互补颜色直方图跟踪结果模块;
初始化模块,对第一帧图像进行滤波器初始化,得到初始的滤波器;
相关滤波跟踪模块,读取视频下一帧图像,并与上一帧训练的滤波器卷积得到响应图像及相关滤波跟踪结果;
判断场景复杂度模块,用于判断是否需要整合背景信息训练滤波器;通过对上一帧的响应图像进行判断,若响应图像峰值模糊或出现多个局部峰值,则需要整合背景信息训练滤波器,若响应图像具有一个明确的峰值,则不需整合背景信息,直接采用传统相关滤波方法训练滤波器;
自适应学习模块,用于根据判断场景复杂度模块判断,进行滤波器的训练;在传统相关滤波方法的公式基础上,添加目标周围的背景信息作为动态约束项进行学习,得到判别能力更强的滤波器,使得得到的滤波器在目标处能够取得较大响应值,而在背景处响应值很小甚至趋近于零;经过此滤波器与搜索区域卷积得到响应图像与跟踪结果。
自适应互补颜色直方图跟踪结果模块,自适应的融合通过颜色直方图进行跟踪的目标结果与相关滤波跟踪结果,输出最终目标跟踪结果。
本发明并不局限于前述的具体实施方式。本发明扩展到任何在本说明书中披露的新特征或任何新的组合,以及披露的任一新的方法或过程的步骤或任何新的组合。如果本领域技术人员,在不脱离本发明的精神所做的非实质性改变或改进,都应该属于本发明权利要求保护的范围。
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。
本说明书中公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换。即,除非特别叙述,每个特征只是一系列等效或类似特征中的一个例子而已。
Claims (5)
1.一种基于相关滤波的复杂场景目标跟踪方法,其特征在于,包括以下步骤:
步骤1、对带有目标标注框的第一帧视频图像,通过传统相关滤波训练方法得到滤波器;
步骤2、读取下一帧图像,将当前帧图像的搜索区域与上一帧得到的滤波器进行卷积操作,得到响应图像,对响应图像计算最大值得到当前帧相关滤波跟踪结果;将当前帧相关滤波跟踪结果与基于颜色直方图的目标跟踪结果进行互补融合,得到当前帧跟踪结果;
步骤3、通过评价标准对响应图像判断是否属于复杂场景,若不属于复杂场景则采用传统相关滤波训练方法训练当前帧的滤波器,若属于复杂场景则在传统相关滤波训练方法中整合背景信息训练当前帧的滤波器;
步骤4、重复步骤2-3,直到读取完视频序列的所有帧,目标跟踪结束;
所述步骤3中对响应图像是否属于复杂场景的具体判断方法为:计算响应图像的平均峰值相关能量APCE,若APCE低于历史平均值,则表示该响应图像属于复杂场景;反之,则表示该响应图像不属于复杂场景;
其中,基于颜色直方图的目标跟踪方法如下:首先分别提取前景和背景区域,并分别计算它们的颜色直方图分布;然后计算候选区域的颜色直方图分布,并与前景和背景区域的颜色直方图进行比较,得到候选区域属于目标区域的概率;同时在每帧图像中更新前景和背景区域的颜色直方图;
整合背景信息训练当前帧的滤波器的方法为:
从一系列训练样本 中学习得到多通道滤波器/>,定义/>表示从训练样本中提取到的特征图像,则滤波器与特征图像卷积得到的响应分数表示为:
当结合背景信息进行学习时,目标函数表示为:
其中表示赋给第/>个训练样本/>的权重,/>为响应结果的期望输出;第二项中的,通过在ω中分配更高的权重来抑制位于目标区域之外的滤波器中的系数,反之亦然;第三项则为有关背景区域的约束项,/>表示在目标训练样本/>周围的第/>个背景样本,通过帕塞瓦尔定理以及迭代法原理,得到目标函数的封闭解,即解决普通的/>问题:
其中以及/>均为/>的块对角矩阵;即得到整合背景区域作为约束项的滤波器,实现对于背景信息的学习。
2.根据权利要求1所述的复杂场景目标跟踪方法,其特征在于,所述背景区域为目标区域上下左右相邻的与目标框等大的图像区域或响应图像中具有次高响应峰值对应所在的位置区域。
3.根据权利要求1所述的复杂场景目标跟踪方法,其特征在于,所述步骤2中,互补融合过程如下:
其中,为相关滤波跟踪结果,/>为基于颜色直方图的跟踪结果,/>为互补权重,通过控制/>得到最优融合结果。
4.一种基于相关滤波的复杂场景目标跟踪***,用于实现权利要求1~3任一项所述的基于相关滤波的复杂场景目标跟踪方法,其特征在于,包括:初始化模块、相关滤波跟踪模块、判断场景复杂度模块、自适应学习背景模块、自适应互补颜色直方图跟踪结果模块;
初始化模块,对第一帧图像进行滤波器初始化,得到初始的滤波器;
相关滤波跟踪模块,读取视频下一帧图像,并与上一帧训练的滤波器卷积得到响应图像及相关滤波跟踪结果;
判断场景复杂度模块,用于判断是否需要整合背景信息训练滤波器;若不属于复杂场景则采用传统相关滤波训练方法训练当前帧的滤波器,若属于复杂场景则在传统相关滤波训练方法中整合背景信息训练当前帧的滤波器;
自适应学习模块,用于根据判断场景复杂度模块判断,进行滤波器的训练;
自适应互补颜色直方图跟踪结果模块,自适应的融合通过颜色直方图进行跟踪的目标结果与相关滤波跟踪结果,输出最终目标跟踪结果。
5.根据权利要求4所述的复杂场景目标跟踪***,其特征在于,所述自适应学习模块训练整合背景信息的滤波器的具体过程为:在传统相关滤波方法的公式基础上,添加目标周围的背景信息作为动态约束项进行学习,得到整合背景区域作为约束项的滤波器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911419540.2A CN111161323B (zh) | 2019-12-31 | 2019-12-31 | 一种基于相关滤波的复杂场景目标跟踪方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911419540.2A CN111161323B (zh) | 2019-12-31 | 2019-12-31 | 一种基于相关滤波的复杂场景目标跟踪方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111161323A CN111161323A (zh) | 2020-05-15 |
CN111161323B true CN111161323B (zh) | 2023-11-28 |
Family
ID=70560333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911419540.2A Active CN111161323B (zh) | 2019-12-31 | 2019-12-31 | 一种基于相关滤波的复杂场景目标跟踪方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111161323B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113393493B (zh) * | 2021-05-28 | 2024-04-05 | 京东科技信息技术有限公司 | 目标对象的跟踪方法及装置 |
CN113706580B (zh) * | 2021-08-11 | 2022-12-09 | 西安交通大学 | 一种基于相关滤波***的目标跟踪方法、***、设备及介质 |
Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6701029B1 (en) * | 1999-11-08 | 2004-03-02 | Automatic Recognition And Control, Inc. | Ring-wedge data analysis of digital images |
CN106651913A (zh) * | 2016-11-29 | 2017-05-10 | 开易(北京)科技有限公司 | 基于相关滤波和颜色直方图统计的目标跟踪方法及adas*** |
CN106887011A (zh) * | 2017-01-20 | 2017-06-23 | 北京理工大学 | 一种基于cnn和cf的多模板目标跟踪方法 |
CN107067410A (zh) * | 2016-05-27 | 2017-08-18 | 北京理工大学 | 一种基于增广样本的流形正则化相关滤波目标跟踪方法 |
CN107154024A (zh) * | 2017-05-19 | 2017-09-12 | 南京理工大学 | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 |
CN107492112A (zh) * | 2017-07-11 | 2017-12-19 | 西北工业大学 | 一种基于无人机平台的目标跟踪方法 |
CN108280845A (zh) * | 2017-12-26 | 2018-07-13 | 浙江工业大学 | 一种针对复杂背景的尺度自适应目标跟踪方法 |
KR20180105876A (ko) * | 2017-03-16 | 2018-10-01 | 한국전자통신연구원 | 색상과 형태를 동시에 고려한 실시간 영상 추적 방법 및 이를 위한 장치 |
CN108664930A (zh) * | 2018-05-11 | 2018-10-16 | 西安天和防务技术股份有限公司 | 一种智能的多目标检测跟踪方法 |
CN108694723A (zh) * | 2018-05-11 | 2018-10-23 | 西安天和防务技术股份有限公司 | 一种复杂背景下目标稳定跟踪方法 |
CN108734723A (zh) * | 2018-05-11 | 2018-11-02 | 江南大学 | 一种基于自适应权重联合学习的相关滤波目标跟踪方法 |
CN108986146A (zh) * | 2017-12-11 | 2018-12-11 | 罗普特(厦门)科技集团有限公司 | 一种基于背景信息与自适应回归标签的相关滤波跟踪方法 |
CN108986140A (zh) * | 2018-06-26 | 2018-12-11 | 南京信息工程大学 | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 |
CN109035300A (zh) * | 2018-07-05 | 2018-12-18 | 桂林电子科技大学 | 一种基于深度特征与平均峰值相关能量的目标跟踪方法 |
CN109064497A (zh) * | 2018-07-16 | 2018-12-21 | 南京信息工程大学 | 一种基于颜色聚类补充学习的视频跟踪方法 |
CN109146917A (zh) * | 2017-12-29 | 2019-01-04 | 西安电子科技大学 | 一种弹性更新策略的目标跟踪方法 |
CN109166139A (zh) * | 2018-07-18 | 2019-01-08 | 天津大学 | 一种结合快速背景抑制的尺度自适应目标跟踪方法 |
CN109584271A (zh) * | 2018-11-15 | 2019-04-05 | 西北工业大学 | 基于高置信度更新策略的高速相关滤波跟踪方法 |
CN109753846A (zh) * | 2017-11-03 | 2019-05-14 | 北京深鉴智能科技有限公司 | 目标跟踪硬件实现***和方法 |
CN110009664A (zh) * | 2019-04-11 | 2019-07-12 | 南京航空航天大学金城学院 | 一种基于响应图融合的红外目标跟踪方法及装置 |
CN110555870A (zh) * | 2019-09-09 | 2019-12-10 | 北京理工大学 | 基于神经网络的dcf跟踪置信度评价与分类器更新方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8593542B2 (en) * | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
US8520956B2 (en) * | 2009-06-09 | 2013-08-27 | Colorado State University Research Foundation | Optimized correlation filters for signal processing |
US8606009B2 (en) * | 2010-02-04 | 2013-12-10 | Microsoft Corporation | High dynamic range image generation and rendering |
CN107209854A (zh) * | 2015-09-15 | 2017-09-26 | 深圳市大疆创新科技有限公司 | 用于支持顺畅的目标跟随的***和方法 |
US10140719B2 (en) * | 2016-12-22 | 2018-11-27 | TCL Research America Inc. | System and method for enhancing target tracking via detector and tracker fusion for unmanned aerial vehicles |
TWI651662B (zh) * | 2017-11-23 | 2019-02-21 | 財團法人資訊工業策進會 | 影像標註方法、電子裝置及非暫態電腦可讀取儲存媒體 |
US10762662B2 (en) * | 2018-03-14 | 2020-09-01 | Tata Consultancy Services Limited | Context based position estimation of target of interest in videos |
-
2019
- 2019-12-31 CN CN201911419540.2A patent/CN111161323B/zh active Active
Patent Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6701029B1 (en) * | 1999-11-08 | 2004-03-02 | Automatic Recognition And Control, Inc. | Ring-wedge data analysis of digital images |
CN107067410A (zh) * | 2016-05-27 | 2017-08-18 | 北京理工大学 | 一种基于增广样本的流形正则化相关滤波目标跟踪方法 |
CN106651913A (zh) * | 2016-11-29 | 2017-05-10 | 开易(北京)科技有限公司 | 基于相关滤波和颜色直方图统计的目标跟踪方法及adas*** |
CN106887011A (zh) * | 2017-01-20 | 2017-06-23 | 北京理工大学 | 一种基于cnn和cf的多模板目标跟踪方法 |
KR20180105876A (ko) * | 2017-03-16 | 2018-10-01 | 한국전자통신연구원 | 색상과 형태를 동시에 고려한 실시간 영상 추적 방법 및 이를 위한 장치 |
CN107154024A (zh) * | 2017-05-19 | 2017-09-12 | 南京理工大学 | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 |
CN107492112A (zh) * | 2017-07-11 | 2017-12-19 | 西北工业大学 | 一种基于无人机平台的目标跟踪方法 |
CN109753846A (zh) * | 2017-11-03 | 2019-05-14 | 北京深鉴智能科技有限公司 | 目标跟踪硬件实现***和方法 |
CN108986146A (zh) * | 2017-12-11 | 2018-12-11 | 罗普特(厦门)科技集团有限公司 | 一种基于背景信息与自适应回归标签的相关滤波跟踪方法 |
CN108280845A (zh) * | 2017-12-26 | 2018-07-13 | 浙江工业大学 | 一种针对复杂背景的尺度自适应目标跟踪方法 |
CN109146917A (zh) * | 2017-12-29 | 2019-01-04 | 西安电子科技大学 | 一种弹性更新策略的目标跟踪方法 |
CN108734723A (zh) * | 2018-05-11 | 2018-11-02 | 江南大学 | 一种基于自适应权重联合学习的相关滤波目标跟踪方法 |
CN108694723A (zh) * | 2018-05-11 | 2018-10-23 | 西安天和防务技术股份有限公司 | 一种复杂背景下目标稳定跟踪方法 |
CN108664930A (zh) * | 2018-05-11 | 2018-10-16 | 西安天和防务技术股份有限公司 | 一种智能的多目标检测跟踪方法 |
CN108986140A (zh) * | 2018-06-26 | 2018-12-11 | 南京信息工程大学 | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 |
CN109035300A (zh) * | 2018-07-05 | 2018-12-18 | 桂林电子科技大学 | 一种基于深度特征与平均峰值相关能量的目标跟踪方法 |
CN109064497A (zh) * | 2018-07-16 | 2018-12-21 | 南京信息工程大学 | 一种基于颜色聚类补充学习的视频跟踪方法 |
CN109166139A (zh) * | 2018-07-18 | 2019-01-08 | 天津大学 | 一种结合快速背景抑制的尺度自适应目标跟踪方法 |
CN109584271A (zh) * | 2018-11-15 | 2019-04-05 | 西北工业大学 | 基于高置信度更新策略的高速相关滤波跟踪方法 |
CN110009664A (zh) * | 2019-04-11 | 2019-07-12 | 南京航空航天大学金城学院 | 一种基于响应图融合的红外目标跟踪方法及装置 |
CN110555870A (zh) * | 2019-09-09 | 2019-12-10 | 北京理工大学 | 基于神经网络的dcf跟踪置信度评价与分类器更新方法 |
Non-Patent Citations (10)
Title |
---|
Guokai Shi.Online adaptive complementation tracker.《EURASIP Journal on Wireless Communications and Networking》.2018,第191页. * |
Luca Bertinetto.Staple: Complementary Learners for Real-Time Tracking.《2016 IEEE Conference on Computer Vision and Pattern Recognition》.2016,第1401-1409页. * |
Matthias Mueller.Context-Aware Correlation Filter Tracking.《2017 IEEE Conference on Computer Vision and Pattern Recognition》.2017,第1387-1395页. * |
Visual Tracking Based on Complementary Learners with Distractor Handling;Suryo Adhi Wibowo等;《Mathematical Problems in engineering》;第1-13页 * |
Wancheng Zhang.Siamese Visual Tracking with Robust Adaptive Learning.《2019 IEEE International Workshop on Anti-counterfeiting,Security,Identification,ASID》.2019,第153-157页. * |
利用视觉显著性和扰动模型的上下文感知跟踪;张博;《光学精密工程》;第26卷(第8期);第2112-2121页 * |
王艳川.基于双模型融合的自适应目标跟踪算法.《计算机应用研究》.2017,第34卷(第12期),第3828-3833页. * |
王赛楠.基于相关滤波的视觉跟踪算法研究.《中国优秀硕士学位论文全文数据库信息科技辑》.2019,(第9(2019)期),第I138-657页. * |
自适应上下文感知相关滤波跟踪;刘波;《中国光学》;第12卷(第2期);第265-273页 * |
融合检测机制的鲁棒相关滤波视觉跟踪算法;候志强;《应用光学》;第40卷(第5期);第795-804页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111161323A (zh) | 2020-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110232350B (zh) | 一种基于在线学习的实时水面多运动目标检测跟踪方法 | |
CN110135500B (zh) | 一种基于自适应深度特征滤波器的多场景下目标跟踪方法 | |
CN112836640B (zh) | 一种单摄像头多目标行人跟踪方法 | |
CN110276785B (zh) | 一种抗遮挡红外目标跟踪方法 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN111951297B (zh) | 一种基于结构化逐像素目标注意机制的目标跟踪方法 | |
CN113327272B (zh) | 一种基于相关滤波的鲁棒性长时跟踪方法 | |
CN110942471B (zh) | 一种基于时空约束的长时目标跟踪方法 | |
CN111582349B (zh) | 一种基于YOLOv3和核相关滤波改进的目标跟踪算法 | |
CN110555868A (zh) | 一种复杂地面背景下运动小目标检测方法 | |
CN112991391A (zh) | 一种基于雷达信号和视觉融合的车辆检测与跟踪方法 | |
CN107622507B (zh) | 一种基于深度学习的空中目标跟踪方法 | |
CN113763427B (zh) | 一种基于从粗到精遮挡处理的多目标跟踪方法 | |
CN107368802B (zh) | 基于kcf和人脑记忆机制的运动目标跟踪方法 | |
CN111161323B (zh) | 一种基于相关滤波的复杂场景目标跟踪方法及*** | |
CN111340842B (zh) | 一种基于联合模型的相关滤波目标跟踪方法 | |
CN112052802A (zh) | 一种基于机器视觉的前方车辆行为识别方法 | |
CN113822352A (zh) | 基于多特征融合的红外弱小目标检测方法 | |
CN112085765A (zh) | 结合粒子滤波及度量学习的视频目标跟踪方法 | |
CN115359407A (zh) | 一种视频中的多车辆跟踪方法 | |
CN112131991B (zh) | 一种基于事件相机的数据关联方法 | |
CN112613565A (zh) | 基于多特征融合与自适应学习率更新的抗遮挡跟踪方法 | |
CN116777956A (zh) | 基于多尺度航迹管理的运动目标筛选方法 | |
CN110705408A (zh) | 基于混合高斯人数分布学习的室内人数统计方法及*** | |
CN116129386A (zh) | 可行驶区域检测方法、***及计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |