CN108805902A - 一种自适应尺度的时空上下文目标跟踪方法 - Google Patents
一种自适应尺度的时空上下文目标跟踪方法 Download PDFInfo
- Publication number
- CN108805902A CN108805902A CN201810472856.7A CN201810472856A CN108805902A CN 108805902 A CN108805902 A CN 108805902A CN 201810472856 A CN201810472856 A CN 201810472856A CN 108805902 A CN108805902 A CN 108805902A
- Authority
- CN
- China
- Prior art keywords
- target
- scale
- space
- histogram
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种自适应尺度的时空上下文目标跟踪方法,属于图像处理技术领域。本方法包括:S1、提取目标区域的颜色直方图特征和梯度直方图特征,建立空间上下文模型;S2、利用空间上下文模型更新下一帧时空上下文模型,进而更新目标置信图,并求得目标置信图的最大似然概率位置作为目标位置;S3、通过更新目标尺度来自适应追踪后续帧的目标位置。本发明的优势在于:通过对视频图像序列进行颜色直方图和梯度直方图特征提取建立目标模型,然后利用时空上下文模型在线学习更新目标的置信图且获取目标的最大概率置信图,最后利用改进的时空上下文跟踪算法尺度方案跟踪后续帧目标,确保目标在尺度不断变化时高的跟踪精度和实时性。
Description
技术领域
本发明属于图像处理技术领域,尤其涉及到自适应尺度的时空上下文目标跟踪方法。
背景技术
目标跟踪是计算机视觉领域一个重要任务,具有很多实际应用,如运动识别,自动监视,视频索引,人机交互和车辆导航等。虽然目标跟踪已经被研究了十多年,而且近年来已经取得了很大进展,但它仍然是一个非常具有挑战性的问题。影响目标跟踪算法性能的因素很多,如目标尺度变化,复杂背景,部分或全部遮挡,光照变化以及实时处理的要求等。因此,设计出高效稳健的目标跟踪算法是目前急需解决的。
时空上下文跟踪算法通过获取时空上下文模型和置信图的极大值来在线更新目标位置,并且利用快速傅里叶变换(FFT,fast fourier transform)减少计算量,提高算法效率,实时跟踪目标。时空上下文跟踪算法提出之后,引来大量学者的研究,对时空上下文跟踪算法改进的有:(1)用目标及其周围区域颜色信息来替换时空上下文跟踪算法中目标和周围局部上下文的低级特征,以提高目标跟踪性能;(2)将时空上下文与卡尔曼滤波结合,通过预测目标下一帧的位置,能有效解决目标遮挡问题;(3)利用分块遮挡判别思想,结合子块匹配和粒子滤波估计目标位置,实现目标不同程度的抗遮挡。上述方法主要是在时空上下文跟踪算法的基础上,对目标的模型进行调整、目标运动轨迹进行预测以及解决目标遮挡的鲁棒跟踪,而忽略了目标在尺度变化时跟踪精度低的问题。
对于处理时空上下文跟踪算法中的目标尺度变化问题,一些研究者考虑利用椭圆对数极坐标变换方法来解决,但很少研究提取颜色直方图和梯度直方图特征结合来描述目标外观特征及利用改进的时空上下文目标尺度方案来解决时空上下文跟踪算法在目标跟踪过程中因目标尺度变化时产生的跟踪失败问题。
发明内容
有鉴于此,本发明的目的是提供一种主要针对时空上下文跟踪算法在目标尺度不断变化导致跟踪精度低的问题,提出了一种自适应尺度的时空上下文目标跟踪方法。本发明的技术方案如下:
一种自适应尺度的时空上下文目标跟踪方法,包括以下步骤:
S1、提取目标区域的颜色直方图特征和梯度直方图特征,建立空间上下文模型;
S2、利用空间上下文模型更新下一帧时空上下文模型,进而更新目标置信图,并求得目标置信图的最大似然概率位置作为目标位置;
S3、通过更新目标尺度来自适应追踪后续帧的目标位置。
进一步的,所述提取目标区域的颜色直方图特征和梯度直方图特征,具体包括:
颜色直方图采用HSV颜色,H表示色调,S表示饱和度,V表示亮度,由于V对光照强度非常敏感,因此仅对H和S分量建立颜色直方图;为了描述目标区域的空间位置信息,对V分量建立梯度直方图模型。
进一步的,颜色直方图表示为:
其中,||·||表示取范数;X表示目标区域的中心像素;Xi表示第i个像素,i=1,2,...n;k(·)为高斯核函数;δ(·)是狄拉克函数;b(Xi)表示Xi在颜色直方图上的颜色值;u为颜色直方图中颜色索引,且取值区间为[1,n];h为核带宽;n为目标区域内的像素个数。
进一步的,梯度直方图表示为:
其中,m(x,y)为像素点(x,y)的梯度,θ(x,y)为像素点(x,y)的方向,θ(x,y)的范围为[-π,π],通过统计每个像素的梯度幅度值,p的取值区间为[0~7]。
进一步的,步骤S2具体包括:假设已获得的第t帧空间上下文模型ht(z),则第t+1帧的时空上下文模型Ht+1(z)的更新如下:
Ht+1(z)=(1-ρ)Ht(z)+ρht(z)
其中,ρ是一个学习速率参数。
第t+1帧中目标置信图lt+1(z)的表达式为:
其中,F-1(·)是逆傅立叶变换;F(·)是傅立叶变换;⊙表示点乘;It+1(z)表示t+1帧时点z处的灰度值;表示权重函数,通常距离越近的点权重值越大。
目标的中心位置是目标置信图的概率最大值,表达式为:
其中,表示围绕的相邻区域。
进一步的,目标尺度更新方案包括:
s′t表示利用连续两帧图像估计的目标尺度,将s′t初始值设置为1,因为两个连续帧之间的尺度变化是连续和微小的,为了防止尺度因子的突变,引入一个更新因子v(st),公式如下:
因此,最终更新的目标尺度表示为:
其中,表示第t帧目标置信图的概率最大值,lt(·)表示目标置信图,st+1是第t+1帧中估计目标尺度,是连续n帧的尺度平均值,λ是固定滤波参数,d是步长参数,σt+1是第t+1帧中的尺度参数。
本发明的优势在于:通过对视频图像序列进行颜色直方图和梯度直方图特征提取建立目标模型,然后利用时空上下文模型在线学习更新目标的置信图且获取目标的最大概率置信图,最后利用改进的时空上下文跟踪算法尺度方案跟踪后续帧目标,确保目标在尺度不断变化时高的跟踪精度和实时性,可以解决目标在视频跟踪中的跟踪精度低问题。
附图说明
为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:
图1为本发明的流程示意图。
具体实施方式
下面结合说明书附图对本发明一种基于图像扩散速度模型和色彩特征的人脸活体检测方法进行进一步的说明。
以下将结合附图对本发明进行详细说明:
本发明公开了一种自适应尺度的时空上下文目标跟踪方法,如图1所示,首先在视频目标跟踪中,对目标模板进行颜色直方图和梯度直方图特征提取,具体包括:
颜色直方图采用HSV颜色模型,H表示色调,S表示饱和度,V表示亮度,并且它们之间是相互独立的,由于V对光照强度非常敏感,故仅对H和S加以量化建立颜色直方图。
目标区域内的颜色直方图为:
其中,||·||表示取范数;X表示目标区域的中心像素;Xi表示第i个像素,i=1,2,...n;k(·)为高斯核函数;δ(·)是狄拉克函数;b(Xi)表示Xi在颜色直方图上的颜色值;u为颜色直方图中颜色索引,且取值区间为[1,n];h为核带宽;n为目标区域内的像素个数。
为了描述目标区域的空间位置信息,采用了HSV颜色模型中的V对目标区域建立一个简化的梯度直方图模型。且梯度直方图模型的计算公式为:
其中,dx为目标区域内像素点(x,y)的水平方向相邻点之间的差值,dy为目标区域内像素点(x,y)的垂直方向相邻点之间的差值,m(x,y)为像素点的梯度和θ(x,y)为像素点的方向,θ(x,y)的范围为[-π,π]。通过统计每个像素的梯度幅度值,得到目标区域的梯度直方图为:
其中,p的取值区间为[0~7]。
然后,利用时空上下文模型在线学习获得目标置信图概率最大的位置,具体包括:
时空上下文算法在得到空间上下文模型后,目标跟踪任务就变成了目标检测问题。假设已获得的第t帧空间上下文模型ht(z),则第t+1帧的时空上下文模型Ht+1(z)的更新如下:
Ht+1(z)=(1-ρ)Ht(z)+ρht(z)
其中,ρ是一个学习速率参数。
第t+1帧中目标置信图lt+1(z)的表达式为:
其中,F-1(·)是逆傅立叶变换;F(·)是傅立叶变换;⊙表示点乘;It+1(z)表示t+1帧时点z处的灰度值;表示权重函数,通常距离越近的点权重值越大。
目标的中心位置是目标置信图的概率最大值,表达式为:
其中,表示围绕的相邻区域。
最后,通过更新的尺度方法来自适应跟踪后续帧目标以达到最佳的跟踪效果,具体包括:
目标尺度更新方案包括:
s′t表示利用连续两帧图像估计的目标尺度,将s′t初始值设置为1,因为两个连续帧之间的尺度变化是连续和微小的,为了防止尺度因子的突变,引入一个更新因子v(st),公式如下:
因此,最终更新的目标尺度表示为:
其中,表示第t帧目标置信图的概率最大值,lt(·)表示目标置信图,st+1是第t+1帧中估计目标尺度,是连续n帧的尺度平均值,λ是固定滤波参数,d是步长参数,σt+1是第t+1帧中的尺度参数。
通过上述方法自适应更新目标框,不仅可以准确跟踪目标尺度逐渐变小图像序列,而且也能准确跟踪目标尺度逐渐变大的情况。当目标跟踪尺度不断变化时,准确选择目标框的尺度大小能更好的跟踪后续帧目标,即达到最佳的跟踪效果。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:ROM、RAM、磁盘或光盘等。
以上所举实施例,对本发明的目的、技术方案和优点进行了进一步的详细说明,所应理解的是,以上所举实施例仅为本发明的优选实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内对本发明所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种自适应尺度的时空上下文目标跟踪方法,其特征在于,包括以下步骤:
S1、提取目标区域的颜色直方图特征和梯度直方图特征,建立空间上下文模型;
S2、利用空间上下文模型更新下一帧时空上下文模型,进而更新目标置信图,并求得目标置信图的最大似然概率位置作为目标位置;
S3、通过更新目标尺度来自适应追踪后续帧的目标位置。
2.根据权利要求1所述的一种自适应尺度的时空上下文目标跟踪方法,其特征在于,所述提取目标区域的颜色直方图特征和梯度直方图特征,具体包括:
颜色直方图采用HSV颜色,H表示色调,S表示饱和度,V表示亮度,由于V对光照强度非常敏感,因此仅对H和S分量建立颜色直方图;为了描述目标区域的空间位置信息,对V分量建立梯度直方图模型。
3.根据权利要求2所述的一种自适应尺度的时空上下文目标跟踪方法,其特征在于,颜色直方图表示为:
其中,||·||表示取范数;X表示目标区域的中心像素;Xi表示第i个像素,i=1,2,...n;k(·)为高斯核函数;δ(·)是狄拉克函数;b(Xi)表示Xi在颜色直方图上的颜色值;u为颜色直方图中颜色索引,且取值区间为[1,n];h为核带宽;n为目标区域内的像素个数。
4.根据权利要求3所述的一种自适应尺度的时空上下文目标跟踪方法,其特征在于,梯度直方图表示为:
其中,m(x,y)为像素点(x,y)的梯度,θ(x,y)为像素点(x,y)的方向,θ(x,y)的范围为[-π,π],通过统计每个像素的梯度幅度值,p的取值区间为[0~7]。
5.根据权利要求1所述的一种自适应尺度的时空上下文目标跟踪方法,其特征在于,步骤S2具体包括:假设已获得的第t帧空间上下文模型ht(z),则第t+1帧的时空上下文模型Ht+1(z)的更新如下:
Ht+1(z)=(1-ρ)Ht(z)+ρht(z)
其中,ρ是一个学习速率参数。
第t+1帧中目标置信图lt+1(z)的表达式为:
其中,F-1(·)是逆傅立叶变换;F(·)是傅立叶变换;⊙表示点乘;It+1(z)表示t+1帧时点z处的灰度值;表示权重函数,通常距离越近的点权重值越大。
目标的中心位置是目标置信图的概率最大值,表达式为:
其中,表示围绕的相邻区域。
6.根据权利要求1所述的一种自适应尺度的时空上下文目标跟踪方法,其特征在于:目标尺度更新方案包括:
s′t表示利用连续两帧图像估计的目标尺度,将s′t初始值设置为1,因为两个连续帧之间的尺度变化是连续和微小的,为了防止尺度因子的突变,引入一个更新因子v(st),公式如下:
因此,最终更新的目标尺度表示为:
其中,表示第t帧目标置信图的概率最大值,lt(·)表示目标置信图,st+1是第t+1帧中估计目标尺度,是连续n帧的尺度平均值,λ是固定滤波参数,d是步长参数,σt+1是第t+1帧中的尺度参数;n为目标区域内的像素个数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810472856.7A CN108805902A (zh) | 2018-05-17 | 2018-05-17 | 一种自适应尺度的时空上下文目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810472856.7A CN108805902A (zh) | 2018-05-17 | 2018-05-17 | 一种自适应尺度的时空上下文目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108805902A true CN108805902A (zh) | 2018-11-13 |
Family
ID=64092614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810472856.7A Pending CN108805902A (zh) | 2018-05-17 | 2018-05-17 | 一种自适应尺度的时空上下文目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108805902A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109672874A (zh) * | 2018-10-24 | 2019-04-23 | 福州大学 | 一种时空一致的立体视频颜色校正方法 |
CN109740448A (zh) * | 2018-12-17 | 2019-05-10 | 西北工业大学 | 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法 |
CN110660079A (zh) * | 2019-09-11 | 2020-01-07 | 昆明理工大学 | 一种基于时空上下文的单目标跟踪方法 |
CN110738685A (zh) * | 2019-09-09 | 2020-01-31 | 桂林理工大学 | 一种融合颜色直方图响应的时空上下文跟踪方法 |
CN110910416A (zh) * | 2019-11-20 | 2020-03-24 | 河北科技大学 | 运动障碍物跟踪方法、装置及终端设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107093189A (zh) * | 2017-04-18 | 2017-08-25 | 山东大学 | 基于自适应颜色特征和时空上下文的目标跟踪方法及*** |
CN107122780A (zh) * | 2017-02-28 | 2017-09-01 | 青岛科技大学 | 基于时空特征点的互信息与时空分布熵的行为识别方法 |
-
2018
- 2018-05-17 CN CN201810472856.7A patent/CN108805902A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107122780A (zh) * | 2017-02-28 | 2017-09-01 | 青岛科技大学 | 基于时空特征点的互信息与时空分布熵的行为识别方法 |
CN107093189A (zh) * | 2017-04-18 | 2017-08-25 | 山东大学 | 基于自适应颜色特征和时空上下文的目标跟踪方法及*** |
Non-Patent Citations (1)
Title |
---|
武亚宁: "基于时空上下文的目标跟踪算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109672874A (zh) * | 2018-10-24 | 2019-04-23 | 福州大学 | 一种时空一致的立体视频颜色校正方法 |
CN109740448A (zh) * | 2018-12-17 | 2019-05-10 | 西北工业大学 | 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法 |
CN109740448B (zh) * | 2018-12-17 | 2022-05-10 | 西北工业大学 | 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法 |
CN110738685A (zh) * | 2019-09-09 | 2020-01-31 | 桂林理工大学 | 一种融合颜色直方图响应的时空上下文跟踪方法 |
CN110660079A (zh) * | 2019-09-11 | 2020-01-07 | 昆明理工大学 | 一种基于时空上下文的单目标跟踪方法 |
CN110910416A (zh) * | 2019-11-20 | 2020-03-24 | 河北科技大学 | 运动障碍物跟踪方法、装置及终端设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108805902A (zh) | 一种自适应尺度的时空上下文目标跟踪方法 | |
CN109741318B (zh) | 基于有效感受野的单阶段多尺度特定目标的实时检测方法 | |
CN107748873B (zh) | 一种融合背景信息的多峰目标跟踪方法 | |
CN107169994B (zh) | 基于多特征融合的相关滤波跟踪方法 | |
CN105931269A (zh) | 一种视频中的目标跟踪方法及装置 | |
CN108416266A (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
CN111160120A (zh) | 基于迁移学习的Faster R-CNN物品检测方法 | |
CN107424171A (zh) | 一种基于分块的抗遮挡目标跟踪方法 | |
Ardianto et al. | Real-time traffic sign recognition using color segmentation and SVM | |
CN111652869B (zh) | 基于深度学习的板坯空洞识别方法、***、介质及终端 | |
CN111915583B (zh) | 复杂场景中基于车载红外热像仪的车辆和行人检测方法 | |
CN105374049B (zh) | 一种基于稀疏光流法的多角点跟踪方法及装置 | |
CN108875655A (zh) | 一种基于多特征的实时目标视频跟踪方法及*** | |
CN110543848B (zh) | 一种基于三维卷积神经网络的驾驶员动作识别方法及装置 | |
CN105868734A (zh) | 基于bow图像表征模型的输电线路大型施工车辆识别方法 | |
CN111046746A (zh) | 一种车牌检测方法及装置 | |
CN113888461A (zh) | 基于深度学习的小五金件缺陷检测方法、***及设备 | |
CN105740751A (zh) | 一种目标检测与识别的方法和*** | |
CN106778540A (zh) | 停车检测准确的基于双层背景的停车事件检测方法 | |
CN103020580B (zh) | 快速人脸检测方法 | |
CN111524113A (zh) | 提升链异常识别方法、***、设备及介质 | |
CN112052778A (zh) | 一种交通标志识别方法以及相关装置 | |
CN113065379B (zh) | 融合图像质量的图像检测方法、装置、电子设备 | |
CN117557784B (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN111460917A (zh) | 基于多模态信息融合的机场异常行为检测***及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181113 |