CN106991689A - 基于fhog和颜色特征的目标跟踪方法及gpu加速 - Google Patents

基于fhog和颜色特征的目标跟踪方法及gpu加速 Download PDF

Info

Publication number
CN106991689A
CN106991689A CN201710216523.3A CN201710216523A CN106991689A CN 106991689 A CN106991689 A CN 106991689A CN 201710216523 A CN201710216523 A CN 201710216523A CN 106991689 A CN106991689 A CN 106991689A
Authority
CN
China
Prior art keywords
image
fhog
feature
parallel
gpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710216523.3A
Other languages
English (en)
Other versions
CN106991689B (zh
Inventor
李云松
刘金花
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201710216523.3A priority Critical patent/CN106991689B/zh
Publication of CN106991689A publication Critical patent/CN106991689A/zh
Application granted granted Critical
Publication of CN106991689B publication Critical patent/CN106991689B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于FHOG和颜色特征的目标跟踪方法及GPU加速,可实现对视频中的目标的高速准确跟踪。本发明通过提取FHOG、color‑naming基础颜色和色度饱和度三者的组合特征,提高了目标跟踪准确率;通过使用以0.006为等差值的7级自适应尺度变换,提高了对尺度变换场景下目标的跟踪准确率;通过使用计算机图形处理器GPU,并行加速改进后的KCF目标跟踪算法,极大的提高了跟踪速度。

Description

基于FHOG和颜色特征的目标跟踪方法及GPU加速
技术领域
本发明属于计算机技术领域,更进一步涉及计算机视频目标跟踪技术领域中的一种基于FHOG和颜色特征的目标跟踪方法及GPU加速,主要应用于视频目标的实时准确跟踪。
背景技术
高性能的目标跟踪方法是计算机视觉领域的核心技术。目前的目标跟踪方法分为两类:一类是基于特征匹配的跟踪方法,该方法主要是构建能够代表目标的特征,然后通过特征间的匹配度来判断目标的位置;另一类是基于目标与背景分离的跟踪方法,该方法运用机器学习的方法学习一个能够分离目标与背景的分类器,学习过程一般为在线训练过程,通过学习到的分类器来判断目标位置。相比之下,前者具有计算简单,但对具有光照、遮挡、尺度等因素变化的情况不能很好地处理。后者在一定程度上能够解决前者遇到的问题,而具有较高的鲁棒性,但其计算复杂度较高。基于目标与背景分离的跟踪方法是目前的主流跟踪方法。
西安电子科技大学提出的专利申请“使用GPU加速的Struck的目标跟踪方法”(申请日:2015年3月14日,申请号:201510112791.1,公开号:CN 104680558A)中公开了一种GPU硬件加速的struck目标跟踪方法。该方法采用基于结构化支持向量机模型structuredSVM,学习一个能区别目标和背景的分类器,通过学习到的分类器来判断目标的位置,提高了跟踪速度,通过使用GPU并行计算提高了跟踪速度。但是该方法存在的不足是,采用了基于结构化支持向量机模型structured SVM,跟踪准确率不高,跟踪速度比较慢。
上海宝宏软件有限公司提出的专利申请“一种实时的视频跟踪方法”(申请日:2016年5月13日,申请号:201610314297.8,公开日:CN 106023248 A)中公开的一种将跟踪目标分割成字块的方式压缩图像特征,利用KCF(核化相关滤波器)算法计算特征向量之间的相关性以达到视频跟踪的目的。该方法虽然具有性能高的优点,满足一般场景下实时性的需求。但是该方法仍然存在的不足是,该方法采用了灰度直方图和色度直方图特征的组合,跟踪准确率不高;采用了串行计算的方法进行特征提取,模型训练,目标检测,处理速度慢。
2014年,Henriques,J.F.,Caseiro,R.,Martins,P.,和Batista,J.发表的论文“High-Speed Tracking with Kernelized Correlation Filters”(Pattern Analysisand Machine Intelligence,IEEE Transactions on)提出了一种基于二维傅立叶变换的跟踪方法,即KCF算法。该算法提取FHOG特征,使用循环偏移构建分类器的训练样本,利用循环矩阵的特性把问题的求解变换到傅里叶域,降低了算法复杂度,一定程度上加快了跟踪速度。但是,该算法中仍存在的不足是,采用串行计算的方法进行训练和检测导致跟踪速度不够快,只使用FHOG特征跟踪准确率不高,无法适应目标尺度变化等。
发明内容
本发明的目的在于克服上述现有技术的不足,提供了一种GPU加速基于FHOG和颜色特征的目标跟踪方法,可实现对视频中的目标的高速准确跟踪。
本发明通过提取FHOG、color-naming基础颜色和色度饱和度三者的组合特征,提高了目标跟踪准确率;通过使用以0.006为等差值的7级自适应尺度变换,提高了对尺度变换场景下目标的跟踪准确率;通过使用计算机图形处理器GPU,并行加速改进后的KCF目标跟踪算法,极大的提高了跟踪速度。
为实现上述目的,本发明的步骤基本包括如下:
1、一种基于FHOG和颜色特征的目标跟踪方法及GPU加速,包括如下步骤:
(1)获取图像,传入GPU:
(1a)将待跟踪图像序列中的一帧图像加载到计算机主机内存中;
(1b)将加载到计算机内存的图像复制到GPU内存中;
(2)判断获取的图像是否是待跟踪图像序列中的第1帧图像;若是,则执行步骤(12),否则,执行步骤(3);
(3)判断是否使用自适应尺度变换,若是,则执行步骤(4),否则执行步骤(8);
(4)多尺度提取图像:
(4a)使用7级尺度提取候选区域图像;
(4b)缩放图像到特定尺寸,得到搜索矩形框图像;
(5)并行提取FHOG和颜色特征;
(5a)并行提取FHOG特征;
(5b)并行提取color-naming基础颜色特征;
(5c)并行提取HS色度-饱和度特征;
(5d)三种特征串联得到44维新特征,加汉宁窗滤波;
(6)计算互相关矩阵和最大响应值;
(7)计算所有尺度中的最大响应:
(7a)从所有7个尺度对应的响应值fzmax中取最大值作为最终的最大响应值fzmax
(7b)执行步骤(11);
(8)提取搜索矩形框处的图像;
扩展目标矩形框,得到搜索矩形框,从待检测图像中提取搜索矩形框处的目标图像;
(9)并行提取FHOG和颜色特征;
(9a)并行提取FHOG特征;
(9b)并行提取color-naming基础颜色特征;
(9c)并行提取HS色度-饱和度特征;
(5d)三种特征串联得到44维新特征,加汉宁窗滤波。
(10)计算互相关矩阵和最大响应值;
(11)更新目标矩形框;
(11a)使用最大响应值对应的坐标更新跟踪目标的目标矩形框。
(11b)执行步骤(13);
(12)初始化目标矩形框;
从输入图像中选取一个包含跟踪目标在内的矩形框,将所选矩形框作为跟踪目标的目标矩形框;
(13)提取搜索矩形框处的图像;
扩展目标矩形框得到搜索矩形框,从待检测图像中提取搜索矩形框处的目标图像;
(14)并行提取FHOG和颜色特征;
(14a)并行提取FHOG特征;
(14b)并行提取color-naming基础颜色特征;
(14c)并行提取HS色度-饱和度特征;
(14d)三种特征串联得到44维新特征,加汉宁窗滤波;
(15)计算自相关矩阵;
(16)更新跟踪模型参数;
(17)判断是否加载完所有帧的图像;
判断是否加载完所有的图像;若是,则执行步骤(18),否则,执行步骤(1);
(18)结束跟踪。
本发明与现有技术相比较,具有如下优点:
第一,本发明通过步骤(5)、步骤(9)、步骤(14),提取跟踪目标图像的FHOG、color-naming基础颜色、色度饱和度组合特征,并使用GPU并行加速,克服了现有技术中跟踪准确率低,提取特征慢的问题,提高跟踪准确率的同时提高跟踪速度。
第二,本发明通过步骤(4)、步骤(5)、步骤(6)、步骤(7),使用以0.006为等差值的7级自适应尺度变换方法,并使用GPU并行加速,提高跟踪准确率的同时提高跟踪速度。
第三,本发明采用计算机图像处理器GPU,并行加速改进后的目标跟踪算法,与CPU处理相比大幅提高了跟踪目标的速度。
附图说明
图1是本发明的流程图;
具体实施方式
下面结合附图对本发明做详细的描述。
参照附图1,对本发明的实现步骤做详细的描述。
步骤1,获取图像,传入GPU:
将待跟踪图像序列中的一帧图像加载到计算机主机内存中,然后将加载到计算机内存的图像复制到GPU内存中;
步骤2,判断获取的图像是否是待跟踪图像序列中的第1帧图像;若是,则执行步骤(12),否则,执行步骤(3);
步骤3,判断是否使用自适应尺度变换,若是,则执行步骤(4),否则执行步骤(8)。
步骤4,多尺度提取图像:
首先,使用7级尺度提取候选区域图像,7级尺度对应的尺度系数是以0.006为等差指的等差数列,分别为0.982,0.988,0.994,1.00,1.006,1.012,1.018。
然后,缩放图像到特定尺寸,将缩放矩形框的宽、高分别扩展2.5倍作为缩放搜索矩形框,缩放搜索矩形框的宽为2.5*Lp*Wori,高为2.5*Lp*Hori,其中Wori是目标矩形框的宽度,Hori是目标矩形框的高度,从待检测图像帧中提取缩放搜索矩形框处的跟踪目标图像。
最后,使用线性差值方法将跟踪目标图像缩放为宽为2.5*Wori,高为2.5*Hori的搜索矩形框。
步骤5,并行提取FHOG和颜色特征。
FHOG和颜色特征是指31维的FHOG特征、11维的color-naming基础颜色特征和2维的HS色度-饱和度特征,串联组成的44维新特征。
(5a)并行提取FHOG特征;
第一步,将图像转换为灰度图像。
第二步,计算梯度,统计梯度直方图,得到18维的方向敏感特征。
(1)计算梯度利用水平梯度积分算子[-1,0,1]与垂直梯度积分算子[-1,0,1]-1,并行计算水平方向梯度Gx和垂直方向梯度Gy。根据公式计算得到梯度幅值Gm,如果幅值等于0,则将幅值修正为1/e10f,如果是非0,则保持不变。利用查表法,以的结果作为索引值计算梯度方向Go
(2)并行离散化梯度方向。按梯度的方向,将0~2π平均划分为18个区间,即标记为区间1,区间2,……,区间18。将梯度方向Go划入最邻近区间。
(3)并行计算梯度方向直方图。扩展梯度图像边缘,每个线程独自计算梯度直方图,并按梯度方向分成18层,得到(Wb+2)*(Hb+2)*18的梯度直方图数据后,裁剪直方图数据的边缘,最终得到位于18个区间的总大小为Wb*Hb*18的方向敏感特征向量R1,其中,符号表示下取整操作。
第三步,归一化特征。
(1)计算梯度能量。计算梯度能量的计算公式如下:
其中,Nδ,γ(i,j)是梯度能量,δ,γ∈{-1,1},因此对于每个(i,j)对应四种梯度能量,分别是N-1,-1(i,j),N+1,-1(i,j),N+1,+1(i,j),N-1,+1(i,j),ε是个很小的数。D(i,j)是9维的方向不敏感特征向量,它由18维的方向敏感特征向量得到,计算公式如下:
Dk(i,j)=Ck(i,j)+Ck+9(i,j)
其中Dk(i,j)表示9维方向不敏感特征向量D(i,j)的第k维的数据,Ck(i,j)表示18维方向敏感特征向量C(i,j)的第k维数据,k=0,1,2,……,8。
使用GPU核融合加速方法,将9维的方向不敏感特征向量Dk(i,j)的计算和梯度能量Nδ,γ(i,j)的计算放在GPU的同一个核中计算,即使用自己归纳的公式计算:
其中,Ck(i,j)表示18维方向敏感特征向量C(i,j)的第k维数据,k=0,1,2,……,8
(2)根据如下公式
计算得到归一化的18维方向敏感特征向量R1。其中,C(i,j)是18维的方向敏感特征的特征矢量;Tα是截断函数,表示对于大于0.2的值,将其赋值为0.2;Nδ,γ(i,j)是梯度能量,δ,γ∈{-1,1},ε是个很小的数。
(3)使用GPU循环融合方法,在同一个循环中,计算R1的同时,使用一个经过自己归纳的表达式
R2k(i,j)=Tα(R1k(i,j)+R1k+9(i,j))
计算归一化的9维方向不敏感特征向量R2,其中k表示R1k(i,j)的第k维的数据,k=0,1,2,……,8。
(4)在同一个循环中,计算R1的同时,累加18个维度的R1k(i,j),k=0,1,2,……,17,得到4维纹理特征向量R3。
第四步,串联归一化后的方向敏感特征R1、方向不敏感特征R2和纹理特征向量R3,得到31维FHOG特征。
在以上处理步骤中,其并行方法为:对每个线程块利用16×16个线程来并行提取特征,假设数据块大小为w×h,则共计m×n个线程块,其中m和n按照如下公式计算:
(5b)并行提取color-naming基础颜色特征;
将原始图像分成16*16大小的图像块,每个图像块使用GPU中一个线程块来计算,每个线程计算一个像素的color-naming特征。使用查表法将RGB图像转换成11维的color-naming特征F2。
(5c)并行提取HS色度-饱和度特征;
第一步,图像归一化。
第二步,根据下面的公式,将图像从RGB空间转换到HSI空间,并将色度H、饱和度S特征串联得到2维的色度-饱和度特征。
计算反余弦函数的时候使用查表法;计算的时候,如果结果为0,需要将其修正为一个1/e10f。
在以上处理步骤中,其并行方法为:对每个线程块利用16×16个线程来并行提取特征,假设数据块大小为w×h,则共计m×n个线程块,其中m和n按照如下公式计算:
(5d)三种特征串联得到44维新特征,加汉宁窗滤波。
步骤6,计算互相关矩阵和最大响应值。
第一步,调用GPU的库函数傅里叶变换函数cufftExecC2C将提取的图像特征zf转换到傅里叶域。
第二步,使用高斯核计算互相关矩阵kxz′,计算公式如下:
计算x和z的L2-范数平方和||x||2和||z||2时,利用共享内存,使用GPU基于交替策略的规约算法加速求和运算。
第三步,利用互相关矩阵kxz′和模型参数α′计算响应值。调用GPU的库函数傅里叶变换函数cufftExecC2C将响应值转换到空域,计算最大响应值fzmax。计算最大值时,利用共享内存,使用GPU基于交替策略的规约算法,加速求最大值的运算。
步骤7,计算所有尺度中的最大响应:
(7a)从所有7个尺度对应的响应值fzmax中取最大值作为最终的最大响应值fmax
(7b)执行步骤11。
步骤8,提取搜索矩形框处的图像。
将目标矩形框的长、宽分别扩展2.5倍作为搜索矩形框。从待检测图像中提取搜索矩形框处的跟踪目标图像,2.5*Wori,高为2.5*Hori
步骤9,并行提取FHOG和颜色特征。
(9a)并行提取FHOG特征;
(9b)并行提取color-naming基础颜色特征;
(9c)并行提取HS色度-饱和度特征;
(5d)三种特征串联得到44维新特征,加汉宁窗滤波。
步骤10,计算互相关矩阵和最大响应值。
步骤11,更新目标矩形框。
(11a)使用最大响应点的坐标更新跟踪目标的目标矩形框,将目标矩形框的长、宽分别扩展2.5倍作为搜索矩形框,
(11b)执行步骤13。
步骤12,初始化目标矩形框。
从输入图像中选取一个包含跟踪目标在内的矩形框,将所选矩形框作为跟踪目标的目标矩形框。
步骤13,提取搜索矩形框处的图像。
扩展目标矩形框得到搜索矩形框,从待检测图像中提取搜索矩形框处的目标图像。
步骤14,并行提取FHOG和颜色特征。
(14a)并行提取FHOG特征;
(14b)并行提取color-naming基础颜色特征;
(14c)并行提取HS色度-饱和度特征;
(14d)三种特征串联得到44维新特征,加汉宁窗滤波。
步骤15,计算自相关矩阵。
调用GPU的库函数傅里叶变换函数cufftExecC2C将提取的图像特征xf转换到傅里叶域,计算自相关矩阵kxx′。
步骤16,更新跟踪模型参数。
第一步,根据以下公式计算当前帧训练得到的跟踪模型参数α′
y′表示回归值的DFT,kxx′表示自相关矩阵的DFT,λ表示正则化参数。
第二步,根据以下公式,更新跟踪模型参数αmodel′和
αmodel′=(1-β1)*αmodel′+β1*α′
其中β1是加权系数,不使用自适应尺度变换的时候,β1=0.02;在使用自适应尺度变换功能的时候,β1=0.01。
步骤17,判断是否加载完所有帧的图像;
判断是否加载完所有的图像;若是,则执行步骤18,否则,执行步骤1;
步骤18,结束跟踪。
对于本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及变形,而所有的这些改变以及变形都应该属于本发明权利要求的保护范围之内。

Claims (7)

1.一种基于FHOG和颜色特征的目标跟踪方法及GPU加速,其特征在于,包括如下步骤:
(1)获取图像,传入GPU:
(1a)将待跟踪图像序列中的一帧图像加载到计算机主机内存中;
(1b)将加载到计算机内存的图像复制到GPU内存中;
(2)判断获取的图像是否是待跟踪图像序列中的第1帧图像;若是,则执行步骤(12),否则,执行步骤(3);
(3)判断是否使用自适应尺度变换,若是,则执行步骤(4),否则执行步骤(8);
(4)多尺度提取图像:
(4a)使用7级尺度提取候选区域图像;
(4b)缩放图像到特定尺寸,得到搜索矩形框图像;
(5)并行提取FHOG和颜色特征;
(5a)并行提取FHOG特征;
(5b)并行提取color-naming基础颜色特征;
(5c)并行提取HS色度-饱和度特征;
(5d)三种特征串联得到44维新特征,加汉宁窗滤波;
(6)计算互相关矩阵和最大响应值;
(7)计算所有尺度中的最大响应:
(7a)从所有7个尺度对应的响应值fzmax中取最大值作为最终的最大响应值fmax
(7b)执行步骤(11);
(8)提取搜索矩形框处的图像;
扩展目标矩形框,得到搜索矩形框,从待检测图像中提取搜索矩形框处的目标图像;
(9)并行提取FHOG和颜色特征;
(9a)并行提取FHOG特征;
(9b)并行提取color-naming基础颜色特征;
(9c)并行提取HS色度-饱和度特征;
(5d)三种特征串联得到44维新特征,加汉宁窗滤波。
(10)计算互相关矩阵和最大响应值;
(11)更新目标矩形框;
(11a)使用最大响应值对应的坐标更新跟踪目标的目标矩形框。
(11b)执行步骤(13);
(12)初始化目标矩形框;
从输入图像中选取一个包含跟踪目标在内的矩形框,将所选矩形框作为跟踪目标的目标矩形框;
(13)提取搜索矩形框处的图像;
扩展目标矩形框得到搜索矩形框,从待检测图像中提取搜索矩形框处的目标图像;
(14)并行提取FHOG和颜色特征;
(14a)并行提取FHOG特征;
(14b)并行提取color-naming基础颜色特征;
(14c)并行提取HS色度-饱和度特征;
(14d)三种特征串联得到44维新特征,加汉宁窗滤波;
(15)计算自相关矩阵;
(16)更新跟踪模型参数;
(17)判断是否加载完所有帧的图像;
判断是否加载完所有的图像;若是,则执行步骤(18),否则,执行步骤(1);
(18)结束跟踪。
2.根据权利要求1所述的基于FHOG和颜色特征的目标跟踪方法及GPU加速,其特征在于,步骤(4a)所述的7级尺度对应的尺度系数是以0.006为等差值的等差数列,分别为0.982,0.988,0.994,1.00,1.006,1.012,1.018。
3.根据权利要求1所述的基于FHOG和颜色特征的目标跟踪方法及GPU加速,其特征在于,步骤(5)所述的FHOG和颜色特征是指31维的FHOG特征、11维的color-naming基础颜色特征和2维的HS色度-饱和度特征,串联组成的44维新特征。
4.根据权利要求1所述的基于FHOG和颜色特征的目标跟踪方法及GPU加速,其特征在于,步骤(5a)所述的并行提取FHOG特征的具体步骤为:
第一步,将图像转换为灰度图像;
第二步,计算梯度,统计梯度直方图,得到18维的方向敏感特征;
第三步,归一化特征;
(a)计算梯度能量。计算梯度能量的计算公式如下:
其中,Nδ,γ(i,j)是梯度能量,δ,γ∈{-1,1},因此对于每个(i,j)对应四种梯度能量,分别是N-1,-1(i,j),N+1,-1(i,j),N+1,+1(i,j),N-1,+1(i,j),ε是个很小的数;D(i,j)是9维的方向不敏感特征向量,它由18维的方向敏感特征向量得到,计算公式如下:
Dk(i,j)=Ck(i,j)+Ck+9(i,j)
其中Dk(i,j)表示9维方向不敏感特征D(i,j)的第k维的数据,Ck(i,j)表示18维方向敏感特征向量C(i,j)的第k维数据,k=0,1,2,……,8。
使用GPU核融合加速方法,将9维的方向不敏感特征向量Dk(i,j)的计算和梯度能量Nδ,γ(i,j)的计算放在GPU的同一个核中计算,即使用自己归纳的公式计算:
其中,Ck(i,j)表示18维方向敏感特征向量C(i,j)的第k维数据,k=0,1,2,……,8;
(b)根据如下公式
计算得到归一化的18维方向敏感特征向量R1;其中,C(i,j)是18维的方向敏感特征的特征矢量;Tα是截断函数,表示对于大于0.2的值,将其赋值为0.2;Nδ,γ(i,j)是梯度能量,δ,γ∈{-1,1},ε是个很小的数;
(c)使用GPU循环融合方法,在同一个循环中,计算R1的同时,使用一个经过自己归纳的表达式:
R2k(i,j)=Tα(R1k(i,j)+R1k+9(i,j))
计算归一化的9维方向不敏感特征向量R2,其中k表示R1k(i,j)的第k维的数据,k=0,1,2,……,8;
(d)在同一个循环中,计算R1的同时,累加18个维度的R1k(i,j),k=0,1,2,……,17,得到4维纹理特征向量R3;
第四步,串联归一化后的方向敏感特征R1、方向不敏感特征R2和纹理特征向量R3,得到31维FHOG特征;
在以上处理步骤中,其并行方法为:对每个线程块利用16×16个线程来并行提取特征,假设数据块大小为w×h,则共计m×n个线程块,其中m和n按照如下公式计算:
5.根据权利要求1所述的基于FHOG和颜色特征的目标跟踪方法及GPU加速,其特征在于,步骤(5c)所述的并行提取色度-饱和度特征的具体步骤为:
第一步,图像归一化;
第二步,根据下面的公式,将图像从RGB空间转换到HSI空间,并将色度H、饱和度S特征串联得到2维的色度-饱和度特征;
计算反余弦函数的时候使用查表法;计算 的时候,如果结果为0,需要将其修正为一个1/e10f;
在以上处理步骤中,其并行方法为:对每个线程块利用16×16个线程来并行提取特征,假设数据块大小为w×h,则共计m×n个线程块,其中m和n按照如下公式计算:
6.根据权利要求1所述的基于FHOG和颜色特征的目标跟踪方法及GPU加速,其特征在于,步骤(6)所述的计算互相关矩阵和最大响应值的具体步骤如下:
第一步,调用GPU的库函数傅里叶变换函数cufftExecC2C将提取的图像特征zf转换到傅里叶域;
第二步,使用高斯核计算互相关矩阵kxz′,计算公式如下:
计算x和z的L2-范数平方和||x||2和||z||2时,利用共享内存,使用GPU基于交替策略的规约算法加速求和运算;
第三步,利用互相关矩阵kxz′和模型参数α′计算响应值。调用GPU的库函数傅里叶变换函数cufftExecC2C将响应值转换到空域,计算最大响应值fzmax;计算最大值时,利用共享内存,使用GPU基于交替策略的规约算法,加速求最大值的运算。
7.根据权利要求1所述的基于FHOG和颜色特征的目标跟踪方法及GPU加速,其特征在于,步骤(16)所述的计算跟踪模型参数的具体步骤如下:
第一步,根据以下公式计算当前帧训练得到的跟踪模型参数:
y′表示回归值的DFT,kxx′表示自相关矩阵的DFT,λ表示正则化参数;
第二步,根据以下公式,更新跟踪模型参数αmodel′和x′fmodle
βmodel′=(1-β1)*αmodel′+β1*α′
x′fmodle=(1-β)*x′fmodle1*x′f
其中β1是加权系数,不使用自适应尺度变换的时候,β1=0.02;在使用自适应尺度变换功能的时候,β1=0.01。
CN201710216523.3A 2017-04-05 2017-04-05 基于fhog和颜色特征的目标跟踪方法及gpu加速 Active CN106991689B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710216523.3A CN106991689B (zh) 2017-04-05 2017-04-05 基于fhog和颜色特征的目标跟踪方法及gpu加速

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710216523.3A CN106991689B (zh) 2017-04-05 2017-04-05 基于fhog和颜色特征的目标跟踪方法及gpu加速

Publications (2)

Publication Number Publication Date
CN106991689A true CN106991689A (zh) 2017-07-28
CN106991689B CN106991689B (zh) 2019-12-31

Family

ID=59416287

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710216523.3A Active CN106991689B (zh) 2017-04-05 2017-04-05 基于fhog和颜色特征的目标跟踪方法及gpu加速

Country Status (1)

Country Link
CN (1) CN106991689B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491786A (zh) * 2017-08-15 2017-12-19 电子科技大学 一种烟草收购重复过磅行为自动视觉检测与识别方法
CN107918765A (zh) * 2017-11-17 2018-04-17 中国矿业大学 一种移动目标检测并追踪***及其方法
CN107977980A (zh) * 2017-12-06 2018-05-01 北京飞搜科技有限公司 一种目标跟踪方法、设备以及可读介质
CN108121945A (zh) * 2017-11-14 2018-06-05 深圳市深网视界科技有限公司 一种多目标检测跟踪方法、电子设备及存储介质
CN108198192A (zh) * 2018-01-15 2018-06-22 任俊芬 一种基于深度学习的高精度快速人体分割方法
CN109034193A (zh) * 2018-06-20 2018-12-18 上海理工大学 多特征融合与尺度自适应核相关滤波跟踪方法
CN109461170A (zh) * 2018-09-20 2019-03-12 西安电子科技大学 基于fpga的超高速目标跟踪方法、计算机视觉***
CN110895701A (zh) * 2019-06-12 2020-03-20 河南理工大学 基于cn和fhog的森林火灾在线识别方法及装置
CN110895820A (zh) * 2019-03-14 2020-03-20 河南理工大学 一种基于kcf的尺度自适应目标跟踪方法
CN111145217A (zh) * 2019-12-27 2020-05-12 湖南华诺星空电子技术有限公司 一种基于kcf的无人机跟踪方法
CN111862160A (zh) * 2020-07-23 2020-10-30 中国兵器装备集团自动化研究所 一种基于arm平台的目标跟踪方法、介质和***
CN112396065A (zh) * 2020-10-19 2021-02-23 北京理工大学 基于相关滤波的尺度自适应的目标跟踪方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103020986A (zh) * 2012-11-26 2013-04-03 哈尔滨工程大学 一种运动目标跟踪方法
CN104200216A (zh) * 2014-09-02 2014-12-10 武汉大学 一种多特征提取逐步求精的高速移动目标跟踪算法
CN104680558A (zh) * 2015-03-14 2015-06-03 西安电子科技大学 使用GPU硬件加速的Struck目标跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103020986A (zh) * 2012-11-26 2013-04-03 哈尔滨工程大学 一种运动目标跟踪方法
CN104200216A (zh) * 2014-09-02 2014-12-10 武汉大学 一种多特征提取逐步求精的高速移动目标跟踪算法
CN104680558A (zh) * 2015-03-14 2015-06-03 西安电子科技大学 使用GPU硬件加速的Struck目标跟踪方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
JOAO F. HENRIQUES ET AL: ""High-Speed Tracking with Kernelized Correlation Filters"", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
JUN ZHANG ET AL: "《2012 International Conference on Control Engineering and Communication Technology》", 17 January 2013 *
宋长贺 等: ""分布场的多特征融合目标跟踪方法"", 《西安电子科技大学学报(自然科学版)》 *
胡燕: ""基于GPU并行计算的目标跟踪快速算法研究"", 《中国优秀硕士学位论文全文数据库-信息科技辑》 *
袁国武 等: ""一种结合了纹理和颜色的运动目标跟踪算法"", 《计算机应用与软件》 *
赵嵩 等: ""GPU并行实现多特征融合粒子滤波目标跟踪算法"", 《微电子学与计算机》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491786B (zh) * 2017-08-15 2020-10-20 电子科技大学 一种烟草收购重复过磅行为自动视觉检测与识别方法
CN107491786A (zh) * 2017-08-15 2017-12-19 电子科技大学 一种烟草收购重复过磅行为自动视觉检测与识别方法
CN108121945A (zh) * 2017-11-14 2018-06-05 深圳市深网视界科技有限公司 一种多目标检测跟踪方法、电子设备及存储介质
CN107918765A (zh) * 2017-11-17 2018-04-17 中国矿业大学 一种移动目标检测并追踪***及其方法
CN107977980A (zh) * 2017-12-06 2018-05-01 北京飞搜科技有限公司 一种目标跟踪方法、设备以及可读介质
CN107977980B (zh) * 2017-12-06 2021-01-05 北京飞搜科技有限公司 一种目标跟踪方法、设备以及可读介质
CN108198192A (zh) * 2018-01-15 2018-06-22 任俊芬 一种基于深度学习的高精度快速人体分割方法
CN109034193A (zh) * 2018-06-20 2018-12-18 上海理工大学 多特征融合与尺度自适应核相关滤波跟踪方法
CN109461170A (zh) * 2018-09-20 2019-03-12 西安电子科技大学 基于fpga的超高速目标跟踪方法、计算机视觉***
CN109461170B (zh) * 2018-09-20 2021-11-16 西安电子科技大学 基于fpga的超高速目标跟踪方法、计算机视觉***
CN110895820A (zh) * 2019-03-14 2020-03-20 河南理工大学 一种基于kcf的尺度自适应目标跟踪方法
CN110895820B (zh) * 2019-03-14 2023-03-24 河南理工大学 一种基于kcf的尺度自适应目标跟踪方法
CN110895701A (zh) * 2019-06-12 2020-03-20 河南理工大学 基于cn和fhog的森林火灾在线识别方法及装置
CN110895701B (zh) * 2019-06-12 2023-03-24 河南理工大学 基于cn和fhog的森林火灾在线识别方法及装置
CN111145217A (zh) * 2019-12-27 2020-05-12 湖南华诺星空电子技术有限公司 一种基于kcf的无人机跟踪方法
CN111862160A (zh) * 2020-07-23 2020-10-30 中国兵器装备集团自动化研究所 一种基于arm平台的目标跟踪方法、介质和***
CN111862160B (zh) * 2020-07-23 2023-10-13 中国兵器装备集团自动化研究所有限公司 一种基于arm平台的目标跟踪方法、介质和***
CN112396065A (zh) * 2020-10-19 2021-02-23 北京理工大学 基于相关滤波的尺度自适应的目标跟踪方法及***

Also Published As

Publication number Publication date
CN106991689B (zh) 2019-12-31

Similar Documents

Publication Publication Date Title
CN106991689A (zh) 基于fhog和颜色特征的目标跟踪方法及gpu加速
CN104573731B (zh) 基于卷积神经网络的快速目标检测方法
Luo et al. Non-local deep features for salient object detection
CN108038476B (zh) 一种基于边缘检测与sift的人脸表情识别特征提取方法
Flores et al. Application of convolutional neural networks for static hand gestures recognition under different invariant features
CN104809731B (zh) 一种基于梯度二值化的旋转尺度不变场景匹配方法
CN107967482A (zh) 图标识别方法及装置
CN110232387B (zh) 一种基于kaze-hog算法的异源图像匹配方法
CN111753828A (zh) 一种基于深度卷积神经网络的自然场景水平文字检测方法
CN110929748A (zh) 一种基于深度学习的运动模糊图像特征匹配方法
CN110569782A (zh) 一种基于深度学习目标检测方法
CN108021869A (zh) 一种结合高斯核函数的卷积神经网络跟踪方法
CN104123554A (zh) 基于mmtd的sift图像特征提取方法
CN107862680A (zh) 一种基于相关滤波器的目标跟踪优化方法
CN113011253B (zh) 基于ResNeXt网络的人脸表情识别方法、装置、设备及存储介质
CN110827312A (zh) 一种基于协同视觉注意力神经网络的学习方法
CN109858494A (zh) 一种低对比度图像中显著性目标检测方法及装置
CN112801092B (zh) 一种自然场景图像中字符元素检测方法
US20230386023A1 (en) Method for detecting medical images, electronic device, and storage medium
CN112348767A (zh) 基于物体边缘检测和特征匹配的木材计数模型
Yang et al. Intelligent collection of rice disease images based on convolutional neural network and feature matching
CN106846366B (zh) 使用gpu硬件的tld视频运动目标跟踪方法
CN115082551A (zh) 一种基于无人机航拍视频的多目标检测的方法
CN106033550B (zh) 目标跟踪方法及装置
Estrada et al. Appearance-based keypoint clustering

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant