CN108830878B - 一种基于fpn神经网络的目标跟踪方法 - Google Patents
一种基于fpn神经网络的目标跟踪方法 Download PDFInfo
- Publication number
- CN108830878B CN108830878B CN201810329415.1A CN201810329415A CN108830878B CN 108830878 B CN108830878 B CN 108830878B CN 201810329415 A CN201810329415 A CN 201810329415A CN 108830878 B CN108830878 B CN 108830878B
- Authority
- CN
- China
- Prior art keywords
- neural network
- tracking
- fpn
- target
- fourier transform
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 27
- 239000011159 matrix material Substances 0.000 claims description 30
- 238000012549 training Methods 0.000 claims description 16
- 238000005070 sampling Methods 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000013139 quantization Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 claims description 3
- 238000005215 recombination Methods 0.000 claims 1
- 230000006798 recombination Effects 0.000 claims 1
- 230000009466 transformation Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 6
- 239000010410 layer Substances 0.000 description 21
- 238000013527 convolutional neural network Methods 0.000 description 4
- 125000004122 cyclic group Chemical group 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 241000195940 Bryophyta Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于FPN神经网络的目标跟踪方法。该方法不再使用传统的VGG深度神经网络,而是改用FPN深度神经网络。利用FPN深度神经网络中对神经网络浅层网络输出的深度特征图所具有的空间信息和深层网络输出的深度特征图所具有的判别能力很好的融合能力,从而提高目标跟踪精度。该方法是一种实时鲁棒性的跟踪算法,在不同的跟踪场景中取得了不错的效果。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于FPN神经网络的目标跟踪方法。
背景技术
目标跟踪由于其在行为分析、车辆导航、人机交互、医学成像、视频监控等众多领域都有着广阔的应用,从而成为计算机视觉技术最活跃的研究之一。目标跟踪是指在给定视频第一帧中的目标位置,对之后的每一帧进行目标定位。目标跟踪的核心问题紧跟随着时间不断变化的目标。尽管近年来在国内外学者的不断研究下,目标跟踪算法得到了迅速发展,但在光照变化剧烈、目标快速运动、部分遮挡等情况下仍然无法取得很好效果。
近年来,国内外学者提出了多种跟踪算法,主要可以分成两类:一类是基于对于目标本身进行描述和刻画的生成式模型;另一类旨在将目标和背景分离开的判别式模型。生成式模型重点在于建立目标外观模型的表征,虽然构建有效的外观模型以处理跟踪中的各种具有挑战性的情况至关重要,但是与此同时,也会增加很大的计算复杂度,并且还会丢弃了可用于更好地将对象与背景分离的目标区域周围的有用信息;判别式模型将跟踪问题转换为目标和背景的二分类问题,即把跟踪的目标作为前景,利用在线学习或离线训练的判断器来区分前景目标和背景,从而得到前景目标的位置。在进行判断前往往会进行特征提取,以作为判断依据提高判断的精确度,但是这也会导致有大量的候选样本需要进行特征提取,使得难以达到实时性。
相关滤波是一种传统的信号处理方法,其描述了两个样本之间的相似程度。2010年MOSSE算法将其引入到目标跟踪中,从而使得跟踪算法速度达到高速状态,但是由于其采用的是随机采样,从而导致正负训练数目不足而使得精度较低。2012年CSK算法基于MOSSE算法通过建立循环位移的结构将目标进行稠密采样,以此增加正负样本的数目,以此解决目标跟踪之中训练样本不足的问题。除此之外,通过对于这些样本进行循环位移的处理,将对目标样本的计算转化到频率域中的求解,通过使用快速傅里叶变换的方法,大大地提高目标跟踪的效率。然而CSK算法采用的是单通道灰度特征,在特征表征上不够鲁棒。针对以上问题,2015年CN算法改用多通道的颜色特征,KCF算法改用多通道HOG特征,使得精度得到提高。但是CN算法和KCF算法在卷积求解中使用的固定大小的模板,从而导致模型没有尺度自适应的功能,DSST算法在原本的位置滤波器基础上增加了一个尺度滤波器,FDSST算法在DSST算法的基础上进行改进增加其跟踪速度,SAMF算法通过多尺度采样获取候选样本来使得模型具有尺度适应性。由于使用循环位移构造样本增加正负样本数量,图像像素会跨越边界,这样就产生的错误样本,使得分类器判别力降低,即所谓的边界效应。2015年提出的SRDCF算法通过引入成一种符合空间约束的正则化权重系数从而极大地减小了边界效应,提高了跟踪精度。基于相关滤波的跟踪算法属于判别式跟踪算法,其在进行判断前往往会进行特征提取,以作为判断依据提高判断的精确度,特征的表征能力在很大程度上决定了跟踪效果。自从2012年Hinton利用AlexNet深度卷积神经网络在ImageNet图像分类比赛中一举获得第一后,深度卷积神经网络开始兴起,其在许多任务中也展现了其令人惊叹的性能,特别是其所具有的强大的特征提取能力。2015年提出DeepSRDCF算法将VGG深度卷积神经网络应用于SRDCF算法中,使得精度得到进一步的提高,但是其只能使用单层神经网络所输出的特征图,这一局限极大地限制了其原本具有的潜力。2016年C-COT算法通过训练连续性卷积滤波器的方法,从而使得能有效地结合多层神经网络输出的深度特征图。但是C-COT算法结合多层神经网络输出的深度特征图的方式只是在高维度空间上进行简单地结合,并没有很好地融合神经网络浅层网络输出的深度特征图所具有的空间信息和深层网络输出的深度特征图所具有的判别能力。
针对目前跟踪算法不能和好地融合神经网络浅层网络输出的深度特征图所具有的空间信息和深层网络输出的深度特征图所具有的判别能力,需要设计一种跟踪算法,使其能很好地利用神经网络浅层网络输出的深度特征图所具有的空间信息和深层网络输出的深度特征图所具有的判别能力,从而使得跟踪精度得到提高。
发明内容
针对现有技术存在的缺陷,本发明提出了一种基于FPN神经网络的目标跟踪方法。
为达到上述目的,本发明采用如下技术方案:
一种基于FPN神经网络的目标跟踪方法,具体步骤包括:
步骤一、对于第一帧图像t=1,跟踪任务给予的第一帧跟踪目标的中心位置(xt,yt)以及跟踪目标区域大小信息(lt,ht),对跟踪目标区域进行一定比例的扩大(lp,t,hp,t)=α(lt,ht),根据目标中心位置(xt,yt)以及扩大后的跟踪目标区域大小(lp,t,hp,t)在该帧图像中进行采样,得到训练样本;其中xt为跟踪目标中心位置的横坐标,yt为跟踪目标中心位置的纵坐标,lt为原跟踪目标区域的长度,ht为原跟踪目标区域的宽度,α为扩大比率,lp,t为扩大后跟踪目标区域的长度,hp,t为扩大后跟踪目标区域的宽度;
步骤二、对于在第一帧图像中采样得到的训练样本T,将其输入到FPN神经网络中,提取出FPN神经网络中的P2层的特征其中T表示训练样本,ZT表示FPN神经网络中通道数为n的P2层特征,表示FPN神经网络中的P2层的特征ZT中第n维特征;
步骤四、对于下一帧图像t+1,根据上一帧跟踪目标中心位置(xt,yt)以及扩大后的跟踪目标区域大小(lp,t,hp,t),对上一帧扩大后的跟踪目标区域(lp,t,hp,t)进行多尺度缩放,得到多种候选区域大小{(lp,t+1,hp,t+1)}={β(lp,t,hp,t)},其中β为缩放尺度,β={0.985,0.99,,0.995,1,1.005,1.01,1.015}而后,根据上一帧跟踪目标中心位置(xt,yt)和多种候选区域大小{(lp,t+1,hp,t+1)}={β(lp,t,hp,t)},对该帧图像进行采样得到候选样本集X=(X1 X2 … X7);
步骤六、将候选样本集每个候选样本经过FPN神经网络后提取得到的P2层的特征ZX,用于响应图的计算,最终确定该帧跟踪目标的中心位置(xt+1,yt+1)和跟踪目标区域大小(lt+1,ht+1);
步骤七、在得到跟踪目标的中心位置和区域大小后,不断重复步骤一至步骤六、直到视频结束,完成对跟踪目标的中心位置以及区域大小的跟踪。
所述步骤三中的相关滤波器参数的计算,具体为:
最后,根据公式和计算得到相关滤波参数具体方法如下:先将矩阵A1分解为上三角矩阵L1和下三角矩阵U1,即A1=L1+U1;而后进行高斯-赛德尔迭代,得到实数化后的相关滤波器参数最后通过计算得到相关滤波器参数其中B为标准正交基组成的酉矩阵,其作用是将相关滤波器参数实数化。
所述步骤六具体方法如下:
最后,对于候选样本集中所有候选样本对应的响应图找出响应值最大的点(xt+1,yt+1),该点对应的位置即为该帧跟踪目标位置,该点对应的候选样本的大小即为扩大后的跟踪目标区域大小(lp,t+1,hp,t+1),将其根据扩大比率α,计算得到目标区域大小
与现有技术相比,本发明方法具有如下的突出的优点:
本方法不再使用传统的VGG深度神经网络,而是改用FPN深度神经网络,本发明利用FPN深度神经网络中对神经网络浅层网络输出的深度特征图所具有的空间信息和深层网络输出的深度特征图所具有的判别能力很好的融合能力,从而提高目标跟踪精度。该方法是一种实时鲁棒性的跟踪算法,在不同的跟踪场景中取得了不错的效果。
附图说明
图1为本发明的方法流程图。
具体实施方式
下面结合附图,对本发明的具体实施例做进一步的说明。
如图1所示,一种基于FPN神经网络的目标跟踪方法,具体步骤包括:
步骤一、对于第一帧图像t=1,跟踪任务给予的第一帧跟踪目标的中心位置(xt,yt)以及跟踪目标区域大小信息(lt,ht),对跟踪目标区域进行一定比例的扩大(lp,t,hp,t)=α(lt,ht),根据目标中心位置(xt,yt)以及扩大后的跟踪目标区域大小(lp,t,hp,t)在该帧图像中进行采样,得到训练样本;其中xt为跟踪目标中心位置的横坐标,yt为跟踪目标中心位置的纵坐标,lt为原跟踪目标区域的长度,ht为原跟踪目标区域的宽度,α为扩大比率,lp,t为扩大后跟踪目标区域的长度,hp,t为扩大后跟踪目标区域的宽度;
步骤二、对于在第一帧图像中采样得到的训练样本T,将其输入到FPN神经网络中,提取出FPN神经网络中的P2层的特征其中T表示训练样本,ZT表示FPN神经网络中通道数为n的P2层特征,表示FPN神经网络中的P2层的特征ZT中第n维特征;
最后,根据公式和计算得到相关滤波参数具体方法如下:先将矩阵A1分解为上三角矩阵L1和下三角矩阵U1,即A1=L1+U1;而后进行高斯-赛德尔迭代,得到实数化后的相关滤波器参数最后通过计算得到相关滤波器参数其中B为标准正交基组成的酉矩阵,其作用是将相关滤波器参数实数化。
步骤四、对于下一帧图像t+1,根据上一帧跟踪目标中心位置(xt,yt)以及扩大后的跟踪目标区域大小(lp,t,hp,t),对上一帧扩大后的跟踪目标区域(lp,t,hp,t)进行多尺度缩放,得到多种候选区域大小{(lp,t+1,hp,t+1)}={β(lp,t,hp,t)},其中β为缩放尺度,β={0.985,0.99,,0.995,1,1.005,1.01,1.015}而后,根据上一帧跟踪目标中心位置(xt,yt)和多种候选区域大小{(lp,t+1,hp,t+1)}={β(lp,t,hp,t)},对该帧图像进行采样得到候选样本集X=(X1 X2 … X7);
步骤六、将候选样本集每个候选样本经过FPN神经网络后提取得到的P2层的特征ZX,用于响应图的计算,最终确定该帧跟踪目标的中心位置(xt+1,yt+1)和跟踪目标区域大小(lt+1,ht+1);
最后,对于候选样本集中所有候选样本对应的响应图找出响应值最大的点(xt+1,yt+1),该点对应的位置即为该帧跟踪目标位置,该点对应的候选样本的大小即为扩大后的跟踪目标区域大小(lp,t+1,hp,t+1),将其根据扩大比率α,计算得到目标区域大小
步骤七、在得到跟踪目标的中心位置和区域大小后,不断重复步骤一至步骤六、直到视频结束,完成对跟踪目标的中心位置以及区域大小的跟踪。
Claims (4)
1.一种基于FPN神经网络的目标跟踪方法,其特征在于,具体步骤包括:
步骤一、对于第一帧图像t=1,跟踪任务给予的第一帧跟踪目标的中心位置(xt,yt)以及跟踪目标区域大小信息(lt,ht),对跟踪目标区域进行一定比例的扩大(lp,t,hp,t)=α(lt,ht),根据目标中心位置(xt,yt)以及扩大后的跟踪目标区域大小(lp,t,hp,t)在该帧图像中进行采样,得到训练样本;其中xt为跟踪目标中心位置的横坐标,yt为跟踪目标中心位置的纵坐标,lt为原跟踪目标区域的长度,ht为原跟踪目标区域的宽度,α为扩大比率,lp,t为扩大后跟踪目标区域的长度,hp,t为扩大后跟踪目标区域的宽度;
步骤二、对于在第一帧图像中采样得到的训练样本T,将其输入到FPN神经网络中,提取出FPN神经网络中的P2层的特征其中T表示训练样本,ZT表示FPN神经网络中通道数为n的P2层特征,表示FPN神经网络中的P2层的特征ZT中第n维特征;
步骤四、对于下一帧图像t+1,根据上一帧跟踪目标中心位置(xt,yt)以及扩大后的跟踪目标区域大小(lp,t,hp,t),对上一帧扩大后的跟踪目标区域(lp,t,hp,t)进行多尺度缩放,得到多种候选区域大小{(lp,t+1,hp,t+1)}={β(lp,t,hp,t)},其中β为缩放尺度,β={0.985,0.99,0.995,1,1.005,1.01,1.015},而后,根据上一帧跟踪目标中心位置(xt,yt)和多种候选区域大小{(lp,t+1,hp,t+1)}={β(lp,t,hp,t)},对该帧图像进行采样得到候选样本集X=(X1X2…X7);
步骤六、将候选样本集每个候选样本经过FPN神经网络后提取得到的P2层的特征ZX,用于响应图的计算,最终确定该帧跟踪目标的中心位置(xt+1,yt+1)和跟踪目标区域大小(lt+1,ht+1);
步骤七、在得到跟踪目标的中心位置和区域大小后,不断重复步骤一至步骤六、直到视频结束,完成对跟踪目标的中心位置以及区域大小的跟踪。
4.根据权利要求1所述的基于FPN神经网络的目标跟踪方法,其特征在于,所述步骤六具体方法如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810329415.1A CN108830878B (zh) | 2018-04-13 | 2018-04-13 | 一种基于fpn神经网络的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810329415.1A CN108830878B (zh) | 2018-04-13 | 2018-04-13 | 一种基于fpn神经网络的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108830878A CN108830878A (zh) | 2018-11-16 |
CN108830878B true CN108830878B (zh) | 2021-02-23 |
Family
ID=64155460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810329415.1A Active CN108830878B (zh) | 2018-04-13 | 2018-04-13 | 一种基于fpn神经网络的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108830878B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109741366B (zh) * | 2018-11-27 | 2022-10-18 | 昆明理工大学 | 一种融合多层卷积特征的相关滤波目标跟踪方法 |
CN109767456A (zh) * | 2019-01-09 | 2019-05-17 | 上海大学 | 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法 |
CN109740552A (zh) * | 2019-01-09 | 2019-05-10 | 上海大学 | 一种基于平行特征金字塔神经网络的目标跟踪方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105741316A (zh) * | 2016-01-20 | 2016-07-06 | 西北工业大学 | 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法 |
CN106506999A (zh) * | 2016-10-18 | 2017-03-15 | 天津大学 | 基于矩匹配的tdi‑cmos图像传感器fpn校正方法 |
CN106887011A (zh) * | 2017-01-20 | 2017-06-23 | 北京理工大学 | 一种基于cnn和cf的多模板目标跟踪方法 |
CN107016689A (zh) * | 2017-02-04 | 2017-08-04 | 中国人民解放军理工大学 | 一种尺度自适应的相关滤波对冲目标跟踪方法 |
CN107154024A (zh) * | 2017-05-19 | 2017-09-12 | 南京理工大学 | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 |
CN107767405A (zh) * | 2017-09-29 | 2018-03-06 | 华中科技大学 | 一种融合卷积神经网络的核相关滤波目标跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9613273B2 (en) * | 2015-05-19 | 2017-04-04 | Toyota Motor Engineering & Manufacturing North America, Inc. | Apparatus and method for object tracking |
-
2018
- 2018-04-13 CN CN201810329415.1A patent/CN108830878B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105741316A (zh) * | 2016-01-20 | 2016-07-06 | 西北工业大学 | 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法 |
CN106506999A (zh) * | 2016-10-18 | 2017-03-15 | 天津大学 | 基于矩匹配的tdi‑cmos图像传感器fpn校正方法 |
CN106887011A (zh) * | 2017-01-20 | 2017-06-23 | 北京理工大学 | 一种基于cnn和cf的多模板目标跟踪方法 |
CN107016689A (zh) * | 2017-02-04 | 2017-08-04 | 中国人民解放军理工大学 | 一种尺度自适应的相关滤波对冲目标跟踪方法 |
CN107154024A (zh) * | 2017-05-19 | 2017-09-12 | 南京理工大学 | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 |
CN107767405A (zh) * | 2017-09-29 | 2018-03-06 | 华中科技大学 | 一种融合卷积神经网络的核相关滤波目标跟踪方法 |
Non-Patent Citations (3)
Title |
---|
Feature Pyramid Networks for Object Detection;Tsung-Yi Lin et al.;《arXiv》;20170419;第1-10页 * |
Multi-kernel Correlation Filter for Visual Tracking;Ming TANG et al.;《2015 IEEE International Conference on Computer Vision》;20151231;第3038-3046页 * |
基于金字塔特征的核相关滤波跟踪算法;王春平 等;《探测与控制学报》;20170228;第39卷(第1期);第66-70页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108830878A (zh) | 2018-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109271960B (zh) | 一种基于卷积神经网络的人数统计方法 | |
CN112184752A (zh) | 一种基于金字塔卷积的视频目标跟踪方法 | |
CN108830157B (zh) | 基于注意力机制和3d卷积神经网络的人体行为识别方法 | |
CN108154118B (zh) | 一种基于自适应组合滤波与多级检测的目标探测***及方法 | |
JP7417555B2 (ja) | 人体ポーズ分析システム及び方法 | |
CN105809198B (zh) | 基于深度置信网络的sar图像目标识别方法 | |
CN108280397B (zh) | 基于深度卷积神经网络的人体图像头发检测方法 | |
CN112285712B (zh) | 一种提高sar图像中靠岸船只检测精度的方法 | |
CN107451565B (zh) | 一种半监督小样本深度学习图像模式分类识别方法 | |
CN109191493B (zh) | 一种基于RefineNet神经网络和稀疏光流的目标跟踪方法 | |
CN112163498B (zh) | 前景引导和纹理聚焦的行人重识别模型建立方法及其应用 | |
CN110175649B (zh) | 一种关于重新检测的快速多尺度估计目标跟踪方法 | |
CN108830878B (zh) | 一种基于fpn神经网络的目标跟踪方法 | |
CN104484890A (zh) | 基于复合稀疏模型的视频目标跟踪方法 | |
CN108898619B (zh) | 一种基于pvanet神经网络的目标跟踪方法 | |
John et al. | A comparative study of various object detection algorithms and performance analysis | |
CN109410249B (zh) | 一种结合深度特征与手绘特征自适应的目标追踪方法 | |
Yoo et al. | Fast training of convolutional neural network classifiers through extreme learning machines | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN112115871B (zh) | 适用于行人目标检测的高低频交织边缘特征增强方法 | |
CN112785626A (zh) | 一种基于多尺度特征融合的孪生网络小目标跟踪方法 | |
CN112396036A (zh) | 一种结合空间变换网络和多尺度特征提取的遮挡行人重识别方法 | |
Gao et al. | Background subtraction via 3D convolutional neural networks | |
CN116186593A (zh) | 一种基于可分离卷积和注意力机制的心电信号检测方法 | |
Van Hoai et al. | Feeding Convolutional Neural Network by hand-crafted features based on Enhanced Neighbor-Center Different Image for color texture classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |