CN111027586A - 一种基于新型响应图融合的目标跟踪方法 - Google Patents
一种基于新型响应图融合的目标跟踪方法 Download PDFInfo
- Publication number
- CN111027586A CN111027586A CN201911064621.5A CN201911064621A CN111027586A CN 111027586 A CN111027586 A CN 111027586A CN 201911064621 A CN201911064621 A CN 201911064621A CN 111027586 A CN111027586 A CN 111027586A
- Authority
- CN
- China
- Prior art keywords
- target object
- response
- fusion
- target
- response map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004044 response Effects 0.000 title claims abstract description 82
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000004927 fusion Effects 0.000 title claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 22
- 238000000605 extraction Methods 0.000 claims abstract description 10
- 239000003550 marker Substances 0.000 claims abstract description 4
- 238000007500 overflow downdraw method Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 8
- 239000013598 vector Substances 0.000 claims description 8
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000195940 Bryophyta Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
一种基于新型响应图融合的目标跟踪方法,以给定的第一帧目标物体的位置为中心,裁剪出一个搜索区域块,生成相应的训练标记图,进行深度回归模型的训练,使得预设的损失函数最小,得到训练好的深度回归模型;以前一帧预测的目标物体的位置为中心,裁剪出同样大小的搜索区域块,输入训练好的深度回归模型,经过特征提取和响应图融合生成最终的响应图,响应图的最大值代表预测的目标物体的位置;当获得目标物体的位置之后,对目标物体的大小进行尺度估计;由历史帧的搜索区域块和对应的训练标记图,对深度回归模型进行更新,并重复上述预测后续每一帧中目标的位置和尺寸。本发明能够更加准确地定位目标位置,从而提高目标跟踪的准确性。
Description
技术领域
本发明涉及一种目标跟踪方法。特别是涉及一种基于新型响应图融合的目标跟踪方法。
背景技术
目标跟踪是计算机视觉算法中很有前途但又困难的研究领域,它因为在自动驾驶、交通流量监控、监视和安全、人机交互和医疗诊断***等方面的广泛应用而赢得了广泛的赞誉。由于机遇和不同的跟踪挑战,目标跟踪是计算机视觉的一个活跃研究领域。在过去的几十年中,许多研究团队做出了巨大的努力,但是目标跟踪仍然有很大的潜力去进一步探索。目标跟踪的困难在于无数的挑战,例如遮挡、背景杂乱、光照变化、尺度变化、低分辨率、快速运动、视线消失、运动模糊、变形。
判别相关过滤器(DCF)在各种计算机视觉应用中得到积极利用,包括对象识别、图像配准、面部验证和动作识别。在目标跟踪中,许多算法使用相关过滤器来提高鲁棒性和有效性。最初,训练的需求使得相关滤波器不适合进行在线跟踪。在随后的几年中,误差最小平方和滤波器MOSSE[1]的发展改变了这种情况,它允许有效的自适应训练,它的目标是使傅里叶域中期望输出与实际输出之间的误差平方之和最小。传统说来,设计相关滤波器进行推理的目的是产生响应图,该响应图的场景中背景值较低而感兴趣区域值较高。一种这样的算法是带有内核的循环结构CSK***[2],它利用目标外观的循环结构并使用核正则化的最小二乘法进行训练。核化的相关滤波器KCF算法[3]使用高斯核函数执行目标跟踪,以区分目标物体与其周围环境。
得益于卷积神经网络CNN功能的强大表现,基于相关滤波器的***已经实现了卓越的性能。但是,基于傅立叶域中的相关优化容易受到边界效应的影响,与传统的基于相关滤波器的***不同,深度回归***尝试通过空间域中的梯度下降来获得近似解。他们将相关滤波器公式化为卷积运算,并构建了典型的卷积神经网络中使用的单通道输出卷积层。 FCNT[4]通过利用特征图选择策略,引入了一种完全卷积网络来利用多个CNN特征。Siamese[5]网络将两个输入连接起来并产生一个输出,目的是确定输入到网络的两个图像块中是否存在相同的对象。DSLT[6]学***衡问题。用于目标跟踪的卷积残差学习算法CREST[7]利用残差学习来适应目标外观,并通过搜索不同尺度的图像块来进行尺度估计。
然而,目前的基于深度回归模型的目标跟踪方法,所使用的传统响应图融合方法都是通过简单的相加或者相乘的融合方式,这种融合方式对于目标运动超出视野外、旋转、遮挡等复杂的挑战情况不具有鲁棒性,容易引起边界框的漂移问题。
发明内容
本发明所要解决的技术问题是,提供一种可以提高目标跟踪准确性的基于新型响应图融合的目标跟踪方法。
本发明所采用的技术方案是:一种基于新型响应图融合的目标跟踪方法,包括如下步骤:
1)以给定的第一帧目标物体的位置为中心,裁剪出一个搜索区域块,并用高斯函数生成相应的训练标记图,进行深度回归模型的训练,通过梯度下降法迭代训练深度回归模型使得预设的损失函数最小,得到训练好的深度回归模型;
2)以前一帧预测的目标物体的位置为中心,裁剪出与步骤1)同样大小的搜索区域块,输入训练好的深度回归模型,经过特征提取和响应图融合生成最终的响应图,搜索响应图的最大值即代表预测的目标物体的位置;
3)当获得目标物体的位置之后,对目标物体的大小进行尺度估计,以应对跟踪过程中目标物体的尺寸变化;
4)为适应目标物体在运动过程中的外观变化,由历史帧的搜索区域块和对应的训练标记图,对深度回归模型进行更新,并重复步骤1)~步骤3)预测后续每一帧中目标的位置和尺寸。
本发明的一种基于新型响应图融合的目标跟踪方法,避免了单一响应图的信息不足,可以结合由不同特征作为输入生成的响应图,所提出的融合策略允许响应图向量的对应位置元素彼此交互,从而明确地捕获响应图每个位置处的复杂相互作用;可以有效地组合两个响应图向量,更好的捕获响应图之间的空间信息关联,并且加强响应图之间的位置信息交互,不单独根据某一响应图得到目标位置,而是综合考虑融合后的响应图,这样能增加目标跟踪的鲁棒性,以促进更加准确地定位目标位置,从而提高目标跟踪的准确性。
附图说明
图1是本发明一种基于新型响应图融合的目标跟踪方法的流程图;
图2是在OTB2013数据上实验得到的准确率图;
图3是在OTB2013数据上实验得到的成功率图。
具体实施方式
下面结合实施例和附图对本发明的一种基于新型响应图融合的目标跟踪方法做出详细说明。
如图1所示,本发明的一种基于新型响应图融合的目标跟踪方法,包括如下步骤:
1)以给定的第一帧目标物体的位置为中心,裁剪出一个搜索区域块,并用高斯函数生成相应的训练标记图,进行深度回归模型的训练,通过梯度下降法迭代训练深度回归模型使得预设的损失函数最小,得到训练好的深度回归模型;其中,
(1)所述的用高斯函数生成相应的训练标记图是采用如下公式:
其中,x0、y0是搜索区域块中目标物体中心点的横纵坐标,x、y是搜索区域块中其他点的横纵坐标,σx、σy是与目标物体的长和宽成比例的方差。
(2)所述的深度回归模型是输入为裁剪得到的搜索区域块,输出为响应图,整个模型包括特征提取和响应图融合两部分,特征提取是使用深度模型中的VGG16进行提取,并生成响应图,响应图融合是使用新型响应图融合方法,即双线性融合方法进行融合。
所述的特征提取是使用深度模型中的VGG16进行提取,是提取卷积层conv4_3和卷积层 conv5_3的特征,为了保证两者特征尺寸相同,保留VGG16的前两个池化层,卷积层conv4_3 和卷积层conv5_3的特征相加得到特征F1,将conv5_3本身作为特征F2;所述的生成响应图,是将特征F1和特征F2分别通过两个卷积层,得到响应图R1和响应图R2,最后响应图R1 和响应图R2通过双线性融合的方法得到最终的响应图B。
所述的双线性融合方法,具体如下:
B(l,f,g)=f(l)Tg(l)
(3)所述的预设的损失函数Lreg具体为:
Lreg=||W*X-Y||2+λ||W||2
其中,X表示输入的搜索区域块的特征,Y表示由搜索区域块中每个点x、y通过高斯函数生成的训练标记图,*表示卷积操作,W表示卷积层的权重,λ表示正则化系数,防止模型过拟合,当损失函数最小或迭代次数超过上限,训练过程结束,得到训练好的深度回归模型。
2)以前一帧预测的目标物体的位置为中心,裁剪出与步骤1同样大小的搜索区域块,输入训练好的深度回归模型,经过特征提取和响应图融合生成最终的响应图,搜索响应图的最大值即代表预测的目标物体的位置;
3)当获得目标物体的位置之后,对目标物体的大小进行尺度估计,以应对跟踪过程中目标物体的尺寸变化;
所述的对目标物体的大小进行尺度估计,包括:
当获得目标物体的位置之后,按照相同比例裁剪出不同尺度的搜索区域块,比例是其中S是用于尺度估计的搜索区域块的个数,η是递增因子;然后把不同尺度的搜索区域块归一化为固定的尺度,以便适应深度回归模型的输入尺度,将归一化为固定的尺度送入训练好的深度回归模型分别生成响应图,最终的目标尺寸由响应结果中的最大值决定;第t帧时目标物体的宽和高wt、ht按照以下公式进行更新:
4)为适应目标物体在运动过程中的外观变化,由历史帧的搜索区域块和对应的训练标记图,对深度回归模型进行更新,并重复步骤1)~步骤3)预测后续每一帧中目标的位置和尺寸。
综上所述,本发明的一种基于新型响应图融合的目标跟踪方法,避免了单一响应图的信息不足,通过多个响应图的融合可以更准确地定位目标物体,从而提高目标跟踪的准确性。
下面结合具体的实例和图2、图3对本发明的一种基于新型响应图融合的目标跟踪方法进行可行性验证:
在数据集OTB2013[8]上进行了实验,它是常见的目标跟踪领域的基准数据集,其中包含 50个具有挑战性的视频序列。其中名为jogging的序列存在两个不同的跟踪目标。每个序列都有不同的属性标签,可以应对不同的挑战情况,包括遮挡、尺度变化、变形、光照变化、低分辨率、超出视野外、运动模糊、平面内旋转、快速运动、背景杂乱、平面外旋转。
利用广泛使用的方法一次通过评估(OPE)来测量本发明的一种基于新型响应图融合的目标跟踪方法在数据集上的算法性能。这两个主要的评估指标为距离准确率(DP)和重叠成功率(OS)。距离准确率(DP)是指它计算测量估计的边界框中心与真实值之间的距离小于给定阈值的帧所占的比率,阈值通常设置为20像素。重叠成功率(OS)是测量估计的边界框和真实值之间的重叠分数。
比较了两种融合方式:逐元素相加(SUM)融合方式和本发明的双线性(BCNN)融合方式。
结果如图2所示,使用BCNN的方法得到的准确率值为0.879,使用SUM的方法得到的准确率值为0.872。如图3所示,使用BCNN的方法得到的成功率值为0.614,使用SUM的方法得到的成功值为0.567。可见使用BCNN的方法进行融合对准确率提升不大,但是对成功率有很大提升。因此使用双线性卷积神经网络的方法进行响应图的融合,优于使用逐元素相加的方法进行融合。因为它可以更好地捕获响应图的交互信息,加强不同响应图的位置关联,从而更加准确地预测物体的位置。
本领域技术人员可以理解附图只是一个优选实施例的示意图,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
参考文献:
[1]BolmeD S,Beveridge J R,Draper B A,et al.Visual object trackingusing adaptive correlation filters[C]//2010IEEE Computer Society Conferenceon Computer Vision and Pattern Recognition,Jun.13-18,2010,San Francisco,CA,USA:IEEE,2010,582:2544-2550.
[2]Danelljan M,Shahbaz Khan F,Felsberg M,et al.Adaptive ColorAttributes for Real-Time Visual Tracking[C]//2014IEEE Conference on ComputerVision and Pattern Recognition,Jun. 23-28,2014,Columbus,OH,USA:IEEE,2014,421:1090-1097.
[3]Henriques J F,Caseiro R,Martins P,et al.High-Speed Tracking withKernelized Correlation Filters[J]//IEEE Transactions on Pattern Analysis andMachine Intelligence,2015, 37(3):583-96.
[4]Wang L,Ouyang W,Wang X,et al.Visual trackingwith fullyconvolutional networks[C]// 2015 IEEE International Conference on ComputerVision,Dec.7-13,2015,Santiago,Chile: IEEE,2015,258:3119-3127.
[5]BertinettoL,Valmadre J,Henriques J F,et al.Fully-convolutionalsiamese networks for objecttracking[C]//2016European Conference on ComputerVisionWorkshop,Oct.8-10, 2016,Amsterdam,The Netherlands,2016,9914:850-865.
[6]Lu X,Ma C,Ni B,et al.Deep regression tracking with shrinkage loss[C]//The European Conference on Computer Vision,Sep.8–14,2018,Munich,Germany,2016,14:369-386.
[7]Song Y,Ma C,Gong C,et al.Crest:Convolutional residual learning forvisual tracking[C]// 2017 IEEE International Conference on Computer Vision,Oct.22-29,2017,Venice,Italy: IEEE,2017,31:2574-2583.
[8]Wu Y,Lim J,Yang M H.Online Object Tracking:ABenchmark[C]//2013IEEE Conference on Computer Vision and Pattern Recognition,Jun.23-28,2013,Portland,OR,USA:IEEE, 2013,1179:2411-2418。
Claims (7)
1.一种基于新型响应图融合的目标跟踪方法,其特征在于,包括如下步骤:
1)以给定的第一帧目标物体的位置为中心,裁剪出一个搜索区域块,并用高斯函数生成相应的训练标记图,进行深度回归模型的训练,通过梯度下降法迭代训练深度回归模型使得预设的损失函数最小,得到训练好的深度回归模型;
2)以前一帧预测的目标物体的位置为中心,裁剪出与步骤1)同样大小的搜索区域块,输入训练好的深度回归模型,经过特征提取和响应图融合生成最终的响应图,搜索响应图的最大值即代表预测的目标物体的位置;
3)当获得目标物体的位置之后,对目标物体的大小进行尺度估计,以应对跟踪过程中目标物体的尺寸变化;
4)为适应目标物体在运动过程中的外观变化,由历史帧的搜索区域块和对应的训练标记图,对深度回归模型进行更新,并重复步骤1)~步骤3)预测后续每一帧中目标的位置和尺寸。
3.根据权利要求1所述的一种基于新型响应图融合的目标跟踪方法,其特征在于,步骤1)所述的深度回归模型是输入为裁剪得到的搜索区域块,输出为响应图,整个模型包括特征提取和响应图融合两部分,特征提取是使用深度模型中的VGG16进行提取,并生成响应图,响应图融合是使用新型响应图融合方法,即双线性融合方法进行融合。
4.根据权利要求3所述的一种基于新型响应图融合的目标跟踪方法,其特征在于,所述的特征提取是使用深度模型中的VGG16进行提取,是提取卷积层conv4_3和卷积层conv5_3的特征,保留VGG16的前两个池化层,卷积层conv4_3和卷积层conv5_3的特征相加得到特征F1,将conv5_3本身作为特征F2;所述的生成响应图,是将特征F1和特征F2分别通过两个卷积层,得到响应图R1和响应图R2,最后响应图R1和响应图R2通过双线性融合的方法得到最终的响应图B。
6.根据权利要求1所述的一种基于新型响应图融合的目标跟踪方法,其特征在于,步骤1)所述的预设的损失函数Lreg具体为:
Lreg=||W*X-Y||2+λ||W||2
其中,X表示输入的搜索区域块的特征,Y表示由搜索区域块中每个点x、y通过高斯函数生成的训练标记图,*表示卷积操作,W表示卷积层的权重,λ表示正则化系数,防止模型过拟合,当损失函数最小或迭代次数超过上限,训练过程结束,得到训练好的深度回归模型。
7.根据权利要求1所述的一种基于新型响应图融合的目标跟踪方法,其特征在于,步骤3)所述的对目标物体的大小进行尺度估计,包括:
当获得目标物体的位置之后,按照相同比例裁剪出不同尺度的搜索区域块,比例是其中S是用于尺度估计的搜索区域块的个数,η是递增因子;然后把不同尺度的搜索区域块归一化为固定的尺度,将归一化为固定的尺度送入训练好的深度回归模型分别生成响应图,最终的目标尺寸由响应结果中的最大值决定;第t帧时目标物体的宽和高wt、ht按照以下公式进行更新:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911064621.5A CN111027586A (zh) | 2019-11-04 | 2019-11-04 | 一种基于新型响应图融合的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911064621.5A CN111027586A (zh) | 2019-11-04 | 2019-11-04 | 一种基于新型响应图融合的目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111027586A true CN111027586A (zh) | 2020-04-17 |
Family
ID=70200858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911064621.5A Pending CN111027586A (zh) | 2019-11-04 | 2019-11-04 | 一种基于新型响应图融合的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111027586A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111583300A (zh) * | 2020-04-23 | 2020-08-25 | 天津大学 | 一种基于富集目标形态变化更新模板的目标跟踪方法 |
CN112183600A (zh) * | 2020-09-22 | 2021-01-05 | 天津大学 | 一种基于动态记忆库模板更新的目标跟踪方法 |
CN113362372A (zh) * | 2021-05-25 | 2021-09-07 | 同济大学 | 一种单目标追踪方法及计算机可读介质 |
CN114359880A (zh) * | 2022-03-18 | 2022-04-15 | 北京理工大学前沿技术研究院 | 一种基于智能学习模型的乘车体验增强方法、装置及云端 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999013351A1 (en) * | 1997-09-05 | 1999-03-18 | Raytheon Company | Correlation filters for target reacquisition in trackers |
JP2008225668A (ja) * | 2007-03-09 | 2008-09-25 | Nec Corp | 画像処理装置 |
CN104156693A (zh) * | 2014-07-15 | 2014-11-19 | 天津大学 | 一种基于多模态序列融合的动作识别方法 |
CN107481264A (zh) * | 2017-08-11 | 2017-12-15 | 江南大学 | 一种自适应尺度的视频目标跟踪方法 |
CN108734109A (zh) * | 2018-04-24 | 2018-11-02 | 中南民族大学 | 一种面向图像序列的视觉目标跟踪方法及*** |
CN109816689A (zh) * | 2018-12-18 | 2019-05-28 | 昆明理工大学 | 一种多层卷积特征自适应融合的运动目标跟踪方法 |
-
2019
- 2019-11-04 CN CN201911064621.5A patent/CN111027586A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999013351A1 (en) * | 1997-09-05 | 1999-03-18 | Raytheon Company | Correlation filters for target reacquisition in trackers |
JP2008225668A (ja) * | 2007-03-09 | 2008-09-25 | Nec Corp | 画像処理装置 |
CN104156693A (zh) * | 2014-07-15 | 2014-11-19 | 天津大学 | 一种基于多模态序列融合的动作识别方法 |
CN107481264A (zh) * | 2017-08-11 | 2017-12-15 | 江南大学 | 一种自适应尺度的视频目标跟踪方法 |
CN108734109A (zh) * | 2018-04-24 | 2018-11-02 | 中南民族大学 | 一种面向图像序列的视觉目标跟踪方法及*** |
CN109816689A (zh) * | 2018-12-18 | 2019-05-28 | 昆明理工大学 | 一种多层卷积特征自适应融合的运动目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
DANELLJAN M, HAGER G, ET AL: "Accurate Scale Estimation for Robust Visual Tracking" * |
张春婷: "基于双线性卷积神经网络的视觉目标跟踪算法" * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111583300A (zh) * | 2020-04-23 | 2020-08-25 | 天津大学 | 一种基于富集目标形态变化更新模板的目标跟踪方法 |
CN111583300B (zh) * | 2020-04-23 | 2023-04-25 | 天津大学 | 一种基于富集目标形态变化更新模板的目标跟踪方法 |
CN112183600A (zh) * | 2020-09-22 | 2021-01-05 | 天津大学 | 一种基于动态记忆库模板更新的目标跟踪方法 |
CN113362372A (zh) * | 2021-05-25 | 2021-09-07 | 同济大学 | 一种单目标追踪方法及计算机可读介质 |
CN114359880A (zh) * | 2022-03-18 | 2022-04-15 | 北京理工大学前沿技术研究院 | 一种基于智能学习模型的乘车体验增强方法、装置及云端 |
CN114359880B (zh) * | 2022-03-18 | 2022-05-24 | 北京理工大学前沿技术研究院 | 一种基于智能学习模型的乘车体验增强方法、装置及云端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108665481B (zh) | 多层深度特征融合的自适应抗遮挡红外目标跟踪方法 | |
CN108062525B (zh) | 一种基于手部区域预测的深度学习手部检测方法 | |
CN111027586A (zh) | 一种基于新型响应图融合的目标跟踪方法 | |
CN108062574B (zh) | 一种基于特定类别空间约束的弱监督目标检测方法 | |
CN107481264A (zh) | 一种自适应尺度的视频目标跟踪方法 | |
CN112184752A (zh) | 一种基于金字塔卷积的视频目标跟踪方法 | |
CN111311647B (zh) | 一种基于全局-局部及卡尔曼滤波的目标跟踪方法及装置 | |
CN106295564B (zh) | 一种邻域高斯结构和视频特征融合的动作识别方法 | |
CN107871106A (zh) | 人脸检测方法和装置 | |
CN114049381A (zh) | 一种融合多层语义信息的孪生交叉目标跟踪方法 | |
Qi et al. | FTC-Net: Fusion of transformer and CNN features for infrared small target detection | |
CN108830170B (zh) | 一种基于分层特征表示的端到端目标跟踪方法 | |
CN106204484A (zh) | 一种基于光流和局部不变特征的交通目标跟踪方法 | |
Yang et al. | Visual tracking with long-short term based correlation filter | |
CN110111370B (zh) | 一种基于tld和深度多尺度时空特征的视觉物体跟踪方法 | |
Deng et al. | Human gait recognition based on deterministic learning and knowledge fusion through multiple walking views | |
CN109242019A (zh) | 一种水面光学小目标快速检测与跟踪方法 | |
El-Shafie et al. | Fast CNN-based object tracking using localization layers and deep features interpolation | |
Xu et al. | Hierarchical convolution fusion-based adaptive Siamese network for infrared target tracking | |
Liu et al. | [Retracted] Self‐Correction Ship Tracking and Counting with Variable Time Window Based on YOLOv3 | |
Batool et al. | Telemonitoring of daily activities based on multi-sensors data fusion | |
Feng | Mask RCNN-based single shot multibox detector for gesture recognition in physical education | |
CN110826575A (zh) | 一种基于机器学习的水下目标识别方法 | |
CN110689559B (zh) | 一种基于密集卷积网络特征的视觉目标跟踪方法 | |
Nan et al. | Gesture recognition based on deep learning in complex scenes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200417 |
|
WD01 | Invention patent application deemed withdrawn after publication |