CN106097391A - 一种基于深度神经网络的识别辅助的多目标跟踪方法 - Google Patents
一种基于深度神经网络的识别辅助的多目标跟踪方法 Download PDFInfo
- Publication number
- CN106097391A CN106097391A CN201610420557.XA CN201610420557A CN106097391A CN 106097391 A CN106097391 A CN 106097391A CN 201610420557 A CN201610420557 A CN 201610420557A CN 106097391 A CN106097391 A CN 106097391A
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- network
- deep neural
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 23
- 238000000605 extraction Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 9
- 238000003475 lamination Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 3
- 230000003292 diminished effect Effects 0.000 claims description 2
- 239000000203 mixture Substances 0.000 claims description 2
- 230000013011 mating Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 10
- 230000008859 change Effects 0.000 abstract description 5
- 230000000694 effects Effects 0.000 abstract description 2
- 238000011084 recovery Methods 0.000 abstract 1
- 230000000007 visual effect Effects 0.000 abstract 1
- 230000008034 disappearance Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度神经网络的识别辅助的多目标跟踪方法。多目标跟踪是指在摄像机捕获的画面中对感兴趣的多个目标不断的跟踪。现有的多行人跟踪方法在当目标被完全遮挡或者从视野中消失极易导致跟踪失败。本发明方法将多目标跟踪问题转化为寻找帧间检测到的目标之间对应关系问题,在目标消失再现后,采用基于深度学习网络实现有效的轨迹恢复,改善长距离跟踪效果。本发明具有较好的鲁棒性,非常适合应用在安防监控领域,对协助公共场所的维护治安有非常大的实际价值。
Description
技术领域
本发明属于图像处理和模式识别领域,涉及一种基于深度神经网络的识别辅助的多目标跟踪方法。
背景技术
随着机器视觉理论与技术以及计算机硬件的发展,对图像内容进行识别与理解成为研究的热点,拥有广阔的应用市场。尤其在安防监控、智能交通、自动驾驶等领域,对多目标跟踪的需求日益增强。同时,多目标跟踪作为众多计算机视觉的底层技术,该技术的发展也会对计算机视觉的其他分支产生极大的影响和促进。
多目标跟踪就是在视频序列中持续不断的自动识别和定位目标,同时记录下目标的运动轨迹。多目标跟踪相对于单目标跟踪更为复杂,不仅需要处理单目标跟踪中出现的复杂的背景环境,如遮挡、光照变化、目标姿态变化等因素,还要面对目标数量动态变化以及多目标之间的相互遮挡等问题。这些难题的存在导致当前主流的多目标跟踪方法并不鲁棒。
随着近年来各个领域对多目标跟踪技术的需求日益增大,出现了很多的研究成果。自从首次将网络流的方法应用到多目标跟踪,大量的相关方法也随之出现。这类方法的基本思想是将跟踪目标看成图中的节点,构建网络流图,通过寻找最小代价流来进行跟踪。目标检测的技术日益完善后,催生了两段式的基于检测的跟踪,跟踪的方法是在检测结果之间寻找关联关系。考虑到目标运动中需要符合一系列的关联准则以及与其他运动目标的相互关系,SFM模型(social force model)被提出了,随后该模型被应用到了多目标跟踪领域。但迄今为止,并没有很好的方法能够将消失重现目标的轨迹重新恢复,而是重新将其当做新的跟踪对象,这显然不符合实际需要。
自从2012年Hinton团队将Deep Learning用于ImageNet数据集并取得了惊人的成绩后,深度学习重新得到了重视并在各个研究领域得到了广泛的应用,结合深度学习的跟踪方法也随之出现。自动编码器(Auto Encoder)全卷积网络也被用于目标跟踪,实现了端到端的目标跟踪。但一个好的CNN网络需要大量的样本学习好的特征描述,而且在现有的硬件条件下,有监督的CNN庞大的计算代价难以满足跟踪实时性的要求。
发明内容
本发明提供了一种基于深度神经网络的识别辅助的多目标跟踪方法,以解决多目标跟踪中的消失目标重现时的轨迹恢复问题,提高跟踪的准确性和鲁棒性。
为解决上述问题,本发明提供一种基于深度神经网络的识别辅助的多目标跟踪方法,包括以下步骤:
对于视频中的每一帧,检测所有存在的目标,将检测结果中的若干候选目标用集合Ct表示,将已有的若干跟踪目标用集合Os表示,对一个跟踪目标的轨迹记为Oi,下标i是唯一的跟踪标识;
将当前帧检测到的候选目标与已有的跟踪目标进行匹配,当在检测结果中距离最近且符合距离小于一个阈值时,则认定该候选目标满足强关联条件并将其加入对应跟踪目标的轨迹当中,所有跟踪目标匹配结束后,将没有匹配到任何跟踪目标的候选目标加入队列Q中,队列Q表示在匹配阶段不满足强关联条件的候选目标集合;
若队列Q为空,该帧跟踪结束,重新读取视频帧进行上述步骤;
若队列Q不为空,利用当前所有历史跟踪记录更新辅助跟踪网络,将队列Q中所有目标输入更新后的辅助跟踪网络中,得到识别结果和相应的置信度,当队列Q中识别结果的置信度高于阈值的候选目标依据其识别结果进行跟踪。
作为一种实施方式,所述将当前帧检测到的候选目标与已有的跟踪目标进行匹配步骤中,包括以下步骤:
根据空间局部性原理缩小匹配范围,筛选出符合距离要求的候选目标作为相似目标。
作为一种实施方式,所述根据空间局部性原理缩小匹配范围,具体包括以下步骤:
根据如下公式进行筛选:
其中Ut表示符合要求的候选目标的集合,表示第t帧中检测到的第j个候选目标,j∈[1,n],表示第t-1帧中目标i,其中i∈[1,z],t∈[1,m]。
作为一种实施方式,所述将当前帧检测到的候选目标与已有的跟踪目标进行匹配,具体包括以下步骤:
在当前帧检测结果中寻找跟踪目标相似度高的候选目标;
通过如下公式寻找最相似候选目标;
其中f(.)表示对目标提取特征,dist(.)表示距离度量函数。
作为一种实施方式,若目标提取特征为颜色直方图特征时,具体包括以下步骤:
根据空间局部性原理筛选符合距离要求的候选目标;
提取目标t‐1帧中已有跟踪目标和t帧中检测到的候选目标的RGB颜色直方图特征;
根据巴氏距离度量函数计算两个直方图分布特征的距离,计算公式如下:
其中hist(.)表示颜色直方图特征,DB表示目标提取特征为颜色直方图特征时的巴氏距离度量函数;
若巴氏距离最近且小于一个阈值,则认定该候选目标为满足强关联条件,为最相似候选目标。
作为一种实施方式,所述利用当前所有历史跟踪记录更新辅助跟踪网络,具体包括以下步骤:
将当前所有跟踪目标的历史跟踪结果作为网络的训练数据,将网络输出的特征和跟踪标识组成训练样本去训练SVM分类器,完成辅助跟踪网络的更新。
作为一种实施方式,所述将队列Q中所有目标输入网络中,得到识别结果和相应的置信度,具体包括以下步骤:
将队列Q中每一个目标输入更新后的辅助跟踪网络中,通过前馈运算结果获得目标的深度特征,再将深度特征输入线性SVM分类器得到识别标识和相应的置信度。
作为一种实施方式,所述深度特征包括网络输出特征,通过前馈运算结果获得目标的网络输出特征,具体包括以下步骤:
将一个样本经过两层卷积,得到若干个特征图;
每个样本卷积后加入最大值池化的运算,将特征图变小;
当获取所有卷积的特征图,对卷积结果进行二值化操作;
以每n个特征图采取加权和的方式合并,在对所有合并后的特征图分块提取直方图特征,最终得到网络输出特征。
作为一种实施方式,还包括将队列Q中识别结果的置信度低于阈值要求的候选目标当做新出现的目标,将新出现的目标建立跟踪目标并加入到跟踪目标Os中。
作为一种实施方式,将队列Q中所有目标输入更新后的辅助跟踪网络中,所述网络为深度神经网络结构,包括两个卷积层、两个最大值池化层和二值量化层。两个所述卷积层包括第一卷积层和第二卷积层,所述第一卷积层滤波器个数为8个,第二卷积层滤波器个数为64个。
本发明提供的技术方案的有益效果是:本发明主要针对当目标存在严重遮挡以及目标从摄像机视野中短暂消失的情况进行研究,提出了一种基于深度神经网络的识别辅助的多目标跟踪方法,将多目标的跟踪问题转化为寻找帧间检测到的目标之间寻找对应关系的过程,采用了基于深度神经网络的目标识别方法来进行辅助跟踪,可以很好地解决目标消失再现和存在严重遮挡时造成的目标丢失的问题,当目标再次出现时可以通过识别辅助跟踪的方法恢复消失重现目标的跟踪轨迹。
附图说明
图1为本发明基于深度神经网络的识别辅助的多目标跟踪方法的流程图;
图2为本发明使用的辅助跟踪网络的结构图。
具体实施方式
为了进一步详细描述本发明的过程,结合附图对本发明进行更加具体的阐述。
本发明提供一种基于深度神经网络的识别辅助的多目标跟踪方法,主要分为三个步骤,目标检测、匹配跟踪以及深度学习网络辅助跟踪,其简要步骤如下:第一,首先检测器对于视频的每一帧进行目标检测,检测结果为之后的跟踪做准备。第二,相邻两帧中的目标之间通过相似度匹配,得到初步的跟踪结果。第三,结合辅助跟踪网络恢复消失重现目标的跟踪轨迹,进一步提高跟踪效果。
在本实施例中,将目标以行人进行阐述。如图1所示,本方法开始执行之前,需要首先初始化检测器,使用的特征为分块的梯度统计直方图,对行人数据库提取梯度统计直方图特征,将该特征作为SVM分类器的输入,训练分类器以得到一个鲁棒的差分分类器。第一帧中检测到的目标不做匹配,直接当做新的跟踪目标,加入集合Os中,程序初始化完成。下面结合附图对本方法进行详细的描述:
步骤101:首先采用基于分块梯度直方图特征的检测器对视频图像中每一帧进行目标检测,并记录所有检测到的目标,ft表示视频帧,t是帧编号,N是视频的总帧数;检测时采用滑动窗口机制对整个图像遍历,对滑动窗口扫描过的每一个位置用SVM分类器判断是否为目标。为了能检测到不同尺度的目标,滑动窗口存在尺度变化。检测结束时,检测结果记为 表示第t帧中检测到的第j个候选目标,j∈[1,n],n为在第t帧中检测到的目标总数。将所有的跟踪目标用一个集合表示,记为Os={O1,O2,...,Oz},z为跟踪目标的总数,每一个跟踪目标的轨迹记录为 表示第t帧中目标i,其中i∈[1,z],t∈[1,m],下标i是唯一的跟踪标识。
基于分块梯度直方图特征的目标检测操作具体为:用行人数据库训练检测器,正样本为行人图片,负样本为背景图片。抽取训练样本的Hog特征作为分类器的输入特征,然后将准备好的数据交由SVM学***面。
步骤102:将当前帧检测到的候选目标与已有的跟踪目标进行匹配。对每一个寻找最为相似的候选目标时,首先寻找距离最近的目标。根据空间局部性原理,认为其在第t帧中的目标不会偏离太远,通过筛选出符合距离要求的相似目标。然后用hist(.)函数提取颜色直方图特征,再由巴氏距离度量函数(记为DB)计算两个直方图分布特征的距离。选出匹配程度最高的候选目标。如果最优目标的距离同时满足距离小于阈值,认为满足强关联条件,将最优目标加入对应跟踪目标的轨迹中。当完成所有跟踪目标和候选目标之间关联之后,将没有加入到任何跟踪轨迹的候选目标加入到队列Q中。
依据空间局部性原理缩小搜索范围操作具体为:由于空间局部性原理,同一个目标在相邻帧中距离不会太大。因此,并不需要将所有候选目标与跟踪目标逐一计算距离,只需要在满足距离小于一定范围的候选目标中寻找匹配对象即可。根据如下公式进行筛选:
其中Ut表示符合要求的的集合,经过筛选,候选目标的范围大大缩小,达到加快运行速度的要求。
基于满足强关联条件的关联操作具体为:对一个目标跟踪的目的是不断的寻找目标在当前帧检测结果中相似度最高的将其当做目标Oi在t帧中的预测结果寻找最相似候选目标的公式如下:
其中f(.)表示目标提取特征,dist(.)表示距离度量函数,当一个候选目标与距离最近且距离小于一个阈值时,认为该候选目标为匹配结果。在本实施中,目标提取特征f(.)为颜色直方图特征hist(.)。
步骤103:队列Q如果为空,则跟踪结束。否则使用辅助跟踪网络辅助跟踪。首先将现有的所有历史跟踪结果更新辅助跟踪网络,如图2所示,为本发明设计的深度神经网络结构,主要包括两个卷积层、两个最大值池化层和二值量化层,第一个卷积层滤波器个数为8,第二层滤波器为64个。当一个样本通过两层卷积之后,会生成64个特征图。每个在队列Q中的候选目标经卷积层之后加入最大值池化的运算,每经历一次池化操作,特征图的大小会变小。例如,当池化操作的卷积核为2×2时,每次池化后特征图的长宽分别会变为原来二分之一。当获取所有的卷积特征图之后,对卷积结果进行二值化操作。然后每n个特征图采取加权和的方式合并,在对所有合并后的特征图分块提取直方图特征,最终得到网络输出特征。对于分类层,采用有监督的学习方法学习分类器。将网络的卷积特征和标签输入到SVM中,训练得到最终的分类器。当网络更新完成后,再由网络给出Q中每一个候选目标的识别结果和置信度α。
步骤104在步骤103的描述下,将Q中识别结果的置信度α低于阈值要求的候选目标当做新出现的目标,同时将这些新出现的目标建立跟踪对象并加入到Os中。
步骤105在步骤103的描述下,将Q中识别结果的置信度α高于阈值要求的候选目标依据其识别结果进行跟踪,当置信度α高于设定的阈值时,则判断该目标之前曾出现过,再通过识别结果将其与跟踪目标对应起来,从而实现消失在线目标的轨迹恢复。
综上所述,这样就避免了传统方法在目标短暂消失再次出现时将其误判为新的跟踪目标或者丢失目标的情况。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,包括以下步骤:
对于视频中的每一帧,检测所有存在的目标,将检测结果中的若干候选目标用集合Ct表示,将已有的若干跟踪目标用集合Os表示,对一个跟踪目标的轨迹记为Oi,下标i是唯一的跟踪标识;
将当前帧检测到的候选目标与已有的跟踪目标进行匹配,当在检测结果中距离最近且符合距离小于一个阈值时,则认定该候选目标满足强关联条件并将其加入对应跟踪目标的轨迹当中,所有跟踪目标匹配结束后,将没有匹配到任何跟踪目标的候选目标加入队列Q中,队列Q表示在匹配阶段不满足强关联条件的候选目标集合;
若队列Q为空,该帧跟踪结束,重新读取视频帧进行上述步骤;
若队列Q不为空,利用当前所有历史跟踪记录更新辅助跟踪网络,将队列Q中所有目标输入更新后的辅助跟踪网络中,得到识别结果和相应的置信度,当队列Q中识别结果的置信度高于阈值的候选目标依据其识别结果进行跟踪。
2.根据权利要求1所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,所述将当前帧检测到的候选目标与已有的跟踪目标进行匹配步骤中,包括以下步骤:
根据空间局部性原理缩小匹配范围,筛选出符合距离要求的候选目标作为相似目标。
3.根据权利要求2所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,所述根据空间局部性原理缩小匹配范围,具体包括以下步骤:
根据如下公式进行筛选:
其中Ut表示符合要求的候选目标的集合,表示第t帧中检测到的第j个候选目标,j∈[1,n],表示第t-1帧中目标i,其中i∈[1,z],t∈[1,m]。
4.根据权利要求3所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,所述将当前帧检测到的候选目标与已有的跟踪目标进行匹配,具体包括以下步骤:
在当前帧检测结果中寻找跟踪目标相似度高的候选目标;
通过如下公式寻找最相似候选目标;
其中f(.)表示对目标提取特征,dist(.)表示距离度量函数。
5.根据权利要求4所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,若目标提取特征为颜色直方图特征时,具体包括以下步骤:
根据空间局部性原理筛选符合距离要求的候选目标;
提取目标t‐1帧中已有跟踪目标和t帧中检测到的候选目标的RGB颜色直方图特征;
根据巴氏距离度量函数计算两个直方图分布特征的距离,计算公式如下:
其中hist(.)表示颜色直方图特征,DB表示目标提取特征为颜色直方图特征时的巴氏距离度量函数;
若巴氏距离最近且小于一个阈值,则认定该候选目标为满足强关联条件,为最相似候选目标。
6.根据权利要求1所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,所述利用当前所有历史跟踪记录更新辅助跟踪网络,具体包括以下步骤:
将当前所有跟踪目标的历史跟踪结果作为网络的训练数据,将网络输出的特征和跟踪标识组成训练样本去训练SVM分类器,完成辅助跟踪网络的更新。
7.根据权利要求6所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,所述将队列Q中所有目标输入网络中,得到识别结果和相应的置信度,具体包括以下步骤:
将队列Q中每一个目标输入更新后的辅助跟踪网络中,通过前馈运算结果获得目标的深度特征,再将深度特征输入线性SVM分类器得到识别标识和相应的置信度。
8.根据权利要求7所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,所述深度特征包括网络输出特征,通过前馈运算结果获得目标的网络输出特征,具体包括以下步骤:
将一个样本经过两层卷积,得到若干个特征图;
每个样本卷积后加入最大值池化的运算,将特征图变小;
当获取所有卷积的特征图,对卷积结果进行二值化操作;
以每n个特征图采取加权和的方式合并,在对所有合并后的特征图分块提取直方图特征,最终得到网络输出特征。
9.根据权利要求1所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,还包括将队列Q中识别结果的置信度低于阈值要求的候选目标当做新出现的目标,将新出现的目标建立跟踪目标并加入到跟踪目标Os中。
10.根据权利要求6所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,将队列Q中所有目标输入更新后的辅助跟踪网络中,所述网络为深度神经网络结构,包括两个卷积层、两个最大值池化层和二值量化层。两个所述卷积层包括第一卷积层和第二卷积层,所述第一卷积层滤波器个数为8个,第二卷积层滤波器个数为64个。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610420557.XA CN106097391B (zh) | 2016-06-13 | 2016-06-13 | 一种基于深度神经网络的识别辅助的多目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610420557.XA CN106097391B (zh) | 2016-06-13 | 2016-06-13 | 一种基于深度神经网络的识别辅助的多目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106097391A true CN106097391A (zh) | 2016-11-09 |
CN106097391B CN106097391B (zh) | 2018-11-16 |
Family
ID=57846087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610420557.XA Expired - Fee Related CN106097391B (zh) | 2016-06-13 | 2016-06-13 | 一种基于深度神经网络的识别辅助的多目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106097391B (zh) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106504190A (zh) * | 2016-12-29 | 2017-03-15 | 浙江工商大学 | 一种基于3d卷积神经网络的立体视频生成方法 |
CN106682664A (zh) * | 2016-12-07 | 2017-05-17 | 华南理工大学 | 基于全卷积递归神经网络的水表圆盘区域检测方法 |
CN106709521A (zh) * | 2016-12-26 | 2017-05-24 | 深圳极视角科技有限公司 | 基于卷积神经网络和动态跟踪的火焰预警方法和*** |
CN106952293A (zh) * | 2016-12-26 | 2017-07-14 | 北京影谱科技股份有限公司 | 一种基于非参数在线聚类的目标跟踪方法 |
CN107316317A (zh) * | 2017-05-23 | 2017-11-03 | 深圳市深网视界科技有限公司 | 一种行人多目标跟踪方法和装置 |
CN107491761A (zh) * | 2017-08-23 | 2017-12-19 | 哈尔滨工业大学(威海) | 一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法 |
CN108198200A (zh) * | 2018-01-26 | 2018-06-22 | 福州大学 | 跨摄像头场景下指定行人在线跟踪方法 |
CN108206941A (zh) * | 2017-09-27 | 2018-06-26 | 深圳市商汤科技有限公司 | 目标跟踪方法、***、终端设备及存储介质 |
CN108346145A (zh) * | 2018-01-31 | 2018-07-31 | 浙江大学 | 一种病理切片中非常规细胞的识别方法 |
CN108447076A (zh) * | 2018-03-16 | 2018-08-24 | 清华大学 | 基于深度增强学习的多目标跟踪方法 |
CN108446634A (zh) * | 2018-03-20 | 2018-08-24 | 北京天睿空间科技股份有限公司 | 基于视频分析和定位信息结合的航空器持续跟踪方法 |
CN108470332A (zh) * | 2018-01-24 | 2018-08-31 | 博云视觉(北京)科技有限公司 | 一种多目标跟踪方法及装置 |
CN108491816A (zh) * | 2018-03-30 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 在视频中进行目标跟踪的方法和装置 |
CN108509859A (zh) * | 2018-03-09 | 2018-09-07 | 南京邮电大学 | 一种基于深度神经网络的无重叠区域行人跟踪方法 |
CN108875588A (zh) * | 2018-05-25 | 2018-11-23 | 武汉大学 | 基于深度学习的跨摄像头行人检测跟踪方法 |
CN109033922A (zh) * | 2017-06-08 | 2018-12-18 | 北京君正集成电路股份有限公司 | 一种视频中设置目标标识的方法及装置 |
CN109118519A (zh) * | 2018-07-26 | 2019-01-01 | 北京纵目安驰智能科技有限公司 | 基于实例分割的目标Re-ID方法、***、终端和存储介质 |
WO2019033541A1 (en) * | 2017-08-14 | 2019-02-21 | Huawei Technologies Co., Ltd. | PRODUCTION OF DATA LABELED FOR DEEP OBJECT TRACKING |
CN109409499A (zh) * | 2018-09-20 | 2019-03-01 | 北京航空航天大学 | 一种基于深度学习和卡尔曼滤波修正的轨迹恢复方法 |
CN109461144A (zh) * | 2018-10-16 | 2019-03-12 | 杭州依图医疗技术有限公司 | 一种乳腺影像识别的方法及装置 |
CN109584213A (zh) * | 2018-11-07 | 2019-04-05 | 复旦大学 | 一种多目标编号选定跟踪方法 |
CN110298214A (zh) * | 2018-03-23 | 2019-10-01 | 苏州启铭臻楠电子科技有限公司 | 一种基于组合深度神经网络的舞台多目标追踪和分类方法 |
WO2019184605A1 (zh) * | 2018-03-30 | 2019-10-03 | 华为技术有限公司 | 一种多目标跟踪方法以及终端设备 |
CN110785777A (zh) * | 2017-01-23 | 2020-02-11 | 牛津大学创新有限公司 | 确定可移动的设备的位置 |
WO2020082258A1 (zh) * | 2018-10-24 | 2020-04-30 | 深圳鲲云信息科技有限公司 | 一种多目标实时跟踪方法、装置及电子设备 |
WO2020233414A1 (zh) * | 2019-05-20 | 2020-11-26 | 阿里巴巴集团控股有限公司 | 物体识别方法、装置及车辆 |
WO2021012484A1 (zh) * | 2019-07-19 | 2021-01-28 | 平安科技(深圳)有限公司 | 基于深度学习的目标跟踪方法、装置及计算机可读存储介质 |
CN113361388A (zh) * | 2021-06-03 | 2021-09-07 | 北京百度网讯科技有限公司 | 图像数据修正方法、装置、电子设备及自动驾驶车辆 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1738426A (zh) * | 2005-09-09 | 2006-02-22 | 南京大学 | 一种视频运动目标分割与跟踪方法 |
US8345984B2 (en) * | 2010-01-28 | 2013-01-01 | Nec Laboratories America, Inc. | 3D convolutional neural networks for automatic human action recognition |
CN104537647A (zh) * | 2014-12-12 | 2015-04-22 | 中安消技术有限公司 | 一种目标检测方法及装置 |
-
2016
- 2016-06-13 CN CN201610420557.XA patent/CN106097391B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1738426A (zh) * | 2005-09-09 | 2006-02-22 | 南京大学 | 一种视频运动目标分割与跟踪方法 |
US8345984B2 (en) * | 2010-01-28 | 2013-01-01 | Nec Laboratories America, Inc. | 3D convolutional neural networks for automatic human action recognition |
CN104537647A (zh) * | 2014-12-12 | 2015-04-22 | 中安消技术有限公司 | 一种目标检测方法及装置 |
Non-Patent Citations (2)
Title |
---|
JIALUE FAN ET AL.: "《Human Tracking Using Convolutional Neural Networks》", 《IEEE TRANSACTIONS ON NEURAL NETWORKS》 * |
胡鹏等: "《西南科技大学学报》", 《基于区域卷积神经网络的多目标跟踪算法》 * |
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106682664A (zh) * | 2016-12-07 | 2017-05-17 | 华南理工大学 | 基于全卷积递归神经网络的水表圆盘区域检测方法 |
CN106709521A (zh) * | 2016-12-26 | 2017-05-24 | 深圳极视角科技有限公司 | 基于卷积神经网络和动态跟踪的火焰预警方法和*** |
CN106952293A (zh) * | 2016-12-26 | 2017-07-14 | 北京影谱科技股份有限公司 | 一种基于非参数在线聚类的目标跟踪方法 |
CN106952293B (zh) * | 2016-12-26 | 2020-02-28 | 北京影谱科技股份有限公司 | 一种基于非参数在线聚类的目标跟踪方法 |
CN106504190A (zh) * | 2016-12-29 | 2017-03-15 | 浙江工商大学 | 一种基于3d卷积神经网络的立体视频生成方法 |
CN106504190B (zh) * | 2016-12-29 | 2019-09-13 | 浙江工商大学 | 一种基于3d卷积神经网络的立体视频生成方法 |
CN110785777A (zh) * | 2017-01-23 | 2020-02-11 | 牛津大学创新有限公司 | 确定可移动的设备的位置 |
CN110785777B (zh) * | 2017-01-23 | 2024-04-02 | 牛津大学创新有限公司 | 确定可移动的设备的位置 |
CN107316317A (zh) * | 2017-05-23 | 2017-11-03 | 深圳市深网视界科技有限公司 | 一种行人多目标跟踪方法和装置 |
CN109033922A (zh) * | 2017-06-08 | 2018-12-18 | 北京君正集成电路股份有限公司 | 一种视频中设置目标标识的方法及装置 |
WO2019033541A1 (en) * | 2017-08-14 | 2019-02-21 | Huawei Technologies Co., Ltd. | PRODUCTION OF DATA LABELED FOR DEEP OBJECT TRACKING |
US10592786B2 (en) | 2017-08-14 | 2020-03-17 | Huawei Technologies Co., Ltd. | Generating labeled data for deep object tracking |
CN107491761B (zh) * | 2017-08-23 | 2020-04-03 | 哈尔滨工业大学(威海) | 一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法 |
CN107491761A (zh) * | 2017-08-23 | 2017-12-19 | 哈尔滨工业大学(威海) | 一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法 |
CN108206941A (zh) * | 2017-09-27 | 2018-06-26 | 深圳市商汤科技有限公司 | 目标跟踪方法、***、终端设备及存储介质 |
CN108470332A (zh) * | 2018-01-24 | 2018-08-31 | 博云视觉(北京)科技有限公司 | 一种多目标跟踪方法及装置 |
CN108198200A (zh) * | 2018-01-26 | 2018-06-22 | 福州大学 | 跨摄像头场景下指定行人在线跟踪方法 |
CN108346145A (zh) * | 2018-01-31 | 2018-07-31 | 浙江大学 | 一种病理切片中非常规细胞的识别方法 |
CN108346145B (zh) * | 2018-01-31 | 2020-08-04 | 浙江大学 | 一种病理切片中非常规细胞的识别方法 |
CN108509859A (zh) * | 2018-03-09 | 2018-09-07 | 南京邮电大学 | 一种基于深度神经网络的无重叠区域行人跟踪方法 |
CN108447076A (zh) * | 2018-03-16 | 2018-08-24 | 清华大学 | 基于深度增强学习的多目标跟踪方法 |
CN108447076B (zh) * | 2018-03-16 | 2021-04-06 | 清华大学 | 基于深度增强学习的多目标跟踪方法 |
CN108446634A (zh) * | 2018-03-20 | 2018-08-24 | 北京天睿空间科技股份有限公司 | 基于视频分析和定位信息结合的航空器持续跟踪方法 |
CN110298214A (zh) * | 2018-03-23 | 2019-10-01 | 苏州启铭臻楠电子科技有限公司 | 一种基于组合深度神经网络的舞台多目标追踪和分类方法 |
CN110322472A (zh) * | 2018-03-30 | 2019-10-11 | 华为技术有限公司 | 一种多目标跟踪方法以及终端设备 |
WO2019184605A1 (zh) * | 2018-03-30 | 2019-10-03 | 华为技术有限公司 | 一种多目标跟踪方法以及终端设备 |
CN108491816A (zh) * | 2018-03-30 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 在视频中进行目标跟踪的方法和装置 |
CN108875588A (zh) * | 2018-05-25 | 2018-11-23 | 武汉大学 | 基于深度学习的跨摄像头行人检测跟踪方法 |
CN108875588B (zh) * | 2018-05-25 | 2022-04-15 | 武汉大学 | 基于深度学习的跨摄像头行人检测跟踪方法 |
CN109118519A (zh) * | 2018-07-26 | 2019-01-01 | 北京纵目安驰智能科技有限公司 | 基于实例分割的目标Re-ID方法、***、终端和存储介质 |
CN109409499B (zh) * | 2018-09-20 | 2022-03-15 | 北京航空航天大学 | 一种基于深度学习和卡尔曼滤波修正的轨迹恢复方法 |
CN109409499A (zh) * | 2018-09-20 | 2019-03-01 | 北京航空航天大学 | 一种基于深度学习和卡尔曼滤波修正的轨迹恢复方法 |
CN109461144A (zh) * | 2018-10-16 | 2019-03-12 | 杭州依图医疗技术有限公司 | 一种乳腺影像识别的方法及装置 |
CN109461144B (zh) * | 2018-10-16 | 2021-02-23 | 杭州依图医疗技术有限公司 | 一种乳腺影像识别的方法及装置 |
WO2020082258A1 (zh) * | 2018-10-24 | 2020-04-30 | 深圳鲲云信息科技有限公司 | 一种多目标实时跟踪方法、装置及电子设备 |
CN109584213B (zh) * | 2018-11-07 | 2023-05-30 | 复旦大学 | 一种多目标编号选定跟踪方法 |
CN109584213A (zh) * | 2018-11-07 | 2019-04-05 | 复旦大学 | 一种多目标编号选定跟踪方法 |
WO2020233414A1 (zh) * | 2019-05-20 | 2020-11-26 | 阿里巴巴集团控股有限公司 | 物体识别方法、装置及车辆 |
WO2021012484A1 (zh) * | 2019-07-19 | 2021-01-28 | 平安科技(深圳)有限公司 | 基于深度学习的目标跟踪方法、装置及计算机可读存储介质 |
CN113361388A (zh) * | 2021-06-03 | 2021-09-07 | 北京百度网讯科技有限公司 | 图像数据修正方法、装置、电子设备及自动驾驶车辆 |
CN113361388B (zh) * | 2021-06-03 | 2023-11-24 | 北京百度网讯科技有限公司 | 图像数据修正方法、装置、电子设备及自动驾驶车辆 |
Also Published As
Publication number | Publication date |
---|---|
CN106097391B (zh) | 2018-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106097391A (zh) | 一种基于深度神经网络的识别辅助的多目标跟踪方法 | |
CN108875588B (zh) | 基于深度学习的跨摄像头行人检测跟踪方法 | |
CN109919974B (zh) | 基于r-fcn框架多候选关联的在线多目标跟踪方法 | |
EP3633615A1 (en) | Deep learning network and average drift-based automatic vessel tracking method and system | |
CN104134222B (zh) | 基于多特征融合的车流监控图像检测和跟踪***及方法 | |
Kumar et al. | Review of lane detection and tracking algorithms in advanced driver assistance system | |
CN108053419A (zh) | 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 | |
CN109191497A (zh) | 一种基于多种信息融合的实时在线多目标跟踪方法 | |
CN111311666A (zh) | 一种融合边缘特征和深度学习的单目视觉里程计方法 | |
CN103425967A (zh) | 一种基于行人检测和跟踪的人流监控方法 | |
CN105023278A (zh) | 一种基于光流法的运动目标跟踪方法及*** | |
CN111862145B (zh) | 一种基于多尺度行人检测的目标跟踪方法 | |
CN108416780B (zh) | 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 | |
CN111563452A (zh) | 一种基于实例分割的多人体姿态检测及状态判别方法 | |
Girisha et al. | Semantic segmentation of UAV aerial videos using convolutional neural networks | |
Tsintotas et al. | DOSeqSLAM: Dynamic on-line sequence based loop closure detection algorithm for SLAM | |
CN106815576B (zh) | 基于连续时空置信图和半监督极限学习机的目标追踪方法 | |
CN111178161A (zh) | 一种基于fcos的车辆追踪方法及*** | |
Luo et al. | Real-time people counting for indoor scenes | |
CN110555868A (zh) | 一种复杂地面背景下运动小目标检测方法 | |
CN105913452A (zh) | 空间碎片实时检测与跟踪方法 | |
CN111881749A (zh) | 基于rgb-d多模态数据的双向人流量统计方法 | |
CN102663777A (zh) | 基于多视点视频的目标跟踪方法及*** | |
CN114283355A (zh) | 一种基于小样本学习的多目标濒危动物跟踪方法 | |
CN113129336A (zh) | 一种端到端多车辆跟踪方法、***及计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20181116 |