CN106846362A - 一种目标检测跟踪方法和装置 - Google Patents
一种目标检测跟踪方法和装置 Download PDFInfo
- Publication number
- CN106846362A CN106846362A CN201611219932.0A CN201611219932A CN106846362A CN 106846362 A CN106846362 A CN 106846362A CN 201611219932 A CN201611219932 A CN 201611219932A CN 106846362 A CN106846362 A CN 106846362A
- Authority
- CN
- China
- Prior art keywords
- target
- detection block
- feature
- detection
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种目标检测跟踪方法和装置,该方法包括:预测目标可能出现的位置,在预设的检测半径内,随机选取若干检测块;将检测块输入特征提取器,提取特征;将提取的特征输入到集合分类器,判断每个检测块中是否包含目标,获取最有可能包含目标的最优检测块,并根据检验结果更新集合分类器的参数;将前一帧图像的目标所在位置作为模板,对最优检测块周围区域进行模板匹配,获取目标在当前帧图像中的准确位置;在前一帧图像的目标所在位置随机选取若干特征点,在当前帧图像中确定每个特征点对应的位置,根据这些特征点在两帧图像中的位移变化,实时跟踪目标。本方法提高了检测跟踪的效率的准确性,并且可以在线学习,长期检测跟踪。
Description
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种目标检测跟踪方法和装置。
背景技术
由于技术的发展、摄像机的广泛应用,视频分析在各行各业也得到了广泛的应用。目前有很多跟踪检测方法,比如早期的基于模板匹配的检测跟踪方法,速度慢且精度低;现在有些在线学习的方法,例如在线检测算法(tld)可以在线学习,但是效果不能够满足应用需求;还有基于机器学习的检测算法,例如基于卷积神经网络(cnn)的目标检测算法,需要经过大量的训练,且不能在线学习,长时间之后,目标可能发生很多形变,会造成跟踪不准。
发明内容
本发明提供了一种目标检测跟踪方法和装置,以实现可在线学习的检测跟踪,并提高检测跟踪的精度。
根据本发明的一个方面,本发明提供了一种目标检测跟踪方法,包括:
预测目标在当前帧图像中可能出现的位置,以该位置为中心,在预设的检测半径内,随机选取若干检测块;
将选取的检测块输入特征提取器,提取每个检测块的特征;
将每个检测块的特征输入到集合分类器进行分类,判断每个检测块中是否包含目标,获取最有可能包含目标的最优检测块,并根据检验结果更新所述集合分类器的参数;
将前一帧图像的目标所在位置作为模板,对所述最优检测块周围区域进行模板匹配,获取目标在当前帧图像中的准确位置;
在前一帧图像的目标所在位置随机选取若干特征点,在当前帧图像中确定每个特征点对应的位置,根据这些特征点在两帧图像中的位移变化,实时跟踪目标。
根据本发明的另一个方面,本发明提供了一种目标检测跟踪装置,包括:
检测块选取单元,用于预测目标在当前帧图像中可能出现的位置,以该位置为中心,在预设的检测半径内,随机选取若干检测块;
特征提取器,用于对所述检测块选取单元选取的检测块,提取每个检测块的特征;
集合分类器,用于对所述特征提取器提取的每个检测块的特征进行分类,判断每个检测块中是否包含目标,获取最有可能包含目标的最优检测块,并根据检验结果更新所述集合分类器的参数;
位置获取单元,用于将前一帧图像的目标所在位置作为模板,对所述集合分类器获取的最优检测块周围区域进行模板匹配,获取目标在当前帧图像中的准确位置;
目标跟踪单元,用于在前一帧图像的目标所在位置随机选取若干特征点,在当前帧图像中确定每个特征点对应的位置,根据这些特征点在两帧图像中的位移变化,实时跟踪目标。
本发明的有益效果是:本发明实施例在预测位置选取检测块,提高了效率;设计专门的特征提取器,提取检测块的有效特征,提高检测跟踪的准确性;提取的特征输入到集合分类器,判断检测块中是否包含目标,选出最优检测块并在其周围区域进行模板匹配,从而检测目标的准确位置,并根据检验结果更新集合分类器的参数,实现在线学习;根据特征点在连续两帧图像中的位移变化,可以实现对目标运动的跟踪。
附图说明
图1是本发明一个实施例提供的一种目标检测跟踪方法的流程图;
图2是本发明一个实施例中深度卷积神经网络的示意图;
图3是本发明一个实施例提供的一种目标检测跟踪装置的功能框图。
具体实施方式
本发明的设计构思是:现有的跟踪检测方法各有不足,不能满足应用需求。例如基于模板匹配的检测跟踪方法,速度慢且精度低;在线检测算法虽然可以在线学习,但是效果不能够满足应用需求;基于卷积神经网络的目标检测算法,需要经过大量的训练,且不能在线学习。针对这种情况,本发明在预测位置选取检测块,提高了效率;设计专门的特征提取器,提取检测块的有效特征,提高检测跟踪的准确性;再将特征输入到集合分类器,判断检测块中是否包含目标,选出最优检测块并在其周围区域进行模板匹配,从而检测目标的准确位置,并根据检验结果更新集合分类器的参数,实现了在线学习;根据特征点在连续两帧图像中的位移变化,还可以实现对目标运动的跟踪。
实施例一
图1是本发明一个实施例提供的一种目标检测跟踪方法的流程图,如图1所示,本实施例提供的目标检测跟踪方法包括:
步骤S110:预测目标在当前帧图像中可能出现的位置,以该位置为中心,在预设的检测半径内,随机选取若干检测块。检测半径r可以根据需要配置。
可以根据之前的图像预测目标在当前帧图像的位置,例如当在前两帧图像中包含目标时,根据目标在前一帧图像中的位置以及目标在前两帧图像中的运动情况,即可预测目标在当前帧图像中的可能出现的位置。如果之前的图像中不包含目标,那么用户可以人工指定初始的跟踪位置,或者通过光流法等其他现有的方法确定初始的跟踪位置,作为目标在当前帧图像中可能出现的位置。
步骤S120:将选取的检测块输入特征提取器,提取每个检测块的特征。
现有的在线学习方法提取的图像特征比较简单,跟踪效果不能满足应用需求。因此在优选实施例中,特征提取器采用深度卷积神经网络,充分利用深度卷积神经网络可以提取有效特征的优点。由于本方案不但需要目标跟踪的精度,还需要有较高的效率,才能够满足应用需求,因此深度卷积神经网络的结构需要尽量简单有效。如图2所示,本实施例中的深度卷积神经网络包括3个卷积层和2个降采样层,卷积核的大小为5*5,选取的检测块为32*32像素。每个检测块输入到深度卷积神经网络中,最终会得到一个对应的54维的特征向量。
在利用特征提取器提取检测块的特征之前,需要对深度卷积神经网络进行训练。本实施例建立了一个样本库,样本库中尽量包含目标的各种形状、尺度的图片,目标的选取仅需要任意选择一个同类的目标即可,例如当需要跟踪小汽车时,仅需要任意选择一个小汽车即可,而不必选择某一辆特定的小汽车。利用这个样本库训练深度卷积神经网络的卷积核的参数等,通过训练得到用于提取特征的深度卷积神经网络,用于提取检测块的特征。
步骤S130:将每个检测块的特征输入到集合分类器进行分类,判断每个检测块中是否包含目标,获取最有可能包含目标的最优检测块,并根据检验结果更新集合分类器的参数。
本实施例中的集合分类器为随机森林分类器,其中包含有n个基本分类器,每个基本分类器包含m个特征比较集,也就是说每颗树有m个判断节点,输入图像的特征与每一个判断节点进行比较,产生0或1,然后将这m个0或1的数连成二进制码,从而获取n个长度为m的二进制数,计算后验概率:P(y|x)=pCounter/(pCounter+nCounter),其中pCounter和nCounter分别是正和负图像片的数目。
计算后验概率的过程如下所示:
整个集合分类器公有n个基本分类器,也就是有n个后验概率,然后求平均,若某个检测块的后验概率均值大于预设的后验概率阈值,则判断该检测块中包含目标,否则判断该检测块中不包含目标。
可以将检测块分为正样本和负样本,正样本为目标块,负样本为背景块。设置目标阈值th和背景阈值th1,将后验概率均值小于背景阈值th1的检测块作为负样本,将后验概率均值大于目标阈值th的检测块作为正样本,更新集合分类器中每个基本分类器的正负样本集,并根据集合分类器中每个基本分类器更新后的正负样本集,更新后验概率阈值。本方法可以广泛的应用到动态背景或者静态背景下的目标检测及跟踪。
将所有的检测块计算一遍,找出后验概率最大检测块的作为最优检测块,其包含目标的可能性最大。
作为一个具体的实施例,集合分类器包含有15个基本分类器,每个基本分类器包含13个特征比较集。后验概率阈值的初始值设置为0.6,之后会训练优化。目标阈值th取00.65,背景阈值th1取0.2。
步骤S140:将前一帧图像的目标所在位置作为模板,对最优检测块周围区域进行模板匹配,获取目标在当前帧图像中的准确位置。
步骤S150:在前一帧图像的目标所在位置随机选取若干特征点,在当前帧图像中确定每个特征点对应的位置,根据这些特征点在两帧图像中的位移变化,实时跟踪目标。
优选实施例中,特征点选取4*4的窗口,在选取了所有的特征点并确定了每个特征点在前后两帧图像中的位置之后,将所有的特征点根据在相邻两帧图像中的位移变化进行排序,得到排序的中值,将不大于中值的预设比例的特征点作为当前帧的特征点,例如不大于中值的50%的特征点,然后仅根据这部分特征点进行目标跟踪,并以此进行下去,从而实现了特征点的动态更新,提高了目标检测跟踪的准确性。
实施例二
图3是本发明一个实施例提供的一种目标检测跟踪装置的功能框图,如图3所示,本实施例提供的目标检测跟踪装置300包括检测块选取单元310、特征提取器320、集合分类器330、位置获取单元340和目标跟踪单元350。
检测块选取单元310用于预测目标在当前帧图像中可能出现的位置,并以该位置为中心,在预设的检测半径内,随机选取若干检测块。
特征提取器320用于对检测块选取单元310选取的检测块,提取每个检测块的特征。为了能够有效提取检测块的特征,本实施例的特征提取器320采用深度卷积神经网络,包括3个卷积层和2个降采样层,卷积核的大小为5*5,选取的检测块为32*32像素。每个检测块输入到深度卷积神经网络中,最终会得到一个对应的54维的特征向量。深度卷积神经网络在使用之前需要进行训练,因此本实施例提供的目标检测跟踪装置300还包括样本库360,其中包含有目标的多种形状、尺度的图片,用于训练深度卷积神经网络的卷积核的参数等。
集合分类器330用于对特征提取器320提取的每个检测块的特征进行分类,判断每个检测块中是否包含目标,获取最有可能包含目标的最优检测块,并根据检验结果更新集合分类器330的参数。本实施例中,集合分类器330为随机森林分类器,包括n个基本分类器,每个基本分类器包含m个特征比较集。将每个检测块的特征依次输入集合分类器330中的每个基本分类器,与每个基本分类器的判断节点进行比较,产生0或1,从而获取n个长度为m的二进制数以及对应的n个后验概率;计算每个检测块的n个后验概率的均值,若某个检测块的后验概率均值大于预设的后验概率阈值,则判断该检测块中包含目标,否则判断该检测块中不包含目标,并将后验概率均值最大的检测块作为最优检测块。具体地,集合分类器包含有15个基本分类器,每个基本分类器包含13个特征比较集,后验概率阈值的初始值设置为0.6。
为了使本实施例提供的目标检测跟踪装置300能够在线学习,不论目标发生什么变化,都可以检测跟踪到,优选实施例中,集合分类器330包括学习模块331,用于将后验概率均值小于预设的背景阈值(如0.2)的检测块作为负样本,将后验概率均值大于预设的目标阈值(如0.65)的检测块作为正样本,更新集合分类器330中每个基本分类器的正负样本集,并根据集合分类器330中每个基本分类器更新后的正负样本集,更新后验概率阈值。
位置获取单元340用于将前一帧图像的目标所在位置作为模板,对集合分类器330获取的最优检测块周围区域进行模板匹配,获取目标在当前帧图像中的准确位置。
目标跟踪单元350用于在前一帧图像的目标所在位置随机选取若干特征点,在当前帧图像中确定每个特征点对应的位置,根据这些特征点在两帧图像中的位移变化,实时跟踪目标。
在一个优选实施例中,目标跟踪单元350包括特征点更新模块351,用于对所有特征点的位移变化的大小进行排序,获取排序的中值,将不大于排序中值的预设比例(如50%)的特征点作为当前帧的特征点,并以此进行下去,从而实现特征点的动态更新,提高检测跟踪的准确性。
本实施例提供的目标检测跟踪装置,可以直接接受一整张图片的输入,然后直接进行检测跟踪,并且可以在线学习,长期检测跟踪,不论目标发生什么变化,都可以检测跟踪到,如果目标消失,等目标出现时,可再次检测跟踪,可以广泛的应用到动态背景或者静态背景下的目标检测及跟踪。
以上所述,仅为本发明的具体实施方式,在本发明的上述教导下,本领域技术人员可以在上述实施例的基础上进行其他的改进或变形。本领域技术人员应该明白,上述的具体描述只是更好的解释本发明的目的,本发明的保护范围应以权利要求的保护范围为准。
需要说明的是:
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
本发明的目标检测跟踪装置传统上包括处理器和以存储器形式的计算机程序产品或者计算机可读介质。存储器可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。存储器具有用于执行上述方法中的任何方法步骤的程序代码的存储空间。例如,用于程序代码的存储空间可以包括分别用于实现上面的方法中的各种步骤的各个程序代码。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。这些计算机程序产品包括诸如硬盘,紧致盘(CD)、存储卡或者软盘之类的程序代码载体。这样的计算机程序产品通常为便携式或者固定存储单元。该存储单元可以类似布置的存储段、存储空间等。程序代码可以例如以适当形式进行压缩。通常,存储单元包括用于执行根据本发明的方法步骤的计算机可读代码,即可以由例如处理器读取的代码,这些代码被运行时,导致该目标检测跟踪装置执行上面所描述的方法中的各个步骤。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。单词“包括”不排除存在未列在权利要求中的元件或步骤。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下被实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本发明的主题而选择的。
Claims (10)
1.一种目标检测跟踪方法,其特征在于,所述方法包括:
预测目标在当前帧图像中可能出现的位置,以该位置为中心,在预设的检测半径内,随机选取若干检测块;
将选取的检测块输入特征提取器,提取每个检测块的特征;
将每个检测块的特征输入到集合分类器进行分类,判断每个检测块中是否包含目标,获取最有可能包含目标的最优检测块,并根据检验结果更新所述集合分类器的参数;
将前一帧图像的目标所在位置作为模板,对所述最优检测块周围区域进行模板匹配,获取目标在当前帧图像中的准确位置;
在前一帧图像的目标所在位置随机选取若干特征点,在当前帧图像中确定每个特征点对应的位置,根据这些特征点在两帧图像中的位移变化,实时跟踪目标。
2.如权利要求1所述的方法,其特征在于,所述特征提取器为深度卷积神经网络;
在将选取的检测块输入特征提取器,提取每个检测块的特征之前,所述方法还包括:
建立一个样本库,所述样本库中包含有目标的多种形状、尺度的图片;
利用所述样本库训练所述深度卷积神经网络的卷积核的参数。
3.如权利要求1所述的方法,其特征在于,所述集合分类器为随机森林分类器;所述集合分类器包括n个基本分类器,每个基本分类器包含m个特征比较集;
所述判断每个检测块中是否包含目标,获取最有可能包含目标的最优检测块,包括:
将每个检测块的特征依次输入所述集合分类器中的每个基本分类器,与每个基本分类器的判断节点进行比较,产生0或1,从而获取n个长度为m的二进制数以及对应的n个后验概率;
计算每个检测块的n个后验概率的均值,若某个检测块的后验概率均值大于预设的后验概率阈值,则判断该检测块中包含目标,否则判断该检测块中不包含目标;将后验概率均值最大的检测块作为所述最优检测块。
4.如权利要求3所述的方法,其特征在于,所述根据检验结果更新所述集合分类器的参数,具体包括:
将后验概率均值小于预设的背景阈值的检测块作为负样本;
将后验概率均值大于预设的目标阈值的检测块作为正样本;
更新所述集合分类器中每个基本分类器的正负样本集;
根据所述集合分类器中每个基本分类器更新后的正负样本集,更新所述后验概率阈值。
5.如权利要求1所述的方法,其特征在于,所述根据所述若干特征点在两帧图像中的位移变化,跟踪目标的运动情况包括:
对所有特征点的位移变化的大小进行排序,获取排序的中值,将不大于所述中值的预设比例的特征点作为当前帧的特征点,并以此进行下去,动态更新选取的特征点。
6.一种目标检测跟踪装置,其特征在于,所述装置包括:
检测块选取单元,用于预测目标在当前帧图像中可能出现的位置,以该位置为中心,在预设的检测半径内,随机选取若干检测块;
特征提取器,用于对所述检测块选取单元选取的检测块,提取每个检测块的特征;
集合分类器,用于对所述特征提取器提取的每个检测块的特征进行分类,判断每个检测块中是否包含目标,获取最有可能包含目标的最优检测块,并根据检验结果更新所述集合分类器的参数;
位置获取单元,用于将前一帧图像的目标所在位置作为模板,对所述集合分类器获取的最优检测块周围区域进行模板匹配,获取目标在当前帧图像中的准确位置;
目标跟踪单元,用于在前一帧图像的目标所在位置随机选取若干特征点,在当前帧图像中确定每个特征点对应的位置,根据这些特征点在两帧图像中的位移变化,实时跟踪目标。
7.如权利要求6所述的装置,其特征在于,所述特征提取器为深度卷积神经网络;
所述装置还包括样本库,所述样本库中包含有目标的多种形状、尺度的图片,用于训练所述深度卷积神经网络的卷积核的参数。
8.如权利要求6所述的装置,其特征在于,所述集合分类器为随机森林分类器;所述集合分类器包括n个基本分类器,每个基本分类器包含m个特征比较集;
所述结合分类器具体用于,将每个检测块的特征依次输入所述集合分类器中的每个基本分类器,与每个基本分类器的判断节点进行比较,产生0或1,从而获取n个长度为m的二进制数以及对应的n个后验概率;计算每个检测块的n个后验概率的均值,若某个检测块的后验概率均值大于预设的后验概率阈值,则判断该检测块中包含目标,否则判断该检测块中不包含目标;将后验概率均值最大的检测块作为所述最优检测块。
9.如权利要求8所述的装置,其特征在于,所述集合分类器包括学习模块,用于将后验概率均值小于预设的背景阈值的检测块作为负样本,将后验概率均值大于预设的目标阈值的检测块作为正样本,更新所述集合分类器中每个基本分类器的正负样本集,并根据所述集合分类器中每个基本分类器更新后的正负样本集,更新所述后验概率阈值。
10.如权利要求6所述的装置,其特征在于,所述目标跟踪单元包括特征点更新模块,用于对所有特征点的位移变化的大小进行排序,获取排序的中值,将不大于所述中值的预设比例的特征点作为当前帧的特征点,并以此进行下去,动态更新选取的特征点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611219932.0A CN106846362B (zh) | 2016-12-26 | 2016-12-26 | 一种目标检测跟踪方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611219932.0A CN106846362B (zh) | 2016-12-26 | 2016-12-26 | 一种目标检测跟踪方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106846362A true CN106846362A (zh) | 2017-06-13 |
CN106846362B CN106846362B (zh) | 2020-07-24 |
Family
ID=59136696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611219932.0A Active CN106846362B (zh) | 2016-12-26 | 2016-12-26 | 一种目标检测跟踪方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106846362B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107886532A (zh) * | 2017-11-20 | 2018-04-06 | 北京小米移动软件有限公司 | 基于增强现实的虚拟物体的放置方法及装置 |
CN107909024A (zh) * | 2017-11-13 | 2018-04-13 | 哈尔滨理工大学 | 基于图像识别和红外避障的车辆跟踪***、方法及车辆 |
CN108280408A (zh) * | 2018-01-08 | 2018-07-13 | 北京联合大学 | 一种基于混合跟踪和广义线性模型的人群异常事件检测方法 |
CN109255803A (zh) * | 2018-08-24 | 2019-01-22 | 长安大学 | 一种基于位移试探的运动目标的位移计算方法 |
CN109325962A (zh) * | 2017-07-31 | 2019-02-12 | 株式会社理光 | 信息处理方法、装置、设备以及计算机可读存储介质 |
CN109583262A (zh) * | 2017-09-28 | 2019-04-05 | 财团法人成大研究发展基金会 | 对象侦测的适应***与方法 |
CN109727275A (zh) * | 2018-12-29 | 2019-05-07 | 北京沃东天骏信息技术有限公司 | 目标检测方法、装置、***和计算机可读存储介质 |
CN111627046A (zh) * | 2020-05-15 | 2020-09-04 | 北京百度网讯科技有限公司 | 目标部位跟踪方法、装置、电子设备和可读存储介质 |
CN111797785A (zh) * | 2020-07-09 | 2020-10-20 | 电子科技大学 | 一种基于机场场面先验与深度学习的多航空器跟踪方法 |
CN111814590A (zh) * | 2020-06-18 | 2020-10-23 | 浙江大华技术股份有限公司 | 人员安全状态监测方法、设备及计算机可读存储介质 |
CN111882583A (zh) * | 2020-07-29 | 2020-11-03 | 成都英飞睿技术有限公司 | 一种运动目标检测方法、装置、设备及介质 |
CN112926356A (zh) * | 2019-12-05 | 2021-06-08 | 北京沃东天骏信息技术有限公司 | 一种目标跟踪方法和装置 |
CN113989332A (zh) * | 2021-11-16 | 2022-01-28 | 苏州魔视智能科技有限公司 | 一种目标跟踪方法、装置、存储介质及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101414670B1 (ko) * | 2013-01-02 | 2014-07-04 | 계명대학교 산학협력단 | 온라인 랜덤 포레스트 및 파티클 필터를 이용한 열 영상에서의 객체 추적 방법 |
CN104156734A (zh) * | 2014-08-19 | 2014-11-19 | 中国地质大学(武汉) | 一种基于随机蕨分类器的全自主在线学习方法 |
CN104376576A (zh) * | 2014-09-04 | 2015-02-25 | 华为技术有限公司 | 一种目标跟踪方法及装置 |
US20160174902A1 (en) * | 2013-10-17 | 2016-06-23 | Siemens Aktiengesellschaft | Method and System for Anatomical Object Detection Using Marginal Space Deep Neural Networks |
CN105869178A (zh) * | 2016-04-26 | 2016-08-17 | 昆明理工大学 | 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法 |
US9437009B2 (en) * | 2011-06-20 | 2016-09-06 | University Of Southern California | Visual tracking in video images in unconstrained environments by exploiting on-the-fly context using supporters and distracters |
CN106204642A (zh) * | 2016-06-29 | 2016-12-07 | 四川大学 | 一种基于深度神经网络的细胞追踪方法 |
-
2016
- 2016-12-26 CN CN201611219932.0A patent/CN106846362B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9437009B2 (en) * | 2011-06-20 | 2016-09-06 | University Of Southern California | Visual tracking in video images in unconstrained environments by exploiting on-the-fly context using supporters and distracters |
KR101414670B1 (ko) * | 2013-01-02 | 2014-07-04 | 계명대학교 산학협력단 | 온라인 랜덤 포레스트 및 파티클 필터를 이용한 열 영상에서의 객체 추적 방법 |
US20160174902A1 (en) * | 2013-10-17 | 2016-06-23 | Siemens Aktiengesellschaft | Method and System for Anatomical Object Detection Using Marginal Space Deep Neural Networks |
CN104156734A (zh) * | 2014-08-19 | 2014-11-19 | 中国地质大学(武汉) | 一种基于随机蕨分类器的全自主在线学习方法 |
CN104376576A (zh) * | 2014-09-04 | 2015-02-25 | 华为技术有限公司 | 一种目标跟踪方法及装置 |
CN105869178A (zh) * | 2016-04-26 | 2016-08-17 | 昆明理工大学 | 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法 |
CN106204642A (zh) * | 2016-06-29 | 2016-12-07 | 四川大学 | 一种基于深度神经网络的细胞追踪方法 |
Non-Patent Citations (1)
Title |
---|
张益彬: ""多摄像头智能跟踪算法研究及基于GPU的优化实现"", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109325962A (zh) * | 2017-07-31 | 2019-02-12 | 株式会社理光 | 信息处理方法、装置、设备以及计算机可读存储介质 |
CN109583262A (zh) * | 2017-09-28 | 2019-04-05 | 财团法人成大研究发展基金会 | 对象侦测的适应***与方法 |
CN107909024B (zh) * | 2017-11-13 | 2021-11-05 | 哈尔滨理工大学 | 基于图像识别和红外避障的车辆跟踪***、方法及车辆 |
CN107909024A (zh) * | 2017-11-13 | 2018-04-13 | 哈尔滨理工大学 | 基于图像识别和红外避障的车辆跟踪***、方法及车辆 |
CN107886532A (zh) * | 2017-11-20 | 2018-04-06 | 北京小米移动软件有限公司 | 基于增强现实的虚拟物体的放置方法及装置 |
CN108280408A (zh) * | 2018-01-08 | 2018-07-13 | 北京联合大学 | 一种基于混合跟踪和广义线性模型的人群异常事件检测方法 |
CN109255803A (zh) * | 2018-08-24 | 2019-01-22 | 长安大学 | 一种基于位移试探的运动目标的位移计算方法 |
CN109255803B (zh) * | 2018-08-24 | 2022-04-12 | 长安大学 | 一种基于位移试探的运动目标的位移计算方法 |
CN109727275A (zh) * | 2018-12-29 | 2019-05-07 | 北京沃东天骏信息技术有限公司 | 目标检测方法、装置、***和计算机可读存储介质 |
CN109727275B (zh) * | 2018-12-29 | 2022-04-12 | 北京沃东天骏信息技术有限公司 | 目标检测方法、装置、***和计算机可读存储介质 |
CN112926356A (zh) * | 2019-12-05 | 2021-06-08 | 北京沃东天骏信息技术有限公司 | 一种目标跟踪方法和装置 |
CN111627046A (zh) * | 2020-05-15 | 2020-09-04 | 北京百度网讯科技有限公司 | 目标部位跟踪方法、装置、电子设备和可读存储介质 |
CN111814590A (zh) * | 2020-06-18 | 2020-10-23 | 浙江大华技术股份有限公司 | 人员安全状态监测方法、设备及计算机可读存储介质 |
CN111814590B (zh) * | 2020-06-18 | 2023-09-29 | 浙江大华技术股份有限公司 | 人员安全状态监测方法、设备及计算机可读存储介质 |
CN111797785A (zh) * | 2020-07-09 | 2020-10-20 | 电子科技大学 | 一种基于机场场面先验与深度学习的多航空器跟踪方法 |
CN111882583A (zh) * | 2020-07-29 | 2020-11-03 | 成都英飞睿技术有限公司 | 一种运动目标检测方法、装置、设备及介质 |
CN111882583B (zh) * | 2020-07-29 | 2023-11-14 | 成都英飞睿技术有限公司 | 一种运动目标检测方法、装置、设备及介质 |
CN113989332A (zh) * | 2021-11-16 | 2022-01-28 | 苏州魔视智能科技有限公司 | 一种目标跟踪方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN106846362B (zh) | 2020-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106846362A (zh) | 一种目标检测跟踪方法和装置 | |
CN107330437B (zh) | 基于卷积神经网络目标实时检测模型的特征提取方法 | |
CN110738101B (zh) | 行为识别方法、装置及计算机可读存储介质 | |
CN108898047B (zh) | 基于分块遮挡感知的行人检测方法及*** | |
CN107527009B (zh) | 一种基于yolo目标检测的遗留物检测方法 | |
CN103093212B (zh) | 基于人脸检测和跟踪截取人脸图像的方法和装置 | |
CN103632158B (zh) | 森林防火监控方法及森林防火监控*** | |
CN107025652A (zh) | 一种基于运动特性和颜色时空信息的火焰检测方法 | |
CN106934381A (zh) | 一种人脸识别跟踪方法 | |
CN105260749B (zh) | 基于方向梯度二值模式和软级联svm的实时目标检测方法 | |
KR101697161B1 (ko) | 열 영상에서 온라인 랜덤 펀 학습을 이용하여 보행자를 추적하는 장치 및 방법 | |
CN111210399B (zh) | 一种成像质量评价方法、装置及设备 | |
CN105608446A (zh) | 一种视频流异常事件的检测方法及装置 | |
US20200333504A1 (en) | Millimeter Wave Image Based Human Body Foreign Object Detection Method and System | |
CN111027481B (zh) | 基于人体关键点检测的行为分析方法及装置 | |
CN110245697B (zh) | 一种表面脏污检测方法、终端设备及存储介质 | |
CN110674680B (zh) | 活体识别的方法、装置、存储介质 | |
CN110287862B (zh) | 基于深度学习的防偷拍检测方法 | |
CN110991397B (zh) | 一种行进方向确定方法及相关设备 | |
CN110738686B (zh) | 静动态结合的视频人车检测方法及*** | |
CN103413149B (zh) | 复杂背景中实现静态目标检测和识别的方法 | |
CN103593672A (zh) | Adaboost分类器在线学习方法及*** | |
CN112307984B (zh) | 基于神经网络的安全帽检测方法和装置 | |
CN105913429B (zh) | 智能终端用户视觉感知响应时延指标的计算方法 | |
CN109544516A (zh) | 图像检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |