CN106952293A - 一种基于非参数在线聚类的目标跟踪方法 - Google Patents

一种基于非参数在线聚类的目标跟踪方法 Download PDF

Info

Publication number
CN106952293A
CN106952293A CN201611219002.5A CN201611219002A CN106952293A CN 106952293 A CN106952293 A CN 106952293A CN 201611219002 A CN201611219002 A CN 201611219002A CN 106952293 A CN106952293 A CN 106952293A
Authority
CN
China
Prior art keywords
target
cluster centre
feature
template
nonparametric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611219002.5A
Other languages
English (en)
Other versions
CN106952293B (zh
Inventor
姬晓晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Yingpu Technology Co ltd
Original Assignee
Beijing Yingpu Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yingpu Technology Co Ltd filed Critical Beijing Yingpu Technology Co Ltd
Priority to CN201611219002.5A priority Critical patent/CN106952293B/zh
Publication of CN106952293A publication Critical patent/CN106952293A/zh
Application granted granted Critical
Publication of CN106952293B publication Critical patent/CN106952293B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

一种基于非参数在线聚类的目标跟踪方法,其解决的技术问题在于:给定一个视频,对某一指定感兴趣目标进行在线目标跟踪,从而预测出后续图像帧目标的具***置以及外接矩形框,基于大深度网络学习到的小深度网络,对感兴趣目标提取蒸馏特征。该特征具有较强的外观表达能力、判别能力和鲁棒性。本发明进一步解决的问题在于:对感兴趣目标的历史外观进行非参数在线聚类,基于加权的聚类中心产生一个保留历史信息的目标外观模板,并用该目标外观模板产生目标空间分布,从而提高目标跟踪准确率,减少目标漂移的风险,进而降低错误率。

Description

一种基于非参数在线聚类的目标跟踪方法
技术领域
本发明主要涉及到视频图像处理、智能视频监控、模式识别等领域,具体涉及的是一种基于非参数在线聚类的目标跟踪方法。
背景技术
目标跟踪是智能视频监控领域一个最基础和最有挑战性的核心问题。其作为计算机视觉算法中比较底层的问题,具有广泛的应用前景。如智能视频监控领域中的运动分析、异常检测等高层次的智能分析应用均是以目标跟踪为基础进行。对场景中的运动目标进行提取轨迹,可以为监控场景中更高层次的智能分析提供有效的基础。
传统的目标跟踪方法大多在给定视频第一帧初始化某一感兴趣目标,然后训练一个目标外观模型,在跟踪过程中通过外观模型进行判别式判断或产生式预测,从而推断出下一帧感兴趣目标的位置信息。这类方法在跟踪过程中采用在线学***滑的相似度函数,并采用梯度优化的方式对目标进行快速定位。不同于卡尔曼滤波对目标运动建模的方式,我们提出的方法基于目标表观信息对目标上下文的多个空间栅格计算相似度以便得到多个初始候选位置,而不是卡尔曼滤波器获取到的一个可能的预测位置,从而增加了***对快速运动和遮挡的鲁棒性和适应能力。不同于Meanshift算法采用核颜色直方图来表达目标***,我们采用了特征蒸馏器提取的特征来更好地表达目标的表观信息。不同于Meanshift算法采用梯度优化的方式对目标进行快速定位,我们的***通过在频域空间学习滤波***并采用快速傅里叶变换来实现目标的快速检测和最终定位。
发明内容
本发明提供了一种目标跟踪方法,其解决的技术问题在于:给定一个视频,对某一指定感兴趣目标进行在线目标跟踪,从而预测出后续图像帧目标的具***置以及外接矩形框。
本发明进一步解决的问题在于:基于大深度网络学习到的小深度网络,对感兴趣目标提取蒸馏特征。该特征具有较强的外观表达能力、判别能力和鲁棒性。
本发明进一步解决的问题在于:对感兴趣目标的历史外观进行非参数在线聚类,基于加权的聚类中心产生一个保留历史信息的目标外观模板,并用该目标外观模板产生目标空间分布,从而提高目标跟踪准确率,减少目标漂移的风险,进而降低错误率。
本发明进一步解决的问题在于:降低硬件需求和算法复杂度,实现快速的目标跟踪。
为解决上述问题,本发明公开了一种基于非参数在线聚类的目标跟踪方法,针对给定视频初始化目标执行该方法,得到目标跟踪结果。
该目标跟踪方法的步骤包括以下步骤:
步骤1,给定一个输入视频,并且在第一帧初始化一个感兴趣目标的方框;对该目标方框提取颜色直方图特征,并采用K均值的方法来初始化聚类中心;
步骤2,对该方框的上下文区域图像提取保持空间分布的图像蒸馏特征图,假设该底层图像特征图存在一个相同尺度大小的先验标签分布;
步骤3,基于图像蒸馏特征图和先验标签分布,采用岭回归的方式在频域空间而不是传统的时域空间学习一个滤波***;
步骤4,对于下一帧图像,基于上一帧目标***预测到的目标中心位置,划分多个栅格,对每个栅格提取颜色直方图特征,将该颜色直方图特征与由聚类中心生成的模板计算相似度,得到大致的目标空间概率分布。基于该粗略的目标空间概率分布,得到相似度最大的前k个栅格。
步骤5,对这k个栅格中的每一个,提取一个与第一帧上下文区域相同大小图像的特征图,将滤波***与该图像特征图通过快速傅里叶变换卷积,从而得到每个空间位置的置信度。取置信度值最大的空间位置为目标中心位置。目标的状态也可以得到。基于该目标状态,提取新的颜色直方图特征;
步骤6,将新的颜色直方图与以前学习到的聚类中心进行比较,若相似度大于一定值,则将该颜色直方图归入与它最相似的聚类中心,并更新该聚类中心;若相似度小于一定值,则新创建一个聚类中心。通过非参数在线增量式聚类得到聚类中心后,将这些聚类中心合并成一个目标模板。基于该中心位置提取上下文区域特征图,并学习一个新的跟踪滤波器,用该跟踪滤波器更新上一帧的跟踪滤波器;
步骤7,循环执行步骤4-6,进行在线目标跟踪。
另外,该方法主要包括以下几个部分,具体来说就是:候选提案产生单元,用于基于先验知识或者历史时空信息产生少量相对可靠的候选样本提案;特征提取单元,用于提取每个候选样本提案相对应的图像区域的特征表达;观测模型判断单元,用于对提案特征进行分类或者回归,判断该提案属于目标的概率或者是否是目标;集成学习融合单元,用于将多个观测模型判断单元通过一定的策略进行集成学习,并对多个跟踪结果进行融合,从而得到当前图像帧目标位置信息和外界矩形框信息;在线模型更新单元,用于对观测模型判断单元进行在线更新,以保障模型的鲁棒性。
本发明的提案产生过程针对目标跟踪过程中有可能出现模型漂移问题,产生少量置信度较高的候选提案,为后面观测模型判断单元提供重新检测或校正的可能性。这样降低了长期遮挡或者消失-再现问题导致的模板漂移风险。本提案产生过程主要包括目标模板生成过程和目标空间分布产生过程。
目标模板生成过程主要采用非参数在线聚类方法并生成一个目标模板过程为:对新的颜色直方图非参数在线增量式聚类,得到新的聚类中心。将这些聚类中心按照一定的权重来合并成一个目标模板。每个聚类中心的权重由每个聚类中的样本个数决定。另外,为了得到更稳定的目标模板,在生成该目标模板之前,先排除权重较小的聚类中心。对权重较大的聚类中心按照权重相加的方式,并归一化,从而得到目标模板。其中聚类中心的计算方式如下:
这里wj是第j个聚类中心的权重。具体来说,就是在线得到一个样本xi后,计算该样本与每个聚类中心cj的相似度。其相似度函数s(xi,cj)为:
目标模板的计算公式如下:
wi是每个聚类中心的权重。
空间分布产生过程主要是对于下一帧图像,基于上一帧目标***预测到的目标中心位置,划分多个栅格,对每个栅格提取颜色直方图特征,将该颜色直方图特征与由聚类中心生成的模板计算相似度,得到目标空间分布。基于目标的空间分布得到相似度最大的前k个栅格。
本发明的特征提取过程是将其他通过数据库学习到的大深度学习网络用一个小型深度网络进行提取特征模拟,在训练阶段,监督信息是大深度学习网络每层提取到的特征,用小型深度网络尽可能地模拟逼近这些监督信息;在测试阶段,用小型深度网络提取到的特征即为蒸馏特征。采用小网络提取的深度蒸馏特征,具有较强的特征表达能力和判别能力。
本发明的观测模型训练过程针对目标在不同视频环境下在线学习相应的模型,从而在跟踪过程中能够有效的滤除不合理的跟踪结果,避免了现有的方法中跟踪结果与周围环境信息不匹配而导致的跟踪结果定位错误的问题。
本发明的集成学习融合采用了对历史中的目标外观信息进行聚类,从而得到相对稳定的外观表达聚类中心,增强了外观模型表达的稳定性。
本发明的更新过程只针对跟踪过程中特定有效样本选择规则进行模型的训练学习,避免了对所有预测到的样本行计算,降低了模型更新发生漂移或跟踪不准确的风险。本发明的方法和相应的算法具有较高的合理性以及运行效率,降低了复杂度,能够达到实时的目标跟踪。
本发明可广泛用于视觉安防、机器视觉跟踪、人机接口等领域,是一种具有通用性的智能视觉监控的核心方法。
附图说明
图1A所示为本发明的目标跟踪***的结构框图;
图1B所示为本发明目标跟踪***中候选提案产生单元结构框图;
图1C所示为本发明目标跟踪***特征提取单元结构框图;
图1D所示为本发明目标跟踪***观测模型判断单元结构框图;
图2所示为本发明目标跟踪方法的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明对一个视频序列的第一帧某通用目标进行人工初始化或自动初始化(譬如检测),然后输出后续帧的目标轨迹,即目标在每一帧中的位置以及轮廓外接矩形框。
更进一步的,本发明基于学习到的小深度网络提取蒸馏特征,具有较强的表达能力。
更进一步的,本发明从视频序列图像中的历史时空目标视觉特征中在线学习非参数聚类中心及目标聚类模板,提高了目标跟踪对遮挡等问题的鲁棒性,提高了准确率,降低了错误率。
更进一步的,本发明对目标在当前帧图像中的空间分布约束进行判别,减少了错误预测结果,进一步提高了跟踪正确率。
更进一步的,本发明对硬件要求低,算法复杂度低。
参照图1A所示的本发明的目标跟踪***的结构示意图,该***包含视频帧图像获取装置、目标跟踪装置、存储装置以及显示装置。
图像获取装置用于获取输入图像,例如其可以为一监控摄像头,将获取一段图像序列和第一帧初始化的目标框传送至目标跟踪装置。
目标跟踪装置用于针对该图像序列进行处理。跟踪装置可设置在普通PC机、板卡、图形处理器或嵌入式处理盒上。目标跟踪装置包括候选提案产生单元、底层特征提取单元、观测模型判断单元、集成学习融合单元以及在线模型更新单元。
候选提案产生单元接收来自图像获取装置的图像序列和第一帧的目标初始框,当处理第二帧时以第一帧的目标初始位置为中心,按照一定的策略提取少量候选提案。
如图1B所示,候选提案产生单元进一步包括:在线检测滤波单元、目标分布概率单元和候选提案输出单元。
在线检测滤波单元主要分析历史目标跟踪数据,并通过在线学习得到一个目标外观表达滤波器。目标分布概率单元主要通过在线检测滤波单元计算目标在图像全局范围内的空间概率分布。
候选提案输出单元主要基于目标概率分布粗略估计出目标最可能存在的几个位置,将这些位置作为候选提案。
如图1C所示,特征提取单元通过蒸馏已有的大深度网络模型得到小的特征网络模型,从而可以更快速地提取具有较强鲁棒性和表达能力的深度特征。
如图1D所示,观测模型判断单元主要包括模型参数、卷积操作和阈值判别器。模型参数主要通过岭回归学习得到的。主要过程是将目标区域及其上下文区域的特征,进行傅里叶变换,并基于循环结构(具体参见Joao F.Henriques,et.al.High-Speed Trackingwith Kernelized Correlation Filters.PAMI2015.)进行密集采样,从而快速地学习到模型的参数。快速检测主要将模型参数和搜索区域提取出来的特征进行傅里叶变换,然后变换后的模型参数和特征在频域空间进行卷积操作,从而可以快速得到每一个位置的分类得分,即目标的置信度图。
阈值判别器,对置信度图进行分析,超过一定的阈值并且置信度最大的位置,将其判别为目标;若置信度图的最大值小于该阈值,则认为当前帧的目标被遮挡,这时就不对观测模型进行更新。
集成学习融合单元对最终得到的多个候选目标框进行最终的决策判别,滤除重合率较高的一些跟踪结果,得到最终跟踪目标的位置以及外接矩形信息(具体参见GuiboZhu,Jinqiao Wang and Hanqing Lu,“Clustering Ensemble Tracking”,ACCV,2014)。
在线模型更新单元主要是对学习到的模型函数按照一定的比例进行在线更新。用阈值判别器来判断是否更新模型参数,以防止模型出现更新存储装置,用于存储决策融合单元输出的最终目标跟踪结果。显示装置,可为一显示屏,用于显示在该输入图像中的最终目标跟踪结果供用户观看。
图2示出了本发明一种目标跟踪方法的流程图,该方法包括以下步骤:
步骤200,启动目标跟踪***;
步骤201,开始步骤,同时获取一系列的帧视频数据,并对第一帧的目标进行初始化方框;
步骤202,产生少量候选目标提案;
步骤203,对每个候选目标提案提取特征;
步骤204,观测模型判断单元;
步骤205,判断是否对观测模型进行融合,如果有融合环节,则转入步骤206;否则转入步骤207;
步骤206,对多个观测模型进行集成学习,从而得到更好的结果;
步骤207,利用步骤205或者206的计算结果计算目标的分类响应图或置信度图;
步骤208,判断置信度图的最大值是否大于某一阈值,如果是,则进入在线模型更新单元;否则不更新模型;
步骤209,当需要在线模型更新单元时,基于步骤210的目标框输出对观测模型判断单元进行在线更新;
步骤210,基于步骤207的目标置信度图进行计算,从而输出目标位置和目标框;得到目标框后,跳转到步骤202,然后对后续帧的目标进行跟踪预测;
步骤211,将历史的目标框输出,从而得到跟踪目标的轨迹;
步骤212,结束目标跟踪***。
上述实施例仅例示性说明本发明的原理及其功效,以及部分运用的实施例,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (6)

1.一种基于非参数在线聚类的目标跟踪方法,包括以下步骤:
步骤1,给定一个输入视频,并且在第一帧初始化一个感兴趣的目标框;对该目标框提取颜色直方图特征,并采用K均值的方法来初始化聚类中心;
步骤2,对该目标框的上下文区域图像计算保持空间分布的图像蒸馏特征图,并假设该底层图像特征图存在一个相同尺度大小的先验标签分布;
步骤3,基于图像蒸馏特征图和先验标签分布,采用岭回归的方式在频域空间而不是传统的时域空间学习一个滤波***;
步骤4,对于下一帧图像,基于上一帧目标***预测到的目标中心位置,划分多个栅格,对每个栅格提取颜色直方图特征,将该颜色直方图特征与由聚类中心生成的模板计算相似度,得到大致的目标空间概率分布,基于该粗略的目标空间概率分布,得到相似度最大的前k个栅格;
步骤5,对这k个栅格中的每一个,提取一个与第一帧上下文区域相同大小图像的特征图,将滤波***与该图像特征图通过快速傅里叶变换卷积,从而得到每个空间位置的置信度。取置信度值最大的空间位置为目标中心位置,目标的状态也可以得到,基于该目标状态,提取新的颜色直方图特征;
步骤6,将新的颜色直方图与以前学习到的聚类中心进行比较,若相似度大于一定值,则将该颜色直方图归入与它最相似的聚类中心,并更新该聚类中心;若相似度小于一定值,则新创建一个聚类中心。通过非参数在线增量式聚类得到聚类中心后,将这些聚类中心合并成一个目标模板。基于该中心位置提取上下文区域特征图,并学习一个新的跟踪滤波器,用该跟踪滤波器更新上一帧的跟踪滤波器;
步骤7,环执行步骤4-6,进行在线目标跟踪。
2.根据权利要求1所述的方法,其特征在于,步骤2提取蒸馏特征具体来说就是将其他通过数据库学习到的大深度学习网络用一个小型深度网络进行提取特征模拟,在训练阶段,监督信息是大深度学习网络每层提取到的特征,用小型深度网络尽可能地模拟逼近这些监督信息;在测试阶段,用小型深度网络提取到的特征即为蒸馏特征。
3.根据权利要求1所述的方法,其特征在于,利用步骤4采用栅格的方式得到目标的空间分布和步骤7提出的一种非参数在线聚类算法,然后将这些聚类中心按照一定的权重合并成一个目标模板。
4.根据权利要求1所述的方法,其特征在于,在步骤4中,得到目标空间分布过程为:基于上一帧目标***预测到的目标中心位置,划分多个栅格,对每个栅格提取颜色直方图特征,将该颜色直方图特征与由聚类中心生成的目标模板计算相似度,得到目标空间分布。
5.根据权利要求1所述的方法,其特征在于,在步骤7中,采用非参数在线聚类方法并生成一个目标模板过程为:对新的颜色直方图非参数在线增量式聚类,得到新的聚类中心,将这些聚类中心按照一定的权重来合并成一个目标模板,每个聚类中心的权重由每个聚类中的样本个数决定,另外,为了得到更稳定的目标模板,在生成该目标模板之前,先排除权重较小的聚类中心,对权重较大的聚类中心按照权重相加的方式,并归一化,从而得到目标模板,其中聚类中心的计算方式如下:
这里wj是第j个聚类中心的权重,具体来说,就是在线得到一个样本xi后,计算该样本与每个聚类中心cj的相似度,其相似度函数s(xi,cj)为:
目标模板的计算公式如下:
wi是每个聚类中心的权重。
6.根据权利要求1所述的方法,其特征在于,在步骤3中,基于蒸馏特征图和先验标签分布,采用岭回归的方式学习一个滤波***,基于循环结构和快速傅里叶变换,以便可以快速学习滤波***并用它进行快速检测。
CN201611219002.5A 2016-12-26 2016-12-26 一种基于非参数在线聚类的目标跟踪方法 Active CN106952293B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611219002.5A CN106952293B (zh) 2016-12-26 2016-12-26 一种基于非参数在线聚类的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611219002.5A CN106952293B (zh) 2016-12-26 2016-12-26 一种基于非参数在线聚类的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN106952293A true CN106952293A (zh) 2017-07-14
CN106952293B CN106952293B (zh) 2020-02-28

Family

ID=59465781

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611219002.5A Active CN106952293B (zh) 2016-12-26 2016-12-26 一种基于非参数在线聚类的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN106952293B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108093153A (zh) * 2017-12-15 2018-05-29 深圳云天励飞技术有限公司 目标跟踪方法、装置、电子设备及存储介质
CN108986146A (zh) * 2017-12-11 2018-12-11 罗普特(厦门)科技集团有限公司 一种基于背景信息与自适应回归标签的相关滤波跟踪方法
CN109215057A (zh) * 2018-07-31 2019-01-15 中国科学院信息工程研究所 一种高性能视觉跟踪方法及装置
CN109785368A (zh) * 2017-11-13 2019-05-21 腾讯科技(深圳)有限公司 一种目标跟踪方法和装置
CN109919921A (zh) * 2019-02-25 2019-06-21 天津大学 基于生成对抗网络的环境影响程度建模方法
CN110111370A (zh) * 2019-05-15 2019-08-09 重庆大学 一种基于tld和深度多尺度时空特征的视觉物体跟踪方法
CN110633597A (zh) * 2018-06-21 2019-12-31 北京京东尚科信息技术有限公司 一种可行驶区域检测方法和装置
CN114973167A (zh) * 2022-07-28 2022-08-30 松立控股集团股份有限公司 一种基于离线聚类的无监督对比学习的多目标跟踪方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101251893A (zh) * 2008-03-28 2008-08-27 西安电子科技大学 基于小波和均值漂移的自适应多尺度纹理图像分割方法
CN101777187A (zh) * 2010-01-15 2010-07-14 西安电子科技大学 基于Meanshift算法的视频显微图像细胞自动跟踪方法
US20110113095A1 (en) * 2009-11-10 2011-05-12 Hamid Hatami-Hanza System and Method For Value Significance Evaluation of Ontological Subjects of Networks and The Applications Thereof
WO2011067790A3 (en) * 2009-12-02 2011-10-06 Tata Consultancy Services Limited Cost-effective system and method for detecting, classifying and tracking the pedestrian using near infrared camera
CN103761532A (zh) * 2014-01-20 2014-04-30 清华大学 基于特征相关隐式编码的标签空间降维方法及***
CN104021577A (zh) * 2014-06-19 2014-09-03 上海交通大学 一种基于局部背景学习的视频跟踪方法
US20150074036A1 (en) * 2013-09-12 2015-03-12 Agt International Gmbh Knowledge management system
WO2016040304A1 (en) * 2014-09-10 2016-03-17 Bae Systems Information And Electronic Systems Integration Inc. A method for detection and characterization of technical emergence and associated methods
CN105976400A (zh) * 2016-05-10 2016-09-28 北京旷视科技有限公司 基于神经网络模型的目标跟踪方法及装置
CN106097391A (zh) * 2016-06-13 2016-11-09 浙江工商大学 一种基于深度神经网络的识别辅助的多目标跟踪方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101251893A (zh) * 2008-03-28 2008-08-27 西安电子科技大学 基于小波和均值漂移的自适应多尺度纹理图像分割方法
US20110113095A1 (en) * 2009-11-10 2011-05-12 Hamid Hatami-Hanza System and Method For Value Significance Evaluation of Ontological Subjects of Networks and The Applications Thereof
WO2011067790A3 (en) * 2009-12-02 2011-10-06 Tata Consultancy Services Limited Cost-effective system and method for detecting, classifying and tracking the pedestrian using near infrared camera
CN101777187A (zh) * 2010-01-15 2010-07-14 西安电子科技大学 基于Meanshift算法的视频显微图像细胞自动跟踪方法
US20150074036A1 (en) * 2013-09-12 2015-03-12 Agt International Gmbh Knowledge management system
CN103761532A (zh) * 2014-01-20 2014-04-30 清华大学 基于特征相关隐式编码的标签空间降维方法及***
CN104021577A (zh) * 2014-06-19 2014-09-03 上海交通大学 一种基于局部背景学习的视频跟踪方法
WO2016040304A1 (en) * 2014-09-10 2016-03-17 Bae Systems Information And Electronic Systems Integration Inc. A method for detection and characterization of technical emergence and associated methods
CN105976400A (zh) * 2016-05-10 2016-09-28 北京旷视科技有限公司 基于神经网络模型的目标跟踪方法及装置
CN106097391A (zh) * 2016-06-13 2016-11-09 浙江工商大学 一种基于深度神经网络的识别辅助的多目标跟踪方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CHUNG-CHENG CHIU ET AL.: ""A Robust Object Segmentation System Using a Probability-Based Background Extraction Algorithm"", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 *
GEOFFREY HINTON ET AL.: ""Distilling the Knowledge in a Neural Network"", 《ARXIV:1503.02531V1》 *
JOÃO F. HENRIQUES ET AL.: ""High-Speed Tracking with Kernelized Correlation Filters"", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
杨恒 等: ""基于随机背景建模的目标检测算法"", 《应用光学》 *
王韦桦: ""智能视觉监控中运动目标检测与行为识别方法"", 《中国博士学位论文全文数据库信息科技辑》 *
葛仕明 等: ""基于相关滤波器组的人眼定位方法"", 《网络新媒体技术》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785368B (zh) * 2017-11-13 2022-07-22 腾讯科技(深圳)有限公司 一种目标跟踪方法和装置
CN109785368A (zh) * 2017-11-13 2019-05-21 腾讯科技(深圳)有限公司 一种目标跟踪方法和装置
CN108986146A (zh) * 2017-12-11 2018-12-11 罗普特(厦门)科技集团有限公司 一种基于背景信息与自适应回归标签的相关滤波跟踪方法
CN108093153A (zh) * 2017-12-15 2018-05-29 深圳云天励飞技术有限公司 目标跟踪方法、装置、电子设备及存储介质
CN110633597A (zh) * 2018-06-21 2019-12-31 北京京东尚科信息技术有限公司 一种可行驶区域检测方法和装置
CN110633597B (zh) * 2018-06-21 2022-09-30 北京京东尚科信息技术有限公司 一种可行驶区域检测方法和装置
CN109215057B (zh) * 2018-07-31 2021-08-20 中国科学院信息工程研究所 一种高性能视觉跟踪方法及装置
CN109215057A (zh) * 2018-07-31 2019-01-15 中国科学院信息工程研究所 一种高性能视觉跟踪方法及装置
CN109919921A (zh) * 2019-02-25 2019-06-21 天津大学 基于生成对抗网络的环境影响程度建模方法
CN109919921B (zh) * 2019-02-25 2023-10-20 天津大学 基于生成对抗网络的环境影响程度建模方法
CN110111370A (zh) * 2019-05-15 2019-08-09 重庆大学 一种基于tld和深度多尺度时空特征的视觉物体跟踪方法
CN110111370B (zh) * 2019-05-15 2023-05-30 重庆大学 一种基于tld和深度多尺度时空特征的视觉物体跟踪方法
CN114973167A (zh) * 2022-07-28 2022-08-30 松立控股集团股份有限公司 一种基于离线聚类的无监督对比学习的多目标跟踪方法
CN114973167B (zh) * 2022-07-28 2022-11-04 松立控股集团股份有限公司 一种基于离线聚类的无监督对比学习的多目标跟踪方法

Also Published As

Publication number Publication date
CN106952293B (zh) 2020-02-28

Similar Documents

Publication Publication Date Title
CN106952293A (zh) 一种基于非参数在线聚类的目标跟踪方法
CN109800689B (zh) 一种基于时空特征融合学习的目标跟踪方法
CN106897670B (zh) 一种基于计算机视觉的快递暴力分拣识别方法
Huang et al. Multiple target tracking by learning-based hierarchical association of detection responses
CN100573548C (zh) 跟踪双手运动的方法和设备
CN111932583A (zh) 一种基于复杂背景下的时空信息一体化智能跟踪方法
KR102462934B1 (ko) 디지털 트윈 기술을 위한 영상 분석 시스템
CN108447080A (zh) 基于分层数据关联和卷积神经网络的目标跟踪方法、***和存储介质
CN110569843B (zh) 一种矿井目标智能检测与识别方法
CN112836640A (zh) 一种单摄像头多目标行人跟踪方法
CN106355604A (zh) 图像目标跟踪方法与***
CN106570490B (zh) 一种基于快速聚类的行人实时跟踪方法
CN108734109B (zh) 一种面向图像序列的视觉目标跟踪方法及***
Atanasov et al. Hypothesis testing framework for active object detection
CN111368634B (zh) 基于神经网络的人头检测方法、***及存储介质
CN108320306A (zh) 融合tld和kcf的视频目标跟踪方法
CN113688797A (zh) 一种基于骨架提取的异常行为识别方法及***
CN109697727A (zh) 基于相关滤波和度量学习的目标跟踪方法、***及存储介质
CN106447698A (zh) 一种基于距离传感器的多行人跟踪方法和***
CN106127798B (zh) 基于自适应模型的稠密时空上下文目标跟踪方法
CN109615641A (zh) 基于kcf算法的多目标行人跟踪***及跟踪方法
Yuan Image target detection algorithm based on computer vision technology
CN113158870B (zh) 2d多人姿态估计网络的对抗式训练方法、***及介质
CN115527083A (zh) 图像标注方法、装置和电子设备
KR20230060214A (ko) 인공지능 기반 영상 객체 추적 장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200927

Address after: Room 108, No. 318, Shuixiu Road, Jinze town (Xichen), Qingpu District, Shanghai 201700

Patentee after: Shanghai Yingpu Technology Co.,Ltd.

Address before: 100025, Beijing, Gaobeidian Township North Garden Village North 166 media elite headquarters, 6 floor, room 609, Chaoyang District

Patentee before: BEIJING MOVIEBOOK SCIENCE AND TECHNOLOGY Co.,Ltd.

PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A Target Tracking Method Based on Non parametric Online Clustering

Effective date of registration: 20230425

Granted publication date: 20200228

Pledgee: Bank of Communications Co.,Ltd. Beijing Tongzhou Branch

Pledgor: Shanghai Yingpu Technology Co.,Ltd.

Registration number: Y2023990000234

PP01 Preservation of patent right
PP01 Preservation of patent right

Effective date of registration: 20231128

Granted publication date: 20200228