CN102982340A - 基于半监督学习和随机蕨类分类器的目标跟踪方法 - Google Patents
基于半监督学习和随机蕨类分类器的目标跟踪方法 Download PDFInfo
- Publication number
- CN102982340A CN102982340A CN2012104283693A CN201210428369A CN102982340A CN 102982340 A CN102982340 A CN 102982340A CN 2012104283693 A CN2012104283693 A CN 2012104283693A CN 201210428369 A CN201210428369 A CN 201210428369A CN 102982340 A CN102982340 A CN 102982340A
- Authority
- CN
- China
- Prior art keywords
- window
- video
- threshold value
- random
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
基于半监督学***面旋转效果差等难题,本发明方法可以处理场景中目标尺度变化、旋转、超平面旋转、噪声、遮挡、粘连、摄像机抖动、模糊等难题,形成稳定的目标轨迹及目标的全视角在线模型。该跟踪方法包括:在线模型初始化,生成正、实例,并对其进行规范化;检测器初始化,;训练检测器;“短期”***跟踪;跟踪有效性评估;检测器检测;检测与跟踪的联合;学习并更新训练集。该方法是完整的目标跟踪解决方案,在实际的视频监控、行为分析、智能交通、电子警察、精确制导等领域有广阔的应用。
Description
技术领域
本发明涉及一种目标跟踪方法,具体涉及一种基于半监督学习和随机蕨类分类器的目标跟踪方法。
背景技术
目标跟踪在视觉导航、行为识别、智能交通、环境监测、战场侦察、军事打击等众多领域有非常广泛的研究和应用。目前,经典的相关跟踪方法对于目标的缩放、旋转、遮挡等适应性不佳;研究比较热门的以SIFT为代表的不变性特征,SIFT算法通过计算多个尺度下不同窗口的高斯滤波处理图像来实现对目标的多尺度缩放、旋转、模糊等的鲁棒性,但其计算量大、复杂度高,难以满足实时处理需求;而均值漂移理论采用直方图作为特征并用核概率密度估计的方法实现目标跟踪,其虽然对目标的遮挡、旋转有一定鲁棒性,但对于大角度的旋转以及超平面旋转则效果不佳;以粒子滤波、卡尔曼滤波为代表的基于滤波理论的目标跟踪方法以滤波预测为核心思想,对目标的部分和全部遮挡有很好的鲁棒性,但是目标跟踪尚有很多问题,如目标的大尺度缩放、旋转、超平面旋转、光照变化、部分遮挡、模糊、目标在视场中消失后的重新捕获等;没有很好的完整的解决方案,随着对统计学习理论的研究和半监督学习理论在图像领域的应用,为本发明提供了灵感和技术支持,本发明所提出的方法从目标的建模、跟踪、检测,到联合、学习更新是一个完整的实现长期、稳定目标跟踪的构架,可以很好解决以上所有问题。
发明内容
本发明为解决现有目标跟踪方法的计算量大、复杂度高,难以满足实时处理需求,对于大角度的旋转以及超平面旋转效果差,并且在目标的大尺度缩放、旋转、超平面旋转、超平面旋转、噪声、遮挡、粘连、摄像机抖动、模糊以及目标在视场中消失后的重新捕获等难题,提供一种基于半监督学习和随机蕨类分类器的目标跟踪方法。
基于半监督学习和随机蕨类分类器的目标跟踪方法,该方法由以下步骤实现:
步骤一、在线模型初始化,对输入图像进行不同尺寸的S形窗口扫描,获得窗口图像的尺寸及位置,将得到的窗口图像尺寸大于阈值的保留,并计算保留的各个窗口图像与初始点选的目标的重叠率,取重叠率最大的窗口图像作为正实例,在重叠率小于阈值且方差大于阈值的窗口图像中随机取出多个窗口图像作为负实例,将得到的正实例和负实例进行图像规范化后加入在线模型;
步骤二、检测器初始化,生成多棵随机蕨类的相对位置,并对各棵蕨类的各特征值是正实例的数量、负实例的数量以及是正实例的后验概率初始化为0;
步骤三、训练检测器,计算步骤一所述的不同尺寸的S形窗口扫描后保留的各个窗口图像与初始点选的目标的重叠率,取重叠率最大的多个窗口图像作为正实例,并计算所述正实例的窗口图像的随机蕨类的特征值;再对获得的正实例的窗口图像进行随机角度、随机位移、随机尺度的仿射变换并加入白噪声后计算各个窗口图像随机蕨类的特征值,取重叠率小于一定阈值并且方差大于正实例方差的窗口图像作为负实例,并计算所述负实例的随机蕨类特征值,将获得的正实例的随机蕨类特征值和负实例的随机蕨类特征值更新步骤二所述的各棵蕨类的各特征值是正实例的数量、是负实例的数量以及是正实例的后验概率;判断是否有新一帧图像,如果是,执行步骤四,如果否,执行步骤九;
步骤四、短期目标跟踪,首先对上一帧窗口图像在上一帧的目标位置进行横竖各十次采样,选出一百个点作为特征点,对本帧窗口图像采用基于Lucas-Kanade算法进行特征点匹配,找到上一帧窗口图像与本帧窗口图像匹配的特征点集,并计算匹配点间的归一化互相关系数以及所述归一化互相关系数的中值,取归一化互相关系数中大于中值的对应匹配点确定当前帧的窗口图像的目标位置和尺寸;
步骤五、跟踪有效性评估,对步骤四所述的短期目标跟踪获得的当前帧的窗口图像的目标位置对应的窗口图像进行规范化,并计算规范化后的窗口图像与在线模型的距离,计算当前帧的窗口图像的目标位置的置信度,如果置信度大于阈值则当前帧的窗口图像的目标位置有效,否则,该目标位置无效;
步骤六、检测器检测,计算步骤一获得的各个窗口图像的位置对应当前帧的窗口图像的随机蕨类特征值,并采用步骤三获得的随机蕨类特征值是正实例的后验概率进行加权计算,取计算结果大于阈值的窗口图像作为正实例,将所述正实例的窗口图像进行规范化后采用最近邻原则计算正实例的窗口图像的置信度,取置信度大于阈值的窗口图像作为检测结果;
步骤七、检测器检测结果与短期目标跟踪结果的联合,分四种情况进行处理:
第一种情况、短期目标跟踪结果和检测器检测的结果均有输出,则对短期目标跟踪的结果和检测器检测的结果进行聚类,判断聚类结果是否为一个类,如果是,并且该类与短期目标跟踪结果的重叠率小于阈值,阈值为0.5,并且聚类结果的置信度大于短期跟踪结果的置信度,则返回步骤二,并将跟踪***的有效性置0;如果否,采用检测器检测结果中与短期目标跟踪结果重叠率大于阈值的窗口图像与短期目标跟踪结果进行加权平均,获得当前帧的窗口图像的目标位置;
第二种情况、短期目标跟踪有结果输出,检测器无结果输出,将短期目标跟踪的结果和有效性分别作为跟踪***获得的当前帧的窗口图像的目标位置及有效性;
第三种情况、短期目标跟踪无结果输出,检测器有结果输出,对检测器的检测结果进行聚类,如果结果为一类,采用检测器检测的结果对跟踪***重新初始化;
第四种情况、短期目标跟踪和检测器均无结果输出,不进行任何处理;
步骤八、学习并更新训练集,当跟踪***的有效性为1时,计算步骤七获得的短期目标跟踪结果的置信度和对应窗口图像位置的方差,并进行行为约束,若满足方差大于正实例窗口图像的方差、置信度大于阈值的学习更新条件,所述阈值为0.5,则进行学习更新;
步骤九、窗口图像的输出显示,判断是否是最后一帧,如果是,结束;如果否,返回执行步骤四。
本发明的有益效果:本发明所述的基于半监督学***面旋转、光照变化、遮挡、粘连、模糊等问题;并具有在全视场实时搜索能力,特别对于目标忽然变轨或全部阻塞造成在视场中消失后又重新出现有快速捕获的能力,同时由于是基于稳定特征点的像素级跟踪,目标的尺寸、速度、方向都可以准确计算,形成稳定的目标轨迹及目标的全视角在线模型。
附图说明
图1 为本发明所述的基于半监督学习和随机蕨类分类器的目标跟踪方法的流程图。
具体实施方式
具体实施方式一、结合图1说明本实施方式,基于半监督学习和随机蕨类分类器的目标跟踪方法,本方法通过建立目标的全视角在线模型,通过跟踪、检测及其联合得到目标的位置,并进行学习后对检测器及在线模型更新,该方法由以下步骤实现:
一、在线模型初始化,对输入图像进行不同尺度的S形窗口扫描,将得到的尺寸大于阈值(thw=24)的窗口保留,并计算保留的各窗口图像与初始点选的目标的重叠率,取重叠率最大的窗口图像作为正实例,在重叠率小于一定阈值(overlap<0.2)且窗口图像的方差大于一定阈值(overlap<0.2)的所有窗口图像中随机取出若干个窗口图像(n=100)作为负实例,将得到的正、负实例进行图像规范化后加入在线模型;
二、检测器初始化,生成随机蕨类的相对位置,并对各棵蕨类的各特征值是正实例的数量、是负实例的数量以及是正实例的后验概率均初始化为0;
三、训练检测器,计算不同尺度S形窗口扫描后保留的各窗口图像与初始点选的目标的重叠率,取重叠率最大的若干个窗口图像作为正实例计算其随机蕨类的特征值,将这些正实例窗口图像进行随机角度、随机位移、随机尺度的仿射变换并加入白噪声后计算其随机蕨类的特征值,并取重叠率小于一定(overlap<0.2)并且方差大于正实例窗口图像的方差的窗口图像作为负实例计算其随机蕨类特征值,用此处得到的随机蕨类特征值来更新各棵蕨类的各特征值是正实例的数量、是负实例的数量以及是正实例的后验概率;
四、短期目标跟踪,首先在上一帧图像对上一帧的目标位置处进行横竖各10次采样,选出一百个点作为特征点,对本帧图像采用基于Lucas-Kanade的特征点匹配,找到匹配的特征点集,并计算匹配点间的归一化互相关系数并计算其中值,取所有归一化互相关系数中大于中值的对应匹配点确定当前帧目标位置和尺度。
五、跟踪有效性评估,对“短期”目标跟踪得到的跟踪结果对应的窗口图像进行规范化,并计算其与在线模型的距离,以及其置信度,若置信度大于一定阈值(thc=0.65)则认为该跟踪结果有效,否则认为无效;
六、检测器检测,计算初始化时得到的各窗口位置对应在当前帧的窗口图像的随机蕨类特征值,并用之前得到的随机蕨类各特征值是正实例的后验概率进行加权投票,取投票结果大于阈值(thd=0.5)的窗口图像作为正实例,将这些窗口图像进行规范化,而后用最近邻原则计算其置信度,取置信度大于阈值(thdc=0.65)的作为检测结果;
七、检测与跟踪的联合,将分四种情况进行处理:第一种情况:“短期”目标跟踪和检测器检测均有输出,则对检测到的结果进行聚类,若聚类结果为一个类,并且这个类与“短期”目标跟踪结果的重叠率小于阈值(thdo=0.5),并且其置信度大于“短期”跟踪的置信度,那么跟踪***将被重新初始化,并将跟踪***的有效性置0;若聚类结果不是一个类,那么利用检测结果中与“短期”跟踪结果重叠度大于一定阈值(thtdo=0.7)的块与“短期”跟踪结果进行加权平均,得到当前帧的目标位置。
第二种情况:跟踪模块有结果,而检测模块无输出结果,此时,将***的结果和有效性分别作为跟踪***得到的当前帧目标位置及有效性。
第三种情况:跟踪模块无结果,检测器有结果,那么也是对检测结果进行聚类,若结果为一类,那么利用此结果对跟踪***重新初始化。
第四种情况:跟踪模块和检测模块均无输出结果,此模块不进行任何处理。
八、学习并更新训练集,当跟踪***的有效性为1时,则计算联合得到的目标跟踪结果的置信度、对应位置的方差,并进行行为约束,若这些均满足学习更新条件则进行学习更新。
本实施方式所述的将窗口图像进行规范化指的是将图像的灰度取值拉伸至0~255。
通过本实施方式的检测与跟踪的联合得到的结果就是目标在当前帧的位置,从而可以计算出目标的尺寸、速度、方向,在线模型中正实例即目标的全视角模型,每帧随着目标在线模型不断更新。
本发明所述的实施方法,并不仅限于本实施例,凡采用同等替换或等效变换形成的技术方案,均落在本发明要求保护的范围之内。
Claims (5)
1.基于半监督学习和随机蕨类分类器的目标跟踪方法,其特征是,该方法由以下步骤实现:
步骤一、在线模型初始化,对输入图像进行不同尺寸的S形窗口扫描,获得窗口图像的尺寸及位置,将得到的窗口图像尺寸大于阈值的保留,并计算保留的各个窗口图像与初始点选的目标的重叠率,取重叠率最大的窗口图像作为正实例,在重叠率小于阈值且方差大于阈值的窗口图像中随机取出多个窗口图像作为负实例,将得到的正实例和负实例进行图像规范化后加入在线模型;
步骤二、检测器初始化,生成多棵随机蕨类的相对位置,并对各棵蕨类的各特征值是正实例的数量、负实例的数量以及是正实例的后验概率初始化为0;
步骤三、训练检测器,计算步骤一所述的不同尺寸的S形窗口扫描后保留的各个窗口图像与初始点选的目标的重叠率,取重叠率最大的多个窗口图像作为正实例,并计算所述正实例的窗口图像的随机蕨类的特征值;再对获得的正实例的窗口图像进行随机角度、随机位移、随机尺度的仿射变换并加入白噪声后计算各个窗口图像随机蕨类的特征值,取重叠率小于一定阈值并且方差大于正实例方差的窗口图像作为负实例,并计算所述负实例的随机蕨类特征值,将获得的正实例的随机蕨类特征值和负实例的随机蕨类特征值更新步骤二所述的各棵蕨类的各特征值是正实例的数量、是负实例的数量以及是正实例的后验概率;判断是否有新一帧图像,如果是,执行步骤四,如果否,执行步骤九;
步骤四、短期目标跟踪,首先对上一帧窗口图像在上一帧的目标位置进行横竖各十次采样,选出一百个点作为特征点,对本帧窗口图像采用基于Lucas-Kanade算法进行特征点匹配,找到上一帧窗口图像与本帧窗口图像匹配的特征点集,并计算匹配点间的归一化互相关系数以及所述归一化互相关系数的中值,取归一化互相关系数中大于中值的对应匹配点确定当前帧的窗口图像的目标位置和尺寸;
步骤五、跟踪有效性评估,对步骤四所述的短期目标跟踪获得的当前帧的窗口图像的目标位置对应的窗口图像进行规范化,并计算规范化后的窗口图像与在线模型的距离,计算当前帧的窗口图像的目标位置的置信度,如果置信度大于阈值则当前帧的窗口图像的目标位置有效,否则,该目标位置无效;
步骤六、检测器检测,计算步骤一获得的各个窗口图像的位置对应当前帧的窗口图像的随机蕨类特征值,并采用步骤三获得的随机蕨类特征值是正实例的后验概率进行加权计算,取计算结果大于阈值的窗口图像作为正实例,将所述正实例的窗口图像进行规范化后采用最近邻原则计算正实例的窗口图像的置信度,取置信度大于阈值的窗口图像作为检测结果;
步骤七、检测器检测结果与短期目标跟踪结果的联合,分四种情况进行处理:
第一种情况、短期目标跟踪结果和检测器检测的结果均有输出,则对短期目标跟踪的结果和检测器检测的结果进行聚类,判断聚类结果是否为一个类,如果是,并且该类与短期目标跟踪结果的重叠率小于阈值,阈值为0.5,并且聚类结果的置信度大于短期跟踪结果的置信度,则返回步骤二,并将跟踪***的有效性置0;如果否,采用检测器检测结果中与短期目标跟踪结果重叠率大于阈值的窗口图像与短期目标跟踪结果进行加权平均,获得当前帧的窗口图像的目标位置;
第二种情况、短期目标跟踪有结果输出,检测器无结果输出,将短期目标跟踪的结果和有效性分别作为跟踪***获得的当前帧的窗口图像的目标位置及有效性;
第三种情况、短期目标跟踪无结果输出,检测器有结果输出,对检测器的检测结果进行聚类,如果结果为一类,采用检测器检测的结果对跟踪***重新初始化;
第四种情况、短期目标跟踪和检测器均无结果输出,不进行任何处理;
步骤八、学习并更新训练集,当跟踪***的有效性为1时,计算步骤七获得的短期目标跟踪结果的置信度和对应窗口图像位置的方差,并进行行为约束,若满足方差大于正实例窗口图像的方差、置信度大于阈值的学习更新条件,所述阈值为0.5,则进行学习更新;
步骤九、窗口图像的输出显示,判断是否是最后一帧,如果是,结束;如果否,返回执行步骤四。
2.根据权利要求1所述的基于半监督学习和随机蕨类分类器的目标跟踪方法,其特征在于,步骤一所述的在重叠率小于阈值且方差大于阈值的窗口图像中随机取出多个窗口图像作为负实例,所述阈值<0.2。
3.根据权利要求1所述的基于半监督学习和随机蕨类分类器的目标跟踪方法,其特征在于,步骤五所述的如果置信度大于阈值则当前帧的窗口图像的目标位置有效,所述阈值为0.65。
4.根据权利要求1所述的基于半监督学习和随机蕨类分类器的目标跟踪方法,其特征在于,步骤六所述的取结果大于阈值的窗口图像作为正实例中的阈值为0.5。
5.根据权利要求1所述的基于半监督学***均,获得当前帧的窗口图像的目标位置中的阈值为0.7。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012104283693A CN102982340A (zh) | 2012-10-31 | 2012-10-31 | 基于半监督学习和随机蕨类分类器的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012104283693A CN102982340A (zh) | 2012-10-31 | 2012-10-31 | 基于半监督学习和随机蕨类分类器的目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102982340A true CN102982340A (zh) | 2013-03-20 |
Family
ID=47856322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2012104283693A Pending CN102982340A (zh) | 2012-10-31 | 2012-10-31 | 基于半监督学习和随机蕨类分类器的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102982340A (zh) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103198493A (zh) * | 2013-04-09 | 2013-07-10 | 天津大学 | 一种基于多特征自适应融合和在线学习的目标跟踪方法 |
CN103208190A (zh) * | 2013-03-29 | 2013-07-17 | 西南交通大学 | 基于对象检测的交通流量检测方法 |
CN103593856A (zh) * | 2013-11-20 | 2014-02-19 | 中国科学院深圳先进技术研究院 | 单目标跟踪方法及*** |
CN103617433A (zh) * | 2013-12-02 | 2014-03-05 | 西北工业大学 | 基于简化直推式学习法的在线目标跟踪方法 |
CN103870815A (zh) * | 2014-03-24 | 2014-06-18 | 公安部第三研究所 | 球机视频监控的人车结构化描述方法及*** |
CN104063713A (zh) * | 2014-07-04 | 2014-09-24 | 中国地质大学(武汉) | 一种基于随机蕨分类器的半自主在线学习方法 |
CN104156734A (zh) * | 2014-08-19 | 2014-11-19 | 中国地质大学(武汉) | 一种基于随机蕨分类器的全自主在线学习方法 |
CN104680194A (zh) * | 2015-03-15 | 2015-06-03 | 西安电子科技大学 | 基于随机蕨丛和随机投影的在线目标跟踪方法 |
CN104734894A (zh) * | 2013-12-18 | 2015-06-24 | ***通信集团甘肃有限公司 | 一种流量数据筛选方法和装置 |
CN105006003A (zh) * | 2015-07-09 | 2015-10-28 | 北京航空航天大学 | 基于随机投影蕨的实时目标跟踪算法 |
CN105261040A (zh) * | 2015-10-19 | 2016-01-20 | 北京邮电大学 | 一种多目标跟踪方法及装置 |
CN106204644A (zh) * | 2016-07-01 | 2016-12-07 | 屈桢深 | 一种基于视频的目标长期跟踪方法 |
CN106650805A (zh) * | 2016-12-13 | 2017-05-10 | 中国科学院自动化研究所 | 一种视觉目标跟踪方法及装置 |
CN106909934A (zh) * | 2017-01-19 | 2017-06-30 | 博康智能信息技术有限公司上海分公司 | 一种基于自适应搜索的目标跟踪方法及装置 |
CN106909935A (zh) * | 2017-01-19 | 2017-06-30 | 博康智能信息技术有限公司上海分公司 | 一种目标跟踪方法及装置 |
CN107066990A (zh) * | 2017-05-04 | 2017-08-18 | 厦门美图之家科技有限公司 | 一种目标跟踪方法及移动设备 |
CN107480714A (zh) * | 2017-08-09 | 2017-12-15 | 东北大学 | 基于全视角特征的跨社交网络用户识别方法 |
CN108038515A (zh) * | 2017-12-27 | 2018-05-15 | 中国地质大学(武汉) | 无监督多目标检测跟踪方法及其存储装置与摄像装置 |
CN108198199A (zh) * | 2017-12-29 | 2018-06-22 | 北京地平线信息技术有限公司 | 运动物体跟踪方法、运动物体跟踪装置和电子设备 |
CN109784155A (zh) * | 2018-12-10 | 2019-05-21 | 西安电子科技大学 | 基于验证和纠错机制的视觉目标跟踪方法、智能机器人 |
CN110502962A (zh) * | 2018-05-18 | 2019-11-26 | 翔升(上海)电子技术有限公司 | 视频流中目标的检测方法、装置、设备和介质 |
CN111079775A (zh) * | 2018-10-18 | 2020-04-28 | 中国科学院长春光学精密机械与物理研究所 | 一种联合区域约束学习的实时跟踪方法 |
CN112102356A (zh) * | 2019-06-18 | 2020-12-18 | 北京七鑫易维科技有限公司 | 一种目标跟踪方法、装置、终端设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7929730B2 (en) * | 2007-10-29 | 2011-04-19 | Industrial Technology Research Institute | Method and system for object detection and tracking |
CN102332094A (zh) * | 2011-10-24 | 2012-01-25 | 西安电子科技大学 | 半监督在线学习人脸检测方法 |
-
2012
- 2012-10-31 CN CN2012104283693A patent/CN102982340A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7929730B2 (en) * | 2007-10-29 | 2011-04-19 | Industrial Technology Research Institute | Method and system for object detection and tracking |
CN102332094A (zh) * | 2011-10-24 | 2012-01-25 | 西安电子科技大学 | 半监督在线学习人脸检测方法 |
Non-Patent Citations (1)
Title |
---|
高文: "机载光电平台目标跟踪技术的研究", 《中国博士学位论文全文数据库信息科技辑》, no. 9, 15 September 2012 (2012-09-15) * |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103208190A (zh) * | 2013-03-29 | 2013-07-17 | 西南交通大学 | 基于对象检测的交通流量检测方法 |
CN103198493B (zh) * | 2013-04-09 | 2015-10-28 | 天津大学 | 一种基于多特征自适应融合和在线学习的目标跟踪方法 |
CN103198493A (zh) * | 2013-04-09 | 2013-07-10 | 天津大学 | 一种基于多特征自适应融合和在线学习的目标跟踪方法 |
CN103593856A (zh) * | 2013-11-20 | 2014-02-19 | 中国科学院深圳先进技术研究院 | 单目标跟踪方法及*** |
CN103617433A (zh) * | 2013-12-02 | 2014-03-05 | 西北工业大学 | 基于简化直推式学习法的在线目标跟踪方法 |
CN104734894A (zh) * | 2013-12-18 | 2015-06-24 | ***通信集团甘肃有限公司 | 一种流量数据筛选方法和装置 |
CN103870815A (zh) * | 2014-03-24 | 2014-06-18 | 公安部第三研究所 | 球机视频监控的人车结构化描述方法及*** |
CN104063713A (zh) * | 2014-07-04 | 2014-09-24 | 中国地质大学(武汉) | 一种基于随机蕨分类器的半自主在线学习方法 |
CN104156734A (zh) * | 2014-08-19 | 2014-11-19 | 中国地质大学(武汉) | 一种基于随机蕨分类器的全自主在线学习方法 |
CN104156734B (zh) * | 2014-08-19 | 2017-06-13 | 中国地质大学(武汉) | 一种基于随机蕨分类器的全自主在线学习方法 |
CN104680194A (zh) * | 2015-03-15 | 2015-06-03 | 西安电子科技大学 | 基于随机蕨丛和随机投影的在线目标跟踪方法 |
CN105006003A (zh) * | 2015-07-09 | 2015-10-28 | 北京航空航天大学 | 基于随机投影蕨的实时目标跟踪算法 |
CN105261040B (zh) * | 2015-10-19 | 2018-01-05 | 北京邮电大学 | 一种多目标跟踪方法及装置 |
CN105261040A (zh) * | 2015-10-19 | 2016-01-20 | 北京邮电大学 | 一种多目标跟踪方法及装置 |
CN106204644A (zh) * | 2016-07-01 | 2016-12-07 | 屈桢深 | 一种基于视频的目标长期跟踪方法 |
CN106650805A (zh) * | 2016-12-13 | 2017-05-10 | 中国科学院自动化研究所 | 一种视觉目标跟踪方法及装置 |
CN106909934A (zh) * | 2017-01-19 | 2017-06-30 | 博康智能信息技术有限公司上海分公司 | 一种基于自适应搜索的目标跟踪方法及装置 |
CN106909935A (zh) * | 2017-01-19 | 2017-06-30 | 博康智能信息技术有限公司上海分公司 | 一种目标跟踪方法及装置 |
CN107066990B (zh) * | 2017-05-04 | 2019-10-11 | 厦门美图之家科技有限公司 | 一种目标跟踪方法及移动设备 |
CN107066990A (zh) * | 2017-05-04 | 2017-08-18 | 厦门美图之家科技有限公司 | 一种目标跟踪方法及移动设备 |
CN107480714A (zh) * | 2017-08-09 | 2017-12-15 | 东北大学 | 基于全视角特征的跨社交网络用户识别方法 |
CN107480714B (zh) * | 2017-08-09 | 2020-02-21 | 东北大学 | 基于全视角特征的跨社交网络用户识别方法 |
CN108038515A (zh) * | 2017-12-27 | 2018-05-15 | 中国地质大学(武汉) | 无监督多目标检测跟踪方法及其存储装置与摄像装置 |
CN108198199A (zh) * | 2017-12-29 | 2018-06-22 | 北京地平线信息技术有限公司 | 运动物体跟踪方法、运动物体跟踪装置和电子设备 |
CN110502962A (zh) * | 2018-05-18 | 2019-11-26 | 翔升(上海)电子技术有限公司 | 视频流中目标的检测方法、装置、设备和介质 |
CN110502962B (zh) * | 2018-05-18 | 2022-04-12 | 苏州翔飞航空科技有限公司 | 视频流中目标的检测方法、装置、设备和介质 |
CN111079775A (zh) * | 2018-10-18 | 2020-04-28 | 中国科学院长春光学精密机械与物理研究所 | 一种联合区域约束学习的实时跟踪方法 |
CN109784155A (zh) * | 2018-12-10 | 2019-05-21 | 西安电子科技大学 | 基于验证和纠错机制的视觉目标跟踪方法、智能机器人 |
CN109784155B (zh) * | 2018-12-10 | 2022-04-29 | 西安电子科技大学 | 基于验证和纠错机制的视觉目标跟踪方法、智能机器人 |
CN112102356A (zh) * | 2019-06-18 | 2020-12-18 | 北京七鑫易维科技有限公司 | 一种目标跟踪方法、装置、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102982340A (zh) | 基于半监督学习和随机蕨类分类器的目标跟踪方法 | |
Choi et al. | A general framework for tracking multiple people from a moving camera | |
CN104616318B (zh) | 一种视频序列图像中的运动目标跟踪方法 | |
Zeng et al. | Silhouette-based gait recognition via deterministic learning | |
CN102903122B (zh) | 基于特征光流与在线集成学习的视频目标跟踪方法 | |
CN109754009B (zh) | 物品识别方法、装置、售货***和存储介质 | |
CN103345735B (zh) | 一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法 | |
Wu et al. | Online empirical evaluation of tracking algorithms | |
CN111161315A (zh) | 一种基于图神经网络的多目标跟踪方法和*** | |
CN109341703A (zh) | 一种全周期采用CNNs特征检测的视觉SLAM算法 | |
CN104778465B (zh) | 一种基于特征点匹配的目标跟踪方法 | |
CN103593679A (zh) | 一种基于在线机器学习的视觉人手跟踪方法 | |
CN104821010A (zh) | 基于双目视觉的人手三维信息实时提取方法及*** | |
CN109063625A (zh) | 一种基于级联深度网络的人脸关键点检测方法 | |
Zhou et al. | Game-theoretical occlusion handling for multi-target visual tracking | |
CN101303726A (zh) | 基于粒子动态采样模型的红外人体目标跟踪*** | |
CN113608663B (zh) | 一种基于深度学习和k-曲率法的指尖跟踪方法 | |
Liu et al. | Human action recognition using a distributed rgb-depth camera network | |
CN108764338A (zh) | 一种应用于视频分析的行人跟踪算法 | |
CN108898612A (zh) | 基于多智能体深度增强学习的多目标跟踪方法 | |
Lim et al. | A four dukkha state-space model for hand tracking | |
Ding et al. | Machine learning model for feature recognition of sports competition based on improved TLD algorithm | |
Feng | Mask RCNN-based single shot multibox detector for gesture recognition in physical education | |
Her et al. | Uncertainty-aware gaze tracking for assisted living environments | |
Pervaiz et al. | Artificial neural network for human object interaction system over Aerial images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130320 |