CN105654505B - 一种基于超像素的协同跟踪算法和*** - Google Patents
一种基于超像素的协同跟踪算法和*** Download PDFInfo
- Publication number
- CN105654505B CN105654505B CN201510971312.1A CN201510971312A CN105654505B CN 105654505 B CN105654505 B CN 105654505B CN 201510971312 A CN201510971312 A CN 201510971312A CN 105654505 B CN105654505 B CN 105654505B
- Authority
- CN
- China
- Prior art keywords
- model
- pixel
- super
- generation model
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims abstract description 21
- 230000006978 adaptation Effects 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 7
- 238000012360 testing method Methods 0.000 claims description 6
- 238000007689 inspection Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 5
- 238000013145 classification model Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 239000012634 fragment Substances 0.000 claims description 3
- 239000002537 cosmetic Substances 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000005056 compaction Methods 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 241000288105 Grus Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于超像素的协同跟踪算法和***。本发明提供的方法将结合全局判断和局部判断来确定候选图像内是否包含有目标区域,因此能解决目标区域被遮挡的跟踪问题,同时,通过引入更新策略,使得该方法可以适应目标区域在跟踪过程中各种外观变化,其准确性、适用性大大提高。
Description
技术领域
本发明涉及计算机视觉目标跟踪领域,更具体地,涉及一种基于超像素的协同跟踪算法和***。
背景技术
随着计算机的发展和普及,人们越来越期待计算机能具有像人类一样的感知和识别能力,其中一个努力的方向就是类似人类的视觉感知***。计算机视觉是通过计算机对输入的图像信息进行处理,模拟人眼对视觉信息的感知和识别,完成诸如目标识别、跟踪等任务。随着计算机性能的提高以及摄像头的普及,我们每天都能够获取到海量的视频图像信息,而且还在不断增长,使得人们对于视觉信息自动化处理的需求日益增加。
目标跟踪是在一组图像序列中对预先选定的感兴趣目标进行检测,逐帧地跟踪目标。按照跟踪目标的个数,目标跟踪算法可以简单地分成单目标跟踪算法和多目标跟踪算法;按照跟踪过程中使用的摄像头个数,目标跟踪算法可以分成单摄像头跟踪和多摄像头跟踪。本发明主要针对单摄像头单目标的跟踪问题。目标跟踪本身就是计算机视觉中的一个应用技术,同时它又是其他高级应用的基础。目标跟踪的一些典型应用包括:人机交互、安全监控、交通检测、智能机器人导航等。然而,目标跟踪是一个复杂的过程,该领域还存在许多挑战,例如目标跟踪过程中的局部遮挡、外观变化、光线变化、剧烈运动、目标在视野中消失后再现、背景影响等。
发明内容
本发明为解决以上现有技术的缺陷,提供了一种基于超像素的协同跟踪算法,该方法能够处理遮挡、外观变化等目标跟踪中的常见问题,并且具有很好的稳定性和鲁棒性。
为实现以上发明目的,采用的技术方案是:
一种基于超像素分割的协同跟踪算法,用于解决单摄像头单目标的跟踪问题,包括以下步骤:
一、训练阶段
S1.构建全局判别模型,所述全局判别模型用于提取目标区域的Haar_Like特征,然后根据提取的Haar_Like特征构建全局分类器GC,并确定全局分类器GC的参数;
S2.使用基于重叠滑动窗口的分片方法对目标区域进行分片,获得N个子区域,然后构建出N个局部判别模型,所述N个局部判别模型用于对N个子区域分别提取Haar_Like特征,然后根据提取的Haar_Like特征分别构建局部分类器,并确定局部分类器的参数;
S3.构建适应生成模型,并确认适应生成模型的模型参数,其具体步骤如下:
对目标区域进行超像素分割,并分别提取每个超像素的特征向量,然后使用K-means算法对目标区域的所有超像素进行聚类,从而确定适应生成模型的模型参数;
二、跟踪阶段
S4.将候选图像pi输入至全局判别模型,全局判别模型对候选图像pi的Haar_Like特征进行提取,然后使用全局分类器GC对候选图像pi的Haar_Like特征进行分类,GC(pi)表示候选图像pi的分类结果;
S5.使用步骤S2的方法将候选图像pi划分N个子区域,然后使N个局部判别模型对N个子区域分别提取Haar_Like特征,然后使用N个局部分类器分别对N个子区域的Haar_Like特征进行分类,LCj(pi)表示第j个局部分类器对子区域的分类结果;
S6.结合全局分类模型、局部分类模型的分类结果,对候选图像是否包含目标区域进行判断:
thrGC、thrLC分别表示全局分类、局部分类的两个阈值,当y(pi)=1时,表示候选图像pi包含有目标区域;
S7.将所有的候选图像进行步骤S4~S6的操作从而判断其内是否包含有目标区域,然后将所有判定其内包含有目标区域的候选图像输入至适应生成模型;
S8.对于每一张候选图像,适应生成模型对其进行超像素分割,然后提取每个超像素的特征向量,然后使用K-means算法对所有超像素的特征向量进行聚类,并计算候选图像的聚类置信度;然后选取置信度最高的候选图像作为跟踪结果进行输出,输出数据包括当前跟踪结果的置信度confT与目标区域的匹配面积areaT,其中其中Ai为每个超像素的面积,N表示候选图像片中包含超像素的个数,
上述公式表明当超像素与聚类中心在特征空间中相近,与聚类中模板超像素在目标区域相对位置也相近,且所属聚类的目标/背景置信度高时,本专利认为该类超像素可以更加充分地描述当前目标的外观信息且判别能力强,其中g′i表示候选图像片包含的超像素,k′i表示超像素所属聚类,S′i表示超像素所属聚类的距离,表示k′i的目标/背景置信度,R′j表示聚类半径,confi′表示g′i的置信度,Li表示候选图像片中每个超像素与所属聚类中的模板超像素间的最小空间距离,as是控制空间距离权重的权重因子,表示g′i与所属聚类的模板超像素在目标区域中的空间距离,表示以as为底,以为指数的幂运算;
其中
A′j表示当前跟踪结果中每个超像素的像素点个数,表示每个超像素聚类包含的目标区域像素点个数,M表示超像素的总数;
三、检测阶段
S9.构建模板库生成模型,并使模板库生成模型在当前帧内检测目标区域,返回检测结果的置信度confD,然后根据适应生成模型和模板库生成模型的输出结果估计目标区域的当前位置:
1)当areaT≥thrPL且confT≥thrTH时
其中thrTH、thrPL分别表示置信度阈值和匹配面积阈值,此时适应生成模型的跟踪结果具有较高的置信度和匹配面积,适应生成模型正常工作而且适应了目标区域外观,所以把适应生成模型的输出结果作为目标位置输出;然后按照更新策略根据areaT、confT对全局分类器GC、局部分类器、适应生成模型的参数进行更新;
2)当areaT<thrPL且confT≥thrTH时
此时适应生成模型的跟踪结果的匹配面积较低,但跟踪结果的置信度仍然高于阈值,所以仍把适应生成模型的输出结果作为目标位置输出;然后按照更新策略根据areaT、confT对全局分类器GC、局部分类器、适应生成模型的参数进行更新;
3)当areaT≥thrPL且confT<thrTH时
此时适应生成模型的跟踪结果具有较低的置信度,但具有较高的匹配面积,所以仍把适应生成模型的输出结果作为目标位置输出;然后按照更新策略根据areaT、confT对全局分类器GC、局部分类器、适应生成模型的参数进行更新;
4)当areaT<thrPL,confT≥thrTH且confD≥thrDH时
thrDH表示检测结果置信度的阈值,此时适应生成模型的跟踪结果的置信度和匹配面积都低于预设的阈值,而模板库生成模型检测到一个置信度较高的目标位置,则把模板库生成模型的检测结果当作目标位置输出,然后对全局分类器GC、局部分类器、适应生成模型进行重初始化。
模型更新是使跟踪算法能够适应目标外观变化的关键,判别模型采用了类似RealTime Compressive Tracking文献中增量更新方法(注与本专利无关,所以不赘述),生成模型中采用了一种基于滑动窗口的更新方法。在跟踪过程中,每隔U帧图像,我们就把一帧图像加入到模型中并进行超像素分割、特征提取、聚类。为了保证算法的实时性,我们采用了一个固定大小的窗口,并在每次更新时,如果窗口的图像帧数大于预定大小,则按一定的策略丢弃对生成模型影响最小的图像。
同时,本发明还提供了一种应用所述协同跟踪算法的***,其具体方案如下:包括跟踪模块、检测模块和位置估计模块,其中所述跟踪模块包括全局判别模型、局部判别模型和适应性生成模型,所述检测模型包括模板库生成模型,位置估计模块用于根据适应生成模型和模板库生成模型的输出结果估计目标区域的当前位置。
与现有技术相比,本发明的有益效果是:
本发明提供的基于超像素的协同跟踪算法,该方法能够处理遮挡、外观变化等目标跟踪中的常见问题,具有很好的稳定性和鲁棒性。
附图说明
图1为本方法的框架图。
图2为判别模型的训练示意图。
图3为适应生成模型的训练示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
以下结合附图和实施例对本发明做进一步的阐述。
实施例1
一种基于超像素分割的协同跟踪算法,用于解决单摄像头单目标的跟踪问题,包括以下步骤:
一、训练阶段
S1.构建全局判别模型,所述全局判别模型用于提取目标区域的Haar_Like特征,然后根据提取全局压缩Haar_Like特征构建全局分类器GC,并确定全局分类器GC的参数,具体如如图2所示;
S2.使用基于重叠滑动窗口的分片方法对目标区域进行分片,获得N个子区域,然后分别构建N个全局判别模型,所述N个局部判别模型用于对N个子区域分别提取Haar_Like特征,然后根据提取局部压缩Haar_Like特征分别构建局部分类器,并确定局部分类器的参数,具体如如图2所示;
S3.构建适应生成模型,并确认适应生成模型的模型参数,其具体步骤如下:
对目标区域进行超像素分割,并分别提取每个超像素的特征向量,然后使用K-means算法对目标区域的所有超像素进行聚类,从而确定适应生成模型的模型参数,具体如如图3所示;
二、跟踪阶段
S4.将候选图像pi输入至全局判别模型,全局判别模型对候选图像pi的Haar_Like特征进行提取,然后使用全局分类器GC对候选图像pi的全局压缩Haar_Like特征进行分类,GC(pi)表示候选图像pi的分类结果;
S5.使用步骤S2的方法将候选图像pi划分N个子区域,然后使N个局部判别模型对N个子区域分别提取Haar_Like特征,然后使用N个局部分类器分别对N个子区域的局部压缩Haar_Like特征进行分类,LCj(pi)表示第j个局部分类器对子区域的分类结果。目标发生遮挡时,全局判别模型可能无法对目标区域进行正确判别,但N个局部判别模型中通常仍然有一个或者多个对应区域未被遮挡的局部分类器能够正确判别目标区域。
S6.结合全局分类模型、局部分类模型的分类结果,对候选图像是否包含目标区域进行判断:
thrGC、thrLC分别表示全局分类、局部分类的两个阈值,当y(pi)=1时,表示候选图像pi包含有目标区域;
上述方案中,当目标区域被阻挡时,全局判别模型无法正常工作,为了避免此种缺陷,本发明提供的方法将结合全局判断和局部判断来确定候选图像内是否包含有目标区域,其准确性、适用性大大提高。
S7.将所有的候选图像进行步骤S4~S6的操作从而判断其内是否包含有目标区域,然后将所有判定其内包含有目标区域的候选图像输入至适应生成模型;
S8.对于每一张候选图像,适应生成模型对其进行超像素分割,然后提取每个超像素的特征向量,然后使用K-means算法对所有超像素的特征向量进行聚类,并计算候选图像的聚类置信度;然后选取置信度最高的候选图像作为跟踪结果进行输出,输出数据包括当前跟踪结果的置信度confT与目标区域的匹配面积areaT,其中其中Ai为每个超像素的面积,N表示候选图像片中包含超像素的个数,
上述公式表明当超像素与聚类中心在特征空间中相近,与聚类中模板超像素在目标区域相对位置也相近,且所属聚类的目标/背景置信度高时,本专利认为该类超像素可以更加充分地描述当前目标的外观信息且判别能力强,其中g′i表示候选图像片包含的超像素,k′i表示超像素所属聚类,S′i表示超像素所属聚类的距离,表示每个聚类的目标/背景置信度,R′j表示聚类半径,confi′表示g′i的置信度,Li表示候选图像片中每个超像素与所属聚类中的模板超像数间的最小空间距离,as是控制空间距离权重的权重因子,表示g′i与所属聚类的模板超像素在目标区域中的空间距离;
其中Atarget表示每个聚类中所有类成员属于目标区域的像素点个数的和,Abackground表示背景区域的像素点个数的和;
其中
A′j表示当前跟踪结果中每个超像素的像素点个数,表示每个超像素聚类包含的目标区域像素点个数,M表示超像素的总数;
三、检测阶段
S9.构建模板库生成模型,并使模板库生成模型在当前帧内检测目标区域,返回检测结果的置信度confD,然后根据适应生成模型和模板库生成模型的输出结果估计目标区域的当前位置:
1)当areaT≥thrPL且confT≥thrTH时
其中thrTH、thrPL分别表示置信度阈值和匹配面积阈值,此时适应生成模型的跟踪结果具有较高的置信度和匹配面积,适应生成模型正常工作而且适应了目标区域外观,所以把适应生成模型的输出结果作为目标位置输出;然后按照更新策略根据areaT、confT对全局分类器GC、局部分类器、适应生成模型的参数进行更新;
2)当areaT<thrPL且confT≥thrTH时
此时适应生成模型的跟踪结果的匹配面积较低,但跟踪结果的置信度仍然高于阈值,所以仍把适应生成模型的输出结果作为目标位置输出;然后按照更新策略根据areaT、confT对全局分类器GC、局部分类器、适应生成模型的参数进行更新;
3)当areaT≥thrPL且confT<thrTH时
此时适应生成模型的跟踪结果具有较低的置信度,但具有较高的匹配面积,所以仍把适应生成模型的输出结果作为目标位置输出;然后按照更新策略根据areaT、confT对全局分类器GC、局部分类器、适应生成模型的参数进行更新;
4)当areaT<thrPL,confT≥thrTH且confD≥thrDH时
thrDH表示检测结果置信度的阈值,此时适应生成模型的跟踪结果的置信度和匹配面积都低于预设的阈值,而模板库生成模型检测到一个置信度较高的目标位置,则把模板库生成模型的检测结果当作目标位置输出,然后对全局分类器GC、局部分类器、适应生成模型进行重初始化。
上述方案中,模板库生成模型根据一定的策略来确定当前各模型的工作状态和目标位置并输出,同时反馈到全局分类器GC、局部分类器、适应生成模型中,并对全局分类器GC、局部分类器、适应生成模型中进行更新,从而使得该方法可以适应目标区域在跟踪过程中各种外观变化。
实施例2
本发明还提供了一种应用所述协同跟踪算法的***,如图3所示,其具体方案如下:
包括跟踪模块、检测模块和位置估计模块,其中所述跟踪模块包括全局判别模型、局部判别模型和适应性生成模型,所述检测模型包括模板库生成模型,位置估计模块用于根据适应生成模型和模板库生成模型的输出结果估计目标区域的当前位置。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (2)
1.一种基于超像素分割的协同跟踪算法,用于解决单摄像头单目标的跟踪问题,其特征在于:包括以下步骤:
一、训练阶段
S1.构建全局判别模型,所述全局判别模型用于提取目标区域的Haar_Like特征,然后根据提取的Haar_Like特征构建全局分类器GC,并确定全局分类器GC的参数;
S2.使用基于重叠滑动窗口的分片方法对目标区域进行分片,获得N个子区域,然后构建出N个局部判别模型,所述N个局部判别模型用于对N个子区域分别提取Haar_Like特征,然后根据提取的Haar_Like特征分别构建局部分类器,并确定局部分类器的参数;
S3.构建适应生成模型,并确认适应生成模型的模型参数,其具体步骤如下:
对目标区域进行超像素分割,并分别提取每个超像素的特征向量,然后使用K-means算法对目标区域的所有超像素进行聚类,从而确定适应生成模型的模型参数;
二、跟踪阶段
S4.将候选图像pi输入至全局判别模型,全局判别模型对候选图像pi的Haar_Like特征进行提取,然后使用全局分类器GC对候选图像pi的Haar_Like特征进行分类,GC(pi)表示候选图像pi的分类结果;
S5.使用步骤S2的方法将候选图像pi划分N个子区域,然后使N个局部判别模型对N个子区域分别提取Haar_Like特征,然后使用N个局部分类器分别对N个子区域的Haar_Like特征进行分类,LCj(pi)表示第j个局部分类器对子区域的分类结果;
S6.结合全局分类模型、局部分类模型的分类结果,对候选图像是否包含目标区域进行判断:
thrGC、thrLC分别表示全局分类、局部分类的两个阈值,当y(pi)=1时,表示候选图像pi包含有目标区域;
S7.将所有的候选图像进行步骤S4~S6的操作从而判断其内是否包含有目标区域,然后将所有判定其内包含有目标区域的候选图像输入至适应生成模型;
S8.对于每一张候选图像,适应生成模型对其进行超像素分割,然后提取每个超像素的特征向量,然后使用K-means算法对所有超像素的特征向量进行聚类,并计算候选图像的聚类置信度;然后选取置信度最高的候选图像作为跟踪结果进行输出,输出数据包括当前跟踪结果的置信度confT与目标区域的匹配面积areaT,其中其中Ai为每个超像素的面积,N表示候选图像片中包含超像素的个数,
其中g′i表示候选图像片包含的超像素,k′i表示超像素所属聚类,S′i表示超像素所属聚类的距离,表示k′i的目标/背景置信度,R′j表示聚类半径,confi′表示g′i的置信度,Li表示候选图像片中每个超像素与所属聚类中的模板超像素间的最小空间距离,as是控制空间距离权重的权重因子,as∈(0,1),表示g′i与所属聚类的模板超像素在目标区域中的空间距离,表示以as为底,以为指数的幂运算;
其中
A′j表示当前跟踪结果中每个超像素的像素点个数,表示每个超像素聚类包含的目标区域像素点个数,M表示超像素的总数;
三、检测阶段
S9.构建模板库生成模型,并使模板库生成模型在当前帧内检测目标区域,返回检测结果的置信度confD,然后根据适应生成模型和模板库生成模型的输出结果估计目标区域的当前位置:
1)当areaT≥thrPL且confT≥thrTH时
其中thrTH、thrPL分别表示置信度阈值和匹配面积阈值,此时适应生成模型的跟踪结果具有较高的置信度和匹配面积,适应生成模型正常工作而且适应了目标区域外观,所以把适应生成模型的输出结果作为目标位置输出;然后按照更新策略根据areaT、confT对全局分类器GC、局部分类器、适应生成模型的参数进行更新;
2)当areaT<thrPL且confT≥thrTH时
此时适应生成模型的跟踪结果的匹配面积较低,但跟踪结果的置信度仍然高于阈值,所以仍把适应生成模型的输出结果作为目标位置输出;然后按照更新策略根据areaT、confT对全局分类器GC、局部分类器、适应生成模型的参数进行更新;
3)当areaT≥thrPL且confT<thrTH时
此时适应生成模型的跟踪结果具有较低的置信度,但具有较高的匹配面积,所以仍把适应生成模型的输出结果作为目标位置输出;然后按照更新策略根据areaT、confT对全局分类器GC、局部分类器、适应生成模型的参数进行更新;
4)当areaT<thrPL,confT≥thrTH且confD≥thrDH时
thrDH表示检测结果置信度的阈值,此时适应生成模型的跟踪结果的置信度和匹配面积都低于预设的阈值,而模板库生成模型检测到一个置信度较高的目标位置,则把模板库生成模型的检测结果当作目标位置输出,然后对全局分类器GC、局部分类器、适应生成模型进行重初始化。
2.一种根据权利要求1所述基于超像素分割的协同跟踪算法的***,其特征在于:包括跟踪模块、检测模块和位置估计模块,其中所述跟踪模块包括全局判别模型、局部判别模型和适应性生成模型,所述检测模块包括模板库生成模型,位置估计模块用于根据适应生成模型和模板库生成模型的输出结果估计目标区域的当前位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510971312.1A CN105654505B (zh) | 2015-12-18 | 2015-12-18 | 一种基于超像素的协同跟踪算法和*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510971312.1A CN105654505B (zh) | 2015-12-18 | 2015-12-18 | 一种基于超像素的协同跟踪算法和*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105654505A CN105654505A (zh) | 2016-06-08 |
CN105654505B true CN105654505B (zh) | 2018-06-26 |
Family
ID=56477692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510971312.1A Expired - Fee Related CN105654505B (zh) | 2015-12-18 | 2015-12-18 | 一种基于超像素的协同跟踪算法和*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105654505B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107633500A (zh) * | 2016-07-14 | 2018-01-26 | 南京视察者图像识别科技有限公司 | 一种新的图像目标检测流程 |
CN106504269B (zh) * | 2016-10-20 | 2019-02-19 | 北京信息科技大学 | 一种基于图像分类的多算法协作的目标跟踪方法 |
CN107273905B (zh) * | 2017-06-14 | 2020-05-08 | 电子科技大学 | 一种结合运动信息的目标主动轮廓跟踪方法 |
CN109325387B (zh) * | 2017-07-31 | 2021-09-28 | 株式会社理光 | 图像处理方法、装置、电子设备 |
JP7263983B2 (ja) * | 2019-08-30 | 2023-04-25 | 富士通株式会社 | 撮影漏れ検出装置、及び、撮影漏れ検出方法 |
CN112489085A (zh) * | 2020-12-11 | 2021-03-12 | 北京澎思科技有限公司 | 目标跟踪方法、目标跟踪装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103413120A (zh) * | 2013-07-25 | 2013-11-27 | 华南农业大学 | 基于物体整体性和局部性识别的跟踪方法 |
CN103886619A (zh) * | 2014-03-18 | 2014-06-25 | 电子科技大学 | 一种融合多尺度超像素的目标跟踪方法 |
CN104298968A (zh) * | 2014-09-25 | 2015-01-21 | 电子科技大学 | 一种基于超像素的复杂场景下的目标跟踪方法 |
-
2015
- 2015-12-18 CN CN201510971312.1A patent/CN105654505B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103413120A (zh) * | 2013-07-25 | 2013-11-27 | 华南农业大学 | 基于物体整体性和局部性识别的跟踪方法 |
CN103886619A (zh) * | 2014-03-18 | 2014-06-25 | 电子科技大学 | 一种融合多尺度超像素的目标跟踪方法 |
CN104298968A (zh) * | 2014-09-25 | 2015-01-21 | 电子科技大学 | 一种基于超像素的复杂场景下的目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
《Tracking Based on SURF and Superpixel》;Yu liu et al.;《2011 Sixth International Conference on Image and Graphics》;20111231;714-719 * |
Also Published As
Publication number | Publication date |
---|---|
CN105654505A (zh) | 2016-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105654505B (zh) | 一种基于超像素的协同跟踪算法和*** | |
CN109492581B (zh) | 一种基于tp-stg框架的人体动作识别方法 | |
CN108960080B (zh) | 基于主动防御图像对抗攻击的人脸识别方法 | |
Lu et al. | Application of an incremental SVM algorithm for on-line human recognition from video surveillance using texture and color features | |
Endres et al. | Category-independent object proposals with diverse ranking | |
CN106325485B (zh) | 一种手势检测识别方法及*** | |
CN110929593B (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
CN103198493B (zh) | 一种基于多特征自适应融合和在线学习的目标跟踪方法 | |
CN109711262B (zh) | 一种基于深度卷积神经网络的智能挖掘机行人检测方法 | |
CN106529499A (zh) | 基于傅里叶描述子和步态能量图融合特征的步态识别方法 | |
CN103854016B (zh) | 基于方向性共同发生特征的人体行为分类识别方法及*** | |
CN110298297A (zh) | 火焰识别方法和装置 | |
CN109145766A (zh) | 模型训练方法、装置、识别方法、电子设备及存储介质 | |
CN111666843A (zh) | 一种基于全局特征和局部特征拼接的行人重识别方法 | |
CN102147861A (zh) | 一种基于颜色-纹理双重特征向量进行贝叶斯判决的运动目标检测方法 | |
CN103310466A (zh) | 一种单目标跟踪方法及其实现装置 | |
CN103996046A (zh) | 基于多视觉特征融合的人员识别方法 | |
KR101762010B1 (ko) | 스켈레톤 자세 데이터세트를 이용한 비디오 기반 상호 활동 모델링 방법 | |
CN107025442A (zh) | 一种基于颜色和深度信息的多模态融合手势识别方法 | |
CN115527269B (zh) | 一种人体姿态图像智能识别方法及*** | |
CN110458022A (zh) | 一种基于域适应的可自主学习目标检测方法 | |
KR101074953B1 (ko) | Pca와 가버 웨이블렛을 사용한 혼합형 얼굴 인식 방법 및 시스템 | |
CN107886110A (zh) | 人脸检测方法、装置及电子设备 | |
Kashika et al. | Deep learning technique for object detection from panoramic video frames | |
Alksasbeh et al. | Smart hand gestures recognition using K-NN based algorithm for video annotation purposes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180626 |