CN104036523A - 一种基于SURF特征的改进Mean Shift的目标跟踪方法 - Google Patents
一种基于SURF特征的改进Mean Shift的目标跟踪方法 Download PDFInfo
- Publication number
- CN104036523A CN104036523A CN201410273186.8A CN201410273186A CN104036523A CN 104036523 A CN104036523 A CN 104036523A CN 201410273186 A CN201410273186 A CN 201410273186A CN 104036523 A CN104036523 A CN 104036523A
- Authority
- CN
- China
- Prior art keywords
- target
- partiald
- image
- tracked
- mean shift
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明属于目标跟踪领域,具体涉及一种基于SURF特征的改进Mean Shift的目标跟踪方法。本发明包括:获取动态视频;从动态视频中获取一张待跟踪目标图像;检测待跟踪目标图像的SURF特征,存入数据库中;数据库中待跟踪目标SURF特征与动态视频中的每帧图像的SURF特征进行匹配,当检测到待跟踪目标后,确定目标在图像中的位置;根据目标位置区域初始化Mean Shift模板;Mean Shift对动态视频中之后每一帧图像进行迭代跟踪直到初始模板再次更新;根据跟踪目标确定模板更新频率。本发明解决了Mean Shift跟踪方法目标模板不能更新的问题,以及核带宽无法改变的问题。
Description
技术领域
本发明属于目标跟踪领域,具体涉及一种基于SURF特征的改进Mean Shift的目标跟踪方法。
背景技术
目标跟踪是指在一序列图像的每幅图像中找到所感兴趣的运动目标所处的位置,它是计算机视觉领域的一个重要研究方向,经常应用于视频监控、人工智能、人机交互等方面。目标跟踪可以提供被监控目标的运动轨迹,也为目标的运动分析提供了可靠的数据信息。目标视频目标跟踪算法主要有基于对比度分析的方法,基于特征匹配的方法,核方法,运动检测(光流法)等等。
运动目标跟踪在工业、智能监控、人机界面、虚拟现实、运动分析等许多领域有着广泛的应用前景,在科学和工程中有着重要的研究价值,吸引了国内外越来越多研究者的兴趣。视频跟踪技术近年来引起越来越多的研究者们关注,这主要由于两方面原因:一方面,计算和存储成本的大幅度下跌使得以视频速率或近似视频速率采集存储图像序列成为可能;另一方面,视频跟踪技术的极为广阔的市场应用前景也是推动此研究的主要动力。目前,目标跟踪技术已经被广泛应用于众多生活和工作领域。
2006年Bay和Tuytelaar提出SURF特征,由于SURF特征在处理两幅图像之间发生平移、旋转、仿射变换情况下具有很强的匹配能力,此后被广泛用于工件识别、医学图像配准、人脸识别、3D目标检索跟踪、目标识别和图像特征匹配中,尽管作为SIFT算法的加速版,但是SURF算法在处理两幅图像时速度仍然较慢。2002年Dorin Comaniciu将Mean Shift引入到了目标跟踪领域,极大减少了跟踪算法的计算量,Mean Shift是一种基于无参密度估计的目标跟踪方法,以核密度直方图作为描述目标模型和候选模型的特征,Mean Shift跟踪方法计算量不大,在目标区域已知的情况下完全可以做到实时跟踪。其次,作为一个无参数密度估计方法,很容易作为一个模块和别的方法集成。另外,采用核函数直方图建模,对边缘遮挡、目标旋转、变形和背景运动不敏感,但是跟踪过程中窗宽的大小保持不变,同时不能对目标模板进行实时更新,在目标的运动中,目标的姿态、环境的光线等会发生变化,用场景图像中已经变化了的目标的候选模板去匹配初始模板,会导致跟踪失败。基于此,本发明提出了一种基于SURF特征的改进Mean Shift的目标跟踪方法,并将其成功应用于视频图像中的目标跟踪。
发明内容
本发明的目的在于克服Mean Shift跟踪方法已有技术的不足,提出一种基于SURF特征的改进Mean Shift的目标跟踪方法。
本发明的目的是这样实现的:
(1)获取动态视频;
(2)从动态视频中获取一张待跟踪目标图像;
(3)检测待跟踪目标图像的SURF特征,存入数据库中:
(3.1)尺度空间构建:
利用框状滤波器建立多尺度空间,其中框状滤波器的尺寸为:size=9*(σ-1.2),size代表滤波器的尺寸,σ为多尺度空间的尺度;
(3.2)快速Hessian矩阵检测:
对于待跟踪目标图像中给定的像素点(X,X)=f(x,y),则像素点的Hessian矩阵为:
H矩阵判别式为:
判别式的值是H矩阵的特征值,根据判定结果的符号将所有点分类,由判别式值的正负判断该点是不是极值点,
H(x,σ)对像素点在尺度σ上定义为:
其中Lxx(x,σ)是高斯函数的核函数二阶导与待跟踪目标图像在X点的卷积,分别计算Lxy(x,σ)和Lyy(x,σ),其中
为待跟踪目标图像中每个像素计算出H行列式的特征值,并用这个值来判别特征点,将框状滤波器与图像卷积的结果Dxx、Dxy、Dyy分别代替Lxx、Lxy、Lyy得到近似Hessian的矩阵Happrox,行列式为:
det(Happrox)=DxxDyy-(0.9Dxy)2;
(3.3)SURF特征描述子生成:
经过Hessian矩阵检测过的每个像素点与像素点本身的3维邻域的26个点的大小比较,如果是这26个点中的最大值或者最小值,则保留下来,当做初步的特征点;
计算半径为6s的邻域内的点在z、y方向的Haar小波响应,s为特征点所在的尺度值,Haar小波边长取4s,为Haar小波响应的响应值赋高斯权重系数,将60范围内的响应相加以形成新的矢量,遍历整个圆形区域,选择最长矢量的方向为特征点的主方向,通过特征点逐个进行计算,得到每一个特征点的主方向;
以兴趣点为中心,将坐标轴旋转到主方向,按照主方向选取边长为20s的正方形区域,并将正方形区域分成4*4的子区域,在每一个子区域内按照5*5的大小进行采样,分别计算主方向的水平和垂直方向上的Haar小波响应,记为dx和dy赋予权重系数,对每个子区域的响应以及响应的绝对值求和,在每个子区域得到一个4维向量V=(Σdx,|Σdx|,Σdy,|Σdy|)T,16个子区域形成一个64维的描述向量;
(4)数据库中待跟踪目标SURF特征与动态视频中的每帧图像的SURF特征进行匹配,当检测到待跟踪目标后,确定目标在图像中的位置:
对两幅图像进行特征匹配,采用欧式距离的最近邻法,M1、M2分别为参考图像和待匹配图像用SURF算法提取的兴趣点集合,对M1中任一兴趣点m1i,M2中与m1i的欧式距离最近和次近的两个兴趣点分别为m2j、m2j′,对应距离分别为dij、dij′,如果dij≤λ*dij′,λ为阈值,则m1i与m2j为匹配点对,根据所有匹配点所在的位置确定目标的区域位置;
(5)根据目标位置区域初始化Mean Shift模板:
待跟踪目标图像和待匹配图像的特征点匹配后,确定待跟踪目标在图像中的位置区域,目标区域即Mean Shift核函数作用的区域,区域的大小等于核函数的尺度,图像像素的值域为RGB颜色空间,按照直方图的方式将RGB颜色空间中的每个子空间R、G和B空间分成个相等的区间,每个区间成为一格Bin,构成特征空间,对初始目标区域内所有的像素点,计算特征空间中每个特征值的概率,作为初始目标模型的描述;
(6)Mean Shift对动态视频中之后每一帧图像进行迭代跟踪直到初始模板再次更新:
以后的每帧图像中可能存在目标候选区域中对特征空间每个特征值的计算成为待候选模型描述,利用相似性函数最大得到关于目标的Mean Shift向量,Mean Shift向量即是目标从初始位置向正确位置转移的向量,基于Mean Shift跟踪算法的收敛性,不断迭代计算MeanShift向量,在当前帧中目标最终会收敛于一个位置,从而确定跟踪目标区域;
(7)根据跟踪目标确定模板更新频率,当达到更新条件时返回步骤(4)。
本发明的有益效果在于:
本发明的方法具有更好的实时性和快速性。本发明的方法为快速跟踪物体提供了一条非常有效的途径,可广泛应用于视频监控,运动分析等领域。与传统的Mean Shift跟踪方法相比,解决了Mean Shift跟踪方法目标模板不能更新的问题,以及核带宽无法改变的问题。
附图说明
图1SURF特征点主方向确定示意图;
图2SURF特征向量描述示意图;
图3基于SURF特征的改进Mean Shift的目标跟踪方法程序流程图;
图4实验结果示意图;
图5实验结果示意图;
图6实验结果示意图;
图7实验结果示意图;
图8实验结果示意图。
具体实施方式
下面结合附图对本发明做进一步描述。
图中标号及符号说明如下:
图2中:dx—主方向的水平方向上的Haar小波响应,dy—主方向垂直方向上的Haar小波响应,
该方法继承了Mean Shift跟踪方法的实时性,同时解决了Mean Shift跟踪方法模板无法更新以及核带宽无法改变的缺点。
本发明的技术方案
步骤一:通过视频采集装置获取动态视频。
步骤二:通过图像采集软件从动态视频中获取一张待跟踪目标的图像。
步骤三:检测待跟踪目标图像的SURF特征,存入数据库中。
(1)尺度空间构建。
利用不同尺度的框状滤波器建立多尺度空间,其中框状滤波器的尺寸为:size=9*(σ-1.2)。其中size代表滤波器的尺寸,σ为多尺度空间的尺度。
(2)快速Hessian矩阵检测。
对于待跟踪目标图像I中给定的一个像素点(X,X)=f(x,y),则该像素点的Hessian矩阵为:
H矩阵判别式为:
判别式的值是H矩阵的特征值,根据判定结果的符号可以将所有点分类,由判别式值的正负,来判断该点是不是极值点。
H(x,σ)对该像素点在尺度σ上定义为:
其中Lxx(x,σ)是高斯和函数的核函数二阶导与图像I在X点的卷积,Lxy(x,σ)和Lyy(x,σ)用同样的方法计算,其中
通过这种方法可以为图像中每个像素计算出其H行列式的决定值,并用这个值来判别特征点。将框状滤波器与图像卷积的结果Dxx、Dxy、Dyy分别代替Lxx、Lxy、Lyy得打近似Hessian的矩阵Happrox,行列式如下:
det(Happrox)=DxxDyy-(0.9Dxy)2 (4)
(3)SURF特征描述子生成。
经过Hessian矩阵处理过的每个像素点与其3维领域的26个点进行大小比较,如果它是这26个点中的最大值或者最小值,则保留下来,当做初步的特征点。
为保证旋转不变性,首先以特征点为中心,计算半径为6s(s为特征点所在的尺度值)的邻域内的点在z、y方向的Haar小波(Haar小波边长取4s)响应,并给这些响应值赋高斯权重系数,使得靠近特征点的响应贡献大,而远离特征点的响应贡献小,其次将60范围内的响应相加以形成新的矢量,遍历整个圆形区域,选择最长矢量的方向为该特征点的主方向。这样通过特征点逐个进行计算,得到每一个特征点的主方向,参考图1。
以兴趣点为中心,将坐标轴旋转到主方向,按照主方向选取边长为20s的正方形区域,并将该区域分成4*4的子区域。在每一个子区域内按照5*5的大小进行采样,分别计算相对于主方向的水平和垂直方向上的Haar小波响应,记为dx和dy,同样赋予权重系数。然后对每个子区域的响应以及响应的绝对值求和,在每个子区域可以得到一个4维向量V=(Σdx,|Σdx|,Σdy,|Σdy|)T,这样16个子区域可形成一个64维的描述向量,参考图2。
步骤四:数据库中待跟踪目标SURF特征与动态视频中的每帧图像的SURF特征进行匹配,当检测到待跟踪目标后,确定目标在图像中的位置。
利用SURF特征检测得到待跟踪目标图像和动态视频中待匹配图像的特征点后,需要对两幅图像进行特征匹配。采用欧式距离的最近邻法,设M1、M2分别为参考图像和待匹配图像用SURF算法提取的兴趣点集合,对M1中任一兴趣点m1i,M2中与m1i的欧式距离最近和次近的两个兴趣点分别为m2j、m2j′,对应距离分别为dij、dij′,如果dij≤λ*dij′,λ为阈值,则m1i与m2j为匹配点对,根据所有匹配点所在的位置确定目标的区域位置。
步骤五:根据目标位置区域初始化Mean Shift模板。
待跟踪目标图像和待匹配图像的特征点匹配后,确定待跟踪目标在图像中的位置区域,这个目标区域就是Mean Shift核函数作用的区域,区域的大小等于核函数的尺度,图像像素的值域为RGB颜色空间,按照直方图的方式将RGB颜色空间中的每个子空间R、G和B空间分成个相等的区间,每个区间成为一格Bin,构成特征空间,对初始目标区域内所有的像素点,计算特征空间中每个特征值的概率,作为初始目标模型的描述。
步骤六:Mean Shift对动态视频中之后每一帧图像进行迭代跟踪直到初始模板再次更新。
以后的每帧图像中可能存在目标候选区域中对特征空间每个特征值的计算成为待候选模型描述。利用相似性函数最大得到关于目标的Mean Shift向量,这个向量即是目标从初始位置向正确位置转移的向量,基于Mean Shift跟踪算法的收敛性,不断迭代计算Mean Shift向量,在当前帧中目标最终会收敛于一个位置,从而确定跟踪目标区域。
步骤七:根据实际跟踪目标确定模板更新频率,当达到更新条件时返回步骤四。
下面通过一个具体实例来验证本发明所提出的基于SURF算法的Mean Shift改进算法的目标跟踪方法的性能。实验环境为2.70Ghz,2G内存,Visual C++6.0。
一种基于SURF特征的改进Mean Shift的目标跟踪方法,其具体实现步骤如下:
步骤一:通过视频采集装置获取动态视频。
步骤二:通过图像采集软件从动态视频中获取一张待跟踪目标的图像。
步骤三:检测跟踪目标的SURF特征。
(1)尺度空间构建。
相邻尺度差和高斯二阶导的大小有关,尺度空间的建立一般是从9*9的滤波器开始,每一阶分为四层,计算下一个滤波器的大小,为了保证滤波器的中心位于像素点X上,要对第一层的滤波器增加偶数个像素,这样滤波器的大小就增加6像素,既下一层的滤波器大小变为15。由此可以推导出滤波器尺寸的计算公式为:size=9*(σ-1.2)。其中size代表滤波器的尺寸,σ为多尺度空间的尺度。
(2)快速Hessian矩阵检测。
对于图像I中给定的一个像素点(X,X)=f(x,y),则该像素点的Hessian矩阵为:
H矩阵判别式为:
判别式的值是H矩阵的特征值,根据判定结果的符号可以将所有点分类,由判别式值的正负,来判断该点是不是极值点。
H(x,σ)对该像素点在尺度σ上定义为:
其中Lxx(x,σ)是高斯和函数的核函数二阶导与图像I在X点的卷积,Lxy(x,σ)和Lyy(x,σ)用同样的方法计算,其中
通过这种方法可以为图像中每个像素计算出其H行列式的决定值,并用这个值来判别特征点。将框状滤波器与图像卷积的结果Dxx、Dxy、Dyy分别代替Lxx、Lxy、Lyy得打近似Hessian的矩阵Happrox,行列式如下:
det(Happrox)=DxxDyy-(0.9Dxy)2 (4)
(3)SURF特征描述子生成。
经过Hessian矩阵处理过的每个像素点与其3维领域的26个点进行大小比较,如果它是这26个点中的最大值或者最小值,则保留下来,当做初步的特征点。
为保证旋转不变性,首先以特征点为中心,计算半径为6s(s为特征点所在的尺度值)的邻域内的点在z、y方向的Haar小波(Haar小波边长取4s)响应,并给这些响应值赋高斯权重系数,使得靠近特征点的响应贡献大,而远离特征点的响应贡献小,其次将60范围内的响应相加以形成新的矢量,遍历整个圆形区域,选择最长矢量的方向为该特征点的主方向。这样通过特征点逐个进行计算,得到每一个特征点的主方向,参考图1。
以兴趣点为中心,将坐标轴旋转到主方向,按照主方向选取边长为20s的正方形区域,并将该区域分成4*4的子区域。在每一个子区域内按照5*5的大小进行采样,分别计算相对于主方向的水平和垂直方向上的Haar小波响应,记为dx和dy,同样赋予权重系数。然后对每个子区域的响应以及响应的绝对值求和,在每个子区域可以得到一个4维向量V=(Σdx,|Σdx|,Σdy,|Σdy|)T,这样16个子区域可形成一个64维的描述向量,参考图2。
步骤四:数据库中待跟踪目标SURF特征与动态视频中的每帧图像的SURF特征进行匹配,当检测到待跟踪目标后,确定目标在图像中的位置。
利用SURF算法得到待跟踪目标图像和待匹配图像的特征点后,需要对两幅图像进行特征匹配。采用欧式距离的最近邻法,设M1、M2分别为参考图像和待匹配图像用SURF算法提取的兴趣点集合,对M1中任一兴趣点m1i,M2中与m1i的欧式距离最近和次近的两个兴趣点分别为m2j、m2j′,对应距离分别为dij、dij′,如果dij≤λ*dij′,λ选为0.65,则m1i与m2j为匹配点对,根据所有匹配点所在的位置确定目标的区域位置。
步骤五:根据目标位置区域初始化Mean Shift模板。
待跟踪目标图像和待匹配图像的特征点匹配后,确定待跟踪目标在图像中的位置区域,这个目标区域就是Mean Shift核函数作用的区域,区域的大小等于核函数的尺度,图像像素的值域为RGB颜色空间,按照直方图的方式将RGB颜色空间中的每个子空间R、G和B空间分成个相等的区间,每个区间成为一格Bin,构成特征空间,对初始目标区域内所有的像素点,计算特征空间中每个特征值的概率,作为初始目标模型的描述。
步骤六:Mean Shift对动态视频中之后每一帧图像进行迭代跟踪直到初始模板再次更新。
以后的每帧图像中可能存在目标候选区域中对特征空间每个特征值的计算成为待候选模型描述。利用相似性函数最大得到关于目标的Mean Shift向量,这个向量即是目标从初始位置向正确位置转移的向量,基于Mean Shift跟踪算法的收敛性,不断迭代计算Mean Shift向量,在当前帧中目标最终会收敛于一个位置,从而确定跟踪目标区域。
步骤七:当前视频数为10的倍数时,返回步骤四。
图4至图8即为实验运行结果,实验结果表明该发明方法跟踪目标具有较好的实时性和鲁棒性。传统的Mean Shift目标跟踪方法,当目标由远及近或由近及远时,目标大小发生变化,而Mean Shift目标跟踪方法的跟踪窗口大小不会变化,容易丢失目标。与传统的Mean Shift目标跟踪方法相比,该发明继承了它的实时性,同时更新了Mean Shift的初始模板,改变了核带宽。
Claims (1)
1.一种基于SURF特征的改进Mean Shift的目标跟踪方法,其特征在于:
(1)获取动态视频;
(2)从动态视频中获取一张待跟踪目标图像;
(3)检测待跟踪目标图像的SURF特征,存入数据库中:
(3.1)尺度空间构建:
利用框状滤波器建立多尺度空间,其中框状滤波器的尺寸为:size=9*(σ-1.2),size代表滤波器的尺寸,σ为多尺度空间的尺度;
(3.2)快速Hessian矩阵检测:
对于待跟踪目标图像中给定的像素点(X,X)=f(x,y),则像素点的Hessian矩阵为:
H矩阵判别式为:
判别式的值是H矩阵的特征值,根据判定结果的符号将所有点分类,由判别式值的正负判断该点是不是极值点,
H(x,σ)对像素点在尺度σ上定义为:
其中Lxx(x,σ)是高斯函数的核函数二阶导与待跟踪目标图像在X点的卷积,分别计算Lxy(x,σ)和Lyy(x,σ),其中
为待跟踪目标图像中每个像素计算出H行列式的特征值,并用这个值来判别特征点,将框状滤波器与图像卷积的结果Dxx、Dxy、Dyy分别代替Lxx、Lxy、Lyy得到近似Hessian的矩阵Happrox,行列式为:
det(Happrox)=DxxDyy-(0.9Dxy)2;
(3.3)SURF特征描述子生成:
经过Hessian矩阵检测过的每个像素点与像素点本身的3维邻域的26个点的大小比较,如果是这26个点中的最大值或者最小值,则保留下来,当做初步的特征点;
计算半径为6s的邻域内的点在z、y方向的Haar小波响应,s为特征点所在的尺度值,Haar小波边长取4s,为Haar小波响应的响应值赋高斯权重系数,将60范围内的响应相加以形成新的矢量,遍历整个圆形区域,选择最长矢量的方向为特征点的主方向,通过特征点逐个进行计算,得到每一个特征点的主方向;
以兴趣点为中心,将坐标轴旋转到主方向,按照主方向选取边长为20s的正方形区域,并将正方形区域分成4*4的子区域,在每一个子区域内按照5*5的大小进行采样,分别计算主方向的水平和垂直方向上的Haar小波响应,记为dx和dy赋予权重系数,对每个子区域的响应以及响应的绝对值求和,在每个子区域得到一个4维向量V=(Σdx,|Σdx|,Σdy,|Σdy|)T,16个子区域形成一个64维的描述向量;
(4)数据库中待跟踪目标SURF特征与动态视频中的每帧图像的SURF特征进行匹配,当检测到待跟踪目标后,确定目标在图像中的位置:
对两幅图像进行特征匹配,采用欧式距离的最近邻法,M1、M2分别为参考图像和待匹配图像用SURF算法提取的兴趣点集合,对M1中任一兴趣点m1i,M2中与m1i的欧式距离最近和次近的两个兴趣点分别为m2j、m2j′,对应距离分别为dij、dij′,如果dij≤λ*dij′,λ为阈值,则m1i与m2j为匹配点对,根据所有匹配点所在的位置确定目标的区域位置;
(5)根据目标位置区域初始化Mean Shift模板:
待跟踪目标图像和待匹配图像的特征点匹配后,确定待跟踪目标在图像中的位置区域,目标区域即Mean Shift核函数作用的区域,区域的大小等于核函数的尺度,图像像素的值域为RGB颜色空间,按照直方图的方式将RGB颜色空间中的每个子空间R、G和B空间分成个相等的区间,每个区间成为一格Bin,构成特征空间,对初始目标区域内所有的像素点,计算特征空间中每个特征值的概率,作为初始目标模型的描述;
(6)Mean Shift对动态视频中之后每一帧图像进行迭代跟踪直到初始模板再次更新:
以后的每帧图像中可能存在目标候选区域中对特征空间每个特征值的计算成为待候选模型描述,利用相似性函数最大得到关于目标的Mean Shift向量,Mean Shift向量即是目标从初始位置向正确位置转移的向量,基于Mean Shift跟踪算法的收敛性,不断迭代计算MeanShift向量,在当前帧中目标最终会收敛于一个位置,从而确定跟踪目标区域;
(7)根据跟踪目标确定模板更新频率,当达到更新条件时返回步骤(4)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410273186.8A CN104036523A (zh) | 2014-06-18 | 2014-06-18 | 一种基于SURF特征的改进Mean Shift的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410273186.8A CN104036523A (zh) | 2014-06-18 | 2014-06-18 | 一种基于SURF特征的改进Mean Shift的目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104036523A true CN104036523A (zh) | 2014-09-10 |
Family
ID=51467282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410273186.8A Pending CN104036523A (zh) | 2014-06-18 | 2014-06-18 | 一种基于SURF特征的改进Mean Shift的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104036523A (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104392240A (zh) * | 2014-10-28 | 2015-03-04 | 中国疾病预防控制中心寄生虫病预防控制所 | 一种基于多特征融合的寄生虫虫卵识别方法 |
CN105991928A (zh) * | 2015-03-23 | 2016-10-05 | 卡西欧计算机株式会社 | 图像处理装置以及图像处理方法 |
CN106257488A (zh) * | 2016-07-07 | 2016-12-28 | 电子科技大学 | 一种基于邻域特征空间鉴别分析的雷达目标识别方法 |
CN106683127A (zh) * | 2017-01-05 | 2017-05-17 | 南京觅踪电子科技有限公司 | 一种基于surf算法的多模态医学图像配准方法 |
CN106934395A (zh) * | 2017-02-15 | 2017-07-07 | 国家计算机网络与信息安全管理中心 | 一种采用surf特征和颜色特征相融合的刚体目标跟踪方法 |
CN107506795A (zh) * | 2017-08-23 | 2017-12-22 | 国家计算机网络与信息安全管理中心 | 一种面向图像匹配的局部灰度直方图特征描述子建立方法和图像匹配方法 |
CN108268823A (zh) * | 2016-12-30 | 2018-07-10 | 纳恩博(北京)科技有限公司 | 目标再识别方法和装置 |
CN108334811A (zh) * | 2017-12-26 | 2018-07-27 | 大唐软件技术股份有限公司 | 一种人脸图像处理方法及装置 |
CN108596950A (zh) * | 2017-08-29 | 2018-09-28 | 国家计算机网络与信息安全管理中心 | 一种基于主动漂移矫正的刚体目标跟踪方法 |
CN109525781A (zh) * | 2018-12-24 | 2019-03-26 | 国网山西省电力公司检修分公司 | 一种导线接续点的图像拍摄方法、装置、设备及存储介质 |
CN110516528A (zh) * | 2019-07-08 | 2019-11-29 | 杭州电子科技大学 | 一种基于运动背景下的动目标检测和跟踪方法 |
CN111369599A (zh) * | 2018-12-25 | 2020-07-03 | 阿里巴巴集团控股有限公司 | 一种图像匹配方法、设备、装置及存储介质 |
CN111368585A (zh) * | 2018-12-25 | 2020-07-03 | 中国科学院长春光学精密机械与物理研究所 | 一种弱小目标检测方法、检测***、存储装置及终端设备 |
CN112462788A (zh) * | 2020-12-15 | 2021-03-09 | 济南浪潮高新科技投资发展有限公司 | 基于机械视觉及ai技术的平衡车自动跟随实现方法及*** |
CN113673392A (zh) * | 2021-08-09 | 2021-11-19 | 南京理工大学 | 基于时空聚类的动目标检测方法 |
CN113975150A (zh) * | 2021-12-28 | 2022-01-28 | 杭州大力神医疗器械有限公司 | 一种经皮穴位治疗仪 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101924871A (zh) * | 2010-02-04 | 2010-12-22 | 苏州大学 | 基于均值偏移的视频目标跟踪方法 |
CN103268616A (zh) * | 2013-04-18 | 2013-08-28 | 北京工业大学 | 多特征多传感器的移动机器人运动人体跟踪方法 |
-
2014
- 2014-06-18 CN CN201410273186.8A patent/CN104036523A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101924871A (zh) * | 2010-02-04 | 2010-12-22 | 苏州大学 | 基于均值偏移的视频目标跟踪方法 |
CN103268616A (zh) * | 2013-04-18 | 2013-08-28 | 北京工业大学 | 多特征多传感器的移动机器人运动人体跟踪方法 |
Non-Patent Citations (4)
Title |
---|
李乃安: "视频序列中运动目标检测与跟踪技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
李昆: "基于SIFT特征和均值漂移的目标跟踪研究", 《中国优秀硕士学位论文全文集 信息科技辑》 * |
杨辉等: "基于Mean Shift算法视频跟踪研究", 《计算机工程与设计》 * |
胡威: "基于Meanshift的视频人体目标跟踪算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104392240A (zh) * | 2014-10-28 | 2015-03-04 | 中国疾病预防控制中心寄生虫病预防控制所 | 一种基于多特征融合的寄生虫虫卵识别方法 |
CN105991928B (zh) * | 2015-03-23 | 2019-06-21 | 卡西欧计算机株式会社 | 图像处理装置以及图像处理方法 |
CN105991928A (zh) * | 2015-03-23 | 2016-10-05 | 卡西欧计算机株式会社 | 图像处理装置以及图像处理方法 |
CN106257488A (zh) * | 2016-07-07 | 2016-12-28 | 电子科技大学 | 一种基于邻域特征空间鉴别分析的雷达目标识别方法 |
CN106257488B (zh) * | 2016-07-07 | 2019-11-19 | 电子科技大学 | 一种基于邻域特征空间鉴别分析的雷达目标识别方法 |
CN108268823A (zh) * | 2016-12-30 | 2018-07-10 | 纳恩博(北京)科技有限公司 | 目标再识别方法和装置 |
CN108268823B (zh) * | 2016-12-30 | 2021-07-20 | 纳恩博(北京)科技有限公司 | 目标再识别方法和装置 |
CN106683127A (zh) * | 2017-01-05 | 2017-05-17 | 南京觅踪电子科技有限公司 | 一种基于surf算法的多模态医学图像配准方法 |
CN106934395A (zh) * | 2017-02-15 | 2017-07-07 | 国家计算机网络与信息安全管理中心 | 一种采用surf特征和颜色特征相融合的刚体目标跟踪方法 |
CN106934395B (zh) * | 2017-02-15 | 2020-06-30 | 国家计算机网络与信息安全管理中心 | 一种采用surf特征和颜色特征相融合的刚体目标跟踪方法 |
CN107506795A (zh) * | 2017-08-23 | 2017-12-22 | 国家计算机网络与信息安全管理中心 | 一种面向图像匹配的局部灰度直方图特征描述子建立方法和图像匹配方法 |
CN108596950A (zh) * | 2017-08-29 | 2018-09-28 | 国家计算机网络与信息安全管理中心 | 一种基于主动漂移矫正的刚体目标跟踪方法 |
CN108596950B (zh) * | 2017-08-29 | 2022-06-17 | 国家计算机网络与信息安全管理中心 | 一种基于主动漂移矫正的刚体目标跟踪方法 |
CN108334811A (zh) * | 2017-12-26 | 2018-07-27 | 大唐软件技术股份有限公司 | 一种人脸图像处理方法及装置 |
CN109525781A (zh) * | 2018-12-24 | 2019-03-26 | 国网山西省电力公司检修分公司 | 一种导线接续点的图像拍摄方法、装置、设备及存储介质 |
CN111369599A (zh) * | 2018-12-25 | 2020-07-03 | 阿里巴巴集团控股有限公司 | 一种图像匹配方法、设备、装置及存储介质 |
CN111368585A (zh) * | 2018-12-25 | 2020-07-03 | 中国科学院长春光学精密机械与物理研究所 | 一种弱小目标检测方法、检测***、存储装置及终端设备 |
CN111368585B (zh) * | 2018-12-25 | 2023-04-21 | 中国科学院长春光学精密机械与物理研究所 | 一种弱小目标检测方法、检测***、存储装置及终端设备 |
CN111369599B (zh) * | 2018-12-25 | 2024-04-16 | 阿里巴巴集团控股有限公司 | 一种图像匹配方法、设备、装置及存储介质 |
CN110516528A (zh) * | 2019-07-08 | 2019-11-29 | 杭州电子科技大学 | 一种基于运动背景下的动目标检测和跟踪方法 |
CN112462788A (zh) * | 2020-12-15 | 2021-03-09 | 济南浪潮高新科技投资发展有限公司 | 基于机械视觉及ai技术的平衡车自动跟随实现方法及*** |
CN113673392A (zh) * | 2021-08-09 | 2021-11-19 | 南京理工大学 | 基于时空聚类的动目标检测方法 |
CN113975150A (zh) * | 2021-12-28 | 2022-01-28 | 杭州大力神医疗器械有限公司 | 一种经皮穴位治疗仪 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104036523A (zh) | 一种基于SURF特征的改进Mean Shift的目标跟踪方法 | |
Zhou et al. | Efficient road detection and tracking for unmanned aerial vehicle | |
Kumar et al. | Review of lane detection and tracking algorithms in advanced driver assistance system | |
CN104036524A (zh) | 一种改进sift算法的快速目标跟踪方法 | |
CN103295242B (zh) | 一种多特征联合稀疏表示的目标跟踪方法 | |
Zhu et al. | Object tracking in structured environments for video surveillance applications | |
CN103325126B (zh) | 一种在尺度变化和遮挡情况下的视频目标跟踪方法 | |
Huang et al. | Lane detection based on inverse perspective transformation and Kalman filter | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
Li et al. | Road lane detection with gabor filters | |
Lee et al. | Place recognition using straight lines for vision-based SLAM | |
CN101924871A (zh) | 基于均值偏移的视频目标跟踪方法 | |
CN107590821B (zh) | 一种基于轨迹优化的目标跟踪方法及*** | |
Wang et al. | An overview of 3d object detection | |
Chen et al. | 2D and 3D object detection algorithms from images: A Survey | |
Jelača et al. | Vehicle matching in smart camera networks using image projection profiles at multiple instances | |
Gad et al. | Real-time lane instance segmentation using SegNet and image processing | |
Qing et al. | A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation | |
Qiu et al. | Research on lane line detection method based on improved hough transform | |
Wang et al. | Hand posture recognition from disparity cost map | |
CN104392466A (zh) | 一种基于视觉显著原始目标的检测跟踪方法 | |
Nandhini et al. | SIFT algorithm-based Object detection and tracking in the video image | |
Gupta et al. | Robust lane detection using multiple features | |
Zuo et al. | Road model prediction based unstructured road detection | |
Lu et al. | Particle filter vehicle tracking based on surf feature matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140910 |