CN107392936B - 一种基于meanshift的目标跟踪方法 - Google Patents

一种基于meanshift的目标跟踪方法 Download PDF

Info

Publication number
CN107392936B
CN107392936B CN201710434697.7A CN201710434697A CN107392936B CN 107392936 B CN107392936 B CN 107392936B CN 201710434697 A CN201710434697 A CN 201710434697A CN 107392936 B CN107392936 B CN 107392936B
Authority
CN
China
Prior art keywords
target
rectangle
pixels
pixel
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710434697.7A
Other languages
English (en)
Other versions
CN107392936A (zh
Inventor
沈振权
舒伟平
曹后平
田野
刘晓华
黄盛锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ANHUI GUANGZHEN PHOTOELECTRIC TECHNOLOGY Co.,Ltd.
Original Assignee
Guangdong Lite Array Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Lite Array Co ltd filed Critical Guangdong Lite Array Co ltd
Priority to CN201710434697.7A priority Critical patent/CN107392936B/zh
Publication of CN107392936A publication Critical patent/CN107392936A/zh
Application granted granted Critical
Publication of CN107392936B publication Critical patent/CN107392936B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于meanshift的目标跟踪方法,包括以下步骤:1,目标图像初始化,选定包含被跟踪目标矩形A1的初始位置;2,对目标矩形An的所有像素进行背景判断;3,计算目标矩形An的概率密度qu;4,运动目标在第n+1帧的候选目标区域,计算候选目标区域的概率密度pu;5,计算候选目标区域内的每个像素的权重ωi;6,计算候选目标区域的新位置ynew;7,如果||y0‑ynew||<ε或者迭代次数大于阈值,则停止迭代;否则继续迭代计算直到满足终止条件的候选目标位置。本发明基于meanshift的目标跟踪方法,对目标框里的像素进行判断,是否属于背景,如果属于背景,则不参与后续的计算,从而对真正的运动目标更好的建模,优化跟踪效果。

Description

一种基于meanshift的目标跟踪方法
技术领域
本发明涉及目标跟踪技术领域,具体涉及一种基于meanshift的目标跟踪方法。
背景技术
在meanshift目标跟踪过程中,通常是对目标所在的矩形框中所有的像素进行建模。这样就带来一个问题,矩形框中的像素不完全是目标的,也存在一部分背景,背景的信息也包括在目标建模里了。特别是矩形框如果选择的过大、或背景和目标的颜色差异过大时,目标建模存在相当大的误差。如何对真正的运动目标更好的建模是一个影响跟踪效果的关键步骤。
发明内容
本发明的目的在于提供一种基于meanshift的目标跟踪方法,通过背景建模获得矩阵框里面的像素是否属于背景,如果属于背景,则不参与后续的计算,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种基于meanshift的目标跟踪方法,通过摄像工具,对目标进行视频拍摄,得到目标的视频序列图像,其特征在于,所述目标跟踪方法包括以下步骤:
步骤1,目标图像初始化,选定包含被跟踪目标矩形A1的初始位置;
步骤2,记第n帧图像的目标矩形An,对目标矩形的所有像素进行背景判断,如果判为背景,则指示函数BIn(x)记为1,否则为0;
步骤3,对第n帧图像的目标矩形An,利用指示函数BIn(x)信息,计算目标矩形的概率密度qu
步骤4,运动目标在第n+1帧的候选目标区域,用第n帧图像的目标矩形位置y0计算候选目标区域的概率密度pu
步骤5,计算候选目标区域内的每个像素的权重ωi
步骤6,计算候选目标区域的新位置ynew
步骤7,如果||y0-ynew||<ε或者迭代次数大于阈值,则停止迭代;否则令y0=ynew并转向步骤4,继续迭代计算直到满足终止条件的候选目标位置。
作为进一步改进,所述步骤2中,记第n帧图像的目标矩形An,对目标矩形的所有像素进行背景判断,如果判为背景,则指示函数BIn(x)记为1,否则为0,具体包括以下步骤:
步骤21,判断目标矩形An中边缘部分的像素,记目标矩形An大小为w×d,目标矩形An的4个边缘为需要判断的像素区域,边缘的宽度h,边缘位置1、2、3、4为顺时针排列,边缘位置1位于目标矩形An正上方;
目标矩形An中心位置的像素默认属于目标,也即中心像素的指示函数BIn(x)直接设置为0;
步骤22,从目标矩形An左上角的顶点A开始,选择以A为左顶点,大小为3×3的矩形a,该矩阵包括9个像素,用高斯模型对这9个像素的灰度分布进行拟合,计算均值μ和方差σ2
Figure BDA0001318308310000021
Figure BDA0001318308310000022
其中gray(x)表示像素的灰度值;
对位于边缘位置1和边缘位置4里面所有的像素通过计算属于高斯模型的概率来判断是否属于背景,公式如下:
Figure BDA0001318308310000023
其中f(x)表示像素(x)属于高斯模型的概率,因此指示函数BIn(x)可以用如下公式计算:
Figure BDA0001318308310000031
用上述方法可以对边缘位置1和边缘位置4里面所有的像素进行判定,获得对应的指示函数BIn(x);
步骤23,与步骤22同理,从目标矩形An右上角的顶点B出发,判断边缘位置1和边缘位置2里面所有的像素,若边缘位置1中的某一像素在步骤22中已判断为背景时,此步骤省略该像素的判断;
步骤24,与步骤22同理,从目标矩形An右下角的顶点D出发,判断边缘位置2和边缘位置3的像素,若边缘位置2中的某一像素在步骤23中已判断为背景时,此步骤省略该像素的判断;
步骤25,与步骤22同理,从目标矩形An左下角的顶点C出发,判断边缘位置3和边缘位置4的像素,若边缘位置3中的某一像素在步骤24中已判断为背景时,此步骤省略该像素的判断;
由此,目标矩形An中所有像素的指示函数BIn(x)均计算获得。
作为进一步改进,所述步骤3中,对第n帧图像的目标矩形An,利用指示函数BIn(x)信息,计算目标矩形的概率密度qu,具体包括以下内容:
选择灰度信息作为Mean Shift***的特征空间,统计特征空间的灰度直方图,将特征空间分成m=32份,每份记为特征空间的一个特征值,记x0为目标模板区域的中心位置坐标,设{xi},i=1,L,n为目标模板区域内所有的不属于背景的像素位置,也即它们的指示函数BIn(x,y)值均为0,则基于灰度特征u=1,L,m的目标模板的概率密度函数的计算公式如下:
Figure BDA0001318308310000032
其中Cq是目标模板的归一化常数,
Figure BDA0001318308310000033
K(g)是核函数。
作为进一步改进,所述步骤4中,运动目标在第n+1帧的候选目标区域,用第n帧图像的目标矩形位置y0计算候选目标区域的概率密度pu,具体包括以下内容:
用前一帧即第n帧图像中目标模板的位置开始计算,设候选目标区域中心为y0,该区域中与前一帧像素{xi},i=1,L,n位置对应的各像素用{yi},i=1,L,n表示,与目标模板的概率密度函数计算方式相同,可以得到候选区域的概率密度函数:
Figure BDA0001318308310000041
作为进一步改进,所述步骤5中,计算候选目标区域内的每个像素的权重ωi
Figure BDA0001318308310000042
作为进一步改进,所述步骤6,计算候选目标区域的新位置ynew,具体包括以下内容:
通过Bhattacharyya系数来衡量目标模板和候选目标区域对应的直方图之间的相似性,以两个直方图的相似性最大为原则,使搜索窗口沿密度增加最大的方向移动到目标的真实位置;
其中qu为目标模板,pu为候选目标模板,Bhattacharyya系数定义如下:
Figure BDA0001318308310000043
Figure BDA0001318308310000044
经过泰勒级数展开后求导,得到候选目标区域中心位置的更新公式:
Figure BDA0001318308310000045
其中g(x)=-k′(x),ωi为每个像素的权重。
本发明的有益效果:针对普通的Meanshift不考虑目标框里的像素是否属于背景,直接用目标框里的所有像素参与后续计算。本发明基于meanshift的目标跟踪方法,对目标框里的像素进行判断,是否属于背景,如果属于背景,则不参与后续的计算,从而对真正的运动目标更好的建模,优化跟踪效果。
下面结合附图与具体实施方式,对本发明进一步详细说明。
附图说明
图1为基于meanshift的目标跟踪方法的流程图;
图2为实施例2的步骤2目标矩形An的结构示意图;
具体实施方式
实施例1,参见图1,本实施例提供的基于meanshift的目标跟踪方法,通过摄像工具,对目标进行视频拍摄,得到目标的视频序列图像{Pn(x,y)|n=1,2,L N},所述目标跟踪方法包括以下步骤:
步骤1,目标图像初始化,选定包含被跟踪目标矩形A1的初始位置;
步骤2,记第n帧图像的目标矩形An,对目标矩形的所有像素进行背景判断,如果判为背景,则指示函数BIn(x)记为1,否则为0;
步骤3,对第n帧图像的目标矩形An,利用指示函数BIn(x)信息,计算目标矩形的概率密度qu
步骤4,运动目标在第n+1帧的候选目标区域,用第n帧图像的目标矩形位置y0计算候选目标区域的概率密度pu
步骤5,计算候选目标区域内的每个像素的权重ωi
步骤6,计算候选目标区域的新位置ynew
步骤7,如果||y0-ynew||<ε或者迭代次数大于阈值,则停止迭代;否则令y0=ynew并转向步骤4,继续迭代计算直到满足终止条件的候选目标位置。
实施例2,参见图1~2,本实施例提供的基于meanshift的目标跟踪方法,以相邻两帧图像第n(≥1)帧和第n+1帧为例,详细介绍如何用meanshift的思想进行目标跟踪,也即根据第n帧的目标矩形的位置,计算第n+1帧的跟踪矩形的位置。
首先通过摄像工具,对目标进行视频拍摄,得到目标的视频序列图像{Pn(x,y)|n=1,2,L N},所述目标跟踪方法包括以下步骤:
步骤1,目标图像初始化,手动选定包含被跟踪目标矩形A1的初始位置;
步骤2,记第n帧图像的目标矩形An,对目标矩形的所有像素进行背景判断,如果判为背景,则指示函数BIn(x)记为1,否则为0,具体包括以下步骤:
步骤21,判断目标矩形An中边缘部分的像素,如图2所示,记目标矩形An大小为w×d,目标矩形An的4个边缘为需要判断的像素区域,边缘的宽度h,h取值10,边缘位置1、2、3、4为顺时针排列,边缘位置1位于目标矩形An正上方;
目标矩形An中心位置的像素默认属于目标,也即中心像素的指示函数BIn(x)直接设置为0;
步骤22,从目标矩形An左上角的顶点A开始,选择以A为左顶点,大小为3×3的矩形a,该矩阵包括9个像素,用高斯模型对这9个像素的灰度分布进行拟合,计算均值μ和方差σ2
Figure BDA0001318308310000061
Figure BDA0001318308310000062
其中gray(x)表示像素的灰度值;
对位于边缘位置1和边缘位置4里面所有的像素通过计算属于高斯模型的概率来判断是否属于背景,公式如下:
Figure BDA0001318308310000063
其中f(x)表示像素(x)属于高斯模型的概率,因此指示函数BIn(x)可以用如下公式计算:
Figure BDA0001318308310000064
用上述方法可以对边缘位置1和边缘位置4里面所有的像素进行判定,获得对应的指示函数BIn(x);
步骤23,与步骤22同理,从目标矩形An右上角的顶点B出发,判断边缘位置1和边缘位置2里面所有的像素,若边缘位置1中的某一像素在步骤22中已判断为背景时,此步骤省略该像素的判断;
步骤24,与步骤22同理,从目标矩形An右下角的顶点D出发,判断边缘位置2和边缘位置3的像素,若边缘位置2中的某一像素在步骤23中已判断为背景时,此步骤省略该像素的判断;
步骤25,与步骤22同理,从目标矩形An左下角的顶点C出发,判断边缘位置3和边缘位置4的像素,若边缘位置3中的某一像素在步骤24中已判断为背景时,此步骤省略该像素的判断;
由此,目标矩形An中所有像素的指示函数BIn(x)均计算获得;
步骤3,对第n帧图像的目标矩形An,利用指示函数BIn(x)信息,计算目标矩形的概率密度qu;具体包括以下内容:
选择灰度信息作为Mean Shift***的特征空间,统计特征空间的灰度直方图,将特征空间分成m=32份,每份记为特征空间的一个特征值,记x0为目标模板区域的中心位置坐标,设{xi},i=1,L,n为目标模板区域内所有的不属于背景的像素位置,也即它们的指示函数BIn(x,y)值均为0,则基于灰度特征u=1,L,m的目标模板的概率密度函数的计算公式如下:
Figure BDA0001318308310000071
其中Cq是目标模板的归一化常数,
Figure BDA0001318308310000072
K(g)是核函数。
K(g)核函数用于考虑遮挡或背景干扰的影响,给靠近目标中心位置的像素赋予较大的权值,而远离目标模板中心位置的像素赋予较小的权值,以此来区分目标区域内不同位置处的像素在估计目标概率密度函数中所做的贡献,本实施例K(g)核函数选择高斯核函数
Figure BDA0001318308310000073
其中h是核函数带宽,δ(x)为Kronecker delta函数,用于判断目标区域中像素xi的灰度值是否属于第u个单元的颜色索引值,等于为1,否则为0;
步骤4,运动目标在第n+1帧的候选目标区域,用第n帧图像的目标矩形位置y0计算候选目标区域的概率密度pu;具体包括以下内容:
用前一帧即第n帧图像中目标模板的位置开始计算,设候选目标区域中心为y0,该区域中与前一帧像素{xi},i=1,L,n位置对应的各像素用{yi},i=1,L,n表示,与目标模板的概率密度函数计算方式相同,可以得到候选区域的概率密度函数:
Figure BDA0001318308310000081
步骤5,计算候选目标区域内的每个像素的权重ωi
Figure BDA0001318308310000082
步骤6,计算候选目标区域的新位置ynew;具体包括以下内容:
通过Bhattacharyya系数来衡量目标模板和候选目标区域对应的直方图之间的相似性,以两个直方图的相似性最大为原则,使搜索窗口沿密度增加最大的方向移动到目标的真实位置;
其中qu为目标模板,pu为候选目标模板,Bhattacharyya系数定义如下:
Figure BDA0001318308310000083
Figure BDA0001318308310000084
经过泰勒级数展开后求导,得到候选目标区域中心位置的更新公式:
Figure BDA0001318308310000085
其中g(x)=-k′(x),ωi为每个像素的权重;
步骤7,如果||y0-ynew||<ε或者迭代次数大于阈值,则停止迭代;否则令y0=ynew并转向步骤4,继续迭代计算直到满足终止条件的候选目标位置。
相对于普通的Meanshift直接用目标框里的所有像素参与后续计算的方式。本发明基于meanshift的目标跟踪方法,对目标框里的像素进行判断,是否属于背景,如果属于背景,则不参与后续的计算,从而对真正的运动目标更好的建模,优化跟踪效果。
本发明并不限于上述实施方式,采用与本发明上述实施例相同或近似方法,而得到的其他基于meanshift的目标跟踪方法,均在本发明的保护范围之内。

Claims (5)

1.一种基于meanshift的目标跟踪方法,通过摄像工具,对目标进行视频拍摄,得到目标的视频序列图像,其特征在于,所述目标跟踪方法包括以下步骤:
步骤1,目标图像初始化,选定包含被跟踪目标矩形A1的初始位置;
步骤2,记第n帧图像的目标矩形An,对目标矩形的所有像素进行背景判断,如果判为背景,则指示函数BIn(x)记为1,否则为0;
步骤3,在指示函数BIn(x)记为0时,对第n帧图像的目标矩形An,利用指示函数BIn(x)信息,计算目标矩形的概率密度qu
步骤4,运动目标在第n+1帧的候选目标区域,用第n帧图像的目标矩形位置y0计算候选目标区域的概率密度pu
步骤5,计算候选目标区域内的每个像素的权重ωi
步骤6,计算候选目标区域的新位置ynew
步骤7,如果||y0-ynew||<ε或者迭代次数大于阈值,则停止迭代;否则令y0=ynew并转向步骤4,继续迭代计算直到满足终止条件的候选目标位置;
所述步骤2中,记第n帧图像的目标矩形An,对目标矩形的所有像素进行背景判断,如果判为背景,则指示函数BIn(x)记为1,否则为0,具体包括以下步骤:
步骤21,判断目标矩形An中边缘部分的像素,记目标矩形An大小为w×d,目标矩形An的4个边缘为需要判断的像素区域,边缘的宽度h,边缘位置1、2、3、4为顺时针排列,边缘位置1位于目标矩形An正上方;
目标矩形An中心位置的像素默认属于目标,也即中心像素的指示函数BIn(x)直接设置为0;
步骤22,从目标矩形An左上角的顶点A开始,选择以A为左顶点,大小为3×3的矩形a,该矩阵包括9个像素,用高斯模型对这9个像素的灰度分布进行拟合,计算均值μ和方差σ2
Figure FDA0002363982840000021
Figure FDA0002363982840000022
其中gray(x)表示像素的灰度值;
对位于边缘位置1和边缘位置4里面所有的像素通过计算属于高斯模型的概率来判断是否属于背景,公式如下:
Figure FDA0002363982840000023
其中f(x)表示像素(x)属于高斯模型的概率,指示函数BIn(x)用如下公式计算:
Figure FDA0002363982840000024
对边缘位置1和边缘位置4里面所有的像素进行判定,获得对应的指示函数BIn(x);
步骤23,与步骤22同理,从目标矩形An右上角的顶点B出发,判断边缘位置1和边缘位置2里面所有的像素,若边缘位置1中的某一像素在步骤22中已判断为背景时,此步骤省略该像素的判断;
步骤24,与步骤22同理,从目标矩形An右下角的顶点D出发,判断边缘位置2和边缘位置3的像素,若边缘位置2中的某一像素在步骤23中已判断为背景时,此步骤省略该像素的判断;
步骤25,与步骤22同理,从目标矩形An左下角的顶点C出发,判断边缘位置3和边缘位置4的像素,若边缘位置3中的某一像素在步骤24中已判断为背景时,此步骤省略该像素的判断;
由此,目标矩形An中所有像素的指示函数BIn(x)均计算获得。
2.根据权利要求1所述的基于meanshift的目标跟踪方法,其特征在于,所述步骤3中,对第n帧图像的目标矩形An,利用指示函数BIn(x)信息,计算目标矩形的概率密度qu,具体包括以下内容:
选择灰度信息作为Mean Shift***的特征空间,统计特征空间的灰度直方图,将特征空间分成m=32份,每份记为特征空间的一个特征值,记x0为目标模板区域的中心位置坐标,设{xi},i=1,…,n为目标模板区域内所有的不属于背景的像素位置,也即它们的指示函数BIn(x,y)值均为0,则基于灰度特征u=1,…,m的目标模板的概率密度函数的计算公式为:
Figure FDA0002363982840000031
其中Cq是目标模板的归一化常数,
Figure FDA0002363982840000032
k(g)是核函数,h是核函数带宽。
3.根据权利要求2所述的基于meanshift的目标跟踪方法,其特征在于,所述步骤4中,运动目标在第n+1帧的候选目标区域,用第n帧图像的目标矩形位置y0计算候选目标区域的概率密度pu,具体包括以下内容:
用前一帧即第n帧图像中目标模板的位置开始计算,设候选目标区域中心为y0,该区域中与前一帧像素{xi},i=1,…,n位置对应的各像素用{yi},i=1,…,n表示,与目标模板的概率密度函数计算方式相同,得到候选区域的概率密度函数:
Figure FDA0002363982840000033
4.根据权利要求3所述的基于meanshift的目标跟踪方法,其特征在于,所述步骤5中,计算候选目标区域内的每个像素的权重ωi
Figure FDA0002363982840000034
5.根据权利要求4所述的基于meanshift的目标跟踪方法,其特征在于,所述步骤6,计算候选目标区域的新位置ynew,具体包括以下内容:
通过Bhattacharyya系数来衡量目标模板和候选目标区域对应的直方图之间的相似性,以两个直方图的相似性最大为原则,使搜索窗口沿密度增加最大的方向移动到目标的真实位置;
其中qu为目标模板,pu为候选目标模板,Bhattacharyya系数为:
Figure FDA0002363982840000041
Figure FDA0002363982840000042
经过泰勒级数展开后求导,得到候选目标区域中心位置的更新公式:
Figure FDA0002363982840000043
其中g(x)=-k′(x),ωi为每个像素的权重。
CN201710434697.7A 2017-06-09 2017-06-09 一种基于meanshift的目标跟踪方法 Active CN107392936B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710434697.7A CN107392936B (zh) 2017-06-09 2017-06-09 一种基于meanshift的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710434697.7A CN107392936B (zh) 2017-06-09 2017-06-09 一种基于meanshift的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN107392936A CN107392936A (zh) 2017-11-24
CN107392936B true CN107392936B (zh) 2020-06-05

Family

ID=60332350

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710434697.7A Active CN107392936B (zh) 2017-06-09 2017-06-09 一种基于meanshift的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN107392936B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458862A (zh) * 2019-05-22 2019-11-15 西安邮电大学 一种遮挡背景下的运动目标跟踪方法
CN111275740B (zh) * 2020-01-19 2021-10-22 武汉大学 一种基于高分辨率孪生网络的卫星视频目标跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101727570A (zh) * 2008-10-23 2010-06-09 华为技术有限公司 跟踪方法、检测跟踪处理设备和监控***
CN101783015A (zh) * 2009-01-19 2010-07-21 北京中星微电子有限公司 一种视频跟踪设备及方法
CN102270346A (zh) * 2011-07-27 2011-12-07 宁波大学 一种交互式视频中的目标对象的提取方法
CN103366163A (zh) * 2013-07-15 2013-10-23 北京丰华联合科技有限公司 基于增量学习的人脸检测***和方法
CN104077779A (zh) * 2014-07-04 2014-10-01 中国航天科技集团公司第五研究院第五一三研究所 高斯背景模型与均值漂移跟踪结合的运动目标统计方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101727570A (zh) * 2008-10-23 2010-06-09 华为技术有限公司 跟踪方法、检测跟踪处理设备和监控***
CN101783015A (zh) * 2009-01-19 2010-07-21 北京中星微电子有限公司 一种视频跟踪设备及方法
CN102270346A (zh) * 2011-07-27 2011-12-07 宁波大学 一种交互式视频中的目标对象的提取方法
CN103366163A (zh) * 2013-07-15 2013-10-23 北京丰华联合科技有限公司 基于增量学习的人脸检测***和方法
CN104077779A (zh) * 2014-07-04 2014-10-01 中国航天科技集团公司第五研究院第五一三研究所 高斯背景模型与均值漂移跟踪结合的运动目标统计方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于全景视觉的运动目标检测与跟踪方法研究;甄景蕾;《中国优秀硕士学位论文全文数据库-信息科技辑》;20100615(第6期);第I138-491页第5.3-5.4节 *
基于判别式序列表的均值漂移目标跟踪算法;蒋良卫 等;《华中科技大学学报(自然科学版)》;20111130;第39卷(第增刊二期);第204-219页 *
基于机器视觉的运动目标轨迹跟踪技术研究;管春苗;《中国优秀硕士学位论文全文数据库-信息科技辑》;20160215(第2期);第I138-1552页 *

Also Published As

Publication number Publication date
CN107392936A (zh) 2017-11-24

Similar Documents

Publication Publication Date Title
US11763485B1 (en) Deep learning based robot target recognition and motion detection method, storage medium and apparatus
CN107862698B (zh) 基于k均值聚类的光场前景分割方法及装置
CN110276264B (zh) 一种基于前景分割图的人群密度估计方法
CN108846854B (zh) 一种基于运动预测与多特征融合的车辆跟踪方法
CN103426182B (zh) 基于视觉注意机制的电子稳像方法
CN108198201A (zh) 一种多目标跟踪方法、终端设备及存储介质
CN108229475B (zh) 车辆跟踪方法、***、计算机设备及可读存储介质
CN103679173B (zh) 图像显著区域检测方法
CN105279769B (zh) 一种联合多特征的层次粒子滤波跟踪方法
CN105740945A (zh) 一种基于视频分析的人群计数方法
CN107507222B (zh) 一种抗遮挡的基于积分直方图的粒子滤波目标跟踪方法
CN110006444B (zh) 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法
Huang et al. Image-guided non-local dense matching with three-steps optimization
CN110310305B (zh) 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置
CN112991193A (zh) 深度图像修复方法、设备及计算机可读存储介质
CN108596947B (zh) 一种适用于rgb-d相机的快速目标跟踪方法
CN108765463B (zh) 一种结合区域提取与改进纹理特征的运动目标检测方法
CN110717934A (zh) 一种基于strcf的抗遮挡目标跟踪方法
CN115375733A (zh) 基于视频和点云数据的雪车雪橇三维滑行轨迹提取方法
CN107392936B (zh) 一种基于meanshift的目标跟踪方法
CN113643365A (zh) 一种相机位姿估计方法、装置、设备以及可读存储介质
CN113516713A (zh) 一种基于伪孪生网络的无人机自适应目标跟踪方法
CN103985141B (zh) 基于hsv颜色协方差特征的目标跟踪方法
CN113379789B (zh) 一种复杂环境下运动目标跟踪方法
CN113689459B (zh) 动态环境下基于gmm结合yolo实时跟踪与建图方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20200706

Address after: 230000 west side of Xianghe North Road, Feidong Economic Development Zone, Feidong County, Hefei City, Anhui Province

Patentee after: ANHUI GUANGZHEN PHOTOELECTRIC TECHNOLOGY Co.,Ltd.

Address before: 523000 Guangdong province Dongguan Yinxing Industrial Zone Qingxi Town Guangdong light array photoelectric technology Co. Ltd.

Patentee before: GUANGDONG LITE ARRAY Co.,Ltd.

TR01 Transfer of patent right