CN107392936B - 一种基于meanshift的目标跟踪方法 - Google Patents
一种基于meanshift的目标跟踪方法 Download PDFInfo
- Publication number
- CN107392936B CN107392936B CN201710434697.7A CN201710434697A CN107392936B CN 107392936 B CN107392936 B CN 107392936B CN 201710434697 A CN201710434697 A CN 201710434697A CN 107392936 B CN107392936 B CN 107392936B
- Authority
- CN
- China
- Prior art keywords
- target
- rectangle
- pixels
- pixel
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于meanshift的目标跟踪方法,包括以下步骤:1,目标图像初始化,选定包含被跟踪目标矩形A1的初始位置;2,对目标矩形An的所有像素进行背景判断;3,计算目标矩形An的概率密度qu;4,运动目标在第n+1帧的候选目标区域,计算候选目标区域的概率密度pu;5,计算候选目标区域内的每个像素的权重ωi;6,计算候选目标区域的新位置ynew;7,如果||y0‑ynew||<ε或者迭代次数大于阈值,则停止迭代;否则继续迭代计算直到满足终止条件的候选目标位置。本发明基于meanshift的目标跟踪方法,对目标框里的像素进行判断,是否属于背景,如果属于背景,则不参与后续的计算,从而对真正的运动目标更好的建模,优化跟踪效果。
Description
技术领域
本发明涉及目标跟踪技术领域,具体涉及一种基于meanshift的目标跟踪方法。
背景技术
在meanshift目标跟踪过程中,通常是对目标所在的矩形框中所有的像素进行建模。这样就带来一个问题,矩形框中的像素不完全是目标的,也存在一部分背景,背景的信息也包括在目标建模里了。特别是矩形框如果选择的过大、或背景和目标的颜色差异过大时,目标建模存在相当大的误差。如何对真正的运动目标更好的建模是一个影响跟踪效果的关键步骤。
发明内容
本发明的目的在于提供一种基于meanshift的目标跟踪方法,通过背景建模获得矩阵框里面的像素是否属于背景,如果属于背景,则不参与后续的计算,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种基于meanshift的目标跟踪方法,通过摄像工具,对目标进行视频拍摄,得到目标的视频序列图像,其特征在于,所述目标跟踪方法包括以下步骤:
步骤1,目标图像初始化,选定包含被跟踪目标矩形A1的初始位置;
步骤2,记第n帧图像的目标矩形An,对目标矩形的所有像素进行背景判断,如果判为背景,则指示函数BIn(x)记为1,否则为0;
步骤3,对第n帧图像的目标矩形An,利用指示函数BIn(x)信息,计算目标矩形的概率密度qu;
步骤4,运动目标在第n+1帧的候选目标区域,用第n帧图像的目标矩形位置y0计算候选目标区域的概率密度pu;
步骤5,计算候选目标区域内的每个像素的权重ωi;
步骤6,计算候选目标区域的新位置ynew;
步骤7,如果||y0-ynew||<ε或者迭代次数大于阈值,则停止迭代;否则令y0=ynew并转向步骤4,继续迭代计算直到满足终止条件的候选目标位置。
作为进一步改进,所述步骤2中,记第n帧图像的目标矩形An,对目标矩形的所有像素进行背景判断,如果判为背景,则指示函数BIn(x)记为1,否则为0,具体包括以下步骤:
步骤21,判断目标矩形An中边缘部分的像素,记目标矩形An大小为w×d,目标矩形An的4个边缘为需要判断的像素区域,边缘的宽度h,边缘位置1、2、3、4为顺时针排列,边缘位置1位于目标矩形An正上方;
目标矩形An中心位置的像素默认属于目标,也即中心像素的指示函数BIn(x)直接设置为0;
步骤22,从目标矩形An左上角的顶点A开始,选择以A为左顶点,大小为3×3的矩形a,该矩阵包括9个像素,用高斯模型对这9个像素的灰度分布进行拟合,计算均值μ和方差σ2:
其中gray(x)表示像素的灰度值;
对位于边缘位置1和边缘位置4里面所有的像素通过计算属于高斯模型的概率来判断是否属于背景,公式如下:
其中f(x)表示像素(x)属于高斯模型的概率,因此指示函数BIn(x)可以用如下公式计算:
用上述方法可以对边缘位置1和边缘位置4里面所有的像素进行判定,获得对应的指示函数BIn(x);
步骤23,与步骤22同理,从目标矩形An右上角的顶点B出发,判断边缘位置1和边缘位置2里面所有的像素,若边缘位置1中的某一像素在步骤22中已判断为背景时,此步骤省略该像素的判断;
步骤24,与步骤22同理,从目标矩形An右下角的顶点D出发,判断边缘位置2和边缘位置3的像素,若边缘位置2中的某一像素在步骤23中已判断为背景时,此步骤省略该像素的判断;
步骤25,与步骤22同理,从目标矩形An左下角的顶点C出发,判断边缘位置3和边缘位置4的像素,若边缘位置3中的某一像素在步骤24中已判断为背景时,此步骤省略该像素的判断;
由此,目标矩形An中所有像素的指示函数BIn(x)均计算获得。
作为进一步改进,所述步骤3中,对第n帧图像的目标矩形An,利用指示函数BIn(x)信息,计算目标矩形的概率密度qu,具体包括以下内容:
选择灰度信息作为Mean Shift***的特征空间,统计特征空间的灰度直方图,将特征空间分成m=32份,每份记为特征空间的一个特征值,记x0为目标模板区域的中心位置坐标,设{xi},i=1,L,n为目标模板区域内所有的不属于背景的像素位置,也即它们的指示函数BIn(x,y)值均为0,则基于灰度特征u=1,L,m的目标模板的概率密度函数的计算公式如下:
作为进一步改进,所述步骤4中,运动目标在第n+1帧的候选目标区域,用第n帧图像的目标矩形位置y0计算候选目标区域的概率密度pu,具体包括以下内容:
用前一帧即第n帧图像中目标模板的位置开始计算,设候选目标区域中心为y0,该区域中与前一帧像素{xi},i=1,L,n位置对应的各像素用{yi},i=1,L,n表示,与目标模板的概率密度函数计算方式相同,可以得到候选区域的概率密度函数:
作为进一步改进,所述步骤5中,计算候选目标区域内的每个像素的权重ωi,
作为进一步改进,所述步骤6,计算候选目标区域的新位置ynew,具体包括以下内容:
通过Bhattacharyya系数来衡量目标模板和候选目标区域对应的直方图之间的相似性,以两个直方图的相似性最大为原则,使搜索窗口沿密度增加最大的方向移动到目标的真实位置;
其中g(x)=-k′(x),ωi为每个像素的权重。
本发明的有益效果:针对普通的Meanshift不考虑目标框里的像素是否属于背景,直接用目标框里的所有像素参与后续计算。本发明基于meanshift的目标跟踪方法,对目标框里的像素进行判断,是否属于背景,如果属于背景,则不参与后续的计算,从而对真正的运动目标更好的建模,优化跟踪效果。
下面结合附图与具体实施方式,对本发明进一步详细说明。
附图说明
图1为基于meanshift的目标跟踪方法的流程图;
图2为实施例2的步骤2目标矩形An的结构示意图;
具体实施方式
实施例1,参见图1,本实施例提供的基于meanshift的目标跟踪方法,通过摄像工具,对目标进行视频拍摄,得到目标的视频序列图像{Pn(x,y)|n=1,2,L N},所述目标跟踪方法包括以下步骤:
步骤1,目标图像初始化,选定包含被跟踪目标矩形A1的初始位置;
步骤2,记第n帧图像的目标矩形An,对目标矩形的所有像素进行背景判断,如果判为背景,则指示函数BIn(x)记为1,否则为0;
步骤3,对第n帧图像的目标矩形An,利用指示函数BIn(x)信息,计算目标矩形的概率密度qu;
步骤4,运动目标在第n+1帧的候选目标区域,用第n帧图像的目标矩形位置y0计算候选目标区域的概率密度pu;
步骤5,计算候选目标区域内的每个像素的权重ωi;
步骤6,计算候选目标区域的新位置ynew;
步骤7,如果||y0-ynew||<ε或者迭代次数大于阈值,则停止迭代;否则令y0=ynew并转向步骤4,继续迭代计算直到满足终止条件的候选目标位置。
实施例2,参见图1~2,本实施例提供的基于meanshift的目标跟踪方法,以相邻两帧图像第n(≥1)帧和第n+1帧为例,详细介绍如何用meanshift的思想进行目标跟踪,也即根据第n帧的目标矩形的位置,计算第n+1帧的跟踪矩形的位置。
首先通过摄像工具,对目标进行视频拍摄,得到目标的视频序列图像{Pn(x,y)|n=1,2,L N},所述目标跟踪方法包括以下步骤:
步骤1,目标图像初始化,手动选定包含被跟踪目标矩形A1的初始位置;
步骤2,记第n帧图像的目标矩形An,对目标矩形的所有像素进行背景判断,如果判为背景,则指示函数BIn(x)记为1,否则为0,具体包括以下步骤:
步骤21,判断目标矩形An中边缘部分的像素,如图2所示,记目标矩形An大小为w×d,目标矩形An的4个边缘为需要判断的像素区域,边缘的宽度h,h取值10,边缘位置1、2、3、4为顺时针排列,边缘位置1位于目标矩形An正上方;
目标矩形An中心位置的像素默认属于目标,也即中心像素的指示函数BIn(x)直接设置为0;
步骤22,从目标矩形An左上角的顶点A开始,选择以A为左顶点,大小为3×3的矩形a,该矩阵包括9个像素,用高斯模型对这9个像素的灰度分布进行拟合,计算均值μ和方差σ2:
其中gray(x)表示像素的灰度值;
对位于边缘位置1和边缘位置4里面所有的像素通过计算属于高斯模型的概率来判断是否属于背景,公式如下:
其中f(x)表示像素(x)属于高斯模型的概率,因此指示函数BIn(x)可以用如下公式计算:
用上述方法可以对边缘位置1和边缘位置4里面所有的像素进行判定,获得对应的指示函数BIn(x);
步骤23,与步骤22同理,从目标矩形An右上角的顶点B出发,判断边缘位置1和边缘位置2里面所有的像素,若边缘位置1中的某一像素在步骤22中已判断为背景时,此步骤省略该像素的判断;
步骤24,与步骤22同理,从目标矩形An右下角的顶点D出发,判断边缘位置2和边缘位置3的像素,若边缘位置2中的某一像素在步骤23中已判断为背景时,此步骤省略该像素的判断;
步骤25,与步骤22同理,从目标矩形An左下角的顶点C出发,判断边缘位置3和边缘位置4的像素,若边缘位置3中的某一像素在步骤24中已判断为背景时,此步骤省略该像素的判断;
由此,目标矩形An中所有像素的指示函数BIn(x)均计算获得;
步骤3,对第n帧图像的目标矩形An,利用指示函数BIn(x)信息,计算目标矩形的概率密度qu;具体包括以下内容:
选择灰度信息作为Mean Shift***的特征空间,统计特征空间的灰度直方图,将特征空间分成m=32份,每份记为特征空间的一个特征值,记x0为目标模板区域的中心位置坐标,设{xi},i=1,L,n为目标模板区域内所有的不属于背景的像素位置,也即它们的指示函数BIn(x,y)值均为0,则基于灰度特征u=1,L,m的目标模板的概率密度函数的计算公式如下:
K(g)核函数用于考虑遮挡或背景干扰的影响,给靠近目标中心位置的像素赋予较大的权值,而远离目标模板中心位置的像素赋予较小的权值,以此来区分目标区域内不同位置处的像素在估计目标概率密度函数中所做的贡献,本实施例K(g)核函数选择高斯核函数其中h是核函数带宽,δ(x)为Kronecker delta函数,用于判断目标区域中像素xi的灰度值是否属于第u个单元的颜色索引值,等于为1,否则为0;
步骤4,运动目标在第n+1帧的候选目标区域,用第n帧图像的目标矩形位置y0计算候选目标区域的概率密度pu;具体包括以下内容:
用前一帧即第n帧图像中目标模板的位置开始计算,设候选目标区域中心为y0,该区域中与前一帧像素{xi},i=1,L,n位置对应的各像素用{yi},i=1,L,n表示,与目标模板的概率密度函数计算方式相同,可以得到候选区域的概率密度函数:
步骤5,计算候选目标区域内的每个像素的权重ωi;
步骤6,计算候选目标区域的新位置ynew;具体包括以下内容:
通过Bhattacharyya系数来衡量目标模板和候选目标区域对应的直方图之间的相似性,以两个直方图的相似性最大为原则,使搜索窗口沿密度增加最大的方向移动到目标的真实位置;
其中g(x)=-k′(x),ωi为每个像素的权重;
步骤7,如果||y0-ynew||<ε或者迭代次数大于阈值,则停止迭代;否则令y0=ynew并转向步骤4,继续迭代计算直到满足终止条件的候选目标位置。
相对于普通的Meanshift直接用目标框里的所有像素参与后续计算的方式。本发明基于meanshift的目标跟踪方法,对目标框里的像素进行判断,是否属于背景,如果属于背景,则不参与后续的计算,从而对真正的运动目标更好的建模,优化跟踪效果。
本发明并不限于上述实施方式,采用与本发明上述实施例相同或近似方法,而得到的其他基于meanshift的目标跟踪方法,均在本发明的保护范围之内。
Claims (5)
1.一种基于meanshift的目标跟踪方法,通过摄像工具,对目标进行视频拍摄,得到目标的视频序列图像,其特征在于,所述目标跟踪方法包括以下步骤:
步骤1,目标图像初始化,选定包含被跟踪目标矩形A1的初始位置;
步骤2,记第n帧图像的目标矩形An,对目标矩形的所有像素进行背景判断,如果判为背景,则指示函数BIn(x)记为1,否则为0;
步骤3,在指示函数BIn(x)记为0时,对第n帧图像的目标矩形An,利用指示函数BIn(x)信息,计算目标矩形的概率密度qu;
步骤4,运动目标在第n+1帧的候选目标区域,用第n帧图像的目标矩形位置y0计算候选目标区域的概率密度pu;
步骤5,计算候选目标区域内的每个像素的权重ωi;
步骤6,计算候选目标区域的新位置ynew;
步骤7,如果||y0-ynew||<ε或者迭代次数大于阈值,则停止迭代;否则令y0=ynew并转向步骤4,继续迭代计算直到满足终止条件的候选目标位置;
所述步骤2中,记第n帧图像的目标矩形An,对目标矩形的所有像素进行背景判断,如果判为背景,则指示函数BIn(x)记为1,否则为0,具体包括以下步骤:
步骤21,判断目标矩形An中边缘部分的像素,记目标矩形An大小为w×d,目标矩形An的4个边缘为需要判断的像素区域,边缘的宽度h,边缘位置1、2、3、4为顺时针排列,边缘位置1位于目标矩形An正上方;
目标矩形An中心位置的像素默认属于目标,也即中心像素的指示函数BIn(x)直接设置为0;
步骤22,从目标矩形An左上角的顶点A开始,选择以A为左顶点,大小为3×3的矩形a,该矩阵包括9个像素,用高斯模型对这9个像素的灰度分布进行拟合,计算均值μ和方差σ2:
其中gray(x)表示像素的灰度值;
对位于边缘位置1和边缘位置4里面所有的像素通过计算属于高斯模型的概率来判断是否属于背景,公式如下:
其中f(x)表示像素(x)属于高斯模型的概率,指示函数BIn(x)用如下公式计算:
对边缘位置1和边缘位置4里面所有的像素进行判定,获得对应的指示函数BIn(x);
步骤23,与步骤22同理,从目标矩形An右上角的顶点B出发,判断边缘位置1和边缘位置2里面所有的像素,若边缘位置1中的某一像素在步骤22中已判断为背景时,此步骤省略该像素的判断;
步骤24,与步骤22同理,从目标矩形An右下角的顶点D出发,判断边缘位置2和边缘位置3的像素,若边缘位置2中的某一像素在步骤23中已判断为背景时,此步骤省略该像素的判断;
步骤25,与步骤22同理,从目标矩形An左下角的顶点C出发,判断边缘位置3和边缘位置4的像素,若边缘位置3中的某一像素在步骤24中已判断为背景时,此步骤省略该像素的判断;
由此,目标矩形An中所有像素的指示函数BIn(x)均计算获得。
2.根据权利要求1所述的基于meanshift的目标跟踪方法,其特征在于,所述步骤3中,对第n帧图像的目标矩形An,利用指示函数BIn(x)信息,计算目标矩形的概率密度qu,具体包括以下内容:
选择灰度信息作为Mean Shift***的特征空间,统计特征空间的灰度直方图,将特征空间分成m=32份,每份记为特征空间的一个特征值,记x0为目标模板区域的中心位置坐标,设{xi},i=1,…,n为目标模板区域内所有的不属于背景的像素位置,也即它们的指示函数BIn(x,y)值均为0,则基于灰度特征u=1,…,m的目标模板的概率密度函数的计算公式为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710434697.7A CN107392936B (zh) | 2017-06-09 | 2017-06-09 | 一种基于meanshift的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710434697.7A CN107392936B (zh) | 2017-06-09 | 2017-06-09 | 一种基于meanshift的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107392936A CN107392936A (zh) | 2017-11-24 |
CN107392936B true CN107392936B (zh) | 2020-06-05 |
Family
ID=60332350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710434697.7A Active CN107392936B (zh) | 2017-06-09 | 2017-06-09 | 一种基于meanshift的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107392936B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458862A (zh) * | 2019-05-22 | 2019-11-15 | 西安邮电大学 | 一种遮挡背景下的运动目标跟踪方法 |
CN111275740B (zh) * | 2020-01-19 | 2021-10-22 | 武汉大学 | 一种基于高分辨率孪生网络的卫星视频目标跟踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101727570A (zh) * | 2008-10-23 | 2010-06-09 | 华为技术有限公司 | 跟踪方法、检测跟踪处理设备和监控*** |
CN101783015A (zh) * | 2009-01-19 | 2010-07-21 | 北京中星微电子有限公司 | 一种视频跟踪设备及方法 |
CN102270346A (zh) * | 2011-07-27 | 2011-12-07 | 宁波大学 | 一种交互式视频中的目标对象的提取方法 |
CN103366163A (zh) * | 2013-07-15 | 2013-10-23 | 北京丰华联合科技有限公司 | 基于增量学习的人脸检测***和方法 |
CN104077779A (zh) * | 2014-07-04 | 2014-10-01 | 中国航天科技集团公司第五研究院第五一三研究所 | 高斯背景模型与均值漂移跟踪结合的运动目标统计方法 |
-
2017
- 2017-06-09 CN CN201710434697.7A patent/CN107392936B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101727570A (zh) * | 2008-10-23 | 2010-06-09 | 华为技术有限公司 | 跟踪方法、检测跟踪处理设备和监控*** |
CN101783015A (zh) * | 2009-01-19 | 2010-07-21 | 北京中星微电子有限公司 | 一种视频跟踪设备及方法 |
CN102270346A (zh) * | 2011-07-27 | 2011-12-07 | 宁波大学 | 一种交互式视频中的目标对象的提取方法 |
CN103366163A (zh) * | 2013-07-15 | 2013-10-23 | 北京丰华联合科技有限公司 | 基于增量学习的人脸检测***和方法 |
CN104077779A (zh) * | 2014-07-04 | 2014-10-01 | 中国航天科技集团公司第五研究院第五一三研究所 | 高斯背景模型与均值漂移跟踪结合的运动目标统计方法 |
Non-Patent Citations (3)
Title |
---|
基于全景视觉的运动目标检测与跟踪方法研究;甄景蕾;《中国优秀硕士学位论文全文数据库-信息科技辑》;20100615(第6期);第I138-491页第5.3-5.4节 * |
基于判别式序列表的均值漂移目标跟踪算法;蒋良卫 等;《华中科技大学学报(自然科学版)》;20111130;第39卷(第增刊二期);第204-219页 * |
基于机器视觉的运动目标轨迹跟踪技术研究;管春苗;《中国优秀硕士学位论文全文数据库-信息科技辑》;20160215(第2期);第I138-1552页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107392936A (zh) | 2017-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11763485B1 (en) | Deep learning based robot target recognition and motion detection method, storage medium and apparatus | |
CN107862698B (zh) | 基于k均值聚类的光场前景分割方法及装置 | |
CN110276264B (zh) | 一种基于前景分割图的人群密度估计方法 | |
CN108846854B (zh) | 一种基于运动预测与多特征融合的车辆跟踪方法 | |
CN103426182B (zh) | 基于视觉注意机制的电子稳像方法 | |
CN108198201A (zh) | 一种多目标跟踪方法、终端设备及存储介质 | |
CN108229475B (zh) | 车辆跟踪方法、***、计算机设备及可读存储介质 | |
CN103679173B (zh) | 图像显著区域检测方法 | |
CN105279769B (zh) | 一种联合多特征的层次粒子滤波跟踪方法 | |
CN105740945A (zh) | 一种基于视频分析的人群计数方法 | |
CN107507222B (zh) | 一种抗遮挡的基于积分直方图的粒子滤波目标跟踪方法 | |
CN110006444B (zh) | 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法 | |
Huang et al. | Image-guided non-local dense matching with three-steps optimization | |
CN110310305B (zh) | 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置 | |
CN112991193A (zh) | 深度图像修复方法、设备及计算机可读存储介质 | |
CN108596947B (zh) | 一种适用于rgb-d相机的快速目标跟踪方法 | |
CN108765463B (zh) | 一种结合区域提取与改进纹理特征的运动目标检测方法 | |
CN110717934A (zh) | 一种基于strcf的抗遮挡目标跟踪方法 | |
CN115375733A (zh) | 基于视频和点云数据的雪车雪橇三维滑行轨迹提取方法 | |
CN107392936B (zh) | 一种基于meanshift的目标跟踪方法 | |
CN113643365A (zh) | 一种相机位姿估计方法、装置、设备以及可读存储介质 | |
CN113516713A (zh) | 一种基于伪孪生网络的无人机自适应目标跟踪方法 | |
CN103985141B (zh) | 基于hsv颜色协方差特征的目标跟踪方法 | |
CN113379789B (zh) | 一种复杂环境下运动目标跟踪方法 | |
CN113689459B (zh) | 动态环境下基于gmm结合yolo实时跟踪与建图方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20200706 Address after: 230000 west side of Xianghe North Road, Feidong Economic Development Zone, Feidong County, Hefei City, Anhui Province Patentee after: ANHUI GUANGZHEN PHOTOELECTRIC TECHNOLOGY Co.,Ltd. Address before: 523000 Guangdong province Dongguan Yinxing Industrial Zone Qingxi Town Guangdong light array photoelectric technology Co. Ltd. Patentee before: GUANGDONG LITE ARRAY Co.,Ltd. |
|
TR01 | Transfer of patent right |