CN105513094A - 基于三维Delaunay三角剖分的立体视觉跟踪方法及*** - Google Patents
基于三维Delaunay三角剖分的立体视觉跟踪方法及*** Download PDFInfo
- Publication number
- CN105513094A CN105513094A CN201510952595.5A CN201510952595A CN105513094A CN 105513094 A CN105513094 A CN 105513094A CN 201510952595 A CN201510952595 A CN 201510952595A CN 105513094 A CN105513094 A CN 105513094A
- Authority
- CN
- China
- Prior art keywords
- point
- ift
- target
- matching
- unique point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
一种基于三维Delaunay三角剖分的立体视觉跟踪方法及***,使用三维SIFT算法实现对原始图像进行三维SIFT特征点的提取,然后通过计算候选模型与目标模型之间欧氏距离实现三维SIFT特征点的粗匹配;再对匹配后的三维SIFT特征点进行三维Delaunay三角剖分,利用剖分形成的空间几何约束,对候选模型和目标模型三维SIFT特征点进行细匹配,在粒子滤波目标跟踪框架下实现对目标进行跟踪。本发明利用三维SIFT特征点的拓扑结构相似性进行匹配可以很好的去除不匹配点,特征点匹配精度更高,跟踪效果更好。
Description
技术领域
本发明涉及的是一种图像处理和立体视觉跟踪领域的技术,具体是一种基于三维Delaunay三角剖分的立体视觉跟踪方法及***。
背景技术
视觉目标跟踪是计算机视觉领域的一个重要研究方向,它结合了计算机图像处理、视频图像处理、模式识别、人工智能以及机械控制等诸多相关领域的知识,被广泛应用于智能监控、目标识别、交通监视等方面。
传统的运动目标跟踪大多为基于单目视觉的方法。目前,单目视觉目标跟踪算法已经比较成熟,在很多领域和方面都取得了不错的发展。然而单目视觉也存在很大缺陷,单目视觉信息量小,图像在投影过程中丢失了实际场景的三维信息,不能充分利用跟踪目标的立体结构信息,因此有着不可弥补的缺陷。在采用基于单目视觉的方法进行运动目标跟踪时,常常存在着目标遮挡以及周围场景光线变化和阴影的干扰等问题。立体视觉可以求取景物的三维信息,运用场景的三维信息跟踪目标,可以有效地解决场景光线变化和阴影的干扰以及遮挡等单目视觉中难以解决的问题。
近年来,随着三维技术的发展和进步,三维模型的获取变得越来越便捷,立体视觉跟踪算法研究也得到了发展。立体视觉弥补了单目视觉对目标信息获取不充分的缺点,可以充分利用目标的空间结构信息以及位置信息。基于RGB-D的目标跟踪最近很受欢迎,它同时利用了颜色信息和深度信息。比如RGB-DHOG,它从RGB图像和深度图像同时计算方向梯度直方图。RGB-DHOG特征描述了局部颜色纹理以及三维形状。然而,它并没有充分利用目标的空间结构信息,对变形严重的目标跟踪不稳定。
发明内容
本发明针对现有技术存在的上述不足,提出一种基于三维Delaunay三角剖分的立体视觉跟踪方法及***,采用三维SIFT特征点来描述目标特征,并采用三维Delaunay三角剖分构建目标特征三维空间约束。因为三维空间特征点信息比二维空间更加充分,因而利用三维SIFT特征点的拓扑结构相似性进行匹配可以很好的去除不匹配点,特征点匹配精度更高,从而跟踪效果更好。
本发明是通过以下技术方案实现的:
本发明涉及一种基于三维Delaunay三角剖分的立体视觉跟踪方法,使用三维SIFT算法实现对原始图像进行三维SIFT特征点的提取,然后通过计算候选模型与目标模型之间欧氏距离实现三维SIFT特征点的粗匹配;再对匹配后的三维SIFT特征点进行三维Delaunay三角剖分,利用剖分形成的空间几何约束,对候选模型和目标模型三维SIFT特征点进行细匹配,在粒子滤波目标跟踪框架下实现对目标进行跟踪。
本发明具体包括如下步骤:
步骤A,从原始图像的第一帧开始,进行三维SIFT特征点的提取:SIFT(Scale-InvariantFeatureTransform)是一种检测局部特征的算法,对旋转、尺度缩放、亮度变化保持不变性,对视角变化、仿射变换、噪声也有一定程度的稳定性。这里把二维空间的SIFT特征提取扩展到三维空间,应用于三维点云的特征提取,具体步骤如下:
步骤A1:检测由DOG空间的局部极值点组成的关键点:为了寻找DOG函数的极值点,每个样点需要与它的邻近点比较,当该点的DOG算子值为邻域内的极值,即DOG函数的极值点,则将该点定义为关键点。
步骤A2:生成关键点的三维SIFT特征向量:以关键点邻域内的梯度方向分布特性,用直方图统计邻域像素的梯度方向,生成三维SIFT特征向量。
步骤B,对候选模型和目标模型提取的三维SIFT特征点进行粗匹配。
当目标包含N1个三维SIFT特征点,用P表示目标模型,有其中:pi表示目标模型的一个三维SIFT特征点。
再当第t帧时,候选目标模型有N2个三维SIFT特征点,用Q表示,有其中:qi是候选模型的一个三维SIFT特征点。
对任意特征点pi,且pi∈P,计算与Q中所有特征点的最短欧氏距离和次短欧氏距离,当最短欧氏距离和次短欧氏距离的比值小于某个阈值,则表示特征点pi在Q中存在匹配的特征点。
步骤C,对匹配后的三维SIFT特征点进行三维Delaunay三角剖分,建立目标的三维表观模型:
当粗匹配后匹配点数为N,点集PS和QS分别代表粗匹配后的特征点psi和qsi构成的目标模型和候选模型,即对点集PS,QS进行三维Delaunay三角剖分。
用表示空间拓扑结构相似性,表示点psi的邻接点,表示点qsi的邻接点; 其中:表示点psi的邻域的权重系数向量, 表示点qsi的邻域的权重系数向量,和具有相同长度,通过计算和来比较点psi和qsi的空间拓扑结构相似性。即: 当小于匹配阈值,则可以认为点psi和qsi是正确的匹配关系。
所述的权重系数向量和通过最小二乘法计算,因为最小二乘法在L2范数下可以得到最小的误差。此外,最小二乘法通常可以得到非零的权重系数,也就是说每个点都可以用其所有的邻域点进行描述。
步骤D,在粒子滤波框架下实现对目标进行跟踪:经过细匹配后,利用目标模型和候选模型间匹配特征点的个数描述模型间的相似度,通过相似度来描述粒子滤波跟踪框架中的观察模型,即其中:pi∈P,map(pi)表示匹配特征点的映射,map(pi)∈Q,d(·)为:
本发明涉及一种实现上述方法的***,包括:依次连接的3DSIFT特征点检测模块、特征点粗匹配模块、三角剖分空间约束细匹配模块以及粒子滤波跟踪模块,其中:3DSIFT特征点检测模块从目标三维点云模型的原始信息中提取出3DSIFT特征点信息,特征点粗匹配模块针对3DSIFT特征点信息进行粗匹配并将粗匹配结果输出至三角剖分空间约束细匹配模块进行基于三维Delaunay的三角剖分空间约束细匹配,粒子滤波跟踪模块根据细匹配信息生成粒子滤波框架,并从粒子跟踪框架中获得目标跟踪信息。
附图说明
图1为三维SIFT特征提取;
图中:a为芭蕾者3DSIFT特征点提取;b为霹雳舞者3DSIFT特征点提取;c为芭蕾舞者局部3DSIFT特征点;d为霹雳舞者局部3DSIFT特征点;
图2为三维Delaunay三角剖分;
图中:a为芭蕾舞者3DSIFT特征点形成的三维Delaunay三角剖分;b为霹雳舞者3DSIFT特征点形成的三维Delaunay三角剖分;c为芭蕾舞者局部3DSIFT特征点三维Delaunay三角剖分;d为霹雳舞者局部3DSIFT特征点形成的三维Delaunay三角剖分;
图3为方法流程示意图;
图4为Ballet跟踪结果图;
图中:a为第1帧;b为第5帧;c为第10帧;d为第20帧;e为第30帧;
图5为Breakdance跟踪结果图;
图中:a为第1帧;b为第5帧;c为第10帧;d为第20帧;e为第30帧。
具体实施方式
本实施例涉及一种基于三维Delaunay三角剖分的立体视觉跟踪方法,首先提取候选目标特征,对其与目标模型进行粗匹配,然后对匹配后的特征点建立三维Delaunay三角剖分,利用三维Delaunay三角剖分的空间几何约束关系,对特征点进行细匹配。在粒子滤波框架下,对目标进行跟踪。
步骤1,三维SIFT特征提取,从视频第一帧开始处理,主要步骤如下:
步骤1.1:检测由DOG空间的局部极值点组成的关键点:为了寻找DOG函数的极值点,每个样点需要与它的邻近点比较,当该点的DOG算子值为邻域内的极值,即DOG函数的极值点,则将该点定义为关键点。
所述的DOG函数的极值点,通过以下方式得到:首先将原始图像与不同核值得高斯函数进行卷积运算构成高斯尺度空间,通过对高斯尺度空间采样,建立高斯金字塔,然后将高斯金字塔的相邻层做差分,得到DOG金字塔:
D(x,y,z,kj,σ)=(G(x,y,z,ki,σ)-G(x,y,z,kj,σ))*P(x,y,z),即
D(x,y,z,kj,σ)=L(x,y,z,ki,σ)-L(x,y,z,kj,σ),
其中:P(x,y,z)为物体的点云模型中点坐标,三维点云的尺度空间L(x,y,x,kσ)=G(x,y,x,kσ)*P(x,y,z),其中:σ是尺度空间因子,k为尺度空间的高斯核值,G(x,y,z,kσ)是尺度可变的三维高斯核函数,
所述的邻近点比较比较,优选为80个邻近点,包括26个与其同尺度相邻点和2×27个相邻尺度的相邻点。
步骤1.2:生成关键点特征,即三维SIFT特征向量:对于每一个检测到的关键点,以关键点邻域内的梯度方向分布特性为每个关键点指定方向参数,用直方图统计邻域像素的梯度方向,直方图的峰值代表该关键点邻域的方向,将该方向作为关键点的主方向;然后统计关键点邻域局部空间关系,计算邻域内各角度直方图,生成三维SIFT特征向量。
如图1所示,为两幅三维点云图像,其中:亮点即为提取的三维SIFT特征点。
步骤2,对候选模型和目标模型提取的三维SIFT特征点进行粗匹配:
当目标包含N1个三维SIFT特征点,用P表示目标模型,有其中:pi表示目标模型的一个三维SIFT特征点。在第t帧,候选目标模型有N2个三维SIFT特征点,用Q表示,有其中:qi是候选模型的一个三维SIFT特征点。
对任意特征点pi,且pi∈P,计算与Q中所有特征点的最短欧氏距离和次短欧氏距离,当最短欧氏距离和次短欧氏距离的比值小于距离阈值,则表示特征点pi在Q中存在匹配的特征点。
本实施例中的距离阈值取值为:0.6。
步骤3,三维SIFT特征点细匹配:
步骤3.1:当粗匹配后匹配点数为N,点集PS和QS分别代表粗匹配后特征点psi和qsi组成的目标模型和候选模型对PS,QS进行三维Delaunay三角剖分,如图2所示。
步骤3.2:表示点psi的邻接点,表示点qsi的邻接点,
步骤3.3:令表示点psi的邻域的权重系数向量, 表示点qsi的邻域的权重系数向量。和具有相同长度。通过最小二乘法计算和
步骤3.4:用表示空间拓扑结构相似性: 当小于匹配阈值,则可以认为点psi和qsi是正确的匹配关系。
本实施例中的匹配阈值取值为:0.1。
步骤4,粒子滤波目标跟踪:
本实施例以粒子滤波最为目标跟踪算法的框架对目标进行跟踪预测,粒子滤波框架主要包括动态模型与观测模型,其中:动态模型Xk=f(Xk-1)+Vk,其中Vk为高斯分布;观测模型其中:pi∈P,map(pi)表示匹配特征点的映射,map(pi)∈Q,d(·)为利用动态模型更新粒子位置,然后根据观察模型更新粒子权值,这里取最大权重粒子的位置为目标的位置,从而实现对目标的跟踪。
跟踪结果如图3、图4所示。立体框内为跟踪的目标。经测试,在Ballet测试中,击中目标率为95%,在Breakdance测试中,击中目标率为90%。这里,击中目标率指目标占据立体框的三分之二及以上。
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。
Claims (8)
1.一种基于三维Delaunay三角剖分的立体视觉跟踪方法,其特征在于,使用三维SIFT算法实现对原始图像进行三维SIFT特征点的提取,然后通过计算候选模型与目标模型之间欧氏距离实现三维SIFT特征点的粗匹配;再对匹配后的三维SIFT特征点进行三维Delaunay三角剖分,利用剖分形成的空间几何约束,对候选模型和目标模型三维SIFT特征点进行细匹配,在粒子滤波目标跟踪框架下实现对目标进行跟踪。
2.根据权利要求1所述的方法,其特征是,具体包括如下步骤:
步骤A,从原始图像的第一帧开始,进行三维SIFT特征点的提取;
步骤B,对候选模型和目标模型提取的三维SIFT特征点进行粗匹配;
步骤C,对匹配后的三维SIFT特征点进行三维Delaunay三角剖分,建立目标的三维表观模型;
步骤D,经过细匹配后,利用目标模型和候选模型间匹配特征点的个数描述模型间的相似度,通过相似度来描述粒子滤波跟踪框架中的观察模型实现跟踪。
3.根据权利要求2所述的方法,其特征是,所述的步骤A包括:
步骤A1:检测由DOG空间的局部极值点组成的关键点:将每个样点需要与它的邻近点比较,当该点的DOG算子值为邻域内的极值,即DOG函数的极值点,则将该点定义为关键点;
步骤A2:生成关键点的三维SIFT特征向量:以关键点邻域内的梯度方向分布特性,用直方图统计邻域像素的梯度方向,生成三维SIFT特征向量。
4.根据权利要求2所述的方法,其特征是,所述的步骤B具体是指:当目标包含N1个三维SIFT特征点,用P表示目标模型,有其中:pi表示目标模型的一个三维SIFT特征点;再当第t帧时,候选目标模型有N2个三维SIFT特征点,用Q表示,有其中:qi是候选模型的一个三维SIFT特征点;
对任意特征点pi,且pi∈P,计算与Q中所有特征点的最短欧氏距离和次短欧氏距离,当最短欧氏距离和次短欧氏距离的比值小于某个阈值,则表示特征点pi在Q中存在匹配的特征点。
5.根据权利要求2所述的方法,其特征是,所述的步骤C具体是指:当粗匹配后匹配点数为N,点集PS和QS分别代表粗匹配后的特征点psi和qsi构成的目标模型和候选模型,即对点集PS,QS进行三维Delaunay三角剖分;
用表示空间拓扑结构相似性,表示点psi的邻接点,表示点qsi的邻接点; 其中:表示点psi的邻域的权重系数向量,表示点qsi的邻域的权重系数向量,和具有相同长度,通过计算和来比较点psi和qsi的空间拓扑结构相似性。即: 当小于匹配阈值,则点psi和qsi是正确的匹配关系。
6.根据权利要求5所述的方法,其特征是,所述的权重系数向量和通过最小二乘法计算,并且每个点都用其所有的邻域点进行描述。
7.根据权利要求5所述的方法,其特征是,步骤D中所述的相似度是指:其中:pi∈P,map(pi)表示匹配特征点的映射,
8.一种实现上述任一权利要求所述方法的立体视觉跟踪***,其特征在于,包括:依次连接的3DSIFT特征点检测模块、特征点粗匹配模块、三角剖分空间约束细匹配模块以及粒子滤波跟踪模块,其中:3DSIFT特征点检测模块从目标三维点云模型的原始信息中提取出3DSIFT特征点信息,特征点粗匹配模块针对3DSIFT特征点信息进行粗匹配并将粗匹配结果输出至三角剖分空间约束细匹配模块进行基于三维Delaunay的三角剖分空间约束细匹配,粒子滤波跟踪模块根据细匹配信息生成粒子滤波框架,并从粒子跟踪框架中获得目标跟踪信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510952595.5A CN105513094A (zh) | 2015-12-17 | 2015-12-17 | 基于三维Delaunay三角剖分的立体视觉跟踪方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510952595.5A CN105513094A (zh) | 2015-12-17 | 2015-12-17 | 基于三维Delaunay三角剖分的立体视觉跟踪方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105513094A true CN105513094A (zh) | 2016-04-20 |
Family
ID=55721051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510952595.5A Pending CN105513094A (zh) | 2015-12-17 | 2015-12-17 | 基于三维Delaunay三角剖分的立体视觉跟踪方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105513094A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108828524A (zh) * | 2018-06-03 | 2018-11-16 | 桂林电子科技大学 | 基于Delaunay三角剖分的粒子滤波声源跟踪定位方法 |
CN110399931A (zh) * | 2019-07-30 | 2019-11-01 | 燕山大学 | 一种鱼眼图像匹配方法及*** |
CN110706259A (zh) * | 2019-10-12 | 2020-01-17 | 四川航天神坤科技有限公司 | 一种基于空间约束的可疑人员跨镜头追踪方法及装置 |
CN111007565A (zh) * | 2019-12-24 | 2020-04-14 | 清华大学 | 三维频率域全声波成像方法及装置 |
CN111046906A (zh) * | 2019-10-31 | 2020-04-21 | 中国资源卫星应用中心 | 一种面状特征点可靠加密匹配方法和*** |
CN111461196A (zh) * | 2020-03-27 | 2020-07-28 | 上海大学 | 基于结构特征的快速鲁棒图像识别跟踪方法和装置 |
WO2022156652A1 (zh) * | 2021-01-25 | 2022-07-28 | 腾讯科技(深圳)有限公司 | 交通工具运动状态评估方法、装置、设备以及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101655982A (zh) * | 2009-09-04 | 2010-02-24 | 上海交通大学 | 基于改进Harris角点的图像配准方法 |
US20100169576A1 (en) * | 2008-12-31 | 2010-07-01 | Yurong Chen | System and method for sift implementation and optimization |
CN102157017A (zh) * | 2011-04-28 | 2011-08-17 | 上海交通大学 | 基于图像的物体三维几何不变量快速获取方法 |
US20110216939A1 (en) * | 2010-03-03 | 2011-09-08 | Gwangju Institute Of Science And Technology | Apparatus and method for tracking target |
CN104021577A (zh) * | 2014-06-19 | 2014-09-03 | 上海交通大学 | 一种基于局部背景学习的视频跟踪方法 |
-
2015
- 2015-12-17 CN CN201510952595.5A patent/CN105513094A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100169576A1 (en) * | 2008-12-31 | 2010-07-01 | Yurong Chen | System and method for sift implementation and optimization |
CN101655982A (zh) * | 2009-09-04 | 2010-02-24 | 上海交通大学 | 基于改进Harris角点的图像配准方法 |
US20110216939A1 (en) * | 2010-03-03 | 2011-09-08 | Gwangju Institute Of Science And Technology | Apparatus and method for tracking target |
CN102157017A (zh) * | 2011-04-28 | 2011-08-17 | 上海交通大学 | 基于图像的物体三维几何不变量快速获取方法 |
CN104021577A (zh) * | 2014-06-19 | 2014-09-03 | 上海交通大学 | 一种基于局部背景学习的视频跟踪方法 |
Non-Patent Citations (4)
Title |
---|
DAVID G. LOWE: "Distinctive Image Features from Scale-Invariant Keypoints", 《COMPUTER VISION》 * |
DONG NI 等: "Volumetric ultrasound panorama based on 3D SIFT", 《MEDICAL IMAGE COMPUTING AND COMPUTER-ASSISTED INTERVENTION》 * |
JIANFANG DOU、JIANXUN LI: "Image matching based local Delaunay triangulation and affine invariant geometric constraint", 《OPTIK》 * |
牛长锋 等: "基于SIFT 特征和粒子滤波的目标跟踪方法", 《机器人ROBOT》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108828524A (zh) * | 2018-06-03 | 2018-11-16 | 桂林电子科技大学 | 基于Delaunay三角剖分的粒子滤波声源跟踪定位方法 |
CN108828524B (zh) * | 2018-06-03 | 2021-04-06 | 桂林电子科技大学 | 基于Delaunay三角剖分的粒子滤波声源跟踪定位方法 |
CN110399931A (zh) * | 2019-07-30 | 2019-11-01 | 燕山大学 | 一种鱼眼图像匹配方法及*** |
CN110399931B (zh) * | 2019-07-30 | 2021-07-06 | 燕山大学 | 一种鱼眼图像匹配方法及*** |
CN110706259A (zh) * | 2019-10-12 | 2020-01-17 | 四川航天神坤科技有限公司 | 一种基于空间约束的可疑人员跨镜头追踪方法及装置 |
CN110706259B (zh) * | 2019-10-12 | 2022-11-29 | 四川航天神坤科技有限公司 | 一种基于空间约束的可疑人员跨镜头追踪方法及装置 |
CN111046906A (zh) * | 2019-10-31 | 2020-04-21 | 中国资源卫星应用中心 | 一种面状特征点可靠加密匹配方法和*** |
CN111046906B (zh) * | 2019-10-31 | 2023-10-31 | 中国资源卫星应用中心 | 一种面状特征点可靠加密匹配方法和*** |
CN111007565A (zh) * | 2019-12-24 | 2020-04-14 | 清华大学 | 三维频率域全声波成像方法及装置 |
CN111461196A (zh) * | 2020-03-27 | 2020-07-28 | 上海大学 | 基于结构特征的快速鲁棒图像识别跟踪方法和装置 |
CN111461196B (zh) * | 2020-03-27 | 2023-07-21 | 上海大学 | 基于结构特征的快速鲁棒图像识别跟踪方法和装置 |
WO2022156652A1 (zh) * | 2021-01-25 | 2022-07-28 | 腾讯科技(深圳)有限公司 | 交通工具运动状态评估方法、装置、设备以及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105513094A (zh) | 基于三维Delaunay三角剖分的立体视觉跟踪方法及*** | |
CN111028277B (zh) | 基于伪孪生卷积神经网络的sar和光学遥感图像配准方法 | |
CN104063702B (zh) | 一种基于遮挡修复和局部相似性匹配的三维步态识别方法 | |
Zhou et al. | Seamless fusion of LiDAR and aerial imagery for building extraction | |
CN102697508B (zh) | 采用单目视觉的三维重建来进行步态识别的方法 | |
CN109242954B (zh) | 基于模板变形的多视角三维人体重建方法 | |
CN107481315A (zh) | 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法 | |
CN107424161B (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
CN107862735B (zh) | 一种基于结构信息的rgbd三维场景重建方法 | |
CN104751465A (zh) | 一种基于lk光流约束的orb图像特征配准方法 | |
CN103593832A (zh) | 一种基于高斯二阶差分特征检测算子的图像拼接方法 | |
CN104346608A (zh) | 稀疏深度图稠密化方法和装置 | |
CN106485690A (zh) | 基于点特征的点云数据与光学影像的自动配准融合方法 | |
CN104867126A (zh) | 基于点对约束和三角形网的有变化区域的合成孔径雷达图像配准方法 | |
CN103735269B (zh) | 一种基于视频多目标跟踪的高度测量方法 | |
CN106709950A (zh) | 一种基于双目视觉的巡线机器人跨越障碍导线定位方法 | |
CN104036524A (zh) | 一种改进sift算法的快速目标跟踪方法 | |
CN106919944A (zh) | 一种基于orb算法的大视角图像快速识别方法 | |
CN108596975A (zh) | 一种针对弱纹理区域的立体匹配算法 | |
CN112163622B (zh) | 全局与局部融合约束的航空宽基线立体像对线段匹配方法 | |
CN105389774A (zh) | 对齐图像的方法和装置 | |
CN111998862B (zh) | 一种基于bnn的稠密双目slam方法 | |
CN106485737A (zh) | 基于线特征的点云数据与光学影像的自动配准融合方法 | |
CN104794737A (zh) | 一种深度信息辅助粒子滤波跟踪方法 | |
CN104599286A (zh) | 一种基于光流的特征跟踪方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160420 |