CN110503688A - 一种用于深度相机的位姿估计方法 - Google Patents

一种用于深度相机的位姿估计方法 Download PDF

Info

Publication number
CN110503688A
CN110503688A CN201910769449.7A CN201910769449A CN110503688A CN 110503688 A CN110503688 A CN 110503688A CN 201910769449 A CN201910769449 A CN 201910769449A CN 110503688 A CN110503688 A CN 110503688A
Authority
CN
China
Prior art keywords
characteristic point
orb characteristic
depth
depth information
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910769449.7A
Other languages
English (en)
Other versions
CN110503688B (zh
Inventor
朱俊涛
陈强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai University of Engineering Science
Original Assignee
Shanghai University of Engineering Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai University of Engineering Science filed Critical Shanghai University of Engineering Science
Priority to CN201910769449.7A priority Critical patent/CN110503688B/zh
Publication of CN110503688A publication Critical patent/CN110503688A/zh
Application granted granted Critical
Publication of CN110503688B publication Critical patent/CN110503688B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及定点跟踪的技术领域,公开了一种用于深度相机的位姿估计方法,包括将深度相机设置在移动机构上进行拍摄,获得深度图和RBG彩色图,从拍摄的每相邻两帧图像中提取ORB特征点对;利用N个深度信息缺失的ORB特征点对,计算相机位姿变化的估计值ξP,利用M个深度信息完整的ORB特征点对,计算相机位姿变化的估计值ξQ,进而得到总估计值ξ0;构建融合了深度信息缺失的ORB特征点对和深度信息完整的ORB特征点对对应的误差信息的最小重投影误差模型,进而得到对应的雅可比矩阵J;根据总估计值ξ0、最小重投影误差函数和雅可比矩阵J,利用非线性优化方法,计算优化后的总估计值ξk,从而完成相邻两帧图像拍摄过程中的相机位姿变化的估计。

Description

一种用于深度相机的位姿估计方法
技术领域
本发明涉及定位追踪的技术领域,具体涉及一种用于深度相机的位姿估计方法。
背景技术
现有市面上的Kinect相机所捕获的深度图像由于遮挡、吸收、散斑、反射等原因导致深度区域缺失经常产生缺失深度区域的现象,使得传统ICP算法迭代相机位姿时,有时出现特征点丢失导致算法无法收敛或误差过大等问题,进行点云配准时出现了大量误差点,导致其匹配点对减少,在初始位姿选取时,可能偏离迭代区间,使得迭代次数增加,收敛速度慢,收敛成功率低。
对于Kinect的深度缺失问题上有许多研究方法,其中最为常见的方法是结合彩色图像纹理对深度图像进行修复,如(Le A V,Jung SW,Won C S.Directional jointbilateral filter for depth images.[J].Sensors,2014,14(7):11362.)或者(MatsuoT,Fukushima N,Ishibashi Y.Weighted jointbilateral filter with slope depthcompensation filter for depth ma prefinement[C].International Conference onComputer Vision Theory andApplications.2015.)。此类方法虽然可以恢复出完整的深度图,但是彩色图像的边缘和深度图像的边缘不能基本匹配且误差较大,且修复时间过长,优化后精度提高不明显,不适合机器人的实时作业。
发明内容
本发明提供了一种用于深度相机的位姿估计方法,解决了现有方法对深度信息缺失的修复时间过长,优化后精度提高不明显,不适合机器人的实时作业等问题。
本发明可通过以下技术方案实现:
一种用于深度相机的位姿估计方法,包括以下步骤:
步骤一、将深度相机设置在移动机构上进行拍摄,获得深度图和RBG彩色图,从拍摄的每相邻两帧图像中提取Oriented FAST and Rotated BRIEF ORB特征点对;
步骤二、利用N个深度信息缺失的ORB特征点对,计算相机位姿变化的估计值ξP,利用M个深度信息完整的ORB特征点对,计算相机位姿变化的估计值ξQ,进而得到总估计值ξ0
步骤三、构建融合了深度信息缺失的ORB特征点对和深度信息完整的ORB特征点对对应的误差信息的最小重投影误差模型,进而得到对应的雅可比矩阵J;
步骤四、根据所述总估计值ξ0、最小重投影误差模型和雅可比矩阵J,利用非线性优化方法,计算优化后的总估计值ξk,从而完成相邻两帧图像拍摄过程中的相机位姿变化的估计。
进一步,对于N个深度信息缺失的ORB特征点对,利用重投影方法,结合PnP算法,构建其对应的误差函数eP;对于M个深度信息完整的ORB特征点对,利用重投影方法,结合ICP算法,构建其对应的误差函数eQ;构建融合误差函数eP和误差函数eQ的最小重投影误差模型e,进而得到对应的雅可比矩阵J。
进一步,所述雅可比矩阵J的计算方法包括以下步骤:
步骤Ⅰ、对于N个深度信息缺失的ORB特征点对,记相邻两帧图像上匹配的ORB特征点对对应的空间点齐次坐标分别为Pi=(xi,yi,zi,1)T其相邻帧上的ORB特征点经过世界坐标系和像素坐标系的转换关系得到对应的像素坐标为
利用重投影方法,计算初始帧的ORB特征点Pi=(xi,yi,zi,1)T在相邻帧上投影的像素齐次坐标pi=(ui,vi,1)T,其李代数关系如下,
其中,si表示初始帧的ORB特征点在相邻帧上的投影对应的深度信息,K表示相机的内参矩阵,^表示反对称符号,
结合PnP算法,构建深度信息缺失的ORB特征点对的误差函数;
步骤Ⅱ、对于M个深度信息完整的ORB特征点对,记相邻两帧图像上匹配的ORB特征点对对应的空间点坐标分别为Qi=(Xi,Yi,Zi)T利用重投影方法,计算初始帧的ORB特征点Qi=(Xi,Yi,Zi)T在相邻帧上投影的空间点坐标其李代数关系如下,
其中,^表示反对称符号,
结合ICP算法,构建深度信息完整的ORB特征点对的误差函数;
步骤Ⅲ、构建最小重投影误差模型e,如下所示;
其中,δξ表示扰动量,fx表示相机的焦距在像素坐标系的x轴分量,fy表示相机的焦距在像素坐标系的y轴分量,点Pi′=(x′i,y′i,z′i,1)T表示初始帧中深度信息缺失的ORB特征点Pi=(xi,yi,zi,1)T乘以相机位姿变化的总估计值ξ0后对应的点,点Qi′=(X′i,Yi′,Z′i)T表示初始帧中深度信息完整的ORB特征点Qi=(Xi,Yi,Zi)T乘以相机位姿变化的总估计值ξ0后对应的点。
进一步,所述非线性优化方法设置为高斯牛顿法。
进一步,利用高斯牛顿法,计算优化后的总估计值ξk的方法包括以下步骤:
1)给定总估计值ξ0
2)对于第k次迭代,求出当前的雅克比矩阵J与误差e;
3)求解增量Δξk=g/H,其中,H=JTJ,g=-JTe(ξ);
4)若Δξk小于阈值,则停止,并输出优化后的总估计值ξk;否则,令ξk+1=ξk+Δξk,返回第2)步。
进一步,对于N个深度信息缺失的ORB特征点对,利用RANSAC算法计算估计值ξP;对于M个深度信息完整的ORB特征点对,利用直接线性变换法计算估计值ξQ,再利用如下方程式,计算总估计值ξ0
进一步,所述深度相机拍摄的每相邻两帧图像都有重叠区域,所述ORB特征点从重叠区域提取。
本发明有益的技术效果在于:
通过对深度信息缺失和完整的ORB特征点对分别计算相机位姿变化的估计值,再将两者进行加权融合成总估计值,然后,构建融合了深度信息缺失和完整的ORB特征点对对应的误差信息的最小重投影误差模型,在此基础上得到对应的雅可比矩阵,最后,利用非线性优化方法如高斯牛顿法进行迭代优化,求解优化后的总估计值,从而大大增加了用于计算的匹配成功的特征点对数量,提高了位姿变化的估计值的计算精度,同时大大减少了迭代次数,提高了非线性优化方法的收敛成功率,提高了里程计的鲁棒性;较传统ICP算法具有优化速度较快的优势,整个里程计算法一般为10ms左右,其优化精度不亚于传统花费大量效率进行深度修复后再迭代优化的精度,具有高效的实时性,提高了对移动机构的控制精度,满足其运动控制的实时性要求。另外,本发明简单可靠,操作方便,易于实现,便于推广应用。
附图说明
图1为本发明的流程示意图;
图2为采用不同控制方法对移动机器人的运动轨迹进行估计的对比示意图,其中,x轴表示运动距离,y轴表示误差。
具体实施方式
下面结合附图及较佳实施例详细说明本发明的具体实施方式。
如图1所示,本发明的流程示意图,本发明提供了一种用于深度相机的位姿估计方法,主要是针对相邻的两帧图像,将深度信息缺失的ORB特征点对和深度信息完整的ORB特征点对分开处理,计算对应的相机位姿变化的估计值,进而得到总估计值,再利用融合了两者对应的误差信息的最小重投影误差模型,得到对应的雅可比矩阵J,最后利用非线性优化方法,计算优化后的总估计值ξk,完成相邻两帧图像拍摄过程中的相机位姿变化的估计。具体包括以下步骤:
步骤一、将深度相机设置在移动机构上,对当前场景进行拍摄,获得深度图和RBG彩色图,从拍摄的每相邻两帧图像中提取匹配好的Oriented FAST and Rotated BRIEFORB特征点对。其ORB特征点的提取方法可以参照由Rublee E,Rabaud V,Konolige K,etal.ORB:An efficient alternativeto SIFT or SURF[C]//IEEE InternationalConference on Computer Vision.Piscataway,USA:IEEE,2011:2564-2571.所公开的方法进行。
为了确保计算的精度和速度,当前场景的光线不要太强,相邻的两帧图像必须有重叠区域,不一定是相邻的上一帧和下一帧,只要两帧之间有足够的重叠区域即可,主要取决于***硬件的计算能力。
步骤二、利用N个深度信息缺失的ORB特征点对,计算相机位姿变化的估计值ξP,利用M个深度信息完整的ORB特征点对,计算相机位姿变化的估计值ξQ,如采用直接线性变换法,再利用如下方程式,即可得到总估计值ξ0,从而大大增加了用于计算的匹配成功的特征点对数量,提高了位姿变化的估计值的计算精度。
对于深度信息s缺失的ORB特征点对,如采用RANSAC算法计算估计值ξP,记初始帧的空间点齐次坐标为P=(x,y,z,1)T,设其在相邻帧上投影的归一化像素齐次坐标为p=(u,v,1)T,而此时相机变化的位姿即旋转矩阵和平移矩阵[R||t]未知,可将其定义为3*4增广矩阵T,包含了旋转与平移信息,则其转换关系如下:
其中,s表示ORB特征点的深度信息,用最后一行将其消去,可得到两个约束:
为了简化表示,进行如下定义:
T1=(t1,t2,t3,t4)T,T2=(t5,t6,t7,t8)T,T3=(t9,t10,t11,t12)T
每个ORB特征点提供了两个线性约束,假设有N个ORB特征点对,则可以列出如下的线性方程组:
由于上式共有12维,因此只需要六组ORB特征点对即可实现其线性求解,得到增广矩阵T后,测试其它ORB特征点对,通过设定阈值选取模型内点并剔除误差点,从而提高增广矩阵的计算精度,当内点足够多时则完成ORB特征点对的优化并得到深度信息s缺失的估计值ξP,其中,ξP为李代数表达。
对于深度信息完整的ORB特征点对,参数模型的建立则方便许多,已知初始帧上的ORB特征点的空间点坐标为Q1=(X1,Y1,Z1),与之匹配的相邻帧上的ORB特征点的空间点坐标为Q2=(X2,Y2,Z2),想要找一个欧式变换R,t,使得:
Q1=RQ2+t
类似于深度信息缺失的模型,R,t共有12维,而深度信息完整的ORB特征点对存在三个约束,故只需四对ORB特征点对即可完成线性求解,假设有M组点对,得到深度信息完整的ORB特征点对对应的估计值ξQ
步骤三、构建融合了深度信息缺失的ORB特征点对和深度信息完整的ORB特征点对对应的误差信息的最小重投影误差模型,进而得到对应的雅可比矩阵J,主要是对于N个深度信息缺失的ORB特征点对,利用重投影方法,结合PnP算法,构建其对应的误差函数eP;对于M个深度信息完整的ORB特征点对,利用重投影方法,结合ICP算法,构建其对应的误差函数eQ;然后,构建融合误差函数eP和误差函数eQ的最小重投影误差模型e,进而得到对应的雅可比矩阵J。
具体如下:
步骤Ⅰ、对于N个深度信息缺失的ORB特征点对,记相邻两帧图像上匹配的ORB特征点对对应的空间点齐次坐标分别为Pi=(xi,yi,zi,1)T其相邻帧上的ORB特征点经过世界坐标系和像素坐标系的转换关系得到对应的像素齐次坐标为其转换关系如下:
其中,cx、cy分别表示相机的光心在像素坐标系中的坐标,fx表示相机的焦距在像素坐标系的x轴分量,fy表示相机的焦距在像素坐标系的y轴分量,表示相机的内参矩阵。
利用重投影方法,计算初始帧的ORB特征点Pi=(xi,yi,zi,1)T在相邻帧上投影的像素齐次坐标pi=(ui,vi,1)T,其李代数关系如下,
其中,si表示初始帧的ORB特征点在相邻帧上的投影对应的深度信息,K表示相机的内参矩阵,^表示反对称符号,
结合PnP算法,构建深度信息缺失的ORB特征点对的误差函数eP
步骤Ⅱ、对于M个深度信息完整的ORB特征点对,记相邻两帧图像上匹配的ORB特征点对对应的空间点坐标分别为Qi=(Xi,Yi,Zi)T利用重投影方法,计算初始帧的ORB特征点Qi=(Xi,Yi,Zi)T在相邻帧上投影的空间点坐标其李代数关系如下,
其中,^表示反对称符号,
结合ICP算法,构建深度信息完整的ORB特征点对的误差函数eQ
步骤Ⅲ、构建最小重投影误差模型e,如下所示,该误差模型e融合了深度信息完整的ORB特征点对和深度信息缺失的ORB特征点对对应的误差信息,大大增加了匹配成功的特征点数量,提高了后续位姿优化的精度。
而最小重投影误差模型e的雅克比矩阵J的计算,需要根据深度信息完整的ORB特征点对和深度信息缺失的ORB特征点对对应的误差函数,分别计算对应的雅克比矩阵Jp和JQ
对于深度信息缺失的ORB特征点对,记点Pi′=(x′i,y′i,z′i)T表示初始帧中ORB特征点Pi=(xi,yi,zi)T乘以相机位姿变化的总估计值ξ0后对应的点,P′=(x′,y′,z′)T=(exp(ξ^)P),对ξ^左乘扰动量δξ,然后使用链式法则,Jp列写如下:
其中,表示李代数上的左乘扰动,右边两项的其中第一项是关于投影点的导数,由相机投影模型可得:
将两式相乘即可得到雅克比矩阵JP,如下所示:
雅克比矩阵JQ的推导与之相似,对于深度信息完整的ORB特征点对,点Qi′=(X′i,Yi′,Z′i)T表示初始帧中ORB特征点Qi=(Xi,Yi,Zi)T乘以相机位姿变化的总估计值ξ0后对应的点,使用李代数扰动模型即可得:
综上,可得由N个深度信息缺失的特征点对与M个深度信息完整的特征点对组成的最小重投影误差模型e的雅克比矩阵J,如下所示:
其中,δξ表示扰动量,fx表示相机的焦距在像素坐标系的x轴分量,fy表示相机的焦距在像素坐标系的y轴分量,点Pi′=(x′i,y′i,z′i,1)T表示初始帧中深度信息缺失的ORB特征点Pi=(xi,yi,zi,1)T乘以相机位姿变化的总估计值ξ0后对应的点,点Qi′=(X′i,Yi′,Z′i)T表示初始帧中深度信息完整的ORB特征点Qi=(Xi,Yi,Zi)T乘以相机位姿变化的总估计值ξ0后对应的点。
步骤四、根据总估计值ξ0、最小重投影误差函数和雅可比矩阵J,利用非线性优化方法,计算优化后的总估计值ξk,从而完成相邻两帧图像拍摄过程中的相机位姿变化的估计。该非线性优化方法优选为高斯牛顿法,具体如下:
1)给定总估计值ξ0
2)对于第k次迭代,求出当前的雅克比矩阵J与误差e;
3)求解增量Δξk=g/H,其中,H=JTJ,g=-JTe(ξ);
4)若Δξk小于阈值,则停止,并输出优化后的总估计值ξk;否则,令ξk+1=ξk+Δξk,返回第2)步。其阈值可根据实际情况而定。
为了验证本发明方法的可行性,我们将深度相机设置在Turtlebot移动机器人平台进行拍摄,设定直线运动速度0.3m/s,运动距离为3m,分别进行传统ICP算法、RANSAC+ICP算法和融合算法估计移动机器人的运动轨迹,并使用g2o求解器进行位姿优化求解,该g2o求解器是一个在SLAM领域广为使用的优化库,可以将非线性优化与图论相结合,大大提高***的实时性与精确性。其运动轨迹如图2所示,结果表明,采用本发明的方法的平均误差为1.98%,相比于传统ICP的8.64%与改进后的RANSAC+ICP算法的5.28%有着更小的误差。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这些仅是举例说明,在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,因此,本发明的保护范围由所附权利要求书限定。

Claims (6)

1.一种用于深度相机的位姿估计方法,其特征在于包括以下步骤:
步骤一、将深度相机设置在移动机构上进行拍摄,获得深度图和RBG彩色图,从拍摄的每相邻两帧图像中提取Oriented FAST and Rotated BRIEF ORB特征点对;
步骤二、利用N个深度信息缺失的ORB特征点对,计算相机位姿变化的估计值ξP,利用M个深度信息完整的ORB特征点对,计算相机位姿变化的估计值ξQ,进而得到总估计值ξ0
步骤三、构建融合了深度信息缺失的ORB特征点对和深度信息完整的ORB特征点对对应的误差信息的最小重投影误差模型,进而得到对应的雅可比矩阵J;
步骤四、根据所述总估计值ξ0、最小重投影误差模型和雅可比矩阵J,利用非线性优化方法,计算优化后的总估计值ξk,从而完成相邻两帧图像拍摄过程中的相机位姿变化的估计。
2.根据权利要求1所述的用于深度相机的位姿估计方法,其特征在于:对于N个深度信息缺失的ORB特征点对,利用重投影方法,结合PnP算法,构建其对应的误差函数eP;对于M个深度信息完整的ORB特征点对,利用重投影方法,结合ICP算法,构建其对应的误差函数eQ;然后构建融合误差函数eP和误差函数eQ的最小重投影误差模型e,进而得到对应的雅可比矩阵J。
3.根据权利要求2所述的用于深度相机的位姿估计方法,其特征在于所述雅可比矩阵J的计算方法包括以下步骤:
步骤Ⅰ、对于N个深度信息缺失的ORB特征点对,记相邻两帧图像上匹配的ORB特征点对对应的空间点齐次坐标分别为Pi=(xi,yi,zi,1)T其相邻帧上的ORB特征点经过世界坐标系和像素坐标系的转换关系得到对应的像素坐标为
利用重投影方法,计算初始帧的ORB特征点Pi=(xi,yi,zi,1)T在相邻帧上投影的像素齐次坐标pi=(ui,vi,1)T,其李代数关系如下,
其中,si表示初始帧的ORB特征点在相邻帧上的投影对应的深度信息,K表示相机的内参矩阵,∧表示反对称符号,
结合PnP算法,构建深度信息缺失的ORB特征点对的误差函数eP
步骤Ⅱ、对于M个深度信息完整的ORB特征点对,记相邻两帧图像上匹配的ORB特征点对对应的空间点坐标分别为Qi=(Xi,Yi,Zi)T利用重投影方法,计算初始帧的ORB特征点Qi=(Xi,Yi,Zi)T在相邻帧上投影的空间点坐标其李代数关系如下,
其中,∧表示反对称符号,
结合ICP算法,构建深度信息完整的ORB特征点对的误差函数eQ
步骤Ⅲ、构建最小重投影误差模型e,如下所示;
其中,δξ表示扰动量,fx表示相机的焦距在像素坐标系的x轴分量,fy表示相机的焦距在像素坐标系的y轴分量,点Pi′=(x′i,y′i,z′i,1)T表示初始帧中深度信息缺失的ORB特征点Pi=(xi,yi,zi,1)T乘以相机位姿变化的总估计值ξ0后对应的点,点Qi′=(X′i,Y′i,Z′i)T表示初始帧中深度信息完整的ORB特征点Qi=(Xi,Yi,Zi)T乘以相机位姿变化的总估计值ξ0后对应的点。
4.根据权利要求1所述的用于深度相机的位姿估计方法,其特征在于,利用高斯牛顿法,计算优化后的总估计值ξk的方法包括以下步骤:
1)给定总估计值ξ0
2)对于第k次迭代,求出当前的雅克比矩阵J与误差e;
3)求解增量Δξk=g/H,其中,H=JTJ,g=-JTe(ξ);
4)若Δξk小于阈值,则停止,并输出优化后的总估计值ξk;否则,令ξk+1=ξk+Δξk,返回第2)步。
5.根据权利要求1所述的用于深度相机的位姿估计方法,其特征在于:对于N个深度信息缺失的ORB特征点对,利用RANSAC算法计算估计值ξP;对于M个深度信息完整的ORB特征点对,利用直接线性变换法计算估计值ξQ,再利用如下方程式,计算总估计值ξ0
6.根据权利要求1所述的用于深度相机的位姿估计方法,其特征在于:所述深度相机拍摄的每相邻两帧图像都有重叠区域,所述ORB特征点从重叠区域提取。
CN201910769449.7A 2019-08-20 2019-08-20 一种用于深度相机的位姿估计方法 Active CN110503688B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910769449.7A CN110503688B (zh) 2019-08-20 2019-08-20 一种用于深度相机的位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910769449.7A CN110503688B (zh) 2019-08-20 2019-08-20 一种用于深度相机的位姿估计方法

Publications (2)

Publication Number Publication Date
CN110503688A true CN110503688A (zh) 2019-11-26
CN110503688B CN110503688B (zh) 2022-07-22

Family

ID=68588838

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910769449.7A Active CN110503688B (zh) 2019-08-20 2019-08-20 一种用于深度相机的位姿估计方法

Country Status (1)

Country Link
CN (1) CN110503688B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111145255A (zh) * 2019-12-27 2020-05-12 浙江省北大信息技术高等研究院 一种结合深度学习和几何优化的位姿计算方法和***
CN111260713A (zh) * 2020-02-13 2020-06-09 青岛联合创智科技有限公司 一种基于图像的深度计算方法
CN111360820A (zh) * 2020-02-18 2020-07-03 哈尔滨工业大学 一种距离空间和图像特征空间融合的混合视觉伺服方法
CN111461998A (zh) * 2020-03-11 2020-07-28 中国科学院深圳先进技术研究院 一种环境重建方法及装置
CN111540016A (zh) * 2020-04-27 2020-08-14 深圳南方德尔汽车电子有限公司 基于图像特征匹配的位姿计算方法、装置、计算机设备及存储介质
CN111681279A (zh) * 2020-04-17 2020-09-18 东南大学 基于改进李群非线性优化的行车吊臂空间位姿测量方法
CN112102411A (zh) * 2020-11-02 2020-12-18 中国人民解放军国防科技大学 一种基于语义误差图像的视觉定位方法及装置
CN112419403A (zh) * 2020-11-30 2021-02-26 海南大学 一种基于二维码阵列的室内无人机定位方法
CN112435206A (zh) * 2020-11-24 2021-03-02 北京交通大学 利用深度相机对物体进行三维信息重建的方法
CN113012230A (zh) * 2021-03-30 2021-06-22 华南理工大学 一种术中ar辅助引导手术导板安放的方法
CN113298879A (zh) * 2021-05-26 2021-08-24 北京京东乾石科技有限公司 视觉定位方法、装置及存储介质和电子设备
CN113658264A (zh) * 2021-07-12 2021-11-16 华南理工大学 基于距离信息的单幅图像相机焦距估计方法
CN113688816A (zh) * 2021-07-21 2021-11-23 上海工程技术大学 一种改进orb特征点提取的视觉里程计的计算方法
CN114459507A (zh) * 2022-03-03 2022-05-10 湖南大学无锡智能控制研究院 一种dvl安装误差标定方法、设备及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106875437A (zh) * 2016-12-27 2017-06-20 北京航空航天大学 一种面向rgbd三维重建的关键帧提取方法
CN108303099A (zh) * 2018-06-14 2018-07-20 江苏中科院智能科学技术应用研究院 基于三维视觉slam的无人机室内自主导航方法
JP2019087229A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106875437A (zh) * 2016-12-27 2017-06-20 北京航空航天大学 一种面向rgbd三维重建的关键帧提取方法
JP2019087229A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
CN108303099A (zh) * 2018-06-14 2018-07-20 江苏中科院智能科学技术应用研究院 基于三维视觉slam的无人机室内自主导航方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SITAO YAN ET AL.: "Pose calibration of two cameras with non-overlapped field of view", 《PROCEEDINGS OF SPIE》 *
代维: "室内环境下基于视觉/惯性/里程计的自主定位技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
司增秀: "基于Kinect的室内三维场景构建算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111145255B (zh) * 2019-12-27 2022-08-09 浙江省北大信息技术高等研究院 一种结合深度学习和几何优化的位姿计算方法和***
CN111145255A (zh) * 2019-12-27 2020-05-12 浙江省北大信息技术高等研究院 一种结合深度学习和几何优化的位姿计算方法和***
CN111260713A (zh) * 2020-02-13 2020-06-09 青岛联合创智科技有限公司 一种基于图像的深度计算方法
CN111360820A (zh) * 2020-02-18 2020-07-03 哈尔滨工业大学 一种距离空间和图像特征空间融合的混合视觉伺服方法
CN111461998A (zh) * 2020-03-11 2020-07-28 中国科学院深圳先进技术研究院 一种环境重建方法及装置
CN111681279A (zh) * 2020-04-17 2020-09-18 东南大学 基于改进李群非线性优化的行车吊臂空间位姿测量方法
CN111681279B (zh) * 2020-04-17 2023-10-31 东南大学 基于改进李群非线性优化的行车吊臂空间位姿测量方法
CN111540016B (zh) * 2020-04-27 2023-11-10 深圳南方德尔汽车电子有限公司 基于图像特征匹配的位姿计算方法、装置、计算机设备及存储介质
CN111540016A (zh) * 2020-04-27 2020-08-14 深圳南方德尔汽车电子有限公司 基于图像特征匹配的位姿计算方法、装置、计算机设备及存储介质
CN112102411A (zh) * 2020-11-02 2020-12-18 中国人民解放军国防科技大学 一种基于语义误差图像的视觉定位方法及装置
CN112435206B (zh) * 2020-11-24 2023-11-21 北京交通大学 利用深度相机对物体进行三维信息重建的方法
CN112435206A (zh) * 2020-11-24 2021-03-02 北京交通大学 利用深度相机对物体进行三维信息重建的方法
CN112419403A (zh) * 2020-11-30 2021-02-26 海南大学 一种基于二维码阵列的室内无人机定位方法
CN113012230B (zh) * 2021-03-30 2022-09-23 华南理工大学 一种术中ar辅助引导手术导板安放的方法
CN113012230A (zh) * 2021-03-30 2021-06-22 华南理工大学 一种术中ar辅助引导手术导板安放的方法
CN113298879A (zh) * 2021-05-26 2021-08-24 北京京东乾石科技有限公司 视觉定位方法、装置及存储介质和电子设备
CN113298879B (zh) * 2021-05-26 2024-04-16 北京京东乾石科技有限公司 视觉定位方法、装置及存储介质和电子设备
CN113658264B (zh) * 2021-07-12 2023-08-18 华南理工大学 基于距离信息的单幅图像相机焦距估计方法
CN113658264A (zh) * 2021-07-12 2021-11-16 华南理工大学 基于距离信息的单幅图像相机焦距估计方法
CN113688816A (zh) * 2021-07-21 2021-11-23 上海工程技术大学 一种改进orb特征点提取的视觉里程计的计算方法
CN113688816B (zh) * 2021-07-21 2023-06-23 上海工程技术大学 一种改进orb特征点提取的视觉里程计的计算方法
CN114459507A (zh) * 2022-03-03 2022-05-10 湖南大学无锡智能控制研究院 一种dvl安装误差标定方法、设备及***
CN114459507B (zh) * 2022-03-03 2024-02-09 湖南大学无锡智能控制研究院 一种dvl安装误差标定方法、设备及***

Also Published As

Publication number Publication date
CN110503688B (zh) 2022-07-22

Similar Documents

Publication Publication Date Title
CN110503688A (zh) 一种用于深度相机的位姿估计方法
CN107292965B (zh) 一种基于深度图像数据流的虚实遮挡处理方法
CN110223348B (zh) 基于rgb-d相机的机器人场景自适应位姿估计方法
CN106553195B (zh) 工业机器人抓取过程中的物体6自由度定位方法及***
CN103106688B (zh) 基于双层配准方法的室内三维场景重建方法
Tang et al. ESTHER: Joint camera self-calibration and automatic radial distortion correction from tracking of walking humans
CN106780592A (zh) 基于相机运动和图像明暗的Kinect深度重建算法
CN112053447B (zh) 一种增强现实三维注册方法及装置
CN109523589A (zh) 一种更鲁棒的视觉里程计的设计方法
CN107679537A (zh) 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法
CN109325995B (zh) 基于人手参数模型的低分辨率多视角手部重建方法
CN111062966B (zh) 基于l-m算法和多项式插值对相机跟踪进行优化的方法
CN110163902B (zh) 一种基于因子图的逆深度估计方法
US20220222849A1 (en) Pose Tracking Method, Pose Tracking Device and Electronic Device
CN110310331A (zh) 一种基于直线特征与点云特征结合的位姿估计方法
CN111105460A (zh) 一种室内场景三维重建的rgb-d相机位姿估计方法
CN111882602A (zh) 基于orb特征点和gms匹配过滤器的视觉里程计实现方法
CN114494150A (zh) 一种基于半直接法的单目视觉里程计的设计方法
CN110176041B (zh) 一种基于双目视觉算法的新型列车辅助装配方法
Ito et al. Accurate and robust planar tracking based on a model of image sampling and reconstruction process
CN112365589B (zh) 一种虚拟三维场景展示方法、装置及***
CN104156933A (zh) 一种基于光流场的图像配准方法
CN110009683B (zh) 基于MaskRCNN的实时平面上物体检测方法
Kurz et al. Bundle adjustment for stereoscopic 3d
Zhao et al. 3D object tracking via boundary constrained region-based model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant