CN113506337B - 一种基于EPnP的双目相机位姿估计方法 - Google Patents
一种基于EPnP的双目相机位姿估计方法 Download PDFInfo
- Publication number
- CN113506337B CN113506337B CN202110532984.8A CN202110532984A CN113506337B CN 113506337 B CN113506337 B CN 113506337B CN 202110532984 A CN202110532984 A CN 202110532984A CN 113506337 B CN113506337 B CN 113506337B
- Authority
- CN
- China
- Prior art keywords
- camera
- coordinate system
- coordinates
- points
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000005259 measurement Methods 0.000 claims abstract description 12
- 238000000513 principal component analysis Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于EPnP的双目相机位姿估计方法,该方法步骤如下:计算双目相机的3D点在世界坐标系下的三维坐标和测量误差;利用已知的3D点,基于主成分分析原理选择世界坐标系内四个3D控制点;据此求解世界坐标系下每个3D点对应的hb坐标;求解四个3D控制点在相机坐标系下的坐标;根据控制点,将所有的3D点在相机坐标系下的坐标恢复出来;根据世界坐标系下每个3D点坐标和相机坐标系下的3D点坐标,计算相机坐标系相对世界坐标系的旋转分量和平移分量,得到相机位姿。本发明增强了双目相机下位姿估计的鲁棒性,提高了相对位姿估计的准确性,实现了双目相机***下,高效、精准的相机位姿估计。
Description
技术领域
本发明属于机器人视觉技术领域,特别是一种基于EPnP的双目相机位姿估计方法。
背景技术
在一个机器人视觉***中,机器人实现自主导航定位***的关键在于获取相机在位姿参数。该问题可以通过求解n点透视问题(PnP)获得。PnP能在已知多对3D世界坐标与2D像素坐标匹配点的情况下,求解相机坐标系相对世界坐标系的旋转变量R和平移分量t。
长期以来,PnP算法及其改进算法在图像测、计算机视觉、机器人学、AR等领域都获得了研究关注。目前,大多数非迭代的PnP算法会首先求解特征点的深度,以获得特征点在相机坐标系中的3D坐标,如P3P算法,但是此类算法在求解过程中存在无解和无穷多解的情况。
发明内容
本发明的目的在于提供一种鲁棒性好、准确性高的基于EPnP的双目相机位姿估计方法。
实现本发明目的的技术解决方案为:一种基于EPnP的双目相机位姿估计方法,包括以下步骤:
步骤1、计算双目相机的3D点在世界坐标系下的三维坐标和测量误差;
步骤2、利用已知的3D点,基于主成分分析PCA原理选择世界坐标系内四个3D控制点Cwj,j=1,...,4;
步骤3、根据步骤2得到的四个3D控制点,求解世界坐标系下每个3D点Pwi对应的hb坐标;
步骤4、求解四个3D控制点在相机坐标系下的坐标Ccj;
步骤5、根据控制点Ccj,将所有的3D点在相机坐标系下的坐标Pci恢复出来;
步骤6、根据Pwi和Pci,计算相机坐标系相对世界坐标系的旋转分量R和平移分量t,得到相机位姿。
进一步地,步骤1中双目相机的3D点是通过上一帧图像Fk-1和当前帧图像Fk的左相机进行特征提取和匹配获得的,k为当前图像编号,且k为大于等于2的自然数;
其中,当前帧图像Fk中左相机中的n个点的相机坐标为pci=[uci vci]T,和上一帧对应的n个3D点在世界坐标系下的三维坐标为Pwi=[Xwi Ywi Zwi]T,i=1...n,其中n为上一帧图像Fk-1和当前帧图像Fk的左相机进行特征提取和匹配获得的3D点的数量。
进一步地,步骤1所述的世界坐标系下的三维坐标和测量误差,假设左右相机坐标系的x轴在同一条直线上,根据相似三角形原理,计算3D点的深度d
其中Δx表示视差,xcl、xcr分别为3D点在左相机和右相机成像平面上的投影位置的横坐标值,b为双目相机基线长度;
当使用视差法计算3D点三维坐标,由像素化误差导致视差产生误差,则带有误差的深度为
其中,为带有误差的视差,δΔx为视差误差,δd为深度误差;
继而推得:
其中,δxcl、δxcr分别为左右两相机的数字图像像素化误差;δΔx远小于Δx,则δd和δx同分布,δd的期望和Δx成反比;
在实际情况中,3D点在左相机和右相机成像平面上的投影位置的纵坐标值ycl、ycr不同;因此,能够得到带有误差的3D点相机坐标系坐标
其中,P、分别为3D点相机坐标系在相机坐标系下的坐标真值和测量值,δPc为观测误差,pcl为左相机坐标中3D点P在左相机平面的投影坐标;
因此,双目相机对3D点的观测误差δPc为:
假设|δxcl|≤δx,max,|δycl|≤δy,max,得到
其中δx,max和δy,max是pc在x轴和y轴的最大误差,取δx,max=0.5/fx,δy,max=0.5/fy;δXc、δYc、δZc是3D点对应的Pc在x轴、y轴、z轴的误差;δXc,max、δYc,max、δZc,max是3D点对应的Pc在x轴、y轴、z轴的最大误差;
定义权重向量Kδc=[kδc1 kδc1 kδc1]T=[1/δXc,max 1/δYc,max 1/δZc,max]T,Kδc用来描述对应3D点相机坐标三个维度的可靠度。
进一步地,步骤2中基于主成分分析PCA原理选择控制点的过程如下:
步骤2.1、设置控制点Cw1,第一个控制点Cw1选择在n个3D点的重心位
其中,Kδwi≈RwKδc为Pwi对应的权重向量,Rw为世界坐标系下相机的位姿的旋转分量,Xw1、Yw1、Zw1分别为加权和的X、Y、Z轴分量;
步骤2.2、将Pwi点集进行中心化处理,得到A
步骤2.3、计算其余控制点:计算ATA的3个特征点λ1、λ2、λ3,对应特征向量是v1、v2、v3,则其余的控制点为
其中,Cwj,j=2,...,4为求解得到的其余控制点,n=4。
进一步地,步骤3中求解世界坐标系下每个3D点Pwi对应的hb坐标,对于世界坐标系内四个3D控制点Cwj,j=1...n,使得所有的Pwi都能够用Cwj线性表示,即:
其中称aij为hb坐标,求解每个Pwi对应的hb坐标aij,j=1...4。
进一步地,步骤3中四个3D控制点Cwj,j=1...n,当相机位姿为四个3D控制点Cwj在相机坐标系下的坐标Ccj=RT·(Cwj-t),3D点在相机坐标系下的三维坐标Pci为
其中,R、t分别为相机位姿T的旋转分量和水平分量,aij为每个Pwi对应的hb坐标。
进一步地,步骤4中求解控制点在相机坐标系下的坐标Ccj,具体步骤如下:
步骤4.1、因为已知所有3D点匹配的相机平面的pci=[uci vci]T,i=1...n,则列出一组线性方程组
将上式方程组概括为
Mx=0
其中,M为齐次方程组的系数矩阵,M的大小为2n×12;
方程组的解为
其中vi为M的0奇异值对应的右奇异向量,βi为vi对于的系数;x=[Cc1 Cc2 Cc3 Cc4]T,包含4个控制点在相机坐标系中的三维坐标,共12维;N表示前N个零奇异值,在此取1≤N≤3;
步骤4.2、若相机坐标系中的控制点坐标和世界坐标系中的控制点坐标一一对应,则两两的距离一定相等,于是有
||Cwa-Cwb||2=||Cca-Ccb||2
其中,||Cwa-Cwb||表示第a和第b个控制点在世界坐标系下的距离,||Cca-Ccb||表示第a和第b个控制点在空间坐标系下的距离,a,b∈[1∶4]且a≠b;分别取N为1或2或3:
当N=1,x=βv,转化为||βva-βvb||2=||Cca-Ccb||2,则
当N=2,x=β1v1+β2v2,转化为
||β1(v1a-v1b)+β2(v2a-v2b)||2=||Cca-Ccb||2
通过解该方程组来求出β1和β2;其中,设s1=v1a-v1b,s2=v2a-v2b,c=||Cca-Ccb||2;
N=3时β1、β2和β3的解法同N=2;
步骤4.3、以步骤4.2求出的N为1、2和3时β的近似解为初值,通过高斯牛顿法,求解β值。
进一步地,步骤5中根据控制点Ccj,将所有的3D点在相机坐标系下的坐标Pci恢复出来,使用步骤3中求解出的hb坐标,计算出Pci:
其中,aij为每个Pwi对应的hb坐标,Ccj为四个3D控制点Cwj在相机坐标系下的坐标。
进一步地,步骤6中根据Pwi和Pci,计算R和t,具体步骤如下:
步骤6.1、对所有Pwi和Pci进行去中心化得到Qw、Qc:
其中
步骤6.2、对做奇异值分解,得到
WTW=U∑VT
R=UVT
其中,U的列向量是矩阵WTW的特征向量,V的列向量是矩阵WWT的特征向量;
步骤6.3、重复步骤6.1、6.2,分别对N为1、2和3三种情况计算R和t;用重投影误差来评估R和t,取误差最小的R和t作为最终的结果。
本发明与现有技术相比,其显著优点为:
(1)针对双目相机在测量过程中误差的不确定性,提出了针对双目相机测量模型的改进EPnP算法,能够在已知前后两帧双目图像、上一帧通过双目相机三角测量获得的3D点坐标以及该3D点在当前帧图像上的投影坐标,计算出当前帧相对上一帧的相对位姿,提高了EPnP算法在双目相机***的鲁棒性;
(2)在EPnP算法的基础上,引入了误差模型,将世界坐标系中的3D坐标表示为一组虚拟的控制点的加权和,由于四个控制点不能共面,故而可以求解出唯一的相机坐标系下的坐标,提高了位姿估计结果的准确性;
(3)能够快速计算出前后两帧图像之间相机的位姿变换,实现了双目相机***下,高效、精准的相机位姿估计,为机器人自主定位导航技术提供了有力保障;
附图说明
图1为本发明基于EPnP的双目相机位姿估计方法的流程图。
图2为本发明中的双目视差模型示意图。
具体实施方式
如图1、2所示,一种基于EPnP的双目相机位姿估计方法,包括如下步骤:
步骤1、计算双目相机的3D点在世界坐标系下的三维坐标和测量误差;
所述双目相机的3D点是通过上一帧图像Fk-1和当前帧图像Fk的左相机进行特征提取和匹配获得的,k为当前图像编号,且k为大于等于2的自然数;其中,当前帧图像Fk中左相机中的n个点的相机坐标为pci=[uci vci]T,和上一帧对应的n个3D点在世界坐标系下的三维坐标为Pwi=[Xwi Ywi Zwi]T,i=1...n,其中n为上一帧图像Fk-1和当前帧图像Fk的左相机进行特征提取和匹配获得的3D点的数量。
所述的世界坐标系下的三维坐标和测量误差,假设左右相机坐标系的x轴在同一条直线上,根据相似三角形原理,计算3D点的深度
其中Δx表示视差,xcl、xcr分别为3D点在左相机和右相机成像平面上的投影位置的横坐标值,b为双目相机基线长度;
当使用视差法计算3D点三维坐标,由像素化误差导致视差产生误差,则带有误差的深度为
其中,为带有误差的视差,δΔx为视差误差,δd为深度误差;
继而推得:
其中,δxcl、δxcr分别为左右两相机的数字图像像素化误差;δΔx远小于Δx,则δd和δx同分布,δd的期望和Δx成反比;
在实际情况中,3D点在左相机和右相机成像平面上的投影位置的纵坐标值ycl、ycr不同;因此,能够得到带有误差的3D点相机坐标系坐标
其中,P、分别为3D点相机坐标系在相机坐标系下的坐标真值和测量值,δPc为观测误差,pcl为左相机坐标中3D点P在左相机平面的投影坐标;
因此,双目相机对3D点的观测误差δPc为:
假设|δxcl|≤δx,max,|δycl|≤δy,max,得到
其中δx,max和δy,max是pc在x轴和y轴的最大误差,取δx,max=0.5/fx,δy,max=0.5/fy;δXc、δYc、δZc是3D点对应的Pc在x轴、y轴、z轴的误差;δXc,max、δYc,max、δZc,max是3D点对应的Pc在x轴、y轴、z轴的最大误差;
通过分析δPc可知每个3D点坐标的误差不同,这样不利于求解相机位姿。为解决这一问题,结合以上分析,定义权重向量Kδc=[kδc1 kδc1 kδc1]T=[1/δXc,max 1/δYc,max1/δZc,max]T,Kδc用来描述对应3D点相机坐标三个维度的可靠度。
步骤2、利用已知的3D点,基于主成分分析PCA原理选择世界坐标系内四个3D控制点Cwj,j=1,...,4,具体如下:
步骤2.1、设置控制点Cw1,第一个控制点Cw1选择在n个3D点的重心位
其中,Kδwi≈RwKδc为Pwi对应的权重向量,Rw为世界坐标系下相机的位姿的旋转分量,Xw1、Yw1、Zw1分别为加权和的X、Y、Z轴分量;
步骤2.2、将Pwi点集进行中心化处理,得到A
步骤2.3、计算其余控制点:计算ATA的3个特征点λ1、λ2、λ3,对应特征向量是v1、v2、v3,则其余的控制点为
其中,Cwj,j=2,...,4为求解得到的其余控制点,n=4。
步骤3、根据步骤2得到的四个3D控制点,求解世界坐标系下每个3D点Pwi对应的hb坐标。
步骤3中求解世界坐标系下每个3D点Pwi对应的hb坐标,对于世界坐标系内四个3D控制点Cwj,j=1...n,使得所有的Pwi都能够用Cwj线性表示,即:
其中称aij为hb坐标(homogeneous barycentric coordinates),代入上式,获得每个Pwi对应的aij,j=1...4;
优选地,四个3D控制点Cwj,j=1...n,当相机位姿为四个3D控制点Cwj在相机坐标系下的坐标Ccj=RT·(Cwj-t),3D点在相机坐标系下的三维坐标Pci为
其中,R、t分别为相机位姿T的旋转分量和水平分量,aij为每个Pwi对应的hb坐标。
步骤4、求解四个3D控制点在相机坐标系下的坐标Ccj,具体步骤如下:
步骤4.1、因为已知所有3D点匹配的相机平面的pci=[uci vci]T,i=1...n,则列出一组线性方程组
将上式方程组概括为
Mx=0
其中,M为齐次方程组的系数矩阵,M的大小为2n×12;
方程组的解为
其中vi为M的0奇异值对应的右奇异向量,βi为vi对于的系数;x=[Cc1 Cc2 Cc3 Cc4]T,包含4个控制点在相机坐标系中的三维坐标,共12维;N表示前N个零奇异值,在此取1≤N≤3;
步骤4.2、若相机坐标系中的控制点坐标和世界坐标系中的控制点坐标一一对应,则两两的距离一定相等,于是有
||Cwa-Cwb||2=||Cca-Ccb||2
其中,||Cwa-Cwb||表示第a和第b个控制点在世界坐标系下的距离,||Cca-Ccb||表示第a和第b个控制点在空间坐标系下的距离,a,b∈[1∶4]且a≠b;分别取N为1或2或3:
当N=1,x=βv,转化为||βva-βvb||2=||Cca-Ccb||2,则
当N=2,x=β1v1+β2v2,转化为
||β1(v1a-v1b)+β2(v2a-v2b)||2=||Cca-Ccb||2
通过解该方程组来求出β1和β2;其中,设s1=v1a-v1b,s2=v2a-v2b,c=||Cca-Ccb||2;
N=3时β1、β2和β3的解法同N=2;
步骤4.3、以步骤4.2求出的N为1、2和3时β的近似解为初值,通过高斯牛顿法,求解β值。
步骤5、根据控制点Ccj,将所有的3D点在相机坐标系下的坐标Pci恢复出来。
假设当相机位姿为在相机坐标系内有Ccj=RT·(Cwj-t),3D点在相机坐标系下的三维坐标为
因此世界坐标系下的hb坐标与其他相机坐标系下的hb坐标相同。使用步骤3中求解出的hb坐标,计算出Pci:
其中,aij为每个Pwi对应的hb坐标,Ccj为四个3D控制点Cwj在相机坐标系下的坐标。
步骤6、根据Pwi和Pci,计算相机坐标系相对世界坐标系的旋转分量R和平移分量t,得到相机位姿,具体步骤如下:
步骤6.1、对所有Pwi和Pci进行去中心化得到Qw、Qc:
其中
步骤6.2、对做奇异值分解,得到
WTW=U∑VT
R=UVT
其中,U的列向量是矩阵WTW的特征向量,V的列向量是矩阵WWT的特征向量;
步骤6.3、重复步骤6.1、6.2,分别对N为1、2和3三种情况计算R和t。用重投影误差来评估R和t,取误差最小的R和t作为改进EPnP的结果。
综上所述,本发明针对双目相机在测量过程中误差的不确定性,提出了针对双目相机测量模型的改进EPnP算法,提高了EPnP算法在双目相机***的鲁棒性;在EPnP算法的基础上,引入了误差模型,提高了位姿估计的准确性;能够快速计算出前后两帧图像之间相机的位姿变换,为机器人自主定位导航技术提供有力保障。
Claims (7)
1.一种基于EPnP的双目相机位姿估计方法,其特征在于,包括以下步骤:
步骤1、计算双目相机的3D点在世界坐标系下的三维坐标和测量误差;
步骤2、利用已知的3D点,基于主成分分析PCA原理选择世界坐标系内四个3D控制点Cwj,j=1,...,4;
步骤3、根据步骤2得到的四个3D控制点,求解世界坐标系下每个3D点Pwi对应的hb坐标;
步骤4、求解四个3D控制点在相机坐标系下的坐标Ccj;
步骤5、根据控制点Ccj,将所有的3D点在相机坐标系下的坐标Pci恢复出来;
步骤6、根据Pwi和Pci,计算相机坐标系相对世界坐标系的旋转分量R和平移分量t,得到相机位姿;
步骤1中双目相机的3D点是通过上一帧图像Fk-1和当前帧图像Fk的左相机进行特征提取和匹配获得的,k为当前图像编号,且k为大于等于2的自然数;
其中,当前帧图像Fk中左相机中的n个点的相机坐标为pci=[uci vci]T,和上一帧对应的n个3D点在世界坐标系下的三维坐标为Pwi=[Xwi Ywi Zwi]T,i=1…n,其中n为上一帧图像Fk-1和当前帧图像Fk的左相机进行特征提取和匹配获得的3D点的数量;
步骤1所述的世界坐标系下的三维坐标和测量误差,假设左右相机坐标系的x轴在同一条直线上,根据相似三角形原理,计算3D点的深度d
其中Δx表示视差,xcl、xcr分别为3D点在左相机和右相机成像平面上的投影位置的横坐标值,b为双目相机基线长度;
当使用视差法计算3D点三维坐标,由像素化误差导致视差产生误差,则带有误差的深度为
其中,为带有误差的视差,δΔx为视差误差,δd为深度误差;
继而推得:
其中,δxcl、δxcr分别为左右两相机的数字图像像素化误差;δΔx远小于Δx,则δd和δx同分布,δd的期望和Δx成反比;
在实际情况中,3D点在左相机和右相机成像平面上的投影位置的纵坐标值ycl、ycr不同;因此,能够得到带有误差的3D点相机坐标系坐标
其中,P、分别为3D点相机坐标系在相机坐标系下的坐标真值和测量值,δPc为观测误差,pcl为左相机坐标中3D点P在左相机平面的投影坐标;
因此,双目相机对3D点的观测误差δPc为:
假设|δxcl|≤δx,max,|δycl|≤δy,max,得到
其中δx,max和δy,max是Pc在x轴和y轴的最大误差,取δx,max=0.5/fx,δy,max=0.5/fy;δXc、δYc、δZc是3D点对应的Pc在x轴、y轴、z轴的误差;δXc,max、δYc,max、δZc,max是3D点对应的Pc在x轴、y轴、z轴的最大误差;
定义权重向量Kδc=[kδc1 kδc1 kδc1]T=[1/δXc,max 1/δYc,max 1/δZc,max]T,Kδc用来描述对应3D点相机坐标三个维度的可靠度。
2.根据权利要求1所述的基于EPnP的双目相机位姿估计方法,其特征在于,步骤2中基于主成分分析PCA原理选择控制点的过程如下:
步骤2.1、设置控制点Cw1,第一个控制点Cw1选择在n个3D点的重心位
其中,Kδwi≈RwKδc为Pwi对应的权重向量,Rw为世界坐标系下相机的位姿的旋转分量,Xw1、Yw1、Zw1分别为加权和的X、Y、Z轴分量;
步骤2.2、将Pwi点集进行中心化处理,得到A
步骤2.3、计算其余控制点:计算ATA的3个特征点λ1、λ2、λ3,对应特征向量是v1、v2、v3,则其余的控制点为
其中,Cwj,j=2,...,4为求解得到的其余控制点,n=4。
3.根据权利要求2所述的基于EPnP的双目相机位姿估计方法,其特征在于,步骤3中求解世界坐标系下每个3D点Pwi对应的hb坐标,对于世界坐标系内四个3D控制点Cwj,j=1…n,使得所有的Pwi都能够用Cwj线性表示,即:
其中称aij为hb坐标,求解每个Pwi对应的hb坐标aij,j=1…4。
4.根据权利要求3所述的基于EPnP的双目相机位姿估计方法,其特征在于,步骤3中四个3D控制点Cwj,j=1…n,当相机位姿为四个3D控制点Cwj在相机坐标系下的坐标Ccj=RT·(Cwj-t),3D点在相机坐标系下的三维坐标Pci为
其中,R、t分别为相机位姿T的旋转分量和水平分量,aij为每个Pwi对应的hb坐标。
5.根据权利要求4所述的基于EPnP的双目相机位姿估计方法,其特征在于,步骤4中求解控制点在相机坐标系下的坐标Ccj,具体步骤如下:
步骤4.1、因为已知所有3D点匹配的相机平面的pci=[uci vci]T,i=1…n,则列出一组线性方程组
将上式方程组概括为
Mx=0
其中,M为齐次方程组的系数矩阵,M的大小为2n×12;
方程组的解为
其中vi为M的0奇异值对应的右奇异向量,βi为vi对于的系数;x=[Cc1 Cc2 Cc3 Cc4]T,包含4个控制点在相机坐标系中的三维坐标,共12维;N表示前N个零奇异值,在此取1≤N≤3;
步骤4.2、若相机坐标系中的控制点坐标和世界坐标系中的控制点坐标一一对应,则两两的距离一定相等,于是有
‖Cwa-Cwb‖2=‖Cca-Ccb‖2
其中,‖Cwa-Cwb‖表示第a和第b个控制点在世界坐标系下的距离,‖Cca-Ccb‖表示第a和第b个控制点在空间坐标系下的距离,a,b∈[1:4]且a≠b;分别取N为1或2或3:
当N=1,x=βv,转化为‖βva-βvb‖2=‖Cca-Ccb‖2,则
当N=2,x=β1v1+β2v2,转化为
‖β1(v1a-v1b)+β2(v2a-v2b)‖2=‖Cca-Ccb‖2
通过解该方程组来求出β1和β2;其中,设s1=v1a-v1b,s2=v2a-v2b,c=‖Cca-Ccb‖2;
N=3时β1、β2和β3的解法同N=2;
步骤4.3、以步骤4.2求出的N为1、2和3时β的近似解为初值,通过高斯牛顿法,求解β值。
6.根据权利要求5所述的基于EPnP的双目相机位姿估计方法,其特征在于,步骤5中根据控制点Ccj,将所有的3D点在相机坐标系下的坐标Pci恢复出来,使用步骤3中求解出的hb坐标,计算出Pci:
其中,aij为每个Pwi对应的hb坐标,Ccj为四个3D控制点Cwj在相机坐标系下的坐标。
7.根据权利要求6所述的基于EPnP的双目相机位姿估计方法,其特征在于,步骤6中根据Pwi和Pci,计算R和t,具体步骤如下:
步骤6.1、对所有Pwi和Pci进行去中心化得到Qw、Qc:
其中
步骤6.2、对做奇异值分解,得到
WTW=U∑VT
R=UVT
其中,U的列向量是矩阵WTW的特征向量,V的列向量是矩阵WWT的特征向量;
步骤6.3、重复步骤6.1、6.2,分别对N为1、2和3三种情况计算R和t;用重投影误差来评估R和t,取误差最小的R和t作为最终的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110532984.8A CN113506337B (zh) | 2021-05-17 | 2021-05-17 | 一种基于EPnP的双目相机位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110532984.8A CN113506337B (zh) | 2021-05-17 | 2021-05-17 | 一种基于EPnP的双目相机位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113506337A CN113506337A (zh) | 2021-10-15 |
CN113506337B true CN113506337B (zh) | 2024-04-16 |
Family
ID=78008495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110532984.8A Active CN113506337B (zh) | 2021-05-17 | 2021-05-17 | 一种基于EPnP的双目相机位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113506337B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2840550A1 (en) * | 2013-08-19 | 2015-02-25 | Delphi Technologies, Inc. | Camera pose estimation |
WO2017022033A1 (ja) * | 2015-07-31 | 2017-02-09 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
CN106873619A (zh) * | 2017-01-23 | 2017-06-20 | 上海交通大学 | 一种无人机飞行路径的处理方法 |
CN107747941A (zh) * | 2017-09-29 | 2018-03-02 | 歌尔股份有限公司 | 一种双目视觉定位方法、装置及*** |
CN109191504A (zh) * | 2018-08-01 | 2019-01-11 | 南京航空航天大学 | 一种无人机目标跟踪方法 |
CN112734765A (zh) * | 2020-12-03 | 2021-04-30 | 华南理工大学 | 基于实例分割与多传感器融合的移动机器人定位方法、***及介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6507730B2 (ja) * | 2015-03-10 | 2019-05-08 | 富士通株式会社 | 座標変換パラメータ決定装置、座標変換パラメータ決定方法及び座標変換パラメータ決定用コンピュータプログラム |
-
2021
- 2021-05-17 CN CN202110532984.8A patent/CN113506337B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2840550A1 (en) * | 2013-08-19 | 2015-02-25 | Delphi Technologies, Inc. | Camera pose estimation |
WO2017022033A1 (ja) * | 2015-07-31 | 2017-02-09 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
CN106873619A (zh) * | 2017-01-23 | 2017-06-20 | 上海交通大学 | 一种无人机飞行路径的处理方法 |
CN107747941A (zh) * | 2017-09-29 | 2018-03-02 | 歌尔股份有限公司 | 一种双目视觉定位方法、装置及*** |
CN109191504A (zh) * | 2018-08-01 | 2019-01-11 | 南京航空航天大学 | 一种无人机目标跟踪方法 |
CN112734765A (zh) * | 2020-12-03 | 2021-04-30 | 华南理工大学 | 基于实例分割与多传感器融合的移动机器人定位方法、***及介质 |
Non-Patent Citations (2)
Title |
---|
基于虚拟特征点的视觉里程计运动物体干扰消除方法;闫铭;王欢;崔琼杰;;计算机与数字工程;20200820(08);全文 * |
无人飞行器双目视觉位姿估计算法改进与验证;张梁;徐锦法;夏青元;于永军;;上海交通大学学报;20150928(09);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113506337A (zh) | 2021-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Azarbayejani et al. | Recursive estimation of structure and motion using relative orientation constraints | |
CN101998136B (zh) | 单应矩阵的获取方法、摄像设备的标定方法及装置 | |
Chatterjee et al. | Algorithms for coplanar camera calibration | |
CN111754579B (zh) | 多目相机外参确定方法及装置 | |
CN107871327A (zh) | 基于特征点线的单目相机位姿估计和优化方法及*** | |
CN111415375B (zh) | 一种基于多鱼眼摄像机和双针孔投影模型的slam方法 | |
Habib et al. | Quaternion-based solutions for the single photo resection problem | |
Olson et al. | Wide-baseline stereo vision for Mars rovers | |
CN113506337B (zh) | 一种基于EPnP的双目相机位姿估计方法 | |
Rousso et al. | Robust recovery of camera rotation from three frames | |
Collins et al. | Planar structure-from-motion with affine camera models: Closed-form solutions, ambiguities and degeneracy analysis | |
Makovetskii et al. | An algorithm for rough alignment of point clouds in three-dimensional space | |
CN107806861B (zh) | 一种基于本质矩阵分解的倾斜影像相对定向方法 | |
CN113048985B (zh) | 已知相对旋转角度条件下的像机相对运动估计方法 | |
CN111242995A (zh) | 一种快速鲁棒的摄像机绝对姿态估计方法 | |
Feng et al. | Research on Calibration Method of Multi-camera System without Overlapping Fields of View Based on SLAM | |
Ornhag et al. | Efficient real-time radial distortion correction for uavs | |
CN109341530B (zh) | 一种双目立体视觉中物点定位方法及*** | |
Sainz et al. | Recovering 3D metric structure and motion from multiple uncalibrated cameras | |
Liu et al. | A Robot 3D Grasping Application Based on Binocular Vision System | |
Faugeras | From geometry to variational calculus: Theory and applications of three-dimensional vision | |
Kim et al. | An improved ICP algorithm based on the sensor projection for automatic 3D registration | |
Ueshiba et al. | Calibration of multi-camera systems using planar patterns | |
Bakstein et al. | Camera calibration with a simulated three dimensional calibration object | |
Hayashi et al. | Direct-motion stereo |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Guo Jian Inventor after: Li Sheng Inventor after: Hui Yuzhuo Inventor after: Lv Sicong Inventor after: Ye Yating Inventor before: Guo Jian Inventor before: Lv Sicong Inventor before: Ye Yating Inventor before: Li Sheng Inventor before: Hui Yuzhuo |
|
GR01 | Patent grant | ||
GR01 | Patent grant |