CN113506337B - 一种基于EPnP的双目相机位姿估计方法 - Google Patents

一种基于EPnP的双目相机位姿估计方法 Download PDF

Info

Publication number
CN113506337B
CN113506337B CN202110532984.8A CN202110532984A CN113506337B CN 113506337 B CN113506337 B CN 113506337B CN 202110532984 A CN202110532984 A CN 202110532984A CN 113506337 B CN113506337 B CN 113506337B
Authority
CN
China
Prior art keywords
camera
coordinate system
coordinates
points
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110532984.8A
Other languages
English (en)
Other versions
CN113506337A (zh
Inventor
郭健
李胜
惠玉卓
吕思聪
叶雅婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202110532984.8A priority Critical patent/CN113506337B/zh
Publication of CN113506337A publication Critical patent/CN113506337A/zh
Application granted granted Critical
Publication of CN113506337B publication Critical patent/CN113506337B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于EPnP的双目相机位姿估计方法,该方法步骤如下:计算双目相机的3D点在世界坐标系下的三维坐标和测量误差;利用已知的3D点,基于主成分分析原理选择世界坐标系内四个3D控制点;据此求解世界坐标系下每个3D点对应的hb坐标;求解四个3D控制点在相机坐标系下的坐标;根据控制点,将所有的3D点在相机坐标系下的坐标恢复出来;根据世界坐标系下每个3D点坐标和相机坐标系下的3D点坐标,计算相机坐标系相对世界坐标系的旋转分量和平移分量,得到相机位姿。本发明增强了双目相机下位姿估计的鲁棒性,提高了相对位姿估计的准确性,实现了双目相机***下,高效、精准的相机位姿估计。

Description

一种基于EPnP的双目相机位姿估计方法
技术领域
本发明属于机器人视觉技术领域,特别是一种基于EPnP的双目相机位姿估计方法。
背景技术
在一个机器人视觉***中,机器人实现自主导航定位***的关键在于获取相机在位姿参数。该问题可以通过求解n点透视问题(PnP)获得。PnP能在已知多对3D世界坐标与2D像素坐标匹配点的情况下,求解相机坐标系相对世界坐标系的旋转变量R和平移分量t。
长期以来,PnP算法及其改进算法在图像测、计算机视觉、机器人学、AR等领域都获得了研究关注。目前,大多数非迭代的PnP算法会首先求解特征点的深度,以获得特征点在相机坐标系中的3D坐标,如P3P算法,但是此类算法在求解过程中存在无解和无穷多解的情况。
发明内容
本发明的目的在于提供一种鲁棒性好、准确性高的基于EPnP的双目相机位姿估计方法。
实现本发明目的的技术解决方案为:一种基于EPnP的双目相机位姿估计方法,包括以下步骤:
步骤1、计算双目相机的3D点在世界坐标系下的三维坐标和测量误差;
步骤2、利用已知的3D点,基于主成分分析PCA原理选择世界坐标系内四个3D控制点Cwj,j=1,...,4;
步骤3、根据步骤2得到的四个3D控制点,求解世界坐标系下每个3D点Pwi对应的hb坐标;
步骤4、求解四个3D控制点在相机坐标系下的坐标Ccj
步骤5、根据控制点Ccj,将所有的3D点在相机坐标系下的坐标Pci恢复出来;
步骤6、根据Pwi和Pci,计算相机坐标系相对世界坐标系的旋转分量R和平移分量t,得到相机位姿。
进一步地,步骤1中双目相机的3D点是通过上一帧图像Fk-1和当前帧图像Fk的左相机进行特征提取和匹配获得的,k为当前图像编号,且k为大于等于2的自然数;
其中,当前帧图像Fk中左相机中的n个点的相机坐标为pci=[uci vci]T,和上一帧对应的n个3D点在世界坐标系下的三维坐标为Pwi=[Xwi Ywi Zwi]T,i=1...n,其中n为上一帧图像Fk-1和当前帧图像Fk的左相机进行特征提取和匹配获得的3D点的数量。
进一步地,步骤1所述的世界坐标系下的三维坐标和测量误差,假设左右相机坐标系的x轴在同一条直线上,根据相似三角形原理,计算3D点的深度d
其中Δx表示视差,xcl、xcr分别为3D点在左相机和右相机成像平面上的投影位置的横坐标值,b为双目相机基线长度;
当使用视差法计算3D点三维坐标,由像素化误差导致视差产生误差,则带有误差的深度
其中,为带有误差的视差,δΔx为视差误差,δd为深度误差;
继而推得:
其中,δxcl、δxcr分别为左右两相机的数字图像像素化误差;δΔx远小于Δx,则δd和δx同分布,δd的期望和Δx成反比;
在实际情况中,3D点在左相机和右相机成像平面上的投影位置的纵坐标值ycl、ycr不同;因此,能够得到带有误差的3D点相机坐标系坐标
其中,P、分别为3D点相机坐标系在相机坐标系下的坐标真值和测量值,δPc为观测误差,pcl为左相机坐标中3D点P在左相机平面的投影坐标;
因此,双目相机对3D点的观测误差δPc为:
假设|δxcl|≤δx,max,|δycl|≤δy,max,得到
其中δx,max和δy,max是pc在x轴和y轴的最大误差,取δx,max=0.5/fx,δy,max=0.5/fy;δXc、δYc、δZc是3D点对应的Pc在x轴、y轴、z轴的误差;δXc,max、δYc,max、δZc,max是3D点对应的Pc在x轴、y轴、z轴的最大误差;
定义权重向量Kδc=[kδc1 kδc1 kδc1]T=[1/δXc,max 1/δYc,max 1/δZc,max]T,Kδc用来描述对应3D点相机坐标三个维度的可靠度。
进一步地,步骤2中基于主成分分析PCA原理选择控制点的过程如下:
步骤2.1、设置控制点Cw1,第一个控制点Cw1选择在n个3D点的重心位
其中,Kδwi≈RwKδc为Pwi对应的权重向量,Rw为世界坐标系下相机的位姿的旋转分量,Xw1、Yw1、Zw1分别为加权和的X、Y、Z轴分量;
步骤2.2、将Pwi点集进行中心化处理,得到A
步骤2.3、计算其余控制点:计算ATA的3个特征点λ1、λ2、λ3,对应特征向量是v1、v2、v3,则其余的控制点为
其中,Cwj,j=2,...,4为求解得到的其余控制点,n=4。
进一步地,步骤3中求解世界坐标系下每个3D点Pwi对应的hb坐标,对于世界坐标系内四个3D控制点Cwj,j=1...n,使得所有的Pwi都能够用Cwj线性表示,即:
其中称aij为hb坐标,求解每个Pwi对应的hb坐标aij,j=1...4。
进一步地,步骤3中四个3D控制点Cwj,j=1...n,当相机位姿为四个3D控制点Cwj在相机坐标系下的坐标Ccj=RT·(Cwj-t),3D点在相机坐标系下的三维坐标Pci
其中,R、t分别为相机位姿T的旋转分量和水平分量,aij为每个Pwi对应的hb坐标。
进一步地,步骤4中求解控制点在相机坐标系下的坐标Ccj,具体步骤如下:
步骤4.1、因为已知所有3D点匹配的相机平面的pci=[uci vci]T,i=1...n,则列出一组线性方程组
将上式方程组概括为
Mx=0
其中,M为齐次方程组的系数矩阵,M的大小为2n×12;
方程组的解为
其中vi为M的0奇异值对应的右奇异向量,βi为vi对于的系数;x=[Cc1 Cc2 Cc3 Cc4]T,包含4个控制点在相机坐标系中的三维坐标,共12维;N表示前N个零奇异值,在此取1≤N≤3;
步骤4.2、若相机坐标系中的控制点坐标和世界坐标系中的控制点坐标一一对应,则两两的距离一定相等,于是有
||Cwa-Cwb||2=||Cca-Ccb||2
其中,||Cwa-Cwb||表示第a和第b个控制点在世界坐标系下的距离,||Cca-Ccb||表示第a和第b个控制点在空间坐标系下的距离,a,b∈[1∶4]且a≠b;分别取N为1或2或3:
当N=1,x=βv,转化为||βva-βvb||2=||Cca-Ccb||2,则
当N=2,x=β1v12v2,转化为
||β1(v1a-v1b)+β2(v2a-v2b)||2=||Cca-Ccb||2
通过解该方程组来求出β1和β2;其中,设s1=v1a-v1b,s2=v2a-v2b,c=||Cca-Ccb||2
N=3时β1、β2和β3的解法同N=2;
步骤4.3、以步骤4.2求出的N为1、2和3时β的近似解为初值,通过高斯牛顿法,求解β值。
进一步地,步骤5中根据控制点Ccj,将所有的3D点在相机坐标系下的坐标Pci恢复出来,使用步骤3中求解出的hb坐标,计算出Pci
其中,aij为每个Pwi对应的hb坐标,Ccj为四个3D控制点Cwj在相机坐标系下的坐标。
进一步地,步骤6中根据Pwi和Pci,计算R和t,具体步骤如下:
步骤6.1、对所有Pwi和Pci进行去中心化得到Qw、Qc
其中
步骤6.2、对做奇异值分解,得到
WTW=U∑VT
R=UVT
其中,U的列向量是矩阵WTW的特征向量,V的列向量是矩阵WWT的特征向量;
步骤6.3、重复步骤6.1、6.2,分别对N为1、2和3三种情况计算R和t;用重投影误差来评估R和t,取误差最小的R和t作为最终的结果。
本发明与现有技术相比,其显著优点为:
(1)针对双目相机在测量过程中误差的不确定性,提出了针对双目相机测量模型的改进EPnP算法,能够在已知前后两帧双目图像、上一帧通过双目相机三角测量获得的3D点坐标以及该3D点在当前帧图像上的投影坐标,计算出当前帧相对上一帧的相对位姿,提高了EPnP算法在双目相机***的鲁棒性;
(2)在EPnP算法的基础上,引入了误差模型,将世界坐标系中的3D坐标表示为一组虚拟的控制点的加权和,由于四个控制点不能共面,故而可以求解出唯一的相机坐标系下的坐标,提高了位姿估计结果的准确性;
(3)能够快速计算出前后两帧图像之间相机的位姿变换,实现了双目相机***下,高效、精准的相机位姿估计,为机器人自主定位导航技术提供了有力保障;
附图说明
图1为本发明基于EPnP的双目相机位姿估计方法的流程图。
图2为本发明中的双目视差模型示意图。
具体实施方式
如图1、2所示,一种基于EPnP的双目相机位姿估计方法,包括如下步骤:
步骤1、计算双目相机的3D点在世界坐标系下的三维坐标和测量误差;
所述双目相机的3D点是通过上一帧图像Fk-1和当前帧图像Fk的左相机进行特征提取和匹配获得的,k为当前图像编号,且k为大于等于2的自然数;其中,当前帧图像Fk中左相机中的n个点的相机坐标为pci=[uci vci]T,和上一帧对应的n个3D点在世界坐标系下的三维坐标为Pwi=[Xwi Ywi Zwi]T,i=1...n,其中n为上一帧图像Fk-1和当前帧图像Fk的左相机进行特征提取和匹配获得的3D点的数量。
所述的世界坐标系下的三维坐标和测量误差,假设左右相机坐标系的x轴在同一条直线上,根据相似三角形原理,计算3D点的深度
其中Δx表示视差,xcl、xcr分别为3D点在左相机和右相机成像平面上的投影位置的横坐标值,b为双目相机基线长度;
当使用视差法计算3D点三维坐标,由像素化误差导致视差产生误差,则带有误差的深度
其中,为带有误差的视差,δΔx为视差误差,δd为深度误差;
继而推得:
其中,δxcl、δxcr分别为左右两相机的数字图像像素化误差;δΔx远小于Δx,则δd和δx同分布,δd的期望和Δx成反比;
在实际情况中,3D点在左相机和右相机成像平面上的投影位置的纵坐标值ycl、ycr不同;因此,能够得到带有误差的3D点相机坐标系坐标
其中,P、分别为3D点相机坐标系在相机坐标系下的坐标真值和测量值,δPc为观测误差,pcl为左相机坐标中3D点P在左相机平面的投影坐标;
因此,双目相机对3D点的观测误差δPc为:
假设|δxcl|≤δx,max,|δycl|≤δy,max,得到
其中δx,max和δy,max是pc在x轴和y轴的最大误差,取δx,max=0.5/fx,δy,max=0.5/fy;δXc、δYc、δZc是3D点对应的Pc在x轴、y轴、z轴的误差;δXc,max、δYc,max、δZc,max是3D点对应的Pc在x轴、y轴、z轴的最大误差;
通过分析δPc可知每个3D点坐标的误差不同,这样不利于求解相机位姿。为解决这一问题,结合以上分析,定义权重向量Kδc=[kδc1 kδc1 kδc1]T=[1/δXc,max 1/δYc,max1/δZc,max]T,Kδc用来描述对应3D点相机坐标三个维度的可靠度。
步骤2、利用已知的3D点,基于主成分分析PCA原理选择世界坐标系内四个3D控制点Cwj,j=1,...,4,具体如下:
步骤2.1、设置控制点Cw1,第一个控制点Cw1选择在n个3D点的重心位
其中,Kδwi≈RwKδc为Pwi对应的权重向量,Rw为世界坐标系下相机的位姿的旋转分量,Xw1、Yw1、Zw1分别为加权和的X、Y、Z轴分量;
步骤2.2、将Pwi点集进行中心化处理,得到A
步骤2.3、计算其余控制点:计算ATA的3个特征点λ1、λ2、λ3,对应特征向量是v1、v2、v3,则其余的控制点为
其中,Cwj,j=2,...,4为求解得到的其余控制点,n=4。
步骤3、根据步骤2得到的四个3D控制点,求解世界坐标系下每个3D点Pwi对应的hb坐标。
步骤3中求解世界坐标系下每个3D点Pwi对应的hb坐标,对于世界坐标系内四个3D控制点Cwj,j=1...n,使得所有的Pwi都能够用Cwj线性表示,即:
其中称aij为hb坐标(homogeneous barycentric coordinates),代入上式,获得每个Pwi对应的aij,j=1...4;
优选地,四个3D控制点Cwj,j=1...n,当相机位姿为四个3D控制点Cwj在相机坐标系下的坐标Ccj=RT·(Cwj-t),3D点在相机坐标系下的三维坐标Pci
其中,R、t分别为相机位姿T的旋转分量和水平分量,aij为每个Pwi对应的hb坐标。
步骤4、求解四个3D控制点在相机坐标系下的坐标Ccj,具体步骤如下:
步骤4.1、因为已知所有3D点匹配的相机平面的pci=[uci vci]T,i=1...n,则列出一组线性方程组
将上式方程组概括为
Mx=0
其中,M为齐次方程组的系数矩阵,M的大小为2n×12;
方程组的解为
其中vi为M的0奇异值对应的右奇异向量,βi为vi对于的系数;x=[Cc1 Cc2 Cc3 Cc4]T,包含4个控制点在相机坐标系中的三维坐标,共12维;N表示前N个零奇异值,在此取1≤N≤3;
步骤4.2、若相机坐标系中的控制点坐标和世界坐标系中的控制点坐标一一对应,则两两的距离一定相等,于是有
||Cwa-Cwb||2=||Cca-Ccb||2
其中,||Cwa-Cwb||表示第a和第b个控制点在世界坐标系下的距离,||Cca-Ccb||表示第a和第b个控制点在空间坐标系下的距离,a,b∈[1∶4]且a≠b;分别取N为1或2或3:
当N=1,x=βv,转化为||βva-βvb||2=||Cca-Ccb||2,则
当N=2,x=β1v12v2,转化为
||β1(v1a-v1b)+β2(v2a-v2b)||2=||Cca-Ccb||2
通过解该方程组来求出β1和β2;其中,设s1=v1a-v1b,s2=v2a-v2b,c=||Cca-Ccb||2
N=3时β1、β2和β3的解法同N=2;
步骤4.3、以步骤4.2求出的N为1、2和3时β的近似解为初值,通过高斯牛顿法,求解β值。
步骤5、根据控制点Ccj,将所有的3D点在相机坐标系下的坐标Pci恢复出来。
假设当相机位姿为在相机坐标系内有Ccj=RT·(Cwj-t),3D点在相机坐标系下的三维坐标为
因此世界坐标系下的hb坐标与其他相机坐标系下的hb坐标相同。使用步骤3中求解出的hb坐标,计算出Pci
其中,aij为每个Pwi对应的hb坐标,Ccj为四个3D控制点Cwj在相机坐标系下的坐标。
步骤6、根据Pwi和Pci,计算相机坐标系相对世界坐标系的旋转分量R和平移分量t,得到相机位姿,具体步骤如下:
步骤6.1、对所有Pwi和Pci进行去中心化得到Qw、Qc
其中
步骤6.2、对做奇异值分解,得到
WTW=U∑VT
R=UVT
其中,U的列向量是矩阵WTW的特征向量,V的列向量是矩阵WWT的特征向量;
步骤6.3、重复步骤6.1、6.2,分别对N为1、2和3三种情况计算R和t。用重投影误差来评估R和t,取误差最小的R和t作为改进EPnP的结果。
综上所述,本发明针对双目相机在测量过程中误差的不确定性,提出了针对双目相机测量模型的改进EPnP算法,提高了EPnP算法在双目相机***的鲁棒性;在EPnP算法的基础上,引入了误差模型,提高了位姿估计的准确性;能够快速计算出前后两帧图像之间相机的位姿变换,为机器人自主定位导航技术提供有力保障。

Claims (7)

1.一种基于EPnP的双目相机位姿估计方法,其特征在于,包括以下步骤:
步骤1、计算双目相机的3D点在世界坐标系下的三维坐标和测量误差;
步骤2、利用已知的3D点,基于主成分分析PCA原理选择世界坐标系内四个3D控制点Cwj,j=1,...,4;
步骤3、根据步骤2得到的四个3D控制点,求解世界坐标系下每个3D点Pwi对应的hb坐标;
步骤4、求解四个3D控制点在相机坐标系下的坐标Ccj
步骤5、根据控制点Ccj,将所有的3D点在相机坐标系下的坐标Pci恢复出来;
步骤6、根据Pwi和Pci,计算相机坐标系相对世界坐标系的旋转分量R和平移分量t,得到相机位姿;
步骤1中双目相机的3D点是通过上一帧图像Fk-1和当前帧图像Fk的左相机进行特征提取和匹配获得的,k为当前图像编号,且k为大于等于2的自然数;
其中,当前帧图像Fk中左相机中的n个点的相机坐标为pci=[uci vci]T,和上一帧对应的n个3D点在世界坐标系下的三维坐标为Pwi=[Xwi Ywi Zwi]T,i=1…n,其中n为上一帧图像Fk-1和当前帧图像Fk的左相机进行特征提取和匹配获得的3D点的数量;
步骤1所述的世界坐标系下的三维坐标和测量误差,假设左右相机坐标系的x轴在同一条直线上,根据相似三角形原理,计算3D点的深度d
其中Δx表示视差,xcl、xcr分别为3D点在左相机和右相机成像平面上的投影位置的横坐标值,b为双目相机基线长度;
当使用视差法计算3D点三维坐标,由像素化误差导致视差产生误差,则带有误差的深度
其中,为带有误差的视差,δΔx为视差误差,δd为深度误差;
继而推得:
其中,δxcl、δxcr分别为左右两相机的数字图像像素化误差;δΔx远小于Δx,则δd和δx同分布,δd的期望和Δx成反比;
在实际情况中,3D点在左相机和右相机成像平面上的投影位置的纵坐标值ycl、ycr不同;因此,能够得到带有误差的3D点相机坐标系坐标
其中,P、分别为3D点相机坐标系在相机坐标系下的坐标真值和测量值,δPc为观测误差,pcl为左相机坐标中3D点P在左相机平面的投影坐标;
因此,双目相机对3D点的观测误差δPc为:
假设|δxcl|≤δx,max,|δycl|≤δy,max,得到
其中δx,max和δy,max是Pc在x轴和y轴的最大误差,取δx,max=0.5/fx,δy,max=0.5/fy;δXc、δYc、δZc是3D点对应的Pc在x轴、y轴、z轴的误差;δXc,max、δYc,max、δZc,max是3D点对应的Pc在x轴、y轴、z轴的最大误差;
定义权重向量Kδc=[kδc1 kδc1 kδc1]T=[1/δXc,max 1/δYc,max 1/δZc,max]T,Kδc用来描述对应3D点相机坐标三个维度的可靠度。
2.根据权利要求1所述的基于EPnP的双目相机位姿估计方法,其特征在于,步骤2中基于主成分分析PCA原理选择控制点的过程如下:
步骤2.1、设置控制点Cw1,第一个控制点Cw1选择在n个3D点的重心位
其中,Kδwi≈RwKδc为Pwi对应的权重向量,Rw为世界坐标系下相机的位姿的旋转分量,Xw1、Yw1、Zw1分别为加权和的X、Y、Z轴分量;
步骤2.2、将Pwi点集进行中心化处理,得到A
步骤2.3、计算其余控制点:计算ATA的3个特征点λ1、λ2、λ3,对应特征向量是v1、v2、v3,则其余的控制点为
其中,Cwj,j=2,...,4为求解得到的其余控制点,n=4。
3.根据权利要求2所述的基于EPnP的双目相机位姿估计方法,其特征在于,步骤3中求解世界坐标系下每个3D点Pwi对应的hb坐标,对于世界坐标系内四个3D控制点Cwj,j=1…n,使得所有的Pwi都能够用Cwj线性表示,即:
其中称aij为hb坐标,求解每个Pwi对应的hb坐标aij,j=1…4。
4.根据权利要求3所述的基于EPnP的双目相机位姿估计方法,其特征在于,步骤3中四个3D控制点Cwj,j=1…n,当相机位姿为四个3D控制点Cwj在相机坐标系下的坐标Ccj=RT·(Cwj-t),3D点在相机坐标系下的三维坐标Pci
其中,R、t分别为相机位姿T的旋转分量和水平分量,aij为每个Pwi对应的hb坐标。
5.根据权利要求4所述的基于EPnP的双目相机位姿估计方法,其特征在于,步骤4中求解控制点在相机坐标系下的坐标Ccj,具体步骤如下:
步骤4.1、因为已知所有3D点匹配的相机平面的pci=[uci vci]T,i=1…n,则列出一组线性方程组
将上式方程组概括为
Mx=0
其中,M为齐次方程组的系数矩阵,M的大小为2n×12;
方程组的解为
其中vi为M的0奇异值对应的右奇异向量,βi为vi对于的系数;x=[Cc1 Cc2 Cc3 Cc4]T,包含4个控制点在相机坐标系中的三维坐标,共12维;N表示前N个零奇异值,在此取1≤N≤3;
步骤4.2、若相机坐标系中的控制点坐标和世界坐标系中的控制点坐标一一对应,则两两的距离一定相等,于是有
‖Cwa-Cwb2=‖Cca-Ccb2
其中,‖Cwa-Cwb‖表示第a和第b个控制点在世界坐标系下的距离,‖Cca-Ccb‖表示第a和第b个控制点在空间坐标系下的距离,a,b∈[1:4]且a≠b;分别取N为1或2或3:
当N=1,x=βv,转化为‖βva-βvb2=‖Cca-Ccb2,则
当N=2,x=β1v12v2,转化为
‖β1(v1a-v1b)+β2(v2a-v2b)‖2=‖Cca-Ccb2
通过解该方程组来求出β1和β2;其中,设s1=v1a-v1b,s2=v2a-v2b,c=‖Cca-Ccb2
N=3时β1、β2和β3的解法同N=2;
步骤4.3、以步骤4.2求出的N为1、2和3时β的近似解为初值,通过高斯牛顿法,求解β值。
6.根据权利要求5所述的基于EPnP的双目相机位姿估计方法,其特征在于,步骤5中根据控制点Ccj,将所有的3D点在相机坐标系下的坐标Pci恢复出来,使用步骤3中求解出的hb坐标,计算出Pci
其中,aij为每个Pwi对应的hb坐标,Ccj为四个3D控制点Cwj在相机坐标系下的坐标。
7.根据权利要求6所述的基于EPnP的双目相机位姿估计方法,其特征在于,步骤6中根据Pwi和Pci,计算R和t,具体步骤如下:
步骤6.1、对所有Pwi和Pci进行去中心化得到Qw、Qc
其中
步骤6.2、对做奇异值分解,得到
WTW=U∑VT
R=UVT
其中,U的列向量是矩阵WTW的特征向量,V的列向量是矩阵WWT的特征向量;
步骤6.3、重复步骤6.1、6.2,分别对N为1、2和3三种情况计算R和t;用重投影误差来评估R和t,取误差最小的R和t作为最终的结果。
CN202110532984.8A 2021-05-17 2021-05-17 一种基于EPnP的双目相机位姿估计方法 Active CN113506337B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110532984.8A CN113506337B (zh) 2021-05-17 2021-05-17 一种基于EPnP的双目相机位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110532984.8A CN113506337B (zh) 2021-05-17 2021-05-17 一种基于EPnP的双目相机位姿估计方法

Publications (2)

Publication Number Publication Date
CN113506337A CN113506337A (zh) 2021-10-15
CN113506337B true CN113506337B (zh) 2024-04-16

Family

ID=78008495

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110532984.8A Active CN113506337B (zh) 2021-05-17 2021-05-17 一种基于EPnP的双目相机位姿估计方法

Country Status (1)

Country Link
CN (1) CN113506337B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2840550A1 (en) * 2013-08-19 2015-02-25 Delphi Technologies, Inc. Camera pose estimation
WO2017022033A1 (ja) * 2015-07-31 2017-02-09 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
CN106873619A (zh) * 2017-01-23 2017-06-20 上海交通大学 一种无人机飞行路径的处理方法
CN107747941A (zh) * 2017-09-29 2018-03-02 歌尔股份有限公司 一种双目视觉定位方法、装置及***
CN109191504A (zh) * 2018-08-01 2019-01-11 南京航空航天大学 一种无人机目标跟踪方法
CN112734765A (zh) * 2020-12-03 2021-04-30 华南理工大学 基于实例分割与多传感器融合的移动机器人定位方法、***及介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6507730B2 (ja) * 2015-03-10 2019-05-08 富士通株式会社 座標変換パラメータ決定装置、座標変換パラメータ決定方法及び座標変換パラメータ決定用コンピュータプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2840550A1 (en) * 2013-08-19 2015-02-25 Delphi Technologies, Inc. Camera pose estimation
WO2017022033A1 (ja) * 2015-07-31 2017-02-09 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
CN106873619A (zh) * 2017-01-23 2017-06-20 上海交通大学 一种无人机飞行路径的处理方法
CN107747941A (zh) * 2017-09-29 2018-03-02 歌尔股份有限公司 一种双目视觉定位方法、装置及***
CN109191504A (zh) * 2018-08-01 2019-01-11 南京航空航天大学 一种无人机目标跟踪方法
CN112734765A (zh) * 2020-12-03 2021-04-30 华南理工大学 基于实例分割与多传感器融合的移动机器人定位方法、***及介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于虚拟特征点的视觉里程计运动物体干扰消除方法;闫铭;王欢;崔琼杰;;计算机与数字工程;20200820(08);全文 *
无人飞行器双目视觉位姿估计算法改进与验证;张梁;徐锦法;夏青元;于永军;;上海交通大学学报;20150928(09);全文 *

Also Published As

Publication number Publication date
CN113506337A (zh) 2021-10-15

Similar Documents

Publication Publication Date Title
Azarbayejani et al. Recursive estimation of structure and motion using relative orientation constraints
CN101998136B (zh) 单应矩阵的获取方法、摄像设备的标定方法及装置
Chatterjee et al. Algorithms for coplanar camera calibration
CN111754579B (zh) 多目相机外参确定方法及装置
CN107871327A (zh) 基于特征点线的单目相机位姿估计和优化方法及***
CN111415375B (zh) 一种基于多鱼眼摄像机和双针孔投影模型的slam方法
Habib et al. Quaternion-based solutions for the single photo resection problem
Olson et al. Wide-baseline stereo vision for Mars rovers
CN113506337B (zh) 一种基于EPnP的双目相机位姿估计方法
Rousso et al. Robust recovery of camera rotation from three frames
Collins et al. Planar structure-from-motion with affine camera models: Closed-form solutions, ambiguities and degeneracy analysis
Makovetskii et al. An algorithm for rough alignment of point clouds in three-dimensional space
CN107806861B (zh) 一种基于本质矩阵分解的倾斜影像相对定向方法
CN113048985B (zh) 已知相对旋转角度条件下的像机相对运动估计方法
CN111242995A (zh) 一种快速鲁棒的摄像机绝对姿态估计方法
Feng et al. Research on Calibration Method of Multi-camera System without Overlapping Fields of View Based on SLAM
Ornhag et al. Efficient real-time radial distortion correction for uavs
CN109341530B (zh) 一种双目立体视觉中物点定位方法及***
Sainz et al. Recovering 3D metric structure and motion from multiple uncalibrated cameras
Liu et al. A Robot 3D Grasping Application Based on Binocular Vision System
Faugeras From geometry to variational calculus: Theory and applications of three-dimensional vision
Kim et al. An improved ICP algorithm based on the sensor projection for automatic 3D registration
Ueshiba et al. Calibration of multi-camera systems using planar patterns
Bakstein et al. Camera calibration with a simulated three dimensional calibration object
Hayashi et al. Direct-motion stereo

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Guo Jian

Inventor after: Li Sheng

Inventor after: Hui Yuzhuo

Inventor after: Lv Sicong

Inventor after: Ye Yating

Inventor before: Guo Jian

Inventor before: Lv Sicong

Inventor before: Ye Yating

Inventor before: Li Sheng

Inventor before: Hui Yuzhuo

GR01 Patent grant
GR01 Patent grant