CN104729481B - 一种基于pnp透视模型的合作目标位姿精度测量方法 - Google Patents
一种基于pnp透视模型的合作目标位姿精度测量方法 Download PDFInfo
- Publication number
- CN104729481B CN104729481B CN201510107422.3A CN201510107422A CN104729481B CN 104729481 B CN104729481 B CN 104729481B CN 201510107422 A CN201510107422 A CN 201510107422A CN 104729481 B CN104729481 B CN 104729481B
- Authority
- CN
- China
- Prior art keywords
- centerdot
- rsqb
- lsqb
- beta
- gamma
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
Abstract
本发明公开了一种基于PNP透视模型的合作目标位姿精度测量方法,包括如下步骤:在合作目标外表面安装N个视觉标记点,采用相机对视觉标记进行标记图像的拍摄;对合作目标与相机之间的位置姿态的初始值进行预先设定;其中第i个视觉标记点的三维空间坐标和有效焦距的水平、垂直分量,主点坐标的水平、垂直分量为未确定性***误差,误差极限已知;第i个视觉标记点对应标记图像中视觉标记点中心二维坐标为随机误差,对应的误差极限已知;量化解析各项参数对位姿误差的影响权重系数;计算合作目标与相机之间的位置姿态的未确定性***误差分量和随机误差分量并加权获得目标位姿测量误差,完成对目标位姿测量精度的预估。
Description
技术领域
本发明属于光电测量领域,涉及一种基于PNP透视模型的合作目标位姿精度测量方法,尤其适用于空间合作目标三维位置姿态测量精度的量化估计方法。
背景技术
空间合作目标通常是安装有人工视觉标记等特征标识的观测目标,其中,人工视觉标记主要是指已知外形、尺寸、颜色、数量以及空间布局的视觉标记点集合。利用单目视觉相机包含人工视觉标记的目标图像信息,根据各标记点在目标坐标系下的三维空间坐标值及其在像平面中的特征点中心二维坐标值之间的一一对应关系约束,计算出的旋转矩阵和平移矢量,即可准确反映合作目标相对于相机之间的空间位置与姿态,上述测量过程应归结为PNP透视模型问题(Perspective-N-Point Problem)。因此,视觉标记不仅是单目视觉相机的观测对象,还是空间合作目标位姿测量的基准与解算依据。
在PNP透视模型中,N表示标记点的数目,该问题的求解条件要求标记点个数N不小于3。当N>5时,可以利用直接线性变换法(Direct Linear Transformation)求解最小二乘解作为初值,再代入非线性优化算法,解算出位姿参数的最优解;当N≤5时,PNP问题转化为求解多元高次非线性方程组,且解不唯一。
基于PNP透视模型的目标位姿测量精度的影响因素主要包括相机内参标定误差、标记点三维空间坐标值获取误差以及图像标记点中心二维坐标定位误差等参数。目前,围绕上述模型的目标位姿测量精度的合理量化预估的研究,主要集中于定性、定量分析单一误差因素对位姿测量精度的影响。例如:Larry Davis在《Predicting Accuracy in PoseEstimation for Marker-based Tracking》文献中,利用公式推导与仿真试验相结合,归纳出观测目标自身的设计尺寸越小,其三维空间坐标值获取误差越大,则位姿测量误差将越大。程凌、周前祥在《基于视觉方法的交会对接相对位姿测量》文献中,通过建立高精度的测量控制场以提高标记点三维空间坐标的精度定位,以进一步改善目标位姿的测量精度。朱枫等在《合作目标姿态对视觉位姿测量精度的影响分析》文献中,针对P3P透视模型问题,量化分析目标的初始位姿对位姿测量精度的影响,仿真实验结果表明,当3个标记点构成的三角形所在平面与相机像平面垂直时位姿精度最高,而当这两个平面平行时位姿精度最差的结论。周静等在《摄像机标定参数误差对位姿测量精度的影响》文献中,从标定方法选择的角度,量化分析相机标定参数误差对P3P位姿精度的影响关系,公式推导与试验结果表明,测量距离方向位置精度主要取决于焦比误差和光轴方向平移量误差的影响,二者分别在远距离段和近距离段起主要作用;姿态角精度则主要受限于主点坐标误差和外姿态角误差。郝颖明在《基于点特征的位姿测量精度与鲁棒性研究》文献中,基于简化条件下的理论分析与一般条件下的误差统计分析,针对P3P透视模型,量化分析了6个位姿分量误差(即三个旋转角度和三个平移分量)与相机标定误差、目标模型误差、图像坐标检测误差之间的关系表达式,并通过直接仿真试验得出以下结论:(1)图像坐标检测误差和相机标定误差对位姿误差的影响远大于目标模型误差对位姿结果的影响,故后者可以忽略不计;(2)当其他因素均固定不变时,测量距离与位姿误差呈正比例关系;(3)在远距离处,图像坐标检测误差对位姿误差的影响占主导地位;(4)在近距离处,相机内参标定误差对位姿测量误差的影响占主导地位。
现有研究成果往往都是针对P3P透视模型开展位姿精度量化分析,仅专注于单一误差因素对位姿测量精度的影响权重。对于N>3的PNP透视模型的目标位姿测量精度量化估计等方面的研究也相对较少,尚未检索到相关文献。
此外,上述文献均未涉及如何将相机内参标定误差、标记点三维空间坐标值获取误差以及图像标记点中心二维坐标定位误差等多种误差因素有效融合在一起,并建立其与位姿精度的函数映射关系,因此,根本无法全面量化预估目标位姿精度的整体水平。
发明内容
有鉴于此,本发明提供了一种基于PNP透视模型的合作目标位姿精度测量方法,方法不受标记点个数N的约束限制,量化解析相机内参标定误差、视觉标记点三维空间坐标值获取误差、视觉标记点中心二维坐标定位误差等一种或多种因素对位姿误差的影响关系,实现测量***设计初期对目标位姿测量精度水平的准确预估与客观评价。
为了达到上述目的,本发明的技术方案为:该方法包括如下步骤:
步骤(1)、在合作目标外表面安装N个视觉标记点,采用相机对视觉标记进行标记图像的拍摄。
步骤(2)、建立相机坐标系Oc-XcYcZc:相机的光心为原点Oc,光轴为Zc轴,相机所拍摄图像平面的水平和垂直方向分别为Xc轴和Yc轴;建立关于合作目标的目标坐标系OW-XWYWZW:合作目标的质心为原点OW,XW、YW、ZW与相机坐标系中的X、Y、Z轴相平行,且正方向均保持一致;其中第i个视觉标记点的三维空间坐标为(Xwi,Ywi,Zwi)及其对应标记图像中视觉标记点中心二维坐标为(ui,vi);
对于合作目标与相机之间的位置姿态的初始值进行预先设定。
相机内参标定结果为:有效焦距的水平、垂直分量分别为fx,fy,主点坐标的水平、垂直分量分别为u0,v0。
步骤(3)、将步骤(1)中的参数fx,fy,u0,v0以及Xwi,Ywi,Zwi确定为未确定性***误差,fx,fy,u0,v0,Xwi,Ywi,Zwi各自对应的误差极限已知,且分别为e(fx),e(fy),e(u0),e(v0),e(Xwi),e(Ywi),e(Zwi)。
将ui,vi确定为随机误差,对应的误差极限已知,且分别为δ(ui),δ(vi)。
步骤(4)、量化解析各项参数对位姿误差的影响权重系数。
对于第i个视觉标记点,其位姿测量计算公式包括F2i-1和F2i,二者分别为:
令:
其中X′为6行×2N列的矩阵,自第10列开始重复前9列内容;Y′为2N行×2N列的矩阵,且自第10列开始重复前9列内容。
求解方程M·X′=-Y′中的X′,存在以下两种情况:
①当2×N=6时,利用最小二乘法求解,得到最优解为:
X′=(-1)·M-1·Y′
②当2×N>6时,利用最小二乘法求解,得到最优解为:
X′=(-1)·(MT·M)-1·(MT·Y′)。
步骤(5)、在随机误差ui,vi的影响下,合作目标与相机之间的位置姿态[tx,ty,tz,α,β,γ]T的随机误差分量分别为δ(tx),δ(ty),δ(tz),δ(α),δ(β),δ(γ);根据如下公式进行计算:
在未确定性***误差fx,fy,u0,v0,Xwi,Ywi,Zwi影响下,合作目标与相机之间的位置姿态[tx,ty,tz,α,β,γ]T的未确定性***误差分量分别为e(tx),e(ty),e(tz),e(α),e(β),e(γ);根据如下公式进行计算:
步骤(6)采用目标位姿随机误差分量与目标位姿未确定性***误差分量依据如下公式相加获得目标位姿测量误差,完成对目标位姿测量精度的预估:
其中n任意取值。
有益效果:
本发明与现有技术相比的优点在于:
(1)本发明提供的合作目标位姿测量精度预估方法不受PNP透视模型中的视觉标记点个数N的限制约束,可适用于N不小于3的任意正整数;
(2)本发明提供的合作目标位姿测量精度预估方法能够明确划分相机内参标定误差、标记点三维空间坐标值获取误差以及图像标记点中心二维坐标定位误差等因素的误差属性特征,针对不同属性的随机误差分量和未确定性***误差分量分别进行误差合成计算;
(3)本发明提供的目标位姿精度预估方法不仅能够独立分析单一误差因素对位姿测量的影响,还能够有效融合相机内参标定误差、标记点三维空间坐标值获取误差以及图像标记点中心二维坐标定位误差等多种因素对目标位姿精度的合成影响;
(4)本发明提供的目标位姿精度预估方法能够实现在测量***方案设计初期对目标位姿测量精度水平的准确预估与客观评价。
附图说明
图1为基于PNP透视模型的合作目标三维位姿单目视觉测量原理示意图;
图2为基于PNP透视模型的合作目标位姿精度预估流程图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
实施例1、本发明的基于PNP透视模型的合作目标三维位姿单目视觉测量原理如图1所示,假设合作目标表面粘贴N个标记点,其中第i个标记点在目标坐标系下的三维空间坐标值及其在图像坐标系中的特征点中心二维坐标可分别表示为(Xwi,Ywi,Zwi)和(ui,vi);利用单目视觉相机实施测量目标的位置姿态,相机内参主要包括水平、垂直有效焦距fx,fy、主点坐标u0,v0;上述合作目标相对于相机之间的空间位姿参量可定义为[tx,ty,tz,α,β,γ]T。对于第i个标记点而言,根据PNP透视模型,可得到下列方程组形式:
公式(1)进一步整理可得以下方程形式:
如图2所示,基于PNP透视模型的合作目标位姿测量精度预估流程具体如下:
(1)预先设定合作目标与相机之间的初始位置姿态[tx,ty,tz,α,β,γ]T,已知标记点个数,且各视觉标记点三维空间坐标为(Xwi,Ywi,Zwi)及其对应图像特征点中心二维坐标为(ui,vi);获取相机内参标定结果,分别确定有效焦距与主点坐标为fx,fy,u0,v0。
(2)合理划分上述影响位姿精度的各项参数的误差属性特征,并分别给出各项参数的误差极限阈值。其中,水平、垂直有效焦距与主点坐标等相机内参标定误差和视觉标记点三维空间坐标获取误差均属于未确定性***误差,上述参数误差极限应分别表示为e(fx),e(fy),e(u0),e(v0),e(Xwi),e(Ywi),e(Zwi);而标记图像特征点中心二维坐标的定位误差则属于随机误差,其极限阈值应表示为δ(ui),δ(vi);上述各项参数误差均彼此独立、互不相关,倘若对上述某一项参数求一阶偏导数,则其余各参数对该参数的一阶偏导均等于零。最终,计算出的位姿分量误差可定义为(Δtx)toatl,(Δty)total,(Δtz)total,(Δα)total,(Δβ)total,(Δγ)total,既包括随机误差分量定义为δ(tx),δ(ty),δ(tz),δ(α),δ(β),δ(γ),又包含未确定性***误差分量依次定义为e(tx),e(ty),e(tz),e(α),e(β),e(γ)。
(3)量化解析各项参数对位姿误差的影响权重系数
现以相机水平有效焦距fx为例予以解释,其他参数对位姿误差的影响权重系数的求解均与之相类似。
对公式(2)中的F2i-1和F2i分别进行关于fx的一阶Taylor展开,整理可得出以下形式,
将N个标记点分别代入公式(3)并整理成矩阵形式可得,
公式(4)可以简化为下列矩阵方程形式:
M·X=-Y (5)
其中,列向量X的维数为(6×1),即为代求未知参数向量;等号右侧的列向量Y的维数是(2N×1),其中的元素可表示为以下形式:
公式(5)中,等号左侧的系数矩阵M的维数是(2N×6),其中各项元素分量的计算公式具体如下:
为了提高计算效率,现将公式(5)中的列向量X扩展成维数为(6×2N)的矩阵形式X’,将Y扩展为维数为(2N×2N)的矩阵形式Y’即令:
,其中X′为6行×2N列的矩阵,自第10列开始重复前9列内容;Y′为2N行×2N列的矩阵,且自第10列开始重复前9列内容;
此时,公式(5)随即可扩展成下列形式:
公式(8)可进一步简化为矩阵方程形式:
M·X′=-Y′ (9)
公式(8)和公式(9)中的系数矩阵M始终保持一致,其各项元素分量的计算公式参见公式(7);公式(9)中的代求未知矩阵X’中的每一列即可表示各项参数对位姿误差的影响权重系数,而等号右侧的系数矩阵Y’的维数是(6×2N),其中的各项元素计算公式具体如下:
对于公式(9)的求解,主要存在以下两种情况:
①当2×N=6时,利用最小二乘法求解,可得最优解为:
X′=(-1)·M-1·Y′ (11)
②当2×N>6时,利用最小二乘法求解,可得最优解为:
X′=(-1)·(MT·M)-1·(MT·Y′) (12)
(4)根据步骤(2)中,标记图像特征点中心二维坐标的定位误差属于随机误差,由其所引起的目标位姿随机误差分量合成计算公式如下:
(5)根据步骤(2)中,相机内参标定误差与标记点三维空间坐标获取误差均属于未确定性***误差,由上述误差分量引起的目标位姿未确定性***误差分量合成计算公式如下:
(6)对于步骤(4)中的对于随机误差利用n次重复性测量具有抵偿性,n任意取值。而步骤(5)中的***误差则固定不变,这两类误差合成即可推导出基于PNP透视模型的目标位姿测量精度预估总误差的计算公式可写为以下形式:
综上,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (1)
1.一种基于PNP透视模型的合作目标位姿精度测量方法,其特征在于,
步骤(1)、在所述合作目标外表面安装N个视觉标记点,采用相机对视觉标记进行标记图像的拍摄;
步骤(2)、建立相机坐标系Oc-XcYcZc:相机的光心为原点Oc,光轴为Zc轴,相机所拍摄图像平面的水平和垂直方向分别为Xc轴和Yc轴;建立关于合作目标的目标坐标系OW-XWYWZW:合作目标的质心为原点OW,XW、YW、ZW与相机坐标系中的Xc、Yc、Zc轴相平行,且正方向均保持一致;其中第i个视觉标记点的三维空间坐标为(Xwi,Ywi,Zwi)及其对应标记图像中视觉标记点中心二维坐标为(ui,vi);
合作目标与相机之间的位置姿态为[tx,ty,tz,α,β,γ]T,则tx,ty,tz分别为目标坐标系相对于相机坐标系中沿XW、YW、ZW轴的平移分量,α,β,γ分别为合作目标围绕目标坐标系中XW、YW、ZW轴的旋转角度;
对于合作目标与相机之间的位置姿态的初始值进行预先设定;
相机内参标定结果为:有效焦距的水平、垂直分量分别为fx,fy,主点坐标的水平、垂直分量分别为u0,v0;
步骤(3)、将步骤(1)中的参数fx,fy,u0,v0以及Xwi,Ywi,Zwi确定为未确定性***误差,fx,fy,u0,v0,Xwi,Ywi,Zwi各自对应的误差极限已知,且分别为e(fx),e(fy),e(u0),e(v0),e(Xwi),e(Ywi),e(Zwi);
将ui,vi确定为随机误差,对应的误差极限已知,且分别为δ(ui),δ(vi);
步骤(4)、量化解析各项参数对位姿误差的影响权重系数
对于第i个视觉标记点,其位姿测量计算公式包括F2i-1和F2i,二者分别为:
令:
其中X′为6行×2N列的矩阵,自第10列开始重复前9列内容;Y′为2N行×2N列的矩阵,且自第10列开始重复前9列内容;
步骤(5)、在所述随机误差ui,vi的影响下,合作目标与相机之间的位置姿态[tx,ty,tz,α,β,γ]T的随机误差分量分别为δ(tx),δ(ty),δ(tz),δ(α),δ(β),δ(γ);根据如下公式进行计算:
在所述未确定性***误差fx,fy,u0,v0,Xwi,Ywi,Zwi影响下,合作目标与相机之间的位置姿态[tx,ty,tz,α,β,γ]T的未确定性***误差分量分别为e(tx),e(ty),e(tz),e(α),e(β),e(γ);根据如下公式进行计算:
步骤(6)采用目标位姿随机误差分量与目标位姿未确定性***误差分量依据如下公式相加获得目标位姿测量误差分别为(Δα)total,(Δβ)total,(Δγ)total,(Δtx)total,(Δty)total,(Δtz)total,根据如下公式进行计算,完成对目标位姿测量精度的预估:
其中n任意取值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510107422.3A CN104729481B (zh) | 2015-03-12 | 2015-03-12 | 一种基于pnp透视模型的合作目标位姿精度测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510107422.3A CN104729481B (zh) | 2015-03-12 | 2015-03-12 | 一种基于pnp透视模型的合作目标位姿精度测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104729481A CN104729481A (zh) | 2015-06-24 |
CN104729481B true CN104729481B (zh) | 2017-05-24 |
Family
ID=53453605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510107422.3A Active CN104729481B (zh) | 2015-03-12 | 2015-03-12 | 一种基于pnp透视模型的合作目标位姿精度测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104729481B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108257184B (zh) * | 2017-12-28 | 2020-04-03 | 中国科学院西安光学精密机械研究所 | 一种基于正方形点阵合作目标的相机姿态测量方法 |
CN108458692B (zh) * | 2018-02-02 | 2020-04-03 | 中国科学院西安光学精密机械研究所 | 一种近距离三维姿态测量方法 |
CN108564626B (zh) * | 2018-03-19 | 2021-08-31 | 百度在线网络技术(北京)有限公司 | 用于确定安装于采集实体的相机之间的相对姿态角的方法和装置 |
CN108596980B (zh) * | 2018-03-29 | 2021-12-07 | 中国人民解放军63920部队 | 圆形目标视觉定位精度评估方法、装置、存储介质和处理设备 |
CN108627157A (zh) * | 2018-05-11 | 2018-10-09 | 重庆爱奇艺智能科技有限公司 | 一种基于立体标记板的头显定位方法、装置和立体标记板 |
CN109129465B (zh) * | 2018-07-25 | 2021-12-14 | 广东奥普特科技股份有限公司 | 一种机器人手眼标定***及其工作流程 |
CN109597432B (zh) * | 2018-11-30 | 2022-03-18 | 航天时代飞鸿技术有限公司 | 一种基于车载摄像机组的无人机起降监控方法及*** |
CN109781068B (zh) * | 2018-12-11 | 2021-05-28 | 北京空间飞行器总体设计部 | 面向空间应用的视觉测量***地面模拟评估***及方法 |
CN109658461B (zh) * | 2018-12-24 | 2023-05-26 | 中国电子科技集团公司第二十研究所 | 一种基于虚拟仿真环境的合作二维码的无人机定位方法 |
-
2015
- 2015-03-12 CN CN201510107422.3A patent/CN104729481B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN104729481A (zh) | 2015-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104729481B (zh) | 一种基于pnp透视模型的合作目标位姿精度测量方法 | |
CN100429476C (zh) | 一种双传感器激光视觉三维测量***校准方法 | |
CN102221341B (zh) | 基于随机并行梯度下降优化技术的快速数字图像相关测量方法 | |
CN109946701B (zh) | 一种点云坐标转换方法及装置 | |
CN105913439A (zh) | 一种基于激光跟踪仪的大视场摄像机标定方法 | |
CN106441311B (zh) | 一种基于激光成像雷达的非合作航天器相对位姿测量方法 | |
CN108038902A (zh) | 一种面向深度相机的高精度三维重建方法和*** | |
CN106863014A (zh) | 一种五轴数控机床直线轴几何误差检测方法 | |
CN104048674A (zh) | 利用不准确的校准靶的机器视觉***校准 | |
CN102207371A (zh) | 一种三维点坐标测量方法及测量装置 | |
CN104007479B (zh) | 一种基于多尺度剖分的电离层层析和电离层延迟改正方法 | |
CN104864851B (zh) | 一种基于矩形周长和面积加权约束的单目视觉位姿测量方法 | |
CN103198481B (zh) | 一种摄像机标定方法 | |
CN104036542A (zh) | 一种基于空间光线聚集性的像面特征点匹配方法 | |
CN101900531B (zh) | 双目视觉位移测量误差的测算方法及测量*** | |
CN105913417A (zh) | 基于透视投影直线的几何约束位姿方法 | |
CN104422425A (zh) | 一种不规则外形物体空间姿态动态测量方法 | |
CN106405581B (zh) | 卫星结构变形引起的多类型载荷间耦合指向精度评估方法 | |
CN108154535B (zh) | 基于平行光管的摄像机标定方法 | |
CN102661742B (zh) | 基于曲率特征加权质心点约束的自适应标志点布局方法 | |
CN110211189A (zh) | ToF相机深度误差建模校正方法及装置 | |
Cui et al. | A measurement method of motion parameters in aircraft ground tests using computer vision | |
CN114049401A (zh) | 双目相机标定方法、装置、设备及介质 | |
CN107504959B (zh) | 利用倾斜航空影像测量房屋墙基轮廓的方法 | |
CN112484751B (zh) | 一种航天验证器相对大空间试验场坐标系位置姿态测量方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |