CN102506757B - 双目立体测量***多视角测量中的自定位方法 - Google Patents

双目立体测量***多视角测量中的自定位方法 Download PDF

Info

Publication number
CN102506757B
CN102506757B CN201110307750.XA CN201110307750A CN102506757B CN 102506757 B CN102506757 B CN 102506757B CN 201110307750 A CN201110307750 A CN 201110307750A CN 102506757 B CN102506757 B CN 102506757B
Authority
CN
China
Prior art keywords
point
dimensional
visual angle
coordinate
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201110307750.XA
Other languages
English (en)
Other versions
CN102506757A (zh
Inventor
张丽艳
石春琴
叶南
孙楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201110307750.XA priority Critical patent/CN102506757B/zh
Publication of CN102506757A publication Critical patent/CN102506757A/zh
Application granted granted Critical
Publication of CN102506757B publication Critical patent/CN102506757B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种自动确定双目立体传感器在不同视角测量时的相对位置和姿态的方法。本方法利用双目立体测量***在每个视角测量时,左、右相机的相对位姿是已知且保持不变这一内在约束条件,联合了左、右相机在不同次测量中各自产生的匹配点对,构造多视图几何约束关系,并自动解算两次测量时立体传感器相对位姿的初值;然后通过多视角测量中重建出的三维特征点及其在各幅图像中的像点与立体传感器相对位姿之间的约束关系,优化确定各个测量视角的相对位姿。本方法提高立体传感器自身定位及数据拼合的精度与可靠性,并降低多视角测量数据的可拼合条件。

Description

双目立体测量***多视角测量中的自定位方法
技术领域
本发明属于三维测量领域,特别涉及一种双目立体测量***在多视角测量时的自定位方法。 
背景技术
三维轮廓数据的测量在航空航天、车辆船舶、机械制造、生物医学、纺织服装、工业设计等领域有着广泛的应用需求。基于机械、光学、声学、电磁学原理的各种测量方法均取得了巨大进展,尤其是以激光扫描法、干涉法和结构光方法为代表的光学非接触测量方法在许多领域中实现了商业应用。然而,各种三维测量方法一次测量都只能获得有限区域的表面数据,大型物体或者全方位轮廓的测量要通过改变视角进行多次测量,这样就需要确定各个视角下三维测量***(立体传感器)的相对位置和姿态(简称位姿),从而将每次测量的数据拼合到一个统一的坐标系下。 
目前解决这一问题主要有以下方法:一是在被测物体表面黏贴球形或者圆形的人工标记点,通过两次测量间至少三个以上的共同标记点,实现两个测量数据集之间的坐标变换。这种方法增加了测量前的准备工作,而且黏贴标记点的地方模型本身的测量数据会缺失,对于小型的和细节丰富的物体这个问题尤其突出。第二种方法是通过机械机构控制不同次测量中立体传感器与被测物体之间的相对运动,由运动参数直接计算测量点集间的坐标变换关系,目前常用的机械机构有旋转台,五轴联动装置等,这些装置的增加使得测量***的灵活性和对被测物体尺寸大小的适应性明显降低。专利“基于姿态传感器的多视角测量数据自拼合方法(ZL200910029324)”将微小型姿态传感器固定在点云测量设备上,以确定不同测量视角下的相对旋转变换,再利用软件算法确定平移变换。这一方法中的辅助装置十分小巧,便于实现,但只适用于物体不动立体传感器改变方位的多视角测量情况。另一类方法是完全通过后续处理算法对不同视角下输出的三维测量数据进行分析和特征点匹配,进而实现数据拼合。这种从三维测量数据中提取特征进行拼合的方法对于双目立体测量***的两个测量视角而言,要求至少有三个点以上的点在全部4幅图像中同时被定位识别,数据的可拼合条件相对较高,且受不同被测物体的表面几何形状影响严重。 
发明内容
技术问题:本发明的目的在于提供一种新的双目立体多视角测量中的设备自定位方法,从而提高立体传感器自身定位及数据拼合的精度与可靠性,并降低多视角测量数据的可拼合条件。 
一种双目立体测量***多视角测量中的自定位方法,其特征在于包括以下过程: 
步骤1:两测量视角之间图像特征匹配集的建立 
双目立体测量***在两个不同视角进行测量时,左右相机共拍摄4幅图像,通过对两两图像进行特征点提取和匹配,获取相应的同名对应点集合,其中同名对应点表示同一空间点在不同图像上的投影点; 
对于多视角测量中的两个视角,不失一般性称为视角1和视角2,记在视角1测量时左、右相机拍摄的图像分别为
Figure GDA00003204270800021
Figure GDA00003204270800022
在视角2测量时左、右相机拍摄的图像为
Figure GDA00003204270800023
Figure GDA00003204270800024
这里上标代表视角,下标l、r代表左、右相机; 
建立
Figure GDA00003204270800025
Figure GDA00003204270800026
之间的同名对应点集合之间的同名对应点集合为 
Figure GDA00003204270800029
Figure GDA000032042708000210
之间的同名对应点集合
Figure GDA000032042708000211
Figure GDA000032042708000212
之间的同名对应点集合
Figure GDA000032042708000213
Figure GDA000032042708000214
之间的同名对应点集合
Figure GDA000032042708000215
以及
Figure GDA000032042708000216
Figure GDA000032042708000217
之间的同名对应点集合
Figure GDA000032042708000218
步骤2:两测量视角之间几何变换的初始估计 
双目立体测量***进行两视角测量时,双目立体结构中两个相机的内部参数和相对位姿已经过标定,而双目立体结构在两个不同测量视角之间的位姿是未知的,需要计算能表征相应位姿关系的几何变换矩阵; 
集合
Figure GDA000032042708000219
中的一个元素即一个同名匹配点对记为
Figure GDA000032042708000220
集合
Figure GDA000032042708000221
中的元素记为
Figure GDA000032042708000222
已标定的左、右摄像机的内部参数矩阵分别记为Al、Ar,则在图像畸变已经做过校正的条件下,根据现有的针孔成像模型,可得图像特征点在各自摄像机坐标系下的三维坐标: 
q l 1 = κ l A l - 1 p ~ l 1 , q l 2 = κ l A l - 1 p ~ l 2 - - - ( 1 )
q r 1 = κ r A r - 1 p ~ r 1 , q r 2 = κ r A r - 1 p ~ r 2 - - - ( 2 )
这里
Figure GDA000032042708000225
代表特征点
Figure GDA000032042708000226
在左摄像机坐标系取得三维坐标,
Figure GDA000032042708000227
代表特征点
Figure GDA000032042708000228
在左摄像机坐标系取得三维坐标,
Figure GDA000032042708000229
代表特征点在右摄像机坐标系取得三维坐标,
Figure GDA000032042708000231
代表特征点
Figure GDA000032042708000232
在右摄像机坐标系取得三维坐标,
Figure GDA000032042708000233
分别表示图像点 
Figure GDA000032042708000234
的齐次坐标,κl和κr为非零尺度因子;为方便阐述
Figure GDA000032042708000235
也表述为 ( q l 1 ⇔ q l 2 ) ∈ M l 1 - l 2 ; p r 1 ⇔ p r 2 也表述为 ( q r 1 ⇔ q r 2 ) ∈ M r 1 - r 2 ; 根据多视图几何理论, 左相机在两个视角处拍摄的同名匹配点
Figure GDA00003204270800031
满足: 
( q l 2 ) T E l - l q l 1 = 0 - - - ( 3 )
其中El-l为表征左相机在两个测量视角之间相对位姿的本质矩阵;同理,右相机在两个测量视角下拍摄的同名匹配点
Figure GDA00003204270800033
满足: 
( q r 2 ) T E r - r q r 1 = 0 - - - ( 4 )
其中Er-r为表征右相机在两个测量视角之间的位姿关系的本质矩阵;由于双目立体测量***在不同视角进行测量时,两个相机的相对位姿保持不变,因此两个相机在两次测量中的几何变换关系是一致的,即可以记为: 
E=El-l=Er-r      (5) 
因此,可以联立式(3)和式(4)中的两个方程,得到: 
(q2)TEq1=0     (6) 
其中q1和q2为同名匹配点对,且
Figure GDA00003204270800036
的每个匹配点对都通过(6)式共同构成关于E矩阵的方程组;上述q1代表
Figure GDA00003204270800038
q2代表
Figure GDA00003204270800039
Figure GDA000032042708000310
p1代表
Figure GDA000032042708000312
p2代表
Figure GDA000032042708000314
由于这里的本质矩阵E可由两个视角间的旋转矩阵R和平移向量T=[tx ty tz]T来表示: 
E = R · 0 - t z t y t z 0 - t x - t y t x 0 - - - ( 7 )
因此只要有5个以上的同名匹配点对即可求解,即只要
Figure GDA000032042708000317
就可以求解出E矩阵,这里|·|表示集合所含元素的个数; 
对求得的E矩阵进行分解,得到立体传感器在测量视角1和视角2之间的旋转矩阵R和归一化的平移向量T′; 
步骤3:两测量视角之间平移尺度求解 
步骤2只得到了归一化的平移向量T′,本步骤确定它与实际的平移向量T之间相差的固定比例因子s;对于集合中的匹配点对
Figure GDA000032042708000319
若集合
Figure GDA000032042708000320
中存在
Figure GDA000032042708000321
即存在
Figure GDA000032042708000322
则根据双目立体***的标定参数,由
Figure GDA000032042708000323
重建实际场景中的三维点坐标,记为
Figure GDA000032042708000324
同时根据上面求出的位姿R、T′,重建归一化的三维坐标
Figure GDA000032042708000325
同样,若集合
Figure GDA000032042708000326
Figure GDA000032042708000327
中的特征点对存在
Figure GDA000032042708000328
则根据双目立体***的标定参数,由
Figure GDA000032042708000329
重建实际场景中的三维点坐标
Figure GDA000032042708000330
同时根据上面求出的位姿R、T′,重建归一化的三维坐标
Figure GDA000032042708000331
上述
Figure GDA000032042708000332
Figure GDA000032042708000333
是建立在左摄像机
Figure GDA000032042708000334
坐标系下的三维坐 标,而对于摄像机
Figure GDA00003204270800041
坐标系下的
Figure GDA00003204270800042
也可由双目立体结构的外部几何参数信息转换到
Figure GDA00003204270800043
坐标系下,以下不做特别说明
Figure GDA00003204270800044
也表示
Figure GDA00003204270800045
坐标系下的三维坐标;这样,可以得到实际场景中的三维点集
Figure GDA00003204270800046
和归一化三维点集{X′i|i=1,…,m}={X′l-l}∪{X′r-r},这两个点集之间的尺度同样相差比例因子s;因此,s可以由式(8)确定: 
s = Σ i = 1 m | | X i - 1 m Σ i = 1 m X i | | Σ i = 1 m | | X i ′ - 1 m Σ i = 1 m X i ′ | | - - - ( 8 )
这里||·||表示求向量的模长,m是并集
Figure GDA00003204270800048
中元素的个数;要使式(8)有意义,需满足
Figure GDA00003204270800049
至此,将s与归一化平移向量T′相乘,就可获得不同测量视角之间立体传感器的绝对平移向量 
T=sT′                            (9) 
步骤4:两视角立体传感器相对位姿优化 
本步骤进一步利用多视角测量中重建出的三维特征点及其在各幅图像中的像点与立体传感器相对位姿之间的几何约束关系,以步骤2和步骤3中获得的结果R、T作为初值,两步优化确定立体传感器的最终相对位姿; 
第一步优化以集合
Figure GDA000032042708000410
中的所有匹配点对建立最小化目标函数: 
min ( Σ i = 1 n ll | | p l - l 2 i - p ^ l - l 2 i ( R , T ) | | + Σ i = 1 n rr | | p r - r 2 i - p ^ r - r 2 i ( R , T ) | | ) - - - ( 10 )
其中,
Figure GDA000032042708000412
分别是
Figure GDA000032042708000413
中的匹配像点经双目立体模型重建出的三维点再投影到图像
Figure GDA000032042708000414
上的图像坐标,
Figure GDA000032042708000415
Figure GDA000032042708000416
是在图像上识别出的相应特征点的真实图像坐标,nll、nrr为集合
Figure GDA000032042708000418
中元素的个数,优化变量R、T的初值已由步骤3得到; 
第二步优化是为了进一步提高测量***的拼合精度,将特征点的三维坐标也松弛为优化变量,同时为了尽量利用更多的约束提高迭代结果的可靠性,将能够对两个测量视角之间的相对位姿起有效约束作用的集合中的同名匹配点对均重建出三维坐标点,并将这些三维坐标点分别投影到 图像上,相应的再投影误差都计入本次优化过程,最小化目标函数 
min ( Σ j = 1 4 Σ i = 1 N | | p j i - p ^ j i ( R , T , X i ) | | ) - - - ( 11 )
其中Xi,i=1,2,…,N是视角1和视角2下重建出的所有三维特征点,
Figure GDA000032042708000424
是Xi再投影到第j幅图像上的图像坐标,这里的第j幅图像(j=1,…,4)依次代表图像
Figure GDA000032042708000425
Figure GDA000032042708000426
(11)式的目标函数中R,T,Xi是优化变量,其中R和T的初 始值由上一步优化的结果得到,而各三维特征点坐标的初始值Xi由相应的匹配点对重建所得;如果Xi点在第j幅图像上未提取出相应的图像点,即
Figure GDA00003204270800051
不存在,则(11)式中取
Figure GDA00003204270800052
也就是该点在第j幅图像上的再投影误差不计入目标函数; 
目标函数式(10)和式(11)采用非线性优化方法迭代求解最终得到优化后的旋转矩阵R和平移向量T; 
步骤5:多视角立体传感器相对位姿的整体优化 
在利用步骤1~步骤4的方法确定了两两视角之间相对位姿参数后,进行k个视角相对位姿的整体优化,以进一步减小拼合的累积误差,整体优化的目标函数为 
min ( Σ j = 1 2 k Σ i = 1 N | | p j i - p ^ j i ( R 2 - 1 , T 2 - 1 , R 3 - 1 , T 3 - 1 , · · · , R k - 1 , T k - 1 , X i ) | | ) - - - ( 12 )
其中Xi,i=1,2,…,N是各个视角下重建出的所有三维特征点,是Xi再投影到第j(j=1,2,…,2k)幅图像上的图像坐标,
Figure GDA00003204270800055
是Xi点在图像j上识别出的真实图像坐标,R2-1,T2-1,R3-1,T3-1,…,Rk-1,Tk-1分别是视角2,3,…,k相对于视角1的旋转矩阵和平移向量。(12)式目标函数中的R2-1,T2-1,R3-1,T3-1,…,Rk-1,Tk-1和Xi是优化变量,其中R2-1,T2-1,R3-1,T3-1,…,Rk-1,Tk-1的初始值已由两视角拼合步骤得到,而各三维特征点坐标的初始值Xi也已由相应的匹配点对重建所得。如果Xi点在第j幅图像上未提取出相应的图像点,即不存在,则(12)式中取  p j i = p ^ j i ( R 2 - 1 , T 2 - 1 , R 3 - 1 , T 3 - 1 , · · · , R k - 1 , T k - 1 , X i ) .
目标函数式(12)采用非线性优化方法迭代求解。 
本发明不同于从三维测量数据中提取特征进行设备自身定位和数据拼合的方法,本方法将双目立体测量***多视角拍摄的各幅图像,构建成多视图几何问题,在建立各图像对之间的匹配特征点对集合的基础上,将双目立体结构的内在约束引入多视图几何求解过程,从而确定各测量视角之间立体传感器的相对位姿。对于两个测量视角而言,本方法并不需要特征点在左右相机拍摄的共4幅图像中被同时提取并匹配才可以参与问题的求解,在3幅或者2幅图像中被提取和匹配的点也可参与求解。更重要的是,对于已经标定的双目立体测量***而言,在每个视角测量时,左、右相机的相对位姿是已知且保持不变的,因此4幅图像中只有两个测量视角之间的相对位姿是未知的。本方法充分利用了双目立体多视角测量的这一内在属性,一方面尽可能地松弛了问题的可解条件,另一方面使尽可能多的约束参与问题的求解,明显提高了数据拼合的精度和鲁棒性。 
有益效果:本发明与现有技术相比,具有如下特色和优点: 
1.由于直接利用双目立体测量中的图像特征信息,并联合了左、右相机在不同次测量中各自产生的匹配点对,求解两次测量之间立体传感器的相对位姿(即自定位),从而松弛了两次测量数据之间的可拼合条件,使得某些原本无法拼合的情况可以得到拼合; 
2.由于将双目立体结构的内在约束融入不同测量视角下的图像匹配关系查找和多视图几何的求解,因此能够明显提高数据拼合的可靠性和拼合精度。 
附图及附表说明 
附图1是两视角测量立体传感器自定位的方法流程示意图; 
附图2是双目立体测量***的多视角测量示意图; 
附图3是本发明实施例1的立体传感器自定位和数据拼合结果示意图; 
附图4是本发明的实施例2的实施对象和实施结果图,其中图4(a)为待测对象,图4(b)为视角1测量的点云,4(c)为视角2测量的点云;4(c)为点云拼合结果。 
图5是实施例1中的标记点匹配和重建结果 
图6是实施例1中的图像间的匹配点对 
图7是实施例2中的拼合误差对比统计结果 
具体实施方式
本发明的具体实施方式结合附图详述如下。 
参见附图1所示,本发明由以下步骤组成: 
步骤1:两测量视角之间图像特征匹配集的建立 
双目立体测量***在两个不同视角进行测量时,左右相机共拍摄4幅图像,通过对两两图像进行特征点提取和匹配,获取相应的特征匹配集(又称同名对应点集合),其中同名对应点表示同一空间点在不同图像上的投影点。 
对于多视角测量中的两个视角,不失一般性称为视角1和视角2。记在视角1测量时左、右相机拍摄的图像分别为
Figure GDA00003204270800061
Figure GDA00003204270800062
在视角2测量时左、右相机拍摄的图像为
Figure GDA00003204270800063
这里上标代表视角,下标代表左(l)、右(r)相机。 
建立
Figure GDA00003204270800071
Figure GDA00003204270800072
之间的同名对应点集合
Figure GDA00003204270800073
Figure GDA00003204270800074
之间的同名对应点集合为 
Figure GDA00003204270800075
Figure GDA00003204270800076
之间的同名对应点集合
Figure GDA00003204270800077
Figure GDA00003204270800078
之间的同名对应点集合
Figure GDA00003204270800079
Figure GDA000032042708000710
之间的同名对应点集合
Figure GDA000032042708000711
以及
Figure GDA000032042708000712
Figure GDA000032042708000713
之间的同名对应点集合建立同名对应点集合的方法可以采用任何已有的图像特征点提取和匹配方法,其中特征点提取方法包括Harris角点探测法、Harris-Laplace、Hessian-Laplace和SIFT等,特征点匹配方法包括图割法、动态规划法、迭代松弛法等。 
步骤2:两测量视角之间几何变换的初始估计 
双目立体测量***进行两视角测量时,双目立体结构中两个相机的内部参数和相对位姿已经过标定,而双目立体结构在两个不同测量视角之间的位姿是未知的,需要计算能表征相应位姿关系的几何变换矩阵。 
集合
Figure GDA000032042708000715
中的一个元素(同名匹配点对)记为
Figure GDA000032042708000716
集合
Figure GDA000032042708000717
中的元素记为
Figure GDA000032042708000718
已标定的左、右摄像机的内部参数矩阵分别记为Al、Ar,则在图像畸变已经做过校正的条件下,根据现有的针孔成像模型,可得图像特征点在各自摄像机坐标系下的三维坐标: 
q l 1 = κ l A l - 1 p ~ l 1 , q l 2 = κ l A l - 1 p ~ l 2 - - - ( 1 )
q r 1 = κ r A r - 1 p ~ r 1 , q r 2 = κ r A r - 1 p ~ r 2 - - - ( 2 )
这里代表特征点在左摄像机坐标系取得三维坐标,
Figure GDA000032042708000723
代表特征点
Figure GDA000032042708000724
在左摄像机坐标系取得三维坐标,
Figure GDA000032042708000725
代表特征点
Figure GDA000032042708000726
在右摄像机坐标系取得三维坐标,
Figure GDA000032042708000727
代表特征点在右摄像机坐标系取得三维坐标,
Figure GDA000032042708000729
分别表示图像点 
Figure GDA000032042708000730
的齐次坐标,κl和κr为非零尺度因子。为方便阐述
Figure GDA000032042708000731
也表述为 ( q l 1 ⇔ q l 2 ) ∈ M l 1 - l 2 ; p r 1 ⇔ p r 2 也表述为 ( q r 1 ⇔ q r 2 ) ∈ M r 1 - r 2 . 根据多视图几何理论(参见:Richard Hartley,Andrew Zisserman著.Multiple View Geometry in Computer Vision,Cambridge University Press,2004),左相机在两个视角处拍摄的同名匹配点
Figure GDA000032042708000734
满足: 
( q l 2 ) T E l - l q l 1 = 0 - - - ( 3 )
其中El-l为表征左相机在两个测量视角之间相对位姿的本质矩阵。同理,右相机在两个测量视角下拍摄的同名匹配点
Figure GDA000032042708000736
满足: 
( q r 2 ) T E r - r q r 1 = 0 - - - ( 4 )
其中Er-r为表征右相机在两个测量视角之间的位姿关系的本质矩阵。由于双目立体测量***在不同视角进行测量时,两个相机的相对位姿保持不变,因此两个相机在两次测量中的几何变换关系是一致的,即可以记为: 
E=El-l=Er-r    (5) 
因此,可以联立式(3)和式(4)中的两个方程,得到: 
(q2)TEq1=0      (6) 
其中q1和q2为同名匹配点对,且
Figure GDA00003204270800082
的每个匹配点对都通过(6)式共同构成关于E矩阵的方程组。上述q1代表
Figure GDA00003204270800083
q2代表
Figure GDA00003204270800085
Figure GDA00003204270800086
p1代表
Figure GDA00003204270800088
p2代表
Figure GDA00003204270800089
Figure GDA000032042708000810
由于这里的本质矩阵E可由两个视角间的旋转矩阵R和平移向量T=[tx ty tz]T来表示: 
E = R · 0 - t z t y t z 0 - t x - t y t x 0 - - - ( 7 )
因此只要有5个以上的同名匹配点对
Figure GDA000032042708000812
即可求解,即只要
Figure GDA000032042708000813
就可以求解出E矩阵,这里|·|表示集合所含元素的个数。 
对求得的E矩阵进行分解,得到立体传感器在测量视角1和视角2之间的旋转矩阵R和归一化的平移向量T′。 
步骤3:两测量视角之间平移尺度求解 
步骤2只得到了归一化的平移向量T′,本步骤确定它与实际的平移向量T之间相差的固定比例因子s。对于集合中的匹配点对
Figure GDA000032042708000815
若集合
Figure GDA000032042708000816
中存在
Figure GDA000032042708000817
即存在
Figure GDA000032042708000818
则根据双目立体***的标定参数,由
Figure GDA000032042708000819
重建实际场景中的三维点坐标,记为
Figure GDA000032042708000820
同时根据上面求出的位姿R、T′,重建归一化的三维坐标
Figure GDA000032042708000839
同样,若集合
Figure GDA000032042708000821
Figure GDA000032042708000822
中的特征点对存在
Figure GDA000032042708000823
则根据双目立体***的标定参数,由
Figure GDA000032042708000824
重建实际场景中的三维点坐标
Figure GDA000032042708000825
同时根据上面求出的位姿R、T′,重建归一化的三维坐标
Figure GDA000032042708000826
上述
Figure GDA000032042708000827
Figure GDA000032042708000828
是建立在左摄像机
Figure GDA000032042708000829
坐标系下的三维坐标,而对于摄像机坐标系下的也可由双目立体结构的外部几何参数信息转换到
Figure GDA000032042708000832
坐标系下,以下不做特别说明
Figure GDA000032042708000833
也表示
Figure GDA000032042708000834
坐标系下的三维坐标。这样,可以得到实际场景中的三维点集
Figure GDA000032042708000835
和归一化三维点集{X′i|i=1,…,m}={X′l-l}∪{X′r-r},这两个点集之间的尺度同样相差比例因子s。因此,s可以由式(8)确定: 
s = Σ i = 1 m | | X i - 1 m Σ i = 1 m X i | | Σ i = 1 m | | X i ′ - 1 m Σ i = 1 m X i ′ | | - - - ( 8 )
这里||·||表示求向量的模长,m是并集中元素的个数。要使式(8)有意义,需满足至此,将s与归一化平移向量T′相乘,就可获 得不同测量视角之间立体传感器的绝对平移向量 
T=sT′        (9) 
步骤4:两视角立体传感器相对位姿优化 
本步骤进一步利用多视角测量中重建出的三维特征点及其在各幅图像中的像点与立体传感器相对位姿之间的几何约束关系,以步骤2和步骤3中获得的结果R、T作为初值,两步优化确定立体传感器的最终相对位姿。 
第一步优化以集合
Figure GDA00003204270800091
中的所有匹配点对建立最小化目标函数: 
min ( Σ i = 1 n ll | | p l - l 2 i - p ^ l - l 2 i ( R , T ) | | + Σ i = 1 n rr | | p r - r 2 i - p ^ r - r 2 i ( R , T ) | | ) - - - ( 10 )
其中,
Figure GDA00003204270800093
分别是
Figure GDA00003204270800094
中的匹配像点经双目立体模型重建出的三维点再投影到图像
Figure GDA00003204270800095
上的图像坐标,是在图像
Figure GDA00003204270800098
上识别出的相应特征点的真实图像坐标,nll、nrr为集合
Figure GDA00003204270800099
中元素的个数,优化变量R、T的初值已由步骤3得到。 
第二步优化是为了进一步提高测量***的拼合精度,将特征点的三维坐标也松弛为优化变量,同时为了尽量利用更多的约束提高迭代结果的可靠性,将能够对两个测量视角之间的相对位姿起有效约束作用的集合
Figure GDA000032042708000910
中的同名匹配点对均重建出三维坐标点,并将这些三维坐标点分别投影到
Figure GDA000032042708000911
Figure GDA000032042708000912
Figure GDA000032042708000913
图像上,相应的再投影误差都计入本次优化过程,最小化目标函数 
min ( Σ j = 1 4 Σ i = 1 N | | p j i - p ^ j i ( R , T , X i ) | | ) - - - ( 11 )
其中Xi,i=1,2,…,N是视角1和视角2下重建出的所有三维特征点,
Figure GDA000032042708000915
是Xi再投影到第j幅图像上的图像坐标,这里的第j幅图像(j=1,…,4)依次代表图像
Figure GDA000032042708000916
Figure GDA000032042708000917
(11)式的目标函数中R,T,Xi是优化变量,其中R和T的初始值由上一步优化的结果得到,而各三维特征点坐标的初始值Xi由相应的匹配点对重建所得。如果Xi点在第j幅图像上未提取出相应的图像点,即
Figure GDA000032042708000918
不存在,则(11)式中取
Figure GDA000032042708000919
也就是该点在第j幅图像上的再投影误差不计入目标函数。 
目标函数式(10)和式(11)可以采用Levenberg-Marquardt等非线性优化方法迭代求解。最终得到优化后的旋转矩阵R和平移向量T。 
步骤5:多视角立体传感器相对位姿的整体优化 
在利用步骤1~步骤4的方法确定了两两视角之间相对位姿参数后,进行k个视角相对位姿的整体优化,以进一步减小拼合的累积误差,整体优化的目标函数为 
min ( Σ j = 1 2 k Σ i = 1 N | | p j i - p ^ j i ( R 2 - 1 , T 2 - 1 , R 3 - 1 , T 3 - 1 , · · · , R k - 1 , T k - 1 , X i ) | | ) - - - ( 12 )
其中Xi,i=1,2,…,N是各个视角下重建出的所有三维特征点,是Xi再投影到第j(j=1,2,…,2k)幅图像上的图像坐标,
Figure GDA00003204270800103
是Xi点在图像j上识别出的真实图像坐标,R2-1,T2-1,R3-1,T3-1,…,Rk-1,Tk-1分别是视角2,3,…,k相对于视角1的旋转矩阵和平移向量。(12)式目标函数中的R2-1,T2-1,R3-1,T3-1,…,Rk-1,Tk-1和Xi是优化变量,其中R2-1,T2-1,R3-1,T3-1,…,Rk-1,Tk-1的初始值已由两视角拼合步骤得到,而各三维特征点坐标的初始值Xi也已由相应的匹配点对重建所得。如果Xi点在第j幅图像上未提取出相应的图像点,即
Figure GDA00003204270800104
不存在,则(12)式中取  p j i = p ^ j i ( R 2 - 1 , T 2 - 1 , R 3 - 1 , T 3 - 1 , · · · , R k - 1 , T k - 1 , X i ) .
目标函数式(12)同样可采用Levenberg-Marquardt等非线性优化方法迭代求解。 
可以理解对于本领域的技术人员来说,在本发明方法基础上可能存在多种的改进类型。因而上述描述和相关的附图只是本发明的示意而不局限于此。也可以理解本发明覆盖任何基于本发明的改进,适用和调整。通常来说,本发明的原理以及本申请所公开的实施例和公知的或惯用技术的其他改进方法或者可以应用前述方法的本质特征的其他***都受到所附权利要求书的保护。 
实施例1: 
本实施例采用发明专利“基于瞬时随机光照的三维曲面测量装置及方法(ZL200810122905.0)”所述的双目立体测量***。为了验证本发明提出的方法能够在更松弛的条件下实现设备自定位,本例中在物体表面粘贴圆形标记点,由双目立体传感器从两个不同角度拍摄立体图像对,对其表面上不规则分布的目标点进行识别,并提取相应的目标点中心坐标,如图5所示。需要指出的是,本发明方法并不限于这种离散标记点,对于任何其它方法获得的同名对应点,都可以应用本发明方法进行多视角测量的自定位。 
通过两视角双目立体测量图像之间的两两匹配,分别获取图像对上彼此可见的目标像点坐标,见图6。其中,同视角摄取的两幅图像上的匹配目标点,可以直接重建相应的三维坐标。从重建结果可以看到,本例中仅有两个标记点(目标点序号为1和4)在两次测量中均被重建出来,这不满足两次测量输出中至少具有三个共同点的三维数据拼合基本条件,因此无法根据测量出的三维数据来实现立体传感器定位和测量数据拼合。而由于在两次测量中左、右相机各自产生的匹 配点对之和n≥5,且在任意三幅图像中同时可见的特征点个数m≥2,因此满足本发明方法的可解条件,用本发明的方法可以进行立体传感器定位和数据拼合。 
具体应用本发明方法的拼合过程如下: 
(1)建立两测量视角两两图像之间的特征匹配集,结果见图6。 
(2)联合左、右相机在不同次测量中各自产生的匹配点对
Figure GDA00003204270800112
利用公式(6)自动解算本质矩阵E。对E进行奇异值分解: 
E=Udiag(1,1,0)VT     (13) 
其中U为3×3上三角矩阵,V为3×3下三角矩阵,且满足det(U)>0,det(V)>0,这里det(□)表示矩阵的行列式值。记矩阵U的最后一列[u13 u23 u33]T=T′,则T′与实际的平移向量T(tx,ty,tz)仅相差一个比例因子s。旋转矩阵R为UWVT或UWTVT,这里的W是正交矩阵: 
W = 0 - 1 0 1 0 0 0 0 1 - - - ( 14 )
由于分解出的旋转矩阵R和归一化的平移向量T′都具有二义性,测量***在视角1和视角2之间的相对位姿的齐次变换矩阵M=[R|T]实际上有以下四种可能: 
M1=[UWVT|T′];M2=[UWVT|-T′]; 
(15) 
M3=[UWTVT|T′];M4=[UWTVT|-T′]; 
为了从中选出唯一正确的位姿,依次假设Mi,i=1,2,3,4为正确位姿变换矩阵,并利用该变换矩阵重建集合Ml-l、Mr-r中所有同名匹配点对的三维坐标,若重建出的三维点均在两个摄像机前面,则该位姿是正确解,否则是错误解,予以剔除。这样获取两次测量时立体传感器相对位姿的初值R和T′。 
(3)由公式(8)获得比例因子s,再将s代入式(9),得到两测量视角间的实际平移向量T。 
(4)将步骤2和步骤3中获得的结果R、T代入式(10)和式(11)进行优化,得到两个测量视角间几何变换R、T的最终优化结果。 
因本例只进行了两个视角的测量,因此不需要步骤5。图3给出了本例定位出的这两测量视角下立体传感器的相对位姿及拼合后的标记点空间位置,可以直 接看出数据拼合结果的正确性。 
实施例2: 
本实施例仍然采用发明专利“基于瞬时随机光照的三维曲面测量装置及方法(ZL200810122905.0)”所述的双目立体测量***,对如图4(a)所示的车门钣金件进行双目立体表面点云测量。双目立体测量***每次测量时,除了拍摄随机光场照射下的用于三维点云生成的立体图像对之外,左、右相机还同时再拍摄一幅没有光场照射的物体自然纹理图像。随机光场照射下的立体图像用于重建三维点云,两个不同视角下的三维钣金件表面点云测量结果如图4(b)、图4(c)。利用这两个视角下拍摄的4幅自然纹理图像,通过本发明方法进行两视角测量的设备自定位,进而对点云数据进行拼合。图4(d)显示了用本发明方法获得的数据拼合结果,从中可以看出点云重叠区域相互渗透现象较为明显,直观地说明了本发明方法的有效性。 
为了定量对比验证本发明方法对提高拼合精度的效果,本例除了用本发明方法获得拼合实验结果以外,还另将4幅纹理图像中共同可见的特征点重建出它们的三维坐标,利用两次测量输出的共同特征点的三维坐标估计测量视角间的相对位姿,也得到两幅点云数据的拼合结果。定量分析以上两种方法的拼合误差,从图7的统计结果可见,本发明方法得出的平均拼合误差约降低为基于三维特征点的拼合方法的20%,而标准差只约为后者的10%,拼合精度提高的效果是非常明显的。 

Claims (1)

1.一种双目立体测量***多视角测量中的自定位方法,其特征在于包括以下过程:
步骤1:两测量视角之间图像特征匹配集的建立
双目立体测量***在两个不同视角进行测量时,左右相机共拍摄4幅图像,通过对两两图像进行特征点提取和匹配,获取相应的同名对应点集合,其中同名对应点表示同一空间点在不同图像上的投影点;
对于多视角测量中的两个视角,不失一般性称为视角1和视角2,记在视角1测量时左、右相机拍摄的图像分别为
Figure FDA0000392100650000011
Figure FDA0000392100650000012
在视角2测量时左、右相机拍摄的图像为
Figure FDA0000392100650000013
Figure FDA0000392100650000014
这里上标代表视角,下标l、r代表左、右相机;
建立
Figure FDA0000392100650000015
Figure FDA0000392100650000016
之间的同名对应点集合
Figure FDA0000392100650000018
之间的同名对应点集合为之间的同名对应点集合
Figure FDA00003921006500000111
Figure FDA00003921006500000112
之间的同名对应点集合
Figure FDA00003921006500000114
之间的同名对应点集合
Figure FDA00003921006500000115
以及
Figure FDA00003921006500000116
Figure FDA00003921006500000117
之间的同名对应点集合
步骤2:两测量视角之间几何变换的初始估计
双目立体测量***进行两视角测量时,双目立体结构中两个相机的内部参数和相对位姿已经过标定,而双目立体结构在两个不同测量视角之间的位姿是未知的,需要计算能表征相应位姿关系的几何变换矩阵;
集合
Figure FDA00003921006500000119
中的一个元素即一个同名匹配点对记为
Figure FDA00003921006500000120
集合
Figure FDA00003921006500000121
中的元素记为
Figure FDA00003921006500000122
已标定的左、右摄像机的内部参数矩阵分别记为Al、Ar,则在图像畸变已经做过校正的条件下,根据现有的针孔成像模型,可得图像特征点在各自摄像机坐标系下的三维坐标:
q l 1 = κ l A l - 1 p ~ l 1 , q l 2 = κ l A l - 1 p ~ l 2 - - - ( 1 )
q r l = κ r A r - 1 p ~ r 1 , q r 2 = κ r A r - 1 p ~ r 2 - - - ( 2 ) 这里
Figure FDA00003921006500000125
代表特征点
Figure FDA00003921006500000126
在左摄像机坐标系取得三维坐标,
Figure FDA00003921006500000127
代表特征点
Figure FDA00003921006500000128
在左摄像机坐标系取得三维坐标,
Figure FDA00003921006500000129
代表特征点
Figure FDA00003921006500000130
在右摄像机坐标系取得三维坐标,
Figure FDA00003921006500000131
代表特征点
Figure FDA00003921006500000132
在右摄像机坐标系取得三维坐标,
Figure FDA00003921006500000133
分别表示图像点
Figure FDA00003921006500000134
的齐次坐标,κl和κr为非零尺度因子;为方便阐述
Figure FDA00003921006500000135
也表述为
Figure FDA00003921006500000136
也表述为根据多视图几何理论,左相机在两个视角处拍摄的同名匹配点
Figure FDA00003921006500000138
满足:
( q l 2 ) T E l - l q l l = 0 - - - ( 3 ) 其中El-l为表征左相机在两个测量视角之间相对位姿的本质矩阵;同理,右相机在两个测量视角下拍摄的同名匹配点
Figure FDA0000392100650000021
满足:
( q r 2 ) T E r - r q r 1 = 0 - - - ( 4 ) 其中Er-r为表征右相机在两个测量视角之间的位姿关系的本质矩阵;由于双目立体测量***在不同视角进行测量时,两个相机的相对位姿保持不变,因此两个相机在两次测量中的几何变换关系是一致的,即可以记为:
E=El-l=Er-r  (5)因此,可以联立式(3)和式(4)中的两个方程,得到:
(q2)TEq1=0  (6)其中q1和q2为同名匹配点对,且
Figure FDA0000392100650000023
的每个匹配点对都通过(6)式共同构成关于E矩阵的方程组;上述q1代表
Figure FDA0000392100650000024
Figure FDA0000392100650000025
代表
Figure FDA0000392100650000027
p1代表
Figure FDA0000392100650000028
p r 1 , p 2 代表 p l 2 p r 2 ;
由于这里的本质矩阵E由两个视角间的旋转矩阵R和平移向量T=[txtytz]T来表示:
E = R · 0 - t z t y t z 0 - t z - t y t x 0 - - - ( 7 ) 因此只要有5个以上的同名匹配点对
Figure FDA00003921006500000238
即可求解,即只要
Figure FDA00003921006500000213
就可以求解出E矩阵;
对求得的E矩阵进行分解,得到立体传感器在测量视角1和视角2之间的旋转矩阵R和归一化的平移向量T′;
步骤3:两测量视角之间平移尺度求解
步骤2只得到了归一化的平移向量T′,本步骤确定它与实际的平移向量T之间相差的固定比例因子s;对于集合中的匹配点对
Figure FDA00003921006500000215
若集合
Figure FDA00003921006500000216
中存在
Figure FDA00003921006500000217
即存在则根据双目立体***的标定参数,由
Figure FDA00003921006500000219
重建实际场景中的三维点坐标,记为
Figure FDA00003921006500000220
同时根据上面求出的位姿R、T′,由
Figure FDA00003921006500000221
重建归一化的三维坐标
Figure FDA00003921006500000222
同样,若集合
Figure FDA00003921006500000223
Figure FDA00003921006500000224
中的特征点对存在
Figure FDA00003921006500000225
则根据双目立体***的标定参数,由
Figure FDA00003921006500000226
重建实际场景中的三维点坐标
Figure FDA00003921006500000227
同时根据上面求出的位姿R、T′,由
Figure FDA00003921006500000228
重建归一化的三维坐标X′r-r;上述
Figure FDA00003921006500000239
和X′l-l是建立在左摄像机坐标系下的三维坐标,而对于摄像机
Figure FDA00003921006500000231
坐标系下的X′r-r由双目立体结构的外部几何参数信息转换到
Figure FDA00003921006500000233
坐标系下,以下不做特别说明X′r-r表示变换到
Figure FDA00003921006500000235
坐标系下的三维坐标;这样,可以得到实际场景中的三维点集
Figure FDA00003921006500000236
和归一化三维点集
Figure FDA00003921006500000237
这两个点集之间的尺度同样相差比例因子s;因此,
s可以由式(8)确定:
Σ i = 1 m | | X i - 1 m Σ i = 1 m X i | | | | X i ′ - 1 m Σ i = 1 m X i ′ | | ( 8 )
这里||·||表示求向量的模长,m是并集
Figure FDA0000392100650000032
中元素的个数;要使式(8)有意义,需满足
Figure FDA0000392100650000033
至此,将s与归一化平移向量T′相乘,就可获得不同测量视角之间立体传感器的绝对平移向量
T=sT′  (9)
步骤4:两视角立体传感器相对位姿优化
本步骤进一步利用多视角测量中重建出的三维特征点及其在各幅图像中的像点与立体传感器相对位姿之间的几何约束关系,以步骤2和步骤3中获得的结果R、T作为初值,两步优化确定立体传感器的最终相对位姿;
第一步优化以集合中的所有匹配点对建立最小化目标函数:
( Σ i = 1 n U | | p l - l 2 i - p ^ l - l 2 i ( R , T ) | | + Σ i = 1 n rr | | p r - r 2 i - p ^ r - r 2 i ( R , T ) | | ) - - - ( 10 ) 其中,分别是
Figure FDA0000392100650000037
中的匹配像点经双目立体模型重建出的三维点再投影到图像
Figure FDA0000392100650000038
上的图像坐标,
Figure FDA0000392100650000039
Figure FDA00003921006500000310
是在图像
Figure FDA00003921006500000311
上识别出的相应特征点的真实图像坐标,nll、nrr为集合
Figure FDA00003921006500000312
中元素的个数,优化变量R、T的初值已由步骤3得到;
第二步优化是为了进一步提高测量***的拼合精度,将特征点的三维坐标也松弛为优化变量,同时为了尽量利用更多的约束提高迭代结果的可靠性,将能够对两个测量视角之间的相对位姿起有效约束作用的集合
Figure FDA00003921006500000313
中的同名匹配点对均重建出三维坐标点,并将这些三维坐标点分别投影到
Figure FDA00003921006500000315
Figure FDA00003921006500000316
图像上,相应的再投影误差都计入本次优化过程,最小化目标函数
( Σ j = 1 4 Σ i = 1 N | | p j i - p ^ j i ( R , T , X i ) | | ) - - - ( 11 ) 其中Xi,i=1,2,...,N是视角1和视角2下重建出的所有三维特征点,是Xi再投影到第j幅图像上的图像坐标,当j分别为j=1,...,4时,这里的第j幅图像依次代表图像
Figure FDA00003921006500000320
是Xi点在图像j上识别出的真实图像坐标;(11)式的目标函数中R,T,Xi是优化变量,其中R和T的初始值由上一步优化的结果得到,而各三维特征点坐标的初始值Xi由相应的匹配点对重建所得;如果Xi点在第j幅图像上未提取出相应的图像点,即不存在,则(11)式中取
Figure FDA00003921006500000322
也就是该点在第j幅图像上的再投影误差不计入目标函数;
目标函数式(10)和式(11)采用非线性优化方法迭代求解最终得到优化后的旋转矩阵R和平移向量T;
步骤5:多视角立体传感器相对位姿的整体优化
在利用步骤1~步骤4的方法确定了两两视角之间相对位姿参数后,进行k个视角相对位姿的整体优化,以进一步减小拼合的累积误差,整体优化的目标函数为
min ( Σ j = 1 2 k Σ i = 1 N | | p j i - p ^ j i ( R 2 - 1 , T 2 - 1 , R 3 - 1 , T 3 - 1 , . . . , R k - 1 , T k - 1 , X i ) | | ) - - - ( 12 ) 其中Xi,i=1,2,...,N是各个视角下重建出的所有三维特征点,
Figure FDA0000392100650000042
是Xi再投影到第j幅图像上的图像坐标,其中j=1,2...,2k,
Figure FDA0000392100650000043
是Xi点在图像j上识别出的真实图像坐标,R2-1,T2-1,R3-1,T3-1,...,Rk-1,Tk-1分别是视角2,3,…,k相对于视角1的旋转矩阵和平移向量,(12)式目标函数中的R2-1,T2-1,R3-1,T3-1,...,Rk-1,Tk-1和Xi是优化变量,其中R2-1,T2-1,R3-1,T3-1,...,Rk-1,Tk-1的初始值已由两视角拼合步骤得到,而各三维特征点坐标的初始值Xi也已由相应的匹配点对重建所得,如果Xi点在第j幅图像上未提取出相应的图像点,即
Figure FDA0000392100650000044
不存在,则(12)式中取
Figure FDA0000392100650000045
目标函数式(12)采用非线性优化方法迭代求解。
CN201110307750.XA 2011-10-10 2011-10-10 双目立体测量***多视角测量中的自定位方法 Expired - Fee Related CN102506757B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201110307750.XA CN102506757B (zh) 2011-10-10 2011-10-10 双目立体测量***多视角测量中的自定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201110307750.XA CN102506757B (zh) 2011-10-10 2011-10-10 双目立体测量***多视角测量中的自定位方法

Publications (2)

Publication Number Publication Date
CN102506757A CN102506757A (zh) 2012-06-20
CN102506757B true CN102506757B (zh) 2014-04-23

Family

ID=46218865

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110307750.XA Expired - Fee Related CN102506757B (zh) 2011-10-10 2011-10-10 双目立体测量***多视角测量中的自定位方法

Country Status (1)

Country Link
CN (1) CN102506757B (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103075977B (zh) * 2012-12-28 2016-01-13 浙江大学 双目立体视觉***中的点云数据的自动拼合方法
CN104463893B (zh) * 2014-12-26 2017-04-05 北京航天飞行控制中心 先验信息传导的序列立体图像匹配方法
CN108139876B (zh) * 2015-03-04 2022-02-25 杭州凌感科技有限公司 用于沉浸式和交互式多媒体生成的***和方法
CN105894505A (zh) * 2016-03-30 2016-08-24 南京邮电大学 一种基于多摄像机几何约束的快速行人定位方法
CN106530356B (zh) * 2016-10-25 2019-10-15 成都通甲优博科技有限责任公司 一种全景视频摄像机组空间位姿标定方法
CN108447090B (zh) * 2016-12-09 2021-12-21 株式会社理光 对象姿态估计的方法、装置及电子设备
CN107067437B (zh) * 2016-12-28 2020-02-21 中国航天电子技术研究院 一种基于多视几何和光束法平差的无人机定位***及方法
CN107063642A (zh) * 2017-03-08 2017-08-18 上海斐讯数据通信技术有限公司 一种用于大视场双摄镜头的视场检测装置及方法
CN106952299B (zh) * 2017-03-14 2019-07-16 大连理工大学 一种适用于智能移动设备的三维光场技术实现方法
CN107121131B (zh) * 2017-04-06 2019-06-25 大连理工大学 一种双目摄像头水平相对位姿识别方法
CN109785390B (zh) * 2017-11-13 2022-04-01 虹软科技股份有限公司 一种用于图像矫正的方法和装置
CN109323650B (zh) * 2018-01-31 2020-04-14 黑龙江科技大学 测量***中视觉图像传感器与光点测距传感器测量坐标系的统一方法
CN108416791B (zh) * 2018-03-01 2021-07-23 燕山大学 一种基于双目视觉的并联机构动平台位姿监测与跟踪方法
CN108801274B (zh) * 2018-04-16 2021-08-13 电子科技大学 一种融合双目视觉和差分卫星定位的地标地图生成方法
CN108648235B (zh) * 2018-04-27 2022-05-17 腾讯科技(深圳)有限公司 相机姿态追踪过程的重定位方法、装置及存储介质
CN108665499B (zh) * 2018-05-04 2021-08-10 北京航空航天大学 一种基于视差法的近距飞机位姿测量方法
CN108692661A (zh) * 2018-05-08 2018-10-23 深圳大学 基于惯性测量单元的便携式三维测量***及其测量方法
CN109064536B (zh) * 2018-07-27 2022-12-06 电子科技大学 一种基于双目结构光的书页三维重建方法
CN109059902B (zh) * 2018-09-07 2021-05-28 百度在线网络技术(北京)有限公司 相对位姿确定方法、装置、设备和介质
CN109540148B (zh) * 2018-12-04 2020-10-16 广州小鹏汽车科技有限公司 基于slam地图的定位方法及***
CN113364969B (zh) * 2020-03-06 2023-05-12 华为技术有限公司 一种非视距物体的成像方法和电子设备
CN113364970B (zh) * 2020-03-06 2023-05-19 华为技术有限公司 一种非视距物体的成像方法和电子设备
CN112639883B (zh) * 2020-03-17 2021-11-19 华为技术有限公司 一种相对位姿标定方法及相关装置
CN111739068B (zh) * 2020-05-06 2024-03-01 西安电子科技大学 一种光场相机相对位姿估计方法
CN117036488B (zh) * 2023-10-07 2024-01-02 长春理工大学 一种基于几何约束的双目视觉定位方法
CN118196217A (zh) * 2024-05-15 2024-06-14 湖南大学 一种高精度双目立体相机在线自标定方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5675407A (en) * 1995-03-02 1997-10-07 Zheng Jason Geng Color ranging method for high speed low-cost three dimensional surface profile measurement
CN101581569A (zh) * 2009-06-17 2009-11-18 北京信息科技大学 双目视觉传感***结构参数的标定方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8275195B2 (en) * 2005-11-30 2012-09-25 Telecom Italia S.P.A. Method for determining scattered disparity fields in stereo vision
JP5210203B2 (ja) * 2009-02-25 2013-06-12 ローランドディー.ジー.株式会社 画像の差分による高精度ステレオカメラキャリブレーション

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5675407A (en) * 1995-03-02 1997-10-07 Zheng Jason Geng Color ranging method for high speed low-cost three dimensional surface profile measurement
CN101581569A (zh) * 2009-06-17 2009-11-18 北京信息科技大学 双目视觉传感***结构参数的标定方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
A combined temporal tracking and stereo-correlation technique for accurate measurement of 3D displacements: application to sheet metal forming;D. Garcia,et al;《Journal of Materials Processing Technology》;20021231;736–742 *
D. Garcia,et al.A combined temporal tracking and stereo-correlation technique for accurate measurement of 3D displacements: application to sheet metal forming.《Journal of Materials Processing Technology》.2002,736–742.
JP特开2010-197198A 2010.09.09
基于平面模板自由拍摄的双目立体测量***的现场标定;张辉 等;《航空学报》;20070531;第28卷(第3期);695-701 *
张辉 等.基于平面模板自由拍摄的双目立体测量***的现场标定.《航空学报》.2007,第28卷(第3期),695-701.
石春琴 等.随机模式投影双目测量***中的单目测量.《光学精密工程》.2010,第18卷(第1期),257-265.
随机模式投影双目测量***中的单目测量;石春琴 等;《光学精密工程》;20100131;第18卷(第1期);257-265 *

Also Published As

Publication number Publication date
CN102506757A (zh) 2012-06-20

Similar Documents

Publication Publication Date Title
CN102506757B (zh) 双目立体测量***多视角测量中的自定位方法
CN111414798B (zh) 基于rgb-d图像的头部姿态检测方法及***
CN105205858B (zh) 一种基于单个深度视觉传感器的室内场景三维重建方法
CN107578404B (zh) 基于视觉显著特征提取的全参考立体图像质量客观评价方法
CN104596502B (zh) 一种基于cad模型与单目视觉的物***姿测量方法
CN110517216B (zh) 一种基于多类型相机的slam融合方法及其***
Maier-Hein et al. Convergent iterative closest-point algorithm to accomodate anisotropic and inhomogenous localization error
US10813715B1 (en) Single image mobile device human body scanning and 3D model creation and analysis
Hoppe et al. Online Feedback for Structure-from-Motion Image Acquisition.
CN112132906B (zh) 一种深度相机与可见光相机之间的外参标定方法及***
CN107146254A (zh) 多相机***的相机外参数标定方法
CN107886546B (zh) 利用球像及公共自极三角形标定抛物折反射摄像机的方法
CN104376552A (zh) 一种3d模型与二维图像的虚实配准算法
CN104616348A (zh) 基于多目立体视觉的织物外观重建方法
CN104537707A (zh) 像方型立体视觉在线移动实时测量***
CN110044374A (zh) 一种基于图像特征的单目视觉测量里程的方法及里程计
CN111383285A (zh) 一种基于毫米波雷达与摄像机传感器融合标定方法及***
CN111462302B (zh) 基于深度编码网络的多视点人体动态三维重建方法及***
CN111060006A (zh) 一种基于三维模型的视点规划方法
JP2016217941A (ja) 3次元データ評価装置、3次元データ測定システム、および3次元計測方法
CN106500625A (zh) 一种远心立体视觉测量装置及其应用于物体三维形貌微米级精度测量的方法
TW201310004A (zh) 編列數位影像關係裝置
CN111189416A (zh) 基于特征相位约束的结构光360°三维面形测量方法
CN108182663A (zh) 一种毫米波图像效果增强方法、设备和可读存储介质
CN116030202B (zh) 一种三维图像重建方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140423

Termination date: 20161010