CN106989669B - 基于虚拟立体靶标的大视场高精度视觉***标定方法 - Google Patents
基于虚拟立体靶标的大视场高精度视觉***标定方法 Download PDFInfo
- Publication number
- CN106989669B CN106989669B CN201710082293.6A CN201710082293A CN106989669B CN 106989669 B CN106989669 B CN 106989669B CN 201710082293 A CN201710082293 A CN 201710082293A CN 106989669 B CN106989669 B CN 106989669B
- Authority
- CN
- China
- Prior art keywords
- target
- laser
- feature
- virtual
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种基于虚拟立体靶标的大视场高精度视觉***标定方法。本方法基于误差溯源思想,借助激光跟踪仪辅助,结合高精度转站算法,能够有效提高立体视觉***在大视场下的测量精度,克服了大尺寸高精度标定物难以制造、误差无从溯源等问题。该方法具有通用性,实际应用中,可以根据实际的测量环境,选取合适的高精度测量设备,在测量空间内布置任意形状的虚拟立体靶标,用于视觉***标定。相较于传统的平面标定法,本发明具有更高的测量精度及误差波动稳定性。
Description
所属技术领域
本发明涉及立体视觉测量***领域,具体涉及一种基于虚拟立体靶标的大视场高精度视觉***标定方法。
背景技术
如今立体视觉***因其非接触性、便携、低成本、信息量丰富等特点被广泛地应用于机器人引导、工业生产现场精密测量及航空航天等领域。随着工业技术的迅速发展,人们对于视觉测量***提出了更高的要求。
一台高精度测量设备的测量误差是可以追溯到上一级校准设备,即可以通过误差溯源链(参见:张曦,陈五一.激光跟踪仪测量曲面的测量不确定度研究.[J].计量学报.2006.4(27):107-112)追溯其测量结果的可信度。所谓误差溯源链是指一条具有规定不确定度的不间断比较链,使***测量结果能与规定的国家计量标准或国际计量标准联系起来(参见:施昌彦.现代计量学概论[M].北京:中国计量出版社,1994:124)。
由***的误差溯源分析可得,视觉***测量精度与相机标定精度有着最直接的关系,而标定靶标的精度直接影响相机标定精度。对于大视场视觉测量***(参见:刘建伟,梁晋,梁新合,等.大尺寸工业视觉测量***[J].光学精密工程,2010,18(1):126-134)而言,测量范围一般数米至数十米,由于现场环境难以控制,大尺寸标定靶标的制作工艺困难、高成本、靶标误差无从溯源等原因,许多传统的标定方法往往无法同时兼顾测量范围、测量精度及测量效率。因此,针对高精度大视场视觉***的标定方法一直是立体视觉领域的重点与难点。
目前,对于大视场视觉测量***而言,张正友提出的平面标定法(参见:Zhang Z.Aflexible new technique for camera calibration[J].Pattern Analysis and MachineIntelligence,IEEE Transactions on,2000,22(11):1330-1334)是一种应用最广泛的标定方法。但此类方法在标定板制作上存在一定的局限。普通印刷标定板存在平面度难以保证、印刷精度难以控制等问题;而高精度的陶瓷光刻标定板等也存在很多局限性,例如:成本较高、尺寸较小难以覆盖整个测量空间、远距离难以可靠识别图像特征等,因而测量***的工作范围和精度会受到限制,难以满足实际工业应用的测量需求。传统的标定方法在大视场下精度难以保证精度的原因主要是标定靶标的误差无从溯源。
发明内容
本发明的目的在于针对已有技术存在的缺陷,提供一种基于虚拟立体靶标的大视场高精度视觉***标定方法,能有效提高立体视觉***在大视场下的测量精度,克服了大尺寸高精度标定物难以制造误差无从溯源等问题。
为达到上述目的,本发明的构思是:
基于误差溯源思想,本发明需要借助某种高精度测量设备建立虚拟立体靶标,将其精度传递到靶标上。考虑到视觉***的测量范围、测量对象、非接触性等特点,本发明使用激光跟踪仪构建高精度虚拟立体靶标,则一条不间断的高精度视觉***的误差溯源链可被列出,如图2所示。其中,视觉***的测量精度可追溯至标定靶标,标定靶标的制造误差可追溯到激光跟踪仪,激光跟踪仪的测量精度则可追溯到计量级激光干涉仪,而计量级激光干涉仪的测量精度可通过层层追溯,最终追溯到国际计量局标准米的定义。因此视觉***的测量精度具有可靠性及可溯源性。
本发明采用的相机模型为针孔相机模型。假设空间中某一点P在世界坐标系与相机像素坐标系下的齐次坐标分别是(XW,YW,ZW,1)T与(uc,vc,1)T,则存在如公式1所示的映射关系(参照:马颂德,张正友,计算机视觉:计算理论与算法基础[M].北京:科学出版社,1998.)。式中,fx、fy分别为u、v轴上的尺度因子,可也称作相机的归一化焦距,u0、v0为相机的主点位置,相机的内参数矩阵K由这四个参数所组成;相机的外参数R为3×3正交单位旋转矩阵;T为3×1三维平移向量。相机标定的主要任务就是求解相机的内参数矩阵K,旋转矩阵R,平移矩阵T。利用一定的标定方法获得两台相机的内部参数和外部参数之后,即可以根据左、右图像中的匹配像点重建出对应空间点的三维坐标。
相机标定的求解过程是通过最小化代数距离实现的,不具备物理意义,可进一步使用最大似然估计准则对所有内外部参数进行优化。其实质为:空间点经投影变换计算出的理论像点与图像上的实际像点之间的距离的平方和最小,即使总体的重投影误差最小。设拍摄了n幅标定靶标图像,标定板上有m个参考点,公式2为最小化优化目标函数。其中,i代表第i幅图像,j代表第i幅图像上的第j个点,p(K,Ri,Ti,Pi j)代表第i幅标定靶标上的第j个空间三维点在第i幅图像上的投影点。
假设特征靶标(1)布置,参考图4,其中a,b,c,d,e,f,g…为M个激光跟踪仪靶球特征点(103);I,II,III,IV,V…为N个红外LED视觉特征靶标点(102)。特征靶标的形状不一定是平面,可根据实际环境进行设计。
根据上述发明构思,本发明采用下述技术方案:
一种基于虚拟立体靶标的大视场高精度视觉***标定方法,其特征在于一个虚拟立体靶标的实验现场环境进行标定,该现场环境含有特征靶标(1)、激光跟踪仪光笔附件T-probe(2)、激光跟踪仪(3)、跟踪仪控制器(4)、测量***上位机(5)、多相机视觉测量***(6)、相机,镜头,光源及红外滤镜组合(7)和视觉***视场范围(8),所述激光跟踪仪(3)及多相机视觉测量***(6)可同时测量放置于视觉***视场范围(8)中位置(0,1,2…N)的特征靶标(1);激光跟踪仪光笔附件T-probe(2)用于检测特征靶标(1)上的红外LED视觉特征靶标点(102);跟踪仪控制器(4)电连接而获取激光跟踪仪(3)的三维测量数据,并传输至测量***上位机(5);多相机视觉测量***(6)由多组相机,镜头,光源及红外滤镜组合(7)所构成,所获得的图像数据由连接线路传输至测量***上位机(5);标定的具体操作步骤如下:
A.将特征靶标(1)放置在初始位置0处,可仅在激光跟踪仪(3)的检测范围内。红外LED视觉特征靶标点(102)采用凸台式设计,不仅利于相机搭配红外滤镜进行高效追踪,也方便激光跟踪仪T-peobe光笔附件(2)测量该特征在测量坐标系下的三维坐标,结合高精度转站算法,非常便于虚拟立体靶标的构建,参考图5;激光跟踪仪(3)先测得激光跟踪仪靶球特征点(103)的三维坐标{XL0,YL0,ZL0}laser*M,再使用激光跟踪仪光笔附件T-probe(2)对于N个红外LED视觉特征靶标点(102)进行测量,可得到其在跟踪仪坐标系下的三维坐标{XC0,YC0,ZC0}laser*N;
B.将特征靶标(1)放置在位置i处,位置i必须同时在视觉***视场范围(8)和激光跟踪仪(3)测量范围内。先测得激光跟踪仪靶球特征点(103)坐标{XL1,YL1,ZL1}laser*M,相机可以观测红外LED视觉特征靶标点(102)在图像坐标系下的坐标{u1,v1}cam×2×N;要通过计算{XL1,YL1,ZL1}laser×M、{XL0,YL0,ZL0}laser×M之间的刚体变换再结合初始位置0的红外LED视觉特征靶标点(102)三维坐标{XC0,YC0,ZC0}laser*N,即可得到红外LED视觉特征靶标点(102)在位置i的三维坐标值{XC1,YC1,ZC1}laser*N;
C.为了确保转站的精度,特征靶标(1)每移动到一个新位置i,需要校验其转站误差ε,ε为0位置与i位置M个激光跟踪仪靶球特征点(103)之间距离偏差的最大值;误差过大的点将被剔除,不参与虚拟靶标的构建;
D.同理,将特征靶标(1)放置至视觉***视场范围(8)内的位置i,可测得{XLi,YLi,ZLi}laser*M,{ui,vi}cam*2*N,可计算出{XCi,YCi,ZCi}laser*N,虚拟立体靶标应尽可能布满整个测量空间,最终,假设采集了足够的特征点,共有i组{XCi,YCi,ZCi}laser*N,{ui,vi}cam*2*N可用于标定计算,即虚拟立体靶标共有i×N个特征点;
E.完成虚拟立体靶标点采集后,则可构建2i×N个方程,使用最小二乘法解出标定参数的初值,再将这些参数的初值带入公式(2)中,使用Levenberg-Marquardt算法(参照:Hongyan,Z.&Geng,Z.,Novel interpretation for Lev-enberg-Marquardt Algorithm.[J].Computer Enginee-ring and Applications,pp.5-8,2009.)进行迭代优化,直到迭代过程收敛,从而可实现标定参数的高精度求解。
有益效果
本发明的优势体现在:
1.基于误差溯源思想,提出一种具有通用性的大视场高精度视觉***标定方法。该方法可以根据实际的测量环境,选取合适的高精度测量设备,在测量空间内布置任意形状的、精度可溯源的虚拟立体靶标,用于视觉***标定。
2.设计了一种红外LED特征靶标点(102),不仅利于相机搭配红外滤镜进行高效追踪,其凸台式结构可使用激光跟踪仪T-peobe光笔附件(2)测量该特征在测量坐标系下的三维坐标,结合高精度转站算法,非常便于虚拟立体靶标的构建。
附图说明
图1为本发明基于虚拟立体靶标的视觉***标定方法流程框图
图2为本发明高精度视觉***误差溯源链
图3为本发明构建虚拟立体靶标的现场环境布置示意图
图4为本发明特征靶面布置示意图
图5为本发明红外LED特征靶标点的结构设计图
具体实施方式
下面结合附图及优选实施对本发明作进一步详细的说明:
实施例一:
参考图1~图5,本基于虚拟立体靶标的大视场高精度视觉***标定方法,其特征在于一个虚拟立体靶标的实验现场环境进行标定,该现场环境含有特征靶标(1)、激光跟踪仪光笔附件T-probe(2)、激光跟踪仪(3)、跟踪仪控制器(4)、测量***上位机(5)、多相机视觉测量***(6)、相机,镜头,光源及红外滤镜组合(7)和视觉***视场范围(8),所述激光跟踪仪(3)及多相机视觉测量***(6)可同时测量放置于视觉***视场范围(8)中位置(0,1,2…N)的特征靶标(1);激光跟踪仪光笔附件T-probe(2)用于检测特征靶标(1)上的红外LED视觉特征靶标点(102);跟踪仪控制器(4)电连接而获取激光跟踪仪(3)的三维测量数据,并传输至测量***上位机(5);多相机视觉测量***(6)由多组相机,镜头,光源及红外滤镜组合(7)所构成,所获得的图像数据由连接线路传输至测量***上位机(5);标定的具体操作步骤如下:
1)将特征靶标(1)放置在初始位置0处,可仅在激光跟踪仪(3)的检测范围内,红外LED视觉特征靶标点(102)采用凸台式设计,激光跟踪仪(3)先测得激光跟踪仪靶球特征点(103)的三维坐标{XL0,YL0,ZL0}laser*M,再使用激光跟踪仪光笔附件T-probe(2)对N个红外LED视觉特征靶标点(102)进行测量,可得到其在跟踪仪坐标系下的三维坐标{XC0,YC0,ZC0}laser*N;
2)将特征靶标(1)放置在新位置i处,先测得激光跟踪仪靶球特征点(103)坐标{XL1,YL1,ZL1}laser*M,相机可以观测红外LED视觉特征靶标点(102)在图像坐标系下的坐标{u1,v1}cam×2×N;要通过计算{XL1,YL1,ZL1}laser×M、{XL0,YL0,ZL0}laser×M之间的刚体变换再结合初始位置0的红外LED视觉特征靶标点(102)三维坐{XC0,YC0,ZC0}laser*N,即可得到红外LED视觉特征靶标点(102)在新位置i的三维坐标值{XC1,YC1,ZC1}laser*N;
3)为了确保转站的精度,特征靶标(1)每移动到一个新位置i,需要校验其转站误差ε,ε为0位置与i位置M个激光跟踪仪靶球特征点(103)之间距离偏差的最大值;
4)同理,将特征靶标(1)放置至视觉***视场范围(8)内的位置i,可测得{XLi,YLi,ZLi}laser*M,{ui,vi}cam*2*N,可计算出{XCi,YCi,ZCi}laser*N;虚拟立体靶标应尽可能布满整个测量空间,最终,采集了足够的特征点,共有i组{XCi,YCi,ZCi}laser*N,{ui,vi}cam*2*N可用于标定计算,即虚拟立体靶标共有i×N个特征点;
5)完成虚拟立体靶标点采集后,则可构建2i×N个方程,使用最小二乘法解出标定参数的初值,再将这些参数的初值带入中,使用Levenberg-Marquardt算法进行迭代优化,LM算法是一种非线性最小二乘算法,其利用梯度求最大(小)值的算法。它同时具有梯度法和牛顿法的优点。当λ很小时,步长等于牛顿法步长,当λ很大时,步长约等于梯度下降法的步长。当计算结果迭代收敛时,可实现标定参数的高精度求解。
实施例二:本实施例与实施例一基本相同,特别之处如下:所述的包括特征靶面(101)、I,II,III,IV,V…为N个红外LED视觉特征靶标点(102)、a,b,c,d,e,f,g…为M个激光跟踪仪靶球特征点(103),特征靶面(101)的形状不一定是平面,根据实际测量情况进行设计;红外LED视觉特征靶标点(102)及激光跟踪仪靶球特征点(103),使用热熔胶固定于特征靶面(101)上;凸台式红外LED视觉特征靶标点(102)的结构包括亚克力光扩散板(1201)、特征靶标点外壳(1202)、特征靶标点下盖(1203)、特征靶标点引线孔(1204),特征靶标点外壳(1202)为凸台式设计,亚克力光扩散板(1201)置于其凹槽处,使用紫外光固化胶固定;红外LED灯珠(1205)粘贴在特征靶标点下盖(1203)的上表面;特征靶标点下盖(1203)与特征靶标点外壳(1202)通过螺纹连接。
本发明创造拟保护的创新点
本发明需要保护的创新点是基于将高精度测量设备的精度传递给虚拟立体特征靶标的思想,使用激光跟踪仪构建虚拟立体靶标的标定方法。
需要说明的是,本发明虽已以较佳的实施案例披露如上,然而该实施案例并非用以限定本发明。对于任何熟悉本领域的技术人员而言,在不脱离本发明技术方案范围的情况下,都可利用上述揭示的技术内容对本发明技术方案作出许多可能的变动及修饰,或修改成为等同变化的等效实施案例。例如:使用三坐标测量机进行虚拟立体靶标的构建等。因此,凡是未脱离本发明技术方法的内容,依据本发明的技术实质对以上实施案例所作的任何简单修改或等同变化等,均仍属于本发明技术方案保护的范围内。
Claims (3)
1.一种基于虚拟立体靶标的大视场高精度视觉***标定方法,其特征在于一个虚拟立体靶标的实验现场环境进行标定,该现场环境含有特征靶标(1)、激光跟踪仪光笔附件T-probe(2)、激光跟踪仪(3)、跟踪仪控制器(4)、测量***上位机(5)、多相机视觉测量***(6)、相机,镜头,光源及红外滤镜组合(7)和视觉***视场范围(8),所述激光跟踪仪(3)及多相机视觉测量***(6)可同时测量放置于视觉***视场范围(8)中位置(0,1,2…N)的特征靶标(1);激光跟踪仪光笔附件T-probe(2)用于检测特征靶标(1)上的红外LED视觉特征靶标点(102);跟踪仪控制器(4)电连接而获取激光跟踪仪(3)的三维测量数据,并传输至测量***上位机(5);多相机视觉测量***(6)由多组相机,镜头,光源及红外滤镜组合(7)所构成,所获得的图像数据由连接线路传输至测量***上位机(5);标定的具体操作步骤如下:
1)将特征靶标(1)放置在初始位置0处,可仅在激光跟踪仪(3)的检测范围内,红外LED视觉特征靶标点(102)采用凸台式设计,激光跟踪仪(3)先对M个激光跟踪仪靶球特征点(103)进行测量,可得到其在跟踪仪坐标系下的三维坐标{XL0,YL0,ZL0}laser*M,再使用激光跟踪仪光笔附件T-probe(2)对N个红外LED视觉特征靶标点(102)进行测量,可得到其在跟踪仪坐标系下的三维坐标{XC0,YC0,ZC0}laser*N;
2)将特征靶标(1)放置在新位置i处,先测得激光跟踪仪靶球特征点(103)坐标{XL1,YL1,ZL1}laser*M,相机可以观测红外LED视觉特征靶标点(102)在图像坐标系下的坐标{u1,v1}cam×2×N;要通过计算{XL1,YL1,ZL}1laser×M、{XL0,YL0,ZL0}laser×M之间的刚体变换再结合初始位置0的红外LED视觉特征靶标点(102)三维坐标{XC0,YC0,ZC0}laser*N,即可得到红外LED视觉特征靶标点(102)在新位置i的三维坐标值{XC1,YC1,ZC1}laser*N;
3)为了确保转站的精度,特征靶标(1)每移动到一个新位置i,需要校验其转站误差ε,ε为0位置与i位置M个激光跟踪仪靶球特征点(103)之间距离偏差的最大值;
4)同理,将特征靶标(1)放置至视觉***视场范围(8)内的位置i,可测得{XLi,YLi,ZLi}laser*M,{ui,vi}cam*2*N,可计算出{XCi,YCi,ZCi}laser*N;虚拟立体靶标应尽可能布满整个测量空间,最终,采集了足够的特征点,共有i组{XCi,YCi,ZCi}laser*N,{ui,vi}cam*2*N可用于标定计算,即虚拟立体靶标共有i×N个特征点;
5)完成虚拟立体靶标点采集后,则可构建2i×N个方程,使用最小二乘法解出标定参数的初值,再将这些参数的初值带入中,使用Levenberg-Marquardt算法进行迭代优化,直到迭代过程收敛,从而可实现标定参数的高精度求解;LM算法是一种非线性最小二乘算法,其利用梯度求最大值、最小值的算法,它同时具有梯度法和牛顿法的优点,当λ很小时,步长等于牛顿法步长,当λ很大时,步长约等于梯度下降法的步长。
2.根据权利要求1所述的一种基于虚拟立体靶标的大视场高精度视觉***标定方法,其特征在于:所述特征靶标(1)的布置设计为:包括特征靶面(101)、I,II,III,IV,V…为N个红外LED视觉特征靶标点(102)、a,b,c,d,e,f,g…为M个激光跟踪仪靶球特征点(103),特征靶面(101)的形状不一定是平面,根据实际测量情况进行设计;红外LED视觉特征靶标点(102)及激光跟踪仪靶球特征点(103),使用热熔胶固定于特征靶面(101)上。
3.根据权利要求1所述的一种基于虚拟立体靶标的大视场高精度视觉***标定方法,其特征在于所述:凸台式红外LED视觉特征靶标点(102)的结构包括亚克力光扩散板(1201)、特征靶标点外壳(1202)、特征靶标点下盖(1203)、特征靶标点引线孔(1204),特征靶标点外壳(1202)为凸台式设计,亚克力光扩散板(1201)置于其凹槽处,使用紫外光固化胶固定;红外LED灯珠(1205)粘贴在特征靶标点下盖(1203)的上表面;特征靶标点下盖(1203)与特征靶标点外壳(1202)通过螺纹连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710082293.6A CN106989669B (zh) | 2017-02-16 | 2017-02-16 | 基于虚拟立体靶标的大视场高精度视觉***标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710082293.6A CN106989669B (zh) | 2017-02-16 | 2017-02-16 | 基于虚拟立体靶标的大视场高精度视觉***标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106989669A CN106989669A (zh) | 2017-07-28 |
CN106989669B true CN106989669B (zh) | 2018-12-07 |
Family
ID=59414225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710082293.6A Active CN106989669B (zh) | 2017-02-16 | 2017-02-16 | 基于虚拟立体靶标的大视场高精度视觉***标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106989669B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107462392A (zh) * | 2017-09-01 | 2017-12-12 | 南京航空航天大学 | 基于虚拟模板的高精度自动标定方法 |
CN107990940B (zh) * | 2017-12-20 | 2020-09-11 | 武汉惟景三维科技有限公司 | 一种基于立体视觉测量技术的运动物体追踪方法 |
CN109754435B (zh) * | 2019-01-04 | 2021-08-10 | 北京航空航天大学 | 一种基于小靶标模糊图像的摄像机在线标定方法 |
CN110111394A (zh) * | 2019-05-16 | 2019-08-09 | 湖南三一快而居住宅工业有限公司 | 基于机械手特征对摄像机自动标定的方法及装置 |
CN110207605B (zh) * | 2019-06-13 | 2024-06-14 | 广东省特种设备检测研究院东莞检测院 | 一种基于机器视觉的金属结构变形的测量装置及方法 |
CN110349152A (zh) * | 2019-07-16 | 2019-10-18 | 广州图普网络科技有限公司 | 人脸图像质量检测方法及装置 |
CN110455815B (zh) * | 2019-09-05 | 2023-03-24 | 西安多维机器视觉检测技术有限公司 | 一种电子元器件外观缺陷检测的方法及*** |
CN112815832B (zh) * | 2019-11-15 | 2022-06-07 | 中国科学院长春光学精密机械与物理研究所 | 一种基于3d靶标的测量相机坐标系计算方法 |
CN111062091B (zh) * | 2019-12-25 | 2023-05-23 | 中国航空工业集团公司西安飞机设计研究所 | 一种飞机全***参数量值溯源链模型构建方法 |
CN111179357B (zh) * | 2019-12-30 | 2023-09-29 | 南京航空航天大学 | 一种基于平面靶标组合的大视场相机标定方法 |
CN111397581B (zh) * | 2020-02-27 | 2022-01-18 | 清华大学 | 基于红外led点阵的视觉定位靶标及靶标测量场 |
CN111238375B (zh) * | 2020-03-16 | 2022-06-03 | 北京卫星制造厂有限公司 | 基于激光跟踪仪的移动检测机器人大型构件外形重构方法 |
CN111598959A (zh) * | 2020-06-28 | 2020-08-28 | 中国科学院深圳先进技术研究院 | 光学成像***的标定靶标和标定方法 |
CN112285677B (zh) * | 2020-10-29 | 2024-02-02 | 中国航空工业集团公司洛阳电光设备研究所 | 外场缩比激光合作目标的试验装置 |
CN112857212B (zh) * | 2020-12-30 | 2022-09-30 | 张东昱 | 一种大型结构多点位移和转动响应同步监测***及其数据分析方法 |
CN113063560A (zh) * | 2021-03-23 | 2021-07-02 | 中国人民解放军国防科技大学 | 流场成像的测量***和主*** |
CN113269836B (zh) * | 2021-03-30 | 2024-05-28 | 深圳市世宗自动化设备有限公司 | 3d相机标定方法、装置、计算机设备及其存储介质 |
CN114137799B (zh) * | 2021-10-25 | 2024-01-16 | 合肥众群光电科技有限公司 | 一种激光直接成像设备内层靶标标定方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1078703C (zh) * | 1999-07-02 | 2002-01-30 | 清华大学 | 目标空间位置及姿态激光跟踪测量***及其测量 |
CN100565097C (zh) * | 2007-12-29 | 2009-12-02 | 北京航空航天大学 | 一种基于二维交比不变的结构光传感器结构参数标定方法 |
CN101532821B (zh) * | 2009-04-24 | 2010-09-22 | 北京航空航天大学 | 一种激光跟踪视觉导引测量***的全局校准方法 |
CN101551240B (zh) * | 2009-05-15 | 2010-08-18 | 北京工业大学 | 基于激光跟踪技术的大型齿轮测量方法 |
CN102663763B (zh) * | 2012-04-25 | 2014-08-13 | 南京航空航天大学 | 一种面向大视场高精度视觉测量的摄像机标定方法 |
JP2013250110A (ja) * | 2012-05-31 | 2013-12-12 | Hitachi Information & Control Solutions Ltd | レーザ計測装置の校正システム、レーザ計測装置の校正方法、及び、レーザ計測装置の校正装置 |
CN103175485A (zh) * | 2013-02-20 | 2013-06-26 | 天津工业大学 | 一种飞机涡轮发动机叶片修复机器人的视觉标定方法 |
CN103604367B (zh) * | 2013-11-14 | 2016-10-12 | 上海交通大学 | 一种用于激光三角测量***的校准装置和方法 |
-
2017
- 2017-02-16 CN CN201710082293.6A patent/CN106989669B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN106989669A (zh) | 2017-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106989669B (zh) | 基于虚拟立体靶标的大视场高精度视觉***标定方法 | |
CN107883870B (zh) | 基于双目视觉***和激光跟踪仪测量***的全局标定方法 | |
CN106017436B (zh) | 基于全站仪及摄影测量技术的bim增强现实放样*** | |
CN102183214B (zh) | 一种大口径非球面镜结构光检测方法 | |
CN110966935B (zh) | 基于标志点的偏折测量***一体化几何标定方法 | |
CN103759669A (zh) | 一种大型零件的单目视觉测量方法 | |
CN109163657A (zh) | 一种基于双目视觉三维重建的圆形目标位姿检测方法 | |
CN105067011A (zh) | 一种基于视觉标定及坐标转换的测量***整体校准方法 | |
CN106504287B (zh) | 基于模板的单目视觉目标空间定位*** | |
CN109827521A (zh) | 一种快速多线结构光视觉测量***标定方法 | |
CN108022267A (zh) | 一种摄像机标定装置及标定方法 | |
CN109900205A (zh) | 一种高精度的单线激光器和光学相机的快速标定方法 | |
CN108648242A (zh) | 基于激光测距仪辅助无公共视场的两相机标定方法及装置 | |
CN103697811B (zh) | 一种相机与结构光源结合获取物体轮廓三维坐标的方法 | |
Liu et al. | On-site calibration method for outdoor binocular stereo vision sensors | |
Zhang et al. | Novel method of positioning optical freeform surfaces based on fringe deflectometry | |
CN104748714B (zh) | 一种星载索网可展开天线形面精度测量方法 | |
CN110146032B (zh) | 基于光场分布的合成孔径相机标定方法 | |
CN204010037U (zh) | 一种简易式摄像机标定装置 | |
CN113916128A (zh) | 一种基于光笔式视觉测量***的提高精度的方法 | |
CN109360267A (zh) | 一种薄物体快速三维重建方法 | |
CN117419640A (zh) | 基于双目立体视觉的空间点三维坐标测量方法 | |
Wang et al. | An accurate and stable pose estimation method based on geometry for port hoisting machinery | |
CN107515012B (zh) | 基于单轴旋转机构的动态视觉测量***校准装置及方法 | |
CN110260817B (zh) | 基于虚拟标志点的复杂曲面偏折测量自定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |