CN101630406B - 摄像机的标定方法及摄像机标定装置 - Google Patents

摄像机的标定方法及摄像机标定装置 Download PDF

Info

Publication number
CN101630406B
CN101630406B CN200810130737XA CN200810130737A CN101630406B CN 101630406 B CN101630406 B CN 101630406B CN 200810130737X A CN200810130737X A CN 200810130737XA CN 200810130737 A CN200810130737 A CN 200810130737A CN 101630406 B CN101630406 B CN 101630406B
Authority
CN
China
Prior art keywords
image
deriving means
camera
degree
video camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN200810130737XA
Other languages
English (en)
Other versions
CN101630406A (zh
Inventor
李凯
刘源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Global Innovation Polymerization LLC
Tanous Co
Original Assignee
Huawei Device Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Device Co Ltd filed Critical Huawei Device Co Ltd
Priority to CN200810130737XA priority Critical patent/CN101630406B/zh
Publication of CN101630406A publication Critical patent/CN101630406A/zh
Application granted granted Critical
Publication of CN101630406B publication Critical patent/CN101630406B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明提供摄像机的标定方法及摄像机标定装置,应用于图像与视频技术领域。本发明实施例中,主要通过深度获取装置获得特征点的三维世界坐标,并利用所述特征点的三维世界坐标及其在待标定的摄像机拍摄的图像中的图像坐标的对应关系,实现对待标定摄像机的标定,与现有技术通过图像间单应性矩阵标定多摄像机的方案相比,由于不需要估计主从摄像机间的单应性矩阵,因此获取的摄像机的参数比较稳定而准确;且本发明能准确的获得特征点的三维世界坐标,在标定时,标定物的移动可以不在固定的方向,提高了摄像机标定的可操作性;另外本发明的摄像机的标定方法可以对多台邻近摄像机采用相同的标定方法,简化摄像机的标定过程。

Description

摄像机的标定方法及摄像机标定装置
技术领域
本发明涉及图像与视频技术领域,尤其涉及摄像机的标定方法及摄像机标定装置。
背景技术
在计算机视觉和摄影测量领域中,为了获取计算机图像象素点到实际物理空间点的对应关系,必须进行摄像机标定。摄像机标定是指在一定的摄像机模型下,经过对其图像进行处理,利用一系列数学变换和计算方法,求取摄像机模型的内部和外部参数的过程。目前已有大量的摄像机标定方法,其中包括基于特定的实验条件如形状、尺寸已知的标定参照物求取摄像机模型参数的传统的摄像机标定方法,也有不依赖于标定参照物,仅利用摄像机在运动过程中周围环境的图像与图像之间的对应关系对摄像机进行标定的摄像机自标定方法。传统的使用标定参照物如标定模板的方法获得了较广泛的应用,其中典型的有Tsai的两步法,这些传统的方法由于在拍摄和标定过程中一直需要使用标定参照物,因而给拍摄操作及标定方法使用带来了很大的不方便。
在自由视点视频应用中,获取多摄像机的内外参是非常必要的,图像的极线校正、深度/视差图的获取、自由视频的插值生成等几乎都要用到摄像机内外参。如果采用传统的摄像机标定方法对多台摄像机标定,需要对每台摄像机逐个利用标定参照物来进行标定,实现起来较为复杂和繁琐,特别是在摄像机模型参数发生变化时,如何快速、有效对各台摄像机进行重新标定是一个必须解决的问题。
现有技术中提供一种不使用标定模板而通过图像间单应性矩阵标定多摄像机的方案,该方案对多摄像机进行标定时包括:一组摄像机中的每个摄像机同步地捕获一幅图像,其中一台摄像机为主摄像机,其它摄像机为从摄像机;从每个摄像机捕获到的每幅图像中提取特征点;使用提取到的特征点,估计一组图像间的单应性矩阵;使用所述单应性矩阵,得到每个摄像机的外部参数的一个线性解。
在实现本发明的过程中,发明人发现上述现有技术的摄像机的标定方案至少存在以下问题:上述通过图像间单应性矩阵标定多摄像机的方案需要估计主从摄像机间的单应性矩阵才能求得摄像机的外部参数,由于单应性矩阵的估计过程的稳定性和可靠性均较差,因此依此所求得的摄像机的外部参数也较差;另外,采用标定物标定方法,需要对标定物在固定方向进行移动,其可操作性也较差以及标定过程的复杂度较高。
发明内容
本发明实施例提供摄像机的标定方法及摄像机标定装置,采用本发明的摄像机的标定方法可以获取较准确的摄像机的参数,提高了摄像机标定的可操作性。
本发明实施例提供的一种摄像机的标定方法,包括:
对深度获取装置拍摄的图像和所述深度获取装置邻近的摄像机拍摄的图像分别进行特征点检测;
将所述检测的深度获取装置拍摄的图像的特征点与所述深度获取装置邻近的摄像机拍摄的图像的特征点进行匹配,确定所述深度获取装置拍摄的图像与所述深度获取装置邻近的摄像机拍摄的图像之间的可匹配特征点;
基于所述深度获取装置,获得所述可匹配特征点的三维世界坐标;
根据所述可匹配特征点的三维世界坐标及所述可匹配特征点在所述深度获取装置邻近的摄像机拍摄的图像中的图像坐标的对应关系,确定所述深度获取装置邻近的摄像机的参数。
本发明提供的一种摄像机的标定方法,包括:
对深度获取装置邻近的摄像机拍摄的图像和所述深度获取装置非邻近的摄像机拍摄的图像分别进行特征点检测;
将所述检测的深度获取装置邻近的摄像机拍摄的图像和所述深度获取装置非邻近的摄像机拍摄的图像特征点进行匹配,确定所述深度获取装置邻近的摄像机拍摄的图像和所述深度获取装置非邻近的摄像机拍摄的图像之间的可匹配特征点;
根据预先确定的所述深度获取装置邻近的摄像机的参数,获得所述可匹配特征点的三维世界坐标;
根据所述可匹配特征点的三维世界坐标及所述可匹配特征点在所述不邻近的摄像机拍摄的图像中的图像坐标的对应关系,获得所述深度获取装置非邻近的摄像机的参数。
本发明实施例提供的一种摄像机标定装置,包括:
特征点检测单元,用于对深度获取装置拍摄的图像和所述深度获取装置邻近的摄像机拍摄的图像分别进行特征点检测;
特征点匹配单元,用于将所述特征点检测单元检测的深度获取装置拍摄的图像的特征点与所述深度获取装置邻近的摄像机拍摄的图像的特征点进行匹配,确定所述深度获取装置拍摄的图像与所述深度获取装置邻近的摄像机拍摄的图像之间的可匹配特征点;
特征点三维坐标获取单元,用于基于所述深度获取装置,获得所述可匹配特征点的三维世界坐标;
标定单元,用于根据所述可匹配特征点的三维世界坐标及所述可匹配特征点在所述深度获取装置邻近的摄像机拍摄的图像中的图像坐标的对应关系,获得所述邻近的摄像机的参数。
从以上技术方案可以看出,本发明实施例中,主要通过深度获取装置获得特征点的三维世界坐标,并利用所述特征点的三维世界坐标及其在待标定的摄像机拍摄的图像中的图像坐标的对应关系,实现对待标定摄像机的标定,与现有技术通过图像间单应性矩阵标定多摄像机的方案相比,由于不需要估计主从摄像机间的单应性矩阵,因此获取的摄像机的参数比较稳定而准确;且本发明能准确的获得特征点的三维世界坐标,在标定时,标定物的移动可以不在固定的方向,提高了摄像机标定的可操作性;另外本发明的摄像机的标定方法可以对多台邻近摄像机采用相同的标定方法,简化摄像机的标定过程。
附图说明
图1是本发明摄像机的标定方法实施例一的流程图;
图2是本发明摄像机的标定方法实施例二中深度摄像机及其邻近的摄像机构成的2D/3D多视点视频会议***的结构示意图;
图3是本发明摄像机的标定方法实施例二的流程图;
图4是本发明摄像机的标定方法实施例三中双目摄像机及其邻近的摄像机构成的2D/3D多视点视频会议***的结构示意图;
图5是本发明摄像机的标定方法实施例三的流程图;
图6是是本发明摄像机的标定方法实施例五中多个深度获取装置构成的2D/3D多视点视频会议***的结构示意图;
图7是本发明摄像机的标定方法实施例六的流程图;
图8是本发明摄像机标定装置实施例一的结构示意图;
图9是本发明摄像机标定装置实施例二的结构示意图;
图10是本发明摄像机标定装置实施例三的结构示意图;
图11是本发明摄像机标定装置实施例四的结构示意图。
具体实施方式
下面结合附图,对本发明提供的摄像机的标定方法与装置的推荐实施例进行详细描述。
参考图1,本发明摄像机的标定方法实施例一包括:
A1、对深度获取装置拍摄的图像和所述深度获取装置邻近的摄像机拍摄的图像分别进行特征点检测。
可以理解,本实施例中的深度获取装置是指,通过物理方式如深度摄像机或通过软件方式如传统的立体匹配方法获取深度信息的装置。而深度是摄像机距离所拍摄物体的距离,是和视差相关的一个量。一般,深度大,则视差小;深度小,则视差大。根据视差深度模型,可以求出视差p和深度zp的关系:
x L D = x p D - z p x R - x B D = x p - x B D - z p ⇒ x L - x R + x B D = x B D - z p ⇒ p = x B ( 1 - D D - z p ) = x B ( 1 z p D - 1 + 1 )
可以看出,视差为深度的一个非线性函数。在很多应用中,D相比zp要大很多,可以适用线性模型: p ≈ - x B D z p 。因此可以将上述非线性函数简化为线性函数,从而提高计算效率。
在本发明实施例中,所述深度获取装置可以是单台或者至少两台深度摄像机,也可以是包括至少两台普通摄像机即双目摄像机。其中深度获取装置包括深度摄像机时,以一种能够直接获取深度信息的摄像机为例,该摄像机是通过物理的方法直接测量获取到景物距离摄像机的距离,如通过雷达、红外等方式,并以灰度图像的形式表示。灰度级越高表示深度越小,视差越大;灰度级越小表示深度越大,视差越小。当深度获取装置包括至少两台普通摄像机时,是利用双目摄像机间的一系列约束关系,对左右摄像机拍摄图像进行立体匹配,求出视差,进而利用视差与深度的模型关系,求解出深度图。
所述深度获取装置邻近的摄像机主要是指该摄像机可以拍摄到深度获取装置所拍摄场景的至少一部分。
所述检测到的特征点是用二维坐标表示的图像的特征信息,在检测的过程中要保证检测的特征点对图像缩放、平移、旋转等变换保持不变性,即为稳定的特征点。
A2、将所述检测的深度获取装置拍摄的图像的特征点与所述深度获取装置邻近的摄像机拍摄的图像的特征点进行匹配,确定所述深度获取装置拍摄的图像与所述深度获取装置邻近的摄像机拍摄的图像之间的可匹配特征点。
所述可匹配特征点是指深度获取装置拍摄的图像和与所述深度获取装置邻近的摄像机拍摄的图像的特征信息相同的点。
A3、基于所述深度获取装置,获得所述可匹配特征点的三维世界坐标。
在本实施例中,根据深度获取装置获取的深度信息或者视差信息即可确定所述可匹配特征点的三维世界坐标。
A4、根据所述可匹配特征点的三维世界坐标,及所述可匹配特征点在所述深度获取装置邻近的摄像机拍摄的图像中的图像坐标的对应关系,确定所述深度获取装置邻近的摄像机的参数。
其中,可以采用已有的摄像机标定方法(如:Tsai标定法、平面标定法等)通过步骤A4获得邻近摄像机的参数,在此不再赘述。
从以上技术方案可以看出,本发明实施例中,主要通过深度获取装置获得特征点的三维世界坐标,并利用所述特征点的三维世界坐标及其在待标定的摄像机拍摄的图像中的图像坐标的对应关系,实现对待标定摄像机的标定,与现有技术通过图像间单应性矩阵标定多摄像机的方案相比,由于不需要估计主从摄像机间的单应性矩阵,因此获取的摄像机的参数比较稳定而准确;且本发明能准确的获得特征点的三维世界坐标,在标定时,标定物的移动可以不在固定的方向,提高了摄像机标定的可操作性;另外本发明的摄像机的标定方法可以对多台邻近摄像机采用相同的标定方法,简化摄像机的标定过程。
本发明摄像机的标定方法实施例二中以深度摄像机作为深度获取装置,参照图2为一个深度摄像机和邻近摄像机构成的2D/3D多视点视频会议***,本实施例的摄像机的标定方法的流程图如图3所示,包括:
B1、对深度摄像机拍摄的二维图像和该深度摄像机邻近的摄像机拍摄的图像分别进行特征点检测。
深度摄像机进行拍摄可以获得普通的RGB二维图像及其对应的深度图。
B2、对所述检测特征点进行匹配,确定所述深度摄像机拍摄的二维图像和该深度摄像机邻近的摄像机拍摄的图像之间的可匹配特征点。
在本实施例中,深度摄像机可以只在一组参数条件下拍摄获得单幅二维图像,也可以在至少两组不同参数条件下拍摄获取至少两幅二维图像。对于后者,可以采用以下两种不同的匹配方式:
方式一、在对所述的至少两幅二维图像分别进行特征点检测后,对所述的至少两幅二维图像的各自的特征点和深度摄像机邻近的摄像机拍摄的图像的特征点进行匹配,这样,所确定的可匹配特征点是所述至少两幅二维图像与深度摄像机邻近的摄像机拍摄的图像的特征点的交集。
方式二、在对所述的至少两幅二维图像分别进行特征点检测后,对所述的至少两幅二维图像分别与所述邻近的摄像机拍摄的图像进行匹配,这样,所确定的可匹配特征点是所述至少两幅二维图像分别与所述邻近的摄像机拍摄的图像相匹配的特征点的并集。
B3、根据深度摄像机拍摄获得的深度图,获得所述可匹配特征点的三维世界坐标。
其中,对于所述B2中的匹配方式一,由于所述可匹配特征点在深度摄像机在不同参数条件下拍摄的各幅图像中均存在,因此可以根据深度摄像机拍摄的任一深度图都可获得可匹配特征点的三维世界坐标;而对于所述B2中的匹配方式二,由于可匹配特征点可能只在深度摄像机在不同参数条件下拍摄的部分图像中存在,因此,需要根据存在可匹配特征点的深度图来获得可匹配点的三维世界坐标。
B4、根据所述可匹配特征点的三维世界坐标及所述可匹配特征点在所述邻近的摄像机拍摄的图像中的图像坐标的对应关系,获得所述邻近的摄像机的参数。
其中,可以采用已有的摄像机标定方法(例如:Tsai标定法、棋盘格标定法和平面标定法等)获得邻近摄像机的参数,在此不再赘述。
本实施例是实施例一的具体应用,在本实施例中以深度摄像机作为深度获取装置,这样在获取可匹配特征点的三维世界坐标时,通过物理的直观的方法获得深度图,再结合所述可匹配特征点的信息来获得三维世界坐标。这种方法比较简单且直观,且获得的三维世界坐标比较准备。
本发明摄像机的标定方法实施例三中以至少两台普通的摄像机作为深度获取装置,参照图4为双目摄像机即两台普通摄像机和邻近摄像机构成的2D/3D多视点视频会议***,本实施例以两台摄像机的标定方法为例,流程图如图5所示,包括:
C1、对双目摄像机拍摄的图像和所述双目摄像机邻近的摄像机拍摄的图像分别进行特征点检测。
其中,双目摄像机拍摄的图像可以是所述双目摄像机在不同参数条件下,拍摄包含标定模板的场景所得到的至少两组图像中分别选取的至少两幅图像。如果在拍摄多组图像时,实验的光照等环境条件以及所拍图像清晰程度相同,选取其中哪一幅图像对结果影响并不大。一般而言,可以直接选取各组的第一幅图像。
C2、对所述检测的特征点进行匹配,确定所述双目摄像机拍摄的图像和所述双目摄像机邻近的摄像机拍摄的图像之间的可匹配特征点。
在本实施例中,可以对所选择的至少两幅图像各自的特征点和深度摄像机邻近的摄像机拍摄的图像的特征点进行匹配,如实施例二中的匹配方式一所述,这样,所确定的可匹配特征点是所述至少两幅二维图像与双目摄像机邻近的摄像机拍摄的图像的特征点的交集。
C3、根据所述双目摄像机的至少两组不同参数,以及所述可匹配特征点在所述双目摄像机拍摄的图像中的图像坐标,获得所述可匹配特征点的三维世界坐标。
其中,所述双目摄像机的至少两组不同参数是根据现有标定法标定的双目摄像机的参数,可以通过双目摄像机在不同参数条件下,对同一场景拍摄的至少两组包含标定模板的图像(步骤C1中所述的至少两幅图像是在这里所述的至少两组图像中分别选取的),并对所述至少两组图像分别执行下面步骤C31至C34所获得的。其中,参数条件的变化不需要太大,以保证在不同参数条件下所拍摄的图像中的相同场景部分不会太少,为方便描述,以下以两组不同参数的情况为例进行描述:
C31、检测所述双目摄像机在同一组参数条件下拍摄的一组图像棋盘格的非共面的角点即特征点。这里可以通过标定模板在摄像机的光轴方向的移动来检测图像棋盘格非共面的角点。
C32、获得所述角点的图像坐标(xf,yf),可以理解,根据图像的不同层次的坐标系之间的变换公式,可以获得所述角点的图像象素坐标。
C33、确定所述角点三维世界坐标(xw,yw,zw),由于在步骤C31中是通过标定模板在摄像机的光轴方向移动来检测图像棋盘个非共面的角点,所述角点的三维世界坐标是固定的。
C34、根据所述角点的图像坐标和所述角点的三维世界坐标,对所述双目摄像机进行标定,确定双目摄像机参数。
通过上述方法,可以分别获取两组摄像机参数:f1、(Cx 1,Cy 1)、k1 1、sx 1、r11 1、r12 1、r13 1、r21 1、r22 1、r23 1、r31 1、r32 1、r33 1、Tx 1、Ty 1、Tz 1;f2、(Cx 2,Cy 2)、k1 2、sx 2、r11 2、r12 2、r13 2、r21 2、r22 2、r23 2、r31 2、r32 2、r33 2、Tx 2、Ty 2、Tz 2。其中上标1、2分别表示第I组参数和第II组参数。其中f是内参焦距(mm),Cx,Cy分别是光心的象素坐标,k1是镜头径向畸变的一阶系数,sx是非确定性标度尺寸因子。外部参数R、T分别是三维空间世界坐标系与摄像机坐标系之间的旋转矩阵和平移向量。其中Tx,Ty,Tz是从世界坐标系到相机坐标系变换的沿三个坐标轴的平移量。
若相机坐标系在世界坐标系下的方向:绕X轴逆时针旋转角度α,绕Y轴逆时针旋转角度β,绕Z轴逆时针旋转角度γ,则旋转矩阵为R=RαRβRγ
在经过特征点检测和匹配之后,可以获取到可匹配特征点在所选择的双目摄像机拍摄的两幅图像(以下称为图像1和图像2)中的图像坐标(xf 1,yf 1)和(xf 2,yf 2);其中,上标1和2分别表示图像1和图像2。
在本实施例中,还可以对(xf 1,yf 1)和(xf 2,yf 2)进行畸变消除处理,具体而言,可以对每个可匹配特征点在图像1和图像2中的图像坐标(xf 1,yf 1)和(xf 2,yf 2),分别通过以下的公式(1)到(6)求出经过畸变消除处理的理想图像坐标(xu 1,yu 1)和(xu 2,yu 2):
xd=d′x(xf-Cx)/sx  (1)
yd=dy(yf-Cy)       (2)
xu=xd(1+k1r2)      (3)
yu=yd(1+k1r2)      (4)
d x ′ = d x N cx N fx - - - ( 5 )
r 2 = x d 2 + y d 2 - - - ( 6 )
其中(xd,yd)是可匹配特征点的实际图像坐标,dx,dy分别是x方向(扫描线方向)和y方向相邻CCD感光单元中心之间的距离(mm),Ncx是X方向感光单元的数目(由摄像机厂家提供),Nfx是计算机每行采样的象素数目,即图像的X方向尺寸(象素pix个数)。
由于已经求出图像1与图像2的对应的摄像机参数,以及可匹配特征点在图像1与图像2中的理想的图像坐标,就可以对每个可匹配特征点计算它的三维世界坐标(xw,yw,zw)了,可以通过求解下面的超定线性方程组(7)求出三维世界坐标的近似最优解,该方程组可以通过最小二乘法拟合求解。
( f 1 r 11 1 - x u 1 r 31 1 ) x w + ( f 1 r 12 1 - x u 1 r 32 1 ) y w + ( f 1 r 13 1 - x u 1 r 33 1 ) z w = x u 1 T z 1 - f 1 T x 1 ( f 1 r 21 1 - y u 1 r 31 1 ) x w + ( f 1 r 22 1 - y u 1 r 32 1 ) y w + ( f 1 r 23 1 - y u 1 r 33 1 ) z w = y u 1 T z 1 - f 1 T y 1 ( f 2 r 11 2 - x u 2 r 31 2 ) x w + ( f 2 r 12 2 - x u 2 r 32 2 ) y w + ( f 2 r 13 2 - x u 2 r 33 2 ) z w = x u 2 T z 2 - f 2 T x 2 ( f 2 r 21 2 - y u 2 r 31 2 ) x w + ( f 2 r 22 2 - y u 2 r 32 2 ) y w + ( f 2 r 23 2 - y u 2 r 33 2 ) z w = y u 2 T z 2 - f 2 T y 2 - - - ( 7 )
C4、根据所述可匹配特征点的三维世界坐标及所述可匹配特征点在所述邻近的摄像机拍摄的图像中的图像坐标的对应关系,获得所述邻近的摄像机的参数。
在经过特征点检测和匹配之后,可以获取到可匹配特征点在邻近的摄像机拍摄的图像中的图像坐标。
可以采用已有的摄像机标定方法(如Tsai标定法、平面标定法等)获得邻近摄像机的参数,在此不再赘述。
本实施例是实施例一的具体应用,在本实施例中以双目摄像机作为深度获取装置,这样在获取可匹配特征点的三维世界坐标时,预先获得的双目摄像机的参数,再结合所述可匹配特征点的信息来获得三维世界坐标。这种方法比较容易实现,需要至少两台普通摄像机就可以达到深度摄像机获得深度信息的功能。
本发明摄像机的标定方法实施例四中,可以对于单个深度获取装置在至少两组不同参数条件下分别拍摄的图像,分别执行本发明摄像机的标定方法实施例二或实施例三任一所述的方法,获得邻近的摄像机的至少两组参数;之后对所获得的至少两组参数进行加权平均,获得所述邻近的摄像机的参数。
可以理解这里的单个深度获取装置可以是单台深度摄像机,如实施例二所述;也可以是至少两台普通摄像机,如实施例三所述。
本发明摄像机的标定方法实施例五中,可以通过如图6所示的多个深度获取装置构成的2D/3D多视点视频会议***进行标定,对于至少两个深度获取装置分别拍摄的图像,分别执行本发明摄像机的标定方法实施例二或实施例三任一所述的方法,获得邻近的摄像机的至少两组参数;之后对所获得的至少两组参数进行加权平均,获得所述邻近的摄像机的参数。
可以理解这里的多个深度获取装置可以是至少两台深度摄像机,而每台深度摄像机对其邻近的摄像机标定的方法如实施例二所述;也可以是至少两台普通摄像机与至少一台深度摄像机的组合,至少两台普通摄像机对其邻近的摄像机标定的方法如实施例三所述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于计算机可读取存储介质中,该程序在执行时可以包括:对深度获取装置拍摄的图像和所述深度获取装置邻近的摄像机拍摄的图像分别进行特征点检测;对所述检测的特征点进行匹配,确定所述深度获取装置拍摄的图像和该装置邻近的摄像机拍摄的图像之间的可匹配特征点;基于所述深度获取装置,获得所述可匹配特征点的三维世界坐标;根据所述可匹配特征点的三维世界坐标、所述可匹配特征点在所述邻近的摄像机拍摄的图像中的图像坐标以及所述两种坐标之间的对应关系,获得所述邻近的摄像机的参数。这里所称的存储介质,如:ROM/RAM、磁碟、光盘等。
本发明摄像机的标定方法实施例六提供对深度获取装置非邻近的摄像机的标定方法,参考图7,本实施例方法包括:
D1、对深度获取装置邻近的摄像机拍摄的图像和所述深度获取装置非邻近的摄像机拍摄的图像分别进行特征点检测。
其中,所述与深度获取装置非邻近的摄像机与所述深度获取装置邻近的摄像机是邻近的。所述深度获取装置非邻近的摄像机可以拍摄到深度获取装置邻近的摄像机所拍摄场景的至少一部分。
D2、将所述检测的深度获取装置邻近的摄像机拍摄的图像的特征点与所述深度获取装置非邻近的摄像机拍摄的图像的特征点进行匹配,确定所述深度获取装置邻近的摄像机拍摄的图像和所述深度获取装置非邻近的摄像机拍摄的图像之间的可匹配特征点。
D3、根据预先确定的所述深度装置邻近的摄像机的参数,获得所述可匹配特征点的三维世界坐标。
在本实施例中,所述深度装置邻近的摄像机的参数可以采用本发明摄像机的标定方法实施例一至实施例五任一所述方法获取。
D4、根据所述可匹配特征点的三维世界坐标及所述可匹配特征点在所述非邻近的摄像机拍摄的图像中的图像坐标的对应关系,获得所述非邻近的摄像机的参数。
其中,可以采用已有的摄像机标定方法(如Tsai标定法、平面标定法等)获得所述不邻近摄像机的参数,在此不再赘述。
本实施例中提供了一种简单的获取较远的待标定摄像机的参数,是通过深度获取装置邻近的摄像机的参数,结合
参考图8,本发明摄像机标定装置实施例一包括特征点检测单元110、特征点匹配单元120、特征点三维坐标获取单元130和标定单元140:
特征点检测单元110,用于对深度获取装置拍摄的图像和所述深度获取装置邻近的摄像机拍摄的图像分别进行特征点检测。
在本发明实施例中,所述深度获取装置可以是单台或者至少两台深度摄像机,也可以是包括至少两台普通摄像机,还可以是至少一台深度摄像机与至少一台普通摄像机的组合。
所述深度获取装置拍摄的图像可以是单幅图像,也可以是两幅以上图像。
特征点匹配单元120,用于将特征点检测单元110检测的深度获取装置拍摄的图像的特征点与所述深度获取装置邻近的摄像机拍摄的图像的特征点进行匹配,确定所述深度获取装置拍摄的图像与所述深度获取装置邻近的摄像机拍摄的图像之间的可匹配特征点。
特征点三维坐标获取单元130,用于基于所述深度获取装置,获得所述特征点匹配单元120匹配得到的可匹配特征点的三维世界坐标。
标定单元140,用于根据所述特征点三维坐标获取单元130获得的可匹配特征点的三维世界坐标及所述特征点匹配单元匹配120得到的可匹配特征点在所述邻近的摄像机拍摄的图像中的图像坐标的对应关系,获得所述邻近的摄像机的参数。
本实施例中的深度获取装置是通过特征点三维坐标获取单元130获取可匹配特征点的三维世界坐标,这样标定单元140通过所述可匹配特征点的三维世界坐标及可匹配特征点在待标定摄像机拍摄的图像中的二维坐标获得的参数比较准确,且克服了现有技术的可操作性差的缺陷。
如图9所示,本发明摄像机标定装置实施例二与本发明摄像机标定装置实施例一类似,区别之处在于,在本实施例中,所述深度获取装置具体是双目摄像机;所述特征点三维坐标获取单元130进一步包括:
参数获取单元131,用于获得双目摄像机的至少两组不同参数。
三维坐标获取单元132,用于根据所述参数获取单元131获得的双目摄像机的至少两组不同参数,以及所述特征点匹配单元匹配120得到的可匹配特征点在所述双目摄像机拍摄的图像中的图像坐标,获得所述可匹配特征点的三维世界坐标。
此时标定单元140是用于根据所述特征点三维坐标获取单元130中的三维坐标获取单元132获得的可匹配特征点的三维世界坐标及所述可匹配特征点在所述邻近的摄像机拍摄的图像中的图像坐标的对应关系,获得所述邻近的摄像机的参数。
其中,所述深度获取装置拍摄的图像具体是指:从所述双目摄像机在所述至少两组不同参数条件下,拍摄包含标定模板的场景所得到的至少两组图像中分别选取的至少两幅图像。
如图10所示,本发明摄像机标定装置实施例三与本发明摄像机标定装置实施例二类似,区别之处在于,在本实施例中,所述参数获取单元131进一步包括:
角点检测单元141,用于检测所述双目摄像机在同一组参数条件下,拍摄包含标定模板的场景所得到的一组图像中各幅图像的棋盘格的非共面角点。
角点坐标获取单元151,用于获得所述角点检测单元141检测的角点的图像坐标,并为所述角点指定三维世界坐标。
双目摄像机参数获取单元161,用于根据所述角点坐标获取单元151获取的角点的图像坐标和三维世界坐标,对所述双目摄像机进行标定,确定双目摄像机与该组图像对应的参数。
此时三维坐标获取单元132是根据所述参数获取单元131中的双目摄像机参数获取单元161获得的双目摄像机的至少两组不同参数,以及所述特征点匹配单元匹配120得到的可匹配特征点在所述双目摄像机拍摄的图像中的图像坐标,获得所述可匹配特征点的三维世界坐标。
在本发明摄像机标定装置的上述实施例中,若所述特征点检测单元110检测的是所述深度获取装置拍摄的两幅以上图像的特征点,所述特征点匹配单元120还用于将所述深度获取装置拍摄的两幅以上图像的特征点与所述深度获取装置邻近的摄像机拍摄的图像的特征点进行匹配,所确定的可匹配特征点是所述两幅以上图像与所述深度获取装置邻近的摄像机拍摄的图像的特征点的交集;或者,
所述特征点匹配单元120还用于对所述深度获取装置拍摄的两幅以上图像分别与所述深度获取装置邻近的摄像机拍摄的图像进行匹配,所确定的可匹配特征点是所述两幅以上图像分别与所述深度获取装置邻近的摄像机拍摄的图像相匹配的特征点的并集。
如图11所示,本发明摄像机标定装置实施例四可以对与深度获取装置非邻近的摄像机进行标定,该装置包括特征点检测单元410、特征点匹配单元420、特征点三维坐标获取单元430和标定单元440:
特征点检测单元410,用于对深度获取装置邻近的摄像机拍摄的图像和所述深度获取装置非邻近的摄像机拍摄的图像分别进行特征点检测。
特征点匹配单元420,用于将所述特征点检测单元410检测的深度获取装置邻近的摄像机拍摄的图像和所述深度获取装置非邻近的摄像机拍摄的图像特征点进行匹配,确定所述深度获取装置邻近的摄像机拍摄的图像和所述深度获取装置非邻近的摄像机拍摄的图像之间的可匹配特征点。
特征点三维坐标获取单元430,用于根据预先确定的所述邻近的摄像机的参数,获得所述特征点匹配单元420匹配的可匹配特征点的三维世界坐标。
标定单元440,用于根据所述特征点三维坐标获取单元430获得的可匹配特征点的三维世界坐标及所述可匹配特征点在所述深度获取装置非邻近的摄像机拍摄的图像中的图像坐标的对应关系,获得所述邻近的摄像机的参数。
在本实施例中,摄像机标定装置还可以包括邻近参数获取单元450,用于采用本发明摄像机的标定方法实施例一至实施例六任一所述摄像机标定方法获得所述深度获取装置邻近的摄像机的参数。
综上可以看出,本发明实施例中,主要通过深度获取装置获得特征点的三维世界坐标,并利用所述特征点的三维世界坐标及其在待标定的摄像机拍摄的图像中的图像坐标的对应关系,实现对待标定摄像机的标定,与现有技术通过图像间单应性矩阵标定多摄像机的方案相比,由于不需要估计主从摄像机间的单应性矩阵,因此获取的摄像机的参数比较稳定而准确;且本发明能准确的获得特征点的三维世界坐标,在标定时,标定物的移动可以不在固定的方向,提高了摄像机标定的可操作性;另外本发明的摄像机的标定方法可以对多台邻近摄像机采用相同的标定方法,简化摄像机的标定过程。
以上对本发明实施例所提供的摄像机的标定方法与装置进行了详细介绍,本文中应用了具体的实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (17)

1.一种摄像机的标定方法,其特征在于,包括:
对深度获取装置拍摄的图像和所述深度获取装置邻近的摄像机拍摄的图像分别进行特征点检测;所述深度获取装置是指通过物理方式或通过软件方式获取深度信息的装置,所述特征点是用二维坐标表示的图像的特征信息;
将所述检测的深度获取装置拍摄的图像的特征点与所述深度获取装置邻近的摄像机拍摄的图像的特征点进行匹配,确定所述深度获取装置拍摄的图像与所述深度获取装置邻近的摄像机拍摄的图像之间的可匹配特征点;
基于所述深度获取装置,获得所述可匹配特征点的三维世界坐标;
根据所述可匹配特征点的三维世界坐标及所述可匹配特征点在所述深度获取装置邻近的摄像机拍摄的图像中的图像坐标的对应关系,确定所述深度获取装置邻近的摄像机的参数。
2.如权利要求1所述的方法,其特征在于,所述深度获取装置是由单台深度摄像机;或者是至少两台深度摄像机;或者是至少两台普通摄像机。
3.如权利要求1所述的方法,其特征在于,若所述深度获取装置拍摄两幅以上图像,将所述检测的深度获取装置拍摄的图像的特征点与所述深度获取装置邻近的摄像机拍摄的图像的特征点进行匹配包括:
将所述深度获取装置拍摄的两幅以上图像的特征点与所述深度获取装置邻近的摄像机拍摄的图像的特征点进行匹配,所确定的可匹配特征点是所述深度获取装置拍摄的两幅以上图像与所述深度获取装置邻近的摄像机拍摄的图像的特征点的交集;或者,
对所述深度获取装置拍摄的两幅以上图像分别与所述深度获取装置邻近的摄像机拍摄的图像进行匹配,所确定的可匹配特征点是所述深度获取装置拍摄的两幅以上图像分别与所述深度获取装置邻近的摄像机拍摄的图像相匹配的特征点的并集。
4.如权利要求1所述的方法,其特征在于,基于所述深度获取装置,获得所述可匹配特征点的三维世界坐标包括:
根据双目摄像机的至少两组不同参数,以及所述可匹配特征点在所述双目摄像机拍摄的图像中的图像坐标,获得所述可匹配特征点的三维世界坐标;
所述深度获取装置拍摄的图像具体是指:从所述双目摄像机在所述至少两组不同参数条件下,拍摄包含标定模板的场景所得到的至少两组图像中分别选取的至少两幅图像。
5.如权利要求4所述的方法,其特征在于,所述双目摄像机的至少两组不同参数是通过对双目摄像机在至少两组不同参数条件下,拍摄包含标定模板的场景所得到的至少两组图像并分别执行如下步骤所获得的:
检测所述双目摄像机在同一组参数条件下,拍摄包含标定模板的场景所得到的一组图像的棋盘格的非共面角点;
获得所述角点的图像坐标;
为所述角点确定三维世界坐标;
根据所述角点的图像坐标和三维世界坐标,对所述双目摄像机进行标定,确定所述双目摄像机的参数。
6.如权利要求4所述的方法,其特征在于,所述可匹配特征点在双目摄像机拍摄的图像中的图像坐标是经过畸变消除处理的图像坐标。
7.一种摄像机的标定方法,其特征在于,包括:
对于单个深度获取装置在至少两组不同参数条件下分别拍摄的图像,分别执行如权利要求1至6任一项所述的方法,获得邻近的摄像机的至少两组参数;所述单个深度获取装置是单台深度摄像机,或至少两台普通摄像机;
对所获得的至少两组参数进行加权平均,获得所述邻近的摄像机的参数。
8.一种摄像机的标定方法,其特征在于,包括:
对于至少两个深度获取装置分别拍摄的图像,分别执行如权利要求1至6任一项所述的方法,获得邻近的摄像机的至少两组参数;所述至少两个深度获取装置是至少两台深度摄像机,或至少两台普通摄像机与至少一台深度摄像机的组合;
对所获得的至少两组参数进行加权平均,获得所述邻近的摄像机的参数。
9.一种摄像机的标定方法,其特征在于,包括:
对深度获取装置邻近的摄像机拍摄的图像和所述深度获取装置非邻近的摄像机拍摄的图像分别进行特征点检测;所述深度获取装置是指通过物理方式或通过软件方式获取深度信息的装置,所述特征点是用二维坐标表示的图像的特征信息;
将所述检测的深度获取装置邻近的摄像机拍摄的图像和所述深度获取装置非邻近的摄像机拍摄的图像特征点进行匹配,确定所述深度获取装置邻近的摄像机拍摄的图像和所述深度获取装置非邻近的摄像机拍摄的图像之间的可匹配特征点;
根据预先确定的所述深度获取装置邻近的摄像机的参数,获得所述可匹配特征点的三维世界坐标;
根据所述可匹配特征点的三维世界坐标及所述可匹配特征点在所述非邻近的摄像机拍摄的图像中的图像坐标的对应关系,获得所述深度获取装置非邻近的摄像机的参数。
10.如权利要求9所述的摄像机的标定方法,其特征在于,所述深度获取装置邻近的摄像机的参数是采用如权利要求1至8任一项所述的方法获得的。
11.一种摄像机标定装置,其特征在于,包括:
特征点检测单元,用于对深度获取装置拍摄的图像和所述深度获取装置邻近的摄像机拍摄的图像分别进行特征点检测;所述深度获取装置是指通过物理方式或通过软件方式获取深度信息的装置,所述特征点是用二维坐标表示的图像的特征信息;
特征点匹配单元,用于将所述特征点检测单元检测的深度获取装置拍摄的图像的特征点与所述深度获取装置邻近的摄像机拍摄的图像的特征点进行匹配,确定所述深度获取装置拍摄的图像与所述深度获取装置邻近的摄像机拍摄的图像之间的可匹配特征点;
特征点三维坐标获取单元,用于基于所述深度获取装置,获得所述可匹配特征点的三维世界坐标;
标定单元,用于根据所述可匹配特征点的三维世界坐标及所述可匹配特征点在所述深度获取装置邻近的摄像机拍摄的图像中的图像坐标的对应关系,获得所述邻近的摄像机的参数。
12.如权利要求11所述的摄像机标定装置,其特征在于,所述深度获取装置是单台深度摄像机;或者是至少两台深度摄像机;或者是至少两台普通摄像机。
13.如权利要求11所述的摄像机标定装置,其特征在于,若所述特征点检测单元检测的是所述深度获取装置拍摄的两幅以上图像的特征点,所述特征点匹配单元用于将所述深度获取装置拍摄的两幅以上图像的特征点与所述深度获取装置邻近的摄像机拍摄的图像的特征点进行匹配,所确定的可匹配特征点是所述两幅以上图像与所述深度获取装置邻近的摄像机拍摄的图像的特征点的交集;或者,
所述特征点匹配单元用于对所述深度获取装置拍摄的两幅以上图像分别与所述深度获取装置邻近的摄像机拍摄的图像进行匹配,所确定的可匹配特征点是所述两幅以上图像分别与所述深度获取装置邻近的摄像机拍摄的图像相匹配的特征点的并集。
14.如权利要求11所述的摄像机标定装置,其特征在于,所述深度获取装置具体是双目摄像机;所述特征点三维坐标获取单元包括:
参数获取单元,用于获得双目摄像机的至少两组不同参数;
三维坐标获取单元,用于根据所述参数获取单元获得的至少两组不同参数,以及所述特征点匹配单元匹配得到的可匹配特征点在所述双目摄像机拍摄的图像中的图像坐标,获得所述可匹配特征点的三维世界坐标;
所述深度获取装置拍摄的图像具体是指:从所述双目摄像机在所述至少两组不同参数条件下,拍摄包含标定模板的场景所得到的至少两组图像中分别选取的至少两幅图像。
15.如权利要求14所述的摄像机标定装置,其特征在于,所述参数获取单元具体包括:
角点检测单元,用于检测所述双目摄像机在同一组参数条件下,拍摄包含标定模板的场景所得到的一组图像的棋盘格的非共面角点;
角点坐标获取单元,用于获得所述角点检测单元检测的角点的图像坐标,并为所述角点指定三维世界坐标;
双目摄像机参数获取单元,用于根据所述角点坐标获取单元获取的角点的图像坐标和三维世界坐标,对所述双目摄像机进行标定,确定所述双目摄像机的参数。
16.一种摄像机标定装置,其特征在于,包括:
特征点检测单元,用于对深度获取装置邻近的摄像机拍摄的图像和所述装置非邻近的摄像机拍摄的图像分别进行特征点检测;所述深度获取装置是指通过物理方式或通过软件方式获取深度信息的装置,所述特征点是用二维坐标表示的图像的特征信息;
特征点匹配单元,用于将所述特征点检测单元检测的深度获取装置邻近的摄像机拍摄的图像和所述深度获取装置非邻近的摄像机拍摄的图像特征点进行匹配,确定所述深度获取装置邻近的摄像机拍摄的图像和所述深度获取装置非邻近的摄像机拍摄的图像之间的可匹配特征点;
特征点三维坐标获取单元,用于根据预先确定的所述深度获取装置邻近的摄像机的参数,获得所述可匹配特征点的三维世界坐标;
标定单元,用于根据所述可匹配特征点的三维世界坐标及所述可匹配特征点在所述深度获取装置非邻近的摄像机拍摄的图像中的图像坐标的对应关系,获得所述邻近的摄像机的参数。
17.如权利要求16所述的摄像机标定装置,其特征在于,还包括:邻近参数获取单元,用于采用如权利要求1至8任一项所述的摄像机标定方法获得所述深度获取装置邻近的摄像机的参数。
CN200810130737XA 2008-07-14 2008-07-14 摄像机的标定方法及摄像机标定装置 Expired - Fee Related CN101630406B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN200810130737XA CN101630406B (zh) 2008-07-14 2008-07-14 摄像机的标定方法及摄像机标定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN200810130737XA CN101630406B (zh) 2008-07-14 2008-07-14 摄像机的标定方法及摄像机标定装置

Publications (2)

Publication Number Publication Date
CN101630406A CN101630406A (zh) 2010-01-20
CN101630406B true CN101630406B (zh) 2011-12-28

Family

ID=41575507

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200810130737XA Expired - Fee Related CN101630406B (zh) 2008-07-14 2008-07-14 摄像机的标定方法及摄像机标定装置

Country Status (1)

Country Link
CN (1) CN101630406B (zh)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101789123B (zh) * 2010-01-27 2011-12-07 中国科学院半导体研究所 一种创建基于单目机器视觉距离图的方法
CN101783027B (zh) * 2010-02-26 2012-02-29 浙江大学 基于多台图像传感器的动态场景三维记录方法
US8330822B2 (en) * 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
CN102479220A (zh) * 2010-11-30 2012-05-30 财团法人资讯工业策进会 影像检索***及其方法
CN102075686B (zh) * 2011-02-10 2013-10-30 北京航空航天大学 一种鲁棒的实时在线摄像机跟踪方法
JP2014092461A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像処理装置および方法、画像処理システム、並びにプログラム
CN103035008B (zh) * 2012-12-15 2015-08-12 北京工业大学 一种多相机***的加权标定方法
DE102013009288B4 (de) * 2013-06-04 2016-02-04 Testo Ag 3D-Aufnahmevorrichtung, Verfahren zur Erstellung eines 3D-Bildes und Verfahren zur Einrichtung einer 3D-Aufnahmevorrichtung
CN103578109B (zh) * 2013-11-08 2016-04-20 中安消技术有限公司 一种监控摄像机测距方法及装置
CN103824278B (zh) * 2013-12-10 2016-09-21 清华大学 监控摄像机的标定方法和***
CN103745474B (zh) * 2014-01-21 2017-01-18 南京理工大学 基于惯性传感器和摄像机的图像配准方法
CN104933755B (zh) * 2014-03-18 2017-11-28 华为技术有限公司 一种静态物体重建方法和***
CN104240233A (zh) * 2014-08-19 2014-12-24 长春理工大学 一种摄像机单应性矩阵和投影机单应性矩阵的求解方法
CN104464173A (zh) * 2014-12-03 2015-03-25 国网吉林省电力有限公司白城供电公司 基于空间图像三维测量的输电线路防外力破坏***
CN104574425B (zh) * 2015-02-03 2016-05-11 中国人民解放军国防科学技术大学 一种基于旋转模型的主从摄像机***的标定以及联动方法
CN104680535A (zh) * 2015-03-06 2015-06-03 南京大学 一种双目直视相机的标定靶标、标定***及标定方法
CN106709899B (zh) * 2015-07-15 2020-06-02 华为终端有限公司 双摄像头相对位置计算方法、装置和设备
CN106251334B (zh) * 2016-07-18 2019-03-01 华为技术有限公司 一种摄像机参数调整方法、导播摄像机及***
CN107016707B (zh) * 2017-04-13 2019-09-03 四川大学 一种集成成像超大三维场景拍摄图像校正方法
CN107705565B (zh) * 2017-09-27 2018-07-24 湖南远瑞机械制造有限公司 一种基于数据分析的停车控制方法
WO2019109226A1 (zh) * 2017-12-04 2019-06-13 深圳市沃特沃德股份有限公司 双目摄像头标定方法及装置
CN109961484A (zh) * 2017-12-22 2019-07-02 比亚迪股份有限公司 摄像头标定方法、装置和车辆
CN109961482A (zh) * 2017-12-22 2019-07-02 比亚迪股份有限公司 摄像头标定方法、装置和车辆
CN108765495B (zh) * 2018-05-22 2021-04-30 山东大学 一种基于双目视觉检测技术的快速标定方法及***
CN109118563B (zh) * 2018-07-13 2023-05-02 深圳供电局有限公司 一种从lod分页表面纹理模型提取数字正射影像图的方法
CN109272453B (zh) * 2018-08-31 2023-02-10 上海盎维信息技术有限公司 基于3d摄像机的建模装置及定位方法
CN109559353B (zh) * 2018-11-30 2021-02-02 Oppo广东移动通信有限公司 摄像模组标定方法、装置、电子设备及计算机可读存储介质
CN110209997A (zh) * 2019-06-10 2019-09-06 成都理工大学 基于三维特征点的深度相机自动标定算法
CN110458897B (zh) * 2019-08-13 2020-12-01 北京积加科技有限公司 多摄像头自动标定方法及***、监控方法及***
CN110966734A (zh) * 2019-11-11 2020-04-07 珠海格力电器股份有限公司 一种基于三维空间的空调送风控制方法、计算机可读存储介质及空调
CN111161339B (zh) * 2019-11-18 2020-11-27 珠海随变科技有限公司 一种间距测量方法、装置、设备以及计算机可读介质
CN114782549B (zh) * 2022-04-22 2023-11-24 南京新远见智能科技有限公司 基于定点标识的相机标定方法及***
CN115457147A (zh) * 2022-09-16 2022-12-09 北京的卢深视科技有限公司 相机标定方法、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6301372B1 (en) * 1997-07-23 2001-10-09 Nec Corporation Camera calibration apparatus
CN1529124A (zh) * 2003-09-29 2004-09-15 上海交通大学 可调精度的神经网络摄像机标定方法
US6826299B2 (en) * 2000-07-31 2004-11-30 Geodetic Services, Inc. Photogrammetric image correlation and measurement system and method
CN101089551A (zh) * 2007-07-11 2007-12-19 华中科技大学 一种基于二维编码的三维形貌测量方法
CN100388319C (zh) * 2006-07-25 2008-05-14 深圳大学 三维主动视觉传感器的多视点姿态估计和自标定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6301372B1 (en) * 1997-07-23 2001-10-09 Nec Corporation Camera calibration apparatus
US6826299B2 (en) * 2000-07-31 2004-11-30 Geodetic Services, Inc. Photogrammetric image correlation and measurement system and method
CN1529124A (zh) * 2003-09-29 2004-09-15 上海交通大学 可调精度的神经网络摄像机标定方法
CN100388319C (zh) * 2006-07-25 2008-05-14 深圳大学 三维主动视觉传感器的多视点姿态估计和自标定方法
CN101089551A (zh) * 2007-07-11 2007-12-19 华中科技大学 一种基于二维编码的三维形貌测量方法

Also Published As

Publication number Publication date
CN101630406A (zh) 2010-01-20

Similar Documents

Publication Publication Date Title
CN101630406B (zh) 摄像机的标定方法及摄像机标定装置
US11570423B2 (en) System and methods for calibration of an array camera
US10334168B2 (en) Threshold determination in a RANSAC algorithm
US10846885B2 (en) Methods and computer program products for calibrating stereo imaging systems by using a planar mirror
US9117269B2 (en) Method for recognizing objects in a set of images recorded by one or more cameras
KR101666959B1 (ko) 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법
CN101661617B (zh) 摄像机标定的方法及装置
TWI587241B (zh) Method, device and system for generating two - dimensional floor plan
Kim et al. Extrinsic calibration of a camera-LIDAR multi sensor system using a planar chessboard
WO2018032841A1 (zh) 绘制三维图像的方法及其设备、***
CN108805921A (zh) 图像获取***及方法
Liao et al. A calibration method for uncoupling projector and camera of a structured light system
Skuratovskyi et al. Outdoor mapping framework: from images to 3d model
Gao et al. A novel Kinect V2 registration method for large-displacement environments using camera and scene constraints
Liu et al. Stereoscopic 3D reconstruction using motorized zoom lenses within an embedded system
WO2024043055A1 (ja) カメラキャリブレーション装置、カメラキャリブレーション方法、及び記録媒体
Lasang et al. Combining high resolution color and depth images for dense 3D reconstruction
Brückner et al. Self-calibration of camera networks: Active and passive methods
Bajramovic Self-calibration of Multi-camera Systems
Fortenbury et al. Robust 2D/3D calibration using RANSAC registration
Nasir et al. Camera calibration using human face as a 2D planar object
Molana et al. A Single-perspective Novel Panoramic View from Radially Distorted Non-central Images.
Wang et al. Investigation of Factors Influencing Calibration Accuracy of Camera

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20180212

Address after: California, USA

Patentee after: Global innovation polymerization LLC

Address before: California, USA

Patentee before: Tanous Co.

Effective date of registration: 20180212

Address after: California, USA

Patentee after: Tanous Co.

Address before: 518129 Longgang District, Guangdong, Bantian HUAWEI base B District, building 2, building No.

Patentee before: HUAWEI DEVICE Co.,Ltd.

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20111228