CN116912333B - 一种基于作业围栏标定杆的相机姿态自标定方法 - Google Patents

一种基于作业围栏标定杆的相机姿态自标定方法 Download PDF

Info

Publication number
CN116912333B
CN116912333B CN202311167399.8A CN202311167399A CN116912333B CN 116912333 B CN116912333 B CN 116912333B CN 202311167399 A CN202311167399 A CN 202311167399A CN 116912333 B CN116912333 B CN 116912333B
Authority
CN
China
Prior art keywords
camera
calibration
projection
coordinate system
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311167399.8A
Other languages
English (en)
Other versions
CN116912333A (zh
Inventor
李小曼
权海波
朱吕甫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Jushi Technology Co ltd
Original Assignee
Anhui Jushi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Jushi Technology Co ltd filed Critical Anhui Jushi Technology Co ltd
Priority to CN202311167399.8A priority Critical patent/CN116912333B/zh
Publication of CN116912333A publication Critical patent/CN116912333A/zh
Application granted granted Critical
Publication of CN116912333B publication Critical patent/CN116912333B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明提出了一种基于作业围栏标定杆的相机姿态自标定方法,解决了现有相机姿态自标定方法普遍存在鲁棒性差、精度低、图像噪声大等问题,其主要步骤包括S1、由实例分割算法计算标定杆像素点坐标,并重构标定杆的空间点坐标;S2、根据S1中标定杆像素点坐标与空间点坐标构建相机成像模型,继而采用最小二乘法初步计算两相机的相对外参;S3、由标定杆三维结构信息结合相机成像模型,反投影得到mask图像以计算标定杆反投影后的像素点坐标,通过最小化反投影前后像素点坐标差值或使差值小于一定阈值的方式对相对外参进行迭代优化,最终得到两相机的相对外参最优估计值;S4、通过特征点匹配,联合优化S3中相对外参最优估计值。

Description

一种基于作业围栏标定杆的相机姿态自标定方法
技术领域
本发明涉及相机标定技术领域,尤其涉及一种基于作业围栏标定杆的相机姿态自标定方法。
背景技术
相机标定是由特征点在像素坐标系与世界坐标系中的关系求解相机内部结构的内部参数和相机空间位姿的外部参数的过程。相机标定建立了三维空间与像素平面之间的对应关系,辅助处理视觉计算、三维重建、目标识别等领域问题,相机的标定精度会直接影响这些相关领域结果的准确度:相机标定的越来精确,由2D图像信息恢复三维空间信息就越准确。所以相机的高精度标定具有重要的意义。
相机标定按照标定方式的不同可以分为传统的标定方法,基于主动视觉的相机标定方法以及相机自标定方法三类。
传统的标定方法又称为基于标准物的相机标定方法。它需要利用到高精度标定物,通过标定物精确已知的尺寸信息以及在图像上对应像点之间的映射关系,通过一定的约束条件来对相机的内外参数进行标定。其中,以张正友提出的基于黑白相间的棋盘格标定模板的应用最为广泛,且该方法操作简单,可以将二维模板在空间中自由摆放,且求解精度较高。但该方法用到的标定模板的尺寸应该与相机视场的大小相匹配,若标定模板尺寸过小将会导致求解精度的下降,因此在针对较大视场的测量需求时该方法存在着一定的局限。
基于主动视觉的相机标定方法通过主动控制相机做某些特殊形式的运动来线性地求解相机内外参数。这种标定方法的主要优点是,由于运动的特殊性往往可以线性求解模型参数,且计算简单、鲁棒性较高,但是该方法需要使用高精度运动控制平台进行相机机标定,***的成本较高,实验条件苛刻,限制了该方法的应用。
相机的自标定方法不需要知道准确的三维信息,而是试图依靠不同视角图像间提供的场景约束关系进行相机的参数的标定。目前,自标定技术的研究主要包括以下几种:利用本质矩阵和基本矩阵的相机标定方法;利用绝对二次曲线和外极线变换性质的自标定方法;利用主动***控制相机做特定运动的自标定方法;利用多幅图像之间的直线对应关系的相机自标定方法。与基于标定物的标定方法和主动视觉标定方法相比,相机自标定的方法使相机的实时在线标定成为可能。
对传统的标定方法、基于主动视觉的相机标定方法、相机自标定方法三种不同的标定方法对比发现,相机自标定的方法因其操作简便、灵活性强、实时在线标定的优点,成为近年来相机标定领域的研究热点且在实际中得到了广泛应用。但是,在相机自标定领域内,还普遍存在着鲁棒性差、精度低,且图像噪声会在无穷远平面处放大的缺点。
发明内容
本发明要解决的技术问题是克服现有技术存在的缺陷,本发明提出了一种基于作业围栏标定杆的相机姿态自标定方法,本发明结合传统的标定方法与自标定的方法,相比于传统的标定方法,具有显著优点是:操作方便、实时在线标定、标定精度高、可以与实际工程结合。
为解决上述技术问题,本发明采用的技术方案是:一种基于作业围栏标定杆的相机姿态自标定方法,包括如下步骤:
S1、由实例分割算法获取标定杆第一mask图以计算其像素点坐标,而后由标定杆建立世界坐标系并重构标定杆的空间点坐标;
S2、根据S1中标定杆像素点坐标与空间点坐标构建相机成像模型,继而采用最小二乘法初步计算两相机的相对外参;
S3、由标定杆三维结构信息结合相机成像模型,反投影得到第二mask图像以计算标定杆反投影后的像素点坐标,通过最小化反投影前后像素点坐标差值或使差值小于一定阈值的方式对相对外参进行迭代优化,最终得到两相机的相对外参最优估计值;
S4、通过特征点匹配,联合优化S3中相对外参最优估计值。
进一步地,所述步骤S2中,相机成像模型为,
其中,为距离深度系数,/>、/>为像素点坐标,/>、/>为相机焦距,/>、/>为像素的物理长度,/>、/>是相机光轴和图像平面交点,/>、/>、/>为世界坐标点, R、T为相机外参,M为投影矩阵。
进一步地,所述步骤S3中,初始外参R、T迭代优化的准则函数为,
其中,为反投影得到第二mask图像,/>为分割算法获取第一mask图,iou表示计算两张mask图像对应标定杆区域的交并比,/>为阈值。
进一步地,所述步骤S3中,两相机外参最优估计值计算步骤如下,
已知围栏特征点世界坐标为,其在另一视角相机的投影点为p,已标定的相机的外参为/>、/>,则另一视角相机的投影点估计值/>计算公式如下,
最小化投影误差,得到R、T的最优估计,计算公式如下,
,其中,m为投影点的数量。
进一步地,所述两相机之间旋转平移关系满足,
其中,m为投影点的数量,分别为空间点在为左右相机坐标系下的坐标,/>分别为右相机坐标系相对于世界坐标系的旋转矩阵与平移矩阵,/>、/>分别为左相机坐标系相对于世界坐标系的旋转矩阵与平移矩阵,R、T为相对外参,即左相机坐标系相对于右相机左边系的相对旋转平移矩阵。
进一步地,所述步骤S4中特征点匹配具体步骤如下,
提取两相机采集的公共视野图像特征点,包括先由oFAST候选特征点提取,再由rBRIEF为特征点加上描述子;
由FLANN算法进行特征点匹配后,由PROSAC算法剔除误匹配点,获得两两对应的相机投影点。
进一步地,所述步骤S4中,联合优化相机外参最优估计值的具体步骤如下,
将世界坐标系建立在与左相机坐标系重合的位置,左相机的投影矩阵为,由两相机相对外参R、T,右相机的投影矩阵为/>,利用投影方程联立求解计算出所有匹配的标定杆投影点对应的空间点,投影方程如下,
联立可得,
令,
则方程最小二乘解即所求的空间点坐标为,
记多相机拍摄图片的匹配点为,
根据投影关系,
最小化投影误差联合优化特征点的世界坐标与变换矩阵,
其中,K为相机内参,m为相机数量,n为投影点数量,世界坐标系与相机1坐标系重合,与/>为相机m坐标系相对于相机1坐标系的旋转平移矩阵。
与现有技术相比,本发明的有益效果包括:通过对标定杆进行反投影。并最小化反投影前后标定杆像素点坐标差值或使差值小于一定阈值的方式对两相机相对外参进行迭代优化,解决了现有相机姿态自标定方法中鲁棒性差、精度低,且图像噪声会在无穷远平面处放大的缺点,整体方法操作方便、实时在线标定、标定精度高、可以与实际工程结合。
附图说明
参照附图来说明本发明的公开内容。应当了解,附图仅仅用于说明目的,而并非意在对本发明的保护范围构成限制。在附图中,相同的附图标记用于指代相同的部件。其中:
图1示意性显示了根据本发明一个实施方式提出的步骤S1中标定杆世界系坐标构建示意图;
图2示意性显示了根据本发明一个实施方式提出的步骤S4中特征点匹配示意图。
具体实施方式
容易理解,根据本发明的技术方案,在不变更本发明实质精神下,本领域的一般技术人员可以提出可相互替换的多种结构方式以及实现方式。因此,以下具体实施方式以及附图仅是对本发明的技术方案的示例性说明,而不应当视为本发明的全部或者视为对本发明技术方案的限定或限制。
根据本发明的一实施方式结合图1-图2示出。
整体步骤而言,一种基于作业围栏标定杆的相机姿态自标定方法,包括如下步骤:
S1、由实例分割算法获取标定杆第一mask图以计算其像素点坐标,而后由标定杆建立世界坐标系并重构标定杆的空间点坐标;
S2、根据S1中标定杆像素点坐标与空间点坐标构建相机成像模型,继而采用最小二乘法初步计算两相机的相对外参;
S3、由标定杆三维结构信息结合相机成像模型,反投影得到第二mask图像以计算标定杆反投影后的像素点坐标,通过最小化反投影前后像素点坐标差值或使差值小于一定阈值的方式对相对外参进行迭代优化,最终得到两相机的相对外参最优估计值;
S4、通过特征点匹配,联合优化S3中相对外参最优估计值。
以下对各个步骤一一具体说明:
步骤1,采用实例分割算法获取第一mask图以计算标定杆的像素点坐标,然后根据标定杆建立世界坐标系,重构标定杆的空间坐标;
作为标定物的标定杆结构已知且精度很高,采用实例分割算法可以准确的检测出第一mask图,由第一mask图可获取标定杆特征点对应的像素坐标;以标定杆建立世界坐标系,获取标定杆特征点对应的世界坐标,如图1所示,四个黑点对应标定杆的四个特征点。
步骤2,根据标定杆像素点坐标与世界坐标构建相机成像模型,并计算相机的初始外参;
相机成像模型为
其中,为相机距离深度系数,/>为标定杆像素点坐标,/>为相机焦距,/>、/>为像素的物理长度,/>是相机光轴和图像平面交点,/>为标定杆空间点坐标, R、T为图像旋转平移矩阵,M为投影矩阵。
相机的内参已知,相机距离深度系数,/>同样已知,再结合步骤1得出的一系列标定杆对应的像素点坐标以及空间点坐标,利用相机成像模型,继而采用最小二乘法初步计算相机的初始外参(R、T)。
步骤3,由标定杆的三维结构信息结合相机成像模型,反投影得到第二mask图像,通过最小化第一mask图与第二mask图之间差值或者使差值小于一定的阈值,差值即为反投影前后像素点坐标的差值,以此对相机的外参进行迭代优化,优化准则函数为:
其中,为反投影得到第二mask图、/>为实例分割算法获取第一mask图、iou表示计算两张mask图像对应标定杆区域的交并比、/>为阈值。
步骤4,标定两两相机的相对外参
两相机间的旋转平移关系为:
其中,R、T为两相机的相对外参,分别为空间点在为左右相机坐标系下的坐标,/>分别为右相机坐标系相对于世界坐标系的旋转矩阵与平移矩阵,/>分别为左相机坐标系相对于世界坐标系的旋转矩阵与平移矩阵。
假设另一视角下的相机与已标定的相机间的相对外参为R、T,由该相机的mask图及标定杆特征点世界坐标标定两两相机的相对外参。
两相机的相对外参标定过程如下:
已知标定杆空间点坐标为,其在另一视角相机的投影点为p,已标定的相机的外参为/>,就可得到另一视角相机的投影点估计值:
通过最小化投影误差,得到R、T的最优估计:
其中,m为投影点的数量。
步骤5,通过特征点匹配,全局优化相机外参。
a.提取两相机采集的公共视野图像特征点;
由ORB进行特征点提取,分为以下两步骤:
(1)oFAST候选特征点提取
1.建立图像金字塔,在每一层都提取 oFAST 特征;
2.取候选像素点p为中心,以3个像素为半径的圆周上的16像素点,如果在这16个像素点上存在连续的n像素点都比T还亮,或者都比/>还暗,则判定P为特征点。/>为p点的灰度,T为阈值,n一般取像素点总数的3/4。在 ORB 中,FAST 算子的阈值T= 9,即FAST-9,自适应阈值计算方法如下:
对以p为中心边长为L的方形区域,定义特征阈值:
其中,和/>分别代表方形区域中最大的 n 个灰度值和最小的 n 个灰度值,/>为方形区域灰度的平均值, a为比例系数,取a =3 。
如图2所示,为了减少计算量,需对候选特征点进行快速筛选,且不需要将圆周上所有像素点与中心像素点比较。方法如下:对圆周上的16个像素点间隔 3 个像素采样一次得到4个像素点,如像素点1、5、9、13,当有 3 个像素同时满足>T,则该像素点可能是候选点,否则直接排除。计算圆周上剩下的12个像素,若有 9 个点像素灰度满足/>,则 p 点为特征点,否则不是特征点。(x为圆周上的点,/>为点x处的灰度值)。
FAST特征点没有方向,通过灰度质心法为FAST特征加上方向属性,构成oFAST(FAST Keypoint Orientation),以p为圆心,半径为3的圆形图像块内,(x,y)为圆形图像块内相对圆心的坐标,则
其中,为 0 阶质心矩;/>和/>分别代表x 轴和y 轴方向的 1 阶质心矩,C为质心,/>为特征方向,/>表示0 阶或1阶。
(2)rBRIEF特征描述
BRIEF为特征点加上描述子的过程如下:
1.为减少噪声干扰,先对图像进行高斯滤波(方差为2,高斯窗口为9x9);
2.以特征点为中心,取SxS的邻域窗口。在邻域窗口内随机选取一对像素点(点x与点y),比较两者像素值大小(与/>),进行二进制赋值,
3.在邻域窗口中随机选取n对随机点(),重复步骤2的二进制赋值,得到一个二进制编码,即为BRIEF特征描述子(一般n=256),
由于随机选取点生成的BRIEF特征描述子对噪声比较敏感,ORB采用特征点领域的/>的子窗口作为积分图像进行图像平滑,即使用5x5邻域灰度平均值来代替随机点对应的灰度值,进而比较点对的大小,进行二进制赋值。
ORB为解决BRIEF缺乏方向性的问题,利用oFAST的主方向角,提出steered BRIEF。
对于任意oFAST特征点,在31x31邻域内位置为的n对点集,定义2xn的矩阵S:
利用oFAST特征点和其旋转矩阵,得到有方向信息的测试点集/>
steered BRIEF的描述子为:
4.ORB 对steered BRIEF描述子进行改进,使描述子具有高方差和高不相关性,即rBRIEF。
ORB的测试点集的选取区域是一个像素的特征点领域(/>=31),每个测试点为一个/>的子窗口(/>),那么有/>个候选子窗口,从候选子窗口中任意选择2个子窗口作为BRIEF中的点对,除去其中重叠的子窗口,有M=205590个测试点对。ORB 采用贪婪搜索从所有的测试点对选取 256 个具有高方差和高不相关性的测试点提取描述子的步骤如下:
(1)对每个属于300k的候选特征点,在31x31的特征点邻域中,取M对5x5的子窗口点对,比较点对大小,形成一个300kxM的二进制矩阵Q。Q的每一列代表300k候选特征点按某种取法得到的二进制数串。
(2)对Q矩阵的每一列求取均值,并按照均值与0.5的偏差量大小对Q矩阵的列向量进行排序,排序结果按列存入队列T中;
(3)移出队列T 中的头,放入到队列R 中;
(4)继续移出T的头,和R中的每个二进制数串计算相关性,如果相关系数小于设定的阈值,则将移出的T的头放入到R。
(5)重复第四步,直到R的长度为256。
b.进行特征点匹配并剔除误匹配点,获得两两对应的相机投影点;
假设从第一相机拍摄图像提取到的特征描述子为,m=1,2,⋯,M,而第二相机采集的图像提取到的特征描述子为/>,n=1,2,⋯,N,特征匹配快速近似最近邻匹配(FLANN)算法进行,对于ORB描述子的匹配,计算/>和/>最近邻汉明距离,从而得到两者的相似程度,汉明距离越小代表相似程度越高。
由FLANN粗匹配后,还需剔除误匹配。通常可采用RANSAC或者PROSAC对错误匹配进行剔除。虽然RANSAC误匹配剔除准确率较高,但是剔除过程具有随机性,导致计算过程迭代次数的不稳定。PROSAC具有更高的效率和准确率。PROSAC先将两幅图片的匹配结果作为一个采样集合,按照匹配对的质量降序排序,接着,随机从质量较高的匹配对抽取一部分的匹配对计算单应矩阵和内点数量。
PROSAC根据匹配对的欧式距离远近判断匹配的质量:
其中,分别是匹配对/>的样本点最小欧式距离和次小欧式距离的比值,/>为质量方程。
PROSAC 剔除误匹配的流程如下:
(1)设置初始迭代次数为 0,设置最大迭代次数和内点数目阈值;
(2)判断当前迭代次数是否达到最大次数,若大于,找不到对应的模型参数,反之执行下一步;
(3)比较匹配对的质量大小并降序排序,同时选取质量最高的 m 个数据;
(4)从 m 个数据中随机选取 K 个采样点计算单应矩阵和内点数量;判断内点数目是否大于设定的内点数目阈值,若大于,返回单应矩阵和内点数量,反之,重复步骤(2)和步骤(3),更新内点数目并且重新计算单应矩阵。
C.通过特征点匹配,联合优化相机外参;
首先利用投影方程联立求解计算出所有匹配的标定杆投影点对应的空间点,接着,联合优化相机外参数。
1.空间点位置计算
空间点投影为相机画面像素点的投影方程如下,
将世界坐标系建立在与左相机坐标系重合的位置,左相机的投影矩阵为,由两相机相对外参R、T,右相机的投影矩阵为/>,利用投影方程联立求解计算出所有匹配的标定杆投影点对应的空间点,投影方程如下,
联立可得,
则方程最小二乘解即所求的空间点坐标为,
2.联合优化相机外参
记多相机拍摄图片的匹配点为:
根据投影关系:
最小化投影误差联合优化特征点的空间坐标与变换矩阵:
其中,m为相机数量,n为投影点数量,世界坐标系与相机1坐标系重合,为相机m坐标系相对于相机1坐标系的旋转平移矩阵。
本发明的技术范围不仅仅局限于上述说明中的内容,本领域技术人员可以在不脱离本发明技术思想的前提下,对上述实施例进行多种变形和修改,而这些变形和修改均应当属于本发明的保护范围内。

Claims (4)

1.一种基于作业围栏标定杆的相机姿态自标定方法,其特征在于,包括如下步骤:
S1、由实例分割算法获取标定杆第一mask图以计算其像素点坐标,而后由标定杆建立世界坐标系并重构标定杆的空间点坐标;
S2、根据S1中标定杆像素点坐标与空间点坐标构建相机成像模型,继而采用最小二乘法初步计算两相机的相对外参,相机成像模型为,
其中,为距离深度系数,/>、/>为像素点坐标,/>、/>为相机焦距,/>、/>为像素的物理长度,/>、/>是相机光轴和图像平面交点,/>、/>、/>为世界坐标点,、/>为相机外参,M为投影矩阵;
S3、由标定杆三维结构信息结合相机成像模型,反投影得到第二mask图像以计算标定杆反投影后的像素点坐标,通过最小化反投影前后像素点坐标差值或使差值小于一定阈值的方式对相对外参进行迭代优化,最终得到两相机的相对外参最优估计值;
S4、通过特征点匹配,联合优化S3中相对外参最优估计值,
特征点匹配具体步骤如下,
提取两相机采集的公共视野图像特征点,包括先由oFAST候选特征点提取,再由rBRIEF为特征点加上描述子;
由FLANN算法进行特征点匹配后,由PROSAC算法剔除误匹配点,获得两两对应的相机投影点,
联合优化相机外参最优估计值的具体步骤如下,
将世界坐标系建立在与左相机坐标系重合的位置,左相机的投影矩阵为,由两相机相对外参R、T,右相机的投影矩阵为/>,利用投影方程联立求解计算出所有匹配的标定杆投影点对应的空间点,投影方程如下,
联立可得,
令,
则方程最小二乘解即所求的空间点坐标为,
记多相机拍摄图片的投影匹配点为,
其中,m为相机数量,n为投影点数量,世界坐标系与相机1坐标系重合,与/>为相机m坐标系相对于相机1坐标系的旋转平移矩阵,根据投影关系,
最小化投影误差联合优化特征点的世界坐标与变换矩阵,
其中,K为相机内参,m为相机数量,n为投影点数量,世界坐标系与相机1坐标系重合,与/>为相机m坐标系相对于相机1坐标系的旋转平移矩阵。
2.根据权利要求1所述的一种基于作业围栏标定杆的相机姿态自标定方法,其特征在于:所述步骤S3中,相对外参R、T迭代优化的准则函数为,
其中,为反投影得到第二mask图,/>为实例分割算法获取第一mask图、iou表示计算两张mask图像对应标定杆区域的交并比、/>为阈值。
3.根据权利要求1所述的一种基于作业围栏标定杆的相机姿态自标定方法,其特征在于:所述步骤S3中,相对外参最优估计值计算步骤如下,
已知标定杆的空间点坐标为,其在另一视角相机的投影点为p且该相机内参为/>,已标定的相机的外参为/>、/>,则另一视角相机的投影点估计值/>计算公式如下,
最小化投影误差,得相对外参R、T的最优估计,m为投影点的数量,计算公式如下,
4.根据权利要求3所述的一种基于作业围栏标定杆的相机姿态自标定方法,其特征在于:两所述相机之间旋转平移关系满足,
其中,、/>分别为空间点在为左右相机坐标系下的坐标/>、/>分别为右相机坐标系相对于世界坐标系的旋转矩阵与平移矩阵/>、/>分别为左相机坐标系相对于世界坐标系的旋转矩阵与平移矩阵R、T为相对外参,即左相机坐标系相对于右相机坐标系的相对旋转平移矩阵。
CN202311167399.8A 2023-09-12 2023-09-12 一种基于作业围栏标定杆的相机姿态自标定方法 Active CN116912333B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311167399.8A CN116912333B (zh) 2023-09-12 2023-09-12 一种基于作业围栏标定杆的相机姿态自标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311167399.8A CN116912333B (zh) 2023-09-12 2023-09-12 一种基于作业围栏标定杆的相机姿态自标定方法

Publications (2)

Publication Number Publication Date
CN116912333A CN116912333A (zh) 2023-10-20
CN116912333B true CN116912333B (zh) 2023-12-26

Family

ID=88356808

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311167399.8A Active CN116912333B (zh) 2023-09-12 2023-09-12 一种基于作业围栏标定杆的相机姿态自标定方法

Country Status (1)

Country Link
CN (1) CN116912333B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004271292A (ja) * 2003-03-07 2004-09-30 Meidensha Corp 校正器及びステレオカメラ位置姿勢校正装置
CN103208122A (zh) * 2013-04-18 2013-07-17 湖南大学 基于一维标定杆设计的多相机标定方法
CN110782498A (zh) * 2019-09-26 2020-02-11 北京航空航天大学 一种视觉传感网络的快速通用标定方法
CN112541952A (zh) * 2020-12-08 2021-03-23 北京精英路通科技有限公司 停车场景相机标定方法、装置、计算机设备及存储介质
WO2021170051A1 (zh) * 2020-02-28 2021-09-02 华为技术有限公司 一种数字摄影测量方法、电子设备及***
WO2021217976A1 (zh) * 2020-04-28 2021-11-04 平安科技(深圳)有限公司 一种基于单目视觉定位的机械臂控制方法及装置
WO2022120567A1 (zh) * 2020-12-08 2022-06-16 深圳先进技术研究院 一种基于视觉引导的自动化标定***

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004271292A (ja) * 2003-03-07 2004-09-30 Meidensha Corp 校正器及びステレオカメラ位置姿勢校正装置
CN103208122A (zh) * 2013-04-18 2013-07-17 湖南大学 基于一维标定杆设计的多相机标定方法
CN110782498A (zh) * 2019-09-26 2020-02-11 北京航空航天大学 一种视觉传感网络的快速通用标定方法
WO2021170051A1 (zh) * 2020-02-28 2021-09-02 华为技术有限公司 一种数字摄影测量方法、电子设备及***
WO2021217976A1 (zh) * 2020-04-28 2021-11-04 平安科技(深圳)有限公司 一种基于单目视觉定位的机械臂控制方法及装置
CN112541952A (zh) * 2020-12-08 2021-03-23 北京精英路通科技有限公司 停车场景相机标定方法、装置、计算机设备及存储介质
WO2022120567A1 (zh) * 2020-12-08 2022-06-16 深圳先进技术研究院 一种基于视觉引导的自动化标定***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
视觉***中摄像机标定方法研究现状与展望;田俊英;液晶与显示;第36卷(第12期);1674-1692 *

Also Published As

Publication number Publication date
CN116912333A (zh) 2023-10-20

Similar Documents

Publication Publication Date Title
Ishikawa et al. Lidar and camera calibration using motions estimated by sensor fusion odometry
CN110807809B (zh) 基于点线特征和深度滤波器的轻量级单目视觉定位方法
CN106204574B (zh) 基于目标平面运动特征的相机位姿自标定方法
CN108470356B (zh) 一种基于双目视觉的目标对象快速测距方法
CN109211198B (zh) 一种基于三目视觉的智能目标检测和测量***和方法
CN109272574B (zh) 基于投影变换的线阵旋转扫描相机成像模型构建方法和标定方法
CN108597009B (zh) 一种基于方向角信息进行三维目标检测的方法
CN112396664A (zh) 一种单目摄像机与三维激光雷达联合标定及在线优化方法
CN112132874B (zh) 无标定板异源图像配准方法、装置、电子设备及存储介质
CN112200203B (zh) 斜视场下弱相关散斑图像的匹配方法
CN111897349A (zh) 一种基于双目视觉的水下机器人自主避障方法
CN110060304B (zh) 一种生物体三维信息采集方法
CN110827321B (zh) 一种基于三维信息的多相机协同的主动目标跟踪方法
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
CN113129384B (zh) 基于一维编码靶标的双目视觉***灵活标定方法
JP2017117386A (ja) 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
CN114022560A (zh) 标定方法及相关装置、设备
CN110763204A (zh) 一种平面编码靶标及其位姿测量方法
CN112381847A (zh) 管路端头空间位姿测量方法及***
CN113393439A (zh) 一种基于深度学习的锻件缺陷检测方法
CN111127613A (zh) 基于扫描电子显微镜的图像序列三维重构方法及***
CN111724446B (zh) 一种用于建筑物三维重建的变焦距相机外参数标定方法
CN113963067B (zh) 一种采用小靶标对大视场视觉传感器进行标定的标定方法
CN113706635B (zh) 一种基于点特征和线特征融合的长焦距相机标定方法
CN111583342A (zh) 一种基于双目视觉的目标快速定位方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant