CN117372244A - 基于二维阵列表示的大场景特征立体匹配方法 - Google Patents
基于二维阵列表示的大场景特征立体匹配方法 Download PDFInfo
- Publication number
- CN117372244A CN117372244A CN202311455085.8A CN202311455085A CN117372244A CN 117372244 A CN117372244 A CN 117372244A CN 202311455085 A CN202311455085 A CN 202311455085A CN 117372244 A CN117372244 A CN 117372244A
- Authority
- CN
- China
- Prior art keywords
- plane
- image
- point
- geodesic
- dimensional array
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000009466 transformation Effects 0.000 claims abstract description 60
- 238000003384 imaging method Methods 0.000 claims abstract description 37
- 238000004088 simulation Methods 0.000 claims abstract description 22
- 230000009467 reduction Effects 0.000 claims abstract description 14
- 238000013507 mapping Methods 0.000 claims abstract description 13
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 12
- 239000011159 matrix material Substances 0.000 claims description 35
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 239000007787 solid Substances 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 230000002093 peripheral effect Effects 0.000 abstract description 6
- 241000251468 Actinopterygii Species 0.000 abstract 1
- 230000008901 benefit Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于二维阵列表示的大场景特征立体匹配方法,其特点是:对立体鱼眼相机***进行参数标定,获取立体鱼眼相机的内参数,在不同的相机相对位姿下采集鱼眼图像;基于球面成像模型构建可延展组合成像模型;计算鱼眼图像像素与半球图像点之间的映射关系;计算半球图像点与正二十面体的测地线平面点之间的映射关系;对测地线平面上各点的三维坐标进行PCA降维;建立二维阵列模型并利用最优刚性变换生成模拟变换基元;对模拟变换基元执行仿射变换并得到模拟图像,提取特征点,生成描述符并对特征点进行匹配。本发明可有效解决因剧烈非线性畸变而难以在***区域提取到准确特征的问题,提高了鱼眼图像特征匹配的分布范围、数量及准确率。
Description
技术领域
本发明属于计算机视觉技术领域,涉及特征立体匹配方法,尤其是一种基于二维阵列表示的大场景特征立体匹配方法。
背景技术
长期以来,特征立体匹配的研究对象主要以透视图像为主。针孔透视相机的视场范围通常只有40°到60°,一次性拍摄仅可以得到非常有限的局部场景信息。针孔透视相机可以满足部分目标区域限定在局部小范围的应用需求,例如缺陷检测、人脸识别等领域。但是对于一些没有特定观测目标的应用场合,全局信息更具价值,例如智能驾驶、森林监测、机器人自主导航和避障、行人监测和跟踪等大场景领域。相比于针孔透视相机,鱼眼相机具有更宽的视场角,一般能够超过140°甚至达到270°,一幅鱼眼图像涵盖的场景信息需要多幅透视图像经过复杂的拼接才能得到。因此,在大场景应用场合,尤其是在机器人导航和自动驾驶领域,鱼眼相机具有显著优势,宽视场角能够同时可视化多个方向的物体。
为了利用鱼眼相机宽视场角的优势,近年来已涌现出一些基于鱼眼图像的特征立体匹配方法,其中,如何应对鱼眼图像剧烈的非线性畸变是每个方法都需要直面的挑战,这种非线性畸变会严重干扰特征的准确提取和描述。
一种最直接、最常用的方法就是先将鱼眼图像校正成为透视图像,然后再在校正后的图像上直接应用透视图像匹配方法。文献“Fiala M,Roth G.Automatic alignmentand graph map building of panoramas[C].IEEE International Workshop on HapticAudio-Visual Environments and their Applications,Ottawa,Canada,2005:104-109.”,将大场景鱼眼图像转换为立方体表面图,然后计算每个立方体图像面上的SIFT特征。文献“Zhang J,Yin X,Luan J,et al.An improved vehicle panoramic imagegeneration algorithm[J].Multimedia Tools and Applications,2019,78(19):27663-27682.”,基于扫描线思想改进球面透视投影算法并对鱼眼图像进行校正,之后在校正后的图像上提取SURF特征。文献“Lin Y,Gao F,Qin T,et al.Autonomous aerial navigationusing monocular visual-inertial fusion[J].Journal of Field Robotics,2018,35(1):23-51.”提出鱼眼相机无人机导航***,但是仅利用了鱼眼图像的部分场景信息:水平方向的两个子区域被校正成透视图像以进行后续处理,垂直方向的大部分视场信息被舍弃。文献“Miiller M G,Steidle F,Schuster M J,et al.Robust visual-inertial stateestimation with multiple odometries and efficient mapping on an MAV withultra-wide FOV stereo vision[C].IEEE International Conference on IntelligentRobots and Systems,Madrid,Spain,2018:3701-3708.”提出一种视觉惯性里程计和全方位三维建图***,为了克服鱼眼图像的畸变,每幅鱼眼图像的中心区域被校正为两幅透视图像,而***场景信息也被舍弃。透视校正可以有效消除非线性畸变,但也从根本上消除了鱼眼相机的宽视场角优势,此外,鱼眼图像圆盘***区域内的物体会被高度拉伸,靠近圆盘中心的物体则会被高度压缩。
除了透视校正,还有一些学者利用等量矩形图像来表示鱼眼图像,这种方法可以保留鱼眼相机的宽视场,同时也可以在一定程度上缓解鱼眼图像的畸变。为了生成三维场景环绕视图,文献“Lo I,Shih K,Chen H H.Image stitching for dual fisheye cameras[C].IEEE International Conference on Image Processing,Athens,Greece,2018:3164-3168.”将两个鱼眼相机的重叠视场图像校正成等量矩形图像,然后提取特征并完成整个视图拼接过程。文献“Zhao Q,Feng W,Wan L,et al.SPHORB:A fast and robustbinary feature on the sphere[J].International Journal of Computer Vision,2015,113(2):143-159.”改进传统ORB算法,为等量矩形图像在球面空间构造新的二元特征并提出球面ORB算法。文献“Shan Y,Li S.Descriptor matching for a discretespherical image with a convolutional neural network[J].IEEE Access,2018,6:20748-20755.”将鱼眼图像转换为等量矩形图像,采用加速分割特征测试算法提取特征点并用卷积神经网络描述特征。最近,文献“Pourian N,Nestares O.An end-to-endframework to high performance geometry-aware multi-scale keypoint detectionand matching in fisheye images[C].IEEE International Conference on ImageProcessing,Taiwan,2019:1302-1306.”提出一个多级几何感知特征点检测和匹配框架来提高多幅鱼眼图像之间的描述符匹配精度,在全局匹配阶段采用等量矩形图像变换,导致边缘区域引入新畸变,从而降低了框架性能。等量矩形图像是以球面模型为基础成像模型并将球面图像展开而获得,这个过程会引入二次畸变,尤其是球面极点周围,会造成严重的图像拉伸变形,从而导致描述符性能下降以及严重的误匹配问题。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于二维阵列表示的大场景特征立体匹配方法,其充分利用鱼眼相机的宽视场角优势,在不产生明显图像拉伸、场景损失的前提下,解决大视场鱼眼图像的特征立体匹配问题。
本发明解决现有的技术问题是采取以下技术方案实现的:
一种基于二维阵列表示的大场景特征立体匹配方法,包括以下步骤:
步骤1、采用圆形标志标定板对立体鱼眼相机***进行参数标定,获取立体鱼眼相机的内参数,在不同的相机相对位姿下采集鱼眼图像;
步骤2、以球面成像模型为基础成像模型,将单位正二十面体内嵌于单位球面构造可延展组合成像模型;
步骤3、基于可延展组合成像模型,利用等立体角投影模型公式推导方位角σ与极角ρ的计算公式,获得鱼眼图像像素和半球图像点的映射关系;
步骤4、计算半球图像点与正二十面体每个测地线平面顶点之间的映射关系;
步骤5、利用定位公式计算半球图像点、鱼眼图像像素以及每个测地线平面点之间的一一对应关系,然后对测地线平面上各点的三维坐标进行PCA降维;
步骤6、建立二维阵列模型并对阵列基元进行定位,在定向阵列表示的基础上,根据每个阵列基元的位置信息进行差异化局部表示,生成模拟变换基元;
步骤7、对模拟变换基元执行仿射变换并得到模拟图像,在模拟图像上采用SIFT算法提取特征点,生成描述符并对特征点进行匹配,然后将所有匹配点对合并为一组并剔除重复匹配点对。
进一步,所述可延展组合成像模型的空间点成像过程为:定义O-XYZ为相机坐标系,空间点M经过如下两个步骤实现在图像平面上成像:首先,空间点M沿着向量线性投影到成像模型上并得到投影点m'和mΔ,此时,沿着Z轴正方向的向量/>与向量/>形成极角ρ,沿着X轴正方向的向量/>与/>在XOY平面上的投影向量形成方位角σ;然后,投影点m'和mΔ非线性地投影到图像平面上得到像点m。
进一步,所述步骤3的具体实现方法为:
步骤3.1、依据立体鱼眼相机的内参数,采用等立体角投影模型定义像点m到图像中心oI的距离dima与极角ρ之间的关系,f为相机焦距;
步骤3.2、计算半球面点m'对应的方位角σ与极角ρ;
步骤3.3、利用方位角σ与极角ρ计算图像像素m的坐标和半球图像点m'的坐标。
进一步,所述步骤3.2采用的计算公式为:
其中,ψ为入射-X角,ζ为入射-Y角;
所述步骤3.3采用如下公式计算图像像素m的坐标:
所述步骤3.3采用如下公式计算半球图像点m'的坐标:
其中,R为成像模型中半球面半径。
进一步,所述步骤4的具体实现方法为:
步骤4.1、以投影点mΔ所在测地线平面ν1ν2ν3的三条边ν1ν2、ν1ν3、ν2ν3作为有向线段计算Plücker坐标;
步骤4.2、对有向线段和测地线平面ν1ν2ν3的三条有向线段/>和/>执行边缘操作算子;
步骤4.3、判断投影点mΔ所在的测地线平面。
进一步,所述步骤4.1的计算方法为:
设投影点mΔ所在测地线平面的三个顶点分别为ν1=(X1,Y1,Z1)、ν2=(X2,Y2,Z2)、ν3=(X3,Y3,Z3),则三条有向线段和/>的Plücker坐标/>和/>分别通过下式计算:
所述步骤4.2的实现方法为:设成像模型相机坐标系原点为O=(0,0,0),有向线段Om'的Plücker坐标为ΩOm'=[0,0,-Xm',0,-Zm',-Ym'],采用边缘操作算子计算有向线段与/> 以及/>之间的关系式/>和/>
所述步骤4.3的判断方法为:
如果mΔ在测地线平面ν1ν2ν3上,则会存在下列三种情况:
(1)过ν1ν2ν3的三个顶点,此时需满足以下条件:
(2)过ν1ν2ν3的三条边,此时需满足以下条件:
(3)过ν1ν2ν3的内部,此时需满足以下条件:
进一步,所述步骤5的具体实现方法为:
步骤5.1、计算测地线平面ν1ν2ν3的归一化法向量
步骤5.2、计算投影点mΔ的三维坐标;
步骤5.3、利用鱼眼图像、半球面与每个测地线平面点的映射关系,对测地线平面点的三维坐标进行PCA降维。
进一步,所述步骤5.1采用下式计算测地线平面ν1ν2ν3的归一化法向量
所述步骤5.2的计算方法为:利用测地线平面ν1ν2ν3顶点ν1=(X1,Y1,Z1)、归一化法向量以及对应半球面点m'=(Xm',Ym',Zm'),通过下式求得投影点mΔ的三个坐标值XΔ、YΔ、ZΔ:
进一步,所述步骤6的具体实现方法为:
步骤6.1、选定基准测地线平面,以基准测地线平面的一个顶点作为二维阵列模型坐标系的原点,将正二十面体模型展开为二维阵列模型;
步骤6.2、基于二维阵列模型,计算最优刚性变换矩阵;
步骤6.3、利用最优刚性变换矩阵建立模拟变换基元。
进一步,所述步骤6.2的实现方法为:
测地线平面上三维点的坐标经过PCA降维之后,设测地线平面α1α2Op的三个顶点分别为α1α2Op对应的阵列基元为β1β2Op1,设β1β2Op1的三个顶点分别为/> 为了将α1α2Op转换为阵列基元β1β2Op1,按以下步骤计算最优刚性变换矩阵;首先,将α1α2Op、β1β2Op1用下式表示为:
Triα=[α1 α2 Op]
Triβ=[β1 β2 Op1]
设cenα、cenβ分别为α1α2Op、β1β2Op1的质心,则cenα、cenβ的坐标通过下式求得:
为了找到最优旋转矩阵,需要对α1α2Op、β1β2Op1中所有点的坐标数据进行重定向,并使测地线平面α1α2Op和阵列基元β1β2Op1的质心都位于原点,重定向矩阵H→o通过下式计算:
H→o=(Tri_α-cen_α)×(Tri_β-cen_β)T
通过下式对矩阵H→o进行奇异值分解并计算最优旋转矩阵RET:
H→o=UET×SET×VET
RET=VET×UET T
利用最优旋转矩阵RET和质心坐标通过下式计算最优平移矩阵TET:
TET=-RET×cenα+cenβ;
步骤6.3、利用最优刚性变换矩阵建立模拟变换基元。
通过对测地线平面及其邻域测地线平面进行二维阵列表示,获得对应的模拟变换基元阵列模型。经过PCA降维后,测地线平面α1α2Op中所有点α1、α2、α3、…、αn、Op的坐标可以组成3×(n+1)维的矩阵αU:
αU=[α1 α2 α3 ... αn Op]
其中,n∈N*;
基于模拟变换基元阵列模型,对测地线平面α1α2Op进行最优刚性变换得到阵列基元β1β2Op1,β1β2Op1中所有点的坐标集合βU通过下式确定:
βU=RET×αU+[T1 T2 T3 ... Tn Tn+1]
其中,矩阵T1、T2、T3、…、Tn、Tn+1与TET相等。
本发明的优点和积极效果是:
1、本发明基于鱼眼相机的非线性成像方式建立可延展组合成像模型,与基于传统单一球面模型对鱼眼图像进行等量矩形展开的方法相比较,本发明使用可延展模型展开鱼眼图像,不会产生明显的图像拉伸变形问题,更有利于提高特征匹配准确率。
2、本发明对鱼眼图像进行二维阵列表示,相较于透视校正手段,本发明不会产生场景损失问题,不论在畸变较小的鱼眼图像圆盘中心区域还是畸变剧烈的***区域,均可以提取到分布更加广泛的特征,能够充分利用鱼眼相机的大场景优势。
3、本发明通过最优刚性变换构造模拟变换基元,能够有效解决因为邻域信息不足而无法有效描述锯齿边缘附近特征的问题,对模拟变换基元进行仿射变换,并在各参数变换后的模拟图像上执行SIFT特征匹配、剔除重复特征匹配,与现有鱼眼图像特征匹配方法相比较,本发明能够获取到数量丰富、甚至多达上千对的特征匹配结果。
4、本发明设计合理,其建立可延展组合成像模型及二维阵列模型,在不产生明显场景损失和图像拉伸的前提下削弱鱼眼图像畸变,能够有效解决因为剧烈非线性畸变而难以在***区域提取到准确特征的问题,提高特征匹配的分布范围;构造模拟变换基元并在仿射变换后的模拟图像上计算特征匹配,能够有效提高特征匹配的数量以及匹配准确率。
附图说明
图1为本发明的基于二维阵列表示的大场景特征立体匹配方法流程图;
图2为本发明建立的可延展组合成像模型示意图;
图3为本发明建立的二维阵列模型示意图;
图4为本发明建立的模拟变换基元阵列模型示意图;
图5为采用本发明在第一个场景下的匹配结果示意图;
图6为采用本发明在第二个场景下的匹配结果示意图;
图7为采用本发明在第三个场景下的匹配结果示意图。
具体实施方式
以下结合附图对本发明实施例做进一步详述。
一种基于二维阵列表示的大场景特征立体匹配方法,如图1所示,包括以下步骤:
步骤1、采用圆形标志标定板对立体鱼眼相机***进行参数标定并获取立体鱼眼相机的内参数,之后在不同的相机相对位姿下采集鱼眼图像。
步骤2、基于球面成像模型建立可延展组合成像模型。
在本步骤中,基于球面成像模型将单位正二十面体内嵌于单位球面构造可延展组合成像模型,并对成像模型进行定义。由于本发明是针对不大于180°视场角的鱼眼相机,因此最终的可延展组合成像模型由二分之一个单位正二十面体内嵌于半球面组成,同时需定义可延展组合成像模型的空间点成像过程,如图2所示:定义O-XYZ为相机坐标系。空间点M经过两个步骤实现在图像平面上成像:M首先沿着向量线性投影到成像模型上并得到投影点m'和mΔ。此时,沿着Z轴正方向的向量/>与向量/>形成极角ρ,沿着X轴正方向的向量/>与/>在XOY平面上的投影向量形成方位角σ;然后点m'和mΔ非线性地投影到图像平面上得到像素m。
步骤3、基于可延展组合成像模型,利用等立体角投影模型公式推导方位角σ与极角ρ的计算公式,获得鱼眼图像像素和半球图像点的映射关系。
在本实施例中,本步骤包括以下步骤:
步骤3.1、依据相机参数,采用等立体角投影模型定义像素m到图像中心oI的距离dima与极角ρ之间的关系,f为相机焦距。
步骤3.2、计算半球面点m'对应的方位角σ与极角ρ,公式如下:
其中,ψ为入射-X角,ζ为入射-Y角。
步骤3.3、利用方位角σ与极角ρ分别计算半球图像点m'和图像像素m的坐标,其中,m'=(Xm',Ym',Zm'),m=(xm,ym),公式如下:
其中,R为成像模型中半球面半径。
步骤4、计算半球图像点与正二十面体每个测地线平面的顶点之间的映射关系。
在本实施例中,本步骤包括以下步骤:
步骤4.1、以投影点mΔ所在测地线平面ν1ν2ν3的三条边ν1ν2、ν1ν3、ν2ν3作为有向线段计算Plücker坐标。
设点mΔ所在的测地线平面的三个顶点分别为ν1=(X1,Y1,Z1)、ν2=(X2,Y2,Z2)、ν3=(X3,Y3,Z3),则三条有向线段和/>的Plücker坐标/>和/>分别通过下式计算:
步骤4.2、对有向线段和测地线平面ν1ν2ν3的三条有向线段/>和/>执行边缘操作算子。
成像模型的相机坐标系原点为O=(0,0,0),有向线段的Plücker坐标ΩOm'=[0,0,-Xm',0,-Zm',-Ym'],采用边缘操作算子计算有向线段/>与/>以及/>之间的关系式/>和/>
步骤4.3、判断点mΔ所在的测地线平面。
如果mΔ在测地线平面ν1ν2ν3上,则会存在下列三种情况:
1)过ν1ν2ν3的三个顶点,此时需满足以下条件:
2)过ν1ν2ν3的三条边,此时需满足以下条件:
3)过ν1ν2ν3的内部,此时需满足以下条件:
步骤5、利用定位公式计算半球图像点、鱼眼图像像素以及每个测地线平面点之间的一一对应关系,然后对测地线平面上各点的三维坐标进行PCA降维。
在本实施例中,本步骤包括以下步骤:
步骤5.1、计算测地线平面ν1ν2ν3的归一化法向量
测地线平面ν1ν2ν3的归一化法向量可以通过下式求得:
步骤5.2、计算mΔ的三维坐标。
利用测地线平面ν1ν2ν3顶点ν1=(X1,Y1,Z1)、归一化法向量以及对应半球面点m'=(Xm',Ym',Zm'),通过下式求得投影点mΔ的三个坐标值XΔ、YΔ、ZΔ:
步骤5.3、利用鱼眼图像、半球面与多面体上每个测地线平面上点的映射关系,对测地线平面上点的三维坐标进行PCA降维处理。
步骤6、建立二维阵列模型并且对阵列基元进行定位,在定向阵列表示的基础上,根据每个阵列基元的位置信息进行差异化局部表示,生成模拟变换基元。
在本实施例中,本步骤包括以下步骤:
步骤6.1、选定基准测地线平面,以基准测地线平面的一个顶点作为二维阵列模型坐标系的原点,将正二十面体模型展开为二维阵列模型。
假设选定测地线平面1为基准测地线平面,建立二维阵列模型,如图3所示,其中,以基准测地线平面的一个顶点作为二维阵列模型坐标系的原点,正二十面体中的测地线平面1、2、3、4、5、6、……、17、18、19、20对应于二维阵列模型中阵列基元1'、2'、3'、4'、5'、6'、……、17'、18'、19'、20'。
步骤6.2、基于二维阵列模型,计算最优刚性变换矩阵。
Triα=[α1 α2 Op]
Triβ=[β1 β2 Op1]
测地线平面上三维点的坐标经过PCA降维之后,设α1α2Op的三个顶点分别为对应的阵列基元为β1β2Op1,设β1β2Op1的三个顶点分别为/>为了将α1α2Op转换为阵列基元β1β2Op1,按以下步骤计算最优刚性变换矩阵。首先,将α1α2Op、β1β2Op1用下式表示为:
Triα=[α1 α2 Op]
Triβ=[β1 β2 Op1]
设cenα、cenβ分别为α1α2Op、β1β2Op1的质心,则cenα、cenβ的坐标可以通过下式求得:
为了找到最优旋转矩阵,需要对α1α2Op、β1β2Op1中所有点的坐标数据进行重定向,并使α1α2Op和β1β2Op1的质心都位于原点,重定向矩阵H→o可以通过下式计算:
H→o=(Tri_α-cen_α)×(Tri_β-cen_β)T
对矩阵H→o进行奇异值分解并计算得到最优旋转矩阵RET:
H→o=UET×SET×VET
RET=VET×UET T
利用最优旋转矩阵RET和质心坐标通过下式计算最优平移矩阵TET:
TET=-RET×cenα+cenβ
步骤6.3、利用最优刚性变换矩阵建立模拟变换基元。
在二维阵列表示的过程中会产生的锯齿边缘,在锯齿边缘附近计算特征点时会因为缺乏邻域信息而忽略或者错误提取特征。针对此问题,本发明基于二维阵列模型建立模拟变换基元。以测地线平面1为例,通过对测地线平面1及其邻域测地线平面2、5、17进行二维阵列表示,获得对应的模拟变换基元阵列模型,如图4所示。
经过PCA降维之后,α1α2Op中所有点α1、α2、α3、…、αn、Op的坐标可以形成3×(n+1)维的矩阵αU:
αU=[α1 α2 α3 ... αn Op]
基于模拟变换基元阵列模型,对α1α2Op进行最优刚性变换得到阵列基元β1β2Op1,β1β2Op1中所有点的坐标集合通过下式确定:
βU=RET×αU+[T1 T2 T3 ... Tn Tn+1]
其中,矩阵T1、T2、T3、…、Tn、Tn+1与TET相等。
利用相同的方法对测地线平面2、5、17进行降维及最优刚性变换,进而建立测地线平面1的模拟变换基元。同样,可以建立其他测地线平面对应的模拟变换基元。
步骤7、对模拟变换基元执行仿射变换并得到模拟图像,在模拟图像上采用SIFT算法提取特征点,生成描述符并对特征点进行匹配,然后将所有匹配点对合并为一组并剔除重复匹配点对。
本步骤的具体处理过程分为两步:
步骤7.1、对模拟变换基元进行仿射变换:通过改变两个决定相机轴方向的参数:纬度角和经度角/>在多个不同视点下对模拟变换基元进行仿射变换,得到模拟图像。在本步骤中,通过模拟摄像机光轴方向变化引起的仿射畸变对模拟变换基元进行仿射变换,这些仿射畸变取决于纬度角/>和经度角/>的不同取值。先对模拟变换基元做角度为/>的旋转,之后进行绝对倾斜值/>的倾斜。绝对倾斜值t的采样间隔/>则绝对倾斜值t的取值情况为/>相应地,可以计算出纬度角/>的取值情况:经度角/>的采样间隔/>对于每一个绝对倾斜值t,经度角取值为0°,72°/t,144°/t,...,180°。
步骤7.2、执行SIFT匹配算法:由于鱼眼图像的每个模拟变换基元中的畸变基本一致,可以近似为仿射畸变。对于模拟变换基元执行仿射变换之后得到一系列模拟图像,在模拟图像上使用SIFT算法提取特征点,生成描述符并对特征点进行匹配,最后将所有匹配对合并成一组并去除重复点对,最后的匹配结果如图5、6、7所示。在图5、6、7所示的三种场景下的立体鱼眼图像中,每个场景里包含采用不同相机位姿采集的四对鱼眼图像,左边两列为原始立体鱼眼图像,右边两列为本发明提供的基于二维阵列表示的大场景特征立体匹配方法得到的匹配结果,从图中可以观察到,不论在畸变较小的中心区域还是畸变剧烈的***区域,本发明都能够获得数量丰富且对应准确的特征匹配点。
需要强调的是,本发明所述的实施例是说明性的,而不是限定性的,因此本发明包括并不限于具体实施方式中所述的实施例,凡是由本领域技术人员根据本发明的技术方案得出的其他实施方式,同样属于本发明保护的范围。
Claims (10)
1.一种基于二维阵列表示的大场景特征立体匹配方法,其特征在于:包括以下步骤:
步骤1、采用圆形标志标定板对立体鱼眼相机***进行参数标定,获取立体鱼眼相机的内参数,在不同的相机相对位姿下采集鱼眼图像;
步骤2、以球面成像模型为基础成像模型,将单位正二十面体内嵌于单位球面构造可延展组合成像模型;
步骤3、基于可延展组合成像模型,利用等立体角投影模型公式推导方位角σ与极角ρ的计算公式,获得鱼眼图像像素和半球图像点的映射关系;
步骤4、计算半球图像点与正二十面体每个测地线平面顶点之间的映射关系;
步骤5、利用定位公式计算半球图像点、鱼眼图像像素以及每个测地线平面点之间的一一对应关系,然后对测地线平面上各点的三维坐标进行PCA降维;
步骤6、建立二维阵列模型并对阵列基元进行定位,在定向阵列表示的基础上,根据每个阵列基元的位置信息进行差异化局部表示,生成模拟变换基元;
步骤7、对模拟变换基元执行仿射变换并得到模拟图像,在模拟图像上采用SIFT算法提取特征点,生成描述符并对特征点进行匹配,然后将所有匹配点对合并为一组并剔除重复匹配点对。
2.根据权利要求1所述的基于二维阵列表示的大场景特征立体匹配方法,其特征在于:所述可延展组合成像模型的空间点成像过程为:定义O-XYZ为相机坐标系,空间点M经过如下两个步骤实现在图像平面上成像:首先,空间点M沿着向量线性投影到成像模型上并得到投影点m'和mΔ,此时,沿着Z轴正方向的向量/>与向量/>形成极角ρ,沿着X轴正方向的向量/>与/>在XOY平面上的投影向量形成方位角σ;然后,投影点m'和mΔ非线性地投影到图像平面上得到像点m。
3.根据权利要求1所述的基于二维阵列表示的大场景特征立体匹配方法,其特征在于:所述步骤3的具体实现方法为:
步骤3.1、依据立体鱼眼相机的内参数,采用等立体角投影模型定义像点m到图像中心oI的距离dima与极角ρ之间的关系,f为相机焦距;
步骤3.2、计算半球面点m'对应的方位角σ与极角ρ;
步骤3.3、利用方位角σ与极角ρ计算图像像素m的坐标和半球图像点m'的坐标。
4.根据权利要求3所述的基于二维阵列表示的大场景特征立体匹配方法,其特征在于:所述步骤3.2采用的计算公式为:
其中,ψ为入射-X角,ζ为入射-Y角;
所述步骤3.3采用如下公式计算图像像素m的坐标:
所述步骤3.3采用如下公式计算半球图像点m'的坐标:
其中,R为成像模型中半球面半径。
5.根据权利要求1所述的基于二维阵列表示的大场景特征立体匹配方法,其特征在于:所述步骤4的具体实现方法为:
步骤4.1、以投影点mΔ所在测地线平面ν1ν2ν3的三条边ν1ν2、ν1ν3、ν2ν3作为有向线段计算Plücker坐标;
步骤4.2、对有向线段和测地线平面ν1ν2ν3的三条有向线段/>和/>执行边缘操作算子;
步骤4.3、判断投影点mΔ所在的测地线平面。
6.根据权利要求5所述的基于二维阵列表示的大场景特征立体匹配方法,其特征在于:所述步骤4.1的计算方法为:
设投影点mΔ所在测地线平面的三个顶点分别为ν1=(X1,Y1,Z1)、ν2=(X2,Y2,Z2)、ν3=(X3,Y3,Z3),则三条有向线段和/>的Plücker坐标/>和/>分别通过下式计算:
所述步骤4.2的实现方法为:设成像模型相机坐标系原点为O=(0,0,0),有向线段Om'的Plücker坐标为ΩOm'=[0,0,-Xm',0,-Zm',-Ym'],采用边缘操作算子计算有向线段与 以及/>之间的关系式/>
所述步骤4.3的判断方法为:
如果mΔ在测地线平面ν1ν2ν3上,则会存在下列三种情况:
(1)过ν1ν2ν3的三个顶点,此时需满足以下条件:
(2)过ν1ν2ν3的三条边,此时需满足以下条件:
(3)过ν1ν2ν3的内部,此时需满足以下条件:
7.根据权利要求1所述的基于二维阵列表示的大场景特征立体匹配方法,其特征在于:所述步骤5的具体实现方法为:
步骤5.1、计算测地线平面ν1ν2ν3的归一化法向量
步骤5.2、计算投影点mΔ的三维坐标;
步骤5.3、利用鱼眼图像、半球面与每个测地线平面点的映射关系,对测地线平面点的三维坐标进行PCA降维。
8.根据权利要求7所述的基于二维阵列表示的大场景特征立体匹配方法,其特征在于:所述步骤5.1采用下式计算测地线平面ν1ν2ν3的归一化法向量
所述步骤5.2的计算方法为:利用测地线平面ν1ν2ν3顶点ν1=(X1,Y1,Z1)、归一化法向量以及对应半球面点m'=(Xm',Ym',Zm'),通过下式求得投影点mΔ的三个坐标值XΔ、YΔ、ZΔ:
9.根据权利要求1所述的基于二维阵列表示的大场景特征立体匹配方法,其特征在于:所述步骤6的具体实现方法为:
步骤6.1、选定基准测地线平面,以基准测地线平面的一个顶点作为二维阵列模型坐标系的原点,将正二十面体模型展开为二维阵列模型;
步骤6.2、基于二维阵列模型,计算最优刚性变换矩阵;
步骤6.3、利用最优刚性变换矩阵建立模拟变换基元。
10.根据权利要求9所述的基于二维阵列表示的大场景特征立体匹配方法,其特征在于:所述步骤6.2的实现方法为:
测地线平面上三维点的坐标经过PCA降维之后,设测地线平面α1α2Op的三个顶点分别为α1α2Op对应的阵列基元为β1β2Op1,设β1β2Op1的三个顶点分别为/> 为了将α1α2Op转换为阵列基元β1β2Op1,按以下步骤计算最优刚性变换矩阵;首先,将α1α2Op、β1β2Op1用下式表示为:
Triα=[α1 α2 Op]
Triβ=[β1 β2 Op1]
设cenα、cenβ分别为α1α2Op、β1β2Op1的质心,则cenα、cenβ的坐标通过下式求得:
为了找到最优旋转矩阵,需要对α1α2Op、β1β2Op1中所有点的坐标数据进行重定向,并使测地线平面α1α2Op和阵列基元β1β2Op1的质心都位于原点,重定向矩阵H→o通过下式计算:
H→o=(Tri_α-cen_α)×(Tri_β-cen_β)T
通过下式对矩阵H→o进行奇异值分解并计算最优旋转矩阵RET:
H→o=UET×SET×VET
RET=VET×UET T
利用最优旋转矩阵RET和质心坐标通过下式计算最优平移矩阵TET:
TET=-RET×cenα+cenβ;
步骤6.3、利用最优刚性变换矩阵建立模拟变换基元。
通过对测地线平面及其邻域测地线平面进行二维阵列表示,获得对应的模拟变换基元阵列模型。经过PCA降维后,测地线平面α1α2Op中所有点α1、α2、α3、…、αn、Op的坐标可以组成3×(n+1)维的矩阵αU:
αU=[α1 α2 α3...αn Op]
其中,n∈N*;
基于模拟变换基元阵列模型,对测地线平面α1α2Op进行最优刚性变换得到阵列基元β1β2Op1,β1β2Op1中所有点的坐标集合βU通过下式确定:
βU=RET×αU+[T1 T2 T3...Tn Tn+1]
其中,矩阵T1、T2、T3、…、Tn、Tn+1与TET相等。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311455085.8A CN117372244A (zh) | 2023-11-03 | 2023-11-03 | 基于二维阵列表示的大场景特征立体匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311455085.8A CN117372244A (zh) | 2023-11-03 | 2023-11-03 | 基于二维阵列表示的大场景特征立体匹配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117372244A true CN117372244A (zh) | 2024-01-09 |
Family
ID=89403973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311455085.8A Pending CN117372244A (zh) | 2023-11-03 | 2023-11-03 | 基于二维阵列表示的大场景特征立体匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117372244A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230215026A1 (en) * | 2022-01-03 | 2023-07-06 | GM Global Technology Operations LLC | On-vehicle spatial monitoring system |
-
2023
- 2023-11-03 CN CN202311455085.8A patent/CN117372244A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230215026A1 (en) * | 2022-01-03 | 2023-07-06 | GM Global Technology Operations LLC | On-vehicle spatial monitoring system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
CN107194991B (zh) | 一种基于骨架点局域动态更新的三维全局可视化监控***构建方法 | |
CN107705252B (zh) | 适用于双目鱼眼图像拼接展开校正的方法及*** | |
CN106683137B (zh) | 基于人工标志的单目多目标识别与定位方法 | |
CN106447601B (zh) | 一种基于投影-相似变换的无人机遥感影像拼接方法 | |
CN111553939B (zh) | 一种多目摄像机的图像配准算法 | |
CN108171715B (zh) | 一种图像分割方法及装置 | |
CN109470149B (zh) | 一种管路位姿的测量方法及装置 | |
CN110969667A (zh) | 基于边缘特征的多光谱相机外参自校正算法 | |
CN110717936B (zh) | 一种基于相机姿态估计的图像拼接方法 | |
CN117372244A (zh) | 基于二维阵列表示的大场景特征立体匹配方法 | |
CN114549871A (zh) | 一种无人机航拍图像与卫星影像匹配方法 | |
Komatsu et al. | 360 depth estimation from multiple fisheye images with origami crown representation of icosahedron | |
CN115082617A (zh) | 基于多视图优化的管道三维重建方法、装置及存储介质 | |
CN111798453A (zh) | 用于无人驾驶辅助定位的点云配准方法及其*** | |
CN117197333A (zh) | 基于多目视觉的空间目标重构与位姿估计方法及*** | |
CN113284249B (zh) | 一种基于图神经网络的多视角三维人体重建方法及*** | |
CN112418250B (zh) | 一种复杂3d点云的优化匹配方法 | |
CN114926552B (zh) | 一种基于无人机图像计算像素点高斯坐标方法及*** | |
CN116630423A (zh) | 一种基于orb特征的微小型机器人多目标双目定位方法及*** | |
CN107644394A (zh) | 一种3d图像的处理方法及装置 | |
CN115953471A (zh) | 室内场景多尺度矢量图像检索与定位方法、***及介质 | |
CN115423854A (zh) | 一种基于多尺度特征提取的多视角点云配准及点云融合方法 | |
KR20160049639A (ko) | 부분 선형화 기반의 3차원 영상 정합 방법 | |
CN115131433A (zh) | 一种非合作目标位姿的处理方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |