CN108921936A - 一种基于光场模型的水下激光条纹匹配和立体重建方法 - Google Patents

一种基于光场模型的水下激光条纹匹配和立体重建方法 Download PDF

Info

Publication number
CN108921936A
CN108921936A CN201810584983.6A CN201810584983A CN108921936A CN 108921936 A CN108921936 A CN 108921936A CN 201810584983 A CN201810584983 A CN 201810584983A CN 108921936 A CN108921936 A CN 108921936A
Authority
CN
China
Prior art keywords
point
light
laser stripe
laser
last layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810584983.6A
Other languages
English (en)
Inventor
张旭
何平平
李锦波
屠大维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN201810584983.6A priority Critical patent/CN108921936A/zh
Publication of CN108921936A publication Critical patent/CN108921936A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明提供了一种基于光场模型的水下激光条纹匹配和立体重建方法,属于计算机视觉研究领域,典型的应用是水下环境中的双目立体视觉三维重建。本发明基于光场模型中的多层平面折射几何理论,提出一种在多层平面折射***中寻找激光条纹匹配点和计算三维点的方法。与传统极限约束方法相比,该方法在多层平面折射坐标系中描述光线,利用共面约束查找激光条纹对应点,利用奇异值分解法计算空间三维点。本发明给出了共面约束的计算条件表达式和根据对应点计算三维点表达式。本发明可用于水下利用线激光的双目立体视觉重建乃至所有加装防护玻璃或滤波片的双目立体视觉重建。

Description

一种基于光场模型的水下激光条纹匹配和立体重建方法
技术领域
本发明属于计算机视觉研究领域,涉及一种基于光场模型的水下激光条纹匹配和立体重建方法,具体是一种水下光场模型中多层折射***中激光条纹匹配和立体重建方法。
背景技术
在水下环境中,成像光线将依次通过水,玻璃,空气这三层折射介质。现有的激光条纹匹配方法是基于双目立体视觉的极限约束。文献“林俊义,黄常标,刘斌,等.一种基于双目立体视觉的激光线扫描技术[J].机械设计与制造,2011(8):200-202.”提出的就是一种基于极限约束的寻找激光条纹匹配点的方法。极限约束基于传统的相机模型,它使用畸变参数来校正折射造成的偏差。然而,折射对不同像素点产生偏差的影响是不同的,使用传统的相机模型会产生明显的误差。因此,在模型描述不准确的情形下,用极限约束找到的对应点并不是真正的对应点。
中国专利CN201410195345.7公开了一种基于线结构光的水下目标三维重建方法。该方法利用单相机和激光组合的方式来进行立体重建,利用在水下不同深度获得的标校数据对二维图像中的激光条纹进行矫正位置,以消除折射带来的影响。但该方法在不同深度的水中,都要用标定板进行现场标校,实际操作非常不便,尤其在深海,标定板本身需要有抗压能力,还需要有很长的机械臂来摆放标定板进行拍摄,实际操作性较低。
发明内容
本发明为解决上述问题,基于光场模型中多层平面折射几何理论,提出一种基于光场模型的水下激光条纹匹配和立体重建方法,可用于水下双目立体视觉中激光条纹中心点匹配和计算三维点,其与空气中的极限约束不同之处在于相机模型不同,光线描述方法不同,采用共面约束来查找匹配对应点,奇异值分解来计算三维点。
为达到上述目的,本发明采用下述技术方案:
一种基于光场模型的水下激光条纹匹配和立体重建方法,其特征在于操作步骤如下:
步骤a:利用水下双目立体视觉测量***完成对水下目标的激光扫描和图片获取。
步骤b:对获取的左右相机图片进行激光条纹中心提取。
步骤c:根据空气和水下标定获得的参数信息,对激光条纹中心点计算对应光线在多层折射坐标系内所形成的光线,一直计算到最后一层界面光线的点和方向。
步骤d:根据左右激光条纹点对应的最后一层界面光线的点和方向,计算光线混合积,混合积为0的光线对应激光点为激光条纹对应点。
步骤e:根据左右激光条纹对应点所对应的最后一层界面的点和方向,计算空间三维点。
所述步骤c中的激光条纹点计算最后一层界面光线的点和方向,包括以下步骤:
步骤①:左相机图片上激光条纹中心点像素坐标为(uL,vL),右相机图片上激光条纹中心点像素坐标为(uR,vR),分别计算它们在各自的相机坐标系的光线方向dir_out_L和dir_out_R。
步骤②:根据标定的法线向量nL,nR计算从相机坐标系到多层折射坐标系的旋转矩阵RL,RR,再把左右得到的光线方向转换到各自的多层折射坐标系下,计算公式为Ir=R-1·dir_out,从而可以得到dir_out_ref_L,dir_out_ref_R。
步骤③:计算光线传播到最后一层界面的光场。根据标定数据折射率miu_L,miu_R,各个界面的距离dis_L,dis_R,可以根据光线在光场中的传播特性计算出最后一层界面的光场为I_out_dn_L,I_out_dn_R。
步骤④:将左右折射坐标系最后一层界面的光场I_out_dn_L,I_out_dn_R转换成点和方向表达方式,得到a_dn_L,a_dn_R,q_dn_L,q_dn_R。
步骤⑤:将右多层折射成像坐标系点矢转换到左多层折射成像坐标系,得到a_dn_R_inL,q_dn_R_inL。
所述步骤d中寻找对应点按照如下方式进行:
从a_dn_L,q_dn_L中取左激光条纹中心点第1个点(从上到下依次排序)对应的点矢,在a_dn_R,q_dn_R中取右激光条纹中心点第1个点对应的点矢,跟左相机中所取的点矢计算混合积,得到V1。然后再计算跟右激光条纹中心点第2个点对应点矢的混合积,记为V2,二者相乘得到V1*V2,若V1*V2≤0,则判断在第1和第2个点之间存在混合积过零点,即在右激光条纹中心点第1、2个点之间存在跟左激光条纹中心点第1个点对应的中心点。若V1*V2>0,继续计算右激光条纹中心点第3个点对应点矢的混合积,记为V3,计算V2*V3,再次做正负判断,若V2*V3≤0,则右激光条纹中心对应点存在于第2、3个点之间。若V2*V3>0,继续计算V4,依次类推。直到找到混合积过零点。
混合积的计算公式如下:
其中:
al——左相机激光条纹中心点对应最后一层界面光线的方向;
ql——左相机激光条纹中心点对应最后一层界面光线的点位置;
ar'——右相机激光条纹中心点对应最后一层界面光线的方向(在左多层折射坐标系下);
混合积为0的光线对应激光点为激光条纹对应点的理论依据如下:
空间中一点反射到两个相机的像素点,在最后一层界面的光线是相交于一点的,即两条光线是共面的。因此在最后一层界面的al,ar',qr'-ql三个向量是共面的,即三个向量构成的六面体的体积为0,即混合积为0。
所述步骤e中计算空间三维点的理论方法如下:
在左多层折射坐标系下的P点同时在左右激光条纹对应点所计算的光线上,满足如下约束:
表示矢量叉乘。使用反对陈矩阵表示代替叉乘,其可转化为
对其进行奇异值分解可得P。
由于采用了上述解决方案,本发明具有如下显而易见的突出实质性特点和显著优点:
1、精度高,采用光场模型多层折射坐标系描述光线,比传统的畸变矫正精度要高很多,不存在***误差。
2、操作方便,不需在水下摆放标定板进行激光条纹位置矫正。只需在水下进行扫描拍摄,利用C++编程对扫描物体进行三维重建。
附图说明
图1为扫描***硬件摆放图。
图2为多层折射平面立体***图。
图3为多层折射***中激光条纹中心点匹配和计算三维点流程图。
具体实施方式
下面结合附图和优选实施例对本发明做出详细说明。
实施例一:参见图3,本基于光场模型的水下激光条纹匹配和立体重建方法,其特征在于,操作步骤如下:
步骤a:利用水下双目立体视觉测量***完成对水下目标的激光扫描和图片获取;
步骤b:对获取的左右相机图片进行激光条纹中心提取;
步骤c:根据空气和水下标定获得的参数信息,对激光条纹中心点计算对应光线在多层折射坐标系内所形成的光线,一直计算到最后一层界面光线的点和方向;
步骤d:根据左右激光条纹点对应的最后一层界面光线的点和方向,计算光线混合积,混合积为0的光线对应激光点为激光条纹对应点;
步骤e:根据左右激光条纹对应点所对应的最后一层界面的点和方向,计算空间三维点;
实施例二:本基于光场模型的水下激光条纹匹配和立体重建方法,流程如图3所示,包括以下步骤a至步骤e,共计5个步骤:
步骤a:利用水下双目立体视觉测量***,,完成对水下目标的激光扫描和图片获取。
水下双目立体视觉测量***,如图1所示,由激光器扫描***(3)和两组相机(1,2)组成。当启动***时,激光扫描***对扫描范围进行扫描,同时两个相机(1,2)同步拍摄照片存储到电脑中。
步骤b:对获取的左右相机图片进行激光条纹中心提取。
步骤c:参见图2,根据空气和水下标定获得的参数信息,对激光条纹中心点计算对应光线在多层折射坐标系内所形成的光线,一直计算到最后一层界面光线的点和方向。计算过程包括以下步骤:
步骤①:左相机图片上激光条纹中心点像素坐标为(uL,vL),右相机图片上激光条纹中心点像素坐标为(uR,vR),分别计算它们在各自的相机坐标系的光线方向dir_out_L和dir_out_R。
步骤②:根据标定的法线向量nL,nR计算从相机坐标系到多层折射坐标系的旋转矩阵RL,RR,再把左右得到的光线方向转换到各自的多层折射坐标系下,计算公式为Ir=R-1·dir_out,从而可以得到dir_out_ref_L,dir_out_ref_R。
步骤③:计算光线传播到最后一层界面的光场。根据标定数据折射率miu_L,miu_R,各个界面的距离dis_L,dis_R,可以根据光线在光场中的传播特性计算出最后一层界面的光场为I_out_dn_L,I_out_dn_R。
步骤④:将左右折射坐标系最后一层界面的光场I_out_dn_L,I_out_dn_R转换成点和方向表达方式,得到a_dn_L,a_dn_R,q_dn_L,q_dn_R。
步骤⑤:将右多层折射成像坐标系点矢转换到左多层折射成像坐标系,得到a_dn_R_inL,q_dn_R_inL。
步骤d:根据左右激光条纹点对应的最后一层界面光线的点和方向,计算光线混合积,混合积为0的光线对应激光点为激光条纹对应点。该过程按照如下方式进行:
从a_dn_L,q_dn_L中取左激光条纹中心点第1个点(从上到下依次排序)对应的点矢,在a_dn_R,q_dn_R中取右激光条纹中心点第1个点对应的点矢,跟左相机中所取的点矢计算混合积,得到V1。然后再计算跟右激光条纹中心点第2个点对应点矢的混合积,记为V2,二者相乘得到V1*V2,若V1*V2≤0,则判断在第1和第2个点之间存在混合积过零点,即在右激光条纹中心点第1、2个点之间存在跟左激光条纹中心点第1个点对应的中心点。若V1*V2>0,继续计算右激光条纹中心点第3个点对应点矢的混合积,记为V3,计算V2*V3,再次做正负判断,若V2*V3≤0,则右激光条纹中心对应点存在于第2、3个点之间。若V2*V3>0,继续计算V4,依次类推。直到找到混合积过零点。
混合积的计算公式如下:
其中:
al——左相机激光条纹中心点对应最后一层界面光线的方向;
ql——左相机激光条纹中心点对应最后一层界面光线的点位置;
ar'——右相机激光条纹中心点对应最后一层界面光线的方向(在左多层折射坐标系下);
步骤e:根据左右激光条纹对应点所对应的最后一层界面的点和方向,计算空间三维点。计算空间三维点的理论方法如下:
在左多层折射坐标系下的P点同时在左右激光条纹对应点所计算的光线上,满足如下约束:
表示矢量叉乘。使用反对陈矩阵表示代替叉乘,其可转化为对其进行奇异值分解可得P。

Claims (4)

1.一种基于光场模型的水下激光条纹匹配和立体重建方法,其特征在于,操作步骤如下:
步骤a:利用水下双目立体视觉测量***完成对水下目标的激光扫描和图片获取;
步骤b:对获取的左右相机图片进行激光条纹中心提取;
步骤c:根据空气和水下标定获得的参数信息,对激光条纹中心点计算对应光线在多层折射坐标系内所形成的光线,一直计算到最后一层界面光线的点和方向;
步骤d:根据左右激光条纹点对应的最后一层界面光线的点和方向,计算光线混合积,混合积为0的光线对应激光点为激光条纹对应点;
步骤e:根据左右激光条纹对应点所对应的最后一层界面的点和方向,计算空间三维点。
2.根据权利要求1所述的基于光场模型的水下激光条纹匹配和立体重建方法,其特征在于:所述步骤c中的激光条纹点计算最后一层界面光线的点和方向,包括以下步骤:
步骤①:左相机图片上激光条纹中心点像素坐标为(uL,vL),右相机图片上激光条纹中心点像素坐标为(uR,vR),分别计算它们在各自的相机坐标系的光线方向dir_out_L和dir_out_R;
步骤②:根据标定的法线向量nL,nR计算从相机坐标系到多层折射坐标系的旋转矩阵RL,RR,再把左右得到的光线方向转换到各自的多层折射坐标系下,计算公式为Ir=R-1·dir_out,从而得到dir_out_ref_L,dir_out_ref_R;
步骤③:计算光线传播到最后一层界面的光场;根据标定数据折射率miu_L,miu_R,各个界面的距离dis_L,dis_R,根据光线在光场中的传播特性计算出最后一层界面的光场为I_out_dn_L,I_out_dn_R;
步骤④:将左右折射坐标系最后一层界面的光场I_out_dn_L,I_out_dn_R转换成点和方向表达方式,得到a_dn_L,a_dn_R,q_dn_L,q_dn_R;
步骤⑤:将右多层折射成像坐标系点矢转换到左多层折射成像坐标系,得到a_dn_R_inL,q_dn_R_inL。
3.根据权利要求1所述的基于光场模型的水下激光条纹匹配和立体重建方法,其特征在于:所述步骤d中寻找对应点按照如下方式进行:
从a_dn_L,q_dn_L中取左激光条纹中心点第1个点,从上到下依次排序,对应的点矢,在a_dn_R,q_dn_R中取右激光条纹中心点第1个点对应的点矢,跟左相机中所取的点矢计算混合积,得到V1;然后再计算跟右激光条纹中心点第2个点对应点矢的混合积,记为V2,二者相乘得到V1*V2,若V1*V2≤0,则判断在第1和第2个点之间存在混合积过零点,即在右激光条纹中心点第1、2个点之间存在跟左激光条纹中心点第1个点对应的中心点;若V1*V2>0,继续计算右激光条纹中心点第3个点对应点矢的混合积,记为V3,计算V2*V3,再次做正负判断,若V2*V3≤0,则右激光条纹中心对应点存在于第2、3个点之间;若V2*V3>0,继续计算V4,依次类推;直到找到混合积过零点;
混合积的计算公式如下:
其中:
al——左相机激光条纹中心点对应最后一层界面光线的方向;
ql——左相机激光条纹中心点对应最后一层界面光线的点位置;
ar'——右相机激光条纹中心点对应最后一层界面光线在左多层折射坐标系下的方向;
混合积为0的光线对应激光点为激光条纹对应点的理论依据如下:
空间中一点反射到两个相机的像素点,在最后一层界面的光线是相交于一点的,即两条光线是共面的;在最后一层界面的al,ar',qr'-ql三个向量是共面的,即三个向量构成的六面体的体积为0,即混合积为0。
4.根据权利要求1所述的基于光场模型的水下激光条纹匹配和立体重建方法,其特征在于:所述步骤e中计算空间三维点的理论方法如下:
在左多层折射坐标系下的P点同时在左右激光条纹对应点所计算的光线上,满足如下约束:
表示矢量叉乘;使用反对陈矩阵表示代替叉乘,其转化为对其进行奇异值分解得P。
CN201810584983.6A 2018-06-08 2018-06-08 一种基于光场模型的水下激光条纹匹配和立体重建方法 Pending CN108921936A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810584983.6A CN108921936A (zh) 2018-06-08 2018-06-08 一种基于光场模型的水下激光条纹匹配和立体重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810584983.6A CN108921936A (zh) 2018-06-08 2018-06-08 一种基于光场模型的水下激光条纹匹配和立体重建方法

Publications (1)

Publication Number Publication Date
CN108921936A true CN108921936A (zh) 2018-11-30

Family

ID=64419009

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810584983.6A Pending CN108921936A (zh) 2018-06-08 2018-06-08 一种基于光场模型的水下激光条纹匹配和立体重建方法

Country Status (1)

Country Link
CN (1) CN108921936A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110728745A (zh) * 2019-09-17 2020-01-24 上海大学 一种基于多层折射图像模型的水下双目立体视觉三维重建方法
CN112465950A (zh) * 2020-11-26 2021-03-09 江苏国和智能科技有限公司 深海网箱渔网水下距离测量装置、方法、电子设备及介质
CN115790539A (zh) * 2022-11-22 2023-03-14 深圳大学 一种合作靶标水下摄影测量方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103971406A (zh) * 2014-05-09 2014-08-06 青岛大学 基于线结构光的水下目标三维重建方法
US20140300885A1 (en) * 2013-04-05 2014-10-09 Lockheed Martin Corporation Underwater platform with lidar and related methods
CN106097430A (zh) * 2016-06-28 2016-11-09 哈尔滨工程大学 一种多高斯信号拟合的激光条纹中心线提取方法
CN107507242A (zh) * 2017-08-16 2017-12-22 华中科技大学无锡研究院 一种基于光场模型的多层折射***成像模型构建方法
CN107907048A (zh) * 2017-06-30 2018-04-13 长沙湘计海盾科技有限公司 一种基于线结构光扫描的双目立体视觉三维测量方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140300885A1 (en) * 2013-04-05 2014-10-09 Lockheed Martin Corporation Underwater platform with lidar and related methods
CN103971406A (zh) * 2014-05-09 2014-08-06 青岛大学 基于线结构光的水下目标三维重建方法
CN106097430A (zh) * 2016-06-28 2016-11-09 哈尔滨工程大学 一种多高斯信号拟合的激光条纹中心线提取方法
CN107907048A (zh) * 2017-06-30 2018-04-13 长沙湘计海盾科技有限公司 一种基于线结构光扫描的双目立体视觉三维测量方法
CN107507242A (zh) * 2017-08-16 2017-12-22 华中科技大学无锡研究院 一种基于光场模型的多层折射***成像模型构建方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110728745A (zh) * 2019-09-17 2020-01-24 上海大学 一种基于多层折射图像模型的水下双目立体视觉三维重建方法
CN110728745B (zh) * 2019-09-17 2023-09-15 上海大学 一种基于多层折射图像模型的水下双目立体视觉三维重建方法
CN112465950A (zh) * 2020-11-26 2021-03-09 江苏国和智能科技有限公司 深海网箱渔网水下距离测量装置、方法、电子设备及介质
CN115790539A (zh) * 2022-11-22 2023-03-14 深圳大学 一种合作靶标水下摄影测量方法
CN115790539B (zh) * 2022-11-22 2024-02-13 深圳大学 一种合作靶标水下摄影测量方法

Similar Documents

Publication Publication Date Title
CN106091984B (zh) 一种基于线激光的三维点云数据获取方法
JP4095491B2 (ja) 距離測定装置、距離測定方法、及び距離測定プログラム
Pollefeys et al. Stratified self-calibration with the modulus constraint
CN102410811B (zh) 一种弯管参数的测量方法和***
CN104036542B (zh) 一种基于空间光线聚集性的像面特征点匹配方法
CN108629829B (zh) 一种球幕相机与深度相机结合的三维建模方法和***
CN109579695B (zh) 一种基于异构立体视觉的零件测量方法
CN106485690A (zh) 基于点特征的点云数据与光学影像的自动配准融合方法
CN109523595A (zh) 一种建筑工程直线棱角间距视觉测量方法
CN110375648A (zh) 棋盘格靶标辅助的单台相机实现的空间点三维坐标测量方法
CN109059873A (zh) 基于光场多层折射模型的水下三维重建装置和方法
CN109859272A (zh) 一种自动对焦双目摄像头标定方法及装置
CN112598740B (zh) 一种大范围多视倾斜影像连接点快速精确匹配方法
CN105241397A (zh) 基于结构光的实时测量拼接方法及其设备
CN105931222A (zh) 用低精度二维平面靶标实现高精度相机标定的方法
CN108921936A (zh) 一种基于光场模型的水下激光条纹匹配和立体重建方法
CN102903101B (zh) 使用多台相机进行水面数据采集与重建的方法
CN110378969A (zh) 一种基于3d几何约束的汇聚式双目相机标定方法
WO2023046211A1 (zh) 摄影测量方法、装置、设备及存储介质
CN108399631B (zh) 一种尺度不变性的倾斜影像多视密集匹配方法
CN111028281A (zh) 基于光场双目***的深度信息的计算方法及装置
CN109341668A (zh) 基于折射投影模型和光束追踪法的多相机测量方法
CN108010125A (zh) 基于线结构光和图像信息的真实尺度三维重建***及方法
CN106500729B (zh) 一种无需控制信息的智能手机自检校方法
CN103530861B (zh) 一种岩心图像拼接融合方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20181130

RJ01 Rejection of invention patent application after publication