CN110631556A - 一种异构立体视觉***的测距方法 - Google Patents

一种异构立体视觉***的测距方法 Download PDF

Info

Publication number
CN110631556A
CN110631556A CN201910917395.4A CN201910917395A CN110631556A CN 110631556 A CN110631556 A CN 110631556A CN 201910917395 A CN201910917395 A CN 201910917395A CN 110631556 A CN110631556 A CN 110631556A
Authority
CN
China
Prior art keywords
image
perspective
resolution
panoramic
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910917395.4A
Other languages
English (en)
Other versions
CN110631556B (zh
Inventor
蔡成涛
许耀华
吴吕英
陈昊旭
林祖兴
胡利仁
吴砚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huzhou South Taihu intelligent yacht Research Institute
Original Assignee
Huzhou South Taihu Intelligent Yacht Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huzhou South Taihu Intelligent Yacht Research Institute filed Critical Huzhou South Taihu Intelligent Yacht Research Institute
Priority to CN201910917395.4A priority Critical patent/CN110631556B/zh
Publication of CN110631556A publication Critical patent/CN110631556A/zh
Application granted granted Critical
Publication of CN110631556B publication Critical patent/CN110631556B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/30Interpretation of pictures by triangulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/36Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

本发明是一种异构立体视觉***的测距方法。全景相机可以监控到360度视野范围内的物体,但由于分辨率的限制,不能对特定的物体进行近距离的观察。普通相机却能够做到这一点。普通相机有着优越的移动性能和变焦能力,可以弥补全景相机的缺点。二者的结合,不但能够对监控区域进行全方位的观察,还能够看到特定目标的具体细节部分。虽然这种特殊的结构能够带来如此大的优势,但由于成像模型不同也为后续立体图像的处理提出了挑战。本发明通过对全景图像进行透视展开和超分辨率重建使其与普通图像成像一致。同时,对统一后的图像对进行立体校准。最后根据三角定位原理,我们能够从校正后的图像对中解算出目标和***的距离。

Description

一种异构立体视觉***的测距方法
技术领域
本发明涉及图像处理技术领域,是一种异构立体视觉***的测距方法。
背景技术
立体视觉***已广泛应用于监视,搜索,探索,自主导航,测绘和障碍物检测等任务,以恢复3D信息现实世界的场景。使用立体视觉***中的全景相机可以获得额外的优势。这些相机允许水平视野增加到360度。虽然已经研究了不同类型反射折射镜的成像模型和相机校准方法,但这些相机的分辨率非常有限并且无法密切观察特定目标。为了提高全景相机的适用性,研究人员将全景相机和普通透视相机结合组成了混合立体视觉***。这两个摄像头的组合有助于持续监控整个监控区域,同时对特定目标进行详细观察。该混合立体视觉***将360度视野相机的优势与传统相机的高分辨率成像相结合,但同时也为该混合视觉***图像对的处理提出了难题。传统图像的针孔成像模型无法处理全景图像,这意味着没有全景图像和透视相机没有统一的成像模型。因此,传统立体视觉***的几何结构不能应用于混合立体视觉***。为了解决这一问题,本发明提出了一种针对混合视觉***的测距技术,其中最关键的就是将全景图像透视展开并进行超分辨率重建,这一步骤的目的是让两个图像对分辨率归一化以方便的后续处理。为了满足混合视觉***的实际应用,本发明还提出了立体图像对的自动校准方法,能够实现在线实时校准。最后通过SGM立体匹配算法,得到视差图,并且通过视差图实现测距的目的。
发明内容
本发明为实现时差图测距的目的,本发明提供了一种异构立体视觉***的测距方法,本发明提供了以下技术方案:
一种异构立体视觉***的测距方法,所述方法基于混合视觉***,所述***包括上方普通透视相机和下方的全景相机,所述普通透视相机由云台承载,所述普通透视相机绕中心轴随目标位置变化旋转,包括以下步骤:
步骤1:对全景图像进行透视展开,确定三维空间中透视展开图像的坐标点;
步骤2:基于普通图像的高分辨率细节对展开后的全景图像采用超分辨率重建,得到超分辨率重建后的全景图像;
步骤3:对分辨率重建后的图像进行立体校正,得到校正后的图像;
步骤4:对校正后的图像进行SGM立体匹配,确定全局能量函数,得到最优视差图;
步骤5:根据三角测距原理,计算出最优视差图中的目标与混合视觉***的距离。
优选地,所述步骤1具体为:
步骤1.1:以球面统一模型的有效视点为观察视点,将球面模型中的观察角区域投影到透视图像平面,透视展开后的全景图像符合人眼观察的习惯;
步骤1.2:设定M(i,j)为透视展开后图像上一个点的坐标,i为图像点M的横坐标,j为图像点M的纵坐标,确定三维空间中透视展开图像上一个点的坐标,通过下式表示三维空间中透视展开图像上一个点的坐标:
M'=M3M2M1Xs (1)
其中,M'为三维空间中透视展开图像上一个点的坐标,Xs为图像点在球统一模型上的坐标,M1、M2和M3均为三维空间中透视展开图像上点的三维矩阵;
步骤1.3:根据垂直视角和水平视角确定M1、M2和M3,通过下式表示M1、M2和M3
Figure BDA0002216588720000021
其中,α和β为垂直视角和水平视角,f为频率。
优选地,所述步骤2具体为:
步骤2.1:确定立体图像对中平面的方向,分别检测图像的消失点,为了减少消失点计算的复杂度,采用霍夫变换,对图像进行边缘提取提取边缘,普通图像包含三个平面方向,将消失点分为三组,每组消失点对应一个消失平面;
步骤2.2:采用高通滤波器获取具有高频分量的图像块,通过高通滤波器锐化图像或提取图像的边缘、纹理和噪声;
步骤2.3:根据图像中的目标色块建立消耗函数,通过下式表示所述消耗函数:
Figure BDA0002216588720000022
其中,Ti为源色块相对于目标色块的旋转矩阵,
Figure BDA0002216588720000023
为立体图像对的像素索引集,ti为第i个目标色块,si代表第i个高分辨率图像中的源色块,Eu()代表求取目标色块和源色块的欧式距离;
最小化消耗函数得到低分辨率图像中目标色块中的源色块,采用所述源色块替代低分辨率图像中的目标色块即完成对低分辨率图像的重建,得到超分辨率重建后的全景图像。
优选地,所述步骤3具体为:
步骤3.1:在获得全景透视展开图像之后,采用特征匹配算法来检测并匹配图像对中的特征点;
步骤3.2:根据检测到的特征点对来计算基础矩阵,通过SVD解算,从基础矩阵中解算出两个相机之间的旋转矩阵R和平移矩阵T;
步骤3.3:根据两个相机之间的旋转矩阵R和平移矩阵T,将图像对校准到共面列对齐。
优选地,所述步骤4具体为:
步骤4.1:确定全局能量函数E(D),添加两个正则化项P1,P2,其中P1,P2为根据视差差值不同的惩罚系数,保持时差图平滑并保留边缘信息,通过下式表示全局能量函数:
Figure BDA0002216588720000031
其中,|Dp-Dq|为当前像素p与其邻域内的所有像素q之间的视差,Np为像素p所有相邻像素的集合,C(p,Dp)为像素p的视差代价值;
步骤4.2:采用SGM方法寻找每个像素的时差图,使得整幅图像的全局能量函数最小;
步骤4.3:对时差图进行优化处理,剔除错误的时差、滤波平滑以及亚像素差值优化,得到最优时差图。
本发明具有以下有益效果:
本发明减少了工程师的工作量,降低了维护成本,提高了设备的稳定性,加强了水质安全的保障。
附图说明
图1是混合视觉***结构图;
图2是全景图像透视展开过程图;
图3是测距结果图,图3-(a)为混合视觉***采集的原图像对,图3-(b)透视展开和超分辨率重建后的校准结果,图3-(c)为立体匹配后的视差图,图3-(d)为根据视差图计算出的测距结果。
具体实施方式
以下结合具体实施例,对本发明进行了详细说明。
具体实施例一:
混合视觉***如图1所示,上方普通透视相机,下方为全景相机。普通透视相机由云台承载,可以绕中心轴随目标位置变化旋转。这种标准的垂直基线全景立体视觉***光轴共线,两全景视觉***之间的对极极线为过图像中心的径向直线,在进行柱面展开后对极极线变成列对齐的直线,可方便地使用传统立体匹配算法进行立体匹配计算柱面展开图像的视差图。同时,这种垂直安装方式不但避免了***自身遮挡,具有较大的共同视野,而且其测量误差均匀,可通过更换中间的连接部件调节基线距离获得较好的测量精度。
本发明提供一种异构立体视觉***的测距方法,所述方法基于混合视觉***,所述***包括上方普通透视相机和下方的全景相机,所述普通透视相机由云台承载,所述普通透视相机绕中心轴随目标位置变化旋转,包括以下步骤:
步骤1:对全景图像进行透视展开,确定三维空间中透视展开图像的坐标点;
所述步骤1具体为:
步骤1.1:以球面统一模型的有效视点为观察视点,将球面模型中的观察角区域投影到透视图像平面,透视展开后的全景图像符合人眼观察的习惯;
步骤1.2:设定M(i,j)为透视展开后图像上一个点的坐标,i为图像点M的横坐标,j为图像点M的纵坐标,确定三维空间中透视展开图像上一个点的坐标,通过下式表示三维空间中透视展开图像上一个点的坐标:
M'=M3M2M1Xs (1)
其中,M'为三维空间中透视展开图像上一个点的坐标,Xs为图像点在球统一模型上的坐标,M1、M2和M3均为三维空间中透视展开图像上点的三维矩阵;
步骤1.3:根据垂直视角和水平视角确定M1、M2和M3,通过下式表示M1、M2和M3
Figure BDA0002216588720000041
其中,α和β为垂直视角和水平视角,f为频率。
步骤2:基于普通图像的高分辨率细节对展开后的全景图像采用超分辨率重建,得到超分辨率重建后的全景图像;
所述步骤2具体为:
步骤2.1:确定立体图像对中平面的方向,分别检测图像的消失点,为了减少消失点计算的复杂度,采用霍夫变换,对图像进行边缘提取提取边缘,普通图像包含三个平面方向,将消失点分为三组,每组消失点对应一个消失平面;
步骤2.2:采用高通滤波器获取具有高频分量的图像块,通过高通滤波器锐化图像或提取图像的边缘、纹理和噪声;
步骤2.3:根据图像中的目标色块建立消耗函数,通过下式表示所述消耗函数:
Figure BDA0002216588720000051
其中,Ti为源色块相对于目标色块的旋转矩阵,
Figure BDA0002216588720000053
为立体图像对的像素索引集,ti为第i个目标色块,si代表第i个高分辨率图像中的源色块,Eu()代表求取目标色块和源色块的欧式距离;
最小化消耗函数得到低分辨率图像中目标色块中的源色块,采用所述源色块替代低分辨率图像中的目标色块即完成对低分辨率图像的重建,得到超分辨率重建后的全景图像。
步骤3:对分辨率重建后的图像进行立体校正,得到校正后的图像;
所述步骤3具体为:
步骤3.1:在获得全景透视展开图像之后,采用特征匹配算法来检测并匹配图像对中的特征点;
步骤3.2:根据检测到的特征点对来计算基础矩阵,通过SVD解算,从基础矩阵中解算出两个相机之间的旋转矩阵R和平移矩阵T;
步骤3.3:根据两个相机之间的旋转矩阵R和平移矩阵T,将图像对校准到共面列对齐。
步骤4:对校正后的图像进行SGM立体匹配,确定全局能量函数,得到最优视差图;
所述步骤4具体为:
步骤4.1:确定全局能量函数E(D),添加两个正则化项P1,P2,其中P1,P2为根据视差差值不同的惩罚系数,保持时差图平滑并保留边缘信息,通过下式表示全局能量函数:
Figure BDA0002216588720000052
其中,|Dp-Dq|为当前像素p与其邻域内的所有像素q之间的视差,Np为像素p所有相邻像素的集合,C(p,Dp)为像素p的视差代价值;
步骤4.2:采用SGM方法寻找每个像素的时差图,使得整幅图像的全局能量函数最小;
步骤4.3:对时差图进行优化处理,剔除错误的时差、滤波平滑以及亚像素差值优化,得到最优时差图。
步骤5:根据三角测距原理,计算出最优视差图中的目标与混合视觉***的距离。
首先我们使用所提出的投影模型将感兴趣区域投影到虚拟平面上,过程如图2所示。通过对展开的全景图进行超分辨率重建,使得两个图象的分辨率归一化。仿射尺度不变特征变换用于提取和匹配透视展开的全景图像和传统图像中的特征,之后应用所提出的归一化对应点的优化方法。通过八点算法计算基础矩阵并将基础矩阵分解为透视展开的全景图像和普通图像的旋转和平移矩阵。通过重新映射获得对齐的图像对。最后通过SGM立体匹配算法得到视差图。根据三角测距原理,从视差图中计算出目标与视觉***的距离。视差图和测距结果如图3所示。
以上所述仅是一种异构立体视觉***的测距方法的优选实施方式,一种异构立体视觉***的测距方法的保护范围并不仅局限于上述实施例,凡属于该思路下的技术方案均属于本发明的保护范围。应当指出,对于本领域的技术人员来说,在不脱离本发明原理前提下的若干改进和变化,这些改进和变化也应视为本发明的保护范围。

Claims (5)

1.一种异构立体视觉***的测距方法,所述方法基于混合视觉***,所述***包括上方普通透视相机和下方的全景相机,所述普通透视相机由云台承载,所述普通透视相机绕中心轴随目标位置变化旋转,其特征是:包括以下步骤:
步骤1:对全景图像进行透视展开,确定三维空间中透视展开图像的坐标点;
步骤2:基于普通图像的高分辨率细节对展开后的全景图像采用超分辨率重建,得到超分辨率重建后的全景图像;
步骤3:对分辨率重建后的图像进行立体校正,得到校正后的图像;
步骤4:对校正后的图像进行SGM立体匹配,确定全局能量函数,得到最优视差图;
步骤5:根据三角测距原理,计算出最优视差图中的目标与混合视觉***的距离。
2.根据权利要求1所述的一种异构立体视觉***的测距方法,其特征是:所述步骤1具体为:
步骤1.1:以球面统一模型的有效视点为观察视点,将球面模型中的观察角区域投影到透视图像平面,透视展开后的全景图像符合人眼观察的习惯;
步骤1.2:设定M(i,j)为透视展开后图像上一个点的坐标,i为图像点M的横坐标,j为图像点M的纵坐标,确定三维空间中透视展开图像上一个点的坐标,通过下式表示三维空间中透视展开图像上一个点的坐标:
M'=M3M2M1Xs(1)
其中,M'为三维空间中透视展开图像上一个点的坐标,Xs为图像点在球统一模型上的坐标,M1、M2和M3均为三维空间中透视展开图像上点的三维矩阵;
步骤1.3:根据垂直视角和水平视角确定M1、M2和M3,通过下式表示M1、M2和M3
Figure FDA0002216588710000011
其中,α和β为垂直视角和水平视角,f为频率。
3.根据权利要求1所述的一种异构立体视觉***的测距方法,其特征是:所述步骤2具体为:
步骤2.1:确定立体图像对中平面的方向,分别检测图像的消失点,为了减少消失点计算的复杂度,采用霍夫变换,对图像进行边缘提取提取边缘,普通图像包含三个平面方向,将消失点分为三组,每组消失点对应一个消失平面;
步骤2.2:采用高通滤波器获取具有高频分量的图像块,通过高通滤波器锐化图像或提取图像的边缘、纹理和噪声;
步骤2.3:根据图像中的目标色块建立消耗函数,通过下式表示所述消耗函数:
Figure FDA0002216588710000021
其中,Ti为源色块相对于目标色块的旋转矩阵,为立体图像对的像素索引集,ti为第i个目标色块,si代表第i个高分辨率图像中的源色块,Eu()代表求取目标色块和源色块的欧式距离;
最小化消耗函数得到低分辨率图像中目标色块中的源色块,采用所述源色块替代低分辨率图像中的目标色块即完成对低分辨率图像的重建,得到超分辨率重建后的全景图像。
4.根据权利要求1所述的一种异构立体视觉***的测距方法,其特征是:所述步骤3具体为:
步骤3.1:在获得全景透视展开图像之后,采用特征匹配算法来检测并匹配图像对中的特征点;
步骤3.2:根据检测到的特征点对来计算基础矩阵,通过SVD解算,从基础矩阵中解算出两个相机之间的旋转矩阵R和平移矩阵T;
步骤3.3:根据两个相机之间的旋转矩阵R和平移矩阵T,将图像对校准到共面列对齐。
5.根据权利要求1所述的一种异构立体视觉***的测距方法,其特征是:所述步骤4具体为:
步骤4.1:确定全局能量函数E(D),添加两个正则化项P1,P2,其中P1,P2为根据视差差值不同的惩罚系数,保持时差图平滑并保留边缘信息,通过下式表示全局能量函数:
Figure FDA0002216588710000022
其中,|Dp-Dq|为当前像素p与其邻域内的所有像素q之间的视差,Np为像素p所有相邻像素的集合,C(p,Dp)为像素p的视差代价值;
步骤4.2:采用SGM方法寻找每个像素的时差图,使得整幅图像的全局能量函数最小;
步骤4.3:对时差图进行优化处理,剔除错误的时差、滤波平滑以及亚像素差值优化,得到最优时差图。
CN201910917395.4A 2019-09-26 2019-09-26 一种异构立体视觉***的测距方法 Active CN110631556B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910917395.4A CN110631556B (zh) 2019-09-26 2019-09-26 一种异构立体视觉***的测距方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910917395.4A CN110631556B (zh) 2019-09-26 2019-09-26 一种异构立体视觉***的测距方法

Publications (2)

Publication Number Publication Date
CN110631556A true CN110631556A (zh) 2019-12-31
CN110631556B CN110631556B (zh) 2021-09-07

Family

ID=68972987

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910917395.4A Active CN110631556B (zh) 2019-09-26 2019-09-26 一种异构立体视觉***的测距方法

Country Status (1)

Country Link
CN (1) CN110631556B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112639864A (zh) * 2020-05-19 2021-04-09 华为技术有限公司 用于测距的方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103051884A (zh) * 2013-01-14 2013-04-17 哈尔滨工程大学 一种粗精观察模式相结合的全方位视觉监视***
US20130278755A1 (en) * 2012-03-19 2013-10-24 Google, Inc Apparatus and Method for Spatially Referencing Images
CN106097248A (zh) * 2016-06-16 2016-11-09 哈尔滨工程大学 一种基于高分辨率图像知识先验的压缩感知方法及其混合视觉***

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130278755A1 (en) * 2012-03-19 2013-10-24 Google, Inc Apparatus and Method for Spatially Referencing Images
CN103051884A (zh) * 2013-01-14 2013-04-17 哈尔滨工程大学 一种粗精观察模式相结合的全方位视觉监视***
CN106097248A (zh) * 2016-06-16 2016-11-09 哈尔滨工程大学 一种基于高分辨率图像知识先验的压缩感知方法及其混合视觉***

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
左登: "面向有限带宽信道的字典学习图像超分辨率重建", 《宁波大学学报》 *
梁鑫: "基于混合立体视觉的目标检测与定位技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112639864A (zh) * 2020-05-19 2021-04-09 华为技术有限公司 用于测距的方法和装置
WO2021232222A1 (zh) * 2020-05-19 2021-11-25 华为技术有限公司 用于测距的方法和装置
CN112639864B (zh) * 2020-05-19 2022-05-27 华为技术有限公司 用于测距的方法和装置

Also Published As

Publication number Publication date
CN110631556B (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
CN111062873B (zh) 一种基于多对双目相机的视差图像拼接与可视化方法
CN107977997B (zh) 一种结合激光雷达三维点云数据的相机自标定方法
Beall et al. 3D reconstruction of underwater structures
CN106780619B (zh) 一种基于Kinect深度相机的人体尺寸测量方法
CN106780590B (zh) 一种深度图的获取方法及***
CN107907048A (zh) 一种基于线结构光扫描的双目立体视觉三维测量方法
CN108876749A (zh) 一种鲁棒的镜头畸变校正方法
CN109579825B (zh) 基于双目视觉和卷积神经网络的机器人定位***及方法
CN109255808B (zh) 基于倾斜影像的建筑物纹理提取方法和装置
CN110021039A (zh) 序列图像约束的多视角实物表面点云数据初始配准方法
CN110782498B (zh) 一种视觉传感网络的快速通用标定方法
CN104537707A (zh) 像方型立体视觉在线移动实时测量***
CN106920276A (zh) 一种三维重建方法和***
CN110044374A (zh) 一种基于图像特征的单目视觉测量里程的方法及里程计
CN110363838A (zh) 基于多球面相机模型的大视野图像三维重构优化方法
Nagy et al. Online targetless end-to-end camera-LiDAR self-calibration
JP2023505891A (ja) 環境のトポグラフィを測定するための方法
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
Babaee et al. 3-D object modeling from 2-D occluding contour correspondences by opti-acoustic stereo imaging
Li et al. Spherical stereo for the construction of immersive VR environment
CN113313659A (zh) 一种多机协同约束下高精度图像拼接方法
CN111951339A (zh) 利用异构双目相机进行视差计算的图像处理方法
CN113345084B (zh) 三维建模***及三维建模方法
CN110631556B (zh) 一种异构立体视觉***的测距方法
CN111914790B (zh) 基于双摄像头的不同场景下实时人体转动角度识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20200910

Address after: 341, block B, building 3, Qixing Technology Pioneer Park, No. 666, Qixing Road, Wuxing District, Huzhou City, Zhejiang Province

Applicant after: Huzhou South Taihu intelligent yacht Research Institute

Applicant after: Huzhou Qingzhou Shipping Technology Co.,Ltd.

Address before: 341, block B, building 3, Qixing Technology Pioneer Park, No. 666, Qixing Road, Wuxing District, Huzhou City, Zhejiang Province

Applicant before: Huzhou South Taihu intelligent yacht Research Institute

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant