CN108230381A - 一种结合空间传播和像素级优化的多视图立体视觉方法 - Google Patents

一种结合空间传播和像素级优化的多视图立体视觉方法 Download PDF

Info

Publication number
CN108230381A
CN108230381A CN201810042150.7A CN201810042150A CN108230381A CN 108230381 A CN108230381 A CN 108230381A CN 201810042150 A CN201810042150 A CN 201810042150A CN 108230381 A CN108230381 A CN 108230381A
Authority
CN
China
Prior art keywords
pixel
picture
depth map
subpoint
reliable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810042150.7A
Other languages
English (en)
Other versions
CN108230381B (zh
Inventor
陶文兵
黄文杰
徐青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN201810042150.7A priority Critical patent/CN108230381B/zh
Publication of CN108230381A publication Critical patent/CN108230381A/zh
Application granted granted Critical
Publication of CN108230381B publication Critical patent/CN108230381B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种结合空间传播和像素级优化的多视图立体视觉方法,属于计算机视觉领域,包括:根据场景的多张图片得到相机参数,根据相机参数提取每一张图片的深度图,利用空间传播更新每一张图片的深度图;对更新后的深度图迭代地进行像素级优化和过滤,得到处理后图片;对处理后图片中的每个像素点并行的进行深度图融合,得到场景的三维点云。本发明在初始深度图提取中利用空间传播减少了图像间的冗余计算从而提高了效率,另外通过迭代地深度图优化和过滤减少了噪声点的同时提高了深度图的完整度,最终高效的深度图融合提高效率的同时保证了点云的稠密度。

Description

一种结合空间传播和像素级优化的多视图立体视觉方法
技术领域
本发明属于计算机视觉领域,更具体地,涉及一种结合空间传播和像素级优化的多视图立体视觉方法。
背景技术
过去的几十年,从多幅图像重建场景的稠密三维模型一直是计算机视觉领域的一个热门话题。这个问题的通用技术流程已经很成熟:输入某一场景的一组图片,首先通过标定或运动恢复结构(Structure From Motion,SfM)来得到相机参数;然后使用估计的相机参数来获得场景的稠密三维点云,该技术被称为多视角立体视觉(Multi-View Stereo,MVS)。由此产生的稠密点云可以用于许多领域:分类,基于图像的渲染,定位,考古研究,艺术创作等等。虽然MVS算法已经研究了几十年,但是在实际应用中仍然还有很多问题需要解决。
MVS算法的一个基本问题是稠密像素匹配,即在多个图像之间建立密集的像素对应关系。然而,在实际的处理中几乎不可能得到图像之间完全准确的稠密匹配,主要是由于图像间的各种不确定性:光线和分辨率的变化,遮挡,场景变化,图像失真,相机失准等等。
目前现有技术存在一些问题:(1)存在一些冗余的计算,浪费了很多时间;(2)结果中仍然存在遮挡点,无纹理区域仍然没有得到很好地重建,导致最终得到的三维点云不完整;(3)在深度图提取和优化阶段采用了相同的深度更新策略,导致最终得到的三维点云精确度降低。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种结合空间传播和像素级优化的多视图立体视觉方法,由此解决现有技术存在效率低、最终得到的三维点云不完整且精确度低的技术问题。
为实现上述目的,按照本发明的一个方面,提供了一种结合空间传播和像素级优化的多视图立体视觉方法,包括:
(1)根据场景的多张图片得到相机参数,根据相机参数提取每一张图片的深度图,利用空间传播更新每一张图片的深度图;
(2)对更新后的深度图迭代地进行像素级优化和过滤,得到处理后图片;
(3)对处理后图片中的每个像素点并行的进行深度图融合,得到场景的三维点云。
进一步地,步骤(1)包括:
(1-1)将场景的多张图片中的任意一张图片作为参考图片,从场景的多张图片中获取参考图片的邻居图片,通过运动恢复结构或者相机标定得到参考图片的相机参数和邻居图片的相机参数;
(1-2)根据参考图片的相机参数和邻居图片的相机参数,用经典的基于深度图的多视图几何方法提取参考图片的深度图和邻居图片的深度图,并得到参考图片的深度图中的像素点与参考图片的深度图中的像素点在邻居图片的深度图中的投影点之间的三角夹角和入射夹角;
(1-3)当参考图片的深度图中的像素点与邻居图片的深度图中的投影点之间的第一光度一致性满足第一光度一致性约束,且三角夹角和入射夹角满足几何约束时,将参考图片的深度图中的像素点的深度和法向传播给邻居图片的深度图中的投影点,更新邻居图片的深度图;
(1-4)对于场景的多张图片中的每一张图片,重复步骤(1-1)-(1-3),更新每一张图片的深度图。
进一步地,像素级优化的具体实现方式为:
从更新后的深度图中选取参考图片及其邻居图片,根据参考图片的像素点在邻居图片的投影点之间的投影关系,得到参考图片的像素点的深度调整步长与邻居图片的投影点的坐标移动距离之间的线性关系,根据线性关系自适应地得到参考图片的像素点的深度调整步长,利用深度调整步长使得投影点的坐标移动距离为单位像素,实现对邻居图片的像素级优化。
进一步地,过滤包括过滤不可靠点和过滤遮挡点。
进一步地,过滤不可靠点的具体实现方式为:
当进行像素级优化后的深度图中的参考图片的像素点和邻居图片的投影点之间满足第二光度一致性约束、几何约束和几何一致性约束的像素点的个数大于等于2时,此时,参考图片的像素点为可靠点,否则,参考图片的像素点为不可靠点,过滤掉不可靠点。
进一步地,过滤遮挡点的具体实现方式为:
当对于可靠点,当可靠点在邻居图片中的可靠投影点满足过滤条件时,过滤该可靠点,所述过滤条件为:
(d(xi)-dp(xi))/d(xi)>0.02
其中,d(xi)为可靠投影点的深度,dp(xi)为可靠点传播给可靠投影点的深度。
进一步地,所述第一光度一致性约束为:
Cpho(xr,x1)<Cτ1,Cpho(xr,x1)<Cmin(x1)
所述第二光度一致性约束为:Cpho-geo(xr,xi)<Cτ2
其中,Cpho(xr,x1)表示参考图片的深度图中的像素点与邻居图片的深度图中的投影点之间的第一光度一致性,Cτ1为第一光度一致性阈值,Cmin(x1)为投影点与邻居图片的邻居图片中的像素点之间的最小光度一致性,Cpho-geo(xr,xi)表示进行像素级优化后的深度图中的参考图片的像素点和邻居图片的投影点之间的第二光度一致性,Cτ2为第二光度一致性阈值。
进一步地,几何约束为:3°<三角夹角<180°,0°<入射夹角<90°。
进一步地,几何一致性约束包括深度一致性约束和法向一致性约束,所述法向一致性约束为:n(xi)·np(xi)>0.975,所述深度一致性约束为:其中,n(xi)为可靠投影点的法向,np(xi)为可靠点传播给可靠投影点的法向,为投影误差,d(xi)为可靠投影点的深度,dp(xi)为可靠点传播给可靠投影点的深度。
进一步地,深度图融合的具体实现方式为:
当处理后图片的像素点是可靠点时,将可靠点和邻居图像的可靠投影点进行融合,对于需要融合的可靠点和可靠投影点,根据可靠点和可靠投影点的深度投影到三维空间中得到三维点,将三维点的位置、法向和颜色的平均值作为场景的三维点云的位置、法向和颜色。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明在初始深度图更新中利用空间传播减少了图像间的冗余计算从而提高了效率,另外通过迭代地深度图优化和过滤减少了噪声点的同时提高了深度图的完整度,最终高效的深度图融合提高效率的同时保证了点云的稠密度。
(2)现有技术存在一些冗余的计算。对每张图片单独提取深度图,这样相同的3D点在不同的图像上会进行重复估计深度和法向,浪费了很多时间。本发明将一个图像上的满足光度一致性约束和满足几何约束时的好的深度-法向信息传播给邻居图像。本发明把空间传播的思想融入到深度图提取中,把好的深度和法向从一张图像传给到邻居图像,减少重复计算,就能加快整体的收敛时间。
(3)现有技术的结果中仍然存在遮挡点。另外,无纹理区域仍然没有得到很好地重建。本发明过滤不可靠点和遮挡点。然后交替地进行深度图的优化和过滤。在优化中,优化现有好的点,并通过类似于增加平滑项的方法来扩展新区域,如无纹理区域。在进行几次迭代最后,可以得到更准确和完整的结果。
(4)现有技术在深度图提取和优化阶段采用了相同的深度更新策略,导致最终得到的三维点云精确度降低。本发明发现经过深度图提取之后的深度和法线接近最优,因此应该在局部范围内用一个更精确的步长来进行深度的调整。因此,本发明提出了一个更准确的像素级优化,其基本思想是当前深度的调整步长要对应于图像平面中的像素级差异。
附图说明
图1为本发明实施例提供的总体流程图;
图2为本发明实施例提供的原理示意图;
图3为本发明实施例提供的像素级局部深度调整策略的简要示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
图1展示了本发明的总体流程图。该方法涉及到相机参数估计,结合空间传播的深度图提取,一种像素级局部深度调整策略,过滤不可靠点和遮挡点,迭代地优化和过滤策略以及高效并行的深度图融合等技术,结合空间传播的思想提高了初始深度图提取的效率,后续迭代的像素级优化和过滤提高了深度图的精度和完整性,最后并行的深度图融合在提高效率的同时保证了点云的稠密度,最终得到精确、稠密、完整的三维点云。
其具体实施方式如下:
(1)根据场景的多张图片得到相机参数,根据相机参数提取每一张图片的深度图,利用空间传播更新每一张图片的深度图;
(2)对更新后的深度图迭代地进行像素级优化和过滤,得到处理后图片;
(3)对处理后图片中的每个像素点并行的进行深度图融合,得到场景的三维点云。
在本发明的实施例中,如图2所示,所述步骤(1)具体包括:
(1-1)将场景的多张图片中的任意一张图片作为参考图片Cr,从场景的多张图片中获取参考图片的邻居图片C1,C2,C3,通过运动恢复结构或者相机标定得到参考图片的相机参数和邻居图片的相机参数;
(1-2)根据参考图片的相机参数和邻居图片的相机参数,用经典的基于深度图的多视图几何方法提取参考图片的深度图和邻居图片的深度图,并得到参考图片的深度图中的像素点与参考图片的深度图中的像素点在邻居图片的深度图中的投影点之间的三角夹角和入射夹角;
具体地,用xr表示像素点r在参考图像的深度图中的坐标,给定深度d(xr),xr可以反投影到三维空间中得到一个点pr,然后pr被投影到xr的一个邻居视图的深度图I1∈N(r)(这里以C1为例)的x1处,xr传播给x1的深度dp(x1)和法线np(x1)可以表示为:dp(x1)=P1d(xr)K-1xr,np(x1)=R1n(xr)。同时可以得到三角夹角和入射夹角其中c1=-(R1)Tt1为I1的相机光心坐标。P1,R1,t1分别表示参考图像Cr的相机坐标系到邻居图像C1的相机坐标系的投影变换矩阵、旋转变换矩阵和平移变换矩阵。K为参考图像Cr的相机内参矩阵。为pr所在面片的法向向量在I1的相机坐标系下的坐标。
(1-3)当参考图片的深度图中的像素点与邻居图片的深度图中的投影点之间的第一光度一致性满足第一光度一致性约束,且三角夹角和入射夹角满足几何约束时,将参考图片的深度图中的像素点的深度和法向传播给邻居图片的深度图中的投影点,更新邻居图片的深度图;
第一光度一致性约束为:
Cpho(xr,x1)<Cτ1,Cpho(xr,x1)<Cmin(x1)
其中,Cpho(xr,x1)表示参考图片的深度图中的像素点与邻居图片的深度图中的投影点之间的第一光度一致性,Cτ1为第一光度一致性阈值,Cτ1为0.3,Cmin(x1)为投影点与邻居图片的邻居图片中的像素点之间的最小光度一致性,Cmin(x1)初始化为一个较大的值100。
几何约束为:3°<三角夹角<180°,0°<入射夹角<90°。
(1-4)对于场景的多张图片中的每一张图片,重复步骤(1-1)-(1-3),更新每一张图片的深度图。
在图2中,C1,C3上的x1,x3满足上面的两个约束条件,将被传播,而C2上的x2不满足条件,将不被传播。
在本发明实施例中,所述步骤(2)具体包括:
(2-1)从更新后的深度图中选取参考图片及其邻居图片,根据参考图片的像素点在邻居图片的投影点之间的投影关系,得到参考图片的像素点的深度调整步长与邻居图片的投影点的坐标移动距离之间的线性关系,根据线性关系自适应地得到参考图片的像素点的深度调整步长,利用深度调整步长使得投影点的坐标移动距离为单位像素,实现对邻居图片的像素级优化。图3是一个简单的示意图,当Δx1很小时,设为1个像素,相应的Δd(xr)和Δx1之间近似满足一个线性关系,即Δd(xr)=ωΔx1=ω。其中ω为线性系数。
(2-2)过滤包括过滤不可靠点和过滤遮挡点。
进一步地,过滤不可靠点的具体实现方式为:
当进行像素级优化后的深度图中的参考图片的像素点和邻居图片的投影点之间满足第二光度一致性约束、几何约束和几何一致性约束的像素点的个数大于等于2时,此时,参考图片的像素点为可靠点,否则,参考图片的像素点为不可靠点,过滤掉不可靠点。
进一步地,过滤遮挡点的具体实现方式为:
当对于可靠点,当可靠点在邻居图片中的可靠投影点满足过滤条件时,过滤该可靠点,所述过滤条件为:
(d(xi)-dp(xi))/d(xi)>0.02
其中,d(xi)为可靠投影点的深度,dp(xi)为可靠点传播给可靠投影点的深度。
其中,第二光度一致性约束为:Cpho-geo(xr,xi)<Cτ2,其中,Cpho-geo(xr,xi)表示进行像素级优化后的深度图中的参考图片的像素点和邻居图片的投影点之间的第二光度一致性,Cτ2为第二光度一致性阈值,Cτ2为0.5。几何约束为:3°<三角夹角<180°,0°<入射夹角<90°。几何一致性约束包括深度一致性约束和法向一致性约束,法向一致性约束为:
n(xi)·np(xi)>0.975,深度-致性约束为:
其中,n(xi)为可靠投影点的法向,np(xi)为可靠点传播给可靠投影点的法向,为投影误差,d(xi)为可靠投影点的深度,dp(xi)为可靠点传播给可靠投影点的深度。
通过过滤不可靠点和遮挡点,我们发现这些过滤掉的点大部分位于低纹理区域或者遮挡区域,而这些区域可以通过他们的邻居图片拓展出来,因此对于这些过滤的像素点,在下一步优化步骤中加强了平滑项。
(2-3)迭代循环执行(2-1)和(2-2)三次。
在本发明的实施例中,所述步骤(3)具体包括:
(3-1)深度图融合具体为:当处理后图片的像素点是可靠点时,将可靠点和邻居图像的可靠投影点进行融合,对于需要融合的可靠点和可靠投影点,根据可靠点和可靠投影点的深度投影到三维空间中得到三维点,将三维点的位置、法向和颜色的平均值作为场景的三维点云的位置、法向和颜色。
(3-2)对处理后图片中的每个像素点并行的进行深度图融合,得到场景的三维点云。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种结合空间传播和像素级优化的多视图立体视觉方法,其特征在于,包括:
(1)根据场景的多张图片得到相机参数,根据相机参数提取每一张图片的深度图,利用空间传播更新每一张图片的深度图;
(2)对更新后的深度图迭代地进行像素级优化和过滤,得到处理后图片;
(3)对处理后图片中的每个像素点并行的进行深度图融合,得到场景的三维点云。
2.如权利要求1所述的一种结合空间传播和像素级优化的多视图立体视觉方法,其特征在于,所述步骤(1)包括:
(1-1)将场景的多张图片中的任意一张图片作为参考图片,从场景的多张图片中获取参考图片的邻居图片,通过运动恢复结构或者相机标定得到参考图片的相机参数和邻居图片的相机参数;
(1-2)根据参考图片的相机参数和邻居图片的相机参数,用经典的基于深度图的多视图几何方法提取参考图片的深度图和邻居图片的深度图,并得到参考图片的深度图中的像素点与参考图片的深度图中的像素点在邻居图片的深度图中的投影点之间的三角夹角和入射夹角;
(1-3)当参考图片的深度图中的像素点与邻居图片的深度图中的投影点之间的第一光度一致性满足第一光度一致性约束,且三角夹角和入射夹角满足几何约束时,将参考图片的深度图中的像素点的深度和法向传播给邻居图片的深度图中的投影点,更新邻居图片的深度图;
(1-4)对于场景的多张图片中的每一张图片,重复步骤(1-1)-(1-3),更新每一张图片的深度图。
3.如权利要求1所述的一种结合空间传播和像素级优化的多视图立体视觉方法,其特征在于,所述像素级优化的具体实现方式为:
从更新后的深度图中选取参考图片及其邻居图片,根据参考图片的像素点在邻居图片的投影点之间的投影关系,得到参考图片的像素点的深度调整步长与邻居图片的投影点的坐标移动距离之间的线性关系,根据线性关系自适应地得到参考图片的像素点的深度调整步长,利用深度调整步长使得投影点的坐标移动距离为单位像素,实现对邻居图片的像素级优化。
4.如权利要求1所述的一种结合空间传播和像素级优化的多视图立体视觉方法,其特征在于,所述过滤包括过滤不可靠点和过滤遮挡点。
5.如权利要求4所述的一种结合空间传播和像素级优化的多视图立体视觉方法,其特征在于,所述过滤不可靠点的具体实现方式为:
当进行像素级优化后的深度图中的参考图片的像素点和邻居图片的投影点之间满足第二光度一致性约束、几何约束和几何一致性约束的像素点的个数大于等于2时,此时,参考图片的像素点为可靠点,否则,参考图片的像素点为不可靠点,过滤掉不可靠点。
6.如权利要求5所述的一种结合空间传播和像素级优化的多视图立体视觉方法,其特征在于,所述过滤遮挡点的具体实现方式为:
当对于可靠点,当可靠点在邻居图片中的可靠投影点满足过滤条件时,过滤该可靠点,所述过滤条件为:
(d(xi)-dp(xi))/d(xi)>0.02
其中,d(xi)为可靠投影点的深度,dp(xi)为可靠点传播给可靠投影点的深度。
7.如权利要求5或6所述的一种结合空间传播和像素级优化的多视图立体视觉方法,其特征在于,所述第一光度一致性约束为:
Cpho(xr,x1)<Cτ1,Cpho(xr,x1)<Cmin(x1)
所述第二光度一致性约束为:Cpho-geo(xr,xi)<Cτ2
其中,Cpho(xr,x1)表示参考图片的深度图中的像素点与邻居图片的深度图中的投影点之间的第一光度一致性,Cτ1为第一光度一致性阈值,Cmin(x1)为投影点与邻居图片的邻居图片中的像素点之间的最小光度一致性,Cpho-geo(xr,xi)表示进行像素级优化后的深度图中的参考图片的像素点和邻居图片的投影点之间的第二光度一致性,Cτ2为第二光度一致性阈值。
8.如权利要求2-6任一所述的一种结合空间传播和像素级优化的多视图立体视觉方法,其特征在于,所述几何约束为:3°<三角夹角<180°,0°<入射夹角<90°。
9.如权利要求5或6所述的一种结合空间传播和像素级优化的多视图立体视觉方法,其特征在于,所述几何一致性约束包括深度一致性约束和法向一致性约束,所述法向一致性约束为:n(xi)·np(xi)>0.975,所述深度一致性约束为:其中,n(xi)为可靠投影点的法向,np(xi)为可靠点传播给可靠投影点的法向,为投影误差,d(xi)为可靠投影点的深度,dp(xi)为可靠点传播给可靠投影点的深度。
10.如权利要求5或6所述的一种结合空间传播和像素级优化的多视图立体视觉方法,其特征在于,所述深度图融合的具体实现方式为:
当处理后图片的像素点是可靠点时,将可靠点和邻居图像的可靠投影点进行融合,对于需要融合的可靠点和可靠投影点,根据可靠点和可靠投影点的深度投影到三维空间中得到三维点,将三维点的位置、法向和颜色的平均值作为场景的三维点云的位置、法向和颜色。
CN201810042150.7A 2018-01-17 2018-01-17 一种结合空间传播和像素级优化的多视图立体视觉方法 Active CN108230381B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810042150.7A CN108230381B (zh) 2018-01-17 2018-01-17 一种结合空间传播和像素级优化的多视图立体视觉方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810042150.7A CN108230381B (zh) 2018-01-17 2018-01-17 一种结合空间传播和像素级优化的多视图立体视觉方法

Publications (2)

Publication Number Publication Date
CN108230381A true CN108230381A (zh) 2018-06-29
CN108230381B CN108230381B (zh) 2020-05-19

Family

ID=62640497

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810042150.7A Active CN108230381B (zh) 2018-01-17 2018-01-17 一种结合空间传播和像素级优化的多视图立体视觉方法

Country Status (1)

Country Link
CN (1) CN108230381B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754006A (zh) * 2018-12-26 2019-05-14 清华大学 一种视图及点云融合的立体视觉内容分类方法与***
CN110969663A (zh) * 2018-09-30 2020-04-07 北京初速度科技有限公司 一种相机外部参数的静态标定方法
CN111357034A (zh) * 2019-03-28 2020-06-30 深圳市大疆创新科技有限公司 点云生成方法、***和计算机存储介质
CN113808063A (zh) * 2021-09-24 2021-12-17 土豆数据科技集团有限公司 用于大规模场景重建的深度图优化方法、装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105374019A (zh) * 2015-09-30 2016-03-02 华为技术有限公司 一种多深度图融合方法及装置
CN106780592A (zh) * 2016-06-30 2017-05-31 华南理工大学 基于相机运动和图像明暗的Kinect深度重建算法
US20170316602A1 (en) * 2014-10-31 2017-11-02 Nokia Technologies Oy Method for alignment of low-quality noisy depth map to the high-resolution colour image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170316602A1 (en) * 2014-10-31 2017-11-02 Nokia Technologies Oy Method for alignment of low-quality noisy depth map to the high-resolution colour image
CN105374019A (zh) * 2015-09-30 2016-03-02 华为技术有限公司 一种多深度图融合方法及装置
CN106780592A (zh) * 2016-06-30 2017-05-31 华南理工大学 基于相机运动和图像明暗的Kinect深度重建算法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHENGLEI WU ETAL.: "MULTI-VIEW RECONSTRUCTION UNDER VARYING ILLUMINATION CONDITIONS", 《2009 IEEE INTERNATIOANL CONFERENCE ON MULTIMEDIA AND EXPO》 *
JIAN WEI ETAL.: "Multi-View Depth Map Estimation With Cross-View Consistency", 《 BRITISH MACHINE VISION CONFERENCE》 *
郭连朋等: "基于Kinect传感器的物体三维重建", 《四川兵工学报》 *
陈东等: "基于视觉信息的三维激光点云渲染与深度图构建", 《PROCEEDINGS OF THE 29TH CHINESE CONTROL CONFERENCE》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110969663A (zh) * 2018-09-30 2020-04-07 北京初速度科技有限公司 一种相机外部参数的静态标定方法
CN110969663B (zh) * 2018-09-30 2023-10-03 北京魔门塔科技有限公司 一种相机外部参数的静态标定方法
CN109754006A (zh) * 2018-12-26 2019-05-14 清华大学 一种视图及点云融合的立体视觉内容分类方法与***
CN111357034A (zh) * 2019-03-28 2020-06-30 深圳市大疆创新科技有限公司 点云生成方法、***和计算机存储介质
CN113808063A (zh) * 2021-09-24 2021-12-17 土豆数据科技集团有限公司 用于大规模场景重建的深度图优化方法、装置及存储介质

Also Published As

Publication number Publication date
CN108230381B (zh) 2020-05-19

Similar Documents

Publication Publication Date Title
CN112434709B (zh) 基于无人机实时稠密三维点云和dsm的航测方法及***
CN108230381A (zh) 一种结合空间传播和像素级优化的多视图立体视觉方法
KR100755450B1 (ko) 평면 호모그래피를 이용한 3차원 재구성 장치 및 방법
US8447099B2 (en) Forming 3D models using two images
JP3180757B2 (ja) 多重視野間のステレオ対応を得るための最大フロー方法
US20100085423A1 (en) Stereoscopic imaging
JP5955028B2 (ja) 画像処理装置、画像処理方法および画像処理用のプログラム
CN103971352A (zh) 一种基于广角镜头的快速图像拼接方法
CN104574501A (zh) 一种针对复杂三维场景的高质量纹理映射方法
CN112634374A (zh) 双目相机的立体标定方法、装置、***及双目相机
CN111210481A (zh) 多波段立体相机的深度估计加速方法
CN107545586B (zh) 基于光场极线平面图像局部的深度获取方法及***
CN110060283B (zh) 一种多测度半全局密集匹配方法
WO2009097714A1 (zh) 多视角视频图像深度搜索方法及深度估计方法
CN108613637A (zh) 一种基于参考图像的结构光***解相方法及***
CN106289188A (zh) 一种基于多视角航空影像的测量方法及***
CN108399631B (zh) 一种尺度不变性的倾斜影像多视密集匹配方法
CN104240229A (zh) 一种红外双目相机自适应极线校正方法
Gadasin et al. Reconstruction of a Three-Dimensional Scene from its Projections in Computer Vision Systems
CN113313740A (zh) 一种基于平面连续性的视差图和表面法向量联合学习方法
CN116363226A (zh) 一种实时的多相机多投影仪3d成像处理方法及装置
JP2007507945A (ja) 立体映像化
Knorr et al. An image-based rendering (ibr) approach for realistic stereo view synthesis of tv broadcast based on structure from motion
Lhuillier Toward flexible 3d modeling using a catadioptric camera
CN113674415B (zh) 利用高分七号和资源三号影像联合制作连续、无空洞dsm的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant