CN107545586A - 基于光场极限平面图像局部的深度获取方法及*** - Google Patents

基于光场极限平面图像局部的深度获取方法及*** Download PDF

Info

Publication number
CN107545586A
CN107545586A CN201710662707.2A CN201710662707A CN107545586A CN 107545586 A CN107545586 A CN 107545586A CN 201710662707 A CN201710662707 A CN 201710662707A CN 107545586 A CN107545586 A CN 107545586A
Authority
CN
China
Prior art keywords
mrow
msub
visual point
depth
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710662707.2A
Other languages
English (en)
Other versions
CN107545586B (zh
Inventor
裴仁静
耿征
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201710662707.2A priority Critical patent/CN107545586B/zh
Publication of CN107545586A publication Critical patent/CN107545586A/zh
Application granted granted Critical
Publication of CN107545586B publication Critical patent/CN107545586B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及一种基于光场极限平面图像局部的深度获取方法及***,所述深度获取方法包括:通过多个相机构成相机阵列,对真实场景进行采集,获得相机阵列视点图像;通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。本发明通过多基线视点图像对相机阵列视点图像进行校正得到3D光场,基于代价函数计算像素的深度,将3D光场极限平面图像局部以及全局代价函数相结合,以利用整体图像信息,减小在深度跳变处深度估计的误差,提高估计的准确度。

Description

基于光场极限平面图像局部的深度获取方法及***
技术领域
本发明涉及计算机图像处理技术领域,具体涉及一种基于光场极限平面图像局部的深度获取方法及***。
背景技术
随着科学技术和人类认识世界需求的不断发展,传统的二维图像已经不能满足人们对于物体识别的要求。与灰度图像相比,深度图像具有物体三维特性信息,即深度信息。深度图获取对于在场景理解、自由视点视频绘制、三维显示等领域有着关键性引导作用。目前,基于相机阵列的深度图初获取方法中,通常是构建一个Cost-Volume(成本量),依次根据每个相机的内外参数,将参考图像投影到其余相机捕获的非参考图像上,进行像素差值比较提取深度的方法。
但是目前的深度获取方法并没有完全利用整体的各相机图像信息,并且消耗时间长;
在深度跳变处即物体边缘处,深度估计误差较大。
发明内容
为了解决现有技术中的上述问题,即为了解决在深度跳变处估计误差大的不足的问题,本发明提供一种基于光场极限平面图像局部的深度获取方法及***。
为解决上述技术问题,本发明提供了如下方案:
一种基于光场极限平面图像局部的深度获取方法,所述深度获取方法包括:
通过多个相机构成相机阵列,对真实场景进行采集,获得相机阵列视点图像;
通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。
可选的,所述通过多基线视点图像对相机阵列视点图像进行校正,具体包括:
采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线;
将各个光心位置按照几何关系投影到虚拟基线上;
利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵;
将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
可选的,所述虚拟基线为到各个相机的光心位置距离和最小的一条基线。
可选的,所述计算所述3D光场中参考图像上的每一个像素的深度,具体包括:
通过沿着3D光场极限平面(EPI,epipolar plane image)中的线性结构移动参考图像上的每个像素至其他视点图像;所述其他视点图像为除所述移动的像素对应的视点图像以外的视点图像;
计算移动的像素与其他视点图像上像素的像素值差异;
根据各所述像素值差异确定代价函数的最小值,所述代价函数最小值对应的深度信息可信度最高。
可选的,所述根据各所述像素值差异确定代价函数的最小值,具体包括:
根据以下公式,分别计算右局部视点的代价函数cos tr、左局部视点的代价函数cos tl,以及全局的代价函数cos t:
其中,V表示视点图像的序列号,N表示视点图像的个数,Ref表示参考图像的序列号,VRef表示参考图像,LF(x,y,VRef)表示光场中的点(x,y,VRef),为通过沿着线性结构移动将LF(x,y,VRef)移动到其他视点图像上的像素点,k表示极限平面图像上的线性结构的斜率;
根据以下公式,分别将所述右局部视点的代价函数cos tr、左局部视点的代价函数cos tl及全局的代价函数cos t进行比较,确定最终的代价函数CLF
根据以下公式,选择所述最终的代价函数CLF的最小值,确定所述参考图像上的每一个像素的深度dp
可选的,根据以下公式,计算所述线平面图像上的线性结构的深度信息k:
其中,其中DISPARITY代表的是相邻两视点间的视差,baseline是相邻两相机之间的基线长度,f代表的是相机的焦距,d代表了参考图像上的每个像素的深度值。
可选的,所述相机的数量为7个。
可选的,各所述相机的分辨率为1024×768。
为解决上述技术问题,本发明还提供了如下方案:
一种基于光场极限平面图像局部的深度获取***,其特征在于,所述获取***包括:
相机阵列,由多个相机构成,用于对真实场景进行采集,获得相机阵列视点图像;
校正单元,用于通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
计算单元,用于基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。
可选的,所述校正单元包括:
标定模块,用于采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线;
投影模块,用于将各个光心位置按照几何关系投影到虚拟基线上;
校正模块,用于利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵;
构建模块,用于将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
根据本发明的实施例,本发明公开了以下技术效果:
本发明通过多基线视点图像对相机阵列视点图像进行校正得到3D光场,基于代价函数计算像素的深度,将3D光场极限平面图像局部以及全局代价函数相结合,以利用整体图像信息,减小在深度跳变处深度估计的误差,提高估计的准确度。
附图说明
图1是本发明基于光场极限平面图像局部的深度获取方法的流程图;
图2(a)-图2(c)为3D光场图;
图3是本发明基于光场极限平面图像局部的深度获取***的模块结构示意图。
符号说明:
相机阵列—1,校正单元—2,计算单元—3。
具体实施方式
下面参照附图来描述本发明的优选实施方式。本领域技术人员应当理解的是,这些实施方式仅仅用于解释本发明的技术原理,并非旨在限制本发明的保护范围。
本发明提供一种基于光场极限平面图像局部的深度获取方法,通过多基线视点图像对相机阵列视点图像进行校正得到3D光场,基于代价函数计算像素的深度,将3D光场极限平面图像局部以及全局代价函数相结合,以利用整体图像信息,减小在深度跳变处深度估计的误差,提高估计的准确度。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明基于光场极限平面图像局部的深度获取方法包括:
步骤100:通过多个相机构成相机阵列,对真实场景进行采集,获得相机阵列视点图像;
步骤200:通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
步骤300:基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。
在本实施例中,共设置有7个相机,即所述相机阵列由7个Microsoft cameras构成。进一步地,每个相机的分辨率可为1024×768。
在步骤200中,所述通过多基线视点图像对相机阵列视点图像进行校正,具体包括:
步骤201:采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线。所述虚拟基线为到各个相机的光心位置距离和最小的一条基线。
步骤202:将各个光心位置按照几何关系投影到虚拟基线上。
步骤203:利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵。
步骤204:将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
其中,如图2(a)-图2(c)所示,在所述3D光场中,V表示视点图像的序列号,LF(x,y,VRef)表示光场中的点(x,y,VRef),VRef表示参考图像(reference image),IRef代表的是参考图像的序列号,x-V平面代表的是3D光场极限平面图像(EPI,epi-polar plane image),在IRef上通过点p(x,y,VRef)的线l(x,y,VRef)代表的是EPI上的线性结构,该线性结构包含了深度信息(即斜率):
DISPARITY代表的是相邻两视点间的视差,baseline是相邻两相机之间的基线长度,f代表的是相机的焦距,d代表了IRef的每个像素的深度值。
可以由线性结构,将某个视点图像上的某个点传递至另外的视点图像上。以极限平面图像EPIy为例,视点图IV0上的点(x,V0)可以被传递至视点图IV1上的点上。
在步骤300中,所述计算所述3D光场中参考图像上的每一个像素的深度,具体包括:
步骤301:通过沿着3D光场极限平面中的线性结构移动参考图像上的每个像素至其他视点图像。所述其他视点图像为除所述移动的像素对应的视点图像以外的视点图像。
步骤302:计算移动的像素与其他视点图像上像素的像素值差异。
步骤303:根据各所述像素值差异确定代价函数的最小值,所述代价函数最小值对应的深度信息可信度最高。
其中,对于IRef上的每一个像素(x,y),我们可以通过沿着线性结构移动每个像素至其他的视点图像,并计算出该移动像素的值与原其他的视点图像上的像素值的差异。将所有像素的平均的L1正则差异作为代价函数CLF。为每一个像素找到一个k,使得代价函数CLF最小:
其中,N代表了视点图像的个数。然而该代价函数很容易使得深度跳跃处的深度估计不准确。
为提高深度估计的准确性,分别计算右局部视点的代价函数cos tr、左局部视点的代价函数cos tl,以及全局的代价函数cos t。具体的,在步骤303中,所述根据各所述像素值差异确定代价函数的最小值,具体包括:
步骤303a:根据公式(3),分别计算右局部视点的代价函数cos tr、左局部视点的代价函数cos tl,以及全局的代价函数cos t:
其中,V表示视点图像的序列号,N表示视点图像的个数,Ref表示,VRef表示参考图像,LF(x,y,VRef)表示光场中的点(x,y,VRef),为通过沿着线性结构移动将LF(x,y,VRef)移动到其他视点图像上的像素点,k表示极限平面图像上的线性结构的深度信息。
步骤303b:根据公式(4),分别将所述右局部视点的代价函数cos tr、左局部视点的代价函数cos tl及全局的代价函数cos t进行比较,确定最终的代价函数CLF
步骤303c:根据公式(5),选择所述最终的代价函数CLF的最小值,确定所述参考图像上的每一个像素的深度dp
通过对公式(1)的转化,得到参考图像上的每个像素p的深度。
此外,本发明还提供一种基于光场极限平面图像局部的深度获取***,可减小在深度跳变处估计的误差,提高估计的准确度。如图3所示,本发明基于光场极限平面图像局部的深度获取***包括相机阵列1、校正单元2及计算单元3。
其中,所述相机阵列1由多个相机构成,用于对真实场景进行采集,获得相机阵列视点图像;
所述校正单元2用于通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
所述计算单元3用于基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。
进一步地,所述校正单元2包括标定模块、投影模块、校正模块及构建模块。
所述标定模块用于采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线;
所述投影模块,用于将各个光心位置按照几何关系投影到虚拟基线上;
所述校正模块,用于利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵;
所述构建模块,用于将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
相对于现有技术,本发明基于光场极限平面图像局部的深度获取***与上述基于光场极限平面图像局部的深度获取方法的有益效果相同,在此不再赘述。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。

Claims (10)

1.一种基于光场极限平面图像局部的深度获取方法,其特征在于,所述深度获取方法包括:
通过多个相机构成相机阵列,对真实场景进行采集,获得相机阵列视点图像;
通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。
2.根据权利要求1所述的基于光场极限平面图像局部的深度获取方法,其特征在于,所述通过多基线视点图像对相机阵列视点图像进行校正,具体包括:
采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线;
将各个光心位置按照几何关系投影到虚拟基线上;
利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵;
将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
3.根据权利要求2所述的基于光场极限平面图像局部的深度获取方法,其特征在于,所述虚拟基线为到各个相机的光心位置距离和最小的一条基线。
4.根据权利要求1所述的基于光场极限平面图像局部的深度获取方法,其特征在于,所述计算所述3D光场中参考图像上的每一个像素的深度,具体包括:
通过沿着3D光场极限平面中的线性结构移动参考图像上的每个像素至其他视点图像;所述其他视点图像为除所述移动的像素对应的视点图像以外的视点图像;
计算移动的像素与其他视点图像上像素的像素值差异;
根据各所述像素值差异确定代价函数的最小值,所述代价函数最小值对应的深度信息可信度最高。
5.根据权利要求4所述的基于光场极限平面图像局部的深度获取方法,其特征在于,所述根据各所述像素值差异确定代价函数的最小值,具体包括:
根据以下公式,分别计算右局部视点的代价函数costr、左局部视点的代价函数costl,以及全局的代价函数cost:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>min</mi> <mi>k</mi> </msub> <msub> <mi>cost</mi> <mi>l</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>Re</mi> <mi>f</mi> </mrow> </mfrac> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>V</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mi>Re</mi> <mi>f</mi> </mrow> </msubsup> <mo>|</mo> <mo>|</mo> <mi>L</mi> <mi>F</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <msub> <mi>V</mi> <mrow> <mi>Re</mi> <mi>f</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>L</mi> <mi>F</mi> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>V</mi> <mo>-</mo> <msub> <mi>V</mi> <mrow> <mi>Re</mi> <mi>f</mi> </mrow> </msub> </mrow> <mi>k</mi> </mfrac> <mo>+</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>Re</mi> <mi>f</mi> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mo>|</mo> <mn>1</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>min</mi> <mi>k</mi> </msub> <msub> <mi>cost</mi> <mi>r</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>N</mi> <mo>-</mo> <mi>Re</mi> <mi>f</mi> </mrow> </mfrac> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>V</mi> <mo>=</mo> <mi>Re</mi> <mi>f</mi> </mrow> <mi>N</mi> </msubsup> <mo>|</mo> <mo>|</mo> <mi>L</mi> <mi>F</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <msub> <mi>V</mi> <mrow> <mi>Re</mi> <mi>f</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>L</mi> <mi>F</mi> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>V</mi> <mo>-</mo> <msub> <mi>V</mi> <mrow> <mi>Re</mi> <mi>f</mi> </mrow> </msub> </mrow> <mi>k</mi> </mfrac> <mo>+</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>Re</mi> <mi>f</mi> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mo>|</mo> <mn>1</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>min</mi> <mi>k</mi> </msub> <mi>cos</mi> <mi>t</mi> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>V</mi> <mo>=</mo> <mn>0</mn> </mrow> <mi>N</mi> </msubsup> <mo>|</mo> <mo>|</mo> <mi>L</mi> <mi>F</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <msub> <mi>V</mi> <mrow> <mi>Re</mi> <mi>f</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>L</mi> <mi>F</mi> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>V</mi> <mo>-</mo> <msub> <mi>V</mi> <mrow> <mi>Re</mi> <mi>f</mi> </mrow> </msub> </mrow> <mi>k</mi> </mfrac> <mo>+</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>Re</mi> <mi>f</mi> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mo>|</mo> <mn>1</mn> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
其中,V表示视点图像的序列号,N表示视点图像的个数,Ref表示参考图像的序列号,VRef表示参考图像,LF(x,y,VRef)表示光场中的点(x,y,VRef),为通过沿着线性结构移动将LF(x,y,VRef)移动到其他视点图像上的像素点,k表示极限平面图像上的线性结构的斜率;
根据以下公式,分别将所述右局部视点的代价函数costr、左局部视点的代价函数costl及全局的代价函数cost进行比较,确定最终的代价函数CLF
根据以下公式,选择所述最终的代价函数CLF的最小值,确定所述参考图像上的每一个像素的深度dp
<mrow> <msub> <mi>d</mi> <mi>p</mi> </msub> <mo>=</mo> <msub> <mi>arg</mi> <msub> <mi>d</mi> <mi>p</mi> </msub> </msub> <msub> <mi>minC</mi> <mrow> <mi>L</mi> <mi>F</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> </mrow> </msub> <mo>.</mo> </mrow>
6.根据权利要求5所述的基于光场极限平面图像局部的深度获取方法,其特征在于,根据以下公式,计算所述线平面图像上的线性结构的深度信息k:
<mrow> <mi>k</mi> <mo>=</mo> <mfrac> <mrow> <mi>&amp;delta;</mi> <mi>V</mi> </mrow> <mrow> <mi>&amp;delta;</mi> <mi>x</mi> </mrow> </mfrac> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>D</mi> <mi>I</mi> <mi>S</mi> <mi>P</mi> <mi>A</mi> <mi>R</mi> <mi>I</mi> <mi>T</mi> <mi>Y</mi> </mrow> </mfrac> <mo>=</mo> <mfrac> <mi>d</mi> <mrow> <mi>f</mi> <mo>&amp;CenterDot;</mo> <mi>b</mi> <mi>a</mi> <mi>s</mi> <mi>e</mi> <mi>l</mi> <mi>i</mi> <mi>n</mi> <mi>e</mi> </mrow> </mfrac> <mo>;</mo> </mrow>
其中,其中DISPARITY代表的是相邻两视点间的视差,baseline是相邻两相机之间的基线长度,f代表的是相机的焦距,d代表了参考图像上的每个像素的深度值。
7.根据权利要求1-6中任一项所述的基于光场极限平面图像局部的深度获取方法,其特征在于,所述相机的数量为7个。
8.根据权利要求1-6中任一项所述的基于光场极限平面图像局部的深度获取方法,其特征在于,各所述相机的分辨率为1024×768。
9.一种基于光场极限平面图像局部的深度获取***,其特征在于,所述获取***包括:
相机阵列,由多个相机构成,用于对真实场景进行采集,获得相机阵列视点图像;
校正单元,用于通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
计算单元,用于基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。
10.根据权利要求9所述的基于光场极限平面图像局部的深度获取***,其特征在于,所述校正单元包括:
标定模块,用于采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线;
投影模块,用于将各个光心位置按照几何关系投影到虚拟基线上;
校正模块,用于利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵;
构建模块,用于将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
CN201710662707.2A 2017-08-04 2017-08-04 基于光场极线平面图像局部的深度获取方法及*** Expired - Fee Related CN107545586B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710662707.2A CN107545586B (zh) 2017-08-04 2017-08-04 基于光场极线平面图像局部的深度获取方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710662707.2A CN107545586B (zh) 2017-08-04 2017-08-04 基于光场极线平面图像局部的深度获取方法及***

Publications (2)

Publication Number Publication Date
CN107545586A true CN107545586A (zh) 2018-01-05
CN107545586B CN107545586B (zh) 2020-02-28

Family

ID=60971216

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710662707.2A Expired - Fee Related CN107545586B (zh) 2017-08-04 2017-08-04 基于光场极线平面图像局部的深度获取方法及***

Country Status (1)

Country Link
CN (1) CN107545586B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108615221A (zh) * 2018-04-10 2018-10-02 清华大学 基于剪切二维极线平面图的光场角度超分辨率方法及装置
CN108846473A (zh) * 2018-04-10 2018-11-20 杭州电子科技大学 基于方向和尺度自适应卷积神经网络的光场深度估计方法
CN111028294A (zh) * 2019-10-20 2020-04-17 深圳奥比中光科技有限公司 一种基于深度相机的多距离标定方法及***
CN111954896A (zh) * 2018-04-12 2020-11-17 凸版印刷株式会社 光场图像生成***、图像显示***、形状信息取得服务器、图像生成服务器、显示装置、光场图像生成方法及图像显示方法
CN112771574A (zh) * 2018-07-19 2021-05-07 交互数字Ce专利控股公司 用于估计像素的深度的方法、对应的设备以及计算机程序产品
WO2021093584A1 (zh) * 2019-11-13 2021-05-20 南京大学 基于深度卷积神经网络的自由视点视频生成及交互方法
CN113129350A (zh) * 2021-04-12 2021-07-16 长春理工大学 一种基于相机阵列的深度提取方法
WO2021244161A1 (zh) * 2020-06-04 2021-12-09 深圳看到科技有限公司 基于多目全景图像的模型生成方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104662589A (zh) * 2012-08-21 2015-05-27 派力肯影像公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的***和方法
US20160202048A1 (en) * 2015-01-09 2016-07-14 Ricoh Company, Ltd. Estimating Surface Properties Using a Plenoptic Camera
US10109036B2 (en) * 2013-08-21 2018-10-23 Canon Kabushiki Kaisha Image processing apparatus, control method for same, and program that performs image processing for image data having a focus state that is changeable

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104662589A (zh) * 2012-08-21 2015-05-27 派力肯影像公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的***和方法
US10109036B2 (en) * 2013-08-21 2018-10-23 Canon Kabushiki Kaisha Image processing apparatus, control method for same, and program that performs image processing for image data having a focus state that is changeable
US20160202048A1 (en) * 2015-01-09 2016-07-14 Ricoh Company, Ltd. Estimating Surface Properties Using a Plenoptic Camera

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LINGFENG XU ET.AL: "A Novel Ray-Space based View Generation Algorithm via Radon Transform", 《3DR EXPRESS》 *
PENG YANG ET.AL: "Close-range photogrammetry with light field camera: from disparity map to absolute distance", 《APPLIED OPTICS》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108615221A (zh) * 2018-04-10 2018-10-02 清华大学 基于剪切二维极线平面图的光场角度超分辨率方法及装置
CN108846473A (zh) * 2018-04-10 2018-11-20 杭州电子科技大学 基于方向和尺度自适应卷积神经网络的光场深度估计方法
CN108615221B (zh) * 2018-04-10 2020-12-01 清华大学 基于剪切二维极线平面图的光场角度超分辨率方法及装置
CN108846473B (zh) * 2018-04-10 2022-03-01 杭州电子科技大学 基于方向和尺度自适应卷积神经网络的光场深度估计方法
CN111954896A (zh) * 2018-04-12 2020-11-17 凸版印刷株式会社 光场图像生成***、图像显示***、形状信息取得服务器、图像生成服务器、显示装置、光场图像生成方法及图像显示方法
CN112771574A (zh) * 2018-07-19 2021-05-07 交互数字Ce专利控股公司 用于估计像素的深度的方法、对应的设备以及计算机程序产品
CN112771574B (zh) * 2018-07-19 2024-03-26 交互数字Ce专利控股公司 用于估计像素的深度的方法以及对应的设备
CN111028294A (zh) * 2019-10-20 2020-04-17 深圳奥比中光科技有限公司 一种基于深度相机的多距离标定方法及***
CN111028294B (zh) * 2019-10-20 2024-01-16 奥比中光科技集团股份有限公司 一种基于深度相机的多距离标定方法及***
WO2021093584A1 (zh) * 2019-11-13 2021-05-20 南京大学 基于深度卷积神经网络的自由视点视频生成及交互方法
WO2021244161A1 (zh) * 2020-06-04 2021-12-09 深圳看到科技有限公司 基于多目全景图像的模型生成方法及装置
CN113129350A (zh) * 2021-04-12 2021-07-16 长春理工大学 一种基于相机阵列的深度提取方法

Also Published As

Publication number Publication date
CN107545586B (zh) 2020-02-28

Similar Documents

Publication Publication Date Title
CN107545586A (zh) 基于光场极限平面图像局部的深度获取方法及***
CN105374019B (zh) 一种多深度图融合方法及装置
Zhuang et al. Rolling-shutter-aware differential sfm and image rectification
EP3182371B1 (en) Threshold determination in for example a type ransac algorithm
EP2930689B1 (en) Method for rendering
CN103299343B (zh) 距离图像像素匹配方法
CN102521586B (zh) 一种用于拍照手机的高分辨率三维人脸扫描方法
CN103337094A (zh) 一种应用双目摄像机实现运动三维重建的方法
CN102982334B (zh) 基于目标边缘特征与灰度相似性的稀疏视差获取方法
CN103106688A (zh) 基于双层配准方法的室内三维场景重建方法
CN102892021B (zh) 一种合成虚拟视点图像的新方法
CN106875437A (zh) 一种面向rgbd三维重建的关键帧提取方法
CN103903263B (zh) 一种基于Ladybug全景相机图像的360度全方位测距方法
CN102073874A (zh) 附加几何约束的航天三线阵ccd相机多影像立体匹配方法
CN111091076B (zh) 基于立体视觉的隧道限界数据测量方法
CN104065954B (zh) 一种高清立体视频的视差范围快速检测方法
CN104079800A (zh) 一种视频监控中视频图像的抗抖动方法
CN106408596A (zh) 基于边缘的局部立体匹配方法
CN108510471A (zh) 图像牙齿矫正方法、装置和终端设备
Caspi et al. Vertical parallax from moving shadows
CN108362205A (zh) 基于条纹投影的空间测距方法
CN111275764B (zh) 基于线段阴影的深度相机视觉里程测量方法
CN111105467B (zh) 一种图像标定方法、装置及电子设备
CN101945299B (zh) 一种基于拍摄设备阵列的动态场景深度恢复方法
CN103489183B (zh) 一种基于边缘分割和种子点的局部立体匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200228

CF01 Termination of patent right due to non-payment of annual fee