CN106373152B - 一种基于手持式光场相机的距离估计方法 - Google Patents

一种基于手持式光场相机的距离估计方法 Download PDF

Info

Publication number
CN106373152B
CN106373152B CN201610828558.8A CN201610828558A CN106373152B CN 106373152 B CN106373152 B CN 106373152B CN 201610828558 A CN201610828558 A CN 201610828558A CN 106373152 B CN106373152 B CN 106373152B
Authority
CN
China
Prior art keywords
light
main lens
distance
calibration point
field camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610828558.8A
Other languages
English (en)
Other versions
CN106373152A (zh
Inventor
金欣
陈艳琴
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201610828558.8A priority Critical patent/CN106373152B/zh
Publication of CN106373152A publication Critical patent/CN106373152A/zh
Priority to PCT/CN2017/096573 priority patent/WO2018049949A1/zh
Priority to US16/212,344 priority patent/US10482617B2/en
Application granted granted Critical
Publication of CN106373152B publication Critical patent/CN106373152B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

本发明公开了一种基于手持式光场相机的距离估计方法,包括:S1:提取光场相机的参数;S2:设定参考平面以及标定点,其中标定点设置在需估计距离的物体上,获取参考平面与主镜头之间的距离;S3:将采集到的光场图像重聚焦在参考平面上,以获取主镜头与光场相机的微透镜阵列之间的距离,同时记录标定点在重聚焦图像上的成像直径;S4:将步骤S1中提取的光场相机的参数以及步骤S3中获取的主镜头与微透镜阵列之间的距离和记录的标定点在重聚焦图像上的成像直径输入到光线传播数学模型中,输出标定点的距离。本发明提出的基于手持式光场相机的距离估计方法,具有高效性以及较高的准确性。

Description

一种基于手持式光场相机的距离估计方法
技术领域
本发明涉及计算机视觉与数字图像处理领域,尤其涉及一种基于手持式光场相机的距离估计方法。
背景技术
光场相机在计算机视觉领域的应用引发了研究者们的广泛关注,其通过在传统相机的主镜头与传感器之间***一块微透镜阵列,记录物体的位置与方向信息。利用光场相机拍摄的单张原始光场图像,除了能够实现数字重聚焦、视点合成、景深扩展以外,还能利用相关算法对图像上的场景进行深度估计。
研究者们现已提出大量的针对光场图像的深度估计方法,其大致可以分为两类:基于单线索的深度估计方法和基于多线索融合的深度估计方法。其中基于单线索的深度估计方法主要采用立体匹配的原理,通过搜寻提取的子孔径图像的对应区域并分析其相关性,获取可进行深度估计的单一线索;基于多线索融合的深度估计方法力图通过从光场图像数据中提取与深度相关的多种线索并进行有效融合来估计深度,比如融合子孔径图像的一致性以及模糊度这两种线索。但是,由于光场相机的基线小且子孔径图像的分辨率低,以上两类算法只能得到低精度的深度图,且算法本身的高复杂度导致深度估计效率低。
以上背景技术内容的公开仅用于辅助理解本发明的构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
为解决上述技术问题,本发明提出一种基于手持式光场相机的距离估计方法,具有高效性以及较高的准确性。
为达到上述目的,本发明采用以下技术方案:
本发明公开了一种基于手持式光场相机的距离估计方法,包括以下步骤:
S1:提取光场相机的参数,包括所述光场相机的主镜头的焦距、曲率半径、光瞳直径、中心厚度以及所述光场相机的微透镜的焦距;
S2:设定参考平面以及标定点,其中所述标定点设置在需估计距离的物体上,获取所述参考平面与所述主镜头之间的距离;
S3:将采集到的光场图像重聚焦在所述参考平面上,以获取所述主镜头与所述光场相机的微透镜阵列之间的距离,同时记录所述标定点在重聚焦图像上的成像直径;
S4:将步骤S1中提取的所述光场相机的参数以及步骤S3中获取的所述主镜头与所述微透镜阵列之间的距离和记录的所述标定点在重聚焦图像上的成像直径输入到光线传播数学模型中,输出所述标定点的距离。
优选地,步骤S2中设定的所述参考平面与所述标定点之间不存在遮挡关系,且所述标定点成像时不发生重叠。
优选地,步骤S3中具体包括采用下式将采集到的光场图像重聚焦在所述参考平面上:
其中,L表示光场图像,Lz表示在所述参考平面z上的重聚焦图像,a表示物空间的聚焦平面对应的特定值,在此步骤中也即所述参考平面z对应的特定值;y={x,y}表示光场图像上的位置信息,v={u,v}表示光场图像上的方向信息,下标m表示每个微透镜下一维方向上的像素个数,c=(m-1)/2,i是整数,取值范围为[-c,c];下标j表示微透镜竖直方向上的坐标。
优选地,步骤S3中的获取所述主镜头与所述微透镜阵列之间的距离的步骤具体包括:
通过光线追迹方法得到Fu平面上各交点的坐标计算公式为:
Fi=mi×f (2)
其中,Fu平面上各交点之间的距离为光场相机的基线,f是所述主镜头的焦距,mi是所述光场相机的传感器与所述主镜头之间的光线的斜率;
所述物体在物空间发出的光线的斜率ki的计算公式为:
其中,y′j表示所述物体在所述参考平面上的纵坐标,dout表示所述参考平面与所述主镜头之间的距离;
根据式(3)计算得到所述物体发出的光线到达所述主镜头的入射位置和出射位置(p′,q′),根据出射位置(p′,q′)计算得到所述主镜头与所述微透镜阵列之间的距离din为:
其中,yj表示下标为j的微透镜的中心的纵坐标。
优选地,步骤S4中的光线传播数学模型具体包括光线入射部分和光线出射部分。
优选地,所述光线入射部分的传播数学模型具体包括:
所述标定点发出的光线以角度进入所述主镜头,满足关系式:
其中,d′out表示所述标定点与所述主镜头的中心的轴向距离,R表示所述主镜头的曲率半径,D表示所述主镜头的光瞳半径,T表示所述主镜头的中心厚度;所述标定点发出的光线进入所述主镜头后发生折射,满足下式:
其中,n1表示所述主镜头的折射率,ψ表示折射角,θ1满足:
优选地,所述光线出射部分的传播数学模型具体包括:
所述标定点发出的光线在所述主镜头内部进行折射后到达所述主镜头的出射位置(p,q),并从出射位置(p,q)处出射,满足下式:
n1sin(θ1-ψ+θ2)=sinω (8)
其中,ω表示出射角,θ2满足:
所述标定点发出的光线在所述主镜头出射后有三种成像方式,分别为聚焦在所述传感器后方、所述传感器与所述微透镜阵列之间或者所述微透镜阵列与所述主镜头之间,其中:
当所述标定点发出的光线在所述主镜头出射后聚焦在所述传感器后方时,满足下式:
其中,D1为步骤S3中记录的所述标定点在重聚焦图像上的成像直径,fx为微透镜的焦距,din为步骤S3中获取的所述主镜头与所述微透镜阵列之间的距离,d为所述标定点在像空间的聚焦平面与所述传感器之间的距离;出射位置(p,q)在所述主镜头的曲面上,满足下式:
(R-T/2+p)2+q2=R2 (12)
当所述标定点发出的光线在所述主镜头出射后聚焦在所述传感器与所述微透镜阵列之间或者所述微透镜阵列与所述主镜头之间时,满足下式:
其中,D1为步骤S3中记录的所述标定点在重聚焦图像上的成像直径,fx为微透镜的焦距,din为步骤S3中获取的所述主镜头与所述微透镜阵列之间的距离,d为所述标定点在像空间的聚焦平面与所述传感器之间的距离;出射位置(p,q)在所述主镜头的曲面上,满足下式:
(R-T/2+p)2+q2=R2 (15)。
与现有技术相比,本发明的有益效果在于:本发明的基于手持式光场相机的距离估计方法,将拍摄得到的光场图像重聚焦在已知距离的参考平面上,该重聚焦图像相当于对光场相机进行调焦后拍摄得到的光场图像,由于已知拍摄物(参考平面)的距离,可以进一步求得光场相机的主镜头与微透镜阵列之间的距离,其他所有非聚焦的物体相当于被此调焦后的光场相机拍摄后在传感器上成像。因此,将标定点设置在需估计距离的物体(非聚焦),通过分析标定点在重聚焦图像上的成像直径与标定点的距离之间的关系,从而估计出物体的距离;该距离估计方法可以通过一次重聚焦就能够估计出所有物体的绝对距离,具有高效性且大大提高了距离估计的准确性,在工业测距上有很好的应用前景。
附图说明
图1是本发明优选实施例的基于手持式光场相机的距离估计方法流程图;
图2是本发明优选实施例的光线入射模型;
图3是本发明优选实施例的光线出射模型;
图4是本发明优选实施例的标定点的成像方式;
图5是本发明优选实施例的重聚焦的光线追迹模型。
具体实施方式
下面对照附图并结合优选的实施方式对本发明作进一步说明。
如图1所示,本发明的优选实施例公开了一种基于手持式光场相机的距离估计方法,包括以下步骤:
S1:提取光场相机的参数,包括光场相机的主镜头的焦距、曲率半径、光瞳直径、中心厚度以及光场相机的微透镜的焦距;
其中主镜头的焦距与微透镜的焦距用于获取主镜头与微透镜阵列之间的距离,主镜头的曲率半径、光瞳直径、中心厚度以及微透镜的焦距用于光线传播数学模型。
S2:设定参考平面以及标定点,其中所述标定点设置在需估计距离的物体上,获取所述参考平面与所述主镜头之间的距离;
其中设定的参考平面与标定点之间不存在遮挡关系,所述标定点成像时不发生重叠;参考平面与主镜头之间的距离用于重聚焦,同时用于获取重聚焦后主镜头与微透镜阵列之间的距离。
S3:将采集到的光场图像重聚焦在所述参考平面上,以获取主镜头与光场相机的微透镜阵列之间的距离,同时记录标定点在重聚焦图像上的成像直径;
(1)重聚焦公式可表述为:
其中,L表示光场图像,Lz表示在所述参考平面z上重聚焦图像,a表示物空间的聚焦平面对应的特定值,在此步骤中也即为参考平面z对应的特定值;y={x,y}表示光场图像上的位置信息,v={u,v}表示光场图像上的方向信息,下标m表示微透镜图像的分辨率,即每个微透镜下一维方向上的像素个数,c=(m-1)/2,i是整数,取值范围为[-c,c];下标j表示微透镜竖直方向上的坐标,取值从0开始。
进行一次重聚焦后得到的图像相当于对光场相机进行调焦后拍摄得到的光场图像,此时其他非聚焦的物体在重聚焦图像上的像相当于用此调焦后的光场相机拍摄得到;而这些非聚焦物体所在的平面即为图4所示的平面z′,将平面z′上的物体发射出来的光线在传感器上的成像直径,即重聚焦图像上的成像直径D1记录下来。
(2)结合图4和图5所示,由于重聚焦平面是设定的参考平面(平面z),该平面与主镜头1之间的距离dout已知。光线追迹方法表明,Fu平面上各交点之间的距离为光场相机的基线。Fu平面上各交点的坐标计算公式为:
Fi=mi×f (2)
其中,f是主镜头1的焦距,mi是传感器3与主镜头1之间的光线的斜率;只要微透镜的焦距、直径以及每个微透镜下覆盖的像素个数已知,mi即可求出。则物体在物空间发出的光线的斜率ki,其计算公式为:
其中y′j表示物体在平面z(即参考平面)上的纵坐标。继而,我们可以算出物体发出的光线到达主镜头1的入射位置和出射位置(p′,q′)。因此,主镜头1与微透镜阵列2之间的距离din的计算公式为:
其中yj表示下标为j的微透镜的中心的纵坐标。
S4:将步骤S1中提取的光场相机的参数以及步骤S3中获取的主镜头与微透镜阵列之间的距离和记录的标定点在重聚焦图像上的成像直径输入到光线传播数学模型中,输出标定点的距离;
S41:光线传播数学模型分为两部分:光线入射部分以及光线出射部分。
(1)光线入射部分:如图2所示,标定点发出的光线以角度进入主镜头,满足关系式:
其中d′out表示标定点与光场相机主镜头中心的轴向距离;R、D、T是主镜头的参数,分别表示主镜头的曲率半径、光瞳直径以及中心厚度。进入主镜头后光线发生折射,利用折射公式得到:
其中,n1表示主镜头的折射率,ψ为折射角,θ1满足:
(2)光线出射部分:如图3所示,光线在主镜头内部进行折射后到达主镜头的(p,q)位置,进而从(p,q)处出射,再次利用折射公式得到:
n1sin(θ1-ψ+θ2)=sinω (8)
其中ω是出射角,θ2满足:
S42:光线出射后有三种成像方式,如图4中4A、4B、4C三条光线所示,它们会分别聚焦在传感器3后方(4A),传感器3与微透镜阵列2之间(4B),微透镜阵列2与主镜头1之间(4C)。
当光线聚焦在传感器3的后方时,即光线4A的成像情况,分析主镜头1、微透镜阵列2以及传感器3的几何关系,使用相似三角形并做近似,得到:
其中D1为步骤S3中记录的标定点的成像直径;fx为微透镜的焦距;din为主镜头1与微透镜阵列2之间的距离;d为标定点在像空间的聚焦平面与传感器之间的距离。光线的出射位置(p,q)在主镜头的曲面上,因此满足以下关系式:
(R-T/2+p)2+q2=R2 (12)
当光线聚焦在传感器3与微透镜阵列2之间或者微透镜阵列2与主镜头1之间时,即光线4B、4C两种成像情况,同样使用相似三角形并做近似,得到:
(R-T/2+p)2+q2=R2 (15)
S43:输入重聚焦后光场相机主镜头与微透镜阵列之间的距离din和标定点的成像直径D1
对于光线聚焦在传感器3的后方时,即光线4A的成像情况,利用公式(10)可近似求得d:
将计算出的d代入公式(11),联合公式(12)算出p和q。将q代入公式(9)计算得到θ2
然后将得到的θ2代入到公式(11)中计算得到ω:
再利用公式(7)、(8)、(6)依次得到角度θ1、ψ和
最后再利用公式(5)算出标定点的绝对距离d′out
对于光线聚焦在传感器3与微透镜阵列2之间或者微透镜阵列2与主镜头1之间时,即光线4B、4C两种成像情况,利用公式(13)可近似计算出d:
将计算出的d代入公式(14),联合公式(15)算出p和q。之后所有角度的求解公式同上所述(17)-(21),最后利用公式(5)算出标定点的绝对距离d′out
本发明的优选实施例的基于手持式光场相机的距离估计方法首先将拍摄到的光场图像重聚焦在已知距离的参考平面上,该聚焦图像相当于光场相机进行调焦后拍摄得到的光场图像;由于已知拍摄物(参考平面)的距离,可以进一步求得光场相机的主镜头与微透镜阵列之间的距离,则其他所有非聚焦的物体相当于被此调焦后的光场相机拍摄后在传感器上成像。因此,将标定点设置在需估计距离的物体上(非聚焦),通过分析标定点在重聚焦图像上的成像直径与标定点的距离之间的关系,估计出物体的距离。具体的实施步骤为:提取光场相机参数,包括主镜头的焦距、曲率半径、光瞳直径和中心厚度,以及微透镜的焦距;设定参考平面及标定点,其中标定点设置在需估计距离的物体上,获取参考平面与光场相机主镜头之间的距离;将采集到的光场图像重聚焦在参考平面上,获取光场相机主镜头与微透镜阵列之间的距离,同时记录标定点在重聚焦图像上的成像直径;分析光场相机的成像***后,提出光线传播数学模型;将光场相机参数、成像直径以及得到的主镜头与微透镜阵列之间的距离输入到光线传播数学模型中,输出标定点的距离。由于标定点在物体上,因此估计出的标定点的距离即为物体的距离。通过本发明的距离估计方法能够经过一次重聚焦就估计出所有物体与光场相机的主镜头之间的绝对距离,具有高效性以及较高的准确性,其高效性以及准确性使得本发明的方法在工业测距有很大的应用前景。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变形,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (7)

1.一种基于手持式光场相机的距离估计方法,其特征在于,包括以下步骤:
S1:提取光场相机的参数,包括所述光场相机的主镜头的焦距、曲率半径、光瞳直径、中心厚度以及所述光场相机的微透镜的焦距;
S2:设定参考平面以及标定点,其中所述标定点设置在需估计距离的物体上,获取所述参考平面与所述主镜头之间的距离;
S3:将采集到的光场图像重聚焦在所述参考平面上,以获取所述主镜头与所述光场相机的微透镜阵列之间的距离,同时记录所述标定点在重聚焦图像上的成像直径;
S4:将步骤S1中提取的所述光场相机的参数以及步骤S3中获取的所述主镜头与所述微透镜阵列之间的距离和记录的所述标定点在重聚焦图像上的成像直径输入到光线传播数学模型中,输出所述标定点的距离。
2.根据权利要求1所述的距离估计方法,其特征在于,步骤S2中设定的所述参考平面与所述标定点之间不存在遮挡关系,且所述标定点成像时不发生重叠。
3.根据权利要求1所述的距离估计方法,其特征在于,步骤S3中具体包括采用下式将采集到的光场图像重聚焦在所述参考平面上:
其中,L表示光场图像,Lz表示在所述参考平面z上的重聚焦图像,a表示所述参考平面z对应的特定值;y={x,y}表示光场图像上的位置信息,v={u,v}表示光场图像上的方向信息,下标m表示每个微透镜下的一维方向上的像素个数,c=(m-1)/2,i是整数,取值范围为[-c,c];下标j表示微透镜竖直方向上的坐标。
4.根据权利要求3所述的距离估计方法,其特征在于,步骤S3中的获取所述主镜头与所述微透镜阵列之间的距离的步骤具体包括:
通过光线追迹方法得到Fu平面上各交点的坐标计算公式为:
Fi=mi×f (2)
其中,Fu平面表示与所述主镜头的中心相距f的平面,且Fu平面上各交点之间的距离为光场相机的基线,f是所述主镜头的焦距,mi是所述光场相机的传感器与所述主镜头之间的光线的斜率;
所述物体在物空间发出的光线的斜率ki的计算公式为:
其中,y′j表示所述物体在所述参考平面上的纵坐标,dout表示所述参考平面与所述主镜头之间的距离;
根据式(3)计算得到所述物体发出的光线到达所述主镜头的入射位置和出射位置(p′,q′),根据出射位置(p′,q′)计算得到所述主镜头与所述微透镜阵列之间的距离din为:
其中,yj表示下标为j的微透镜的中心的纵坐标。
5.根据权利要求1至4任一项所述的距离估计方法,其特征在于,步骤S4中的光线传播数学模型具体包括光线入射部分和光线出射部分。
6.根据权利要求5所述的距离估计方法,其特征在于,所述光线入射部分的传播数学模型具体包括:
所述标定点发出的光线以角度进入所述主镜头,满足关系式:
其中,d′out表示所述标定点与所述主镜头的中心的轴向距离,R表示所述主镜头的曲率半径,D表示所述主镜头的光瞳半径,T表示所述主镜头的中心厚度;所述标定点发出的光线进入所述主镜头后发生折射,满足下式:
其中,n1表示所述主镜头的折射率,ψ表示折射角,θ1满足:
7.根据权利要求6所述的距离估计方法,其特征在于,所述光线出射部分的传播数学模型具体包括:
所述标定点发出的光线在所述主镜头内部进行折射后到达所述主镜头的出射位置(p,q),并从出射位置(p,q)处出射,满足下式:
n1sin(θ1-ψ+θ2)=sinω (8)
其中,ω表示出射角,θ2满足:
所述标定点发出的光线在所述主镜头出射后有三种成像方式,分别为聚焦在所述光场相机的传感器后方、所述传感器与所述微透镜阵列之间或者所述微透镜阵列与所述主镜头之间,其中:
当所述标定点发出的光线在所述主镜头出射后聚焦在所述传感器后方时,满足下式:
其中,D1为步骤S3中记录的所述标定点在重聚焦图像上的成像直径,fx为微透镜的焦距,din为步骤S3中获取的所述主镜头与所述微透镜阵列之间的距离,d为所述标定点在像空间的聚焦平面与所述传感器之间的距离;出射位置(p,q)在所述主镜头的曲面上,满足下式:
(R-T/2+p)2+q2=R2 (12)
当所述标定点发出的光线在所述主镜头出射后聚焦在所述传感器与所述微透镜阵列之间或者所述微透镜阵列与所述主镜头之间时,满足下式:
其中,D1为步骤S3中记录的所述标定点在重聚焦图像上的成像直径,fx为微透镜的焦距,din为步骤S3中获取的所述主镜头与所述微透镜阵列之间的距离,d为所述标定点在像空间的聚焦平面与所述传感器之间的距离;出射位置(p,q)在所述主镜头的曲面上,满足下式:
(R-T/2+p)2+q2=R2 (15)。
CN201610828558.8A 2016-09-18 2016-09-18 一种基于手持式光场相机的距离估计方法 Active CN106373152B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201610828558.8A CN106373152B (zh) 2016-09-18 2016-09-18 一种基于手持式光场相机的距离估计方法
PCT/CN2017/096573 WO2018049949A1 (zh) 2016-09-18 2017-08-09 一种基于手持式光场相机的距离估计方法
US16/212,344 US10482617B2 (en) 2016-09-18 2018-12-06 Distance estimation method based on handheld light field camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610828558.8A CN106373152B (zh) 2016-09-18 2016-09-18 一种基于手持式光场相机的距离估计方法

Publications (2)

Publication Number Publication Date
CN106373152A CN106373152A (zh) 2017-02-01
CN106373152B true CN106373152B (zh) 2019-02-01

Family

ID=57897614

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610828558.8A Active CN106373152B (zh) 2016-09-18 2016-09-18 一种基于手持式光场相机的距离估计方法

Country Status (3)

Country Link
US (1) US10482617B2 (zh)
CN (1) CN106373152B (zh)
WO (1) WO2018049949A1 (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106373152B (zh) 2016-09-18 2019-02-01 清华大学深圳研究生院 一种基于手持式光场相机的距离估计方法
CN107230232B (zh) * 2017-04-27 2020-06-30 东南大学 聚焦型光场相机的f数匹配方法
CN107610170B (zh) * 2017-08-04 2020-05-19 中国科学院自动化研究所 多目图像重聚焦的深度获取方法及***
CN108364309B (zh) * 2018-02-09 2020-09-01 清华大学深圳研究生院 一种基于手持式光场相机的空间光场恢复方法
CN109239698B (zh) * 2018-08-02 2022-12-20 华勤技术股份有限公司 摄像头测距方法及电子设备
CN109089025A (zh) * 2018-08-24 2018-12-25 中国民航大学 一种基于光场成像技术的影像仪数字聚焦方法
KR20200067020A (ko) * 2018-12-03 2020-06-11 삼성전자주식회사 캘리브레이션 방법 및 장치
CN109883391B (zh) * 2019-03-20 2021-09-24 北京环境特性研究所 基于微透镜阵列数字成像的单目测距方法
CN110009693B (zh) * 2019-04-01 2020-12-11 清华大学深圳研究生院 一种光场相机的快速盲标定方法
CN110310337B (zh) * 2019-06-24 2022-09-06 西北工业大学 一种基于光场基本矩阵的多视光场成像***全参数估计方法
CN110673121A (zh) * 2019-09-26 2020-01-10 北京航空航天大学 光场相机前置镜焦平面定位方法和装置
CN111679337B (zh) * 2019-10-15 2022-06-10 上海大学 一种水下主动激光扫描成像***中散射背景抑制方法
CN111258046A (zh) * 2020-02-26 2020-06-09 清华大学 基于前置微透镜阵列的光场显微***及方法
CN114858053B (zh) * 2021-01-20 2023-03-10 四川大学 一种确定工业相机的入瞳中心空间坐标的方法
CN114051087A (zh) * 2021-11-11 2022-02-15 中汽创智科技有限公司 一种多传感器相机
CN115032756B (zh) * 2022-06-07 2022-12-27 北京拙河科技有限公司 一种光场相机的微透镜阵列定位方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103209307A (zh) * 2013-04-18 2013-07-17 清华大学 编码重聚焦计算摄像方法及装置
CN104050662A (zh) * 2014-05-30 2014-09-17 清华大学深圳研究生院 一种用光场相机一次成像直接获取深度图的方法
CN105551050A (zh) * 2015-12-29 2016-05-04 深圳市未来媒体技术研究院 一种基于光场的图像深度估计方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8189065B2 (en) * 2008-01-23 2012-05-29 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
EP3144879A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing A method and an apparatus for generating data representative of a light field
CN106373152B (zh) * 2016-09-18 2019-02-01 清华大学深圳研究生院 一种基于手持式光场相机的距离估计方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103209307A (zh) * 2013-04-18 2013-07-17 清华大学 编码重聚焦计算摄像方法及装置
CN104050662A (zh) * 2014-05-30 2014-09-17 清华大学深圳研究生院 一种用光场相机一次成像直接获取深度图的方法
CN105551050A (zh) * 2015-12-29 2016-05-04 深圳市未来媒体技术研究院 一种基于光场的图像深度估计方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Decoding, Calibration and Rectification for Lenselet-Based Plenoptic Cameras;Donald G. Dansereau,et,al.;《2013 IEEE Conference on Computer Vision and Pattern Recognition》;20131231;第1027-1034页
光场相机成像模型及参数标定方法综述;张春萍等;《中国激光》;20160630;第43卷(第6期);第1-12页
微透镜阵列式光场成像模型及其标定方法;张旭等;《光学学报》;20141231;第34卷(第12期);第1-13页

Also Published As

Publication number Publication date
US10482617B2 (en) 2019-11-19
WO2018049949A1 (zh) 2018-03-22
CN106373152A (zh) 2017-02-01
US20190114796A1 (en) 2019-04-18

Similar Documents

Publication Publication Date Title
CN106373152B (zh) 一种基于手持式光场相机的距离估计方法
US10608002B2 (en) Method and system for object reconstruction
WO2019015154A1 (zh) 基于单目三维扫描***的三维重构方法和装置
CN105066877B (zh) 基于智能终端镜头的树木测量方法
KR102583723B1 (ko) 라이트 필드를 나타내는 데이터를 생성하기 위한 방법 및 장치
JP6580761B1 (ja) 偏光ステレオカメラによる深度取得装置及びその方法
CN108093237A (zh) 高空间分辨率光场采集装置与图像生成方法
CN110462679B (zh) 快速多光谱光场成像方法和***
KR20180053668A (ko) 화소 빔을 나타내는 데이터를 생성하기 위한 방법 및 장치
CN107786808B (zh) 生成代表与光场数据相关联的散景的数据的方法和装置
EP3144890A1 (en) An apparatus and a method for calibrating an optical acquisition system
JP7300895B2 (ja) 画像処理装置および画像処理方法、プログラム、並びに記憶媒体
CN110705487B (zh) 掌纹采集设备、方法及其图像采集装置
TWI717387B (zh) 一種用電腦實施之資料產生方法及裝置,一種光場成像裝置,一種影像呈現裝置及一種用於可程式裝置之非暫時性電腦程式產品
WO2021148050A1 (zh) 一种三维空间相机及其拍照方法
Abraham et al. 3D ranging and tracking using lensless smart sensors
CN109257524B (zh) 一种基于Wigner分布函数的全聚焦扫描成像方法
CN109565583B (zh) 用于生成表示像素束的数据的方法和装置
CN211855280U (zh) 基于色散透镜与滤光片的视觉测距***
Barbour et al. Spatial phase imaging
Hu et al. Automatic interpretation and precision detecting of target's axis in image sequences
JP2011118854A (ja) 3次元コンピュータグラフィックス用モデル生成装置
JP2011118711A (ja) 3次元コンピュータグラフィックス用モデル生成装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant