CN107610170A - 多目图像重聚焦的深度获取方法及*** - Google Patents

多目图像重聚焦的深度获取方法及*** Download PDF

Info

Publication number
CN107610170A
CN107610170A CN201710662079.8A CN201710662079A CN107610170A CN 107610170 A CN107610170 A CN 107610170A CN 201710662079 A CN201710662079 A CN 201710662079A CN 107610170 A CN107610170 A CN 107610170A
Authority
CN
China
Prior art keywords
mrow
image
msub
plane
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710662079.8A
Other languages
English (en)
Other versions
CN107610170B (zh
Inventor
裴仁静
耿征
张梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201710662079.8A priority Critical patent/CN107610170B/zh
Publication of CN107610170A publication Critical patent/CN107610170A/zh
Application granted granted Critical
Publication of CN107610170B publication Critical patent/CN107610170B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)

Abstract

本发明涉及一种多目图像重聚焦的深度获取方法及***,所述深度获取方法包括:标定多个相机的光心位置;根据各相机采集的图像平面及对应的光心位置,恢复出场景光场,并通过一个虚拟平面记录空间中光线的分布情况;将各相机所在位置虚拟成合成孔径,使得通过虚拟平面的光线在所述合成孔径的像平面内成像;移动合成孔径的像平面,获得对应焦距下的重聚焦图像;对所述重聚焦图像进行提取,获得三维场景中各点的深度。本发明根据各相机采集的图像平面及光心位置,恢复出场景光场,将各相机所在位置虚拟成合成孔径,移动合成孔径的像平面,实现多目图像重聚焦,对重聚焦图像进行提取,可减小在高重复纹理区域估计的误差,提高高重复纹理区域鲁棒性。

Description

多目图像重聚焦的深度获取方法及***
技术领域
本发明涉及计算机图像处理技术领域,特别涉及一种多目图像重聚焦的深度获取方法及***。
背景技术
在计算机视觉***中,三维场景信息为图像分割、目标检测、物体跟踪等各类计算机视觉应用提供了更多的可能性,而深度图像(Depthmap)作为一种普遍的三维场景信息表达方式得到了广泛的应用。
深度图像的每个像素点的灰度值可用于表征场景中某一点距离摄像机的远近。获取深度图像的方法可以分为两类:主动深度传感和基于图像的方法获取。
例如,3DV***公司开发的Zcam深度相机,利用红外脉冲光源向场景发射信号,然后用红外传感器来检测场景中物体反射回来的红外光,从而确定场景中物体的每一点到摄像机的距离。由于此类主动深度传感***设备的价格昂贵,不适合推广。
另一类方法是基于传统的计算机立体视觉方法,利用在多个不同的视点获得的同一景物的多个视点图像进行立体匹配来恢复出场景物体的深度信息,是目前深度获取方法中最为常用此类方法,一般包含两个步骤:
(1)对图像对进行立体匹配,得到对应点的视差图像;
(2)结合多相机的内外参数,根据对应点的视差与深度的关系计算出深度。
但由于在图像立体匹配和深度计算过程中,由于匹配点的选取一般是根据颜色差异来做判断,这个往往会导致深度估计在纹理重复区域表现出不准确。目前基于区域(窗口)的立体匹配算法,虽然能够恢复出部分高重复纹理区域的视差,但仍存在以下问题:
(1)在区域(或窗口)的大小选取上敏感度高;
(2)对于特殊图像处理(如,大面积纹理重复区域)表现出算法的劣势,在高重复纹理区域鲁棒性低。
发明内容
为了解决现有技术中的上述问题,即为了解决高重复纹理区域鲁棒性低的问题,本发明提供了一种多目图像重聚焦的深度获取方法及***。
为解决上述技术问题,本发明提供了如下方案:
一种多目图像重聚焦的深度获取方法,所述深度获取方法包括:
标定多个相机的光心位置;
根据各相机采集的图像平面及对应的光心位置,恢复出场景光场,并通过一个虚拟平面记录空间中光线的分布情况;
将各相机所在位置虚拟成合成孔径,使得通过所述虚拟平面的光线在所述合成孔径的像平面内成像;
移动所述合成孔径的像平面,获得对应焦距下的重聚焦图像;
对所述重聚焦图像进行提取,获得三维场景中各点的深度。
可选的,所述标定多相机的光心位置,具体包括采用matlab或opencv多相机标定的方法获取光心位置。
可选的,所述光线的分布情况包括光线的位置、方向及颜色。
可选的,所述通过所述虚拟平面的光线在所述合成孔径的像平面内成像,具体包括:
通过以下公式,确定在所述像平面内的成像:
I(x,y)=∫∫l(x,y,u,v)G(θ)dudv;
其中,l(x,y,u,v)表示4D光场中的光线,(x,y)和(u,v)分别表示光线的位置坐标和角坐标,I(x,y)表示图像,G(θ)表示方向的权重,θ是光线与图像所在平面法向量的夹角;
根据以下公式计算各相机由不同角度的光线集合形成的图像:
其中,ui,h,ui,l,vi,h和vi,l分别表示第ith个相机的采集角度。
可选的,所述对所述重聚焦图像进行提取,具体包括:
根据所述重聚焦图像获得各点最聚焦的重聚焦图像的焦距;
将各焦距根据合成孔径的特性反投影至真实三维物体上,得到三维场景中各点的深度。
可选的,根据以下公式,确定所述重聚焦图像的代价函数CRF
其中,rp代表了接受平面的位置,N是接受平面上一个像素点接受到的光线的个数,li代表了N条光线中的第i根光线的颜色值;最小的CRF表示该点最汇聚的接受平面。
可选的,根据以下公式,确定所述三维场景中各点的深度dp
其中,p表示所述三维场景中点。
可选的,所述相机的个数为7个。
为解决上述技术问题,本发明还提供了如下方案:
一种多目图像重聚焦的深度获取***,所述深度获取***包括:
标定单元,用于标定多个相机的光心位置;
恢复单元,用于根据各相机采集的图像平面及对应的光心位置,恢复出场景光场,并通过一个虚拟平面记录空间中光线的分布情况;
虚拟合成单元,用于将各相机所在位置虚拟成合成孔径,通过所述虚拟平面的光线在所述合成孔径的像平面内成像;
移动单元,用于移动所述合成孔径的像平面,获得对应焦距下的重聚焦图像;
提取单元,用于对所述重聚焦图像进行提取,获得三维场景中各点的深度。
可选的,所述标定多相机的光心位置,具体包括采用matlab或opencv多相机标定的方法获取光心位置。
根据本发明的实施例,本发明公开了以下技术效果:
本发明根据各相机采集的图像平面及对应的光心位置,恢复出场景光场,将各相机所在位置虚拟成合成孔径,移动合成孔径的像平面,实现多目图像重聚焦,对重聚焦图像进行提取,可减小在高重复纹理区域估计的误差,提高高重复纹理区域鲁棒性。
附图说明
图1是本发明多目图像重聚焦的深度获取方法的流程图;
图2(a)-图2(d)是双目相机介绍光线跟踪的过程;
图3(a)-图3(d)是测试图重聚焦的光线跟踪过程;
图4是光场显微镜捕获的场景图;
图5是图4的重聚焦序列图;
图6是本发明多目图像重聚焦的深度获取***的模块结构示意图。
符号说明:
标定单元—1,恢复单元—2,虚拟合成单元—3,移动单元—4,提取单元—5。
具体实施方式
下面参照附图来描述本发明的优选实施方式。本领域技术人员应当理解的是,这些实施方式仅仅用于解释本发明的技术原理,并非旨在限制本发明的保护范围。
本发明提供一种多目图像重聚焦的深度获取方法,根据各相机采集的图像平面及对应的光心位置,恢复出场景光场,将各相机所在位置虚拟成合成孔径,移动合成孔径的像平面,实现多目图像重聚焦,对重聚焦图像进行提取,可减小在高重复纹理区域估计的误差,提高高重复纹理区域鲁棒性。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明多目图像重聚焦的深度获取方法包括:
步骤100:标定多个相机的光心位置;
步骤200:根据各相机采集的图像平面及对应的光心位置,恢复出场景光场,并通过一个虚拟平面记录空间中光线的分布情况;
步骤300:将各相机所在位置虚拟成合成孔径,使得通过所述虚拟平面的光线在所述合成孔径的像平面内成像;
步骤400:移动所述合成孔径的像平面,获得对应焦距下的重聚焦图像;
步骤500:对所述重聚焦图像进行提取,获得三维场景中各点的深度。
其中,在步骤100中,一般采用matlab或opencv多相机标定的方法获取光心位置,为光线跟踪做准备。在本实施例中,所述相机的个数为7个。
在步骤200中,在光线跟踪过程中,将相机看成小孔成像模型,从7个图像平面和对应的7个光心恢复出场景光场,并用一个虚拟平面记录空间中光线的分布情况,所述光线的分布情况包括光线的位置、方向及颜色。所述虚拟平面设置于各个相机与场景之间。
具体的,如图2(a)所示,根据小孔成像原理,左右图像对上的两对对应点,产生4条光线,并汇聚于场景中两个不同点。将这两点延原4条光线的方向投射至虚拟孔径(synthetic aperture)上,根据理想透镜的焦距f、物距u、像距v三者的关系:在虚拟孔径的另一边可以得到两个交点(如图2(b)所示)。在各个相机构成的相机阵列与场景之间设立一个虚拟平面,记录空间中光线的分布(位置、方向以及颜色),就好像场景的光线是所述虚拟平面发射出来的一样。同样根据可以得到虚拟合成孔径成像平面上(image plane)的4个点,光线在虚拟合成孔径右侧相交于两点,这两点和图2(b)中得到的两个点完全一样(如图2(c)所示)。进一步地,合适的位置移动接受平面(即合成孔径的像平面),可以得到一系列重聚焦图像(如图2(d)所示)。
在步骤300中,如图3(a)-图3(d)所示,所述通过所述虚拟平面的光线在所述合成孔径的像平面内成像,具体包括:
通过公式(1),确定在所述像平面内的成像:
I(x,y)=∫∫l(x,y,u,v)G(θ)dudv (1);
其中,l(x,y,u,v)表示4D光场中的光线,(x,y)和(u,v)分别表示光线的位置坐标和角坐标,I(x,y)表示图像,G(θ)表示方向的权重,θ是光线与图像所在平面法向量的夹角。
根据公式(2)计算各相机由不同角度的光线集合形成的图像:
其中,ui,h,ui,l,vi,h和vi,l分别表示第ith个相机的采集角度。
在步骤500中,所述对所述重聚焦图像进行提取,具体包括:
步骤501:根据所述重聚焦图像获得各点最聚焦的重聚焦图像的焦距;
步骤502:将各焦距根据合成孔径的特性反投影至真实三维物体上,得到三维场景中各点的深度。
具体地,在恢复出场景光场之后,可以使用上述合成孔径成像理论将整个摄像机阵列虚拟为一个合成孔径,得到不同焦距下的重聚焦图像(如图3(d)所示)。根据公式(3),计算参考图像IRef上每个子像素的重聚焦图像的代价函数CRF
其中,rp代表了接受平面的位置,N是接受平面上一个像素点接受到的光线的个数,li代表了N条光线中的第i根光线的颜色值;最小的CRF表示该点最汇聚的接受平面。
进一步,通过算得三维场景中的每个点p的深度dp,其中dp=u,v=rp,根据公式(4),确定所述三维场景中各点的深度dp
其中,p表示所述三维场景中点。
实际的实验中,相机阵列由7个微透镜构成,用于光场显微镜的采集与重构。图4中是我们光场显微镜捕获的场景图,图5是重聚焦序列图。如表1所示,可知相对于传统方法,本发明多目图像重聚焦的深度获取方法准确率提高了16%左右。
表1纹理重复区域的深度估计绝对误差的比较表
此外,本发明还提供一种多目图像重聚焦的深度获取***,可提高高重复纹理区域鲁棒性。如图6所示,本发明多目图像重聚焦的深度获取***包括标定单元1、恢复单元2、虚拟合成单元3、移动单元4及提取单元5。所述标定单元1用于标定多个相机的光心位置;所述恢复单元2用于根据各相机采集的图像平面及对应的光心位置,恢复出场景光场,并通过一个虚拟平面记录空间中光线的分布情况;所述虚拟合成单元3用于将各相机所在位置虚拟成合成孔径,通过所述虚拟平面的光线在所述合成孔径的像平面内成像;所述移动单元4用于移动所述合成孔径的像平面,获得对应焦距下的重聚焦图像;所述提取单元5用于对所述重聚焦图像进行提取,获得三维场景中各点的深度。
可选的,所述标定多相机的光心位置,具体包括采用matlab或opencv多相机标定的方法获取光心位置。
相对于现有技术,本发明多目图像重聚焦的深度获取***与上述多目图像重聚焦的深度获取方法的有益效果相同,在此不再赘述。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。

Claims (10)

1.一种多目图像重聚焦的深度获取方法,其特征在于,所述深度获取方法包括:
标定多个相机的光心位置;
根据各相机采集的图像平面及对应的光心位置,恢复出场景光场,并通过一个虚拟平面记录空间中光线的分布情况;
将各相机所在位置虚拟成合成孔径,使得通过所述虚拟平面的光线在所述合成孔径的像平面内成像;
移动所述合成孔径的像平面,获得对应焦距下的重聚焦图像;
对所述重聚焦图像进行提取,获得三维场景中各点的深度。
2.根据权利要求1所述的多目图像重聚焦的深度获取方法,其特征在于,所述标定多相机的光心位置,具体包括采用matlab或opencv多相机标定的方法获取光心位置。
3.根据权利要求1所述的多目图像重聚焦的深度获取方法,其特征在于,所述光线的分布情况包括光线的位置、方向及颜色。
4.根据权利要求1所述的多目图像重聚焦的深度获取方法,其特征在于,所述通过所述虚拟平面的光线在所述合成孔径的像平面内成像,具体包括:
通过以下公式,确定在所述像平面内的成像:
I(x,y)=∫∫l(x,y,u,v)G(θ)dudv;
其中,l(x,y,u,v)表示4D光场中的光线,(x,y)和(u,v)分别表示光线的位置坐标和角坐标,I(x,y)表示图像,G(θ)表示方向的权重,θ是光线与图像所在平面法向量的夹角;
根据以下公式计算各相机由不同角度的光线集合形成的图像:
<mrow> <msub> <mi>I</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mo>&amp;Integral;</mo> <msub> <mi>u</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>l</mi> </mrow> </msub> <msub> <mi>u</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>h</mi> </mrow> </msub> </msubsup> <msubsup> <mo>&amp;Integral;</mo> <msub> <mi>v</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>l</mi> </mrow> </msub> <msub> <mi>v</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>h</mi> </mrow> </msub> </msubsup> <mo>&amp;Integral;</mo> <mo>&amp;Integral;</mo> <mi>l</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>u</mi> <mo>,</mo> <mi>v</mi> <mo>)</mo> </mrow> <mi>G</mi> <mrow> <mo>(</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mi>d</mi> <mi>u</mi> <mi>d</mi> <mi>v</mi> <mo>;</mo> </mrow>
其中,ui,h,ui,l,vi,h和vi,l分别表示第ith个相机的采集角度。
5.根据权利要求1所述的多目图像重聚焦的深度获取方法,其特征在于,所述对所述重聚焦图像进行提取,具体包括:
根据所述重聚焦图像获得各点最聚焦的重聚焦图像的焦距;
将各焦距根据合成孔径的特性反投影至真实三维物体上,得到三维场景中各点的深度。
6.根据权利要求5所述的多目图像重聚焦的深度获取方法,其特征在于,根据以下公式,确定所述重聚焦图像的代价函数CRF
<mrow> <msub> <mi>min</mi> <mrow> <mi>r</mi> <mi>p</mi> </mrow> </msub> <msub> <mi>C</mi> <mrow> <mi>R</mi> <mi>F</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <msub> <mi>l</mi> <mi>i</mi> </msub> <mo>;</mo> </mrow>
其中,rp代表了接受平面的位置,N是接受平面上一个像素点接受到的光线的个数,li代表了N条光线中的第i根光线的颜色值;最小的CRF表示该点最汇聚的接受平面。
7.根据权利要求6所述的多目图像重聚焦的深度获取方法,其特征在于,根据以下公式,确定所述三维场景中各点的深度dp
<mrow> <msub> <mi>d</mi> <mi>p</mi> </msub> <mo>=</mo> <msub> <mi>arg</mi> <msub> <mi>d</mi> <mi>p</mi> </msub> </msub> <msub> <mi>minC</mi> <mrow> <mi>R</mi> <mi>F</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> </mrow> </msub> <mo>;</mo> </mrow>
其中,p表示所述三维场景中点。
8.根据权利要求1-7中任一项所述的多目图像重聚焦的深度获取方法,其特征在于,所述相机的个数为7个。
9.一种多目图像重聚焦的深度获取***,其特征在于,所述深度获取***包括:
标定单元,用于标定多个相机的光心位置;
恢复单元,用于根据各相机采集的图像平面及对应的光心位置,恢复出场景光场,并通过一个虚拟平面记录空间中光线的分布情况;
虚拟合成单元,用于将各相机所在位置虚拟成合成孔径,通过所述虚拟平面的光线在所述合成孔径的像平面内成像;
移动单元,用于移动所述合成孔径的像平面,获得对应焦距下的重聚焦图像;
提取单元,用于对所述重聚焦图像进行提取,获得三维场景中各点的深度。
10.根据权利要求9所述的多目图像重聚焦的深度获取***,其特征在于,所述标定多相机的光心位置,具体包括采用matlab或opencv多相机标定的方法获取光心位置。
CN201710662079.8A 2017-08-04 2017-08-04 多目图像重聚焦的深度获取方法及*** Expired - Fee Related CN107610170B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710662079.8A CN107610170B (zh) 2017-08-04 2017-08-04 多目图像重聚焦的深度获取方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710662079.8A CN107610170B (zh) 2017-08-04 2017-08-04 多目图像重聚焦的深度获取方法及***

Publications (2)

Publication Number Publication Date
CN107610170A true CN107610170A (zh) 2018-01-19
CN107610170B CN107610170B (zh) 2020-05-19

Family

ID=61064598

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710662079.8A Expired - Fee Related CN107610170B (zh) 2017-08-04 2017-08-04 多目图像重聚焦的深度获取方法及***

Country Status (1)

Country Link
CN (1) CN107610170B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109242900A (zh) * 2018-08-01 2019-01-18 曜科智能科技(上海)有限公司 焦平面定位方法、处理装置、焦平面定位***及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899870A (zh) * 2015-05-15 2015-09-09 清华大学深圳研究生院 基于光场数据分布的深度估计方法
US20160150182A1 (en) * 2014-11-25 2016-05-26 Electronics And Telecommunications Research Institute Method and apparatus for providing eye-contact function to multiple points of attendance using stereo image in video conference system
EP3026629A1 (en) * 2014-11-26 2016-06-01 Thomson Licensing Method and apparatus for estimating depth of focused plenoptic data
CN106096474A (zh) * 2015-04-21 2016-11-09 手持产品公司 用于成像的***和方法
CN106373152A (zh) * 2016-09-18 2017-02-01 清华大学深圳研究生院 一种基于手持式光场相机的距离估计方法
CN106709865A (zh) * 2015-11-13 2017-05-24 杭州海康威视数字技术股份有限公司 一种深度图像合成方法及装置
CN106842178A (zh) * 2017-01-13 2017-06-13 清华大学深圳研究生院 一种光场距离估计方法与光场成像***

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160150182A1 (en) * 2014-11-25 2016-05-26 Electronics And Telecommunications Research Institute Method and apparatus for providing eye-contact function to multiple points of attendance using stereo image in video conference system
EP3026629A1 (en) * 2014-11-26 2016-06-01 Thomson Licensing Method and apparatus for estimating depth of focused plenoptic data
CN106096474A (zh) * 2015-04-21 2016-11-09 手持产品公司 用于成像的***和方法
CN104899870A (zh) * 2015-05-15 2015-09-09 清华大学深圳研究生院 基于光场数据分布的深度估计方法
CN106709865A (zh) * 2015-11-13 2017-05-24 杭州海康威视数字技术股份有限公司 一种深度图像合成方法及装置
CN106373152A (zh) * 2016-09-18 2017-02-01 清华大学深圳研究生院 一种基于手持式光场相机的距离估计方法
CN106842178A (zh) * 2017-01-13 2017-06-13 清华大学深圳研究生院 一种光场距离估计方法与光场成像***

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
RENJING PEI等: "A Novel Optimization Method for Lenticular 3-D Display Based on Light Field Decomposion", 《JOURNAL OF DISPLAY TECHNOLOGY》 *
尹晓艮等: "基于光场数字重聚焦的三维重建方法研究", 《光电子·激光》 *
杨德刚等: "基于光场分析的多线索融合深度估计方法", 《计算机学报》 *
肖照林: "基于相机阵列的光场成像与深度估计方法研究", 《中国优秀硕士学位论文全文数据库》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109242900A (zh) * 2018-08-01 2019-01-18 曜科智能科技(上海)有限公司 焦平面定位方法、处理装置、焦平面定位***及存储介质
CN109242900B (zh) * 2018-08-01 2021-09-21 曜科智能科技(上海)有限公司 焦平面定位方法、处理装置、焦平面定位***及存储介质

Also Published As

Publication number Publication date
CN107610170B (zh) 2020-05-19

Similar Documents

Publication Publication Date Title
CN110849367B (zh) 基于融合uwb的视觉slam的室内定位与导航的方法
CN104156972B (zh) 基于激光扫描测距仪与多相机融合的透视成像方法
CN103337094B (zh) 一种应用双目摄像机实现运动三维重建的方法
CN101630406B (zh) 摄像机的标定方法及摄像机标定装置
CN104539928B (zh) 一种光栅立体印刷图像合成方法
CN112801074B (zh) 一种基于交通摄像头的深度图估计方法
CN109360235A (zh) 一种基于光场数据的混合深度估计方法
CN109118544B (zh) 基于透视变换的合成孔径成像方法
CN109840922B (zh) 基于双目光场相机的深度获取方法和***
CN106952299B (zh) 一种适用于智能移动设备的三维光场技术实现方法
CN110319772A (zh) 基于无人机的视觉大跨度测距方法
CN111009030A (zh) 一种多视高分辨率纹理图像与双目三维点云映射方法
CN106920276A (zh) 一种三维重建方法和***
CN104700355A (zh) 室内二维平面图的生成方法、装置和***
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
Islam et al. Stereo vision-based 3D positioning and tracking
CN102222348A (zh) 一种三维目标运动矢量计算方法
Yuan et al. 3D reconstruction of background and objects moving on ground plane viewed from a moving camera
CN114359406A (zh) 自动对焦双目摄像头的标定、3d视觉及深度点云计算方法
CN106780593A (zh) 一种彩色深度图像的获取方法、获取设备
CN110443228A (zh) 一种行人匹配方法、装置、电子设备及存储介质
CN108364345B (zh) 基于像素标记和合成孔径成像的遮挡目标三维重建方法
CN103426170A (zh) 基于非结构光场合成孔径成像的隐藏目标成像方法
CN108090930A (zh) 基于双目立体相机的障碍物视觉检测***及方法
CN107610170A (zh) 多目图像重聚焦的深度获取方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200519

CF01 Termination of patent right due to non-payment of annual fee