CN108564620A - 一种针对光场阵列相机的场景深度估计方法 - Google Patents
一种针对光场阵列相机的场景深度估计方法 Download PDFInfo
- Publication number
- CN108564620A CN108564620A CN201810256154.5A CN201810256154A CN108564620A CN 108564620 A CN108564620 A CN 108564620A CN 201810256154 A CN201810256154 A CN 201810256154A CN 108564620 A CN108564620 A CN 108564620A
- Authority
- CN
- China
- Prior art keywords
- depth
- estimation
- scene
- light field
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000000605 extraction Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000013519 translation Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 claims description 2
- 238000001914 filtration Methods 0.000 abstract description 3
- 238000004458 analytical method Methods 0.000 abstract description 2
- 238000013461 design Methods 0.000 abstract description 2
- 238000004321 preservation Methods 0.000 abstract 1
- 238000006073 displacement reaction Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010992 reflux Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
本发明公开了一种针对光场阵列相机的场景深度估计方法,由于三维场景中不同深度的物体对应不同的视差,本发明方法利用光场阵列相机所获取的子图像,通过纵向方差分析来得到当前场景的初始深度图与对应的置信度分布图。随后,本发明设计了一种“置信度引导下的深度传播”算法来对初始深度图进行去噪滤波和边缘保持。通过采用本发明的方法,当前场景的深度可以有效地被估计出来。本发明的方法在深度难以估计的弱纹理区域能够取得较好的结果。
Description
技术领域
本发明涉及图像处理、计算机视觉、光场计算成像领域,特别是一种针对光场阵列相机的场景深度估计方法。
背景技术
近几年来,基于光场和计算成像理论的光场相机成为了研究的热点。它通过采集现实世界的光场,在单次曝光中就可以获得当前场景的三维信息,通过对采集到的数据进行处理,可以实现超分辨率计算成像、场景三维重建等诸多传统相机无法实现的功能。而大多数功能的实现都需要对当前场景的深度进行较为准确的估计。
作为计算机视觉研究领域的一个重要分支,深度估计在过去的十几年里被广泛研究。然而大多数的研究都是针对双目相机提出的,如果仅仅利用阵列相机中的两个子相机来进行深度估计,则无法充分利用捕获到的当前场景的有效信息。最近几年,也有学者提出基于微透镜型光场相机的深度估计方法,并取得了较好的效果。但是微透镜型光场相机的等效基线较窄,其获得的光场采样在角度方向上较为密集,角度分辨率相对较高,从而导致这些基于微透镜阵列的深度估计算法对角度分辨率的要求也相对较高,而阵列相机往往具有较宽的基线,其在角度方向上的采样也较为稀疏,这种较低的角度分辨率往往会导致深度估计的结果具有较大的噪声和深度误匹配。如果直接将基于微透镜的深度估计算法应用到阵列相机上来,其效果便会有所损失。因此,我们需要充分利用阵列相机所捕获的场景信息,通过对这些信息的充分利用来抑制噪声和深度误匹配,从而实现在稀疏角度采样的条件下较好地估计出当前场景的深度。
发明内容
本发明所要解决的技术问题是,针对现有技术不足,提供一种针对光场阵列相机的场景深度估计方法,充分利用阵列相机所捕获的场景信息,通过对这些信息的充分利用来抑制噪声和深度误匹配,实现在稀疏角度采样的条件下较好地估计出当前场景的深度。
为解决上述技术问题,本发明所采用的技术方案是:一种针对光场阵列相机的场景深度估计方法,其特征在于,包括以下步骤:
1)在重聚焦过程中通过比较角度方向上的方差估计初始深度估计中的场景深度;
2)在重聚焦过程中通过分析角度方向上的二阶方差计算场景深度的置信度分布;
3)利用所述置信度分布滤除初始深度估计图中的噪声和深度误匹配;
4)对经步骤3)处理后的深度估计图的边缘进行加强,得到当前场景的精确深度估计图。
步骤1)中,所述场景深度的估计值其中,x为场景深度图中某一像素的横坐标值,WD是x周围的一个邻域,|WD|代表窗口中像素的总数;
u={u1,u2,L,uU}是阵列中相机的位置;N是深度分辨率;U是在u方向上的相机总数; s={s1,s2,L,sN}为聚焦因子;L(u,x-siu)表示坐标为u的相机获取的图像在横坐标为x-siu处的图像灰度值。
步骤2)中,置信度分布R(x)的计算公式为:
其中,a是衰减系数;b为平移系数;η(x)=LW(x)/max{LW(x)},ε是一个小量, 是V'(x,si)的均值。
a取值为0.3;b取值为0.5。
步骤3)的具体实现过程包括以下步骤:
1)从初始深度估计图X中提取一个以(i,j)为中心、大小为ρ×ρ的块PX;从置信度分布中提取相应的块PR;(i,j)初始化为(1,1);
2)通过归一化其中PR(x,y)为块PR中第x行第 y列的置信度的值;经过归一化,生成掩膜M;
3)将PX与M的内积填入滤波后的深度图Xf中,即
4)判断X中的所有像素是否被遍历,若是,则输出滤波后的深度图Xf;否则,返回步骤1)。
步骤4)的具体实现过程包括:
1)从滤波后的深度图Xf中提取一个以(i,j)为中心的大小为ρ×ρ的块PX;从膨胀后的置信度分布Re中提取相应的块PR;
2)通过置信度翻转和能量归一化生成掩膜Mb;
3)将PX与Mb的内积填入精确深度估计图Xb中,即
4)若Xf中所有像素都被遍历,则输出精确深度估计图Xb;否则,返回步骤1)。
与现有技术相比,本发明所具有的有益效果为:本发明可以利用光场阵列相机对当前场景的深度分布进行准确估计,从而可以对当前场景的三维结构进行分析,对基于光场阵列相机的场景三维重建、超分辨计算成像等诸多功能的精度提升具有促进作用。随着光场相机的不断推广与普及,本发明方法有着较大的意义与实用价值。
附图说明
图1为针对光场阵列相机的场景深度估计算法结构框图;
图2为光场的双平面模型示意图。其中,(a)为光场的双平面立体模型:光线穿过像平面Π={(x,y)}与相机平面Ω={(u,v)},其位置和方向可以通过这两个平面的坐标值来表示。其中,(u,v)代表了阵列相机中相机的位置坐标,(x,y)代表着某一个相机获得的二维图像中的一个像素,这样,通过u,v,x,y这四个坐标,整个阵列相机所获得的数据就可以被表示出来,我们用L(u,v,x,y)来表示坐标为(u,v)处的相机所获得的图像在其坐标(x,y)处的像素的灰度值(取值范围为0-255),由相机所拍摄的场景来决定,L可以理解为光场的四维坐标(两维相机坐标,两维图像坐标)到相机阵列所获取的图像灰度值之间的一个映射关系。从而L(u,v,x,y)就可以表示相机阵列所拍摄到的当前光场。 (b)为光场立体模型在xu方向上的投影:由于四维光场模型在u与v,x与y两对方向上具有对称性,为了简化对模型的分析并且不失一般性,我们固定y=y*与v=v*,将光场投影到xu空间进行分析。通过分析图2(b)中的光场的二维投影,我们可以得到场景的深度γ与该深度下图像对应像素的位移偏差d=L1-L2满足关系d=fB/γ,从而深度估计的问题可以归结为阵列子图像中对应深度的像素之间位移差异估计的问题。
图3为本发明算法取得的效果图,(a)为实验采用的场景图,(b)为通过本发明的方法计算得到的场景置信度分布图,(c)为利用本发明公开的方法得到的场景深度图。
具体实施方式
由于深度估计主要是通过不同位置像素在角度方向上的位移差异估计来实现的,而位移差异和深度具有一一对应的关系。因此我们在本发明中将位移差异的估计统称为深度估计。不失一般性,本发明在介绍步骤的过程中将四维光场模型L(u,v,x,y)简化为二维模型L(u,x),以方便对算法进行介绍。本发明通过在角度方向上分析阵列相机获取的子图像,通过比较方差的大小来进行初步的深度估计,通过分析二阶方差来估计出初始深度对应的置信度。之后,本发明通过采用“置信度引导下的深度传播”算法来对初始深度估计中的噪声和深度误匹配进行滤除。在本算法中,初始深度首先在置信度的引导下进行顺向流动,使得低置信度区域内的噪声和深度误匹配被周围高置信度的区域替代;而后深度在膨胀后的置信度引导下反向流动,在进一步滤波的同时,对深度图中的边缘进行增强。经过置信度引导下的深度传播算法,可以得到当前场景较为理想和精确的深度分布图。本发明算法的流程图如图1所示,具体包括以下步骤:
1.在重聚焦过程中通过比较角度方向上的方差来对场景深度进行初始估计。重聚焦过程可以表示为:
式中,u={u1,u2,L,uU}是阵列中相机的位置(一般设置中间位置的相机为参考相机); s={s1,s2,L,sN}为聚焦因子,N是深度分辨率(即深度方向上总共划分的深度层数),U是在u方向上的相机总数。阵列子图像在角度方向上的方差可以表示为:
因为聚焦区域在角度方向上往往对应着较小的方差,而非聚焦区域在角度方向上往往对应着较大的方差,所以可以通过计算每一个聚焦因子下的方差,通过进行比较,挑选出最小的方差对应的聚焦因子即为这个像素所在深度对应的聚焦因子。为了增加算法的鲁棒性,我们采用下式来计算初始的深度估计值:
此处,WD是x周围的一个邻域,通常可以设置为7×7的窗口;|WD|代表窗口中像素的总数;D(x)即为初始的位移估计值。
2.在重聚焦过程中通过分析角度方向上的二阶方差来对场景深度的置信度进行计算。通过计算下式得到光场阵列子图像角度方向上的二阶方差值:
式中,是方差V'(x,si)的均值,W(x)可以用来度量V'(x)的波动情况,从而来衡量该深度值的可信赖程度。然而,W(x)的尺度过大,不适合直接应用,我们对其进行处理,。首先采用下式进行对数化处理:
式中ε是一个小量以防止分母等于0,而后再根据下式进行归一化处理:
η(x)=LW(x)/max{LW(x)}
经过归一化,η的取值范围被限制到了0到1之间。最后,为了将η分为高置信区域与低置信区域,采用sigmoid函数来进行映射。如下所示:
式中,a是衰减系数,控制曲线的灵敏度,取值为0.3;b为平移系数,控制阈值的大小,取值为0.5。通过以上计算,即获得当前场景深度估计的置信度分布R。
3.采用“置信度引导的深度传播”算法,对初始深度估计图中的噪声和深度误匹配进行滤除。利用计算得到的置信度分布R,我们可以通过最小化如下目标函数来实现全局优化。
式中,X0是向量化的初始位移估计,X为变量,R代表置信度分布,为全1向量。X,X0,R和具有相同的维度。优化的深度估计图可以通过最小化目标函数的方式来求得。而目标函数中由保真项ER(X)和正则项JR(X)组成。λ为正则化系数,用来控制滤波作用的力度。矩阵H为在置信度引导下控制深度值从高置信度区域传播到低置信度区域的算子,HX可以由算法1来实现。
注:边界通过填充边缘值来处理
4.通过采用“置信度引导下的深度回流”算法,对深度图的边缘进行加强。具体实施方法为:
通过最小化目标函数,虽然在弱纹理区域的噪声和深度误匹配可以被有效地抑制,但是会导致高置信度区域边缘周围发生位移值扩散。为了保持边缘处的强度,此处需要介绍一个边缘强化措施。该措施又分为置信域膨胀与深度回流。
置信域膨胀可以由最大值滤波器来实现。我们定义Re为膨胀之后的置信度分布图,其中任意一个像素可以通过下式计算来得到。
式中,Pi,j是以R(i,j)为中心的块,最大值滤波器的作用是提取R(i,j)的邻域Pi,j内的最大值作为滤波器输出的结果。通过最大值滤波器的运算,原来置信度分布图中置信度较高的区域就会膨胀,置信度较低的区域就会收缩。
由于边缘的模糊效应主要集中在边缘的低置信度的一侧,而另外一侧由于被保真项保护,在优化的过程中并没有受到很大的损失,此处可以采用置信度引导下的深度回流策略来进行边缘加强,具体可以通过最小化下面的目标函数来实现:
式中,λb是正则化权值,矩阵Hb为空变滤波算子,在其中低置信度区域占有更大的权重。滤波过程详见如下算法2.
注:边界通过填充边缘值来处理。
Claims (6)
1.一种针对光场阵列相机的场景深度估计方法,其特征在于,包括以下步骤:
1)在重聚焦过程中通过比较角度方向上的方差估计初始深度估计中的场景深度;
2)在重聚焦过程中通过分析角度方向上的二阶方差计算场景深度的置信度分布;
3)利用所述置信度分布滤除初始深度估计图中的噪声和深度误匹配;
4)对经步骤3)处理后的深度估计图的边缘进行加强,得到当前场景的精确深度估计图。
2.根据权利要求1所述的针对光场阵列相机的场景深度估计方法,其特征在于,步骤1)中,所述场景深度的估计值其中,x为场景深度图中某一像素的横坐标值,WD是x周围的一个邻域,|WD|代表窗口中像素的总数; u={u1,u2,L,uU}是阵列中相机的位置;N是深度分辨率;U是在u方向上的相机总数;s={s1,s2,L,sN}为聚焦因子;L(u,x-siu)表示坐标为u的相机获取的图像在横坐标为x-siu处的图像灰度值。
3.根据权利要求2所述的针对光场阵列相机的场景深度估计方法,其特征在于,步骤2)中,置信度分布R(x)的计算公式为:
其中,a是衰减系数;b为平移系数;η(x)=LW(x)/max{LW(x)},ε是一个小量, 是V'(x,si)的均值。
4.根据权利要求3所述的针对光场阵列相机的场景深度估计方法,其特征在于,a取值为0.3;b取值为0.5。
5.根据权利要求1所述的针对光场阵列相机的场景深度估计方法,其特征在于,步骤3)的具体实现过程包括以下步骤:
1)从初始深度估计图X中提取一个以(i,j)为中心、大小为ρ×ρ的块PX;从置信度分布中提取相应的块PR;(i,j)初始化为(1,1);
2)通过归一化其中PR(x,y)为块PR中第x行第y列的置信度的值;经过归一化,生成掩膜M;
3)将PX与M的内积填入滤波后的深度图Xf中,即
4)判断X中的所有像素是否被遍历,若是,则输出滤波后的深度图Xf;否则,返回步骤1)。
6.根据权利要求5所述的针对光场阵列相机的场景深度估计方法,其特征在于,步骤4)的具体实现过程包括:
1)从滤波后的深度图Xf中提取一个以(i,j)为中心的大小为ρ×ρ的块PX;从膨胀后的置信度分布Re中提取相应的块PR;
2)通过置信度翻转和能量归一化生成掩膜Mb;
3)将PX与Mb的内积填入精确深度估计图Xb中,即
4)若Xf中所有像素都被遍历,则输出精确深度估计图Xb;否则,返回步骤1)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810256154.5A CN108564620B (zh) | 2018-03-27 | 2018-03-27 | 一种针对光场阵列相机的场景深度估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810256154.5A CN108564620B (zh) | 2018-03-27 | 2018-03-27 | 一种针对光场阵列相机的场景深度估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108564620A true CN108564620A (zh) | 2018-09-21 |
CN108564620B CN108564620B (zh) | 2020-09-04 |
Family
ID=63533407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810256154.5A Active CN108564620B (zh) | 2018-03-27 | 2018-03-27 | 一种针对光场阵列相机的场景深度估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108564620B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109360235A (zh) * | 2018-09-29 | 2019-02-19 | 中国航空工业集团公司上海航空测控技术研究所 | 一种基于光场数据的混合深度估计方法 |
CN110197506A (zh) * | 2019-05-30 | 2019-09-03 | 大连理工大学 | 一种基于可变高度旋转平行四边形的光场深度估计方法 |
CN110276371A (zh) * | 2019-05-05 | 2019-09-24 | 杭州电子科技大学 | 一种基于深度学习的集装箱角件识别方法 |
CN110400342A (zh) * | 2019-07-11 | 2019-11-01 | Oppo广东移动通信有限公司 | 深度传感器的参数调整方法、装置以及电子设备 |
CN111028281A (zh) * | 2019-10-22 | 2020-04-17 | 清华大学 | 基于光场双目***的深度信息的计算方法及装置 |
CN111091601A (zh) * | 2019-12-17 | 2020-05-01 | 香港中文大学深圳研究院 | 一种实时白天室外手机图像的pm2.5指数估计方法 |
US11205278B2 (en) | 2019-07-11 | 2021-12-21 | Shenzhen Heytap Technology Corp., Ltd. | Depth image processing method and apparatus, and electronic device |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103279961A (zh) * | 2013-05-22 | 2013-09-04 | 浙江大学 | 基于深度恢复和运动估计的视频分割方法 |
CN104966289A (zh) * | 2015-06-12 | 2015-10-07 | 北京工业大学 | 一种基于4d光场的深度估计方法 |
CN105023249A (zh) * | 2015-06-26 | 2015-11-04 | 清华大学深圳研究生院 | 基于光场的高光图像修复方法及装置 |
CN105139401A (zh) * | 2015-08-31 | 2015-12-09 | 山东中金融仕文化科技股份有限公司 | 一种深度图中深度的可信度的评估方法 |
CN105184808A (zh) * | 2015-10-13 | 2015-12-23 | 中国科学院计算技术研究所 | 一种光场图像前后景自动分割方法 |
US9414048B2 (en) * | 2011-12-09 | 2016-08-09 | Microsoft Technology Licensing, Llc | Automatic 2D-to-stereoscopic video conversion |
CN106340041A (zh) * | 2016-09-18 | 2017-01-18 | 杭州电子科技大学 | 一种基于级联遮挡滤除滤波器的光场相机深度估计方法 |
US20170213070A1 (en) * | 2016-01-22 | 2017-07-27 | Qualcomm Incorporated | Object-focused active three-dimensional reconstruction |
CN107038719A (zh) * | 2017-03-22 | 2017-08-11 | 清华大学深圳研究生院 | 基于光场图像角度域像素的深度估计方法及*** |
-
2018
- 2018-03-27 CN CN201810256154.5A patent/CN108564620B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9414048B2 (en) * | 2011-12-09 | 2016-08-09 | Microsoft Technology Licensing, Llc | Automatic 2D-to-stereoscopic video conversion |
CN103279961A (zh) * | 2013-05-22 | 2013-09-04 | 浙江大学 | 基于深度恢复和运动估计的视频分割方法 |
CN104966289A (zh) * | 2015-06-12 | 2015-10-07 | 北京工业大学 | 一种基于4d光场的深度估计方法 |
CN105023249A (zh) * | 2015-06-26 | 2015-11-04 | 清华大学深圳研究生院 | 基于光场的高光图像修复方法及装置 |
CN105139401A (zh) * | 2015-08-31 | 2015-12-09 | 山东中金融仕文化科技股份有限公司 | 一种深度图中深度的可信度的评估方法 |
CN105184808A (zh) * | 2015-10-13 | 2015-12-23 | 中国科学院计算技术研究所 | 一种光场图像前后景自动分割方法 |
US20170213070A1 (en) * | 2016-01-22 | 2017-07-27 | Qualcomm Incorporated | Object-focused active three-dimensional reconstruction |
CN106340041A (zh) * | 2016-09-18 | 2017-01-18 | 杭州电子科技大学 | 一种基于级联遮挡滤除滤波器的光场相机深度估计方法 |
CN107038719A (zh) * | 2017-03-22 | 2017-08-11 | 清华大学深圳研究生院 | 基于光场图像角度域像素的深度估计方法及*** |
Non-Patent Citations (3)
Title |
---|
JIE CHEN 等,: "Accurate Light Field Depth Estimation with Superpixel Regularization over Partially Occluded Regions", 《ARXIV》 * |
MICHAEL W. TAO 等,: "Depth from Combining Defocus and Correspondence Using Light-Field Cameras", 《2013 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
肖照林: "基于相机阵列的光场成像与深度估计方法研究", 《中国博士学位论文全文数据库》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109360235A (zh) * | 2018-09-29 | 2019-02-19 | 中国航空工业集团公司上海航空测控技术研究所 | 一种基于光场数据的混合深度估计方法 |
CN110276371A (zh) * | 2019-05-05 | 2019-09-24 | 杭州电子科技大学 | 一种基于深度学习的集装箱角件识别方法 |
CN110276371B (zh) * | 2019-05-05 | 2021-05-07 | 杭州电子科技大学 | 一种基于深度学习的集装箱角件识别方法 |
CN110197506A (zh) * | 2019-05-30 | 2019-09-03 | 大连理工大学 | 一种基于可变高度旋转平行四边形的光场深度估计方法 |
CN110197506B (zh) * | 2019-05-30 | 2023-02-17 | 大连理工大学 | 一种基于可变高度旋转平行四边形的光场深度估计方法 |
CN110400342A (zh) * | 2019-07-11 | 2019-11-01 | Oppo广东移动通信有限公司 | 深度传感器的参数调整方法、装置以及电子设备 |
CN110400342B (zh) * | 2019-07-11 | 2021-07-06 | Oppo广东移动通信有限公司 | 深度传感器的参数调整方法、装置以及电子设备 |
US11205278B2 (en) | 2019-07-11 | 2021-12-21 | Shenzhen Heytap Technology Corp., Ltd. | Depth image processing method and apparatus, and electronic device |
CN111028281A (zh) * | 2019-10-22 | 2020-04-17 | 清华大学 | 基于光场双目***的深度信息的计算方法及装置 |
CN111028281B (zh) * | 2019-10-22 | 2022-10-18 | 清华大学 | 基于光场双目***的深度信息计算方法及装置 |
CN111091601A (zh) * | 2019-12-17 | 2020-05-01 | 香港中文大学深圳研究院 | 一种实时白天室外手机图像的pm2.5指数估计方法 |
CN111091601B (zh) * | 2019-12-17 | 2023-06-23 | 香港中文大学深圳研究院 | 一种实时白天室外手机图像的pm2.5指数估计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108564620B (zh) | 2020-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108564620A (zh) | 一种针对光场阵列相机的场景深度估计方法 | |
CN108470370B (zh) | 三维激光扫描仪外置相机联合获取三维彩色点云的方法 | |
US10353271B2 (en) | Depth estimation method for monocular image based on multi-scale CNN and continuous CRF | |
US10217293B2 (en) | Depth camera-based human-body model acquisition method and network virtual fitting system | |
CN111462206B (zh) | 一种基于卷积神经网络的单目结构光深度成像方法 | |
CN109685732B (zh) | 一种基于边界捕捉的深度图像高精度修复方法 | |
CN104574347B (zh) | 基于多源遥感数据的在轨卫星图像几何定位精度评价方法 | |
CN103426200B (zh) | 基于无人机航拍序列图像的树木三维重建方法 | |
CN106485690A (zh) | 基于点特征的点云数据与光学影像的自动配准融合方法 | |
CN107679537A (zh) | 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法 | |
CN110120071A (zh) | 一种面向光场图像的深度估计方法 | |
CN112991420A (zh) | 一种视差图的立体匹配特征提取及后处理方法 | |
CN115147709B (zh) | 一种基于深度学习的水下目标三维重建方法 | |
Ma et al. | An operational superresolution approach for multi-temporal and multi-angle remotely sensed imagery | |
CN114299405A (zh) | 一种无人机图像实时目标检测方法 | |
Lee et al. | Improving focus measurement via variable window shape on surface radiance distribution for 3D shape reconstruction | |
CN115471749A (zh) | 地外探测无监督学习的多视角多尺度目标识别方法及*** | |
Chen et al. | Scene segmentation of remotely sensed images with data augmentation using U-net++ | |
CN107330930A (zh) | 三维图像深度信息提取方法 | |
CN114549669A (zh) | 一种基于图像融合技术的彩色三维点云获取方法 | |
Misra et al. | SPRINT: Spectra Preserving Radiance Image Fusion Technique using holistic deep edge spatial attention and Minnaert guided Bayesian probabilistic model | |
CN113034371A (zh) | 一种基于特征嵌入的红外与可见光图像融合方法 | |
Mo et al. | Soft-aligned gradient-chaining network for height estimation from single aerial images | |
He et al. | A novel way to organize 3D LiDAR point cloud as 2D depth map height map and surface normal map | |
CN113670268B (zh) | 基于双目视觉的无人机和电力杆塔距离测量方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |