CN108389171A - 一种基于联合估计模糊变量的光场去模糊和深度估计方法 - Google Patents
一种基于联合估计模糊变量的光场去模糊和深度估计方法 Download PDFInfo
- Publication number
- CN108389171A CN108389171A CN201810189606.2A CN201810189606A CN108389171A CN 108389171 A CN108389171 A CN 108389171A CN 201810189606 A CN201810189606 A CN 201810189606A CN 108389171 A CN108389171 A CN 108389171A
- Authority
- CN
- China
- Prior art keywords
- image
- sub
- light field
- fuzzy
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000033001 locomotion Effects 0.000 claims abstract description 37
- 238000005457 optimization Methods 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 9
- 238000013459 approach Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 230000001419 dependent effect Effects 0.000 claims description 3
- 230000036544 posture Effects 0.000 claims description 3
- 238000011084 recovery Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000192 social effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
本发明中提出的一种基于联合估计模糊变量的光场去模糊和深度估计方法,其主要内容包括:子孔径图像、光场模糊模型、潜像的更新、相机运动和深度图的更新,其过程为,先选择子孔径图像的中心视图和快门时间的中间值作为潜像的参考角位置和时间戳,使用光场的输入子孔径图像初始化深度图,相机运动从局部线性模糊内核和初始场景深度初始化,接着联合优化潜像、深度图和相机运动,最终得到清晰的图像、光场、深度图和相机运动作为输出。本发明所提出的联合估计在任意6‑自由度相机运动和无约束场景深度下同时实现了高质量的光场去模糊和深度估计,大大提高了图像的清晰度,在一般相机运动和场景深度变化的情况下运行良好。
Description
技术领域
本发明涉及图像复原领域,尤其是涉及了一种基于联合估计模糊变量的光场去模糊和深度估计方法。
背景技术
在数字信息时代,图像去模糊作为图像复原技术的一个重要分支,一直都是一个极具挑战性的问题,具有重大的研究价值和社会意义。由于拍摄操作或拍摄环境因素等的影响,拍摄图像经常出现模糊和失真的现象,又或者在生成、传输、记录、储存过程中由于成像***、传输介质或记录设备的不完善等原因造成图像信息丢失或质量降低。因此图像去模糊技术在许多领域都显得尤为重要。如在安保领域,监控录像设备记录和拍摄的画面中,当目标人物或物体快速运动时,所摄取的画面一般会比较模糊,通过图像去模糊技术则可以生成较为清晰的图像,方便保安或警察等获取有效的信息。在医学影像领域,由于人体各个器官内部环境复杂多变,因此拍摄的器官内部图像往往难以看清,通过应用图像去模糊技术,则可以在一定程度上恢复清晰图像,从而帮助医生诊断和治疗。在天文观测、空间探索、遥感预测等领域中,由于探索的领域具有未知性、复杂性和多变性,因此更需要图像去模糊技术来帮助研究人员恢复清晰图像,从而确定环境信息。然而,现有的图像去模糊技术难以实现仅用单一观察估计场景深度,且仍然不能完全处理由场景深度变化引起的不均匀模糊。
本发明提出了一种基于联合估计模糊变量的光场去模糊和深度估计方法,先选择子孔径图像的中心视图和快门时间的中间值作为潜像的参考角位置和时间戳,使用光场的输入子孔径图像初始化深度图,相机运动从局部线性模糊内核和初始场景深度初始化,接着联合优化潜像、深度图和相机运动,最终得到清晰的图像、光场、深度图和相机运动作为输出。本发明所提出的联合估计在任意6-自由度相机运动和无约束场景深度下同时实现了高质量的光场去模糊和深度估计,大大提高了图像的清晰度,在一般相机运动和场景深度变化的情况下运行良好。
发明内容
针对难以仅用单一观察估计场景深度等问题,本发明的目的在于提供一种基于联合估计模糊变量的光场去模糊和深度估计方法,先选择子孔径图像的中心视图和快门时间的中间值作为潜像的参考角位置和时间戳,使用光场的输入子孔径图像初始化深度图,相机运动从局部线性模糊内核和初始场景深度初始化,接着联合优化潜像、深度图和相机运动,最终得到清晰的图像、光场、深度图和相机运动作为输出。
为解决上述问题,本发明提供一种基于联合估计模糊变量的光场去模糊和深度估计方法,其主要内容包括:
(一)子孔径图像;
(二)光场模糊模型;
(三)潜像的更新;
(四)相机运动和深度图的更新。
其中,所述的子孔径图像,四维光场中的像素具有四个坐标,即用于空间的(x,y)和用于角坐标的(u,v);光场可以视为一组u×v具有狭窄基线的多视点图像,通常称为子孔径图像I(x,u);其中x=(x,y)和u=(u,v);对于每个子孔径图像,模糊图像B(x,u)是在快门打开时的清晰图像It(x,u)的平均值[t0,t1];通过投影具有三维刚性运动的单个潜像来近似所有模糊的子孔径图像。
进一步地,所述的近似,选择子孔径图像的中心视图(c)和快门时间的中间值(tr)作为潜像的参考角位置和时间戳;则从每个子孔径图像到潜像的像素对应关系表达如下:
wt(x,u)计算从u到c和从t到tr的翘曲像素位置;矩阵和表示相应角度位置处的6-自由度相机姿态和时间戳;Dt(x,u)是时间戳t处的深度图;
在所提出的模型中,模糊算子Ψ(·)通过将B(x,u)的积分近似为如下的有限和来定义:
在公式(2)中,tm是间隔期间[t0,t1]的第m个均匀采样时间戳。
进一步地,所述的有限和,确定只有中心视点变量的即和 和是在翘曲函数(2)中与u有关的变量;因此,通过使用中心视图变量来参数化和由于相对姿势Pc→u随时间而变化,所以
其中,exp和log表示李群SE(3)和李代数se(3)空间之间的指数和对数映射;为了最大限度地减少潜像的视点偏移,假设当tm=tr时,使得成为单位矩阵;也由通过前向翘曲和插值来表示。
其中,所述的光场模糊模型,为了估计所提出的光场模糊模型中的所有模糊变量,需要恢复潜在变量,即和对能量函数建模如下:
数据项强制输入模糊光场与恢复的光场之间的亮度一致性;最后两项分别是潜变量和深度图的总变分正则化。
进一步地,所述的能量函数建模,在能量模型中,和隐式包含在翘曲函数(2)中;以交替的方式优化三个潜在变量;最小化一个变量,而其他变量是固定的;依次针对三个变量优化公式(4);使用迭代重新加权最小二乘法(IRLS)来近似L1优化;优化过程以少量迭代收敛(<10)。
其中,所述的潜像的更新,该算法首先更新潜像在数据项中,如果和保持不变,则模糊算子(2)被简化为线性矩阵乘法;更新潜像等同于最小化(4)如下所示:
是矢量化图像,并且是方形矩阵形式的模糊算子,其中n是中心视角子孔径图像中的像素的数量;总变分正则化作为先于具有清晰边界的潜像而消除伪影。
进一步地,所述的相机运动和深度图的更新,由于公式(2)是和的非线性函数,为了高效计算,需要以线性形式逼近它;模糊操作(2)近似为一阶扩展;令D0(x,c)和表示初始变量,则公式(2)近似如下:
f是由翘曲函数产生的运动流,而表示se(3)上的六维向量;
一旦使用和近似,公式(4)可以使用IRLS进行优化;得到的和分别是当前和的增量值;它们更新如下:
其中,通过运动矢量的指数映射来更新。
进一步地,所述的相机运动,首先,使用光场的输入子孔径图像初始化深度图;假定相机不移动并且最小化公式(4)来获得初始最小化公式(4)成为一个简单的多视图立体匹配问题;相机运动从局部线性模糊内核和初始场景深度初始化。
进一步地,所述的深度初始化,首先使用估计B(x,c)的局部线性模糊核;然后,拟合由线性核移动的像素坐标和通过翘曲函数重新投影的坐标,如下所示:
其中,xi是采样的像素位置,l(xi)是xi被线性内核的终点移动的点;通过拟合由和l(·)移动的xi来获得由于场景深度固定在初始深度图上,是的唯一变量;随机抽样一致算法(RANSAC)用于查找最能描述像素线性内核的相机运动;N是随机样本的数量,始终为4。
附图说明
图1是本发明一种基于联合估计模糊变量的光场去模糊和深度估计方法的***流程图。
图2是本发明一种基于联合估计模糊变量的光场去模糊和深度估计方法的联合估计。
图3是本发明一种基于联合估计模糊变量的光场去模糊和深度估计方法的迭代联合估计实例。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于联合估计模糊变量的光场去模糊和深度估计方法的***流程图。主要包括子孔径图像、光场模糊模型、潜像的更新、相机运动和深度图的更新。
主要过程为:先选择子孔径图像的中心视图和快门时间的中间值作为潜像的参考角位置和时间戳,使用光场的输入子孔径图像初始化深度图,相机运动从局部线性模糊内核和初始场景深度初始化,接着联合优化潜像、深度图和相机运动,最终得到清晰的图像、光场、深度图和相机运动作为输出。
子孔径图像,四维光场中的像素具有四个坐标,即用于空间的(x,y)和用于角坐标的(u,v);光场可以视为一组u×v具有狭窄基线的多视点图像,通常称为子孔径图像I(x,u);其中x=(x,y)和u=(u,v);对于每个子孔径图像,模糊图像B(x,u)是在快门打开时的清晰图像It(x,u)的平均值[t0,t1];通过投影具有三维刚性运动的单个潜像来近似所有模糊的子孔径图像。
选择子孔径图像的中心视图(c)和快门时间的中间值(tr)作为潜像的参考角位置和时间戳;则从每个子孔径图像到潜像的像素对应关系表达如下:
wt(x,u)计算从u到c和从t到tr的翘曲像素位置;矩阵和表示相应角度位置处的6-自由度相机姿态和时间戳;Dt(x,u)是时间戳t处的深度图;
在所提出的模型中,模糊算子Ψ(·)通过将B(x,u)的积分近似为如下的有限和来定义:
在公式(2)中,tm是间隔期间[t0,t1]的第m个均匀采样时间戳。
确定只有中心视点变量的即和 和是在翘曲函数(2)中与u有关的变量;因此,通过使用中心视图变量来参数化和由于相对姿势Pc→u随时间而变化,所以
其中,exp和log表示李群SE(3)和李代数se(3)空间之间的指数和对数映射;为了最大限度地减少潜像的视点偏移,假设当tm=tr时,使得成为单位矩阵;也由通过前向翘曲和插值来表示。
光场模糊模型,为了估计所提出的光场模糊模型中的所有模糊变量,需要恢复潜在变量,即和对能量函数建模如下:
数据项强制输入模糊光场与恢复的光场之间的亮度一致性;最后两项分别是潜变量和深度图的总变分正则化。
在能量模型中,和隐式包含在翘曲函数(2)中;以交替的方式优化三个潜在变量;最小化一个变量,而其他变量是固定的;依次针对三个变量优化公式(4);使用迭代重新加权最小二乘法(IRLS)来近似L1优化;优化过程以少量迭代收敛(<10)。
图2是本发明一种基于联合估计模糊变量的光场去模糊和深度估计方法的联合估计。该算法从单个光场联合估计潜像\深度图和相机运动。图(a)为模糊光场子孔径图像的中心视图;图(b)为图(a)的模糊图像;图(c)为估计的深度图;图(d)为相机运动路径和方向(6-自由度)。
该算法首先更新潜像在数据项中,如果和保持不变,则模糊算子(2)被简化为线性矩阵乘法;更新潜像等同于最小化(4)如下所示:
是矢量化图像,并且是方形矩阵形式的模糊算子,其中n是中心视角子孔径图像中的像素的数量;总变分正则化作为先于具有清晰边界的潜像而消除伪影。
由于公式(2)是和的非线性函数,为了高效计算,需要以线性形式逼近它;模糊操作(2)近似为一阶扩展;令D0(x,c)和表示初始变量,则公式(2)近似如下:
f是由翘曲函数产生的运动流,而表示se(3)上的六维向量;
一旦使用和近似,公式(4)可以使用IRLS进行优化;得到的和分别是当前和的增量值;它们更新如下:
其中,通过运动矢量的指数映射来更新。
首先,使用光场的输入子孔径图像初始化深度图;假定相机不移动并且最小化公式(4)来获得初始最小化公式(4)成为一个简单的多视图立体匹配问题;相机运动从局部线性模糊内核和初始场景深度初始化。
首先使用估计B(x,c)的局部线性模糊核;然后,拟合由线性核移动的像素坐标和通过翘曲函数重新投影的坐标,如下所示:
其中,xi是采样的像素位置,l(xi)是xi被线性内核的终点移动的点;通过拟合由和l(·)移动的xi来获得由于场景深度固定在初始深度图上,是的唯一变量;随机抽样一致算法(RANSAC)用于查找最能描述像素线性内核的相机运动;N是随机样本的数量,始终为4。
图3是本发明一种基于联合估计模糊变量的光场去模糊和深度估计方法的迭代联合估计实例。所提出的方法在少量迭代中收敛。图(a)和图(b)通过迭代输入模糊图像和去模糊结果。图(c)和图(d)通过迭代初始模糊深度图和深度估计结果。本发明所提出的联合估计在任意6-自由度相机运动和无约束场景深度下同时实现了高质量的光场去模糊和深度估计,大大提高了图像的清晰度,在一般相机运动和场景深度变化的情况下运行良好。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
Claims (10)
1.一种基于联合估计模糊变量的光场去模糊和深度估计方法,其特征在于,主要包括子孔径图像(一);光场模糊模型(二);潜像的更新(三);相机运动和深度图的更新(四)。
2.基于权利要求书1所述的子孔径图像(一),其特征在于,四维光场中的像素具有四个坐标,即用于空间的(x,y)和用于角坐标的(u,v);光场可以视为一组u×v具有狭窄基线的多视点图像,通常称为子孔径图像I(x,u);其中x=(x,y)和u=(u,v);对于每个子孔径图像,模糊图像B(x,u)是在快门打开时的清晰图像It(x,u)的平均值[t0,t1];通过投影具有三维刚性运动的单个潜像来近似所有模糊的子孔径图像。
3.基于权利要求书2所述的近似,其特征在于,选择子孔径图像的中心视图(c)和快门时间的中间值(tr)作为潜像的参考角位置和时间戳;则从每个子孔径图像到潜像的像素对应关系表达如下:
wt(x,u)计算从u到c和从t到tr的翘曲像素位置;矩阵和表示相应角度位置处的6-自由度相机姿态和时间戳;Dt(x,u)是时间戳t处的深度图;
在所提出的模型中,模糊算子Ψ(·)通过将B(x,u)的积分近似为如下的有限和来定义:
在公式(2)中,tm是间隔期间[t0,t1]的第m个均匀采样时间戳。
4.基于权利要求书3所述的有限和,其特征在于,确定只有中心视点变量的即和 和是在翘曲函数(2)中与u有关的变量;因此,通过使用中心视图变量来参数化和由于相对姿势Pc→u随时间而变化,所以
其中,exp和log表示李群SE(3)和李代数空间之间的指数和对数映射;为了最大限度地减少潜像的视点偏移,假设当tm=tr时,使得成为单位矩阵;也由通过前向翘曲和插值来表示。
5.基于权利要求书1所述的光场模糊模型(二),其特征在于,为了估计所提出的光场模糊模型中的所有模糊变量,需要恢复潜在变量,即和对能量函数建模如下:
数据项强制输入模糊光场与恢复的光场之间的亮度一致性;最后两项分别是潜变量和深度图的总变分正则化。
6.基于权利要求书5所述的能量函数建模,其特征在于,在能量模型中,和隐式包含在翘曲函数(2)中;以交替的方式优化三个潜在变量;最小化一个变量,而其他变量是固定的;依次针对三个变量优化公式(4);使用迭代重新加权最小二乘法(IRLS)来近似L1优化;优化过程以少量迭代收敛(<10)。
7.基于权利要求书1所述的潜像的更新(三),其特征在于,该算法首先更新潜像在数据项中,如果和保持不变,则模糊算子(2)被简化为线性矩阵乘法;更新潜像等同于最小化(4)如下所示:
是矢量化图像,并且是方形矩阵形式的模糊算子,其中n是中心视角子孔径图像中的像素的数量;总变分正则化作为先于具有清晰边界的潜像而消除伪影。
8.基于权利要求书1所述的相机运动和深度图的更新(四),其特征在于,由于公式(2)是和的非线性函数,为了高效计算,需要以线性形式逼近它;模糊操作(2)近似为一阶扩展;令D0(x,c)和表示初始变量,则公式(2)近似如下:
f是由翘曲函数产生的运动流,而表示上的六维向量;
一旦使用和近似,公式(4)可以使用IRLS进行优化;得到的和分别是当前和的增量值;它们更新如下:
其中,通过运动矢量的指数映射来更新。
9.基于权利要求书8所述的相机运动,其特征在于,首先,使用光场的输入子孔径图像初始化深度图;假定相机不移动并且最小化公式(4)来获得初始最小化公式(4)成为一个简单的多视图立体匹配问题;相机运动从局部线性模糊内核和初始场景深度初始化。
10.基于权利要求书9所述的深度初始化,其特征在于,首先使用估计B(x,c)的局部线性模糊核;然后,拟合由线性核移动的像素坐标和通过翘曲函数重新投影的坐标,如下所示:
其中,xi是采样的像素位置,l(xi)是xi被线性内核的终点移动的点;通过拟合由和l(·)移动的xi来获得由于场景深度固定在初始深度图上,是的唯一变量;随机抽样一致算法(RANSAC)用于查找最能描述像素线性内核的相机运动;N是随机样本的数量,始终为4。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810189606.2A CN108389171A (zh) | 2018-03-08 | 2018-03-08 | 一种基于联合估计模糊变量的光场去模糊和深度估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810189606.2A CN108389171A (zh) | 2018-03-08 | 2018-03-08 | 一种基于联合估计模糊变量的光场去模糊和深度估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108389171A true CN108389171A (zh) | 2018-08-10 |
Family
ID=63067024
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810189606.2A Withdrawn CN108389171A (zh) | 2018-03-08 | 2018-03-08 | 一种基于联合估计模糊变量的光场去模糊和深度估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108389171A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110706346A (zh) * | 2019-09-17 | 2020-01-17 | 北京优科核动科技发展有限公司 | 时空联合优化重建方法及*** |
CN111179333A (zh) * | 2019-12-09 | 2020-05-19 | 天津大学 | 一种基于双目立体视觉的散焦模糊核估计方法 |
CN111191618A (zh) * | 2020-01-02 | 2020-05-22 | 武汉大学 | 一种基于矩阵群的knn的场景分类方法和*** |
CN112150526A (zh) * | 2020-07-27 | 2020-12-29 | 浙江大学 | 一种基于深度学习的光场图像深度估计方法 |
CN112184731A (zh) * | 2020-09-28 | 2021-01-05 | 北京工业大学 | 一种基于对抗性训练的多视图立体深度估计方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105704371A (zh) * | 2016-01-25 | 2016-06-22 | 深圳市未来媒体技术研究院 | 一种光场重聚焦方法 |
CN106803892A (zh) * | 2017-03-13 | 2017-06-06 | 中国科学院光电技术研究所 | 一种基于光场测量的光场高清晰成像方法 |
-
2018
- 2018-03-08 CN CN201810189606.2A patent/CN108389171A/zh not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105704371A (zh) * | 2016-01-25 | 2016-06-22 | 深圳市未来媒体技术研究院 | 一种光场重聚焦方法 |
CN106803892A (zh) * | 2017-03-13 | 2017-06-06 | 中国科学院光电技术研究所 | 一种基于光场测量的光场高清晰成像方法 |
Non-Patent Citations (1)
Title |
---|
DONGWOO LEE: "Joint Blind Motion Deblurring and Depth Estimation of Light Field", 《ARXIV:1711.10918V1》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110706346A (zh) * | 2019-09-17 | 2020-01-17 | 北京优科核动科技发展有限公司 | 时空联合优化重建方法及*** |
CN110706346B (zh) * | 2019-09-17 | 2022-11-15 | 浙江荷湖科技有限公司 | 时空联合优化重建方法及*** |
CN111179333A (zh) * | 2019-12-09 | 2020-05-19 | 天津大学 | 一种基于双目立体视觉的散焦模糊核估计方法 |
CN111179333B (zh) * | 2019-12-09 | 2024-04-26 | 天津大学 | 一种基于双目立体视觉的散焦模糊核估计方法 |
CN111191618A (zh) * | 2020-01-02 | 2020-05-22 | 武汉大学 | 一种基于矩阵群的knn的场景分类方法和*** |
CN112150526A (zh) * | 2020-07-27 | 2020-12-29 | 浙江大学 | 一种基于深度学习的光场图像深度估计方法 |
CN112184731A (zh) * | 2020-09-28 | 2021-01-05 | 北京工业大学 | 一种基于对抗性训练的多视图立体深度估计方法 |
CN112184731B (zh) * | 2020-09-28 | 2024-05-28 | 北京工业大学 | 一种基于对抗性训练的多视图立体深度估计方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108389171A (zh) | 一种基于联合估计模糊变量的光场去模糊和深度估计方法 | |
Reinbacher et al. | Real-time panoramic tracking for event cameras | |
Gallego et al. | Accurate angular velocity estimation with an event camera | |
JP6563609B2 (ja) | 中間ビューからの効率的なキャンバスビューの生成 | |
US10334168B2 (en) | Threshold determination in a RANSAC algorithm | |
Im et al. | All-around depth from small motion with a spherical panoramic camera | |
CN103858148B (zh) | 用于移动设备的平面映射和跟踪方法、装置及设备 | |
Meilland et al. | A unified rolling shutter and motion blur model for 3D visual registration | |
WO2012083982A1 (en) | Method for determining a parameter set designed for determining the pose of a camera and/or for determining a three-dimensional structure of the at least one real object | |
CN105069753B (zh) | 一种面向移动终端的抖动模糊图像复原方法 | |
US20220139036A1 (en) | Deferred neural rendering for view extrapolation | |
CN114140510A (zh) | 一种增量式三维重建方法、装置以及计算机设备 | |
US11049313B2 (en) | Rendering an object | |
Kim et al. | Real-time panorama canvas of natural images | |
Dellaert et al. | Super-resolved texture tracking of planar surface patches | |
Peng et al. | PDRF: progressively deblurring radiance field for fast scene reconstruction from blurry images | |
CN111192308B (zh) | 图像处理方法及装置、电子设备和计算机存储介质 | |
Xian et al. | Neural lens modeling | |
JP6341540B2 (ja) | 情報端末装置、方法及びプログラム | |
Gilbert et al. | Inpainting of wide-baseline multiple viewpoint video | |
CN111260544A (zh) | 数据处理方法及装置、电子设备和计算机存储介质 | |
Yang et al. | Endoscope localization and dense surgical scene reconstruction for stereo endoscopy by unsupervised optical flow and kanade-lucas-tomasi tracking | |
Cao et al. | Make object connect: A pose estimation network for UAV images of the outdoor scene | |
Lin et al. | Reinforcement learning-based image exposure reconstruction for homography estimation | |
KR102298098B1 (ko) | Rgb-d 카메라의 트래킹을 통한 3d 모델의 생성 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180810 |
|
WW01 | Invention patent application withdrawn after publication |