CN108389171A - 一种基于联合估计模糊变量的光场去模糊和深度估计方法 - Google Patents

一种基于联合估计模糊变量的光场去模糊和深度估计方法 Download PDF

Info

Publication number
CN108389171A
CN108389171A CN201810189606.2A CN201810189606A CN108389171A CN 108389171 A CN108389171 A CN 108389171A CN 201810189606 A CN201810189606 A CN 201810189606A CN 108389171 A CN108389171 A CN 108389171A
Authority
CN
China
Prior art keywords
image
sub
light field
fuzzy
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201810189606.2A
Other languages
English (en)
Inventor
夏春秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Vision Technology Co Ltd
Original Assignee
Shenzhen Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Vision Technology Co Ltd filed Critical Shenzhen Vision Technology Co Ltd
Priority to CN201810189606.2A priority Critical patent/CN108389171A/zh
Publication of CN108389171A publication Critical patent/CN108389171A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

本发明中提出的一种基于联合估计模糊变量的光场去模糊和深度估计方法,其主要内容包括:子孔径图像、光场模糊模型、潜像的更新、相机运动和深度图的更新,其过程为,先选择子孔径图像的中心视图和快门时间的中间值作为潜像的参考角位置和时间戳,使用光场的输入子孔径图像初始化深度图,相机运动从局部线性模糊内核和初始场景深度初始化,接着联合优化潜像、深度图和相机运动,最终得到清晰的图像、光场、深度图和相机运动作为输出。本发明所提出的联合估计在任意6‑自由度相机运动和无约束场景深度下同时实现了高质量的光场去模糊和深度估计,大大提高了图像的清晰度,在一般相机运动和场景深度变化的情况下运行良好。

Description

一种基于联合估计模糊变量的光场去模糊和深度估计方法
技术领域
本发明涉及图像复原领域,尤其是涉及了一种基于联合估计模糊变量的光场去模糊和深度估计方法。
背景技术
在数字信息时代,图像去模糊作为图像复原技术的一个重要分支,一直都是一个极具挑战性的问题,具有重大的研究价值和社会意义。由于拍摄操作或拍摄环境因素等的影响,拍摄图像经常出现模糊和失真的现象,又或者在生成、传输、记录、储存过程中由于成像***、传输介质或记录设备的不完善等原因造成图像信息丢失或质量降低。因此图像去模糊技术在许多领域都显得尤为重要。如在安保领域,监控录像设备记录和拍摄的画面中,当目标人物或物体快速运动时,所摄取的画面一般会比较模糊,通过图像去模糊技术则可以生成较为清晰的图像,方便保安或警察等获取有效的信息。在医学影像领域,由于人体各个器官内部环境复杂多变,因此拍摄的器官内部图像往往难以看清,通过应用图像去模糊技术,则可以在一定程度上恢复清晰图像,从而帮助医生诊断和治疗。在天文观测、空间探索、遥感预测等领域中,由于探索的领域具有未知性、复杂性和多变性,因此更需要图像去模糊技术来帮助研究人员恢复清晰图像,从而确定环境信息。然而,现有的图像去模糊技术难以实现仅用单一观察估计场景深度,且仍然不能完全处理由场景深度变化引起的不均匀模糊。
本发明提出了一种基于联合估计模糊变量的光场去模糊和深度估计方法,先选择子孔径图像的中心视图和快门时间的中间值作为潜像的参考角位置和时间戳,使用光场的输入子孔径图像初始化深度图,相机运动从局部线性模糊内核和初始场景深度初始化,接着联合优化潜像、深度图和相机运动,最终得到清晰的图像、光场、深度图和相机运动作为输出。本发明所提出的联合估计在任意6-自由度相机运动和无约束场景深度下同时实现了高质量的光场去模糊和深度估计,大大提高了图像的清晰度,在一般相机运动和场景深度变化的情况下运行良好。
发明内容
针对难以仅用单一观察估计场景深度等问题,本发明的目的在于提供一种基于联合估计模糊变量的光场去模糊和深度估计方法,先选择子孔径图像的中心视图和快门时间的中间值作为潜像的参考角位置和时间戳,使用光场的输入子孔径图像初始化深度图,相机运动从局部线性模糊内核和初始场景深度初始化,接着联合优化潜像、深度图和相机运动,最终得到清晰的图像、光场、深度图和相机运动作为输出。
为解决上述问题,本发明提供一种基于联合估计模糊变量的光场去模糊和深度估计方法,其主要内容包括:
(一)子孔径图像;
(二)光场模糊模型;
(三)潜像的更新;
(四)相机运动和深度图的更新。
其中,所述的子孔径图像,四维光场中的像素具有四个坐标,即用于空间的(x,y)和用于角坐标的(u,v);光场可以视为一组u×v具有狭窄基线的多视点图像,通常称为子孔径图像I(x,u);其中x=(x,y)和u=(u,v);对于每个子孔径图像,模糊图像B(x,u)是在快门打开时的清晰图像It(x,u)的平均值[t0,t1];通过投影具有三维刚性运动的单个潜像来近似所有模糊的子孔径图像。
进一步地,所述的近似,选择子孔径图像的中心视图(c)和快门时间的中间值(tr)作为潜像的参考角位置和时间戳;则从每个子孔径图像到潜像的像素对应关系表达如下:
wt(x,u)计算从u到c和从t到tr的翘曲像素位置;矩阵表示相应角度位置处的6-自由度相机姿态和时间戳;Dt(x,u)是时间戳t处的深度图;
在所提出的模型中,模糊算子Ψ(·)通过将B(x,u)的积分近似为如下的有限和来定义:
在公式(2)中,tm是间隔期间[t0,t1]的第m个均匀采样时间戳。
进一步地,所述的有限和,确定只有中心视点变量的 是在翘曲函数(2)中与u有关的变量;因此,通过使用中心视图变量来参数化由于相对姿势Pc→u随时间而变化,所以
其中,exp和log表示李群SE(3)和李代数se(3)空间之间的指数和对数映射;为了最大限度地减少潜像的视点偏移,假设当tm=tr时,使得成为单位矩阵;也由通过前向翘曲和插值来表示。
其中,所述的光场模糊模型,为了估计所提出的光场模糊模型中的所有模糊变量,需要恢复潜在变量,即对能量函数建模如下:
数据项强制输入模糊光场与恢复的光场之间的亮度一致性;最后两项分别是潜变量和深度图的总变分正则化。
进一步地,所述的能量函数建模,在能量模型中,隐式包含在翘曲函数(2)中;以交替的方式优化三个潜在变量;最小化一个变量,而其他变量是固定的;依次针对三个变量优化公式(4);使用迭代重新加权最小二乘法(IRLS)来近似L1优化;优化过程以少量迭代收敛(<10)。
其中,所述的潜像的更新,该算法首先更新潜像在数据项中,如果保持不变,则模糊算子(2)被简化为线性矩阵乘法;更新潜像等同于最小化(4)如下所示:
是矢量化图像,并且是方形矩阵形式的模糊算子,其中n是中心视角子孔径图像中的像素的数量;总变分正则化作为先于具有清晰边界的潜像而消除伪影。
进一步地,所述的相机运动和深度图的更新,由于公式(2)是的非线性函数,为了高效计算,需要以线性形式逼近它;模糊操作(2)近似为一阶扩展;令D0(x,c)和表示初始变量,则公式(2)近似如下:
f是由翘曲函数产生的运动流,而表示se(3)上的六维向量;
一旦使用近似,公式(4)可以使用IRLS进行优化;得到的分别是当前的增量值;它们更新如下:
其中,通过运动矢量的指数映射来更新。
进一步地,所述的相机运动,首先,使用光场的输入子孔径图像初始化深度图;假定相机不移动并且最小化公式(4)来获得初始最小化公式(4)成为一个简单的多视图立体匹配问题;相机运动从局部线性模糊内核和初始场景深度初始化。
进一步地,所述的深度初始化,首先使用估计B(x,c)的局部线性模糊核;然后,拟合由线性核移动的像素坐标和通过翘曲函数重新投影的坐标,如下所示:
其中,xi是采样的像素位置,l(xi)是xi被线性内核的终点移动的点;通过拟合由和l(·)移动的xi来获得由于场景深度固定在初始深度图上,的唯一变量;随机抽样一致算法(RANSAC)用于查找最能描述像素线性内核的相机运动;N是随机样本的数量,始终为4。
附图说明
图1是本发明一种基于联合估计模糊变量的光场去模糊和深度估计方法的***流程图。
图2是本发明一种基于联合估计模糊变量的光场去模糊和深度估计方法的联合估计。
图3是本发明一种基于联合估计模糊变量的光场去模糊和深度估计方法的迭代联合估计实例。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于联合估计模糊变量的光场去模糊和深度估计方法的***流程图。主要包括子孔径图像、光场模糊模型、潜像的更新、相机运动和深度图的更新。
主要过程为:先选择子孔径图像的中心视图和快门时间的中间值作为潜像的参考角位置和时间戳,使用光场的输入子孔径图像初始化深度图,相机运动从局部线性模糊内核和初始场景深度初始化,接着联合优化潜像、深度图和相机运动,最终得到清晰的图像、光场、深度图和相机运动作为输出。
子孔径图像,四维光场中的像素具有四个坐标,即用于空间的(x,y)和用于角坐标的(u,v);光场可以视为一组u×v具有狭窄基线的多视点图像,通常称为子孔径图像I(x,u);其中x=(x,y)和u=(u,v);对于每个子孔径图像,模糊图像B(x,u)是在快门打开时的清晰图像It(x,u)的平均值[t0,t1];通过投影具有三维刚性运动的单个潜像来近似所有模糊的子孔径图像。
选择子孔径图像的中心视图(c)和快门时间的中间值(tr)作为潜像的参考角位置和时间戳;则从每个子孔径图像到潜像的像素对应关系表达如下:
wt(x,u)计算从u到c和从t到tr的翘曲像素位置;矩阵表示相应角度位置处的6-自由度相机姿态和时间戳;Dt(x,u)是时间戳t处的深度图;
在所提出的模型中,模糊算子Ψ(·)通过将B(x,u)的积分近似为如下的有限和来定义:
在公式(2)中,tm是间隔期间[t0,t1]的第m个均匀采样时间戳。
确定只有中心视点变量的 是在翘曲函数(2)中与u有关的变量;因此,通过使用中心视图变量来参数化由于相对姿势Pc→u随时间而变化,所以
其中,exp和log表示李群SE(3)和李代数se(3)空间之间的指数和对数映射;为了最大限度地减少潜像的视点偏移,假设当tm=tr时,使得成为单位矩阵;也由通过前向翘曲和插值来表示。
光场模糊模型,为了估计所提出的光场模糊模型中的所有模糊变量,需要恢复潜在变量,即对能量函数建模如下:
数据项强制输入模糊光场与恢复的光场之间的亮度一致性;最后两项分别是潜变量和深度图的总变分正则化。
在能量模型中,隐式包含在翘曲函数(2)中;以交替的方式优化三个潜在变量;最小化一个变量,而其他变量是固定的;依次针对三个变量优化公式(4);使用迭代重新加权最小二乘法(IRLS)来近似L1优化;优化过程以少量迭代收敛(<10)。
图2是本发明一种基于联合估计模糊变量的光场去模糊和深度估计方法的联合估计。该算法从单个光场联合估计潜像\深度图和相机运动。图(a)为模糊光场子孔径图像的中心视图;图(b)为图(a)的模糊图像;图(c)为估计的深度图;图(d)为相机运动路径和方向(6-自由度)。
该算法首先更新潜像在数据项中,如果保持不变,则模糊算子(2)被简化为线性矩阵乘法;更新潜像等同于最小化(4)如下所示:
是矢量化图像,并且是方形矩阵形式的模糊算子,其中n是中心视角子孔径图像中的像素的数量;总变分正则化作为先于具有清晰边界的潜像而消除伪影。
由于公式(2)是的非线性函数,为了高效计算,需要以线性形式逼近它;模糊操作(2)近似为一阶扩展;令D0(x,c)和表示初始变量,则公式(2)近似如下:
f是由翘曲函数产生的运动流,而表示se(3)上的六维向量;
一旦使用近似,公式(4)可以使用IRLS进行优化;得到的分别是当前的增量值;它们更新如下:
其中,通过运动矢量的指数映射来更新。
首先,使用光场的输入子孔径图像初始化深度图;假定相机不移动并且最小化公式(4)来获得初始最小化公式(4)成为一个简单的多视图立体匹配问题;相机运动从局部线性模糊内核和初始场景深度初始化。
首先使用估计B(x,c)的局部线性模糊核;然后,拟合由线性核移动的像素坐标和通过翘曲函数重新投影的坐标,如下所示:
其中,xi是采样的像素位置,l(xi)是xi被线性内核的终点移动的点;通过拟合由和l(·)移动的xi来获得由于场景深度固定在初始深度图上,的唯一变量;随机抽样一致算法(RANSAC)用于查找最能描述像素线性内核的相机运动;N是随机样本的数量,始终为4。
图3是本发明一种基于联合估计模糊变量的光场去模糊和深度估计方法的迭代联合估计实例。所提出的方法在少量迭代中收敛。图(a)和图(b)通过迭代输入模糊图像和去模糊结果。图(c)和图(d)通过迭代初始模糊深度图和深度估计结果。本发明所提出的联合估计在任意6-自由度相机运动和无约束场景深度下同时实现了高质量的光场去模糊和深度估计,大大提高了图像的清晰度,在一般相机运动和场景深度变化的情况下运行良好。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。

Claims (10)

1.一种基于联合估计模糊变量的光场去模糊和深度估计方法,其特征在于,主要包括子孔径图像(一);光场模糊模型(二);潜像的更新(三);相机运动和深度图的更新(四)。
2.基于权利要求书1所述的子孔径图像(一),其特征在于,四维光场中的像素具有四个坐标,即用于空间的(x,y)和用于角坐标的(u,v);光场可以视为一组u×v具有狭窄基线的多视点图像,通常称为子孔径图像I(x,u);其中x=(x,y)和u=(u,v);对于每个子孔径图像,模糊图像B(x,u)是在快门打开时的清晰图像It(x,u)的平均值[t0,t1];通过投影具有三维刚性运动的单个潜像来近似所有模糊的子孔径图像。
3.基于权利要求书2所述的近似,其特征在于,选择子孔径图像的中心视图(c)和快门时间的中间值(tr)作为潜像的参考角位置和时间戳;则从每个子孔径图像到潜像的像素对应关系表达如下:
wt(x,u)计算从u到c和从t到tr的翘曲像素位置;矩阵表示相应角度位置处的6-自由度相机姿态和时间戳;Dt(x,u)是时间戳t处的深度图;
在所提出的模型中,模糊算子Ψ(·)通过将B(x,u)的积分近似为如下的有限和来定义:
在公式(2)中,tm是间隔期间[t0,t1]的第m个均匀采样时间戳。
4.基于权利要求书3所述的有限和,其特征在于,确定只有中心视点变量的 是在翘曲函数(2)中与u有关的变量;因此,通过使用中心视图变量来参数化由于相对姿势Pc→u随时间而变化,所以
其中,exp和log表示李群SE(3)和李代数空间之间的指数和对数映射;为了最大限度地减少潜像的视点偏移,假设当tm=tr时,使得成为单位矩阵;也由通过前向翘曲和插值来表示。
5.基于权利要求书1所述的光场模糊模型(二),其特征在于,为了估计所提出的光场模糊模型中的所有模糊变量,需要恢复潜在变量,即对能量函数建模如下:
数据项强制输入模糊光场与恢复的光场之间的亮度一致性;最后两项分别是潜变量和深度图的总变分正则化。
6.基于权利要求书5所述的能量函数建模,其特征在于,在能量模型中,隐式包含在翘曲函数(2)中;以交替的方式优化三个潜在变量;最小化一个变量,而其他变量是固定的;依次针对三个变量优化公式(4);使用迭代重新加权最小二乘法(IRLS)来近似L1优化;优化过程以少量迭代收敛(<10)。
7.基于权利要求书1所述的潜像的更新(三),其特征在于,该算法首先更新潜像在数据项中,如果保持不变,则模糊算子(2)被简化为线性矩阵乘法;更新潜像等同于最小化(4)如下所示:
是矢量化图像,并且是方形矩阵形式的模糊算子,其中n是中心视角子孔径图像中的像素的数量;总变分正则化作为先于具有清晰边界的潜像而消除伪影。
8.基于权利要求书1所述的相机运动和深度图的更新(四),其特征在于,由于公式(2)是的非线性函数,为了高效计算,需要以线性形式逼近它;模糊操作(2)近似为一阶扩展;令D0(x,c)和表示初始变量,则公式(2)近似如下:
f是由翘曲函数产生的运动流,而表示上的六维向量;
一旦使用近似,公式(4)可以使用IRLS进行优化;得到的分别是当前的增量值;它们更新如下:
其中,通过运动矢量的指数映射来更新。
9.基于权利要求书8所述的相机运动,其特征在于,首先,使用光场的输入子孔径图像初始化深度图;假定相机不移动并且最小化公式(4)来获得初始最小化公式(4)成为一个简单的多视图立体匹配问题;相机运动从局部线性模糊内核和初始场景深度初始化。
10.基于权利要求书9所述的深度初始化,其特征在于,首先使用估计B(x,c)的局部线性模糊核;然后,拟合由线性核移动的像素坐标和通过翘曲函数重新投影的坐标,如下所示:
其中,xi是采样的像素位置,l(xi)是xi被线性内核的终点移动的点;通过拟合由和l(·)移动的xi来获得由于场景深度固定在初始深度图上,的唯一变量;随机抽样一致算法(RANSAC)用于查找最能描述像素线性内核的相机运动;N是随机样本的数量,始终为4。
CN201810189606.2A 2018-03-08 2018-03-08 一种基于联合估计模糊变量的光场去模糊和深度估计方法 Withdrawn CN108389171A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810189606.2A CN108389171A (zh) 2018-03-08 2018-03-08 一种基于联合估计模糊变量的光场去模糊和深度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810189606.2A CN108389171A (zh) 2018-03-08 2018-03-08 一种基于联合估计模糊变量的光场去模糊和深度估计方法

Publications (1)

Publication Number Publication Date
CN108389171A true CN108389171A (zh) 2018-08-10

Family

ID=63067024

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810189606.2A Withdrawn CN108389171A (zh) 2018-03-08 2018-03-08 一种基于联合估计模糊变量的光场去模糊和深度估计方法

Country Status (1)

Country Link
CN (1) CN108389171A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110706346A (zh) * 2019-09-17 2020-01-17 北京优科核动科技发展有限公司 时空联合优化重建方法及***
CN111179333A (zh) * 2019-12-09 2020-05-19 天津大学 一种基于双目立体视觉的散焦模糊核估计方法
CN111191618A (zh) * 2020-01-02 2020-05-22 武汉大学 一种基于矩阵群的knn的场景分类方法和***
CN112150526A (zh) * 2020-07-27 2020-12-29 浙江大学 一种基于深度学习的光场图像深度估计方法
CN112184731A (zh) * 2020-09-28 2021-01-05 北京工业大学 一种基于对抗性训练的多视图立体深度估计方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105704371A (zh) * 2016-01-25 2016-06-22 深圳市未来媒体技术研究院 一种光场重聚焦方法
CN106803892A (zh) * 2017-03-13 2017-06-06 中国科学院光电技术研究所 一种基于光场测量的光场高清晰成像方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105704371A (zh) * 2016-01-25 2016-06-22 深圳市未来媒体技术研究院 一种光场重聚焦方法
CN106803892A (zh) * 2017-03-13 2017-06-06 中国科学院光电技术研究所 一种基于光场测量的光场高清晰成像方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DONGWOO LEE: "Joint Blind Motion Deblurring and Depth Estimation of Light Field", 《ARXIV:1711.10918V1》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110706346A (zh) * 2019-09-17 2020-01-17 北京优科核动科技发展有限公司 时空联合优化重建方法及***
CN110706346B (zh) * 2019-09-17 2022-11-15 浙江荷湖科技有限公司 时空联合优化重建方法及***
CN111179333A (zh) * 2019-12-09 2020-05-19 天津大学 一种基于双目立体视觉的散焦模糊核估计方法
CN111179333B (zh) * 2019-12-09 2024-04-26 天津大学 一种基于双目立体视觉的散焦模糊核估计方法
CN111191618A (zh) * 2020-01-02 2020-05-22 武汉大学 一种基于矩阵群的knn的场景分类方法和***
CN112150526A (zh) * 2020-07-27 2020-12-29 浙江大学 一种基于深度学习的光场图像深度估计方法
CN112184731A (zh) * 2020-09-28 2021-01-05 北京工业大学 一种基于对抗性训练的多视图立体深度估计方法
CN112184731B (zh) * 2020-09-28 2024-05-28 北京工业大学 一种基于对抗性训练的多视图立体深度估计方法

Similar Documents

Publication Publication Date Title
CN108389171A (zh) 一种基于联合估计模糊变量的光场去模糊和深度估计方法
Reinbacher et al. Real-time panoramic tracking for event cameras
Gallego et al. Accurate angular velocity estimation with an event camera
JP6563609B2 (ja) 中間ビューからの効率的なキャンバスビューの生成
US10334168B2 (en) Threshold determination in a RANSAC algorithm
Im et al. All-around depth from small motion with a spherical panoramic camera
CN103858148B (zh) 用于移动设备的平面映射和跟踪方法、装置及设备
Meilland et al. A unified rolling shutter and motion blur model for 3D visual registration
WO2012083982A1 (en) Method for determining a parameter set designed for determining the pose of a camera and/or for determining a three-dimensional structure of the at least one real object
CN105069753B (zh) 一种面向移动终端的抖动模糊图像复原方法
US20220139036A1 (en) Deferred neural rendering for view extrapolation
CN114140510A (zh) 一种增量式三维重建方法、装置以及计算机设备
US11049313B2 (en) Rendering an object
Kim et al. Real-time panorama canvas of natural images
Dellaert et al. Super-resolved texture tracking of planar surface patches
Peng et al. PDRF: progressively deblurring radiance field for fast scene reconstruction from blurry images
CN111192308B (zh) 图像处理方法及装置、电子设备和计算机存储介质
Xian et al. Neural lens modeling
JP6341540B2 (ja) 情報端末装置、方法及びプログラム
Gilbert et al. Inpainting of wide-baseline multiple viewpoint video
CN111260544A (zh) 数据处理方法及装置、电子设备和计算机存储介质
Yang et al. Endoscope localization and dense surgical scene reconstruction for stereo endoscopy by unsupervised optical flow and kanade-lucas-tomasi tracking
Cao et al. Make object connect: A pose estimation network for UAV images of the outdoor scene
Lin et al. Reinforcement learning-based image exposure reconstruction for homography estimation
KR102298098B1 (ko) Rgb-d 카메라의 트래킹을 통한 3d 모델의 생성 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20180810

WW01 Invention patent application withdrawn after publication