CN111179333A - 一种基于双目立体视觉的散焦模糊核估计方法 - Google Patents

一种基于双目立体视觉的散焦模糊核估计方法 Download PDF

Info

Publication number
CN111179333A
CN111179333A CN201911247805.5A CN201911247805A CN111179333A CN 111179333 A CN111179333 A CN 111179333A CN 201911247805 A CN201911247805 A CN 201911247805A CN 111179333 A CN111179333 A CN 111179333A
Authority
CN
China
Prior art keywords
fuzzy
image
kernel
binocular
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911247805.5A
Other languages
English (en)
Other versions
CN111179333B (zh
Inventor
陈则津
葛宝臻
陈雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201911247805.5A priority Critical patent/CN111179333B/zh
Publication of CN111179333A publication Critical patent/CN111179333A/zh
Application granted granted Critical
Publication of CN111179333B publication Critical patent/CN111179333B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于双目立体视觉的散焦模糊核估计方法。本发明包括:初始模糊核计算;同等模糊图像获取;立体匹配计算:综合灰度信息与模糊核信息作为全局匹配方法的能量函数的数据项,使用全局匹配方法通过优化能量函数对同等模糊图像进行立体匹配,得到稠密视差图;视差后处理:对稠密视差图进行加权均值滤波处理;最终模糊核计算:将经过视差后处理的视差图作为初始视差图,重新进行模糊核计算,得到最终模糊核。本发明充分考虑了双目立体视觉中视差与模糊核的关系,利用双目图像提高了模糊核计算的准确性,适用于基于双目立体视觉的散焦模糊核估计问题。

Description

一种基于双目立体视觉的散焦模糊核估计方法
技术领域
本发明涉及散焦模糊核估计方法,特别涉及一种基于双目立体视觉的散焦模糊核估计问题。
背景技术
在图像获取过程中,成像***的不完善以及外界环境的干扰会导致图像出现不同程度的退化降质。散焦模糊是一种常见的模糊形式,是指由于成像***的景深原因或对焦错误而产生的图像模糊。此外,在远距离成像时图像会受到大气湍流的影响,同样会导致散焦模糊的产生。上述原因致使成像***难以采集到清晰图像,双目图像均会存在不同程度的散焦模糊降质,降低三维重建的精度。无论是去模糊算法还是针对模糊图像的立体匹配算法,对于模糊核的估计一直都是模糊图像领域的关键问题。
目前存在的模糊核估计方法大多使用单个视角拍摄的单幅图像或图像序列进行计算,通过提取图像的边缘纹理信息计算边缘区域像素所对应的模糊核,之后通过传播算法计算全图的模糊核地图。在此基础上,Tang等提出了根据频谱对比度计算模糊核的方法,由于散焦模糊会影响物体边缘区域的频谱振幅,因此可以根据二次模糊图像的模糊度与频谱的关系计算模糊核地图[2]。上述方法仅适用于单目图像的散焦模糊核估计,并不能有效利用双目图像提供的更多信息进行模糊核估计。
发明内容
本发明为了克服现有技术的缺陷,针对双目降质图像的散焦模糊核估计问题,提出了一种基于双目立体视觉的散焦模糊核估计方法,其基本思想是通过成像模型推导出模糊核与视差的计算关系,使用立体匹配技术得到初始视差图以及初始模糊核,之后通过模糊补偿策略对双目图像进行自适应高斯滤波,得到对应区域模糊程度相同的双目图像。
本发明的技术方案详见下文描述:
基于双目立体视觉的散焦模糊核估计方法,所述方法包括以下五个步骤:
步骤一,初始模糊核计算。对双目图像进行立体匹配计算得到初始视差图,利用边缘像素所对应的视差值计算双目图像的初始模糊核;
步骤二,同等模糊图像获取。根据双目图像的初始模糊核计算相对模糊核,对双目图像进行自适应高斯滤波得到同等模糊图像;
步骤三,立体匹配计算。综合灰度信息与模糊核信息作为全局匹配方法的能量函数的数据项。使用全局匹配方法通过优化能量函数对同等模糊图像进行立体匹配,得到稠密视差图;
步骤四,视差后处理。对上述步骤得到的稠密视差图进行加权均值滤波处理;
步骤五,最终模糊核计算。将经过视差后处理的视差图作为初始视差图,重新进行模糊核计算,得到最终模糊核。
所述初始模糊核计算步骤具体为:
根据双目图像的初始视差图,使用K均值聚类算法计算双目图像中边缘像素的平均视差值dk,其中k=1,2分别代表左右图像的对应信息,根据相机标定参数以及平均视差dk计算双目图像各像素所对应的初始模糊核σk
所述同等模糊图像获取步骤具体为:
根据双目图像中各像素的初始模糊核计算相对模糊核
Figure BDA0002308179170000021
式中σ1(p)、σ2(q)分别表示左右图像对应任意像素p的初始模糊核。根据相对模糊核Δσ(p),对双目图像的对应区域中模糊核较小的区域进行高斯滤波得到同等模糊图像,选取相对模糊核Δσ(p)作为高斯函数滤波过程的标准差参数,从而获得对应区域模糊程度近似相同的同等模糊双目图像。
所述全局匹配方法具体为:
全局匹配方法是立体匹配中的一种基本方法,通过优化能量函数进行立体匹配计算。全局匹配方法的能量函数由数据项与平滑项组成,将双目图像的相对模糊核信息与像素灰度信息的加权和作为能量函数的数据项,使用像素灰度信息作为能量函数的平滑项。根据同等模糊双目图像以及能量函数通过构建相应的图模型,将视差值作为标签进行处理,通过计算全局能量函数的最小值,为每个像素选取最优标签从而得到稠密视差图。
所述加权均值滤波具体为:
在视差图中选取支撑窗口,按照窗口内各像素与中心像素所对应的模糊核差异作为权值,将窗口内全部像素视差的加权均值作为中心像素的视差值,得到最终视差图。
本发明具有如下有益效果:
1、本发明充分考虑模糊核与视差的关系,通过双目立体视觉的视差约束提高模糊核计算的准确性。本发明提出的方法原理清晰,计算结果更加准确可靠,可以为双目立体视觉中的散焦模糊核计算问题提供新思路。
2、本发明在计算模糊核的过程中,使用K均值算法以及加权均值滤波的后处理算法,可以选取更加准确的支撑点,忽略部分无关点的干扰,提高了模糊核计算的准确性。
附图说明
图1为本发明一种基于双目立体视觉的散焦模糊核估计方法流程图;
图2为本发明实例中使用的散焦双目图像,其中,(a)为左视图,(b)为右视图;
图3为本发明实例中的输出结果,其中,(a)、(b)为经过步骤2得到的同等模糊图像的左、右视图,(c)为本发明所得到的散焦地图。
具体实施方式
为了使本发明的技术方案更加清晰明了,下面将结合附图对本发明的具体实施方法做进一步说明。
下面以图2(a)、图2(b)所示的散焦双目图像为例,阐述本发明基于双目立体视觉的散焦模糊核估计方法的具体处理过程:
1、初始模糊核计算步骤:
将如图2(a)、图2(b)所示的散焦双目图像分别记作I1、I2,使用基于SAD的局部匹配算法计算得到双目图像的视差图P0,使用Canny边缘检测算法提取双目图像的边缘像素,将边缘像素的视差值组成集合ψk,其中k=1,2分别代表左右图像的对应信息。使用K均值聚类算法计算边缘像素集合ψk的平均视差值dk,进而计算双目图像各像素所对应的初始模糊核
Figure BDA0002308179170000041
将其组成初始模糊核地图。式中,Dk表示成像***的入瞳直径,B表示***基线,d表示像素在初始视差图中的视差值,dk为边缘像素的视差值,根据图像的标定信息设置参数为D1=D2=5.6,B=3080.117。
2、同等模糊图像获取步骤:
根据上述步骤得到的各像素的初始模糊核计算相对模糊核
Figure BDA0002308179170000042
式中σ1(p)、σ2(q)分别表示左右图像对应像素的模糊核。根据相对模糊核,对双目图像的对应区域中模糊核较小的区域进行高斯滤波GΔσ得到同等模糊图像:
Figure BDA0002308179170000043
Figure BDA0002308179170000044
式中,I1(p)、I2(p)分别表示左右原图的对应像素,
Figure BDA0002308179170000045
分别表示同等模糊图像的对应像素,GΔσ表示标准差为Δσ的高斯点扩散函数,
Figure BDA0002308179170000048
表示卷积运算。如图3(a)、图3(b)所示分别为对双目图像I1、I2进行自适应模糊补偿后得到的同等模糊图像
Figure BDA0002308179170000046
3、立体匹配计算步骤:
使用全局匹配方法通过优化能量函数对上述步骤得到的同等模糊图像
Figure BDA0002308179170000047
进行立体匹配实验,得到稠密视差图P1
在全局匹配算法中,可以根据图像与能量函数构建相应的图模型,将视差值作为标签进行处理。网络图G=<V,E>由节点集合V与边集合E组成,一个割可以将网络图G分割为包含源节点s0的集合S和包含汇节点t0的集合T,将割集中的边的容量之和称为割的容量,通过计算网络最大流的方法求取最小割的容量,从而优化全局能量函数,为每个像素选取最优标签得到稠密视差图。
全局匹配算法的能量函数由数据项与平滑项组成,将双目图像的模糊核信息与像素灰度信息相结合作为能量函数的数据项Edata(f),使用像素灰度信息作为能量函数的平滑项Esmoothness(f),通过计算能量函数的最小值得到视差图P1
数据项Edata(f)可定义为:
Edata(f)=∑D(a)
Figure BDA0002308179170000054
式中α为调节权重的比例系数,T为数据项的阈值。
平滑项Esmoothness(f)可定义为:
Figure BDA0002308179170000051
Figure BDA0002308179170000052
式中,λ为灰度阈值参数。
在本实施例中,选取算法参数为α=0.15,T=30,λ=5。
4、视差后处理步骤:
使用加权均值滤波的视差后处理方法,对上述步骤得到的视差图P1进行优化处理。在视差图P1中选取窗口,按照窗口内各像素与中心像素所对应的模糊核差异作为权值ωpq=exp[-(σpq)2],将窗口内全部像素视差的加权均值
Figure BDA0002308179170000053
作为中心像素的视差值,得到视差图P2。其中,σp、σq分别表示中心像素与支撑像素,N(p)表示中心像素p的支撑窗口,dq表示支撑窗口内像素q的视差值。
5、最终模糊核计算步骤:
将视差后处理后得到的视差图P2作为初始视差图,重复步骤1中的模糊核计算步骤,重新计算模糊核作为最终模糊核,得到的模糊核地图如图3(c)所示。
以上发明仅针对此使用个例进行阐述,将其作为较佳实施例用以描述本发明的使用步骤,并不能用以限制本发明的权利范围。凡是在本发明的原则之内所做出的等同变化,均应包含本发明所涵盖的范围之内。

Claims (1)

1.一种基于双目立体视觉的散焦模糊核估计方法,其特征是,按照以下五个步骤进行:
步骤一,初始模糊核计算:对双目图像进行立体匹配计算得到初始视差图,利用边缘像素所对应的视差值计算双目图像的初始模糊核;
步骤二,同等模糊图像获取:根据双目图像的初始模糊核计算相对模糊核,对双目图像进行自适应高斯滤波得到同等模糊图像;
步骤三,立体匹配计算:综合灰度信息与模糊核信息作为全局匹配方法的能量函数的数据项,使用全局匹配方法通过优化能量函数对同等模糊图像进行立体匹配,得到稠密视差图;
步骤四,视差后处理:对上述步骤得到的稠密视差图进行加权均值滤波处理;
步骤五,最终模糊核计算:将经过视差后处理的视差图作为初始视差图,重新进行模糊核计算,得到最终模糊核;
所述计算双目图像的初始模糊核具体为:
根据双目图像的初始视差图,使用K均值聚类算法计算双目图像中边缘像素的平均视差值dk,其中k=1,2分别代表左右图像的对应信息,根据相机标定参数以及平均视差dk计算双目图像各像素所对应的初始模糊核σk
所述同等模糊图像获取步骤具体为:
根据双目图像中各像素的初始模糊核计算相对模糊核
Figure FDA0002308179160000011
式中σ1(p)、σ2(q)分别表示左右图像对应任意像素p的初始模糊核,根据相对模糊核Δσ(p),对双目图像的对应区域中模糊核较小的区域进行高斯滤波得到同等模糊图像,选取相对模糊核Δσ(p)作为高斯函数滤波过程的标准差参数,从而获得对应区域模糊程度近似相同的同等模糊双目图像;
所述全局匹配方法具体为:
通过优化能量函数进行立体匹配计算,全局匹配方法的能量函数由数据项与平滑项组成,将双目图像的相对模糊核信息与像素灰度信息的加权和作为能量函数的数据项,使用像素灰度信息作为能量函数的平滑项,根据同等模糊双目图像以及能量函数通过构建相应的图模型,将视差值作为标签进行处理,通过计算全局能量函数的最小值,为每个像素选取最优标签从而得到稠密视差图;
所述加权均值滤波处理具体为:
在视差图中选取支撑窗口,按照窗口内各像素与中心像素所对应的模糊核差异作为权值,将窗口内全部像素视差的加权均值作为中心像素的视差值,得到最终视差图。
CN201911247805.5A 2019-12-09 2019-12-09 一种基于双目立体视觉的散焦模糊核估计方法 Active CN111179333B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911247805.5A CN111179333B (zh) 2019-12-09 2019-12-09 一种基于双目立体视觉的散焦模糊核估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911247805.5A CN111179333B (zh) 2019-12-09 2019-12-09 一种基于双目立体视觉的散焦模糊核估计方法

Publications (2)

Publication Number Publication Date
CN111179333A true CN111179333A (zh) 2020-05-19
CN111179333B CN111179333B (zh) 2024-04-26

Family

ID=70657245

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911247805.5A Active CN111179333B (zh) 2019-12-09 2019-12-09 一种基于双目立体视觉的散焦模糊核估计方法

Country Status (1)

Country Link
CN (1) CN111179333B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112258635A (zh) * 2020-10-26 2021-01-22 北京石油化工学院 基于改进双目匹配sad算法的三维重建方法及装置
CN112950698A (zh) * 2021-03-18 2021-06-11 北京拙河科技有限公司 基于双目散焦图像的深度估计方法、装置、介质和设备
CN113965742A (zh) * 2021-02-28 2022-01-21 北京中科慧眼科技有限公司 基于多传感融合的稠密视差图提取方法、***和智能终端

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100201798A1 (en) * 2009-02-06 2010-08-12 Robert Bosch Gmbh depth-aware blur kernel estimation method for iris deblurring
KR20110024966A (ko) * 2009-09-03 2011-03-09 포항공과대학교 산학협력단 스테레오 매칭 장치 및 그 방법
US20130071028A1 (en) * 2011-09-16 2013-03-21 Stepen N. Schiller System and Method for Estimating Spatially Varying Defocus Blur in a Digital Image
CN105809185A (zh) * 2015-12-31 2016-07-27 天津大学 基于神经网络和差分搜索的高光谱图像非线性解混方法
CN105975912A (zh) * 2016-04-27 2016-09-28 天津大学 基于神经网络的高光谱图像非线性解混方法
CN106225774A (zh) * 2016-08-26 2016-12-14 武汉大学 一种基于计算机视觉的无人驾驶农机耕道测量装置及方法
CN106683174A (zh) * 2016-12-23 2017-05-17 上海斐讯数据通信技术有限公司 双目视觉***的三维重建方法、装置及双目视觉***
CN107749051A (zh) * 2017-10-17 2018-03-02 长沙全度影像科技有限公司 一种基于均值滤波的简单透镜空间变化模糊核平滑方法
CN108389171A (zh) * 2018-03-08 2018-08-10 深圳市唯特视科技有限公司 一种基于联合估计模糊变量的光场去模糊和深度估计方法
CN108510529A (zh) * 2018-03-14 2018-09-07 昆明理工大学 一种基于自适应权值的图割立体匹配方法
CN110223377A (zh) * 2019-05-28 2019-09-10 上海工程技术大学 一种基于立体视觉***高精度的三维重建方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100201798A1 (en) * 2009-02-06 2010-08-12 Robert Bosch Gmbh depth-aware blur kernel estimation method for iris deblurring
KR20110024966A (ko) * 2009-09-03 2011-03-09 포항공과대학교 산학협력단 스테레오 매칭 장치 및 그 방법
US20130071028A1 (en) * 2011-09-16 2013-03-21 Stepen N. Schiller System and Method for Estimating Spatially Varying Defocus Blur in a Digital Image
CN105809185A (zh) * 2015-12-31 2016-07-27 天津大学 基于神经网络和差分搜索的高光谱图像非线性解混方法
CN105975912A (zh) * 2016-04-27 2016-09-28 天津大学 基于神经网络的高光谱图像非线性解混方法
CN106225774A (zh) * 2016-08-26 2016-12-14 武汉大学 一种基于计算机视觉的无人驾驶农机耕道测量装置及方法
CN106683174A (zh) * 2016-12-23 2017-05-17 上海斐讯数据通信技术有限公司 双目视觉***的三维重建方法、装置及双目视觉***
CN107749051A (zh) * 2017-10-17 2018-03-02 长沙全度影像科技有限公司 一种基于均值滤波的简单透镜空间变化模糊核平滑方法
CN108389171A (zh) * 2018-03-08 2018-08-10 深圳市唯特视科技有限公司 一种基于联合估计模糊变量的光场去模糊和深度估计方法
CN108510529A (zh) * 2018-03-14 2018-09-07 昆明理工大学 一种基于自适应权值的图割立体匹配方法
CN110223377A (zh) * 2019-05-28 2019-09-10 上海工程技术大学 一种基于立体视觉***高精度的三维重建方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
孙士洁;赵怀慈;郝明国;李波: "噪声模糊图像盲目反降晰的模糊核准确估计", 计算机辅助设计与图形学学报, vol. 28, no. 5, 31 December 2016 (2016-12-31) *
洪汉玉;范艳;时愈;华夏;张天序: "立体视觉双目图像MAP的优化复原方法", 武汉科技大学学报, no. 001, 31 December 2016 (2016-12-31) *
湛西羊;李良群;张富有: "融入局部信息的直觉模糊核聚类图像分割算法", 信号处理, vol. 33, no. 3, 31 December 2017 (2017-12-31) *
耿冬冬;罗娜: "一种基于多邻域非线性扩散的动态规划全局立体匹配算法", 华东理工大学学报(自然科学版), no. 005, 31 December 2017 (2017-12-31) *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112258635A (zh) * 2020-10-26 2021-01-22 北京石油化工学院 基于改进双目匹配sad算法的三维重建方法及装置
CN112258635B (zh) * 2020-10-26 2023-07-21 北京石油化工学院 基于改进双目匹配sad算法的三维重建方法及装置
CN113965742A (zh) * 2021-02-28 2022-01-21 北京中科慧眼科技有限公司 基于多传感融合的稠密视差图提取方法、***和智能终端
CN112950698A (zh) * 2021-03-18 2021-06-11 北京拙河科技有限公司 基于双目散焦图像的深度估计方法、装置、介质和设备
CN112950698B (zh) * 2021-03-18 2024-03-26 北京拙河科技有限公司 基于双目散焦图像的深度估计方法、装置、介质和设备

Also Published As

Publication number Publication date
CN111179333B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
EP3673461B1 (en) Systems and methods for hybrid depth regularization
CN107767413B (zh) 一种基于卷积神经网络的图像深度估计方法
Sun et al. Secrets of optical flow estimation and their principles
US8385630B2 (en) System and method of processing stereo images
CN111179333B (zh) 一种基于双目立体视觉的散焦模糊核估计方法
CN107170008B (zh) 一种深度图创建方法、***以及图像虚化方法、***
CN110223377A (zh) 一种基于立体视觉***高精度的三维重建方法
CN103473743B (zh) 一种获取图像深度信息的方法
CN108564620B (zh) 一种针对光场阵列相机的场景深度估计方法
CN111160229B (zh) 基于ssd网络的视频目标检测方法及装置
CN111223059B (zh) 一种基于引导滤波器的鲁棒深度图结构重建和去噪方法
Ali et al. Robust focus volume regularization in shape from focus
CN109671031B (zh) 一种基于残差学习卷积神经网络的多光谱图像反演方法
Zhu et al. Image guided depth enhancement via deep fusion and local linear regularizaron
CN107220945B (zh) 多重退化的极模糊图像的复原方法
CN108805841B (zh) 一种基于彩色图引导的深度图恢复及视点合成优化方法
CN110738677A (zh) 相机全清晰成像方法、装置与电子设备
CN112991504A (zh) 一种改进的基于tof相机三维重建的补空洞方法
KR20180014149A (ko) 깊이 정보 생성 장치 및 방법
CN116645300A (zh) 一种简单透镜点扩散函数估计方法
CN109816710B (zh) 一种双目视觉***高精度且无拖影的视差计算方法
CN103618904B (zh) 基于像素的运动估计方法及装置
Shuang et al. Algorithms for improving the quality of underwater optical images: A comprehensive review
CN112750156B (zh) 光场成像***、处理方法和装置
CN110490877B (zh) 基于Graph Cuts的双目立体图像对目标分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant