CN114494025A - 一种基于解卷积神经网络双目视觉立体匹配方法 - Google Patents

一种基于解卷积神经网络双目视觉立体匹配方法 Download PDF

Info

Publication number
CN114494025A
CN114494025A CN202011143651.8A CN202011143651A CN114494025A CN 114494025 A CN114494025 A CN 114494025A CN 202011143651 A CN202011143651 A CN 202011143651A CN 114494025 A CN114494025 A CN 114494025A
Authority
CN
China
Prior art keywords
neural network
deconvolution
convolution
binocular vision
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011143651.8A
Other languages
English (en)
Inventor
马昕
张志诚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN202011143651.8A priority Critical patent/CN114494025A/zh
Publication of CN114494025A publication Critical patent/CN114494025A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Mathematics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

本发明属于图像处理技术领域,涉及双目视觉立体匹配方法。基于解卷积神经网络双目视觉立体匹配方法,包括:搭建先进行解卷积再进行卷积的孪生卷积神经网络模型;获取最优视差值,经过后处理优化,生成最终视差图。本发明将解卷积运算提到网络的开头,并使用孪生卷积网络的形式,进行权重共享,加快网络的收敛,并将各卷积层获得的卷积结果进行点积运算,获取匹配代价,并在后处理中结合SGM等后处理算法,获取最优视差图。解卷积网络结构具有增强特征提取和模型表达能力的功能,将其加到孪生卷积匹配网络的初始部分可以增强输入图像块的特征提取能力,增强立体匹配效果。

Description

一种基于解卷积神经网络双目视觉立体匹配方法
技术领域
本发明属于图像处理技术领域,涉及双目视觉立体匹配方法。
背景技术
Jure Zbontar等人于CVPR2015提出了使用卷积网络来计算匹配误差,然后进行图像块的匹配,输入采用9x9的灰度图像块,采用5x5大小的卷积核对图像块进行卷积,随后网络层均采用1x1的卷积核进行卷积运算。文章采用AD(Absolute Difference)来计算匹配误差,并结合交叉代价聚合以及亚像素增强的方法来优化视差。文章最终在KITTY数据集中取得了2.61%的错误率。Xiao Liu等人将空洞卷积加入网络结构并且将不同尺度的连接特征连接起来,提出了一种名为MC-DCNN的新型卷积网络结构。空洞卷积相较与普通卷积的好处是能够在使用相同的卷积核尺寸的情况下获得较大的感受野,让每个卷积输出都包含较大范围的信息。XiaoLiu等人在Middlebury数据集上进行了实验,并取得了较好的效果。Luo等人于CVPR2016提出了一种更加有效的深度学习方法,他们放弃了普通的卷积网络结构转而使用孪生卷积网络,即左右网络层共享权值。同时对网络层的输入进行更改,不再使用传统的图像块输入,而是以标准视差图为基准,选取坐标从而生成左图像输入块,根据左图像块中的坐标及视差图中的像素值,找到右图像中的坐标,并以此为中心向左右扩展相同长度作为右图像输入块。Luo等人最终取得了较好的匹配结果,在KITTI2015数据集中,2像素误差为11.67%,3像素误差为8.97%,4像素误差为7.62%,单张匹配时间为0.34s。针对遮挡、边界和低纹理区域在深度学习中较难匹配的情况,Feng等人结合半全局匹配,亚像素插值,中值滤波器等方法并在网络结构中使用了较大图像块,使得立体匹配结果在低纹理区域和重复纹理区域鲁棒性更好。文章中的实验结果表示,他们在KITTI2015数据集中能够取得4.42%的错误率并且完成一对图像的匹配只需要0.8秒的时间。
在上述方法中,大都提到了图像输入块的大小将会直接影响到匹配正确率。Feng等人也做了实验来验证,但无限制的增加输入图像块的尺寸并不能让匹配率一直提高,同时还会增加计算量,增加网络模型的参数数量,并且在生成的视差图中,图像块尺寸越大,意味着所获取的视差图尺寸变小,所获取的深度信息相应减少。并且在训练的过程当中,上述方法将最终将视差的判定都放置在最后一层,忽略了其他卷积过程当中的信息,不能使网络得到充分训练。
发明内容
本发明的目的是为了克服现有技术中的缺陷,提供一种基于解卷积神经网络双目视觉立体匹配方法。
为实现上述目的,本发明采用的技术方案是:
搭建先进行解卷积再进行卷积的孪生卷积神经网络模型;
获取最优视差值,经过后处理优化,生成最终视差图。
作为本发明的一种优选方式,所述的卷积神经网络模型对输入的图像块先进行解卷积;再依次通过卷积层进行卷积;将每一层左右网络模型生成的卷积层特征平面进行点积运算,并将计算生成后的匹配代价在最后一层进行叠加。
进一步优选地,图像块先经过解卷积层后的输出尺寸计算公式如下:
o=s(i-1)-2p+k;
再经过卷积层后的输出尺寸计算公式如下:
Figure BDA0002738984830000021
其中,o代表输出特征图尺寸,i代表输入特征图尺寸,s代表步长,p代表填充尺寸,k代表卷积核尺寸。
进一步优选地,采用半全局匹配算法结合计算出的匹配代价,获取最优视差值。
进一步优选地,所述的半全局匹配算法为四路径聚合匹配算法。
进一步优选地,所述的后处理优化是指对生成的视差图进行中值滤波,减弱噪音。
进一步优选地,所述卷积神经网络模型的训练集根据KITTI201数据集构建而成。
本发明将解卷积运算提到网络的开头,并使用卷积网络的形式,不进行权重共享,加快网络的收敛,并将各卷积层获得的卷积结果进行点积运算,获取匹配代价,并在后处理中结合SGM等后处理算法,获取最优视差图。在网络前部加入解卷积结构能够让网络得到更加充分的训练,也同样能够起到增大图像输入尺寸的效果,相比于单纯的增加image patch尺寸,解卷积能够将参数化的调整方式引入到开头,提高卷积网络输入图像的尺寸以及分辨率,从而能够使得卷积网络学习到更多的信息。
附图说明
图1为本发明实施例中基于解卷积神经网络双目视觉立体匹配方法的流程图;
图2为KITTI2015数据集样例示意图(a)为左图像,(b)为右图像;
图3为图像选取示意图;
图4为搭建的孪生卷积神经网络模型结构示意图;
图5为图像块经过解卷积层的示意图;
图6为图像块经过卷积层的示意图;
图7为解卷积过程示意图;
图8为OneHot权重分布图;
图9为立体匹配权重分布图;
图10为路径聚合图;
图11为无效视差填充图。
具体实施方式
为了便于理解本发明,下面结合附图和具体实施例,对本发明进行更详细的说明。附图中给出了本发明的较佳的实施例。但是,本发明可以以许多不同的形式来实现,并不限于本说明书所描述的实施例。相反地,提供这些实施例的目的是使对本发明公开内容的理解更加透彻全面。
本发明提供的基于解卷积神经网络双目视觉立体匹配方法,流程如图1所示,具体步骤如下:
1、基于KITTI2015数据集,构建基于卷积神经网络双目立体匹配训练集与测试集根据KITTI2015提供的标准视差图选取具有有效视差值位置的点即在标准视差图中像素值不为0的像素点,构建数据集。
卷积神经网络进行视差计算是选择局部像素块进行匹配,属于局部匹配方法。KITTI2015双目数据集中的图片大小为1242x375,KITTI2015数据集样例如图2中(a)、(b)所示。数据集中的图片不能直接作为卷积神经网络的输入,所以需要对原始图片进行处理:
(1)选择新样本
首先在KITTI数据集左视差图(disp_noc_*)中选择像素值不为0的像素点p,记录像素点图像坐标(xp,yp),然后在左图像中提取以p像素点为中心的图像块,确定左输入图像块大小为37x37。在右图像中,根据真实视差图中的像素值找到像素点q,记录像素点图像坐标(xq,yq),以q像素点为中心向右选取尺寸大小为37x237像素的图像块。选取图像的示意图如图3所示。
(2)图像样本处理
KITTI2015数据集中,视差图以png的格式保存,数据类型为uint16。在视差图中,图像灰度值为0的点为无效像素点,即该点没有真实的视差值。
视差图处理如下式表示:
DispValue(x,y)=((float)Disp(x,y))/256.0
ValidValue(x,y)=DispValue(x,y)>0
式中,Disp(x,y)代表原始视差图,DispValue(x,y)代表处理后的视差图,ValidValue(x,y)代表有效视差图。
由于处理后的视差图像素值区间为[0,255],仍然无法直接作为网络的输入,所以需要对图像进行归一化处理并作为网络输入:
Figure BDA0002738984830000041
I={I1,I2,…,IN}
其中,I为输入图像,N为图像中像素的个数,O为归一化后的输出图像。
2、搭建先进行解卷积再进行卷积的经网络模型,模型结构如图4所示。通过解卷积操作扩大输入图像块尺寸,增强图像块输入信息;再依次通过卷积层进行卷积;将每一层左右网络模型生成的卷积层特征平面进行点积运算,将计算生成后的匹配代价在最后一层进行叠加。
在卷积网络的开头部分引入解卷积,随后再进行卷积操作。解卷积能够起到上层采样的作用,卷积后的图像尺寸比卷积之前的图像尺寸要大一些。图片经过解卷积操作后,不会丢失相应的计算信息,并且能够提高图片的分辨率。并且在卷积过程中,将各自的卷积部分的3D卷积向量进行乘积,在每一层都对应生成一个1x1x201的向量,叠加到最后一层。在网络最后一层中使用交叉熵函数进行损失计算,使用Softmax函数计算各标签值生成的概率与固定标签值进行比对。
解卷积的计算过程与卷积相类似,卷积过程可以用下列式表示:
Figure BDA0002738984830000051
Figure BDA0002738984830000052
解卷积过程可表示为:
D=Padding(I)
Figure BDA0002738984830000053
其中,I代表输入图像,Dd代表反卷积后输出图,K代表卷积核,d代表反卷积率,Padding代表填充函数。
解卷积网络尺寸计算关系为:
o=s(i-1)-2p+k
经过解卷积的图像如图5所示。
卷积网络尺寸计算关系为
Figure BDA0002738984830000054
经过卷积层的图像如图6所示。
其中,o代表输出特征图尺寸,i代表输入特征图尺寸,s代表步长,p代表填充尺寸,k代表卷积核尺寸。
加入解卷积后的整体卷积网络结构如表所示:
Figure BDA0002738984830000055
Figure BDA0002738984830000061
1Deconv(5)&4Conv代表一个解卷积层,卷积核尺寸大小为5,4Conv代表4个卷积层,Conv9代表卷积层卷。
卷积过程可表示为:
Y=CX
其中,X代表输入图像,Y代表输出图像,C代表卷积过程中的矩阵;
解卷积可表示为:
CTY=X
此时,Y代表输入图像,X代表输入图像。
解卷积过程如图7所示,解释如下:
Id=[i11,i12,i21,i22]T
O=[o11,o12,o13,o21,o22,o23,o31,o32,o33]T
Figure BDA0002738984830000062
WdId=O
其中,O代表输出图像,Id代表输入图像,Wd为权重矩阵。
再经过卷积层后,设卷积层权重矩阵为Wc,则进入卷积网络层的输入为:
Ic=WcWdId
其点积计算公式如下:
Figure BDA0002738984830000063
Figure BDA0002738984830000064
Figure BDA0002738984830000065
Figure BDA0002738984830000071
Figure BDA0002738984830000072
其中,Aleft为左卷积网络输出,Bright为右卷积网络输出。
3、将步骤1中构建好的训练集分别导入步骤2中搭建的孪生卷积神经网络模型,对网络模型进行训练。
网络训练中根据权重最小化交叉损失熵,其中w代表权重,yi代表图像纵坐标,
Figure BDA0002738984830000073
代表标准视差值,pgt(yi)为目标平滑分布,λ1=0.5,λ2=0.2,λ3=0.05。
Figure BDA0002738984830000074
Figure BDA0002738984830000075
同样可以将其类比于冲击函数,对于有明确目标的图像识别方法中,将图像识别的结果归于01判断。在立体匹配中,可以在适当的误差范围内,调整权重的分布如图8,图9所示。
4、训练得到的神经网络结构能够有效的提取左右图像点对应图像块特征描述CharacL(p)和CharacR(q),对这两个特征描述进行点积运算,采用WTA(winner-take-all)原则选取最佳视差值生成视差图。
CharacL(p)代表1×1×64维向量,CharacR(p)代表1×201×64维向量。
经过A-DCNN网络后,每个像素点会对应200个匹配代价,此时可以直接选择WTA(Winner-Take-All)原则来直接生产视差图,但以这种方式生成的视差图较为粗糙,
因此,需要进一步将生成的匹配代价结合半全局匹配算法对视差的选择进行优化。半全局匹配算法中的代价聚合主要采用的是动态规划的思想,设立全局能量函数E(d):
Figure BDA0002738984830000081
D代表每个像素点可能的视差值;
p,q代表图像中的某个像素;
Np指像素p的相邻像素点,一般认为8连通,这里采用4个方向上的;
C(p,Dp)指当前像素点可能视差值为Dp时,该像素点的匹配代价值;
P1是一个惩罚系数,它适用于像素p相邻像素中视差值与p的视差值相差等于1的那些像素,P2是一个惩罚系数,它适用于像素q相邻像素中视差值与q的视差值相差大于1的那些像素;
T[.]函数,如果函数中的参数为true则返回1,否则返回0。
为了减少计算的时间复杂度和空间复杂度,本发明采用动态规划思想,通过四路径聚合局部匹配代价来替换全局代价的思想。
Figure BDA0002738984830000082
P1,P2代表惩罚系数,本发明中取30,160。Cost(p,d)代表从卷积网络直接获得的匹配代价,维度为H×W×d,H为图像高度,W为图像宽度,d为视差范围。s代表路径方向,如果聚合的方向是朝下的,则p-s代表上一个像素,如图10所示,Lr(p,d)代表聚合代价。
左右一致性检测中,本发明采用内部型检查方法来完成。通过左图的聚合后的代价矩阵,根据其自身的视差范围生成右图的代价矩阵,并根据WTA原则选择最优视差值。如果左右视差图对应位置像素相差少于1像素,则保留,否则视为无效视差值。
无效视差值填充采用的是八射线填充法,具体是指以无效像素为中心,分八个角度向四周发射射线,收集每条射线碰到的第一个有效像素,取这个八个像素值当中的最小值赋给当前无效像素,如图11所示。
最后采用中值滤波的方法,将视差图进一步拟合,减弱图像局部区域内较为尖锐的噪声。
中值滤波类似于卷积操作,是基于统计理论中一种能够有效抑制噪声的非线性信号处理技术,基本原理是用某一点的窗口邻域中所有像素点的像素值的中值来代替,对脉冲级别的椒盐噪声的抑制效果最好,在对噪声产生抑制效果的同时,不会对边缘带来较为严重的模糊效应。

Claims (7)

1.基于解卷积神经网络双目视觉立体匹配方法,其特征在于,包括:
搭建先进行解卷积再进行卷积的孪生卷积神经网络模型;
获取最优视差值,经过后处理优化,生成最终视差图。
2.根据权利要求1所述的基于解卷积神经网络双目视觉立体匹配方法,其特征在于,所述的孪生卷积神经网络模型对输入的图像块先进行解卷积;再依次通过卷积层进行卷积;将每一层左右网络模型生成的卷积层特征平面进行点积运算,并将计算生成后的匹配代价在最后一层进行叠加。
3.根据权利要求2所述的基于解卷积神经网络双目视觉立体匹配方法,其特征在于,图像块先经过解卷积层后的输出尺寸计算公式如下:
o=s(i-1)-2p+k;
再经过卷积层后的输出尺寸计算公式如下:
Figure FDA0002738984820000011
其中,o代表输出特征图尺寸,i代表输入特征图尺寸,s代表步长,p代表填充尺寸,k代表卷积核尺寸。
4.根据权利要求2所述的基于解卷积神经网络双目视觉立体匹配方法,其特征在于,采用半全局匹配算法结合计算出的匹配代价,获取最优视差值。
5.据权利要求4述的基于解卷积神经网络双目视觉立体匹配方法,其特征在于,所述的半全局匹配算法为四路径聚合匹配算法。
6.根据权利要求4所述的基于解卷积神经网络双目视觉立体匹配方法,其特征在于,所述的后处理优化是指对生成的视差图进行中值滤波。
7.根据权利要求1-6任一项所述的基于解卷积神经网络双目视觉立体匹配方法,其特征在于,所述卷积神经网络模型的训练集根据KITTI2015数据集构建而成。
CN202011143651.8A 2020-10-23 2020-10-23 一种基于解卷积神经网络双目视觉立体匹配方法 Pending CN114494025A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011143651.8A CN114494025A (zh) 2020-10-23 2020-10-23 一种基于解卷积神经网络双目视觉立体匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011143651.8A CN114494025A (zh) 2020-10-23 2020-10-23 一种基于解卷积神经网络双目视觉立体匹配方法

Publications (1)

Publication Number Publication Date
CN114494025A true CN114494025A (zh) 2022-05-13

Family

ID=81471209

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011143651.8A Pending CN114494025A (zh) 2020-10-23 2020-10-23 一种基于解卷积神经网络双目视觉立体匹配方法

Country Status (1)

Country Link
CN (1) CN114494025A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101957089B1 (ko) * 2018-01-08 2019-03-11 인하대학교 산학협력단 스테레오 정합을 위한 심층 자기유도 비용집계 방법 및 시스템
CN110473284A (zh) * 2019-07-29 2019-11-19 电子科技大学 一种基于深度学习的运动物体三维模型重建方法
CN110533712A (zh) * 2019-08-26 2019-12-03 北京工业大学 一种基于卷积神经网络的双目立体匹配方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101957089B1 (ko) * 2018-01-08 2019-03-11 인하대학교 산학협력단 스테레오 정합을 위한 심층 자기유도 비용집계 방법 및 시스템
CN110473284A (zh) * 2019-07-29 2019-11-19 电子科技大学 一种基于深度学习的运动物体三维模型重建方法
CN110533712A (zh) * 2019-08-26 2019-12-03 北京工业大学 一种基于卷积神经网络的双目立体匹配方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
GUODONG LIU等: "Binocular Depth Estimation Using Convolutional Neural Network With Siamese Branches", 《2019 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND BIOMIMETICS (ROBIO)》, 20 January 2020 (2020-01-20) *
MA XIN: "Adaptive Deconvolution-Based Stereo Matching Net for Local Stereo Matching", 《ARXIV.ORG》, 1 January 2021 (2021-01-01) *
何路飞: "反卷积(Transposed Convolution)详细推导", 《知乎:HTTPS://ZHUANLAN.ZHIHU.COM/P/48501100》, 27 May 2019 (2019-05-27), pages 1 - 7 *
朱俊鹏等: "基于卷积神经网络的视差图生成技术", 《参考网:HTTPS://M.FX361.COM/NEWS/2018/0320/13620500.HTML》, 20 March 2018 (2018-03-20), pages 1 - 10 *

Similar Documents

Publication Publication Date Title
CN112507997B (zh) 一种基于多尺度卷积和感受野特征融合的人脸超分辨***
CN107154023B (zh) 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法
CN107123089B (zh) 基于深度卷积网络的遥感图像超分辨重建方法及***
CN110223370B (zh) 一种从单视点图片生成完整人体纹理贴图的方法
CN111062872A (zh) 一种基于边缘检测的图像超分辨率重建方法及***
CN108596975B (zh) 一种针对弱纹理区域的立体匹配算法
CN112686935B (zh) 基于特征融合的机载测深雷达与多光谱卫星影像配准方法
Tang et al. Single image dehazing via lightweight multi-scale networks
CN110189286B (zh) 一种基于ResNet的红外与可见光图像融合方法
CN111899295B (zh) 一种基于深度学习的单目场景深度预测方法
CN111626927B (zh) 采用视差约束的双目图像超分辨率方法、***及装置
CN116664782B (zh) 一种基于融合体素的神经辐射场三维重建方法
CN114463492B (zh) 一种基于深度学习的自适应通道注意力三维重建方法
Kasem et al. Spatial transformer generative adversarial network for robust image super-resolution
CN117575915B (zh) 一种图像超分辨率重建方法、终端设备及存储介质
CN114004754A (zh) 一种基于深度学习的场景深度补全***及方法
CN116739899A (zh) 基于saugan网络的图像超分辨率重建方法
CN114677479A (zh) 一种基于深度学习的自然景观多视图三维重建方法
CN109064402A (zh) 基于增强非局部总变分模型先验的单幅图像超分辨率重建方法
CN115511708A (zh) 基于不确定性感知特征传输的深度图超分辨率方法及***
CN117115359B (zh) 一种基于深度图融合的多视图电网三维空间数据重建方法
CN111369435B (zh) 基于自适应稳定模型的彩色图像深度上采样方法及***
CN114897757B (zh) 一种基于nsst和参数自适应pcnn的遥感图像融合方法
CN116385281A (zh) 一种基于真实噪声模型与生成对抗网络的遥感图像去噪方法
CN114494025A (zh) 一种基于解卷积神经网络双目视觉立体匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination