CN116310098A - 一种基于注意力机制与可变卷积深度网络的多视图三维重建方法 - Google Patents

一种基于注意力机制与可变卷积深度网络的多视图三维重建方法 Download PDF

Info

Publication number
CN116310098A
CN116310098A CN202310185694.XA CN202310185694A CN116310098A CN 116310098 A CN116310098 A CN 116310098A CN 202310185694 A CN202310185694 A CN 202310185694A CN 116310098 A CN116310098 A CN 116310098A
Authority
CN
China
Prior art keywords
depth
network
map
view
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310185694.XA
Other languages
English (en)
Inventor
周贵云
周祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202310185694.XA priority Critical patent/CN116310098A/zh
Publication of CN116310098A publication Critical patent/CN116310098A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Geometry (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于深度学习的三维重建方法,包括:构建多尺度特征提取网络,对获取的多张多视角图像进行多尺度的语义特征提取,得到多个尺度的目标关键特征;基于注意力机制和变形卷积深度网络的块匹配迭代模型中进行像素级别的深度评估迭代计算,完成迭代计算之后输出每幅图像对应的深度图;通过残差网络提取深度残差对深度图进行优化,获得最终的深度图;通过几何一致性约束和光照一致性约束对深度点进行过滤,根据可见性融合算法进行深度图融合,输出获得场景的三维点云。实施本发明,通过注意力机制提纯目标特征,并基于可变卷积深度网络进行深度评估优化,使得所获取深度图更加准确,从而提高了三维重建模型的完整度和精度。

Description

一种基于注意力机制与可变卷积深度网络的多视图三维重建 方法
技术领域
本发明属于几何计算机视觉三维重建领域,涉及一种基于基于注意力机制与可变卷积深度网络的多视图三维重建方法。
背景技术
近年来,深度学习在计算机视觉领域得到了广泛的应用并取得了巨大的成功,其在二维图像的处理应用领域,如图像分类、目标检测、语义分割等视觉任务上表现出了卓越的性能。但是图像只是简单的二维信息,所能传递的信息有限,因此如何从二维图像中获取更多的三维信息逐渐成为了研究的热点问题之一。
多视图三维重建技术是一种基于多张同一场景不同视角的图像进行三维场景的恢复的方法。传统的多视图三维重建技术可分为基于体素、基于表面演化、基于特征区域扩展以及基于深度图的四类方法。基于深度图的方法简洁灵活,但传统的深度图方法难以处理弱纹理区域或镜面反射区域的重建问题,重建的完整性较低且速度缓慢。基于深度学习的重建方法由于可以更好的利用全局语义信息,重建的精度和速度都有明显提升。
基于深度学习的多视图重建方法,通常会构造一个三维代价体进行深度回归获取场景深度值。但由于深度回归计算中的三维卷积正则化处理,在处理大范围场景或高分辨率场景时存在显存资源受限问题;并且由于户外大范围场景模型重建环境影响因素较为复杂,难以全面提取场景特征,参数自适应性较差,只能针对特定的场景进行建模,模型泛化能力不强。
综上所述,本领域技术人员急需对以上问题进行解决。
发明内容
本方案针对上文提到的问题和需求,提出一种基于注意力机制与可变卷积深度网络的多视图三维重建方法,其由于采取了如下技术方案而能够解决上述技术问题。
为实现上述目的,本发明提供了如下技术方案:一种基于注意力机制与可变卷积深度网络的多视图三维重建方法,包括以下步骤:
步骤Step1:基于递归特征金字塔结构,构建多尺度特征提取网络,对获取的多张多视角图像进行多尺度的语义特征提取,获取完整、准确的目标关键特征;
步骤Step2:将步骤Step1中得到的特征输入基于注意力机制和变形卷积深度网络的块匹配迭代模型中进行像素级别的深度评估迭代计算,完成迭代计算之后输出每幅图像对应的深度图;
步骤Step3:将步骤Step2中得到的深度图和对应的图像作为输入,通过残差网络提取深度残差对深度图进行优化,获得最终的深度图;
步骤Step4:将迭代计算获得的所有深度图作为输入,通过几何一致性约束和光照一致性约束对深度点进行过滤,根据可见性融合算法进行深度图融合,输出获得场景的三维点云。
其中,所述的递归特征金字塔机构,是通过对原有的特征金字塔结构输出的特征图施加一个空洞空间卷积池化金字塔网络进行目标关键特征的提取,并将获得的目标特征再次输入到特征金字塔网络中对目标特征进行再次提纯,获得信息更为丰富的特征图。
其中,在所述的基于注意力机制和变形卷积深度网络的块匹配模型的迭代过程中,若是初次迭代,则以目标特征图作为初始迭代输入;若迭代已开始,则以目标特征图与上次迭代输出的深度图连接起来作为当前迭代的输入。在具体进行深度评估时,通过注意力机制强化目标特征,再通过group-wise相关性计算每个像素的每个depth假设值的代价来实现的,具体的步骤如下:
首先基于注意力机制强化参考图像的关键特征,在迭代计算之中重点关注于图像中的关键目标;然后基于单应性变换将源视图像素点转换到参考视图坐标系下,并在参考视图坐标系下,对参考视图和源视图进行点积运算获取图像相似度;随后对特征通道维度进行分组,并通过三维卷积网络将每个分组相似性投影为参考图像的每个像素的每个深度假设的代价值;接下来,对所有源视图的深度代价值进行求和归一化计算,获得每个像素点的每个深度假设的概率,进行深度回归计算输出深度图;最后,通过可变性卷积深度网络对每一个像素点的相似像素点进行深度值采样,并进行深度滤波以平滑过滤错误的深度估计值。
其中,所述的优化残差网络是以目标特征图和上述得到的深度图作为输入,提取深度残差信息,对深度图进行优化。
其中,所述的深度图融合用于将满足几何约束要求和光照一致性要求的深度点投影到三维空间中形成三维点云,以得到重建的三维模型。
从上述的技术方案可以看出,本发明的有益效果是:通过递归特征金字塔结构获取语义更加丰富的目标关键特征,并通过注意力机制在深度评估计算中融合全局语义信息以弥补卷积网络的不足,并根据可变性卷积网络对深度图进行滤波,使得到的深度图更加完整和准确,三维模型的重建精度更高,整个网络模型的普适性也更强。
附图说明
图1为本发明实施例中的具体步骤示意图;
图2为本发明实施例中的网络结构图;
图3为本发明实施例中的递归特征金字塔网络结构图;
图4为本发明实施例中的空洞空间卷积池化金字塔网络结构图;
图5为本发明实施例中的注意力机制网络结构图;
图6为本发明实施例中的三维重建效果图。
具体实施方式
下面将结合附图对本发明作进一步的详细描述,所描述的实例仅旨在便于对本发明的理解,并不用于限定本发明。
目前已有的多视图三维重建方法,在弱纹理区域或反射表面的重建效果不好,并且存在运行时间长、内存消耗大以及泛化能力弱等问题,因此,本发明公开了一种基于注意力机制和可变性深度卷积网络的处理方法,该方法具有很强的泛化能力,能够快速高效的获得高精度的深度图,从而获得准确、完整的三维重建效果。如图1、图2所示,本发明提供了一种基于注意力机制和可变性深度卷积网络的多视图三维重建方法,本发明的具体步骤包括:
步骤Step1、基于递归特征金字塔结构,构建多尺度特征提取网络,对获取的多张多视角图像进行多尺度的语义特征提取,获取完整、准确的目标关键特征。
具体地,如图3所示,基于递归特征金字塔结构,使用卷积神经网络对多张多视角图像进行多尺度特征提取得到原始特征图。对低分辨率的原始特征图再施加一个上采样层,与下一个尺度的原始特征图进行融合,获取具有丰富语义信息的目标特征。对相邻两个尺度之间的原始特征图都采用上述的上采样融合处理,获得多种尺度的特征图。
更进一步地,对于上述获得的多尺度特征图,通过空洞空间卷积池化金字塔网络进行提纯,并将提纯后的特征图再次输入上述的特征提取网络中进行目标关键特征的再次提取,获得语义信息更加丰富的多尺度特征图。
在本实施例中,通过训练集对所述多尺度提取网络进行训练的过程包括:
输入N张H×W大小的多视角图像,其中包括一张参考视图Iref和N-1张源视图{Isrc},通过主干特征提取网络获取三个尺度的原始特征图,分别标记
Figure BDA0004103716460000041
三个尺度的原始特征图为F1,F2,F3,F1通过上采样网络获得/>
Figure BDA0004103716460000042
尺度的新特征图F1’,将F1’与F2融合得到/>
Figure BDA0004103716460000043
尺度的最终特征图F2’。同样的,将F2’通过上采样网络并与F3融合,获得/>
Figure BDA0004103716460000044
尺度的目标关键特征F3 。如图4所示,空洞空间卷积池化金字塔网络可以将输入的特征图进行精化提纯,将上述的F1 、F2 、F3 三个特征图输入其中获得信息更加丰富的特征图F1 、F2 、F3 。最后,将F1 、F2 、F3 再次输入主干特征提取网络中进行特征的再次提取,获取更加精细化的特征图F1 ”’、F2 ”’、F3 ”’,并将F1 ”’与F1 、F2 ”’与F2 、F3 ”’与F3 分别进行融合获得输出的多尺度特征。相比于传统的卷积网络提取特征,通过递归特征金字塔网络进行目标特征的反复提取融合,可以获得语义信息更加丰富、目标特征更加精确的特征图,并且输出的多尺度特征可以在不同尺度进行后续模型的训练,提高整个模型网络的稳健性和泛化能力。
步骤Step2、基于注意力机制和变形卷积深度网络的块匹配迭代模型中进行像素级别的深度评估迭代计算,完成迭代计算之后输出每幅图像对应的深度图。
对于多视图立体匹配,参考图像任意一点像素的正确深度值,也是任意源视图的对应像素点的正确深度值。对于多视图深度评估,需要整合多张源视图的可见信息去评估参考视图上的单个像素的每一个深度值。为此,如图5所示,基于注意力机制整合全局语义信息,充分利用每个像素点空间领域内的关系,强化目标的关键特征;随后,基于分组运算进行加权计算获得每个像素点的每个深度假设的代价值,通过三维卷积网络进行代价体归一化,获得每个深度假设的单一代价值,并进行深度回归计算获取深度图。最后,基于可变性卷积网络进行可变性滤波,相较于固定的滤波窗口,可变性滤波可以获取到相同三维平面的像素点坐标,通过取均值处理之后可以有效过平滑深度图中不合理的深度值,获得更为精准的深度图。
具体地,在迭代计算过程中,若是初次迭代,则以目标特征图作为初始迭代输入;若迭代已开始,则以目标特征图与上次迭代输出的深度图连接起来作为当前迭代的输入。
在本实施例中,根据预先定义的倒数深度范围[1/dmax,1/dmin]进行均匀采样,使每个像素都具有多个深度假设,并对每个深度假设添加随机数获取随机的深度假设。基于可变性卷积神经网络获取每个像素点的相似像素点的坐标(u,v),根据获取的像素坐标进行深度采样获得新的候选假设。这样做可以使网络模型能够处理大规模的复杂场景,有更好的模型泛化能力。对于后面的迭代计算,根据上一次迭代计算产生的深度图,在合理的深度范围R内添加随机数进行随机扰动,并在随后的迭代计算中逐渐缩小深度范围R。这样做可以进一步细化深度评估结果,对之前迭代计算中的错误评估进行纠正。
基于注意力机制和可变卷积深度网络进行深度评估的具体过程包括:通过注意力机制获取参考视图Ii上像素p的权重信息wi(p);根据公式:
Figure BDA0004103716460000051
计算获取参考视图Ii与源视图Ij在像素p的分组相似性Si(p,j);通过三维卷积网络将Si(p,j)投影为参考视图Ii的每个像素的每个深度假设的代价值,并进行深度回归计算获取参考视图Ii的深度图;最后,通过可变性卷积网络获取三维空间中相同局部平面的像素点坐标,根据像素坐标进行深度采样并获取所有采样点的深度均值,获得平滑后的深度值。如下所示为可变性滤波公式:/>
Figure BDA0004103716460000052
其中,F0(p)g和Fi(pi,j)g分别代表源视图的第g组特征和参考视图的第g组特征,pi,j代表参考视图与源视图对应的像素点p,N代表参考视图和源视图的总数量,Di代表参考视图Ii的深度假设,dp表示像素p的深度值,dt表示和像素p在相同平面的像素点的深度值,n代表采样点的数量。
步骤Step3、将步骤Step2中得到的深度图和对应的图像作为输入,通过残差网络提取深度残差对深度图进行优化,获得最终的深度图。
具体地,为了避免某一深度尺度被偏移,将输入的深度图归一化到[0,1]。
更进一步地,将多尺度特征网络提取的参考视图特征图通过反卷积网络进行上采样,将归一化后的深度图进行上采样到H×W尺度,将上述得到两个特征进行融合并通过残差网络提取深度残差信息,最后将获得的深度残差信息与步骤Step2中获得的深度图进行融合,获得最终优化后的深度图。
实验中每一个阶段输出的深度图与真实值都存在不同程度的误差,为了更好的反应整个训练过程的损失变化,将不同阶段的损失进行累加作为最终损失,由此损失函数定义为:
Figure BDA0004103716460000061
在本实施例中,将目标关键特征与步骤Step2中获得的深度图作为输入,分别对特征图和归一化到[0,1]的深度图进行上采样并将两者联合在一起,通过残差网络提取深度残差信息,将深度残差信息与归一化后的深度图进行融合,随后将融合得到的结果恢复到原来的深度范围之内,获得优化后的深度图。
步骤Step4、将迭代计算获得的所有深度图作为输入,通过几何一致性约束和光照一致性约束对深度点进行过滤,根据可见性融合算法进行深度图融合,输出获得场景的三维点云。
具体的,以步骤Step3中得到深度图和对应的深度假设的概率作为输入,根据光照一致性和几何约束一致性对深度点进行过滤,剔除不满足阈值条件的深度点。基于可见性的融合算法,把遮挡、光照等影响因素降到最低,使得不同视图之间的深度遮挡和冲突最小化,获得统一的点云表示,输出三维重建结果。
在本实施例中,输入之前计算获得的深度图和对应的深度假设的概率,预先设定光照一致性阈值α和几何约束一致性阈值β,剔除掉未达到阈值α或阈值β的深度点。为了进一步抑制噪声点,将符合阈值要求的相似像素点的深度值取平均值作为最终的可见深度。最后,如图6所示,将融合后的深度图直接投影到三维空间之中,输出三维重建的点云模型。
本申请采用了基于注意力机制和可变卷积深度网络的多视图三维重建算法,基于递归特征金字塔结构,引入注意力机制强化目标关键特征,在深度评估过程中更好的运用全局语义信息提高了深度评估的精度;并基于区域局部性假设,通过可变卷积深度网络对深度图进行优化,较好地解决了目前三维重建算法之中的弱纹理区域重建效果不理想的问题,能够满足复杂大场景的三维重建需求。
上述结果说明了本申请所提出的基于注意力机制和深度可变卷积网络的三维重建算法的可行性和有效性。
应当说明的是,上面结合附图对本发明实施所做的详细说明只是本发明的优选方式,在所属技术领域内的普通技术人员的知识范围内,还可以不脱离本发明的宗旨作出各种变化,而仅仅是显而易见的改动,均应属于本发明的保护范围之内。

Claims (5)

1.一种基于注意力机制与可变卷积深度网络的多视图三维重建方法,其特征在于,包括一下步骤:
步骤Step1:基于递归特征金字塔结构,构建多尺度特征提取网络,对获取的多张多视角图像进行多尺度的语义特征提取,获取完整、准确的目标关键特征;
步骤Step2:基于注意力机制和变形卷积深度网络的块匹配迭代模型中进行像素级别的深度评估迭代计算,完成迭代计算之后输出每幅图像对应的深度图;
步骤Step3:基于残差深度优化模块,以深度图和对应的图像作为输入,通过残差网络提取深度残差对深度图进行优化,获得最终的深度图;
步骤Step4:基于深度图融合模块,将迭代计算获得的所有深度图作为输入,通过几何一致性约束和光照一致性约束对深度点进行过滤,根据可见性融合算法进行深度图融合,输出获得场景的三维点云。
2.如权利要求1所述的基于注意力机制与可变卷积深度网络的多视图三维重建方法,其特征在于,所述的递归特征金字塔结构,使用卷积神经网络对多张多视角图像进行多尺度特征提取得到原始特征图;
对低分辨率的原始特征图再施加一个上采样层,与下一个尺度的原始特征图进行融合,获取具有丰富语义信息的目标特征;
对相邻两个尺度之间的原始特征图都采用上述的上采样融合处理,获得多种尺度的特征图;
对于上述获得的多尺度特征图,通过空洞空间卷积池化金字塔网络进行提纯,并将提纯后的特征图再次输入上述的特征提取网络中进行目标关键特征的再次提取,获得语义信息更加丰富的多尺度特征图。
3.如权利要求1所述的基于注意力机制与可变卷积深度网络的多视图三维重建方法,其特征在于,所述的基于注意力机制和变形卷积深度网络的块匹配迭代模型,基于注意力机制强化参考图像的关键特征,在迭代计算之中重点关注于图像中的关键目标;
然后基于单应性变换将源视图像素点转换到参考视图坐标系下,并在参考视图坐标系下,对参考视图和源视图进行点积运算获取图像相似度;
随后对特征通道维度进行分组,并通过三维卷积网络将每个分组相似性投影为参考图像的每个像素的每个深度假设的代价值;
接下来,对所有源视图的深度代价值进行求和归一化计算,获得每个像素点的每个深度假设的概率,进行深度回归计算输出深度图;
最后,通过可变性卷积深度网络对每一个像素点的相似像素点进行深度值采样,并进行深度滤波以平滑过滤错误的深度估计值;
在迭代计算过程中,若是初次迭代,则以目标特征图作为初始迭代输入;
若迭代已开始,则以目标特征图与上次迭代输出的深度图连接起来作为当前迭代的输入。
4.如权利要求1所述的基于注意力机制与可变卷积深度网络的多视图三维重建方法,其特征在于,所述的残差深度优化模块,为了避免某一深度尺度被偏移,将输入的深度图归一化到[0,1];
将多尺度特征网络提取的参考视图特征图通过反卷积网络进行上采样,将归一化后的深度图进行上采样,将上述得到两个特征进行融合并通过残差网络提取深度残差信息;
最后将获得的深度残差信息与归一化上采样后的深度图进行融合,获得最终优化后的深度图。
5.如权利要求1所述的基于注意力机制与可变卷积深度网络的多视图三维重建方法,其特征在于,所述的深度融合模块,根据光照一致性和几何约束一致性对深度点进行过滤,剔除不满足阈值条件的深度点;
基于可见性的融合算法,把遮挡、光照等影响因素降到最低,使得不同视图之间的深度遮挡和冲突最小化,获得统一的点云表示,输出三维重建结果。
CN202310185694.XA 2023-03-01 2023-03-01 一种基于注意力机制与可变卷积深度网络的多视图三维重建方法 Pending CN116310098A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310185694.XA CN116310098A (zh) 2023-03-01 2023-03-01 一种基于注意力机制与可变卷积深度网络的多视图三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310185694.XA CN116310098A (zh) 2023-03-01 2023-03-01 一种基于注意力机制与可变卷积深度网络的多视图三维重建方法

Publications (1)

Publication Number Publication Date
CN116310098A true CN116310098A (zh) 2023-06-23

Family

ID=86816186

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310185694.XA Pending CN116310098A (zh) 2023-03-01 2023-03-01 一种基于注意力机制与可变卷积深度网络的多视图三维重建方法

Country Status (1)

Country Link
CN (1) CN116310098A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117011466A (zh) * 2023-08-08 2023-11-07 苏州三垣航天科技有限公司 一种基于分段平面算法的三维重建方法
CN117437363A (zh) * 2023-12-20 2024-01-23 安徽大学 基于深度感知迭代器的大规模多视图立体方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117011466A (zh) * 2023-08-08 2023-11-07 苏州三垣航天科技有限公司 一种基于分段平面算法的三维重建方法
CN117011466B (zh) * 2023-08-08 2024-03-29 苏州三垣航天科技有限公司 一种基于分段平面算法的三维重建方法
CN117437363A (zh) * 2023-12-20 2024-01-23 安徽大学 基于深度感知迭代器的大规模多视图立体方法
CN117437363B (zh) * 2023-12-20 2024-03-22 安徽大学 基于深度感知迭代器的大规模多视图立体方法

Similar Documents

Publication Publication Date Title
WO2024077812A1 (zh) 基于点云语义分割与结构拟合的单体建筑三维重建方法
Zhang et al. Deep hierarchical guidance and regularization learning for end-to-end depth estimation
Hu et al. Deep depth completion from extremely sparse data: A survey
CN109035172B (zh) 一种基于深度学习的非局部均值超声图像去噪方法
CN116310098A (zh) 一种基于注意力机制与可变卷积深度网络的多视图三维重建方法
Li et al. Confidence-based large-scale dense multi-view stereo
CN113345082B (zh) 一种特征金字塔多视图三维重建方法和***
CN110909778B (zh) 一种基于几何一致性的图像语义特征匹配方法
CN111860651B (zh) 一种基于单目视觉的移动机器人半稠密地图构建方法
Li et al. Coarse-to-fine PatchMatch for dense correspondence
CN110490915B (zh) 一种基于卷积受限玻尔兹曼机的点云配准方法
Xue et al. Boundary-induced and scene-aggregated network for monocular depth prediction
CN113963117B (zh) 一种基于可变卷积深度网络的多视图三维重建方法及装置
CN116310095A (zh) 一种基于深度学习的多视图三维重建方法
CN114677479A (zh) 一种基于深度学习的自然景观多视图三维重建方法
CN114937073A (zh) 一种基于多分辨率自适应性的多视角立体重建网络模型MA-MVSNet的图像处理方法
CN115018999A (zh) 一种多机器人协作的稠密点云地图构建方法及装置
Lin et al. A-SATMVSNet: An attention-aware multi-view stereo matching network based on satellite imagery
Lin et al. High-resolution multi-view stereo with dynamic depth edge flow
CN116704123A (zh) 一种结合图像主体提取技术的三维重建方法
CN116229074A (zh) 一种递进式边界区域优化的医学图像小样本分割方法
Chen et al. Monocular image depth prediction without depth sensors: An unsupervised learning method
Cheng et al. Two-branch convolutional sparse representation for stereo matching
CN114964206A (zh) 一种单目视觉里程计目标位姿检测方法
Lyra et al. Development of an efficient 3D reconstruction solution from permissive open-source code

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination