CN112750155A - 基于卷积神经网络的全景深度估计方法 - Google Patents
基于卷积神经网络的全景深度估计方法 Download PDFInfo
- Publication number
- CN112750155A CN112750155A CN202110053166.XA CN202110053166A CN112750155A CN 112750155 A CN112750155 A CN 112750155A CN 202110053166 A CN202110053166 A CN 202110053166A CN 112750155 A CN112750155 A CN 112750155A
- Authority
- CN
- China
- Prior art keywords
- panoramic
- depth
- image
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 43
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 11
- 230000006870 function Effects 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 claims description 3
- 238000013459 approach Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于卷积神经网络的全景深度估计方法,包括以下步骤:步骤S1:采集室外环境的RGB图像,深度图像,点云数据,并根据柱面投影原理将RGB图像以及深度图像拼接成为全景图像;步骤S2:构建卷积神经网络模型,并基于的得到全景图像训练,得到训练后的卷积神经网络模型;步骤S3:将待测的全景图像输入训练后的卷积神经网络模型,获得密集的全景深度预测图像。本发明能够调整优化全景图像的局部细节,从而估计出密集而且准确的全景深度图像。
Description
技术领域
本发明属于图像识别和人工智能领域,具体涉及一种基于卷积神经网络的全景深度估计方法。
背景技术
深度估计是计算机视觉中的基本任务之一。随着计算机技术的发展,深度学习在计算机视觉领域取得了一系列突破性进展。由于其在机器人技术和计算机视觉的众多任务(例如自动驾驶,定位和地图绘制,路径规划和3D重建)中起着至关重要的作用,因此人们一直希望获得精确的3D感知。目前,已经提出了各种技术来获得深度估计,但是各种技术都不可避免的具有一些缺陷。例如,RGB-D相机仅适用于短距离深度采集;3D LIDAR仅提供稀疏的点云深度信息;立体相机无法在外观均匀或照明变化大的区域中产生可靠的深度估计。而且普遍存在的是,无论何种相机其深度估计的视场角度都受相机视场角度大小的限制。
发明内容
有鉴于此,本发明的目的在于提供一种基于卷积神经网络的全景深度估计方法,能够通过级联融合全景图像与LIDAR深度信息,并根据所提出的PDCBN(全景深度条件正则化)网络层,调整优化全景图像的局部细节,从而估计出密集而且准确的全景深度图像。
为实现上述目的,本发明采用如下技术方案:
一种基于卷积神经网络的全景深度估计方法,包括以下步骤:
步骤S1:采集室外环境的RGB图像,深度图像,点云数据,并根据柱面投影原理将RGB图像以及深度图像拼接成为全景图像;
步骤S2:构建卷积神经网络模型,并基于的得到全景图像训练,得到训练后的卷积神经网络模型;
步骤S3:将待测的全景图像输入训练后的卷积神经网络模型,获得密集的全景深度预测图像。
进一步的,所述步骤S1采用开放的城市模拟器Carla采集室外环境的RGB图像,深度图像,点云数据。
进一步的,所述步骤S1具体为:
步骤1-1:在开放的城市模拟器Carla的数据采集车上装载若干个RGB相机,若干个深度相机,一个64线LIDAR,深度相机与RGB相机对应,形成360°全景视野,并在Carla中操控数据采集车,采集室外环境下的RGB图像,深度图像,点云数据;
步骤1-2:基于柱面投影原理,将每张RGB图像,深度图像柱面投影,根据柱面投影后的重合区域,缝合成为全景图像;
步骤1-3:将缝合的图像裁剪成预设比例的全景图像。
进一步的,所述步骤S1-2具体为:设定单张图像为四边形ABCD,表示待处理平面,柱面投影之后,变成曲面EFGE1F1G1;
设原图像宽为w,高为h,相机视场角度为α,则相机焦距f表示为:
f=w/(2*tan(α/2)) (1)
图像上某像素点位置为(x,y),则柱面投影后的像素点坐标为(x1,y1):
图像柱面投影后,根据单个相机与左右相邻相机重合视场角度θ,缝合成全景图像。
进一步的,所述步骤S2具体为:
步骤2-1:构建待训练的卷积神经网络模型,以全景RGB图像和从LIDAR投影的稀疏全景深度图像作为输入;
步骤2-2:使用反向传播算法计算损失函数损失值,通过迭代计算减小误差进行参数学习,使预测值逼近真实值,获得训练后的卷积神经网络模型。
进一步的,所述卷积神经网络模型每一层网络依次执行卷积、全景条件正则化、激活、池化操作,使用ReLU激活函数:
设输入的融合特征尺寸大小为C×H×W,最小批次λ=[Fi],全景深度条件正则化网络层定义为:
其中,ε是数值稳定性小常数,αi,c,h,w,βi,c,h,w是可学习参数。
在函数sc与yc中,给定全景LIDAR深度图像中的一点如果该点从LIDAR投影到全景图像中存在,那么认定该点是有效的,通过PDCBN网络层来增强或者抑制的深度值;反之,该点是无效点,则使用普通的BN网络层处理。
进一步的,所述卷积神经网络模型使用深度真实值dtru与模型对像素预测值dpre的绝对误差来训练模型,并根据LIDAR的稀疏深度真实值,对有效像素N上的损失进行平均,损失函数定义为:
本发明与现有技术相比具有以下有益效果:
本发明能够通过级联融合全景图像与LIDAR深度信息,并根据所提出的PDCBN(全景深度条件正则化)网络层,调整优化全景图像的局部细节,从而估计出密集而且准确的全景深度图像。
附图说明
图1是本发明实施例整体流程示意图;
图2是本发明中柱面投影原理示意图;
图3是本发明中柱面投影示意图:(a)是柱面投影的俯视图,(b)是柱面投影的侧视图;
图4是本发明中柱面投影后全景图像缝合效果示例:(a)是全景RGB图像,(b)是真实的全景深度图像;
图5是本发明中卷积神经网络结构示意图;
图6是本发明全景深度估计定性结果示例,从上到下依次为全景RGB图像,从LIDAR投影的稀疏全景深度图像,估计的全景深度图像,真实的全景深度图像,全景深度误差图像。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种基于卷积神经网络的全景深度估计方法,包括如下步骤:
步骤S1:通过开放的城市模拟器Carla采集室外环境的RGB图像,深度图像,点云数据,根据柱面投影原理将RGB图像以及深度图像拼接成为全景图像,生成的数据集划分为训练集和测试集(90/10%);
步骤S2:构建待训练的卷积神经网络模型,以全景RGB图像和从LIDAR投影的稀疏全景深度图像作为输入,使用反向传播算法计算损失函数损失值,通过迭代计算减小误差进行参数学习,使预测值逼近真实值,从而获得卷积神经网络的最佳权重模型;
步骤S3:加载步骤S2训练好的权重模型,将划分的全景测试集输入用于全景深度估计的卷积神经网络模型,获得密集的全景深度预测图像。
在本实施例中,步骤S1具体处理过程如下:
1)在开放的城市模拟器Carla的数据采集车上装载5个RGB相机,5个深度相机,一个64线LIDAR,深度相机与RGB相机对应,视场角为90°,每个相机旋转72°安装,形成360°全景视野。然后在Carla中操控数据采集车,采集室外环境下的RGB图像,深度图像,点云数据;
2)如图2所示是图像柱面投影原理的示意图。图像平面为四边形ABCD,并表示待处理平面,柱面投影之后,变成曲面EFGE1F1G1。假设图像上某像素点位置为(x,y),则柱面投影后的像素点位置为(x1,y1);
图3(a)所示的是柱面投影原理的俯视图,可以推出该像素点x值的投影变化过程:
其中,w表示图像的宽度,即线段AB的长度,θ表示Ox与线段Ow的夹角,f表示相机的焦距,α表示相机视场角度,大小为90°,w1表示柱面投影变换后图像的宽度,x1表示x柱面投影后的位置。
将公式(1)(2)带入公式(3)变换可得,点x投影变换后的位置x1:
图3(b)所示的是柱面投影原理的侧视图,可以推出该像素点y值的投影变化过程,由三角形相似可以推出:
其中,h表示图像的高度,即线段BC的长度,f表示相机的焦距,θ表示Ox与线段Ow的夹角,h1表示柱面投影变换后图像的高度,高度不变,y1表示y柱面投影后的位置。并且存在:
因此,将公式(6)带入公式(5)得到,点y投影变换后的位置y1:
上述就是图像柱面投影具体的计算过程,图像柱面投影后,根据单个相机与左右相邻相机重合视场角度为9°,缝合成全景图像。全景图像缝合示例效果如图4所示。
3)将缝合的图像裁剪成256×3840的全景图像,形成一个室外环境的综合数据集。其中90%划为训练集,10%划为测试集。
如图5所示的是本发明的卷积神经网络结构,上述步骤2是依据所提出的卷积神经网络结构,构建待训练的卷积神经网络模型。
本实施例中,全景深度估计的卷积神经网络是一个端对端的深度学习框架,该框架以全景彩色图像和从LIDAR投影的稀疏全景深度图像作为输入,输出密集的全景深度图像。
整个网络主要由两个路径组成:粗尺度网络路径与PDCBN网络优化路径。粗尺度网络路径,首先融合输入的全景彩色图像和稀疏LIDAR深度图像,实现在全局级别上预测场景的全景深度。然后,PDCBN网络优化路径根据LIDAR深度值自适应的调整优化局部细节。
因此,神经网络模型可以编辑全局预测并合并更精细的细节,从而生成密集而准确地全景深度图像。其网络具体处理过程如以下步骤:
1)网络结构级联融合输入的全景RGB图像和从LIDAR投影的稀疏全景深度图像。
2)每一层网络依次执行卷积、全景条件正则化(PDCBN)、激活、池化操作,使用ReLU激活函数:
设输入的融合特征尺寸大小为C×H×W,最小批次λ=[Fi]。这时,所提出的全景深度条件正则化网络层定义为:
其中,ε是数值稳定性小常数,αi,c,h,w,βi,c,h,w是可学习参数。当模型训练运用到PDCBN时,通过映射LIDAR深度信息产生新的参数α,β。设定LIDAR深度信息为函数由于产生的新参数依赖于LIDAR深度信息,因此,网络层命名为PDCBN。
在函数sc与yc中,给定全景LIDAR深度图像中的一点如果该点从LIDAR投影到全景图像中存在,那么认定该点是有效的,通过PDCBN网络层来增强或者抑制的深度值;反之,该点是无效点,则使用普通的BN网络层处理。这样就完成了按像素依次映射全景LIDAR深度,从而自适应的调整优化局部深度值。
3)构建待训练的卷积神经网络模型中,设定损失函数。使用深度真实值dtru与模型对像素预测值dpre的绝对误差来训练模型。根据LIDAR的稀疏深度真实值,对有效像素N上的损失进行平均。所以损失函数定义为:
上述步骤3就是将测试数据输入上述步骤2训练好的权重模型,输入的全景图像分辨率为256×3840,输出的密集全景深度图在细节恢复和更深的场景中深度重建质量良好,补全的全景深度图像如图6所示。
优选的,在本实施例中,设置了对预测得到的全景深度图像的评价指标,具体包括:均方根误差(RMSE),平均绝对误差(MAE),反深度的均方根误差(iRMSE)和反深度的平均绝对误差(iMAE),其中RMSE是最重要的指标。
根据四个评价指标对测试的全景深度图像进行误差评估,实验评价误差结果如表1所示。
表1:误差评估
优选的,在本实施例中,神经网络模型训练的操作***为Ubuntu16.04,显卡型号为NVIDIA Tesla M40,使用PyTorch1.0,深度学习框架和Python3.5程序语言。在实际训练过程中进行20次循环训练,选择RMSProp迭代优化器,设置参数alpha=0.9,学习率设置为0.001。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (7)
1.一种基于卷积神经网络的全景深度估计方法,其特征在于,包括以下步骤:
步骤S1:采集室外环境的RGB图像,深度图像,点云数据,并根据柱面投影原理将RGB图像以及深度图像拼接成为全景图像;
步骤S2:构建卷积神经网络模型,并基于的得到全景图像训练,得到训练后的卷积神经网络模型;
步骤S3:将待测的全景图像输入训练后的卷积神经网络模型,获得密集的全景深度预测图像。
2.根据权利要求1所述的基于卷积神经网络的全景深度估计方法,其特征在于,所述步骤S1采用开放的城市模拟器Carla采集室外环境的RGB图像,深度图像,点云数据。
3.根据权利要求2所述的基于卷积神经网络的全景深度估计方法,其特征在于,所述步骤S1具体为:
步骤1-1:在开放的城市模拟器Carla的数据采集车上装载若干个RGB相机,若干个深度相机,一个64线LIDAR,深度相机与RGB相机对应,形成360°全景视野,并在Carla中操控数据采集车,采集室外环境下的RGB图像,深度图像,点云数据;
步骤1-2:基于柱面投影原理,将每张RGB图像,深度图像柱面投影,根据柱面投影后的重合区域,缝合成为全景图像;
步骤1-3:将缝合的图像裁剪成预设比例的全景图像。
5.根据权利要求1所述的基于卷积神经网络的全景深度估计方法,其特征在于,所述步骤S2具体为:
步骤2-1:构建待训练的卷积神经网络模型,以全景RGB图像和从LIDAR投影的稀疏全景深度图像作为输入;
步骤2-2:使用反向传播算法计算损失函数损失值,通过迭代计算减小误差进行参数学习,使预测值逼近真实值,获得训练后的卷积神经网络模型。
6.根据权利要求5所述的基于卷积神经网络的全景深度估计方法,其特征在于,所述卷积神经网络模型每一层网络依次执行卷积、全景条件正则化、激活、池化操作,使用ReLU激活函数:
设输入的融合特征尺寸大小为C×H×W,最小批次λ=[Fi],全景深度条件正则化网络层定义为:
其中,ε是数值稳定性小常数,αi,c,h,w,βi,c,h,w是可学习参数;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110053166.XA CN112750155B (zh) | 2021-01-15 | 2021-01-15 | 基于卷积神经网络的全景深度估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110053166.XA CN112750155B (zh) | 2021-01-15 | 2021-01-15 | 基于卷积神经网络的全景深度估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112750155A true CN112750155A (zh) | 2021-05-04 |
CN112750155B CN112750155B (zh) | 2022-07-01 |
Family
ID=75652024
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110053166.XA Active CN112750155B (zh) | 2021-01-15 | 2021-01-15 | 基于卷积神经网络的全景深度估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112750155B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113592932A (zh) * | 2021-06-28 | 2021-11-02 | 北京百度网讯科技有限公司 | 深度补全网络的训练方法、装置、电子设备及存储介质 |
CN116866723A (zh) * | 2023-09-04 | 2023-10-10 | 广东力创信息技术有限公司 | 一种管道安全实时监控预警*** |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105678721A (zh) * | 2014-11-20 | 2016-06-15 | 深圳英飞拓科技股份有限公司 | 一种全景拼接图像接缝处平滑的方法及装置 |
CN106981080A (zh) * | 2017-02-24 | 2017-07-25 | 东华大学 | 基于红外图像和雷达数据的夜间无人车场景深度估计方法 |
CN107767456A (zh) * | 2017-09-22 | 2018-03-06 | 福州大学 | 一种基于rgb‑d相机的物体三维重建方法 |
US20190004533A1 (en) * | 2017-07-03 | 2019-01-03 | Baidu Usa Llc | High resolution 3d point clouds generation from downsampled low resolution lidar 3d point clouds and camera images |
CN109215067A (zh) * | 2017-07-03 | 2019-01-15 | 百度(美国)有限责任公司 | 基于cnn和crf模型生成高分辨率3-d点云 |
CN110910437A (zh) * | 2019-11-07 | 2020-03-24 | 大连理工大学 | 一种复杂室内场景的深度预测方法 |
US20200210726A1 (en) * | 2018-12-28 | 2020-07-02 | Nvidia Corporation | Distance to obstacle detection in autonomous machine applications |
-
2021
- 2021-01-15 CN CN202110053166.XA patent/CN112750155B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105678721A (zh) * | 2014-11-20 | 2016-06-15 | 深圳英飞拓科技股份有限公司 | 一种全景拼接图像接缝处平滑的方法及装置 |
CN106981080A (zh) * | 2017-02-24 | 2017-07-25 | 东华大学 | 基于红外图像和雷达数据的夜间无人车场景深度估计方法 |
US20190004533A1 (en) * | 2017-07-03 | 2019-01-03 | Baidu Usa Llc | High resolution 3d point clouds generation from downsampled low resolution lidar 3d point clouds and camera images |
CN109215067A (zh) * | 2017-07-03 | 2019-01-15 | 百度(美国)有限责任公司 | 基于cnn和crf模型生成高分辨率3-d点云 |
CN107767456A (zh) * | 2017-09-22 | 2018-03-06 | 福州大学 | 一种基于rgb‑d相机的物体三维重建方法 |
US20200210726A1 (en) * | 2018-12-28 | 2020-07-02 | Nvidia Corporation | Distance to obstacle detection in autonomous machine applications |
CN110910437A (zh) * | 2019-11-07 | 2020-03-24 | 大连理工大学 | 一种复杂室内场景的深度预测方法 |
Non-Patent Citations (3)
Title |
---|
TOMOYOSHI SHIMOBABA ET AL.: "Convolutional Neural Network-Based Regression for Depth Prediction in Digital Holography", 《2018 IEEE 27TH INTERNATIONAL SYMPOSIUM ON INDUSTRIAL ELECTRONICS (ISIE)》 * |
吴洁: "面向铁路线路视频的三维场景理解", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
韩婧: "基于深度学习的多视图三维重建", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113592932A (zh) * | 2021-06-28 | 2021-11-02 | 北京百度网讯科技有限公司 | 深度补全网络的训练方法、装置、电子设备及存储介质 |
CN116866723A (zh) * | 2023-09-04 | 2023-10-10 | 广东力创信息技术有限公司 | 一种管道安全实时监控预警*** |
CN116866723B (zh) * | 2023-09-04 | 2023-12-26 | 广东力创信息技术有限公司 | 一种管道安全实时监控预警*** |
Also Published As
Publication number | Publication date |
---|---|
CN112750155B (zh) | 2022-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020207166A1 (zh) | 一种物体检测方法、装置、电子设备和存储介质 | |
CN111325794A (zh) | 一种基于深度卷积自编码器的视觉同时定位与地图构建方法 | |
CN112505065B (zh) | 一种实现室内无人机对大部件表面缺陷进行检测的方法 | |
CA3030513A1 (en) | Automated roof surface measurement from combined aerial lidar data and imagery | |
CN103985133B (zh) | 基于图割能量优化的影像间最优拼接线寻找方法及*** | |
CN114424250A (zh) | 结构建模 | |
CN112991413A (zh) | 自监督深度估测方法和*** | |
CN113330486A (zh) | 深度估计 | |
CN112750155B (zh) | 基于卷积神经网络的全景深度估计方法 | |
CN109900274B (zh) | 一种图像匹配方法及*** | |
CN113393577B (zh) | 一种倾斜摄影地形重建方法 | |
CN110260866A (zh) | 一种基于视觉传感器的机器人定位与避障方法 | |
Hu et al. | Deep-learning assisted high-resolution binocular stereo depth reconstruction | |
CN109472752A (zh) | 基于航拍图像的多曝光融合*** | |
CN116797742A (zh) | 室内场景的三维重建方法及*** | |
CN112862736A (zh) | 一种基于点的实时三维重建与优化方法 | |
CN115032648A (zh) | 一种基于激光雷达密集点云的三维目标识别与定位方法 | |
Hu et al. | Geometric feature enhanced line segment extraction from large-scale point clouds with hierarchical topological optimization | |
CN116740288A (zh) | 一种融合激光雷达、倾斜摄影的三维重建方法 | |
Mihajlovic et al. | Deepsurfels: Learning online appearance fusion | |
CN117315169A (zh) | 基于深度学习多视密集匹配的实景三维模型重建方法和*** | |
CN116385660A (zh) | 室内单视图场景语义重建方法及*** | |
CN116152442B (zh) | 一种三维点云模型生成方法及装置 | |
CN117726747A (zh) | 补全弱纹理场景的三维重建方法、装置、存储介质和设备 | |
CN116758219A (zh) | 基于神经网络的区域感知多视角立体匹配三维重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |