CN114549297A - 一种基于不确定分析的无监督单目深度估计方法 - Google Patents

一种基于不确定分析的无监督单目深度估计方法 Download PDF

Info

Publication number
CN114549297A
CN114549297A CN202111185472.5A CN202111185472A CN114549297A CN 114549297 A CN114549297 A CN 114549297A CN 202111185472 A CN202111185472 A CN 202111185472A CN 114549297 A CN114549297 A CN 114549297A
Authority
CN
China
Prior art keywords
depth
depth estimation
uncertainty
function
unsupervised
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111185472.5A
Other languages
English (en)
Inventor
宋传学
齐春阳
彭思仑
宋世欣
肖峰
王达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN202111185472.5A priority Critical patent/CN114549297A/zh
Publication of CN114549297A publication Critical patent/CN114549297A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于不确定性的无监督单目深度估计方法,首先提出一种基于不确定性的无监督深度估计网络,用于改进单目深度估计中预测深度精度低的问题,这种不确定性学***滑度损失和不确定性损失,不仅可以估计深度,而且可以通过预测方差获得估计深度的置信度。

Description

一种基于不确定分析的无监督单目深度估计方法
技术领域
本发明涉及了计算机视觉技术领域,具体是一种基于不确定分析的无监督单目深度估计方法。
背景技术
深度估计通常对于计算机视觉中的各种高级任务至关重要,例如自动驾驶,增强现实等等。在汽车智能辅助驾驶***和智能车载视觉***中也是核心技术。结合深度估计的深度信息,能够达到监测车辆运行状态,完善前向碰撞预警***。一般情况下,车辆的行驶速度较快,因而对车距测量的要求较高,在双目和多目***中摄像头之间的协同性不好调节,所以本发明是基于单目摄像头展开研究的。从成本上来看,单目视觉比双目和多目***更加节省成本。除此之外,单目视觉在数据处理方面计算量比双目和多目要小得多,可以更好的兼顾实时性,是现代智能辅助驾驶***和智能车载视觉***中的研究热点和前沿领域。目前单目深度数据集较为匮乏,只能在特定数据集下的场景进行训练。另外,单目深度估计中深度图物体周围细节深度不清晰,动态物体干扰多,卷积神经网络无法评估输出结果可靠性也是亟待解决的问题。基于以上问题,本发明提出一种基于不确定性的无监督单目深度估计方法。
发明内容
为了克服现有技术中的缺陷,本发明实施例提供了一种基于不确定分析的无监督单目深度估计方法,来解决上述背景技术中提出的问题。
本发明公开了:一种基于不确定分析的无监督单目深度估计方法,其特征在于,包括以下步骤:
步骤1:提出一种基于不确定性的无监督深度估计网络,提高单目深度估计中预测深度精度;
步骤2:基于步骤1,通过建模不确定性,预测估计深度的置信度,同时提升模型预测精度,量化输出结果的不确定性;
步骤3:基于步骤1-2,使用Retinex光照理论构造亮度损失函数,根据Retinex算法的基本理论,再通过运算转化,解决由于场景中动态物体的干扰。
优选的,所述步骤1具体为:
首先,定义似然函数:
p(y|y*)=N(y*2);
其中y表示观测的深度,y*表示模型输出的深度,σ2表示观测噪声方差;
其次,对似然函数进行求解:
Figure RE-GDA0003577100850000021
再次,确立目标函数:
Figure RE-GDA0003577100850000022
图像的深度估计是回归任务,L1的惩罚函数要优于L2惩罚函数;
然后,不确定分析的损失函数如下:
Figure RE-GDA0003577100850000023
最后,得出的损失函数为:
L=LR+LS+LU
优选的,从给定从未标记视频中采样的两个连续帧It和It-1,首先使用深度网络估算其深度图Dt和Dt-1
然后使用姿态网络Pab训练相机之间的相对6D位姿;利用预测的深度图Dt和相对相机姿态Pab,通过可微分双线性插值将It-1变形来合成
Figure RE-GDA0003577100850000024
类似地,得到图像
Figure RE-GDA0003577100850000025
最后,将
Figure RE-GDA0003577100850000026
输入到深度网中以获得
Figure RE-GDA0003577100850000027
通过不确定性分析的方法,在
Figure RE-GDA0003577100850000028
Figure RE-GDA0003577100850000029
之间构造损失函数LU
优选的,对于所述深度估计网络,本发明在DispNet上进行改进,该***将单个RGB图像作为输入并输出深度图。
优选的,对于所述姿态网络,本发明使用了没有掩码预测分支的网络DispNet。
优选的,所述步骤3具体为:
首先,根据Retinex算法的基本理论,得出如下表达式:
I(x,y)=R(x,y)×L(x,y);
其次,用低通滤波器通过卷积操作求解入射分量的过程可以表示为:
L(x,y)=I(x,y)*G(x,y);
再次,单尺度Retinex算法的数学求解过程如下式所示:
Figure RE-GDA0003577100850000031
其中,i∈r,g,b,表示R,G,B颜色通道,Ri(x,y)表示反射图像在第i个颜色通道的像素值, Ii(x,y)表示原始图像I在第i个颜色通道(x,y)处的像素值,*表示高斯卷积操作,G(x,y)表示高斯环绕函数;
Figure RE-GDA0003577100850000032
其中,σ代表高斯函数中的标准差,在这里称为尺度函数;
然后,深度估计是回归任务,回归任务优化时最常用的损失函数包括L2损失函数和L1 损失函数;
Figure RE-GDA0003577100850000033
Figure RE-GDA0003577100850000034
最后,根据以上,转换公式得出:
Figure RE-GDA0003577100850000035
Figure RE-GDA0003577100850000036
其中,N代表图像中的像素,ri(x,y)表示图像的入射光。
优选的,在对估计的深度图进行正则化之前先纳入了平滑度,使用的边缘感知平滑度损失,公式为:
Figure RE-GDA0003577100850000037
本发明的有益效果如下:本发明提出了一种基于不确定性的单眼深度估计方法,解决了深度图物体周围细节深度不清晰的问题,在KITTI数据集上可获得最先进的性能,本发明的方法是用无监督方式训练深度学***滑度损失和不确定性损失,与一般回归任务损失函数不同,本发明提出的不确定性损失函数不仅可以估计深度,而且可以通过预测方差获得估计深度的置信度。
为让本发明的上述和其他目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附图式,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的Retinex算法基本理论基础示意图;
图2是本发明的无监督单目深度估计方法示意图;
图3是本发明的DispNet网络结构示意图;
图4是本发明的实验结果图一;
图5是本发明的实验结果图二。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于不确定分析的无监督单目深度估计方法,包括以下步骤:
步骤1:提出一种基于不确定性的无监督深度估计网络,提高单目深度估计中预测深度精度;
步骤2:基于步骤1,通过建模不确定性,预测估计深度的置信度,同时提升模型预测精度,量化输出结果的不确定性;
步骤3:基于步骤1-2,使用Retinex光照理论构造亮度损失函数,根据Retinex算法的基本理论,再通过运算转化,解决场景中动态物体的干扰。
进一步地,所述步骤1具体为:在神经网络中的不确定性主要分为两个方面:模型不确定性和随机不确定性;模型不确定性主要是指模型参数的不确定性,当有多个模型效果优良时,需要从中选择最终的模型参数;当输入数据量足够大的时候,模型不确定性将变得很小;一般情况下,在训练时训练数据足够多,所以不确定分析中随机不确定占主要部分;
首先,定义似然函数:
p(y|y*)=N(y*2);
其中y表示观测的深度,y*表示模型输出的深度,σ2表示观测噪声方差;
其次,对似然函数进行求解:
Figure RE-GDA0003577100850000051
然后,确立目标函数:
Figure RE-GDA0003577100850000052
图像的深度估计是回归任务,L1的惩罚函数要优于L2惩罚函数;因为L1对小的预测误差优化效果好,这正好也符合深度估计的特性;所以,不确定分析的损失函数如下:
Figure RE-GDA0003577100850000053
最后,得出的损失函数为:
L=LR+LS+LU
进一步地,参照图2,从给定从未标记视频中采样的两个连续帧It和It-1,首先使用深度网络估算其深度图Dt和Dt-1,然后使用姿态网络Pab训练相机之间的相对6D位姿;利用预测的深度图Dt和相对相机姿态Pab,本发明通过可微分双线性插值将It-1变形来合成
Figure RE-GDA0003577100850000054
类似地,得到图像
Figure RE-GDA0003577100850000055
最后,将
Figure RE-GDA0003577100850000056
输入到深度网中以获得
Figure RE-GDA0003577100850000057
通过不确定性分析的方法,在
Figure RE-GDA0003577100850000058
Figure RE-GDA0003577100850000059
之间构造损失函数LU
进一步地,对于所述深度估计网络,本发明在DispNet上进行改进,该***将单个RGB 图像作为输入并输出深度图。
进一步地,参照图3,对于所述姿态网络,本发明使用了没有掩码预测分支的网络DispNet。
进一步地,所述步骤3具体为:Retinex的算法是建立在以下三个假设之上的:
(1)真实的物理世界是没有颜色的,人类所看到的色彩是自然光与客观世界的物质的互相作用的结果。
(2)物体中的每一颜色范围是一定波长的红、绿、蓝组成的。
(3)每个区域的颜色是由红、绿、蓝决定的。
参照图1,Retinex算法不同于线性、非线性的只能增强图像某一类特征的方法,Retinex 能够在动态范围内压缩、边缘增强和颜色恒常化三个方面达到平衡,所以可以对不同类型的图像自适应的增强,并且能够在颜色保真程度、图像边缘部分增强和动态范围压缩均有明显的提升,人看到的物体的图像是由物体表面对入射光反射得到的,反射率的大小由物体本身的性质所决定,不受入射光的变化而变化。
通过分析照射分量和反射分量,人们可以判断出图像中的照度信息和反射信息,从而解决因为照度变化引起的图像亮度和颜色变化,具体来说,是通过各种变换方法去掉影响人们视觉的照度信息,最大程度的保留物体的反射信息,因为物体的属性信息都包含在反射分量中,一直以来,人类模仿本身的视觉***发展了Retinex算法,从单尺度Retinex算法改进成多尺度加权平均的Retinex算法,再发展成彩色恢复多尺度Retinex算法;
首先,根据Retinex算法的基本理论,得出如下表达式:
I(x,y)=R(x,y)×L(x,y);
其次,单尺度Retinex算法的主要原理是将图像的三个通道分别与中心环绕函数进行卷积运算,卷积运算后的图像视为对原图光照分量的估计;
用低通滤波器通过卷积操作求解入射分量的过程可以表示为:
L(x,y)=I(x,y)*G(x,y);
再次,单尺度Retinex算法的数学求解过程如下式所示:
Figure RE-GDA0003577100850000061
其中,i∈r,g,b,表示R,G,B颜色通道,Ri(x,y)表示反射图像在第i个颜色通道的像素值, Ii(x,y)表示原始图像I在第i个颜色通道(x,y)处的像素值,*表示高斯卷积操作,G(x,y)表示高斯环绕函数;
Figure RE-GDA0003577100850000062
其中,σ代表高斯函数中的标准差,在这里称为尺度函数;标准差的大小对Retinex算法的影响很大;σ越小,增强后的图像会有较好的细节信息,但是容易出现图像失真和光晕现象;σ越大,增强后的图像颜色保持越好,但是图像的锐化程度较大,对比度增强效果较差;
然后,深度估计是回归任务,回归任务优化时最常用的损失函数包括L2损失函数和L1 损失函数;
Figure RE-GDA0003577100850000063
Figure RE-GDA0003577100850000064
平方运算使得L2损失函数对于异常值敏感,对于大的预测误差有不错的优化效果,但对于小的预测误差进一步优化能力差;L1损失函数则对于小的预测误差优化效果较好,大的预测误差优化效果一般,在实际训练时使用L1损失函数效果略优;本发明提出的不确定性损失函数结合了L1 Loss和神经网络中的异方差随机不确定性,由残差回归项和不确定性正则项两部分组成;
最后,根据以上,转换公式得出:
Figure RE-GDA0003577100850000071
Figure RE-GDA0003577100850000072
其中,N代表图像中的像素,ri(x,y)表示图像的入射光。
进一步地,由于光度损失在场景的低质感或均匀区域中无法提供充分信息,因此现有工作在对估计的深度图进行正则化之前先纳入了平滑度;使用的边缘感知平滑度损失,公式为:
Figure RE-GDA0003577100850000073
本发明进行了单目深度估计的实验,具体如下:设置本发明的实验环境,包括软件环境和硬件环境,其中软件环境为:Windows10 64位操作***、CUDA 9.1、cuDNN 7.1、Pytorch 深度学习框架、Python 3.7.0和MATLAB R2018a;硬件环境为:Intel(R)Core(TM)i7-7700 [email protected] processor、32GB RAM和NVIDIA GeForce GTX 1080Ti GPU、11GB;
本发明采用KITTI数据集进行单目深度估计实验,训练集中大约包涵42000张图片,而且没有地面真实值;在训练过程中,采用随机梯度下降法进行优化求解,利用反向传播算法不断更新训练网络的权重参数,初始学习率设置为0.001,动量因子设置为0.9,权重衰减因子设置为0.0005;学习率的大小与训练网络收敛速度密切相关,设置过大会使网络模型不收敛,设置过小会使网络模型收敛速度变慢;本发明中训练网络最大迭代次数为20000次,前 12000次学习率设置为0.001,12000次至16000次学习率设置为0.0001,16000次以后学习率设置为0.00001;
为了客观地评估提出地单目深度估计模型,采用以下四种评判标准对模型进行量化分析:
平均绝对相对误差(Rel):
Figure RE-GDA0003577100850000074
均方根误差:(RMS):
Figure RE-GDA0003577100850000075
平均log10误差(RMSlog):
阈值范围内准确率:
Figure RE-GDA0003577100850000076
参照图4,经过本发明提出的无监督深度估计方法,在测试集中随机的图片上进行实验,图4中最顶端的图片是原始图片,最下面的图片是本发明提供的算法,在图4中虚线框的位置,很明显看出本发明的算法在红绿灯周围深度没有过多“漂移”的现象,精度得到了提高,也是由于解决了动态物体干扰的原因;
参照图5,是相邻帧的四幅图片,也是用本发明提供的算法实现的,可以很容易看出在红绿灯的周围深度很好的改善。
Figure RE-GDA0003577100850000081
参照表格1和表格2,为了进一步验证本发明的实用性,分别以:“基础网络”,“基础网络+亮度损失”,“基础网络+不确定性”,“基础网络+亮度损失+不确定性”三种方法进行实验,三种实验方法都具有相同的平滑度损失;表格数据表明,本发明中的亮度损失和不确定性损失解决了精度低的问题;
表格1.消融实验1(输入图像的分辨率:416x128)
Figure RE-GDA0003577100850000082
表格2.消融实验2(输入图像的分辨率:832x256)
Figure RE-GDA0003577100850000083
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (7)

1.一种基于不确定分析的无监督单目深度估计方法,其特征在于,包括以下步骤:
步骤1:提出一种基于不确定性的无监督深度估计网络,提高单目深度估计中预测深度精度;
步骤2:基于步骤1,通过建模不确定性,预测估计深度的置信度,同时提升模型预测精度,量化输出结果的不确定性;
步骤3:基于步骤1-2,使用Retinex光照理论构造亮度损失函数,根据Retinex算法的基本理论,再通过运算转化,解决场景中动态物体的干扰。
2.根据权利要求1所述的一种基于不确定分析的无监督单目深度估计方法,其特征在于:
所述步骤1具体为:
首先,定义似然函数:
Figure DEST_PATH_IMAGE002
其中
Figure DEST_PATH_IMAGE004
表示观测的深度,
Figure DEST_PATH_IMAGE006
表示模型输出的深度,
Figure DEST_PATH_IMAGE008
表示观测噪声方差;
其次,对似然函数进行求解:
Figure 1
再次,确立目标函数:
Figure DEST_PATH_IMAGE012
图像的深度估计是回归任务,
Figure DEST_PATH_IMAGE014
的惩罚函数要优于
Figure DEST_PATH_IMAGE016
惩罚函数;
然后,不确定分析的损失函数如下:
Figure DEST_PATH_IMAGE018
最后,得出的损失函数为:
Figure DEST_PATH_IMAGE020
3.根据权利要求2所述的一种基于不确定分析的无监督单目深度估计方法,其特征在于:从给定从未标记视频中采样的两个连续帧
Figure DEST_PATH_IMAGE022
Figure DEST_PATH_IMAGE024
,首先使用深度网络估算其深度图
Figure DEST_PATH_IMAGE026
Figure DEST_PATH_IMAGE028
然后使用姿态网络
Figure DEST_PATH_IMAGE030
训练相机之间的相对6D位姿;利用预测的深度图
Figure 807568DEST_PATH_IMAGE026
和相对相机姿态
Figure 193550DEST_PATH_IMAGE030
,通过可微分双线性插值将
Figure 442128DEST_PATH_IMAGE024
变形来合成
Figure DEST_PATH_IMAGE032
,类似地,得到图像
Figure DEST_PATH_IMAGE034
最后,将(
Figure DEST_PATH_IMAGE036
)输入到深度网中以获得
Figure 2
,通过不确定性分析的方法,在
Figure DEST_PATH_IMAGE040
Figure DEST_PATH_IMAGE042
之间构造损失函数
Figure DEST_PATH_IMAGE044
4.根据权利要求1所述的一种基于不确定分析的无监督单目深度估计方法,其特征在于:对于所述深度估计网络,本发明在DispNet上进行改进,该DispNet***将单个RGB图像作为输入并输出深度图。
5.根据权利要求3所述的一种基于不确定分析的无监督单目深度估计方法,其特征在于:对于所述姿态网络,本发明使用了没有掩码预测分支的网络DispNet。
6.根据权利要求1所述的一种基于不确定分析的无监督单目深度估计方法,其特征在于:所述步骤3具体为:
首先,根据Retinex算法的基本理论,得出如下表达式:
Figure DEST_PATH_IMAGE046
其次,用低通滤波器通过卷积操作求解入射分量的过程可以表示为:
Figure DEST_PATH_IMAGE048
再次,单尺度Retinex算法的数学求解过程如下式所示:
Figure DEST_PATH_IMAGE050
其中,
Figure DEST_PATH_IMAGE052
,表示R,G,B颜色通道,
Figure DEST_PATH_IMAGE054
表示反射图像在第
Figure DEST_PATH_IMAGE056
个颜色通道的像素值,
Figure DEST_PATH_IMAGE058
表示原始图像
Figure DEST_PATH_IMAGE060
在第
Figure 729016DEST_PATH_IMAGE056
个颜色通道
Figure DEST_PATH_IMAGE062
处的像素值,*表示高斯卷积操作,
Figure DEST_PATH_IMAGE064
表示高斯环绕函数;
Figure DEST_PATH_IMAGE066
其中,
Figure DEST_PATH_IMAGE068
代表高斯函数中的标准差,在这里称为尺度函数;
然后,深度估计是回归任务,回归任务优化时最常用的损失函数包括L2损失函数和L1损失函数;
Figure DEST_PATH_IMAGE070
Figure DEST_PATH_IMAGE072
最后,根据以上,转换公式得出:
Figure DEST_PATH_IMAGE074
Figure DEST_PATH_IMAGE076
其中,N代表图像中的像素,
Figure DEST_PATH_IMAGE078
表示图像的入射光。
7.根据权利要求1所述的一种基于不确定分析的无监督单目深度估计方法,其特征在于:
在对估计的深度图进行正则化之前先纳入了平滑度,使用的边缘感知平滑度损失,公式为:
Figure DEST_PATH_IMAGE080
CN202111185472.5A 2021-10-12 2021-10-12 一种基于不确定分析的无监督单目深度估计方法 Pending CN114549297A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111185472.5A CN114549297A (zh) 2021-10-12 2021-10-12 一种基于不确定分析的无监督单目深度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111185472.5A CN114549297A (zh) 2021-10-12 2021-10-12 一种基于不确定分析的无监督单目深度估计方法

Publications (1)

Publication Number Publication Date
CN114549297A true CN114549297A (zh) 2022-05-27

Family

ID=81668506

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111185472.5A Pending CN114549297A (zh) 2021-10-12 2021-10-12 一种基于不确定分析的无监督单目深度估计方法

Country Status (1)

Country Link
CN (1) CN114549297A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114782782A (zh) * 2022-06-20 2022-07-22 武汉大学 一种单目深度估计模型学习性能的不确定性量化方法
CN114820755A (zh) * 2022-06-24 2022-07-29 武汉图科智能科技有限公司 一种深度图估计方法及***

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114782782A (zh) * 2022-06-20 2022-07-22 武汉大学 一种单目深度估计模型学习性能的不确定性量化方法
CN114782782B (zh) * 2022-06-20 2022-10-04 武汉大学 一种单目深度估计模型学习性能的不确定性量化方法
CN114820755A (zh) * 2022-06-24 2022-07-29 武汉图科智能科技有限公司 一种深度图估计方法及***

Similar Documents

Publication Publication Date Title
Li et al. Image dehazing using residual-based deep CNN
CN108986050B (zh) 一种基于多分支卷积神经网络的图像和视频增强方法
CN109685072B (zh) 一种基于生成对抗网络的复合降质图像高质量重建方法
CN103914813B (zh) 彩色雾霾图像去雾与光照补偿的复原方法
KR102261532B1 (ko) 단일 스케일 영상 융합에 기반한 안개 제거 시스템 및 방법
CN110544213A (zh) 一种基于全局和局部特征融合的图像去雾方法
CN109389569B (zh) 基于改进DehazeNet的监控视频实时去雾方法
CN114549297A (zh) 一种基于不确定分析的无监督单目深度估计方法
CN115063329A (zh) 低光照环境下的可见光和红外图像融合增强方法及***
Agrawal et al. A comprehensive review on analysis and implementation of recent image dehazing methods
CN115861380B (zh) 雾天低照度场景下端到端无人机视觉目标跟踪方法及装置
CN112703532B (zh) 图像处理方法、装置、设备及存储介质
CN111476133B (zh) 面向无人驾驶的前背景编解码器网络目标提取方法
CN111476213A (zh) 一种基于道路影像的遮挡物覆盖区域填充方法和装置
CN110969171A (zh) 基于改进卷积神经网络的图像分类模型、方法及应用
CN113284061B (zh) 一种基于梯度网络的水下图像增强方法
CN116797488A (zh) 一种基于特征融合与注意力嵌入的低照度图像增强方法
CN114170286B (zh) 一种基于无监督深度学习的单目深度估计方法
CN115775376A (zh) 一种基于低光图像增强的人群计数方法
CN106657948A (zh) 低照度Bayer图像的增强方法及增强装置
Moghimi et al. Real-time underwater image resolution enhancement using super-resolution with deep convolutional neural networks
CN110223240A (zh) 基于颜色衰减先验的图像去雾方法、***及存储介质
CN116596792A (zh) 一种面向智能船舶的内河雾天场景恢复方法、***及设备
Liang et al. Learning to remove sandstorm for image enhancement
Nentwig et al. Concerning the applicability of computer graphics for the evaluation of image processing algorithms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination