CN114549297A - 一种基于不确定分析的无监督单目深度估计方法 - Google Patents
一种基于不确定分析的无监督单目深度估计方法 Download PDFInfo
- Publication number
- CN114549297A CN114549297A CN202111185472.5A CN202111185472A CN114549297A CN 114549297 A CN114549297 A CN 114549297A CN 202111185472 A CN202111185472 A CN 202111185472A CN 114549297 A CN114549297 A CN 114549297A
- Authority
- CN
- China
- Prior art keywords
- depth
- depth estimation
- uncertainty
- function
- unsupervised
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000004458 analytical method Methods 0.000 title claims description 7
- 230000006870 function Effects 0.000 claims abstract description 48
- 238000013076 uncertainty analysis Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 12
- 238000005457 optimization Methods 0.000 claims description 10
- 238000005286 illumination Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 239000000126 substance Substances 0.000 claims 2
- 238000013527 convolutional neural network Methods 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 3
- 238000002679 ablation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 125000001475 halogen functional group Chemical group 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于不确定性的无监督单目深度估计方法,首先提出一种基于不确定性的无监督深度估计网络,用于改进单目深度估计中预测深度精度低的问题,这种不确定性学***滑度损失和不确定性损失,不仅可以估计深度,而且可以通过预测方差获得估计深度的置信度。
Description
技术领域
本发明涉及了计算机视觉技术领域,具体是一种基于不确定分析的无监督单目深度估计方法。
背景技术
深度估计通常对于计算机视觉中的各种高级任务至关重要,例如自动驾驶,增强现实等等。在汽车智能辅助驾驶***和智能车载视觉***中也是核心技术。结合深度估计的深度信息,能够达到监测车辆运行状态,完善前向碰撞预警***。一般情况下,车辆的行驶速度较快,因而对车距测量的要求较高,在双目和多目***中摄像头之间的协同性不好调节,所以本发明是基于单目摄像头展开研究的。从成本上来看,单目视觉比双目和多目***更加节省成本。除此之外,单目视觉在数据处理方面计算量比双目和多目要小得多,可以更好的兼顾实时性,是现代智能辅助驾驶***和智能车载视觉***中的研究热点和前沿领域。目前单目深度数据集较为匮乏,只能在特定数据集下的场景进行训练。另外,单目深度估计中深度图物体周围细节深度不清晰,动态物体干扰多,卷积神经网络无法评估输出结果可靠性也是亟待解决的问题。基于以上问题,本发明提出一种基于不确定性的无监督单目深度估计方法。
发明内容
为了克服现有技术中的缺陷,本发明实施例提供了一种基于不确定分析的无监督单目深度估计方法,来解决上述背景技术中提出的问题。
本发明公开了:一种基于不确定分析的无监督单目深度估计方法,其特征在于,包括以下步骤:
步骤1:提出一种基于不确定性的无监督深度估计网络,提高单目深度估计中预测深度精度;
步骤2:基于步骤1,通过建模不确定性,预测估计深度的置信度,同时提升模型预测精度,量化输出结果的不确定性;
步骤3:基于步骤1-2,使用Retinex光照理论构造亮度损失函数,根据Retinex算法的基本理论,再通过运算转化,解决由于场景中动态物体的干扰。
优选的,所述步骤1具体为:
首先,定义似然函数:
p(y|y*)=N(y*,σ2);
其中y表示观测的深度,y*表示模型输出的深度,σ2表示观测噪声方差;
其次,对似然函数进行求解:
再次,确立目标函数:
图像的深度估计是回归任务,L1的惩罚函数要优于L2惩罚函数;
然后,不确定分析的损失函数如下:
最后,得出的损失函数为:
L=LR+LS+LU。
优选的,从给定从未标记视频中采样的两个连续帧It和It-1,首先使用深度网络估算其深度图Dt和Dt-1;
优选的,对于所述深度估计网络,本发明在DispNet上进行改进,该***将单个RGB图像作为输入并输出深度图。
优选的,对于所述姿态网络,本发明使用了没有掩码预测分支的网络DispNet。
优选的,所述步骤3具体为:
首先,根据Retinex算法的基本理论,得出如下表达式:
I(x,y)=R(x,y)×L(x,y);
其次,用低通滤波器通过卷积操作求解入射分量的过程可以表示为:
L(x,y)=I(x,y)*G(x,y);
再次,单尺度Retinex算法的数学求解过程如下式所示:
其中,i∈r,g,b,表示R,G,B颜色通道,Ri(x,y)表示反射图像在第i个颜色通道的像素值, Ii(x,y)表示原始图像I在第i个颜色通道(x,y)处的像素值,*表示高斯卷积操作,G(x,y)表示高斯环绕函数;
其中,σ代表高斯函数中的标准差,在这里称为尺度函数;
然后,深度估计是回归任务,回归任务优化时最常用的损失函数包括L2损失函数和L1 损失函数;
最后,根据以上,转换公式得出:
其中,N代表图像中的像素,ri(x,y)表示图像的入射光。
优选的,在对估计的深度图进行正则化之前先纳入了平滑度,使用的边缘感知平滑度损失,公式为:
本发明的有益效果如下:本发明提出了一种基于不确定性的单眼深度估计方法,解决了深度图物体周围细节深度不清晰的问题,在KITTI数据集上可获得最先进的性能,本发明的方法是用无监督方式训练深度学***滑度损失和不确定性损失,与一般回归任务损失函数不同,本发明提出的不确定性损失函数不仅可以估计深度,而且可以通过预测方差获得估计深度的置信度。
为让本发明的上述和其他目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附图式,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的Retinex算法基本理论基础示意图;
图2是本发明的无监督单目深度估计方法示意图;
图3是本发明的DispNet网络结构示意图;
图4是本发明的实验结果图一;
图5是本发明的实验结果图二。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于不确定分析的无监督单目深度估计方法,包括以下步骤:
步骤1:提出一种基于不确定性的无监督深度估计网络,提高单目深度估计中预测深度精度;
步骤2:基于步骤1,通过建模不确定性,预测估计深度的置信度,同时提升模型预测精度,量化输出结果的不确定性;
步骤3:基于步骤1-2,使用Retinex光照理论构造亮度损失函数,根据Retinex算法的基本理论,再通过运算转化,解决场景中动态物体的干扰。
进一步地,所述步骤1具体为:在神经网络中的不确定性主要分为两个方面:模型不确定性和随机不确定性;模型不确定性主要是指模型参数的不确定性,当有多个模型效果优良时,需要从中选择最终的模型参数;当输入数据量足够大的时候,模型不确定性将变得很小;一般情况下,在训练时训练数据足够多,所以不确定分析中随机不确定占主要部分;
首先,定义似然函数:
p(y|y*)=N(y*,σ2);
其中y表示观测的深度,y*表示模型输出的深度,σ2表示观测噪声方差;
其次,对似然函数进行求解:
然后,确立目标函数:
图像的深度估计是回归任务,L1的惩罚函数要优于L2惩罚函数;因为L1对小的预测误差优化效果好,这正好也符合深度估计的特性;所以,不确定分析的损失函数如下:
最后,得出的损失函数为:
L=LR+LS+LU。
进一步地,参照图2,从给定从未标记视频中采样的两个连续帧It和It-1,首先使用深度网络估算其深度图Dt和Dt-1,然后使用姿态网络Pab训练相机之间的相对6D位姿;利用预测的深度图Dt和相对相机姿态Pab,本发明通过可微分双线性插值将It-1变形来合成类似地,得到图像最后,将输入到深度网中以获得通过不确定性分析的方法,在和之间构造损失函数LU;
进一步地,对于所述深度估计网络,本发明在DispNet上进行改进,该***将单个RGB 图像作为输入并输出深度图。
进一步地,参照图3,对于所述姿态网络,本发明使用了没有掩码预测分支的网络DispNet。
进一步地,所述步骤3具体为:Retinex的算法是建立在以下三个假设之上的:
(1)真实的物理世界是没有颜色的,人类所看到的色彩是自然光与客观世界的物质的互相作用的结果。
(2)物体中的每一颜色范围是一定波长的红、绿、蓝组成的。
(3)每个区域的颜色是由红、绿、蓝决定的。
参照图1,Retinex算法不同于线性、非线性的只能增强图像某一类特征的方法,Retinex 能够在动态范围内压缩、边缘增强和颜色恒常化三个方面达到平衡,所以可以对不同类型的图像自适应的增强,并且能够在颜色保真程度、图像边缘部分增强和动态范围压缩均有明显的提升,人看到的物体的图像是由物体表面对入射光反射得到的,反射率的大小由物体本身的性质所决定,不受入射光的变化而变化。
通过分析照射分量和反射分量,人们可以判断出图像中的照度信息和反射信息,从而解决因为照度变化引起的图像亮度和颜色变化,具体来说,是通过各种变换方法去掉影响人们视觉的照度信息,最大程度的保留物体的反射信息,因为物体的属性信息都包含在反射分量中,一直以来,人类模仿本身的视觉***发展了Retinex算法,从单尺度Retinex算法改进成多尺度加权平均的Retinex算法,再发展成彩色恢复多尺度Retinex算法;
首先,根据Retinex算法的基本理论,得出如下表达式:
I(x,y)=R(x,y)×L(x,y);
其次,单尺度Retinex算法的主要原理是将图像的三个通道分别与中心环绕函数进行卷积运算,卷积运算后的图像视为对原图光照分量的估计;
用低通滤波器通过卷积操作求解入射分量的过程可以表示为:
L(x,y)=I(x,y)*G(x,y);
再次,单尺度Retinex算法的数学求解过程如下式所示:
其中,i∈r,g,b,表示R,G,B颜色通道,Ri(x,y)表示反射图像在第i个颜色通道的像素值, Ii(x,y)表示原始图像I在第i个颜色通道(x,y)处的像素值,*表示高斯卷积操作,G(x,y)表示高斯环绕函数;
其中,σ代表高斯函数中的标准差,在这里称为尺度函数;标准差的大小对Retinex算法的影响很大;σ越小,增强后的图像会有较好的细节信息,但是容易出现图像失真和光晕现象;σ越大,增强后的图像颜色保持越好,但是图像的锐化程度较大,对比度增强效果较差;
然后,深度估计是回归任务,回归任务优化时最常用的损失函数包括L2损失函数和L1 损失函数;
平方运算使得L2损失函数对于异常值敏感,对于大的预测误差有不错的优化效果,但对于小的预测误差进一步优化能力差;L1损失函数则对于小的预测误差优化效果较好,大的预测误差优化效果一般,在实际训练时使用L1损失函数效果略优;本发明提出的不确定性损失函数结合了L1 Loss和神经网络中的异方差随机不确定性,由残差回归项和不确定性正则项两部分组成;
最后,根据以上,转换公式得出:
其中,N代表图像中的像素,ri(x,y)表示图像的入射光。
进一步地,由于光度损失在场景的低质感或均匀区域中无法提供充分信息,因此现有工作在对估计的深度图进行正则化之前先纳入了平滑度;使用的边缘感知平滑度损失,公式为:
本发明进行了单目深度估计的实验,具体如下:设置本发明的实验环境,包括软件环境和硬件环境,其中软件环境为:Windows10 64位操作***、CUDA 9.1、cuDNN 7.1、Pytorch 深度学习框架、Python 3.7.0和MATLAB R2018a;硬件环境为:Intel(R)Core(TM)i7-7700 [email protected] processor、32GB RAM和NVIDIA GeForce GTX 1080Ti GPU、11GB;
本发明采用KITTI数据集进行单目深度估计实验,训练集中大约包涵42000张图片,而且没有地面真实值;在训练过程中,采用随机梯度下降法进行优化求解,利用反向传播算法不断更新训练网络的权重参数,初始学习率设置为0.001,动量因子设置为0.9,权重衰减因子设置为0.0005;学习率的大小与训练网络收敛速度密切相关,设置过大会使网络模型不收敛,设置过小会使网络模型收敛速度变慢;本发明中训练网络最大迭代次数为20000次,前 12000次学习率设置为0.001,12000次至16000次学习率设置为0.0001,16000次以后学习率设置为0.00001;
为了客观地评估提出地单目深度估计模型,采用以下四种评判标准对模型进行量化分析:
平均绝对相对误差(Rel):
均方根误差:(RMS):
平均log10误差(RMSlog):
阈值范围内准确率:
参照图4,经过本发明提出的无监督深度估计方法,在测试集中随机的图片上进行实验,图4中最顶端的图片是原始图片,最下面的图片是本发明提供的算法,在图4中虚线框的位置,很明显看出本发明的算法在红绿灯周围深度没有过多“漂移”的现象,精度得到了提高,也是由于解决了动态物体干扰的原因;
参照图5,是相邻帧的四幅图片,也是用本发明提供的算法实现的,可以很容易看出在红绿灯的周围深度很好的改善。
参照表格1和表格2,为了进一步验证本发明的实用性,分别以:“基础网络”,“基础网络+亮度损失”,“基础网络+不确定性”,“基础网络+亮度损失+不确定性”三种方法进行实验,三种实验方法都具有相同的平滑度损失;表格数据表明,本发明中的亮度损失和不确定性损失解决了精度低的问题;
表格1.消融实验1(输入图像的分辨率:416x128)
表格2.消融实验2(输入图像的分辨率:832x256)
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (7)
1.一种基于不确定分析的无监督单目深度估计方法,其特征在于,包括以下步骤:
步骤1:提出一种基于不确定性的无监督深度估计网络,提高单目深度估计中预测深度精度;
步骤2:基于步骤1,通过建模不确定性,预测估计深度的置信度,同时提升模型预测精度,量化输出结果的不确定性;
步骤3:基于步骤1-2,使用Retinex光照理论构造亮度损失函数,根据Retinex算法的基本理论,再通过运算转化,解决场景中动态物体的干扰。
4.根据权利要求1所述的一种基于不确定分析的无监督单目深度估计方法,其特征在于:对于所述深度估计网络,本发明在DispNet上进行改进,该DispNet***将单个RGB图像作为输入并输出深度图。
5.根据权利要求3所述的一种基于不确定分析的无监督单目深度估计方法,其特征在于:对于所述姿态网络,本发明使用了没有掩码预测分支的网络DispNet。
6.根据权利要求1所述的一种基于不确定分析的无监督单目深度估计方法,其特征在于:所述步骤3具体为:
首先,根据Retinex算法的基本理论,得出如下表达式:
其次,用低通滤波器通过卷积操作求解入射分量的过程可以表示为:
再次,单尺度Retinex算法的数学求解过程如下式所示:
然后,深度估计是回归任务,回归任务优化时最常用的损失函数包括L2损失函数和L1损失函数;
最后,根据以上,转换公式得出:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111185472.5A CN114549297A (zh) | 2021-10-12 | 2021-10-12 | 一种基于不确定分析的无监督单目深度估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111185472.5A CN114549297A (zh) | 2021-10-12 | 2021-10-12 | 一种基于不确定分析的无监督单目深度估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114549297A true CN114549297A (zh) | 2022-05-27 |
Family
ID=81668506
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111185472.5A Pending CN114549297A (zh) | 2021-10-12 | 2021-10-12 | 一种基于不确定分析的无监督单目深度估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114549297A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114782782A (zh) * | 2022-06-20 | 2022-07-22 | 武汉大学 | 一种单目深度估计模型学习性能的不确定性量化方法 |
CN114820755A (zh) * | 2022-06-24 | 2022-07-29 | 武汉图科智能科技有限公司 | 一种深度图估计方法及*** |
-
2021
- 2021-10-12 CN CN202111185472.5A patent/CN114549297A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114782782A (zh) * | 2022-06-20 | 2022-07-22 | 武汉大学 | 一种单目深度估计模型学习性能的不确定性量化方法 |
CN114782782B (zh) * | 2022-06-20 | 2022-10-04 | 武汉大学 | 一种单目深度估计模型学习性能的不确定性量化方法 |
CN114820755A (zh) * | 2022-06-24 | 2022-07-29 | 武汉图科智能科技有限公司 | 一种深度图估计方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Image dehazing using residual-based deep CNN | |
CN108986050B (zh) | 一种基于多分支卷积神经网络的图像和视频增强方法 | |
CN109685072B (zh) | 一种基于生成对抗网络的复合降质图像高质量重建方法 | |
CN103914813B (zh) | 彩色雾霾图像去雾与光照补偿的复原方法 | |
KR102261532B1 (ko) | 단일 스케일 영상 융합에 기반한 안개 제거 시스템 및 방법 | |
CN110544213A (zh) | 一种基于全局和局部特征融合的图像去雾方法 | |
CN109389569B (zh) | 基于改进DehazeNet的监控视频实时去雾方法 | |
CN114549297A (zh) | 一种基于不确定分析的无监督单目深度估计方法 | |
CN115063329A (zh) | 低光照环境下的可见光和红外图像融合增强方法及*** | |
Agrawal et al. | A comprehensive review on analysis and implementation of recent image dehazing methods | |
CN115861380B (zh) | 雾天低照度场景下端到端无人机视觉目标跟踪方法及装置 | |
CN112703532B (zh) | 图像处理方法、装置、设备及存储介质 | |
CN111476133B (zh) | 面向无人驾驶的前背景编解码器网络目标提取方法 | |
CN111476213A (zh) | 一种基于道路影像的遮挡物覆盖区域填充方法和装置 | |
CN110969171A (zh) | 基于改进卷积神经网络的图像分类模型、方法及应用 | |
CN113284061B (zh) | 一种基于梯度网络的水下图像增强方法 | |
CN116797488A (zh) | 一种基于特征融合与注意力嵌入的低照度图像增强方法 | |
CN114170286B (zh) | 一种基于无监督深度学习的单目深度估计方法 | |
CN115775376A (zh) | 一种基于低光图像增强的人群计数方法 | |
CN106657948A (zh) | 低照度Bayer图像的增强方法及增强装置 | |
Moghimi et al. | Real-time underwater image resolution enhancement using super-resolution with deep convolutional neural networks | |
CN110223240A (zh) | 基于颜色衰减先验的图像去雾方法、***及存储介质 | |
CN116596792A (zh) | 一种面向智能船舶的内河雾天场景恢复方法、***及设备 | |
Liang et al. | Learning to remove sandstorm for image enhancement | |
Nentwig et al. | Concerning the applicability of computer graphics for the evaluation of image processing algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |