CN112102179B - 一种基于Retinex的深度网络单幅图像去雾方法 - Google Patents

一种基于Retinex的深度网络单幅图像去雾方法 Download PDF

Info

Publication number
CN112102179B
CN112102179B CN202010769566.6A CN202010769566A CN112102179B CN 112102179 B CN112102179 B CN 112102179B CN 202010769566 A CN202010769566 A CN 202010769566A CN 112102179 B CN112102179 B CN 112102179B
Authority
CN
China
Prior art keywords
image
defogging
illumination
network
residual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010769566.6A
Other languages
English (en)
Other versions
CN112102179A (zh
Inventor
李鹏越
田建东
唐延东
王国霖
张箴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Institute of Automation of CAS
Original Assignee
Shenyang Institute of Automation of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Institute of Automation of CAS filed Critical Shenyang Institute of Automation of CAS
Priority to CN202010769566.6A priority Critical patent/CN112102179B/zh
Publication of CN112102179A publication Critical patent/CN112102179A/zh
Application granted granted Critical
Publication of CN112102179B publication Critical patent/CN112102179B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于Retinex的深度网络单幅图像去雾方法。提出一种基于Retinex的去雾分解模型,并通过端到端的深度网络完成了模型的求解,获得了清晰的无雾图像。采用基于Retinex的去雾分解模型能更准确的描述有雾图像的构成形式,也便于引导深度网络对图像的残余光照图和自然光照下的无雾图像的分离与提取。利用深度网络强大的非线性拟合能力来求解模型,能够提高去雾算法的泛化能力,获得更加精确的参数估计结果。本文采用的基于Retinex的深度网络能更好地分解有雾图像,获得自然光照下的无雾图像。在合成图像和真实图像上的实验结果表明,该方法与经典图像去雾算法相比,具有较好的鲁棒性和有效性。

Description

一种基于Retinex的深度网络单幅图像去雾方法
技术领域
本发明涉及一种图像去雾算法,具体说是一种基于Retinex的深度网络单幅图像去雾方法。
背景技术
图像是视觉的基础,是计算机视觉获取并利用外界视觉信息的重要途径。然而,外界成像条件严重影响着图像质量,制约着计算机视觉研究领域的发展。复杂的光照条件和恶劣的天气是图像退化的主要原因,信噪比低、色偏、雾化和浑浊是图像退化的主要表现形式。在恶劣天气中,雾天气以其多发性和影响的严重性受到科研领域的广泛关注。雾天行人无法看清过往车辆,司机看不清前方行程,海上大雾将直接导致来往船只相撞。
图像去雾是一种通过算法或多传感器融合等技术去除图像中雾的干扰,提高图像的视觉效果,获取更多的有效视觉信息的图像处理技术。该技术主要分为两类:一类为基于物理模型的复原方法;一类为基于图像处理的增强方法。复原方法主要研究成像模型的建立与模型参数的求解,通过逆模型方法获得复原图像。增强方法则不考虑成像过程,直接调节图像像素值以及像素值分布,获得视觉效果较好的增强图像。
现有图像复原方法虽然能够得到较为自然的图像结果,但由于其使用的模型为简化模型,且需要估计的参数与引入的先验较多,因此算法的普适性和鲁棒性较差。图像增强方法由于未考虑成像过程,在实现全局增强的过程中,易造成图像突出部分的过度增强,导致图像失真和信息损失等问题。
发明内容
目前,图像去雾算法针对性较强,无法适用多变的雾天成像环境,普适性和鲁棒性很难达到实用要求。针对上述技术不足,本发明的目的是提供一种基于Retinex的深度网络单幅图像去雾方法。该方法采用的分解模型能更好地描述有雾图像的组成成分,且该方法在去雾方面,鲁棒性较好,泛化能力较强,处理速度较快,在多种有雾场景均能表现出良好的适应能力。
实现本发明目的所采用的具体技术方案如下:一种基于Retinex的深度网络单幅图像去雾方法,包括以下步骤:
步骤一:利用卷积层、池化层、残差密集连接网络块RDB和转置卷积层建立残余光照图像提取子网络、定义光照损失函数,扩充训练集图像并输入该子网络进行迭代训练、优化子网络模型用于输出对应的残余光照图像;
步骤二:根据基于Retinex方法的去雾分解模型计算无雾图像;
If(x,y)=Inf(x,y)*Lrf(x,y);
其中,If(x,y)表示有雾图像,Inf(x,y)表示无雾图像,Lrf表示残余光照图像;
步骤三:利用注意力机制网络块CSA、池化层、残差密集连接网络块RDB和转置卷积层建立空间域和通道域注意力机制的去雾U-Net子网络、定义去雾损失函数,将无雾图像输入该子网络进行迭代训练、优化子网络模型用于最终输出对应的自然光照下无雾图像;
步骤四:采集实际有雾图像依次输入优化后的残余光照图像提取子网络模型、空间域和通道域注意力机制的去雾U-Net子网络模型,得到处理后的自然光照下无雾图像。
所述训练集图像包括合成的有雾图像和无雾图像对。
所述扩充训练集图像的方法包括:对数据集进行裁剪、变换和旋转操作,避免由于数据集过小出现过拟合问题。
所述残余光照图像提取子网络的结构包括:
将有雾图像输入多个尺度的池化层进行下采样操作,获取多尺度图像数据;
将多尺度图像数据分别输入多个残差密集连接网络块RDB,提取多尺度特征;
将不同尺度特征输入转置卷积层上采样操作为统一尺寸,获得相同尺寸的多尺度特征;
将有雾图像和相同尺寸的多尺度特征串联后输入最后一层卷积层,输出残余光照图。
所述残差密集连接网络块RDB包括多个密集连接块DB、层级特征融合HFF模块和残差学习RL模块,用于提取有雾图像的多尺度特征。
是通过计算光照损失函数并与预设阈值比较判断残余光照图像提取子网络模型是否迭代截止:
式中:LL表示输出的残余光照图像的光照损失函数;和/>分别表示输出的残余光照图像的绝对损失函数、SSIM损失函数和光滑损失函数;ωal、ωsml和ωsl分别表示相应损失函数的权重。
所述去雾分解模型的推导过程如下:
根据Retinex理论可知,有雾图像可以描述为:
If(x,y)=R(x,y)*Lf(x,y)
式中:If表示有雾图像;R(x,y)表示反射图像;Lf表示受雾散射和吸收影响的光照图像;
去雾后的图像被定义为:
Inf(x,y)=R(x,y)*Ln(x,y)
式中:Inf表示无雾图像,Ln表示自然光照图像;
因此有雾图像可以被进一步分解为:
If(x,y)=Inf(x,y)*Lrf(x,y)
式中:Lrf(x,y)=Lf(x,y)/Ln(x,y),表示残余光照图像。
所述空间域和通道域注意力机制去雾U-Net的结构包括:
网络由收缩路径和扩张路径两部分组成:收缩路径用来获取语义信息,对称的扩张路径用来恢复位置信息;每一部分路径都包含四步,其中收缩路径的每一步均为残差密集连接网络块RDB和最大池化层组成,扩张路径的每一步均为残差密集连接网络块RDB和转置卷积层组成,并且在连接收缩路径和扩张路径之间设置注意力机制网络块CSA。
是通过计算去雾损失函数并与预设阈值比较判断空间域和通道域注意力机制的去雾U-Net子网络模型是否迭代截止:
式中:LD表示输出的自然光照下无雾图像的去雾损失函数;和/>分别表示输出的自然光照下无雾图像的绝对损失函数、SSIM损失函数和边缘损失函数;ωad、ωssd和ωegd分别表示相应损失函数的权重。
本发明的有益效果为:
1.本发明方法基于Retinex理论提出了新的有雾图像的分解方法,将原有雾图像分解为自然光照下的无雾图像和残余光照图像,描述了有雾图像的各组成成分之间的关系和差异,有效地用Retinex理论指导了图像的去雾过程。
2.本发明方法建立了残余光照图像提取子网络,该网络能够处理多尺度图像数据,并获得处理后的多尺度图像特征。
3.本发明方法建立了空间域和通道域注意力机制去雾U-Net,通过收缩路径来获取上下文信息以及用对称的扩张路径来精确定位,获得更加精细的去雾效果。
4.本发明方法提出的光照损失函数和去雾损失函数能更好地指导网络的训练,得到最终的去雾模型。
5.本发明方法的最终图像去雾结果较好,与其他方法相比,本发明方法具有较好的普适性和鲁棒性。
附图说明
图1是本发明整体深度网络框架;
图2是本发明用到的残差密集连接网络块;
图3是本发明用到的注意力机制网络块;
图4是合成雾图像去雾结果;
图5是真实雾图像去雾结果。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图,对本发明进行进一步详细说明。此处说明若涉及到具体实例时仅仅用以解释本发明,并不限定本发明。
本发明的具体框架如图1所示,方法主要分为五个步骤:建立基于Retinex理论的去雾分解模型、建立残余光照图像提取子网络、建立空间域和通道域注意力机制去雾U-Net、设定光照损失函数和去雾损失函数、完成网络优化和训练。
步骤一:建立基于Retinex理论的去雾分解模型,将有雾图像分解为然光照下的无雾图像和残余光照图像。
原图像去雾模型为大气散射简化模型,该模型对先验的依赖性较强且有多个未知参数需要估计,因此模型的普适性较差,在去雾算法应用中,降低了算法的鲁棒性和自适应能力。Retinex理论是一种常用的建立在科学实验和科学分析基础上的图像增强方法,该理论认为:物体的颜色是由物体对不同波长的光的反射能力决定的,和光源无光,物体色彩不受光照非均匀性的影响,具有一致性。Retinex理论应用于图像去雾的研究主要集中在提升提取的光照图的精确度,以获得更好的不受光照影响的反射图像。然而,在去雾任务中,获得自然光照下的无雾图像比获得真实的反射图像更加重要。因此我们需要重新推导去雾分解模型。
根据Retinex理论可知,有雾图像可以描述为:
If(x,y)=R(x,y)*Lf(x,y), (1)
式中:If表示有雾图像;R(x,y)表示反射图像;Lf表示受雾的散射和吸收影响的光照图像,去雾后的图像被定义为:
Inf(x,y)=R(x,y)*Ln(x,y), (2)
式中:Inf表示自然光照下的无雾图像;Ln表示自然光照图像。因此有雾图像可以被进一步分解为:
If(x,y)=Inf(x,y)*Lrf(x,y), (3)
式中:Lrf(x,y)=Lf(x,y)/Ln(x,y),表示残余光照图像。因此,根据该有雾图像分解模型,去雾的主要步骤为获得残余光照图像。
步骤二:利用卷积层、池化层、残差密集连接网络块(residual dense block,RDB)和转置卷积层,建立残余光照图像提取子网络,对输入的图像进行处理并计算光照损失函数判断残余光照图像提取子网络是否优化合格,获取优化的残余光照图像提取子网络,最终输出此时的残余光照图像。
首先将输入图像通过卷积层提升维度以便后面的网络层能提取更丰富的特征,然后将提取到的特征送入多次度模块进一步提取多尺度的特征,通常,小尺寸的图像能够较好地突出图像的全局信息,而大尺寸的图像能够更好地保持图像的局部信息。因此,首先本文对输入的有雾图像通过卷积层提取特征图后进行下采样操作,将其分为三个尺度:1/2、1/4、1/8,形成多尺度图像数据。然后将多尺度图像数据分别送入不用尺寸的残差密集连接网络块(RDB),提取多尺度特征。然后将不同尺度特征上采样为统一尺寸,获得相同尺寸的不同尺度特征。最后将有雾图像和相同尺寸的不同尺度特征串联传入到末端卷积层,输出残余光照图(如图1所示),再根据公式If(x,y)=Inf(x,y)*Lrf(x,y)得到去雾图像Inf(x,y),并计算光照损失函数判断残余光照图像提取子网络是否优化合格,获取优化的残余光照图像提取子网络,最终输出此时的残余光照图像。
其中残差密集连接网络块(RDB)如图2所示,RDB包括密集连接块(DB)、层级特征融合(HFF)和残差学习(RL)三部分,密集连接块通过充分利用每一层的特征来提取图像特征,层级特征融合(HFF)通过1*1的卷积来融合密集块提取的特征,残差学习(RL)进一步融合了密集块之前的图像特征使网络加深时不容易出现梯度消失。该网络块能够充分利用所有卷积层提取到的特征来提高整个网络块的效能。
步骤三:利用注意力机制网络块(channel and spatial attention block,CSA)、池化层、残差密集连接网络块(RDB)和转置卷积层,建立空间域和通道域注意力机制去雾U-Net,对输入的去雾图像Inf(x,y)进行处理并计算去雾损失函数判断空间域和通道域注意力机制去雾U-Net网络是否优化合格,获取优化的空间域和通道域注意力机制去雾U-Net网络,最终输出自然光照下的无雾图像。
网络由收缩路径和扩张路径两部分组成:收缩路径(contracting path)用来获取上下文语义信息(例如:雾浓度、背景语义),对称的扩张路径(expanding path)用来恢复位置信息。每一部分路径都包含四步,其中收缩路径的每一步均为残差密集连接网络块(RDB)和最大池化层的组合,扩张路径的每一步均为残差密集连接网络块(RDB)和转置卷积层的组合,并且在连接收缩路径和扩张路径的跳跃连接中引入了由注意力机制网络块(CSA)。
其中注意力机制网络块(CSA)(如图3所示)能够根据当前像素处雾浓度来调节复原系数(权重),对图像中的不同像素按权重给予不同的关注度。注意力机制网络块包括通道注意力和空间注意力。通道注意力是通过最大池化层(MaxPool)和平均池化层(AvgPool)来分别提取图像共性的全局特征和差异性的全局特征,然后通过包含一层隐含层的多层感知机(MLP)获取1维的通道注意力。空间注意力通过尺度不变最大池化层(MaxPool)、平均池化层(AvgPool)和一层卷积层来获取空间的注意力。注意力机制能够给雾重的像素大的权重使去雾更彻底,给雾轻的像素小的权重来避免过度去雾的问题。
步骤四:设定光照损失函数和去雾损失函数。
在残余光照图像提取子网络中的光照损失函数的表达式为:
式中:i是图像序列号,LL表示光照损失函数;和/>分别表示绝对损失函数、SSIM损失函数和光滑损失函数;ωal、ωsml和ωsl分别表示相应损失函数的权重。
其中光滑损失函数的表达式为:
式中:i是图像序列号,表示像素点p的残余光照值;/>和/>分别表示在图像空间的水平方向和垂直方向的偏导数。
空间域和通道域注意力机制去雾U-Net的去雾损失函数的表达式为:
式中:LD表示去雾损失函数;和/>分别表示绝对损失函数、SSIM损失函数和边缘损失函数;ωad、ωssd和ωegd分别表示相应损失函数的权重。
其中,边缘损失函数的表达式为:
式中:Ecanny()w,h为canny边缘检测算子;Idh为去雾结果,Igt为真正的无雾图像。
步骤五:扩充数据集中的训练集。
对数据集进行裁剪、变换和旋转操作,避免由于数据集过小出现过拟合问题。
利用公式(3)从数据集中的有雾图像和相应的无雾图像获取图像对的残余光照图像。
步骤六:利用训练集进行网络训练。
首先利用有雾和无雾图像对残余光照图像提取子网络进行单独训练,然后将训练好的子网络代入整体网络框架,优化空间域和通道域注意力机制去雾U-Net,最后进行网络的整体优化,获得最终优化结果。
图4和图5是本发明方法在合成雾图像和真实雾图像上的去雾结果。本发明方法在处理不同深度和不同雾浓度的有雾图像时,处理结果较为稳定和自然;在处理天空区域时,具有更好的保真度;在处理高亮度图像时,未出现过饱和问题。本发明方法能够通过单幅图像实现残余光照图像提取和图像去雾,所用模型能更好地描述有雾图像的组成成分。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以做出若干改进和润饰,这些改进和润饰应视为本发明的保护范围。

Claims (8)

1.一种基于Retinex的深度网络单幅图像去雾方法,其特征在于,包括以下步骤:
步骤一:利用卷积层、池化层、残差密集连接网络块RDB和转置卷积层建立残余光照图像提取子网络、定义光照损失函数,扩充训练集图像并输入该子网络进行迭代训练、优化子网络模型用于输出对应的残余光照图像;
步骤二:根据基于Retinex方法的去雾分解模型计算无雾图像;
If(x,y)=Inf(x,y)*Lrf(x,y);
其中,If(x,y)表示有雾图像,Inf(x,y)表示无雾图像,Lrf表示残余光照图像;
步骤三:利用注意力机制网络块CSA、池化层、残差密集连接网络块RDB和转置卷积层建立空间域和通道域注意力机制的去雾U-Net子网络、定义去雾损失函数,将无雾图像输入该子网络进行迭代训练、优化子网络模型用于最终输出对应的自然光照下无雾图像;
步骤四:采集实际有雾图像依次输入优化后的残余光照图像提取子网络模型、空间域和通道域注意力机制的去雾U-Net子网络模型,得到处理后的自然光照下无雾图像。
2.根据权利要求1所述的一种基于Retinex的深度网络单幅图像去雾方法,其特征在于,所述训练集图像包括合成的有雾图像和无雾图像对。
3.根据权利要求1或2所述的一种基于Retinex的深度网络单幅图像去雾方法,其特征在于,所述扩充训练集图像的方法包括:对数据集进行裁剪、变换和旋转操作,避免由于数据集过小出现过拟合问题。
4.根据权利要求1所述的一种基于Retinex的深度网络单幅图像去雾方法,其特征在于,所述残余光照图像提取子网络的结构包括:
将有雾图像输入多个尺度的池化层进行下采样操作,获取多尺度图像数据;
将多尺度图像数据分别输入多个残差密集连接网络块RDB,提取多尺度特征;
将不同尺度特征输入转置卷积层上采样操作为统一尺寸,获得相同尺寸的多尺度特征;
将有雾图像和相同尺寸的多尺度特征串联后输入最后一层卷积层,输出残余光照图。
5.根据权利要求1所述的一种基于Retinex的深度网络单幅图像去雾方法,其特征在于,是通过计算光照损失函数并与预设阈值比较判断残余光照图像提取子网络模型是否迭代截止:
式中:LL表示输出的残余光照图像的光照损失函数;和/>分别表示输出的残余光照图像的绝对损失函数、SSIM损失函数和光滑损失函数;ωal、ωsml和ωsl分别表示相应损失函数的权重。
6.根据权利要求1所述的一种基于Retinex的深度网络单幅图像去雾方法,其特征在于,所述去雾分解模型的推导过程如下:
根据Retinex理论可知,有雾图像可以描述为:
If(x,y)=R(x,y)*Lf(x,y)
式中:If表示有雾图像;R(x,y)表示反射图像;Lf表示受雾散射和吸收影响的光照图像;
去雾后的图像被定义为:
Inf(x,y)=R(x,y)*Ln(x,y)
式中:Inf表示无雾图像,Ln表示自然光照图像;
因此有雾图像可以被进一步分解为:
If(x,y)=Inf(x,y)*Lrf(x,y)
式中:Lrf(x,y)=Lf(x,y)/Ln(x,y),表示残余光照图像。
7.根据权利要求1所述的一种基于Retinex的深度网络单幅图像去雾方法,其特征在于,所述空间域和通道域注意力机制去雾U-Net的结构包括:
网络由收缩路径和扩张路径两部分组成:收缩路径用来获取语义信息,对称的扩张路径用来恢复位置信息;每一部分路径都包含四步,其中收缩路径的每一步均为残差密集连接网络块RDB和最大池化层组成,扩张路径的每一步均为残差密集连接网络块RDB和转置卷积层组成,并且在连接收缩路径和扩张路径之间设置注意力机制网络块CSA。
8.根据权利要求1所述的一种基于Retinex的深度网络单幅图像去雾方法,其特征在于,是通过计算去雾损失函数并与预设阈值比较判断空间域和通道域注意力机制的去雾U-Net子网络模型是否迭代截止:
式中:LD表示输出的自然光照下无雾图像的去雾损失函数;和/>分别表示输出的自然光照下无雾图像的绝对损失函数、SSIM损失函数和边缘损失函数;ωad、ωssd和ωegd分别表示相应损失函数的权重。
CN202010769566.6A 2020-08-04 2020-08-04 一种基于Retinex的深度网络单幅图像去雾方法 Active CN112102179B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010769566.6A CN112102179B (zh) 2020-08-04 2020-08-04 一种基于Retinex的深度网络单幅图像去雾方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010769566.6A CN112102179B (zh) 2020-08-04 2020-08-04 一种基于Retinex的深度网络单幅图像去雾方法

Publications (2)

Publication Number Publication Date
CN112102179A CN112102179A (zh) 2020-12-18
CN112102179B true CN112102179B (zh) 2023-08-29

Family

ID=73749522

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010769566.6A Active CN112102179B (zh) 2020-08-04 2020-08-04 一种基于Retinex的深度网络单幅图像去雾方法

Country Status (1)

Country Link
CN (1) CN112102179B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112991201B (zh) * 2021-02-18 2024-04-05 西安理工大学 一种基于颜色校正和上下文聚合残差网络的图像去雾方法
CN113393386B (zh) * 2021-05-18 2022-03-01 电子科技大学 一种基于特征解耦的非成对图像对比去雾方法
CN113962901B (zh) * 2021-11-16 2022-08-23 中国矿业大学(北京) 一种基于深度学习网络的矿山图像粉尘去除方法及***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2020100274A4 (en) * 2020-02-25 2020-03-26 Huang, Shuying DR A Multi-Scale Feature Fusion Network based on GANs for Haze Removal
CN111161360A (zh) * 2019-12-17 2020-05-15 天津大学 基于Retinex理论的端到端网络的图像去雾方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111161360A (zh) * 2019-12-17 2020-05-15 天津大学 基于Retinex理论的端到端网络的图像去雾方法
AU2020100274A4 (en) * 2020-02-25 2020-03-26 Huang, Shuying DR A Multi-Scale Feature Fusion Network based on GANs for Haze Removal

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于卷积分析稀疏表示和相位一致性的低照度图像增强;周浦城;张杰;薛模根;尹璋堃;;电子学报(第01期);全文 *

Also Published As

Publication number Publication date
CN112102179A (zh) 2020-12-18

Similar Documents

Publication Publication Date Title
CN112102179B (zh) 一种基于Retinex的深度网络单幅图像去雾方法
CN106910175B (zh) 一种基于深度学习的单幅图像去雾算法
CN108986050B (zh) 一种基于多分支卷积神经网络的图像和视频增强方法
CN109299274B (zh) 一种基于全卷积神经网络的自然场景文本检测方法
CN108921799B (zh) 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法
CN111915530B (zh) 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法
CN109509156B (zh) 一种基于生成对抗模型的图像去雾处理方法
CN110728640B (zh) 一种双通道单幅图像精细去雨方法
Agrawal et al. A comprehensive review on analysis and implementation of recent image dehazing methods
CN111179196B (zh) 一种基于分而治之的多分辨率深度网络图像去高光方法
CN113409267A (zh) 一种基于深度学习的路面裂缝检测与分割方法
CN115131797A (zh) 一种基于特征增强金字塔网络的场景文本检测方法
Das et al. A comparative study of single image fog removal methods
CN111598814A (zh) 基于极端散射通道的单图像去雾方法
CN117994167B (zh) 融合并行多卷积注意力的扩散模型去雾方法
CN114155165A (zh) 一种基于半监督的图像去雾方法
Ding et al. Restoration of single sand-dust image based on style transformation and unsupervised adversarial learning
CN110738624B (zh) 一种区域自适应的图像去雾***及方法
CN117152642A (zh) 基于无人机的生态环境监管***及其方法
CN116385293A (zh) 基于卷积神经网络的雾天自适应目标检测方法
CN115496764A (zh) 一种基于密集特征融合的有雾图像语义分割方法
CN114862724A (zh) 一种基于指数移动平均知识蒸馏的对比式图像去雾方法
CN113936022A (zh) 一种基于多模态特征与极化注意力的图像去雾方法
Wang et al. Frequency and content dual stream network for image dehazing
Wenkuana et al. Hazy images segmentation method based on improved DeeplabV3

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant