CN112164010A - 一种多尺度融合卷积神经网络图像去雾方法 - Google Patents
一种多尺度融合卷积神经网络图像去雾方法 Download PDFInfo
- Publication number
- CN112164010A CN112164010A CN202011069293.0A CN202011069293A CN112164010A CN 112164010 A CN112164010 A CN 112164010A CN 202011069293 A CN202011069293 A CN 202011069293A CN 112164010 A CN112164010 A CN 112164010A
- Authority
- CN
- China
- Prior art keywords
- convolution
- image
- layer
- neural network
- graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 34
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 11
- 238000002834 transmittance Methods 0.000 claims abstract description 41
- 238000001914 filtration Methods 0.000 claims abstract description 21
- 230000002146 bilateral effect Effects 0.000 claims abstract description 14
- 238000007781 pre-processing Methods 0.000 claims abstract description 11
- 238000003062 neural network model Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 21
- 230000004913 activation Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000012417 linear regression Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 6
- 230000000007 visual effect Effects 0.000 abstract description 3
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种多尺度融合卷积神经网络图像去雾方法,步骤如下:S1、搭建去雾图像预处理模型,对原始有雾图像进行预处理,提取有雾图像浅层特征;S2、构建多尺度融合卷积神经网络模型,深度学习有雾图像特征,得到粗透射率图;S3、对多尺度融合卷积神经网络模型得到的粗透射率图使用双边滤波进行优化,得到细透射率图;S4、使用粗传播率图和原始有雾图像求大气光值,根据大气散射模型和细透射率图复原得到无雾图。本发明复杂度低、处理速度较快,实现了更精确的无雾图像的复原,具有很好的视觉效果。
Description
技术领域
本发明属于图像去雾技术领域,具体涉及一种多尺度融合卷积神经网络图像去雾方法。
背景技术
受雾霾等恶劣天气的影响,大气中悬浮的尘粒和水滴在大气光的散射和吸收中形成雾霾,导致被观测物体的反射光在到达相机或监控设备前产生衰减,最终得到的户外图像质量下降,图像的色彩饱和度和对比度下降,从而丢失很多重要的细节信息,不利于图像特征的提取和辨识,也增加了对图像进行后续处理的难度。因此,研究如何对雾天场景下获得的退化图像进行有效处理,对大气退化图像的复原和景物细节信息的增强有着非常重要的意义。
目前,得到有雾图像的透射率图已成为去雾技术的关键。如CAI提出的方法利用卷积神经网络来学习有雾图像的特征以估计透射率图,进而反演出无雾图像。但该卷积神经网络较浅,对于很多特定场景,易出现颜色失真、细节丢失和去雾过度等现象。
发明内容
本发明针对传统去雾算法对于各种先验信息的依赖和深度学习算法对于雾图细节信息丢失的问题,提出了一种多尺度融合卷积神经网络(CNN)图像去雾算法。该方法通过学习雾天图像与大气透射率之间的映射关系实现图像去雾。在模型建立过程中,根据大气散射形成雾图的机理,设计了一个端到端的多尺度融合CNN深度学习模型。首先通过卷积层运算搭建去雾图像预处理模型,提取有雾图像的浅层特征,接着利用多尺度卷积核并行提取得到雾图的深层特征,然后提取到的深层特征进行特征融合,通过非线性回归得到雾图对应的粗透射率图。对多尺度融合卷积神经网络模型得到的粗透射率图使用双边滤波进行优化,得到细透射率图。最后根据大气散射模型和细透射率图复原得到无雾图。
为实现上述目的,本发明采用以下技术方案:一种多尺度融合卷积神经网络图像去雾方法,步骤如下:
S1、搭建去雾图像预处理模型,对原始有雾图像进行预处理,提取有雾图像浅层特征;
S2、构建多尺度融合卷积神经网络模型,深度学习有雾图像特征,得到粗透射率图;
S3、对多尺度融合卷积神经网络模型得到的粗透射率图使用双边滤波进行优化,得到细透射率图;
S4、使用粗传播率图和原始有雾图像求大气光值,根据大气散射模型和细透射率图复原得到无雾图。
为优化上述技术方案,采取的具体措施还包括:
步骤S1具体如下:
采用2个连续尺寸大小为3×3的卷积层,对原始有雾图像进行预处理,每层卷积核之间通过局部连接、权值共享的方式与输入图像进行运算,提取有雾图像浅层特征,卷积公式为:
式中,*表示卷积,m和a为特征图的个数;c表示第c个卷积层;fa,c+1为第c+1卷积层输出的a个特征图,Xm,a,c+1为第c+1层的卷积核,σ[·]为激活函数,ba,c+1为第c+1卷积层的偏置项,激活函数σ[·]选择改进的带参数的修正线性单元LRelu。
进一步地,步骤S2中,对预处理后的有雾图像,分别使用尺寸大小为3×3、5×5、7×7的卷积核进行多尺度卷积,进一步提取特征信息,卷积后对各卷积层得到的特征信息进行特征融合;特征融合后的特征图再进行一次多尺度特征提取,分别使用的卷积核尺寸大小为3×3、5×5、7×7,提取不同尺度的特征信息,提取后对各卷积层得到的特征图再进行一次特征融合,最终得到特征信息图;每一层激活函数使用LRelu;多尺度卷积计算公式为:
Fsi(Y)=Wsi*Fs-1(Y)
其中,Fsi表示s层的第i组特征图,Fs-1表示s-1层的第i-1组特征图,Wsi(i=1,2,3)表示s层的第i组卷积核,*表示卷积。
进一步地,步骤S2中,得到特征信息图后,在卷积操作时使用3个连续的3×3的卷积层;引入BN层归一化处理,使得数据变为均值为0方差为1的正态分布,激活函数使用LRelu。
进一步地,在网络模型的最后一层采用卷积核大小为1×1以及非线性回归产生最后的粗略的透射率图。
进一步地,步骤S3中,对得到的粗透射率图首先经图像扩展,然后根据所设定的空域和值域滤波半径σd和σr分别进行平面高斯滤波和值域高斯滤波,空域和值域高斯滤波结果分别为ω1,ω2,以ω=ω1*ω2为双边滤波加权算子,根据双边滤波器的模型实现透射率图的细化,得到最终的透射率图。
进一步地,双边滤波器模型为:
式中,f(k,l)为图像中心点(k,l)的像素值;g(i,j)为图像中点(i,j)的像素;ω(i,j,k,l)为权值系数,可表示为:
进一步地,已知透射率图t(x)和全局大气光值A.则无雾图像J(x)通过以下公式得到:
本发明的有益效果:利用本发明的去雾算法,应用公共图像数据库进行图像去雾处理及对比研究,测试结果表明:SSIM(结构相似度)达到0.97以上,PSNR(峰值信噪比)的值达到0.25以上,本算法复杂度低、处理速度较快,实现了更精确的无雾图像的复原,具有很好的视觉效果。
附图说明
图1是本发明的多尺度融合卷积神经网络图像去雾方法的示意图。
图2是本发明多尺度融合卷积神经网络模型的网络框架。
图3a是本发明的图像去雾前的有雾图像。
图3b是本发明的粗透射率图像。
图3c是本发明的图像经过去雾后的无雾图像。
具体实施方式
现在结合附图对本发明作进一步详细的说明。
本发明提供了一种多尺度融合卷积神经网络图像去雾方法,步骤如下:
S1、搭建去雾图像预处理模型,由该模型对原始有雾图像进行预处理,提取有雾图像浅层特征。
去雾图像预处理模型的搭建,首先采用2个连续尺寸大小为3×3的卷积层,对原始图像进行预处理。每层卷积核之间通过局部连接、权值共享的方式与输入图像进行运算,以实现有雾图像浅层特征的提取,卷积公式为:
式中,*表示卷积,m和a为特征图的个数;c表示第c个卷积层;fa,c+1为第c+1卷积层输出的a个特征图,Xm,a,c+1为第c+1层的卷积核,σ[·]为激活函数,ba,c+1为第c+1卷积层的偏置项。在选择激活函数σ[·]时,采用改进的带参数的修正线性单元LRelu。
S2、构建多尺度融合卷积神经网络模型,深度学习有雾图像特征,得到粗透射率图。
多尺度融合卷积神经网络的构建如下:对得到预处理后的有雾图像,分别使用尺寸大小为3×3、5×5、7×7的卷积核进行多尺度卷积,以进一步提取特征信息,卷积后对各卷积层得到的特征信息进行特征融合。融合后的特征图再进行一次多尺度特征提取,在此过程中同样选取不同尺度卷积核,使用的卷积核尺寸大小为3×3、5×5、7×7,可以提取不同尺度的特征信息,提取后对各卷积层得到的特征图再进行一次特征融合,最终得到特征信息图。每一层激活函数使用LRelu。多尺度卷积计算公式为:
Fsi(Y)=Wsi*Fs-1(Y)
其中,Fsi表示s层的第i组特征图,Fs-1表示s-1层的第i-1组特征图,Wsi(i=1,2,3)表示s层的第i组卷积核,*表示卷积。
得到特征信息图以后,为了获得较多的特征信息和更深层的感受野信息,在卷积操作时使用3个连续的3×3的卷积层。为了保证模型的非线性表达能力,加快运算速度,引入了BN层归一化处理,使得数据变为均值为0方差为1的正态分布,激活函数使用LRelu。在网络模型的最后一层采用卷积核大小为1×1以及非线性回归产生最后的粗略的透射率图。
网络模型采用随机梯度下降算法(SGD)进行优化训练,目标损失函数选择为均方根误差函数。
本发明的一个实施例中,卷积神经网络去雾模型的构建如下:
第一个卷积层:15个3×3的卷积核(Kernel),“无有效填充”模式,步长为1,然后激活函数(LReLU)激活特征。
第二个卷积层:15个为3×3的卷积核(Kernel),“无有效填充”模式,步长为1,然后激活函数(LReLU)激活特征。
第一个卷积层、第二个卷积层,搭建去雾图像预处理模型,提取有雾图像浅层特征。
第三个卷积层:分别使用尺寸大小为3×3、5×5、7×7的卷积核进行多尺度卷积,每层卷积核数量为15个。“无有效填充”模式,步长为1,然后激活函数(LReLU)激活特征,最后特征融合。
第四个卷积层:分别使用尺寸大小为3×3、5×5、7×7的卷积核进行多尺度卷积,每层卷积核数量为15个。“无有效填充”模式,步长为1,然后激活函数(LReLU)激活特征,最后特征融合。
第五个卷积层:10个为3x3的卷积核(Kernel),“无有效填充”模式,步长为1,然后然后归一化(Batch-Normalize),激活函数(LReLU)激活特征。
第六个卷积层:10个为3×3的卷积核(Kernel),“无有效填充”模式,步长为1,然后然后归一化(Batch-Normalize),激活函数(LReLU)激活特征。
第七个卷积层:10个为3×3的卷积核(Kernel),“无有效填充”模式,步长为1,然后然后归一化(Batch-Normalize),激活函数(LReLU)激活特征。
第八个卷积层:1个1×1的卷积核(Kernel),LRelu非线性回归。
S3、对多尺度融合卷积神经网络模型得到的粗透射率图使用双边滤波进行优化,得到细透射率图。
对得到的粗透射率图首先需经图像扩展(扩展的模板半径为r)以满足处理的维度需要,然后根据所设定的空域和值域滤波半径σd和σr分别进行平面高斯滤波和值域高斯滤波,空域和值域高斯滤波结果分别为ω1,ω2,以ω=ω1*ω2为双边滤波加权算子,根据双边滤波器的模型实现透射率图的细化,得到最终的透射率图。
双边滤波器模型为:
式中,f(k,l)为图像中心点(k,l)的像素值;g(i,j)为图像中点(i,j)的像素;ω(i,j,k,l)为权值系数,可表示为:
S4、使用粗传播率图和原始有雾图像求大气光值A,根据大气散射模型和细透射率图复原得到无雾图。
使用粗传播率图和有雾图像求大气光值A,根据大气散射模型和细透射率图复原得到无雾图。
大气散射模型,其数学表达式如下:
I(x,y)=t(x,y)J(x,y)+A(1-t(x,y))
其中,I(x,y)为获得的有雾图像;J(x,y)为去雾后的无雾图像;A为场景中大气光值;t(x,y)为物体的反射光透射率图,可定义为:
t(x,y)=e-bd(x,y)
其中,b为大气的散射系数,d(x,y)为物体与成像设备间的距离。
可以计算出,当图像中场景深度趋于无穷远时,有t(x)=0,由此得出A=I(x)。因此,通过在粗透射率图t(x)中,选择0.1%的最暗像素[t(x)→0的像素],然后在原始有雾图像I(x)中寻找对应位置具有最高亮度的像素,即可计算得到A。
已知透射率图t(x)和全局大气光值A,则无雾图像J(x)可以通过以下公式得到:
其中,t0是传播率图中前1%低像素值的临界点。
应用公共图像数据库进行图像图像去雾处理及对比研究,测试结果表明:SSIM(结构相似度)达到0.97以上,PSNR(峰值信噪比)的值达到0.25以上,本算法复杂度低、处理速度较快,对图像的纹理等深层特征深度提取,实现了更精确的无雾图像的复原,具有很好的视觉效果。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。
Claims (8)
1.一种多尺度融合卷积神经网络图像去雾方法,其特征在于,步骤如下:
S1、搭建去雾图像预处理模型,对原始有雾图像进行预处理,提取有雾图像浅层特征;
S2、构建多尺度融合卷积神经网络模型,深度学习有雾图像特征,得到粗透射率图;
S3、对多尺度融合卷积神经网络模型得到的粗透射率图使用双边滤波进行优化,得到细透射率图;
S4、使用粗传播率图和原始有雾图像求大气光值,根据大气散射模型和细透射率图复原得到无雾图。
3.如权利要求2所述的多尺度融合卷积神经网络图像去雾方法,其特征在于,步骤S2中,对预处理后的有雾图像,分别使用尺寸大小为3×3、5×5、7×7的卷积核进行多尺度卷积,进一步提取特征信息,卷积后对各卷积层得到的特征信息进行特征融合;特征融合后的特征图再进行一次多尺度特征提取,分别使用的卷积核尺寸大小为3×3、5×5、7×7,提取不同尺度的特征信息,提取后对各卷积层得到的特征图再进行一次特征融合,最终得到特征信息图;每一层激活函数使用LRelu;多尺度卷积计算公式为:
Fsi(Y)=Wsi*Fs-1(Y)
其中,Fsi表示s层的第i组特征图,Fs-1表示s-1层的第i-1组特征图,Wsi(i=1,2,3)表示s层的第i组卷积核,*表示卷积。
4.如权利要求3所述的多尺度融合卷积神经网络图像去雾方法,其特征在于,步骤S2中,得到特征信息图后,在卷积操作时使用3个连续的3×3的卷积层;引入BN层归一化处理,使得数据变为均值为0方差为1的正态分布,激活函数使用LRelu。
5.如权利要求3所述的多尺度融合卷积神经网络图像去雾方法,其特征在于,在网络模型的最后一层采用卷积核大小为1×1以及非线性回归产生最后的粗略的透射率图。
6.如权利要求1所述的多尺度融合卷积神经网络图像去雾方法,其特征在于,步骤S3中,对得到的粗透射率图首先经图像扩展,然后根据所设定的空域和值域滤波半径σd和σr分别进行平面高斯滤波和值域高斯滤波,空域和值域高斯滤波结果分别为ω1,ω2,以ω=ω1*ω2为双边滤波加权算子,根据双边滤波器的模型实现透射率图的细化,得到最终的透射率图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011069293.0A CN112164010A (zh) | 2020-09-30 | 2020-09-30 | 一种多尺度融合卷积神经网络图像去雾方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011069293.0A CN112164010A (zh) | 2020-09-30 | 2020-09-30 | 一种多尺度融合卷积神经网络图像去雾方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112164010A true CN112164010A (zh) | 2021-01-01 |
Family
ID=73861094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011069293.0A Pending CN112164010A (zh) | 2020-09-30 | 2020-09-30 | 一种多尺度融合卷积神经网络图像去雾方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112164010A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114387187A (zh) * | 2022-01-13 | 2022-04-22 | 河海大学 | 一种雨雪雾天实时可视增强嵌入式***及可视增强方法 |
CN114648467A (zh) * | 2022-05-18 | 2022-06-21 | 中山大学深圳研究院 | 图像的去雾方法、装置、终端设备及计算机可读存储介质 |
CN116579951A (zh) * | 2023-06-05 | 2023-08-11 | 海南大学 | 浅层特征与深层特征融合的图像去雾网络及方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110097522A (zh) * | 2019-05-14 | 2019-08-06 | 燕山大学 | 一种基于多尺度卷积神经网络的单幅户外图像去雾方法 |
-
2020
- 2020-09-30 CN CN202011069293.0A patent/CN112164010A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110097522A (zh) * | 2019-05-14 | 2019-08-06 | 燕山大学 | 一种基于多尺度卷积神经网络的单幅户外图像去雾方法 |
Non-Patent Citations (5)
Title |
---|
FEINIU YUAN 等: "Image dehazing based on a transmission fusion strategy by automatic image matting", 《COMPUTER VISION AND IMAGE UNDERSTANDING》, pages 261 - 262 * |
WENQI REN 等: "Single Image Dehazing via Multi-scale Convolutional Neural Networks", 《EUROPEAN CONFERENCE ON COMPUTER VISION》, pages 154 * |
乔丹 等: "基于多尺度融合卷积神经网络的图像去雾方法", 《液晶与显示》, pages 1420 - 1429 * |
寇大磊 等: "基于多尺度卷积网络的快速图像去雾算法", 《计算机工程与应用》, pages 191 - 198 * |
陈清江 等: "基于全卷积神经网络的图像去雾方法", 《应用光学》, pages 1 - 7 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114387187A (zh) * | 2022-01-13 | 2022-04-22 | 河海大学 | 一种雨雪雾天实时可视增强嵌入式***及可视增强方法 |
CN114387187B (zh) * | 2022-01-13 | 2024-04-26 | 河海大学 | 一种雨雪雾天实时可视增强嵌入式***及可视增强方法 |
CN114648467A (zh) * | 2022-05-18 | 2022-06-21 | 中山大学深圳研究院 | 图像的去雾方法、装置、终端设备及计算机可读存储介质 |
CN116579951A (zh) * | 2023-06-05 | 2023-08-11 | 海南大学 | 浅层特征与深层特征融合的图像去雾网络及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Image dehazing using residual-based deep CNN | |
CN111915530B (zh) | 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法 | |
CN109272455B (zh) | 基于弱监督生成对抗网络的图像去雾方法 | |
CN112164010A (zh) | 一种多尺度融合卷积神经网络图像去雾方法 | |
Lin et al. | Dehazing for image and video using guided filter | |
CN110378849B (zh) | 基于深度残差网络的图像去雾去雨方法 | |
CN109509156B (zh) | 一种基于生成对抗模型的图像去雾处理方法 | |
CN109389569B (zh) | 基于改进DehazeNet的监控视频实时去雾方法 | |
CN110097522B (zh) | 一种基于多尺度卷积神经网络的单幅户外图像去雾方法 | |
CN111709888B (zh) | 一种基于改进的生成对抗网络的航拍图像去雾方法 | |
CN111539246B (zh) | 一种跨光谱人脸识别方法、装置、电子设备及其存储介质 | |
Ganguly et al. | Single image haze removal with haze map optimization for various haze concentrations | |
Mai et al. | Back propagation neural network dehazing | |
Bansal et al. | A review of image restoration based image defogging algorithms | |
CN111598814B (zh) | 基于极端散射通道的单图像去雾方法 | |
CN105023246B (zh) | 一种基于对比度和结构相似度的图像增强方法 | |
Qian et al. | CIASM-Net: a novel convolutional neural network for dehazing image | |
CN103778605A (zh) | 一种雾天图像增强方法 | |
Babu et al. | An efficient image dahazing using Googlenet based convolution neural networks | |
CN112102214B (zh) | 一种基于直方图与神经网络的图像去雾方法 | |
CN107301625B (zh) | 基于亮度融合网络的图像去雾方法 | |
Bartani et al. | An adaptive optic-physic based dust removal method using optimized air-light and transfer function | |
CN110738624B (zh) | 一种区域自适应的图像去雾***及方法 | |
CN116385293A (zh) | 基于卷积神经网络的雾天自适应目标检测方法 | |
Song et al. | An adaptive real-time video defogging method based on context-sensitiveness |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210101 |