CN115953312A - 一种基于单幅图像的联合去雾检测方法、装置及存储介质 - Google Patents

一种基于单幅图像的联合去雾检测方法、装置及存储介质 Download PDF

Info

Publication number
CN115953312A
CN115953312A CN202211660527.8A CN202211660527A CN115953312A CN 115953312 A CN115953312 A CN 115953312A CN 202211660527 A CN202211660527 A CN 202211660527A CN 115953312 A CN115953312 A CN 115953312A
Authority
CN
China
Prior art keywords
detection
image
feature
defogging
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211660527.8A
Other languages
English (en)
Inventor
张国庆
方文宣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN202211660527.8A priority Critical patent/CN115953312A/zh
Publication of CN115953312A publication Critical patent/CN115953312A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于单幅图像的联合去雾检测方法、装置及存储介质,所述方法包括获取PASCAL‑VOC2012数据集,使用大气散射模型方程对数据集进行雾化处理,生成不同浓度的雾天图像;将雾天图像输入预先构建的检测网络模型进行检测,其中,检测网络模型包括特征提取模块和颈部检测模块;检测时,将雾天图像输入特征提取模块中,提取雾天图像上不同分辨率的特征图;根据不同分辨率的特征图进行向量之间的特征融合,并输入至颈部检测模块进行检测,获得不同分辨率的检测结果,本发明具有检测精度高、实时性和应用性较强、漏检率低等优点,提升了检测模型在雾天场景中的表现。

Description

一种基于单幅图像的联合去雾检测方法、装置及存储介质
技术领域
本发明涉及一种基于单幅图像的联合去雾检测方法、装置及存储介质,属于计算机视觉图像技术领域。
背景技术
受现实条件中雾霾雨雪等天气影响,成像设备捕获的图像往往质量偏低,存在对比度低,画质模糊等现象。而这些降质图像不仅仅影响人的感官视觉,同时更会影响基于深度学习的目标检测算法的性能。目标检测算法作为视频监控、自动驾驶等诸多实际应用的重要问题,需要面对诸多的现实天气。而现存的大部分检测算法由于不同训练集的域差异问题不能很好的适用于雾霾天气。设计出能够应用于复杂天气下的检测框架已然成为一个重要的研究问题。
现有中国专利文献公开了申请号为CN110837800A的一种面向港口恶劣天气的目标检测和识别的方法,该算法通过车载摄像头采集彩色图像进行去雾处理,再使用深度学习技术将被雾遮挡的背景进行动静识别,达到提高目标检测准确度。但该方法将去雾算法作为检测任务的前置条件,严重依赖于去雾算法的优劣,同时会增加大量的计算,在实际应用中并不可靠。另外还有域自适应雾天目标检测方法来提高目标检测器的性能,基于不同域的训练策略用来拉近雾天和晴天数据集之前的特征差异。而这类方法需要使用不同的数据集,而现实的数据集难以获得,并标注成本过大。
发明内容
本发明的目的在于克服现有技术中的不足,提供一种基于单幅图像的联合去雾检测方法、装置及存储介质,具有检测精度高、实时性和应用性较强、漏检率低等优点,提升了检测模型在雾天场景中的表现。
为达到上述目的,本发明是采用下述技术方案实现的:
第一方面,本发明提供了一种基于单幅图像的联合去雾检测方法,包括:
获取PASCAL-VOC2012数据集,使用大气散射模型方程对数据集进行雾化处理,生成不同浓度的雾天图像;
将雾天图像输入预先构建的检测网络模型进行检测,其中,检测网络模型包括特征提取模块和颈部检测模块;
检测时,将雾天图像输入特征提取模块中,提取雾天图像上不同分辨率的特征图;
根据不同分辨率的特征图进行向量之间的特征融合,并输入至颈部检测模块进行检测,获得不同分辨率的检测结果。
进一步的,将雾天图像输入特征提取模块中,提取雾天图像上不同分辨率的特征图,包括:
通过随机函数生成随机值,根据随机值的大小对雾天图像进行随机裁剪;
将裁剪后的雾天图像进行不同方向的旋转,获得增强后的雾天图像;
将增强后的雾天图像输入到预先构建的特征提取模块中,并保留每个阶段提取的特征图。
进一步的,所述根据不同分辨率的特征图进行向量之间的特征融合,并输入至颈部检测模块进行检测,获得不同分辨率的检测结果,包括:
将不同分辨率的特征图进行向量之间的特征融合后进行全局信息的采集,获取特征向量的全局上下文特征,再通过softmax得到相应的注意力图;
将注意力图与原始局部特征进行元素级相乘,得到上下文特征注意力图,
将上下文特征注意力图中每一个通道的特征层内所有值相加到局部特征上,
得到全局聚合特征;
根据全局聚合特征输出得到不同分辨率的检测特征向量,分别得到不同分辨率的检测结果。
进一步的,所述检测网络模型还包括去雾重建模块,所述图像去雾模块在特征提取模块之后,用于重建无雾的图像。
进一步的,还包括:将不同分辨率的特征图输入至去雾重建模块,清除图像上的雾霾并重建图像,具体包括:
将不同分辨率的特征图输入至去雾重建模块中预设的上采样模块中进行上采样,获取上采样特征图;
通过特征提取模块保留的每个阶段特征图,使各阶段的特征向量与去雾重建模块的上采样特征图进行补充融合得到更全面的全局特征;
使用上采样模块不断的扩大低分辨率特征图,最终放大成原图大小,获得重建图像。
进一步的,所述检测网络模型的训练方法,包括:
获取PASCAL-VOC2012数据集,通过大气散射模型对数据集中的图像进行雾化处理,生成新的voc_fog数据集;
将生成的voc_fog数据集划分为训练集和测试集,加载训练集对检测网络模型进行训练,得到训练后的检测网络模型;
采用测试集对训练后的检测网络模型进行测试,获取最优的检测网络模型。
进一步的,还包括:获取真实雾天数据集RTTS,输入到最优的检测网络模型,产生不同标注目标的正确比例和平均正确率,验证模型在真实场景的鲁棒性。
第二方面,本发明提供一种基于单幅图像的联合去雾检测装置,包括:
雾天图像生成模块,用于获取PASCAL-VOC2012数据集,使用大气散射模型方程对数据集进行雾化处理,生成不同浓度的雾天图像;
特征提取模块,用于将雾天图像输入特征提取模块中,提取雾天图像上不同分辨率的特征图;
检测模块,用于根据不同分辨率的特征图进行向量之间的特征融合,并输入至颈部检测模块进行检测,获得不同分辨率的检测结果。
第三方面,本发明提供一种电子设备,包括处理器及存储介质;
所述存储介质用于存储指令;
所述处理器用于根据所述指令进行操作以执行根据前述任一项所述方法的步骤。
第四方面,本发明提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现前述任一项所述方法的步骤。
与现有技术相比,本发明所达到的有益效果:
本发明提供一种基于单幅图像的联合去雾检测方法、装置及存储介质,区别于传统暗通道去雾方法,采用轻量级的神经网络去雾方法,具有处理速度快,容易部署,鲁棒性高的优点,它节省了去雾过程所需的成本,并且也在检测框精度和漏检率上得到改善,同时在真实的雾天的数据集上表现良好,具有较好的泛化性能,高鲁棒性的特点能够使得该发明在无人驾驶,交通检测等应用场景发挥作用。
附图说明
图1是本发明提供的基于单幅图像的联合去雾检测算法流程图;
图2是本发明提供的基于单幅图像的联合去雾检测算法的结构图;
图3是本发明提供的颈部检测模块的全局特征聚合模块结构图;
图4本发明提供的图像去雾重建模块的详细设计结构图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
实施例1
本实施例介绍一种基于单幅图像的联合去雾检测方法,包括:
获取PASCAL-VOC2012数据集,使用大气散射模型方程对数据集进行雾化处理,生成不同浓度的雾天图像;
将雾天图像输入预先构建的检测网络模型进行检测,其中,检测网络模型包括特征提取模块和颈部检测模块;
检测时,将雾天图像输入特征提取模块中,提取雾天图像上不同分辨率的特征图;
根据不同分辨率的特征图进行向量之间的特征融合,并输入至颈部检测模块进行检测,获得不同分辨率的检测结果。
如图1所示,本实施例提供的基于单幅图像的联合去雾检测方法,其应用过程具体涉及如下步骤:
S1、基于经典的PSCAL-VOC2012数据集,根据大气散射模型建立了一个voc_fog数据集。为了避免在训练过程中生成有雾图像的计算成本,选择离线方式构建数据集。根据大气散射模型,雾化图像I(x)有下列公式得出:
I(x)=J(x)ed(x)+A(1-ed(x))
d(x)的定义如下:
Figure BDA0004013658490000061
公式中ρ为从当前像素到中心像素的欧氏距离,row和col分别为图像的行数和列数。通过设置A=0.5和β=0.01*i+0.05,其中i是一个从0到9的整数,可以向每个图像添加10个不同级别的雾。基于PSCAL-VOC2012的训练集,生成了一个10倍大的voc_fog_train数据集。为了获得voc_fog_test数据集,对PSCAL-VOC2012的验证集中的每幅图像都进行了雾的随机处理。
S2、如图2所示,基于PyTorch搭建一种基于单幅图像的联合去雾检测算法框架;
具体实施时,去雾检测联合算法框架包括了特征提取模块、图像去雾重建模块、颈部检测模块。
所述的特征提取模块采用的使DarkNet53网络,将有雾的图像输入到骨干提取网络中,每张图像都映射Ft∈RC×H×W,其中C、H、W分别为特征映射的通道、高、宽三个维度的长度。其中特征提取模块产出多个输出
Figure BDA0004013658490000062
特征提取模块输出的特征向量作用于图像去雾重建模块和颈部检测模块。
所述的图像去雾模块在特征提取模块之后,用于重建无雾的图像。将特征提取模块映射的特征输入到图像去雾重建模块。该模块从特征向量fdark5上采样重建图像。经过五个阶段,每个阶段将图像分辨率扩大2倍。为了补偿在重建过程中丢失的图像边界信息,选择采用SKFusion层来弥补低层信息的丢失。利用多种感受野特征图融合的思想,将注意力机制应用于感受野,通过训练,让不同大小的目标不再只是通过单一尺度的感受野提取特征,而通过不同大小感受野的自适应加权组合提取特征。某一重建特征向量为
Figure BDA0004013658490000071
结合特征提取模块的
Figure BDA0004013658490000072
的特征向量,首先使用一个线性层f(·)来将
Figure BDA0004013658490000073
投影到
Figure BDA0004013658490000074
使用全局平均池化GAP(·)、感知机Fmlp(·)、softmax函数和分割操作来获得融合权值:
Figure BDA0004013658490000075
最后通过一个线性残差边来聚合{a1,a2}和
Figure BDA0004013658490000076
的权重。通过浅层和深层特征融合的过程缓解了图像细节丢失的问题,使重建的图像更符合人的感官视觉。
所述的颈部检测模块用于得出图像中的检测框。区别于原始的YOLOXs特征金字塔,引入了全局上下文模块来统一建模全局信息。颈部检测模块接收DarkNet53的三个局部特征向量fdark3,fdark4,fdark5,通过对两两局部特征向量进行融合后进行全局信息的采集。如图2所示,全局上下文模块分为两个部分,Context Modeling和Transform,ContextModeling是采用简化版的Non-local获得空间上的全局信息,Transform是采用SENet捕捉不同通道上的特征。某一局部特征向量
Figure BDA0004013658490000077
通过全局关系集合得到Wk∈R1×h×w,再通过softmax得到相应的注意力图,然后此注意力图与原始局部特征进行元素级相乘,由此可以得到Wv1∈Rc×h×w,最后将每一个通道的特征层内所有值相加到局部特征上得到最后的全局聚合特征
Figure BDA0004013658490000078
计算方法为:
Figure BDA0004013658490000079
在经过金字塔结构后会得到三个维度不同的特征向量,通过三个特征向量通过三个检测头预测不同大小的物体。
S3、将生成的voc_fog数据集再划分为训练集和测试集两个部分,训练集图像为8111张,测试集为2734张,加载训练集对神经网络进行训练。在推理过程中,图像不经过去雾重建模块,只进行检测。
选用生成的voc_fog数据集对S2中的网络进行训练。去雾检测联合算法是多任务结合的方式,所以在目标检测优化函数的基础上增加图像去雾重建损失,总损失函数包含去雾图像重建损失、边界框回归损失和交叉熵损失。
损失函数计算具体如下:去雾图像损失维持经过神经网络还原的图像与真实标签图片的相似性,同时避免只关注到单一的帧,即:
Figure BDA0004013658490000081
其中x为一个batch中包含的真实标签,
Figure BDA0004013658490000082
为神经网络预测的batch数量的预测值。
其中检测器采用三个损失的联合损失,分别是目标定位偏移量损失,目标置信度损失以及目标分类损失。其中目标定位偏移量损失定义为:
Figure BDA0004013658490000083
其中(tx,ty)是网格预测的关于中心坐标的偏移参数,(tw,th)是网格预测关于目标宽高的缩放因子,(cx,cy)是对应的网格中的左上角坐标,(pw,ph)代表对应anchor的宽高。(gx,gy,gw,gh)分表代表真实标签中心点的坐标以及宽高。
其中目标类别损失定义为:
Figure BDA0004013658490000084
Figure BDA0004013658490000085
目标类别损失采用的二值交叉熵损失。目标置信度损失同样也是采用的二值交叉熵损失,即:
Figure BDA0004013658490000086
最终的损失为四个损失函数的总和,为了保证去雾图像重建后的质量,适当的提高重建损失在总损失的占比权重,即:
Ltotal=λ1(Lconf+Lcla+Lloc)+λ2Lsim
其中λ1=0.2,λ2=0.8为用于控制正则化损失所占比重的超参数。
设置的实验参数如下:
使用SGD优化器进行训练。初始学习速率设置为1×10-4。根据经验将训练总数设置为100轮,并采用余弦退火衰减策略来调整学习速率。除了将雾图像输入模型训练检测任务外,还从voc_fog数据集发送原始干净图像用于训练图像恢复任务。训练和测试图像的大小都被调整到640×640。此外,没有在训练过程中添加YOLOX的马赛克数据增强模块,因为采用这种方法会增加图像恢复网络的训练难度,从而降低了目标检测任务的性能。
S4、为了定量评价去雾检测联合算法的性能,采用平均精度(mAP)作为评价度量,这是目标检测任务中应用最广泛的客观评价指标。通过比较了各种最先进的目标检测方法。这些目标检测方法可以分为四类:1)“去雾+检测”方法:在这里,采用几种去雾算法作为预处理步骤,通过对干净的VOC图像(来自VOC-FOG数据集的原始干净图像)进行训练的YOLOXs进行目标检测。在预处理方面,选择了四种流行的脱雾方法与YOLOXs探测器分别形成四种组合模型;2)基于域自适应的MS-DAYOLO;3)基于多任务的DS-Net;4)基于图像自适应的IA-YOLO。所有的去雾算法都是根据其论文中的设置在整个ITS(室内训练集)数据集上进行训练的。在真实雾天数据集RTTS上的结果入下表:
表1本算法RTTS数据集与其他联合检测算法的准确度对比
Figure BDA0004013658490000091
Figure BDA0004013658490000101
Figure BDA0004013658490000111
表2本算法在voc_fog数据集与其他联合检测算法的准确度对比
Figure BDA0004013658490000112
Figure BDA0004013658490000121
本实施例区别于传统暗通道去雾方法,采用轻量级的神经网络去雾方法,具有处理速度快,容易部署,鲁棒性高的优点,它节省了去雾过程所需的成本,并且也在检测框精度和漏检率上得到改善,同时在真实的雾天的数据集上表现良好,具有较好的泛化性能,高鲁棒性的特点能够使得该发明在无人驾驶,交通检测等应用场景发挥作用。
实施例2
本实施例提供一种基于单幅图像的联合去雾检测装置,包括:
雾天图像生成模块,用于获取PASCAL-VOC2012数据集,使用大气散射模型方程对数据集进行雾化处理,生成不同浓度的雾天图像;
特征提取模块,用于将雾天图像输入特征提取模块中,提取雾天图像上不同分辨率的特征图;
检测模块,用于根据不同分辨率的特征图进行向量之间的特征融合,并输入至颈部检测模块进行检测,获得不同分辨率的检测结果。
实施例3
本实施例提供一种电子设备,包括处理器及存储介质;
所述存储介质用于存储指令;
所述处理器用于根据所述指令进行操作以执行根据实施例1中任一项所述方法的步骤。
实施例4
本实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现实施例1中任一项所述方法的步骤。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (10)

1.一种基于单幅图像的联合去雾检测方法,其特征在于,包括:
获取PASCAL-VOC2012数据集,使用大气散射模型方程对数据集进行雾化处理,生成不同浓度的雾天图像;
将雾天图像输入预先构建的检测网络模型进行检测,其中,检测网络模型包括特征提取模块和颈部检测模块;
检测时,将雾天图像输入特征提取模块中,提取雾天图像上不同分辨率的特征图;
根据不同分辨率的特征图进行向量之间的特征融合,并输入至颈部检测模块进行检测,获得不同分辨率的检测结果。
2.根据权利要求1所述的基于单幅图像的联合去雾检测方法,其特征在于,将雾天图像输入特征提取模块中,提取雾天图像上不同分辨率的特征图,包括:
通过随机函数生成随机值,根据随机值的大小对雾天图像进行随机裁剪;
将裁剪后的雾天图像进行不同方向的旋转,获得增强后的雾天图像;
将增强后的雾天图像输入到预先构建的特征提取模块中,并保留每个阶段提取的特征图。
3.根据权利要求1所述的基于单幅图像的联合去雾检测方法,其特征在于,所述根据不同分辨率的特征图进行向量之间的特征融合,并输入至颈部检测模块进行检测,获得不同分辨率的检测结果,包括:
将不同分辨率的特征图进行向量之间的特征融合后进行全局信息的采集,获取特征向量的全局上下文特征,再通过softmax得到相应的注意力图;
将注意力图与原始局部特征进行元素级相乘,得到上下文特征注意力图,
将上下文特征注意力图中每一个通道的特征层内所有值相加到局部特征上,
得到全局聚合特征;
根据全局聚合特征输出得到不同分辨率的检测特征向量,分别得到不同分辨率的检测结果。
4.根据权利要求1所述的基于单幅图像的联合去雾检测方法,其特征在于,所述检测网络模型还包括去雾重建模块,所述图像去雾模块在特征提取模块之后,用于重建无雾的图像。
5.根据权利要求4所述的基于单幅图像的联合去雾检测方法,其特征在于,还包括:将不同分辨率的特征图输入至去雾重建模块,清除图像上的雾霾并重建图像,具体包括:
将不同分辨率的特征图输入至去雾重建模块中预设的上采样模块中进行上采样,获取上采样特征图;
通过特征提取模块保留的每个阶段特征图,使各阶段的特征向量与去雾重建模块的上采样特征图进行补充融合得到更全面的全局特征;
使用上采样模块不断的扩大低分辨率特征图,最终放大成原图大小,获得重建图像。
6.根据权利要求1所述的基于单幅图像的联合去雾检测方法,其特征在于,所述检测网络模型的训练方法,包括:
获取PASCAL-VOC2012数据集,通过大气散射模型对数据集中的图像进行雾化处理,生成新的voc_fog数据集;
将生成的voc_fog数据集划分为训练集和测试集,加载训练集对检测网络模型进行训练,得到训练后的检测网络模型;
采用测试集对训练后的检测网络模型进行测试,获取最优的检测网络模型。
7.根据权利要求1所述的基于单幅图像的联合去雾检测方法,其特征在于,还包括:获取真实雾天数据集RTTS,输入到最优的检测网络模型,产生不同标注目标的正确比例和平均正确率,验证模型在真实场景的鲁棒性。
8.一种基于单幅图像的联合去雾检测装置,其特征在于,包括:
雾天图像生成模块,用于获取PASCAL-VOC2012数据集,使用大气散射模型方程对数据集进行雾化处理,生成不同浓度的雾天图像;
特征提取模块,用于将雾天图像输入特征提取模块中,提取雾天图像上不同分辨率的特征图;
检测模块,用于根据不同分辨率的特征图进行向量之间的特征融合,并输入至颈部检测模块进行检测,获得不同分辨率的检测结果。
9.一种电子设备,其特征在于:包括处理器及存储介质;
所述存储介质用于存储指令;
所述处理器用于根据所述指令进行操作以执行根据权利要求1~7任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:该程序被处理器执行时实现权利要求1~7任一项所述方法的步骤。
CN202211660527.8A 2022-12-23 2022-12-23 一种基于单幅图像的联合去雾检测方法、装置及存储介质 Pending CN115953312A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211660527.8A CN115953312A (zh) 2022-12-23 2022-12-23 一种基于单幅图像的联合去雾检测方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211660527.8A CN115953312A (zh) 2022-12-23 2022-12-23 一种基于单幅图像的联合去雾检测方法、装置及存储介质

Publications (1)

Publication Number Publication Date
CN115953312A true CN115953312A (zh) 2023-04-11

Family

ID=87287179

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211660527.8A Pending CN115953312A (zh) 2022-12-23 2022-12-23 一种基于单幅图像的联合去雾检测方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN115953312A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117314868A (zh) * 2023-10-10 2023-12-29 山东未来网络研究院(紫金山实验室工业互联网创新应用基地) 一种基于YOLOv5的钢卷端面缺陷检测方法、装置和介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117314868A (zh) * 2023-10-10 2023-12-29 山东未来网络研究院(紫金山实验室工业互联网创新应用基地) 一种基于YOLOv5的钢卷端面缺陷检测方法、装置和介质
CN117314868B (zh) * 2023-10-10 2024-03-19 山东未来网络研究院(紫金山实验室工业互联网创新应用基地) 一种基于YOLOv5的钢卷端面缺陷检测方法、装置和介质

Similar Documents

Publication Publication Date Title
Hu et al. Depth-attentional features for single-image rain removal
CN111046880B (zh) 一种红外目标图像分割方法、***、电子设备及存储介质
Chen et al. Haze removal using radial basis function networks for visibility restoration applications
Wang et al. Cycle-snspgan: Towards real-world image dehazing via cycle spectral normalized soft likelihood estimation patch gan
Zheng et al. Single image cloud removal using U-Net and generative adversarial networks
Anvari et al. Dehaze-GLCGAN: unpaired single image de-hazing via adversarial training
CN116596792B (zh) 一种面向智能船舶的内河雾天场景恢复方法、***及设备
Cheng et al. A highway traffic image enhancement algorithm based on improved GAN in complex weather conditions
Malav et al. DHSGAN: An end to end dehazing network for fog and smoke
Yeh et al. Single image dehazing via deep learning-based image restoration
CN116363535A (zh) 基于卷积神经网络的无人机航拍影像中的船舶检测方法
Zhang et al. Dense haze removal based on dynamic collaborative inference learning for remote sensing images
CN115953312A (zh) 一种基于单幅图像的联合去雾检测方法、装置及存储介质
Babu et al. An efficient image dahazing using Googlenet based convolution neural networks
CN113393385B (zh) 基于多尺度融合的无监督去雨方法、***、装置及介质
Ren et al. Unsupervised single image dehazing with generative adversarial network
CN116452469B (zh) 一种基于深度学习的图像去雾处理方法及装置
CN112085680A (zh) 一种图像处理方法、装置、电子设备及存储介质
CN115861756A (zh) 基于级联组合网络的大地背景小目标识别方法
Wan et al. Progressive convolutional transformer for image restoration
Yi et al. Progressive back-traced dehazing network based on multi-resolution recurrent reconstruction
CN113192018A (zh) 基于快速分割卷积神经网络的水冷壁表面缺陷视频识别方法
Rasheed et al. Enhancing Khalifa Satellite Imagery Resolution with AI-Powered Super Resolution Generative Adversarial Networks (SRGAN)
Wang et al. FPD Net: Feature Pyramid DehazeNet.
de Blois et al. Learning of image dehazing models for segmentation tasks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination