CN112750093B - 一种基于时序标签传递的视频图像去雾方法 - Google Patents

一种基于时序标签传递的视频图像去雾方法 Download PDF

Info

Publication number
CN112750093B
CN112750093B CN202110095486.1A CN202110095486A CN112750093B CN 112750093 B CN112750093 B CN 112750093B CN 202110095486 A CN202110095486 A CN 202110095486A CN 112750093 B CN112750093 B CN 112750093B
Authority
CN
China
Prior art keywords
image
defogging
video
video image
foggy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110095486.1A
Other languages
English (en)
Other versions
CN112750093A (zh
Inventor
苏延召
崔智高
李爱华
王涛
姜柯
蔡艳平
王念
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rocket Force University of Engineering of PLA
Original Assignee
Rocket Force University of Engineering of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rocket Force University of Engineering of PLA filed Critical Rocket Force University of Engineering of PLA
Priority to CN202110095486.1A priority Critical patent/CN112750093B/zh
Publication of CN112750093A publication Critical patent/CN112750093A/zh
Application granted granted Critical
Publication of CN112750093B publication Critical patent/CN112750093B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)

Abstract

本发明公开了一种基于时序标签传递的视频图像去雾方法,包括步骤:一、建立有雾视频图像训练集;二、设计去雾网络对单组样本图像中有雾视频图像去雾;三、计算去雾图像的像素级绝对值损失函数;四、更新权重参数集合;五、调取下一组样本图像,循环步骤二至步骤四,直到停止训练;六、测试视频的首帧实际有雾图像去雾;七、测试视频的当前非首帧实际有雾图像去雾;八、多次循环步骤七,实现对整个视频图像序列的连续去雾。本发明利用时序相邻的去雾结果作为先验,引导后续视频帧进行去雾,并不断更新引导图像,从而实现去雾视频在时间维度上的连续自然变化,并同时保持图像在空间维度上能够准确去雾,输出时空一致的清晰视频序列。

Description

一种基于时序标签传递的视频图像去雾方法
技术领域
本发明属于视频图像去雾技术领域,具体涉及一种基于时序标签传递的视频图像去雾方法。
背景技术
在雾、霾之类的恶劣天气下采集的视频图像会由于大气散射的作用出现质量退化现象,使图像颜色偏灰白色,对比度降低,物体特征难以辨认,不仅使视觉效果变差,图像观赏性降低,还会导致图像内容的理解出现偏差,如在自动驾驶领域因为雾霾的影响可能导致无法检测到远处的行人或者是车道线,进而引发交通事故。视频图像去雾就是指用特定的方法和手段,使空气中悬浮微粒对视频图像的不良影响降低甚至消除,保持图像在空间上的清晰以及时间上的自然过渡。与单张图像去雾不同,视频图像去雾强调每一张图像正常去雾的同时,还要求图像序列不能出现明显的颜色跳变。此外,雾霾视频图像包含的信息比单张雾霾更多,可通过连续帧的变化提供雾霾指示,对其进行去雾处理得到清晰的图像。
现有视频去雾算法通常分为3类,第一类是将视频看作单帧图像集合,通过对每帧图像进行独立去雾实现对整个视频的去雾处理。按照单张图像去雾算法主要分为基于图像增强的方法,基于物理模型的方法和基于深度学习的方法。基于单帧图像的视频去雾方法在处理过程仅对每帧图像进行单独计算,忽略了帧间时序关联,容易导致生成的视频去雾结果不连贯,相邻帧间去雾图像在背景区域存在颜色和亮度的突变。第二类方法基于融合技术实现视频去雾。这类方法首先对视频中每帧图像前背景区域分别进行增强处理,然后运用融合技术获得去雾结果。但这类方法的对前背景的分离算法具有依赖性,通常在雾霾比较严重时,无法准确分离前景与背景,此外分别增强也容易导致前景和背景之间的对比度失真。第三类方法通常首先估计一个通用的去雾模型,然后将其应用于后续各帧的去雾处理中。基于通用去雾模型的方法可以提高视频去雾算法求解效率,然而各种去雾模型均依赖不同的假设条件,如视频中背景区域变化不明显或视频每帧图像雾的分布均相同等,对于真实视频这种假设通常不满足,因而这类方法的效果还需要进一步提高。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于时序标签传递的视频图像去雾方法,利用时序相邻的去雾结果作为先验,引导后续视频帧进行去雾,并不断更新引导图像,从而实现去雾视频在时间维度上的连续自然变化,并同时保持图像在空间维度上能够准确去雾,输出时空一致的清晰视频序列,便于推广使用。
为解决上述技术问题,本发明采用的技术方案是:一种基于时序标签传递的视频图像去雾方法,其特征在于,该方法包括以下步骤:
步骤一、建立有雾视频图像训练集,过程如下:
步骤101、利用已知深度的清晰视频图像数据集{Xi},按照大气散射模型合成不同雾霾程度的有雾视频图像训练集{Yi},其中,i为清晰视频图像帧号且i=1,2,...,N,N为清晰视频图像的总帧数且N不小于1000;
步骤102、将(Xj,Yj+t,Xj+t)组成一组样本图像,构建有雾视频图像训练集{(Xj,Yj+t,Xj+t)},其中,有雾视频图像训练集{(Xj,Yj+t,Xj+t)}中样本图像组数不小于1000,t为不大于5的随机正整数,j为不大于N-t的正整数;
步骤二、设计去雾网络对单组样本图像中有雾视频图像去雾,过程如下:
步骤201、在步骤一中的有雾视频图像训练集提取第一组样本图像,将本组中有雾视频图像和帧号在前的清晰视频图像叠加送入编码器,得到叠加图像尺寸1/8的特征图f1 /8,所述编码器包括多个带下采样的卷积块,所述卷积块包括卷积层、批归一化处理以及激活函数;
步骤202、将特征图f1/8送入特征提取模块,得到强化特征图
Figure BDA0002913949630000039
所述特征提取模块包括多个特征提取单元,所述特征提取单元包括多个残差模块和一个位于多个残差模块之后的跳连接;
所述残差模块包括卷积块叠加恒等映射;
步骤203、将特征图f1/8反卷积得到叠加图像尺寸1/4的反卷积特征图f1/4,将强化特征图
Figure BDA0002913949630000031
反卷积得到叠加图像尺寸1/4的反卷积强化特征图
Figure BDA0002913949630000032
将反卷积特征图f1/4和反卷积强化特征图
Figure BDA0002913949630000033
进行叠加后反卷积,得到叠加图像尺寸1/2的反卷积强化特征图
Figure BDA0002913949630000034
步骤204、将反卷积特征图f1/4反卷积得到叠加图像尺寸1/2的反卷积特征图f1/2,将反卷积特征图f1/2和反卷积强化特征图
Figure BDA0002913949630000035
进行叠加后反卷积,得到本组样本图像中有雾视频图像的去雾图像Id
步骤三、根据公式
Figure BDA0002913949630000036
计算去雾图像Id的像素级绝对值损失函数L,其中,Q为有雾视频图像的像素点总数,q为有雾视频图像的像素点编号且q=1,2,...,Q,
Figure BDA0002913949630000037
为本组样本图像中有雾视频图像的去雾图像Id中第q个像素点的像素值,
Figure BDA0002913949630000038
为本组样本图像中帧号在后的清晰视频图像中第q个像素点的像素值,z不大于N-t的正整数;
步骤四、更新权重参数集合:将去雾图像Id的像素级绝对值损失函数L,送入Adam优化器,对步骤二的去雾网络训练优化,更新去雾网络的权重参数集合;
步骤五、调取下一组样本图像,将下一组样本图像视为第一组样本图像,循环步骤二至步骤四,直到训练达到预设训练步数或者损失值不再下降或损失值小于0.001即停止训练,此时,得到去雾网络的最终权重参数集合,并确定最终的去雾网络;
步骤六、测试视频的首帧实际有雾图像去雾;
步骤七、测试视频的当前非首帧实际有雾图像去雾:以上一帧实际有雾图像的去雾图像和当前非首帧实际有雾图像作为输入,送入最终的去雾网络中进行前向推理得到测试视频的当前非首帧实际有雾图像的去雾图像;
步骤八、多次循环步骤七,直至整个视频图像序列完成去雾,实现对整个视频图像序列的连续去雾。
上述的一种基于时序标签传递的视频图像去雾方法,其特征在于:步骤五中,所述预设训练步数为10000~20000。
上述的一种基于时序标签传递的视频图像去雾方法,其特征在于:步骤201中,所述编码器包括至少三个带下采样的卷积块;步骤202中,所述特征提取模块包括5~10个特征提取单元。
上述的一种基于时序标签传递的视频图像去雾方法,其特征在于:所述已知深度的清晰视频图像数据集包括NYU图像数据集。
上述的一种基于时序标签传递的视频图像去雾方法,其特征在于:步骤六中,利用人工去雾方式或单张图像去雾模型对测试视频的首帧实际有雾图像去雾。
本发明与现有技术相比具有以下优点:
1、本发明采用视频序列的前一帧去雾图像作为引导,对当前帧图像进行去雾,并不断更换引导去雾图像,从而确保视频去雾图像在时间维度上的连续,实现时空一致的清晰视频序列,便于推广使用。
2、本发明通过将上一帧清晰图像,当前帧有雾图像,当前帧清晰图像组成一组样本图像,利用深度神经网络构建编码器和特征提取模块构成的去雾网络,经过优化训练得到模型的权重参数,实现视频图像的去雾增强,可靠稳定,使用效果好。
3、本发明方法步骤简单,通过合成训练视频以及时序训练样本的构造,使深度学习模型能够有效利用前序去雾结果引导后序视频图像去雾,结合了时序先验知识,具备图像去雾效果好、场景适应能力强,去雾结果时空连续性以及实时性好的优势;利用构造的训练样本进行端到端的视频图像去雾学习,能够有效学习到视频图像序列间的时序联系,适用动态变化场景下的视频去雾,同时可扩展标签图像时序范围,实现连续性的视频去雾;为了进一步增强编码器的特征提取能力,通过带跳连接的连续残差块进行特征增强,可以有效提取有雾图像和时序标签图像的特征,增强了模型对时序特征的提取能力,提升了视频图像的去雾效果,便于推广使用。
综上所述,本发明利用时序相邻的去雾结果作为先验,引导后续视频帧进行去雾,并不断更新引导图像,从而实现去雾视频在时间维度上的连续自然变化,并同时保持图像在空间维度上能够准确去雾,输出时空一致的清晰视频序列,便于推广使用。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明的方法流程框图。
具体实施方式
如图1所示,本发明的一种基于时序标签传递的视频图像去雾方法,包括以下步骤:
步骤一、建立有雾视频图像训练集,过程如下:
步骤101、利用已知深度的清晰视频图像数据集{Xi},按照大气散射模型合成不同雾霾程度的有雾视频图像训练集{Yi},其中,i为清晰视频图像帧号且i=1,2,...,N,N为清晰视频图像的总帧数且N不小于1000;
本实施例中,所述已知深度的清晰视频图像数据集包括NYU图像数据集。
步骤102、将(Xj,Yj+t,Xj+t)组成一组样本图像,构建有雾视频图像训练集{(Xj,Yj+t,Xj+t)},其中,有雾视频图像训练集{(Xj,Yj+t,Xj+t)}中样本图像组数不小于1000,t为不大于5的随机正整数,j为不大于N-t的正整数;
需要说明的是,构建一组样本图像时增加了具有一定时间间隔的清晰图像作为时序约束,测试时可利用已经去雾的前序图像作为额外引导,保持视频图像去雾后在时序上的一致性。
步骤二、设计去雾网络对单组样本图像中有雾视频图像去雾,过程如下:
步骤201、在步骤一中的有雾视频图像训练集提取第一组样本图像,将本组中有雾视频图像和帧号在前的清晰视频图像叠加送入编码器,得到叠加图像尺寸1/8的特征图f1 /8,所述编码器包括多个带下采样的卷积块,所述卷积块包括卷积层、批归一化处理以及激活函数;
步骤202、将特征图f1/8送入特征提取模块,得到强化特征图
Figure BDA0002913949630000061
所述特征提取模块包括多个特征提取单元,所述特征提取单元包括多个残差模块和一个位于多个残差模块之后的跳连接;
所述残差模块包括卷积块叠加恒等映射;
本实施例中,步骤201中,所述编码器包括至少三个带下采样的卷积块;步骤202中,所述特征提取模块包括5~10个特征提取单元。
步骤203、将特征图f1/8反卷积得到叠加图像尺寸1/4的反卷积特征图f1/4,将强化特征图
Figure BDA0002913949630000062
反卷积得到叠加图像尺寸1/4的反卷积强化特征图
Figure BDA0002913949630000063
将反卷积特征图f1/4和反卷积强化特征图
Figure BDA0002913949630000064
进行叠加后反卷积,得到叠加图像尺寸1/2的反卷积强化特征图
Figure BDA0002913949630000065
步骤204、将反卷积特征图f1/4反卷积得到叠加图像尺寸1/2的反卷积特征图f1/2,将反卷积特征图f1/2和反卷积强化特征图
Figure BDA0002913949630000066
进行叠加后反卷积,得到本组样本图像中有雾视频图像的去雾图像Id
步骤三、根据公式
Figure BDA0002913949630000067
计算去雾图像Id的像素级绝对值损失函数L,其中,Q为有雾视频图像的像素点总数,q为有雾视频图像的像素点编号且q=1,2,...,Q,
Figure BDA0002913949630000068
为本组样本图像中有雾视频图像的去雾图像Id中第q个像素点的像素值,
Figure BDA0002913949630000069
为本组样本图像中帧号在后的清晰视频图像中第q个像素点的像素值,z不大于N-t的正整数;
步骤四、更新权重参数集合:将去雾图像Id的像素级绝对值损失函数L,送入Adam优化器,对步骤二的去雾网络训练优化,更新去雾网络的权重参数集合;
步骤五、调取下一组样本图像,将下一组样本图像视为第一组样本图像,循环步骤二至步骤四,直到训练达到预设训练步数或者损失值不再下降或损失值小于0.001即停止训练,此时,得到去雾网络的最终权重参数集合,并确定最终的去雾网络;
本实施例中,步骤五中,所述预设训练步数为10000~20000。
步骤六、测试视频的首帧实际有雾图像去雾;
本实施例中,步骤六中,利用人工去雾方式或单张图像去雾模型对测试视频的首帧实际有雾图像去雾。
步骤七、测试视频的当前非首帧实际有雾图像去雾:以上一帧实际有雾图像的去雾图像和当前非首帧实际有雾图像作为输入,送入最终的去雾网络中进行前向推理得到测试视频的当前非首帧实际有雾图像的去雾图像;
步骤八、多次循环步骤七,直至整个视频图像序列完成去雾,实现对整个视频图像序列的连续去雾。
本发明使用时,采用视频序列的前一帧去雾图像作为引导,对当前帧图像进行去雾,并不断更换引导去雾图像,从而确保视频去雾图像在时间维度上的连续,实现时空一致的清晰视频序列;通过将上一帧清晰图像,当前帧有雾图像,当前帧清晰图像组成一组样本图像,利用深度神经网络构建编码器和特征提取模块构成的去雾网络,经过优化训练得到模型的权重参数,实现视频图像的去雾增强;通过合成训练视频以及时序训练样本的构造,使深度学习模型能够有效利用前序去雾结果引导后序视频图像去雾,结合了时序先验知识,具备图像去雾效果好、场景适应能力强,去雾结果时空连续性以及实时性好的优势;利用构造的训练样本进行端到端的视频图像去雾学习,能够有效学习到视频图像序列间的时序联系,适用动态变化场景下的视频去雾,同时可扩展标签图像时序范围,实现连续性的视频去雾;为了进一步增强编码器的特征提取能力,通过带跳连接的连续残差块进行特征增强,可以有效提取有雾图像和时序标签图像的特征,增强了模型对时序特征的提取能力,提升了视频图像的去雾效果,通过引导去雾图像在时序上的传递,实现视频去雾图像的颜色与对比度的连续自然。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何限制,凡是根据本发明技术实质对以上实施例所作的任何简单修改、变更以及等效结构变化,均仍属于本发明技术方案的保护范围内。

Claims (4)

1.一种基于时序标签传递的视频图像去雾方法,其特征在于,该方法包括以下步骤:
步骤一、建立有雾视频图像训练集,过程如下:
步骤101、利用已知深度的清晰视频图像数据集{Xi},按照大气散射模型合成不同雾霾程度的有雾视频图像训练集{Yi},其中,i为清晰视频图像帧号且i=1,2,...,N,N为清晰视频图像的总帧数且N不小于1000;
步骤102、将(Xj,Yj+t,Xj+t)组成一组样本图像,构建有雾视频图像训练集{(Xj,Yj+t,Xj+t)},其中,有雾视频图像训练集{(Xj,Yj+t,Xj+t)}中样本图像组数不小于1000,t为不大于5的随机正整数,j为不大于N-t的正整数;
步骤二、设计去雾网络对单组样本图像中有雾视频图像去雾,过程如下:
步骤201、在步骤一中的有雾视频图像训练集提取第一组样本图像,将本组中有雾视频图像和帧号在前的清晰视频图像叠加送入编码器,得到叠加图像尺寸1/8的特征图f1/8,所述编码器包括多个带下采样的卷积块,所述卷积块包括卷积层、批归一化处理以及激活函数;
步骤202、将特征图f1/8送入特征提取模块,得到强化特征图
Figure FDA0003212321340000011
所述特征提取模块包括多个特征提取单元,所述特征提取单元包括多个残差模块和一个位于多个残差模块之后的跳连接;
所述残差模块包括卷积块叠加恒等映射;
步骤203、将特征图f1/8反卷积得到叠加图像尺寸1/4的反卷积特征图f1/4,将强化特征图
Figure FDA0003212321340000012
反卷积得到叠加图像尺寸1/4的反卷积强化特征图
Figure FDA0003212321340000013
将反卷积特征图f1/4和反卷积强化特征图
Figure FDA0003212321340000014
进行叠加后反卷积,得到叠加图像尺寸1/2的反卷积强化特征图
Figure FDA0003212321340000015
步骤204、将反卷积特征图f1/4反卷积得到叠加图像尺寸1/2的反卷积特征图f1/2,将反卷积特征图f1/2和反卷积强化特征图
Figure FDA0003212321340000016
进行叠加后反卷积,得到本组样本图像中有雾视频图像的去雾图像Id
步骤三、根据公式
Figure FDA0003212321340000021
计算去雾图像Id的像素级绝对值损失函数L,其中,Q为有雾视频图像的像素点总数,q为有雾视频图像的像素点编号且q=1,2,...,Q,
Figure FDA0003212321340000022
为本组样本图像中有雾视频图像的去雾图像Id中第q个像素点的像素值,
Figure FDA0003212321340000023
为本组样本图像中帧号在后的清晰视频图像中第q个像素点的像素值,z不大于N-t的正整数;
步骤四、更新权重参数集合:将去雾图像Id的像素级绝对值损失函数L,送入Adam优化器,对步骤二的去雾网络训练优化,更新去雾网络的权重参数集合;
步骤五、调取下一组样本图像,将下一组样本图像视为第一组样本图像,循环步骤二至步骤四,直到训练达到预设训练步数或者损失值不再下降或损失值小于0.001即停止训练,此时,得到去雾网络的最终权重参数集合,并确定最终的去雾网络;
步骤六、测试视频的首帧实际有雾图像去雾;
步骤七、测试视频的当前非首帧实际有雾图像去雾:以上一帧实际有雾图像的去雾图像和当前非首帧实际有雾图像作为输入,送入最终的去雾网络中进行前向推理得到测试视频的当前非首帧实际有雾图像的去雾图像;
步骤八、多次循环步骤七,直至整个视频图像序列完成去雾,实现对整个视频图像序列的连续去雾;
步骤六中,利用人工去雾方式或单张图像去雾模型对测试视频的首帧实际有雾图像去雾。
2.按照权利要求1所述的一种基于时序标签传递的视频图像去雾方法,其特征在于:步骤五中,所述预设训练步数为10000~20000。
3.按照权利要求1所述的一种基于时序标签传递的视频图像去雾方法,其特征在于:步骤201中,所述编码器包括至少三个带下采样的卷积块;步骤202中,所述特征提取模块包括5~10个特征提取单元。
4.按照权利要求1所述的一种基于时序标签传递的视频图像去雾方法,其特征在于:所述已知深度的清晰视频图像数据集包括NYU图像数据集。
CN202110095486.1A 2021-01-25 2021-01-25 一种基于时序标签传递的视频图像去雾方法 Active CN112750093B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110095486.1A CN112750093B (zh) 2021-01-25 2021-01-25 一种基于时序标签传递的视频图像去雾方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110095486.1A CN112750093B (zh) 2021-01-25 2021-01-25 一种基于时序标签传递的视频图像去雾方法

Publications (2)

Publication Number Publication Date
CN112750093A CN112750093A (zh) 2021-05-04
CN112750093B true CN112750093B (zh) 2021-10-22

Family

ID=75653061

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110095486.1A Active CN112750093B (zh) 2021-01-25 2021-01-25 一种基于时序标签传递的视频图像去雾方法

Country Status (1)

Country Link
CN (1) CN112750093B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106780356A (zh) * 2016-11-15 2017-05-31 天津大学 基于卷积神经网络和先验信息的图像去雾方法
CN110288550A (zh) * 2019-06-28 2019-09-27 中国人民解放***箭军工程大学 基于先验知识引导条件生成对抗网络的单张图像去雾方法
CN111681180A (zh) * 2020-05-25 2020-09-18 厦门大学 先验驱动的深度学习图像去雾方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101290680B (zh) * 2008-05-20 2011-07-06 西安理工大学 基于直方图均衡化过校正恢复的雾天视频图像清晰化方法
KR101394361B1 (ko) * 2012-11-21 2014-05-14 중앙대학교 산학협력단 알파매트 추정과 영상 합성을 이용한 단일 영상의 안개 제거 장치 및 방법
CN109360155B (zh) * 2018-08-17 2020-10-13 上海交通大学 基于多尺度特征融合的单帧图像去雨方法
CN109300090A (zh) * 2018-08-28 2019-02-01 哈尔滨工业大学(威海) 一种基于亚像素和条件对抗生成网络的单幅图像去雾方法
CN109360171B (zh) * 2018-10-26 2021-08-06 北京理工大学 一种基于神经网络的视频图像实时去模糊方法
CN110097519B (zh) * 2019-04-28 2021-03-19 暨南大学 基于深度学习的双监督图像去雾方法、***、介质和设备
CN111626944B (zh) * 2020-04-21 2023-07-25 温州大学 一种基于时空金字塔网络和对抗自然先验的视频去模糊方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106780356A (zh) * 2016-11-15 2017-05-31 天津大学 基于卷积神经网络和先验信息的图像去雾方法
CN110288550A (zh) * 2019-06-28 2019-09-27 中国人民解放***箭军工程大学 基于先验知识引导条件生成对抗网络的单张图像去雾方法
CN111681180A (zh) * 2020-05-25 2020-09-18 厦门大学 先验驱动的深度学习图像去雾方法

Also Published As

Publication number Publication date
CN112750093A (zh) 2021-05-04

Similar Documents

Publication Publication Date Title
CN110555465B (zh) 一种基于cnn与多特征融合的天气图像识别方法
CN110009580B (zh) 基于图片块雨滴密集度的单张图片双向去雨方法
CN112884064A (zh) 一种基于神经网络的目标检测与识别方法
CN109410129A (zh) 一种低光照图像场景理解的方法
CN111915531A (zh) 一种多层次特征融合和注意力引导的神经网络图像去雾方法
CN110288550B (zh) 基于先验知识引导条件生成对抗网络的单张图像去雾方法
CN105574827A (zh) 一种图像去雾的方法、装置
CN106295645B (zh) 一种车牌字符识别方法和装置
CN107133927A (zh) 超像素框架下基于均值‑均方差暗通道的单幅图像去雾方法
CN109829868B (zh) 一种轻量级深度学习模型图像去雾方法、电子设备及介质
CN109584170A (zh) 基于卷积神经网络的水下图像复原方法
CN112508814B (zh) 一种基于无人机低空视角下的图像色调修复型去雾增强方法
CN110223251A (zh) 适用于人工与自然光源的卷积神经网络水下图像复原方法
CN103034983A (zh) 一种基于各向异性滤波的去雾方法
CN112149535A (zh) 一种结合SegNet和U-Net的车道线检测方法和装置
CN103260043A (zh) 基于学习的双目立体图像匹配方法及***
CN113269685A (zh) 一种融合多注意力机制的图像去雾方法
CN114596233A (zh) 基于注意引导和多尺度特征融合的低照度图像增强方法
CN115019340A (zh) 一种基于深度学习的夜间行人检测算法
CN112750093B (zh) 一种基于时序标签传递的视频图像去雾方法
CN107301625A (zh) 基于亮度融合网络的图像去雾算法
CN112767275B (zh) 一种基于人工稀疏标注信息引导的单张图像去雾方法
CN108564535A (zh) 一种基于深度学习的图像去雾方法
CN113191971A (zh) 一种基于yuv颜色空间的无人机图像去雾方法
CN116311002B (zh) 一种基于光流信息的无监督视频目标分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant