CN115272072A - 一种基于多特征图像融合的水下图像超分辨率方法 - Google Patents

一种基于多特征图像融合的水下图像超分辨率方法 Download PDF

Info

Publication number
CN115272072A
CN115272072A CN202210799113.7A CN202210799113A CN115272072A CN 115272072 A CN115272072 A CN 115272072A CN 202210799113 A CN202210799113 A CN 202210799113A CN 115272072 A CN115272072 A CN 115272072A
Authority
CN
China
Prior art keywords
image
feature
underwater
resolution
super
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210799113.7A
Other languages
English (en)
Inventor
付先平
王息宁
姚冰
蒋广琪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Maritime University
Original Assignee
Dalian Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Maritime University filed Critical Dalian Maritime University
Priority to CN202210799113.7A priority Critical patent/CN115272072A/zh
Publication of CN115272072A publication Critical patent/CN115272072A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于多特征图像融合的水下图像超分辨率方法,包括:获取水下图像,采用白平衡、自适应直方图均衡化和暗通道先验三种方法分别对该水下图像进行预处理;构建特征融合超分辨率网络模型,将三种预处理后的水下图像和原图像输入至特征融合超分辨率网络模型中进行训练,并获得每种预处理图像的置信度信息;将原图像分别与三种预处理图像进行特征优化获得三种特征优化图像;将三种特征优化图像分别与各自的置信度相乘得到三种待融合的水下图像,得到特征融合的水下图像;对特征融合的水下图像进行超分辨率重建,获得超分辨率重建图像;该方法能更好的在减少伪影的同时提取预处理图像的有用细节信息。

Description

一种基于多特征图像融合的水下图像超分辨率方法
技术领域
本发明涉及水下图像处理技术领域,尤其涉及一种基于多特征图像融合的水下图像超分辨率方法。
背景技术
近年来,随着人类对海洋资源开发的不断深入,水下机器视觉领域的发展对海洋资源的探索到了至关重要的作用。但由于水下环境复杂多样,海水中的大量悬浮物导致的光照强度衰减,水体环境对光照的前向散射和后向散射等影响因素,水下获取的图像通常存在色彩失真、细节模糊、对比度低和分辨率低等问题。因此,利用水下图像超分辨率重建技术来提升水下图像的对比度和分辨率,以解决水下图像细节纹理缺失和模糊不清的问题,具有重要的研究意义。
图像超分辨率重建技术就是运用数字图像处理和计算机视觉等领域的相关知识,将低质量、低分辨率的图像恢复成高质量、高分辨率图像的技术。相较于低分辨率图像,高分辨率图像通常包含更大的像素密度、更丰富的纹理细节以及更高的可信赖度。所以高分辨率的图像对于提高人类对图像的识别能力和识别精度有着很大的帮助。图像超分辨率重建方法分为传统的超分辨率重建算法和基于深度学习的超分辨率重建算法。传统的超分辨率重建算法主要是通过数字图像处理技术进行图像重建,主要有基于插值的方法、基于退化模型的方法、基于学习的方法等。随着深度学习算法的兴起,越来越多的基于深度学习的超分辨率重建方法开始出现。
相较于陆地上的图像超分辨率重建方法,现有的图像超分辨率重建方法在水下领域的研究相对较少。因为水下成像通常受到能见度差、光吸收和散射的影响,造成水下图像缺乏重要细节,感兴趣区域不显著,这给水下图像超分辨率重建带来了巨大的困难。研究人员近年来已经对水下图像超分辨率重建进行了一些研究尝试,研究重点是从噪声或模糊的图像中重建出质量更好的水下图像。其中,基于特征融合的图像超分辨率方法为解决水下图像超分辨率重建提供了很好的思路。特征融合模块能够将多幅特征图中最显著的特征提取并融合到一幅图像中去,合并成有更强判别能力的特征图像。而超分辨率模块采用深度残差网络结构,使用跳跃连接来保留卷积层重复块中的标识映射,这有助于稳定的训练非常深层的网络模型。在密集残差块中的跳跃连接能够组合来自每个层的层次特征,以提高图像超分辨率重建的性能。基于特征融合的图像超分辨率方法能够解决水下图像特征提取困难,细节特征不明显,分辨率低的问题。
发明内容
根据现有技术存在的问题,本发明公开了一种基于多特征图像融合的水下图像超分辨率方法,具体包括如下步骤:
获取水下图像,采用白平衡、自适应直方图均衡化和暗通道先验三种方法分别对该水下图像进行预处理;
构建特征融合超分辨率网络模型,将三种预处理后的水下图像和原图像输入至特征融合超分辨率网络模型中进行训练,并获得每种预处理图像的置信度信息;
将原图像分别与三种预处理图像进行特征优化获得三种特征优化图像;
将三种特征优化图像分别与各自的置信度相乘得到三种待融合的水下图像,将三种待融合的水下图像整合相加进行特征融合,得到特征融合的水下图像;
对特征融合的水下图像进行超分辨率重建,获得超分辨率重建图像。
进一步的,所述白平衡方法为:首先对水下图像进行颜色投射校正,获取准确的色彩还原;所述自适应直方图均衡化方法为:首先计算水下图像的局部直方图,对亮度进行重新分布改进水下图像的局部对比度从而获得图像的更多细节;所述暗通道先验方法为:计算水下图像的透射率和大气光成分值,对原始图像进行高斯低通滤波后进行反转得到透射率图像,根据透射率图像得到局部去雾的水下图像。
进一步的,将自适应直方图均衡化特征优化图像RHE、白平衡特征优化图像RWB和暗通道先验特征优化图像RDCP分别与各自的置信度DHE、DWB和DDCP相乘得到三种待融合的水下图像,将三种待融合的水下图像整合相加进行特征融合,得到特征融合的水下图像IER,该过程的函数表示为:
IER=DHE×RHE+DWB×RWB+DDCP×RDCP (1)
在对水下图像进行特征融合过程中,采用最小化感知损失函数学习特征融合水下图像的映射函数,从而减少由像素级损失函数引起的伪影,度量特征融合图像IER与参考图像IRF之间的差异性感知损失函数为:
Figure BDA0003733324380000031
其中,N表示训练过程中每批次的数量,WkHkCk分别表示网络模型内第k个卷积层的特征映射的宽度、高度和通道数,θk(x)表示激活后的预训练的网络模型的第k层。
进一步的,对特征融合的水下图像进行超分辨率重建时包括对水下图像中的低层特征信息和高层特征信息进行重建:
其中对低层特征信息进行重建时:首先提取水下图像中的低层特征信息,并对水下图像中的低层特征信息进行恢复;
其中对高层特征信息进行重建时:首先提取水下图像的高层特征信息,再采用迁移学习方法使用预先训练好的网络模型提取高分辨率水下图像的高层特征信息,将该高层信息与上一步骤提取的高层特征信息进行对比,采用最小化均方误差法缩小二者的误差;
采用反卷积方法对恢复后的水下图像低层特征信息和高层特征信息进行超分辨率重建。
进一步的,对特征融合的水下图像进行超分辨率重建时,首先衡量提取出的水下图像特征与从网络模型中提取出的水下图像特征之间的差距程度,得到接近真实的高分辨率的水下图像,采用内容损失函数衡量图像之间的相似程度,
LC(F)=Ιh,l[||θ(h)-θ(F(l))||2] (3)
其中,F:{l}→h代表一个学习函数或映射,l表示低分辨率图像域,h表示高分辨率图像域;为了调控感知损失函数公式(2)和内容损失函数公式(3),使得两个损失函数得到小的损失,引入与损失函数相关的超参数λk与λC,则特征融合超分辨率网络的目标损失函数表示为:
Figure BDA0003733324380000032
由于采用了上述技术方案,本发明提供的一种基于多特征图像融合的水下图像超分辨率方法,该方法能够很好地解决水下图对比度低、分辨率低等问题。对解决水下图像色偏问题也有一定的帮助;该方法运用特征融合网络,能更好的在减少伪影的同时提取预处理图像的有用细节信息;该方法使用深度残差块结构,能很好的提取并组合水下图像的低层次的特征细节,使用迁移学习的方法,对水下图像的高层特征细节进行补充,以超分辨率重建出高质量,高分辨率的水下图像。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于多特征图像融合的水下图像超分辨率方法的流程图;
图2为本发明基于多特征图像融合的水下图像超分辨率方法的总体框架结构图。
具体实施方式
为使本发明的技术方案和优点更加清楚,下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚完整的描述:
如图1所示的一种基于多特征图像融合的水下图像超分辨率方法,该方法首先获取不同海域、不同深度的水下图像,并分别采用白平衡、自适应直方图均衡化、暗通道先验三种算法处理原始图像以构建具有多种判别信息的水下特征图。然后,将三种特征图与原始图像一起输入到特征置信度网络中,获得每种特征图像的置信度信息。此外,使用特征优化单元对特征图进行处理以减少预处理算法引入的多余的颜色映射和伪影。将优化后的特征图像分别乘以各自的置信度,得到待融合的水下图像,然后将以上不同类型图像融合获得特征融合图像。由于水体对光的散射等原因,水下图像特征提取困难,而特征融合能从具有多种判别信息的水下特征图中提取目标本质特征,合并成有更强判别能力的特征图像。之后,将特征融合图像输入到超分辨率模块,利用密集残差块组合来自每个卷积层的低层特征信息,并使用迁移学习的方法补充图像的高层特征信息,最后使用反卷积操作将图像分辨率进行放大。该方法解决了水下图像对比度低,分辨率低的问题,有效的增强了水下图像的细节纹理特征,提高了水下图像的分辨率。该方法的具体步骤为:
S1:获取水下图像,采用白平衡、自适应直方图均衡化和暗通道先验三种方法分别对该水下图像进行预处理,具体采用如下方式:
S11:获取水下图像整合成数据集,并将获取的水下图像数据集,按照7:3的比例分成训练数据集和测试数据集。
S12:采用白平衡方法,预处理水下图像。针对水下图像偏蓝偏绿的特点,将水下图像中红色像素通道占比增大,绿色蓝色通道占比调小,进行颜色投射校正,获取准确的色彩还原。具体来说,先统计RGB每个通道的像素值直方图分布,将直方图分布前0.25%的像素赋值0,后0.25%的像素值赋值255,其余部分均衡映射到0~255之间,相当与对每个通道执行一次直方图均衡。这样使得每一个值通道的值在RGB中分布较均匀,达到颜色平衡的结果。
S13:采用自适应直方图均衡化方法,预处理水下图像。计算水下图像的局部直方图,然后重新分布亮度来改进水下图像的局部对比度以及获得更多的图像细节。具体来说,先用直方图规定化方法处理水下图像分割成的每个局部区域,然后用双线性内插将水下图像的相邻局部区域组合起来以消除人工引入的边界效应,特别是可以限制均匀亮度区域的对比度,以免放大噪声。
S14:采用暗通道先验方法,预处理水下图像。先计算水下图像的透射率和大气光成分值,然后原始图像通过高斯低通滤波后进行反转得到透射率图像,之后由透射率图像得到局部去雾的水下图像,这样使得水下图像中的暗区域得到亮度提升。
S2:构建特征融合超分辨率网络模型,具体采用如下方式:
S21:采用pytorch搭建深度学习框架。
S22:编译模型,以便完成拟合训练过程。采用门控融合网络架构来设计置信度模块,采用多层卷积与修正线性单元来设计特征优化模块,采用密集残差块与反卷积操作来设计超分辨率模块。
S23:在获取的训练数据集上拟合模型,将epoch设置为400,batch_size设置为16,学习率设置为0.001。
S24:评估模型并进行预测,用可变数据和随机测试对模型进行测试,以验证训练模型的有效性,以及其性能效率是否符合预期要求。
S3:将所述的三种预处理后的图像与原图像一起输入到特征融合超分辨率网络中进行训练,经过特征置信度模块,获得每种预处理图像的置信度,具体采用如下方式:
S31:将三种预处理后的图像与原图像并行输入到特征融合超分辨率网络中的特征置信度模块。
S32:采用多层卷积与归一化指数函数的方法,对网络进行训练,获得每种预处理图像的置信度信息。
S33:从学习到的置信度信息确定特征融合图像中的最显著特征,将三种预处理特征图像组合成一个综合利用多种图像特征,有更强判别能力的特征图像,实现多特征的优势互补,获得更加鲁棒和显著性的结果。
S4:对原始水下图像采用三种图像处理算法进行预处理,虽然能够从不同角度增强水下图像的细节特征,但是会给图像增加多余的背景噪声。而所述的特征优化模块能尽可能的减少,由三种图像处理算法在原始图像中引入的颜色映射和伪影,提高图像质量。将原图像分别与三种预处理图像输入到特征优化模块,进行特征优化,获得三种特征优化图像,具体采用如下方式:
S41:将原图像分别与三种预处理图像输入到特征融合超分辨率网络中的特征优化模块。
S42:为了更加有效率的梯度下降以及反向传播:避免梯度***和梯度消失问题,采用多层卷积与线性整流函数的方法,对网络进行训练,提取并组合输入图像的特征信息,减少由三种图像处理算法在原始图像中引入的颜色映射和伪影,提高图像质量,同时活跃度的分散性降低了神经网络整体计算成本。
S5:由于水体对光的散射等原因,水下图像特征提取困难,而特征融合能从具有多种判别信息的水下特征图中提取目标本质特征,合并成有更强判别能力的特征图像。对所述三种特征优化图像,分别与各自的置信度相乘,得到待融合的水下图像。并对所述的三种待融合的水下图像整合相加进行特征融合,得到特征融合的水下图像,具体采用如下方式:
S51:采用element-wise相乘的方法,将经过特征优化模块得到的三种特征优化图像,与各自的置信度信息相乘,得到三种待融合的水下图像。
S52:采用element-wise相加的方法,将三种待融合的水下图像整合相加进行特征融合,得到特征融合的水下图像。
S53:将特征融合过程进行函数表示,以便于确定损失成本。将直方图均衡化特征优化图像RHE、白平衡特征优化图像RWB和暗通道先验特征优化图像RDCP分别与各自的置信度DHE、DWB和DDCP相乘得到三种待融合的水下图像,将三种待融合的水下图像整合相加进行特征融合,得到特征融合的水下图像IER,该过程的函数表示为:
IER=DHE×RHE+DWB×RWB+DDCP×RDCP (1)
S54:在对水下图像进行特征融合过程中,采用最小化感知损失函数学习特征融合水下图像的映射函数,从而减少由像素级损失函数引起的伪影,度量特征融合图像IER与参考图像IRF之间的差异性感知损失函数为:
Figure BDA0003733324380000071
其中,N表示训练过程中每批次的数量,WkHkCk分别表示网络模型内第k个卷积层的特征映射的宽度、高度和通道数,θk(x)表示激活后的预训练的网络模型的第k层。
S6:对所述特征融合的水下图像,输入到超分辨率模块进行超分辨率重建,获得超分辨率重建图像,具体采用如下方式:
S61:采用多层卷积和批标准化的方法,提取水下图像中的低层特征信息,并采用密集残差跳跃连接的方式,组合来自每个卷积层的层次特征和标识映射,对水下图像中的低层特征信息进行恢复。
S62:采用多层卷积和批标准化的方法,提取并保存水下图像的高层特征信息。
S63:采用迁移学习的方法,获得预先训练好的从预训练网络模型提取出的高分辨率水下图像的高层特征信息。
S64:将步骤二保存的高层特征信息与步骤三获得的高层特征信息进行对比,采用最小化均方误差法缩小二者的误差,并对水下图像的高层特征信息进行恢复。
S65:采用反卷积方法对恢复后的水下图像低层特征信息和高层特征信息进行超分辨率重建,获得超分辨率的水下图像。
S66:对特征融合的水下图像进行超分辨率重建时,为衡量提取出的水下图像特征与用迁移学习方法获得的水下图像特征之间的差距程度,得到接近真实的高分辨率的水下图像,采用内容损失函数衡量图像之间的相似程度,
LC(F)=Ιh,l[||θ(h)-θ(F(l))||2] (3)
其中,F:{l}→h代表一个学习函数或映射,l表示低分辨率图像域,h表示高分辨率图像域;为了调控感知损失函数公式(2)和内容损失函数公式(3),使得两个损失函数得到小的损失,引入与损失函数相关的超参数λk与λC,则特征融合超分辨率网络的目标损失函数表示为:
Figure BDA0003733324380000081
本发明公开的基于特征融合网络的水下图像超分辨率方法,能够很好地解决水下图对比度低、分辨率低等问题。对解决水下图像色偏问题也有一定的帮助。运用特征融合网络,能更好的在减少伪影的同时提取预处理图像的有用细节信息。使用深度残差块结构,能很好的提取并组合水下图像的低层次的特征细节,使用迁移学习的方法,对水下图像的高层特征细节进行补充,以超分辨率重建出高质量,高分辨率的水下图像。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (5)

1.一种基于多特征图像融合的水下图像超分辨率方法,其特征在于包括:
获取水下图像,采用白平衡、自适应直方图均衡化和暗通道先验三种方法分别对该水下图像进行预处理;
构建特征融合超分辨率网络模型,将三种预处理后的水下图像和原图像输入至特征融合超分辨率网络模型中进行训练,并获得每种预处理图像的置信度信息;
将原图像分别与三种预处理图像进行特征优化获得三种特征优化图像;
将三种特征优化图像分别与各自的置信度相乘得到三种待融合的水下图像,将三种待融合的水下图像整合相加进行特征融合,得到特征融合的水下图像;
对特征融合的水下图像进行超分辨率重建,获得超分辨率重建图像。
2.根据权利要求1所述的基于多特征图像融合的水下图像超分辨率方法,其特征在于:所述白平衡方法为:首先对水下图像进行颜色投射校正,获取准确的色彩还原;所述自适应直方图均衡化方法为:首先计算水下图像的局部直方图,对亮度进行重新分布改进水下图像的局部对比度从而获得图像的更多细节;所述暗通道先验方法为:计算水下图像的透射率和大气光成分值,对原始图像进行高斯低通滤波后进行反转得到透射率图像,根据透射率图像得到局部去雾的水下图像。
3.根据权利要求1所述的基于多特征图像融合的水下图像超分辨率方法,其特征在于:将自适应直方图均衡化特征优化图像RHE、白平衡特征优化图像RWB和暗通道先验特征优化图像RDCP分别与各自的置信度DHE、DWB和DDCP相乘得到三种待融合的水下图像,将三种待融合的水下图像整合相加进行特征融合,得到特征融合的水下图像IER,该过程的函数表示为:
IER=DHE×RHE+DWB×RWB+DDCP×RDCP (1)
在对水下图像进行特征融合过程中,采用最小化感知损失函数学习特征融合水下图像的映射函数,从而减少由像素级损失函数引起的伪影,度量特征融合图像IER与参考图像IRF之间的差异性感知损失函数为:
Figure FDA0003733324370000021
其中,N表示训练过程中每批次的数量,WkHkCk分别表示网络模型内第k个卷积层的特征映射的宽度、高度和通道数,θk(x)表示激活后的预训练的网络模型的第k层。
4.根据权利要求1所述的基于多特征图像融合的水下图像超分辨率方法,其特征在于:对特征融合的水下图像进行超分辨率重建时包括对水下图像中的低层特征信息和高层特征信息进行重建:
其中对低层特征信息进行重建时:首先提取水下图像中的低层特征信息,并对水下图像中的低层特征信息进行恢复;
其中对高层特征信息进行重建时:首先提取水下图像的高层信息,再采用迁移学习方法使用预先训练好的网络模型提取高分辨率水下图像的高层信息,将该高层信息与上一步骤提取的高层信息进行对比,采用最小化均方误差法缩小二者的误差;
采用反卷积方法对恢复后的水下图像低层特征信息和高层特征信息进行超分辨率重建。
5.根据权利要求4所述的基于多特征图像融合的水下图像超分辨率方法,其特征在于:对特征融合的水下图像进行超分辨率重建时,首先衡量提取出的水下图像特征与从网络模型中提取出的水下图像特征之间的差距程度,得到接近真实的高分辨率的水下图像,采用内容损失函数衡量图像之间的相似程度,
LC(F)=Ιh,l[||θ(h)-θ(F(l))||2] (3)
其中,F:{l}→h代表一个学习函数或映射,l表示低分辨率图像域,h表示高分辨率图像域;为了调控感知损失函数公式(2)和内容损失函数公式(3),使得两个损失函数得到小的损失,引入与损失函数相关的超参数λk与λC,则特征融合超分辨率网络的目标损失函数表示为:
Figure FDA0003733324370000031
CN202210799113.7A 2022-07-06 2022-07-06 一种基于多特征图像融合的水下图像超分辨率方法 Pending CN115272072A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210799113.7A CN115272072A (zh) 2022-07-06 2022-07-06 一种基于多特征图像融合的水下图像超分辨率方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210799113.7A CN115272072A (zh) 2022-07-06 2022-07-06 一种基于多特征图像融合的水下图像超分辨率方法

Publications (1)

Publication Number Publication Date
CN115272072A true CN115272072A (zh) 2022-11-01

Family

ID=83766457

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210799113.7A Pending CN115272072A (zh) 2022-07-06 2022-07-06 一种基于多特征图像融合的水下图像超分辨率方法

Country Status (1)

Country Link
CN (1) CN115272072A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117082362A (zh) * 2023-08-25 2023-11-17 山东中清智能科技股份有限公司 一种水下成像方法和设备
CN117689760A (zh) * 2024-02-02 2024-03-12 山东大学 基于直方图信息网络的oct轴向超分辨率方法及***

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117082362A (zh) * 2023-08-25 2023-11-17 山东中清智能科技股份有限公司 一种水下成像方法和设备
CN117082362B (zh) * 2023-08-25 2024-05-28 山东中清智能科技股份有限公司 一种水下成像方法和设备
CN117689760A (zh) * 2024-02-02 2024-03-12 山东大学 基于直方图信息网络的oct轴向超分辨率方法及***
CN117689760B (zh) * 2024-02-02 2024-05-03 山东大学 基于直方图信息网络的oct轴向超分辨率方法及***

Similar Documents

Publication Publication Date Title
Wang et al. An experimental-based review of image enhancement and image restoration methods for underwater imaging
CN111275637B (zh) 一种基于注意力模型的非均匀运动模糊图像自适应复原方法
CN111127336B (zh) 一种基于自适应选择模块的图像信号处理方法
CN111709895A (zh) 基于注意力机制的图像盲去模糊方法及***
CN111028163A (zh) 一种基于卷积神经网络的联合图像去噪与弱光增强方法
CN112184577B (zh) 基于多尺度自注意生成对抗网络的单幅图像去雾方法
CN115272072A (zh) 一种基于多特征图像融合的水下图像超分辨率方法
Wang et al. MAGAN: Unsupervised low-light image enhancement guided by mixed-attention
CN113284061B (zh) 一种基于梯度网络的水下图像增强方法
CN111738948A (zh) 一种基于双U-net的水下图像增强方法
CN115170915A (zh) 一种基于端到端注意力网络的红外与可见光图像融合方法
CN116739899A (zh) 基于saugan网络的图像超分辨率重建方法
Zhang et al. Hierarchical attention aggregation with multi-resolution feature learning for GAN-based underwater image enhancement
CN115861094A (zh) 一种融合注意力机制的轻量级gan水下图像增强模型
CN115035010A (zh) 一种由卷积网络引导模型映射的水下图像增强方法
CN114881879A (zh) 一种基于亮度补偿残差网络的水下图像增强方法
Han et al. UIEGAN: Adversarial learning-based photorealistic image enhancement for intelligent underwater environment perception
CN111476739B (zh) 水下图像增强方法、***及存储介质
CN117392036A (zh) 基于照明幅度的低光图像增强方法
CN117408924A (zh) 一种基于多重语义特征融合网络的低光照图像增强方法
CN117351340A (zh) 基于双颜色空间的水下图像增强算法
CN116523794A (zh) 一种基于卷积神经网络的低光照图像增强方法
CN117036182A (zh) 一种单幅图像去雾方法及***
Kumar et al. Underwater image enhancement using deep learning
Guan et al. DiffWater: Underwater image enhancement based on conditional denoising diffusion probabilistic model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination