CN114596233A - 基于注意引导和多尺度特征融合的低照度图像增强方法 - Google Patents
基于注意引导和多尺度特征融合的低照度图像增强方法 Download PDFInfo
- Publication number
- CN114596233A CN114596233A CN202210267898.3A CN202210267898A CN114596233A CN 114596233 A CN114596233 A CN 114596233A CN 202210267898 A CN202210267898 A CN 202210267898A CN 114596233 A CN114596233 A CN 114596233A
- Authority
- CN
- China
- Prior art keywords
- feature
- image
- network
- residual
- low
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 44
- 238000005286 illumination Methods 0.000 title claims abstract description 35
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 10
- 238000012805 post-processing Methods 0.000 claims abstract description 5
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000012360 testing method Methods 0.000 claims abstract description 4
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 3
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 15
- 238000010586 diagram Methods 0.000 claims description 12
- 238000011176 pooling Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 2
- 238000013441 quality evaluation Methods 0.000 abstract description 3
- 238000010606 normalization Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于注意引导和多尺度特征融合的低照度图像增强方法,步骤包括:1)数据集构建,选择在模拟低照度环境合成测试集和真实环境下拍摄的低照度图像数据集;2)对图像数据进行预处理;3)构建特征提取网络;5)构建特征融合网络;5)设计可解释性的注意力损失引导网络训练;6)后处理,输出增强后的高分辨率图像。与现有技术相比,本发明可以更好的恢复图像细节信息,提升图像亮度和对比度,主观视觉和客观图像质量评价指标都得到改善。
Description
技术领域
本发明属于图像处理领域,尤其涉及一种低照度图像增强算法。
背景技术
由于自然环境的复杂多样性,在不同场景(如阴天、背光、夜晚)等低照度条件下,基于光学的图像采集设备的成像质量受到影响,主要表现为图像整体偏暗、颜色失真、对比度过低、细节模糊等。采集得到的低质量图像缺乏***必需的信息输入,造成其他基于视觉的智能算法性能下降,例如目标检测、图像分割、语义识别等。成像问题不可逆时,对低照度图像进行增强处理显得尤为重要。
发明内容
本发明旨在提出一种基于注意引导和多尺度特征融合的低照度图像增强方法,实现了低照度图像在图像亮度和对比度方面的指标改善和提升。
本发明的一种基于注意引导与多尺度特征融合的低照度图像增强方法,该方法包括以下步骤:
步骤1、构建数据集,该数据集包括大量的模拟低照度环境合成的测试集和真实场景下拍摄的低照度图像数据集SID,构成数据集的原始图像为BayerRaw格式图像;将该数据集作为训练数据;
步骤2、对图像数据做预处理,包括(1)降低维度;(2)去除黑电平;(3)图像系数放大;
步骤3、为数据集训练目的构建特征提取网络,采用五个stage组成特征提取网络,用于学习不同尺度下的特征信息,每个stage由若干个引入密集连接的残差块组成,其中:stage1和stage2分别包含两个引入密集连接的残差块,stage3、stage4以及stage5分别包含三个引入密集连接的残差块;引入密集连接的残差块结构包括多个卷积-激活函数层、Concat操作层,残差块之间以跳跃连接方式相互连接;Xi、Xi+1分别表示第i个残差单元的输入特征和输出特征,所述引入密集连接的残差块将提取到的不同尺度的特征图输入下一步骤;所述Concat操作用于跨层连接,直接在特征图的维度信息上进行特征融合;
步骤4、构建包括多分辨率融合块和链式残差池化层的特征融合网络,通过特征融合网络实现以下处理:
①通过残差块输入的不同尺度的特征图,在特征融合网络内部形成短距离连接,与特征提取网络形成远距离连接;
②接着,对不同尺度的特征图进行融合,多分辨率融合块包括对每一个特征图设置的两路依序1×1卷积、3×3卷积、上采样处理和加法器,由两路将每一个特征图上采样处理至当前输入特征图的尺寸大小,然后通过加法器两两相加,实现了两个尺度的特征融合;
③最后,将两个尺度融合后的特征送入链式残差池化层,抽取特征图中的高层语义特征,通过建立5×5的池化层,对不同尺度的特征信息进行整合,再进行求和操作;最终得到充分包含浅层特征的细节信息和深层特征的语义信息的特征图,实现各层级特征图之间的融合;
步骤5、设计可解释性的注意力损失函数,引导网络训练:
根据Canny算子检测图像边缘得到包含图像边缘位置和细节信息的注意力图,得到最终损失函数L(θ),表达式如下:
其中,IL表示前向传播后低照度图像,IH表示高分辨率图像,N表示高分辨率图像的像素数量,||||1表示损失函数L1范数,θ表示网络中的可学习参数;
步骤6、后处理,具体包含:将H/2×W/2尺寸的12个低分辨率RGB通道图转换为H×W尺寸的3个高分辨率RGB通道,最后输出增强后的高分辨率图像,其中H、W分别表示RGB通道图的高、宽。
与现有技术相比,本发明可以更好的恢复图像细节信息,提升图像亮度和对比度,主观视觉和客观图像质量评价指标都得到改善。
附图说明
图1为本发明的基于注意引导和多尺度特征融合的低照度图像增强方法整体流程示意图;
图2为本发明的基于注意引导和多尺度特征融合的低照度图像增强方法模型示意图;
图3为输入图像预处理模型示意图;
图4为特征提取网络结构示意图;
图5为引入密集连接的残差块结构示意图;
图6为多分辨率融合块结构示意图;
图7为链式残差池化结构示意图;
图8为注意力图示意图。
具体实施方式
下面结合附图和具体实施例对本发明技术方案作进一步详细描述。
如图1所示,本发明的基于注意引导与多尺度特征融合的低照度图像增强方法,如图2所示,为本发明的基于注意引导与多尺度特征融合的低照度图像增强方法模型示意图。该方法具体包括以下步骤;
步骤1、构建数据集,该数据集包括大量的模拟低照度环境合成的测试集和真实场景下拍摄的低照度图像数据集SID,该数据集是在2018年由因特尔实验室提出的开源数据集,是使用Sony相机捕获的真实场景的图像。短曝光的图像作为输入,长曝光的图像作为groundtruth,多张短曝光图像对应一张长曝光图像,均为Bayerraw格式图像。
将该数据集作为训练数据;
模拟低照度环境采用伽马矫正方法实现,即通过随机调整γ参数来改变图像亮度,使图像发生非线性变化从而亮度降低,模拟低照度环境的图像亮度,公式如下:
IL=rand×(IH)γ (1)
其中,IL为低照度图像,rand为(0,1)之间的随机参数,IH为高分辨率图像,γ表示改变亮度的系数。同时考虑到低光照图像存在的噪声问题,采用方差服从均匀分布的高斯噪声。
从BSD和DIVerse 2K(div2k)两个拥有高质量图像的数据集中筛选出1000张图像作为参考图像,每张参考图像对应生成10张低照度图像;本发明具体实施中采用了两个数据集,一个真实的SID,一个合成的,他们之间没有关系,结合使用只是为了泛化性能更强;
步骤2、对图像数据做预处理,主要包括三个方面:(1)降低维度:根据Bayer阵列的像素点排列方式,按照R-G-B-G将图像打包成四个通道,同时维度变为原来的二分之一;(2)去除黑电平;(3)图像系数放大,处理好的图像送入注意引导和多尺度特征融合网络中;如图2所示,
步骤3、为数据集训练目的构建特征提取网络,如图4所示,采用五个stage组成特征提取网络,用于学习不同尺度下的特征信息,每个stage由若干个引入密集连接的残差块组成,其中:stage1和stage2分别包含两个引入密集连接的残差块,stage3、stage4以及stage5分别包含三个引入密集连接的残差块。本发明将经典残差块改进为引入密集连接的残差块:首先,去除了经典残差网络中的残差块的批归一化层(Batch Normalization)使用卷积层代替,利用卷积层进行提取特征,而且卷积层之间采用密集连接,从而进一步加深残差结构的深度,增强网络的特征传播效率。在不同引入密集连接的残差块之间,通过跳跃连接方式,将前一个引入密集连接的残差块的特征传递给后一个引入密集连接的残差块,从而将两个引入密集连接的残差块连接在一起。引入密集连接的残差块选择ReLU作为激活函数。如图5所示,为引入密集连接的残差块结构示意图。引入密集连接的残差块包括多个Conv-ReLU(卷积-激活函数)层、Concat操作,所述Concat操作用于跨层连接,直接在特征图的维度信息上进行特征融合。Xi、Xi+1分别表示第i个残差单元的输入特征和输出特征,
在本步骤中,提取多种尺度特征需要对图像进行多次下采样,在这一过程中,要求神经网络尽量少的丢失特征信息,残差块保证了图像的特征信息在下采样过程中可以得到较为完整的保存。采用五个stage组成特征提取网络的方案实现了在网络性能和时间消耗之间达到平衡,从而更好地适应于低照度图像增强特征提取任务;
本发明对于残差块的改进主要表现在两个方面:首先,对经典残差网络的结构做了改进,去除了残差块中的批归一化层(Batch Normalization);另一方面,本发明进一步加深残差结构的深度,使用卷积层代替去掉的批归一化层用于提取特征,而且在残差结构的卷积层之间采用密集连接,来增强网络的特征传播效率。在不同的残差单元之间,通过跳跃连接的方式将两个残差单元连接在一起。
步骤4、构建特征融合网络,包括多分辨率融合块和链式残差池化层:
①通过残差块输入的不同尺度的特征图,在特征融合网络内部形成短距离连接,与特征提取网络形成远距离连接,让梯度能够有效传送到整个神经网络中;
②接着使用多分辨率融合块对不同尺度的特征图进行融合,如图6所示,为多分辨率融合块结构示意图。本发明使用了实现高精度语义分割任务的多级别高分辨率语义分割模型RefineNet。其中,包括对每一个特征图设置的两路依序1×1卷积、3×3卷积、上采样,由两路将每一个特征图上采样处理至当前输入特征图的尺寸大小,然后通过加法器两两相加,实现了两个尺度的特征融合。在卷积操作中,在3×3卷积前加入了1×1卷积,其目的是在加大感受野之前进行降维,减少神经网络参数,同时增加非线性的激励和提升网络的表达能力。
③最后,将两个尺度融合后的特征送入链式残差池化层(ChainedResidualPooling,CRP),作用是抽取特征图中的高层语义特征,如图7所示,为链式残差池化模块示意图。这个模块主要由一个残差结构、一个池化层和一个卷积层组成。通过残差校正的方式,优化前两步融合得到的分割结果;
通过建立5×5的池化层,对不同尺度的特征信息进行整合,再对其进行求和操作;
最终得到充分包含浅层特征的细节信息和深层特征的语义信息的特征图,实现了各层级特征图之间的融合;
步骤5、设计可解释性的注意力损失函数,用于引导网络训练:
在提升图像亮度和对比度的同时,需要引导网络关注低照度图像增强的细节内容。计算机视觉任务中引入了多种注意力机制,大多数使用额外的网络来形成特征图的像素级权重,在带来性能改善的同时,额外的网络也将严重影响网络的推理速度,导致无法在网络性能和时间消耗之间达到平衡。
为了解决这一问题,本发明提出了一种可解释的注意力引导机制,该操作不会增加神经网络的推理负担。具体来说,根据Canny算子检测图像边缘得到包含图像边缘位置和细节信息的注意力图,如图8所示。遵循低层次视觉任务的传统,选择损失函数L1损失作为最终损失函数的主干。然后计算前向传播后低照度图像IL和高分辨率图像IH之间的绝对差值,将差值与注意力图MAPE相乘,计算其平均值,得到最终损失函数L(θ)。这一过程的实现表述为:
其中,IL表示前向传播后低照度图像,IH表示高分辨率图像,N表示高分辨率图像的像素数量,||||1表示损失函数L1范数,θ表示网络中的可学习参数;
步骤6、后处理,输出增强后的高分辨率图像,具体处理如下:
采用亚像素卷积的方法,将H/2×W/2尺寸的12个低分辨率RGB通道图转换为H×W尺寸的3个高分辨率RGB通道,最终输出高分辨率的图像。其中,H、W分别表示RGB通道图的高、宽。
本发明的有益效果在于:可解释的注意力引导机制,在不增加神经网络推理负担的同时,可以有效增强了隐藏在黑暗中的边缘细节信息。选择残差网络构建特征提取器,在去除了残差模块中的批归一化层的同时进一步加深残差结构的深度,来获取图像的上下文信息,再使用增强后RefineNet进行特征融合,充分利用了图像的特征信息。算法能自适应地提高亮度和对比度,恢复图像高频信息和边缘细节,避免边缘出现伪影,主观视觉和客观图像质量评价指标都得到进一步改善。
以上仅为本发明较佳的具体实施方式的描述,本发明还可以通过另外不同的具体实施方式加以实施或应用。本领域技术人员对本说明书中的各项细节基于不同观点与应用、在没有背离本发明的精神下所作出的各种方案组合或变形,均落入本发明保护范围。
Claims (3)
1.一种基于注意引导与多尺度特征融合的低照度图像增强方法,其特征在于,该方法包括以下步骤:
步骤1、构建数据集,该数据集包括大量的模拟低照度环境合成的测试集和真实场景下拍摄的低照度图像数据集SID,构成数据集的原始图像为Bayer Raw格式图像;将该数据集作为训练数据;
步骤2、对图像数据做预处理,包括(1)降低维度;(2)去除黑电平;(3)图像系数放大;
步骤3、为数据集训练目的构建特征提取网络,采用五个stage组成特征提取网络,用于学习不同尺度下的特征信息,每个stage由若干个引入密集连接的残差块组成,其中:stage1和stage2分别包含两个引入密集连接的残差块,stage3、stage4以及stage5分别包含三个引入密集连接的残差块;引入密集连接的残差块结构包括多个卷积-激活函数层、Concat操作层,残差块之间以跳跃连接方式相互连接;Xi、Xi+1分别表示第i个残差单元的输入特征和输出特征,所述引入密集连接的残差块将提取到的不同尺度的特征图输入下一步骤;所述Concat操作用于跨层连接,直接在特征图的维度信息上进行特征融合;
步骤4、构建包括多分辨率融合块和链式残差池化层的特征融合网络,通过特征融合网络实现以下处理:
①通过残差块输入的不同尺度的特征图,在特征融合网络内部形成短距离连接,与特征提取网络形成远距离连接;
②接着,对不同尺度的特征图进行融合,多分辨率融合块包括对每一个特征图设置的两路依序1×1卷积、3×3卷积、上采样处理和加法器,由两路将每一个特征图上采样处理至当前输入特征图的尺寸大小,然后通过加法器两两相加,实现了两个尺度的特征融合;
③最后,将两个尺度融合后的特征送入链式残差池化层,抽取特征图中的高层语义特征,通过建立5×5的池化层,对不同尺度的特征信息进行整合,再进行求和操作;最终得到充分包含浅层特征的细节信息和深层特征的语义信息的特征图,实现各层级特征图之间的融合;
步骤5、设计可解释性的注意力损失函数,引导网络训练:
根据Canny算子检测图像边缘得到包含图像边缘位置和细节信息的注意力图,得到最终损失函数L(θ),表达式如下:
其中,IL表示前向传播后低照度图像,IH表示高分辨率图像,N表示高分辨率图像的像素数量,|| ||1表示损失函数L1范数,θ表示网络中的可学习参数;
步骤6、后处理,具体包含:将H/2×W/2尺寸的12个低分辨率RGB通道图转换为H×W尺寸的3个高分辨率RGB通道,最后输出增强后的高分辨率图像,其中H、W分别表示RGB通道图的高、宽。
2.如权利要求1所述的基于注意引导与多尺度特征融合的低照度图像增强方法,其特征在于,提取多种尺度特征时,对图像进行多次下采样,利用引入密集连接的残差块保证特征图像的特征信息在下采样过程中完整保存。
3.如权利要求1所述的基于注意引导与多尺度特征融合的低照度图像增强方法,其特征在于,所述步骤2中的降低维度,具体包括:根据Bayer阵列的像素点排列方式,按照R-G-B-G将图像打包成四个通道,同时维度变为原来的二分之一。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210267898.3A CN114596233A (zh) | 2022-03-18 | 2022-03-18 | 基于注意引导和多尺度特征融合的低照度图像增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210267898.3A CN114596233A (zh) | 2022-03-18 | 2022-03-18 | 基于注意引导和多尺度特征融合的低照度图像增强方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114596233A true CN114596233A (zh) | 2022-06-07 |
Family
ID=81810765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210267898.3A Pending CN114596233A (zh) | 2022-03-18 | 2022-03-18 | 基于注意引导和多尺度特征融合的低照度图像增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114596233A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115205166A (zh) * | 2022-09-16 | 2022-10-18 | 南京信息工程大学 | 基于环境光与传输图并行估计网络的水下图像恢复方法 |
CN116912259A (zh) * | 2023-09-14 | 2023-10-20 | 江西财经大学 | 针对计算摄影图像的图像色彩感知差异评价方法与*** |
CN117994161A (zh) * | 2024-04-03 | 2024-05-07 | 西安交通大学 | 一种raw格式弱光图像增强方法及装置 |
-
2022
- 2022-03-18 CN CN202210267898.3A patent/CN114596233A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115205166A (zh) * | 2022-09-16 | 2022-10-18 | 南京信息工程大学 | 基于环境光与传输图并行估计网络的水下图像恢复方法 |
CN116912259A (zh) * | 2023-09-14 | 2023-10-20 | 江西财经大学 | 针对计算摄影图像的图像色彩感知差异评价方法与*** |
CN116912259B (zh) * | 2023-09-14 | 2023-11-24 | 江西财经大学 | 针对计算摄影图像的图像色彩感知差异评价方法与*** |
CN117994161A (zh) * | 2024-04-03 | 2024-05-07 | 西安交通大学 | 一种raw格式弱光图像增强方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112288658B (zh) | 一种基于多残差联合学习的水下图像增强方法 | |
CN112233038B (zh) | 基于多尺度融合及边缘增强的真实图像去噪方法 | |
CN110210608B (zh) | 基于注意力机制和多层次特征融合的低照度图像增强方法 | |
CN109685072B (zh) | 一种基于生成对抗网络的复合降质图像高质量重建方法 | |
CN113313657B (zh) | 一种用于低光照图像增强的非监督学习方法和*** | |
CN111402146B (zh) | 图像处理方法以及图像处理装置 | |
CN111754438B (zh) | 基于多分支门控融合的水下图像复原模型及其复原方法 | |
CN114596233A (zh) | 基于注意引导和多尺度特征融合的低照度图像增强方法 | |
WO2021164731A1 (zh) | 图像增强方法以及图像增强装置 | |
CN109785252B (zh) | 基于多尺度残差密集网络夜间图像增强方法 | |
CN110097106A (zh) | 基于深度学习的U-net网络的低照度成像算法及装置 | |
CN112164011A (zh) | 基于自适应残差与递归交叉注意力的运动图像去模糊方法 | |
CN112070664A (zh) | 一种图像处理方法以及装置 | |
CN114821058A (zh) | 一种图像语义分割方法、装置、电子设备及存储介质 | |
CN114627034A (zh) | 一种图像增强方法、图像增强模型的训练方法及相关设备 | |
CN114049251A (zh) | 一种用于ai视频分析的模糊图像超分辨率重建方法及装置 | |
CN113379606B (zh) | 一种基于预训练生成模型的人脸超分辨方法 | |
CN117391920A (zh) | 基于rgb通道差分平面的大容量隐写方法及*** | |
CN117152019A (zh) | 一种基于双分支特征处理的低照度图像增强方法和*** | |
CN114119428B (zh) | 一种图像去模糊方法和装置 | |
CN110189370B (zh) | 基于全卷积密集连接神经网络的单目图像深度估计方法 | |
CN115311149A (zh) | 图像去噪方法、模型、计算机可读存储介质及终端设备 | |
CN114037843A (zh) | 一种基于改进生成对抗网络的提高水下图像分辨率方法 | |
CN113012072A (zh) | 一种基于注意力网络的图像运动去模糊方法 | |
Ooi et al. | Enhanced dense space attention network for super-resolution construction from single input image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |