CN112927162A - 一种面向低照度图像的增强方法及*** - Google Patents

一种面向低照度图像的增强方法及*** Download PDF

Info

Publication number
CN112927162A
CN112927162A CN202110287338.XA CN202110287338A CN112927162A CN 112927162 A CN112927162 A CN 112927162A CN 202110287338 A CN202110287338 A CN 202110287338A CN 112927162 A CN112927162 A CN 112927162A
Authority
CN
China
Prior art keywords
network
image
feature
enhancement
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110287338.XA
Other languages
English (en)
Inventor
陈占芳
张英超
姜晓明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Research Institute Of Changchun University Of Technology
Changchun University of Science and Technology
Original Assignee
Chongqing Research Institute Of Changchun University Of Technology
Changchun University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Research Institute Of Changchun University Of Technology, Changchun University of Science and Technology filed Critical Chongqing Research Institute Of Changchun University Of Technology
Priority to CN202110287338.XA priority Critical patent/CN112927162A/zh
Publication of CN112927162A publication Critical patent/CN112927162A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种面向低照度图像的增强方法,涉及图像增强技术领域,包括:将获取的低照度图像输入到视觉注意力网络中以进行亮度信息提取处理,进而生成通道注意力图像;视觉注意力网络内置有视觉注意力机制;通道注意力图像包括高亮度区域和低亮度区域;将通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像;将低照度图像、通道注意力图像以及去噪图像输入到增强网路中,以生成增强图像;增强网路的损失函数包括亮度损失子函数、结构性损失子函数、知觉损失子函数以及区域性损失子函数。本发明可同时有效的实现降噪和增强,改善弱光环境下所拍摄的照片清晰度,全面提升图像质量。

Description

一种面向低照度图像的增强方法及***
技术领域
本发明涉及图像增强技术领域,特别是涉及一种面向低照度图像的增强方法及***。
背景技术
图像作为一种方便、易懂的信息采集和传输手段,早已应用于人类日常生活的各个方面。在光照不足的环境下,捕获的图像存在信噪比、对比度、分别率均较低的特点。为改善这种情况,在硬件方面借助低照度照相机拍摄,直接从获取端改善低照度问题,但此硬件设备价格昂贵,使得此方法无法普及。目前也发开出多种低照度增强算法,并取得了一定效果。该算法为单阶段增强策略,即直接从低照度图像生成增强光图像,但是此类方法的增强范围松散。
发明内容
本发明的目的是提供一种面向低照度图像的增强方法及***,可同时有效的实现降噪和增强,弥补成像设备在硬件上的不足,从而改善弱光环境下所拍摄的照片清晰度,全面提升图像质量。
为实现上述目的,本发明提供了如下方案:
一种面向低照度图像的增强方法,包括:
获取低照度图像;
将所述低照度图像输入到视觉注意力网络中以进行亮度信息提取处理,进而生成通道注意力图像;所述视觉注意力网络内置有视觉注意力机制;所述通道注意力图像包括高亮度区域和低亮度区域;
将所述通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像;
将所述低照度图像、所述通道注意力图像以及所述去噪图像输入到增强网路中,以生成增强图像;所述增强网路的损失函数包括亮度损失子函数、结构性损失子函数、知觉损失子函数以及区域性损失子函数。
可选的,所述将所述低照度图像输入到视觉注意力网络中以进行亮度信息提取处理,进而生成通道注意力图像,具体包括:
将所述低照度图像转换到HSI特征空间内,以获取多通道特征图;
将所述多通道特征图输入到平均池化层中,以获取每个通道的平均像素值;
将所述多通道特征图输入到最大池化层中,以获取每个通道的最大像素值;
将每个通道的所述平均像素值和所述最大像素值输入到多层感知器中,以生成高亮度区域特征向量和低亮度区域特征向量;
分别对所述高亮度区域特征向量和所述低亮度区域特征向量元素进行求和操作,得到第一特征向量和第二特征向量;
采用sigmoid函数对所述第一特征向量和所述第二特征向量进行处理以得到通道注意力图像。
可选的,所述将所述通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像,具体包括:
采取跳跃链接的方式,将所述通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像;
其中,所述降噪网络为5层网路,前4层网络均由Conv+BN+Relu组成,前4层网络使用的滤波器的数量均为128,第5层网络为Conv+BN组成,第5层网路使用的滤波器的数量为1,所述滤波器为卷积核滤波器,所述滤波器的尺寸为7*7。
可选的,所述将所述低照度图像、所述通道注意力图像以及所述去噪图像输入到增强网路中,以生成增强图像,具体包括:
将所述低照度图像、所述通道注意力图像以及所述去噪图像输入到特征提取子网络,以提取明亮信息特征、结构性信息特征、知觉信息特征以及区域性信息特征;所述增强网路包括依次连接的特征提取子网络、增强子网络以及融合子网络;
将所述明亮信息特征、所述结构性信息特征、所述知觉信息特征以及所述区域性信息特征输入到所述增强子网络,以获取多个增强特征信息;
将所有所述增强特征信息输入到所述融合子网络,以获取增强图像。
可选的,所述将所述明亮信息特征、所述结构性信息特征、所述知觉信息特征以及所述区域性信息特征输入到所述增强子网络,以获取多个增强特征信息,具体包括:
将所述明亮信息特征输入到第一增强子网络中,以获取第一增强特征信息;所述增强子网络包括第一增强子网络、第二增强子网络、第三增强子网络和第四增强子网络;所述第一增强子网络的损失函数为亮度损失子函数;
将所述结构性信息特征输入到所述第二增强子网络中,以获取第二增强特征信息;所述第二增强子网络的损失函数为结构性损失子函数;
将所述知觉信息特征输入到所述第三增强子网络中,以获取第三增强特征信息;所述第三增强子网络的损失函数为知觉损失子函数;
将所述区域性信息特征输入到所述第四增强子网络中,以获取第四增强特征信息;所述第四增强子网络的损失函数为区域性损失子函数。
一种面向低照度图像的增强***,包括:
图像获取模块,用于获取低照度图像;
通道注意力图像生成模块,用于将所述低照度图像输入到视觉注意力网络中以进行亮度信息提取处理,进而生成通道注意力图像;所述视觉注意力网络内置有视觉注意力机制;所述通道注意力图像包括高亮度区域和低亮度区域;
去噪图像生成模块,用于将所述通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像;
增强图像生成模块,用于将所述低照度图像、所述通道注意力图像以及所述去噪图像输入到增强网路中,以生成增强图像;所述增强网路的损失函数包括亮度损失子函数、结构性损失子函数、知觉损失子函数以及区域性损失子函数。
可选的,所述通道注意力图像生成模块,具体包括:
转换单元,用于将所述低照度图像转换到HSI特征空间内,以获取多通道特征图;
平均像素值计算单元,用于将所述多通道特征图输入到平均池化层中,以获取每个通道的平均像素值;
最大像素值计算单元,用于将所述多通道特征图输入到最大池化层中,以获取每个通道的最大像素值;
特征向量确定单元,用于将每个通道的所述平均像素值和所述最大像素值输入到多层感知器中,以生成高亮度区域特征向量和低亮度区域特征向量;
融合单元,用于分别对所述高亮度区域特征向量和所述低亮度区域特征向量元素进行求和操作,得到第一特征向量和第二特征向量;
通道注意力图像生成单元,用于采用sigmoid函数对所述第一特征向量和所述第二特征向量进行处理以得到通道注意力图像。
可选的,所述去噪图像生成模块,具体包括:
去噪图像生成单元,用于采取跳跃链接的方式,将所述通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像;
其中,所述降噪网络为5层网路,前4层网络均由Conv+BN+Relu组成,前4层网络使用的滤波器的数量均为128,第5层网络为Conv+BN组成,第5层网路使用的滤波器的数量为1,所述滤波器为卷积核滤波器,所述滤波器的尺寸为7*7。
可选的,所述增强图像生成模块,具体包括:
特征提取单元,用于将所述低照度图像、所述通道注意力图像以及所述去噪图像输入到特征提取子网络,以提取明亮信息特征、结构性信息特征、知觉信息特征以及区域性信息特征;所述增强网路包括依次连接的特征提取子网络、增强子网络以及融合子网络;
增强特征信息确定单元,用于将所述明亮信息特征、所述结构性信息特征、所述知觉信息特征以及所述区域性信息特征输入到所述增强子网络,以获取多个增强特征信息;
增强图像生成单元,用于将所有所述增强特征信息输入到所述融合子网络,以获取增强图像。
可选的,所述增强特征信息确定单元,具体包括:
第一增强特征信息确定子单元,用于将所述明亮信息特征输入到第一增强子网络中,以获取第一增强特征信息;所述增强子网络包括第一增强子网络、第二增强子网络、第三增强子网络和第四增强子网络;所述第一增强子网络的损失函数为亮度损失子函数;
第二增强特征信息确定子单元,用于将所述结构性信息特征输入到所述第二增强子网络中,以获取第二增强特征信息;所述第二增强子网络的损失函数为结构性损失子函数;
第三增强特征信息确定子单元,用于将所述知觉信息特征输入到所述第三增强子网络中,以获取第三增强特征信息;所述第三增强子网络的损失函数为知觉损失子函数;
第四增强特征信息确定子单元,用于将所述区域性信息特征输入到所述第四增强子网络中,以获取第四增强特征信息;所述第四增强子网络的损失函数为区域性损失子函数。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
为了提高低照度图像的清晰度和避免颜色失真,本发明提供了一种面向低照度图像的增强方法及***,即一种基于注意力机制的稠密低照度增强网络方法及***。首先引入能够提取空间信息、局部物体特征的视觉注意力机制,然后利用该网络学习从低照度图像到正常照度图像的特征映射,通过融合网络最终实现低照度图像增强。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一种面向低照度图像的增强方法的流程图;
图2为本发明一种面向低照度图像的增强***的结构图;
图3为本发明一种面向低照度图像的增强方法的网络结构示意图;
图4为本发明视觉注意力网络的流程示意图;
图5为本发明降噪网络的流程示意图;
图6为本发明特征提取子网络的流程示意图;
图7为本发明融合子网络的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种面向低照度图像的增强方法及***,可同时有效的实现降噪和增强,弥补成像设备在硬件上的不足,从而改善弱光环境下所拍摄的照片清晰度,全面提升图像质量。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例一
如图1所示,本实施例提供的一种面向低照度图像的增强方法,包括如下步骤。
步骤101:获取低照度图像。
步骤102:将所述低照度图像输入到视觉注意力网络中以进行亮度信息提取处理,进而生成通道注意力图像;所述视觉注意力网络内置有视觉注意力机制;所述通道注意力图像包括高亮度区域和低亮度区域。
步骤103:将所述通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像。
步骤104:将所述低照度图像、所述通道注意力图像以及所述去噪图像输入到增强网路中,以生成增强图像;所述增强网路的损失函数包括亮度损失子函数、结构性损失子函数、知觉损失子函数以及区域性损失子函数。
其中,步骤102具体包括:
将所述低照度图像转换到HSI特征空间内,以获取多通道特征图;将所述多通道特征图输入到平均池化层中,以获取每个通道的平均像素值;将所述多通道特征图输入到最大池化层中,以获取每个通道的最大像素值;将每个通道的所述平均像素值和所述最大像素值输入到多层感知器中,以生成高亮度区域特征向量和低亮度区域特征向量;分别对所述高亮度区域特征向量和所述低亮度区域特征向量元素进行求和操作,得到第一特征向量和第二特征向量;采用sigmoid函数对所述第一特征向量和所述第二特征向量进行处理以得到通道注意力图像。
步骤103具体包括:
采取跳跃链接的方式,将所述通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像;其中,所述降噪网络为5层网路,前4层网络均由Conv+BN+Relu组成,前4层网络使用的滤波器的数量均为128,第5层网络为Conv+BN组成,第5层网路使用的滤波器的数量为1,所述滤波器为卷积核滤波器,所述滤波器的尺寸为7*7。
步骤104具体包括:
将所述低照度图像、所述通道注意力图像以及所述去噪图像输入到特征提取子网络,以提取明亮信息特征、结构性信息特征、知觉信息特征以及区域性信息特征;所述增强网路包括依次连接的特征提取子网络、增强子网络以及融合子网络;将所述明亮信息特征、所述结构性信息特征、所述知觉信息特征以及所述区域性信息特征输入到所述增强子网络,以获取多个增强特征信息;将所有所述增强特征信息输入到所述融合子网络,以获取增强图像。
其中,所述将所述明亮信息特征、所述结构性信息特征、所述知觉信息特征以及所述区域性信息特征输入到所述增强子网络,以获取多个增强特征信息,具体包括:
将所述明亮信息特征输入到第一增强子网络中,以获取第一增强特征信息;所述增强子网络包括第一增强子网络、第二增强子网络、第三增强子网络和第四增强子网络;所述第一增强子网络的损失函数为亮度损失子函数;将所述结构性信息特征输入到所述第二增强子网络中,以获取第二增强特征信息;所述第二增强子网络的损失函数为结构性损失子函数;将所述知觉信息特征输入到所述第三增强子网络中,以获取第三增强特征信息;所述第三增强子网络的损失函数为知觉损失子函数;将所述区域性信息特征输入到所述第四增强子网络中,以获取第四增强特征信息;所述第四增强子网络的损失函数为区域性损失子函数。
实施例二
如图2所示,本实施例提供的一种面向低照度图像的增强***,包括:
图像获取模块201,用于获取低照度图像。
通道注意力图像生成模块202,用于将所述低照度图像输入到视觉注意力网络中以进行亮度信息提取处理,进而生成通道注意力图像;所述视觉注意力网络内置有视觉注意力机制;所述通道注意力图像包括高亮度区域和低亮度区域。
去噪图像生成模块203,用于将所述通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像。
增强图像生成模块204,用于将所述低照度图像、所述通道注意力图像以及所述去噪图像输入到增强网路中,以生成增强图像;所述增强网路的损失函数包括亮度损失子函数、结构性损失子函数、知觉损失子函数以及区域性损失子函数。
所述通道注意力图像生成模块202,具体包括:
转换单元,用于将所述低照度图像转换到HSI特征空间内,以获取多通道特征图;平均像素值计算单元,用于将所述多通道特征图输入到平均池化层中,以获取每个通道的平均像素值;最大像素值计算单元,用于将所述多通道特征图输入到最大池化层中,以获取每个通道的最大像素值;特征向量确定单元,用于将每个通道的所述平均像素值和所述最大像素值输入到多层感知器中,以生成高亮度区域特征向量和低亮度区域特征向量;融合单元,用于分别对所述高亮度区域特征向量和所述低亮度区域特征向量元素进行求和操作,得到第一特征向量和第二特征向量;通道注意力图像生成单元,用于采用sigmoid函数对所述第一特征向量和所述第二特征向量进行处理以得到通道注意力图像。
所述去噪图像生成模块203,具体包括:
去噪图像生成单元,用于采取跳跃链接的方式,将所述通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像;其中,所述降噪网络为5层网路,前4层网络均由Conv+BN+Relu组成,前4层网络使用的滤波器的数量均为128,第5层网络为Conv+BN组成,第5层网路使用的滤波器的数量为1,所述滤波器为卷积核滤波器,所述滤波器的尺寸为7*7。
所述增强图像生成模块204,具体包括:
特征提取单元,用于将所述低照度图像、所述通道注意力图像以及所述去噪图像输入到特征提取子网络,以提取明亮信息特征、结构性信息特征、知觉信息特征以及区域性信息特征;所述增强网路包括依次连接的特征提取子网络、增强子网络以及融合子网络;增强特征信息确定单元,用于将所述明亮信息特征、所述结构性信息特征、所述知觉信息特征以及所述区域性信息特征输入到所述增强子网络,以获取多个增强特征信息;增强图像生成单元,用于将所有所述增强特征信息输入到所述融合子网络,以获取增强图像。
其中,所述增强特征信息确定单元,具体包括:
第一增强特征信息确定子单元,用于将所述明亮信息特征输入到第一增强子网络中,以获取第一增强特征信息;所述增强子网络包括第一增强子网络、第二增强子网络、第三增强子网络和第四增强子网络;所述第一增强子网络的损失函数为亮度损失子函数;第二增强特征信息确定子单元,用于将所述结构性信息特征输入到所述第二增强子网络中,以获取第二增强特征信息;所述第二增强子网络的损失函数为结构性损失子函数;第三增强特征信息确定子单元,用于将所述知觉信息特征输入到所述第三增强子网络中,以获取第三增强特征信息;所述第三增强子网络的损失函数为知觉损失子函数;第四增强特征信息确定子单元,用于将所述区域性信息特征输入到所述第四增强子网络中,以获取第四增强特征信息;所述第四增强子网络的损失函数为区域性损失子函数。
实施例三
本实施例提供的一种面向低照度图像的增强方法,由三个模块组成,分别是视觉注意力网络、降噪网络、增强网络。其网络结构如图3所示。
为了提高图像质量和网络稳定性,且进一步考虑图像的结构信息,性能和区域差异,本实施例提供了一种新的损失函数。
L=ωaLa+wnLn+weLe
其中,La,Ln,Le分别表示视觉注意力网络(Attention-net),降噪网络(Noist-net),增强网络(Enhancement-net)的损失函数,ωane分别是相应的系数。
第一步:首先将输入图像(即低照度图像)输入到视觉注意力网络中以进行亮度信息提取处理,进而生成通道注意力图像。
视觉注意力机制是人眼视觉在进化过程中形成的一种特殊机制,该机制可以针对人眼输入的全局图像,有意识地消除无关信息,投入更多的注意力在感兴趣的目标区域。在光照不足的环境下捕获的图像通常可见度差,对比度低,并且含有大量噪声。为了解决低照度图像中亮度的不均匀分布,传统的图像增强方法通常会增强整个图像,但是忽略了低照度图像中每个区域的亮度不一致,这很容易导致高亮度区域的过度曝光和低亮度区域的曝光不足。本实施例采用了视觉注意力网络(该网络内置有视觉注意力机制),主要用来估计低照度图像中弱光区域的分布,并分配给相应区域更高的权值用来增强弱光区域表达,从而促进增强网络对弱光区域给予更多关注。视觉注意力网络的具体流程如图4所示。
本实施例提供的视觉注意力网络先将给定的低照度图像生成一副多通道的特征图F=RC×H×W(其中,C表示通道数,H表示高度,W表示宽度),不同通道所表达的信息是不一样的,此视觉注意力网络的目的是利用特征图像中每个通道的的信息来学***均池化层的作用是集中表达图像中的所有信息,不产生图像像素的偏重,防止细节丢失。最大池化层的作用是提取图像中的特征区域的信息。这样就可以更加关注当前图像中亮度低的区域,为了更加有效表示图像中低照度区域信息。
本实施例首先将低照度图像分别输入最大池化层和平均池化层来聚合空间维度信息,如图4所示。将低照度图像转换到HSI空间后进行平均池化层(AVP)操作,计算公式如下:
Figure BDA0002981030380000111
其中,i表示特征图的当前通道,k表示当前通道的像素个数,fik表示低照度图像中当前通道的具体像素值,Hi表示当前通道的低照度图像长度,Wi表示当前通道的低照度图像宽度,C表示特征图的总通道数;通过平均池化层(AVP)操作后就可以得到一当前低照度图象所有通道的平均像素值,平均池化层的输出是一个1×1×C的一维向量。与此同时,将低照度图像转换到HSI空间后进行最大池化层操作,最大池化层(MAX)计算公式如下:
MAX=max(sort(abs(fik)))(i=1…C)
其中,fik表示表示低照度图像中当前通道的具体像素值,abs表示对当前低照度图像中像素值fik取绝对值,sort表示对取得的像素绝对值进行排序,max表示对该通道的像素值取最大值。经过最大池化层和平均池化层计算后,为通道生成两个特征描述符。然后将特征描述符输入一个层数为C/4的共享多层感知器,生成具有代表性的特征向量,然后通过元素求和操作后合并输出特征向量,最后通过sigmoid函数,得到通道注意力图像,其计算公式如下,其中,MLP表示多层感知器。
WC(F)=sigmoid(MLP(AVP(F))+MLP(MAX(F)))
为了正确获得注意力特征以指导增强网络,本实施例采用L2损失函数来预测误差。
La=||F(I)-F||2
其中,I是输入图像(即低照度图像),F(I)(WC(F))和F分别是预测通道注意力图像和原图像的亮度图像。
第二步:将通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像。
经过第一步处理后的低照度图像很容易放大原有图像的噪声,并且图像噪声很容易与图像原有纹理混淆,在应用简单的降噪方法后会导致不必要的模糊效果,本实施例创新性的提出预估计噪声分布,并且这种自适应性的降噪方法有助于减少噪声对图像的影响。因为噪声分布与曝光分布相关,因此采用通道注意力图像来引导生成噪声图像,在此引导下增强网络能够有效进行去噪。
降噪网络采用的是类DnCNN网络,在卷积过后加入BN算法,BN算法首先对预处理的图像求均值和方差,公式如下:
Figure BDA0002981030380000121
Figure BDA0002981030380000122
其中,k表示当前通道像素个数,xi表示经过卷积后的像素值。之后对数据进行规范化处理,公式如下。
Figure BDA0002981030380000123
其中,λ是偏置常数,防止分母为0,
Figure BDA0002981030380000124
是规范化和卷积后的像素值。在经过对图像数据的规范化操作后,数据将会服从标准差为1的特征分布。
本实施例提供的降噪网络如图5所示,该网络设计为5层,前4层网络由Conv+BN+Relu组成,使用卷积核滤波器的尺寸7×7,滤波器数量为128,第5层为Conv+BN,使用卷积核滤波器的尺寸为7×7,滤波器数量为1。经过训练后,采取跳跃链接的方式输入通道注意力图像,将通道注意力图像与降噪网络的输出的噪声图像进行信息相减,最终得到去噪图像,并输入到增强网络。
使用L1损失函数来测量降噪网络预测误差。
L1=||F′-I||
其中,F′和I分别是预测噪声图像和输入图像。
第三步,将视觉注意力网络生成的通道注意力图像和降噪网络生成的去噪图像与原始低照度图像合并输入到增强网络。
增强网络是本实施例的核心部分,其目的是将增强问题分解为不同方面的几个子问题(例如噪声消除,纹理保留,颜色校正等),本实施例提供的增强网络由三种类型的模块组成:特征提取子网络(FEN)、增强子网络(EN)和融合子网络(FN)。
其中,特征提取子网络,如图6所示,具有多个卷积层的单流网络,每个卷积层使用3*3内核,步长为1,并且使用ReLU激活函数,每层的输出即是下一层的输入并且输入尺寸和输出尺寸相同。增强子网络是由4个子模块构成,其中,EM-1网路是采用具有大卷积内核和反卷积层的堆栈,U-net网络能够从不同深度层提取多级信息,并且能够保留丰富的纹理信息。EM-2网络采用跳跃式U-net结构,使用多尺度上下文信息合成高质量图;EM-3网络采用类似Res-net结构,仅使用几个res块进行增强,减少模型参数;EM-4网络采用膨胀卷积层,其输入大小始终保持与输出大小相同。
融合子网络,如图7所示,是接收所有增强子网络的输出后产生最终的增强图像。融合子网络采用的是科学系权重的加权求和法,原理是在颜色通道维度中,将来自EN网络的所有输出串联起来,并使用1*1的卷积核将它们合并。
由于图像的亮度较低,在增强网络中使用常见的损失函数可能会导致图像产生模糊效果,因此设计了一种新的损失函数,其包括四部分,以改善视觉质量。
Le=ωebLebesLesepLep+werLer
其中,Leb,Les,Lep,Ler分别代表亮度损失,结构性损失,知觉损失和区域性损失。ωebeseper分别是相应的系数。
亮度损失的目的是确保增强结果具有足够的亮度。其损失函数如下:
Leb=||F′-I)||
其中,F′是预测增强图像,I是输入图像。
引入结构损失是为了保留结构特征避免图像模糊,本实施例采用SSIM作为结构特征的损失函数。
Figure BDA0002981030380000141
其中,μxy是像素平均值,
Figure BDA0002981030380000142
是方差,σxy是协方差,C1,C2是用于防止分母为零的偏置常数。其中x,y分别表示输入图像和输出图像。
感知损失是使用更多通道信息来改善视觉质量,其损失函数如下:
Figure BDA0002981030380000143
其中,F′,F分别是预测增强图像和原图像,wij,hij,cij分别描述图像的尺寸和通道,
Figure BDA0002981030380000144
表示第i个块中的第j个卷积层获得的特征图。
除了将图像作为一个整体进行增强,还应该注意曝光不足的弱光区域,本方法提出的区域性损失函数用来平衡不同区域的弱光增强程度。损失函数如下:
Ler=||F′·F′-F·F||+1-ssim(F′·F′,F·F)
其中,ssim()算法表示图像结构相似性,F′,F分别表示增强图像和原图像,分别从亮度、对比度、结构三方面衡量图像质量。F′是预测的注意力机制图。
与现有技术相比,本发明具有以下优点:
优点1:可以增强图像在颜色和细节上的效果。
优点2:可以增强图像暗区的细节,增加图像后期使用效率。
优点3:与其他增强方法相比,本方法具有较好的鲁棒性。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的***而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种面向低照度图像的增强方法,其特征在于,包括:
获取低照度图像;
将所述低照度图像输入到视觉注意力网络中以进行亮度信息提取处理,进而生成通道注意力图像;所述视觉注意力网络内置有视觉注意力机制;所述通道注意力图像包括高亮度区域和低亮度区域;
将所述通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像;
将所述低照度图像、所述通道注意力图像以及所述去噪图像输入到增强网路中,以生成增强图像;所述增强网路的损失函数包括亮度损失子函数、结构性损失子函数、知觉损失子函数以及区域性损失子函数。
2.根据权利要求1所述的一种面向低照度图像的增强方法,其特征在于,所述将所述低照度图像输入到视觉注意力网络中以进行亮度信息提取处理,进而生成通道注意力图像,具体包括:
将所述低照度图像转换到HSI特征空间内,以获取多通道特征图;
将所述多通道特征图输入到平均池化层中,以获取每个通道的平均像素值;
将所述多通道特征图输入到最大池化层中,以获取每个通道的最大像素值;
将每个通道的所述平均像素值和所述最大像素值输入到多层感知器中,以生成高亮度区域特征向量和低亮度区域特征向量;
分别对所述高亮度区域特征向量和所述低亮度区域特征向量元素进行求和操作,得到第一特征向量和第二特征向量;
采用sigmoid函数对所述第一特征向量和所述第二特征向量进行处理以得到通道注意力图像。
3.根据权利要求1所述的一种面向低照度图像的增强方法,其特征在于,所述将所述通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像,具体包括:
采取跳跃链接的方式,将所述通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像;
其中,所述降噪网络为5层网路,前4层网络均由Conv+BN+Relu组成,前4层网络使用的滤波器的数量均为128,第5层网络为Conv+BN组成,第5层网路使用的滤波器的数量为1,所述滤波器为卷积核滤波器,所述滤波器的尺寸为7*7。
4.根据权利要求1所述的一种面向低照度图像的增强方法,其特征在于,所述将所述低照度图像、所述通道注意力图像以及所述去噪图像输入到增强网路中,以生成增强图像,具体包括:
将所述低照度图像、所述通道注意力图像以及所述去噪图像输入到特征提取子网络,以提取明亮信息特征、结构性信息特征、知觉信息特征以及区域性信息特征;所述增强网路包括依次连接的特征提取子网络、增强子网络以及融合子网络;
将所述明亮信息特征、所述结构性信息特征、所述知觉信息特征以及所述区域性信息特征输入到所述增强子网络,以获取多个增强特征信息;
将所有所述增强特征信息输入到所述融合子网络,以获取增强图像。
5.根据权利要求4所述的一种面向低照度图像的增强方法,其特征在于,所述将所述明亮信息特征、所述结构性信息特征、所述知觉信息特征以及所述区域性信息特征输入到所述增强子网络,以获取多个增强特征信息,具体包括:
将所述明亮信息特征输入到第一增强子网络中,以获取第一增强特征信息;所述增强子网络包括第一增强子网络、第二增强子网络、第三增强子网络和第四增强子网络;所述第一增强子网络的损失函数为亮度损失子函数;
将所述结构性信息特征输入到所述第二增强子网络中,以获取第二增强特征信息;所述第二增强子网络的损失函数为结构性损失子函数;
将所述知觉信息特征输入到所述第三增强子网络中,以获取第三增强特征信息;所述第三增强子网络的损失函数为知觉损失子函数;
将所述区域性信息特征输入到所述第四增强子网络中,以获取第四增强特征信息;所述第四增强子网络的损失函数为区域性损失子函数。
6.一种面向低照度图像的增强***,其特征在于,包括:
图像获取模块,用于获取低照度图像;
通道注意力图像生成模块,用于将所述低照度图像输入到视觉注意力网络中以进行亮度信息提取处理,进而生成通道注意力图像;所述视觉注意力网络内置有视觉注意力机制;所述通道注意力图像包括高亮度区域和低亮度区域;
去噪图像生成模块,用于将所述通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像;
增强图像生成模块,用于将所述低照度图像、所述通道注意力图像以及所述去噪图像输入到增强网路中,以生成增强图像;所述增强网路的损失函数包括亮度损失子函数、结构性损失子函数、知觉损失子函数以及区域性损失子函数。
7.根据权利要求6所述的一种面向低照度图像的增强***,其特征在于,所述通道注意力图像生成模块,具体包括:
转换单元,用于将所述低照度图像转换到HSI特征空间内,以获取多通道特征图;
平均像素值计算单元,用于将所述多通道特征图输入到平均池化层中,以获取每个通道的平均像素值;
最大像素值计算单元,用于将所述多通道特征图输入到最大池化层中,以获取每个通道的最大像素值;
特征向量确定单元,用于将每个通道的所述平均像素值和所述最大像素值输入到多层感知器中,以生成高亮度区域特征向量和低亮度区域特征向量;
融合单元,用于分别对所述高亮度区域特征向量和所述低亮度区域特征向量元素进行求和操作,得到第一特征向量和第二特征向量;
通道注意力图像生成单元,用于采用sigmoid函数对所述第一特征向量和所述第二特征向量进行处理以得到通道注意力图像。
8.根据权利要求6所述的一种面向低照度图像的增强***,其特征在于,所述去噪图像生成模块,具体包括:
去噪图像生成单元,用于采取跳跃链接的方式,将所述通道注意力图像输入到降噪网路中以进行降噪处理,进而生成去噪图像;
其中,所述降噪网络为5层网路,前4层网络均由Conv+BN+Relu组成,前4层网络使用的滤波器的数量均为128,第5层网络为Conv+BN组成,第5层网路使用的滤波器的数量为1,所述滤波器为卷积核滤波器,所述滤波器的尺寸为7*7。
9.根据权利要求6所述的一种面向低照度图像的增强***,其特征在于,所述增强图像生成模块,具体包括:
特征提取单元,用于将所述低照度图像、所述通道注意力图像以及所述去噪图像输入到特征提取子网络,以提取明亮信息特征、结构性信息特征、知觉信息特征以及区域性信息特征;所述增强网路包括依次连接的特征提取子网络、增强子网络以及融合子网络;
增强特征信息确定单元,用于将所述明亮信息特征、所述结构性信息特征、所述知觉信息特征以及所述区域性信息特征输入到所述增强子网络,以获取多个增强特征信息;
增强图像生成单元,用于将所有所述增强特征信息输入到所述融合子网络,以获取增强图像。
10.根据权利要求9所述的一种面向低照度图像的增强***,其特征在于,所述增强特征信息确定单元,具体包括:
第一增强特征信息确定子单元,用于将所述明亮信息特征输入到第一增强子网络中,以获取第一增强特征信息;所述增强子网络包括第一增强子网络、第二增强子网络、第三增强子网络和第四增强子网络;所述第一增强子网络的损失函数为亮度损失子函数;
第二增强特征信息确定子单元,用于将所述结构性信息特征输入到所述第二增强子网络中,以获取第二增强特征信息;所述第二增强子网络的损失函数为结构性损失子函数;
第三增强特征信息确定子单元,用于将所述知觉信息特征输入到所述第三增强子网络中,以获取第三增强特征信息;所述第三增强子网络的损失函数为知觉损失子函数;
第四增强特征信息确定子单元,用于将所述区域性信息特征输入到所述第四增强子网络中,以获取第四增强特征信息;所述第四增强子网络的损失函数为区域性损失子函数。
CN202110287338.XA 2021-03-17 2021-03-17 一种面向低照度图像的增强方法及*** Withdrawn CN112927162A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110287338.XA CN112927162A (zh) 2021-03-17 2021-03-17 一种面向低照度图像的增强方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110287338.XA CN112927162A (zh) 2021-03-17 2021-03-17 一种面向低照度图像的增强方法及***

Publications (1)

Publication Number Publication Date
CN112927162A true CN112927162A (zh) 2021-06-08

Family

ID=76174886

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110287338.XA Withdrawn CN112927162A (zh) 2021-03-17 2021-03-17 一种面向低照度图像的增强方法及***

Country Status (1)

Country Link
CN (1) CN112927162A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113450366A (zh) * 2021-07-16 2021-09-28 桂林电子科技大学 基于AdaptGAN的低照度语义分割方法
CN114581318A (zh) * 2022-01-24 2022-06-03 广东省科学院智能制造研究所 一种低照明度图像增强方法及***
CN117670753A (zh) * 2024-01-30 2024-03-08 浙江大学金华研究院 基于深度多亮度映射无监督融合网络的红外图像增强方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113450366A (zh) * 2021-07-16 2021-09-28 桂林电子科技大学 基于AdaptGAN的低照度语义分割方法
CN113450366B (zh) * 2021-07-16 2022-08-30 桂林电子科技大学 基于AdaptGAN的低照度语义分割方法
CN114581318A (zh) * 2022-01-24 2022-06-03 广东省科学院智能制造研究所 一种低照明度图像增强方法及***
CN114581318B (zh) * 2022-01-24 2024-06-14 广东省科学院智能制造研究所 一种低照明度图像增强方法及***
CN117670753A (zh) * 2024-01-30 2024-03-08 浙江大学金华研究院 基于深度多亮度映射无监督融合网络的红外图像增强方法

Similar Documents

Publication Publication Date Title
CN111741211B (zh) 图像显示方法和设备
WO2022042049A1 (zh) 图像融合方法、图像融合模型的训练方法和装置
EP2987134B1 (en) Generation of ghost-free high dynamic range images
KR101633893B1 (ko) 다중노출 영상을 합성하는 영상합성장치 및 방법
KR101257942B1 (ko) 광역 역광보정 영상처리에서의 전처리 방법 및 장치
CN112927162A (zh) 一种面向低照度图像的增强方法及***
US10055872B2 (en) System and method of fast adaptive blending for high dynamic range imaging
Monakhova et al. Dancing under the stars: video denoising in starlight
US20090180704A1 (en) Method and system for processing low-illuminance image
CN110619593A (zh) 一种基于动态场景的双曝光视频成像***
Liu et al. Survey of natural image enhancement techniques: Classification, evaluation, challenges, and perspectives
CN117408890B (zh) 一种视频图像传输质量增强方法及***
JP7253634B2 (ja) 結合前ノイズ除去による高ダイナミックレンジ画像生成
US8456541B2 (en) Image processing apparatus and image processing program
Priyanka et al. Low-light image enhancement by principal component analysis
CN114820405A (zh) 图像融合方法、装置、设备及计算机可读存储介质
CN111242860A (zh) 超级夜景图像的生成方法、装置、电子设备及存储介质
CN113643214A (zh) 一种基于人工智能的图像曝光校正方法及***
CN110246086B (zh) 彩色图像增强的图像处理方法及其图像处理***
US11640654B2 (en) Image processing method and apparatus
KR102395305B1 (ko) 저조도 영상 개선 방법
Srinivas et al. Channel prior based Retinex model for underwater image enhancement
Jiao et al. Attention-based multi-branch network for low-light image enhancement
Lee et al. Ghost and noise removal in exposure fusion for high dynamic range imaging
WO2024127590A1 (ja) 画像強調装置、画像強調方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20210608

WW01 Invention patent application withdrawn after publication