CN113379613A - 使用深度卷积网络的图像去噪***和方法 - Google Patents
使用深度卷积网络的图像去噪***和方法 Download PDFInfo
- Publication number
- CN113379613A CN113379613A CN202110256234.2A CN202110256234A CN113379613A CN 113379613 A CN113379613 A CN 113379613A CN 202110256234 A CN202110256234 A CN 202110256234A CN 113379613 A CN113379613 A CN 113379613A
- Authority
- CN
- China
- Prior art keywords
- image
- output
- net
- mrdb
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000012545 processing Methods 0.000 claims abstract description 80
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 56
- 238000011176 pooling Methods 0.000 claims abstract description 12
- 239000011800 void material Substances 0.000 claims abstract description 4
- 238000012549 training Methods 0.000 claims description 26
- 239000002131 composite material Substances 0.000 claims description 14
- 101100295091 Arabidopsis thaliana NUDT14 gene Proteins 0.000 claims 8
- 238000013528 artificial neural network Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 230000010354 integration Effects 0.000 description 4
- 238000006467 substitution reaction Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000013442 quality metrics Methods 0.000 description 2
- 150000003839 salts Chemical class 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000013341 scale-up Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
一种用于对图像进行去噪的方法,包括:由用户设备的处理电路接收输入图像;由处理电路将输入图像提供给包括多尺度残差密集块(MRDB)的经训练的卷积神经网络(CNN),该MRDB包括:残差密集块(RDB);和空洞空间金字塔池化(ASPP)模块;由处理电路使用该MRDB计算MRDB输出特征图;以及由处理电路基于MRDB输出特征图来计算输出图像,该输出图像是输入图像的去噪版本。
Description
相关申请的交叉引用
本申请要求于2020年3月10日向美国专利商标局提交的第62/987,802号美国临时专利申请、于2020年3月12日向美国专利商标局提交的第62/988,844号美国临时专利申请和于2020年9月2日向美国专利商标局提交的第17/010,670号美国专利申请的优先权和利益,这些申请的全部公开通过引用并入本文。
技术领域
本公开的实施例的方面涉及使用深度卷积神经网络的图像去噪***和方法。
背景技术
图像处理或图像操作(image manipulation)是一项常见的计算机视觉任务,旨在恢复退化的图像内容,填补丢失的信息,或应用各种变换或其他操作来实现期望的结果。图像去噪是一种通常应用于图像的图像处理技术。
发明内容
本公开的实施例的方面涉及使用深度卷积神经网络的图像处理(包括去噪)***和方法。
根据本公开的一个实施例,对图像进行去噪方法包括:由用户设备的处理电路接收输入图像;由处理电路将输入图像提供给包括多尺度残差密集块(multi-scaleresidual dense block,MRDB)的经训练的卷积神经网络(convolutional neuralnetwork,CNN),该MRDB包括:残差密集块(residual dense block,RDB);和空洞空间金字塔池化(atrous spatial pyramid pooling,ASPP)模块;由处理电路使用MRDB来计算MRDB输出特征图;以及由处理电路基于MRDB输出特征图计算输出图像,该输出图像是输入图像的去噪版本。
该方法还可以包括将输入特征图提供给MRDB,该输入特征图可以被提供给RDB的卷积模块的级联(cascade)以计算中间特征图,该输入特征图可以被提供给ASPP以计算不同扩张率(dilation rate)下的多个特征图,不同扩张率下的所述多个特征图可以由拼接层拼接(concatenate),该拼接层的输出可以与RDB的中间特征图拼接以形成RDB输出特征图,并且可以基于RDB输出特征图来计算MRDB输出特征图。
输入特征图可以被提供给ASPP卷积模块,并且可以基于ASPP卷积模块的输出来计算不同扩张率下的多个特征图。
经训练的CNN可以包括多尺度残差密集网络(multi-scale residual densenetwork,MRDN),该MRDN包括一个或多个卷积层和包括该MRDB的一个或多个MRDB的级联。
输入图像可以被提供给MRDN的第一组卷积层,第一组卷积层的输出可以被提供给一个或多个MRDB的级联,所述一个或多个MRDB的多个输入可以与一个或多个MRDB的级联的最后一个MRDB的输出拼接,由1×1卷积层压缩,并且被提供给第二组卷积层以计算MRDB输出特征图,可以由加法器将MRDB特征图与第二组卷积层的输出相加,并且加法器的输出可以被提供给第三组卷积层以计算输出图像。
经训练的CNN可以包括第一具有块连接的U-Net(U-net with block connection,U-Net-B),第一U-Net-B包括在多个尺度下操作的编码器和解码器,包括该MRDB的多个MRDB可以连接多个尺度下的该编码器和该解码器。
经训练的CNN还可以包括:第二U-Net-B,与第一U-Net-B级联以形成级联的具有块连接的U-Net(cascaded U-net with block connection,MCU-Net);第一加法器,被配置为将输入图像与第一U-Net-B的输出相加,其中第一加法器的输出连接到第二U-Net-B的输入;和第二加法器,被配置为将第一加法器的输出与U-Net-B的输出相加,其中第二加法器被配置为计算CNN的输出。
经训练的CNN可以包括多尺度残差密集网络(MRDN),该MRDN包括一个或多个卷积层和包括该MRDB的一个或多个MRDB的级联,经训练的CNN还可以包括级联的具有块连接的U-Net(MCU-Net),该MCU-Net包括第一具有块连接的U-Net(U-Net-B)和第二U-Net-B,该MRDN和该MCU-Net可以被集成并被配置为计算第一去噪图像和第二去噪图像,并且输出图像可以是第一去噪图像和第二去噪图像的组合。
用户设备还可以包括与用户设备集成的相机***,该方法还可以包括控制相机***捕获输入图像,并且处理电路可以从相机***接收输入图像。
根据本公开的一个实施例,一种用于增强用于训练神经网络来执行去噪的图像数据集以的方法,该图像数据集包括真实有噪(real noisy)图像和对应的地面实况(groundtruth)图像,该方法包括:由处理电路从对应的地面实况图像中减去真实有噪图像以计算噪声图像;由处理电路基于对应的地面实况图像的强度值来聚类(cluster)噪声图像的多个噪声值;由处理电路置换(permute)每个簇(cluster)内噪声图像的噪声值的多个位置;由处理电路基于噪声值的置换后的位置来生成合成(synthetic)噪声图像;以及由处理电路将合成噪声图像与地面实况图像相加以生成合成有噪图像。
根据本公开的一个实施例,被配置为对图像进行去噪的用户设备包括:处理电路;和存储器,存储指令,该指令当被所述处理电路执行时使得处理电路:接收输入图像;将输入图像提供给由处理电路实现的经训练的卷积神经网络(CNN),经训练的CNN包括多尺度残差密集块(MRDB),该MRDB包括:残差密集块(RDB);和空洞空间金字塔池化(ASPP)模块;使用该MRDB来计算MRDB输出特征图;以及基于MRDB输出特征图计算输出图像,输出图像是输入图像的去噪版本。
存储器还可以存储指令,该指令当由处理电路执行时使得处理电路将输入特征图提供给MRDB,该输入特征图可以被提供给RDB的卷积模块的级联以计算中间特征图,该输入特征图可以被提供给ASPP以计算不同扩张率下的多个特征图,不同扩张率下的所述多个特征图可以由拼接层拼接,拼接层的输出可以与RDB的中间特征图拼接以形成RDB输出特征图,并且可以基于RDB输出特征图来计算MRDB输出特征图。
可以将输入特征图提供给ASPP卷积模块,并且可以基于ASPP卷积模块的输出来计算不同扩张率下的多个特征图。
经训练的CNN可以包括多尺度残差密集网络(MRDN),该MRDN包括一个或多个卷积层和包括该MRDB的一个或多个MRDB的级联。
输入图像可以被提供给MRDN的第一组卷积层,第一组卷积层的输出可以被提供给一个或多个MRDB的级联,所述一个或多个MRDB的多个输入可以与一个或多个MRDB的级联的最后一个MRDB的输出拼接,由1×1卷积层压缩,并且被提供给第二组卷积层以计算MRDB输出特征图,可以由加法器将MRDB特征图与第二组卷积层的输出相加,并且加法器的输出可以被提供给第三组卷积层以计算输出图像。
经训练的CNN可以包括第一具有块连接的U-Net(U-Net-B),该第一U-Net-B包括在多个尺度下操作的编码器和解码器,包括该MRDB的多个MRDB可以连接多个尺度下的该编码器和该解码器。
经训练的CNN还可以包括:第二U-Net-B,与第一U-Net-B级联以形成级联的具有块连接的U-Net;第一加法器,被配置为将输入图像与第一U-Net-B的输出相加,其中第一加法器的输出连接到第二U-Net-B的输入;和第二加法器,被配置为将第一加法器的输出与第二U-Net-B的输出相加,其中第二加法器被配置为计算CNN的输出。
经训练的CNN可以包括多尺度残差密集网络(MRDN),该MRDN包括一个或多个卷积层和包括该MRDB的一个或多个MRDB的级联,经训练的CNN还可以包括级联的具有块连接的U-Net(MCU-Net),该MCU-Net包括第一具有块连接的U-Net(U-Net-B)和第二U-Net-B,该MRDN和该MCU-Net可以被集成和配置为计算第一去噪图像和第二去噪图像,并且输出图像可以是第一去噪图像和第二去噪图像的组合。
用户设备还可以包括与用户设备集成的相机***,处理电路还可以被配置为控制相机***捕获输入图像,并且处理电路可以从相机***接收输入图像。
附图说明
附图与说明书一起示出了本发明的示例性实施例,并且与说明书一起用于解释本发明的原理。
图1是根据一个实施例的数字相机***的示例的框图。
图2是根据本公开的一个实施例的使用包括多尺度残差密集块(MRDB)的卷积神经网络(CNN)处理图像的方法的流程图。
图3是示出根据本公开的一个实施例的多尺度残差密集块(MRDB)的架构的示意框图。
图4是示出根据本公开的一个实施例的包括一个或多个MRDB的多尺度残差密集网络的架构的示意性框图。
图5是根据本公开的一个实施例的多尺度残差密集块级联的具有块连接的U-Net的示意图。
图6是根据本公开的一个实施例的多尺度残差密集级联的具有块连接的U-Net(Multi-scale residual dense Cascaded U-Net with Block-connection,MCU-Net)的框图。
图7是示出根据本公开的一个实施例的其中MRDN与MCU-Net集成的网络的集成的一个示例的框图。
图8是示出根据本公开的一个实施例的用于生成合成的噪声图像的方法的框图。
具体实施方式
在以下详细描述中,仅通过举例说明的方式示出和描述了本发明的某些示例性实施例。如本领域技术人员将认识到的,本发明可以以许多不同的形式实施,并且不应该被解释为局限于本文阐述的实施例。
本公开的实施例的方面涉及用于执行图像处理的***和方法。本公开的实施例的一些方面涉及对由数字相机捕获的真实场景的图像(例如,真实图像而不是由合成的三维场景的光线跟踪引擎或三维(3-D)图形引擎渲染的图像)进行去噪。本公开的实施例的一些方面涉及将图像处理技术应用于由数字相机捕获的原始(raw)数据(例如,在应用其他数字滤波或有损图像压缩之前)。具体地,本公开的实施例的一些方面涉及处理由数字相机捕获的输入图像(例如,输入有噪图像)以获得去噪图像(例如,具有降低的噪声),其中输入图像和去噪图像可以在特定于图像传感器或特定于相机的原始红-绿-蓝(red-green-blue,RGB)色彩空间(rawRGB)中和/或在标准RGB色彩空间(例如,sRGB、scRGB或Adobe RGB色彩空间)中。
例如,由数字相机(诸如独立相机(例如,紧凑傻瓜相机或可互换镜头相机,诸如数字单镜头反光相机)或集成到智能手机或其他计算设备中的相机(例如,集成到便携式计算机中的网络摄像头))捕获的图像可能会表现出传感器噪声。在其中对图像信号应用高增益的条件下(诸如在弱光条件下),这种传感器噪声可能特别明显。
通常,图像去噪减少或消除噪声的存在,重建图像的结构内容中的细节,并且根据更低质量的输入图像生成更高质量的输出图像。一些图像去噪技术通常涉及从RGB数据(例如,sRGB数据)中去除噪声。这些包括使用手工或明确指定的滤波器的经典方法,诸如局部均值和块匹配以及3D滤波(block-matching and 3D filtering,BM3D)。此外,神经网络架构(诸如卷积神经网络(convolutional neural Network,CNN))提供了基于机器学习的对比较手工技术的替代,其中统计模型基于大的训练数据集(例如,有噪图像以及相应的低噪声版本集)被自动训练来对图像进行去噪。
对来自相机传感器的原始数据(例如,根据放置在传感器前面的滤色器,(诸如拜耳(Bayer)滤色器)以捕获拜耳原始数据的原始数据)进行去噪通常比在将原始数据转换成RGB数据(诸如sRGB数据)之后进行去噪产生更高质量的结果。例如,当相机内的图像信号处理器(image signal processor,ISP)根据拜耳原始传感器数据来渲染sRGB图像时,拜耳原始数据中的简单盐噪声(salt noise)将改变RGB图像中相邻像素的像素值,这会放大RGB图像中受噪声影响的像素的数量,从而降低RGB图像的质量。另一方面,如果在渲染或转换为RGB之前对原始拜耳数据应用去噪,则可以减少噪声的影响。
因此,虽然本公开的实施例的一些方面涉及用于对以原始数据或原始相机数据格式(诸如拜耳原始数据)的图像进行去噪的***和方法,但是本公开的实施例不限于此,并且还可以应用于对其他格式的数据(诸如RGB图像数据和CMYK图像数据)进行去噪。
本公开的实施例的一些应用涉及利用例如用户设备(user equipment,UE)(诸如独立数字相机或集成到智能手机中的数字相机)来执行图像处理。图1是根据本公开的一些实施例的数字相机***100的示例的框图,该数字相机***可以是例如独立数字相机或智能手机的组件。为了清楚起见,数字相机***100通常包括数字相机模块110,该数字相机模块110包括安装在图像传感器114(例如,互补金属氧化物半导体(complementary metaloxide semiconductor,CMOS)图像传感器)前面的透镜112。数字相机***100还可以包括处理电路(诸如被配置为接收由数字相机模块110捕获的数据(例如,场景的图像数据)处理器(例如,应用处理器(application processor,AP)和/或图像信号处理器(ISP))130),并且可以将接收到的数据存储在存储器150中。存储器150可以包括动态存储器(dynamicmemory,DRAM)和/或永久存储器(例如,闪存)。在一些情况下,图像信号处理器116被集成到处理器130中。在一些实施例中,数字相机***100还包括协处理电路或协处理器170,诸如现场可编程门阵列(field programmable gate array,FPGA)、图形处理单元(graphicalprocessing unit,GPU)、矢量处理器或神经处理单元。在一些实施例中,协处理器与处理器130集成(例如,在同一物理管芯上)。处理器和协处理器在本文中可以统称为“处理器”或“处理电路”,因为根据各种设计选择和对不同类型任务的适用性,各种操作可以分布在不同的物理电路之间。
当操作数字相机时,在许多情况下,数字相机模块110连续捕获场景的图像。例如,数字相机***100可以在显示设备190上显示连续捕获的图像,以通过镜头向用户(例如,摄影者)提供基于当前捕获设置(诸如焦点、光圈、快门速度、传感器增益(例如,ISO)、白平衡等)的场景的实时预览。在一些情况下,用户可以使用可以包括相机上的物理按钮和转盘或者软件控件(例如,显示在触敏显示设备190上的控件)的数字相机***的控件来改变捕获设置。作为一个示例,用户可以通过触摸显示用户希望相机聚焦的场景的对象的部分的显示器的部分来调整相机的焦点。通常,用户还可以通过激活“快门释放”或“录制”控件(例如,屏幕上显示的硬件按钮或软件按钮)来触发录制例如单个图像、一连串图像或者视频。
尽管图1示出了数字相机***100的一个示例,但是本公开的实施例不限于与其一起使用。例如,根据本公开实施例的图像处理技术也可以在与数字相机100分离或远离数字相机100的一个或多个处理器上实现。在一些实施例中,由数字相机***100捕获的数字图像(例如,原始相机数据或经转换的RGB数据)被传送到一个或多个计算机***(例如,膝上型计算机、台式计算机和/或云计算***的一个或多个服务器)和那些一个或多个计算机***的处理器(例如,电子处理电路)来根据本公开的实施例执行图像处理。
本公开的实施例的各个方面涉及真实图像去噪网络。本公开的实施例的一个方面涉及使用一个或多个多尺度残差密集块(MRDB)的多尺度残差密集网络(MRDN)。本公开的实施例的另一方面涉及MRDB级联的具有块连接的U-Net(MRDB Cascaded U-Net with Block-Connection,MCU-Net)。本公开的实施例的方面涉及:在神经块设计中对多尺度特征使用MRDB;使用块连接来代替多层特征的跳跃连接(skip connection);以及使用噪声置换(noise permutation)进行数据增强以降低模型过度拟合的可能性或避免模型过度拟合。本公开的实施例实现了在去除噪声的同时重建或保留图像中的纹理细节方面的良好的性能。
图2是根据本公开的一个实施例的使用包括多尺度残差密集块(MRDB)的卷积神经网络处理图像的方法的流程图。作为一个示例,可以训练包括MRDB的CNN架构使用MRDB对输入图像执行图像去噪以生成输入图像的图像经处理的(例如,去噪)版本。
如上所述,根据本公开实施例的图像处理***的方法的各种操作可以由计算***的一个或多个处理电路来实现。例如,一些或所有操作可以由处理器130(例如,图像信号处理器和/或应用处理器)执行,一些或所有操作可以由协处理器170执行,并且一些或所有操作可以由远程计算设备(例如,云计算***或个人计算机***,诸如膝上型或台式计算机)执行。例如,在本公开的一些实施例中,图像处理***完全在数字相机***100(例如,在存储器150、处理器130和/或协处理器170上)内实现,完全在个人计算机***的图像处理***(例如,在个人计算机***的一个或多个处理电路和存储器上)内实现,或者完全在由云计算***实现的图像处理***(例如,云计算***的处理电路)内实现。根据本公开实施例的图像处理***也可以以通过数字相机***100、个人计算机***和云计算***的本地处理的组合来实现。
参考图2,根据本公开的一个实施例,在操作210中,图像处理***接收用于处理的图像。作为激励性的示例,一个这样的图像处理操作是去噪。在操作230中,处理***将输入图像提供给包括多尺度残差密集块(MRDB)的经训练的卷积神经网络(CNN)。在操作250中,通过使用MRDB来计算特征图。在操作270中,基于由MRDB计算的特征图,生成输入图像的经图像处理的版本。
多尺度残差密集块(MRDB)和多尺度残差密集网络(MRDN)
图3是示出根据本公开的一个实施例的多尺度残差密集块(MRDB)300的架构的示意框图。
根据本公开实施例的MRDB组合了由空洞空间金字塔池化(ASPP)模块(参见,例如,L.C.Chen,Y.Zhu,G.Papandreou,F.Schroff,and H.Adam.Encoder-decoder with atrousseparable convolution for semantic image segmentation.In ECCV,801-818,2018)计算的多尺度特征和由残差密集块(RDB)模块(参见,例如,Y.Zhang,Y.Tian,Y.Kong,B.Zhongand Y.Fu.Residual dense Network for image super-resolution.In CVPR,pp.2472-2481,2018)计算的其他特征,其中输入特征图302被提供给ASPP模块320和RDB模块350。
如图3所示,输入特征图302被提供给MRDB 300。输入特征图302可以是卷积神经网络的其他部分(或层)的输出。在图3所示的实施例中,输入特征图302被提供给一个或多个卷积模块,诸如包括卷积(conv)层312和激活函数314的ASPP卷积模块310。卷积层312对其输入特征图执行卷积操作(例如,将输入特征图与经训练的卷积核的权重进行卷积)。激活功能314将函数应用于其输入的每个元素(例如,应用于卷积层312的输出的每个像素)。在图3所示的实施例中,激活函数314是修正线性单元(rectified linear unit,ReLU),但是本公开的实施例可以使用其他激活函数,诸如渗漏(leaky)ReLU函数、softplus函数、softmax函数、sigmoid函数等。
在图3所示的实施例中,ASPP卷积模块310的输出作为输入提供给ASPP模块320,ASPP模块320包括四个并行网络块或层,包括conv 1×1层322、conv Rate 6层324、convRate 12层326和池化(pooling)层328。conv Rate 6层324和conv Rate 12层326表示分别实现具有6和12的扩张率的3×3扩张卷积核的层,其中扩张率指核的像素之间的间隔或步距(stride)。图像池化层328基于输入特征来计算全局特征(例如,计算输入到ASPP 320的所有特征的全局平均值或全局最大值)。conv Rate 6层324、conv Rate 12层326和图像池化层328根据在卷积层的情况下由它们的扩张率设置的感受野(receptive field)的大小或在池化层328的情况下的全局特征,以不同的尺度(多尺度)捕获块的输入的特征。由ASPP模块320计算的特征由拼接模块330的拼接(concat)层332拼接,并且使用拼接模块330的conv 1×1层334压缩。拼接模块330的输出然后与由RDB模块350计算的其他特征组合,这将在下面更详细地描述。
虽然图3示出了具有四个并行网络块conv 1×1层322、conv Rate 6层324、convRate 12层326和池化层328的ASPP模块320,但是本公开的实施例不限于此。例如,ASPP模块320可以包括以不同的扩张率(例如,扩张率不同于6和12)实现卷积和/或具有不同大小的核(例如,5×5核)的附加块或层。
MRDB 300的残差密集块(RDB)350包括顺序连接的多个卷积模块,具有上游模块的输出到下游模块的输入之间的残差连接,包括拼接模块358。在图3所示的实施例中,RDB包括第一卷积模块352、第二卷积模块354和第三卷积模块356,其中每个卷积模块包括卷积层(例如,在结构上类似于卷积模块310的卷积层312)和激活函数层(例如,实现ReLU、softmax等)。
例如,第一残差连接提供要与第二卷积模块354、第三卷积模块356和拼接模块358的其他输入组合(例如,拼接)的输入特征图302。
类似地,来自第一卷积模块352的输出的第二残差连接提供要与第三卷积模块356和拼接模块358的其他输入(例如,来自第一残差连接的输入特征图302的副本)组合(例如,拼接)的第一卷积模块352的第一输出特征图。
类似地,来自第二卷积模块的输出的第三残差连接提供要与拼接模块358的其他输入组合(例如,拼接)的第二卷积模块354的第二输出特征图。
RDB 350的拼接模块358拼接最后一个卷积模块(例如,第三卷积模块356)的输出和经由残差连接的来自早期模块的特征图,以计算中间特征图,该中间特征图与ASPP模块320的拼接模块330的输出拼接,并且使用conv1×1层压缩该拼接结果。由加法器360将拼接模块358的输出与输入特征图302相加,以计算MRDB的输出特征图392。
图4是示出根据本公开的一个实施例的包括一个或多个MRDB的多尺度残差密集网络(MRDN)400的架构的示意框图。根据本公开实施例的一个方面的多尺度残差密集网络(MRDN)基于多尺度残差密集块(MRDB)。MRDB的输出保持其输入的通道数不变,以避免指数复杂度的增加(如果MRDB的输出通道数大于输入通道数,就会出现这种情况)。神经网络的MRDN架构包括具有密集连接的MRDB的级联。具体地,MRDB的输出通过conv 1×1层进行拼接和压缩,并且采用全局残差连接来获得干净的特征。
在图4所示的示例中,MRDN包括三个MRDB。然而,本公开的实施例不限于此,并且MRDN可以包括一个或多个MRDB(例如,至少一个MRDB)。
根据本公开的一些实施例,MRDN是被训练来对输入图像执行图像处理的卷积神经网络。例如,在一些实施例中,MRDN被训练来执行对输入图像402的去噪以生成去噪图像492。然而,本公开的实施例不限于此。例如,在一些实施例中,MRDN被训练来执行不同的图像处理操作(诸如边缘检测、对比度增强等),诸如通过在训练过程中使用不同的训练数据。在本公开的一些实施例中,MRDN被用作神经网络的组件,其中MRDN的输入是输入特征图(例如,神经网络的另一部分的输出),并且其输出是输出特征(例如,作为其他计算的输入(诸如神经网络的另一部分或经典图像处理滤波器的输入)提供)。
在图4所示的实施例中,输入图像402被提供给按顺序排列的第一组卷积层410,包括将其输出提供给第二卷积层412的第一卷积层411。类似于上述卷积层,这些卷积层中的每一个卷积层可以包括经训练的权重(例如,通过训练过程学习的权重)的卷积核,其中卷积层的输入与其对应的卷积核进行卷积,以生成对应的输出特征图。虽然图4所示实施例中的第一组卷积层410包括按顺序的两个卷积层411和412,但是本公开的实施例不限于此,并且可以包括多于两个卷积层或仅一个卷积层。
第一组卷积层410的输出被提供给按顺序排列的一组一个或多个MRDB 430。在图4所示的实施例中,该组MRDB 430包括被配置为将其输出提供给第二MRDB 432的第一MRDB431,其中第二MRDB 432被配置为将其输出提供给第三MRDB 433。在一些实施例中,该组MRDB 430中的每个MRDB具有与图3所示的MRDB 300基本类似的结构,包括ASPP模块和RDB模块,其中ASPP模块和RDB模块的输出被组合以生成MRDB的输出。此外,在图4所示的实施例中,残差密集连接438将每个MRDB的输入提供给最后一个MRDB(例如,第三MRDB 433)的输出。这些输入通过拼接模块440与最后一个MRDB的输出拼接,拼接模块440包括拼接层441和压缩拼接后的信息的Conv 1×1层442。
拼接模块440的输出还被提供给一个或多个第二卷积层450(例如,如图4所示作为一个卷积层451)。加法器460将第二卷积层450的输出与来自第一组卷积层410的特征图相加,作为全局残差连接462。在图4所示的实施例中,来自第一组卷积层410的特征图是第一卷积层411的输出。
在图4所示的实施例中,加法器460的输出被提供给一个或多个第三卷积层470。在图4所示的实施例中,这些第三卷积层470包括卷积层471和472。第三卷积层470计算输出图像492(例如,去噪版本或经其他图像处理的版本,根据MRDN 400的训练的输入图像402)。
根据本公开的一些实施例,对标记的训练数据(例如,有噪图像和去噪图像对)使用端到端训练,使用例如反向传播和梯度下降来训练卷积层的卷积核的权重和神经网络的任何其他经训练的层(例如,完全连接的层)的其他权重,MRDN被训练来执行特定图像处理操作,诸如图像去噪。
因此,本公开的实施例的一些方面涉及多尺度残差密集网络(MRDN)架构,该多尺度残差密集网络(MRDN)架构可以被训练为执行图像处理操作,诸如根据本公开的实施例的使用多尺度残差密集块(MRDB)的图像去噪。
多尺度残差密集块级联的具有块连接的U-Net
本公开的实施例的一些方面涉及包括多尺度残差密集块的其他卷积神经网络(CNN)架构。更详细地,本公开的一些实施例涉及多尺度残差密集块级联的具有块连接的U-Net。
图5是根据本公开的一个实施例的多尺度残差密集块级联的具有块连接的U-Net的示意图。在图5所示的实施例中,具有块连接的U-Net(U-Net with block connections,U-Net-B)500获取第一尺度510下的输入特征图或输入图像502,并且通过使用三个下采样513、535和557来缩小(scale down)尺度之间的特征图,以及使用三个相应的上采样575、553和531来放大(scale up)尺度之间的特征图,来以三个附加尺度530、550和570进行操作。U-Net-B的输出592可以是输出特征图或输出图像(例如,输入图像502的经图像处理的版本,诸如输入图像502的去噪版本)。
U-Net-B 500可以被认为包括编码器501,该编码器501被配置为生成多个尺度下的经编码的特征(例如,特征图524、544、564和584),这些经编码的特征被提供给解码器509,解码器509组合来自不同尺度的特征以生成输出592。根据本公开的实施例的U-Net-B500使用MRDB作为该架构的编码器501和解码器509部分之间的连接(作为“块连接”),这使得U-Net-B 500能够自适应地变换U-Net-B 500的编码器501的特征,并且将变换后的特征传送到U-Net-B 500的解码器509。同时,为了增强其性能和鲁棒性(robustness),MCU-Net采用了级联结构。相比之下,不使用MRDB的比较性的U-Net利用跳过连接(skipconnection)来跨越跨编码器和解码器的层,而不执行特征图的进一步变换。
更详细地,在图5所示的实施例中,1×1卷积层511用于扩展输入502(例如,输入特征图或输入图像)的特征通道的数量,以生成扩展后的输入521。扩展后的输入521被提供给第一尺度510的第一MRDB 512,以计算第一尺度510下的第二特征图522。第一尺度510下的第二特征图522被提供给第二MRDB 514,第二MRDB 514计算第一尺度510下的经编码的特征524。第二特征图522还被提供给第一下采样模块513,第一下采样模块513对第二特征图522进行下采样,并且对经下采样的特征图应用1×1卷积,以生成第二尺度530下的第一特征图541。
第二尺度530下的第一特征图541被提供给第二尺度530下的第一MRDB 532,以计算第二尺度530下的第二特征图542。第二尺度下的第二特征图542被提供给第二尺度530下的第二MRDB 534,以计算第二尺度530下的经编码的特征544。第二尺度530下的第二特征图542还被提供给下采样模块535,下采样模块535对第二特征图542进行下采样并且对经下采样的第二特征图应用1×1卷积,以生成第三尺度550下的第一特征图561。
第三尺度550下的第一特征图561被提供给第三尺度550下的第一MRDB 552,以计算第三尺度550下的第二特征图562。第二尺度下的第二特征图562被提供给第二尺度550下的第二MRDB 554,以计算第三尺度550下的经编码的特征564。第三尺度550下的第二特征图562还被提供给下采样模块557,下采样模块557对第二特征图562进行下采样并且对经下采样的第二特征图应用1×1卷积,以生成第四尺度570的第一特征图581。
第四尺度570的第一特征图581被提供给第四尺度570的MRDB 572,以计算第四尺度570的经编码的特征584。
第一尺度510、第二尺度530、第三尺度550和第四尺度570的经编码的特征524、544、564和584分别被提供给编码器509。
第四尺度570下的经编码的特征584被提供给上采样模块575,上采样模块575将经编码的特征584从第四尺度570上采样到第三尺度550,以生成第三尺度550下的经上采样的特征565。
经上采样的特征565与第三尺度550下的经编码的特征564拼接,并且拼接后的特征被提供给第三尺度550下的第三MRDB 556,以产生第三尺度550下的输出特征566。第三尺度550下的输出特征566被提供给上采样模块553,上采样模块553将输出特征556从第三尺度550上采样到第二尺度530并且对经上采样的特征应用1×1卷积,以生成第二尺度530下的经上采样的特征545。
经上采样的特征545与第二尺度530下的经编码的特征544连接,并且连接的特征被提供给第二尺度530的第三MRDB 536,以生成第二尺度530下的输出特征546。第二尺度530下的输出特征546被提供给上采样模块531,上采样模块531将输出特征546从第二尺度530上采样到第一尺度510,并且对经上采样的特征应用1×1卷积,以生成第一尺度510下的经上采样的特征525。
经上采样的特征525与第一尺度510下的经编码的特征524拼接,并且拼接后的特征被提供给第一尺度510下的第三MRDB 516,以生成第一尺度530下的输出特征526。由1×1Conv层517将1×1卷积应用于输出特征526,以生成输出592。
虽然图5所示的实施例示出了具有四个不同尺度以及每个尺度下三个MRDB的U-Net-B 500架构,但是本公开的实施例不限于此。例如,根据本公开的实施例的U-Net-B可以包括多于四个尺度,并且可以包括各种尺度下不同数量的MRDB(例如,每个尺度下至少一个MRDB)。每种尺度下的MRDB数量可以因尺度不同而不同。
在一些实施例中,为了确保网络仅学习训练输入502和标记的训练输出592之间的差异,应用残差连接。例如,在图像去噪的情况下,使用残差连接缩短或简化了用于训练网络以学习如何消除输入图像中噪声的存在并且生成干净的输出图像的训练过程。
图6是根据本公开的一个实施例的多尺度残差密集级联的具有块连接的U-Net(MCU-Net)的框图。在图6所示的实施例中,两个U-Net-B 651和652被级联(例如,顺序或串联排列)。输入602(诸如输入图像或输入特征图)被提供给计算第一特征图的第一U-Net-B651。从输入到第一U-Net-B 651的第一残差连接631将输入602提供给第一加法器661,第一加法器661将第一特征图与输入602相加。
第一加法器661的输出被提供给计算第二特征图的第二U-Net-B 652。第二残差连接632将第一加法器的输出提供给第二加法器662,第二加法器662将第一加法器的输出与第二特征图652相加以计算输出692(例如,输出特征图或输出图像,诸如输入602的去噪版本)。
如上所述,当端到端训练MCU-Net 600时(例如,通过在输入端提供有噪图像来训练权重以匹配在输出端训练去噪图像),残差连接631和632使得两个U-Net-B 651和652学习它们的输入和期望输出(例如,消除噪声的值)之间的差异。
因此,本公开的实施例的一些方面涉及用于执行图像处理(包括图像去噪)的MCU-Net架构,其中MCU-Net使用MRDB来执行MCU-Net的编码器和解码器之间的附加特征变换,从而提高图像处理的质量,诸如从输入图像中减少或去除噪声。
集成(ensemble)网络
本公开的实施例的一些方面涉及集成网络,其中不同网络的输出被组合。例如,根据本公开的一些实施例的多尺度残差密集网络(MRDN)(参见,例如,图4)可以与另一个经训练的预测器(例如,另一个卷积神经网络)集成。作为另一个示例,根据本公开的一个实施例的多尺度残差密集级联的具有块连接的U-Net可以与另一个经训练的预测器集成。
图7是示出其中MRDN与MCU-Net集成的网络集成的一个示例的框图。如图7所示,集成700接受输入702(例如,有噪图像)并且将该图像作为输入提供给第一网络750(例如,MRDN)和第二网络760(例如,MCU-Net 760),其中第一网络750和第二网络760都被训练来对作为输入提供给它们的输入图像进行去噪。这两个网络750和760计算输出去噪图像,并且组合模块770组合两个输出去噪图像(例如,通过计算两个图像的像素级(pixel-wise)平均或均值)来生成集成的输出792。
虽然图7示出了其中两个网络集成在一起的实施例,但是本公开的实施例不限于此。例如,具有不同网络架构的附加去噪网络也可以与第一网络750和第二网络760并行添加。在一些实施例中,组合模块770使用除了平均之外的操作来组合不同网络的输出,诸如基于不同网络在计算值中的置信度的加权平均值或基于投票的组合。例如,在一些实施例中,在基于投票的组合中,比较由不同网络计算的输出值,并且丢弃计算值中的统计离群点(statistical outlier)(例如,在三个网络的情况下,如果两个网络生成非常接近的值,并且第三个网络生成非常不同的值,则第三个网络生成的值被丢弃,并且前两个网络的平均值作为输出返回)。
此外,虽然图7描绘了使用平均作为由组合模块770执行的操作,但是本公开的实施例不限于此。例如,在本公开的一些实施例中,由不同网络计算的值是基于它们的输出图像的不同块(patch)中的质量度量(例如,平滑度)来评估,并且不同网络的输出基于该质量度量在每个块中被加权。
因此,本公开的实施例的一些方面涉及神经网络架构和使用网络(包括网络,该网络包括一个或多个MRDB)集成的方法,以执行图像处理操作,诸如图像去噪。
具有噪声置换的训练数据/数据增强
如上所述,使用训练数据集来训练根据本公开实施例的用于使用神经网络架构执行图像处理操作的神经网络,该训练数据集包括有噪输入图像和对应的去噪“地面实况(ground truth)”图像(例如,该网络的期望的无噪输出)。训练神经网络通常包括初始化神经网络(例如,将网络中的权重(诸如卷积核中的权重)设置为随机值),并且将训练输入数据提供给网络。然后将网络的输出与标记的训练数据进行比较以生成误差信号(例如,当前输出和“地面实况”输出之间的差异),并且使用反向传播算法与梯度下降来更新权重,经过多次迭代,使得网络计算出更接近期望的地面实况图像的结果。
用于训练卷积神经网络以执行去噪的图像数据集基于数据集内所提供的有噪图像的来源可以分为两类:合成图像数据集和真实图像数据集。合成图像数据集通常通过以下方式构建:首先通过对高分辨率图像进行下采样或对低ISO图像进行后处理,收集高质量图像作为无噪声图像;然后基于统计噪声模型(例如,高斯噪声模型或泊松-高斯噪声模型)添加合成噪声来生成合成有噪图像。真实图像数据集通常通过以下方式生成:首先在短时间内(例如,以确保最小图像内容变化,诸如场景亮度变化或场景中对象的移动)收集多个真实有噪图像;然后融合这些多个图像以生成合成的无噪声或低噪声图像。
通常,使用真实图像技术生成的图像数据集更接近于在实际应用中处理的真实数据。然而,由于训练数据大小的限制(例如,数据集可能不够大以避免过度拟合的风险),基于学习的方法中仍然存在过度拟合的挑战。
因此,本公开的实施例的一些方面涉及使用噪声置换的数据增强(dataaugmentation),该数据增强可以通过利用真实内容和真实噪声信息来生成附加的合成有噪图像数据。
数据增强是帮助神经网络避免过度拟合问题的有效技术。数据增强的一些比较性的方法涉及输入有噪图像的各种参数(诸如亮度、对比度和/或饱和度)的抖动(jittering)。然而,这些抖动方法可能会改变真实有噪图像的噪声特性,因此可能不会生成代表真实世界条件下所见的数据。其他常见的图像增强(诸如图像翻转和旋转)不能直接用于原始RGB数据(例如,拜耳原始数据),因为像素的经移动的位置可能不与拜耳滤波器的实际位置对齐,并且因为不同的像素颜色可能与不同的噪声特性相关联。因此,因为在增强后不匹配的拜耳样式(Bayer pattern),这些比较性的数据增强技术将生成低质量的训练图像。
本公开的方面涉及利用来自真实有噪图像的真实噪声来生成附加的合成有噪图像的噪声数据置换方法。通过改变真实噪声的空间分布,用真实内容和噪声生成更多的训练样本。
图8是示出根据本公开的一个实施例的用于生成合成有噪图像的方法的框图。如图8所示的方法可以使用适当的处理电路(诸如个人计算机或服务器计算机的处理器和存储器)来实现。
如图8所示,真实有噪图像801中的噪声数据的表示或图像由噪声提取器810生成,其中噪声提取器810从其对应的有噪图像801中减去地面实况(无噪声)图像803。得到的噪声数据或噪声图像(例如,真实有噪图像801和无噪声图像803之间的差)被提供给噪声聚类模块820,噪声聚类模块820被配置为基于在地面实况(无噪声)图像803的对应位置处的强度值来将数据分成N个簇(cluster)。例如,N可以指地面实况图像803中的灰度等级(graylevel)的数量(例如,在8位色彩的情况下,为每个子像素N=256等级),所以针对1到N中的每一个值k,在地面实况图像803中的每个位置处具有强度k的噪声数据的值一起被分组到第k簇中。
在每个簇内,执行随机置换830以交换那些噪声值的位置。例如,噪声置换模块831置换与地面实况图像803中的第一强度值相对应的所有位置的噪声值的位置,噪声置换模块832置换与地面实况图像803中的第i强度值相对应的所有位置的噪声值的位置,并且噪声置换模块833置换与地面实况图像803中的第N强度值相对应的所有位置的噪声值的位置。在置换之后,噪声图像再生成模块840将置换后的噪声值放回到地面实况图像803中相等强度的位置来生成新的合成噪声图像,并且加法器860将合成噪声图像返回与对应的地面实况图像803相加以生成新的合成有噪图像891。这个过程可以用相同的输入图像但是噪声值的不同的置换重复几次,以生成不同的合成有噪图像892。类似地,对于来自训练数据集的每个训练图像和地面实况图像对,该过程可以重复几次。
因此,本公开的实施例的一些方面涉及使用噪声置换的数据增强,该数据增强:不引入基于统计噪声模型的人工噪声;很大程度上保留了具有适当N的原始相机数据(例如,原始RGB空间或原始拜耳数据)中的噪声的信号相关性;并且它为给定的地面实况图像提供了具有不同的接近真实的有噪图像的更多训练样本。因此,使用噪声置换的数据增强增加了具有更接近于真实世界情况中会遇到的噪声类型的数据的训练数据集的大小,从而有助于避免训练期间的模型过度拟合。
因此,本公开的实施例的各个方面涉及使用包括多尺度残差密集块(MRDB)的卷积神经网络(CNN)进行图像处理的***和方法。本公开的一些实施例涉及用于包括一个或多个MRDB的CNN的架构。例如,多尺度残差密集网络(MRDN)包括具有残差连接的卷积层和一系列级联的MRDB。作为另一个示例,具有块连接的U-Net(U-Net-B)基于U-Net架构,并且还包括提供U-Net-B的编码器部分和解码器部分之间的连接的MRDB。多尺度残差密集级联的具有块连接的U-Net包括以级联方式排列的、具有残差连接的多个U-Net-B,以训练该网络来学习图像传感器的噪声模式特性。
此外,本公开的实施例的一些方面涉及用于去噪的训练数据集的数据增强。根据本公开的这些实施例增强的数据集可以用于训练根据本公开的其他实施例的神经网络。在一些实施例中,根据本公开实施例的经训练的神经网络(例如,包括MRDB的神经网络、MRDN,包括U-Net-B的神经网络或MCU-Net)在用户设备(诸如智能手机、数字相机***等)上部署和执行。
虽然已经结合特定示例性实施例描述了本发明,但是应当理解,本发明不限于所公开的实施例,相反,本发明旨在覆盖包括在所附权利要求及其等同物的精神和范围内的各种修改和等同布置。
Claims (19)
1.一种用于对图像进行去噪的方法,包括:
由用户设备的处理电路接收输入图像;
由所述处理电路将所述输入图像提供给包括多尺度残差密集块MRDB的经训练的卷积神经网络CNN,所述MRDB包括:
残差密集块RDB;和
空洞空间金字塔池化ASPP模块;
由所述处理电路使用所述MRDB计算MRDB输出特征图;以及
由所述处理电路基于所述MRDB输出特征图计算输出图像,所述输出图像是所述输入图像的去噪版本。
2.根据权利要求1所述的方法,还包括向所述MRDB提供输入特征图,
其中,所述输入特征图被提供给所述RDB的卷积模块的级联,以计算中间特征图,
其中,所述输入特征图被提供给所述ASPP模块,以计算不同扩张率下的多个特征图,
其中,不同扩张率下的所述多个特征图由拼接层拼接,
其中,所述拼接层的输出与所述RDB的中间特征图拼接,以形成RDB输出特征图,并且
其中,基于所述RDB输出特征图来计算所述MRDB输出特征图。
3.根据权利要求2所述的方法,其中,所述输入特征图被提供给ASPP卷积模块,并且
其中,基于所述ASPP卷积模块的输出来计算不同扩张率下的所述多个特征图。
4.根据权利要求1所述的方法,其中,所述经训练的CNN包括多尺度残差密集网络MRDN,所述MRDN包括一个或多个卷积层和包括所述MRDB的一个或多个MRDB的级联。
5.根据权利要求4所述的方法,其中,所述输入图像被提供给所述MRDN的第一组卷积层,
其中,所述第一组卷积层的输出被提供给所述一个或多个MRDB的级联,
其中,所述一个或多个MRDB的多个输入与所述一个或多个MRDB的所述级联的最后一个MRDB的输出拼接,由1×1卷积层压缩,并且被提供给第二组卷积层以计算所述MRDB输出特征图,
其中,由加法器将所述MRDB特征图与所述第二组卷积层的输出相加,并且
其中,所述加法器的输出被提供给第三组卷积层以计算所述输出图像。
6.根据权利要求1所述的方法,其中,所述经训练的CNN包括第一具有块连接的U-NetU-Net-B,所述第一U-Net-B包括在多个尺度下操作的编码器和解码器,
其中,包括所述MRDB的多个MRDB连接所述多个尺度下的所述编码器和所述解码器。
7.根据权利要求6所述的方法,其中,所述经训练的CNN还包括:
第二U-Net-B,与所述第一U-Net-B级联以形成级联的具有块连接的U-Net MCU-Net,
第一加法器,被配置为将所述输入图像与所述第一U-Net-B的输出相加,其中所述第一加法器的输出连接到所述第二U-Net-B的输入;和
第二加法器,被配置为将所述第一加法器的输出与所述第二U-Net-B的输出相加,其中所述第二加法器被配置为计算所述CNN的输出。
8.根据权利要求1所述的方法,其中,所述经训练的CNN包括多尺度残差密集网络MRDN,所述MRDN包括一个或多个卷积层和包括所述MRDB的一个或多个MRDB的级联,
其中,所述经训练的CNN还包括级联的具有块连接的U-Net MCU-Net,所述MCU-Net包括第一具有块连接的U-Net U-Net-B和第二U-Net-B,
其中,所述MRDN和所述MCU-Net被集成并被配置为计算第一去噪图像和第二去噪图像,并且
其中,所述输出图像是所述第一去噪图像和所述第二去噪图像的组合。
9.根据权利要求1所述的方法,其中,所述用户设备还包括与所述用户设备集成的相机***,
其中,所述方法还包括控制所述相机***捕获所述输入图像,并且
其中,所述处理电路从所述相机***接收所述输入图像。
10.根据权利要求1所述的方法,还包括获得用于对所述CNN进行训练的图像数据集,所述图像数据集包括真实有噪图像和对应的地面实况图像,获得所述图像数据集包括:
由所述处理电路从对应的地面实况图像中减去真实有噪图像,以计算噪声图像;
由所述处理电路基于所述对应的地面实况图像的强度值来聚类所述噪声图像的多个噪声值;
由所述处理电路在每个簇内置换所述噪声图像的所述多个噪声值的多个位置;
由所述处理电路基于所述多个噪声值的置换后的位置生成合成噪声图像;以及
由所述处理电路将所述合成噪声图像与所述地面实况图像相加,以生成合成有噪图像。
11.一种被配置为对图像进行去噪的用户设备,所述用户设备包括:
处理电路;和
存储器,存储指令,所述指令当由所述处理电路执行时使得所述处理电路:
接收输入图像;
将所述输入图像提供给由所述处理电路实现的经训练的卷积神经网络CNN,所述经训练的CNN包括多尺度残差密集块MRDB,所述MRDB包括:
残差密集块RDB;和
空洞空间金字塔池化ASPP模块;
使用所述MRDB计算MRDB输出特征图;以及
基于所述MRDB输出特征图来计算输出图像,所述输出图像是所述输入图像的去噪版本。
12.根据权利要求11所述的用户设备,其中,所述存储器还存储指令,所述指令当由所述处理电路执行时使得所述处理电路将输入特征图提供给所述MRDB,
其中,所述输入特征图被提供给所述RDB的卷积模块的级联以计算中间特征图,
其中,所述输入特征图被提供给所述ASPP模块以计算不同扩张率下的多个特征图,
其中,不同扩张率下的所述多个特征图由拼接层拼接,
其中,所述拼接层的输出与所述RDB的中间特征图拼接,以形成RDB输出特征图,并且
其中,基于所述RDB输出特征图来计算所述MRDB输出特征图。
13.根据权利要求12所述的用户设备,其中,所述输入特征图被提供给ASPP卷积模块,并且
其中,基于所述ASPP卷积模块的输出来计算不同扩张率下的所述多个特征图。
14.根据权利要求11所述的用户设备,其中,所述经训练的CNN包括多尺度残差密集网络MRDN,所述MRDN包括一个或多个卷积层和包括所述MRDB的一个或多个MRDB的级联。
15.根据权利要求14所述的用户设备,其中,所述输入图像被提供给所述MRDN的第一组卷积层,
其中,所述第一组卷积层的输出被提供给所述一个或多个MRDB的所述级联,
其中,所述一个或多个MRDB的多个输入与所述一个或多个MRDB的所述级联的最后一个MRDB的输出拼接,由1×1卷积层压缩,并且被提供给第二组卷积层以计算所述MRDB输出特征图,
其中,由加法器将所述MRDB特征图与所述第二组卷积层的输出相加,并且
其中,所述加法器的输出被提供给第三组卷积层以计算所述输出图像。
16.根据权利要求11所述的用户设备,其中,所述经训练的CNN包括第一具有块连接的U-Net U-Net-B,所述第一U-Net-B包括在多个尺度下操作的编码器和解码器,
其中,包括所述MRDB的多个MRDB连接所述多个尺度下的所述编码器和所述解码器。
17.根据权利要求16所述的用户设备,其中,所述经训练的CNN还包括:
第二U-Net-B,与所述第一U-Net-B级联以形成级联的具有块连接的U-Net MCU-Net,
第一加法器,被配置为将所述输入图像与所述第一U-Net-B的输出相加,其中,所述第一加法器的输出连接到所述第二U-Net-B的输入;和
第二加法器,被配置为将所述第一加法器的输出与所述第二U-Net-B的输出相加,其中,所述第二加法器被配置为计算所述CNN的输出。
18.根据权利要求11所述的用户设备,其中,所述经训练的CNN包括多尺度残差密集网络MRDN,所述MRDN包括一个或多个卷积层和包括所述MRDB的一个或多个MRDB的级联,
其中,所述经训练的CNN还包括级联的具有块连接的U-Net MCU-Net,所述MCU-Net包括第一具有块连接的U-Net U-Net-B和第二U-Net-B,
其中,所述MRDN和所述MCU-Net被集成并被配置为计算第一去噪图像和第二去噪图像,并且
其中,所述输出图像是所述第一去噪图像和所述第二去噪图像的组合。
19.根据权利要求11所述的用户设备,还包括与所述用户设备集成的相机***,
其中,所述处理电路还被配置为控制所述相机***捕获所述输入图像,并且
其中,所述处理电路从所述相机***接收所述输入图像。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062987802P | 2020-03-10 | 2020-03-10 | |
US62/987,802 | 2020-03-10 | ||
US202062988844P | 2020-03-12 | 2020-03-12 | |
US62/988,844 | 2020-03-12 | ||
US17/010,670 US11508037B2 (en) | 2020-03-10 | 2020-09-02 | Systems and methods for image denoising using deep convolutional networks |
US17/010,670 | 2020-09-02 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113379613A true CN113379613A (zh) | 2021-09-10 |
Family
ID=77457412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110256234.2A Pending CN113379613A (zh) | 2020-03-10 | 2021-03-09 | 使用深度卷积网络的图像去噪***和方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230043310A1 (zh) |
CN (1) | CN113379613A (zh) |
DE (1) | DE102020133963A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11540798B2 (en) | 2019-08-30 | 2023-01-03 | The Research Foundation For The State University Of New York | Dilated convolutional neural network system and method for positron emission tomography (PET) image denoising |
CN115905996A (zh) * | 2022-09-19 | 2023-04-04 | 山东省人工智能研究院 | 一种多尺度膨胀卷积残差密集网络的心电信号降噪方法 |
CN116862784A (zh) * | 2023-06-09 | 2023-10-10 | 中国人民解放***箭军工程大学 | 一种基于多教师知识蒸馏的单幅图像去雾方法 |
WO2023206426A1 (zh) * | 2022-04-24 | 2023-11-02 | 汕头市超声仪器研究所股份有限公司 | 多信息提取的扩展 U-Net 及其在低剂量 X 射线成像的应用方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11657279B2 (en) * | 2020-06-16 | 2023-05-23 | National Taiwan University Of Science And Technology | Electronic device and method for document segmentation |
-
2020
- 2020-12-17 DE DE102020133963.1A patent/DE102020133963A1/de active Pending
-
2021
- 2021-03-09 CN CN202110256234.2A patent/CN113379613A/zh active Pending
-
2022
- 2022-10-25 US US17/972,961 patent/US20230043310A1/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11540798B2 (en) | 2019-08-30 | 2023-01-03 | The Research Foundation For The State University Of New York | Dilated convolutional neural network system and method for positron emission tomography (PET) image denoising |
WO2023206426A1 (zh) * | 2022-04-24 | 2023-11-02 | 汕头市超声仪器研究所股份有限公司 | 多信息提取的扩展 U-Net 及其在低剂量 X 射线成像的应用方法 |
CN115905996A (zh) * | 2022-09-19 | 2023-04-04 | 山东省人工智能研究院 | 一种多尺度膨胀卷积残差密集网络的心电信号降噪方法 |
CN115905996B (zh) * | 2022-09-19 | 2023-08-08 | 山东省人工智能研究院 | 一种多尺度膨胀卷积残差密集网络的心电信号降噪方法 |
CN116862784A (zh) * | 2023-06-09 | 2023-10-10 | 中国人民解放***箭军工程大学 | 一种基于多教师知识蒸馏的单幅图像去雾方法 |
CN116862784B (zh) * | 2023-06-09 | 2024-06-04 | 中国人民解放***箭军工程大学 | 一种基于多教师知识蒸馏的单幅图像去雾方法 |
Also Published As
Publication number | Publication date |
---|---|
DE102020133963A1 (de) | 2021-09-16 |
US20230043310A1 (en) | 2023-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11508037B2 (en) | Systems and methods for image denoising using deep convolutional networks | |
Xu et al. | Learning to restore low-light images via decomposition-and-enhancement | |
CN113379613A (zh) | 使用深度卷积网络的图像去噪***和方法 | |
Kalantari et al. | Deep HDR video from sequences with alternating exposures | |
CN111402146B (zh) | 图像处理方法以及图像处理装置 | |
US10708525B2 (en) | Systems and methods for processing low light images | |
CN111127336B (zh) | 一种基于自适应选择模块的图像信号处理方法 | |
CN110956219B (zh) | 视频数据的处理方法、装置和电子*** | |
Afifi et al. | Cie xyz net: Unprocessing images for low-level computer vision tasks | |
CN113674159A (zh) | 图像处理方法、装置、电子设备及可读存储介质 | |
CN112164011A (zh) | 基于自适应残差与递归交叉注意力的运动图像去模糊方法 | |
CN113284061B (zh) | 一种基于梯度网络的水下图像增强方法 | |
CN112102182A (zh) | 一种基于深度学习的单图像去反射方法 | |
CN113673545A (zh) | 光流估计方法、相关装置、设备及计算机可读存储介质 | |
US11741579B2 (en) | Methods and systems for deblurring blurry images | |
CN114627034A (zh) | 一种图像增强方法、图像增强模型的训练方法及相关设备 | |
Rasheed et al. | LSR: Lightening super-resolution deep network for low-light image enhancement | |
Wang et al. | Single Underwater Image Enhancement Based on $ L_ {P} $-Norm Decomposition | |
US11783454B2 (en) | Saliency map generation method and image processing system using the same | |
Chang et al. | Beyond camera motion blur removing: How to handle outliers in deblurring | |
CN111311498B (zh) | 图像鬼影剔除方法及装置、存储介质、终端 | |
CN114119428B (zh) | 一种图像去模糊方法和装置 | |
CN116229081A (zh) | 基于注意力机制的无人机全景图像去噪方法 | |
CN115311149A (zh) | 图像去噪方法、模型、计算机可读存储介质及终端设备 | |
CN110796607B (zh) | 一种基于视网膜大脑皮层理论的深度学习低光照图像增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |