CN111292264B - 一种基于深度学习的图像高动态范围重建方法 - Google Patents

一种基于深度学习的图像高动态范围重建方法 Download PDF

Info

Publication number
CN111292264B
CN111292264B CN202010072803.3A CN202010072803A CN111292264B CN 111292264 B CN111292264 B CN 111292264B CN 202010072803 A CN202010072803 A CN 202010072803A CN 111292264 B CN111292264 B CN 111292264B
Authority
CN
China
Prior art keywords
image
network
hdr
ldr
dynamic range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010072803.3A
Other languages
English (en)
Other versions
CN111292264A (zh
Inventor
肖春霞
刘文焘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202010072803.3A priority Critical patent/CN111292264B/zh
Publication of CN111292264A publication Critical patent/CN111292264A/zh
Application granted granted Critical
Publication of CN111292264B publication Critical patent/CN111292264B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的图像高动态范围重建方法,属于计算摄影学和数字图像处理领域。发明采用基于深度学习的方法建立了一个从单幅LDR图像到HDR图像的映射网络。方法首先从收集到的HDR数据集中分别依次生成LDR训练数据、亮度单位对齐的HDR样本标签和高亮度区域的掩码图像。然后构建并训练神经网络以得到具有LDR到HDR映射关系的网络模型。最后利用训练得到的生成网络模型,直接将LDR图像输入至网络模型,即可输出其重建的HDR图像。该发明可以从单幅普通数字图像中有效地重建出真实场景的动态范围,可用于普通数字图像的HDR模拟效果显示或为基于图像照明技术提供更逼真的渲染效果。

Description

一种基于深度学习的图像高动态范围重建方法
技术领域
本发明属于计算摄影学和数字图像处理领域,涉及图像的高动态范围重建方法,尤其是基于深度学习的图像高动态范围重建方法。
背景技术
高动态范围成像(High Dynamic Range Imaging,HDRI)技术是用来实现比普通数字图像更大曝光范围的一种图像表示方法,高动态范围(High Dynamic Range,HDR)图像可以提供比普通数字图像更大的亮度变化范围和更多的明暗细节,这使得HDR图像能够呈现更加接近真实场景的亮度变化信息。近年来,随着显示设备的不断进化和基于物理渲染的需求提高,高动态范围成像技术在实际应用中变得越来越重要。然而,目前直接获取HDR图像的方法需要较高的专业技能,成本较高且耗时。针对从单幅普通数字图像中重建HDR的方法,传统方法只能通过增加约束的方法来尽可能减少问题的非适定性,这使得它们只能针对某些特定应用场景有效。一些学者也基于深度学习做了一些卓有成效的工作,但他们未能考虑到诸如HDR图片间的亮度等级不变性等因素导致重建效果有局限性。该发明可以从单幅普通数字图像中有效地重建出真实场景的动态范围,可用于普通数字图像的HDR模拟效果显示或为基于图像照明技术提供更逼真的渲染效果。
发明内容
本发明的目的是从单张普通数字图像中尽可能恢复原场景的高动态范围图像。这里普通数字图像是指以8位颜色深度、256色阶保存的低动态范围(Low Dynamic Range,LDR)图像,高动态范围图像指以“.EXR”或“.HDR”等格式保存的接近真实场景明暗变化的高动态范围图像。
为了达到上述目的,本发明采用基于深度学习的方法建立了一个从LDR图像到HDR图像的映射网络,通过训练数据对网络进行学习训练,使其建立一个端到端的LDR图像到HDR图像的映射关系,整体框架图如附图1所示。算法分为数据预处理和深度神经网络训练两个部分。数据预处理部分包括训练样本对的生成、HDR图像亮度单位的对齐和图像高光区域掩码的生成三个部分。神经网络结构分为基本HDR重建网络和训练优化网络,如附图2所示。其损失函数包括三项,分别为HDR重建图像的尺度不变损失、高光区域分类的交叉熵损失和生成对抗损失。
该方法具体包括以下内容和步骤:
一、数据预处理
1)生成LDR训练样本输入
在使用深度神经网络进行有监督训练之前,需要获取对应网络输入输出的训练数据集。训练数据集包含若干LDR-HDR图像对,其中HDR图像数据可使用现有可用的HDR图片,该数据作为训练样本的标签,用于监督网络的训练;LDR图像数据作为HDR图像对应的样本输入,需要从原HDR图像中生成,其生成方法有两中途径,一是使用色调映射算法完成从HDR图片到LDR图片的生成,二是通过构建虚拟相机的方式以HDR图像作为模拟场景对齐进行模拟拍摄从而得到LDR图片。
使用色调映射算法生成LDR图像:选择一种适当的色调映射算法,直接将HDR图像作为算法输入即可得到对应的LDR图像输出。
通过构建虚拟相机来获取LDR图像:首先基于常用的数码单反相机确定虚拟相机动态范围的取值范围,对于每一次获取LDR图像都随机选取范围内的一个值作为该次模拟拍摄的相机的动态范围;然后虚拟相机根据输入的HDR图像进行自动曝光,对亮度超出虚拟相机动态范围的像素取边界值,再将其线性映射至LDR图像的低动态范围;最后,将所得到的图像从线性空间通过随机选择的近似相机响应函数映射为普通数字图像,即得到所需要的LDR图像。
2)对齐HDR样本标签
对于保存在相对亮度域的HDR图像,在将其作为训练样本标签前,需对齐它们的亮度单位。设原始HDR图像为H,LDR图像转换到线性空间并归一化到[0,1],设为L,Hl,c,Ll,c分别为图像在位置l,通道c处的像素值,其对齐方法为:
Figure BDA0002377717760000021
其中
Figure BDA0002377717760000022
为对齐后的HDR图像,ml,c定义为
Figure BDA0002377717760000023
其中τ为[0,1]的常数。对齐后的HDR图像与其对应的LDR图像组成供神经网络训练的训练样本对。
3)生成高光掩码图像
得到对齐的HDR图像后,可以通过二值化的方式获取图像中高亮度区域的掩码图像。该掩码图像中值为1的区域代表场景中拥有较高亮度的物体或表面,如光源、强光反射面等。这些高光区域在LDR图像中往往会由于过曝光而被裁剪亮度,通过从HDR图像生成的高光掩码图像可作为网络优化训练部分的样本标签,用于优化神经网络的训练过程。
二、神经网络的训练
1)神经网络结构
网络结构主要分为生成网络和判别网络两个部分,结构示意图如附图3所示。其中生成网络为一个U-Net结构,网络接受一张LDR图像作为输入,经过由ResNet50模型构成的编码网络和6层“上采样+卷积层”模块构成解码网络后,分别输出一张HDR图像和高光掩码图像。网络输出的HDR图像即为根据LDR输入图像得到的HDR重建图像,而高光掩码图像作为网络对LDR图像中高光区域的预测,可作为优化网络训练的数据。判别器网络为一个由4层卷积层构成的全卷积网络,该判别器接受一张HDR图像与高光掩码图像作为输入,输出一张表征所输入的HDR图像为真实HDR图像或者是网络生成的虚假HDR图像的概率的特征图,该特征图可作为训练神经网络的数据。
2)神经网络的训练方法
该发明采用有监督学习的方式对上述网络进行训练。训练采用Adam优化器分别逐次对生成网络和判别网络进行反向传播优化,其中生成网络共包含三组优化函数,损失函数定义如下:
LG=α1Lhdr2Lmask3Lgan
该损失分别由三个损失函数控制,包括HDR重建图像的尺度不变损失、高光区域分类的交叉熵损失和生成对抗损失。
HDR重建图像的尺度不变损失:该项损失函数依据HDR图像在相对亮度域中具有尺度不变性提出,该项损失控制网络输出的HDR图像使其尽可能与HDR标签值接近。其定义如下:
Figure BDA0002377717760000031
其中y表示网络输出的HDR图像,
Figure BDA0002377717760000032
为目标图像,下标l,c分别表示像素位置和颜色通道,
Figure BDA0002377717760000033
表示在对数域中网络输出与样本标签的差值,∈为一个防止对数计算为零的微小值。该损失第一项即为普通的L2损失,引入第二项后,该项损失在计算时仅由预测值与样本标签的差值所影响,与预测值或样本标签的实际大小无关。
高光区域分类的交叉熵损失:该项损失控制网络对图片中高亮度区域的检测。网络输出的高光掩码图像为对输入LDR图像中高光区域或非高光区域的分类结果,该结果应与预处理步骤时生成的高光掩码图像尽可能接近。该损失函数定义如下:
Figure BDA0002377717760000041
其中m,
Figure BDA0002377717760000042
分别为网络预测值和标签值。
生成对抗损失:该项损失能使网络预测的HDR图像在分布上尽可能接近真实的HDR图像,防止预测结果与标签结果仅在数值差异上减小而忽视整体分布的差异。该损失函数定义如下:
Figure BDA0002377717760000043
其中D(y)为判别网络以生成网络输出为输入的计算结果。
判别网络的损失函数为标准WGAN-GP损失,该项控制判别网络使其尽可能准确判断输入判别网络的图像是否为真实HDR图像。其定义如下:
Figure BDA0002377717760000044
Figure BDA0002377717760000045
其中∈为[0,1]的随机数。
根据上述训练方法对网络进行训练,当损失函数收敛后,生成网络便建立了一个从单张LDR图像到HDR图像的映射关系。利用该训练好的生成网络,即可完成从单幅普通数字图像尽可能重建真实的高动态范围图像的目标。
与现有技术相比,本发明有如下优点:
1.本发明构建了一个端到端的神经网络,仅需一张图片就能重建出足够真实的HDR图像,且无需人工交互的步骤;
2.本发明基于尺度不变性对HDR数据进行对齐和训练网络,能达到更好的重建效果;
3.本发明通过生成高光掩码图像对网络训练进行优化,能获得高亮度区域更好的重建效果。
附图说明
图1是本发明的总框架图;
图2是本发明的深度神经网络结构图;
图3是本发明的效果示意图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步说明。
如图1所示,本发明为一种基于深度学习的图像高动态范围重建方法,包括以下步骤:
步骤1,预处理HDR数据集以构建神经网络的训练数据。首先从收集到的HDR数据集中生成LDR数据,然后使用LDR-HDR数据来对齐HDR数据,再利用对齐后的HDR图像生成高光掩码图像,最后将这三者整合作为神经网络的训练数据。其中LDR数据为数据输入,对齐的HDR数据和高光掩码图像为标签数据。
步骤2,构建并训练神经网络以得到具有LDR到HDR映射关系的网络模型。根据训练策略,逐次轮替地对生成网络和判别网络进行反向传播训练,直到损失函数收敛。此时,生成网络部分即为最终用于重建高动态范围图像的网络模型。
步骤3,根据步骤2训练得到的生成网络模型,直接将待重建的LDR图像输入至网络模型,即可输出其重建的HDR图像。
下面结合实例对该方法进行详细说明。
一、数据预处理
HDR数据集选取现有的公共HDR数据集构成,通过对收集数据进行裁剪、缩放等操作组成一组尺寸、类型相同的数据集。根据此整合的数据集,分别应用显示适应的色调映射(Display Adaptive Tone Mapping)算法和前述的虚拟相机拍摄的方式获取LDR数据。关于色调映射,根据实际应用时图片的类型选取,比如如果应用时的大多图片是未经后期处理拍摄的图片,就选择本实施例这个的方法。如果是针对某处理的图片,就选取一种与后处理效果相近的方式。具体地,对每一张HDR图像,应用显示适应的色调映射算法获取一张LDR图像,再应用随机参数的虚拟相机进行一次拍摄获取一张LDR图像,即每张HDR图像生成两张不同方法获取的LDR图像。生成的LDR图像转换至线性空间,并从范围[0,255]的整数值归一化至[0,1]的小数值。
然后基于每一对LDR-HDR图像对其中的HDR图像进行亮度对齐。对齐方法参照说明内容中的公式进行:
Figure BDA0002377717760000051
其中
Figure BDA0002377717760000052
为对齐后的HDR图像,ml,c定义为
Figure BDA0002377717760000053
其中τ可为[0,1]的常数,这里取τ=0.08。将该公式应用到每一对LDR-HDR图像后,得到对齐的HDR图像数据,该数据将作为训练网络时的样本标签,而LDR图像数据作为样本输入。
最后,基于对齐的HDR数据,由如下公式计算高光掩码图像:
Figure BDA0002377717760000061
其中
Figure BDA0002377717760000062
为对齐后的HDR图像的通道均值图像,t为常数,这里取t=e0.1。该掩码图像将作为训练网络时的另一项样本标签,同HDR图像一起监督网络的学习过程。
二、神经网络训练
神经网络的结构依照附图2所示进行搭建。具体地,对于ResNet50模型,这里使用现有的基于ImageNet数据集的分类任务中已训练好的模型作为该部分网络权重的初始化值;其余每一个网络块都代表一个由卷积层和实例规范化操作以及relu激活函数组成的卷积块;生成网络中decoder部分的输入由上一层卷积块的输出和encoder对称位置的输出拼接而成;对于判别器网络部分,其输入由生成网络的输出组成,在经过四层卷积块后,输出一张判断输入HDR图像是否为真实图像的概率特征图。
其中,生成网络的输出与对应输入的样本标签数据,以及判别网络根据该输出数据计算的到的概率特征图,一同根据如下公式计算生成器损失:
LG=α1Lhdr2Lmask3Lgan
该损失分别由三个损失函数控制,包括HDR重建图像的尺度不变损失、高光区域分类的交叉熵损失和生成对抗损失。
HDR重建图像的尺度不变损失:该项损失函数依据HDR图像在相对亮度域中具有尺度不变性提出,该项损失控制网络输出的HDR图像使其尽可能与HDR标签值接近。其定义如下:
Figure BDA0002377717760000063
其中y表示网络输出的HDR图像,
Figure BDA0002377717760000064
为目标图像,下标l,c分别表示像素位置和颜色通道,
Figure BDA0002377717760000065
表示在对数域中网络输出与样本标签的差值,∈为一个防止对数计算为零的微小值。该损失第一项即为普通的L2损失,引入第二项后,该项损失在计算时仅由预测值与样本标签的差值所影响,与预测值或样本标签的实际大小无关。
高光区域分类的交叉熵损失:该项损失控制网络对图片中高亮度区域的检测。网络输出的高光掩码图像为对输入LDR图像中高光区域或非高光区域的分类结果,该结果应与预处理步骤时生成的高光掩码图像尽可能接近。该损失函数定义如下:
Figure BDA0002377717760000071
其中m,
Figure BDA0002377717760000072
分别为网络预测值和标签值。
生成对抗损失:该项损失能使网络预测的HDR图像在分布上尽可能接近真实的HDR图像,防止预测结果与标签结果仅在数值差异上减小而忽视整体分布的差异。该损失函数定义如下:
Figure BDA0002377717760000073
其中D(y)为判别网络以生成网络输出为输入的计算结果。
判别网络的损失函数为标准WGAN-GP损失,该项控制判别网络使其尽可能准确判断输入判别网络的图像是否为真实HDR图像。其定义如下:
Figure BDA0002377717760000074
Figure BDA0002377717760000075
其中∈为[0,1]的随机数。
其中α123分别取1,0.1,0.02,每一项损失的具体计算公式如发明内容中描述。根据计算得到的损失值,使用Adam优化算法对网络进行反向传播并更新权重。另外,每次更新完生成网络的权重,需要继续计算判别网络的损失并更新判别网络的权重,其更新算法同样使用Adam算法,具体公式如发明内容中描述。
依照上述训练方法,每次交付一对或多对训练数据供网络训练,对整个训练数据集依次循环迭代,直至损失函数收敛,网络即训练完成。
(三)网络模型应用
在网络训练完成后,将生成网络部分的网络及其权重参数提取出来即得到了最终的高动态范围图像的重建模型。利用该模型,每次仅需要一张LDR图片作为输入,即可得到近似真实的HDR图片。附图3展示了一个应用的示例,其中生成网络模型即通过前述方法训练好的神经网络中的生成网络部分,该模型可接受任意尺寸的LDR图片作为输入,并直接输出同尺寸下的HDR重建图像。
本发明基于深度学习提出了一个单张普通数字图像重建高动态范围的方法,可对一般场景的图像进行有效、逼真的高动态范围重建。本发明应用广泛,根据对不同数据集进行训练可以适应不同需求的场景,且对于同一训练集仅需训练一次便可多次应用。

Claims (4)

1.一种基于深度学习的图像高动态范围重建方法,其特征在于,包括以下步骤:
步骤1,基于深度学习的方法建立神经网络,该神经网络包括一个从低动态范围图像到高动态范围图像的生成网络与一个判别高动态网络图像是否真实的判别网络;
步骤2,对HDR数据集进行预处理以构成训练数据,数据预处理分为LDR数据的生成、HDR图像亮度单位的对齐和图像高光区域掩码的生成三个部分,预处理后得到的LDR数据作为生成网络的训练输入数据,输出为一张HDR图像和一张高光掩码图像,数据预处理后的对齐的HDR数据和高光掩码图像作为训练的样本标签数据,判别网络接受一张HDR图像与高光掩码图像作为输入,输出一张表征所输入的HDR图像为真实HDR图像或者是网络生成的虚假HDR图像的概率的特征图;
步骤3,基于三个损失函数训练神经网络,采用有监督学习的方式对神经网络进行训练,训练采用Adam优化器分别逐次对生成网络和判别网络进行反向传播优化,三个损失函数分别为HDR重建图像的尺度不变损失函数、高光区域分类的交叉熵损失函数和生成对抗损失函数,损失函数定义如下:
LG=α1Lhdr2Lmask3Lgan
HDR重建图像的尺度不变损失函数,其定义如下:
Figure FDA0004105937280000011
其中y表示网络输出的HDR图像,
Figure FDA0004105937280000012
为对齐后的HDR图像,
Figure FDA0004105937280000013
表示在对数域中网络输出与样本标签的差值,∈为一个防止对数计算为零的微小值,下标l,c分别表示像素位置和颜色通道;
高光区域分类的交叉熵损失函数,其定义如下:
Figure FDA0004105937280000014
其中
Figure FDA0004105937280000015
分别为网络预测值和标签值;
生成对抗损失函数,定义如下:
Figure FDA0004105937280000016
其中D(y)为判别网络以生成网络输出为输入的计算结果;
根据上述损失函数对网络进行训练,当损失函数收敛后,提取生成网络模型作为最终算法模型。
2.根据权利要求1所述的方法,其特征在于:所述低动态范围图像是指8位颜色深度、256色阶保存的低动态范围图像,所述高动态范围图像指以“.EXR”或“.HDR”格式保存的接近真实场景明暗变化的高动态范围图像。
3.根据权利要求1所述的方法,其特征在于:步骤1中所描述的神经网络包括生成网络和判别网络,其中生成网络为一个U-Net结构,网络接受一张LDR图像作为输入,经过由ResNet50模型构成的编码网络和6层“上采样+卷积层”模块构成解码网络后,分别输出一张HDR图像和高光掩码图像;所述判别网络为一个由4层卷积层构成的全卷积网络,该判别网络接受一张HDR图像与高光掩码图像作为输入,输出一张表征所输入的HDR图像为真实HDR图像或者是网络生成的虚假HDR图像的概率的特征图。
4.根据权利要求1所述的方法,其特征在于:步骤2中所描述的数据预处理,其具体过程包括:
步骤2.1,LDR数据的生成,生成LDR训练样本输入,对于每一张HDR图像,分别使用色调映射算法和虚拟相机拍摄获取LDR图像,选择一种适当的色调映射算法,直接将HDR图像作为算法输入得到对应的LDR图像输出;同时,通过构建虚拟相机来获取LDR图像,首先基于常用的数码单反相机确定虚拟相机动态范围的取值范围,对于每一次获取LDR图像都随机选取范围内的一个值作为该次模拟拍摄的相机的动态范围,然后虚拟相机根据输入的HDR图像进行自动曝光,对亮度超出虚拟相机动态范围的像素取边界值,再将其线性映射至LDR图像的低动态范围,最后,将所得到的图像从线性空间通过随机选择的近似相机响应函数映射为普通数字图像,得到所需要的LDR图像;
步骤2.2,HDR图像亮度单位的对齐,对于保存在相对亮度域的HDR图像,在将其作为训练样本标签前,对齐它们的亮度单位;设原始HDR图像为H,LDR图像转换到线性空间并归一化到[0,1],设为L,Hl,c,Ll,c分别为图像在位置l,通道c处的像素值,其对齐方法为:
Figure FDA0004105937280000021
其中
Figure FDA0004105937280000022
为对齐后的HDR图像,ml,c定义为
Figure FDA0004105937280000023
其中τ为[0,1]的常数,对齐后的HDR图像与其对应的LDR图像组成供神经网络训练的训练样本对;
步骤2.3,图像高光区域掩码的生成,得到对齐的HDR图像亮度单位后,通过二值化的方式获取图像中高亮度区域的掩码图像,其公式为:
Figure FDA0004105937280000031
其中
Figure FDA0004105937280000032
为对齐后的HDR图像的通道均值图像,t为常数,该掩码图像中值为1的区域代表场景中拥有较高亮度的物体或表面,包括光源、强光反射面。
CN202010072803.3A 2020-01-21 2020-01-21 一种基于深度学习的图像高动态范围重建方法 Active CN111292264B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010072803.3A CN111292264B (zh) 2020-01-21 2020-01-21 一种基于深度学习的图像高动态范围重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010072803.3A CN111292264B (zh) 2020-01-21 2020-01-21 一种基于深度学习的图像高动态范围重建方法

Publications (2)

Publication Number Publication Date
CN111292264A CN111292264A (zh) 2020-06-16
CN111292264B true CN111292264B (zh) 2023-04-21

Family

ID=71023475

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010072803.3A Active CN111292264B (zh) 2020-01-21 2020-01-21 一种基于深度学习的图像高动态范围重建方法

Country Status (1)

Country Link
CN (1) CN111292264B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784598B (zh) * 2020-06-18 2023-06-02 Oppo(重庆)智能科技有限公司 色调映射模型的训练方法、色调映射方法及电子设备
CN111986106B (zh) * 2020-07-30 2023-10-13 南京大学 一种基于神经网络的高动态图像重建方法
CN112435306A (zh) * 2020-11-20 2021-03-02 上海北昂医药科技股份有限公司 G显带染色体hdr图像重建方法
CN112738392A (zh) * 2020-12-24 2021-04-30 上海哔哩哔哩科技有限公司 图像转换方法及***
US20240054622A1 (en) * 2021-04-27 2024-02-15 Boe Technology Group Co., Ltd. Image processing method and image processing apparatus
CN113344773B (zh) * 2021-06-02 2022-05-06 电子科技大学 基于多级对偶反馈的单张图片重构hdr方法
CN113379698B (zh) * 2021-06-08 2022-07-05 武汉大学 一种分步联合监督的光照估计方法
WO2022266955A1 (zh) * 2021-06-24 2022-12-29 Oppo广东移动通信有限公司 图像解码及处理方法、装置及设备
CN113784175B (zh) * 2021-08-02 2023-02-28 中国科学院深圳先进技术研究院 一种hdr视频转换方法、装置、设备及计算机存储介质
CN113674231B (zh) * 2021-08-11 2022-06-07 宿迁林讯新材料有限公司 基于图像增强的轧制过程中氧化铁皮检测方法与***
CN116157825A (zh) * 2021-09-17 2023-05-23 京东方科技集团股份有限公司 图像处理模型训练方法、高动态范围图像生成方法
CN114820373B (zh) * 2022-04-28 2023-04-25 电子科技大学 基于知识启发的单张图像重构hdr方法
CN114998138B (zh) * 2022-06-01 2024-05-28 北京理工大学 一种基于注意力机制的高动态范围图像去伪影方法
CN115297254B (zh) * 2022-07-04 2024-03-29 北京航空航天大学 一种便携式高辐射条件下高动态成像融合***
CN115641333B (zh) * 2022-12-07 2023-03-21 武汉大学 一种基于球谐高斯的室内光照估计方法及***
CN117456313B (zh) * 2023-12-22 2024-03-22 中国科学院宁波材料技术与工程研究所 色调曲线估计网络的训练方法、估计、映射方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103413285A (zh) * 2013-08-02 2013-11-27 北京工业大学 基于样本预测的hdr和hr图像重建方法
CN103413286A (zh) * 2013-08-02 2013-11-27 北京工业大学 一种基于学习的高动态范围与高分辨率图像联合重建方法
CN104969259A (zh) * 2012-11-16 2015-10-07 汤姆逊许可公司 处理高动态范围图像
WO2019001701A1 (en) * 2017-06-28 2019-01-03 Huawei Technologies Co., Ltd. APPARATUS AND METHOD FOR IMAGE PROCESSING

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011093994A1 (en) * 2010-01-27 2011-08-04 Thomson Licensing High dynamic range (hdr) image synthesis with user input
US20160286226A1 (en) * 2015-03-24 2016-09-29 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
US10048413B2 (en) * 2016-06-07 2018-08-14 Goodrich Corporation Imaging systems and methods

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104969259A (zh) * 2012-11-16 2015-10-07 汤姆逊许可公司 处理高动态范围图像
CN103413285A (zh) * 2013-08-02 2013-11-27 北京工业大学 基于样本预测的hdr和hr图像重建方法
CN103413286A (zh) * 2013-08-02 2013-11-27 北京工业大学 一种基于学习的高动态范围与高分辨率图像联合重建方法
WO2019001701A1 (en) * 2017-06-28 2019-01-03 Huawei Technologies Co., Ltd. APPARATUS AND METHOD FOR IMAGE PROCESSING

Also Published As

Publication number Publication date
CN111292264A (zh) 2020-06-16

Similar Documents

Publication Publication Date Title
CN111292264B (zh) 一种基于深度学习的图像高动态范围重建方法
Golts et al. Unsupervised single image dehazing using dark channel prior loss
KR102134405B1 (ko) 적대적 생성망을 이용한 저조도 영상 개선을 위한 장치 및 방법
CN110889813A (zh) 基于红外信息的低光图像增强方法
CN109255758A (zh) 基于全1*1卷积神经网络的图像增强方法
CN111179196B (zh) 一种基于分而治之的多分辨率深度网络图像去高光方法
CN111652864A (zh) 一种基于条件式生成对抗网络的铸件缺陷图像生成方法
CN112884758B (zh) 一种基于风格迁移方法的缺陷绝缘子样本生成方法及***
CN113284061B (zh) 一种基于梯度网络的水下图像增强方法
CN116033279B (zh) 一种夜晚监控相机的近红外图像彩色化方法、***及设备
CN114627269A (zh) 一种基于深度学***台
CN116993975A (zh) 基于深度学习无监督领域适应的全景相机语义分割方法
CN111768326A (zh) 一种基于gan扩增图像前景物体的高容量数据保护方法
Hovhannisyan et al. AED-Net: A single image dehazing
CN116580184A (zh) 一种基于YOLOv7的轻量化模型
CN114862707A (zh) 一种多尺度特征恢复图像增强方法、装置及存储介质
Dwivedi et al. Single image dehazing using extended local dark channel prior
Yin et al. Adams-based hierarchical features fusion network for image dehazing
CN116258756B (zh) 一种自监督单目深度估计方法及***
CN111275642B (zh) 一种基于显著性前景内容的低光照图像增强方法
CN113066074A (zh) 一种基于双目视差偏移融合的视觉显著性预测方法
CN107369138A (zh) 基于高阶统计模型的图像最优化显示方法
Goncalves et al. Guidednet: Single image dehazing using an end-to-end convolutional neural network
Kumar et al. Underwater image enhancement using deep learning
CN114331894A (zh) 一种基于潜在特征重构和掩模感知的人脸图像修复方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant