CN113610863A - 多曝光图像融合质量评估方法 - Google Patents

多曝光图像融合质量评估方法 Download PDF

Info

Publication number
CN113610863A
CN113610863A CN202110833348.9A CN202110833348A CN113610863A CN 113610863 A CN113610863 A CN 113610863A CN 202110833348 A CN202110833348 A CN 202110833348A CN 113610863 A CN113610863 A CN 113610863A
Authority
CN
China
Prior art keywords
image
exposure
fusion
exposure image
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110833348.9A
Other languages
English (en)
Other versions
CN113610863B (zh
Inventor
贾惠珍
龚俐
王同罕
何月顺
李祥
何剑锋
徐洪珍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Taifuxing Information Technology Co.,Ltd.
Original Assignee
East China Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Institute of Technology filed Critical East China Institute of Technology
Priority to CN202110833348.9A priority Critical patent/CN113610863B/zh
Publication of CN113610863A publication Critical patent/CN113610863A/zh
Application granted granted Critical
Publication of CN113610863B publication Critical patent/CN113610863B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像处理技术领域,公开了一种多曝光图像融合质量评估方法,该方法将融合图像与多曝光图像序列的相位一致性特征图、梯度幅度特征图、色彩饱和度特征图进行加权融合,再通过互信息量加权得到局部质量分数,其次,通过计算融合图像与多曝光图像序列的梯度不一致性,生成二进制图像,分割动态和静态区域,并计算动态和静态区域的区域质量分数,两个区域质量分数求平均得到最终质量得分。本发明从人类视觉***特性出发,利用二值化处理,采用静态和动态结合的方式,解决了多曝光图像融合质量评估时难以兼顾的准确性和高效性,利用梯度幅度特征和饱和度特征,解决在色彩失真图像上表现不佳的问题。

Description

多曝光图像融合质量评估方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种多曝光图像融合质量评估方法。
背景技术
随着高技术发展过程中人们对图片的视觉追求越来越高,多曝光图像融合的技术水平也日渐成熟,由此评定多曝光融合后图像的质量成为了重点。
《激光杂志》2019年第40卷第一期中公开了一种多曝光融合图像质量评价方法,作者王丹等。这种评价方法采用了一种基于非下采样剪切波变换的多曝光融合图像质量评价方法。其分别得出图像纹理特征、亮度特征、颜色特征及梯度幅值的结构相似度特征,之后采用随机森林模型对这些特征进行训练,得到质量预测模型。
相位一致性特征图可以表征融合图像局部结构重要性。申请号为CN201610886339.5的专利文献公开了一种基于相位一致性的全参考彩色屏幕图像质量评估方法。该方法通过将参考屏幕图像和失真屏幕图像从RGB色彩空间转换为CIELAB对色空间,之后提取参考屏幕图像亮度和失真屏幕图像亮度的相位一致特征图,通过计算得到参考屏幕图像与失真屏幕图像相位一致相似性及色度分量相似性,结合相似性求得评估值。
以上两种技术中,虽考虑了结构对比度特性,考虑了图像失真,但进行图像评价时,算法运算时间过长,缺乏对图像色彩完全失真的分析,以及忽视了对动态场景的质量预测,使多曝光图像质量评价不够准确和高效。
发明内容
为了解决上述现有技术存在的缺陷,本发明提出了一种多曝光图像融合质量评估方法,该方法主要通过模仿人类视觉***,使用相位一致性特征及梯度幅度特征、色彩饱和度特征为特征质量图,根据二值化阈值分割,将图像分为静态和动态区域,分区域进行局部质量图融合,得到质量分数,该质量分数能够提高图片色彩失真表现及评估的准确性和高效性。
本发明的技术方案是这样实现的:一种多曝光图像融合质量评估方法,包括以下步骤:
步骤S1:输入融合图像以及多曝光图像序列;
步骤S2:通过计算得到融合图像与多曝光图像序列的相位一致特征图;
步骤S3:通过计算得到融合图像与多曝光图像序列的梯度幅度特征图;
步骤S4:通过计算得到融合图像与多曝光图像序列的饱和度相似图;
步骤S5:通过计算得到融合图像与多曝光图像序列的互信息量;
步骤S6:通过计算得到融合图像与多曝光图像序列的局部质量图,将局部质量图通过互信息量加权得到局部质量分数;
步骤S7:通过计算得到融合图像与多曝光图像序列的梯度不一致性,量化梯度不一致性得到梯度差异;
步骤S8:将融合图像与多曝光图像序列进行二值化处理,生成二进制图像,再将图片分割为动态和静态区域;
步骤S9:通过计算分别得到动态区域和静态区域的区域质量分数,将动态区域和静态区域的区域质量分数求平均得到最终质量得分。
进一步地,所述相位一致性特征图的表达式为
Figure BDA0003176321500000021
Figure BDA0003176321500000022
Figure BDA0003176321500000023
Figure BDA0003176321500000024
其中,xk为多曝光图像序列,k为正整数,y为融合图像,c1为小的正常数,PC(x)为多曝光序列的二维相位一致性的表达式,ε为小的正常数,
Figure BDA0003176321500000025
为沿方向θj的局部能量的表达式,
Figure BDA0003176321500000026
Figure BDA0003176321500000027
分别为奇数偶数上沿方向θj在尺度n上的响应矢量的和,
Figure BDA0003176321500000028
为方向θj和尺度n上的响应向量幅值的表达式,
Figure BDA0003176321500000029
为利用对称滤波器log-Gabor滤波器在位置x处形成的响应矢量,G2(ω,θj)为多曝光图像通过对称滤波器log-Gabor滤波器得到的图像的表达式,θj=jπ/J,j={0,1,…,J-1},J是方向数,ω0是滤波器的中心频率,σr是控制滤波器的频率宽带,σθ确定滤波器的角度宽带,
Figure BDA00031763215000000210
卷积操作,X为融合图像以及多曝光图像序列的集合。
进一步地,所述梯度幅度特征图的表达式为
Figure BDA00031763215000000211
Figure BDA00031763215000000212
其中,xk为多曝光图像序列,k为正整数,y为融合图像,GM(x)是使用Scharr算子进行水平和垂直方向的偏导数计算得到的在x位置的变化率,即梯度,Scharr算子在水平方向为
Figure BDA0003176321500000031
在垂直方向为
Figure BDA0003176321500000032
Figure BDA0003176321500000033
为卷积操作,X为融合图像以及多曝光图像序列的集合,c2为小的正常数。
进一步地,所述饱和度相似图的表达式为
Figure BDA0003176321500000034
Figure BDA0003176321500000035
SSmax=max(SS1(x),SS2(x),...,SSk(x)),其中,xk为多曝光图像序列,k为正整数,y为融合图像,N是xi的像素总和,c3是一个常数,SS为通过计算R、G、B通道的标准差得到的图像的饱和度,μ是R、G、B通道的平均值,{SSk}(k=1,2,...,k)为多曝光图像序列xk的色彩饱和度,SSy为融合图像y的色彩饱和度,SSmax为最大饱和度。
进一步地,所述互信息量的表达式为
Figure BDA0003176321500000036
其中,xk为多曝光图像序列,k为正整数,y为融合图像,p(xk,y)是xk和y的联合概率分布函数,p(xk)和p(y)分别是xk和y的边缘概率分布函数。
进一步地,所述局部质量图的表达式为Q({xk},y)=[Spc({xk},y)][SGM({xk},y)]β[SSS({xk},y)]γ,所述局部质量分数的表达式为:
Figure BDA0003176321500000037
其中,xk为多曝光图像序列,k为正整数,y为融合图像,设置∝=β=γ=1,确保表达式有效。
进一步地,所述梯度不一致性的表达式为
Figure BDA0003176321500000038
所述梯度差异的表达式为
Figure BDA0003176321500000039
其中,xk为多曝光图像序列,k为正整数,y为融合图像,σy′
Figure BDA00031763215000000310
分别为y′和xk′的标准差,
Figure BDA00031763215000000311
是y′和xk′的协方差,c4是一个小的常数,xk′和y′分别为多曝光图像序列xk和融合图像y经过各向同性(Isotropic)的Sobel算子在水平方向和垂直方向进行偏导数计算得到的梯度图像,Isotropic Sobel算子在水平方向为
Figure BDA00031763215000000312
在垂直方向为
Figure BDA00031763215000000313
σSD 2是GD({xk},y)的方差,c5是人眼视觉通道中噪声功率的常数参数。
进一步地,所述二值化处理为对图像内像素值进行计算,其表达式为
Figure BDA00031763215000000314
其中,B为像素值,Th=0.01为设定的阈值,
Figure BDA0003176321500000041
表示得到的差异性量化值的总和,像素值B=1代表大变化区域即动态区域,像素值B=0代表小变化区域即静态区域。
进一步地,所述动态区域质量分数的表达式为qm=average(Q⊙B),所述静态区域质量分数的表达式为
Figure BDA0003176321500000042
所述最终质量得分的表达式为
Figure BDA0003176321500000043
其中,B为像素值,average()为平均运算,⊙为逐元素相乘,
Figure BDA0003176321500000044
为“非”操作。
本发明的有益效果在于:本发明从人类视觉***特性出发,对融合图像和多曝光图像序列进行二值化处理,再采用静态和动态结合的方式,解决了多曝光图像融合质量评估时难以兼顾的准确性和高效性,梯度幅度特征图用于弥补PC对对比度失真反应不足,饱和度特征图用于评价图像的色彩失真,梯度幅度特征图和饱和度特征图解决了在色彩失真图像上表现不佳的间题,以对现存的多曝光图像融合算法进行更为准确的评价,为后续嵌入多曝光图像融合算法,引导算法输出质量级别更高更符合人眼视觉感知的图像做出贡献。
附图说明
图1为本发明多曝光图像融合质量评估方法的流程图。
图2为图1的阈值分割动静态区域流程图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明并不限于下面公开的具体实施例的限制。
如图1~2所示,一种多曝光图像融合质量评估方法,包括以下步骤:
步骤S1:在matlab R2016a程序中输入融合图像以及多曝光图像序列,该程序根据数据库内容(静态与动态场景数据库)创建MEFdatabase.m读库测试文件。
步骤S2:通过计算得到融合图像与多曝光图像序列的相位一致特征图
Figure BDA0003176321500000045
Figure BDA0003176321500000046
首先,利用偶数对称奇数对称的对称滤波器log-Gabor滤波器将多曝光图像序列进行分解得到图像G2(ω,θj),其次,图像G2(ω,θj)与融合图像以及多曝光图像序列的集合X进行卷积操作得到正交对在尺度n和方向θj上的位置x处的响应矢量
Figure BDA0003176321500000051
及方向θj和尺度n上的响应向量幅值
Figure BDA0003176321500000052
和沿方向θj上的局部能量
Figure BDA0003176321500000053
进而得到多曝光序列的二维相位一致性PC(x),再通过PC(x)得到相位一致特征图Spc({xk},y),为了增加稳定性,ε和c1为小的正常数。
步骤S3:通过计算得到融合图像与多曝光图像序列的梯度幅度特征图SGM({xk},y),可以弥补PC对比度失真反应不足的问题,首先,使用Scharr算子与融合图像以及多曝光图像序列的集合X进行卷积操作,该算子是二维连续偏导模板,相比其他算子可以更好的得到图像幅度梯度,再得到图像每一个点的梯度GM(x),进而得到梯度幅度特征图SGM({xk},y)。
步骤S4:通过计算得到融合图像与多曝光图像序列的饱和度相似图SSS({xk},y),饱和度可以评价图像的色彩失真情况,考虑图像完全失真的情况,首先通过计算图像中R、G、B通道的标准差得到饱和度SS,为了能够较好的提取源图像的色彩信息,选择最大饱和度图SSmax,进而求得饱和度相似图SSS({xk},y),{SSk}(k=1,2,...,k)为多曝光图像序列xk的色彩饱和度,SSy为融合图像y的色彩饱和度。
步骤S5:通过计算得到融合图像与多曝光图像序列的互信息量
Figure BDA0003176321500000054
互信息量可以表示多曝光图像获取信息的丰富度,获取信息越多,则这个位置的重要性越高,所以通过融合图像和多曝光图像的联合概率分布函数和边缘概率分布函数来求得互信息量
Figure BDA0003176321500000055
考虑位置重要性。
步骤S6:通过计算得到融合图像与多曝光图像序列的局部质量图Q({xk},y),将局部质量图通过互信息量加权得到局部质量分数Q,结合获得的相位一致特征图、梯度幅度特征图、色彩饱和度特征图得到局部质量图Q({xk},y),通过互信息量加权得到局部质量分数Q。
步骤S7:通过计算得到融合图像与多曝光图像序列的梯度不一致性GD({xk},y),通过香农公式量化梯度不一致性得到梯度差异CD({xk},y),可以很好的将图像进行分割,利用各向同性(Isotropic)的Sobel算子得到包含融合图像和第k次曝光图像之间的梯度结构差异质量图GD({xk},y),用香农公式将差异结构量化CD({xk},y)。
步骤S8:将融合图像与多曝光图像序列进行二值化处理,预先设定阈值Th=0.01,二值化处理B,生成二进制图像,再将图片分割为动态和静态区域,通过预先设置的阈值Th与得到的差异性量化值的总和GCD比较,进行二值化处理分割区域,B=0为黑色像素代表大变化区域即动态区域,B=1为白色像素代表小变化区域即静态区域。
步骤S9:通过计算分别得到动态区域和静态区域的区域质量分数qm和qn,将动态区域和静态区域的区域质量分数求平均得到最终质量得分q,将动态区域和静态区域的局部平均质量分数合并,获得最终质量得分q,这个动态场景MEF准确率较高的最终质量分数q,是通过选取可以高度提取图像信息的相位一致性特征,利用Scharr算子进行图像梯度幅度特征提取,并且考虑色彩失真在图像感知质量得权重,进行色彩饱和度特征的提取,同时,利用Isotropic Sobel算子获得的局部梯度特征质量图进行动静态区域的分区处理获得的,这样计算是为了得到更准确的得到图像质量评分,为今后高动态范围成像技术等应用领域提供更好支撑。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.多曝光图像融合质量评估方法,其特征在于,包括以下步骤:
步骤S1:输入融合图像以及多曝光图像序列;
步骤S2:通过计算得到融合图像与多曝光图像序列的相位一致特征图;
步骤S3:通过计算得到融合图像与多曝光图像序列的梯度幅度特征图;
步骤S4:通过计算得到融合图像与多曝光图像序列的饱和度相似图;
步骤S5:通过计算得到融合图像与多曝光图像序列的互信息量;
步骤S6:通过计算得到融合图像与多曝光图像序列的局部质量图,将局部质量图通过互信息量加权得到局部质量分数;
步骤S7:通过计算得到融合图像与多曝光图像序列的梯度不一致性,量化梯度不一致性得到梯度差异;
步骤S8:将融合图像与多曝光图像序列进行二值化处理,生成二进制图像,再将图片分割为动态和静态区域;
步骤S9:通过计算分别得到动态区域和静态区域的区域质量分数,将动态区域和静态区域的区域质量分数求平均得到最终质量得分。
2.根据权利要求1所述的多曝光图像融合质量评估方法,其特征在于,所述相位一致性特征图的表达式为
Figure FDA0003176321490000011
Figure FDA0003176321490000012
Figure FDA0003176321490000013
Figure FDA0003176321490000014
其中,xk为多曝光图像序列,k为正整数,y为融合图像,c1为小的正常数,PC(x)为多曝光序列的二维相位一致性的表达式,ε为小的正常数,
Figure FDA0003176321490000015
为沿方向θj的局部能量的表达式,
Figure FDA0003176321490000016
Figure FDA0003176321490000017
分别为奇数偶数上沿方向θj在尺度n上的响应矢量的和,
Figure FDA0003176321490000018
为方向θj和尺度n上的响应向量幅值的表达式,
Figure FDA0003176321490000019
为利用对称滤波器log-Gabor滤波器在位置x处形成的响应矢量,G2(ω,θj)为多曝光图像通过对称滤波器log-Gabor滤波器得到的图像的表达式,θj=jπ/J,j={0,1,…,J-1},J是方向数,ω0是滤波器的中心频率,σr是控制滤波器的频率宽带,σθ确定滤波器的角度宽带,
Figure FDA00031763214900000110
卷积操作,X为融合图像以及多曝光图像序列的集合。
3.根据权利要求1所述的多曝光图像融合质量评估方法,其特征在于,所述梯度幅度特征图的表达式为
Figure FDA0003176321490000021
Figure FDA0003176321490000022
其中,xk为多曝光图像序列,k为正整数,y为融合图像,GM(x)是使用Scharr算子进行水平和垂直方向的偏导数计算得到的在x位置的变化率,即梯度,Scharr算子在水平方向为
Figure FDA0003176321490000023
在垂直方向为
Figure FDA0003176321490000024
Figure FDA0003176321490000025
为卷积操作,X为融合图像以及多曝光图像序列的集合,c2为小的正常数。
4.根据权利要求1所述的多曝光图像融合质量评估方法,其特征在于,所述饱和度相似图的表达式为
Figure FDA0003176321490000026
SSmax=max(SS1(x),SS2(x),...,SSk(x)),其中,xk为多曝光图像序列,k为正整数,y为融合图像,N是xi的像素总和,c3是一个常数,SS为通过计算R、G、B通道的标准差得到的图像的饱和度,μ是R、G、B通道的平均值,{SSk}(k=1,2,...,k)为多曝光图像序列xk的色彩饱和度,SSy为融合图像y的色彩饱和度,SSmax为最大饱和度。
5.根据权利要求1所述的多曝光图像融合质量评估方法,其特征在于,所述互信息量的表达式为
Figure FDA0003176321490000027
其中,xk为多曝光图像序列,k为正整数,y为融合图像,p(xk,y)是xk和y的联合概率分布函数,p(xk)和p(y)分别是xk和y的边缘概率分布函数。
6.根据权利要求1所述的多曝光图像融合质量评估方法,其特征在于,所述局部质量图的表达式为Q({xk},y)=[Spc({xk},y)][SGM({xk},y)]β[SSS({xk},y)]γ,所述局部质量分数的表达式为:
Figure FDA0003176321490000028
其中,xk为多曝光图像序列,k为正整数,y为融合图像,设置∝=β=γ=1,确保表达式有效。
7.根据权利要求1所述的多曝光图像融合质量评估方法,其特征在于,所述梯度不一致性的表达式为
Figure FDA0003176321490000029
所述梯度差异的表达式为
Figure FDA00031763214900000210
Figure FDA0003176321490000031
其中,xk为多曝光图像序列,k为正整数,y为融合图像,σy′,σxk′分别为y′和xk′的标准差,σy′σxk′是y′和xk′的协方差,c4是一个小的常数,xk′和y′分别为多曝光图像序列xk和融合图像y经过各向同性(Isotropic)的Sobel算子在水平方向和垂直方向进行偏导数计算得到的梯度图像,Isotropic sobel算子在水平方向为
Figure FDA0003176321490000032
在垂直方向为
Figure FDA0003176321490000033
σSD 2是GD({xk},y)的方差,c5是人眼视觉通道中噪声功率的常数参数。
8.根据权利要求1所述的多曝光图像融合质量评估方法,其特征在于,所述二值化处理为对图像内像素值进行计算,其表达式为
Figure FDA0003176321490000034
其中,B为像素值,Th=0.01为设定的阈值,
Figure FDA0003176321490000035
表示得到的差异性量化值的总和,像素值B=1代表大变化区域即动态区域,像素值B=0代表小变化区域即静态区域。
9.根据权利要求1所述的多曝光图像融合质量评估方法,其特征在于,所述动态区域质量分数的表达式为qm=average(Q⊙B),所述静态区域质量分数的表达式为
Figure FDA0003176321490000036
Figure FDA0003176321490000037
所述最终质量得分的表达式为
Figure FDA0003176321490000038
其中,B为像素值,average()为平均运算,⊙为逐元素相乘,
Figure FDA0003176321490000039
为“非”操作。
CN202110833348.9A 2021-07-22 2021-07-22 多曝光图像融合质量评估方法 Active CN113610863B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110833348.9A CN113610863B (zh) 2021-07-22 2021-07-22 多曝光图像融合质量评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110833348.9A CN113610863B (zh) 2021-07-22 2021-07-22 多曝光图像融合质量评估方法

Publications (2)

Publication Number Publication Date
CN113610863A true CN113610863A (zh) 2021-11-05
CN113610863B CN113610863B (zh) 2023-08-04

Family

ID=78338167

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110833348.9A Active CN113610863B (zh) 2021-07-22 2021-07-22 多曝光图像融合质量评估方法

Country Status (1)

Country Link
CN (1) CN113610863B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114463318A (zh) * 2022-02-14 2022-05-10 宁波大学科学技术学院 一种多曝光融合图像的视觉质量评估方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010068820A1 (en) * 2008-12-10 2010-06-17 Holorad, Llc System and method for color motion holography
CN106780463A (zh) * 2016-12-15 2017-05-31 华侨大学 一种基于对比度和饱和度的全参考多曝光融合图像质量评估方法
CN106886992A (zh) * 2017-01-24 2017-06-23 北京理工大学 一种基于饱和度的彩色多曝光融合图像的质量评价方法
CN107862683A (zh) * 2017-11-03 2018-03-30 安康学院 一种综合的多曝光高动态图像重建效果评价方法
CN110910365A (zh) * 2019-11-18 2020-03-24 方玉明 一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010068820A1 (en) * 2008-12-10 2010-06-17 Holorad, Llc System and method for color motion holography
CN106780463A (zh) * 2016-12-15 2017-05-31 华侨大学 一种基于对比度和饱和度的全参考多曝光融合图像质量评估方法
CN106886992A (zh) * 2017-01-24 2017-06-23 北京理工大学 一种基于饱和度的彩色多曝光融合图像的质量评价方法
CN107862683A (zh) * 2017-11-03 2018-03-30 安康学院 一种综合的多曝光高动态图像重建效果评价方法
CN110910365A (zh) * 2019-11-18 2020-03-24 方玉明 一种同时对于动态场景和静态场景的多曝光融合图像的质量评价方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王丹等: "一种多曝光融合图像质量评价方法", 激光杂志, vol. 40, no. 1 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114463318A (zh) * 2022-02-14 2022-05-10 宁波大学科学技术学院 一种多曝光融合图像的视觉质量评估方法
CN114463318B (zh) * 2022-02-14 2022-10-14 宁波大学科学技术学院 一种多曝光融合图像的视觉质量评估方法

Also Published As

Publication number Publication date
CN113610863B (zh) 2023-08-04

Similar Documents

Publication Publication Date Title
CN107578404B (zh) 基于视觉显著特征提取的全参考立体图像质量客观评价方法
CN101916454B (zh) 基于网格变形和连续优化的高分辨率人脸重建方法
Fan et al. Two-layer Gaussian process regression with example selection for image dehazing
Zhang et al. Exemplar-based image inpainting using color distribution analysis
CN110827193B (zh) 基于多通道特征的全景视频显著性检测方法
US9922443B2 (en) Texturing a three-dimensional scanned model with localized patch colors
Gao et al. Detail preserved single image dehazing algorithm based on airlight refinement
CN111179189B (zh) 基于生成对抗网络gan的图像处理方法、装置以及电子设备、存储介质
CN103826032B (zh) 深度图后期处理方法
US10475229B2 (en) Information processing apparatus and information processing method
CN104751407A (zh) 一种用于对图像进行虚化的方法和装置
CN109241867A (zh) 采用人工智能算法识别数字岩心图像的方法及装置
CN106709504A (zh) 细节保持的高保真色调映射方法
CN102096913A (zh) 压缩感知框架下的多策略图像融合方法
CN113610863A (zh) 多曝光图像融合质量评估方法
Chamaret et al. No-reference harmony-guided quality assessment
Raveendran et al. Image fusion using LEP filtering and bilinear interpolation
CN117501313A (zh) 基于深度神经网络的毛发渲染***
CN107578406A (zh) 基于网格与韦泊统计特性的无参考立体图像质量评价方法
Wang et al. New insights into multi-focus image fusion: A fusion method based on multi-dictionary linear sparse representation and region fusion model
CN112002019B (zh) 一种基于mr混合现实的模拟人物阴影的方法
CN105513071A (zh) 一种地形图图式质量评价方法
Seitner et al. Trifocal system for high-quality inter-camera mapping and virtual view synthesis
Jagtap et al. Depth accuracy determination in 3-d stereoscopic image retargeting using DMA
Chen et al. Parallel pencil drawing stylization via structure-aware optimization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231205

Address after: Room 409, West Side, Building C21, Zidong International Creative Park, No. 2 Zidong Road, Maqun Street, Qixia District, Nanjing City, Jiangsu Province, 210000

Patentee after: Jiangsu Taifuxing Information Technology Co.,Ltd.

Address before: 344000 No. 56, Xuefu Road, Fuzhou, Jiangxi

Patentee before: EAST CHINA INSTITUTE OF TECHNOLOGY