CN109410161A - 一种基于yuv和多特征分离的红外偏振图像的融合方法 - Google Patents

一种基于yuv和多特征分离的红外偏振图像的融合方法 Download PDF

Info

Publication number
CN109410161A
CN109410161A CN201811180887.1A CN201811180887A CN109410161A CN 109410161 A CN109410161 A CN 109410161A CN 201811180887 A CN201811180887 A CN 201811180887A CN 109410161 A CN109410161 A CN 109410161A
Authority
CN
China
Prior art keywords
image
formula
polarization
fusion
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811180887.1A
Other languages
English (en)
Other versions
CN109410161B (zh
Inventor
宋斌
冉骏
陈蓉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Source Letter Photoelectric Polytron Technologies Inc
Original Assignee
Hunan Source Letter Photoelectric Polytron Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Source Letter Photoelectric Polytron Technologies Inc filed Critical Hunan Source Letter Photoelectric Polytron Technologies Inc
Priority to CN201811180887.1A priority Critical patent/CN109410161B/zh
Publication of CN109410161A publication Critical patent/CN109410161A/zh
Application granted granted Critical
Publication of CN109410161B publication Critical patent/CN109410161B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于YUV和多特征分离的红外偏振图像的融合方法:首先用斯托克斯矢量表示光的偏振态,并计算出偏振度图像和偏振角图像;再求解出偏振度和偏振角图像各自独有部分P'和R';再利用暗原色理论的多特征分离方法融合图像P'和R',将其融合结果和总强度图像I在YUV空间进行融合获得最终的红外偏振图像融合结果。该方法基于人眼视觉特性YUV色彩空间进行融合,有效地提高了偏振图像融合结果的可视化效果,增强图像的边缘等细节信息,提高图像对比度,融合各偏振量之间互补信息,使得融合图像场景更加丰富,有助于对伪装目标的识别。

Description

一种基于YUV和多特征分离的红外偏振图像的融合方法
技术领域
本发明总体地涉及图像处理技术领域,具体地涉及一种基于YUV和多特征分离的红外偏振图像的融合方法。
背景技术
针对传统的红外成像***主要是对景物的红外辐射强度成像,其主要与景物的温度、辐射率等有关。当目标物周围放置温度相同的噪声源时,那么现有的红外热像仪就无法对伪装目标进行识别,红外成像技术面临严重的局限性和挑战性。与传统的红外成像相比,光的偏振成像可以降低复杂场景的退化影响,并且利用光的偏振成像可以降低复杂场景的退化影响,同时可以获得场景的结构和距离信息。正是由于光偏振信息是不同于辐射的另一种表征物体的信息,相同辐射的被测物体可能有不同的偏振度,使用偏振手段可以在复杂背景下检测出有用的信号。
光的偏振态可以用斯托克斯矢量进行描述,各个偏振量在表达偏振信息方面是冗余的和互补的。偏振图像融合过程中存在只考虑单一差异特征的情况,这不能对图像中的所有不确定和随机变化的图像特征进行有效描述,导致在融合过程中损失一些有价值的信息,导致融合与识别的失败;同时融合图像视觉效果影响着人眼的分辨能力和对伪装目标的识别效果。
发明内容
本发明的目的在于克服上述现有技术的不足,提出基于一种YUV和多特征分离的红外偏振图像的融合方法,实现了偏振分量之间的融合,融合各偏振量之间互补信息,使得融合图像场景更加丰富,增强图像的边缘等细节信息,提高图像对比度,同时,基于人眼视觉特性YUV色彩空间进行融合,有效地提高了偏振图像融合结果的可视化效果。
本发明的技术方案是,一种基于YUV和多特征分离的红外偏振图像的融合方法,包括以下步骤:
S1、利用Stokes矢量表示光的偏振态,根据Stokes矢量计算偏振度图像P和偏振角图像R;
S2、根据偏振度和偏振角图像的共有部分Co求解偏振度图像的独有部分P'和偏振角图像的独有部分R';
S3、利用基于暗原色理论的多特征分离方法融合图像P'和R';
S4、利用步骤S3的融合结果和总强度图像I在YUV空间进行融合,得到最终的融合结果。
进一步的,上述步骤S1中Stokes矢量S的表示方式如式(1)所示:
式中,I1、I2、I3和I4分别代表采集到的偏振方向为0°、45°、90°和135°度的光强度图像;I代表光的总强度;Q代表水平偏振和垂直偏振之间的强度差,U代表偏振方向在45°和135°之间的强度差;V代表光的左旋和右旋圆偏振分量之间的强度差;
偏振光的偏振度图像P和偏振角图像R表示为:
更进一步的,上述步骤S2中,对图像P和R中的每个像素利用公式(4)进行操作,获得图像P和R的共有部分Co:
Co=min(p,R) (4)
利用公式(5)和(6)分别获得偏振度图像的独有部分P'和偏振角图像的独有部分R':
P'=P-Co (5)
R'=R-Co (6)
还进一步的,上述步骤S3包括以下步骤:
S3.1、基于暗原色理论对图像P'和R'进行多特征分离,获得图像P'和R'各自的暗特征、亮特征和细节特征图像;
S3.2、采用基于局部区域能量特征的匹配方法融合图像P'和R'的亮特征图像;
S3.3、采用基于局部区域加权方差特征的匹配方法融合图像P'和R'的暗特征图像;
S3.4、利用模糊逻辑和特征差异驱动融合图像P'和R'的细节特征图像;
S3.5、融合步骤S3.2、S3.3和S3.4的结果,获得图像P'和R'的融合结果。
需要特别说明的是,步骤S3.2、S3.3和S3.4是不分时序的,可以放在一个步骤中进行描述,这里进行分步骤S3.2、S3.3和S3.4进行描述仅为了后续表述更加清晰:步骤S3.2、S3.3和S3.4可以同步进行;也可以任意两个同时进行,然后进行最后一个;也可以先进行其中任意一个,然后进行同步进行剩下的两个;或者依次进行其中的一个。
还进一步的,上述步骤S3.1中,
暗原色是是He等用于估算大气散射模型中的透射率,实现对自然图像快速去雾,暗通道图的求解方法如公式(7)所示:
式中,C为图像的三个颜色通道R、G、B;N(x)为以像素点x为中心的窗口领域内的像素;LC(y)为图像的一个颜色通道图;Ldark(x)为暗通道图,反映了图像雾化程度,对于无雾图像,它的暗通道Ldark(x)值趋于0;对于有雾图像,Ldark(x)值较大;
通过公式(7)获得偏振度图像独有部分P'的暗原色图像
通过公式(7)获得偏振角图像独有部分R'的暗原色图像
采用基于暗原色理论的多特征分离,分别获得两幅图像的亮特征、暗特征和细节特征的步骤为:
S3.1.1、分别利用公式(8)和(9)获得图像P'取反之后的图像和图像R'取反之后的图像再将暗原色图像分别与图像按照绝对值取小的规则进行融合,获得图像P'的暗特征图像DP'和图像R'的暗特征图像DR',如公式(10)和(11)所示;
S3.1.2、将分别与其对应的图像DP'和DR'作差,获得图像P'的亮特征图像LP'和图像R'的亮特征图像LR',如公式(12)和(13)所示;
S3.1.3、将图像P'和图像R'分别与暗原色图像和暗原色图像作差,获得图像P'的细节图像PP'和图像R'的细节图像PR',如公式(14)和(15)所示;
还进一步的,上述步骤S3.2中,融合亮特征图像LP'和亮特征图像LR'包括以下步骤:
S3.2.1分别利用高斯加权局部能量函数求得两幅亮特征图像的高斯加权局部能量,高斯加权局部能量函数如公式(16)所示:
式中,代表以点(m,n)为中心的高斯加权局部能量;w(i,j)为高斯滤波矩阵;N为区域的大小;t=(N-1)/2;k代表P'或R';
利用公式(16)分别求得亮特征图像LP'的高斯加权局部能量和亮特征图像LR'的高斯加权局部能量
S3.2.2、求解图像LP'和图像LR'的高斯加权局部能量的匹配度;
图像LP'和图像LR'的高斯加权局部能量的匹配度为:
S3.2.3、利用高斯加权局部能量和高斯加权局部能量匹配度融合图像LP'和LR',获得亮特征图像融合结果FL
图像LP'和LR'的融合规则为:
其中,
式中,Tl为亮度特征融合相似性判断的阈值,取值为0~0.5;若是ME(m,n)<Tl,则两幅图像LP'和LR'以点(m,n)为中心的区域不相似,两幅图像LP'和LR'的融合结果选取高斯加权区域能量大者;否者,两幅图像LP'和LR'的融合结果为系数加权平均。
还进一步的,上述步骤S3.3中融合暗特征图像DP'和暗特征图像DR'包括以下步骤:
S3.3.1、分别利用局部区域加权方差能量函数求得两幅暗特征图像的高斯加权局部能量;局部区域的加权方差能量函数如公式(20)所示:
式中,代表以点(m,n)为中心的局部区域加权方差能量;w(i,j)为高斯滤波矩阵;N为区域的大小;t=(N-1)/2;代表以点(m,n)为中心的局部区域平均值;k代表P'或R';
利用公式(20)分别求得暗特征图像DP'的局部区域加权方差能量和暗特征图像DR'的局部区域加权方差能量
S3.3.2、求解两幅图像DP'和DR'的局部区域加权方差能量的匹配度;
图像DP'和图像DR'的局部区域加权方差能量的匹配度利用公式(21)求得:
S3.3.3、利用局部区域加权方差能量和局部区域加权方差能量匹配度融合图像两幅图像DP'和DR',获得暗特征图像的融合结果FD
两幅图像DP'和DR'的融合公式为:
其中,
式中,Th为暗度特征融合相似性判断的阈值,取值为0.5~1;若是ME(m,n)<Th,则两幅图像DP'和DR'以点(m,n)为中心的区域不相似,两幅图像DP'和DR'的融合结果选取局部区域加权方差能量大者;否者,两幅图像DP'和DR'的融合结果为系数加权平均。
还进一步的,上述步骤S3.4中采用基于局部梯度和局部方差的特征差异驱动方法融合偏振度和偏振角图像的细节特征,包括以下步骤:
S3.4.1、求得图像P'的细节特征图像PP'和图像R'的细节特征图像PR'的局部梯度;
求解局部梯度的公式为:
式中,代表像素点(m,n)处的局部梯度;k代表P'或R'; 分别代表利用Sobel算子的水平和垂直模板与细节特征图像卷积获得的水平和垂直边缘图像;
利用公式(24)获得细节特征图像PP'的局部梯度和细节特征图像PR'的局部梯度
S3.4.2、求得细节特征图像PP'和PR'的局部加权方差;
局部加权方差采用公式(20)一样的方法,即如公式(25)所示:
式中,代表以点(m,n)为中心的局部区域加权方差能量;w(i,j)为高斯滤波矩阵;N为区域的大小;t=(N-1)/2;代表以点(m,n)为中心的局部区域平均值;k代表P'或R';
利用公式(25)获得细节特征图像PP'的局部加权方差和细节特征图像PR'的局部梯度
S3.4.3、求得两幅细节特征图像的局部梯度匹配度、局部加权方差匹配度、局部差异梯度和局部差异方差:
局部梯度匹配度:
局部加权方差匹配度:
局部差异梯度:
局部差异方差:
S3.4.4、根据局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)获得基于像素的决策图PDG(m,n),并且根据局部梯度匹配度MT(m,n)和局部加权方差匹配度MV1(m,n)获得特征差异程度决策图DDG,包括以下步骤:
(1)根据局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)获得基于像素的决策图PDG(m,n):当ΔT(m,n)>0,ΔV(m,n)>0时,令PDG(m,n)=p1;当ΔT(m,n)<0,ΔV(m,n)<0时,PDG(m,n)=p2;当ΔT(m,n)>0,ΔV(m,n)<0时,PDG(m,n)=p3;当ΔT(m,n)<0,ΔV(m,n)>0时,令PDG(m,n)=p4;当ΔT(m,n)=0,ΔV(m,n)>0时,令PDG(m,n)=p5;当ΔT(m,n)=0,ΔV(m,n)<0时,令PDG=p6;当ΔT(m,n)>0,ΔV(m,n)=0时,令PDG(m,n)=p7;当ΔT(m,n)<0,ΔV(m,n)=0时,令PDG(m,n)=p8;当ΔT(m,n)=0,ΔV(m,n)=0时,令PDG(m,n)=p9;其中p1~p9表示满足上述条件时像素位置为1,其他像素位置为0的决策图;
(2)根据局部梯度匹配度MT(m,n)和局部加权方差匹配度MV(m,n)可获得特征差异程度决策图DDG,如公式(30)所示:
式中,d1和d2表示满足公式(30)的对应的像素位置为1,其他像素位置为0。
S3.4.5、根据基于像素的决策图PDG(m,n)和特征差异程度决策图DDG判定确定区域和不确定区域;
由PDG可以判定满足步骤S3.4.4的(1)相对应条件的p1、p2、p5、p6、p7和p8为确定区域:因为对于p1和p2这两种情况而言,两个差异特征都能反映出相对应像素点的灰度值是否保留在融合图像中;对于p5、p6、p7和p8这四种情况而言,利用其中一个差异特征就能反映出对应像素点的灰度值是否保留在融合图像中;
由PDG和DDG可以判定p3和p4为确定区域:因为利用特征差异程度决策图DDG可以确定两图像局部特征的差异程度大小,然后选取差异程度较大的差异特征,这个差异特征能够反映出对应像素点的灰度值是否保留在融合图像中;
然而对于区域p9就不能根据两个决策图PDG和DDG判断法,此区域属于不确定性区域;
S3.4.6、利用特征差异驱动融合两幅细节特征图像的确定区域;
以局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)的乘积作为确定区域融合驱动因素,记为DIF(m,n),如下面公式所示:
DIF(m,n)=ΔT(m,n)·ΔV(m,n) (31)
则利用DIF(m,n)驱动融合确定区域,得到的确定区域融合后的图像为为:
式中,“·*”代表矩阵中对应像素位置处值的乘积;
S3.4.7、利用模糊逻辑理论融合两幅细节特征图像的不确定区域;
假设“细节特征图像PP'和PR'的局部梯度是大的”的隶属函数分别为μT(Pp'(m,n))和μT(PR'(m,n)),“细节特征图像PP'和PR'的局部加权方差是大的”的隶属函数分别为μV(PP'(m,n))和μV(PR'(m,n)),如公式(33)和(34)所示:
式中,k代表P'或R'。
利用模糊逻辑的交运算规则可分别计算两幅细节特征图像PP'和PR'在位置(m,n)的处的像素值对不确定区域融合图像重要程度的隶属函数,分别记为μT∩V(PP'(m,n))和μT∩V(PR'(m,n)),如公式(35)所示:
μT∩V(Pk(m,n))=min[μT(Pk(m,n)),μV(Pk(m,n))] (35)
式中,k代表P'或R';
则,两幅图像细节特征图像不确定区域的融合结果为:
式中,“·*”代表矩阵中对应像素位置处值的乘积,“·/”代表矩阵中对应像素位置处值的相除;
S3.4.8、融合得到两幅细节特征图像的融合结果为FDIF(m,n),并对FDIF(m,n)进行一致性校验;
对FDIF(m,n)进行一致性校验,使用大小3×3的窗口在图像FDIF(m,n)上移动,用窗口周围的像素来验证中心像素。
还进一步的,上述步骤S3.5中融合步骤S3.2、S3.3和S3.4的结果是融合包含亮特征的图像FL(m,n)、暗特征的图像FD(m,n)和细节特征的图像FDIF(m,n),融合公式如公式(38)所示:
F=αFL(m,n)+βFD(m,n)+γFDIF(m,n) (38)
式中,α、β和γ为融合权重系数,取值范围为[0,1];更优选地,上述α取值为1,β取值为0.3,γ取值为1,以满足较少融合图像的过饱和并提高对比度。
还进一步的,上述步骤S4中利用步骤S3的融合结果和总强度图像I在YUV空间进行融合的方法为:将总强度图像I输入YUV空间的Y通道,再将步骤S3的融合结果求反获得图像F',即F′=255-F,再将F'输入到U通道,最后将步骤S3的融合结果F输入到V通道,得到最后的融合图像。
相对于现有技术,本发明具有以下有益效果:
1、偏振图像各个偏振量之间信息是冗余和互补的,本发明方法对偏振图像的各个偏振量进行融合,有效地解决了偏振图像融合过程中各个偏振量之间的信息冗余的问题,融合各偏振量之间互补信息,使得融合图像场景更加丰富,有助于对伪装目标的识别。
2、本发明方法图像融合过程中综合了表征图像相邻像素之间的相关性与局部区域亮度差异的局部区域能量特征、反映局部区域灰度变化差异的局部区域方差特征以及反映图像像素的细节方差的局部区域梯度,表征图像相邻像素之间的相关性与局部区域亮度差异的局部区域能量特征有利于提高图像对比度,反映局部区域灰度变化差异的局部区域方差特征有利于提高图像清晰度,反映图像像素的细节方差的局部区域梯度有利于增强图像的细节信息,从而提高了图像的清晰度和对比度,增强了图像的边缘等细节信息。
3、本发明方法基于人眼视觉特性YUV色彩空间进行融合,有效地提高了偏振图像融合结果的可视化效果。
附图说明
从下面结合附图对本发明实施例的详细描述中,本发明的这些和/或其它方面和优点将变得更加清楚并更容易理解,其中:
图1是本发明实施例的基于YUV和多特征分离的红外偏振图像的融合方法流程图;
图2是本发明实施例的基于YUV和多特征分离的红外偏振图像的融合方法中利用模糊逻辑和特征差异驱动的图像P'和R'的细节特征图像融合方法流程图。
具体实施方式
为了使本领域技术人员更好地理解本发明,下面结合附图和具体实施方式对本发明作进一步详细说明。
实施例1
一种基于YUV和多特征分离的红外偏振图像的融合方法,其具体操作流程如图1所示,包括以下步骤S1-S4。
S1利用斯托克斯(Stokes)矢量表示光的偏振态,根据Stokes矢量计算偏振度图像P和偏振角图像R;
红外辐射强度成像主要与景物的温度、辐射率等有关,当目标物周围放置温度相同的噪声源时,那么现有的红外热像仪就无法对目标进行识别,红外成像技术面临严重的局限性和挑战性。与传统的红外成像相比,光的偏振成像可以降低复杂场景的退化影响,并且利用光的偏振成像可以降低复杂场景的退化影响,有利于为伪装目标的识别。
偏振作为光一种基本特征,并不能被人眼直接观察到,因此需要将偏振信息以某种形式显示出来,一边人眼所感知或方便计算机处理。利用Stokes矢量来表示光的偏振态,Stokes矢量利用四个Stokes参量来描述光的偏振态和强度,它们均是光强的时间平均值,具有强度的量纲,可以直接被探测器探测。Stokes矢量S的表示方式为:
式中,I1、I2、I3和I4分别代表采集到的偏振方向为0°、45°、90°和135°度的光强度图像;I代表光的总强度;Q代表水平偏振和垂直偏振之间的强度差,U代表偏振方向在45°和135°之间的强度差;V代表光的左旋和右旋圆偏振分量之间的强度差。
在实际偏振中往往不用相位延迟器,只靠旋转线偏振片即可得到Stokes参量。因此偏振光的偏振度图像P和偏振角图像R可以表示为:
S2根据偏振度和偏振角图像的两者共有部分Co求解出偏振度的独有部分P'和偏振角图像的独有部分R';
偏振度和偏振角图像之间存在冗余和相互互补的信息,对图像P和R的每个像素进行公式(4)操作,可获得图像P和R的共有部分Co。
Co=min(p,R) (4)
利用公式(5)和(6)可以分别获得偏振度和偏振角图像的独有部分。
P'=P-Co (5)
R'=R-Co (6)
S3利用基于暗原色理论的多特征分离方法融合图像P'和R';
S3.1基于暗原色理论对图像P'和R'进行多特征分离,获得图像P'和R'各自的暗特征、亮特征和细节特征图像,
暗原色是是He等用于估算大气散射模型中的透射率,实现对自然图像快速去雾。暗通道图的求解方法如公式(7)所示。
式中,C为图像的三个颜色通道R、G、B;N(x)为以像素点x为中心的窗口领域内的像素;LC(y)为图像的一个颜色通道图;Ldark(x)为暗通道图,反映了图像雾化程度,对于无雾图像,它的暗通道Ldark(x)值趋于0;对于有雾图像,Ldark(x)值较大。在自然图像中,受雾影响明显的区域一般是暗原色中最亮的像素点,而无雾区域在暗原色中的像素值很低。因此对于灰度图像来说,暗原色图包含了原图像中明亮区域,体现了原图像低频部分,即保留了原图像中灰度变化比较平缓的区域,使得亮暗特征差异更为突出,丢失灰度值变化比较剧烈、对比度高的局部区域信息,特别是边缘细节信息。
通过公式(7)获得偏振度图像独有部分P'的暗原色图像
通过公式(7)获得偏振角图像R'独有部分的暗原色图像
采用基于暗原色理论的多特征分离,分别获得两幅图像的亮特征、暗特征和细节特征的步骤为:
S3.1.1分别利用公式(8)和(9)获得图像P'取反之后的图像和图像R'取反之后的图像再将暗原色图像分别与图像按照绝对值取小的规则进行融合,获得图像P'的暗特征图像DP'和图像R'的暗特征图像DR',如公式(10)和(11)所示;
S3.1..2将分别与其对应的图像DP'和DR作差,获得图像P'的亮特征图像LP'和图像R'的亮特征图像LR',如公式(12)和(13)所示;
S3.1.3将图像P'和图像R'分别与暗原色图像和暗原色图像作差,获得图像P'的细节图像PP'和图像R'的细节图像PR',如公式(14)和(15)所示;
同样,需要特别说明的是,以下步骤S3.2、S3.3和S3.4是不分时序的,可以放在一个步骤中进行描述,这里进行步骤编号仅为了后续描述方便:步骤S3.2、S3.3和S3.4可以同步进行;也可以任意两个同时进行,然后进行最后一个;也可以先进行其中任意一个,然后进行同步进行剩下的两个;或者依次进行其中的一个。
S3.2采用基于局部区域能量特征的匹配方法融合图像P'和R'的亮特征图像;
亮特征信息集中了原图像中的明亮区域,体现了原图像中的低频分量,融合亮特征图像LP'和亮特征图像LR'的步骤为:
S3.2.1分别利用高斯加权局部能量函数求得两幅亮特征图像的高斯加权局部能量;
高斯加权局部能量函数如公式(16)所示:
式中,代表以点(m,n)为中心的高斯加权局部能量;w(i,j)为高斯滤波矩阵;N为区域的大小;t=(N-1)/2;k代表P'或R';则利用公式(16)可分别求得亮特征图像LP'的高斯加权局部能量和亮特征图像LR'的高斯加权局部能量
S3.2.2求解图像LP'和图像LR'的高斯加权局部能量的匹配度;
图像LP'和图像LR'的高斯加权局部能量的匹配度为:
S3.2.3利用高斯加权局部能量和高斯加权局部能量匹配度融合图像LP'和LR',获得亮特征图像融合结果FL
图像LP'和LR'的融合规则为:
其中,
式中,Tl为亮度特征融合相似性判断的阈值,取值为0~0.5;若是ME(m,n)<Tl,则两幅图像LP'和LR'以点(m,n)为中心的区域不相似,两幅图像LP'和LR'的融合结果选取高斯加权区域能量大者;否者,两幅图像LP'和LR'的融合结果为系数加权平均。
S3.3采用基于局部区域加权方差特征的匹配方法融合图像P'和R'的暗特征图像;
暗特征图像缺少源图像中的明亮区域,但是仍然可以看做源图像的近似图像,包含了图像的主要能量,并且体现了图像的基本轮廓,融合暗特征图像DP'和暗特征图像DR'的步骤为:
S3.3.1分别利用局部区域加权方差能量函数求得两幅暗特征图像的高斯加权局部能量;
局部区域的加权方差能量函数如公式(20)所示:
式中,代表以点(m,n)为中心的局部区域加权方差能量;w(i,j)为高斯滤波矩阵;N为区域的大小;t=(N-1)/2;代表以点(m,n)为中心的局部区域平均值;k代表P'或R'。
则利用公式(20)可分别求得暗特征图像DP'的局部区域加权方差能量和暗特征图像DR'的局部区域加权方差能量
S3.3.2求解两幅图像DP'和DR'的局部区域加权方差能量的匹配度;
图像DP'和图像DR'的局部区域加权方差能量的匹配度:
S3.3.3利用局部区域加权方差能量和局部区域加权方差能量匹配度融合图像两幅图像DP'和DR',获得暗特征图像的融合结果FD
两幅图像DP'和DR'的融合规则为:
其中,
式中,Th为暗度特征融合相似性判断的阈值,取值为0.5~1;若是
ME(m,n)<Th,则两幅图像DP'和DR'以点(m,n)为中心的区域不相似,两幅图像DP'和DR'的融合结果选取局部区域加权方差能量大者;否者,两幅图像DP'和DR'的融合结果为系数加权平均。
S3.4利用模糊逻辑和特征差异驱动融合图像P'和R'的细节特征图像。
局部梯度和局部方差能够很好地反映图像的细节信息,表达了图像的清晰度。为了尽可能地保留细节特征图像的细节信息,提升清晰度,采用基于局部梯度和局部方差的特征差异驱动方法融合偏振度和偏振角图像的细节特征,如图2所示,具体步骤如下:
S3.4.1求得图像P'的细节特征图像PP'和图像R'的细节特征图像PR'的局部梯度;
求解局部梯度的公式为:
式中,代表像素点(m,n)处的局部梯度;k代表P'或R'; 分别代表利用Sobel算子的水平和垂直模板与细节特征图像卷积获得的水平和垂直边缘图像。
利用公式(24)获得细节特征图像PP'的局部梯度和细节特征图像PR'的局部梯度
S3.4.2求得细节特征图像PP'和PR'的局部加权方差;
局部加权方差采用公式(20)一样的方法,即为:
式中,代表以点(m,n)为中心的局部区域加权方差能量;w(i,j)为高斯滤波矩阵;N为区域的大小;t=(N-1)/2;代表以点(m,n)为中心的局部区域平均值;k代表P'或R'。
利用公式(25)获得细节特征图像PP'的局部加权方差和细节特征图像PR'的局部梯度
S3.4.3求得两幅细节特征图像的局部差异梯度和局部差异方差,以及局部梯度特征和局部加权方差特征的匹配度;
局部梯度匹配度:
局部加权方差匹配度:
局部差异梯度:
局部差异方差:
S3.4.4根据特征差异获得基于像素的决策图和利用特征匹配度获得特征差异程度决策图;
(1)根据局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)可获得基于像素的决策图PDG(m,n):当ΔT(m,n)>0,ΔV(m,n)>0时,令PDG(m,n)=p1;当ΔT(m,n)<0,ΔV(m,n)<0时,PDG(m,n)=p2;当ΔT(m,n)>0,ΔV(m,n)<0时,PDG(m,n)=p3;当ΔT(m,n)<0,ΔV(m,n)>0时,令PDG(m,n)=p4;当ΔT(m,n)=0,ΔV(m,n)>0时,令PDG(m,n)=p5;当ΔT(m,n)=0,ΔV(m,n)<0时,令PDG=p6;当ΔT(m,n)>0,ΔV(m,n)=0时,令PDG(m,n)=p7;当ΔT(m,n)<0,ΔV(m,n)=0时,令PDG(m,n)=p8;当ΔT(m,n)=0,ΔV(m,n)=0时,令PDG(m,n)=p9。其中p1~p9表示满足上述条件时像素位置为1,其他像素位置为0的决策图;
(2)根据局部梯度匹配度MT(m,n)和局部加权方差匹配度MV(m,n)可获得特征差异程度决策图DDG,如公式(30)所示:
式中,d1和d2表示满足公式(30)的对应的像素位置为1,其他像素位置为0。
S3.4.5根据基于像素的决策图和特征差异程度决策图判定确定区域和不确定区域;
由PDG可以判定满足步骤S3.4.4的(1)相对应条件的p1、p2、p5、p6、p7和p8为确定区域。因为对于p1和p2这两种情况而言,两个差异特征都能反映出相对应像素点的灰度值是否保留在融合图像中;对于p5、p6、p7和p8这四种情况而言,利用其中一个差异特征就能反映出对应像素点的灰度值是否保留在融合图像中。
由PDG和DDG可以判定p3和p4为确定区域。因为利用特征差异程度决策图DDG可以确定两图像局部特征的差异程度大小,然后选取差异程度较大的差异特征,这个差异特征能够反映出对应像素点的灰度值是否保留在融合图像中。
然而对于区域p9就不能根据两个决策图PDG和DDG判断法,此区域属于不确定性区域。
S3.4.6利用特征差异驱动融合两幅细节特征图像的确定区域;
以局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)的乘积作为确定区域融合驱动因素,记为DIF(m,n),如下面公式所示:
DIF(m,n)=ΔT(m,n)·ΔV(m,n) (31)
则利用DIF(m,n)驱动融合确定区域,得到的确定区域融合后的图像为为:
式中,“·*”代表矩阵中对应像素位置处值的乘积。
S3.4.7利用模糊逻辑理论融合两幅细节特征图像的不确定区域;
利用模糊逻辑理论融合不确定区域,针对细节特征图像PP'和PR',需考虑是细节特征图像的局部梯度是大的,还是细节特征图像的局部加权方差是大的,针对这组关系,构建细节特征图像的隶属度函数。则假设“细节特征图像PP'和PR'的局部梯度是大的”的隶属函数分别为为μT(Pp'(m,n))和μT(PR'(m,n)),“细节特征图像PP'和PR'的局部加权方差是大的”的隶属函数分别为μV(PP'(m,n))和μV(PR'(m,n)),如公式(33)和(34)所示:
式中,k代表P'或R'。
利用模糊逻辑的交运算规则可分别计算两幅细节特征图像PP'和PR'在位置(m,n)的处的像素值对不确定区域融合图像重要程度的隶属函数,分别记为μT∩V(PP'(m,n))和μT∩V(PR'(m,n)),如公式(35)所示:
μT∩V(Pk(m,n))=min[μT(Pk(m,n)),μV(Pk(m,n))] (35)
式中,k代表P'或R'。
则,两幅图像细节特征图像不确定区域的融合结果为:
式中,“·*”代表矩阵中对应像素位置处值的乘积,“·/”代表矩阵中对应像素位置处值的相除。
S3.4.8融合得到两幅细节特征图像的融合结果为FDIF(m,n),并对FDIF(m,n)进行一致性校验;
对FDIF(m,n)进行一致性校验,使用大小3×3的窗口在图像FDIF(m,n)上移动,用窗口周围的像素来验证中心像素。如果中心像素来自于Pr和Pp其中一个图像中,而该中心像素的周围s(4<s<8)个像素都来自另外一个图像中,那么就把该中心像素值改为另外一个图像在该位置的像素值,窗口遍历整个图像FDIF(m,n)来得到修正好的FDIF(m,n)。
S3.5融合步骤S3.2、S3.3和S3.4的结果,获得图像P'和R'的融合结果。
融合包含亮特征的图像FL(m,n)、暗特征的图像FD(m,n)和细节特征的图像FDIF(m,n),融合公式如下:
F=αFL(m,n)+βFD(m,n)+γFDIF(m,n) (38)
式中,α、β和γ为融合权重系数,取值范围为[0,1]。为了较少融合图像的过饱和并提高对比度,α取值为1,β取值为0.3,γ取值为1。
S4利用步骤S3的融合结果和总强度图像I在YUV空间进行融合,得到最终的融合结果;
将总强度图像I输入YUV空间的Y通道,再将步骤S3的融合结果求反获得图像F',即F'=255-F,再将F'输入到U通道,最后将步骤S3的融合结果F输入到V通道,得到了最后的融合图像。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (10)

1.一种基于YUV和多特征分离的红外偏振图像的融合方法,其特征在于,包括以下步骤:
S1、利用Stokes矢量表示光的偏振态,然后根据Stokes矢量计算偏振度图像P和偏振角图像R;
S2、根据偏振度和偏振角图像的共有部分Co求解出偏振度图像的独有部分P'和偏振角图像的独有部分R';
S3、利用基于暗原色理论的多特征分离方法融合图像P'和R';
S4、利用步骤S3的融合结果和总强度图像I在YUV空间进行融合,得到最终的融合结果。
2.如权利要求1所述的基于YUV和多特征分离的红外偏振图像的融合方法,其特征在于,所述步骤S1中Stokes矢量S的表示方式如式(1)所示:
式中,I1、I2、I3和I4分别代表采集到的偏振方向为0°、45°、90°和135°度的光强度图像;I代表光的总强度;Q代表水平偏振和垂直偏振之间的强度差,U代表偏振方向在45°和135°之间的强度差;V代表光的左旋和右旋圆偏振分量之间的强度差;
偏振光的偏振度图像P和偏振角图像R表示为:
3.如权利要求2所述的基于YUV和多特征分离的红外偏振图像的融合方法,其特征在于,所述步骤S2中,
对图像P和R中的每个像素利用公式(4)进行获得图像P和R的共有部分Co:
Co=min(p,R) (4)
然后利用公式(5)和(6)分别获得偏振度图像的独有部分P'和偏振角图像的独有部分R':
P'=P-Co (5)
R'=R-Co (6)。
4.如权利要求3所述的基于YUV和多特征分离的红外偏振图像的融合方法,其特征在于,所述步骤S3包括以下步骤:
S3.1、基于暗原色理论对图像P'和R'进行多特征分离,获得图像P'和R'各自的暗特征、亮特征和细节特征图像;
S3.2、采用基于局部区域能量特征的匹配方法融合图像P'和R'的亮特征图像;采用基于局部区域加权方差特征的匹配方法融合图像P'和R'的暗特征图像;利用模糊逻辑和特征差异驱动融合图像P'和R'的细节特征图像;
S3.3、融合步骤S3.2中的亮特征图像、暗特征图像和细节特征图像的结果,获得图像P'和R'的融合结果。
5.如权利要求4所述的基于YUV和多特征分离的红外偏振图像的融合方法,其特征在于,所述步骤S3.1中,
暗原色是是He等用于估算大气散射模型中的透射率,实现对自然图像快速去雾,暗通道图的求解方法如公式(7)所示:
式中,C为图像的三个颜色通道R、G、B;N(x)为以像素点x为中心的窗口领域内的像素;LC(y)为图像的一个颜色通道图;Ldark(x)为暗通道图,反映了图像雾化程度,对于无雾图像,它的暗通道Ldark(x)值趋于0;对于有雾图像,Ldark(x)值较大;
通过公式(7)获得偏振度图像独有部分P'的暗原色图像
通过公式(7)获得偏振角图像独有部分R'的暗原色图像
采用基于暗原色理论的多特征分离,分别获得两幅图像的亮特征、暗特征和细节特征的步骤为:
S3.1.1、分别利用公式(8)和(9)获得图像P'取反之后的图像和图像R'取反之后的图像再将暗原色图像分别与图像按照绝对值取小的规则进行融合,获得图像P'的暗特征图像DP'和图像R'的暗特征图像DR',如公式(10)和(11)所示;
S3.1.2、将分别与其对应的图像DP'和DR'作差,获得图像P'的亮特征图像LP'和图像R'的亮特征图像LR',如公式(12)和(13)所示:
S3.1.3、将图像P'和图像R'分别与暗原色图像和暗原色图像作差,获得图像P'的细节图像PP'和图像R'的细节图像PR',如公式(14)和(15)所示;
6.如权利要求5所述的基于YUV和多特征分离的红外偏振图像的融合方法,其特征在于,所述步骤S3.2中采用基于局部区域能量特征的匹配方法融合图像P'和R'的亮特征图像,包括以下步骤:
S3.2.1分别利用高斯加权局部能量函数求得两幅亮特征图像的高斯加权局部能量,高斯加权局部能量函数如公式(16)所示:
式中,代表以点(m,n)为中心的高斯加权局部能量;w(i,j)为高斯滤波矩阵;N为区域的大小;t=(N-1)/2;k代表P'或R';
利用公式(16)分别求得亮特征图像LP'的高斯加权局部能量和亮特征图像LR'的高斯加权局部能量
S3.2.2、求解图像LP'和图像LR'的高斯加权局部能量的匹配度;
图像LP'和图像LR'的高斯加权局部能量的匹配度为:
S3.2.3、利用高斯加权局部能量和高斯加权局部能量匹配度融合图像LP'和LR',获得亮特征图像融合结果FL
图像LP'和LR'的融合规则为:
其中,
式中,Tl为亮度特征融合相似性判断的阈值,取值为0~0.5;若是ME(m,n)<Tl,则两幅图像LP'和LR'以点(m,n)为中心的区域不相似,两幅图像LP'和LR'的融合结果选取高斯加权区域能量大者;否者,两幅图像LP'和LR'的融合结果为系数加权平均。
7.如权利要求6所述的基于YUV和多特征分离的红外偏振图像的融合方法,其特征在于,所述步骤S3.2中采用基于局部区域加权方差特征的匹配方法融合图像P'和R'的暗特征图像,包括以下步骤:
S3.2.4、分别利用局部区域加权方差能量函数求得两幅暗特征图像的高斯加权局部能量;局部区域的加权方差能量函数如公式(20)所示:
式中,代表以点(m,n)为中心的局部区域加权方差能量;w(i,j)为高斯滤波矩阵;N为区域的大小;t=(N-1)/2;代表以点(m,n)为中心的局部区域平均值;k代表P'或R';
利用公式(20)分别求得暗特征图像DP'的局部区域加权方差能量和暗特征图像DR'的局部区域加权方差能量
S3.2.5、求解两幅图像DP'和DR'的局部区域加权方差能量的匹配度;
图像DP'和图像DR'的局部区域加权方差能量的匹配度利用公式(21)求得:
S3.2.6、利用局部区域加权方差能量和局部区域加权方差能量匹配度融合图像两幅图像DP'和DR',获得暗特征图像的融合结果FD
两幅图像DP'和DR'的融合公式为:
其中,
式中,Th为暗度特征融合相似性判断的阈值,取值为0.5~1;若ME(m,n)<Th,则两幅图像DP'和DR'以点(m,n)为中心的区域不相似,两幅图像DP'和DR'的融合结果选取局部区域加权方差能量大者;否者,两幅图像DP'和DR'的融合结果为系数加权平均。
8.如权利要求7所述的基于YUV和多特征分离的红外偏振图像的融合方法,其特征在于,所述步骤S3.2中利用模糊逻辑和特征差异驱动融合图像P'和R'的细节特征图像,包括以下步骤:
S3.2.7、求得图像P'的细节特征图像PP'和图像R'的细节特征图像PR'的局部梯度;
求解局部梯度的公式为:
式中,代表像素点(m,n)处的局部梯度;k代表P'或R'; 分别代表利用Sobel算子的水平和垂直模板与细节特征图像卷积获得的水平和垂直边缘图像;
利用公式(24)获得细节特征图像PP'的局部梯度和细节特征图像PR'的局部梯度
S3.2.8、求得细节特征图像PP'和PR'的局部加权方差;
局部加权方差采用公式(20)一样的方法,即如公式(25)所示:
式中,代表以点(m,n)为中心的局部区域加权方差能量;w(i,j)为高斯滤波矩阵;N为区域的大小;t=(N-1)/2;代表以点(m,n)为中心的局部区域平均值;k代表P'或R';
利用公式(25)获得细节特征图像PP'的局部加权方差和细节特征图像PR'的局部梯度
S3.2.9、求得两幅细节特征图像的局部梯度匹配度、局部加权方差匹配度、局部差异梯度和局部差异方差:
局部梯度匹配度:
局部加权方差匹配度:
局部差异梯度:
局部差异方差:
S3.2.10、根据局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)获得基于像素的决策图PDG(m,n),并且根据局部梯度匹配度MT(m,n)和局部加权方差匹配度MV1(m,n)获得特征差异程度决策图DDG,包括以下步骤:
(1)根据局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)获得基于像素的决策图PDG(m,n):当ΔT(m,n)>0,ΔV(m,n)>0时,令PDG(m,n)=p1;当ΔT(m,n)<0,ΔV(m,n)<0时,PDG(m,n)=p2;当ΔT(m,n)>0,ΔV(m,n)<0时,PDG(m,n)=p3;当ΔT(m,n)<0,ΔV(m,n)>0时,令PDG(m,n)=p4;当ΔT(m,n)=0,ΔV(m,n)>0时,令PDG(m,n)=p5;当ΔT(m,n)=0,ΔV(m,n)<0时,令PDG=p6;当ΔT(m,n)>0,ΔV(m,n)=0,令PDG(m,n)=p7;当ΔT(m,n)<0,ΔV(m,n)=0时,令PDG(m,n)=p8;当ΔT(m,n)=0,ΔV(m,n)=0时,令PDG(m,n)=p9;其中p1~p9表示满足上述条件时像素位置为1,其他像素位置为0的决策图;
(2)根据局部梯度匹配度MT(m,n)和局部加权方差匹配度MV(m,n)可获得特征差异程度决策图DDG,如公式(30)所示:
式中,d1和d2表示满足公式(30)的对应的像素位置为1,其他像素位置为0;
S3.2.11、根据基于像素的决策图PDG(m,n)和特征差异程度决策图DDG判定确定区域和不确定区域:
S3.2.12、利用特征差异驱动融合两幅细节特征图像的确定区域;
以局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)的乘积作为确定区域融合驱动因素,记为DIF(m,n),如下面公式所示:
DIF(m,n)=ΔT(m,n)·ΔV(m,n) (31)
则利用DIF(m,n)驱动融合确定区域,得到的确定区域融合后的图像为为:
式中,“·*”代表矩阵中对应像素位置处值的乘积;
S3.2.13、利用模糊逻辑理论融合两幅细节特征图像的不确定区域;
假设“细节特征图像PP'和PR'的局部梯度是大的”的隶属函数分别为μT(Pp'(m,n))和μT(PR'(m,n)),“细节特征图像PP'和PR'的局部加权方差是大的”的隶属函数分别为μV(PP'(m,n))和μV(PR'(m,n)),如公式(33)和(34)所示:
式中,k代表P'或R';
利用模糊逻辑的交运算规则可分别计算两幅细节特征图像PP'和PR'在位置(m,n)的处的像素值对不确定区域融合图像重要程度的隶属函数,分别记为μT∩V(PP'(m,n))和μT∩V(PR'(m,n)),如公式(35)所示:
μT∩V(Pk(m,n))=min[μT(Pk(m,n)),μV(Pk(m,n))] (35)
式中,k代表P'或R';
则,两幅图像细节特征图像不确定区域的融合结果为:
式中,“·*”代表矩阵中对应像素位置处值的乘积,“·/”代表矩阵中对应像素位置处值的相除;
S3.2.14、融合得到两幅细节特征图像的融合结果为FDIF(m,n),并对FDIF(m,n)进行一致性校验;
对FDIF(m,n)进行一致性校验,使用大小3×3的窗口在图像FDIF(m,n)上移动,用窗口周围的像素来验证中心像素。
9.如权利要求8所述的基于YUV和多特征分离的红外偏振图像的融合方法,其特征在于,所述步骤S3.3中融合步骤S3.2中的亮特征图像、暗特征图像和细节特征图像的结果是融合包含亮特征的图像FL(m,n)、暗特征的图像FD(m,n)和细节特征的图像FDIF(m,n),融合公式如公式(38)所示:
F=αFL(m,n)+βFD(m,n)+γFDIF(m,n) (38)
式中,α、β和γ为融合权重系数,α取值为1,β取值为0.3,γ取值为1,以满足较少融合图像的过饱和并提高对比度。
10.如权利要求9所述的基于YUV和多特征分离的红外偏振图像的融合方法,其特征在于,所述步骤S4中利用步骤S3的融合结果和总强度图像I在YUV空间进行融合的方法为:
将总强度图像I输入YUV空间的Y通道,再将步骤S3的融合结果求反获得图像F',即F'=255-F,再将F'输入到U通道,最后将步骤S3的融合结果F输入到V通道,得到最后的融合图像。
CN201811180887.1A 2018-10-09 2018-10-09 一种基于yuv和多特征分离的红外偏振图像的融合方法 Active CN109410161B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811180887.1A CN109410161B (zh) 2018-10-09 2018-10-09 一种基于yuv和多特征分离的红外偏振图像的融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811180887.1A CN109410161B (zh) 2018-10-09 2018-10-09 一种基于yuv和多特征分离的红外偏振图像的融合方法

Publications (2)

Publication Number Publication Date
CN109410161A true CN109410161A (zh) 2019-03-01
CN109410161B CN109410161B (zh) 2020-11-13

Family

ID=65467525

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811180887.1A Active CN109410161B (zh) 2018-10-09 2018-10-09 一种基于yuv和多特征分离的红外偏振图像的融合方法

Country Status (1)

Country Link
CN (1) CN109410161B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111307065A (zh) * 2020-03-05 2020-06-19 中国铁道科学研究院集团有限公司基础设施检测研究所 基于偏振分光的钢轨廓形检测方法、***及装置
CN111383242A (zh) * 2020-05-29 2020-07-07 浙江大华技术股份有限公司 一种图像透雾处理方法及装置
CN112164017A (zh) * 2020-09-27 2021-01-01 中国兵器工业集团第二一四研究所苏州研发中心 一种基于深度学习的偏振彩色化方法
CN113421205A (zh) * 2021-07-16 2021-09-21 合肥工业大学 一种结合红外偏振成像的小目标检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107253485A (zh) * 2017-05-16 2017-10-17 北京交通大学 异物侵入检测方法及异物侵入检测装置
CN108389158A (zh) * 2018-02-12 2018-08-10 河北大学 一种红外和可见光的图像融合方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107253485A (zh) * 2017-05-16 2017-10-17 北京交通大学 异物侵入检测方法及异物侵入检测装置
CN108389158A (zh) * 2018-02-12 2018-08-10 河北大学 一种红外和可见光的图像融合方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ZHOU PU-CHENG 等: "Camouflaged Target Separation by Spectral-polarimetric Imagery Fusion with Shearlet Transform and Clustering Segmentation", 《INTERNATIONAL SYMPOSIUM ON PHOTOELECTRONIC DETECTION AND IMAGING 2013:IMAGING SENSORS AND APPLICATIONS》 *
安富 等: "模糊逻辑与特征差异驱动的红外偏振图像融合模型", 《红外技术》 *
李伟伟 等: "红外偏振与红外光强图像的伪彩色融合研究", 《红外技术》 *
郭喆 等: "一种红外偏振与光强图像的暗原色多特征分离融合方法", 《科学技术与工程》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111307065A (zh) * 2020-03-05 2020-06-19 中国铁道科学研究院集团有限公司基础设施检测研究所 基于偏振分光的钢轨廓形检测方法、***及装置
CN111383242A (zh) * 2020-05-29 2020-07-07 浙江大华技术股份有限公司 一种图像透雾处理方法及装置
CN111383242B (zh) * 2020-05-29 2020-09-29 浙江大华技术股份有限公司 一种图像透雾处理方法及装置
CN112164017A (zh) * 2020-09-27 2021-01-01 中国兵器工业集团第二一四研究所苏州研发中心 一种基于深度学习的偏振彩色化方法
CN112164017B (zh) * 2020-09-27 2023-11-17 中国兵器工业集团第二一四研究所苏州研发中心 一种基于深度学习的偏振彩色化方法
CN113421205A (zh) * 2021-07-16 2021-09-21 合肥工业大学 一种结合红外偏振成像的小目标检测方法
CN113421205B (zh) * 2021-07-16 2022-11-15 合肥工业大学 一种结合红外偏振成像的小目标检测方法

Also Published As

Publication number Publication date
CN109410161B (zh) 2020-11-13

Similar Documents

Publication Publication Date Title
AU2018247216B2 (en) Systems and methods for liveness analysis
Zhang et al. Fast haze removal for nighttime image using maximum reflectance prior
Silverman et al. Display and enhancement of infrared images
CN109410161A (zh) 一种基于yuv和多特征分离的红外偏振图像的融合方法
EP0932114B1 (en) A method of and apparatus for detecting a face-like region
KR100796707B1 (ko) 화상 융합 시스템 및 방법
CN107977940A (zh) 背景虚化处理方法、装置及设备
CN112288663A (zh) 一种红外与可见光图像融合方法及***
Zhang et al. A retina inspired model for enhancing visibility of hazy images
JP2002501265A (ja) 複数の画像の融合により輝点または暗点を除去するための方法及び装置
Yu et al. A false color image fusion method based on multi-resolution color transfer in normalization YCBCR space
CN105869115B (zh) 一种基于kinect2.0的深度图像超分辨率方法
US11455710B2 (en) Device and method of object detection
CN110210541A (zh) 图像融合方法及设备、存储装置
US10721448B2 (en) Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
Stone et al. Forward looking anomaly detection via fusion of infrared and color imagery
CN110490187A (zh) 车牌识别设备和方法
Asmare et al. Image Enhancement by Fusion in Contourlet Transform.
CN109410160A (zh) 基于多特征和特征差异驱动的红外偏振图像融合方法
CN109377468A (zh) 基于多特征的红外辐射和偏振图像的伪彩色融合方法
Fredembach et al. The bright-chromagenic algorithm for illuminant estimation
Qian et al. Fast color contrast enhancement method for color night vision
Tao et al. Intelligent colorization for thermal infrared image based on CNN
Petrovic Multilevel image fusion
Dong et al. Infrared image colorization using an edge aware auto encoder decoder with the multi-resolution fusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant