CN109410161B - 一种基于yuv和多特征分离的红外偏振图像的融合方法 - Google Patents
一种基于yuv和多特征分离的红外偏振图像的融合方法 Download PDFInfo
- Publication number
- CN109410161B CN109410161B CN201811180887.1A CN201811180887A CN109410161B CN 109410161 B CN109410161 B CN 109410161B CN 201811180887 A CN201811180887 A CN 201811180887A CN 109410161 B CN109410161 B CN 109410161B
- Authority
- CN
- China
- Prior art keywords
- image
- images
- local
- feature
- dark
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010287 polarization Effects 0.000 title claims abstract description 97
- 238000000926 separation method Methods 0.000 title claims abstract description 21
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 12
- 230000004927 fusion Effects 0.000 claims abstract description 80
- 238000000034 method Methods 0.000 claims abstract description 31
- 239000013598 vector Substances 0.000 claims abstract description 13
- 239000011159 matrix material Substances 0.000 claims description 18
- 238000010586 diagram Methods 0.000 claims description 4
- 238000002834 transmittance Methods 0.000 claims description 3
- 230000000295 complement effect Effects 0.000 abstract description 5
- 230000000694 effects Effects 0.000 abstract description 4
- 230000000007 visual effect Effects 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000012800 visualization Methods 0.000 abstract description 3
- 238000003384 imaging method Methods 0.000 description 5
- 238000003331 infrared imaging Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000005855 radiation Effects 0.000 description 4
- 230000015556 catabolic process Effects 0.000 description 3
- 238000006731 degradation reaction Methods 0.000 description 3
- 230000002349 favourable effect Effects 0.000 description 3
- 238000007499 fusion processing Methods 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于YUV和多特征分离的红外偏振图像的融合方法:首先用斯托克斯矢量表示光的偏振态,并计算出偏振度图像和偏振角图像;再求解出偏振度和偏振角图像各自独有部分P'和R';再利用暗原色理论的多特征分离方法融合图像P'和R',将其融合结果和总强度图像I在YUV空间进行融合获得最终的红外偏振图像融合结果。该方法基于人眼视觉特性YUV色彩空间进行融合,有效地提高了偏振图像融合结果的可视化效果,增强图像的边缘等细节信息,提高图像对比度,融合各偏振量之间互补信息,使得融合图像场景更加丰富,有助于对伪装目标的识别。
Description
技术领域
本发明总体地涉及图像处理技术领域,具体地涉及一种基于YUV和多特征分离的红外偏振图像的融合方法。
背景技术
针对传统的红外成像***主要是对景物的红外辐射强度成像,其主要与景物的温度、辐射率等有关。当目标物周围放置温度相同的噪声源时,那么现有的红外热像仪就无法对伪装目标进行识别,红外成像技术面临严重的局限性和挑战性。与传统的红外成像相比,光的偏振成像可以降低复杂场景的退化影响,并且利用光的偏振成像可以降低复杂场景的退化影响,同时可以获得场景的结构和距离信息。正是由于光偏振信息是不同于辐射的另一种表征物体的信息,相同辐射的被测物体可能有不同的偏振度,使用偏振手段可以在复杂背景下检测出有用的信号。
光的偏振态可以用斯托克斯矢量进行描述,各个偏振量在表达偏振信息方面是冗余的和互补的。偏振图像融合过程中存在只考虑单一差异特征的情况,这不能对图像中的所有不确定和随机变化的图像特征进行有效描述,导致在融合过程中损失一些有价值的信息,导致融合与识别的失败;同时融合图像视觉效果影响着人眼的分辨能力和对伪装目标的识别效果。
发明内容
本发明的目的在于克服上述现有技术的不足,提出基于一种YUV和多特征分离的红外偏振图像的融合方法,实现了偏振分量之间的融合,融合各偏振量之间互补信息,使得融合图像场景更加丰富,增强图像的边缘等细节信息,提高图像对比度,同时,基于人眼视觉特性YUV色彩空间进行融合,有效地提高了偏振图像融合结果的可视化效果。
本发明的技术方案是,一种基于YUV和多特征分离的红外偏振图像的融合方法,包括以下步骤:
S1、利用Stokes矢量表示光的偏振态,根据Stokes矢量计算偏振度图像P和偏振角图像R;
S2、根据偏振度和偏振角图像的共有部分Co求解偏振度图像的独有部分P'和偏振角图像的独有部分R';
S3、利用基于暗原色理论的多特征分离方法融合图像P'和R';
S4、利用步骤S3的融合结果和总强度图像I在YUV空间进行融合,得到最终的融合结果。
进一步的,上述步骤S1中Stokes矢量S的表示方式如式(1)所示:
式中,I1、I2、I3和I4分别代表采集到的偏振方向为0°、45°、90°和135°度的光强度图像;I代表光的总强度;Q代表水平偏振和垂直偏振之间的强度差,U代表偏振方向在45°和135°之间的强度差;V代表光的左旋和右旋圆偏振分量之间的强度差;
偏振光的偏振度图像P和偏振角图像R表示为:
更进一步的,上述步骤S2中,对图像P和R中的每个像素利用公式(4)进行操作,获得图像P和R的共有部分Co:
Co=min(p,R) (4)
利用公式(5)和(6)分别获得偏振度图像的独有部分P'和偏振角图像的独有部分R':
P'=P-Co (5)
R'=R-Co (6)
还进一步的,上述步骤S3包括以下步骤:
S3.1、基于暗原色理论对图像P'和R'进行多特征分离,获得图像P'和R'各自的暗特征、亮特征和细节特征图像;
S3.2、采用基于局部区域能量特征的匹配方法融合图像P'和R'的亮特征图像;
S3.3、采用基于局部区域加权方差特征的匹配方法融合图像P'和R'的暗特征图像;
S3.4、利用模糊逻辑和特征差异驱动融合图像P'和R'的细节特征图像;
S3.5、融合步骤S3.2、S3.3和S3.4的结果,获得图像P'和R'的融合结果。
需要特别说明的是,步骤S3.2、S3.3和S3.4是不分时序的,可以放在一个步骤中进行描述,这里进行分步骤S3.2、S3.3和S3.4进行描述仅为了后续表述更加清晰:步骤S3.2、S3.3和S3.4可以同步进行;也可以任意两个同时进行,然后进行最后一个;也可以先进行其中任意一个,然后进行同步进行剩下的两个;或者依次进行其中的一个。
还进一步的,上述步骤S3.1中,
暗原色是是He等用于估算大气散射模型中的透射率,实现对自然图像快速去雾,暗通道图的求解方法如公式(7)所示:
式中,C为图像的三个颜色通道R、G、B;N(x)为以像素点x为中心的窗口领域内的像素;LC(y)为图像的一个颜色通道图;Ldark(x)为暗通道图,反映了图像雾化程度,对于无雾图像,它的暗通道Ldark(x)值趋于0;对于有雾图像,Ldark(x)值较大;
采用基于暗原色理论的多特征分离,分别获得两幅图像的亮特征、暗特征和细节特征的步骤为:
S3.1.1、分别利用公式(8)和(9)获得图像P'取反之后的图像和图像R'取反之后的图像再将暗原色图像和分别与图像和按照绝对值取小的规则进行融合,获得图像P'的暗特征图像DP'和图像R'的暗特征图像DR',如公式(10)和(11)所示;
还进一步的,上述步骤S3.2中,融合亮特征图像LP'和亮特征图像LR'包括以下步骤:
S3.2.1分别利用高斯加权局部能量函数求得两幅亮特征图像的高斯加权局部能量,高斯加权局部能量函数如公式(16)所示:
S3.2.2、求解图像LP'和图像LR'的高斯加权局部能量的匹配度;
图像LP'和图像LR'的高斯加权局部能量的匹配度为:
S3.2.3、利用高斯加权局部能量和高斯加权局部能量匹配度融合图像LP'和LR',获得亮特征图像融合结果FL;
图像LP'和LR'的融合规则为:
式中,Tl为亮度特征融合相似性判断的阈值,取值为0~0.5;若是ME(m,n)<Tl,则两幅图像LP'和LR'以点(m,n)为中心的区域不相似,两幅图像LP'和LR'的融合结果选取高斯加权区域能量大者;否者,两幅图像LP'和LR'的融合结果为系数加权平均。
还进一步的,上述步骤S3.3中融合暗特征图像DP'和暗特征图像DR'包括以下步骤:
S3.3.1、分别利用局部区域加权方差能量函数求得两幅暗特征图像的高斯加权局部能量;局部区域的加权方差能量函数如公式(20)所示:
S3.3.2、求解两幅图像DP'和DR'的局部区域加权方差能量的匹配度;
图像DP'和图像DR'的局部区域加权方差能量的匹配度利用公式(21)求得:
S3.3.3、利用局部区域加权方差能量和局部区域加权方差能量匹配度融合图像两幅图像DP'和DR',获得暗特征图像的融合结果FD;
两幅图像DP'和DR'的融合公式为:
式中,Th为暗度特征融合相似性判断的阈值,取值为0.5~1;若是ME(m,n)<Th,则两幅图像DP'和DR'以点(m,n)为中心的区域不相似,两幅图像DP'和DR'的融合结果选取局部区域加权方差能量大者;否者,两幅图像DP'和DR'的融合结果为系数加权平均。
还进一步的,上述步骤S3.4中采用基于局部梯度和局部方差的特征差异驱动方法融合偏振度和偏振角图像的细节特征,包括以下步骤:
S3.4.1、求得图像P'的细节特征图像PP'和图像R'的细节特征图像PR'的局部梯度;
求解局部梯度的公式为:
S3.4.2、求得细节特征图像PP'和PR'的局部加权方差;
局部加权方差采用公式(20)一样的方法,即如公式(25)所示:
S3.4.3、求得两幅细节特征图像的局部梯度匹配度、局部加权方差匹配度、局部差异梯度和局部差异方差:
S3.4.4、根据局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)获得基于像素的决策图PDG(m,n),并且根据局部梯度匹配度MT(m,n)和局部加权方差匹配度MV1(m,n)获得特征差异程度决策图DDG,包括以下步骤:
(1)根据局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)获得基于像素的决策图PDG(m,n):当ΔT(m,n)>0,ΔV(m,n)>0时,令PDG(m,n)=p1;当ΔT(m,n)<0,ΔV(m,n)<0时,PDG(m,n)=p2;当ΔT(m,n)>0,ΔV(m,n)<0时,PDG(m,n)=p3;当ΔT(m,n)<0,ΔV(m,n)>0时,令PDG(m,n)=p4;当ΔT(m,n)=0,ΔV(m,n)>0时,令PDG(m,n)=p5;当ΔT(m,n)=0,ΔV(m,n)<0时,令PDG=p6;当ΔT(m,n)>0,ΔV(m,n)=0时,令PDG(m,n)=p7;当ΔT(m,n)<0,ΔV(m,n)=0时,令PDG(m,n)=p8;当ΔT(m,n)=0,ΔV(m,n)=0时,令PDG(m,n)=p9;其中p1~p9表示满足上述条件时像素位置为1,其他像素位置为0的决策图;
(2)根据局部梯度匹配度MT(m,n)和局部加权方差匹配度MV(m,n)可获得特征差异程度决策图DDG,如公式(30)所示:
式中,d1和d2表示满足公式(30)的对应的像素位置为1,其他像素位置为0。
S3.4.5、根据基于像素的决策图PDG(m,n)和特征差异程度决策图DDG判定确定区域和不确定区域;
由PDG可以判定满足步骤S3.4.4的(1)相对应条件的p1、p2、p5、p6、p7和p8为确定区域:因为对于p1和p2这两种情况而言,两个差异特征都能反映出相对应像素点的灰度值是否保留在融合图像中;对于p5、p6、p7和p8这四种情况而言,利用其中一个差异特征就能反映出对应像素点的灰度值是否保留在融合图像中;
由PDG和DDG可以判定p3和p4为确定区域:因为利用特征差异程度决策图DDG可以确定两图像局部特征的差异程度大小,然后选取差异程度较大的差异特征,这个差异特征能够反映出对应像素点的灰度值是否保留在融合图像中;
然而对于区域p9就不能根据两个决策图PDG和DDG判断法,此区域属于不确定性区域;
S3.4.6、利用特征差异驱动融合两幅细节特征图像的确定区域;
以局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)的乘积作为确定区域融合驱动因素,记为DIF(m,n),如下面公式所示:
DIF(m,n)=ΔT(m,n)·ΔV(m,n) (31)
式中,“·*”代表矩阵中对应像素位置处值的乘积;
S3.4.7、利用模糊逻辑理论融合两幅细节特征图像的不确定区域;
假设“细节特征图像PP'和PR'的局部梯度是大的”的隶属函数分别为μT(Pp'(m,n))和μT(PR'(m,n)),“细节特征图像PP'和PR'的局部加权方差是大的”的隶属函数分别为μV(PP'(m,n))和μV(PR'(m,n)),如公式(33)和(34)所示:
式中,k代表P'或R'。
利用模糊逻辑的交运算规则可分别计算两幅细节特征图像PP'和PR'在位置(m,n)的处的像素值对不确定区域融合图像重要程度的隶属函数,分别记为μT∩V(PP'(m,n))和μT∩V(PR'(m,n)),如公式(35)所示:
μT∩V(Pk(m,n))=min[μT(Pk(m,n)),μV(Pk(m,n))] (35)
式中,k代表P'或R';
则,两幅图像细节特征图像不确定区域的融合结果为:
式中,“·*”代表矩阵中对应像素位置处值的乘积,“·/”代表矩阵中对应像素位置处值的相除;
对FDIF(m,n)进行一致性校验,使用大小3×3的窗口在图像FDIF(m,n)上移动,用窗口周围的像素来验证中心像素。
还进一步的,上述步骤S3.5中融合步骤S3.2、S3.3和S3.4的结果是融合包含亮特征的图像FL(m,n)、暗特征的图像FD(m,n)和细节特征的图像FDIF(m,n),融合公式如公式(38)所示:
F=αFL(m,n)+βFD(m,n)+γFDIF(m,n) (38)
式中,α、β和γ为融合权重系数,取值范围为[0,1];更优选地,上述α取值为1,β取值为0.3,γ取值为1,以满足较少融合图像的过饱和并提高对比度。
还进一步的,上述步骤S4中利用步骤S3的融合结果和总强度图像I在YUV空间进行融合的方法为:将总强度图像I输入YUV空间的Y通道,再将步骤S3的融合结果求反获得图像F',即F′=255-F,再将F'输入到U通道,最后将步骤S3的融合结果F输入到V通道,得到最后的融合图像。
相对于现有技术,本发明具有以下有益效果:
1、偏振图像各个偏振量之间信息是冗余和互补的,本发明方法对偏振图像的各个偏振量进行融合,有效地解决了偏振图像融合过程中各个偏振量之间的信息冗余的问题,融合各偏振量之间互补信息,使得融合图像场景更加丰富,有助于对伪装目标的识别。
2、本发明方法图像融合过程中综合了表征图像相邻像素之间的相关性与局部区域亮度差异的局部区域能量特征、反映局部区域灰度变化差异的局部区域方差特征以及反映图像像素的细节方差的局部区域梯度,表征图像相邻像素之间的相关性与局部区域亮度差异的局部区域能量特征有利于提高图像对比度,反映局部区域灰度变化差异的局部区域方差特征有利于提高图像清晰度,反映图像像素的细节方差的局部区域梯度有利于增强图像的细节信息,从而提高了图像的清晰度和对比度,增强了图像的边缘等细节信息。
3、本发明方法基于人眼视觉特性YUV色彩空间进行融合,有效地提高了偏振图像融合结果的可视化效果。
附图说明
从下面结合附图对本发明实施例的详细描述中,本发明的这些和/或其它方面和优点将变得更加清楚并更容易理解,其中:
图1是本发明实施例的基于YUV和多特征分离的红外偏振图像的融合方法流程图;
图2是本发明实施例的基于YUV和多特征分离的红外偏振图像的融合方法中利用模糊逻辑和特征差异驱动的图像P'和R'的细节特征图像融合方法流程图。
具体实施方式
为了使本领域技术人员更好地理解本发明,下面结合附图和具体实施方式对本发明作进一步详细说明。
实施例1
一种基于YUV和多特征分离的红外偏振图像的融合方法,其具体操作流程如图1所示,包括以下步骤S1-S4。
S1利用斯托克斯(Stokes)矢量表示光的偏振态,根据Stokes矢量计算偏振度图像P和偏振角图像R;
红外辐射强度成像主要与景物的温度、辐射率等有关,当目标物周围放置温度相同的噪声源时,那么现有的红外热像仪就无法对目标进行识别,红外成像技术面临严重的局限性和挑战性。与传统的红外成像相比,光的偏振成像可以降低复杂场景的退化影响,并且利用光的偏振成像可以降低复杂场景的退化影响,有利于为伪装目标的识别。
偏振作为光一种基本特征,并不能被人眼直接观察到,因此需要将偏振信息以某种形式显示出来,一边人眼所感知或方便计算机处理。利用Stokes矢量来表示光的偏振态,Stokes矢量利用四个Stokes参量来描述光的偏振态和强度,它们均是光强的时间平均值,具有强度的量纲,可以直接被探测器探测。Stokes矢量S的表示方式为:
式中,I1、I2、I3和I4分别代表采集到的偏振方向为0°、45°、90°和135°度的光强度图像;I代表光的总强度;Q代表水平偏振和垂直偏振之间的强度差,U代表偏振方向在45°和135°之间的强度差;V代表光的左旋和右旋圆偏振分量之间的强度差。
在实际偏振中往往不用相位延迟器,只靠旋转线偏振片即可得到Stokes参量。因此偏振光的偏振度图像P和偏振角图像R可以表示为:
S2根据偏振度和偏振角图像的两者共有部分Co求解出偏振度的独有部分P'和偏振角图像的独有部分R';
偏振度和偏振角图像之间存在冗余和相互互补的信息,对图像P和R的每个像素进行公式(4)操作,可获得图像P和R的共有部分Co。
Co=min(p,R) (4)
利用公式(5)和(6)可以分别获得偏振度和偏振角图像的独有部分。
P'=P-Co (5)
R'=R-Co (6)
S3利用基于暗原色理论的多特征分离方法融合图像P'和R';
S3.1基于暗原色理论对图像P'和R'进行多特征分离,获得图像P'和R'各自的暗特征、亮特征和细节特征图像,
暗原色是是He等用于估算大气散射模型中的透射率,实现对自然图像快速去雾。暗通道图的求解方法如公式(7)所示。
式中,C为图像的三个颜色通道R、G、B;N(x)为以像素点x为中心的窗口领域内的像素;LC(y)为图像的一个颜色通道图;Ldark(x)为暗通道图,反映了图像雾化程度,对于无雾图像,它的暗通道Ldark(x)值趋于0;对于有雾图像,Ldark(x)值较大。在自然图像中,受雾影响明显的区域一般是暗原色中最亮的像素点,而无雾区域在暗原色中的像素值很低。因此对于灰度图像来说,暗原色图包含了原图像中明亮区域,体现了原图像低频部分,即保留了原图像中灰度变化比较平缓的区域,使得亮暗特征差异更为突出,丢失灰度值变化比较剧烈、对比度高的局部区域信息,特别是边缘细节信息。
采用基于暗原色理论的多特征分离,分别获得两幅图像的亮特征、暗特征和细节特征的步骤为:
S3.1.1分别利用公式(8)和(9)获得图像P'取反之后的图像和图像R'取反之后的图像再将暗原色图像和分别与图像和按照绝对值取小的规则进行融合,获得图像P'的暗特征图像DP'和图像R'的暗特征图像DR',如公式(10)和(11)所示;
同样,需要特别说明的是,以下步骤S3.2、S3.3和S3.4是不分时序的,可以放在一个步骤中进行描述,这里进行步骤编号仅为了后续描述方便:步骤S3.2、S3.3和S3.4可以同步进行;也可以任意两个同时进行,然后进行最后一个;也可以先进行其中任意一个,然后进行同步进行剩下的两个;或者依次进行其中的一个。
S3.2采用基于局部区域能量特征的匹配方法融合图像P'和R'的亮特征图像;
亮特征信息集中了原图像中的明亮区域,体现了原图像中的低频分量,融合亮特征图像LP'和亮特征图像LR'的步骤为:
S3.2.1分别利用高斯加权局部能量函数求得两幅亮特征图像的高斯加权局部能量;
高斯加权局部能量函数如公式(16)所示:
式中,代表以点(m,n)为中心的高斯加权局部能量;w(i,j)为高斯滤波矩阵;N为区域的大小;t=(N-1)/2;k代表P'或R';则利用公式(16)可分别求得亮特征图像LP'的高斯加权局部能量和亮特征图像LR'的高斯加权局部能量
S3.2.2求解图像LP'和图像LR'的高斯加权局部能量的匹配度;
图像LP'和图像LR'的高斯加权局部能量的匹配度为:
S3.2.3利用高斯加权局部能量和高斯加权局部能量匹配度融合图像LP'和LR',获得亮特征图像融合结果FL;
图像LP'和LR'的融合规则为:
式中,Tl为亮度特征融合相似性判断的阈值,取值为0~0.5;若是ME(m,n)<Tl,则两幅图像LP'和LR'以点(m,n)为中心的区域不相似,两幅图像LP'和LR'的融合结果选取高斯加权区域能量大者;否者,两幅图像LP'和LR'的融合结果为系数加权平均。
S3.3采用基于局部区域加权方差特征的匹配方法融合图像P'和R'的暗特征图像;
暗特征图像缺少源图像中的明亮区域,但是仍然可以看做源图像的近似图像,包含了图像的主要能量,并且体现了图像的基本轮廓,融合暗特征图像DP'和暗特征图像DR'的步骤为:
S3.3.1分别利用局部区域加权方差能量函数求得两幅暗特征图像的高斯加权局部能量;
局部区域的加权方差能量函数如公式(20)所示:
S3.3.2求解两幅图像DP'和DR'的局部区域加权方差能量的匹配度;
图像DP'和图像DR'的局部区域加权方差能量的匹配度:
S3.3.3利用局部区域加权方差能量和局部区域加权方差能量匹配度融合图像两幅图像DP'和DR',获得暗特征图像的融合结果FD;
两幅图像DP'和DR'的融合规则为:
式中,Th为暗度特征融合相似性判断的阈值,取值为0.5~1;若是
ME(m,n)<Th,则两幅图像DP'和DR'以点(m,n)为中心的区域不相似,两幅图像DP'和DR'的融合结果选取局部区域加权方差能量大者;否者,两幅图像DP'和DR'的融合结果为系数加权平均。
S3.4利用模糊逻辑和特征差异驱动融合图像P'和R'的细节特征图像。
局部梯度和局部方差能够很好地反映图像的细节信息,表达了图像的清晰度。为了尽可能地保留细节特征图像的细节信息,提升清晰度,采用基于局部梯度和局部方差的特征差异驱动方法融合偏振度和偏振角图像的细节特征,如图2所示,具体步骤如下:
S3.4.1求得图像P'的细节特征图像PP'和图像R'的细节特征图像PR'的局部梯度;
求解局部梯度的公式为:
S3.4.2求得细节特征图像PP'和PR'的局部加权方差;
局部加权方差采用公式(20)一样的方法,即为:
S3.4.3求得两幅细节特征图像的局部差异梯度和局部差异方差,以及局部梯度特征和局部加权方差特征的匹配度;
S3.4.4根据特征差异获得基于像素的决策图和利用特征匹配度获得特征差异程度决策图;
(1)根据局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)可获得基于像素的决策图PDG(m,n):当ΔT(m,n)>0,ΔV(m,n)>0时,令PDG(m,n)=p1;当ΔT(m,n)<0,ΔV(m,n)<0时,PDG(m,n)=p2;当ΔT(m,n)>0,ΔV(m,n)<0时,PDG(m,n)=p3;当ΔT(m,n)<0,ΔV(m,n)>0时,令PDG(m,n)=p4;当ΔT(m,n)=0,ΔV(m,n)>0时,令PDG(m,n)=p5;当ΔT(m,n)=0,ΔV(m,n)<0时,令PDG=p6;当ΔT(m,n)>0,ΔV(m,n)=0时,令PDG(m,n)=p7;当ΔT(m,n)<0,ΔV(m,n)=0时,令PDG(m,n)=p8;当ΔT(m,n)=0,ΔV(m,n)=0时,令PDG(m,n)=p9。其中p1~p9表示满足上述条件时像素位置为1,其他像素位置为0的决策图;
(2)根据局部梯度匹配度MT(m,n)和局部加权方差匹配度MV(m,n)可获得特征差异程度决策图DDG,如公式(30)所示:
式中,d1和d2表示满足公式(30)的对应的像素位置为1,其他像素位置为0。
S3.4.5根据基于像素的决策图和特征差异程度决策图判定确定区域和不确定区域;
由PDG可以判定满足步骤S3.4.4的(1)相对应条件的p1、p2、p5、p6、p7和p8为确定区域。因为对于p1和p2这两种情况而言,两个差异特征都能反映出相对应像素点的灰度值是否保留在融合图像中;对于p5、p6、p7和p8这四种情况而言,利用其中一个差异特征就能反映出对应像素点的灰度值是否保留在融合图像中。
由PDG和DDG可以判定p3和p4为确定区域。因为利用特征差异程度决策图DDG可以确定两图像局部特征的差异程度大小,然后选取差异程度较大的差异特征,这个差异特征能够反映出对应像素点的灰度值是否保留在融合图像中。
然而对于区域p9就不能根据两个决策图PDG和DDG判断法,此区域属于不确定性区域。
S3.4.6利用特征差异驱动融合两幅细节特征图像的确定区域;
以局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)的乘积作为确定区域融合驱动因素,记为DIF(m,n),如下面公式所示:
DIF(m,n)=ΔT(m,n)·ΔV(m,n) (31)
式中,“·*”代表矩阵中对应像素位置处值的乘积。
S3.4.7利用模糊逻辑理论融合两幅细节特征图像的不确定区域;
利用模糊逻辑理论融合不确定区域,针对细节特征图像PP'和PR',需考虑是细节特征图像的局部梯度是大的,还是细节特征图像的局部加权方差是大的,针对这组关系,构建细节特征图像的隶属度函数。则假设“细节特征图像PP'和PR'的局部梯度是大的”的隶属函数分别为为μT(Pp'(m,n))和μT(PR'(m,n)),“细节特征图像PP'和PR'的局部加权方差是大的”的隶属函数分别为μV(PP'(m,n))和μV(PR'(m,n)),如公式(33)和(34)所示:
式中,k代表P'或R'。
利用模糊逻辑的交运算规则可分别计算两幅细节特征图像PP'和PR'在位置(m,n)的处的像素值对不确定区域融合图像重要程度的隶属函数,分别记为μT∩V(PP'(m,n))和μT∩V(PR'(m,n)),如公式(35)所示:
μT∩V(Pk(m,n))=min[μT(Pk(m,n)),μV(Pk(m,n))] (35)
式中,k代表P'或R'。
则,两幅图像细节特征图像不确定区域的融合结果为:
式中,“·*”代表矩阵中对应像素位置处值的乘积,“·/”代表矩阵中对应像素位置处值的相除。
对FDIF(m,n)进行一致性校验,使用大小3×3的窗口在图像FDIF(m,n)上移动,用窗口周围的像素来验证中心像素。如果中心像素来自于Pr和Pp其中一个图像中,而该中心像素的周围s(4<s<8)个像素都来自另外一个图像中,那么就把该中心像素值改为另外一个图像在该位置的像素值,窗口遍历整个图像FDIF(m,n)来得到修正好的FDIF(m,n)。
S3.5融合步骤S3.2、S3.3和S3.4的结果,获得图像P'和R'的融合结果。
融合包含亮特征的图像FL(m,n)、暗特征的图像FD(m,n)和细节特征的图像FDIF(m,n),融合公式如下:
F=αFL(m,n)+βFD(m,n)+γFDIF(m,n) (38)
式中,α、β和γ为融合权重系数,取值范围为[0,1]。为了较少融合图像的过饱和并提高对比度,α取值为1,β取值为0.3,γ取值为1。
S4利用步骤S3的融合结果和总强度图像I在YUV空间进行融合,得到最终的融合结果;
将总强度图像I输入YUV空间的Y通道,再将步骤S3的融合结果求反获得图像F',即F'=255-F,再将F'输入到U通道,最后将步骤S3的融合结果F输入到V通道,得到了最后的融合图像。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (2)
1.一种基于YUV和多特征分离的红外偏振图像的融合方法,其特征在于,包括以下步骤:
S1、利用Stokes矢量表示光的偏振态,然后根据Stokes矢量计算偏振度图像P和偏振角图像R;
S2、根据偏振度和偏振角图像的共有部分Co求解出偏振度图像的独有部分P'和偏振角图像的独有部分R';
S3、利用基于暗原色理论的多特征分离方法融合图像P'和R';
S4、利用步骤S3的融合结果和总强度图像I在YUV空间进行融合,得到最终的融合结果;
所述步骤S1中Stokes矢量S的表示方式如式(1)所示:
式中,I1、I2、I3和I4分别代表采集到的偏振方向为0°、45°、90°和135°度的光强度图像;I代表光的总强度;Q代表水平偏振和垂直偏振之间的强度差,U代表偏振方向在45°和135°之间的强度差;V代表光的左旋和右旋圆偏振分量之间的强度差;
偏振光的偏振度图像P和偏振角图像R表示为:
所述步骤S2中,
对图像P和R中的每个像素利用公式(4)获得图像P和R的共有部分Co:
Co=min(P,R) (4)
然后利用公式(5)和(6)分别获得偏振度图像的独有部分P'和偏振角图像的独有部分R':
P'=P-Co (5)
R'=R-Co (6);
所述步骤S3包括以下步骤:
S3.1、基于暗原色理论对图像P'和R'进行多特征分离,获得图像P'和R'各自的暗特征、亮特征和细节特征图像;
S3.2、采用基于局部区域能量特征的匹配方法融合图像P'和R'的亮特征图像;采用基于局部区域加权方差特征的匹配方法融合图像P'和R'的暗特征图像;利用模糊逻辑和特征差异驱动融合图像P'和R'的细节特征图像;
S3.3、融合步骤S3.2中的亮特征图像、暗特征图像和细节特征图像的结果,获得图像P'和R'的融合结果;
所述步骤S3.1中,
暗原色用于估算大气散射模型中的透射率,实现对自然图像快速去雾,暗通道图的求解方法如公式(7)所示:
式中,C为图像的三个颜色通道R、G、B;N(x)为以像素点x为中心的窗口领域内的像素;LC(y)为图像的一个颜色通道图;Ldark(x)为暗通道图,反映了图像雾化程度,对于无雾图像,它的暗通道Ldark(x)值趋于0;对于有雾图像,Ldark(x)值较大;
采用基于暗原色理论的多特征分离,分别获得两幅图像的亮特征、暗特征和细节特征的步骤为:
S3.1.1、分别利用公式(8)和(9)获得图像P'取反之后的图像和图像R'取反之后的图像再将暗原色图像和分别与图像和按照绝对值取小的规则进行融合,获得图像P'的暗特征图像DP'和图像R'的暗特征图像DR',如公式(10)和(11)所示;
所述步骤S3.2中采用基于局部区域能量特征的匹配方法融合图像P'和R'的亮特征图像,包括以下步骤:
S3.2.1分别利用高斯加权局部能量函数求得两幅亮特征图像的高斯加权局部能量,高斯加权局部能量函数如公式(16)所示:
S3.2.2、求解图像LP'和图像LR'的高斯加权局部能量的匹配度;
图像LP'和图像LR'的高斯加权局部能量的匹配度为:
S3.2.3、利用高斯加权局部能量和高斯加权局部能量匹配度融合图像LP'和LR',获得亮特征图像融合结果FL;
图像LP'和LR'的融合规则为:
式中,Tl为亮度特征融合相似性判断的阈值,取值为0~0.5;若是ME(m,n)<Tl,则两幅图像LP'和LR'以点(m,n)为中心的区域不相似,两幅图像LP'和LR'的融合结果选取高斯加权区域能量大者;否者,两幅图像LP'和LR'的融合结果为系数加权平均;
所述步骤S3.2中采用基于局部区域加权方差特征的匹配方法融合图像P'和R'的暗特征图像,包括以下步骤:
S3.2.4、分别利用局部区域加权方差能量函数求得两幅暗特征图像的高斯加权局部能量;局部区域的加权方差能量函数如公式(20)所示:
S3.2.5、求解两幅图像DP'和DR'的局部区域加权方差能量的匹配度;
图像DP'和图像DR'的局部区域加权方差能量的匹配度利用公式(21)求得:
S3.2.6、利用局部区域加权方差能量和局部区域加权方差能量匹配度融合图像两幅图像DP'和DR',获得暗特征图像的融合结果FD;
两幅图像DP'和DR'的融合公式为:
式中,Th为暗度特征融合相似性判断的阈值,取值为0.5~1;若ME(m,n)<Th,则两幅图像DP'和DR'以点(m,n)为中心的区域不相似,两幅图像DP'和DR'的融合结果选取局部区域加权方差能量大者;否者,两幅图像DP'和DR'的融合结果为系数加权平均;
所述步骤S3.2中利用模糊逻辑和特征差异驱动融合图像P'和R'的细节特征图像,包括以下步骤:
S3.2.7、求得图像P'的细节特征图像PP'和图像R'的细节特征图像PR'的局部梯度;
求解局部梯度的公式为:
S3.2.8、求得细节特征图像PP'和PR'的局部加权方差;
局部加权方差如公式(25)所示:
S3.2.9、求得两幅细节特征图像的局部梯度匹配度、局部加权方差匹配度、局部差异梯度和局部差异方差:
S3.2.10、根据局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)获得基于像素的决策图PDG(m,n),并且根据局部梯度匹配度MT(m,n)和局部加权方差匹配度MV1(m,n)获得特征差异程度决策图DDG,包括以下步骤:
(1)根据局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)获得基于像素的决策图PDG(m,n):当ΔT(m,n)>0,ΔV(m,n)>0时,令PDG(m,n)=p1;当ΔT(m,n)<0,ΔV(m,n)<0时,PDG(m,n)=p2;当ΔT(m,n)>0,ΔV(m,n)<0时,PDG(m,n)=p3;当ΔT(m,n)<0,ΔV(m,n)>0时,令PDG(m,n)=p4;当ΔT(m,n)=0,ΔV(m,n)>0时,令PDG(m,n)=p5;当ΔT(m,n)=0,ΔV(m,n)<0时,令PDG=p6;当ΔT(m,n)>0,ΔV(m,n)=0,令PDG(m,n)=p7;当ΔT(m,n)<0,ΔV(m,n)=0时,令PDG(m,n)=p8;当ΔT(m,n)=0,ΔV(m,n)=0时,令PDG(m,n)=p9;其中p1~p9表示满足上述条件时像素位置为1,其他像素位置为0的决策图;
(2)根据局部梯度匹配度MT(m,n)和局部加权方差匹配度MV(m,n)可获得特征差异程度决策图DDG,如公式(30)所示:
式中,d1和d2表示满足公式(30)对应的像素位置为1,其他像素位置为0的决策图;
S3.2.11、根据基于像素的决策图PDG(m,n)和特征差异程度决策图DDG判定确定区域和不确定区域:
S3.2.12、利用特征差异驱动融合两幅细节特征图像的确定区域;
以局部差异梯度ΔT(m,n)和局部差异方差ΔV(m,n)的乘积作为确定区域融合驱动因素,记为DIF(m,n),如公式(31)所示:
DIF(m,n)=ΔT(m,n)·ΔV(m,n) (31)
式中,“·*”代表矩阵中对应像素位置处值的乘积;
S3.2.13、利用模糊逻辑理论融合两幅细节特征图像的不确定区域;
假设“细节特征图像PP'和PR'的局部梯度是大的”这个条件成立,则隶属函数分别为μT(Pp'(m,n))和μT(PR'(m,n)),假设“细节特征图像PP'和PR'的局部加权方差是大的”这个条件成立,则隶属函数分别为μV(PP'(m,n))和μV(PR'(m,n)),如公式(33)和(34)所示:
式中,k代表P'或R';
利用模糊逻辑的交运算规则可分别计算两幅细节特征图像PP'和PR'在位置(m,n)处的像素值对不确定区域融合图像重要程度的隶属函数,分别记为μT∩V(PP'(m,n))和μT∩V(PR'(m,n)),如公式(35)所示:
μT∩V(Pk(m,n))=min[μT(Pk(m,n)),μV(Pk(m,n))] (35)
式中,k代表P'或R';
则,两幅图像细节特征图像不确定区域的融合结果为:
式中,“·*”代表矩阵中对应像素位置处值的乘积,“·/”代表矩阵中对应像素位置处值的相除;
对FDIF(m,n)进行一致性校验,使用大小3×3的窗口在图像FDIF(m,n)上移动,用窗口周围的像素来验证中心像素;
所述步骤S4中利用步骤S3的融合结果和总强度图像I在YUV空间进行融合的方法为:
将总强度图像I输入YUV空间的Y通道,再将步骤S3的融合结果求反获得图像F',即F'=255-F,再将F'输入到U通道,最后将步骤S3的融合结果F输入到V通道,得到最后的融合图像。
2.如权利要求1所述的基于YUV和多特征分离的红外偏振图像的融合方法,其特征在于,所述步骤S3.3中融合步骤S3.2中的亮特征图像、暗特征图像和细节特征图像的结果是融合包含亮特征的图像FL(m,n)、暗特征的图像FD(m,n)和细节特征的图像FDIF(m,n),融合公式如公式(38)所示:
F=αFL(m,n)+βFD(m,n)+γFDIF(m,n) (38)
式中,α、β和γ为融合权重系数,α取值为1,β取值为0.3,γ取值为1,以满足较少融合图像的过饱和并提高对比度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811180887.1A CN109410161B (zh) | 2018-10-09 | 2018-10-09 | 一种基于yuv和多特征分离的红外偏振图像的融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811180887.1A CN109410161B (zh) | 2018-10-09 | 2018-10-09 | 一种基于yuv和多特征分离的红外偏振图像的融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109410161A CN109410161A (zh) | 2019-03-01 |
CN109410161B true CN109410161B (zh) | 2020-11-13 |
Family
ID=65467525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811180887.1A Active CN109410161B (zh) | 2018-10-09 | 2018-10-09 | 一种基于yuv和多特征分离的红外偏振图像的融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109410161B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111307065B (zh) * | 2020-03-05 | 2021-10-26 | 中国铁道科学研究院集团有限公司基础设施检测研究所 | 基于偏振分光的钢轨廓形检测方法、***及装置 |
CN111383242B (zh) * | 2020-05-29 | 2020-09-29 | 浙江大华技术股份有限公司 | 一种图像透雾处理方法及装置 |
CN112164017B (zh) * | 2020-09-27 | 2023-11-17 | 中国兵器工业集团第二一四研究所苏州研发中心 | 一种基于深度学习的偏振彩色化方法 |
CN113421205B (zh) * | 2021-07-16 | 2022-11-15 | 合肥工业大学 | 一种结合红外偏振成像的小目标检测方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107253485A (zh) * | 2017-05-16 | 2017-10-17 | 北京交通大学 | 异物侵入检测方法及异物侵入检测装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108389158A (zh) * | 2018-02-12 | 2018-08-10 | 河北大学 | 一种红外和可见光的图像融合方法 |
-
2018
- 2018-10-09 CN CN201811180887.1A patent/CN109410161B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107253485A (zh) * | 2017-05-16 | 2017-10-17 | 北京交通大学 | 异物侵入检测方法及异物侵入检测装置 |
Non-Patent Citations (4)
Title |
---|
Camouflaged Target Separation by Spectral-polarimetric Imagery Fusion with Shearlet Transform and Clustering Segmentation;ZHOU Pu-cheng 等;《International Symposium on Photoelectronic Detection and Imaging 2013:Imaging Sensors and Applications》;20130821;第89081G-4-89081G-5页 * |
一种红外偏振与光强图像的暗原色多特征分离融合方法;郭喆 等;《科学技术与工程》;20170928;第76-78页 * |
模糊逻辑与特征差异驱动的红外偏振图像融合模型;安富 等;《红外技术》;20140421;第308-309页 * |
红外偏振与红外光强图像的伪彩色融合研究;李伟伟 等;《红外技术》;20120220;第109页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109410161A (zh) | 2019-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109410161B (zh) | 一种基于yuv和多特征分离的红外偏振图像的融合方法 | |
He et al. | Haze removal using the difference-structure-preservation prior | |
Galdran et al. | Enhanced variational image dehazing | |
Negru et al. | Exponential contrast restoration in fog conditions for driving assistance | |
Moeslund | Introduction to video and image processing: Building real systems and applications | |
US8457437B2 (en) | System and method for enhancing registered images using edge overlays | |
US20170200051A1 (en) | Re-identifying an object in a test image | |
AU2013213659B2 (en) | Method and system for using fingerprints to track moving objects in video | |
CN109409186B (zh) | 用于对象检测和通知的驾驶员辅助***和方法 | |
CN106096604A (zh) | 基于无人平台的多波段融合探测方法 | |
CN105678318B (zh) | 交通标牌的匹配方法及装置 | |
Chen et al. | An advanced visibility restoration algorithm for single hazy images | |
Halmaoui et al. | Contrast restoration of road images taken in foggy weather | |
CN112508814B (zh) | 一种基于无人机低空视角下的图像色调修复型去雾增强方法 | |
Wang et al. | Variational based smoke removal in laparoscopic images | |
CN116091372B (zh) | 基于层分离和重参数的红外和可见光图像融合方法 | |
CN106023108A (zh) | 基于边界约束和上下文正则化的图像去雾算法 | |
CN109410160B (zh) | 基于多特征和特征差异驱动的红外偏振图像融合方法 | |
Stone et al. | Forward looking anomaly detection via fusion of infrared and color imagery | |
Asmare et al. | Image Enhancement by Fusion in Contourlet Transform. | |
Pal et al. | Visibility enhancement techniques for fog degraded images: a comparative analysis with performance evaluation | |
de Oliveira Gaya et al. | Single image restoration for participating media based on prior fusion | |
CN107301625B (zh) | 基于亮度融合网络的图像去雾方法 | |
Qian et al. | Effective contrast enhancement method for color night vision | |
Lai et al. | Single image dehazing with optimal transmission map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |