CN104809734A - 一种基于引导滤波的红外图像与可见光图像融合的方法 - Google Patents
一种基于引导滤波的红外图像与可见光图像融合的方法 Download PDFInfo
- Publication number
- CN104809734A CN104809734A CN201510236219.6A CN201510236219A CN104809734A CN 104809734 A CN104809734 A CN 104809734A CN 201510236219 A CN201510236219 A CN 201510236219A CN 104809734 A CN104809734 A CN 104809734A
- Authority
- CN
- China
- Prior art keywords
- image
- sub
- band
- infrared
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001914 filtration Methods 0.000 title claims abstract description 60
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 9
- 230000004927 fusion Effects 0.000 claims abstract description 49
- 238000000034 method Methods 0.000 claims abstract description 40
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 33
- 230000009466 transformation Effects 0.000 claims abstract description 6
- 238000005070 sampling Methods 0.000 claims description 12
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000011282 treatment Methods 0.000 claims description 8
- 238000009499 grossing Methods 0.000 claims description 3
- 230000005855 radiation Effects 0.000 abstract description 13
- 230000002441 reversible effect Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 9
- 238000013519 translation Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000717 retained effect Effects 0.000 description 4
- 230000002146 bilateral effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000000539 dimer Substances 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于引导滤波的红外图像与可见光图像融合的方法,该方法首先将引导滤波扩展到多尺度,用多尺度引导滤波对红外图像和可见光图像进行多尺度分解得到低频子带和高频子带;将高频子带进行非下采样方向滤波,得到方向子带系数;对方向子带系数和低频子带系数应用不同的融合规则,获得相应的融合后方向子带系数和低频子带系数;最后进行方向滤波重构和基于引导滤波的多尺度逆变换,得到最终的融合图像。采用本发明得到的融合结果,既较好地保持了红外图像目标的边缘和热辐射特征,又能较好地保留可见光图像的场景细节,增加了融合图像的信息含有量,使得融合图像的边缘与细节更丰富。
Description
技术领域
本发明涉及图像信息处理技术领域,尤其是涉及一种基于引导滤波的红外图像与可见光图像融合的方法。
背景技术
多传感器图像融合技术,是指将不同传感器获得的同一场景的图像或同一传感器在不同时刻获得的同一场景的图像,经过去噪、时间配准、空间配准和重采样后,再运用某种融合技术得到一幅合成图像的过程。相对于单个传感器信号的信息来讲,由于来自多个传感器信号所提供的信息具有冗余性和互补性,可通过对多源信息的融合,克服单一传感器在光谱、空间分辨率等方面存在的局限性,获得包含各个源图像特征信息的质量更好的图像,最大限度地获取目标场景的信息描述,有利于对特定事件和现象进行定位、识别和解释。
图像的多尺度分解过程与计算机视觉和人眼视觉***中由粗到细认识事物的过程十分相似,因此,基于多尺度分解的图像融合算法得到了越来越多学者的重视,也成为目前应用非常广泛并且极其重要的一类算法。以小波变换和金字塔分解为代表的多尺度分析方法在红外与可见光图像融合中取得了巨大成功,但这两种算法也存在各自的缺点和不足:金字塔分解使不同层次间的数据具有相关性,经金字塔分解后图像的大小是源图像的4/3,增加了数据量,可能会引入虚假信息;而小波变换只有水平、垂直和对角3个高频方向信息,不具有各向异性,无法精确地表达图像的边缘、线状特征,并且由于缺乏平移不变性,图像边缘存在块状效应。非线性滤波在平滑图像时能够克服这一缺点,其在分解过程中可较好地消除在边缘处产生的块效应,保持图像的边缘。目前应用较广的非线性滤波是双边滤波,但双边滤波在一个像素周围(通常是边缘附近)有很多相似的像素时,高斯平均权重不稳定,在边缘处会产生不希望的轮廓,并且双边滤波的计算效率较低。
发明内容
本发明的目的就是提供一种基于引导滤波的红外图像与可见光图像融合的方法,既可以保留红外图像中热目标的边缘和热辐射特征,又可以保留可见光图像中的场景细节特征,最大程度地增加融合图像的信息含有量,提高融合图像的质量。
本发明的目的是这样实现的:一种基于引导滤波的红外图像与可见光图像融合的方法,包括如下步骤:
a、利用引导滤波器对红外图像进行多尺度分解,得到一个红外低频子带图像和若干不同尺度的红外高频子带图像;利用多尺度引导滤波器对可见光图像进行多尺度分解,得到一个可见光低频子带图像和若干不同尺度的可见光高频子带图像;分解得到的红外高频子带图像的尺度数与可见光高频子带图像的尺度数相同;
b、利用非下采样方向滤波器组对红外高频子带图像进行方向滤波,得到每一尺度上若干不同方向的红外高频方向子带图像;利用非下采样方向滤波器组对可见光高频子带图像进行方向滤波,得到每一尺度上若干不同方向的可见光高频方向子带图像;每一尺度上若干不同方向的红外高频方向子带图像与相同尺度上的可见光高频方向子带图像在方向上一一对应;
c、采用基于显著性的融合规则,对每一尺度上同一方向的红外高频方向子带图像与可见光高频方向子带图像进行融合处理,得到相应方向上融合后的高频方向子带图像;
d、对每一尺度上若干不同方向的融合后的高频方向子带图像进行方向滤波重构,得到相应尺度上融合后的高频子带图像;
e、采用取平均的融合规则对红外低频子带图像和可见光低频子带图像进行融合处理,得到融合后的低频子带图像;
f、对融合后的低频子带图像和若干不同尺度的融合后的高频子带图像进行多尺度逆变换,得到最终的融合图像。
步骤a中,引导滤波函数f为:
式(1)中,系数ak、bk、和分别如下:
式(1)~式(5)中,P为输入图像,G为引导图像,|w|为窗口内的像素个数,μk为引导图像G在局部窗口wk的均值,为引导图像G在局部窗口wk的方差,为输入图像P在局部窗口wk中的均值,ε为平滑因子;
采用引导滤波函数f对红外图像进行多尺度分解,依据的公式如下:
采用引导滤波函数f对可见光图像进行多尺度分解,依据的公式如下:
多尺度分解后所得的红外低频子带图像和红外高频子带图像分别为:
多尺度分解后所得的可见光低频子带图像和可见光高频子带图像分别为:
式(6)、(7)、(9)和(11)中,l的取值为1、2、……、L,L即为采用引导滤波函数f对红外图像和可见光图像分解的尺度数。
步骤c具体为:针对每一尺度上同一方向的红外高频方向子带图像与可见光高频方向子带图像,分别计算两者的显著性;选取显著性值大的高频方向子带系数作为相应位置上融合后的高频方向子带系数。
对红外高频方向子带图像和可见光高频方向子带图像的显著性进行计算,所依据的公式如下:
S(i,j,kl)=|Iμ-Iw(i,j,kl)| (12)
式(12)中,S(i,j,kl)为显著性值,Iμ为均值,Iw(i,j,kl)为高斯滤波值,kl为第l尺度上高频子带图像被分解的方向数。
公式(1)中,引导图像G与输入图像P相同。
本发明将引导滤波扩展为多尺度,利用多尺度引导滤波分别对红外图像和可见光图像进行多尺度分解,引导滤波在平滑图像的同时还能保持其边缘,并且使用大窗口处理图片效率较高。方向信息是图像的重要特征,利用非下采样方向滤波器组分别对红外高频子带图像和可见光高频子带图像进行方向滤波,既满足平移不变性,又具有多方向分解的优点,能够高效获取图像的方向信息。本发明方法将红外图像与可见光图像分别进行多尺度引导滤波分解,再将得到的红外高频子带图像和可见光高频子带图像分别进行非下采样方向滤波获得方向信息,从而更加有效地捕获图像的重要特征。在对红外高频方向子带图像和可见光高频方向子带图像融合的过程中,采用基于视觉显著性的融合规则,使得融合结果更符合人眼的视觉特征。本发明中采用的多尺度引导滤波与方向滤波都是非下采样的,具有平移不变性,避免了振铃效应。由于多尺度引导滤波与方向滤波都是完全重构的,因此本发明方法也是完全重构的。
附图说明
图1是本发明的方法流程图。
图2是本发明实施例中待融合的红外源图像和可见光源图像的示意图;其中,图2a为红外源图像,图2b为可见光源图像。
图3是采用本发明和现有方法对图2中两幅源图像融合后的各融合结果示意图;其中,图3a为~图3f分别为采用AVG、LP、GP、DWT、SIDWT和本发明方法所得的融合图像。
图4是图3各图像中包含目标(人)图像的局部图像示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明,本发明的实施例是一幅红外图像和一幅可见光图像进行融合。如图1所示,具体实施步骤如下:
步骤1、将引导滤波扩展到多尺度,迭代进行引导滤波的形式,对源图像(包括可见光源图像和红外源图像)进行多尺度引导滤波分解,得到低频子带图像 和高频子带图像其中,i和j为图像像素点的位置,为可见光低频子带图像,为红外低频子带图像,为可见光高频子带图像,为红外高频子带图像,L为分解的尺度数,或称分解的层数。
引导滤波在平滑图像的同时具有较好的边缘保持效果,且没有梯度逆转伪影的影响。引导滤波器是滤波速度最快的边缘保持滤波器之一。本发明方法将引导滤波扩展到多尺度,采用多尺度引导滤波将图像分解为一个低频子带图像和若干不同尺度的高频子带图像,分解后的子带图像大小与源图像一致,具有平移不变性。
引导滤波函数f公式如下:
公式(1)中,线性系数ak、bk、和的计算公式分别如下:
上面几个式子中,f(P,G)为引导滤波函数,P为输入图像,G为引导图像,I为输出图像,|w|为窗口内的像素个数。μk为引导图像G在局部窗口wk的均值,为引导图像G在局部窗口wk的方差,为输入图像P在局部窗口wk的均值,ε为平滑因子。本发明中将输入图像作为引导图像,即:G=P。
采用引导滤波函数f对红外图像进行多尺度分解,依据的公式如下:
采用引导滤波函数f对可见光图像进行多尺度分解,依据的公式如下:
式(6)和式(7)中,l的取值为1、2、……、L,L即为采用引导滤波函数f对红外图像和可见光图像分解的尺度数或层数。式(6)和式(7)所表示的意思为:第l+1层图像即是采用引导滤波函数f对上一层图像(即第l层图像)滤波(或称分解)的结果。l取1时,为红外图像的源图像(即红外源图像),为可见光图像的源图像(即可见光源图像)。
多尺度分解后所得的红外低频子带图像和红外高频子带图像分别为:
多尺度分解后所得的可见光低频子带图像和可见光高频子带图像分别为:
经引导滤波函数f对源图像进行多次迭代引导滤波所得的各层次的子带图像中,最高层次的子带图像所保留的是源图像的低频特征信息,其它层次保留的是源图像的高频细节特征信息,因此红外低频子带图像是对红外图像分解后的最高层次的红外子带图像,可见光低频子带图像是对可见光图像分解后的最高层次的可见光子带图像;红外高频子带图像是相邻尺度近似红外子带图像的差,即可见光高频子带图像是相邻尺度近似可见光子带图像的差,即其中,l=1,2,…,L,即本发明中对红外图像(红外源图像)进行多尺度分解后的尺度数(或称层次数)与对可见光图像(可见光源图像)进行多尺度分解后的尺度数(或称层次数)相同,均为L层。对源图像进行多尺度分解后的层次数为L,则分解后得到一个低频子带图像和L个不同尺度(或称不同层次)上的高频子带图像。
本发明中经过多尺度引导滤波对源图像进行多尺度分解,得到的低频子带图像和高频子带图像的大小均与源图像大小一致,具有平移不变性。
步骤2、利用非下采样方向滤波器组对红外高频子带图像进行方向滤波,得到每一尺度上若干不同方向的红外高频方向子带图像利用非下采样方向滤波器组对可见光高频子带图像进行方向滤波,得到每一尺度上若干不同方向的可见光高频方向子带图像l为对应的尺度或层数,kl表示第l层细节子带图像被分解的方向数。本发明中红外高频子带图像在每一尺度上被分解的方向数与可见光高频子带图像在对应尺度上被分解的方向数相同,即:在同一尺度上,分解后的红外高频方向子带图像与分解后的可见光高频方向子带图像一一对应,且一一对应的红外高频方向子带图像与可见光高频方向子带图像在方向上是一致的。
本发明使用的方向滤波器组由树结构的二带***组成,其最基本的方向滤波为二带分割,即根据频率域的分割把图像分为两个部分,然后二带分割迭代地应用到前面分割的结果就可得到多带分割。因为多带分割把频率域分割到不同的方向楔形,利用这些滤波器组对多尺度引导滤波后获得的高频细节子带图像进行滤波即可得到高频方向子带图像。本发明中方向滤波过程采用的非下采样方向滤波,即没有下采样,而是对滤波器组作相应的上采样,因此,本发明的方向滤波过程是平移不变的。
步骤3、采用基于显著性的融合规则,对每一尺度上同一方向的红外高频方向子带图像与可见光高频方向子带图像进行融合处理,得到相应方向上融合后的高频方向子带图像。
具体融合方法为:针对每一尺度上同一方向的红外高频方向子带图像与可见光高频方向子带图像,分别计算两者的显著性;计算显著性时,是对方向子带图像中的所有像素点的显著性进行一一计算;对两个待融合的方向子带图像的同一位置处的像素点的显著性进行计算后,选取显著性值大的高频方向子带系数作为相应位置上融合后的高频方向子带系数。
本发明中采用显著性的融合规则对每一尺度上同一方向的红外高频方向子带图像和可见光高频方向子带图像进行融合处理,得到相应方向上融合后的高频方向子带图像过程,这其中引入了显著性融合算子。本发明中的显著性融合算子的计算公式为:
S(i,j,kl)=|Iμ-Iw(i,j,kl)| (12)
式(12)中,S(i,j,kl)为显著性值,Iμ为均值,Iw(i,j,kl)为高斯滤波值,kl为第l尺度上高频子带图像被分解的方向数。
经过计算后选取显著性值大的高频方向子带系数作为相应方向上融合后的高频方向子带系数。
步骤4、对每一尺度上若干不同方向的融合后的高频方向子带图像进行方向滤波重构,得到相应尺度上融合后的高频子带图像。
步骤5、采用取平均的融合规则对红外低频子带图像和可见光低频子带图像进行融合处理,得到融合后的低频子带图像。
本步骤中引入平均算子,取红外低频子带图像和可见光低频子带图像的平均值作为融合后的低频子带图像。
步骤6、对融合后的低频子带图像和若干不同尺度上的融合后的高频子带图像进行多尺度逆变换,得到最终的融合图像。
为了验证本发明方法的有效性,采用本发明方法融合图2中的红外源图像与可见光源图像,并将融合结果与采用现有经典方法融合的结果进行比较,现有的经典方法包括:加权平均方法(AVG)、拉普拉斯金字塔变换(LP)、梯度金字塔变换(GP)、离散小波变换(DWT)、平移不变离散小波变换(SIDWT)。采用现有经典方法对红外源图像与可见光源图像进行融合时,源图像的分解层数均为三层,高频子带图像均采用能量加权平均规则,低频子带图像采用取平均的融合规则。基于DWT变换的融合方法选用DBSS(2,2)小波,基于SIDWT变换的融合方法选用haar小波。采用本发明方法融合时,源图像的分解层数也为三层,且对这三层高频子带图像进行相应的方向滤波后,每一层上分解的方向数分别为8,8和16。方向数一般为2n,对于不同层次,方向数可以不同,方向数一般都是预设好的。
采用现有方法和本发明对图2中红外源图像(图2a)与可见光源图像(图2b)进行融合后,所得结果如图3所示。图2a红外源图像中目标(人)非常明显,而图2b可见光源图像中的环境细节非常清晰。在将图2a和图2b进行融合后,除了基于加权平均的融合方法外,其它方法都能较好地保存环境细节。而对于目标(人),结合图3和图4,图4为图3中各图像中的目标(人)图像的局部放大,本发明方法能更为完整地保留目标的亮度特征,获得与原始红外源图像同样清晰的目标(人),对比度较高,在场景中目标的指示能力更加显著,而其它融合方法的目标比较暗淡,在图像中的整体对比度较低,目标指示能力弱。
采用均值、标准差、空间频率、熵、联合熵和互信息等客观评价指标对上述各方法的融合结果进行质量评价,所得结果如表1所示。
表1对采用本发明和现有方法所得的融合图像的客观评价结果
其中,均值是图像的平均亮度,均值越大,图像越亮;标准差描述了图像灰度相对于平均灰度的离散程度,标准差越大,图像反差越大,可看出的信息就越丰富;空间频率反映一幅图像空间的总体活跃程度,空间频率越大,表示融合效果越好;熵反映了图像中信息的丰富程度,熵越大表明信息量越大;联合熵可以作为两幅图像之间相关性的量度,它反映了两幅图像之间的联合信息,联合熵越大,图像所包含的信息越丰富;互信息反映了融合图像对原始图像的信息保持度,互信息值越大,说明融合图像从源图像中获取的信息越丰富,融合效果越好。
表1中指标提高程度指的是,将采用其他方法所得指标中和本发明相比效果最好的那项指标,与本发明中的指标进行比较,本发明中指标相对其他方法所得的效果最好的指标所提高的程度。从表1的客观评价结果可以看出,采用本发明方法所得的融合图像质量均明显优于其它方法,这与主观评价结果是一致的,表明本发明方法能够从源图像上提取更多的有用信息并注入到融合图像中,得到效果更好的融合结果。
与传统图像融合方法比较可知,不论是从客观评价指标上,还是从主观视觉效果上,本发明的方法都具有明显的优势,本发明既可较好地保持红外图像目标的边缘和热辐射特征,又能较好地保留可见光图像的场景细节,增加了融合图像的信息含有量,使得融合图像的边缘与细节更丰富,是一种可行的图像融合方法。
Claims (5)
1.一种基于引导滤波的红外图像与可见光图像融合的方法,其特征是,包括如下步骤:
a、利用引导滤波器对红外图像进行多尺度分解,得到一个红外低频子带图像和若干不同尺度的红外高频子带图像;利用多尺度引导滤波器对可见光图像进行多尺度分解,得到一个可见光低频子带图像和若干不同尺度的可见光高频子带图像;分解得到的红外高频子带图像的尺度数与可见光高频子带图像的尺度数相同;
b、利用非下采样方向滤波器组对红外高频子带图像进行方向滤波,得到每一尺度上若干不同方向的红外高频方向子带图像;利用非下采样方向滤波器组对可见光高频子带图像进行方向滤波,得到每一尺度上若干不同方向的可见光高频方向子带图像;每一尺度上若干不同方向的红外高频方向子带图像与相同尺度上的可见光高频方向子带图像在方向上一一对应;
c、采用基于显著性的融合规则,对每一尺度上同一方向的红外高频方向子带图像与可见光高频方向子带图像进行融合处理,得到相应方向上融合后的高频方向子带图像;
d、对每一尺度上若干不同方向的融合后的高频方向子带图像进行方向滤波重构,得到相应尺度上融合后的高频子带图像;
e、采用取平均的融合规则对红外低频子带图像和可见光低频子带图像进行融合处理,得到融合后的低频子带图像;
f、对融合后的低频子带图像和若干不同尺度的融合后的高频子带图像进行多尺度逆变换,得到最终的融合图像。
2.根据权利要求1所述的基于引导滤波的红外图像与可见光图像融合的方法,其特征是,步骤a中,引导滤波函数f为:
式(1)中,系数ak、bk、和分别如下:
式(1)~式(5)中,P为输入图像,G为引导图像,|w|为窗口内的像素个数,μk为引导图像G在局部窗口wk的均值,为引导图像G在局部窗口wk的方差,为输入图像P在局部窗口wk中的均值,ε为平滑因子;
采用引导滤波函数f对红外图像进行多尺度分解,依据的公式如下:
采用引导滤波函数f对可见光图像进行多尺度分解,依据的公式如下:
多尺度分解后所得的红外低频子带图像和红外高频子带图像分别为:
多尺度分解后所得的可见光低频子带图像和可见光高频子带图像分别为:
式(6)、(7)、(9)和(11)中,l的取值为1、2、……、L,L即为采用引导滤波函数f对红外图像和可见光图像分解的尺度数。
3.根据权利要求2所述的基于引导滤波的红外图像与可见光图像融合的方法,其特征是,步骤c具体为:针对每一尺度上同一方向的红外高频方向子带图像与可见光高频方向子带图像,分别计算两者的显著性;选取显著性值大的高频方向子带系数作为相应位置上融合后的高频方向子带系数。
4.根据权利要求3所述的基于引导滤波的红外图像与可见光图像融合的方法,其特征是,对红外高频方向子带图像和可见光高频方向子带图像的显著性进行计算,所依据的公式如下:
S(i,j,kl)=|Iμ-Iw(i,j,kl)| (12)
式(12)中,S(i,j,kl)为显著性值,Iμ为均值,Iw(i,j,kl)为高斯滤波值,kl为第l尺度上高频子带图像被分解的方向数。
5.根据权利要求2所述的基于引导滤波的红外图像与可见光图像融合方法,其特征是,公式(1)中,引导图像G与输入图像P相同。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510236219.6A CN104809734B (zh) | 2015-05-11 | 2015-05-11 | 一种基于引导滤波的红外图像与可见光图像融合的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510236219.6A CN104809734B (zh) | 2015-05-11 | 2015-05-11 | 一种基于引导滤波的红外图像与可见光图像融合的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104809734A true CN104809734A (zh) | 2015-07-29 |
CN104809734B CN104809734B (zh) | 2018-07-27 |
Family
ID=53694539
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510236219.6A Active CN104809734B (zh) | 2015-05-11 | 2015-05-11 | 一种基于引导滤波的红外图像与可见光图像融合的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104809734B (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106846288A (zh) * | 2017-01-17 | 2017-06-13 | 中北大学 | 一种双模态红外图像差异特征指数测度的多算法融合方法 |
CN106897986A (zh) * | 2017-01-23 | 2017-06-27 | 浙江大学 | 一种基于多尺度分析的可见光图像与远红外图像融合方法 |
CN107169944A (zh) * | 2017-04-21 | 2017-09-15 | 北京理工大学 | 一种基于多尺度对比度的红外与可见光图像融合方法 |
CN107784642A (zh) * | 2016-08-26 | 2018-03-09 | 北京航空航天大学 | 一种红外视频和可见光视频自适应融合方法 |
CN107909112A (zh) * | 2017-11-27 | 2018-04-13 | 中北大学 | 一种红外光强与偏振图像多类变元组合的融合方法 |
CN107977950A (zh) * | 2017-12-06 | 2018-05-01 | 上海交通大学 | 基于多尺度指导滤波的快速有效视频图像融合方法 |
CN108090886A (zh) * | 2018-01-11 | 2018-05-29 | 南京大学 | 一种高动态范围红外图像的显示与细节增强方法 |
CN108389158A (zh) * | 2018-02-12 | 2018-08-10 | 河北大学 | 一种红外和可见光的图像融合方法 |
CN108648165A (zh) * | 2018-05-10 | 2018-10-12 | 西安电子科技大学 | 基于自动调节引导滤波器参数的遥感图像融合方法 |
CN108830818A (zh) * | 2018-05-07 | 2018-11-16 | 西北工业大学 | 一种快速多聚焦图像融合方法 |
CN108961154A (zh) * | 2018-07-13 | 2018-12-07 | 福州大学 | 基于改进非下采样轮廓波变换的太阳电池热斑检测方法 |
CN109035189A (zh) * | 2018-07-17 | 2018-12-18 | 桂林电子科技大学 | 基于柯西模糊函数的红外与弱可见光图像融合方法 |
CN109447909A (zh) * | 2018-09-30 | 2019-03-08 | 安徽四创电子股份有限公司 | 基于视觉显著性的红外与可见光图像融合方法及*** |
CN109658371A (zh) * | 2018-12-05 | 2019-04-19 | 北京林业大学 | 红外图像与可见光图像的融合方法、***及相关设备 |
CN109754384A (zh) * | 2018-12-18 | 2019-05-14 | 电子科技大学 | 一种非制冷红外分焦平面阵列的红外偏振图像融合方法 |
CN109859148A (zh) * | 2017-11-30 | 2019-06-07 | 中国科学院苏州纳米技术与纳米仿生研究所 | 红外热图像处理方法及装置 |
CN109919884A (zh) * | 2019-01-30 | 2019-06-21 | 西北工业大学 | 基于高斯滤波加权的红外和可见光图像融合方法 |
CN111462028A (zh) * | 2020-03-16 | 2020-07-28 | 中国地质大学(武汉) | 基于相位一致性和目标增强的红外和可见光图像融合方法 |
CN112017139A (zh) * | 2020-09-14 | 2020-12-01 | 南昌航空大学 | 一种红外与可见光图像感知融合方法 |
CN112132753A (zh) * | 2020-11-06 | 2020-12-25 | 湖南大学 | 多尺度结构引导图像的红外图像超分辨率方法及*** |
CN112419212A (zh) * | 2020-10-15 | 2021-02-26 | 卡乐微视科技(云南)有限公司 | 一种基于侧窗引导滤波的红外与可见光图像融合方法 |
CN113177904A (zh) * | 2021-05-21 | 2021-07-27 | 西安邮电大学 | 一种图像融合方法及*** |
CN113421200A (zh) * | 2021-06-23 | 2021-09-21 | 中国矿业大学(北京) | 基于多尺度变换与脉冲耦合神经网络的图像融合方法 |
CN114066786A (zh) * | 2020-08-03 | 2022-02-18 | 四川大学 | 一种基于稀疏和滤波器的红外和可见光图像融合方法 |
CN115797244A (zh) * | 2023-02-07 | 2023-03-14 | 中国科学院长春光学精密机械与物理研究所 | 基于多尺度方向共现滤波器与强度传递的图像融合方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107545554A (zh) * | 2017-04-25 | 2018-01-05 | 西北工业大学 | 一种基于导向滤波的两级遥感图像融合方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120263371A1 (en) * | 2011-04-12 | 2012-10-18 | Semeion Centro Ricerche | Method of image fusion |
CN103400360A (zh) * | 2013-08-03 | 2013-11-20 | 浙江农林大学 | 基于Wedgelet和NSCT的多源图像融合方法 |
-
2015
- 2015-05-11 CN CN201510236219.6A patent/CN104809734B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120263371A1 (en) * | 2011-04-12 | 2012-10-18 | Semeion Centro Ricerche | Method of image fusion |
CN103400360A (zh) * | 2013-08-03 | 2013-11-20 | 浙江农林大学 | 基于Wedgelet和NSCT的多源图像融合方法 |
Non-Patent Citations (3)
Title |
---|
刘鸳鸳 等: "基于递归引导滤波的高动态范围图像调整", 《福建电脑》 * |
李俊峰 等: "基于多方向àtrous 小波变换的多传感器图像融合", 《计算机工程与应用》 * |
高红霞: "基于引导图像的边缘噪声滤波算法", 《科学技术与工程》 * |
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107784642A (zh) * | 2016-08-26 | 2018-03-09 | 北京航空航天大学 | 一种红外视频和可见光视频自适应融合方法 |
CN106846288A (zh) * | 2017-01-17 | 2017-06-13 | 中北大学 | 一种双模态红外图像差异特征指数测度的多算法融合方法 |
CN106846288B (zh) * | 2017-01-17 | 2019-09-06 | 中北大学 | 一种双模态红外图像差异特征指数测度的多算法融合方法 |
CN106897986A (zh) * | 2017-01-23 | 2017-06-27 | 浙江大学 | 一种基于多尺度分析的可见光图像与远红外图像融合方法 |
CN106897986B (zh) * | 2017-01-23 | 2019-08-20 | 浙江大学 | 一种基于多尺度分析的可见光图像与远红外图像融合方法 |
CN107169944A (zh) * | 2017-04-21 | 2017-09-15 | 北京理工大学 | 一种基于多尺度对比度的红外与可见光图像融合方法 |
CN107909112B (zh) * | 2017-11-27 | 2020-08-18 | 中北大学 | 一种红外光强与偏振图像多类变元组合的融合方法 |
CN107909112A (zh) * | 2017-11-27 | 2018-04-13 | 中北大学 | 一种红外光强与偏振图像多类变元组合的融合方法 |
CN109859148A (zh) * | 2017-11-30 | 2019-06-07 | 中国科学院苏州纳米技术与纳米仿生研究所 | 红外热图像处理方法及装置 |
CN107977950B (zh) * | 2017-12-06 | 2021-06-04 | 上海交通大学 | 基于多尺度指导滤波的快速有效视频图像融合方法 |
CN107977950A (zh) * | 2017-12-06 | 2018-05-01 | 上海交通大学 | 基于多尺度指导滤波的快速有效视频图像融合方法 |
CN108090886B (zh) * | 2018-01-11 | 2022-04-22 | 南京大学 | 一种高动态范围红外图像的显示与细节增强方法 |
CN108090886A (zh) * | 2018-01-11 | 2018-05-29 | 南京大学 | 一种高动态范围红外图像的显示与细节增强方法 |
CN108389158A (zh) * | 2018-02-12 | 2018-08-10 | 河北大学 | 一种红外和可见光的图像融合方法 |
CN108830818B (zh) * | 2018-05-07 | 2022-05-27 | 西北工业大学 | 一种快速多聚焦图像融合方法 |
CN108830818A (zh) * | 2018-05-07 | 2018-11-16 | 西北工业大学 | 一种快速多聚焦图像融合方法 |
CN108648165A (zh) * | 2018-05-10 | 2018-10-12 | 西安电子科技大学 | 基于自动调节引导滤波器参数的遥感图像融合方法 |
CN108648165B (zh) * | 2018-05-10 | 2020-07-28 | 西安电子科技大学 | 基于自动调节引导滤波器参数的遥感图像融合方法 |
CN108961154B (zh) * | 2018-07-13 | 2022-12-23 | 福州大学 | 基于改进非下采样轮廓波变换的太阳电池热斑检测方法 |
CN108961154A (zh) * | 2018-07-13 | 2018-12-07 | 福州大学 | 基于改进非下采样轮廓波变换的太阳电池热斑检测方法 |
CN109035189B (zh) * | 2018-07-17 | 2021-07-23 | 桂林电子科技大学 | 基于柯西模糊函数的红外与弱可见光图像融合方法 |
CN109035189A (zh) * | 2018-07-17 | 2018-12-18 | 桂林电子科技大学 | 基于柯西模糊函数的红外与弱可见光图像融合方法 |
CN109447909A (zh) * | 2018-09-30 | 2019-03-08 | 安徽四创电子股份有限公司 | 基于视觉显著性的红外与可见光图像融合方法及*** |
CN109658371B (zh) * | 2018-12-05 | 2020-12-15 | 北京林业大学 | 红外图像与可见光图像的融合方法、***及相关设备 |
CN109658371A (zh) * | 2018-12-05 | 2019-04-19 | 北京林业大学 | 红外图像与可见光图像的融合方法、***及相关设备 |
CN109754384B (zh) * | 2018-12-18 | 2022-11-22 | 电子科技大学 | 一种非制冷红外分焦平面阵列的红外偏振图像融合方法 |
CN109754384A (zh) * | 2018-12-18 | 2019-05-14 | 电子科技大学 | 一种非制冷红外分焦平面阵列的红外偏振图像融合方法 |
CN109919884A (zh) * | 2019-01-30 | 2019-06-21 | 西北工业大学 | 基于高斯滤波加权的红外和可见光图像融合方法 |
CN111462028A (zh) * | 2020-03-16 | 2020-07-28 | 中国地质大学(武汉) | 基于相位一致性和目标增强的红外和可见光图像融合方法 |
CN111462028B (zh) * | 2020-03-16 | 2023-06-27 | 中国地质大学(武汉) | 基于相位一致性和目标增强的红外和可见光图像融合方法 |
CN114066786A (zh) * | 2020-08-03 | 2022-02-18 | 四川大学 | 一种基于稀疏和滤波器的红外和可见光图像融合方法 |
CN112017139A (zh) * | 2020-09-14 | 2020-12-01 | 南昌航空大学 | 一种红外与可见光图像感知融合方法 |
CN112017139B (zh) * | 2020-09-14 | 2023-04-07 | 南昌航空大学 | 一种红外与可见光图像感知融合方法 |
CN112419212A (zh) * | 2020-10-15 | 2021-02-26 | 卡乐微视科技(云南)有限公司 | 一种基于侧窗引导滤波的红外与可见光图像融合方法 |
CN112419212B (zh) * | 2020-10-15 | 2024-05-17 | 卡乐微视科技(云南)有限公司 | 一种基于侧窗引导滤波的红外与可见光图像融合方法 |
CN112132753B (zh) * | 2020-11-06 | 2022-04-05 | 湖南大学 | 多尺度结构引导图像的红外图像超分辨率方法及*** |
CN112132753A (zh) * | 2020-11-06 | 2020-12-25 | 湖南大学 | 多尺度结构引导图像的红外图像超分辨率方法及*** |
CN113177904A (zh) * | 2021-05-21 | 2021-07-27 | 西安邮电大学 | 一种图像融合方法及*** |
CN113177904B (zh) * | 2021-05-21 | 2024-04-19 | 西安邮电大学 | 一种图像融合方法及*** |
CN113421200A (zh) * | 2021-06-23 | 2021-09-21 | 中国矿业大学(北京) | 基于多尺度变换与脉冲耦合神经网络的图像融合方法 |
CN115797244A (zh) * | 2023-02-07 | 2023-03-14 | 中国科学院长春光学精密机械与物理研究所 | 基于多尺度方向共现滤波器与强度传递的图像融合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104809734B (zh) | 2018-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104809734A (zh) | 一种基于引导滤波的红外图像与可见光图像融合的方法 | |
Gan et al. | Infrared and visible image fusion with the use of multi-scale edge-preserving decomposition and guided image filter | |
Jin et al. | Infrared and visual image fusion method based on discrete cosine transform and local spatial frequency in discrete stationary wavelet transform domain | |
Xiao-Hui et al. | Fusion algorithm for remote sensing images based on nonsubsampled contourlet transform | |
Adu et al. | Image fusion based on nonsubsampled contourlet transform for infrared and visible light image | |
CN104835130A (zh) | 一种多曝光图像融合方法 | |
CN103093441B (zh) | 基于变换域的非局部均值和双变量模型的图像去噪方法 | |
CN103295201B (zh) | 一种基于nsst域iicm的多传感器图像融合方法 | |
CN104200452A (zh) | 基于谱图小波变换的红外与可见光图像融合方法及其装置 | |
CN104408700A (zh) | 基于形态学和pca的轮廓波红外与可见光图像融合方法 | |
CN105719263A (zh) | 基于nsct域底层视觉特征的可见光和红外图像融合算法 | |
CN104268847A (zh) | 一种基于交互非局部均值滤波的红外与可见光图像融合方法 | |
CN104657965A (zh) | 基于离散连续曲波的偏振图像融合方法 | |
Lv et al. | Remote sensing image enhancement based on the combination of nonsubsampled shearlet transform and guided filtering | |
CN1251145C (zh) | 综合边缘和纹理信息的金字塔图像融合方法 | |
Zhao et al. | Image fusion algorithm based on redundant-lifting NSWMDA and adaptive PCNN | |
Zhang et al. | An image fusion method based on curvelet transform and guided filter enhancement | |
Liu et al. | An effective wavelet-based scheme for multi-focus image fusion | |
Xing et al. | Infrared and visible image fusion based on nonlinear enhancement and NSST decomposition | |
Zhong et al. | A fusion approach to infrared and visible images with Gabor filter and sigmoid function | |
Yang et al. | Infrared and visible image fusion based on QNSCT and Guided Filter | |
Gao et al. | Infrared and visible image fusion using dual-tree complex wavelet transform and convolutional sparse representation | |
Lan et al. | Multimodal medical image fusion using wavelet transform and human vision system | |
Song et al. | A Novel Fusion Framework Based on Adaptive PCNN in NSCT Domain for Whole‐Body PET and CT Images | |
Johnson et al. | Curvelet transform based retinal image analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |