CN104268833B - 基于平移不变剪切波变换的图像融合方法 - Google Patents
基于平移不变剪切波变换的图像融合方法 Download PDFInfo
- Publication number
- CN104268833B CN104268833B CN201410470345.3A CN201410470345A CN104268833B CN 104268833 B CN104268833 B CN 104268833B CN 201410470345 A CN201410470345 A CN 201410470345A CN 104268833 B CN104268833 B CN 104268833B
- Authority
- CN
- China
- Prior art keywords
- value
- matrix
- image
- frequency sub
- band
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于平移不变剪切波变换(SIST)的图像融合方法。其实现步骤为:首先通过SIST对源图像进行多尺度多方向分解,获得低频子带及高频子带系数。其次,低频子带反映了图像的轮廓信息,通过局部结构张量奇异值分解方法得到辨识图像清晰度的局部结构描述子,以此作为融合策略中的活动测度函数,采用取大的策略融合。高频子带体现了图像的细节信息,本发明提出了一种改进的边缘强度度量方式,并构造了一种基于sigmoid函数与边缘强度度量的多策略融合规则用于高频子带融合。最后,对得到的融合系数进行逆SIST变换得到最终融合图像。本发明克服了传统图像融合方法容易造成边缘失真的缺陷,融合图像保留了更多的边缘和细节信息。
Description
技术领域
本发明属于图像融合及其应用领域,尤其是涉及一种基于平移不变剪切波变换的图像融合方法。
背景技术
图像融合是数据融合的一个重要的分支,是当前信息融合研究中的一个热点。图像融合是指对多个图像传感器获得的互补或冗余信息进行集合的过程,从而使融合图像更适合人类的视觉感知或计算机处理。图像融合技术广泛应用于军事、遥感、医学等多个领域。
从目前研究方法来看,图像融合的方法有两大类:基于空间域和基于变换域。基于空间域最简单的方法是直接对原始图像的像素进行加权平均,实现简单,但是融合结果对比度降低。基于变换域的图像融合方法在图像融合领域中得到广泛应用。常用的变换域方法如拉普拉斯金字塔变换、梯度金字塔变换,小波变换等。但是金字塔方法无法获得方向性信息。小波变换只能捕获水平、垂直和对角三个方向的信息,且只能有效地处理含“点奇异”的函数类,对具有“线奇异”或“面奇异”的高维函数无能为力。因此,多尺度分析得到了广泛的关注,常用的多尺度分析方法包括脊波(Ridgelet)变换、曲波(Curvelet)变换、轮廓波(Contourlet)变换、剪切波(Shearlet)变换等。Ridgelet适合捕捉直线信息,在处理曲线时效果不好。Curvelet实现过于复杂。Contourlet变换具有很强的方向选择能力,可以有效地表示信号中具有方向性的奇异性特征,但是由于缺乏平移不变性,在奇异点附近容易引入伪Gibbs现象。为了克服这个缺点,Cunha等人提出非下采样轮廓波变换(NSCT),NSCT具有平移不变性,但是NSCT计算复杂度较高,实现复杂。为了解决上述变换存在的问题,Guo等人提出了具有合成膨胀仿射***的剪切波变换(ST),相比于其他图像融合中常用的多尺度变换工具,它能够准确的探测奇异点的方向,并且提供图像的最优稀疏近似。然而,由于剪切波离散化过程中采用了下采样操作,缺乏平移不变性,在图像融合时容易在奇异点附近产生伪Gibbs现象。为了克服上述问题,Easley等人提出了平移不变剪切波变换(SIST)理论,它具备当前流行多尺度分析的所有优点且实现过程没有下采样操作,因而具备平移不变性,这些优点使得SIST在图像融合领域很有发展前景。
尽管SIST为图像融合提供了有效的工具,但一个好的融合算法不仅依赖于有效的分解工具,还依赖于融合规则的设计。融合规则中常用的融合策略可以分为两大类:“取大”和“加权平均”。“取大”融合策略根据提取的特征选择特征值大的系数作为融合系数;例如:Wang等人提出的基于NSCT的图像融合方法,见Image fusion algorithm based onnonsubsampled contourlet transform,Future Computer and Communication(ICFCC),2010 2nd International Conference on.IEEE,2010,1:V1-220-V1-224,该方法提取空间频率特征,根据空间频率采用“取大”融合策略选择融合系数;Li等人提出的基于Shearlet和局部能量的多聚焦图像融合方法,见Multi-focus image fusion based on shearletand local energy,Signal Processing Systems(ICSPS),2010 2nd InternationalConference on.IEEE,2010,1:V1-632-V1-635,该方法提取局部能量特征,选取局部能量较大的系数作为融合系数。另一类使用较多的融合策略为“加权平均”,“加权平均”融合策略将提取的特征值归一化作为权值经过平均加权处理得到融合系数。例如:Bai等人提出的基于多尺度Top-hat变换的加权图像融合方法,见Weighted image fusion based on multi-scale top-hat transform:Algorithms and a comparison study,Optik-InternationalJournal for Light and Electron Optics,2013,124(13):1660-1668,该方法利用提取的标准差、均值和信息熵特征,采用“加权平均”融合策略获取融合系数;Javed等人提出的基于模糊逻辑和图像局部特征的MRI和PET图像的融合方法,见MRI and PET Image FusionUsing Fuzzy Logic and Image Local Features,The Scientific World Journal,2014,2014,该方法使用“加权平均”融合策略,利用提取的局部特征和模糊逻辑计算权值进行融合。
从上述融合规则的设计可以看出,当图像之间表现为互补性时,往往采用“取大”策略,当图像之间表现为冗余性时,常常采用“加权平均”策略。但是考虑到多源图像之间既有互补性又有冗余性。因此,仅仅依靠单一的融合策略并不能有效提取图像的信息。
发明内容
针对上述现有技术中存在的缺陷或不足,本发明的目的在于,提出一种基于平移不变剪切波变换的图像融合方法,从而达到提高融合图像质量的目的。
本发明的技术方案是,基于平移不变剪切波变换的图像融合方法,其特征是:包括如下步骤:
1)准备待融合的两幅源图像,利用SIST分别将两幅图像分解为低频子带与高频子带系数;
2)对低频子带系数和高频子带系数分别采用不同的融合规则进行融合:
2.1)对于平移不变剪切波低频子带系数,通过局部结构张量奇异值分解方法得到低频子带清晰度的局部结构描述子,以局部结构描述子作为融合策略中的活动测度,采用基于结构张量结构描述子取大的融合策略进行融合;
2.2)对于平移不变剪切波高频子带系数,构造了一种基于协方差矩阵与奇异值分解SVD的多方向边缘强度度量方式,采用基于Sigmoid函数与多方向边缘强度度量的多策略融合规则进行融合;
3)对步骤2)得到的融合系数进行SIST逆变换得到融合图像。
所述步骤1)具体为:将待融合的两幅M×N源图像A和B,利用SIST分别将两幅图像分解为低频子带与高频子带系数:和其中,和为低频子带系数;和为一系列高频子带系数。
所述步骤2.1)包括如下步骤:
a)对于低频子带中的某一点(q,p),q,p分别表示低频系数点的行列坐标,q的取值范围为1到M的正整数,p的取值范围为1到N的正整数,其低频系数值为f(q,p),其梯度为 在(q,p)的t×t邻域,点(q,p)的局部梯度向量为:
其中,k=1,2,…,t2;和分别为q和p方向的导数;
则点(q,p)的局部结构张量为:
其中,k=1,2,…,t2;和分别为q和p方向的导数;
局部结构张量T进行SVD分解为:
其中,U和V是正交矩阵;s1和s2是T的特征值;v1和v2是特征值s1和s2分别对应的特征向量;
度量低频子带清晰度的局部描述子Q为:
b)采用基于结构张量结构描述子Q取大的融合策略进行融合:
其中,和分别表示源图像A、B以及融合图像F在点(q,p)处对应的低频系数,为的局部描述子,表示的清晰度,为的局部描述子,表示的清晰度。
所述步骤2.2)包括如下步骤:
a)计算高频子带系数的边缘强度
①水平边缘强度
以高频子带系数中的某一系数(m,p)为中心开n×n的窗口邻域,得到图像块X,xij为图像块中(i,j)位置的像素值,i,j分别为像素的行坐标与列坐标,取值范围为1到n的正整数,把图像块X的每一行看作观测值,每一列看作变量计算X的协方差矩阵的无偏估计Ch(x)
其中,xi为n维变量的第i个观测值;为观测值的均值;
计算矩阵Ch(x)的特征值,首先利用SVD将矩阵Ch(x)分解,获得奇异值矩阵Σh,然后计算对角特征值矩阵Λh,矩阵Λh的对角代表Ch(x)的特征值,表示Ch(x)的特征值,水平边缘强度λh定义为Ch(x)的特征值的最大值,即
②垂直边缘强度
把图像块X的每一列看作观测值,每一行看作变量计算X的协方差矩阵的无偏估计Cv(y)
其中,yj为n维变量的第j个观测值;为观测值的均值;
计算Cv(y)的特征值λv,首先利用SVD将矩阵Cv(y)分解,获得奇异值矩阵Σv,然后计算对角特征值矩阵Λv,矩阵Λv的对角代表Cv(y)的特征值,表示Cv(y)的特征值,垂直边缘强度λv定义为Cv(y)的特征值的最大值,即
③对角边缘强度
图像块X的主对角方向像素组成图像块Z1,次对角方向像素组成图像块Z2,分别为图像块Z1、Z2中(i,j)位置的像素值,把图像块Z1的每一行看作观测值,每一列看作变量计算Z1的无偏估计同样地,把图像块Z2的每一行看作观测值,每一列看作变量计算Z2的无偏估计Z1和Z2的协方差矩阵的无偏估计和的计算如下:
其中,为n维变量的第i个观测值;为观测值的均值;
计算矩阵和的特征值,首先利用SVD将矩阵分解,获得奇异值矩阵然后计算对角特征值矩阵矩阵的对角代表的特征值,表示的特征值,主对角边缘强度定义为的特征值的最大值;同样地,计算的特征值,表示的特征值,次对角边缘强度定义为的特征值的最大值,即
边缘强度S为水平边缘强度λh、垂直边缘强度λv和两个对角边缘强度的和,即
b)基于Sigmoid函数与多方向边缘强度度量的多策略融合规则
对高频子带采用基于Sigmoid函数与多方向边缘强度度量的多策略融合规则,加权系数ω(l,h)通过Sigmoid函数计算得到,即
其中,和分别表示行为M列为N大小的源图像A、B以及融合图像F在点(l,h)处对应的高频系数值,(l,h)是系数值的行列坐标,l的取值范围为1到M的正整数,h的取值范围为1到N的正整数;分别表示源图像A、B的高频子带系数的边缘强度;K为收缩因子。
本发明与现有技术相比,其显著优点:(1)采用有效的变换工具SIST,具有方向敏感性和平移不变性,可以多尺度多方向地描述图像,它是图像信号(如边缘)真正的二维稀疏表示。(2)利用局部结构张量奇异值分解方法估计图像的局部结构特征,得到一种辨识图像清晰度的描述子。(3)构造了一种改进的辨识细节的边缘强度度量方式,该度量可以有效的提取图像的水平边缘、垂直边缘和对角边缘等边缘细节特征。(4)利用改进的边缘强度度量方式和Sigmoid函数构造了多策略融合规则,该规则根据图像的互补与冗余属性利用Sigmoid函数可以动态的选择融合策略。本发明方法所生成的融合图像纹理丰富,细节突出,具有良好的稳定性和实用性。
附图说明
图1为本发明的流程示意图。
图2a为待融合的‘Clock’右聚焦图像。
图2b为待融合的‘Clock’左聚焦图像。
图2c为本发明对图2a和图2b的融合结果。
图2d为基于梯度金字塔变换的方法对图2a和图2b的融合结果。
图2e为基于平移不变小波变换的方法对图2a和图2b的融合结果。
图2f为基于PCNN和Shearlet的方法对图2a和图2b的融合结果。
图3a为待融合的遥感3-band图像。
图3b为待融合的遥感8-band图像。
图3c为本发明对图3a和图3b的融合结果。
图3d为基于梯度金字塔变换的方法对图3a和图3b的融合结果。
图3e为基于平移不变小波变换的方法对图3a和图3b的融合结果。
图3f为基于PCNN和Shearlet的方法对图3a和图3b的融合结果。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步的详细说明。如图1所示,包括如下步骤:
1)准备待融合的两幅M×N(本实施例中M=256,N=256)源图像A和B,利用SIST分别将两幅图像分解为低频子带与高频子带系数:和其中,和为低频子带系数;和为一系列高频子带系数。SIST采用的滤波器为“maxflat”,分解的方向数为6,6,6。
2)对低频子带系数和高频子带系数分别采用不同的融合规则进行融合:
2.1)对于低频子带系数,通过局部结构张量奇异值分解方法得到辨识图像清晰度的局部结构描述子,以局部结构描述子作为融合策略中的活动测度,采用取大的融合策略进行融合;
a)对于图像中的某一点(q,p),q,p分别表示低频系数点的行列坐标,q的取值范围为1到M的正整数,p的取值范围为1到N的正整数,其低频系数值为f(q,p),其梯度为在(q,p)的t×t(本发明t=3)邻域,点(q,p)的局部梯度向量为:
其中,k=1,2,…,t2;和分别为q和p方向的导数;
则点(q,p)的局部结构张量为:
其中,k=1,2,…,t2;和分别为q和p方向的导数;
局部结构张量T进行SVD分解为:
其中,U和V是正交矩阵;s1和s2是T的特征值;v1和v2是特征值s1和s2分别对应的特征向量;
度量图像清晰度的局部描述子Q为:
b)采用基于局部描述子Q取大的策略进行融合:
其中,和分别表示源图像A、B以及融合图像F在点(q,p)处对应的低频系数,为的局部描述子,表示的清晰度,为的局部描述子,表示的清晰度。
2.2)对于高频子带系数,计算高频系数像素点的边缘强度,采用基于Sigmoid函数与边缘强度度量的多策略融合规则进行融合;
a)计算高频子带系数的边缘强度
①水平边缘强度
以高频子带系数中的某一系数(m,p)为中心开n×n(本发明n=3)的窗口邻域,得到图像块X,xij为图像块中(i,j)位置的像素值,i,j分别为像素的行坐标与列坐标,取值范围为1到n的正整数,把图像块X的每一行看作观测值,每一列看作变量计算X的协方差矩阵的无偏估计Ch(x)
其中,xi为n维变量的第i个观测值;为观测值的均值;
计算矩阵Ch(x)的特征值,首先利用SVD将矩阵Ch(x)分解,获得奇异值矩阵Σh,然后计算对角特征值矩阵Λh,矩阵Λh的对角代表Ch(x)的特征值,表示Ch(x)的特征值,水平边缘强度λh定义为Ch(x)的特征值的最大值,即
②垂直边缘强度
把图像块X的每一列看作观测值,每一行看作变量计算X的协方差矩阵的无偏估计Cv(y)
其中,yj为n维变量的第j个观测值;为观测值的均值;
计算Cv(y)的特征值λv,首先利用SVD将矩阵Cv(y)分解,获得奇异值矩阵Σv,然后计算对角特征值矩阵Λv,矩阵Λv的对角代表Cv(y)的特征值,表示Cv(y)的特征值,垂直边缘强度λv定义为Cv(y)的特征值的最大值,即
③对角边缘强度
图像块X的主对角方向像素组成图像块Z1,次对角方向像素组成图像块Z2,分别为图像块Z1、Z2中(i,j)位置的像素值,把图像块Z1的每一行看作观测值,每一列看作变量计算Z1的无偏估计同样地,把图像块Z2的每一行看作观测值,每一列看作变量计算Z2的无偏估计Z1和Z2的协方差矩阵的无偏估计和的计算如下:
其中,为n维变量的第i个观测值;为观测值的均值;
计算矩阵和的特征值,首先利用SVD将矩阵分解,获得奇异值矩阵然后计算对角特征值矩阵矩阵的对角代表的特征值,表示的特征值,主对角边缘强度定义为的特征值的最大值;同样地,计算的特征值 表示的特征值,次对角边缘强度定义为的特征值的最大值,即
边缘强度S为水平边缘强度λh、垂直边缘强度λv和两个对角边缘强度的和,即
b)基于Sigmoid函数与多方向边缘强度度量的多策略融合规则
对高频子带采用基于Sigmoid函数与多方向边缘强度度量的多策略融合规则,加权系数ω(l,h)通过Sigmoid函数计算得到,即
其中,和分别表示行为M列为N大小的源图像A、B以及融合图像F在点(l,h)处对应的高频系数值,(l,h)是系数值的行列坐标,l的取值范围为1到M的正整数,h的取值范围为1到N的正整数;分别表示源图像A、B的高频子带系数的边缘强度;K为收缩因子。(本实施例中K=80)。
3)对融合系数进行SIST逆变换得到融合图像F。
本发明的效果可以通过以下实验结果作进一步说明:
1、实验条件与方法
硬件平台为:Intel(R)处理器,CPU主频1.80GHz,内存1.0GB;
软件平台为:MATLAB R2009a;实验中采用两组已配准的源图像,即多聚焦‘Clock’图像和遥感‘Band’图像,图像大小均为256×256,bmp格式。‘Clock’源图像见图2(a)和图2(b),图2(a)为‘Clock’图像聚焦在右侧的源图像,图2(b)为‘Clock’图像聚焦在左侧的源图像。‘Band’源图像见图3(a)和3(b),图3(a)为‘Band’遥感3-band源图像,图3(b)为‘Band’遥感8-band源图像。
实验时采用现有的三种融合方法作为对比方法,其中:
方法1为基于梯度金字塔变换的融合方法;
方法2为基于平移不变小波变换的融合方法;
方法3为基于PCNN和Shearlet的融合方法,参见文章《ANovel Algorithm ofImage Fusion Based on PCNN and Shearlet》,International Journal of DigitalContent Technology&its Applications,2011,5(12)。
2、仿真内容
仿真一:遵循本发明的技术方案,对‘Clock’多聚焦源图像(见图2(a)和图2(b))进行融合,图2(c)-图2(f)为本发明方法和对比方法的仿真实验结果。从主观视觉效果来看,方法1的融合图像对比度较低;方法2的融合图像比较模糊;方法3的融合图像左侧闹钟比较模糊;本发明的融合图像整体亮度适中,图像清晰,保留了图像的边缘和细节信息。
仿真二:遵循本发明的技术方案,对一组不同波段的遥感图像(见图3(a)和图3(b))进行融合,图3(c)-图3(f)为本发明方法和对比方法的仿真实验结果。从主观视觉效果来看,方法1的融合图像对比度降低,细节模糊;方法2的融合图像视觉效果有所改善,但是仍不理想;方法3的融合图像对比度降低;本发明的融合图像特征丰富,细节清晰,整体效果理想。
将本发明的融合结果与对比方法的融合结果进行客观指标评价。
表1给出了多聚焦图像‘Clock’融合结果的客观评价指标,
表2给出了遥感图像‘Band’融合结果的客观评价指标,
其中,最优数据以加粗的形式表示。
表1.多聚焦图像融合结果的客观评价指标
算法 | STD | En | AG | SF | QAB/F |
方法1 | 46.7559 | 7.2604 | 8.5311 | 14.7576 | 0.5113 |
方法2 | 48.9593 | 7.2860 | 9.0084 | 15.8921 | 0.5815 |
方法3 | 49.9596 | 7.3751 | 9.5936 | 17.4871 | 0.5835 |
本发明 | 50.8390 | 7.3564 | 11.6653 | 21.6307 | 0.6548 |
表2.遥感图像融合结果的客观评价指标
算法 | STD | En | AG | SF | QAB/F |
方法1 | 57.5358 | 7.2013 | 10.2872 | 21.9183 | 0.4807 |
方法2 | 61.7093 | 7.1090 | 11.9365 | 26.2345 | 0.5731 |
方法3 | 61.5508 | 7.3671 | 13.0376 | 27.8268 | 0.5812 |
本发明 | 64.2883 | 7.2732 | 16.0422 | 34.2710 | 0.6213 |
表1、表2中的STD为标准差,En为信息熵,AG为平均梯度,SF为空间频率,QAB/F为边缘转换率。
标准差STD:表示灰度值相对灰度均值的离散程度,标准差越大,灰度级越分散,图像包含信息越多。
信息熵En:表示图像携带信息量的多少,熵值越大,包含的信息量越多,融合效果越好。
平均梯度AG:表示图像的清晰度,其值越大,图像越清晰。
空间频率SF:表示空间域的总体活跃程度,其值越大,融合效果越好。
边缘转换率QAB/F:表示边缘信息从源图像转移到融合图像的信息量,其值越大,融合图像的边缘越清晰,融合效果越好。
从表1和表2可以看出,本发明的客观指标除了En外其他指标都优于对比方法。
从各仿真实验的融合结果可以看出,本发明的融合图像全局清晰,融合图像信息丰富,含有丰富的边缘和细节信息。无论是主观视觉与客观评价上都检验了本发明的有效性。
Claims (2)
1.基于平移不变剪切波变换的图像融合方法,其特征在于:
1)将待融合的两幅源图像的平移不变剪切波低频子带系数和高频子带系数分别采用不同的融合规则进行融合:
1.1)对于平移不变剪切波低频子带系数,通过局部结构张量奇异值分解方法得到低频子带清晰度的局部结构描述子,以局部结构描述子作为融合策略中的活动测度,采用基于结构张量结构描述子取大的融合策略进行融合;
1.2)对于平移不变剪切波高频子带系数,构造了一种基于协方差矩阵与奇异值分解SVD的多方向边缘强度度量方式,采用基于Sigmoid函数与多方向边缘强度度量的多策略融合规则进行融合;
步骤1.2)包括如下步骤:
a)计算高频子带系数的边缘强度
①水平边缘强度
以高频子带系数中的某一系数(m,p)为中心开n×n的窗口邻域,得到图像块X,xij为图像块中(i,j)位置的像素值,i,j分别为像素的行坐标与列坐标,取值范围为1到n的正整数,把图像块X的每一行看作观测值,每一列看作变量计算X的协方差矩阵的无偏估计Ch(x)
其中,xi为n维变量的第i个观测值;为观测值的均值;
计算矩阵Ch(x)的特征值,首先利用SVD将矩阵Ch(x)分解,获得奇异值矩阵Σh,然后计算对角特征值矩阵Λh,矩阵Λh的对角代表Ch(x)的特征值,表示Ch(x)的特征值,水平边缘强度λh定义为Ch(x)的特征值的最大值,即
②垂直边缘强度
把图像块X的每一列看作观测值,每一行看作变量计算X的协方差矩阵的无偏估计Cv(y)
其中,yj为n维变量的第j个观测值;为观测值的均值;
计算Cv(y)的最大特征值λv,首先利用SVD将矩阵Cv(y)分解,获得奇异值矩阵Σv,然后计算对角特征值矩阵Λv,矩阵Λv的对角代表Cv(y)的特征值,表示Cv(y)的特征值,垂直边缘强度λv定义为Cv(y)的特征值的最大值,即
③对角边缘强度
图像块X的主对角方向像素组成图像块Z1,次对角方向像素组成图像块Z2,分别为图像块Z1、Z2中(i,j)位置的像素值,把图像块Z1的每一行看作观测值,每一列看作变量计算Z1的无偏估计同样地,把图像块Z2的每一行看作观测值,每一列看作变量计算Z2的无偏估计Z1和Z2的协方差矩阵的无偏估计和的计算如下:
其中, 为n维变量的第i个观测值;为观测值的均值;计算矩阵和的特征值,首先利用SVD将矩阵分解,获得奇异值矩阵然后计算对角特征值矩阵 矩阵的对角代表的特征值,表示的特征值,主对角边缘强度定义为的特征值的最大值;同样地,计算的特征值,表示的特征值,次对角边缘强度定义为的特征值的最大值,即
边缘强度S为水平边缘强度λh、垂直边缘强度λv和两个对角边缘强度的和,即
b)基于Sigmoid函数与多方向边缘强度度量的多策略融合规则
对高频子带采用基于Sigmoid函数与多方向边缘强度度量的多策略融合规则,加权系数ω(l,h)通过Sigmoid函数计算得到,即
其中,和分别表示行为M列为N大小的源图像A、B以及融合图像F在点(l,h)处对应的高频系数值,(l,h)是系数值的行列坐标,l的取值范围为1到M的正整数,h的取值范围为1到N的正整数;分别表示源图像A、B的高频子带系数的边缘强度;K为收缩因子。
2.根据权利要求1所述的基于平移不变剪切波变换的图像融合方法,其特征在于,所述步骤1.1)包括如下步骤:
a)对于低频子带中的某一点(q,p),q,p分别表示低频系数点的行列坐标,q的取值范围为1到M的正整数,p的取值范围为1到N的正整数,其低频系数值为f(q,p),其梯度为 在(q,p)的t×t邻域,点(q,p)的局部梯度向量为:
其中,k=1,2,…,t2;和分别为q和p方向的导数;
则点(q,p)的局部结构张量为:
其中,k=1,2,…,t2;和分别为q和p方向的导数;
局部结构张量T进行SVD分解为:
其中,U和V是正交矩阵;s1和s2是T的特征值;v1和v2是特征值s1和s2分别对应的特征向量;
度量低频子带清晰度的局部描述子Q为:
b)采用基于结构张量结构描述子Q取大的融合策略进行融合:
其中,和分别表示源图像A、B以及融合图像F在点(q,p)处对应的低频系数,为的局部描述子,表示的清晰度,为的局部描述子,表示的清晰度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410470345.3A CN104268833B (zh) | 2014-09-15 | 2014-09-15 | 基于平移不变剪切波变换的图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410470345.3A CN104268833B (zh) | 2014-09-15 | 2014-09-15 | 基于平移不变剪切波变换的图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104268833A CN104268833A (zh) | 2015-01-07 |
CN104268833B true CN104268833B (zh) | 2018-06-22 |
Family
ID=52160353
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410470345.3A Active CN104268833B (zh) | 2014-09-15 | 2014-09-15 | 基于平移不变剪切波变换的图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104268833B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104899848A (zh) * | 2015-07-02 | 2015-09-09 | 苏州科技学院 | 一种基于黎曼度量的自适应多策略图像融合方法 |
CN106056564B (zh) * | 2016-05-27 | 2018-10-16 | 西华大学 | 基于联合稀疏模型的边缘清晰图像融合方法 |
CN106127719A (zh) * | 2016-06-20 | 2016-11-16 | 中国矿业大学 | 一种新型的神经网络医学图像融合方法 |
CN106447686A (zh) * | 2016-09-09 | 2017-02-22 | 西北工业大学 | 一种基于快速有限剪切波变换的图像边缘检测方法 |
CN106897987A (zh) * | 2017-01-18 | 2017-06-27 | 江南大学 | 基于平移不变剪切波和栈式自编码的图像融合方法 |
CN106897999A (zh) * | 2017-02-27 | 2017-06-27 | 江南大学 | 基于尺度不变特征变换的苹果图像融合方法 |
CN107610165B (zh) * | 2017-09-12 | 2020-10-23 | 江南大学 | 基于多特征的3-d剪切波域多模态医学序列图像融合方法 |
CN109685058B (zh) * | 2017-10-18 | 2021-07-09 | 杭州海康威视数字技术股份有限公司 | 一种图像目标识别方法、装置及计算机设备 |
CN109685752A (zh) * | 2019-01-09 | 2019-04-26 | 中国科学院长春光学精密机械与物理研究所 | 一种基于块分解的多尺度Shearlet域图像融合处理方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080299177A1 (en) * | 2007-06-06 | 2008-12-04 | Biovaluation & Analysis, Inc. | Supramolecular Complexes for Use in Acoustically Mediated Intracellular Drug Delivery in vivo |
CN102324021B (zh) * | 2011-09-05 | 2013-03-13 | 电子科技大学 | 一种基于剪切波变换的红外弱小目标检测方法 |
CN103049895B (zh) * | 2012-12-17 | 2016-01-20 | 华南理工大学 | 基于平移不变剪切波变换的多模态医学图像融合方法 |
CN103985109B (zh) * | 2014-06-05 | 2017-05-10 | 电子科技大学 | 一种基于3d剪切波变换的特征级医学图像融合方法 |
-
2014
- 2014-09-15 CN CN201410470345.3A patent/CN104268833B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN104268833A (zh) | 2015-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104268833B (zh) | 基于平移不变剪切波变换的图像融合方法 | |
Li et al. | Infrared and visible image fusion using a deep learning framework | |
CN108573276B (zh) | 一种基于高分辨率遥感影像的变化检测方法 | |
CN107578418B (zh) | 一种融合色彩和深度信息的室内场景轮廓检测方法 | |
Xu et al. | Inter/intra-category discriminative features for aerial image classification: A quality-aware selection model | |
WO2022036777A1 (zh) | 基于卷积神经网络的人体动作姿态智能估计方法及装置 | |
CN108648161B (zh) | 非对称核卷积神经网络的双目视觉障碍物检测***及方法 | |
Yu et al. | Hybrid dual-tree complex wavelet transform and support vector machine for digital multi-focus image fusion | |
CN103413151B (zh) | 基于图正则低秩表示维数约简的高光谱图像分类方法 | |
CN104008538B (zh) | 基于单张图像超分辨率方法 | |
CN103455991B (zh) | 一种多聚焦图像融合方法 | |
CN105574534A (zh) | 基于稀疏子空间聚类和低秩表示的显著性目标检测方法 | |
CN103927511B (zh) | 基于差异特征描述的图像识别方法 | |
CN102629374B (zh) | 基于子空间投影和邻域嵌入的图像超分辨率重建方法 | |
CN107730482A (zh) | 一种基于区域能量和方差的稀疏融合算法 | |
CN106897986A (zh) | 一种基于多尺度分析的可见光图像与远红外图像融合方法 | |
CN109215003B (zh) | 一种图像融合方法及装置 | |
CN109784401A (zh) | 一种基于acgan的极化sar图像分类方法 | |
Chen et al. | The enhancement of catenary image with low visibility based on multi-feature fusion network in railway industry | |
CN109146925A (zh) | 一种动态场景下显著性目标检测方法 | |
CN112766165A (zh) | 基于深度神经网络与全景分割的跌倒预判方法 | |
CN103198456B (zh) | 基于方向波域隐马尔可夫树模型的遥感图像融合方法 | |
Aishwarya et al. | An image fusion framework using novel dictionary based sparse representation | |
Wu et al. | A new patch-based two-scale decomposition for infrared and visible image fusion | |
Shen et al. | RETRACTED: A novel Gauss-Laplace operator based on multi-scale convolution for dance motion image enhancement [EAI Endorsed Scal Inf Syst (2022), Online First] |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |