CN109816617A - 基于导向滤波和图论显著性的多模态医学图像融合方法 - Google Patents

基于导向滤波和图论显著性的多模态医学图像融合方法 Download PDF

Info

Publication number
CN109816617A
CN109816617A CN201811487076.6A CN201811487076A CN109816617A CN 109816617 A CN109816617 A CN 109816617A CN 201811487076 A CN201811487076 A CN 201811487076A CN 109816617 A CN109816617 A CN 109816617A
Authority
CN
China
Prior art keywords
image
indicate
coefficient
smooth
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811487076.6A
Other languages
English (en)
Other versions
CN109816617B (zh
Inventor
李伟生
贾玲慧
冯思琴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201811487076.6A priority Critical patent/CN109816617B/zh
Publication of CN109816617A publication Critical patent/CN109816617A/zh
Application granted granted Critical
Publication of CN109816617B publication Critical patent/CN109816617B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明请求保护一种基于导向滤波和图论显著性的多模态医学图像融合方法,主要用于融合多模态医学图像,包括步骤:S1得到待融合图像的平滑子带图像和细节子带图像;S2利用图论显著性方法构造融合规则重组平滑子带系数和细节子带系数;S3重构融合后的平滑子带系数和细节子带系数得到融合后的图像。本发明基于导向滤波算法的分解方法时间复杂度较低,保证融合图像且在分解过程中能有效的减少噪声的干扰,增加方法的鲁棒性;同时利用图论的显著性方法来提取平滑子带图像的亮度、颜色和方向特征,能保留灰度图像的亮度信息和伪彩色图像的颜色信息,有效解决其他融合方法融合图像亮度信息丢失和色彩失真问题,保证融合图像的质量。

Description

基于导向滤波和图论显著性的多模态医学图像融合方法
技术领域
本发明属于图像处理技术领域,用于融合多个模态的医学图像,主要是灰色图像(MRI)和伪彩色图像(PET)的融合,即MRI-PET融合和灰度图像(MRI)和灰度图像(CT)的融合即MRI-CT的融合,特别涉及利用导向滤波算法和图论显著性算法。
背景技术
目前,图像融合是图像处理研究领域的一个研究热点,主要的研究方法可概括为两类:基于空域的图像融合方法和基于频域的图像融合方法。
基于空域的图像融合方法是直接对原图像构造融合规则来得到融合图像,常用的基于空域的图像融合方法包括简单的加权平均,基于PCA变换的融合方法和基于IHS变换的融合融合方法。该类方法的优点在于操作简单,时间复杂度低,但会丢失大量的边缘轮廓等重要的细节信息。基于频域的图像融合方法主要包括三大类:基于塔型变换的图像融合方法、基于小波变换的图像融合方法和基于几何变换的图像融合方法。与基于空域的融合方法相比,基于频域的图像融合方法能在多个尺度上提取显著性特征,使得融合后的图像能尽可能多的保留原图像的信息。基于塔型变换的图像融合方法主要将原始图像分解为不同尺度的高频和低频图像,优点在于能提取更多的图像信息,但高频图像不具备方向性;基于小波变换的图像融合方法能在水平、垂直、对角三个方向上进行分解,但不能很好的表示边角信息;基于轮廓波变换的图像融合方法能在多个方向上分解原图像,但不具备平移不变性,会产生伪影。为了解决多尺度分解方法产生伪影和时间复杂度高的问题,李树涛等人提出了基于边缘保持滤波器分解的图像融合方法,具有时间复杂度低,能很好的保留原图像的边缘轮廓信息的优点。
目前图像融合方法众多,虽都各具优点,但也存在很多问题,总结起来主要主要包括(1)时间复杂度高;(2)亮度信息丢失;(3)色彩失真;(4)边缘信息丢失;(5)抗干扰能力差。导向滤波算法具有平滑去噪的能力,图论显著性方法能提取图像的亮度、颜色、方向信息,使得融合后的图像能保留原图像的亮度信息和颜色信息,并具有一定的抗噪能力,因此将两种算法结合起来用于图像融合,能取得很好的融合结果。
发明内容
本发明旨在解决以上现有技术亮度信息丢失,色彩失真和抗噪能力差的问题。提出了一种有效平滑噪声,并将图像分解为多个尺度,能在多个尺度上提取特征的基于导向滤波和图论显著性的多模态医学图像融合方法,主要用于融合灰度图像(MRI)和伪彩色图像(PET),即一种基于导向滤波和图论显著性的多模态医学图像融合方法。本发明的技术方案如下:
一种基于导向滤波和图论显著性的多模态医学图像融合方法,其包括以下步骤:
S1、首先利用导向滤波算法对原始输入图像A和B进行L次不同的平滑操作,平滑半径为r=(21,22,...2L),得到一系列平滑子带图像Ci和一系列细节子带图像Di,Di=I-Ci,其中i表示第i个尺度。
S2、其次,利用图论显著性构造融合规则,主要包含三个步骤:活跃度测量步骤、系数分组步骤及系数重组步骤;
S3、最后利用求和方法对子带图像系数进行重构,得到融合后的图像F,F=FC+FD,FC表示融合后的平滑子带图像FD表示融合后的细节子带图像。
进一步地,所述步骤S1的导向滤波算法假设引导图像I和输出图像Q之间是一个线性模型:
式(1)中,ωk表示以i为中心,大小为(2r+1)×(2r+1)的窗口,(ak,bk)是ωk中的两个系数。我们把输入图像P作为引导图像I,要求输出图像Q尽可能多的保留原图像的信息,即输出图像Q和输入图像P的误差尽可能的小,误差表达如下:
式(2)中,∈是一个正则化系数,防止求得的ak太大。通过最小二乘法求得:
式(3)和式(4)中,μk分别表示ωk中I的均值和方差,|ω|表示ωk中的像素总和,表示P在ωk中的均值。我们利用导向滤波算法进行图像分解时,利用滑动窗口对原始输入图像A和B进行L次不同的平滑操作,平滑半径为r=(21,22,23),得到一系列平滑子带图像Ci。再通过Di=I-Ci得到一系列细节子带图像Di,其中i表示第i个尺度,i=1,2,3。由于在平滑滤波时(ak,bk)会被多个窗口ωk包含,所以我们最终求得输出图像即平滑子带图像为:
式(5)中,|ω|表示ωk中的像素总和,ωi表示以i为中心,大小为(2r+1)×(2r+1)的窗口。
进一步地,所述步骤S2的活跃度测量步骤:由于A和B的平滑子带图像系数包含原图像的大量结构、亮度和颜色信息,利用图论显著性方法来提取这些子带图像的亮度、颜色和方向显著性特征,且每幅子带图像对应生成一幅显著图其中表示A和B的平滑子带图像的显著图,GBVS()表示图论显著性方法获取显著图,表示A和B的平滑子带图像系数。对于A和B的细节子带图像系数,我们利用信息熵函数来衡量每幅子带图像所携带的信息大小,其中pI(i)表示输入图像的像素值,生成显著图EN表示信息熵函数,表示A和B的细节子带系数的显著图,表示A和B的细节子带图像系数。
进一步地,所述步骤S2的活跃度测量步骤中利用图论显著性方法(GBVS)获取显著图的具体步骤为:
(1)特征提取和特征图生成:利用高斯采样方法在图像的r、g、b三个通道上构建图像的颜色、亮度和方向的金字塔,然后用高斯金字塔和中心-周围差值算法计算图像的亮度、颜色和方向特征,并将中心像素的尺度设为c∈{2,3,4},周围像素的尺度设为s=c+δ,δ∈{3,4},以便于能在多个尺度上提取特征,表示点到点的相减。得到亮度特征为:
式(6)中,I=(r+g+b)/3,r、g、b表示图像的红、绿、蓝三个通道系数,I(c)和I(s)表示在c和s尺度上求解亮度特征I,I(c,s)表示在c,s尺度上的亮度特征。
通过模拟皮层中的“颜色双竞争”***表示:在接受野中心,神经元被一种颜色激活而禁止另外一种颜色,而在周围区域则是相反的。在主视觉皮层中,红/绿,绿/红,蓝/黄,黄/蓝颜色对都存在这种空间和色彩竞争关系。因此,产生RG(c,s)和BY(c,s)特征图来反映双竞争关系。RG(c,s)和BY(c,s)表达式如下:
式(7)和式(8)中,R=r-(g+b)/2,G=g-(r+b)/2,B=b-(r+g)/2,Y=(r+g)/2-|r-g|/2-b,r、g、b表示图像的红、绿、蓝三个通道系数,R(c)、G(c)、B(c)、Y(c)表示在尺度c上求解R、G、B、Y值,R(s),G(s),B(s),Y(s)表示在尺度s上求解R、G、B、Y值。
采用方向Gabor金字塔得到局部方向信息,得到方向特征图: O(c,θ)表示在尺度c和角度为θ时的方向特征,O(s,θ)表示在尺度s和角度为θ时的方向特征。
(2)特征显著性计算和特征显著图生成:研究学者认为一个点与其相邻的点的差异越大,则其显著性越大,所以基于图论显著性方法(GBVS)在得到了多个亮度、颜色和方向特征图后,利用图论的思想和马尔科夫链算法对这些特征图进行显著性计算和特征图组合生成显著图。假设对于特征图M中的点p和点q,两点的不相似性为:
式(9)中,M(p)和M(q)分别表示p和q的特征值。
假设特征图M中的所有像素点构成一个全连接图GA,图中任意一个顶点与其他n-1个顶点相连,GA中点p到点q的有向边的权值为:
式(10)中(px,py),(qx,qy)表示点p和点q的空间坐标,δ表示随机参数。
在GA中定义马尔科夫链,并将边上的权重归一化到[0,1],使得对于任意一个顶点,作为始点的所有边的权重之和为1。图论显著性方法将GA中的节点类比为马尔科夫链的状态,有向边的权重类比为转移概率,马尔科夫链模型为:
式(11)中ai和aj表示状态,pji表示状态转移概率,n表示n个状态,最后能得到稳定状态的马尔科夫链表示特征显著性状态,得到特征显著图S(a1,a2,…,an)。
进一步地,所述步骤S2中的系数分组步骤中,由于显著图的值越大代表所携带的重要信息越多,通过分别比较同一幅原图像的平滑子带和细节子带图的显著图的值的大小来生成决策图D,且决策图的值由0或1组成,构建方式如下:
式(12)中分别代表图像A的平滑子带图像和细节子带图像的决策图,表示A图像的平滑子带图像和细节子带图像在第i个尺度的显著图,n表示n个尺度,本文中n=3,式(13)中分别代表图像B的平滑子带图像和细节子带图像的决策图,表示B图像的平滑子带图像和细节子带图像在第i个尺度的显著图,n表示n个尺度,本文中n=3。
进一步地,所述步骤S2中的系数重组步骤主要利用加权平均的方法对子带系数进行重组,加权平均方法的思想是把融合系数看做是输入图像与权重图的线性乘积之和,把系数分组步骤中得到的决策图D作为权重图,最后分别对原图像A和B的多个尺度的平滑子带系数和细节子带系数进行重组得到A和B融合的平滑图像系数和细节图像系数的方法如下:
式(14)和式(15)中,n表示n个尺度,本文中n=3,分别代表图像A的融合后的平滑子带图像系数和细节子带图像系数,表示A图像在第i个尺度上的平滑子带系数和细节子带系数,表示B图像在第i个尺度上的平滑子带系数和细节子带系数,表示在图像A的平滑子带图像和细节子带图像的决策图,表示在图像B的平滑子带图像和细节子带图像的决策图,和分别代表图像B的融合后的平滑子带图像系数和细节子带图像系数;
最后利用平均加权的方法将A和B的融合后的平滑子带系数和细节子带系数进行融合得到最终融合图像F的平滑子带图像和细节子带图像系数,表达式如下:
其中FC和FD分别表示融合后的平滑子带图像系数和细节子带图像系数。
本发明的优点及有益效果如下:
由于基于多尺度分解的融合方法能在多个尺度上提取特征进行融合,且人眼对图像的显著性特征更为敏感,本发明提出一种基于导向滤波算法和图论显著性算法的多模态图像融合方法,利用导向滤波算法将原图像分解为一系列平滑子带图像和细节子带图像,有利于我们在多个尺度上提取特征,能保证融合图像尽可能多的保留原图像的重要信息,并且与其他多尺度分解方法相比,基于导向滤波算法的分解方法时间复杂度较低,保证融合图像且在分解过程中能有效的减少噪声的干扰,增加方法的鲁棒性;同时利用图论的显著性方法来提取平滑子带图像的亮度、颜色和方向特征,能保留灰度图像的亮度信息和伪彩色图像的颜色信息,有效解决其他融合方法融合图像亮度信息丢失和色彩失真问题,保证融合图像的质量。
附图说明
图1是本发明提供优选实施例方法的流程图
图2为输入图像A(MRI)示例
图3为输入图像B(CT)示例
图4为融合后的图像F示例
图5为本专利多模态医学图像的融合实验结果和其他6种方法实验结果
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
本发明的方法流程如图1所示。
本发明涉及了输入原图像示例如图2、图3,融合后图像的示例如图4,本专利图像的融合实验结果和其他6种方法实验结果图示例为图5。
具体步骤:
S1、首先利用导向滤波算法对原始输入图像A和B进行L次不同的平滑操作,平滑半径为r=(21,22,...2l),得到一系列平滑子带图像Ci和一系列细节子带图像Di(Di=I-Ci),本文令L=3;
S2、其次,利用图论显著性构造融合规则,主要包含三个步骤:a)活跃度测量、b)系数分组、c)系数重组。
活跃度测量步骤:由于A和B的平滑子带图像包含原图像的大量结构、亮度和颜色信息,利用图论显著性方法来提取这些子带图像的亮度、颜色和方向显著性特征,且每幅子带图像对应生成一幅显著图其中表示A和B的平滑子带图像的显著图,表示A和B的平滑子带图像系数。对于A和B的细节子带图像,利用信息熵函数来衡量每幅子带图像所携带的信息大小,其中pI(i)表示输入图像的像素值生成显著图S,
系数分组:由于显著图的值越大代表所携带的重要信息越多,通过分别比较同一幅原图像的平滑子带和细节子带图的显著图的值的大小来生成决策图D,且决策图的值由0或1组成,构建方式如下:
式(12)中,分别代表图像A的平滑子带图像和细节子带图像的决策图,表示A图像的平滑子带图像和细节子带图像在第i个尺度的显著图,n表示n个尺度,本文中n=3,式(13)中,分别代表图像B的平滑子带图像和细节子带图像的决策图,表示B图像的平滑子带图像和细节子带图像在第i个尺度的显著图,n表示n个尺度,本文中n=3。
系数重组:利用加权平均的方法对子带系数进行重组,加权平均方法的思想是把融合系数看做是输入图像与权重图的线性乘积之和,本方法把系数重组步骤中得到的决策图D作为权重图,最后分别对原图像A和B的多个尺度的平滑子带系数和细节子带系数进行重组得到A和B融合的平滑图像系数和细节图像系数的方法如下:
式(14)中的分别代表灰度图像A的融合后的平滑子带图像系数和细节子带图像系数,式(15)中和分别代表伪彩色图像B的融合后的平滑子带图像系数和细节子带图像系数。
最后利用平均加权的方法将A和B的融合后的平滑子带系数和细节子带系数进行融合得到最终融合图像F的平滑子带图像和细节子带图像系数,表达式如下:
S3、最后利用求和方法对子带图像系数进行重构,得到融合后的图像F(F=FC+FD)。
为了评估本算法的性能,本发明采用哈佛大学公开数据集中的两种病例作为实验图像集,在本实验中主要采用6种基于频域的多尺度分解方法进行对比,分别是基于小波变换的图像融合方法(DWT),基于梯度金字塔变换的图像融合(GRP),基于导向滤波的图像融合方法(GFF),基于非下采样轮廓波变换的图像融合方法(NSCT),基于稀疏表示的图像融合方法(SR)和基于并行显著性的图像融合方法。
本实验选择了哈佛大学公开数据集的四类病例的40张图像和一种加噪图像的10张图像来进行灰度图像(MRI)和伪彩色图像(PET)即MRI-PET的融合和灰度图像(MRI)和灰度图像(CT)即MRI-CT的融合,对图像的融合质量进行定量评价,主要采用SSIM、MI、IWSSIM、QAC、VSI、GSM作为客观评价指标。实验结果对比表如表1,表2和表3所示。
表1 MRI-PET图像融合客观评价指标
表2 MRI-CT图像融合客观评价指标
表3加噪MRI-PET图像融合客观评价指标
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (6)

1.一种基于导向滤波和图论显著性的多模态医学图像融合方法,其特征在于,包括以下步骤:
S1、首先利用导向滤波算法对原始输入图像A和B进行L次不同的平滑操作,平滑半径为r=(21,22,...2L),得到一系列平滑子带图像Ci和一系列细节子带图像Di,Di=I-Ci,其中i表示第i个尺度;
S2、其次,利用图论显著性构造融合规则,主要包含三个步骤:活跃度测量步骤、系数分组步骤及系数重组步骤;
S3、最后利用求和方法对子带图像系数进行重构,得到融合后的图像F,F=FC+FD,FC表示融合后的平滑子带图像,FD表示融合后的细节子带图像。
2.根据权利要求1所述的基于导向滤波和图论显著性的多模态医学图像融合方法,其特征在于,所述步骤S1的导向滤波算法假设引导图像I和输出图像Q之间是一个线性模型:
式(1)中ωk表示以i为中心,大小为(2r+1)×(2r+1)的窗口,(ak,bk)是ωk中的两个系数,把输入图像P作为引导图像I,要求输出图像Q尽可能多的保留原图像的信息,即输出图像Q和输入图像P的误差尽可能的小,误差表达如下:
式(2)中∈是一个正则化系数,防止求得的ak太大,通过最小二乘法求得:
式(3)和式(4)中,μk分别表示ωk中I的均值和方差,|ω|表示ωk中的像素总和,表示P在ωk中的均值;
利用导向滤波算法进行图像分解时,利用滑动窗口对原始输入图像A和B进行L次不同的平滑操作,平滑半径为r=(21,22,23),得到一系列平滑子带图像Ci,再通过Di=I-Ci得到一系列细节子带图像Di,其中i表示第i个尺度,i=1,2,3,由于在平滑滤波时(ak,bk)会被多个窗口ωk包含,最终求得输出图像即平滑子带图像为:
式(5)中,|ω|表示ωk中的像素总和ωk表示以i为中心,大小为(2r+1)×(2r+1)的窗口。
3.根据权利要求1所述的基于导向滤波和图论显著性的多模态医学图像融合方法,其特征在于,所述步骤S2的活跃度测量步骤具体包括:
由于A和B的平滑子带图像系数包含原图像的大量结构、亮度和颜色信息,利用图论显著性方法来提取这些子带图像的亮度、颜色和方向显著性特征,且每幅子带图像对应生成一幅显著图其中表示A和B的平滑子带图像的显著图,GBVS()表示图论显著性方法获取显著图,表示A和B的平滑子带图像系数,对于A和B的细节子带图像系数,利用信息熵函数来衡量每幅子带图像所携带的信息大小,其中pI(i)表示输入图像的像素值,生成显著图EN表示信息熵函数,表示A和B的细节子带系数的显著图,表示A和B的细节子带图像系数。
4.根据权利要求1所述的基于导向滤波和图论显著性的多模态医学图像融合方法,其特征在于,所述步骤S2的活跃度测量步骤中利用图论显著性方法(GBVS)获取显著图的具体步骤为:
(1)特征提取和特征图生成:利用高斯采样方法在图像的r、g、b三个通道上构建图像的颜色、亮度和方向的金字塔,然后用高斯金字塔和中心-周围差值算法计算图像的亮度、颜色和方向特征,并将中心像素的尺度设为c∈{2,3,4},周围像素的尺度设为s=c+δ,δ∈{3,4},以便于能在多个尺度上提取特征,表示点到点的相减。得到亮度特征为:
式(6)I=(r+g+b)/3,r、g、b表示图像的红、绿、蓝三个通道系数,I(c)和I(s)表示在c和s尺度上求解亮度特征I,I(c,s)表示在c,s尺度上的亮度特征;
通过模拟皮层中的“颜色双竞争”***表示:在接受野中心,神经元被一种颜色激活而禁止另外一种颜色,而在周围区域则是相反的,在主视觉皮层中,红/绿,绿/红,蓝/黄,黄/蓝颜色对都存在这种空间和色彩竞争关系,因此,产生RG(c,s)和BY(c,s)特征图来反映双竞争关系,RG(c,s)和BY(c,s)表达式如下:
式(7)和式(8)中R=r-(g+b)/2,G=g-(r+b)/2,B=b-(r+g)/2,Y=(r+g)/2-|r-g|/2-b,r、g、b表示图像的红、绿、蓝三个通道系数,R(c)、G(c)、B(c)、Y(c)表示在尺度c上求解R、G、B、Y值,R(s),G(s),B(s),Y(s)表示在尺度s上求解R、G、B、Y值;
采用方向Gabor金字塔得到局部方向信息,得到方向特征图:O(c,s,θ)=|O(c,θ)θ∈{0°,45°,90°,135°},O(c,θ)表示在尺度c和角度为θ时的方向特征,O(s,θ)表示在尺度s和角度为θ时的方向特征;
(2)特征显著性计算和特征显著图生成:研究学者认为一个点与其相邻的点的差异越大,则其显著性越大,所以基于图论显著性方法(GBVS)在得到了多个亮度、颜色和方向特征图后,利用图论的思想和马尔科夫链算法对这些特征图进行显著性计算和特征图组合生成显著图,假设对于特征图M中的点p和点q,两点的不相似性为:
式(9)中M(p)和M(q)分别表示点p和q的特征值;
假设特征图M中的所有像素点构成一个全连接图GA,图中任意一个顶点与其他n-1个顶点相连,GA中点p到点q的有向边的权值为:
式(10)中(px,py),(qx,qy)表示点p和点q的空间坐标,δ表示随机参数;
在GA中定义马尔科夫链,并将边上的权重归一化到[0,1],使得对于任意一个顶点,作为始点的所有边的权重之和为1。图论显著性方法将GA中的节点类比为马尔科夫链的状态,有向边的权重类比为转移概率,马尔科夫链模型为:
式(11)中ai和aj表示状态,pji表示状态转移概率,n表示n个状态,最后能得到稳定状态的马尔科夫链表示特征显著性状态,得到特征显著图S(a1,a2,…,an)。
5.根据权利要求3所述的基于导向滤波和图论显著性的多模态医学图像融合方法,其特征在于,所述步骤S2中的系数分组步骤中,由于显著图的值越大代表所携带的重要信息越多,通过分别比较同一幅原图像的平滑子带和细节子带图的显著图的值的大小来生成决策图D,且决策图的值由0或1组成,构建方式如下:
式(12)中分别代表图像A的平滑子带图像和细节子带图像的决策图,表示A图像的平滑子带图像和细节子带图像在第i个尺度的显著图,n表示n个尺度,本文中n=3,式(13)中分别代表图像B的平滑子带图像和细节子带图像的决策图,表示B图像的平滑子带图像和细节子带图像在第i个尺度的显著图,n表示n个尺度,本文中n=3。
6.根据权利要求4所述的基于导向滤波和图论显著性的多模态医学图像融合方法,其特征在于,所述步骤S2中的系数重组步骤主要利用加权平均的方法对子带系数进行重组,加权平均方法的思想是把融合系数看做是输入图像与权重图的线性乘积之和,把系数分组步骤中得到的决策图D作为权重图,最后分别对原图像A和B的多个尺度的平滑子带系数和细节子带系数进行重组得到A和B融合的平滑图像系数和细节图像系数的方法如下:
式(14)和式(15)中,n表示n个尺度,本文中n=3,分别代表图像A的融合后的平滑子带图像系数和细节子带图像系数,表示A图像在第i个尺度上的平滑子带系数和细节子带系数,表示B图像在第i个尺度上的平滑子带系数和细节子带系数,表示在图像A的平滑子带图像和细节子带图像的决策图,表示在图像B的平滑子带图像和细节子带图像的决策图,和分别代表图像B的融合后的平滑子带图像系数和细节子带图像系数;
最后利用平均加权的方法将A和B的融合后的平滑子带系数和细节子带系数进行融合得到最终融合图像F的平滑子带图像和细节子带图像系数,表达式如下:
其中FC和FD分别表示融合后的平滑子带图像系数和细节子带图像系数。
CN201811487076.6A 2018-12-06 2018-12-06 基于导向滤波和图论显著性的多模态医学图像融合方法 Active CN109816617B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811487076.6A CN109816617B (zh) 2018-12-06 2018-12-06 基于导向滤波和图论显著性的多模态医学图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811487076.6A CN109816617B (zh) 2018-12-06 2018-12-06 基于导向滤波和图论显著性的多模态医学图像融合方法

Publications (2)

Publication Number Publication Date
CN109816617A true CN109816617A (zh) 2019-05-28
CN109816617B CN109816617B (zh) 2023-05-26

Family

ID=66601962

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811487076.6A Active CN109816617B (zh) 2018-12-06 2018-12-06 基于导向滤波和图论显著性的多模态医学图像融合方法

Country Status (1)

Country Link
CN (1) CN109816617B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111683234A (zh) * 2020-06-04 2020-09-18 深圳开立生物医疗科技股份有限公司 一种内窥镜成像方法、装置及相关设备
CN113313645A (zh) * 2021-05-26 2021-08-27 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、终端及可读存储介质
CN113327207A (zh) * 2021-06-03 2021-08-31 广州光锥元信息科技有限公司 应用于图像人脸优化的方法及装置
CN117437151A (zh) * 2023-12-21 2024-01-23 成都市晶林科技有限公司 一种噪声抑制的伪彩映射方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107248150A (zh) * 2017-07-31 2017-10-13 杭州电子科技大学 一种基于导向滤波显著区域提取的多尺度图像融合方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107248150A (zh) * 2017-07-31 2017-10-13 杭州电子科技大学 一种基于导向滤波显著区域提取的多尺度图像融合方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
张学典 等: "显著性分析在对焦图像融合方面的应用", 《光电工程》 *
许磊 等: "基于多尺度分解和显著性区域提取的可见光红外图像融合方法", 《激光与光电子学进展》 *
陈乐瑞 等: "基于显著性和导向滤波的图像融合算法研究", 《工业控制计算机》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111683234A (zh) * 2020-06-04 2020-09-18 深圳开立生物医疗科技股份有限公司 一种内窥镜成像方法、装置及相关设备
CN111683234B (zh) * 2020-06-04 2022-05-31 深圳开立生物医疗科技股份有限公司 一种内窥镜成像方法、装置及相关设备
CN113313645A (zh) * 2021-05-26 2021-08-27 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、终端及可读存储介质
CN113313645B (zh) * 2021-05-26 2024-05-03 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、终端及可读存储介质
CN113327207A (zh) * 2021-06-03 2021-08-31 广州光锥元信息科技有限公司 应用于图像人脸优化的方法及装置
CN113327207B (zh) * 2021-06-03 2023-12-08 广州光锥元信息科技有限公司 应用于图像人脸优化的方法及装置
CN117437151A (zh) * 2023-12-21 2024-01-23 成都市晶林科技有限公司 一种噪声抑制的伪彩映射方法
CN117437151B (zh) * 2023-12-21 2024-03-08 成都市晶林科技有限公司 一种噪声抑制的伪彩映射方法

Also Published As

Publication number Publication date
CN109816617B (zh) 2023-05-26

Similar Documents

Publication Publication Date Title
CN109816617A (zh) 基于导向滤波和图论显著性的多模态医学图像融合方法
Du et al. An overview of multi-modal medical image fusion
Chai et al. Image fusion using quaternion wavelet transform and multiple features
Singh et al. Multimodal medical image sensor fusion model using sparse K-SVD dictionary learning in nonsubsampled shearlet domain
CN103985099B (zh) 一种弥散张量磁共振图像张量域非局部均值去噪方法
CN104282007B (zh) 基于非采样的轮廓波变换自适应的医学图像融合方法
CN107341786A (zh) 小波变换与联合稀疏表示的红外与可见光图像融合方法
CN108710910A (zh) 一种基于卷积神经网络的目标识别方法及***
Sinha et al. Medical image processing
Leeds et al. Comparing visual representations across human fMRI and computational vision
CN109064437A (zh) 一种基于引导滤波和在线字典学习的图像融合方法
Shabanzade et al. Combination of wavelet and contourlet transforms for PET and MRI image fusion
CN109242812A (zh) 基于显著性检测与奇异值分解的图像融合方法及装置
CN109934887A (zh) 一种基于改进的脉冲耦合神经网络的医学图像融合方法
CN109191416A (zh) 基于稀疏字典学习和剪切波的图像融合方法
CN106709967A (zh) 一种内窥成像算法及控制***
CN103793711A (zh) 一种基于脑部核磁共振图像的多维度纹理提取方法
CN106650606A (zh) 人脸图像的匹配及处理方法、人脸图像模型构建***
Bhateja et al. Medical image fusion in wavelet and ridgelet domains: a comparative evaluation
Zhou et al. An infrared and visible image fusion method based on VGG-19 network
CN106897999A (zh) 基于尺度不变特征变换的苹果图像融合方法
CN106056565A (zh) 一种基于多尺度形态学双边滤波分解和对比度压缩的mri与pet图像融合方法
CN112150564A (zh) 基于深度卷积神经网络医学图像融合算法
Lu et al. Infrared and visible image fusion based on tight frame learning via VGG19 network
Huang Wavelet for image fusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant