CN104008537A - 结合cs-ct-chmm的噪声图像融合新方法 - Google Patents

结合cs-ct-chmm的噪声图像融合新方法 Download PDF

Info

Publication number
CN104008537A
CN104008537A CN201310540753.7A CN201310540753A CN104008537A CN 104008537 A CN104008537 A CN 104008537A CN 201310540753 A CN201310540753 A CN 201310540753A CN 104008537 A CN104008537 A CN 104008537A
Authority
CN
China
Prior art keywords
image
coefficient
frequency sub
neuron
band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201310540753.7A
Other languages
English (en)
Inventor
罗强
罗晓清
关彪
张红英
吴小俊
张战成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WUXI JINFAN DRILLING EQUIPMENT CO Ltd
Original Assignee
WUXI JINFAN DRILLING EQUIPMENT CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WUXI JINFAN DRILLING EQUIPMENT CO Ltd filed Critical WUXI JINFAN DRILLING EQUIPMENT CO Ltd
Priority to CN201310540753.7A priority Critical patent/CN104008537A/zh
Publication of CN104008537A publication Critical patent/CN104008537A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明涉及一种结合循环平移CS技术和Contourlet域上下文隐马尔科夫模型(CS-CT-CHMM)的噪声图像融合新方法,先对包含一定水平高斯白噪声的源图像采用CS-CT-CHMM去噪,其中上下文Context的构造是根据Contourlet分解系数的父节点、两个最近表兄弟节点及当前节点的邻域熵值计算所得;然后对去噪后的图像执行Shearlet变换,低频子带系数采用加权平均融合策略,高频子带系数利用改进的脉冲耦合神经网络IPCNN模型设计融合规则,最后执行Shearlet逆变换获得融合图像。CS-CT-CHMM去噪方法可以在有效去除噪声的同时保护图像的细节信息,抑制伪吉布斯效应;而Shearlet变换与IPCNN相结合的融合方法在增强图像对比度,信息量方面具有优势,相比传统的融合方法极大地提高了融合图像的质量。

Description

结合CS-CT-CHMM的噪声图像融合新方法
技术领域
本发明涉及一种循环平移CS技术和Contourlet域上下文隐马尔科夫模型结合(CS-CT-CHMM)的噪声图像融合新方法,是数字图像处理技术领域的一项融合方法,在计算机视觉、信号处理、目标识别等***中有广泛地应用。
背景技术
图像融合是将两个或两个以上传感器在同一时间或不同时间获取的关于某个具体场景的两幅或多幅图像进行有效综合,以生成关于此场景信息更为全面、准确、可靠的描述的处理过程。图像融合不仅能弥补单一信息源获取图像信息的不足,提高图像的分辨率,提升视觉效果,增强可识别性,而且通过整合原始图像有用的互补特征在一定程度上减少了冗余信息,消除了图像潜在的不确定性和歧义性。然而,图像在量化、编码、传输和存储的过程中常会受到成像设备和光照、温度等外界因素的影响而引入噪声干扰使图像降质,如不消除必将影响到融合、分类、目标检测、模式识别或特征提取等后续更高级的处理研究,故采用有效的方法尽可能去除噪声干扰是相当重要的预处理步骤。
图像去噪的目的是在保留图像原有特征信息的同时,最大限度地去除噪声,提高图像的PSNR值,改善图像质量。常用的去噪方法主要分为两类:基于空间域的去噪方法,如邻域平均法、中值滤波法、维纳滤波法等,算法简单,计算速度快,但以图像边缘细节的模糊为代价,丢失大量原始信息;基于变换域的去噪方法,首先对噪声图像进行某种变换,再对变换系数进行修正,最后进行逆变换得到去噪图像,经典的变换形式有傅里叶变换、小波变换及多尺度几何分析(Multiscale Geometric Analysis)方法等。
小波变换具有时频局域化、多分辨率等优点,能对具有“点奇异”特征的一维信号实现最优的非线性逼近,但每一尺度仅能分解成三个方向(水平、垂直和对角),缺乏足够的方向选择性,故难以充分利用图像自身固有的几何正则性,无法准确描述图像中的边缘纹理特征。这一局限性使小波变换不适于处理富含大量纹理信息的图像,基于小波变换的去噪方法在减小噪声的同时会不可避免地弱化图像的轮廓等细节信息,造成图像模糊、失真。2002年,M.N.Do和Martin Vetterli在继承小波多尺度分析思想的基础上提出了一种“真正”的二维图像稀疏表示方法-Contourlet变换,也称为塔型方向滤波器组(Pyramid Directional Filter Bank),其基函数分布于多尺度、多方向上,仅用少量系数即可有效地捕获图像中的边缘轮廓及方向性纹理等细节信息,具有高度的方向敏感性和各向异性(Anisotropic),很好地弥补了小波变换的不足,因而更适于应用到图像去噪等领域。Shearlet变换理论于2005年提出,具有多尺度、多方向性、各向异性和平移不变性,在图像处理研究领域拥有广泛的发展和应用空间。
隐马尔科夫模型(Hidden Markov Model)是在马尔科夫模型基础上发展起来的一种统计建模的有限状态机,可对图像多尺度变换后系数的非高斯性(Non-Gaussian)、聚集性(Clustering)、持续性(Persistence)等统计相关性进行准确的描述。基于上下文的隐马尔可夫模型(ContextualHMM),采用上下文(Context)结构来捕获分解系数在尺度间、方向间和尺度内(空间邻域内)的依赖关系,在Contourlet域,本发明根据系数的父节点、两个最近表兄弟节点及当前节点的邻域熵值设计一种新的上下文构造方案,并利用Contourlet多尺度和高度的方向敏感性有效表征图像本身所固有的几何特征,更灵活地刻画Contourlet分解系数在尺度间的持续性、尺度内的多方向选择性和空间邻域内的能量聚集特性,因而更有利于图像的去噪处理。
本发明基于CS-CT-CHMM的去噪方法能够较好地协调消除噪声和保留图像边缘之间的矛盾,该方法通过保留包含图像主要信息的低频系数,建立基于上下文隐马尔科夫统计模型来修正包含噪声干扰和表征图像边缘纹理等细节信息的高频系数以达到降噪的目的,在降噪同时可以有效地保护图像细节,获得更高的PSNR值;但由于Contourlet变换方向滤波器组中降采样和上采样的存在使其缺乏平移不变性,在图像奇异点附近会产生伪吉布斯现象,引入循环平移(Cycle Spinning)技术可以有效克服这一影响,改善图像的整体视觉效果。
图像融合方法可分为空间域融合方法和变换域融合方法。空间域融合方法有逻辑滤波器法、加权平均法、数学形态法、模拟退火法等;变换域融合方法有金字塔变换法、小波变换法以及多尺度几何分析方法等。另外,20世纪90年代,Eckhorn为解释在猫的大脑视觉皮层实验中所观察到的与特征有关的神经元同步行为而提出的反馈型脉冲耦合神经网络(PCNN),具有全局耦合性和脉冲同步发放特性,在图像处理方面具有独特的优势。
针对含噪声图像,研究高效的、对噪声干扰具有鲁棒性的融合方法是目前图像融合研究领域亟需探讨的问题,本发明对基于CS-CT-CHMM方法去噪后的图像采用Shearlet变换与改进的脉冲耦合神经网络(IPCNN)相结合的融合方法,对高、低频子带系数设计不同的融合规则,获得了较优的融合结果,提高了融合图像的质量。
发明内容
本发明的目的在于针对现有融合技术的不足,提出了一种结合CS-CT-CHMM的噪声图像融合新方法,采用基于循环平移CS技术和Contourlet域上下文隐马尔科夫模型(CT-CHMM)相结合的去噪方法可以在提高去噪图像PSNR值的同时更好地保留图像的边缘、轮廓等细节信息,减少伪吉布斯效应等视觉失真;而基于Sheatlet变换与改进的脉冲耦合神经网络IPCNN相结合的融合方法能够有效地整合源图像信息,增强图像的对比度和边缘轮廓,增加图像的信息量,丰富图像的细节特征,使融合图像的清晰度更高、质量更好。
本发明解决其技术问题所采用的技术方案是:
一种结合CS-CT-CHMM的噪声图像融合新方法,首先对包含一定水平高斯白噪声的源图像采用CS-CT-CHMM去噪方法进行降噪处理,其中上下文Context的构造根据Contourlet分解系数的父节点、两个最近表兄弟节点及当前节点的邻域熵值计算所得;然后对得到的去噪图像执行Shearlet变换,低频子带系数采用简单的加权平均融合策略,高频子带系数则利用IPCNN模型设计融合规则,最后执行Shearlet逆变换获得最终的融合图像。
本发明具体包括以下步骤:
(1)采用CS-CT-CHMM去噪方法对含噪声图像NIA、NIB进行降噪处理,得到去噪后的图像CIA、CIB,降噪处理按照以下步骤进行:
1a)对含噪声图像NIA、NIB进行循环平移操作,再对平移后的图像执行Contourlet变换,分解得到不同尺度、不同方向的子带系数 C j , k , i , l NI A , C j , k , i , l NI B ( j = 1,2 . . . , J ; k = 1,2 , . . . , m j ; i , l = 1 , . . . , N j ) , 其中j表示分解尺度,k表示每尺度分解的方向子带数目,i,l表示j尺度、k方向子带系数的位置索引,Nj表示相应子带的系数总个数;
1b)根据所提出的新的上下文设计方案计算Contourlet高频子带系数对应的V值;
1c)保留低频子带系数不变,对高频子带系数分别进行Contourlet域CHMM统计建模,并采用优化的迭代期望最大化EM算法分初始化(Initialization)和迭代训练(Iterative EM Training)两步估计模型参数集合
1d)采用蒙特卡罗(Monte Carlo)统计模拟方法估计各个方向子带的噪声方差水平
1e)采用下式计算Contourlet域去噪后的系数
1f)对去噪后的系数执行Contourlet域逆变换(重构)得到图像,再进行逆向循环平移操作,获得最终的去噪图像CIA、CIB
(2)对去噪后的图像CIA、CIB,采用基于Shearlet变换与改进的脉冲耦合神经网络IPCNN相结合的融合方法获得最终的融合图像IF,具体的融合步骤如下:
2a)对去噪后的图像CIA、CIB分别执行多尺度、多方向Shearlet变换,得到低频子带系数 和一系列高频子带系数j,k分别表示高频子带系数的尺度和方向参数;
2b)对低频子带系数采用简单的加权平均融合策略进行融合,融合后的低频子带系数为
2c)对高频子带系数采用改进的IPCNN模型设计融合规则,融合后的高频子带系数为
2d)对高、低频融合子带系数执行Shearlet逆变换,获得最终的融合图像IF
本发明方法与现有融合技术相比较,具有以下优点:
第一,本发明中图像去噪处理采用Contourlet变换,可以更优地处理高维数据“线”或“面”的奇异性,更加符合图像的“非平稳”特征。基于Contourlet域CHMM的去噪方法根据系数的父节点、两个最近表兄弟节点及当前节点的邻域熵值设计一种新的上下文构造方案,能更全面地捕获系数在尺度间、方向间和空间邻域内的统计相关性,获得边缘更清晰、细节更丰富的去噪结果。
第二,本发明引入循环平移技术有效弥补了Contourlet变换因缺乏平移不变性造成的伪吉布斯效应,改善了去噪图像的整体视觉效果。
第三,本发明对于集中图像主要能量,反映图像近似特性的低频子带系数采用简单的加权平均融合策略,可以有效保留图像的原始信息;对表征图像边缘、轮廓等细节特性的高频子带系数采用改进的脉冲耦合神经网络IPCNN模型设计融合规则,高、低频系数采用不同的融合规则能够最大限度地保护图像中的纹理信息,极大地提高融合图像的质量。
附图说明
图1是本发明基于CS-CT-CHMM的噪声图像融合新方法的框图。
图2是本发明Contourlet域系数父子关系、最近邻关系和表兄弟关系示意图。
图3是本发明改进的脉冲耦合神经网络IPCNN的结构图。
图4是本发明一个实施例的原始图像、噪声图像以及去噪图像。
图中:(a)原始图像A;(b)原始图像B;(c)噪声图像A;(d)噪声图像B;(e)基于WHMT模型的去噪图像A;(f)基于WHMT模型的去噪图像B;(g)基于CHMT模型的去噪图像A;(h)基于CHMT模型的去噪图像B;(i)基于WT-CHMM的去噪图像A;(j)基于WT-CHMM的去噪图像B;(k)基于CT-CHMM的去噪图像A;(1)基于CT-CHMM的去噪图像B;(m)基于SFLCT-CHMM的去噪图像A;(n)基于SFLCT-CHMM的去噪图像B;(o)基于CS-WT-CHMM的去噪图像A;(p)基于CS-WT-CHMM的去噪图像B;(q)基于CS-CT-CHMM的去噪图像A;(r)基于CS-CT-CHMM的去噪图像B;
图5是本发明方法与基于梯度变换GP的融合方法、基于拉普拉斯变换LAP的融合方法、基于Wavelet变换的融合方法、基于平稳Wavelet变换的融合方法、基于Contourlet变换和区域能量的融合方法、基于Contourlet变换和原始PCNN相结合的融合方法、基于Contourlet变换与改进的IPCNN相结合的融合方法所得融合结果的比较示意图。
图中:(a)基于GP方法的融合图像;(b)基于LAP方法的融合图像;(c)基于Wavelet变换方法的融合图像;(d)基于平稳Wavelet变换方法的融合图像;(e)基于Contourlet变换和区域能量方法的融合图像;(f)基于Contourlet变换与原始PCNN方法的融合图像;(g)基于Contourlet变换与改进的IPCNN方法的融合图像;(h)本发明方法的融合图像。
具体实施方式
下面对本发明的一个实施例结合附图作详细说明,本实施例在以本发明技术方案为前提下进行,给出了详细的实施方式和具体的操作过程。
如图1所示,本实施例包括以下具体步骤:
(1)对含噪声图像NIA、NIB进行循环平移操作,再对平移后的图像执行Contourlet变换,分解得到不同尺度、不同方向的子带系数 C j , k , i , l NI A , C j , k , i , l NI B ( j = 1,2 . . . , J ; k = 1,2 , . . . , m j ; i , l = 1 , . . . , N j ) , 其中j表示分解尺度,k表示每尺度分解的方向子带数目,i,l表示j尺度、k方向子带系数的位置索引,Nj表示相应子带的系数总个数,尺度分解LP选用“9-7”双正交滤波器,方向滤波器组DFB选用“pkva”,方向分解参数设为[2,2,3,3],即进行4尺度分解,由粗糙到精细尺度所对应的方向子带数目依次为4,4,8,8;
(2)根据所提出的新的上下文设计方案计算Contourlet高频子带系数对应的V值;
context=H(block_N)+H(block_P)+H(block_C1)+H(block_C2);
V j , k , i , l = 1 , context ≥ H ( N ) + H ( P ) + H ( C 1 ) + H ( C 2 ) 0 , otherwise ; H = - Σ i = 1 L P ( i ) · log 2 P ( i ) ;
其中,block_N、block_P、block_C1和block_C2分别表示当前系数、父节点系数和两个最近邻表兄弟节点系数的3×3邻域系数,N、P、C1和C2分别表示当前子带、较粗糙尺度同方向子带和同一尺度两最近邻方向子带;H为系数熵值函数,L为对应子带系数总个数;
(3)保留低频子带系数不变,对高频子带系数分别进行Contourlet域CHMM统计建模,并采用优化的迭代期望最大化EM算法分初始化(Initialization)和迭代训练(Iterative EM Training)两步估计模型参数集合 θ NI X = { P S j , k , i , l NI X ( m ) , ( σ j , k , i , l , m NI X ) 2 , P V j , k , i , l | S j , k , i , l NI X ( v | m ) | X = A , B ; v , m = 0,1 } , 根据CHMM参数计算Contourlet分解系数的边缘概率密度函数为(Probability Density Function):
f C j , k , i , l | V j , k , i , l NI X ( C j , k , i , l NI X | V j , k , i , l = v ) = Σ m = 0 1 P S j , k , i , l | V j , k , i , l NI X ( S j , k , i , l = m | V j , k , i , l = v ) · g ( C j , k , i , l NI X | 0 , ( σ j , k , i , l , m NI X ) 2 ) ;
P S j , k , i , l | V j , k , i , l NI X ( S j , k , i , l = m | V j , k , i , l = v ) = P S j , k , i , l NI X ( S j , k , i , l = m ) · P V j , k , i , l | S j , k , i , l NI X ( V j , k , i , l = v | S j , k , i , l = m ) Σ m = 0 1 P S j , k , i , l NI X ( S j , k , i , l = m ) · P V j , k , i , l | S j , k , i , l ( V j , k , i , l = v | S j , k , i , l = m ) NI X ;
其中,j,k,i,l分别表示分解尺度、方向和空间位置索引,Vj,k,i,l表示上下文变量,Sj,k,i,l表示系数对应的隐状态变量;表示尺度j方向k状态取m时的概率,表示给定状态值为m时,上下文变量取值为v的条件概率,为尺度j方向k状态取m时的高斯混合模型方差,表示高斯概率密度函数;
(4)采用蒙特卡罗(Monte Carlo)统计模拟方法估计各个方向子带的噪声方差水平
(5)采用下式计算Contourlet域去噪后的系数
E [ C ^ j , k , i , l NI X | C j , k , i , l NI X , V j , k , i , l NI X , &theta; NI X ] = &Sigma; m = 0 1 P S j , k , i , l | C j , k , i , l NI X , V j , k , i , l | NI X ( S j , k , i , l = m | C j , k , i , l NI X , V j , k , i , l NI X = v , &theta; NI X ) &times; ( &sigma; j , k , i , l , m X ) 2 ( &sigma; j , k , i , l , m X ) 2 + ( &sigma; j , k , i , l e ) 2 C j , k , i , l NI X ( &sigma; j , k , i , l , m X ) 2 = ( ( &sigma; j , k , i , l , m NI X ) 2 - ( &sigma; j , k , i , l e ) 2 ) + , 式中,当x≥0时,(x)+=x;当x<0时,(x)+=0;
(6)对去噪后的系数执行Contourlet域逆变换(重构)得到图像,再进行逆向循环平移操作,获得最终的去噪图像CIA、CIB
(7)对去噪后的图像CIA、CIB分别执行多尺度、多方向Shearlet变换,得到低频子带系数 和一系列高频子带系数j,k分别表示高频子带系数的尺度和方向参数,本实施例中Shearlet变换分解尺度为4,尺度分解采用“9-7”滤波器,在各个尺度上分解的滤波方向子带数目分别为10,10,18,18;
(8)对低频子带系数采用简单的加权平均融合策略进行融合,即
(9)对高频子带系数采用改进的IPCNN模型设计融合规则,融合后的高频子带系数为
(10)对高、低频融合子带系数执行Shearlet逆变换,获得最终的融合图像IF
上述采用改进的IPCNN模型的融合规则是依据若干次迭代后IPCNN各个神经元产生的脉冲点火总次数决定Shearlet域高频子带融合系数的选取。IPCNN模型是由若干个神经元互连所构成的反馈型网络,在图像处理应用领域,像素灰度值和神经元之间存在一一对应关系,通常采用神经元总的脉冲点火次数代表图像对应点处的相应信息并构成点火映射图(FireingMap)作为模型的输出。本发明中基于IPCNN的融合规则设计具体步骤为:
(1)初始化改进的IPCNN模型参数,所有的神经元均处于熄火状态, &theta; i , l j , k ( 0 ) = 1 , T i , l j , k ( 0 ) = 0 , 设定 W = 1 / 2 1 1 / 2 1 1 1 1 / 2 1 1 / 2 , αL=1.0、αθ=0.05、VL=1.0、Vθ=15,迭代次数Nmax=100,其中j表示分解尺度,k表示分解方向数,下标(i,l)为神经元位置索引;
(2)将两幅去噪图像Shearlet域高频子带系数进行归一化处理,分别输入到改进的IPCNN模型中,并按照下列公式进行迭代运算,更新参数值,记录每个神经元总的脉冲点火次数;
F i , l j , k ( n ) = S i , l j , k ;
L i , l j , k ( n ) = exp ( - &alpha; L ) L i , l j , k ( n - 1 ) + V L &Sigma; p , q W i , l ; p , q Y p , q ( n - 1 ) ;
U i , l j , k ( n ) = F i , l j , k ( n ) &times; ( 1 + &beta; &CenterDot; L i , l j , k ( n ) ) ;
Y i , l j , k ( n ) = 1 , U i , l j , k ( n ) > &theta; i , l j , k ( n - 1 ) 0 , otherwise ;
&theta; i , l j , k ( n ) = exp ( - &alpha; &theta; ) &theta; i , l j , k ( n - 1 ) + V &theta; Y i , l j , k ( n ) ;
T i , l j , k ( n ) = T i , l j , k ( n - 1 ) + Y i , l j , k ( n ) ;
其中,下标(i,l)是神经元对应的图像像素标号,j,k是高频子带尺度、方向索引,p,q表示其它神经元与此神经元相连的范围;为神经元反馈输入,为外部刺激输入,本实施例选择高频系数归一化值,为神经元链接输入,为神经元内部活动,为神经元输出,统计神经元总的脉冲点火次数,Wi,l;p,q是相应的突触联接权值矩阵,VL是链接输入的放大系数,和Vθ分别是变阈值函数和阈值放大系数,αL和αθ分别表示链接输入和变阈值函数的时间常数,β为链接强度,其取值决定了神经元之间耦合关系的强弱,本实施例选用高频系数拉普拉斯能量的归一化值,充分考虑了像素点与其周围8个相邻像素的关系,即 &beta; = Normalized ( EOL ) ; EOL = &Sigma; ( x , y ) &Element; &omega; ( f xx + f yy ) 2 ; f xx + f yy = 20 f ( x , y ) - 4 f ( x + 1 , y ) - 4 f ( x , y - 1 ) - 4 f ( x - 1 , y ) - 4 f ( x , y + 1 ) - f ( x - 1 , y - 1 ) - f ( x + 1 , y - 1 ) - f ( x + 1 , y + 1 ) - f ( x - 1 , y + 1 ) ; n为迭代次数。改进的IPCNN模型在调制域进行耦合调制,计算内部活动Ui,l输入到脉冲产生部分用于产生神经元的脉冲输出Yi,l。在脉冲产生部分,若则对应神经元被激活,产生一个脉冲输出,称为一次点火,同时神经元的阈值通过反馈迅速提高,继续进行下一次迭代运算;当超过时,脉冲产生器关闭,神经元停止发放脉冲,阈值开始指数下降,当再次低于时,脉冲产生器再次被打开,对应的神经元重新处于激活状态,如此迭代循环直至达到设定的最大迭代次数。
(3)选取点火最频繁的IPCNN神经元所对应的高频方向子带系数作为融合高频子带系数;
S F j , k = S CI A j , k , T CI A j , k &GreaterEqual; T CI B j , k S CI B j , k , T CI A j , k < T CI B j , k ;
在改进的脉冲耦合神经网络IPCNN模型中,脉冲点火次数反映了神经元所受外部刺激的大小,表征分解系数中所包含有效信息的多少,因此选择点火次数较大(最频繁)的神经元所对应的高频子带系数可以包含待融合图像更多的细节特征,进而获得更优的融合结果。
仿真实验
为了验证本发明的可行性和有效性,采用remote遥感图像,图像大小为256×256,灰度级为256,对源图像添加标准偏差为20的加性高斯白噪声,对本发明方法进行仿真实验。通过图4的去噪效果比较可以看出:基于CS-CT-CHMM去噪方法所得去噪图像去除了更多噪声干扰,同时更好地保持源图像的边缘、轮廓等细节纹理信息,而且引入CS技术有效抑制了Contourlet变换因缺乏平移不变性所造成的伪吉布斯效应,故图像更平滑、更清晰,主观视觉效果最好。
表1统计了采用各种方法所得去噪结果的PSNR值。
表1基于各种方法所得去噪结果的PSNR值比较
从表中可知,基于CS-CT-CHMM的去噪方法所得去噪图像的视觉效果最好,PSNR值最大,说明该方法可以更好地去除高斯白噪声,降低噪声干扰所带来的影响,获得更优的去噪结果,因而更适用于图像的降噪处理,也为进一步的图像融合打下良好的。
通过图5融合图像的比较可知,本发明方法获得的融合图像较好地保留了原始图像的主要信息,如边缘轮廓和纹理特征等,因而图像信息更丰富、细节更突出,整体可视性最好,表明该融合方法可以改善融合结果的质量,获得更理想的融合图像。
表2给出了各种融合方法所得融合图像的多种客观评价指标。
表2基于各种融合方法所得融合图像的性能比较
表中采用了均值、信噪比、平均交叉熵、相关系数、互信息、QAB/F来衡量融合图像的质量,进而验证本发明融合方法的可行性和有效性。表中融合方法一为基于梯度变换GP的融合方法,融合方法二为基于拉普拉斯变换LAP的融合方法,融合方法三为基于Wavelet变换的融合方法,融合方法四为基于平稳Wavelet变换的融合方法,融合方法三、四均采用低频子带取平均、高频子带绝对值取大的融合规则,融合方法五为基于Contourlet变换和区域能量的融合方法,融合方法六为基于Contourlet变换和原始PCNN相结合的融合方法,融合方法七为Contourlet变换和改进的IPCNN相结合的融合方法,融合方法六、七均采用低频子带取平均,高频子带基于PCNN模型的融合规则。
由表2数据可知,本发明方法所得融合图像在总体交叉熵、相关系数、互信息、QAB/F等客观评价指标上要优于其它融合方法。均值是指图像中所有像素灰度值的算术平均,对人眼反应为平均亮度,其取值影响图像的视觉效果;信噪比为有用信号与噪声干扰的方差之比,其值越大图像可视性越好;平均交叉熵直接反映了图像对应像素的差异,其值越小说明融合图像从源图像中提取的信息越多,差异越小;相关系数越大说明融合图像与源图像相似程度越大,互信息计算有多少信息从源图像转移到融合图像中,而Qabf利用Sobel边缘检测算子来衡量有多少边缘信息从源图像转移到了融合图像中,值越大说明融合性能越好。

Claims (4)

1.一种结合CS-CT-CHMM的噪声图像融合新方法,其特征在于,首先对包含一定水平高斯白噪声的源图像采用CS-CT-CHMM去噪方法进行降噪处理,其中上下文Context的构造根据Contourlet分解系数的父节点、两个最近表兄弟节点及当前节点的邻域熵值计算所得;对去噪后的图像执行Shearlet变换,低频子带系数采用简单的加权平均融合策略,高频子带系数利用改进的IPCNN模型设计融合规则,最后执行Shearlet逆变换获得最终的融合图像。 
2.根据权利要求1所述的结合CS-CT-CHMM的噪声图像融合新方法,其特征是,包括以下具体步骤: 
(1)对含噪声图像NIA、NIB进行循环平移操作,再对平移后的图像执行Contourlet变换,分解得到不同尺度、不同方向的子带系数
其中j表示分解尺度,k表示每尺度分解的方向子带数目,i,l表示j尺度、k方向子带系数的位置索引,Nj表示相应子带的系数总个数; 
(2)根据所提出的新的上下文设计方案计算Contourlet高频子带系数对应的V值; 
(3)保留低频子带系数不变,对高频子带系数分别进行Contourlet域CHMM统计建模,并采用优化的迭代期望最大化EM算法分初始化(Initialization)和迭代训练(Iterative EM Training)两步估计模型参数集合
(4)采用蒙特卡罗(Monte Carlo)统计模拟方法估计各个方向子带的噪声方差水平
(5)采用下式计算Contourlet域去噪后的系数
式中,当x≥0时,(x)+=x;当x<0时,(x)+=0; 
(6)对去噪后的系数执行Contourlet域逆变换(重构)得到图像,再进行逆向循环平移操作,获得最终的去噪图像CIA、CIB; 
(7)对去噪后的图像CIA、CIB分别执行多尺度、多方向Shearlet变换,得到低频子带系数 和一系列高频子带系数j,k分别表示高频子带系数的尺度和方向参数; 
(8)对低频子带系数采用简单的加权平均融合策略进行融合,融合后的低频子带系数为: 
(9)对高频子带系数采用改进的IPCNN模型设计融合规则,融合后的高频子带系数为
(10)对高、低频融合子带系数执行Shearlet逆变换,获得最终的融合图像IF。 
3.根据权利要求2所述的结合CS-CT-CHMM的噪声图像融合新方法,所述的步骤(11)包括: 
(1)初始化改进的IPCNN模型参数,所有的神经元均处于熄火状态, 设定αL=1.0、αθ=0.05、VL=1.0、Vθ=15,迭代次数Nmax=100,其中j表示分解尺度,k表示分解方向数,下标(i,l)为神经元位置索引; 
(2)将两幅去噪图像Shearlet域高频子带系数进行归一化处理,分别输入到改进的IPCNN模型中,并按照下列公式进行迭代运算,更新参数值,记录每个神经元总的脉冲点火次数; 
其中,下标(i,l)是神经元对应的图像像素标号,j,k是高频子带尺度、方向索引,p,q表示其它神经元与此神经元相连的范围;为神经元反馈输入,为外部刺激输入,本实施例选择高频系数归一化值,为神经元链接输入,为神经元内部活动,为神经元输出,统计神经元总的脉冲点火次数,Wi,l;p,q是相应的突触联接权值矩阵,VL是链接输入的放大系数,和Vθ分别是变阈值函数和阈值放大系数,αL和αθ分别表示链接输入和变阈值函数的时间常数,β为链接强度,其取值决定了神经元之间耦合关系的强弱,本实施例中选用高频子带系数的拉普拉斯能量归一化值,充分考虑了像素点与其周围8个相邻像素的关系,n为迭代次数; 
(3)选取点火最频繁的IPCNN神经元所对应的高频方向子带系数作为融合高频子带系数; 
4.根据权利要求3所述的方法,其特征是,上述采用改进的IPCNN模型的融合规则是依据若干次迭代后IPCNN各个神经元产生的脉冲点火总次数决定Shearlet域高频子带融合系数的选取。脉冲点火次数反映了神经元所受外部刺激的大小,表征分解系数中所包含有效信息的多少,因此选择点火次数较大(最频繁)的神经元所对应的高频子带系数可以包含待融合图像更多的细节特征,进而获得更优的融合图像。改进的IPCNN模型在调制域进行耦合调制,计算内部活动Ui,l输入到脉冲产生部分用于产生神经元的脉冲输出Yi,l。在脉冲产生部分,若 则对应神经元被激活,产生一个脉冲输出,称为一次点火,同时神经元的阈值通过反馈迅速提高,继续进行下一次迭代运算;当超过时,脉冲产生器关闭,神经元停止发放脉冲,阈值开始指数下降,当再次低于时,脉冲产生器再次被打开,对应的神经元重新处于激活状态,如此迭代循环直至达到设定的最大迭代次数。 
CN201310540753.7A 2013-11-04 2013-11-04 结合cs-ct-chmm的噪声图像融合新方法 Pending CN104008537A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310540753.7A CN104008537A (zh) 2013-11-04 2013-11-04 结合cs-ct-chmm的噪声图像融合新方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310540753.7A CN104008537A (zh) 2013-11-04 2013-11-04 结合cs-ct-chmm的噪声图像融合新方法

Publications (1)

Publication Number Publication Date
CN104008537A true CN104008537A (zh) 2014-08-27

Family

ID=51369178

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310540753.7A Pending CN104008537A (zh) 2013-11-04 2013-11-04 结合cs-ct-chmm的噪声图像融合新方法

Country Status (1)

Country Link
CN (1) CN104008537A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127719A (zh) * 2016-06-20 2016-11-16 中国矿业大学 一种新型的神经网络医学图像融合方法
CN106803242A (zh) * 2016-12-26 2017-06-06 江南大学 基于四元数小波变换的多聚焦图像融合方法
CN106981059A (zh) * 2017-03-30 2017-07-25 中国矿业大学 结合pcnn和压缩感知的二维经验模态分解图像融合方法
CN107067383A (zh) * 2017-05-15 2017-08-18 桂林电子科技大学 基于两维不可分dft调制滤波器组的图像去噪方法
CN109003240A (zh) * 2018-07-16 2018-12-14 安徽理工大学 一种基于多尺度并行cnn的图像去噪方法
CN109685752A (zh) * 2019-01-09 2019-04-26 中国科学院长春光学精密机械与物理研究所 一种基于块分解的多尺度Shearlet域图像融合处理方法
CN109829873A (zh) * 2019-01-24 2019-05-31 江南大学 基于非下采样剪切波和全局-区域-局部融合规则的图像融合方法
CN110570369A (zh) * 2019-08-23 2019-12-13 温州医科大学 一种甲状腺结节超声图像去噪方法
CN111476741A (zh) * 2020-04-28 2020-07-31 北京金山云网络技术有限公司 图像的去噪方法、装置、电子设备和计算机可读介质
CN113379666A (zh) * 2021-07-06 2021-09-10 江南大学 基于区间二型模糊集和chmm模型的图像融合方法
CN114359200A (zh) * 2021-12-28 2022-04-15 中国科学院西安光学精密机械研究所 基于脉冲耦合神经网络的图像清晰度评估方法及终端设备
CN116862790A (zh) * 2023-06-30 2023-10-10 中北大学 基于神经网络的低剂量ct图像降噪方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101685158A (zh) * 2009-07-02 2010-03-31 西安电子科技大学 基于隐马尔科夫树模型的sar图像去噪方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101685158A (zh) * 2009-07-02 2010-03-31 西安电子科技大学 基于隐马尔科夫树模型的sar图像去噪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SHI CHENG等: "《A novel algorithm of remote sensing image fusion based on Shearlets and PCNN》", 《NEUROCOMPUTING》 *
李康等: "基于Contourlet域HMT模型的Cycle Spinning去噪方法", 《电子设计工程》 *
王朝晖等: "基于Shearlet与改进PCNN的图像融合", 《激光与红外》 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127719A (zh) * 2016-06-20 2016-11-16 中国矿业大学 一种新型的神经网络医学图像融合方法
CN106803242A (zh) * 2016-12-26 2017-06-06 江南大学 基于四元数小波变换的多聚焦图像融合方法
CN106981059A (zh) * 2017-03-30 2017-07-25 中国矿业大学 结合pcnn和压缩感知的二维经验模态分解图像融合方法
CN107067383A (zh) * 2017-05-15 2017-08-18 桂林电子科技大学 基于两维不可分dft调制滤波器组的图像去噪方法
CN107067383B (zh) * 2017-05-15 2019-06-18 桂林电子科技大学 基于两维不可分dft调制滤波器组的图像去噪方法
CN109003240B (zh) * 2018-07-16 2021-07-27 安徽理工大学 一种基于多尺度并行cnn的图像去噪方法
CN109003240A (zh) * 2018-07-16 2018-12-14 安徽理工大学 一种基于多尺度并行cnn的图像去噪方法
CN109685752A (zh) * 2019-01-09 2019-04-26 中国科学院长春光学精密机械与物理研究所 一种基于块分解的多尺度Shearlet域图像融合处理方法
CN109829873A (zh) * 2019-01-24 2019-05-31 江南大学 基于非下采样剪切波和全局-区域-局部融合规则的图像融合方法
CN109829873B (zh) * 2019-01-24 2023-03-14 江南大学 基于非下采样剪切波和全局-区域-局部融合规则的图像融合方法
CN110570369A (zh) * 2019-08-23 2019-12-13 温州医科大学 一种甲状腺结节超声图像去噪方法
CN110570369B (zh) * 2019-08-23 2020-05-12 温州医科大学 一种甲状腺结节超声图像去噪方法
CN111476741A (zh) * 2020-04-28 2020-07-31 北京金山云网络技术有限公司 图像的去噪方法、装置、电子设备和计算机可读介质
CN111476741B (zh) * 2020-04-28 2024-02-02 北京金山云网络技术有限公司 图像的去噪方法、装置、电子设备和计算机可读介质
CN113379666A (zh) * 2021-07-06 2021-09-10 江南大学 基于区间二型模糊集和chmm模型的图像融合方法
CN113379666B (zh) * 2021-07-06 2024-03-12 江南大学 基于区间二型模糊集和chmm模型的图像融合方法
CN114359200A (zh) * 2021-12-28 2022-04-15 中国科学院西安光学精密机械研究所 基于脉冲耦合神经网络的图像清晰度评估方法及终端设备
CN114359200B (zh) * 2021-12-28 2023-04-18 中国科学院西安光学精密机械研究所 基于脉冲耦合神经网络的图像清晰度评估方法及终端设备
CN116862790A (zh) * 2023-06-30 2023-10-10 中北大学 基于神经网络的低剂量ct图像降噪方法及装置

Similar Documents

Publication Publication Date Title
CN104008537A (zh) 结合cs-ct-chmm的噪声图像融合新方法
CN103093441B (zh) 基于变换域的非局部均值和双变量模型的图像去噪方法
CN105551010A (zh) 基于nsct及深度信息激励pcnn的多聚焦图像融合方法
US9881374B2 (en) Method for establishing prediction model based on multidimensional texture of brain nuclear magnetic resonance images
CN104282007B (zh) 基于非采样的轮廓波变换自适应的医学图像融合方法
Zhang et al. Self-supervised image denoising for real-world images with context-aware transformer
CN105279740A (zh) 一种基于稀疏正则化的图像去噪方法
CN104008536A (zh) 基于cs-chmt和idpcnn的多聚焦噪声图像融合方法
CN103455991B (zh) 一种多聚焦图像融合方法
CN101847257B (zh) 基于非局部均值与多级定向图像的图像降噪方法
CN109658351B (zh) 一种结合l0梯度约束和局部低秩矩阵恢复的高光谱图像去噪方法
CN101980284A (zh) 基于两尺度稀疏表示的彩色图像降噪方法
CN104268593A (zh) 一种小样本情况下多稀疏表示的人脸识别方法
CN103985105A (zh) 基于统计建模的Contourlet域多模态医学图像融合方法
CN103093433A (zh) 基于区域划分和字典学习的自然图像去噪方法
CN105894476A (zh) 基于字典学习融合的sar图像降噪处理方法
CN101493935A (zh) 基于剪切波隐马尔可夫模型的合成孔径雷达图像分割方法
CN107590785A (zh) 一种基于sobel算子的布里渊散射谱图像识别方法
CN104778670A (zh) 一种基于多元统计模型的分形小波自适应图像去噪方法
CN103985104A (zh) 基于高阶奇异值分解和模糊推理的多聚焦图像融合方法
CN103077507A (zh) 基于Beta算法的多尺度SAR图像降噪方法
CN104978716A (zh) 一种基于线性最小均方误差估计的sar图像降噪方法
CN105809650A (zh) 一种基于双向迭代优化的图像融合方法
CN105913402A (zh) 一种基于ds证据理论的多幅遥感图像融合去噪方法
CN103903228A (zh) 一种基于hwd变换的非局部图像去噪方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140827