CN103593833A - 基于压缩感知和能量规则的多聚焦图像融合方法 - Google Patents
基于压缩感知和能量规则的多聚焦图像融合方法 Download PDFInfo
- Publication number
- CN103593833A CN103593833A CN201310512370.9A CN201310512370A CN103593833A CN 103593833 A CN103593833 A CN 103593833A CN 201310512370 A CN201310512370 A CN 201310512370A CN 103593833 A CN103593833 A CN 103593833A
- Authority
- CN
- China
- Prior art keywords
- image
- observation vector
- image block
- energy
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种基于压缩感知和能量规则的多聚焦图像融合方法,主要解决压缩感知条件下,多聚焦图像融合中图像块相似度较高,不易提取信息的问题。其实现步骤为:对两幅多聚焦图像利用分块置乱的哈达玛观测矩阵进行观测,获得两幅输入图像的观测向量;利用这两个观测向量的能量和数据相似度来计算融合权值,根据融合权值计算融合图像的观测向量;对该观测向量采用梯度投影法在CDF9/7小波基下进行重构,得到融合图像。本发明与经典多聚焦图像融合方法相比,同时包含两幅图像的信息且调节项能根据图像块的相似程度调节融合权值,解决了多聚焦图像块相似度过高的问题,提高了融合效果,可用于多聚焦图像的融合。
Description
技术领域
本发明属于图像处理技术领域,涉及多聚焦图像融合方法,可用于多聚焦图像后续的图像解译、目标检测、目标识别等。
背景技术
图像融合是指将不同的原始图像通过一定的融合规则提取和综合其互补信息获得对同一目标或场景更为准确、全面、可靠描述的图像,即融合图像。原始图像可以来自相同的传感器或者不同的传感器,融合图像可以充分利用原始图像所提供的互补信息,为后续的图像处理如图像解译、目标检测、目标识别等提供更可靠的信息。图像融合主要可以分为三类:像素级图像融合,特征级图像融合和决策级图像融合。但是目前的这些方法都要求有原始图像,这无疑增加了计算机的存储负担,同时随着海量传感器数据规模的日益增加,计算的复杂度也成为图像处理的巨大挑战。
Donoho等人提出了压缩感知技术,见D.L.Donoho,Compressedsensing,IEEETrans.Inform.Theory.2006,52(4):1289–1306.该方法指出可以用远低于奈奎斯特采样定理要求的速率对图像采样,而不丢失图像的任何有用信息,达到完全重构原始图像的目的。目前基于该技术的经典图像融合方法有:
Wan等人提出压缩图像融合方法,见T.Wan,N.Canagarajah,A.Achim,CompressiveImageFusion,inProc.IEEEInt.Conf.ImageProcess,pp.1308-1311,2008.该文章首次在压缩感知域进行图像融合,并提出了压缩感知域绝对值取最大的图像融合方法,该方法首先对图像进行FFT变换,然后进行观测融合,最后进行逆变换得到融合图像。由于该方法是在FFT变换上进行的观测,因而实验之前必须具有原始图像,同时观测域的值在随机观测下已经失去变换系数越大代表信息量越大的特性,因而绝对值取大的融合规则具有一定的偶然性和不合理性。
Luo等人提出的基于压缩感知的图像融合方法,见X.Y.Luo,J.Zhang,J.Y.Yang,andQ.H.Dai,Imagefusionincompressedsensing,inProc.IEEEInt.Conf.onImageProcess,pp.2205–2208IEEE,Piscataway,NJ2009.该方法直接在观测域利用观测向量的熵进行图像融合,然后进行重构,得到融合图像。该方法应用于多聚焦图像融合时,由于图像块过于相似,图像块的熵值过于接近,无法有效提取出两幅多聚焦图像清晰区域的信息,融合效果不佳。
发明内容
本发明的目的在于针对上述已有技术的不足,提出一种基于压缩感知和能量规则的多聚焦图像融合方法,以提高在图像块过于相似时的融合效果。
实现本发明目的技术关键是设计一种新的基于能量的融合规则,并引入数据相似性来解决多聚焦图像块相似度较高的问题,提高融合效果。其实现步骤包括如下:
(1)输入两幅多聚焦图像A和B,并对其进行分块,得到n对N×N的图像块并将每对图像块拉成列,分别表示为Ai和Bi,i=1,2,...,n,n为图像块的对数,N为图像块窗口大小,N>1;
(2)根据第i对图像块的观测矩阵ΦBi,得到两个图像块的观测向量yAi和yBi;
(3)按如下规则对第i对图像块进行融合,得到融合后的图像子块的观测值ybi:
(3a)根据多聚焦图像A和B的图像块观测向量yAi,yBi,及观测向量的能量EAi,EBi,计算每对图像块的融合权值:
ωB=1-ωA,
其中,EAi,EBi分别为图像块观测向量yAi,yBi的能量,DS(yAi,yBi)为观测向量yAi,yBi的数据相似度,ωA,ωB为图像块的融合权值,T为可调参数,T≠1,为调节项,用于对融合规则中的融合权值进行调节;
(3b)根据每对图像块的融合权值ωA,ωB,对多聚焦图像A和B的每对图像块的观测向量yAi,yBi进行融合,得到融合后的图像块的观测向量ybi:
ybi=ωAyAi+ωByBi;
(3c)重复步骤(3a)和(3b),直到所有的图像块对都完成观测;
(4)将得到的所有的观测向量ybi整合成一列,得到融合图像的观测向量y:
y=[yb1 T,yb2 T,...,ybn T]T,
其中,上标T表示向量的转置;
(5)对融合图像的观测向量y采用梯度投影法在CDF9/7小波基下进行重构,得到稀疏表示系数θ;再对稀疏表示系数θ进行小波逆变换,得到融合后的全聚焦图像F。
本发明与现有的技术相比具有以下优点:
1.本发明利用两个图像块观测向量的能量和数据相似性来制定融合规则,使得融合向量同时包含两个观测向量的信息,有利于提高图像融合的效果;
2.本发明在融合规则中引入数据相似性用作融合权值的调节项,当图像块相似程度高时,这一调节项的引入能使融合后的观测向量较平均的包含两个观测向量的信息;当图像块相似程度低时,能量较大的观测向量的融合权值会因为该调节项的存在而被进一步加大,从而使融合后的向量包含更多的信息,提高融合效果。
附图说明
图1是本发明的总流程图;
图2是两幅多聚焦图像Clock图像的源图像;
图3是两幅多聚焦图像Pepsi图像的源图像;
图4是用本发明和现有的三种方法对多聚焦Clock图像进行融合的结果图;
图5是用本发明与现有的三种方法对多聚焦Pepsi图像进行融合的结果图。
具体实施方式
参照图1,本发明的具体实现步骤如下:
步骤1,输入两幅多聚焦图像,并对两幅多聚焦图像进行分块预处理。
输入两幅多聚焦图像A和B,并对其进行分块,得到n对N×N的图像块并将每对图像块拉成列,分别表示为Ai和Bi,i=1,2,...,n,n为图像块的对数,N为图像块窗口大小,N>1,在本发明实例中,N的取值分别为8,16,32,64。
步骤2,对图像块利用观测矩阵进行观测,得到观测向量。
图像的压缩感知观测过程是一个线性过程,为了能够精确重构,观测矩阵和稀疏变换矩阵要满足有限等距性质。本实例对图像块采用的观测矩阵Φi为置乱的哈达玛矩阵,该观测矩阵与大多数固定的正交基构成的稀疏变换矩阵不相关,即满足有限等距性质,这一性质能保证图像的精确重构。根据第i对图像块的观测矩阵Φi,得到两个图像块的观测向量yAi和yBi:
yAi=Φi×Ai
yBi=Φi×Bi,
步骤3,按如下规则对第i对图像块进行融合,得到融合后的图像块的观测值ybi:
(3a)根据多聚焦图像A和B的图像块观测向量yAi,yBi,及观测向量的能量EAi,EBi,计算观测向量yAi的融合权值ωA和观测向量yBi融合权值ωB:
ωB=1-ωA,
其中,T为可调参数,T≠-1;
EAi是多聚焦图像A图像块观测向量yAi的能量:EAi=||yAi||2 2;
EBi是多聚焦图像B图像块观测向量yBi的能量:EBi=||yBi||2 2,式中||||2表示向量的二范数;
DS(yAi,yBi)是观测向量yAi和yBi的数据相似度,
DS(yAi,yBi)=[c(yAi,yBi)·d(yAi,yBi)]α·[a(yAi,yBi)]β,
式中,α是c(yAi,yBi)与d(yAi,yBi)乘积的指数,β是a(yAi,yBi)的指数,α,β均为可调参数,二者可取任意值,c(yAi,yBi)表示图像块观测向量yAi和yBi的数值强度,d(yAi,yBi)表示图像块观测向量yAi和yBi的数值分布集中程度,a(yAi,yBi)表示图像块观测向量yAi和yBi的相关程度;
所述的数值强度c(yAi,yBi)按如下公式计算:
其中,代表图像块观测向量yAi的均值,代表图像块观测向量yBi的均值,代表图像块观测向量yAi的中值,代表图像块观测向量yBi的中值,c1是数值强度c(yAi,yBi)的防错系数,用来防止数值强度c(yAi,yBi)计算过程中分母为零的错误情况,本发明中取c1=0.000001;
所述的数值分布集中程度d(yAi,yBi)按如下公式计算:
其中,代表图像块观测向量yAi的均值绝对偏差,代表图像块观测向量yBi的均值绝对偏差,代表图像块观测向量yAi的中值绝对偏差,代表图像块观测向量yBi的中值绝对偏差,c2为数值分布集中程度d(yAi,yBi)的防错系数,用来防止数值分布集中程度d(yAi,yBi)计算过程中分母为零的错误情况,本发明中取c2=0.000001;
所述的相关程度a(yAi,yBi)按如下公式计算:
数据相似度DS(yAi,yBi)的详细定义参见《Classification-basedimage-fusionframeworkforcompressiveimaging》,JournalofElectronicImaging,vol.19,Issue3,pp.1-6;
(3b)根据每对图像块的融合权值ωA,ωB,对多聚焦图像A和B的每对图像块的观测向量yAi和yBi进行融合,得到融合后的图像块的观测向量ybi:
ybi=ωAyAi+ωByBi;
(3c)重复步骤(3a)和(3b),直到所有的图像块对都完成融合。
步骤4,将得到的所有的观测向量ybi整合成一列,得到融合图像的观测向量y:
y=[yb1 T,yb2 T,...,ybn T]T,
其中,上标T表示向量的转置。
步骤5,对融合图像的观测向量进行重构,得到稀疏表示系数,再对稀疏表示系数进行小波逆变换,得到融合后的全聚焦图像F。
(5a)对融合图像的观测向量y采用梯度投影法在CDF9/7小波基下进行重构,得到稀疏表示系数θ,该梯度投影法能够利用较少的测量值得到精确的重建结果且运算速度较快,算法的具体步骤参见《GradientProjectionforSprseReconstruction:ApplicationtoCompressedSensingandOtherInverseProblems》,IEEEJournal,vol.1,Issue4,pp.586-597;
(5b)对稀疏表示系数θ进行小波逆变换,将得到的全聚焦图像块组合成一幅图像就得到融合后的全聚焦图像F。
本发明的效果可以通过下面的实验仿真进一步说明:
1、实验条件与方法
硬件平台为:Intel(R)Core(TM)i5-3210MCPU2.50GHz、4GBRAM;
软件平台为:MATLABR2011a;实验中采用两组已配准的多聚焦图像,即Clock图像和Pepsi图像,图像大小均为512×512,两组多聚焦图像来源于图像融合网站:http://www.imagefusion.org/,Clock图像见图2中所示,其中图2(a)是Clock图像聚焦在左边的源图像,图2(b)是Clock图像聚焦在右边的源图像,Pepsi图像见图3所示,其中图3(a)是Pepsi图像聚焦在左边的源图像,图3(b)是Pepsi图像聚焦在右边的源图像。
实验时采用的对比方法是现有的三种融合方法,其中:
方法1为绝对值取最大融合方法,见文章《CompressedImageFusion》,inProc.IEEEint.Conf.ImageProcess,pp.1308-1311,2008;
方法2为FAR(FusionAfterRreconstruction)方法;
方法3为基于熵的方法,见文章《Imagefusionincompressedsensing》,inProc.IEEEInt.Conf.onImageProcess,pp.2205–2208,2009。
2、仿真内容
仿真一:用本发明的方法与现有的三种融合方法对图2所示的两幅Clock图像进行图像融合实验,融合结果见图4,其中:
图4(a)是用现有方法1得到的融合结果图,窗口大小为8×8;
图4(b)是用现有方法1得到的融合结果图,窗口大小为16×16;
图4(c)是用现有方法1得到的融合结果图,窗口大小为32×32;
图4(d)是用现有方法1得到的融合结果图,窗口大小为64×64;
图4(e)是用现有方法2得到的融合结果图,窗口大小为8×8;
图4(f)是用现有方法2得到的融合结果图,窗口大小为16×16;
图4(g)是用现有方法2得到的融合结果图,窗口大小为32×32;
图4(h)是用现有方法2得到的融合结果图,窗口大小为64×64;
图4(i)是用现有方法3得到的融合结果图,窗口大小为8×8;
图4(j)是用现有方法3得到的融合结果图,窗口大小为16×16;
图4(k)是用现有方法3得到的融合结果图,窗口大小为32×32;
图4(l)是用现有方法3得到的融合结果图,窗口大小为64×64;
图4(m)是用本发明得到的融合结果图,窗口大小为8×8;
图4(n)是用本发明得到的融合结果图,窗口大小为16×16;
图4(o)是用本发明得到的融合结果图,窗口大小为32×32;
图4(p)是用本发明得到的融合结果图,窗口大小为64×64。
仿真二:用本发明的方法与现有的三种融合方法对图3所示的两幅Pepsi图像进行图像融合实验,融合结果见图5,其中:
图5(a)是用现有方法1得到的融合结果图,窗口大小为8×8;
图5(b)是用现有方法1得到的融合结果图,窗口大小为16×16;
图5(c)是用现有方法1得到的融合结果图,窗口大小为32×32;
图5(d)是用现有方法1得到的融合结果图,窗口大小为64×64;
图5(e)是用现有方法2得到的融合结果图,窗口大小为8×8;
图5(f)是用现有方法2得到的融合结果图,窗口大小为16×16;
图5(g)是用现有方法2得到的融合结果图,窗口大小为32×32;
图5(h)是用现有方法2得到的融合结果图,窗口大小为64×64;
图5(i)是用现有方法3得到的融合结果图,窗口大小为8×8;
图5(j)是用现有方法3得到的融合结果图,窗口大小为16×16;
图5(k)是用现有方法3得到的融合结果图,窗口大小为32×32;
图5(l)是用现有方法3得到的融合结果图,窗口大小为64×64;
图5(m)是用本发明得到的融合结果图,窗口大小为8×8;
图5(n)是用本发明得到的融合结果图,窗口大小为16×16;
图5(o)是用本发明得到的融合结果图,窗口大小为32×32;
图5(p)是用本发明得到的融合结果图,窗口大小为64×64。
3、实验结果
将本发明的融合结果与现有三种方法的融合结果进行比较,评价本发明的效果。表1给出了Clock多聚焦图像融合客观评价指标,
表2给出了Pepsi多聚焦图像融合客观评价指标。
表1Clock多聚焦图像融合客观评价指标
表1续
表2Pepsi多聚焦图像融合客观评价指标
表1、表2中BlockSize为窗口大小,Qabf为边缘保持度,EI为熵,AG为平均梯度,MI为互信息,STD为标准差。
边缘保持度(Qabf):边缘保持度用来表示融合图像对输入图像边缘信息的保持程度,取值范围为[0,1],越接近1,说明边缘保持的越好。
熵(EI):图像熵代表图像包含信息量的多少,其值越大说明图像包含的信息量越多。
平均梯度(AG):平均梯度反映了图像中的微小细节反差与纹理特征,同时反应图像的清晰程度,其值越大,图像越清晰。
互信息(MI):互信息用来表示源图像从融合图像中获得的信息的多少,其值越大,表明图像从源图像中获得的信息越多。
标准差(STD):标准差评价图像反差大小,图像反差越大,携带的信息越多,融合效果越好。
将本发明与现有方法1进行比较,从表1和表2两组客观指标来看,本发明的互信息指标优于方法1,但其他指标均差于方法1,这是由于方法1容易产生大量噪声和带状条纹,使得客观指标不能真实的反映融合效果的好坏;从融合结果图4,图5来看,本发明的视觉效果优于方法1的视觉效果;
将本发明与现有方法2进行比较,从表1和表2的两组客观指标来看,在窗口大小取32×32时,除熵指标外,本发明的各项客观指标均较优。由于方法2在融合前要先进行重构,因此融合需要的时间和数据的传输量均比本发明高一倍;从图4,图5来看,本发明的视觉效果与方法2的视觉效果相当;
将本发明与现有方法3进行比较,从表1和表2的两组客观指标来看,在窗口大小取32×32时,除互信息外,本发明的各项客观指标均较优;从图4,图5来看,本发明的视觉效果与方法3的视觉效果相当;
综上所述,在窗口大小取32×32时,本发明在客观指标和视觉效果方面均能获得较理想的效果,从而证明了本发明在多聚焦图像融合中的表现优于现有的方法。
Claims (4)
1.一种基于压缩感知和能量规则的多聚焦图像融合方法,包括如下步骤:
(1)输入两幅多聚焦图像A和B,并对其进行分块,得到n对N×N的图像块并将每对图像块拉成列,分别表示为Ai和Bi,i=1,2,...,n,n为图像块的对数,N为图像块窗口大小,N>1;
(2)根据第i对图像块的观测矩阵Φi,得到两个图像块的观测向量yAi和yBi;
(3)按如下规则对第i对图像块进行融合,得到融合后的图像块的观测值ybi:
(3a)根据多聚焦图像A和B的图像块观测向量yAi,yBi,及观测向量的能量EAi,EBi,计算每对图像块的融合权值:
ωB=1-ωA,
其中,EAi,EBi分别为图像块观测向量yAi,yBi的能量,DS(yAi,yBi)为观测向量yAi,yBi的数据相似度,ωA,ωB为图像块的融合权值,T为可调参数,T≠-1;
(3b)根据每对图像块的融合权值ωA,ωB,对多聚焦图像A和B的每对图像块的观测向量yAi,yBi进行融合,得到融合后的图像块的观测向量ybi:
ybi=ωAyAi+ωByBi;
(3c)重复步骤(3a)和(3b),直到所有的图像块对都完成融合;
(4)将得到的所有的观测向量ybi整合成一列,得到融合图像的观测向量y:
y=[yb1 T,yb2 T,...,ybn T]T,
其中,上标T表示向量的转置;
(5)对融合图像的观测向量y采用梯度投影法在CDF9/7小波基下进行重构,得到稀疏表示系数θ;再对稀疏表示系数θ进行小波逆变换,得到融合后的全聚焦图像F。
2.根据权利要求书1所述的基于压缩感知和能量规则的多聚焦图像融合方法,其中所述(2)中对图像块的观测矩阵Φi为置乱的哈达玛矩阵,对第i对图像块观测采用的公式为:
yAi=Φi×Ai
yBi=Φi×Bi,
其中,Φi大小为M×N2,1<M<N,i=1,2,...,n。
3.根据权利要求书1所述的基于压缩感知和能量规则的多聚焦图像融合方法,其中所述(3a)中的图像块观测向量yAi,yBi的能量EAi,EBi,按如下公式计算:
EAi=||yAi||2 2
EBi=||yBi||2 2,
其中,EAi是多聚焦图像A图像块观测向量yAi的能量,EBi是多聚焦图像B图像块观测向量yBi的能量,||||2表示向量的二范数。
4.根据权利要求书1所述的基于压缩感知和能量规则的多聚焦图像融合方法,其中所述步骤(3a)中的数据相似度DS(yAi,yBi),按如下公式计算:
DS(yAi,yBi)=[c(yAi,yBi)·d(yAi,yBi)]α·[a(yAi,yBi)]β,
其中,c(yAi,yBi)代表图像块观测向量yAi,yBi的数值强度,d(yAi,yBi)代表图像块观测向量yAi,yBi的数值分布集中程度,a(yAi,yBi)代表图像块观测向量yAi,yBi的相关程度,α为c(yAi,yBi)与d(yAi,yBi)乘积的指数,β为a(yAi,yBi)的指数,α,β均为可调参数,二者可取任意值,c(yAi,yBi),d(yAi,yBi),a(yAi,yBi)三者的表达式如下:
其中,代表图像块观测向量yAi的均值,代表图像块观测向量yBi的均值,代表图像块观测向量yAi的中值,代表图像块观测向量yBi的中值,代表图像块观测向量yAi的均值绝对偏差,代表图像块观测向量yBi的均值绝对偏差,代表图像块观测向量yAi的中值绝对偏差,代表图像块观测向量yBi的中值绝对偏差,代表图像块观测向量yAi,yBi的相关系数,代表图像块观测向量yAi,yBi的对称不确定性程度,c1为c(yAi,yBi)的防错系数,用来防止c(yAi,yBi)计算过程中分母为零的错误情况,c2为d(yAi,yBi)的防错系数,用来防止d(yAi,yBi)计算过程中分母为零的错误情况,实验中取c1=c2=0.000001。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310512370.9A CN103593833A (zh) | 2013-10-25 | 2013-10-25 | 基于压缩感知和能量规则的多聚焦图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310512370.9A CN103593833A (zh) | 2013-10-25 | 2013-10-25 | 基于压缩感知和能量规则的多聚焦图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103593833A true CN103593833A (zh) | 2014-02-19 |
Family
ID=50083958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310512370.9A Pending CN103593833A (zh) | 2013-10-25 | 2013-10-25 | 基于压缩感知和能量规则的多聚焦图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103593833A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103903242B (zh) * | 2014-04-14 | 2016-08-31 | 苏州经贸职业技术学院 | 基于视频传感器网络的自适应目标压缩感知融合跟踪方法 |
CN106651749A (zh) * | 2015-11-02 | 2017-05-10 | 福建天晴数码有限公司 | 基于线性方程的图形融合方法及*** |
CN107231250A (zh) * | 2017-04-25 | 2017-10-03 | 全球能源互联网研究院 | 一种基于电网信息物理***感知数据压缩采样方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101425137A (zh) * | 2008-11-10 | 2009-05-06 | 北方工业大学 | 基于拉普拉斯金字塔的人脸图像融合方法 |
CN102254314A (zh) * | 2011-07-17 | 2011-11-23 | 西安电子科技大学 | 基于压缩感知的可见光和红外图像融合方法 |
CN102393958A (zh) * | 2011-07-16 | 2012-03-28 | 西安电子科技大学 | 基于压缩感知的多聚焦图像融合方法 |
CN103164850A (zh) * | 2013-03-11 | 2013-06-19 | 南京邮电大学 | 一种基于压缩感知的多聚焦图像融合方法及装置 |
-
2013
- 2013-10-25 CN CN201310512370.9A patent/CN103593833A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101425137A (zh) * | 2008-11-10 | 2009-05-06 | 北方工业大学 | 基于拉普拉斯金字塔的人脸图像融合方法 |
CN102393958A (zh) * | 2011-07-16 | 2012-03-28 | 西安电子科技大学 | 基于压缩感知的多聚焦图像融合方法 |
CN102254314A (zh) * | 2011-07-17 | 2011-11-23 | 西安电子科技大学 | 基于压缩感知的可见光和红外图像融合方法 |
CN103164850A (zh) * | 2013-03-11 | 2013-06-19 | 南京邮电大学 | 一种基于压缩感知的多聚焦图像融合方法及装置 |
Non-Patent Citations (2)
Title |
---|
XIAOYAN LUO等: "《Classification-based image-fusion framework for compressive imaging》", 《JOURNAL OF ELECTRONIC IMAGING》 * |
贾建等: "《基于非下采样Contourlet变换的多传感器图像融合》", 《电子学报》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103903242B (zh) * | 2014-04-14 | 2016-08-31 | 苏州经贸职业技术学院 | 基于视频传感器网络的自适应目标压缩感知融合跟踪方法 |
CN106651749A (zh) * | 2015-11-02 | 2017-05-10 | 福建天晴数码有限公司 | 基于线性方程的图形融合方法及*** |
CN106651749B (zh) * | 2015-11-02 | 2019-12-13 | 福建天晴数码有限公司 | 基于线性方程的图形融合方法及*** |
CN107231250A (zh) * | 2017-04-25 | 2017-10-03 | 全球能源互联网研究院 | 一种基于电网信息物理***感知数据压缩采样方法及装置 |
CN107231250B (zh) * | 2017-04-25 | 2022-08-19 | 全球能源互联网研究院 | 一种基于电网信息物理***感知数据压缩采样方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wei et al. | Uncertainty quantification in inverse scattering problems with Bayesian convolutional neural networks | |
Han et al. | A texture feature analysis for diagnosis of pulmonary nodules using LIDC-IDRI database | |
Tao et al. | Chi-square generative adversarial network | |
CN108052881A (zh) | 一种实时检测施工现场图像中多类实体对象的方法及设备 | |
CN103729842A (zh) | 基于局部统计特征与整体显著性分析的织物疵点检测方法 | |
JP2018512913A5 (zh) | ||
CN102651124A (zh) | 基于冗余字典稀疏表示和评价指标的图像融合方法 | |
CN108053396A (zh) | 一种多失真图像质量的无参考评价方法 | |
Khoshandam et al. | Marginal rates of substitution in the presence of non-discretionary factors: A data envelopment analysis approach | |
CN103593833A (zh) | 基于压缩感知和能量规则的多聚焦图像融合方法 | |
CN103985104B (zh) | 基于高阶奇异值分解和模糊推理的多聚焦图像融合方法 | |
Li et al. | Craniofacial reconstruction based on least square support vector regression | |
Yaman et al. | Recent theory and applications on inverse problems | |
Koval et al. | Tractable optimal experimental design using transport maps | |
Wang et al. | GLCM texture based fractal method for evaluating fabric surface roughness | |
Tudevdagva | A new evaluation model for e-learning programs | |
Mullangi et al. | Texture and clustering-based skin disease classification | |
CN105224808B (zh) | 基于三维坐标的投影积分函数皮肤状态综合评价方法 | |
Zhao et al. | Reconstructing images corrupted by noise based on D–S evidence theory | |
Ibort et al. | On the tomographic description of classical fields | |
Tsugawa et al. | Analysis of the robustness of degree centrality against random errors in graphs | |
Jiang et al. | Computational approach to body mass index estimation from dressed people in 3D space | |
CN106203480A (zh) | 基于缺损数据的非线性特征提取和分类方法 | |
CN105787432A (zh) | 基于结构感知的人脸遮挡检测方法 | |
Xiang et al. | A trust-based mixture of gaussian processes model for robust participatory sensing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140219 |
|
RJ01 | Rejection of invention patent application after publication |