CN104537639B - 基于平移评价优选的光谱图像数据融合方法 - Google Patents

基于平移评价优选的光谱图像数据融合方法 Download PDF

Info

Publication number
CN104537639B
CN104537639B CN201410685688.1A CN201410685688A CN104537639B CN 104537639 B CN104537639 B CN 104537639B CN 201410685688 A CN201410685688 A CN 201410685688A CN 104537639 B CN104537639 B CN 104537639B
Authority
CN
China
Prior art keywords
equal
data
translation
buf
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410685688.1A
Other languages
English (en)
Other versions
CN104537639A (zh
Inventor
朱院院
高泽东
高教波
孟合民
吴江辉
李建军
张磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian institute of Applied Optics
Original Assignee
Xian institute of Applied Optics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian institute of Applied Optics filed Critical Xian institute of Applied Optics
Priority to CN201410685688.1A priority Critical patent/CN104537639B/zh
Publication of CN104537639A publication Critical patent/CN104537639A/zh
Application granted granted Critical
Publication of CN104537639B publication Critical patent/CN104537639B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于平移评价优选的光谱图像数据融合方法,属于超光谱图像数据融合技术领域。本发明首先对数据矩阵的像素向量进行分类,得到类矩阵;采用类矩阵主成分变换的降维投影矩阵,对数据矩阵进行投影,获得降维数据矩阵;再分配给对色空间黑白、红绿和黄蓝通道,转换至sRGB颜色空间,获得R、G、B通道颜色分量数据;通过平移映射颜色分量数据,综合评价系列数字图像,获取每个通道的最优平移量;最后利用三个最优平移量分别平移映射各通道颜色分量数据,得到融合结果图像。本发明采用最优平移量融合的方法,获得了高亮度的伪彩色融合图像,提高了图像的对比度和色彩区分度,便于人眼从复杂背景中快速识别目标。

Description

基于平移评价优选的光谱图像数据融合方法
技术领域
本发明属于超光谱图像数据融合技术领域,主要涉及光谱图像数据立方体融合成一幅伪彩色图像的融合方法,尤其涉及一种多幅窄带光谱图像数据融合成一幅易于人眼识别的伪彩色图像的融合方法。
背景技术
超光谱成像传感器基于成像光谱技术,同时获取被探测场景的空间二维和光谱信息。任何物质,由于组成成分、物理和化学性质的不同,其光谱特性存在着差异。利用这种差异可以对物质进行调查和鉴别,已经在遥感、地质、环境等领域得到广泛应用。
超光谱成像传感器获取的原始光谱数据立方体数据量大,很难被终端用户直接使用,实际使用过程中必须经过融合处理,得到简单直观有效的融合结果。针对不同的应用环境和使用目的,人们提出了不同的光谱数据融合方法,通过监督或非监督分类、光谱目标异常检测等方法,得到最终的融合目标数据、光谱曲线、灰度图像、伪彩色图像等。其中伪彩色图像显示是最为直观有效的方法,利用色彩表示目标的光谱属性,颜色的形状和大小反映目标的空间属性。
《Journal of Information Fusion》在2000年发表了一篇《AConcurrentSpectral-Screening PCT Algorithm for Remote Sensing Application》论文,文章中提出将光谱数据立方体进行主成分变换,将得到的三大主分量分配给对色颜色空间的亮度通道、红绿通道、黄蓝通道,再转换到0~255范围的RGB颜色空间进行映射显示。
《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》2003年发表了一篇《Principal-Components-Based Display Strategy for Spectral Imagery》论文,文章中提出将主成分变换得到的三大主分量转换到HSV颜色空间,即将第一主分量赋给V通道,将第三主分量和第二主分量的夹角值赋给H通道,将第三主分量和第二主分量的平方根除以第一主分量的值赋给S通道,最后将HVS颜色空间转换到RGB颜色空间进行显示。
上述融合方法将PCA变换的主分量转换到RGB颜色空间后,数值压缩至0~255范围进行映射,融合图像的整体亮度偏暗,每个颜色通道的不同目标背景间的灰度差异变小、对比度较低,存在相似光谱目标特别是真假目标的显示结果颜色区分度差,不易区别的缺陷。
发明内容
针对现有技术存在的问题,本发明提供一种基于平移评价优选的光谱图像数据融合方法,以提高融合图像对比度和颜色色彩区分度。
本发明的技术方案为:
一、所述一种基于平移评价优选的光谱图像数据融合方法,其特征在于:包括以下步骤:
步骤1:载入数据矩阵:读取光谱数据立方体,并整合成二维数据矩阵X(i,j),其中i=1、2、…、P,j=1、2、…、L,P为图像的像素数,其值等于图像高度H与图像宽度W的乘积,L为光谱波段数;
步骤2:数据矩阵像素分类获取类矩阵:对数据矩阵X(i,j)的像素向量X(i,:)=[X(i,1)X(i,2)...X(i,L)]进行分类,从每类像素向量中提取一个像素向量构成类矩阵Y(k,j),其中i=1、2、…、P,j=1、2、…、L,k=1、2、…、Pc,Pc为像素向量分类后的类数;
步骤3:类矩阵主成分变换获取降维数据矩阵:利用类矩阵Y(k,j)光谱维主成分变换得到的降维投影矩阵Tn(j,n),投影变换数据矩阵X(i,j)的光谱向量X(:,j)=[X(1,j)X(2,j)...X(P,j)]T,得到降维数据矩阵Xn(i,n),其中k=1、2、…、Pc;j=1、2、…、L,n=1、2、3,i=1、2、…、P;
步骤4:降维数据矩阵经过对色空间转换到sRGB颜色空间,得到R通道颜色分量数据Rs(:)、G通道颜色分量数据Gs(:)、B通道颜色分量数据Bs(:);
步骤5:采用R通道颜色分量数据Rs(:)和R通道平移步长Δmr,通过平移评价优选方法,得到R通道的最优平移量MR;采用G通道颜色分量数据Gs(:)和G通道平移步长Δmg,通过平移评价优选方法,得到G通道的最优平移量MG;采用B通道颜色分量数据Bs(:)和B通道平移步长Δmb,通过平移评价优选方法,得到B通道的最优平移量MB
所述平移评价优选方法包括以下步骤:
步骤5.1:将输入本方法的颜色分量数据存入数组V(j),j=1、2、…、P;求出颜色分量数据数组的最大值Vmax和最小值Vmin,计算平移总步数Nm=[(Vmax-Vmin)/Δm]+1,其中Δm为输入本方法的平移步长;初始化以下数组为0:平移量M(i),标准差Ed(i),熵Ee(i),平均梯度Eg(i),标准差分值Sd(i),熵分值Se(i),平均梯度分值Sg(i),综合评价值Sa(i),其中i=1、2、…、Nm
步骤5.2:循环标记i等于1,开始平移循环;
步骤5.3:判断循环标记i是否小于等于平移总步数Nm,如果为假,跳出平移循环,执行步骤5.6;如果为真,执行步骤5.4;
步骤5.4:采用“分段平移、数字映射、单项评价”方法,得到平移量M(i)、标准差Ed(i)、熵Ee(i)、平均梯度Eg(i);所述“分段平移、数字映射、单项评价”方法包括以下步骤:
步骤5.4.1:计算平移量M(i)=Vmin+(i-1)×Δm,得到平移后的颜色分量数据Vm(j)=V(j)-M(i),且j=1、2、…、P;
步骤5.4.2:数字映射平移后的颜色分量数据Vm(:)的每个像素,得到平移后的数字图像Vb(:),即Vb(j)=Map(Vm(j)),且j=1、2、…、P,其中,函数y=Map(x)为数字映射函数;
步骤5.4.3:计算平移后的数字图像Vb(:)的单项评价值:标准差Ed(i)、熵Ee(i)、平均梯度Eg(i):
计算标准差,其计算公式为:其中
计算熵,其计算公式为:q(j)表示灰度值为j的像素数nj与图像的像素数P之比;
计算平均梯度,首先将平移后的数字图像Vb(:)转换为二维数组形式V2b(m,n)=Vb(m×W+n),其中m=1、2、…、H,n=1、2、…、W;然后计算平均梯度,公式为:
步骤5.5:循环标记i加1,返回执行5.3步骤;
步骤5.6:采用单项打分方法,分别对标准差Ed(:)、熵Ee(:)和平均梯度Eg(:)进行单项打分,得到标准差分值Sd(:)、熵分值Se(:)和平均梯度分值Sg(:);所述单项打分方法包括以下步骤:
步骤5.6.1:初始化Nm行3列的二维数组Buf(i,j)和Out(i,j),其中i=1、2、…、Nm,j=1、2、3,二维数组Buf(i,j)和Out(i,j)的第一列Buf(:,1)、Out(:,1)存储单项评价值的序号,第二列Buf(:,2)、Out(:,2)存储单项评价值,第三列Buf(:,3)、Out(:,3)存储单项评价值的分值;
步骤5.6.2:对单项评价值即Buf(:,2)进行排序,并且单项评价值的序号Buf(:,1)随着Buf(:,2)顺序的变化而变化;
步骤5.6.3:取Buf(1,3)等于1,循环标记i等于2,开始循环;
步骤5.6.4:判断i是否小于等于Nm,如果为假执行步骤5.6.6;如果为真,再判断Buf(i,2)是否等于Buf(i-1,2),如果为真,取Buf(i,3)等于Buf(i-1,3),如果为假Buf(i,3)等于i;
步骤5.6.5:循环标记i加1,并返回执行步骤5.6.4;
步骤5.6.6:循环标记i等于1;
步骤5.6.7:判断i是否小于等于Nm,如果为真,Out(Buf(i,1),1)等于Buf(i,1),Out(Buf(i,1),2)等于Buf(i,2),Out(Buf(i,1),3)等于Buf(i,3);如果为假,执行5.6.9步骤;
步骤5.6.8:循环标记i加1,并返回执行步骤5.6.7;
步骤5.6.9:输出Out数组的第3列数据Out(:,3)作为对应单项评价值的分值;
步骤5.7:计算综合评价值Sa(i)=Sd(i)+Se(i)+Sg(i),其中i=1、2、…、Nm
步骤5.8:将最大综合评价值Smax初始化为Sa(1),最优平移量Mo初始化为M(1),循环标记i等于1,开始循环;
步骤5.9:判断i是否小于等于Nm,如果为假,跳出循环,执行步骤5.11;如果为真,再判断Sa(i)是否大于等于Smax,如果为真,最大综合评价值Smax等于Sa(i),最优平移量Mo等于M(i),如果为假,执行步骤5.10;
步骤5.10:循环标记i加1,并返回执行5.9步骤;
步骤5.11:输出最优平移量Mo
步骤6:融合结果图像:根据R通道的最优平移量MR,平移R通道颜色分量数据Rs(:);根据G通道的最优平移量MG,平移G通道颜色分量数据Gs(:);根据B通道的最优平移量MB,平移B通道颜色分量数据Bs(:),并分别数字映射,得到最终的融合图像Im(i,1:3),其计算公式如下:
Im(i,1)=Map(Rs(i)-MR);
Im(i,2)=Map(Gs(i)-MG);
Im(i,3)=Map(Bs(i)-MB);
其中i=1、2、…、P,y=Map(x)为数字映射函数。
二、进一步的优选方案,所述一种基于平移评价优选的光谱图像数据融合方法,其特征在于:步骤2中所述数据矩阵像素分类获取类矩阵,包括以下步骤:
步骤2.1:将类数Pc初始化为0,类矩阵Y(:,:)的元素初始化为0,类号数组S(:)的元素初始化为H×W+1;
步骤2.2:采用公式其中i=1、2、…、P,计算像素向量的二范数值;
步骤2.3:取分类编号k等于1,循环标记i等于1;
步骤2.4:判断循环标记i是否小于等于图像的像素数P,如果为假,执行步骤2.9;如果为真,接着再判断像素的类号数组元素S(i)是否大于等于H×W+1,如果为假,执行步骤2.8,如果为真,取像素的类号数组元素S(i)等于分类编号k,将光谱数据中第i个像素向量拷贝到类矩阵中,分类编号k加1,第二循环标记j初始化为i+1;
步骤2.5:判断第二循环标记j是否小于等于图像的像素数P,如果为假,执行步骤2.8;如果为真,接着再判断像素的类号数组元素S(j)是否大于等于H×W+1,如果为真,执行步骤2.6,如果为假,执行步骤2.7;
步骤2.6:判断F(i)是否等于0并且F(j)是否等于0,如果为真,取像素的类号数组元素S(j)等于分类编号k,执行步骤2.7;如果为假,再判断F(i)是否不等于0并且F(j)是否不等于0:
如果为真,计算分类系数
接着再判断η是否小于等于分类阈值ηth,如果为真,像素的类号数组元素S(j)等于分类编号k,如果为假,执行步骤2.7;
如果为假,执行步骤2.7;
步骤2.7:第二循环标记j加1,并返回执行步骤2.5;
步骤2.8:循环标记i加1,并返回执行步骤2.4;
步骤2.9:类矩阵的有效元素数目Pc等于k减1,输出类数Pc及类矩阵Y(:,:)。
三、进一步的优选方案,所述一种基于平移评价优选的光谱图像数据融合方法,其特征在于:步骤4中所述的降维数据矩阵经过对色空间转换到sRGB颜色空间,具体为将降维数据矩阵的光谱向量Xn(i,1)分别分配给对色空间的黑白通道,Xn(i,2)分配给对色空间的红绿通道,Xn(i,3)分配给对色空间的黄蓝通道,其中i=1、2、…、P,然后转换到sRGB颜色空间,得到R通道颜色分量数据Rs(i),G通道颜色分量数据Gs(i),B通道颜色分量数据Bs(i)数据,转换式为:
Rs(i)=1.8063×KI×Xn(i,1)-5.8827×KII×Xn(i,2)-0.5766×KIII×Xn(i,3);
Gs(i)=0.6472×KI×Xn(i,1)+2.8929×KII×Xn(i,2)+0.1928×KIII×Xn(i,3);
Bs(i)=0.4103×KI×Xn(i,1)-0.0706×KII×Xn(i,2)+1.2418×KIII×Xn(i,3);
其中KI为第一降维数据调节系数,KII为第二降维数据调节系数,KIII为第三降维数据调节系数。
四、进一步的优选方案,所述一种基于平移评价优选的光谱图像数据融合方法,其特征在于:所述数字映射函数的计算公式如下:
当x≤0时,x′=0
当0<x≤0.00304时,x′=12.92×x
当0.00304<x≤1时,x′=1.055×(x)(1.0/2.4)-0.055
当x>1时,x′=1
数字图像y=255×x′。
五、进一步的优选方案,所述一种基于平移评价优选的光谱图像数据融合方法,其特征在于:所述R通道平移步长Δmr、G通道平移步长Δmg、B通道平移步长Δmb的取值范围0~1。
六、进一步的优选方案,所述一种基于平移评价优选的光谱图像数据融合方法,其特征在于:所述R通道平移步长Δmr、G通道平移步长Δmg、B通道平移步长Δmb取0.5。
有益效果
本发明的有益技术效果体现在以下几个方面。
(一)本发明首先采用相似性测度对数据矩阵的像素向量进行分类,从每类像素向量中提取一个像素向量构成类矩阵;然后采用类矩阵主成分变换得到的降维投影矩阵,投影变换原有光谱数据立方体的光谱向量,得到降维数据矩阵;将降维数据矩阵的三个光谱向量分配给对色空间的黑白、红绿和黄蓝通道,并转换到sRGB颜色空间,得到R、G、B通道颜色分量数据;再采用平移映射颜色分量数据、综合评价数字图像、获取最优平移量的方法,得到R、G、B通道颜色分量数据的最优平移量;最后利用三个最优平移量分别平移映射各通道颜色数据,获取图像能量、信息、清晰度综合最优的融合图像,具有实现方法简单、效果明显等优点。
(二)本发明采用相似性测度对光谱数据立方体的像素向量进行分类,并采用类矩阵主成分变换的降维投影矩阵投影变换原有光谱数据立方体的光谱向量,使得不同光谱特性的大小目标均能以相同的权重构成降维投影矩阵,保证主成分变换后的不同光谱特性的小目标不会淹没在大目标中。
(三)本发明主成分变换后的第一成分、第二成分、第三成分光谱向量数据无关、能量分布越来越小的特点,与人眼对立神经细胞独立编码黑白亮度、红绿对色、黄蓝对色,且敏感度越来越低的机理相一致;基于此,本发明将第一成分、第二成分、第三成分光谱向量分配给对色空间的黑白通道、红绿通道、黄蓝通道,同一成分光谱向量数据采用人眼较易区分的对色显示,使得融合图像有利于人眼的视觉识别判断。
(四)本发明采用分段平移、数字映射、单项评价的方法,将颜色分量数据的分段平移到0至1范围,再进行数字映射,使得颜色数据每个数值区间反映的图像细节均能在平移后的数字图像中得到显示,并进行能量分布、信息量和清晰度的单项评价,既避免了直接截取颜色数据0至1部分数据进行数字映射容易导致小于0的低能量目标和大于1的高能量目标不能在融合图像中区分显示的缺点,也解决了颜色数据简单压缩到0至1范围进行数字映射图像对比度整体较低,细节人眼不易区分的缺陷。
(五)本发明采用排序、打分、恢复的单项打分方法将标准差、熵、平均梯度统一到相同的数量级,避免了计算综合评价值时低数量级的单项评价值融合易被高数量级的单项评价值所掩盖的缺点,使得通过综合评价值优选的数字图像兼具图像能量分布、图像信息、图像清晰度均较好的优点,这种采用图像的综合客观评价方法得到的融合图像与人眼的视觉识别效果基本一致。
(六)本发明对R、G、B颜色数据分别调用平移评价优选子程序,使得最终融合的RGB图像的每个颜色通道的能量、信息、清晰度综合最优。
附图说明
图1是光谱数据立方体数据矩阵构成示意图。
图2是本发明光谱数据融合方法工作流程图。
图3是图2中像素分类子程序的工作流程图。
图4是图2中主成分变换子程序的工作流程图。
图5是图2中颜色空间变换的变换过程示意图。
图6是图2中平移评价优选子程序的工作流程图。
图7是平移评价优选子程序中局部数据示意图。
图8是颜色分量数据平移原理示意图。
图9是图6中单项打分子程序的工作流程图。
图10是单项打分子程序中局部数据变化示意图。
图11是本发明优选实施例对光谱数据进行融合的实验结果图。
具体实施方式
下面结合附图和优选实施例对本发明作进一步的详述。
本发明的主要任务是采用软件方式对光谱数据立方体提供一种光谱数据融合方法,并最终获得一幅融合后的伪彩色图像。由此可见,光谱数据立方体是本发明需要处理的对象。光谱数据融合技术是将一组窄带光谱图像数据进行降维处理,得到一幅含有尽可能多信息的伪彩色图像。
本发明是一种基于平移评价优选的光谱图像融合方法,该方法的流程见图2所示,优选实施例中的计算机硬件采用Intel Core 6420双核处理器,主频为2.13G,硬盘大小为160G,1.6GHz,内存2GB,操作***为Windows XP,编程环境为Matlab7.1。该方法包括以下步骤:
第一步:载入光谱数据立方体,即读入光谱数据立方体,并整合成二维数据矩阵X(i,j),其中i=1、2、…、P,j=1、2、…、L。
光谱数据立方体是一个三维矩阵,图像高度H,图像宽度W,光谱波段数L,图像像素数P=H×W,为了方便数据处理,将三维矩阵整合成二维矩阵,如图1所示,每一行数据代表一个像素的所有波段的能量值,每一列记录了一个波段的所有像素的能量值,用下述矩阵表示:
称作数据矩阵,矩阵的每个元素X(i,j),其中i=1、2、…、P,j=1、2、…、L,表示第i个像素在第j个窄带波段处的能量值;行向量X(i,:)=[X(i,1)X(i,2)...X(i,L)],其中i=1、2、…、P,表示第i个像素在每个窄带波段的能量值,称作像素向量;列向量X(:,j)=[X(1,j)X(2,j)...X(P,j)]T,其中j=1、2、…、L,表示第j个窄带波段在每个像素的能量值,称作光谱向量。
第二步:数据矩阵像素分类获取类矩阵,即调用“像素分类子程序”,其具体步骤见图3。
像素分类子程序是将像素向量按照一定的相似性测度进行分类,并从每一类像素向量中选取一个代表像素构成类矩阵。像素分类子程序读入数据矩阵X(:,:),程序运行结束后,返回分类后的类数Pc及类矩阵Y(k,j),k=1、2、…、Pc,j=1、2、…、L。需要注意的是:分类前无法预知像素分类的类数Pc,但其一定不会超过图像的像素数P,因此类矩阵初始化为P个像素向量空间,程序运行结束后,有效数据为Pc个像素向量空间。用一维数组S(i)且i=1、2、…、P,存储空间维每个像素的分类编号,称作类号数组,其中S(i)为第i个像素的分类编号。
2.1执行像素分类程序初始化。类数Pc初始化为0,类矩阵Y(:,:)的元素初始化为0,类号数组S(:)的元素初始化为H×W+1。
2.2采用公式其中i=1、2、…、P,计算像素向量的二范数值。
2.3取分类编号k等于1,循环标记i等于1。
2.4判断循环标记i是否小于等于图像的像素数P,如果为假,执行2.9步骤;如果为真,接着再判断像素的类号数组元素S(i)是否大于等于H×W+1,如果为假,执行2.8步骤,如果为真,取像素的类号数组元素S(i)等于分类编号k,将光谱数据中第i个像素向量拷贝到类矩阵中,即Y(k,:)=X(i,:),分类编号k加1,第二循环标记j初始化为i+1。
2.5判断第二循环标记j是否小于等于图像的像素数P,如果为假,执行2.8步骤;如果为真,接着再判断像素的类号数组元素S(j)是否大于等于H×W+1,如果为真,执行2.6步骤,如果为假,执行2.7步骤。
2.6判断F(i)是否等于0并且F(j)是否等于0,如果为真,像素的类号数组元素S(j)等于分类编号k,执行2.7步骤;如果为假,再判断F(i)是否不等于0并且F(j)是否不等于0:
2.6.1如果为真,计算分类系数
接着再判断η是否小于等于分类阈值ηth,如果为真,像素的类号数组元素S(j)等于分类编号k;如果为假,执行2.7步骤。
上述分类系数η为包含相似测度η1和距离测度η2的综合分类测度算子,其中为像素矢量X(i,:)、X(j,:)的夹角余弦值,0≤η1≤1,η1越靠近1,两个像素矢量越相似,有0≤1-η1≤1,1-η1越靠近0,两个像素矢量越相似,越是同一类;为像素矢量X(i,:)、X(j,:)的兰氏距离;0≤η2≤1,η2越靠近0,两个像素矢量兰氏距离越短,越是同一类;因此,分类系数0≤η≤2,η越靠近0,两个像素矢量越是同一类,并且像素矢量的分类情况取决于分类阈值ηth,其越靠近0,分类后的类数越多,极限情况是分类数等于像素数;ηth越靠近2,分类后的类数越少,极限情况是所有像素分成一类,因此可知分类阈值ηth不宜过小,更不宜过大,在本实施例中ηth设置为0.6。
2.6.2如果为假,即条件(F(i)是否不等于0并且F(j)是否不等于0)为假,执行2.7步骤。
2.7第二循环标记j加1,并返回执行2.5步骤。
2.8循环标记i加1,并返回执行2.4步骤。
2.9类矩阵的有效元素数目Pc等于k减1,像素分类程序结束,返回类数Pc及类矩阵Y(:,:)。
本步骤得到类矩阵:
本步骤根据像素向量与像素向量之间的光谱特征差异,对原始的数据矩阵进行像素分类,并且每类像素只选择一个像素向量构成一个新的类矩阵,使得不同光谱特征的大目标和小目标都有一个代表像素,使得不同光谱特征的大目标和小目标都有相同的权重进行光谱维压缩,即主成分变换。
第三步:类矩阵主成分变换获取降维数据矩阵,即调用“主成分变换子程序”,其具体步骤见图4。
3.1计算类矩阵的像素能量平均值j=1、2、…、L。
3.2中心化类矩阵Yz(i,j)=Y(i,j)-Ym(j),其中i=1、2、…、Pc,j=1、2、…、L。
3.3计算类矩阵的协方差矩阵:其中i,j=1、2、…、L。
3.4求解上述协方差矩阵的特征值矩阵Λ(i,j),其中i,j=1、2、…、L,以及正交化的特征向量矩阵T(i,j),其中i,j=1、2、…、L。
上述协方差矩阵的特征值矩阵和正交化的特征向量矩阵可由数值计算方法得到,这里不再赘述,本发明在matlab中采用语句[T,Λ]=eig(C)计算得到。
根据矩阵理论可知,特征值矩阵是由特征值构成的对角矩阵,其非对角线元素为0,因此,上述特征值矩阵又可以表述为Λ(j,j),其中j=1、2、…、L,第j个特征值Λ(j,j)对应的特征向量为:T(:,j)=[T(1,j)T(2,j)…T(L,j)]T
3.5构造降维投影矩阵Tn(j,n),其中j=1、2、…、L,n=1、2、3。找出特征值矩阵Λ(j,j)中最大特征值、第二大特征值、第三大特征值,及其对应的正交化的特征向量,这三个特征向量构成降维投影矩阵Tn(j,n),其中j=1、2、…、L,j=1、2、3。
上述降维投影矩阵Tn(j,n),j=1、2、…、L,n=1、2、3,其中的第一个列向量T(:,1)=[T(1,1)T(2,1)…T(L,1)]T为最大特征值对应的特征向量,第二个特征向量T(:,2)=[T(1,2)T(2,2)…T(L,2)]T为第二大特征值对应的特征向量,第三个特征向量T(:,3)=[T(1,3)T(2,3)…T(L,3)]T为第三大特征值对应的特征向量。
3.6中心化数据矩阵Xz(i,j)=X(i,j)-Ym(j),其中i=1、2、…、P,j=1、2、…、L。
本发明采用类矩阵的像素能量平均值中心化数据矩阵,使得不同光谱特征的大目标的能量不会淹没小目标的能量。
3.7投影数据矩阵,得到降维数据矩阵其中i=1、2、…、P,j=1、2、3,主成分变换程序结束,返回主程序。
本步骤采用采用类矩阵主成分变换的降维投影矩阵投影变换原有的数据矩阵,使得不同光谱特性的大小目标均能以相同的权重构成降维投影矩阵,保证主成分变换后的不同光谱特性的小目标不会淹没在大目标中。
第四步:将降维数据矩阵Xn(i,j),其中i=1、2、…、P,j=1、2、3,转换到sRGB颜色空间,得到R通道颜色分量数据Rs(i),G通道颜色分量数据Gs(i),B通道颜色分量数据Gs(i)数据:
Rs(i)=1.8063×KI×Xn(i,1)-5.8827×KII×Xn(i,2)-0.5766×KIII×Xn(i,3);
Gs(i)=0.6472×KI×Xn(i,1)+2.8929×KII×Xn(i,2)+0.1928×KIII×Xn(i,3);
Bs(i)=0.4103×KI×Xn(i,1)-0.0706×KII×Xn(i,2)+1.2418×KIII×Xn(i,3)。
其中KI为第一降维数据调节系数,KII为第二降维数据调节系数,KIII为第三降维数据调节系数,这三个系数取值大于1时,降维数据矩阵的值被拉伸,取值小于1时,降维数据矩阵的值被压缩,系数主要用于调节各通道颜色分量数据的亮度,如果最终的融合图像整体亮度偏亮,那么要减小调节系数值,如果最终的融合图像整体亮度偏暗,那么要增大调节系数值,本实施例KI、KII、KIII取值为1。
本发明主成分变换后降维数据矩阵的第一成分Xn(:,1)、第二成分Xn(:,2)、第三成分Xn(:,3)光谱向量数据无关、能量分布越来越小的特点,与人眼对立神经细胞独立编码黑白亮度O1、红绿对色O2、黄蓝对色O3,且敏感度越来越低的机理相一致;基于此,本发明将第一成分Xn(:,1)、第二成分Xn(:,2)、第三成分Xn(:,3)光谱向量分配给对色空间的黑白通道O1、红绿通道O2、黄蓝通道O3,同一成分光谱向量数据采用人眼较易区分的对色显示,使得融合图像有利于人眼的视觉识别判断。
对色空间转换到sRGB空间的过程如图5所示。下面推导由对色空间到sRGB空间的转换关系。
首先对色空间转换到锥细胞响应空间,人眼的视觉感知锥细胞响应L、M、S三者是相关的,而编码重构后的亮度分量O1、红绿对色O2、黄蓝对色O3是不相关,对色空间与锥细胞响应空间的转换矩阵采用Brian A.Wandell于1995年在著作《Foundations of Vision》中的关系式:
接着将锥细胞响应空间转换到CIE-1931 XYZ计算模型空间,其转换关系采用MarkD.Fairchild于2013年在论著《Color Appearance Models》中的关系式:
接着为了能在不同的硬件设备上显示存储,将XYZ空间转换到与硬件设备无关的标准颜色空间sRGB空间,关系式采用Hewlett-Packard公司和Microsoft公司于1996年在文章《A Standard Default Color Space for the Internet:sRGB》中提出的关系式:
以上式1至式3联立,得到
本步骤采用式(4)将主成分变换得到的第一成分Xn(:,1)、第二成分Xn(:,2)、第三成分Xn(:,3),转换到sRGB空间的R通道颜色分量数据Rs(i),G通道颜色分量数据Gs(i),B通道颜色分量数据Bs(i)。
第五步:对R通道颜色分量数据Rs(:)进行平移映射评价优选,得到R通道的最优平移量MR,即调用“平移评价优选子程序”其具体步骤见图6。
本发明“平移评价优选子程序”接收颜色分量数据和平移步长,返回该颜色分量的最优平移量。
5.1读入颜色分量数据,存入数组V(j),并且j=1、2、…、P;读入平移步长Δm,求出颜色分量数据V(:)的最大值Vmax和最小值Vmin,计算平移总步数Nm=[(Vmax-Vmin)/Δm]+1,初始化以下数组为0:平移量M(i),标准差Ed(i),熵Ee(i),平均梯度Eg(i),标准差分值Sd(i),熵分值Se(i),平均梯度分值Sg(i),综合评价值Sa(i),并且i=1、2、…、Nm
图7表示了上述八个数组元素值之间的对应关系,M(i)记录了平移第i步的平移量;Ed(i)、Ee(i)、Eg(i)分别存储了平移第i步平移映射数字图像的单项评价值:标准差、熵、平均梯度;Sd(i)、Se(i)、Sg(i)分别存储了第i步平移映射数字图像的标准差分值、熵分值、平均梯度分值;Sa(i)存储了第i步平移映射数字图像的综合评价值。
5.2循环标记i等于1,开始平移循环。
5.3判断循环标记i是否小于等于平移总步数Nm,如果为假,跳出平移循环,执行5.6步骤;如果为真,执行5.4步骤。
5.4首先对颜色分量数据进行平移,然后映射得到平移后的数字图像,再进行标准差、熵、平均梯度的单项评价。
5.4.1计算平移量M(i)=Vmin+(i-1)×Δm,得到平移后的颜色分量数据Vm(j)=V(j)-M(i),且j=1、2、…、P。
5.4.2数字映射平移后的颜色分量数据Vm(:)的每个像素,得到平移后的数字图像Vb(:),即Vb(j)=Map(Vm(j)),且j=1、2、…、P,其中,函数y=Map(x)为数字映射函数,其具体计算公式如下:
当x≤0时,x′=0
当0<x≤0.00304时,x′=12.92×x
当0.00304<x≤1时,x′=1.055×(x)(1.0/2.4)-0.055
当x>1时,x′=1
数字图像y=255×x′。
5.4.3计算平移后的数字图像Vb(:)的单项评价值:标准差Ed(i)、熵Ee(i)、平均梯度Eg(i)。
计算标准差,其计算公式为:其中
计算熵,其计算公式为:q(j)表示灰度值为j的像素数nj与图像的像素数P之比,即q(j)=nj/P。
计算平均梯度,首先将平移后的数字图像Vb(:)转换为二维数组形式V2b(m,n)=Vb(m×W+n),其中m=1、2、…、H,n=1、2、…、W;然后计算平均梯度,公式为:
5.5循环标记i加1,返回执行5.3步骤。
本发明的5.1至5.5步骤的“平移映射评价”方法,其原理如图8所示,从左至右进行平移,在i=1时,将[Vmin,Vmin+1]范围内的数据平移到[0,1],在i=2时,将[Vmin+Δm,Vmin+Δm+1]范围内的数据平移到[0,1],在i=3时,将[Vmin+2Δm,Vmin+2Δm+1]范围内的数据平移到[0,1],…,直至平移结束。
本发明采用分段平移、数字映射、单项评价的方法,将颜色数据的数值分段平移到0至1范围,再进行数字映射,使得颜色数据每个数值区间反映的图像细节均能在平移后的数字图像中得到显示,并进行能量分布、信息量和清晰度的单项评价,既避免了直接截取颜色数据0至1部分数据进行数字映射容易导致小于0的低能量目标和大于1的高能量目标不能在融合图像中区分显示的缺点,也解决了颜色数据简单压缩到0至1范围进行数字映射图像对比度整体较低,细节人眼不易区分的缺陷。
5.6对标准差Ed(:)进行单项打分,得到标准差分值Sd(:),调用“单项打分子程序”其具体步骤见图9。
5.6.1读入单项评价值,初始化Nm行3列的二维数组Buf(i,j)和Out(i,j),其中i=1、2、…、Nm,j=1、2、3,上述二维数组第一列Buf(:,1)、Out(:,1)存储单项评价值的序号,第二列Buf(:,2)、Out(:,2)存储单项评价值,第三列Buf(:,3)、Out(:,3)存储单项评价值的分值。
5.6.2对单项评价值即Buf(:,2)进行排序,并且单项评价值的序号Buf(:,1)随着Buf(:,2)顺序的变化而变化。
5.6.3Buf(1,3)等于1,循环标记i等于2,开始循环。
5.6.4判断i是否小于等于Nm,如果为假执行5.6.6步骤;如果为真,再判断Buf(i,2)是否等于Buf(i-1,2),如果为真,Buf(i,3)等于Buf(i-1,3);如果为假Buf(i,3)等于i。
5.6.5循环标记i加1,并返回执行5.6.4步骤。
5.6.6循环标记i等于1。
5.6.7判断i是否小于等于Nm,如果为真,Out(Buf(i,1),1)等于Buf(i,1),Out(Buf(i,1),2)等于Buf(i,2),Out(Buf(i,1),3)等于Buf(i,3);如果为假,执行5.6.9步骤。
5.6.8循环标记i加1,并返回执行5.6.7步骤。
5.6.9返回Out数组的第3列数据Out(:,3),单项打分程序结束。
本步骤调用“单项打分子程序”读入的单项评价值为标准差Ed(:),返回的Out(:,3)数据即为标准差分值Sd(:)。
下面结合图10说明本发明的“排序打分恢复”单项打分方法,针对图10所示的第一个数据图所示的单项评价值进行打分,首先读入数据初始化,即执行5.6.1步骤,得到图10的第二个数据图;对单项评价值进行由小到大的排序,即执行5.6.2步骤的“排序”,获得图10的第三个数据图;接着按照评价值小分值小、评价值大分值大、评价值相同分值相同的原则对单项评价值进行打分,即执行5.6.3步骤至5.6.5步骤的“打分”,得到图10的第四个数据图;再将单项评价值恢复成原有顺序,即执行5.6.6步骤至5.6.8步骤的“恢复”,得到图10的第五个数据图;这样返回的分值就是每个平移后的数字图像单项评价值对应的分值。
5.7对熵Ee(:)进行单项打分,得到熵分值Se(:),其方法与5.6步骤相同。
本步骤调用“单项打分子程序”读入的单项评价值为熵Ee(:),返回的Out(:,3)数据即为熵分值Sd(:)。
5.8对平均梯度Eg(:)进行单项打分,得到标准差分值Sg(:),其方法与5.6步骤相同。
本步骤调用“单项打分子程序”读入的单项评价值为平均梯度Eg(:),返回的Out(:,3)数据即为平均梯度分值Sg(:)。
5.9计算综合评价值Sa(i)=Sd(i)+Se(i)+Sg(i),其中i=1、2、…、Nm
本发明采用排序、打分、恢复的单项打分方法将不同数量级的单项评价值统一到相同的数量级,将反映图像能量分布的单项评价值标准差、反映图像信息的单项评价值熵、反映图像清晰度的单项评价值平均梯度统一到同一个数量级,避免了低数量级的单项评价值被高数量级的单项评价值掩盖,使得计算的综合评价值能综合反映图像的能量分布、信息和清晰度。
5.10最大综合评价值Smax初始化为Sa(1),最优平移量Mo初始化为M(1),循环标记i等于1,开始循环。
5.11判断i是否小于等于Nm,如果为假,跳出循环,执行5.13步骤;如果为真,再判断Sa(i)是否大于等于Smax,如果为真,最大综合评价值Smax等于Sa(i),最优平移量Mo等于M(i),如果为假,执行5.12步骤。
5.12循环标记i加1,并返回执行5.11步骤。
5.13返回最优平移量Mo,平移评价优选程序结束。
本步骤调用“平移评价优选子程序”,即将R通道颜色分量数据Rs(:)传递给“平移评价优选子程序”的V(:),将R通道平移步长Δmr传递给Δm,返回值Mo赋给R通道的最优平移量MR
值得注意的是:为了覆盖颜色分量数据Rs(:)的取值范围,R通道平移步长Δmr取值范围0<Δmr≤1,Δmr值越小,平移后的数字图像Vb(:)越能反映每次平移后的图像细节,但计算量越大,本实施例Δmr取值0.5。
第六步:对G通道颜色分量数据Gs(:)进行平移映射评价优选,得到G通道的最优平移量MG。方法与第五步相同。
本步骤调用“平移评价优选子程序”,即将G通道颜色分量数据Gs(:)传递给“平移评价优选子程序”的V(:),将G通道平移步长Δmg传递给Δm,返回值Mo赋给G通道的最优平移量MG,本实施例Δmg取值0.5。
第七步:对B通道颜色分量数据Bs(:)进行平移映射评价优选,得到B通道的最优平移量MB。方法与第五步相同。
本步骤调用“平移评价优选子程序”,即将B通道颜色分量数据Bs(:)传递给“平移评价优选子程序”的V(:),将B通道平移步长Δmb传递给Δm,返回值Mo赋给B通道的最优平移量MB,本实施例Δmb取值0.5。
第八步:根据R通道的最优平移量MR,平移R通道颜色分量数据Rs(:);根据G通道的最优平移量MG,平移G通道颜色分量数据Gs(:);根据B通道的最优平移量MB,平移B通道颜色分量数据Bs(:),并分别数字映射,得到最终的融合图像Im(i,j),且i=1、2、…、P,j=1、2、3,其计算公式如下:
Im(i,1)=Map(Rs(i)-MR)
Im(i,2)=Map(Gs(i)-MG)
Im(i,3)=Map(Bs(i)-MB)
其中i=1、2、…、P,y=Map(x)为5.4.2步骤描述的数字映射函数y=Map(x)。
为了验证本发明的有效性,采用不同的融合方法进行对比实验。本发明中实验所用数据立方体为某靶场的伪装车辆超光谱探测识别实验数据,波段范围:0.4μm~0.9μm,探测距离3km,数据立方体的图像高度H=491(像素),图像宽度W=674(像素),光谱波段数L=61(窄带波段数),图11给出了采用不同方法的融合结果图像。图11(a)为论文《AConcurrent Spectral-Screening PCT Algorithm for Remote Sensing Application》主成分变换后采用对色空间转换至sRGB再压缩显示的结果图像;图11(b)为论文《Principal-Components-Based Display Strategy for Spectral Imagery》主成分变换后进行HSV显示结果图像;图11(c)为主成分变换后采用直接截取sRGB数据0至1范围进行数字映射的结果图像;图11(d)为本发明的融合结果图像。
图11(a)将降维光谱数据进行压缩显示,图像的整体亮度偏低,对比度不明显,虽然也采用了对色融合技术,但是随着观察距离的进一步变远,人眼将很难从植被中区分出车辆;图11(b)进行整体压缩HSV显示时,由于采用了数据零值调整方法,使得车辆为蓝色、丛林为黄棕色,色彩区分明显,人眼能从丛林和车辆的不同颜色中很快识别车辆,但是由于整体亮度偏低,车辆和植被的颜色过于接近,如果观察距离进一步变远,将很难从植被中识别出车辆;图11(c)直接截取显示的方式,使得车辆与植被的颜色均为红色,丛林为浅红色,尽管天空背景为浅绿色,人眼还是很难从植被和背景中识别出车辆;图11(d)伪装车辆为蓝色,植被为绿色,丛林为红色,天空为浅绿色,场景中的车辆、植被、丛林颜色区分度大,尤其是相邻的天空与丛林,丛林与车辆,车辆与植被的色彩区分非常明显,图像的对比度较高,易于人眼观察识别,即使探测距离进一步变远,车辆像素变少,人眼还是很快能从场景中识别车辆。
本发明由于采用分段平移、数字映射、单项评价、单项打分、综合评价的方法,根据最优平移量进行最终的平移映射融合图像输出,既避免了直接截取颜色数据0至1部分数据进行数字映射容易导致小于0的低能量目标和大于1的高能量目标不能在融合图像中区分显示的缺点(图11(c)所示),也解决了颜色数据压缩到0至1范围进行数字映射图像对比度整体较低,细节人眼不易区分的缺陷(图11(a)、图11(b)所示),同时图像兼具图像能量分布、图像信息、图像清晰度均较好的优点,人眼能容易地从复杂背景中识别出被探测目标。

Claims (5)

1.一种基于平移评价优选的光谱图像数据融合方法,其特征在于:包括以下步骤:
步骤1:载入数据矩阵:读取光谱数据立方体,并整合成二维数据矩阵X(i,j),其中i=1、2、…、P,j=1、2、…、L,P为图像的像素数,其值等于图像高度H与图像宽度W的乘积,L为光谱波段数;
步骤2:数据矩阵像素分类获取类矩阵:对数据矩阵X(i,j)的像素向量X(i,:)=[X(i,1) X(i,2) ... X(i,L)]进行分类,从每类像素向量中提取一个像素向量构成类矩阵Y(k,j),其中i=1、2、…、P,j=1、2、…、L,k=1、2、…、Pc,Pc为像素向量分类后的类数;
步骤3:类矩阵主成分变换获取降维数据矩阵:利用类矩阵Y(k,j)光谱维主成分变换得到的降维投影矩阵Tn(j,n),投影变换数据矩阵X(i,j)的光谱向量X(:,j)=[X(1,j) X(2,j) ... X(P,j)]T,得到降维数据矩阵Xn(i,n),其中k=1、2、…、Pc;j=1、2、…、L,n=1、2、3,i=1、2、…、P;
步骤4:降维数据矩阵经过对色空间转换到sRGB颜色空间,得到R通道颜色分量数据Rs(:)、G通道颜色分量数据Gs(:)、B通道颜色分量数据Bs(:);
步骤5:采用R通道颜色分量数据Rs(:)和R通道平移步长Δmr,通过平移评价优选方法,得到R通道的最优平移量MR;采用G通道颜色分量数据Gs(:)和G通道平移步长Δmg,通过平移评价优选方法,得到G通道的最优平移量MG;采用B通道颜色分量数据Bs(:)和B通道平移步长Δmb,通过平移评价优选方法,得到B通道的最优平移量MB;所述R通道平移步长Δmr、G通道平移步长Δmg、B通道平移步长Δmb的取值范围0~1;
所述平移评价优选方法包括以下步骤:
步骤5.1:将输入本方法的颜色分量数据存入数组V(j),j=1、2、…、P;求出颜色分量数据数组的最大值Vmax和最小值Vmin,计算平移总步数Nm=[(Vmax-Vmin)/Δm]+1,其中Δm为输入本方法的平移步长;初始化以下数组为0:平移量M(i),标准差Ed(i),熵Ee(i),平均梯度Eg(i),标准差分值Sd(i),熵分值Se(i),平均梯度分值Sg(i),综合评价值Sa(i),其中i=1、2、…、Nm
步骤5.2:循环标记i等于1,开始平移循环;
步骤5.3:判断循环标记i是否小于等于平移总步数Nm,如果为假,跳出平移循环,执行步骤5.6;如果为真,执行步骤5.4;
步骤5.4:采用“分段平移、数字映射、单项评价”方法,得到平移量M(i)、标准差Ed(i)、熵Ee(i)、平均梯度Eg(i);所述“分段平移、数字映射、单项评价”方法包括以下步骤:
步骤5.4.1:计算平移量M(i)=Vmin+(i-1)×Δm,得到平移后的颜色分量数据Vm(j)=V(j)-M(i),且j=1、2、…、P;
步骤5.4.2:数字映射平移后的颜色分量数据Vm(:)的每个像素,得到平移后的数字图像Vb(:),即Vb(j)=Map(Vm(j)),且j=1、2、…、P,其中,函数y=Map(x)为数字映射函数;
步骤5.4.3:计算平移后的数字图像Vb(:)的单项评价值:标准差Ed(i)、熵Ee(i)、平均梯度Eg(i):
计算标准差,其计算公式为:其中
计算熵,其计算公式为:q(j)表示灰度值为j的像素数nj与图像的像素数P之比;
计算平均梯度,首先将平移后的数字图像Vb(:)转换为二维数组形式V2b(m,n)=Vb(m×W+n),其中m=1、2、…、H,n=1、2、…、W;然后计算平均梯度,公式为:
E g ( i ) = 1 ( H - 1 ) ( W - 1 ) Σ m = 1 H - 1 Σ n = 1 W - 1 ( V 2 b ( m , n + 1 ) - V 2 b ( m , n ) ) 2 + ( V 2 b ( m + 1 , n ) - V 2 b ( m , n ) ) 2 ;
步骤5.5:循环标记i加1,返回执行5.3步骤;
步骤5.6:采用单项打分方法,分别对标准差Ed(:)、熵Ee(:)和平均梯度Eg(:)进行单项打分,得到标准差分值Sd(:)、熵分值Se(:)和平均梯度分值Sg(:);所述单项打分方法包括以下步骤:
步骤5.6.1:初始化Nm行3列的二维数组Buf(i,j)和Out(i,j),其中i=1、2、…、Nm,j=1、2、3,二维数组Buf(i,j)和Out(i,j)的第一列Buf(:,1)、Out(:,1)存储单项评价值的序号,第二列Buf(:,2)、Out(:,2)存储单项评价值,第三列Buf(:,3)、Out(:,3)存储单项评价值的分值;
步骤5.6.2:对单项评价值即Buf(:,2)进行排序,并且单项评价值的序号Buf(:,1)随着Buf(:,2)顺序的变化而变化;
步骤5.6.3:取Buf(1,3)等于1,循环标记i等于2,开始循环;
步骤5.6.4:判断i是否小于等于Nm,如果为假执行步骤5.6.6;如果为真,再判断Buf(i,2)是否等于Buf(i-1,2),如果为真,取Buf(i,3)等于Buf(i-1,3),如果为假Buf(i,3)等于i;
步骤5.6.5:循环标记i加1,并返回执行步骤5.6.4;
步骤5.6.6:循环标记i等于1;
步骤5.6.7:判断i是否小于等于Nm,如果为真,Out(Buf(i,1),1)等于Buf(i,1),Out(Buf(i,1),2)等于Buf(i,2),Out(Buf(i,1),3)等于Buf(i,3);如果为假,执行5.6.9步骤;
步骤5.6.8:循环标记i加1,并返回执行步骤5.6.7;
步骤5.6.9:输出Out数组的第3列数据Out(:,3)作为对应单项评价值的分值;
步骤5.7:计算综合评价值Sa(i)=Sd(i)+Se(i)+Sg(i),其中i=1、2、…、Nm
步骤5.8:将最大综合评价值Smax初始化为Sa(1),最优平移量Mo初始化为M(1),循环标记i等于1,开始循环;
步骤5.9:判断i是否小于等于Nm,如果为假,跳出循环,执行步骤5.11;如果为真,再判断Sa(i)是否大于等于Smax,如果为真,最大综合评价值Smax等于Sa(i),最优平移量Mo等于M(i),如果为假,执行步骤5.10;
步骤5.10:循环标记i加1,并返回执行5.9步骤;
步骤5.11:输出最优平移量Mo
步骤6:融合结果图像:根据R通道的最优平移量MR,平移R通道颜色分量数据Rs(:);根据G通道的最优平移量MG,平移G通道颜色分量数据Gs(:);根据B通道的最优平移量MB,平移B通道颜色分量数据Bs(:),并分别数字映射,得到最终的融合图像Im(i,1:3),其计算公式如下:
Im(i,1)=Map(Rs(i)-MR);
Im(i,2)=Map(Gs(i)-MG);
Im(i,3)=Map(Bs(i)-MB);
其中i=1、2、…、P,y=Map(x)为数字映射函数。
2.根据权利要求1所述一种基于平移评价优选的光谱图像数据融合方法,其特征在于:步骤2中所述数据矩阵像素分类获取类矩阵,包括以下步骤:
步骤2.1:将类数Pc初始化为0,类矩阵Y(:,:)的元素初始化为0,类号数组S(:)的元素初始化为H×W+1;
步骤2.2:采用公式其中i=1、2、…、P,计算像素向量的二范数值;
步骤2.3:取分类编号k等于1,循环标记i等于1;
步骤2.4:判断循环标记i是否小于等于图像的像素数P,如果为假,执行步骤2.9;如果为真,接着再判断像素的类号数组元素S(i)是否大于等于H×W+1,如果为假,执行步骤2.8,如果为真,取像素的类号数组元素S(i)等于分类编号k,将光谱数据中第i个像素向量拷贝到类矩阵中,分类编号k加1,第二循环标记j初始化为i+1;
步骤2.5:判断第二循环标记j是否小于等于图像的像素数P,如果为假,执行步骤2.8;如果为真,接着再判断像素的类号数组元素S(j)是否大于等于H×W+1,如果为真,执行步骤2.6,如果为假,执行步骤2.7;
步骤2.6:判断F(i)是否等于0并且F(j)是否等于0,如果为真,取像素的类号数组元素S(j)等于分类编号k,执行步骤2.7;如果为假,再判断F(i)是否不等于0并且F(j)是否不等于0:
如果为真,计算分类系数
η = 1 - η 1 + η 2 = 1 - Σ l = 1 L ( X ( i , l ) × X ( j , l ) ) ( Σ l = 1 L X ( i , l ) × Σ l = 1 L X ( j , l ) ) 1 / 2 + 1 L × Σ l = 1 L | X ( i , l ) - X ( j , l ) | | X ( i , l ) + X ( j , l ) | ,
接着再判断η是否小于等于分类阈值ηth,如果为真,像素的类号数组元素S(j)等于分类编号k,如果为假,执行步骤2.7;
如果为假,执行步骤2.7;
步骤2.7:第二循环标记j加1,并返回执行步骤2.5;
步骤2.8:循环标记i加1,并返回执行步骤2.4;
步骤2.9:类矩阵的有效元素数目Pc等于k减1,输出类数Pc及类矩阵Y(:,:)。
3.根据权利要求1所述一种基于平移评价优选的光谱图像数据融合方法,其特征在于:步骤4中所述的降维数据矩阵经过对色空间转换到sRGB颜色空间,具体为将降维数据矩阵的光谱向量Xn(i,1)分别分配给对色空间的黑白通道,Xn(i,2)分配给对色空间的红绿通道,Xn(i,3)分配给对色空间的黄蓝通道,其中i=1、2、…、P,然后转换到sRGB颜色空间,得到R通道颜色分量数据Rs(i),G通道颜色分量数据Gs(i),B通道颜色分量数据Bs(i)数据,转换式为:
Rs(i)=1.8063×KI×Xn(i,1)-5.8827×KII×Xn(i,2)-0.5766×KIII×Xn(i,3);
Gs(i)=0.6472×KI×Xn(i,1)+2.8929×KII×Xn(i,2)+0.1928×KIII×Xn(i,3);
Bs(i)=0.4103×KI×Xn(i,1)-0.0706×KII×Xn(i,2)+1.2418×KIII×Xn(i,3);
其中KI为第一降维数据调节系数,KII为第二降维数据调节系数,KIII为第三降维数据调节系数。
4.根据权利要求1所述一种基于平移评价优选的光谱图像数据融合方法,其特征在于:所述数字映射函数的计算公式如下:
当x≤0时,x′=0
当0<x≤0.00304时,x′=12.92×x
当0.00304<x≤1时,x′=1.055×(x)(1.0/2.4)-0.055
当x>1时,x′=1
数字图像y=255×x′。
5.根据权利要求1所述一种基于平移评价优选的光谱图像数据融合方法,其特征在于:所述R通道平移步长Δmr、G通道平移步长Δmg、B通道平移步长Δmb取0.5。
CN201410685688.1A 2014-11-25 2014-11-25 基于平移评价优选的光谱图像数据融合方法 Active CN104537639B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410685688.1A CN104537639B (zh) 2014-11-25 2014-11-25 基于平移评价优选的光谱图像数据融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410685688.1A CN104537639B (zh) 2014-11-25 2014-11-25 基于平移评价优选的光谱图像数据融合方法

Publications (2)

Publication Number Publication Date
CN104537639A CN104537639A (zh) 2015-04-22
CN104537639B true CN104537639B (zh) 2017-04-19

Family

ID=52853158

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410685688.1A Active CN104537639B (zh) 2014-11-25 2014-11-25 基于平移评价优选的光谱图像数据融合方法

Country Status (1)

Country Link
CN (1) CN104537639B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108288259B (zh) * 2018-01-06 2022-04-05 昆明物理研究所 一种基于颜色空间转换的灰度融合增强方法
CN111665746B (zh) * 2019-04-12 2020-12-11 云和县赤旺玩具有限公司 现场设备命令控制方法
CN110398987B (zh) * 2019-04-12 2020-08-28 台州明创科技有限公司 现场设备命令控制平台
CN110267038B (zh) * 2019-06-28 2022-07-29 广东中星微电子有限公司 编码方法及装置、解码方法及装置
CN110414578A (zh) * 2019-07-16 2019-11-05 上海电机学院 一种基于动态多批次训练和色域转化的迁移学习方法
CN110632001B (zh) * 2019-09-11 2021-09-07 西安交通大学 一种用于多光谱成像的led光漫射匀光***及其使用方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6211971B1 (en) * 1999-03-11 2001-04-03 Lockheed Martin Missiles & Space Co. Method and apparatus to compress multi-spectral images to a single color image for display
CN102945546A (zh) * 2012-10-19 2013-02-27 哈尔滨工程大学 一种高光谱图像稀疏表示的可视化方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6211971B1 (en) * 1999-03-11 2001-04-03 Lockheed Martin Missiles & Space Co. Method and apparatus to compress multi-spectral images to a single color image for display
CN102945546A (zh) * 2012-10-19 2013-02-27 哈尔滨工程大学 一种高光谱图像稀疏表示的可视化方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A concurrent spectral-screening PCT algorithm for remote sensing;Tiranee Achalakul等;《Journal of Information Fusion》;20001231;第1卷(第2期);全文 *
Color Display for Hyperspectral Imagery;Qian Du等;《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》;20080630;第46卷(第6期);全文 *
Principal-Components-Based Display Strategy;J.Scott Tyo等;《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》;20030331;第41卷(第3期);全文 *
基于投影寻踪的高光谱图像特征融合算法;王秀朋等;《计算机测量与控制》;20061125;第14卷(第11期);全文 *

Also Published As

Publication number Publication date
CN104537639A (zh) 2015-04-22

Similar Documents

Publication Publication Date Title
CN104537639B (zh) 基于平移评价优选的光谱图像数据融合方法
Xiong et al. Material based object tracking in hyperspectral videos
CN111914907B (zh) 一种基于深度学习空谱联合网络的高光谱图像分类方法
US6356646B1 (en) Method for creating thematic maps using segmentation of ternary diagrams
CN109344701A (zh) 一种基于Kinect的动态手势识别方法
Le Moan et al. Saliency for spectral image analysis
CN106384117B (zh) 一种车辆颜色识别方法及装置
Wang et al. Classification of hyperspectral imagery with a 3D convolutional neural network and JM distance
CN110533077A (zh) 用于高光谱图像分类的形状自适应卷积深度神经网络方法
CN106934760B (zh) 一种面向类别的高光谱数据彩色可视化方法
CN110298893A (zh) 一种行人衣着颜色识别模型的生成方法及装置
CN107292328A (zh) 多尺度多特征融合的遥感影像阴影检测提取方法及***
CN108195771A (zh) 一种海洋高光谱遥感影像目标识别方法
Bouhennache et al. Extraction of urban land features from TM Landsat image using the land features index and Tasseled cap transformation
Weinmann et al. Fusion of hyperspectral, multispectral, color and 3D point cloud information for the semantic interpretation of urban environments
CN106156728A (zh) 基于光谱空间分解和噪声成分分析的超光谱图像降维方法及***
Duan et al. Buildings extraction from remote sensing data using deep learning method based on improved U-Net network
Salamati et al. Material-based object segmentation using near-infrared information
Han et al. Spatial-spectral classification based on the unsupervised convolutional sparse auto-encoder for hyperspectral remote sensing imagery
Huang et al. A target fusion-based approach for classifying high spatial resolution imagery
Peng et al. A methodology for palm vein image enhancement and visualization
Jordan et al. Hyperspectral image visualization with a 3-D self-organizing map
Phyo et al. Classification of Cluster Area Forsatellite Image
Qu et al. A novel night vision image color fusion method based on scene recognition
Gupta et al. Color features based model for land cover identification and agriculture monitoring with satellite images

Legal Events

Date Code Title Description
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant