CN113393543B - 高光谱图像压缩方法、装置、设备及可读存储介质 - Google Patents

高光谱图像压缩方法、装置、设备及可读存储介质 Download PDF

Info

Publication number
CN113393543B
CN113393543B CN202110662427.8A CN202110662427A CN113393543B CN 113393543 B CN113393543 B CN 113393543B CN 202110662427 A CN202110662427 A CN 202110662427A CN 113393543 B CN113393543 B CN 113393543B
Authority
CN
China
Prior art keywords
hyperspectral image
neural network
convolutional neural
representing
image compression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN202110662427.8A
Other languages
English (en)
Other versions
CN113393543A (zh
Inventor
种衍文
郭圆圆
潘少明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202110662427.8A priority Critical patent/CN113393543B/zh
Publication of CN113393543A publication Critical patent/CN113393543A/zh
Application granted granted Critical
Publication of CN113393543B publication Critical patent/CN113393543B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

本发明提供一种高光谱图像压缩方法、装置、设备及可读存储介质。该方法包括:通过训练集对卷积神经网络进行训练,其中,卷积神经网络包括非线性变换模块、量化模块以及熵模型;使用测试集验证训练完成的卷积神经网络的压缩性能,当训练完成的卷积神经网络的压缩性能达标时,通过训练完成的卷积神经网络对高光谱图像进行压缩处理。通过本发明,对于高光谱图像压缩具有较好的率失真性能。

Description

高光谱图像压缩方法、装置、设备及可读存储介质
技术领域
本发明涉及图像处理技术领域,尤其涉及一种高光谱图像压缩方法、装置、设备及可读存储介质。
背景技术
高光谱图像具有丰富而独特的光谱信息,给基于高光谱图像的很多应用,比如农作物分类、质量检测、灾难预测等任务带来了极大的便利。然而这种优势在有限的传输带宽和存储能力下,也制约着高光谱图像的进一步发展。因此,如何有效解决高光谱图像大数据量带来的各种挑战是高光谱图像得以广泛应用的前提和关键。
在高光谱图像压缩算法中,变换编码因其较小的计算复杂度和良好的适应性而得到广泛应用。基于变换编码的图像压缩算法包括四部分:变换,量化和熵编码,反变换,分开实现编码过程和去相关过程。
变换是通过一定的方式将图像从像素域变换到一个更为紧凑的空间,现有基于变换编码的高光谱图像压缩方法一般假设高光谱图像为高斯源,在此条件下只需可逆的线性变换即能将像素映射成独立的潜在表示,通过量化和熵编码将潜变量压缩成码流用于存储和传输。然而,实际场景的高光谱图像具有明显的非高斯特性,使得线性变换不再适用,非线性变换的探索为该问题提供了新的方法和思路。近年来,以人工神经网络尤其是深度学习为工具的非线性变换的发展改变了传统图像压缩手工设参的状况。现有基于深度学习的图像压缩技术表现出巨大的潜力,性能已超过工业界的H.266/VVC(Versatile VideoCoding,VVC)标准。然而,这些方法多用于处理三波段的自然图像,对于高光谱图像的压缩相对较少。
变换过程使得量化和和熵编码得以在一个紧凑空间执行,相较于RGB自然图像,高光谱图像的光谱间具有更强的相关性,这使得经过相同的变换过程,高光谱图像得到的潜在表示具有与RGB图像不同的统计特性。经过量化,潜变量变成离散形式,然后基于熵编码算法对该离散形式进行编码。而熵编码的过程依赖于潜变量的概率分布模型,由最小熵理论可知,设计的熵模型越接近真实的潜变量分布,码率越小,熵率优化过程中得到的解越接近最优解。
结合上述分析,目前基于深度学习的压缩技术还需要进一步根据高光谱图像的特点,设计更加灵活准确的熵模型,以减少熵模型与真实潜变量分布之间的失配,从而达到最优的率失真性能。
发明内容
为解决上述技术问题,本发明提供一种高光谱图像压缩方法、装置、设备及可读存储介质。
第一方面,本发明提供一种高光谱图像压缩方法,所述高光谱图像压缩方法包括:
通过训练集对卷积神经网络进行训练,其中,卷积神经网络包括非线性变换模块、量化模块以及熵模型;
使用测试集验证训练完成的卷积神经网络的压缩性能,当训练完成的卷积神经网络的压缩性能达标时,通过训练完成的卷积神经网络对高光谱图像进行压缩处理。
可选的,在所述通过训练集对卷积神经网络进行训练的步骤之前,还包括:
将样本高光谱图像在空间维切分成若干固定大小的立方块;
按预设比例将所述若干固定大小的立方块划分为训练集和测试集。
可选的,非线性变换模块对高光谱图像的空间和光谱维进行正向非线性变换,得到潜变量;量化模块通过添加均匀噪声的方式对潜变量进行量化;熵模型用于得到潜变量的概率分布,以供在熵编码时基于所述概率分布确定潜变量中每个元素所分配的码字。
可选的,基于率失真准则对卷积神经网络训练过程进行约束,用来确定非线性变换模块以及熵模型中的参数值。
可选的,所述非线性变换包括正向变换:Y=ga(WaX+ba),反向变换:
Figure GDA0003636229550000021
Figure GDA0003636229550000022
其中,
Figure GDA0003636229550000023
表示输入的高光谱图像,
Figure GDA0003636229550000024
表示重构图像,H,W,B分别对应高光谱图像的行、列和波段数,
Figure GDA0003636229550000025
表示潜变量,h,w,N分别对应潜变量的行、列和滤波器的个数,
Figure GDA0003636229550000026
Figure GDA0003636229550000027
表示正变换网络参数,
Figure GDA0003636229550000031
Figure GDA0003636229550000032
表示反变换网络参数,ga(.)表示非线性正向变换函数,gs(.)表示非线性反向变换函数。
可选的,所述通过添加均匀噪声的方式对潜变量进行量化的函数表达如下:
Figure GDA0003636229550000033
其中,training表示训练过程,testing表示测试过程,
Figure GDA0003636229550000034
表示单位均匀噪声,round表示取整操作,
Figure GDA0003636229550000035
表示量化后的潜向量。
可选的,将潜变量的统计特性引入熵模型的设计,同时,引入额外的变量构造一个条件模型,以提高熵模型的精度。
第二方面,本发明还提供一种高光谱图像压缩装置,所述高光谱图像压缩装置包括:
训练模块,用于通过训练集对卷积神经网络进行训练,其中,卷积神经网络包括非线性变换模块、量化模块以及熵模型;
处理模块,用于使用测试集验证训练完成的卷积神经网络的压缩性能,当训练完成的卷积神经网络的压缩性能达标时,通过训练完成的卷积神经网络对高光谱图像进行压缩处理。
第三方面,本发明还提供一种高光谱图像压缩设备,所述高光谱图像压缩设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的高光谱图像压缩程序,其中所述高光谱图像压缩程序被所述处理器执行时,实现如上所述的高光谱图像压缩方法的步骤。
第四方面,本发明还提供一种可读存储介质,所述可读存储介质上存储有高光谱图像压缩程序,其中所述高光谱图像压缩程序被处理器执行时,实现如上所述的高光谱图像压缩方法的步骤。
本发明中,通过训练集对卷积神经网络进行训练,其中,卷积神经网络包括非线性变换模块、量化模块以及熵模型;使用测试集验证训练完成的卷积神经网络的压缩性能,当训练完成的卷积神经网络的压缩性能达标时,通过训练完成的卷积神经网络对高光谱图像进行压缩处理。通过本发明,对于高光谱图像压缩具有较好的率失真性能。
附图说明
图1为本发明实施例方案中涉及的高光谱图像压缩设备的硬件结构示意图;
图2为本发明高光谱图像压缩方法一实施例的流程示意图;
图3为本发明高光谱图像压缩装置一实施例的功能模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
第一方面,本发明实施例提供一种高光谱图像压缩设备,该高光谱图像压缩设备可以是个人计算机(personal computer,PC)、笔记本电脑、服务器等具有数据处理功能的设备。
参照图1,图1为本发明实施例方案中涉及的高光谱图像压缩设备的硬件结构示意图。本发明实施例中,高光谱图像压缩设备可以包括处理器1001(例如中央处理器CentralProcessing Unit,CPU),通信总线1002,用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信;用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard);网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真WIreless-FIdelity,WI-FI接口);存储器1005可以是高速随机存取存储器(random access memory,RAM),也可以是稳定的存储器(non-volatile memory),例如磁盘存储器,存储器1005可选的还可以是独立于前述处理器1001的存储装置。本领域技术人员可以理解,图1中示出的硬件结构并不构成对本发明的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
继续参照图1,图1中作为一种计算机存储介质的存储器1005中可以包括操作***、网络通信模块、用户接口模块以及高光谱图像压缩程序。其中,处理器1001可以调用存储器1005中存储的高光谱图像压缩程序,并执行本发明实施例提供的高光谱图像压缩方法。
第二方面,本发明实施例提供了一种高光谱图像压缩方法。
一实施例中,参照图2,图2为本发明高光谱图像压缩方法一实施例的流程示意图。如图2所示,高光谱图像压缩方法包括:
步骤S10,通过训练集对卷积神经网络进行训练,其中,卷积神经网络包括非线性变换模块、量化模块以及熵模型;
本实施例中,预先构建训练集,并通过训练集对卷积神经网络进行训练,其中,卷积神经网络包括非线性变换模块、量化模块以及熵模型。
进一步地,一实施例中,在步骤S10之前,还包括:
将样本高光谱图像在空间维切分成若干固定大小的立方块;按预设比例将所述若干固定大小的立方块划分为训练集和测试集。
本实施例中,在训练开始前需准备数据集,包括训练集和测试集,以及设置卷积神经网络的超参数。例如,将27张大小为2704×3376×31的KAIST数据集(30张)以及28张512×512×31的CAVE数据(32张)进行随机裁剪为尺寸为128×128×31的图像块。实验采用tensorflow框架进行模型训练,将裁减好的128×128×31图像块批量(batchesize=32)送入搭好的网络,迭代500000次,训练时损失函数如下:
Figure GDA0003636229550000051
其中,近似后验
Figure GDA0003636229550000052
采用全分解的单位均匀密度函数,因此损失函数的第一项
Figure GDA0003636229550000053
表示失真项,在训练过程中采用带参数λ的均方误差MSE损失进行失真度量,λ的取值从0.00001到0.01之间,通过调整的取值可使得bppp(编码每个波段每个像素所占的比特数)的范围控制在0.1到2之间(λ越大,bppp越大);
Figure GDA0003636229550000054
表示总的编码比特数。
进一步地,一实施例中,非线性变换模块对高光谱图像的空间和光谱维进行正向非线性变换,得到潜变量;量化模块通过添加均匀噪声的方式对潜变量进行量化;熵模型用于得到潜变量的概率分布,以供在熵编码时基于所述概率分布确定潜变量中每个元素所分配的码字。
本实施例中,将训练集输入到卷积神经网络中,卷积神经网络中的非线性变换模块对高光谱图像的空间和光谱维进行正向非线性变换,使得图像从像素域映射到一个紧凑的潜层空间,得到潜变量;然后,卷积神经网络中的量化模块通过添加均匀噪声的方式对潜变量进行量化,训练过程由于量化会使得反向传播的梯度为0,为了保证训练顺利进行,本实施例采用添加均匀噪声的方式代替量化过程,使得量化可导,测试过程直接取整;再然后,基于熵模型得到潜变量的概率分布,以供在熵编码时,基于该概率分布确定潜变量中每个元素所分配的码字(即每个元素用几个字符)。
进一步地,一实施例中,基于率失真准则对卷积神经网络训练过程进行约束,用来确定非线性变换模块以及熵模型中的参数值。
本实施例中,采用率失真准则对非线性变换模块以及熵模型中的参数值进行求解,在优化过程中将变分推断的概念与率失真结合,从概率的角度解释率失真优化的过程:
Figure GDA0003636229550000061
其中,
Figure GDA0003636229550000062
表示重构图像,d(.)表示失真度量准则,在高光谱图像中一般采用峰值信噪比PSNR,结构相似度SSIM对像素进行失真度量,其值越大表示像素的重构效果越好,利用光谱角SAM度量光谱的重构精度,λ表示拉格朗日乘子。
为了优化上述损失函数,采用变分推断的思想,通过设计一个近似后验逼近真实的后验进行参数求解,采用KL散度对两个后验进行度量,计算公式如下:
Figure GDA0003636229550000063
其中,
Figure GDA0003636229550000064
表示近似后验,可用任何简单的分布表示,在压缩中一般表示为全分解的单位均匀分布,以便将该项从损失函数中去除,而其余除常数项const之外的三项,
Figure GDA0003636229550000065
对应失真
Figure GDA0003636229550000066
对应码率
Figure GDA0003636229550000067
对应额外的信息
Figure GDA0003636229550000068
进一步地,一实施例中,所述非线性变换包括正向变换:Y=ga(WaX+ba),反向变换:
Figure GDA0003636229550000071
其中,
Figure GDA0003636229550000072
表示输入的高光谱图像,
Figure GDA0003636229550000073
表示重构图像,H,W,B分别对应高光谱图像的行、列和波段数,
Figure GDA0003636229550000074
表示潜变量,h,w,N分别对应潜变量的行、列和滤波器的个数,
Figure GDA0003636229550000075
Figure GDA0003636229550000076
Figure GDA0003636229550000077
表示正变换网络参数,
Figure GDA0003636229550000078
Figure GDA0003636229550000079
表示反变换网络参数,ga(.)表示非线性正向变换函数,gs(.)表示非线性反向变换函数。
进一步地,一实施例中,所述通过添加均匀噪声的方式对潜变量进行量化的函数表达如下:
Figure GDA00036362295500000710
其中,training表示训练过程,testing表示测试过程,
Figure GDA00036362295500000711
表示单位均匀噪声,round表示取整操作,
Figure GDA00036362295500000712
表示量化后的潜向量。
本实施例中,对潜变量进行量化,训练时采用单位均匀噪声近似,测试时采用取整的方式。
进一步地,一实施例中,将潜变量的统计特性引入熵模型的设计,同时,引入额外的变量构造一个条件模型,以提高熵模型的精度。
本实施例中,将潜变量的统计特性引入熵模型的设计,以减少熵模型与真实潜变量分布的差异,二者的差异越小,得到的码率越小,可以在潜层表示中加入一定的先验认知,以提高熵模型的精度。这里通过引入额外的变量构造一个条件模型实现,计算公式如下:
Figure GDA00036362295500000713
其中,
Figure GDA00036362295500000714
表示量化后的潜层表示,
Figure GDA00036362295500000715
表示条件熵模型,
Figure GDA00036362295500000716
表示额外变量
Figure GDA00036362295500000717
的分布,作为熵模型的先验信息,
Figure GDA00036362295500000718
表示潜层表示的真实分布。
在熵模型设计时,加入了潜层表示的统计先验,利用卷积神经网络进行参数的求解:
Figure GDA00036362295500000719
其中,f表示能够描述潜层表示统计特性的一种分布,如果高斯特性比较明显可以表示为高斯分布,如果非高斯特性比较明显,可以选择T分布,拉普拉斯分布等;f的选择由潜层表示的统计特性决定。f的参数由卷积神经网络学习得到,即在确定f类型的前提下,利用变量学习f分布的参数信息。
由于高光谱图像经过卷积神经网络的非线性变换后,潜变量的分布具有明显的非高斯特性,因此在熵模型设计时需要加入这一先验信息,在实验过程中发现t分布能够很好地捕获这一特性,因此,选择t分布对高光谱图像的潜变量进行建模。
为了使整个压缩过程可微,量化过程采用加性单位均匀噪声近似;为了使熵模型与后验分布更加契合,在熵模型设计时,卷积一个单位均匀分布,公式如下:
Figure GDA0003636229550000081
其中,ηi表示t分布的尺度参数(类似方差但不等于方差),v表示自由度,可以调整t分布的形状。c表示熵模型的概率分布的解析形式。概率分布的参数变量利用额外的变量
Figure GDA0003636229550000082
通过超先验网络求的。
熵编码采用算术编码,在算数编码过程中,熵模型为算数编码和算数解码过程提供概率分布,根据潜变量中每个元素的概率分布确定为其分配的码字大小(即每个符号占几位),经过熵编码之后,潜变量变成二进制码流的形式用于存储或者传输。
步骤S20,使用测试集验证训练完成的卷积神经网络的压缩性能,当训练完成的卷积神经网络的压缩性能达标时,通过训练完成的卷积神经网络对高光谱图像进行压缩处理。
本实施例中,训练时采用均匀噪声近似量化过程,测试时直接采用取整方式。熵编码采用常用的算数编码,最小化率失真损失训练模型直至收敛。测试时直接将整张大图放进去,在CAVE数据集上,自由度为21时,可达到bppp为0.1219,PSNR为36.74dB,SSIM为0.9175,SAM为0.2137的效果。在自由度为20时,KAIST数据集上,可达到bppp为0.0885时,PSNR为39.99dB,SSIM为0.9524,SAM为0.2331的效果。
用户如果需要使用图像信息,可将二进制码流经过算数解码还原成潜变量,然后输入由两个空间和光谱模块组成的反变换网络,在反变换网络中,空间和光谱模块由IGDN连接,上采样恢复到原来的图像大小。压缩框架划分为四部分,包括变换网络、量化、熵编码,反变换网络。
本实施例中,针对高光谱图像的各向异性,提出空间和光谱卷积模块(SS module,包含SS module_down(用于构建编码网络)和SS module_up(用于构建解码网络)),中间由GDN连接。在SS module_down中,对于光谱维度为B的图像张量(B*H*W),第一层下采样后输入5*5*B的滤波器,生成N个特征表示;经过GDN,再经过一次下采样,输入5*5*N的卷积层,生成B个特征表示,再经过1*1*B的卷积层生成N个特征表示。SS module_up的过程与SSmodule_down类似,不过把下采样替换为上采样。在光谱模块设计时将高光谱图像的光谱维引入网络,实现光谱信息的重排,从而降低光谱之间的相关性。针对高光谱图像潜层表示的非高斯特性,在熵模型设计时,不再采用传统高斯分布的假设,通过引入一些非高斯分布作为潜层表示的统计先验,以提高熵模型与潜层表示统计分布的匹配度。根据对高光谱数据集CAVE和KAIST数据集潜变量的拟合,发现t分布表现良好,同时可以通过调整自由度灵活地改变分布的形状,在自由度趋于无穷时,t分布与高斯分布可等价。这一特性使得t分布既能捕获到潜层表示的非高斯特性,又能具有高斯分布的普适性。
本实施例中,通过训练集对卷积神经网络进行训练,其中,卷积神经网络包括非线性变换模块、量化模块以及熵模型;使用测试集验证训练完成的卷积神经网络的压缩性能,当训练完成的卷积神经网络的压缩性能达标时,通过训练完成的卷积神经网络对高光谱图像进行压缩处理。通过本实施例,对于高光谱图像压缩具有较好的率失真性能。
第三方面,本发明实施例还提供一种高光谱图像压缩装置。
一实施例中,参照图3,图3为本发明高光谱图像压缩装置一实施例的功能模块示意图。如图3所示,高光谱图像压缩装置包括:
训练模块10,用于通过训练集对卷积神经网络进行训练,其中,卷积神经网络包括非线性变换模块、量化模块以及熵模型;
处理模块20,用于使用测试集验证训练完成的卷积神经网络的压缩性能,当训练完成的卷积神经网络的压缩性能达标时,通过训练完成的卷积神经网络对高光谱图像进行压缩处理。
进一步地,一实施例中,高光谱图像压缩装置还包括构建模块,用于:
将样本高光谱图像在空间维切分成若干固定大小的立方块;
按预设比例将所述若干固定大小的立方块划分为训练集和测试集。
进一步地,一实施例中,非线性变换模块对高光谱图像的空间和光谱维进行正向非线性变换,得到潜变量;量化模块通过添加均匀噪声的方式对潜变量进行量化;熵模型用于得到潜变量的概率分布,以供在熵编码时基于所述概率分布确定潜变量中每个元素所分配的码字。
进一步地,一实施例中,基于率失真准则对卷积神经网络训练过程进行约束,用来确定非线性变换模块以及熵模型中的参数值。
进一步地,一实施例中,所述非线性变换包括正向变换:Y=ga(WaX+ba),反向变换:
Figure GDA0003636229550000101
其中,
Figure GDA0003636229550000102
表示输入的高光谱图像,
Figure GDA0003636229550000103
表示重构图像,H,W,B分别对应高光谱图像的行、列和波段数,
Figure GDA0003636229550000104
表示潜变量,h,w,N分别对应潜变量的行、列和滤波器的个数,
Figure GDA0003636229550000105
Figure GDA0003636229550000106
Figure GDA0003636229550000107
表示正变换网络参数,
Figure GDA0003636229550000108
Figure GDA0003636229550000109
表示反变换网络参数,ga(.)表示非线性正向变换函数,gs(.)表示非线性反向变换函数。
进一步地,一实施例中,所述通过添加均匀噪声的方式对潜变量进行量化的函数表达如下:
Figure GDA00036362295500001010
其中,training表示训练过程,testing表示测试过程,
Figure GDA00036362295500001011
表示单位均匀噪声,round表示取整操作,
Figure GDA00036362295500001012
表示量化后的潜向量。
进一步地,一实施例中,将潜变量的统计特性引入熵模型的设计,同时,引入额外的变量构造一个条件模型,以提高熵模型的精度。
其中,上述高光谱图像压缩装置中各个模块的功能实现与上述高光谱图像压缩方法实施例中各步骤相对应,其功能和实现过程在此处不再一一赘述。
第四方面,本发明实施例还提供一种可读存储介质。
本发明可读存储介质上存储有高光谱图像压缩程序,其中所述高光谱图像压缩程序被处理器执行时,实现如上述的高光谱图像压缩方法的步骤。
其中,高光谱图像压缩程序被执行时所实现的方法可参照本发明高光谱图像压缩方法的各个实施例,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者***不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者***所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者***中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (6)

1.一种高光谱图像压缩方法,其特征在于,所述高光谱图像压缩方法包括:
将样本高光谱图像在空间维切分成若干固定大小的立方块;
按预设比例将所述若干固定大小的立方块划分为训练集和测试集;
通过训练集对卷积神经网络进行训练,其中,卷积神经网络包括非线性变换模块、量化模块以及熵模型;非线性变换模块对高光谱图像的空间和光谱维进行正向非线性变换,得到潜变量;量化模块通过添加均匀噪声的方式对潜变量进行量化;熵模型用于得到潜变量的概率分布,以供在熵编码时基于所述概率分布确定潜变量中每个元素所分配的码字;基于率失真准则对卷积神经网络训练过程进行约束,用来确定非线性变换模块以及熵模型中的参数值;非线性变换包括正向变换:Y=ga(WaX+ba),反向变换:
Figure FDA0003636229540000011
其中,
Figure FDA0003636229540000012
表示输入的高光谱图像,
Figure FDA0003636229540000013
表示重构图像,H,W,B分别对应高光谱图像的行、列和波段数,
Figure FDA0003636229540000014
表示潜变量,h,w,N分别对应潜变量的行、列和滤波器的个数,
Figure FDA0003636229540000015
Figure FDA0003636229540000016
表示正变换网络参数,
Figure FDA0003636229540000017
Figure FDA0003636229540000018
表示反变换网络参数,ga(.)表示非线性正向变换函数,gs(.)表示非线性反向变换函数;
使用测试集验证训练完成的卷积神经网络的压缩性能,当训练完成的卷积神经网络的压缩性能达标时,通过训练完成的卷积神经网络对高光谱图像进行压缩处理。
2.如权利要求1所述的高光谱图像压缩方法,其特征在于,所述通过添加均匀噪声的方式对潜变量进行量化的函数表达如下:
Figure FDA0003636229540000019
其中,training表示训练过程,testing表示测试过程,
Figure FDA00036362295400000111
表示单位均匀噪声,round表示取整操作,
Figure FDA00036362295400000110
表示量化后的潜向量。
3.如权利要求2所述的高光谱图像压缩方法,其特征在于,将潜变量的统计特性引入熵模型的设计,同时,引入额外的变量构造一个条件模型,以提高熵模型的精度。
4.一种高光谱图像压缩装置,其特征在于,所述高光谱图像压缩装置包括:
构建模块,用于:
将样本高光谱图像在空间维切分成若干固定大小的立方块;
按预设比例将所述若干固定大小的立方块划分为训练集和测试集;
训练模块,用于通过训练集对卷积神经网络进行训练,其中,卷积神经网络包括非线性变换模块、量化模块以及熵模型;非线性变换模块对高光谱图像的空间和光谱维进行正向非线性变换,得到潜变量;量化模块通过添加均匀噪声的方式对潜变量进行量化;熵模型用于得到潜变量的概率分布,以供在熵编码时基于所述概率分布确定潜变量中每个元素所分配的码字;基于率失真准则对卷积神经网络训练过程进行约束,用来确定非线性变换模块以及熵模型中的参数值;非线性变换包括正向变换:Y=ga(WaX+ba),反向变换:
Figure FDA0003636229540000021
其中,
Figure FDA0003636229540000022
表示输入的高光谱图像,
Figure FDA0003636229540000023
表示重构图像,H,W,B分别对应高光谱图像的行、列和波段数,
Figure FDA0003636229540000024
表示潜变量,h,w,N分别对应潜变量的行、列和滤波器的个数,
Figure FDA0003636229540000025
Figure FDA0003636229540000026
表示正变换网络参数,
Figure FDA0003636229540000027
Figure FDA0003636229540000028
表示反变换网络参数,ga(.)表示非线性正向变换函数,gs(.)表示非线性反向变换函数;
处理模块,用于使用测试集验证训练完成的卷积神经网络的压缩性能,当训练完成的卷积神经网络的压缩性能达标时,通过训练完成的卷积神经网络对高光谱图像进行压缩处理。
5.一种高光谱图像压缩设备,其特征在于,所述高光谱图像压缩设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的高光谱图像压缩程序,其中所述高光谱图像压缩程序被所述处理器执行时,实现如权利要求1至3中任一项所述的高光谱图像压缩方法的步骤。
6.一种可读存储介质,其特征在于,所述可读存储介质上存储有高光谱图像压缩程序,其中所述高光谱图像压缩程序被处理器执行时,实现如权利要求1至3中任一项所述的高光谱图像压缩方法的步骤。
CN202110662427.8A 2021-06-15 2021-06-15 高光谱图像压缩方法、装置、设备及可读存储介质 Expired - Fee Related CN113393543B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110662427.8A CN113393543B (zh) 2021-06-15 2021-06-15 高光谱图像压缩方法、装置、设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110662427.8A CN113393543B (zh) 2021-06-15 2021-06-15 高光谱图像压缩方法、装置、设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN113393543A CN113393543A (zh) 2021-09-14
CN113393543B true CN113393543B (zh) 2022-07-01

Family

ID=77621105

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110662427.8A Expired - Fee Related CN113393543B (zh) 2021-06-15 2021-06-15 高光谱图像压缩方法、装置、设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN113393543B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2632161A1 (en) * 2012-02-24 2013-08-28 Raytheon Company Hyperspectral image compression
CN110348487A (zh) * 2019-06-13 2019-10-18 武汉大学 一种基于深度学习的高光谱图像压缩方法及装置
EP3611700A1 (en) * 2018-08-14 2020-02-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
CN110880194A (zh) * 2019-12-03 2020-03-13 山东浪潮人工智能研究院有限公司 一种基于卷积神经网络的图像压缩方法
CN111683250A (zh) * 2020-05-13 2020-09-18 武汉大学 一种基于深度学习的生成式遥感图像压缩方法
CN112734867A (zh) * 2020-12-17 2021-04-30 南京航空航天大学 一种基于空谱特征分离提取的多光谱图像压缩方法及***

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8432974B2 (en) * 2009-07-10 2013-04-30 The United States Of America As Represented By The Secretary Of The Navy Method and system for compression of hyperspectral or multispectral imagery with a global optimal compression algorithm (GOCA)
US20200160565A1 (en) * 2018-11-19 2020-05-21 Zhan Ma Methods And Apparatuses For Learned Image Compression
CN110097051B (zh) * 2019-04-04 2024-07-19 平安科技(深圳)有限公司 图像分类方法、装置及计算机可读存储介质
CN112149652A (zh) * 2020-11-27 2020-12-29 南京理工大学 用于高光谱图像有损压缩的空谱联合深度卷积网络方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2632161A1 (en) * 2012-02-24 2013-08-28 Raytheon Company Hyperspectral image compression
EP3611700A1 (en) * 2018-08-14 2020-02-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
CN110348487A (zh) * 2019-06-13 2019-10-18 武汉大学 一种基于深度学习的高光谱图像压缩方法及装置
CN110880194A (zh) * 2019-12-03 2020-03-13 山东浪潮人工智能研究院有限公司 一种基于卷积神经网络的图像压缩方法
CN111683250A (zh) * 2020-05-13 2020-09-18 武汉大学 一种基于深度学习的生成式遥感图像压缩方法
CN112734867A (zh) * 2020-12-17 2021-04-30 南京航空航天大学 一种基于空谱特征分离提取的多光谱图像压缩方法及***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Global Consistent Graph Convolutional Network for Hyperspectral Image Classification;Yun Ding;《IEEE TRANSACTIONS ON INSTRUMENTATION AND MEASUREMENT》;20210124;第70卷;第1-16页 *
基于块稀疏表达模式的高光谱图像压缩;种衍文等;《华中科技大学学报(自然科学版)》;20171231(第12期);第65-70、77页 *
基于深度学习的图像压缩算法研究综述;于恒等;《计算机工程与应用》;20200618(第15期);第21-29页 *

Also Published As

Publication number Publication date
CN113393543A (zh) 2021-09-14

Similar Documents

Publication Publication Date Title
US11153566B1 (en) Variable bit rate generative compression method based on adversarial learning
Nash et al. Generating images with sparse representations
Cai et al. Efficient variable rate image compression with multi-scale decomposition network
US20160292589A1 (en) Ultra-high compression of images based on deep learning
US11983906B2 (en) Systems and methods for image compression at multiple, different bitrates
JP2004532577A (ja) 非直交基本関数を用いて色画像を効率的に符号化する方法および装置
Ororbia et al. Learned neural iterative decoding for lossy image compression systems
WO2020261314A1 (ja) 画像符号化方法、及び画像復号方法
Ahanonu Lossless image compression using reversible integer wavelet transforms and convolutional neural networks
Han et al. Toward variable-rate generative compression by reducing the channel redundancy
CN115361559A (zh) 图像编码方法、图像解码方法、装置以及存储介质
Wang et al. A customized deep network based encryption-then-lossy-compression scheme of color images achieving arbitrary compression ratios
CN113393543B (zh) 高光谱图像压缩方法、装置、设备及可读存储介质
WO2023118317A1 (en) Method and data processing system for lossy image or video encoding, transmission and decoding
Ororbia et al. Learned iterative decoding for lossy image compression systems
Lyu et al. Statistically and perceptually motivated nonlinear image representation
CN115361555A (zh) 图像编码方法、图像编码方法、装置以及计算机存储介质
Sinha et al. Self-supervised variable rate image compression using visual attention
Thakker et al. Lossy Image Compression-A Comparison Between Wavelet Transform, Principal Component Analysis, K-Means and Autoencoders
Aidini et al. Tensor decomposition learning for compression of multidimensional signals
Sahu et al. Image compression methods using dimension reduction and classification through PCA and LDA: A review
Kamisli Learned lossless image compression through interpolation with low complexity
Cilingir et al. Image Compression Using Deep Learning
Byju et al. Generative Adversarial Networks for Spatio-Spectral Compression of Hyperspectral Images
Al Falahi et al. Comparitive Analysis and Findings on Dct & Lbg Compression Techniques

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220701