CN114386595B - 一种基于超先验架构的sar图像压缩方法 - Google Patents

一种基于超先验架构的sar图像压缩方法 Download PDF

Info

Publication number
CN114386595B
CN114386595B CN202111597113.0A CN202111597113A CN114386595B CN 114386595 B CN114386595 B CN 114386595B CN 202111597113 A CN202111597113 A CN 202111597113A CN 114386595 B CN114386595 B CN 114386595B
Authority
CN
China
Prior art keywords
super
encoder
layer
arithmetic
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111597113.0A
Other languages
English (en)
Other versions
CN114386595A (zh
Inventor
邸志雄
陈旋
吴强
冯全源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN202111597113.0A priority Critical patent/CN114386595B/zh
Publication of CN114386595A publication Critical patent/CN114386595A/zh
Application granted granted Critical
Publication of CN114386595B publication Critical patent/CN114386595B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/174Redundancy elimination performed by the file system
    • G06F16/1744Redundancy elimination performed by the file system using compression, e.g. sparse files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Error Detection And Correction (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

本发明公开了一种基于超先验架构的SAR图像压缩方法,具体为:构建自编解码器卷积网络,自编解码器卷积网络包括编码器、算术编解码器和解码器;超先验网络的熵建模,超先验网络的熵建模分为四个部分,分别为超参编码器、超参算术编解码器、超参解码器、概率模型;同时本模型最后使用了单高斯混合模型对均值和方差进行预测,来模拟信号分布,实现熵建模;失真优化,模型根据损失函数进行反向传播,不断地训练和优化,取得更好的压缩效果。本发明对潜在空间中的变量进行熵建模,根据不同的压缩对象进行调整进一步地提高压缩率,通过设计和改进网络结构,提升网络的特征提取和泛化能力,兼顾SAR图像的压缩率和压缩质量。

Description

一种基于超先验架构的SAR图像压缩方法
技术领域
本发明属于图像压缩技术领域,尤其涉及一种基于超先验架构的SAR图像压缩方法。
背景技术
合成孔径雷达(SAR)图像在各种遥感应用中越来越重要。然而,随着传输图像数据的能力迅速提高,而地面站的储存速度并没有达到相应的增长率。大多数图像压缩算法依赖于准确的信号表示,基于离散小波变换(DWT)的SAR图像压缩算法已经得到了广泛的研究。然而,由于SAR图像包含丰富的纹理,DWT以及传统的压缩算法JPEG,JPEG2000也一样不能获得有效的表示。因此,在保持SAR图像质量的同时,开发出一种能够获得更高压缩比的压缩算法具有重要的研究意义。
近几年,基于神经网络的图像压缩方法研究在快速发展。神经网络具有较好的特征提取能力和高维数据的处理能力,可以充分挖掘图像的本质信息,提取关键的特征,剔除无用的冗余信息,这是神经网络具有的独有优势。
发明内容
本发明旨在保证SAR图像的压缩质量的同时,尽量提高SAR图像的压缩比。为此,本发明提供一种基于超先验架构的SAR图像压缩方法。
本发明的一种基于超先验架构的SAR图像压缩方法,包括以下步骤:
步骤1:自编解码器卷积网络的构建。
自编解码器网络分为三大部分:一部分是编码器,编码器通过多层卷积完成对SAR图像的压缩编码,调整卷积的层数、步长以及通道数控制相应的压缩比;第二部分是算术编解码器,算术编解码器根据图像信号的分布,生成二进制流,进一步压缩比特数;最后一部分是解码器,解码器通过多层的转置卷积完成对编码图像的解码。
步骤2:超先验网络的熵建模。
为了实现适应性的熵建模,需要对不同的图片预测其信号分布,为此,选择一个参数化的先验模型,由超先验网络预测得到超参数;超先验网络的熵建模分为四个部分,分别为超参编码器、超参算术编解码器、超参解码器、概率模型;同时本模型最后使用了单高斯混合模型对均值和方差进行预测,来模拟信号分布,实现熵建模。
步骤3:失真优化。
损失函数由两部分组成,第一部分为失真率,具体为通过自编码器前向传播压缩恢复后的图像与原始图像的均方误差,第二部分为码率,由编码器得到的信号y的码率以及超参编码器得到的边信息z的码率组成;模型根据损失函数进行反向传播,不断地训练和优化。
进一步的,自编解码器卷积网络的编码器、算术编解码器和解码器具体为:
编码器:
卷积层:设置通道数为192,卷积核大小为3,步长为2,进行填充;每次经过卷积层之后,从原图像中提取得到新的192张特征图,每张特征图高宽变为原图的二分之一,大小变为原来的四分之一;多次卷积后达到数据压缩的效果,编码器最后一层的通道数为320,通过调整其取值改变压缩程度。
激活层:采用一对广义可除归一化层GDN作为激活函数,对每一位数据进行非线性映射,维持梯度,GDN激活函数公式如下:
其中,xi表示输入的第i层特征图,βi和γi是需要学习的参数。
解码器:
反卷积层:设置通道数为192,卷积核大小为3,步长为2,进行填充;反卷积层与卷积层相对应,每经过一次反卷积层,每张特征图高宽变为原图的2倍,特征图尺寸放大4倍,特征图数量不变,最后一层反卷积通道数变为1,进入输出层输出。
激活层:采用IGDN的激活函数,IGDN为GDN的逆变换,与编码器中激活层相对应。算术编解码器:
算术编码器AE:算术编码首先定义了一个介于[0,1]区间的实数区间,然后按照待处理的信号,一个一个信号读入,每读入一个信号,就将该信号源在[0,1]上的范围,按照比例缩小到最新得到的间隔中,该比例的值由各信源信号出现的频率决定,然后依次迭代,直到最后信号中的信源信号全部读完为止;此处是对编码器得到的信号y进行编码。
算术解码器AD:算术解码为算术编码的反过程,给定一个[0,1]中的浮点数,通过解码操作之后就能完全获得原始的信号串。
进一步的,超先验网络的熵建模具体为:
超参编码器:
卷积层:设置通道数为192,卷积核大小为3,第一层卷积步长为1,不改变特征图大小,后续两层设置步长为2,进行填充,每张特征图高宽变为原图的二分之一,大小变为原来的四分之一。
激活层:采用ReLU的激活函数,对每一位数据进行非线性映射,维持梯度;ReLU的激活公式如下:
超参算术编解码器:
算术编码器AE:与自编解码器卷积网络的算术编码器AE相同,但此处是对超参编码器得到的边信息z进行编码,信号的概率分布由一个均值为0的正态分布进行粗略模拟。
算术解码器AD:算术解码为算术编码的反过程,与自编解码器卷积网络的算术解码器AD相同。
超参解码器:
反卷积层:设置通道数为192,卷积核大小为3,前两层步长为2,每张特征图高宽变为原图的2倍,特征图尺寸放大4倍,特征图数量不变,最后一次反卷积步长设置为1,通道数为320,特征图尺寸不变,通过指数函数EXP转换到高斯分布。
激活函数:采用ReLU的激活函数,与超参编码器中激活层相同。
概率模型:
残差块:输入特征图x经过卷积后被映射为F(x),再经过一层卷积变为F'(x),然后将F'(x)与原始输入x累加,得到整个残差结构的输出。
卷积层:设置通道数为640,分别对应320个通道的均值μ,320个通道的标准差σ,卷积核大小为3,步长为1,特征图尺寸不变。
单高斯模型:单变量正态分布概率密度函数定义如下:
其中,μ和σ由上层卷积得到,由此来模拟信号分布,得到概率。
进一步的,失真优化具体为:
以网络的输入图像以及重建图像的差别最小为优化目标,优化采用率-失真优化的方法,即网络损失定义为:
L=R+λD
模型的损失函数中R为码率,由两部分组成:自编码器得到的信号码率y和超参编码器得到的边信息码率z,此处采用单位像素比特数BPP;D为失真率,即重建图像相比于输入原始图像的差值,此处采用均方误差MSE,λ控制比特数和失真率的平衡。
模型的优化器选用的是Adam,设置学习率为0.0001;模型训练时的批尺寸大小设置为1;模型训练的迭代次数设置为250k。
本发明的有益技术效果为:
本发明基于“边信息”的概念,使用一种自适应性的熵模型来对潜在空间中的变量进行熵建模,根据不同的压缩对象进行调整进一步地提高压缩率。通过设计和改进网络结构,提升网络的特征提取和泛化能力,兼顾SAR图像的压缩率和压缩质量。
附图说明
图1为本发明自编解码器卷积网络结构示意图。
图2为本发明超先验网络结构示意图。
图3为本发明超先验网络超参编码器激活层的ReLU的激活函数。
图4为本发明超先验网络概率模型残差块结构。
图5为对于SAR图像测试集整体的压缩效果PSNR对比图。
图6为对于SAR图像测试集整体的压缩效果MS-SSIM对比图。
图7为实验原始图像。
图8为本发明变分自编码器(VAE)网络和对比例JPEG在BPP约为0.2时的解压缩后的结果对比(a为VAE解压、b为JPEG解压)。
图9为本发明VAE网络和对比例JPEG在BPP约为0.3时的解压缩后的结果对比(a为VAE解压、b为JPEG解压)。
图10为本发明VAE网络和对比例JPEG在BPP约为0.7时的解压缩后的结果对比(a为VAE解压、b为JPEG解压)。
具体实施方式
下面结合附图和实施例对本发明做进一详细说明。
本发明的一种基于超先验架构的SAR图像压缩方法,包括以下步骤:
步骤1:自编解码器卷积网络的构建。
自编解码器网络分为三大部分:一部分是编码器,编码器通过多层卷积完成对SAR图像的压缩编码,调整卷积的层数、步长以及通道数控制相应的压缩比;第二部分是算术编解码器,算术编解码器根据图像信号的分布,生成二进制流,进一步压缩比特数;最后一部分是解码器,解码器通过多层的转置卷积完成对编码图像的解码。编解码器网络结构的设计应遵从一定的对称原则,具体的网络结构如图1所示。
自编解码器卷积网络具体为:
编码器:
卷积层:设置通道数为192,卷积核大小为3,步长为2,进行填充;每次经过卷积层之后,从原图像中提取得到新的192张特征图,每张特征图高宽变为原图的二分之一,大小变为原来的四分之一。如第一次进行卷积时,数据格式会从原图的[256,256,1]变为[128,128,192]。多次卷积后达到数据压缩的效果,编码器最后一层的通道数为320,通过调整其取值改变压缩程度。
激活层:采用一对广义可除归一化层GDN作为激活函数,对每一位数据进行非线性映射,维持梯度,GDN激活函数公式如下:
其中,xi表示输入的第i层特征图,βi和γi是需要学习的参数。
解码器:
反卷积层:设置通道数为192,卷积核大小为3,步长为2,进行填充;反卷积层与卷积层相对应,每经过一次反卷积层,每张特征图高宽变为原图的2倍,特征图尺寸放大4倍,特征图数量不变,最后一层反卷积通道数变为1,进入输出层输出。
激活层:采用IGDN的激活函数,IGDN为GDN的逆变换,与编码器中激活层相对应。算术编解码器:
算术编码器AE:算术编码首先定义了一个介于[0,1]区间的实数区间,然后按照待处理的信号,一个一个信号读入,每读入一个信号,就将该信号源在[0,1]上的范围,按照比例缩小到最新得到的间隔中,该比例的值由各信源信号出现的频率决定,然后依次迭代,直到最后信号中的信源信号全部读完为止;此处是对编码器得到的信号y进行编码。
算术解码器AD:算术解码为算术编码的反过程,给定一个[0,1]中的浮点数,通过解码操作之后就能完全获得原始的信号串。
步骤2:超先验网络的熵建模。
为了实现适应性的熵建模,需要对不同的图片预测其信号分布,为此,选择一个参数化的先验模型,由超先验网络预测得到超参数;超先验网络的熵建模分为四个部分,分别为超参编码器、超参算术编解码器、超参解码器、概率模型;同时本模型最后使用了单高斯混合模型对均值和方差进行预测,来模拟信号分布,实现熵建模。具体实现结构如图2所示。
超先验网络的熵建模具体为:
超参编码器:
卷积层:设置通道数为192,卷积核大小为3,第一层卷积步长为1,不改变特征图大小,后续两层设置步长为2,进行填充,每张特征图高宽变为原图的二分之一,大小变为原来的四分之一。
激活层:采用ReLU的激活函数,对每一位数据进行非线性映射,维持梯度;ReLU的激活函数如图3所示,ReLU的激活公式如下:
超参算术编解码器:
算术编码器AE:与自编解码器卷积网络的算术编码器AE相同,但此处是对超参编码器得到的边信息z进行编码,信号的概率分布由一个均值为0的正态分布进行粗略模拟。
算术解码器AD:算术解码为算术编码的反过程,与自编解码器卷积网络的算术解码器AD相同。
超参解码器:
反卷积层:设置通道数为192,卷积核大小为3,前两层步长为2,每张特征图高宽变为原图的2倍,特征图尺寸放大4倍,特征图数量不变,最后一次反卷积步长设置为1,通道数为320,特征图尺寸不变,通过指数函数EXP转换到高斯分布。
激活函数:采用ReLU的激活函数,与超参编码器中激活层相同。
概率模型:
残差块:如图4所示,输入特征图x经过卷积后被映射为F(x),再经过一层卷积变为F'(x),然后将F'(x)与原始输入x累加(F'(x)与x的尺寸、维度相同,他们累加时按照逐像素点累加计算,输出结构与x的尺寸、维度相同),得到整个残差结构的输出。
卷积层:设置通道数为640,分别对应320个通道的均值μ,320个通道的标准差σ,卷积核大小为3,步长为1,特征图尺寸不变。
单高斯模型:单变量正态分布概率密度函数定义如下:
其中,μ和σ由上层卷积得到,由此来模拟信号分布,得到概率。
步骤3:失真优化。
损失函数由两部分组成,第一部分为失真率,具体为通过自编码器前向传播压缩恢复后的图像与原始图像的均方误差,第二部分为码率,由编码器得到的信号y的码率以及超参编码器得到的边信息z的码率组成;模型根据损失函数进行反向传播,不断地训练和优化,能够在一定的压缩比下取得更好的压缩效果。
以网络的输入图像以及重建图像的差别最小为优化目标,优化采用率-失真优化的方法,即网络损失定义为:
L=R+λD
模型的损失函数中R为码率,由两部分组成:自编码器得到的信号码率y和超参编码器得到的边信息码率z,此处采用单位像素比特数BPP(bits per pixel);D为失真率,即重建图像相比于输入原始图像的差值,此处采用均方误差MSE(Mean Squared Error),λ控制比特数和失真率的平衡。
模型的优化器选用的是Adam,设置学习率(Learing Rate)为0.0001;模型训练时的批尺寸(Batchsize)大小设置为1;模型训练的迭代次数设置为250k。
测试实验:
对于SAR图像测试集整体的压缩效果对比图如图5、图6所示,压缩结果各指标具体评估如表1所示。PSNR为客观指标,峰值信噪比,MS-SSIM为主观指标,多尺度结构相似性。
表1 压缩结果
挑选其中一个样本进行展示。原始图像为图7,使用本发明所改进的VAE网络和JPEG的解压缩后的对比结果如图8、图9和图10,分别对应BPP约为0.2、0.3、0.7三个范围内的解压缩结果。由结果可以看出,图8,在BPP为0.2左右时,JPEG算法压缩后的图像失真严重,完全无法反映原图的灰度和轮廓信息,而本算法仍然能够较好地保留轮廓信息。图9,在BPP约为0.3时,本算法失真率进一步降低,图像的轮廓更为清晰,而JPEG算法相应也有一些提升,但失真仍较为严重。图10,在BPP为0.7左右时,本算法压缩后的图片已经很好的保留了纹理细节,和原图对比相差不大,而JPEG算法也开始能够反映轮廓信息了,但相对于本算法,仍有较大的差距。

Claims (3)

1.一种基于超先验架构的SAR图像压缩方法,其特征在于,包括以下步骤:
步骤1:自编解码器卷积网络的构建:
自编解码器网络分为三大部分:一部分是编码器,编码器通过多层卷积完成对SAR图像的压缩编码,调整卷积的层数、步长以及通道数控制相应的压缩比;第二部分是算术编解码器,算术编解码器根据图像信号的分布,生成二进制流,进一步压缩比特数;最后一部分是解码器,解码器通过多层的转置卷积完成对编码图像的解码;
步骤2:超先验网络的熵建模:
为了实现适应性的熵建模,需要对不同的图片预测其信号分布,为此,选择一个参数化的先验模型,由超先验网络预测得到超参数;超先验网络的熵建模分为四个部分,分别为超参编码器、超参算术编解码器、超参解码器、概率模型;同时本模型最后使用了单高斯混合模型对均值和方差进行预测,来模拟信号分布,实现熵建模;
超先验网络的熵建模具体为:
超参编码器:
卷积层:设置通道数为192,卷积核大小为3,第一层卷积步长为1,不改变特征图大小,后续两层设置步长为2,进行填充,每张特征图高宽变为原图的二分之一,大小变为原来的四分之一;
激活层:采用ReLU的激活函数,对每一位数据进行非线性映射,维持梯度;ReLU的激活公式如下:
超参算术编解码器:
算术编码器AE:与自编解码器卷积网络的算术编码器AE相同,但此处是对超参编码器得到的边信息z进行编码,信号的概率分布由一个均值为0的正态分布进行粗略模拟;
算术解码器AD:算术解码为算术编码的反过程,与自编解码器卷积网络的算术解码器AD相同;
超参解码器:
反卷积层:设置通道数为192,卷积核大小为3,前两层步长为2,每张特征图高宽变为原图的2倍,特征图尺寸放大4倍,特征图数量不变,最后一次反卷积步长设置为1,通道数为320,特征图尺寸不变,通过指数函数EXP转换到高斯分布;
激活函数:采用ReLU的激活函数,与超参编码器中激活层相同;
概率模型:
残差块:输入特征图x经过卷积后被映射为(x),再经过一层卷积变为F′(x),然后将F′(x)与原始输入x累加,得到整个残差结构的输出;
卷积层:设置通道数为640,分别对应320个通道的均值μ,320个通道的标准差σ,卷积核大小为3,步长为1,特征图尺寸不变;
单高斯模型:单变量正态分布概率密度函数定义如下:
其中,μ和σ由上层卷积得到,由此来模拟信号分布,得到概率;
步骤3:失真优化:
损失函数由两部分组成,第一部分为失真率,具体为通过自编码器前向传播压缩恢复后的图像与原始图像的均方误差,第二部分为码率,由编码器得到的信号y的码率以及超参编码器得到的边信息z的码率组成;模型根据损失函数进行反向传播,不断地训练和优化。
2.根据权利要求1所述的一种基于超先验架构的SAR图像压缩方法,其特征在于,所述自编解码器卷积网络的编码器、算术编解码器和解码器具体为:
编码器:
卷积层:设置通道数为192,卷积核大小为3,步长为2,进行填充;每次经过卷积层之后,从原图像中提取得到新的192张特征图,每张特征图高宽变为原图的二分之一,大小变为原来的四分之一;多次卷积后达到数据压缩的效果,编码器最后一层的通道数为320,通过调整其取值改变压缩程度;
激活层:采用一对广义可除归一化层GDN作为激活函数,对每一位数据进行非线性映射,维持梯度,GDN激活函数公式如下:
其中,xi表示输入的第i层特征图,βi和γi是需要学习的参数;
解码器:
反卷积层:设置通道数为192,卷积核大小为3,步长为2,进行填充;反卷积层与卷积层相对应,每经过一次反卷积层,每张特征图高宽变为原图的2倍,特征图尺寸放大4倍,特征图数量不变,最后一层反卷积通道数变为1,进入输出层输出;
激活层:采用IGDN的激活函数,IGDN为GDN的逆变换,与编码器中激活层相对应;算术编解码器:
算术编码器AE:算术编码首先定义了一个介于[0,1]区间的实数区间,然后按照待处理的信号,一个一个信号读入,每读入一个信号,就将该信号源在[0,1]上的范围,按照比例缩小到最新得到的间隔中,该比例的值由各信源信号出现的频率决定,然后依次迭代,直到最后信号中的信源信号全部读完为止;此处是对编码器得到的信号y进行编码;
算术解码器AD:算术解码为算术编码的反过程,给定一个[0,1]中的浮点数,通过解码操作之后就能完全获得原始的信号串。
3.根据权利要求2所述的一种基于超先验架构的SAR图像压缩方法,其特征在于,所述失真优化具体为:
以网络的输入图像以及重建图像的差别最小为优化目标,优化采用率-失真优化的方法,即网络损失定义为:
L=R+λD
模型的损失函数中R为码率,由两部分组成:自编码器得到的信号码率y和超参编码器得到的边信息码率z,此处采用单位像素比特数BPP;D为失真率,即重建图像相比于输入原始图像的差值,此处采用均方误差MSE,λ控制比特数和失真率的平衡;
模型的优化器选用的是Adam,设置学习率为0.0001;模型训练时的批尺寸大小设置为1;模型训练的迭代次数设置为250k。
CN202111597113.0A 2021-12-24 2021-12-24 一种基于超先验架构的sar图像压缩方法 Active CN114386595B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111597113.0A CN114386595B (zh) 2021-12-24 2021-12-24 一种基于超先验架构的sar图像压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111597113.0A CN114386595B (zh) 2021-12-24 2021-12-24 一种基于超先验架构的sar图像压缩方法

Publications (2)

Publication Number Publication Date
CN114386595A CN114386595A (zh) 2022-04-22
CN114386595B true CN114386595B (zh) 2023-07-28

Family

ID=81197546

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111597113.0A Active CN114386595B (zh) 2021-12-24 2021-12-24 一种基于超先验架构的sar图像压缩方法

Country Status (1)

Country Link
CN (1) CN114386595B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117294854A (zh) * 2022-06-20 2023-12-26 华为技术有限公司 一种图像编码、解码方法及编码、解码装置
CN115988215A (zh) * 2022-12-12 2023-04-18 上海交通大学 可变码率图像压缩方法、***、装置、终端及存储介质
CN116705249A (zh) * 2023-04-19 2023-09-05 王其景 一种用移动端对pacs***中图像数据的处理显示方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200138079A (ko) * 2019-05-31 2020-12-09 한국전자통신연구원 전역적 문맥을 이용하는 기계 학습 기반의 이미지 압축을 위한 방법 및 장치
CN113382244A (zh) * 2021-08-13 2021-09-10 杭州博雅鸿图视频技术有限公司 编解码网络结构、图像压缩方法、装置及存储介质
CN113537456A (zh) * 2021-06-15 2021-10-22 北京大学 一种深度特征压缩方法
CN113822147A (zh) * 2021-08-04 2021-12-21 北京交通大学 一种协同机器语义任务的深度压缩方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200160565A1 (en) * 2018-11-19 2020-05-21 Zhan Ma Methods And Apparatuses For Learned Image Compression
CN111565317A (zh) * 2019-02-13 2020-08-21 合肥图鸭信息科技有限公司 图像压缩方法、编解码网络训练方法、装置及电子设备
CN112950729A (zh) * 2019-12-10 2021-06-11 山东浪潮人工智能研究院有限公司 一种基于自编码器和熵编码的图像压缩方法
CN113259676B (zh) * 2020-02-10 2023-01-17 北京大学 一种基于深度学习的图像压缩方法和装置
CN111405283B (zh) * 2020-02-20 2022-09-02 北京大学 基于深度学习的端到端视频压缩方法、***及存储介质
CN111698508B (zh) * 2020-06-08 2022-05-31 北京大学深圳研究生院 基于超分辨率的图像压缩方法、设备及存储介质
CN111681293B (zh) * 2020-06-09 2022-08-23 西南交通大学 一种基于卷积神经网络的sar图像压缩方法
CN112203093B (zh) * 2020-10-12 2022-07-01 苏州天必佑科技有限公司 一种基于深度神经网络的信号处理方法
CN112149652A (zh) * 2020-11-27 2020-12-29 南京理工大学 用于高光谱图像有损压缩的空谱联合深度卷积网络方法
CN112866694B (zh) * 2020-12-31 2023-07-14 杭州电子科技大学 联合非对称卷积块和条件上下文的智能图像压缩优化方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200138079A (ko) * 2019-05-31 2020-12-09 한국전자통신연구원 전역적 문맥을 이용하는 기계 학습 기반의 이미지 압축을 위한 방법 및 장치
CN113537456A (zh) * 2021-06-15 2021-10-22 北京大学 一种深度特征压缩方法
CN113822147A (zh) * 2021-08-04 2021-12-21 北京交通大学 一种协同机器语义任务的深度压缩方法
CN113382244A (zh) * 2021-08-13 2021-09-10 杭州博雅鸿图视频技术有限公司 编解码网络结构、图像压缩方法、装置及存储介质

Also Published As

Publication number Publication date
CN114386595A (zh) 2022-04-22

Similar Documents

Publication Publication Date Title
CN114386595B (zh) 一种基于超先验架构的sar图像压缩方法
US11153566B1 (en) Variable bit rate generative compression method based on adversarial learning
Ballé et al. Nonlinear transform coding
CN116016917A (zh) 点云压缩方法、编码器、解码器及存储介质
Cai et al. Efficient variable rate image compression with multi-scale decomposition network
CN111147862B (zh) 一种基于目标编码的端到端图像压缩方法
CN111681293B (zh) 一种基于卷积神经网络的sar图像压缩方法
CN112866694A (zh) 联合非对称卷积块和条件上下文的智能图像压缩优化方法
CN110753225A (zh) 一种视频压缩方法、装置及终端设备
KR20200089635A (ko) 다수의 상이한 비트레이트로 영상 압축을 하기 위한 시스템들 및 방법들
US20070116371A1 (en) Decoding apparatus, inverse quantization method, and computer readable medium
CN111754592A (zh) 一种基于特征通道信息的端到端多光谱遥感图像压缩方法
Wu et al. Fractal image compression with variance and mean
Nair et al. Deep-learning with context sensitive quantization and interpolation for underwater image compression and quality image restoration
Zhang et al. SAR image compression using discretized Gaussian adaptive model and generalized subtractive normalization
CN112702600B (zh) 一种图像编解码神经网络分层定点化方法
CN111343458B (zh) 一种基于重建残差的稀疏灰度图像编解码方法及***
CN113949880B (zh) 一种极低码率人机协同图像编码训练方法及编解码方法
CN111107377A (zh) 深度图像压缩方法及其装置、设备和存储介质
CN115102934A (zh) 点云数据的解码方法、编码方法、装置、设备及存储介质
Al-Khafaji et al. Fixed Predictor Polynomial Coding for Image Compression
CN114882133B (zh) 一种图像编解码方法、***、设备及介质
CN114554175B (zh) 一种基于分类重排的二维点云距离图像的无损压缩方法
CN115661275A (zh) 一种基于通道增益的可变速率稀疏点云压缩方法
Luo et al. Learned Lossless Compression for JPEG via Frequency-Domain Prediction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant