CN115767096A - 图像压缩方法、装置、设备及介质 - Google Patents

图像压缩方法、装置、设备及介质 Download PDF

Info

Publication number
CN115767096A
CN115767096A CN202211307249.8A CN202211307249A CN115767096A CN 115767096 A CN115767096 A CN 115767096A CN 202211307249 A CN202211307249 A CN 202211307249A CN 115767096 A CN115767096 A CN 115767096A
Authority
CN
China
Prior art keywords
image compression
deep learning
network structure
network
quantization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211307249.8A
Other languages
English (en)
Inventor
王荣刚
李立天
高文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University Shenzhen Graduate School
Original Assignee
Peking University Shenzhen Graduate School
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University Shenzhen Graduate School filed Critical Peking University Shenzhen Graduate School
Priority to CN202211307249.8A priority Critical patent/CN115767096A/zh
Publication of CN115767096A publication Critical patent/CN115767096A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种图像压缩方法、装置、设备及介质,为了解决端到端图像编码器在连续压缩过程中的量化漂移问题,提出使用直接量化方法代替原本的量化方法,在量化阶段采用直接量化方法,对变换后的特征向量进行量化。为了进一步增强变换网络的可逆性并减小生成损失,发明了针对网络结构设计的通道松弛策略,在网络结构设计上采用通道松弛策略保证特征向量的通道数在合理范围。从而解决现有技术中端到端图像压缩模型在连续压缩过程中的不稳定,模型的多代鲁棒性差的技术问题,能够在几乎不损失第一次编码性能的前提下,极大提升现有端到端图像压缩模型的多代鲁棒性。而且其简单有效,不需要改变网络结构,容易拓展到其他端到端图像压缩模型。

Description

图像压缩方法、装置、设备及介质
技术领域
本发明涉及图像压缩的技术领域,尤其涉及一种基于深度学习的端到端图像压缩方法、基于深度学习的端到端图像压缩装置、基于深度学习的端到端图像压缩设备及计算机可读存储介质。
背景技术
图像压缩是多媒体领域最基本的技术之一。高效的图像压缩技术为海量图像数据的存储和传输提供了支持。传统的编码标准依靠手工设计的模块来去除图像数据中的空间冗余和统计冗余,以达到压缩的目的。近年来基于深度学习的图像压缩方法成为编码领域的研究热点,其能够在损失函数的指导下以端到端的方式对网络框架进行整体优化,其压缩性能超越了最先进的传统编码方法。
多代编码是对图像或视频进行反复压缩和解压的过程,这经常发生在多媒体应用场景,如图像编辑、转码和网络分发。对于有损压缩方法,第一次压缩会引起失真,但当解码图像用相同的设置重新编码时,在理想情况下失真不会增加。然而,现有的基于深度学习的端到端图像编码器的多代鲁棒性很差。图像质量将在连续压缩后急剧下降,导致模糊和偏色等失真问题,而且在反复编码过程中可能引入的高频噪声会显著增加图像的比特率,这对实际应用尤其不利。
发明内容
本发明的主要目的在于提供一种基于深度学习的端到端图像压缩方法、基于深度学习的端到端图像压缩装置、基于深度学习的端到端图像压缩设备及计算机可读存储介质,旨在解决现有技术中端到端图像压缩模型在连续压缩过程中的不稳定,模型的多代鲁棒性差的技术问题。
为实现上述目的,本发明提供一种基于深度学习的端到端图像压缩方法,所述基于深度学习的端到端图像压缩方法包括:
在量化阶段采用直接量化方法,对变换后的特征向量进行量化;
在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内。
可选地,所述在量化阶段采用直接量化方法,对变换后的特征向量进行量化的步骤,包括:
对所述特征向量中的待量化值进行舍入取整操作;
对舍入取整操作的结果进行熵编码。
可选地,所述对所述特征向量中的待量化值进行舍入取整操作的步骤,包括:
将所述待量化值通过四舍五入取整为离散值;
所述对舍入取整操作的结果进行熵编码的步骤,包括:
对所述离散值进行熵编码。
可选地,所述在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内的步骤,包括:
基于图像压缩模型在编码瓶颈处的信息表示能力,增加所述图像压缩模型的所述网络结构的超参数,将特征向量的通道数设置在预设合理范围内;
其中,所述图像压缩模型的所述网络结构的超参数为变换网络中最后一个卷积层的输出通道。
可选地,所述在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内的步骤之后,还包括:
在模型训练阶段采用联合码率、失真和可逆性损失函数进行优化目标损失函数。
可选地,所述在模型训练阶段采用联合码率、失真和可逆性损失函数进行优化目标损失函数的步骤之前,还包括:
在所述网络结构的训练过程中引入基于原始图像、变换网络和反变换网络确定的可逆项,构建所述可逆性损失函数。
可选地,所述在所述网络结构的训练过程中引入基于原始图像、变换网络和反变换网络确定的可逆项的步骤,包括:
根据所述原始图像与经过变换网络、反变换网络的图像之间的失真确定所述可逆项。
此外,为实现上述目的,本发明还提供一种基于深度学习的端到端图像压缩装置,所述基于深度学习的端到端图像压缩装置,包括:
量化模块,用于在量化阶段采用直接量化方法,对变换后的特征向量进行量化;
设置模块,用于在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内。
此外,为实现上述目的,本发明还提供一种基于深度学习的端到端图像压缩设备,所述基于深度学习的端到端图像压缩设备包括:存储器、处理器、及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上任一项所述的基于深度学习的端到端图像压缩方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上任一项所述的基于深度学习的端到端图像压缩方法的步骤。
本发明实施例提出的一种基于深度学习的端到端图像压缩方法、基于深度学习的端到端图像压缩装置、基于深度学习的端到端图像压缩设备及计算机可读存储介质,在量化阶段采用直接量化方法,对变换后的特征向量进行量化;在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内。
为了解决端到端图像编码器在连续压缩过程中的量化漂移问题,提出使用直接量化方法代替原本的量化方法,在量化阶段采用直接量化方法,对变换后的特征向量进行量化。为了进一步增强变换网络的可逆性并减小生成损失,发明了针对网络结构设计的通道松弛策略,在网络结构设计上采用通道松弛策略保证特征向量的通道数在合理范围。从而解决现有技术中端到端图像压缩模型在连续压缩过程中的不稳定,模型的多代鲁棒性差的技术问题,能够在几乎不损失第一次编码性能的前提下,极大提升现有端到端图像压缩模型的多代鲁棒性。而且其简单有效,不需要改变网络结构,容易拓展到其他端到端图像压缩模型。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的终端结构示意图;
图2为本发明基于深度学习的端到端图像压缩方法一实施例的流程示意图;
图3为本发明基于深度学习的端到端图像压缩方法一实施例的压缩框架示意图;
图4为本发明基于深度学习的端到端图像压缩方法一实施例的熵模型和量化方式示意图;
图5为本发明基于深度学习的端到端图像压缩装置一实施例的装置示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1,图1为本发明实施例方案涉及的硬件运行环境的运行设备的结构示意图。
如图1所示,该运行设备可以包括:处理器1001,例如中央处理器(Centra lProcess i ng Un it,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Disp l ay)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(WI re less-F I de l ity,WI-F I)接口)。存储器1005可以是高速的随机存取存储器(RandomAccess Memory,RAM)存储器,也可以是稳定的非易失性存储器(Non-Vo l at i l eMemory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的结构并不构成对运行设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作***、数据存储模块、网络通信模块、用户接口模块以及计算机程序。
在图1所示的运行设备中,网络接口1004主要用于与其他设备进行数据通信;用户接口1003主要用于与用户进行数据交互;本发明运行设备中的处理器1001、存储器1005可以设置在运行设备中,所述运行设备通过处理器1001调用存储器1005中存储的计算机程序,并执行以下操作:
在量化阶段采用直接量化方法,对变换后的特征向量进行量化;
在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述在量化阶段采用直接量化方法,对变换后的特征向量进行量化的步骤,包括:
对所述特征向量中的待量化值进行舍入取整操作;
对舍入取整操作的结果进行熵编码。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述对所述特征向量中的待量化值进行舍入取整操作的步骤,包括:
将所述待量化值通过四舍五入取整为离散值;
所述对舍入取整操作的结果进行熵编码的步骤,包括:
对所述离散值进行熵编码。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内的步骤,包括:
基于图像压缩模型在编码瓶颈处的信息表示能力,增加所述图像压缩模型的所述网络结构的超参数,将特征向量的通道数设置在预设合理范围内;
其中,所述图像压缩模型的所述网络结构的超参数为变换网络中最后一个卷积层的输出通道。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内的步骤之后,还包括:
在模型训练阶段采用联合码率、失真和可逆性损失函数进行优化目标损失函数。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述在模型训练阶段采用联合码率、失真和可逆性损失函数进行优化目标损失函数的步骤之前,还包括:
在所述网络结构的训练过程中引入基于原始图像、变换网络和反变换网络确定的可逆项,构建所述可逆性损失函数。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述在所述网络结构的训练过程中引入基于原始图像、变换网络和反变换网络确定的可逆项的步骤,包括:
根据所述原始图像与经过变换网络、反变换网络的图像之间的失真确定所述可逆项。
参照图2,本发明提供一种基于深度学习的端到端图像压缩方法,所述基于深度学习的端到端图像压缩方法包括:
步骤S10,在量化阶段采用直接量化方法,对变换后的特征向量进行量化。
可选的,所述在量化阶段采用直接量化方法,对变换后的特征向量进行量化的步骤,包括:
对所述特征向量中的待量化值进行舍入取整操作;
对舍入取整操作的结果进行熵编码。
可选的,所述对所述特征向量中的待量化值进行舍入取整操作的步骤,包括:
将所述待量化值通过四舍五入取整为离散值;
所述对舍入取整操作的结果进行熵编码的步骤,包括:
对所述离散值进行熵编码。
该实施例中,在量化阶段采用直接量化方法,对变换后的特征向量进行量化。在对图像通过卷积操作变换为特征向量后,需要对该向量量化为离散值以进行熵编码过程。现有常用的端到端图像压缩方法通常将特征向量的每一个元素建模为符合高斯分布的变量,即yi~Nμii)。为了准确估计特征向量的高斯分布参数μ和σ,最先进的端到端模型一般采用如图4所示的联合超先验和上下文的熵模型。其中超先验部分采用卷积网络捕获特征向量y的全局信息,并作为边信息以码流传递给解码端,目的是消除特征向量y中的空间冗余;上下文部分采用掩码卷积从已编码的元素y<i中捕获局部信息,并作为编码当前元素yi的先验,目的是消除相邻元素之间的相关性。
现有的模型一般采用修正量化方法对特征向量y进行离散化。如图4所示,量化之前会首先减去其均值μi,随后进行四舍五入取整操作,在解码端进行反量化时再加上对应的均值μi。这一过程可以用公式
Figure BDA0003905425480000071
Figure BDA0003905425480000072
表示。实验表明修正量化会导致端到端图像压缩模型在连续压缩过程中的不稳定现象,原因是它会使得每次量化后的值无法保持在一个恒定的范围内,造成量化漂移并导致图像质量连续下降的情况。
在实施例中提出的直接量化方法去除了修正的步骤,直接将待量化值yi进行舍入取整操作,进行熵编码的对象是没有减去均值的yi,直接量化的过程可以用公式
Figure BDA0003905425480000073
表示。通过直接量化,特征向量在连续两次压缩的过程中只需要落在同一个量化区间,那么进行反变换的向量将会是一样的,则解码出来的图像是一样的。
步骤S20,在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内。
可选的,所述在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内的步骤,包括:
基于图像压缩模型在编码瓶颈处的信息表示能力,增加所述图像压缩模型的所述网络结构的超参数,将特征向量的通道数设置在预设合理范围内;
其中,所述图像压缩模型的所述网络结构的超参数为变换网络中最后一个卷积层的输出通道。
参照图3,在现有的端到端图像压缩模型中,变换部分通常采用卷积神经网络。其中编码变换部分包含4次下采样操作,解码变换部分包含4次上采样操作。原始图像是维度为h×w×3,变换过程中的维度是
Figure BDA0003905425480000081
特征向量的维度是
Figure BDA0003905425480000082
其中h、w、d分别代表待编码图像的高度、宽度和编码下采样层的深度。现有模型为了得到更加紧凑的特征向量,通常将M设置为一个较小的值,例如192或320。实验表明较小的M会限制特征向量的信息表示能力,丢失的信息会导致连续压缩过程中图像质量的不断下降。
为了增强网络在变换部分的可逆性,从而减少累计的信息丢失,在本实施例中提出了通道松弛策略。该策略通过合理地加大模型的超参数M,提高图像压缩模型在编码瓶颈处的信息表示能力,从而减小图像在连续压缩过程中的质量损失。超参数M的改变只会影响最靠近编码瓶颈的两个卷积层参数,对整体网络结构没有任何影响。
在本实施例中,在量化阶段采用直接量化方法,对变换后的特征向量进行量化;在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内。为了解决端到端图像编码器在连续压缩过程中的量化漂移问题,提出使用直接量化方法代替原本的量化方法,在量化阶段采用直接量化方法,对变换后的特征向量进行量化。为了进一步增强变换网络的可逆性并减小生成损失,发明了针对网络结构设计的通道松弛策略,在网络结构设计上采用通道松弛策略保证特征向量的通道数在合理范围。从而解决现有技术中端到端图像压缩模型在连续压缩过程中的不稳定,模型的多代鲁棒性差的技术问题,能够在几乎不损失第一次编码性能的前提下,极大提升现有端到端图像压缩模型的多代鲁棒性。而且其简单有效,不需要改变网络结构,容易拓展到其他端到端图像压缩模型。
进一步的,在本发明基于深度学习的端到端图像压缩方法的另一实施例中,所述在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内的步骤之后,还包括:
在模型训练阶段采用联合码率、失真和可逆性损失函数进行优化目标损失函数。
可选的,所述在模型训练阶段采用联合码率、失真和可逆性损失函数进行优化目标损失函数的步骤之前,还包括:
在所述网络结构的训练过程中引入基于原始图像、变换网络和反变换网络确定的可逆项,构建所述可逆性损失函数。
可选的,所述在所述网络结构的训练过程中引入基于原始图像、变换网络和反变换网络确定的可逆项的步骤,包括:
根据所述原始图像与经过变换网络、反变换网络的图像之间的失真确定所述可逆项。
该实施例中,在模型训练阶段采用联合码率、失真和可逆性损失函数进行优化。在常规的端到端图像压缩模型的训练过程中,往往会联合码率和失真函数进行优化,从而达到理想的率失真性能。变换的可逆性是多代鲁棒性的重要影响因素,传统的JPEG编码采用的正交可逆变换使得其具有很好的多代鲁棒性。而在常规端到端模型的训练过程中,没有显式地约束变换网络和反变换网络的可逆性,从而导致其在连续压缩过程中的不稳定性。
在本实施例中,提出在模型训练阶段采用联合码率、失真和可逆性损失函数进行优化,其中可逆性损失原始图像和将原始图像经过变换反变换后图像的失真。为了约束可逆性,我们在网络的训练过程中引入可逆项,可以用公式表示为d(x,gs(ga(x))),其中ga和gs分别表示变换网络和反变换网络。
进一步的,在本发明基于深度学习的端到端图像压缩方法的另一实施例中,为了解决端到端图像编码器在连续压缩过程中的量化漂移问题,提出使用直接量化方法代替原本的量化方法。用以改善图像在连续压缩过程中质量迅速下降的问题。在基于深度学习的端到端图像压缩方法中,图像的编解码一般会经过变换、量化、熵编码、反变换四个步骤,其中量化和变换部分对模型的多代鲁棒性至关重要。为了进一步增强变换网络的可逆性并减小生成损失,发明了针对网络结构设计的通道松弛策略和训练过程中的可逆性损失函数。进一步的,包括以下步骤:
第一步,在量化阶段采用直接量化方法,对变换后的特征向量进行量化;第二步,采用第三步或第四步中的方法增强变换网络和反变换网络的可逆性;第三步,在网络结构设计上采用通道松弛策略保证特征向量的通道数在合理范围;第四步,在模型训练阶段采用联合码率、失真和可逆性损失函数进行优化。其中,所述直接量化方法为:将待量化值通过四舍五入取整为离散值,并直接对该离散值进行熵编码。所述可逆性为:经过变换网络和反变换网络后的图像与原始图像的相似度,相似度越高则变换的可逆性越强。所述通道松弛策略的特征为:变换网络中最后一个卷积层的输出通道M需要设置在合理范围之内,以此保证特征向量拥有足够的通道以保持信息,从而减小变换过程中的信息丢失,增加变换网络的可逆性。所述可逆性损失为:原始图像与经过变换、反变换网络的原始图像之间的失真。
如图3所示,采用增强多代鲁棒性的端到端图像压缩框架包含以下特征:S1、在编码阶段,采用包含4次卷积下采样操作的变换网络ga将原始图像x转换为特征向量y,特征向量y经过直接量化方法得到
Figure BDA0003905425480000101
随后算术编码器通过熵模型得到的符号概率表将
Figure BDA0003905425480000102
编码为二进制码流;S2、在解码阶段,二进制码流通过熵解码过程得到
Figure BDA0003905425480000103
随后
Figure BDA0003905425480000104
通过包含4次反卷积上采样的反变换网络gs,再经过取整和截断操作,得到最终的解码图像
Figure BDA0003905425480000105
S3、增强多代鲁棒性的端到端图像压缩框架采用S4或S5所阐述的方法增强变换网络的可逆性;S4、在变换网络和反变换网络中,中间卷积层的向量通道数为N,位于编码瓶颈的特征向量通道数为M。采用通道松弛策略将M设置得足够大,减小变换过程中的信息丢失以增强变换的可逆性。S5、在训练过程中,优化目标损失函数除了码率R和失真
Figure BDA0003905425480000106
外,额外增加了可逆性损失
Figure BDA0003905425480000107
其中
Figure BDA0003905425480000108
是原始图像x经过ga和gs直接得到的图像。
此外,参照图5,本发明实施例还提供一种基于深度学习的端到端图像压缩装置,所述基于深度学习的端到端图像压缩装置,包括:
量化模块M1,用于在量化阶段采用直接量化方法,对变换后的特征向量进行量化;
设置模块M2,用于在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内。
可选的,量化模块还用于,对所述特征向量中的待量化值进行舍入取整操作;
对舍入取整操作的结果进行熵编码。
可选的,量化模块还用于,将所述待量化值通过四舍五入取整为离散值;
所述对舍入取整操作的结果进行熵编码的步骤,包括:
对所述离散值进行熵编码。
可选的,设置模块还用于,基于图像压缩模型在编码瓶颈处的信息表示能力,增加所述图像压缩模型的所述网络结构的超参数,将特征向量的通道数设置在预设合理范围内;
其中,所述图像压缩模型的所述网络结构的超参数为变换网络中最后一个卷积层的输出通道。
可选的,所述基于深度学习的端到端图像压缩装置还包括优化模块,用于在模型训练阶段采用联合码率、失真和可逆性损失函数进行优化目标损失函数。
可选的,优化模块还用于,在所述网络结构的训练过程中引入基于原始图像、变换网络和反变换网络确定的可逆项,构建所述可逆性损失函数。
可选的,优化模块还用于,根据所述原始图像与经过变换网络、反变换网络的图像之间的失真确定所述可逆项。
本发明提供的基于深度学习的端到端图像压缩装置,采用上述实施例中的基于深度学习的端到端图像压缩方法,解决现有技术中端到端图像压缩模型在连续压缩过程中的不稳定,模型的多代鲁棒性差的技术问题。与现有技术相比,本发明实施例提供的基于深度学习的端到端图像压缩装置的有益效果与上述实施例提供的基于深度学习的端到端图像压缩方法的有益效果相同,且该基于深度学习的端到端图像压缩装置中的其他技术特征与上述实施例方法公开的特征相同,在此不做赘述。
此外,本发明实施例还提供一种基于深度学习的端到端图像压缩设备,所述基于深度学习的端到端图像压缩设备包括:存储器、处理器、及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上任一项所述的基于深度学习的端到端图像压缩方法的步骤。
此外,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上任一项所述的基于深度学习的端到端图像压缩方法的步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者***不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者***所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者***中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种基于深度学习的端到端图像压缩方法,其特征在于,所述基于深度学习的端到端图像压缩方法,包括:
在量化阶段采用直接量化方法,对变换后的特征向量进行量化;
在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内。
2.如权利要求1所述的基于深度学习的端到端图像压缩方法,其特征在于,所述在量化阶段采用直接量化方法,对变换后的特征向量进行量化的步骤,包括:
对所述特征向量中的待量化值进行舍入取整操作;
对舍入取整操作的结果进行熵编码。
3.如权利要求2所述的基于深度学习的端到端图像压缩方法,其特征在于,所述对所述特征向量中的待量化值进行舍入取整操作的步骤,包括:
将所述待量化值通过四舍五入取整为离散值;
所述对舍入取整操作的结果进行熵编码的步骤,包括:
对所述离散值进行熵编码。
4.如权利要求1所述的基于深度学习的端到端图像压缩方法,其特征在于,所述在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内的步骤,包括:
基于图像压缩模型在编码瓶颈处的信息表示能力,增加所述图像压缩模型的所述网络结构的超参数,将特征向量的通道数设置在预设合理范围内;
其中,所述图像压缩模型的所述网络结构的超参数为变换网络中最后一个卷积层的输出通道。
5.如权利要求1所述的基于深度学习的端到端图像压缩方法,其特征在于,所述在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内的步骤之后,还包括:
在模型训练阶段采用联合码率、失真和可逆性损失函数进行优化目标损失函数。
6.如权利要求5所述的基于深度学习的端到端图像压缩方法,其特征在于,所述在模型训练阶段采用联合码率、失真和可逆性损失函数进行优化目标损失函数的步骤之前,还包括:
在所述网络结构的训练过程中引入基于原始图像、变换网络和反变换网络确定的可逆项,构建所述可逆性损失函数。
7.如权利要求6所述的基于深度学习的端到端图像压缩方法,其特征在于,所述在所述网络结构的训练过程中引入基于原始图像、变换网络和反变换网络确定的可逆项的步骤,包括:
根据所述原始图像与经过变换网络、反变换网络的图像之间的失真确定所述可逆项。
8.一种基于深度学习的端到端图像压缩装置,其特征在于,所述基于深度学习的端到端图像压缩装置,包括:
量化模块,用于在量化阶段采用直接量化方法,对变换后的特征向量进行量化;
设置模块,用于在网络结构设计上采用通道松弛策略将特征向量的通道数设置在预设合理范围内。
9.一种基于深度学习的端到端图像压缩设备,其特征在于,所述基于深度学习的端到端图像压缩设备包括:存储器、处理器、及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至7中任一项所述的基于深度学习的端到端图像压缩方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的基于深度学习的端到端图像压缩方法的步骤。
CN202211307249.8A 2022-10-24 2022-10-24 图像压缩方法、装置、设备及介质 Pending CN115767096A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211307249.8A CN115767096A (zh) 2022-10-24 2022-10-24 图像压缩方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211307249.8A CN115767096A (zh) 2022-10-24 2022-10-24 图像压缩方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN115767096A true CN115767096A (zh) 2023-03-07

Family

ID=85352988

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211307249.8A Pending CN115767096A (zh) 2022-10-24 2022-10-24 图像压缩方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN115767096A (zh)

Similar Documents

Publication Publication Date Title
Minnen et al. Joint autoregressive and hierarchical priors for learned image compression
CN115514978B (zh) 用于在视频压缩中的熵代码化的概率的混合的方法和装置
JP4700491B2 (ja) 適応係数スキャン順序付け
US11949868B2 (en) Method and device for selecting context model of quantization coefficient end flag bit
JP5076150B2 (ja) 画像符号化装置,画像符号化方法および画像符号化プログラム
US11983906B2 (en) Systems and methods for image compression at multiple, different bitrates
JP2009505494A (ja) 変換ブロックの効率的なコーディングおよびデコーディング
KR100809409B1 (ko) 복호화 장치, 역양자화 방법 및 이들의 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체
CN103947206A (zh) 基于区域的图像压缩
CN112821894A (zh) 一种基于加权概率模型的无损压缩方法和无损解压方法
Maleki et al. Blockcnn: A deep network for artifact removal and image compression
CN110738666A (zh) 一种基于离散余弦变换的图像语义分割方法及装置
CN108182712B (zh) 图像处理方法、装置及***
KR102020220B1 (ko) 이미지 압축 방법 및 장치
CN110730347A (zh) 图像压缩方法、装置及电子设备
WO2020172908A1 (zh) 一种量化块的解码方法、装置及电子设备
JP2006270737A (ja) 復号化装置、分布推定方法、復号化方法及びこれらのプログラム
CN115767096A (zh) 图像压缩方法、装置、设备及介质
CN114449277B (zh) 用于系数代码化的上下文推导的方法和设备
CN110234011B (zh) 一种视频压缩方法及***
JP4784386B2 (ja) 復号化装置、逆量子化方法及びプログラム
JP2004310735A (ja) 高速逆離散余弦変換方法及び装置
CN115358954B (zh) 一种注意力引导的特征压缩方法
WO2024169958A1 (en) Method, apparatus, and medium for visual data processing
WO2024140849A1 (en) Method, apparatus, and medium for visual data processing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination