CN113422965A - 一种基于生成对抗网络的图像压缩方法及装置 - Google Patents
一种基于生成对抗网络的图像压缩方法及装置 Download PDFInfo
- Publication number
- CN113422965A CN113422965A CN202110625449.7A CN202110625449A CN113422965A CN 113422965 A CN113422965 A CN 113422965A CN 202110625449 A CN202110625449 A CN 202110625449A CN 113422965 A CN113422965 A CN 113422965A
- Authority
- CN
- China
- Prior art keywords
- interpolation
- quantization table
- network
- image
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/625—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开了一种基于生成对抗网络的图像压缩方法及装置。其中,该方法包括:获取原始图像数据;将所述原始图像数据通过生成对抗网络进行DCT变换,得到图像变换结果;根据所述图像变换结果进行8*8的量化表进行插值,得到插值量化表;采用所述插值量化表对所述图像变换结果进行量化和熵编码,得到目标图像数据。本发明解决了完全基于深度学习的图像压缩算法,不仅压缩耗费的时间长,对于解码而言也需要调用深度学习模型进行解码。但是运行深度学习的方案进行解码,需要在高性能GPU上,或者专用芯片上,否则会非常慢的技术问题。
Description
技术领域
本发明涉及图像压缩编码领域,具体而言,涉及一种基于生成对抗网络的图像压缩方法及装置。
背景技术
随着智能化科技的不断发展,人们的生活、工作、学习之中越来越多地用到了智能化设备,使用智能化科技手段,提高了人们生活的质量,增加了人们学习和工作的效率。
由于图像数据量比较大,在实际存储和传输过程中,需要对图像进行压缩编码,现有的广泛应用的图像压缩编码JPEG,采用的DCT变换,量化和熵编码。由于计算资源的限制,DCT变换的块大小不宜过大,在标准的JPEG方案中,DCT的大小为8,但是对于图像压缩领域而言,DCT变换的大小越大,压缩效率一般越高。对于分辨率大的图像而言,DCT会比较大,由此会导致耗费大量的计算时间。目前基于深度学习的图像压缩研究已经取得了很大的进展,但是完全基于深度学习的图像压缩算法,不仅压缩耗费的时间长,对于解码而言也需要调用深度学习模型进行解码。但是运行深度学习的方案进行解码,需要在高性能GPU上,或者专用芯片上,否则会非常慢。针对这个问题,本发明采用将大块的DCT变换用深度学习对抗网络模型来替换,以便在GPU或者AI专用芯片上并行编码,提高编码效率。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种基于生成对抗网络的图像压缩方法及装置,以至少解决完全基于深度学习的图像压缩算法,不仅压缩耗费的时间长,对于解码而言也需要调用深度学习模型进行解码。但是运行深度学习的方案进行解码,需要在高性能GPU上,或者专用芯片上,否则会非常慢的技术问题。
根据本发明实施例的一个方面,提供了一种基于生成对抗网络的图像压缩方法,包括:获取原始图像数据;将所述原始图像数据通过生成对抗网络进行DCT变换,得到图像变换结果;根据所述图像变换结果进行8*8的量化表进行插值,得到插值量化表;采用所述插值量化表对所述图像变换结果进行量化和熵编码,得到目标图像数据。
可选的,所述生成对抗网络的生成器采用增强型U型网络提取特征。
可选的,所述增强型U型网络采用EfficientnetB0作为基础网络,用于提取多个层的特征。
可选的,所述插值量化表采用三次样条插值。
根据本发明实施例的另一方面,还提供了一种基于生成对抗网络的图像压缩装置,包括:获取模块,用于获取原始图像数据;变换模块,用于将所述原始图像数据通过生成对抗网络进行DCT变换,得到图像变换结果;插值模块,用于根据所述图像变换结果进行8*8的量化表进行插值,得到插值量化表;处理模块,用于采用所述插值量化表对所述图像变换结果进行量化和熵编码,得到目标图像数据。
可选的,所述生成对抗网络的生成器采用增强型U型网络提取特征。
可选的,所述增强型U型网络采用EfficientnetB0作为基础网络,用于提取多个层的特征。
可选的,所述插值量化表采用三次样条插值。
根据本发明实施例的另一方面,还提供了一种非易失性存储介质,所述非易失性存储介质包括存储的程序,其中,所述程序运行时控制非易失性存储介质所在的设备执行一种基于生成对抗网络的图像压缩方法。
根据本发明实施例的另一方面,还提供了一种电子装置,包含处理器和存储器;所述存储器中存储有计算机可读指令,所述处理器用于运行所述计算机可读指令,其中,所述计算机可读指令运行时执行一种基于生成对抗网络的图像压缩方法。
在本发明实施例中,采用获取原始图像数据;将所述原始图像数据通过生成对抗网络进行DCT变换,得到图像变换结果;根据所述图像变换结果进行8*8的量化表进行插值,得到插值量化表;采用所述插值量化表对所述图像变换结果进行量化和熵编码,得到目标图像数据的方式,解决了完全基于深度学习的图像压缩算法,不仅压缩耗费的时间长,对于解码而言也需要调用深度学习模型进行解码。但是运行深度学习的方案进行解码,需要在高性能GPU上,或者专用芯片上,否则会非常慢的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的生成器模型;
图2是根据本发明实施例提取的Efficientnet特征;
图3是根据本发明实施例的率失真曲线;
图4是根据本发明实施例的一种基于生成对抗网络的图像压缩方法的流程图;
图5是根据本发明实施例的一种基于生成对抗网络的图像压缩装置的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本发明实施例,提供了一种基于生成对抗网络的图像压缩方法的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机***中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
实施例一
图4是根据本发明实施例的一种基于生成对抗网络的图像压缩方法的流程图,如图4所示,该方法包括如下步骤:
步骤S102,获取原始图像数据。
步骤S104,将所述原始图像数据通过生成对抗网络进行DCT变换,得到图像变换结果。
步骤S106,根据所述图像变换结果进行8*8的量化表进行插值,得到插值量化表。
步骤S108,采用所述插值量化表对所述图像变换结果进行量化和熵编码,得到目标图像数据。
可选的,所述生成对抗网络的生成器采用增强型U型网络提取特征。
可选的,所述增强型U型网络采用EfficientnetB0作为基础网络,用于提取多个层的特征。
可选的,所述插值量化表采用三次样条插值。
具体的,本发明实施例提供一种基于深度学习的对抗网络的图像压缩实现方法,以解决目前针对高分辨率图像压缩效率和编码时间均衡问题。为了实现上述目的,本发明实施例提供如下技术方案。
本方案采用生成对抗网络中的pix2pix网络替换原始DCT变换,生成器网络如图1所示。从图1可以看出,提出生成器通过Efficientnet提取多个层的深度特征,接着加入Attention层,Residual层以便获取最终的特征。设计的网络采用常用的Unet++网络来构建。Unet++是由Unet网络改进而来,Unet具有以下特点:
底层信息经过多次下采样后的低分辨率信息。能够提供整个图像的上下文语义信息,这个特征有助于物体的类别判断(所以分类问题通常只需要低分辨率/深层信息,不涉及多尺度融合)。浅层信息:经过连接操作从编码器直接传递到同解码器上的高分辨率信息。能够提供更加精细的特征。具体而言,UNet共进行了四次上采样,并在同一个阶段使用了跳层,这样就保证了最后恢复出来的特征图融合了更多的低级的特征,也使得不同尺度的特征得到了的有效融合,。四次上采样也使得分割图恢复边缘等信息更加精细。而Unet++利用了全尺度的跳跃连接和深度监督。全尺度的跳跃连接把来自不同尺度特征图中的高级语义与低级语义结合;而深度监督则从多尺度聚合的特征图中学习层次表示。综上可以看出,采用的Unet++网络结构,能够有效地提取图像深度特征。判决器直接采用广泛使用的pix2pix的判决器。最终的损失函数由生成器和判决器的损失叠加而成,在本专利的提出的模型中,生成器的损失函数,采用的是均方误差(mean-square error,MSE)。MSE越小,PSNR越大。
提取的Efficientnet特征如图2所示。从图二我们可以看出,x1、x2、x3、x4分别为从Efficientnet网络中提取的深度特征。将该四个特征送入Unet++网络。
判决器采用pix2pix的原始卷积神经网络判决方法,即基于patch的方式。判别器采用PatchGAN,PatchGAN对输入图像的每个区域(patch)都输出一个预测概率值,相当于从判断输入是真还是假变成判断输入的N*N大小区域是真还是假。原始的量化矩阵为8*8的矩阵,对于大块比如32*32而言,则需要对原始的8*8块的矩阵进行插值,本专利中采用三次样条插值(Spline Interpolation),先将8*8的量化矩阵插值成16*16,然后将16*16的插值成32*32的量化矩阵。原始的JPEG编码器由于DCT变换,量化,熵编码。而本专利提出的方法则为基于深度学习GAN网络的DCT变换,经过插值的量化,熵编码。
例如,输入32*32的图像;
将此32*32的图像采用基于GAN网络的方式进行大块的DCT变换;
变换后的DCT图像用插值后的量化矩阵进行量化;
采用霍夫曼编码对量化后的系数进行编码压缩,获得最终的码流。
下面结合实验结果图3对发明进行进一步的描述。图3为各类图像压缩算法的在Kodak[1]数据库上率失真曲线。深度学习的图像压缩算法的训练数据库为CLIC[2]。ICLR2017和ICLR2020分别对应文献[3]和文献[4]的基于深度学习图像压缩算法。从图3中可以看出,在码率比较大的时候,提出的大块DCT即32*32的方法,压缩效果要好于[3]和[4]。
通过上述实施例,解决了完全基于深度学习的图像压缩算法,不仅压缩耗费的时间长,对于解码而言也需要调用深度学习模型进行解码。但是运行深度学习的方案进行解码,需要在高性能GPU上,或者专用芯片上,否则会非常慢的技术问题。
实施例二
图5是根据本发明实施例的一种基于生成对抗网络的图像压缩装置的结构框图,如图5所示,该装置包括:
获取模块20,用于获取原始图像数据。
变换模块22,用于将所述原始图像数据通过生成对抗网络进行DCT变换,得到图像变换结果。
插值模块24,用于根据所述图像变换结果进行8*8的量化表进行插值,得到插值量化表。
处理模块26,用于采用所述插值量化表对所述图像变换结果进行量化和熵编码,得到目标图像数据。
可选的,所述生成对抗网络的生成器采用增强型U型网络提取特征。
可选的,所述增强型U型网络采用EfficientnetB0作为基础网络,用于提取多个层的特征。
可选的,所述插值量化表采用三次样条插值。
具体的,本发明实施例提供一种基于深度学习的对抗网络的图像压缩实现方法,以解决目前针对高分辨率图像压缩效率和编码时间均衡问题。为了实现上述目的,本发明实施例提供如下技术方案。
本方案采用生成对抗网络中的pix2pix网络替换原始DCT变换,生成器网络如图1所示。从图1可以看出,提出生成器通过Efficientnet提取多个层的深度特征,接着加入Attention层,Residual层以便获取最终的特征。设计的网络采用常用的Unet++网络来构建。Unet++是由Unet网络改进而来,Unet具有以下特点:
底层信息经过多次下采样后的低分辨率信息。能够提供整个图像的上下文语义信息,这个特征有助于物体的类别判断(所以分类问题通常只需要低分辨率/深层信息,不涉及多尺度融合)。浅层信息:经过连接操作从编码器直接传递到同解码器上的高分辨率信息。能够提供更加精细的特征。具体而言,UNet共进行了四次上采样,并在同一个阶段使用了跳层,这样就保证了最后恢复出来的特征图融合了更多的低级的特征,也使得不同尺度的特征得到了的有效融合,。四次上采样也使得分割图恢复边缘等信息更加精细。而Unet++利用了全尺度的跳跃连接和深度监督。全尺度的跳跃连接把来自不同尺度特征图中的高级语义与低级语义结合;而深度监督则从多尺度聚合的特征图中学习层次表示。综上可以看出,采用的Unet++网络结构,能够有效地提取图像深度特征。判决器直接采用广泛使用的pix2pix的判决器。最终的损失函数由生成器和判决器的损失叠加而成,在本专利的提出的模型中,生成器的损失函数,采用的是均方误差(mean-square error,MSE)。MSE越小,PSNR越大。
提取的Efficientnet特征如图2所示。从图二我们可以看出,x1、x2、x3、x4分别为从Efficientnet网络中提取的深度特征。将该四个特征送入Unet++网络。
判决器采用pix2pix的原始卷积神经网络判决方法,即基于patch的方式。判别器采用PatchGAN,PatchGAN对输入图像的每个区域(patch)都输出一个预测概率值,相当于从判断输入是真还是假变成判断输入的N*N大小区域是真还是假。原始的量化矩阵为8*8的矩阵,对于大块比如32*32而言,则需要对原始的8*8块的矩阵进行插值,本专利中采用三次样条插值(Spline Interpolation),先将8*8的量化矩阵插值成16*16,然后将16*16的插值成32*32的量化矩阵。原始的JPEG编码器由于DCT变换,量化,熵编码。而本专利提出的方法则为基于深度学习GAN网络的DCT变换,经过插值的量化,熵编码。
例如,输入32*32的图像;
将此32*32的图像采用基于GAN网络的方式进行大块的DCT变换;
变换后的DCT图像用插值后的量化矩阵进行量化;
采用霍夫曼编码对量化后的系数进行编码压缩,获得最终的码流。
下面结合实验结果图3对发明进行进一步的描述。图3为各类图像压缩算法的在Kodak[1]数据库上率失真曲线。深度学习的图像压缩算法的训练数据库为CLIC[2]。ICLR2017和ICLR2020分别对应文献[3]和文献[4]的基于深度学习图像压缩算法。从图3中可以看出,在码率比较大的时候,提出的大块DCT即32*32的方法,压缩效果要好于[3]和[4]。
通过上述实施例,解决了完全基于深度学习的图像压缩算法,不仅压缩耗费的时间长,对于解码而言也需要调用深度学习模型进行解码。但是运行深度学习的方案进行解码,需要在高性能GPU上,或者专用芯片上,否则会非常慢的技术问题。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种基于生成对抗网络的图像压缩方法,其特征在于,包括:
获取原始图像数据;
将所述原始图像数据通过生成对抗网络进行DCT变换,得到图像变换结果;
根据所述图像变换结果进行8*8的量化表进行插值,得到插值量化表;
采用所述插值量化表对所述图像变换结果进行量化和熵编码,得到目标图像数据。
2.根据权利要求1所述的方法,其特征在于,所述生成对抗网络的生成器采用增强型U型网络提取特征。
3.根据权利要求2所述的方法,其特征在于,所述增强型U型网络采用EfficientnetB0作为基础网络,用于提取多个层的特征。
4.根据权利要求1所述的方法,其特征在于,所述插值量化表采用三次样条插值。
5.一种基于生成对抗网络的图像压缩装置,其特征在于,包括:
获取模块,用于获取原始图像数据;
变换模块,用于将所述原始图像数据通过生成对抗网络进行DCT变换,得到图像变换结果;
插值模块,用于根据所述图像变换结果进行8*8的量化表进行插值,得到插值量化表;
处理模块,用于采用所述插值量化表对所述图像变换结果进行量化和熵编码,得到目标图像数据。
6.根据权利要求5所述的装置,其特征在于,所述生成对抗网络的生成器采用增强型U型网络提取特征。
7.根据权利要求6所述的装置,其特征在于,所述增强型U型网络采用EfficientnetB0作为基础网络,用于提取多个层的特征。
8.根据权利要求5所述的装置,其特征在于,所述插值量化表采用三次样条插值。
9.一种非易失性存储介质,其特征在于,所述非易失性存储介质包括存储的程序,其中,所述程序运行时控制非易失性存储介质所在的设备执行权利要求1至4中任意一项所述的方法。
10.一种电子装置,其特征在于,包含处理器和存储器;所述存储器中存储有计算机可读指令,所述处理器用于运行所述计算机可读指令,其中,所述计算机可读指令运行时执行权利要求1至4中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110625449.7A CN113422965A (zh) | 2021-06-04 | 2021-06-04 | 一种基于生成对抗网络的图像压缩方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110625449.7A CN113422965A (zh) | 2021-06-04 | 2021-06-04 | 一种基于生成对抗网络的图像压缩方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113422965A true CN113422965A (zh) | 2021-09-21 |
Family
ID=77713832
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110625449.7A Withdrawn CN113422965A (zh) | 2021-06-04 | 2021-06-04 | 一种基于生成对抗网络的图像压缩方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113422965A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115272140A (zh) * | 2022-09-29 | 2022-11-01 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 红外图像量化和增强方法、***及存储介质 |
-
2021
- 2021-06-04 CN CN202110625449.7A patent/CN113422965A/zh not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115272140A (zh) * | 2022-09-29 | 2022-11-01 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 红外图像量化和增强方法、***及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Popat et al. | Novel cluster-based probability model for texture synthesis, classification, and compression | |
EP0933920B1 (en) | Data processing apparatus and method and storage medium | |
US6671413B1 (en) | Embedded and efficient low-complexity hierarchical image coder and corresponding methods therefor | |
CN110517329A (zh) | 一种基于语义分析的深度学习图像压缩方法 | |
JP5962937B2 (ja) | 画像処理方法 | |
CN110933438B (zh) | 一种jpeg图像可逆信息隐藏方法 | |
CN115131675A (zh) | 一种基于参考影像纹理迁移的遥感影像压缩方法及*** | |
Xiang et al. | Adaptive and dynamic multi-grouping scheme for absolute moment block truncation coding | |
Löhdefink et al. | Focussing learned image compression to semantic classes for V2X applications | |
Fan et al. | Deep geometry post-processing for decompressed point clouds | |
CN113422965A (zh) | 一种基于生成对抗网络的图像压缩方法及装置 | |
CN112887713B (zh) | 图片压缩、解压缩方法和装置 | |
CN117560511A (zh) | 基于图分割技术电力巡检的间隔棒图像压缩方法及*** | |
CN114554220B (zh) | 一种基于抽象特征的固定场景视频超限压缩与解码方法 | |
CN111107377A (zh) | 深度图像压缩方法及其装置、设备和存储介质 | |
CN105376578A (zh) | 图像压缩方法及装置 | |
US20220094951A1 (en) | Palette mode video encoding utilizing hierarchical palette table generation | |
KR20220045920A (ko) | 머신비전을 위한 영상의 처리 방법 및 장치 | |
KR100580616B1 (ko) | 삼차원 객체의 형태 변형 정보에 대한 부호화 방법 및 그장치 | |
Zhao et al. | Image and Graphics: 10th International Conference, ICIG 2019, Beijing, China, August 23–25, 2019, Proceedings, Part III | |
CN114554175B (zh) | 一种基于分类重排的二维点云距离图像的无损压缩方法 | |
CN117915107B (zh) | 图像压缩***、图像压缩方法、存储介质与芯片 | |
Jin | The Application of Image Compression Technology in Library | |
Siddeq | Novel methods of image compression for 3D reconstruction | |
Singh et al. | COMPARATIVE STUDIES OF VARIOUS TECHNIQUES FOR IMAGE COMPRESSION ALGORITHM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210921 |
|
WW01 | Invention patent application withdrawn after publication |