CN109903351B - 基于卷积神经网络和传统编码相结合的图像压缩方法 - Google Patents
基于卷积神经网络和传统编码相结合的图像压缩方法 Download PDFInfo
- Publication number
- CN109903351B CN109903351B CN201910157799.8A CN201910157799A CN109903351B CN 109903351 B CN109903351 B CN 109903351B CN 201910157799 A CN201910157799 A CN 201910157799A CN 109903351 B CN109903351 B CN 109903351B
- Authority
- CN
- China
- Prior art keywords
- image
- network
- deccnn
- convolutional neural
- enhcnn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明属于数字图像处理技术领域,具体为一种基于卷积神经网络和传统编码相结合的图像压缩方法。本发明方法包括:利用卷积神经网络decCNN减少图像的高频信息分量;利用传统编码模块对图像进行压缩,得到用于存储以及传输的图像编码;将得到的编码数据进行解码,得到重构图像;利用卷积神经网络enhCNN对解码后的图像进行增强,提升重构效果。实验结果表明,在实现更高的压缩比时还能得到更好的图像重构质量,大大降低图像数据在存储、传输等过程中所需要占据的资源。
Description
技术领域
本发明属于数字图像处理技术领域,具体涉及一种图像压缩方法。
背景技术
随着计算机技术和网络通信技术不断地发展,实时视频通信、视频监控等领域越来越受到广泛关注。步入信息化时代后,互联网中的流动数据日益增加,对于当前的硬件技术所能提供的网络带宽以及存储资源来说是非常大的负担。图像数据作为互联网最重要的资源,对其进行有效的压缩无疑是很有意义的。图像压缩技术(Image Compression)是用尽可能少的数据来表示原始图像,同时允许恢复后的重构图像的质量有一定程度的失真,极大地减缓了图像数据存储、传输等过程的压力。
传统的图像编码标准比如JPEG(Joint Photographic Experts Group),以及能达到更高的压缩比的JPEG2000等都能通过去除图像中的冗余数据来减少用来表示图像的数据量,从而在获取更高的压缩比的同时保持很好的图像质量。
近年来利用深度学习进行图像压缩的研究层出不穷,比如 Toderici团队[1, 2]利用循环神经网络(Recurrent Neural Network,RNN)对图像进行渐进压缩,从而得到不同的压缩比;结合卷积神经网络(Convolutional Neural Network, CNN)来做图像压缩的有很多,如 Balle等人[3]使用一种加性噪声来代替量化过程中的不可导过程,Wangmeng等人人[4]基于权重来对图像的不同位置使用不同的压缩比,Mentzer等人[4]使用先验概率来对网络进行训练。这些人提出的方案都取得了很好的效果,而且每一种网络框架都是在神经网络的堆叠下构成的,整个过程都可以进行训练。
同样,也有利用神经网络和传统技术相结合的压缩方法,比如Feng等人[5]提出了使用传统技术压缩经CNN处理后的低分辨率图像。
发明内容
为了克服现有技术的不足,本发明的目的在于提供一种基于卷积神经网络和传统编码相结合的图像压缩方法,以减少在存储、传输图像数据时所需要消耗的资源。
本发明提供的基于卷积神经网络和传统编码相结合的图像压缩方法,具体步骤为:
(1)利用卷积神经网络减少图像的高频信息分量;
(2)使用传统压缩技术对图像进行压缩,得到编码数据,再对其解码得到重构图像;
(3)利用卷积神经网络对解码后的图像进行增强,提升重构效果。
进一步的,步骤(1)中,所述利用卷积神经网络减少图像的高频信息分量,是将图像输入卷积网络decCNN,提取特征,减少图像中的高频信息分量,得到与输入图像相同分辨率的图像。其中,decCNN网络主要包括3个卷积层:conv1,conv2,conv3。
进一步的,步骤(2)中,在经过前处理之后,图像中的高频信息更少,然后使用传统的压缩技术(比如JPEG)将处理后的图像进行压缩。由于传统压缩方法主要是压缩图像中的高频信息,对色彩的信息保留较好,因此处理包含较少高频分量的图像时,其压缩过程中的图像损失会更少。图像经过压缩后得到的编码表示可用于传输以及存储。最后,利用JPEG等技术将得到的编码表示进行解码,得到与输入图像相同分辨率的的重构图像。
进一步的,步骤(3)中,卷积神经网络enhCNN用于将重构图像进行增强,消除重构图像中的block效应等损失。enhCNN由20个卷积模块所构成,第一个卷积块包括一个卷积层conv和一个激活函数层relu,中间的18个卷积模块都是由一个卷积层conv、一个BN层以及一个relu层组成,最后再经过一个卷积层得到最终的输出图像。
由于整个压缩过程包含两个卷积神经网络以及一个传统编码过程,因此要对两段网络分别采取不同的损失函数。enhCNN网络所采用的损失函数是计算网络的输出与解码后的图和输入图像做的差之间的L2损失,这样使得网络的输出近似为解码后图像与输入原图之间的残差,网络最后得到的结果和解码后图像相加就能减小与输入原图之间的误差,从而达到更好的恢复效果;decCNN网络所采用的损失函数是计算网络最终输出与输入原图之间的L2损失和解码后的图与输入原图之间的L2损失相加的和。
进一步的,网络模型的训练方法如下:
采用交替训练,首先固定decCNN 网络的参数不变,更新enhCNN网络的参数来最小化enhCNN网络的损失函数;然后固定enhCNN网络的参数,训练decCNN网络,更新其参数用来最小化decCNN网络的损失函数。这样不断交替训练,直到两个网络的损失函数达到平衡。
进一步的,由于在传统编码的过程中有一步很重要的量化操作,用来产生离散的编码值,所以将传统方法结合在卷积网络中会由于其离散型导致网络训练受阻,因此将这个方法中的离散化过程设为输入与输出之间的梯度值不改变,这样使得网络能够正常的训练。
本发明的有益效果在于:本发明设计了一个端到端的图像压缩方法,在传统编码压缩图像前,首先使用CNN对图像进行前处理,减少图像的高频信息分量,降低传统编码压缩的图像失真,最后再利用CNN对解码后的图进行修复,使得最终重构图像更接近输入原图。实验结果表明,在实现相同的视觉效果时,本发明能得到更高的压缩比,将同一张图像压缩得更小。这样在实现更高的压缩比时还能得到更好的图像重构质量,大大降低了图像数据在存储、传输等过程中所需要占据的资源。
附图说明
图1为本发明的网络框架图。
图2为本发明的流程图。
图3为测试图像kodim23.png的压缩R-D曲线图。
图4为测试图像Lena.jpg的压缩效果对比图。
具体实施方式
下面通过实施例对本发明进行进一步说明,但是本发明的保护范围不局限于所述实施例。
采用图1中的网络结构,用400张大小为481×321的图像训练神经网络。
具体实施方法是:
(1)训练时,采用[7]所使用的方法,随机裁剪图像到180×180,再把裁剪后的图裁成64张大小为40×40的小图,裁剪时采用步长为20。设初始学习率为0.01,经过80个epoch之后衰减到0.0001。用Adam随机梯度下降的方法,最小化损失函数。批的大小设为64;
首先进行交替训练:固定decCNN网络的参数,最小化enhCNN网络的损失函数,让网络学习图像增强任务,再固定enhCNN网络的参数,最小化decCNN网络的损失函数,让网络学习减少高频信息的任务。经过一个epoch之后再次交替训练;
(2)测试时,将图像I调整大小到768×512,输入到训练好的模型中,模型输出当前图像压缩成更小的编码表示以及解码后的最终重构图像。计算重构图像与输入原始图像之间的PSNR(Peak signal-to-noise ratio)值作为网络的损失参数,编码表示的BPP(bitper pixel)作为衡量压缩后的比特率。在测试不同的压缩质量因子后,绘制成R-D(Rate-Distortion)曲线。
图3为测试图像kodim23.png的R-D曲线,可以看到经过本发明中的网络测试的结果要比直接用传统编码进行压缩的效果要好。在相同压缩比下本发明能实现更好的重构质量,在相同图像重构质量下能获得更高的压缩比。
图4为本发明测试图像Lena.png在相同的比特率0.156bpp下的压缩效果对比。图4(a)是原始图像,图(b)是直接使用JPEG压缩后的重构图,图(c)是采用本发明中的网络结构所得到的重构图。可以看到图(b)有很多地方存在块效应失真,而图(c)并没有这样的失真。
参考文献
[1] G. Toderici, S. M. O’Malley, S. J. Hwang, D. Vincent, D. Min[1]nen, S. Baluja, M. Covell, and R. Sukthankar. Variable rate image compressionwith recurrent neural networks. International Conference on LearningRepresentations, (2016).
[2] G. Toderici, D. Vincent, N. Johnston, S. J. Hwang, D. Min[1]nen,J. Shor, and M. Covell. Full resolution image com[1]pression with recurrentneural networks. IEEE Conference on Computer Vision and Pattern Recognition,(2017).
[3] J. Balle, V. Laparra, and E. P. Simoncelli. End-to-end optimizedimage compression. International Conference on Learning Representations,(2017).
[4] M. Li, W. Zuo, S. Gu, D. Zhao, and D. Zhang. Learningconvolutional networks for content-weighted image compression. IEEEConference on Computer Vision and Pattern Recognition, (2018).
[5] F Mentzer , E Agustsson , M Tschannen , et al. ConditionalProbability Models for Deep Image Compression. IEEE Conference on ComputerVision and Pattern Recognition, (2018).
[6] W Tao , F Jiang , S Liu , et al. An End-to-End CompressionFramework Based on Convolutional Neural Networks. Data CompressionConference, (2017).
[7] Y. Chen and T. Pock, “Trainable nonlinear reaction diffusion: Aflexible framework for fast and effective image restoration,” arXiv:1508.02848, (2015).。
Claims (3)
1.基于卷积神经网络和传统编码相结合的图像压缩方法,其特征在于,具体步骤如下:
(1)利用卷积神经网络减少图像的高频信息分量:将图像输入卷积网络decCNN,提取特征,减少图像中的高频信息分量,得到与输入图像相同分辨率的图像;其中,decCNN网络包括3个卷积层:conv1,conv2,conv3;
(2)使用压缩技术对图像进行压缩,得到编码数据,再对其解码得到重构图像;
(3)利用卷积神经网络enhCNN对解码后的图像进行增强,提升重构效果;所述enhCNN由20个卷积模块所构成,第一个卷积模块包括一个卷积层conv和一个激活函数层relu,中间的18个卷积模块都是由一个卷积层conv、一个BN层以及一个relu层组成,最后卷积模块为一个卷积层conv,用于输出图像;
网络模型的训练过程如下:
采用交替训练,首先固定decCNN 网络的参数不变,更新enhCNN网络的参数来最小化enhCNN网络的损失函数;然后固定enhCNN网络的参数,训练decCNN网络,更新其参数用来最小化decCNN网络的损失函数;这样不断交替训练,直道两个网络的损失函数达到平衡。
2. 根据权利要求1所述的方法,其特征在于, enhCNN网络采用的损失函数是计算网络的输出与解码后的图和输入图像做的差之间的L2损失;decCNN网络采用的损失函数是计算网络最终输出与输入原图之间的L2损失和解码后的图与输入原图之间的L2损失相加的和。
3.根据权利要求1或2所述的方法,其特征在于,步骤(2)中,编码过程中产生离散的编码值,离散化过程中设置输入与输出之间的梯度值不改变。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910157799.8A CN109903351B (zh) | 2019-03-02 | 2019-03-02 | 基于卷积神经网络和传统编码相结合的图像压缩方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910157799.8A CN109903351B (zh) | 2019-03-02 | 2019-03-02 | 基于卷积神经网络和传统编码相结合的图像压缩方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109903351A CN109903351A (zh) | 2019-06-18 |
CN109903351B true CN109903351B (zh) | 2023-05-30 |
Family
ID=66946155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910157799.8A Active CN109903351B (zh) | 2019-03-02 | 2019-03-02 | 基于卷积神经网络和传统编码相结合的图像压缩方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109903351B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112307230B (zh) * | 2019-07-29 | 2024-01-26 | 杭州海康威视数字技术股份有限公司 | 一种数据存储的方法、及其数据获取方法、装置 |
CN110493596B (zh) * | 2019-09-02 | 2021-09-17 | 西北工业大学 | 一种基于神经网络的视频编码***及方法 |
CN110880194A (zh) * | 2019-12-03 | 2020-03-13 | 山东浪潮人工智能研究院有限公司 | 一种基于卷积神经网络的图像压缩方法 |
CN113034625B (zh) * | 2019-12-25 | 2023-06-20 | 武汉Tcl集团工业研究院有限公司 | 一种基于图片的无损压缩方法、智能终端及存储介质 |
CN113256744B (zh) * | 2020-02-10 | 2023-03-24 | 武汉Tcl集团工业研究院有限公司 | 一种图像编码、解码方法及*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709875A (zh) * | 2016-12-30 | 2017-05-24 | 北京工业大学 | 一种基于联合深度网络的压缩低分辨率图像复原方法 |
CN108921910A (zh) * | 2018-07-30 | 2018-11-30 | 浙江大学 | 基于可伸缩卷积神经网络的jpeg编码压缩图像复原的方法 |
WO2019008752A1 (ja) * | 2017-07-07 | 2019-01-10 | 三菱電機株式会社 | データ処理装置、データ処理方法および圧縮データ |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6116059B2 (ja) * | 2013-12-16 | 2017-04-19 | 満男 江口 | 暗号通信向け画像圧縮伸長方法及び装置、プログラム、並びに記憶媒体 |
CN106372577A (zh) * | 2016-08-23 | 2017-02-01 | 北京航空航天大学 | 一种基于深度学习的交通标志自动识别与标注方法 |
CN109146989B (zh) * | 2018-07-10 | 2023-02-14 | 华南理工大学 | 一种通过搭建神经网络生成花鸟艺术字图像的方法 |
CN109034034A (zh) * | 2018-07-12 | 2018-12-18 | 广州麦仑信息科技有限公司 | 一种基于强化学习算法优化卷积神经网络的静脉识别方法 |
-
2019
- 2019-03-02 CN CN201910157799.8A patent/CN109903351B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709875A (zh) * | 2016-12-30 | 2017-05-24 | 北京工业大学 | 一种基于联合深度网络的压缩低分辨率图像复原方法 |
WO2019008752A1 (ja) * | 2017-07-07 | 2019-01-10 | 三菱電機株式会社 | データ処理装置、データ処理方法および圧縮データ |
CN108921910A (zh) * | 2018-07-30 | 2018-11-30 | 浙江大学 | 基于可伸缩卷积神经网络的jpeg编码压缩图像复原的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109903351A (zh) | 2019-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109903351B (zh) | 基于卷积神经网络和传统编码相结合的图像压缩方法 | |
Santurkar et al. | Generative compression | |
CN107018422B (zh) | 基于深度卷积神经网络的静止图像压缩方法 | |
CN112203093B (zh) | 一种基于深度神经网络的信号处理方法 | |
CN110751597B (zh) | 基于编码损伤修复的视频超分辨方法 | |
Tsai et al. | Learning binary residual representations for domain-specific video streaming | |
US10965948B1 (en) | Hierarchical auto-regressive image compression system | |
CN103607591A (zh) | 结合超分辨率重建的图像压缩方法 | |
WO2020238439A1 (zh) | 无线自组织网络带宽受限下的视频业务质量增强方法 | |
CN113822147B (zh) | 一种协同机器语义任务的深度压缩方法 | |
CN109361919A (zh) | 一种联合超分辨率和去压缩效应的图像编码性能提升方法 | |
CN113298894A (zh) | 一种基于深度学习特征空间的视频压缩方法 | |
Zebang et al. | Densely connected AutoEncoders for image compression | |
Li et al. | Multiple description coding based on convolutional auto-encoder | |
CN111050170A (zh) | 基于gan的图片压缩***构建方法、压缩***及方法 | |
Yadav et al. | Flow-MotionNet: A neural network based video compression architecture | |
CN111726638A (zh) | 一种结合去压缩效应与超分辨率的hevc编码优化方法 | |
Shen et al. | Dec-adapter: Exploring efficient decoder-side adapter for bridging screen content and natural image compression | |
CN111080729A (zh) | 基于Attention机制的训练图片压缩网络的构建方法及*** | |
CN113822801B (zh) | 基于多分支卷积神经网络的压缩视频超分辨率重建方法 | |
CN115361556A (zh) | 一种基于自适应的高效视频压缩算法及其*** | |
Yang et al. | Graph-convolution network for image compression | |
Gulia et al. | Comprehensive Analysis of Flow Incorporated Neural Network based Lightweight Video Compression Architecture | |
CN114501034B (zh) | 基于离散高斯混合超先验和Mask的图像压缩方法及介质 | |
CN115358954B (zh) | 一种注意力引导的特征压缩方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |