CN110569961A - 一种神经网络训练方法、装置及终端设备 - Google Patents
一种神经网络训练方法、装置及终端设备 Download PDFInfo
- Publication number
- CN110569961A CN110569961A CN201910727890.9A CN201910727890A CN110569961A CN 110569961 A CN110569961 A CN 110569961A CN 201910727890 A CN201910727890 A CN 201910727890A CN 110569961 A CN110569961 A CN 110569961A
- Authority
- CN
- China
- Prior art keywords
- neural network
- image
- noise
- noise generation
- weight parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
本发明适用于图像压缩技术领域,提供了一种神经网络训练方法、装置、终端设备及计算机存储介质,所述神经网络训练方法包括:步骤A:生成图像噪声;步骤B:将图像噪声输入到神经网络生成对应的噪声生成图像;步骤C:根据所述噪声生成图像和原始图像调整所述神经网络的权重参数,并根据所述调整后的权重参数更新步骤B所述的神经网络;步骤D:重复执行步骤B到步骤C直至所述神经网络满足预设条件为止。本发明根据噪声生成图像和原始图像来调整神经网络的权重参数,通过调整完权重参数的神经网络来进行图像压缩,提高了图像压缩效果,解决了图像压缩算法中解码过慢的问题。
Description
技术领域
本发明属于图像压缩技术领域,尤其涉及一种神经网络训练方法、装置及终端设备。
背景技术
传统的图像压缩算法,例如jpeg、jpeg2000等,在获得极高压缩率的同时会大幅丢失图像中的高频信息,导致图像信息大幅丢失,引起图像失真。目前网站、社交媒体上的高清图片日益增多,随之而来的带宽消耗也不断增大,如不进行压缩的话会占用过多的资源空间,如运用传统的图像压缩算法,则会导致图像经压缩后不清晰等问题。
本发明提出一种神经网络训练方法,根据生成的噪声来调整神经网络的权重参数直至神经网络满足预设指标为止,通过调整完权重参数的神经网络来进行图像压缩,提高了图像压缩效果,解决了现有的深度学习图像压缩算法中解码过慢的问题。
发明内容
有鉴于此,本发明实施例提供了一种神经网络训练方法、装置及终端设备,以解决现有技术中压缩效果不好、图像压缩算法中解码过慢的问题。
本发明实施例的第一方面提供了一种神经网络训练方法,包括:
步骤A:生成图像噪声;
步骤B:将图像噪声输入到神经网络生成对应的噪声生成图像;
步骤C:根据所述噪声生成图像和原始图像调整所述神经网络的权重参数,并根据所述调整后的权重参数更新步骤B所述的神经网络;
步骤D:重复执行步骤B到步骤C直至所述神经网络满足预设条件为止。
可选地,所述将图像噪声输入到神经网络生成对应的噪声生成图像包括:
将所述图像噪声在神经网络中进行卷积操作生成对应的噪声生成图像。
可选地,所述根据所述噪声生成图像和原始图像调整所述神经网络的权重参数包括:
根据所述噪声生成图像与原始图像生成损失函数;
根据所述损失函数进行梯度更新;
通过所述梯度更新调整所述神经网络的权重参数。
可选地,所述重复执行步骤B到步骤C直至所述神经网络满足预设条件为止包括:
重复执行步骤B到步骤C直至所述神经网络生成图像的性能指标达到预设阈值为止
或
重复执行步骤B到步骤C的次数达到预设次数为止。
可选地,在步骤D后,还包括:
提取所述神经网络的权重参数,将所述权重参数作为特征图像;
将所述特征图像通过熵编码得到编码数据;
将所述编码数据通过熵解码生成重构权重参数;
根据所述重构权重参数更新所述神经网络;
将所述图像噪声输入所述重构权重参数更新后的神经网络中,生成重构图像。
本发明实施例的第二方面提供了一种神经网络训练装置,包括:
图像噪声生成模块,用于生成图像噪声;
卷积模块,用于将图像噪声输入到神经网络生成对应的噪声生成图像;
神经网络更新模块,用于根据所述噪声生成图像和原始图像调整所述神经网络的权重参数,并根据所述调整后的权重参数更新步骤B所述的神经网络;
循环模块,用于重复执行步骤B到步骤C直至所述神经网络满足预设条件为止。
可选地,所述卷积模块包括:
卷积操作单元,用于将所述图像噪声在神经网络中进行卷积操作生成对应的噪声生成图像。
可选地,所述神经网络更新模块包括:
损失函数单元,用于根据所述噪声生成图像与原始图像生成损失函数;
梯度更新单元,用于根据所述损失函数进行梯度更新;
参数调整单元,用于通过所述梯度更新调整所述神经网络的权重参数。
本发明实施例的第三方面提供了一种神经网络训练终端设备,包括存储器、处理器以及存储在上述存储器中并可在上述处理器上运行的计算机程序,上述处理器执行上述计算机程序时实现如上第一方面所提供的方法的步骤。
本发明实施例的第四方面提供了一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序被处理器执行时实现如上第一方面所提供的方法的步骤。
本发明实施例与现有技术相比存在的有益效果是:本发明通过调整神经网络的权重参数来训练神经网络,提高了图像压缩效果,解决了图像压缩算法中解码过慢的问题。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的神经网络训练方法的实现流程的示意图;
图2是本发明实施例提供的卷积神经网络结构的示意图;
图3是本发明实施例提供的调整权重参数流程的示意图;
图4是本发明实施例提供的神经网络训练装置的示意图;
图5是本发明实施例提供的神经网络训练终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
实施例一
图1示出了本发明实施例一提供的神经网络训练方法的实现流程,该方法的执行主体可以是终端设备,包括但不限于智能手机、平板电脑、个人电脑、服务器等。需要说明的是,该终端设备的数目并不是固定的,可以根据实际情况进行部署。进一步地,上述实施例一提供的神经网络训练方法的实现流程详述如下:
步骤S101,生成图像噪声。
可选地,上述图像噪声可以是随机生成的图像噪声,也可以是预先设置好的图像噪声,此处不作限定。其中,图像噪声是指存在于图像数据中的不必要的或多余的干扰信息,包括但不限于高斯噪声、泊松噪声、乘性噪声、椒盐噪声等。
示例地,在本发明实施例中随机生成一个概率密度函数服从高斯分布的高斯噪声,上述高斯噪声为1*H*W*C尺寸的矩阵,其中H为噪声矩阵的高,W为噪声矩阵的宽,C为噪声矩阵的通道数。
步骤S102,将图像噪声输入到神经网络生成对应的噪声生成图像。
可选地,上述神经网络为卷积神经网络,该卷积神经网络可以包括至少一个卷积层。进一步地,上述卷积层可包括卷积核,输入卷积层的图像经过与卷积核的卷积运算后去除冗余的图像信息,输出包含特征信息的图像。如果上述卷积核的尺寸大于1×1,则卷积层可以输出多幅尺寸小于输入图像的特征图,在经过多个卷积层的处理后,输入卷积神经网络的图像的尺寸经过了多级收缩,得到多幅尺寸小于输入神经网络的图像尺寸的特征图。进一步地,在本发明实施例中,将图像噪声输入到神经网络生成对应的噪声图像可以是反卷积操作,反卷积操作则与上述描述的输入图像去除冗余信息生成特征图像的过程相反。可选地,上述卷积神经网络还可以包括池化层、Inception模块、全连接层等,此处不作限定。
示例地,如图2所示,卷积神经网络可以包括四个卷积层,四个卷积层对应的权重参数矩阵的尺寸分别为H1*W1*N1*C1,H2*W2*N2*C2,H3*W3*N3*C3,H4*W4*N4*C4,步长分别为S1、S2、S3、S4。其中,H为权重参数矩阵的高,W为权重参数矩阵的宽,N为权重参数矩阵的输出通道数,C为权重参数矩阵的输入通道数。且四个卷积层的权重参数的输入通道数分别与前一层的权重参数的输出通道数相关联。示例地,在图2中,C1=C,C2=N1,C3=N2,C4=N3。在步骤S101示例中随机生成的高斯噪声为1*H*W*C的矩阵,经过上述卷积神经网络进行卷积操作后,对应生成尺寸为1*H’*W’*C’的噪声生成图像,其中H’=H*S1*S2*S3*S4,W’=W*S1*S2*S3*S4,C’=C4。
步骤S103,根据上述噪声生成图像调整上述神经网络的权重参数,并根据上述调整后的权重参数更新步骤B上述的神经网络。
可选地,图3示出了根据噪声生成图像调整上述神经网络的权重参数的过程:
步骤:S301:根据上述噪声生成图像与原始图像生成损失函数。
可选地,噪声生成图像和原始图像之间的损失函数可以使用MSE(均方误差)。具体的,MSE的公式如公式(1)所示:
其中,H为噪声生成图像的高,W为噪声生成图像的宽,C为噪声生成图像通道数,X’代表噪声生成图像,X代表原始图像,X’i,j,m代表噪声生成图像中第m通道第i行第j列的数值,Xi,j,m代表原始图像中第m通道第i行第j列的数值。
步骤S302:根据上述损失函数进行梯度更新。
可选地,梯度更新的公式如公式(2)所示:
W′=W-αΔW (2)
其中,W代表神经网络的权重参数,W’代表更新后的权重参数,α是预先设定的学习率,ΔW是计算梯度。
可选地,在进行梯度更新的时候,可以使用现有的自适应梯度优化器来进行计算。具体地,可以使用Adam优化器。进一步地,在Adam优化器中输入上述MSE计算结果、神经网络的权重参数、预先设定的学习率,即可得到更新后的权重参数。
步骤S303:通过上述梯度更新调整神经网络的权重参数。
可选地,将上述计算得到的更新后的权重参数替换掉神经网络中原有的权重参数,成为新的神经网络。上述新的神经网络的权重参数即为步骤S302中计算出的更新后的权重参数。
步骤S104,重复执行步骤B到步骤C直至上述神经网络满足预设条件为止。
可选地,上述重复执行步骤B到步骤C直至上述神经网络满足预设条件为止包括:
重复执行步骤B到步骤C直至上述神经网络生成图像的性能指标达到预设阈值为止
或
重复执行步骤B到步骤C的次数达到预设次数为止。
进一步地,重复执行步骤B到步骤C的次数达到预设次数为止,其中预设次数为人工预先设置在神经网络训练程序中或者预先设置在装载神经网络训练程序的终端设备中。
进一步地,重复执行步骤B到步骤C直至上述神经网络生成图像的性能指标达到预设阈值为止。其中,上述神经网络生成图像的性能指标包括峰值信噪比PSNR(Peak Signalto Noise Ratio)和像素比特BPP(bits per pixel)。
具体地,将测试图集放入到上述更新完权重参数后的神经网络中测试上述神经网络的性能指标,即峰值信噪比PSNR和像素比特BPP。可选地,在固定的像素比特BPP下,判断峰值信噪比PSNR是否达到预设阈值,峰值信噪比PSNR越高则代表图片压缩中损失的信息越少。可选地,上述测试图集可以包括24张柯达标准测试图集,此处不作限定。
本实施例中,通过生成噪声来调整神经网络的权重参数直至神经网络的图像压缩效果达到预期指标为止,根据调整完权重参数的神经网络来进行图像压缩,提高了图像压缩效果,解决了图像压缩算法中解码过慢的问题。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
实施例二
图4示出了本发明实施例提供的神经网络训练装置的示意图,为了便于说明,仅示出了与本发明实施例相关的部分。该神经网络训练装置4包括:图像噪声生成模块41,卷积模块42,神经网络更新模块43,循环模块44。
其中,图像噪声生成模块41,用于生成图像噪声;
卷积模块42,用于将图像噪声输入到神经网络生成对应的噪声生成图像;
神经网络更新模块43,用于根据上述噪声生成图像和原始图像调整上述神经网络的权重参数,并根据上述调整后的权重参数更新步骤B上述的神经网络;
循环模块44,用于重复执行步骤B到步骤C直至上述神经网络满足预设条件为止。
具体地,上述重复执行步骤B到步骤C直至上述神经网络满足预设条件为止包括:
重复执行步骤B到步骤C直至上述神经网络生成图像的性能指标达到预设阈值为止
或
重复执行步骤B到步骤C的次数达到预设次数为止。
可选地,上述卷积模块42包括:
卷积操作单元,用于将上述图像噪声在神经网络中进行卷积操作生成对应的噪声生成图像。
可选地,上述神经网络更新模块43包括:
损失函数单元,用于根据上述噪声生成图像与原始图像生成损失函数;
梯度更新单元,用于根据上述损失函数进行梯度更新;
参数调整单元,用于通过上述梯度更新调整上述神经网络的权重参数。
可选地,上述神经网络训练装置4还包括:
图片压缩模块,用于提取上述神经网络的权重参数,将上述权重参数作为特征图像;
将上述特征图像通过熵编码得到编码数据;
将上述编码数据通过熵解码生成重构权重参数;
根据上述重构权重参数更新上述神经网络;
将上述图像噪声输入上述重构权重参数更新后的神经网络中,生成重构图像。
本实施例中,通过图像噪声生成模块41生成噪声,根据卷积模块42生成噪声生成图像,神经网络更新模块43通过噪声生成图像来调整神经网络的权重参数直至神经网络的图像压缩效果达到预期指标为止,根据调整完权重参数的神经网络来进行图像压缩,提高了图像压缩效果,解决了图像压缩算法中解码过慢的问题。
实施例三
图5是本发明一实施例提供的神经网络训练终端设备的示意图。如图5所示,该实施例的神经网络训练终端设备5包括:处理器50、存储器51以及存储在所述存储器51中并可在所述处理器50上运行的计算机程序52,例如神经网络训练程序。所述处理器50执行所述计算机程序52时实现上述各个神经网络训练方法实施例中的步骤,例如图1所示的步骤101至104。或者,所述处理器50执行所述计算机程序52时实现上述各装置实施例中各模块的功能,例如图4所示模块41至44的功能。
示例性的,所述计算机程序52可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器51中,并由所述处理器50执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序52在所述神经网络训练终端设备5中的执行过程。例如,所述计算机程序52可以被分割成图像噪声生成模块、卷积模块、神经网络更新模块和循环模块,各模块具体功能如下:
图像噪声生成模块:用于生成图像噪声;
卷积模块:用于将图像噪声输入到神经网络生成对应的噪声生成图像;
神经网络更新模块:用于根据所述噪声生成图像和原始图像调整所述神经网络的权重参数,并根据所述调整后的权重参数更新步骤B所述的神经网络;
循环模块:用于重复执行步骤B到步骤C直至所述神经网络满足预设条件为止。
所述经网络训练终端设备5可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述经网络训练终端设备可包括,但不仅限于,处理器50、存储器51。本领域技术人员可以理解,图5仅仅是经网络训练终端设备5的示例,并不构成对经网络训练终端设备5的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述经网络训练终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器50可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器51可以是所述经网络训练终端设备5的内部存储单元,例如经网络训练终端设备5的硬盘或内存。所述存储器51也可以是所述经网络训练终端设备5的外部存储设备,例如所述经网络训练终端设备5上配备的插接式硬盘,智能存储卡(Smart MediaCard,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器51还可以既包括所述经网络训练终端设备5的内部存储单元也包括外部存储设备。所述存储器51用于存储所述计算机程序以及所述经网络训练终端设备所需的其他程序和数据。所述存储器51还可以用于暂时地存储已经输出或者将要输出的数据。
由上可见,本发明通过生成随机噪声,将随机噪声通过神经网络生成的噪声生成图像与原始图像进行计算来更新神经网络中的权重参数,并一直重复更新神经网络中的权重参数来使得神经网络达到最理想的状态。从而提高了神经网络对图像压缩的效果,提高了压缩算法解码的速度。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述***中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种神经网络训练方法,其特征在于,包括:
步骤A:生成图像噪声;
步骤B:将图像噪声输入到神经网络生成对应的噪声生成图像;
步骤C:根据所述噪声生成图像和原始图像调整所述神经网络的权重参数,并根据所述调整后的权重参数更新步骤B所述的神经网络;
步骤D:重复执行步骤B到步骤C直至所述神经网络满足预设条件为止。
2.如权利要求1所述的神经网络训练方法,其特征在于,所述将图像噪声输入到神经网络生成对应的噪声生成图像包括:
将所述图像噪声在神经网络中进行卷积操作生成对应的噪声生成图像。
3.如权利要求1所述的神经网络训练方法,其特征在于,所述根据所述噪声生成图像和原始图像调整所述神经网络的权重参数包括:
根据所述噪声生成图像与原始图像生成损失函数;
根据所述损失函数进行梯度更新;
通过所述梯度更新调整所述神经网络的权重参数。
4.如权利要求1所述的神经网络训练方法,其特征在于,所述重复执行步骤B到步骤C直至所述神经网络满足预设条件为止包括:
重复执行步骤B到步骤C直至所述神经网络生成图像的性能指标达到预设阈值为止
或
重复执行步骤B到步骤C的次数达到预设次数为止。
5.如权利要求1所述的神经网络训练方法,其特征在于,在步骤D后,还包括:
提取所述神经网络的权重参数,将所述权重参数作为特征图像;
将所述特征图像通过熵编码得到编码数据;
将所述编码数据通过熵解码生成重构权重参数;
根据所述重构权重参数初始化所述神经网络;
将所述图像噪声输入所述重构权重参数更新后的神经网络中,生成重构图像。
6.一种神经网络训练装置,其特征在于,包括:
图像噪声生成模块,用于生成图像噪声;
卷积模块,用于将图像噪声输入到神经网络生成对应的噪声生成图像;
神经网络更新模块,用于根据所述噪声生成图像和原始图像调整所述神经网络的权重参数,并根据所述调整后的权重参数更新步骤B所述的神经网络;
循环模块,用于重复执行步骤B到步骤C直至所述神经网络满足预设条件为止。
7.如权利要求6所述的神经网络训练装置,其特征在于,所述卷积模块包括:
卷积操作单元,用于将所述图像噪声在神经网络中进行卷积操作生成对应的噪声生成图像。
8.如权利要求6所述的神经网络训练装置,其特征在于,所述神经网络更新模块包括:
损失函数单元,用于根据所述噪声生成图像与原始图像生成损失函数;
梯度更新单元,用于根据所述损失函数进行梯度更新;
参数调整单元,用于通过所述梯度更新调整所述神经网络的权重参数。
9.一种神经网络训练终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910727890.9A CN110569961A (zh) | 2019-08-08 | 2019-08-08 | 一种神经网络训练方法、装置及终端设备 |
PCT/CN2019/114946 WO2021022685A1 (zh) | 2019-08-08 | 2019-11-01 | 一种神经网络训练方法、装置及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910727890.9A CN110569961A (zh) | 2019-08-08 | 2019-08-08 | 一种神经网络训练方法、装置及终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110569961A true CN110569961A (zh) | 2019-12-13 |
Family
ID=68774786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910727890.9A Pending CN110569961A (zh) | 2019-08-08 | 2019-08-08 | 一种神经网络训练方法、装置及终端设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110569961A (zh) |
WO (1) | WO2021022685A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111556316A (zh) * | 2020-04-08 | 2020-08-18 | 北京航空航天大学杭州创新研究院 | 一种基于深度神经网络加速的快速块分割编码方法和装置 |
CN111951155A (zh) * | 2020-08-14 | 2020-11-17 | 上海龙旗科技股份有限公司 | 一种图片效果处理方法及设备 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2698414C1 (ru) | 2018-09-21 | 2019-08-26 | Владимир Александрович Свириденко | Способ и устройство сжатия видеоинформации для передачи по каналам связи с меняющейся пропускной способностью и запоминания в системах хранения данных с использованием машинного обучения и нейросетей |
US11356305B2 (en) * | 2020-02-24 | 2022-06-07 | Qualcomm Incorporated | Method to convey the TX waveform distortion to the receiver |
CN113052301B (zh) * | 2021-03-29 | 2024-05-28 | 商汤集团有限公司 | 神经网络生成方法、装置、电子设备及存储介质 |
CN113570056A (zh) * | 2021-06-23 | 2021-10-29 | 上海交通大学 | 容错神经网络结构的优化方法、***、介质及电子设备 |
CN113657576A (zh) * | 2021-07-21 | 2021-11-16 | 浙江大华技术股份有限公司 | 卷积神经网络模型轻量化方法及设备、图像识别方法 |
US11711449B2 (en) | 2021-12-07 | 2023-07-25 | Capital One Services, Llc | Compressing websites for fast data transfers |
CN115761448B (zh) * | 2022-12-02 | 2024-03-01 | 美的集团(上海)有限公司 | 神经网络的训练方法、训练装置和可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108604369A (zh) * | 2016-07-27 | 2018-09-28 | 华为技术有限公司 | 一种去除图像噪声的方法、装置、设备及卷积神经网络 |
CN108985464A (zh) * | 2018-07-17 | 2018-12-11 | 重庆科技学院 | 基于信息最大化生成对抗网络的人脸连续特征生成方法 |
CN109872288A (zh) * | 2019-01-31 | 2019-06-11 | 深圳大学 | 用于图像去噪的网络训练方法、装置、终端及存储介质 |
CN109919864A (zh) * | 2019-02-20 | 2019-06-21 | 重庆邮电大学 | 一种基于稀疏去噪自编码网络的图像压缩感知方法 |
CN110062246A (zh) * | 2018-01-19 | 2019-07-26 | 杭州海康威视数字技术股份有限公司 | 对视频帧数据进行处理的方法和装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10726525B2 (en) * | 2017-09-26 | 2020-07-28 | Samsung Electronics Co., Ltd. | Image denoising neural network architecture and method of training the same |
CN108062780B (zh) * | 2017-12-29 | 2019-08-09 | 百度在线网络技术(北京)有限公司 | 图像压缩方法和装置 |
CN108090521B (zh) * | 2018-01-12 | 2022-04-08 | 广州视声智能科技股份有限公司 | 一种生成式对抗网络模型的图像融合方法和判别器 |
-
2019
- 2019-08-08 CN CN201910727890.9A patent/CN110569961A/zh active Pending
- 2019-11-01 WO PCT/CN2019/114946 patent/WO2021022685A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108604369A (zh) * | 2016-07-27 | 2018-09-28 | 华为技术有限公司 | 一种去除图像噪声的方法、装置、设备及卷积神经网络 |
CN110062246A (zh) * | 2018-01-19 | 2019-07-26 | 杭州海康威视数字技术股份有限公司 | 对视频帧数据进行处理的方法和装置 |
CN108985464A (zh) * | 2018-07-17 | 2018-12-11 | 重庆科技学院 | 基于信息最大化生成对抗网络的人脸连续特征生成方法 |
CN109872288A (zh) * | 2019-01-31 | 2019-06-11 | 深圳大学 | 用于图像去噪的网络训练方法、装置、终端及存储介质 |
CN109919864A (zh) * | 2019-02-20 | 2019-06-21 | 重庆邮电大学 | 一种基于稀疏去噪自编码网络的图像压缩感知方法 |
Non-Patent Citations (1)
Title |
---|
陈琦等: "基于自编码器的图像去噪设计与实现", 《新疆师范大学学报(自然科学版)》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111556316A (zh) * | 2020-04-08 | 2020-08-18 | 北京航空航天大学杭州创新研究院 | 一种基于深度神经网络加速的快速块分割编码方法和装置 |
CN111951155A (zh) * | 2020-08-14 | 2020-11-17 | 上海龙旗科技股份有限公司 | 一种图片效果处理方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2021022685A1 (zh) | 2021-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110569961A (zh) | 一种神经网络训练方法、装置及终端设备 | |
CN109671026B (zh) | 基于空洞卷积及自动编解码神经网络的灰度图像降噪方法 | |
CN109410123B (zh) | 基于深度学习的去除马赛克的方法、装置及电子设备 | |
US11430090B2 (en) | Method and apparatus for removing compressed Poisson noise of image based on deep neural network | |
CN110677651A (zh) | 一种视频压缩方法 | |
CN110047044B (zh) | 一种图像处理模型的构建方法、装置及终端设备 | |
CN110753225A (zh) | 一种视频压缩方法、装置及终端设备 | |
CN110830808A (zh) | 一种视频帧重构方法、装置及终端设备 | |
CN110838085B (zh) | 一种图像的超分辨率重建方法、装置及电子设备 | |
CN110769263A (zh) | 一种图像压缩方法、装置及终端设备 | |
CN111784699A (zh) | 一种对三维点云数据进行目标分割方法、装置及终端设备 | |
CN110650339A (zh) | 一种视频压缩方法、装置及终端设备 | |
CN113222856A (zh) | 一种逆半色调图像处理方法、终端设备及可读存储介质 | |
Chen et al. | Enhanced separable convolution network for lightweight jpeg compression artifacts reduction | |
DE102017117381A1 (de) | Beschleuniger für dünnbesetzte faltende neuronale Netze | |
Shin et al. | Expanded adaptive scaling normalization for end to end image compression | |
CN113744159A (zh) | 一种遥感图像去雾方法、装置及电子设备 | |
CN110677671A (zh) | 一种图像压缩方法、装置及终端设备 | |
CN111083482A (zh) | 一种视频压缩网络训练方法、装置及终端设备 | |
CN108717687B (zh) | 基于转换压缩的图像增强方法及终端设备 | |
CN110782415A (zh) | 一种图像补全方法、装置及终端设备 | |
Qi et al. | Subband adaptive image deblocking using wavelet based convolutional neural networks | |
CN110572652B (zh) | 一种静态图像的处理方法及装置 | |
CN114612316A (zh) | 一种核预测网络图像去雨方法和装置 | |
CN114170082A (zh) | 视频播放、图像处理和模型训练方法、装置以及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20191213 |