CN112330569A - 模型训练方法、文本去噪方法、装置、设备及存储介质 - Google Patents

模型训练方法、文本去噪方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN112330569A
CN112330569A CN202011360140.1A CN202011360140A CN112330569A CN 112330569 A CN112330569 A CN 112330569A CN 202011360140 A CN202011360140 A CN 202011360140A CN 112330569 A CN112330569 A CN 112330569A
Authority
CN
China
Prior art keywords
neural network
text
network model
image
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011360140.1A
Other languages
English (en)
Inventor
高凯珺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Eye Control Technology Co Ltd
Original Assignee
Shanghai Eye Control Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Eye Control Technology Co Ltd filed Critical Shanghai Eye Control Technology Co Ltd
Priority to CN202011360140.1A priority Critical patent/CN112330569A/zh
Publication of CN112330569A publication Critical patent/CN112330569A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种模型训练方法、文本去噪方法、装置、设备及存储介质。该方法包括:确定文本去噪神经网络模型中的当前目标训练层;将图像训练样本输入至文本去噪神经网络模型,并计算对应的第一损失函数,基于第一损失函数对文本去噪神经网络模型进行训练,以对当前目标训练层中的权重参数进行调整,直到文本去噪神经网络模型满足预设收敛条件;若当前目标训练层中未包括文本去噪神经网络模型中的所有神经网络层,返回执行确定文本去噪神经网络模型中的当前目标训练层的步骤。本发明实施例的技术方案,解决了文本去噪过程中图印等噪音难以完全去除,影响文本整体识别效果的问题,提高了文本去噪神经网络模型对文本识别的清晰度和准确度。

Description

模型训练方法、文本去噪方法、装置、设备及存储介质
技术领域
本发明实施例涉及计算机视觉技术领域,尤其涉及一种模型训练方法、文本去噪方法、装置、设备及存储介质。
背景技术
在各种文本识别场景中,经常会存在文字内容被遮挡或涂抹的情况,例如在对银行表单、财务税票等文本进行识别时,文本图像常被盖上公司公章、公司财务章以及个人名章等图印,导致关键字段无法识别。
传统的图印去除方法,常采用对图像的三通道即RGB三个颜色通道的变化进行统计,计算图印的颜色范围区间,并针对对应的颜色范围进行去除。然而该方法对图像的光照、颜色和深浅等干扰鲁棒性较差,且在对图印进行去除后会将图印下的字符一并去除,难以达到文本识别的效果。
现有技术中对图印进行去除的方法中也有基于深度学***均绝对误差或均方误差对样本图与模型生成图间的像素点距离进行计算,无法准确复现图像中的细节信息,导致生成的图像模糊不清;且该方法对于图像中图印的整体识别效果较差,导致图印无法完全去除,影响文本识别清晰度与准确度。
发明内容
本发明提供一种模型训练方法、文本去噪方法、装置、设备及存储介质,以通过新的训练方式对文本去噪神经网络模型进行训练,并通过训练好的文本去噪神经网络模型对待处理图像进行处理,以得到更清晰、准确的文本识别结果。
第一方面,本发明实施例提供了一种模型训练方法,该方法包括:
确定文本去噪神经网络模型中的当前目标训练层,其中,当前目标训练层中包括至少一个神经网络层;
将图像训练样本输入至文本去噪神经网络模型,并计算对应的第一损失函数,基于第一损失函数对文本去噪神经网络模型进行训练,以对当前目标训练层中的权重参数进行调整,直到文本去噪神经网络模型满足预设收敛条件;
若训练后的当前目标训练层中未包括文本去噪神经网络模型中的所有神经网络层,返回执行确定文本去噪神经网络模型中的当前目标训练层的步骤。
第二方面,本发明实施例还提供了一种文本去噪方法,该方法包括:
获取待去噪的文本图像;
将待去噪的文本图像输入至预设文本去噪神经网络模型中,其中,预设文本去噪神经网络模型采用本发明实施例提供的模型训练方法训练得到;
根据预设文本去噪神经网络模型的输出结果,确定去噪后的目标文本图像。
第三方面,本发明实施例还提供了一种模型训练装置,该模型训练装置包括:
训练层确定模块,用于确定文本去噪神经网络模型中的当前目标训练层,其中,当前目标训练层中包括至少一个神经网络层;
模型训练模块,用于将图像训练样本输入至文本去噪神经网络模型,并计算对应的第一损失函数,基于第一损失函数对文本去噪神经网络模型进行训练,以对当前目标训练层中的权重参数进行调整,直到文本去噪神经网络模型满足预设收敛条件;
返回确定模块,用于若训练后的当前目标训练层中未包括文本去噪神经网络模型中的所有神经网络层,返回执行确定文本去噪神经网络模型中的当前目标训练层的步骤。
第四方面,本发明实施例还提供了一种文本去噪装置,该文本去噪装置包括:
文本图像获取模块,用于获取待去噪的文本图像;
文本图像输入模块,用于将待去噪的文本图像输入至预设文本去噪神经网络模型中,其中,预设文本去噪神经网络模型采用本发明实施例提供的模型训练方法训练得到;
去噪文本确定模块,用于根据预设文本去噪神经网络模型的输出结果,确定去噪后的目标文本图像。
第五方面,本发明实施例还提供了一种计算机设备,包括存储装置、处理器及存储在存储装置上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现如本发明任意实施例提供的方法。
第六方面,本发明实施例还提供了一种包含计算机可执行指令的存储介质,计算机可执行指令在由计算机处理器执行时用于执行如本发明任意实施例提供的方法。
本发明实施例通过确定文本去噪神经网络模型中的当前目标训练层,其中,当前目标训练层中包括至少一个神经网络层;将图像训练样本输入至文本去噪神经网络模型,并计算对应的第一损失函数,基于第一损失函数对文本去噪神经网络模型进行训练,以对当前目标训练层中的权重参数进行调整,直到文本去噪神经网络模型满足预设收敛条件;若训练后的当前目标训练层中未包括文本去噪神经网络模型中的所有神经网络层,返回执行确定文本去噪神经网络模型中的当前目标训练层的步骤。通过采用上述技术方案,通过图像训练样本分别对文本去噪神经网络模型中的不同目标训练层执行训练,在每次训练中均利用得到的第一损失函数对目标训练层中的权重参数进行调整,使得文本去噪神经网络模型中针对浅层特征的神经网络层可被主要训练调整,进而使得训练得到的文本去噪神经网络模型的整体识别效果更好,解决了文本去噪过程中作为噪音的图印等难以完全去除,影响文本整体识别效果的问题,提高了训练好的文本去噪神经网络模型的文本识别结果的清晰度和准确度。
附图说明
图1是本发明实施例一中的一种模型训练方法的流程图;
图2是本发明实施例二中的一种模型训练方法的流程图;
图3是本发明实施例三中的一种文本去噪方法的流程图;
图4是本发明实施例四中的一种模型训练装置的结构示意图;
图5是本发明实施例五中的一种文本去噪装置的结构示意图;
图6是本发明实施例六中的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。此外,在不冲突的情况下,本发明中的实施例及实施例中的特征可以互相组合。
另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
实施例一
图1为本发明实施例一提供的一种模型训练方法的流程图,本实施例可适用于对用以进行文本图像识别和文本图像去噪的神经网络模型进行训练的情况,该方法可以由模型训练装置来执行,该模型训练装置可以由软件和/或硬件来实现,该模型训练装置可以配置在计算设备上,具体包括如下步骤:
S101、确定文本去噪神经网络模型中的当前目标训练层。
其中,当前目标训练层中包括文本去噪神经网络模型中的至少一个神经网络层。
在本实施例中,文本去噪神经网络模型可理解为一种用以针对输入的文本图像进行处理并生成去除噪声后的图像的神经网络模型。神经网络模型(Neural Networks,NN)可理解为一种由大量的、简单的处理单元(也可称为神经元)广泛地互相连接而形成的复杂网络***,其可反映人脑功能的许多基本特征,是一种高度复杂的非线性动力学习***,简而言之,神经网络模型可理解为一种以神经元为基础的数学模型。
一般的,神经网络模型由多个神经网络层构成,对于一个经典的神经网络其必然包括三个层次,即为输入层、隐藏层和输出层。示例性的,基于现有常用的卷积神经网络(Convolutional Neural Networks,CNN),其中常包括卷积层、全连接层和池化层等,上述各层均可称为神经网络模型中的神经网络层,且各类型的神经网络层均可为一个或多个。
在本实施例中,当前目标训练层可理解为根据预设规则确定的在本次针对文本去噪神经网络模型的训练中需要进行训练学习的神经网络层,也即在本次对文本去噪神经网络模型的训练中仅对确定出的当前目标训练层中的权重参数进行调整,而不对文本去噪神经网络模型中除当前目标训练层外的神经网络层中的权重参数进行调整,相当于对文本去噪神经网络模型中除当前目标训练层的神经网络层进行锁定。
具体的,根据文本去噪神经网络模型的训练情况,确定当前时刻文本去噪神经网络模型中需要进行训练的神经网络层,并将确定出的神经网络层确定为当前目标训练层。根据训练情况的不同,确定出的当前目标训练层可为文本去噪神经网络模型中的第一个神经网络层,也可为根据上一时刻的当前目标训练层确定的,在上一时刻的当前目标训练层上依次进行递加的新的神经网络层的组合,确定出的当前目标训练层可包括卷积层、全连接层等多种神经网络层类型,其中当前目标训练层的类型可以与文本去噪神经网络模型结构中各神经网络层的分布相关。
本发明实施例中,通过确定文本去噪神经网络模型中的当前目标训练层,明确了需要进行训练的神经网络层,避免了在进行神经网络模型训练时对其中所有神经网络层同时进行训练,而导致浅层特征和深层特征同时进行学习重点难以突出的问题,进而可通过当前目标训练层的确定,对文本去噪神经网络模型中的浅层特征进行多次训练,提高训练后模型对整体信息生成的准确性。
S102、将图像训练样本输入至文本去噪神经网络模型,并计算对应的第一损失函数,基于第一损失函数对文本去噪神经网络模型进行训练,以对当前目标训练层中的权重参数进行调整,直到文本去噪神经网络模型满足预设收敛条件。
在本实施例中,图像训练样本可理解为输入文本去噪神经网络模型中用以对其进行训练的,根据真实图像确定的训练对象的集合,可选的,由于本申请中所需训练的为神经网络模型对文本图像进行去噪的能力,此处输入的图像训练样本可为加噪后的真实图像的集合,进一步地,加噪可理解为在原始的真实图像中添加水印或***等对文本图像中文字进行遮盖或构成文字背景的内容。损失函数(Loss Function)可理解为用以度量深度学习过程中训练的模型与真实模型之间距离的函数,损失函数可被用于模型的参数估计(Parameteric Estimation)使训练的模型达到收敛状态,进而减小训练后模型预测值与真实值之间的误差。
具体的,将根据真实图像确定的图像训练样本输入文本去噪神经网络模型中,将图像训练样本中的特征与文本去噪神经网络模型生成的生成图像中的特征代入预设的损失函数中,对其特征距离进行计算得到对应的第一损失函数,利用得到的第一损失函数对文本去噪神经网络模型进行反向传播,使得当前目标训练层中的权重参数可根据第一损失函数进行调整,直到满足预设收敛条件时停止当前对文本去噪神经网络模型的训练。
可选的,预设收敛条件可包括计算得到的特征距离小于预设特征距离值、模型训练两次迭代之间的权重参数变化小于预设参数变化阈值、迭代超过设定的最大迭代次数以及训练样本全部训练完毕等,本发明实施例对此不进行限定。
S103、若训练后的当前目标训练层中未包括文本去噪神经网络模型中的所有神经网络层,返回执行确定文本去噪神经网络模型中的当前目标训练层的步骤。
具体的,若训练后的当前目标训练层中未包括文本去噪神经网络模型中的所有神经网络层,则可认为在当前次对文本去噪神经网络模型的训练过程中,未对文本去噪神经网络模型中的所有神经网络层进行训练,该文本去噪神经网络模型还未训练完成,故此时返回执行步骤S101重新进行当前目标训练层的确定,并再次对文本去噪神经网络模型进行训练,直到文本去噪神经网络模型中的所有神经网络层均进行训练后截止。
本实施例的技术方案,通过确定文本去噪神经网络模型中的当前目标训练层,其中,当前目标训练层中包括文本去噪神经网络模型中的至少一个神经网络层;将图像训练样本输入至文本去噪神经网络模型,并计算对应的第一损失函数,基于第一损失函数对文本去噪神经网络模型进行训练,以对当前目标训练层中的权重参数进行调整,直到文本去噪神经网络模型满足预设收敛条件;若当前目标训练层中未包括文本去噪神经网络模型中的所有神经网络层,返回执行确定文本去噪神经网络模型中的当前目标训练层的步骤。通过采用上述技术方案,通过同样的图像训练样本分别对文本去噪神经网络模型中的不同目标训练层执行训练,在每次训练中均利用得到的第一损失函数对目标训练层中的权重参数进行调整,使得文本去噪神经网络模型中针对浅层特征的神经网络层可被主要训练调整,进而使得训练得到的文本去噪神经网络模型的整体识别效果更好,解决了文本去噪过程中作为噪音的图印等难以完全去除,影响文本整体识别效果的问题,提高了训练好的文本去噪神经网络模型的文本识别结果的清晰度和准确度。
实施例二
图2是本发明实施例二提供的一种模型训练方法的流程图,本发明实施例的技术方案在上述各可选技术方案的基础上进一步优化,通过对具有同一属性特征的图像训练样本中的特征图像与经文本去噪神经网络模型生成图像加噪后的特征图像,求取其特征向量距离进而计算得到与该属性特征对应的第一损失函数,通过第一损失函数对文本去噪神经网络模型中的当前目标训练层进行训练,使得训练后的文本去噪神经网络模型对待处理图像进行处理时可得到整体性更强、真实程度更相近的识别结果。具体包括如下步骤:
S201、获取文本去噪神经网络模型的训练情况。
可选的,文本去噪神经网络模型可为生成式对抗网络(Generative AdversarialNetworks,GAN)模型,也可为其他深度学习模型,本发明实施例对此不进行限制。
S202、根据文本去噪神经网络模型的训练情况判断文本去噪神经网络模型是否为首次训练,若是,则执行步骤S203;若否,则执行步骤S204。
具体的,当文本去噪神经网络模型为首次训练时,可认为当前目标训练层为第一次确定,此时执行步骤S203;当文本去噪神经网络模型不是首次训练时,可认为当前目标训练层不是第一次确定,在上一训练周期中存在对应的当前目标训练层,此时执行步骤S204。
S203、将文本去噪神经网络模型中的第一个神经网络层确定为当前目标训练层,并执行步骤S205。
具体的,当确定当前目标训练层为首次确定,可认为文本去噪神经网络模型尚未进行训练,此时根据文本去噪神经网络模型对浅层特征多次训练的训练需求,将文本去噪神经网络模型中的第一个神经网络层确定为当前目标训练层,以将除第一个神经网络层外的其他神经网络层进行锁定,在本次训练中仅针对文本去噪神经网络模型中的第一个神经网络层进行训练。
S204、在上一当前目标训练层的基础上依次序增加一个文本去噪神经网络模型中的神经网络层,并将增加一个神经网络层后的上一当前目标训练层确定为新的当前目标训练层,并执行步骤S205。
具体的,当确定当前目标训练层不是首次确定时,可认为文本去噪神经网络模型已经进行训练但仍未对其中的神经网络层完全进行训练,此时依据文本去噪神经网络模型中各神经网络层的排布顺序,在上一训练周期的上一当前目标训练层的基础上依照排布顺序增加一个神经网络层,并将增加一个神经网络层后的上一当前目标训练层确定为新的当前目标训练层,以对文本去噪神经网络模型进行神经网络层逐次递增的训练。
在本发明实施例中,通过当前目标训练层的确定使得文本去噪神经网络模型中排于前部的神经网络层得到更多次数的训练,由于模型中排于前部的神经网络层主要用以学习浅部特征,而浅部特征主要对应输入图像中的整体信息,从而使得通过该方法训练的文本去噪神经网络模型针对待处理图像中的整体信息获取效果更强,得到的文本识别结果更清晰。
S205、将图像训练样本输入至文本去噪神经网络模型,得到文本去噪神经网络模型输出的生成图像。
具体的,将根据真实图像确定的图像训练样本输入至文本去噪神经网络模型中,文本去噪神经网络模型根据其中各神经网络层的权重参数及对应的属性参数输出生成图像,该生成图像可理解为与输入的图像训练样本相对应的,未添加噪声的图像,也即是希望生成的与真实图像相近的生成图像。
进一步地,输入文本去噪神经网络模型的图像训练样本可理解为对真实图像进行噪声添加后所生成的加噪图像的集合,本发明实施例还提供了一种图像训练样本的确定方法,具体包括如下步骤:
S2051、获取真实图像样本。
具体的,获取未进行加噪的文本图像,加噪可理解为在文本图像上添加***或水印等使其与文本图像文字产生交叠,影响文本图像文字显示清晰度及完整度的操作,真实图像样本可理解为原始的文本图像,也即文本去噪神经网络模型希望其输出所接近的图像。
S2052、根据预设噪声添加函数对真实图像样本进行噪声添加。
在本实施例中,预设噪声添加函数可理解为一种用以模拟真实环境下对文本图像进行***或水印添加的函数,其通过对输入的真是样本图像中预设位置像素点信息进行修改,使得真实图像样本中原有文本信息被遮蔽,即可实现对真实图像样本的噪声添加,也即输入文本去噪神经网络模型中的图像训练样本与真实图像样本间存在映射关系。
S2053、将添加噪声后的真实图像样本确定为图像训练样本。
S206、根据预设噪声添加函数对生成图像进行噪声添加。
具体的,根据与生成图像训练样本相同的预设噪声添加函数对通过文本去噪神经网络模型生成的生成图像进行噪声添加,使得添加噪声后的生成图像与输入文本去噪神经网络模型的图像训练样本状态类似,进而可通过比较加噪后生成图像与图像训练样本的相似度,确定生成图像与未加噪的图像训练样本间的相似度。由于二者添加噪声的方式相同,故当加噪后的生成图像与图像训练样本间的相似度高时,生成图像与原始真实图像间的相似度也高,进而可说明训练后的文本去噪神经网络模型在对待处理的图像进行处理后所生成的图像更贴近于没有噪声的真实图像。
S207、将添加噪声后的生成图像与图像训练样本进行比对,根据比对结果确定文本去噪神经网络模型对应的第一损失函数。
具体的,将添加噪声后的生成图像与对应的图像训练样本分别划分为多张特征图,每个特征图中可以仅包含该图像中的一种属性特征,确定出添加噪声后的生成图像与对应的图像训练样本中对应同一种属性特征的两张特征图间的特征距离,根据得到的特征距离综合确定比对结果,根据上述比对结果确定出文本去噪神经网络模型对应的第一损失函数。
其中,属性特征可理解为光照、颜色、深浅、图像中文本整体形状等用以表征图像的整体显示状态的特征。
进一步地,本发明实施例还提供了一种根据比对结果确定文本去噪神经网络模型对应的第一损失函数的方法,具体包括如下步骤:
S2071、确定与所述添加噪声后的生成图像的第一特征图像相对应的所述图像训练样本的第二特征图像;
其中,所述第一特征图像与所述第二特征图像具有相同的属性特征。
S2072、确定第一特征图像与第二特征图像间的特征向量距离。
S2073、根据特征向量距离确定文本去噪神经网络模型对应的第一损失函数。
在本实施例中,特征向量距离可理解为用以衡量第一特征图像与第二特征图像在视觉上的接近程度的参量。
具体的,将添加噪声后的生成图像中具有某一种属性特征的特整图像确定为第一特征图像,将输入文本去噪神经网络模型用以生成该添加噪声后的生成图像的图像训练样本中,具有同上述第一特征图像具备同样属性特征的特征图确定为第二特征图像。基于不同的属性特征的特性通过神经网络模型中的鉴别其确定第一特征图像与第二特征图像之间的特征向量距离,进而确定文本去噪神经网络模型在本次训练过程中对应的第一损失函数。
示例性的,在本发明实施例中提供了一种第一损失函数的确定方法,该方法通过如下表达式实现:
Figure BDA0002803747020000131
其中,y表示对真实图像加噪后生成的图像训练样本,m表示加噪后的生成图像,D表示生成式对抗网络中的鉴别器,D(y,i)表示y在鉴别器中的第i个特征图,也即图像训练样本的第二特征图像,D(m,i)表示m在鉴别器中的第i个特征图,也即加噪后的生成图像对应的第一特征图像,L(y,m)表示根据加噪后的生成图像以及图像训练样本的各属性特征确定的第一损失函数。
在上述公式中,y可用如下公式表示:
y=Φ(x)
其中,x表示现实中的真实图像样本,Φ表示用以加盖***等噪声的加噪函数,y表示对真实图像加噪后生成的图像训练样本。
在上述公式中,m可用如下公式表示:
m=Φ(G(z;θ))
其中,G表示生成式对抗网络中的生成器,θ表示生成器中的参数,z表示先验特征向量。
S208、基于第一损失函数对文本去噪神经网络模型进行训练,以对当前目标训练层中的权重参数进行调整,直到文本去噪神经网络模型满足预设收敛条件。
S209、判断训练后的当前目标训练层中是否包括文本去噪神经网络模型中的所有神经网络层,若是,则执行步骤S210;若否,则执行步骤S201。
具体的,根据当前目标训练层中的神经网络层层数确定当前目标训练层中是否已经包括文本去噪神经网络模型中的所有神经网络层,也即是否在本次训练中对文本去噪神经网络模型进行完整的训练,若是,则认为该文本去噪神经网络模型已训练完成,进而执行步骤S210;若否,则认为该文本去噪神经网络模型尚未训练完成,需重新对当前目标训练层进行确定,进而返回执行步骤S201。
S210、将文本去噪神经网络模型确定为训练好的文本去噪神经网络模型。
示例性的,假设待训练的文本去噪神经网络模型中具有5个卷积层,则在训练过程中首先判断当前目标训练层的确定次数,也即判断文本去噪神经网络模型是否是第一次进行训练,当确定其是第一次进行训练时,将当前目标训练层确定为上述5个卷积层中的第1层,在当次训练中固定第2-5层的参数,仅通过输入的图像训练样本对第1层的参数进行学习。进一步地,在第二次进行训练时,将当前目标训练层确定为上述5个卷积层中的第1-2层,在当次训练中固定第3-5层的参数,仅通过输入的图像训练样本对第1-2层的参数进行学习,以此类推,直至5层参数在一次训练中全部进行学习,则认为在该次学习后文本去噪神经网络模型已被训练好。
本实施例的技术方案,通过对真实图像添加噪声得到输入文本去噪神经网络模型的图像训练样本,根据文本去噪神经网络模型的训练情况确定当前目标训练层,根据具有同一属性特征的图像训练样本中的特征图像与经文本去噪神经网络模型生成图像加噪后的特征图像确定其间的特征向量距离,进而通过特征向量距离确定用以对模型进行训练的第一损失函数,利用当次确定的第一损失函数经反向传播对文本去噪神经网络模型中的当前目标训练层进行训练,直到当前目标训练层中包括文本去噪神经网络模型中的所有神经网络层时确定模型训练完成,使得训练完成的文本去噪神经网络模型在对待处理图像进行处理时可得到整体性更强、清晰度更高、对真实图像还原程度更好的识别结果。
实施例三
图3为本发明实施例三提供的一种文本去噪方法的流程图,该方法可以由文本去噪装置执行,其中该文本去噪装置可以由软件和/或硬件来实现,该文本去噪装置可以配置在计算设备上,具体包括如下步骤:
S301、获取待去噪的文本图像。
示例性的,待去噪的文本图像可以与本发明实施例中的图像训练样本的形式一致。示例性的,待去噪的文本图像可为通过扫描获得的加盖***的合同图像等。
S302、将待去噪的文本图像输入至预设文本去噪神经网络模型中。
其中,所述预设文本去噪神经网络模型采用本发明实施例提供的一种模型训练方法训练得到。
S303、根据预设文本去噪神经网络模型的输出结果,确定去噪后的目标文本图像。
示例性的,将待去噪的文本图像输入预设文本去噪神经网络模型后,预设文本去噪神经网络模型可根据其内部训练好的参数就输入的待去噪的文本图像进行图像生成,生成的图像即为去噪后的目标文本图像。
本发明实施例提供的文本去噪方法,由于采用了本发明实施例提供的模型训练方法训练得到的文本去噪神经网络模型,再基于该模型进行文本去噪,能够对输入的待去噪文本图像中的整体特征起到较好的识别效果,提高了生成的去噪后的目标文本图像的清晰度和准确度,以及其与真实图像的相似度。
实施例四
图4为本发明实施例四提供的一种模型训练装置的结构示意图,该模型训练装置包括:训练层确定模块41,模型训练模块42和返回确定模块43。
其中,训练层确定模块41,用于确定文本去噪神经网络模型中的当前目标训练层,其中,当前目标训练层中包括至少一个神经网络层;模型训练模块42,用于将图像训练样本输入至文本去噪神经网络模型,并计算对应的第一损失函数,基于第一损失函数对文本去噪神经网络模型进行训练,以对当前目标训练层中的权重参数进行调整,直到文本去噪神经网络模型满足预设收敛条件;返回确定模块43,用于若训练后的当前目标训练层中未包括文本去噪神经网络模型中的所有神经网络层,返回执行确定文本去噪神经网络模型中的当前目标训练层的步骤。
本实施例的技术方案,解决了文本去噪过程中作为噪音的图印等难以完全去除,影响文本整体识别效果的问题,提高了训练好的文本去噪神经网络模型的文本识别结果的清晰度和准确度。
可选的,模型训练装置还包括:
训练样本确定模块,用于获取真实图像样本;根据预设噪声添加函数对真实图像样本进行噪声添加;将添加噪声后的真实图像样本确定为图像训练样本。
可选的,训练层确定模块41,具体用于:若文本去噪神经网络模型为首次训练,将所述文本去噪神经网络模型中的第一个神经网络层确定为所述当前目标训练层;若文本去噪神经网络模型不是首次训练,则在上一当前目标训练层的基础上依次序增加一个所述文本去噪神经网络模型中的神经网络层,并将增加一个神经网络层后的上一当前目标训练层确定为新的当前目标训练层。
可选的,模型训练模块42,具体用于:将图像训练样本输入至文本去噪神经网络模型,得到文本去噪神经网络模型输出的生成图像;根据预设噪声添加函数对生成图像进行噪声添加;将添加噪声后的生成图像与图像训练样本进行比对,根据比对结果确定文本去噪神经网络模型对应的第一损失函数;基于第一损失函数对文本去噪神经网络模型进行训练,以对当前目标训练层中的权重参数进行调整,直到文本去噪神经网络模型满足预设收敛条件。
进一步地,将添加噪声后的生成图像与图像训练样本进行比对,根据比对结果确定文本去噪神经网络模型对应的第一损失函数,包括:确定与所述添加噪声后的生成图像的第一特征图像相对应的所述图像训练样本的第二特征图像,其中,所述第一特征图像与所述第二特征图像具有相同的属性特征;确定第一特征图像与第二特征图像间的特征向量距离;根据特征向量距离确定文本去噪神经网络模型对应的第一损失函数。
进一步地,若当前目标训练层中已包括文本去噪神经网络模型中的所有神经网络层,则将文本去噪神经网络模型确定为训练好的文本去噪神经网络模型。
本发明实施例提供的模型训练装置可执行本发明任意实施例所提供的模型训练方法,具备执行方法相应的功能模块和有益效果。
实施例五
图5是本发明实施例五提供的一种文本去噪装置的结构示意图,该文本去噪装置可由软件和/或硬件实现,一般可集成在计算机设备中,可通过执行文本去噪方法来进行文本去噪。如图5所示,该装置包括:文本图像获取模块51,文本图像输入模块52和去噪文本确定模块53。
其中,文本图像获取模块51,用于获取待去噪的文本图像;文本图像输入模块52,用于将待去噪的文本图像输入至预设文本去噪神经网络模型中,其中,预设文本去噪神经网络模型采用本发明实施例提供的模型训练方法训练得到;去噪文本确定模块53,用于根据预设文本去噪神经网络模型的输出结果,确定去噪后的目标文本图像。
本发明实施例提供的文本去噪装置,由于采用了本发明实施例提供的模型训练方法训练得到的文本去噪神经网络模型,再基于该模型进行文本去噪,能够对输入的待去噪文本图像中的整体特征起到较好的识别效果,提高了生成的去噪后的目标文本图像的清晰度和准确度,以及其与真实图像的相似度。
实施例六
图6为本发明实施例六提供的一种计算机设备的结构示意图,该计算机设备中可集成本发明实施例提供的模型训练装置和/或文本去噪装置。如图6所示,计算机设备600包括存储装置601、处理器602及存储在存储装置601上并可在处理器602上运行的计算机程序,所述处理器602执行所述计算机程序时实现本发明实施例提供的模型训练方法和/或文本去噪方法。
存储装置601作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的模型训练方法和/或文本去噪方法对应的程序指令/模块(例如,训练层确定模块41,模型训练模块42和返回确定模块43,或,文本图像获取模块51,文本图像输入模块52和去噪文本确定模块53)。处理器602通过运行存储在存储装置601中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的模型训练方法和/或文本去噪方法。
存储装置601可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储装置601可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储装置601可进一步包括相对于处理器602远程设置的存储器,这些远程存储器可以通过网络连接至识别。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
实施例七
本发明实施例五还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行本发明实施例提供的模型训练方法和/或文本去噪方法。
其中,模型训练方法包括:
确定文本去噪神经网络模型中的当前目标训练层,其中,当前目标训练层中包括至少一个神经网络层;
将图像训练样本输入至文本去噪神经网络模型,并计算对应的第一损失函数,基于第一损失函数对文本去噪神经网络模型进行训练,以对当前目标训练层中的权重参数进行调整,直到文本去噪神经网络模型满足预设收敛条件;
若训练后的当前目标训练层中未包括文本去噪神经网络模型中的所有神经网络层,返回执行确定文本去噪神经网络模型中的当前目标训练层的步骤。
其中,文本去噪方法,包括:
获取待去噪的文本图像;
将待去噪的文本图像输入至预设文本去噪神经网络模型中,其中,预设文本去噪神经网络模型采用本发明实施例提供的模型训练方法训练得到;
根据预设文本去噪神经网络模型的输出结果,确定去噪后的目标文本图像。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的模型训练方法和/或文本去噪方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述搜索装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (10)

1.一种模型训练方法,其特征在于,包括:
确定文本去噪神经网络模型中的当前目标训练层,其中,所述当前目标训练层中包括至少一个神经网络层;
将图像训练样本输入至所述文本去噪神经网络模型,并计算对应的第一损失函数,基于所述第一损失函数对所述文本去噪神经网络模型进行训练,以对所述当前目标训练层中的权重参数进行调整,直到所述文本去噪神经网络模型满足预设收敛条件;
若训练后的当前目标训练层中未包括所述文本去噪神经网络模型中的所有神经网络层,返回执行所述确定文本去噪神经网络模型中的当前目标训练层的步骤。
2.根据权利要求1所述的方法,其特征在于,所述确定文本去噪神经网络模型中的当前目标训练层,包括:
若文本去噪神经网络模型为首次训练,将所述文本去噪神经网络模型中的第一个神经网络层确定为所述当前目标训练层;
若文本去噪神经网络模型不是首次训练,则在上一当前目标训练层的基础上依次序增加一个所述文本去噪神经网络模型中的神经网络层,并将增加一个神经网络层后的上一当前目标训练层确定为新的当前目标训练层。
3.根据权利要求1所述的方法,其特征在于,所述图像训练样本的确定方法,包括:
获取真实图像样本;
根据预设噪声添加函数对所述真实图像样本进行噪声添加;
将添加噪声后的真实图像样本确定为图像训练样本。
4.根据权利要求1所述的方法,其特征在于,所述将图像训练样本输入至所述文本去噪神经网络模型,并计算对应的第一损失函数,包括:
将图像训练样本输入至所述文本去噪神经网络模型,得到所述文本去噪神经网络模型输出的生成图像;
根据预设噪声添加函数对所述生成图像进行噪声添加;
将添加噪声后的生成图像与所述图像训练样本进行比对,根据比对结果确定所述文本去噪神经网络模型对应的第一损失函数。
5.根据权利要求4所述的方法,其特征在于,所述将添加噪声后的生成图像与所述图像训练样本进行比对,根据比对结果确定所述文本去噪神经网络模型对应的第一损失函数,包括:
确定与所述添加噪声后的生成图像的第一特征图像相对应的所述图像训练样本的第二特征图像,其中,所述第一特征图像与所述第二特征图像具有相同的属性特征;
确定所述第一特征图像与所述第二特征图像间的特征向量距离;
根据所述特征向量距离确定所述文本去噪神经网络模型对应的第一损失函数。
6.一种文本去噪方法,其特征在于,包括:
获取待去噪的文本图像;
将所述待去噪的文本图像输入至预设文本去噪神经网络模型中,其中,所述预设文本去噪神经网络模型采用权利要求1-5任一项所述的方法训练得到;
根据所述预设文本去噪神经网络模型的输出结果,确定去噪后的目标文本图像。
7.一种模型训练装置,其特征在于,包括:
训练层确定模块,用于确定文本去噪神经网络模型中的当前目标训练层,其中,所述当前目标训练层中包括至少一个神经网络层;
模型训练模块,用于将图像训练样本输入至所述文本去噪神经网络模型,并计算对应的第一损失函数,基于所述第一损失函数对所述文本去噪神经网络模型进行训练,以对所述当前目标训练层中的权重参数进行调整,直到所述文本去噪神经网络模型满足预设收敛条件;
返回确定模块,用于若训练后的当前目标训练层中未包括所述文本去噪神经网络模型中的所有神经网络层,返回执行所述确定文本去噪神经网络模型中的当前目标训练层的步骤。
8.一种文本去噪装置,其特征在于,包括:
文本图像获取模块,用于获取待去噪的文本图像;
文本图像输入模块,用于将所述待去噪的文本图像输入至预设文本去噪神经网络模型中,其中,所述预设文本去噪神经网络模型采用权利要求1-5任一项所述的方法训练得到;
去噪文本确定模块,用于根据所述预设文本去噪神经网络模型的输出结果,确定去噪后的目标文本图像。
9.一种计算机设备,包括存储装置、处理器及存储在存储装置上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-6任一项所述的方法。
10.一种包含计算机可执行指令的存储介质,其特征在于,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-6任一项所述的方法。
CN202011360140.1A 2020-11-27 2020-11-27 模型训练方法、文本去噪方法、装置、设备及存储介质 Pending CN112330569A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011360140.1A CN112330569A (zh) 2020-11-27 2020-11-27 模型训练方法、文本去噪方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011360140.1A CN112330569A (zh) 2020-11-27 2020-11-27 模型训练方法、文本去噪方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN112330569A true CN112330569A (zh) 2021-02-05

Family

ID=74309280

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011360140.1A Pending CN112330569A (zh) 2020-11-27 2020-11-27 模型训练方法、文本去噪方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN112330569A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112801085A (zh) * 2021-02-09 2021-05-14 沈阳麟龙科技股份有限公司 一种图像中文字的识别方法、装置、介质及电子设备
CN113362259A (zh) * 2021-07-13 2021-09-07 商汤集团有限公司 图像降噪处理方法、装置、电子设备及存储介质
CN113822320A (zh) * 2021-07-12 2021-12-21 腾讯科技(深圳)有限公司 生成模型训练方法和装置、样本生成方法和计算设备
WO2023092795A1 (zh) * 2021-11-25 2023-06-01 上海帜讯信息技术股份有限公司 噪音数据识别方法、装置、终端及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108876737A (zh) * 2018-06-06 2018-11-23 武汉大学 一种联合残差学习和结构相似度的图像去噪方法
CN109166102A (zh) * 2018-07-24 2019-01-08 中国海洋大学 一种基于判别区域候选对抗网络的图像转图像翻译方法
CN109344884A (zh) * 2018-09-14 2019-02-15 腾讯科技(深圳)有限公司 媒体信息分类方法、训练图片分类模型的方法及装置
US20190325276A1 (en) * 2018-04-23 2019-10-24 International Business Machines Corporation Stacked neural network framework in the internet of things
CN111046932A (zh) * 2019-12-03 2020-04-21 内蒙古拜欧牧业科技有限公司 模型训练方法、肉类鉴别方法、装置、终端和存储介质
CN111353542A (zh) * 2020-03-03 2020-06-30 腾讯科技(深圳)有限公司 图像分类模型的训练方法、装置、计算机设备和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190325276A1 (en) * 2018-04-23 2019-10-24 International Business Machines Corporation Stacked neural network framework in the internet of things
CN108876737A (zh) * 2018-06-06 2018-11-23 武汉大学 一种联合残差学习和结构相似度的图像去噪方法
CN109166102A (zh) * 2018-07-24 2019-01-08 中国海洋大学 一种基于判别区域候选对抗网络的图像转图像翻译方法
CN109344884A (zh) * 2018-09-14 2019-02-15 腾讯科技(深圳)有限公司 媒体信息分类方法、训练图片分类模型的方法及装置
CN111046932A (zh) * 2019-12-03 2020-04-21 内蒙古拜欧牧业科技有限公司 模型训练方法、肉类鉴别方法、装置、终端和存储介质
CN111353542A (zh) * 2020-03-03 2020-06-30 腾讯科技(深圳)有限公司 图像分类模型的训练方法、装置、计算机设备和存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
江户川柯壮: "深度学习图像去噪发展概述", pages 1 - 2, Retrieved from the Internet <URL:https://blog.csdn.net/edogawachia/article/details/78643190#:~:text=%E8%> *
萌面女XIA: "逐层贪婪训练法", pages 1, Retrieved from the Internet <URL:https://blog.csdn.net/dcxhun3/article/details/48131745#:~:text=%E9%> *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112801085A (zh) * 2021-02-09 2021-05-14 沈阳麟龙科技股份有限公司 一种图像中文字的识别方法、装置、介质及电子设备
CN113822320A (zh) * 2021-07-12 2021-12-21 腾讯科技(深圳)有限公司 生成模型训练方法和装置、样本生成方法和计算设备
CN113822320B (zh) * 2021-07-12 2024-05-14 腾讯科技(深圳)有限公司 生成模型训练方法和装置、样本生成方法和计算设备
CN113362259A (zh) * 2021-07-13 2021-09-07 商汤集团有限公司 图像降噪处理方法、装置、电子设备及存储介质
CN113362259B (zh) * 2021-07-13 2024-01-09 商汤集团有限公司 图像降噪处理方法、装置、电子设备及存储介质
WO2023092795A1 (zh) * 2021-11-25 2023-06-01 上海帜讯信息技术股份有限公司 噪音数据识别方法、装置、终端及存储介质

Similar Documents

Publication Publication Date Title
CN112330569A (zh) 模型训练方法、文本去噪方法、装置、设备及存储介质
CN104834922B (zh) 基于混合神经网络的手势识别方法
US20210042929A1 (en) Three-dimensional object detection method and system based on weighted channel features of a point cloud
KR101871098B1 (ko) 이미지 처리 방법 및 장치
WO2023015743A1 (zh) 病灶检测模型的训练方法及识别图像中的病灶的方法
CN110222831A (zh) 深度学习模型的鲁棒性评估方法、装置及存储介质
US11080833B2 (en) Image manipulation using deep learning techniques in a patch matching operation
CN109829353B (zh) 一种基于空间约束的人脸图像风格化方法
CN106920220A (zh) 基于暗原色和交替方向乘子法优化的湍流图像盲复原方法
CN111553462A (zh) 一种类激活映射方法
CN113469092B (zh) 字符识别模型生成方法、装置、计算机设备和存储介质
CN110838122A (zh) 点云的分割方法、装置及计算机存储介质
CN108305268A (zh) 一种图像分割方法及装置
CN114511473A (zh) 一种基于无监督自适应学习的高光谱遥感影像去噪方法
CN111260655A (zh) 基于深度神经网络模型的图像生成方法与装置
CN110969100A (zh) 一种人体关键点识别方法、装置及电子设备
CN112767478A (zh) 一种基于表观指导的六自由度位姿估计方法
CN116468995A (zh) 一种联合slic超像素和图注意力网络的声呐图像分类方法
CN115797735A (zh) 目标检测方法、装置、设备和存储介质
US20220067882A1 (en) Image processing device, computer readable recording medium, and method of processing image
CN111914809B (zh) 目标对象定位方法、图像处理方法、装置和计算机设备
CN111723688A (zh) 人体动作识别结果的评价方法、装置和电子设备
CN116703996A (zh) 基于实例级自适应深度估计的单目三维目标检测算法
Guan et al. DiffWater: Underwater image enhancement based on conditional denoising diffusion probabilistic model
CN113781375B (zh) 一种基于多曝光融合的车载视觉增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination