CN110942067A - 文本识别方法、装置、计算机设备和存储介质 - Google Patents
文本识别方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN110942067A CN110942067A CN201911201169.2A CN201911201169A CN110942067A CN 110942067 A CN110942067 A CN 110942067A CN 201911201169 A CN201911201169 A CN 201911201169A CN 110942067 A CN110942067 A CN 110942067A
- Authority
- CN
- China
- Prior art keywords
- text line
- text
- picture
- standard format
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000012549 training Methods 0.000 claims abstract description 131
- 238000010606 normalization Methods 0.000 claims abstract description 74
- 238000013528 artificial neural network Methods 0.000 claims abstract description 34
- 238000013135 deep learning Methods 0.000 claims abstract description 32
- 238000007781 pre-processing Methods 0.000 claims abstract description 15
- 230000006870 function Effects 0.000 claims description 35
- 238000004590 computer program Methods 0.000 claims description 24
- 230000015654 memory Effects 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 18
- 238000011478 gradient descent method Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 9
- 238000012015 optical character recognition Methods 0.000 description 8
- 230000002457 bidirectional effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Character Input (AREA)
- Character Discrimination (AREA)
Abstract
本申请涉及一种文本识别方法、装置、计算机设备和存储介质,其中方法通过获取待识别的文本图像,以对待识别的文本图像进行文本定位,得到对应的文本行区域,进而根据文本行区域中的字符数以及预设的尺寸规则,对文本行区域进行预处理,通过文本归一化模型检测预处理后的文本行区域,以得到与文本行区域对应的标准格式的文本行图片,使得进行文本识别的输入具有统一的样式,从而可以直接采用第一深度学习神经网络识别标准格式的文本行图片,得到目标字符串。由于本申请在进行文本识别时只需要关注归一化后的标准格式的文本行图片,其特征更加规律单一,因此,网络需要学习的特征也更少,这将使得网络训练更容易,性能更好,且识别精度更高。
Description
技术领域
本申请涉及图像识别技术领域,特别是涉及一种文本识别方法、装置、计算机设备和存储介质。
背景技术
随着人工智能技术的发展,越来越多的繁琐工作被机器所取代。OCR(OpticalCharacter Recognition,光学字符识别)任务作为计算机视觉中的一个重要分支,在票据识别、文本自动录入等众多领域应用广泛。但是,通常这类任务的原始文本可能出现于各种复杂背景中,如可能以各种字体、大小等不同样式出现。因此,需要利用计算机视觉相关方法,在从图片中定位到的文本串中识别出对应的字符,以用于下游任务。
而深度学习作为人工智能领域的重要分支,神经网络在各个领域已经取得了巨大的成功。目前,神经网络主要有如下两种:卷积神经网络和循环神经网络,而前者主要用于结构化数据(如图像等),后者主要用序列数据(如语音等)。而将基于深度学习的卷积神经网络应用于OCR任务是目前常用的做法,一般基于BLSTM(Bidirectional Long Short-TermMemory,双向长短期记忆网络)+CTC(Connectionist temporal classification,时序数据分类)的结构实现,现有的模型结构无需考虑文字的对齐问题,虽然能够解决不定长文本的识别,但通常实际输入的文本图片样式复杂,特征多变,从而导致BLSTM网络训练困难,进而影响识别精度。
发明内容
基于此,有必要针对上述传统的网络结构不适用于识别复杂样式的文本图片的问题,提供一种能够识别复杂样式的文本图片的文本识别方法、装置、计算机设备和存储介质。
为了实现上述目的,一方面,本申请实施例提供了一种文本识别方法,所述方法包括:
获取待识别的文本图像,对待识别的文本图像进行文本定位,得到对应的文本行区域,其中,文本行区域中包括若干个字符;
识别文本行区域中的字符数,根据文本行区域中的字符数以及预设的尺寸规则对文本行区域进行预处理;
通过文本归一化模型检测预处理后的文本行区域,得到与文本行区域对应的标准格式的文本行图片,其中,标准格式的文本行图片中的字符数与文本行区域中的字符数相同;
采用第一深度学习神经网络识别标准格式的文本行图片,得到目标字符串。
在其中一个实施例中,文本归一化模型的生成方法包括:获取若干个文本行样本图片,其中,文本行样本图片中包括样本字符串;对文本行样本图片进行归一化处理,得到与文本行样本图片对应的标准格式的文本行图片;根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集;采用训练数据集,利用均方损失函数训练第二深度学习神经网络,直到均方损失函数达到最小值时,得到文本归一化模型。
在其中一个实施例中,对文本行样本图片进行归一化处理,得到与文本行样本图片对应的标准格式的文本行图片,包括:识别文本行样本图片中样本字符串对应的字符串特征;根据字符串特征对文本行样本图片进行整体风格、尺寸定义、字体类型、字符大小以及字符位置的归一化处理,得到归一化后的标准格式的文本行图片。
在其中一个实施例中,根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集,包括:根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成若干个训练样本对,其中,训练样本对包括文本行样本图片和对应的标准格式的文本行图片;对训练样本对中的文本行样本图片的尺寸进行调整,以得到尺寸调整后的训练样本对;将尺寸调整后的若干个训练样本对作为训练数据集。
在其中一个实施例中,对训练样本对中的文本行样本图片的尺寸进行调整,包括:将训练样本对中的文本行样本图片的尺寸调整为与对应的标准格式的文本行图片相同的尺寸。
在其中一个实施例中,第二深度学习神经网络采用去除了亚像素卷积层的超分辨率残差网络;其中,采用训练数据集,利用均方损失函数训练第二深度学习神经网络,直到均方损失函数达到最小值时,得到文本归一化模型,包括:将训练数据集输入去除了亚像素卷积层的超分辨率残差网络进行前向传播;采用均方损失函数计算网络的输出与训练数据集中对应标准格式的文本行图片的像素级误差,根据误差确定峰值信噪比;通过梯度下降法对均方损失函数进行优化,直到误差达到最小值且所述峰值信噪比达到最大值时,保存模型参数,得到文本归一化模型。
在其中一个实施例中,第一深度学习神经网络采用双向长短期记忆分类网络。
另一方面,本申请实施例提供了一种文本识别装置,所述装置包括:
文本定位模块,用于获取待识别的文本图像,对待识别的文本图像进行文本定位,得到对应的文本行区域,其中,文本行区域中包括若干个字符;
预处理模块,用于识别文本行区域中的字符数,根据文本行区域中的字符数以及预设的尺寸规则对文本行区域进行预处理;
归一化模块,用于通过文本归一化模型检测预处理后的文本行区域,得到与文本行区域对应的标准格式的文本行图片,其中,标准格式的文本行图片中的字符数与文本行区域中的字符数相同;
字符文本识别模块,用于采用第一深度学习神经网络识别标准格式的文本行图片,得到目标字符串。
又一方面,本申请实施例提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现如上所述方法的步骤。
再一方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述方法的步骤。
上述文本识别方法、装置、计算机设备和存储介质,通过获取待识别的文本图像,以对待识别的文本图像进行文本定位,得到对应的文本行区域,进而根据文本行区域中的字符数以及预设的尺寸规则,对文本行区域进行预处理,通过文本归一化模型检测预处理后的文本行区域,以得到与文本行区域对应的标准格式的文本行图片,使得进行文本识别的输入具有统一的样式,从而可以直接采用第一深度学习神经网络识别标准格式的文本行图片,得到目标字符串。由于本申请在进行文本识别时只需要关注归一化后的标准格式的文本行图片,其特征更加规律单一,因此,网络需要学习的特征也更少,这将使得网络训练更容易,性能更好,且识别精度更高。
附图说明
图1为一个实施例中文本识别方法的应用环境图;
图2为一个实施例中文本识别方法的流程示意图;
图3为一个实施例中文本归一化模型的生成方法的步骤的流程示意图;
图4为一个实施例中进行归一化处理的步骤的流程示意图;
图5为一个实施例中归一化处理结果的示意图;
图6为一个实施例中生成训练数据集的步骤的流程示意图;
图7为一个实施例中模型训练的步骤的流程示意图;
图8为一个实施例中文本识别装置的结构框图;
图9为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
由于传统的OCR任务通常需要识别各种复杂背景下以不同字体、大小或不同样式出现的字符文本,而传统的基于BLSTM+CTC的网络结构复杂,其通常通过卷积层进行特征提取,得到输入的特征图;然后以特征图在宽度位置的序列视为时序,通过BLSTM网络,提取字符信息;最后通过全连接层,以及CTC损失函数,获取每个位置上是背景还是某一字符的概率。其在面对上述复杂背景下的OCR任务时,导致对BLSTM网络训练困难,进而会影响识别精度。
基于此,本申请提供了一种文本识别方法,其基于文本归一化的思路训练模型,以得到结构简单的文本归一化模型,并利用该文本归一化模型对待识别的文本图像进行归一化处理,进而在执行OCR任务时只需要关注归一化后的标准格式的文本行图片,由于其特征更加规律单一,因此,在执行OCR任务时需要学习的特征也更少,这将使得OCR任务更简单,识别精度更高。
本申请提供的文本识别方法,可以应用于如图1所示的应用环境中。其中,终端102与服务器104通过网络进行通信,在本实施例中,终端102可以是各种具有图像采集功能的设备,如可以但不限于各种智能手机、平板电脑、相机和便携式图像采集设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。具体的,终端102用于采集待识别的文本图像,并将采集的待识别的文本图像通过网络发送至服务器104,当然待识别的文本图像也可以预先存储在服务器104中。服务器104则获取待识别的文本图像,以对待识别的文本图像进行文本定位,得到对应的文本行区域,进而根据文本行区域中的字符数以及预设的尺寸规则,对文本行区域进行预处理,通过文本归一化模型检测预处理后的文本行区域,以得到与文本行区域对应的标准格式的文本行图片,使得进行文本识别的输入具有统一的样式,从而可以直接采用第一深度学习神经网络识别标准格式的文本行图片,以得到目标字符串,不仅极大的简化了识别任务,而且提高了识别精度。
在一个实施例中,如图2所示,提供了一种文本识别方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
步骤202,获取待识别的文本图像,对待识别的文本图像进行文本定位,得到对应的文本行区域。
其中,待识别的文本图像可以是需要进行文本识别的具有任意复杂背景、且包含若干个字符的图片。文本行区域则是对待识别的文本图像进行文本定位后得到的文本区域,由于该文本区域中通常包含若干个字符,因此,在本实施例中定义该文本区域为文本行区域。在本实施例中,为了简化OCR的识别任务,首先需要对待识别的文本图像进行文本定位,从而得到待识别文本图像中对应的文本行区域。
步骤204,识别文本行区域中的字符数,根据文本行区域中的字符数以及预设的尺寸规则对文本行区域进行预处理。
其中,预设的尺寸规则是指预设的文本行区域的高度及宽度规则,在本实施例中,其规则可以定义文本行区域的高度为固定尺寸,定义对应的宽度为其高度与字符数的乘积。因此,在本实施例中,通过识别文本行区域中的字符数,进而根据文本行区域中的字符数以及预设的尺寸规则对文本行区域进行预处理,其预处理具体为调整文本行区域的尺寸大小,即将文本行区域的高度调整为固定高度,进而根据文本行区域中的字符数,将文本行区域的宽度调整为其高度与字符数的乘积,从而使得待进行文本识别的文本行区域具有相对统一的样式。
步骤206,通过文本归一化模型检测预处理后的文本行区域,得到与文本行区域对应的标准格式的文本行图片。
其中,标准格式的文本行图片是指具有统一整体风格、统一尺寸定义、统一字体类型、统一字符大小以及统一字符位置的图片。文本归一化模型则是预先训练好的,能够将输入的具有任意复杂背景、包含若干个字符、且经过上述预处理后的文本行区域进行归一化处理,从而输出对应的具有归一化样式的标准格式的文本行图片,以提高后续文本识别的精度。由于标准格式的文本行图片是对待识别的文本图像中文本行区域进行归一化处理后得到的,因此,标准格式的文本行图片中的字符数与文本行区域中的字符数相同。
步骤208,采用第一深度学习神经网络识别标准格式的文本行图片,得到目标字符串。
由于通过上述步骤可以得到归一化后的标准格式的文本行图片,因此,在进行文本识别时只需要关注归一化后的标准格式的文本行图片。在本实施例中,第一深度学习神经网络可以采用双向长短期记忆分类网络(BLSTM+CTC)框架实现,可以理解的是,在传统技术中,由于待识别的文本图像并未进行归一化处理,因此存在多种风格,而对于每种风格,都需调用BLSTM+CTC框架的各相关参数进行识别,导致调用的参数繁杂,硬件资源消耗多。而在本申请中,网络则只需要关注归一化后的标准格式的文本行图片,由于其特征更加规律单一,噪声更少,因此,网络需要学习的特征也更少,这将使得OCR任务对BLSTM+CTC网络的容量需求更小,从而可以使用更少的参数来搭建网络,使得网络训练更容易,收敛更快,硬件资源消耗更少,性能更好,且识别精度更高。
上述文本识别方法,通过获取待识别的文本图像,以对待识别的文本图像进行文本定位,得到对应的文本行区域,进而根据文本行区域中的字符数以及预设的尺寸规则,对文本行区域进行预处理,通过文本归一化模型检测预处理后的文本行区域,以得到与文本行区域对应的标准格式的文本行图片,使得进行文本识别的输入具有统一的样式,从而可以直接采用第一深度学习神经网络识别标准格式的文本行图片,以得到目标字符串,由于本申请在进行文本识别时只需要关注归一化后的标准格式的文本行图片,其特征更加规律单一,因此,网络需要学习的特征也更少,这将使得网络训练更容易,性能更好,且识别精度更高。
在一个实施例中,如图3所示,文本归一化模型的生成方法可以包括如下步骤:
步骤302,获取若干个文本行样本图片。
其中,若干个文本行样本图片是用于后续对模型进行训练的原始数据,其具体可以是具有任意背景、任意风格样式、任意字体以及具有多个字符(即样本字符串)的样本图片。在本实施例中,为了使得模型可以学习到各种输入文本的本质特征,从而获取若干个对模型进行训练用的文本行样本图片。
步骤304,对文本行样本图片进行归一化处理,得到与文本行样本图片对应的标准格式的文本行图片。
其中,标准格式的文本行图片是指具有统一整体风格(如白底黑字、白底蓝字等)、统一尺寸定义(如图片中每个字符所占用的高度和宽度的定义)、统一字体类型、统一字符大小(如字符占据图片尺寸的比例)以及统一字符位置(如按字符数等分,每个字符位于对应等分位置的中心)的图片。归一化则是指对任意背景、任意风格样式以及任意字体的文本行样本图片,将其映射到对应的具有统一整体风格、统一尺寸定义、统一字体类型、统一字符大小以及统一字符位置的标准格式的文本行图片。本实施例通过对文本行样本图片进行归一化处理,从而为每一个文本行样本图片设计具有统一样式的标准格式的文本行图片,使得模型可以更好的学习到各种输入文本的本质特征。
步骤306,根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集。
在本实施例中,为了使得模型可以更好的学习到各种输入文本的本质特征,则根据上述步骤获取的若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集,进而通过训练数据集对模型进行训练。其中,训练数据集中包括若干个训练样本对,每一训练样本对又包括至少一个文本行样本图片和对应的标准格式的文本行图片。
步骤308,采用训练数据集,利用均方损失函数训练第二深度学习神经网络,直到均方损失函数达到最小值时,得到文本归一化模型。
其中,第二深度学习神经网络采用去除了亚像素卷积(sub-pixel convolutionlayers)层的超分辨率残差网络(Super-resolution residual network,简称SRResNet)。具体的,采用上述训练数据集,并利用均方损失函数训练去除了亚像素卷积层的超分辨率残差网络,直到均方损失函数达到最小值时,表示网络已经训练稳定,并学习到字符本质,从而保存模型参数,得到文本归一化模型,以便于后续进行实际的文本识别。
上述文本归一化模型训练方法,由于训练时所使用的训练数据集是由原始数据即文本行样本图片以及通过归一化处理后得到的具有统一样式的标准格式的文本行图片共同组成的,因此,在对模型进行训练的过程中,可以加速模型的训练和收敛,使得模型可以更好的学习到各种输入文本的本质特征,进而在利用模型进行实际识别时,可以得到统一样式的输出,且提高了识别精度。
在一个实施例中,如图4所示,对文本行样本图片进行归一化处理,得到与文本行样本图片对应的标准格式的文本行图片,具体可以包括如下步骤:
步骤402,识别文本行样本图片中样本字符串对应的字符串特征。
其中,字符串特征可以是指字符串本身的特征,如表示数据和信息的字母、数字、文字或其他符号等组成的字符串。由于文本行样本图片中一般包括多个字符,即样本字符串,因此,通过对文本行样本图片中的样本字符串进行识别,从而得到对应的字符串特征。
步骤404,根据字符串特征对文本行样本图片进行整体风格、尺寸定义、字体类型、字符大小以及字符位置的归一化处理,得到归一化后的标准格式的文本行图片。
具体的,根据上述对文本行样本图片进行识别而得到对应的字符串特征,进而根据字符串特征对文本行样本图片进行整体风格、尺寸定义、字体类型、字符大小以及字符位置的归一化处理。举例来说,整体风格的归一化可以是对标准格式的文本行图片的整体格式的归一化,如归一化为白底黑字、白底蓝字等,即标准格式的文本行图片的背景色均归一化为白色,而标准格式的文本行图片中对应字符串特征则均归一化为黑色或蓝色等;尺寸定义的归一化可以是对标准格式的文本行图片的尺寸的归一化,如归一化标准格式的文本行图片的高度,归一化标准格式的文本行图片的宽度为高度与字符数的乘积;字体类型的归一化可以是对标准格式的文本行图片中对应字符串特征的字体类型进行的归一化,如将所有标准格式的文本行图片中对应字符串特征的字体类型均归一化为宋体或其他字体类型等;字符大小的归一化则是对标准格式的文本行图片中对应每一个字符占据该标准格式的文本行图片尺寸的比例进行的归一化,如可以归一化标准格式的文本行图片中每个字符的高度和宽度相等,且占据该标准格式的文本行图片高度的90%;字符位置的归一化则是对标准格式的文本行图片中对应字符串特征位于该标准格式的文本行图片中具***置进行的归一化,如对图片在宽度上按字符数进行等分,则每个字符归一化为位于对应等分位置的中心等。
因此,对于每一个文本行样本图片,都可以通过上述归一化处理方法,而得到一个与之对应的归一化后的具有统一样式的标准格式的文本行图片,且对于多个文本行样本图片中的字符串特征相同的情况下,其归一化后的结果对应相同的标准格式的文本行图片。举例来说,如图5所示,左侧为文本行样本图片,其右侧为对应的标准格式的文本行图片,如字符串“丁国祥”;且具有相同字符特征的多个文本行样本图片,其对应的归一化后的标准格式的文本行图片为同一个,如对于不同输入风格的“临”字(如图5中左侧部分),对应的该标准格式的文本行图片为具有统一样式的“临”字(如图5中右侧部分)。
在一个实施例中,如图6所示,根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集,具体可以包括如下步骤:
步骤602,根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成若干个训练样本对。
其中,第一个训练样本对包括文本行样本图片和对应的标准格式的文本行图片。因此,根据若干个文本行样本图片和与之一一对应的标准格式的文本行图片可以得到若干个训练样本对,通过训练样本对的形式对模型进行训练可以使得模型可以学习到各种输入文本的本质特征。
步骤604,对训练样本对中的文本行样本图片的尺寸进行调整,以得到尺寸调整后的训练样本对。
具体的,为了精简模型的训练过程,并提高模型的训练和收敛速度,在本实施例中,可以对待进行训练的训练样本对中文本行样本图片的尺寸进行归一化调整,即将文本行样本图片的尺寸调整为固定尺寸,或将文本行样本图片的尺寸调整为与对应的标准格式的文本行图片相同的尺寸,从而得到尺寸归一化后的训练样本对。
步骤606,将尺寸调整后的若干个训练样本对作为训练数据集。
具体的,通过将上述步骤得到的尺寸归一化后的若干个训练样本对作为训练数据集,由于训练数据集中每一个训练样本对中文本行样本图片与标准格式的文本行图片具有相同大小,且标准格式的文本行图片具有统一的样式,因此,在对模型进行训练时,可以驱使模型忽略不同输入的风格,而只关注字符串特征本身,从而达到学习各种输入文本的本质特征,实现对不同风格的文本归一化的目的。
在一个实施例中,如图7所示,采用训练数据集,利用均方损失函数训练第二深度学习神经网络,直到均方损失函数达到最小值时,得到文本归一化模型,具体包括如下步骤:
步骤702,将训练数据集输入去除了亚像素卷积层的超分辨率残差网络进行前向传播。
其中,训练数据集中的数据以训练样本对(x_i,y_i)表示,其中,x表示文本行样本图片,y表示该图片对应的归一化后的标准格式的文本行图片,i表示第i个训练样本对。在实际训练中,由于各训练样本对中文本行样本图片的样本字符串的长度可能会有所不同,则对应图片的尺寸也不同,因此,在对模型进行训练时,每次输入一个训练样本对,并进行前向传播。且由于训练样本对中的数据经过了上述预处理,使得一个样本对中文本行样本图片和对应的标准格式的文本行图片的尺寸相同,因此,用于训练的第二深度学习神经网络可以采用去除了亚像素卷积层的超分辨率残差网络,从而精简了网络结构。
步骤704,采用均方损失函数计算网络的输出与训练数据集中对应标准格式的文本行图片的像素级误差,根据误差确定峰值信噪比。
步骤706,通过梯度下降法对均方损失函数进行优化,直到误差达到最小值且峰值信噪比达到最大值时,保存模型参数,得到文本归一化模型。
具体的,当向去除了亚像素卷积层的超分辨率残差网络输入一个训练样本对后,通过前向推理,采用均方损失函数(Mean Square Error,简称MSE)计算网络的输出与该训练样本对中对应标准格式的文本行图片的像素级误差,同时根据该误差计算对应的峰值信噪比(Peak signal-to-noise ratio,简称PSNR)。然后继续输入训练数据集中的其他训练样本对,直到累积到批量大小(batch size)的训练样本对,再使用累计平均梯度进行反向传播,进而采用梯度下降法对均方损失函数进行优化,使得参数更新更加平滑。即通过迭代多个批量的训练数据集,执行上述流程,并更新模型参数。当误差值达到最小值时,即误差值不再降低且峰值信噪比达到最大值时终止训练,此时模型参数收敛,保存模型参数,从而得到文本归一化模型。
应该理解的是,虽然图1-7的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1-7中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图8所示,提供了一种文本识别装置,包括:文本定位模块801、预处理模块802、归一化模块803以及字符文本识别模块804,其中:
文本定位模块801,用于获取待识别的文本图像,对待识别的文本图像进行文本定位,得到对应的文本行区域,其中,文本行区域中包括若干个字符;
预处理模块802,用于识别文本行区域中的字符数,根据文本行区域中的字符数以及预设的尺寸规则对文本行区域进行预处理;
归一化模块803,用于通过文本归一化模型检测预处理后的文本行区域,得到与文本行区域对应的标准格式的文本行图片,其中,标准格式的文本行图片中的字符数与文本行区域中的字符数相同;
字符文本识别模块804,用于采用第一深度学习神经网络识别标准格式的文本行图片,得到目标字符串。
在一个实施例中,文本归一化模型具体包括:文本行样本图片获取单元,用于获取若干个文本行样本图片,其中,文本行样本图片中包括样本字符串;归一化处理单元,用于对文本行样本图片进行归一化处理,得到与文本行样本图片对应的标准格式的文本行图片;训练数据集生成单元,用于根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集;网络训练单元,用于采用训练数据集,利用均方损失函数训练第二深度学习神经网络,直到均方损失函数达到最小值时,得到文本归一化模型。
在一个实施例中,归一化处理单元具体用于,识别文本行样本图片中样本字符串对应的字符串特征;根据字符串特征对文本行样本图片进行整体风格、尺寸定义、字体类型、字符大小以及字符位置的归一化处理,得到归一化后的标准格式的文本行图片。
在一个实施例中,训练数据集生成单元具体用于,根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成若干个训练样本对,其中,训练样本对包括文本行样本图片和对应的标准格式的文本行图片;对训练样本对中的文本行样本图片的尺寸进行调整,以得到尺寸调整后的训练样本对;将尺寸调整后的若干个训练样本对作为训练数据集。
在一个实施例中,网络训练单元具体用于,将训练数据集输入去除了亚像素卷积层的超分辨率残差网络进行前向传播;采用均方损失函数计算网络的输出与训练数据集中对应标准格式的文本行图片的像素级误差,根据误差确定峰值信噪比;通过梯度下降法对均方损失函数进行优化,直到误差达到最小值且峰值信噪比达到最大值时,保存模型参数,得到文本归一化模型。
在一个实施例中,第一深度学习神经网络采用双向长短期记忆分类网络。
关于文本识别装置的具体限定可以参见上文中对于文本识别方法的限定,在此不再赘述。上述文本识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图9所示。该计算机设备包括通过***总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于存储训练数据集和待识别的文本图像数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种文本识别方法。
本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取待识别的文本图像,对待识别的文本图像进行文本定位,得到对应的文本行区域,其中,文本行区域中包括若干个字符;
识别文本行区域中的字符数,根据文本行区域中的字符数以及预设的尺寸规则对文本行区域进行预处理;
通过文本归一化模型检测预处理后的文本行区域,得到与文本行区域对应的标准格式的文本行图片,其中,标准格式的文本行图片中的字符数与文本行区域中的字符数相同;
采用第一深度学习神经网络识别标准格式的文本行图片,得到目标字符串。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取若干个文本行样本图片,其中,文本行样本图片中包括样本字符串;对文本行样本图片进行归一化处理,得到与文本行样本图片对应的标准格式的文本行图片;根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集;采用训练数据集,利用均方损失函数训练第二深度学习神经网络,直到均方损失函数达到最小值时,得到文本归一化模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:识别文本行样本图片中样本字符串对应的字符串特征;根据字符串特征对文本行样本图片进行整体风格、尺寸定义、字体类型、字符大小以及字符位置的归一化处理,得到归一化后的标准格式的文本行图片。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成若干个训练样本对,其中,训练样本对包括文本行样本图片和对应的标准格式的文本行图片;对训练样本对中的文本行样本图片的尺寸进行调整,以得到尺寸调整后的训练样本对;将尺寸调整后的若干个训练样本对作为训练数据集。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:将训练样本对中的文本行样本图片的尺寸调整为与对应的标准格式的文本行图片相同的尺寸。
在一个实施例中,第二深度学习神经网络采用去除了亚像素卷积层的超分辨率残差网络;则处理器执行计算机程序时还实现以下步骤:将训练数据集输入去除了亚像素卷积层的超分辨率残差网络进行前向传播;采用均方损失函数计算网络的输出与训练数据集中对应标准格式的文本行图片的像素级误差,根据误差确定峰值信噪比;通过梯度下降法对均方损失函数进行优化,直到误差达到最小值且峰值信噪比达到最大值时,保存模型参数,得到文本归一化模型。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取待识别的文本图像,对待识别的文本图像进行文本定位,得到对应的文本行区域,其中,文本行区域中包括若干个字符;
识别文本行区域中的字符数,根据文本行区域中的字符数以及预设的尺寸规则对文本行区域进行预处理;
通过文本归一化模型检测预处理后的文本行区域,得到与文本行区域对应的标准格式的文本行图片,其中,标准格式的文本行图片中的字符数与文本行区域中的字符数相同;
采用第一深度学习神经网络识别标准格式的文本行图片,得到目标字符串。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取若干个文本行样本图片,其中,文本行样本图片中包括样本字符串;对文本行样本图片进行归一化处理,得到与文本行样本图片对应的标准格式的文本行图片;根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集;采用训练数据集,利用均方损失函数训练第二深度学习神经网络,直到均方损失函数达到最小值时,得到文本归一化模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:识别文本行样本图片中样本字符串对应的字符串特征;根据字符串特征对文本行样本图片进行整体风格、尺寸定义、字体类型、字符大小以及字符位置的归一化处理,得到归一化后的标准格式的文本行图片。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据若干个文本行样本图片和与若干个文本行样本图片一一对应的标准格式的文本行图片生成若干个训练样本对,其中,训练样本对包括文本行样本图片和对应的标准格式的文本行图片;对训练样本对中的文本行样本图片的尺寸进行调整,以得到尺寸调整后的训练样本对;将尺寸调整后的若干个训练样本对作为训练数据集。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:将训练样本对中的文本行样本图片的尺寸调整为与对应的标准格式的文本行图片相同的尺寸。
在一个实施例中,第二深度学习神经网络采用去除了亚像素卷积层的超分辨率残差网络;则计算机程序被处理器执行时还实现以下步骤:将训练数据集输入去除了亚像素卷积层的超分辨率残差网络进行前向传播;采用均方损失函数计算网络的输出与训练数据集中对应标准格式的文本行图片的像素级误差,根据误差确定峰值信噪比;通过梯度下降法对均方损失函数进行优化,直到误差达到最小值且峰值信噪比达到最大值时,保存模型参数,得到文本归一化模型。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种文本识别方法,其特征在于,所述方法包括:
获取待识别的文本图像,对所述待识别的文本图像进行文本定位,得到对应的文本行区域,所述文本行区域中包括若干个字符;
识别所述文本行区域中的字符数,根据所述文本行区域中的字符数以及预设的尺寸规则对所述文本行区域进行预处理;
通过文本归一化模型检测预处理后的文本行区域,得到与所述文本行区域对应的标准格式的文本行图片,所述标准格式的文本行图片中的字符数与所述文本行区域中的字符数相同;
采用第一深度学习神经网络识别所述标准格式的文本行图片,得到目标字符串。
2.根据权利要求1所述的文本识别方法,其特征在于,所述文本归一化模型的生成方法包括:
获取若干个文本行样本图片,所述文本行样本图片中包括样本字符串;
对所述文本行样本图片进行归一化处理,得到与所述文本行样本图片对应的标准格式的文本行图片;
根据所述若干个文本行样本图片和与所述若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集;
采用所述训练数据集,利用均方损失函数训练第二深度学习神经网络,直到所述均方损失函数达到最小值时,得到文本归一化模型。
3.根据权利要求2所述的文本识别方法,其特征在于,所述对所述文本行样本图片进行归一化处理,得到与所述文本行样本图片对应的标准格式的文本行图片,包括:
识别所述文本行样本图片中样本字符串对应的字符串特征;
根据所述字符串特征对所述文本行样本图片进行整体风格、尺寸定义、字体类型、字符大小以及字符位置的归一化处理,得到归一化后的标准格式的文本行图片。
4.根据权利要求2所述的文本识别方法,其特征在于,所述根据所述若干个文本行样本图片和与所述若干个文本行样本图片一一对应的标准格式的文本行图片生成训练数据集,包括:
根据所述若干个文本行样本图片和与所述若干个文本行样本图片一一对应的标准格式的文本行图片生成若干个训练样本对,所述训练样本对包括文本行样本图片和对应的标准格式的文本行图片;
对所述训练样本对中的文本行样本图片的尺寸进行调整,以得到尺寸调整后的训练样本对;
将尺寸调整后的若干个训练样本对作为所述训练数据集。
5.根据权利要求4所述的文本归一化模型训练方法,其特征在于,所述对所述训练样本对中的文本行样本图片的尺寸进行调整,包括:
将所述训练样本对中的文本行样本图片的尺寸调整为与对应的标准格式的文本行图片相同的尺寸。
6.根据权利要求2所述的文本识别方法,其特征在于,所述第二深度学习神经网络采用去除了亚像素卷积层的超分辨率残差网络;所述采用所述训练数据集,利用均方损失函数训练第二深度学习神经网络,直到所述均方损失函数达到最小值时,得到文本归一化模型,包括:
将所述训练数据集输入去除了亚像素卷积层的超分辨率残差网络进行前向传播;
采用所述均方损失函数计算所述网络的输出与所述训练数据集中对应标准格式的文本行图片的像素级误差,根据所述误差确定峰值信噪比;
通过梯度下降法对所述均方损失函数进行优化,直到所述误差达到最小值且所述峰值信噪比达到最大值时,保存模型参数,得到所述文本归一化模型。
7.根据权利要求1至6任一项所述的文本识别方法,其特征在于,所述第一深度学习神经网络采用双向长短期记忆分类网络。
8.一种文本识别装置,其特征在于,所述装置包括:
文本定位模块,用于获取待识别的文本图像,对所述待识别的文本图像进行文本定位,得到对应的文本行区域,所述文本行区域中包括若干个字符;
预处理模块,用于识别所述文本行区域中的字符数,根据所述文本行区域中的字符数以及预设的尺寸规则对所述文本行区域进行预处理;
归一化模块,用于通过文本归一化模型检测预处理后的文本行区域,得到与所述文本行区域对应的标准格式的文本行图片,所述标准格式的文本行图片中的字符数与所述文本行区域中的字符数相同;
字符文本识别模块,用于采用第一深度学习神经网络识别所述标准格式的文本行图片,得到目标字符串。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911201169.2A CN110942067A (zh) | 2019-11-29 | 2019-11-29 | 文本识别方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911201169.2A CN110942067A (zh) | 2019-11-29 | 2019-11-29 | 文本识别方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110942067A true CN110942067A (zh) | 2020-03-31 |
Family
ID=69908623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911201169.2A Pending CN110942067A (zh) | 2019-11-29 | 2019-11-29 | 文本识别方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110942067A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860443A (zh) * | 2020-07-31 | 2020-10-30 | 上海掌学教育科技有限公司 | 语文作业题目文字识别方法、搜索方法、服务器及*** |
CN111860479A (zh) * | 2020-06-16 | 2020-10-30 | 北京百度网讯科技有限公司 | 光学字符识别方法、装置、电子设备及存储介质 |
CN112541505A (zh) * | 2020-12-11 | 2021-03-23 | 上海云从企业发展有限公司 | 文本识别方法、装置以及计算机可读存储介质 |
CN112686243A (zh) * | 2020-12-29 | 2021-04-20 | 平安普惠企业管理有限公司 | 智能识别图片文字的方法、装置、计算机设备及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6256408B1 (en) * | 1994-04-28 | 2001-07-03 | International Business Machines Corporation | Speed and recognition enhancement for OCR using normalized height/width position |
CN107784328A (zh) * | 2017-09-30 | 2018-03-09 | 深圳市易成自动驾驶技术有限公司 | 德语旧字体识别方法、装置及计算机可读存储介质 |
CN107886082A (zh) * | 2017-11-24 | 2018-04-06 | 腾讯科技(深圳)有限公司 | 图像中数学公式检测方法、装置、计算机设备及存储介质 |
CN109447078A (zh) * | 2018-10-23 | 2019-03-08 | 四川大学 | 一种自然场景图像敏感文字的检测识别方法 |
US20190180154A1 (en) * | 2017-12-13 | 2019-06-13 | Abbyy Development Llc | Text recognition using artificial intelligence |
CN109948615A (zh) * | 2019-03-26 | 2019-06-28 | 中国科学技术大学 | 多语言文本检测识别*** |
CN109977762A (zh) * | 2019-02-01 | 2019-07-05 | 汉王科技股份有限公司 | 一种文本定位方法及装置、文本识别方法及装置 |
CN110110715A (zh) * | 2019-04-30 | 2019-08-09 | 北京金山云网络技术有限公司 | 文本检测模型训练方法、文本区域、内容确定方法和装置 |
CN110298343A (zh) * | 2019-07-02 | 2019-10-01 | 哈尔滨理工大学 | 一种手写黑板板书识别方法 |
CN110321830A (zh) * | 2019-06-28 | 2019-10-11 | 北京邮电大学 | 一种基于神经网络的中文字符串图片ocr识别方法 |
CN110414519A (zh) * | 2019-06-27 | 2019-11-05 | 众安信息技术服务有限公司 | 一种图片文字的识别方法及其识别装置 |
-
2019
- 2019-11-29 CN CN201911201169.2A patent/CN110942067A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6256408B1 (en) * | 1994-04-28 | 2001-07-03 | International Business Machines Corporation | Speed and recognition enhancement for OCR using normalized height/width position |
CN107784328A (zh) * | 2017-09-30 | 2018-03-09 | 深圳市易成自动驾驶技术有限公司 | 德语旧字体识别方法、装置及计算机可读存储介质 |
CN107886082A (zh) * | 2017-11-24 | 2018-04-06 | 腾讯科技(深圳)有限公司 | 图像中数学公式检测方法、装置、计算机设备及存储介质 |
US20190180154A1 (en) * | 2017-12-13 | 2019-06-13 | Abbyy Development Llc | Text recognition using artificial intelligence |
CN109447078A (zh) * | 2018-10-23 | 2019-03-08 | 四川大学 | 一种自然场景图像敏感文字的检测识别方法 |
CN109977762A (zh) * | 2019-02-01 | 2019-07-05 | 汉王科技股份有限公司 | 一种文本定位方法及装置、文本识别方法及装置 |
CN109948615A (zh) * | 2019-03-26 | 2019-06-28 | 中国科学技术大学 | 多语言文本检测识别*** |
CN110110715A (zh) * | 2019-04-30 | 2019-08-09 | 北京金山云网络技术有限公司 | 文本检测模型训练方法、文本区域、内容确定方法和装置 |
CN110414519A (zh) * | 2019-06-27 | 2019-11-05 | 众安信息技术服务有限公司 | 一种图片文字的识别方法及其识别装置 |
CN110321830A (zh) * | 2019-06-28 | 2019-10-11 | 北京邮电大学 | 一种基于神经网络的中文字符串图片ocr识别方法 |
CN110298343A (zh) * | 2019-07-02 | 2019-10-01 | 哈尔滨理工大学 | 一种手写黑板板书识别方法 |
Non-Patent Citations (6)
Title |
---|
RAYMOND PTUCHA等: ""Intelligent character recognition using fully convolutional neural networks"", 《PATTERN RECOGNITION》 * |
RAYMOND PTUCHA等: ""Intelligent character recognition using fully convolutional neural networks"", 《PATTERN RECOGNITION》, 17 December 2018 (2018-12-17), pages 604 - 613 * |
YUECHAN HAO等: ""Large Improvement in Line-Direction-Free and Character-Orientation-Free On-Line Handwritten Japanese Text Recognition"", 《2014 14TH INTERNATIONAL CONFERENCE ON FRONTIERS IN HANDWRITING RECOGNITION》 * |
YUECHAN HAO等: ""Large Improvement in Line-Direction-Free and Character-Orientation-Free On-Line Handwritten Japanese Text Recognition"", 《2014 14TH INTERNATIONAL CONFERENCE ON FRONTIERS IN HANDWRITING RECOGNITION》, 15 December 2014 (2014-12-15), pages 329 - 334 * |
秦伟: ""图像文字定位与提取技术研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
秦伟: ""图像文字定位与提取技术研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》, 15 July 2018 (2018-07-15) * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860479A (zh) * | 2020-06-16 | 2020-10-30 | 北京百度网讯科技有限公司 | 光学字符识别方法、装置、电子设备及存储介质 |
CN111860479B (zh) * | 2020-06-16 | 2024-03-26 | 北京百度网讯科技有限公司 | 光学字符识别方法、装置、电子设备及存储介质 |
CN111860443A (zh) * | 2020-07-31 | 2020-10-30 | 上海掌学教育科技有限公司 | 语文作业题目文字识别方法、搜索方法、服务器及*** |
CN112541505A (zh) * | 2020-12-11 | 2021-03-23 | 上海云从企业发展有限公司 | 文本识别方法、装置以及计算机可读存储介质 |
CN112541505B (zh) * | 2020-12-11 | 2021-07-23 | 上海云从企业发展有限公司 | 文本识别方法、装置以及计算机可读存储介质 |
CN112686243A (zh) * | 2020-12-29 | 2021-04-20 | 平安普惠企业管理有限公司 | 智能识别图片文字的方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109492643B (zh) | 基于ocr的证件识别方法、装置、计算机设备及存储介质 | |
WO2021027336A1 (zh) | 基于***和签名的身份验证方法、装置和计算机设备 | |
US11176393B2 (en) | Living body recognition method, storage medium, and computer device | |
CN110163235B (zh) | 图像增强模型的训练、图像增强方法、装置和存储介质 | |
CN110569721B (zh) | 识别模型训练方法、图像识别方法、装置、设备及介质 | |
WO2020098250A1 (zh) | 字符识别方法、服务器及计算机可读存储介质 | |
KR102385463B1 (ko) | 얼굴 특징 추출 모델 학습 방법, 얼굴 특징 추출 방법, 장치, 디바이스 및 저장 매체 | |
CN110942067A (zh) | 文本识别方法、装置、计算机设备和存储介质 | |
CN111191567B (zh) | 身份数据处理方法、装置、计算机设备和存储介质 | |
CN110569341B (zh) | 配置聊天机器人的方法、装置、计算机设备和存储介质 | |
CN110969154A (zh) | 文本识别方法、装置、计算机设备和存储介质 | |
CN111191568B (zh) | 翻拍图像识别方法、装置、设备及介质 | |
CN110569769A (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN110705233B (zh) | 基于文字识别技术的笔记生成方法、装置和计算机设备 | |
US20230086552A1 (en) | Image processing method and apparatus, device, storage medium, and computer program product | |
JP2022532177A (ja) | 偽造された顔の認識方法、装置、および非一時的コンピュータ可読記憶媒体 | |
CN110807491A (zh) | 车牌图像清晰度模型训练方法、清晰度检测方法及装置 | |
CN111368758A (zh) | 一种人脸模糊度检测方法、装置、计算机设备及存储介质 | |
CN110751500B (zh) | 分享图片的处理方法、装置、计算机设备及存储介质 | |
CN113034514A (zh) | 天空区域分割方法、装置、计算机设备和存储介质 | |
CN111144285A (zh) | 胖瘦程度识别方法、装置、设备及介质 | |
CN116110100A (zh) | 一种人脸识别方法、装置、计算机设备及存储介质 | |
CN115082667A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN112232336A (zh) | 一种证件识别方法、装置、设备及存储介质 | |
CN111340025A (zh) | 字符识别方法、装置、计算机设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20240517 |