CN110378346B - 建立文字识别模型的方法、装置、设备和计算机存储介质 - Google Patents

建立文字识别模型的方法、装置、设备和计算机存储介质 Download PDF

Info

Publication number
CN110378346B
CN110378346B CN201910515396.6A CN201910515396A CN110378346B CN 110378346 B CN110378346 B CN 110378346B CN 201910515396 A CN201910515396 A CN 201910515396A CN 110378346 B CN110378346 B CN 110378346B
Authority
CN
China
Prior art keywords
model structure
recognition
training data
neural network
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910515396.6A
Other languages
English (en)
Other versions
CN110378346A (zh
Inventor
姚锟
孙逸鹏
黎健成
韩钧宇
刘经拓
丁二锐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910515396.6A priority Critical patent/CN110378346B/zh
Publication of CN110378346A publication Critical patent/CN110378346A/zh
Application granted granted Critical
Publication of CN110378346B publication Critical patent/CN110378346B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

本发明提供一种建立文字识别模型的方法,所述方法包括:获取包含各文字图像以及各文字图像中所包含文字的识别结果的训练数据;确定包含构建模型结构的卷积神经网络和循环神经网络的各参数以及各参数的取值范围的搜索空间;分别从卷积神经网络以及循环神经网络的各参数的取值范围中进行采样,在利用各参数取值的采样结果得到模型结构序列之后,根据模型结构序列构建对应的模型结构;依据训练数据获取模型结构的奖励值,并确定奖励值是否满足预设条件,若否,则转至执行构建模型结构的步骤,直至模型结构的奖励值满足预设条件,输出模型结构作为最终模型结构;利用训练数据对最终模型结构进行训练,直至最终模型结构收敛,得到文字识别模型。

Description

建立文字识别模型的方法、装置、设备和计算机存储介质
【技术领域】
本发明涉及文字识别技术领域,尤其涉及一种建立文字识别模型的方法、装置、设备和计算机存储介质。
【背景技术】
文字识别是计算机视觉中的经典问题之一,其任务是获取图像中所包含文字的识别结果。现有技术中通常采用由人工设计模型结构的方式来获取用于文字识别的模型。但由于在人工设计模型结构时,需要人为地对模型结构的网络类型、网络层数、网络个数等参数进行不断调整,导致建立文字识别模型时的开发成本较高、开发周期较长。
【发明内容】
有鉴于此,本发明提供了一种建立文字识别模型的方法、装置、设备和计算机存储介质,用于降低文字识别模型的开发成本,缩短文字识别模型的开发周期,由于扩展了构建模型结构时所使用参数的范围,从而提升了文字识别模型的识别效果。
本发明为解决技术问题所采用的技术方案为提供一种建立文字识别模型的方法,所述方法包括:获取训练数据,所述训练数据中包含各文字图像以及各文字图像中所包含文字的识别结果;确定搜索空间,所述搜索空间中包含构建模型结构的卷积神经网络和循环神经网络的各参数以及各参数的取值范围;分别从所述卷积神经网络以及循环神经网络的各参数的取值范围中进行采样,在利用各参数取值的采样结果得到模型结构序列之后,根据所述模型结构序列构建对应的模型结构;依据所述训练数据获取所述模型结构的奖励值,并确定所述奖励值是否满足预设条件,若否,则转至执行构建模型结构的步骤,直至所述模型结构的奖励值满足预设条件,输出所述模型结构作为最终模型结构;利用所述训练数据对所述最终模型结构进行训练,直至所述最终模型结构收敛,得到文字识别模型。
根据本发明一优选实施例,在获取训练数据之后,还包括:按照预设比例,将所述训练数据划分为训练集和验证集。
根据本发明一优选实施例,所述从所述卷积神经网络的各参数的取值范围中进行采样包括:确定所构建的模型结构中卷积神经网络的预设块数;从所述卷积神经网络的各参数的取值范围中进行相应次数的重复采样,分别得到各块卷积神经网络中各参数取值的采样结果。
根据本发明一优选实施例,所述依据所述训练数据获取所述模型结构的奖励值包括:依据所述训练数据获取所述模型结构的识别准确率和识别速度;利用所述识别准确率和识别速度获取模型结构的奖励值。
根据本发明一优选实施例,所述利用所述识别准确率和识别速度获取模型结构的奖励值包括:将所述识别速度和预设速度进行比较,根据比较结果确定奖励值计算公式;利用所确定的奖励值计算公式,根据所述预设速度、识别速度以及识别准确率获取所述模型结构的奖励值。
根据本发明一优选实施例,所述利用所述训练数据获取所述模型结构的识别准确率和识别速度包括:使用所述训练集对所述模型结构进行预设次数的训练之后,再使用所述验证集获取所述模型结构的识别准确率和识别速度。
根据本发明一优选实施例,所述预设条件包括:在预设次数内得到的奖励值相等;或者在预设次数内得到的奖励值之间的差值小于或等于预设阈值。
根据本发明一优选实施例,所述利用所述训练数据对所述最终模型结构进行训练,直至所述最终模型结构收敛包括:将所述训练数据中的各文字图像作为所述最终模型结构的输入,获取所述最终模型结构针对各文字图像的输出结果;根据所述各文字图像的输出结果与所述训练数据中各文字图像中所包含文字的识别结果确定所述最终模型结构的损失函数;根据所述最终模型结构的损失函数调整所述最终模型结构的参数,直至所述最终模型结构的损失函数最小化,得到文字识别模型。
本发明为解决技术问题所采用的技术方案为提供一种建立文字识别模型的装置,所述装置包括:获取单元,用于获取训练数据,所述训练数据中包含各文字图像以及各文字图像中所包含文字的识别结果;确定单元,用于确定搜索空间,所述搜索空间中包含构建模型结构的卷积神经网络和循环神经网络的各参数以及各参数的取值范围;构建单元,用于分别从所述卷积神经网络以及循环神经网络的各参数的取值范围中进行采样,在利用各参数取值的采样结果得到模型结构序列之后,根据所述模型结构序列构建对应的模型结构;处理单元,用于依据所述训练数据获取所述模型结构的奖励值,并确定所述奖励值是否满足预设条件,若否,则转至执行构建模型结构的步骤,直至所述模型结构的奖励值满足预设条件,输出所述模型结构作为最终模型结构;训练单元,用于利用所述训练数据对所述最终模型结构进行训练,直至所述最终模型结构收敛,得到文字识别模型。
根据本发明一优选实施例,所述获取单元在获取训练数据之后,还执行:按照预设比例,将所述训练数据划分为训练集和验证集。
根据本发明一优选实施例,所述构建单元在从所述卷积神经网络的各参数的取值范围中进行采样时,具体执行:确定所构建的模型结构中卷积神经网络的预设块数;从所述卷积神经网络的各参数的取值范围中进行相应次数的重复采样,分别得到各块卷积神经网络中各参数取值的采样结果。
根据本发明一优选实施例,所述处理单元在依据所述训练数据获取所述模型结构的奖励值时,具体执行:依据所述训练数据获取所述模型结构的识别准确率和识别速度;利用所述识别准确率和识别速度获取模型结构的奖励值。
根据本发明一优选实施例,所述处理单元在利用所述识别准确率和识别速度获取模型结构的奖励值时,具体执行:将所述识别速度和预设速度进行比较,根据比较结果确定奖励值计算公式;利用所确定的奖励值计算公式,根据所述预设速度、识别速度以及识别准确率获取所述模型结构的奖励值。
根据本发明一优选实施例,所述处理单元在依据所述训练数据获取所述模型结构的识别准确率和识别速度时,具体执行:使用所述训练集对所述模型结构进行预设次数的训练之后,再使用所述验证集获取所述模型结构的识别准确率和识别速度。
根据本发明一优选实施例,所述预设条件包括:在预设次数内得到的奖励值相等;或者在预设次数内得到的奖励值之间的差值小于或等于预设阈值。
根据本发明一优选实施例,所述训练单元在利用所述训练数据对所述最终模型结构进行训练,直至所述最终模型结构收敛时,具体执行:将所述训练数据中的各文字图像作为所述最终模型结构的输入,获取所述最终模型结构针对各文字图像的输出结果;根据所述各文字图像的输出结果与所述训练数据中各文字图像中所包含文字的识别结果确定所述最终模型结构的损失函数;根据所述最终模型结构的损失函数调整所述最终模型结构的参数,直至所述最终模型结构的损失函数最小化,得到文字识别模型。
由以上技术方案可以看出,本发明通过对搜索空间中卷积神经网络和循环神经网络各参数取值的联合搜索,构建相应的模型结构,再根据所构建的模型结构的奖励值来确定最优的网络结构,进而根据所确定的网络结构来训练得到文字识别模型,无需耗费大量的人力成本来探索网络结构的最优结构,缩短了文字识别模型的开发周期,提升了文字识别模型的开发效率,并且由于扩展了构建模型结构时所使用参数的范围,从而提升了文字识别模型的识别效果。
【附图说明】
图1为本发明一实施例提供的一种建立文字识别模型的方法流程图;
图2为本发明一实施例提供的一种建立文字识别模型的装置结构图;
图3为本发明一实施例提供的计算机***/服务器的框图。
【具体实施方式】
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
图1为本发明一实施例提供的一种建立文字识别模型的方法流程图,如图1中所示,所述方法包括:
在101中,获取训练数据,所述训练数据中包含各文字图像以及各文字图像中所包含文字的识别结果。
在本步骤中,获取各文字图像以及各文字图像中所包含文字的识别结果作为训练数据,所获取的训练数据用于训练得到文字识别模型。
具体地,本步骤在获取训练数据时,可以同时获取属于不同应用领域的各文字图像以及各文字图像中所包含文字的识别结果作为训练数据,使得最终训练得到的文字识别模型能够针对不同应用领域的文字图像来输出相应的检测结果。举例来说,本步骤可以同时获取科技领域的文字图像、获取金融领域的图像文字、获取医学领域的图像文字等。
另外,本步骤也可以仅获取属于预设应用领域的各文字图像以及各文字图像中所包含文字的识别结果作为训练数据,使得最终训练得到的文字识别模型仅能够针对属于预设应用领域的文字图像来输出相应的检测结果。举例来说,本步骤可以获取科技领域的文字图像、获取金融领域的文字图像、获取医学领域的文字图像等中的一种。
为了避免在之后的训练过程中产生过拟合的问题,本步骤在获取训练数据之后,还可以包括以下内容:按照预设比例将所获取的训练数据划分为训练集和验证集。其中,训练集用于神经网络的迭代训练,而验证集则用于对迭代训练后的神经网络进行验证。举例来说,本步骤可以将75%的训练数据划分为训练集,将剩余的25%的训练数据划分为验证集。
在102中,确定搜索空间,所述搜索空间中包含构建模型结构的卷积神经网络和循环神经网络的各参数以及各参数的取值范围。
在本步骤中,确定包含构建模型结构的卷积神经网络和循环神经网络的各参数以及各参数的取值范围作为搜索空间,进而利用所确定的搜索空间进行模型结构的构建。
现有技术中,通常使用单一类型的神经网络进行模型结构的构建。但由于单一类型的神经网络对应的搜索空间中所包含的参数有限,可能会导致最终得到的文字识别模型的文字识别效果较差的问题。因此本发明为了拓展搜索空间,提升模型的文字识别效果,在本步骤中确定包含卷积神经网络和循环神经网络这两种类型的神经网络的参数的搜索空间。
具体地,本步骤所确定的搜索空间中卷积神经网络的各参数包含卷积神经网络的通道数、卷积层的卷积核大小、卷积层的重复次数以及卷积层的扩张倍数;本步骤所确定的搜索空间中循环神经网络的各参数包含循环神经网络的通道数、门控循环单元层的隐藏元的节点数、门控循环单元层的激活函数类型以及全连接层的节点数。可以理解的是,搜索空间中卷积神经网络的通道数与循环神经网络的通道数所对应的取值范围相同。
其中,搜索空间中卷积层的卷积核大小的取值范围可以为3和5;搜索空间中卷积层的重复次数的取值范围可以为1至4之间的各数值;搜索空间中卷积层的扩张倍数的取值范围可以为2至6之间的各数值;搜索空间中网络结构的通道数的取值范围可以为以8为步长、从8至64之间的各数值;搜索空间中全连接层的节点数的取值范围可以为以40为步长、从0至120之间的各数值;搜索空间中门控循环单元层的隐藏元的节点数的取值范围可以为以30为步长、从90至150之间的各数值;搜索空间中门控循环单元层的激活函数类型的取值范围可以为sigmoid函数、tanh函数、relu函数以及identity函数。
举例来说,本步骤所确定的构建模型结构的搜索空间可以为:[卷积层的卷积核大小:3,5;卷积层的重复次数:1,2,3,4;卷积层的扩张倍数:2,3,4,5,6;门控循环单元层的隐藏元的节点数:90,120,150;门控循环单元层的激活函数类型:sigmoid、tanh、relu、identity;全连接层的节点数:0,40,80,120;网络结构的通道数:16,24,32,40,48,56,64]。
在103中,分别从所述卷积神经网络以及循环神经网络的各参数的取值范围中进行采样,在利用各参数取值的采样结果得到模型结构序列之后,根据所述模型结构序列构建对应的模型结构。
在本步骤中,分别从步骤102所确定的搜索空间中的卷积神经网络以及循环神经网络的各参数的取值范围中进行采样,获取卷积神经网络以及循环神经网络各参数取值的采样结果,从而在利用各参数取值的采样结果得到模型结构序列之后,根据所得到的模型结构序列构建对应的模型结构。
具体地,本步骤在从卷积神经网络的各参数的取值范围中进行采样时,可以采用以下方式:确定所构建的模型结构中卷积神经网络的预设块数;从卷积神经网络的各参数的取值范围中进行相应次数的重复采样,分别得到各块卷积神经网络中各参数取值的采样结果,从而将各块卷积神经网络中各参数取值的采样结果作为所构建的模型结构序列中卷积神经网络各参数取值的采样结果。
举例来说,若所构建的模型结构中卷积神经网络的预设块数为3,则本步骤从卷积神经网络的各参数的取值范围中进行3次重复采样,分别获取3块卷积神经网络中各参数取值的采样结果,若进行3次重复采样所获取的各块卷积神经网络中各参数取值的采样结果分别为:[16,3,2,4]、[32,3,1,2]以及[40,5,1,1]。其中,16、32、40表示卷积神经网络的通道数,3、3、5表示卷积层的卷积核大小,2、1、1表示卷积层的扩张倍数,4、2、1表示卷积层的重复次数。
另外,本步骤在从卷积神经网络的各参数的取值范围中进行随机采样时,也可以直接从卷积神经网络的各参数的取值范围中进行一次随机采样,即针对卷积神经网络中的各参数仅获取一个采样结果。
可以理解的是,本步骤在利用对应各参数取值的采样结果得到模型结构序列时,可以直接根据各参数取值的采样结果来得到模型结构序列。
例如,本步骤的模型结构序列可以为{[16,3,2,4],[24,90,sigmoid,40]},其中第一组数字表示卷积神经网络各参数取值的采样结果:卷积神经网络的通道数为16、卷积层的卷积核大小为3、卷积层的重复次数为2、卷积层的扩张倍数为4;第二组数字表示循环神经网络各参数取值的采样结果:循环神经网络的通道数为24、门控循环单元层的隐藏元的节点数为90、门控循环单元层的激活函数类型为sigmoid、全连接层的节点数为40。
另外,本步骤也可以根据各参数取值的采样结果所对应的索引来得到模型结构序列。
举例来说,本步骤所得到的模型结构序列可以为{[0,0,1,2],[1,0,0,1]},其中第一组数字表示卷积神经网络各参数取值的采样结果所对应的索引:“0”表示卷积神经网络的通道数为16的索引、“0”表示卷积层的卷积核大小为3的索引、“1”表示卷积层的重复次数为2的索引、“2”表示卷积层的扩张倍数为4的索引;第二组数字表示循环神经网络各参数取值的采样结果所对应的索引:“1”表示循环神经网络的通道数为24的索引、“0”表示门控循环单元层的隐藏元的节点数为90的索引、“0”表示门控循环单元层的激活函数类型为sigmoid的索引、“1”表示全连接层的节点数为40的索引。
可以理解的是,本步骤在根据模型结构序列构建对应的模型结构时,可以通过序列解析的方式,根据所得到的模型结构序列中各参数的取值来构建对应的模型结构。本步骤使用现有技术来根据模型结构序列构建模型结构,在此不进行赘述。
在104中,依据所述训练数据获取所述模型结构的奖励值,并确定所述奖励值是否满足预设条件,若否,则转至执行构建模型结构的步骤,直至所述模型结构的奖励值满足预设条件,输出所述模型结构作为最终模型结构。
在本步骤中,依据步骤101中所获取的训练数据来获取步骤103中所构建的模型结构的奖励值,进而确定所获取的奖励值是否满足预设条件,若否,则转至执行步骤103,以重新构建模型结构,进而再确定重新生成的模型结构的奖励值是否满足预设条件,以此循环进行,直至模型结构的奖励值满足预设条件,则输出该模型结构作为最终模型结构。
由于在进行文字识别时,尤其是移动终端在进行文字识别时,往往需要权衡识别速度和识别准确率的问题,即期望最终所得到的文字识别模型能够做到又快又好。但在目前的现有技术中,权衡文字识别模型的识别速度和识别准确率往往依赖于对模型结构的人为设计,即由人工不断地调整模型结构的参数。而基于人工调试的方式来设计网络结构时,会耗费大量的人力成本,且使得文字识别模型的开发周期较长。
因此为了能够兼顾模型的识别准确率和识别速度,本步骤在依据训练数据获取模型结构的奖励值时,可以采用以下方式:依据所获取的训练数据获取模型结构的识别准确率和识别速度;利用所获取的识别准确率和识别速度来获取模型结构的奖励值。
其中,本步骤可以将识别准确率和识别速度的乘积作为模型结构的奖励值。本步骤在利用所获取的识别准确率和识别速度来获取模型结构的奖励值时,还可以采用以下方式:将所获取的识别速度和预设速度进行比较,根据比较结果确定奖励值计算公式;利用所确定的奖励值计算公式,根据预设速度、识别速度以及识别准确率来获取模型结构的奖励值。也就是说,本步骤利用模型结构的识别准确率和识别速度来得到模型结构的奖励值,使得最终得到的模型结构能够兼顾识别准确率和识别速度。
其中,模型结构的识别准确率为模型结构根据输入的文字图像输出正确的文字识别结果的概率;模型结构的识别速度则为模型结构根据输入的文字图像输出文字识别结果时所需的时间均值。
具体地,当模型结构的识别速度小于等于预设速度时,模型结构的奖励值的计算公式为:
reward=acc
在公式中:reward为模型结构的奖励值;acc为模型结构的识别准确率。
当模型结构的识别速度大于预设速度时,模型结构的奖励值的计算公式为:
Figure BDA0002094851760000101
在公式中:reward为模型结构的奖励值;acc为模型结构的识别准确率;ttarget为预设速度;ttest为模型结构的识别速度。
可以理解的是,本步骤在利用所获取的训练数据获取模型结构的识别准确率和识别速度时,可以根据全部的训练数据来获取模型结构的识别准确率和识别速度。
本步骤在利用所获取的训练数据获取模型结构的识别准确率和识别速度时,也可以采用以下方式:使用训练数据对应的训练集对模型结构进行预设次数的训练之后,再使用训练数据对应的验证集获取模型结构的识别准确率和识别速度。其中,本步骤中的预设次数可以为训练集中所包含图像数量的预设倍数对应的次数,例如预设次数可以为训练集中所包含图像数量的5倍的次数,即可以认为将训练集中的同一数据进行5次训练。
具体地,本步骤中的预设条件可以为:在预设次数内得到的奖励值相等,或者在预设次数内得到的奖励值之间的差值小于或等于预设阈值等等。
在105中,利用所述训练数据对所述最终模型结构进行训练,直至所述最终模型结构收敛,得到文字识别模型。
在本步骤中,使用步骤101所获取的训练数据对步骤104所得到的最终模型结构进行训练,直至该最终模型结构收敛,得到文字识别模型。利用本步骤所得到的文字识别模型,能够根据所输入的图像,输出图像中所包含文字的识别结果。
具体地,本步骤在利用训练数据对最终模型结构进行训练,直至最终模型结构收敛时,可以采用以下方式:将训练数据中的各文字图像作为最终模型结构的输入,获取最终模型结构针对各文字图像的输出结果;根据各文字图像的输出结果与训练数据中各文字图像中所包含文字的识别结果确定最终模型结构的损失函数;根据最终模型结构的损失函数调整最终模型结构的参数,直至最终模型结构的损失函数最小化,得到文字识别模型。
可以理解的是,本步骤中最终模型结构的损失函数最小化时可以包括:在预设次数内得到的损失函数相等,或者在预设次数内得到的损失函数之间的差值小于或等于预设阈值,等等。
可以理解的是,若步骤101中所获取的是属于某一应用领域的训练数据,则本步骤所得到的文字识别模型能够针对属于该应用领域的文字图像输出准确的文字识别结果,从而提升文字识别模型针对特定应用领域的文字图像的识别准确率和识别速度。
另外,由于本发明在得到最终模型结构时兼顾了模型结构的识别准确率和识别速度,因此本步骤所得到的文字识别模型能够更加适应于移动终端进行使用,并且避免了人工设计模型结构所导致的成本较高的问题,缩短了文字识别模型的开发周期,提升了文字识别模型的建立效率。
图2为本发明一实施例提供的一种建立文字识别模型的装置结构图,如图2中所示,所述装置包括:获取单元21、确定单元22、构建单元23、处理单元24以及训练单元25。
获取单元21,用于获取训练数据,所述训练数据中包含各文字图像以及各文字图像中所包含文字的识别结果。
获取单元21获取各文字图像以及各文字图像中所包含文字的识别结果作为训练数据,所获取的训练数据用于训练得到文字识别模型。
具体地,获取单元21在获取训练数据时,可以同时获取属于不同应用领域的各文字图像以及各文字图像中所包含文字的识别结果作为训练数据,使得最终训练得到的文字识别模型能够针对不同应用领域的文字图像来输出相应的检测结果。
获取单元21也可以仅获取属于预设应用领域的各文字图像以及各文字图像中所包含文字的识别结果作为训练数据,使得最终训练得到的文字识别模型仅能够针对属于预设应用领域的文字图像来输出相应的检测结果。
为了避免在之后的训练过程中产生过拟合的问题,获取单元21在获取训练数据之后,还可以包括以下内容:按照预设比例将所获取的训练数据划分为训练集和验证集。其中,训练集用于神经网络的迭代训练,而验证集则用于对迭代训练后的神经网络进行验证。
确定单元22,用于确定搜索空间,所述搜索空间中包含构建模型结构的卷积神经网络和循环神经网络的各参数以及各参数的取值范围。
确定单元22用于确定包含构建模型结构的卷积神经网络和循环神经网络的各参数以及各参数的取值范围作为搜索空间,进而利用所确定的搜索空间进行模型结构的构建。
现有技术中,通常使用单一类型的神经网络进行模型结构的构建。但由于单一类型的神经网络对应的搜索空间中包含的参数有限,可能会导致最终得到的文字识别模型的识别效果较差的问题。因此本发明为了拓展搜索空间中所包含参数的范围,提升模型的文字识别效果,在确定单元22中确定包含卷积神经网络和循环神经网络这两种类型的神经网络的参数的搜索空间。
具体地,确定单元22所确定的搜索空间中卷积神经网络的各参数包含卷积神经网络的通道数、卷积层的卷积核大小、卷积层的重复次数以及卷积层的扩张倍数;本步骤所确定的搜索空间中循环神经网络的各参数包含循环神经网络的通道数、门控循环单元层的隐藏元的节点数、门控循环单元层的激活函数类型以及全连接层的节点数。可以理解的是,搜索空间中卷积神经网络的通道数与循环神经网络的通道数所对应的取值范围相同。
其中,搜索空间中卷积层的卷积核大小的取值范围可以为3和5;搜索空间中卷积层的重复次数的取值范围可以为1至4之间的各数值;搜索空间中卷积层的扩张倍数的取值范围可以为2至6之间的各数值;搜索空间中网络结构的通道数的取值范围可以为以8为步长、从8至64之间的各数值;搜索空间中全连接层的节点数的取值范围可以为以40为步长、从0至120之间的各数值;搜索空间中门控循环单元层的隐藏元的节点数的取值范围可以为以30为步长、从90至150之间的各数值;搜索空间中门控循环单元层的激活函数类型的取值范围可以为sigmoid函数、tanh函数、relu函数以及identity函数。
构建单元23,用于分别从所述卷积神经网络以及循环神经网络的各参数的取值范围中进行采样,在利用各参数取值的采样结果得到模型结构序列之后,根据所述模型结构序列构建对应的模型结构。
构建单元23分别从确定单元22所确定的搜索空间中的卷积神经网络以及循环神经网络的各参数的取值范围中进行采样,获取卷积神经网络以及循环神经网络各参数取值的采样结果,从而在利用各参数取值的采样结果得到模型结构序列之后,根据所得到的模型结构序列构建对应的模型结构。
具体地,构建单元23在从卷积神经网络的各参数的取值范围中进行采样时,可以采用以下方式:确定所构建的模型结构中卷积神经网络的预设块数;从卷积神经网络的各参数的取值范围中进行相应次数的重复采样,分别得到各块卷积神经网络中各参数取值的采样结果,从而将各块卷积神经网络中各参数取值的采样结果作为所构建的模型结构序列中卷积神经网络各参数取值的采样结果。
另外,构建单元23在从卷积神经网络的各参数的取值范围中进行随机采样时,也可以直接从卷积神经网络的各参数的取值范围中进行一次随机采样,即针对卷积神经网络中的各参数仅获取一个采样结果。
可以理解的是,构建单元23在利用对应各参数取值的采样结果得到模型结构序列时,可以直接根据各参数取值的采样结果来得到模型结构序列。另外,构建单元23也可以根据各参数取值的采样结果所对应的索引来得到模型结构序列。
可以理解的是,构建单元23在根据模型结构序列构建对应的模型结构时,可以通过序列解析的方式,根据所得到的模型结构序列中各参数的取值来构建对应的模型结构。构建单元23使用现有技术来根据模型结构序列构建模型结构,在此不进行赘述。
处理单元24,用于依据所述训练数据获取所述模型结构的奖励值,并确定所述奖励值是否满足预设条件,若否,则转至所述构建单元构建模型结构,直至所述模型结构的奖励值满足预设条件,输出所述模型结构作为最终模型结构。
处理单元24依据获取单元21中所获取的训练数据来获取构建单元23中所构建的模型结构的奖励值,进而确定所获取的奖励值是否满足预设条件,若否,则转至构建单元23重新构建模型结构,进而再确定重新生成的模型结构的奖励值是否满足预设条件,以此循环进行,直至模型结构的奖励值满足预设条件,则输出该模型结构作为最终模型结构。
由于在进行文字识别时,尤其是移动终端在进行文字识别时,往往需要权衡识别速度和识别准确率的问题,即期望最终所得到的文字识别模型能够做到又快又好。但在目前的现有技术中,权衡文字识别模型的识别速度和识别准确率往往依赖于对模型结构的人为设计,即由人工不断地调整模型结构的参数。而基于人工调试的方式来设计网络结构时,会耗费大量的人力成本,且使得文字识别模型的开发周期较长。
因此为了能够兼顾模型的识别准确率和识别速度,处理单元24在依据训练数据获取模型结构的奖励值时,可以采用以下方式:依据所获取的训练数据获取模型结构的识别准确率和识别速度;利用所获取的识别准确率和识别速度来获取模型结构的奖励值。
其中,处理单元24可以将识别准确率和识别速度的乘积作为模型结构的奖励值。处理单元24在利用所获取的识别准确率和识别速度来获取模型结构的奖励值时,还可以采用以下方式:将所获取的识别速度和预设速度进行比较,根据比较结果确定奖励值计算公式;利用所确定的奖励值计算公式,根据预设速度、识别速度以及识别准确率来获取模型结构的奖励值。也就是说,处理单元24利用模型结构的识别准确率和识别速度来得到模型结构的奖励值,使得最终得到的模型结构能够兼顾识别准确率和识别速度。
其中,模型结构的识别准确率为模型结构根据输入的文字图像输出正确的文字识别结果的概率;模型结构的识别速度则为模型结构根据输入的文字图像输出文字识别结果时所需的时间均值。
具体地,当模型结构的识别速度小于等于预设速度时,模型结构的奖励值的计算公式为:
reward=acc
在公式中:reward为模型结构的奖励值;acc为模型结构的识别准确率。
当模型结构的识别速度大于预设速度时,模型结构的奖励值的计算公式为:
Figure BDA0002094851760000151
在公式中:reward为模型结构的奖励值;acc为模型结构的识别准确率;ttarget为预设速度;ttest为模型结构的识别速度。
可以理解的是,处理单元24在利用所获取的训练数据获取模型结构的识别准确率和识别速度时,可以根据全部的训练数据来获取模型结构的识别准确率和识别速度。
处理单元24在利用所获取的训练数据获取模型结构的识别准确率和识别速度时,也可以采用以下方式:使用训练数据对应的训练集对模型结构进行预设次数的训练之后,再使用训练数据对应的验证集获取模型结构的识别准确率和识别速度。其中,处理单元24中的预设次数可以为训练集中所包含图像数量的预设倍数对应的次数,例如预设次数可以为训练集中所包含图像数量的5倍的次数,即可以认为将训练集中的同一数据进行5次训练。
具体地,处理单元24中的预设条件可以为:在预设次数内得到的奖励值相等,或者在预设次数内得到的奖励值之间的差值小于或等于预设阈值等等。
训练单元25,用于利用所述训练数据对所述最终模型结构进行训练,直至所述最终模型结构收敛,得到文字识别模型。
训练单元25利用获取单元21所获取的训练数据对处理单元23所得到的最终模型结构进行训练,直至该最终模型结构收敛,得到文字识别模型。利用训练单元25所得到的文字识别模型,能够根据所输入的图像,输出图像中所包含文字的识别结果。
具体地,训练单元25在利用训练数据对最终模型结构进行训练,直至最终模型结构收敛时,可以采用以下方式:将训练数据中的各文字图像作为最终模型结构的输入,获取最终模型结构针对各文字图像的输出结果;根据各文字图像的输出结果与训练数据中各文字图像中所包含文字的识别结果确定最终模型结构的损失函数;根据最终模型结构的损失函数调整最终模型结构的参数,直至最终模型结构的损失函数最小化,得到文字识别模型。
可以理解的是,训练单元25中最终模型结构的损失函数最小化时可以包括:在预设次数内得到的损失函数相等,或者在预设次数内得到的损失函数之间的差值小于或等于预设阈值,等等。
可以理解的是,若获取单元21中所获取的是属于某一应用领域的训练数据,则训练单元25所得到的文字识别模型能够针对属于该应用领域的文字图像输出准确的文字识别结果,从而提升文字识别模型针对特定应用领域的文字图像的识别准确率和识别速度。
如图3所示,计算机***/服务器012以通用计算设备的形式表现。计算机***/服务器012的组件可以包括但不限于:一个或者多个处理器或者处理单元016,***存储器028,连接不同***组件(包括***存储器028和处理单元016)的总线018。
总线018表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
计算机***/服务器012典型地包括多种计算机***可读介质。这些介质可以是任何能够被计算机***/服务器012访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
***存储器028可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)030和/或高速缓存存储器032。计算机***/服务器012可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***034可以用于读写不可移动的、非易失性磁介质(图3未显示,通常称为“硬盘驱动器”)。尽管图3中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线018相连。存储器028可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块042的程序/实用工具040,可以存储在例如存储器028中,这样的程序模块042包括——但不限于——操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块042通常执行本发明所描述的实施例中的功能和/或方法。
计算机***/服务器012也可以与一个或多个外部设备014(例如键盘、指向设备、显示器024等)通信,在本发明中,计算机***/服务器012与外部雷达设备进行通信,还可与一个或者多个使得用户能与该计算机***/服务器012交互的设备通信,和/或与使得该计算机***/服务器012能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口022进行。并且,计算机***/服务器012还可以通过网络适配器020与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器020通过总线018与计算机***/服务器012的其它模块通信。应当明白,尽管图中未示出,可以结合计算机***/服务器012使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理单元016通过运行存储在***存储器028中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的方法流程。
随着时间、技术的发展,介质含义越来越广泛,计算机程序的传播途径不再受限于有形介质,还可以直接从网络下载等。可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
利用本发明所提供的技术方案,通过对搜索空间中卷积神经网络和循环神经网络各参数取值进行联合搜索,构建相应的模型结构,再根据所构建的模型结构的奖励值来确定最优的网络结构,进而根据所确定的网络结构来训练得到文字识别模型,无需耗费大量的人力成本来探索网络结构的最优结构,缩短了文字识别模型的开发周期,提升了文字识别模型的开发效率,并且由于扩展了构建模型结构时所使用参数的范围,从而提升了文字识别模型的识别效果。
在本发明所提供的几个实施例中,应该理解到,所揭露的***,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (18)

1.一种建立文字识别模型的方法,其特征在于,所述方法包括:
获取训练数据,所述训练数据中包含各文字图像以及各文字图像中所包含文字的识别结果,所述各文字图像属于预设应用领域;
确定搜索空间,所述搜索空间中包含构建模型结构的卷积神经网络和循环神经网络的各参数以及各参数的取值范围;
分别从所述卷积神经网络以及循环神经网络的各参数的取值范围中进行采样,在利用各参数取值的采样结果得到模型结构序列之后,根据所述模型结构序列构建对应的模型结构;
依据所述训练数据获取所述模型结构的奖励值,并确定所述奖励值是否满足预设条件,若否,则转至执行构建模型结构的步骤,直至所述模型结构的奖励值满足预设条件,输出所述模型结构作为最终模型结构;
利用所述训练数据对所述最终模型结构进行训练,直至所述最终模型结构收敛,得到文字识别模型。
2.根据权利要求1所述的方法,其特征在于,在获取训练数据之后,还包括:按照预设比例,将所述训练数据划分为训练集和验证集。
3.根据权利要求1所述的方法,其特征在于,所述从所述卷积神经网络的各参数的取值范围中进行采样包括:
确定所构建的模型结构中卷积神经网络的预设块数;
从所述卷积神经网络的各参数的取值范围中进行相应次数的重复采样,分别得到各块卷积神经网络中各参数取值的采样结果。
4.根据权利要求2所述的方法,其特征在于,所述依据所述训练数据获取所述模型结构的奖励值包括:
依据所述训练数据获取所述模型结构的识别准确率和识别速度;
利用所述识别准确率和识别速度获取模型结构的奖励值。
5.根据权利要求4所述的方法,其特征在于,所述利用所述识别准确率和识别速度获取模型结构的奖励值包括:
将所述识别速度和预设速度进行比较,根据比较结果确定奖励值计算公式;
利用所确定的奖励值计算公式,根据所述预设速度、识别速度以及识别准确率获取所述模型结构的奖励值。
6.根据权利要求4所述的方法,其特征在于,所述利用所述训练数据获取所述模型结构的识别准确率和识别速度包括:
使用所述训练集对所述模型结构进行预设次数的训练之后,再使用所述验证集获取所述模型结构的识别准确率和识别速度。
7.根据权利要求1所述的方法,其特征在于,所述预设条件包括:
在预设次数内得到的奖励值相等;或者
在预设次数内得到的奖励值之间的差值小于或等于预设阈值。
8.根据权利要求1所述的方法,其特征在于,所述利用所述训练数据对所述最终模型结构进行训练,直至所述最终模型结构收敛包括:
将所述训练数据中的各文字图像作为所述最终模型结构的输入,获取所述最终模型结构针对各文字图像的输出结果;
根据所述各文字图像的输出结果与所述训练数据中各文字图像中所包含文字的识别结果确定所述最终模型结构的损失函数;
根据所述最终模型结构的损失函数调整所述最终模型结构的参数,直至所述最终模型结构的损失函数最小化,得到文字识别模型。
9.一种建立文字识别模型的装置,其特征在于,所述装置包括:
获取单元,用于获取训练数据,所述训练数据中包含各文字图像以及各文字图像中所包含文字的识别结果,所述各文字图像属于预设应用领域;
确定单元,用于确定搜索空间,所述搜索空间中包含构建模型结构的卷积神经网络和循环神经网络的各参数以及各参数的取值范围;
构建单元,用于分别从所述卷积神经网络以及循环神经网络的各参数的取值范围中进行采样,在利用各参数取值的采样结果得到模型结构序列之后,根据所述模型结构序列构建对应的模型结构;
处理单元,用于依据所述训练数据获取所述模型结构的奖励值,并确定所述奖励值是否满足预设条件,若否,则转至所述构建单元构建模型结构,直至所述模型结构的奖励值满足预设条件,输出所述模型结构作为最终模型结构;
训练单元,用于利用所述训练数据对所述最终模型结构进行训练,直至所述最终模型结构收敛,得到文字识别模型。
10.根据权利要求9所述的装置,其特征在于,所述获取单元在获取训练数据之后,还执行:按照预设比例,将所述训练数据划分为训练集和验证集。
11.根据权利要求9所述的装置,其特征在于,所述构建单元在从所述卷积神经网络的各参数的取值范围中进行采样时,具体执行:
确定所构建的模型结构中卷积神经网络的预设块数;
从所述卷积神经网络的各参数的取值范围中进行相应次数的重复采样,分别得到各块卷积神经网络中各参数取值的采样结果。
12.根据权利要求10所述的装置,其特征在于,所述处理单元在依据所述训练数据获取所述模型结构的奖励值时,具体执行:
依据所述训练数据获取所述模型结构的识别准确率和识别速度;
利用所述识别准确率和识别速度获取模型结构的奖励值。
13.根据权利要求12所述的装置,其特征在于,所述处理单元在利用所述识别准确率和识别速度获取模型结构的奖励值时,具体执行:
将所述识别速度和预设速度进行比较,根据比较结果确定奖励值计算公式;
利用所确定的奖励值计算公式,根据所述预设速度、识别速度以及识别准确率获取所述模型结构的奖励值。
14.根据权利要求12所述的装置,其特征在于,所述处理单元在依据所述训练数据获取所述模型结构的识别准确率和识别速度时,具体执行:
使用所述训练集对所述模型结构进行预设次数的训练之后,再使用所述验证集获取所述模型结构的识别准确率和识别速度。
15.根据权利要求9所述的装置,其特征在于,所述预设条件包括:
在预设次数内得到的奖励值相等;或者
在预设次数内得到的奖励值之间的差值小于或等于预设阈值。
16.根据权利要求9所述的装置,其特征在于,所述训练单元在利用所述训练数据对所述最终模型结构进行训练,直至所述最终模型结构收敛时,具体执行:
将所述训练数据中的各文字图像作为所述最终模型结构的输入,获取所述最终模型结构针对各文字图像的输出结果;
根据所述各文字图像的输出结果与所述训练数据中各文字图像中所包含文字的识别结果确定所述最终模型结构的损失函数;
根据所述最终模型结构的损失函数调整所述最终模型结构的参数,直至所述最终模型结构的损失函数最小化,得到文字识别模型。
17.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~8中任一项所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1~8中任一项所述的方法。
CN201910515396.6A 2019-06-14 2019-06-14 建立文字识别模型的方法、装置、设备和计算机存储介质 Active CN110378346B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910515396.6A CN110378346B (zh) 2019-06-14 2019-06-14 建立文字识别模型的方法、装置、设备和计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910515396.6A CN110378346B (zh) 2019-06-14 2019-06-14 建立文字识别模型的方法、装置、设备和计算机存储介质

Publications (2)

Publication Number Publication Date
CN110378346A CN110378346A (zh) 2019-10-25
CN110378346B true CN110378346B (zh) 2021-12-24

Family

ID=68250285

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910515396.6A Active CN110378346B (zh) 2019-06-14 2019-06-14 建立文字识别模型的方法、装置、设备和计算机存储介质

Country Status (1)

Country Link
CN (1) CN110378346B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110852438B (zh) * 2019-11-11 2023-08-04 北京百度网讯科技有限公司 模型生成方法和装置
CN111783937A (zh) * 2020-05-19 2020-10-16 华为技术有限公司 一种神经网络构建方法以及***
CN111738098B (zh) * 2020-05-29 2022-06-17 浪潮(北京)电子信息产业有限公司 一种车辆识别方法、装置、设备及存储介质
CN111667057B (zh) * 2020-06-05 2023-10-20 北京百度网讯科技有限公司 用于搜索模型结构的方法和装置
CN112634904A (zh) * 2020-12-22 2021-04-09 北京有竹居网络技术有限公司 热词识别方法、装置、介质和电子设备
CN113221871B (zh) * 2021-05-31 2024-02-02 支付宝(杭州)信息技术有限公司 一种文字识别方法、装置、设备及介质
CN113469078B (zh) * 2021-07-07 2023-07-04 西安电子科技大学 基于自动设计长短时记忆网络的高光谱图像分类方法
CN116205232B (zh) * 2023-02-28 2023-09-01 之江实验室 一种确定目标模型的方法、装置、存储介质及设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200842733A (en) * 2007-04-17 2008-11-01 Univ Nat Chiao Tung Object image detection method
CN105678292A (zh) * 2015-12-30 2016-06-15 成都数联铭品科技有限公司 基于卷积及递归神经网络的复杂光学文字序列识别***
CN106407971A (zh) * 2016-09-14 2017-02-15 北京小米移动软件有限公司 文字识别方法及装置
CN106650721B (zh) * 2016-12-28 2019-08-13 吴晓军 一种基于卷积神经网络的工业字符识别方法
CN108847222B (zh) * 2018-06-19 2020-09-08 Oppo广东移动通信有限公司 语音识别模型生成方法、装置、存储介质及电子设备
CN109242098A (zh) * 2018-07-25 2019-01-18 深圳先进技术研究院 限定代价下神经网络结构搜索方法及相关产品
CN109598332B (zh) * 2018-11-14 2021-04-09 北京市商汤科技开发有限公司 神经网络生成方法及装置、电子设备和存储介质
CN109740657B (zh) * 2018-12-27 2021-10-29 郑州云海信息技术有限公司 一种用于图像数据分类的神经网络模型的训练方法与设备

Also Published As

Publication number Publication date
CN110378346A (zh) 2019-10-25

Similar Documents

Publication Publication Date Title
CN110378346B (zh) 建立文字识别模型的方法、装置、设备和计算机存储介质
CN110363810B (zh) 建立图像检测模型的方法、装置、设备和计算机存储介质
CN108170749B (zh) 基于人工智能的对话方法、装置及计算机可读介质
CN107992596B (zh) 一种文本聚类方法、装置、服务器和存储介质
CN109815487B (zh) 文本质检方法、电子装置、计算机设备及存储介质
CN110366734B (zh) 优化神经网络架构
US20210256390A1 (en) Computationally efficient neural network architecture search
CN108595629B (zh) 用于答案选择***的数据处理方法及应用
CN109447156B (zh) 用于生成模型的方法和装置
CN108090043B (zh) 基于人工智能的纠错举报处理方法、装置及可读介质
CN107909088B (zh) 获取训练样本的方法、装置、设备和计算机存储介质
CN112434131B (zh) 基于人工智能的文本错误检测方法、装置、计算机设备
CN111291882A (zh) 一种模型转换的方法、装置、设备和计算机存储介质
CN111428448A (zh) 文本生成方法、装置、计算机设备及可读存储介质
CN110781413A (zh) 兴趣点确定方法及装置、存储介质、电子设备
CN112308077A (zh) 样本数据获取方法、图像分割方法、装置、设备和介质
CN111160049B (zh) 文本翻译方法、装置、机器翻译***和存储介质
CN110929532B (zh) 数据处理方法、装置、设备及存储介质
CN112214595A (zh) 类别确定方法、装置、设备及介质
CN109597881B (zh) 匹配度确定方法、装置、设备和介质
CN109710523B (zh) 视觉稿的测试用例生成方法及装置、存储介质、电子设备
CN109657127B (zh) 一种答案获取方法、装置、服务器及存储介质
CN111240971B (zh) 风控规则测试用例的生成方法、装置、服务器和存储介质
CN110675361B (zh) 建立视频检测模型以及视频检测的方法、装置
CN110852066B (zh) 一种基于对抗训练机制的多语言实体关系抽取方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant