CN112580650B - 字体分类预测方法及*** - Google Patents
字体分类预测方法及*** Download PDFInfo
- Publication number
- CN112580650B CN112580650B CN202011529220.5A CN202011529220A CN112580650B CN 112580650 B CN112580650 B CN 112580650B CN 202011529220 A CN202011529220 A CN 202011529220A CN 112580650 B CN112580650 B CN 112580650B
- Authority
- CN
- China
- Prior art keywords
- network
- samples
- sample
- types
- font classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/153—Segmentation of character regions using recognition of characters or words
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/28—Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
- G06V30/287—Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet of Kanji, Hiragana or Katakana characters
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Controls And Circuits For Display Device (AREA)
- Character Discrimination (AREA)
Abstract
本发明公开了一种字体分类预测方法及***,所述方法包括以下步骤:S1,数据集准备,即收集并转化多种字体的样本,通过字符分割网络得到单个字符图片,确定每个字符的最小外接矩形,作为单个标准的样本;S2,数据采样,先选定N类样本中的1类作为基准样本集,通过模板匹配计算剩余N‑1类样本集和基准样本集的相似度,选择前M个样本作为一个批大小,循环采样训练;S3,确定网络结构、网络参数和损失函数,样本输入网络进行训练;S4,网络模型验证及测试,得到预测分类结果。根据本发明的方法,具有应用前景广泛、网络泛化能力更强的优势。
Description
技术领域
本发明涉及字体分类技术领域,尤其是涉及一种字体分类预测方法及***。
背景技术
目前,由于中文字体的分类标准没有体系,且应用场景不多,现阶段的字体分类技术主要用深度学习算法解决古字体分类问题,但在现有技术中,存在对应字体的样本不够广泛、难以获取且无实际应用背景的问题,因此,上述技术存在改进空间。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一。为此,本发明的一个目的在于提出一种字体分类预测方法,所述字体分类预测方法,具有应用前景广泛、网络泛化能力更强的优势。
本发明还提出了一种具有上述字体分类预测方法的***。
根据本发明实施例的字体分类预测方法,包括以下步骤:
S1,数据集准备,即收集并转化多种字体的样本,通过字符分割网络得到单个字符图片,确定每个字符的最小外接矩形,作为单个标准的样本;
S2,对N类样本进行数据采样,即选定N类样本中的1类作为基准样本,通过模板匹配计算剩余N-1类样本集和基准样本集的相似度,选择前M个样本作为一个批大小,循环采样训练;
S3,确定网络结构、网络参数和损失函数,输入样本进行网络训练;
S4,网络验证及测试,得到预测分类结果。
根据本发明的字体分类预测方法,具有应用前景广泛、网络泛化能力更强的优势。
根据本发明一个实施例的字体分类预测方法,在步骤S1中,多种字体包括:宋体、仿宋、楷体和黑体。
根据本发明一个实施例的字体分类预测方法,在步骤S2中,对N类样本进行数据采样的方式为在线采样方式。
根据本发明一个实施例的字体分类预测方法,在步骤S3中,网络结构采用卷积神经网络,卷积神经网络由卷积层、池化层以及全连接层组成。
根据本发明一个实施例的字体分类预测方法,采用深度学习算法对卷积神经网络进行训练。
根据本发明一个实施例的字体分类预测方法,在步骤S3中,损失函数为L2-softmax损失函数,损失函数的公式如下:
其中f(xi)为网络输出的特征向量,满足以下约束:
其中参数α有两种设置方式,一是在训练过程中设置α为固定值,二是通过训练获得。
根据本发明的第二方面的字体分类预测***,设采用了如第一方面任一种所述的字体分类预测方法,所述字体分类预测***包括:
数据收集模块,所述数据收集模块用于收集并转化多种字体的样本,通过字符分割网络得到单个字符样本;
数据采样模块,所述数据采样模块可对N类样本进行数据采样,选定N类样本中的1类作为基准样本,通过模板匹配计算N-1类样本和基准样本的相似度,选择前M个样本作为一个批大小,循环采样训练;
网络结构模块,所述网络结构模块可实现网络参数和损失函数的约束,样本参数可输入至所述网络结构模块中;
网络验证及测试模块,所述网络验证及测试模块可对样本参数进行网络验证及测试,得到预测结果。
根据本发明的第二方面的字体分类预测***,所述***与上述的字体分类预测方法相对于现有技术所具有的优势相同,在此不再赘述。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是根据本发明实施例的字体分类预测方法的流程图;
图2是根据本发明实施例的字体分类预测***的结构示意图。
附图标记:
100-字体分类预测***,1-数据收集模块,2-数据采样模块,3-网络结构模块,4-网络验证及测试模块。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
下面参考图1和图2描述根据本发明实施例的字体分类预测方法。如图1所示,根据本发明实施例的字体分类预测方法,可以包括以下步骤:
S1,数据集准备,即收集并转化多种字体的样本,通过字符分割网络得到单个字符图片,确定字体的最小外接对应区域;
S2,对N类样本进行数据采样,即选定N类样本中的1类作为基准样本,通过模板匹配计算N-1类样本和基准样本的相似度,并进行样本匹配,得到样本参数;例如,在一个具体的实施例中,设定一个批次的数量为200,则每一类样本为50个,即共四类样本。进一步地,将随机选择其中的一类作为基准样本,通过模板匹配计算基准样本与其他三类样本之间的相似度。进一步地,选择前M个样本作为一个批大小,送入网络训练,和传统的随机采样相比,步骤S2中的采样方式能够提高字体风格差异较小的字的分类准确率。
S3,确定网络结构、网络参数和损失函数,输入样本参数;
S4,对样本参数进行网络验证及测试,得到预测结果。
根据本发明的字体分类预测方法,应用前景广泛;通过模板匹配算法进行辅助采样,有利于提升网络的泛化能力。
根据本发明一个实施例的字体分类预测方法,在步骤S1中,多种字体可以包括:宋体、仿宋、楷体和黑体。进一步地,在数据集准备的过程中,首先需要保证每一类样本数大体比例相同;其次,将文档的截图或各种打印文档拍摄形成的照片;再次,通过字符分割网络得到单个字符图片;最终,得到字体的最小外接对应的区域。
需要说明的是,字体的种类不限于上述四种。
根据本发明一个实施例的字体分类预测方法,在步骤S2中,对N类样本进行数据采样的方式包括:在线采样方式,需要说明的是,对N类样本进行数据采样也可以采用边训练边采样的方式。
进一步地,在一个具体的实施例中,在线采样方式的具体过程如下:首先,确定网络训练的批大小,例如,可以设置batch size=200;其次,随机选择一类字体中的20个样本,利用模板匹配算法,对每一个样本去匹配剩余几类字体中最接近的前10个样本;最后,当总数达到300时结束采样,随机选取其中200个样本作为一个批大小,输入网络进行训练。
根据本发明一个实施例的字体分类预测方法,在步骤S3中,网络结构采用卷积神经网络。具体地,卷积神经网络由卷积层、池化层以及全连接层组成,具体地,卷积层可以设置多个。
根据本发明一个实施例的字体分类预测方法,采用深度学习算法对卷积神经网络进行训练。
根据本发明一个实施例的字体分类预测方法,在步骤S3中,损失函数为L2-softmax损失函数,具体地,损失函数的公式如下:
其中f(xi)为网络输出的特征向量,满足以下约束:
其中参数α有两种设置方式,一是在训练过程中设置α为固定值,二是通过训练获得。
需要说明的是,α的最小值为:
其中,C为分类的类别数。
进一步地,在现有技术中,视觉分类任务大多采取softmax损失,但由于softmax损失只能保证学习到的字体特征是可分的,不能保证字体风格差异较小的字学习到的特征足够远,同一字体下不同字的特征足够近;也就是说,由于中文字是由多种不同偏旁部首按照不同规则组成,所以导致不同字在多个字体之间的特征区分性差异较大。而本发明实施例的字体分类预测方法,采用L2-softmax作为损失函数,这样在分类之前,可以将学习到的特征进行归一化,进而通过约束来增强特征的区分度,从而提高分类准确率。
综上所述,根据本发明的字体分类预测方法,应用前景广泛;通过模板匹配算法进行辅助采样,有利于提升网络的泛化能力。
根据本发明的第二方面的字体分类预测***100,设采用了如第一方面任一种的字体分类预测方法,进一步地,如图2所示,字体分类预测***100可以包括:
数据收集模块1,进一步地,数据收集模块1用于收集并转化多种字体的样本,通过字符分割网络得到单个字符图片,确定字体的最小外接对应区域;在本发明的描述中,“多个”的含义是两个或两个以上。
数据采样模块2,进一步地,数据采样模块2可对N类样本进行数据采样,选定N类样本中的1类作为基准样本,通过模板匹配计算N-1类样本和基准样本的相似度,选择前M个样本作为一个批大小,循环采样训练;
网络结构模块3,进一步地,网络结构模块3可实现网络参数和损失函数的约束,进一步地,样本参数可输入至网络结构模块3中;
网络验证及测试模块4,进一步地,网络验证及测试模块4可对样本参数进行网络验证及测试,得到预测结果。
综上,根据本发明的第二方面的字体分类预测***100,具有应用前景更广泛、网络泛化能力更强的优势。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示意性实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
Claims (6)
1.一种字体分类预测方法,其特征在于,包括以下步骤:
S1,数据集准备,即收集并转化多种字体的样本,通过字符分割网络得到单个字符图片,确定每个字符的最小外接矩形,作为单个标准的样本;
S2,对N类样本进行数据采样,选定N类样本中的1类作为基准样本,通过模板匹配计算剩余N-1类样本集和基准样本集的相似度,选择所述N-1类样本集中每个样本集中相似度最高的前M个样本作为一个批大小,循环步骤S2进行采样;
S3,确定网络结构、网络参数和损失函数,输入样本进行网络训练;
S4,网络验证及测试,得到预测分类结果;
在步骤S3中,损失函数为L2-softmax损失函数,损失函数的公式如下:
其中为网络输出的特征向量,满足以下约束:
其中参数有两种设置方式,一是在训练过程中设置为固定值,二是通过训练获得。
2.根据权利要求1所述的字体分类预测方法,其特征在于,在步骤S1中,多种字体包括:宋体、仿宋、楷体和黑体。
3.根据权利要求1所述的字体分类预测方法,其特征在于,在步骤S2中,对N类样本进行数据采样的方式为在线采样方式。
4.根据权利要求1所述的字体分类预测方法,其特征在于,在步骤S3中,网络结构采用卷积神经网络,卷积神经网络由卷积层、池化层以及全连接层组成。
5.根据权利要求4所述的字体分类预测方法,其特征在于,采用深度学习算法对卷积神经网络进行训练。
6.一种字体分类预测***,其特征在于,采用了根据权利要求1-5中任一项所述的字体分类预测方法,所述***包括:
数据收集模块,所述数据收集模块用于收集并转化多种字体的样本,通过字符分割网络得到单个字符图片,确定每个字符的最小外接矩形,作为单个标准的样本;
数据采样模块,所述数据采样模块可对N类样本进行数据采样,选定N类样本中的1类作为基准样本,通过模板匹配计算N-1类样本和基准样本的相似度,选择所述N-1类样本集中每个样本集中相似度最高的前M个样本作为一个批大小,循环步骤S2进行采样;
网络结构模块,所述网络结构模块是由若干层卷积层和池化层以及全连接层组成,可实现网络参数和损失函数的约束,样本参数可输入至所述网络结构模块中;
网络验证及测试模块,所述网络验证及测试模块可对样本参数进行网络验证及测试,得到预测结果;
其中,损失函数为L2-softmax损失函数,损失函数的公式如下:
其中为网络输出的特征向量,满足以下约束:
其中参数有两种设置方式,一是在训练过程中设置为固定值,二是通过训练获得。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011529220.5A CN112580650B (zh) | 2020-12-22 | 2020-12-22 | 字体分类预测方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011529220.5A CN112580650B (zh) | 2020-12-22 | 2020-12-22 | 字体分类预测方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112580650A CN112580650A (zh) | 2021-03-30 |
CN112580650B true CN112580650B (zh) | 2023-04-07 |
Family
ID=75139027
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011529220.5A Active CN112580650B (zh) | 2020-12-22 | 2020-12-22 | 字体分类预测方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112580650B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5644656A (en) * | 1994-06-07 | 1997-07-01 | Massachusetts Institute Of Technology | Method and apparatus for automated text recognition |
CN106650721A (zh) * | 2016-12-28 | 2017-05-10 | 吴晓军 | 一种基于卷积神经网络的工业字符识别方法 |
CN108664996A (zh) * | 2018-04-19 | 2018-10-16 | 厦门大学 | 一种基于深度学习的古文字识别方法及*** |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11720790B2 (en) * | 2019-05-22 | 2023-08-08 | Electronics And Telecommunications Research Institute | Method of training image deep learning model and device thereof |
-
2020
- 2020-12-22 CN CN202011529220.5A patent/CN112580650B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5644656A (en) * | 1994-06-07 | 1997-07-01 | Massachusetts Institute Of Technology | Method and apparatus for automated text recognition |
CN106650721A (zh) * | 2016-12-28 | 2017-05-10 | 吴晓军 | 一种基于卷积神经网络的工业字符识别方法 |
CN108664996A (zh) * | 2018-04-19 | 2018-10-16 | 厦门大学 | 一种基于深度学习的古文字识别方法及*** |
Non-Patent Citations (2)
Title |
---|
Adaptive text recognition through visual matching;Chunhan Zhang et al.;《arXiv[cs.CV]》;20200914;第1-28页 * |
车牌字符识别算法研究;张倩蓓;《中国优秀博硕士学位论文全文数据库(硕士)工程科技Ⅱ辑》;20190815(第8期);第C034-169页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112580650A (zh) | 2021-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN107330127B (zh) | 一种基于文本图片检索的相似文本检测方法 | |
CN109063724B (zh) | 一种增强型生成式对抗网络以及目标样本识别方法 | |
CN107943784B (zh) | 基于生成对抗网络的关系抽取方法 | |
CN109671070B (zh) | 一种基于特征加权和特征相关性融合的目标检测方法 | |
CN109800811A (zh) | 一种基于深度学习的小样本图像识别方法 | |
CN113128369B (zh) | 一种融合均衡损失的轻量级网络人脸表情识别方法 | |
CN108229588B (zh) | 一种基于深度学习的机器学习识别方法 | |
CN107220641A (zh) | 一种基于深度学习的多语言文本分类方法 | |
CN114241273A (zh) | 基于Transformer网络和超球空间学习的多模态图像处理方法及*** | |
CN110114776A (zh) | 使用全卷积神经网络的字符识别的***和方法 | |
CN109344856B (zh) | 一种基于多层判别式特征学习的脱机签名鉴别方法 | |
CN111652273B (zh) | 一种基于深度学习的rgb-d图像分类方法 | |
CN110110845B (zh) | 一种基于并行多级宽度神经网络的学习方法 | |
CN107967497A (zh) | 基于卷积神经网络和极限学习机的手写体识别方法 | |
CN110414587A (zh) | 基于渐进学习的深度卷积神经网络训练方法与*** | |
CN110363830B (zh) | 元素图像生成方法、装置及*** | |
CN109766918A (zh) | 基于多层次上下文信息融合的显著性物体检测方法 | |
CN106355210A (zh) | 基于深度神经元响应模式的绝缘子红外图像特征表达方法 | |
CN112580650B (zh) | 字体分类预测方法及*** | |
CN113344110A (zh) | 一种基于超分辨率重建的模糊图像分类方法 | |
Zheng et al. | Segmentation-free multi-font printed Manchu word recognition using deep convolutional features and data augmentation | |
CN113065520A (zh) | 一种面向多模态数据的遥感图像分类方法 | |
CN116051984B (zh) | 一种基于Transformer的弱小目标检测方法 | |
CN114387524B (zh) | 基于多层级二阶表征的小样本学习的图像识别方法和*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 230088 21 / F, building A1, phase I, Zhongan chuanggu Science Park, No. 900, Wangjiang West Road, high tech Zone, Hefei, Anhui Applicant after: HEFEI HIGH DIMENSIONAL DATA TECHNOLOGY Co.,Ltd. Address before: 230088 9 / F, block C, building J2, phase II, innovation industrial park, 2800 innovation Avenue, hi tech Zone, Hefei City, Anhui Province Applicant before: HEFEI HIGH DIMENSIONAL DATA TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |