CN117333887A - 一种基于深度学习的甲骨文字体分类方法 - Google Patents

一种基于深度学习的甲骨文字体分类方法 Download PDF

Info

Publication number
CN117333887A
CN117333887A CN202311200964.6A CN202311200964A CN117333887A CN 117333887 A CN117333887 A CN 117333887A CN 202311200964 A CN202311200964 A CN 202311200964A CN 117333887 A CN117333887 A CN 117333887A
Authority
CN
China
Prior art keywords
oracle
convolution
deep learning
layer
font classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311200964.6A
Other languages
English (en)
Inventor
袁江
陈善雄
王玥然
吴春明
张重生
莫伯峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest University
Original Assignee
Southwest University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest University filed Critical Southwest University
Priority to CN202311200964.6A priority Critical patent/CN117333887A/zh
Publication of CN117333887A publication Critical patent/CN117333887A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • G06V30/244Division of the character sequences into groups prior to recognition; Selection of dictionaries using graphical properties, e.g. alphabet type or font
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/1801Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
    • G06V30/18019Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
    • G06V30/18038Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters
    • G06V30/18048Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters with interaction between the responses of different filters, e.g. cortical complex cells
    • G06V30/18057Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19153Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1918Fusion techniques, i.e. combining data from various sources, e.g. sensor fusion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Character Discrimination (AREA)

Abstract

一种基于深度学习的甲骨文字体分类方法,包括步骤:S1、采集甲骨文字体的临摹甲骨文图像;S2、首先对所有临摹甲骨文图像进行预处理,然后将图像数据集分为训练集和测试集,最后进行数据增强;S3、构建基于深度学习的甲骨文字体分类模型;S4、将步骤S2中预处理后的训练集输入步骤S3搭建的基于深度学习的甲骨文字体分类模型中进行训练,用交叉熵损失函数进行反向传播更新网络参数,并通过AdamW优化器优化模型,最终得到训练好的基于深度学习的甲骨文字体分类模型;S5、将待分类的临摹甲骨文图像送入到步骤S4得到的训练好的基于深度学习的甲骨文字体分类模型中进行分类,得到待分类的临摹甲骨文图像的字体分类结果。

Description

一种基于深度学习的甲骨文字体分类方法
技术领域
本发明涉及计算机自动化技术领域,具体为基于深度学习的甲骨文字体分类方法。
背景技术
甲骨文是指中国商代和周代初期镌刻在龟甲和兽骨上的文字,它是世界上最古老的书写***之一。甲骨文是中华民族珍贵的非物质文化遗产,是中国早期语言文字发展的基础,其笔画和结构方式对后来中国文字的发展产生了深远的影响。甲骨文的相关研究有助于人们了解中国商代的历史和中国汉字的演变历程,已经受到了全世界的广泛关注。现目前对甲骨文字的研究已经成为一门独立的学科,即甲骨学,已经被广泛应用于历史、文化、语言学等研究领域。
甲骨文字体分类对促进甲骨文研究的进步有着非常重要的作用,是甲骨文研究领域的重要课题。近年来甲骨文字研究的进步大多都是基于甲骨文字体分类而做出的。目前甲骨文字体分类很大程度上依赖于专家知识,效率低且耗时长。此外,甲骨文是一种象形文字,具有图画性强、笔画繁多等特点,这要求甲骨文研究人员熟练的掌握甲骨文字学,笔迹学和考古类型学等专业知识才能做好甲骨文字体分类工作。因此,提出一种有效的自动化的甲骨文字体分类方法对甲骨文的研究有着重要意义。
发明内容
本发明针对现有技术的不足,提出一种利用深度学习的优势实现对临摹甲骨文图像进行甲骨文字体的自动分类的基于深度学习的甲骨文字体分类方法,具体技术方案如下:
一种基于深度学习的甲骨文字体分类方法,包括步骤:
S1、采集甲骨文字体的临摹甲骨文图像;
S2、首先对所有临摹甲骨文图像进行预处理,然后将图像数据集分为训练集和测试集,最后进行数据增强;
S3、构建基于深度学习的甲骨文字体分类模型;
S4、将步骤S2中预处理后的训练集输入步骤S3搭建的基于深度学习的甲骨文字体分类模型中进行训练,用交叉熵损失函数进行反向传播更新网络参数,并通过AdamW优化器优化模型,最终得到训练好的基于深度学习的甲骨文字体分类模型;
S5、将待分类的临摹甲骨文图像送入到步骤S4得到的训练好的基于深度学习的甲骨文字体分类模型中进行分类,得到待分类的临摹甲骨文图像的字体分类结果。
作为优选:所述步骤S3中,基于深度学习的甲骨文字体分类模型包括一个卷积特征提取模块、三组图卷积特征提取模块、三个残差门控循环单元和一个分类模块,其中卷积特征提取模块和图卷积特征提取模块对输入图像进行多尺度特征提取,残差门控循环单元对所提取到的特征进行特征融合,分类模块用于最终的类别预测。
作为优选:所述卷积特征提取模块由一个普通卷积块和二个残差卷积块组成,其中普通卷积块由二个3×3卷积单元串联组成,残差卷积块由二个3×3残差卷积单元串联组成。
作为优选:所述3×3卷积单元由一个卷积核大小为3×3的卷积层、一个批归一化层和一个GeLU激活函数依次串联组成。
作为优选:所述3×3残差卷积单元由一个主分支和一个残差连接组成,其中主分支由一个卷积核大小为3×3的卷积层、一个批归一化层和一个LU激活函数依次串联组成;残差连接将3×3残差卷积单元的输入与主分支的输出求和作为3×3残差卷积单元的输出。
作为优选:所述图卷积特征提取模块共计六个图卷积特征提取模块,具体来说,每两个图卷积特征提取模块组成一组,一个图卷积特征提取模块由一个图卷积模块和一个前馈网络串联组成。
作为优选:所述图卷积模块由二个全连接层、一个图卷积层、一个GeLU激活函数和一个残差连接组成,图卷积模块表示为:
Y=GeLU(GraphConv(XWin))Wout+X
其中,X和Y分别表示图卷积模块的输入和输出,GraphConv(·)表示图卷积层;Win和Wout表示全连接层的可学习参数;
图卷积层可以表示为:
其中,和/>分别表示图卷积层的输入和输出,W表示图卷积层中的可学习参数。进一步,Wagg和Wupdate分别表示图卷积中的Aggregate和Updatae操作中的可学习参数,W表示图卷积层中的可学习参数。
作为优选:
所述前馈网络由两个全连接层、一个GeLU激活函数和一个残差连接组成,表示为:
Z=GeLU(YWi)Wj+Y
其中,Y和Z分别表示前馈网络的输入和输出;Wi和Wj表示前馈网络的可学习参数。
作为优选:
所述残差门控循环单元由一个门控循环单元、一个GeLU激活函数、一个全连接层和一个残差连接组成,表示为:
ft=GeLU(Wt(GRU(xt,ft-1)+ft-1))+bt
其中,Wt和bt分别表示全连接层的可学习参数和偏置,xt和ft-1分别表示当前阶段的输入和前一阶段的输出,ft则表示当前阶段的输出。
作为优选:所述分类模块由一个平均池化层、一个全连接层、一个dropout层、一个全连接层和一个softmax层依次串联组成。
本发明的有益效果为:本发明公开的一种基于深度学习的甲骨文字体分类方法,利用深度学习的优势实现对临摹甲骨文图像进行甲骨文字体的自动分类。通过对甲骨整理好的若干种甲骨文字体的图像进行训练,全面利用图卷积神经网络和循环神经网络的特征提取能力和特征融合能力,建立甲骨文字体分类模型,实现对甲骨文字体的自动判别,显著提高甲骨文字体分类工作的效率。
附图说明
图1为本发明的流程示意图;
图2为本发明所构建的基于深度学习的甲骨文字体分类模型结构示意图;
图3为本发明的卷积特征提取模块结构图;
图4为本发明的甲骨文字体分类结果示例图;
图5为本发明的甲骨文字体聚类效果示意图。
具体实施方式
下面结合附图对本发明的较佳实施例进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
如图1所示:一种基于深度学习的甲骨文字体分类方法基本流程,具体步骤为:
S1、采集了16种甲骨文字体共计9426幅临摹甲骨文图像。本实施例基于首都师范大学甲骨文研究中心研究人员收集的数据。
S2、首先将临摹甲骨文图像中的文字截取出来得到一系列的文字片段,然后将同一字体的文字片段按照边缘进行拼接并将其等比例缩放到128×128的尺寸大小。然后将图像数据集分为训练集和测试集,其中训练集共计7578幅,测试集共计1848幅。最后对训练集的图像进行随机翻转、随机裁剪等数据增强操作。
S3、构建基于深度学习的甲骨文字体分类模型,并设置模型参数。
一种基于深度学习的甲骨文字体分类的模型,如图2所示,包括1个卷积特征提取模块(Convolution block)、3组图卷积特征提取模块(GC block)、3个残差门控循环单元(Residual GRU)和1个分类模块。
本实施例中,所述步骤S3中的卷积特征提取模块主要由1个普通卷积块和2个残差卷积块组成,如图3所示。其中普通卷积块由2个参数相同的卷积层组成,kenel size设置为3x3,stride和padding设置为1。残差卷积块由一个主分支和一个残差分支组成。主分支由一个卷积核大小为3x3,stride为2,padding为1的卷积层和一个卷积核大小为3x3,stride为1,padding为1的卷积层组成。残差分支通过一个卷积核大小为1x1,stride为2的卷积层调整原始特征图的通道数以实现特征图之间的对齐。上述所有的卷积层后都跟着1个批归一化层和1个GeLU激活函数。
本实施例中,所述步骤S3中的图卷积特征提取模块包括2个图卷积特征提取模块;1个图卷积特征提取模块具体由1个图卷积模块(Graph convolution)和1个前馈网络(FFN)串联组成。
进一步,图卷积模块具体包括2个全连接层、1个图卷积层、1个GeLU激活函数和1个残差连接。图卷积模块具体可以表示为:
Y=GeLU(GraphConv(XWin))Wout+X
其中,X和Y分别表示图卷积模块的输入和输出;GraphConv(·)表示图卷积层;Win和Wout表示全连接层的可学习参数。
进一步,图卷积层具体可以表示为:
其中,和/>分别表示图卷积层的输入和输出;Wagg和Wupdate分别表示Aggregate和Updatae操作中的可学习参数。
进一步,本实例所使用的图卷积操作可以具体表示为:
其中,节点xj表示xi的邻居节点,xi 是节点xi更新后的节点表示。Wagg代表图卷积操作中的可学习参数。
进一步,前馈网络具体包括2个全连接层、1个GeLU激活函数和1个残差连接,可以具体表示为:
Z=GeLU(YWi)Wj+Y
其中,Y和Z分别表示前馈网络的输入和输出;Wi和Wj表示前馈网络的可学习参数。
本实施例中,所述步骤S3中的残差门控循环单元具体包括1个门控循环单元(GRU)、1个GeLU激活函数、1个全连接层和1个残差连接,可以具体表示为:
ft=GeLU(Wt(GRU(xt,ft-1)+ft-1))+bt
其中,Wt和bt分别表示全连接层的可学习参数和偏置。
本实施例中,所述步骤S3中的分类模块具体是由1个平均池化层、1个全连接层、1个dropout层、1个全连接层和1个softmax层依次串联组成。
在构建完深度学习模型后,需要对模型的训练参数进行设置。
本实施例中,设置的网络训练参数包括:所有样本的批尺寸为16,迭代次数为100,初始学习率为5e-4,最小学习率为5e-7,学习率衰减策略为余弦退火策略,权重衰减系数为0.01。
S4、将步骤S2中预处理后的训练集输入步骤S3搭建的基于深度学习的甲骨文字体分类模型中进行训练,用交叉熵损失函数进行反向传播更新网络参数,并通过AdamW优化器优化模型,最终得到训练好的基于深度学习的甲骨文字体分类模型。
交叉熵损失函数公式:
其中,N表示样本数量,yi表示样本i的标签,pi表示样本i预测为正类的概率。
S5、将待分类的临摹甲骨文图像送入到步骤S4得到的训练好的基于深度学习的甲骨文字体分类模型中进行分类,得到待分类的临摹甲骨文图像的字体分类结果,进一步得到真实甲骨图像的字体分类结果,如图4所示。
基于本发明的甲骨文字体分类方法,将本实施例中的测试集送入到训练好的甲骨文字体分类模型中可以得到如图5所示的聚类效果。

Claims (10)

1.一种基于深度学习的甲骨文字体分类方法,其特征在于,包括步骤:
S1、采集甲骨文字体的临摹甲骨文图像;
S2、首先对所有临摹甲骨文图像进行预处理,然后将图像数据集分为训练集和测试集,最后进行数据增强;
S3、构建基于深度学习的甲骨文字体分类模型;
S4、将步骤S2中预处理后的训练集输入步骤S3搭建的基于深度学习的甲骨文字体分类模型中进行训练,用交叉熵损失函数进行反向传播更新网络参数,并通过AdamW优化器优化模型,最终得到训练好的基于深度学习的甲骨文字体分类模型;
S5、将待分类的临摹甲骨文图像送入到步骤S4得到的训练好的基于深度学习的甲骨文字体分类模型中进行分类,得到待分类的临摹甲骨文图像的字体分类结果。
2.根据权利要求1所述基于深度学习的甲骨文字体分类方法,其特征在于:所述步骤S3中,基于深度学习的甲骨文字体分类模型包括一个卷积特征提取模块、三组图卷积特征提取模块、三个残差门控循环单元和一个分类模块,其中卷积特征提取模块和图卷积特征提取模块对输入图像进行多尺度特征提取,残差门控循环单元对所提取到的特征进行特征融合,分类模块用于最终的类别预测。
3.根据权利要求2所述基于深度学习的甲骨文字体分类方法,其特征在于:所述卷积特征提取模块由一个普通卷积块和二个残差卷积块组成,其中普通卷积块由二个3×3卷积单元串联组成,残差卷积块由二个3×3残差卷积单元串联组成。
4.根据权利要求3所述基于深度学习的甲骨文字体分类方法,其特征在于:所述3×3卷积单元由一个卷积核大小为3×3的卷积层、一个批归一化层和一个GeLU激活函数依次串联组成。
5.根据权利要求3所述基于深度学习的甲骨文字体分类方法,其特征在于:所述3×3残差卷积单元由一个主分支和一个残差连接组成,其中主分支由一个卷积核大小为3×3的卷积层、一个批归一化层和一个LU激活函数依次串联组成;残差连接将3×3残差卷积单元的输入与主分支的输出求和作为3×3残差卷积单元的输出。
6.根据权利要求2所述基于深度学习的甲骨文字体分类方法,其特征在于:所述图卷积特征提取模块共计六个图卷积特征提取模块,具体来说,每两个图卷积特征提取模块组成一组,一个图卷积特征提取模块由一个图卷积模块和一个前馈网络串联组成。
7.根据权利要求6所述基于深度学习的甲骨文字体分类方法,其特征在于:所述图卷积模块由二个全连接层、一个图卷积层、一个GeLU激活函数和一个残差连接组成,图卷积模块表示为:
Y=GeLU(GraphConv(XWin))Wout+X
其中,X和Y分别表示图卷积模块的输入和输出,GraphConv(·)表示图卷积层;Win和Wout表示全连接层的可学习参数;
图卷积层可以表示为:
其中,和/>分别表示图卷积层的输入和输出,W表示图卷积层中的可学习参数。进一步,Wagg和Wupdate分别表示图卷积中的Aggregate和Updatae操作中的可学习参数,W表示图卷积层中的可学习参数。
8.根据权利要求6所述基于深度学习的甲骨文字体分类方法,其特征在于:所述前馈网络由两个全连接层、一个GeLU激活函数和一个残差连接组成,表示为:
Z=GeLU(YWi)Wj+Y
其中,Y和Z分别表示前馈网络的输入和输出;Wi和Wj表示前馈网络的可学习参数。
9.根据权利要求2所述基于深度学习的甲骨文字体分类方法,其特征在于:所述残差门控循环单元由一个门控循环单元、一个GeLU激活函数、一个全连接层和一个残差连接组成,表示为:
ft=GeLU(Wt(GRU(xt,ft-1)+ft-1))+bt
其中,Wt和bt分别表示全连接层的可学习参数和偏置,xt和ft-1分别表示当前阶段的输入和前一阶段的输出,ft则表示当前阶段的输出。
10.根据权利要求2所述基于深度学***均池化层、一个全连接层、一个dropout层、一个全连接层和一个softmax层依次串联组成。
CN202311200964.6A 2023-09-18 2023-09-18 一种基于深度学习的甲骨文字体分类方法 Pending CN117333887A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311200964.6A CN117333887A (zh) 2023-09-18 2023-09-18 一种基于深度学习的甲骨文字体分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311200964.6A CN117333887A (zh) 2023-09-18 2023-09-18 一种基于深度学习的甲骨文字体分类方法

Publications (1)

Publication Number Publication Date
CN117333887A true CN117333887A (zh) 2024-01-02

Family

ID=89294271

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311200964.6A Pending CN117333887A (zh) 2023-09-18 2023-09-18 一种基于深度学习的甲骨文字体分类方法

Country Status (1)

Country Link
CN (1) CN117333887A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117809318A (zh) * 2024-03-01 2024-04-02 微山同在电子信息科技有限公司 基于机器视觉的甲骨文识别方法及其***

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117809318A (zh) * 2024-03-01 2024-04-02 微山同在电子信息科技有限公司 基于机器视觉的甲骨文识别方法及其***
CN117809318B (zh) * 2024-03-01 2024-05-28 微山同在电子信息科技有限公司 基于机器视觉的甲骨文识别方法及其***

Similar Documents

Publication Publication Date Title
US20210049423A1 (en) Efficient image classification method based on structured pruning
CN111341386B (zh) 引入注意力的多尺度CNN-BiLSTM非编码RNA互作关系预测方法
CN110175628A (zh) 一种基于自动搜索与知识蒸馏的神经网络剪枝的压缩算法
CN114092832B (zh) 一种基于并联混合卷积网络的高分辨率遥感影像分类方法
CN106874478A (zh) 基于Spark的并行化随机标签子集多标签文本分类方法
CN114038037B (zh) 基于可分离残差注意力网络的表情标签修正和识别方法
CN111832546A (zh) 一种轻量级自然场景文本识别方法
CN114816497B (zh) 基于bert预训练模型的链接生成方法
CN117333887A (zh) 一种基于深度学习的甲骨文字体分类方法
CN112199532A (zh) 一种基于哈希编码和图注意力机制的零样本图像检索方法及装置
CN112597324A (zh) 一种基于相关滤波的图像哈希索引构建方法、***及设备
CN112364705A (zh) 基于多层次特征融合的轻量型cnn的表情识别方法
CN111460147A (zh) 一种基于语义增强的标题短文本分类方法
CN115329120A (zh) 一种知识图谱嵌入注意力机制的弱标注哈希图像检索架构
CN112434145A (zh) 一种基于图像识别和自然语言处理的看图作诗方法
CN111104508B (zh) 基于容错粗糙集的词袋模型文本表示方法、***及介质
Xia et al. Efficient synthesis of compact deep neural networks
CN115496948A (zh) 一种基于深度学习的网络监督细粒度图像识别方法和***
CN114881172A (zh) 一种基于加权词向量和神经网络的软件漏洞自动分类方法
CN114090813A (zh) 基于多通道特征融合的变分自编码器平衡哈希遥感图像检索方法
CN114170460A (zh) 一种基于多模态融合的艺术品分类方法及***
Hao et al. Research on Offline Handwritten Chinese Character Recognition Based on Deep Learning
CN117556064B (zh) 基于大数据分析的信息分类存储方法与***
CN115795037B (zh) 一种基于标签感知的多标签文本分类方法
CN116698410B (zh) 一种基于卷积神经网络的滚动轴承多传感器数据监控方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination