CN112463964B - 文本分类及模型训练方法、装置、设备及存储介质 - Google Patents
文本分类及模型训练方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112463964B CN112463964B CN202011386332.XA CN202011386332A CN112463964B CN 112463964 B CN112463964 B CN 112463964B CN 202011386332 A CN202011386332 A CN 202011386332A CN 112463964 B CN112463964 B CN 112463964B
- Authority
- CN
- China
- Prior art keywords
- training
- text
- classification
- training text
- difficulty
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种文本分类及模型训练方法、装置、设备及存储介质,本申请首先将训练文本集划分为若干份训练文本子集,并利用每一子集训练对应的初始文本分类模型,进而分别以每一子集为验证集,利用除验证集外其它各子集对应的初始文本分类模型对验证集中每一训练文本进行分类预测,以得到每一训练文本的分类难度,按照分类难度,将训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集。本申请文本分类方法为更好的训练目标文本分类模型提供了有力的训练数据支撑,后续可以基于不同分类难度的训练文本子集,按照分类难度由低至高顺序递进式训练目标文本分类模型,解决由于训练文本难度不均衡现象导致的模型训练效果不佳的问题。
Description
技术领域
本申请涉及训练数据处理技术领域,更具体的说,是涉及一种文本分类及模型训练方法、装置、设备及存储介质。
背景技术
在自然语言理解领域存在一项基础而重要的任务,即对文本进行分类。为了实现文本分类,现有技术一般通过训练神经网络模型,以通过模型进行文本分类处理。
在真实世界的场景下,大量的训练文本常常表现出一种长尾现象(又叫做样本不均衡问题),不同的训练文本包含的信息量大小不同,这就导致不同的训练文本被模型学习的难易程度不同,也即单个训练文本训练难度不均衡造成的样本不均衡现象。现有技术并未对训练文本进行区分,而是直接基于训练难度不均衡的样本直接训练模型,这就导致模型学习到的知识有限,进而导致最终分类能力不佳。
发明内容
鉴于上述问题,提出了本申请以便提供一种文本分类及模型训练方法、装置、设备及存储介质,以解决现有训练文本存在训练难度不均衡现象,在训练模型时会影响模型训练效果的问题。具体方案如下:
一种文本分类方法,包括:
将训练文本集划分为若干份训练文本子集,并利用每一份训练文本子集训练对应的初始文本分类模型;
分别以每一份训练文本子集为验证集,利用除所述验证集外的其它各训练文本子集对应的初始文本分类模型,对所述验证集中每一训练文本进行分类预测,得到验证集中每一训练文本的分类难度;
按照分类难度,将所述训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集。
优选地,所述将训练文本集划分为若干份训练文本子集,包括:
采用随机划分的方式,将训练文本集随机划分为若干份互不交叉的训练文本子集。
优选地,利用各初始文本分类模型,对验证集中每一训练文本进行分类预测,得到每一训练文本的分类难度的过程,包括:
针对验证集中每一训练文本,利用各初始文本分类模型,分别对所述训练文本进行分类预测,得到每一初始文本分类模型预测的所述训练文本属于标注类别的置信度;
基于各初始文本分类模型预测的所述训练文本属于标注类别的置信度,确定所述训练文本的分类难度。
优选地,所述基于各初始文本分类模型预测的所述训练文本属于标注类别的置信度,确定所述训练文本的分类难度,包括:
将各初始文本分类模型预测的所述训练文本属于标注类别的置信度的集合,确定为所述训练文本的分类难度表示;
或,
对各初始文本分类模型预测的所述训练文本属于标注类别的置信度进行数学运算,得到综合置信度,并将所述综合置信度确定为所述训练文本的分类难度表示。
优选地,所述按照分类难度,将所述训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集,包括:
参考设定的各分类难度区间,确定所述训练文本集中各训练文本的分类难度所处的分类难度区间;
将所述训练文本集中每一训练文本划分至所处分类难度区间对应的新训练文本子集,以得到每一分类难度区间对应的新训练文本子集。
优选地,所述按照分类难度,将所述训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集,包括:
以分类难度作为聚类条件,对所述训练文本集中各训练文本进行聚类,得到聚类后的若干聚类簇;
将每一聚类簇中的训练文本作为一个新训练文本子集,并基于聚类簇内各训练文本的分类难度确定聚类簇对应的新训练文本子集的分类难度。
一种文本分类模型训练方法,包括:
获取上述的文本分类方法所划分的各不同分类难度的训练文本子集;
按照分类难度由低至高的顺序,依次利用各训练文本子集训练目标文本分类模型。
优选地,所述按照分类难度由低至高的顺序,依次利用各训练文本子集训练目标文本分类模型,包括:
按照分类难度由低至高的顺序,采用增量训练方式依次利用各训练文本子集训练目标文本分类模型。
优选地,在所述依次利用各训练文本子集训练目标文本分类模型之后,该方法还包括:
以各不同难度的训练文本子集组成全量训练文本集,并利用所述全量训练文本集训练所述目标文本分类模型。
优选地,所述按照分类难度由低至高的顺序,采用增量训练方式依次利用各训练文本子集训练目标文本分类模型,包括:
按照各训练文本子集的分类难度由低至高顺序,确定与每一训练文本子集对应的训练阶段;
在每一训练阶段中,从所述训练阶段及之前各训练阶段分别对应的训练文本子集中采样训练文本,采样结果组成所述训练阶段对应的训练文本集合;
利用所述训练阶段对应的训练文本集合,训练目标文本分类模型。
优选地,所述利用所述训练阶段对应的训练文本集合,训练目标文本分类模型,包括:
利用所述训练阶段对应的训练文本集合,以及所述训练文本集合中各类别文本的分布信息,训练目标文本分类模型。
优选地,所述利用所述训练阶段对应的训练文本集合,以及所述训练文本集合中各类别文本的分布信息,训练目标文本分类模型,包括:
将所述训练阶段对应的训练文本集合中每一训练文本的编码特征输入目标文本分类模型;
由所述目标文本分类模型的隐层对所述编码特征进行处理,并基于处理后的编码特征预测所述训练文本在各分类标签上的得分;
由所述目标文本分类模型将所述训练文本在每一分类标签上的得分,与所述训练文本集合中对应分类标签下训练文本的数量相加,得到所述训练文本在每一分类标签上的综合得分,并对各分类标签上的综合得分进行归一化处理;
结合所述训练文本在各分类标签上归一化后的综合得分,以所述训练文本的分类损失为损失函数,训练目标文本分类模型。
一种文本分类装置,包括:
初始文本分类模型训练单元,用于将训练文本集划分为若干份训练文本子集,并利用每一份训练文本子集训练对应的初始文本分类模型;
分类难度预测单元,用于分别以每一份训练文本子集为验证集,利用除所述验证集外的其它各训练文本子集对应的初始文本分类模型,对所述验证集中每一训练文本进行分类预测,得到验证集中每一训练文本的分类难度;
训练文本再划分单元,用于按照分类难度,将所述训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集。
一种文本分类模型训练装置,包括:
训练文本子集获取单元,用于获取上述的文本分类方法所划分的各不同难度的训练文本子集;
目标文本分类模型训练单元,用于按照分类难度由低至高的顺序,依次利用各训练文本子集训练目标文本分类模型。
一种文本分类设备,包括:存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如上所述的文本分类方法的各个步骤。
一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现如上所述的文本分类方法的各个步骤。
借由上述技术方案,本申请的文本分类方法首先将训练文本集划分为若干份训练文本子集,并利用每一子集训练对应的初始文本分类模型,进而分别以每一子集为验证集,利用除验证集外其它各子集对应的初始文本分类模型对验证集中每一训练文本进行分类预测,以得到每一训练文本的分类难度,该分类难度衡量了训练文本被模型学习的难易程度,进而可以按照分类难度,将训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集,后续可以基于不同分类难度的训练文本子集,按照分类难度由低至高顺序递进式训练目标文本分类模型,从而解决由于训练文本难度不均衡现象导致的模型训练效果不佳的问题。本申请实施例提供的文本分类方法能够为目标文本分类模型的训练提供按照分类难度划分后的训练文本子集,也即为更好的训练目标文本分类模型提供了有力的训练数据支撑。同时,按照文本分类方法所提供的训练文本,可以解决由于训练文本难度不均衡现象导致的模型训练效果不佳的问题,使得训练后的目标文本分类模型分类能力更加优秀。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本申请实施例提供的文本分类方法的一流程示意图;
图2示例了一种目标文本分类模型的训练过程示意图;
图3为本申请实施例提供的一种文本分类装置结构示意图;
图4为本申请实施例提供的一种文本分类模型训练装置结构示意图;
图5为本申请实施例提供的文本分类设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请提供了一种文本分类方案,能够对分类难度不均衡的训练文本集进行划分,得到不同分类难度的训练文本子集。在此基础上,进一步提供了一种模型训练方案,应用该不同分类难度的训练文本子集,按照分类难度由低至高顺序,依次训练目标文本分类模型,使得训练后的目标文本分类模型的分类效果更佳。
本申请方案可以基于具备数据处理能力的终端实现,该终端可以是手机、电脑、服务器、云端等。
接下来,结合图1所述,本申请的文本分类方法可以包括如下步骤:
步骤S100、将训练文本集划分为若干份训练文本子集,并利用每一份训练文本子集训练对应的初始文本分类模型。
具体的,可以预先规定划分后训练文本子集的数量k,则可以采用随机划分或其它方式,将训练文本集随机划分为k份训练文本子集。k可以是大于等于2的设定数值。
除此之外,还可以采用其它划分方式,将训练文本集划分为若干份训练文本子集。各个训练文本子集互不交叉,也即各个训练文本子集中包含的训练文本互不相同。各个训练文本子集与训练文本集服从相同的样本空间分布。
针对划分后的每一份训练文本子集,利用训练文本子集训练对应的初始文本分类模型。
可以理解的是,若训练文本子集有k份,分别表示为xi(i=1~k),则对应的初始文本分类模型也有k个,与k份训练文本子集一一对应,分别表示为yi(i=1~k)。
对于初始文本分类模型,其可以采用多种不同架构的神经网络模型,文本分类模型用于实现文本分类,具体的分类任务可以是多种,如阅读理解、序列标注等。
步骤S110、分别以每一份训练文本子集为验证集,利用除所述验证集外的其它各训练文本子集对应的初始文本分类模型,对所述验证集中每一训练文本进行分类预测,得到验证集中每一训练文本的分类难度。
具体的,假设以xj为验证集,则可以利用yi(i≠j)分别对xj中每一训练文本进行分类预测,以得到验证集xj中每一训练文本的分类难度。
通过j遍历1-k,也即分别以各份训练文本子集作为验证集,最终可以得到训练文本集中每一训练文本的分类难度。
本步骤中,针对每一训练文本,使用k-1个初始文本分类模型进行分类预测,可以减小单个模型预测造成的偏差,从而提高模型结果的置信度,降低个体决策的失误率。另外,由于每一初始文本分类模型虽然是通过不同训练文本子集训练出来的,但是这些训练文本子集都是来自原始的训练文本集,它们都是同一个类别标签下的不同说法或者表达而已,具有很高的类间相似度,因此,通过综合k-1个初始文本分类模型对训练文本进行分类预测,结合分类预测结果可以衡量训练文本的分类难度。
分类难度衡量了训练文本被模型学习的难易程度,也即反映了训练文本包含的信息量多少。示例如,若多个初始分类模型对一训练文本的预测分类结果的置信度均较高,则说明该训练文本包含的信息量较少,学习难度较低,当前初始分类模型可以轻松学习到该训练文本所包含的信息。反之,若多个初始分类模型对一训练文本的预测分类结果的置信度均较低,则说明该训练文本包含的信息量较多,学习难度较高,当前初始分类模型无法学习到该训练文本所包含的全部信息。
步骤S120、按照分类难度,将所述训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集。
具体的,在确定了每一训练文本的分类难度之后,可以按照各训练文本的分类难度,将训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集,划分后的各训练文本子集对应的分类难度不同。
本申请实施例提供的文本分类方法,能够确定出训练文本集中各训练文本的分类难度,进而可以按照分类难度,将训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集,后续可以基于不同分类难度的训练文本子集,按照分类难度由低至高顺序递进式训练目标文本分类模型,这种渐进式的学习本质上模拟人脑学习新知识的过程,即由易到难、循序渐进,从而解决由于训练文本难度不均衡现象导致的模型训练效果不佳的问题。本申请实施例提供的文本分类方法能够为目标文本分类模型的训练提供按照分类难度划分后的训练文本子集,也即为更好的训练目标文本分类模型提供了有力的训练数据支撑。
在本申请的一些实施例中,对上述步骤S110中,利用各初始文本分类模型,对验证集中每一训练文本进行分类预测,得到每一训练文本的分类难度的过程进行介绍。
具体的,针对验证集中每一训练文本,利用各初始文本分类模型,分别对所述训练文本进行分类预测,得到每一初始文本分类模型预测的所述训练文本属于标注类别的置信度。
以上述实施例中示例的总共有k个初始文本分类模型为例,则针对一验证集中一训练文本,可以利用其中k-1个初始文本分类模型分别对其进行分类预测,总共可以得到k-1个置信度。
其中,该置信度为模型预测的训练文本属于标注类别的置信度,也即预测的训练文本在所属标签对应的类别上的置信度得分。
进一步的,基于各初始文本分类模型预测的所述训练文本属于标注类别的置信度,确定所述训练文本的分类难度。
具体的,每一置信度均可以在一定程度上衡量训练文本的分类难度,为了减少单体决策导致的偏差,本步骤中可以综合考虑k-1个置信度,来确定训练文本的最终分类难度。
一种可选的实施方式下,可以将各初始文本分类模型预测的所述训练文本属于标注类别的置信度的集合,确定为所述训练文本的分类难度表示。
也即,可以将k-1个置信度的集合,确定为训练文本的分类难度表示。
另一种可选的实施方式下,可以对各初始文本分类模型预测的所述训练文本属于标注类别的置信度进行数学运算,得到综合置信度,并将所述综合置信度确定为所述训练文本的分类难度表示。
其中,对各个置信度进行数学运算可以包含多种不同的方式,如求取多个置信度的平均值、中位值、最大值、最小值等,将数学运算结果作为综合置信度,并将该综合置信度确定为训练文本的分类难度表示。
当然,上述仅仅示例了两种可选的确定训练文本的分类难度的方式,除此之外,还可以采用其它可选的方式,以实现基于各初始文本分类模型预测的所述训练文本属于标注类别的置信度,确定所述训练文本的分类难度的目的。
在本申请的一些实施例中,进一步对上述步骤S120,按照分类难度,将所述训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集的过程进行介绍。
本申请实施例中介绍了上述步骤S120的两种可选的实现方式,分别如下:
第一种、
S1、参考设定的各分类难度区间,确定所述训练文本集中各训练文本的分类难度所处的分类难度区间。
具体的,本申请实施例中可以预先设定多个不同的分类难度区间,各分类难度区间的区间范围可以相同,也可以不同。
在划分好分类难度区间之后,针对训练文本集中各训练文本,可以依据训练文本的分类难度确定其所处的分类难度区间。
S2、将所述训练文本集中每一训练文本划分至所处分类难度区间对应的新训练文本子集,以得到每一分类难度区间对应的新训练文本子集。
具体的,训练文本集中每一训练文本按照其分类难度所处的分类难度区间,可以将训练文本划分至分类难度区间对应的新训练文本子集中。也即,对应于每一分类难度区间,设置有一新训练文本子集。
示例如:
预先划定的分类难度区间有N个,对应于每一分类难度区间设置有一新训练文本子集。则针对训练文本集中每一训练文本,根据其分类难度所处的分类难度区间,可以将其划分至对应的新训练文本子集中,最终可以得到N个新训练文本子集Ci(i=1,2,...,N)。其中,每个新训练文本子集中包含训练文本的数量表示为Num(Ci)。
一种可选的情况下,N个分类难度区间可以是:[0,0.2),[0.2,0.4),[0.4,0.5),[0.5,0.6),[0.6,0.7),[0.7,0.8),[0.8,0.9),[0.9,0.95),[0.95,1.0)。
上述在确定训练文本的分类难度所属的分类难度区间时,可以根据训练文本的分类难度的不同表示形式,设计对应的方案。
以前述实施例中介绍的两种不同的训练文本的分类难度表示形式为例进行说明:
当训练文本的分类难度表示为多个置信度的集合时,则可以采用投票原则,决定训练文本的分类难度所属的分类难度区间。
具体的,以置信度集合中每一置信度作为投票对象,确定每一投票对象所属的分类难度区间。对于每一分类难度区间,每当有一个投票对象落入当前分类难度区间时,当前分类难度区间的票数加1。当所有投票对象投票结束后,统计各个分类难度区间的最终票数,并选取最终票数最高的分类难度区间,作为训练文本的分类难度所属的分类难度区间。
需要说明的是,当存在多个分类难度区间的最终票数相同时,为了一致性考虑,可以统一选择分类难度较小的一个分类难度区间作为训练文本的分类难度所属的分类难度区间。或者是,可以统一选择分类难度较大的一个分类难度区间作为训练文本的分类难度所属的分类难度区间。
第二种、
S1、以分类难度作为聚类条件,对所述训练文本集中各训练文本进行聚类,得到聚类后的若干聚类簇。
具体的,通过使用分类难度这一属性作为聚类条件对各训练文本进行聚类,聚类后的每一聚类簇中包含的是分类难度相同或相近的训练文本,而不同聚类簇中训练文本的分类难度差异较大。
S2、将每一聚类簇中的训练文本作为一个新训练文本子集,并基于聚类簇内各训练文本的分类难度确定聚类簇对应的新训练文本子集的分类难度。
具体的,针对每一新训练文本子集,可以将其中包含的各训练文本的最大分类难度及最小分类难度组成的分类难度区间,作为新训练文本子集对应的分类难度。或者是,可以确定聚类中心对应的分类难度,作为新训练文本子集的分类难度。再或者是,可以将其中包含的各训练文本的分类难度求取平均值、中位值、最大值、最小值等,结果作为新训练文本子集对应的分类难度。
示例如,通过聚类最终可以得到N个新训练文本子集Ci(i=1,2,...,N)。其中,每个新训练文本子集中包含训练文本的数量表示为Num(Ci)。
在本申请的另一实施例中,进一步提供了一种文本分类模型的训练方法。本实施例中的文本分类模型的训练方法,所使用的训练数据为前述实施例介绍的文本分类方法所划分后的各不同分类难度的训练文本子集。
由于不同训练文本子集的分类难度不同,因此可以按照分类难度由低至高的顺序,依次利用各训练文本子集训练目标文本分类模型。
本实施例的文本分类模型的训练方法,通过基于不同分类难度的训练文本子集,按照分类难度由低至高顺序递进式训练目标文本分类模型,这种渐进式的学习本质上模拟人脑学习新知识的过程,即由易到难、循序渐进,从而解决由于训练文本难度不均衡现象导致的模型训练效果不佳的问题。
可选的,上述按照分类难度由低至高的顺序,依次利用各训练文本子集训练目标文本分类模型的过程,可以包括:
将目标文本分类模型的训练过程划分为若干阶段,每一阶段使用一个训练文本子集进行训练,且各训练阶段所使用的训练文本子集按照分类难度由低至高的顺序。
另一种可选的实施方式,上述按照分类难度由低至高的顺序,依次利用各训练文本子集训练目标文本分类模型的过程,可以包括:
按照分类难度由低至高的顺序,采用增量训练方式依次利用各训练文本子集训练目标文本分类模型。
具体的,可以按照各训练文本子集的分类难度由低至高顺序,确定与每一训练文本子集对应的训练阶段。定义训练文本子集有N个,表示为Ci(i=1,2,...,N)。则训练阶段也有N个,分别表示为:Si(i=1,2,...,N)。
在每一训练阶段中,从所述训练阶段及之前各训练阶段分别对应的训练文本子集中采样训练文本,采样结果组成所述训练阶段对应的训练文本集合。
假设当前训练阶段为Si,则从C1,C2,...Ci中分别采样训练文本,采样结果组成当前训练阶段Si对应的训练文本集合。
其中可选的,从C1,C2,...Ci中每个训练文本子集中采样的训练文本的个数可以相同或不同,示例如,从C1,C2,...Ci中每个训练文本子集中分别采样个训练文本,由采样结果组成当前训练阶段Si对应的训练文本集合。
在确定了每一训练阶段对应的训练文本集合之后,可以利用每一训练阶段对应的训练文本集合,依次训练目标文本分类模型。
本实施例中提供的模型训练方法,通过采用增量式训练方式对模型进行训练,避免模型出现灾难性遗忘,导致模型忘记之前训练阶段所学到的知识。
进一步可选的,在依次利用各训练文本子集训练目标文本分类模型之后,本申请方案还可以进一步增加全量数据训练过程,也即:
以各不同难度的训练文本子集组成全量训练文本集,并利用所述全量训练文本集训练目标文本分类模型。
通过进一步增加使用全量训练文本集对目标文本分类模型进行训练,能够使得模型收敛性更好,也即使得目标文本分类模型的性能更佳。
在本申请的一些实施例中,对上述每一训练阶段,使用训练文本集合训练目标文本分类模型的过程进行介绍。
一种直接的方式如,直接利用训练文本集合对目标文本分类模型进行训练。
此外,考虑到现实场景中,大量的训练文本还可能存在样本分类不均衡问题,也即大多数分类标签下只含有少量的训练文本数据。这种由于不同类别的标注数据缺失,会导致基于此训练出的目标文本分类模型,容易受到头部标签数据的不良偏见影响,影响目标文本分类模型的分类结果准确度。
为此,本实施例中提供了一种解决方案,即,在每一训练阶段中,利用训练阶段对应的训练文本集合,以及训练文本集合中各类别文本的分布信息,训练目标文本分类模型。
相比于前一种方式,后一种训练方式在目标文本分类模型的训练过程中,融入了训练文本集合中各类别文本的先验分布信息,也即将训练文本集合中各类别文本的先验分布信息融入建模过程中,可以进一步缓解不同标签类别分布不均衡造成的问题,可以降低目标文本分类模型对头部标签的过拟合现象。
其中,上述将训练文本集合中各类别文本的先验分布信息融入建模过程,具体可以采用将各类别文本的先验分布信息以互信息的形式融入建模过程。
其中,互信息表示两个随机变量之间的相关程度,其数学公式可以表示为:
对于目标文本分类模型,其常用的分类损失函数都是交叉熵损失函数,其可以表示为:
其中,p(y|x)表示给定输入样本x,预测类别为y的条件概率,m为分类标签个数,f(y|x)表示给定输入样本x,模型在类别y上的预测值。
类比于互信息,本申请可以得到如下公式:
其中,fy(x,Θ)表示给定输样本入x,模型在每个类别y上的预测值,log(p(y))表示类别y的先验分布信息。
因此,目标文本分类模型在对每个输入训练文本预测的得分进行softmax归一化之前,可以进一步加上每个类别的先验分布信息,从而缓解因为类别分布不均给模型带来的影响,将类别分布的先验分布信息加入到模型中,可以让模型聚焦于先验分布信息所解决不了的本质部分。
目标文本分类模型的得分是一个概率值,这是对模型输出进行归一化的过程,而模型学习的本质是对p(yx)的建模过程,大多数神经网络都是对条件概率进行建模,但是相比于拟合条件概率,如果能让模型直接拟合互信息,那么模型将会学到更本质的知识,但是相比于拟合条件概率(直接用交叉熵进行训练即可),拟合互信息不容易进行训练。因此,本申请实施例提供了一种较优的方案,即使目标文本分类模型任然使用交叉熵为损失函数,但本质是在拟合互信息。具体的,上述公式1-3的推导过程就是在建模互信息和条件概率之间的关系,通过这种方式可以将训练文本集合中各类别文本先验分布信息融入模型中,使得模型在训练的时候可以关注到其它知识,缓解样本类别不均衡的问题。
对于上述公式3,将公式3按照右端的形式进行归一化处理,可以得到:
因此,可以使用pθ(y|x)作为目标文本分类模型最终的损失函数loss,也即loss表示为:
目标文本分类模型的训练过程可以结合图2进行说明,则利用所述训练阶段对应的训练文本集合,以及所述训练文本集合中各类别文本的分布信息,训练目标文本分类模型的过程,可以包括如下步骤:
S1、将所述训练阶段对应的训练文本集合中每一训练文本的编码特征输入目标文本分类模型。
S2、由所述目标文本分类模型的隐层对所述编码特征进行处理,并基于处理后的编码特征预测所述训练文本在各分类标签上的得分。
其中,目标文本分类模型的隐层可以包括一个BERT编码器,以及若干个全连接层。
隐层对训练文本的编码特征进行特征处理,得到处理后的编码特征,并基于该处理后的编码特征来预测训练文本在各个分类标签上的得分。图2中示例的是共有m个分类标签。
隐层中最后一个全连接层会输出训练文本在1-m个分类标签上各自的得分,该得分是未经过归一化的概率得分logtis。
S3、由所述目标文本分类模型将所述训练文本在每一分类标签上的得分,与所述训练文本集合中对应分类标签下训练文本的数量相加,得到所述训练文本在每一分类标签上的综合得分,并对各分类标签上的综合得分进行归一化处理。
具体的,训练文本集合中各类别的先验分布信息也即,训练文本集合中每一分类标签下训练文本的数量,对应图2中类别先验分布信息log(p(y))。
本步骤中,对于训练文本在0-m个分类标签上未归一化的得分,分别与对应分类标签下训练文本的数量相加,结果作为训练文本在对应分类标签上的综合得分,也即最终的finalscore。
S4、结合所述训练文本在各分类标签上归一化后的综合得分,以所述训练文本的分类损失为损失函数,训练目标文本分类模型。
具体的,目标文本分类模型的损失函数可以使用上述公式5所示的,融合了训练文本集合中各类别文本的分布信息的互信息的损失函数。
下面对本申请实施例提供的文本分类装置进行描述,下文描述的文本分类装置与上文描述的文本分类方法可相互对应参照。
参见图3,图3为本申请实施例公开的一种文本分类装置结构示意图。
如图3所示,该装置可以包括:
初始文本分类模型训练单元11,用于将训练文本集划分为若干份训练文本子集,并利用每一份训练文本子集训练对应的初始文本分类模型;
分类难度预测单元12,用于分别以每一份训练文本子集为验证集,利用除所述验证集外的其它各训练文本子集对应的初始文本分类模型,对所述验证集中每一训练文本进行分类预测,得到验证集中每一训练文本的分类难度;
训练文本再划分单元13,用于按照分类难度,将所述训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集。
可选的,上述初始文本分类模型训练单元将训练文本集划分为若干份训练文本子集的过程,可以包括:
采用随机划分的方式,将训练文本集随机划分为若干份互不交叉的训练文本子集。
可选的,上述分类难度预测单元利用各初始文本分类模型,对验证集中每一训练文本进行分类预测,得到每一训练文本的分类难度的过程,可以包括:
针对验证集中每一训练文本,利用各初始文本分类模型,分别对所述训练文本进行分类预测,得到每一初始文本分类模型预测的所述训练文本属于标注类别的置信度;
基于各初始文本分类模型预测的所述训练文本属于标注类别的置信度,确定所述训练文本的分类难度。
可选的,上述分类难度预测单元基于各初始文本分类模型预测的所述训练文本属于标注类别的置信度,确定所述训练文本的分类难度的过程,可以包括:
将各初始文本分类模型预测的所述训练文本属于标注类别的置信度的集合,确定为所述训练文本的分类难度表示;
或,
对各初始文本分类模型预测的所述训练文本属于标注类别的置信度进行数学运算,得到综合置信度,并将所述综合置信度确定为所述训练文本的分类难度表示。
可选的,本申请实施例公开了上述训练文本再划分单元按照分类难度,将所述训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集的两种不同实施方式,分别如下:
第一种实施方式可以包括:
参考设定的各分类难度区间,确定所述训练文本集中各训练文本的分类难度所处的分类难度区间;
将所述训练文本集中每一训练文本划分至所处分类难度区间对应的新训练文本子集,以得到每一分类难度区间对应的新训练文本子集。
第二种实施方式可以包括:
以分类难度作为聚类条件,对所述训练文本集中各训练文本进行聚类,得到聚类后的若干聚类簇;
将每一聚类簇中的训练文本作为一个新训练文本子集,并基于聚类簇内各训练文本的分类难度确定聚类簇对应的新训练文本子集的分类难度。
下面对本申请实施例提供的文本分类模型训练装置进行描述,下文描述的文本分类模型训练装置与上文描述的文本分类模型训练方法可相互对应参照。
参见图4,图4为本申请实施例公开的一种文本分类模型训练装置结构示意图。
如图4所示,该装置可以包括:
训练文本子集获取单元21,用于获取前述实施例的文本分类方法所划分的各不同难度的训练文本子集;
目标文本分类模型训练单元22,用于按照分类难度由低至高的顺序,依次利用各训练文本子集训练目标文本分类模型。
可选的,上述目标文本分类模型训练单元按照分类难度由低至高的顺序,依次利用各训练文本子集训练目标文本分类模型的过程,可以包括:
按照分类难度由低至高的顺序,采用增量训练方式依次利用各训练文本子集训练目标文本分类模型。
可选的,本申请的文本分类模型训练装置还可以包括:
全量训练单元,用于在所述依次利用各训练文本子集训练目标文本分类模型之后,以各不同难度的训练文本子集组成全量训练文本集,并利用所述全量训练文本集训练所述目标文本分类模型。
可选的,上述目标文本分类模型训练单元按照分类难度由低至高的顺序,采用增量训练方式依次利用各训练文本子集训练目标文本分类模型的过程,可以包括:
按照各训练文本子集的分类难度由低至高顺序,确定与每一训练文本子集对应的训练阶段;
在每一训练阶段中,从所述训练阶段及之前各训练阶段分别对应的训练文本子集中采样训练文本,采样结果组成所述训练阶段对应的训练文本集合;
利用所述训练阶段对应的训练文本集合,训练目标文本分类模型。
可选的,上述目标文本分类模型训练单元利用所述训练阶段对应的训练文本集合,训练目标文本分类模型的过程,可以包括:
利用所述训练阶段对应的训练文本集合,以及所述训练文本集合中各类别文本的分布信息,训练目标文本分类模型。
可选的,上述目标文本分类模型利用所述训练阶段对应的训练文本集合,以及所述训练文本集合中各类别文本的分布信息,训练目标文本分类模型的过程,可以包括:
将所述训练阶段对应的训练文本集合中每一训练文本的编码特征输入目标文本分类模型;
由所述目标文本分类模型的隐层对所述编码特征进行处理,并基于处理后的编码特征预测所述训练文本在各分类标签上的得分;
由所述目标文本分类模型将所述训练文本在每一分类标签上的得分,与所述训练文本集合中对应分类标签下训练文本的数量相加,得到所述训练文本在每一分类标签上的综合得分,并对各分类标签上的综合得分进行归一化处理;
结合所述训练文本在各分类标签上归一化后的综合得分,以所述训练文本的分类损失为损失函数,训练目标文本分类模型。
本申请实施例提供的文本分类装置可应用于文本分类设备,如终端:手机、电脑等。可选的,图5示出了文本分类设备的硬件结构框图,参照图5,文本分类设备的硬件结构可以包括:至少一个处理器1,至少一个通信接口2,至少一个存储器3和至少一个通信总线4;
在本申请实施例中,处理器1、通信接口2、存储器3、通信总线4的数量为至少一个,且处理器1、通信接口2、存储器3通过通信总线4完成相互间的通信;
处理器1可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
存储器3可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory)等,例如至少一个磁盘存储器;
其中,存储器存储有程序,处理器可调用存储器存储的程序,所述程序用于:
将训练文本集划分为若干份训练文本子集,并利用每一份训练文本子集训练对应的初始文本分类模型;
分别以每一份训练文本子集为验证集,利用除所述验证集外的其它各训练文本子集对应的初始文本分类模型,对所述验证集中每一训练文本进行分类预测,得到验证集中每一训练文本的分类难度;
按照分类难度,将所述训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
本申请实施例还提供一种存储介质,该存储介质可存储有适于处理器执行的程序,所述程序用于:
将训练文本集划分为若干份训练文本子集,并利用每一份训练文本子集训练对应的初始文本分类模型;
分别以每一份训练文本子集为验证集,利用除所述验证集外的其它各训练文本子集对应的初始文本分类模型,对所述验证集中每一训练文本进行分类预测,得到验证集中每一训练文本的分类难度;
按照分类难度,将所述训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间可以根据需要进行组合,且相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (12)
1.一种文本分类方法,其特征在于,包括:
将训练文本集划分为若干份训练文本子集,并利用每一份训练文本子集训练对应的初始文本分类模型;
分别以每一份训练文本子集为验证集,利用除所述验证集外的其它各训练文本子集对应的初始文本分类模型,对所述验证集中每一训练文本进行分类预测,得到验证集中每一训练文本的分类难度;
按照分类难度,将所述训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集;
利用各初始文本分类模型,对验证集中每一训练文本进行分类预测,得到每一训练文本的分类难度的过程,包括:
针对验证集中每一训练文本,利用各初始文本分类模型,分别对所述训练文本进行分类预测,得到每一初始文本分类模型预测的所述训练文本属于标注类别的置信度;
将各初始文本分类模型预测的所述训练文本属于标注类别的置信度的集合,确定为所述训练文本的分类难度表示;
或,
对各初始文本分类模型预测的所述训练文本属于标注类别的置信度进行数学运算,得到综合置信度,并将所述综合置信度确定为所述训练文本的分类难度表示。
2.根据权利要求1所述的方法,其特征在于,所述按照分类难度,将所述训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集,包括:
参考设定的各分类难度区间,确定所述训练文本集中各训练文本的分类难度所处的分类难度区间;
将所述训练文本集中每一训练文本划分至所处分类难度区间对应的新训练文本子集,以得到每一分类难度区间对应的新训练文本子集。
3.根据权利要求1所述的方法,其特征在于,所述按照分类难度,将所述训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集,包括:
以分类难度作为聚类条件,对所述训练文本集中各训练文本进行聚类,得到聚类后的若干聚类簇;
将每一聚类簇中的训练文本作为一个新训练文本子集,并基于聚类簇内各训练文本的分类难度确定聚类簇对应的新训练文本子集的分类难度。
4.一种文本分类模型训练方法,其特征在于,包括:
获取权利要求1-3任一项所述的文本分类方法所划分的各不同分类难度的训练文本子集;
按照分类难度由低至高的顺序,依次利用各训练文本子集训练目标文本分类模型。
5.根据权利要求4所述的方法,其特征在于,在所述依次利用各训练文本子集训练目标文本分类模型之后,该方法还包括:
以各不同难度的训练文本子集组成全量训练文本集,并利用所述全量训练文本集训练所述目标文本分类模型。
6.根据权利要求4所述的方法,其特征在于,所述按照分类难度由低至高的顺序,依次利用各训练文本子集训练目标文本分类模型,包括:
按照各训练文本子集的分类难度由低至高顺序,确定与每一训练文本子集对应的训练阶段;
在每一训练阶段中,从所述训练阶段及之前各训练阶段分别对应的训练文本子集中采样训练文本,采样结果组成所述训练阶段对应的训练文本集合;
利用所述训练阶段对应的训练文本集合,训练目标文本分类模型。
7.根据权利要求6所述的方法,其特征在于,所述利用所述训练阶段对应的训练文本集合,训练目标文本分类模型,包括:
利用所述训练阶段对应的训练文本集合,以及所述训练文本集合中各类别文本的分布信息,训练目标文本分类模型。
8.根据权利要求7所述的方法,其特征在于,所述利用所述训练阶段对应的训练文本集合,以及所述训练文本集合中各类别文本的分布信息,训练目标文本分类模型,包括:
将所述训练阶段对应的训练文本集合中每一训练文本的编码特征输入目标文本分类模型;
由所述目标文本分类模型的隐层对所述编码特征进行处理,并基于处理后的编码特征预测所述训练文本在各分类标签上的得分;
由所述目标文本分类模型将所述训练文本在每一分类标签上的得分,与所述训练文本集合中对应分类标签下训练文本的数量相加,得到所述训练文本在每一分类标签上的综合得分,并对各分类标签上的综合得分进行归一化处理;
结合所述训练文本在各分类标签上归一化后的综合得分,以所述训练文本的分类损失为损失函数,训练目标文本分类模型。
9.一种文本分类装置,其特征在于,包括:
初始文本分类模型训练单元,用于将训练文本集划分为若干份训练文本子集,并利用每一份训练文本子集训练对应的初始文本分类模型;
分类难度预测单元,用于分别以每一份训练文本子集为验证集,利用除所述验证集外的其它各训练文本子集对应的初始文本分类模型,对所述验证集中每一训练文本进行分类预测,得到验证集中每一训练文本的分类难度;
训练文本再划分单元,用于按照分类难度,将所述训练文本集中各训练文本重新划分为若干份不同分类难度的训练文本子集;
其中,所述分类难度预测单元利用各初始文本分类模型,对验证集中每一训练文本进行分类预测,得到每一训练文本的分类难度的过程,包括:
针对验证集中每一训练文本,利用各初始文本分类模型,分别对所述训练文本进行分类预测,得到每一初始文本分类模型预测的所述训练文本属于标注类别的置信度;
将各初始文本分类模型预测的所述训练文本属于标注类别的置信度的集合,确定为所述训练文本的分类难度表示;
或,
对各初始文本分类模型预测的所述训练文本属于标注类别的置信度进行数学运算,得到综合置信度,并将所述综合置信度确定为所述训练文本的分类难度表示。
10.一种文本分类模型训练装置,其特征在于,包括:
训练文本子集获取单元,用于获取权利要求1-3任一项所述的文本分类方法所划分的各不同难度的训练文本子集;
目标文本分类模型训练单元,用于按照分类难度由低至高的顺序,依次利用各训练文本子集训练目标文本分类模型。
11.一种文本分类设备,其特征在于,包括:存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如权利要求1~3中任一项所述的文本分类方法的各个步骤。
12.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1~3中任一项所述的文本分类方法的各个步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011386332.XA CN112463964B (zh) | 2020-12-01 | 2020-12-01 | 文本分类及模型训练方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011386332.XA CN112463964B (zh) | 2020-12-01 | 2020-12-01 | 文本分类及模型训练方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112463964A CN112463964A (zh) | 2021-03-09 |
CN112463964B true CN112463964B (zh) | 2023-01-17 |
Family
ID=74806303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011386332.XA Active CN112463964B (zh) | 2020-12-01 | 2020-12-01 | 文本分类及模型训练方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112463964B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113191343A (zh) * | 2021-03-31 | 2021-07-30 | 成都飞机工业(集团)有限责任公司 | 一种基于卷积神经网络的航空线材识别码自动识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110309302A (zh) * | 2019-05-17 | 2019-10-08 | 江苏大学 | 一种结合svm和半监督聚类的不平衡文本分类方法及*** |
CN111309912A (zh) * | 2020-02-24 | 2020-06-19 | 深圳市华云中盛科技股份有限公司 | 文本分类方法、装置、计算机设备及存储介质 |
CN111723209A (zh) * | 2020-06-28 | 2020-09-29 | 上海携旅信息技术有限公司 | 半监督文本分类模型训练方法、文本分类方法、***、设备及介质 |
CN111767400A (zh) * | 2020-06-30 | 2020-10-13 | 平安国际智慧城市科技股份有限公司 | 文本分类模型的训练方法、装置、计算机设备和存储介质 |
CN111832613A (zh) * | 2020-06-03 | 2020-10-27 | 北京百度网讯科技有限公司 | 模型训练方法、装置、电子设备和存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11200510B2 (en) * | 2016-07-12 | 2021-12-14 | International Business Machines Corporation | Text classifier training |
-
2020
- 2020-12-01 CN CN202011386332.XA patent/CN112463964B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110309302A (zh) * | 2019-05-17 | 2019-10-08 | 江苏大学 | 一种结合svm和半监督聚类的不平衡文本分类方法及*** |
CN111309912A (zh) * | 2020-02-24 | 2020-06-19 | 深圳市华云中盛科技股份有限公司 | 文本分类方法、装置、计算机设备及存储介质 |
CN111832613A (zh) * | 2020-06-03 | 2020-10-27 | 北京百度网讯科技有限公司 | 模型训练方法、装置、电子设备和存储介质 |
CN111723209A (zh) * | 2020-06-28 | 2020-09-29 | 上海携旅信息技术有限公司 | 半监督文本分类模型训练方法、文本分类方法、***、设备及介质 |
CN111767400A (zh) * | 2020-06-30 | 2020-10-13 | 平安国际智慧城市科技股份有限公司 | 文本分类模型的训练方法、装置、计算机设备和存储介质 |
Non-Patent Citations (3)
Title |
---|
《Clustering based two-stage text classification requiring minimal training data》;Xue Zhang 等;《 2012 International Conference on Systems and Informatics》;20120625;第2233-2237页 * |
《基于优化样本分布抽样集成学习的半监督文本分类方法研究》;徐禹洪 等;《中文信息学报》;20180601;第180-189页 * |
基于对抗训练的文本表示和分类算法;张晓辉等;《计算机科学》;20200615;第22-26页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112463964A (zh) | 2021-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110503531B (zh) | 时序感知的动态社交场景推荐方法 | |
CN110069709B (zh) | 意图识别方法、装置、计算机可读介质及电子设备 | |
CN109189767B (zh) | 数据处理方法、装置、电子设备及存储介质 | |
CN112528025A (zh) | 基于密度的文本聚类方法、装置、设备及存储介质 | |
CN111667022A (zh) | 用户数据处理方法、装置、计算机设备和存储介质 | |
CN110991474A (zh) | 一种机器学***台 | |
CN114418035A (zh) | 决策树模型生成方法、基于决策树模型的数据推荐方法 | |
CN112529638B (zh) | 基于用户分类和深度学习的服务需求动态预测方法及*** | |
CN109685104B (zh) | 一种识别模型的确定方法和装置 | |
CN112883990A (zh) | 数据分类方法及装置、计算机存储介质、电子设备 | |
CN111797320A (zh) | 数据处理方法、装置、设备及存储介质 | |
CN111159481B (zh) | 图数据的边预测方法、装置及终端设备 | |
CN112733035A (zh) | 基于知识图谱的知识点推荐方法、装置、存储介质及电子装置 | |
CN113656699B (zh) | 用户特征向量确定方法、相关设备及介质 | |
CN112365007A (zh) | 模型参数确定方法、装置、设备及存储介质 | |
CN115545103A (zh) | 异常数据识别、标签识别方法和异常数据识别装置 | |
CN115114484A (zh) | 异常事件检测方法、装置、计算机设备和存储介质 | |
CN112463964B (zh) | 文本分类及模型训练方法、装置、设备及存储介质 | |
CN110264311B (zh) | 一种基于深度学习的商业推广信息精准推荐方法及*** | |
CN111488950A (zh) | 分类模型信息输出方法及装置 | |
CN115730248A (zh) | 一种机器账号检测方法、***、设备及存储介质 | |
CN112507185B (zh) | 用户肖像的确定方法和装置 | |
CN113010687B (zh) | 一种习题标签预测方法、装置、存储介质以及计算机设备 | |
CN114238062A (zh) | 板卡烧录装置性能分析方法、装置、设备及可读存储介质 | |
CN114282657A (zh) | 一种市场数据长期预测模型训练方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230506 Address after: 230026 Jinzhai Road, Baohe District, Hefei, Anhui Province, No. 96 Patentee after: University of Science and Technology of China Patentee after: IFLYTEK Co.,Ltd. Address before: NO.666, Wangjiang West Road, hi tech Zone, Hefei City, Anhui Province Patentee before: IFLYTEK Co.,Ltd. |