CN112417093A - 一种模型训练的方法及装置 - Google Patents
一种模型训练的方法及装置 Download PDFInfo
- Publication number
- CN112417093A CN112417093A CN202011252398.XA CN202011252398A CN112417093A CN 112417093 A CN112417093 A CN 112417093A CN 202011252398 A CN202011252398 A CN 202011252398A CN 112417093 A CN112417093 A CN 112417093A
- Authority
- CN
- China
- Prior art keywords
- trained
- sequence
- frequent
- model
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 272
- 238000000034 method Methods 0.000 title claims abstract description 175
- 238000005065 mining Methods 0.000 claims abstract description 162
- 230000008569 process Effects 0.000 claims abstract description 114
- 238000002372 labelling Methods 0.000 claims abstract description 77
- 238000013145 classification model Methods 0.000 claims description 75
- 238000004590 computer program Methods 0.000 claims description 17
- 238000003860 storage Methods 0.000 claims description 16
- 238000009412 basement excavation Methods 0.000 claims description 10
- 230000000295 complement effect Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000000875 corresponding effect Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 10
- 230000006872 improvement Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 6
- 238000009826 distribution Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009191 jumping Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本说明书公开了一种模型训练的方法及装置,可基于获取的样本文本数据,确定若干个频繁序列,将各频繁序列组成的集合作为第一集合,并从数据库中获取若干个词汇,将各词汇组成的集合作为第二集合,根据第一集合以及第二集合,确定第一集合中每个频繁序列的标注结果,根据第一集合中每个频繁序列的标注结果,对待训练的挖掘模型进行迭代训练。本说明书可对样本文本数据中的各频繁序列进行自动标注,并根据带有标注的各频繁序列,对挖掘模型进行训练,在对挖掘模型训练的过程中不断更新各频繁序列的标注,从而基于更新标注的频繁序列训练得到的挖掘模型的精确率与召回率得到平衡。
Description
技术领域
本说明书涉及自然语言处理技术领域,尤其涉及一种模型训练的方法及装置。
背景技术
目前,随着新领域新生事物的不断出现,可通过在文本数据中挖掘指代新的实体或概念的新词的方式,来解决实体识别(entity identification)问题。
现有的新词挖掘技术是通过在文本数据中确定频繁连续出现的词序列作为频繁序列,其中,频繁序列为若干个基本词汇组成的词,因此,如何确定频繁序列是否为有意义的词汇,成为亟需解决的问题。
发明内容
本说明书实施例提供一种模型训练的方法及装置,以部分解决现有技术存在的上述问题。
本说明书实施例采用下述技术方案:
本说明书提供的一种模型训练的方法,所述方法包括:
获取样本文本数据,根据所述样本文本数据,确定若干个频繁序列,将各频繁序列组成的集合作为第一集合,并且,从数据库中获取若干个词汇,将各词汇组成的集合作为第二集合;
根据所述第一集合以及所述第二集合,确定所述第一集合中每个频繁序列的标注结果;
根据所述第一集合中每个频繁序列的标注结果,对待训练的挖掘模型进行迭代训练;
其中,针对所述待训练的挖掘模型的每一个迭代训练过程,执行以下操作:
根据上一个迭代训练过程中得到的每个频繁序列的标注结果,确定该迭代训练过程所要使用的训练样本;
根据所述训练样本,对所述待训练的挖掘模型进行训练,得到该迭代训练过程中训练完成的挖掘模型;
分别将每个频繁序列输入该迭代训练过程中训练完成的挖掘模型,得到该迭代训练过程中训练完成的挖掘模型输出的每个频繁序列的新词挖掘结果,作为该迭代训练过程中得到的每个频繁序列的标注结果。
可选地,根据所述样本文本数据,确定若干个频繁序列,具体包括:
对所述样本文本数据进行预处理,得到若干个候选序列;
针对每个候选序列,确定该候选序列的序列频率以及序列长度,所述序列频率表征该候选序列在所述样本文本数据中出现的次数,所述序列长度表征该候选序列包含的基本词汇的个数;
根据每个候选序列的序列频率和/或序列长度,在各候选序列中,选择候选序列作为频繁序列。
可选地,根据所述第一集合以及所述第二集合,确定所述第一集合中每个频繁序列的标注结果,具体包括:
根据所述第一集合以及所述第二集合,确定待训练的分类模型的训练样本;
根据所述待训练的分类模型的训练样本,对所述待训练的分类模型进行训练;
将所述第一集合中各频繁序列输入训练后的分类模型,得到所述分类模型输出的所述第一集合中每个频繁序列的标注结果。
可选地,根据所述第一集合以及所述第二集合,确定待训练的分类模型的训练样本,具体包括:
确定所述第一集合与所述第二集合的交集,作为第一正样本集合;
从所述第一正样本集合在所述第一集合的补集中,选择若干个频繁序列组成第一负样本集合;
根据所述第一正样本集合以及所述第一负样本集合,确定所述待训练的分类模型的训练样本。
可选地,根据所述待训练的分类模型的训练样本,对所述待训练的分类模型进行训练,具体包括:
将所述待训练的分类模型的训练样本输入所述待训练的分类模型,通过所述待训练的分类模型提取训练样本的特征,得到所述待训练的分类模型根据所述训练样本的特征输出的预测结果;
根据所述预测结果,对所述待训练的分类模型进行训练。
可选地,根据上一个迭代训练过程中得到的每个频繁序列的标注结果,确定所述待训练的挖掘模型在该迭代训练过程中的训练样本,具体包括:
根据上一个迭代训练过程中得到的每个频繁序列的标注结果,对各频繁序列进行分类,得到正确类型对应的频繁序列集合以及错误类型对应的频繁序列集合;并且,从所述数据库中获取组成第三集合的若干个词汇;
根据所述第三集合、所述正确类型对应的频繁序列集合以及所述错误类型对应的频繁序列集合,确定所述待训练的挖掘模型在该迭代训练过程中的训练样本。
可选地,根据所述第三集合、所述正确类型对应的频繁序列集合以及所述错误类型对应的频繁序列集合,确定所述待训练的挖掘模型在该迭代训练过程中的训练样本,具体包括:
确定所述正确类型对应的频繁序列集合与所述第三集合的交集,作为第二正样本集合,并确定所述错误类型对应的频繁序列集合与所述第三集合的差集,作为第二负样本集合;
根据所述第二正样本集合以及所述第二负样本集合,确定所述待训练的挖掘模型在该迭代训练过程中的训练样本。
本说明书提供的一种新词挖掘的方法,所述方法包括:
获取待挖掘新词的文本数据;
根据所述文本数据,确定若干个待定频繁序列;
针对每个待定频繁序列,将该待定频繁序列输入预先训练的挖掘模型,得到所述挖掘模型输出的该待定频繁序列的新词挖掘结果,其中,所述挖掘模型根据上述模型训练所述的方法进行预先训练。
本说明书提供一种模型训练的装置,所述装置包括:
第一获取模块,用于获取样本文本数据,根据所述样本文本数据,确定若干个频繁序列,将各频繁序列组成的集合作为第一集合,并且,从数据库中获取若干个词汇,将各词汇组成的集合作为第二集合;
第一确定模块,用于根据所述第一集合以及所述第二集合,确定所述第一集合中每个频繁序列的标注结果;
训练模块,用于根据所述第一集合中每个频繁序列的标注结果,对待训练的挖掘模型进行迭代训练;其中,针对所述待训练的挖掘模型的每一个迭代训练过程,执行以下操作:根据上一个迭代训练过程中得到的每个频繁序列的标注结果,确定所述待训练的挖掘模型在该迭代训练过程中的训练样本;根据所述训练样本,对所述待训练的挖掘模型进行训练,得到该迭代训练过程中训练完成的挖掘模型;分别将每个频繁序列输入该迭代训练过程中训练完成的挖掘模型,得到该迭代训练过程中训练完成的挖掘模型输出的每个频繁序列的新词挖掘结果,作为该迭代训练过程中得到的每个频繁序列的标注结果。
本说明书提供一种新词挖掘的装置,所述装置包括:
第二获取模块,用于获取待待挖掘新词的文本数据;
第二确定模块,用于根据所述文本数据,确定若干个待定频繁序列;
输入模块,用于针对每个待定频繁序列,将该待定频繁序列输入预先训练的挖掘模型,得到所述挖掘模型输出的该待定频繁序列的新词挖掘结果,其中,所述挖掘模型根据上述内容提供的模型训练的方法进行预先训练。
本说明书提供的一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述内容所述的方法。
本说明书提供的一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述内容所述的方法。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:
本说明书可基于获取的样本文本数据,确定若干个频繁序列,将各频繁序列组成的集合作为第一集合,并从数据库中获取若干个词汇,将各词汇组成的集合作为第二集合,根据第一集合以及第二集合,确定第一集合中每个频繁序列的标注结果,根据第一集合中每个频繁序列的标注结果,对待训练的挖掘模型进行迭代训练,其中,针对待训练的挖掘模型的每一个迭代训练过程,根据上一个迭代训练过程中得到的每个频繁序列的标注结果,确定该迭代训练过程所要使用的训练样本,根据训练样本,对待训练的挖掘模型进行训练,得到该迭代训练过程中训练完成的挖掘模型,分别将每个频繁序列输入该迭代训练过程中训练完成的挖掘模型,得到该迭代训练过程中训练完成的挖掘模型输出的每个频繁序列的新词挖掘结果,作为该迭代训练过程中得到的每个频繁序列的标注结果。本说明书可对样本文本数据中的各频繁序列进行自动标注,并根据带有标注的各频繁序列,对挖掘模型进行训练,在对挖掘模型训练的过程中不断更新各频繁序列的标注,从而基于更新标注的频繁序列训练得到的挖掘模型的精确率与召回率得到平衡。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书实施例提供的一种模型训练的方法流程图;
图2为本说明书实施例提供的训练挖掘模型的一个迭代训练过程流程图;
图3为本说明书实施例提供的一种新词挖掘的方法流程图;
图4为本说明书实施例提供的一种模型训练的装置的结构示意图;
图5为本说明书实施例提供的一种新词挖掘的装置的结构示意图;
图6为本说明书实施例提供的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
实体识别(entity identification)是一种信息提取技术,可从文本数据中获取人名、地名等实体数据。而随着诸如新概念等各种新生事物的不断出现,在对新生事物进行实体识别时,尤其是对垂直领域内的实体识别,可通过新词挖掘技术从文本数据中挖掘新词,从而基于挖掘的新词,识别新生事物等实体。
现有的新词挖掘技术是通过在文本数据中确定频繁连续出现的词序列作为频繁序列,其中,频繁序列为若干个基本词汇组成的词序列,因此,可基于组成频繁序列的每个基本词汇,确定频繁序列的凝固度和自由度,根据凝固度和自由度,为频繁序列确定综合评分,根据预设的综合评分阈值确定频繁序列是否为有意义的新词。一般情况下,综合评分越高,频繁序列为有意义的新词的可能性越大,由于上述方式采用统计的方法确定频繁序列的综合评分,因此,可使用带有标注的频繁序列对上述方法所达到的效果进行测试,根据测试结果发现存在某些标注结果为不是新词的频繁序列,通过上述方式得到的综合评分较高,而某些标注结果为新词的频繁序列,通过上述方式得到的综合评分较低,通过测试可得,使用上述方法无法平衡精确率与召回率,从而无法较好地挖掘出新词。
因此,本说明书提供一种新词挖掘方法,可获取待挖掘新词的文本数据,根据文本数据确定若干个待定频繁序列,针对每个待定频繁序列,将该待定频繁序列输入预先训练的挖掘模型,得到挖掘模型输出的该待定频繁序列的新词挖掘结果,本说明书通过挖掘模型,较好地从各频繁序列中确定有意义的新词。
基于上述内容,本说明书提供一种模型训练方法,可获取样本文本数据,根据样本文本数据确定若干个频繁序列,并且从数据库中获取若干个词汇,根据若干个频繁序列以及若干个词汇,确定每个频繁序列的标注结果,根据每个频繁序列的标注结果,对待训练的挖掘模型进行训练。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书实施例提供的一种模型训练的方法流程图,具体可包括以下步骤:
S100:获取样本文本数据,根据所述样本文本数据,确定若干个频繁序列,将各频繁序列组成的集合作为第一集合,并且,从数据库中获取若干个词汇,将各词汇组成的集合作为第二集合。
在本说明书中,样本文本数据的获取来源可包括网络文本、用户原创内容(UserGenerated Content,UGC)等,频繁序列为样本文本数据中出现次数达到预设的次数阈值的词序列。通过对样本文本数据的处理,可得到样本文本数据中包含的若干个频繁序列。
首先,可对样本文本数据进行预处理,得到若干个候选序列。
具体的,由于样本文本数据中可包括不同种类的语言,因此,可将样本文本数据中的语言按照预设的规则进行归一化处理,例如,可将样本文本数据中的英文字母统一转换为小写,又如,可将样本文本数据中的繁体字统一转换为简体字等。另外,根据样本文本数据中包含的各基本词汇在句子中的位置、基本词汇所表达的含义等,可对各基本词汇进行词性标注。从而根据归一化处理后的样本文本数据以及各基本词汇的词性标注等信息,对样本文本数据进行分词处理,根据分词结果得到若干个候选序列。其中,候选序列为样本文本数据中的词序列。
然后,针对每个候选序列,可确定该候选序列的序列频率以及序列长度,序列频率表征该候选序列在样本文本数据中出现的次数,序列长度表征该候选序列包含的基本词汇的个数。
具体的,在样本文本数据中得到若干个候选序列后,可分别确定每个候选序列的序列频率,可采用诸如统计学等方法确定候选序列在样本文本数据中出现的次数,其中,候选序列的序列频率与候选序列在样本文本数据中出现的次数正相关,也即,候选序列在样本文本数据中出现的次数越多,序列频率越高,候选序列在样本数据中出现的次数越少,序列频率越低。
同时,还可分别确定每个候选序列的序列长度,由于每个候选序列为若干个基本词汇组成的词序列,因此,可根据候选序列中包含的基本词汇的个数,确定候选序列的序列长度,其中,候选序列的序列长度与候选序列包含的基本词汇的个数正相关。
最后,根据每个候选序列的序列频率和/或序列长度,在各候选序列中,可选择候选序列作为频繁序列。
具体的,在确定每个候选序列的序列频率以及序列长度之后,可预设序列频率阈值以及序列长度阈值,针对每个候选序列,可将该候选序列的序列频率与序列频率阈值进行对比,得到第一对比结果,将该候选序列的序列长度与序列长度阈值进行对比,得到第二对比结果,根据第一对比结果和/或第二对比结果,判断该候选序列是否为频繁序列。例如,根据第一对比结果,确定该候选序列的序列频率大于序列频率阈值,则确定该候选序列为频繁序列,或者,根据第二对比结果,确定该候选序列的序列长度大于序列长度阈值,则确定该候选序列为频繁序列,又如,根据第一对比结果以及第二对比结果,确定该候选序列的序列频率大于序列频率阈值并且该候选序列的序列长度大于序列长度阈值,则确定该候选序列为频繁序列。
当然,在本说明书中,还可将样本文本数据输入预先训练的分词模型,得到分词模型输出的样本文本数据中包含的各频繁序列。其中,分词模型可以为机器学习模型,例如,神经网络模型等。预先训练分词模型的过程,可参考现有的方式,本说明书中不再赘述。
在获取样本文本数据的同时,还可从数据库中获取若干个词汇。
具体的,数据库可以为本地预存的数据库,例如,本地预存的实体词典,也可以为第三方资源平台提供的数据库。其中,数据库可作为远程监督学习的词库,也即,从数据库中获取的词汇为有意义的词汇。
在本说明书中,为便于描述,可将从样本文本数据中确定的各频繁序列组成第一集合,将从数据库中获取的各词汇组成第二集合。
S102:根据所述第一集合以及所述第二集合,确定所述第一集合中每个频繁序列的标注结果。
在得到第一集合以及第二集合之后,可根据第一集合以及第二集合,训练分类模型,通过训练完成的分类模型为第一集合中每个频繁序列进行标注,得到每个频繁序列的标注结果。
首先可根据第一集合以及第二集合,确定待训练的分类模型的训练样本;
具体的,可确定第一集合与第二集合的交集,作为第一正样本集合,从第一正样本集合在第一集合的补集中,选择若干个频繁序列组成第一负样本集合,根据第一正样本集合以及第一负样本集合,确定待训练的分类模型的训练样本。
这是由于,待训练的分类模型的训练样本为第一集合中的频繁序列,而在训练待训练的分类模型时,首先需要确定每个训练样本的标注信息,也即,需要确定每个训练样本是正样本还是负样本。而由于第二集合包含的各词汇是从数据库中获取的,可认为第二集合中的各词汇为有意义的词汇,也即,可将第二集合中的各词汇标注为正样本。因此,可将第一集合与第二集合的交集作为第一正样本集合,第一正样本集合中的各频繁序列是记录在数据库中的有意义的词汇,可将第一正样本集合中的各频繁序列的标注信息确定为正样本。
同时,由于通过对海量的频繁序列分析发现,在大量的频繁序列中,频繁序列为有意义的词汇的可能性较小,经统计,约有10%的频繁序列为有意义的词汇,因此,除了第一正样本集合包含的频繁序列之外,第一集合中包含的其他频繁序列中有大多数的频繁序列为无意义的词汇,也即,以第一集合为全集,第一正样本集合的补集中只有极少数的频繁序列为有意义的词汇,大多数的频繁序列为无意义的词汇,因此,可在第一正样本集合的补集中进行采样,将采样得到的各频繁序列组成第一负样本集合,其中,第一负样本集合中大多数频繁序列为负样本,极少数频繁序列为正样本,可将第一负样本集合中各频繁序列的标注信息确定为负样本。
在第一正样本集合中,可选择待训练的分类模型的正样本,并且,在第一负样本集合中,可选择待训练的分类模型的负样本,从而得到待训练分类模型的训练样本。
然后,根据待训练的分类模型的训练样本,对待训练的分类模型进行训练;
具体的,将待训练的分类模型的训练样本输入待训练的分类模型,通过待训练的分类模型提取训练样本的特征,得到待训练的分类模型根据训练样本的特征输出的预测结果,根据预测结果以及每个训练样本的标注信息,对待训练的分类模型进行训练。
待训练的分类模型在提取训练样本的特征时,可确定待训练样本的四个维度的特征信息。
首先来说第一维度的特征信息,可获取训练样本的序列频率,根据训练样本的序列频率,确定第一维度的特征信息。
之后来说第二维度的特征信息,可通过现有的逐点互信息等方式,确定组成训练样本的各基本词汇连续出现的概率,通过组成训练样本的各基本词汇连续出现的概率确定训练样本词项间紧密度,另外,还可通过其他方式确定训练样本词项间紧密度,例如T分布检验、皮尔森卡方检验、似然比等,其中,组成训练样本的各基本词汇连续出现的概率与训练样本词项间紧密度正相关,通过训练样本词项间紧密度确定第二维度的特征信息。
然后来说第三维度的特征信息,可通过现有的方式确定训练样本在样本文本数据中的逆文档频率、词性分布以及停用词分布等信息,根据逆文档频率、词性分布以及停用词分布等信息确定训练样本的信息度,通过训练样本的信息度确定第三维度的特征信息,第三维度的特征信息可表征训练样本具有真实意义、指代某个新的实体或概念。
最后来说第四维度的特征信息,第四维度的特征信息可表征在文本数据中训练样本可作为一个整体进行解释,即,训练样本应当在给定的上下文环境中作为整体解释存在,因此应同时考虑训练样本的子集短语以及超集短语的紧密度衡量词组的完整性。
当然,除了以上四个维度的特征信息之外,待训练的分类模型还可提取训练样本的其他特征信息,本说明书中在此不再赘述。
在得到待训练的分类模型根据训练样本的特征输出的预测结果之后,可根据预测结果以及每个训练样本的标注信息,确定待训练的分类模型的损失,以损失最小化为训练目标,对待训练的分类模型进行训练。
在本说明书中,可根据训练样本同时训练多个分类模型,每个分类模型的训练过程互相独立,只是训练各分类模型所用的训练样本均来源于第一集合中的各频繁序列。
最后,将所述第一集合中各频繁序列输入训练后的分类模型,得到所述分类模型输出的所述第一集合中每个频繁序列的标注结果。
具体的,在训练完成分类模型之后,可将第一集合中的各频繁序列输入分类模型,通过分类模型提取每个频繁序列的特征,以使分类模型根据每个频繁序列的特征确定每个频繁序列的结果,其中,频繁序列的结果为频繁序列是有意义的词汇,或者,频繁序列是无意义的词汇,也即,频繁序列的结果为标注频繁序列的标注信息,只是此时频繁序列的标注信息是由训练后的分类模型确定出来的。
当同时训练了多个分类模型时,针对各频繁序列,可将该频繁序列分别输入每个分类模型,得到每个分类模型输出的该频繁序列的标注信息,可根据每个分类模型输出的该频繁序列的标注信息进行投票,根据投票结果,确定该频繁序列的标注信息。
其中,分类模型可以为机器学习模型,例如,随机森林(Random forest)。
在本说明书中,也可以根据第一集合以及第二集合,直接对第一集合中的每个频繁序列进行标注,参考上述内容,可将第一正样本集合中的每个频繁序列的标注结果为有意义的词汇,将第一负样本集合中每个频繁序列的标注结果为无意义的词汇,也即,针对各频繁序列,可将该频繁序列所在集合的标注结果作为该频繁序列的标注结果,将各频繁序列以及各频繁序列当前的标注结果用于训练下文中的挖掘模型。
S104:根据所述第一集合中每个频繁序列的标注结果,对待训练的挖掘模型进行迭代训练。
在得到第一集合中每个频繁序列的标注结果之后,可在第一集合中确定待训练的挖掘模型的训练样本,基于待训练的挖掘模型的训练样本,对待训练的挖掘模型进行迭代训练。
在迭代训练待训练的挖掘模型时,可确定跳出迭代训练的条件(也即,完成挖掘模型的训练的条件),跳出迭代训练的条件可包括迭代训练的次数大于预设的迭代训练次数阈值、训练样本在相邻两次迭代训练过程中得到的标注结果的差异小于预设的标注结果差异阈值等中的一种或多种组合。
在本说明书中,在迭代训练待训练的挖掘模型时,可对待训练的挖掘模型的训练样本进行更新,每个迭代训练过程的训练样本可基于上次迭代训练过程中确定的训练样本的标注结果进行更新。
具体的,以其中一次迭代训练过程为例,对挖掘模型的训练进行说明。
图2为本说明书实施例提供的训练挖掘模型的一个迭代训练过程流程图,具体可包括以下步骤:
S1040:根据上一个迭代训练过程中得到的每个频繁序列的标注结果,确定该迭代训练过程所要使用的训练样本。
在本说明书中,当前迭代训练过程(也即,该迭代训练过程)中的训练样本可基于上一个迭代过程中得到的每个频繁序列的标注结果来确定。
首先,根据上一个迭代训练过程中得到的每个频繁序列的标注结果,对各频繁序列进行分类,得到正确类型对应的频繁序列集合以及错误类型对应的频繁序列集合,并且,从数据库中获取组成第三集合的若干个词汇。
具体的,由于当前迭代训练过程为待训练的挖掘模型的整个训练过程中的其中一次迭代,因此,在当前迭代训练过程中可获取上一次迭代训练过程中得到的每个频繁序列的标注结果,由于频繁序列的标注结果为有意义的词汇或者无意义的词汇,因此,可根据频繁序列的标注结果,对各频繁序列进行分类,将标注结果为有意义的词汇的频繁序列归为一个集合中,即正确类型对应的频繁序列集合,频繁序列的类型为正确类型,同样,将标注结果为无意义的词汇的频繁序列归为错误类型对应的频繁序列集合,频繁序列的类型为错误类型。
同时,可从数据库中获取若干词汇组成第三集合,这里可参考步骤S100的相关内容,当然,由于第三集合中各词汇均为有意义的词汇,因此,第三集合与第二集合可以为同一个集合,也可以为不同的集合。
其次,根据第三集合、正确类型对应的频繁序列集合以及错误类型对应的频繁序列集合,确定待训练的挖掘模型在该迭代训练过程中的训练样本。
在确定正确类型对应的频繁序列集合、错误类型对应的频繁序列集合、第三集合之后,可根据第三集合,在正确类型对应的频繁序列集合以及错误类型对应的频繁序列集合中确定待训练的挖掘模型的训练样本。
具体的,确定正确类型对应的频繁序列集合与第三集合的交集,作为第二正样本集合,并确定错误类型对应的频繁序列集合与第三集合的差集,作为第二负样本集合,根据第二正样本集合以及第二负样本集合,确定待训练的挖掘模型在该迭代训练过程中的训练样本。也即,将同时位于正确类型对应的频繁序列集合与第三集合中的频繁序列,组成第二正样本集合,在第二正样本集合中选择频繁序列,作为当前迭代训练过程中待训练的挖掘模型的正样本;将位于错误类型对应的频繁序列集合中但未位于第三集合中的频繁序列,组成第二负样本集合,在第二负样本集合中选择频繁序列,作为当前迭代训练过程中待训练的挖掘模型的负样本。
这里需要说明的是,若当前迭代训练过程为第一次迭代训练过程,则由于不存在上一迭代训练过程,因此,可将步骤S102中得到的每个频繁序列的标注结果作为上一个迭代训练过程中得到的每个频繁序列的标注结果。
S1042:根据所述训练样本,对所述待训练的挖掘模型进行训练,得到该迭代训练过程中训练完成的挖掘模型。
在得到当前迭代训练过程中待训练的挖掘模型的训练样本之后,可将训练样本输入待训练的挖掘模型,得到待训练的挖掘模型输出的训练样本的预测结果。根据训练样本的预测结果以及训练样本的标注结果,对待训练的挖掘模型进行训练,得到当前迭代训练过程中训练完成的挖掘模型。
这里需要说明的是,可将最后一次迭代训练过程得到的挖掘模型作为最终完成训练的挖掘模型。而当前迭代训练过程中训练完成的挖掘模型并不是最终完成训练的挖掘模型,相对于上一迭代训练过程得到的挖掘模型较为准确,相对于下一迭代训练过程中得到的完成训练的挖掘模型较为粗糙。
S1044:分别将每个频繁序列输入该迭代训练过程中训练完成的挖掘模型,得到该迭代训练过程中训练完成的挖掘模型输出的每个频繁序列的新词挖掘结果,作为该迭代训练过程中得到的每个频繁序列的标注结果。
在得到当前迭代训练过程中训练完成的挖掘模型后,针对每个频繁序列,可将该频繁序列输入当前迭代训练过程中训练完成的挖掘模型,得到当前迭代训练过程中训练完成的挖掘模型输出的该频繁序列的新词挖掘结果,其中,该频繁序列的新词挖掘结果为该频繁序列为有意义的词汇,或者该频繁序列为无意义的词汇,也即,通过当前迭代训练过程中训练完成的挖掘模型,可得到频繁序列的标注结果,该标注结果为频繁序列在当前迭代训练过程中的频繁序列的标注结果,可用于下一个迭代训练过程中训练样本的确定。
在本说明书中,通过不断更新每个迭代训练过程中的训练样本来训练挖掘模型,可使每个迭代训练过程中训练完成的挖掘模型相对于上一个迭代训练过程中训练完成的挖掘模型更加准确,基于更加准确的挖掘模型,训练样本的标注信息也更加准确,从而挖掘模型的精确率与召回率得到有效平衡。
其中,挖掘模型可以为机器学习模型,例如,BERT(Bidirectional EncoderRepresentations from Transformers)模型等神经网络模型。
图3为本说明书实施例提供的一种新词挖掘的方法流程图,具体可包括以下步骤:
S200:获取待挖掘新词的文本数据。
S202:根据所述文本数据,确定若干个待定频繁序列。
S204:针对每个待定频繁序列,将该待定频繁序列输入预先训练的挖掘模型,得到所述挖掘模型输出的该待定频繁序列的新词挖掘结果。
在本说明书中,可获取待挖掘新词的文本数据,其中,待挖掘新词的文本数据可以是网络文本数据、UGC等,在线上到线下(Online To Offline,O2O)模式中,用户通常在第三方平台的商家页面中对商家提供的产品或服务发布信息,即UGC。因此,在本说明书的优选实施例中,获取的待挖掘新词的文本数据来源于待识别商家页面的UGC,或者商家页面中待识别实体(也即,商家提供的商品,包括产品以及服务等)的UGC。正因为UGC的来源是第三方平台的商家页面,因此,基于本说明书提供的新词挖掘方法得到新词,可识别与商家或者商家提供的商品进行匹配,换句话说,可作为商家或商家提供的商品的标签,从而便于用户在第三方平台上根据标签搜索到商家或商品。
在文本数据中确定待定频繁序列的内容可参考上述关于在样本文本数据中确定若干个频繁序列的内容。
针对每个待定频繁序列,可将该待定频繁序列输入挖掘模型,得到挖掘模型确定的该待定频繁序列的新词挖掘结果,其中该待定频繁序列的新词挖掘结果可包括该待定频繁序列为有意义的词汇,或者该待定频繁序列为无意义的词汇。挖掘模型可预先进行训练,预先训练挖掘模型的方法可参考本说明书提供的上述模型训练的方法的内容。
基于图1所示的模型训练的方法,本说明书实施例还对应提供一种模型训练的装置的结构示意图,如图4所示。
图4为本说明书实施例提供的一种模型训练的装置的结构示意图,所述装置包括:
第一获取模块401,用于获取样本文本数据,根据所述样本文本数据,确定若干个频繁序列,将各频繁序列组成的集合作为第一集合,并且,从数据库中获取若干个词汇,将各词汇组成的集合作为第二集合;
第一确定模块402,用于根据所述第一集合以及所述第二集合,确定所述第一集合中每个频繁序列的标注结果;
训练模块403,用于根据所述第一集合中每个频繁序列的标注结果,对待训练的挖掘模型进行迭代训练;其中,针对所述待训练的挖掘模型的每一个迭代训练过程,执行以下操作:根据上一个迭代训练过程中得到的每个频繁序列的标注结果,确定所述待训练的挖掘模型在该迭代训练过程中的训练样本;根据所述训练样本,对所述待训练的挖掘模型进行训练,得到该迭代训练过程中训练完成的挖掘模型;分别将每个频繁序列输入该迭代训练过程中训练完成的挖掘模型,得到该迭代训练过程中训练完成的挖掘模型输出的每个频繁序列的新词挖掘结果,作为该迭代训练过程中得到的每个频繁序列的标注结果。
在本说明书中,通过不断更新每个迭代训练过程中的训练样本来训练挖掘模型,可使每个迭代训练过程中训练完成的挖掘模型相对于上一个迭代训练过程中训练完成的挖掘模型更加准确,基于更加准确的挖掘模型,训练样本的标注信息也更加准确,从而挖掘模型的精确率与召回率得到有效平衡。
可选地,所述第一获取模块401具体用于,对所述样本文本数据进行预处理,得到若干个候选序列;针对每个候选序列,确定该候选序列的序列频率以及序列长度,所述序列频率表征该候选序列在所述样本文本数据中出现的次数,所述序列长度表征该候选序列包含的基本词汇的个数;根据每个候选序列的序列频率和/或序列长度,在各候选序列中,选择候选序列作为频繁序列。
可选地,所述第一确定模块402具体用于,根据所述第一集合以及所述第二集合,确定待训练的分类模型的训练样本;根据所述待训练的分类模型的训练样本,对所述待训练的分类模型进行训练;将所述第一集合中各频繁序列输入训练后的分类模型,得到所述分类模型输出的所述第一集合中每个频繁序列的标注结果。
可选地,所述第一确定模块402具体用于,确定所述第一集合与所述第二集合的交集,作为第一正样本集合;从所述第一正样本集合在所述第一集合的补集中,选择若干个频繁序列组成第一负样本集合;根据所述第一正样本集合以及所述第一负样本集合,确定所述待训练的分类模型的训练样本。
可选地,所述第一确定模块402具体用于,将所述待训练的分类模型的训练样本输入所述待训练的分类模型,通过所述待训练的分类模型提取训练样本的特征,得到所述待训练的分类模型根据所述训练样本的特征输出的预测结果;根据所述预测结果,对所述待训练的分类模型进行训练。
可选地,所述训练模块403具体用于,根据上一个迭代训练过程中得到的每个频繁序列的标注结果,对各频繁序列进行分类,得到正确类型对应的频繁序列集合以及错误类型对应的频繁序列集合;并且,从所述数据库中获取组成第三集合的若干个词汇;根据所述第三集合、所述正确类型对应的频繁序列集合以及所述错误类型对应的频繁序列集合,确定所述待训练的挖掘模型在该迭代训练过程中的训练样本。
可选地,所述训练模块403具体用于,确定所述正确类型对应的频繁序列集合与所述第三集合的交集,作为第二正样本集合,并确定所述错误类型对应的频繁序列集合与所述第三集合的差集,作为第二负样本集合;根据所述第二正样本集合以及所述第二负样本集合,确定所述待训练的挖掘模型在该迭代训练过程中的训练样本。
基于图3所示的新词挖掘的方法,本说明书实施例还对应提供一种新词挖掘的装置的结构示意图,如图5所示。
图5为本说明书实施例提供的一种新词挖掘的装置的结构示意图,所述装置包括:
第二获取模块501,用于获取待待挖掘新词的文本数据;
第二确定模块502,用于根据所述文本数据,确定若干个待定频繁序列;
输入模块503,用于针对每个待定频繁序列,将该待定频繁序列输入预先训练的挖掘模型,得到所述挖掘模型输出的该待定频繁序列的新词挖掘结果,其中,所述挖掘模型根据本说明书提供的模型训练的方法进行预先训练。
本说明书实施例还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述内容提供的模型训练以及新词挖掘的方法。
基于上述内容提供的模型训练以及新词挖掘的方法,本说明书实施例还提出了图6所示的电子设备的示意结构图。如图6,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述内容提供的模型训练以及新词挖掘的方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字***“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的***、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、***、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、***或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (12)
1.一种模型训练的方法,其特征在于,所述方法包括:
获取样本文本数据,根据所述样本文本数据,确定若干个频繁序列,将各频繁序列组成的集合作为第一集合,并且,从数据库中获取若干个词汇,将各词汇组成的集合作为第二集合;
根据所述第一集合以及所述第二集合,确定所述第一集合中每个频繁序列的标注结果;
根据所述第一集合中每个频繁序列的标注结果,对待训练的挖掘模型进行迭代训练;
其中,针对所述待训练的挖掘模型的每一个迭代训练过程,执行以下操作:
根据上一个迭代训练过程中得到的每个频繁序列的标注结果,确定该迭代训练过程所要使用的训练样本;
根据所述训练样本,对所述待训练的挖掘模型进行训练,得到该迭代训练过程中训练完成的挖掘模型;
分别将每个频繁序列输入该迭代训练过程中训练完成的挖掘模型,得到该迭代训练过程中训练完成的挖掘模型输出的每个频繁序列的新词挖掘结果,作为该迭代训练过程中得到的每个频繁序列的标注结果。
2.如权利要求1所述的方法,其特征在于,根据所述样本文本数据,确定若干个频繁序列,具体包括:
对所述样本文本数据进行预处理,得到若干个候选序列;
针对每个候选序列,确定该候选序列的序列频率以及序列长度,所述序列频率表征该候选序列在所述样本文本数据中出现的次数,所述序列长度表征该候选序列包含的基本词汇的个数;
根据每个候选序列的序列频率和/或序列长度,在各候选序列中,选择候选序列作为频繁序列。
3.如权利要求1所述的方法,其特征在于,根据所述第一集合以及所述第二集合,确定所述第一集合中每个频繁序列的标注结果,具体包括:
根据所述第一集合以及所述第二集合,确定待训练的分类模型的训练样本;
根据所述待训练的分类模型的训练样本,对所述待训练的分类模型进行训练;
将所述第一集合中各频繁序列输入训练后的分类模型,得到所述分类模型输出的所述第一集合中每个频繁序列的标注结果。
4.如权利要求3所述的方法,其特征在于,根据所述第一集合以及所述第二集合,确定待训练的分类模型的训练样本,具体包括:
确定所述第一集合与所述第二集合的交集,作为第一正样本集合;
从所述第一正样本集合在所述第一集合的补集中,选择若干个频繁序列组成第一负样本集合;
根据所述第一正样本集合以及所述第一负样本集合,确定所述待训练的分类模型的训练样本。
5.如权利要求3-4任一所述的方法,其特征在于,根据所述待训练的分类模型的训练样本,对所述待训练的分类模型进行训练,具体包括:
将所述待训练的分类模型的训练样本输入所述待训练的分类模型,通过所述待训练的分类模型提取训练样本的特征,得到所述待训练的分类模型根据所述训练样本的特征输出的预测结果;
根据所述预测结果,对所述待训练的分类模型进行训练。
6.如权利要求1所述的方法,其特征在于,根据上一个迭代训练过程中得到的每个频繁序列的标注结果,确定所述待训练的挖掘模型在该迭代训练过程中的训练样本,具体包括:
根据上一个迭代训练过程中得到的每个频繁序列的标注结果,对各频繁序列进行分类,得到正确类型对应的频繁序列集合以及错误类型对应的频繁序列集合;并且,从所述数据库中获取组成第三集合的若干个词汇;
根据所述第三集合、所述正确类型对应的频繁序列集合以及所述错误类型对应的频繁序列集合,确定所述待训练的挖掘模型在该迭代训练过程中的训练样本。
7.如权利要求6所述的方法,其特征在于,根据所述第三集合、所述正确类型对应的频繁序列集合以及所述错误类型对应的频繁序列集合,确定所述待训练的挖掘模型在该迭代训练过程中的训练样本,具体包括:
确定所述正确类型对应的频繁序列集合与所述第三集合的交集,作为第二正样本集合,并确定所述错误类型对应的频繁序列集合与所述第三集合的差集,作为第二负样本集合;
根据所述第二正样本集合以及所述第二负样本集合,确定所述待训练的挖掘模型在该迭代训练过程中的训练样本。
8.一种新词挖掘的方法,其特征在于,所述方法包括:
获取待挖掘新词的文本数据;
根据所述文本数据,确定若干个待定频繁序列;
针对每个待定频繁序列,将该待定频繁序列输入预先训练的挖掘模型,得到所述挖掘模型输出的该待定频繁序列的新词挖掘结果,其中,所述挖掘模型根据权利要求1-7任一所述的方法进行预先训练。
9.一种模型训练的装置,其特征在于,所述装置包括:
第一获取模块,用于获取样本文本数据,根据所述样本文本数据,确定若干个频繁序列,将各频繁序列组成的集合作为第一集合,并且,从数据库中获取若干个词汇,将各词汇组成的集合作为第二集合;
第一确定模块,用于根据所述第一集合以及所述第二集合,确定所述第一集合中每个频繁序列的标注结果;
训练模块,用于根据所述第一集合中每个频繁序列的标注结果,对待训练的挖掘模型进行迭代训练;其中,针对所述待训练的挖掘模型的每一个迭代训练过程,执行以下操作:根据上一个迭代训练过程中得到的每个频繁序列的标注结果,确定所述待训练的挖掘模型在该迭代训练过程中的训练样本;根据所述训练样本,对所述待训练的挖掘模型进行训练,得到该迭代训练过程中训练完成的挖掘模型;分别将每个频繁序列输入该迭代训练过程中训练完成的挖掘模型,得到该迭代训练过程中训练完成的挖掘模型输出的每个频繁序列的新词挖掘结果,作为该迭代训练过程中得到的每个频繁序列的标注结果。
10.一种新词挖掘的装置,其特征在于,所述装置包括:
第二获取模块,用于获取待待挖掘新词的文本数据;
第二确定模块,用于根据所述文本数据,确定若干个待定频繁序列;
输入模块,用于针对每个待定频繁序列,将该待定频繁序列输入预先训练的挖掘模型,得到所述挖掘模型输出的该待定频繁序列的新词挖掘结果,其中,所述挖掘模型根据权利要求1-7任一所述的方法进行预先训练。
11.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1-7或8任一所述的方法。
12.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1-7或8任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011252398.XA CN112417093B (zh) | 2020-11-11 | 2020-11-11 | 一种模型训练的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011252398.XA CN112417093B (zh) | 2020-11-11 | 2020-11-11 | 一种模型训练的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112417093A true CN112417093A (zh) | 2021-02-26 |
CN112417093B CN112417093B (zh) | 2024-03-08 |
Family
ID=74781433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011252398.XA Active CN112417093B (zh) | 2020-11-11 | 2020-11-11 | 一种模型训练的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112417093B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113010641A (zh) * | 2021-03-10 | 2021-06-22 | 北京三快在线科技有限公司 | 一种数据处理的方法及装置 |
CN113468332A (zh) * | 2021-07-14 | 2021-10-01 | 广州华多网络科技有限公司 | 分类模型更新方法及其相应的装置、设备、介质 |
CN113641724A (zh) * | 2021-07-22 | 2021-11-12 | 北京百度网讯科技有限公司 | 知识标签挖掘方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140278407A1 (en) * | 2013-03-14 | 2014-09-18 | Google Inc. | Language modeling of complete language sequences |
CN107357837A (zh) * | 2017-06-22 | 2017-11-17 | 华南师范大学 | 基于保序子矩阵和频繁序列挖掘的电商评论情感分类方法 |
CN109918653A (zh) * | 2019-02-21 | 2019-06-21 | 腾讯科技(深圳)有限公司 | 确定文本数据的关联话题及模型的训练方法、装置和设备 |
CN111680146A (zh) * | 2020-06-10 | 2020-09-18 | 腾讯科技(深圳)有限公司 | 确定新词的方法、装置、电子设备及可读存储介质 |
-
2020
- 2020-11-11 CN CN202011252398.XA patent/CN112417093B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140278407A1 (en) * | 2013-03-14 | 2014-09-18 | Google Inc. | Language modeling of complete language sequences |
CN107357837A (zh) * | 2017-06-22 | 2017-11-17 | 华南师范大学 | 基于保序子矩阵和频繁序列挖掘的电商评论情感分类方法 |
CN109918653A (zh) * | 2019-02-21 | 2019-06-21 | 腾讯科技(深圳)有限公司 | 确定文本数据的关联话题及模型的训练方法、装置和设备 |
CN111680146A (zh) * | 2020-06-10 | 2020-09-18 | 腾讯科技(深圳)有限公司 | 确定新词的方法、装置、电子设备及可读存储介质 |
Non-Patent Citations (1)
Title |
---|
周俊等: "基于频繁序列的新词挖掘算法", 电脑知识与技术(学术交流), no. 14, 27 May 2006 (2006-05-27) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113010641A (zh) * | 2021-03-10 | 2021-06-22 | 北京三快在线科技有限公司 | 一种数据处理的方法及装置 |
CN113468332A (zh) * | 2021-07-14 | 2021-10-01 | 广州华多网络科技有限公司 | 分类模型更新方法及其相应的装置、设备、介质 |
CN113641724A (zh) * | 2021-07-22 | 2021-11-12 | 北京百度网讯科技有限公司 | 知识标签挖掘方法、装置、电子设备及存储介质 |
CN113641724B (zh) * | 2021-07-22 | 2024-01-19 | 北京百度网讯科技有限公司 | 知识标签挖掘方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112417093B (zh) | 2024-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107729313B (zh) | 基于深度神经网络的多音字读音的判别方法和装置 | |
CN112417093A (zh) | 一种模型训练的方法及装置 | |
JP2020524314A (ja) | 危険アドレス識別方法及び機器、並びに電子装置 | |
CN107341143B (zh) | 一种句子连贯性判断方法及装置和电子设备 | |
CN113221555B (zh) | 一种基于多任务模型的关键词识别方法、装置及设备 | |
CN111401062B (zh) | 文本的风险识别方法、装置及设备 | |
CN111401058B (zh) | 一种基于命名实体识别工具的属性值抽取方法及装置 | |
CN110781687B (zh) | 相同意图语句的获取方法及装置 | |
US10915756B2 (en) | Method and apparatus for determining (raw) video materials for news | |
CN114036930A (zh) | 文本纠错方法、装置、设备及计算机可读介质 | |
CN114661872B (zh) | 一种面向初学者的api自适应推荐方法与*** | |
CN111739520A (zh) | 一种语音识别模型训练方法、语音识别方法、装置 | |
CN112948449A (zh) | 一种信息推荐的方法及装置 | |
CN112287071A (zh) | 一种文本关系提取方法、装置及电子设备 | |
CN113887227A (zh) | 一种模型训练与实体识别方法及装置 | |
CN113887206B (zh) | 一种模型训练及关键词提取方法及装置 | |
CN113887235A (zh) | 一种信息推荐的方法及装置 | |
CN115238080A (zh) | 实体链接方法及相关设备 | |
CN114676257A (zh) | 一种对话主题确定方法及装置 | |
CN114254622A (zh) | 一种意图识别方法和装置 | |
CN113010573A (zh) | 一种关联关系提取方法、装置及电子设备 | |
CN112507060A (zh) | 一种领域语料库构建方法及*** | |
CN112287130A (zh) | 一种图形题目的搜索方法、装置以及设备 | |
Boram | Authorship attribution in Huayan texts by machine learning using N-gram and SVM | |
CN112100314B (zh) | 一种基于软件开发问答网站的api教程汇编生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |