CN113344098A - 一种模型训练方法及装置 - Google Patents
一种模型训练方法及装置 Download PDFInfo
- Publication number
- CN113344098A CN113344098A CN202110690512.5A CN202110690512A CN113344098A CN 113344098 A CN113344098 A CN 113344098A CN 202110690512 A CN202110690512 A CN 202110690512A CN 113344098 A CN113344098 A CN 113344098A
- Authority
- CN
- China
- Prior art keywords
- entity
- entities
- determining
- training
- knowledge base
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/23—Updating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
- G06F16/2465—Query processing support for facilitating data mining operations in structured databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/247—Thesauruses; Synonyms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Animal Behavior & Ethology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本说明书公开了一种模型训练方法及装置,可基于已构建知识库中的各实体,从目标领域相关的各段文本中,确定包含任一实体的训练样本,并根据实体在各训练样本中位置及其实体属性,对各训练样本进行序列标注。之后,通过各训练样本及其标注,对预训练的语言模型进一步训练。基于已构建知识库中各实体,确定各训练样本,并对各训练样本进行自动标注的方式,节省了人工标注成本。
Description
技术领域
本申请涉及机器学习技术领域,尤其涉及一种模型训练方法及装置。
背景技术
知识图谱,是一种由节点和边组成的图数据结构,主要应用于智能问答以及信息推荐等领域。其中,知识图谱中每个节点表示一个实体,每条边表示实体与实体之间的关联关系。
目前,在构建各领域的知识图谱时,首先需要获取相关领域的百科数据,并对获取到的百科数据进行知识挖掘,获取相关的实体内容以及各实体之间的关联关系。最后,根据各实体及其之间的关联关系,构建该相关领域的知识图谱。
其中,常见的一种知识挖掘方法是基于机器学习或深度学习的方法,可通过预先训练的文本识别模型从百科数据中识别出相关实体。
但是,通过机器学习模型进行知识挖掘,则在进行模型训练时,需要大量人工标注的语料数据,需要耗费较高的人力成本。
发明内容
本说明书实施例提供一种模型训练方法及装置,用于部分解决现有技术中的问题。
本说明书实施例采用下述技术方案:
本说明书提供的一种模型训练方法及装置,包括:
获取目标领域相关的第一文本数据集;
根据已构建知识库中的各实体,从所述第一文本数据集包含的各段文本中,确定包含任一实体的文本,作为训练样本,并针对每个训练样本,根据所述实体在该训练样本中的位置以及所述实体的实体属性,对该训练样本进行序列标注;
将该训练样本输入预训练的语言模型,确定所述语言模型输出的预测结果;
根据各训练样本的标注与所述语言模型输出的预测结果,调整所述语言模型中的模型参数,所述语言模型用于进行知识挖掘。
可选地,所述目标领域相关的第一文本数据集至少包含目标领域相关的百科数据以及历史上的用户生成内容中的一种,其中,所述用户生成内容包含用户搜索数据以及用户评论数据。
可选地,所述方法还包括:
获取所述目标领域相关的第二文本数据集;
根据已构建知识库中的各实体的实体属性,确定正则匹配规则,并根据所述正则匹配规则,从所述第二文本数据集的各段文本中,确定符合所述正则匹配规则的若干实体及其实体属性;
根据确定出的各实体,对所述已构建知识库中的实体进行更新。
可选地,所述方法还包括:
当处于预设训练阶段时,获取所述目标领域相关的第三文本数据集,并将所述第三文本数据集中的各段文本作为测试样本,针对每个测试样本,将该测试样本输入调整后的语言模型中,确定所述语言模型输出的预测结果;根据所述预测结果的置信度,从各测试样本中确定易错样本;根据所述易错样本及其序列标注,重新调整所述语言模型中的模型参数,直至达到预设训练指标为止。
可选地,所述预测结果包含预测实体以及预测实体属性;
确定易错样本之前,所述方法还包括:
根据各测试样本的预测实体分别在预设的各业务维度上的业务指标,确定各预测实体的质量得分;
确定质量得分超出预设得分阈值的各预测实体。
可选地,所述方法还包括:
获取所述目标领域相关的第四文本数据集;
针对所述第四文本数据集中的每段文本,将该段文本输入训练完成的语言模型中,确定该段文本的预测结果;
根据各预测结果中的预测实体及其预测实体属性,对所述已构建知识库进行更新,其中,所述已构建知识库中包含各实体与各实体属性之间的关联关系。
可选地,根据各预测结果中的预测实体及其预测实体属性,对所述已构建知识库进行更新,具体包括:
针对所述已构建知识库中的每个实体,从各预测实体中确定该实体的同义实体;
从剩余的各预测实体中,确定同义的各预测实体;
根据所述已构建知识库中各实体的同义实体,以及所述同义的各预测实体及其预测实体属性,对所述已构建知识库进行更新。
可选地,从各预测实体中确定该实体的同义实体,具体包括:
根据同义词词林,确定该实体与各预测实体之间的距离相似度,并确定所述距离相似度大于预设相似度阈值的预测实体,作为该实体的同义实体。
可选地,所述方法还包括:
根据确定出的各实体以及预设的实体聚合规则,确定聚合后的各聚合实体;
确定各聚合实体与预设的各兴趣点之间的关联关系;
根据各实体以及各聚合实体之间的关联关系、各聚合实体与各兴趣点之间的关联关系,对所述已构建知识库进行更新。
本说明书提供一种模型训练装置,包括:
获取模块,获取目标领域相关的第一文本数据集;
样本标注模块,根据已构建知识库中的各实体,从所述第一文本数据集包含的各段文本中,确定包含任一实体的文本,作为训练样本,并针对每个训练样本,根据所述实体在该训练样本中的位置以及所述实体的实体属性,对该训练样本进行序列标注;
输入模块,将该训练样本输入预训练的语言模型,确定所述语言模型输出的预测结果;
调参模块,根据各训练样本的标注与所述语言模型输出的预测结果,调整所述语言模型中的模型参数,所述语言模型用于进行知识挖掘。
本说明书提供的一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述模型训练方法。
本说明书提供的一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述模型训练方法。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书中,可基于已构建知识库中的各实体,从目标领域相关的各段文本中,确定包含任一实体的训练样本,并根据实体在各训练样本中位置及其实体属性,对各训练样本进行序列标注。之后,通过各训练样本及其标注,对预训练的语言模型进一步训练。通过已构建知识库中各实体,确定各训练样本,并对各训练样本进行自动标注的方式,节省了人工标注成本。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本说明书实施例提供的一种模型训练方法的流程示意图;
图2为本说明书实施例提供的一种已构建知识库的层级结构示意图;
图3为本说明书实施例提供的一种知识库更新流程图;
图4为本说明书实施例提供的一种知识库结构示意图;
图5为本说明书实施例提供的一种模型训练装置的结构示意图;
图6为本说明书实施例提供的实现模型训练方法的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本说明书提供一种模型训练方法,用于训练语言模型,以通过该语言模型进行知识挖掘,并基于挖掘出的各实体构建不同领域的知识库。以下结合附图,详细说明本申请各实施例提供的技术方案。
图1为本说明书实施例提供的模型训练方法的流程示意图,具体可包含以下步骤:
S100:获取目标领域相关的第一文本数据集。
本说明书提供的模型训练方法,用于训练进行知识挖掘的语言模型,即,从文本中挖据出实体信息。于是可先获取待挖掘的目标领域相关的第一文本数据集,用于进行模型训练。
其中,该第一文本数据集至少包含该目标领域相关的百科数据以及历史上的用户生成内容(User-generated content,UGC)中的一种,该用户生成内容为该用户在该目标领域的生成数据,如,用户点击数据、用户搜索数据以及用户评论数据等。该目标领域可以是美食领域、旅游领域以及社交领域等,本说明书对此不作限制,具体可根据需要构建的知识库类型设置。
S102:根据已构建知识库中的各实体,从所述第一文本数据集包含的各段文本中,确定包含任一实体的文本,作为训练样本,并针对每个训练样本,根据所述实体在该训练样本中的位置以及所述实体的实体属性,对该训练样本进行序列标注。
为了减少人工标注的成本,在本说明书中可利用已构建知识库中各实体,通过远程监督学习的方法,对各训练样本进行自动标注。其中,该已构建知识库可以是预先基于目标领域常见的实体所构建的小型知识库,也可以是待更新的已有知识库。
具体的,针对已构建知识库中的每个实体,从该第一文本数据集包含的各段文本中确定包含该实体的文本,作为训练样本。之后,针对每个训练样本,根据实体在该训练样本中的位置以及该实体的实体属性,对该训练样本进行序列标注。其中,在对训练样本进行序列标注时,可采用常见的BIEO标注方式,例如,假设训练样本的文本为“李明去上海出差”,分别对其中实体属性为人名(PER)和地名(LOC)的实体进行标注,则对应的序列标注为“B-PER E-PER O B-LOC E-LOC O O”。
进一步的,为了使模型训练达到更好的训练效果,还可对已构建知识库中的实体进行扩充,以提升训练样本的丰富度。具体的,可获取该目标领域相关的第二文本数据集。之后,根据已构建知识库中的各实体的实体属性,生成正则匹配规则,并根据该正则匹配规则,从该第二文本数据集的各段文本中,挖掘符合该正则匹配规则的若干实体及其实体属性。最后,根据挖掘出的各实体及其实体属性,对已构建知识库进行扩充。例如,当该正则匹配规则设置为(城市名)[0~9]+(大)(景点),则可从挖掘出“北京五大主题公园”、“成都三大历史文化保护区”等实体。实体属性可以是挖掘出的实体的分类,如,当实体属性是娱乐项目时,对应的实体可以是过山车、旋转木马等。
在本说明书构建旅游知识库的一种实施例中,为构建面向用户的场景化的知识库,可将实体属性定义为面向用户的“活动场景”、“游玩感受”以及“主题风格”等场景化的类型。
其中,由于进行实体扩充,是从第二文本数据集中扩充不同于已构建知识库中实体的额外实体,因此该第二文本数据集可以与第一文本数据集相同,也可以与第一文本数据集不同,本说明书对此不做限制,可根据需要设置。
另外,为进一步挖掘出较丰富的实体信息,还可基于已构建知识库中各实体及其实体属性,对正则匹配规则进行扩充。例如,将上述正则规则扩充为(城市名/城市别名)[0~9]+(大)(景点/景区/风景区)。
或者,在本说明书另一种实施例中,也可根据已构建知识库中的实体属性,从第二文本数据集包含的各段文本中,挖掘符合各实体属性的实体信息。例如,当已构建知识库中的实体属性为“城市”时,则可从第二文本数据集中挖掘属于“城市”的实体,如,上海、广州等。
更进一步的,为了提高训练样本的质量,还可对挖掘出的各实体进行质量评估,以从中筛选质量较高的实体信息。具体的,针对确定出的每个实体,根据该实体在预设的各业务维度上的业务指标,确定该实体的质量得分,并从中确定质量得分超出预设得分阈值的优质实体,对后续的训练样本进行标注。其中,预设的各业务维度的业务指标包括但不限于用户搜索次数、用户点击次数以及用户评论次数等,预设得分阈值也可根据需要设置。
图2为已构建知识库的层级结构示意图,该已构建知识库中分为实体层以及实体属性层,实体层中包含若干实体,图中a1、a2、b1、c1、c2、c3、d1和d2为预先挖掘的若干实体,实体属性层中包含若干实体属性,图中A、B、C、D分别表示预定义的若干种实体属性。其中,实体a1和a2对应于实体属性A,实体b1对应于实体属性B,实体c1、c2和c3对应于实体属性C,实体d1和d2对应于实体属性D。
S104:将该训练样本输入预训练的语言模型,确定所述语言模型输出的预测结果。
S106:根据各训练样本的标注与所述语言模型输出的预测结果,调整所述语言模型中的模型参数。
一般在训练样本的标记数量不足的情况下,传统深度网络难以有效学习到训练样本的文本特征,因此为了提升模型训练效果,在本说明书中可采用进行过预训练的语言模型,进行知识迁移训练。其中,该预训练的语言模型已经预先学习到自然语言的文本语义特征。
具体的,针对每个训练样本,将该训练样本输入预训练的语言模型中,确定该语言模型输出的预测结果。并以最小化输出的预测结果与该训练样本的标注之间的差异为目标,对该语言模型中的模型参数进行调整。其中,语言模型输出的预测结果为训练样本的序列,该序列中包含预测实体在训练样本中的位置及其预测实体属性,该预训练的语言模型可以是基于变化器的双向编码表征模型(Bidirectional Encoder Representation fromTransformers,BERT)。
在模型训练过程中,当基于各训练样本及其标注对语言模型进行参数调整后,可进一步判断训练的语言模型是否达到预设训练指标。其中,预设训练指标可以是模型输出的预测结果的准确率、召回率等。
当训练的语言模型达到预设训练指标时,可确定模型训练完成。当训练的语言模型未达到预设训练指标时,可确定当前处于预设训练阶段,通过进一步的主动学习,对模型输出的易错结果进行针对性训练,以达到更好的训练效果。具体的,可获取该目标领域相关的第三文本数据集,其中,该第三文本数据集为未进行序列标注的文本数据集,且该第三文本数据集与第一文本数据集不同。之后,将确定出的各段文本分别作为测试样本,针对每个测试样本,将该测试样本输入调整后的语言模型中,确定该语言模型输出的预测结果,其中,预测结果中包含预测实体在测试样本中的位置及其预测实体属性。然后,根据该预测结果的置信度,从各测试样本中确定出易错样本,并通过人工对各易错样本进行序列标注。最后,以最小化各易错样本的预测结果及其序列标注之间的差异,重新调整该语言模型中的模型参数,直至达到预设训练指标为止。
其中,由于模型对于较复杂的负样本的预测准确率较低,容易错误预测为置信度较高的正样本,并且当模型输出预测结果的置信度越接近0.5时,该预测结果的准确度较差。也就是说,模型输出预测结果的置信度较高或者置信度接近中间值的出错概率较大,因此可对预测结果的置信度较高或者置信度接近中间值的训练样本进行标注,以对模型进行迭代训练。
为了节省主动学习过程中的人工标注成本,可根据各训练样本的置信度,从中确定预测结果的置信度处于第一预设阈值区间的各训练样本,以及置信度处于第二预设阈值区间的各训练样本,作为易错样本。其中,第一预设阈值区间对应于置信度较高的区间,可设置为[0.99,1),第二预设阈值区间对应于置信度接近0.5的区间范围,可设置为(0.5,0.6),具体阈值区间的范围可根据需要设置。
进一步的,为了更好的提升语言模型在主动学习过程中的训练样本质量,还可对基于测试样本挖掘出的预测实体进行质量评估,以通过高质量的实体标注对模型进行迭代训练。具体的,针对每个测试样本的预测实体,可根据该预测实体在预设的各业务维度上的业务指标,确定预测实体的质量得分。其中,业务指标与实体的质量得分正相关,该业务指标包括但不限于用户搜索次数、用户点击次数以及用户评论次数等指标。之后,根据各预测实体的质量得分,从中确定质量得分超出预设得分阈值的预测实体,作为优质实体,并从各优质实体对应的测试样本中确定易错样本,用于后续的模型训练过程。
或者,在本说明书另一种实施例中,还可从语义完整度、词边界清晰度等方面对预测实体进行质量评判。具体的,针对每个测试样本的预测实体,将该预测实体输入预先训练的质量评估模型,确定该预测实体的质量得分。之后,确定质量得分超出预设得分阈值的各预测实体,作为优质实体,并从各优质实体对应的测试样本中确定易错样本,用于后续的模型训练过程。其中,该质量评估模型也可基于预训练的语言模型(如,BERT模型)训练得到,详细的模型训练过程可参见现有技术。
当然,在本说明书其它实施例中,也可结合上述两种质量评判方法综合进行评估,本说明书对具体的质量评判方法不做限制,可根据需要进行组合。
基于图1所示的模型训练方法,可基于已构建知识库中的各实体,从目标领域相关的各段文本中,确定包含任一实体的训练样本,并根据实体在各训练样本中位置及其实体属性,对各训练样本进行序列标注。之后,通过各训练样本及其标注,对预训练的语言模型进一步训练。通过已构建知识库中各实体,确定各训练样本,并对各训练样本进行自动标注的方式,节省了人工标注成本。
另外,本说明书中作为训练样本的文本数据集中包含用户生成内容以及百科数据等多种数据来源,提高了训练样本的丰富度,使得后续应用该语言模型进行知识挖掘时,挖掘出更丰富的实体信息。
在本说明书一种实施例中,当采用上述模型训练方法训练得到语言模型后,便可通过该训练完成的语言模型进行知识挖掘,从而构建或扩充知识库。
具体的,在应用该语言模型进行知识库构建或扩充时,可先获取该目标领域相关的第四文本数据集,其中,该第四文本数据集中可包含目标领域最新的用户生成文本。之后,针对第四文本数据集中的每段文本,将该段文本输入训练完成的语言模型中,确定该段文本的预测结果。其中,该预测结果中包含预测实体在该段文本中的位置及其预测实体属性。最后,根据各预测结果中的预测实体及其预测实体属性,对已构建知识库进行更新,其中,已构建知识库中包含各实体与各实体属性之间的关联关系。
其中,在对已构建知识库进行更新时,可基于各段文本的预测实体,对已构建知识库进行扩充。一方面,从各预测实体中确定该实体的同义实体,另一方面,从剩余的各预测实体中,通过聚类确定同义的各预测实体。最后,根据已构建知识库中各实体的同义实体,以及同义的各预测实体及其预测实体属性,对已构建知识库进行更新。
进一步的,在从各预测实体中确定该实体的同义实体时,可通过预先训练的词向量模型(Word to vector,Word2vec),确定各实体对应的词向量。之后,根据该实体的词向量与各预测实体的词向量之间的相似度,从各预测实体中确定相似度大于预设相似度阈值的预测实体,作为该实体的同义实体。
或者,在从各预测实体中确定该实体的同义实体时,还可根据同义词词林,确定该实体与各预测实体之间的距离相似度,并确定距离相似度大于预设相似度阈值的预测实体,作为该实体的同义实体。
当然在本说明书一种实施例中,也可结合上述两种相似度计算方法综合确定同义实体。如,可先根据该实体的词向量与各预测实体的词向量之间的相似度,确定相似度大于第三预设阈值的预测实体,作为候选同义实体,之后,继续根据同义词词林,确定该实体与各候选同义实体之间的距离相似度,确定距离相似度大于第四预设阈值的候选同义实体,作为该实体的同义实体。其中,该第三预设阈值以及第四预设阈值均可根据需要设置,本说明书对此不做限制。
图3为本说明书提供的知识库更新流程图,在进行知识库更新时,可获取相关领域的百科数据以及用户生成内容,作为知识库更新的数据来源。之后,通过训练完成的语言模型进行知识挖掘,确定模型输出的各预测实体。然后,针对已构建知识库中的各实体,从各预测实体中确定各实体的同义实体,以进行同义词扩展。最后,根据扩展后的各实体及其实体属性,对已构建知识库进行更新。
更进一步的,当实体的数据量较多时,为提高同义实体筛选效率,还可采用双塔模型从各预测实体中筛选该实体的候选同义实体,之后再通过关系判断模型,从各候选同义实体中确定该实体的同义实体。其中,双塔模型是目前推荐***常用的模型之一,本说明书在此不再赘述,具体可参见现有技术。该双塔模型以及关系判断模型也可基于预训练的BERT模型训练。
在本说明书一种实施例中,为了使构建的知识库更符合信息推荐的需求,以及时响应用户搜索的需要,还可在知识库中额外增加需求层以及兴趣点(Point of Interest,POI)层。其中,需求层中包含用户常见的搜索关键词,POI层中包含目标领域的预设POI,如,当目标领域为旅游领域时,各POI可以是具体的景点,当目标领域为电商领域时,各POI可以是各商家店铺。本说明书对此不做限制,可根据需要设置。
由于用户搜索的关键词中通常包含目标领域的多个实体,因此在本说明书中,还可进一步根据挖据出的各实体以及预设的实体聚合规则,确定聚合后的各聚合实体,以及各实体与聚合实体之间的关联关系。其中,聚合后的聚合实体可确定为用户搜索的关键词。实体聚合规则可根据需要设置。例如,假设挖掘出的各实体包含人物(情侣、亲子)、项目(温泉、摩天轮),通过实体聚合规则“人物+项目”进行聚合后,可扩展出“情侣摩天轮”、“亲子温泉”等聚合实体。当然,通过实体聚合规则聚合后的聚合实体也可是实体本身,本说明书对此不做限制,可根据需要设置。
进一步的,为了便于在用户搜索关键词时,向用户推荐相应的POI,因此还需确定POI层与需求层之间的关联关系。具体的,针对每个预设的POI,可从该POI下的用户生成内容(如,用户对该POI的评论等)中,确定包含的各聚合实体。之后,根据各POI的用户生成内容中包含的各聚合实体,确定各聚合实体与POI之间的关联关系。
最后,根据需求层中的各聚合实体、POI层中的各POI、各聚合实体与各POI之间的关联关系,以及各聚合实体与各实体之间的关联关系,对已构建知识库进行更新。
图4为本说明书实施例提供的一种知识库结构示意图,该知识库中包含4种分层,分别为实体属性层、实体层、需求层以及POI层,其中,实体属性层包含预定义的“人群”与“项目类型”两种实体属性,实体层包含挖掘出的“亲子”和“温泉”两种实体,分别属于实体属性“人群”和“项目类型”。需求层中的聚合实体“亲子温泉”,可基于预设的聚合实体规则对挖掘出的实体进行聚合得到。POI层中包含“温泉度假村”,根据用户在该“温泉度假村”下的用户生成内容,可确定“温泉度假村”与“亲子温泉”存在关联关系。
需要说明的是,在知识库中各实体分别与实体属性之间相关联,也与聚合实体之间相关联,当对进行同义词扩充时,扩充后的同义实体也存在与原实体相同的关联关系。
基于图1所示的一种模型训练方法,本说明书实施例还对应提供一种模型训练装置的结构示意图,如图5所示。
图5为本说明书实施例提供的一种模型训练装置的结构示意图,包括:
获取模块200,获取目标领域相关的第一文本数据集;
样本标注模块202,根据已构建知识库中的各实体,从所述第一文本数据集包含的各段文本中,确定包含任一实体的文本,作为训练样本,并针对每个训练样本,根据所述实体在该训练样本中的位置以及所述实体的实体属性,对该训练样本进行序列标注;
输入模块204,将该训练样本输入预训练的语言模型,确定所述语言模型输出的预测结果;
调参模块206,根据各训练样本的标注与所述语言模型输出的预测结果,调整所述语言模型中的模型参数,所述语言模型用于进行知识挖掘。
可选地,所述目标领域相关的第一文本数据集至少包含目标领域相关的百科数据以及历史上的用户生成内容中的一种,其中,所述用户生成内容包含用户搜索数据以及用户评论数据。
可选地,所述样本标注模块202还用于,获取所述目标领域相关的第二文本数据集,根据已构建知识库中的各实体的实体属性,确定正则匹配规则,并根据所述正则匹配规则,从所述第二文本数据集的各段文本中,确定符合所述正则匹配规则的若干实体及其实体属性,根据确定出的各实体,对所述已构建知识库中的实体进行更新。
可选地,所述调参模块206还用于,当处于预设训练阶段时,获取所述目标领域相关的第三文本数据集,并将所述第三文本数据集中的各段文本作为测试样本,针对每个测试样本,将该测试样本输入调整后的语言模型中,确定所述语言模型输出的预测结果;根据所述预测结果的置信度,从各测试样本中确定易错样本;根据所述易错样本及其序列标注,重新调整所述语言模型中的模型参数,直至达到预设训练指标为止。
可选地,所述预测结果包含预测实体以及预测实体属性,所述调参模块206还用于,根据各测试样本的预测实体分别在预设的各业务维度上的业务指标,确定各预测实体的质量得分,确定质量得分超出预设得分阈值的各预测实体。
可选地,所述模型训练装置还包含知识库更新模块208,所述知识库更新模块208具体用于,获取所述目标领域相关的第四文本数据集,针对所述第四文本数据集中的每段文本,将该段文本输入训练完成的语言模型中,确定该段文本的预测结果,根据各预测结果中的预测实体及其预测实体属性,对所述已构建知识库进行更新,其中,所述已构建知识库中包含各实体与各实体属性之间的关联关系。
可选地,所述知识库更新模块208具体用于,针对所述已构建知识库中的每个实体,从各预测实体中确定该实体的同义实体,从剩余的各预测实体中,确定同义的各预测实体,根据所述已构建知识库中各实体的同义实体,以及所述同义的各预测实体及其预测实体属性,对所述已构建知识库进行更新。
可选地,所述知识库更新模块208具体用于,根据同义词词林,确定该实体与各预测实体之间的距离相似度,并确定所述距离相似度大于预设相似度阈值的预测实体,作为该实体的同义实体。
可选地,所述知识库更新模块208还用于,根据确定出的各实体以及预设的实体聚合规则,确定聚合后的各聚合实体,确定各聚合实体与预设的各兴趣点之间的关联关系,根据各实体以及各聚合实体之间的关联关系、各聚合实体与各兴趣点之间的关联关系,对所述已构建知识库进行更新。
本说明书实施例还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的模型训练方法。
根据图1所示的一种模型训练方法,本说明书实施例还提出了图6所示的电子设备的示意结构图。如图6,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所示的模型训练方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字***“集成”在一片PLD上,而不需要请芯片制造厂商来设计和生成专用的集成电路芯片。而且,如今,取代手工地生成集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的***、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、***或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (12)
1.一种模型训练方法,其特征在于,包括:
获取目标领域相关的第一文本数据集;
根据已构建知识库中的各实体,从所述第一文本数据集包含的各段文本中,确定包含任一实体的文本,作为训练样本,并针对每个训练样本,根据所述实体在该训练样本中的位置以及所述实体的实体属性,对该训练样本进行序列标注;
将该训练样本输入预训练的语言模型,确定所述语言模型输出的预测结果;
根据各训练样本的标注与所述语言模型输出的预测结果,调整所述语言模型中的模型参数,所述语言模型用于进行知识挖掘。
2.如权利要求1所述的方法,其特征在于,所述目标领域相关的第一文本数据集至少包含目标领域相关的百科数据以及历史上的用户生成内容中的一种,其中,所述用户生成内容包含用户搜索数据以及用户评论数据。
3.如权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述目标领域相关的第二文本数据集;
根据已构建知识库中的各实体的实体属性,确定正则匹配规则,并根据所述正则匹配规则,从所述第二文本数据集的各段文本中,确定符合所述正则匹配规则的若干实体及其实体属性;
根据确定出的各实体,对所述已构建知识库中的实体进行更新。
4.如权利要求1所述的方法,其特征在于,所述方法还包括:
当处于预设训练阶段时,获取所述目标领域相关的第三文本数据集,并将所述第三文本数据集中的各段文本作为测试样本,针对每个测试样本,将该测试样本输入调整后的语言模型中,确定所述语言模型输出的预测结果;根据所述预测结果的置信度,从各测试样本中确定易错样本;根据所述易错样本及其序列标注,重新调整所述语言模型中的模型参数,直至达到预设训练指标为止。
5.如权利要求4所述的方法,其特征在于,所述预测结果包含预测实体以及预测实体属性;
确定易错样本之前,所述方法还包括:
根据各测试样本的预测实体分别在预设的各业务维度上的业务指标,确定各预测实体的质量得分;
确定质量得分超出预设得分阈值的各预测实体。
6.如权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述目标领域相关的第四文本数据集;
针对所述第四文本数据集中的每段文本,将该段文本输入训练完成的语言模型中,确定该段文本的预测结果;
根据各预测结果中的预测实体及其预测实体属性,对所述已构建知识库进行更新,其中,所述已构建知识库中包含各实体与各实体属性之间的关联关系。
7.如权利要求6所述的方法,其特征在于,根据各预测结果中的预测实体及其预测实体属性,对所述已构建知识库进行更新,具体包括:
针对所述已构建知识库中的每个实体,从各预测实体中确定该实体的同义实体;
从剩余的各预测实体中,确定同义的各预测实体;
根据所述已构建知识库中各实体的同义实体,以及所述同义的各预测实体及其预测实体属性,对所述已构建知识库进行更新。
8.如权利要求7所述的方法,其特征在于,从各预测实体中确定该实体的同义实体,具体包括:
根据同义词词林,确定该实体与各预测实体之间的距离相似度,并确定所述距离相似度大于预设相似度阈值的预测实体,作为该实体的同义实体。
9.如权利要求7所述的方法,其特征在于,所述方法还包括:
根据确定出的各实体以及预设的实体聚合规则,确定聚合后的各聚合实体;
确定各聚合实体与预设的各兴趣点之间的关联关系;
根据各实体以及各聚合实体之间的关联关系、各聚合实体与各兴趣点之间的关联关系,对所述已构建知识库进行更新。
10.一种模型训练装置,其特征在于,包括:
获取模块,获取目标领域相关的第一文本数据集;
样本标注模块,根据已构建知识库中的各实体,从所述第一文本数据集包含的各段文本中,确定包含任一实体的文本,作为训练样本,并针对每个训练样本,根据所述实体在该训练样本中的位置以及所述实体的实体属性,对该训练样本进行序列标注;
输入模块,将该训练样本输入预训练的语言模型,确定所述语言模型输出的预测结果;
调参模块,根据各训练样本的标注与所述语言模型输出的预测结果,调整所述语言模型中的模型参数,所述语言模型用于进行知识挖掘。
11.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~9任一所述的方法。
12.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~9任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110690512.5A CN113344098A (zh) | 2021-06-22 | 2021-06-22 | 一种模型训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110690512.5A CN113344098A (zh) | 2021-06-22 | 2021-06-22 | 一种模型训练方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113344098A true CN113344098A (zh) | 2021-09-03 |
Family
ID=77477487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110690512.5A Pending CN113344098A (zh) | 2021-06-22 | 2021-06-22 | 一种模型训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113344098A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114723073A (zh) * | 2022-06-07 | 2022-07-08 | 阿里健康科技(杭州)有限公司 | 语言模型预训练、产品搜索方法、装置以及计算机设备 |
CN114757307A (zh) * | 2022-06-14 | 2022-07-15 | 中国电力科学研究院有限公司 | 一种人工智能自动训练方法、***、装置及存储介质 |
CN114861665A (zh) * | 2022-04-27 | 2022-08-05 | 北京三快在线科技有限公司 | 一种强化学习模型训练以及确定数据关系的方法及装置 |
CN115033691A (zh) * | 2022-06-02 | 2022-09-09 | 阿里巴巴(中国)有限公司 | 文本段识别模型的训练、文本段识别方法、设备及介质 |
CN116384515A (zh) * | 2023-06-06 | 2023-07-04 | 之江实验室 | 一种模型训练的方法、装置、存储介质及电子设备 |
CN117555644A (zh) * | 2024-01-11 | 2024-02-13 | 之江实验室 | 一种基于自然语言交互的前端页面构建方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110083728A (zh) * | 2019-04-03 | 2019-08-02 | 上海联隐电子科技合伙企业(有限合伙) | 一种优化自动化图片数据清洗质量的方法、装置和*** |
CN110334186A (zh) * | 2019-07-08 | 2019-10-15 | 北京三快在线科技有限公司 | 数据查询方法、装置、计算机设备及计算机可读存储介质 |
CN111259087A (zh) * | 2020-01-10 | 2020-06-09 | 中国科学院软件研究所 | 基于领域知识库的计算机网络协议实体链接方法和*** |
CN111259131A (zh) * | 2020-01-09 | 2020-06-09 | 杭州网易再顾科技有限公司 | 信息处理方法、介质、装置和计算设备 |
CN111563383A (zh) * | 2020-04-09 | 2020-08-21 | 华南理工大学 | 一种基于BERT与SemiCRF的中文命名实体识别方法 |
-
2021
- 2021-06-22 CN CN202110690512.5A patent/CN113344098A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110083728A (zh) * | 2019-04-03 | 2019-08-02 | 上海联隐电子科技合伙企业(有限合伙) | 一种优化自动化图片数据清洗质量的方法、装置和*** |
CN110334186A (zh) * | 2019-07-08 | 2019-10-15 | 北京三快在线科技有限公司 | 数据查询方法、装置、计算机设备及计算机可读存储介质 |
CN111259131A (zh) * | 2020-01-09 | 2020-06-09 | 杭州网易再顾科技有限公司 | 信息处理方法、介质、装置和计算设备 |
CN111259087A (zh) * | 2020-01-10 | 2020-06-09 | 中国科学院软件研究所 | 基于领域知识库的计算机网络协议实体链接方法和*** |
CN111563383A (zh) * | 2020-04-09 | 2020-08-21 | 华南理工大学 | 一种基于BERT与SemiCRF的中文命名实体识别方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114861665A (zh) * | 2022-04-27 | 2022-08-05 | 北京三快在线科技有限公司 | 一种强化学习模型训练以及确定数据关系的方法及装置 |
CN114861665B (zh) * | 2022-04-27 | 2023-01-06 | 北京三快在线科技有限公司 | 一种强化学习模型训练以及确定数据关系的方法及装置 |
CN115033691A (zh) * | 2022-06-02 | 2022-09-09 | 阿里巴巴(中国)有限公司 | 文本段识别模型的训练、文本段识别方法、设备及介质 |
CN114723073A (zh) * | 2022-06-07 | 2022-07-08 | 阿里健康科技(杭州)有限公司 | 语言模型预训练、产品搜索方法、装置以及计算机设备 |
CN114723073B (zh) * | 2022-06-07 | 2023-09-05 | 阿里健康科技(杭州)有限公司 | 语言模型预训练、产品搜索方法、装置以及计算机设备 |
CN114757307A (zh) * | 2022-06-14 | 2022-07-15 | 中国电力科学研究院有限公司 | 一种人工智能自动训练方法、***、装置及存储介质 |
CN114757307B (zh) * | 2022-06-14 | 2022-09-06 | 中国电力科学研究院有限公司 | 一种人工智能自动训练方法、***、装置及存储介质 |
CN116384515A (zh) * | 2023-06-06 | 2023-07-04 | 之江实验室 | 一种模型训练的方法、装置、存储介质及电子设备 |
CN116384515B (zh) * | 2023-06-06 | 2023-09-01 | 之江实验室 | 一种模型训练的方法、装置、存储介质及电子设备 |
CN117555644A (zh) * | 2024-01-11 | 2024-02-13 | 之江实验室 | 一种基于自然语言交互的前端页面构建方法及装置 |
CN117555644B (zh) * | 2024-01-11 | 2024-04-30 | 之江实验室 | 一种基于自然语言交互的前端页面构建方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113344098A (zh) | 一种模型训练方法及装置 | |
CN111488426B (zh) | 一种查询意图确定方法、装置及处理设备 | |
US20160078047A1 (en) | Method for obtaining search suggestions from fuzzy score matching and population frequencies | |
US20200004766A1 (en) | Method, apparatus and electronic device for determining knowledge sample data set | |
CN117235226A (zh) | 一种基于大语言模型的问题应答方法及装置 | |
CN111144126A (zh) | 一种语义分析模型的训练方法、语义分析方法及装置 | |
CN113010640B (zh) | 一种业务执行的方法及装置 | |
CN108875743B (zh) | 一种文本识别方法及装置 | |
CN112733024A (zh) | 一种信息推荐的方法及装置 | |
CN112948449A (zh) | 一种信息推荐的方法及装置 | |
CN117332282B (zh) | 一种基于知识图谱的事件匹配的方法及装置 | |
CN107577660B (zh) | 类目信息识别方法、装置及服务器 | |
CN114882311A (zh) | 一种训练集的生成方法及装置 | |
CN114462357A (zh) | 实体链接方法、构建方法、装置及存储介质 | |
CN113343095A (zh) | 一种模型训练以及信息推荐方法及装置 | |
CN113344197A (zh) | 一种识别模型的训练方法、业务执行的方法以及装置 | |
CN113887221B (zh) | 一种模型训练以及关键词分类方法及装置 | |
CN113343132B (zh) | 一种模型训练的方法、信息展示的方法及装置 | |
CN113887234B (zh) | 一种模型训练以及推荐方法及装置 | |
CN114912513A (zh) | 一种模型训练的方法、识别信息的方法及装置 | |
CN114926687A (zh) | 一种分类模型的训练方法及装置 | |
CN114117028A (zh) | 一种信息推荐方法、装置、存储介质及电子设备 | |
US11334571B2 (en) | Artificial intelligence-enabled search for a storage system | |
CN113343141A (zh) | 一种网页获取方法及装置 | |
CN113343085A (zh) | 一种信息推荐方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210903 |