CN112528641A - 建立信息抽取模型的方法、装置、电子设备和可读存储介质 - Google Patents

建立信息抽取模型的方法、装置、电子设备和可读存储介质 Download PDF

Info

Publication number
CN112528641A
CN112528641A CN202011454491.9A CN202011454491A CN112528641A CN 112528641 A CN112528641 A CN 112528641A CN 202011454491 A CN202011454491 A CN 202011454491A CN 112528641 A CN112528641 A CN 112528641A
Authority
CN
China
Prior art keywords
text
processed
subject
training
predicate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011454491.9A
Other languages
English (en)
Inventor
贾巍
戴岱
肖欣延
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202011454491.9A priority Critical patent/CN112528641A/zh
Publication of CN112528641A publication Critical patent/CN112528641A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种建立信息抽取模型的方法、装置,涉及自然语言处理、深度学习技术领域。本申请在建立信息抽取模型时所采用的方案为:获取多个训练数据,使用训练数据对深度学习模型进行预设次数的训练;获取多个标注有主语的待处理文本,使用深度学习模型对多个待处理文本进行预测,得到各待处理文本中与所标注的主语对应的谓语和宾语;根据各待处理文本、各待处理文本中的主语以及与主语对应的谓语和宾语得到置信数据;使用训练数据与置信数据对深度学习模型进行训练之后,转至执行获取待处理文本的步骤,以此循环进行,直至深度学习模型的训练达到终止条件得到信息抽取模型。本申请能够建立从不同关系类别的文本中抽取关系信息的信息抽取模型。

Description

建立信息抽取模型的方法、装置、电子设备和可读存储介质
技术领域
本申请涉及信息处理技术领域,尤其涉及自然语言处理、深度学习技术领域中的一种建立信息抽取模型的方法、装置、电子设备和可读存储介质。
背景技术
在各个行业中,普遍存在以自然语言记录的无结构文本,例如新闻、百科、财报等。同时,在各个行业中,也普遍存在从无结构文本中抽取结构化信息的需求,例如从无结构文本中抽取关系信息,关系信息即为文本中的实体对与实体对之间关系的三元组(subject,object,predicate)。
由于存在大量的无结构文本,很难直接通过人力进行关系信息的抽取工作,所以相应的以计算机为基础的关系信息抽取软件应运而生。
但现有的关系信息抽取软件需要预先制定抽取目标的关系类别,如成立时间、演唱者、专辑等,每种关系信息抽取软件仅能够抽取特定类别的关系信息。若要实现抽取不同类别的关系信息,则需要开发多个关系信息抽取软件,导致关系信息抽取软件的训练步骤较为繁琐、训练效率较低。
发明内容
本申请为解决技术问题所采用的技术方案是提供一种建立信息抽取模型的方法,包括:获取多个训练数据,使用所述训练数据对深度学习模型进行预设次数的训练;获取多个标注有主语的待处理文本,并使用所述深度学习模型对所述多个待处理文本进行预测,得到各待处理文本中与所标注的主语对应的谓语和宾语;根据各待处理文本、各待处理文本中的主语以及与所述主语对应的谓语和宾语,得到置信数据;使用所述训练数据与所述置信数据对所述深度学习模型进行训练之后,转至执行获取所述待处理文本的步骤,以此循环进行,直至所述深度学习模型的训练达到终止条件,得到信息抽取模型;所述信息抽取模型能够根据输入的文本与文本中的主语,输出文本中与主语对应的谓语和宾语。
本申请为解决技术问题所采用的技术方案是提供一种建立信息抽取模型的装置,包括:第一训练单元,用于获取多个训练数据,使用所述训练数据对深度学习模型进行预设次数的训练;预测单元,用于获取多个标注有主语的待处理文本,并使用所述深度学习模型对所述多个待处理文本进行预测,得到各待处理文本中与所标注的主语对应的谓语和宾语;处理单元,用于根据各待处理文本、各待处理文本中的主语以及与所述主语对应的谓语和宾语,得到置信数据;第二训练单元,用于使用所述训练数据与所述置信数据对所述深度学习模型进行训练之后,转至执行获取所述待处理文本的步骤,以此循环进行,直至所述深度学习模型的训练达到终止条件,得到信息抽取模型;所述信息抽取模型能够根据输入的文本与文本中的主语,输出文本中与主语对应的谓语和宾语。
一种电子设备,其特征在于,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述方法。
一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行上述方法。
一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行上述建立信息抽取模型的方法。
上述申请中的一个实施例具有如下优点或有益效果:本申请能够简化信息抽取模型的训练步骤,提升信息抽取模型的训练效率,并使得所建立的信息抽取模型具备从不同关系类别的文本中抽取关系信息的能力。因为采用了通过持续地获取置信数据对深度学习模型进行训练的技术手段,所以克服了现有技术中关系抽取软件仅能够抽取特定类别的关系的技术问题,实现了使得所建立的信息抽取模型具备从不同关系类别的文本中抽取关系信息的能力的技术效果。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的示意图;
图2是根据本申请第二实施例的示意图;
图3是用来实现本申请实施例的建立信息抽取模型的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本申请第一实施例的示意图。如图1中所示,本实施例的建立信息抽取模型的方法,具体可以包括如下步骤:
S101、获取多个训练数据,使用所述训练数据对深度学习模型进行预设次数的训练;
S102、获取多个标注有主语的待处理文本,并使用所述深度学习模型对所述多个待处理文本进行预测,得到各待处理文本中与所标注的主语对应的谓语和宾语;
S103、根据各待处理文本、各待处理文本中的主语以及与所述主语对应的谓语和宾语,得到置信数据;
S104、使用所述训练数据与所述置信数据对所述深度学习模型进行训练之后,转至执行获取所述待处理文本的步骤,以此循环进行,直至所述深度学习模型的训练达到终止条件,得到信息抽取模型。
本实施例提供的建立信息抽取模型的方法,在使用训练数据对深度学习模型进行预设次数的训练之后,使用深度学习模型对所获取的标注有主语的待处理文本进行预测,并根据待处理文本、待处理文本中标注的主语与预测结果得到置信数据,进而结合训练数据与置信数据继续对深度学习模型进行训练,使得深度学习模型能够自主地挖掘待处理文本中的关系信息,从而持续学习新知识,简化了信息抽取模型的训练步骤,提升了信息抽取模型的训练效率,并使得所建立的信息抽取模型具备从不同关系类别的文本中抽取关系信息的能力。
本实施例执行S101获取的训练数据为经过标注的数据,每个训练数据由训练文本、训练文本中的主语以及与主语对应的谓语和宾语构成。
举例来说,若训练文本为“《三体》小说的作者是刘慈欣”,该训练文本的主语(subject)为“三体”,与主语“三体”对应的谓语(predicate)为“作者”,与主语“三体”对应的宾语(object)为“刘慈欣”,则本实施例将“《三体》小说的作者是刘慈欣,三体,作者,刘慈欣”作为一个训练数据。
具体地,本实施例中的深度学习模型由预训练模型(例如ERNIE)、谓语预测器(predicate predictor)与宾语预测器(object predictor)构成;其中,预训练模型用于得到语义向量,谓语预测器用于根据语义向量来预测谓语,宾语预测器用于根据语义向量与预测得到的谓语来预测宾语。
因此,本实施例执行S101在使用训练数据对深度学习模型进行预设次数的训练时,可以采用的可选实现方式为:针对每个训练数据,将训练文本转化为向量序列之后,与训练文本中主语的位置信息进行拼接;将拼接结果作为预训练模型的输入,得到预训练模型输出的语义向量;将语义向量作为谓语预测器的输入,将与主语对应的谓语作为谓语预测器的输出;将语义向量与语义向量中对应谓语的向量作为宾语预测器的输入,将与主语对应的宾语作为宾语预测器的输出,对深度学习模型进行预设次数的训练。其中,本实施例中的预设次数可以由用户进行设置,也可以为固定次数,例如一次。
本实施例使用训练数据对深度学习模型进行预设次数的训练,使得经过训练的深度学习模型具有一定的抽取关系信息的能力,即根据所输入的文本与文本中的主语,能够预测该文本中与主语对应的谓语和宾语。
本实施例在执行S101使用所获取的训练数据对深度学习模型进行预设次数的训练之后,执行S102获取多个标注有主语的待处理文本,并使用深度学习模型对多个待处理文本进行预测,从而得到各待处理文本中与所标注的主语对应的谓语和宾语。
本实施例在执行S102获取多个标注有主语的待处理文本时,可以采用的可选实现方式为:获取包含关系词的多个文本作为多个待处理文本,并对各待处理文本中的主语进行标注,例如从网络中获取多个文本。
可以理解的是,本实施例可以采用预先设置关系词词表的方式,来从网络中获取包含关系词的文本,该关系词词表中会涵盖能够作为关系词的词语;本实施例也可以通过预先训练得到的关系词识别模型,来确定从网络中获取的文本是否为包含关系词的文本,即该关系词识别模型能够识别文本中是否包含关系词。
经过研究发现,要想实现深度学习模型能够更好地自主挖掘新文本中的关系信息,需要所获取的文本中包含关系词;且通过获取包含关系词的文本,使得深度学习模型能够实现从具有不同关系类别的文本中来抽取关系信息。举例来说,若文本为“A的总统是B”,其中的“总统”即为该文本中国家“A”和人名“B”的关系词。
本实施例在执行S102使用深度学习模型对多个待处理文本进行预测,得到各待处理文本中与所标注的主语对应的谓语和宾语时,可以采用的可选实现方式为:针对每一个待处理文本,将待处理文本转化为向量序列之后,与待处理文本中所标注的主语的位置信息进行拼接;将拼接结果作为预训练模型的输入,得到预训练模型输出的语义向量;将语义向量作为谓语预测器的输入,根据谓语预测器的输出得到与主语对应的谓语;将语义向量与语义向量中对应所得到的谓语的向量作为宾语预测器的输入,根据宾语预测器的输出得到与主语对应的宾语。
本实施例在执行S102使用深度学习模型得到与待处理文本中所标注的主语对应的谓语和宾语之后,执行S103根据各待处理文本、各待处理文本中的主语以及与主语对应的谓语和宾语,得到置信数据。
可以理解的是,本实施例在执行S103得到置信数据时,可以将S102获取的全部待处理文本、各待处理文本的主语以及与主语对应的谓语和宾语,均作为置信数据。
但是在深度学习模型的训练未达到终止条件之前,深度学习模型根据待处理文本与主语所得到的预测结果的准确性会比较不稳定,导致某些待处理文本的预测结果的准确性较低,若使用准确性较低的预测结果对深度学习模型进行后续训练,会降低深度学习模型的训练速度,延长深度学习模型的训练时间。
为了保证置信数据具有较高的准确性,本实施例在执行S103根据各待处理文本、各待处理文本中的主语以及与主语对应的谓语和宾语得到置信数据时,可以采用的可选实习方式为:确定各待处理文本的置信度;选取置信度超过预设阈值的待处理文本;将所选取的待处理文本、待处理文本的主语以及与主语对应的谓语和主语,作为置信数据。
其中,本实施例在确定待处理文本的置信度时,可以使用预先训练得到的置信模型来获取,该置信模型能够根据待处理文本、待处理文本中的主语以及与主语对应的谓语和宾语中的至少一种,得到该待处理文本的置信度;本实施例也可以根据待处理文本的来源数量、待处理文本中主语以及与主语对应的谓语和宾语的出现次数等信息计算得到置信度。
可以理解的是,本实施例在执行S103得到置信数据之后,可以将所得到的置信数据录入到知识库中,从而在对深度学习模型的后续训练过程中,直接从知识库中获取置信数据即可。
本实施例在执行S103得到置信数据之后,执行S104使用训练数据与置信数据对深度学习模型进行训练之后,转至执行获取待处理文本的步骤,以此循环进行,直至深度学习模型的训练达到终止条件,得到信息抽取模型。
与本实施例在执行S101时使用训练数据对深度学习模型进行训练时的方式类似,本实施例在执行S104使用置信数据对深度学习模型进行训练时,可以采用的可选实现方式为:针对每个置信数据,将待处理文本转化为向量序列之后,与待处理文本中主语的位置信息进行拼接;将拼接结果作为预训练模型的输入,得到预训练模型输出的语义向量;将语义向量作为谓语预测器的输入,将与主语对应的谓语作为谓语预测器的输出;将语义向量与语义向量中对应谓语的向量作为宾语预测器的输入,将与主语对应的宾语作为宾语预测器的输出,对深度学习模型进行训练。
而本实施例执行S104使用训练数据对深度学习模型进行训练的方式,与本实施例执行S101使用训练数据对深度学习模型进行训练的方式相同,在此不进行赘述。
也就是说,本实施例在建立信息抽取模型的过程中,采用两种训练方式对深度学习模型进行训练,由于第二种训练方式能够结合训练数据与持续获取的置信数据来完成训练,因此实现了深度学习模型通过不断更新的数据来持续地学习新知识的目的,从而使得所建立的信息抽取模型能够具备从不同关系类别的文本中抽取关系信息的能力。
其中,本实施例执行S104训练深度学习模型所达到的终止条件,可以为深度学习模型的训练次数超过终止次数,也可以为深度学习模型所抽取关系信息的准确率超过终止准确率。
本实施例执行S104所得到的信息抽取模型,能够根据输入的文本与文本中的主语,输出文本中与主语对应的谓语和宾语。其中,输入至信息抽取模型的文本可以为包含关系词的文本。
通过本实施例提供的上述方法,通过持续地获取置信数据对深度学习模型进行训练,使得深度学习模型能够自主地挖掘待不同文本中的关系信息,从而持续学习新知识,简化了信息抽取模型的训练步骤,提升了信息抽取模型的训练效率,并使得所建立的信息抽取模型具备从不同关系类别的文本中抽取关系信息的能力。
图2是根据本申请第二实施例的示意图。如图2中所示,本实施例的建立信息抽取模型的装置,包括:
第一训练单元201、用于获取多个训练数据,使用所述训练数据对深度学习模型进行预设次数的训练;
预测单元202、用于获取多个标注有主语的待处理文本,并使用所述深度学习模型对所述多个待处理文本进行预测,得到各待处理文本中与所标注的主语对应的谓语和宾语;
处理单元203、用于根据各待处理文本、各待处理文本中的主语以及与所述主语对应的谓语和宾语,得到置信数据;
第二训练单元204、用于使用所述训练数据与所述置信数据对所述深度学习模型进行训练之后,转至执行获取所述待处理文本的步骤,以此循环进行,直至所述深度学习模型的训练达到终止条件,得到信息抽取模型。
本实施例中的第一训练单元201获取的训练数据为经过标注的数据,每个训练数据由训练文本、训练文本中的主语以及与主语对应的谓语和宾语构成。
具体地,本实施例中的深度学习模型由预训练模型(例如ERNIE)、谓语预测器(predicate predictor)与宾语预测器(object predictor)构成;其中,预训练模型用于得到语义向量,谓语预测器用于根据语义向量来预测谓语,宾语预测器用于根据语义向量与预测得到的谓语来预测宾语。
因此,本实施例中的第一训练单元201在使用训练数据对深度学习模型进行预设次数的训练时,可以采用的可选实现方式为:针对每个训练数据,将训练文本转化为向量序列之后,与训练文本中主语的位置信息进行拼接;将拼接结果作为预训练模型的输入,得到预训练模型输出的语义向量;将语义向量作为谓语预测器的输入,将与主语对应的谓语作为谓语预测器的输出;将语义向量与语义向量中对应谓语的向量作为宾语预测器的输入,将与主语对应的宾语作为宾语预测器的输出,对深度学习模型进行预设次数的训练。其中,本实施例中的预设次数可以由用户进行设置,也可以为固定次数,例如一次。
本实施例中的第一训练单元201使用训练数据对深度学习模型进行预设次数的训练,使得经过训练的深度学习模型具有一定的抽取关系信息的能力,即根据所输入的文本与文本中的主语,能够预测该文本中与主语对应的谓语和宾语。
本实施例在由第一训练单元201使用所获取的训练数据对深度学习模型进行预设次数的训练之后,由预测单元202获取多个标注有主语的待处理文本,并使用深度学习模型对多个待处理文本进行预测,从而得到各待处理文本中与所标注的主语对应的谓语和宾语。
本实施例中的预测单元202在获取多个标注有主语的待处理文本时,可以采用的可选实现方式为:获取包含关系词的多个文本作为多个待处理文本,并对各待处理文本中的主语进行标注,例如从网络中获取多个文本。
可以理解的是,预测单元202可以采用预先设置关系词词表的方式,来从网络中获取包含关系词的文本,该关系词词表中会涵盖能够作为关系词的词语;预测单元202也可以通过预先训练得到的关系词识别模型,来确定从网络中获取的文本是否为包含关系词的文本,即该关系词识别模型能够识别文本中是否包含关系词。
本实施例中的预测单元202在使用深度学习模型对多个待处理文本进行预测,得到各待处理文本中与所标注的主语对应的谓语和宾语时,可以采用的可选实现方式为:针对每一个待处理文本,将待处理文本转化为向量序列之后,与待处理文本中所标注的主语的位置信息进行拼接;将拼接结果作为预训练模型的输入,得到预训练模型输出的语义向量;将语义向量作为谓语预测器的输入,根据谓语预测器的输出得到与主语对应的谓语;将语义向量与语义向量中对应所得到的谓语的向量作为宾语预测器的输入,根据宾语预测器的输出得到与主语对应的宾语。
本实施例在由预测单元202使用深度学习模型得到与待处理文本中所标注的主语对应的谓语和宾语之后,由处理单元203根据各待处理文本、各待处理文本中的主语以及与主语对应的谓语和宾语,得到置信数据。
可以理解的是,本实施例中的处理单元203在得到置信数据时,可以将预测单元202获取的全部待处理文本、各待处理文本的主语以及与主语对应的谓语和宾语,均作为置信数据。
为了保证置信数据具有较高的准确性,本实施例中的处理单元203在根据各待处理文本、各待处理文本中的主语以及与主语对应的谓语和宾语得到置信数据时,可以采用的可选实习方式为:确定各待处理文本的置信度;选取置信度超过预设阈值的待处理文本;将所选取的待处理文本、待处理文本的主语以及与主语对应的谓语和主语,作为置信数据。
其中,处理单元203在确定待处理文本的置信度时,可以使用预先训练得到的置信模型来获取;处理单元203也可以根据待处理文本的来源数量、待处理文本中主语以及与主语对应的谓语和宾语的出现次数等信息计算得到置信度。
可以理解的是,本实施例中的处理单元203在得到置信数据之后,可以将所得到的置信数据录入到知识库中,从而在对深度学习模型的后续训练过程中,直接从知识库中获取置信数据即可。
本实施例在由处理单元203得到置信数据之后,由第二训练单元204使用训练数据与置信数据对深度学习模型进行训练之后,转至执行获取待处理文本的步骤,以此循环进行,直至深度学习模型的训练达到终止条件,得到信息抽取模型。
与本实施例在由第一训练单元201使用训练数据对深度学习模型进行训练时的方式类似,本实施例中的第二训练单元204在使用置信数据对深度学习模型进行训练时,可以采用的可选实现方式为:针对每个置信数据,将待处理文本转化为向量序列之后,与待处理文本中主语的位置信息进行拼接;将拼接结果作为预训练模型的输入,得到预训练模型输出的语义向量;将语义向量作为谓语预测器的输入,将与主语对应的谓语作为谓语预测器的输出;将语义向量与语义向量中对应谓语的向量作为宾语预测器的输入,将与主语对应的宾语作为宾语预测器的输出,对深度学习模型进行训练。
而本实施例中的第二训练单元204在使用训练数据对深度学习模型进行训练的方式,与本实施例中的第一训练单元201使用训练数据对深度学习模型进行训练的方式相同,在此不进行赘述。
其中,本实施例中的第二训练单元204训练深度学习模型所达到的终止条件,可以为深度学习模型的训练次数超过终止次数,也可以为深度学习模型所抽取关系信息的准确率超过终止准确率。
本实施例通过第二训练单元204所得到的信息抽取模型,能够根据输入的文本与文本中的主语,输出文本中与主语对应的谓语和宾语。其中,输入至信息抽取模型的文本可以为包含关系词的文本。
根据本申请的实施例,本申请还提供了一种电子设备、一种计算机可读存储介质以及一种计算机程序产品。
图3示出了可以用来实施本公开的实施例的示例电子设备300的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字助理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图3所示,设备300包括计算单元301,其可以根据存储在只读存储器(ROM)302中的计算机程序或者从存储单元308加载到随机访问存储器(RAM)303中的计算机程序,来执行各种适当的动作和处理。在RAM 303中,还可存储设备300操作所需的各种程序和数据。计算单元301、ROM 302以及RAM 303通过总线304彼此相连。输入/输出(I/O)接口305也连接至总线304。
设备300中的多个部件连接至I/O接口305,包括:输入单元306,例如键盘、鼠标等;输出单元307,例如各种类型的显示器、扬声器等;存储单元308,例如磁盘、光盘等;以及通信单元309,例如网卡、调制解调器、无线通信收发机等。通信单元309允许设备300通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元301可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元301的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元301执行上文所描述的各个方法和处理,例如建立信息抽取模型的方法。例如,在一些实施例中,建立信息抽取模型的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元308。在一些实施例中,计算机程序的部分或者全部可以经由ROM 302和/或通信单元309而被载入和/或安装到设备300上。当计算机程序加载到RAM 303并由计算单元301执行时,可以执行上文描述的建立信息抽取模型的方法的一个或多个步骤。备选地,在其他实施例中,计算单元301可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行建立信息抽取模型的方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务(“Virtual Private Server”,或简称“VPS”)中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (15)

1.一种建立信息抽取模型的方法,包括:
获取多个训练数据,使用所述训练数据对深度学习模型进行预设次数的训练;
获取多个标注有主语的待处理文本,并使用所述深度学习模型对所述多个待处理文本进行预测,得到各待处理文本中与所标注的主语对应的谓语和宾语;
根据各待处理文本、各待处理文本中的主语以及与所述主语对应的谓语和宾语,得到置信数据;
使用所述训练数据与所述置信数据对所述深度学习模型进行训练之后,转至执行获取所述待处理文本的步骤,以此循环进行,直至所述深度学习模型的训练达到终止条件,得到信息抽取模型;
所述信息抽取模型能够根据输入的文本与文本中的主语,输出文本中与主语对应的谓语和宾语。
2.根据权利要求1所述的方法,其中,所述深度学习模型由预训练模型、谓语预测器与宾语预测器构成。
3.根据权利要求2所述的方法,其中,对深度学习模型进行训练包括:
将文本转化为向量序列之后,与文本中主语的位置信息进行拼接,所述文本为所述训练数据中的训练文本或者所述置信数据中的待处理文本;
将拼接结果作为所述预训练模型的输入,得到所述预训练模型输出的语义向量;
将所述语义向量作为所述谓语预测器的输入,将与主语对应的谓语作为所述谓语预测器的输出;
将所述语义向量与所述语义向量中对应所述谓语的向量作为所述宾语预测器的输入,将与主语对应的宾语作为所述宾语预测器的输出。
4.根据权利要求1所述的方法,其中,所述获取多个标注有主语的待处理文本包括:
获取包含关系词的多个文本作为多个待处理文本,并对各待处理文本中的主语进行标注。
5.根据权利要求2所述的方法,其中,所述使用所述深度学习模型对所述多个待处理文本进行预测,得到各待处理文本中与所标注的主语对应的谓语和宾语包括:
针对每一个待处理文本,将待处理文本转化为向量序列之后,与待处理文本中所标注的主语的位置信息进行拼接;
将拼接结果作为所述预训练模型的输入,得到所述预训练模型输出的语义向量;
将所述语义向量作为所述谓语预测器的输入,根据所述谓语预测器的输出得到与主语对应的谓语;
将所述语义向量与所述语义向量中对应所得到的谓语的向量作为所述宾语预测器的输入,根据所述宾语预测器的输出得到与主语对应的宾语。
6.根据权利要求1所述的方法,其中,所述根据各待处理文本、各待处理文本中的主语以及与所述主语对应的谓语和宾语,得到置信数据包括:
确定各待处理文本的置信度;
选取置信度超过预设阈值的待处理文本;
将所选取的待处理文本、待处理文本的主语以及与主语对应的谓语和主语,作为所述置信数据。
7.一种建立信息抽取模型的装置,包括:
第一训练单元,用于获取多个训练数据,使用所述训练数据对深度学习模型进行预设次数的训练;
预测单元,用于获取多个标注有主语的待处理文本,并使用所述深度学习模型对所述多个待处理文本进行预测,得到各待处理文本中与所标注的主语对应的谓语和宾语;
处理单元,用于根据各待处理文本、各待处理文本中的主语以及与所述主语对应的谓语和宾语,得到置信数据;
第二训练单元,用于使用所述训练数据与所述置信数据对所述深度学习模型进行训练之后,转至执行获取所述待处理文本的步骤,以此循环进行,直至所述深度学习模型的训练达到终止条件,得到信息抽取模型;
所述信息抽取模型能够根据输入的文本与文本中的主语,输出文本中与主语对应的谓语和宾语。
8.根据权利要求7所述的装置,其中,所述深度学习模型由预训练模型、谓语预测器与宾语预测器构成。
9.根据权利要求8所述的装置,其中,所述第一训练单元或者所述第二训练单元在对深度学习模型进行训练时,具体执行:
将文本转化为向量序列之后,与文本中主语的位置信息进行拼接,所述文本为所述训练数据中的训练文本或者所述置信数据中的待处理文本;
将拼接结果作为所述预训练模型的输入,得到所述预训练模型输出的语义向量;
将所述语义向量作为所述谓语预测器的输入,将与主语对应的谓语作为所述谓语预测器的输出;
将所述语义向量与所述语义向量中对应所述谓语的向量作为所述宾语预测器的输入,将与主语对应的宾语作为所述宾语预测器的输出。
10.根据权利要求7所述的装置,其中,所述预测单元在获取多个标注有主语的待处理文本时,具体执行:
获取包含关系词的多个文本作为多个待处理文本,并对各待处理文本中的主语进行标注。
11.根据权利要求8所述的装置,其中,所述预测单元在使用所述深度学习模型对所述多个待处理文本进行预测,得到各待处理文本中与所标注的主语对应的谓语和宾语时,具体执行:
针对每一个待处理文本,将待处理文本转化为向量序列之后,与待处理文本中所标注的主语的位置信息进行拼接;
将拼接结果作为所述预训练模型的输入,得到所述预训练模型输出的语义向量;
将所述语义向量作为所述谓语预测器的输入,根据所述谓语预测器的输出得到与主语对应的谓语;
将所述语义向量与所述语义向量中对应所得到的谓语的向量作为所述宾语预测器的输入,根据所述宾语预测器的输出得到与主语对应的宾语。
12.根据权利要求7所述的装置,其中,所述处理单元在根据各待处理文本、各待处理文本中的主语以及与所述主语对应的谓语和宾语,得到置信数据时,具体执行:
确定各待处理文本的置信度;
选取置信度超过预设阈值的待处理文本;
将所选取的待处理文本、待处理文本的主语以及与主语对应的谓语和主语,作为所述置信数据。
13.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-6中任一项所述的方法。
15.一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行权利要求1-6中任一项所述的建立信息抽取模型的方法。
CN202011454491.9A 2020-12-10 2020-12-10 建立信息抽取模型的方法、装置、电子设备和可读存储介质 Pending CN112528641A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011454491.9A CN112528641A (zh) 2020-12-10 2020-12-10 建立信息抽取模型的方法、装置、电子设备和可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011454491.9A CN112528641A (zh) 2020-12-10 2020-12-10 建立信息抽取模型的方法、装置、电子设备和可读存储介质

Publications (1)

Publication Number Publication Date
CN112528641A true CN112528641A (zh) 2021-03-19

Family

ID=74998870

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011454491.9A Pending CN112528641A (zh) 2020-12-10 2020-12-10 建立信息抽取模型的方法、装置、电子设备和可读存储介质

Country Status (1)

Country Link
CN (1) CN112528641A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818138A (zh) * 2021-04-19 2021-05-18 中译语通科技股份有限公司 知识图谱本体构建方法、装置、终端设备及可读存储介质
CN113609847A (zh) * 2021-08-10 2021-11-05 北京百度网讯科技有限公司 信息抽取方法、装置、电子设备及存储介质
CN113836316A (zh) * 2021-09-23 2021-12-24 北京百度网讯科技有限公司 三元组数据的处理方法、训练方法、装置、设备及介质
CN115391450A (zh) * 2022-08-26 2022-11-25 百度在线网络技术(北京)有限公司 推理信息生成方法、装置、设备、可读存储介质及产品

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106844348A (zh) * 2017-02-13 2017-06-13 哈尔滨工业大学 一种汉语句子功能成分分析方法
CN109271626A (zh) * 2018-08-31 2019-01-25 北京工业大学 文本语义分析方法
CN110377694A (zh) * 2019-06-06 2019-10-25 北京百度网讯科技有限公司 标注文本对逻辑关系的方法、装置、设备和计算机存储介质
CN110807311A (zh) * 2018-07-18 2020-02-18 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN111291185A (zh) * 2020-01-21 2020-06-16 京东方科技集团股份有限公司 信息抽取方法、装置、电子设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106844348A (zh) * 2017-02-13 2017-06-13 哈尔滨工业大学 一种汉语句子功能成分分析方法
CN110807311A (zh) * 2018-07-18 2020-02-18 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN109271626A (zh) * 2018-08-31 2019-01-25 北京工业大学 文本语义分析方法
CN110377694A (zh) * 2019-06-06 2019-10-25 北京百度网讯科技有限公司 标注文本对逻辑关系的方法、装置、设备和计算机存储介质
CN111291185A (zh) * 2020-01-21 2020-06-16 京东方科技集团股份有限公司 信息抽取方法、装置、电子设备及存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818138A (zh) * 2021-04-19 2021-05-18 中译语通科技股份有限公司 知识图谱本体构建方法、装置、终端设备及可读存储介质
CN113609847A (zh) * 2021-08-10 2021-11-05 北京百度网讯科技有限公司 信息抽取方法、装置、电子设备及存储介质
CN113609847B (zh) * 2021-08-10 2023-10-27 北京百度网讯科技有限公司 信息抽取方法、装置、电子设备及存储介质
CN113836316A (zh) * 2021-09-23 2021-12-24 北京百度网讯科技有限公司 三元组数据的处理方法、训练方法、装置、设备及介质
CN115391450A (zh) * 2022-08-26 2022-11-25 百度在线网络技术(北京)有限公司 推理信息生成方法、装置、设备、可读存储介质及产品
CN115391450B (zh) * 2022-08-26 2024-01-09 百度在线网络技术(北京)有限公司 推理信息生成方法、装置、设备、可读存储介质及产品

Similar Documents

Publication Publication Date Title
CN112528641A (zh) 建立信息抽取模型的方法、装置、电子设备和可读存储介质
CN114861889B (zh) 深度学习模型的训练方法、目标对象检测方法和装置
CN113590645A (zh) 搜索方法、装置、电子设备及存储介质
CN113836314B (zh) 知识图谱构建方法、装置、设备以及存储介质
CN114724168A (zh) 深度学习模型的训练方法、文本识别方法、装置和设备
CN113360700A (zh) 图文检索模型的训练和图文检索方法、装置、设备和介质
CN112949818A (zh) 模型蒸馏方法、装置、设备以及存储介质
CN112506359A (zh) 输入法中候选长句的提供方法、装置及电子设备
CN113407610A (zh) 信息抽取方法、装置、电子设备和可读存储介质
CN114186681A (zh) 用于生成模型簇的方法、装置及计算机程序产品
CN112699237B (zh) 标签确定方法、设备和存储介质
CN113408280A (zh) 负例构造方法、装置、设备和存储介质
CN113157877A (zh) 多语义识别方法、装置、设备和介质
EP4145306A1 (en) Method and apparatus of processing data, electronic device, and medium
CN115186738B (zh) 模型训练方法、装置和存储介质
CN114444514B (zh) 语义匹配模型训练、语义匹配方法及相关装置
CN113807091B (zh) 词语挖掘方法、装置、电子设备和可读存储介质
CN113360672B (zh) 用于生成知识图谱的方法、装置、设备、介质和产品
CN113204616B (zh) 文本抽取模型的训练与文本抽取的方法、装置
CN112560481B (zh) 语句处理方法、设备和存储介质
CN114119972A (zh) 模型获取及对象处理方法、装置、电子设备及存储介质
CN114254650A (zh) 一种信息处理方法、装置、设备及介质
CN114549695A (zh) 图像生成方法、装置、电子设备及可读存储介质
CN114328855A (zh) 文档查询方法、装置、电子设备和可读存储介质
CN114490969A (zh) 基于表格的问答方法、装置以及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination