CN112463942A - 文本处理方法、装置、电子设备及计算机可读存储介质 - Google Patents

文本处理方法、装置、电子设备及计算机可读存储介质 Download PDF

Info

Publication number
CN112463942A
CN112463942A CN202011446124.4A CN202011446124A CN112463942A CN 112463942 A CN112463942 A CN 112463942A CN 202011446124 A CN202011446124 A CN 202011446124A CN 112463942 A CN112463942 A CN 112463942A
Authority
CN
China
Prior art keywords
text
sample
model
original text
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011446124.4A
Other languages
English (en)
Inventor
张超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Shenzhen Huantai Technology Co Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Shenzhen Huantai Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd, Shenzhen Huantai Technology Co Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN202011446124.4A priority Critical patent/CN112463942A/zh
Publication of CN112463942A publication Critical patent/CN112463942A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例公开了一种文本处理方法、装置、电子设备及计算机可读存储介质。该方法包括:获取原始文本数据,所述原始文本数据至少包括需要进行指代消解任务的目标文本;通过抽取模型抽取所述原始文本数据包含的关键信息,并对各个所述关键信息进行标注,得到抽取结果;通过生成模型对所述原始文本数据及抽取结果进行分析,得到所述目标文本对应的指代消解文本。上述文本处理方法、装置、电子设备及计算机可读存储介质,能够简化指代消解任务的处理过程,提高处理效率。

Description

文本处理方法、装置、电子设备及计算机可读存储介质
技术领域
本申请涉及人工智能技术领域,具体涉及一种文本处理方法、装置、电子设备及计算机可读存储介质。
背景技术
在人工智能技术领域中,自然语言处理(Natural Language Processing,NLP)一直是重点研究的方向之一。在语言的使用过程中,通常会采用代词或简称等来代替之前出现过的某一词语,或是直接省略之前出现过的某一词语,语言学中将该情况称为“指代现象”。指代消解是NLP领域中的一项基础性研究,通过指代消解可解决文本中指代不明的问题,使得电子设备更好地理解文本中所表达的语义。目前的指代消解方案较为复杂,处理时间长,效率较低。
发明内容
本申请实施例公开了一种文本处理方法、装置、电子设备及计算机可读存储介质,能够简化指代消解任务的处理过程,提高处理效率。
本申请实施例公开了一种文本处理方法,包括:
获取原始文本数据,所述原始文本数据至少包括需要进行指代消解任务的目标文本;
通过抽取模型抽取所述原始文本数据包含的关键信息,并对各个所述关键信息进行标注,得到抽取结果,其中,所述关键信息至少包括所述原始文本数据中的候选实体及所述候选实体在所述目标文本的***位置,所述抽取模型是根据第一训练样本进行训练得到的,所述第一训练样本包括原始文本样本及所述原始文本样本对应的标注样本;
通过生成模型对所述原始文本数据及抽取结果进行分析,得到所述目标文本对应的指代消解文本,其中,所述生成模型是根据第二训练样本进行训练得到的,所述第二训练样本包括所述原始文本样本、所述原始文本样本经过训练好的抽取模型得到的抽取样本结果,以及所述原始文本样本对应的指代消解样本结果。
本申请实施例公开了一种文本处理装置,包括:
获取模块,用于获取原始文本数据,所述原始文本数据包括需要进行指代消解任务的目标文本;
抽取模块,用于通过抽取模型抽取所述原始文本数据包含的关键信息,并对各个所述关键信息进行标注,得到抽取结果,其中,所述关键信息至少包括所述原始文本数据中的候选实体及所述候选实体在所述目标文本的***位置,所述抽取模型是根据第一训练样本进行训练得到的,所述第一训练样本包括原始文本样本及所述原始文本样本对应的标注样本;
生成模块,用于通过生成模型对所述原始文本数据及抽取结果进行分析,得到所述目标文本对应的指代消解文本,其中,所述生成模型是根据第二训练样本进行训练得到的,所述第二训练样本包括所述原始文本样本、所述原始文本样本经过训练好的抽取模型得到的抽取样本结果,以及所述原始文本样本对应的指代消解样本结果。
本申请实施例公开了一种电子设备,包括存储器及处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器实现如上所述的方法。
本申请实施例公开了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的方法。
本申请实施例公开的文本处理方法、装置、电子设备及计算机可读存储介质,通过抽取模型抽取原始文本数据包含的关键信息,并对各个关键信息进行标注,得到抽取结果,该关键信息至少包括原始文本数据中的候选实体及所述候选实体在目标文本的***位置,抽取模型是根据第一训练样本进行训练得到的,第一训练样本包括原始文本样本及原始文本样本对应的标注样本,再通过生成模型对原始文本数据及抽取结果进行分析,得到目标文本对应的指代消解文本,该生成模型是根据第二训练样本进行训练得到的,第二训练样本包括所述原始文本样本、原始文本样本经过训练好的抽取模型得到的抽取样本结果,以及原始文本样本对应的指代消解样本结果,通过抽取模型可对原始文本数据进行初步的信息抽取及指代,并通过生成模型对抽取结果进行处理,得到最终的指代消解文本,将复杂的指代消解任务分解为两个相对简单的任务,能够简化指代消解任务的处理过程,提高处理效率。而且生成模型是基于抽取模型的抽取结果及原始文本数据得到指代消解文本,使得到的指代消解文本更加准确,能够提高指代消解任务的质量。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A为一个实施例中文本处理方法的应用场景图;
图1B为一个实施例中电子设备进行指代消解任务的示意图;
图2为一个实施例中文本处理方法的流程图;
图3A为一个实施例中原始文本样本和标注样本的示意图;
图3B为一个实施例中生成指代消解文本的示意图;
图4为一个实施例中通过生成模型生成指代消解文本的流程示意图;
图5为另一个实施例中文本处理方法的流程图;
图6为一个实施例中文本处理装置的框图;
图7为一个实施例中电子设备的结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请实施例及附图中的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、***、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一训练样本称为第二训练样本,且类似地,可将第二训练样本称为第一训练样本。第一训练样本和第二训练样本两者都是训练样本,但其不是相同的训练样本。
指代消解指的是将代表同一实体(Entity)的不同指称(Mention)划分到一个等价集合,也即建立指称与实体之间的指代链。指代消解在机器阅读理解、信息抽取及多轮对话等任务中都起到重要作用,指代消解能够帮助电子设备更容易地理解文本中所表达的含义。在相关技术中,主要采用两种以下两种方式进行指代消解任务:
方式一:使用规则进行指代消解任务。通过大量手工构建的领域和语言知识形成逻辑规则,并使用逻辑规则对文本进行指代消解。此种方式需要大量人工参与,***的自动化程度非常低,处理效率低,可移植性也较差。
方式二:基于端到端模型进行指代消解任务。端到端模型,如卷积神经网络(Convolutional Neural Networks,CNN)等模型,先查找文本中的代词,再查找到文本中的候选实体,通过一一匹配排序来链接实体与代词的关系,以执行指代消解任务。在进行指代消解任务时,端到端模型中前一环的输出会作为后一环的输入,执行的是串行任务,所以当前面某一环节出现错误预测会影响到后面环节,并造成错误扩大化影响最终结果,导致结果不可控。且端到端模型的复杂度高,且处理时间较长,处理效率低。
本申请实施例提供了一种文本处理方法、装置、电子设备及计算机可读存储介质,可适用于机器阅读理解、智能人机多轮对话等场景,能够简化指代消解任务的处理过程,提高处理效率,且使得到的指代消解文本更加准确,提高了指代消解任务的质量。
图1A为一个实施例中文本处理方法的应用场景图。如图1A所示,该文本处理方法可适用于多轮对话场景,该应用场景可包括用户及电子设备10,用户可通过电子设备10进行会话。该会话可以是与其它电子设备的用户之间进行的会话,也可以是与电子设备10上的智能语音程序之间的会话。电子设备10可获取一轮或多轮对话的对话文本,并将该对话文本作为原始文本数据。电子设备10可通过抽取模型抽取原始文本数据包含的关键信息,并对各个关键信息进行标注,得到抽取结果,利用抽取模型可对原始文本数据进行初步的信息抽取及指代,再通过生成模型对原始文本数据及抽取结果进行分析,得到目标文本对应的指代消解文本。
图1B为一个实施例中电子设备进行指代消解任务的示意图。如图1B所示,在多轮对话场景中,用户A通过电子设备10与用户B进行了3轮对话,第1轮:你会打篮球嘛,第2轮:当然会啊,第3轮:改天一起打。电子设备10可将3轮对话文本作为原始文本数据,并输入到抽取模型中,得到抽取结果,再将该原始文本数据及抽取结果一起输入生成模型,生成模型根据抽取结果及原始文本数据对第3轮对话文本进行改写,得到指代消解文本“改天一起打篮球”。
如图2所示,在一个实施例中,提供一种文本处理方法,可应用于上述的电子设备,该电子设备可包括手机、智能穿戴设备、平板电脑、个人计算机(Personal Computer,PC)、车载终端等终端设备,也可包括服务器、服务器集群等服务设备,本申请实施例对此不作限制。该方法可包括以下步骤:
步骤210,获取原始文本数据,该原始文本数据至少包括需要进行指代消解任务的目标文本。
在一些实施例中,原始文本数据可包括对话文本,该对话文本可指的是电子设备的用户与其它电子设备的用户之间的对话文本,也可指的是电子设备的用户与自动应答的语言程序之间的对话文本,则目标文本可指的是最近一轮的对话文本。原始文本数据也可包括一篇文章中的某个段落文本,或是社交媒体上发布的某段文本等,原始文本数据的内容可根据不同的应用场景进行确定。
在一些实施例中,原始文本数据中除了包括需要进行指代消解任务的目标文本以外,还可包括该目标文本的上下文数据,上下文数据可用于反映目标文本的语境,能够帮助电子设备更好地识别出原始文本数据的语义,通过目标文本的上下文数据可以更加准确地分析出目标文本中指代的实体,从而提高指代消解任务的准确性。
作为一种具体实施方式,在多轮对话场景下,原始文本数据可包括在当前对话场景下的所有轮次的对话文本,该当前对话场景可指的是用户在电子设备中本次打开的对话窗口,目标文本的上下文数据可包括在最近一轮对话文本之前的所有轮次的对话文本。可选地,目标文本的上下文数据也可包括在最近一轮对话之前的N轮对话文本,该N可以是预先设定的正整数,例如,将在最近一轮对话之前的3轮对话文本作为上下文数据,或是在最近一轮对话之前的5轮、6轮等对话文本作为上下文数据,但不限于此。可选地,目标文本的上下文数据也可包括在最近一轮对话之前的预设时间段内的对话文本,例如,在最近一轮对话之前的3分钟内、10分钟内等的对话文本,但不限于此。
作为另一种具体实施方式,在对文章进行阅读理解的场景下,原始文本数据可包括目标文本所在段落的文本,目标文本的上下文数据可包括该段落中除目标文本以外的其它文本。可选地,目标文本的上下文数据也可包括段落中在目标文本之前的M句文本,该M可以是预先设定的正整数,例如,段落中在目标文本之前的2句文本、3句文本等,但不限于此。
需要说明的是,执行指代消解任务的场景并不仅限于上述中列举的几种场景,目标文本及上下文数据可根据实际需求进行设置及选择,本申请实施例对此不作限制。
步骤220,通过抽取模型抽取原始文本数据包含的关键信息,并对各个关键信息进行标注,得到抽取结果。
关键信息可至少包括原始文本数据中的候选实体及候选实体在目标文本的***位置,其中,候选实体可指的是目标文本在进行指代消解时,代词所指代的实体,或是目标文本中省略指代的实体。进一步地,关键信息还可包括原始文本数据中的候选代词,候选代词指的是目标文本中的指代其它实体的词语,候选代词与候选实体之间可以具备指代关系,也可不具备指代关系。
例如,原始文本数据包括“你会打篮球嘛?当然会啊。改天一起打!”,其中,候选实体可包括“篮球”,候选代词可包括“改天”,但二者不具备指代关系。原始文本数据包括“你认识汤姆么?我不认识他”,候选实体可包括“汤姆”,候选代词可包括“他”,二者具备指代关系。
抽取模型可以是具有进行指代消解任务能力的分类模型,或是具有进行指代消解任务能力的序列标注模型等。抽取模型可对原始文本数据进行分词,识别出原始文本数据中各个词语的词性,并确定各个词语之间的指代关系。
抽取模型可识别出原始文本数据中具有指代关系的先行语、照应语及先行语在目标文本中的***位置,照应语可指的是指代关系中的起始位置对应的词语,先行语则是被照应语所指代的词语,先行语及照应语可组成指代链。示例性地,原始文本数据包括“你认识小强么?我不认识他”,其中,“小强”、“他”具有指代关系,则“他”为照应语,“小强”为先行语。上述中的候选实体可包括原始文本数据中的先行语,候选代词可包括原始文本数据中的照应语。
可选地,在原始文本数据中,一个照应语可对应一个或多个先行语,一个先行语也可对应一个或多个照应语,若目标文本为零指代文本(指的是目标文本中不包含代词),则一个先行语也可不对应照应语。通过抽取模型识别原始文本数据中具有指代关系的先行语、照应语及先行语在目标文本中的***位置,可从原始文本数据中抽取出关键信息,并建立候选实体与候选代词之间的指代关系。
电子设备可将获取的原始文本数据输入抽取模型,抽取模型可提取原始文本数据中的文本特征,并根据该文本特征对目标文本进行指代消解,标注出原始文本数据中包含的候选实体、候选代词及候选实体在目标文本中的***位置,以得到抽取结果。其中,该候选实体在目标文本中的***位置可指的是对目标文本进行指代消解时候选实体添加到目标文本中的位置。若候选实体与候选代词之间具备指代关系,则候选实体在目标文本中的***位置可为候选代词所在的位置,若目标文本中不包含候选代词或候选代词与候选实体不具备指代关系,则候选实体在目标文本中的***位置即为目标文本中省略指代实体的位置。
抽取模型可以是根据第一训练样本进行训练得到的,该第一训练样本可包括原始文本样本及原始文本样本对应的标注样本,标注样本可对原始文本样本中的关键信息进行标注。
例如,原始文本样本为“我最喜欢周杰伦。我也喜欢。我最喜欢他的七里香”,对应的标注样本可包括候选实体:周杰伦;候选代词:他;***位置:他。可选地,候选实体的***位置可直接用***的候选代词表示,也可用***所在的字符位置表示,如可以采用对话轮数(或句数)及字符序号表示,例如,上述中的***位置可为第3轮第7个字符,可直接用(3,7)等格式表示。
利用第一训练样本对抽取模型进行训练,可将第一训练样本输入待训练的抽取模型,通过该抽取模型预测得到原始文本样本对应的预测抽取结果,可将该预测抽取结果与原始文本样本对应的标注样本进行比对,并根据比对结果对抽取模型的参数进行调整,直至抽取模型得到的预测抽取结果与标注样本的距离小于预设的第一距离阈值,则抽取模型训练完成。
由于第一训练样本的标注样本包含已标注的候选实体、候选代词及候选实体的***位置,抽取模型可基于第一训练样本学习得到识别候选实体、候选代词及进行指代消解的能力,使得抽取模型对原始文本样本预测得到的抽取结果贴合对应的标注样本,具备指代消解能力。抽取模型对原始文本数据进行标签得到抽取结果,该抽取结果即可作为原始文本数据初步的指代消解结果,电子设备基于抽取结果可以很容易地获知如何对目标文本进行指代消解。
在一些实施例中,不同类型的关键信息可采用不同的标签进行标注,其中,候选实体可采用第一标签进行标注,候选代词可采用第二代标进行标注,***位置可采用第三标签进行标注,例如,候选实体用标签es标注,候选代词用标签ps标注,***位置用标签in标注。进一步地,标注样本可包括与原始文本样本对应的标签序列,标签序列中可包含原始文本样本中各个字符对应的标签,以及***位置的标签,除关键信息以外的其它字符可采用统一的标签进行标注,例如,可采用“*”、“-”等标签,但不限于此。
图3A为一个实施例中原始文本样本和标注样本的示意图。如图3A所示,原始文本样本为“你喜欢科比么?最爱没有之一,他打球太帅了!”,对应的标注样本可为“***AA*********in B******”,其中,可用标签A表示候选实体,用标签B表示候选代词,in表示候选实体的***位置。“科比”为候选实体,被标注为“AA”,“他”为候选代词,被标注为“B”,指代消解时需在“他”的位置处***“科比”,因此,可在“他”之前/之后添加***标签“in”。
抽取模型可生成与原始文本数据对应的标签序列,并将该标签序列作为抽取结果输入生成模型中。
步骤230,通过生成模型对原始文本数据及抽取结果进行分析,得到目标文本对应的指代消解文本。
电子设备可将通过抽取模型得到的抽取结果与原始文本数据输入生成模型,并通过生成模型对原始文本数据及抽取结果进行进一步分析,以得到最终的指代消解文本。抽取结果为抽取模型初步得到的指代消解结果,生成模型可结合原始文本数据进一步对抽取结果进行分析,得到更准确的指代消解文本。进一步地,生成模型可结合原始文本数据中的上下文数据对抽取结果进行改写,以得到更符合语境、语义的指代消解文本。
生成模型是根据第二训练样本进行训练得到的,该第二训练样本可包括原始文本样本、原始文本样本经过训练好的抽取模型得到的抽取样本结果,以及原始文本样本对应的指代消解样本结果。
在利用第一训练样本训练得到抽取模型时,可将原始文本样本输入训练好的抽取模型中,得到原始文本样本对应的抽取样本结果,并将抽取样本结果及原始文本样本、指代消解样本结果输入待训练的生成模型中,通过生成模型得到原始文本样本对应的预测指代消解结果。可将该预测指代消解结果与原始文本样本对应的指代消解样本结果进行比对,该指代消解样本结果为原始文本样本的实际指代消解结果,并根据比对结果调整生成模型的参数,使得生成模型得到的预测指代消解结果与指代消解样本结果之间的距离小于预设的第二距离阈值,则生成模型训练完成,从而可使得生成模型预测得到的指代消解文本贴合实际的指代消解结果,提高了生成模型的准确性。
图3B为一个实施例中生成指代消解文本的示意图。如图3B所示,电子设备可将原始文本数据输入抽取模型310,通过抽取模型310得到抽取结果,再将原始文本数据及抽取模型310输出的抽取结果输入生成模型320,通过生成模型320得到指代消解文本。
在本申请实施例中,通过抽取模型可对原始文本数据进行初步的信息抽取及指代,并通过生成模型对抽取结果进行处理,得到最终的指代消解文本,本申请实施例采用抽取式+生成式的指代消解方案,将复杂的指代消解任务分解为两个相对简单的任务,能够简化指代消解任务的处理过程,提高处理效率。而且生成模型是基于抽取模型的抽取结果及原始文本数据得到指代消解文本,使得到的指代消解文本更加准确,能够提高指代消解任务的质量。
在一些实施例中,步骤获取原始文本数据,可包括:获取最近一轮对话中的对话文本,以及在最近一轮对话之前的N轮对话文本,其中,最近一轮对话中的对话文本为需要进行指代消解任务的目标文本,并根据N轮对话文本及目标文本生成原始文本序列。原始文本序列中的各个字符可按照获取的对话文本的时序依次进行排序,通过生成文本序列可方便后续对字符进行进一步处理。
可选地,电子设备在获取最近一轮对话中的对话文本,以及在最近一轮对话之前的N轮对话文本后,可按照对话文本的轮数从前到后依次对对话文本进行排序,并在不同轮对话文本之间添加间隔标签,以生成原始文本序列。其中,该间隔标签可用于间隔不同轮对话文本,例如,不同轮对话文本之间用标签【sep】间隔,同时,还可在获取的第一轮对话前添加文本起始标签,以及在最后一轮对话后添加文本结束标签。
例如,电子设备获取的对话文本为:
A:你会打篮球嘛?
B:当然会啊
A:改天一起打
生成的原始文本序列可为:【begin】你会打篮球嘛?【sep】当然会啊【sep】改天一起打【end】
可选地,在不同轮对话文本之间添加间隔标签也可以是在每一轮对话文本的第一个字符之前添加轮起始标签,以及在最后一个字符后面添加轮结速标签。例如,轮起始标签可为PAD,轮结束标签可为END,则以上述的对话文本为例,生成的原始文本序列可为:PAD你会打篮球嘛?END PAD当然会啊END PAD改天一起打END。
通过在不同轮对话文本之间添加间隔标签,后续的抽取模型及生成模型可直接获取每一轮的对话,可以帮助抽取模型及生成模型更快、更准确地分析原始文本序列中的字符,提高处理效率。
进一步地,电子设备在对对话文本进行排序后,可识别排序后的对话文本中的非中文字符,例如,数字、标点符号等非中文字符,可删除排序后的对话文本中的非中文字符或将非中文字符替换为统一字符,例如,统一替换为“#”号等,以得到原始文本序列。电子设备可将原始文本序列输入抽取模型及生成模型,以得到指代消解文本。通过将对话文本进行归一化处理,剔除对话文本中不重要的字符,可减少后续抽取模型及生成模型的处理量,提高处理速度。
在一些实施例中,步骤通过生成模型对原始文本数据及抽取结果进行分析,得到目标文本对应的指代消解文本,包括:通过生成模型获取原始文本数据的文本特征,并根据文本特征及抽取结果对目标文本进行处理,以得到满足语义通顺度要求的指代消解文本。其中,语义通顺度可用于描述文本的语言逻辑性、用词准确性、通顺等特征,语义通顺度越高,说明指代消解文本越符合人类使用的语言逻辑规范。
在对目标文本进行指代消解时,可能存在一个候选代词同时指代多个候选实体的情况,则在进行指代消解任务时,将多个指代的候选实体嵌入目标文本时可能存在逻辑不通的情况,导致指代消解文本的语义通顺度较低。例如,原始文本数据为“你觉得苹果好吃还是梨子好吃?差不多吧,都挺好吃的”,其中,候选实体“苹果”和“梨子”的***位置均在“都”之前,若是直接嵌入则为“苹果梨子都挺好吃的”,较不通顺。
生成模型可对原始文本数据进行分析,得到原始文本数据的文本特征,并结合该文本特征对抽取结果进行改写,而不仅仅是根据抽取结果将候选实体嵌入到标注的***位置中,使得输出的指代消解文本满足语义通顺度要求。例如,原始文本数据为“你觉得苹果好吃还是梨子好吃?差不多吧,都挺好吃的”,抽取结果标注的候选实体包括“苹果”和“梨子”,***位置均为在“都”之前,则生成模型可对该抽取结果进行改写,得到指代消解文本“苹果和梨子都挺好吃的”,满足语义通顺度要求。能够使得输出的指代消解文本更准确,符合语言逻辑性。
抽取结果对候选实体在目标文本中的***位置进行了标注,生成模型可将候选实体嵌入到目标文本中对应的***位置,若一个***位置仅对应一个候选实体,且该***位置没有对应的候选代词(指***位置旁边没有候选代词),则直接将该候选实体嵌入该***位置。若一个***位置仅对应一个候选实体,且该***位置有对应的候选代词,则可将该候选代词替换为候选实体。
在一些实施例中,生成模型将候选实体嵌入到目标文本中对应的***位置后,可计算嵌入了候选实体的目标文本的语义通顺度,语义通顺度可用于反映嵌入了候选实体的目标文本的语言逻辑性及通顺、合理等。可选地,语义通顺度可用分数数值等进行表示,数值越高,说明通顺度越大。由于生成模型是基于原始文本样本的实际的指代消解样本结果进行训练的,而该实际的指代消解样本结果为通顺文本,因此生成模型能够学习出具备通顺连贯的文本的特征,从而可对嵌入了候选实体的目标文本的通顺度进行评测。
若该嵌入了候选实体的目标文本的语义通顺度低于语义通顺度阈值,则生成模型可在嵌入的候选实体与相邻的字符之间添加连贯字符,以使嵌入了候选实体的目标文本的语义通顺度不低于语义通顺度阈值,则可将该嵌入了候选实体的目标文本作为指代消解文本输出。该连贯字符可从字典中获取,可包括但不限于连词、介词、助词等,例如在相邻候选实体之间添加和、的、及、是等连贯字符。
例如,原始文本数据为“你知道小说XX嘛?没听说过。Y的小说”,生成模型将候选实体“XX”***到“Y”之前,得到文本“XXY的小说”,并计算得到该文本的语义通顺度低于语义通顺度阈值,则进一步在“XX”与“Y”之间添加连贯字符,得到满足语义通顺度要求的指代消解文本“XX是Y的小说”。
在一些实施例中,若一个***位置对应至少两个候选实体,生成模型可根据文本特征及抽取结果在目标文本的同一***位置中嵌入至少两个候选实体,并计算至少两个候选实体之间的第一语义通顺度。生成模型可判断第一语义通顺度是否低于语义通顺度阈值,若低于该语义通顺度阈值,则可在嵌入的相邻候选实体之间添加连贯字符,以使至少两个候选实体之间的第一语义通顺度不低于语义通顺度阈值。
在添加连贯字符后,生成模型可重新计算添加连贯字符的两个候选实体之间的第一语义通顺度,并继续判断第一语义通顺度是否低于语义通顺度阈值,若还是低于语义通顺度阈值,则可重新从字典中获取连贯字符并添加到嵌入的相邻候选实体之间,直至至少两个候选实体之间的第一语义通顺度不低于语义通顺度阈值。
在一些实施例中,若一个***位置对应至少两个候选实体,生成模型可根据文本特征及抽取结果在目标文本的同一***位置中嵌入至少两个候选实体,并计算该至少两个候选实体与目标文本中的其它字符之间的第二语义通顺度。其中,该目标文本中的其它字符可以是与嵌入的至少两个候选实体的相邻字符或相邻词语等。若第二语义通顺度低于语义通顺度阈值,则调整至少两个候选实体在同一***位置的嵌入顺序,以使至少两个候选实体与目标文本中的其它字符之间的第二语义通顺度不低于语义通顺度阈值。
例如,原始文本数据为“你能发语音么?发不了。为啥?”,其中,“语音”为第一候选实体,“发不了”为第二候选实体,直接将候选实体嵌入到“为啥”后面,得到的文本为“为啥语音发不了”,语义通顺度低,不满足要求,则可调整“语音”和“发不了”之间的顺序,得到满足语义通顺度要求的指代消解文本“为啥发不了语音”。
在本申请实施例中,生成模型可计算嵌入了候选实体的目标文本的语义通顺度,并根据该语义通顺度对目标文本进行改写,得到满足语义通顺度要求的指代消解文本,可提高生成的指代消解文本的准确性,使得指代消解文本更符合人类用语逻辑,提高了机器的智能性。
如图4所示,在一个实施例中,步骤通过生成模型获取原始文本数据的文本特征,并根据文本特征及抽取结果对目标文本进行处理,以得到满足语义通顺度要求的指代消解文本,可包括以下步骤:
步骤402,通过生成模型获取原始文本数据中各个字符对应的第一特征向量,并根据抽取结果中各个字符对应的标签,获取各个字符对应的第二特征向量。
在一些实施例中,生成模型可以是基于LSTM(Long Short-Term Memory,长短期记忆网络)构建的模型,LSTM是一种时间循环神经网络,生成模型也可以是基于自注意力机制构建的模型,如Transformer模型等。自注意力机制是用于模拟人类视觉注意力的机制,人类视觉在感知东西的时候一般不会是一个场景从到头看到尾每次全部都看,而往往是根据需求观察注意特定的一部分。而且当人们发现一个场景经常在某部分出现自己想观察的东西时,人们会进行学习在将来再出现类似场景时把注意力放到该部分上。
生成模型可包括编码器及解码器,该编码器具备字符表征功能,电子设备可将原始文本序列及抽取模型输出的标签序列输入编码器中,编码器将原始文本序列中的各个字符转换为对应的第一特征向量,并将标签序列中与各个字符对应的标签转换为第二特征向量。
可选地,该第一特征向量及第二特征向量均可为嵌入向量(Embedding),嵌入向量指的是指的是将每个字符转换为固定长度的向量表示,从而方便进行数字处理。编码器可将原始文本序列中的各个字符转换为用数字表示的第一特征向量,并将标签序列中的各个标签转换为用数字表示的第二特征向量。该嵌入向量的长度可以是人为设定的长度,例如300、200、256等,但不限于此。
步骤404,通过生成模型对各个字符的第一特征向量及第二特征向量进行融合,得到各个字符的目标特征向量,并根据各个字符的目标特征向量对目标文本进行改写,得到满足语义通顺度要求的指代消解文本。
在一个实施例中,抽取模型可基于预先定义的标签集合生成与原始文本序列对应的标签序列。该标签集合可至少包括候选实体起始标签、候选实体结束标签、候选代词起始标签、候选代词结束标签及***位置标签等,但不限于此。
例如,原始文本序列为:
PAD你会打篮球嘛?END PAD当然会啊END PAD改天一起打END;
生成的标签序列可为:
。。。。es ee。。。。。。。。。。ps pe。。。in。;
其中,es为候选实体起始标签,ee为候选实体结束标签,ps为候选代词起始标签,pe为候选代词结束标签,in为***位置标签,原始文本序列中的其它字符用统一标签“。”标注。
在一些实施例中,针对原始文本序列中的各个字符,以第一字符为例,该第一字符可为原始文本序列中的任一字符(原始文本序列中的一个标签可作为一个字符),编码器可获取第一字符对应的第一特征向量,以及该第一字符对应的标签对应的第二特征向量,并将第一特征向量和第二特征向量进行拼接,得到第一字符的目标特征向量。编码器根据各个字符的目标特征向量可得到输入的原始文本序列对应的编码信息,并将该编码信息输入解码器中,由解码器依次预测输出的各个字符,得到输出文本序列,该输出文本序列即为指代消解文本。
由于标签序列中还包含***位置标签,若该***位置标签与候选代词起始标签或候选代词结束标签相邻,则可将该***位置标签与相邻的候选代词起始标签或候选代词结束标签作为共同的标签,计算得到对应的第二特征向量。
若该***位置标签可与统一标签相邻,则可将该***位置标签与相邻的统一标签作为共同的标签,计算得到对应的第二特征向量。例如,标签序列可为:。。。。esee。。。。。。。。。。ps pe。。。in。;其中***位置标签与统一标签“。”相邻,则可与相邻的前一个统一标签作为共同的标签,计算得到对应的第二特征向量,该第二特征向量可与前一个统一标签对应的字符“打”对应,也可与相邻的后一个统一标签作为共同的标签,计算得到对应的第二特征向量,在此不作限定。
作为另一种实施方式,抽取结果中已包含有指代关系,可根据标签序列中的***位置标签,确定原始文本序列中与该***位置标签对应的***位置,并将所需***的候选实体的字符嵌入到该***位置中,得到新的文本序列,该新的文本序列即与标签序列属于一一对应的关系,则可根据新的文本序列各个字符对应的第一特征向量及对应标签的第二特征向量得到各个字符的目标特征向量。
例如,原始文本序列为:PAD你觉得汤姆和罗杰哪个更帅气?END PAD我觉得他们都很帅气END;对应的标签序列为:。。。。es ee。es ee。。。。。。。。pe/ps。。in pe ps。。。。。;生成的新的文本序列可为PAD你觉得汤姆和罗杰哪个更帅气?END PAD我觉得汤姆罗杰他们都很帅气END,其中嵌入的字符“汤姆罗杰”对应的标签均可为***位置标签“in”。从而可根据新的文本序列中各个字符的第一特征向量及对应标签的第二特征向量得到新的文本序列中各个字符的目标特征向量。
作为另一种实施方式,由于标签序列中***位置是某个字符之前或是某个字符之后,因此***位置在原始文本序列中可被理解为没有对应的字符,生成模型在获取标签序列之后,可先可根据标签序列中的***位置标签,在目标文本对应的***位置嵌入替代字符,例如“&”、“^”等符号,再进行特征向量转换,以保证得到原始文本序列中各个字符对应的目标特征向量,方便编码器进一步处理得到编码信息,该编码信息即可理解为原始文本序列对应的文本特征,该编码信息可以是隐藏状态特征,也可以是自注意力特征等。
编码器将编码信息输入解码器后,解码器可根据该编码信息以及前一次的输出序列得到本次的输出序列,按照时序依次输出指代消解文本的各个字符,直至输出序列停止符,则得到完整的指代消解文本。例如,原始文本序列为:PAD你觉得汤姆和罗杰哪个更帅气?END PAD我觉得他们都很帅气END,解码器首先根据编码器输入的编码信息得到输出序列:<sos>,该<sos>为序列起始符,然后根据输出序列<sos>和编码信息得到输出序列:<sos>我,再根据输出序列<sos>我和编码信息得到输出序列:<sos>我觉,……,以此类推,直至得到输出序列<sos>我觉得汤姆和罗杰都很帅气<eos>,则停止输出,<eos>即为序列停止符,得到的指代消解文本为:我觉得汤姆和罗杰都很帅气。
由于生成模型是基于原始文本样本的实际的指代消解样本结果进行训练的,而该实际的指代消解样本结果为通顺文本,因此生成模型能够输出满足语义通顺度要求的指代消解文本。
在本申请实施例中,生成模型可结合原始文本数据中的上下文数据,以及抽取模型的抽取结果,对抽取结果进行改写,由于生成的指代消解文本均是来自原始文本数据中的上下文数据及目标文本,且又有抽取结果的强引导,使得到的指代消解文本更加准确,能够提高指代消解任务的质量。
如图5所示,在一个实施例中,提供另一种文本处理方法,可应用于上述的电子设备,该方法可包括以下步骤:
步骤502,将第一训练样本输入预训练的自然语言处理模型,通过自然语言处理模型对第一训练样本的原始文本样本进行标注,得到预测抽取结果。
自然语言模型是根据语料库中的文本数据进行预训练得到的,自然语言模型具备强大的字符表征能力,能准确地将字符转换为相应的以数字表示的特征向量。在本申请实施例中,电子设备可利用第一训练样本对预训练的自然语言处理模型进行二次训练,该第一训练样本可包括原始文本样本及标注样本,利用该预训练的自然语言处理模型抽取原始文本样本的关键信息,对原始文本样本进行标注,得到预测抽取结果。
步骤504,将预测抽取结果与第一训练样本中的标注样本进行比较,计算结果损失。
可选地,自然语言处理模型得到预测抽取结果后,可利用损失函数计算预测抽取结果相对标注样本的损失,该损失可用于说明预测抽取结果与标注样本之间的误差。进一步地,可将预测抽取结果与原始文本样本对应的标注样本进行比对,计算预测抽取结果与标注样本之间的距离,该距离可通过欧式距离、曼哈顿距离等算法计算,在本申请实施例中不作限定。
步骤506,根据结果损失对自然语言处理模型的参数进行调整,以训练得到抽取模型。
若预测抽取结果与标注样本之间的距离大于第一距离阈值,则可说明得到的预测抽取结果不符合预期,则可对自然语言处理模型的参数进行调整,并重新用新的第一训练样本继续对调整后的自然语言处理模型进行训练,直至得到的预测抽取结果与标注样本之间的距离小于第一距离阈值,也即结果损失满足期望,则训练得到抽取模型。
由于抽取模型是在预训练好的自然语言处理模型的基础上进行进一步训练得到的,因此只需要较少的标注数据(即第一训练样本)即可完成训练,不需要大量的训练样本,且具备强大的文本表征能力,达到抽取效果的同时降低训练难度,提高了训练效率。
步骤508,将原始文本样本输入训练得到的抽取模型,以得到原始文本样本对应的抽取样本结果,并根据原始文本样本、对应的抽取样本结果及对应的指代消解样本结果对生成模型进行训练。
电子设备可将原始文本样本输入训练得到的抽取模型,以得到原始文本样本对应的抽取样本结果,并将该原始文本样本、对应的抽取样本结果及对应的指代消解样本结果作为第二训练样本,对生成模型进行训练,使得生成模型输出的预测指代消解文本贴近实际的指代消解样本结果。
步骤510,获取原始文本数据,该原始文本数据至少包括需要进行指代消解任务的目标文本。
步骤510的描述可参照上述各实施例中的相关描述,在此不再赘述。
步骤512,通过抽取模型分别生成原始文本数据包含的各个字符对应的第三特征向量,并根据第三特征向量及标签集合对各个字符进行标签预测,得到与原始文本数据对应的标签序列。
由于抽取模型是在预训练好的自然语言处理模型的基础上进行进一步训练得到的,因此具备强大的文本表征能力。电子设备将原始文本数据输入抽取模型后,抽取模型可将原始文本数据包含的各个字符转换为对应的第三特征向量,第三特征向量可采用数字的方式对字符进行表征。抽取模型基于各个字符对应的第三特征向量可识别各个字符是否属于关键信息,以及属于关键信息中的哪个类别(如候选实体、候选代词等),还可识别出原始文本数据中具备指代关系的词语,从而可根据标签集合中预先定义的各个标签对各个字符进行标注,对各个字符进行标签预测,得到与原始文本数据对应的标签序列。
可选地,标签集合至少包括候选实体起始标签、候选实体结束标签、候选代词起始标签、候选代词结束标签及***位置标签等,通过对字符进行标签标注,能够更加准确地描述原始文本数据中的关键信息及指代关系,提高生成模型的处理效率及生成效果。
步骤514,通过生成模型获取原始文本数据的文本特征,并根据文本特征及标签序列对目标文本进行处理,以得到满足语义通顺度要求的指代消解文本。
步骤514的描述可参照上述各实施例中的相关描述,在此不再赘述。
在本申请实施例中,可基于预训练好的自然语言处理模型训练得到抽取模型,使得抽取模型具备强大的文本表征能力,且训练过程简单,不需要大量的训练样本,降低了训练成本,提高了训练效率。
如图6所示,在一个实施例中,提供一种文本处理装置600,可应用于上述的电子设备,该文本处理装置600可包括获取模块610、抽取模块620及生成模块630。
获取模块610,用于获取原始文本数据,原始文本数据包括需要进行指代消解任务的目标文本。
抽取模块620,用于通过抽取模型抽取原始文本数据包含的关键信息,并对各个关键信息进行标注,得到抽取结果,其中,关键信息至少包括原始文本数据中的候选实体及候选实体在目标文本的***位置,抽取模型是根据第一训练样本进行训练得到的,第一训练样本包括原始文本样本及原始文本样本对应的标注样本。
生成模块630,用于通过生成模型对原始文本数据及抽取结果进行分析,得到目标文本对应的指代消解文本,其中,生成模型是根据第二训练样本进行训练得到的,第二训练样本包括原始文本样本、原始文本样本经过训练好的抽取模型得到的抽取样本结果,以及原始文本样本对应的指代消解样本结果。
在本申请实施例中,通过抽取模型可对原始文本数据进行初步的信息抽取及指代,并通过生成模型对抽取结果进行处理,得到最终的指代消解文本,本申请实施例采用抽取式+生成式的指代消解方案,将复杂的指代消解任务分解为两个相对简单的任务,能够简化指代消解任务的处理过程,提高处理效率。而且生成模型是基于抽取模型的抽取结果及原始文本数据得到指代消解文本,使得到的指代消解文本更加准确,能够提高指代消解任务的质量。
在一个实施例中,获取模块610,还用于获取最近一轮对话中的对话文本,以及在最近一轮对话之前的N轮对话文本,其中,N为正整数,最近一轮对话中的对话文本为需要进行指代消解任务的目标文本,以及用于根据N轮对话文本及目标文本生成原始文本序列。
在一个实施例中,生成模块630,还用于通过生成模型获取原始文本数据的文本特征,并根据文本特征及抽取结果对目标文本进行处理,以得到满足语义通顺度要求的指代消解文本。
在一个实施例中,生成模块630,包括通顺度计算单元及调整单元。
通顺度计算单元,用于若根据文本特征及抽取结果在目标文本的同一***位置中嵌入至少两个候选实体,则计算至少两个候选实体与目标文本中的其它字符之间的第二语义通顺度。
调整单元,用于若第二语义通顺度低于语义通顺度阈值,则调整至少两个候选实体在同一***位置的嵌入顺序,以使至少两个候选实体与目标文本中的其它字符之间的第二语义通顺度不低于语义通顺度阈值。
在一个实施例中,通顺度计算单元,还用于若根据文本特征及抽取结果在目标文本的同一***位置中嵌入至少两个候选实体,则计算至少两个候选实体之间的第一语义通顺度。
调整单元,还用于若第一语义通顺度低于语义通顺度阈值,则在嵌入的相邻候选实体之间添加连贯字符,以使至少两个候选实体之间的第一语义通顺度不低于语义通顺度阈值。
在本申请实施例中,生成模型可计算嵌入了候选实体的目标文本的语义通顺度,并根据该语义通顺度对目标文本进行改写,得到满足语义通顺度要求的指代消解文本,可提高生成的指代消解文本的准确性,使得指代消解文本更符合人类用语逻辑,提高了机器的智能性。
在一个实施例中,生成模块630,除了包括通顺度计算单元及调整单元,还包括特征获取单元及改写单元。
特征获取单元,用于通过生成模型获取原始文本数据中各个字符对应的第一特征向量,并根据抽取结果中各个字符对应的标签,获取各个字符对应的第二特征向量;
改写单元,用于通过生成模型对各个字符的第一特征向量及第二特征向量进行融合,得到各个字符的目标特征向量,并根据各个字符的目标特征向量对目标文本进行改写,得到满足语义通顺度要求的指代消解文本。
在本申请实施例中,生成模型可结合原始文本数据中的上下文数据,以及抽取模型的抽取结果,对抽取结果进行改写,由于生成的指代消解文本均是来自原始文本数据中的上下文数据及目标文本,且又有抽取结果的强引导,使得到的指代消解文本更加准确,能够提高指代消解任务的质量。
在一个实施例中,文本处理装置600除了包括获取模块610、抽取模块620及生成模块630,还包括第一训练模块及第二训练模块。
第一训练模块,用于根据第一训练样本对预训练的自然语言处理模型进行训练,得到抽取模块。
第一训练模块,包括预测单元、比较单元及调整单元。
预测单元,用于将第一训练样本输入预训练的自然语言处理模型,通过自然语言处理模型对第一训练样本的原始文本样本进行标注,得到预测抽取结果,自然语言模型是根据语料库中的文本数据进行预训练得到的。
比较单元,用于将预测抽取结果与第一训练样本中的标注样本进行比较,计算结果损失。
调整单元,用于根据结果损失对自然语言处理模型的参数进行调整,以训练得到抽取模型。
第二训练模块,用于将原始文本样本输入训练得到的抽取模型,以得到原始文本样本对应的抽取样本结果,并根据原始文本样本、对应的抽取样本结果及对应的指代消解样本结果对生成模型进行训练。
在一个实施例中,抽取模块620,还用于通过抽取模型分别生成原始文本数据包含的各个字符对应的第三特征向量,并根据第三特征向量及标签集合对各个字符进行标签预测,得到与原始文本数据对应的标签序列,标签集合至少包括候选实体起始标签、候选实体结束标签、候选代词起始标签、候选代词结束标签及***位置标签。
在本申请实施例中,可基于预训练好的自然语言处理模型训练得到抽取模型,使得抽取模型具备强大的文本表征能力,且训练过程简单,不需要大量的训练样本,降低了训练成本,提高了训练效率。
图7为一个实施例中电子设备的结构框图。如图7所示,电子设备700可以包括一个或多个如下部件:处理器710、与处理器710耦合的存储器720,其中存储器720可存储有一个或多个计算机程序,一个或多个计算机程序可以被配置为由一个或多个处理器710执行时实现如上述各实施例描述的方法。
处理器710可以包括一个或者多个处理核。处理器710利用各种接口和线路连接整个电子设备700内的各个部分,通过运行或执行存储在存储器720内的指令、程序、代码集或指令集,以及调用存储在存储器720内的数据,执行电子设备700的各种功能和处理数据。可选地,处理器710可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器710可集成中央处理器(CentralProcessing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作***、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器710中,单独通过一块通信芯片进行实现。
存储器720可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory,ROM)。存储器720可用于存储指令、程序、代码、代码集或指令集。存储器720可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作***的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现上述各个方法实施例的指令等。存储数据区还可以存储电子设备700在使用中所创建的数据等。
可以理解地,电子设备700可包括比上述结构框图中更多或更少的结构元件,例如,包括电源模块、物理按键、WiFi(Wireless Fidelity,无线保真)模块、扬声器、蓝牙模块、传感器等,还可在此不进行限定。
本申请实施例公开一种计算机可读存储介质,其存储计算机程序,其中,该计算机程序被处理器执行时实现如上述实施例描述的方法。
本申请实施例公开一种计算机程序产品,该计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,且该计算机程序可被处理器执行时实现如上述各实施例描述的方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、ROM等。
如此处所使用的对存储器、存储、数据库或其它介质的任何引用可包括非易失性和/或易失性存储器。合适的非易失性存储器可包括ROM、可编程ROM(Programmable ROM,PROM)、可擦除PROM(Erasable PROM,EPROM)、电可擦除PROM(Electrically ErasablePROM,EEPROM)或闪存。易失性存储器可包括随机存取存储器(random access memory,RAM),它用作外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(Static RAM,SRAM)、动态RAM(Dynamic Random Access Memory,DRAM)、同步DRAM(synchronous DRAM,SDRAM)、双倍数据率SDRAM(Double Data Rate SDRAM,DDR SDRAM)、增强型SDRAM(Enhanced Synchronous DRAM,ESDRAM)、同步链路DRAM(Synchlink DRAM,SLDRAM)、存储器总线直接RAM(Rambus DRAM,RDRAM)及直接存储器总线动态RAM(DirectRambus DRAM,DRDRAM)。
应理解,说明书通篇中提到的“一个实施例”或“一实施例”意味着与实施例有关的特定特征、结构或特性包括在本申请的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”未必一定指相同的实施例。此外,这些特定特征、结构或特性可以以任意适合的方式结合在一个或多个实施例中。本领域技术人员也应该知悉,说明书中所描述的实施例均属于可选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在本申请的各种实施例中,应理解,上述各过程的序号的大小并不意味着执行顺序的必然先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物单元,即可位于一个地方,或者也可以分布到多个网络单元上。可根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本申请各实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元若以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可获取的存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或者部分,可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干请求用以使得一台计算机设备(可以为个人计算机、服务器或者网络设备等,具体可以是计算机设备中的处理器)执行本申请的各个实施例上述方法的部分或全部步骤。
以上对本申请实施例公开的一种文本处理方法、装置、电子设备及计算机可读存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想。同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (11)

1.一种文本处理方法,其特征在于,包括:
获取原始文本数据,所述原始文本数据至少包括需要进行指代消解任务的目标文本;
通过抽取模型抽取所述原始文本数据包含的关键信息,并对各个所述关键信息进行标注,得到抽取结果,其中,所述关键信息至少包括所述原始文本数据中的候选实体及所述候选实体在所述目标文本的***位置,所述抽取模型是根据第一训练样本进行训练得到的,所述第一训练样本包括原始文本样本及所述原始文本样本对应的标注样本;
通过生成模型对所述原始文本数据及抽取结果进行分析,得到所述目标文本对应的指代消解文本,其中,所述生成模型是根据第二训练样本进行训练得到的,所述第二训练样本包括所述原始文本样本、所述原始文本样本经过训练好的抽取模型得到的抽取样本结果,以及所述原始文本样本对应的指代消解样本结果。
2.根据权利要求1所述的方法,其特征在于,所述通过生成模型对所述原始文本数据及抽取结果进行分析,得到所述目标文本对应的指代消解文本,包括:
通过生成模型获取所述原始文本数据的文本特征,并根据所述文本特征及所述抽取结果对所述目标文本进行处理,以得到满足语义通顺度要求的指代消解文本。
3.根据权利要求2所述的方法,其特征在于,所述通过生成模型获取所述原始文本数据的文本特征,并根据所述文本特征及所述抽取结果对所述目标文本进行处理,以得到满足语义通顺度要求的指代消解文本,包括:
通过生成模型获取所述原始文本数据中各个字符对应的第一特征向量,并根据所述抽取结果中所述各个字符对应的标签,获取所述各个字符对应的第二特征向量;
通过所述生成模型对所述各个字符的第一特征向量及第二特征向量进行融合,得到所述各个字符的目标特征向量,并根据所述各个字符的目标特征向量对所述目标文本进行改写,得到满足语义通顺度要求的指代消解文本。
4.根据权利要求2或3所述的方法,其特征在于,所述根据所述文本特征及所述抽取结果对所述目标文本进行处理,以得到满足语义通顺度要求的指代消解文本,包括:
若根据所述文本特征及所述抽取结果在所述目标文本的同一***位置中嵌入至少两个候选实体,则计算所述至少两个候选实体之间的第一语义通顺度;
若所述第一语义通顺度低于语义通顺度阈值,则在嵌入的相邻候选实体之间添加连贯字符,以使所述至少两个候选实体之间的第一语义通顺度不低于所述语义通顺度阈值。
5.根据权利要求2或3所述的方法,其特征在于,所述根据所述文本特征及所述抽取结果对所述目标文本进行处理,以得到满足语义通顺度要求的指代消解文本,包括:
若根据所述文本特征及所述抽取结果在所述目标文本的同一***位置中嵌入至少两个候选实体,则计算所述至少两个候选实体与所述目标文本中的其它字符之间的第二语义通顺度;
若所述第二语义通顺度低于语义通顺度阈值,则调整所述至少两个候选实体在所述同一***位置的嵌入顺序,以使所述至少两个候选实体与所述目标文本中的其它字符之间的第二语义通顺度不低于所述语义通顺度阈值。
6.根据权利要求1至3任一所述的方法,其特征在于,所述通过抽取模型抽取所述原始文本数据包含的关键信息,并对各个所述关键信息进行标注,得到抽取结果,包括:
通过所述抽取模型分别生成所述原始文本数据包含的各个字符对应的第三特征向量,并根据所述第三特征向量及标签集合对所述各个字符进行标签预测,得到与所述原始文本数据对应的标签序列,所述标签集合至少包括候选实体起始标签、候选实体结束标签、候选代词起始标签、候选代词结束标签及***位置标签。
7.根据权利要求1至3任一所述的方法,其特征在于,所述获取原始文本数据,包括:
获取最近一轮对话中的对话文本,以及在所述最近一轮对话之前的N轮对话文本,其中,N为正整数,所述最近一轮对话中的对话文本为需要进行指代消解任务的目标文本;
根据所述N轮对话文本及目标文本生成原始文本序列。
8.根据权利要求1所述的方法,其特征在于,在所述获取原始文本数据之前,所述方法还包括:
将第一训练样本输入预训练的自然语言处理模型,通过所述自然语言处理模型对所述第一训练样本的原始文本样本进行标注,得到预测抽取结果,所述自然语言模型是根据语料库中的文本数据进行预训练得到的;
将所述预测抽取结果与所述第一训练样本中的标注样本进行比较,计算结果损失;
根据所述结果损失对所述自然语言处理模型的参数进行调整,以训练得到抽取模型。
9.一种文本处理装置,其特征在于,包括:
获取模块,用于获取原始文本数据,所述原始文本数据包括需要进行指代消解任务的目标文本;
抽取模块,用于通过抽取模型抽取所述原始文本数据包含的关键信息,并对各个所述关键信息进行标注,得到抽取结果,其中,所述关键信息至少包括所述原始文本数据中的候选实体及所述候选实体在所述目标文本的***位置,所述抽取模型是根据第一训练样本进行训练得到的,所述第一训练样本包括原始文本样本及所述原始文本样本对应的标注样本;
生成模块,用于通过生成模型对所述原始文本数据及抽取结果进行分析,得到所述目标文本对应的指代消解文本,其中,所述生成模型是根据第二训练样本进行训练得到的,所述第二训练样本包括所述原始文本样本、所述原始文本样本经过训练好的抽取模型得到的抽取样本结果,以及所述原始文本样本对应的指代消解样本结果。
10.一种电子设备,其特征在于,包括存储器及处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器实现如权利要求1至8任一所述的方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8任一所述的方法。
CN202011446124.4A 2020-12-11 2020-12-11 文本处理方法、装置、电子设备及计算机可读存储介质 Pending CN112463942A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011446124.4A CN112463942A (zh) 2020-12-11 2020-12-11 文本处理方法、装置、电子设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011446124.4A CN112463942A (zh) 2020-12-11 2020-12-11 文本处理方法、装置、电子设备及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN112463942A true CN112463942A (zh) 2021-03-09

Family

ID=74801422

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011446124.4A Pending CN112463942A (zh) 2020-12-11 2020-12-11 文本处理方法、装置、电子设备及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN112463942A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112989008A (zh) * 2021-04-21 2021-06-18 上海汽车集团股份有限公司 一种多轮对话改写方法、装置和电子设备
CN113076078A (zh) * 2021-03-11 2021-07-06 山东大学 一种基于混合驱动的对话式信息获取方法
CN113326367A (zh) * 2021-06-30 2021-08-31 四川启睿克科技有限公司 基于端到端文本生成的任务型对话方法和***
CN116776886A (zh) * 2023-08-15 2023-09-19 浙江同信企业征信服务有限公司 一种信息抽取方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107766320A (zh) * 2016-08-23 2018-03-06 中兴通讯股份有限公司 一种中文代词消解模型建立方法及装置
CN111339780A (zh) * 2020-05-14 2020-06-26 北京金山数字娱乐科技有限公司 一种基于多任务模型的词语处理方法及装置
CN111401035A (zh) * 2020-02-18 2020-07-10 平安科技(深圳)有限公司 基于大数据的零指代消解方法、装置、设备及介质
CN111695054A (zh) * 2020-06-12 2020-09-22 上海智臻智能网络科技股份有限公司 文本处理方法及设备、信息抽取方法及***、介质
CN111967224A (zh) * 2020-08-18 2020-11-20 深圳市欢太科技有限公司 对话文本的处理方法、装置、电子设备及存储介质
CN111984766A (zh) * 2019-05-21 2020-11-24 华为技术有限公司 缺失语义补全方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107766320A (zh) * 2016-08-23 2018-03-06 中兴通讯股份有限公司 一种中文代词消解模型建立方法及装置
CN111984766A (zh) * 2019-05-21 2020-11-24 华为技术有限公司 缺失语义补全方法及装置
CN111401035A (zh) * 2020-02-18 2020-07-10 平安科技(深圳)有限公司 基于大数据的零指代消解方法、装置、设备及介质
CN111339780A (zh) * 2020-05-14 2020-06-26 北京金山数字娱乐科技有限公司 一种基于多任务模型的词语处理方法及装置
CN111695054A (zh) * 2020-06-12 2020-09-22 上海智臻智能网络科技股份有限公司 文本处理方法及设备、信息抽取方法及***、介质
CN111967224A (zh) * 2020-08-18 2020-11-20 深圳市欢太科技有限公司 对话文本的处理方法、装置、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周炫余 等: "篇章中指代消解研究综述", 武汉大学学报(理学版), no. 01 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113076078A (zh) * 2021-03-11 2021-07-06 山东大学 一种基于混合驱动的对话式信息获取方法
CN113076078B (zh) * 2021-03-11 2022-03-22 山东大学 一种基于混合驱动的对话式信息获取方法
CN112989008A (zh) * 2021-04-21 2021-06-18 上海汽车集团股份有限公司 一种多轮对话改写方法、装置和电子设备
CN113326367A (zh) * 2021-06-30 2021-08-31 四川启睿克科技有限公司 基于端到端文本生成的任务型对话方法和***
CN116776886A (zh) * 2023-08-15 2023-09-19 浙江同信企业征信服务有限公司 一种信息抽取方法、装置、设备及存储介质
CN116776886B (zh) * 2023-08-15 2023-12-05 浙江同信企业征信服务有限公司 一种信息抽取方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN112100349B (zh) 一种多轮对话方法、装置、电子设备及存储介质
CN108711420B (zh) 多语言混杂模型建立、数据获取方法及装置、电子设备
CN110473518B (zh) 语音音素识别方法和装置、存储介质及电子装置
CN113205817B (zh) 语音语义识别方法、***、设备及介质
CN110795552B (zh) 一种训练样本生成方法、装置、电子设备及存储介质
WO2022078146A1 (zh) 语音识别方法、装置、设备以及存储介质
CN112463942A (zh) 文本处理方法、装置、电子设备及计算机可读存储介质
CN111967224A (zh) 对话文本的处理方法、装置、电子设备及存储介质
CN112101045B (zh) 一种多模态语义完整性识别方法、装置及电子设备
CN109241330A (zh) 用于识别音频中的关键短语的方法、装置、设备和介质
CN111341293B (zh) 一种文本语音的前端转换方法、装置、设备和存储介质
CN109448704A (zh) 语音解码图的构建方法、装置、服务器和存储介质
CN113901191A (zh) 问答模型的训练方法及装置
CN112214591A (zh) 一种对话预测的方法及装置
US20230127787A1 (en) Method and apparatus for converting voice timbre, method and apparatus for training model, device and medium
CN109933773A (zh) 一种多重语义语句解析***及方法
CN114639386A (zh) 文本纠错及文本纠错词库构建方法
WO2021179703A1 (zh) 一种手语翻译方法、装置、计算机设备及存储介质
CN110852063B (zh) 基于双向lstm神经网络的词向量生成方法及装置
CN115132182B (zh) 一种数据识别方法、装置、设备及可读存储介质
CN111968646A (zh) 一种语音识别方法及装置
CN110866404B (zh) 基于lstm神经网络的词向量生成方法及装置
CN114373443A (zh) 语音合成方法和装置、计算设备、存储介质及程序产品
CN113160793A (zh) 基于低资源语言的语音合成方法、装置、设备及存储介质
CN114077650A (zh) 口语理解模型的训练方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination