CN114490968B - 对话状态跟踪方法、模型训练方法、装置以及电子设备 - Google Patents
对话状态跟踪方法、模型训练方法、装置以及电子设备 Download PDFInfo
- Publication number
- CN114490968B CN114490968B CN202111647412.0A CN202111647412A CN114490968B CN 114490968 B CN114490968 B CN 114490968B CN 202111647412 A CN202111647412 A CN 202111647412A CN 114490968 B CN114490968 B CN 114490968B
- Authority
- CN
- China
- Prior art keywords
- dialogue
- state
- word
- conversation
- word slot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种对话状态跟踪方法、模型训练方法、装置以及电子设备,涉及计算机技术领域,尤其涉及深度学习及自然语言处理等人工智能领域。具体实现方案为:获取当前轮次的对话语句;获取对话历史数据;对话历史数据包括对话语句的上下文信息和历史对话状态;根据对话语句和上下文信息,获取对话语句之中每个字的对话状态操作标注数据;根据对话状态操作标注数据和历史对话状态,确定当前轮次的对话状态。本申请基于对话状态操作标注数据和历史对话状态,确定当前轮次的对话状态,无需结合场景,即可实现对话状态的跟踪。本申请实现了与场景解耦的对话状态跟踪方法,该对话状态跟踪方法泛化性强,可通用于多种场景。
Description
技术领域
本申请涉及计算机技术领域,进一步涉及深度学习及自然语言处理等人工智能领域,尤其涉及一种对话状态跟踪方法、模型训练方法、装置以及电子设备。
背景技术
随着智能对话***的不断发展,其应用场景越来越多,如查询信息、话务回复、控制智能设备等人机交互场景。在任务型对话场景中,需对对话状态进行跟踪,及时从对话状态中获取用户意图等相关信息,从而做出对应回复语句。
发明内容
本申请提供了一种对话状态跟踪方法、模型训练方法、装置以及电子设备。
根据本申请的第一方面,提供了一种对话状态跟踪方法,包括:
获取当前轮次的对话语句;
获取对话历史数据;所述对话历史数据包括所述对话语句的上下文信息和历史对话状态;
根据所述对话语句和所述上下文信息,获取所述对话语句之中每个字的对话状态操作标注数据;
根据所述对话状态操作标注数据和所述历史对话状态,确定所述当前轮次的对话状态。
根据本申请的第二方面,提供了一种对话状态跟踪模型训练方法,该对话状态跟踪模型用于对话状态跟踪任务中,该方法包括:
获取多轮次的对话语句样本和每个所述对话语句样本中每个字的操作标签真实数据;
从所述多轮次的对话语句样本中获取当前轮次的对话语句样本和所述当前轮次的对话语句样本的上下文信息样本;
将所述当前轮次的对话语句样本和所述上下文信息样本输入至预训练模型,获得所述当前轮次的对话语句样本中每个字的对话状态操作标注数据;
从所述每个所述对话语句样本中每个字的操作标签真实数据中确定出所述当前轮次的对话语句样本中每个字的操作标签真实数据;
根据所述当前轮次的对话语句样本中每个字的对话状态操作标注数据和所述当前轮次的对话语句样本中每个字的操作标签真实数据,训练所述预训练模型,并获取模型参数,根据所述模型参数生成所述对话状态跟踪模型。
根据本申请的第三方面,提供了一种对话状态跟踪装置,包括:
第一获取模块,用于获取当前轮次的对话语句;
第二获取模块,用于获取对话历史数据;所述对话历史数据包括所述对话语句的上下文信息和历史对话状态;
第三获取模块,用于根据所述对话语句和所述上下文信息,获取所述对话语句之中每个字的对话状态操作标注数据;
确定模块,用于根据所述对话状态操作标注数据和所述历史对话状态,确定所述当前轮次的对话状态。
根据本申请的第四方面,提供了一种对话状态跟踪模型训练装置,包括:
第一获取模块,用于获取多轮次的对话语句样本和每个所述对话语句样本中每个字的操作标签真实数据;
第二获取模块,用于从所述多轮次的对话语句样本中获取当前轮次的对话语句样本和所述当前轮次的对话语句样本的上下文信息样本;
第三获取模块,用于将所述当前轮次的对话语句样本和所述上下文信息样本输入至预训练模型,获得所述当前轮次的对话语句样本中每个字的对话状态操作标注数据;
确定模块,用于从所述每个所述对话语句样本中每个字的操作标签真实数据中确定出所述当前轮次的对话语句样本中每个字的操作标签真实数据;
训练模块,用于根据所述当前轮次的对话语句样本中每个字的对话状态操作标注数据和所述当前轮次的对话语句样本中每个字的操作标签真实数据,训练所述预训练模型,并获取模型参数,根据所述模型参数生成所述对话状态跟踪模型。
根据本申请的第五方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述第一方面所述的对话状态跟踪方法,或者执行前述第二方面所述的对话状态跟踪模型训练方法。
根据本申请的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行前述第一方面所述的对话状态跟踪方法,或者执行前述第二方面所述的对话状态跟踪模型训练方法。
根据本申请的第七方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现前述第一方面所述方法的步骤,或者实现前述第二方面所述方法的步骤。
根据本申请的技术方案,通过对话语句之中的每个字的对话状态操作标注数据,***性地表示了对话状态的操作形式。基于对话状态操作标注数据和历史对话状态,确定当前轮次的对话状态,无需结合场景,即可实现对话状态的跟踪。本申请实现了与场景解耦的对话状态跟踪方法,该对话状态跟踪方法泛化性强,可通用于多种场景。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请实施例提供的一种对话状态跟踪方法的流程示意图;
图2是本申请实施例提供的一种对话示意图;
图3是根据本申请实施例提供的另一种对话状态跟踪方法的流程示意图;
图4是本申请实施例提供的一种对话示意图;
图5是本申请实施例提供的一种对话状态跟踪模型的示意图;
图6是根据本申请实施例提供的一种对话状态跟踪模型训练方法的流程示意图;
图7是根据本申请实施例提供的另一种对话状态跟踪模型训练方法的流程示意图;
图8是本申请实施例提供的一种知识蒸馏示意图;
图9是根据本申请实施例提供的一种对话状态跟踪装置的结构框图;
图10是根据本申请实施例提供的一种对话状态跟踪模型训练装置的结构框图;
图11是根据本申请实施例提供的另一种对话状态跟踪模型训练装置的结构框图;
图12是用以实现本申请实施例的对话状态跟踪方法或者对话状态跟踪模型训练方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,本申请的技术方案中,所涉及的用户个人信息的获取、存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
相关技术中,基于模型的对话状态跟踪方法大多与某个场景或领域耦合,基于该场景或领域预测对话状态。而与某个场景或领域无关的模型,在对话状态跟踪任务上的性能较差。
为此,本申请提供了一种对话状态跟踪方法、模型训练方法、装置以及电子设备。具体地,下面参考附图描述本申请实施例的对话状态跟踪方法、模型训练方法、装置以及电子设备。
图1是根据本申请实施例提供的一种对话状态跟踪方法的流程示意图。需要说明的是,本申请实施例的对话状态跟踪方法可应用于本申请实施例的对话状态跟踪装置,该对话状态跟踪装置可被配置于电子设备上。
如图1所示,该对话状态跟踪方法可以包括如下步骤:
步骤101,获取当前轮次的对话语句。
步骤102,获取对话历史数据。该对话历史数据包括对话语句的上下文信息和历史对话状态。
在本申请一些实施例中,对话状态可以包括用户意图与词槽值。作为一种示例,图2是本申请实施例提供的一种对话示意图,如图2所示,对话语句205为当前轮次的对话语句。其中,对话历史数据中对话语句的上下文信息包括对话语句201-204,历史对话状态212:用户意图(intent)为“查天气”,地点词槽(slots)的词槽值为“A城市”。
步骤103,根据对话语句和上下文信息,获取对话语句之中每个字的对话状态操作标注数据。
需要说明的是,对话状态操作标注数据用于表示不同的对话状态操作。在对话状态中包括多种对话状态操作,如添加操作、删除操作、更新操作等。其中,当对话状态中第一次出现某词槽对应的词槽值时,将该词槽值中的每个字的对话状态操作标注数据标注为添加操作标注数据,该添加操作标注数据可用英文add表示;当对话状态中不使用或抛弃某词槽值时,将该词槽值中的每个字的对话状态操作标注数据标注为删除操作标注数据,该删除操作标注数据可用英文delete表示;对于对话状态中已经出现过的词槽,当与该词槽对应的词槽值发生变化后,将该词槽值中的每个字的对话状态操作标注数据标注为更新操作标注数据,该更新操作标注数据可用英文update表示;将对话状态中与对话状态无关的信息中的每个字的对话状态操作标注数据标注为填充操作标注数据,该填充操作标注数据可用英文padnone表示;对于对话状态中已经出现过的词槽,在与该词槽对应的词槽值未发生变化时,将该词槽值中的每个字的对话状态操作标注数据标注为结转操作标注数据,该结转操作标注数据可用英文carryover表示。
以图2所示实施例为例,根据对话语句205和上下文信息(对话语句201-204),将对话语句205之中的“明天”每个字的对话状态操作标注数据标注为添加操作标注数据(add),将对话语句205之中的其他字标注为填充操作标注数据(padnone)。
需要说明的是,对于对话语句中的用户意图亦可通过上述方法进行标注。
可选地,可预先训练对话状态跟踪模型,使得模型可以学习到结合历史上下文信息样本对当前轮次的对话语句样本中每个字进行对话状态操作的预测能力,将当前轮的对话语句和上下文信息输入至该对话状态跟踪模型,以获得对话语句之中每个字的对话状态操作标注数据。其中,该对话状态跟踪模型可以是基于ERNIE(Enhanced Representationthrough Knowledge Integration,知识增强的预训练语言模型)训练得到的。
步骤104,根据对话状态操作标注数据和历史对话状态,确定当前轮次的对话状态。
在本申请一些实施例中,可根据对话状态操作标注数据,确定对话语句中词槽值的操作标注数据。基于词槽值所在的词槽和对话语句中词槽值的操作标注数据,对历史对话状态进行更新,以获得当前轮次的对话状态。以图2所示实施例为例,根据步骤103中获取的对话状态操作标注数据和历史对话状态212,确定当前轮次的对话状态213:用户意图(intent)为“查天气”,地点词槽(slots)的词槽值为“A城市”,时间词槽(slots)的词槽值为“明天”。
根据本申请实施例的对话状态跟踪方法,通过对话语句之中的每个字的对话状态操作标注数据,***性地表示了对话状态的操作形式。基于对话状态操作标注数据和历史对话状态,确定当前轮次的对话状态,无需结合场景,即可实现对话状态的跟踪。本申请实现了与场景解耦的对话状态跟踪方法,该对话状态跟踪方法泛化性强,可通用于多种场景。
图3是根据本申请实施例提供的另一种对话状态跟踪方法的流程示意图。如图3所示,该对话状态跟踪方法可以包括如下步骤:
步骤301,获取当前轮次的对话语句。
步骤302,获取对话历史数据。该对话历史数据包括对话语句的上下文信息和历史对话状态。
步骤303,将对话语句和上下文信息输入至预设的对话状态跟踪模型。该对话状态跟踪模型已经预先学习到结合历史上下文信息样本对当前轮次的对话语句样本中每个字进行对话状态操作的预测能力。
作为一种示例,该对话状态跟踪模型可以为基于预训练模型构建的,如ERNIE(Enhanced Representation through Knowledge Integration,知识增强的预训练语言模型)。
在一种可选的实现方式中,该对话状态跟踪模型可以为对训练好的预训练模型进行知识蒸馏而得到的模型,从而满足模型在线应用的需求,即在保证对话状态跟踪模型性能的同时,降低计算量,提高对话状态跟踪模型效率。
步骤304,获取对话状态跟踪模型输出的对话语句之中每个字的对话状态操作标注数据。
作为一种示例,图4是本申请实施例提供的一种对话示意图,如图4所示,假设对话语句405为当前轮次的对话语句,在对话语句405之前历史对话状态为对话状态412:用户意图(intent)为“查天气”,地点词槽(slots)的词槽值为“A城市”。如图5所示,将对话语句405“不查A城市了,查B城市吧”与对话语句405的上下文信息(对话语句401-404)输入至预设的对话状态跟踪模型。对话状态跟踪模型输出对话语句405“不查A城市了,查B城市吧”之中每个字的对话状态操作标注数据501。其中,“A城市”为对话状态中地点词槽抛弃的词槽值,对于“A城市”三个字输出删除操作标注数据(即如图5所示的标签0),“B城市”为地点词槽发生变化后更新的词槽值,对于“B城市”三个字输出更新操作标注数据(即如图5所示的标签1)。此外,对于对话语句405中与对话状态无关的字输出填充操作标注数据(即如图5所示的标签3)。
步骤305,根据对话状态操作标注数据,确定对话语句中词槽值的操作标注数据。
作为一种示例,以图4、图5所示实施例为例,对话语句405“不查A城市了,查B城市吧”之中的词槽值包括“A城市”和“B城市”。根据对话状态操作标注数据501,确定对话语句中词槽值“A城市”的操作标注数据为删除操作标注数据(即如图5所示的标签0),“B城市”的操作标注数据为更新操作标注数据(即如图5所示的标签1)。
步骤306,基于词槽值所在的词槽和对话语句中词槽值的操作标注数据,对历史对话状态进行更新,获得当前轮次的对话状态。
以图4和图5所示实施例为例,基于词槽值“A城市”和词槽值“B城市”的操作标注数据与词槽值所在的词槽,对历史对话状态412进行更新,获得当前轮次的对话状态413:用户意图(intent)为“查天气”,“地点”词槽(slots)的词槽值由“A城市”更新为“B城市”。
在本申请实施例中,步骤301和步骤302可以分别采用本申请的各实施例中的任一种方式实现,对此本申请不作具体限定,也不再赘述。
根据本申请实施例的对话状态跟踪方法,通过对话状态跟踪模型,对对话语句之中的每个字的对话状态操作标注数据,基于词槽值所在的词槽和对话语句中词槽值的操作标注数据,对历史对话状态进行更新,确定当前轮次的对话状态。本申请无需结合场景,即可实现对话状态的跟踪,实现了与场景解耦的对话状态跟踪方法,进一步增强该对话状态跟踪方法的泛化性,使得该对话状态跟踪方法可通用于多种场景。
图6是根据本申请实施例提供的一种对话状态跟踪模型训练方法的流程示意图。需要说明的是,本申请实施例的对话状态跟踪模型训练方法可应用于本申请实施例的对话状态跟踪模型训练装置,该对话状态跟踪模型训练装置可被配置于电子设备上。
如图6所示,该对话状态跟踪模型训练方法可以包括如下步骤:
步骤601,获取多轮次的对话语句样本和每个对话语句样本中每个字的操作标签真实数据。
步骤602,从多轮次的对话语句样本中获取当前轮次的对话语句样本和当前轮次的对话语句样本的上下文信息样本。
步骤603,将当前轮次的对话语句样本和上下文信息样本输入至预训练模型,获得当前轮次的对话语句样本中每个字的对话状态操作标注数据。
在本申请一些实施例中,该预训练模型可以是ERNIE(Enhanced Representationthrough Knowledge Integration,知识增强的预训练语言模型)
步骤604,从每个对话语句样本中每个字的操作标签真实数据中确定出当前轮次的对话语句样本中每个字的操作标签真实数据。
步骤605,根据当前轮次的对话语句样本中每个字的对话状态操作标注数据和当前轮次的对话语句样本中每个字的操作标签真实数据,训练预训练模型,并获取模型参数,根据模型参数生成对话状态跟踪模型。
在本申请一些实施例中,可根据当前轮次的对话语句样本中每个字的对话状态操作标注数据和当前轮次的对话语句样本中每个字的操作标签真实数据,通过确定损失函数的方式训练预训练模型,并获取模型参数,根据模型参数生成对话状态跟踪模型。
根据本申请实施例的对话状态跟踪模型训练方法,根据当前轮次的对话语句样本中每个字的对话状态操作标注数据和当前轮次的对话语句样本中每个字的操作标签真实数据,训练预训练模型,生成对话状态跟踪模型,使得对话状态跟踪模型学习到结合历史上下文信息样本对当前轮次的对话语句样本中每个字进行对话状态操作的预测能力,提高了在对话状态跟踪任务中的性能。
需要说明的是,基于预训练模型生成的对话状态跟踪模型中参数较多,在应用中计算量较大。为了优化对话状态跟踪模型性能,可对对话状态跟踪模型进行知识蒸馏,在保证对话状态跟踪模型性能的同时,降低计算量,提高对话状态跟踪模型效率。作为一种示例,图7是根据本申请实施例提供的另一种对话状态跟踪模型训练方法的流程示意图。如图7所示,该对话状态跟踪模型训练方法可以包括如下步骤:
步骤701,获取多轮次的对话语句样本和每个对话语句样本中每个字的操作标签真实数据。
步骤702,从多轮次的对话语句样本中获取当前轮次的对话语句样本和当前轮次的对话语句样本的上下文信息样本。
步骤703,将当前轮次的对话语句样本和上下文信息样本输入至预训练模型,获得当前轮次的对话语句样本中每个字的对话状态操作标注数据。
步骤704,从每个对话语句样本中每个字的操作标签真实数据中确定出当前轮次的对话语句样本中每个字的操作标签真实数据。
步骤705,根据当前轮次的对话语句样本中每个字的对话状态操作标注数据和当前轮次的对话语句样本中每个字的操作标签真实数据,训练预训练模型,并获取模型参数,根据模型参数生成对话状态跟踪模型。
步骤706,构建双向长短期记忆网络BiLSTM模型。
步骤707,采用对话状态跟踪模型对BiLSTM模型进行知识蒸馏,得到知识蒸馏后的BiLSTM模型,将知识蒸馏后的BiLSTM模型用于对话状态跟踪任务中。
作为一种示例,如图8所示,采用对话状态跟踪模型对BiLSTM模型进行知识蒸馏,得到知识蒸馏后的BiLSTM模型。
根据本申请实施例的对话状态跟踪模型训练方法,根据当前轮次的对话语句样本中每个字的对话状态操作标注数据和当前轮次的对话语句样本中每个字的操作标签真实数据,训练预训练模型,生成对话状态跟踪模型。采用对话状态跟踪模型对BiLSTM模型进行知识蒸馏,得到知识蒸馏后的BiLSTM模型,将知识蒸馏后的BiLSTM模型用于对话状态跟踪任务中,在保证对话状态跟踪模型性能的同时,降低模型计算量,进一步提高了在对话状态跟踪任务中的效率。
图9是根据本申请实施例提供的一种对话状态跟踪装置的结构框图。如图9所示,该装置可以包括第一获取模块901、第二获取模块902、第三获取模块903和确定模块904。
具体地,第一获取模块901,用于获取当前轮次的对话语句。
第二获取模块902,用于获取对话历史数据;对话历史数据包括对话语句的上下文信息和历史对话状态。
第三获取模块903,用于根据对话语句和上下文信息,获取对话语句之中每个字的对话状态操作标注数据。
确定模块904,用于根据对话状态操作标注数据和历史对话状态,确定当前轮次的对话状态。
在本申请一些实施例中,第三获取模块903还用于:将对话语句和上下文信息输入至预设的对话状态跟踪模型;对话状态跟踪模型已经预先学习到结合历史上下文信息样本对当前轮次的对话语句样本中每个字进行对话状态操作的预测能力;获取对话状态跟踪模型输出的对话语句之中每个字的对话状态操作标注数据。
在本申请一些实施例中,对话状态跟踪模型为基于预训练模型构建的。
在本申请一些实施例中,对话状态跟踪模型为对训练好的预训练模型进行知识蒸馏而得到的模型。
在本申请一些实施例中,确定模块904还用于:根据对话状态操作标注数据,确定对话语句中词槽值的操作标注数据;基于词槽值所在的词槽和对话语句中词槽值的操作标注数据,对历史对话状态进行更新,获得当前轮次的对话状态。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
根据本申请实施例的对话状态跟踪装置,通过对话状态跟踪模型,对对话语句之中的每个字的对话状态操作标注数据,基于词槽值所在的词槽和对话语句中词槽值的操作标注数据,对历史对话状态进行更新,确定当前轮次的对话状态。本申请无需结合场景,即可实现对话状态的跟踪,实现了与场景解耦的对话状态跟踪方法,增强了对话状态跟踪装置的泛化性,使得该对话状态跟踪装置可通用于多种场景。
图10是根据本申请实施例提供的一种对话状态跟踪模型训练装置的结构框图。如图10所示,该装置可以包括:第一获取模块1001、第二获取模块1002、第三获取模块1003、确定模块1004和训练模块1005。
具体地,第一获取模块1001,用于获取多轮次的对话语句样本和每个对话语句样本中每个字的操作标签真实数据。
第二获取模块1002,用于从多轮次的对话语句样本中获取当前轮次的对话语句样本和当前轮次的对话语句样本的上下文信息样本。
第三获取模块1003,用于将当前轮次的对话语句样本和上下文信息样本输入至预训练模型,获得当前轮次的对话语句样本中每个字的对话状态操作标注数据。
确定模块1004,用于从每个对话语句样本中每个字的操作标签真实数据中确定出当前轮次的对话语句样本中每个字的操作标签真实数据。
训练模块1005,用于根据当前轮次的对话语句样本中每个字的对话状态操作标注数据和当前轮次的对话语句样本中每个字的操作标签真实数据,训练预训练模型,并获取模型参数,根据模型参数生成对话状态跟踪模型。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
根据本申请实施例的对话状态跟踪模型训练装置,根据当前轮次的对话语句样本中每个字的对话状态操作标注数据和当前轮次的对话语句样本中每个字的操作标签真实数据,训练预训练模型,生成对话状态跟踪模型,使得对话状态跟踪模型学习到预测对话状态操作的能力,提高了在对话状态跟踪任务中的性能。
图11是根据本申请实施例提供的另一种对话状态跟踪模型训练装置的结构框图。如图11所示,在上述实施例的基础上,该对话状态跟踪装置还可以包括构建模块1106和蒸馏模块1107。
具体地,构建模块1106,用于构建双向长短期记忆网络BiLSTM模型。
蒸馏模块1107,用于采用对话状态跟踪模型对BiLSTM模型进行知识蒸馏,得到知识蒸馏后的BiLSTM模型,将知识蒸馏后的BiLSTM模型用于对话状态跟踪任务中。
其中,图11中1101-1105和图10中1001-1005具有相同功能和结构。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
根据本申请实施例的对话状态跟踪模型训练装置,根据当前轮次的对话语句样本中每个字的对话状态操作标注数据和当前轮次的对话语句样本中每个字的操作标签真实数据,训练预训练模型,生成对话状态跟踪模型。采用对话状态跟踪模型对BiLSTM模型进行知识蒸馏,得到知识蒸馏后的BiLSTM模型,将知识蒸馏后的BiLSTM模型用于对话状态跟踪任务中,在保证对话状态跟踪模型性能的同时,降低模型计算量,进一步提高了在对话状态跟踪任务中的效率。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
如图12所示,图12是用以实现本申请实施例的对话状态跟踪方法或者对话状态跟踪模型训练方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图12所示,该电子设备包括:一个或多个处理器1201、存储器1202,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器***)。图12中以一个处理器1201为例。
存储器1202即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的对话状态跟踪方法或者对话状态跟踪模型训练方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的对话状态跟踪方法或者对话状态跟踪模型训练方法。
存储器1202作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的对话状态跟踪方法或者对话状态跟踪模型训练方法对应的程序指令/模块(例如,附图9所示的第一获取模块901、第二获取模块902、第三获取模块903和确定模块904,以及附图11所示的第一获取模块1101、第二获取模块1102、第三获取模块1103、确定模块1104、训练模块1105、构建模块1106和蒸馏模块1107)。处理器1201通过运行存储在存储器1202中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的对话状态跟踪方法或者对话状态跟踪模型训练方法。
存储器1202可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储对话状态跟踪方法或者对话状态跟踪模型训练方法的电子设备的使用所创建的数据等。此外,存储器1202可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器1202可选包括相对于处理器1201远程设置的存储器,这些远程存储器可以通过网络连接至用以实现对话状态跟踪方法或者对话状态跟踪模型训练方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
对话状态跟踪方法或者对话状态跟踪模型训练方法的电子设备还可以包括:输入装置1203和输出装置1204。处理器1201、存储器1202、输入装置1203和输出装置1204可以通过总线或者其他方式连接,图12中以通过总线连接为例。
输入装置1203可接收输入的数字或字符信息,以及产生与对话状态跟踪方法或者对话状态跟踪模型训练方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置1204可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,即本申请还提出了一种计算机程序,该计算机程序在被处理器执行时,实现上述实施例所描述的对话状态跟踪方法或者对话状态跟踪模型训练方法,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式***的服务器,或者是结合了区块链的服务器。应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (17)
1.一种对话状态跟踪方法,包括:
获取当前轮次的对话语句;
获取对话历史数据;所述对话历史数据包括所述对话语句的上下文信息和历史对话状态;
根据所述对话语句和所述上下文信息,获取所述对话语句之中每个字的对话状态操作标注数据;所述对话状态操作标注数据是将所述对话语句和所述上下文信息输入至对话状态跟踪模型中得到的,所述对话状态操作标注数据用于表示不同的对话状态操作,所述对话状态操作包括添加操作、删除操作、更新操作、填充操作和结转操作;其中,
当对话状态中第一次出现某词槽对应的词槽值时,将该词槽值中的每个字的对话状态操作标注为添加操作;当对话状态中不使用或抛弃某词槽值时,将该词槽值中的每个字的对话状态操作标注为删除操作;对于对话状态中已经出现过的词槽,当与该词槽对应的词槽值发生变化后,将该词槽值中的每个字的对话状态操作标注为更新操作;将对话状态中与对话状态无关的信息中的每个字的对话状态操作标注为填充操作;对于对话状态中已经出现过的词槽,在与该词槽对应的词槽值未发生变化时,将该词槽值中的每个字的对话状态操作标注为结转操作;
根据所述对话状态操作标注数据和所述历史对话状态,确定所述当前轮次的对话状态。
2.根据权利要求1所述的方法,其中,所述根据所述对话语句和所述上下文信息,获取所述对话语句之中每个字的对话状态操作标注数据,包括:
将所述对话语句和所述上下文信息输入至预设的对话状态跟踪模型;所述对话状态跟踪模型已经预先学习到结合历史上下文信息样本对当前轮次的对话语句样本中每个字进行对话状态操作的预测能力;
获取所述对话状态跟踪模型输出的所述对话语句之中每个字的对话状态操作标注数据。
3.根据权利要求2所述的方法,其中,所述对话状态跟踪模型为基于预训练模型构建的。
4.根据权利要求3所述的方法,其中,所述对话状态跟踪模型为对训练好的所述预训练模型进行知识蒸馏而得到的模型。
5.根据权利要求1所述的方法,其中,所述根据所述对话状态操作标注数据和所述历史对话状态,确定所述当前轮次的对话状态,包括:
根据所述对话状态操作标注数据,确定所述对话语句中词槽值的操作标注数据;
基于所述词槽值所在的词槽和所述对话语句中词槽值的操作标注数据,对所述历史对话状态进行更新,获得所述当前轮次的对话状态。
6.一种对话状态跟踪模型训练方法,所述对话状态跟踪模型用于对话状态跟踪任务中,所述方法包括:
获取多轮次的对话语句样本和每个所述对话语句样本中每个字的操作标签真实数据,所述操作标签真实数据用于表示所述对话语句样本中每个字的真实的对话状态操作,所述对话状态操作包括添加操作、删除操作、更新操作、填充操作和结转操作;其中,
当对话状态中第一次出现某词槽对应的词槽值时,将该词槽值中的每个字的对话状态操作标注为添加操作;当对话状态中不使用或抛弃某词槽值时,将该词槽值中的每个字的对话状态操作标注为删除操作;对于对话状态中已经出现过的词槽,当与该词槽对应的词槽值发生变化后,将该词槽值中的每个字的对话状态操作标注为更新操作;将对话状态中与对话状态无关的信息中的每个字的对话状态操作标注为填充操作;对于对话状态中已经出现过的词槽,在与该词槽对应的词槽值未发生变化时,将该词槽值中的每个字的对话状态操作标注为结转操作;
从所述多轮次的对话语句样本中获取当前轮次的对话语句样本和所述当前轮次的对话语句样本的上下文信息样本;
将所述当前轮次的对话语句样本和所述上下文信息样本输入至预训练模型,获得所述当前轮次的对话语句样本中每个字的对话状态操作标注数据;所述对话状态操作标注数据用于表示经过所述预训练模型预测得到的所述当前轮次的对话语句样本中每个字的对话状态操作;
从所述每个所述对话语句样本中每个字的操作标签真实数据中确定出所述当前轮次的对话语句样本中每个字的操作标签真实数据;
根据所述当前轮次的对话语句样本中每个字的对话状态操作标注数据和所述当前轮次的对话语句样本中每个字的操作标签真实数据,训练所述预训练模型,并获取模型参数,根据所述模型参数生成所述对话状态跟踪模型。
7.根据权利要求6所述的方法,还包括:
构建双向长短期记忆网络BiLSTM模型;
采用所述对话状态跟踪模型对所述BiLSTM模型进行知识蒸馏,得到知识蒸馏后的BiLSTM模型,将所述知识蒸馏后的BiLSTM模型用于对话状态跟踪任务中。
8.一种对话状态跟踪装置,包括:
第一获取模块,用于获取当前轮次的对话语句;
第二获取模块,用于获取对话历史数据;所述对话历史数据包括所述对话语句的上下文信息和历史对话状态;
第三获取模块,用于根据所述对话语句和所述上下文信息,获取所述对话语句之中每个字的对话状态操作标注数据;所述对话状态操作标注数据是将所述对话语句和所述上下文信息输入至对话状态跟踪模型中得到的,所述对话状态操作标注数据用于表示不同的对话状态操作,所述对话状态操作包括添加操作、删除操作、更新操作、填充操作和结转操作;其中,
当对话状态中第一次出现某词槽对应的词槽值时,将该词槽值中的每个字的对话状态操作标注为添加操作;当对话状态中不使用或抛弃某词槽值时,将该词槽值中的每个字的对话状态操作标注为删除操作;对于对话状态中已经出现过的词槽,当与该词槽对应的词槽值发生变化后,将该词槽值中的每个字的对话状态操作标注为更新操作;将对话状态中与对话状态无关的信息中的每个字的对话状态操作标注为填充操作;对于对话状态中已经出现过的词槽,在与该词槽对应的词槽值未发生变化时,将该词槽值中的每个字的对话状态操作标注为结转操作;
确定模块,用于根据所述对话状态操作标注数据和所述历史对话状态,确定所述当前轮次的对话状态。
9.根据权利要求8所述的装置,其中,所述第三获取模块还用于:
将所述对话语句和所述上下文信息输入至预设的对话状态跟踪模型;所述对话状态跟踪模型已经预先学习到结合历史上下文信息样本对当前轮次的对话语句样本中每个字进行对话状态操作的预测能力;
获取所述对话状态跟踪模型输出的所述对话语句之中每个字的对话状态操作标注数据。
10.根据权利要求9所述的装置,其中,所述对话状态跟踪模型为基于预训练模型构建的。
11.根据权利要求10所述的装置,其中,所述对话状态跟踪模型为对训练好的所述预训练模型进行知识蒸馏而得到的模型。
12.根据权利要求8所述的装置,其中,所述确定模块还用于:
根据所述对话状态操作标注数据,确定所述对话语句中词槽值的操作标注数据;
基于所述词槽值所在的词槽和所述对话语句中词槽值的操作标注数据,对所述历史对话状态进行更新,获得所述当前轮次的对话状态。
13.一种对话状态跟踪模型训练装置,包括:
第一获取模块,用于获取多轮次的对话语句样本和每个所述对话语句样本中每个字的操作标签真实数据;所述操作标签真实数据用于表示所述对话语句样本中每个字的真实的对话状态操作,所述对话状态操作包括添加操作、删除操作、更新操作、填充操作和结转操作;其中,
当对话状态中第一次出现某词槽对应的词槽值时,将该词槽值中的每个字的对话状态操作标注为添加操作;当对话状态中不使用或抛弃某词槽值时,将该词槽值中的每个字的对话状态操作标注为删除操作;对于对话状态中已经出现过的词槽,当与该词槽对应的词槽值发生变化后,将该词槽值中的每个字的对话状态操作标注为更新操作;将对话状态中与对话状态无关的信息中的每个字的对话状态操作标注为填充操作;对于对话状态中已经出现过的词槽,在与该词槽对应的词槽值未发生变化时,将该词槽值中的每个字的对话状态操作标注为结转操作;
第二获取模块,用于从所述多轮次的对话语句样本中获取当前轮次的对话语句样本和所述当前轮次的对话语句样本的上下文信息样本;
第三获取模块,用于将所述当前轮次的对话语句样本和所述上下文信息样本输入至预训练模型,获得所述当前轮次的对话语句样本中每个字的对话状态操作标注数据;所述对话状态操作标注数据用于表示经过所述预训练模型预测得到的所述当前轮次的对话语句样本中每个字的对话状态操作;
确定模块,用于从所述每个所述对话语句样本中每个字的操作标签真实数据中确定出所述当前轮次的对话语句样本中每个字的操作标签真实数据;
训练模块,用于根据所述当前轮次的对话语句样本中每个字的对话状态操作标注数据和所述当前轮次的对话语句样本中每个字的操作标签真实数据,训练所述预训练模型,并获取模型参数,根据所述模型参数生成所述对话状态跟踪模型。
14.根据权利要求13所述的装置,还包括:
构建模块,用于构建双向长短期记忆网络BiLSTM模型;
蒸馏模块,用于采用所述对话状态跟踪模型对所述BiLSTM模型进行知识蒸馏,得到知识蒸馏后的BiLSTM模型,将所述知识蒸馏后的BiLSTM模型用于对话状态跟踪任务中。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至5中任一项所述的方法,或者执行权利要求6-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1至5中任一项所述的方法,或者执行权利要求6-7中任一项所述的方法。
17.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现权利要求1至5中任一项所述方法的步骤,或者实现权利要求6-7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111647412.0A CN114490968B (zh) | 2021-12-29 | 2021-12-29 | 对话状态跟踪方法、模型训练方法、装置以及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111647412.0A CN114490968B (zh) | 2021-12-29 | 2021-12-29 | 对话状态跟踪方法、模型训练方法、装置以及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114490968A CN114490968A (zh) | 2022-05-13 |
CN114490968B true CN114490968B (zh) | 2022-11-25 |
Family
ID=81497402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111647412.0A Active CN114490968B (zh) | 2021-12-29 | 2021-12-29 | 对话状态跟踪方法、模型训练方法、装置以及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114490968B (zh) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU777441B2 (en) * | 1999-06-11 | 2004-10-14 | Telstra Corporation Limited | A method of developing an interactive system |
CN110555095B (zh) * | 2018-05-31 | 2024-04-16 | 北京京东尚科信息技术有限公司 | 人机对话方法和装置 |
EP3855338A4 (en) * | 2018-10-10 | 2021-10-06 | Huawei Technologies Co., Ltd. | HUMAN-COMPUTER INTERACTION PROCESS AND ELECTRONIC DEVICE |
CN110609618B (zh) * | 2019-08-26 | 2023-06-20 | 杭州城市大数据运营有限公司 | 一种人机对话方法、装置、计算机设备及存储介质 |
CN111353035B (zh) * | 2020-03-11 | 2021-02-19 | 镁佳(北京)科技有限公司 | 人机对话方法、装置、可读存储介质及电子设备 |
CN112905749B (zh) * | 2021-03-12 | 2022-07-29 | 电子科技大学 | 一种基于意图-槽值规则树的任务型多轮对话方法 |
CN113297364B (zh) * | 2021-06-07 | 2023-06-09 | 吉林大学 | 一种面向对话***中的自然语言理解方法及装置 |
CN113282736B (zh) * | 2021-07-08 | 2022-07-22 | 北京百度网讯科技有限公司 | 对话理解及模型训练方法、装置、设备和存储介质 |
-
2021
- 2021-12-29 CN CN202111647412.0A patent/CN114490968B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN114490968A (zh) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111507104B (zh) | 建立标签标注模型的方法、装置、电子设备和可读存储介质 | |
CN111061868B (zh) | 读法预测模型获取及读法预测方法、装置及存储介质 | |
CN111241819B (zh) | 词向量生成方法、装置及电子设备 | |
CN111325020A (zh) | 一种事件论元抽取方法、装置以及电子设备 | |
CN111783451A (zh) | 用于增强文本样本的方法和装置 | |
CN112036509A (zh) | 用于训练图像识别模型的方法和装置 | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
KR102630243B1 (ko) | 구두점 예측 방법 및 장치 | |
CN111539227A (zh) | 训练语义表示模型的方法、装置、设备和计算机存储介质 | |
CN111339759A (zh) | 领域要素识别模型训练方法、装置及电子设备 | |
EP3896595A1 (en) | Text key information extracting method, apparatus, electronic device, storage medium, and computer program product | |
CN111241838B (zh) | 文本实体的语义关系处理方法、装置及设备 | |
CN111078878A (zh) | 文本处理方法、装置、设备及计算机可读存储介质 | |
CN112541362B (zh) | 一种泛化处理的方法、装置、设备和计算机存储介质 | |
CN111709252A (zh) | 基于预训练的语义模型的模型改进方法及装置 | |
CN111177339A (zh) | 对话生成方法、装置、电子设备及存储介质 | |
CN111539224A (zh) | 语义理解模型的剪枝方法、装置、电子设备和存储介质 | |
CN112560499A (zh) | 语义表示模型的预训练方法、装置、电子设备及存储介质 | |
CN112270169B (zh) | 对白角色预测方法、装置、电子设备及存储介质 | |
CN110909136A (zh) | 满意度预估模型的训练方法、装置、电子设备及存储介质 | |
CN112232089B (zh) | 语义表示模型的预训练方法、设备和存储介质 | |
CN114399772A (zh) | 样本生成、模型训练和轨迹识别方法、装置、设备和介质 | |
CN111522928A (zh) | 一种知识抽取方法、装置、设备和介质 | |
CN115688802B (zh) | 文本风险检测方法及其装置 | |
CN113591908B (zh) | 事件指称匹配方法、模型训练方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |