CN112650768A - 对话信息的生成方法、装置及电子设备 - Google Patents

对话信息的生成方法、装置及电子设备 Download PDF

Info

Publication number
CN112650768A
CN112650768A CN202011533907.6A CN202011533907A CN112650768A CN 112650768 A CN112650768 A CN 112650768A CN 202011533907 A CN202011533907 A CN 202011533907A CN 112650768 A CN112650768 A CN 112650768A
Authority
CN
China
Prior art keywords
training
question
sample
dialogue
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011533907.6A
Other languages
English (en)
Inventor
张林箭
张聪
王丽
范长杰
胡志鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Netease Hangzhou Network Co Ltd
Original Assignee
Netease Hangzhou Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netease Hangzhou Network Co Ltd filed Critical Netease Hangzhou Network Co Ltd
Priority to CN202011533907.6A priority Critical patent/CN112650768A/zh
Publication of CN112650768A publication Critical patent/CN112650768A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/26Visual data mining; Browsing structured data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供了对话信息的生成方法、装置及电子设备,其中,上述方法包括:获取待回复的问题和问题对应的目标三元组集合;其中,目标三元组集合中的三元组包含有问题对应的头实体;将目标三元组集合和问题输入预先训练好的对话生成模型,得到问题对应的答复信息;基于答复信息回复问题。本申请通过将待回复的问题和该问题对应的目标三元组集合输入对话生成模型,以生成该问题对应的答复信息,避免了现有检索式对话模型的数据库中问题种类数量覆盖率有限的问题,缓解了检索式对话模型应用场景受限的问题,提升了对话生成模型的应用场景和实用价值。

Description

对话信息的生成方法、装置及电子设备
技术领域
本发明涉及计算机技术领域,尤其是涉及对话信息的生成方法、装置及电子设备。
背景技术
当前的对话模型主要是采用基于检索的模型,使用该模型的好处是回答内容的可控。对于用户提出的问题,事先已经存储类似问题的答案,因此只需要在数据库中搜索出和当前问题比较相似的同类问题,之后可以采用排序的方法来从这些同类问题中选出一个最相似的问题,用该问题的答案来回答当前问题即可。智能客服问答是常见的对话***,比如,淘宝商城的智能机器人,在该***中,商家会事先录入一些问答对,如<问题1:“快递一般几天发货啊”,答案1:“6点前付款当天发货,6点后付款第二天发货”>,<问题2:“退货要怎么操作啊”,答案2:“退货请在淘宝上申请退款,退款原因写xxx,并将宝贝寄送到xxx地址”>等,从而数据库中就保存了很多这样事先准备的问答对,此时,如果用户输入问题:“发货时间”,则对话***就会在后台自动搜索相似的问题,之后再根据相似度排序,最后排在第1位的是问题1,那么直接将问题1对应的答案返回用来回答用户的问题即可。
然而,若数据库中没有和当前问题相似的问题,则无法回答对应的问题,因此,检索式对话模型的上限就在于数据库中的问题种类数量覆盖率,从而限制了检索式对话模型的应用场景,无法满足实际应用需求。
发明内容
有鉴于此,本发明的目的在于提供对话信息的生成方法、装置及电子设备,以缓解上述问题。
第一方面,本发明实施例提供了一种对话信息的生成方法,该方法包括:获取待回复的问题和问题对应的目标三元组集合;其中,目标三元组集合中的三元组包含有问题对应的头实体;将目标三元组集合和问题输入预先训练好的对话生成模型,得到问题对应的答复信息;基于答复信息回复问题。
进一步的,上述获取待回复的问题和问题对应的目标三元组集合的步骤,还包括:获取待回复的问题;确定问题包含的头实体集合;根据头实体集合,从预存的常识图谱中确定目标三元组集合;该目标三元组集合中的三元组包含有头实体集合中的头实体。
进一步的,上述根据头实体集合,从预存的常识图谱中确定目标三元组集合的步骤,包括:在常识图谱中检索包含有头实体集合的三元组;从检索得到的三元组中选择指定个数的三元组组成目标三元组集合。
进一步的,上述方法还包括:响应针对于原始常识图谱的过滤操作,基于过滤操作删减原始常识图谱中的关联关系,得到上述常识图谱。
进一步的,上述响应针对于原始常识图谱的过滤操作,基于过滤操作删减原始常识图谱中的关联关系的步骤,包括:获取原始常识图谱中的关联关系集;响应针对于关联关系集的过滤操作,从关联关系集中删除过滤操作对应的关联关系。
进一步的,上述对话生成模型训练过程包括:从训练问题样本集中选择当前问题样本;其中,训练问题样本集的问题样本标注有标准答复信息;获取当前问题样本包含的头实体集合;在常识图谱中检索包含有头实体集合中的头实体的训练三元组,得到训练三元组集合;将训练三元组集合和当前问题样本输入对话生成模型,得到当前问题样本对应的预测答复信息;基于预测答复信息和标准答复信息确定对话生成模型的当前损失值,基于当前损失值继续从训练问题样本集中选择问题样本进行训练,直至训练完成。
进一步的,上述对话生成模型为transformer模型,该transformer模型包括编码器和解码器;上述将训练三元组集合和当前问题样本输入对话生成模型,得到当前问题样本对应的预测答复信息的步骤,包括:将训练三元组集合和当前问题样本输入至编码器,以使编码器分别对训练三元组集合和当前问题样本进行编码处理,得到训练三元组集合对应的特征向量集和当前问题样本对应的特征向量;其中,特征向量集包括训练三元组集合中每个训练三元组对应的特征向量;基于解码器分别对训练三元组集合对应的特征向量集和当前问题样本对应的特征向量进行解码处理,得到当前问题样本对应的预测答复信息。
进一步的,当前问题样本还配置有第一开始标志和第一结束标志;上述编码器对当前问题样本进行编码处理的步骤,包括:当监测到第一开始标志时,编码器开始对当前问题样本进行编码处理,直至监测到第一结束标志时编码结束。
进一步的,训练三元组集合配置有第二开始标志和第二结束标志;其中,第二开始标志和第二结束标志分别设置在训练三元组集合中多个训练三元组顺序连接的两端,上述编码器对训练三元组集合进行编码处理的步骤,包括:当监测到第二开始标志时,编码器对第二开始标志处的训练三元组进行编码处理,得到第二开始标志处的训练三元组对应的特征向量;以及,按照连接顺序,依次对训练三元组进行编码,直至得到第二结束标志处的训练三元组对应的特征向量,结束编码。
进一步的,在对话生成模型训练之前,该方法还包括:基于预先训练好的语言模型对对话生成模型进行初始化,并根据语言模型的参数确定编码器和解码器的初始参数。
进一步的,上述获取当前问题样本包含的头实体集合的步骤,包括:通过AC自动机获取当前问题样本包含的头实体集合;其中,头实体集合包括多个头实体。
第二方面,本发明实施例还提供一种对话信息的生成装置,该装置包括:获取模块,用于获取待回复的问题和问题对应的目标三元组集合;其中,目标三元组集合中的三元组包含有问题对应的头实体;生成模块,用于将目标三元组集合和问题输入预先训练好的对话生成模型,得到问题对应的答复信息;回复模块,用于基于答复信息回复问题。
第三方面,本发明实施例还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现第一方面的对话信息的生成方法的步骤。
第四方面,本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器运行时执行第一方面的对话信息的生成方法的步骤。
本发明实施例带来了以下有益效果:
本发明实施例提供了对话信息的生成方法、装置及电子设备,通过将待回复的问题和该问题对应的目标三元组集合输入预先训练好的对话生成模型,以生成该问题对应的答复信息,从而避免了现有检索式对话模型的数据库中问题种类数量覆盖率有限的问题,缓解了检索式对话模型应用场景受限的问题,提升了对话生成模型的应用场景和实用价值。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种对话信息的生成方法的流程图;
图2为本发明实施例提供的一种图形用户界面示意图;
图3为本发明实施例提供的另一种图形用户界面示意图;
图4为本发明实施例提供的一种对话模型的示意图;
图5为本发明实施例提供的一种对话生成模型训练过程的流程图;
图6为本发明实施例提供的一种对话生成模型示意图;
图7为本发明实施例提供的一种对话信息的生成装置的示意图;
图8为本发明实施例提供的一种电子设备的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
随着人机交互技术的发展,对话模型应用的场景越来越多,比如,游戏场景中的人机对话,或者某些电商领域中的自助回复等,为了提高对话模型的效率,现有的对话模型大都是检索式对话模型。而针对现有的由于数据库中的问题种类数量覆盖率导致检索式对话模型的应用场景受限的问题,本发明实施例提供了对话信息的生成方法、装置及电子设备,通过将待回复的问题和该问题对应的目标三元组集合输入预先训练好的对话生成模型,以生成该问题对应的答复信息,避免了现有检索式对话模型的数据库中问题种类数量覆盖率有限的问题,缓解了检索式对话模型应用场景受限的问题,提升了对话生成模型的应用场景和实用价值。
为便于对本实施例进行理解,下面首先对本发明实施例提供的一种对话信息的生成方法进行详细介绍。
本发明实施例提供了一种对话信息的生成方法,执行主体为提供对话服务的电子设备,比如对话服务器,其中,服务器或者与其关联的可通信设备中预存有对话生成模型和常识图谱,常识图谱包括多个三元组,多个三元组存储在知识库(Knowledge base)中,每个三元组包括具有关联关系的头实体和尾实体,具体形式为<头实体,关系,尾实体>,每一个三元组由一个边和两个点组成,因此整个知识库就组成了一个大的常识图谱。需要说明的是,常识图谱和知识图谱中三元组的形式相同,不同的是,常识图谱中包含的为常识知识,如饿了需要吃东西,关联关系为隐含的,而知识图谱如CN-Dbpedia中关联关系一般是标准的关系,如<张三,女儿,张四>,在实际应用中,对于正常的对话聊天中,一般都是闲聊,而不会非常具体的去问一些专业度很高的知识,另外聊天的时候用户往往期望能够得到一个连贯的句子而不是一个尾实体,因此,现有的知识图谱并不能满足实际对话需求。
现有的常识图谱大都是采用ConceptNet常识库中的三元组,其中,ConceptNet是一个多语言(包括英文和中文等)的包含世界的一般常识的常识库,如<爬山,有先序子事件,穿登山鞋>,现有的中文常识图谱问答模型采用的常识库就是ConceptNet的中文版本。需要说明的是,本发明实施例中常识图谱包括但不仅限于ConceptNet和知识图谱,本发明实施例对此不作限制说明。
如图1所示,上述方法包括以下步骤:
步骤S102,获取待回复的问题和问题对应的目标三元组集合;其中,目标三元组集合中的三元组包含有问题对应的头实体。
具体地,在其中一种可能的实施例中,通过服务器提供的图形用户界面接收待回复的问题和该问题对应的目标三元组集合,如图2所示,用户通过图形用户界面输入问题query:我头痛怎么办啊,并输入该问题对应的目标三元组集合,其中,目标三元组集合中的三元组为<头痛,有子事件,看医生>,且,该三元组中包含有问题对应的头实体:头痛,以便对话生成模型根据问题和目标三元组集合中的三元组,生成问题对应的答复信息。
在另一种可能的实施例中,通过服务器的图形用户界面获取待回复的问题;并从问题中获取该问题包含的头实体集合;根据头实体集合,从常识图谱中确定目标三元组集合;目标三元组集合中的三元组包含有头实体集合中的头实体。具体地,如图3所示,用户通过图形用户界面输入问题,如:好喜欢XXX啊,此时,通过AC自动机(Aho-Corasickautomaton)获取该问题包含的头实体集合,然后,根据头实体集合在经过滤操作后的常识图谱中检索包含有头实体集合的三元组,并从检索得到的三元组中选择指定个数的三元组组成目标三元组集合,如这里目标三元组集合为{<喜欢,引起,害羞>,<害羞,有先序子事件,脸红>}。需要说明的是,这里指定个数不超过10个,即目标三元组集合中三元组的数量不超过10个,从而保证了所有的问题对应的目标三元组集合中三元组的数量比较一致。
步骤S104,将目标三元组集合和问题输入预先训练好的对话生成模型,得到问题对应的答复信息。
具体地,上述预先训练好的对话生成模型为生成式对话模型,当将目标三元组集合和问题输入至对话生成模型时,如图2或图3所示,响应于用户针对于generate按钮的点击操作,对话生成模型根据目标三元组集合和问题生成该问题对应的答复信息,从而避免了现有检索式对话模型的数据库中问题种类数量覆盖率有限的问题,缓解了检索式对话模型应用场景受限的问题,在实际应用中,只要接收到目标三元组集合和问题,即可生成该问题的答复信息,从而提升了对话生成模型的应用场景和实用价值。
步骤S106,基于答复信息回复问题。
本发明实施例提供的对话信息的生成方法,通过将待回复的问题和该问题对应的目标三元组集合输入预先训练好的对话生成模型,以生成该问题对应的答复信息,从而避免了现有检索式对话模型的数据库中问题种类数量覆盖率有限的问题,缓解了检索式对话模型应用场景受限的问题,提升了对话生成模型的应用场景和实用价值。
可选的,为了得到经过滤操作后的常识图谱,上述方法还包括:响应针对于原始常识图谱的过滤操作,基于过滤操作删减原始常识图谱中的关联关系,得到过滤后的常识图谱。具体地,在服务器的图形用户界面上提供原始常识图谱中的关联关系集;响应针对于关联关系集的过滤操作,从关联关系集中删除过滤操作对应的关联关系。
为了便于理解,这里以ConceptNet作为中文的原始常识图谱进行说明。其中,原始常识图谱中关联关系和实体比较杂乱冗余,这里以ConceptNet作为中文的原始常识图谱包含有26种关系为例说明,通过实验发现错误的关联关系会对对话模型(即对话生成模型)的效果造成干扰,导致机器学***,语源上源于,北京>,因此,需要对原始常识图谱中的关联关系集进行过滤操作。
这里根据关联关系对应的尾实体是否能够帮助回答问题或者关联关系下的三元组是不是存在错误等,人工筛选出有用的11种关联关系,删除过滤操作对应的15种会对对话信息造成干扰的关联关系,如与用户的问题不相关的关联关系,或者错误的关联关系等。具体的,删除了如下关联关系:RelatedTo相关,Synonym同义,HasContext有上下文,NotDesires不向往,MadeOf制作,HasA有,PartOf部分,SymbolOf象征,DerivedFrom源于,EtymologicallyDerivedFrom语源上源于,EtymologicallyRelatedTo语源上相关,FormOf形成,Antonym反义,SimilarTo相似,DistinctFrom不同。保留了关系:Causes引起,MotivatedByGoal是因为,HasSubevent有子事件,CapableOf能,Desires向往,AtLocation位于,CausesDesire引起向往,IsA是,UsedFor用来,HasFirstSubevent有先序子事件,HasProperty属性。同时,删除掉原始常识图谱中单个字的实体,因为中文里一个字往往不能代表有效信息,如<白,同义,空>,从而得到过滤操作后的常识图谱。需要说明的是,上述原始常识图谱中关联关系集的过滤操作可以根据实际应用场景进行设置,本发明实施例对此不作限制说明。
此外,对于一个问题,如图4所示,如“看到这一幕心里被打动了我也很喜欢狗”,现有的技术首先会进行分词,变为“看到这一幕心里被打动了我也很喜欢狗”,之后从常识库中提取该问题涉及到的常识知识(即常识三元组)“<被打,引起,乱叫>…<动,同义,碰到>…<喜欢,相关,快乐>…<狗,能,汪汪>…”,分别编码得到常识知识和问题的语义信息;然后,通过恰当的识别器进行问题计算,得到关于常识的一个先验知识概率,该概率表示根据问题选择每一个三元组的概率;原有的回答“哈哈其实我最想养巴哥这够傻傻的丑丑的好可爱”也进行分词后变为“哈哈其实我最想养巴哥这够傻傻的丑丑的好可爱”,之后恰当的识别器进行计算回答关于常识的一个后验知识概率,该概率表示根据回答选择每个三元组的概率,之后让先验概率接近于后验概率;最后解码的时候根据常识,问题来生成对应的回答。对话模型训练结束后,直接根据问题和常识进行预测,比如这里的预测结果是“是的我耳朵也超吓人,看了好几遍倒是”,因此,导致模型预测的结果就不理想。
基于此,为了提高对话生成模型的预测结果(即生成答复信息),本发明实施例还提供了一种对话生成模型训练方法,如图5所示,上述对话生成模型训练过程包括如下步骤:
步骤S502,从训练问题样本集中选择当前问题样本;其中,训练问题样本集的问题样本标注有标准答复信息;
步骤S504,获取当前问题样本包含的头实体集合;
具体地,通过AC自动机获取当前问题样本包含的头实体集合;其中,头实体集合包括多个头实体。其中,AC自动机是一种字符串匹配的算法,具体做法是先将所有的头实体逐个***到树中来建立一颗树,之后对于当前问题,利用该树来查询当前问题中包含的头实体集合。
步骤S506,在常识图谱中检索包含有头实体集合中的头实体的训练三元组,得到训练三元组集合;
由于事先将常识图谱处理为三元组的形式,即<头实体,关联关系,尾实体>,并建立一个字典,字典的键就是每个头实体,键对应的值就是该头实体对应的所有的三元组列表,比如:对于三元组<工作,是因为,买房子>、<工作,属性,辛苦>和<有钱,引起,乱买东西>,则字典就是{工作:<<工作,是因为,买房子>,<工作,属性,辛苦>>,有钱:<<有钱,引起,乱买东西>>,…}。因此,在常识图谱中检索包含有上述头实体集合中的头实体的训练三元组,以得到训练三元组集合。
由于一个头实体往往对应着多个训练三元组,有些问题匹配上的三元组太多,有些问题匹配上的三元组又太少,这个时候很难根据问题描述来给候选三元组分配合适的概率,且,选取太多的训练三元组会造成对话生成模型选择难度的加大,通过统计发现80%的头实体对应的三元组数量在10个以内,因此,这里训练三元组集合中训练三元组的数量不超过10个,这里将当前问题样本对应的训练三元组集合中训练三元组分为两类,一类是尾实体在标准答复信息中,另一类则尾实体不在标准答复信息中,具体选择当前问题样本对应的训练三元组集合的过程如下:
(1)由于训练问题样本集的问题样本标注有标准答复信息,因此,从训练三元组中选择尾实体能够匹配标准答复信息的三元组,数量不超过10个,需要说明的是,在实际引用中,尾实体可以匹配标准答复信息的三元组数量较小,0~2个居多;
(2)对于第一步中选择的训练三元组数量不足10个的,此时,从尾实体匹配不上标准答复信息的三元组中顺序补上,直至训练三元组集合中训练三元组的数量为10个;
(3)将训练三元组集合中选择的10个训练三元组的顺序进行打乱,从而避免了直接将头实体和尾实体都能匹配上的训练三元组放前面,导致对话生成模型比较容易学习到这个特征,进而导致生成答复信息的时候也会只选前面的三元组。
因此,上述训练三元组集合中,通过确定数量不超过10个训练三元组,保证了所有的问题对应的三元组数量比较一致,缓解了不同问题相关的三元组的数量差异较大的问题,进而避免了对话生成模型学习的差异化过大导致学习困难的问题。
步骤S508,将训练三元组集合和当前问题样本输入对话生成模型,得到当前问题样本对应的预测答复信息;
其中,上述对话生成模型为transformer模型,该transformer模型包括编码器Encdoer和解码器Decoder。具体地,将训练三元组集合和当前问题样本输入至编码器,以使编码器分别对训练三元组集合和当前问题样本进行编码处理,得到训练三元组集合对应的特征向量集和当前问题样本对应的特征向量;其中,特征向量集包括训练三元组集合中每个训练三元组对应的特征向量;然后,基于解码器分别对训练三元组集合对应的特征向量集和当前问题样本对应的特征向量进行解码处理,从而得到当前问题样本对应的预测答复信息。
在编码过程中,当前问题样本还配置有第一开始标志和第一结束标志;当编码器监测到第一开始标志时,编码器开始对当前问题样本进行编码处理,直至监测到第一结束标志时编码结束。为了便于理解,这里举例说明,对于当前问题样本,如:看到这一幕心里被打动了我也很喜欢狗,在当前问题样本的首尾位置配置有第一开始标志和第一结束标志,这里第一开始标志和第一结束标志包括但不仅限于“</s>”,此时,当编码器监测到第一开始标志时,按字对当前问题样本进行编码处理。
这里以当前问题样本(query)为例说明,如图6左半部分所示,在编码器中,会有N层编码操作,每层编码结束会得到当前问题样本的新的向量表示。对于每一层的编码,首先会在Masked多头注意力层进行一个Masked Multi-headAttention操作,这里的意思是对于每个字,只能去关注它以及它前面的字的信息;之后的加号就是进行残差连接,即将输入的当前问题样本和当前问题样本经过Masked Multi-headAttention处理后的向量进行相加连接;之后进行层规范化操作,这里就是对于每个字的向量进行一个归一化的操作,具体就是减去均值并除以标准差,例如一个字的表示是一个N维向量,那么均值就是N个值的平均值,方差就是N个值的方差;之后经过一个前馈神经网络层,这里就是重新表示每个字的向量,之后再次残差连接和归一化操作,每个字就得到了关注该字以及上文的信息后的新的向量表示,即当前问题样本对应的特征向量。因此,对于训练三元组集合和当前问题样本,分别经过编码器进行编码处理,得到训练三元组集合对应的特征向量集和当前问题样本对应的特征向量。
此外,训练三元组集合配置有第二开始标志和第二结束标志;其中,第二开始标志和第二结束标志分别设置在训练三元组集合中多个训练三元组顺序连接的两端。例如,对于上述当前问题样本对应的训练三元组集合中的10个以内的训练三元组,如{<被打,引起,乱叫>,<被打,引起向往,大哭>…<喜欢,引起,好奇>,<喜欢,有先序子事件,告白>},将该训练三元组的顺序打乱,并按照打乱后的顺序连接在一起,得到训练三元组序列,并在该训练三元组序列的两端加上第二开始标志和第二结束标志,即得到</s>{<被打,引起,乱叫>,<被打,引起向往,大哭>…<喜欢,引起,好奇>,<喜欢,有先序子事件,告白>}</s>。需要说明的是,这里第二开始标志和第二结束标志可以和第一开始标志和第一结束标志相同,也可以不同,本发明实施例对此不作限制说明。
在训练三元组集合编码过程中,当监测到第二开始标志时,编码器对第二开始标志处的训练三元组进行编码处理,得到第二开始标志处的训练三元组对应的特征向量;以及,按照连接顺序,依次对训练三元组进行编码,直至得到第二结束标志处的训练三元组对应的特征向量,结束编码。具体的编码过程可以参考上述当前问题样本的编码过程,本发明实施例在此不再详细赘述。
对于解码器的解码过程,如图6右半部分所示,当前问题样本的标准答复信息会首先在Masked多头注意力层进行一个Masked Multi-headAttention操作,这是因为产生当前时间步的字的时候是不知道下一个要生成的字。另外对于编码后的训练三元组集合对应的特征向量集和当前问题样本对应的特征向量,这里以当前问题样本对应的特征向量为例进行说明。具体地,当前问题样本的标准答复信息的当前字以及前面已经生成的字用Multi-headAttention操作来关注当前问题样本,对当前问题样本不同的字赋予不同的权重进行加权求和操作;之后这些操作的结果相加,得到当前问题样本的标准答复信息的新表示,新表示和原始的标准答复信息进行残差连接,层规范化(即归一化)等操作,最后经过一个线性变换层来将向量维数变为词汇表的大小,之后的Softmax就是进行归一化操作,第i个值代表当前要产生的字是词汇表中第i个字的概率是多少,训练的时候知道当前问题样本的标准答复信息,因此解码器就是通过损失函数让当前要产生的字的概率尽可能大。预测的时候解码器直接取概率最大的下标对应的字作为当前对话生成模型预测出的最可能的字,即最后生成的答复信息中的字。需要说明的是,在解码器解码过程中,还会对当前问题样本的标准答复信息进行向右移动即整体右移一位(Shifted Right)操作,这里向右移动操作实质上是给当前问题样本的标准答复信息添加了第三开始标志和第三结束标志,从而方便预测第一个生成的字,进而提高了训练好的对话生成模型在实际应用中生成答复信息的精度。
步骤S510,基于预测答复信息和标准答复信息确定对话生成模型的当前损失值,基于当前损失值继续从训练问题样本集中选择问题样本进行训练,直至训练完成。
因此,上述对话生成模型为生成式对话模型,采用seq2seq(Sequence toSequence,序列到序列)框架。对于用户提出的问题,该对话生成模型首先用一个编码器提取问题的语义信息,之后再用一个解码器来逐个字的生成对应的回答信息,且,生成每个字的时候都会去理解一遍问题的语义信息和已经生成的字,从而更好的决定下一个要生成的字。此外,将常识图谱引入到上述对话生成模型,这与KBQA(Question Answering overKnowledge Base,基于知识库的问答)比较相似,均是首先从问题中提取出该问题的头实体,之后在常识图谱中查找该头实体对应的三元组,当常识图谱中包括知识三元组时,比如从问题“你知道张三的女儿是谁吗”中提取出头实体“张三”,关联关系“女儿”,之后从常识图谱中搜索得到知识三元组,因此得到三元组<张三,女儿,张四>。
此外,在对对话生成模型进行训练之前,该方法还包括:基于预先训练好的语言模型对对话生成模型进行初始化,并根据语言模型的参数确定编码器和解码器的初始参数。具体地,在解码器端预测当前字的时候,采用如下交叉熵损失:
Figure BDA0002851233960000151
其中,loss表示交叉熵损失,yi表示第i个问题样本对应的类别,pi表示第i个问题样本预测为这个类别的概率。
在翻译机器模型的初始化过程中,采用预先训练的语言模型GPT-2的参数来初始化编码器和解码器端模型的参数,由于对话生成模型中编码器和解码器与CPT-2的模型结构一致,参数可以复用。GPT-2预训练的时候是用语言模型损失函数,为了保持训练目标的一致,在编码部分也预测问题样本的下一个字,和问题样本对应的训练三元组的下一个字,即上述编码器也采用Masked Multi-headAttention操作的原因。
综上,本申请中服务器提供的对话生成模型和经过滤操作后的常识图谱,具有以下优点:
(1)通过对原始常识图谱的过滤操作,删除了错误的关系和有可能造成干扰的关系,一定程度上缓解了错误的关系给对话生成模型带来的误导效果。以及,删除了常识图谱中单个字的实体,缓解了单个字太多,又没有具体意义从而造成匹配很多无效三元组的问题。
(2)将待回复的问题对应的目标三元组集合中三元组的数量设置为不超过10个,保证了所有的问题对应的三元组数量比较一致,避免了对话生成模型学习的差异化过大而导致学习困难的问题;
(3)编码器的损失函数保证了微调过程中的参数和预训练的参数的一致,同时采用GPT-2的预训练参数可以给模型更好的初始点,得到语料上的语言模型信息;而现有的模型则没有采用预训练的语言模型作为初始化,而是直接从头开始训练,从而失去了很多先验知识,进而失去了大量语料中的语言的语义信息;
(4)编码器和解码器端都采用了transformer来进行编码语义信息,而现有对话模型大都采用GRU(Gated Recurrent Unit,门控循环单元)模块来编码知识,该模块只能串行,而且不适用于编码比较长的句子,会造成语义信息的丢失,因此,这里通过采用transformer模型,能够更好的捕获长距离语义信息;
(5)通过两种用户交互方式获取待回复的问题和问题对应的目标三元组集合,更加的人性化,且,实验表明,与现有的对话模型相比,本申请中对话生成模型在BLEU(Bilingual Evaluation Understudy,双语评估替补)、ROUGE(Recall-OrientedUnderstudy for Gisting Evaluation,机器翻译和文章摘要评价指标)、entity_score、熵entropy、编程语句distinct和bert_score等指标上均有提升,具有较好的实用价值。
在上述方法实施例的基础上,本发明实施例还提供了一种对话信息的生成装置,如图7所示,该装置包括依次连接的:获取模块71、生成模块72和回复模块73,其中,各个模块的功能如下:
获取模块71,用于获取待回复的问题和问题对应的目标三元组集合;其中,目标三元组集合中的三元组包含有问题对应的头实体;
生成模块72,用于将目标三元组集合和问题输入预先训练好的对话生成模型,得到问题对应的答复信息;
回复模块73,用于基于答复信息回复问题。
本发明实施例提供的对话信息的生成装置,通过将待回复的问题和该问题对应的目标三元组集合输入预先训练好的对话生成模型,以生成该问题对应的答复信息,从而避免了现有检索式对话模型的数据库中问题种类数量覆盖率有限的问题,缓解了检索式对话模型应用场景受限的问题,提升了对话生成模型的应用场景和实用价值。
在其中一种可能的实施例中,上述获取模块71还用于:获取待回复的问题;确定问题包含的头实体集合;根据头实体集合,从预存的常识图谱中确定目标三元组集合;该目标三元组集合中的三元组包含有头实体集合中的头实体。
在另一种可能的实施例中,上述根据头实体集合,从预存的常识图谱中确定目标三元组集合,包括:在常识图谱中检索包含有头实体集合的三元组;从检索得到的三元组中选择指定个数的三元组组成目标三元组集合。
在另一种可能的实施例中,上述装置还用于:响应针对于原始常识图谱的过滤操作,基于过滤操作删减原始常识图谱中的关联关系,得到过滤后的上述常识图谱。
在另一种可能的实施例中,上述响应针对于原始常识图谱的过滤操作,基于过滤操作删减原始常识图谱中的关联关系,包括:获取原始常识图谱中的关联关系集;响应针对于关联关系集的过滤操作,从关联关系集中删除过滤操作对应的关联关系。
在另一种可能的实施例中,上述对话生成模型训练过程包括:从训练问题样本集中选择当前问题样本;其中,训练问题样本集的问题样本标注有标准答复信息;获取当前问题样本包含的头实体集合;在常识图谱中检索包含有头实体集合中的头实体的训练三元组,得到训练三元组集合;将训练三元组集合和当前问题样本输入对话生成模型,得到当前问题样本对应的预测答复信息;基于预测答复信息和标准答复信息确定对话生成模型的当前损失值,基于当前损失值继续从训练问题样本集中选择问题样本进行训练,直至训练完成。
在另一种可能的实施例中,上述对话生成模型为transformer模型,该transformer模型包括编码器和解码器;上述将训练三元组集合和当前问题样本输入对话生成模型,得到当前问题样本对应的预测答复信息,包括:将训练三元组集合和当前问题样本输入至编码器,以使编码器分别对训练三元组集合和当前问题样本进行编码处理,得到训练三元组集合对应的特征向量集和当前问题样本对应的特征向量;其中,特征向量集包括训练三元组集合中每个训练三元组对应的特征向量;基于解码器分别对训练三元组集合对应的特征向量集和当前问题样本对应的特征向量进行解码处理,得到当前问题样本对应的预测答复信息。
在另一种可能的实施例中,当前问题样本还配置有第一开始标志和第一结束标志;上述编码器对当前问题样本进行编码处理,包括:当监测到第一开始标志时,编码器开始对当前问题样本进行编码处理,直至监测到第一结束标志时编码结束。
在另一种可能的实施例中,训练三元组集合配置有第二开始标志和第二结束标志;其中,第二开始标志和第二结束标志分别设置在训练三元组集合中多个训练三元组顺序连接的两端,上述编码器对训练三元组集合进行编码处理,包括:当监测到第二开始标志时,编码器对第二开始标志处的训练三元组进行编码处理,得到第二开始标志处的训练三元组对应的特征向量;以及,按照连接顺序,依次对训练三元组进行编码,直至得到第二结束标志处的训练三元组对应的特征向量,结束编码。
在另一种可能的实施例中,在对话生成模型训练之前,该装置还用于:基于预先训练好的语言模型对对话生成模型进行初始化,并根据语言模型的参数确定编码器和解码器的初始参数。
在另一种可能的实施例中,上述获取当前问题样本包含的头实体集合,包括:通过AC自动机获取当前问题样本包含的头实体集合;其中,头实体集合包括多个头实体。
本发明实施例提供的对话信息的生成装置,与上述实施例提供的对话信息的生成方法具有相同的技术特征,所以也能解决相同的技术问题,达到相同的技术效果。
本发明实施例还提供一种电子设备,包括处理器和存储器,存储器存储有能够被处理器执行的机器可执行指令,处理器执行机器可执行指令以实现上述对话信息的生成方法。
参见图8所示,该电子设备包括处理器80和存储器81,该存储器81存储有能够被处理器80执行的机器可执行指令,该处理器80执行机器可执行指令以实现上述对话信息的生成方法。
进一步地,图8所示的电子设备还包括总线82和通信接口83,处理器80、通信接口83和存储器81通过总线82连接。
其中,存储器81可能包含高速随机存取存储器(RAM,Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口83(可以是有线或者无线)实现该***网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。总线82可以是ISA(IndustrialStandard Architecture,工业标准结构总线)总线、PCI(Peripheral ComponentInterconnect,外设部件互连标准)总线或EISA(Enhanced Industry StandardArchitecture,扩展工业标准结构)总线等。上述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图8中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
处理器80可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器80中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器80可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital SignalProcessor,简称DSP)、专用集成电路(Application Specific Integrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器81,处理器80读取存储器81中的信息,结合其硬件完成前述实施例的方法的步骤。
本实施例还提供一种机器可读存储介质,机器可读存储介质存储有机器可执行指令,机器可执行指令在被处理器调用和执行时,机器可执行指令促使处理器实现上述对话信息的生成方法。
本发明实施例所提供的对话信息的生成方法、装置和电子设备的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (14)

1.一种对话信息的生成方法,其特征在于,所述方法包括:
获取待回复的问题和所述问题对应的目标三元组集合;其中,所述目标三元组集合中的三元组包含有所述问题对应的头实体;
将所述目标三元组集合和所述问题输入预先训练好的对话生成模型,得到所述问题对应的答复信息;
基于所述答复信息回复所述问题。
2.根据权利要求1所述的对话信息的生成方法,其特征在于,获取待回复的问题和所述问题对应的目标三元组集合的步骤,包括:
获取待回复的问题;
确定所述问题包含的头实体集合;
根据所述头实体集合,从预存的常识图谱中确定目标三元组集合;所述目标三元组集合中的三元组包含有所述头实体集合中的头实体。
3.根据权利要求2所述的对话信息的生成方法,其特征在于,根据所述头实体集合,从预存的常识图谱中确定目标三元组集合的步骤,包括:
在所述常识图谱中检索包含有所述头实体集合的三元组;
从检索得到的所述三元组中选择指定个数的三元组组成目标三元组集合。
4.根据权利要求2所述的对话信息的生成方法,其特征在于,所述方法还包括:
响应针对于原始常识图谱的过滤操作,基于所述过滤操作删减所述原始常识图谱中的关联关系,得到过滤后的所述常识图谱。
5.根据权利要求4所述的对话信息的生成方法,其特征在于,响应针对于原始常识图谱的过滤操作,基于所述过滤操作删减所述原始常识图谱中的关联关系的步骤,包括:
获取所述原始常识图谱中的关联关系集;
响应针对于所述关联关系集的过滤操作,从所述关联关系集中删除所述过滤操作对应的关联关系。
6.根据权利要求2所述的对话信息的生成方法,其特征在于,所述对话生成模型训练过程包括:
从训练问题样本集中选择当前问题样本;其中,所述训练问题样本集的问题样本标注有标准答复信息;
获取所述当前问题样本包含的头实体集合;
在所述常识图谱中检索包含有所述头实体集合中的头实体的训练三元组,得到训练三元组集合;
将所述训练三元组集合和所述当前问题样本输入所述对话生成模型,得到所述当前问题样本对应的预测答复信息;
基于所述预测答复信息和所述标准答复信息确定所述对话生成模型的当前损失值,基于所述当前损失值继续从训练问题样本集中选择问题样本进行训练,直至训练完成。
7.根据权利要求6所述的对话信息的生成方法,其特征在于,所述对话生成模型为transformer模型,所述transformer模型包括编码器和解码器;将所述训练三元组集合和所述当前问题样本输入所述对话生成模型,得到所述当前问题样本对应的预测答复信息的步骤,包括:
将所述训练三元组集合和所述当前问题样本输入至所述编码器,以使所述编码器分别对所述训练三元组集合和所述当前问题样本进行编码处理,得到所述训练三元组集合对应的特征向量集和所述当前问题样本对应的特征向量;其中,所述特征向量集包括所述训练三元组集合中每个训练三元组对应的特征向量;
基于所述解码器分别对所述训练三元组集合对应的特征向量集和所述当前问题样本对应的特征向量进行解码处理,得到所述当前问题样本对应的预测答复信息。
8.根据权利要求7所述的对话信息的生成方法,其特征在于,所述当前问题样本还配置有第一开始标志和第一结束标志;所述编码器对所述当前问题样本进行编码处理的步骤,包括:
当监测到所述第一开始标志时,所述编码器开始对所述当前问题样本进行编码处理,直至监测到所述第一结束标志时编码结束。
9.根据权利要求7所述的对话信息的生成方法,其特征在于,所述训练三元组集合配置有第二开始标志和第二结束标志;其中,所述第二开始标志和所述第二结束标志分别设置在所述训练三元组集合中多个训练三元组顺序连接的两端,所述编码器对所述训练三元组集合进行编码处理的步骤,包括:
当监测到所述第二开始标志时,所述编码器对所述第二开始标志处的训练三元组进行编码处理,得到第二开始标志处的训练三元组对应的特征向量;以及,按照连接顺序,依次对所述训练三元组进行编码,直至得到所述第二结束标志处的训练三元组对应的特征向量,结束编码。
10.根据权利要求7所述的对话信息的生成方法,其特征在于,在所述对话生成模型训练之前,所述方法还包括:
基于预先训练好的语言模型对所述对话生成模型进行初始化,并根据所述语言模型的参数确定所述编码器和所述解码器的初始参数。
11.根据权利要求6所述的对话信息的生成方法,其特征在于,获取所述当前问题样本包含的头实体集合的步骤,包括:
通过AC自动机获取所述当前问题样本包含的头实体集合;其中,所述头实体集合包括多个头实体。
12.一种对话信息的生成装置,其特征在于,所述装置包括:
获取模块,用于获取待回复的问题和所述问题对应的目标三元组集合;其中,所述目标三元组集合中的三元组包含有所述问题对应的头实体;
生成模块,用于将所述目标三元组集合和所述问题输入预先训练好的对话生成模型,得到所述问题对应的答复信息;
回复模块,用于基于所述答复信息回复所述问题。
13.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1-11任一项所述的对话信息的生成方法的步骤。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述权利要求1-11任一项所述的对话信息的生成方法的步骤。
CN202011533907.6A 2020-12-22 2020-12-22 对话信息的生成方法、装置及电子设备 Pending CN112650768A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011533907.6A CN112650768A (zh) 2020-12-22 2020-12-22 对话信息的生成方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011533907.6A CN112650768A (zh) 2020-12-22 2020-12-22 对话信息的生成方法、装置及电子设备

Publications (1)

Publication Number Publication Date
CN112650768A true CN112650768A (zh) 2021-04-13

Family

ID=75359319

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011533907.6A Pending CN112650768A (zh) 2020-12-22 2020-12-22 对话信息的生成方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN112650768A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113220852A (zh) * 2021-05-06 2021-08-06 支付宝(杭州)信息技术有限公司 人机对话方法、装置、设备和存储介质
CN114610855A (zh) * 2022-03-15 2022-06-10 平安科技(深圳)有限公司 对话回复生成方法、装置、电子设备及存储介质
CN114840671A (zh) * 2022-04-29 2022-08-02 北京百度网讯科技有限公司 对话生成方法、模型的训练方法、装置、设备及介质
CN115186092A (zh) * 2022-07-11 2022-10-14 贝壳找房(北京)科技有限公司 线上交互处理方法和装置、存储介质和程序产品

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188331A (zh) * 2019-06-03 2019-08-30 腾讯科技(深圳)有限公司 模型训练方法、对话***评价方法、装置、设备及存储介质
CN110188182A (zh) * 2019-05-31 2019-08-30 中国科学院深圳先进技术研究院 模型训练方法、对话生成方法、装置、设备及介质
CN111143540A (zh) * 2020-04-03 2020-05-12 腾讯科技(深圳)有限公司 智能问答方法、装置、设备及存储介质
CN111324736A (zh) * 2020-03-19 2020-06-23 苏州思必驰信息科技有限公司 人机对话模型训练方法、人机对话方法及***
CN111651557A (zh) * 2020-05-09 2020-09-11 清华大学深圳国际研究生院 一种自动化文本生成方法、装置及计算机可读存储介质
CN111897941A (zh) * 2020-08-14 2020-11-06 腾讯科技(深圳)有限公司 对话生成方法、网络训练方法、装置、存储介质及设备
CN112035627A (zh) * 2020-07-27 2020-12-04 深圳技术大学 自动问答方法、装置、设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188182A (zh) * 2019-05-31 2019-08-30 中国科学院深圳先进技术研究院 模型训练方法、对话生成方法、装置、设备及介质
CN110188331A (zh) * 2019-06-03 2019-08-30 腾讯科技(深圳)有限公司 模型训练方法、对话***评价方法、装置、设备及存储介质
CN111324736A (zh) * 2020-03-19 2020-06-23 苏州思必驰信息科技有限公司 人机对话模型训练方法、人机对话方法及***
CN111143540A (zh) * 2020-04-03 2020-05-12 腾讯科技(深圳)有限公司 智能问答方法、装置、设备及存储介质
CN111651557A (zh) * 2020-05-09 2020-09-11 清华大学深圳国际研究生院 一种自动化文本生成方法、装置及计算机可读存储介质
CN112035627A (zh) * 2020-07-27 2020-12-04 深圳技术大学 自动问答方法、装置、设备及存储介质
CN111897941A (zh) * 2020-08-14 2020-11-06 腾讯科技(深圳)有限公司 对话生成方法、网络训练方法、装置、存储介质及设备

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113220852A (zh) * 2021-05-06 2021-08-06 支付宝(杭州)信息技术有限公司 人机对话方法、装置、设备和存储介质
CN114610855A (zh) * 2022-03-15 2022-06-10 平安科技(深圳)有限公司 对话回复生成方法、装置、电子设备及存储介质
CN114610855B (zh) * 2022-03-15 2024-06-18 平安科技(深圳)有限公司 对话回复生成方法、装置、电子设备及存储介质
CN114840671A (zh) * 2022-04-29 2022-08-02 北京百度网讯科技有限公司 对话生成方法、模型的训练方法、装置、设备及介质
CN115186092A (zh) * 2022-07-11 2022-10-14 贝壳找房(北京)科技有限公司 线上交互处理方法和装置、存储介质和程序产品
CN115186092B (zh) * 2022-07-11 2023-06-20 贝壳找房(北京)科技有限公司 线上交互处理方法和装置、存储介质和程序产品

Similar Documents

Publication Publication Date Title
CN110427617B (zh) 推送信息的生成方法及装置
CN110737758B (zh) 用于生成模型的方法和装置
CN108920622B (zh) 一种意图识别的训练方法、训练装置和识别装置
CN112650768A (zh) 对话信息的生成方法、装置及电子设备
US20200301954A1 (en) Reply information obtaining method and apparatus
CN106328147B (zh) 语音识别方法和装置
CN109564572A (zh) 生成用于自动聊天的问题-答案对
Udagawa et al. A natural language corpus of common grounding under continuous and partially-observable context
CN112800170A (zh) 问题的匹配方法及装置、问题的回复方法及装置
CN111046132A (zh) 一种检索多轮对话的客服问答处理方法及其***
CN112214593A (zh) 问答处理方法、装置、电子设备及存储介质
WO2018196718A1 (zh) 图像消歧方法、装置、存储介质和电子设备
CN111259851B (zh) 一种多模态事件检测方法及装置
CN109344242B (zh) 一种对话问答方法、装置、设备及存储介质
CN111506709B (zh) 实体链接方法、装置、电子设备和存储介质
Patil et al. Visual question generation: The state of the art
CN110717038A (zh) 对象分类方法及装置
CN113821605A (zh) 一种事件抽取方法
CN111597341A (zh) 一种文档级关系抽取方法、装置、设备及存储介质
CN117076688A (zh) 基于领域知识图谱的知识问答方法及其装置、电子设备
CN113553418A (zh) 一种基于多模态学习的视觉对话生成方法及装置
CN112464655A (zh) 中文字符和拼音相结合的词向量表示方法、装置、介质
Lin et al. Fine-grained late-interaction multi-modal retrieval for retrieval augmented visual question answering
CN112035627B (zh) 自动问答方法、装置、设备及存储介质
CN117828024A (zh) 一种插件检索方法、装置、存储介质及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210413

RJ01 Rejection of invention patent application after publication