CN109726274B - 问题生成方法、装置及存储介质 - Google Patents
问题生成方法、装置及存储介质 Download PDFInfo
- Publication number
- CN109726274B CN109726274B CN201811641895.1A CN201811641895A CN109726274B CN 109726274 B CN109726274 B CN 109726274B CN 201811641895 A CN201811641895 A CN 201811641895A CN 109726274 B CN109726274 B CN 109726274B
- Authority
- CN
- China
- Prior art keywords
- question
- document
- text
- processed
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例提出一种问题生成方法、装置及计算机可读存储介质。其中问题生成方法包括:根据文本结构识别待处理文档的文本类型;选择与所述文本类型对应的生成模型,所述生成模型包括显式问题生成模型、结构化和半结构化问题生成模型和自然语言问题生成模型中的至少一种;利用选择的所述生成模型针对所述待处理文档生成问题。本发明实施例针对不同的文本类型的特点,对于整篇文档而言,或者对整篇文档的各部分文本而言,都选择最适用的生成模型,提高了生成问题的准确率。
Description
技术领域
本发明涉及信息技术领域,尤其涉及一种问题生成方法、装置及计算机可读存储介质。
背景技术
FAQ(Frequently Asked Questions,问答***)是当前网络上提供在线帮助的主要手段,通过事先组织好一些可能的常问的问答对,发布在网页上为用户提供咨询服务。
现有技术的FAQ实现方式主要包括以下几种:
(1)通用问答***,基于检索或者基于知识的问答服务。
(2)定制化检索,对文档内容分段分词创建索引;或者,通过文档结构化或人工筛选的方法从而得到问答对。
(3)基于词匹配或同义词匹配的问题检索。
现有技术的缺陷主要包括以下几个方面:
(1)基于检索或者基于知识的通用问答***不能解决定制化的需求。
(2)对于通过对文档内容创建索引实现问答的方式,首先并非所有的内容都是问答内容,因此通篇存储会造成存储空间的浪费;其次是这种方式生成问题的准确率低,因为词命中不意味着当前内容是答案;还有无法判断答案边界和无法形成可视化FAQ文档。所谓可视化是指将对文本内容深度的阅读理解,从而提取出若干问答对,方便用户查找问题检索答案。现在的技术无法对篇章深度理解或者对文本生成好的问题。
(3)基于同义词匹配或词匹配的问题检索的泛化能力差且召回率低。
发明内容
本发明实施例提供一种问题生成方法、装置及计算机可读存储介质,以至少解决现有技术中的一个或多个技术问题。
第一方面,本发明实施例提供了一种问题生成方法,包括:
根据文本结构识别待处理文档的文本类型;
选择与所述文本类型对应的生成模型,所述生成模型包括显式问题生成模型、结构化和半结构化问题生成模型和自然语言问题生成模型中的至少一种;
利用选择的所述生成模型针对所述待处理文档生成问题。
在一种实施方式中,根据文本结构识别待处理文档的文本类型,包括:识别所述待处理文档的文本结构中是否有问答结构;
选择与所述文本类型对应的生成模型,包括:若所述待处理文档的文本结构中有问答结构,则将所述显式问题生成模型作为与所述文本类型对应的生成模型;
利用选择的所述生成模型针对所述待处理文档生成问题,包括:利用所述显式问题生成模型针对所述待处理文档生成问题。
在一种实施方式中,利用所述显式问题生成模型针对所述待处理文档生成问题,包括:
判断所述问答结构中的问题部分和对应的回答部分是否匹配,将匹配成功的所述问答结构对应的部分文本作为候选文本筛选出来;
利用第一循环神经网络模型,对筛选出的所述候选文本进行分类,以从所述候选文本中识别出显式问题;
将所述显式问题作为针对所述待处理文档生成的问题。
在一种实施方式中,根据文本结构识别待处理文档的文本类型,包括:识别所述待处理文档的文本结构中是否有标题结构,所述标题结构包括标题或表格;
选择与所述文本类型对应的生成模型,包括:若所述待处理文档的文本结构中有标题结构,则将所述结构化和半结构化问题生成模型作为与所述文本类型对应的生成模型;
利用选择的所述生成模型针对所述待处理文档生成问题,包括:利用所述结构化和半结构化问题生成模型针对所述待处理文档生成问题。
在一种实施方式中,利用所述结构化和半结构化问题生成模型针对所述待处理文档生成问题,包括:
在所述待处理文档的文本结构中有标题的情况下,获取与所述标题相关的属性复述;
根据所述属性复述生成问题。
在一种实施方式中,获取与所述标题相关的属性复述,包括:
获取与所述标题相关的搜索点击展现日志;
对所述搜索点击展现日志进行数据挖掘,得到与所述标题相关的属性复述;
将所述属性复述存入属性复述表中。
在一种实施方式中,根据所述属性复述生成问题,包括:
根据所述属性复述,利用第一编码器-解码器模型生成问题;或者,
从所述属性复述表中查询与所述标题相关的属性复述,并根据查询到的所述属性复述生成问题。
在一种实施方式中,根据文本结构识别待处理文档的文本类型,包括:识别所述待处理文档的文本结构中是否有问答结构和标题结构,所述标题结构包括标题或表格;
选择与所述文本类型对应的生成模型,包括:若所述待处理文档的文本结构中没有问答结构且没有标题结构,则将所述自然语言问题生成模型作为与所述文本类型对应的生成模型;
利用选择的所述生成模型针对所述待处理文档生成问题,包括:利用所述自然语言问题生成模型针对所述待处理文档生成问题。
在一种实施方式中,利用所述自然语言问题生成模型针对所述待处理文档生成问题,包括:
利用第二循环神经网络模型,从所述待处理文档中筛选出目标句子,所述目标句子包括语义完整的句子;
利用第三循环神经网络模型,从所述目标句子中选择候选答案片段;
根据所述候选答案片段,利用第二编码器-解码器模型生成问题。
在一种实施方式中,所述方法还包括:针对生成的所述问题进行答案边界定位。
在一种实施方式中,针对生成的所述问题进行答案边界定位,包括:
利用双向注意流网络预测所述问题对应的答案片段的起止位置;
利用学习排序模型将所述答案片段排序,根据排序结果对所述问题进行答案边界定位,其中,所述学习排序模型的特征包括所述答案片段的起止位置。
第二方面,本发明实施例提供了一种问题生成装置,包括:
文本类型识别单元,用于根据文本结构识别待处理文档的文本类型;
生成模型选择单元,用于选择与所述文本类型对应的生成模型,所述生成模型包括显式问题生成模型、结构化和半结构化问题生成模型和自然语言问题生成模型中的至少一种;
问题生成单元,用于利用选择的所述生成模型针对所述待处理文档生成问题。
在一种实施方式中,所述文本类型识别单元包括第一识别子单元,所述第一识别子单元用于:识别所述待处理文档的文本结构中是否有问答结构;
所述生成模型选择单元包括第一选择子单元,所述第一选择子单元用于:若所述待处理文档的文本结构中有问答结构,则将所述显式问题生成模型作为与所述文本类型对应的生成模型;
所述问题生成单元包括第一生成子单元,所述第一生成子单元用于:利用所述显式问题生成模型针对所述待处理文档生成问题。
在一种实施方式中,所述第一生成子单元还用于:
判断所述问答结构中的问题部分和对应的回答部分是否匹配,将匹配成功的所述问答结构对应的部分文本作为候选文本筛选出来;
利用第一循环神经网络模型,对筛选出的所述候选文本进行分类,以从所述候选文本中识别出显式问题;
将所述显式问题作为针对所述待处理文档生成的问题。
在一种实施方式中,所述文本类型识别单元包括第二识别子单元,所述第二识别子单元用于:识别所述待处理文档的文本结构中是否有标题结构,所述标题结构包括标题或表格;
所述生成模型选择单元包括第二选择子单元,所述第二选择子单元用于:若所述待处理文档的文本结构中有标题结构,则将所述结构化和半结构化问题生成模型作为与所述文本类型对应的生成模型;
所述问题生成单元包括第二生成子单元,所述第二生成子单元用于:利用所述结构化和半结构化问题生成模型针对所述待处理文档生成问题。
在一种实施方式中,所述第二生成子单元包括:
复述获取子单元,用于在所述待处理文档的文本结构中有标题的情况下,获取与所述标题相关的属性复述;
复述问题生成子单元,用于根据所述属性复述生成问题。
在一种实施方式中,所述复述获取子单元还用于:
获取与所述标题相关的搜索点击展现日志;
对所述搜索点击展现日志进行数据挖掘,得到与所述标题相关的属性复述;
将所述属性复述存入属性复述表中。
在一种实施方式中,所述复述问题生成子单元还用于:
根据所述属性复述,利用第一编码器-解码器模型生成问题;或者,
从所述属性复述表中查询与所述标题相关的属性复述,并根据查询到的所述属性复述生成问题。
在一种实施方式中,所述文本类型识别单元包括第三识别子单元,所述第三识别子单元用于:识别所述待处理文档的文本结构中是否有问答结构和标题结构,所述标题结构包括标题或表格;
所述生成模型选择单元包括第三选择子单元,所述第三选择子单元用于:若所述待处理文档的文本结构中没有问答结构且没有标题结构,则将所述自然语言问题生成模型作为与所述文本类型对应的生成模型;
所述问题生成单元包括第三生成子单元,所述第三生成子单元用于:利用所述自然语言问题生成模型针对所述待处理文档生成问题。
在一种实施方式中,所述第三生成子单元还用于:
利用第二循环神经网络模型,从所述待处理文档中筛选出目标句子,所述目标句子包括语义完整的句子;
利用第三循环神经网络模型,从所述目标句子中选择候选答案片段;
根据所述候选答案片段,利用第二编码器-解码器模型生成问题。
在一种实施方式中,所述装置还包括答案边界定位单元,用于针对生成的所述问题进行答案边界定位。
在一种实施方式中,所述答案边界定位单元还用于:
利用双向注意流网络预测所述问题对应的答案片段的起止位置;
利用学习排序模型将所述答案片段排序,根据排序结果对所述问题进行答案边界定位,其中,所述学习排序模型的特征包括所述答案片段的起止位置。
第三方面,本发明实施例提供了一种问题生成装置,所述装置的功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。
在一个可能的设计中,所述装置的结构中包括处理器和存储器,所述存储器用于存储支持所述装置执行上述方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。所述装置还可以包括通信接口,用于与其他设备或通信网络通信。
第四方面,本发明实施例提供了一种计算机可读存储介质,其存储有计算机程序,该程序被处理器执行时实现上述第一方面中任一所述的方法。
上述技术方案中的一个技术方案具有如下优点或有益效果:针对不同的文本类型的特点,对于整篇文档而言,或者对整篇文档的各部分文本而言,都选择最适用的生成模型,提高了生成问题的准确率。
上述技术方案中的另一个技术方案具有如下优点或有益效果:通过问答技术能够得到问题对应答***边界,进一步提高了生成的FAQ文档的准确性。
上述概述仅仅是为了说明书的目的,并不意图以任何方式进行限制。除上述描述的示意性的方面、实施方式和特征之外,通过参考附图和以下的详细描述,本发明进一步的方面、实施方式和特征将会是容易明白的。
附图说明
在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本发明公开的一些实施方式,而不应将其视为是对本发明范围的限制。
图1为本发明实施例提供的问题生成方法的流程图。
图2为本发明实施例提供的问题生成方法的FAQ挖掘目标文档样例示意图。
图3为本发明实施例提供的问题生成方法的文本类型的示意图。
图4为本发明实施例提供的问题生成方法的利用显式问题生成模型生成问题的流程图。
图5为本发明实施例提供的问题生成方法的利用显式问题生成模型生成问题的流程图。
图6为本发明实施例提供的问题生成方法的利用结构化和半结构化问题生成模型生成问题的流程图。
图7为本发明实施例提供的问题生成方法的利用结构化和半结构化问题生成模型生成问题的流程图。
图8为本发明实施例提供的问题生成方法的利用结构化和半结构化问题生成模型生成问题的流程图。
图9为本发明实施例提供的问题生成方法的利用自然语言问题生成模型生成问题的流程图。
图10为本发明实施例提供的问题生成方法的利用自然语言问题生成模型生成问题的流程图。
图11为本发明实施例提供的问题生成方法的流程图。
图12为本发明实施例提供的问题生成方法的在线部分的示意图。
图13为本发明实施例提供的问题生成方法的答案边界定位的流程图。
图14为本发明实施例提供的问题生成方法的离线部分的示意图。
图15为本发明实施例提供的问题生成装置的结构框图。
图16为本发明实施例提供的问题生成装置的结构框图。
图17为本发明实施例提供的问题生成装置的第二生成子单元的结构框图。
图18为本发明实施例提供的问题生成装置的结构框图。
图19为本发明实施例提供的问题生成装置的结构框图。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本发明的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。
图1为本发明实施例提供的问题生成方法的流程图。如图1所示,本发明实施例的问题生成方法包括:
步骤S110,根据文本结构识别待处理文档的文本类型;
步骤S120,选择与所述文本类型对应的生成模型,所述生成模型包括显式问题生成模型、结构化和半结构化问题生成模型和自然语言问题生成模型中的至少一种;
步骤S130,利用选择的所述生成模型针对所述待处理文档生成问题。
在很多网站上都使用FAQ为用户提供咨询服务。在FAQ中列出了一些用户常见的问题,是一种在线帮助形式。用户在利用一些网站的功能或者服务时往往会遇到一些看似很简单、但不经过说明可能很难搞清楚的问题。有时甚至会因为这些细节问题的影响而失去用户。在很多情况下,只要经过简单的解释就可以解决这些问题,这就是FAQ的价值。
FAQ设计的问题和解答都必须是用户经常问到和遇到的。例如在网络营销中,FAQ被认为是一种常用的在线顾客服务手段,一个好的FAQ***,应该至少可以回答用户80%以上的一般问题和常见问题。通过FAQ的使用,不仅方便了用户,也大大减轻了网站工作人员的压力,节省了大量的顾客服务成本,并且增加了用户的满意度。因此,在FAQ设计中,利用科学合理的方法生成高准确率的问题是至关重要的。
图2为本发明实施例提供的问题生成方法的FAQ挖掘目标文档样例示意图。可从图2所示的指定文档中自动生成问答对,期望生成的问答对举例如下:
Q:吸二手烟对身体的危害有哪些?
A:1、增加肺癌几率…;2、对记忆力的危害,烟雾中的尼古丁…3、引发儿童哮喘病、肺炎、耳部炎症…。
Q:吸二手烟的人患肺癌的概率是正常人的多少倍?
A:2.6倍至6倍。
以上,Q(question)表示问题,A(answer)表示问题对应的答案。
本发明实施例通过定制化检索实现智能问答,可针对指定文档进行处理,以实现定制化检索的目的,使生成的智能问答更有针对性。通过进行阅读理解、问题生成技术和问答技术对待处理文档进行分析,提取出用户可能提问的问题,实现定制化问答服务。
具体地,可将待处理的指定文档的文本分为三种文本类型:显式FAQ文本类型、结构化和半结构化文本类型、自然语言文本类型。图3为本发明实施例提供的问题生成方法的文本类型的表格示意图。图3中的“Q”表示各个文本样例对应的生成的问题。
图3的表格中第一行所示的是显式FAQ文本类型,其对应的生成的问题是:“98元不限量可以定购本地、国内流量包吗?”
图3的表格中第二行所示的是结构化和半结构化文本类型,其对应的生成的问题是:“百度女神卡办理途径有哪些?”其中,“结构化”可包括文档中有表格结构的情形,“半结构化”可包括文档中有标题的情形。生成的问题中的“百度女神卡”可根据文档的总标题或文档相关的词条、关键词获得。
图3的表格中第三行所示的是自然语言文本类型,其对应的生成的问题是:“4G福卡新用户入网如何计费?”其中,生成的问题中的“4G福卡”可根据文档的总标题或文档相关的词条、关键词获得。
本发明实施例针对不同文本类型的文档,分别选择与所述文本类型对应的不同的生成模型,使得生成的问题更有针对性,准确率更高,更加符合定制化问答服务的需求。利用生成的问题及其回答可支持客服机器人实现人机交互。
在上述技术方案中,还可以对问题创建索引以节省存储空间。例如,创建索引的方式可包括倒排索引或key value(键值)索引。其中,倒排索引源于实际应用中需要根据属性的值来查找记录的情况。这种索引表中的每一项都包括一个属性值和具有该属性值的各记录的地址。由于不是由记录来确定属性值,而是由属性值来确定记录的位置,因而称为倒排索引。基于问题索引的查询答案的召回准确率更高。进一步地,还可以将生成的问答对,建立语义索引,用以支持客服机器人实现人机交互。
在一个示例中,待处理文档可能是整篇文档都属于上述三种文本类型中的一种,则可选择其文本类型对应的生成模型针对整篇文档生成问题。在另一个示例中,待处理文档可以分为几个部分,而各部分文本的文本类型分别属于上述三种文本类型中的一种。在这种情况下可分别选择各部分文本的文本类型对应的生成模型,针对各部分文本分别生成问题。
在一种实施方式中,根据文本结构识别待处理文档的文本类型,包括:根据文本结构识别待处理文档中的各部分文本的文本类型;
选择与所述文本类型对应的生成模型,包括:选择与所述各部分文本的文本类型对应的生成模型;
利用选择的所述生成模型针对所述待处理文档生成问题,包括:利用选择的所述生成模型针对所述各部分文本生成问题。
首先根据文本结构识别待处理文档或待处理文档中的各部分属于哪种文本类型:
(1)识别待处理文档的文本结构中是否有问答结构,即问题和问题的回答。若有,则使用显式问题生成模型,针对待处理文档中的有问答结构的部分文本生成问题。
(2)识别待处理文档的文本结构中是否带有标题或表格,若有,则使用结构化和半结构化问题生成模型,针对待处理文档中的带有标题或表格的部分文本生成问题。
(3)若待处理文档中的部分文本中没有问答结构,也没有标题或表格,例如待处理文档中的部分文本是纯文本文档的格式,可将该部分文本称为纯文本部分。这种情况则使用自然语言问题生成模型,针对该部分文本生成问题。
上述技术方案具有如下优点或有益效果:针对不同的文本类型的特点,对于整篇文档而言,或者对整篇文档的各部分文本而言,都选择最适用的生成模型,提高了生成问题的准确率。
图4为本发明实施例提供的问题生成方法的利用显式问题生成模型生成问题的流程图。如图4所示,在一种实施方式中,图1中的步骤S110,根据文本结构识别待处理文档的文本类型,具体可包括步骤S210:识别所述待处理文档的文本结构中是否有问答结构。
图1中的步骤S120,选择与所述文本类型对应的生成模型,具体可包括步骤S220:若所述待处理文档的文本结构中有问答结构,则将所述显式问题生成模型作为与所述文本类型对应的生成模型。
图1中的步骤S130,利用选择的所述生成模型针对所述待处理文档生成问题,具体可包括步骤S230:利用所述显式问题生成模型针对所述待处理文档生成问题。
参见图3表格中第一行所示的示例,若待处理文档的文本结构中有问答结构,则这部分文本的文本类型属于显式FAQ文本类型。对于显式FAQ文本类型,选择与之对应的显式问题生成模型针对该部分文本生成问题。
图5为本发明实施例提供的问题生成方法的利用显式问题生成模型生成问题的流程图。如图5所示,在一种实施方式中,图4中的步骤S230,利用所述显式问题生成模型针对所述待处理文档生成问题,具体可包括:
步骤S310,判断所述问答结构中的问题部分和对应的回答部分是否匹配,将匹配成功的所述问答结构对应的部分文本作为候选文本筛选出来;
步骤S320,利用第一循环神经网络模型,对筛选出的所述候选文本进行分类,以从所述候选文本中识别出显式问题;
步骤S330,将所述显式问题作为针对所述待处理文档生成的问题。
在这种实施方式中,可通过文档结构解析和问题识别来生成问题。其中,文档结构解析的过程可包括用文本结构初筛出可能的显式问题。问题识别的过程可包括:将RNN(Recurrent Neural Network,循环神经网络)作为问题分类模型,以词为特征,使用人工标注训练数据,训练上述RNN模型,作为显式问题生成模型。
具体地,显式问题生成模型的处理过程可分为以下步骤:
(1)文档结构解析:找出文本中的问题部分和对应的回答部分,并判断问题部分和回答部分是否匹配。若问题部分和回答部分匹配,则将问题部分和回答部分作为“可能的显式问题”筛选出来。
例如:“找出文本中的问题部分和对应的回答部分”的方法可包括:找出问号,将问号之前的一句话确定为问题部分,将问号之后的一段话确定为回答部分。可通过语义理解判断问题和回答是否匹配。
(2)问题识别:利用RNN模型,即上述第一循环神经网络模型,对筛选出的“可能的显式问题”进行分类。第一循环神经网络模型输出的结果可分为两类,一类是最终确定其是显式问题,另一类是最终确定其不是显式问题。
上述RNN模型使用的特征可包括:词性和词的依存关系。其中,可将文本进行分句、切词,根据需求提取不同的特征,作为训练模型的特征。例如,利用标点进行分句;利用NLP(Natural Language Processing,自然语言处理)进行切词。可以分别尝试将一个句子可以分成例如5个词、3个词或1个词的模式,选取效果最好的模式进行分词。
图6为本发明实施例提供的问题生成方法的利用结构化和半结构化问题生成模型生成问题的流程图。如图6所示,在一种实施方式中,图1中的步骤S110,根据文本结构识别待处理文档的文本类型,具体可包括步骤S410:识别所述待处理文档的文本结构中是否有标题结构,所述标题结构包括标题或表格。
图1中的步骤S120,选择与所述文本类型对应的生成模型,具体可包括步骤S420:若所述待处理文档的文本结构中有标题结构,则将所述结构化和半结构化问题生成模型作为与所述文本类型对应的生成模型。
图1中的步骤S130,利用选择的所述生成模型针对所述待处理文档生成问题,具体可包括步骤S430:利用所述结构化和半结构化问题生成模型针对所述待处理文档生成问题。
参见图3表格中第二行所示的示例,若待处理文档的文本结构中有标题结构,其中标题结构包括标题或表格,则这部分文本的文本类型属于结构化和半结构化文本类型。对于结构化和半结构化文本类型,选择与之对应的结构化和半结构化问题生成模型针对该部分文本生成问题。
图7为本发明实施例提供的问题生成方法的利用结构化和半结构化问题生成模型生成问题的流程图。如图7所示,在一种实施方式中,图6中的步骤S430,利用所述结构化和半结构化问题生成模型针对所述待处理文档生成问题,具体可包括:
步骤S510,在所述待处理文档的文本结构中有标题的情况下,获取与所述标题相关的属性复述;
步骤S520,根据所述属性复述生成问题。
在这种实施方式中,可获取FAQ的检索***中的搜索点击展现日志,依赖搜索点击展现日志挖掘属性的复述。例如:*计费方式->*如何计费,这两个属性可以互为复述。基于属性复述的生成,作为半结构化和结构化的问题生成模型。
图8为本发明实施例提供的问题生成方法的利用结构化和半结构化问题生成模型生成问题的流程图。如图8所示,在一种实施方式中,图7中的步骤S510,获取与所述标题相关的属性复述,具体可包括:
步骤S610,获取与所述标题相关的搜索点击展现日志;
步骤S620,对所述搜索点击展现日志进行数据挖掘,得到与所述标题相关的属性复述;
步骤S630,将所述属性复述存入属性复述表中。
在一种实施方式中,图7中的步骤S520,根据所述属性复述生成问题,具体可包括:
根据所述属性复述,利用第一编码器-解码器模型生成问题;或者,
从所述属性复述表中查询与所述标题相关的属性复述,并根据查询到的所述属性复述生成问题。
具体地,结构和半结构化生成模型可包括以下处理步骤:
(1)依赖搜索的点击展现日志,利用数据挖掘的方法挖掘属性的复述。将挖掘的属性的复述存入属性复述表中。
例如两个用户A和B使用了不同的关键词搜索后,点击了同一个URL(UniformResource Locator,统一资源定位符)。则这两个不同的关键词所表达的意思可能是相同的,可以互为复述。
在一个示例中,用户搜索“苦瓜的功效”。其中“苦瓜”是实体,“功效”是实体的属性。“功效”这个属性的复述还包括“作用”、“药效”等。也就是说“苦瓜的功效”、“苦瓜的作用”和“苦瓜的药效”所表达的意思是相同的。
(2)基于属性复述的生成,作为半结构化和结构化的问题生成模型。可包括两种实施方式:
方式一:使用Seq2Seq(Sequence to Sequence,序列到序列)模型,即上述第一编码器-解码器模型,生成问题。上述模型使用的特征包括词法和句法特征,序列标注模型预测的答案起止位置,以及词特征。上述模型的输入信息是待处理文档的段落,输出信息是针对输入信息生成的问题。在一个示例中,待处理文档中的文本内容为:“北京是中国的首都。”则序列标注模型可标注出“北京”。然后再把“北京”和“北京是中国的首都”作为输入信息,输入给seq2seq模型以生成问题“中国的首都是哪儿”。
Seq2Seq模型,也可以称之为Encoder-Decoder模型(编码器-解码器模型),它是RNN模型的一个重要的变种。Encoder-Decoder结构不限制输入和输出的序列长度,因此应用的范围非常广泛,比如:机器翻译、文本摘要、阅读理解、语音识别等。
由于seq2seq模型可以是输入和输出序列不等长,即Sequence to Sequence,因此它实现了从一个序列到另外一个序列的转换,比如它可以实现聊天机器人对话模型。经典的RNN模型固定了输入序列和输出序列的大小,而seq2seq模型则突破了该限制。
编码器(encoder)和解码器(decoder)分别对应着输入序列和输出序列的两个RNN。常见的encoder-decoder结构,其基本思想就是利用两个RNN,一个RNN作为encoder,另一个RNN作为decoder。encoder负责将输入序列压缩成指定长度的向量,这个向量可以看成是这个序列的语义,这个过程称为编码。而decoder则负责根据语义向量生成指定的序列,这个过程也称为解码。
方式二:查询属性复述表,选择一个相关的复述用以生成问题。
例如,对于查询到的复述:“苦瓜的功效”、“苦瓜的作用”和“苦瓜的药效”,可以从中选择一个最适合的复述用以生成问题。可利用语义理解、关键词匹配等方法,将查询到的各个复述与待处理文档中的表述做比对、分析,以确定用以生成问题的最适合的复述。
另一种情况,对于所述待处理文档的文本结构中有表格的情形,可利用语义理解、关键词匹配等方法,识别表格中表头、各行记录、各列字段的内容,进而确定生成的问题及其对应的答案。例如,表格中的其中一列数据的内容可能是生成的问题,而另外一列数据的内容可能是其对应的答案。
图9为本发明实施例提供的问题生成方法的利用自然语言问题生成模型生成问题的流程图。如图9所示,在一种实施方式中,图1中的步骤S110,根据文本结构识别待处理文档的文本类型,具体可包括步骤S710:识别所述待处理文档的文本结构中是否有问答结构和标题结构,所述标题结构包括标题或表格;
图1中的步骤S120,选择与所述文本类型对应的生成模型,具体可包括步骤S720:若所述待处理文档的文本结构中没有问答结构且没有标题结构,则将所述自然语言问题生成模型作为与所述文本类型对应的生成模型;
图1中的步骤S130,利用选择的所述生成模型针对所述待处理文档生成问题,具体可包括步骤S730:利用所述自然语言问题生成模型针对所述待处理文档生成问题。
参见图3表格中第三行所示的示例,若待处理文档的文本结构中没有问答结构且没有标题结构,则这部分文本的文本类型属于自然语言文本类型。对于自然语言文本类型,选择与之对应的自然语言问题生成模型针对该部分文本生成问题。
图10为发明实施例提供的问题生成方法的利用自然语言问题生成模型生成问题的流程图。如图10所示,在一种实施方式中,图9中的步骤S730,利用所述自然语言问题生成模型针对所述待处理文档生成问题,具体可包括:
步骤S810,利用第二循环神经网络模型,从所述待处理文档中筛选出目标句子,所述目标句子包括语义完整的句子;
步骤S820,利用第三循环神经网络模型,从所述目标句子中选择候选答案片段;
步骤S830,根据所述候选答案片段,利用第二编码器-解码器模型生成问题。
在这种实施方式中,可首先利用RNN模型分类筛选目标句子,针对筛选出的目标句子使用RNN序列标注选择候选答案片段,然后再用seq2seq模型生成问题。
具体地,自然语言生成模型可包括以下处理步骤:
(1)首先利用第二个循环神经网络模型分类筛选目标句子,筛选出语义完整的句子。
(2)对筛选的目标句子,利用第三个循环神经网络模型选择候选答案片段,也就是选择出问题和对应的可能是答案的片段。其中,可利用序列标注训练第三循环神经网络模型。序列标注可包括句子标注,也就是标注出可以提问的问题。
(3)再利用seq2seq模型,即上述第二编码器-解码器模型,问题生成模型生成问题。
在一个示例中,待处理文档中的文本内容为:“北京是中国的首都。”则序列标注可标注出“北京”。然后再把“北京”和“北京是中国的首都”作为输入信息,输入给seq2seq模型以生成问题“中国的首都是哪儿”。
图11为本发明实施例提供的问题生成方法的流程图。如图11所示,在一种实施方式中,所述方法还包括步骤S140:针对生成的所述问题进行答案边界定位。
上述技术方案具有如下优点或有益效果:通过问答技术,例如通过答案边界定位,能够得到问题对应答***边界,进一步提高了生成的FAQ文档的准确性。
在一个示例中,本发明实施例的问题生成方法包括两部分:在线部分的问题生成方法和离线部分的问题生成方法。图12为本发明实施例提供的问题生成方法的在线部分的示意图。图12中的“目标文档”也就是待处理文档。图12中的“通用文档解析”包括识别文档结构。具体地,“通用文档解析”可包括识别文档的主题(标题)、子标题、子标题下的段落和文本,可利用树形结构描述识别出的文档结构。“通用文档解析”还包括识别待处理文档中的各部分属于上述三种文本类型(显式FAQ文本类型、结构化和半结构化文本类型、自然语言文本类型)中的哪一种。识别出待处理文档中的各部分的文本类型之后,在下一步骤中选择对应的问题生成模型生成问题并进行答案边界定位。
图13为本发明实施例提供的问题生成方法的答案边界定位的流程图。如图13所示,在一种实施方式中,图11中的步骤S140,针对生成的所述问题进行答案边界定位,具体可包括:
步骤S910,利用双向注意流网络预测所述问题对应的答案片段的起止位置;
步骤S920,利用学习排序模型将所述答案片段排序,根据排序结果对所述问题进行答案边界定位,其中,所述学习排序模型的特征包括所述答案片段的起止位置。
具体地,答案边界定位可包括以下处理步骤:
(1)采用Bi-DAF(Bi-Directional Attention Flow network,双向注意流网络)作为阅读理解模型,能够准确的预测答案的起止位置。
双向注意流网络是一种层次化的多阶段的结构,可在不同粒度等级上对上下文进行建模。双向注意流网络主要包括在字符粒度等级(Character Level)和词粒度水平(WordLevel)上对上下文进行建模,并且使用双向注意流来获取问题-察觉的上下文的表示方法。
一个示例性的双向注意流网络可包括以下层次:
1.字符嵌入层(Character embedding layer)
该层的主要作用是将词映射到一个固定大小的向量,该层可使用字符水平的卷积神经网络(Character level CNN)实现其功能。
2.词嵌入层(Word embedding layer)
可使用预先训练的词嵌入模型,将每一个词映射到固定大小的向量。
3.上下文嵌入层(Contextual embedding layer)
该层主要作用是给每一个词加一个上下文的线索(cue),前三层都是对问题和上下文进行应用。
4.注意流层(Attention flow layer)
组合问题和上下文的向量,生成一个问题-察觉的特征向量集合。
5.模型层(Modeling layer)
可使用循环神经网络对上下文进行扫描。
6.输出层(Output layer)
该层提供对问题的回答。
(2)采用LTR(Learning to rank,学习排序),进行答案片段排序。
其中,将步骤(1)预测出的起止位置作为步骤(2)中LTR的一个特征。步骤(2)采用LTR从问题后面的大段文本中寻找问题对应的答案。其中,LTR模型根据问答特征对答案片段进行排序。
其中,学习排序是一种监督学习的排序方法。利用LTR可通过构造相关度函数,按照相关度进行排序。对于传统的排序方法,很难融合多种信息,而且很可能会出现过拟合现象。学习排序很容易融合多种特征,而且有成熟深厚的理论基础,参数是通过迭代优化出来的,有一套成熟理论解决稀疏、过拟合等问题。
在这种实施方式中,首先对目标文档分段,可识别自然段落或使用列表提取的方法进行分段。然后对段落提取特征并排序,如使用“领域特征”和/或“匹配特征”等相关工具提取特征。其中特征可包括以下几种:
问题答案匹配特征:对齐匹配技术、DNN(Deep Neural Networks,深度神经网络)QP匹配技术、结合知识图谱的QP匹配技术,其中Q表示问题(Query),P表示分段的段落(Paragrap),对齐匹配包括Q和P对齐;
领域特征:实体问答特征、how why问答特征、是非问答特征、描述类问答特征;
结构特征:列表结构特征;
文本特征:内容质量特征;
交叉校验特征:文本聚合特征。
图14为本发明实施例提供的问题生成方法的离线部分的示意图。如图14所示,离线部分的主要生成模型和数据,可包括两个部分和五个模型。其中,两个部分包括文档标题数据和问答标注数据。五个模型包括显式问题生成模型、结构化和半结构化问题生成模型、自然语言问题生成模型、Bi-DAF模型(阅读理解模型)和LTR模型(答案片段排序模型)。
图15为本发明实施例提供的问题生成装置的结构框图。如图15所示,本发明实施例的问题生成装置包括:
文本类型识别单元100,用于根据文本结构识别待处理文档的文本类型;
生成模型选择单元200,用于选择与所述文本类型对应的生成模型,所述生成模型包括显式问题生成模型、结构化和半结构化问题生成模型和自然语言问题生成模型中的至少一种;
问题生成单元300,用于利用选择的所述生成模型针对所述待处理文档生成问题。
图16为本发明实施例提供的问题生成装置的结构框图。如图16所示,在一种实施方式中,所述文本类型识别单元100包括第一识别子单元110,所述第一识别子单元110用于:识别所述待处理文档的文本结构中是否有问答结构;
所述生成模型选择单元200包括第一选择子单元210,所述第一选择子单元210用于:若所述待处理文档的文本结构中有问答结构,则将所述显式问题生成模型作为与所述文本类型对应的生成模型;
所述问题生成单元300包括第一生成子单元310,所述第一生成子单元310用于:利用所述显式问题生成模型针对所述待处理文档生成问题。
在一种实施方式中,所述第一生成子单元310还用于:
判断所述问答结构中的问题部分和对应的回答部分是否匹配,将匹配成功的所述问答结构对应的部分文本作为候选文本筛选出来;
利用第一循环神经网络模型,对筛选出的所述候选文本进行分类,以从所述候选文本中识别出显式问题;
将所述显式问题作为针对所述待处理文档生成的问题。
在一种实施方式中,所述文本类型识别单元100包括第二识别子单元120,所述第二识别子单元120用于:识别所述待处理文档的文本结构中是否有标题结构,所述标题结构包括标题或表格;
所述生成模型选择单元200包括第二选择子单元220,所述第二选择子单元220用于:若所述待处理文档的文本结构中有标题结构,则将所述结构化和半结构化问题生成模型作为与所述文本类型对应的生成模型;
所述问题生成单元300包括第二生成子单元320,所述第二生成子单元320用于:利用所述结构化和半结构化问题生成模型针对所述待处理文档生成问题。
图17为本发明实施例提供的问题生成装置的第二生成子单元的结构框图。如图17所示,在一种实施方式中,所述第二生成子单元320包括:
复述获取子单元321,用于在所述待处理文档的文本结构中有标题的情况下,获取与所述标题相关的属性复述;
复述问题生成子单元322,用于根据所述属性复述生成问题。
在一种实施方式中,所述复述获取子单元321还用于:
获取与所述标题相关的搜索点击展现日志;
对所述搜索点击展现日志进行数据挖掘,得到与所述标题相关的属性复述;
将所述属性复述存入属性复述表中。
在一种实施方式中,所述复述问题生成子单元322还用于:
根据所述属性复述,利用第一编码器-解码器模型生成问题;或者,
从所述属性复述表中查询与所述标题相关的属性复述,并根据查询到的所述属性复述生成问题。
参见图16,在一种实施方式中,所述文本类型识别单元100包括第三识别子单元130,所述第三识别子单元130用于:识别所述待处理文档的文本结构中是否有问答结构和标题结构,所述标题结构包括标题或表格;
所述生成模型选择单元200包括第三选择子单元230,所述第三选择子单元230用于:若所述待处理文档的文本结构中没有问答结构且没有标题结构,则将所述自然语言问题生成模型作为与所述文本类型对应的生成模型;
所述问题生成单元300包括第三生成子单元330,所述第三生成子单元330用于:利用所述自然语言问题生成模型针对所述待处理文档生成问题。
在一种实施方式中,所述第三生成子单元330还用于:
利用第二循环神经网络模型,从所述待处理文档中筛选出目标句子,所述目标句子包括语义完整的句子;
利用第三循环神经网络模型,从所述目标句子中选择候选答案片段;
根据所述候选答案片段,利用第二编码器-解码器模型生成问题。
图18为本发明实施例提供的问题生成装置的结构框图。如图18所示,在一种实施方式中,所述装置还包括答案边界定位单元400,用于针对生成的所述问题进行答案边界定位。
在一种实施方式中,所述答案边界定位单元400还用于:
利用双向注意流网络预测所述问题对应的答案片段的起止位置;
利用学习排序模型将所述答案片段排序,根据排序结果对所述问题进行答案边界定位,其中,所述学习排序模型的特征包括所述答案片段的起止位置。
本发明实施例的问题生成装置中各单元的功能可以参见上述方法的相关描述,在此不再赘述。
在一个可能的设计中,问题生成装置的结构中包括处理器和存储器,所述存储器用于存储支持问题生成装置执行上述问题生成方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。所述问题生成装置还可以包括通信接口,问题生成装置与其他设备或通信网络通信。
图19为本发明实施例提供的问题生成装置的结构框图。如图19所示,该装置包括:存储器101和处理器102,存储器101内存储有可在处理器102上运行的计算机程序。所述处理器102执行所述计算机程序时实现上述实施例中的问题生成方法。所述存储器101和处理器102的数量可以为一个或多个。
该装置还包括:
通信接口103,用于与外界设备进行通信,进行数据交互传输。
存储器101可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
如果存储器101、处理器102和通信接口103独立实现,则存储器101、处理器102和通信接口103可以通过总线相互连接并完成相互间的通信。所述总线可以是工业标准体系结构(ISA,Industry Standard Architecture)总线、外部设备互连(PCI,PeripheralComponent)总线或扩展工业标准体系结构(EISA,Extended Industry StandardComponent)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图19中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器101、处理器102及通信接口103集成在一块芯片上,则存储器101、处理器102及通信接口103可以通过内部接口完成相互间的通信。
又一方面,本发明实施例提供了一种计算机可读存储介质,其存储有计算机程序,该程序被处理器执行时实现上述问题生成方法中任一所述的方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行***、装置或设备或结合这些指令执行***、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读存储介质中。所述存储介质可以是只读存储器,磁盘或光盘等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到其各种变化或替换,这些都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (24)
1.一种问题生成方法,其特征在于,包括:
根据文本结构识别待处理文档的文本类型,所述文本类型包括显式FAQ文本类型、结构化和半结构化文本类型,以及自然语言文本类型中的至少一种;
选择与所述文本类型对应的生成模型,所述生成模型包括显式问题生成模型、结构化和半结构化问题生成模型和自然语言问题生成模型中的至少一种;在所述文本类型为显式FAQ文本类型的情况下,将所述显式问题生成模型作为与所述文本类型对应的生成模型;在所述文本类型为结构化和半结构化文本类型的情况下,将所述结构化和半结构化问题生成模型作为与所述文本类型对应的生成模型;在所述文本类型为自然语言文本类型的情况下,将所述自然语言问题生成模型作为与所述文本类型对应的生成模型;
利用选择的所述生成模型针对所述待处理文档生成问题。
2.根据权利要求1所述的方法,其特征在于,
根据文本结构识别待处理文档的文本类型,包括:识别所述待处理文档的文本结构中是否有问答结构;
选择与所述文本类型对应的生成模型,包括:若所述待处理文档的文本结构中有问答结构,则将所述显式问题生成模型作为与所述文本类型对应的生成模型;
利用选择的所述生成模型针对所述待处理文档生成问题,包括:利用所述显式问题生成模型针对所述待处理文档生成问题。
3.根据权利要求2所述的方法,其特征在于,利用所述显式问题生成模型针对所述待处理文档生成问题,包括:
判断所述问答结构中的问题部分和对应的回答部分是否匹配,将匹配成功的所述问答结构对应的部分文本作为候选文本筛选出来;
利用第一循环神经网络模型,对筛选出的所述候选文本进行分类,以从所述候选文本中识别出显式问题;
将所述显式问题作为针对所述待处理文档生成的问题。
4.根据权利要求1所述的方法,其特征在于,
根据文本结构识别待处理文档的文本类型,包括:识别所述待处理文档的文本结构中是否有标题结构,所述标题结构包括标题或表格;
选择与所述文本类型对应的生成模型,包括:若所述待处理文档的文本结构中有标题结构,则将所述结构化和半结构化问题生成模型作为与所述文本类型对应的生成模型;
利用选择的所述生成模型针对所述待处理文档生成问题,包括:利用所述结构化和半结构化问题生成模型针对所述待处理文档生成问题。
5.根据权利要求4所述的方法,其特征在于,利用所述结构化和半结构化问题生成模型针对所述待处理文档生成问题,包括:
在所述待处理文档的文本结构中有标题的情况下,获取与所述标题相关的属性复述;
根据所述属性复述生成问题。
6.根据权利要求5所述的方法,其特征在于,获取与所述标题相关的属性复述,包括:
获取与所述标题相关的搜索点击展现日志;
对所述搜索点击展现日志进行数据挖掘,得到与所述标题相关的属性复述;
将所述属性复述存入属性复述表中。
7.根据权利要求6所述的方法,其特征在于,根据所述属性复述生成问题,包括:
根据所述属性复述,利用第一编码器-解码器模型生成问题;或者,
从所述属性复述表中查询与所述标题相关的属性复述,并根据查询到的所述属性复述生成问题。
8.根据权利要求1所述的方法,其特征在于,
根据文本结构识别待处理文档的文本类型,包括:识别所述待处理文档的文本结构中是否有问答结构和标题结构,所述标题结构包括标题或表格;
选择与所述文本类型对应的生成模型,包括:若所述待处理文档的文本结构中没有问答结构且没有标题结构,则将所述自然语言问题生成模型作为与所述文本类型对应的生成模型;
利用选择的所述生成模型针对所述待处理文档生成问题,包括:利用所述自然语言问题生成模型针对所述待处理文档生成问题。
9.根据权利要求8所述的方法,其特征在于,利用所述自然语言问题生成模型针对所述待处理文档生成问题,包括:
利用第二循环神经网络模型,从所述待处理文档中筛选出目标句子,所述目标句子包括语义完整的句子;
利用第三循环神经网络模型,从所述目标句子中选择候选答案片段;
根据所述候选答案片段,利用第二编码器-解码器模型生成问题。
10.根据权利要求1-9中任一项所述的方法,其特征在于,还包括:针对生成的所述问题进行答案边界定位。
11.根据权利要求10所述的方法,其特征在于,针对生成的所述问题进行答案边界定位,包括:
利用双向注意流网络预测所述问题对应的答案片段的起止位置;
利用学习排序模型将所述答案片段排序,根据排序结果对所述问题进行答案边界定位,其中,所述学习排序模型的特征包括所述答案片段的起止位置。
12.一种问题生成装置,其特征在于,包括:
文本类型识别单元,用于根据文本结构识别待处理文档的文本类型,所述文本类型包括显式FAQ文本类型、结构化和半结构化文本类型,以及自然语言文本类型中的至少一种;
生成模型选择单元,用于选择与所述文本类型对应的生成模型,所述生成模型包括显式问题生成模型、结构化和半结构化问题生成模型和自然语言问题生成模型中的至少一种;在所述文本类型为显式FAQ文本类型的情况下,将所述显式问题生成模型作为与所述文本类型对应的生成模型;在所述文本类型为结构化和半结构化文本类型的情况下,将所述结构化和半结构化问题生成模型作为与所述文本类型对应的生成模型;在所述文本类型为自然语言文本类型的情况下,将所述自然语言问题生成模型作为与所述文本类型对应的生成模型;
问题生成单元,用于利用选择的所述生成模型针对所述待处理文档生成问题。
13.根据权利要求12所述的装置,其特征在于,
所述文本类型识别单元包括第一识别子单元,所述第一识别子单元用于:识别所述待处理文档的文本结构中是否有问答结构;
所述生成模型选择单元包括第一选择子单元,所述第一选择子单元用于:若所述待处理文档的文本结构中有问答结构,则将所述显式问题生成模型作为与所述文本类型对应的生成模型;
所述问题生成单元包括第一生成子单元,所述第一生成子单元用于:利用所述显式问题生成模型针对所述待处理文档生成问题。
14.根据权利要求13所述的装置,其特征在于,所述第一生成子单元还用于:
判断所述问答结构中的问题部分和对应的回答部分是否匹配,将匹配成功的所述问答结构对应的部分文本作为候选文本筛选出来;
利用第一循环神经网络模型,对筛选出的所述候选文本进行分类,以从所述候选文本中识别出显式问题;
将所述显式问题作为针对所述待处理文档生成的问题。
15.根据权利要求12所述的装置,其特征在于,
所述文本类型识别单元包括第二识别子单元,所述第二识别子单元用于:识别所述待处理文档的文本结构中是否有标题结构,所述标题结构包括标题或表格;
所述生成模型选择单元包括第二选择子单元,所述第二选择子单元用于:若所述待处理文档的文本结构中有标题结构,则将所述结构化和半结构化问题生成模型作为与所述文本类型对应的生成模型;
所述问题生成单元包括第二生成子单元,所述第二生成子单元用于:利用所述结构化和半结构化问题生成模型针对所述待处理文档生成问题。
16.根据权利要求15所述的装置,其特征在于,所述第二生成子单元包括:
复述获取子单元,用于在所述待处理文档的文本结构中有标题的情况下,获取与所述标题相关的属性复述;
复述问题生成子单元,用于根据所述属性复述生成问题。
17.根据权利要求16所述的装置,其特征在于,所述复述获取子单元还用于:
获取与所述标题相关的搜索点击展现日志;
对所述搜索点击展现日志进行数据挖掘,得到与所述标题相关的属性复述;
将所述属性复述存入属性复述表中。
18.根据权利要求17所述的装置,其特征在于,所述复述问题生成子单元还用于:
根据所述属性复述,利用第一编码器-解码器模型生成问题;或者,
从所述属性复述表中查询与所述标题相关的属性复述,并根据查询到的所述属性复述生成问题。
19.根据权利要求12所述的装置,其特征在于,
所述文本类型识别单元包括第三识别子单元,所述第三识别子单元用于:识别所述待处理文档的文本结构中是否有问答结构和标题结构,所述标题结构包括标题或表格;
所述生成模型选择单元包括第三选择子单元,所述第三选择子单元用于:若所述待处理文档的文本结构中没有问答结构且没有标题结构,则将所述自然语言问题生成模型作为与所述文本类型对应的生成模型;
所述问题生成单元包括第三生成子单元,所述第三生成子单元用于:利用所述自然语言问题生成模型针对所述待处理文档生成问题。
20.根据权利要求19所述的装置,其特征在于,所述第三生成子单元还用于:
利用第二循环神经网络模型,从所述待处理文档中筛选出目标句子,所述目标句子包括语义完整的句子;
利用第三循环神经网络模型,从所述目标句子中选择候选答案片段;
根据所述候选答案片段,利用第二编码器-解码器模型生成问题。
21.根据权利要求12-20中任一项所述的装置,其特征在于,还包括答案边界定位单元,用于针对生成的所述问题进行答案边界定位。
22.根据权利要求21所述的装置,其特征在于,所述答案边界定位单元还用于:
利用双向注意流网络预测所述问题对应的答案片段的起止位置;
利用学习排序模型将所述答案片段排序,根据排序结果对所述问题进行答案边界定位,其中,所述学习排序模型的特征包括所述答案片段的起止位置。
23.一种问题生成装置,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-11中任一所述的方法。
24.一种计算机可读存储介质,其存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-11中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811641895.1A CN109726274B (zh) | 2018-12-29 | 2018-12-29 | 问题生成方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811641895.1A CN109726274B (zh) | 2018-12-29 | 2018-12-29 | 问题生成方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109726274A CN109726274A (zh) | 2019-05-07 |
CN109726274B true CN109726274B (zh) | 2021-04-30 |
Family
ID=66299312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811641895.1A Active CN109726274B (zh) | 2018-12-29 | 2018-12-29 | 问题生成方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109726274B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553159B (zh) * | 2020-04-24 | 2021-08-06 | 中国科学院空天信息创新研究院 | 一种问句生成方法及*** |
CN113672708A (zh) * | 2020-05-13 | 2021-11-19 | 武汉Tcl集团工业研究院有限公司 | 语言模型训练方法、问答对生成方法、装置及设备 |
CN111858883A (zh) * | 2020-06-24 | 2020-10-30 | 北京百度网讯科技有限公司 | 三元组样本的生成方法、装置、电子设备及存储介质 |
CN111538825B (zh) * | 2020-07-03 | 2020-10-16 | 支付宝(杭州)信息技术有限公司 | 知识问答方法、装置、***、设备及存储介质 |
CN112163076B (zh) * | 2020-09-27 | 2022-09-13 | 北京字节跳动网络技术有限公司 | 知识问题库构建方法、问答处理方法、装置、设备和介质 |
CN112347229B (zh) * | 2020-11-12 | 2021-07-20 | 润联软件***(深圳)有限公司 | 一种答案抽取方法、装置、计算机设备及存储介质 |
CN112487139B (zh) * | 2020-11-27 | 2023-07-14 | 平安科技(深圳)有限公司 | 基于文本的自动出题方法、装置及计算机设备 |
CN112800177B (zh) * | 2020-12-31 | 2021-09-07 | 北京智源人工智能研究院 | 基于复杂数据类型的faq知识库自动生成方法和装置 |
CN112800032B (zh) * | 2021-02-24 | 2021-08-31 | 北京智源人工智能研究院 | 基于表格数据的faq知识库自动构建方法和装置 |
CN113268561B (zh) * | 2021-04-25 | 2021-12-14 | 中国科学技术大学 | 一种基于多任务联合训练的问题生成方法 |
CN114065765A (zh) * | 2021-10-29 | 2022-02-18 | 北京来也网络科技有限公司 | 结合ai和rpa的武器装备文本处理方法、装置及电子设备 |
CN114491152B (zh) * | 2021-12-02 | 2023-10-31 | 南京硅基智能科技有限公司 | 一种摘要视频的生成方法、存储介质、电子装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108363743A (zh) * | 2018-01-24 | 2018-08-03 | 清华大学深圳研究生院 | 一种智能问题生成方法、装置和计算机可读存储介质 |
CN108846130A (zh) * | 2018-06-29 | 2018-11-20 | 北京百度网讯科技有限公司 | 一种问题文本生成方法、装置、设备和介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10503786B2 (en) * | 2015-06-16 | 2019-12-10 | International Business Machines Corporation | Defining dynamic topic structures for topic oriented question answer systems |
-
2018
- 2018-12-29 CN CN201811641895.1A patent/CN109726274B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108363743A (zh) * | 2018-01-24 | 2018-08-03 | 清华大学深圳研究生院 | 一种智能问题生成方法、装置和计算机可读存储介质 |
CN108846130A (zh) * | 2018-06-29 | 2018-11-20 | 北京百度网讯科技有限公司 | 一种问题文本生成方法、装置、设备和介质 |
Non-Patent Citations (2)
Title |
---|
Learning to Ask: Neural Question Generation for Reading Comprehension;Xinya Du 等;《ACL》;20171231;第1342-1352页 * |
Question Generation With Doubly Adversarial Nets;Junwei Bao 等;《IEEE》;20181130;第2230-2239页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109726274A (zh) | 2019-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109726274B (zh) | 问题生成方法、装置及存储介质 | |
CN108363790B (zh) | 用于对评论进行评估的方法、装置、设备和存储介质 | |
CN110399457B (zh) | 一种智能问答方法和*** | |
CN110298033B (zh) | 关键词语料标注训练提取*** | |
CN106649818B (zh) | 应用搜索意图的识别方法、装置、应用搜索方法和服务器 | |
CN107832433B (zh) | 基于对话交互的信息推荐方法、装置、服务器和存储介质 | |
CN108304375B (zh) | 一种信息识别方法及其设备、存储介质、终端 | |
US8335787B2 (en) | Topic word generation method and system | |
CN108959559B (zh) | 问答对生成方法和装置 | |
CN111324771B (zh) | 视频标签的确定方法、装置、电子设备及存储介质 | |
CN104102721A (zh) | 信息推荐方法和装置 | |
CN113806550A (zh) | 个性化知识图谱的生成方法、装置及计算机设备 | |
CN114238573B (zh) | 基于文本对抗样例的信息推送方法及装置 | |
CN111563384A (zh) | 面向电商产品的评价对象识别方法、装置及存储介质 | |
CN110765277A (zh) | 一种基于知识图谱的移动端的在线设备故障诊断平台 | |
CN112256845A (zh) | 意图识别方法、装置、电子设备和计算机可读存储介质 | |
CN109508448A (zh) | 基于长篇文章生成短资讯方法、介质、装置和计算设备 | |
CN112417127A (zh) | 对话模型的训练、对话生成方法、装置、设备及介质 | |
CN112380866A (zh) | 一种文本话题标签生成方法、终端设备及存储介质 | |
CN113704420A (zh) | 文本中的角色识别方法、装置、电子设备及存储介质 | |
CN113282754A (zh) | 针对新闻事件的舆情检测方法、装置、设备和存储介质 | |
Yang et al. | Tour: Dynamic topic and sentiment analysis of user reviews for assisting app release | |
CN109657043B (zh) | 自动生成文章的方法、装置、设备及存储介质 | |
CN111046168B (zh) | 用于生成专利概述信息的方法、装置、电子设备和介质 | |
CN110705285B (zh) | 一种政务文本主题词库构建方法、装置、服务器及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |