CN116911312A - 一种任务型对话***及其实现方法 - Google Patents

一种任务型对话***及其实现方法 Download PDF

Info

Publication number
CN116911312A
CN116911312A CN202311168630.5A CN202311168630A CN116911312A CN 116911312 A CN116911312 A CN 116911312A CN 202311168630 A CN202311168630 A CN 202311168630A CN 116911312 A CN116911312 A CN 116911312A
Authority
CN
China
Prior art keywords
target
answer
key information
recall
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311168630.5A
Other languages
English (en)
Other versions
CN116911312B (zh
Inventor
王芳
暴宇健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Xumi Yuntu Space Technology Co Ltd
Original Assignee
Shenzhen Xumi Yuntu Space Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Xumi Yuntu Space Technology Co Ltd filed Critical Shenzhen Xumi Yuntu Space Technology Co Ltd
Priority to CN202311168630.5A priority Critical patent/CN116911312B/zh
Publication of CN116911312A publication Critical patent/CN116911312A/zh
Application granted granted Critical
Publication of CN116911312B publication Critical patent/CN116911312B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本申请涉及人机交互技术领域,提供了一种任务型对话***及其实现方法。该***至少包括关键信息提取模块、候选答案生成模块和答案输出模块;其中,关键信息提取模块,用于对目标问题进行语义理解,以及依据语义理解结果,获取目标问题的关键信息,关键信息至少包括关键词;候选答案生成模块,用于依据关键词,获取对应于目标问题的召回结果,以及基于召回结果,生成候选答案;答案输出模块,用于依据预设排序规则,对候选答案进行排序后,发送目标问题的最终答案至用户。本申请实施例的任务型对话***基于大语言模型构建,无需提前形成知识库,能够有效提高用户问题与答案的匹配程度。

Description

一种任务型对话***及其实现方法
技术领域
本申请涉及人机交互技术领域,尤其涉及一种任务型对话***及其实现方法。
背景技术
任务型对话***能够帮助用户完成特定任务,所以近年来受到学术界和工业界的广泛关注。使用基于任务型对话的智能客服替代人工客服,不受时间和人力资源的限制,随时可以为用户解答相关困惑,已经成为提升服务的重要手段之一。通常,任务型对话通过将积累的问题及答案形成知识库,并结合用户的问题返回知识库中提前设置的答案,这种对话***不需要训练数据而是构建好的知识库。但是,在实际使用中发现,对于同一个答案,用户问题的方式有很多,且问题和答案对应关系在知识库中也无法完全穷举,导致用户的很多问题无法通过预先建立知识库后检索的方式来回答。
因此,如何在不提前形成知识库的情况下构建任务型对话***,通过提高对问题的理解和对答案的生成能力,提升用户问题与答案的匹配程度,是需要解决的技术问题。
发明内容
有鉴于此,本申请实施例提供了一种任务型对话***、其实现方法、电子设备、计算机可读存储介质,以解决现有技术在需要提前形成知识库且用户问题与答案的匹配程度不高的问题。
本申请实施例的第一方面,提供了一种任务型对话***,基于大语言模型构建任务型对话***,所述***至少包括关键信息提取模块、候选答案生成模块和答案输出模块;其中,
所述关键信息提取模块,用于对目标问题进行语义理解,以及依据语义理解结果,获取所述目标问题的关键信息,所述关键信息至少包括关键词;
所述候选答案生成模块,用于依据所述关键词,获取对应于所述目标问题的召回结果,以及基于所述召回结果,生成候选答案;
所述答案输出模块,用于依据预设排序规则,对所述候选答案进行排序后,发送所述目标问题的最终答案至用户。
本申请实施例的第二方面,提供了一种任务型对话***实现方法,适用于第一方面所述的任务型对话***,所述方法包括:
对目标问题进行语义理解,以及依据语义理解结果,获取所述目标问题的关键信息,所述关键信息至少包括关键词;
依据所述关键词,获取对应于所述目标问题的召回结果,以及基于所述召回结果,生成候选答案;
依据预设排序规则,对所述候选答案进行排序后,发送所述目标问题的最终答案至用户。
本申请实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现第二方面所述方法的步骤。
本申请实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现第二方面所述方法的步骤。
本申请实施例与现有技术相比存在的有益效果至少包括:本申请实施例的任务型对话***基于大语言模型构建,至少包括用于对目标问题进行语义理解以及依据语义理解结果获取目标问题的关键信息的关键信息提取模块,用于依据关键词获取对应于目标问题的召回结果以及基于召回结果生成候选答案的候选答案生成模块,以及用于依据预设排序规则对候选答案进行排序后发送目标问题的最终答案至用户的答案输出模块。本申请实施例的任务型对话***基于大语言模型构建,无需提前形成知识库,能够有效提高用户问题与答案的匹配程度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本申请实施例提供的一种任务型对话***的结构示意图之一;
图2是本申请实施例提供的一种任务型对话***中结果排序流程示意图;
图3是本申请实施例提供的一种任务型对话***的结构示意图之二;
图4是本申请实施例提供的一种任务型对话***实现方法流程示意图之一;
图5是本申请实施例提供的一种任务型对话***实现方法流程示意图之二;
图6是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
下面将结合附图详细说明根据本申请实施例的一种任务型对话***及***实现方法、电子设备、计算机存储介质。
如背景技术所述,对话***这种智能且自然的人机交互方式受到了越来越多学术界和工业界的研究人员的关注,具有非常广阔的研究前景,其本身也蕴含着巨大的商业价值。得益于算力的发展和大数据时代带来的庞大数据量,深度学习目前正处于蓬勃发展的阶段,对话***的商业化落地也越来越多。比如电商客服领域中常用到的单轮问答型智能客服***,在提高服务效率的同时,也减轻了商家的成本,促进了电商的发展。而像各大公司相继推出的智能音箱则通常集成了多轮对话***和开放式闲聊***,该类***能与用户流畅的进行对话并完成某项特定任务,如播放音乐等。实现对话***的第一步是考虑如何让计算机可以准确理解人类的自然语言。人类的表述具有多样性,在表述时常存在表述不规范、简写和指代等情况,因此要准确的理解语义信息,对话***需要具备记忆、结合上下文语境和过滤干扰信息等能力。
根据对话形式和任务场景,可以将对话***主要分为两类,一种是面向具体任务的任务型对话***,另一种则是面向单轮或者闲聊的非任务型对话***问。任务型对话***就是帮助用户完成一些常见的任务,通过将操作繁琐、重复性较强的工作交给机器完成,达到解放人力的目的。而非任务型对话***则更像是闲聊或者单轮问答,不属于任务驱动。
主流的任务型对话***实现方法主要有基于管道的方法和基于端到端的方法两种。基于管道方式的任务型对话***是将整个任务型对话***拆分成自然语言理解、对话管理和自然语言生成,也即将用户输入的处理过程视为一条管道流水线,依次经过三个模块进行分析处理后生成最终的***回复。基于端到端的方法是将整个任务型对话***建模成一个模块,接收用户输入,直接生成回复信息,也即该***可以直接学习到用户输入与***回复间的映射关系,通常对于训练数据的质量和数量都有较高的要求。
但无论是基于管道方式还是基于端到端方式,都是需要提前建立答案知识库的。因此,基于对知识库检索的任务型对话***的基本思路是通过对用户输入问题进行语义匹配,从知识库或者文本库中检索到最相关的答案或者文本,然后返回给用户。是检索任务型对话***的实现步骤包括:收集语料库,构建一个包含大量问题和答案的语料库,语料库中的问题和答案应该覆盖尽可能多的领域和话题;预处理语料库,对语料库进行分词、去除停用词、词干化等预处理工作,以便于后续的语义匹配;提取特征,从预处理后的语料库中提取特征,常用的特征包括词袋模型、TF-IDF、词向量等;建立索引,将提取出来的特征建立索引,例如倒排索引;用户输入,用户输入一个问题,对问题进行预处理,例如分词、去除停用词等;匹配问题,将预处理后的问题与语料库中的问题进行语义匹配,可以使用词袋模型、余弦相似度等方式;返回答案,将检索到的答案返回给用户。
但是,检索型对话***存在很多缺点,首先,需要在知识库中预先设定好问题及答案,且需要持续更新问题,很多时候,为了能提升用户问题的答复率,方便用户问题的问题可以和知识库中的问题匹配得上,需要为同一个答案需要配很多不同的问题标题,会造成较大的运维成本。另外,该***只能回答已经存在于语料库中的问题,无法回答超出语料库范围的问题,灵活性较差;且问题的答案是基于业务经验预先设定好的,回答内容单一且固定,用户体验有待提升。
因此,基于以上问题,需要提出了优化的对话***,在理解用户问题的基础上,根据已有的知识文本生成问题的答案,不需要维护问题和答案的知识库,降低运维成本的同时,也可以更好的提升用户问题的答复率及用户体验。
如图1所示,为本申请的一种任务型对话***结构示意图。基于大语言模型构建任务型对话***,上述***至少包括关键信息提取模块101、候选答案生成模块102和答案输出模块103,其中,
关键信息提取模块101,用于对目标问题进行语义理解,以及依据语义理解结果,获取上述目标问题的关键信息,上述关键信息至少包括关键词。
候选答案生成模块102,用于依据上述关键词,获取对应于上述目标问题的召回结果,以及基于上述召回结果,生成候选答案。
答案输出模块103,用于依据预设排序规则,对上述候选答案进行排序后,发送上述目标问题的最终答案至用户。
在一些实施例中,上述大语言模型的结构包括采用文本生成模型结构。应当理解的是,作为任务型对话***的模型结构,采用大语言模型例如T5、GPT-3.5、GPT-4或者PALM-E等模型结构皆可实现本申请实施例的技术特征。下述实施例描述,仅以GPT3.5为例进行说明。大语言模型GPT-3.5是由OpenAI推出的一款自然语言处理模型,采用了海量的数据训练,具有超过1750亿个参数,其在语言理解、生成和推理等方面表现更为出色,其能够进行更加复杂的自然语言处理任务。
在一些实施例中,上述关键信息提取模块101对用户输入的目标问题进行语义理解,包括将上述目标问题输入至上述大语言模型,以便获取上述目标问题的语义理解结果,上述语义理解结果包括主题和意图。
具体地,当用户输入问题后,大语言模型会对问题进行分析并提取关键信息。利用大语言模型GPT-3.5进行语义理解,对问题进行主题分类和意图识别。例如:当用户输入的问题为“如何在线申报公积金提取,有什么注意事项?”,那么,经过大语言模型GPT-3.5提取后,得到问题的主题是“在线公积金提取”,意图是“在线提取公积金注意事项”。
在一些实施例中,上述关键信息提取模块101依据语义理解结果,获取上述目标问题的关键信息,包括:对上述语义理解结果进行自然语言处理,获得上述目标问题的上述关键信息,上述自然语言处理包括词性标注和/或命名实体识别。
具体地,关键词提取是基于对于问题的语义理解解析基础上实现的,提取与问题相关的关键词。使用自然语言处理技术,如词性标注和命名实体识别等,辅助关键词提取。
具体地,词性标注也即语法标注,是将语料库内单词的词性按其含义和上下文内容进行标记的文本数据处理技术。词性标注可以由人工或特定算法完成,可以使用机器学习方法实现词性标注,也是各类基于文本的机器学习任务,例如语义分析的预处理步骤,常见的词性标注算法包括隐马尔可夫模型、条件随机场等。需要说明的是,在本申请实施例中,任意的词性标注算法均符合本申请的技术特征,均在本申请的保护范围之内。
具体地,命名实体识别是信息提取、问答***、句法分析、机器翻译、面向SemanticWeb的元数据标注等应用领域的重要基础工具,一般地,命名实体识别的任务就是识别出待处理文本中三大类,例如实体类、时间类和数字类以及七小类人名、机构名、地名、时间、日期、货币和百分比等命名实体。
在一些实施例中,上述候选答案生成模块102依据上述关键词,获取对应于上述目标问题的召回结果,包括:采用搜索召回模型,依据上述关键词获得与上述目标问题相关的召回结果,上述搜索召回模型包括语义召回模型和/或统计召回模型。
由于搜索主要经历四个阶段即召回、粗排、精排和重排,最后呈现给用户最终的结果。其中,语义召回有人工干预召回、人工构建同义词表进行同义词替换等等。但是相比于深度语义模型,这些技术费时费力,并且覆盖率低下,很难适应快速增长的海量商品的召回需求。基于语义的召回是利用神经网络计算用户输入Query和目标doc之间的语义匹配度,并召回top-k最相关的文档。现有技术的具体做法包括离线经过模型对doc向量化,并通过最近邻建库算法构建向量索引库,在线通过模型对Query进行向量化,召回向量库中相似度最高的多个文档,这种方法虽然能够一定程度上解决Query泛化的问题,但是会因为召回的准确率等问题引入杂质,召回后需要通过语义质量控制杂质问题。除语义召回模型外,也可以用更经典的TF-IDF、BM25等统计召回模型,在本申请实施例中不再赘述。
具体地,在本申请实施例中以向量语义召回为例,获取对应于上述目标问题的召回结果。向量语义召回即给定对话上文问题(Context,Q),检索得到下文答案(Response,A),可以构建Context-ResponsePair对,即采用深度学习的Q塔和深度学习的A塔的双塔模型结构,将Context表示为向量后检索召回索引中相似的历史Context,再使用这些历史Context对应的历史Response作为召回结果。
在一些实施例中,上述候选答案生成模块102基于上述召回结果,生成候选答案,包括基于预设模板,将上述召回结果,输入至上述大语言模型,以便获得多个文本片段作为上述候选答案。
具体地,从检索到的文档中,提取可能包含答案的片段,例如段落、句子等。利用大语言模型GPT-3.5分析和理解文档片段,生成候选答案。例如,给大语言模型GPT-3.5模型输入:“请结合这篇材料‘xxxxxxx’回答用户的这个问题‘yyy’,如果材料不能有效回答该问题,请回答无法作答”。这其中,xxxxxxx为召回的文档材料,即召回结果;yyy为用户问题。GPT-3.5模型会返回自然语言答案。
在一些实施例中,上述答案输出模块103依据预设排序规则,如图2所示,包括:
S211:基于上述候选答案与上述目标问题的相关度,生成对上述候选答案的排序规则;
S212:采用上述大语言模型对上述候选答案进行语义分析,以便获得上述候选答案及对应分数后,依据上述预设排序规则,获得上述最终答案。
具体地,通常对于候选答案的排序规则包括:(1)Pointwise排序模型,即将训练样本转换为的多分类问题或者样本特征-连续值的回归问题。(2)Pairewise排序模型,即将排序问题转换为二元分类问题,接收到用户Query后,返回相关文档列表,确定文档之间的先后顺序关系,转化为多个pair的排序问题。(3)Listwise排序模型,即将每个Query对应的所有搜索结果列表作为一个训练样例,根据训练样例训练得到最优评分函数,对应新的查询,评分函数对每个文档打分,然后根据得分由高到低排序,即为最终的排序结果。需要说明的是,上述排序规则均可以使用实现本申请实施例的排序效果,具体在实施本申请的技术方案时,无论采用何种排序规则,均在本申请实施例的保护范围内。此外,
在一些实施例中,如图3所示,上述任务型对话***还包括:
模型优化更新模块104,用于将用户对上述目标问题和上述最终答案的反馈分析结果对上述大语言模型进行参数在线学习训练和模型参数训练。
具体地,模型优化更新模块104的工作过程可以包括:(1)用户反馈收集,在提供答案后,询问用户是否解决了他们的问题,例如通过“是”和“否”按钮等收集用户对答案质量的评价,例如通过评分、评论等形式。(2)反馈分析,对收集到的用户反馈进行分析,以了解答案质量和用户满意度并识别问题的共性,如答案准确性不足、语义不清晰、答案不完整等;(3)在线学习,将用户反馈后的“满意问题-文档-答案”作为训练数据,对大语言模型GPT-3.5进行在线学习,通过在线学习,使模型能够更好地理解用户需求和问题背景,提高答案质量;(4)模型更新与迭代,定期将线上学习的结果反馈到模型训练,更新大语言模型GPT-3.5,通过不断迭代,使模型能够适应用户需求的变化和新的知识领域。(5)效果评估,对优化后的***进行效果评估,根据评估结果,确定优化策略的有效性和进一步优化的方向。
在一些实施例中,依据对上述最终答案与上述目标问题的相关度的评估结果,确定上述大语言模型的参数量。
具体地,大语言模型均可用来执行构建本实施例的任务型对话***。同时,在选择使用参数规模时,为了确保问题和答案的相关度,所选模型应具有与任务型对话效果需求匹配的参数规模,例如,模型总参数量至少3Billion以上。
本申请实施例的任务型对话***基于大语言模型构建,至少包括用于对目标问题进行语义理解以及依据语义理解结果获取目标问题的关键信息的关键信息提取模块,用于依据关键词获取对应于目标问题的召回结果以及基于召回结果生成候选答案的候选答案生成模块,以及用于依据预设排序规则对候选答案进行排序后发送目标问题的最终答案至用户的答案输出模块。本申请实施例的任务型对话***基于大语言模型构建,无需提前形成知识库,能够有效提高用户问题与答案的匹配程度。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本申请实现方法实施例,对应于实现本申请***实施例。对于本申请方法实施例中未披露的细节,请参照本申请***实施例。
图4是本申请实施例提供的一种任务型对话***实现方法的流程示意图。如图4所示,该任务型对话***实现方法包括:
S401:对目标问题进行语义理解,以及依据语义理解结果,获取上述目标问题的关键信息,上述关键信息至少包括关键词;
S402:依据上述关键词,获取对应于上述目标问题的召回结果,以及基于上述召回结果,生成候选答案;
S403:依据预设排序规则,对上述候选答案进行排序后,发送上述目标问题的最终答案至用户。
图5是本申请实施例提供的一种任务型对话***实现方法另一种实现方式的流程示意图。如图5所示,该任务型对话***实现方法包括:
S404:将用户对上述目标问题和上述最终答案的反馈分析结果对上述大语言模型进行参数在线学习训练和模型参数训练。
图6是本申请实施例提供的电子设备6的示意图。如图6所示,该实施例的电子设备6包括:处理器601、存储器602以及存储在该存储器602中并且可在处理器601上运行的计算机程序603。处理器601执行计算机程序603时实现上述各个方法实施例中的步骤。或者,处理器601执行计算机程序603时实现上述各装置实施例中各模块/单元的功能。
电子设备6可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备6可以包括但不仅限于处理器601和存储器602。本领域技术人员可以理解,图6仅仅是电子设备6的示例,并不构成对电子设备6的限定,可以包括比图示更多或更少的部件,或者不同的部件。
存储器602可以是电子设备6的内部存储单元,例如,电子设备6的硬盘或内存。存储器602也可以是电子设备6的外部存储设备,例如,电子设备6上配备的插接式硬盘,智能存储卡(Smart MediaCard,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器602还可以既包括电子设备6的内部存储单元也包括外部存储设备。存储器602用于存储计算机程序以及电子设备所需的其它程序和数据。
处理器601可以是中央处理单元(CentralProcessing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-ProgrammableGate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。处理器601从非易失性存储器中读取对应的计算机程序到内存中然后运行,在逻辑层面上形成共享资源访问控制装置。处理器,执行存储器所存放的程序,并具体用于执行以下操作:
对目标问题进行语义理解,以及依据语义理解结果,获取上述目标问题的关键信息,上述关键信息至少包括关键词;
依据上述关键词,获取对应于上述目标问题的召回结果,以及基于上述召回结果,生成候选答案;
依据预设排序规则,对上述候选答案进行排序后,发送上述目标问题的最终答案至用户。
上述如本说明书图4至图5所示实施例揭示的任务型对话***可以应用于处理器601中,或者由处理器601实现。处理器601可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以实现或者执行本说明书实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本说明书实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
当然,除了软件实现方式之外,本说明书实施例的电子设备并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
本说明书实施例还提出了一种计算机可读存储介质,该计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,该指令当被包括多个应用程序的便携式电子设备执行时,能够使该便携式电子设备执行图4至图5所示实施例的任务型对话***,并具体用于执行以下方法:
对目标问题进行语义理解,以及依据语义理解结果,获取上述目标问题的关键信息,上述关键信息至少包括关键词;
依据上述关键词,获取对应于上述目标问题的召回结果,以及基于上述召回结果,生成候选答案;
依据预设排序规则,对上述候选答案进行排序后,发送上述目标问题的最终答案至用户。
总之,以上该仅为本说明书的较佳实施例而已,并非用于限定本说明书的保护范围。凡在本说明书的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本说明书的保护范围之内。
上述实施例阐明的***、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitorymedia),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种任务型对话***,其特征在于,基于大语言模型构建任务型对话***,所述***至少包括关键信息提取模块、候选答案生成模块和答案输出模块;其中,
所述关键信息提取模块,用于对目标问题进行语义理解,以及依据语义理解结果,获取所述目标问题的关键信息,所述关键信息至少包括关键词;
所述候选答案生成模块,用于依据所述关键词,获取对应于所述目标问题的召回结果,以及基于所述召回结果,生成候选答案;
所述答案输出模块,用于依据预设排序规则,对所述候选答案进行排序后,发送所述目标问题的最终答案至用户。
2.根据权利要求1所述的***,其特征在于,对用户输入的目标问题进行语义理解,包括将所述目标问题输入至所述大语言模型,以便获取所述目标问题的语义理解结果,所述语义理解结果包括主题和意图;和/或,
依据语义理解结果,获取所述目标问题的关键信息,包括对所述语义理解结果进行自然语言处理,获得所述目标问题的所述关键信息,所述自然语言处理包括词性标注和/或命名实体识别。
3.根据权利要求1所述的***,其特征在于,依据所述关键词,获取对应于所述目标问题的召回结果,包括采用搜索召回模型,依据所述关键词获得与所述目标问题相关的召回结果,所述搜索召回模型包括语义召回模型和/或统计召回模型。
4.根据权利要求3所述的***,其特征在于,基于所述召回结果,生成候选答案,包括基于预设模板,将所述召回结果,输入至所述大语言模型,以便获得多个文本片段作为所述候选答案。
5.根据权利要求1所述的***,其特征在于,依据预设排序规则,包括基于所述候选答案与所述目标问题的相关度,生成对所述候选答案的排序规则;和/或,
采用所述大语言模型对所述候选答案进行语义分析,以便获得所述候选答案及对应分数后,依据所述预设排序规则,获得所述最终答案。
6.根据权利要求1所述的***,其特征在于,还包括模型优化更新模块,用于将用户对所述目标问题和所述最终答案的反馈分析结果对所述大语言模型进行参数在线学习训练和模型参数训练。
7.根据权利要求1至6任一项所述的***,其特征在于,所述大语言模型的结构包括采用文本生成模型结构;以及,依据对所述最终答案与所述目标问题的相关度的评估结果,确定所述大语言模型的参数量。
8.一种任务型对话***实现方法,其特征在于,适用于权利要求1至7任一项所述的任务型对话***,所述方法包括:
对目标问题进行语义理解,以及依据语义理解结果,获取所述目标问题的关键信息,所述关键信息至少包括关键词;
依据所述关键词,获取对应于所述目标问题的召回结果,以及基于所述召回结果,生成候选答案;
依据预设排序规则,对所述候选答案进行排序后,发送所述目标问题的最终答案至用户。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器在执行所述计算机程序时,实现如权利要求8所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求8所述方法的步骤。
CN202311168630.5A 2023-09-12 2023-09-12 一种任务型对话***及其实现方法 Active CN116911312B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311168630.5A CN116911312B (zh) 2023-09-12 2023-09-12 一种任务型对话***及其实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311168630.5A CN116911312B (zh) 2023-09-12 2023-09-12 一种任务型对话***及其实现方法

Publications (2)

Publication Number Publication Date
CN116911312A true CN116911312A (zh) 2023-10-20
CN116911312B CN116911312B (zh) 2024-01-05

Family

ID=88358728

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311168630.5A Active CN116911312B (zh) 2023-09-12 2023-09-12 一种任务型对话***及其实现方法

Country Status (1)

Country Link
CN (1) CN116911312B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117271611A (zh) * 2023-11-21 2023-12-22 中国电子科技集团公司第十五研究所 一种基于大模型的信息检索方法、装置及设备
CN117391824A (zh) * 2023-12-11 2024-01-12 深圳须弥云图空间科技有限公司 基于大语言模型和搜索引擎推荐物品的方法及装置
CN117520786A (zh) * 2024-01-03 2024-02-06 卓世科技(海南)有限公司 基于nlp和循环神经网络的大语言模型构建方法
CN117592489A (zh) * 2023-11-30 2024-02-23 北京快牛智营科技有限公司 一种利用大语言模型实现电商商品信息交互的方法及***
CN117875908A (zh) * 2024-03-08 2024-04-12 蒲惠智造科技股份有限公司 一种基于企业管理软件saas的工单处理方法和***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104573028A (zh) * 2015-01-14 2015-04-29 百度在线网络技术(北京)有限公司 实现智能问答的方法和***
WO2015062482A1 (en) * 2013-11-01 2015-05-07 Tencent Technology (Shenzhen) Company Limited System and method for automatic question answering
CN112650840A (zh) * 2020-12-04 2021-04-13 天津泰凡科技有限公司 一种基于知识图谱推理的医疗智能问答处理方法及***
CN116595150A (zh) * 2023-06-16 2023-08-15 上海微盟企业发展有限公司 一种对话推荐方法、装置、设备及存储介质
CN116628162A (zh) * 2023-05-26 2023-08-22 平安科技(深圳)有限公司 语义问答方法、装置、设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015062482A1 (en) * 2013-11-01 2015-05-07 Tencent Technology (Shenzhen) Company Limited System and method for automatic question answering
CN104573028A (zh) * 2015-01-14 2015-04-29 百度在线网络技术(北京)有限公司 实现智能问答的方法和***
CN112650840A (zh) * 2020-12-04 2021-04-13 天津泰凡科技有限公司 一种基于知识图谱推理的医疗智能问答处理方法及***
CN116628162A (zh) * 2023-05-26 2023-08-22 平安科技(深圳)有限公司 语义问答方法、装置、设备及存储介质
CN116595150A (zh) * 2023-06-16 2023-08-15 上海微盟企业发展有限公司 一种对话推荐方法、装置、设备及存储介质

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117271611A (zh) * 2023-11-21 2023-12-22 中国电子科技集团公司第十五研究所 一种基于大模型的信息检索方法、装置及设备
CN117271611B (zh) * 2023-11-21 2024-02-13 中国电子科技集团公司第十五研究所 一种基于大模型的信息检索方法、装置及设备
CN117592489A (zh) * 2023-11-30 2024-02-23 北京快牛智营科技有限公司 一种利用大语言模型实现电商商品信息交互的方法及***
CN117592489B (zh) * 2023-11-30 2024-05-17 北京快牛智营科技有限公司 一种利用大语言模型实现电商商品信息交互的方法及***
CN117391824A (zh) * 2023-12-11 2024-01-12 深圳须弥云图空间科技有限公司 基于大语言模型和搜索引擎推荐物品的方法及装置
CN117391824B (zh) * 2023-12-11 2024-04-12 深圳须弥云图空间科技有限公司 基于大语言模型和搜索引擎推荐物品的方法及装置
CN117520786A (zh) * 2024-01-03 2024-02-06 卓世科技(海南)有限公司 基于nlp和循环神经网络的大语言模型构建方法
CN117520786B (zh) * 2024-01-03 2024-04-02 卓世科技(海南)有限公司 基于nlp和循环神经网络的大语言模型构建方法
CN117875908A (zh) * 2024-03-08 2024-04-12 蒲惠智造科技股份有限公司 一种基于企业管理软件saas的工单处理方法和***

Also Published As

Publication number Publication date
CN116911312B (zh) 2024-01-05

Similar Documents

Publication Publication Date Title
CN116911312B (zh) 一种任务型对话***及其实现方法
Huq et al. Sentiment analysis on Twitter data using KNN and SVM
KR102288249B1 (ko) 정보 처리 방법, 단말기, 및 컴퓨터 저장 매체
CN111797214A (zh) 基于faq数据库的问题筛选方法、装置、计算机设备及介质
US20130060769A1 (en) System and method for identifying social media interactions
Gkotsis et al. It's all in the content: state of the art best answer prediction based on discretisation of shallow linguistic features
CN110737756B (zh) 确定针对用户输入数据的应答的方法、装置、设备和介质
CN104331449A (zh) 查询语句与网页相似度的确定方法、装置、终端及服务器
CN110765247A (zh) 一种用于问答机器人的输入提示方法及装置
US11809423B2 (en) Method and system for interactive keyword optimization for opaque search engines
Wei et al. Online education recommendation model based on user behavior data analysis
Chandurkar et al. Information retrieval from a structured knowledgebase
Borisov et al. Keyword extraction for improved document retrieval in conversational search
Sarkar et al. NLP algorithm based question and answering system
CN111126073B (zh) 语义检索方法和装置
CN113821588A (zh) 文本处理方法、装置、电子设备及存储介质
CN116049376B (zh) 一种信创知识检索回复的方法、装置和***
Shehata et al. An efficient concept-based retrieval model for enhancing text retrieval quality
CN117033744A (zh) 数据查询方法、装置、存储介质以及电子设备
CN116933782A (zh) 一种电商文本关键词提取处理方法及***
Rezende et al. Combining natural language processing techniques and algorithms LSA, word2vec and WMD for technological forecasting and similarity analysis in patent documents
JP2009211429A (ja) 情報提供方法、情報提供装置、情報提供プログラム、および該プログラムをコンピュータに記録した記録媒体
CN113779981A (zh) 一种基于指针网络和知识图谱的推荐方法及装置
Rybak et al. Machine learning-enhanced text mining as a support tool for research on climate change: theoretical and technical considerations
Kotadiya et al. Advancement of Text Summarization Using Machine Learning and Deep Learning: A Review

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant