CN118152515A - 一种基于大语言模型智能体的多目标任务问答增强方法 - Google Patents

一种基于大语言模型智能体的多目标任务问答增强方法 Download PDF

Info

Publication number
CN118152515A
CN118152515A CN202410279346.3A CN202410279346A CN118152515A CN 118152515 A CN118152515 A CN 118152515A CN 202410279346 A CN202410279346 A CN 202410279346A CN 118152515 A CN118152515 A CN 118152515A
Authority
CN
China
Prior art keywords
target
task
question
processed
answering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410279346.3A
Other languages
English (en)
Inventor
李冬冬
李立江
胡敏
张悦旸
张志勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhongke Ruitu Technology Co ltd
Original Assignee
Beijing Zhongke Ruitu Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhongke Ruitu Technology Co ltd filed Critical Beijing Zhongke Ruitu Technology Co ltd
Priority to CN202410279346.3A priority Critical patent/CN118152515A/zh
Publication of CN118152515A publication Critical patent/CN118152515A/zh
Pending legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及一种基于大语言模型智能体的多目标任务问答增强方法,包括:基于大语言模型智能体,构建多目标任务问答模型;输入待处理目标至多目标任务问答模型的任务分解单元,获得多项任务内容;输入多项任务内容输入至多目标任务问答模型的任务结果获取单元,获得多项任务结果;输入多项任务结果至多目标任务问答模型的目标结果单元,获得对应于待处理目标的目标结果;保存待处理目标、任务内容、任务结果和目标结果至多目标任务问答模型的本地历史库,以便基于本地历史库对多目标任务问答模型的目标结果进行增强。本申请支持多目标复杂任务,将历史上下文和文档知识作为当前问答的先验知识库输入,增强了多目标内容间逻辑性与问答准确性。

Description

一种基于大语言模型智能体的多目标任务问答增强方法
技术领域
本申请涉及大语言模型技术领域,尤其涉及一种基于大语言模型智能体的多目标任务问答增强方法。
背景技术
大语言模型(LLM)不仅能理解很多人类问题和指令,流畅展开多轮对话,也在越来越多领域显示出解决多种通用问题的能力。但想让大语言模型给出精确答案,还需要输入足够精准的prompt。基于大语言模型的智能体(LLMAgent)将大语言模型作为智能体的核心大脑,通过预定义prompt并封装,将复杂任务分解,并在每个子步骤实现自主决策,无需用户参与即可解决问题。但是,目前的LLMAgent仅支持对单一目标的执行,还不能处理多个复杂任务,生成信息存在真实性与逻辑性的问题。
因此,如何使LLMAgent支持多目标复杂任务的执行,并有效提高输出问题答案的真实性、实效性与逻辑性是需要解决的技术问题。
发明内容
本申请意在提供一种基于大语言模型智能体的多目标任务问答增强方法、装置、电子设备和存储介质,所要解决的技术问题通过以下技术方案来实现。
本实施例第一方面,提出了一种基于大语言模型智能体的多目标任务问答增强方法,包括:
获取多个待处理目标;
基于大语言模型智能体,构建多目标任务问答模型;所述多目标任务问答模型的目标处理分支数量与所述待处理目标的数量相对应;
输入所述待处理目标至所述多目标任务问答模型的任务分解单元,获得所述待处理目标的多项任务内容;
输入多项所述任务内容输入至所述多目标任务问答模型的任务结果获取单元,获得对应的多项任务结果;
输入多项所述任务结果至所述多目标任务问答模型的目标结果单元,获得对应于所述待处理目标的目标结果;
保存所述待处理目标、所述任务内容、所述任务结果和所述目标结果至所述多目标任务问答模型的本地历史库,以便基于所述本地历史库对所述多目标任务问答模型的所述目标结果进行增强。
进一步地,所述多目标任务问答模型还包括本地知识库。
进一步地,输入所述待处理目标至所述多目标任务问答模型的任务分解单元还包括输入所述本地历史库的相关历史数据和所述本地知识库的相关知识数据至所述任务分解单元。
进一步地,获得所述待处理目标的多项任务内容,包括:
依据所述待处理目标,分别获得所述相关历史数据和所述相关知识数据;
依据所述相关历史数据、所述相关知识数据和所述待处理目标,基于预定义目标任务分解模板,确定目标任务分解Prompt;其中,所述目标任务分解Prompt包括角色描述、背景描述、约束定义和参考案例;
依据所述目标任务分解Prompt,获得所述待处理目标的多项任务内容。
进一步地,依据所述待处理目标,获得所述相关历史数据,包括:使用相关性搜索算法,查询获得与所述待处理目标的相关性由高到低排序的所述相关历史数据;所述相关性搜索算法包括K-近邻算法。
进一步地,输入多项所述任务内容输入至所述多目标任务问答模型的任务结果获取单元,还包括输入所述相关知识数据至所述任务结果获取单元。
进一步地,输入多项所述任务结果至所述多目标任务问答模型的目标结果单元,获得对应于所述待处理目标的目标结果,包括:
基于预定义目标结果模板,确定目标结果Prompt;
依据所述目标结果Prompt,将多项所述任务结果进行汇总,生成对应于所述待处理目标的所述目标结果。
本实施例第二方面,提出了一种基于大语言模型智能体的多目标任务问答增强装置,包括:
待处理目标获取模块,被配置为获取多个待处理目标;
多目标任务问答模型构建模块,被配置为基于大语言模型智能体,构建多目标任务问答模型;所述多目标任务问答模型的目标处理分支数量与所述待处理目标的数量相对应;
多任务分解模块,被配置为输入所述待处理目标至所述多目标任务问答模型的任务分解单元,获得所述待处理目标的多项任务内容;
多任务结果获取模块,被配置为输入多项所述任务内容输入至所述多目标任务问答模型的任务结果获取单元,获得对应的多项任务结果;
目标结果获取模块,被配置为输入多项所述任务结果至所述多目标任务问答模型的目标结果单元,获得对应于所述待处理目标的目标结果;
本地历史库模块,配置为保存所述待处理目标、所述任务内容、所述任务结果和所述目标结果至所述多目标任务问答模型的本地历史库,以便基于所述本地历史库对所述多目标任务问答模型的所述目标结果进行增强。
本实施例第三方面,提出了一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,所述处理器在执行所述计算机程序时,实现如第一方面所述的基于大语言模型智能体的多目标任务问答增强方法的步骤。
本实施例第四方面,提出了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的基于大语言模型智能体的多目标任务问答增强方法的步骤。
本申请实施例包括以下优点:
本申请实施例提供的基于大语言模型智能体的多目标任务问答增强方法,首先基于大语言模型智能体,构建多目标任务问答模型;输入待处理目标至多目标任务问答模型的任务分解单元,获得多项任务内容;输入多项任务内容输入至多目标任务问答模型的任务结果获取单元,获得多项任务结果;输入多项任务结果至多目标任务问答模型的目标结果单元,获得对应于待处理目标的目标结果;保存待处理目标、任务内容、任务结果和目标结果至多目标任务问答模型的本地历史库,以便基于本地历史库对多目标任务问答模型的目标结果进行增强。本申请支持多目标复杂任务,将历史上下文和文档知识作为当前问答的先验知识库输入,增强了多目标内容间逻辑性与问答准确性。
附图说明
图1是本申请实施例的基于大语言模型智能体的多目标任务问答增强方法流程示意图之一;
图2是本申请实施例的基于大语言模型智能体的多目标任务问答增强方法流程示意图之二;
图3是本申请实施例的基于大语言模型智能体的多目标任务问答增强方法流程示意图之三;
图4是本申请实施例的基于大语言模型智能体的多目标任务问答增强装置结构示意图;
图5是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
如背景技术所述,随着OpenAI大语言模型ChatGPT[1]的成功问世,大语言模型(LLM)不仅能理解很多人类问题和指令,流畅展开多轮对话,也在越来越多领域显示出解决多种通用问题的能力。虽然大语言模型具备了足够的智慧,但想要让它给出精确答案,还需要输入足够精准的prompt。一个掌握prompt的人和一个普通人使用同一个大模型提问问题,得到的答案会有很大区别。因此,基于大语言模型的智能体(LLMAgent)出现,将语言模型作为智能体的核心大脑,通过对prompt的封装,将复杂任务分解,并在每个子步骤实现自主决策,无需用户参与即可解决问题。但是,目前LLMAgent仅支持对单一目标的执行,还不能处理多个复杂任务。此外,由于大模型自身存在的“幻觉问题”,即生成信息存在真实性与逻辑性的问题,因此,LLMAgent产生的结果也存在这些问题。因此,如何使LLMAgent支持多目标复杂任务的执行,并有效提高Agent输出信息的真实性、实效性与逻辑性是LLMAgent所面对的首要问题之一。现有技术方案对于实现复杂目标任务处理,通常采用两种方式:(1)采用多轮对话的方式多次调用大模型,来实现用户使用对同一目标多次输入信息的学习及上下文语义逻辑的理解;但该方法存在效率低下以及输入内容过多导致的大模型返回结果的混乱,同时对复杂任务的理解需要多轮交互才能得到满意结果。(2)采用大模型智能体形式一体式、自主要的对单个目标进行多任务拆分、执行与汇总;但该方法存在不能执行多个复杂目标,并且不能通过多轮问答形式对新知识或者数据进行更新。
因此,本申请实施例针对提升LLMAgent对复杂任务处理能力,以及增强输出信息真实性、实效性与逻辑性,提供新的思路与方法,以实现LLMAgent可支持多目标复杂任务的执行,同时增强LLMAgent对输出信息实效性和逻辑性。
实施例一:
如图1所示,为本申请实施例的一种基于大语言模型智能体的多目标任务问答增强方法流程示意图,上述方法包括:
S101:获取多个待处理目标。
S102:基于大语言模型智能体,构建多目标任务问答模型;所述多目标任务问答模型的目标处理分支数量与所述待处理目标的数量相对应。
S103:输入所述待处理目标至所述多目标任务问答模型的任务分解单元,获得所述待处理目标的多项任务内容。
S104:输入多项所述任务内容输入至所述多目标任务问答模型的任务结果获取单元,获得对应的多项任务结果。
S105:输入多项所述任务结果至所述多目标任务问答模型的目标结果单元,获得对应于所述待处理目标的目标结果。
S106:保存所述待处理目标、所述任务内容、所述任务结果和所述目标结果至所述多目标任务问答模型的本地历史库,以便基于所述本地历史库对所述多目标任务问答模型的所述目标结果进行增强。
在一些实施例中,所述多目标任务问答模型还包括本地知识库。
在一些实施例中,输入所述待处理目标至所述多目标任务问答模型的任务分解单元还包括输入所述本地历史库的相关历史数据和所述本地知识库的相关知识数据至所述任务分解单元。
在一些实施例中,获得所述待处理目标的多项任务内容,如图2所示,包括:
S211:依据所述待处理目标,分别获得所述相关历史数据和所述相关知识数据。
S212:依据所述相关历史数据、所述相关知识数据和所述待处理目标,基于预定义目标任务分解模板,确定目标任务分解Prompt;其中,所述目标任务分解Prompt包括角色描述、背景描述、约束定义和参考案例。
具体地,使用相关文档、历史对话、目标组成特定分解任务Prompt,使用组装的Prompt。在一种实现方式中,Prompt可以采用markdown格式,主要分为四大部分,第一部分设定角色,主要用于设定AI角色,更好的处理专业领域任务;第二部分背景描述,这里主要添加相关文档片段,告诉大模型分解任务的上下文信息;第三部分是限制约束,主要约束输出任务的数量、输出的格式等;第四部分参考案例,这部分会给出部分参考案例。最后,使用组装的Prompt作为system消息,历史对话拼装为Assistant和User的形式,调用大模型分解目标,分解机制在案例中会提供逻辑,查询目标内容、查询目标的其他信息、汇总以上内容完成目标任务,比如:目标是“NBA火箭队的介绍”,提供的案例是:[“查询火箭队的信息”,“查询火箭队的历史战绩”,“编写火箭队的介绍”]。分解后的目标作为子任务,对子任务通过特定的流程,这里特定的流程就是存在顺序,分解任务时任务之间存在先后顺序,之后前面的任务完成,最终的任务才可以完成。
S213:依据所述目标任务分解Prompt,获得所述待处理目标的多项任务内容。
在一些实施例中,依据所述待处理目标,获得所述相关历史数据,包括:使用相关性搜索算法,查询获得与所述待处理目标的相关性由高到低排序的所述相关历史数据;所述相关性搜索算法包括K-近邻算法。
在一些实施例中,输入多项所述任务内容输入至所述多目标任务问答模型的任务结果获取单元,还包括输入所述相关知识数据至所述任务结果获取单元。
在一些实施例中,输入多项所述任务结果至所述多目标任务问答模型的目标结果单元,获得对应于所述待处理目标的目标结果,如图3所示,包括:
S311:基于预定义目标结果模板,确定目标结果Prompt。
S312:依据所述目标结果Prompt,将多项所述任务结果进行汇总,生成对应于所述待处理目标的所述目标结果。
具体地,多目标场景中,将每个目标的任务名称以及任务执行结果,进行向量化存储在本地历史库中,这部分内容只在本次对话中生效。用户输入新目标之后会将上述相似性搜索算法,例如K-近邻演算法查询出相关性较高的任务以及任务结果,交给大模型进行理解。从而增强多目标场景下的相关性。
下面以制定一份去三亚的旅行计划为例对本实施例技术方案效果进行说明。改进前的大语言模型智能体支持单一目标,例如:制定一份去三亚的旅行计划,常规做法是按照[三亚有哪些好玩的地方?]、[三亚适合室内景点有哪些?]、[去三亚的交通有哪些?],这个三个问题需要设定三个目标完成。最后用户自己在汇总信息。改进后的基于大语言模型智能体的模型,可以在一个主题中支持多个目标,例如:只需要在一个主题中将[三亚有哪些好玩的地方?]、[三亚适合室内景点有哪些?]、[去三亚的交通有哪些?]这三个问题在一个主题中完成,同时,最后可以由智能体参考上面三个问题的结果,完成一份完整的出行计划。改进前的模型在目标和目标之间不存在上下关联,例如,在一个主题中通过对话的方式完成北京到三亚旅行计划,我们会问:北京到三亚的航班有哪些?三亚有哪些好玩的地方?三亚的天气如何?最经济的出行方式是什么?几个问题如果没有上下文的理解,会存在任务分解不准确、缺失关键信息等问题。改进后的模型使用历史数据库将目标和目标之间建立关联,例如:使用历史数据之后,继续使用上面的四个问题,输出的结果会存在关联,同时问题理解的准确度会提高很多。
本申请实施例提供的基于大语言模型智能体的多目标任务问答增强方法,首先基于大语言模型智能体,构建多目标任务问答模型;输入待处理目标至多目标任务问答模型的任务分解单元,获得多项任务内容;输入多项任务内容输入至多目标任务问答模型的任务结果获取单元,获得多项任务结果;输入多项任务结果至多目标任务问答模型的目标结果单元,获得对应于待处理目标的目标结果;保存待处理目标、任务内容、任务结果和目标结果至多目标任务问答模型的本地历史库,以便基于本地历史库对多目标任务问答模型的目标结果进行增强。本申请支持多目标复杂任务,将历史上下文和文档知识作为当前问答的先验知识库输入,增强了多目标内容间逻辑性与问答准确性。
实施例二:
图4是本申请实施例提供的一种基于大语言模型智能体的多目标任务问答增强装置的示意图。如图4所示,该基于大语言模型智能体的多目标任务问答增强装置包括:
待处理目标获取模块401,被配置为获取多个待处理目标;
多目标任务问答模型构建模块402,被配置为基于大语言模型智能体,构建多目标任务问答模型;所述多目标任务问答模型的目标处理分支数量与所述待处理目标的数量相对应;
多任务分解模块403,被配置为输入所述待处理目标至所述多目标任务问答模型的任务分解单元,获得所述待处理目标的多项任务内容;
多任务结果获取模块404,被配置为输入多项所述任务内容输入至所述多目标任务问答模型的任务结果获取单元,获得对应的多项任务结果;
目标结果获取模块405,被配置为输入多项所述任务结果至所述多目标任务问答模型的目标结果单元,获得对应于所述待处理目标的目标结果;
本地历史库模块406,配置为保存所述待处理目标、所述任务内容、所述任务结果和所述目标结果至所述多目标任务问答模型的本地历史库,以便基于所述本地历史库对所述多目标任务问答模型的所述目标结果进行增强。
应理解,本说明书实施例的一种基于大语言模型智能体的多目标任务问答增强装置还可执行图1至图3中基于大语言模型智能体的多目标任务问答增强装置执行的方法,并实现基于大语言模型智能体的多目标任务问答增强装置在图1至图3所示实例的功能,在此不再赘述。
同时,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
实施例三:
图5是本申请实施例提供的电子设备5的示意图。如图5所示,该实施例的电子设备5包括:处理器501、存储器502以及存储在该存储器502中并且可在处理器501上运行的计算机程序503。处理器501执行计算机程序503时实现上述各个方法实施例中的步骤。或者,处理器501执行计算机程序503时实现上述各装置实施例中各模块/单元的功能。
电子设备5可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备5可以包括但不仅限于处理器501和存储器502。本领域技术人员可以理解,图5仅仅是电子设备5的示例,并不构成对电子设备5的限定,可以包括比图示更多或更少的部件,或者不同的部件。
存储器502可以是电子设备5的内部存储单元,例如,电子设备5的硬盘或内存。存储器502也可以是电子设备5的外部存储设备,例如,电子设备5上配备的插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器502还可以既包括电子设备5的内部存储单元也包括外部存储设备。存储器502用于存储计算机程序以及电子设备所需的其它程序和数据。
处理器501可以是中央处理单元(CentralProcessing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable GateArray,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。处理器501从非易失性存储器中读取对应的计算机程序到内存中然后运行,在逻辑层面上形成共享资源访问控制装置。处理器,执行存储器所存放的程序,并具体用于执行以下操作:
获取多个待处理目标;
基于大语言模型智能体,构建多目标任务问答模型;所述多目标任务问答模型的目标处理分支数量与所述待处理目标的数量相对应;
输入所述待处理目标至所述多目标任务问答模型的任务分解单元,获得所述待处理目标的多项任务内容;
输入多项所述任务内容输入至所述多目标任务问答模型的任务结果获取单元,获得对应的多项任务结果;
输入多项所述任务结果至所述多目标任务问答模型的目标结果单元,获得对应于所述待处理目标的目标结果;
保存所述待处理目标、所述任务内容、所述任务结果和所述目标结果至所述多目标任务问答模型的本地历史库,以便基于所述本地历史库对所述多目标任务问答模型的所述目标结果进行增强。
上述如本说明书图1至图3所示实施例揭示的基于大语言模型智能体的多目标任务问答增强方法可以应用于处理器501中,或者由处理器501实现。处理器501可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以实现或者执行本说明书实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本说明书实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
当然,除了软件实现方式之外,本说明书实施例的电子设备并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
实施例四:
本说明书实施例还提出了一种计算机可读存储介质,该计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,该指令当被包括多个应用程序的便携式电子设备执行时,能够使该便携式电子设备执行图1至图3所示实施例的基于大语言模型智能体的多目标任务问答增强方法,并具体用于执行以下方法:
获取多个待处理目标;
基于大语言模型智能体,构建多目标任务问答模型;所述多目标任务问答模型的目标处理分支数量与所述待处理目标的数量相对应;
输入所述待处理目标至所述多目标任务问答模型的任务分解单元,获得所述待处理目标的多项任务内容;
输入多项所述任务内容输入至所述多目标任务问答模型的任务结果获取单元,获得对应的多项任务结果;
输入多项所述任务结果至所述多目标任务问答模型的目标结果单元,获得对应于所述待处理目标的目标结果;
保存所述待处理目标、所述任务内容、所述任务结果和所述目标结果至所述多目标任务问答模型的本地历史库,以便基于所述本地历史库对所述多目标任务问答模型的所述目标结果进行增强。
总之,以上该仅为本说明书的较佳实施例而已,并非用于限定本说明书的保护范围。凡在本说明书的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本说明书的保护范围之内。
应该指出,上述详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语均具有与本申请所属技术领域的普通技术人员的通常理解所相同的含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式。此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的术语在适当情况下可以互换,以便这里描述的本申请的实施方式能够以除了在这里图示或描述的那些以外的顺序实施。
此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含。例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为了便于描述,在这里可以使用空间相对术语,如“在……之上”、“在……上方”、“在……上表面”、“上面的”等,用来描述如在图中所示的一个器件或特征与其他器件或特征的空间位置关系。应当理解的是,空间相对术语旨在包含除了器件在图中所描述的方位之外的在使用或操作中的不同方位。例如,如果附图中的器件被倒置,则描述为“在其他器件或构造上方”或“在其他器件或构造之上”的器件之后将被定位为“在其他器件或构造下方”或“在其他器件或构造之下”。因而,示例性术语“在……上方”可以包括“在……上方”和“在……下方”两种方位。该器件也可以其他不同方式定位,如旋转90度或处于其他方位,并且对这里所使用的空间相对描述作出相应解释。
在上面详细的说明中,参考了附图,附图形成本文的一部分。在附图中,类似的符号典型地确定类似的部件,除非上下文以其他方式指明。在详细的说明书、附图及权利要求书中所描述的图示说明的实施方案不意味是限制性的。在不脱离本文所呈现的主题的精神或范围下,其他实施方案可以被使用,并且可以作其他改变。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请保护范围之内。

Claims (10)

1.一种基于大语言模型智能体的多目标任务问答增强方法,其特征在于,包括:
获取多个待处理目标;
基于大语言模型智能体,构建多目标任务问答模型;所述多目标任务问答模型的目标处理分支数量与所述待处理目标的数量相对应;
输入所述待处理目标至所述多目标任务问答模型的任务分解单元,获得所述待处理目标的多项任务内容;
输入多项所述任务内容输入至所述多目标任务问答模型的任务结果获取单元,获得对应的多项任务结果;
输入多项所述任务结果至所述多目标任务问答模型的目标结果单元,获得对应于所述待处理目标的目标结果;
保存所述待处理目标、所述任务内容、所述任务结果和所述目标结果至所述多目标任务问答模型的本地历史库,以便基于所述本地历史库对所述多目标任务问答模型的所述目标结果进行增强。
2.根据权利要求1所述的基于大语言模型智能体的多目标任务问答增强方法,其特征在于,所述多目标任务问答模型还包括本地知识库。
3.根据权利要求2所述的基于大语言模型智能体的多目标任务问答增强方法,其特征在于,输入所述待处理目标至所述多目标任务问答模型的任务分解单元还包括输入所述本地历史库的相关历史数据和所述本地知识库的相关知识数据至所述任务分解单元。
4.根据权利要求3所述的基于大语言模型智能体的多目标任务问答增强方法,其特征在于,获得所述待处理目标的多项任务内容,包括:
依据所述待处理目标,分别获得所述相关历史数据和所述相关知识数据;
依据所述相关历史数据、所述相关知识数据和所述待处理目标,基于预定义目标任务分解模板,确定目标任务分解Prompt;其中,所述目标任务分解Prompt包括角色描述、背景描述、约束定义和参考案例;
依据所述目标任务分解Prompt,获得所述待处理目标的多项任务内容。
5.根据权利要求4所述的基于大语言模型智能体的多目标任务问答增强方法,其特征在于,依据所述待处理目标,获得所述相关历史数据,包括:使用相关性搜索算法,查询获得与所述待处理目标的相关性由高到低排序的所述相关历史数据;所述相关性搜索算法包括K-近邻算法。
6.根据权利要求2所述的基于大语言模型智能体的多目标任务问答增强方法,其特征在于,输入多项所述任务内容输入至所述多目标任务问答模型的任务结果获取单元,还包括输入所述相关知识数据至所述任务结果获取单元。
7.根据权利要求1所述的基于大语言模型智能体的多目标任务问答增强方法,其特征在于,输入多项所述任务结果至所述多目标任务问答模型的目标结果单元,获得对应于所述待处理目标的目标结果,包括:
基于预定义目标结果模板,确定目标结果Prompt;
依据所述目标结果Prompt,将多项所述任务结果进行汇总,生成对应于所述待处理目标的所述目标结果。
8.一种基于大语言模型智能体的多目标任务问答增强装置,其特征在于,包括:
待处理目标获取模块,被配置为获取多个待处理目标;
多目标任务问答模型构建模块,被配置为基于大语言模型智能体,构建多目标任务问答模型;所述多目标任务问答模型的目标处理分支数量与所述待处理目标的数量相对应;
多任务分解模块,被配置为输入所述待处理目标至所述多目标任务问答模型的任务分解单元,获得所述待处理目标的多项任务内容;
多任务结果获取模块,被配置为输入多项所述任务内容输入至所述多目标任务问答模型的任务结果获取单元,获得对应的多项任务结果;
目标结果获取模块,被配置为输入多项所述任务结果至所述多目标任务问答模型的目标结果单元,获得对应于所述待处理目标的目标结果;
本地历史库模块,配置为保存所述待处理目标、所述任务内容、所述任务结果和所述目标结果至所述多目标任务问答模型的本地历史库,以便基于所述本地历史库对所述多目标任务问答模型的所述目标结果进行增强。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器在执行所述计算机程序时,实现如权利要求1至7中任一项所述基于大语言模型智能体的多目标任务问答增强方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述基于大语言模型智能体的多目标任务问答增强方法的步骤。
CN202410279346.3A 2024-03-12 2024-03-12 一种基于大语言模型智能体的多目标任务问答增强方法 Pending CN118152515A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410279346.3A CN118152515A (zh) 2024-03-12 2024-03-12 一种基于大语言模型智能体的多目标任务问答增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410279346.3A CN118152515A (zh) 2024-03-12 2024-03-12 一种基于大语言模型智能体的多目标任务问答增强方法

Publications (1)

Publication Number Publication Date
CN118152515A true CN118152515A (zh) 2024-06-07

Family

ID=91289873

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410279346.3A Pending CN118152515A (zh) 2024-03-12 2024-03-12 一种基于大语言模型智能体的多目标任务问答增强方法

Country Status (1)

Country Link
CN (1) CN118152515A (zh)

Similar Documents

Publication Publication Date Title
Tesch Computer software and qualitative analysis: A reassessment
Bonczek et al. Computer‐based support of organizational decision making
CN108446321B (zh) 一种基于深度学习的自动问答方法
CN117573834B (zh) 一种用于面向软件即服务平台的多机器人对话方法及***
CN115827838A (zh) 基于故事续写和动态知识库的对话生成方法及***
Yuan et al. Llm inference unveiled: Survey and roofline model insights
CN114638236A (zh) 一种智能问答方法、装置、设备及计算机可读存储介质
CN117575008A (zh) 训练样本生成方法、模型训练方法、知识问答方法及设备
CN113590844A (zh) 一种基于知识图谱的问答库生成方法、装置、电子设备和存储介质
CN116910217A (zh) 基于小语言模型集群的自然语言问答方法、装置及介质
CN118152515A (zh) 一种基于大语言模型智能体的多目标任务问答增强方法
Li Three-dimensional path planning of robots in virtual situations based on an improved fruit fly optimization algorithm
CN115409042B (zh) 一种基于思维导图的机器人问答方法及装置
Lawson Economics and explanation
Michie Machines and the theory of intelligence
CN113886427A (zh) 一种对话处理方法、装置及电子设备
CN111897937A (zh) 一种结合rpa和ai的问答方法、***、计算设备及存储介质
CN118093847B (zh) 应答信息生成方法、***、装置、设备、介质及程序产品
CN114330512B (zh) 数据处理方法、装置、电子设备及计算机可读存储介质
Popovic General strategic knowledge models connections and expertise development in product design
CN117708307B (zh) 一种大语言模型微调和Adapter融合方法及装置
Cano et al. Recursive probability trees for Bayesian networks
CN118350359A (zh) 问答数据集生成方法、***、电子设备及存储介质
Anderson et al. Design of a production system for cognitive modeling
Kaula An open intelligent information systems architecture

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination