CN116541536B - 知识增强的内容生成***、数据生成方法、设备和介质 - Google Patents

知识增强的内容生成***、数据生成方法、设备和介质 Download PDF

Info

Publication number
CN116541536B
CN116541536B CN202310632730.2A CN202310632730A CN116541536B CN 116541536 B CN116541536 B CN 116541536B CN 202310632730 A CN202310632730 A CN 202310632730A CN 116541536 B CN116541536 B CN 116541536B
Authority
CN
China
Prior art keywords
intermediate output
knowledge
input data
sample
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310632730.2A
Other languages
English (en)
Other versions
CN116541536A (zh
Inventor
王海峰
吴华
�田�浩
刘璟
陈艳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202310632730.2A priority Critical patent/CN116541536B/zh
Publication of CN116541536A publication Critical patent/CN116541536A/zh
Application granted granted Critical
Publication of CN116541536B publication Critical patent/CN116541536B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开提供了一种知识增强的内容生成***、数据生成方法、设备和介质,涉及人工智能技术领域,尤其涉及自然语言处理和深度学习等技术领域。该***包括:深度学习大模型,能够仅基于用户的输入数据生成回复数据;知识检索组件,用于基于输入问询提供检索结果。深度学习大模型被配置为:响应于确定用户的第一输入数据包括多个知识点,输出包括第一中间输出数据和第二中间输出数据的多个中间输出数据,第一中间数据和第二中间输出数据分别对应相应的知识点;获得知识检索组件针对多个中间输出数据的多个检索结果,多个检索结果包括分别对应第一中间输出数据和第二中间输出数据的第一检索结果和第二检索结果;基于第一输入数据和检索结果,生成回复。

Description

知识增强的内容生成***、数据生成方法、设备和介质
技术领域
本公开涉及人工智能技术领域,尤其涉及自然语言处理和深度学习等技术领域,具体涉及一种知识增强的内容生成***、基于知识增强的内容生成***的数据生成方法、电子设备、计算机可读存储介质和计算机程序产品。
背景技术
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括自然语言处理技术、计算机视觉技术、语音识别技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
在此部分中描述的方法不一定是之前已经设想到或采用的方法。除非另有指明,否则不应假定此部分中描述的任何方法仅因其包括在此部分中就被认为是现有技术。类似地,除非另有指明,否则此部分中提及的问题不应认为在任何现有技术中已被公认。
发明内容
本公开提供了一种知识增强的内容生成***、基于知识增强的内容生成***的数据生成方法、电子设备、计算机可读存储介质和计算机程序产品。
根据本公开的一方面,提供了一种知识增强的内容生成***,包括:深度学习大模型,深度学习大模型能够仅基于用户的输入数据生成回复数据;以及知识检索组件,用于基于输入问询提供相应的检索结果,其中,深度学习大模型被配置为:响应于确定用户的第一输入数据包括多个知识点,输出包括第一中间输出数据和第二中间输出数据的多个中间输出数据,其中,第一中间数据和第二中间输出数据分别对应多个知识点中相应的知识点;获得知识检索组件针对多个中间输出数据的相应的多个检索结果,其中,多个检索结果包括对应于第一中间输出数据的第一检索结果和对应于第二中间输出数据的第二检索结果;以及基于第一输入数据和多个检索结果,生成回复内容。
根据本公开的另一方面,提供了一种基于知识增强的内容生成***的数据生成方法,内容生成***包括:经训练的大语言模型深度学习大模型,经训练的大语言模型深度学习大模型能够仅基于用户的输入数据生成回复数据;以及知识检索组件,用于基于输入问询提供相应的检索结果,其中,方法包括:将用户的第一输入数据输入经训练的大语言模型深度学习大模型,以得到第一输出数据,其中,响应于大语言模型深度学习大模型确定第一输入数据包括多个知识点,第一输出数据包括多个中间输出数据,多个中间输出数据至少包括第一中间输出数据和第二中间输出数据,其中,第一中间数据和第二中间输出数据分别对应多个知识点中相应的知识点;将多个中间输出数据输入知识检索组件,以获得相应的多个检索结果,其中,多个检索结果包括对应于第一中间输出数据的第一检索结果和对应于第二中间输出数据的第二检索结果;以及将第一输入数据和多个检索结果输入经训练的大语言模型深度学习大模型,以得到回复内容。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中存储器存储有可被至少一个处理器执行的指令,这些指令被至少一个处理器执行,以使至少一个处理器能够执行上述方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行上述方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,其中,计算机程序在被处理器执行时实现上述方法。
根据本公开的一个或多个实施例,本公开利用深度学习大模型对用户的输入数据是否包括需要进行外部检索的多个知识点进行决策判断,并在确定输入数据包括多个知识点的情况下输出与多个知识点对应的多个中间输出数据,进而将这些中间输出数据作为知识检索组件的输入问询以得到与多个知识点对应的多个检索结果,最终利用深度学习大模型处理用户的输入数据和该多个检索结果,以得到针对用户的输入数据的回复内容。
通过上述方式,对自身已经能够执行理解和内容生成等任务的深度学习大模型和内容生成***,进一步实现了知识增强,从而提升了最终生成的回复内容的质量。通过利用深度学习大模型识别并拆分用户的输入数据中的多个知识点,使得内容生成***能够全面且充分地理解用户的输入数据,而通过生成与多个知识点对应的多个输入问询,并利用知识检索组件获取与这些知识点对应的检索结果,最后使用获取到的检索内容辅助深度学习大模型遵循用户的输入数据,能够生成事实准确性高、符合时效性的回复内容。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图示例性地示出了实施例并且构成说明书的一部分,与说明书的文字描述一起用于讲解实施例的示例性实施方式。所示出的实施例仅出于例示的目的,并不限制权利要求的范围。在所有附图中,相同的附图标记指代类似但不一定相同的要素。
图1A示出了根据本公开的实施例的可以在其中实施本文描述的各种方法的示例性***的示意图;
图1B示出了根据本公开的实施例的用户和知识增强的内容生成***进行交互的示意图;
图1C示出了根据本公开的实施例的用户和不具备知识增强的深度学习大模型进行交互的示意图;
图1D示出了根据本公开的实施例的用户和知识检索组件进行交互的示意图;
图2示出了根据本公开的实施例的知识增强的内容生成***的结构框图;
图3示出了根据本公开的实施例的深度学习大模型的训练步骤的流程图;
图4示出了根据本公开的实施例的联合优化训练的流程图;
图5示出了根据本公开的实施例的基于知识增强的内容生成***的数据生成方法的流程图;以及
图6示出了能够用于实现本公开的实施例的示例性电子设备的结构框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在本公开中,除非另有说明,否则使用术语“第一”、“第二”等来描述各种要素不意图限定这些要素的位置关系、时序关系或重要性关系,这种术语只是用于将一个要素与另一要素区分开。在一些示例中,第一要素和第二要素可以指向该要素的同一实例,而在某些情况下,基于上下文的描述,它们也可以指代不同实例。
在本公开中对各种所述示例的描述中所使用的术语只是为了描述特定示例的目的,而并非旨在进行限制。除非上下文另外明确地表明,如果不特意限定要素的数量,则该要素可以是一个也可以是多个。此外,本公开中所使用的术语“和/或”涵盖所列出的项目中的任何一个以及全部可能的组合方式。
相关技术中,内容生成***只能基于它们所训练的语料库中的知识进行生成,无法访问实时的信息。此外,这样的内容生成***还存在知识记忆不准确、生成可控性低的问题。
为解决上述问题,本公开利用深度学习大模型对用户的输入数据是否包括需要进行外部检索的多个知识点进行决策判断,并在确定输入数据包括多个知识点的情况下输出与多个知识点对应的多个中间输出数据,进而将这些中间输出数据作为知识检索组件的输入问询以得到与多个知识点对应的多个检索结果,最终利用深度学习大模型处理用户的输入数据和该多个检索结果,以得到针对用户的输入数据的回复内容。
通过上述方式,对自身已经能够执行理解和内容生成等任务的深度学习大模型和内容生成***,进一步实现了知识增强,从而提升了最终生成的回复内容的质量。通过利用深度学习大模型识别并拆分用户的输入数据中的多个知识点,使得内容生成***能够全面且充分地理解用户的输入数据,而通过生成与多个知识点对应的多个输入问询,并利用知识检索组件获取与这些知识点对应的检索结果,最后使用获取到的检索内容辅助深度学习大模型遵循用户的输入数据,能够生成事实准确性高、符合时效性的回复内容。
下面将结合附图详细描述本公开的实施例。
图1A示出了根据本公开的实施例可以将本文描述的各种方法和装置在其中实施的示例性***100的示意图。参考图1A,该***100包括一个或多个客户端设备101、102、103、104、105和106、服务器120以及将一个或多个客户端设备耦接到服务器120的一个或多个通信网络110。客户端设备101、102、103、104、105和106可以被配置为执行一个或多个应用程序。
在本公开的实施例中,服务器120可以运行使得能够执行本公开的数据生成方法的一个或多个服务或软件应用。在一个示例性实施例中,服务器上可以部署完整的内容生成***,或内容生成***中的部分组件,例如深度学习大模型和知识检索组件中的检索模型。
在某些实施例中,服务器120还可以提供其他服务或软件应用,这些服务或软件应用可以包括非虚拟环境和虚拟环境。在某些实施例中,这些服务可以作为基于web的服务或云服务提供,例如在软件即服务(SaaS)模型下提供给客户端设备101、102、103、104、105和/或106的用户。
在图1A所示的配置中,服务器120可以包括实现由服务器120执行的功能的一个或多个组件。这些组件可以包括可由一个或多个处理器执行的软件组件、硬件组件或其组合。操作客户端设备101、102、103、104、105和/或106的用户可以依次利用一个或多个客户端应用程序来与服务器120进行交互以利用这些组件提供的服务。应当理解,各种不同的***配置是可能的,其可以与***100不同。因此,图1A是用于实施本文所描述的各种方法的***的一个示例,并且不旨在进行限制。
用户可以使用客户端设备101、102、103、104、105和/或106来向内容生成***输入。客户端设备可以提供使客户端设备的用户能够与客户端设备进行交互的接口。客户端设备还可以经由该接口向用户输出信息,例如,可以向用户输出内容生成***针对用户输入所生成的回复。尽管图1A仅描绘了六种客户端设备,但是本领域技术人员将能够理解,本公开可以支持任何数量的客户端设备。
客户端设备101、102、103、104、105和/或106可以包括各种类型的计算机设备,例如便携式手持设备、通用计算机(诸如个人计算机和膝上型计算机)、工作站计算机、可穿戴设备、智能屏设备、自助服务终端设备、服务机器人、游戏***、瘦客户端、各种消息收发设备、传感器或其他感测设备等。这些计算机设备可以运行各种类型和版本的软件应用程序和操作***,例如MICROSOFT Windows、APPLE iOS、类UNIX操作***、Linux或类Linux操作***(例如GOOGLE Chrome OS);或包括各种移动操作***,例如MICROSOFT WindowsMobile OS、iOS、Windows Phone、Android。便携式手持设备可以包括蜂窝电话、智能电话、平板电脑、个人数字助理(PDA)等。可穿戴设备可以包括头戴式显示器(诸如智能眼镜)和其他设备。游戏***可以包括各种手持式游戏设备、支持互联网的游戏设备等。客户端设备能够执行各种不同的应用程序,例如各种与Internet相关的应用程序、通信应用程序(例如电子邮件应用程序)、短消息服务(SMS)应用程序,并且可以使用各种通信协议。
网络110可以是本领域技术人员熟知的任何类型的网络,其可以使用多种可用协议中的任何一种(包括但不限于TCP/IP、SNA、IPX等)来支持数据通信。仅作为示例,一个或多个网络110可以是局域网(LAN)、基于以太网的网络、令牌环、广域网(WAN)、因特网、虚拟网络、虚拟专用网络(VPN)、内部网、外部网、区块链网络、公共交换电话网(PSTN)、红外网络、无线网络(例如蓝牙、WIFI)和/或这些和/或其他网络的任意组合。
服务器120可以包括一个或多个通用计算机、专用服务器计算机(例如PC(个人计算机)服务器、UNIX服务器、中端服务器)、刀片式服务器、大型计算机、服务器群集或任何其他适当的布置和/或组合。服务器120可以包括运行虚拟操作***的一个或多个虚拟机,或者涉及虚拟化的其他计算架构(例如可以被虚拟化以维护服务器的虚拟存储设备的逻辑存储设备的一个或多个灵活池)。在各种实施例中,服务器120可以运行提供下文所描述的功能的一个或多个服务或软件应用。
服务器120中的计算单元可以运行包括上述任何操作***以及任何商业上可用的服务器操作***的一个或多个操作***。服务器120还可以运行各种附加服务器应用程序和/或中间层应用程序中的任何一个,包括HTTP服务器、FTP服务器、CGI服务器、JAVA服务器、数据库服务器等。
在一些实施方式中,服务器120可以包括一个或多个应用程序,以分析和合并从客户端设备101、102、103、104、105和/或106的用户接收的数据馈送和/或事件更新。服务器120还可以包括一个或多个应用程序,以经由客户端设备101、102、103、104、105和/或106的一个或多个显示设备来显示数据馈送和/或实时事件。
在一些实施方式中,服务器120可以为分布式***的服务器,或者是结合了区块链的服务器。服务器120也可以是云服务器,或者是带人工智能技术的智能云计算服务器或智能云主机。云服务器是云计算服务体系中的一项主机产品,以解决传统物理主机与虚拟专用服务器(VPS,Virtual PrivateServer)服务中存在的管理难度大、业务扩展性弱的缺陷。
***100还可以包括一个或多个数据库130。在某些实施例中,这些数据库可以用于存储数据和其他信息。例如,数据库130中的一个或多个可用于存储诸如音频文件和视频文件的信息。数据库130可以驻留在各种位置。例如,由服务器120使用的数据库可以在服务器120本地,或者可以远离服务器120且可以经由基于网络或专用的连接与服务器120通信。数据库130可以是不同的类型。在某些实施例中,由服务器120使用的数据库例如可以是关系数据库。这些数据库中的一个或多个可以响应于命令而存储、更新和检索到数据库以及来自数据库的数据。
在某些实施例中,数据库130中的一个或多个还可以由应用程序使用来存储应用程序数据。由应用程序使用的数据库可以是不同类型的数据库,例如键值存储库,对象存储库或由文件***支持的常规存储库。
图1A的***100可以以各种方式配置和操作,以使得能够应用根据本公开所描述的各种方法和装置。
根据本公开的一个方面,提供了一种知识增强的内容生成***。如图2所示,内容生成***200包括:深度学习大模型210,经训练的大语言模型深度学习大模型能够仅基于用户的输入数据生成回复数据;以及知识检索组件220,用于基于输入问询提供相应的检索结果。深度学习大模型210被配置为:响应于确定用户的第一输入数据包括多个知识点,输出包括第一中间输出数据和第二中间输出数据的多个中间输出数据,其中,第一中间数据和第二中间输出数据分别对应多个知识点中相应的知识点;获得知识检索组件针对多个中间输出数据的相应的多个检索结果,其中,多个检索结果包括对应于第一中间输出数据的第一检索结果和对应于第二中间输出数据的第二检索结果;以及基于第一输入数据和多个检索结果,生成回复内容。
由此,通过上述方式,对自身已经能够执行理解和内容生成等任务的深度学习大模型和内容生成***,进一步实现了知识增强,从而提升了最终生成的回复内容的质量。通过利用深度学习大模型识别并拆分用户的输入数据中的多个知识点,使得内容生成***能够全面且充分地理解用户的输入数据,而通过生成与多个知识点对应的多个输入问询,并利用知识检索组件获取与这些知识点对应的检索结果,最后使用获取到的检索内容辅助深度学习大模型遵循用户的输入数据,能够生成事实准确性高、符合时效性的回复内容。
图1B示出了用户和知识增强的内容生成***150进行交互的示例性实施例。用户的第一输入数据可以为“明天A市和B市哪里更热?”,则该第一输入数据中包括两个知识点,即A市明天气温和B市明天气温。响应于深度学习大模型确定用户的第一输入数据中包括多个知识点,输出包括多个中间输出数据,其中包括第一中间输出数据“A市明天气温是多少”和第二中间输出数据“B市明天气温是多少”。可以看出第一中间输出数据和第二中间输出数据分别对应上面两个知识点。将第一中间输出数据和第二中间输出数据分别作为问询输入到知识检索组件154中,以获得相应的检索结果。对应于第一中间输出结果的检索结果可以是“A市明日气温10-15度”,对应于第二中间输出结果的检索结果可以是“B市明日气温18-25度”。进而,可以将第一输入数据和上述两个检索结果输入到深度学习大模型152中,以得到深度学习大模型152生成的针对第一输入数据的回复内容“A市明天的气温为10-15度,B市明天的气温为18-25度。由此可知,明天B市更热”。
如果没有对上述示例性实施例中的第一输入数据进行知识点识别、拆分和分别检索,而是作为整体直接由不具备知识增强的深度学习大模型160进行处理,则深度学习大模型会基于所训练的语料库中的知识进行回复内容的生成。由于无法访问实时的信息,因此可能会生成过时的回复内容,或向用户提示内容回复***无法生成相应的回复,如图1C所示。并且,深度学习大模型存在知识记忆不准确、生成可控性低的问题,因此生成的回复内容可能会存在事实性错误或质量较低。
此外,考虑到用户的第一输入数据的复杂性,与知识检索组件对应的知识库中可能没有能够直接作为与第一输入数据对应的检索结果的知识内容,因此知识检索组件也无法生成准确的回复内容。在这样的情况下,如果利用知识检索组件170针对第一输入数据进行检索,则得到的检索结果可能与用户的第一输入数据部分相关或者完全不相关,例如,知识检索组件可能会返回A市和B市的气候比较,如图1D所示。即便将这样的检索结果输入到深度学习大模型中,深度学习大模型也无法生成准确的回复内容。
由此可见,深度学习大模型对用户的输入数据中的多个知识点的识别和拆分还能够细化需要利用知识检索组件获取的知识内容的粒度,从而提升从知识检索组件中获取到准确且可用的知识内容的可能性。而通过利用深度学习大模型处理与细化的多个知识点对应的检索结果和用户的输入数据,使得能够充分利用深度学习大模型的理解能力和推理能力以生成准确的回复内容。
在本公开中,深度学习大模型也被称为理解生成统一交互大模型(简称理解生成大模型或统一大模型)。深度学习大模型具有端到端的特性,能够在不借助深度学习大模型之外的功能组件或其他输入的情况下,基于用户的输入数据直接生成回复数据。换句话说,深度学习大模型本身具有生成功能。深度学习大模型可以是大语言模型。大语言模型通常是指拥有数十亿甚至数千亿个参数的深度学习大模型,它们通常在大规模的文本数据或其他模态的数据上进行训练。大语言模型可以用于各种自然语言处理任务,例如文本生成、语言翻译和问答***等。
深度学习大模型例如可以采用具有编码器(Encoder)和解码器(Decoder)的N层Transformer网络结构,或者是统一预训练语言模型(Unified pre-trained LanguageModel,UniLM)网络结构。可以理解的是,深度学习大模型还可以是其他的基于Transformer网络结构的神经网络模型,在此不作限定。深度学习大模型的输入和输出均是由令符(token)构成的。每一个令符可以对应一个单字、字符、词、特殊符号,或与某个外部的组件(例如,知识检索组件)对应,如下文将要描述的。深度学习大模型可以利用预训练任务和生成任务进行训练,以具备上述生成功能。
知识检索组件可以是具有知识检索功能的模型或***,能够基于接收到的输入问询提供相应的检索结果。
根据一些实施例,知识检索组件可以是外部搜索引擎。外部搜索引擎可以是通用的搜索引擎,也可以是领域定制的知识引擎。深度学习大模型生成的中间输出数据例如可以是搜索式,从而可以利用外部搜索引擎基于每一个搜索式进行搜索,以得到与每一个搜索式对应一个或多个搜索结果。这些搜索结果共同构成了从知识检索组件获得的多个检索结果。
根据一些实施例,知识检索组件可以包括知识检索模型和知识库。知识检索模型可以是端到端的基于Transformer结构的大模型,其中可以仅包括单个模型,也可以进一步包括召回模型和排序模型。知识检索模型可以利用预训练任务和检索任务进行训练,以具备知识检索能力。知识库可以是通用知识库,也可以是专业知识库,还可以是私有化的数据库。知识检索模型和知识库还可以具有其他的形式,在此不作限定。
在一些实施例中,知识点可以是用户的第一输入数据中所涉及到的知识内容。例如,“明星A和明星B谁更高?”可以包括两个知识点“明星A的身高”和“明星B的身高”;“A国对B国的贸易额在A国GDP中所占的比重是?”可以包括两个知识点“A国对B国的贸易额”和“A国的GDP”。从用户的输入数据中拆分出的知识点可以涉及新闻、咨询、数据、常识、各领域知识等实体内容,或者涉及有具体答案的问题。通过将与知识点对应的问询(query)输入到知识检索组件中,可以获取到相应的检索结果,即相应的知识内容,从而实现了对内容生成***的知识增强。
根据一些实施例,多个中间输出数据可以包括逐个生成的多个中间输出令符(token),多个中间输出令符可以包括与每一个中间输出数据对应的多个字符令符和用于指示单个中间输出数据已完整输出的分隔令符。多个中间输出数据可以定义为:
Qlist={q1,q2,q3,[sep],..,qn}
其中,qi表示生成结果中的第i个令符(token)结果。为了一次输出多个查询项,我们用特殊标记符号[sep]代表一个完整的中间输出数据已完整输出。当qi=[sep]时,代表一个完整的中间输出数据生成完成。
在一些实施例中,响应于确定用户的第一输入数据包括多个知识点,输出包括第一中间输出数据和第二中间输出数据的多个中间输出数据,包括:确定与将要生成的第N中间输出令符对应的概率分布,其中,与第N中间输出令符对应的概率分布等于第i中间输出概率从i等于2至N的连乘与第一中间输出概率的乘积,第一中间输出概率指示在确定第一输入数据包括多个知识点时,深度学习大模型基于第一输入数据生成第一中间输出令符的概率,第i中间输出概率指示在确定第一输入数据包括多个知识点时,深度学习大模型基于第一输入数据和第i中间输出令符之前的所有中间输出令符生成第i中间输出令符的概率;以及基于与第N中间输出令符对应的概率分布进行采样,以生成第N中间输出令符。
在一些实施例中,第N中间输出令符对应的概率分布可以表示为:
其中,Ssearch表示当前需要调用知识检索组件,Prompt指用户的输入数据。
由此,通过上述方式,能够在生成每一个令符时均完整考虑多个中间输出数据中已生成的部分,从而能够生成更准确的结果。
在一些实施例中,在基于与第N中间输出令符对应的概率分布进行采样时,可以选择具有最大概率的词对应的令符,也可以选择具有最大概率的多个词,还可以采用其他的采样方法,在此不作限定。
需要注意的是,多个中间输出数据是深度学习大模型一次性连续输出的。也就是说,在深度学习大模型输出多个中间输出数据之间,深度学习大模型没有接收其他的输入数据。
在一些实施例中,在输出多个中间输出数据之前,深度学习大模型可以输出指示需要调用知识检索组件的令符。
在一些实施例中,可以将第一输入数据和多个检索结果进行融合(例如,拼接等)。深度学习大模型基于融合结果生成针对用户的输入数据的回复内容。
根据一些实施例,回复内容可以包括逐个生成的多个回复内容令符。多个回复内容令符可以包括与回复内容对应的多个字符令符。
在一些实施例中,基于第一输入数据和多个检索结果,生成回复内容可以包括:确定与将要生成的第N回复内容令符对应的概率分布,其中,与第N回复内容令符对应的概率分布等于第i回复内容概率从i等于1至N的连乘,第i回复内容概率指示深度学习大模型基于第一输入数据、多个检索结果和第i回复内容令符之前的所有回复内容令符生成第i回复内容令符的概率;以及基于与第N回复内容令符对应的概率分布进行采样,以生成第N回复内容令符。
在一些实施例中,第N回复内容令符对应的概率分布可以表示为:
其中,K表示多个知识点,即获取到的多个检索结果,Prompt指用户的输入数据。
由此,通过上述方式,能够在生成与回复内容对应的每一个令符时均完整考虑回复内容中已生成的部分,从而能够生成更准确的结果。
根据一些实施例,内容生成***还可以包括不同于深度学习大模型和知识检索组件的另一组件。基于第一输入数据和多个检索结果,生成回复内容可以包括:响应于确定基于第一输入数据和多个检索结果生成回复内容需要调用另一组件,生成用于调用另一组件的令符以及基于第一输入数据确定的、能够由另一组件识别的中间问询;以及至少基于第一输入数据、多个检索结果和中间结果,生成回复内容,其中,中间结果是由另一组件基于中间问询而确定的。
由此,通过上述方式,对自身已经能够执行理解、知识点拆分、检索问询生成和回复内容生成等任务的深度学习大模型,进一步实现了能力增强,从而提升了最终生成的回复的质量。此外,通过利用深度学习大模型直接生成能够由另一功能组件识别的中间问询,使得中间问询和获取到中间结果能够更贴合用户的输入数据中的潜在意图,从而使得模型能够输出满足用户需求的回复。
在一些实施例中,另一组件例如可以是外部记忆库、应用程序接口等等。这些不同的功能组件各自具有对应的令符(token)。深度学习大模型能够对是否调用这些组件(和/或调用哪一个功能组件)进行决策,而决策结果即体现在深度学习大模型输出的结果中是否包括与调用功能组件对应的令符(和/或结果中具体包括与哪一个功能组件对应的令符)。
在一些实施例中,基于Transformer网络结构的深度学习大模型在进行预测时,模型首先接收初始输入以生成第一个输出令符token_1。进而模型接收token_1,以生成第二个输出令符token_2。重复对深度学习大模型的循环调用,直至模型输出的token_n指示模型输出完毕。模型输出的每一个令符可以与特定的功能组件对应,以体现对是否调用功能组件的决策结果;也可以是特定的标签(markup)形式,以生成能够由特定的功能组件进行识别的中间问询;还可以是具体的单字、字符或词,以生成针对用户输入的回复;另外可以是特殊符号,以指示当前内容已生成完毕。由此,实现了利用模型自动进行决策,以确定接下来需要执行的任务(例如,调用功能组件或生成回复)。
根据一些实施例,另一组件可以是外部记忆库,外部记忆库中可以存储有与用户相关的第一数据组集,并且其中,第一数据组集中的每一个数据组至少可以包括历史输入数据项以及由深度学习大模型针对历史输入数据项生成的历史回复项。
由此,通过设置外部记忆库对用户和内容生成***在长期中的历史对话进行存储,提升了内容生成***的记忆能力,而通过获取与用户输入相关的历史对话,使得深度学习大模型能够参考历史对话以生成用户针对性更强、内容更丰富更具体的回复,从而提高了回复质量,提升了对话的智能性,增强了用户体验。
根据一些实施例,另一组件可以是能够由深度学习大模型调用的至少一个应用程序接口。不同的API各自具有对应的标签(markup)形式,即与用于调用该API的令符。在深度学习大模型预测时,当大模型输出与特定的API对应的令符/标签时,内容生成***便知道需要触发该API。而后,大模型将继续输出能够由该API识别的中间问询(即,用于该API的输入,也可以称为改写后的查询query)。进而,可以基于利用中间问询调用该API而获取到的中间结果确定深度学习大模型的输入,使大模型继续进行预测。
在一些实施例中,内容生成***中所使用的API可以包括科学计算器、表格处理工具、智能家居控制等。由此,通过调用能够执行各类任务API,实现了对内容生成***的能力扩展。通过使用科学计算器等外部功能组件,解决了深度学习大模型逻辑计算能力较弱的问题,提升了内容生成***整体的逻辑推理能力。相比于利用关键词与API调用指令的映射表对API进行调用的方式,利用深度学习大模型直接生成能够由该API识别的中间问询,使得中间问询和获取到中间结果能够更贴合用户的初始输入中的潜在意图,提升了最终生成的回复的质量,增强了***的智能性。此外,通过将理解生成大模型与API结合,能够使内容生成***具备自动化工作执行能力,实现了对深度学习大模型和内容生成***的能力扩展。
根据一些实施例,大模型在确定不需要调用其他组件的情况下,可以直接生成回复内容。基于第一输入数据和多个检索结果,生成回复内容可以包括:响应于确定基于第一输入数据和多个检索结果生成回复内容不需要调用区别于深度学习大模型和知识检索组件的任一组件,直接生成回复内容。
根据一些实施例,如图3所示,深度学习大模型还可以通过如下步骤进行训练:步骤S301、获取第一样本输入数据和与第一样本输入数据对应的多个真实输出数据,第一样本输入数据包括多个第一样本知识点,多个真实输出数据包括第一真实中间输出数据和第二真实中间输出数据,第一真实中间输出数据和第二真实中间输出数据分别对应多个第一样本知识点中相应的第一样本知识点,并且第一真实中间输出数据和第二真实中间输出数据分别能够用于输入知识检索组件以获取与相应的第一样本知识点相关的知识内容;步骤S302、将第一样本输入数据输入待训练的初始深度学习大模型,以获得相应的至少一个预测输出数据;以及步骤S303、基于多个真实输出数据和至少一个预测输出数据,调整初始深度学习大模型的参数,以得到深度学习大模型。
由此,通过上述方式,可以使得经训练的深度学习大模型具有识别和拆分输入数据中的多个知识点的能力。
在步骤S301中,第一样本输入数据例如可以为真实的用户的输入数据,也可以为构造的数据。第一样本输入数据中包括多个第一样本知识点,基于与这些样本知识点对应的知识内容能够得到对第一样本输入数据的回复内容。与第一样本输入数据对应的多个真实输出数据例如可以是人工标注得到的,并且分别对应第一样本输入数据中的多个第一样本知识点。这些真实输出数据能够用于作为问询(query)输入到知识检索组件中,以获取与相应的第一样本知识点相关的知识内容。
在步骤S302中,待训练的初始深度学习大模型基于第一样本输入数据可能不输出用于输入知识检索组件以获取知识内容的预测输出数据,也可能仅生成一个预测输出数据,还可能生成两个或更多预测输出数据。步骤S301-步骤S303的目的即为使经训练的深度学习大模型基于第一样本输入数据能够输出与多个真实输出数据相近甚至完全相同的结果。
在步骤S303中,可以根据预先确定的损失函数,基于多个真实输出数据和至少一个预测输出数据确定损失值,进而基于损失值通过随机梯度下降等方式反向优化初始深度学习大模型的参数。上述损失函数可以根据具体的需求进行确定,在此不作限定。
在一些实施例中,预先确定的损失函数可以包括计算预测输出数据和真实输出数据的匹配值。在一个示例性实施例中,可以基于至少一个预测输出数据中满足与任一真实输出数据完全匹配的输出数据的数量和深度学习大模型生成的预测输出数据的数量计算该匹配值。
根据一些实施例,知识检索模型可以是和深度学习大模型联合优化训练得到的。如图4所示,联合优化训练包括:步骤S401、获取第二样本输入数据和样本输入问询,第二样本输入数据至少包括第二样本知识点,样本输入问询对应第二样本知识点;步骤S402、将样本输入问询输入待联合优化的初始知识检索模型,以获得相应的多个样本检索结果;步骤S403、将多个样本检索结果分别与第二样本输入数据输入深度学习大模型,以得到与多个样本检索结果分别对应的多个样本回复内容;步骤S404、基于预先确定的标准对多个样本回复内容进行评估,并基于评估结果对多个样本检索结果进行标注;以及步骤S405、基于对多个样本检索结果的标注结果,调整初始知识检索模型的参数,以得到知识检索模型。
由此,通过采用上述方式将知识检索模型和深度学习大模型进行联合优化训练,使得经训练的知识检索模型获取到的知识利于深度学习大模型生成更好的回复内容,从而提升了最终得到的回复内容的质量。
在步骤S401,第二样本输入数据可以与上述第一样本输入数据类似,在此不作赘述。样本输入问询例如可以是深度学习大模型基于第一样本输入数据而输出的,也可以是通过其他方式获取的(例如,人工标注),在此不作限定。
在一些实施例中,在步骤S402,可以利用初始知识检索模型确定样本输入问询分别与知识库中的多个候选内容的相关度,进而可以将候选内容中的相关度最高的一定数量的内容作为多个样本搜索结果。在一些实施例中,也可以利用初始指示检索模型确定知识库中的多个候选内容是否与样本输入问询匹配,并将匹配的候选内容作为多个样本搜索结果。
在步骤S403,可以将多个样本检索结果中的每一个与第二样本输入数据融合后输入到深度学习大模型中,以得到对应的样本回复内容。换句话说,可以将多个样本检索结果分别作为检索到的知识内容,并利用深度学习大模型分别基于每一个检索到的知识内容生成样本回复内容。
在步骤S404,可以利用预先确定的标准对分别基于每一个检索到的知识内容生成样本回复内容进行评估,并基于评估结果对多个样本检索结果进行标注。对多个样本检索结果的标注结果能够综合体现对多个样本回复内容的评估结果。例如,评估结果越好的样本回复内容,对应的样本检索结果的得分越高。
根据一些实施例,步骤S404、基于预先确定的标准对多个样本回复内容进行评估,并基于评估结果对多个样本检索结果进行标注可以包括:基于评估结果,对多个样本回复内容进行排序;基于对多个样本回复内容的排序结果,对多个样本检索结果进行标注。
由此,通过上述方式,使得对多个样本检索结果的标注中能够体现对各自对应的样本内容回复的质量的排序结果,而基于这样的标注结果对初始知识检索模型进行训练使得联合优化后的知识检索模型能够提供利于深度学习大模型生成更好的回复内容的知识内容。
在一个示例性实施例,针对第二样本输入数据和对应的样本输入问询,可以从知识检索组件获取两个样本检索结果,并分别基于这两个样本检索结果生成样本回复内容,进而可以将评估结果更优的样本回复内容对应的样本检索结果设置为第2档,将评估结果更劣的样本回复内容对应的样本检索结果设置为第1档。此外,还可以将知识检索组件所认为的与样本输入问询不相关的知识内容设置为第0档。通过这样的标注方式,可以使得标注结果能够更好地反映基于不同样本检索结果生成的样本回复内容的质量差异,从而能够帮助知识检索模型进行训练优化以提供利于深度学习大模型生成更好的回复内容的知识内容。
根据一些实施例,预先判断标准至少可以包括生成内容的准确性和格式。
在一些实施例中,预先判断标准可以包括按照流畅性、多样性、连贯性对回复内容生成结果进行评分,将生成评分的平均分作为该回复内容的可接受度评分。在一个示例性实施例中,评分的范围可以是1-5分。
在步骤S405,可以根据预先确定的损失函数,基于对多个样本检索结果的标注结果确定损失值,进而基于损失值通过随机梯度下降等方式反向优化初始知识检索组件的参数。上述损失函数可以根据具体的需求进行确定,在此不作限定。
根据一些实施例,第一输入数据可以包括来自用户的原始输入数据和原始输入数据的上下文信息。用户的原始输入数据例如可以是用户通过文本、语音输入或其他方式输入的数据。上下文信息可以包括在所获取的用户的原始输入数据之前,用户和内容生成***已发生的多轮对话。
在一些实施例中,上下文信息包括用户在与内容生成***的当前会话中,用户与内容生成***所发生的多轮对话,但不包括用户与内容生成***的历史会话中所发送的对话。换句话说,当用户关闭内容生成***的应用或服务后,上下文信息会相应清除;而当用户再次开启内容生成***的应用或服务后,上下文信息会重新开始记录。
此外,受限于深度学习大模型的输入长度上限,上下文信息通常具有预设的最大可编码长度,记忆能力有限。因此,在用户与内容生成***进行了多轮或内容较长的对话后,上下文信息中的一部分内容可能会被放弃。
根据本公开的另一方面,公开了一种基于知识增强的内容生成***的数据生成方法。内容生成***包括:深度学习大模型,深度学习大模型能够仅基于用户的输入数据生成回复数据;以及知识检索组件,用于基于输入问询提供相应的检索结果。如图5所示,数据生成方法包括:步骤S501、将用户的第一输入数据输入深度学习大模型,以得到第一输出数据,其中,响应于深度学习大模型确定第一输入数据包括多个知识点,第一输出数据包括多个中间输出数据,多个中间输出数据至少包括第一中间输出数据和第二中间输出数据,其中,第一中间数据和第二中间输出数据分别对应多个知识点中相应的知识点;步骤S502、将多个中间输出数据输入知识检索组件,以获得相应的多个检索结果,其中,多个检索结果包括对应于第一中间输出数据的第一检索结果和对应于第二中间输出数据的第二检索结果;以及步骤S503、将第一输入数据和多个检索结果输入深度学习大模型,以得到回复内容。可以理解的是,数据生成方法中的步骤S501-步骤S503的操作可以参照上文中对深度学习大模型210的描述,在此不作赘述。
由此,通过上述方式,对自身已经能够执行理解和内容生成等任务的深度学习大模型和内容生成***,进一步实现了知识增强,从而提升了最终生成的回复内容的质量。通过利用深度学习大模型识别并拆分用户的输入数据中的多个知识点,使得内容生成***能够全面且充分地理解用户的输入数据,而通过生成与多个知识点对应的多个输入问询,并利用知识检索组件获取与这些知识点对应的检索结果,最后使用获取到的检索内容辅助深度学习大模型遵循用户的输入数据,能够生成事实准确性高、符合时效性的回复内容。
根据一些实施例,知识检索组件可以是外部搜索引擎。
根据一些实施例,知识检索组件可以包括知识检索模型和知识库。
根据一些实施例,多个中间输出数据包括逐个生成的多个中间输出令符,多个中间输出令符包括与每一个中间输出数据对应的多个字符令符和用于指示单个中间输出数据已完整输出的分隔令符,其中,深度学习大模型被配置为:确定与将要生成的第N中间输出令符对应的概率分布,其中,与第N中间输出令符对应的概率分布等于第i中间输出概率从i等于2至N的连乘与第一中间输出概率的乘积,第一中间输出概率指示在确定第一输入数据包括多个知识点时,深度学习大模型基于第一输入数据生成第一中间输出令符的概率,第i中间输出概率指示在确定第一输入数据包括多个知识点时,深度学习大模型基于第一输入数据和第i中间输出令符之前的所有中间输出令符生成第i中间输出令符的概率;以及基于与第N中间输出令符对应的概率分布进行采样,以生成第N中间输出令符。
根据一些实施例,回复内容可以包括逐个生成的多个回复内容令符。深度学习大模型可以被配置为:确定与将要生成的第N回复内容令符对应的概率分布,其中,与第N回复内容令符对应的概率分布等于第i回复内容概率从i等于1至N的连乘,第i回复内容概率指示深度学习大模型基于第一输入数据、多个检索结果和第i回复内容令符之前的所有回复内容令符生成第i回复内容令符的概率;以及基于与第N回复内容令符对应的概率分布进行采样,以生成第N回复内容令符。
根据一些实施例,内容生成***还可以包括不同于深度学习大模型和知识检索组件的另一组件。步骤S503、将第一输入数据和多个检索结果输入深度学习大模型,以得到回复内容可以包括:将第一输入数据和多个检索结果输入深度学习大模型,以得到第二输出数据,其中,响应于深度学习大模型确定基于第一输入数据和多个检索结果生成回复内容需要调用另一组件,第三中间输出数据包括用于调用另一组件的令符以及基于第一输入数据确定的、能够由另一组件识别的中间问询;获取由另一组件基于中间问询确定的中间结果;至少将第一输入数据、多个检索结果和中间结果输入深度学习大模型,以得到第三输出数据;以及基于第三输出数据,生成回复内容。可以理解的是,步骤S503的操作与上文中基于第一输入数据和多个检索结果,生成回复内容的操作类似,在此不作赘述。
根据一些实施例,另一组件可以是外部记忆库,外部记忆库中可以存储有与用户相关的第一数据组集,并且其中,第一数据组集中的每一个数据组至少可以包括历史输入数据项以及由深度学习大模型针对历史输入数据项生成的历史回复项。
根据一些实施例,另一组件可以是能够由深度学习大模型调用的至少一个应用程序接口。
根据一些实施例,步骤S503、将第一输入数据和多个检索结果输入深度学习大模型,以得到回复内容可以包括:响应于深度学习大模型确定基于第一输入数据和多个检索结果生成回复内容不需要调用区别于深度学习大模型和知识检索组件的任一组件,直接生成回复内容。
根据一些实施例,深度学习大模型可以是通过如下步骤训练得到的:获取第一样本输入数据和与第一样本输入数据对应的多个真实输出数据,第一样本输入数据包括多个第一样本知识点,多个真实输出数据包括第一中间输出数据和第二中间输出数据,第一中间输出数据和第二中间输出数据分别对应多个第一样本知识点中相应的第一样本知识点,并且第一中间输出数据和第二中间输出数据分别能够用于输入知识检索组件以获取与相应的第一样本知识点相关的知识内容;将第一样本输入数据输入待训练的初始深度学习大模型,以获得相应的至少一个预测输出数据;以及基于多个真实输出数据和至少一个预测输出数据,调整初始深度学习大模型的参数,以得到深度学习大模型。
根据一些实施例,知识检索模型是与深度学习大模型联合优化训练得到的。联合优化训练可以包括:获取第二样本输入数据和样本输入问询,第二样本输入数据至少包括第二样本知识点,样本输入问询对应第二样本知识点;将样本输入问询输入待联合优化的初始知识检索模型,以获得相应的多个样本检索结果;将多个样本检索结果分别与第二样本输入数据输入深度学习大模型,以得到与多个样本检索结果分别对应的多个样本回复内容;基于预先确定的标准对多个样本回复内容进行评估,并基于评估结果对多个样本检索结果进行标注;以及基于对多个样本检索结果的标注结果,调整初始知识检索模型的参数,以得到知识检索模型。
根据一些实施例,基于预先确定的标准对多个样本回复内容进行评估,并基于评估结果对多个样本检索结果进行标注可以包括:基于评估结果,对多个样本回复内容进行排序;基于对多个样本回复内容的排序结果,对多个样本检索结果进行标注。
根据一些实施例,预先判断标准至少可以包括生成内容的准确性和格式。
根据一些实施例,第一输入数据可以包括来自用户的原始输入数据和原始输入数据的上下文信息。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
参考图6,现将描述可以作为本公开的服务器或客户端的电子设备600的结构框图,其是可以应用于本公开的各方面的硬件设备的示例。电子设备旨在表示各种形式的数字电子的计算机设备,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,电子设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM603中,还可存储电子设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
电子设备600中的多个部件连接至I/O接口605,包括:输入单元606、输出单元607、存储单元608以及通信单元609。输入单元606可以是能向电子设备600输入信息的任何类型的设备,输入单元606可以接收输入的数字或字符信息,以及产生与电子设备的用户设置和/或功能控制有关的键信号输入,并且可以包括但不限于鼠标、键盘、触摸屏、轨迹板、轨迹球、操作杆、麦克风和/或遥控器。输出单元607可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。存储单元608可以包括但不限于磁盘、光盘。通信单元609允许电子设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信收发机和/或芯片组,例如蓝牙设备、802.11设备、WiFi设备、WiMax设备、蜂窝通信设备和/或类似物。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如数据生成方法。例如,在一些实施例中,数据生成方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到电子设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的数据生成方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行数据生成方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行、也可以顺序地或以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
虽然已经参照附图描述了本公开的实施例或示例,但应理解,上述的方法、***和设备仅仅是示例性的实施例或示例,本发明的范围并不由这些实施例或示例限制,而是仅由授权后的权利要求书及其等同范围来限定。实施例或示例中的各种要素可以被省略或者可由其等同要素替代。此外,可以通过不同于本公开中描述的次序来执行各步骤。进一步地,可以以各种方式组合实施例或示例中的各种要素。重要的是随着技术的演进,在此描述的很多要素可以由本公开之后出现的等同要素进行替换。

Claims (30)

1.一种知识增强的内容生成***,包括:
深度学习大模型,所述深度学习大模型能够仅基于用户的输入数据生成回复数据;以及
知识检索组件,用于基于输入问询提供相应的检索结果,
其中,所述深度学习大模型被配置为:
响应于确定用户的第一输入数据包括多个知识点,输出包括第一中间输出数据和第二中间输出数据的多个中间输出数据,其中,所述多个中间输出数据包括逐个生成的多个中间输出令符,所述多个中间输出令符中的每一个中间输出令符是基于所述第一输入数据和该中间输出令符之前的已生成的中间输出令符生成的,所述多个中间输出令符包括与每一个中间输出数据对应的多个字符令符和用于指示单个中间输出数据已完整输出的分隔令符,所述第一中间输出数据和所述第二中间输出数据分别对应所述多个知识点中相应的知识点;
获得所述知识检索组件针对所述多个中间输出数据的相应的多个检索结果,其中,所述多个检索结果包括对应于所述第一中间输出数据的第一检索结果和对应于所述第二中间输出数据的第二检索结果;以及
基于所述第一输入数据和所述多个检索结果,生成回复内容。
2.如权利要求1所述的内容生成***,其中,所述响应于确定用户的第一输入数据包括多个知识点,输出包括第一中间输出数据和第二中间输出数据的多个中间输出数据,包括:
确定与将要生成的第N中间输出令符对应的概率分布,其中,与第N中间输出令符对应的概率分布等于第i中间输出概率从i等于2至N的连乘与第一中间输出概率的乘积,第一中间输出概率指示在确定所述第一输入数据包括多个知识点时,所述深度学习大模型基于所述第一输入数据生成第一中间输出令符的概率,第i中间输出概率指示在确定所述第一输入数据包括多个知识点时,所述深度学习大模型基于所述第一输入数据和第i中间输出令符之前的所有中间输出令符生成第i中间输出令符的概率;以及
基于与所述第N中间输出令符对应的概率分布进行采样,以生成所述第N中间输出令符。
3.如权利要求1所述的内容生成***,其中,所述深度学习大模型是大语言模型,所述深度学习大模型是通过如下步骤训练得到的:
获取第一样本输入数据和与所述第一样本输入数据对应的多个真实输出数据,所述第一样本输入数据包括多个第一样本知识点,所述多个真实输出数据包括第一真实中间输出数据和第二真实中间输出数据,所述第一真实中间输出数据和所述第二真实中间输出数据分别对应所述多个第一样本知识点中相应的第一样本知识点,并且所述第一真实中间输出数据和所述第二真实中间输出数据分别能够用于输入所述知识检索组件以获取与相应的第一样本知识点相关的知识内容;
将所述第一样本输入数据输入待训练的初始深度学习大模型,以获得相应的至少一个预测输出数据;以及
基于所述多个真实输出数据和所述至少一个预测输出数据,调整所述初始深度学习大模型的参数,以得到所述深度学习大模型。
4.如权利要求1至3中任一项所述的内容生成***,其中,所述知识检索组件是外部搜索引擎。
5.如权利要求1至3中任一项所述的内容生成***,其中,所述知识检索组件包括知识检索模型和知识库。
6.如权利要求5所述的内容生成***,其中,所述知识检索模型是与所述深度学习大模型联合优化训练得到的,所述联合优化训练包括:
获取第二样本输入数据和样本输入问询,所述第二样本输入数据至少包括第二样本知识点,所述样本输入问询对应所述第二样本知识点;
将所述样本输入问询输入待联合优化的初始知识检索模型,以获得相应的多个样本检索结果;
将所述多个样本检索结果分别与所述第二样本输入数据输入所述深度学习大模型,以得到与所述多个样本检索结果分别对应的多个样本回复内容;
基于预先确定的标准对所述多个样本回复内容进行评估,并基于评估结果对所述多个样本检索结果进行标注;以及
基于对所述多个样本检索结果的标注结果,调整所述初始知识检索模型的参数,以得到所述知识检索模型。
7.如权利要求6所述的内容生成***,其中,基于预先确定的标准对所述多个样本回复内容进行评估,并基于评估结果对所述多个样本检索结果进行标注包括:
基于所述评估结果,对所述多个样本回复内容进行排序;
基于对所述多个样本回复内容的排序结果,对所述多个样本检索结果进行标注。
8.如权利要求6所述的内容生成***,其中,所述预先确定的标准至少包括生成内容的准确性和格式。
9.如权利要求1至3中任一项所述的内容生成***,其中,所述回复内容包括逐个生成的多个回复内容令符,基于所述第一输入数据和所述多个检索结果,生成回复内容包括:
确定与将要生成的第N回复内容令符对应的概率分布,其中,与第N回复内容令符对应的概率分布等于第i回复内容概率从i等于1至N的连乘,第i回复内容概率指示所述深度学习大模型基于所述第一输入数据、所述多个检索结果和第i回复内容令符之前的所有回复内容令符生成第i回复内容令符的概率;以及
基于与所述第N回复内容令符对应的概率分布进行采样,以生成所述第N回复内容令符。
10.如权利要求1至3中任一项所述的内容生成***,其中,所述第一输入数据包括来自用户的原始输入数据和所述原始输入数据的上下文信息。
11.如权利要求1至3中任一项所述的内容生成***,其中,所述内容生成***还包括不同于所述深度学习大模型和所述知识检索组件的另一组件,基于所述第一输入数据和所述多个检索结果,生成回复内容包括:
响应于确定基于所述第一输入数据和所述多个检索结果生成回复内容需要调用所述另一组件,生成用于调用所述另一组件的令符以及基于所述第一输入数据确定的、能够由所述另一组件识别的中间问询;以及
至少基于所述第一输入数据、所述多个检索结果和中间结果,生成所述回复内容,其中,所述中间结果是由所述另一组件基于所述中间问询而确定的。
12.如权利要求11所述的内容生成***,其中,所述另一组件是外部记忆库,所述外部记忆库中存储有与所述用户相关的第一数据组集,并且其中,所述第一数据组集中的每一个数据组至少包括历史输入数据项以及由所述深度学习大模型针对所述历史输入数据项生成的历史回复项。
13.如权利要求11所述的内容生成***,其中,所述另一组件是能够由所述深度学习大模型调用的至少一个应用程序接口。
14.如权利要求11中任一项所述的内容生成***,其中,基于所述第一输入数据和所述多个检索结果,生成回复内容包括:
响应于确定基于所述第一输入数据和所述多个检索结果生成回复内容不需要调用区别于所述深度学习大模型和所述知识检索组件的任一组件,直接生成所述回复内容。
15.一种基于知识增强的内容生成***的数据生成方法,所述内容生成***包括:
深度学习大模型,所述深度学习大模型能够仅基于用户的输入数据生成回复数据;以及
知识检索组件,用于基于输入问询提供相应的检索结果,
其中,所述方法包括:
将用户的第一输入数据输入所述深度学习大模型,以得到第一输出数据,其中,响应于所述深度学习大模型确定所述第一输入数据包括多个知识点,所述第一输出数据包括多个中间输出数据,所述多个中间输出数据至少包括第一中间输出数据和第二中间输出数据,其中,所述多个中间输出数据包括逐个生成的多个中间输出令符,所述多个中间输出令符中的每一个中间输出令符是基于所述第一输入数据和该中间输出令符之前的已生成的中间输出令符生成的,所述多个中间输出令符包括与每一个中间输出数据对应的多个字符令符和用于指示单个中间输出数据已完整输出的分隔令符,所述第一中间输出数据和所述第二中间输出数据分别对应所述多个知识点中相应的知识点;
将所述多个中间输出数据输入所述知识检索组件,以获得相应的多个检索结果,其中,所述多个检索结果包括对应于所述第一中间输出数据的第一检索结果和对应于所述第二中间输出数据的第二检索结果;以及
将所述第一输入数据和所述多个检索结果输入所述深度学习大模型,以得到回复内容。
16.如权利要求15所述的方法,其中,所述深度学习大模型被配置为:
确定与将要生成的第N中间输出令符对应的概率分布,其中,与第N中间输出令符对应的概率分布等于第i中间输出概率从i等于2至N的连乘与第一中间输出概率的乘积,第一中间输出概率指示在确定所述第一输入数据包括多个知识点时,所述深度学习大模型基于所述第一输入数据生成第一中间输出令符的概率,第i中间输出概率指示在确定所述第一输入数据包括多个知识点时,所述深度学习大模型基于所述第一输入数据和第i中间输出令符之前的所有中间输出令符生成第i中间输出令符的概率;以及
基于与所述第N中间输出令符对应的概率分布进行采样,以生成所述第N中间输出令符。
17.如权利要求15所述的方法,其中,所述深度学习大模型是通过如下步骤训练得到的:
获取第一样本输入数据和与所述第一样本输入数据对应的多个真实输出数据,所述第一样本输入数据包括多个第一样本知识点,所述多个真实输出数据包括第一中间输出数据和第二中间输出数据,所述第一中间输出数据和所述第二中间输出数据分别对应所述多个第一样本知识点中相应的第一样本知识点,并且所述第一中间输出数据和所述第二中间输出数据分别能够用于输入所述知识检索组件以获取与相应的第一样本知识点相关的知识内容;
将所述第一样本输入数据输入待训练的初始深度学习大模型,以获得相应的至少一个预测输出数据;以及
基于所述多个真实输出数据和所述至少一个预测输出数据,调整所述初始深度学习大模型的参数,以得到所述深度学习大模型。
18.如权利要求15至17中任一项所述的方法,其中,所述知识检索组件是外部搜索引擎。
19.如权利要求15至17中任一项所述的方法,其中,所述知识检索组件包括知识检索模型和知识库。
20.如权利要求19所述的方法,其中,所述知识检索模型是与所述深度学习大模型联合优化训练得到的,所述联合优化训练包括:
获取第二样本输入数据和样本输入问询,所述第二样本输入数据至少包括第二样本知识点,所述样本输入问询对应所述第二样本知识点;
将所述样本输入问询输入待联合优化的初始知识检索模型,以获得相应的多个样本检索结果;
将所述多个样本检索结果分别与所述第二样本输入数据输入所述深度学习大模型,以得到与所述多个样本检索结果分别对应的多个样本回复内容;
基于预先确定的标准对所述多个样本回复内容进行评估,并基于评估结果对所述多个样本检索结果进行标注;以及
基于对所述多个样本检索结果的标注结果,调整所述初始知识检索模型的参数,以得到所述知识检索模型。
21.如权利要求20所述的方法,其中,基于预先确定的标准对所述多个样本回复内容进行评估,并基于评估结果对所述多个样本检索结果进行标注包括:
基于所述评估结果,对所述多个样本回复内容进行排序;
基于对所述多个样本回复内容的排序结果,对所述多个样本检索结果进行标注。
22.如权利要求20所述的方法,其中,所述预先确定的标准至少包括生成内容的准确性和格式。
23.如权利要求15至17中任一项所述的方法,其中,所述回复内容包括逐个生成的多个回复内容令符,所述深度学习大模型被配置为:
确定与将要生成的第N回复内容令符对应的概率分布,其中,与第N回复内容令符对应的概率分布等于第i回复内容概率从i等于1至N的连乘,第i回复内容概率指示所述深度学习大模型基于所述第一输入数据、所述多个检索结果和第i回复内容令符之前的所有回复内容令符生成第i回复内容令符的概率;以及
基于与所述第N回复内容令符对应的概率分布进行采样,以生成所述第N回复内容令符。
24.如权利要求15至17中任一项所述的方法,其中,所述第一输入数据包括来自用户的原始输入数据和所述原始输入数据的上下文信息。
25.如权利要求15至17中任一项所述的方法,其中,所述内容生成***还包括不同于所述深度学习大模型和所述知识检索组件的另一组件,其中,将所述第一输入数据和所述多个检索结果输入所述深度学习大模型,以得到回复内容包括:
将所述第一输入数据和所述多个检索结果输入所述深度学习大模型,以得到第二输出数据,其中,响应于所述深度学习大模型确定基于所述第一输入数据和所述多个检索结果生成回复内容需要调用所述另一组件,所述第二输出数据包括用于调用所述另一组件的令符以及基于所述第一输入数据确定的、能够由所述另一组件识别的中间问询;
获取由所述另一组件基于所述中间问询确定的中间结果;
至少将所述第一输入数据、所述多个检索结果和所述中间结果输入所述深度学习大模型,以得到第三输出数据;以及
基于所述第三输出数据,生成所述回复内容。
26.如权利要求25所述的方法,其中,所述另一组件是外部记忆库,所述外部记忆库中存储有与所述用户相关的第一数据组集,并且其中,所述第一数据组集中的每一个数据组至少包括历史输入数据项以及由所述深度学习大模型针对所述历史输入数据项生成的历史回复项。
27.如权利要求25所述的方法,其中,所述另一组件是能够由所述深度学习大模型调用的至少一个应用程序接口。
28.如权利要求25中任一项所述的方法,其中,将所述第一输入数据和所述多个检索结果输入所述深度学习大模型,以得到回复内容包括:
响应于所述深度学习大模型确定基于所述第一输入数据和所述多个检索结果生成回复内容不需要调用区别于所述深度学习大模型和所述知识检索组件的任一组件,直接生成所述回复内容。
29.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求15-28中任一项所述的方法。
30.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行根据权利要求15-28中任一项所述的方法。
CN202310632730.2A 2023-05-30 2023-05-30 知识增强的内容生成***、数据生成方法、设备和介质 Active CN116541536B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310632730.2A CN116541536B (zh) 2023-05-30 2023-05-30 知识增强的内容生成***、数据生成方法、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310632730.2A CN116541536B (zh) 2023-05-30 2023-05-30 知识增强的内容生成***、数据生成方法、设备和介质

Publications (2)

Publication Number Publication Date
CN116541536A CN116541536A (zh) 2023-08-04
CN116541536B true CN116541536B (zh) 2024-03-01

Family

ID=87450678

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310632730.2A Active CN116541536B (zh) 2023-05-30 2023-05-30 知识增强的内容生成***、数据生成方法、设备和介质

Country Status (1)

Country Link
CN (1) CN116541536B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116842126B (zh) * 2023-08-29 2023-12-19 青岛网信信息科技有限公司 一种利用llm实现知识库精准输出的方法、介质及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299133A (zh) * 2017-07-24 2019-02-01 迅讯科技(北京)有限公司 数据查询方法、计算机***及非暂时性计算机可读介质
CN114020896A (zh) * 2021-11-26 2022-02-08 中国银行股份有限公司 一种智能问答方法、***、电子设备及存储介质
US20230083443A1 (en) * 2021-09-16 2023-03-16 Evgeny Saveliev Detecting anomalies in physical access event streams by computing probability density functions and cumulative probability density functions for current and future events using plurality of small scale machine learning models and historical context of events obtained from stored event stream history via transformations of the history into a time series of event counts or via augmenting the event stream records with delay/lag information
CN115952274A (zh) * 2023-03-10 2023-04-11 北京百度网讯科技有限公司 基于深度学习模型的数据生成方法、训练方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299133A (zh) * 2017-07-24 2019-02-01 迅讯科技(北京)有限公司 数据查询方法、计算机***及非暂时性计算机可读介质
US20230083443A1 (en) * 2021-09-16 2023-03-16 Evgeny Saveliev Detecting anomalies in physical access event streams by computing probability density functions and cumulative probability density functions for current and future events using plurality of small scale machine learning models and historical context of events obtained from stored event stream history via transformations of the history into a time series of event counts or via augmenting the event stream records with delay/lag information
CN114020896A (zh) * 2021-11-26 2022-02-08 中国银行股份有限公司 一种智能问答方法、***、电子设备及存储介质
CN115952274A (zh) * 2023-03-10 2023-04-11 北京百度网讯科技有限公司 基于深度学习模型的数据生成方法、训练方法和装置

Also Published As

Publication number Publication date
CN116541536A (zh) 2023-08-04

Similar Documents

Publication Publication Date Title
CN116303962B (zh) 对话生成方法、深度学习模型的训练方法、装置和设备
CN115952274B (zh) 基于深度学习模型的数据生成方法、训练方法和装置
CN116501960B (zh) 内容检索方法、装置、设备及介质
CN116521841B (zh) 用于生成回复信息的方法、装置、设备及介质
CN114611532B (zh) 语言模型训练方法及装置、目标翻译错误检测方法及装置
US20240104154A1 (en) Ranking of recall data
CN116541536B (zh) 知识增强的内容生成***、数据生成方法、设备和介质
CN114443989B (zh) 排序方法、排序模型的训练方法、装置、电子设备及介质
CN115114424A (zh) 查询请求的应答方法及装置
CN116841506B (zh) 程序代码生成方法及装置、模型训练方法及装置
CN115862031B (zh) 文本处理方法、神经网络的训练方法、装置和设备
CN115879469B (zh) 文本数据处理方法、模型训练方法、装置及介质
CN114219046B (zh) 模型训练方法、匹配方法、装置、***、电子设备和介质
CN114547270B (zh) 文本处理方法、文本处理模型的训练方法、装置和设备
CN115964462A (zh) 对话内容处理方法、对话理解模型的训练方法和装置
CN115809364B (zh) 对象推荐方法和模型训练方法
CN115713071B (zh) 用于处理文本的神经网络的训练方法和处理文本的方法
CN114861658B (zh) 地址信息解析方法及装置、设备和介质
CN115879468B (zh) 基于自然语言理解的文本要素提取方法、装置和设备
CN117992675A (zh) 内容推荐方法、装置、电子设备及存储介质
CN117291191A (zh) 文本处理方法及装置、设备和介质
CN118195010A (zh) 用于生成回复文本的方法、装置、设备及介质
CN114611526A (zh) 实体链接方法及装置、设备和介质
CN116860328A (zh) 生成指令数据的方法、装置、设备和介质
CN115617968A (zh) 对话方法及装置、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant