CN117313837A - 一种基于联邦学习的大模型提示学习方法以及装置 - Google Patents

一种基于联邦学习的大模型提示学习方法以及装置 Download PDF

Info

Publication number
CN117313837A
CN117313837A CN202311342438.3A CN202311342438A CN117313837A CN 117313837 A CN117313837 A CN 117313837A CN 202311342438 A CN202311342438 A CN 202311342438A CN 117313837 A CN117313837 A CN 117313837A
Authority
CN
China
Prior art keywords
network
prompt
initial
parameter adjustment
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311342438.3A
Other languages
English (en)
Inventor
陈超超
冯晓华
郑小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202311342438.3A priority Critical patent/CN117313837A/zh
Publication of CN117313837A publication Critical patent/CN117313837A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例提供一种基于联邦学习的大模型提示学习方法以及装置,其中方法应用于客户端,包括:获取初始模型和训练样本,其中,初始模型包括骨干网络和初始提示网络;根据训练样本和初始提示网络,生成样本提示信息,其中,样本提示信息用于在模型训练过程中,引导骨干网络的学习方向;基于训练样本和样本提示信息,获取骨干网络的处理结果,并根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端;根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,获得目标模型。通过聚合参数调节信息调整初始提示网络的网络参数获得的提示网络,能够根据训练样本生成准确的提示信息,提高模型的任务泛化能力。

Description

一种基于联邦学习的大模型提示学习方法以及装置
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种基于联邦学习的大模型提示学习方法以及装置、计算设备和计算机可读存储介质。
背景技术
在深度学习与大数据技术发展的过程中,效果好的模型往往具有较大的规模和复杂的结构,训练数据量大、模型收敛所需训练时间很长、计算效率与资源使用方面开销很大。并且,根据通用预训练集训练得到的预训练模型,无法满足用户的个性化任务需求,对个性化任务的执行效果较差,还需要根据用户提供的训练数据或者专门针对特定用户需求生成的训练数据,对预训练模型进行进一步训练。
然而,通过上述方式训练得到的大型模型,往往只适用于处理用户预先定义了任务规范的特定任务。完成训练后得到的大型模型通常仅在处理特定任务时效果较好,而泛用性较差,无法应对类型多样化的下游任务。并且,通过上述模型训练方式,无法对没有明确定义规范的任务进行训练,模型的任务泛化能力差,训练成本高。
发明内容
有鉴于此,本申请实施例提供了一种基于联邦学习的大模型提示学习方法。本申请一个或者多个实施例同时涉及一种基于联邦学习的大模型提示学习装置,一种计算设备,一种计算机可读存储介质以及一种计算机程序,以解决现有技术中存在的技术缺陷。
根据本申请实施例的第一方面,提供了一种基于联邦学习的大模型提示学习方法,应用于客户端,其中,方法包括:
获取初始模型和训练样本,其中,初始模型包括骨干网络和初始提示网络;
根据训练样本和初始提示网络,生成样本提示信息,其中,样本提示信息用于在模型训练过程中,引导骨干网络的学习方向;
基于训练样本和样本提示信息,获取骨干网络的处理结果,并根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端;
根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,获得目标模型,其中,聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得。
根据本申请实施例的第二方面,提供了一种基于联邦学习的大模型提示学习方法,应用于服务端,其中,方法包括:
接收至少一个客户端上传的针对初始提示网络的参数调节信息,其中,初始提示网络用于在模型训练过程中,生成用于引导骨干网络的学习方向的样本提示信息;
聚合至少一个客户端上传的参数调节信息,获得聚合参数调节信息;
将聚合参数调节信息发送至至少一个客户端,其中,聚合参数调节信息用于客户端调整初始提示网络的网络参数获得目标模型。
根据本申请实施例的第三方面,提供了一种任务处理方法,应用于服务端,其中,方法包括:
接收待处理任务,其中,待处理任务携带输入文本;
将输入文本输入任务处理模型,获得输入文本的文本处理结果;
其中,任务处理模型包括提示网络和骨干网络,提示网络用于根据输入文本,生成用于引导骨干网络的学习方向的目标提示信息;骨干网络用于根据提示信息和输入文本,生成输入文本的文本处理结果;提示网络基于聚合参数调节信息训练获得,聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得,参数调节信息为客户端通过骨干网络对训练样本和样本提示信息处理获得,样本提示信息为通过初始提示网络对训练样本处理获得。
根据本申请实施例的第四方面,提供了一种基于联邦学习的大模型提示学习装置,配置于客户端,其中,装置包括:
获取模块,被配置为获取初始模型和训练样本,其中,初始模型包括骨干网络和初始提示网络;
生成模块,被配置为根据训练样本和初始提示网络,生成样本提示信息,其中,样本提示信息用于在模型训练过程中,引导骨干网络的学习方向;
上传模块,被配置为基于训练样本和样本提示信息,获取骨干网络的处理结果,并根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端;
调整模块,被配置为根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,获得目标模型,其中,聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得。
根据本申请实施例的第五方面,提供了一种基于联邦学习的大模型提示学习装置,配置于服务端,其中,装置包括:
第一接收模块,被配置为接收至少一个客户端上传的针对初始提示网络的参数调节信息,其中,初始提示网络用于在模型训练过程中,生成用于引导骨干网络的学习方向的样本提示信息;
聚合模块,被配置为聚合至少一个客户端上传的参数调节信息,获得聚合参数调节信息;
发送模块,被配置为将聚合参数调节信息发送至至少一个客户端,其中,聚合参数调节信息用于客户端调整初始提示网络的网络参数获得目标模型。
根据本申请实施例的第六方面,提供了一种任务处理装置,配置于客户端,其中,装置包括:
第二接收模块,被配置为接收待处理任务,其中,待处理任务携带输入文本;
输入模块,被配置为将输入文本输入任务处理模型,获得输入文本的文本处理结果;
其中,任务处理模型包括提示网络和骨干网络,提示网络用于根据输入文本,生成用于引导骨干网络的学习方向的目标提示信息;骨干网络用于根据提示信息和输入文本,生成输入文本的文本处理结果;提示网络基于聚合参数调节信息训练获得,聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得,参数调节信息为客户端通过骨干网络对训练样本和样本提示信息处理获得,样本提示信息为通过初始提示网络对训练样本处理获得。
根据本申请实施例的第七方面,提供了一种计算设备,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,该计算机可执行指令被处理器执行时实现上述方法的步骤。
根据本申请实施例的第八方面,提供了一种计算机可读存储介质,其存储有计算机可执行指令,该指令被处理器执行时实现上述方法的步骤。
根据本申请实施例的第九方面,提供了一种计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行上述方法的步骤。
本申请提供的一个实施例,获取初始模型和训练样本,其中,初始模型包括骨干网络和初始提示网络;根据训练样本和初始提示网络,生成样本提示信息,其中,样本提示信息用于在模型训练过程中,引导骨干网络的学习方向;基于训练样本和样本提示信息,获取骨干网络的处理结果,并根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端;根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,获得目标模型,其中,聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得。
如此,通过获取初始模型和训练样本,根据训练样本和初始提示网络生成样本提示信息,可以获得针对训练样本生成的软提示信息,而不是根据指定任务需求生成的硬提示信息,提高提示网络对不同类型任务的适应能力,通过基于训练样本和样本提示信息,获取骨干网络的处理结果,能够使骨干网络根据样本提示信息的引导,获得更加准确的处理结果,从而提高处理结果的准确性,通过根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端,根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,能够实现通过至少一个客户端上传的参数调节信息,对各个客户端的初始提示网络进行基于联邦学习的参数调整,提高针对初始提示网络的训练效率和训练效果,使得完成训练的提示网络能够根据客户端的输入数据生成准确的提示信息,从而提高提示网络的适应性,提高大模型的模型训练效率、降低模型训练成本,进而提高模型的任务处理结果准确性、提高模型的任务泛化能力。
附图说明
图1是本申请一个实施例提供的一种基于联邦学习的大模型提示学习***的架构图;
图2是本申请一个实施例提供的一种应用于客户端的基于联邦学习的大模型提示学习方法的流程图;
图3是本申请一个实施例提供的一种应用于服务端的基于联邦学习的大模型提示学习方法的流程图;
图4是本申请一个实施例提供的一种基于联邦学习的大模型提示学习方法中初始模型的示意图;
图5是本申请一个实施例提供的一种应用于客户端的任务处理方法的流程图;
图6是本申请一个实施例提供的一种基于联邦学习的大模型提示学习方法的处理过程流程图;
图7是本申请一个实施例提供的一种配置于客户端的基于联邦学习的大模型提示学习装置的结构示意图;
图8是本申请一个实施例提供的一种配置于服务端的基于联邦学习的大模型提示学习装置的结构示意图;
图9是本申请一个实施例提供的一种配置于客户端的任务处理装置的结构示意图;
图10是本申请一个实施例提供的一种计算设备的结构框图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。
在本申请一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请一个或多个实施例。在本申请一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本申请一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
此外,需要说明的是,本申请一个或多个实施例所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准,并提供有相应的操作入口,供用户选择授权或者拒绝。
首先,对本申请一个或多个实施例涉及的名词术语进行解释。
token(标记):token是文本中的最小单位,例如,在英文中一个token可以是一个标点符号或一个单词,在中文中一个token可以是一个标点符号或一个字或一个词语。将输入文本拆分成一个个token,能够便于模型对输入文本进行处理和理解。
预训练模型:根据包含大规模训练数据的通用训练数据集,通过自监督学习得到的模型。预训练模型学习到了通用的语义语法知识,可以通过下游任务微调实现对特定任务的执行。
联邦学习:是一种机器学习设置,许多客户(如移动设备或整个或组织)在中央服务器(如服务提供商)的协调下协作训练一个模型,同时保持训练数据的分散。它体现了集中收集和数据最小化的原则,可以减轻许多由传统的集中机器学习产生的***性隐私风险和成本。
提示学习:在模型训练过程中,通过引入提示信息,引导模型的学习方向,使得模型能够具有更好的学习效果和更准确的任务执行结果。
差分隐私:是密码学中的一种手段,旨在提供一种当从统计数据库查询时,最大化数据查询的准确性,同时最大限度减少识别其记录的机会。
同态加密:是基于数学难题的计算复杂性理论的密码学技术。对经过同态加密的数据进行处理得到一个输出,将这一输出进行解密,其结果与用同一方法处理未加密的原始数据得到的输出结果是一样的。
近些年来,在深度学习与大数据技术发展的过程中,效果好的模型往往具有较大的规模和复杂的结构,训练数据量大、模型收敛所需训练时间很长、计算效率与资源使用方面开销很大,因此训练出来一个高效的模型需要花费大量的资源。并且,根据通用预训练集训练得到的预训练模型,无法满足用户的个性化任务需求,对个性化任务的执行效果较差,还需要根据用户提供的训练数据或者专门针对特定用户需求生成的训练数据,对预训练模型进行进一步训练。
大型语言模型通过应用提示工程技术来增强其上下文学习能力和处理复杂任务的熟练程度。然而,为了解决隐私问题,常见的提示模板设计通常依赖于公开可获得的数据源。这种方法在保护用户隐私的同时对提示工程的整体潜力施加了一定限制。这些限制主要源于两个主要考虑因素。首先,公开数据集通常无法访问特定领域或个人的私人信息。因此,提示模板可能无法完全针对专业领域或个性化需求进行优化。其次,公共数据集的广泛采用导致常见提示模板的频繁使用,这可能导致模型的回应重复或缺乏刺激性。
因此,通过上述方式训练得到的大型模型,往往只适用于处理用户预先定义了任务规范的特定任务。完成训练后得到的大型模型通常仅在处理特定任务时效果较好,而泛用性较差,无法应对类型多样化的下游任务。并且,通过上述模型训练方式,无法对没有明确定义规范的任务进行训练,模型的任务泛化能力差,训练成本高。
基于此,本申请提供的一个实施例,获取初始模型和训练样本,其中,初始模型包括骨干网络和初始提示网络;根据训练样本和初始提示网络,生成样本提示信息,其中,样本提示信息用于在模型训练过程中,引导骨干网络的学习方向;基于训练样本和样本提示信息,获取骨干网络的处理结果,并根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端;根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,获得目标模型,其中,聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得。
如此,通过获取初始模型和训练样本,根据训练样本和初始提示网络生成样本提示信息,可以获得针对训练样本生成的软提示信息,而不是根据指定任务需求生成的硬提示信息,提高提示网络对不同类型任务的适应能力,通过基于训练样本和样本提示信息,获取骨干网络的处理结果,能够使骨干网络根据样本提示信息的引导,获得更加准确的处理结果,从而提高处理结果的准确性,通过根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端,根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,能够实现通过至少一个客户端上传的参数调节信息,对各个客户端的初始提示网络进行基于联邦学习的参数调整,提高针对初始提示网络的训练效率和训练效果,使得完成训练的提示网络能够根据客户端的输入数据生成准确的提示信息,从而提高提示网络的适应性,提高模型训练效率、降低模型训练成本,进而提高模型的任务处理结果准确性、提高模型的任务泛化能力。
在本申请中,提供了一种基于联邦学习的大模型提示学习方法,本申请同时涉及一种基于联邦学习的大模型提示学习装置,一种计算设备,以及一种计算机可读存储介质,在下面的实施例中逐一进行详细说明。
参见图1,图1示出了本申请一个实施例提供的一种基于联邦学习的大模型提示学习***的架构图,基于联邦学习的大模型提示学习***可以包括客户端200和服务端100。
客户端200,用于获取初始模型和训练样本,其中,初始模型包括骨干网络和初始提示网络;根据训练样本和提示网络,生成样本提示信息,其中,样本提示信息用于在模型训练过程中,引导骨干网络的学习方向;基于训练样本和样本提示信息,获取骨干网络的处理结果,并根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端100。
服务端100,用于接收至少一个客户端上传的针对初始提示网络的参数调节信息,其中,初始提示网络用于在模型训练过程中,生成用于引导骨干网络的学习方向的样本提示信息;聚合至少一个客户端上传的针对初始提示网络的参数调节信息,获得聚合参数调节信息;将聚合参数调节信息发送至至少一个客户端。
客户端200,还用于根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,获得目标模型,其中,聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得。
应用本申请实施例的方案,获取初始模型和训练样本,其中,初始模型包括骨干网络和初始提示网络;根据训练样本和初始提示网络,生成样本提示信息,其中,样本提示信息用于在模型训练过程中,引导骨干网络的学习方向;基于训练样本和样本提示信息,获取骨干网络的处理结果,并根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端;根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,获得目标模型,其中,聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得。
如此,通过获取初始模型和训练样本,根据训练样本和初始提示网络生成样本提示信息,可以获得针对训练样本生成的软提示信息,而不是根据指定任务需求生成的硬提示信息,提高提示网络对不同类型任务的适应能力,通过基于训练样本和样本提示信息,获取骨干网络的处理结果,能够使骨干网络根据样本提示信息的引导,获得更加准确的处理结果,从而提高处理结果的准确性,通过根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端,根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,能够实现通过至少一个客户端上传的参数调节信息,对各个客户端的初始提示网络进行基于联邦学习的参数调整,提高针对初始提示网络的训练效率和训练效果,使得完成训练的提示网络能够根据客户端的输入数据生成准确的提示信息,从而提高提示网络的适应性,提高模型训练效率、降低模型训练成本,进而提高模型的任务处理结果准确性、提高模型的任务泛化能力。
实际应用中,基于联邦学习的大模型提示学习***可以包括至少一个客户端200。至少一个客户端200之间通过服务端100可以建立通信连接。在基于联邦学习的模型提示学习场景中,服务端100即用来接收至少一个客户端200发送的训练任务请求,将预训练完成的全局模型初始化后发送至至少一个客户端200,并接收至少一个客户端200在本地针对提示网络生成的参数调节信息,聚合至少一个客户端200的参数调节信息得到聚合参数调节信息,将聚合参数调节信息发送至至少一个客户端200。至少一个客户端200可以分别作为发送端或接收端,通过服务端100实现通信。
其中,客户端200与服务端100之间通过网络建立连接。网络为客户端200与服务端100之间提供了通信链路的介质。网络可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。客户端200所传输的数据可能需要经过编码、转码、压缩等处理之后才发布至服务端100。
客户端200可以为浏览器、APP(Application,应用程序)、或网页应用如H5(HyperText Markup Language5,超文本标记语言第5版)应用、或轻应用(也被称为小程序,一种轻量级应用程序)或云应用等,客户端200可以基于服务端100提供的相应服务的软件开发工具包(SDK,Software Development Kit),如基于实时通信(RTC,Real TimeCommunication)SDK开发获得等。客户端200可以部署在电子设备中,需要依赖设备运行或者设备中的某些APP而运行等。电子设备例如可以具有显示屏并支持信息浏览等,如可以是个人移动终端如手机、平板电脑、个人计算机等端侧设备。在电子设备中通常还可以配置各种其它类应用,例如人机对话类应用、模型训练类应用、文本处理类应用、网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
服务端100可以包括提供各种服务的服务器,例如为多个客户端提供通信服务的服务器,又如为客户端上使用的模型提供支持的用于后台训练的服务器,又如对客户端发送的数据进行处理的服务器等。需要说明的是,服务端100可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。服务器也可以为分布式***的服务器,或者是结合了区块链的服务器。服务器也可以是云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(CDN,Content DeliveryNetwork)以及大数据和人工智能平台等基础云计算服务的云服务器(云侧设备),或者是带人工智能技术的智能云计算服务器或智能云主机。
值得说明的是,本申请实施例中提供的图像处理方法一般由服务端执行,但是,在本申请的其它实施例中,客户端也可以与服务端具有相似的功能,从而执行本申请实施例所提供的图像处理方法。在其它实施例中,本申请实施例所提供的图像处理方法还可以是由客户端与服务端共同执行。
参见图2,图2示出了根据本申请一个实施例提供的一种应用于客户端的基于联邦学习的大模型提示学习方法的流程图,具体包括以下步骤。
步骤202:获取初始模型和训练样本,其中,初始模型包括骨干网络和初始提示网络。
实际应用中,可以获取初始模型和训练样本,通过初始模型和训练样本在客户端进行模型训练。
具体地,初始模型包括骨干网络和初始提示网络。其中,骨干网络可以理解为已经根据通用训练数据完成预训练的预训练模型,该预训练模型是完成预训练的大模型。初始提示网络可以理解为在模型训练过程中,生成样本提示信息对骨干网络的学习方向进行引导的模型。初始提示网络是构建得到的用于生成样本提示信息的模型,初始提示网络生成的样本提示信息可以用于在模型训练过程中,引导骨干网络的学习方向。通用训练数据集可以是服务端针对联邦建模任务自动生成的,也可以是服务器从各个参与联邦建模的参与方客户端获取的。通用训练数据集中的训练数据通常不涉及各个参与方的隐私数据,是可以存储在模型的公共训练数据库中进行共享的数据。训练样本可以理解为客户端本地用于对提示网络进行训练的训练数据。训练样本根据客户端本地的训练任务生成,同时具有对应的样本标签。客户端本地的训练任务可以是具备明确定义和规范的指定下游任务,例如翻译任务、问答任务等等;也可以是没有明确定义,但是在客户端本地,有训练样本和对应样本标签的任务。
实际实现过程中,骨干网络可以为深度学习技术领域中包括的任一类型的神经网络。骨干网络既可以由客户端根据通用训练数据集训练得到,也可以由服务端接收客户端的训练任务请求,获取通用训练数据集进行训练得到。在本申请一个或多个实施例中,骨干网络具体的获取方式,可以是根据任务类型,选择神经网络,并根据通用训练数据集训练神经网络得到;也可以是根据任务需求,从现有的已训练完成的预训练模型中选择得到,例如,可以根据客户端的实际任务需求,从预训练模型库中下载一个已完成预训练的预训练模型作为骨干网络。
在一种可选的实施方式中,骨干网络可以由服务端接收客户端的训练任务请求,响应于训练任务请求获取,并下发至参与联邦建模的各个客户端。
在另一种可选的实施方式中,骨干网络可以由参与联邦建模的任一客户端根据训练任务获取,然后通过参与联邦建模的各个客户端与服务端之间的通信连接,将骨干网络上传至服务端,并通过服务端,将骨干网络同步至其他各个参与联邦建模的客户端。
需要说明的是,在本申请一个或多个实施例中,由于初始模型中的骨干网络是已经完成预训练的预训练模型,为了降低训练数据量,提高训练效率,显著提高对初始提示网络的训练效果,骨干网络的网络参数在后续的训练过程中可以处于冻结状态。即,在后续训练过程中可以不再计算骨干网络的网络参数梯度,而是针对初始提示网络,计算初始提示网络的损失值和网络参数梯度,从而提高初始提示网络的训练效率,训练得到能够基于训练样本,适应性生成更加准确样本提示信息的目标提示网络。
在本申请一个或多个实施例中,为了提高联邦建模过程中,各个参与方客户端中初始模型的一致性,便于服务端对各个参与方客户端进行统一管理并同步数据,获取初始模型,具体可以包括如下步骤:
向服务端发送训练任务请求,接收服务端响应于训练任务请求,返回的骨干网络和初始提示网络,其中,初始提示网络携带初始网络参数;
根据初始网络参数初始化初始提示网络;
确定任务类型,根据任务类型选择分类函数,并根据分类函数构建头网络;
基于骨干网络、初始化后的初始提示网络和头网络,构建初始模型。
具体地,训练任务请求可以理解为客户端向服务端发送的联邦建模请求,训练任务请求用于向服务端请求获取用于在客户端进行联邦学习的初始模型,并根据客户端本地的训练样本和对应样本标签,对初始模型进行训练。进一步地,训练任务在不同的具体应用场景中可以包括多种任务类型。示例性地,在大语言模型的训练场景中,训练任务可以是翻译任务,也可以是摘要任务、问答任务等等。初始网络参数是初始提示网络对应的初始的网络参数。分类函数具体可以是二分类函数、多分类函数、逻辑回归函数等等,用于对模型处理结果进行预测的函数。头网络可以理解为根据分类函数构建得到的网络,一般来说,头网络中不包含对应的网络参数。
在本申请一个实施例中,初始提示网络的初始网络参数可以是服务端根据训练任务对应的任务类型,对初始提示网络进行初始化得到的。
在本申请另一个实施例中,初始提示网络的初始网络参数也可以是客户端根据训练任务对应的任务类型,对初始提示网络进行初始化得到后,发送至服务端,由服务端同步至其他各个客户端。
需要说明的是,对初始网络参数进行的初始化可以是0初始化,也可以是正态初始化或其他对参数的初始化方法。
实际实现过程中,客户端可以向服务端发送训练任务请求,接收服务端响应于训练任务请求,返回的骨干网络和初始提示网络,其中,初始提示网络携带初始网络参数。客户端在接收到骨干网络、初始提示网络和初始提示网络的初始网络参数的基础上,可以根据初始网络参数初始化初始提示网络、根据任务类型选择分类函数,并根据分类函数构建头网络,然后根据骨干网络、初始化后的初始提示网络和头网络,构建得到初始模型。
通过参与联邦建模的客户端的训练任务需求,从服务端统一获取完成预训练的骨干网络、初始提示网络,并在客户端根据任务类型设置头网络,根据骨干网络、初始提示网络、头网络构建客户端本地的初始模型,能够降低客户端所需的训练数据量,获得符合客户端任务需求的初始模型,从而能够提高初始提示网络的训练效率,降低训练成本,使得训练得到的目标提示网络能够根据训练数据,输出更加准确的样本提示信息。
步骤204:根据训练样本和初始提示网络,生成样本提示信息,其中,样本提示信息用于在模型训练过程中,引导骨干网络的学习方向。
实际应用中,在获取初始模型和训练样本的基础上,就可以根据训练样本和初始提示网络,生成用于在模型训练过程中,引导骨干网络学习方向的样本提示信息。
具体地,样本提示信息可以理解为一种用于对骨干网络的学习方向进行隐式引导的提示向量,提示向量可以在模型训练过程中,对骨干网络的学习方向进行引导,使得骨干网络能够学习到更加准确的特征信息,提高模型处理结果的准确性。
目前,为了提高提示网络生成的提示信息的准确性,往往是根据特定任务对应的训练样本,对提示网络进行训练,使得提示网络能够针对特征任务,生成准确的提示信息。
然而,通过上述训练方式得到的提示网络,能够生成的提示信息是固定的,并不会随着输入训练样本的变化而适应性变化,生成不同的提示信息。
基于此,本申请一个实施例中,初始模型还可以包括嵌入模块,根据训练样本和初始提示网络,生成样本提示信息,可以包括如下步骤:
根据训练样本和初始提示网络,生成样本提示信息将训练样本输入嵌入模块,获得嵌入模块输出的嵌入信息;
将嵌入信息输入初始提示网络,通过初始提示网络的初始网络参数,生成样本提示信息,其中,初始网络参数为服务端下发的网络参数。
具体地,嵌入模块用于接收输入初始模型的训练样本,对训练样本进行特征处理获得训练样本对应的嵌入信息。进一步地,对训练样本进行特征处理包括将训练样本映射至特征向量空间,从而将训练样本包含的信息转换成特征向量。
具体地,初始网络参数用于控制初始提示网络根据嵌入信息生成对应的提示信息。
通过将训练样本输入嵌入模块,获得嵌入模块输出的嵌入信息,将嵌入信息输入提示网络,通过提示网络的初始网络参数,生成提示信息,可以通过提示学习,使提示网络具备根据不同类型的训练样本,自动生成训练样本对应的软提示信息的能力。从而实现根据不同的训练样本,提示网络能够根据网络参数,自动、高效地生成准确的软提示信息,能够更准确地引导骨干网络的学习方向,从而提高模型的训练效果。
步骤206:基于训练样本和样本提示信息,获取骨干网络的处理结果,并根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端。
实际应用中,在获取初始模型和训练样本;根据训练样本和初始提示网络,生成样本提示信息的基础上,就可以基于训练样本和样本提示信息,获取骨干网络的处理结果,并根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端。
具体地,骨干网络的处理结果可以理解为骨干网络对训练样本进行处理后得到的数据处理结果。参数调节信息可以理解为对初始提示网络的网络参数进行调整的信息,包括损失值或参数梯度。
在本申请一个或多个实施例中,基于训练样本和样本提示信息,获取骨干网络的处理结果,可以包括如下步骤:
融合嵌入信息和样本提示信息,获得融合信息;
将融合信息输入骨干网络,获取骨干网络的处理结果。
在本申请一个实施例中,融合嵌入信息和样本提示信息,可以是将嵌入信息和样本提示信息直接进行拼接,得到融合信息。示例性地,假设嵌入信息为“It is a dog”,样本提示信息为“前缀token:【Please】【translate】【the】【next】【sentence】【:】、后缀token:【。】【eos】”则将嵌入信息和样本提示信息直接进行拼接,得到的融合信息为“Pleasetranslate the next sentence:It is a dog。”
在本申请另一个实施例中,融合嵌入信息和样本提示信息,还可以是根据骨干网络包括的神经网络,在将嵌入信息和样本提示信息进行拼接的过程中,***额外的token,得到融合信息。示例性地,假设骨干网络类型为BERT模型,则在拼接过程中需要额外***[sep]、[cls]等token。
需要说明的是,上述示例仅用于举例说明嵌入信息和样本提示信息可以选择的融合方式,具体融合方法可以根据骨干网络类型以及实际应用中的需求确定,本申请对此不做任何限定。
在实际应用中,初始模型还可以包括头网络,具体地,头网络可以根据客户端的任务类型对应的分类函数构建。在本申请一个或多个实施例中,根据处理结果,获得针对初始提示网络的参数调节信息,可以包括如下步骤:
获取训练样本对应的样本标签;
将处理结果输入头网络,获得头网络针对处理结果输出的预测结果;
根据预测结果和样本标签,获得针对初始提示网络的参数调节信息。
具体地,样本标签是与训练样本对应的标签,训练样本和样本标签都是客户端根据训练任务,在客户端本地获取或者生成的训练数据。一般情况下,训练样本和样本标签会涉及参与方的用户隐私数据,需要对其他参与方保密。预测结果可以理解为头网络针对处理结果,调用分类函数计算得到的预测结果。示例性地,在分类函数为二分类函数的情况下,预测结果可以是“是”或“否”;在分类函数为多分类函数的情况下,预测结果可以是处理结果对应的概率。参数调节信息可以理解为初始提示网络的损失值或者参数梯度。
通过获取训练样本对应的样本标签,将处理结果输入头网络,获得头网络针对处理结果输出的预测结果,根据预测结果和样本标签,获得针对初始提示网络的参数调节信息,可以得到根据软提示向量获得的模型输出结果的准确性,并根据参数调节信息对初始提示网络的网络参数进行调整,从而提高初始提示网络根据训练样本自动生成提示信息的效率和准确性。
在本申请一个或多个实施例中,根据预测结果和样本标签,获得针对初始提示网络的参数调节信息,可以包括如下步骤:
根据预测结果和样本标签,计算损失值;
基于损失值和初始提示网络的网络参数,采用梯度下降算法,反向传播计算初始提示网络的参数梯度;
将参数梯度作为初始提示网络的参数调节信息。
实际应用中,可以根据头网络输出的预测结果和样本标签,计算初始提示网络的损失值,基于损失值和初始提示网络的网络参数,采用梯度下降算法,反向传播计算初始提示网络的参数梯度,并将参数梯度作为初始提示网络的参数调节信息。
需要说明的是,初始提示网络的参数调节信息还可以是损失值,各个客户端可以将计算得到的损失值发送至服务端,服务端基于接收到的损失值,从各个客户端获取初始提示网络对应的网络参数,并基于损失值和初始提示网络的网络参数,采用梯度下降算法,反向传播计算初始提示网络的参数梯度,服务端计算得到各个客户端的初始提示网络的参数梯度后,可以通过聚合模块进行参数梯度聚合,得到用于调整初始提示网络的网络参数的聚合参数梯度。
通过计算初始提示网络的参数梯度,可以将参数梯度发送至服务端,以使服务端根据参与联邦建模的各个参与方分别上传的梯度参数,获得聚合参数梯度,从而各个客户端可以根据聚合参数梯度对初始提示网络的网络参数进行调整,提高提示网络的训练效率,降低训练数据量,提高提示网络生成提示信息的准确性。
在本申请一个或多个实施例中,将参数调节信息上传至服务端,可以包括如下步骤:
获取预设噪声生成策略;
按照预设噪声生成策略,在参数调节信息中加入噪声,获得更新的参数调节信息。
需要说明的是,为了确保客户端的参数调节信息上传过程中,隐私数据的安全性,避免泄露,可以通过差分隐私和同态加密来保护隐私数据的安全。
具体地,预设噪声生成策略是指预先设定的在信息中添加噪声的策略,比如,预设噪声生成策略可以是同态加密、差分隐私等。按照预设噪声生成策略,在参数调节信息中加入噪声,获得更新的参数调节信息的实现方式,可以是按照预设噪声生成策略,设定初始噪声,基于参数调节信息,更新初始噪声,将更新后的初始噪声加入至参数调节信息,获得更新的参数调节信息。
应用本申请实施例的方案,通过在参数调整信息中加入噪声,使得服务端接收到的是加入了噪声的参数调整信息,保护了参数调整信息,避免通过参数调整信息获取到样本数据和样本数据对应的样本标签,保障了各客户端样本的安全。
步骤208:根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,获得目标模型,其中,聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得。
实际应用中,客户端可以根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,并将调整后得到的提示网络作为初始提示网络,重复上述执行步骤进一步对初始提示网络进行训练,直至初始提示网络的损失值或参数梯度达到模型收敛标准,获得训练完成的目标提示网络。
具体地,目标模型包括目标提示网络和骨干网络。目标提示网络具有根据不同训练数据生成对应提示信息的能力。目标模型是能够根据不同输入数据,针对不同输入数据对应生成准确提示信息的大模型,可以用于处理客户端本地的待处理任务,更高效、准确地获得任务处理结果。
本申请提供的一个实施例,获取初始模型和训练样本,其中,初始模型包括骨干网络和初始提示网络;根据训练样本和初始提示网络,生成样本提示信息,其中,样本提示信息用于在模型训练过程中,引导骨干网络的学习方向;基于训练样本和样本提示信息,获取骨干网络的处理结果,并根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端;根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,获得目标模型,其中,聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得。
如此,通过获取初始模型和训练样本,根据训练样本和初始提示网络生成样本提示信息,可以获得针对训练样本生成的软提示信息,而不是根据指定任务需求生成的硬提示信息,提高提示网络对不同类型任务的适应能力,通过基于训练样本和样本提示信息,获取骨干网络的处理结果,能够使骨干网络根据样本提示信息的引导,获得更加准确的处理结果,从而提高处理结果的准确性,通过根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端,根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,能够实现通过至少一个客户端上传的参数调节信息,对各个客户端的初始提示网络进行基于联邦学习的参数调整,提高针对初始提示网络的训练效率和训练效果,使得完成训练的提示网络能够根据客户端的输入数据生成准确的提示信息,从而提高提示网络的适应性,提高大模型的模型训练效率、降低模型训练成本,进而提高模型的任务处理结果准确性、提高模型的任务泛化能力。
参见图3,图3示出了根据本申请一个实施例提供的一种应用于服务端的基于联邦学习的大模型提示学习方法的流程图,具体包括以下步骤。
步骤302:接收至少一个客户端上传的针对初始提示网络的参数调节信息,其中,初始提示网络用于在模型训练过程中,生成用于引导骨干网络的学习方向的样本提示信息。
实际应用中,服务端可以接收至少一个客户端上传的针对初始提示网络的参数调节信息,并通过聚合模块,对至少一个参数调节信息进行聚合,从而提高客户端对初始提示网络的训练效率和训练效果。
在本申请一个或多个实施例中,接收至少一个客户端上传的针对初始提示网络的参数调节信息之前,还可以包括如下步骤:
接收至少一个客户端发送的训练任务请求,获取骨干网络和初始提示网络,并生成初始提示网络对应的初始化网络参数,其中,骨干网络为根据训练任务预先训练获得;
向至少一个客户端发送骨干网络、初始提示网络和初始化网络参数。
实际应用中,服务端接收至少一个客户端发送的训练任务请求,可以根据训练任务请求对应的训练任务,获取骨干网络和初始提示网络,并生成初始提示网络对应的初始化网络参数。服务端对骨干网络和初始提示网络初始化后,可以将骨干网络、初始提示网络和初始化网络参数统一下发至各个发送了训练任务请求的客户端。
需要说明的是,服务器接收至少一个客户端发送的训练任务请求,还可以根据训练任务请求构建嵌入网络,根据嵌入网络、初始提示网络和骨干网络构建全局模型,将全局模型下发至各个客户端,以使各个客户端根据接收到的全局模型对应在各个客户端本地构建本地模型。
通过接收至少一个客户端发送的训练任务请求,获取骨干网络、初始提示网络和初始提示网络对应的初始化网络参数,将骨干网络、初始提示网络和初始提示网络对应的初始化网络参数统一下发至各个客户端,可以提高客户端的模型训练效率,提高数据统一性。
在本申请一个或多个实施例中,训练任务请求携带任务类型;获取骨干网络和初始提示网络,可以包括如下步骤:
获取任务类型对应的初始骨干网络,以及全局训练样本;
根据全局训练样本预训练初始骨干网络,获得预训练完成的骨干网络;
获取任务类型对应的初始提示网络,并初始化初始提示网络的初始网络参数。
具体地,初始骨干网络可以理解为未完成预训练的骨干网络。全局训练样本可以理解为从共享样本数据库中获取的公开的、通用的训练数据。
实际实现过程中,服务端可以根据训练任务,选择已预训练完成的骨干网络,也可以根据训练任务的任务类型,选择合适的神经网络作为初始骨干网络,并根据全局训练样本对初始骨干网络进行预训练,获得骨干网络。服务端可以根据任务类型设置对应的初始提示网络,并对初始提示网络的网络参数进行数据初始化,得到初始网络参数。
通过获取任务类型对应的初始骨干网络,以及全局训练样本;根据全局训练样本预训练初始骨干网络,获得预训练完成的骨干网络;获取任务类型对应的初始提示网络,并初始化初始提示网络的初始网络参数,可以在联邦建模的准备阶段完成对待训练的模型结构的构建,提高联邦建模的模型训练效率和数据统一性。
步骤304:聚合至少一个客户端上传的参数调节信息,获得聚合参数调节信息。
实际应用中,服务端在接收至少一个客户端上传的针对初始提示网络的参数调节信息的基础上,可以聚合至少一个客户端上传的参数调节信息,获得聚合参数调节信息。
具体地,聚合参数调节信息可以理解为服务端通过聚合模块,对至少一个客户端上传的参数调节信息进行聚合后,得到的信息。
在本申请一个或多个实施例中,聚合至少一个客户端上传的参数调节信息,获得聚合参数调节信息,可以包括如下步骤:
确定至少一个客户端上传的参数调节信息的权重;
根据各权重,聚合至少一个参数调节信息,获得聚合参数调节信息。
具体地,权重是指某因素对于某一项目的重要程度,比如,任一客户端对应的参数调节调节信息在至少一个客户端中的重要程度。确定至少一个参数调节信息的权重的实现方式,可以是基于至少一个客户端样本数据的数据量,确定至少一个参数调节信息;还可以是基于至少一个参数调节信息的信息量,确定至少一个参数调节信息的权重。根据各权重,聚合至少一个参数调节信息,获得聚合参数调节信息的实现方式,可以是根据各权重,对至少一个参数调节信息进行加权求和,获得聚合参数调节信息。
在本申请一个或多个实施例中,确定至少一个客户端上传的参数调节信息的权重,可以包括如下步骤:
获取至少一个参数调节信息所属客户端对应样本数据的数据量;
基于至少一个客户端对应样本数据的数据量,确定至少一个参数调节信息的权重。
具体地,样本数据是指已有对应任务处理结果的输出,样本数据用于对模型的参数进行调整的数据。获取至少一个参数调节信息所属客户端对应样本数据的数据量的实现方式,可以是解析至少一个参数调节信息,获得对应样本数据的数据量;还可以是向至少一个参数调节信息所属的客户端发送数据量获取指令,获得样本数据的数据量。基于至少一个客户端对应样本数据的数据量,确定至少一个参数调节信息的权重的实现方式,可以是基于至少一个客户端对应样本数据的数据量,计算各客户端对应的数据量在所有客户端对应总数据量之中的比值,将各比值,确定为各参数调节信息的权重;还可以是从至少一个客户端对应样本数据中提取关键样本数据,计算关键样本数据在各客户端对应的关键样本数据对应的总数据量中的比值,将各比值,确定为各参数调节信息的权重,其中,关键样本数据的提取方式为基于各客户端的任务处理需求进行提取。
步骤306:将聚合参数调节信息发送至至少一个客户端,其中,聚合参数调节信息用于客户端调整初始提示网络的网络参数获得目标模型。
实际应用中,服务端通过聚合模块,聚合得到聚合参数调节信息的基础上,就可以将聚合参数调节信息发送至至少一个客户端,以使客户端根据聚合参数调节信息对初始提示网络的网络参数进行调整,获得目标模型。
本申请提供的一个实施例,接收至少一个客户端上传的针对初始提示网络的参数调节信息,其中,初始提示网络用于在模型训练过程中,生成用于引导骨干网络的学习方向的样本提示信息;聚合至少一个客户端上传的参数调节信息,获得聚合参数调节信息;将聚合参数调节信息发送至至少一个客户端,其中,聚合参数调节信息用于客户端调整初始提示网络的网络参数获得目标模型。
如此,通过接收至少一个客户端上传的针对初始提示网络的参数调节信息,聚合至少一个客户端上传的参数调节信息,获得聚合参数调节信息,可以降低各个客户端进行模型训练所需的训练数据量,提高针对初始提示网络训练的随机性,提高提示网络的准确性和对不同输入数据的适应性,从而提高骨干网络的任务泛化能力;通过将聚合参数调节信息发送至至少一个客户端,可以提高提示网络的训练效率,提高提示网络输出的提示信息的准确性,从而提高模型任务处理结果的准确性。
参见图4,图4示出了本申请一个实施例提供的一种基于联邦学习的大模型提示学习方法中初始模型的示意图。
各个参与联邦建模的客户端1至客户端n分别与服务端进行通信连接。客户端接收服务端统一下发的全局模型以及提示生成器对应的初始网络参数,在本地根据训练任务,构建本地模型。其中,全局模型包括嵌入模块、提示生成器和骨干网络。本地模型包括嵌入模块、提示生成器、组合模块、骨干网络和根据任务类型设置的分类器头。
各个客户端在本地获取训练样本和对应的样本标签,将训练样本作为输入数据输入至本地模型,通过嵌入模块获得输入数据对应的嵌入向量,将嵌入向量输入至提示生成器,通过可学习的初始网络参数,基于嵌入向量获得符合输入数据的提示模板,将提示模板和嵌入向量组合得到的组合向量输入至完成预训练的骨干网络,将骨干网络输出的处理结果输入分类器头,并根据分类器头输出的预测结果,与样本标签进行比对,生成提示生成器的损失值,并根据损失值和提示生成器的网络参数计算提示生成器的参数梯度。
各个客户端将提示生成器的参数梯度发送至服务端,通过服务端的聚合模块对各个客户端的参数梯度进行聚合,获得聚合参数梯度,接收服务端反馈的聚合参数梯度,并根据聚合参数梯度调整提示生成器的网络参数。重复上述步骤,直至提示生成器的损失值或参数梯度达到完成训练的条件。
参见图5,图5示出了根据本申请一个实施例提供的一种应用于客户端的任务处理方法的流程图,具体包括以下步骤。
步骤502:接收待处理任务,其中,待处理任务携带输入文本。
实际应用中,待处理任务可以是对文本进行处理的任务,具体地,待处理任务携带输入文本。
步骤504:将输入文本输入任务处理模型,获得输入文本的文本处理结果。其中,任务处理模型包括提示网络和骨干网络,提示网络用于根据输入文本,生成用于引导骨干网络的学习方向的目标提示信息;骨干网络用于根据提示信息和输入文本,生成输入文本的文本处理结果;提示网络基于聚合参数调节信息训练获得,聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得,参数调节信息为客户端通过骨干网络对训练样本和样本提示信息处理获得,样本提示信息为通过初始提示网络对训练样本处理获得。
具体地,任务处理模型可以理解为根据基于联邦学习的大模型提示学习方法完成训练,得到的目标模型。任务处理模型包括提示网络和骨干网络。提示网络可以根据输入文本,适应性生成符合输入文本的提示信息,从而提高提示信息的准确性,提高任务处理模型的任务处理果的准确性。
本申请提供的一个实施例,接收待处理任务,其中,待处理任务携带输入文本;将输入文本输入任务处理模型,获得输入文本的文本处理结果;其中,任务处理模型包括提示网络和骨干网络,提示网络用于根据输入文本,生成用于引导骨干网络的学习方向的目标提示信息;骨干网络用于根据提示信息和输入文本,生成输入文本的文本处理结果;提示网络基于聚合参数调节信息训练获得,聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得,参数调节信息为客户端通过骨干网络对训练样本和样本提示信息处理获得,样本提示信息为通过初始提示网络对训练样本处理获得。
如此,可以通过适应性强的提示生成器,根据客户端输入的数据自动、高效地生成准确的提示信息,进而提高任务处理模型的任务处理结果准确性。
下述结合附图6,以本申请提供的基于联邦学习的大模型提示学习方法在大语言模型训练场景中的应用为例,对所述基于联邦学习的大模型提示学习方法进行进一步说明。参见图6,图6示出了本申请一个实施例提供的一种基于联邦学习的大模型提示学习方法的处理过程流程图。其中,基于联邦学习的大模型提示学习方法的处理过程可以主要包括两个处理阶段:准备阶段和联邦训练阶段。准备阶段具体包括以下步骤602-步骤608;联邦训练阶段具体包括以下步骤610-步骤624。
步骤602:根据联邦建模任务的需求,由服务器节点FL-Server设定大型语言模型的结构,其中大型语言模型包括骨干网络、嵌入模块、提示生成器。
步骤604:服务器节点FL-Server根据步骤602的模型结构初始化全局模型GlobalModel,将其分发给各个联邦建模参与方。
步骤606:服务器节点FL-Server设置提示生成器的初始参数,并将其分发到各个联邦建模参与方。
步骤608:各个联邦建模参与方接收全局模型,根据全局模型构建并初始化本地训练模型Local Model,并根据本地任务类别设置分类器头,同时准备用于联邦建模的训练数据、本地标签数据。
步骤610:各个联邦建模参与方将联合建模的训练文本输入到本地模型嵌入层Embedding,获取文本输入的嵌入向量。
步骤612:各个联邦建模参与方将本地训练数据的嵌入向量输入到提示生成器中,获取对应的软提示向量,并将软提示向量与嵌入向量进行组合,得到骨干网络的输入向量。
步骤614:各个联邦建模参与方将输入向量输入骨干网络,获取输出,再经过分类器头获得预测标签。
步骤616:各个联邦建模参与方计算预测标签与真实标签的损失值,采用梯度下降法,根据误差反向传播计算提示生成器可学习参数的梯度。
步骤618:各个联邦建模参与方将提示生成器可学习参数的梯度上传到服务器节点FL-Server。
步骤620:服务器节点FL-Server通过参数聚合模块Parameter Aggregate将各个联邦建模参与方的参数梯度进行聚合。
步骤622:服务器节点FL-Server通过参数更新模块Parameter Update将更新后的梯度反馈给各联邦建模方。
步骤624:各个联邦建模参与方接收到更新后的参数,对本地提示生成器进行更新。
重复执行步骤610至步骤624,直到满足联邦建模任务要求,得到最终泛化能力强的提示生成器。
示例性地,在大型语言模型的训练场景中,联邦建模的参与方A和参与方B想要共同训练一个大型语言模型(LLM),其中,参与方A想要应用模型执行将英文翻译为中文的任务;参与方B想要应用模型执行段落摘要任务。
由于预训练的开销非常大,并且涉及数据隐私问题,所以A、B可以通过在各自客户端训练提示网络,以使模型训练过程中,可以基于提示网络生成的提示信息对模型的学习方向进行引导,从而提高模型的任务执行效果。
为了节约训练资源、提高训练得到的提示网络的对任意任务的兼容性,提示网络通过软提示生成方法进行训练。具体训练流程如下:
参与方A和参与方B分别对应的客户端,向服务端发送训练任务请求,服务端响应于训练任务请求,构建联邦建模对应的全局模型,并获取提示网络对应的初始网络参数,将全局模型和初始网络参数发送至各个客户端。其中,全局模型包括根据联邦建模任务预先训练得到的骨干网络,以及提示网络。
参与方A和参与方B分别对应的客户端根据初始网络参数初始化提示网络。假设初始网络参数为:前缀token(每个token对应一个词)个数是6,后缀token个数是2,则根据初始网络参数初始化得到的提示网络的网络结构即为:
前缀token:【前缀token 1】【前缀token 2】【前缀token 3】【前缀token 4】【前缀token 5】【前缀token 6】
后缀token:【后缀token 1】【后缀token 2】。
参与方A的训练样本为“It is a dog”,参与方B的训练样本为一段内容较长的文字。
提示网络由初始网络参数控制,则参与方A客户端上的提示网络根据训练样本“Itis a dog”生成对应的提示信息可以为:
前缀token:【Please】【translate】【the】【next】【sentence】【:】
后缀token:【。】【eos】
参与方B客户端上的提示网络根据一段内容较长的文字的训练样本生成对应的提示信息可以为:
前缀token:【Summary】【the】【next】【document】【simplely】【:】
后缀token:【。】【eos】
可以得到,根据对初始模型输入不同的训练样本,提示网络可以根据不同的训练样本,通过网络参数生成不同的软提示信息,从而实现根据不同任务数据,自动、高效地生成模型训练过程中,能够准确引导模型学习方向的提示信息,提高模型的训练效果,从而提高模型的任务执行效果。
应用本申请提供的基于联邦学习的大模型提示学习方法,通过获取初始模型和训练样本,根据训练样本和初始提示网络生成样本提示信息,可以获得针对训练样本生成的软提示信息,而不是根据指定任务需求生成的硬提示信息,提高提示网络对不同类型任务的适应能力,通过基于训练样本和样本提示信息,获取骨干网络的处理结果,能够使骨干网络根据样本提示信息的引导,获得更加准确的处理结果,从而提高处理结果的准确性,通过根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端,根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,能够实现通过至少一个客户端上传的参数调节信息,对各个客户端的初始提示网络进行基于联邦学习的参数调整,提高针对初始提示网络的训练效率和训练效果,使得完成训练的提示网络能够根据客户端的输入数据生成准确的提示信息,从而提高提示网络的适应性,提高大模型的模型训练效率、降低模型训练成本,进而提高模型的任务处理结果准确性、提高模型的任务泛化能力。
参见图7-图8,与上述方法实施例相对应,本申请还提供了一种基于联邦学习的大模型提示学习装置实施例,图7示出了本申请一个实施例提供的一种配置于客户端的基于联邦学习的大模型提示学习装置的结构示意图。如图7所示,该装置包括:
获取模块702:被配置为获取初始模型和训练样本,其中,初始模型包括骨干网络和初始提示网络。
生成模块704:被配置为根据训练样本和初始提示网络,生成样本提示信息,其中,样本提示信息用于在模型训练过程中,引导骨干网络的学习方向。
上传模块706:被配置为基于训练样本和样本提示信息,获取骨干网络的处理结果,并根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端。
调整模块708:被配置为根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,获得目标模型,其中,聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得。
可选地,获取模块702,进一步被配置为:
向服务端发送训练任务请求,接收服务端响应于训练任务请求,返回的骨干网络和初始提示网络,其中,初始提示网络携带初始网络参数;
根据初始网络参数初始化初始提示网络;
确定任务类型,根据任务类型选择分类函数,并根据分类函数构建头网络;
基于骨干网络、初始化后的提示网络和头网络,构建初始模型。
可选地,初始模型还可以包括嵌入模块。
相应地,生成模块704,进一步被配置为:
将训练样本输入嵌入模块,获得嵌入模块输出的嵌入信息;
将嵌入信息输入初始提示网络,通过初始提示网络的初始网络参数,生成样本提示信息,其中,初始网络参数为服务端下发的网络参数。
可选地,上传模块706,进一步被配置为:
融合嵌入信息和样本提示信息,获得融合信息;
将融合信息输入骨干网络,获取骨干网络的处理结果。
可选地,初始模型还包括头网络,头网络根据客户端的任务类型对应的分类函数构建。
相应地,上传模块706,进一步被配置为:
获取训练样本对应的样本标签;
将处理结果输入头网络,获得头网络针对处理结果输出的预测结果;
根据预测结果和样本标签,获得针对初始提示网络的参数调节信息。
可选地,上传模块706,进一步被配置为:
根据预测结果和样本标签,计算损失值;
基于损失值和初始提示网络的网络参数,采用梯度下降算法,反向传播计算初始提示网络的参数梯度;
将参数梯度作为初始提示网络的参数调节信息。
上传模块706,进一步被配置为:
获取预设噪声生成策略;
按照预设噪声生成策略,在参数调节信息中加入噪声,获得更新的参数调节信息。
本申请一个实施例提供的基于联邦学习的大模型提示学习装置,通过获取初始模型和训练样本,根据训练样本和初始提示网络生成样本提示信息,可以获得针对训练样本生成的软提示信息,而不是根据指定任务需求生成的硬提示信息,提高提示网络对不同类型任务的适应能力,通过基于训练样本和样本提示信息,获取骨干网络的处理结果,能够使骨干网络根据样本提示信息的引导,获得更加准确的处理结果,从而提高处理结果的准确性,通过根据处理结果,获得针对初始提示网络的参数调节信息,将参数调节信息上传至服务端,根据服务端返回的聚合参数调节信息,调整初始提示网络的网络参数,能够实现通过至少一个客户端上传的参数调节信息,对各个客户端的初始提示网络进行基于联邦学习的参数调整,提高针对初始提示网络的训练效率和训练效果,使得完成训练的提示网络能够根据客户端的输入数据生成准确的提示信息,从而提高提示网络的适应性,提高大模型的模型训练效率、降低模型训练成本,进而提高模型的任务处理结果准确性、提高模型的任务泛化能力。
上述为本实施例的一种配置于客户端的基于联邦学习的大模型提示学习装置的示意性方案。需要说明的是,该配置于客户端的基于联邦学习的大模型提示学习装置的技术方案与上述的应用于客户端的基于联邦学习的大模型提示学习方法的技术方案属于同一构思,配置于客户端的基于联邦学习的大模型提示学习装置的技术方案未详细描述的细节内容,均可以参见上述应用于客户端的基于联邦学习的大模型提示学习方法的技术方案的描述。
参见图8,图8示出了本申请一个实施例提供的一种配置于服务端的基于联邦学习的大模型提示学习装置的结构示意图。如图8所示,该装置包括:
第一接收模块802:被配置为接收至少一个客户端上传的针对初始提示网络的参数调节信息,其中,初始提示网络用于在模型训练过程中,生成用于引导骨干网络的学习方向的样本提示信息。
聚合模块804:被配置为聚合至少一个客户端上传的参数调节信息,获得聚合参数调节信息。
发送模块806:被配置为将聚合参数调节信息发送至至少一个客户端,其中,聚合参数调节信息用于客户端调整初始提示网络的网络参数获得目标模型。
可选地,基于联邦学习的大模型提示学习装置,还包括第三接收模块,被配置为:
接收至少一个客户端发送的训练任务请求,获取骨干网络和初始提示网络,并生成初始提示网络对应的初始化网络参数,其中,骨干网络为根据训练任务预先训练获得;
向至少一个客户端发送骨干网络、初始提示网络和初始化网络参数。
第三接收模块,进一步被配置为:
获取任务类型对应的初始骨干网络,以及全局训练样本;
根据全局训练样本预训练初始骨干网络,获得预训练完成的骨干网络;
获取任务类型对应的初始提示网络,并初始化初始提示网络的初始网络参数。
可选地,聚合模块804,进一步被配置为:
确定至少一个客户端上传的参数调节信息的权重;
根据各权重,聚合至少一个参数调节信息,获得聚合参数调节信息。
可选地,聚合模块804,进一步被配置为:
获取至少一个参数调节信息所属客户端对应样本数据的数据量;
基于至少一个客户端对应样本数据的数据量,确定至少一个参数调节信息的权重。
本申请一个实施例提供的基于联邦学习的大模型提示学习装置,通过接收至少一个客户端上传的针对初始提示网络的参数调节信息,聚合至少一个客户端上传的参数调节信息,获得聚合参数调节信息,可以降低各个客户端进行模型训练所需的训练数据量,提高针对初始提示网络训练的随机性,提高提示网络的准确性和对不同输入数据的适应性,从而提高骨干网络的任务泛化能力;通过将聚合参数调节信息发送至至少一个客户端,可以提高提示网络的训练效率,提高提示网络输出的提示信息的准确性,从而提高模型任务处理结果的准确性。
上述为本实施例的一种配置于服务端的基于联邦学习的大模型提示学习装置的示意性方案。需要说明的是,该配置于服务端的基于联邦学习的大模型提示学习装置的技术方案与上述的应用于服务端的基于联邦学习的大模型提示学习方法的技术方案属于同一构思,配置于服务端的基于联邦学习的大模型提示学习装置的技术方案未详细描述的细节内容,均可以参见上述应用于服务端的基于联邦学习的大模型提示学习方法的技术方案的描述。
参见图9,与上述方法实施例相对应,本申请还提供了一种任务处理装置实施例,图9示出了本申请一个实施例提供的一种应用于客户端的任务处理装置的结构示意图。如图9所示,该装置包括:
第二接收模块902:被配置为接收待处理任务,其中,待处理任务携带输入文本。
输入模块904:被配置为将输入文本输入任务处理模型,获得输入文本的文本处理结果。
其中,任务处理模型包括提示网络和骨干网络,提示网络用于根据输入文本,生成用于引导骨干网络的学习方向的目标提示信息;骨干网络用于根据提示信息和输入文本,生成输入文本的文本处理结果;提示网络基于聚合参数调节信息训练获得,聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得,参数调节信息为客户端通过骨干网络对训练样本和样本提示信息处理获得,样本提示信息为通过初始提示网络对训练样本处理获得。
本申请一个实施例提供的任务处理装置,通过适应性强的提示生成器,根据客户端输入的数据自动、高效地生成准确的提示信息,进而提高任务处理模型的任务处理结果准确性。
上述为本实施例的一种任务处理装置的示意性方案。需要说明的是,该任务处理装置的技术方案与上述的任务处理方法的技术方案属于同一构思,任务处理装置的技术方案未详细描述的细节内容,均可以参见上述任务处理方法的技术方案的描述。
图10示出了根据本申请一个实施例提供的一种计算设备的结构框图。该计算设备1000的部件包括但不限于存储器1010和处理器1020。处理器1020与存储器1010通过总线1030相连接,数据库1050用于保存数据。
计算设备1000还包括接入设备1040,接入设备1040使得计算设备1000能够经由一个或多个网络1060通信。这些网络的示例包括公用交换电话网(PSTN,Public SwitchedTelephone Network)、局域网(LAN,Local Area Network)、广域网(WAN,Wide AreaNetwork)、个域网(PAN,Personal Area Network)或诸如因特网的通信网络的组合。接入设备1040可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC,networkinterface controller))中的一个或多个,诸如IEEE802.11无线局域网(WLAN,WirelessLocal Area Network)无线接口、全球微波互联接入(Wi-MAX,WorldwideInteroperability for Microwave Access)接口、以太网接口、通用串行总线(USB,Universal Serial Bus)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC,Near FieldCommunication)。
在本申请的一个实施例中,计算设备1000的上述部件以及图10中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图10所示的计算设备结构框图仅仅是出于示例的目的,而不是对本申请范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备1000可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或个人计算机(PC,Personal Computer)的静止计算设备。计算设备1000还可以是移动式或静止式的服务器。
其中,处理器1020用于执行如下计算机可执行指令,该计算机可执行指令被处理器执行时实现上述方法的步骤。
上述为本实施例的一种计算设备的示意性方案。需要说明的是,该计算设备的技术方案与上述方法的技术方案属于同一构思,计算设备的技术方案未详细描述的细节内容,均可以参见上述方法的技术方案的描述。
本申请一实施例还提供一种计算机可读存储介质,其存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现上述方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述方法的技术方案的描述。
本申请一实施例还提供一种计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行上述方法的步骤。
上述为本实施例的一种计算机程序的示意性方案。需要说明的是,该计算机程序的技术方案与上述方法的技术方案属于同一构思,计算机程序的技术方案未详细描述的细节内容,均可以参见上述方法的技术方案的描述。
上述对本申请特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据专利实践的要求进行适当的增减,例如在某些地区,根据专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请实施例并不受所描述的动作顺序的限制,因为依据本申请实施例,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请实施例所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本申请优选实施例只是用于帮助阐述本申请。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本申请实施例的内容,可作很多的修改和变化。本申请选取并具体描述这些实施例,是为了更好地解释本申请实施例的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本申请。本申请仅受权利要求书及其全部范围和等效物的限制。

Claims (18)

1.一种基于联邦学习的大模型提示学习方法,其特征在于,应用于客户端,所述方法包括:
获取初始模型和训练样本,其中,所述初始模型包括骨干网络和初始提示网络;
根据所述训练样本和所述初始提示网络,生成样本提示信息,其中,所述样本提示信息用于在模型训练过程中,引导所述骨干网络的学习方向;
基于所述训练样本和所述样本提示信息,获取所述骨干网络的处理结果,并根据所述处理结果,获得针对所述初始提示网络的参数调节信息,将所述参数调节信息上传至服务端;
根据所述服务端返回的聚合参数调节信息,调整所述初始提示网络的网络参数,获得目标模型,其中,所述聚合参数调节信息为所述服务端聚合至少一个客户端上传的参数调节信息获得。
2.根据权利要求1所述的大模型提示学习方法,其特征在于,所述获取初始模型,包括:
向所述服务端发送训练任务请求,接收所述服务端响应于所述训练任务请求,返回的骨干网络和初始提示网络,其中,所述初始提示网络携带初始网络参数;
根据所述初始网络参数初始化所述初始提示网络;
确定任务类型,根据所述任务类型选择分类函数,并根据所述分类函数构建头网络;
基于所述骨干网络、初始化后的初始提示网络和所述头网络,构建所述初始模型。
3.根据权利要求1所述的大模型提示学习方法,其特征在于,所述初始模型还包括嵌入模块;
所述根据所述训练样本和所述初始提示网络,生成样本提示信息,包括:
将所述训练样本输入所述嵌入模块,获得所述嵌入模块输出的嵌入信息;
将所述嵌入信息输入所述初始提示网络,通过所述初始提示网络的初始网络参数,生成所述样本提示信息,其中,所述初始网络参数为所述服务端下发的网络参数。
4.根据权利要求3所述的大模型提示学习方法,其特征在于,所述基于所述训练样本和所述样本提示信息,获取所述骨干网络的处理结果,包括:
融合所述嵌入信息和所述样本提示信息,获得融合信息;
将所述融合信息输入所述骨干网络,获取所述骨干网络的处理结果。
5.根据权利要求1所述的大模型提示学习方法,其特征在于,所述初始模型还包括头网络,所述头网络根据所述客户端的任务类型对应的分类函数构建;
所述根据所述处理结果,获得针对所述初始提示网络的参数调节信息,包括:
获取所述训练样本对应的样本标签;
将所述处理结果输入所述头网络,获得所述头网络针对所述处理结果输出的预测结果;
根据所述预测结果和所述样本标签,获得针对所述初始提示网络的参数调节信息。
6.根据权利要求5所述的大模型提示学习方法,其特征在于,所述根据所述预测结果和所述样本标签,获得针对所述初始提示网络的参数调节信息,包括:
根据所述预测结果和所述样本标签,计算损失值;
基于所述损失值和所述初始提示网络的网络参数,采用梯度下降算法,反向传播计算所述初始提示网络的参数梯度;
将所述参数梯度作为所述初始提示网络的参数调节信息。
7.根据权利要求1-6任一项所述的大模型提示学习方法,其特征在于,所述将所述参数调节信息上传至服务端,包括:
获取预设噪声生成策略;
按照所述预设噪声生成策略,在所述参数调节信息中加入噪声,获得更新的参数调节信息。
8.一种基于联邦学习的大模型提示学习方法,其特征在于,应用于服务端,所述方法包括:
接收至少一个客户端上传的针对初始提示网络的参数调节信息,其中,所述初始提示网络用于在模型训练过程中,生成用于引导骨干网络的学习方向的样本提示信息;
聚合所述至少一个客户端上传的参数调节信息,获得聚合参数调节信息;
将所述聚合参数调节信息发送至所述至少一个客户端,其中,所述聚合参数调节信息用于所述客户端调整所述初始提示网络的网络参数获得目标模型。
9.根据权利要求8所述的大模型提示学习方法,其特征在于,所述接收至少一个客户端上传的针对初始提示网络的参数调节信息之前,还包括:
接收至少一个客户端发送的训练任务请求,获取骨干网络和初始提示网络,并生成所述初始提示网络对应的初始化网络参数,其中,所述骨干网络为根据所述训练任务预先训练获得;
向所述至少一个客户端发送所述骨干网络、所述初始提示网络和所述初始化网络参数。
10.根据权利要求9所述的大模型提示学习方法,其特征在于,所述训练任务请求携带任务类型;所述获取骨干网络和初始提示网络,包括:
获取所述任务类型对应的初始骨干网络,以及全局训练样本;
根据所述全局训练样本预训练所述初始骨干网络,获得预训练完成的骨干网络;
获取所述任务类型对应的初始提示网络,并初始化所述初始提示网络的初始网络参数。
11.根据权利要求8所述的大模型提示学习方法,其特征在于,所述聚合所述至少一个客户端上传的参数调节信息,获得聚合参数调节信息,包括:
确定所述至少一个客户端上传的参数调节信息的权重;
根据各权重,聚合所述至少一个参数调节信息,获得聚合参数调节信息。
12.根据权利要求11所述的大模型提示学习方法,其特征在于,所述确定所述至少一个客户端上传的参数调节信息的权重,包括:
获取至少一个参数调节信息所属客户端对应样本数据的数据量;
基于至少一个客户端对应样本数据的数据量,确定所述至少一个参数调节信息的权重。
13.一种任务处理方法,其特征在于,应用于客户端,所述方法包括:
接收待处理任务,其中,所述待处理任务携带输入文本;
将所述输入文本输入任务处理模型,获得所述输入文本的文本处理结果;
其中,所述任务处理模型包括提示网络和骨干网络,所述提示网络用于根据所述输入文本,生成用于引导所述骨干网络的学习方向的目标提示信息;所述骨干网络用于根据所述提示信息和所述输入文本,生成所述输入文本的文本处理结果;所述提示网络基于聚合参数调节信息训练获得,所述聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得,所述参数调节信息为客户端通过骨干网络对训练样本和样本提示信息处理获得,所述样本提示信息为通过初始提示网络对训练样本处理获得。
14.一种基于联邦学习的大模型提示学习装置,其特征在于,配置于客户端,所述装置包括:
获取模块,被配置为获取初始模型和训练样本,其中,所述初始模型包括骨干网络和初始提示网络;
生成模块,被配置为根据所述训练样本和所述初始提示网络,生成样本提示信息,其中,所述样本提示信息用于在模型训练过程中,引导所述骨干网络的学习方向;
上传模块,被配置为基于所述训练样本和所述样本提示信息,获取所述骨干网络的处理结果,并根据所述处理结果,获得针对所述初始提示网络的参数调节信息,将所述参数调节信息上传至服务端;
调整模块,被配置为根据所述服务端返回的聚合参数调节信息,调整所述初始提示网络的网络参数,获得目标模型,其中,所述聚合参数调节信息为所述服务端聚合至少一个客户端上传的参数调节信息获得。
15.一种基于联邦学习的大模型提示学习装置,其特征在于,配置于服务端,所述装置包括:
第一接收模块,被配置为接收至少一个客户端上传的针对初始提示网络的参数调节信息,其中,所述初始提示网络用于在模型训练过程中,生成用于引导骨干网络的学习方向的样本提示信息;
聚合模块,被配置为聚合所述至少一个客户端上传的参数调节信息,获得聚合参数调节信息;
发送模块,被配置为将所述聚合参数调节信息发送至所述至少一个客户端,其中,所述聚合参数调节信息用于所述客户端调整所述初始提示网络的网络参数获得目标模型。
16.一种任务处理装置,其特征在于,配置于客户端,所述装置包括:
第二接收模块,被配置为接收待处理任务,其中,所述待处理任务携带输入文本;
输入模块,被配置为将所述输入文本输入任务处理模型,获得所述输入文本的文本处理结果;
其中,所述任务处理模型包括提示网络和骨干网络,所述提示网络用于根据所述输入文本,生成用于引导所述骨干网络的学习方向的目标提示信息;所述骨干网络用于根据所述提示信息和所述输入文本,生成所述输入文本的文本处理结果;所述提示网络基于聚合参数调节信息训练获得,所述聚合参数调节信息为服务端聚合至少一个客户端上传的参数调节信息获得,所述参数调节信息为客户端通过骨干网络对训练样本和样本提示信息处理获得,所述样本提示信息为通过初始提示网络对训练样本处理获得。
17.一种计算设备,其特征在于,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,该计算机可执行指令被处理器执行时实现权利要求1至13任意一项所述方法的步骤。
18.一种计算机可读存储介质,其特征在于,其存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现权利要求1至13任意一项所述方法的步骤。
CN202311342438.3A 2023-10-16 2023-10-16 一种基于联邦学习的大模型提示学习方法以及装置 Pending CN117313837A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311342438.3A CN117313837A (zh) 2023-10-16 2023-10-16 一种基于联邦学习的大模型提示学习方法以及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311342438.3A CN117313837A (zh) 2023-10-16 2023-10-16 一种基于联邦学习的大模型提示学习方法以及装置

Publications (1)

Publication Number Publication Date
CN117313837A true CN117313837A (zh) 2023-12-29

Family

ID=89261909

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311342438.3A Pending CN117313837A (zh) 2023-10-16 2023-10-16 一种基于联邦学习的大模型提示学习方法以及装置

Country Status (1)

Country Link
CN (1) CN117313837A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117875273A (zh) * 2024-03-13 2024-04-12 中南大学 基于大型语言模型的新闻摘要自动生成方法、设备及介质
CN118101339A (zh) * 2024-04-23 2024-05-28 山东科技大学 一种应对物联网隐私保护的联邦知识蒸馏方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117875273A (zh) * 2024-03-13 2024-04-12 中南大学 基于大型语言模型的新闻摘要自动生成方法、设备及介质
CN117875273B (zh) * 2024-03-13 2024-05-28 中南大学 基于大型语言模型的新闻摘要自动生成方法、设备及介质
CN118101339A (zh) * 2024-04-23 2024-05-28 山东科技大学 一种应对物联网隐私保护的联邦知识蒸馏方法

Similar Documents

Publication Publication Date Title
CN110390108B (zh) 基于深度强化学习的任务型交互方法和***
JP7208952B2 (ja) 対話モデルを生成するための方法及び装置
CN117313837A (zh) 一种基于联邦学习的大模型提示学习方法以及装置
CN116595154B (zh) 任务处理方法以及自动问答方法
JP2023521120A (ja) 共同トレーニングモデルを評価するための方法及び装置
Xu et al. Lightweight and unobtrusive data obfuscation at IoT edge for remote inference
CN116431316B (zh) 任务处理方法、***、平台及自动问答方法
CN117332072B (zh) 对话处理、语音摘要提取以及目标对话模型训练方法
CN111340220A (zh) 用于训练预测模型的方法和装置
CN114723047B (zh) 任务模型训练方法、装置以及***
CN116303558A (zh) 查询语句生成方法、数据查询方法及生成模型训练方法
CN116610781A (zh) 任务模型训练方法以及装置
CN117573842B (zh) 文档检索方法以及自动问答方法
WO2022001887A1 (zh) 用于训练物品编码模型的方法和装置
CN117971420A (zh) 任务处理、交通任务处理以及任务处理模型训练方法
Tao et al. Wireless Network Digital Twin for 6G: Generative AI as A Key Enabler
CN117193965A (zh) 任务处理方法、问答处理方法以及分布式***
CN112348197A (zh) 基于联邦学习的模型生成方法及装置
CN116578423A (zh) 任务处理方法、自动问答方法以及图像生成方法
CN116415064A (zh) 双目标域推荐模型的训练方法及装置
CN112395490B (zh) 用于生成信息的方法和装置
CN111353585A (zh) 神经网络模型的结构搜索方法和装置
CN116541712B (zh) 基于非独立同分布数据的联邦建模方法及***
CN116778011B (zh) 图像生成方法
CN113656573B (zh) 文本信息生成方法、装置、终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination