CN116306986A - 一种基于动态亲和力聚合的联邦学习方法及相关设备 - Google Patents

一种基于动态亲和力聚合的联邦学习方法及相关设备 Download PDF

Info

Publication number
CN116306986A
CN116306986A CN202211569899.XA CN202211569899A CN116306986A CN 116306986 A CN116306986 A CN 116306986A CN 202211569899 A CN202211569899 A CN 202211569899A CN 116306986 A CN116306986 A CN 116306986A
Authority
CN
China
Prior art keywords
client
clients
server
model
affinity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211569899.XA
Other languages
English (en)
Other versions
CN116306986B (zh
Inventor
廖清
杨旭
冯纪元
贾焰
方滨兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Harbin Institute of Technology
Original Assignee
Shenzhen Graduate School Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Harbin Institute of Technology filed Critical Shenzhen Graduate School Harbin Institute of Technology
Priority to CN202211569899.XA priority Critical patent/CN116306986B/zh
Publication of CN116306986A publication Critical patent/CN116306986A/zh
Application granted granted Critical
Publication of CN116306986B publication Critical patent/CN116306986B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明公开一种基于动态亲和力聚合的联邦学习方法及相关设备,所述方法包括:服务器端发送初始化模型至所有客户端;客户端利用预存的本地数据对初始化模型进行模型训练,得到经过训练后的模型参数后;服务器端根据类别数量组成数据分布向量后,计算所有客户端之间的亲和力值;服务器端根据经过训练后的模型参数和亲和力值生成每个客户端在本轮中的个性化全局模型;客户端在每轮通信上结合个性化全局模型更新经过训练后的模型参数,直至服务器端执行完所有的通信轮次。通过服务器端根据经过训练后的模型参数和所有客户端之间的亲和力值,生成每个客户端的个性化全局模型,以便客户端进行更新训练后的模型参数,从而有效地提升联邦学习的模型性能。

Description

一种基于动态亲和力聚合的联邦学习方法及相关设备
技术领域
本发明涉及人工智能技术领域,特别涉及一种基于动态亲和力聚合的联邦学习方法及相关设备。
背景技术
随着人工智能技术不断发展,人工智能技术在几乎所有行业都展现出了自己的优势,无人驾驶汽车、医疗保健、金融等行业都有人工智能技术的身影。当前现有的人工智能技术大多都是由大量的数据支撑的。但是,在实际的生活中,获取到大量质量较高的数据用于模型的训练是十分困难的。因为首先是大多数领域的数据质量有限,其次是收集大量数据所带来的数据安全问题、隐私保护问题等。再者,拥有数据的各方存在着壁垒,形成一个个“数据孤岛”,难以将有价值的数据集中在一起用于模型的训练。因此人工智能技术进一步的应用面临着巨大的阻力。
与此同时,随着近些年全球范围内数据泄露事件的频频发生。为了加强对数据的保护以及规范数据的使用,各国也相继建立的相关的数据保护的法律法规促进个人信息合理利用。因此,如何在法律法规以及现有的约束下利用各方数据也是人工智能面临的一大挑战。
针对“数据孤岛”的直接解决方案是集中处理数据,但在行业的竞争及当前法律法规对用户数据隐私的约束下,这种方式已经不可取。因此,既可以保护数据,满足数据隐私、安全和监管要求,又可以挖掘各方数据所包含的价值成为了人工智能亟待解决的问题之一。各方的原始数据无法直接集中,那么在各方原始数据不互通或是对数据进行保护的情况下,仍然可以完成机器学习模型的训练,完成各方数据中所包含的“知识”的交互,这就是联邦学习(Fedarated Learning,FL)。
目前的基于模型加权的联邦学***衡的问题,仅仅根据客户端间的相似性进行聚合会导致客户端内部存在的类间不平衡问题进一步加剧,使得聚合后的模型表现更差。
因而现有技术还有待改进和提高。
发明内容
本发明的主要目的在于提供一种基于动态亲和力聚合的联邦学***衡,而导致联邦学习的模型性能下降的问题。
为了达到上述目的,本发明采取了以下技术方案:
一种基于动态亲和力聚合的联邦学习方法,所述基于动态亲和力聚合的联邦学习方法包括:
服务器端发送初始化模型至所有客户端,并设定通信轮次;
所述客户端利用预存的本地数据对所述初始化模型进行模型训练,得到经过训练后的模型参数,并发送经过训练后的模型参数和预存的本地数据的类别数量至所述服务器端;
所述服务器端根据所述类别数量组成数据分布向量后,计算所有客户端之间的亲和力值,并从所有客户端中选取得到客户端集合;
所述服务器端根据经过训练后的模型参数和所述亲和力值生成每个客户端在本轮中的个性化全局模型;
所述服务器端将个性化全局模型对应发送至所述客户端后,所述客户端在每轮通信上结合个性化全局模型更新经过训练后的模型参数,直至所述服务器端执行完所有的通信轮次。
所述基于动态亲和力聚合的联邦学习方法中,所述服务器端发送初始化模型至所有客户端,并设定通信轮次的步骤具体包括:
所述服务器端对所有客户端发送所述初始化模型的参数,并设定通信的轮次。
所述基于动态亲和力聚合的联邦学习方法中,所述客户端利用预存的本地数据对所述初始化模型进行模型训练,得到经过训练后的模型参数,并发送经过训练后的模型参数和预存的本地数据的类别数量至所述服务器端的步骤具体包括:
所述客户端利用所述本地数据和上一轮的个性化全局模型对所述初始化模型进行训练,得到经过训练后的模型参数;
所述客户端将经过训练后的模型参数和所述本地数据的类别数量发送至所述服务器端。
所述基于动态亲和力聚合的联邦学习方法中,所述服务器端根据所述类别数量组成数据分布向量后,计算所有客户端之间的亲和力值,并从所有客户端中选取得到客户端集合的步骤具体包括:
所述服务器端根据每两个客户端的数据分布向量计算该两个客户端之间的亲和力值,直至计算出所有的客户端之间的亲和力值;
所述服务器端在每一轮通信内从所有客户端中随机选取同一预设个数的客户端,组成所述客户端集合。
所述基于动态亲和力聚合的联邦学习方法中,所述服务器端根据经过训练后的模型参数和所述亲和力值生成每个客户端在本轮中的个性化全局模型的步骤具体包括:
所述服务器端根据每两个客户端的亲和力值和经过训练后的模型参数计算该两个客户端之间的权重;
所述服务器端根据所述权重对所有客户端上的经过训练后的模型参数进行加权,得到当前客户端的个性化全局模型,直至计算所有客户端的个性化全局模型。
所述基于动态亲和力聚合的联邦学习方法中,所述服务器端将个性化全局模型对应发送至所述客户端后,所述客户端在每轮通信上结合个性化全局模型更新经过训练后的模型参数,直至所述服务器端执行完所有的通信轮次的步骤具体包括:
所述服务器端将所述个性化全局模型对应发送至所述客户端;
在每轮通信上,所述客户端根据优化目标,并结合对应的所述个性化全局模型更新经过训练后的模型参数,直至所述服务器端执行完所有的通信轮次。
所述基于动态亲和力聚合的联邦学习方法中,所述通信轮次为所述客户端与所述服务器端进行通信的轮次。
一种基于动态亲和力聚合的联邦学习***,所述基于动态亲和力聚合的联邦学习***包括:服务器端和客户端;
所述服务器端用于发送初始化模型至所有客户端,并设定通信轮次;
所述客户端用于利用预存的本地数据对所述初始化模型进行模型训练,得到经过训练后的模型参数,并发送经过训练后的模型参数和预存的本地数据的类别数量至所述服务器端;
所述服务器端用于根据所述类别数量组成数据分布向量后,计算所有客户端之间的亲和力值,并从所有客户端中选取得到客户端集合;
所述服务器端用于根据经过训练后的模型参数和所述亲和力值生成每个客户端在本轮中的个性化全局模型;
所述服务器端还用于将个性化全局模型对应发送至所述客户端,所述客户端还用于在每轮通信上结合个性化全局模型更新经过训练后的模型参数,直至所述服务器端执行完所有的通信轮次。
所述基于动态亲和力聚合的联邦学习***中,所述服务器端具体用于根据每两个客户端的亲和力值和经过训练后的模型参数计算该两个客户端之间的权重;
所述服务器端具体用于根据所述权重对所有客户端上的经过训练后的模型参数进行加权,得到当前客户端的个性化全局模型,直至计算所有客户端的个性化全局模型。
一种计算机可读存储介质,所述计算机可读存储介质存储有基于动态亲和力聚合的联邦学习程序,所述基于动态亲和力聚合的联邦学习程序被处理器执行时实现如上所述的基于动态亲和力聚合的联邦学习方法的步骤。
相较于现有技术,本发明提供的一种基于动态亲和力聚合的联邦学习方法及相关设备,所述方法包括:服务器端发送初始化模型至所有客户端;客户端利用预存的本地数据对初始化模型进行模型训练,得到经过训练后的模型参数后;服务器端根据类别数量组成数据分布向量后,计算所有客户端之间的亲和力值;服务器端根据经过训练后的模型参数和亲和力值生成每个客户端在本轮中的个性化全局模型;客户端在每轮通信上结合个性化全局模型更新经过训练后的模型参数,直至服务器端执行完所有的通信轮次。通过服务器端根据经过训练后的模型参数和所有客户端之间的亲和力值,生成每个客户端的个性化全局模型,以便客户端进行更新训练后的模型参数,从而有效地提升联邦学习的模型性能。
附图说明
图1为本发明提供的基于动态亲和力聚合的联邦学习方法的较佳实施例的流程图;
图2为本发明提供的基于动态亲和力聚合的联邦学习方法的较佳实施例中服务器端与多客户端进行交互的过程示意图;
图3为本发明提供的基于动态亲和力聚合的联邦学习方法的较佳实施例中步骤S200的流程图;
图4为本发明提供的基于动态亲和力聚合的联邦学习方法的较佳实施例中步骤S300的流程图;
图5为本发明提供的基于动态亲和力聚合的联邦学习方法的较佳实施例中步骤S400的流程图;
图6为本发明提供的基于动态亲和力聚合的联邦学习方法的较佳实施例中步骤S500的流程图;
图7为本发明提供的基于动态亲和力聚合的联邦学习***的原理框图。
具体实施方式
为使本发明的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
为了方便理解本申请实施例,首先在此介绍本发明实施例涉及到的相关要素。
近些年,由于联邦学***均算法(FedAvg)算法,算法的具体步骤如下:
步骤1:服务器端将当前轮次的全局模型参数
Figure BDA0003987567040000071
下发到各个客户端。即当前通信轮次为t,下发的为t-1轮的全局模型,客户端i的模型参数为:
Figure BDA0003987567040000072
步骤2:服务器端随机选择部分客户端作为参与本通信轮次参与训练的客户端集合。
步骤3:参与训练的客户端根据本地数据训练模型,即:
Figure BDA0003987567040000073
式中
Figure BDA0003987567040000074
为在t通信轮次客户端i的模型参数,/>
Figure BDA0003987567040000075
为上一轮的模型参数,即第t通信轮次中的初始参数,η为学习率,/>
Figure BDA0003987567040000076
为第t-1轮的梯度。
步骤4:客户端训练完成后将本轮训练得到的
Figure BDA0003987567040000077
上传到服务器端。
步骤5:服务器端对接收到的客户端模型参数进行聚合,聚合方式为:
Figure BDA0003987567040000078
式中,
Figure BDA0003987567040000079
为本通信轮得到的全局模型参数,n为所有样本的总数,nk为步骤2中选择的客户端集合中的第k个客户端拥有的样本总数,/>
Figure BDA00039875670400000710
为客户端k的在第t轮的模型参数。
步骤6:重复执行以上步骤,直到训练结束。
针对非独立同分布场景下联邦学习,国内外也有了一些研究进展。
例如FedProx为客户端局部子问题引入了一个近端项,该近端项考虑了全局FL模型与局部模型之间存在的差异,用以调整不同数据分布的客户端局部更新带来的影响。FedProx可以被看作是FedAvg的泛化,通过引入近端项提高了在非独立同分布(non-Independently Identical Distribution,non-IID)场景下的稳定性。
例如为每个客户端生成一个适合本地数据分布的模型,而不是生成一个适应各客户端数据分布的全局模型。Ditto通过一个正则项将本地模型和全局模型进行结合,使得客户端可以学习到全局模型中所包含的“信息”。其客户端的更新方式如下式所示:
Figure BDA0003987567040000081
式中,vk为客户端k的本地模型参数,w*为经过本地数据训练后的全局模型。Ditto方法中每轮选择需要参与训练的客户端集合并将全局模型进行下发,客户端根据本地数据对全局模型进行训练,得到w*用于本地模型vk的更新中,然后客户端保留自己的本地模型vk,仅上传w*进行全局模型的聚合。
例如Federated Representation Learning(FedRep)方法,该方法将每个客户端模型分为个性化的分类器头部和全局共享的特征表示部分。在模型的每轮训练过程中,所有客户端根据本地数据训练自己的模型,但是各个客户端之间仅共享特征表示部分的参数,用于分类的个性化头部则保留在本地,不参与模型的共享。服务器端将每轮参与训练的客户端的特征表示部分进行平均并发回到客户端,成为新一轮的客户端模型参数。
例如Privacy-preserving Federated Adaptation(PFA)方法,该方法提出仅数据分布相似的客户端之间进行协作,提高模型适应不同客户端数据分布的能力。方法首先根据客户端的样本计算每个样本的稀疏向量(经典CNN模型中,经过ReLU激活函数后的特征图上0的占比),构成样本的稀疏度,再将客户端所有样本的稀疏度进行平均得到客户端的稀疏度。然后将客户端的稀疏度向量作为本客户端的数据分布向量,将稀疏度向量和客户端更新后的模型参数上传到服务器端。在服务器端端计算各个客户端间数据分布的欧式距离,根据距离的大小将客户端划分为不同的组,每个组内进行客户端模型的平均。
例如提出的Federated attentive message passing(FedAMP)方法。FedAMP在服务器端端为每个客户端保留一个个性化云模型,该个性化云模型是所有客户端模型的线性组合。其个性化云模型的设计为:
Figure BDA0003987567040000091
式中,A为注意力诱导函数;FedAMP设置为负指数函数,即
Figure BDA0003987567040000092
σ为超参数;A'为A函数的导数;ξi,m为聚合的权重,其和为1。这种设计方式使得越相似的两个客户端之间权重越高。
其中,FedAMP的具体步骤为:
步骤一:服务器端收集客户端上一轮(k-1轮)的使用本地数据训练后的模型参数(FedAMP方法收集模型参数后用于该方法个性化云模型的计算)。
步骤二:服务器端根据上面公式为每个客户端计算个性化云模型
Figure BDA0003987567040000093
并下发到客户端。
步骤三:客户端根据
Figure BDA0003987567040000094
进行本地模型的训练。
步骤四:重复执行直到训练结束。
FedAMP方法的缺点在于将相似的客户端模型聚合在一起(步骤二中),在客户端内部各类别数目不等的情况下,这种方式会导致客户端内部类别数量不等情况进一步加剧,使得模型在客户端类别不等的场景下表现更差。Ditto方法的缺点在于使用训练后的全局模型作为本地模型的近似,这种方式并不能解决客户端内部各类别数目不等的场景。
为了解决上述现有技术问题,本发明提供了一种基于动态亲和力聚合的联邦学习方法及相关设备。本发明中通过客户端利用本地数据对初始化模型进行模型训练,得到经过训练后的模型参数,服务器端再根据经过训练后的模型参数,以及根据类别数量计算得到所有客户端之间的亲和力值,生成每个客户端在本轮中的个性化全局模型,从而缓解客户端之间的数据分布不同问题,提高客户端之间的协作效果和提升客户端模型的准确率。
下面通过具体示例性的实施例对基于动态亲和力聚合的联邦学习方法设计方案进行描述,需要说明的是,下列实施例只用于对发明的技术方案进行解释说明,并不做具体限定:
请参阅图1,本发明中提供的一种基于动态亲和力聚合的联邦学习方法,所述基于动态亲和力聚合的联邦学习方法包括:
S100、服务器端发送初始化模型至所有客户端,并设定通信轮次。
具体地,在所述服务器端与多个客户端进行通信时,首先,所述服务器端发送所述初始化模型至所有客户端,并设定所述通信轮次(比如第t轮),即设定通信的轮次。
更进一步地,所述S100、服务器端发送初始化模型至所有客户端,并设定通信轮次的步骤具体包括:
S110、所述服务器端对所有客户端发送所述初始化模型的参数,并设定通信的轮次。其中,所述通信轮次为所述客户端与所述服务器端进行通信的轮次。
具体地,请参阅图2,在所述服务器端与多个客户端进行通信时,首先,所述服务器端对所有客户端发送所述初始化模型的参数w0(对应图2中的步骤①),即所述服务器端对所有客户端发送初始化模型,同时,设定通信的轮次,即设定通信轮次。
进一步地,请继续参阅图1,S200、所述客户端利用预存的本地数据对所述初始化模型进行模型训练,得到经过训练后的模型参数,并发送经过训练后的模型参数和预存的本地数据的类别数量至所述服务器端。
具体地,在所述服务器端发送初始化模型至所有客户端后,所述客户端利用预存的本地数据(例如图片等)对所述初始化模型进行模型训练,得到经过训练后的模型参数。然后,所述客户端将经过训练后的模型参数和预存的本地数据的类别数量一并发送至所述服务器端,即将本地数据的每个类的数量一并发送至所述服务器端。
通过客户端利用预存的本地数据对所述初始化模型进行模型训练,得到经过训练后的模型参数后,发送至所述服务器端,以便所述服务器端根据所述类别数量计算得到所有客户端之间的亲和力值。
更进一步地,请参阅图3,S200、所述客户端利用预存的本地数据对所述初始化模型进行模型训练,得到经过训练后的模型参数,并发送经过训练后的模型参数和预存的本地数据的类别数量至所述服务器端的步骤具体包括:
S210、所述客户端利用所述本地数据和上一轮的个性化全局模型对所述初始化模型进行训练,得到经过训练后的模型参数;
S220、所述客户端将经过训练后的模型参数和所述本地数据的类别数量发送至所述服务器端。
具体地,在所述服务器端发送初始化模型至所有客户端后,所述客户端利用预存的本地数据和上一轮的个性化全局模型对所述初始化模型进行训练(对应图2中的步骤③),得到经过训练后的模型参数。之后,所述客户端将经过训练后的模型参数和拥有的本地数据的类别数量发送至所述服务器端,以便所述服务器端根据所述类别数量计算所有客户端之间的亲和力值。
进一步地,请继续参阅图1,S300、所述服务器端根据所述类别数量组成数据分布向量后,计算所有客户端之间的亲和力值,并从所有客户端中选取得到客户端集合。
具体地,当所述客户端将所述类别数量发送至所述服务器端后,所述服务器端根据所述类别数量组成所述数据分布向量,然后,根据所述数据分布向量计算所有客户端之间的亲和力值,其次,在每一轮通信内从所有客户端中选取待训练的客户端(对应图2中的步骤②),组合形成所述客户端集合。
更进一步地,请参阅图4,S300、所述服务器端根据所述类别数量组成数据分布向量后,计算所有客户端之间的亲和力值,并从所有客户端中选取得到客户端集合的步骤具体包括:
S310、所述服务器端根据每两个客户端的数据分布向量计算该两个客户端之间的亲和力值,直至计算出所有的客户端之间的亲和力值;
S320、所述服务器端在每一轮通信内从所有客户端中随机选取同一预设个数的客户端,组成所述客户端集合。
具体地,当所述客户端将所述类别数量发送至所述服务器端后,所述服务器端根据所述类别数量组成所述数据分布向量,然后,所述服务器端计算每两个客户端之间的亲和力值,本实施例中以客户端i和客户端j为例,那么,客户端i和客户端j之间的亲和力值cij为:
Figure BDA0003987567040000121
其中,Si为客户端i每个类别数量组成的向量(数据分布向量);Si,为客户端i的第k个类的数量;S′i,k为在客户端i和客户端j均有的类k的数量;
Figure BDA0003987567040000122
为客户端i和客户端j均有的类的平均值向量,即向量的长度等于S′i,,向量中每个元素的值为S′i,k和S′j,所有元素的均值。len(·)函数为计算两个向量重合部分的长度占向量总长度的比值,如果两个向量不存在重叠部分,则给与所有亲和力权重的最小值。
然后,对所有客户端重复进行计算亲和力值的操作,直至计算出所有的客户端之间的亲和力值。
其次,在每一轮当中所述服务器端从所有客户端中随机选取同一预设个数的客户端,即在每一轮中从所有客户端中随机选择固定数量的客户端,将所有选择的客户端组成所述客户端集合。
进一步地,请继续参阅图1,S400、所述服务器端根据经过训练后的模型参数和所述亲和力值生成每个客户端在本轮中的个性化全局模型。
具体地,在所述服务器端计算得到所述亲和力值后,所述服务器端根据经过训练后的模型参数和所述亲和力值生成每个客户端在本轮中的个性化全局模型(对应图2中的步骤④),以便客户端用于对本地的训练后的模型参数进行更新。
更进一步地,请参阅图5,S400、所述服务器端根据经过训练后的模型参数和所述亲和力值生成每个客户端在本轮中的个性化全局模型的步骤具体包括:
S410、所述服务器端根据每两个客户端的亲和力值和经过训练后的模型参数计算该两个客户端之间的权重;
S420、所述服务器端根据所述权重对所有客户端上的经过训练后的模型参数进行加权,得到当前客户端的个性化全局模型,直至计算所有客户端的个性化全局模型。
具体地,在所述服务器端计算得到所述亲和力值后,所述服务器端根据每两个客户端的亲和力值和该两个客户端的经过训练后的模型参数计算该两个客户端之间的权重,实现的过程如下:
同样是以客户端i和客户端j为例,首先,通过客户端i和客户端j之间的亲和力值cij,结合客户端i和客户端j的经过训练后的模型参数计算θi,j
Figure BDA0003987567040000131
其中,σ为超参数(本发明中的一个替换方案为不使用σ确定相应权重的大小)。
然后,计算所述个性化全局模型中的该两个客户端之间结合权重αi,
Figure BDA0003987567040000141
其次,根据所述权重αi,,对所有客户端上的经过训练后的模型参数进行加权,得到当前客户端i的个性化全局模型:即得到客户端i的个性化全局模型
Figure BDA0003987567040000142
为:
Figure BDA0003987567040000143
若对于当前客户端j时,则得到客户端j的个性化全局模型/>
Figure BDA0003987567040000144
为:/>
Figure BDA0003987567040000145
Figure BDA0003987567040000146
最后,对其他所有客户端同样进行计算个性化全局模型的操作,直至计算完所有客户端的个性化全局模型。
进一步地,请继续参阅图1,S500、所述服务器端将个性化全局模型对应发送至所述客户端后,所述客户端在每轮通信上结合个性化全局模型更新经过训练后的模型参数,直至所述服务器端执行完所有的通信轮次。
具体地,在所述服务器端计算得到所述个性化全局模型后,所述服务器端将个性化全局模型对应发送至所述客户端,即所述服务器端将所述客户端i的个性化全局模型
Figure BDA0003987567040000147
发送至所述客户端i,并将所述客户端j的个性化全局模型/>
Figure BDA0003987567040000148
发送至所述客户端j。然后,在每轮通信的每一个客户端上,所述客户端结合个性化全局模型更新经过训练后的模型参数。最后,重复上述步骤S300-S500,直至所述服务器端执行完所有的通信轮次,从而实现在所有通信轮次上所有客户端实时更新本地模型(经过训练后的模型参数)。
更进一步地,请参阅图6,S500、所述服务器端将个性化全局模型对应发送至所述客户端后,所述客户端在每轮通信上结合个性化全局模型更新经过训练后的模型参数,直至所述服务器端执行完所有的通信轮次的步骤具体包括:
S510、所述服务器端将所述个性化全局模型对应发送至所述客户端;
S520、在每轮通信上,所述客户端根据优化目标,并结合对应的所述个性化全局模型更新经过训练后的模型参数,直至所述服务器端执行完所有的通信轮次。
具体地,在所述服务器端计算得到所述个性化全局模型后,所述服务器端将各自的个性化全局模型对应发送至所述客户端。然后,在每轮通信的每一个客户端上,所述客户端根据优化目标(以客户端i为例):
Figure BDA0003987567040000151
其中,F(wi)为客户端i的损失函数,λ为超参数(本发明中的另一个替换方案为不使用λ确定相应权重的大小)。
并结合对应的所述个性化全局模型更新经过训练后的模型参数,经过训练后的模型参数更新为:
Figure BDA0003987567040000152
Figure BDA0003987567040000153
Figure BDA0003987567040000154
其中,η为学习率,λ为超参数,
Figure BDA0003987567040000155
为梯度。
最后,重复上述步骤S300-S500,直至所述服务器端执行完所有的通信轮次。
进一步地,请参阅图7,本发明提供的一种基于动态亲和力聚合的联邦学习***,所述基于动态亲和力聚合的联邦学习***包括:服务器端10和客户端20;
所述服务器端10用于发送初始化模型至所有客户端20,并设定通信轮次;
所述客户端20用于利用预存的本地数据对所述初始化模型进行模型训练,得到经过训练后的模型参数,并发送经过训练后的模型参数和预存的本地数据的类别数量至所述服务器端10;
所述服务器端10用于根据所述类别数量组成数据分布向量后,计算所有客户端20之间的亲和力值,并从所有客户端20中选取得到客户端20集合;
所述服务器端10用于根据经过训练后的模型参数和所述亲和力值生成每个客户端20在本轮中的个性化全局模型;
所述服务器端10还用于将个性化全局模型对应发送至所述客户端20,所述客户端20还用于在每轮通信上结合个性化全局模型更新经过训练后的模型参数,直至所述服务器端10执行完所有的通信轮次。
具体地,在所述服务器端10与多个客户端20进行通信时,首先,所述服务器端10发送所述初始化模型至所有客户端20,并设定所述通信轮次(比如第t轮),即设定通信的轮次。然后,所述客户端20利用预存的本地数据(例如图片等)对所述初始化模型进行模型训练,得到经过训练后的模型参数。同时,所述客户端20将经过训练后的模型参数和预存的本地数据的类别数量一并发送至所述服务器端10,即将本地数据的每个类的数量一并发送至所述服务器端。
其次,所述服务器端10根据所述类别数量组成所述数据分布向量,并根据所述数据分布向量计算所有客户端20之间的亲和力值。同时,在每一轮通信内所述服务器端10从所有客户端20中选取待训练的客户端20,组合形成所述客户端集合。再者,所述服务器端10根据经过训练后的模型参数和所述亲和力值生成每个客户端20在本轮中的个性化全局模型,并对应发送至所述客户端20。最后,所述客户端20在每轮通信上结合个性化全局模型更新经过训练后的模型参数,直至所述服务器端10执行完所有的通信轮次。
本发明中通过所述客户端20利用预存的本地数据对所述服务器端10发送的初始化模型进行模型训练,得到经过训练后的模型参数,所述服务器端10则根据所述客户端20发送的类别数量组成数据分布向量后,计算出所有客户端20之间的亲和力值,并根据经过训练后的模型参数和所述亲和力值生成每个客户端20在本轮中的个性化全局模型,以便所述客户端20更新经过训练后的模型参数。
本发明不仅提出了基于数据分布的补全策略来解决客户端内部数量不平衡和样本标签分布不平衡问题,即客户端可以找到使得自己数据分布更加平衡的其它客户端,并设计了一种客户端亲和力指标用以衡量客户端之间数据分布补全程度。客户端亲和力的大小可以用来指导客户端之间的聚合策略。
本发明还提出了动态亲和力聚合方法,该方法除了客户端之间的亲和力还引入了一个负指数项,使得每轮的聚合权重随着训练不断变化,并可以加强拥有同类但是存在差异的客户端之间的协作,采用将亲和力与不同客户端之间模型参数的负指数函数结合的方式,使得客户端可以选择对自己有用的其他客户端模型参数,从而缓解了客户端之间的数据分布不同问题,提高了客户端之间的协作效果,提升了客户端模型的准确率。
更进一步地,所述服务器端10具体用于根据每两个客户端20的所述亲和力值和经过训练后的模型参数计算该两个客户端20之间的权重;
所述服务器端10具体用于根据所述权重对每个客户端20上的经过训练后的模型参数进行加权,得到所有客户端20的个性化全局模型。
具体地,同样是以客户端i和客户端j为例,在所述服务器端10计算得到所述亲和力值后,所述服务器端10根据每两个客户端20的亲和力值和该两个客户端20的经过训练后的模型参数计算该两个客户端20之间的权重。
所述服务器端10再根据所述权重对所有客户端20上的经过训练后的模型参数进行加权,得到当前客户端20的个性化全局模型。最后,对其他所有客户端20进行计算个性化全局模型的操作,直至计算所有客户端20的个性化全局模型。
进一步地,本发明提供的一种计算机可读存储介质,所述计算机可读存储介质存储有基于动态亲和力聚合的联邦学习程序,所述基于动态亲和力聚合的联邦学习程序被处理器执行时实现如上所述的基于动态亲和力聚合的联邦学习方法的步骤;由于上述对该所述基于动态亲和力聚合的联邦学习方法的步骤进行了详细的描述,在此不再赘述。
综上所述,本发明提供的一种基于动态亲和力聚合的联邦学习方法及相关设备,所述方法包括:服务器端发送初始化模型至所有客户端;客户端利用预存的本地数据对初始化模型进行模型训练,得到经过训练后的模型参数后;服务器端根据类别数量组成数据分布向量后,计算所有客户端之间的亲和力值;服务器端根据经过训练后的模型参数和亲和力值生成每个客户端在本轮中的个性化全局模型;客户端在每轮通信上结合个性化全局模型更新经过训练后的模型参数,直至服务器端执行完所有的通信轮次。通过服务器端根据经过训练后的模型参数和所有客户端之间的亲和力值,生成每个客户端的个性化全局模型,以便客户端进行更新训练后的模型参数,从而有效地提升联邦学习的模型性能。
可以理解的是,对本领域普通技术人员来说,可以根据本发明的技术方案及其发明构思加以等同替换或改变,而所有这些改变或替换都应属于本发明所附的权利要求的保护范围。

Claims (10)

1.一种基于动态亲和力聚合的联邦学习方法,其特征在于,所述基于动态亲和力聚合的联邦学习方法包括:
服务器端发送初始化模型至所有客户端,并设定通信轮次;
所述客户端利用预存的本地数据对所述初始化模型进行模型训练,得到经过训练后的模型参数,并发送经过训练后的模型参数和预存的本地数据的类别数量至所述服务器端;
所述服务器端根据所述类别数量组成数据分布向量后,计算所有客户端之间的亲和力值,并从所有客户端中选取得到客户端集合;
所述服务器端根据经过训练后的模型参数和所述亲和力值生成每个客户端在本轮中的个性化全局模型;
所述服务器端将个性化全局模型对应发送至所述客户端后,所述客户端在每轮通信上结合个性化全局模型更新经过训练后的模型参数,直至所述服务器端执行完所有的通信轮次。
2.根据权利要求1所述的基于动态亲和力聚合的联邦学习方法,其特征在于,所述服务器端发送初始化模型至所有客户端,并设定通信轮次的步骤具体包括:
所述服务器端对所有客户端发送所述初始化模型的参数,并设定通信的轮次。
3.根据权利要求1所述的基于动态亲和力聚合的联邦学习方法,其特征在于,所述客户端利用预存的本地数据对所述初始化模型进行模型训练,得到经过训练后的模型参数,并发送经过训练后的模型参数和预存的本地数据的类别数量至所述服务器端的步骤具体包括:
所述客户端利用所述本地数据和上一轮的个性化全局模型对所述初始化模型进行训练,得到经过训练后的模型参数;
所述客户端将经过训练后的模型参数和所述本地数据的类别数量发送至所述服务器端。
4.根据权利要求1所述的基于动态亲和力聚合的联邦学习方法,其特征在于,所述服务器端根据所述类别数量组成数据分布向量后,计算所有客户端之间的亲和力值,并从所有客户端中选取得到客户端集合的步骤具体包括:
所述服务器端根据每两个客户端的数据分布向量计算该两个客户端之间的亲和力值,直至计算出所有的客户端之间的亲和力值;
所述服务器端在每一轮通信内从所有客户端中随机选取同一预设个数的客户端,组成所述客户端集合。
5.根据权利要求1所述的基于动态亲和力聚合的联邦学习方法,其特征在于,所述服务器端根据经过训练后的模型参数和所述亲和力值生成每个客户端在本轮中的个性化全局模型的步骤具体包括:
所述服务器端根据每两个客户端的亲和力值和经过训练后的模型参数计算该两个客户端之间的权重;
所述服务器端根据所述权重对所有客户端上的经过训练后的模型参数进行加权,得到当前客户端的个性化全局模型,直至计算所有客户端的个性化全局模型。
6.根据权利要求1所述的基于动态亲和力聚合的联邦学习方法,其特征在于,所述服务器端将个性化全局模型对应发送至所述客户端后,所述客户端在每轮通信上结合个性化全局模型更新经过训练后的模型参数,直至所述服务器端执行完所有的通信轮次的步骤具体包括:
所述服务器端将所述个性化全局模型对应发送至所述客户端;
在每轮通信上,所述客户端根据优化目标,并结合对应的所述个性化全局模型更新经过训练后的模型参数,直至所述服务器端执行完所有的通信轮次。
7.根据权利要求2所述的基于动态亲和力聚合的联邦学习方法,其特征在于,所述通信轮次为所述客户端与所述服务器端进行通信的轮次。
8.一种基于动态亲和力聚合的联邦学习***,其特征在于,所述基于动态亲和力聚合的联邦学习***包括:服务器端和客户端;
所述服务器端用于发送初始化模型至所有客户端,并设定通信轮次;
所述客户端用于利用预存的本地数据对所述初始化模型进行模型训练,得到经过训练后的模型参数,并发送经过训练后的模型参数和预存的本地数据的类别数量至所述服务器端;
所述服务器端用于根据所述类别数量组成数据分布向量后,计算所有客户端之间的亲和力值,并从所有客户端中选取得到客户端集合;
所述服务器端用于根据经过训练后的模型参数和所述亲和力值生成每个客户端在本轮中的个性化全局模型;
所述服务器端还用于将个性化全局模型对应发送至所述客户端,所述客户端还用于在每轮通信上结合个性化全局模型更新经过训练后的模型参数,直至所述服务器端执行完所有的通信轮次。
9.根据权利要求8所述的基于动态亲和力聚合的联邦学习***,其特征在于,所述服务器端具体用于根据每两个客户端的亲和力值和经过训练后的模型参数计算该两个客户端之间的权重;
所述服务器端具体用于根据所述权重对所有客户端上的经过训练后的模型参数进行加权,得到当前客户端的个性化全局模型,直至计算所有客户端的个性化全局模型。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有基于动态亲和力聚合的联邦学习程序,所述基于动态亲和力聚合的联邦学习程序被处理器执行时实现如权利要求1-7任一项所述的基于动态亲和力聚合的联邦学习方法的步骤。
CN202211569899.XA 2022-12-08 2022-12-08 一种基于动态亲和力聚合的联邦学习方法及相关设备 Active CN116306986B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211569899.XA CN116306986B (zh) 2022-12-08 2022-12-08 一种基于动态亲和力聚合的联邦学习方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211569899.XA CN116306986B (zh) 2022-12-08 2022-12-08 一种基于动态亲和力聚合的联邦学习方法及相关设备

Publications (2)

Publication Number Publication Date
CN116306986A true CN116306986A (zh) 2023-06-23
CN116306986B CN116306986B (zh) 2024-01-12

Family

ID=86833005

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211569899.XA Active CN116306986B (zh) 2022-12-08 2022-12-08 一种基于动态亲和力聚合的联邦学习方法及相关设备

Country Status (1)

Country Link
CN (1) CN116306986B (zh)

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132776A (zh) * 2020-08-11 2020-12-25 苏州跨视科技有限公司 基于联邦学习的视觉检测方法及***、存储介质、设备
CN113112027A (zh) * 2021-04-06 2021-07-13 杭州电子科技大学 一种基于动态调整模型聚合权重的联邦学习方法
WO2021169577A1 (zh) * 2020-02-27 2021-09-02 山东大学 一种基于加权联邦学习的无线业务流量预测方法
WO2021190638A1 (zh) * 2020-11-24 2021-09-30 平安科技(深圳)有限公司 基于非均匀分布数据的联邦建模方法及相关设备
US20210365841A1 (en) * 2020-05-22 2021-11-25 Kiarash SHALOUDEGI Methods and apparatuses for federated learning
CN113965359A (zh) * 2021-09-29 2022-01-21 哈尔滨工业大学(深圳) 面向联邦学习数据投毒攻击的防御方法及装置
US20220114475A1 (en) * 2020-10-09 2022-04-14 Rui Zhu Methods and systems for decentralized federated learning
CN114357067A (zh) * 2021-12-15 2022-04-15 华南理工大学 一种针对数据异构性的个性化联邦元学习方法
CN114398634A (zh) * 2022-01-18 2022-04-26 北京工业大学 一种基于信息熵的联邦学习参与方权重计算方法
CN114417417A (zh) * 2022-01-24 2022-04-29 山东大学 一种基于联邦学习的工业物联网隐私保护***及方法
CN114528304A (zh) * 2022-02-18 2022-05-24 安徽工业大学 一种自适应客户端参数更新的联邦学习方法、***及存储介质
CN114595831A (zh) * 2022-03-01 2022-06-07 北京交通大学 融合自适应权重分配和个性化差分隐私的联邦学习方法
CN114707765A (zh) * 2022-05-10 2022-07-05 浙江大学 一种基于动态加权聚合的联邦学习负荷预测方法
CN115130683A (zh) * 2022-07-18 2022-09-30 山东大学 一种基于多代理模型的异步联邦学习方法及***
CN115344883A (zh) * 2022-06-29 2022-11-15 上海工程技术大学 一种用于处理不平衡数据的个性化联邦学习方法和装置
CN115374853A (zh) * 2022-08-22 2022-11-22 复旦大学 基于T-Step聚合算法的异步联邦学习方法及***

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021169577A1 (zh) * 2020-02-27 2021-09-02 山东大学 一种基于加权联邦学习的无线业务流量预测方法
US20210365841A1 (en) * 2020-05-22 2021-11-25 Kiarash SHALOUDEGI Methods and apparatuses for federated learning
CN112132776A (zh) * 2020-08-11 2020-12-25 苏州跨视科技有限公司 基于联邦学习的视觉检测方法及***、存储介质、设备
US20220114475A1 (en) * 2020-10-09 2022-04-14 Rui Zhu Methods and systems for decentralized federated learning
WO2021190638A1 (zh) * 2020-11-24 2021-09-30 平安科技(深圳)有限公司 基于非均匀分布数据的联邦建模方法及相关设备
CN113112027A (zh) * 2021-04-06 2021-07-13 杭州电子科技大学 一种基于动态调整模型聚合权重的联邦学习方法
CN113965359A (zh) * 2021-09-29 2022-01-21 哈尔滨工业大学(深圳) 面向联邦学习数据投毒攻击的防御方法及装置
CN114357067A (zh) * 2021-12-15 2022-04-15 华南理工大学 一种针对数据异构性的个性化联邦元学习方法
CN114398634A (zh) * 2022-01-18 2022-04-26 北京工业大学 一种基于信息熵的联邦学习参与方权重计算方法
CN114417417A (zh) * 2022-01-24 2022-04-29 山东大学 一种基于联邦学习的工业物联网隐私保护***及方法
CN114528304A (zh) * 2022-02-18 2022-05-24 安徽工业大学 一种自适应客户端参数更新的联邦学习方法、***及存储介质
CN114595831A (zh) * 2022-03-01 2022-06-07 北京交通大学 融合自适应权重分配和个性化差分隐私的联邦学习方法
CN114707765A (zh) * 2022-05-10 2022-07-05 浙江大学 一种基于动态加权聚合的联邦学习负荷预测方法
CN115344883A (zh) * 2022-06-29 2022-11-15 上海工程技术大学 一种用于处理不平衡数据的个性化联邦学习方法和装置
CN115130683A (zh) * 2022-07-18 2022-09-30 山东大学 一种基于多代理模型的异步联邦学习方法及***
CN115374853A (zh) * 2022-08-22 2022-11-22 复旦大学 基于T-Step聚合算法的异步联邦学习方法及***

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
YOU JUN KIM等: "Blockchain-based Node-aware Dynamic Weighting Methods for Improving Federated Learning Performance", 《2019 20TH ASIA-PACIFIC NETWORK OPERATIONS AND MANAGEMENT SYMPOSIUM》, pages 1 - 4 *
ZHIYUAN ZHAO等: "A Dynamic Reweighting Strategy For Fair Federated Learning", 《2022 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING》, pages 8772 - 8776 *
冯纪元: "联邦学习中隐私数据安全聚合方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, vol. 2022, no. 11, pages 138 - 35 *
应作斌等: "动态聚合权重的隐私保护联邦学习框架", 《网络与信息安全学报》, vol. 8, no. 5, pages 56 - 65 *
陈飞扬等: "FCAT-FL:基于Non-IID数据的高效联邦学习算法", 《南京邮电大学学报(自然科学版)》, vol. 42, no. 3, pages 90 - 99 *

Also Published As

Publication number Publication date
CN116306986B (zh) 2024-01-12

Similar Documents

Publication Publication Date Title
CN113112027B (zh) 一种基于动态调整模型聚合权重的联邦学习方法
CN110097178A (zh) 一种基于熵注意的神经网络模型压缩与加速方法
CN112949837A (zh) 一种基于可信网络的目标识别联邦深度学习方法
CN110610242A (zh) 一种联邦学习中参与者权重的设置方法及装置
Li et al. Fedtp: Federated learning by transformer personalization
CN113518007B (zh) 一种基于联邦学习的多物联网设备异构模型高效互学习方法
CN114510652A (zh) 一种基于联邦学习的社交协同过滤推荐方法
CN113792331A (zh) 一种基于对抗性干扰的联邦学习成员推理攻击防御方法
CN114385376A (zh) 一种异构数据下边缘侧联邦学习的客户端选择方法
CN105138527B (zh) 一种数据分类回归方法及装置
CN116957874A (zh) 一种智能高校自动排课方法、***、设备及存储介质
Mei et al. Fedvf: Personalized federated learning based on layer-wise parameter updates with variable frequency
CN116306986B (zh) 一种基于动态亲和力聚合的联邦学习方法及相关设备
CN105282229B (zh) 基于改进量子行为的粒子群优化算法的Web服务组合方法
CN111984842B (zh) 银行客户数据处理方法及装置
CN114639174A (zh) 联邦协作下的隐私型深度伪造检测方法
CN111292062A (zh) 基于网络嵌入的众包垃圾工人检测方法、***及存储介质
CN117131918A (zh) 基于差分隐私的联邦学习模型层裁剪方法及***
CN117196058A (zh) 一种基于节点贡献聚类的公平联邦学习方法
CN116561622A (zh) 一种面向类不平衡数据分布的联邦学习方法
CN109697511B (zh) 数据推理方法、装置及计算机设备
CN116318856A (zh) 一种基于差分隐私和联邦学习的模型参数优化方法和***
CN114401192B (zh) 一种多sdn控制器协同训练方法
CN114329127B (zh) 特征分箱方法、装置及存储介质
WO2022094888A1 (zh) 一种面向决策树的纵向联邦学习方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant