CN112668726A - 一种高效通信且保护隐私的个性化联邦学习方法 - Google Patents

一种高效通信且保护隐私的个性化联邦学习方法 Download PDF

Info

Publication number
CN112668726A
CN112668726A CN202011568563.2A CN202011568563A CN112668726A CN 112668726 A CN112668726 A CN 112668726A CN 202011568563 A CN202011568563 A CN 202011568563A CN 112668726 A CN112668726 A CN 112668726A
Authority
CN
China
Prior art keywords
client
personalized
federal learning
model
model parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011568563.2A
Other languages
English (en)
Other versions
CN112668726B (zh
Inventor
梅媛
肖丹阳
吴维刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN202011568563.2A priority Critical patent/CN112668726B/zh
Publication of CN112668726A publication Critical patent/CN112668726A/zh
Application granted granted Critical
Publication of CN112668726B publication Critical patent/CN112668726B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Computer And Data Communications (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明提供一种高效通信且保护隐私的个性化联邦学***衡的问题。

Description

一种高效通信且保护隐私的个性化联邦学习方法
技术领域
本发明涉及联邦学习技术领域,更具体的,涉及一种高效通信且保护隐私的个性化联邦学习方法。
背景技术
机器学***均(FedAvg)算法来聚合来自各个客户端的模型更新,参与联邦训练的各方在训练结束后得到的是一个统一的全局模型。现有的联邦学***衡,导致全局模型效果损失明显。
现有技术中,如2020年08月28日公开的中国专利,一种在隐私保护下的去中心化联邦机器学***衡。
发明内容
本发明为克服现有的个性化联邦学***衡的技术缺陷,提供一种高效通信且保护隐私的个性化联邦学习方法。
为解决上述技术问题,本发明的技术方案如下:
一种高效通信且保护隐私的个性化联邦学习方法,包括以下步骤:
S1:从中央服务器拉取当前全局模型Wt到所有客户端中,初始化各个客户端的本地模型
Figure BDA0002861764750000021
其中,i为客户端序号,t为当前个性化联邦学习的轮数;
S2:在客户端i中执行E轮本地训练,得到新的本地模型
Figure BDA0002861764750000022
S3:基于对分层参数组合进行可变频率更新的方式,将
Figure BDA0002861764750000023
的模型参数发送到中央服务器;
S4:在中央服务器中对接收到的模型参数聚合,得到聚合结果Wt+1
S5:基于对分层参数组合进行可变频率更新的方式,根据Wt+1将所有客户端的本地模型更新为
Figure BDA0002861764750000024
S6:判断是否完成预定迭代次数;
若是,则完成个性化联邦学习;
若否,则令t=t+1,并返回步骤S2进行下一轮个性化联邦学习。
优选的,在步骤S2中,每轮个性化联邦学习中只选取k个客户端执行本地训练;其中,客户端总个数为K,k在K中的占比为C。
优选的,在步骤S2中,依照预先设定的数据批大小B将客户端i上的数据分成
Figure BDA0002861764750000025
个批次,并设为集合
Figure BDA0002861764750000026
对于
Figure BDA0002861764750000027
根据以下公式执行本地训练,得到本地模型
Figure BDA0002861764750000028
Figure BDA0002861764750000029
其中,Ni为客户端i上的数据量,bi为集合
Figure BDA00028617647500000210
中的元素,
Figure BDA00028617647500000211
为客户端i上执行本地训练前的模型参数,η为学习率,l为客户端上的损失函数。
优选的,当个性化联邦学习的训练对象为深度神经网络模型时,将深度神经网络模型视作全局层和个性化层的组合;
其中,将深度神经网络模型的浅层网络部分定义为全局层,负责提取客户端数据的全局特征;将深度神经网络模型的深层网络部分定义为个性化层,负责捕获客户端数据的个性化特征。
优选的,在步骤S3中,对分层参数组合进行可变频率更新的方式具体包括:
若当前处于个性化联邦学习的早期,即0<t≤T*p,且t%fearlier≠0时或者当前处于个性化联邦学习的后期,即T*p<t≤T,且t%flatet≠0时,则只将浅层部分的模型参数发送到中央服务器;
若当前处于个性化联邦学习的早期,即0<t≤T*p,且t%fearlier=0时或者当前处于个性化联邦学习的后期,即T*p<t≤T,且t%flater=0时,则将所有层的模型参数发送至中央服务器;
其中,t为个性化联邦学习的当前轮数,T为个性化联邦学习的总轮数,p为个性化联邦学习前期的轮数占比,fearlier为个性化联邦学习前期发送所有层的模型参数至中央服务器的周期,flater为个性化联邦学习后期发送所有层的模型参数至中央服务器的周期。
优选的,还包括:对从客户端发往中央服务器的模型参数添加高斯噪声。
优选的,在客户端i中按照以下公式只将浅层部分的模型参数发送到中央服务器,并添加高斯噪声:
Figure BDA0002861764750000031
其中,
Figure BDA0002861764750000032
为从客户端i发送到中央服务器的模型参数;M为掩蔽矩阵,用于掩蔽深层参数参与聚合;dp∈(0,1],用于控制噪声的影响程度;RN~N(0,σ2),即RN服从均值为0,方差为σ2的正态分布。
优选的,在客户端i中按照以下公式将所有层的模型参数发送至中央服务器,并添加高斯噪声:
Figure BDA0002861764750000033
其中,
Figure BDA0002861764750000034
为从客户端i发送到中央服务器的模型参数;dp∈(0,1],用于控制噪声的影响程度;RN~N(0,σ2),即RN服从均值为0,方差为σ2的正态分布。
优选的,个性化联邦学习中客户端在前期发送所有层的模型参数至服务器的频率要高于后期发送的频率,即
Figure BDA0002861764750000035
优选的,在步骤S4中,
在每轮个性化联邦学习中通过以下公式对中央服务器接收到的模型参数进行聚合操作,得到聚合结果Wt+1
Figure BDA0002861764750000036
其中,K为客户端的总个数,C为每轮参与个性化联邦学习的客户端占比,Ni为客户端i上的数据量,N为每轮参与个性化联邦学习的全部客户端上的数据量,
Figure BDA0002861764750000037
为发送到中央服务器的模型参数。
与现有技术相比,本发明技术方案的有益效果是:
本发明提供了一种高效通信且保护隐私的个性化联邦学***衡;同时,能够减少个性化联邦学习中的参数通信量,实现轻便高效的通信效率。
附图说明
图1为本发明的技术方案实施步骤流程示意图;
图2为本发明中采用深度神经网络模型进行图像分类任务的示意图;
图3为本发明中个性化联邦学习的可变频率示意图;
图4为本发明中个性化联邦学习的分层参数示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种高效通信且保护隐私的个性化联邦学习方法,包括以下步骤:
S1:从中央服务器拉取当前全局模型Wt到所有客户端中,初始化各个客户端的本地模型
Figure BDA0002861764750000041
其中,i为客户端序号,t为当前个性化联邦学习的轮数;
S2:在客户端i中执行E轮本地训练,得到新的本地模型
Figure BDA0002861764750000042
S3:基于对分层参数组合进行可变频率更新的方式,将
Figure BDA0002861764750000043
的模型参数发送到中央服务器;
S4:在中央服务器中对接收到的模型参数聚合,得到聚合结果Wt+1
S5:基于对分层参数组合进行可变频率更新的方式,根据Wt+1将所有客户端的本地模型更新为
Figure BDA0002861764750000044
S6:判断是否完成预定迭代次数;
若是,则完成个性化联邦学习;
若否,则令t=t+1,并返回步骤S2进行下一轮个性化联邦学习。
更具体的,在步骤S2中,每轮个性化联邦学习中只选取k个客户端执行本地训练;其中,客户端总个数为K,k在K中的占比为C。
在具体实施过程中,考虑到客户端与中央服务器通信的带宽与延迟限制,每次在K个客户端中选择占比为C的客户端,构成集合St参与当前第t轮的个性化联邦学习。被选中的客户端需要完成预先设定轮数E的本地训练。
更具体的,在步骤S2中,依照预先设定的数据批大小B将客户端i上的数据分成
Figure BDA0002861764750000051
个批次,并设为集合
Figure BDA0002861764750000052
对于
Figure BDA0002861764750000053
根据以下公式执行本地训练,得到本地模型
Figure BDA0002861764750000054
Figure BDA0002861764750000055
其中,Ni为客户端i上的数据量,bi为集合
Figure BDA0002861764750000056
中的元素,
Figure BDA0002861764750000057
为客户端i上执行本地训练前的模型参数,η为学习率,l为客户端上的损失函数。
更具体的,当个性化联邦学习的训练对象为深度神经网络模型时,以采用深度神经网络模型进行图像分类任务为例:图像中包含的普遍且一般性的特征通常由深度神经网络模型的浅层网络部分捕获,而更高级且特有的特征则由深层网络部分识别。如图2所示,靠近输入图片的浅层网络部分提取的往往是低阶特征,靠近输出的深层网络部分提取的是高阶特征。在个性化联邦学习中,根据全局模型与客户端本地模型的定义:全局模型主要关注于客户端上数据的普遍低阶特征,本地模型则主要聚焦于客户端上数据的特有高阶特征。因此我们将用于个性化联邦学习的深度神经网络模型视作全局模型和个性化模型的组合,其中将深度神经网络模型的浅层网络部分定义为全局层,深层网络部分定义为个性化层。
更具体的,在步骤S3中,对分层参数组合进行可变频率更新的方式具体包括:
若当前处于个性化联邦学习的早期,即0<t≤T*p,且t%fearlier≠0时或者当前处于个性化联邦学习的后期,即T*p<t≤T,且t%flater≠0时,则只将浅层部分的模型参数发送到中央服务器;
若当前处于个性化联邦学习的早期,即0<t≤T*p,且t%fearlier=0时或者当前处于个性化联邦学习的后期,即T*p<t≤T,且t%flater=0时,则将所有层的模型参数发送至中央服务器;
其中,t为个性化联邦学习的当前轮数,T为个性化联邦学习的总轮数,p为个性化联邦学习前期的轮数占比,fearlier为个性化联邦学习前期发送所有层的模型参数至中央服务器的周期,flater为个性化联邦学习后期发送所有层的模型参数至中央服务器的周期。
在具体实施过程中,如图3-4所示,采用基于可变频率的分层参数方式进行个性化联邦学***均;在后期,每8轮执行一次所有层参数的聚合平均。
更具体的,还包括:对从客户端发往中央服务器的模型参数添加高斯噪声。
在具体实施过程中,基于差分隐私按层为客户端发往中央服务器的模型参数中添加高斯噪声,对真实参数进行加密,进一步地保护客户端隐私。
更具体的,在客户端i中按照以下公式只将浅层部分的模型参数发送到中央服务器,并添加高斯噪声:
Figure BDA0002861764750000061
其中,
Figure BDA0002861764750000062
为从客户端i发送到中央服务器的模型参数;M为掩蔽矩阵,用于掩蔽深层参数参与聚合;dp∈(0,1],用于控制噪声的影响程度;RN~N(0,σ2),即RN服从均值为0,方差为σ2的正态分布。
更具体的,在客户端i中按照以下公式将所有层的模型参数发送至中央服务器,并添加高斯噪声:
Figure BDA0002861764750000063
其中,
Figure BDA0002861764750000064
为从客户端i发送到中央服务器的模型参数;dp∈(0,1],用于控制噪声的影响程度;RN~N(0,σ2),即RN服从均值为0,方差为σ2的正态分布。
更具体的,个性化联邦学习中客户端在前期发送所有层的模型参数至服务器的频率要高于后期发送的频率,即
Figure BDA0002861764750000065
在具体实施过程中,按照累积学***衡个性化联邦学习中的全局模型和个性化模型的效果。
更具体的,在步骤S4中,
在每轮个性化联邦学习中通过以下公式对中央服务器接收到的模型参数进行聚合操作,得到聚合结果Wt+1
Figure BDA0002861764750000071
其中,K为客户端的总个数,C为每轮参与个性化联邦学习的客户端占比,Ni为客户端i上的数据量,N为每轮参与个性化联邦学习的全部客户端上的数据量,
Figure BDA0002861764750000072
为发送到中央服务器的模型参数。
在具体实施过程中,当0<t≤T*p且t%fearlier≠0时或T*p<t≤T且t%flater≠0时,客户端仅发送深度神经网络模型浅层部分的参数进行所有层参数聚合,因此在中央服务器执行操作后,在步骤S5中各客户端也仅需更新本地模型浅层部分的参数,保持深层部分参数不变,即客户端上个性化层的参数只取决于自身数据。而当0<t≤T*p且t%fearlier=0时或T*p<t≤T且t%flater=0时,客户端发送了网络模型的所有参数至中央服务器,中央服务器按照前后期不同的预设周期(fearlier和flater)对其执行周期性的聚合平均,在步骤S5中各客户端将需要更新所有层的参数。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (10)

1.一种高效通信且保护隐私的个性化联邦学习方法,其特征在于,包括以下步骤:
S1:从中央服务器拉取当前全局模型Wt到所有客户端中,初始化各个客户端的本地模型
Figure FDA0002861764740000011
其中,i为客户端序号,t为当前个性化联邦学习的轮数;
S2:在客户端i中执行E轮本地训练,得到新的本地模型
Figure FDA0002861764740000012
S3:基于对分层参数组合进行可变频率更新的方式,将
Figure FDA0002861764740000013
的模型参数发送到中央服务器;
S4:在中央服务器中对接收到的模型参数聚合,得到聚合结果Wt+1
S5:基于对分层参数组合进行可变频率更新的方式,根据Wt+1将所有客户端的本地模型更新为
Figure FDA0002861764740000014
S6:判断是否完成预定迭代次数;
若是,则完成个性化联邦学习;
若否,则令t=t+1,并返回步骤S2进行下一轮个性化联邦学习。
2.根据权利要求1所述的一种高效通信且保护隐私的个性化联邦学习方法,其特征在于,在步骤S2中,每轮个性化联邦学习中只选取k个客户端执行本地训练;其中,客户端总个数为K,k在K中的占比为C。
3.根据权利要求1所述的一种高效通信且保护隐私的个性化联邦学习方法,其特征在于,在步骤S2中,依照预先设定的数据批大小B将客户端i上的数据分成
Figure FDA0002861764740000015
个批次,并设为集合
Figure FDA0002861764740000016
对于
Figure FDA0002861764740000017
根据以下公式执行本地训练,得到本地模型
Figure FDA0002861764740000018
Figure FDA0002861764740000019
其中,Ni为客户端i上的数据量,bi为集合
Figure FDA00028617647400000110
中的元素,
Figure FDA00028617647400000111
为客户端i上执行本地训练前的模型参数,η为学习率,l为客户端上的损失函数。
4.根据权利要求1所述的一种高效通信且保护隐私的个性化联邦学习方法,其特征在于,当个性化联邦学习的训练对象为深度神经网络模型时,将深度神经网络模型视作全局层和个性化层的组合;
其中,将深度神经网络模型的浅层网络部分定义为全局层,负责提取客户端数据的全局特征;将深度神经网络模型的深层网络部分定义为个性化层,负责捕获客户端数据的个性化特征。
5.根据权利要求1所述的一种高效通信且保护隐私的个性化联邦学习方法,其特征在于,在步骤S3中,对分层参数组合进行可变频率更新的方式具体包括:
若当前处于个性化联邦学习的早期,即0<t≤T*p,且t%fearlier≠0时或者当前处于个性化联邦学习的后期,即T*p<t≤T,且t%flater≠0时,则只将浅层部分的模型参数发送到中央服务器;
若当前处于个性化联邦学习的早期,即0<t≤T*p,且t%fearlier=0时或者当前处于个性化联邦学习的后期,即T*p<t≤T,且t%flater=0时,则将所有层的模型参数发送至中央服务器;
其中,t为个性化联邦学习的当前轮数,T为个性化联邦学习的总轮数,p为个性化联邦学习前期的轮数占比,fearlier为个性化联邦学习前期发送所有层的模型参数至中央服务器的周期,flater为个性化联邦学习后期发送所有层的模型参数至中央服务器的周期。
6.根据权利要求5所述的一种高效通信且保护隐私的个性化联邦学习方法,其特征在于,还包括:对从客户端发往中央服务器的模型参数添加高斯噪声。
7.根据权利要求6所述的一种高效通信且保护隐私的个性化联邦学习方法,其特征在于,在客户端i中按照以下公式只将浅层部分的模型参数发送到中央服务器,并添加高斯噪声:
Figure FDA0002861764740000021
其中,
Figure FDA0002861764740000022
为从客户端i发送到中央服务器的模型参数;M为掩蔽矩阵,用于掩蔽深层参数参与聚合;dp∈(0,1],用于控制噪声的影响程度;RN~N(0,σ2),即RN服从均值为0,方差为σ2的正态分布。
8.根据权利要求6所述的一种高效通信且保护隐私的个性化联邦学习方法,其特征在于,在客户端i中按照以下公式将所有层的模型参数发送至中央服务器,并添加高斯噪声:
Figure FDA0002861764740000023
其中,
Figure FDA0002861764740000024
为从客户端i发送到中央服务器的模型参数;dp∈(0,1],用于控制噪声的影响程度;RN~N(0,σ2),即RN服从均值为0,方差为σ2的正态分布。
9.根据权利要求6所述的一种高效通信且保护隐私的个性化联邦学习方法,其特征在于,个性化联邦学习中客户端在前期发送所有层的模型参数至服务器的频率要高于后期发送的频率,即
Figure FDA0002861764740000031
10.根据权利要求1所述的一种高效通信且保护隐私的个性化联邦学习方法,其特征在于,在步骤S4中,
在每轮个性化联邦学习中通过以下公式对中央服务器接收到的模型参数进行聚合操作,得到聚合结果Wt+1
Figure FDA0002861764740000032
其中,K为客户端的总个数,C为每轮参与个性化联邦学习的客户端占比,Ni为客户端i上的数据量,N为每轮参与个性化联邦学习的全部客户端上的数据量,
Figure FDA0002861764740000033
为发送到中央服务器的模型参数。
CN202011568563.2A 2020-12-25 2020-12-25 一种高效通信且保护隐私的个性化联邦学习方法 Active CN112668726B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011568563.2A CN112668726B (zh) 2020-12-25 2020-12-25 一种高效通信且保护隐私的个性化联邦学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011568563.2A CN112668726B (zh) 2020-12-25 2020-12-25 一种高效通信且保护隐私的个性化联邦学习方法

Publications (2)

Publication Number Publication Date
CN112668726A true CN112668726A (zh) 2021-04-16
CN112668726B CN112668726B (zh) 2023-07-11

Family

ID=75409693

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011568563.2A Active CN112668726B (zh) 2020-12-25 2020-12-25 一种高效通信且保护隐私的个性化联邦学习方法

Country Status (1)

Country Link
CN (1) CN112668726B (zh)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112967812A (zh) * 2021-04-20 2021-06-15 钟爱健康科技(广东)有限公司 一种基于联邦学习的防窃取攻击医疗诊断模型保护方法
CN113095513A (zh) * 2021-04-25 2021-07-09 中山大学 双层公平联邦学习方法、装置和存储介质
CN113268920A (zh) * 2021-05-11 2021-08-17 西安交通大学 一种基于联邦学习的无人机群感知数据安全共享方法
CN113344221A (zh) * 2021-05-10 2021-09-03 上海大学 一种基于神经网络架构搜索的联邦学习方法及***
CN113361618A (zh) * 2021-06-17 2021-09-07 武汉卓尔信息科技有限公司 一种基于联邦学习的工业数据联合建模方法及***
CN113361694A (zh) * 2021-06-30 2021-09-07 哈尔滨工业大学 一种应用差分隐私保护的分层联邦学习方法及***
CN113378243A (zh) * 2021-07-14 2021-09-10 南京信息工程大学 一种基于多头注意力机制的个性化联邦学习方法
CN113435604A (zh) * 2021-06-16 2021-09-24 清华大学 一种联邦学习优化方法及装置
CN113516249A (zh) * 2021-06-18 2021-10-19 重庆大学 基于半异步的联邦学习方法、***、服务器及介质
CN113645197A (zh) * 2021-07-20 2021-11-12 华中科技大学 一种去中心化的联邦学习方法、装置及***
CN113642738A (zh) * 2021-08-12 2021-11-12 上海大学 基于层次式网络结构的多方安全协作机器学习方法及***
CN113656833A (zh) * 2021-08-09 2021-11-16 浙江工业大学 基于进化计算的在垂直联邦架构下的隐私窃取防御方法
CN114239860A (zh) * 2021-12-07 2022-03-25 支付宝(杭州)信息技术有限公司 基于隐私保护的模型训练方法及装置
CN114357526A (zh) * 2022-03-15 2022-04-15 中电云数智科技有限公司 抵御推断攻击的医疗诊断模型差分隐私联合训练方法
CN114492847A (zh) * 2022-04-18 2022-05-13 奥罗科技(天津)有限公司 一种高效个性化联邦学习***和方法
CN114595831A (zh) * 2022-03-01 2022-06-07 北京交通大学 融合自适应权重分配和个性化差分隐私的联邦学习方法
CN114863499A (zh) * 2022-06-30 2022-08-05 广州脉泽科技有限公司 一种基于联邦学习的指静脉与掌静脉识别方法
CN114862416A (zh) * 2022-04-11 2022-08-05 北京航空航天大学 一种联邦学***台信用评价方法
WO2022222816A1 (zh) * 2021-04-21 2022-10-27 支付宝(杭州)信息技术有限公司 用于隐私保护的模型的训练方法、***及装置
CN116016212A (zh) * 2022-12-26 2023-04-25 电子科技大学 一种带宽感知的去中心化联邦学习方法及装置
CN116227621A (zh) * 2022-12-29 2023-06-06 国网四川省电力公司电力科学研究院 一种基于电力数据的联邦学习模型训练方法
WO2023109246A1 (zh) * 2021-12-17 2023-06-22 新智我来网络科技有限公司 一种面向断点隐私保护的方法、装置、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1664819A (zh) * 2004-03-02 2005-09-07 微软公司 通过对信息新颖性和动态学的分析来个性化新闻馈送的原理和方法
CN101639852A (zh) * 2009-09-08 2010-02-03 中国科学院地理科学与资源研究所 一种分布式地学数据共享的方法和***
CN110572253A (zh) * 2019-09-16 2019-12-13 济南大学 一种联邦学习训练数据隐私性增强方法及***
CN111079977A (zh) * 2019-11-18 2020-04-28 中国矿业大学 基于svd算法的异构联邦学习矿井电磁辐射趋势跟踪方法
CN111553484A (zh) * 2020-04-30 2020-08-18 同盾控股有限公司 联邦学习的方法、装置及***
CN111611610A (zh) * 2020-04-12 2020-09-01 西安电子科技大学 联邦学习信息处理方法、***、存储介质、程序、终端

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1664819A (zh) * 2004-03-02 2005-09-07 微软公司 通过对信息新颖性和动态学的分析来个性化新闻馈送的原理和方法
CN101256591A (zh) * 2004-03-02 2008-09-03 微软公司 通过对信息新颖性和动态学的分析来个性化新闻馈送的原理和方法
CN101639852A (zh) * 2009-09-08 2010-02-03 中国科学院地理科学与资源研究所 一种分布式地学数据共享的方法和***
CN110572253A (zh) * 2019-09-16 2019-12-13 济南大学 一种联邦学习训练数据隐私性增强方法及***
CN111079977A (zh) * 2019-11-18 2020-04-28 中国矿业大学 基于svd算法的异构联邦学习矿井电磁辐射趋势跟踪方法
CN111611610A (zh) * 2020-04-12 2020-09-01 西安电子科技大学 联邦学习信息处理方法、***、存储介质、程序、终端
CN111553484A (zh) * 2020-04-30 2020-08-18 同盾控股有限公司 联邦学习的方法、装置及***

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112967812A (zh) * 2021-04-20 2021-06-15 钟爱健康科技(广东)有限公司 一种基于联邦学习的防窃取攻击医疗诊断模型保护方法
WO2022222816A1 (zh) * 2021-04-21 2022-10-27 支付宝(杭州)信息技术有限公司 用于隐私保护的模型的训练方法、***及装置
CN113095513A (zh) * 2021-04-25 2021-07-09 中山大学 双层公平联邦学习方法、装置和存储介质
CN113344221A (zh) * 2021-05-10 2021-09-03 上海大学 一种基于神经网络架构搜索的联邦学习方法及***
CN113268920A (zh) * 2021-05-11 2021-08-17 西安交通大学 一种基于联邦学习的无人机群感知数据安全共享方法
CN113435604A (zh) * 2021-06-16 2021-09-24 清华大学 一种联邦学习优化方法及装置
CN113435604B (zh) * 2021-06-16 2024-05-07 清华大学 一种联邦学习优化方法及装置
CN113361618A (zh) * 2021-06-17 2021-09-07 武汉卓尔信息科技有限公司 一种基于联邦学习的工业数据联合建模方法及***
CN113516249A (zh) * 2021-06-18 2021-10-19 重庆大学 基于半异步的联邦学习方法、***、服务器及介质
CN113361694A (zh) * 2021-06-30 2021-09-07 哈尔滨工业大学 一种应用差分隐私保护的分层联邦学习方法及***
CN113361694B (zh) * 2021-06-30 2022-03-15 哈尔滨工业大学 一种应用差分隐私保护的分层联邦学习方法及***
CN113378243B (zh) * 2021-07-14 2023-09-29 南京信息工程大学 一种基于多头注意力机制的个性化联邦学习方法
CN113378243A (zh) * 2021-07-14 2021-09-10 南京信息工程大学 一种基于多头注意力机制的个性化联邦学习方法
CN113645197A (zh) * 2021-07-20 2021-11-12 华中科技大学 一种去中心化的联邦学习方法、装置及***
CN113645197B (zh) * 2021-07-20 2022-04-29 华中科技大学 一种去中心化的联邦学习方法、装置及***
CN113656833A (zh) * 2021-08-09 2021-11-16 浙江工业大学 基于进化计算的在垂直联邦架构下的隐私窃取防御方法
CN113642738A (zh) * 2021-08-12 2021-11-12 上海大学 基于层次式网络结构的多方安全协作机器学习方法及***
CN113642738B (zh) * 2021-08-12 2023-09-01 上海大学 基于层次式网络结构的多方安全协作机器学习方法及***
CN114239860A (zh) * 2021-12-07 2022-03-25 支付宝(杭州)信息技术有限公司 基于隐私保护的模型训练方法及装置
WO2023109246A1 (zh) * 2021-12-17 2023-06-22 新智我来网络科技有限公司 一种面向断点隐私保护的方法、装置、设备及介质
CN114595831A (zh) * 2022-03-01 2022-06-07 北京交通大学 融合自适应权重分配和个性化差分隐私的联邦学习方法
CN114595831B (zh) * 2022-03-01 2022-11-11 北京交通大学 融合自适应权重分配和个性化差分隐私的联邦学习方法
CN114357526A (zh) * 2022-03-15 2022-04-15 中电云数智科技有限公司 抵御推断攻击的医疗诊断模型差分隐私联合训练方法
CN114862416A (zh) * 2022-04-11 2022-08-05 北京航空航天大学 一种联邦学***台信用评价方法
CN114492847B (zh) * 2022-04-18 2022-06-24 奥罗科技(天津)有限公司 一种高效个性化联邦学习***和方法
CN114492847A (zh) * 2022-04-18 2022-05-13 奥罗科技(天津)有限公司 一种高效个性化联邦学习***和方法
CN114863499A (zh) * 2022-06-30 2022-08-05 广州脉泽科技有限公司 一种基于联邦学习的指静脉与掌静脉识别方法
CN116016212A (zh) * 2022-12-26 2023-04-25 电子科技大学 一种带宽感知的去中心化联邦学习方法及装置
CN116016212B (zh) * 2022-12-26 2024-06-04 电子科技大学 一种带宽感知的去中心化联邦学习方法及装置
CN116227621A (zh) * 2022-12-29 2023-06-06 国网四川省电力公司电力科学研究院 一种基于电力数据的联邦学习模型训练方法
CN116227621B (zh) * 2022-12-29 2023-10-24 国网四川省电力公司电力科学研究院 一种基于电力数据的联邦学习模型训练方法

Also Published As

Publication number Publication date
CN112668726B (zh) 2023-07-11

Similar Documents

Publication Publication Date Title
CN112668726A (zh) 一种高效通信且保护隐私的个性化联邦学习方法
CN114186237B (zh) 一种基于真值发现的鲁棒性联邦学习模型聚合方法
CN109919920B (zh) 统一结构的全参考和无参考图像质量评价方法
CN109639479B (zh) 基于生成对抗网络的网络流量数据增强方法及装置
CN114841364B (zh) 一种满足个性化本地差分隐私需求的联邦学习方法
Qin et al. Federated learning-based network intrusion detection with a feature selection approach
CN111464485A (zh) 一种加密代理流量检测方法和装置
CN114564746B (zh) 基于客户端权重评价的联邦学习方法和***
CN113779563A (zh) 联邦学习的后门攻击防御方法及装置
CN107945199A (zh) 基于蝙蝠算法和大津算法的红外图像分割方法及***
CN114219732A (zh) 基于天空区域分割和透射率细化的图像去雾方法及***
CN111192206A (zh) 一种提高图像清晰度的方法
CN1658576A (zh) 一种大型网站数据流的检测与防御方法
CN111737318B (zh) 一种网络诈骗易感人群筛选方法
CN113194092B (zh) 一种精准的恶意流量变种检测方法
CN116017463A (zh) 基于动态信任机制的无线传感器网络恶意节点识别方法
CN114882582A (zh) 基于联邦学习模式的步态识别模型训练方法与***
CN110009579B (zh) 一种基于头脑风暴优化算法的图像复原方法及***
CN112270233A (zh) 一种基于迁移学习与Mobilenet网络的口罩分类方法
CN111835720A (zh) 基于特征增强的vpn流量web指纹识别方法
TWI683224B (zh) 群集分析方法及採用該方法之資料探勘系統
CN112016428A (zh) 一种用于视频监控业务的移动边缘计算***及装置
CN114611722B (zh) 一种基于聚类分析的安全横向联邦学习方法
CN111488507B (zh) 一种网络代理的优选方法
CN117459299A (zh) 一种工业物联网入侵检测的联邦学习方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant