CN116865938A - 基于秘密共享和同态加密的多服务器联邦学习方法 - Google Patents
基于秘密共享和同态加密的多服务器联邦学习方法 Download PDFInfo
- Publication number
- CN116865938A CN116865938A CN202310820480.5A CN202310820480A CN116865938A CN 116865938 A CN116865938 A CN 116865938A CN 202310820480 A CN202310820480 A CN 202310820480A CN 116865938 A CN116865938 A CN 116865938A
- Authority
- CN
- China
- Prior art keywords
- gradient
- ciphertext
- server
- model
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 230000002776 aggregation Effects 0.000 claims description 11
- 238000004220 aggregation Methods 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000006116 polymerization reaction Methods 0.000 claims description 3
- 238000011084 recovery Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 abstract description 5
- 230000008569 process Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/008—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols involving homomorphic encryption
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/04—Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks
- H04L63/0428—Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks wherein the data content is protected, e.g. by encrypting or encapsulating the payload
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/06—Network architectures or network communication protocols for network security for supporting key management in a packet data network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/08—Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
- H04L9/0816—Key establishment, i.e. cryptographic processes or cryptographic protocols whereby a shared secret becomes available to two or more parties, for subsequent use
- H04L9/085—Secret sharing or secret splitting, e.g. threshold schemes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/40—Network security protocols
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于秘密共享和同态加密的多服务器联邦学习方法,属于信息安全技术领域,针对多服务器多客户端的复杂联邦学习应用,包括初始化阶段、模型训练阶段、模型聚合阶段和模型更新阶段。通过利用Shamir秘密共享算法分割梯度,使用Elgamal同态加密算法对分割的梯度进行加密,保护了梯度的隐私并增强了方案的鲁棒性;还设计了一种梯度稀疏算法,以此过滤偏离全局收敛的不相关梯度,减少了通信开销。
Description
技术领域
本发明属于信息安全技术领域,涉及一种基于秘密共享和同态加密的多服务器联邦学习方法。
背景技术
在数据孤岛现象与数据融合需求的矛盾逐渐凸显的背景下,联邦学习(federatedlearning,FL)应运而生。2016年,Google公司首次提出了联邦学习的概念,这是一种由多个数据持有方(如手机、物联网设备,或者金融、医疗机构等)协同训练模型而不分享数据,仅在中间阶段交换训练参数的学习机制。理想状况下,联邦学习得到的共享模型与数据集中在中心服务器上训练所得模型相比,效果相近或更好。由此,企业能够通过合法且高效的方式融合数据提取信息,个人或其他持有数据的机构依然能够在享受企业提供的人工智能服务的同时,保有数据的控制权。
尽管联邦学习避免了将数据直接暴露给第三方,对于数据隐私有天然的保护作用,然而,联邦学习作为一种新兴的分布式隐私保护机器学习训练框架仍有很多不足:1)隐私保护力度不足,用户向服务器上传本地更新时,敌手可发动推断攻击获取用户的隐私信息;已有研究表明,敌手可通过梯度还原参与训练用户的部分原始数据。2)联邦学习中参与方和中心服务器的可信程度低且不稳定。参与方可能会因为外在环境因素的影响而掉线,或者参与方之间共谋,从而获得更多的隐私信息。3)联邦学习通信开销大且计算代价高。
发明内容
有鉴于此,本发明的目的在于提供一种基于秘密共享和同态加密的多服务器联邦学习方案,以保护各个客户端设备的隐私信息不被泄露。
为达到上述目的,本发明提供如下技术方案:
一种基于秘密共享和同态加密的多服务器联邦学习方法,针对多服务器多客户端的复杂联邦学习应用,包括以下步骤:
S1:初始化阶段:可信权威机构生成用于同态加密的公私钥对,并通过安全信道发送给所有的客户端设备,所有的客户端设备在本地完成各种参数的初始化;
S2:模型训练阶段:所有客户端设备利用本地数据集进行训练,得到模型梯度,将梯度进行稀疏化处理,并对处理后的梯度进行分割,将其分为与服务器台数相同的份数,然后对梯度份额进行同态加密并依次发送至不同的服务器;
S3:模型聚合阶段:当服务器收到足够数目的共享密文份额后开始进行聚合,得到聚合密文份额;
S4:模型更新阶段:客户端设备从各个服务器下载聚合份额,秘密恢复后进行解密,使用解密后的梯度更新模型;如果未达到预定的训练轮数,则所有的客户端设备返回模型训练阶段进行下一轮训练。
进一步,步骤S1具体包括以下步骤:
S11:模型参数的初始化:所有客户端设备在本地初始化CNN神经网络模型M0,学习率α,训练轮数epoch,梯度稀疏中的相关阈值l,所有参数均相同;
S12:密钥对的初始化:可信权威机构完成公钥pk和私钥sk的生成,并通过安全信道发送给所有客户端设备,所有的客户端设备所获得的pk和sk也均相同。
进一步,步骤S2具体包括以下步骤:
S21:梯度计算:设所有的客户端设备都有各自的数据集D={D1,D2,…,Dn},根据损失函数对模型参数求导,计算得到梯度
S22:梯度稀疏化处理:客户端设备通过计算本地更新与全局更新的相关度来判断是否应当将梯度上传至服务器,其中,/>表示第i台客户端第t轮本地更新/>与第t-1轮模型训练得到的全局更新Δwt-1对应参数具有相同符号的参数个数,N表示模型参数的总数;当相关度/>小于设置的阈值l时,该轮本地更新被判定为不相关,从而禁止上传到服务器;反之,进行下一步骤;
S23:梯度分割:所有的客户端设备将稀疏化处理后的梯度进行分割,通过加法秘密共享将其分为与服务器个数相同的份数
S24:梯度加密和密文上传:所有的客户端利用公钥pk对分割之后的梯度进行加密并将密文/>依次发送至不同的服务器。
进一步,在所述步骤S3中,各个服务器分别收到来自各个客户端设备的梯度密文使用同态加密的加法运算将密文进行聚合,得到聚合的梯度密文份额/>
进一步,步骤S4具体包括以下步骤:
S41:密文份额下载和密文份额聚合:客户端设备从各个服务器上下载聚合后的密文份额使用同态加密的加法运算将密文份额进行聚合,得到完整的梯度密文
S42:梯度密文解密:客户端设备在本地利用私钥sk对聚合的梯度密文进行解密运算wt-1←Dec((wt-1)*,x);
S43:模型参数的更新:所有客户端设备利用聚合梯度的结果更新模型参数,更新完成后,如果达到预定的训练轮数epoch,则训练完成,如果未达到预定的训练轮数epoch,则返回模型训练阶段继续下一轮训练。
本发明的有益效果在于:本发明提出一种基于秘密共享和同态加密的多服务器联邦学习方案,利用Shamir秘密共享算法和Elgamal同态加密算法,保证了单个设备的数据隐私,容忍了设备的掉线退出,抵抗了部分设备的共谋攻击。本发明设计的梯度稀疏算法,可以在客户端设备过滤偏离全局收敛的不相关梯度,从而达到减少通信开销的目的。本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明所基于的***模型示意图;
图2为本发明所述基于秘密共享和同态加密的多服务器联邦学习方法的总体流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
请参阅图1~图2,基于秘密共享和同态加密的多服务器学习方法主要针对多服务器多客户端的复杂联邦学习应用,包括多台服务器和多个客户端。本发明主要包含初始化阶段、模型训练阶段、模型聚合阶段、模型更新阶段。
可信权威机构负责同态加密的公私钥对,并承担密钥分发工作。
客户端负责在本地训练模型,客户端在每一轮的训练过程中计算梯度以及分割梯度,然后将加密后的梯度份额上传到服务器。通过对梯度份额进行加密,使得客户端与服务器之间只能进行密文传输与聚合,保护了梯度的隐私。
服务器负责聚合各个客户端设备上传的梯度份额密文。由于服务器只对各自的份额进行聚合,使得各个服务器无法知晓全局更新,从而更好的防止模型参数的泄露。
假设有m台服务器,n台客户端设备,本方法包括以下步骤:
步骤1:初始化阶段
可信权威机构生成用于同态加密的公私钥对,并通过安全信道发送给所有的客户端设备。之后,所有的客户端设备在本地初始化模型参数,准备开始训练。在初始化阶段,可信权威机构选择安全参数r作为输入,输出公共参数(q,g,G),生成用于同态加密的公私钥对(gx,x)。
步骤1.1:模型参数的初始化
所有客户端设备在本地初始化CNN神经网络模型M0,学习率α,训练轮数epoch,梯度稀疏中的相关阈值l,所有参数均相同。
步骤1.2:密钥对的初始化
可信权威机构完成公钥pk和私钥sk的生成,并通过安全信道发送给所有客户端设备,所有的客户端设备所获得的pk和sk也均相同。
步骤2:模型训练阶段
所有的客户端设备利用本地数据集进行训练,得到模型梯度。为了减小训练过程的通信开销并保证梯度的隐私性,将梯度进行稀疏化处理,并对处理后的梯度进行分割,将其分为与服务器台数相同的份数,然后对梯度份额进行同态加密并依次发送至不同的服务器。
步骤2.1:梯度计算
设所有的客户端设备都有各自的数据集D={D1,D2,…,Dn},然后根据损失函数对模型参数求导,计算得到梯度
步骤2.2:梯度稀疏化处理
如果能避免上传不相关的更新,则能够在不损失模型准确性的前提下减小不必要的通信开销。基于这一观点,可以通过在每轮训练的上传阶段之前去除那些偏离全局收敛趋势的不相关本地更新以实现空间稀疏化,因此,将本地更新与全局更新的(正/负)符号进行比较,来判定本地更新与全局更新的(正/负)符号的一致性,并以此来衡量本地更新是否遵循全局收敛的趋势。考虑到收敛过程的连续性和渐进性,两个连续的全局更新不应该有太大的差异,所以使用上一轮的全局更新近似代替本轮的全局更新,那么第t轮模型训练中,客户端设备i的本地更新的相关度可计算为/>用于判断是否应当将梯度上传至服务器,其中,/>表示第i台客户端第t轮本地更新/>与第t-1轮模型训练得到的全局更新Δwt-1对应参数具有相同符号的参数个数,N表示模型参数的总数。当相关度/>小于设置的阈值l时,该轮本地更新被判定为不相关,从而禁止上传到服务器。反之,进行下一步骤。
步骤2.3:梯度分割
所有的客户端设备将稀疏化处理后的梯度进行分割,通过加法秘密共享将其分为与服务器个数相同的份数
步骤2.4:梯度加密和密文上传
所有的客户端利用公钥pk对分割之后的梯度进行加密并将密文/>依次发送至不同的服务器。
步骤3:模型聚合阶段
服务器等待收集足够数目的共享密文份额,随后开始进行聚合,得到聚合密文份额。由于梯度被分割为与服务器数量相同的份数,且由秘密共享(t,n)阈值方案的特性可知:当共谋的服务器数小于t,无法从份额中获取任何有关秘密的有效信息。各个服务器分别收到来自各个客户端设备的梯度密文使用同态加密的加法运算将密文进行聚合,得到聚合的梯度密文份额/>
步骤4:模型更新阶段
客户端设备从各个服务器下载聚合份额,秘密恢复后进行解密,使用解密后的梯度更新模型。如果未达到预定的训练轮数,则所有的客户端设备返回模型训练阶段进行下一轮训练。
步骤4.1:密文份额下载和密文份额聚合
客户端设备从各个服务器上下载聚合后的密文份额使用同态加密的加法运算将密文份额进行聚合,得到完整的梯度密文/>
步骤4.2:梯度密文解密
客户端设备在本地利用私钥sk对聚合的梯度密文进行解密运算wt-1←Dec((wt -1)*,x)。
步骤4.3:模型参数的更新
所有客户端设备利用聚合梯度的结果更新模型参数,更新完成后,如果达到预定的训练轮数epoch,则训练完成,如果未达到预定的训练轮数epoch,则返回模型训练阶段继续下一轮训练。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (5)
1.一种基于秘密共享和同态加密的多服务器联邦学习方法,其特征在于:针对多服务器多客户端的复杂联邦学习应用,包括以下步骤:
S1:初始化阶段:可信权威机构生成用于同态加密的公私钥对,并通过安全信道发送给所有的客户端设备,所有的客户端设备在本地完成各种参数的初始化;
S2:模型训练阶段:所有客户端设备利用本地数据集进行训练,得到模型梯度,将梯度进行稀疏化处理,并对处理后的梯度进行分割,将其分为与服务器台数相同的份数,然后对梯度份额进行同态加密并依次发送至不同的服务器;
S3:模型聚合阶段:当服务器收到足够数目的共享密文份额后开始进行聚合,得到聚合密文份额;
S4:模型更新阶段:客户端设备从各个服务器下载聚合份额,秘密恢复后进行解密,使用解密后的梯度更新模型;如果未达到预定的训练轮数,则所有的客户端设备返回模型训练阶段进行下一轮训练。
2.根据权利要求1所述的基于秘密共享和同态加密的多服务器联邦学习方法,其特征在于:步骤S1具体包括以下步骤:
S11:模型参数的初始化:所有客户端设备在本地初始化CNN神经网络模型M0,学习率α,训练轮数epoch,梯度稀疏中的相关阈值l,所有参数均相同;
S12:密钥对的初始化:可信权威机构完成公钥pk和私钥sk的生成,并通过安全信道发送给所有客户端设备,所有的客户端设备所获得的pk和sk也均相同。
3.根据权利要求1所述的基于秘密共享和同态加密的多服务器联邦学习方法,其特征在于:步骤S2具体包括以下步骤:
S21:梯度计算:设所有的客户端设备都有各自的数据集D={D1,D2,,Dn},根据损失函数对模型参数求导,计算得到梯度
S22:梯度稀疏化处理:客户端设备通过计算本地更新与全局更新的相关度来判断是否应当将梯度上传至服务器,其中,/>表示第i台客户端第t轮本地更新/>与第t-1轮模型训练得到的全局更新wt-1对应参数具有相同符号的参数个数,N表示模型参数的总数;当相关度/>小于设置的阈值l时,该轮本地更新被判定为不相关,从而禁止上传到服务器;反之,进行下一步骤;
S23:梯度分割:所有的客户端设备将稀疏化处理后的梯度进行分割,通过加法秘密共享将其分为与服务器个数相同的份数
S24:梯度加密和密文上传:所有的客户端利用公钥pk对分割之后的梯度进行加密并将密文/>依次发送至不同的服务器。
4.根据权利要求1所述的基于秘密共享和同态加密的多服务器联邦学习方法,其特征在于:在所述步骤S3中,各个服务器分别收到来自各个客户端设备的梯度密文使用同态加密的加法运算将密文进行聚合,得到聚合的梯度密文份额/>
5.根据权利要求1所述的基于秘密共享和同态加密的多服务器联邦学习方法,其特征在于:步骤S4具体包括以下步骤:
S41:密文份额下载和密文份额聚合:客户端设备从各个服务器上下载聚合后的密文份额使用同态加密的加法运算将密文份额进行聚合,得到完整的梯度密文
S42:梯度密文解密:客户端设备在本地利用私钥sk对聚合的梯度密文进行解密运算wt -1←Dec((wt-1)*,x);
S43:模型参数的更新:所有客户端设备利用聚合梯度的结果更新模型参数,更新完成后,如果达到预定的训练轮数epoch,则训练完成,如果未达到预定的训练轮数epoch,则返回模型训练阶段继续下一轮训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310820480.5A CN116865938A (zh) | 2023-07-05 | 2023-07-05 | 基于秘密共享和同态加密的多服务器联邦学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310820480.5A CN116865938A (zh) | 2023-07-05 | 2023-07-05 | 基于秘密共享和同态加密的多服务器联邦学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116865938A true CN116865938A (zh) | 2023-10-10 |
Family
ID=88233511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310820480.5A Pending CN116865938A (zh) | 2023-07-05 | 2023-07-05 | 基于秘密共享和同态加密的多服务器联邦学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116865938A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117474130A (zh) * | 2023-12-27 | 2024-01-30 | 苏州元脑智能科技有限公司 | 一种基于多云互享的联邦学习***、方法及装置 |
-
2023
- 2023-07-05 CN CN202310820480.5A patent/CN116865938A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117474130A (zh) * | 2023-12-27 | 2024-01-30 | 苏州元脑智能科技有限公司 | 一种基于多云互享的联邦学习***、方法及装置 |
CN117474130B (zh) * | 2023-12-27 | 2024-03-22 | 苏州元脑智能科技有限公司 | 一种基于多云互享的联邦学习***、方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109684855B (zh) | 一种基于隐私保护技术的联合深度学习训练方法 | |
CN111600707B (zh) | 一种在隐私保护下的去中心化联邦机器学习方法 | |
Mishra et al. | Delphi: A cryptographic inference system for neural networks | |
CN108712260B (zh) | 云环境下保护隐私的多方深度学习计算代理方法 | |
Miao et al. | Secure multi-server-aided data deduplication in cloud computing | |
CN113221105B (zh) | 一种基于部分参数聚合的鲁棒性联邦学习算法 | |
CN111563265A (zh) | 一种基于隐私保护的分布式深度学习方法 | |
CN113077060A (zh) | 针对边云协同的联邦学习***及方法 | |
CN111581648B (zh) | 在不规则用户中保留隐私的联邦学习的方法 | |
CN113435592A (zh) | 一种隐私保护的神经网络多方协作无损训练方法及*** | |
CN112597542B (zh) | 目标资产数据的聚合方法及装置、存储介质、电子装置 | |
CN113407963A (zh) | 基于signsgd的联邦学习梯度安全聚合方法 | |
WO2018099577A1 (en) | System and method for providing a collective decentralized authority for sharing sensitive data | |
CN116865938A (zh) | 基于秘密共享和同态加密的多服务器联邦学习方法 | |
CN117421762A (zh) | 基于差分隐私和同态加密的联邦学习隐私保护方法 | |
Erkin et al. | Privacy-preserving user clustering in a social network | |
Kamal et al. | Searchable encryption of image based on secret sharing scheme | |
CN114386071A (zh) | 去中心的联邦聚类方法、装置、电子设备及存储介质 | |
CN113326947A (zh) | 一种联合学习模型训练方法及*** | |
Ahmad et al. | A pixel-based encryption method for privacy-preserving deep learning models | |
CN117134945A (zh) | 数据处理方法、***、装置、计算机设备及存储介质 | |
CN111581663B (zh) | 面向非规则用户的保护隐私的联邦深度学习方法 | |
CN114900283A (zh) | 基于多方安全计算的深度学习用户梯度聚合方法 | |
CN115333789A (zh) | 一种非对称模式下基于大规模数据集的隐私保护交集计算方法及装置 | |
CN116415267A (zh) | 一种联合学习模型迭代更新方法、装置、***及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |