CN112199702A - 一种基于联邦学习的隐私保护方法、存储介质及*** - Google Patents

一种基于联邦学习的隐私保护方法、存储介质及*** Download PDF

Info

Publication number
CN112199702A
CN112199702A CN202011109363.0A CN202011109363A CN112199702A CN 112199702 A CN112199702 A CN 112199702A CN 202011109363 A CN202011109363 A CN 202011109363A CN 112199702 A CN112199702 A CN 112199702A
Authority
CN
China
Prior art keywords
model
ciphertext
global
parameter
encryption
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011109363.0A
Other languages
English (en)
Inventor
夏树涛
杨雪
冯岩
李文杰
方伟军
唐小虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen International Graduate School of Tsinghua University
Peng Cheng Laboratory
Original Assignee
Shenzhen International Graduate School of Tsinghua University
Peng Cheng Laboratory
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen International Graduate School of Tsinghua University, Peng Cheng Laboratory filed Critical Shenzhen International Graduate School of Tsinghua University
Priority to CN202011109363.0A priority Critical patent/CN112199702A/zh
Publication of CN112199702A publication Critical patent/CN112199702A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioethics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于联邦学习的隐私保护方法、存储介质及***,方法包括步骤:采用参数加密算法对全局模型进行加密处理,得到密文模型;利用本地数据在所述密文模型上进行训练,并对得到的密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对全局模型进行更新,循环上述步骤直至模型收敛或达到指定迭代次数,获得模型参数;对模型参数进行加密,得到加密模型参数,采用加密模型参数对全局模型进行更新,得到全局加密模型;在加密全局模型上进行本地训练,实现隐私保护。本发明可以有效防止半可信的联邦学习参与者获取全局模型的真实参数和中间模型的输出结果,同时保证参与者都能够利用最终训练好的加密模型获取到真实的预测结果。

Description

一种基于联邦学习的隐私保护方法、存储介质及***
技术领域
本发明涉及数据保护领域,特别涉及一种基于联邦学习的隐私保护方法、存储介质及***。
背景技术
随着大数据挖掘和深度学习的广泛应用与发展,越来越多的隐私泄露和数据滥用事件频繁爆发,使得重视数据隐私和安全已经成为了世界性的趋势。特别是在分布式机器学习中,分布式参与者由于隐私担忧问题而不愿意提供自己的本地训练数据,从而形成了“数据孤岛”现象。为了应对数据隐私保护难题,打破数据孤岛的现实困难,满足数据联合使用的迫切需求,联邦学习的概念和工业级应用解决方案被提出来。联邦学习本质上是一种分布式机器学习框架,在此框架下,各个参与者之间不互通原始数据,在本地训练模型并上传更新的模型参数或者梯度,从而能够在保护隐私的前提下有效帮助多个参与者联合进行机器学习建模。
虽然联邦学习不要求参与者上传本地训练数据,从而能够一定程度上地保护隐私。然而,目前的研究表明攻击者仍然可能利用每个参与者上传的真实梯度或者更新的模型参数信息来获取原始的训练数据、进行成员推断以及属性推断等攻击。目前,基于联邦学习的隐私保护研究,几乎考虑的都是防止中央服务器从模型更新中获取参与者的隐私信息,却并未考虑恶意参与者的情况。也就是说,恶意参与者或者被攻击者截获的参与者仍然可以得到真实的全局模型更新,因此,它们仍然有可能通过真实的参数,再加上自己所拥有的本地训练数据来猜测其它训练数据,或者推测其他参与者的训练数据集。正如Kairouz等人指出,在联邦学习中,防止迭代过程中的真实的模型更新以及最终的模型参数被恶意参与者获取也是需要解决的问题。本质上来说,解决这个问题就是让参与者在加密或者扰乱的全局模型更新上进行本地训练。尽管目前有三种主流的隐私保护技术,即差分隐私、同态加密和安全多方计算,被广泛的应用于隐私保护的机器学习中。然而,这些技术都要么以牺牲模型准确性为代价,要么以牺牲模型训练的效率为代价,使得隐私保护的模型训练仍然是一大难点。
因此,现有技术还有待于改进和发展。
发明内容
本发明要解决的技术问题在于,针对现有技术的不足,提供一种基于联邦学习的隐私保护方法、存储介质及***,旨在解决现有隐私数据得不到有效保护的问题。
为了解决上述技术问题,本发明所采用的技术方案如下:
一种基于联邦学习的隐私保护方法,其中,包括步骤:
采用参数加密算法对全局模型进行加密处理,得到密文模型;
利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项;
对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新,循环上述步骤直至模型收敛或达到指定迭代次数,获得模型参数;
对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型;
在所述加密全局模型上进行本地训练,实现隐私保护。
所述的基于联邦学习的隐私保护方法,其中,所述采用参数加密算法对全局模型进行加密处理,得到密文模型的步骤包括:
当所述全局模型为L层的多层感知机模型时,采用随机数矩阵
Figure BDA0002728078110000021
Figure BDA0002728078110000022
对所述多层感知机模型中的明文模型参数
Figure BDA0002728078110000023
进行加密,得到密文模型参数:
Figure BDA0002728078110000024
其中,
Figure BDA0002728078110000025
表示哈达玛积乘积运算;
所述随机数矩阵R(l)由乘性噪声向量
Figure BDA0002728078110000026
按以下规则构成:
Figure BDA0002728078110000027
其中,下标i和j满足i∈[1,nl],j∈[1,nl-1];
所述随机数矩阵Ra由随机数γ和加性噪声向量
Figure BDA0002728078110000028
按下式组成:
Figure BDA0002728078110000029
其中下标i和j满足i∈[1,nL],j∈[1,nL-1];
将所述密文模型参数替换所述多层感知机模型中的明文模型参数,得到密文模型。
所述的基于联邦学习的隐私保护方法,其中,所述采用参数加密算法对全局模型进行加密处理,得到密文模型的步骤包括:
当所述全局模型为L层的卷积神经网络模型时,使用随机张量
Figure BDA00027280781100000210
和随机矩阵
Figure BDA00027280781100000211
对所述卷积神经网络模型的明文模型参数加密,得到对应的密文模型参数:
Figure BDA00027280781100000212
当1≤l≤L-1时,参数W(l)为卷积核张量,所述随机张量R(l)由乘性噪声向量
Figure BDA0002728078110000031
组成,且满足:
Figure BDA0002728078110000032
其中r(l,in)=(r(m))m∈P(l),由m∈P(l)个向量r(m)拼接而成,P(l)表示所有连接到第l个卷积层的网络层的下标集合;
所述随机矩阵R(L)由乘性噪声向量r(L-1)构成,且满足:
Figure BDA0002728078110000033
所述随机矩阵Ra由加性噪声向量ra和随机数γ组成,且满足:
Figure BDA0002728078110000034
将所述密文模型参数替换所述卷积神经网络模型中的明文模型参数,得到密文模型。
所述的基于联邦学习的隐私保护方法,其中,利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项的步骤包括:
计算所述密文模型的输出:
Figure BDA0002728078110000035
所述密文模型的输出与其对应的明文模型的输出满足以下关系式:
Figure BDA0002728078110000036
其中
Figure BDA0002728078110000037
r=γra
对于任意维的样本
Figure BDA0002728078110000038
密文模型的预测值
Figure BDA0002728078110000039
与真实值的均方误差作为损失函数表示为:
Figure BDA00027280781100000310
其中,nL表示模型输出层的维度,同时也是样本标签的维度;
所述损失函数
Figure BDA00027280781100000311
对密文参数
Figure BDA00027280781100000312
的带噪梯度与其对应的真实梯度满足以下关系式:
Figure BDA00027280781100000313
其中,
Figure BDA00027280781100000314
Figure BDA00027280781100000315
第k个参与者在其所有小批量数据
Figure BDA00027280781100000316
样本上计算密文梯度信息
Figure BDA00027280781100000317
并结合加性噪声向量ra计算出噪声项
Figure BDA00027280781100000318
Figure BDA00027280781100000319
所述的基于联邦学习的隐私保护方法,其中,利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项的步骤包括:
所述密文模型的卷积层输出与其对应的真实卷积层输出满足:
Figure BDA0002728078110000041
并且,密文模型的全连接层输出与其对应的真实输出结果满足:
Figure BDA0002728078110000042
其中
Figure BDA0002728078110000043
是伪输出统计量,函数Flatten(·)表示将多维张量延展成一维向量,延展后的向量维度为nL-1=cL-1hL-1wL-1,参数r=γra为组合噪声向量;
对于任意维的样本
Figure BDA0002728078110000044
密文模型的预测值
Figure BDA0002728078110000045
与真实值的均方误差作为损失函数表示为:
Figure BDA0002728078110000046
其中,nL表示模型输出层的维度,同时也是样本标签的维度;
所述损失函数
Figure BDA0002728078110000047
对密文参数
Figure BDA0002728078110000048
的带噪梯度与其对应的真实梯度满足以下关系式:
Figure BDA0002728078110000049
其中,
Figure BDA00027280781100000410
Figure BDA00027280781100000411
第k个参与者在其所有小批量数据
Figure BDA00027280781100000412
样本上计算密文梯度信息
Figure BDA00027280781100000413
并结合加性噪声向量ra计算出噪声项
Figure BDA00027280781100000414
Figure BDA00027280781100000415
所述的基于联邦学习的隐私保护方法,其中,对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新,直至模型收敛或达到指定迭代次数,获得模型参数的步骤包括:
对于第t轮的全局模型Wt,在第k个参与者的本地训练过程中得到的参数梯度按下式求解:
Figure BDA00027280781100000416
其中,Fk(·)表示第k个参与者的损失函数;
采用所述参数梯度对所述全局模型进行更新,直至模型收敛或达到指定迭代次数,得到第t+1轮的模型参数Wt+1为:
Figure BDA00027280781100000417
其中,η表示学习速率,Nk/N表示第k个参与者的数据量占总数据量的比例。
所述的基于联邦学习的隐私保护方法,其中,对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型的步骤包括:
根据公式
Figure BDA0002728078110000051
对所述模型参数进行加密,得到加密模型参数;
采用所述加密模型参数
Figure BDA0002728078110000052
对所述全局模型进行更新,得到全局加密模型。
一种计算机可读存储介质,其中,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现本发明所述基于联邦学习的隐私保护方法中的步骤。
一种基于联邦学习的隐私保护***,其中,包括:服务器端和客户端,所述服务器端用于采用参数加密算法对全局模型进行加密处理,得到密文模型;
所述客户端用于利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项;
所述服务器端还用于对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新,循环上述步骤直至模型收敛或达到指定迭代次数,获得模型参数;对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型;
所述客户端还用于在所述加密全局模型上进行本地训练,实现隐私保护。
有益效果:与现有技术相比,本发明提供的基于联邦学习的隐私保护方法,通过隐私保护算法来加密联邦学习的全局模型得到全局加密模型,并允许参与者所述全局加密模型上进行本地训练。本发明提供的隐私保护方法可以有效防止半可信的联邦学习参与者获取全局模型的真实参数和中间模型的输出结果,同时也保证所有参与者都能够利用最终训练好的加密模型获取到真实的预测结果。
附图说明
图1为本发明一种基于联邦学习的隐私保护方法较佳实施例的流程图。
图2为本发明一种基于联邦学习的隐私保护***的原理图。
具体实施方式
本发明提供一种基于联邦学习的隐私保护方法、存储介质及***,为使本发明的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
下面结合附图,通过对实施例的描述,对发明内容作进一步说明。
联邦学习(FederatedLearning)是一种新兴的人工智能基础技术,在2016年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。以包含两个数据拥有方(即企业A和B)的场景为例介绍联邦学习的***构架。该构架可扩展至包含多个数据拥有方的场景。假设企业A和B想联合训练一个机器学习模型,它们的业务***分别拥有各自用户的相关数据。此外,企业B还拥有模型需要预测的标签数据。出于数据隐私保护和安全考虑,A和B无法直接进行数据交换,可使用联邦学习***建立模型。联邦学习***构架由三部分构成:
第一部分:加密样本对齐。由于两家企业的用户群体并非完全重合,***利用基于加密的用户样本对齐技术,在A和B不公开各自数据的前提下确认双方的共有用户,并且不暴露不互相重叠的用户,以便联合这些用户的特征进行建模。第二部分:加密模型训练。在确定共有用户群体后,就可以利用这些数据训练机器学习模型。为了保证训练过程中数据的保密性,需要借助第三方协作者C进行加密训练。以线性回归模型为例,训练过程可分为4步:第①步:协作者C把公钥分发给A和B,用以对训练过程中需要交换的数据进行加密。第②步:A和之间以加密形式交互用于计算梯度的中间结果。第③步:A和B分别基于加密的梯度值进行计算,同时B根据其标签数据计算损失,并把结果汇总给C,C通过汇总结果计算总梯度值并将其解密。第④步:C将解密后的梯度分别回传给A和B,A和B根据梯度更新各自模型的参数。迭代上述步骤直至损失函数收敛,这样就完成了整个训练过程。在样本对齐及模型训练过程中,A和B各自的数据均保留在本地,且训练中的数据交互也不会导致数据隐私泄露。因此,双方在联邦学习的帮助下得以实现合作训练模型。第三部分:效果激励。联邦学习的一大特点就是它解决了为什么不同机构要加入联邦共同建模的问题,即建立模型以后模型的效果会在实际应用中表现出来,并记录在永久数据记录机制(如区块链)上。这些模型的效果在联邦机制上会分发给各个机构反馈,并继续激励更多机构加入这一数据联邦。以上三部分的实施,既考虑了在多个机构间共同建模的隐私保护和效果,又考虑了以一个共识机制奖励贡献数据多的机构。
虽然联邦学***。然而,目前的研究表明攻击者仍然可能利用每个参与者上传的真实梯度或者更新的模型参数信息来获取原始的训练数据、进行成员推断以及属性推断等攻击。目前,基于联邦学习的隐私保护研究,几乎考虑的都是防止中央服务器从模型更新中获取参与者的隐私信息,却并未考虑恶意参与者的情况。也就是说,恶意参与者或者被攻击者截获的参与者仍然可以得到真实的全局模型更新,因此,它们仍然有可能通过真实的参数,再加上自己所拥有的本地训练数据来猜测其它训练数据,或者推测其他参与者的训练数据集。因此,在联邦学习中,防止迭代过程中的真实的模型更新以及最终的模型参数被恶意参与者获取也是亟待解决的问题。
为解决现有技术存在的问题,本发明提供了一种基于联邦学习的隐私保护方法,如图1所示,其包括步骤:
S10、采用参数加密算法对全局模型进行加密处理,得到密文模型;
S20、利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项;
S30、对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新;
S40、循环进行执行步骤S10-S30,直至模型收敛或达到指定迭代次数,获得模型参数;
S50、对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型;
S60、在所述加密全局模型上进行本地训练,实现隐私保护。
具体来讲,差分隐私技术虽然能够保证模型的效率,但是引入的随机噪声无法消除,使得模型的准确性会受到很大程度的影响,并且模型的准确性与隐私保护水平之间还存在折中关系,即隐私保护水平越高,需要添加的随机数噪声就越大,这就会使得模型的准确性越差。为了解决这个问题,本实施例基于差分隐私的思想,提出了一种高效的隐私保护方法,在训练过程的每一轮迭代中,服务器端在分发全局模型参数之前,会选择满足一定条件的加性和乘性随机数作为私钥,并按照一定的设计要求将全局模型乘以或者加上私钥作为给每个参与者分发的加密的全局模型;然后,参与者在加密的全局模型上利用自己的本地数据进行模型训练。本实施例提出的隐私保护方法能够让服务器端精确地消除随机数的影响,恢复出真实的全局模型,从而能够保证模型的准确性。
本实施例通过提出高效的隐私保护方法来加密全局模型,使得联邦学习的所有参与者只能在全局加密模型上进行训练而无法获得真实的模型参数,从而保证了全局模型的隐私性。也就是说,本实施例提供的基于联邦学习的隐私保护方法可以有效防止半可信的联邦学习参与者获取全局模型的真实参数和中间模型的输出结果,同时也保证所有参与者都能够利用最终训练好的加密模型获取到真实的预测结果。
在一些具体的实施方式中,本发明提供的隐私保护方法可适用于在医院(医疗图像数据)、银行(***交易记录)等数据隐私较为敏感的场景,联合各机构在***露数据隐私的前提下共同训练出全局模型,以达到预期的目的。以银行***欺诈检测场景为例,各银行希望在***露数据隐私的同时训练全局模型,以获得针对单条***交易信息,检测出其是否为欺诈交易的能力。各银行机构收到密文模型后,可利用本地***交易记录数据以及人工标注的标签(交易是否为欺诈)在所述密文模型上进行训练,得到密文梯度信息和噪声项并发送给服务器端;服务器端对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新;循环进行执行上述步骤,直至模型收敛或达到指定迭代次数,获得模型参数;对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型;服务器端将所述全局加密模型再分发至客户端(各银行机构),所述客户端可在所述加密全局模型上进行本地训练,实现隐私保护。
在一些实施方式中,本实施例提供的隐私保护方法适用于多层感知机(MLP)和卷积神经网络(CNN)两类深度学习模型,支持ReLU激活函数和MSE损失函数;同时,所述隐私保护方法还能够有效的应用于具有跳跃连接的变种卷积神经网络模型,例如目前广泛流行的ResNet和DenseNet网络。
对应于横向联邦学习的训练过程,本发明包括“全局模型加密”、“本地模型训练”、“全局模型更新”和“最终模型分发”四个阶段。其中前三个阶段按序循环执行至模型收敛或达到指定循环次数,之后转到第四阶段收尾。
在一些实施方式中,所述“全局模型加密”阶段由联邦学习框架的服务器端完成,所述服务器端使用所述参数加密算法对全局模型(称为“明文模型”)进行加密或扰乱,然后将加密后的模型(称为“密文模型”)以及辅助随机信息一同发送给客户端。所述全局模型可选用多层感知机模型或卷积神经网络模型,以下分别基于两类模型具体介绍所述参数加密算法。
在一种具体实施方式中,当所述全局模型为L层的多层感知机模型时,所述多层感知机模型由任意数量的全连接层组成,且以ReLU为激活函数。考虑一个L层的多层感知机模型,其第l层的神经元个数为nl,参数矩阵为
Figure BDA0002728078110000091
则其输出可表示为:
Figure BDA0002728078110000092
特别地,当l=0时,y(0)表示模型的输入x=(x1,x2,…,xd)T,n0=d表示输入数据的维度。
针对所述L层的多层感知机模型,服务器端使用随机数矩阵
Figure BDA0002728078110000093
Figure BDA0002728078110000094
对明文模型参数
Figure BDA0002728078110000095
进行加密,密文模型参数
Figure BDA0002728078110000096
的计算过程如下:
Figure BDA0002728078110000097
其中
Figure BDA0002728078110000098
表示哈达玛积(Hadamard)乘积运算。
具体地,所述随机数矩阵R(l)由乘性噪声向量
Figure BDA0002728078110000099
按以下规则构成:
Figure BDA00027280781100000910
其中下标i和j满足i∈[1,nl],j∈[1,nl-1]。所述随机数矩阵Ra由随机数γ和加性噪声向量
Figure BDA00027280781100000911
按下式组成:
Figure BDA00027280781100000912
其中下标i和j满足i∈[1,nL],j∈[1,nL-1]。将所述密文模型参数替换所述多层感知机模型中的明文模型参数,得到密文模型。
在本实施例中,服务器端首先按照上述要求完成模型加密,然后将密文模型参数
Figure BDA00027280781100000913
和加性噪声向量ra一同发送给联邦学习的参与者。
在另一种具体实施方式中,当所述全局模型为L层的卷积神经网络模型时,所述卷积神经网络模型由任意数量的卷积层和最大池化层交替连接组成,然后以一个用于回归或分类任务的全连接层结束。所述卷积模型使用ReLU作为激活函数,并且允许各层之间具有“拼接型跳跃连接”结构。所述卷积层以三维数据为输入,以多个三维卷积核为参数,输出卷积后的特征图。对于任意通道数为cl,高度为hl,宽为wl的三维输入数据
Figure BDA00027280781100000914
其三维卷积操作定义为:
Figure BDA00027280781100000915
Figure BDA0002728078110000101
其中,
Figure BDA0002728078110000102
是cl+1个大小为cl×f×f的卷积核组成的张量,
Figure BDA0002728078110000103
是输出的特征图。
对于任意L层所述卷积网络模型,服务器端使用随机张量
Figure BDA0002728078110000104
和随机矩阵
Figure BDA0002728078110000105
对所述卷积神经网络模型的明文模型参数加密,得到对应的密文模型参数:
Figure BDA0002728078110000106
当1≤l≤L-1时,参数W(l)为卷积核张量,所述随机张量R(l)由乘性噪声向量
Figure BDA0002728078110000107
组成,且满足:
Figure BDA0002728078110000108
其中r(l,in)=(r(m))m∈P(l),由m∈P(l)个向量r(m)拼接而成,P(l)表示所有连接到第l个卷积层的网络层的下标集合,这一改动用于适配具有拼接型跳跃连接的连接结构;
所述随机矩阵R(L)由乘性噪声向量r(L-1)构成,且满足:
Figure BDA0002728078110000109
所述随机矩阵Ra由加性噪声向量ra和随机数γ组成,且满足:
Figure BDA00027280781100001010
将所述密文模型参数替换所述卷积神经网络模型中的明文模型参数,得到密文模型。
在本实施例中,服务器端首先按照上述要求完成模型加密,然后将密文模型参数
Figure BDA00027280781100001011
和加性噪声向量ra一同发送给联邦学习的参与者(客户端)。
在一些实施方式中,“本地模型训练”阶段为第二阶段,由客户端完成。每个参与者接收到密文模型和加性噪声向量之后,利用自己的本地数据在密文模型上进行训练,主要包括两个阶段:前向传播和反向传播。最后,将本地计算得到的密文梯度信息和额外的噪声项发送给服务器端。
前向传播阶段:
当所述当所述全局模型为L层的多层感知机模型时,联邦学习的参与者接收到密文模型之后,计算含噪的输出
Figure BDA00027280781100001012
Figure BDA00027280781100001013
密文模型的输出与其对应的明文模型的输出满足以下关系式:
Figure BDA00027280781100001014
其中
Figure BDA00027280781100001015
r=γra。对于一个联邦学习参与者,随机噪声向量r(l)和随机数γ不可知。
当所述当所述全局模型为L层的卷积神经网络模型时,与多层感知机类似,密文模型的卷积层输出与其对应的真实卷积层输出满足:
Figure BDA0002728078110000111
并且密文模型的全连接层输出与其对应的真实输出结果满足:
Figure BDA0002728078110000112
其中
Figure BDA0002728078110000113
是伪输出统计量,函数Flatten(·)表示将多维张量延展成一维向量,延展后的向量维度为nL-1=cL-1hL-1wL-1。参数r=γra为组合噪声向量。与多层感知机模型的加密机制同理,随机噪声向量r(l)和随机数γ对联邦学习的参与者不可知,针对所述卷积模型的加密机制可以严格保证全局模型的安全性。
反向传播阶段:
该反向传播过程同时适用于多层感知机模型和卷积神经网络模型,使用均方误差(MSE)作为损失函数。对于任意维的样本
Figure BDA0002728078110000114
密文模型的预测值
Figure BDA0002728078110000115
与真实值的均方误差可表示为:
Figure BDA0002728078110000116
其中nL表示模型输出层的维度,同时也是样本标签的维度。参数α和r分别是“阶段1”中介绍的伪输出统计量和组合噪声向量。对于本发明介绍的参数加密算法,损失函数
Figure BDA0002728078110000117
对密文参数
Figure BDA0002728078110000118
的带噪梯度与其对应的真实梯度满足以下关系式:
Figure BDA0002728078110000119
其中,
Figure BDA00027280781100001110
Figure BDA00027280781100001111
值得注意的是,参数σ(l)和β(l)是由参与者在本地独立计算完成。
具体地,第k个参与者在其所有小批量数据
Figure BDA00027280781100001112
样本上计算梯度
Figure BDA00027280781100001113
并结合服务器端提供的加性噪声向量ra计算出噪声项
Figure BDA00027280781100001114
Figure BDA00027280781100001115
最后将三类信息
Figure BDA00027280781100001116
同并发送给服务器端。
在一些实施方式中,所述“全局模型更新”阶段由联邦学习的服务器端完成。服务器端接收到所有参与者发送的密文梯度信息和噪声项之后,利用选择的私钥解密出真实的参数梯度,最后利用聚合后的参数梯度更新全局模型。具体地,对于第t轮的全局模型Wt,它在第k个参与者的本地训练过程中得到的真实梯度可按下式求解:
Figure BDA0002728078110000121
Figure BDA0002728078110000122
其中Fk(·)表示第k个参与者的损失函数。解密出真实梯度后,服务器端更新得到第t+1轮的全局模型Wt+1
Figure BDA0002728078110000123
其中η表示学习速率,Nk/N表示第k个参与者的数据量占总数据量的比例。
在一些实施方式中,所述“最终模型分发”阶段由联邦学习的服务器端完成。服务器端和客户端交替式执行阶段1到阶段3至模型收敛或达到指定迭代次数后,服务器端将获得最终的模型参数
Figure BDA0002728078110000124
为了保护模型参数同时还要保证参与者能够获得正确的推断结果,服务器端在分发模型前仍然要对全局模型加密,与训练阶段不同是的,服务器端不选择加性噪声Ra而只选择乘性噪声,以保证密文模型的输出与真实输出相同,即:
Figure BDA0002728078110000125
不失一般性,服务器端将按下式加密模型参数:
Figure BDA0002728078110000126
不论是多层感知机模型还是卷积神经网络模型,上式中的参数W(l)和噪声R(l)的形式与“阶段1”中介绍的完全相同。最终,服务器端将加密的全局模型分发给所有参与者,所述参与者在所述加密全局模型上进行本地训练,实现隐私保护。
在一些实施方式中,还提供一种计算机可读存储介质,其中,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现本发明所述基于联邦学习的隐私保护方法中的步骤。
在一些实施方式中,还提供一种基于联邦学习方法的隐私保护***,如图2所示,其包括服务器端10和客户端20,所述服务器端10用于采用参数加密算法对全局模型进行加密处理,得到密文模型;
所述客户端20用于利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项;
所述服务器端10还用于对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新,循环上述步骤直至模型收敛或达到指定迭代次数,获得模型参数;对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型;
所述客户端20还用于在所述加密全局模型上进行本地训练,实现隐私保护。
综上所述,本发明解决了在密文域中实现ReLU之类的非线性激活函数的问题,从而支持客户端在不知道真实更新或参数的情况下在加密域上训练多层感知机模型、卷积神经网络模型或进行本地预测。因此,可以有效防止半可信的联邦学习参与者获取全局模型的真实参数和中间模型的输出结果,同时也保证所有参与者都能够利用最终分发的加密模型获取到真实的预测结果。本发明在提供隐私保护的同时,服务器端可以消除随机数以获得真实的全局模型参数,同时参与者可以使用加密的模型获得真实的预测,因此,它确保了模型和预测的准确性。本发明的额外成本主要是在反向传播中产生的,除了梯度之外,参与者还会计算两个额外的噪声项并将其发送到服务器端。与明文模型训练相比,额外的计算和通信成本的上限分别约为2T和2C(T是明文模型训练中反向传播的成本,C是模型参数的大小),这确保了该方法在实践中的效率和可用性。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (9)

1.一种基于联邦学习的隐私保护方法,其特征在于,包括步骤:
采用参数加密算法对全局模型进行加密处理,得到密文模型;
利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项;
对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新,循环上述步骤直至模型收敛或达到指定迭代次数,获得模型参数;
对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型;
在所述加密全局模型上进行本地训练,实现隐私保护。
2.根据权利要求1所述的基于联邦学习的隐私保护方法,其特征在于,所述采用参数加密算法对全局模型进行加密处理,得到密文模型的步骤包括:
当所述全局模型为L层的多层感知机模型时,采用随机数矩阵
Figure FDA0002728078100000011
Figure FDA0002728078100000012
对所述多层感知机模型中的明文模型参数
Figure FDA0002728078100000013
进行加密,得到密文模型参数:
Figure FDA0002728078100000014
其中,
Figure FDA0002728078100000015
表示哈达玛积乘积运算;
所述随机数矩阵R(l)由乘性噪声向量
Figure FDA0002728078100000016
按以下规则构成:
Figure FDA0002728078100000017
其中,下标i和j满足i∈[1,nl],j∈[1,nl-1];
所述随机数矩阵Ra由随机数γ和加性噪声向量
Figure FDA0002728078100000018
按下式组成:
Figure FDA0002728078100000019
其中下标i和j满足i∈[1,nL],j∈[1,nL-1];
将所述密文模型参数替换所述多层感知机模型中的明文模型参数,得到密文模型。
3.根据权利要求1所述的基于联邦学习的隐私保护方法,其特征在于,所述采用参数加密算法对全局模型进行加密处理,得到密文模型的步骤包括:
当所述全局模型为L层的卷积神经网络模型时,使用随机张量
Figure FDA0002728078100000021
和随机矩阵R(L),
Figure FDA0002728078100000022
对所述卷积神经网络模型的明文模型参数加密,得到对应的密文模型参数:
Figure FDA0002728078100000023
当1≤l≤L-1时,参数W(l)为卷积核张量,所述随机张量R(l)由乘性噪声向量
Figure FDA0002728078100000024
组成,且满足:
Figure FDA0002728078100000025
其中r(l,in)=(r(m))m∈P(l),由m∈P(l)个向量r(m)拼接而成,P(l)表示所有连接到第l个卷积层的网络层的下标集合;
所述随机矩阵R(L)由乘性噪声向量r(L-1)构成,且满足:
Figure FDA0002728078100000026
所述随机矩阵Ra由加性噪声向量ra和随机数γ组成,且满足:
Figure FDA0002728078100000027
将所述密文模型参数替换所述卷积神经网络模型中的明文模型参数,得到密文模型。
4.根据权利要求2所述的基于联邦学习的隐私保护方法,其特征在于,利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项的步骤包括:
计算所述密文模型的输出:
Figure FDA0002728078100000028
所述密文模型的输出与其对应的明文模型的输出满足以下关系式:
Figure FDA0002728078100000029
其中
Figure FDA00027280781000000210
r=γra
对于任意维的样本
Figure FDA00027280781000000211
密文模型的预测值
Figure FDA00027280781000000212
与真实值的均方误差作为损失函数表示为:
Figure FDA00027280781000000213
其中,nL表示模型输出层的维度,同时也是样本标签的维度;
所述损失函数
Figure FDA00027280781000000214
对密文参数
Figure FDA00027280781000000215
的带噪梯度与其对应的真实梯度满足以下关系式:
Figure FDA00027280781000000216
其中,
Figure FDA00027280781000000217
v=rTr且
Figure FDA00027280781000000218
第k个参与者在其所有小批量数据
Figure FDA00027280781000000219
样本上计算密文梯度信息
Figure FDA0002728078100000031
并结合加性噪声向量ra计算出噪声项
Figure FDA0002728078100000032
Figure FDA0002728078100000033
5.根据权利要求3所述的基于联邦学习的隐私保护方法,其特征在于,利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项的步骤包括:
所述密文模型的卷积层输出与其对应的真实卷积层输出满足:
Figure FDA0002728078100000034
并且,密文模型的全连接层输出与其对应的真实输出结果满足:
Figure FDA0002728078100000035
其中
Figure FDA0002728078100000036
是伪输出统计量,函数Flatten(·)表示将多维张量延展成一维向量,延展后的向量维度为nL-1=cL-1hL-1wL-1,参数r=γra为组合噪声向量;
对于任意维的样本
Figure FDA0002728078100000037
密文模型的预测值
Figure FDA0002728078100000038
与真实值的均方误差作为损失函数表示为:
Figure FDA0002728078100000039
其中,nL表示模型输出层的维度,同时也是样本标签的维度;
所述损失函数
Figure FDA00027280781000000310
对密文参数
Figure FDA00027280781000000311
的带噪梯度与其对应的真实梯度满足以下关系式:
Figure FDA00027280781000000312
其中,
Figure FDA00027280781000000313
v=rTr且
Figure FDA00027280781000000314
第k个参与者在其所有小批量数据
Figure FDA00027280781000000315
样本上计算密文梯度信息
Figure FDA00027280781000000316
并结合加性噪声向量ra计算出噪声项
Figure FDA00027280781000000317
Figure FDA00027280781000000318
6.根据权利要求4-5任一所述的基于联邦学习的隐私保护方法,其特征在于,对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新,直至模型收敛或达到指定迭代次数,获得模型参数的步骤包括:
对于第t轮的全局模型Wt,在第k个参与者的本地训练过程中得到的参数梯度按下式求解:
Figure FDA00027280781000000319
其中,Fk(·)表示第k个参与者的损失函数;
采用所述参数梯度对所述全局模型进行更新,直至模型收敛或达到指定迭代次数,得到第t+1轮的模型参数Wt+1为:
Figure FDA0002728078100000041
其中,η表示学习速率,Nk/N表示第k个参与者的数据量占总数据量的比例。
7.根据权利要求6所述的基于联邦学习的隐私保护方法,其特征在于,对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型的步骤包括:
根据公式
Figure FDA0002728078100000042
对所述模型参数进行加密,得到加密模型参数;
采用所述加密模型参数
Figure FDA0002728078100000043
对所述全局模型进行更新,得到全局加密模型。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1-7任意一项所述基于联邦学习的隐私保护方法中的步骤。
9.一种基于联邦学习的隐私保护***,其特征在于,包括:服务器端和客户端,所述服务器端用于采用参数加密算法对全局模型进行加密处理,得到密文模型;
所述客户端用于利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项;
所述服务器端还用于对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新,循环上述步骤直至模型收敛或达到指定迭代次数,获得模型参数;对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型;
所述客户端还用于在所述加密全局模型上进行本地训练,实现隐私保护。
CN202011109363.0A 2020-10-16 2020-10-16 一种基于联邦学习的隐私保护方法、存储介质及*** Pending CN112199702A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011109363.0A CN112199702A (zh) 2020-10-16 2020-10-16 一种基于联邦学习的隐私保护方法、存储介质及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011109363.0A CN112199702A (zh) 2020-10-16 2020-10-16 一种基于联邦学习的隐私保护方法、存储介质及***

Publications (1)

Publication Number Publication Date
CN112199702A true CN112199702A (zh) 2021-01-08

Family

ID=74009841

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011109363.0A Pending CN112199702A (zh) 2020-10-16 2020-10-16 一种基于联邦学习的隐私保护方法、存储介质及***

Country Status (1)

Country Link
CN (1) CN112199702A (zh)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112560106A (zh) * 2021-02-20 2021-03-26 支付宝(杭州)信息技术有限公司 针对隐私矩阵进行处理的方法、装置和***
CN112949760A (zh) * 2021-03-30 2021-06-11 平安科技(深圳)有限公司 基于联邦学习的模型精度控制方法、装置及存储介质
CN113159316A (zh) * 2021-04-08 2021-07-23 支付宝(杭州)信息技术有限公司 模型训练方法、进行预测业务的方法及装置
CN113158230A (zh) * 2021-03-16 2021-07-23 陕西数盾慧安数据科技有限公司 一种基于差分隐私的在线分类方法
CN113159918A (zh) * 2021-04-09 2021-07-23 福州大学 一种基于联邦团渗透的银行客户群体挖掘方法
CN113179244A (zh) * 2021-03-10 2021-07-27 上海大学 一种面向工业互联网边界安全的联邦深度网络行为特征建模方法
CN113191530A (zh) * 2021-04-09 2021-07-30 汕头大学 一种具有隐私保护的区块链节点可靠性预测方法及***
CN113221144A (zh) * 2021-05-19 2021-08-06 国网辽宁省电力有限公司电力科学研究院 一种隐私保护机器学习的虚拟化终端异常检测方法及***
CN113335490A (zh) * 2021-06-30 2021-09-03 广船国际有限公司 一种双壁管通风***及船舶
CN113362160A (zh) * 2021-06-08 2021-09-07 南京信息工程大学 一种用于***反欺诈的联邦学习方法和装置
CN113378198A (zh) * 2021-06-24 2021-09-10 深圳市洞见智慧科技有限公司 一种保护用户标识的模型的联邦训练***、方法及装置
CN113515760A (zh) * 2021-05-28 2021-10-19 平安国际智慧城市科技股份有限公司 横向联邦学习方法、装置、计算机设备和存储介质
CN113543120A (zh) * 2021-09-17 2021-10-22 百融云创科技股份有限公司 一种基于联邦学习的移动终端信用反欺诈预估方法及***
CN113591133A (zh) * 2021-09-27 2021-11-02 支付宝(杭州)信息技术有限公司 基于差分隐私进行特征处理的方法及装置
CN113614726A (zh) * 2021-06-10 2021-11-05 香港应用科技研究院有限公司 对联邦学习***的动态差异隐私
CN113688408A (zh) * 2021-08-03 2021-11-23 华东师范大学 一种基于安全多方计算的最大信息系数方法
CN113704779A (zh) * 2021-07-16 2021-11-26 杭州医康慧联科技股份有限公司 加密的分布式机器学习训练方法
CN113778966A (zh) * 2021-09-15 2021-12-10 深圳技术大学 高校教学与课程成绩的跨学校信息共享方法及相关装置
CN113836556A (zh) * 2021-09-26 2021-12-24 广州大学 面向联邦学习的去中心化函数加密隐私保护方法及***
CN114091651A (zh) * 2021-11-03 2022-02-25 支付宝(杭州)信息技术有限公司 多方联合训练图神经网络的方法、装置及***
CN114143311A (zh) * 2021-11-03 2022-03-04 深圳前海微众银行股份有限公司 一种基于区块链的隐私保护方案聚合方法及装置
CN114282652A (zh) * 2021-12-22 2022-04-05 哈尔滨工业大学 一种隐私保护的纵向深度神经网络模型构建方法、计算机及存储介质
CN114338144A (zh) * 2021-12-27 2022-04-12 杭州趣链科技有限公司 数据防泄露的方法、电子设备和计算机可读存储介质
CN115081014A (zh) * 2022-05-31 2022-09-20 西安翔迅科技有限责任公司 一种基于联邦学习的目标检测标签自动标注方法
CN115186285A (zh) * 2022-09-09 2022-10-14 闪捷信息科技有限公司 联邦学习的参数聚合方法和装置
CN115278709A (zh) * 2022-07-29 2022-11-01 南京理工大学 一种基于联邦学习的通信优化方法
CN115310121A (zh) * 2022-07-12 2022-11-08 华中农业大学 车联网中基于MePC-F模型的实时强化联邦学习数据隐私安全方法
WO2022257180A1 (en) * 2021-06-10 2022-12-15 Hong Kong Applied Science and Technology Research Institute Company Limited Dynamic differential privacy to federated learning systems
CN115865307A (zh) * 2023-02-27 2023-03-28 蓝象智联(杭州)科技有限公司 一种用于联邦学习的数据点乘运算方法
CN116366250A (zh) * 2023-06-02 2023-06-30 江苏微知量子科技有限公司 一种量子联邦学习方法及***
WO2023134077A1 (zh) * 2022-01-17 2023-07-20 平安科技(深圳)有限公司 基于联邦因子分解机的同态加密方法、***、设备及存储介质
WO2023174018A1 (zh) * 2022-03-15 2023-09-21 北京字节跳动网络技术有限公司 一种纵向联邦学习方法、装置、***、设备及存储介质
CN117675199A (zh) * 2023-12-21 2024-03-08 盐城集结号科技有限公司 一种基于rpa的网络安全防御***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190227980A1 (en) * 2018-01-22 2019-07-25 Google Llc Training User-Level Differentially Private Machine-Learned Models
CN110572253A (zh) * 2019-09-16 2019-12-13 济南大学 一种联邦学习训练数据隐私性增强方法及***
CN110995737A (zh) * 2019-12-13 2020-04-10 支付宝(杭州)信息技术有限公司 联邦学习的梯度融合方法及装置和电子设备
CN111552986A (zh) * 2020-07-10 2020-08-18 鹏城实验室 基于区块链的联邦建模方法、装置、设备及存储介质
CN111611610A (zh) * 2020-04-12 2020-09-01 西安电子科技大学 联邦学习信息处理方法、***、存储介质、程序、终端

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190227980A1 (en) * 2018-01-22 2019-07-25 Google Llc Training User-Level Differentially Private Machine-Learned Models
CN110572253A (zh) * 2019-09-16 2019-12-13 济南大学 一种联邦学习训练数据隐私性增强方法及***
CN110995737A (zh) * 2019-12-13 2020-04-10 支付宝(杭州)信息技术有限公司 联邦学习的梯度融合方法及装置和电子设备
CN111611610A (zh) * 2020-04-12 2020-09-01 西安电子科技大学 联邦学习信息处理方法、***、存储介质、程序、终端
CN111552986A (zh) * 2020-07-10 2020-08-18 鹏城实验室 基于区块链的联邦建模方法、装置、设备及存储介质

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112560106A (zh) * 2021-02-20 2021-03-26 支付宝(杭州)信息技术有限公司 针对隐私矩阵进行处理的方法、装置和***
CN113179244B (zh) * 2021-03-10 2022-12-23 上海大学 一种面向工业互联网边界安全的联邦深度网络行为特征建模方法
CN113179244A (zh) * 2021-03-10 2021-07-27 上海大学 一种面向工业互联网边界安全的联邦深度网络行为特征建模方法
CN113158230A (zh) * 2021-03-16 2021-07-23 陕西数盾慧安数据科技有限公司 一种基于差分隐私的在线分类方法
CN113158230B (zh) * 2021-03-16 2024-02-09 陕西数盾慧安数据科技有限公司 一种基于差分隐私的在线分类方法
CN112949760A (zh) * 2021-03-30 2021-06-11 平安科技(深圳)有限公司 基于联邦学习的模型精度控制方法、装置及存储介质
CN112949760B (zh) * 2021-03-30 2024-05-10 平安科技(深圳)有限公司 基于联邦学习的模型精度控制方法、装置及存储介质
CN113159316A (zh) * 2021-04-08 2021-07-23 支付宝(杭州)信息技术有限公司 模型训练方法、进行预测业务的方法及装置
CN113159316B (zh) * 2021-04-08 2022-05-17 支付宝(杭州)信息技术有限公司 模型训练方法、进行预测业务的方法及装置
CN113159918A (zh) * 2021-04-09 2021-07-23 福州大学 一种基于联邦团渗透的银行客户群体挖掘方法
CN113159918B (zh) * 2021-04-09 2022-06-07 福州大学 一种基于联邦团渗透的银行客户群体挖掘方法
CN113191530A (zh) * 2021-04-09 2021-07-30 汕头大学 一种具有隐私保护的区块链节点可靠性预测方法及***
CN113221144B (zh) * 2021-05-19 2024-05-03 国网辽宁省电力有限公司电力科学研究院 一种隐私保护机器学习的虚拟化终端异常检测方法及***
CN113221144A (zh) * 2021-05-19 2021-08-06 国网辽宁省电力有限公司电力科学研究院 一种隐私保护机器学习的虚拟化终端异常检测方法及***
CN113515760B (zh) * 2021-05-28 2024-03-15 平安国际智慧城市科技股份有限公司 横向联邦学习方法、装置、计算机设备和存储介质
CN113515760A (zh) * 2021-05-28 2021-10-19 平安国际智慧城市科技股份有限公司 横向联邦学习方法、装置、计算机设备和存储介质
CN113362160A (zh) * 2021-06-08 2021-09-07 南京信息工程大学 一种用于***反欺诈的联邦学习方法和装置
CN113362160B (zh) * 2021-06-08 2023-08-22 南京信息工程大学 一种用于***反欺诈的联邦学习方法和装置
WO2022257180A1 (en) * 2021-06-10 2022-12-15 Hong Kong Applied Science and Technology Research Institute Company Limited Dynamic differential privacy to federated learning systems
US11907403B2 (en) 2021-06-10 2024-02-20 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Dynamic differential privacy to federated learning systems
CN113614726A (zh) * 2021-06-10 2021-11-05 香港应用科技研究院有限公司 对联邦学习***的动态差异隐私
CN113378198A (zh) * 2021-06-24 2021-09-10 深圳市洞见智慧科技有限公司 一种保护用户标识的模型的联邦训练***、方法及装置
CN113335490A (zh) * 2021-06-30 2021-09-03 广船国际有限公司 一种双壁管通风***及船舶
CN113704779A (zh) * 2021-07-16 2021-11-26 杭州医康慧联科技股份有限公司 加密的分布式机器学习训练方法
CN113688408B (zh) * 2021-08-03 2023-05-12 华东师范大学 一种基于安全多方计算的最大信息系数方法
CN113688408A (zh) * 2021-08-03 2021-11-23 华东师范大学 一种基于安全多方计算的最大信息系数方法
CN113778966B (zh) * 2021-09-15 2024-03-26 深圳技术大学 高校教学与课程成绩的跨学校信息共享方法及相关装置
CN113778966A (zh) * 2021-09-15 2021-12-10 深圳技术大学 高校教学与课程成绩的跨学校信息共享方法及相关装置
CN113543120B (zh) * 2021-09-17 2021-11-23 百融云创科技股份有限公司 一种基于联邦学习的移动终端信用反欺诈预估方法及***
CN113543120A (zh) * 2021-09-17 2021-10-22 百融云创科技股份有限公司 一种基于联邦学习的移动终端信用反欺诈预估方法及***
CN113836556A (zh) * 2021-09-26 2021-12-24 广州大学 面向联邦学习的去中心化函数加密隐私保护方法及***
CN113591133A (zh) * 2021-09-27 2021-11-02 支付宝(杭州)信息技术有限公司 基于差分隐私进行特征处理的方法及装置
CN113591133B (zh) * 2021-09-27 2021-12-24 支付宝(杭州)信息技术有限公司 基于差分隐私进行特征处理的方法及装置
CN114091651B (zh) * 2021-11-03 2024-05-24 支付宝(杭州)信息技术有限公司 多方联合训练图神经网络的方法、装置及***
CN114143311A (zh) * 2021-11-03 2022-03-04 深圳前海微众银行股份有限公司 一种基于区块链的隐私保护方案聚合方法及装置
CN114091651A (zh) * 2021-11-03 2022-02-25 支付宝(杭州)信息技术有限公司 多方联合训练图神经网络的方法、装置及***
CN114282652A (zh) * 2021-12-22 2022-04-05 哈尔滨工业大学 一种隐私保护的纵向深度神经网络模型构建方法、计算机及存储介质
CN114338144A (zh) * 2021-12-27 2022-04-12 杭州趣链科技有限公司 数据防泄露的方法、电子设备和计算机可读存储介质
WO2023134077A1 (zh) * 2022-01-17 2023-07-20 平安科技(深圳)有限公司 基于联邦因子分解机的同态加密方法、***、设备及存储介质
WO2023174018A1 (zh) * 2022-03-15 2023-09-21 北京字节跳动网络技术有限公司 一种纵向联邦学习方法、装置、***、设备及存储介质
CN115081014A (zh) * 2022-05-31 2022-09-20 西安翔迅科技有限责任公司 一种基于联邦学习的目标检测标签自动标注方法
CN115310121A (zh) * 2022-07-12 2022-11-08 华中农业大学 车联网中基于MePC-F模型的实时强化联邦学习数据隐私安全方法
CN115278709B (zh) * 2022-07-29 2024-04-26 南京理工大学 一种基于联邦学习的通信优化方法
CN115278709A (zh) * 2022-07-29 2022-11-01 南京理工大学 一种基于联邦学习的通信优化方法
CN115186285B (zh) * 2022-09-09 2022-12-02 闪捷信息科技有限公司 联邦学习的参数聚合方法和装置
CN115186285A (zh) * 2022-09-09 2022-10-14 闪捷信息科技有限公司 联邦学习的参数聚合方法和装置
CN115865307A (zh) * 2023-02-27 2023-03-28 蓝象智联(杭州)科技有限公司 一种用于联邦学习的数据点乘运算方法
CN116366250A (zh) * 2023-06-02 2023-06-30 江苏微知量子科技有限公司 一种量子联邦学习方法及***
CN116366250B (zh) * 2023-06-02 2023-08-15 江苏微知量子科技有限公司 一种量子联邦学习方法及***
CN117675199A (zh) * 2023-12-21 2024-03-08 盐城集结号科技有限公司 一种基于rpa的网络安全防御***
CN117675199B (zh) * 2023-12-21 2024-06-07 盐城集结号科技有限公司 一种基于rpa的网络安全防御***

Similar Documents

Publication Publication Date Title
CN112199702A (zh) 一种基于联邦学习的隐私保护方法、存储介质及***
WO2021197037A1 (zh) 双方联合进行数据处理的方法及装置
Byrd et al. Differentially private secure multi-party computation for federated learning in financial applications
CN111160573B (zh) 保护数据隐私的双方联合训练业务预测模型的方法和装置
CN110546667B (zh) 使用同态加密的区块链数据保护
CN112989368B (zh) 多方联合进行隐私数据处理的方法及装置
CN112541593B (zh) 基于隐私保护的联合训练业务模型的方法及装置
CA3159667A1 (en) Systems and methods for encrypting data and algorithms
CN111143894B (zh) 一种提升安全多方计算效率的方法及***
US20160020904A1 (en) Method and system for privacy-preserving recommendation based on matrix factorization and ridge regression
CN110709863A (zh) 使用秘密共享的逻辑回归建模方案
CN113435592B (zh) 一种隐私保护的神经网络多方协作无损训练方法及***
CN113239404A (zh) 一种基于差分隐私和混沌加密的联邦学习方法
Hassan et al. Secure content based image retrieval for mobile users with deep neural networks in the cloud
CN116561787A (zh) 视觉图像分类模型的训练方法、装置及电子设备
Byrd et al. Collusion resistant federated learning with oblivious distributed differential privacy
Khan et al. Vertical federated learning: A structured literature review
CN113792890A (zh) 一种基于联邦学习的模型训练方法及相关设备
US20230385446A1 (en) Privacy-preserving clustering methods and apparatuses
JP2014206696A (ja) データ秘匿型内積計算システム、方法、及びプログラム
CN115952529B (zh) 一种用户数据处理方法、计算设备及存储介质
CN116094686B (zh) 用于量子卷积计算的同态加密方法、***、设备及终端
Deng et al. Non-interactive and privacy-preserving neural network learning using functional encryption
Lee et al. PPEM: Privacy‐preserving EM learning for mixture models
Li et al. Privacy threats analysis to secure federated learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination