CN112199702A - 一种基于联邦学习的隐私保护方法、存储介质及*** - Google Patents
一种基于联邦学习的隐私保护方法、存储介质及*** Download PDFInfo
- Publication number
- CN112199702A CN112199702A CN202011109363.0A CN202011109363A CN112199702A CN 112199702 A CN112199702 A CN 112199702A CN 202011109363 A CN202011109363 A CN 202011109363A CN 112199702 A CN112199702 A CN 112199702A
- Authority
- CN
- China
- Prior art keywords
- model
- ciphertext
- global
- parameter
- encryption
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000012549 training Methods 0.000 claims abstract description 53
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 17
- 239000013598 vector Substances 0.000 claims description 38
- 239000011159 matrix material Substances 0.000 claims description 19
- 238000013527 convolutional neural network Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 17
- 239000000654 additive Substances 0.000 claims description 16
- 230000000996 additive effect Effects 0.000 claims description 16
- 239000000126 substance Substances 0.000 claims description 8
- 230000008569 process Effects 0.000 description 10
- 238000010801 machine learning Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- VLPFTAMPNXLGLX-UHFFFAOYSA-N trioctanoin Chemical compound CCCCCCCC(=O)OCC(OC(=O)CCCCCCC)COC(=O)CCCCCCC VLPFTAMPNXLGLX-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioethics (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于联邦学习的隐私保护方法、存储介质及***,方法包括步骤:采用参数加密算法对全局模型进行加密处理,得到密文模型;利用本地数据在所述密文模型上进行训练,并对得到的密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对全局模型进行更新,循环上述步骤直至模型收敛或达到指定迭代次数,获得模型参数;对模型参数进行加密,得到加密模型参数,采用加密模型参数对全局模型进行更新,得到全局加密模型;在加密全局模型上进行本地训练,实现隐私保护。本发明可以有效防止半可信的联邦学习参与者获取全局模型的真实参数和中间模型的输出结果,同时保证参与者都能够利用最终训练好的加密模型获取到真实的预测结果。
Description
技术领域
本发明涉及数据保护领域,特别涉及一种基于联邦学习的隐私保护方法、存储介质及***。
背景技术
随着大数据挖掘和深度学习的广泛应用与发展,越来越多的隐私泄露和数据滥用事件频繁爆发,使得重视数据隐私和安全已经成为了世界性的趋势。特别是在分布式机器学习中,分布式参与者由于隐私担忧问题而不愿意提供自己的本地训练数据,从而形成了“数据孤岛”现象。为了应对数据隐私保护难题,打破数据孤岛的现实困难,满足数据联合使用的迫切需求,联邦学习的概念和工业级应用解决方案被提出来。联邦学习本质上是一种分布式机器学习框架,在此框架下,各个参与者之间不互通原始数据,在本地训练模型并上传更新的模型参数或者梯度,从而能够在保护隐私的前提下有效帮助多个参与者联合进行机器学习建模。
虽然联邦学习不要求参与者上传本地训练数据,从而能够一定程度上地保护隐私。然而,目前的研究表明攻击者仍然可能利用每个参与者上传的真实梯度或者更新的模型参数信息来获取原始的训练数据、进行成员推断以及属性推断等攻击。目前,基于联邦学习的隐私保护研究,几乎考虑的都是防止中央服务器从模型更新中获取参与者的隐私信息,却并未考虑恶意参与者的情况。也就是说,恶意参与者或者被攻击者截获的参与者仍然可以得到真实的全局模型更新,因此,它们仍然有可能通过真实的参数,再加上自己所拥有的本地训练数据来猜测其它训练数据,或者推测其他参与者的训练数据集。正如Kairouz等人指出,在联邦学习中,防止迭代过程中的真实的模型更新以及最终的模型参数被恶意参与者获取也是需要解决的问题。本质上来说,解决这个问题就是让参与者在加密或者扰乱的全局模型更新上进行本地训练。尽管目前有三种主流的隐私保护技术,即差分隐私、同态加密和安全多方计算,被广泛的应用于隐私保护的机器学习中。然而,这些技术都要么以牺牲模型准确性为代价,要么以牺牲模型训练的效率为代价,使得隐私保护的模型训练仍然是一大难点。
因此,现有技术还有待于改进和发展。
发明内容
本发明要解决的技术问题在于,针对现有技术的不足,提供一种基于联邦学习的隐私保护方法、存储介质及***,旨在解决现有隐私数据得不到有效保护的问题。
为了解决上述技术问题,本发明所采用的技术方案如下:
一种基于联邦学习的隐私保护方法,其中,包括步骤:
采用参数加密算法对全局模型进行加密处理,得到密文模型;
利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项;
对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新,循环上述步骤直至模型收敛或达到指定迭代次数,获得模型参数;
对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型;
在所述加密全局模型上进行本地训练,实现隐私保护。
所述的基于联邦学习的隐私保护方法,其中,所述采用参数加密算法对全局模型进行加密处理,得到密文模型的步骤包括:
将所述密文模型参数替换所述多层感知机模型中的明文模型参数,得到密文模型。
所述的基于联邦学习的隐私保护方法,其中,所述采用参数加密算法对全局模型进行加密处理,得到密文模型的步骤包括:
当所述全局模型为L层的卷积神经网络模型时,使用随机张量和随机矩阵对所述卷积神经网络模型的明文模型参数加密,得到对应的密文模型参数:当1≤l≤L-1时,参数W(l)为卷积核张量,所述随机张量R(l)由乘性噪声向量组成,且满足:
所述随机矩阵R(L)由乘性噪声向量r(L-1)构成,且满足:
将所述密文模型参数替换所述卷积神经网络模型中的明文模型参数,得到密文模型。
所述的基于联邦学习的隐私保护方法,其中,利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项的步骤包括:
所述的基于联邦学习的隐私保护方法,其中,利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项的步骤包括:
所述密文模型的卷积层输出与其对应的真实卷积层输出满足:并且,密文模型的全连接层输出与其对应的真实输出结果满足:其中是伪输出统计量,函数Flatten(·)表示将多维张量延展成一维向量,延展后的向量维度为nL-1=cL-1hL-1wL-1,参数r=γra为组合噪声向量;
所述的基于联邦学习的隐私保护方法,其中,对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新,直至模型收敛或达到指定迭代次数,获得模型参数的步骤包括:
采用所述参数梯度对所述全局模型进行更新,直至模型收敛或达到指定迭代次数,得到第t+1轮的模型参数Wt+1为:
所述的基于联邦学习的隐私保护方法,其中,对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型的步骤包括:
一种计算机可读存储介质,其中,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现本发明所述基于联邦学习的隐私保护方法中的步骤。
一种基于联邦学习的隐私保护***,其中,包括:服务器端和客户端,所述服务器端用于采用参数加密算法对全局模型进行加密处理,得到密文模型;
所述客户端用于利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项;
所述服务器端还用于对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新,循环上述步骤直至模型收敛或达到指定迭代次数,获得模型参数;对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型;
所述客户端还用于在所述加密全局模型上进行本地训练,实现隐私保护。
有益效果:与现有技术相比,本发明提供的基于联邦学习的隐私保护方法,通过隐私保护算法来加密联邦学习的全局模型得到全局加密模型,并允许参与者所述全局加密模型上进行本地训练。本发明提供的隐私保护方法可以有效防止半可信的联邦学习参与者获取全局模型的真实参数和中间模型的输出结果,同时也保证所有参与者都能够利用最终训练好的加密模型获取到真实的预测结果。
附图说明
图1为本发明一种基于联邦学习的隐私保护方法较佳实施例的流程图。
图2为本发明一种基于联邦学习的隐私保护***的原理图。
具体实施方式
本发明提供一种基于联邦学习的隐私保护方法、存储介质及***,为使本发明的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
下面结合附图,通过对实施例的描述,对发明内容作进一步说明。
联邦学习(FederatedLearning)是一种新兴的人工智能基础技术,在2016年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。以包含两个数据拥有方(即企业A和B)的场景为例介绍联邦学习的***构架。该构架可扩展至包含多个数据拥有方的场景。假设企业A和B想联合训练一个机器学习模型,它们的业务***分别拥有各自用户的相关数据。此外,企业B还拥有模型需要预测的标签数据。出于数据隐私保护和安全考虑,A和B无法直接进行数据交换,可使用联邦学习***建立模型。联邦学习***构架由三部分构成:
第一部分:加密样本对齐。由于两家企业的用户群体并非完全重合,***利用基于加密的用户样本对齐技术,在A和B不公开各自数据的前提下确认双方的共有用户,并且不暴露不互相重叠的用户,以便联合这些用户的特征进行建模。第二部分:加密模型训练。在确定共有用户群体后,就可以利用这些数据训练机器学习模型。为了保证训练过程中数据的保密性,需要借助第三方协作者C进行加密训练。以线性回归模型为例,训练过程可分为4步:第①步:协作者C把公钥分发给A和B,用以对训练过程中需要交换的数据进行加密。第②步:A和之间以加密形式交互用于计算梯度的中间结果。第③步:A和B分别基于加密的梯度值进行计算,同时B根据其标签数据计算损失,并把结果汇总给C,C通过汇总结果计算总梯度值并将其解密。第④步:C将解密后的梯度分别回传给A和B,A和B根据梯度更新各自模型的参数。迭代上述步骤直至损失函数收敛,这样就完成了整个训练过程。在样本对齐及模型训练过程中,A和B各自的数据均保留在本地,且训练中的数据交互也不会导致数据隐私泄露。因此,双方在联邦学习的帮助下得以实现合作训练模型。第三部分:效果激励。联邦学习的一大特点就是它解决了为什么不同机构要加入联邦共同建模的问题,即建立模型以后模型的效果会在实际应用中表现出来,并记录在永久数据记录机制(如区块链)上。这些模型的效果在联邦机制上会分发给各个机构反馈,并继续激励更多机构加入这一数据联邦。以上三部分的实施,既考虑了在多个机构间共同建模的隐私保护和效果,又考虑了以一个共识机制奖励贡献数据多的机构。
虽然联邦学***。然而,目前的研究表明攻击者仍然可能利用每个参与者上传的真实梯度或者更新的模型参数信息来获取原始的训练数据、进行成员推断以及属性推断等攻击。目前,基于联邦学习的隐私保护研究,几乎考虑的都是防止中央服务器从模型更新中获取参与者的隐私信息,却并未考虑恶意参与者的情况。也就是说,恶意参与者或者被攻击者截获的参与者仍然可以得到真实的全局模型更新,因此,它们仍然有可能通过真实的参数,再加上自己所拥有的本地训练数据来猜测其它训练数据,或者推测其他参与者的训练数据集。因此,在联邦学习中,防止迭代过程中的真实的模型更新以及最终的模型参数被恶意参与者获取也是亟待解决的问题。
为解决现有技术存在的问题,本发明提供了一种基于联邦学习的隐私保护方法,如图1所示,其包括步骤:
S10、采用参数加密算法对全局模型进行加密处理,得到密文模型;
S20、利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项;
S30、对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新;
S40、循环进行执行步骤S10-S30,直至模型收敛或达到指定迭代次数,获得模型参数;
S50、对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型;
S60、在所述加密全局模型上进行本地训练,实现隐私保护。
具体来讲,差分隐私技术虽然能够保证模型的效率,但是引入的随机噪声无法消除,使得模型的准确性会受到很大程度的影响,并且模型的准确性与隐私保护水平之间还存在折中关系,即隐私保护水平越高,需要添加的随机数噪声就越大,这就会使得模型的准确性越差。为了解决这个问题,本实施例基于差分隐私的思想,提出了一种高效的隐私保护方法,在训练过程的每一轮迭代中,服务器端在分发全局模型参数之前,会选择满足一定条件的加性和乘性随机数作为私钥,并按照一定的设计要求将全局模型乘以或者加上私钥作为给每个参与者分发的加密的全局模型;然后,参与者在加密的全局模型上利用自己的本地数据进行模型训练。本实施例提出的隐私保护方法能够让服务器端精确地消除随机数的影响,恢复出真实的全局模型,从而能够保证模型的准确性。
本实施例通过提出高效的隐私保护方法来加密全局模型,使得联邦学习的所有参与者只能在全局加密模型上进行训练而无法获得真实的模型参数,从而保证了全局模型的隐私性。也就是说,本实施例提供的基于联邦学习的隐私保护方法可以有效防止半可信的联邦学习参与者获取全局模型的真实参数和中间模型的输出结果,同时也保证所有参与者都能够利用最终训练好的加密模型获取到真实的预测结果。
在一些具体的实施方式中,本发明提供的隐私保护方法可适用于在医院(医疗图像数据)、银行(***交易记录)等数据隐私较为敏感的场景,联合各机构在***露数据隐私的前提下共同训练出全局模型,以达到预期的目的。以银行***欺诈检测场景为例,各银行希望在***露数据隐私的同时训练全局模型,以获得针对单条***交易信息,检测出其是否为欺诈交易的能力。各银行机构收到密文模型后,可利用本地***交易记录数据以及人工标注的标签(交易是否为欺诈)在所述密文模型上进行训练,得到密文梯度信息和噪声项并发送给服务器端;服务器端对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新;循环进行执行上述步骤,直至模型收敛或达到指定迭代次数,获得模型参数;对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型;服务器端将所述全局加密模型再分发至客户端(各银行机构),所述客户端可在所述加密全局模型上进行本地训练,实现隐私保护。
在一些实施方式中,本实施例提供的隐私保护方法适用于多层感知机(MLP)和卷积神经网络(CNN)两类深度学习模型,支持ReLU激活函数和MSE损失函数;同时,所述隐私保护方法还能够有效的应用于具有跳跃连接的变种卷积神经网络模型,例如目前广泛流行的ResNet和DenseNet网络。
对应于横向联邦学习的训练过程,本发明包括“全局模型加密”、“本地模型训练”、“全局模型更新”和“最终模型分发”四个阶段。其中前三个阶段按序循环执行至模型收敛或达到指定循环次数,之后转到第四阶段收尾。
在一些实施方式中,所述“全局模型加密”阶段由联邦学习框架的服务器端完成,所述服务器端使用所述参数加密算法对全局模型(称为“明文模型”)进行加密或扰乱,然后将加密后的模型(称为“密文模型”)以及辅助随机信息一同发送给客户端。所述全局模型可选用多层感知机模型或卷积神经网络模型,以下分别基于两类模型具体介绍所述参数加密算法。
在一种具体实施方式中,当所述全局模型为L层的多层感知机模型时,所述多层感知机模型由任意数量的全连接层组成,且以ReLU为激活函数。考虑一个L层的多层感知机模型,其第l层的神经元个数为nl,参数矩阵为则其输出可表示为:
具体地,所述随机数矩阵R(l)由乘性噪声向量按以下规则构成:其中下标i和j满足i∈[1,nl],j∈[1,nl-1]。所述随机数矩阵Ra由随机数γ和加性噪声向量按下式组成:其中下标i和j满足i∈[1,nL],j∈[1,nL-1]。将所述密文模型参数替换所述多层感知机模型中的明文模型参数,得到密文模型。
在另一种具体实施方式中,当所述全局模型为L层的卷积神经网络模型时,所述卷积神经网络模型由任意数量的卷积层和最大池化层交替连接组成,然后以一个用于回归或分类任务的全连接层结束。所述卷积模型使用ReLU作为激活函数,并且允许各层之间具有“拼接型跳跃连接”结构。所述卷积层以三维数据为输入,以多个三维卷积核为参数,输出卷积后的特征图。对于任意通道数为cl,高度为hl,宽为wl的三维输入数据其三维卷积操作定义为: 其中,是cl+1个大小为cl×f×f的卷积核组成的张量,是输出的特征图。
对于任意L层所述卷积网络模型,服务器端使用随机张量和随机矩阵对所述卷积神经网络模型的明文模型参数加密,得到对应的密文模型参数:当1≤l≤L-1时,参数W(l)为卷积核张量,所述随机张量R(l)由乘性噪声向量组成,且满足:
所述随机矩阵R(L)由乘性噪声向量r(L-1)构成,且满足:
在一些实施方式中,“本地模型训练”阶段为第二阶段,由客户端完成。每个参与者接收到密文模型和加性噪声向量之后,利用自己的本地数据在密文模型上进行训练,主要包括两个阶段:前向传播和反向传播。最后,将本地计算得到的密文梯度信息和额外的噪声项发送给服务器端。
前向传播阶段:
密文模型的输出与其对应的明文模型的输出满足以下关系式:
当所述当所述全局模型为L层的卷积神经网络模型时,与多层感知机类似,密文模型的卷积层输出与其对应的真实卷积层输出满足:
并且密文模型的全连接层输出与其对应的真实输出结果满足:
其中是伪输出统计量,函数Flatten(·)表示将多维张量延展成一维向量,延展后的向量维度为nL-1=cL-1hL-1wL-1。参数r=γra为组合噪声向量。与多层感知机模型的加密机制同理,随机噪声向量r(l)和随机数γ对联邦学习的参与者不可知,针对所述卷积模型的加密机制可以严格保证全局模型的安全性。
反向传播阶段:
其中nL表示模型输出层的维度,同时也是样本标签的维度。参数α和r分别是“阶段1”中介绍的伪输出统计量和组合噪声向量。对于本发明介绍的参数加密算法,损失函数对密文参数的带噪梯度与其对应的真实梯度满足以下关系式:其中,
在一些实施方式中,所述“全局模型更新”阶段由联邦学习的服务器端完成。服务器端接收到所有参与者发送的密文梯度信息和噪声项之后,利用选择的私钥解密出真实的参数梯度,最后利用聚合后的参数梯度更新全局模型。具体地,对于第t轮的全局模型Wt,它在第k个参与者的本地训练过程中得到的真实梯度可按下式求解: 其中Fk(·)表示第k个参与者的损失函数。解密出真实梯度后,服务器端更新得到第t+1轮的全局模型Wt+1:
其中η表示学习速率,Nk/N表示第k个参与者的数据量占总数据量的比例。
在一些实施方式中,所述“最终模型分发”阶段由联邦学习的服务器端完成。服务器端和客户端交替式执行阶段1到阶段3至模型收敛或达到指定迭代次数后,服务器端将获得最终的模型参数为了保护模型参数同时还要保证参与者能够获得正确的推断结果,服务器端在分发模型前仍然要对全局模型加密,与训练阶段不同是的,服务器端不选择加性噪声Ra而只选择乘性噪声,以保证密文模型的输出与真实输出相同,即:不失一般性,服务器端将按下式加密模型参数:
不论是多层感知机模型还是卷积神经网络模型,上式中的参数W(l)和噪声R(l)的形式与“阶段1”中介绍的完全相同。最终,服务器端将加密的全局模型分发给所有参与者,所述参与者在所述加密全局模型上进行本地训练,实现隐私保护。
在一些实施方式中,还提供一种计算机可读存储介质,其中,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现本发明所述基于联邦学习的隐私保护方法中的步骤。
在一些实施方式中,还提供一种基于联邦学习方法的隐私保护***,如图2所示,其包括服务器端10和客户端20,所述服务器端10用于采用参数加密算法对全局模型进行加密处理,得到密文模型;
所述客户端20用于利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项;
所述服务器端10还用于对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新,循环上述步骤直至模型收敛或达到指定迭代次数,获得模型参数;对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型;
所述客户端20还用于在所述加密全局模型上进行本地训练,实现隐私保护。
综上所述,本发明解决了在密文域中实现ReLU之类的非线性激活函数的问题,从而支持客户端在不知道真实更新或参数的情况下在加密域上训练多层感知机模型、卷积神经网络模型或进行本地预测。因此,可以有效防止半可信的联邦学习参与者获取全局模型的真实参数和中间模型的输出结果,同时也保证所有参与者都能够利用最终分发的加密模型获取到真实的预测结果。本发明在提供隐私保护的同时,服务器端可以消除随机数以获得真实的全局模型参数,同时参与者可以使用加密的模型获得真实的预测,因此,它确保了模型和预测的准确性。本发明的额外成本主要是在反向传播中产生的,除了梯度之外,参与者还会计算两个额外的噪声项并将其发送到服务器端。与明文模型训练相比,额外的计算和通信成本的上限分别约为2T和2C(T是明文模型训练中反向传播的成本,C是模型参数的大小),这确保了该方法在实践中的效率和可用性。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (9)
1.一种基于联邦学习的隐私保护方法,其特征在于,包括步骤:
采用参数加密算法对全局模型进行加密处理,得到密文模型;
利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项;
对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新,循环上述步骤直至模型收敛或达到指定迭代次数,获得模型参数;
对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型;
在所述加密全局模型上进行本地训练,实现隐私保护。
3.根据权利要求1所述的基于联邦学习的隐私保护方法,其特征在于,所述采用参数加密算法对全局模型进行加密处理,得到密文模型的步骤包括:
当所述全局模型为L层的卷积神经网络模型时,使用随机张量和随机矩阵R(L),对所述卷积神经网络模型的明文模型参数加密,得到对应的密文模型参数:当1≤l≤L-1时,参数W(l)为卷积核张量,所述随机张量R(l)由乘性噪声向量组成,且满足:
所述随机矩阵R(L)由乘性噪声向量r(L-1)构成,且满足:
将所述密文模型参数替换所述卷积神经网络模型中的明文模型参数,得到密文模型。
5.根据权利要求3所述的基于联邦学习的隐私保护方法,其特征在于,利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项的步骤包括:
所述密文模型的卷积层输出与其对应的真实卷积层输出满足:并且,密文模型的全连接层输出与其对应的真实输出结果满足:其中是伪输出统计量,函数Flatten(·)表示将多维张量延展成一维向量,延展后的向量维度为nL-1=cL-1hL-1wL-1,参数r=γra为组合噪声向量;
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1-7任意一项所述基于联邦学习的隐私保护方法中的步骤。
9.一种基于联邦学习的隐私保护***,其特征在于,包括:服务器端和客户端,所述服务器端用于采用参数加密算法对全局模型进行加密处理,得到密文模型;
所述客户端用于利用本地数据在所述密文模型上进行训练,得到密文梯度信息和噪声项;
所述服务器端还用于对所述密文梯度信息和噪声项进行解密,得到参数梯度,采用所述参数梯度对所述全局模型进行更新,循环上述步骤直至模型收敛或达到指定迭代次数,获得模型参数;对所述模型参数进行加密,得到加密模型参数,采用所述加密模型参数对所述全局模型进行更新,得到全局加密模型;
所述客户端还用于在所述加密全局模型上进行本地训练,实现隐私保护。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011109363.0A CN112199702A (zh) | 2020-10-16 | 2020-10-16 | 一种基于联邦学习的隐私保护方法、存储介质及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011109363.0A CN112199702A (zh) | 2020-10-16 | 2020-10-16 | 一种基于联邦学习的隐私保护方法、存储介质及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112199702A true CN112199702A (zh) | 2021-01-08 |
Family
ID=74009841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011109363.0A Pending CN112199702A (zh) | 2020-10-16 | 2020-10-16 | 一种基于联邦学习的隐私保护方法、存储介质及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112199702A (zh) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560106A (zh) * | 2021-02-20 | 2021-03-26 | 支付宝(杭州)信息技术有限公司 | 针对隐私矩阵进行处理的方法、装置和*** |
CN112949760A (zh) * | 2021-03-30 | 2021-06-11 | 平安科技(深圳)有限公司 | 基于联邦学习的模型精度控制方法、装置及存储介质 |
CN113159316A (zh) * | 2021-04-08 | 2021-07-23 | 支付宝(杭州)信息技术有限公司 | 模型训练方法、进行预测业务的方法及装置 |
CN113158230A (zh) * | 2021-03-16 | 2021-07-23 | 陕西数盾慧安数据科技有限公司 | 一种基于差分隐私的在线分类方法 |
CN113159918A (zh) * | 2021-04-09 | 2021-07-23 | 福州大学 | 一种基于联邦团渗透的银行客户群体挖掘方法 |
CN113179244A (zh) * | 2021-03-10 | 2021-07-27 | 上海大学 | 一种面向工业互联网边界安全的联邦深度网络行为特征建模方法 |
CN113191530A (zh) * | 2021-04-09 | 2021-07-30 | 汕头大学 | 一种具有隐私保护的区块链节点可靠性预测方法及*** |
CN113221144A (zh) * | 2021-05-19 | 2021-08-06 | 国网辽宁省电力有限公司电力科学研究院 | 一种隐私保护机器学习的虚拟化终端异常检测方法及*** |
CN113335490A (zh) * | 2021-06-30 | 2021-09-03 | 广船国际有限公司 | 一种双壁管通风***及船舶 |
CN113362160A (zh) * | 2021-06-08 | 2021-09-07 | 南京信息工程大学 | 一种用于***反欺诈的联邦学习方法和装置 |
CN113378198A (zh) * | 2021-06-24 | 2021-09-10 | 深圳市洞见智慧科技有限公司 | 一种保护用户标识的模型的联邦训练***、方法及装置 |
CN113515760A (zh) * | 2021-05-28 | 2021-10-19 | 平安国际智慧城市科技股份有限公司 | 横向联邦学习方法、装置、计算机设备和存储介质 |
CN113543120A (zh) * | 2021-09-17 | 2021-10-22 | 百融云创科技股份有限公司 | 一种基于联邦学习的移动终端信用反欺诈预估方法及*** |
CN113591133A (zh) * | 2021-09-27 | 2021-11-02 | 支付宝(杭州)信息技术有限公司 | 基于差分隐私进行特征处理的方法及装置 |
CN113614726A (zh) * | 2021-06-10 | 2021-11-05 | 香港应用科技研究院有限公司 | 对联邦学习***的动态差异隐私 |
CN113688408A (zh) * | 2021-08-03 | 2021-11-23 | 华东师范大学 | 一种基于安全多方计算的最大信息系数方法 |
CN113704779A (zh) * | 2021-07-16 | 2021-11-26 | 杭州医康慧联科技股份有限公司 | 加密的分布式机器学习训练方法 |
CN113778966A (zh) * | 2021-09-15 | 2021-12-10 | 深圳技术大学 | 高校教学与课程成绩的跨学校信息共享方法及相关装置 |
CN113836556A (zh) * | 2021-09-26 | 2021-12-24 | 广州大学 | 面向联邦学习的去中心化函数加密隐私保护方法及*** |
CN114091651A (zh) * | 2021-11-03 | 2022-02-25 | 支付宝(杭州)信息技术有限公司 | 多方联合训练图神经网络的方法、装置及*** |
CN114143311A (zh) * | 2021-11-03 | 2022-03-04 | 深圳前海微众银行股份有限公司 | 一种基于区块链的隐私保护方案聚合方法及装置 |
CN114282652A (zh) * | 2021-12-22 | 2022-04-05 | 哈尔滨工业大学 | 一种隐私保护的纵向深度神经网络模型构建方法、计算机及存储介质 |
CN114338144A (zh) * | 2021-12-27 | 2022-04-12 | 杭州趣链科技有限公司 | 数据防泄露的方法、电子设备和计算机可读存储介质 |
CN115081014A (zh) * | 2022-05-31 | 2022-09-20 | 西安翔迅科技有限责任公司 | 一种基于联邦学习的目标检测标签自动标注方法 |
CN115186285A (zh) * | 2022-09-09 | 2022-10-14 | 闪捷信息科技有限公司 | 联邦学习的参数聚合方法和装置 |
CN115278709A (zh) * | 2022-07-29 | 2022-11-01 | 南京理工大学 | 一种基于联邦学习的通信优化方法 |
CN115310121A (zh) * | 2022-07-12 | 2022-11-08 | 华中农业大学 | 车联网中基于MePC-F模型的实时强化联邦学习数据隐私安全方法 |
WO2022257180A1 (en) * | 2021-06-10 | 2022-12-15 | Hong Kong Applied Science and Technology Research Institute Company Limited | Dynamic differential privacy to federated learning systems |
CN115865307A (zh) * | 2023-02-27 | 2023-03-28 | 蓝象智联(杭州)科技有限公司 | 一种用于联邦学习的数据点乘运算方法 |
CN116366250A (zh) * | 2023-06-02 | 2023-06-30 | 江苏微知量子科技有限公司 | 一种量子联邦学习方法及*** |
WO2023134077A1 (zh) * | 2022-01-17 | 2023-07-20 | 平安科技(深圳)有限公司 | 基于联邦因子分解机的同态加密方法、***、设备及存储介质 |
WO2023174018A1 (zh) * | 2022-03-15 | 2023-09-21 | 北京字节跳动网络技术有限公司 | 一种纵向联邦学习方法、装置、***、设备及存储介质 |
CN117675199A (zh) * | 2023-12-21 | 2024-03-08 | 盐城集结号科技有限公司 | 一种基于rpa的网络安全防御*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190227980A1 (en) * | 2018-01-22 | 2019-07-25 | Google Llc | Training User-Level Differentially Private Machine-Learned Models |
CN110572253A (zh) * | 2019-09-16 | 2019-12-13 | 济南大学 | 一种联邦学习训练数据隐私性增强方法及*** |
CN110995737A (zh) * | 2019-12-13 | 2020-04-10 | 支付宝(杭州)信息技术有限公司 | 联邦学习的梯度融合方法及装置和电子设备 |
CN111552986A (zh) * | 2020-07-10 | 2020-08-18 | 鹏城实验室 | 基于区块链的联邦建模方法、装置、设备及存储介质 |
CN111611610A (zh) * | 2020-04-12 | 2020-09-01 | 西安电子科技大学 | 联邦学习信息处理方法、***、存储介质、程序、终端 |
-
2020
- 2020-10-16 CN CN202011109363.0A patent/CN112199702A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190227980A1 (en) * | 2018-01-22 | 2019-07-25 | Google Llc | Training User-Level Differentially Private Machine-Learned Models |
CN110572253A (zh) * | 2019-09-16 | 2019-12-13 | 济南大学 | 一种联邦学习训练数据隐私性增强方法及*** |
CN110995737A (zh) * | 2019-12-13 | 2020-04-10 | 支付宝(杭州)信息技术有限公司 | 联邦学习的梯度融合方法及装置和电子设备 |
CN111611610A (zh) * | 2020-04-12 | 2020-09-01 | 西安电子科技大学 | 联邦学习信息处理方法、***、存储介质、程序、终端 |
CN111552986A (zh) * | 2020-07-10 | 2020-08-18 | 鹏城实验室 | 基于区块链的联邦建模方法、装置、设备及存储介质 |
Cited By (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560106A (zh) * | 2021-02-20 | 2021-03-26 | 支付宝(杭州)信息技术有限公司 | 针对隐私矩阵进行处理的方法、装置和*** |
CN113179244B (zh) * | 2021-03-10 | 2022-12-23 | 上海大学 | 一种面向工业互联网边界安全的联邦深度网络行为特征建模方法 |
CN113179244A (zh) * | 2021-03-10 | 2021-07-27 | 上海大学 | 一种面向工业互联网边界安全的联邦深度网络行为特征建模方法 |
CN113158230A (zh) * | 2021-03-16 | 2021-07-23 | 陕西数盾慧安数据科技有限公司 | 一种基于差分隐私的在线分类方法 |
CN113158230B (zh) * | 2021-03-16 | 2024-02-09 | 陕西数盾慧安数据科技有限公司 | 一种基于差分隐私的在线分类方法 |
CN112949760A (zh) * | 2021-03-30 | 2021-06-11 | 平安科技(深圳)有限公司 | 基于联邦学习的模型精度控制方法、装置及存储介质 |
CN112949760B (zh) * | 2021-03-30 | 2024-05-10 | 平安科技(深圳)有限公司 | 基于联邦学习的模型精度控制方法、装置及存储介质 |
CN113159316A (zh) * | 2021-04-08 | 2021-07-23 | 支付宝(杭州)信息技术有限公司 | 模型训练方法、进行预测业务的方法及装置 |
CN113159316B (zh) * | 2021-04-08 | 2022-05-17 | 支付宝(杭州)信息技术有限公司 | 模型训练方法、进行预测业务的方法及装置 |
CN113159918A (zh) * | 2021-04-09 | 2021-07-23 | 福州大学 | 一种基于联邦团渗透的银行客户群体挖掘方法 |
CN113159918B (zh) * | 2021-04-09 | 2022-06-07 | 福州大学 | 一种基于联邦团渗透的银行客户群体挖掘方法 |
CN113191530A (zh) * | 2021-04-09 | 2021-07-30 | 汕头大学 | 一种具有隐私保护的区块链节点可靠性预测方法及*** |
CN113221144B (zh) * | 2021-05-19 | 2024-05-03 | 国网辽宁省电力有限公司电力科学研究院 | 一种隐私保护机器学习的虚拟化终端异常检测方法及*** |
CN113221144A (zh) * | 2021-05-19 | 2021-08-06 | 国网辽宁省电力有限公司电力科学研究院 | 一种隐私保护机器学习的虚拟化终端异常检测方法及*** |
CN113515760B (zh) * | 2021-05-28 | 2024-03-15 | 平安国际智慧城市科技股份有限公司 | 横向联邦学习方法、装置、计算机设备和存储介质 |
CN113515760A (zh) * | 2021-05-28 | 2021-10-19 | 平安国际智慧城市科技股份有限公司 | 横向联邦学习方法、装置、计算机设备和存储介质 |
CN113362160A (zh) * | 2021-06-08 | 2021-09-07 | 南京信息工程大学 | 一种用于***反欺诈的联邦学习方法和装置 |
CN113362160B (zh) * | 2021-06-08 | 2023-08-22 | 南京信息工程大学 | 一种用于***反欺诈的联邦学习方法和装置 |
WO2022257180A1 (en) * | 2021-06-10 | 2022-12-15 | Hong Kong Applied Science and Technology Research Institute Company Limited | Dynamic differential privacy to federated learning systems |
US11907403B2 (en) | 2021-06-10 | 2024-02-20 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Dynamic differential privacy to federated learning systems |
CN113614726A (zh) * | 2021-06-10 | 2021-11-05 | 香港应用科技研究院有限公司 | 对联邦学习***的动态差异隐私 |
CN113378198A (zh) * | 2021-06-24 | 2021-09-10 | 深圳市洞见智慧科技有限公司 | 一种保护用户标识的模型的联邦训练***、方法及装置 |
CN113335490A (zh) * | 2021-06-30 | 2021-09-03 | 广船国际有限公司 | 一种双壁管通风***及船舶 |
CN113704779A (zh) * | 2021-07-16 | 2021-11-26 | 杭州医康慧联科技股份有限公司 | 加密的分布式机器学习训练方法 |
CN113688408B (zh) * | 2021-08-03 | 2023-05-12 | 华东师范大学 | 一种基于安全多方计算的最大信息系数方法 |
CN113688408A (zh) * | 2021-08-03 | 2021-11-23 | 华东师范大学 | 一种基于安全多方计算的最大信息系数方法 |
CN113778966B (zh) * | 2021-09-15 | 2024-03-26 | 深圳技术大学 | 高校教学与课程成绩的跨学校信息共享方法及相关装置 |
CN113778966A (zh) * | 2021-09-15 | 2021-12-10 | 深圳技术大学 | 高校教学与课程成绩的跨学校信息共享方法及相关装置 |
CN113543120B (zh) * | 2021-09-17 | 2021-11-23 | 百融云创科技股份有限公司 | 一种基于联邦学习的移动终端信用反欺诈预估方法及*** |
CN113543120A (zh) * | 2021-09-17 | 2021-10-22 | 百融云创科技股份有限公司 | 一种基于联邦学习的移动终端信用反欺诈预估方法及*** |
CN113836556A (zh) * | 2021-09-26 | 2021-12-24 | 广州大学 | 面向联邦学习的去中心化函数加密隐私保护方法及*** |
CN113591133A (zh) * | 2021-09-27 | 2021-11-02 | 支付宝(杭州)信息技术有限公司 | 基于差分隐私进行特征处理的方法及装置 |
CN113591133B (zh) * | 2021-09-27 | 2021-12-24 | 支付宝(杭州)信息技术有限公司 | 基于差分隐私进行特征处理的方法及装置 |
CN114091651B (zh) * | 2021-11-03 | 2024-05-24 | 支付宝(杭州)信息技术有限公司 | 多方联合训练图神经网络的方法、装置及*** |
CN114143311A (zh) * | 2021-11-03 | 2022-03-04 | 深圳前海微众银行股份有限公司 | 一种基于区块链的隐私保护方案聚合方法及装置 |
CN114091651A (zh) * | 2021-11-03 | 2022-02-25 | 支付宝(杭州)信息技术有限公司 | 多方联合训练图神经网络的方法、装置及*** |
CN114282652A (zh) * | 2021-12-22 | 2022-04-05 | 哈尔滨工业大学 | 一种隐私保护的纵向深度神经网络模型构建方法、计算机及存储介质 |
CN114338144A (zh) * | 2021-12-27 | 2022-04-12 | 杭州趣链科技有限公司 | 数据防泄露的方法、电子设备和计算机可读存储介质 |
WO2023134077A1 (zh) * | 2022-01-17 | 2023-07-20 | 平安科技(深圳)有限公司 | 基于联邦因子分解机的同态加密方法、***、设备及存储介质 |
WO2023174018A1 (zh) * | 2022-03-15 | 2023-09-21 | 北京字节跳动网络技术有限公司 | 一种纵向联邦学习方法、装置、***、设备及存储介质 |
CN115081014A (zh) * | 2022-05-31 | 2022-09-20 | 西安翔迅科技有限责任公司 | 一种基于联邦学习的目标检测标签自动标注方法 |
CN115310121A (zh) * | 2022-07-12 | 2022-11-08 | 华中农业大学 | 车联网中基于MePC-F模型的实时强化联邦学习数据隐私安全方法 |
CN115278709B (zh) * | 2022-07-29 | 2024-04-26 | 南京理工大学 | 一种基于联邦学习的通信优化方法 |
CN115278709A (zh) * | 2022-07-29 | 2022-11-01 | 南京理工大学 | 一种基于联邦学习的通信优化方法 |
CN115186285B (zh) * | 2022-09-09 | 2022-12-02 | 闪捷信息科技有限公司 | 联邦学习的参数聚合方法和装置 |
CN115186285A (zh) * | 2022-09-09 | 2022-10-14 | 闪捷信息科技有限公司 | 联邦学习的参数聚合方法和装置 |
CN115865307A (zh) * | 2023-02-27 | 2023-03-28 | 蓝象智联(杭州)科技有限公司 | 一种用于联邦学习的数据点乘运算方法 |
CN116366250A (zh) * | 2023-06-02 | 2023-06-30 | 江苏微知量子科技有限公司 | 一种量子联邦学习方法及*** |
CN116366250B (zh) * | 2023-06-02 | 2023-08-15 | 江苏微知量子科技有限公司 | 一种量子联邦学习方法及*** |
CN117675199A (zh) * | 2023-12-21 | 2024-03-08 | 盐城集结号科技有限公司 | 一种基于rpa的网络安全防御*** |
CN117675199B (zh) * | 2023-12-21 | 2024-06-07 | 盐城集结号科技有限公司 | 一种基于rpa的网络安全防御*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112199702A (zh) | 一种基于联邦学习的隐私保护方法、存储介质及*** | |
WO2021197037A1 (zh) | 双方联合进行数据处理的方法及装置 | |
Byrd et al. | Differentially private secure multi-party computation for federated learning in financial applications | |
CN111160573B (zh) | 保护数据隐私的双方联合训练业务预测模型的方法和装置 | |
CN110546667B (zh) | 使用同态加密的区块链数据保护 | |
CN112989368B (zh) | 多方联合进行隐私数据处理的方法及装置 | |
CN112541593B (zh) | 基于隐私保护的联合训练业务模型的方法及装置 | |
CA3159667A1 (en) | Systems and methods for encrypting data and algorithms | |
CN111143894B (zh) | 一种提升安全多方计算效率的方法及*** | |
US20160020904A1 (en) | Method and system for privacy-preserving recommendation based on matrix factorization and ridge regression | |
CN110709863A (zh) | 使用秘密共享的逻辑回归建模方案 | |
CN113435592B (zh) | 一种隐私保护的神经网络多方协作无损训练方法及*** | |
CN113239404A (zh) | 一种基于差分隐私和混沌加密的联邦学习方法 | |
Hassan et al. | Secure content based image retrieval for mobile users with deep neural networks in the cloud | |
CN116561787A (zh) | 视觉图像分类模型的训练方法、装置及电子设备 | |
Byrd et al. | Collusion resistant federated learning with oblivious distributed differential privacy | |
Khan et al. | Vertical federated learning: A structured literature review | |
CN113792890A (zh) | 一种基于联邦学习的模型训练方法及相关设备 | |
US20230385446A1 (en) | Privacy-preserving clustering methods and apparatuses | |
JP2014206696A (ja) | データ秘匿型内積計算システム、方法、及びプログラム | |
CN115952529B (zh) | 一种用户数据处理方法、计算设备及存储介质 | |
CN116094686B (zh) | 用于量子卷积计算的同态加密方法、***、设备及终端 | |
Deng et al. | Non-interactive and privacy-preserving neural network learning using functional encryption | |
Lee et al. | PPEM: Privacy‐preserving EM learning for mixture models | |
Li et al. | Privacy threats analysis to secure federated learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |