CN116187482A - 一种边缘场景下轻量级的可信联邦学习方法 - Google Patents

一种边缘场景下轻量级的可信联邦学习方法 Download PDF

Info

Publication number
CN116187482A
CN116187482A CN202310061325.XA CN202310061325A CN116187482A CN 116187482 A CN116187482 A CN 116187482A CN 202310061325 A CN202310061325 A CN 202310061325A CN 116187482 A CN116187482 A CN 116187482A
Authority
CN
China
Prior art keywords
training
model
loss
edge server
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310061325.XA
Other languages
English (en)
Inventor
王瑞锦
陈晶
张凤荔
周世杰
赖金山
王金波
周潼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202310061325.XA priority Critical patent/CN116187482A/zh
Publication of CN116187482A publication Critical patent/CN116187482A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种边缘场景下轻量级的可信联邦学***均值outmean;(4)根据计算的outmean,边缘服务器将结果广播给各个终端设备以助终端设备完成后续训练;同时,边缘服务器还利用outmean和蒸馏温度T计算KL散度,以用于指导全局模型参数训练;(5)边缘服务器将更新的全局模型参数上传到云服务器进行聚合更新;(6)云服务器验证训练模型的性能是否满足标准要求,是,则训练结束;否则,将全局模型参数发送到每个边缘服务器以开始下一轮训练。本发明能有效提升模型的训练效率和准确性。

Description

一种边缘场景下轻量级的可信联邦学习方法
技术领域
本发明涉及联邦学习技术领域,特别涉及一种边缘场景下轻量级的可信联邦学习方法。
背景技术
近年来,联邦学习和大数据的融合促进了各行各业的发展,例如医疗领域和无人驾驶领域。然而,随着终端设备的***式增长学习,也导致了巨大的通信延迟和数据隐私泄露等问题(Lin,Hui et al.“A Secure Federated Learning Mechanism for DataPrivacy Protection.”202120th International Conference on Ubiquitous Computingand Communications(IUCC/CIT/DSCI/SmartCNS)(2021):25-31)。
为了解决通信延迟问题,边缘计算扩展了云服务器,以形成靠近终端的支持服务的边缘。边缘通常靠近终端设备,易于部署,允许快速响应用户请求。联邦学***联邦学习使用了不同终端设备的局部模型梯度来更新全局模型,但因为终端设备和数据的异质性,全局模型的准确性会受到影响,所以训练后的模型是有限的。例如,小型终端设备无法训练大型模型(Bhayo,Jalal et al.“An Efficient Counter-Based DDoS AttackDetection Framework Leveraging Software Defined IoT(SD-IoT).”IEEE Access 8(2020):221612-221631)。同时,横向联邦学习在边缘场景中训练相同的模型,并面临更多的攻击,如生成性对抗攻击和中毒攻击。此外,大多数联邦学习使用梯度作为传输对象,这对数据隐私构成了严重威胁。
数据隐私泄露主要分为基于模型输出的数据泄露和基于梯度更新的数据泄露。对于联邦学习的模型梯度更新,Li等人(Yoshida,Kota et al.“Model Reverse-EngineeringAttack against Systolic-Array-Based DNN Accelerator Using Correlation PowerAnalysis.”IEICE Trans.Fundam.Electron.Commun.Comput.Sci.104-A(2021):152-161)提出了一种DLG攻击,通过模拟恢复原始数据集以最小的成本实现梯度。而对于模型输出,Olatunji等人(Olatunji,Iyiola E.et al.“Membership Inference Attack on GraphNeural Networks.”2021Third IEEE International Conference on Trust,Privacy andSecurity in Intelligent Systems and Applications(TPS-ISA)(2021):11-20)提出了一种模型反向攻击,以获得敏感通过优化向量之间的差异来获得关于训练数据的信息。Diao等人(Diao,Enmao et al.“HeteroFL:Computation and Communication EfficientFederated Learning for Heterogeneous Clients.”ArXiv abs/2010.01264(2020):n.pag)提出了成员推断通过比较更新前后模型的输出来推断样本是否在数据集中的攻击。Lai等人(Sui,Dianbo et al.“FedED:Federated Learning via Ensemble Distillationfor Medical Relation Extraction.”EMNLP(2020))提出了一种面向智能医疗的边缘智能协同隐私保护方案,该方案将模型分为两部分用于训练并减少通信开销。
在隐私保护方面,Kumari等人(Bonawitz,Keith et al.“Practical SecureAggregation for Privacy-Preserving Machine Learning.”Proceedings of the2017ACM SIGSAC Conference on Computer and Communications Security(2017):n.pag)提出了一种基于椭圆曲线密码的安全认证方案适用于IoT和云服务器,在各种已知攻击方面更强大、更高效、更安全。Bonawitz等人(Benhamouda,Fabrice et al.“On theLocal Leakage Resilience of Linear Secret Sharing Schemes.”Journal ofCryptology 34(2018):n.pag)提出了一种联邦学习下的多方安全聚合方案(SMPC),该方案使用秘密共享来形成采用双掩模扰动模型梯度,解决了传输过程中的梯度泄漏问题。然而,对于在每一轮训练中,终端设备必须与边缘服务器通信五次,这大大提高了通信开销。此外,高维梯度传输消耗巨大的带宽对边缘场景中的数百个终端设备来说是灾难性的。
另外,Wang等人(Zhao,Yang et al.“Local Differential Privacy-BasedFederated Learning for Internet of Things.”IEEE Internet of Things Journal 8(2020):8836-8853)提出了PPFLEC,它放置了双掩模在边缘和云上,减少了聚合中涉及的实体数量,但仍需要多轮通信和将数据从终端设备上传到边缘服务器,增加了数据泄漏的风险。Zhao等人(Wang,Yichuan et al.“A trusted recommendation scheme for privacyprotection based on federated learning.”CCF Trans.Netw.3(2020):218-228)提出了一种联邦差分隐私方案,在模型梯度中加入了噪声扰动。攻击者无法恢复终端数据通过梯度,但噪声的选择是一个棘手的问题,如果噪音太大的梯度将减小,但如果噪音太小,就会需要更多的隐私,仍可能存在梯度泄漏。Wang等人(Zhou,Yuhao et al.“Communication-Efficient Federated Learning With Compensated Overlap-FedAvg.”IEEETransactions on Parallel and Distributed Systems 33(2020):192-205)在FedAvg架构上提出了一种模型压缩方法,在一定程度上隐藏原始梯度,保护数据隐私,减少数据传输量通信开销。但模型压缩可能会对精度产生不确定的影响,对某些人来说是不可接受的情节。当设备和数据是异构的时,Sui等人(Learning Multiple Layers of Features fromTiny Images,Alex Krizhevsky,2009)提出了FedED,它结合了知识蒸馏,以提高模型的准确性。然而,它基于传统的云服务器,不适合边缘场景。同时,它要求服务器在模型蒸馏期间公开训练数据集,这存在以下风险隐私泄露。
可见,尽管上述工作解决了一些问题,但必须平衡模型精度、通信之间的关系开销和数据隐私。这对模型的训练效率和准确性来说,影响是非常明显的。
发明内容
本发明的目的在于提供一种边缘场景下轻量级的可信联邦学习方法,能有效提升模型的训练效率和准确性。
为实现上述目的,本发明采用的技术方案如下:
一种边缘场景下轻量级的可信联邦学习方法,包括以下步骤:
(1)处于云-边-端三层联邦学习架构第三层的终端设备ei从处于云-边-端三层联邦学习架构第二层的边缘服务器获得分配的模型Mi,然后使用私有数据集在本地对模型Mi进行训练,输出训练结果Oi
(2)采用迭代掩码方案对训练结果Oi进行加密,并上传至边缘服务器;
(3)边缘服务器对训练结果Oi进行解密,然后针对训练结果Oi,边缘服务器采用如下公式计算获得一维中的平均值outmean:
Figure BDA0004061269840000031
式中,|I|是边缘服务器下的终端设备数量;
(4)根据计算的outmean,边缘服务器将结果广播给各个终端设备以助终端设备完成后续训练;同时,边缘服务器还利用outmean和蒸馏温度T计算KL散度,以用于指导全局模型参数训练,具体指导全局模型参数训练过程如下:
(a)边缘服务器利用局部数据集Dp训练一个模型,得到一个输出Oglobal,当蒸馏温度为1时利用交叉熵计算其自身损失,计算公式如下:
Figure BDA0004061269840000032
式中,HardLoss表示边缘服务器自身损失,K代表类别总数,ck表示数据标签中的第k个类别的概率,qk表示第k个分类的概率,由如下公式计算:
Figure BDA0004061269840000033
式中,Oglobal_k代表输出Oglobal的第k个分量,Oglobal_j代表输出Oglobal的第j个分量;
(b)边缘服务器采用如下公式计算在蒸馏温度T=t下的概率分布:
Figure BDA0004061269840000034
(c)边缘服务器采用如下公式计算在蒸馏温度T下的第k个类别的概率分布:
Figure BDA0004061269840000035
式中,outmeank代表平均值outmean的第k个分量,outmeanj代表平均值outmean的第j个分量;
(d)边缘服务器采用如下公式计算蒸馏损失SoftLoss
Figure BDA0004061269840000041
(e)边缘服务器结合自身损失和蒸馏损失,采用公式计算总损失函数:
Lossglobal=(1-α)HardLoss+αSoftLoss
式中,α是边缘服务器的损失调因子,取值范围为0-1;
(f)边缘服务器根据计算的总损失,对训练模型进行梯度更新,得到更新的全局模型参数ωu
(5)边缘服务器将更新的全局模型参数ωu上传到处于云-边-端三层联邦学***均权重对全局模型参数进行聚合更新,更新公式如下:
Figure BDA0004061269840000042
/>
式中,|U|表示边缘簇的数量;
(6)云服务器根据云聚合获得的全局模型参数,验证训练模型的性能是否满足标准要求,是,则训练结束;否则,将全局模型参数发送到每个边缘服务器以开始下一轮训练,执行步骤(7);
(7)终端设备ei利用蒸馏温度T和outmean,计算模型Mi的蒸馏损失;
(8)终端设备ei将自身损失和蒸馏损失结合,作为本轮的损失函数Lossi,然后根据损失函数Lossi对模型参数求偏导得到梯度Gi
(9)终端设备ei根据梯度Gi采用反向传播更新参数,结束本轮模型训练,获得更新后的模型,然后返回执行步骤(2)。
所述步骤(1)具体为:终端设备ei从边缘服务器获得分配的模型Mi,并利用私有数据集Di在本地进行训练,其中Di={(xi1,yi1),(xi2,yi2)…(xid,yid)},d是数据集Di的长度;所述私有数据集Di划分为训练数据集
Figure BDA0004061269840000043
和测试数据集/>
Figure BDA0004061269840000044
其中,利用训练数据集/>
Figure BDA0004061269840000045
的特征xi作为模型Mi的输入,经过前向传播得到训练结果Oi,通过与数据标签yi进行交叉熵计算得到自身的损失函数,计算公式如下:
Figure BDA0004061269840000046
式中,qik表示ei上第k个类别的概率,qik的计算方式如下:
Figure BDA0004061269840000047
式中,Oik代表训练结果Oi的第k个分量,Oij代表训练结果Oi的第j个分量。
具体地,所述步骤(7)中,计算模型Mi的蒸馏损失的过程如下:
(g)采用如下公式计算在蒸馏温度T下的本地模型的概率分布:
Figure BDA0004061269840000051
式中,qik_T表示ei在蒸馏温度T下第k个类别的概率;
(h)采用如下公式计算蒸馏温度T下聚合结果的概率分布:
Figure BDA0004061269840000052
(i)采用如下公式计算蒸馏损失:
Figure BDA0004061269840000053
(j)
Figure BDA0004061269840000054
表示第i个终端设备的蒸馏损失,由聚合结果的概率和模型的概率在蒸馏温度T下的交叉熵计算得到。
进一步地,所述步骤(8)中,采用如下公式计算终端设备ei本轮的损失函数Lossi
Figure BDA0004061269840000055
式中,αi表示损失调节因子,取值范围为0-1,是对自身损失和蒸馏损失的调和。
再进一步地,所述步骤(9)中,采用如下公式更新参数:
ωi=ωi-ηGi
式中,ωi是ei上的模型参数,η是学习率,取值范围大于0。
具体地,所述步骤(2)包括以下步骤:
(2a)边缘服务器记录参与本次训练的终端设备的编号,记为集合I,对于
Figure BDA0004061269840000056
根据参数pp生成两对公钥和私钥对:/>
Figure BDA0004061269840000057
KA.gen()代表公私钥生成算法;对于边缘服务器,利用参数pp生成公私钥对/>
Figure BDA0004061269840000058
(2b)边缘服务器对于集合I中的每个终端设备ei,使用DH密钥交换算法得到一个加密的对称密钥su,i,公式如下:
Figure BDA0004061269840000059
由su,i的对称性,su,i=si,u,该密钥用于模型结果掩码的加密传输;
(2c)在第一轮训练之前,集合I中的每个终端设备随机生成随机数种子seedi并使用伪随机数生成器PRG生成随机向量bi,然后将其扩展为向量bprai,具有与输出
Figure BDA00040612698400000510
相同的尺寸作为输出掩码,公式如下:
Figure BDA00040612698400000511
式中,
Figure BDA0004061269840000061
表示第1轮训练得到的结果;
(2d)将结果掩码bprai
Figure BDA0004061269840000062
相加得到/>
Figure BDA0004061269840000063
并使用su,i作为密钥,然后利用加密算法AE.enc()进行加密后,将加密的训练结果Oi上传给边缘服务器,加密公式如下:
Figure BDA0004061269840000064
更进一步地,所述步骤(3)中,边缘服务器的解密过程为:边缘服务器得到ei,u后利用对称密钥su,i和解密算法AE.dec()进行解密,解密公式如下:
Figure BDA0004061269840000065
在第t轮训练中,掩码结果的计算公式如下:
Figure BDA0004061269840000066
式中,
Figure BDA0004061269840000067
代表第t轮终端设备ei训练的结果,/>
Figure BDA0004061269840000068
表示第(t-1)轮的掩码结果。
与现有技术相比,本发明具有以下有益效果:
本发明基于云-边-终端的架构,构建了一个多模型联邦学习架构,可以提高模型训练的效率。同时,本发明通过设计边缘轻量级的迭代掩码方案,不仅可以减少通信开销,解决诸如数据孤岛和显著的通信延迟等问题,而且确保了数据的隐私和可靠性。并且,本发明还使用了不同的组合实现多模型联邦训练,并通过集成蒸馏传递知识,解决了训练量低的问题,提高了边缘场景中设备和数据异质性导致的准确性。
附图说明
图1为本发明-实施例采用的模型示意图。
图2为本发明-实施例采用的联邦学习构架示意图。
图3为本发明-实施例中全局模型参数的训练示意图。
图4为以Resnet18为本地模型,Resnet20为全局模型在本实施例方案下使用CIFAR10数据集的损失值和准确率示意图。
图5为以Resnet18、Vgg16为本地模型,Resnet20为全局模型在本实施例方案下使用CIFAR10数据集的损失值和准确率示意图。
图6为以Resnet18、vgg16、vgg19为本地模型,Resnet20为全局模型在ELTFL下实验CIFAR10数据集的损失值和准确率示意图。
图7为在CIFAR10数据集上的准确率对比图(图中ELTFL代表本发明实施例)。
图8为以Resnet18为本地模型,Resnet20为全局模型在ELTFL下使用CIFAR100数据集的损失值和准确率示意图。
图9为以Resnet18、Vgg16为本地模型,Resnet20为全局模型在ELTFL下使用CIFAR100数据集的损失值和准确率示意图。
图10为以Resnet18、Vgg16、Resnet8为本地模型,Resnet20为全局模型在ELTFL下使用CIFAR100数据集的损失值和准确率示意图。
图11为以Resnet8、Vgg16、ShuffleV1为本地模型,Resnet20为全局模型在ELTFL下使用CIFAR100数据集的损失值和准确率示意图。
图12为在CIFAR100数据集上的准确率对比图(图中ELTFL代表本发明实施例)。
图13为在CIFAR10数据集上的时间开销示意图(图中ELTFL代表本发明实施例)。
图14为在CIFAR100数据集上的时间开销示意图(图中ELTFL代表本发明实施例)。
图15为DLG攻击成功示意图。
图16为DLG攻击失败示意图。
图17为DLG对四种方案的攻击成功率示意图。
具体实施方式
下面结合附图说明和实施例对本发明作进一步说明,本发明的方式包括但不仅限于以下实施例。
实施例
本实施例提供了一种高效、轻量级的可信联邦学习方案,适用于边缘场景,能有效提升模型的训练效率和准确性。本实施例的模型如图1所示,终端设备在本地进行模型训练。边缘聚合由终端和云聚合来自不同边缘集群的模型。具体来说,在接收到分发的模型之后在边缘端(边缘服务器),终端设备使用私有数据集在本地训练模型。在多次重复迭代训练之后,添加掩码,然后将梯度更新上传到边缘服务器。在边缘取消隐藏渐变更新后用于聚合梯度更新。然后使用梯度更新参数,最后参数被上传到云端(云服务器)。
云服务器收集每个边缘集群上传的参数,使用聚合并在评估模型性能时将其更新为此训练轮的参数。如果性能不符合标准,它将为下一轮培训发布参数更新。然而,该模型具有诸如异构数据和显著的通信开销等问题,因此本实施例的改进思路如下:
考虑到云发布的任务M,不同实体可以根据其硬件选择不同的模型实现相同的功能。假设服务器上需要一个大型模型以实现更高的精度,但是终端设备只需要特定数据范围内的高精度,在这种情况下,一些小模型可以选择。因此,可以在终端设备选择小模型作为本地模型,然后在终端设备选择大模型作为全局模型云和边缘实现标准功能。为了实现这一目标,本实施例引入了知识蒸馏全球模型相互学习,即改进第一步和第三步,以满足功能需求并改进模型性能。而为了减少通信开销,本实施例降低了参数掩码的维数,以改进知识提取和在模型输出中添加迭代掩码,改进第二步以减少流量并保护数据隐私。
下面对整个流程进行详细介绍。
一、参数定义
模型中所需的变量参数和相关解释如表1所示:
表1
Figure BDA0004061269840000081
用于掩码添加的相关算法如表2所示:
表2
序号 算法名称 算法简介
1 KA.param() 参数pp的生成算法
2 KA.gen() 公私钥生成算法
3 KA.agree() 对称密钥生成算法
4 AE.enc() 密钥加密算法
5 AE.dec() 密钥解密算法
二、方案流程
假设终端设备集合E={e1,e2,…ei…en},终端设备ei具有私有数据集Di,分为训练数据集
Figure BDA0004061269840000082
以及负责本地模型训练的测试数据集/>
Figure BDA0004061269840000083
值得注意的是在终端设备上运行通常是轻量级的,为了有效地训练边缘模型,本实施例添加了集成蒸馏学习边缘服务器具有执行全局模型训练的集群数据集Dp。云服务器坐标边缘服务器集群并跨多个集群聚合模型,与本实施例的模型定义一致,其学习架构如图2所示。
具体来说,本实施例主要流程如下:
首先,终端设备ei从边缘服务器获得分配的模型Mi,并利用私有数据集Di在本地进行训练,其中Di={(xi1,yi1),(xi2,yi2)…(xid,yid)},d是数据集Di的长度;所述私有数据集Di划分为训练数据集
Figure BDA0004061269840000084
和测试数据集/>
Figure BDA0004061269840000085
其中,利用训练数据集/>
Figure BDA0004061269840000086
的特征xi作为模型Mi的输入,经过前向传播得到训练结果Oi,通过与数据标签yi进行交叉熵计算得到自身的损失函数,计算公式如下:/>
Figure BDA0004061269840000087
式中,qik表示ei上第k个类别的概率,qik的计算方式如下:
Figure BDA0004061269840000091
式中,Oik代表训练结果Oi的第k个分量,Oij代表训练结果Oi的第j个分量。
在计算损失函数的同时,终端设备ei将训练结果Oi进行轻量级加密得到Ei,详细加密方案将在下面进行介绍。加密后,终端设备ei将Ei发送给边缘服务器后,将等待边缘服务器反馈蒸馏温度T和聚合后的结果outmean,利用T和outmean,计算模型Mi的蒸馏损失,具体过程如下:
1)终端设备ei利用蒸馏温度T和outmean,计算模型Mi的蒸馏损失,计算过程如下:
11)采用如下公式计算在蒸馏温度T下的本地模型的概率分布:
Figure BDA0004061269840000092
式中,qik_T表示ei在蒸馏温度T下第k个类别的概率;
12)采用如下公式计算蒸馏温度T下聚合结果的概率分布:
Figure BDA0004061269840000093
13)采用如下公式计算蒸馏损失:
Figure BDA0004061269840000094
14)
Figure BDA0004061269840000095
表示第i个终端设备的蒸馏损失,由聚合结果的概率和模型的概率在蒸馏温度T下的交叉熵计算得到;
2)终端设备ei将自身损失和蒸馏损失结合,作为本轮的损失函数Lossi,损失函数Lossi计算公式如下:
Figure BDA0004061269840000096
式中,αi表示损失调节因子,取值范围为0-1,是对自身损失和蒸馏损失的调和;
3)根据损失函数Lossi对模型参数求偏导得到梯度Gi
Figure BDA0004061269840000097
4)终端设备ei根据梯度Gi采用反向传播更新参数,结束本轮模型训练,获得更新后的模型,参数更新公式如下:
ωi=ωi-ηGi
式中,ωi是ei上的模型参数,η是学习率,取值范围大于0,一般为0.01。至此,本轮训练结束,得到更新后的本地模型,利用测试集验证模型准确率,等待边缘服务器的调度。
上述指出,终端设备ei将训练结果Oi进行轻量级加密得到Ei,然后发送给边缘服务器,具体来说,本实施例采用迭代掩码方案对训练结果Oi进行加密,并上传至边缘服务器,具体如下:
1)边缘服务器记录参与本次训练的终端设备的编号,记为集合I,对于
Figure BDA0004061269840000101
根据参数pp生成两对公钥和私钥对:/>
Figure BDA0004061269840000102
pp是公私钥生成的相关参数,由安全素数k通过KA.param(k)生成。对于边缘服务器,利用参数pp生成公私钥对
Figure BDA0004061269840000103
Figure BDA0004061269840000104
2)边缘服务器对于集合I中的每个终端设备ei,使用DH密钥交换算法得到一个加密的对称密钥su,i,公式如下:
Figure BDA0004061269840000105
由su,i的对称性,su,i=si,u,该密钥用于模型结果掩码的加密传输;
3)在第一轮训练之前,集合I中的每个终端设备随机生成随机数种子seedi并使用伪随机数生成器PRG生成随机向量bi,然后将其扩展为向量bprai,具有与输出
Figure BDA0004061269840000106
相同的尺寸作为输出掩码,公式如下:
Figure BDA0004061269840000107
式中,
Figure BDA0004061269840000108
表示第1轮训练得到的结果;
4)将结果掩码bprai
Figure BDA0004061269840000109
相加得到/>
Figure BDA00040612698400001010
并使用su,i作为密钥,然后利用加密算法AE.enc()进行加密后,将加密的训练结果Oi上传给边缘服务器,加密公式如下:
Figure BDA00040612698400001011
边缘服务器得到ei,u后利用对称密钥su,i和解密算法AE.dec()进行解密,解密公式如下:
Figure BDA00040612698400001012
在第t轮训练中,掩码结果的计算公式如下:
Figure BDA00040612698400001013
式中,
Figure BDA00040612698400001014
代表第t轮终端设备ei训练的结果,/>
Figure BDA00040612698400001015
表示第(t-1)轮的掩码结果。由于边缘服务器u具有每一轮掩码结果,它可以快速移除掩码,获得结果集,并执行随后在聚合后蒸馏。
迭代掩码和解密方案概括如下:
输入:有限域F,参数pp,终端设备集合I的输出Oi,训练轮数epoch
边缘服务器u使用参数pp生成公私钥对
Figure BDA00040612698400001016
ei使用参数pp生成公私钥对
Figure BDA00040612698400001017
For i in range I:
Figure BDA0004061269840000111
End For
For i in range I:
初始化掩码:
Figure BDA0004061269840000112
Figure BDA0004061269840000113
End For
For t in range epoch:
For i in range I:
Figure BDA0004061269840000114
Figure BDA0004061269840000115
发送给边缘服务器u
边缘服务器u解密:
Figure BDA0004061269840000116
解密得到
Figure BDA0004061269840000117
Figure BDA0004061269840000118
End For
End For.
而后,边缘服务器采用如下公式计算获得一维中的平均值outmean:
Figure BDA0004061269840000119
式中,|I|是边缘服务器下的终端设备数量。
接着,根据计算的outmean,边缘服务器将结果广播给各个终端设备以助终端设备完成后续训练;同时,边缘服务器还利用outmean和蒸馏温度T计算KL散度,以用于指导全局模型参数训练,如图3所示。
根据图3,本实施例具体指导全局模型参数训练过程如下:
1)边缘服务器利用局部数据集Dp训练一个模型,得到一个输出Oglobal,当蒸馏温度为1时利用交叉熵计算其自身损失,计算公式如下:
Figure BDA00040612698400001110
式中,HardLoss表示边缘服务器自身损失,K代表类别总数,ck表示数据标签中的第k个类别的概率,qk表示第k个分类的概率,由如下公式计算:
Figure BDA0004061269840000121
式中,Oglobal_k代表输出Oglobal的第k个分量,Oglobal_j代表输出Oglobal的第j个分量;
2)边缘服务器采用如下公式计算在蒸馏温度T=t下的概率分布:
Figure BDA0004061269840000122
3)边缘服务器采用如下公式计算在蒸馏温度T下的第k个类别的概率分布:
Figure BDA0004061269840000123
式中,outmeank代表平均值outmean的第k个分量,outmeanj代表平均值outmean的第j个分量;
4)边缘服务器采用如下公式计算蒸馏损失SoftLoss
Figure BDA0004061269840000124
5)边缘服务器结合自身损失和蒸馏损失,采用公式计算总损失函数:
Lossglobal=(1-α)HardLoss+αSoftLoss
式中,α是边缘服务器的损失调因子;
6)边缘服务器根据计算的总损失,对训练模型进行梯度更新,得到更新的全局模型参数ωu
接着,边缘服务器将更新的全局模型参数ωu上传到云服务器,云服务器采用平均权重对全局模型参数进行聚合更新,更新公式如下:
Figure BDA0004061269840000125
式中,|U|表示边缘簇的数量。
本实施例的蒸馏过程概括如下:
输入:终端设备集合I,终端本地模型Mi,数据集Di,其中Di=(xid,yid),batchsize,训练轮数epoch,学习率η,取值范围大于0。
For t in range epoch:
For i in range I:
将Di按照batchsize的大小分为小批量数据
Figure BDA0004061269840000126
For(xid,yid)in
Figure BDA0004061269840000127
Figure BDA0004061269840000128
Figure BDA0004061269840000129
End For
添加掩码后Send
Figure BDA0004061269840000131
到边缘服务器u,等到边缘服务器反馈蒸馏温度T和outmeantClient:
计算在蒸馏温度T=1时的概率分布:
Figure BDA0004061269840000132
计算在蒸馏温度T=T时的概率分布:
Figure BDA0004061269840000133
计算outmeant在蒸馏温度T=T时的概率分布:
Figure BDA0004061269840000134
/>
计算自身损失:
Figure BDA0004061269840000135
计算蒸馏损失:
Figure BDA0004061269840000136
计算总的损失函数:
Figure BDA0004061269840000137
计算参数梯度:
Figure BDA0004061269840000138
使用
Figure BDA0004061269840000139
反向传播以更新参数:
Figure BDA00040612698400001310
End for
Edge server u:
接收来自终端设备集合I的
Figure BDA00040612698400001311
解密后计算平均聚合结果outmeant
Figure BDA00040612698400001312
将outmeant下发给终端设备
利用数据集Dp训练全局模型,得到输出
Figure BDA00040612698400001313
Figure BDA00040612698400001314
计算T=1和T=T时的概率分布:
Figure BDA0004061269840000141
Figure BDA0004061269840000142
计算全局模型的自身损失和蒸馏损失:
Figure BDA0004061269840000143
Figure BDA0004061269840000144
计算损失函数:
Figure BDA0004061269840000145
计算梯度并反向传播更新全局模型参数:
Figure BDA0004061269840000146
/>
Figure BDA0004061269840000147
End For.
最后,云服务器根据云聚合获得的全局模型参数,验证训练模型的性能是否满足标准要求,是,则训练结束;否则,将全局模型参数发送到每个边缘服务器以开始下一轮训练。
对本实施例方案进行理论分析。
一、性能指标
Top-k准确率:用于计算前k个结果中正确标签的比例预测结果。在我们的实验中,我们使用top-k作为准确度评估指标。常见的top-1是分类精确率,公式如下。
Figure BDA0004061269840000148
其中True Positive(TP)表示真正类即样本的真实类别是正类,并且模型识别的结果也是正类;True Negative(TN)表示真负类即样本的真实类别是负类,并且模型将其识别为负类;False Negative(FN)表示假负类即样本的真实类别是正类,但是模型将其识别为负类;False Positive(FP)表示假正类即样本的真实类别是负类,但是模型将其识别为正类。
Figure BDA0004061269840000149
其中|.|表示数据量,|Data|同时也代表通信开销,bandwidth表示带宽,通信时延和模型训练时间作为计算和通信开销的重要衡量指标。
二、通信开销分析
边缘计算场景中不同设备的数据大多是异构的或不完整的,但这些数据可以帮助边缘服务器快速训练模型。当前的大多数工作都使用联邦学习来传递在终端设备连接到边缘服务器。然而,流量是巨大的,生成与参数相同的维度也是一笔可观的费用。本实施例方案将联邦学习和知识提炼相结合,以降低沟通成本并保护在某种程度上,数据隐私。具体的通信开销比较如表3所示:
表3
方案 通信开销(数据量) 每一轮通信次数
FedAvg O(mn4) (I+U)
SMPC O(mn4) (5I+U)
PPFLEC O(mn3) (I+5U)
本实施例方案 O(mn) (I+U)
其中m表示每一轮训练的样本数量,n表示向量维度,I表示终端设备的数量,U表示边缘服务器的数量。由于FedAvg和SMPC为两层架构,我们将其扩展为三层,其中边缘服务器到云服务器仅做模型参数聚合。
具体来说,以卷积神经网络(CNN)为例,每一层的参数都是4维张量(m,n,p,q),总共有k层。将掩码添加到梯度或参数所需的掩码矩阵是嵌套的,包含m*n*p*q*k数据。假设张量维度相同,则传递的数据量为mn4,这不仅会占用大量带宽,而且嵌套矩阵的生成过程将消耗大量计算资源,特别是高维张量的乘法。从表3可以看出FedAvg和SMPC的通信数据为mn4。PPFLEC聚合终端设备上的数据集,并将其传输到边缘服务器。由于图像数据是三维张量,因此数据量为mn3。在英语教学中,只有培训私有数据的结果和矢量掩码需要发送到边缘服务器,数据量为m*n方案中,高维梯度或参数被降低到一维,减少了通信量。
关于通信轮数,FedAvg只需要在端部和边缘之间上传和分发,边缘和云。次数为2(I+U)。然而,SMPC由于增加了双掩模。在一轮训练中,它需要在边缘之间进行五次通信,在边缘云之间进行一次通信,因此总次数为5I+U,这不适用于边缘场景。PPFLEC将云扩展到边缘,但它需要在边缘云中添加五次掩码,并在边缘进行一次I+5U次通信。本实施例方案提出了一种迭代掩码它可以实现模型结果的安全传输,而无需在一轮训练中进行多次通信。它只需要在密钥协议期间通信一次。培训开始后,它与FedAvg相同。
此外,边缘服务器可以通过提取终端设备采集模型加快了收敛速度,提高了模型的精度。同时,边缘服务器在终端设备上的本地模型训练中也起到积极的反馈作用。对于具有异质性的边缘场景边缘服务器在训练具有相同目标的智能任务方面具有良好的优势。它适用于水平边缘场景中的联邦学习。
三、隐私性分析
本实施例从模型架构和迭代掩码两个方面,分析本实施例方案对终端私有数据的隐私保护能力。
首先,在本实施例方案中,边缘和末端之间的传递不是模型梯度,而是模型训练结果。使用ei作为例如,以模型结果Oi代替模型梯度Oi,减少了交通量并有效地防止了梯度当模型结构为黑匣子时,会发生泄漏攻击。其次,我们在边缘云之间传输模型参数。联邦学习训练数据是本地的。攻击者无法获得损失值或计算梯度以进行梯度泄露攻击。然而,模型结果在边缘之间的传输也面临模型被盗和隐私泄露的风险,尤其是在不同型号。输出结果可能包含输入信息,导致训练集中敏感信息的泄露。攻击者可以通过成员的攻击推断训练集中是否有样本,但在本实施例方案中,迭代掩码被添加到输出结果中,攻击者无法通过掩码定位样本。同时,时间戳可以确保结果的新鲜度,防止攻击者重演攻击。
下面通过案例实验对本实施例方案的模型性能进行验证。
一、实验配置
实验使用24台PC作为终端设备,一台使用RTX3090图形卡的高性能服务器,一台以RTX3080图形卡作为边缘服务器的高性能伺服器,以及一台云服务器。每个边缘服务器负责是包括12个终端设备的边缘集群。数据集为CIFAR10和CIFAR100。具体而言两个边缘服务器已完成。数据集分为24个部分;每个终端设备得到一个作为训练测试数据集。我们使用Pytorch作为框架,并使用ResNet残差序列模型、VGG序列的组合以及用于进行联邦学习的ShuffleV1模型。我们主要对top-k精度进行实验分析,计算和通信开销以及模型性能中的隐私保护性能。比较方案是FedAvg、SMPC和PPFLEC。
二、准确性分析
我们使用CIFAR10和CIFAR100数据集作为实验数据,使用ResNet20模型作为全局模型在边缘服务器上进行训练。我们分别使用1、2和3个小模型作为本地模型在终端设备上进行训练(我们将小模型平均分配给终端设备)。对于CIFRA10数据集,ResNet18、VGG16和VGG19用作局部模型,以获得图4、图5和图6所示的精度和损失曲线。其中,图4显示了训练中ResNet18和ResNet20的损失值和准确性显示出同步变化。明确地损失值在大约80轮时达到最低、训练精度在大约80圈时达到峰值,然后达到过度拟合,显示出波动性。在测试集上,两个本实施例方案模型在大约100个回合处汇合。全局模型Resnet20的测试损失值降低到0.28,测试精度为91.82%。收敛后处于平滑状态,表明本实施例方案具有良好的泛化能力。如图5所示,当我们将VGG16添加到本地模型时,原始损失值和精度的变化趋势训练期间的衔接轮数也约为80轮,与图4。不同之处在于,测试集上的收敛轮数约为95,测试精度收敛时,收敛率达到92.16%。与仅使用一个局部模型的训练相比,收敛轮数略有减少,测试准确率略有提高,模型收敛后测试集的平滑度也得以保持。从这个角度来看,本实施例方案很好地接受了本地模型的数量。局部模型越多,ELFL的精度越高,收敛速度越快。然而随着局部模型的数量增加,本实施例方案会过度填充,导致性能下降,我们做了一个简单的实验来增加本地再次使用三个模型作为局部模型,前两个保持不变,并获得了图6所示的实验结果。
从图6中我们可以看到,以3种模型为本地模型的训练收敛轮数为78轮,较以2种模型为本地模型的训练有所减少,在测试集上收敛时的损失值仍为0.25,测试准确率在收敛时达到92.11%,略有减少,但在实验误差之内。由此,我们可以得出本实施例方案能够适应多模型组成的本地模型,适合边缘场景下模型和数据异构的场景。
我们将本实施例方案与FedAvg、SMPC和PPFLEC进行了比较,并获得了全局模型精度比较图,如图7所示。本实施例方案使用三种当地模式参与培训;全局模型是ResNet20。
图7显示,本实施例方案的训练效率远高于其他三种方案。前十轮的准确率可达75%,模型在约100轮时收敛,收敛时的准确率达92.11%。相比之下,基准方案FedAvg在前50轮中更快地提高了准确率在收敛时的准确率为86.76%。同时,SMPC和PPFLEC的训练效率较慢PPFLEC的影响是显著的。最后,SMPC和PPFLEC的准确率可以分别达到81.88%和82.99%添加和移除双掩模。根据全局模型的精度和收敛轮数,本实施例方案比三种比较方案高得多,精度比基准方案高5.35%联邦平均值。此外,我们比较了FedAvg和本实施例方案的局部模型的精度,如表4所示:
表4
模型 本实施例方案(%) FedAvg(%)
Resnet18 94.51 83.64
Vgg16 93.35 91.62
Vgg19 91.72 84.5
从表4可以看出,本实施例方案训练得到的本地模型在准确率上均高于FedAvg,其中Resnet18在FedAvg上提升了10.87%,Vgg16在FedAvg上提升了1.73%,Vgg19在FedAvg上提升了7.22%。
为了验证本实施例方案在其他数据集上的性能,我们使用CIFAR100数据集进行实验,本地模型选择Resnet18、Resnet8、ShuffleV1和Vgg16,全局模型仍是Resnet20,得到了图8、图9、图10和图11所示的损失值和准确率。
从图8可以看出,本实施例方案在训练集上约75轮后收敛,然后呈现波形。测试集上全局模型ResNet20的收敛轮数约为110。测试收敛精度达到68.34%,相应的损失值为1.14。本地和全球模型显示相同的变化趋势和在测试集上收敛后的平滑稳定性。本实施例方案在不同的数据集上具有良好的通用性。
类似地,我们使用ResNet18和VGG16模型作为局部模型来训练全局模型ResNet20。如图9所示,在训练过程中,全局模型收敛约80轮。在测试过程中,在大约110轮时实现了收敛。准确率达到68.03%,比本地使用ResNet18时低0.31%模型训练。这可能是由于CIFAR100数据集对VGG16模型的影响不佳。收敛后,模型精度曲线处于平滑状态。为了测试模型异质性对全局模型准确性的影响,我们选择了三个不同的模型作为局部模型。我们获得了图10和图11的实验结果。
从图10和图11可以看出,当ResNet8、ResNet18和VGG16用作局部模型时,全局模型ResNet20的收敛精度为68.36%,损失值为1.15。当ResNet8、VGG8和ShuffleV1用作局部模型时,全局模型的准确度为67.49%,损失值为1.15,准确度降低了0.87%。局部模型的异质性对本实施例方案有特殊影响,但差异不显著。随着在边缘场景中集成蒸馏模型的数量,本实施例方案训练得到的全局模型会趋于稳定,同时具有更强的泛化能力。
此外,我们在CIFAR100数据集上比较了本实施例方案与FedAvg、SMPC和PPFLEC,并获得了图12所示的全局模型精度比较图。本实施例方案使用三种当地模式参与培训;全局模型是ResNet20。
从图12可以看出,在CIFAR100数据集上,本实施例方案的精度仍然相对较高,比基准方案FedAvg高9.44%,达到67.94%。在数据不足的情况下,SMPC和PPFLEC的收敛精度仅比FedAvg低51.12%和47.14%、7.38%和11.36%。可以看出,本实施例方案仍然可以保持而SMPC和PPFLEC在CIFAR100上的性能比在CIFAR10上差得多。总之,当数据异构时,本实施例方案具有良好的泛化能力。
同样地,我们比较了FedAvg和本实施例方案中本地模型的准确率,结果如表5所示:
表5
Figure BDA0004061269840000181
表5显示,从本实施例方案训练准确率获得的局部模型高于FedAvg。特别是,FedAvg训练效果较差的模型VGG8的准确率在本实施例方案训练后提高了41.34%。本实施例方案不仅在训练全球模型方面表现出色,而且在训练本地模型方面也优于FedAvg基准方案。本实施例方案可以通过综合蒸馏培训培训全球和本地模型,而传统的联邦学习诸如FedAvg之类的方案只能顺序实现。从这个角度来看,本实施例方案还可以显著缩短模型训练时间。
三、计算和通信开销分析
关于计算和通信开销,我们选择了每轮训练所需的时间和每轮传输所需的通信时间作为指标,并将本实施例方案与FedAvg、SMPC和PPFLEC进行了比较。数据集为CIFAR10和CIFAR100。其中,本实施例方案使用三种本地模型(ResNet18、VGG16、VGG19),而全球训练模型为ResNet20。结果如表6和表7所示:
表6
Figure BDA0004061269840000191
表7
Figure BDA0004061269840000192
从表6中可以看出,使用CIFAR10数据集来训练ResNet20模型,本实施例方案需要120轮来实现收敛,并且收敛所需的轮数少于基准FedAvg,远远少于SMPC和PPFLEC。多模式集成蒸馏将加快收敛速度。与SMPC和PPFLEC使用的双掩码和哈希函数相比,本实施例方案使用的迭代掩码对模型精度的影响较小。在每轮训练中,本实施例方案的训练时间为110.7秒,略高于FedAvg。这是由于迭代掩码计算,但比SMPC和PPFLEC低得多,这可以反映本实施例方案的重量轻。从每一轮通信时间来看,本实施例方案所需的通信时间最短,因为本实施例方案在通信期间传输的数据维度很低,这是模型结果和数据批的维度的乘积。相比之下,其他三种方案传输的数据是模型参数的维度。
类似地,从表7可以看出,随着数据集的替换,CIFAR100的分类类型更多。在收敛过程中,本实施例方案的轮数远远少于其他三种方案。从每轮训练的时间来看,本实施例方案低于FedAvg和PPFLEC,远低于SMPC。就每一轮的沟通时间而言,本实施例方案也是最低的。总之,本实施例方案具有较低的计算和通信开销和较快的收敛速率。
为了验证不同设备的训练效率,我们分别统计了两个集群在不同数据集数上收敛的总时间,包括训练时间和通信时间,如图13和图14所示。
从图13和图14可以看出,在不同的设备集群和训练数据集上,本实施例方案的时间成本低于其他三种方案。具体而言,本实施例方案的时间成本略低于CIFAR10数据集上FedAvg的时间成本,远低于SMPC和PPFLEC的时间成本。在CIFAR100数据集上,它比其他三种方案。对于不同的设备,本实施例方案的时间开销变化较小,控制在300秒以内,而FedAvg的时间开销的变化超过800秒,SMPC的时间开销超过1700秒,PPFLEC的时间开销则超过700秒。总之,本实施例方案更适用于设备,在边缘场景中的异构设备情况下具有更多优势。
四、隐私保护分析
我们使用DLG攻击来攻击四种方案,以测试是否可以从传输的数据恢复原始图像,从而导致原始数据的隐私泄露。DLG攻击是针对传统联邦学习梯度传输的最有效的攻击之一,它可以通过模拟模型的梯度来恢复数据集。我们随机地从CIFAR100数据集中选择图像。DLG攻击随机生成图像。我们通过模拟每轮训练的梯度来获得我们选择的图像。
在实验中,如果出现图15,则DLG攻击成功。同时,模拟梯度的损失值在开始时为10000。第30轮的趋势为0.91,第60轮为0.03,第90轮为0.01,然后为0。图像已完全恢复。如果出现图16,DLG攻击失败,损失值为83786.1。经过270次模拟迭代后,损失值为83746.8,无法恢复原始图像。我们测试了CIFAR10数据集的6400张图像,获得了图17所示的攻击结果。
在图17中,ASR表示攻击的成功率,黄色部分表示终端和边缘之间的攻击,绿色部分表示边缘和云之间的攻击。边缘和边缘云之间的DLG攻击的ASR为0,因为边缘处的迭代掩码导致攻击者智能地获得假梯度无法恢复。由于边缘云之间的传输参数,无法计算梯度,并且无法恢复图像。在攻击FedAvg时,边缘云和边缘的成功率高于99.9%。可以看出,没有加密或掩码的联邦学习很容易泄露数据。攻击SMPC时,攻击成功率为0,因为在边缘之间添加了双掩模。但是,我们不会在边缘云之间添加掩码,从而恢复图像。然而,攻击者获得的图像数据基于聚合后的梯度,不一定是原始数据。在PPFLEC中,边缘数据不受保护,直接聚合到边缘服务器,这很容易泄漏。由于边缘云之间存在掩码和哈希函数,数据无法恢复。总之,本实施例方案更适合在云端场景中对智能模型进行隐私保护训练。
上述实施例仅为本发明的优选实施方式之一,不应当用于限制本发明的保护范围,凡在本发明的主体设计思想和精神上作出的毫无实质意义的改动或润色,其所解决的技术问题仍然与本发明一致的,均应当包含在本发明的保护范围之内。

Claims (7)

1.一种边缘场景下轻量级的可信联邦学习方法,其特征在于,包括以下步骤:
(1)处于云-边-端三层联邦学习架构第三层的终端设备ei从处于云-边-端三层联邦学习架构第二层的边缘服务器获得分配的模型Mi,然后使用私有数据集在本地对模型Mi进行训练,输出训练结果Oi
(2)采用迭代掩码方案对训练结果Oi进行加密,并上传至边缘服务器;
(3)边缘服务器对训练结果Oi进行解密,然后针对训练结果Oi,边缘服务器采用如下公式计算获得一维中的平均值outmean:
Figure FDA0004061269830000011
式中,|I|是边缘服务器下的终端设备数量;
(4)根据计算的outmean,边缘服务器将结果广播给各个终端设备以助终端设备完成后续训练;同时,边缘服务器还利用outmean和蒸馏温度T计算KL散度,以用于指导全局模型参数训练,具体指导全局模型参数训练过程如下:
(a)边缘服务器利用局部数据集Dp训练一个模型,得到一个输出Oglobal,当蒸馏温度为1时利用交叉熵计算其自身损失,计算公式如下:
Figure FDA0004061269830000012
式中,HardLoss表示边缘服务器自身损失,K代表类别总数,ck表示数据标签中的第k个类别的概率,qk表示第k个分类的概率,由如下公式计算:
Figure FDA0004061269830000013
式中,Oglobal_k代表输出Oglobal的第k个分量,Oglobal_j代表输出Oglobal的第j个分量;
(b)边缘服务器采用如下公式计算在蒸馏温度T=t下的概率分布:
Figure FDA0004061269830000014
(c)边缘服务器采用如下公式计算在蒸馏温度T下的第k个类别的概率分布:
Figure FDA0004061269830000015
式中,outmeank代表平均值outmean的第k个分量,outmeanj代表平均值outmean的第j个分量;
(d)边缘服务器采用如下公式计算蒸馏损失SoftLoss
Figure FDA0004061269830000016
(e)边缘服务器结合自身损失和蒸馏损失,采用公式计算总损失函数:
Lossglobal=(1-α)HardLoss+αSoftLoss
式中,α是边缘服务器的损失调因子,取值范围为0-1;
(f)边缘服务器根据计算的总损失,对训练模型进行梯度更新,得到更新的全局模型参数ωu
(5)边缘服务器将更新的全局模型参数ωu上传到处于云-边-端三层联邦学***均权重对全局模型参数进行聚合更新,更新公式如下:
Figure FDA0004061269830000021
式中,|U|表示边缘簇的数量;
(6)云服务器根据云聚合获得的全局模型参数,验证训练模型的性能是否满足标准要求,是,则训练结束;否则,将全局模型参数发送到每个边缘服务器以开始下一轮训练,执行步骤(7);
(7)终端设备ei利用蒸馏温度T和outmean,计算模型Mi的蒸馏损失;
(8)终端设备ei将自身损失和蒸馏损失结合,作为本轮的损失函数Lossi,然后根据损失函数Lossi对模型参数求偏导得到梯度Gi
(9)终端设备ei根据梯度Gi采用反向传播更新参数,结束本轮模型训练,获得更新后的模型,然后返回执行步骤(2)。
2.根据权利要求1所述的一种边缘场景下轻量级的可信联邦学习方法,其特征在于,所述步骤(1)具体为:终端设备ei从边缘服务器获得分配的模型Mi,并利用私有数据集Di在本地进行训练,其中Di={(xi1,yi1),(xi2,yi2)…(xid,yid)},d是数据集Di的长度;所述私有数据集Di划分为训练数据集
Figure FDA0004061269830000022
和测试数据集/>
Figure FDA0004061269830000023
其中,利用训练数据集/>
Figure FDA0004061269830000024
的特征xi作为模型Mi的输入,经过前向传播得到训练结果Oi,通过与数据标签yi进行交叉熵计算得到自身的损失函数,计算公式如下:
Figure FDA0004061269830000025
式中,qik表示ei上第k个类别的概率,qik的计算方式如下:
Figure FDA0004061269830000026
式中,Oik代表训练结果Oi的第k个分量,Oij代表训练结果Oi的第j个分量。
3.根据权利要求2所述的一种边缘场景下轻量级的可信联邦学习方法,其特征在于,所述步骤(7)中,计算模型Mi的蒸馏损失的过程如下:
(g)采用如下公式计算在蒸馏温度T下的本地模型的概率分布:
Figure FDA0004061269830000031
式中,qik_T表示ei在蒸馏温度T下第k个类别的概率;
(h)采用如下公式计算蒸馏温度T下聚合结果的概率分布:
Figure FDA0004061269830000032
(i)采用如下公式计算蒸馏损失:
Figure FDA0004061269830000033
(j)
Figure FDA0004061269830000034
表示第i个终端设备的蒸馏损失,由聚合结果的概率和模型的概率在蒸馏温度T下的交叉熵计算得到。
4.根据权利要求3所述的一种边缘场景下轻量级的可信联邦学习方法,其特征在于,所述步骤(8)中,采用如下公式计算终端设备ei本轮的损失函数Lossi
Figure FDA0004061269830000035
式中,αi表示损失调节因子,取值范围为0-1,是对自身损失和蒸馏损失的调和。
5.根据权利要求4所述的一种边缘场景下轻量级的可信联邦学习方法,其特征在于,所述步骤(9)中,采用如下公式更新参数:
ωi=ωi-ηGi
式中,ωi是ei上的模型参数,η是学习率,取值范围大于0。
6.根据权利要求1~5任一项所述的一种边缘场景下轻量级的可信联邦学习方法,其特征在于,所述步骤(2)包括以下步骤:
(2a)边缘服务器记录参与本次训练的终端设备的编号,记为集合I,对于
Figure FDA0004061269830000036
根据参数pp,生成两对公钥和私钥对:/>
Figure FDA0004061269830000037
KA.gen()代表公私钥生成算法;对于边缘服务器,利用参数pp生成公私钥对/>
Figure FDA0004061269830000038
Figure FDA0004061269830000039
(2b)边缘服务器对于集合I中的每个终端设备ei,使用DH密钥交换算法得到一个加密的对称密钥su,i,公式如下:
Figure FDA00040612698300000310
由su,i的对称性,su,i=si,u,该密钥用于模型结果掩码的加密传输;
(2c)在第一轮训练之前,集合I中的每个终端设备随机生成随机数种子seedi并使用伪随机数生成器PRG生成随机向量bi,然后将其扩展为向量bprai,具有与输出
Figure FDA00040612698300000311
相同的尺寸作为输出掩码,公式如下:
Figure FDA0004061269830000041
式中,
Figure FDA0004061269830000042
表示第1轮训练得到的结果;
(2d)将结果掩码bprai
Figure FDA0004061269830000043
相加得到/>
Figure FDA0004061269830000044
并使用su,i作为密钥,然后利用加密算法AE.enc()进行加密后,将加密的训练结果Oi上传给边缘服务器,加密公式如下:
Figure FDA0004061269830000045
7.根据权利要求6所述的一种边缘场景下轻量级的可信联邦学习方法,其特征在于,所述步骤(3)中,边缘服务器的解密过程为:边缘服务器得到ei,u后利用对称密钥su,i和解密算法AE.dec()进行解密,解密公式如下:
Figure FDA0004061269830000046
在第t轮训练中,掩码结果的计算公式如下:
Figure FDA0004061269830000047
式中,
Figure FDA0004061269830000048
代表第t轮终端设备ei训练的结果,/>
Figure FDA0004061269830000049
表示第(t-1)轮的掩码结果。/>
CN202310061325.XA 2023-01-20 2023-01-20 一种边缘场景下轻量级的可信联邦学习方法 Pending CN116187482A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310061325.XA CN116187482A (zh) 2023-01-20 2023-01-20 一种边缘场景下轻量级的可信联邦学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310061325.XA CN116187482A (zh) 2023-01-20 2023-01-20 一种边缘场景下轻量级的可信联邦学习方法

Publications (1)

Publication Number Publication Date
CN116187482A true CN116187482A (zh) 2023-05-30

Family

ID=86435931

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310061325.XA Pending CN116187482A (zh) 2023-01-20 2023-01-20 一种边缘场景下轻量级的可信联邦学习方法

Country Status (1)

Country Link
CN (1) CN116187482A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116644802A (zh) * 2023-07-19 2023-08-25 支付宝(杭州)信息技术有限公司 模型训练方法及装置
CN117311294A (zh) * 2023-11-28 2023-12-29 张家港大裕橡胶制品有限公司 基于云边融合的橡胶手套生产设备自决策控制方法
CN117951715A (zh) * 2023-12-13 2024-04-30 天翼云科技有限公司 一种基于模型压缩和数据加密的联邦学习方法
CN117951715B (zh) * 2023-12-13 2024-07-30 天翼云科技有限公司 一种基于模型压缩和数据加密的联邦学习方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116644802A (zh) * 2023-07-19 2023-08-25 支付宝(杭州)信息技术有限公司 模型训练方法及装置
CN117311294A (zh) * 2023-11-28 2023-12-29 张家港大裕橡胶制品有限公司 基于云边融合的橡胶手套生产设备自决策控制方法
CN117311294B (zh) * 2023-11-28 2024-02-23 张家港大裕橡胶制品有限公司 基于云边融合的橡胶手套生产设备自决策控制方法
CN117951715A (zh) * 2023-12-13 2024-04-30 天翼云科技有限公司 一种基于模型压缩和数据加密的联邦学习方法
CN117951715B (zh) * 2023-12-13 2024-07-30 天翼云科技有限公司 一种基于模型压缩和数据加密的联邦学习方法

Similar Documents

Publication Publication Date Title
Hao et al. Towards efficient and privacy-preserving federated deep learning
Yin et al. A comprehensive survey of privacy-preserving federated learning: A taxonomy, review, and future directions
Xu et al. Privacy-preserving federated deep learning with irregular users
El Ouadrhiri et al. Differential privacy for deep and federated learning: A survey
Li et al. Privacy-preserving federated learning framework based on chained secure multiparty computing
Wan et al. Privacy-preserving blockchain-enabled federated learning for B5G-Driven edge computing
CN116187482A (zh) 一种边缘场景下轻量级的可信联邦学习方法
CN112668044B (zh) 面向联邦学习的隐私保护方法及装置
Hu et al. Achieving privacy-preserving and verifiable support vector machine training in the cloud
CN108647525B (zh) 可验证的隐私保护单层感知机批量训练方法
Mendis et al. A blockchain-powered decentralized and secure computing paradigm
Liu et al. Secure multi-label data classification in cloud by additionally homomorphic encryption
Kalapaaking et al. Blockchain-based federated learning with SMPC model verification against poisoning attack for healthcare systems
He et al. Clustered federated learning with adaptive local differential privacy on heterogeneous iot data
Mao et al. Privacy-preserving computation offloading for parallel deep neural networks training
CN115017541A (zh) 一种云边端协同的泛在智能联邦学习隐私保护***及方法
CN114930357A (zh) 经由梯度提升的隐私保护机器学习
Wei et al. Privacy-preserving two-parties logistic regression on vertically partitioned data using asynchronous gradient sharing
Li et al. Ubiquitous intelligent federated learning privacy-preserving scheme under edge computing
Zhu et al. Enhanced federated learning for edge data security in intelligent transportation systems
Liu et al. High-accuracy low-cost privacy-preserving federated learning in IoT systems via adaptive perturbation
EP4266220A1 (en) Method for efficient machine learning
Zhang et al. Secure Aggregation in Heterogeneous Federated Learning for Digital Ecosystems
Hayati et al. Privacy-preserving federated learning via system immersion and random matrix encryption
Wu et al. Efficient privacy-preserving federated learning for resource-constrained edge devices

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination