CN111985562A - 一种保护端侧隐私的端云协同训练*** - Google Patents
一种保护端侧隐私的端云协同训练*** Download PDFInfo
- Publication number
- CN111985562A CN111985562A CN202010841142.6A CN202010841142A CN111985562A CN 111985562 A CN111985562 A CN 111985562A CN 202010841142 A CN202010841142 A CN 202010841142A CN 111985562 A CN111985562 A CN 111985562A
- Authority
- CN
- China
- Prior art keywords
- cloud
- model
- loss
- aggregation model
- aggregation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Bioethics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明提供保护端侧隐私的端云协同训练***,其中,聚合模型存储部存储有至少预先训练得的云侧聚合模型,端侧通信部向云侧设备发送端侧聚合模型,云侧通信部接受端侧聚合模型,云侧自编码部处理云侧图像得伪图像,聚合模型处理部将伪图像分别输入端侧聚合模型和云侧聚合模型处理得到输出端侧聚合模型和输出云侧聚合模型,根据损失处理部处理得多个损失迭代部通过反向传播以及反复迭代来更新模型参数得到云侧训练伪图像生成器以及端云聚合模型。因此根据本发明能够在保护用户隐私的情况下,仍能高效稳定地聚合模型,具有保护用户隐私、聚合效果好、鲁棒性好、泛化能力佳等优点,适用于用户设备之间模型聚合、端云协同训练等实际应用。
Description
技术领域
本发明涉及一种保护端侧隐私的端云协同训练***,属于机器学习技术领域。
背景技术
联邦学习是一种新兴的人工智能基础技术,其设计目标是在大数据交换时,为保障信息安全、保护终端数据和个人数据隐私、保证合法合规而在多参与方或多计算节点之间开展高效率的机器学习使得逐渐产生了端侧和云侧的区分,进而存在了端云协同训练的思想。
由于用户域数据与开发数据差异较大并且开发训练数据存储部无法覆盖所有用户场景,导致很多未见场景、类别识别错误或不支持。另外由于不同用户数据分布差异较大,统一部署的模型无法满足用户个性化需求进而深度地进行个性化识别模型训练,导致模型更新难度大。事实上,通常所说的云侧提供了充足的存储资源和计算资源,因此端云协同训练便是针对不同用户使用场景进行差异化分析和处理,从而持续提升模型性能。
根据数据去中心化的原则,在设置端云协同训练,用户终端在中心服务器的协调下协同训练模型并且保持训练数据分散的做法减轻了由于传统的集中机器学习和数据科学方法带来的许多***隐私风险和成本。根据数据中心化原则来协同训练模型的领域研究和引用的角度都引起了AI领域的广泛关注和极大兴趣[1-2]。
如何在保护用户隐私的情况下,仍然能高效稳定的进行模型聚合是端云协同训练进一步研究的难点。现有的直接平均模型权重的端云模型平均法和加密方在根本上都无法在准确的针对用户数据进行有效地保护端侧隐私。
直接平均模型权重的端云模型平均法[3]虽然对于保护用户隐私有很好的效果但是暴力的直接平均算法对于模型权重而言并不是很好的策略。加密法[4-5]虽然在一定程度上能够提高端侧数据的安全性,但端侧信息仍然因为离开了设备而没有从根源上保证用户隐私,此外加密操作还增加了计算复杂度。
[1]杨强,刘洋,陈天健,童咏昕,“联邦学习”。中国计算机学会通信,第14卷,第11期,2018年11月。
[2]杨强,“GDPR对AI的挑战和基于联邦迁移学习的对策”,.中国人工智能学会通信,第8卷,第8期2018年8月。
[3]H.Brendan McMahan,Eider Moore,Daniel Ramage,and Blaise Agüera yArcas.2016.Federated Learning of DeepNetworks using Model Averaging.CoRR abs/1602.05629(2016).arXiv:1602.05629
[4]Qiang Yang,Yang Liu,Tianjian Chen,Yongxin Tong."Federated MachineLearning:Concept and Applications".ACM Transactions on Intelligent Systemsand Technology(TIST),Volume 10 Issue 2,February 2019.
[5]Jakub Konecny,H.Brendan McMahan,Felix X.Yu,Peter Richtárik,AnandaTheertha Suresh,and Dave Bacon.2016.Federated Learning:Strategies forImproving Communication Efficiency[7]
发明内容
本发明为解决上述问题,提供一种保护端侧隐私的端云协同训练***,本发明采用了以下结构:
本发明提供了一种保护端侧隐私的端云协同训练***,其特征在于,包括:云侧设备以及与该云侧设备相通信连接的端侧设备,其中,云端设备包含云侧数据存储部、云侧自编码部、聚合模型存储部、损失处理部、聚合模型处理部、迭代部以及云侧通信部,端侧设备包含端侧数据存储部、端侧聚合模型存储部以及端侧通信部,端侧数据存储部存储有端侧图像以及相应的端侧标签,端侧聚合模型存储部有基于端侧图像以及端侧数据预先训练得到的端侧聚合模型,云侧数据存储部用于存储云侧图像以及相应的云侧标签,聚合模型存储部存储有至少根据云侧图像预先训练得到的云侧聚合模型,端侧通信部向云侧设备发送端侧聚合模型,云侧通信部接受来自端侧设备发送的端侧聚合模型,云侧自编码部用于将云侧图像以及相应的云侧标签进行处理得到伪图像以及原有的云侧标签,聚合模型处理部将伪图像分别输入端侧聚合模型和云侧聚合模型并处理得到输出端侧聚合模型和输出云侧聚合模型,损失处理部基于图像、伪图像、输出云侧聚合模型以及输出端侧聚合模型进行处理得到相应的多个损失,迭代部利用损失进行反向传播通过反复迭代来更新模型参数得到云侧训练伪图像生成器以及完成端云协同训练的端云聚合模型。其中,伪图像所对应的云侧标签与图像所对应的云侧标签相同。
本发明提供的一种保护端侧隐私的端云协同训练***,还可以具有这样的技术特征,其中,损失为重构损失、端侧损失、蒸馏损失以及训练损失,分别为:损失处理部根据图像和伪图像计算得到的均方误差为重构损失,损失处理部根据输出端侧聚合模型与云侧标签计算得到的交叉熵为端侧损失,损失处理部根据输出云侧聚合模型与输出端侧聚合模型计算得到的为蒸馏损失,损失处理部根据输出云侧聚合模型与云侧标签计算得到的交叉熵为训练损失,云侧训练伪图像生成器利用重构损失与端侧损失进行反向传播通过反复迭代来更新模型参数得到的,云侧训练聚合模型由利用蒸馏损失与训练损失进行反向传播通过反复迭代来更新模型参数得到的。
本发明提供的一种保护端侧隐私的端云协同训练***,还可以具有这样的技术特征,其中,当存在多个端侧设备时,聚合模型存储部将当前端云聚合模型作为新的云侧聚合模型进行存储。
本发明提供的一种保护端侧隐私的端云协同训练***,还可以具有这样的技术特征,其中,利用LeNet-5网络的端侧模型通过根据Fashion-MNIST数据分布的端侧数据存储部进行模型训练,利用LeNet-5网络的云侧模型通过利用MNIST数据分布的云侧数据存储部进行模型训练。
发明作用与效果
根据本发明的一种保护端侧隐私的端云协同训练***,由于将预先根据端侧数据训练得到的端侧聚合模型发送到云侧设备中,再将由云侧自编码处理云侧图像得到的伪图像分别输入端侧聚合模型和云侧聚合模型中得到输出端侧聚合模型和输出云侧聚合模型,然后根据基于图像、伪图像、输出云侧聚合模型以及输出端侧聚合模型处理得当多个损失进行反向传播通过反复迭代来更新模型参数得到云侧训练伪图像生成器以及完成端云协同训练的端云聚合模型。因此根据本发明提供的一种保护端侧隐私的端云协同训练***能够在保护用户隐私的情况下,仍然能高效稳定的进行模型聚合,具有保护用户隐私、聚合效果好、鲁棒性好、泛化能力佳等优点,非常适用于用户设备之间模型聚合、端云协同训练等实际应用。根据不同端侧给云侧提供了充足的存储资源和计算资源,因此端云协同训练便是针对不同用户使用场景进行差异化分析和处理,从而持续提升模型性能。
附图说明
图1是本发明实施例中的一种保护端侧隐私的端云协同训练***的框架图;
图2是本发明实施例中的一种保护端侧隐私的端云协同训练***的示意图;
图3是本发明实施例中的一种保护端侧隐私的端云协同训练***的流程图;以及
图4是本发明实施例中在端云数据分布差异较大情况下的实验结果。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下结合实施例及附图对本发明的一种保护端侧隐私的端云协同训练***作具体阐述。
<实施例>
图1是本发明实施例中的一种保护端侧隐私的端云协同训练***的框架图。
图2是本发明实施例中的一种保护端侧隐私的端云协同训练***的示意图。
如图1及图2所示,一种保护端侧隐私的端云协同训练***100中的包含端侧设备101、云侧设备102以及该端侧设备101与云侧设备102之间的通信通道103。
端侧设备101为存储有相关用户隐私的信息的设备。
其中,端侧设备101可以包括手机、嵌入式设备、NPU等。
端侧设备101包含端侧数据存储部11、端侧聚合模型存储部12、端侧通信部13以及用于控制上述各部的端侧控制部14。
端侧数据存储部11存储有携带端侧数据隐私的端侧图像以及相应的端侧标签。
在本实施例中,端侧数据存储部11分布为Fashion-MNIST数据,包含10类常见物品的图像和标签。
端侧聚合模型存储部12有基于端侧图像预先训练得到的端侧聚合模型。
本实施例中,通过mini-batch SGD的训练方式对于端侧图像进行处理得到端侧聚合模型。端侧聚合模型为LeNet-5网络,由单通道图像输入,设置10个输出节点。
在本实施例中,mini-batch SGD的训练过程是将图像分批送入端侧网络中,得到网络输出,将得到的网络输出与数据标签计算交叉熵损失函数并反向传播计算网络各参数的梯度从而更新参数。
端侧通信部13定期向云侧设备102发送端侧聚合模型。
其中端侧通信部13在端侧模型更新完毕,且端侧设备101闲置时(处于充电及联网的夜间时刻)向云侧数据102发送端侧聚合模型。
云侧设备102为根据端侧设备101上传的信息进行处理用以更新模型的设备。
其中,云端设备102包含云侧数据存储部21、聚合模型存储部22、云侧自编码部23、聚合模型处理部24、损失处理部25、云侧通信部26、迭代部27以及用于控制上述各部的云侧控制部28。
云侧数据存储部21用于存储云侧图像以及相应的云侧标签。
在本实施例中,云侧数据存储部21分布为MNIST数据,包含10类手写体数字的图像和标签。
聚合模型存储部22存储有至少根据云侧图像预先训练得到的云侧聚合模型。
本实施例中,通过mini-batch SGD的训练方式对于端侧图像进行处理得到端侧聚合模型。云侧聚合模型为LeNet-5网络,由单通道图像输入,设置10个输出节点。
云侧自编码部23用于将云侧图像以及相应的云侧标签进行处理得到伪图像以及云侧标签。
其中,云侧自编码部23的结构包含一个编码器和一个解码器,自编码器将输入的原始图像经过编码器得到隐变量,并将隐变量送入解码器得到新的图像。
伪图像所对应的云侧标签与图像所对应的云侧标签相同。
聚合模型处理部24将伪图像和云侧真实图像同时送入聚合模型。
在本实施例中,聚合模型处理部24为一个聚合模型,同时接收云侧真实图像和伪图像,并计算相关损失函数。
损失处理部25基于图像、伪图像、输出云侧聚合模型以及输出端侧聚合模型进行处理得到相应的多个损失。
其中,损失为重构损失、端侧损失、蒸馏损失以及训练损失,分别为:
重构损失为损失处理部25根据图像和伪图像计算得到的均方误差。
端侧损失为损失处理部25根据输出端侧聚合模型与云侧标签计算得到的交叉熵。
蒸馏损失为损失处理部25根据输出云侧聚合模型与输出端侧聚合模型计算得到的。
训练损失为损失处理部25根据输出云侧聚合模型与云侧标签计算得到的交叉熵。
其中,重构损失和端侧损失负责更新云侧伪图像生成器的参数,通过这个损失可以提升云侧伪图像生成器生成的伪样本的质量,从而帮助提升聚合效果;蒸馏损失和训练损失负责更新聚合模型的参数,通过这个损失可以训练聚合模型,一方面使得聚合模型的输出和端侧模型尽量相似,另一方面使得聚合模型学到云侧数据分布。
云侧通信部26接受来自端侧设备101发送的端侧聚合模型。
迭代部27利用损失进行反向传播通过反复迭代来更新模型参数得到云侧训练伪图像生成器以及完成端云协同训练的端云聚合模型。
其中,云侧伪图像生成器在结构上是云侧自编码部23的结构,包含一个编码器和一个解码器。输入为原始图像,经过编码器得到隐变量,随后将隐变量送入解码器得到新的图像,并且云侧训练伪图像生成器通过利用重构损失与端侧损失进行反向传播通过反复迭代来更新模型参数得到的。
云侧训练聚合模型利用蒸馏损失与训练损失进行反向传播通过反复迭代来更新模型参数得到的。
当存在多个端侧设备101时,聚合模型处理部24将当前端云聚合模型作为新的云侧聚合模型进行存储,由此循环往复以融合。
图3是本发明实施例中的一种保护端侧隐私的端云协同训练***100的流程图。
如图3所示,一种保护端侧隐私的端云协同训练***100的流程包含如下步骤:
步骤1,由端侧通信部13向云侧设备101发送端侧聚合模型,然后进入步骤2。
步骤2,由云侧通信部22接受来自端侧设备101发送的端侧聚合模型,然后进入步骤3。
步骤3,云侧图像以及相应的云侧标签经过云侧自编码部23处理得到伪图像以及原有的云侧标签,然后进入步骤4。
步骤4,将伪图像由聚合模型处理部25分别输入端侧聚合模型和云侧聚合模型并处理得到输出端侧聚合模型和输出云侧聚合模型,然后进入步骤5。
步骤5,根据图像、伪图像、输出云侧聚合模型以及输出端侧聚合模型经损失处理部26处理得到相应的多个损失,然后进入步骤6。
步骤6,迭代部27利用损失进行反向传播通过反复迭代来更新模型参数得到云侧训练伪图像生成器以及完成端云协同训练的端云聚合模型,结束流程。
图4是本发明实施例中在端云数据分布差异较大情况下的实验结果。
如图4所示,端侧模型通过LeNet-5网络利用根据Fashion-MNIST数据分布的端侧数据存储部11进行模型训练,训练完毕后的端侧模型在根据Fashion-MNIST数据分布的端侧数据存储部11上具有99.1%的准确率,而在MNIST数据分布集上只有25.7%的准确率,因此平均准确率只有61.4%。
云侧模型通过LeNet-5网络利用MNIST数据分布进行模型训练,训练完毕后的端侧模型在MNIST数据分布集上具有98.9%的准确率,而在Fashion-MNIST数据分布集上只有24.2%的准确率,因此平均准确率只有62.2%。
完成端云协同训练的端云聚合模型在云侧MNIST分布中拥有88.4%的准确率,在端侧Fashion-MNIST分布中拥有67.1%的准确率,因此平均准确率为78.1%,较之端侧模型有较好的提升。
实施例作用与效果
根据本发明的一种保护端侧隐私的端云协同训练***,由于将预先根据端侧数据训练得到的端侧聚合模型发送到云侧设备中,再将由云侧自编码处理云侧图像得到的伪图像分别输入端侧聚合模型和云侧聚合模型中得到输出端侧聚合模型和输出云侧聚合模型,然后根据基于图像、伪图像、输出云侧聚合模型以及输出端侧聚合模型处理得当多个损失进行反向传播通过反复迭代来更新模型参数得到云侧训练伪图像生成器以及完成端云协同训练的端云聚合模型。因此根据本发明提供的一种保护端侧隐私的端云协同训练***能够在保护用户隐私的情况下,仍然能高效稳定的进行模型聚合,具有保护用户隐私、聚合效果好、鲁棒性好、泛化能力佳等优点,非常适用于用户设备之间模型聚合、端云协同训练等实际应用。
另外,实施例中,加入重构损失的概念能够使得伪图像和图像具有一定的相似度从而能够加速伪样本生成器的训练速度。加入端侧损失的概念使得生成的伪样本在端侧网络中能得到正确且评分较高的输出。加入蒸馏损失的概念使得云侧聚合模型和端侧聚合模型具有相似的输出。加入训练损失的概念避免了云侧聚合模型与端侧网络越来越相似但并没有学习到云侧的信息导致无法达不到模型聚合的目的。针对在数据处理时可能会出现的损失,本发明通过迭代的方法拉近用户域数据与开发数据差异、减少未见场景未见类别、识别错误以及识别不支持的情况发生,从而使得开发训练数据存储部覆盖大多数用户场景。
另外,实施例中,云侧训练伪图像生成器根据输入的图像进行处理从而会获得具有与原图像具有相同标签的伪图像,由于伪图像与原图像本质上不是相同的图像,因此该伪图像在表达与原图像相同标签的同时,能够对原图像中包含的隐私数据起到保护作用。端云聚合模型在迭代的过程中学习到如何针对不同的图像进行处理得到既能表达并保护隐私数据,又能融合端云模型的聚合模型。
另外,实施例中,当存在多个端侧设备时,在计算损失和模型时,计算对象均包含上一个云侧聚合模型,因此使得统一部署的模型能够满足用户个性化需求进而深度地进行个性化识别模型训练,使得模型更新难度减小,针对不同用户使用场景进行差异化分析和处理,从而持续提升模型性能,根据不同端侧给云侧提供了充足的存储资源和计算资源,因此端云协同训练便是针对不同用户使用场景进行差异化分析和处理,从而持续提升模型性能。
上述实施例仅用于举例说明本发明的具体实施方式,而本发明不限于上述实施例的描述范围。
Claims (4)
1.一种保护端侧隐私的端云协同训练***,其特征在于,包括:
云侧设备以及与该云侧设备相通信连接的端侧设备,
其中,所述云端设备包含云侧数据存储部、云侧自编码部、聚合模型存储部、损失处理部、聚合模型处理部、迭代部以及云侧通信部,
所述端侧设备包含端侧数据存储部、端侧聚合模型存储部以及端侧通信部,
所述端侧数据存储部存储有端侧图像以及相应的所述端侧标签,
所述端侧聚合模型存储部有基于所述端侧图像预先训练得到的所述端侧聚合模型,
所述云侧数据存储部用于存储云侧图像以及相应的云侧标签,
所述聚合模型存储部存储有至少根据云侧图像预先训练得到的云侧聚合模型,
所述端侧通信部向所述云侧设备发送所述端侧聚合模型,
所述云侧通信部接受来自所述端侧设备发送的所述端侧聚合模型,
所述云侧自编码部用于将所述云侧图像以及相应的所述云侧标签进行处理得到伪图像以及原有的所述云侧标签,
所述聚合模型处理部将所述伪图像分别输入所述端侧聚合模型和所述云侧聚合模型并处理得到输出端侧聚合模型和输出云侧聚合模型,
所述损失处理部基于所述图像、所述伪图像、输出云侧聚合模型以及输出端侧聚合模型进行处理得到相应的多个损失,
迭代部利用所述损失进行反向传播通过反复迭代来更新模型参数得到云侧训练伪图像生成器以及完成端云协同训练的端云聚合模型,
其中,所述伪图像所对应的所述云侧标签与所述图像所对应的所述云侧标签相同。
2.根据权利要求1所述的一种保护端侧隐私的端云协同训练***,其特征在于:
其中,所述损失为重构损失、端侧损失、蒸馏损失以及训练损失,分别为:
所述损失处理部根据所述图像和所述伪图像计算得到的均方误差为重构损失,
所述损失处理部根据所述输出端侧聚合模型与所述云侧标签计算得到的交叉熵为端侧损失,
所述损失处理部根据所述输出云侧聚合模型与所述输出端侧聚合模型计算得到的为蒸馏损失,
所述损失处理部根据所述输出云侧聚合模型与所述云侧标签计算得到的交叉熵为训练损失,
所述云侧训练伪图像生成器利用所述重构损失与所述端侧损失进行反向传播通过反复迭代来更新模型参数得到的,
所述云侧训练聚合模型由利用所述蒸馏损失与所述训练损失进行反向传播通过反复迭代来更新模型参数得到的。
3.根据权利要求1所述的一种保护端侧隐私的端云协同训练***,其特征在于:
其中,当存在多个端侧设备时,所述聚合模型处理部将当前所述输出端云聚合模型作为新的所述云侧聚合模型进行存储。
4.根据权利要求1所述的一种保护端侧隐私的端云协同训练***,其特征在于:
其中,利用LeNet-5网络的端侧模型通过利用Fashion-MNIST数据分布的端侧数据存储部进行模型训练,
利用LeNet-5网络的云侧模型通过利用MNIST数据分布的云侧数据部进行模型训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010841142.6A CN111985562B (zh) | 2020-08-20 | 2020-08-20 | 一种保护端侧隐私的端云协同训练*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010841142.6A CN111985562B (zh) | 2020-08-20 | 2020-08-20 | 一种保护端侧隐私的端云协同训练*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111985562A true CN111985562A (zh) | 2020-11-24 |
CN111985562B CN111985562B (zh) | 2022-07-26 |
Family
ID=73443456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010841142.6A Active CN111985562B (zh) | 2020-08-20 | 2020-08-20 | 一种保护端侧隐私的端云协同训练*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111985562B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113379708A (zh) * | 2021-02-26 | 2021-09-10 | 山东大学 | 一种基于联邦学习的空调外机外观检测方法及*** |
CN113807536A (zh) * | 2021-04-01 | 2021-12-17 | 京东科技控股股份有限公司 | 一种数据处理方法、装置及电子设备 |
CN114154645A (zh) * | 2021-12-03 | 2022-03-08 | 中国科学院空间应用工程与技术中心 | 跨中心图像联合学习方法、***、存储介质及电子设备 |
WO2023093129A1 (zh) * | 2021-11-23 | 2023-06-01 | 广东跃昉科技有限公司 | 物联网架构以及应用于物联网架构的数据处理方法 |
CN117097797A (zh) * | 2023-10-19 | 2023-11-21 | 浪潮电子信息产业股份有限公司 | 云边端协同方法、装置、***、电子设备及可读存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008696A (zh) * | 2019-03-29 | 2019-07-12 | 武汉大学 | 一种面向深度联邦学习的用户数据重建攻击方法 |
US20190220703A1 (en) * | 2019-03-28 | 2019-07-18 | Intel Corporation | Technologies for distributing iterative computations in heterogeneous computing environments |
CN110069706A (zh) * | 2019-03-25 | 2019-07-30 | 华为技术有限公司 | 数据处理的方法、端侧设备、云侧设备和端云协同*** |
CN110572253A (zh) * | 2019-09-16 | 2019-12-13 | 济南大学 | 一种联邦学习训练数据隐私性增强方法及*** |
CN110738309A (zh) * | 2019-09-27 | 2020-01-31 | 华中科技大学 | Ddnn的训练方法和基于ddnn的多视角目标识别方法和*** |
CN110825970A (zh) * | 2019-11-07 | 2020-02-21 | 浙江同花顺智能科技有限公司 | 一种信息推荐方法、装置、设备及计算机可读存储介质 |
CN110942154A (zh) * | 2019-11-22 | 2020-03-31 | 深圳前海微众银行股份有限公司 | 基于联邦学习的数据处理方法、装置、设备及存储介质 |
CN111131771A (zh) * | 2019-12-12 | 2020-05-08 | 中国科学院深圳先进技术研究院 | 一种视频监控*** |
CN111190487A (zh) * | 2019-12-30 | 2020-05-22 | 中国科学院计算技术研究所 | 一种建立数据分析模型的方法 |
CN111310932A (zh) * | 2020-02-10 | 2020-06-19 | 深圳前海微众银行股份有限公司 | 横向联邦学习***优化方法、装置、设备及可读存储介质 |
CN111414937A (zh) * | 2020-03-04 | 2020-07-14 | 华东师范大学 | 物联网场景下提升多分支预测单模型鲁棒性的训练方法 |
CN111553488A (zh) * | 2020-07-10 | 2020-08-18 | 支付宝(杭州)信息技术有限公司 | 一种针对用户行为的风险识别模型训练方法及*** |
-
2020
- 2020-08-20 CN CN202010841142.6A patent/CN111985562B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110069706A (zh) * | 2019-03-25 | 2019-07-30 | 华为技术有限公司 | 数据处理的方法、端侧设备、云侧设备和端云协同*** |
US20190220703A1 (en) * | 2019-03-28 | 2019-07-18 | Intel Corporation | Technologies for distributing iterative computations in heterogeneous computing environments |
CN110008696A (zh) * | 2019-03-29 | 2019-07-12 | 武汉大学 | 一种面向深度联邦学习的用户数据重建攻击方法 |
CN110572253A (zh) * | 2019-09-16 | 2019-12-13 | 济南大学 | 一种联邦学习训练数据隐私性增强方法及*** |
CN110738309A (zh) * | 2019-09-27 | 2020-01-31 | 华中科技大学 | Ddnn的训练方法和基于ddnn的多视角目标识别方法和*** |
CN110825970A (zh) * | 2019-11-07 | 2020-02-21 | 浙江同花顺智能科技有限公司 | 一种信息推荐方法、装置、设备及计算机可读存储介质 |
CN110942154A (zh) * | 2019-11-22 | 2020-03-31 | 深圳前海微众银行股份有限公司 | 基于联邦学习的数据处理方法、装置、设备及存储介质 |
CN111131771A (zh) * | 2019-12-12 | 2020-05-08 | 中国科学院深圳先进技术研究院 | 一种视频监控*** |
CN111190487A (zh) * | 2019-12-30 | 2020-05-22 | 中国科学院计算技术研究所 | 一种建立数据分析模型的方法 |
CN111310932A (zh) * | 2020-02-10 | 2020-06-19 | 深圳前海微众银行股份有限公司 | 横向联邦学习***优化方法、装置、设备及可读存储介质 |
CN111414937A (zh) * | 2020-03-04 | 2020-07-14 | 华东师范大学 | 物联网场景下提升多分支预测单模型鲁棒性的训练方法 |
CN111553488A (zh) * | 2020-07-10 | 2020-08-18 | 支付宝(杭州)信息技术有限公司 | 一种针对用户行为的风险识别模型训练方法及*** |
Non-Patent Citations (5)
Title |
---|
TAO LIN 等: ""Ensemble distillation for robust model fusion in federated learning"", 《NEURIPS 2020》 * |
YAQI WANG 等: ""Learning geographically distributed data for multiple tasks using generative adversarial networks"", 《2019IEEE》 * |
YU LI 等: ""Asymmetric GAN for unpaired image-to-image translation"", 《IEEE》 * |
谭作文 等: ""机器学习隐私保护研究综述"", 《软件学报》 * |
陈晋音等: "深度学习模型的中毒攻击与防御综述", 《信息安全学报》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113379708A (zh) * | 2021-02-26 | 2021-09-10 | 山东大学 | 一种基于联邦学习的空调外机外观检测方法及*** |
CN113807536A (zh) * | 2021-04-01 | 2021-12-17 | 京东科技控股股份有限公司 | 一种数据处理方法、装置及电子设备 |
CN113807536B (zh) * | 2021-04-01 | 2024-04-16 | 京东科技控股股份有限公司 | 一种数据处理方法、装置及电子设备 |
WO2023093129A1 (zh) * | 2021-11-23 | 2023-06-01 | 广东跃昉科技有限公司 | 物联网架构以及应用于物联网架构的数据处理方法 |
CN114154645A (zh) * | 2021-12-03 | 2022-03-08 | 中国科学院空间应用工程与技术中心 | 跨中心图像联合学习方法、***、存储介质及电子设备 |
CN114154645B (zh) * | 2021-12-03 | 2022-05-17 | 中国科学院空间应用工程与技术中心 | 跨中心图像联合学习方法、***、存储介质及电子设备 |
CN117097797A (zh) * | 2023-10-19 | 2023-11-21 | 浪潮电子信息产业股份有限公司 | 云边端协同方法、装置、***、电子设备及可读存储介质 |
CN117097797B (zh) * | 2023-10-19 | 2024-02-09 | 浪潮电子信息产业股份有限公司 | 云边端协同方法、装置、***、电子设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111985562B (zh) | 2022-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111985562B (zh) | 一种保护端侧隐私的端云协同训练*** | |
CN113657607B (zh) | 一种面向联邦学习的连续学习方法 | |
CN113609398A (zh) | 一种基于异构图神经网络的社交推荐方法 | |
CN111210002B (zh) | 一种基于生成对抗网络模型的多层学术网络社区发现方法、*** | |
Xiao et al. | Reasoning on the air: An implicit semantic communication architecture | |
CN113392919A (zh) | 基于客户端选择的联邦注意力dbn协同检测*** | |
CN113850399A (zh) | 一种基于预测置信度序列的联邦学习成员推断方法 | |
Wei et al. | Federated Semantic Learning Driven by Information Bottleneck for Task-Oriented Communications | |
CN117391816A (zh) | 一种异质图神经网络推荐方法、装置及设备 | |
Hu et al. | Consensus of a novel heuristic nonlinear multi-agent system in DOS attack network environment via saturation impulse control mechanism | |
CN115438753B (zh) | 一种基于生成的衡量联邦学习协议数据安全性的方法 | |
CN116703553A (zh) | 金融反欺诈风险监控方法、***及可读存储介质 | |
CN115131605A (zh) | 一种基于自适应子图的结构感知图对比学习方法 | |
CN116226547A (zh) | 基于流式数据的增量图推荐方法 | |
CN116307022A (zh) | 一种舆情热点信息预测方法及*** | |
CN111935259B (zh) | 目标帐号集合的确定方法和装置、存储介质及电子设备 | |
CN113297500A (zh) | 一种社交网络孤立节点链接预测方法 | |
CN113191144A (zh) | 一种基于传播影响力的网络谣言识别***及方法 | |
Danner et al. | Decentralized machine learning using compressed push-pull averaging | |
Su et al. | An Enhancing Semi-Supervised Federated Learning Framework for Internet of Vehicles | |
CN113807536B (zh) | 一种数据处理方法、装置及电子设备 | |
Yang et al. | FedMAE: Federated Self-Supervised Learning with One-Block Masked Auto-Encoder | |
Xing et al. | A novel social network structural balance based on the particle swarm optimization algorithm | |
CN116450738A (zh) | 一种基于区块链的深度神经网络模型联邦重组方法及*** | |
Wang et al. | Finding critical edges in networks through deep reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |