CN111860832A - 一种基于联邦学习的增强神经网络防御能力的方法 - Google Patents

一种基于联邦学习的增强神经网络防御能力的方法 Download PDF

Info

Publication number
CN111860832A
CN111860832A CN202010618973.7A CN202010618973A CN111860832A CN 111860832 A CN111860832 A CN 111860832A CN 202010618973 A CN202010618973 A CN 202010618973A CN 111860832 A CN111860832 A CN 111860832A
Authority
CN
China
Prior art keywords
model
neural network
data
federal learning
federal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010618973.7A
Other languages
English (en)
Inventor
顾钊铨
李鉴明
仇晶
王乐
唐可可
韩伟红
贾焰
方滨兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Guangzhou University
Original Assignee
Guangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou University filed Critical Guangzhou University
Priority to CN202010618973.7A priority Critical patent/CN111860832A/zh
Publication of CN111860832A publication Critical patent/CN111860832A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/04Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks
    • H04L63/0428Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks wherein the data content is protected, e.g. by encrypting or encapsulating the payload

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Bioethics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于联邦学习的增强神经网络防御能力的方法,包括以下步骤:S1、利用联邦学习,使数据留在本地并防止数据隐私泄露,协同各方进行分布式的模型训练,对中间结果进行加密以保护数据安全,汇总后融合多方模型得到联邦模型。S2、建立对抗样本,并采用算法对对抗样本进行快速寻找。该方法把联邦学习和神经网络模型的训练过程结合起来,解决了处于隐私保护的考虑以及法律法规限制而导致的数据集不能流通的困境,省去了数据收集的麻烦,同时使得神经网络模型的训练集更加丰富,更加独立,克服了由于训练集不完备导致的神经网络模型容易被对抗样本攻击的能力。

Description

一种基于联邦学习的增强神经网络防御能力的方法
技术领域
本发明涉及人工智能安全技术领域,特别的为一种基于联邦学习的增强神经网络防御能力的方法。
背景技术
对抗样本(Adversarial Examples)是指在输入样本添加难以人为分辨的细微干扰,导致机器学习模型(如神经网络)以高置信度给出一个错误的输出。对抗样本的存在证实了现有机器学习模型自身仍存在安全问题,因而限制了人工智能(AI)在安全性要求较高的领域(如自动驾驶)的应用和发展。论文“Intriguing Propertiesof Neural Networks”(Christian Szegedy,Wojciech Zaremba,etal.IntriguingPropertiesofNeuralNetworks.In ICLR,2014.)提出对抗样本的概念并证明了对抗样本对不同结构以及不同训练集训练的模型具有普遍性。从此,针对图像领域的对抗攻击和防御引起了研究热潮。
为了增强神经网络的防御能力,一种思路是改进神经网络模型架构,让神经网络模型架构具有某些特性,如论文“Fortified networks:Improving the robustness ofdeep networks by modeling the manifold of hidden representations”提出强化网络(fortified networks),在模型关键位置***自动编码器进行去噪,从而降低对抗样本对神经网络模型的攻击,从而增强神经网络的防御能力;另一种思路是寻找尽量大的数据集进行训练,以增强机器学习模型的安全性和鲁棒性。其中最经典的做法是使用生成的对抗样本进行再训练,即在原有的数据集中扩充对抗样本,该方法称为对抗学习(如论文Learning with a strong adversary),能有效防御对抗样本的攻击,增强神经网络模型的防御能力。
其中,第一种方法的不足在于神经网络模型架构很复杂,修改神经网络模型架构难度很大,同时,神经网络模型运行的机理缺乏可解释性,即使修改了以后的神经网络模型,由于其不可解释,依然存在被攻击的可能性;第二种方法相对而言更容易实现,通过扩充数据集进行学习,增强神经网络模型的防御能力。
然而,第二种方法面临下面介绍的一个难点:为了扩充数据集,可以从更多的用户、企业获取数据进行训练,但是随着大众对隐私保护的意识增强,数据收集变得困难;《中华人民共和国网络空间安全法》要求企业不能泄露或篡改收集到的用户个人信息,在与第三方进行数据交易时必须履行数据保护义务。《中华人民共和国电子商务法》对电子商务环境下个人信息保护提出了更高要求,欧盟的《通用数据保护条例》更是对用户信息的收集和使用提出了史上最严的要求。因此,传统的数据收集和使用方法不再适用,大数据驱动的人工智能面临着数据危机,简单地扩充数据集,对神经网络模型再训练的方法面临着数据共享、隐私泄露等安全隐患。
发明内容
本发明提供的发明目的在于提供一种基于联邦学习的增强神经网络防御能力的方法,该解决上述背景技术中的问题。
为实现以上目的,本发明通过以下技术方案予以实现:一种基于联邦学习的增强神经网络防御能力的方法,包括以下步骤:
S1、利用联邦学习,使数据留在本地并防止数据隐私泄露,协同各方进行分布式的模型训练,对中间结果进行加密以保护数据安全,汇总后融合多方模型得到联邦模型。
S2、建立对抗样本,并采用算法对对抗样本进行快速寻找。
进一步的,在S1中的操作步骤中,还包括以下步骤:
101、选取一个可信的服务器作为可信的第三方,参与模型训练的终端从服务器中下载共享的初始模型。
S102、各参与方利用本地存储的图片数据对下载的共享模型进行训练。
S103、各参与方对模型的中间结果进行加密,并通过安全协议把加密的中间结果上传服务器。
S104、服务器把各参与方的中间结果通过联邦模型融合算法融合起来,得到一个优化的共享模型。
进一步的,在S2中的操作步骤中,还包括以下步骤:
S201、数据的收集和整理,并集中起来形成数据集。
S202、图像在计算机里是以像素为单位用二进制进行存储。
S203、对优化问题进行解决即可得到对抗样本。
S204、采用对称正定迭代矩阵法或快速梯度符号法,即可快速查找图片的对抗样本。
进一步的,在S102中的操作步骤中,利用本地图片生成对应的对抗样本输入到训练模型中,用于提高对抗样本的防御能力。
进一步的,在S103中的操作步骤中,所述中间结果的加密算法包括但不限于同态加密算法。
进一步的,在S104中的操作步骤中,所述共享模型优于初始模型的算法包括但不限于FedAvg算法。
进一步的,重复步骤S102-S104,直到结果收敛并达到目的的条件。
本发明提供了一种基于联邦学习的增强神经网络防御能力的方法。具备以下有益效果:
该基于联邦学习的增强神经网络防御能力的方法,该方法把联邦学习和神经网络模型的训练过程结合起来,解决了处于隐私保护的考虑以及法律法规限制而导致的数据集不能流通的困境,省去了数据收集的麻烦,同时使得神经网络模型的训练集更加丰富,更加独立,克服了由于训练集不完备导致的神经网络模型容易被对抗样本攻击的能力,提升了模型防御对抗样本的能力,同时该方法提高了神经网络模型的学习能力以及防御对抗样本攻击的能力,使对抗样本的攻击有效性降低,增强了神经网络模型的防御能力和安全性。
附图说明
图1为现有技术下图片数据不流通的困境示意图;
图2为本发明的总流程图;
图3为本发明的增强神经网络防御能力的方法流程图;
图4为本发明的对抗样本生成流程图;
图5为本发明的增强神经网络防御能力的方法示意图。
具体实施方式
实施例1:参照图1-5:本发明提供一种基于联邦学习的增强神经网络防御能力的方法,包括以下步骤:
步骤一:利用联邦学习,省去了数据收集的麻烦,数据留在本地可以使数据隐私不往外泄露,协同各方进行分布式的模型训练,对中间结果进行加密以保护数据安全,最后汇总融合多方模型得到一个更好的联邦模型,增加了参与训练的数据集的丰富度,降低对抗样本的有效性。
以下为具体的实施步骤:
1)、选取一个可信的服务器作为可信的第三方,参与模型训练的终端(参与方,如企业、高校、科研院所、个人用户等)从服务器中下载共享的初始模型,如用于图像分类的神经网络模型inceptionV3;
2)、各参与方利用本地存储的图片数据对下载的共享模型进行训练,为提高对对抗样本的防御能力,可以利用本地图片生成对应的对抗样本输入到训练模型中;
3)、各参与方对模型的中间结果(如权重矩阵)进行加密(如同态加密等),并通过安全协议把加密的中间结果上传服务器;
4)、服务器把各参与方的中间结果通过联邦模型融合算法(如联邦平均算法FedAvg,Keith Bonawitz,Vladimir Ivanov,et al.Practical Secure Aggregation forPrivacy-Preserving Machine Learning,arXiv:1611.04482[cs.CR],2016)融合起来,得到一个优化的共享模型。假设令fi(w)=l(xi,yi;w)表示模型参数w对数据示例(xi,yi)的预测损失,k表示参与方总数,Pk表示参与方k上数据点的索引值,nk=|Pk|表示参与方k的数据样本总数,则可以令
Figure BDA0002564541080000051
其中
Figure BDA0002564541080000052
对于第t次迭代,参与方k计算本地梯度更新
Figure BDA0002564541080000053
其中
Figure BDA0002564541080000054
η表示学习率。每个参与方用同态加密得到本地加密后的梯度更新得到
Figure BDA0002564541080000055
服务器通过计算
Figure BDA0002564541080000056
即可得到第t轮联邦模型的梯度更新。这里用加性同态加密可以使得服务器不用对
Figure BDA0002564541080000057
进行解密即可运算,因为同态加密的良好性质是加密后计算和计算后加密结果是一致的,即
Figure BDA0002564541080000058
这样可以防止服务器得到中间结果,以此反推参与方的训练数据。当达到本次迭代最优时,服务器把更新后的模型参数w发送给各参与方,以继续进行后续的训练。
重复迭代2)-4)步骤,直到结果收敛或者达到目的条件。
具体而言,以提高inceptionV3模型对对抗样本防御能力为例。
选定一个各参与方都信任的服务器,或者各轮在各参与方随机选取一方作为可信的第三方,根据业务需求,有需要的提前在服务器部署好inceptionV3,并协商好用于加密中间结果的加密方法以及传输的安全协议,保证中间结果***露数据隐私。训练刚开始时各参与方从服务器中下载初始模型inceptionV3(若开始时参与方本地已经有inceptionV3则可以不去服务器下载)。各方模型准备好后开始利用本地图片数据进行训练,对本地产生的权重参数等中间结果用协商好的加密方法加密,并用协商好的协议传输到服务器。服务器采取FedAvg等算法对各方半模型进行融合,得到一个比开始时更优的inceptionV3。
步骤二:建立对抗样本,并采用算法对对抗样本进行快速寻找。
以下为具体的实施步骤:
1)、数据的收集和整理,并集中起来形成数据集。如机器学习图像领域来自NIST(美国国家标准与技术研究所)的手写数据集MNIST。MNIST训练集收集了250个不同人手写的数字,其中50%是高中学生,50%来自人口普查局的工作人员。测试集也是同样比例的手写数字数据。同是图像领域,CIFAR-10用于识别普适物体的小型数据集,由AlexKrizhevsky和Ilya Sutskever整理而成。这些数据集形成的过程都有把原始数据收集集中的过程。
2)、图像在计算机里是以像素为单位用二进制进行存储的,彩色图像是多个颜色通道在该像素点叠加的结果,如RGB(红、绿、蓝)三个颜色通道,每个通道的范围是[0,255],显示的时候是三个颜色通道数值叠加的结果。因此一个简单的图像自身包含了大量的二进制信息。以手写数字数据集MNIST(Yann LeCun.http://yann.lecun.com/exdb/mnist/)为例,MINIST包含60000张的训练数据集以及10000张的测试数据集,每一张图片都是一个手写数字,包含28*28个像素。每张图片展开得到一个1*784的向量,作为模型的输入。MNIST数据集图片对应0到9十个数字,经过一个10维的one-hot vectors(独热编码),可以把图片上的数据转换为对应的标签,如数字0的图片标签是[1,0,0,0,0,0,0,0,0,0],即图片上的数字对应的位为1,其余各维度数字都是0。把图片设为“x”,对应的标签设为“y”,即每张图片表示为[x,y],即可得到一个[60000,10]的训练集矩阵。
3)、求解优化问题Minimze c|r|+lossf(x+r,l)可以得到对抗样本,其中f表示一种将图像像素值向量映射到离散标签集的分类器,lossf是分类器关联的损失函数,x+r是最接近x的图像,被f分类为l,也就是对抗攻击里要得到的对抗样本。c是控制|r|大小的参数。求解以上问题可以找到一张图片对应的对抗样本,如对MNIST的数字0图片x添加扰动r,使得模型把0识别为1。
4)、对抗样本发生概率较低,因此在训练集和测试集中都很少出现;但对抗样本的分布又是密集的,可以通过一些算法快速找到一张图片的对抗样本,如L-BFGS(有限内存的对称正定迭代矩阵法,Christian Szegedy,Wojciech Zaremba,et al.IntriguingPropertiesof Neural Networks.In ICLR,2014.)、FGSM(快速梯度符号法,GoodfellowI,Shlens J,Szegedy C,et al.Explaining and Harnessing Adversarial Examples[J].2014.)等。
本发明中,该方法把联邦学习和神经网络模型的训练过程结合起来,解决了处于隐私保护的考虑以及法律法规限制而导致的数据集不能流通的困境,省去了数据收集的麻烦,同时使得神经网络模型的训练集更加丰富,更加独立,克服了由于训练集不完备导致的神经网络模型容易被对抗样本攻击的能力,提升了模型防御对抗样本的能力,同时该方法提高了神经网络模型的学习能力以及防御对抗样本攻击的能力,使对抗样本的攻击有效性降低,增强了神经网络模型的防御能力和安全性。
以上的仅是本发明的优选实施方式,应当指出,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (7)

1.一种基于联邦学习的增强神经网络防御能力的方法,其特征在于,包括以下步骤:
S1、利用联邦学习,使数据留在本地并防止数据隐私泄露,协同各方进行分布式的模型训练,对中间结果进行加密以保护数据安全,汇总后融合多方模型得到联邦模型;
S2、建立对抗样本,并采用算法对对抗样本进行快速寻找。
2.根据权利要求1所述的一种基于联邦学习的增强神经网络防御能力的方法,其特征在于,在S1中的操作步骤中,还包括以下步骤:
101、选取一个可信的服务器作为可信的第三方,参与模型训练的终端从服务器中下载共享的初始模型;
S102、各参与方利用本地存储的图片数据对下载的共享模型进行训练;
S103、各参与方对模型的中间结果进行加密,并通过安全协议把加密的中间结果上传服务器;
S104、服务器把各参与方的中间结果通过联邦模型融合算法融合起来,得到一个优化的共享模型。
3.根据权利要求1所述的一种基于联邦学习的增强神经网络防御能力的方法,其特征在于,在S2中的操作步骤中,还包括以下步骤:
S201、数据的收集和整理,并集中起来形成数据集;
S202、图像在计算机里是以像素为单位用二进制进行存储;
S203、对优化问题进行解决即可得到对抗样本;
S204、采用对称正定迭代矩阵法或快速梯度符号法,即可快速查找图片的对抗样本。
4.根据权利要求2所述的一种基于联邦学习的增强神经网络防御能力的方法,其特征在于,在S102中的操作步骤中,利用本地图片生成对应的对抗样本输入到训练模型中,用于提高对抗样本的防御能力。
5.根据权利要求2所述的一种基于联邦学习的增强神经网络防御能力的方法,其特征在于,在S103中的操作步骤中,所述中间结果的加密算法包括但不限于同态加密算法。
6.根据权利要求2所述的一种基于联邦学习的增强神经网络防御能力的方法,其特征在于,在S104中的操作步骤中,所述共享模型优于初始模型的算法包括但不限于FedAvg算法。
7.根据权利要求2所述的一种基于联邦学习的增强神经网络防御能力的方法,其特征在于,还包括以下步骤,重复步骤S102-S104,直到结果收敛并达到目的的条件。
CN202010618973.7A 2020-07-01 2020-07-01 一种基于联邦学习的增强神经网络防御能力的方法 Pending CN111860832A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010618973.7A CN111860832A (zh) 2020-07-01 2020-07-01 一种基于联邦学习的增强神经网络防御能力的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010618973.7A CN111860832A (zh) 2020-07-01 2020-07-01 一种基于联邦学习的增强神经网络防御能力的方法

Publications (1)

Publication Number Publication Date
CN111860832A true CN111860832A (zh) 2020-10-30

Family

ID=72989695

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010618973.7A Pending CN111860832A (zh) 2020-07-01 2020-07-01 一种基于联邦学习的增强神经网络防御能力的方法

Country Status (1)

Country Link
CN (1) CN111860832A (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112364943A (zh) * 2020-12-10 2021-02-12 广西师范大学 一种基于联邦学习的联邦预测方法
CN112364908A (zh) * 2020-11-05 2021-02-12 浙江大学 一种面向决策树的纵向联邦学习方法
CN112507219A (zh) * 2020-12-07 2021-03-16 中国人民大学 一种基于联邦学习增强隐私保护的个性化搜索***
CN112560059A (zh) * 2020-12-17 2021-03-26 浙江工业大学 一种基于神经通路特征提取的垂直联邦下模型窃取防御方法
CN112632620A (zh) * 2020-12-30 2021-04-09 支付宝(杭州)信息技术有限公司 一种增强隐私保护的联邦学习方法和***
CN112653752A (zh) * 2020-12-18 2021-04-13 重庆大学 基于联邦学习的区块链工业物联网数据共享方法
CN112668044A (zh) * 2020-12-21 2021-04-16 中国科学院信息工程研究所 面向联邦学习的隐私保护方法及装置
CN113143286A (zh) * 2021-04-30 2021-07-23 广州大学 基于分布式学习的心电信号识别方法、***、装置及介质
CN113204766A (zh) * 2021-05-25 2021-08-03 华中科技大学 一种分布式的神经网络部署方法、电子设备与存储介质
CN113268758A (zh) * 2021-06-17 2021-08-17 上海万向区块链股份公司 基于联邦学习的数据共享***、方法、介质及设备
CN113344221A (zh) * 2021-05-10 2021-09-03 上海大学 一种基于神经网络架构搜索的联邦学习方法及***
CN113468521A (zh) * 2021-07-01 2021-10-01 哈尔滨工程大学 一种基于gan的联邦学习入侵检测的数据保护方法
CN113515812A (zh) * 2021-07-09 2021-10-19 东软睿驰汽车技术(沈阳)有限公司 自动驾驶方法、装置、处理设备及存储介质
CN113726561A (zh) * 2021-08-18 2021-11-30 西安电子科技大学 利用联邦学习训练卷积神经网络的业务类型识别方法
CN113792873A (zh) * 2021-08-24 2021-12-14 浙江数秦科技有限公司 一种基于区块链的神经网络模型托管训练***
CN113807157A (zh) * 2020-11-27 2021-12-17 京东科技控股股份有限公司 基于联邦学习训练神经网络模型的方法、装置和***
CN114978654A (zh) * 2022-05-12 2022-08-30 北京大学 一种基于深度学习的端到端通信***攻击防御方法
CN117808694A (zh) * 2023-12-28 2024-04-02 中国人民解放军总医院第六医学中心 一种深度神经网络下的无痛胃镜图像增强方法及***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108446765A (zh) * 2018-02-11 2018-08-24 浙江工业大学 面向深度学习对抗性攻击的多模型协同防御方法
CN109698822A (zh) * 2018-11-28 2019-04-30 众安信息技术服务有限公司 基于公有区块链和加密神经网络的联合学习方法及***
US20190227980A1 (en) * 2018-01-22 2019-07-25 Google Llc Training User-Level Differentially Private Machine-Learned Models
CN110443367A (zh) * 2019-07-30 2019-11-12 电子科技大学 一种增强神经网络模型鲁棒性能的方法
CN110719158A (zh) * 2019-09-11 2020-01-21 南京航空航天大学 基于联合学习的边缘计算隐私保护***及保护方法
US20200125739A1 (en) * 2018-10-19 2020-04-23 International Business Machines Corporation Distributed learning preserving model security

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190227980A1 (en) * 2018-01-22 2019-07-25 Google Llc Training User-Level Differentially Private Machine-Learned Models
CN108446765A (zh) * 2018-02-11 2018-08-24 浙江工业大学 面向深度学习对抗性攻击的多模型协同防御方法
US20200125739A1 (en) * 2018-10-19 2020-04-23 International Business Machines Corporation Distributed learning preserving model security
CN109698822A (zh) * 2018-11-28 2019-04-30 众安信息技术服务有限公司 基于公有区块链和加密神经网络的联合学习方法及***
CN110443367A (zh) * 2019-07-30 2019-11-12 电子科技大学 一种增强神经网络模型鲁棒性能的方法
CN110719158A (zh) * 2019-09-11 2020-01-21 南京航空航天大学 基于联合学习的边缘计算隐私保护***及保护方法

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112364908A (zh) * 2020-11-05 2021-02-12 浙江大学 一种面向决策树的纵向联邦学习方法
CN113807157B (zh) * 2020-11-27 2024-07-19 京东科技控股股份有限公司 基于联邦学习训练神经网络模型的方法、装置和***
CN113807157A (zh) * 2020-11-27 2021-12-17 京东科技控股股份有限公司 基于联邦学习训练神经网络模型的方法、装置和***
CN112507219A (zh) * 2020-12-07 2021-03-16 中国人民大学 一种基于联邦学习增强隐私保护的个性化搜索***
CN112507219B (zh) * 2020-12-07 2023-06-02 中国人民大学 一种基于联邦学习增强隐私保护的个性化搜索***
CN112364943A (zh) * 2020-12-10 2021-02-12 广西师范大学 一种基于联邦学习的联邦预测方法
CN112364943B (zh) * 2020-12-10 2022-04-22 广西师范大学 一种基于联邦学习的联邦预测方法
CN112560059A (zh) * 2020-12-17 2021-03-26 浙江工业大学 一种基于神经通路特征提取的垂直联邦下模型窃取防御方法
CN112560059B (zh) * 2020-12-17 2022-04-29 浙江工业大学 一种基于神经通路特征提取的垂直联邦下模型窃取防御方法
CN112653752A (zh) * 2020-12-18 2021-04-13 重庆大学 基于联邦学习的区块链工业物联网数据共享方法
CN112668044A (zh) * 2020-12-21 2021-04-16 中国科学院信息工程研究所 面向联邦学习的隐私保护方法及装置
CN112632620A (zh) * 2020-12-30 2021-04-09 支付宝(杭州)信息技术有限公司 一种增强隐私保护的联邦学习方法和***
CN112632620B (zh) * 2020-12-30 2022-08-26 支付宝(杭州)信息技术有限公司 一种增强隐私保护的联邦学习方法和***
CN113143286A (zh) * 2021-04-30 2021-07-23 广州大学 基于分布式学习的心电信号识别方法、***、装置及介质
CN113344221A (zh) * 2021-05-10 2021-09-03 上海大学 一种基于神经网络架构搜索的联邦学习方法及***
CN113204766B (zh) * 2021-05-25 2022-06-17 华中科技大学 一种分布式的神经网络部署方法、电子设备与存储介质
CN113204766A (zh) * 2021-05-25 2021-08-03 华中科技大学 一种分布式的神经网络部署方法、电子设备与存储介质
CN113268758B (zh) * 2021-06-17 2022-11-04 上海万向区块链股份公司 基于联邦学习的数据共享***、方法、介质及设备
CN113268758A (zh) * 2021-06-17 2021-08-17 上海万向区块链股份公司 基于联邦学习的数据共享***、方法、介质及设备
CN113468521B (zh) * 2021-07-01 2022-04-05 哈尔滨工程大学 一种基于gan的联邦学习入侵检测的数据保护方法
CN113468521A (zh) * 2021-07-01 2021-10-01 哈尔滨工程大学 一种基于gan的联邦学习入侵检测的数据保护方法
CN113515812A (zh) * 2021-07-09 2021-10-19 东软睿驰汽车技术(沈阳)有限公司 自动驾驶方法、装置、处理设备及存储介质
CN113726561A (zh) * 2021-08-18 2021-11-30 西安电子科技大学 利用联邦学习训练卷积神经网络的业务类型识别方法
CN113792873A (zh) * 2021-08-24 2021-12-14 浙江数秦科技有限公司 一种基于区块链的神经网络模型托管训练***
CN114978654B (zh) * 2022-05-12 2023-03-10 北京大学 一种基于深度学习的端到端通信***攻击防御方法
CN114978654A (zh) * 2022-05-12 2022-08-30 北京大学 一种基于深度学习的端到端通信***攻击防御方法
CN117808694A (zh) * 2023-12-28 2024-04-02 中国人民解放军总医院第六医学中心 一种深度神经网络下的无痛胃镜图像增强方法及***
CN117808694B (zh) * 2023-12-28 2024-05-24 中国人民解放军总医院第六医学中心 一种深度神经网络下的无痛胃镜图像增强方法及***

Similar Documents

Publication Publication Date Title
CN111860832A (zh) 一种基于联邦学习的增强神经网络防御能力的方法
Liu et al. Coverless information hiding based on generative adversarial networks
Guesmi et al. Hash key-based image encryption using crossover operator and chaos
Lerch-Hostalot et al. Unsupervised steganalysis based on artificial training sets
CN112560059B (zh) 一种基于神经通路特征提取的垂直联邦下模型窃取防御方法
Cui et al. An adaptive LeNet-5 model for anomaly detection
CN112615974A (zh) 一种基于深度判别器的无载体隐蔽通信方法及***
CN115758422A (zh) 一种文件加密方法及***
Pan et al. A novel image encryption algorithm based on hybrid chaotic mapping and intelligent learning in financial security system
CN114282692A (zh) 一种纵向联邦学习的模型训练方法及***
CN109413068B (zh) 一种基于对偶gan的无线信号加密方法
Wang et al. Data hiding during image processing using capsule networks
Yu et al. Flexible and robust real-time intrusion detection systems to network dynamics
Kanzariya et al. Coverless information hiding: a review
Shiomoto Network intrusion detection system based on an adversarial auto-encoder with few labeled training samples
Stock et al. Lessons Learned: Defending Against Property Inference Attacks.
Bai et al. Reconstruction of chaotic grayscale image encryption based on deep learning
Kich et al. Image steganography scheme using dilated convolutional network
Mammadov New approach to book cipher: web pages as a cryptographic key
Huang et al. Development of a Novel Hyperchaos‐Based Image Encryption Algorithm Consisting of Two Scrambling‐Diffusion Operations
Li et al. Unsupervised steganalysis over social networks based on multi-reference sub-image sets
Yang et al. Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing
Bandyopadhyay et al. A secure scheme for image transformation
CN116033088B (zh) 一种视频大数据的安全传输方法及***
Wang et al. Generative Image Steganography Based on GANs

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20220628

Address after: No. 230, Waihuan West Road, Guangzhou University Town, Panyu, Guangzhou City, Guangdong Province, 510006

Applicant after: Guangzhou University

Applicant after: National University of Defense Technology

Address before: No. 230, Waihuan West Road, Guangzhou University Town, Panyu, Guangzhou City, Guangdong Province, 510006

Applicant before: Guangzhou University

TA01 Transfer of patent application right