CN116467747A - 一种联邦学习隐私保护方法及*** - Google Patents

一种联邦学习隐私保护方法及*** Download PDF

Info

Publication number
CN116467747A
CN116467747A CN202310437608.XA CN202310437608A CN116467747A CN 116467747 A CN116467747 A CN 116467747A CN 202310437608 A CN202310437608 A CN 202310437608A CN 116467747 A CN116467747 A CN 116467747A
Authority
CN
China
Prior art keywords
model
target client
local
global
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310437608.XA
Other languages
English (en)
Inventor
江军
王炜
雷虎
陈世武
谢玮博
丁占勐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Topsec Technology Co Ltd
Beijing Topsec Network Security Technology Co Ltd
Beijing Topsec Software Co Ltd
Original Assignee
Beijing Topsec Technology Co Ltd
Beijing Topsec Network Security Technology Co Ltd
Beijing Topsec Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Topsec Technology Co Ltd, Beijing Topsec Network Security Technology Co Ltd, Beijing Topsec Software Co Ltd filed Critical Beijing Topsec Technology Co Ltd
Priority to CN202310437608.XA priority Critical patent/CN116467747A/zh
Publication of CN116467747A publication Critical patent/CN116467747A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/50Reducing energy consumption in communication networks in wire-line communication networks, e.g. low power modes or reduced link rate

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioethics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请提供一种联邦学习隐私保护方法及***,该方法包括:服务器节点获取当前全局训练轮次对应的全局模型参数;服务器节点从多个目标客户端节点中随机挑选预设数量的目标客户端节点,并将全局模型参数下发给目标客户端节点;目标客户端节点根据全局模型参数、预设定时周期和预设良性噪声对本地模型进行迭代训练,得到训练好的目标本地模型;目标客户端节点获取目标本地模型对应的本地模型更新梯度,并将本地模型更新梯度发送至服务器节点。可见,该方法及***能够对目标客户端节点上传的更新数据添加前置良性噪声,投入成本和代价低,既有利于提高模型训练的收敛速度,又不会降低最终训练模型的性能。

Description

一种联邦学习隐私保护方法及***
技术领域
本申请涉及计算机技术领域,具体而言,涉及一种联邦学习隐私保护方法及***。
背景技术
目前,随着人工智能技术的飞速发展,人工智能技术的应用越来越广泛,已经被应用于图像分析、语音识别、文字处理、智能推荐、安全检测等多个领域,以联邦学习为代表的隐私计算技术已经成为新的前沿技术热点领域。但是传统的联邦学习技术在模型训练过程中,由于需要由目标客户端节点上传更新数据,从而导致用户的隐私数据存在泄露风险,现有方法中,通常在模型参数更新中添加掩码,从而在目标客户端节点上传的更新数据中添加随机噪声,进而实现隐私数据包括。然而,在实践中发现,现有方法需要额外添加TEE模块,添加和去除掩码的过程将增加模型训练过程的计算量,投入成本和代价较高,从而降低了模型训练效率。
发明内容
本申请实施例的目的在于提供一种联邦学习隐私保护方法及***,能够对目标客户端节点上传的更新数据添加前置良性噪声,投入成本和代价低,既有利于提高模型训练的收敛速度,又不会降低最终训练模型的性能。
本申请实施例第一方面提供了一种联邦学习隐私保护方法,应用于联邦学习隐私保护***,所述联邦学习隐私保护***包括服务器节点和多个目标客户端节点,包括:
所述服务器节点获取当前全局训练轮次对应的全局模型参数;
所述服务器节点从多个目标客户端节点中随机挑选预设数量的目标客户端节点,并将所述全局模型参数下发给所述目标客户端节点;
所述目标客户端节点根据所述全局模型参数、预设定时周期和预设良性噪声对本地模型进行迭代训练,得到训练好的目标本地模型;
所述目标客户端节点获取所述目标本地模型对应的本地模型更新梯度,并将所述本地模型更新梯度发送至所述服务器节点。
在上述实现过程中,该方法可以优先控制服务器节点获取当前全局训练轮次对应的全局模型参数,从而为联邦学习提供基础模型参数,便于目标客户端节点基于该全局模型参数进行相应的模型训练与迭代;与此同时,该方法还控制服务器节点从多个目标客户端节点中随机挑选预设数量的目标客户端节点,并将全局模型参数下发给目标客户端节点;可见,该方法可以在大量的目标客户端节点中选取出一定数量的目标客户端节点,以使模型的训练可以限缩在这些目标客户端当中。此后,目标客户端节点还可以根据全局模型参数、预设定时周期和预设良性噪声对本地模型进行迭代训练,得到训练好的目标本地模型;可见,该方法可以在模型的训练过程中添加良性噪声,从而使得全局模型参数可以基于该良性噪声进行相应调整,同时,该方法还可以通过预设定时周期来实现半异步训练,以使用户隐私数据更难获取。在完成目标本地模型的训练之后,目标客户端节点获取目标本地模型对应的本地模型更新梯度,并将本地模型更新梯度发送至服务器节点。可见,该方法能够在联邦学习的基础上实现模型的迭代,使之能够基于不确定的训练节点以及不确定的迭代来综合保障用户的数据隐私性。
进一步地,所述目标客户端节点根据所述全局模型参数、预设定时周期和预设良性噪声对本地模型进行迭代训练,得到训练好的目标本地模型,包括:
所述目标客户端节点接收所述服务器节点下发的全局模型参数;
所述目标客户端节点根据所述全局模型参数对本地模型进行更新,得到本地更新模型;
所述目标客户端节点根据预设定时周期和预设良性噪声对所述本地更新模型进行训练,得到训练好的目标本地模型。
在上述实现过程中,目标客户端节点训练目标本地模型的过程中,可以根据服务器节点下发的全局模型参数对本地模型进行更新,得到本地更新模型;可见,目标客户端节点可以在接收到全局模型参数之后自动进行相应的更新,以使被训练的模型处于同一个标准之下。然后,目标客户端节点在根据预设定时周期和预设良性噪声对本地更新模型进行训练,得到训练好的目标本地模型;可见,该方法可以通过此种训练完成良性噪声的添加,从而使得训练好的目标本地模型能够避免传统方法中的加噪弊端对最终训练模型的性能影响。
进一步地,所述目标客户端节点根据预设定时周期和预设良性噪声对所述本地更新模型进行训练,得到训练好的目标本地模型,包括:
所述目标客户端节点获取本地存储的训练样本集;
所述目标客户端节点将所述训练样本集和预设良性噪声输入至所述本地更新模型,并根据预设定时周期和预设的随机梯度下降算法对所述本地更新模型进行训练,得到训练好的目标本地模型。
在上述实现过程中,目标客户端节点在训练本地更新模型的过程中,可以将添加噪声和半异步训练机制相结合,从而能够增强对用户数据隐私性的保护。
进一步地,在所述目标客户端节点将所述本地模型更新梯度发送至所述服务器节点之后,还包括:
所述服务器节点根据所述本地模型更新梯度计算全局模型更新梯度;
所述服务器节点根据所述全局模型更新梯度计算聚合参数;
所述服务器节点根据所述聚合参数和所述当前全局训练轮次判断是否终止训练过程;如果否,则迭代所述全局训练轮次,将所述聚合参数确定为下一轮全局训练轮次对应的全局模型参数,并执行所述从多个目标客户端节点中随机挑选预设数量的目标客户端节点,并将所述全局模型参数下发给所述目标客户端节点的步骤。
在上述实现过程中,服务器节点在接收到目标客户端节点发送的本地模型更新梯度之后,根据全局模型更新梯度计算聚合参数;在得到聚合参数时,根据聚合参数和当前全局训练轮次判断是否终止训练过程,并在不需要终止训练过程时,重新执行该方法直到需要终止训练过程。
进一步地,所述服务器节点根据所述聚合参数和所述当前全局训练轮次判断是否终止训练过程,包括:
所述服务器节点在判断出所述聚合参数收敛,或所述当前全局训练轮次大于预设轮次阈值时,确定需要终止训练过程;
所述服务器节点在判断出所述聚合参数未收敛,且所述当前全局训练轮次不大于预设轮次阈值时,确定不需要终止训练过程,并执行所述从多个目标客户端节点中随机挑选预设数量的目标客户端节点,并将所述全局模型参数下发给所述目标客户端节点的步骤。
在上述实现过程中,服务器节点可以通过判断聚合参数是否收敛以及全局训练轮次是否大于预设轮次阈值来确定是否需要终止训练过程。具体的,当聚合参数收敛或者当前全局训练轮次大于预设轮次阈值时,该方法确定需要终止训练过程;反之,则确定不需要终止训练过程,并重复执行本方法。可见,该方法描述了一种具体的迭代退出判断方法,并以此来实现对迭代过程的准确监控。
本申请实施例第二方面提供了一种联邦学习隐私保护***,所述联邦学习隐私保护***包括服务器节点和多个目标客户端节点,其中,
所述服务器节点,用于获取当前全局训练轮次对应的全局模型参数;
所述服务器节点,还用于从多个目标客户端节点中随机挑选预设数量的目标客户端节点,并将所述全局模型参数下发给所述目标客户端节点;
所述目标客户端节点,用于根据所述全局模型参数、预设定时周期和预设良性噪声对本地模型进行迭代训练,得到训练好的目标本地模型;
所述目标客户端节点,还用于获取所述目标本地模型对应的本地模型更新梯度,并将所述本地模型更新梯度发送至所述服务器节点。
进一步地,所述目标客户端节点根据所述全局模型参数、预设定时周期和预设良性噪声对本地模型进行迭代训练,得到训练好的目标本地模型,包括:
所述目标客户端节点接收所述服务器节点下发的全局模型参数;
所述目标客户端节点根据所述全局模型参数对本地模型进行更新,得到本地更新模型;
所述目标客户端节点根据预设定时周期和预设良性噪声对所述本地更新模型进行训练,得到训练好的目标本地模型。
进一步地,所述目标客户端节点根据预设定时周期和预设良性噪声对所述本地更新模型进行训练,得到训练好的目标本地模型,包括:
所述目标客户端节点获取本地存储的训练样本集;
所述目标客户端节点将所述训练样本集和预设良性噪声输入至所述本地更新模型,并根据预设定时周期和预设的随机梯度下降算法对所述本地更新模型进行训练,得到训练好的目标本地模型。
进一步地,在所述目标客户端节点将所述本地模型更新梯度发送至所述服务器节点之后,还包括:
所述服务器节点根据所述本地模型更新梯度计算全局模型更新梯度;
所述服务器节点根据所述全局模型更新梯度计算聚合参数;
所述服务器节点根据所述聚合参数和所述当前全局训练轮次判断是否终止训练过程;如果否,则迭代所述全局训练轮次,将所述聚合参数确定为下一轮全局训练轮次对应的全局模型参数,并执行所述从多个目标客户端节点中随机挑选预设数量的目标客户端节点,并将所述全局模型参数下发给所述目标客户端节点的步骤。
进一步地,所述服务器节点根据所述聚合参数和所述当前全局训练轮次判断是否终止训练过程,包括:
所述服务器节点在判断出所述聚合参数收敛,或所述当前全局训练轮次大于预设轮次阈值时,确定需要终止训练过程;
所述服务器节点在判断出所述聚合参数未收敛,且所述当前全局训练轮次不大于预设轮次阈值时,确定不需要终止训练过程,并执行所述从多个目标客户端节点中随机挑选预设数量的目标客户端节点,并将所述全局模型参数下发给所述目标客户端节点的步骤。
本申请实施例第三方面提供了一种电子设备,包括存储器以及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行本申请实施例第一方面中任一项所述的联邦学习隐私保护方法。
本申请实施例第四方面提供了一种计算机可读存储介质,其存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行本申请实施例第一方面中任一项所述的联邦学习隐私保护方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种联邦学习隐私保护方法的流程示意图;
图2为本申请实施例提供的另一种联邦学习隐私保护方法的流程示意图;
图3为本申请实施例提供的一种联邦学习隐私保护***的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
实施例1
请参看图1,图1为本实施例提供了一种联邦学习隐私保护方法的流程示意图。其中,该联邦学习隐私保护方法应用于联邦学习隐私保护***,联邦学习隐私保护***包括服务器节点和多个目标客户端节点,该方法包括:
S101、服务器节点获取当前全局训练轮次对应的全局模型参数。
S102、服务器节点从多个目标客户端节点中随机挑选预设数量的目标客户端节点,并将全局模型参数下发给目标客户端节点。
S103、目标客户端节点根据全局模型参数、预设定时周期和预设良性噪声对本地模型进行迭代训练,得到训练好的目标本地模型。
S104、目标客户端节点获取目标本地模型对应的本地模型更新梯度,并将本地模型更新梯度发送至服务器节点。
本实施例中,该方法具体描述的是一种基于添加良性噪声的联邦学习隐私保护方法。
本实施例中,该方法能够在联邦学习过程中,避免用户节点上传的更新梯度数据会泄露用户隐私的问题出现。同时,该方法还能够对现有基于差分隐私的向更新梯度加噪声的弊端进行规避,从而保障最终训练模型的性能。
本实施例中,该方法的执行主体可以为计算机、服务器等计算装置,对此本实施例中不作任何限定。
在本实施例中,该方法的执行主体还可以为智能手机、平板电脑等智能设备,对此本实施例中不作任何限定。
可见,实施本实施例所描述的联邦学习隐私保护方法,能够有效保护联邦学习场景下用户的数据隐私性;具体的,由于向用户更新梯度中添加的前置噪声属于有益噪声,因此不仅不会降低最终训练模型的性能,还能提高模型的收敛速度。另一方面,该方法能够通过采用定时周期半异步训练机制,将因为每个目标客户端节点的算力不同而导致的周期T内遍历本地样本的迭代次数不同的特性利用起来,使得服务器节点无法获知目标客户端节点遍历迭代次数,从而增加了目标客户端节点中隐私数据的获取难度,进而有效保护用户数据隐私性。
实施例2
请参看图2,图2为本实施例提供了一种联邦学习隐私保护方法的流程示意图。其中,该联邦学习隐私保护方法应用于联邦学习隐私保护***,联邦学习隐私保护***包括服务器节点和多个目标客户端节点,该方法包括:
S201、服务器节点获取当前全局训练轮次对应的全局模型参数。
作为一种可选的实施方式,服务器节点获取当前全局训练轮次对应的全局模型参数,包括:
服务器节点判断当前全局训练轮次是否为第一轮次;如果是,则获取预先配置的深度神经网络模型;
服务器节点对深度神经网络模型的参数进行初始化,得到全局模型参数。
作为另一种可选的实施方式,服务器节点获取当前全局训练轮次对应的全局模型参数,包括:
服务器节点判断当前全局训练轮次是否为第一轮次;如果否,则获取上一轮全局训练轮次对应的聚合参数,并将上一轮全局训练轮次对应的聚合参数确定为全局模型参数。
本实施例中,假设联邦学习服务器节点为S,联邦学习目标客户端节点总数为Nc。其中,模型初始化的具体步骤为:服务器节点S采用高斯随机初始化方法对采用的深度神经网络模型的参数进行初始化,初始化参数为w0
S202、服务器节点从多个目标客户端节点中随机挑选预设数量的目标客户端节点,并将全局模型参数下发给目标客户端节点。
本实施例中,模型参数下发的具体步骤可以为:在第k轮全局模型参数下发时,服务器节点S从Nc个目标客户端节点中随机挑选Nfc个目标客户端节点,0<Nfc≤Nc,被挑选的联邦学习目标客户端节点为Ci,其中i为目标客户端节点序号,0<i≤Nfc。将深度神经网络模型全局模型的参数wk-1发送给被挑选的联邦学习目标客户端节点,开始第k轮本地模型训练和全局模型参数更新。其中,i、k、Nfc和Nc均为正整数。
S203、目标客户端节点接收服务器节点下发的全局模型参数。
S204、目标客户端节点根据全局模型参数对本地模型进行更新,得到本地更新模型。
S205、目标客户端节点获取本地存储的训练样本集。
S206、目标客户端节点将训练样本集和预设良性噪声输入至本地更新模型,并根据预设定时周期和预设的随机梯度下降算法对本地更新模型进行训练,得到训练好的目标本地模型。
S207、目标客户端节点获取目标本地模型对应的本地模型更新梯度,并将本地模型更新梯度发送至服务器节点。
本实施例中,模型初步训练主要包括模型训练、参数上传两个步骤。
具体的,该步骤中的“模型训练”具体可以为:在第k轮本地模型训练时,每个被挑选的联邦学习目标客户端节点Ci利用从服务器节点S收到的全局模型参数wk-1更新本地模型,将本地存储的所有样本数据作为训练数据集,采用随机梯度下降算法训练本地模型,训练时间为常量T,并计算本地模型在训练时间T范围内的本地模型更新梯度
本实施例中,计算本地模型更新梯度的公式为:
其中,为本地的模型更新梯度;
k为当前全局训练轮次;
wk-1为当前全局训练轮次时服务器节点下发的全局模型参数;
wk-2为上一轮全局训练轮次对应的全局模型参数;
Lik(w)为本地更新模型的损失函数;
为损失函数在模型参数取值w处的梯度;
β为预设的权重常量,0<β<1;
γik为取值在预设区间内满足均匀概率分布的随机数;
η是学习率,0<η<1;
i是目标客户端节点的节点序号。
在本实施例中,上述步骤中的“参数上传”具体可以为:在第k轮本地模型训练时,每个联邦学习目标客户端节点Ci将本地模型的更新梯度发送给服务器节点S。
S208、服务器节点根据本地模型更新梯度计算全局模型更新梯度。
S209、服务器节点根据全局模型更新梯度计算聚合参数。
本实施例中,模型参数更新主要包括参数聚合、参数下发两个步骤。
具体的,上述步骤中的“参数聚合”具体可以为:在第k轮全局模型参数更新时,服务器节点S先接收各目标客户端节点上传的更新梯度然后计算全局模型的更新梯度和聚合参数wk,其中Di为目标客户端节点Ci的本地存储样本数据集,|Di|为集合Di包含元素的数量,|DT|为所有被挑选目标客户端节点的样本数量之和。
本实施例中,计算全局模型更新梯度的公式为:
其中,k表示当前全局训练轮次;
|DT|为目标客户端节点的总数量;
为第k轮全局模型更新梯度;
为第k-1轮的全局模型更新梯度;
Nfc为预设数量;
Di为目标客户端节点Ci本地存储的训练数据集;
|Di|为训练数据集的训练数据总数量;
为本地模型更新梯度;
β为预设的权重常量,0<β<1;
γik为取值在预设区间内满足均匀概率分布的随机数;
η是学习率,0<η<1。
在本实施例中,计算聚合参数的公式为:
其中,wk为当前全局训练轮次对应的聚合参数;
wk-1为全局模型参数。
S210、服务器节点根据聚合参数和当前全局训练轮次判断是否终止训练过程,若是,则结束本流程;若否,则迭代全局训练轮次,将聚合参数确定为下一轮全局训练轮次对应的全局模型参数,并执行步骤S202。
作为一种可选的实施方式,服务器节点根据聚合参数和当前全局训练轮次判断是否终止训练过程,包括:
服务器节点在判断出聚合参数收敛,或当前全局训练轮次大于预设轮次阈值时,确定需要终止训练过程;
服务器节点在判断出聚合参数未收敛,且当前全局训练轮次不大于预设轮次阈值时,确定不需要终止训练过程,并执行从多个目标客户端节点中随机挑选预设数量的目标客户端节点,并将全局模型参数下发给目标客户端节点的步骤。
本实施例中,上述步骤中的“参数下发”具体可以为:如果全局模型的参数wk收敛或者k≥ETH,则终止训练过程,否则重复执行上述步骤,并开始第k+1轮全局模型参数下发、本地模型训练和全局模型参数更新。其中ETH为正整数。
本实施例中,该方法可以应用于基于联邦学习的模型安全加固。
举例来说,该方法可以按照以下步骤加以实现:
(1)假设联邦学习服务器节点为S,联邦学习目标客户端节点总数为Nc=1000000。模型初始化的具体步骤为:服务器节点S对采用的深度神经网络模型((比如RNN、LSTM、CNN模型等))的参数进行初始化,初始化参数为w0
(2)在第k轮全局模型参数下发时,服务器节点S从Nc个目标客户端节点中随机挑选Nfc=100000个目标客户端节点,被挑选的联邦学习目标客户端节点为Ci,其中i为目标客户端节点序号,0<i≤Nfc。将深度神经网络模型全局模型的参数wk-1发送给被挑选的联邦学习目标客户端节点,开始第k轮本地模型训练和全局模型参数更新。
(3)在第k轮本地模型训练时,每个被挑选的联邦学习目标客户端节点Ci利用从服务器节点S收到的全局模型参数wk-1更新本地模型,将本地存储的所有样本数据作为训练数据集,采用随机梯度下降算法训练本地模型,训练时间为常量T=20min,并计算本地模型在训练时间T范围内的整体更新梯度每个联邦学习目标客户端节点Ci将本地模型的更新梯度/>发送给服务器节点S。其中η=0.01,β=0.7。γik为随机数(取值范围为[-0.1,0.1]),每轮训练周期的每个目标客户端节点的γik都是独立重新生成的。
(4)在第k轮全局模型参数更新时,服务器节点S先接收各目标客户端节点上传的更新梯度然后计算全局模型的更新梯度/>和聚合参数wk,其中,Di为目标客户端节点Ci的本地存储样本数据集,|Di|为集合Di包含元素的数量(取值从100到1000000)。如果全局模型的参数wk收敛或者k≥ETH=1000,则终止训练过程,否则重复执行步骤(2)(3)(4)的所有子步骤,开始第k+1轮全局模型参数下发、本地模型训练和全局模型参数更新。
本实施例中,该方法的执行主体可以为计算机、服务器等计算装置,对此本实施例中不作任何限定。
在本实施例中,该方法的执行主体还可以为智能手机、平板电脑等智能设备,对此本实施例中不作任何限定。
可见,实施本实施例所描述的联邦学习隐私保护方法,能够有效保护联邦学习场景下用户的数据隐私性;具体的,由于向用户更新梯度中添加的前置噪声属于有益噪声,因此不仅不会降低最终训练模型的性能,还能提高模型的收敛速度。另一方面,该方法能够通过采用定时周期半异步训练机制,将因为每个目标客户端节点的算力不同而导致的周期T内遍历本地样本的迭代次数不同的特性利用起来,使得服务器节点无法获知目标客户端节点遍历迭代次数,从而增加了目标客户端节点中隐私数据的获取难度,进而有效保护用户数据隐私性。
实施例3
请参看图3,图3为本实施例提供的一种联邦学习隐私保护***的结构示意图。如图3所示,该联邦学习隐私保护***包括服务器节点300和多个目标客户端节点400,其中,
服务器节点300,用于获取当前全局训练轮次对应的全局模型参数;
服务器节点300,还用于从多个目标客户端节点400中随机挑选预设数量的目标客户端节点400,并将全局模型参数下发给目标客户端节点400;
目标客户端节点400,用于根据全局模型参数、预设定时周期和预设良性噪声对本地模型进行迭代训练,得到训练好的目标本地模型;
目标客户端节点400,还用于获取目标本地模型对应的本地模型更新梯度,并将本地模型更新梯度发送至服务器节点300。
本实施例中,对于联邦学习隐私保护***的解释说明可以参照实施例1或实施例2中的描述,对此本实施例中不再多加赘述。
可见,实施本实施例所描述的联邦学习隐私保护***,能够有效保护联邦学习场景下用户的数据隐私性;具体的,由于向用户更新梯度中添加的前置噪声属于有益噪声,因此不仅不会降低最终训练模型的性能,还能提高模型的收敛速度。另一方面,该***能够通过采用定时周期半异步训练机制,将因为每个目标客户端节点的算力不同而导致的周期T内遍历本地样本的迭代次数不同的特性利用起来,使得服务器节点无法获知目标客户端节点遍历迭代次数,从而增加了目标客户端节点中隐私数据的获取难度,进而有效保护用户数据隐私性。
实施例4
请查看图3,该联邦学习隐私保护***包括服务器节点300和多个目标客户端节点400,其中,
服务器节点300,用于获取当前全局训练轮次对应的全局模型参数;
服务器节点300,还用于从多个目标客户端节点400中随机挑选预设数量的目标客户端节点400,并将全局模型参数下发给目标客户端节点400;
目标客户端节点400,用于根据全局模型参数、预设定时周期和预设良性噪声对本地模型进行迭代训练,得到训练好的目标本地模型;
目标客户端节点400,还用于获取目标本地模型对应的本地模型更新梯度,并将本地模型更新梯度发送至服务器节点300。
作为一种可选的实施方式,目标客户端节点400根据全局模型参数、预设定时周期和预设良性噪声对本地模型进行迭代训练,得到训练好的目标本地模型,包括:
目标客户端节点400接收服务器节点300下发的全局模型参数;
目标客户端节点400根据全局模型参数对本地模型进行更新,得到本地更新模型;
目标客户端节点400根据预设定时周期和预设良性噪声对本地更新模型进行训练,得到训练好的目标本地模型。
作为一种可选的实施方式,目标客户端节点400根据预设定时周期和预设良性噪声对本地更新模型进行训练,得到训练好的目标本地模型,包括:
目标客户端节点400获取本地存储的训练样本集;
目标客户端节点400将训练样本集和预设良性噪声输入至本地更新模型,并根据预设定时周期和预设的随机梯度下降算法对本地更新模型进行训练,得到训练好的目标本地模型。
作为一种可选的实施方式,在目标客户端节点400将本地模型更新梯度发送至服务器节点300之后,还包括:
服务器节点300根据本地模型更新梯度计算全局模型更新梯度;
服务器节点300根据全局模型更新梯度计算聚合参数;
服务器节点300根据聚合参数和当前全局训练轮次判断是否终止训练过程;如果否,则迭代全局训练轮次,将聚合参数确定为下一轮全局训练轮次对应的全局模型参数,并执行从多个目标客户端节点400中随机挑选预设数量的目标客户端节点400,并将全局模型参数下发给目标客户端节点400的步骤。
作为一种可选的实施方式,服务器节点300根据聚合参数和当前全局训练轮次判断是否终止训练过程,包括:
服务器节点300在判断出聚合参数收敛,或当前全局训练轮次大于预设轮次阈值时,确定需要终止训练过程;
服务器节点300在判断出聚合参数未收敛,且当前全局训练轮次不大于预设轮次阈值时,确定不需要终止训练过程,并执行从多个目标客户端节点400中随机挑选预设数量的目标客户端节点400,并将全局模型参数下发给目标客户端节点400的步骤。
本实施例中,对于联邦学习隐私保护***的解释说明可以参照实施例1或实施例2中的描述,对此本实施例中不再多加赘述。
可见,实施本实施例所描述的联邦学习隐私保护***,能够有效保护联邦学习场景下用户的数据隐私性;具体的,由于向用户更新梯度中添加的前置噪声属于有益噪声,因此不仅不会降低最终训练模型的性能,还能提高模型的收敛速度。另一方面,该***能够通过采用定时周期半异步训练机制,将因为每个目标客户端节点的算力不同而导致的周期T内遍历本地样本的迭代次数不同的特性利用起来,使得服务器节点无法获知目标客户端节点遍历迭代次数,从而增加了目标客户端节点中隐私数据的获取难度,进而有效保护用户数据隐私性。
本申请实施例提供了一种电子设备,包括存储器以及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行本申请实施例1或实施例2中的联邦学习隐私保护方法。
本申请实施例提供了一种计算机可读存储介质,其存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行本申请实施例1或实施例2中的联邦学习隐私保护方法。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

Claims (10)

1.一种联邦学习隐私保护方法,其特征在于,应用于联邦学习隐私保护***,所述联邦学习隐私保护***包括服务器节点和多个目标客户端节点,包括:
所述服务器节点获取当前全局训练轮次对应的全局模型参数;
所述服务器节点从多个目标客户端节点中随机挑选预设数量的目标客户端节点,并将所述全局模型参数下发给所述目标客户端节点;
所述目标客户端节点根据所述全局模型参数、预设定时周期和预设良性噪声对本地模型进行迭代训练,得到训练好的目标本地模型;
所述目标客户端节点获取所述目标本地模型对应的本地模型更新梯度,并将所述本地模型更新梯度发送至所述服务器节点。
2.根据权利要求1所述的联邦学习隐私保护方法,其特征在于,所述目标客户端节点根据所述全局模型参数、预设定时周期和预设良性噪声对本地模型进行迭代训练,得到训练好的目标本地模型,包括:
所述目标客户端节点接收所述服务器节点下发的全局模型参数;
所述目标客户端节点根据所述全局模型参数对本地模型进行更新,得到本地更新模型;
所述目标客户端节点根据预设定时周期和预设良性噪声对所述本地更新模型进行训练,得到训练好的目标本地模型。
3.根据权利要求2所述的联邦学习隐私保护方法,其特征在于,所述目标客户端节点根据预设定时周期和预设良性噪声对所述本地更新模型进行训练,得到训练好的目标本地模型,包括:
所述目标客户端节点获取本地存储的训练样本集;
所述目标客户端节点将所述训练样本集和预设良性噪声输入至所述本地更新模型,并根据预设定时周期和预设的随机梯度下降算法对所述本地更新模型进行训练,得到训练好的目标本地模型。
4.根据权利要求1所述的联邦学习隐私保护方法,其特征在于,在所述目标客户端节点将所述本地模型更新梯度发送至所述服务器节点之后,还包括:
所述服务器节点根据所述本地模型更新梯度计算全局模型更新梯度;
所述服务器节点根据所述全局模型更新梯度计算聚合参数;
所述服务器节点根据所述聚合参数和所述当前全局训练轮次判断是否终止训练过程;如果否,则迭代所述全局训练轮次,将所述聚合参数确定为下一轮全局训练轮次对应的全局模型参数,并执行所述从多个目标客户端节点中随机挑选预设数量的目标客户端节点,并将所述全局模型参数下发给所述目标客户端节点的步骤。
5.根据权利要求4所述的联邦学习隐私保护方法,其特征在于,所述服务器节点根据所述聚合参数和所述当前全局训练轮次判断是否终止训练过程,包括:
所述服务器节点在判断出所述聚合参数收敛,或所述当前全局训练轮次大于预设轮次阈值时,确定需要终止训练过程;
所述服务器节点在判断出所述聚合参数未收敛,且所述当前全局训练轮次不大于预设轮次阈值时,确定不需要终止训练过程,并执行所述从多个目标客户端节点中随机挑选预设数量的目标客户端节点,并将所述全局模型参数下发给所述目标客户端节点的步骤。
6.一种联邦学习隐私保护***,其特征在于,所述联邦学习隐私保护***包括服务器节点和多个目标客户端节点,其中,
所述服务器节点,用于获取当前全局训练轮次对应的全局模型参数;
所述服务器节点,还用于从多个目标客户端节点中随机挑选预设数量的目标客户端节点,并将所述全局模型参数下发给所述目标客户端节点;
所述目标客户端节点,用于根据所述全局模型参数、预设定时周期和预设良性噪声对本地模型进行迭代训练,得到训练好的目标本地模型;
所述目标客户端节点,还用于获取所述目标本地模型对应的本地模型更新梯度,并将所述本地模型更新梯度发送至所述服务器节点。
7.根据权利要求6所述的联邦学习隐私保护***,其特征在于,所述目标客户端节点,具体用于接收所述服务器节点下发的全局模型参数;
所述目标客户端节点,具体还用于根据所述全局模型参数对本地模型进行更新,得到本地更新模型;
所述目标客户端节点根据预设定时周期和预设良性噪声对所述本地更新模型进行训练,得到训练好的目标本地模型。
8.根据权利要求7所述的联邦学习隐私保护***,其特征在于,所述目标客户端节点,具体还用于获取本地存储的训练样本集;
所述目标客户端节点,具体还用于将所述训练样本集和预设良性噪声输入至所述本地更新模型,并根据预设定时周期和预设的随机梯度下降算法对所述本地更新模型进行训练,得到训练好的目标本地模型。
9.一种电子设备,其特征在于,所述电子设备包括存储器以及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行权利要求1至5中任一项所述的联邦学习隐私保护方法。
10.一种可读存储介质,其特征在于,所述可读存储介质中存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行权利要求1至5任一项所述的联邦学习隐私保护方法。
CN202310437608.XA 2023-04-21 2023-04-21 一种联邦学习隐私保护方法及*** Pending CN116467747A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310437608.XA CN116467747A (zh) 2023-04-21 2023-04-21 一种联邦学习隐私保护方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310437608.XA CN116467747A (zh) 2023-04-21 2023-04-21 一种联邦学习隐私保护方法及***

Publications (1)

Publication Number Publication Date
CN116467747A true CN116467747A (zh) 2023-07-21

Family

ID=87183996

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310437608.XA Pending CN116467747A (zh) 2023-04-21 2023-04-21 一种联邦学习隐私保护方法及***

Country Status (1)

Country Link
CN (1) CN116467747A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117407922A (zh) * 2023-12-11 2024-01-16 成都信息工程大学 一种基于量子噪声的联邦学习隐私保护***及方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117407922A (zh) * 2023-12-11 2024-01-16 成都信息工程大学 一种基于量子噪声的联邦学习隐私保护***及方法
CN117407922B (zh) * 2023-12-11 2024-03-22 成都信息工程大学 一种基于量子噪声的联邦学习隐私保护***及方法

Similar Documents

Publication Publication Date Title
CN111091199B (zh) 一种基于差分隐私的联邦学习方法、装置及存储介质
Shani et al. Optimistic policy optimization with bandit feedback
JP6806412B2 (ja) パターン認識に適用可能なモデルを最適化するための方法および装置ならびに端末デバイス
CN108182394B (zh) 卷积神经网络的训练方法、人脸识别方法及装置
EP3485432B1 (en) Training machine learning models on multiple machine learning tasks
CN108091166B (zh) 可用停车位数目变化的预测方法、装置、设备及存储介质
JP7483751B2 (ja) 教師なしデータ拡張を使用した機械学習モデルのトレーニング
CN110462638B (zh) 使用后验锐化训练神经网络
CN110851613A (zh) 基于实体概念的知识图谱补全、推演、存储方法及装置
WO2017100711A1 (en) Augmenting neural networks with external memory
US20200151545A1 (en) Update of attenuation coefficient for a model corresponding to time-series input data
US20230274150A1 (en) Performing Inference And Training Using Sparse Neural Network
CN116467747A (zh) 一种联邦学习隐私保护方法及***
CN114548428B (zh) 基于实例重构的联邦学习模型智能攻击检测方法及装置
WO2019144710A1 (zh) 确定瞳孔位置的方法和装置
CN111553477A (zh) 图像处理方法、装置及存储介质
CN114357526A (zh) 抵御推断攻击的医疗诊断模型差分隐私联合训练方法
CN117852088A (zh) 一种基于预训练扩散模型的隐私数据生成方法
CN112381147A (zh) 动态图片相似度模型建立、相似度计算方法和装置
CN116030502A (zh) 一种基于无监督学习的行人重识别方法和装置
CN107222386A (zh) 一种消息回复方法及终端
CN116720214A (zh) 一种用于隐私保护的模型训练方法及装置
CN116543259A (zh) 一种深度分类网络噪声标签建模与纠正方法、***及存储介质
CN115527061A (zh) 一种基于联邦学习的差分隐私图像分类方法及装置
US20220301211A1 (en) Methods, systems and computer medium for scene-adaptive future depth prediction in monocular videos

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination