CN113923225A - 基于分布式架构的联邦学习平台、方法、设备和存储介质 - Google Patents
基于分布式架构的联邦学习平台、方法、设备和存储介质 Download PDFInfo
- Publication number
- CN113923225A CN113923225A CN202011280929.6A CN202011280929A CN113923225A CN 113923225 A CN113923225 A CN 113923225A CN 202011280929 A CN202011280929 A CN 202011280929A CN 113923225 A CN113923225 A CN 113923225A
- Authority
- CN
- China
- Prior art keywords
- sub
- child node
- federal learning
- learning
- distributed architecture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/104—Peer-to-peer [P2P] networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/04—Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks
- H04L63/0428—Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks wherein the data content is protected, e.g. by encrypting or encapsulating the payload
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了一种基于分布式架构的联邦学***台包括:子节点设备,获取用于进行联邦学***台。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种基于分布式架构的联邦学习平台、方法、设备和存储介质。
背景技术
现有的联邦学习框架中,通常是采用基于对等节点(类似于p2p)的框架,每个客户端处理完成后发给其他所有客户端,或者数据在各个客户端之间依次传递(ring)。但是,上述对等节点的联邦学习框架至少存在以下几个技术问题:
(1)数据传输链条长:在环式架构下,需要一个个节点依次往下传输数据,在公网的网络不稳定时,数据传输的失败率较高。
(2)传输的节点多:如果采用广播架构,由于每个节点都需要发给其他所有节点,数据传输量较大。
(3)通用性较差,比如多个客户想在一个公认的可信平台做训练,点对点模式就无法实现。
(4)点对点模式下,机器学习算法的兼容性较差,特别是对于算法特征不在同一个客户端或者混合类算法,需要双向发送消息进行多次交互协商,数据交互压力较大。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种基于分布式架构的联邦学习平台、方法、设备和存储介质,至少在一定程度上克服由于相关技术中数据传输压力和交互量大的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种基于分布式架构的联邦学习平台,包括:子节点设备,获取用于进行联邦学习的部分特征数据,全部子节点设备的部分特征数据汇聚后包含联邦学习的全部特征数据;主节点设备,连接至子节点设备,用于接收子节点设备的联邦学习的请求指令,根据请求指令获取子节点设备中的第一类子节点设备发送的部分特征数据,并根据请求指令将部分特征数据分发至子节点设备中的第二类子节点设备,第二类子节点设备根据接收的部分特征数据执行联邦学习中的部分联邦学习。
在本公开的一个实施例中,任两个所述子节点设备之间的数据交互通过所述主节点设备进行中转。
在本公开的一个实施例中,所述子节点设备根据所述请求指令确定对应的公钥-私钥对,并将所述公钥反馈至所述主节点设备,所述子节点设备通过所述私钥对待发送的部分特征数据进行加密,并将加密后的部分特征数据转发至所述主节点设备。
在本公开的一个实施例中,子节点设备根据部分特征数据进行部分联邦学习,部分联邦学习的训练包括横向训练、纵向训练和转移训练中的至少一种。
在本公开的一个实施例中,主节点设备还用于获取子节点设备执行部分联邦学习的进度,以及获取部分联邦学习的输出结果。
在本公开的一个实施例中,主节点设备还用于获取子节点设备执行部分联邦学习的运行状态信息,运行状态信息包括数据交互量和/或资源占用率。
在本公开的一个实施例中,基于分布式架构的联邦学习平台还包括:元数据库,连接至子节点设备,元数据数据库存储有元数据,子节点设备通过对元数据进行预处理得到特征数据。
在本公开的一个实施例中,主节点设备还用于确定联邦学习训练任务,以及根据联邦学习训练任务向子节点设备的分配部分联邦学习训练任务,以及根据联邦学习训练任务在子节点设备之间进行训练数据的交互。
在本公开的一个实施例中,所述元数据库包括Redis数据库、Hbase数据库、Elasticsearch数据库和Oracle数据库中的至少一种。
根据本公开的另一个方面,提供一种基于分布式架构的联邦学习方法,包括:获取子节点设备发送的用于进行联邦学习的部分特征数据,全部所述子节点设备的部分特征数据汇聚后包含所述联邦学习的全部特征数据;接收所述子节点设备发送联邦学习的请求指令;根据所述请求指令获取所述子节点设备中的第一类子节点设备发送的部分特征数据,并根据所述请求指令将所述部分特征数据分发至所述子节点设备中的第二类子节点设备,以供所述第二类子节点设备根据接收的部分特征数据执行所述联邦学习中的部分联邦学习,所述子节点设备为所述第一类子节点设备或所述第二类子节点设备。
在本公开的一个实施例中,基于分布式架构的联邦学习方法还包括:获取所述子节点设备发送的数据交互请求和数据包;解析所述数据交互请求以确定目标子节点设备;将所述数据包转发至所述目标子节点设备,所述目标子节点设备为所述第一类子节点设备或所述第二类子节点设备。
在本公开的一个实施例中,基于分布式架构的联邦学习方法还包括:接收所述子节点设备发送的公钥,所述子节点设备保存有与所述公钥匹配的私钥;接收所述子节点设备通过所述私钥加密的部分特征数据;通过所述公钥对所述加密后的部分特征数据进行解析处理。
在本公开的一个实施例中,基于分布式架构的联邦学习方法还包括:接收所述子节点设备计算的加密的梯度值的中间结果和损失值;根据所述加密的梯度值的中间结果和损失值确定梯度值;将所述梯度值反馈至所述子节点设备,以供所述子节点设备根据梯度值更新本地的机器学习模型。
根据本公开的再一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储处理器的可执行指令;其中,处理器配置为经由执行可执行指令来执行上述任意一项的基于分布式架构的联邦学习方法。
根据本公开的又一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述任意一项的基于分布式架构的联邦学习方法。
本公开的实施例所提供的联邦学习方案,基于分布式主从架构,主节点负责集群的维护,数据的聚合和分发等操作,从节点负责数据的加载和模型的训练等操作。每轮训练中,主节点对于每个从节点只需要请求一次,降低公网请求次数进而降低了失败率。同时,主节点可以随时感知到子节点传输数据是否成功,即使失败也可以通过重试来解决。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A示出本公开实施例中一种联邦学习***结构的示意图;
图1B示出本公开实施例中另一种联邦学习***结构的示意图;
图2示出本公开实施例中一种基于分布式架构的联邦学习平台的架构;
图3示出本公开实施例中另一种基于分布式架构的联邦学习方法的示意图;
图4示出本公开实施例中另一种基于分布式架构的联邦学习方法的示意图;
图5示出本公开实施例中另一种基于分布式架构的联邦学习方法的示意图;
图6示出本公开实施例中另一种基于分布式架构的联邦学习方法的示意图;
图7示出本公开实施例中一种电子设备的示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本申请提供的方案,基于分布式主从架构,主节点负责集群的维护,数据的聚合和分发等操作,从节点负责数据的加载和模型的训练等操作。每轮训练中,主节点对于每个从节点只需要请求一次,降低公网请求次数进而降低了失败率。同时,主节点可以随时感知到子节点传输数据是否成功,即使失败也可以通过重试来解决。
针对不同数据集,联邦学习分为横向联邦学习(horizontal federatedlearning)、纵向联邦学习(vertical federated learning)与联邦迁移学习(FederatedTransfer Learning)。
(1)横向联邦学习在两个数据集的用户特征重叠较多,而用户重叠较少的情况下,我们把数据集按照横向(即用户维度)切分,并取出双方用户特征相同而用户不完全相同的那部分数据进行训练。这种方法叫做横向联邦学习。比如有两家不同地区的银行,它们的用户群体分别来自各自所在的地区,相互的交集很小。但是,它们的业务很相似,因此,记录的用户特征是相同的。此时,我们就可以使用横向联邦学习来构建联合模型。譬如,在单个用户使用安卓手机时,不断在本地更新模型参数并将参数上传到安卓云上,从而使特征维度相同的各数据拥有方建立联合模型。
(2)纵向联邦学习在两个数据集的用户重叠较多而用户特征重叠较少的情况下,我们把数据集按照纵向(即特征维度)切分,并取出双方用户相同而用户特征不完全相同的那部分数据进行训练。这种方法叫做纵向联邦学习。比如有两个不同的机构,家是某地的银行,另一家是同一个地方的电商。它们的用户群体很有可能包含该地的大部分居民因此用户的交集较大。但是,由于银行记录的都是用户的收支行为与信用评级,而电商则保有用户的浏览与购买历史,因此它们的用户特征交集较小。纵向联邦学习就是将这些不同特征在加密的状态下加以聚合,以增强模型能力。目前,逻辑回归模型、树形结构模型和神经网络模型等众多机器学习模型,已经逐渐被证实能够建立在此联邦体系上。
(3)联邦迁移学习在两个数据集的用户与用户特征重叠都较少的情况下,不对数据进行切分,而利用迁移学习国来克服数据或标签不足的情况。这种方法叫做联邦迁移学习。比如有两个不同机构,一家是位于中国的银行,另一家是位于美国的电商。由于受地域限制,这两家机构的用户群体交集很小。同时,由于机构类型的不同,二者的数据特征也只有小部分重合。在这种情况下,要想进行有效的联邦学习,就必须引入迁移学习,来解决单边数据规模小和标签样本少的问题,从而提升模型的效果。
本申请实施例提供的方案涉及联邦学***台架构等技术,具体通过如下实施例进行说明。
图1A示出本公开实施例中一种基于分布式架构的联邦学习平台流程图。本公开实施例提供的方法可以由任意具备计算处理能力的电子设备执行,如图1A所示的第一终端104(或如图1A所示的第二终端106)和/或服务器集群102。在下面的举例说明中,以第一终端104(或如图1A所示的第二终端106)为执行主体进行示例说明。
图1A示出本公开实施例中一种联邦学习***的结构示意图,包括服务器集群102和多个第一终端104(或如图1A所示的第二终端106)。
第一终端104(或如图1A所示的第二终端106)可以是手机、游戏主机、平板电脑、电子书阅读器、智能眼镜、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、智能家居设备、AR(Augmented Reality,增强现实)设备、VR(Virtual Reality,虚拟现实)设备等移动终端,或者,第一终端104(或如图1A所示的第二终端106)也可以是个人计算机(Personal Computer,PC),比如膝上型便携计算机和台式计算机等等。
其中,第一终端104(或如图1A所示的第二终端106)中可以安装有用于提供联邦学习的应用程序。
第一终端104(或如图1A所示的第二终端106)与服务器集群102之间通过通信网络相连。可选的,通信网络是有线网络或无线网络。
第一终端104的第一类隐私数据108和第二终端106的第二类隐私数据110无法直接进行交互处理112,而是在第一终端104和第二终端106之间进行加密样本对齐处理114后,才可以进行数据交互。
如图1B所示,经过加密样本对齐处理114后得到第一对齐数据端118和第二对齐数据端116,通过协助端120进行第一对齐数据端118和第二对齐数据端116之间的连邦学习。第一对齐数据端118和第二对齐数据端116之间进行加密交互124中间结果。协助端120向第一对齐数据端118分发公钥122,第一对齐数据端118向协助端120发送加密汇总梯度和损失126,协助端120向第一对齐数据端118发送更新双方模型的指令128,第二对齐数据端116与协助端120之间也执行上述处理。
服务器集群102是一台服务器,或者由若干台服务器组成,或者是一个虚拟化平台,或者是一个云计算服务中心。服务器集群102用于为提供联邦学习的应用程序提供后台服务。可选地,服务器集群102承担主要计算工作,第一终端104(或如图1A所示的第二终端106)承担次要计算工作;或者,服务器集群102承担次要计算工作,第一终端104(或如图1A所示的第二终端106)承担主要计算工作;或者,第一终端104(或如图1A所示的第二终端106)和服务器集群102之间采用分布式计算架构进行协同计算。
在一些可选的实施例中,服务器集群102用于存储联邦学习信息,譬如,待检测的图像、参考图像库和完成检测的图像。
可选地,不同的第一终端104(或如图1A所示的第二终端106)中安装的应用程序的客户端是相同的,或两个第一终端104(或如图1A所示的第二终端106)上安装的应用程序的客户端是不同控制***平台的同一类型应用程序的客户端。基于终端平台的不同,该应用程序的客户端的具体形态也可以不同,比如,该应用程序客户端可以是手机客户端、PC客户端或者全球广域网(World Wide Web,Web)客户端等。
本领域技术人员可以知晓,上述第一终端104(或如图1A所示的第二终端106)的数量可以更多或更少。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量。本申请实施例对终端的数量和设备类型不加以限定。
可选的,该***还可以包括管理设备,该管理设备与服务器集群102之间通过通信网络相连。可选的,通信网络是有线网络或无线网络。
可选的,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(ExtensibleMarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(InternetProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
下面,将结合附图及实施例对本示例实施方式中的基于分布式架构的联邦学习平台的各个步骤进行更详细的说明。
如图2所示,基于分布式架构的联邦学习平台,包括:子节点设备212,获取用于进行联邦学习的部分特征数据,全部子节点设备212的部分特征数据汇聚后包含联邦学习的全部特征数据;主节点设备202,连接至子节点设备212,用于接收子节点设备212的联邦学习的请求指令,根据请求指令获取子节点设备212中的第一类子节点设备212发送的部分特征数据,并根据请求指令将部分特征数据分发至子节点设备212中的第二类子节点设备212,第二类子节点设备212根据接收的部分特征数据执行联邦学习中的部分联邦学习。
在上述实施例中,基于主从架构下的联邦学习平台中,每个子节点设备212都只与主节点设备202交互,由主节点设备202进行数据聚合和分发,每一轮训练中只需要请求每个子节点设备212一次。同时,主节点设备202可以实时统计各个子节点设备212的网络和其他资源情况,在失败时主动重试。
进一步地,相对于现有技术中的点对点的联邦学***台在稳定性和效率等多方面均有提高,在后续的分布式扩展和数据统计等方面也比其他模式更方便。
在本公开的一个实施例中,任两个子节点设备212之间的数据交互通过主节点设备202进行中转。
在本公开的一个实施例中,所述子节点设备212根据所述请求指令确定对应的公钥-私钥对,并将所述公钥反馈至所述主节点设备202,所述子节点设备212通过所述私钥对待发送的部分特征数据进行加密,并将加密后的部分特征数据转发至所述主节点设备202。
在本公开的一个实施例中,子节点设备212根据请求指令确定对应的公钥-私钥对,并将公钥反馈至主节点设备202。
在上述实施例中,子节点设备212包括主要负责本地数据的训练、模型生成和保存等。子节点设备212可执行分布式联邦学习或多级多线程推理,并通过主节点设备202进行数据汇总和聚集。子节点设备212通过检测数据插拔、数据监控、泄露警报和数据接入的结果,并实时上报至主节点设备202,来进一步的提升联邦学习效率、可靠性和安全性。
在本公开的一个实施例中,子节点设备212根据部分特征数据进行部分联邦学习,部分联邦学习的训练包括横向训练、纵向训练和转移训练中的至少一种。
在上述实施例中,子节点设备212根据部分特征数据进行部分联邦学习,特征数据分布在多个客户端或者混合算法中,不需要增加额外的步骤,多个子节点设备212之间协同工作实现联邦学习,并通过主节点设备202来统筹联邦学习过程。
在本公开的一个实施例中,主节点设备202还用于获取子节点设备212执行部分联邦学习的进度,以及获取部分联邦学习的输出结果。
在上述实施例中,主节点设备202还用于获取子节点设备212执行部分联邦学习的进度,以及获取部分联邦学习的输出结果,以提高联邦学习的效率。另外,若联邦学习的输出结果的响应时间过长,则主节点设备202可以指示子节点设备212重新上传输出结果或重新进行部分联邦学习。
在本公开的一个实施例中,主节点设备202还用于获取子节点设备212执行部分联邦学习的运行状态信息,运行状态信息包括数据交互量和/或资源占用率。
在上述实施例中,主节点设备202还用于获取子节点设备212执行部分联邦学***台的运行压力,以降低联邦学习平台宕机的可能性。
在本公开的一个实施例中,基于分布式架构的联邦学习平台还包括:元数据库,连接至子节点设备212,元数据数据库存储有元数据,子节点设备212通过对元数据进行预处理得到特征数据。
在上述实施例中,所述元数据库包括Redis数据库、Hbase数据库、Elasticsearch数据库和Oracle数据库中的至少一种,具体地:
(1)Redis(Remote Dictionary Server)服务器(如图2所示的204A或204B),即远程字典服务,是一个开源的使用ANSI C语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言的API。
(2)HBase–Hadoop Database数据库(如图2所示的206A或206B),是一个高可靠性、高性能、面向列、可伸缩的分布式存储***,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群。
(3)ES(Elasticsearch)数据库(如图2所示的208A或208B),是一个开源分布式搜索引擎。同时ES数据库还是一个分布式文档数据库,其中每个字段均可被索引,而且每个字段的数据均可被搜索,能够横向扩展至数以百计的服务器存储以及处理PB级的数据。
ES数据库就是为高可用和可扩展而生的,可以在极短的时间内存储、搜索和分析大量的数据。通常作为具有复杂搜索场景情况下的核心发动机。
(4)Oracle数据库(如图2所示的210A或210B),作为一个通用的数据库***,它具有完整的数据管理功能,作为一个关系数据库,它是一个完备关系的产品,作为分布式数据库它实现了分布式处理功能在本公开的一个实施例中,主节点设备202还用于确定联邦学习训练任务,以及根据联邦学习训练任务向子节点设备212的分配部分联邦学习训练任务,以及根据联邦学习训练任务在子节点设备212之间进行训练数据的交互。
需要注意的是,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为***、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“***”。
图3示出本公开实施例中一种基于分布式架构的联邦学习平台流程图。本公开实施例提供的方法可以由任意具备计算处理能力的电子设备执行。
如图3所示,电子设备执行基于分布式架构的联邦学习平台,包括以下步骤:
步骤S302,获取子节点设备发送的用于进行联邦学习的部分特征数据,全部所述子节点设备的部分特征数据汇聚后包含所述联邦学习的全部特征数据。
步骤S304,接收所述子节点设备发送联邦学习的请求指令。
步骤S306,根据所述请求指令获取所述子节点设备中的第一类子节点设备发送的部分特征数据。
步骤S308,根据所述请求指令将所述部分特征数据分发至所述子节点设备中的第二类子节点设备,以供所述第二类子节点设备根据接收的部分特征数据执行所述联邦学习中的部分联邦学习,所述子节点设备为所述第一类子节点设备或所述第二类子节点设备。
在上述实施例中,基于主从架构下的联邦学习平台中,每个子节点设备都只与主节点设备交互,由主节点设备进行数据聚合和分发,每一轮训练中只需要请求每个子节点设备一次。同时,主节点设备可以实时统计各个子节点设备的网络和其他资源情况,在失败时主动重试。
进一步地,相对于现有技术中的点对点的联邦学***台在稳定性和效率等多方面均有提高,在后续的分布式扩展和数据统计等方面也比其他模式更方便。
在图3所示的方法步骤的基础下,如图4所示,基于分布式架构的联邦学习方法还包括:
步骤S402,获取所述子节点设备发送的数据交互请求和数据包。
步骤S404,解析所述数据交互请求以确定目标子节点设备。
步骤S406,将所述数据包转发至所述目标子节点设备,所述目标子节点设备为所述第一类子节点设备或所述第二类子节点设备。
在上述实施例中,通过主节点设备来实现子节点设备之间的数据包的转发,通过主节点设备来转发子节点设备之间的交互数据,有利于提升子节点设备的数据安全和可靠性。
在图3所示的方法步骤的基础下,如图5所示,基于分布式架构的联邦学习方法还包括:
步骤S502,接收所述子节点设备发送的公钥,所述子节点设备保存有与所述公钥匹配的私钥,
步骤S504,接收所述子节点设备通过所述私钥加密的部分特征数据。
步骤S506,通过所述公钥对所述加密后的部分特征数据进行解析处理。
在上述实施例中,通过在子节点设备生产公钥-私钥对,并在子节点设备保存私钥后,将公钥发送至主节点设备,以供主节点设备进行数据包验证和解密处理。
在图3所示的方法步骤的基础下,如图6所示,基于分布式架构的联邦学习方法还包括:
步骤S602,接收所述子节点设备计算的加密的梯度值的中间结果和损失值。
步骤S604,根据所述加密的梯度值的中间结果和损失值确定梯度值。
步骤S606,将所述梯度值反馈至所述子节点设备,以供所述子节点设备根据梯度值更新本地的机器学习模型。
在上述实施例中,迭代步骤S602、步骤S604和步骤S606直至损失函数收敛,这样就完成了整个训练过程,在样本对齐及模型训练过程中,子节点设备的部分特征数据均保留在本地,且训练中的数据交互也不会导致数据隐私泄露。
进一步的,通过将所述梯度值反馈至所述子节点设备,以供所述子节点设备根据梯度值更新本地的机器学习模型,即实现了机器学习模型的更新,进一步的提升了联邦学习的准确性和可靠性。
下面参照图7来描述根据本发明的这种实施方式的电子设备700。图7显示的电子设备700仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700以通用计算设备的形式表现。电子设备700的组件可以包括但不限于:上述至少一个处理单元710、上述至少一个存储单元720、连接不同***组件(包括存储单元720和处理单元710)的总线730。
其中,存储单元存储有程序代码,程序代码可以被处理单元710执行,使得处理单元710执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元710可以执行本公开的基于分布式架构的联邦学***台中限定的其他步骤。
存储单元720可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)7201和/或高速缓存存储单元7202,还可以进一步包括只读存储单元(ROM)7203。
存储单元720还可以包括具有一组(至少一个)程序模块7205的程序/实用工具7204,这样的程序模块7205包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线730可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备700也可以与一个或多个外部设备740(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备交互的设备通信,和/或与使得该电子设备700能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口750进行。并且,电子设备700还可以通过网络适配器760与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器760通过总线730与电子设备700的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
描述了根据本发明的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (15)
1.一种基于分布式架构的联邦学习平台,其特征在于,包括:
子节点设备,获取用于进行联邦学习的部分特征数据,全部所述子节点设备的部分特征数据汇聚后包含所述联邦学习的全部特征数据;
主节点设备,连接至所述子节点设备,用于接收所述子节点设备的联邦学习的请求指令,根据所述请求指令获取所述子节点设备中的第一类子节点设备发送的部分特征数据,并根据所述请求指令将所述部分特征数据分发至所述子节点设备中的第二类子节点设备,所述第二类子节点设备根据接收的部分特征数据执行所述联邦学习中的部分联邦学习。
2.根据权利要求1所述的基于分布式架构的联邦学习平台,其特征在于,
任两个所述子节点设备之间的数据交互通过所述主节点设备进行中转。
3.根据权利要求1所述的基于分布式架构的联邦学习平台,其特征在于,
所述子节点设备根据所述请求指令确定对应的公钥-私钥对,并将所述公钥反馈至所述主节点设备,所述子节点设备通过所述私钥对待发送的部分特征数据进行加密,并将加密后的部分特征数据转发至所述主节点设备。
4.根据权利要求1或2所述的基于分布式架构的联邦学习平台,其特征在于,
所述子节点设备根据所述部分特征数据进行部分联邦学习,所述部分联邦学习的训练包括横向训练、纵向训练和转移训练中的至少一种。
5.根据权利要求1或2所述的基于分布式架构的联邦学习平台,其特征在于,
所述主节点设备还用于获取所述子节点设备执行所述部分联邦学习的进度,以及获取所述部分联邦学习的输出结果。
6.根据权利要求1或2所述的基于分布式架构的联邦学习平台,其特征在于,
所述主节点设备还用于获取所述子节点设备执行所述部分联邦学习的运行状态信息,所述运行状态信息包括数据交互量和/或资源占用率。
7.根据权利要求1或2所述的基于分布式架构的联邦学习平台,其特征在于,还包括:
元数据库,连接至所述子节点设备,所述元数据数据库存储有元数据,所述子节点设备通过对所述元数据进行预处理得到所述特征数据。
8.根据权利要求6所述的基于分布式架构的联邦学习平台,其特征在于,
所述主节点设备还用于确定联邦学习训练任务,以及根据所述联邦学习训练任务向所述子节点设备的分配部分联邦学习训练任务,以及根据所述联邦学习训练任务在所述子节点设备之间进行训练数据的交互。
9.根据权利要求6所述的基于分布式架构的联邦学习平台,其特征在于,
所述元数据库包括Redis数据库、Hbase数据库、Elasticsearch数据库和Oracle数据库中的至少一种。
10.一种基于分布式架构的联邦学习方法,其特征在于,包括:
获取子节点设备发送的用于进行联邦学习的部分特征数据,全部所述子节点设备的部分特征数据汇聚后包含所述联邦学习的全部特征数据;
接收所述子节点设备发送联邦学习的请求指令;
根据所述请求指令获取所述子节点设备中的第一类子节点设备发送的部分特征数据,并根据所述请求指令将所述部分特征数据分发至所述子节点设备中的第二类子节点设备,以供所述第二类子节点设备根据接收的部分特征数据执行所述联邦学习中的部分联邦学习,所述子节点设备为所述第一类子节点设备或所述第二类子节点设备。
11.根据权利要求10所述的基于分布式架构的联邦学习方法,其特征在于,还包括:
获取所述子节点设备发送的数据交互请求和数据包;
解析所述数据交互请求以确定目标子节点设备;
将所述数据包转发至所述目标子节点设备,所述目标子节点设备为所述第一类子节点设备或所述第二类子节点设备。
12.根据权利要求10或11所述的基于分布式架构的联邦学习方法,其特征在于,还包括:
接收所述子节点设备发送的公钥,所述子节点设备保存有与所述公钥匹配的私钥;
接收所述子节点设备通过所述私钥加密的部分特征数据;
通过所述公钥对所述加密后的部分特征数据进行解析处理。
13.根据权利要求10或11所述的基于分布式架构的联邦学习方法,其特征在于,还包括:
接收所述子节点设备计算的加密的梯度值的中间结果和损失值;
根据所述加密的梯度值的中间结果和损失值确定梯度值;
将所述梯度值反馈至所述子节点设备,以供所述子节点设备根据梯度值更新本地的机器学习模型。
14.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求10至13中任一项所述的基于分布式架构的联邦学习方法。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,
所述计算机程序被处理器执行时实现权利要求10至13中任一项所述的基于分布式架构的联邦学习方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011280929.6A CN113923225A (zh) | 2020-11-16 | 2020-11-16 | 基于分布式架构的联邦学习平台、方法、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011280929.6A CN113923225A (zh) | 2020-11-16 | 2020-11-16 | 基于分布式架构的联邦学习平台、方法、设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113923225A true CN113923225A (zh) | 2022-01-11 |
Family
ID=79232501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011280929.6A Pending CN113923225A (zh) | 2020-11-16 | 2020-11-16 | 基于分布式架构的联邦学习平台、方法、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113923225A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114492647A (zh) * | 2022-01-28 | 2022-05-13 | ***股份有限公司 | 基于分布式图嵌入的联邦图聚类方法、装置及可读存储介质 |
CN115329032A (zh) * | 2022-10-14 | 2022-11-11 | 杭州海康威视数字技术股份有限公司 | 基于联邦字典学习数据传输方法、装置、设备及存储介质 |
CN115796295A (zh) * | 2023-02-08 | 2023-03-14 | 苏州浪潮智能科技有限公司 | 分布式量子计算机的多模型优化的方法、装置及设备 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020029585A1 (zh) * | 2018-08-10 | 2020-02-13 | 深圳前海微众银行股份有限公司 | 基于迁移学习的神经网络联邦建模方法、设备及存储介质 |
CN111507481A (zh) * | 2020-04-17 | 2020-08-07 | 腾讯科技(深圳)有限公司 | 一种联邦学习*** |
CN111539731A (zh) * | 2020-06-19 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 基于区块链的联邦学习方法及装置和电子设备 |
CN111563267A (zh) * | 2020-05-08 | 2020-08-21 | 京东数字科技控股有限公司 | 用于联邦特征工程数据处理的方法和装置 |
CN111611610A (zh) * | 2020-04-12 | 2020-09-01 | 西安电子科技大学 | 联邦学习信息处理方法、***、存储介质、程序、终端 |
CN111625862A (zh) * | 2020-05-26 | 2020-09-04 | 京东数字科技控股有限公司 | 基于多数据节点的数据处理方法、***及存储介质 |
CN111698322A (zh) * | 2020-06-11 | 2020-09-22 | 福州数据技术研究院有限公司 | 一种基于区块链和联邦学习的医疗数据安全共享方法 |
CN111783139A (zh) * | 2020-06-29 | 2020-10-16 | 京东数字科技控股有限公司 | 联邦学习分类树构建方法、模型构建方法,及终端设备 |
CN111866869A (zh) * | 2020-07-07 | 2020-10-30 | 兰州交通大学 | 面向边缘计算的联邦学习室内定位隐私保护方法 |
CN111901309A (zh) * | 2020-07-03 | 2020-11-06 | 北京邮电大学 | 一种数据安全共享方法、***及装置 |
CN111931242A (zh) * | 2020-09-30 | 2020-11-13 | 国网浙江省电力有限公司电力科学研究院 | 一种数据共享方法以及应用其的计算机设备及可读存储介质 |
-
2020
- 2020-11-16 CN CN202011280929.6A patent/CN113923225A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020029585A1 (zh) * | 2018-08-10 | 2020-02-13 | 深圳前海微众银行股份有限公司 | 基于迁移学习的神经网络联邦建模方法、设备及存储介质 |
CN111611610A (zh) * | 2020-04-12 | 2020-09-01 | 西安电子科技大学 | 联邦学习信息处理方法、***、存储介质、程序、终端 |
CN111507481A (zh) * | 2020-04-17 | 2020-08-07 | 腾讯科技(深圳)有限公司 | 一种联邦学习*** |
CN111563267A (zh) * | 2020-05-08 | 2020-08-21 | 京东数字科技控股有限公司 | 用于联邦特征工程数据处理的方法和装置 |
CN111625862A (zh) * | 2020-05-26 | 2020-09-04 | 京东数字科技控股有限公司 | 基于多数据节点的数据处理方法、***及存储介质 |
CN111698322A (zh) * | 2020-06-11 | 2020-09-22 | 福州数据技术研究院有限公司 | 一种基于区块链和联邦学习的医疗数据安全共享方法 |
CN111539731A (zh) * | 2020-06-19 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 基于区块链的联邦学习方法及装置和电子设备 |
CN111783139A (zh) * | 2020-06-29 | 2020-10-16 | 京东数字科技控股有限公司 | 联邦学习分类树构建方法、模型构建方法,及终端设备 |
CN111901309A (zh) * | 2020-07-03 | 2020-11-06 | 北京邮电大学 | 一种数据安全共享方法、***及装置 |
CN111866869A (zh) * | 2020-07-07 | 2020-10-30 | 兰州交通大学 | 面向边缘计算的联邦学习室内定位隐私保护方法 |
CN111931242A (zh) * | 2020-09-30 | 2020-11-13 | 国网浙江省电力有限公司电力科学研究院 | 一种数据共享方法以及应用其的计算机设备及可读存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114492647A (zh) * | 2022-01-28 | 2022-05-13 | ***股份有限公司 | 基于分布式图嵌入的联邦图聚类方法、装置及可读存储介质 |
CN115329032A (zh) * | 2022-10-14 | 2022-11-11 | 杭州海康威视数字技术股份有限公司 | 基于联邦字典学习数据传输方法、装置、设备及存储介质 |
CN115796295A (zh) * | 2023-02-08 | 2023-03-14 | 苏州浪潮智能科技有限公司 | 分布式量子计算机的多模型优化的方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Design of personnel big data management system based on blockchain | |
CN113923225A (zh) | 基于分布式架构的联邦学习平台、方法、设备和存储介质 | |
US10678597B2 (en) | Event-driven blockchain workflow processing | |
CN111309550A (zh) | 应用程序的数据采集方法、***、设备和存储介质 | |
KR20140141053A (ko) | 맵리듀스 연산 가속 시스템 및 방법 | |
US11630806B1 (en) | Method, apparatus, and computer program product for compression of a graph | |
CN111178849A (zh) | 线性流程引擎实现方法、装置、设备及存储介质 | |
CN113129149A (zh) | 基于区块链和安全多方计算的交易风险识别方法和装置 | |
Liang et al. | EduChain: A highly available education consortium blockchain platform based on Hyperledger Fabric | |
CN111338834B (zh) | 数据存储方法和装置 | |
CN114077518A (zh) | 数据快照方法、装置、设备及存储介质 | |
Song et al. | [Retracted] System Design for Online Foreign Language Education Based on Blockchain Technology | |
CN114650179A (zh) | 风险数据监测方法、装置、***、电子设备及存储介质 | |
CN114022711A (zh) | 工业标识数据缓存处理方法及装置、介质及电子设备 | |
CN112352228B (zh) | 数据存储***和方法 | |
WO2023061329A1 (zh) | 应用于计算机集群的通信方法及通信装置 | |
CN116629379A (zh) | 联邦学习聚合方法及装置、存储介质及电子设备 | |
CN112486460A (zh) | 自动导入接口文档的方法、***、设备和介质 | |
CN113542323A (zh) | 业务处理方法、装置、设备及计算机可读存储介质 | |
US8214846B1 (en) | Method and system for threshold management | |
US11687542B2 (en) | Techniques for in-memory data searching | |
CN113781082B (zh) | 区域画像的修正方法、装置、电子设备和可读存储介质 | |
CN117194347A (zh) | 基于套接字的日志处理方法、装置、服务器和介质 | |
CN118036765A (zh) | 联邦学习方法、装置、电子设备及计算机可读存储介质 | |
CN115563083A (zh) | 数据库回滚方法、装置、***、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |