CN114492846A - 基于可信执行环境的跨域联邦学习方法及*** - Google Patents

基于可信执行环境的跨域联邦学习方法及*** Download PDF

Info

Publication number
CN114492846A
CN114492846A CN202210354376.7A CN202210354376A CN114492846A CN 114492846 A CN114492846 A CN 114492846A CN 202210354376 A CN202210354376 A CN 202210354376A CN 114492846 A CN114492846 A CN 114492846A
Authority
CN
China
Prior art keywords
parameter
information
task
training
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210354376.7A
Other languages
English (en)
Other versions
CN114492846B (zh
Inventor
邢炬
左磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianju Dihe Suzhou Technology Co ltd
Original Assignee
Tianju Dihe Suzhou Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianju Dihe Suzhou Technology Co ltd filed Critical Tianju Dihe Suzhou Technology Co ltd
Priority to CN202210354376.7A priority Critical patent/CN114492846B/zh
Publication of CN114492846A publication Critical patent/CN114492846A/zh
Application granted granted Critical
Publication of CN114492846B publication Critical patent/CN114492846B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/57Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44505Configuring for program initiating, e.g. using registry, configuration files
    • G06F9/4451User profiles; Roaming

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multi Processors (AREA)
  • Storage Device Security (AREA)

Abstract

本申请公开了一种基于可信执行环境的跨域联邦学***台控制器;平台控制器将联邦学习任务发送给参与方,将根据联邦学习任务生成的配置信息发送给参数聚合集群;参与方根据联邦学习任务进行模型训练,将每一轮训练的中间参数发送给参数聚合集群;参数聚合集群根据配置信息进行集群配置和底层网络配置,根据集群配置和底层网络配置在可信执行环境中聚合中间参数,将聚合后的中间参数发送给参与方继续训练;对最后一轮训练的中间参数进行聚合后,参数聚合集群将该中间参数作为模型参数发送给任务开发方。本申请能够提高参数精度和参数聚合效率。

Description

基于可信执行环境的跨域联邦学习方法及***
技术领域
本申请涉及机器学习技术领域,特别涉及一种基于可信执行环境的跨域联邦学习方法及***。
背景技术
数据主权和安全问题日益突出,出于对数据主权的尊重和对数据安全的保障,联邦学习作为一种新的机器学习范式被提出,并被逐步推广应用于各类数据要素主体的协作中。由于实际的训练过程在参与方本地完成,原始数据并未出参与方,该范式能够切实保障数据安全和数据主权。在实际产业中,不同机构之间存在大量的数据协作应用需求,联邦学习技术的出现为跨机构的数据价值流动提供了有效手段。
为了保障参数聚合的安全,各类联邦学习技术通常利用安全手段对参数聚合过程进行加固,加固的主要方式有多方安全计算技术、差分隐私、同态加密技术等。
多方安全计算和同态加密方案具有较大性能开销(线上和线下),且为了兼顾性能,在实际使用中往往会对数据进行截断,造成精度损失;差分隐私方案虽然能够从统计意义上防止参数泄露,但由于噪声的引入对聚合的数据精度会产生影响;另外,这些加固方式会降低参数聚合效率。
发明内容
本申请提供了一种基于可信执行环境的跨域联邦学习方法及***,用于解决利用安全手段对参数聚合过程进行加固时,降低参数精度和参数聚合效率的问题。所述技术方案如下:
一方面,提供了一种基于可信执行环境的跨域联邦学***台控制器和开发环境,所述方法包括:
所述任务开发方在所述开发环境中生成联邦学***台控制器,所述联邦学习任务中包含待训练模型的参数及指标信息、模型结构信息、数据准备信息和预定数据类型,所述参数及指标信息用于指示所述模型的模型参数和训练指标,所述模型结构信息用于指示所述模型的模型结构,所述数据准备信息用于指示所述模型的训练数据的声明,以使分布式数据源按照所述声明对应的处理流程准备所述训练数据,所述预定数据类型用于指示所述联邦学习***提供的逻辑数据抽象,以使分布式的训练数据抽象为完整数据集;
所述平台控制器将所述联邦学习任务发送给所述参与方,并根据所述联邦学习任务生成配置信息,将所述配置信息发送给所述参数聚合集群;
所述参与方根据所述联邦学习任务进行模型训练,并将每一轮训练得到的中间参数发送给所述参数聚合集群;
所述参数聚合集群根据所述配置信息进行集群配置和底层网络配置,并根据所述集群配置和底层网络配置在可信执行环境中聚合所述中间参数,将聚合后的中间参数发送给所述参与方继续训练;
当对最后一轮训练的中间参数进行聚合后,所述参数聚合集群将聚合后的中间参数作为模型参数发送给所述任务开发方。
在一种可能的实现方式中,所述方法还包括:
所述平台控制器根据所述联邦学习任务生成会话令牌,将所述会话令牌发送给所述任务开发方;
所述任务开发方修改所述联邦学***台控制器,所述至少一种信息为所述参数及指标信息、所述模型结构信息和所述数据准备信息中的至少一种;
所述平台控制器将修改前后的联邦学习任务中的每种信息映射为状态图,对所述状态图中的每项内容进行修改前后的差分计算,根据计算结果生成更新配置信息,将所述更新配置信息发送给所述参数聚合集群;
所述参数聚合集群根据所述更新配置信息修改所述集群配置和/或所述底层网络配置。
在一种可能的实现方式中,所述任务开发方修改所述联邦学习任务中的至少一种信息,包括:
所述任务开发方调用所述预定数据类型支持的增量语义接口,利用所述增量语义接口修改所述联邦学习任务中的至少一种信息。
在一种可能的实现方式中,所述增量语义接口包括操作类接口、追踪类接口和交换类接口。
在一种可能的实现方式中,所述方法还包括:
所述平台控制器根据所述计算结果生成信息差分,将所述信息差分发送给所述任务开发方;
所述任务开发方显示所述信息差分。
在一种可能的实现方式中,当所述中间参数被加密并分割成固定大小的参数分片时,所述根据所述集群配置和所述底层网络配置在可信执行环境中聚合所述中间参数,包括:
所述参数聚合集群接收每个参与方发送的加密后的参数分片,在所述可信执行环境中,根据所述底层网络配置将所述加密后的参数分片路由至对应的输入队列中;
所述参数聚合集群从所述输入队列中抽取并解密所述参数分片,并根据所述集群配置对解密后的参数分片进行聚合,将聚合后的参数分片加密送入输出队列中。
在一种可能的实现方式中,所述参数聚合集群中包含多个服务器,所述在所述可信执行环境中,根据所述底层网络配置将所述加密后的参数分片路由至对应的输入队列中,包括:
在所述可信执行环境中,所述参数聚合集群根据所述底层网络配置中的一级路由,将所述加密后的参数分片路由至不同服务器中;
所述参数聚合集群根据所述底层网络配置中的二级路由,将所述加密后的参数分片路由至所述服务器的内存中的不同输入队列中。
在一种可能的实现方式中,所述根据所述集群配置对解密后的参数分片进行聚合,包括:
所述参数聚合集群获取所述集群配置中的参与方信息和参与方训练权重,根据所述参与方信息和所述参与方训练权重对所述解密后的参数分片进行聚合。
在一种可能的实现方式中,所述根据所述参与方信息和所述参与方训练权重对所述解密后的参数分片进行聚合,包括:
所述参数聚合集群根据所述参与方信息、所述参与方训练权重、以及单指令多数据流的向量点乘操作和相加操作,对所述解密后的参数分片进行聚合。
一方面,提供了一种训练***,所述训练***包括:
任务开发方、联邦学***台控制器和开发环境;
所述任务开发方,用于在所述开发环境中生成联邦学***台控制器,所述联邦学习任务中包含待训练模型的参数及指标信息、模型结构信息、数据准备信息和预定数据类型,所述参数及指标信息用于指示所述模型的模型参数和训练指标,所述模型结构信息用于指示所述模型的模型结构,所述数据准备信息用于指示所述模型的训练数据的声明,以使分布式数据源按照所述声明对应的处理流程准备所述训练数据,所述预定数据类型用于指示所述联邦学习***提供的逻辑数据抽象,以使分布式的训练数据抽象为完整数据集;
所述平台控制器,用于将所述联邦学习任务发送给所述参与方,并根据所述联邦学习任务生成配置信息,将所述配置信息发送给所述参数聚合集群;
所述参与方,用于根据所述联邦学习任务进行模型训练,并将每一轮训练得到的中间参数发送给所述参数聚合集群;
所述参数聚合集群,用于根据所述配置信息进行集群配置和底层网络配置,并根据所述集群配置和底层网络配置在可信执行环境中聚合所述中间参数,将聚合后的中间参数发送给所述参与方继续训练;
当对最后一轮训练的中间参数进行聚合后,所述参数聚合集群,还用于将聚合后的中间参数作为模型参数发送给所述任务开发方。
本申请提供的技术方案的有益效果至少包括:
由于参数聚合集群中包含可信执行环境,所以,参数聚合集群在该可信执行环境中聚合中间参数是安全的,无需再采用安全技术手段对参数聚合过程进行加固,可以避免采用安全技术手段时对参数精度和参数聚合效率造成的损失,从而可以在保障安全性和准确性的基础上能够提供更好的参数聚合效率。
由于联邦学***台控制器,平台控制器可以生成更新配置信息发送给参数聚合集群,这样,参数聚合集群可以根据更新配置参数来修改集群配置和/或底层网络配置,使得任务开发方能够轻量地、动态地按需进行细粒度调整(包括数据集、模型结构、参数及指标),提高了***易用性。
任务开发方调用预定数据类型支持的增量语义接口,利用增量语义接口修改联邦学习任务中的至少一种信息,这样,构建基于模块化的联邦学习任务,可以自动进行联邦学习任务状态的增量更新并将其映射为底层配置的增量化更新,使得任务调整更加敏捷高效。
参数聚合集群获取集群配置中的参与方信息和参与方训练权重,根据参与方信息和参与方训练权重对解密后的参数分片进行聚合,从而在参数聚合过程中融入参与方的信息,从而降低了构建跨域联邦学习计算环境的成本,降低了调整难度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据部分示例性实施例示出的一种训练***的结构示意图;
图2是本申请一个实施例提供的基于可信执行环境的跨域联邦学习方法的方法流程图;
图3是根据部分示例性实施例示出的一种开发环境的可视示图的示意图;
图4是根据部分示例性实施例示出的一种预定数据类型的生成示意图;
图5是本申请一个实施例提供的基于可信执行环境的跨域联邦学习方法的方法流程图;
图6是本申请一个实施例提供的参数聚合的示意图;
图7是本申请一个实施例提供的联邦学习的任务修改方法的方法流程图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本发明提出基于可信执行环境的跨域联邦学***台控制器122和开发环境123。其中,参与者130可以有多个,本实施例不对参与者130的数量作限定。
任务开发方110是任务开发人员所使用的电子设备,参与方130是参与人员所使用的电子设备,本实施例中不对电子设备的具体类型作限定。
开发环境123是面向任务开发方110的,其可以为任务开发方提供模型开发、二次开发和调试的环境。其中,开发环境123中包括模型结构、数据准备、参数及指标、策略和会话令牌。其中,模型结构用于配置待训练模型的结构,数据准备用于配置模型的训练数据的处理流程,参数及指标用于配置模型参数和训练指标,策略和会话令牌用于配置训练策略和会话令牌。
参数聚合集群121负责对各个参与方130的联邦学习参数进行聚合。其中,参数聚合集群121中包括多个工作单元(也可以称为服务器),每个工作单元中配置有可信执行环境,在可信执行环境中配置有输入队列、状态追踪模块、输出队列和聚合引擎,其对联邦学习参数的聚合方式详见下文中的描述。
平台控制器122提供统一的数据视图,并对联邦学***台控制器122包括权限管理模块、增量计算、配置生成模块和会话管理模块,其中,权限管理模块用于进行数据权限校验,增量计算用于对修改的联邦学习任务中的信息进行差分计算,会话管理器用于对FL_Session进行管理、配置生成器用于将会话中的状态映射为集群配置和底层配置。
下面对训练***的联邦学习过程进行说明。请参考图2,其示出了本申请一个实施例提供的基于可信执行环境的跨域联邦学习方法的方法流程图,该基于可信执行环境的跨域联邦学习方法可以应用于图1所示的训练***中。该基于可信执行环境的跨域联邦学习方法,可以包括:
步骤201,任务开发方在开发环境中生成联邦学***台控制器,该联邦学习任务中包含待训练模型的参数及指标信息、模型结构信息、数据准备信息和预定数据类型,参数及指标信息用于指示模型的模型参数和训练指标,模型结构信息用于指示模型的模型结构,数据准备信息用于指示模型的训练数据的声明,以使分布式数据源按照声明对应的处理流程准备训练数据,预定数据类型用于指示联邦学习***提供的逻辑数据抽象,以使分布式的训练数据抽象为完整数据集。
训练***可以向任务开发方提供开发环境,任务开发方可以在开发环境中输入各种信息和预定数据类型,并根据各种信息和预定数据类型生成联邦学***台控制器。
本实施例中涉及到三种信息,分别是参数及指标信息、模型结构信息和数据准备信息。请参考图3,在图3所示的开发环境的可视示图中,三种信息分别对应于一个区域,任务开发人员可以在对应的区域中编辑对应的信息。
参数及指标信息用于指示模型的模型参数和训练指标。其中,模型参数可以包括但不限于:梯度下降、学习率、最小尺寸、损失值。训练指标可以是任务开发方要求监控的能够反映模型的训练效果或训练效率的指标,如机器学习中的训练轮数、训练准确率、目标损失值等。
模型结构信息用于指示模型的模型结构。其中,模型结构中可以包括多个卷积层、池化层、全连接层等。
数据准备信息用于指示模型的训练数据的声明,以使分布式数据源按照声明对应的处理流程准备训练数据。具体来说,数据准备信息是任务开发方可以依托预定数据类型对模型训练所使用的训练数据的声明式表达,是各分布式数据源在进行数据实际处理时参照的处理流程。为了便于理解,以图4所示的一种训练数据的处理流程进行举例说明,即先通过SQL操作从原始数据Data_RAW中提取出Data_P1;再利用缺失值填充函数(PF1)对Data_P1中的缺失值进行填充,得到Data_P2;最后利用特征扩展函数(PF2)对Data_P2进行特征扩展,得到Data_P3,最终将Data_P3作为准备好的训练数据。
本实施例中还涉及一种预定数据类型FL_Data,以便于任务开发方快捷组建数据管道。预定数据类型用于指示联邦学习***提供的逻辑数据抽象,以使分布式的训练数据抽象为完整数据集。即,任务开发方可以在进行模型开发时,将无法实际控制的分布式的训练数据视作一个完整可用的数据集。如图4所示,FL_Data记录了训练数据集组织的血缘关系和数据体量,这相较于谷歌TFF(联邦学习框架)能够清晰地呈现数据构成,对于一些专业领域(如医疗)的跨机构联邦学习具有重要意义。另外,由于联邦学习中的数据不出参与方的本地,FL_Data为数据集的交换与复用提供了渠道。
步骤202,平台控制器将联邦学习任务发送给参与方,并根据联邦学习任务生成配置信息,将该配置信息发送给参数聚合集群。
平台控制器可以使用权限管理模块对数据权限进行校验,在校验通过后将联邦学习任务发送给各个参与方,还可以根据联邦学习任务生成参数聚合集群的配置信息,将该配置信息发送给参数聚合集群。
本实施例中,平台控制器中通过FL_Session抽象进行***状态的复用和增量更新。一个FL_Session管理的对象至少包括:(1)参与方及其数据使用情况;(2)联邦学习数据集的构建管道;(3)训练模型的参数和超参数;(4)参数聚合集群的集群配置;(5)参与方和参数聚合集群的底层网络配置。其中,集群配置至少包括参与方信息、参与方训练权重、聚合器列表和地址,底层网络配置至少包括防火墙规则、路由规则、聚合器列表和地址。
步骤203,参与方根据联邦学习任务进行模型训练,并将每一轮训练得到的中间参数发送给参数聚合集群。
参与方在接收到联邦学习任务后,即可按照模型信息参数来创建模型,并根据参数及指标信息、数据准备信息和预定数据类型来训练模型。在每完成一轮训练后,参与方将得到的中间参数发送给参数聚合集群。
步骤204,参数聚合集群根据配置信息进行集群配置和底层网络配置,并根据集群配置和底层网络配置在可信执行环境中聚合中间参数,将聚合后的中间参数发送给参与方继续训练。
参数聚合集群需要先根据配置信息进行集群配置和底层网络配置,在完成配置后,参数聚合集群接收每个参与方发送的中间参数,再根据集群配置和底层网络配置在可信执行环境中聚合中间参数,将聚合后的中间参数发送给参与方,参与方根据聚合后的中间参数继续下一轮的模型训练。
步骤205,当对最后一轮训练的中间参数进行聚合后,参数聚合集群将聚合后的中间参数作为模型参数发送给任务开发方。
在训练结束后,参数聚合集群对最后一轮训练的中间参数进行聚合,并将聚合后的中间参数作为模型参数发送给任务开发方,任务开发方接收模型参数。
综上所述,本申请实施例提供的基于可信执行环境的跨域联邦学习方法,由于参数聚合集群中包含可信执行环境,所以,参数聚合集群在该可信执行环境中聚合中间参数是安全的,无需再采用安全技术手段对参数聚合过程进行加固,可以避免采用安全技术手段时对参数精度和参数聚合效率造成的损失,从而可以在保障安全性和准确性的基础上能够提供更好的参数聚合效率。
请参考图5,其示出了本申请一个实施例提供的基于可信执行环境的跨域联邦学习方法的方法流程图,该基于可信执行环境的跨域联邦学习方法可以应用于训练***中,该训练***可以为图1所示的训练***。该基于可信执行环境的跨域联邦学习方法,可以包括:
步骤501,任务开发方在开发环境中生成联邦学***台控制器,该联邦学习任务中包含待训练模型的参数及指标信息、模型结构信息、数据准备信息和预定数据类型,参数及指标信息用于指示模型的模型参数和训练指标,模型结构信息用于指示模型的模型结构,数据准备信息用于指示模型的训练数据的声明,以使分布式数据源按照声明对应的处理流程准备训练数据,预定数据类型用于指示联邦学习***提供的逻辑数据抽象,以使分布式的训练数据抽象为完整数据集。
步骤502,平台控制器将联邦学习任务发送给参与方,并根据联邦学习任务生成配置信息,将该配置信息发送给参数聚合集群。
步骤503,参与方根据联邦学习任务进行模型训练,并将每一轮训练得到的中间参数发送给参数聚合集群。
步骤504,参数聚合集群根据配置信息进行集群配置和底层网络配置。
其中,步骤501-504的实现流程与步骤201-204的实现流程相同,详见上文中的描述,此处不作赘述。
步骤505,当中间参数被加密并分割成固定大小的参数分片时,参数聚合集群接收每个参与方发送的加密后的参数分片,在可信执行环境中,根据底层网络配置将加密后的参数分片路由至对应的输入队列中;参数聚合集群从输入队列中抽取并解密参数分片,并根据集群配置对解密后的参数分片进行聚合,将聚合后的参数分片加密送入输出队列中。
本实施例中,参与方可以在得到中间参数后,对中间参数进行加密,将加密后的中间参数分割成固定大小的参数分片,将所有加密后的参数分片以流式方式发送给参数聚合集群。其中,固定大小一般为64KB。
参数聚合集群在接收到加密后的参数分片后,可以在可信执行环境中,根据底层网络配置将加密后的参数分片路由至对应的输入队列中,再利用聚合器将参数分片从输入队列中抽取解密并送入聚合引擎,聚合引擎完成聚合后,将参数分片加密送入输出队列。聚合器保存最新的聚合结果和累积权重。
本实施例中,参数聚合集群中包含多个服务器,则在可信执行环境中,参数聚合集群可以根据底层网络配置中的一级路由,将加密后的参数分片路由至不同服务器中;参数聚合集群再根据底层网络配置中的二级路由,将加密后的参数分片路由至服务器的内存中的不同输入队列中。其中,可以基于负载均衡以及任务的近邻性的规则来设置两层路由,从而可以提高参数聚合的速度和准确性。
如图6所示,参数聚合集群中包括n个服务器(也可以称为参数聚合器),每个服务器的内存中设置有多个输入队列和输出队列,则可以先通过一级路由将参数分片路由至一个服务器中,再通过二级路由将该参数分片路由至一个输入队列中。
本实施例中,参数聚合集群可以获取集群配置中的参与方信息和参与方训练权重,根据参与方信息和参与方训练权重对解密后的参数分片进行聚合,这样,可以在参数聚合过程中融入参与方的信息,从而降低了构建跨域联邦学***台控制器下发的。
其中,聚合引擎基于CPU(Central Processing Unit,中央处理单元)芯片SIMD(Single Instruction Multiple Data,单指令多数据流)设计,那么,参数聚合集群中的聚合引擎可以根据参与方信息、参与方训练权重、以及单指令多数据流的向量点乘操作和相加操作,对解密后的参数分片进行聚合,从而能够高效完成带权参数的聚合。
本实施例中,输入队列和输出队列都在内存中,这样,可以以内存队列的方式重构可信执行环境的上下文切换的接口,避免了上下文切换带来的高昂开销。
步骤506,参数聚合集群将聚合后的中间参数发送给参与方继续训练。
参数聚合集群将输出队列中的参数分片发送给参与方,参与方根据聚合后的中间参数继续下一轮的模型训练。
步骤507,当对最后一轮训练的中间参数进行聚合后,参数聚合集群将聚合后的中间参数作为模型参数发送给任务开发方。
在训练结束后,参数聚合集群对最后一轮训练的中间参数进行聚合,并将聚合后的中间参数作为模型参数发送给任务开发方,任务开发方获取模型参数。
综上所述,本申请实施例提供的基于可信执行环境的跨域联邦学习方法,由于参数聚合集群中包含可信执行环境,所以,参数聚合集群在该可信执行环境中聚合中间参数是安全的,无需再采用安全技术手段对参数聚合过程进行加固,可以避免采用安全技术手段时对参数精度和参数聚合效率造成的损失,从而可以在保障安全性和准确性的基础上能够提供更好的参数聚合效率。
参数聚合集群获取集群配置中的参与方信息和参与方训练权重,根据参与方信息和参与方训练权重对解密后的参数分片进行聚合,从而在参数聚合过程中融入参与方的信息,从而降低了构建跨域联邦学习计算环境的成本,降低了调整难度。
在训练过程中,任务开发方可以按需调整联邦学习任务中的信息,进行训练的调整或调试。请参考图7所示的联邦学习的任务修改方法的方法流程图,该联邦学习的任务修改方法可以包括:
步骤701,平台控制器根据联邦学习任务生成会话令牌,将会话令牌发送给任务开发方。
具体的,平台控制器可以在接收到联邦学习任务后,返回该联邦学习任务对应的FL_Session令牌,即会话令牌。
步骤702,任务开发方修改联邦学***台控制器,至少一种信息为参数及指标信息、模型结构信息和数据准备信息中的至少一种。
任务开发方可以在开发环境中的待修改的信息(参数及指标信息、模型结构信息和数据准备信息)对应的区域内进行修改,得到修改后的联邦学***台控制器。
具体的,任务开发方修改联邦学习任务中的至少一种信息,可以包括:任务开发方调用预定数据类型支持的增量语义接口,利用增量语义接口修改联邦学习任务中的至少一种信息。其中,增量语义接口包括操作类接口、追踪类接口和交换类接口。
本实施例中,操作类接口可以包括但不限于:X.Participants_shaping(participants,flag)、X.Pipeline_shaping(pipe_indexes,flag)、X.Pipeline_substitue(pipe_index,pipe)、X.Rollback(history_number),X.Evaluate()。追踪类接口可以包括但不限于:X.Lincage(indexes)、X.Diff(Y)、X.Merge(Y)、X.Freeze(indexes,Y)。交换类接口可以包括但不限于:X.Export()、X.Import()。
步骤703,平台控制器将修改前后的联邦学习任务中的每种信息映射为状态图,对状态图中的每项内容进行修改前后的差分计算,根据计算结果生成更新配置信息,将更新配置信息发送给参数聚合集群。
其中,状态图可以是状态列表或字典,且状态列表和字典中都包含多项,每项内容是可修改的。
平台控制器可以将修改前后的联邦学***台控制器可以对同一种信息在修改前后映射的状态图进行逐项比对,得到具体内容的变化。比如,修改前的模型指标是学习率为0.05,修改后的模型指标是学习率为0.01。
然后,平台控制器根据会话令牌对所属FL_Session内的状态进行分析,区分受影响的底层状态和未受影响的底层状态和集群配置,对于受影响的底层状态和集群配置,根据预设的相关性规则重新生成更新配置信息,将生成的更新配置信息下发至参数聚合集群。
步骤704,参数聚合集群根据更新配置信息修改集群配置和/或底层网络配置。
本实施例中,平台控制器还可以根据计算结果生成信息差分,将信息差分发送给任务开发方;任务开发方显示信息差分,如图3中所示,信息差分对应于可视示图中的一个区域。
由于联邦学***台控制器,平台控制器可以生成更新配置信息发送给参数聚合集群,这样,参数聚合集群可以根据更新配置参数来修改集群配置和/或底层网络配置,使得任务开发方能够轻量地、动态地按需进行细粒度调整(包括数据集、模型结构、参数及指标),提高了***易用性。
任务开发方调用预定数据类型支持的增量语义接口,利用增量语义接口修改联邦学习任务中的至少一种信息,这样,构建基于模块化的联邦学习任务,可以自动进行联邦学习任务状态的增量更新并将其映射为底层配置的增量化更新,使得任务调整更加敏捷高效。
如图1所示,该训练***可以包括任务开发方110、联邦学***台控制器122和开发环境123;
任务开发方110,用于在开发环境123中生成联邦学***台控制器122,联邦学习任务中包含待训练模型的参数及指标信息、模型结构信息、数据准备信息和预定数据类型,参数及指标信息用于指示模型的模型参数和训练指标,模型结构信息用于指示模型的模型结构,数据准备信息用于指示模型的训练数据的声明,以使分布式数据源按照声明对应的处理流程准备训练数据,预定数据类型用于指示联邦学习***提供的逻辑数据抽象,以使分布式的训练数据抽象为完整数据集;
平台控制器122,用于将联邦学习任务发送给参与方130,并根据联邦学习任务生成配置信息,将配置信息发送给参数聚合集群121;
参与方130,用于根据联邦学习任务进行模型训练,并将每一轮训练得到的中间参数发送给参数聚合集群121;
参数聚合集群121,用于根据配置信息进行集群配置和底层网络配置,并根据集群配置和底层网络配置在可信执行环境中聚合中间参数,将聚合后的中间参数发送给参与方130继续训练;
当对最后一轮训练的中间参数进行聚合后,参数聚合集群121,还用于将聚合后的中间参数作为模型参数发送给任务开发方110。
在一个可选的实施例中,任务开发方110,还用于修改联邦学***台控制器122,至少一种信息为参数及指标信息、模型结构信息和数据准备信息中的至少一种;
平台控制器122,还用于将修改前后的联邦学习任务中的每种信息映射为状态图,对状态图中的每项内容进行修改前后的差分计算,根据计算结果生成更新配置信息,将更新配置信息发送给参数聚合集群121;
参数聚合集群121,还用于根据更新配置信息修改集群配置和/或底层网络配置。
在一个可选的实施例中,任务开发方110,还用于调用预定数据类型支持的增量语义接口,利用增量语义接口修改联邦学习任务中的至少一种信息。
在一个可选的实施例中,增量语义接口包括操作类接口、追踪类接口和交换类接口。
在一个可选的实施例中,平台控制器122,还用于根据计算结果生成信息差分,将信息差分发送给任务开发方110;
任务开发方110,还用于显示信息差分。
在一个可选的实施例中,当中间参数被加密并分割成固定大小的参数分片时,参数聚合集群121,还用于接收每个参与方130发送的加密后的参数分片,在可信执行环境中,根据底层网络配置将加密后的参数分片路由至对应的输入队列中;
参数聚合集群121,还用于从输入队列中抽取并解密参数分片,并根据集群配置对解密后的参数分片进行聚合,将聚合后的参数分片加密送入输出队列中。
在一个可选的实施例中,参数聚合集群121中包含多个服务器,在可信执行环境中,参数聚合集群121,还用于根据底层网络配置中的一级路由,将加密后的参数分片路由至不同服务器中;
参数聚合集群121,还用于根据底层网络配置中的二级路由,将加密后的参数分片路由至服务器的内存中的不同输入队列中。
在一个可选的实施例中,参数聚合集群121,还用于获取集群配置中的参与方130信息和参与方130训练权重,根据参与方130信息和参与方130训练权重对解密后的参数分片进行聚合。
在一个可选的实施例中,参数聚合集群121,还用于根据参与方130信息、参与方130训练权重、以及单指令多数据流的向量点乘操作和相加操作,对解密后的参数分片进行聚合。
综上所述,本申请实施例提供的训练***,由于参数聚合集群中包含可信执行环境,所以,参数聚合集群在该可信执行环境中聚合中间参数是安全的,无需再采用安全技术手段对参数聚合过程进行加固,可以避免采用安全技术手段时对参数精度和参数聚合效率造成的损失,从而可以在保障安全性和准确性的基础上能够提供更好的参数聚合效率。
由于联邦学***台控制器,平台控制器可以生成更新配置信息发送给参数聚合集群,这样,参数聚合集群可以根据更新配置参数来修改集群配置和/或底层网络配置,使得任务开发方能够轻量地、动态地按需进行细粒度调整(包括数据集、模型结构、参数及指标),提高了***易用性。
任务开发方调用预定数据类型支持的增量语义接口,利用增量语义接口修改联邦学习任务中的至少一种信息,这样,构建基于模块化的联邦学习任务,可以自动进行联邦学习任务状态的增量更新并将其映射为底层配置的增量化更新,使得任务调整更加敏捷高效。
参数聚合集群获取集群配置中的参与方信息和参与方训练权重,根据参与方信息和参与方训练权重对解密后的参数分片进行聚合,从而在参数聚合过程中融入参与方的信息,从而降低了构建跨域联邦学习计算环境的成本,降低了调整难度。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述并不用以限制本申请实施例,凡在本申请实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请实施例的保护范围之内。

Claims (10)

1.一种基于可信执行环境的跨域联邦学***台控制器和开发环境,所述方法包括:
所述任务开发方在所述开发环境中生成联邦学***台控制器,所述联邦学习任务中包含待训练模型的参数及指标信息、模型结构信息、数据准备信息和预定数据类型,所述参数及指标信息用于指示所述模型的模型参数和训练指标,所述模型结构信息用于指示所述模型的模型结构,所述数据准备信息用于指示所述模型的训练数据的声明,以使分布式数据源按照所述声明对应的处理流程准备所述训练数据,所述预定数据类型用于指示所述联邦学习***提供的逻辑数据抽象,以使分布式的训练数据抽象为完整数据集;
所述平台控制器将所述联邦学习任务发送给所述参与方,并根据所述联邦学习任务生成配置信息,将所述配置信息发送给所述参数聚合集群;
所述参与方根据所述联邦学习任务进行模型训练,并将每一轮训练得到的中间参数发送给所述参数聚合集群;
所述参数聚合集群根据所述配置信息进行集群配置和底层网络配置,并根据所述集群配置和底层网络配置在可信执行环境中聚合所述中间参数,将聚合后的中间参数发送给所述参与方继续训练;
当对最后一轮训练的中间参数进行聚合后,所述参数聚合集群将聚合后的中间参数作为模型参数发送给所述任务开发方。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
所述平台控制器根据所述联邦学习任务生成会话令牌,将所述会话令牌发送给所述任务开发方;
所述任务开发方修改所述联邦学***台控制器,所述至少一种信息为所述参数及指标信息、所述模型结构信息和所述数据准备信息中的至少一种;
所述平台控制器将修改前后的联邦学习任务中的每种信息映射为状态图,对所述状态图中的每项内容进行修改前后的差分计算,根据计算结果生成更新配置信息,将所述更新配置信息发送给所述参数聚合集群;
所述参数聚合集群根据所述更新配置信息修改所述集群配置和/或所述底层网络配置。
3.根据权利要求2所述的方法,其特征在于,所述任务开发方修改所述联邦学习任务中的至少一种信息,包括:
所述任务开发方调用所述预定数据类型支持的增量语义接口,利用所述增量语义接口修改所述联邦学习任务中的至少一种信息。
4.根据权利要求3所述的方法,其特征在于,所述增量语义接口包括操作类接口、追踪类接口和交换类接口。
5.根据权利要求2所述的方法,其特征在于,所述方法还包括:
所述平台控制器根据所述计算结果生成信息差分,将所述信息差分发送给所述任务开发方;
所述任务开发方显示所述信息差分。
6.根据权利要求1所述的方法,其特征在于,当所述中间参数被加密并分割成固定大小的参数分片时,所述根据所述集群配置和所述底层网络配置在可信执行环境中聚合所述中间参数,包括:
所述参数聚合集群接收每个参与方发送的加密后的参数分片,在所述可信执行环境中,根据所述底层网络配置将所述加密后的参数分片路由至对应的输入队列中;
所述参数聚合集群从所述输入队列中抽取并解密所述参数分片,并根据所述集群配置对解密后的参数分片进行聚合,将聚合后的参数分片加密送入输出队列中。
7.根据权利要求6所述的方法,其特征在于,所述参数聚合集群中包含多个服务器,所述在所述可信执行环境中,根据所述底层网络配置将所述加密后的参数分片路由至对应的输入队列中,包括:
在所述可信执行环境中,所述参数聚合集群根据所述底层网络配置中的一级路由,将所述加密后的参数分片路由至不同服务器中;
所述参数聚合集群根据所述底层网络配置中的二级路由,将所述加密后的参数分片路由至所述服务器的内存中的不同输入队列中。
8.根据权利要求6所述的方法,其特征在于,所述根据所述集群配置对解密后的参数分片进行聚合,包括:
所述参数聚合集群获取所述集群配置中的参与方信息和参与方训练权重,根据所述参与方信息和所述参与方训练权重对所述解密后的参数分片进行聚合。
9.根据权利要求8所述的方法,其特征在于,所述根据所述参与方信息和所述参与方训练权重对所述解密后的参数分片进行聚合,包括:
所述参数聚合集群根据所述参与方信息、所述参与方训练权重、以及单指令多数据流的向量点乘操作和相加操作,对所述解密后的参数分片进行聚合。
10.一种训练***,其特征在于,所述训练***包括任务开发方、联邦学***台控制器和开发环境;
所述任务开发方,用于在所述开发环境中生成联邦学***台控制器,所述联邦学习任务中包含待训练模型的参数及指标信息、模型结构信息、数据准备信息和预定数据类型,所述参数及指标信息用于指示所述模型的模型参数和训练指标,所述模型结构信息用于指示所述模型的模型结构,所述数据准备信息用于指示所述模型的训练数据的声明,以使分布式数据源按照所述声明对应的处理流程准备所述训练数据,所述预定数据类型用于指示所述联邦学习***提供的逻辑数据抽象,以使分布式的训练数据抽象为完整数据集;
所述平台控制器,用于将所述联邦学习任务发送给所述参与方,并根据所述联邦学习任务生成配置信息,将所述配置信息发送给所述参数聚合集群;
所述参与方,用于根据所述联邦学习任务进行模型训练,并将每一轮训练得到的中间参数发送给所述参数聚合集群;
所述参数聚合集群,用于根据所述配置信息进行集群配置和底层网络配置,并根据所述集群配置和底层网络配置在可信执行环境中聚合所述中间参数,将聚合后的中间参数发送给所述参与方继续训练;
当对最后一轮训练的中间参数进行聚合后,所述参数聚合集群,还用于将聚合后的中间参数作为模型参数发送给所述任务开发方。
CN202210354376.7A 2022-04-06 2022-04-06 基于可信执行环境的跨域联邦学习方法及*** Active CN114492846B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210354376.7A CN114492846B (zh) 2022-04-06 2022-04-06 基于可信执行环境的跨域联邦学习方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210354376.7A CN114492846B (zh) 2022-04-06 2022-04-06 基于可信执行环境的跨域联邦学习方法及***

Publications (2)

Publication Number Publication Date
CN114492846A true CN114492846A (zh) 2022-05-13
CN114492846B CN114492846B (zh) 2022-08-26

Family

ID=81487273

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210354376.7A Active CN114492846B (zh) 2022-04-06 2022-04-06 基于可信执行环境的跨域联邦学习方法及***

Country Status (1)

Country Link
CN (1) CN114492846B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115249074A (zh) * 2022-07-28 2022-10-28 上海光之树科技有限公司 基于Spark集群和Ring-AllReduce架构的分布式联邦学习方法

Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106982206A (zh) * 2017-03-10 2017-07-25 中国科学院信息工程研究所 一种基于ip地址自适应转换的恶意扫描防御方法及***
CN108957493A (zh) * 2018-07-09 2018-12-07 北京市燃气集团有限责任公司 一种防止北斗差分定位数据泄漏的方法及***
CN109445949A (zh) * 2018-12-07 2019-03-08 武汉轻工大学 一种数据采集***和数据采集方法
CN110601913A (zh) * 2018-06-13 2019-12-20 丛林网络公司 虚拟化基础设施底层网络性能测量和监视的方法及***
CN110633805A (zh) * 2019-09-26 2019-12-31 深圳前海微众银行股份有限公司 纵向联邦学习***优化方法、装置、设备及可读存储介质
CN110674528A (zh) * 2019-09-20 2020-01-10 深圳前海微众银行股份有限公司 联邦学习隐私数据处理方法、设备、***及存储介质
CN110730156A (zh) * 2018-07-17 2020-01-24 国际商业机器公司 用于异常检测的分布式机器学习
CN111782254A (zh) * 2020-07-02 2020-10-16 百度在线网络技术(北京)有限公司 用于升级对象的方法、装置、设备以及存储介质
CN111898137A (zh) * 2020-06-30 2020-11-06 深圳致星科技有限公司 一种联邦学习的隐私数据处理方法、设备及***
CN111917587A (zh) * 2020-08-07 2020-11-10 中国工商银行股份有限公司 利用服务***进行网络服务管理的方法及服务***
CN111985649A (zh) * 2020-06-22 2020-11-24 华为技术有限公司 基于联邦学习的数据处理方法和装置
CN112329940A (zh) * 2020-11-02 2021-02-05 北京邮电大学 一种结合联邦学习与用户画像的个性化模型训练方法及***
CN112580821A (zh) * 2020-12-10 2021-03-30 深圳前海微众银行股份有限公司 一种联邦学习方法、装置、设备及存储介质
CN112732273A (zh) * 2017-09-19 2021-04-30 华为技术有限公司 应用部署方法、装置及***
US11017322B1 (en) * 2021-01-28 2021-05-25 Alipay Labs (singapore) Pte. Ltd. Method and system for federated learning
CN113033828A (zh) * 2021-04-29 2021-06-25 江苏超流信息技术有限公司 模型训练方法、使用方法、***、可信节点及设备
CN113112029A (zh) * 2021-04-22 2021-07-13 中国科学院计算技术研究所 一种应用于异构计算设备的联邦学习***和方法
CN113344221A (zh) * 2021-05-10 2021-09-03 上海大学 一种基于神经网络架构搜索的联邦学习方法及***
CN113469373A (zh) * 2021-08-17 2021-10-01 北京神州新桥科技有限公司 基于联邦学习的模型训练方法、***、设备及存储介质
CN113742768A (zh) * 2020-05-30 2021-12-03 阿尔法云计算(深圳)有限公司 一种在线应用的隐私保护方法、装置与***
CN113837761A (zh) * 2021-11-26 2021-12-24 北京理工大学 一种基于区块链和可信执行环境的联邦学习方法及***
CN114020757A (zh) * 2021-09-14 2022-02-08 天聚地合(苏州)数据股份有限公司 基于区块链的景区旅客不诚信名单更新方法和相关装置
US20220051762A1 (en) * 2020-08-12 2022-02-17 Sharecare AI, Inc. Systems and Methods for Virtual Clinical Trials
US11281660B1 (en) * 2018-08-31 2022-03-22 Vitalyx, Inc. Multi-parallel processing of n-dimensional orthogonal splits in transactions and data for a distributed transaction system

Patent Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106982206A (zh) * 2017-03-10 2017-07-25 中国科学院信息工程研究所 一种基于ip地址自适应转换的恶意扫描防御方法及***
CN112732273A (zh) * 2017-09-19 2021-04-30 华为技术有限公司 应用部署方法、装置及***
CN110601913A (zh) * 2018-06-13 2019-12-20 丛林网络公司 虚拟化基础设施底层网络性能测量和监视的方法及***
CN108957493A (zh) * 2018-07-09 2018-12-07 北京市燃气集团有限责任公司 一种防止北斗差分定位数据泄漏的方法及***
CN110730156A (zh) * 2018-07-17 2020-01-24 国际商业机器公司 用于异常检测的分布式机器学习
US11281660B1 (en) * 2018-08-31 2022-03-22 Vitalyx, Inc. Multi-parallel processing of n-dimensional orthogonal splits in transactions and data for a distributed transaction system
CN109445949A (zh) * 2018-12-07 2019-03-08 武汉轻工大学 一种数据采集***和数据采集方法
CN110674528A (zh) * 2019-09-20 2020-01-10 深圳前海微众银行股份有限公司 联邦学习隐私数据处理方法、设备、***及存储介质
CN110633805A (zh) * 2019-09-26 2019-12-31 深圳前海微众银行股份有限公司 纵向联邦学习***优化方法、装置、设备及可读存储介质
CN113742768A (zh) * 2020-05-30 2021-12-03 阿尔法云计算(深圳)有限公司 一种在线应用的隐私保护方法、装置与***
CN111985649A (zh) * 2020-06-22 2020-11-24 华为技术有限公司 基于联邦学习的数据处理方法和装置
CN111898137A (zh) * 2020-06-30 2020-11-06 深圳致星科技有限公司 一种联邦学习的隐私数据处理方法、设备及***
CN111782254A (zh) * 2020-07-02 2020-10-16 百度在线网络技术(北京)有限公司 用于升级对象的方法、装置、设备以及存储介质
CN111917587A (zh) * 2020-08-07 2020-11-10 中国工商银行股份有限公司 利用服务***进行网络服务管理的方法及服务***
US20220051762A1 (en) * 2020-08-12 2022-02-17 Sharecare AI, Inc. Systems and Methods for Virtual Clinical Trials
CN112329940A (zh) * 2020-11-02 2021-02-05 北京邮电大学 一种结合联邦学习与用户画像的个性化模型训练方法及***
CN112580821A (zh) * 2020-12-10 2021-03-30 深圳前海微众银行股份有限公司 一种联邦学习方法、装置、设备及存储介质
US11017322B1 (en) * 2021-01-28 2021-05-25 Alipay Labs (singapore) Pte. Ltd. Method and system for federated learning
CN113112029A (zh) * 2021-04-22 2021-07-13 中国科学院计算技术研究所 一种应用于异构计算设备的联邦学习***和方法
CN113033828A (zh) * 2021-04-29 2021-06-25 江苏超流信息技术有限公司 模型训练方法、使用方法、***、可信节点及设备
CN113344221A (zh) * 2021-05-10 2021-09-03 上海大学 一种基于神经网络架构搜索的联邦学习方法及***
CN113469373A (zh) * 2021-08-17 2021-10-01 北京神州新桥科技有限公司 基于联邦学习的模型训练方法、***、设备及存储介质
CN114020757A (zh) * 2021-09-14 2022-02-08 天聚地合(苏州)数据股份有限公司 基于区块链的景区旅客不诚信名单更新方法和相关装置
CN113837761A (zh) * 2021-11-26 2021-12-24 北京理工大学 一种基于区块链和可信执行环境的联邦学习方法及***

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
FAN MO 等: "PPFL Privacy-preserving Federated Learning with Trusted Execution Environments", 《ARXIV:2104.14380V2》 *
刘国智 等: "基于联邦学习的异常流量监测方法研究与实现", 《中国优秀硕士论文全文数据库 信息科技辑》 *
李泽睿: "基于联邦学习的中文输入隐私保护技术", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
毛安琪 等: "集中式集群资源调度框架的可扩展性优化", 《计算机研究与发展》 *
田心 等: "面向可监管的隐私计算关键技术与应用研究", 《中国计算机用户协会网络应用分会2021年第二十五届网络新技术与应用年会论文集》 *
魏立斐 等: "机器学习的安全问题及隐私保护", 《计算机研究与发展》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115249074A (zh) * 2022-07-28 2022-10-28 上海光之树科技有限公司 基于Spark集群和Ring-AllReduce架构的分布式联邦学习方法
CN115249074B (zh) * 2022-07-28 2023-04-14 上海光之树科技有限公司 基于Spark集群和Ring-AllReduce架构的分布式联邦学习方法

Also Published As

Publication number Publication date
CN114492846B (zh) 2022-08-26

Similar Documents

Publication Publication Date Title
Souri et al. Formal verification approaches and standards in the cloud computing: a comprehensive and systematic review
Barbierato et al. Performance evaluation of NoSQL big-data applications using multi-formalism models
US20230067777A1 (en) Distributed data nodes for flexible data mesh architectures
Agliamzanov et al. Hydrology@ Home: a distributed volunteer computing framework for hydrological research and applications
CN104580349B (zh) 安全云管理代理
Xiao An intelligent complex event processing with D numbers under fuzzy environment
CN114492846B (zh) 基于可信执行环境的跨域联邦学习方法及***
CN109726004A (zh) 一种数据处理方法及装置
Shafiee et al. Parallel evolutionary algorithm for designing water distribution networks to minimize background leakage
US11194838B2 (en) Generating a data partitioning strategy for secure and efficient query processing
CN112286752A (zh) 一种联邦学习异构处理***的算法验证方法及***
JP2023553676A (ja) 分散台帳を使用する説明可能な機械学習モデル結果の提供
Tsigkanos et al. Scalable multiple-view analysis of reactive systems via bidirectional model transformations
Theeten et al. Chive: Bandwidth optimized continuous querying in distributed clouds
CN110347386A (zh) 一种基于sql代码编辑的数据可视化分析的方法、装置和电子设备
US11526791B2 (en) Methods and systems for diverse instance generation in artificial intelligence planning
WO2023124677A1 (zh) 数据处理的方法和计算平台
Mikov et al. Some problems of the simulation model efficiency and flexibility
US20240046147A1 (en) Systems and methods for administrating a federated learning network
US20230394212A1 (en) Equivalence checking of synthesized logic designs using generated synthesis history
Bouheroum et al. Towards a formal approach based on bigraphs for fog security: Case of oil and gas refinery plant
Xi et al. Information flow control on encrypted data for service composition among multiple clouds
US20210406227A1 (en) Linking, deploying, and executing distributed analytics with distributed datasets
Liu et al. Enhancing trust and privacy in distributed networks: a comprehensive survey on blockchain-based federated learning
Fray et al. Cloud Implementation of Classifier Nominal Concepts using DistributedWekaSpark

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant