CN113487043A - 联邦学习建模优化方法、设备、介质及计算机程序产品 - Google Patents
联邦学习建模优化方法、设备、介质及计算机程序产品 Download PDFInfo
- Publication number
- CN113487043A CN113487043A CN202110840832.4A CN202110840832A CN113487043A CN 113487043 A CN113487043 A CN 113487043A CN 202110840832 A CN202110840832 A CN 202110840832A CN 113487043 A CN113487043 A CN 113487043A
- Authority
- CN
- China
- Prior art keywords
- encryption
- model
- model parameters
- federal
- equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 142
- 238000000034 method Methods 0.000 title claims abstract description 119
- 238000004590 computer program Methods 0.000 title claims abstract description 20
- 230000002776 aggregation Effects 0.000 claims abstract description 155
- 238000004220 aggregation Methods 0.000 claims abstract description 155
- 238000012549 training Methods 0.000 claims abstract description 47
- 230000008569 process Effects 0.000 claims description 22
- 230000004931 aggregating effect Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 7
- 230000007547 defect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000011273 social behavior Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种联邦学习建模优化方法、设备、介质及计算机程序产品,所述联邦学习建模优化方法包括:接收各第二设备发送的加密模型参数以及社交信息,其中,所述加密模型参数由所述第二设备通过迭代训练本地模型生成,根据各所述社交信息,分别对各所述加密模型参数进行基于社交关联度的选择密聚合,获得各所述社交信息对应的加密聚合模型参数,将各所述加密聚合模型参数分别反馈至各自对应的第二设备,以供所述第二设备根据接收的加密聚合模型参数,迭代优化所述本地模型,获得联邦学习模型。本申请解决了联邦学习建模效率低的技术问题。
Description
技术领域
本申请涉及机器学习技术领域,尤其涉及一种联邦学习建模优化方法、设备、介质及计算机程序产品。
背景技术
随着计算机技术的发展,联邦学***均后作为更新后的全局模型参数,然而随机选择部分上传的模型参数将导致更新后的全局模型难以迭代收敛,进而导致模型聚合过程计算量大,使得导致联邦学习建模效率变低。
发明内容
本申请的主要目的在于提供一种联邦学习建模优化方法、设备、介质及计算机程序产品,旨在解决现有技术中的联邦学习建模效率低的技术问题。
为实现上述目的,本申请提供一种联邦学习建模优化方法,所述联邦学习建模优化方法应用于第一设备,所述联邦学习建模优化方法包括:
接收各第二设备发送的加密模型参数以及社交信息,其中,所述加密模型参数由所述第二设备通过迭代训练本地模型生成;
根据各所述社交信息,分别对各所述加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述社交信息对应的加密聚合模型参数;
将各所述加密聚合模型参数分别反馈至各自对应的第二设备,以供所述第二设备根据接收的加密聚合模型参数,迭代优化所述本地模型,获得联邦学习模型。
为实现上述目的,本申请提供一种联邦学习建模优化方法,所述联邦学习建模优化方法应用于第二设备,所述联邦学习建模优化方法包括:
根据训练样本集对本地模型进行迭代训练,以获取所述本地模型对应的加密模型参数;
将所述加密模型参数以及所述第二设备对应的社交信息发送至第一设备,以供所述第一设备基于各所述第二设备发送的社交信息,分别对各所述第二设备发送的加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述第二设备对应的加密聚合模型参数;
接收所述第一设备反馈的加密聚合模型参数,并根据所述加密聚合模型参数,迭代优化所述本地模型,获得联邦学习模型。
本申请还提供一种联邦推荐优化方法,所述联邦推荐优化方法应用第二设备,所述联邦推荐优化方法包括:
获取待推荐用户数据,并将所述待推荐用户数据输入联邦推荐模型,获得用户特征表示变量,其中,所述联邦推荐模型由所述第二设备基于第一设备发送的加密聚合模型参数迭代优化本地模型得到,所述加密聚合模型参数由所述第一设备基于各所述第二设备对应的社交信息对各所述第二设备的加密模型参数进行选择性聚合得到;
计算所述用户特征表示变量对应的用户相似性结果,并基于所述相似性结果生成相似用户候选集;
基于所述相似用户候选集,执行预设物品推荐流程。
本申请还提供一种联邦学习建模优化装置,所述联邦学习建模优化装置为虚拟装置,且所述联邦学习建模优化装置应用于第一设备,所述联邦学习建模优化装置包括:
接收模块,用于接收各第二设备发送的加密模型参数以及社交信息,其中,所述加密模型参数由所述第二设备通过迭代训练本地模型生成;
聚合模块,用于根据各所述社交信息,分别对各所述加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述社交信息对应的加密聚合模型参数;
反馈模块,用于将各所述加密聚合模型参数分别反馈至各自对应的第二设备,以供所述第二设备根据接收的加密聚合模型参数,迭代优化所述本地模型,获得联邦学习模型。
本申请还提供一种联邦学习建模优化装置,所述联邦学习建模优化装置为虚拟装置,且所述联邦学习建模优化装置应用于第二设备,所述联邦学习建模优化装置包括:
训练模块,用于根据训练样本集对本地模型进行迭代训练,以获取所述本地模型对应的加密模型参数;
发送模块,用于将所述加密模型参数以及所述第二设备对应的社交信息发送至第一设备,以供所述第一设备基于各所述第二设备发送的社交信息,分别对各所述第二设备发送的加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述第二设备对应的加密聚合模型参数;
优化模块,用于接收所述第一设备反馈的加密聚合模型参数,并根据所述加密聚合模型参数,迭代优化所述本地模型,获得联邦学习模型。
本申请还提供一种联邦推荐优化装置,所述联邦推荐优化装置为虚拟装置,且所述联邦推荐优化装置应用于第二设备,所述联邦推荐优化装置包括:
获取模块,用于获取待推荐用户数据,并将所述待推荐用户数据输入联邦推荐模型,获得用户特征表示变量,其中,所述联邦推荐模型由所述第二设备基于第一设备发送的加密聚合模型参数迭代优化本地模型得到,所述加密聚合模型参数由所述第一设备基于各所述第二设备对应的社交信息对各所述第二设备的加密模型参数进行选择性聚合得到;
生成模块,用于计算所述用户特征表示变量对应的用户相似性结果,并基于所述相似性结果生成相似用户候选集;
推荐模块,用于基于所述相似用户候选集,执行预设物品推荐流程。
本申请还提供一种联邦学习建模优化设备,所述联邦学习建模优化设备为实体设备,所述联邦学习建模优化设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的所述联邦学习建模优化方法的程序,所述联邦学习建模优化方法的程序被处理器执行时可实现如上述的联邦学习建模优化方法的步骤。
本申请还提供一种联邦推荐优化设备,所述联邦推荐优化设备为实体设备,所述联邦推荐优化设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的所述联邦推荐优化方法的程序,所述联邦推荐优化方法的程序被处理器执行时可实现如上述的联邦推荐优化方法的步骤。
本申请还提供一种介质,所述介质为可读存储介质,所述可读存储介质上存储有实现联邦学习建模优化方法的程序,所述联邦学习建模优化方法的程序被处理器执行时实现如上述的联邦学习建模优化方法的步骤。
本申请还提供一种介质,所述介质为可读存储介质,所述可读存储介质上存储有实现联邦推荐优化方法的程序,所述联邦推荐优化方法的程序被处理器执行时实现如上述的联邦推荐优化方法的步骤。
本申请还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述的联邦学习建模优化方法的步骤。
本申请还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述的联邦推荐优化方法的步骤。
本申请提供了一种联邦学***均后作为更新后的全局模型参数,以进行联邦学习建模的技术手段,需要说明的是,现有技术中随机选择部分上传的模型参数进行模型聚合时,由于联邦学习参与方上传的模型参数之间的关联度各不相同,若选择关联度低的模型参数进行聚合,将会导致更新后的全局模型难以迭代收敛,而本申请首先接收各第二设备发送的加密模型参数以及社交信息,其中,所述加密模型参数由所述第二设备通过迭代训练本地模型生成,进而根据各所述社交信息,分别对各所述加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述社交信息对应的加密聚合模型参数,进而可实现基于社交信息,选择社交关联度高的第二设备对应的加密模型参数进行加密聚合,也即,快速筛选社交关联度低的加密模型参数进行剔除,使得加密聚合后的加密聚合模型参数不受社交关联度低的加密模型参数的负面影响,进一步地,将各所述加密聚合模型参数分别反馈至各自对应的第二设备,以供所述第二设备根据接收的加密聚合模型参数,迭代优化所述本地模型,即可提升各第二设备迭代优化本地模型的迭代收敛效率,也即提升了全局模型的迭代收敛效率,进而获得联邦学习模型,所以克服了现有技术中随机选择部分上传的模型参数将导致更新后的全局模型难以迭代收敛,进而导致模型聚合过程计算量大,使得导致联邦学习建模效率变低的技术缺陷,从而提高了联邦学习建模的效率。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请联邦学习建模优化方法第一实施例的流程示意图;
图2为本申请联邦学习建模优化方法第二实施例的流程示意图;
图3为本申请联邦学习建模优化方法第三实施例的流程示意图;
图4为本申请实施例中联邦学习建模优化方法涉及的硬件运行环境的设备结构示意图;
图5为本申请实施例中联邦推荐优化方法涉及的硬件运行环境的设备结构示意图;
本申请目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本申请实施例提供一种联邦学习建模优化方法,在本申请联邦学习建模优化方法的第一实施例中,参照图1,所述联邦学习建模优化方法应用于第一设备,所述联邦学习建模优化方法包括:
步骤S10,接收各第二设备发送的加密模型参数以及社交信息,其中,所述加密模型参数由所述第二设备通过迭代训练本地模型生成;
在本实施例中,需要说明的是,所述加密模型参数为同态加密的本地模型对应的模型参数,所述社交信息为记录各所述第二设备之间社交关联度的信息,在一种实施方式中,所述社交信息可用社交信息向量表示,例如,设备A与设备B的社交关联度为90%,设备A与设备C的社交关联度为80%,设备A的社交信息可记为A(0.9,0.8),其中,所述社交关联度为各所述第二设备之间的社交的关联程度,可以由各第二设备之间的社交行为数据进行确定,例如聊天频率、聊天记录关键词以及朋友圈点赞记录等。
接收各第二设备发送的加密模型参数以及社交信息,其中,所述加密模型参数由所述第二设备通过迭代训练本地模型生成,具体地,各所述第二设备基于各自的训练样本集,分迭代训练各自的本地模型至预设迭代次数,以分别获取各自的本地模型对应的本地模型参数,并分别对各自的对模型参数进行同态加密,获得各自的加密模型参数,进而各所述第二设备将各自的加密模型参数以及各自的社交信息发送至所述第一设备,进而所述第一设备接收各第二设备发送的加密模型参数以及社交信息。
步骤S20,根据各所述社交信息,分别对各所述加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述社交信息对应的加密聚合模型参数;
在本实施例中,需要说明的是,加密聚合的方式包括加权平均和求和等方式,所述社交信息至少包括一社交关联度。
根据各所述社交信息,分别对各所述加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述社交信息对应的加密聚合模型参数,具体地,对于每一所述社交信息均执行以下步骤:
在所述社交信息中选取大于预设关联度阈值的各社交关联度作为目标社交关联度,进而提取发送所述社交信息的第二设备对应的加密模型参数以及各目标社交关联度对应的其他第二设备发送的加密模型参数作为各社交关联模型参数,其中,每一所述其他第二设备与每一所述第二设备之间具备一所述目标社交关联度,进而对各社交关联模型参数进行加密聚合,获得所述社交信息对应的加密聚合模型参数,进而获得每一所述社交信息对应的加密聚合模型参数。
其中,所述根据各所述社交信息,分别对各所述加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述社交信息对应的加密聚合模型参数的步骤包括:
步骤S21,基于各所述社交信息对应的社交关联度,在各所述加密模型参数选取各所述第二设备分别对应的各社交关联模型参数;
在本实施例中,需要说明的是,所述社交关联模型参数为社交关联度大于预设关联度阈值的加密模型参数,所述社交关联模型参数包括所述第二设备自身的加密模型参数以及与所述第二设备具备目标社交关联度的各其他第二设备对应的加密模型参数,例如,假设有三个第二设备,分别为目标设备、设备a和设备b,目标设备与设备a之间的社交关联度为90%,目标设备与设备b之间的社交关联度为50%,若所述预设关联度阈值为60%,则将目标设备对应的加密模型参数和设备a对应的加密模型参数均作为社交关联模型参数。
基于各所述社交信息对应的社交关联度,在各所述加密模型参数选取各所述第二设备分别对应的各社交关联模型参数,具体地,对于每一第二设备发送的社交信息均执行以下步骤:
根据所述社交信息中的各社交关联度,在各其他第二设备中选取所述社交关联度大于预设关联度阈值的各其他第二设备作为社交关联设备,进而将所述第二设备与各所述社交关联设备对应的加密模型参数均作为所述社交关联模型参数,进而获得每一所述第二设备对应的各社交关联模型参数。
其中,所述基于各所述社交信息对应的社交关联度,在各所述加密模型参数选取各所述第二设备分别对应的各社交关联模型参数的步骤包括的步骤包括:
步骤S211,将各所述社交信息中的社交关联度分别与预设关联度阈值进行关联度比较,获得各所述社交信息对应的关联度对比结果;
在本实施例中,将各所述社交信息中的社交关联度分别与预设关联度阈值进行关联度比较,获得各所述社交信息对应的关联度对比结果,具体地,对于每一第二设备发送的社交信息均执行以下步骤:
将所述社交信息中的各社交关联度分别与预设关联度阈值进行关联度比较,若所述社交关联度大于预设关联度阈值,则生成第一关联度对比结果,将所述社交关联度不大于预设关联度阈值,则生成第二关联度对比结果,进而将所述社交信息对应的各第一关联度对比结果和对应的各第二关联度对比结果作为所述关联度对比结果,其中,所述第一关联度对比结果和所述第二关联度对比结果可以为所述社交关联度对应的标签或者标识,用于标记社交关联度与预设关联度阈值之间关联度比较的结果,例如,设置1标记所述社交关联度大于预设关联度阈值,设置0标记所述社交关联度不大于预设关联度阈值。
步骤S212,根据各所述关联度对比结果,选取所述社交关联度满足预设关联度阈值条件的各加密模型参数作为各所述第二设备分别对应的各社交关联模型参数。
在本实施例中,需要说明的是,所述预设关联度阈值条件可设置为社交关联度大于预设关联度阈值。
根据各所述关联度对比结果,选取所述社交关联度满足预设关联度阈值条件的各加密模型参数作为各所述第二设备分别对应的各社交关联模型参数,具体地,对于每一所述第二设备对应的关联度对比结果均执行以下步骤:
根据所述关联度对比结果,剔除不大于预设关联度阈值的各社交关联度对应的其他第二设备的加密模型参数,并选取所述第二设备对应的加密模型参数和大于预设关联度阈值的各社交关联度对应的其他第二设备对应的加密模型参数作为社交关联模型参数,进而获得每一所述第二设备对应的各社交关联模型参数,例如,M(i,j)表示目标设备i和设备j之间的关联强度,若M(i,j)大于预设关联度阈值时,则将设备j的加密模型参数作为所述社交关联模型参数,若M(i,j)不大于预设关联度阈值时,则剔除用户j的加密模型参数。
步骤S22,分别对各所述第二设备分别对应的各社交关联模型参数进行加密聚合,获得各所述社交信息对应的加密聚合模型参数。
在本实施例中,分别对各所述第二设备分别对应的各社交关联模型参数进行加密聚合,获得各所述社交信息对应的加密聚合模型参数,具体地,对于每一所述第二设备均执行以下步骤:
根据预设加密聚合规则,将所述第二设备对应的各社交关联模型参数进行加密聚合,获得所述第二设备发送的社交信息对应的加密聚合模型参数,其中,所述预设加密聚合规则包括加权平均以及求和等。
步骤S30,将各所述加密聚合模型参数分别反馈至各自对应的第二设备,以供所述第二设备根据接收的加密聚合模型参数,迭代优化所述本地模型,获得联邦学习模型。
在本实施例中,将各所述加密聚合模型参数分别反馈至各自对应的第二设备,以供所述第二设备根据接收的加密聚合模型参数,迭代优化所述本地模型,获得联邦学习模型,具体地,将各所述加密聚合模型参数分别发送至各自对应的第二设备,以供所述第二设备根据接收到的加密聚合模型参数,将所述本地模型的模型参数替换更新为所述聚合模型参数,以优化所述本地模型,并判断优化后的本地模型是否满足预设训练结束条件,其中,所述预设训练结束条件包括损失函数收敛和达到最大迭代次数阈值等条件,若满足,则将所述优化后的本地模型作为所述联邦学习模型,若不满足,则返回执行步骤:各所述第二设备基于各自的训练样本集,分迭代训练各自的本地模型至预设迭代次数,以分别获取各自的本地模型对应的本地模型参数。
本申请实施例提供了一种联邦学***均后作为更新后的全局模型参数,以进行联邦学习建模的技术手段,需要说明的是,现有技术中随机选择部分上传的模型参数进行模型聚合时,由于联邦学习参与方上传的模型参数之间的关联度各不相同,若选择关联度低的模型参数进行聚合,将会导致更新后的全局模型难以迭代收敛,而本申请首先接收各第二设备发送的加密模型参数以及社交信息,其中,所述加密模型参数由所述第二设备通过迭代训练本地模型生成,进而根据各所述社交信息,分别对各所述加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述社交信息对应的加密聚合模型参数,进而可实现基于社交信息,选择社交关联度高的第二设备对应的加密模型参数进行加密聚合,也即,快速筛选社交关联度低的加密模型参数进行剔除,使得加密聚合后的加密聚合模型参数不受社交关联度低的加密模型参数的负面影响,进一步地,将各所述加密聚合模型参数分别反馈至各自对应的第二设备,以供所述第二设备根据接收的加密聚合模型参数,迭代优化所述本地模型,即可提升各第二设备迭代优化本地模型的迭代收敛效率,也即提升了全局模型的迭代收敛效率,进而获得联邦学习模型,所以克服了现有技术中随机选择部分上传的模型参数将导致更新后的全局模型难以迭代收敛,进而导致模型聚合过程计算量大,使得导致联邦学习建模效率变低的技术缺陷,从而提高了联邦学习建模的效率。
进一步地,参照图2,在本申请的另一实施例中,所述联邦学习建模优化方法应用于第二设备,所述联邦学习建模优化方法还包括:
步骤A10,根据训练样本集对本地模型进行迭代训练,以获取所述本地模型对应的加密模型参数;
在本实施例中,需要说明的是,所述加密模型参数为同态加密的模型迭代训练后的本地模型对应的模型参数。
根据训练样本集对本地模型进行迭代训练,以获取所述本地模型对应的加密模型参数,具体地,根据训练样本集对本地模型进行迭代训练,直至所述本地模型的迭代次数达到预设迭代次数,获取所述本地模型的模型参数,并对所述模型参数进行同态加密,获得所述加密模型参数。
步骤A20,将所述加密模型参数以及所述第二设备对应的社交信息发送至第一设备,以供所述第一设备基于各所述第二设备发送的社交信息,分别对各所述第二设备发送的加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述第二设备对应的加密聚合模型参数;
在本实施例中,将所述加密模型参数以及所述第二设备对应的社交信息发送至第一设备,以供所述第一设备基于各所述第二设备发送的社交信息,分别对各所述第二设备发送的加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述第二设备对应的加密聚合模型参数,具体地,将所述加密模型参数以及所述第二设备对应的社交信息发送至所述第一设备,以供所述第一设备基于各所述社交信息对应的社交关联度,选取所述社交关联度大于预设关联度阈值的各第二设备分别对应的各加密模型参数,进而分别对各第二设备分别对应的各加密模型参数进行加密聚合,获得各所述第二设备对应的加密聚合模型参数,其中,第一设备生成各第二设备对应的加密聚合模型参数的具体内容可参照步骤S20中的具体内容,在此不再赘述。
步骤A30,接收所述第一设备反馈的加密聚合模型参数,并根据所述加密聚合模型参数,迭代优化所述本地模型,获得联邦学习模型。
在本实施例中,接收所述第一设备反馈的加密聚合模型参数,并根据所述加密聚合模型参数,迭代优化所述本地模型,获得联邦学习模型,具体地,接收所述第一设备反馈的加密聚合模型参数,并对所述加密聚合模型参数进行解密,获得聚合模型参数,进而将所述本地模型的模型参数替换更新为聚合模型参数,以优化所述本地模型,并判断优化后的本地模型是否满足预设训练结束条件,其中,所述预设训练结束条件包括损失函数收敛和达到最大迭代次数阈值等条件,若满足,则将所述优化后的本地模型作为所述联邦学习模型,若不满足,则返回执行步骤:根据训练样本集对本地模型进行迭代训练,以获取所述本地模型对应的加密模型参数。
其中,所述联邦学习模型包括联邦推荐模型,
所述根据所述加密聚合模型参数,迭代优化所述本地模型,获得联邦学习模型的步骤之后,所述联邦学习建模优化包括:
步骤B10,获取用户数据,并将所述用户数据输入所述联邦学习模型,获得用户特征表示变量;
在本实例中,需要说明的是,所述用户数据为记录目标用户关于物品的数据,例如,目标用户对某种商品的购买次数和目标用户对某一网页的访问量等,所述用户特征表示变量对应的用户特征表示可用一串实数进行表示,所述用户特征表示可唯一的表示某一事物,例如,用户对于某一网页的点击量为5次,则可设置用户特征表示变量为实数5。
获取用户数据,并将所述用户数据输入所述联邦学习模型,获得用户特征表示变量,具体地,从预设本地数据库中提取所述用户数据,将所述用户数据输入所述联邦学习模型,获得所述用户特征表示变量。
步骤B20,计算所述用户特征表示变量对应的用户相似性结果,并基于所述相似性结果生成相似用户候选集;
在本实施例中,需要说明的是,所述用户相似性为各用户之间的相似程度,所述联邦学习模型包括评分模型,其中,计算所述用户相似性结果的方法包括欧式距离、cosine(余弦函数)等。
计算所述用户特征表示变量对应的用户相似性结果,并基于所述相似性结果生成相似用户候选集,具体地,基于所述用户特征表示变量,通过所述评分模型对目标用户对应的各待选择用户进行评分,获得各所述待选择用户对应的待选择用户评分,其中,待选择用户评分越高,则所述目标用户和待选择用户的用户相似程度越高,进而基于各所述待选择用户评分,对各所述待选择用户进行排序处理,获得待选择用户列表,也即,获得用户相似性结果,并在所述待选择用户列表中选取所述相似用户候选集,例如,在所述待选择用户列表中选取评分排名前三的3个待选择用户组成所述相似用户候选集。
步骤B30,基于所述相似用户候选集,执行预设物品推荐流程。
在本实施例中,需要说明的是,执行所述预设物品推荐流程的目的为向所述预设物品推荐流程对应的目标用户进行个性化推荐,以将所述待推荐用户感兴趣的物品推荐给所述目标用户。
基于所述相似用户候选集,执行预设物品推荐流程,具体地,获取所述相似用户候选集对应的目标物品集,所述目标物品集中包括一个或者多个与各所述相似用户关联的物品,例如,所述相似用户看过的电影、购买过的商品、点击过的网页等,进而对所述目标物品集中各物品进行筛选,获得待推荐物品集,进一步地,在所述待推荐物品集中选取待推荐物品,并向所述目标用户推荐所述待推荐物品,例如,假设所述相似用户候选集包括相似用户A、相似用户B和相似用户C,相似用户A看过电影a、电影b和电影c,相似用户B看过电影a和电影b,相似用户C看过电影a,则所述电影a的物品出现次数为3,也即,电影a的点击量为3,同样地,电影b的点击量为2,电影c的点击量为1,若所述预设点击量阈值为1,则选取电影a和电影b组成所述待推荐物品集,并向待推荐用户推荐所述待推荐物品。
本申请实施例提供了一种联邦学***均后作为更新后的全局模型参数,以进行联邦学习建模的技术手段,需要说明的是,现有技术中随机选择部分上传的模型参数进行模型聚合时,由于联邦学习参与方上传的模型参数之间的关联度各不相同,若选择关联度低的模型参数进行聚合,将会导致更新后的全局模型难以迭代收敛,本申请实施例根据训练样本集对本地模型进行迭代训练,以获取所述本地模型对应的加密模型参数,进而将所述加密模型参数以及所述第二设备对应的社交信息发送至第一设备,以供所述第一设备基于各所述第二设备发送的社交信息,分别对各所述第二设备发送的加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述第二设备对应的加密聚合模型参数,即可实现基于社交信息,选择社交关联度高的第二设备对应的加密模型参数进行加密聚合,也即,快速筛选社交关联度低的加密模型参数进行剔除,使得加密聚合后的加密聚合模型参数不受社交关联度低的加密模型参数的负面影响,进一步地,接收所述第一设备反馈的加密聚合模型参数,并根据所述加密聚合模型参数,迭代优化所述本地模型,即可提升各第二设备迭代优化本地模型的迭代收敛效率,也即提升了全局模型的迭代收敛效率,进而获得联邦学习模型,所以克服了现有技术中随机选择部分上传的模型参数将导致更新后的全局模型难以迭代收敛,进而导致模型聚合过程计算量大,使得导致联邦学习建模效率变低的技术缺陷,从而提高了联邦学习建模的效率。
进一步地,参照图3,在本申请的另一实施例中,所述联邦推荐优化方法应用于第二设备,所述联邦推荐优化方法包括:
步骤D10,获取待推荐用户数据,并将所述待推荐用户数据输入联邦推荐模型,获得用户特征表示变量,其中,所述联邦推荐模型由所述第二设备基于第一设备发送的加密聚合模型参数迭代优化本地模型得到,所述加密聚合模型参数由所述第一设备基于各所述第二设备对应的社交信息对各所述第二设备的加密模型参数进行选择性聚合得到;
在本实施例中,需要说明的是,所述待推荐用户数据为记录待推荐用户关于物品的数据,例如,待推荐用户对某种商品的购买次数和待推荐用户对某一网页的访问量等,所述联邦推荐优化方法应用于第二设备,且所述第二设备定期对所述联邦推荐模型进行更新,也即,基于第二设备中已有的用户和新加入的用户基于所述联邦学习建模优化方法进行迭代训练。
获取待推荐用户数据,并将所述待推荐用户数据输入联邦推荐模型,获得用户特征表示变量,其中,所述联邦推荐模型由所述第二设备基于第一设备发送的加密聚合模型参数迭代优化本地模型得到,所述加密聚合模型参数由所述第一设备基于各所述第二设备对应的社交信息对各所述第二设备的加密模型参数进行选择性聚合得到,具体地,从预设本地数据库中提取待推荐用户数据,将所述待推荐用户数据输入所述联邦推荐模型,进而获得所述用户特征表示变量,其中,所述联邦推荐模型由所述第二设备基于第一设备发送的加密聚合模型参数迭代优化本地模型得到,所述加密聚合模型参数由所述第一设备基于各所述第二设备对应的社交信息对各所述第二设备的加密模型参数进行选择性聚合得到,其中,所述联邦推荐模型的构建过程具体可参照步骤S10至步骤S30中的内容,在此不在赘述。
步骤D20,计算所述用户特征表示变量对应的用户相似性结果,并基于所述相似性结果生成相似用户候选集;
在本实施例中,计算所述用户特征表示变量对应的用户相似性结果,并基于所述相似性结果生成相似用户候选集,具体地,基于所述用户特征表示变量,通过所述评分模型对待推荐用户对应的各待选择用户进行评分,获得各所述待选择用户对应的待选择用户评分,进而基于各所述待选择用户评分,对各所述待选择用户进行排序,获得获得用户相似性结果,并在所述待选择用户列表中选取所述相似用户候选集。
步骤D30,基于所述相似用户候选集,执行预设物品推荐流程。
在本实施例中,基于所述相似用户候选集,执行预设物品推荐流程,具体地,获取所述相似用户候选集对应的目标物品集,进而对所述目标物品集中各物品进行筛选,获得待推荐物品集,进一步地,在所述待推荐物品集中选取待推荐物品,并向所述待推荐用户推荐所述待推荐物品,例如,假设执行所述预设物品推荐流程的目的为向所述待推荐用户推荐电影,则各所述相似用户看过的电影均为所述待推荐物品,进而可在所有的电影中选取各所述相似用户观看次数排名前列且所述待推荐用户没有观看过的电影推荐给所述待推荐用户,步骤D10至步骤D30的具体实施方式可参照本申请第二实施例中的步骤B10至步骤B30中的内容,在此不再赘述。
其中,所述获取待推荐用户数据,并将所述待推荐用户数据输入联邦推荐模型,获得用户特征表示变量,其中,所述联邦推荐模型由所述第二设备基于第一设备发送的加密聚合模型参数迭代优化本地模型得到,所述加密聚合模型参数由所述第一设备基于各所述第二设备对应的社交信息对各所述第二设备的加密模型参数进行选择性聚合得到的步骤之前,所述联邦推荐优化方法还包括:
步骤E10,根据训练样本集对本地模型进行迭代训练,以获取所述本地模型对应的加密模型参数;
在本实施例中,根据训练样本集对本地模型进行迭代训练,以获取所述本地模型对应的加密模型参数,具体地,根据训练样本集对本地模型进行迭代训练,直至所述本地模型的迭代次数达到预设迭代次数,获取所述本地模型的模型参数,并对所述模型参数进行同态加密,获得所述加密模型参数。
步骤E20,将所述加密模型参数以及所述第二设备对应的社交信息发送至第一设备,以供所述第一设备基于各所述第二设备发送的社交信息,分别对各所述第二设备发送的加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述第二设备对应的加密聚合模型参数;
在本实施例中,将所述加密模型参数以及所述第二设备对应的社交信息发送至第一设备,以供所述第一设备基于各所述第二设备发送的社交信息,分别对各所述第二设备发送的加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述第二设备对应的加密聚合模型参数,具体地,将各所述加密模型参数以及各所述社交信息发送至所述第一设备,以供所述第一设备将所述社交关联度满足预设关联度阈值的各所述加密模型参数进行加密聚合,获得所述加密聚合模型参数。
步骤E30,接收所述第一设备反馈的加密聚合模型参数,并根据所述加密聚合模型参数,迭代优化所述本地模型,获得联邦推荐模型。
在本实施例中,接收所述第一设备反馈的加密聚合模型参数,并根据所述加密聚合模型参数,迭代优化所述本地模型,获得联邦推荐模型,具体地,接收所述第一设备反馈的加密聚合模型参数,将所述本地模型的模型参数替换更新为所述聚合模型参数,以优化所述本地模型,直至优化后的本地模型满足预设训练结束条件,获得所述联邦推荐模型,步骤E10至步骤E30的具体实施内容可参照步骤A10至步骤A30中的具体内容,在此不再赘述。
本申请实施例提供了一种物品推荐方法,也即,获取待推荐用户数据,并将所述待推荐用户数据输入联邦推荐模型,获得用户特征表示变量,其中,所述联邦推荐模型由所述第二设备基于第一设备发送的加密聚合模型参数迭代优化本地模型得到,所述加密聚合模型参数由所述第一设备基于各所述第二设备对应的社交信息对各所述第二设备的加密模型参数进行选择性聚合得到,进而计算所述用户特征表示变量对应的用户相似性结果,并基于所述相似性结果生成相似用户候选集,进一步地,基于所述相似用户候选集,执行预设物品推荐流程,实现通过联邦推荐模型执行物品推荐流程,以完成对用户的个性化推荐的目的,且所述联邦推荐模型由所述第二设备基于第一设备发送的加密聚合模型参数迭代优化本地模型得到,所述加密聚合模型参数由所述第一设备基于各所述第二设备对应的社交信息对各所述第二设备的加密模型参数进行选择性聚合得到,也即基于社交信息,选择社交关联度高的第二设备对应的加密模型参数以进行联邦学习建模,使得基于联邦学习构建的联邦推荐模型的精确度不受社交关联度低的加密模型参数的负面影响,提升了联邦推荐模型的精确度,进而使得物品推荐的准确度更高,进而提高了物品推荐的推荐效果。
参照图4,图4是本申请实施例方案涉及的硬件运行环境的设备结构示意图。
如图4所示,该联邦学习建模优化设备可以包括:处理器1001,例如CPU,存储器1005,通信总线1002。其中,通信总线1002用于实现处理器1001和存储器1005之间的连接通信。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储设备。
可选地,该联邦学习建模优化设备还可以包括矩形用户接口、网络接口、摄像头、RF(Radio Frequency,射频)电路,传感器、音频电路、WiFi模块等等。矩形用户接口可以包括显示屏(Display)、输入子模块比如键盘(Keyboard),可选矩形用户接口还可以包括标准的有线接口、无线接口。网络接口可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。
本领域技术人员可以理解,图4中示出的联邦学习建模优化设备结构并不构成对联邦学习建模优化设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图4所示,作为一种计算机存储介质的存储器1005中可以包括操作***、网络通信模块以及联邦学习建模优化程序。操作***是管理和控制联邦学习建模优化设备硬件和软件资源的程序,支持联邦学习建模优化程序以及其它软件和/或,程序的运行。网络通信模块用于实现存储器1005内部各组件之间的通信,以及与联邦学习建模优化***中其它硬件和软件之间通信。
在图4所示的联邦学习建模优化设备中,处理器1001用于执行存储器1005中存储的联邦学习建模优化程序,实现上述任一项所述的联邦学习建模优化方法的步骤。
本申请联邦学习建模优化设备具体实施方式与上述联邦学习建模优化方法各实施例基本相同,在此不再赘述。
参照图5,图5是本申请实施例方案涉及的硬件运行环境的设备结构示意图。
如图5所示,该联邦推荐优化设备可以包括:处理器1001,例如CPU,存储器1005,通信总线1002。其中,通信总线1002用于实现处理器1001和存储器1005之间的连接通信。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储设备。
可选地,该联邦推荐优化设备还可以包括矩形用户接口、网络接口、摄像头、RF(Radio Frequency,射频)电路,传感器、音频电路、WiFi模块等等。矩形用户接口可以包括显示屏(Display)、输入子模块比如键盘(Keyboard),可选矩形用户接口还可以包括标准的有线接口、无线接口。网络接口可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。
本领域技术人员可以理解,图5中示出的联邦推荐优化设备结构并不构成对联邦推荐优化设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图5所示,作为一种计算机存储介质的存储器1005中可以包括操作***、网络通信模块以及联邦推荐优化程序。操作***是管理和控制联邦推荐优化设备硬件和软件资源的程序,支持联邦推荐优化程序以及其它软件和/或,程序的运行。网络通信模块用于实现存储器1005内部各组件之间的通信,以及与联邦推荐优化***中其它硬件和软件之间通信。
在图5所示的联邦推荐优化设备中,处理器1001用于执行存储器1005中存储的联邦推荐优化程序,实现上述任一项所述的联邦推荐优化方法的步骤。
本申请联邦推荐优化设备具体实施方式与上述联邦推荐优化方法各实施例基本相同,在此不再赘述。
本申请还提供一种联邦学习建模优化装置,所述联邦学习建模优化装置应用于第一设备,所述联邦学习建模优化装置包括:
接收模块,用于接收各第二设备发送的加密模型参数以及社交信息,其中,所述加密模型参数由所述第二设备通过迭代训练本地模型生成;
聚合模块,用于根据各所述社交信息,分别对各所述加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述社交信息对应的加密聚合模型参数;
反馈模块,用于将各所述加密聚合模型参数分别反馈至各自对应的第二设备,以供所述第二设备根据接收的加密聚合模型参数,迭代优化所述本地模型,获得联邦学习模型。
可选地,所述聚合模块还用于:
基于各所述社交信息对应的社交关联度,在各所述加密模型参数选取各所述第二设备分别对应的各社交关联模型参数;
分别对各所述第二设备分别对应的各社交关联模型参数进行加密聚合,获得各所述社交信息对应的加密聚合模型参数。
可选地,所述联邦学习建模优化装置还用于:
将各所述社交信息中的社交关联度分别与预设关联度阈值进行关联度比较,获得各所述社交信息对应的关联度对比结果;
根据各所述关联度对比结果,选取所述社交关联度满足预设关联度阈值条件的各加密模型参数作为各所述第二设备分别对应的各社交关联模型参数。
本申请联邦学习建模优化装置的具体实施方式与上述联邦学习建模优化方法各实施例基本相同,在此不再赘述。
本申请还提供一种联邦学习建模优化装置,所述联邦学习建模优化装置应用于第二设备,所述联邦学习建模优化装置包括:
训练模块,用于根据训练样本集对本地模型进行迭代训练,以获取所述本地模型对应的加密模型参数;
发送模块,用于将所述加密模型参数以及所述第二设备对应的社交信息发送至第一设备,以供所述第一设备基于各所述第二设备发送的社交信息,分别对各所述第二设备发送的加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述第二设备对应的加密聚合模型参数;
优化模块,用于接收所述第一设备反馈的加密聚合模型参数,并根据所述加密聚合模型参数,迭代优化所述本地模型,获得联邦学习模型。
可选地,所述联邦学习建模优化装置还用于:
获取用户数据,并将所述用户数据输入所述联邦学习模型,获得用户特征表示变量;
计算所述用户特征表示变量对应的用户相似性结果,并基于所述相似性结果生成相似用户候选集;
基于所述相似用户候选集,执行预设物品推荐流程。
本申请联邦学习建模优化装置的具体实施方式与上述联邦学习建模优化方法各实施例基本相同,在此不再赘述。
本申请还提供一种联邦推荐优化装置,所述联邦推荐优化装置应用于第二设备,所述联邦推荐优化装置包括:
获取模块,用于获取待推荐用户数据,并将所述待推荐用户数据输入联邦推荐模型,获得用户特征表示变量,其中,所述联邦推荐模型由所述第二设备基于第一设备发送的加密聚合模型参数迭代优化本地模型得到,所述加密聚合模型参数由所述第一设备基于各所述第二设备对应的社交信息对各所述第二设备的加密模型参数进行选择性聚合得到;
生成模块,用于计算所述用户特征表示变量对应的用户相似性结果,并基于所述相似性结果生成相似用户候选集;
推荐模块,用于基于所述相似用户候选集,执行预设物品推荐流程。
可选地,所述联邦推荐优化装置还用于:
根据训练样本集对本地模型进行迭代训练,以获取所述本地模型对应的加密模型参数;
将所述加密模型参数以及所述第二设备对应的社交信息发送至所述第一设备,以供第一设备基于各所述第二设备发送的社交信息,分别对各所述第二发送的加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述第二设备对应的加密聚合模型参数;
接收所述第一设备反馈的加密聚合模型参数,并根据所述加密聚合模型参数,迭代优化所述本地模型,获得所述联邦推荐模型。
本申请联邦推荐优化装置的具体实施方式与上述联邦推荐优化方法各实施例基本相同,在此不再赘述。
本申请实施例提供了一种介质,所述介质为可读存储介质,且所述可读存储介质存储有一个或者一个以上程序,所述一个或者一个以上程序还可被一个或者一个以上的处理器执行以用于实现上述任一项所述的联邦学习建模优化方法的步骤。
本申请可读存储介质具体实施方式与上述联邦学习建模优化方法各实施例基本相同,在此不再赘述。
本申请实施例提供了一种介质,所述介质为可读存储介质,且所述可读存储介质存储有一个或者一个以上程序,所述一个或者一个以上程序还可被一个或者一个以上的处理器执行以用于实现上述任一项所述的联邦推荐优化方法的步骤。
本申请可读存储介质具体实施方式与上述联邦推荐优化方法各实施例基本相同,在此不再赘述。
本申请实施例提供了一种计算机程序产品,且所述计算机程序产品包括有一个或者一个以上计算机程序,所述一个或者一个以上计算机程序还可被一个或者一个以上的处理器执行以用于实现上述任一项所述的联邦学习建模优化方法的步骤。
本申请计算机程序产品具体实施方式与上述联邦学习建模优化方法各实施例基本相同,在此不再赘述。
本申请实施例提供了一种计算机程序产品,且所述计算机程序产品包括有一个或者一个以上计算机程序,所述一个或者一个以上计算机程序还可被一个或者一个以上的处理器执行以用于实现上述任一项所述的联邦推荐优化方法的步骤。
本申请计算机程序产品具体实施方式与上述联邦推荐优化方法各实施例基本相同,在此不再赘述。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利处理范围内。
Claims (12)
1.一种联邦学习建模优化方法,其特征在于,所述联邦学习建模优化方法应用于第一设备,所述联邦学习建模优化方法包括:
接收各第二设备发送的加密模型参数以及社交信息,其中,所述加密模型参数由所述第二设备通过迭代训练本地模型生成;
根据各所述社交信息,分别对各所述加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述社交信息对应的加密聚合模型参数;
将各所述加密聚合模型参数分别反馈至各自对应的第二设备,以供所述第二设备根据接收的加密聚合模型参数,迭代优化所述本地模型,获得联邦学习模型。
2.如权利要求1所述联邦学习建模优化方法,其特征在于,所述根据各所述社交信息,分别对各所述加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述社交信息对应的加密聚合模型参数的步骤包括:
基于各所述社交信息对应的社交关联度,在各所述加密模型参数选取各所述第二设备分别对应的各社交关联模型参数;
分别对各所述第二设备分别对应的各社交关联模型参数进行加密聚合,获得各所述社交信息对应的加密聚合模型参数。
3.如权利要求2所述联邦学习建模优化方法,其特征在于,所述基于各所述社交信息对应的社交关联度,在各所述加密模型参数选取各所述第二设备分别对应的各社交关联模型参数的步骤包括:
将各所述社交信息中的社交关联度分别与预设关联度阈值进行关联度比较,获得各所述社交信息对应的关联度对比结果;
根据各所述关联度对比结果,选取所述社交关联度满足预设关联度阈值条件的各加密模型参数作为各所述第二设备分别对应的各社交关联模型参数。
4.一种联邦学习建模优化方法,其特征在于,所述联邦学习建模优化方法应用于第二设备,所述联邦学习建模优化方法包括:
根据训练样本集对本地模型进行迭代训练,以获取所述本地模型对应的加密模型参数;
将所述加密模型参数以及所述第二设备对应的社交信息发送至第一设备,以供所述第一设备基于各所述第二设备发送的社交信息,分别对各所述第二设备发送的加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述第二设备对应的加密聚合模型参数;
接收所述第一设备反馈的加密聚合模型参数,并根据所述加密聚合模型参数,迭代优化所述本地模型,获得联邦学习模型。
5.如权利要求4所述联邦学习建模优化方法,其特征在于,所述联邦学习模型包括联邦推荐模型,
所述根据所述加密聚合模型参数,迭代优化所述本地模型,获得联邦学习模型的步骤之后,所述联邦学习建模优化包括:
获取用户数据,并将所述用户数据输入所述联邦学习模型,获得用户特征表示变量;
计算所述用户特征表示变量对应的用户相似性结果,并基于所述相似性结果生成相似用户候选集;
基于所述相似用户候选集,执行预设物品推荐流程。
6.一种联邦推荐优化方法,其特征在于,所述联邦推荐优化方法应用于第二设备,所述联邦推荐优化方法包括:
获取待推荐用户数据,并将所述待推荐用户数据输入联邦推荐模型,获得用户特征表示变量,其中,所述联邦推荐模型由所述第二设备基于第一设备发送的加密聚合模型参数迭代优化本地模型得到,所述加密聚合模型参数由所述第一设备基于各所述第二设备对应的社交信息对各所述第二设备的加密模型参数进行选择性聚合得到;
计算所述用户特征表示变量对应的用户相似性结果,并基于所述相似性结果生成相似用户候选集;
基于所述相似用户候选集,执行预设物品推荐流程。
7.如权利要求6所述联邦推荐优化方法,其特征在于,所述获取待推荐用户数据,并将所述待推荐用户数据输入联邦推荐模型,获得用户特征表示变量,其中,所述联邦推荐模型由所述第二设备基于第一设备发送的加密聚合模型参数迭代优化本地模型得到,所述加密聚合模型参数由所述第一设备基于各所述第二设备对应的社交信息对各所述第二设备的加密模型参数进行选择性聚合得到的步骤之前,所述联邦推荐优化方法还包括:
根据训练样本集对所述本地模型进行迭代训练,以获取所述本地模型对应的加密模型参数;
将所述加密模型参数以及所述第二设备对应的社交信息发送至所述第一设备,以供所述第一设备基于各所述第二设备发送的社交信息,分别对各所述第二发送的加密模型参数进行基于社交关联度的选择性加密聚合,获得各所述第二设备对应的加密聚合模型参数;
接收所述第一设备反馈的加密聚合模型参数,并根据所述加密聚合模型参数,迭代优化所述本地模型,获得所述联邦推荐模型。
8.一种联邦学习建模优化设备,其特征在于,所述联邦学习建模优化设备包括:存储器、处理器以及存储在存储器上的用于实现所述联邦学习建模优化方法的程序,
所述存储器用于存储实现所述联邦学习建模优化方法的程序;
所述处理器用于执行实现所述联邦学习建模优化方法的程序,以实现如权利要求1至3或者4至5中任一项所述联邦学习建模优化方法的步骤。
9.一种联邦推荐优化方法设备,其特征在于,所述联邦推荐优化方法设备包括:存储器、处理器以及存储在存储器上的用于实现所述联邦推荐优化方法方法的程序,
所述存储器用于存储实现所述联邦推荐优化方法方法的程序;
所述处理器用于执行实现所述联邦推荐优化方法方法的程序,以实现如权利要求6至7中任一项所述联邦学习建模优化方法的步骤。
10.一种介质,所述介质为可读存储介质,其特征在于,所述可读存储介质上存储有实现联邦学习建模优化方法的程序,所述实现联邦学习建模优化方法的程序被处理器执行以实现如权利要求1至3或者4至5中任一项所述联邦学习建模优化方法的步骤。
11.一种介质,所述介质为可读存储介质,其特征在于,所述可读存储介质上存储有实现联邦推荐优化方法的程序,所述实现联邦推荐优化方法的程序被处理器执行以实现如权利要求6至7中任一项所述联邦推荐优化方法的步骤。
12.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至3或者4至5中任一项所述联邦学习建模优化方法的步骤或者实现如权利要求6至7中任一项所述联邦推荐优化方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110840832.4A CN113487043A (zh) | 2021-07-22 | 2021-07-22 | 联邦学习建模优化方法、设备、介质及计算机程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110840832.4A CN113487043A (zh) | 2021-07-22 | 2021-07-22 | 联邦学习建模优化方法、设备、介质及计算机程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113487043A true CN113487043A (zh) | 2021-10-08 |
Family
ID=77942472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110840832.4A Pending CN113487043A (zh) | 2021-07-22 | 2021-07-22 | 联邦学习建模优化方法、设备、介质及计算机程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113487043A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109871702A (zh) * | 2019-02-18 | 2019-06-11 | 深圳前海微众银行股份有限公司 | 联邦模型训练方法、***、设备及计算机可读存储介质 |
CN111553742A (zh) * | 2020-05-08 | 2020-08-18 | 深圳前海微众银行股份有限公司 | 联邦产品推荐方法、装置、设备及计算机存储介质 |
CN111598254A (zh) * | 2020-05-22 | 2020-08-28 | 深圳前海微众银行股份有限公司 | 联邦学习建模方法、设备及可读存储介质 |
CN112329940A (zh) * | 2020-11-02 | 2021-02-05 | 北京邮电大学 | 一种结合联邦学习与用户画像的个性化模型训练方法及*** |
US20210073639A1 (en) * | 2018-12-04 | 2021-03-11 | Google Llc | Federated Learning with Adaptive Optimization |
CN113095512A (zh) * | 2021-04-23 | 2021-07-09 | 深圳前海微众银行股份有限公司 | 联邦学习建模优化方法、设备、介质及计算机程序产品 |
-
2021
- 2021-07-22 CN CN202110840832.4A patent/CN113487043A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210073639A1 (en) * | 2018-12-04 | 2021-03-11 | Google Llc | Federated Learning with Adaptive Optimization |
CN109871702A (zh) * | 2019-02-18 | 2019-06-11 | 深圳前海微众银行股份有限公司 | 联邦模型训练方法、***、设备及计算机可读存储介质 |
CN111553742A (zh) * | 2020-05-08 | 2020-08-18 | 深圳前海微众银行股份有限公司 | 联邦产品推荐方法、装置、设备及计算机存储介质 |
CN111598254A (zh) * | 2020-05-22 | 2020-08-28 | 深圳前海微众银行股份有限公司 | 联邦学习建模方法、设备及可读存储介质 |
CN112329940A (zh) * | 2020-11-02 | 2021-02-05 | 北京邮电大学 | 一种结合联邦学习与用户画像的个性化模型训练方法及*** |
CN113095512A (zh) * | 2021-04-23 | 2021-07-09 | 深圳前海微众银行股份有限公司 | 联邦学习建模优化方法、设备、介质及计算机程序产品 |
Non-Patent Citations (3)
Title |
---|
DONGDONG YE ET AL.: "Federated Learning in Vehicular Edge Computing: A Selective Model Aggregation Approach", SPECIAL SECTION ON COMMUNICATION AND FOG/EDGE COMPUTING TOWARDS INTELLIGENT CONNECTED VEHICLES (ICVS), 21 January 2020 (2020-01-21), pages 23920 - 23935, XP011771171, DOI: 10.1109/ACCESS.2020.2968399 * |
程俊宏: "基于联邦学习的差分隐私保护方法", 中国硕士论文数据库 信息科技辑, 31 May 2021 (2021-05-31), pages 138 - 153 * |
董业;侯炜;陈小军;曾帅;: "基于秘密分享和梯度选择的高效安全联邦学习", 计算机研究与发展, no. 10, 9 October 2020 (2020-10-09) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11711447B2 (en) | Method and apparatus for real-time personalization | |
CN111079022A (zh) | 基于联邦学习的个性化推荐方法、装置、设备及介质 | |
CN111339412A (zh) | 纵向联邦推荐召回方法、装置、设备及可读存储介质 | |
CN111553745A (zh) | 基于联邦的模型更新方法、装置、设备及计算机存储介质 | |
CN105159910A (zh) | 信息推荐方法和装置 | |
CN112116008B (zh) | 基于智能决策的目标检测模型的处理方法、及其相关设备 | |
CN112100489B (zh) | 对象推荐的方法、装置和计算机存储介质 | |
CN111553744A (zh) | 联邦产品推荐方法、装置、设备及计算机存储介质 | |
CN111291273A (zh) | 推荐***优化方法、装置、设备及可读存储介质 | |
CN110851699A (zh) | 基于深度强化学习的信息流推荐方法、装置、设备及介质 | |
CN111324812B (zh) | 基于迁移学习的联邦推荐方法、装置、设备及介质 | |
JP2010204966A (ja) | サンプリング装置、サンプリング方法、サンプリングプログラム、クラス判別装置およびクラス判別システム。 | |
CN106447419B (zh) | 基于特征选择的拜访者标识 | |
KR102381330B1 (ko) | 타겟팅 및 기타 설정을 개선하기 위한 콘텐츠 제공자 추천 | |
CN111553742A (zh) | 联邦产品推荐方法、装置、设备及计算机存储介质 | |
JP7160866B2 (ja) | 情報提供システム、情報提供方法、およびプログラム | |
CN113378067A (zh) | 基于用户挖掘的消息推荐方法、设备、介质及程序产品 | |
CN111553743A (zh) | 联邦产品推荐方法、装置、设备及计算机存储介质 | |
CN112308648A (zh) | 信息处理方法及装置 | |
CN113487043A (zh) | 联邦学习建模优化方法、设备、介质及计算机程序产品 | |
CN115718927A (zh) | 一种基于不可信服务器的差分隐私混合推荐方法 | |
CN110874639A (zh) | 操作信息的获取方法及装置 | |
CN112269942B (zh) | 一种推荐对象的方法、装置、***及电子设备 | |
Yu et al. | Attributes coupling based item enhanced matrix factorization technique for recommender systems | |
CN113065067A (zh) | 一种物品推荐方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |