CN109871702A - 联邦模型训练方法、***、设备及计算机可读存储介质 - Google Patents

联邦模型训练方法、***、设备及计算机可读存储介质 Download PDF

Info

Publication number
CN109871702A
CN109871702A CN201910121269.8A CN201910121269A CN109871702A CN 109871702 A CN109871702 A CN 109871702A CN 201910121269 A CN201910121269 A CN 201910121269A CN 109871702 A CN109871702 A CN 109871702A
Authority
CN
China
Prior art keywords
model
parameter
world
model parameter
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910121269.8A
Other languages
English (en)
Other versions
CN109871702B (zh
Inventor
黄安埠
刘洋
陈天健
杨强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WeBank Co Ltd
Original Assignee
WeBank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WeBank Co Ltd filed Critical WeBank Co Ltd
Priority to CN201910121269.8A priority Critical patent/CN109871702B/zh
Priority claimed from CN201910121269.8A external-priority patent/CN109871702B/zh
Publication of CN109871702A publication Critical patent/CN109871702A/zh
Application granted granted Critical
Publication of CN109871702B publication Critical patent/CN109871702B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种联邦模型训练方法、***、设备及计算机可读存储介质,该方法包括步骤:当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数;根据多个模型参数及每个模型参数对应的权重系数,聚合得到第二全局模型;检测第二全局模型是否收敛;若检测到第二全局模型处于收敛状态,则将第二全局模型确定为联邦模型训练的最终结果,并下发参数加密的第二全局模型至多个客户终端。本发明实现了协作终端根据每个客户终端的模型参数及其权重系数来更新得到新的全局模型,提升了联邦模型的预测效果。

Description

联邦模型训练方法、***、设备及计算机可读存储介质
技术领域
本发明涉及机器学习技术领域,尤其涉及一种联邦模型训练方法、***、设备及计算机可读存储介质。
背景技术
联邦模型是利用技术算法加密建造的机器学习模型,联邦学习***中的多个联邦客户端在模型训练时不用给出己方数据,而是根据协作端下发的参数加密的全局模型和客户端本地的数据集来训练本地模型,并返回本地模型参数供协作端聚合更新全局模型,更新后的全局模型重新下发到客户端,循环往复,直到收敛。联邦学习通过加密机制下参数交换的方式保护客户端数据隐私,客户端数据和客户端的本地模型本身不会进行传输,本地数据不会被反猜,联邦模型在较高程度保持数据完整性的同时,保障了数据隐私。
目前,协作端根据多个客户端返回的本地模型参数聚合更新全局模型时,只是对多个客户端的模型参数做简单平均,将平均后的模型参数作为新的全局模型参数下发至客户端继续迭代训练,然而,实际训练中,每个客户端由于其训练数据的不同,训练出的本地模型的预测性能也是参差不齐的,现有的简单平均的聚合方法会导致全局模型的效果不理想。
发明内容
本发明的主要目的在于提供一种联邦模型训练方法、***、设备及计算机可读存储介质,旨在解决现有的协作端对多个联邦客户端的模型参数采用简单平均的聚合方式来更新全局模型而导致的联邦模型效果不理想的技术问题。
为实现上述目的,本发明提供一种联邦模型训练方法,所述联邦模型训练方法包括步骤:
当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数;其中,所述模型参数是客户终端根据协作终端下发的参数加密的第一全局模型进行联邦模型训练得到的,所述权重系数是基于所述模型参数对应的预测模型的预测准确性确定的;
根据多个模型参数及每个模型参数对应的权重系数,聚合得到第二全局模型;
检测所述第二全局模型是否收敛;
若检测到所述第二全局模型处于收敛状态,则将所述第二全局模型确定为联邦模型训练的最终结果,并下发参数加密的第二全局模型至所述多个客户终端。
可选地,所述当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤包括:
当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的测试样本集,测试并得到每个模型参数对应的预测模型的预测误差率;
基于每个预测模型的所述预测误差率及预设的计算公式,分别计算得到每个模型参数对应的权重系数。
可选地,所述当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的测试样本集,测试并得到每个模型参数对应的预测模型的预测误差率的步骤包括:
当协作终端接收到多个客户终端分别发送的模型参数后,将预设的测试样本集中的多个测试样本输入至所述模型参数对应的预测模型中进行预测,得到所述预测模型针对每个所述测试样本的预测值;
根据多个所述预测值,获取所述测试样本集中预测结果错误的测试样本的数量;
将所述预测结果错误的测试样本的数量与所述测试样本集中全部测试样本数量的比值确定为所述预预测模型的预测误差率。
可选地,所述根据多个模型参数及每个模型参数对应的权重系数,聚合得到第二全局模型的步骤包括:
分别将每个模型参数与其对应的权重系数相乘,得到多个相乘后的结果;
将所述多个相乘后的结果相加,并将相加结果确定为第二全局模型的模型参数,得到所述第二全局模型。
可选地,所述当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤之前还包括:
发送参数加密的第一全局模型分别至多个客户终端;
接收所述多个客户终端分别发送的模型参数;
其中,所述客户终端在接收到协作终端下发的所述第一全局模型后,所述客户终端根据所述第一全局模型对第一训练样本集进行预测以得到预测值,并根据所述预测值对所述第一训练样本集进行采样得到第二训练样本集,所述客户终端基于所述第二训练样本集训练所述第一全局模型,训练后得到所述模型参数。
可选地,所述检测所述第二全局模型是否收敛的步骤之后还包括:
若检测到所述第二全局模型处于未收敛状态,则下发参数加密的第二全局模型分别至多个客户终端,以使所述多个客户终端分别根据协作终端下发的所述第二全局模型继续迭代训练以返回模型参数至所述协作终端。
可选地,所述当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤之前还包括:
接收多个客户终端分别发送的模型参数;
当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤包括:
接收所述多个客户终端分别发送的与所述模型参数对应的权重系数;其中,所述多个客户终端分别根据预设的测试样本集,测试并得到所述模型参数对应的预测模型的预测误差率,并根据所述预测误差率及预设的计算公式,计算得到所述模型参数对应的权重系数。
此外,本发明还提出一种联邦模型训练***,所述***包括协作终端及分别与所述协作终端通信连接的多个客户终端,所述协作终端包括:
获取模块,用于在接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数;其中,所述模型参数是客户终端根据协作终端下发的参数加密的第一全局模型进行联邦模型训练得到的,所述权重系数是基于所述模型参数对应的预测模型的预测准确性确定的;
聚合更新模块,用于根据多个模型参数及每个模型参数对应的权重系数,聚合得到第二全局模型;
检测模块,用于检测所述第二全局模型是否收敛;
确定模块,用于在所述检测模块检测到所述第二全局模型处于收敛状态,则将所述第二全局模型确定为联邦模型训练的最终结果,并下发参数加密的第二全局模型至所述多个客户终端。
可选地,所述获取模块包括:
测试单元,用于在接收到多个客户终端分别发送的模型参数后,根据预设的测试样本集,测试并得到每个模型参数对应的预测模型的预测误差率;
计算单元,用于基于每个预测模型的所述预测误差率及预设的计算公式,分别计算得到每个模型参数对应的权重系数。
可选地,所述测试单元包括:
测试子单元,用于在接收到多个客户终端分别发送的模型参数后,将预设的测试样本集中的多个测试样本输入至所述模型参数对应的预测模型中进行预测,得到所述预测模型针对每个所述测试样本的预测值;
获取子单元,用于根据多个所述预测值,获取所述测试样本集中预测结果错误的测试样本的数量;
确定子单元,用于将所述预测结果错误的测试样本的数量与所述测试样本集中全部测试样本数量的比值确定为所述预预测模型的预测误差率。
可选地,所述聚合更新模块包括:
乘处理单元,用于分别将每个模型参数与其对应的权重系数相乘,得到多个相乘后的结果;
更新单元,用于将所述多个相乘后的结果相加,并将相加结果确定为第二全局模型的模型参数,得到所述第二全局模型。
可选地,所述协作终端还包括:
第一下发模块,用于发送参数加密的第一全局模型分别至多个客户终端;
接收模块,用于接收所述多个客户终端分别发送的模型参数;
其中,所述客户终端在接收到所述第一下发模块下发的所述第一全局模型后,所述客户终端根据所述第一全局模型对第一训练样本集进行预测以得到预测值,并根据所述预测值对所述第一训练样本集进行采样得到第二训练样本集,所述客户终端基于所述第二训练样本集训练所述第一全局模型,训练后得到所述模型参数。
可选地,所述协作终端还包括:
第二下发模块,用于在所述检测模块检测到所述第二全局模型处于未收敛状态,则下发参数加密的第二全局模型分别至多个客户终端,以使所述多个客户终端分别根据所述第二下发模块下发的所述第二全局模型继续迭代训练以返回模型参数至所述协作终端。
可选地,所述获取模块,还用于接收所述多个客户终端分别发送的与所述模型参数对应的权重系数;其中,所述多个客户终端分别根据预设的测试样本集,测试并得到所述模型参数对应的预测模型的预测误差率,并根据所述预测误差率及预设的计算公式,计算得到所述模型参数对应的权重系数。
此外,为实现上述目的,本发明还提出一种联邦模型训练设备,所述联邦模型训练设备包括存储器、处理器和存储在所述存储器上并可在所述处理器上运行的联邦模型训练程序,所述联邦模型训练程序被所述处理器执行时实现如上所述的联邦模型训练方法的步骤。
此外,为实现上述目的,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有联邦模型训练程序,所述联邦模型训练程序被处理器执行时实现如上所述的联邦模型训练方法的步骤。
本发明通过当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数;其中,所述模型参数是客户终端根据协作终端下发的参数加密的第一全局模型进行联邦模型训练得到的,所述权重系数是基于所述模型参数对应的预测模型的预测准确性确定的;根据多个模型参数及每个模型参数对应的权重系数,聚合得到第二全局模型;检测所述第二全局模型是否收敛;若检测到所述第二全局模型处于收敛状态,则将所述第二全局模型确定为联邦模型训练的最终结果,并下发参数加密的第二全局模型至所述多个客户终端;由此,协作终端根据联邦多方的客户端返回的模型参数聚合全局模型时,不是对多个模型参数做简单平均,而是结合每个模型参数的权重系数来更新得到新的全局模型,该权重系数是根据每个客户终端训练模型的预测准确性确定的,提升了联邦模型的预测效果,避免了现有的协作端对多个联邦客户端的模型参数采用简单平均的聚合方式来更新全局模型而导致的联邦模型效果不理想问题。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的结构示意图;
图2为本发明联邦模型训练方法第一实施例的流程示意图;
图3为本发明联邦模型训练方法第二实施例的流程示意图;
图4为本发明联邦模型训练方法第三实施例的流程示意图;
图5为本发明联邦模型训练方法第四实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,图1是本发明实施例方案涉及的硬件运行环境的结构示意图。
需要说明的是,图1即可为联邦模型训练设备的硬件运行环境的结构示意图。本发明实施例联邦模型训练设备可以是PC,便携计算机等终端设备。
如图1所示,该联邦模型训练设备可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的联邦模型训练设备结构并不构成对联邦模型训练设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作***、网络通信模块、用户接口模块以及联邦模型训练程序。其中,操作***是管理和控制联邦模型训练设备硬件和软件资源的程序,支持联邦模型训练程序以及其它软件或程序的运行。
在图1所示的联邦模型训练设备中,用户接口1003主要用于连接客户终端等,与各个终端进行数据通信;网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;而处理器1001可以用于调用存储器1005中存储的联邦模型训练程序,并执行以下操作:
当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数;其中,所述模型参数是客户终端根据协作终端下发的参数加密的第一全局模型进行联邦模型训练得到的,所述权重系数是基于所述模型参数对应的预测模型的预测准确性确定的;
根据多个模型参数及每个模型参数对应的权重系数,聚合得到第二全局模型;
检测所述第二全局模型是否收敛;
若检测到所述第二全局模型处于收敛状态,则将所述第二全局模型确定为联邦模型训练的最终结果,并下发参数加密的第二全局模型至所述多个客户终端。
进一步地,所述当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤包括:
当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的测试样本集,测试并得到每个模型参数对应的预测模型的预测误差率;
基于每个预测模型的所述预测误差率及预设的计算公式,分别计算得到每个模型参数对应的权重系数。
进一步地,所述当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的测试样本集,测试并得到每个模型参数对应的预测模型的预测误差率的步骤包括:
当协作终端接收到多个客户终端分别发送的模型参数后,将预设的测试样本集中的多个测试样本输入至所述模型参数对应的预测模型中进行预测,得到所述预测模型针对每个所述测试样本的预测值;
根据多个所述预测值,获取所述测试样本集中预测结果错误的测试样本的数量;
将所述预测结果错误的测试样本的数量与所述测试样本集中全部测试样本数量的比值确定为所述预预测模型的预测误差率。
进一步地,所述根据多个模型参数及每个模型参数对应的权重系数,聚合得到第二全局模型的步骤包括:
分别将每个模型参数与其对应的权重系数相乘,得到多个相乘后的结果;
将所述多个相乘后的结果相加,并将相加结果确定为第二全局模型的模型参数,得到所述第二全局模型。
进一步地,所述当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤之前,处理器1001还可以用于调用存储器1005中存储的联邦模型训练程序,并执行以下步骤:
发送参数加密的第一全局模型分别至多个客户终端;
接收所述多个客户终端分别发送的模型参数;
其中,所述客户终端在接收到协作终端下发的所述第一全局模型后,所述客户终端根据所述第一全局模型对第一训练样本集进行预测以得到预测值,并根据所述预测值对所述第一训练样本集进行采样得到第二训练样本集,所述客户终端基于所述第二训练样本集训练所述第一全局模型,训练后得到所述模型参数。
进一步地,所述检测所述第二全局模型是否收敛的步骤之后,处理器1001还可以用于调用存储器1005中存储的联邦模型训练程序,并执行以下步骤:
若检测到所述第二全局模型处于未收敛状态,则下发参数加密的第二全局模型分别至多个客户终端,以使所述多个客户终端分别根据协作终端下发的所述第二全局模型继续迭代训练以返回模型参数至所述协作终端。
进一步地,所述当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤之前,处理器1001还可以用于调用存储器1005中存储的联邦模型训练程序,并执行以下步骤:
接收多个客户终端分别发送的模型参数;
当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤包括:
接收所述多个客户终端分别发送的与所述模型参数对应的权重系数;其中,所述多个客户终端分别根据预设的测试样本集,测试并得到所述模型参数对应的预测模型的预测误差率,并根据所述预测误差率及预设的计算公式,计算得到所述模型参数对应的权重系数。
基于上述的结构,提出联邦模型训练方法的各个实施例。
参照图2,图2为本发明联邦模型训练方法第一实施例的流程示意图。
本发明实施例提供了联邦模型训练方法的实施例,需要说明的是,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
联邦模型训练方法包括:
步骤S100,当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数;
其中,所述模型参数是客户终端根据协作终端下发的参数加密的第一全局模型进行联邦模型训练得到的,所述权重系数是基于所述模型参数对应的预测模型的预测准确性确定的。
联邦模型是利用技术算法加密建造的机器学习模型,联邦学习***为了保证联邦多方客户端在训练过程中数据的保密性,借助第三方协作终端进行加密训练,联邦学习***中的多个联邦客户端在模型训练时不用给出己方数据,而是根据协作端下发的参数加密的全局模型和客户端本地的数据集来训练本地模型,并返回本地模型参数供协作端聚合更新全局模型,更新后的全局模型重新下发到客户端,循环往复,直到收敛。联邦学习通过加密机制下参数交换的方式保护客户端数据隐私,客户端数据和客户端的本地模型本身不会进行传输,本地数据不会被反猜,能够在较高程度保持数据完整性的同时,保障数据隐私。
但是,现有的协作端根据多个客户端返回的本地模型参数聚合更新全局模型时,只是对多个客户端的模型参数做简单平均,将平均后的模型参数作为新的全局模型参数下发至客户端继续迭代训练,然而,实际训练中,每个客户端由于其训练数据的不同,训练出的本地模型的预测性能也是参差不齐的,现有技术中的简单平均的聚合方法会导致全局模型的效果不理想,若联邦学***均的聚合会降低其中本地模型的预测准确率高的客户端的模型效果,全局模型即最终得到的联邦模型的效果不理想。
本实施例中,协作终端采用预设的加密算法对第一全局模型的参数加密,并下发参数加密的第一全局模型至联邦学习***中的多个客户终端,其中,预设的加密算法本实施例不做具体限制,可以是非对称加密算法等等,第一全局模型是本实施例待训练联邦模型完成了若干次迭代运算后得到的全局模型。
进一步地,客户终端在接收到协作终端下发的参数加密的第一全局模型后,每个客户终端根据其本地的训练样本数据对该第一全局模型进行训练得到其各自的本地模型,需要说明的是,本实施例中,多个客户端的训练样本类别均服从独立同分布,客户终端将得到的本地模型的模型参数返回至协作终端。
当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数,所述权重系数是基于所述模型参数对应的预测模型的预测准确性确定的,作为一种实施方式,协作终端存储有测试样本集,测试样本集中的测试样本与多个客户终端的训练样本均具有相同的特征维度,在接收到多个客户终端分别发送的模型参数后,协作终端采用测试样本集,测试每个模型参数对应的预测模型的预测准确性,具体地,将测试样本集中的多个测试样本输入至每个客户终端回传的预测模型中,得到该预测模型对该测试样本集中多个测试样本的预测结果,筛选出预测错误的测试样本的数量,用筛选出的预测错误的测试样本的数量除该测试样本集中测试样本的总数,即得到当前预测模型的预测误差率,采用同样的方法,得到每个客户终端发送的模型参数对应的预测模型的预测误差率。
进一步地,根据每个模型参数下的预测误差率确定该模型参数参与全局模型聚合时的权重系数,每个模型参数下的预测误差率与该模型参数的权重系数负相关,即模型参数对应的预测模型的预测误差率越小,则该模型参数的权重系数越大,本实施例协作终端根据多个客户终端发送的模型参数聚合时,对预测准确性高的模型增加其模型参数的权重,对预测准确性低的模型降低其模型参数的权重,以此更新得到的新的全局模型保证了每个客户终端模型效果的增长。作为一种实施方式,权重系数的计算可以是根据计算公式计算得到,其中,εi为第i个客户终端的预测模型的预测误差率,αi为第i个客户终端的预测模型的模型参数对应的权重系数,i为大于零的整数,协作终端即获取到每个模型参数对应的权重系数。
需要说明的是,在其它实施例中,联邦学习***中的多个客户终端可以均存储有相同的测试样本集,该测试样本集中的测试样本与多个客户终端的训练样本均具有相同的特征维度,每个客户终端的模型参数对应的权重系数可以是客户终端根据本地存储的测试样本集测试其预测模型的预测误差率,进而得到其模型参数对应的权重系数,客户终端发送模型参数的同时,将计算得到的模型参数对应的权重系数也一并发至协作终端供协作终端聚合,本实施例在此不做具体限制,进一步地,权重系数的计算方法也不限于本实施例所述的计算方法,在其它实施例中,可以根据需求设置相应的计算规则。
步骤S200,根据多个模型参数及每个模型参数对应的权重系数,聚合得到第二全局模型;
本实施例中,每个模型参数对应的预测模型的预测误差率与该模型参数的权重系数负相关,即预测误差率越小则该模型参数的权重系数越大,预测误差率越大则该模型参数的权重系数越小,对每个模型参数乘其对应的权重系数,再将乘了权重系数的多个模型参数相加即得到新的全局模型的参数,得到新的全局模型即第二全局模型。
本实施例协作终端根据多个客户终端发送的模型参数聚合时,对预测准确性高的模型增加其模型参数的权重,对预测准确性低的模型降低其模型参数的权重,以此更新得到的新的全局模型保证了每个客户终端模型效果的增长,避免了现有的协作端对多个联邦客户端的模型参数采用简单平均的聚合方式来更新全局模型而导致的联邦模型效果不理想问题。
步骤S300,检测所述第二全局模型是否收敛;
本实施例中,作为一种实施方式,协作终端根据第二全局模型的损失函数得到损失值,根据损失值判断第二全局模型是否收敛,具体地,协作终端存储有第一全局模型下的第一损失值,协作终端根据第二全局模型的损失函数得到第二损失值,计算第一损失值和第二损失值之间的差值,并判断该差值是否小于或者等于预设阈值,若该差值小于或者等于预设阈值,则确定所述第二全局模型处于收敛状态,联邦模型训练完成,实际训练时,预设阈值可以根据用户的需求来自行设定,本实施例对预设阈值不做具体限制。
步骤S400,若检测到所述第二全局模型处于收敛状态,则将所述第二全局模型确定为联邦模型训练的最终结果,并下发参数加密的第二全局模型至所述多个客户终端。
若检测到第二全局模型处于收敛状态,则联邦模型训练完成,第二全局模型即确定为联邦模型训练的最终结果,协作终端下发参数加密的第二全局模型至所述多个客户终端,多个客户终端即在不用给出己方数据的前提下,实现了本地模型的效果增长,保障数据隐私的同时,提升了预测准确性。
本实施例通过当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数;其中,所述模型参数是客户终端根据协作终端下发的参数加密的第一全局模型进行联邦模型训练得到的,所述权重系数是基于所述模型参数对应的预测模型的预测准确性确定的;根据多个模型参数及每个模型参数对应的权重系数,聚合得到第二全局模型;检测所述第二全局模型是否收敛;若检测到所述第二全局模型处于收敛状态,则将所述第二全局模型确定为联邦模型训练的最终结果,并下发参数加密的第二全局模型至所述多个客户终端;由此,协作终端根据联邦多方的客户端返回的模型参数聚合全局模型时,不是对多个模型参数做简单平均,而是结合每个模型参数的权重系数来更新得到新的全局模型,该权重系数是根据每个客户终端训练模型的预测准确性确定的,提升了联邦模型的预测效果,避免了现有的协作端对多个联邦客户端的模型参数采用简单平均的聚合方式来更新全局模型而导致的联邦模型效果不理想问题。
进一步地,提出本发明联邦模型训练方法第二实施例。
参照图3,图3为本发明联邦模型训练方法第二实施例的流程示意图,基于上述图2所示的实施例,本实施例中,步骤S100,当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤包括:
步骤S101,当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的测试样本集,测试并得到每个模型参数对应的预测模型的预测误差率;
步骤S102,基于每个预测模型的所述预测误差率及预设的计算公式,分别计算得到每个模型参数对应的权重系数。
具体地,在本实施例中,协作终端存储有测试样本集,测试样本集中包括多个测试样本,多个测试样本与多个客户终端的本地训练样本均具有相同的特征维度,协作终端将测试样本集中的多个测试样本输入至每个客户终端回传的预测模型中,得到该预测模型对该测试样本集中多个测试样本的预测结果,筛选得到预测结果错误的测试样本的数量,用预测结果错误的测试样本的数量除该测试样本集中测试样本的总数,即得到当前预测模型的预测误差率,进一步地,采用同样的方法,得到每个客户终端发送的模型参数对应的预测模型的预测误差率。
在本实施例中,预设的计算公式为:其中,εi为第i个客户终端的预测模型的预测误差率,αi为第i个客户终端的预测模型的模型参数对应的权重系数,i为大于零的整数;协作终端通过计算得到每个客户终端的预测模型的预测误差率后,分别将每个预测误差率代入该计算公式计算,得到的结果即为每个模型参数对应的权重系数。
进一步地,基于上述图2所示的实施例,本实施例中,步骤S200,根据多个模型参数及每个模型参数对应的权重系数,聚合得到第二全局模型的步骤包括:
步骤S201,分别将每个模型参数与其对应的权重系数相乘,得到多个相乘后的结果;
步骤S202,将所述多个相乘后的结果相加,并将相加结果确定为第二全局模型的模型参数,得到所述第二全局模型。
本实施例中,对每个模型参数乘其对应的权重系数,再将乘了权重系数的多个模型参数相加即得到新的全局模型的参数,得到新的全局模型即第二全局模型。
本实施例协作终端根据多个客户终端发送的模型参数聚合时,对预测准确性高的模型增加其模型参数的权重,对预测准确性低的模型降低其模型参数的权重,以此更新得到的新的全局模型保证了每个客户终端模型效果的增长,避免了现有的协作端对多个联邦客户端的模型参数采用简单平均的聚合方式来更新全局模型而导致的联邦模型效果不理想问题。
进一步地,提出本发明联邦模型训练方法第三实施例。
参照图4,图4为本发明联邦模型训练方法第三实施例的流程示意图,基于上述图2所示的实施例,本实施例中,步骤S100,当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤之前还包括:
步骤S110,发送参数加密的第一全局模型分别至多个客户终端;
步骤S120,接收所述多个客户终端分别发送的模型参数;
其中,所述客户终端在接收到协作终端下发的所述第一全局模型后,所述客户终端根据所述第一全局模型对第一训练样本集进行预测以得到预测值,并根据所述预测值对所述第一训练样本集进行采样得到第二训练样本集,所述客户终端基于所述第二训练样本集训练所述第一全局模型,训练后得到所述模型参数。
本实施例中,作为一种实施方式,假设待训练的联邦模型已经完成了第k次的迭代运算并得到第一全局模型modelk,其中,k为大于零的整数,本实施例联邦模型训练方法具体包括如下步骤;
步骤a:协作终端发送参数加密的第一全局模型modelk分别至每一个联邦客户终端;
步骤b:第i个客户终端接收modelk,用modelk对本地的训练样本集Xi进行预测,根据预测结果将Xi中的训练样本分为两个集合:预测错误的样本数据集(x1,x2,...,xn)和预测正确的样本数据集(y1,y2,...,ym),其中n表示Xi中预测错误的样本数量,m表示Xi中预测正确的样本数量,n可以等于m,本实施例不做具体限制,故有:
Xi=(x1,x2,...,xn)∪(y1,y2,...,ym)且成立;
第i个客户终端在训练modelk之前,先对Xi进行采样,具体是选取所述预测错误的样本数据集(x1,x2,...,xn),并从所述预测正确的样本数据集(y1,y2,...,ym)中抽取部分样本(y1,y2,...,yk),k<m,来构成采样后的训练数据集Yi,即Yi=(x1,x2,...,xn)∪(y1,y2,...,yk),k<n,采用训练数据集Yi对modelk进行训练,训练后得到新的本地预测模型
步骤c:第i个客户终端发送训练后得到的本地预测模型至协作终端,协作终端将协作终端存储的测试样本集中的多个测试样本输入至第i个客户终端回传的预测模型中,得到该预测模型对该测试样本集中多个测试样本的预测结果,筛选出预测错误的测试样本的数量,用筛选出的预测错误的测试样本的数量除该测试样本集中测试样本的总数,即得到第i个客户终端的预测模型的预测误差率
步骤d:协作终端将计算得到的第i个客户终端的预测模型的预测误差率代入计算公式中,计算得到第i个客户终端的模型参数对应的权重系数
步骤e:协作终端根据每一个客户终端发送的模型参数及计算得到的每一个模型参数对应的权重系数,聚合更新第一全局模型modelk得到第二全局模型modelk+1,其中q为本实施例联邦客户终端的总数量,协作终端检测modelk+1是否收敛,若收敛,则将modelk+1作为本实施例联邦模型的最终训练结果,并将modelk+1的模型参数加密下发至各个客户终端。
若协作终端检测到modelk+1未收敛,则重复上述步骤a-步骤e,直至联邦模型收敛。
本实施例客户终端根据协作终端下发的参数加密的第一全局模型训练时,客户终端首先根据所述第一全局模型对客户终端的本地第一训练样本集进行预测以得到预测值,并根据所述预测值对所述第一训练样本集进行采样得到第二训练样本集,所述客户终端基于所述第二训练样本集训练所述第一全局模型,训练后得到所述模型参数并回传所述模型参数至协作终端,实现了对于预测错误的样本数据,在下一次迭代时提高其权重,优化了本地训练模型的性能即提升了每个客户终端发送至协作终端的模型参数的质量,从而提升了全局模型即本实施例联邦模型的预测准确性。
进一步地,提出本发明联邦模型训练方法第四实施例。
参照图5,图5为本发明联邦模型训练方法第四实施例的流程示意图,基于图2所示的实施例,本实施例中,步骤S300,检测所述第二全局模型是否收敛的步骤之后还包括:
步骤S500,若检测到所述第二全局模型处于未收敛状态,则下发参数加密的第二全局模型分别至多个客户终端,以使所述多个客户终端分别根据协作终端下发的所述第二全局模型继续迭代训练以返回模型参数至所述协作终端。
本实施例中,若检测到所述第二全局模型处于未收敛状态,则下发参数加密的第二全局模型分别至多个客户终端,当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数;其中,所述模型参数是客户终端根据协作终端下发的参数加密的第二全局模型进行联邦模型训练得到的,所述权重系数是基于所述模型参数对应的预测模型的预测准确性确定的;根据多个模型参数及每个模型参数对应的权重系数,聚合得到第三全局模型;检测所述第三全局模型是否收敛;若检测到所述第三全局模型处于收敛状态,则将所述第三全局模型确定为联邦模型训练的最终结果,并下发参数加密的第三全局模型至所述多个客户终端,若检测到所述第三全局模型处于未收敛状态,下发参数加密的第三全局模型分别至多个客户终端,重复本发明上述任一实施例的步骤,继续训练直至模型收敛。
进一步地,提出本发明联邦模型训练方法第五实施例。
基于图2所示的实施例,本实施例中,步骤S100,当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤之前还包括步骤:
接收多个客户终端分别发送的模型参数;
步骤S100,当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤包括:
接收所述多个客户终端分别发送的与所述模型参数对应的权重系数;其中,所述多个客户终端分别根据预设的测试样本集,测试并得到所述模型参数对应的预测模型的预测误差率,并根据所述预测误差率及预设的计算公式,计算得到所述模型参数对应的权重系数。
本实施例中,作为一种实施方式,每个客户终端的模型参数对应的权重系数的计算是在各个客户终端分别进行的,联邦学习***中的多个客户终端均存储有相同的测试样本集,该测试样本集中的测试样本与多个客户终端的训练样本均具有相同的特征维度,每个客户终端的模型参数对应的权重系数可以是客户终端根据本地存储的测试样本集测试其预测模型的预测误差率,进而得到其模型参数对应的权重系数,客户终端发送模型参数的同时,将计算得到的模型参数对应的权重系数也一并发至协作终端供协作终端聚合得到全局模型。
此外,本发明实施例还提出一种联邦模型训练***,所述***包括协作终端及分别与所述协作终端通信连接的多个客户终端,所述协作终端包括:
获取模块,用于在接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数;其中,所述模型参数是客户终端根据协作终端下发的参数加密的第一全局模型进行联邦模型训练得到的,所述权重系数是基于所述模型参数对应的预测模型的预测准确性确定的;
聚合更新模块,用于根据多个模型参数及每个模型参数对应的权重系数,聚合得到第二全局模型;
检测模块,用于检测所述第二全局模型是否收敛;
确定模块,用于在所述检测模块检测到所述第二全局模型处于收敛状态,则将所述第二全局模型确定为联邦模型训练的最终结果,并下发参数加密的第二全局模型至所述多个客户终端。
优选地,所述获取模块包括:
测试单元,用于在接收到多个客户终端分别发送的模型参数后,根据预设的测试样本集,测试并得到每个模型参数对应的预测模型的预测误差率;
计算单元,用于基于每个预测模型的所述预测误差率及预设的计算公式,分别计算得到每个模型参数对应的权重系数。
优选地,所述测试单元包括:
测试子单元,用于在接收到多个客户终端分别发送的模型参数后,将预设的测试样本集中的多个测试样本输入至所述模型参数对应的预测模型中进行预测,得到所述预测模型针对每个所述测试样本的预测值;
获取子单元,用于根据多个所述预测值,获取所述测试样本集中预测结果错误的测试样本的数量;
确定子单元,用于将所述预测结果错误的测试样本的数量与所述测试样本集中全部测试样本数量的比值确定为所述预预测模型的预测误差率。
优选地,所述预设的计算公式为:其中,εi为第i个客户终端的预测模型的预测误差率,αi为第i个客户终端的所述预测模型的模型参数对应的权重系数,i为大于零的整数。
优选地,所述聚合更新模块包括:
乘处理单元,用于分别将每个模型参数与其对应的权重系数相乘,得到多个相乘后的结果;
更新单元,用于将所述多个相乘后的结果相加,并将相加结果确定为第二全局模型的模型参数,得到所述第二全局模型。
优选地,所述协作终端还包括:
第一下发模块,用于发送参数加密的第一全局模型分别至多个客户终端;
接收模块,用于接收所述多个客户终端分别发送的模型参数;
其中,所述客户终端在接收到所述第一下发模块下发的所述第一全局模型后,所述客户终端根据所述第一全局模型对第一训练样本集进行预测以得到预测值,并根据所述预测值对所述第一训练样本集进行采样得到第二训练样本集,所述客户终端基于所述第二训练样本集训练所述第一全局模型,训练后得到所述模型参数。
优选地,所述协作终端还包括:
第二下发模块,用于在所述检测模块检测到所述第二全局模型处于未收敛状态,则下发参数加密的第二全局模型分别至多个客户终端,以使所述多个客户终端分别根据所述第二下发模块下发的所述第二全局模型继续迭代训练以返回模型参数至所述协作终端。
优选地,所述获取模块,还用于接收所述多个客户终端分别发送的与所述模型参数对应的权重系数;其中,所述多个客户终端分别根据预设的测试样本集,测试并得到所述模型参数对应的预测模型的预测误差率,并根据所述预测误差率及预设的计算公式,计算得到所述模型参数对应的权重系数。
本发明联邦模型训练***具体实施方式与上述联邦模型训练方法各实施例基本相同,在此不再赘述。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有联邦模型训练程序,所述联邦模型训练程序被处理器执行时实现如上所述的奖励发送方法的步骤。
本发明计算机可读存储介质具体实施方式与上述联邦模型训练方法各实施例基本相同,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (16)

1.一种联邦模型训练方法,其特征在于,所述联邦模型训练方法包括以下步骤:
当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数;其中,所述模型参数是客户终端根据协作终端下发的参数加密的第一全局模型进行联邦模型训练得到的,所述权重系数是基于所述模型参数对应的预测模型的预测准确性确定的;
根据多个模型参数及每个模型参数对应的权重系数,聚合得到第二全局模型;
检测所述第二全局模型是否收敛;
若检测到所述第二全局模型处于收敛状态,则将所述第二全局模型确定为联邦模型训练的最终结果,并下发参数加密的第二全局模型至所述多个客户终端。
2.如权利要求1所述的联邦模型训练方法,其特征在于,所述当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤包括:
当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的测试样本集,测试并得到每个模型参数对应的预测模型的预测误差率;
基于每个预测模型的所述预测误差率及预设的计算公式,分别计算得到每个模型参数对应的权重系数。
3.如权利要求2所述的联邦模型训练方法,其特征在于,所述当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的测试样本集,测试并得到每个模型参数对应的预测模型的预测误差率的步骤包括:
当协作终端接收到多个客户终端分别发送的模型参数后,将预设的测试样本集中的多个测试样本输入至所述模型参数对应的预测模型中进行预测,得到所述预测模型针对每个所述测试样本的预测值;
根据多个所述预测值,获取所述测试样本集中预测结果错误的测试样本的数量;
将所述预测结果错误的测试样本的数量与所述测试样本集中全部测试样本数量的比值确定为所述预预测模型的预测误差率。
4.如权利要求1所述的联邦模型训练方法,其特征在于,所述根据多个模型参数及每个模型参数对应的权重系数,聚合得到第二全局模型的步骤包括:
分别将每个模型参数与其对应的权重系数相乘,得到多个相乘后的结果;
将所述多个相乘后的结果相加,并将相加结果确定为第二全局模型的模型参数,得到所述第二全局模型。
5.如权利要求1-4中任一项所述的联邦模型训练方法,其特征在于,所述当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤之前还包括:
发送参数加密的第一全局模型分别至多个客户终端;
接收所述多个客户终端分别发送的模型参数;
其中,所述客户终端在接收到协作终端下发的所述第一全局模型后,所述客户终端根据所述第一全局模型对第一训练样本集进行预测以得到预测值,并根据所述预测值对所述第一训练样本集进行采样得到第二训练样本集,所述客户终端基于所述第二训练样本集训练所述第一全局模型,训练后得到所述模型参数。
6.如权利要求1所述的联邦模型训练方法,其特征在于,所述检测所述第二全局模型是否收敛的步骤之后还包括:
若检测到所述第二全局模型处于未收敛状态,则下发参数加密的第二全局模型分别至多个客户终端,以使所述多个客户终端分别根据协作终端下发的所述第二全局模型继续迭代训练以返回模型参数至所述协作终端。
7.如权利要求1所述的联邦模型训练方法,其特征在于,所述当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤之前还包括:
接收多个客户终端分别发送的模型参数;
所述当协作终端接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数的步骤包括:
接收所述多个客户终端分别发送的与所述模型参数对应的权重系数;其中,所述多个客户终端分别根据预设的测试样本集,测试并得到所述模型参数对应的预测模型的预测误差率,并根据所述预测误差率及预设的计算公式,计算得到所述模型参数对应的权重系数。
8.一种联邦模型训练***,其特征在于,所述***包括协作终端及分别与所述协作终端通信连接的多个客户终端,所述协作终端包括:
获取模块,用于在接收到多个客户终端分别发送的模型参数后,根据预设的获取规则,获取每个模型参数对应的权重系数;其中,所述模型参数是客户终端根据协作终端下发的参数加密的第一全局模型进行联邦模型训练得到的,所述权重系数是基于所述模型参数对应的预测模型的预测准确性确定的;
聚合更新模块,用于根据多个模型参数及每个模型参数对应的权重系数,聚合得到第二全局模型;
检测模块,用于检测所述第二全局模型是否收敛;
确定模块,用于在所述检测模块检测到所述第二全局模型处于收敛状态,则将所述第二全局模型确定为联邦模型训练的最终结果,并下发参数加密的第二全局模型至所述多个客户终端。
9.如权利要求8所述的联邦模型训练***,其特征在于,所述获取模块包括:
测试单元,用于在接收到多个客户终端分别发送的模型参数后,根据预设的测试样本集,测试并得到每个模型参数对应的预测模型的预测误差率;
计算单元,用于基于每个预测模型的所述预测误差率及预设的计算公式,分别计算得到每个模型参数对应的权重系数。
10.如权利要求9所述的联邦模型训练***,其特征在于,所述测试单元包括:
测试子单元,用于在接收到多个客户终端分别发送的模型参数后,将预设的测试样本集中的多个测试样本输入至所述模型参数对应的预测模型中进行预测,得到所述预测模型针对每个所述测试样本的预测值;
获取子单元,用于根据多个所述预测值,获取所述测试样本集中预测结果错误的测试样本的数量;
确定子单元,用于将所述预测结果错误的测试样本的数量与所述测试样本集中全部测试样本数量的比值确定为所述预预测模型的预测误差率。
11.如权利要求8所述的联邦模型训练***,其特征在于,所述聚合更新模块包括:
乘处理单元,用于分别将每个模型参数与其对应的权重系数相乘,得到多个相乘后的结果;
更新单元,用于将所述多个相乘后的结果相加,并将相加结果确定为第二全局模型的模型参数,得到所述第二全局模型。
12.如权利要求8-11中任一项所述的联邦模型训练***,其特征在于,所述协作终端还包括:
第一下发模块,用于发送参数加密的第一全局模型分别至多个客户终端;
接收模块,用于接收所述多个客户终端分别发送的模型参数;
其中,所述客户终端在接收到所述第一下发模块下发的所述第一全局模型后,所述客户终端根据所述第一全局模型对第一训练样本集进行预测以得到预测值,并根据所述预测值对所述第一训练样本集进行采样得到第二训练样本集,所述客户终端基于所述第二训练样本集训练所述第一全局模型,训练后得到所述模型参数。
13.如权利要求8所述的联邦模型训练***,其特征在于,所述协作终端还包括:
第二下发模块,用于在所述检测模块检测到所述第二全局模型处于未收敛状态,则下发参数加密的第二全局模型分别至多个客户终端,以使所述多个客户终端分别根据所述第二下发模块下发的所述第二全局模型继续迭代训练以返回模型参数至所述协作终端。
14.如权利要求8所述的联邦模型训练***,其特征在于,所述获取模块,还用于接收所述多个客户终端分别发送的与所述模型参数对应的权重系数;其中,所述多个客户终端分别根据预设的测试样本集,测试并得到所述模型参数对应的预测模型的预测误差率,并根据所述预测误差率及预设的计算公式,计算得到所述模型参数对应的权重系数。
15.一种联邦模型训练设备,其特征在于,所述联邦模型训练设备包括存储器、处理器和存储在所述存储器上并可在所述处理器上运行的联邦模型训练程序,所述联邦模型训练程序被所述处理器执行时实现如权利要求1至7中任一项所述的联邦模型训练方法的步骤。
16.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有联邦模型训练程序,所述联邦模型训练程序被处理器执行时实现如权利要求1至7中任一项所述的联邦模型训练方法的步骤。
CN201910121269.8A 2019-02-18 联邦模型训练方法、***、设备及计算机可读存储介质 Active CN109871702B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910121269.8A CN109871702B (zh) 2019-02-18 联邦模型训练方法、***、设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910121269.8A CN109871702B (zh) 2019-02-18 联邦模型训练方法、***、设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN109871702A true CN109871702A (zh) 2019-06-11
CN109871702B CN109871702B (zh) 2024-06-28

Family

ID=

Cited By (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110334544A (zh) * 2019-06-26 2019-10-15 深圳前海微众银行股份有限公司 联邦模型退化处理方法、装置、联邦训练***及存储介质
CN110378749A (zh) * 2019-07-25 2019-10-25 深圳前海微众银行股份有限公司 用户数据相似性的评估方法、装置、终端设备及存储介质
CN110378487A (zh) * 2019-07-18 2019-10-25 深圳前海微众银行股份有限公司 横向联邦学习中模型参数验证方法、装置、设备及介质
CN110380917A (zh) * 2019-08-26 2019-10-25 深圳前海微众银行股份有限公司 联邦学习***的控制方法、装置、终端设备及存储介质
CN110443416A (zh) * 2019-07-30 2019-11-12 卓尔智联(武汉)研究院有限公司 基于共享数据的联邦建模装置、方法及可读存储介质
CN110442457A (zh) * 2019-08-12 2019-11-12 北京大学深圳研究生院 基于联邦学习的模型训练方法、装置及服务器
CN110503207A (zh) * 2019-08-28 2019-11-26 深圳前海微众银行股份有限公司 联邦学习信用管理方法、装置、设备及可读存储介质
CN110601814A (zh) * 2019-09-24 2019-12-20 深圳前海微众银行股份有限公司 联邦学习数据加密方法、装置、设备及可读存储介质
CN110632554A (zh) * 2019-09-20 2019-12-31 深圳前海微众银行股份有限公司 基于联邦学习的室内定位方法、装置、终端设备及介质
CN110674528A (zh) * 2019-09-20 2020-01-10 深圳前海微众银行股份有限公司 联邦学习隐私数据处理方法、设备、***及存储介质
CN110766169A (zh) * 2019-10-31 2020-02-07 深圳前海微众银行股份有限公司 强化学习的迁移训练优化方法、装置、终端及存储介质
CN110782042A (zh) * 2019-10-29 2020-02-11 深圳前海微众银行股份有限公司 横向联邦和纵向联邦联合方法、装置、设备及介质
CN110838069A (zh) * 2019-10-15 2020-02-25 支付宝(杭州)信息技术有限公司 数据处理方法、装置以及***
CN110929260A (zh) * 2019-11-29 2020-03-27 杭州安恒信息技术股份有限公司 一种恶意软件检测的方法、装置、服务器及可读存储介质
CN110992936A (zh) * 2019-12-06 2020-04-10 支付宝(杭州)信息技术有限公司 使用私有数据来进行模型训练的方法及装置
CN111027715A (zh) * 2019-12-11 2020-04-17 支付宝(杭州)信息技术有限公司 基于蒙特卡洛的联邦学习模型训练方法及装置
CN111241582A (zh) * 2020-01-10 2020-06-05 鹏城实验室 数据隐私保护方法、装置及计算机可读存储介质
CN111275207A (zh) * 2020-02-10 2020-06-12 深圳前海微众银行股份有限公司 基于半监督的横向联邦学习优化方法、设备及存储介质
CN111340150A (zh) * 2020-05-22 2020-06-26 支付宝(杭州)信息技术有限公司 用于对第一分类模型进行训练的方法及装置
CN111369042A (zh) * 2020-02-27 2020-07-03 山东大学 一种基于加权联邦学习的无线业务流量预测方法
CN111382875A (zh) * 2020-03-06 2020-07-07 深圳前海微众银行股份有限公司 联邦模型参数确定方法、装置、设备及存储介质
CN111460511A (zh) * 2020-04-17 2020-07-28 支付宝(杭州)信息技术有限公司 基于隐私保护的联邦学习、虚拟对象分配方法和装置
CN111461329A (zh) * 2020-04-08 2020-07-28 中国银行股份有限公司 一种模型的训练方法、装置、设备及可读存储介质
CN111477290A (zh) * 2020-03-05 2020-07-31 上海交通大学 保护用户隐私的联邦学习和图像分类方法、***及终端
CN111882133A (zh) * 2020-08-03 2020-11-03 重庆大学 一种基于预测的联邦学习通信优化方法及***
CN111932367A (zh) * 2020-08-13 2020-11-13 中国银行股份有限公司 贷前信用评估方法及装置
CN112001452A (zh) * 2020-08-27 2020-11-27 深圳前海微众银行股份有限公司 特征选择方法、装置、设备及可读存储介质
CN112149171A (zh) * 2020-10-27 2020-12-29 腾讯科技(深圳)有限公司 联邦神经网络模型的训练方法、装置、设备及存储介质
CN112183757A (zh) * 2019-07-04 2021-01-05 创新先进技术有限公司 模型训练方法、装置及***
CN112214342A (zh) * 2020-09-14 2021-01-12 德清阿尔法创新研究院 一种联邦学习场景中高效的错误数据检测方法
CN112217706A (zh) * 2020-12-02 2021-01-12 腾讯科技(深圳)有限公司 数据处理方法、装置、设备及存储介质
CN112261137A (zh) * 2020-10-22 2021-01-22 江苏禹空间科技有限公司 基于联合学习的模型训练方法及***
CN112347754A (zh) * 2019-08-09 2021-02-09 国际商业机器公司 建立联合学习框架
WO2021022707A1 (zh) * 2019-08-06 2021-02-11 深圳前海微众银行股份有限公司 一种混合联邦学习方法及架构
CN112365007A (zh) * 2020-11-11 2021-02-12 深圳前海微众银行股份有限公司 模型参数确定方法、装置、设备及存储介质
CN112465043A (zh) * 2020-12-02 2021-03-09 平安科技(深圳)有限公司 模型训练方法、装置和设备
CN112656401A (zh) * 2019-10-15 2021-04-16 梅州市青塘实业有限公司 一种智能监护方法、装置及设备
CN112749812A (zh) * 2019-10-29 2021-05-04 华为技术有限公司 一种联合学习***、训练结果聚合的方法及设备
CN112819177A (zh) * 2021-01-26 2021-05-18 支付宝(杭州)信息技术有限公司 一种个性化的隐私保护学习方法、装置以及设备
CN112885337A (zh) * 2021-01-29 2021-06-01 深圳前海微众银行股份有限公司 数据处理方法、装置、设备及存储介质
CN112989929A (zh) * 2021-02-04 2021-06-18 支付宝(杭州)信息技术有限公司 目标用户的识别方法、装置和电子设备
CN113077060A (zh) * 2021-03-30 2021-07-06 中国科学院计算技术研究所 针对边云协同的联邦学习***及方法
CN113095513A (zh) * 2021-04-25 2021-07-09 中山大学 双层公平联邦学习方法、装置和存储介质
CN113128701A (zh) * 2021-04-07 2021-07-16 中国科学院计算技术研究所 面向样本稀疏性的联邦学习方法及***
CN113268758A (zh) * 2021-06-17 2021-08-17 上海万向区块链股份公司 基于联邦学习的数据共享***、方法、介质及设备
CN113282933A (zh) * 2020-07-17 2021-08-20 中兴通讯股份有限公司 联邦学习方法、装置和***、电子设备、存储介质
CN113361721A (zh) * 2021-06-29 2021-09-07 北京百度网讯科技有限公司 模型训练方法、装置、电子设备、存储介质及程序产品
WO2021179196A1 (zh) * 2020-03-11 2021-09-16 Oppo广东移动通信有限公司 一种基于联邦学习的模型训练方法、电子设备及存储介质
CN113470806A (zh) * 2020-03-31 2021-10-01 中移(成都)信息通信科技有限公司 病情检测模型的确定方法、装置、设备及计算机存储介质
CN113487043A (zh) * 2021-07-22 2021-10-08 深圳前海微众银行股份有限公司 联邦学习建模优化方法、设备、介质及计算机程序产品
CN113642737A (zh) * 2021-08-12 2021-11-12 广域铭岛数字科技有限公司 一种基于汽车用户数据的联邦学习方法及***
WO2021227069A1 (zh) * 2020-05-15 2021-11-18 Oppo广东移动通信有限公司 一种模型更新方法及装置、通信设备
CN113688855A (zh) * 2020-05-19 2021-11-23 华为技术有限公司 数据处理方法、联邦学习的训练方法及相关装置、设备
CN113705823A (zh) * 2020-05-22 2021-11-26 华为技术有限公司 基于联邦学习的模型训练方法和电子设备
WO2021244081A1 (en) * 2020-06-02 2021-12-09 Huawei Technologies Co., Ltd. Methods and systems for horizontal federated learning using non-iid data
CN113850396A (zh) * 2021-09-28 2021-12-28 北京邮电大学 隐私增强型联邦决策方法、装置、***和存储介质
WO2022001941A1 (zh) * 2020-06-28 2022-01-06 中兴通讯股份有限公司 网元管理方法、网管***、独立计算节点、计算机设备、存储介质
CN114912581A (zh) * 2022-05-07 2022-08-16 奇安信科技集团股份有限公司 检测模型的训练方法、装置、电子设备和存储介质
CN115526339A (zh) * 2022-11-03 2022-12-27 中国电信股份有限公司 联邦学习方法、装置、电子设备及计算机可读存储介质
WO2023024378A1 (zh) * 2021-08-25 2023-03-02 深圳前海微众银行股份有限公司 多智能体模型的训练方法、装置、电子设备、存储介质及程序产品
CN117251276A (zh) * 2023-11-20 2023-12-19 清华大学 一种面向协作学习平台的灵活调度方法及装置
WO2023241042A1 (zh) * 2022-06-13 2023-12-21 中兴通讯股份有限公司 故障预测方法、装置、电子设备及存储介质
WO2024026583A1 (zh) * 2022-07-30 2024-02-08 华为技术有限公司 一种通信方法和通信装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160147943A1 (en) * 2014-11-21 2016-05-26 Argo Data Resource Corporation Semantic Address Parsing Using a Graphical Discriminative Probabilistic Model
CN107133805A (zh) * 2017-05-09 2017-09-05 北京小度信息科技有限公司 用户作弊种类预测模型中参数的调整方法、装置及设备
CN107229518A (zh) * 2016-03-26 2017-10-03 阿里巴巴集团控股有限公司 一种分布式集群训练方法和装置
US20180018590A1 (en) * 2016-07-18 2018-01-18 NantOmics, Inc. Distributed Machine Learning Systems, Apparatus, and Methods
US20180260703A1 (en) * 2016-11-22 2018-09-13 Massachusetts Institute Of Technology Systems and methods for training neural networks
CN108648023A (zh) * 2018-05-18 2018-10-12 上海电机学院 一种融合历史均值与提升树的商家客流量预测方法
CN109102157A (zh) * 2018-07-11 2018-12-28 交通银行股份有限公司 一种基于深度学习的银行工单派单方法及***
CN109165515A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于联邦学习的模型参数获取方法、***及可读存储介质
CN109165683A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于联邦训练的样本预测方法、装置及存储介质
CN109165725A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于迁移学习的神经网络联邦建模方法、设备及存储介质
CN109284313A (zh) * 2018-08-10 2019-01-29 深圳前海微众银行股份有限公司 基于半监督学习的联邦建模方法、设备及可读存储介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160147943A1 (en) * 2014-11-21 2016-05-26 Argo Data Resource Corporation Semantic Address Parsing Using a Graphical Discriminative Probabilistic Model
CN107229518A (zh) * 2016-03-26 2017-10-03 阿里巴巴集团控股有限公司 一种分布式集群训练方法和装置
US20180018590A1 (en) * 2016-07-18 2018-01-18 NantOmics, Inc. Distributed Machine Learning Systems, Apparatus, and Methods
US20180260703A1 (en) * 2016-11-22 2018-09-13 Massachusetts Institute Of Technology Systems and methods for training neural networks
CN107133805A (zh) * 2017-05-09 2017-09-05 北京小度信息科技有限公司 用户作弊种类预测模型中参数的调整方法、装置及设备
CN108648023A (zh) * 2018-05-18 2018-10-12 上海电机学院 一种融合历史均值与提升树的商家客流量预测方法
CN109102157A (zh) * 2018-07-11 2018-12-28 交通银行股份有限公司 一种基于深度学习的银行工单派单方法及***
CN109165515A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于联邦学习的模型参数获取方法、***及可读存储介质
CN109165683A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于联邦训练的样本预测方法、装置及存储介质
CN109165725A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于迁移学习的神经网络联邦建模方法、设备及存储介质
CN109284313A (zh) * 2018-08-10 2019-01-29 深圳前海微众银行股份有限公司 基于半监督学习的联邦建模方法、设备及可读存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
孙连霞;穆荣军;崔乃刚;: "多传感器信息融合联邦滤波一般模型的理论与仿真研究", 航空兵器, no. 04, 30 August 2006 (2006-08-30), pages 7 - 10 *
黄浩 等: "汉语语音识别中基于区分性权重训练的声调集成方法", 《声学学报》, vol. 33, no. 1, pages 1 - 8 *

Cited By (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110334544A (zh) * 2019-06-26 2019-10-15 深圳前海微众银行股份有限公司 联邦模型退化处理方法、装置、联邦训练***及存储介质
CN110334544B (zh) * 2019-06-26 2023-07-25 深圳前海微众银行股份有限公司 联邦模型退化处理方法、装置、联邦训练***及存储介质
CN112183757B (zh) * 2019-07-04 2023-10-27 创新先进技术有限公司 模型训练方法、装置及***
CN112183757A (zh) * 2019-07-04 2021-01-05 创新先进技术有限公司 模型训练方法、装置及***
CN110378487A (zh) * 2019-07-18 2019-10-25 深圳前海微众银行股份有限公司 横向联邦学习中模型参数验证方法、装置、设备及介质
CN110378487B (zh) * 2019-07-18 2021-02-26 深圳前海微众银行股份有限公司 横向联邦学习中模型参数验证方法、装置、设备及介质
CN110378749A (zh) * 2019-07-25 2019-10-25 深圳前海微众银行股份有限公司 用户数据相似性的评估方法、装置、终端设备及存储介质
CN110378749B (zh) * 2019-07-25 2023-09-26 深圳前海微众银行股份有限公司 客户端相似性的评估方法、装置、终端设备及存储介质
CN110443416A (zh) * 2019-07-30 2019-11-12 卓尔智联(武汉)研究院有限公司 基于共享数据的联邦建模装置、方法及可读存储介质
WO2021022707A1 (zh) * 2019-08-06 2021-02-11 深圳前海微众银行股份有限公司 一种混合联邦学习方法及架构
CN112347754A (zh) * 2019-08-09 2021-02-09 国际商业机器公司 建立联合学习框架
CN110442457A (zh) * 2019-08-12 2019-11-12 北京大学深圳研究生院 基于联邦学习的模型训练方法、装置及服务器
CN110380917A (zh) * 2019-08-26 2019-10-25 深圳前海微众银行股份有限公司 联邦学习***的控制方法、装置、终端设备及存储介质
CN110503207A (zh) * 2019-08-28 2019-11-26 深圳前海微众银行股份有限公司 联邦学习信用管理方法、装置、设备及可读存储介质
CN110674528A (zh) * 2019-09-20 2020-01-10 深圳前海微众银行股份有限公司 联邦学习隐私数据处理方法、设备、***及存储介质
CN110632554A (zh) * 2019-09-20 2019-12-31 深圳前海微众银行股份有限公司 基于联邦学习的室内定位方法、装置、终端设备及介质
CN110674528B (zh) * 2019-09-20 2024-04-09 深圳前海微众银行股份有限公司 联邦学习隐私数据处理方法、设备、***及存储介质
CN110601814A (zh) * 2019-09-24 2019-12-20 深圳前海微众银行股份有限公司 联邦学习数据加密方法、装置、设备及可读存储介质
CN112656401B (zh) * 2019-10-15 2023-08-22 梅州市青塘实业有限公司 一种智能监护方法、装置及设备
CN110838069A (zh) * 2019-10-15 2020-02-25 支付宝(杭州)信息技术有限公司 数据处理方法、装置以及***
CN112656401A (zh) * 2019-10-15 2021-04-16 梅州市青塘实业有限公司 一种智能监护方法、装置及设备
CN110782042A (zh) * 2019-10-29 2020-02-11 深圳前海微众银行股份有限公司 横向联邦和纵向联邦联合方法、装置、设备及介质
WO2021083276A1 (zh) * 2019-10-29 2021-05-06 深圳前海微众银行股份有限公司 横向联邦和纵向联邦联合方法、装置、设备及介质
CN112749812A (zh) * 2019-10-29 2021-05-04 华为技术有限公司 一种联合学习***、训练结果聚合的方法及设备
CN110766169A (zh) * 2019-10-31 2020-02-07 深圳前海微众银行股份有限公司 强化学习的迁移训练优化方法、装置、终端及存储介质
CN110929260A (zh) * 2019-11-29 2020-03-27 杭州安恒信息技术股份有限公司 一种恶意软件检测的方法、装置、服务器及可读存储介质
CN110992936A (zh) * 2019-12-06 2020-04-10 支付宝(杭州)信息技术有限公司 使用私有数据来进行模型训练的方法及装置
CN111027715A (zh) * 2019-12-11 2020-04-17 支付宝(杭州)信息技术有限公司 基于蒙特卡洛的联邦学习模型训练方法及装置
CN111027715B (zh) * 2019-12-11 2021-04-02 支付宝(杭州)信息技术有限公司 基于蒙特卡洛的联邦学习模型训练方法及装置
CN111241582A (zh) * 2020-01-10 2020-06-05 鹏城实验室 数据隐私保护方法、装置及计算机可读存储介质
CN111241582B (zh) * 2020-01-10 2022-06-10 鹏城实验室 数据隐私保护方法、装置及计算机可读存储介质
CN111275207B (zh) * 2020-02-10 2024-04-30 深圳前海微众银行股份有限公司 基于半监督的横向联邦学习优化方法、设备及存储介质
CN111275207A (zh) * 2020-02-10 2020-06-12 深圳前海微众银行股份有限公司 基于半监督的横向联邦学习优化方法、设备及存储介质
CN111369042A (zh) * 2020-02-27 2020-07-03 山东大学 一种基于加权联邦学习的无线业务流量预测方法
CN111477290B (zh) * 2020-03-05 2023-10-31 上海交通大学 保护用户隐私的联邦学习和图像分类方法、***及终端
CN111477290A (zh) * 2020-03-05 2020-07-31 上海交通大学 保护用户隐私的联邦学习和图像分类方法、***及终端
CN111382875A (zh) * 2020-03-06 2020-07-07 深圳前海微众银行股份有限公司 联邦模型参数确定方法、装置、设备及存储介质
WO2021179196A1 (zh) * 2020-03-11 2021-09-16 Oppo广东移动通信有限公司 一种基于联邦学习的模型训练方法、电子设备及存储介质
CN113470806A (zh) * 2020-03-31 2021-10-01 中移(成都)信息通信科技有限公司 病情检测模型的确定方法、装置、设备及计算机存储介质
CN113470806B (zh) * 2020-03-31 2024-05-24 中移(成都)信息通信科技有限公司 病情检测模型的确定方法、装置、设备及计算机存储介质
CN111461329B (zh) * 2020-04-08 2024-01-23 中国银行股份有限公司 一种模型的训练方法、装置、设备及可读存储介质
CN111461329A (zh) * 2020-04-08 2020-07-28 中国银行股份有限公司 一种模型的训练方法、装置、设备及可读存储介质
CN111460511B (zh) * 2020-04-17 2023-05-02 支付宝(杭州)信息技术有限公司 基于隐私保护的联邦学习、虚拟对象分配方法和装置
CN111460511A (zh) * 2020-04-17 2020-07-28 支付宝(杭州)信息技术有限公司 基于隐私保护的联邦学习、虚拟对象分配方法和装置
WO2021227069A1 (zh) * 2020-05-15 2021-11-18 Oppo广东移动通信有限公司 一种模型更新方法及装置、通信设备
CN113688855A (zh) * 2020-05-19 2021-11-23 华为技术有限公司 数据处理方法、联邦学习的训练方法及相关装置、设备
CN113688855B (zh) * 2020-05-19 2023-07-28 华为技术有限公司 数据处理方法、联邦学习的训练方法及相关装置、设备
CN111340150A (zh) * 2020-05-22 2020-06-26 支付宝(杭州)信息技术有限公司 用于对第一分类模型进行训练的方法及装置
CN113705823A (zh) * 2020-05-22 2021-11-26 华为技术有限公司 基于联邦学习的模型训练方法和电子设备
WO2021244081A1 (en) * 2020-06-02 2021-12-09 Huawei Technologies Co., Ltd. Methods and systems for horizontal federated learning using non-iid data
US11715044B2 (en) 2020-06-02 2023-08-01 Huawei Cloud Computing Technologies Co., Ltd. Methods and systems for horizontal federated learning using non-IID data
WO2022001941A1 (zh) * 2020-06-28 2022-01-06 中兴通讯股份有限公司 网元管理方法、网管***、独立计算节点、计算机设备、存储介质
CN113282933A (zh) * 2020-07-17 2021-08-20 中兴通讯股份有限公司 联邦学习方法、装置和***、电子设备、存储介质
CN113282933B (zh) * 2020-07-17 2022-03-01 中兴通讯股份有限公司 联邦学习方法、装置和***、电子设备、存储介质
CN111882133B (zh) * 2020-08-03 2022-02-01 重庆大学 一种基于预测的联邦学习通信优化方法及***
CN111882133A (zh) * 2020-08-03 2020-11-03 重庆大学 一种基于预测的联邦学习通信优化方法及***
CN111932367A (zh) * 2020-08-13 2020-11-13 中国银行股份有限公司 贷前信用评估方法及装置
CN112001452A (zh) * 2020-08-27 2020-11-27 深圳前海微众银行股份有限公司 特征选择方法、装置、设备及可读存储介质
CN112214342A (zh) * 2020-09-14 2021-01-12 德清阿尔法创新研究院 一种联邦学习场景中高效的错误数据检测方法
CN112214342B (zh) * 2020-09-14 2024-05-24 德清阿尔法创新研究院 一种联邦学习场景中高效的错误数据检测方法
CN112261137B (zh) * 2020-10-22 2022-06-14 无锡禹空间智能科技有限公司 基于联合学习的模型训练方法及***
CN112261137A (zh) * 2020-10-22 2021-01-22 江苏禹空间科技有限公司 基于联合学习的模型训练方法及***
CN112149171A (zh) * 2020-10-27 2020-12-29 腾讯科技(深圳)有限公司 联邦神经网络模型的训练方法、装置、设备及存储介质
WO2022089256A1 (zh) * 2020-10-27 2022-05-05 腾讯科技(深圳)有限公司 联邦神经网络模型的训练方法、装置、设备、计算机程序产品及计算机可读存储介质
CN112365007A (zh) * 2020-11-11 2021-02-12 深圳前海微众银行股份有限公司 模型参数确定方法、装置、设备及存储介质
WO2022116725A1 (zh) * 2020-12-02 2022-06-09 腾讯科技(深圳)有限公司 数据处理方法、装置、设备及存储介质
CN112465043B (zh) * 2020-12-02 2024-05-14 平安科技(深圳)有限公司 模型训练方法、装置和设备
CN112217706A (zh) * 2020-12-02 2021-01-12 腾讯科技(深圳)有限公司 数据处理方法、装置、设备及存储介质
CN112465043A (zh) * 2020-12-02 2021-03-09 平安科技(深圳)有限公司 模型训练方法、装置和设备
CN112819177A (zh) * 2021-01-26 2021-05-18 支付宝(杭州)信息技术有限公司 一种个性化的隐私保护学习方法、装置以及设备
CN112885337A (zh) * 2021-01-29 2021-06-01 深圳前海微众银行股份有限公司 数据处理方法、装置、设备及存储介质
CN112989929A (zh) * 2021-02-04 2021-06-18 支付宝(杭州)信息技术有限公司 目标用户的识别方法、装置和电子设备
CN113077060A (zh) * 2021-03-30 2021-07-06 中国科学院计算技术研究所 针对边云协同的联邦学习***及方法
CN113128701A (zh) * 2021-04-07 2021-07-16 中国科学院计算技术研究所 面向样本稀疏性的联邦学习方法及***
CN113095513A (zh) * 2021-04-25 2021-07-09 中山大学 双层公平联邦学习方法、装置和存储介质
CN113268758A (zh) * 2021-06-17 2021-08-17 上海万向区块链股份公司 基于联邦学习的数据共享***、方法、介质及设备
CN113268758B (zh) * 2021-06-17 2022-11-04 上海万向区块链股份公司 基于联邦学习的数据共享***、方法、介质及设备
CN113361721B (zh) * 2021-06-29 2023-07-18 北京百度网讯科技有限公司 模型训练方法、装置、电子设备、存储介质及程序产品
CN113361721A (zh) * 2021-06-29 2021-09-07 北京百度网讯科技有限公司 模型训练方法、装置、电子设备、存储介质及程序产品
CN113487043A (zh) * 2021-07-22 2021-10-08 深圳前海微众银行股份有限公司 联邦学习建模优化方法、设备、介质及计算机程序产品
CN113642737B (zh) * 2021-08-12 2024-03-05 广域铭岛数字科技有限公司 一种基于汽车用户数据的联邦学习方法及***
CN113642737A (zh) * 2021-08-12 2021-11-12 广域铭岛数字科技有限公司 一种基于汽车用户数据的联邦学习方法及***
WO2023024378A1 (zh) * 2021-08-25 2023-03-02 深圳前海微众银行股份有限公司 多智能体模型的训练方法、装置、电子设备、存储介质及程序产品
CN113850396B (zh) * 2021-09-28 2022-04-19 北京邮电大学 隐私增强型联邦决策方法、装置、***和存储介质
CN113850396A (zh) * 2021-09-28 2021-12-28 北京邮电大学 隐私增强型联邦决策方法、装置、***和存储介质
CN114912581A (zh) * 2022-05-07 2022-08-16 奇安信科技集团股份有限公司 检测模型的训练方法、装置、电子设备和存储介质
WO2023241042A1 (zh) * 2022-06-13 2023-12-21 中兴通讯股份有限公司 故障预测方法、装置、电子设备及存储介质
WO2024026583A1 (zh) * 2022-07-30 2024-02-08 华为技术有限公司 一种通信方法和通信装置
CN115526339B (zh) * 2022-11-03 2024-05-17 中国电信股份有限公司 联邦学习方法、装置、电子设备及计算机可读存储介质
CN115526339A (zh) * 2022-11-03 2022-12-27 中国电信股份有限公司 联邦学习方法、装置、电子设备及计算机可读存储介质
CN117251276B (zh) * 2023-11-20 2024-02-09 清华大学 一种面向协作学习平台的灵活调度方法及装置
CN117251276A (zh) * 2023-11-20 2023-12-19 清华大学 一种面向协作学习平台的灵活调度方法及装置

Similar Documents

Publication Publication Date Title
CN103853786B (zh) 数据库参数的优化方法与***
CN103353923B (zh) 基于空间特征分析的自适应空间插值方法及其***
CN106803799B (zh) 一种性能测试方法和装置
CN101562832B (zh) 一种用于通信测试的关键质量指标测算方法及***
CN110378488A (zh) 客户端变化的联邦训练方法、装置、训练终端及存储介质
CN106844781A (zh) 数据处理的方法及装置
CN107230381A (zh) 一种停车位推荐方法、服务器以及客户端
CN106556877B (zh) 一种地磁通化方法及装置
CN109710507A (zh) 一种自动化测试的方法和装置
CN107360026A (zh) 分布式消息中间件性能预测与建模方法
CN109903100A (zh) 一种用户流失预测方法、装置及可读存储介质
CN110019382A (zh) 用户亲密度指数确定方法、装置、存储介质及电子设备
CN112001786A (zh) 基于知识图谱的客户***额度配置方法及装置
CN106650028B (zh) 一种基于敏捷卫星设计参数的优化方法及***
CN108287928A (zh) 一种基于局部加权线性回归的空间属性预测方法
CN109495898A (zh) 一种无线网络覆盖的指标定量预测方法及设备
CN105468503B (zh) 一种软件测试方法及其设备
CN110146855A (zh) 雷达间断干扰抑制门限计算方法及装置
CN101986608B (zh) 一种异构覆盖网络负载均衡程度的评价方法
CN109117352B (zh) 服务器性能预测方法和装置
CN113449188A (zh) 应用推荐方法、装置、电子设备及可读存储介质
CN113642886A (zh) 规划电网线路利用率分析方法、***、介质及计算设备
CN109982365A (zh) 基于仿真和mro数据的天馈问题核查方法及装置
CN106844626B (zh) 利用微博关键词和位置信息模拟空气质量的方法及***
CN109871702A (zh) 联邦模型训练方法、***、设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant