CN110245510A - 用于预测信息的方法和装置 - Google Patents

用于预测信息的方法和装置 Download PDF

Info

Publication number
CN110245510A
CN110245510A CN201910533286.2A CN201910533286A CN110245510A CN 110245510 A CN110245510 A CN 110245510A CN 201910533286 A CN201910533286 A CN 201910533286A CN 110245510 A CN110245510 A CN 110245510A
Authority
CN
China
Prior art keywords
model
current
gradient value
training sample
penalty values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910533286.2A
Other languages
English (en)
Other versions
CN110245510B (zh
Inventor
刘昊骋
许韩晨玺
陈浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910533286.2A priority Critical patent/CN110245510B/zh
Publication of CN110245510A publication Critical patent/CN110245510A/zh
Application granted granted Critical
Publication of CN110245510B publication Critical patent/CN110245510B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2107File encryption

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Bioethics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Databases & Information Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请实施例公开了用于预测信息的方法和装置。该方法的一具体实施方式包括:获取用户的特征;将用户的特征分别输入至预先训练的第一模型和第二模型,得到用户的第一预测结果和第二预测结果,其中,第一模型和第二模型分别对应不同类别的机构,且基于各自对应的训练样本采用纵向联邦学习方法训练得到;汇总第一预测结果和第二预测结果,生成用户的预测结果。该实施方式涉及云计算领域,基于采用纵向联邦学习方法训练得到的第一模型和第二模型预测信息,提高了信息预测的准确度。

Description

用于预测信息的方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于预测信息的方法和装置。
背景技术
数据隔离和孤岛效应严重制约人工智能发展。不同机构拥有的数据维度和样本数量有限。由于数据安全性和个人信息保护等法律限制,不同机构的数据不能交换或共享,导致机构基于自身的数据和样本建立的模型效果较差,泛化能力弱,且不具备可复制性。
例如,金融机构拥有用户的存款、账户交易流水、贷款金额和消费记录等数据,但缺少用户浏览网站的行为和兴趣标签;互联网机构拥有用户的网站浏览行为、兴趣标签和地理位置信息,但缺少金融机构拥有的金融数据。
发明内容
本申请实施例提出了用于预测信息的方法和装置。
第一方面,本申请实施例提供了一种用于预测信息的方法,包括:获取用户的特征;将用户的特征分别输入至预先训练的第一模型和第二模型,得到用户的第一预测结果和第二预测结果,其中,第一模型和第二模型分别对应不同类别的机构,且基于各自对应的训练样本采用纵向联邦学习方法训练得到;汇总第一预测结果和第二预测结果,生成用户的预测结果。
在一些实施例中,第一模型和第二模型通过如下步骤训练:获取第一模型对应的第一训练样本和第二模型对应的第二训练样本,其中,第一训练样本包括第一样本用户的第一样本特征和第一样本标签,第二训练样本包括第二样本用户的第二样本特征;基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练。
在一些实施例中,基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练,包括:获取第一模型的当前梯度值和第二模型的当前梯度值;对第一模型的当前梯度值和第二模型的当前梯度值进行公钥加密,得到第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值;汇总第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值,得到当前公钥加密梯度值;对当前公钥加密梯度值进行私钥解密,得到当前私钥解密梯度值;基于当前私钥解密梯度值分别更新第一模型和第二模型。
在一些实施例中,基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练,还包括:获取第一模型的当前中间值和第二模型的当前中间值;对第一模型的当前中间值和第二模型的当前中间值进行公钥加密,得到第一模型的当前公钥加密中间值和第二模型的当前公钥加密中间值;基于第二模型的当前公钥加密中间值训练第一模型,以及基于第一模型的当前公钥加密中间值训练第二模型。
在一些实施例中,基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练,还包括:获取第一模型的当前损失值;对第一模型的当前损失值进行公钥加密,得到第一模型的当前公钥加密损失值;以及汇总第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值,得到当前公钥加密梯度值,包括:对第一模型的当前公钥加密损失值进行私钥解密,得到第一模型的当前私钥解密损失值;基于第一模型的当前私钥解密损失值汇总第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值,得到当前公钥加密梯度值。
在一些实施例中,在基于当前私钥解密梯度值分别更新第一模型和第二模型之后,还包括:获取第一模型的当前损失值和第二模型的当前损失值;确定第一模型的当前损失值和第二模型的当前损失值是否收敛;若第一模型的当前损失值和第二模型的当前损失值收敛,确定第一模型和第二模型训练完成。
在一些实施例中,在确定第一模型的当前损失值和第二模型的当前损失值是否收敛之后,还包括:若第一模型的当前损失值和第二模型的当前损失值不收敛,继续基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练。
在一些实施例中,在基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练之前,还包括:对第一训练样本和第二训练样本进行样本对齐。
在一些实施例中,在基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练之前,还包括:获取第三模型对应的第三训练样本,其中,第一模型和第三模型分别对应相同类别的不同机构,第三训练样本包括第三样本用户的第三样本特征和第三样本标签;基于第一训练样本和第三训练样本采用横向联邦学习方法对第一模型和第三模型进行训练。
在一些实施例中,基于第一训练样本和第三训练样本采用横向联邦学习方法对第一模型和第三模型进行训练,包括:获取第一模型的当前梯度值和第三模型的当前梯度值;对第一模型的当前梯度值和第三模型的当前梯度值进行同态加密,得到第一模型的当前同态加密梯度值和第三模型的当前同态加密梯度值;聚合第一模型的当前同态加密梯度值和第三模型的当前同态加密梯度值,得到当前同态加密梯度值;解密当前同态加密梯度值,得到当前解密梯度值;基于当前解密梯度值分别更新第一模型和第三模型。
在一些实施例中,在基于当前解密梯度值分别更新第一模型和第三模型之后,还包括:获取第一模型的当前损失值和第三模型的当前损失值;确定第一模型的当前损失值和第三模型的当前损失值是否收敛;若第一模型的当前损失值和第三模型的当前损失值收敛,基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练。
在一些实施例中,在确定第一模型的当前损失值和第三模型的当前损失值是否收敛之后,还包括:若第一模型的当前损失值和第三模型的当前损失值不收敛,继续基于第一训练样本和第三训练样本采用横向联邦学习方法对第一模型和第三模型进行训练。
第二方面,本申请实施例提供了一种用于预测信息的装置,包括:获取单元,被配置成获取用户的特征;预测单元,被配置成将用户的特征分别输入至预先训练的第一模型和第二模型,得到用户的第一预测结果和第二预测结果,其中,第一模型和第二模型分别对应不同类别的机构,且基于各自对应的训练样本采用纵向联邦学习方法训练得到;汇总单元,被配置成汇总第一预测结果和第二预测结果,生成用户的预测结果。
在一些实施例中,第一模型和第二模型通过如下步骤训练:获取第一模型对应的第一训练样本和第二模型对应的第二训练样本,其中,第一训练样本包括第一样本用户的第一样本特征和第一样本标签,第二训练样本包括第二样本用户的第二样本特征;基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练。
在一些实施例中,基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练,包括:获取第一模型的当前梯度值和第二模型的当前梯度值;对第一模型的当前梯度值和第二模型的当前梯度值进行公钥加密,得到第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值;汇总第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值,得到当前公钥加密梯度值;对当前公钥加密梯度值进行私钥解密,得到当前私钥解密梯度值;基于当前私钥解密梯度值分别更新第一模型和第二模型。
在一些实施例中,基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练,还包括:获取第一模型的当前中间值和第二模型的当前中间值;对第一模型的当前中间值和第二模型的当前中间值进行公钥加密,得到第一模型的当前公钥加密中间值和第二模型的当前公钥加密中间值;基于第二模型的当前公钥加密中间值训练第一模型,以及基于第一模型的当前公钥加密中间值训练第二模型。
在一些实施例中,基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练,还包括:获取第一模型的当前损失值;对第一模型的当前损失值进行公钥加密,得到第一模型的当前公钥加密损失值;以及汇总第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值,得到当前公钥加密梯度值,包括:对第一模型的当前公钥加密损失值进行私钥解密,得到第一模型的当前私钥解密损失值;基于第一模型的当前私钥解密损失值汇总第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值,得到当前公钥加密梯度值。
在一些实施例中,在基于当前私钥解密梯度值分别更新第一模型和第二模型之后,还包括:获取第一模型的当前损失值和第二模型的当前损失值;确定第一模型的当前损失值和第二模型的当前损失值是否收敛;若第一模型的当前损失值和第二模型的当前损失值收敛,确定第一模型和第二模型训练完成。
在一些实施例中,在确定第一模型的当前损失值和第二模型的当前损失值是否收敛之后,还包括:若第一模型的当前损失值和第二模型的当前损失值不收敛,继续基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练。
在一些实施例中,在基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练之前,还包括:对第一训练样本和第二训练样本进行样本对齐。
在一些实施例中,在基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练之前,还包括:获取第三模型对应的第三训练样本,其中,第一模型和第三模型分别对应相同类别的不同机构,第三训练样本包括第三样本用户的第三样本特征和第三样本标签;基于第一训练样本和第三训练样本采用横向联邦学习方法对第一模型和第三模型进行训练。
在一些实施例中,基于第一训练样本和第三训练样本采用横向联邦学习方法对第一模型和第三模型进行训练,包括:获取第一模型的当前梯度值和第三模型的当前梯度值;对第一模型的当前梯度值和第三模型的当前梯度值进行同态加密,得到第一模型的当前同态加密梯度值和第三模型的当前同态加密梯度值;聚合第一模型的当前同态加密梯度值和第三模型的当前同态加密梯度值,得到当前同态加密梯度值;解密当前同态加密梯度值,得到当前解密梯度值;基于当前解密梯度值分别更新第一模型和第三模型。
在一些实施例中,在基于当前解密梯度值分别更新第一模型和第三模型之后,还包括:获取第一模型的当前损失值和第三模型的当前损失值;确定第一模型的当前损失值和第三模型的当前损失值是否收敛;若第一模型的当前损失值和第三模型的当前损失值收敛,基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练。
在一些实施例中,在确定第一模型的当前损失值和第三模型的当前损失值是否收敛之后,还包括:若第一模型的当前损失值和第三模型的当前损失值不收敛,继续基于第一训练样本和第三训练样本采用横向联邦学习方法对第一模型和第三模型进行训练。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于预测信息的方法和装置,首先获取用户的特征;然后将用户的特征分别输入至预先训练的第一模型和第二模型,以得到用户的第一预测结果和第二预测结果;最后汇总第一预测结果和第二预测结果,生成用户的预测结果。基于采用纵向联邦学习方法训练得到的第一模型和第二模型预测信息,提高了信息预测的准确度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性***架构;
图2是根据本申请的用于预测信息的方法的一个实施例的流程图;
图3是根据本申请的用于训练第一模型和第二模型的方法的一个实施例的流程图;
图4是根据本申请的纵向联邦学习方法的一个实施例的流程图;
图5是根据本申请的用于训练第一模型和第三模型的方法的一个实施例的流程图;
图6是根据本申请的横向联邦学习方法的一个实施例的流程图;
图7A是横向联邦学习和纵向联邦学习训练模型的一个应用场景的示意图;
图7B是横向联邦学习方法的一个应用场景的示意图;
图7C是纵向联邦学习方法的一个应用场景的示意图;
图8是根据本申请的用于预测信息的装置的一个实施例的结构示意图;
图9是适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于预测信息的方法或用于预测信息的装置的实施例的示例性***架构100。
如图1所示,***架构100中可以包括终端设备101、网络102和服务器103。网络102用以在终端设备101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101通过网络102与服务器103交互,以接收或发送消息等。终端设备101上可以安装有各种客户端软件,例如信息预测类应用等。
终端设备101可以是硬件,也可以是软件。当终端设备101为硬件时,可以是具有显示屏并且支持信息预测的各种电子设备。包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101为软件时,可以安装在上述电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器103可以是提供各种服务的服务器。例如信息预测服务器。信息预测服务器可以对获取到的用户的特征等数据进行分析等处理,生成处理结果(例如用户的预测结果),并将处理结果推送给终端设备101。
需要说明的是,服务器103可以是硬件,也可以是软件。当服务器103为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。在通常情况下,为了实现不同机构的数据隔离,服务器103可以实现成不同类别的机构的服务器和仲裁服务器组成的服务器集群。当不同类别的机构的服务器进行数据交换时,通过仲裁服务器处理后再进行交换。当服务器103为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的用于预测信息的方法一般由服务器103执行,相应地,用于预测信息的装置一般设置于服务器103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本申请的用于预测信息的方法的一个实施例的流程200。该用于预测信息的方法,包括以下步骤:
步骤201,获取用户的特征。
在本实施例中,用于预测信息的方法的执行主体(例如图1所示的服务器103)可以获取用户的特征。通常,上述执行主体可以根据用户的标识从大量用户的特征中查找出该用户的特征。由于不同类别的机构的用户重叠较多而用户的特征重叠较少,因此上述执行主体可以根据用户的标识分别查找出该用户在不同类别的机构中的相应特征。
例如,金融机构与互联网机构的用户重叠较多而用户的特征重叠较少。金融机构拥有大量用户的金融特征,该金融机构的服务器可以根据用户的标识从大量用户的金融特征中查找出该用户的金融特征。其中,金融特征可以包括但不限于存款数据、交易流水数据、贷款数据和消费数据等等。同时,互联网机构拥有大量用户的行为特征,该互联网机构的服务器可以根据用户的标识从大量用户的行为特征中查找出该用户的行为特征。其中,行为特征可以包括但不限于网站浏览数据、兴趣标签数据和地理位置数据等等。
步骤202,将用户的特征分别输入至预先训练的第一模型和第二模型,得到用户的第一预测结果和第二预测结果。
在本实施例中,上述执行主体可以将用户的特征输入至预先训练的第一模型,以得到用户的第一预测结果。同时,上述执行主体还可以将用户的特征输入至预先训练的第二模型,以得到用户的第二预测结果。其中,第一模型和第二模型可以分别对应不同类别的机构,且基于各自对应的训练样本采用纵向联邦学习方法训练得到。即,第一模型和第二模型运行在不同类别的机构的服务器上。纵向联邦学习是在不同类别的机构的用户重叠较多而用户的特征重叠较少的情况下,把不同类别的机构各自对应的训练样本按照纵向(及特征维度)切分,并取出双方用户相同而用户的特征不完全相同的那部分样本进行训练。第一预测结果可以包括第一模型预测的用户发生事件的概率。第二预测结果可以包括第二模型预测的用户发生事件的概率。
例如,第一模型可以对应金融机构,运行在金融机构的服务器上。第二模型可以对应互联网机构,运行在互联网机构的服务器上。该金融机构对应的训练样本可以是基于该金融机构拥有的大量用户的金融特征得到的。该互联网机构对应的训练样本可以是基于该互联网机构拥有的大量用户的行为特征得到的。该金融机构的服务器和该互联网机构的服务器可以基于各自对应的训练样本采用纵向联邦学习方法训练得到第一模型和第二模型。随后,该金融机构的服务器可以将该用户的金融特征输入至第一模型,以得到第一用户的第一预测结果。同时,该互联网机构的服务器可以将该用户的行为输入至第二模型,以得到第二用户的第二预测结果。
步骤203,汇总第一预测结果和第二预测结果,生成用户的预测结果。
在本实施例中,上述执行主体可以汇总第一预测结果和第二预测结果,以生成用户的预测结果。例如,上述执行主体可以计算第一预测结果和第二预测结果的平均值,作为预测结果。又例如,上述执行主体可以任选第一预测结果和第二预测结果中的一个,作为预测结果。
例如,互联网机构的服务器可以将第一预测结果发送至金融机构的服务器。随后,金融机构的服务器可以汇总第一预测结果和第二预测结果,生成用户的预测结果。
本申请实施例提供的用于预测信息的方法,首先获取用户的特征;然后将用户的特征分别输入至预先训练的第一模型和第二模型,以得到用户的第一预测结果和第二预测结果;最后汇总第一预测结果和第二预测结果,生成用户的预测结果。基于采用纵向联邦学习方法训练得到的第一模型和第二模型预测信息,提高了信息预测的准确度。
继续参考图3,其示出了根据本申请的用于训练第一模型和第二模型的方法的一个实施例的流程300。该用于训练第一模型和第二模型的方法,包括以下步骤:
步骤301,获取第一模型对应的第一训练样本和第二模型对应的第二训练样本。
在本实施例中,用于训练第一模型和第二模型的方法的执行主体(例如图1所示的服务器103)可以获取第一模型对应的第一训练样本和第二模型对应的第二训练样本。其中,由于第一模型和第二模型分别对应不同类别的机构,那么第一训练样本和第二训练样本也分别对应不同类别的机构。第一训练样本可以包括第一样本用户的和第一样本标签。第二训练样本可以包括第二样本用户的第二样本特征。第一样本用户可以是第一训练样本对应的机构的用户。第二样本用户可以是第二训练样本对应的机构的用户。
例如,第一样本用户可以是金融机构的用户。第一训练样本可以是该金融机构的服务器基于该金融机构拥有的大量用户的金融特征得到的。其中,第一样本特征可以是第一用户的金融特征。第一样本标签可以是第一用户的金融特征所对应的数值。第二样本用户可以是互联网机构的用户。第二训练样本可以是该互联网机构的服务器基于该互联网机构拥有的大量用户的行为特征得到的。第二样本特征可以是第二用户的行为特征。
在本实施例的一些可选的实现方式中,由于不同类别的机构的用户重叠较多而用户的特征重叠较少,因此上述执行主体可以对第一训练样本和第二训练样本进行样本对齐。通常,上述执行主体可以基于加密的第一训练样本和第二训练样本进行样本对齐。这样,不仅在不公开第一训练样本和第二训练样本的前提下确认双方的共同用户,还不暴露不互相重叠的用户。
例如,金融机构的服务器可以对第一训练样本中的第一样本用户的手机号进行MD5(Message-Digest Algorithm,消息摘要算法)加密,将加密后的手机号发送至互联网机构的服务器。互联网机构的服务器可以调用IDMapping(用户画像)与第二样本样本中的第二样本用户的标识打通,从而实现第一训练样本与第二训练样本对齐。
步骤302,基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练。
在本实施例中,上述执行主体可以基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练,直至第一模型和第二模型满足预设的约束条件为止。
例如,金融机构的服务器基于第一训练样本和互联网机构的服务器基于第二训练样本采用纵向联邦学习方法训练得到第一模型和第二模型。通常,为了保证训练过程中数据的保密性,需要借助第三方的仲裁服务器进行加密训练。即,在训练过程中,当金融机构的服务器和互联网机构的服务器进行数据交换时,通过仲裁服务器处理后再进行交换。
本申请实施例提供的用于训练第一模型和第二模型的方法,首先获取第一模型对应的第一训练样本和第二模型对应的第二训练样本;然后基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练。不仅实现了数据隔离,以满足用户隐私保护和数据安全的需求,还保证不同类别的机构对应的训练样本在保持独立性的情况下,进行信息和模型参数的加密交换。
进一步参考图4,其示出了根据本申请的纵向联邦学习方法的一个实施例的流程400。该纵向联邦学习方法,包括以下步骤:
步骤401,获取第一模型的当前中间值和第二模型的当前中间值。
在本实施例中,纵向联邦学习方法的执行主体(例如图1所示的服务器103)可以获取第一模型的当前中间值和第二模型的当前中间值。通常,对第一模型和第二模型进行训练的过程中会生成中间值。
例如,金融机构的服务器可以获取第一模型训练过程中的当前中间值。互联网机构的服务器可以获取第二模型训练过程中的当前中间值。
步骤402,对第一模型的当前中间值和第二模型的当前中间值进行公钥加密,得到第一模型的当前公钥加密中间值和第二模型的当前公钥加密中间值。
在本实施例中,上述执行主体可以对第一模型的当前中间值和第二模型的当前中间值进行公钥加密,以得到第一模型的当前公钥加密中间值和第二模型的当前公钥加密中间值。
例如,为了保证训练过程中数据的保密性,需要借助第三方的仲裁服务器进行加密训练。具体地,仲裁服务器可以将公钥分别发送给金融机构的服务器和互联网机构的服务器。这样,该金融机构的服务器可以对第一模型的当前中间值进行公钥加密。该互联网机构的服务器可以对第二模型的当前中间值进行公钥加密。
在本实施例的一些可选的实现方式中,上述执行主体可以获取第一模型的当前损失值;对第一模型的当前损失值进行公钥加密,得到第一模型的当前公钥加密损失值。通常,对第一模型进行训练的过程中会生成损失值。例如,金融机构的服务器可以获取第一模型的当前损失值,对第一模型的当前损失值进行公钥加密。
步骤403,基于第二模型的当前公钥加密中间值训练第一模型,以及基于第一模型的当前公钥加密中间值训练第二模型。
在本实施例中,上述执行主体可以基于第二模型的当前公钥加密中间值训练第一模型,以及基于第一模型的当前公钥加密中间值训练第二模型。第一模型对应的机构和第二模型对应的机构交换的是公钥加密中间值。以加密形式交换中间值,从而实现了不同机构之间的数据隔离,以满足用户隐私保护和数据安全的需求。
例如,互联网机构的服务器可以将第二模型的当前公钥加密中间值发送给金融机构的服务器,这样,金融机构的服务器可以基于第二模型的当前公钥加密中间值训练第一模型。同时,金融机构的服务器可以将第一模型的当前公钥加密中间值发送给互联网机构的服务器,这样,互联网机构的服务器可以基于第一模型的当前公钥加密中间值训练第二模型。
步骤404,获取第一模型的当前梯度值和第二模型的当前梯度值。
在本实施例中,上述执行主体可以获取第一模型的当前梯度值和第二模型的当前梯度值。通常,对第一模型和第二模型进行训练的过程中会生成梯度值。
例如,金融机构的服务器可以获取第一模型训练过程中的当前梯度值。互联网机构的服务器可以获取第二模型训练过程中的当前梯度值。
步骤405,对第一模型的当前梯度值和第二模型的当前梯度值进行公钥加密,得到第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值。
在本实施例中,上述执行主体可以对第一模型的当前梯度值和第二模型的当前梯度值进行公钥加密,以得到第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值。
例如,金融机构的服务器可以对第一模型的当前梯度值进行公钥加密。互联网机构的服务器可以对第二模型的当前梯度值进行公钥加密。
步骤406,汇总第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值,得到当前公钥加密梯度值。
在本实施例中,上述执行主体可以汇总第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值,以得到当前公钥加密梯度值。
例如,金融机构的服务器可以将第一模型的当前公钥加密梯度值发送至仲裁服务器。同时互联网机构的服务器可以将第二模型的当前公钥加密梯度值发送至仲裁服务器。随后,仲裁服务器可以汇总第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值,以得到当前公钥加密梯度值。
在本实施例的一些可选的实现方式中,上述执行主体可以首先对第一模型的当前公钥加密损失值进行私钥解密,得到第一模型的当前私钥解密损失值;然后基于第一模型的当前私钥解密损失值汇总第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值,得到当前公钥加密梯度值。例如,金融机构的服务器可以将第一模型的当前公钥加密损失值发送至仲裁服务器。仲裁服务器可以首先对第一模型的当前公钥加密损失值进行私钥解密,以得到第一模型的当前私钥解密损失值;然后基于第一模型的当前私钥解密损失值汇总第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值,得到当前公钥加密梯度值。
步骤407,对当前公钥加密梯度值进行私钥解密,得到当前私钥解密梯度值。
在本实施例中,上述执行主体可以对当前公钥加密梯度值进行私钥解密,以得到当前私钥解密梯度值。
例如,仲裁服务器可以对当前公钥加密梯度值进行私钥解密,得到当前私钥解密梯度值。
步骤408,基于当前私钥解密梯度值分别更新第一模型和第二模型。
在本实施例中,上述执行主体可以基于当前私钥解密梯度值分别更新第一模型和第二模型。
例如,仲裁服务器可以将当前私钥解密梯度值分别发送至金融机构的服务器和互联网机构的服务器。金融机构的服务器可以基于当前私钥解密梯度值更新第一模型。同时,互联网机构的服务器可以基于当前私钥解密梯度值更新第二模型。
步骤409,获取第一模型的当前损失值和第二模型的当前损失值。
在本实施例中,上述执行主体可以获取第一模型的当前损失值和第二模型的当前损失值。通常,对第一模型和第二模型进行训练的过程中会生成损失值。
例如,金融机构的服务器可以获取第一模型训练过程中的当前损失值。互联网机构的服务器可以获取第二模型训练过程中的当前损失值。
步骤410,确定第一模型的当前损失值和第二模型的当前损失值是否收敛。
在本实施例中,上述执行主体可以确定第一模型的当前损失值和第二模型的当前损失值是否收敛。若第一模型的当前损失值和第二模型的当前损失值收敛,继续执行步骤411;若第一模型的当前损失值和第二模型的当前损失值不收敛,返回执行步骤401,即,继续基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练,直至第一模型的当前损失值和第二模型的当前损失值收敛为止。
例如,金融机构的服务器可以确定第一模型的当前损失值是否收敛。互联网机构的服务器可以确定第二模型的当前损失值是否收敛。
步骤411,确定第一模型和第二模型训练完成。
在本实施例中,若第一模型的当前损失值和第二模型的当前损失值收敛,上述执行主体可以确定第一模型和第二模型训练完成。
实践中,相同类别的不同机构之间也存在数据隔离。对于同一类别的多个机构,有些机构拥有的大量用户的特征,而有些机构拥有少量用户的特征。若仅基于各自机构对应的训练样本训练对应的模型,就导致训练出的拥有少量用户的特征的机构对应的模型的效果较差。为了解决这一问题,在采用纵向联邦学习方法训练第一模型和第二模型之前,还可以采用横向联邦学习方法训练第一模型和第三模型。
继续参考图5,其示出了根据本申请的用于训练第一模型和第三模型的方法的一个实施例的流程500。该用于训练第一模型和第三模型的方法,包括以下步骤:
步骤501,获取第一模型对应的第一训练样本和第三模型对应的第三训练样本。
在本实施例中,用于训练第一模型和第三模型的方法的执行主体(例如图1所示的服务器103)可以获取第一模型对应的第一训练样本和第三模型对应的第三训练样本。其中,由于第一模型和第三模型分别对应相同类别的不同机构,那么第一训练样本和第三训练样本也分别对应相同类别的不同机构。第一训练样本可以包括第一样本用户的和第一样本标签。第三训练样本包括第三样本用户的第三样本特征和第三样本标签。第一样本用户可以是第一训练样本对应的机构的用户。第三样本用户可以是第三训练样本对应的机构的用户。
例如,第一样本用户可以是大型金融机构的用户。第一训练样本可以是该大型金融机构的服务器基于该大型金融机构拥有的大量用户的金融特征得到的。其中,第一样本特征可以是第一用户的金融特征。第一样本标签可以是第一用户的金融特征所对应的数值。第三样本用户可以是小型金融机构的用户。第三训练样本可以是该小型金融机构的服务器基于该小型金融机构拥有的少量用户的行为特征得到的。第三样本特征可以是第三用户的金融特征。第三样本标签可以是第三用户的金融特征所对应的数值。
步骤502,基于第一训练样本和第三训练样本采用横向联邦学习方法对第一模型和第三模型进行训练。
在本实施例中,上述执行主体可以基于第一训练样本和第三训练样本采用横向联邦学习方法对第一模型和第三模型进行训练,直至第一模型和第三模型满足预设的约束条件为止。其中,横向联邦学习是在相同类别的不同机构的用户的特征重叠较多而用户重叠较少的情况下,把相同类别的不同机构各自对应的训练样本按照横向(及用户维度)切分,并取出双方用户的特征相同而用户不完全相同的那部分样本进行训练。
例如,大型金融机构的服务器基于第一训练样本和小型金融机构的服务器基于第三训练样本采用横向联邦学习方法训练得到第一模型和第三模型。通常,为了保证训练过程中数据的保密性,需要借助第三方的仲裁服务器进行加密训练。
本申请实施例提供的用于训练第一模型和第三模型的方法,首先获取第一模型对应的第一训练样本和第三模型对应的第三训练样本;然后基于第一训练样本和第三训练样本采用横向联邦学习方法对第一模型和第三模型进行训练。不仅实现了数据隔离,以满足用户隐私保护和数据安全的需求,还保证相同类别的不同机构对应的训练样本在保持独立性的情况下,进行信息和模型参数的加密交换。
进一步参考图6,其示出了根据本申请的横向联邦学习方法的一个实施例的流程600。该横向联邦学习方法,包括以下步骤:
步骤601,获取第一模型的当前梯度值和第三模型的当前梯度值。
在本实施例中,横向联邦学习方法的执行主体(例如图1所示的服务器103)可以获取第一模型的当前梯度值和第三模型的当前梯度值。通常,对第一模型和第三模型进行训练的过程中会生成梯度值。
例如,大型金融机构的服务器可以获取第一模型训练过程中的当前梯度值。小型金融机构的服务器可以获取第三模型训练过程中的当前梯度值。
步骤602,对第一模型的当前梯度值和第三模型的当前梯度值进行同态加密,得到第一模型的当前同态加密梯度值和第三模型的当前同态加密梯度值。
在本实施例中,上述执行主体可以对第一模型的当前梯度值和第三模型的当前梯度值进行同态加密,以得到第一模型的当前同态加密梯度值和第三模型的当前同态加密梯度值。其中,同态加密是基于数学难题的计算复杂性理论的密码学技术。对经过同态加密的数据进行处理得到一个输出,将这一输出进行解密,其结果与用同一方法处理未加密的原始数据得到的输出结果是一样的。
例如,大型金融机构的服务器可以对第一模型的当前梯度值进行同态加密。小型金融机构的服务器可以对第三模型的当前梯度值进行同态加密。
步骤603,聚合第一模型的当前同态加密梯度值和第三模型的当前同态加密梯度值,得到当前同态加密梯度值。
在本实施例中,上述执行主体可以聚合第一模型的当前同态加密梯度值和第三模型的当前同态加密梯度值,以得到当前同态加密梯度值。
例如,为了保证训练过程中数据的保密性,需要借助第三方的仲裁服务器进行加密训练。具体地,大型金融机构的服务器可以将第一模型的当前同态加密梯度值发送至仲裁服务器。小型金融机构的服务器可以对第三模型的当前同态加密梯度值发送至仲裁服务器。这样,仲裁服务器可以聚合第一模型的当前同态加密梯度值和第三模型的当前同态加密梯度值,得到当前同态加密梯度值。
步骤604,解密当前同态加密梯度值,得到当前解密梯度值。
在本实施例中,上述执行主体可以解密当前同态加密梯度值,以得到当前解密梯度值。
例如,仲裁服务器可以将当前同态加密梯度值分别发送至大型金融机构的服务器和小型金融机构的服务器。大型金融机构的服务器和小型金融机构的服务器可以分别解密当前同态加密梯度值,以得到当前解密梯度值。
步骤605,基于当前解密梯度值分别更新第一模型和第三模型。
在本实施例中,上述执行主体可以基于当前解密梯度值分别更新第一模型和第三模型。
例如,大型金融机构的服务器可以基于当前解密梯度值更新第一模型。同时,小型金融机构的服务器可以基于当前解密梯度值更新第三模型。
步骤606,获取第一模型的当前损失值和第三模型的当前损失值。
在本实施例中,上述执行主体可以获取第一模型的当前损失值和第三模型的当前损失值。通常,对第一模型和第三模型进行训练的过程中会生成损失值。
例如,大型金融机构的服务器可以获取第一模型训练过程中的当前损失值。小型金融机构的服务器可以获取第三模型训练过程中的当前损失值。
步骤607,确定第一模型的当前损失值和第三模型的当前损失值是否收敛。
在本实施例中,上述执行主体可以确定第一模型的当前损失值和第三模型的当前损失值是否收敛。若第一模型的当前损失值和第三模型的当前损失值收敛,继续执行步骤608;若第一模型的当前损失值和第三模型的当前损失值不收敛,返回执行步骤601,即,继续基于第一训练样本和第三训练样本采用横向联邦学习方法对第一模型和第三模型进行训练,直至第一模型的当前损失值和第三模型的当前损失值收敛为止。
例如,大型金融机构的服务器可以确定第一模型的当前损失值是否收敛。小型金融机构的服务器可以确定第三模型的当前损失值是否收敛。
步骤608,基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练。
在本实施例中,若第一模型的当前损失值和第三模型的当前损失值收敛,上述执行主体基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练。
进一步参考图7A,其示出了横向联邦学习和纵向联邦学习训练模型的一个应用场景的示意图。在该应用场景中,银行A的服务器基于银行A的训练样本和银行B的服务器基于银行B的训练样本采用横向联邦学习方法训练银行A的模型和银行B的模型,得到横向联合模型。互联网C的服务器基于互联网C的训练样本训练互联网C的模型。横向联合模型和互联网C的模型采用纵向联邦学习方法训练,得到纵向联合模型
进一步参考图7B,其示出了横向联邦学习方法的一个应用场景的示意图。具体地,银行A的服务器基于银行A的训练样本训练银行A的模型,在模型训练过程中进行参数优化、损失计算、梯度更新。银行A的服务器对银行A的模型的当前梯度值进行梯度加密,并发送至仲裁服务器。同时,银行B的服务器基于银行B的训练样本训练银行B的模型,在模型训练过程中进行参数优化、损失计算、梯度更新。银行B的服务器对银行B的模型的当前梯度值进行梯度加密,并发送至仲裁服务器。仲裁服务器进行梯度聚合,并分别发送至银行A的服务器和银行B的服务器。银行A的服务器进行梯度解密后,对银行A的模型进行参数优化,得到银行A的模型。同时,银行B的服务器进行梯度解密后,对银行B的模型进行参数优化,得到银行B的模型。
进一步参考图7C,其示出了纵向联邦学习方法的一个应用场景的示意图。具体地,银行B的服务器基于银行B的对齐训练样本训练银行B的模型,生成中间值。互联网C的服务器基于互联网C的对齐训练样本训练互联网C的模型,生成中间值。银行B的服务器和联网C的服务器进行中间值交换,并基于交换后的中间值继续进行模型训练。银行B的服务器在模型训练过程中进行参数优化、损失计算、梯度更新。银行B的服务器对银行B的模型的当前梯度值进行梯度加密,对当前损失值进行损失加密,并发送至仲裁服务器。同时,互联网C的服务器在模型训练过程中进行参数优化、损失计算、梯度更新。互联网C的服务器对互联网C的模型的当前梯度值进行梯度加密,对当前损失值进行损失加密,并发送至仲裁服务器。仲裁服务器进行梯度汇总计算和梯度解密,并分别发送至银行B的服务器和互联网C的服务器。银行B的服务器对银行B的模型进行参数优化,得到银行B的模型。同时,互联网C的服务器对互联网C的服务器的模型进行参数优化,得到互联网C的模型。
进一步参考图8,作为对上述各图所示方法的实现,本申请提供了一种用于预测信息的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图8所示,本实施例的用于预测信息的装置800可以包括:获取单元801、预测单元802和汇总单元803。其中,获取单元801,被配置成获取用户的特征;预测单元802,被配置成将用户的特征分别输入至预先训练的第一模型和第二模型,得到用户的第一预测结果和第二预测结果,其中,第一模型和第二模型分别对应不同类别的机构,且基于各自对应的训练样本采用纵向联邦学习方法训练得到;汇总单元803,被配置成汇总第一预测结果和第二预测结果,生成用户的预测结果。
在本实施例中,用于预测信息的装置800中:获取单元801、预测单元802和汇总单元803的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201、步骤202和步骤203的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,第一模型和第二模型通过如下步骤训练:获取第一模型对应的第一训练样本和第二模型对应的第二训练样本,其中,第一训练样本包括第一样本用户的第一样本特征和第一样本标签,第二训练样本包括第二样本用户的第二样本特征;基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练。
在本实施例的一些可选的实现方式中,基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练,包括:获取第一模型的当前梯度值和第二模型的当前梯度值;对第一模型的当前梯度值和第二模型的当前梯度值进行公钥加密,得到第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值;汇总第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值,得到当前公钥加密梯度值;对当前公钥加密梯度值进行私钥解密,得到当前私钥解密梯度值;基于当前私钥解密梯度值分别更新第一模型和第二模型。
在本实施例的一些可选的实现方式中,基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练,还包括:获取第一模型的当前中间值和第二模型的当前中间值;对第一模型的当前中间值和第二模型的当前中间值进行公钥加密,得到第一模型的当前公钥加密中间值和第二模型的当前公钥加密中间值;基于第二模型的当前公钥加密中间值训练第一模型,以及基于第一模型的当前公钥加密中间值训练第二模型。
在本实施例的一些可选的实现方式中,基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练,还包括:获取第一模型的当前损失值;对第一模型的当前损失值进行公钥加密,得到第一模型的当前公钥加密损失值;以及汇总第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值,得到当前公钥加密梯度值,包括:对第一模型的当前公钥加密损失值进行私钥解密,得到第一模型的当前私钥解密损失值;基于第一模型的当前私钥解密损失值汇总第一模型的当前公钥加密梯度值和第二模型的当前公钥加密梯度值,得到当前公钥加密梯度值。
在本实施例的一些可选的实现方式中,在基于当前私钥解密梯度值分别更新第一模型和第二模型之后,还包括:获取第一模型的当前损失值和第二模型的当前损失值;确定第一模型的当前损失值和第二模型的当前损失值是否收敛;若第一模型的当前损失值和第二模型的当前损失值收敛,确定第一模型和第二模型训练完成。
在本实施例的一些可选的实现方式中,在确定第一模型的当前损失值和第二模型的当前损失值是否收敛之后,还包括:若第一模型的当前损失值和第二模型的当前损失值不收敛,继续基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练。
在本实施例的一些可选的实现方式中,在基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练之前,还包括:对第一训练样本和第二训练样本进行样本对齐。
在本实施例的一些可选的实现方式中,在基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练之前,还包括:获取第三模型对应的第三训练样本,其中,第一模型和第三模型分别对应相同类别的不同机构,第三训练样本包括第三样本用户的第三样本特征和第三样本标签;基于第一训练样本和第三训练样本采用横向联邦学习方法对第一模型和第三模型进行训练。
在本实施例的一些可选的实现方式中,基于第一训练样本和第三训练样本采用横向联邦学习方法对第一模型和第三模型进行训练,包括:获取第一模型的当前梯度值和第三模型的当前梯度值;对第一模型的当前梯度值和第三模型的当前梯度值进行同态加密,得到第一模型的当前同态加密梯度值和第三模型的当前同态加密梯度值;聚合第一模型的当前同态加密梯度值和第三模型的当前同态加密梯度值,得到当前同态加密梯度值;解密当前同态加密梯度值,得到当前解密梯度值;基于当前解密梯度值分别更新第一模型和第三模型。
在本实施例的一些可选的实现方式中,在基于当前解密梯度值分别更新第一模型和第三模型之后,还包括:获取第一模型的当前损失值和第三模型的当前损失值;确定第一模型的当前损失值和第三模型的当前损失值是否收敛;若第一模型的当前损失值和第三模型的当前损失值收敛,基于第一训练样本和第二训练样本采用纵向联邦学习方法对第一模型和第二模型进行训练。
在本实施例的一些可选的实现方式中,在确定第一模型的当前损失值和第三模型的当前损失值是否收敛之后,还包括:若第一模型的当前损失值和第三模型的当前损失值不收敛,继续基于第一训练样本和第三训练样本采用横向联邦学习方法对第一模型和第三模型进行训练。
下面参考图9,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的服务器103)的计算机***900的结构示意图。图9示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图9所示,计算机***900包括中央处理单元(CPU)901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储部分908加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。在RAM 903中,还存储有***900操作所需的各种程序和数据。CPU 901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
以下部件连接至I/O接口905:包括键盘、鼠标等的输入部分906;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分907;包括硬盘等的存储部分908;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分909。通信部分909经由诸如因特网的网络执行通信处理。驱动器910也根据需要连接至I/O接口905。可拆卸介质911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器910上,以便于从其上读出的计算机程序根据需要被安装入存储部分908。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分909从网络上被下载和安装,和/或从可拆卸介质911被安装。在该计算机程序被中央处理单元(CPU)901执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向目标的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或电子设备上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、预测单元和汇总单元。其中,这些单元的名称在种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取用户的特征的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取用户的特征;将用户的特征分别输入至预先训练的第一模型和第二模型,得到用户的第一预测结果和第二预测结果,其中,第一模型和第二模型分别对应不同类别的机构,且基于各自对应的训练样本采用纵向联邦学习方法训练得到;汇总第一预测结果和第二预测结果,生成用户的预测结果。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (15)

1.一种用于预测信息的方法,包括:
获取用户的特征;
将所述用户的特征分别输入至预先训练的第一模型和第二模型,得到所述用户的第一预测结果和第二预测结果,其中,所述第一模型和所述第二模型分别对应不同类别的机构,且基于各自对应的训练样本采用纵向联邦学习方法训练得到;
汇总所述第一预测结果和所述第二预测结果,生成所述用户的预测结果。
2.根据权利要求1所述的方法,其中,所述第一模型和所述第二模型通过如下步骤训练:
获取所述第一模型对应的第一训练样本和所述第二模型对应的第二训练样本,其中,所述第一训练样本包括第一样本用户的第一样本特征和第一样本标签,所述第二训练样本包括第二样本用户的第二样本特征;
基于所述第一训练样本和所述第二训练样本采用纵向联邦学习方法对所述第一模型和所述第二模型进行训练。
3.根据权利要求2所述的方法,其中,所述基于所述第一训练样本和所述第二训练样本采用纵向联邦学习方法对所述第一模型和所述第二模型进行训练,包括:
获取所述第一模型的当前梯度值和所述第二模型的当前梯度值;
对所述第一模型的当前梯度值和所述第二模型的当前梯度值进行公钥加密,得到所述第一模型的当前公钥加密梯度值和所述第二模型的当前公钥加密梯度值;
汇总所述第一模型的当前公钥加密梯度值和所述第二模型的当前公钥加密梯度值,得到当前公钥加密梯度值;
对所述当前公钥加密梯度值进行私钥解密,得到当前私钥解密梯度值;
基于所述当前私钥解密梯度值分别更新所述第一模型和所述第二模型。
4.根据权利要求3所述的方法,其中,所述基于所述第一训练样本和所述第二训练样本采用纵向联邦学习方法对所述第一模型和所述第二模型进行训练,还包括:
获取所述第一模型的当前中间值和所述第二模型的当前中间值;
对所述第一模型的当前中间值和所述第二模型的当前中间值进行公钥加密,得到所述第一模型的当前公钥加密中间值和所述第二模型的当前公钥加密中间值;
基于所述第二模型的当前公钥加密中间值训练所述第一模型,以及基于所述第一模型的当前公钥加密中间值训练所述第二模型。
5.根据权利要求4所述的方法,其中,所述基于所述第一训练样本和所述第二训练样本采用纵向联邦学习方法对所述第一模型和所述第二模型进行训练,还包括:
获取所述第一模型的当前损失值;
对所述第一模型的当前损失值进行公钥加密,得到所述第一模型的当前公钥加密损失值;以及
所述汇总所述第一模型的当前公钥加密梯度值和所述第二模型的当前公钥加密梯度值,得到当前公钥加密梯度值,包括:
对所述第一模型的当前公钥加密损失值进行私钥解密,得到所述第一模型的当前私钥解密损失值;
基于所述第一模型的当前私钥解密损失值汇总所述第一模型的当前公钥加密梯度值和所述第二模型的当前公钥加密梯度值,得到当前公钥加密梯度值。
6.根据权利要求3所述的方法,其中,在所述基于所述当前私钥解密梯度值分别更新所述第一模型和所述第二模型之后,还包括:
获取所述第一模型的当前损失值和所述第二模型的当前损失值;
确定所述第一模型的当前损失值和所述第二模型的当前损失值是否收敛;
若所述第一模型的当前损失值和所述第二模型的当前损失值收敛,确定所述第一模型和所述第二模型训练完成。
7.根据权利要求6所述的方法,其中,在所述确定所述第一模型的当前损失值和所述第二模型的当前损失值是否收敛之后,还包括:
若所述第一模型的当前损失值和所述第二模型的当前损失值不收敛,继续基于所述第一训练样本和所述第二训练样本采用纵向联邦学习方法对所述第一模型和所述第二模型进行训练。
8.根据权利要求2-6之一所述的方法,其中,在所述基于所述第一训练样本和所述第二训练样本采用纵向联邦学习方法对所述第一模型和所述第二模型进行训练之前,还包括:
对所述第一训练样本和所述第二训练样本进行样本对齐。
9.根据权利要求2所述的方法,其中,在所述基于所述第一训练样本和所述第二训练样本采用纵向联邦学习方法对所述第一模型和所述第二模型进行训练之前,还包括:
获取第三模型对应的第三训练样本,其中,所述第一模型和第三模型分别对应相同类别的不同机构,所述第三训练样本包括第三样本用户的第三样本特征和第三样本标签;
基于所述第一训练样本和所述第三训练样本采用横向联邦学习方法对所述第一模型和所述第三模型进行训练。
10.根据权利要求9所述的方法,其中,所述基于所述第一训练样本和所述第三训练样本采用横向联邦学习方法对所述第一模型和所述第三模型进行训练,包括:
获取所述第一模型的当前梯度值和所述第三模型的当前梯度值;
对所述第一模型的当前梯度值和所述第三模型的当前梯度值进行同态加密,得到所述第一模型的当前同态加密梯度值和所述第三模型的当前同态加密梯度值;
聚合所述第一模型的当前同态加密梯度值和所述第三模型的当前同态加密梯度值,得到当前同态加密梯度值;
解密所述当前同态加密梯度值,得到当前解密梯度值;
基于所述当前解密梯度值分别更新所述第一模型和所述第三模型。
11.根据权利要求10所述的方法,其中,在所述基于所述当前解密梯度值分别更新所述第一模型和所述第三模型之后,还包括:
获取所述第一模型的当前损失值和所述第三模型的当前损失值;
确定所述第一模型的当前损失值和所述第三模型的当前损失值是否收敛;
若所述第一模型的当前损失值和所述第三模型的当前损失值收敛,基于所述第一训练样本和所述第二训练样本采用纵向联邦学习方法对所述第一模型和所述第二模型进行训练。
12.根据权利要求11所述的方法,其中,在所述确定所述第一模型的当前损失值和所述第三模型的当前损失值是否收敛之后,还包括:
若所述第一模型的当前损失值和所述第三模型的当前损失值不收敛,继续基于所述第一训练样本和所述第三训练样本采用横向联邦学习方法对所述第一模型和所述第三模型进行训练。
13.一种用于预测信息的装置,包括:
获取单元,被配置成获取用户的特征;
预测单元,被配置成将所述用户的特征分别输入至预先训练的第一模型和第二模型,得到所述用户的第一预测结果和第二预测结果,其中,所述第一模型和所述第二模型分别对应不同类别的机构,且基于各自对应的训练样本采用纵向联邦学习方法训练得到;
汇总单元,被配置成汇总所述第一预测结果和所述第二预测结果,生成所述用户的预测结果。
14.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-12中任一所述的方法。
15.一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1-12中任一所述的方法。
CN201910533286.2A 2019-06-19 2019-06-19 用于预测信息的方法和装置 Active CN110245510B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910533286.2A CN110245510B (zh) 2019-06-19 2019-06-19 用于预测信息的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910533286.2A CN110245510B (zh) 2019-06-19 2019-06-19 用于预测信息的方法和装置

Publications (2)

Publication Number Publication Date
CN110245510A true CN110245510A (zh) 2019-09-17
CN110245510B CN110245510B (zh) 2021-12-07

Family

ID=67888271

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910533286.2A Active CN110245510B (zh) 2019-06-19 2019-06-19 用于预测信息的方法和装置

Country Status (1)

Country Link
CN (1) CN110245510B (zh)

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110633806A (zh) * 2019-10-21 2019-12-31 深圳前海微众银行股份有限公司 纵向联邦学习***优化方法、装置、设备及可读存储介质
CN110782042A (zh) * 2019-10-29 2020-02-11 深圳前海微众银行股份有限公司 横向联邦和纵向联邦联合方法、装置、设备及介质
CN110797124A (zh) * 2019-10-30 2020-02-14 腾讯科技(深圳)有限公司 一种模型多端协同训练方法、医疗风险预测方法和装置
CN110827147A (zh) * 2019-10-31 2020-02-21 山东浪潮人工智能研究院有限公司 一种基于联盟链的联邦学习激励方法及***
CN110995737A (zh) * 2019-12-13 2020-04-10 支付宝(杭州)信息技术有限公司 联邦学习的梯度融合方法及装置和电子设备
CN111046425A (zh) * 2019-12-12 2020-04-21 支付宝(杭州)信息技术有限公司 多方联合进行风险识别的方法和装置
CN111081337A (zh) * 2020-03-23 2020-04-28 腾讯科技(深圳)有限公司 一种协同任务预测方法及计算机可读存储介质
CN111178538A (zh) * 2019-12-17 2020-05-19 杭州睿信数据科技有限公司 垂直数据的联邦学习方法及装置
CN111291801A (zh) * 2020-01-21 2020-06-16 深圳前海微众银行股份有限公司 一种数据处理方法及装置
CN111310204A (zh) * 2020-02-10 2020-06-19 北京百度网讯科技有限公司 数据处理的方法及装置
CN111325352A (zh) * 2020-02-20 2020-06-23 深圳前海微众银行股份有限公司 基于纵向联邦学习的模型更新方法、装置、设备及介质
CN111369260A (zh) * 2020-03-10 2020-07-03 支付宝(杭州)信息技术有限公司 保护隐私的风险预测方法及装置
CN111428885A (zh) * 2020-03-31 2020-07-17 深圳前海微众银行股份有限公司 一种联邦学习中用户的索引方法及联邦学习装置
CN111553443A (zh) * 2020-05-14 2020-08-18 北京华宇元典信息服务有限公司 裁判文书处理模型的训练方法、训练装置和电子设备
CN111861099A (zh) * 2020-06-02 2020-10-30 光之树(北京)科技有限公司 联邦学习模型的模型评估方法及装置
CN111882054A (zh) * 2020-05-27 2020-11-03 杭州中奥科技有限公司 对双方加密关系网络数据交叉训练的方法及相关设备
CN111935156A (zh) * 2020-08-12 2020-11-13 科技谷(厦门)信息技术有限公司 一种联邦学习的数据隐私保护方法
CN112016932A (zh) * 2020-09-04 2020-12-01 ***股份有限公司 测试方法、装置、服务器及介质
CN112182399A (zh) * 2020-10-16 2021-01-05 ***股份有限公司 一种联邦学习的多方安全计算方法及装置
CN112199709A (zh) * 2020-10-28 2021-01-08 支付宝(杭州)信息技术有限公司 基于多方的隐私数据联合训练模型的方法和装置
WO2021004551A1 (zh) * 2019-09-26 2021-01-14 深圳前海微众银行股份有限公司 纵向联邦学习***优化方法、装置、设备及可读存储介质
CN112330048A (zh) * 2020-11-18 2021-02-05 中国光大银行股份有限公司 评分卡模型训练方法、装置、存储介质及电子装置
CN112396189A (zh) * 2020-11-27 2021-02-23 ***股份有限公司 一种多方构建联邦学习模型的方法及装置
CN112749812A (zh) * 2019-10-29 2021-05-04 华为技术有限公司 一种联合学习***、训练结果聚合的方法及设备
CN112801731A (zh) * 2021-01-06 2021-05-14 广东工业大学 一种接单辅助决策的联邦强化学习方法
WO2021103909A1 (zh) * 2019-11-27 2021-06-03 支付宝(杭州)信息技术有限公司 风险预测和风险预测模型的训练方法、装置及电子设备
WO2021114822A1 (zh) * 2019-12-12 2021-06-17 支付宝(杭州)信息技术有限公司 基于私有数据保护的风险决策方法、装置、***及设备
CN112990612A (zh) * 2021-05-17 2021-06-18 湖南三湘银行股份有限公司 一种基于联邦学习的预测***及方法
WO2021120855A1 (zh) * 2019-12-20 2021-06-24 支付宝(杭州)信息技术有限公司 一种基于隐私数据进行模型训练的方法及***
WO2021159798A1 (zh) * 2020-02-12 2021-08-19 深圳前海微众银行股份有限公司 纵向联邦学习***优化方法、设备及可读存储介质
WO2021169477A1 (zh) * 2020-02-28 2021-09-02 深圳前海微众银行股份有限公司 基于交叉特征的建模、预测方法、装置、设备及存储介质
CN113537633A (zh) * 2021-08-09 2021-10-22 中国电信股份有限公司 基于纵向联邦学习的预测方法、装置、设备、介质和***
CN113554476A (zh) * 2020-04-23 2021-10-26 京东数字科技控股有限公司 信用度预测模型的训练方法、***、电子设备及存储介质
CN113688855A (zh) * 2020-05-19 2021-11-23 华为技术有限公司 数据处理方法、联邦学习的训练方法及相关装置、设备
CN113704779A (zh) * 2021-07-16 2021-11-26 杭州医康慧联科技股份有限公司 加密的分布式机器学习训练方法
CN113723688A (zh) * 2021-09-01 2021-11-30 网银在线(北京)科技有限公司 预测方法、装置、计算机设备及存储介质
CN114219369A (zh) * 2022-01-17 2022-03-22 北京达佳互联信息技术有限公司 预测模型训练方法及装置、用户类别预测方法及装置
CN116383865A (zh) * 2022-12-30 2023-07-04 上海零数众合信息科技有限公司 联邦学习预测阶段隐私保护方法及***
CN116701972A (zh) * 2023-08-09 2023-09-05 腾讯科技(深圳)有限公司 业务数据处理方法、装置、设备以及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165515A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于联邦学习的模型参数获取方法、***及可读存储介质
CN109189825A (zh) * 2018-08-10 2019-01-11 深圳前海微众银行股份有限公司 横向数据切分联邦学习建模方法、服务器及介质
US20190138934A1 (en) * 2018-09-07 2019-05-09 Saurav Prakash Technologies for distributing gradient descent computation in a heterogeneous multi-access edge computing (mec) networks

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165515A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于联邦学习的模型参数获取方法、***及可读存储介质
CN109189825A (zh) * 2018-08-10 2019-01-11 深圳前海微众银行股份有限公司 横向数据切分联邦学习建模方法、服务器及介质
US20190138934A1 (en) * 2018-09-07 2019-05-09 Saurav Prakash Technologies for distributing gradient descent computation in a heterogeneous multi-access edge computing (mec) networks

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YANG QIANG: "Federated Machine Learning: Concept and Applications", 《ACM TRANSACTIONS ON INTELLIGENT SYSTEMS AND TECHNOLOGY (TIST)》 *
黄冬梅 等: "《案例驱动的大数据原理技术及应用》", 30 November 2018, 上海交通大学出版社 *

Cited By (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021004551A1 (zh) * 2019-09-26 2021-01-14 深圳前海微众银行股份有限公司 纵向联邦学习***优化方法、装置、设备及可读存储介质
CN110633806B (zh) * 2019-10-21 2024-04-26 深圳前海微众银行股份有限公司 纵向联邦学习***优化方法、装置、设备及可读存储介质
CN110633806A (zh) * 2019-10-21 2019-12-31 深圳前海微众银行股份有限公司 纵向联邦学习***优化方法、装置、设备及可读存储介质
CN110782042A (zh) * 2019-10-29 2020-02-11 深圳前海微众银行股份有限公司 横向联邦和纵向联邦联合方法、装置、设备及介质
WO2021082647A1 (zh) * 2019-10-29 2021-05-06 华为技术有限公司 一种联合学习***、训练结果聚合的方法及设备
WO2021083276A1 (zh) * 2019-10-29 2021-05-06 深圳前海微众银行股份有限公司 横向联邦和纵向联邦联合方法、装置、设备及介质
CN112749812A (zh) * 2019-10-29 2021-05-04 华为技术有限公司 一种联合学习***、训练结果聚合的方法及设备
CN110797124B (zh) * 2019-10-30 2024-04-12 腾讯科技(深圳)有限公司 一种模型多端协同训练方法、医疗风险预测方法和装置
CN110797124A (zh) * 2019-10-30 2020-02-14 腾讯科技(深圳)有限公司 一种模型多端协同训练方法、医疗风险预测方法和装置
CN110827147A (zh) * 2019-10-31 2020-02-21 山东浪潮人工智能研究院有限公司 一种基于联盟链的联邦学习激励方法及***
WO2021103909A1 (zh) * 2019-11-27 2021-06-03 支付宝(杭州)信息技术有限公司 风险预测和风险预测模型的训练方法、装置及电子设备
CN111046425A (zh) * 2019-12-12 2020-04-21 支付宝(杭州)信息技术有限公司 多方联合进行风险识别的方法和装置
CN111046425B (zh) * 2019-12-12 2021-07-13 支付宝(杭州)信息技术有限公司 多方联合进行风险识别的方法和装置
WO2021114822A1 (zh) * 2019-12-12 2021-06-17 支付宝(杭州)信息技术有限公司 基于私有数据保护的风险决策方法、装置、***及设备
CN110995737A (zh) * 2019-12-13 2020-04-10 支付宝(杭州)信息技术有限公司 联邦学习的梯度融合方法及装置和电子设备
CN111178538A (zh) * 2019-12-17 2020-05-19 杭州睿信数据科技有限公司 垂直数据的联邦学习方法及装置
CN111178538B (zh) * 2019-12-17 2023-08-15 杭州睿信数据科技有限公司 垂直数据的联邦学习方法及装置
WO2021120855A1 (zh) * 2019-12-20 2021-06-24 支付宝(杭州)信息技术有限公司 一种基于隐私数据进行模型训练的方法及***
CN111291801B (zh) * 2020-01-21 2021-08-27 深圳前海微众银行股份有限公司 一种数据处理方法及装置
CN111291801A (zh) * 2020-01-21 2020-06-16 深圳前海微众银行股份有限公司 一种数据处理方法及装置
CN111310204A (zh) * 2020-02-10 2020-06-19 北京百度网讯科技有限公司 数据处理的方法及装置
CN111310204B (zh) * 2020-02-10 2022-06-14 北京百度网讯科技有限公司 数据处理的方法及装置
WO2021159798A1 (zh) * 2020-02-12 2021-08-19 深圳前海微众银行股份有限公司 纵向联邦学习***优化方法、设备及可读存储介质
CN111325352A (zh) * 2020-02-20 2020-06-23 深圳前海微众银行股份有限公司 基于纵向联邦学习的模型更新方法、装置、设备及介质
CN111325352B (zh) * 2020-02-20 2021-02-19 深圳前海微众银行股份有限公司 基于纵向联邦学习的模型更新方法、装置、设备及介质
WO2021169477A1 (zh) * 2020-02-28 2021-09-02 深圳前海微众银行股份有限公司 基于交叉特征的建模、预测方法、装置、设备及存储介质
CN111369260A (zh) * 2020-03-10 2020-07-03 支付宝(杭州)信息技术有限公司 保护隐私的风险预测方法及装置
CN111081337B (zh) * 2020-03-23 2020-06-26 腾讯科技(深圳)有限公司 一种协同任务预测方法及计算机可读存储介质
CN111081337A (zh) * 2020-03-23 2020-04-28 腾讯科技(深圳)有限公司 一种协同任务预测方法及计算机可读存储介质
CN111428885B (zh) * 2020-03-31 2021-06-04 深圳前海微众银行股份有限公司 一种联邦学习中用户的索引方法及联邦学习装置
CN111428885A (zh) * 2020-03-31 2020-07-17 深圳前海微众银行股份有限公司 一种联邦学习中用户的索引方法及联邦学习装置
CN113554476A (zh) * 2020-04-23 2021-10-26 京东数字科技控股有限公司 信用度预测模型的训练方法、***、电子设备及存储介质
CN113554476B (zh) * 2020-04-23 2024-04-19 京东科技控股股份有限公司 信用度预测模型的训练方法、***、电子设备及存储介质
CN111553443A (zh) * 2020-05-14 2020-08-18 北京华宇元典信息服务有限公司 裁判文书处理模型的训练方法、训练装置和电子设备
WO2021232832A1 (zh) * 2020-05-19 2021-11-25 华为技术有限公司 数据处理方法、联邦学习的训练方法及相关装置、设备
CN113688855A (zh) * 2020-05-19 2021-11-23 华为技术有限公司 数据处理方法、联邦学习的训练方法及相关装置、设备
CN113688855B (zh) * 2020-05-19 2023-07-28 华为技术有限公司 数据处理方法、联邦学习的训练方法及相关装置、设备
CN111882054A (zh) * 2020-05-27 2020-11-03 杭州中奥科技有限公司 对双方加密关系网络数据交叉训练的方法及相关设备
CN111882054B (zh) * 2020-05-27 2024-04-12 杭州中奥科技有限公司 对双方加密关系网络数据交叉训练的方法及相关设备
CN111861099A (zh) * 2020-06-02 2020-10-30 光之树(北京)科技有限公司 联邦学习模型的模型评估方法及装置
CN111935156A (zh) * 2020-08-12 2020-11-13 科技谷(厦门)信息技术有限公司 一种联邦学习的数据隐私保护方法
CN111935156B (zh) * 2020-08-12 2022-06-14 科技谷(厦门)信息技术有限公司 一种联邦学习的数据隐私保护方法
CN112016932B (zh) * 2020-09-04 2024-05-17 ***股份有限公司 测试方法、装置、服务器及介质
CN112016932A (zh) * 2020-09-04 2020-12-01 ***股份有限公司 测试方法、装置、服务器及介质
CN112182399A (zh) * 2020-10-16 2021-01-05 ***股份有限公司 一种联邦学习的多方安全计算方法及装置
CN112199709A (zh) * 2020-10-28 2021-01-08 支付宝(杭州)信息技术有限公司 基于多方的隐私数据联合训练模型的方法和装置
CN112330048A (zh) * 2020-11-18 2021-02-05 中国光大银行股份有限公司 评分卡模型训练方法、装置、存储介质及电子装置
CN112396189A (zh) * 2020-11-27 2021-02-23 ***股份有限公司 一种多方构建联邦学习模型的方法及装置
CN112396189B (zh) * 2020-11-27 2023-09-01 ***股份有限公司 一种多方构建联邦学习模型的方法及装置
CN112801731A (zh) * 2021-01-06 2021-05-14 广东工业大学 一种接单辅助决策的联邦强化学习方法
CN112990612A (zh) * 2021-05-17 2021-06-18 湖南三湘银行股份有限公司 一种基于联邦学习的预测***及方法
CN113704779A (zh) * 2021-07-16 2021-11-26 杭州医康慧联科技股份有限公司 加密的分布式机器学习训练方法
CN113537633A (zh) * 2021-08-09 2021-10-22 中国电信股份有限公司 基于纵向联邦学习的预测方法、装置、设备、介质和***
CN113723688A (zh) * 2021-09-01 2021-11-30 网银在线(北京)科技有限公司 预测方法、装置、计算机设备及存储介质
CN113723688B (zh) * 2021-09-01 2024-04-19 网银在线(北京)科技有限公司 预测方法、装置、计算机设备及存储介质
CN114219369B (zh) * 2022-01-17 2023-08-11 北京达佳互联信息技术有限公司 预测模型训练方法及装置、用户类别预测方法及装置
CN114219369A (zh) * 2022-01-17 2022-03-22 北京达佳互联信息技术有限公司 预测模型训练方法及装置、用户类别预测方法及装置
CN116383865B (zh) * 2022-12-30 2023-10-10 上海零数众合信息科技有限公司 联邦学习预测阶段隐私保护方法及***
CN116383865A (zh) * 2022-12-30 2023-07-04 上海零数众合信息科技有限公司 联邦学习预测阶段隐私保护方法及***
CN116701972B (zh) * 2023-08-09 2023-11-24 腾讯科技(深圳)有限公司 业务数据处理方法、装置、设备以及介质
CN116701972A (zh) * 2023-08-09 2023-09-05 腾讯科技(深圳)有限公司 业务数据处理方法、装置、设备以及介质

Also Published As

Publication number Publication date
CN110245510B (zh) 2021-12-07

Similar Documents

Publication Publication Date Title
CN110245510A (zh) 用于预测信息的方法和装置
CN110189192B (zh) 一种信息推荐模型的生成方法及装置
WO2021179720A1 (zh) 基于联邦学习的用户数据分类方法、装置、设备及介质
US20230023520A1 (en) Training Method, Apparatus, and Device for Federated Neural Network Model, Computer Program Product, and Computer-Readable Storage Medium
CN110399742B (zh) 一种联邦迁移学习模型的训练、预测方法及装置
EP3876125A1 (en) Model parameter training method based on federated learning, terminal, system and medium
US20220230071A1 (en) Method and device for constructing decision tree
CN105900396B (zh) 移动云服务体系架构
CN110493007A (zh) 一种基于区块链的信息验证方法、装置、设备及存储介质
CN111081337B (zh) 一种协同任务预测方法及计算机可读存储介质
CN110110811A (zh) 用于训练模型的方法和装置、用于预测信息的方法和装置
CN110378474A (zh) 对抗样本生成方法、装置、电子设备和计算机可读介质
CN109255210A (zh) 在区块链网络中提供智能合约的方法、装置及存储介质
CN111563267A (zh) 用于联邦特征工程数据处理的方法和装置
CN114186263B (zh) 一种基于纵向联邦学习的数据回归方法及电子装置
CN111709051A (zh) 数据处理方法、装置、***、计算机存储介质及电子设备
CN113609781A (zh) 基于联邦学习的汽车生产模具优化方法、***、设备及介质
CN110535659A (zh) 用于处理数据请求的方法和装置
CN108182472A (zh) 用于生成信息的方法和装置
CN110197707A (zh) 基于区块链的病历信息处理方法、装置、介质及电子设备
CN109358859A (zh) 在区块链网络中安装智能合约的方法、装置及存储介质
CN113051239A (zh) 数据共享方法、应用其的模型的使用方法及相关设备
CN109146482A (zh) 基于区块链的用户权益提供方法和装置
CN108959642A (zh) 用于写入信息的方法和装置
CN110363025A (zh) 一种用户数据隐私管理方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant