CN112241549A - 安全的隐私计算方法、服务器、***以及存储介质 - Google Patents
安全的隐私计算方法、服务器、***以及存储介质 Download PDFInfo
- Publication number
- CN112241549A CN112241549A CN202010453754.8A CN202010453754A CN112241549A CN 112241549 A CN112241549 A CN 112241549A CN 202010453754 A CN202010453754 A CN 202010453754A CN 112241549 A CN112241549 A CN 112241549A
- Authority
- CN
- China
- Prior art keywords
- data
- migration
- model
- mapping function
- source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 30
- 238000013508 migration Methods 0.000 claims description 127
- 230000005012 migration Effects 0.000 claims description 127
- 238000013507 mapping Methods 0.000 claims description 115
- 230000006870 function Effects 0.000 claims description 107
- 238000000034 method Methods 0.000 claims description 41
- 238000013526 transfer learning Methods 0.000 claims description 29
- 238000010801 machine learning Methods 0.000 claims description 27
- 230000000694 effects Effects 0.000 claims description 24
- 238000012549 training Methods 0.000 claims description 24
- 238000012795 verification Methods 0.000 claims description 17
- 238000001556 precipitation Methods 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 8
- 238000012546 transfer Methods 0.000 claims description 8
- 230000001376 precipitating effect Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 14
- 238000007711 solidification Methods 0.000 description 8
- 230000008023 solidification Effects 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 239000002244 precipitate Substances 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000013145 classification model Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 230000008520 organization Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000013049 sediment Substances 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000013475 authorization Methods 0.000 description 2
- 238000013499 data model Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007596 consolidation process Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Storage Device Security (AREA)
Abstract
本发明涉及一种安全的隐私计算方法,包括:在可信计算环境下接收来自多个来源的第一多个数据;在所述可信计算环境下,对所述第一多个数据集中计算,以构建反欺诈模型;基于所述反欺诈模型对所述多个来源的第二多个数据进行标签预测;至少基于所述标签预测以及所述多个来源的性质生成反馈数据;以及根据所述反馈数据对所述反欺诈模型进行更新。
Description
技术领域
本发明涉及一种风险数据处理领域,具体而言,涉及一种安全的隐私计算方法、服务器、***以及存储介质。此外,除了反欺诈之外,本发明的基本原理还可以适用于包括电商商品个性化推荐、视频网站内容推送等场景。
背景技术
当前诸如在商户风控等数据挖掘场景中需要对各行业商户进行归集计算。然而,对于商户的行业并没有细分分析(没有区分数据的不同来源),相关隐私安全计算方法未覆盖行业研究场景,部分行业数据样本比较匮乏,因而难以形成模型规则分析。此外,商户数据会实时更新,但是相关模型的更新迭代效率较低。而仅仅基于深度网络的联邦学习隐私计算方法计算时间耗时长,对于实时模型更新不利。其次,不同来源的数据(例如不同行业商户信息)可能包含大量用户隐私数据,如注册商户法人、地址等,在数据隐私保护逐渐被重视的大背景下,更需要建立考虑数据隐私保护、安全合规的隐私数据计算方法(挖掘方法)。然而,现有技术中很多时候对隐私数据的处理并未提供一个安全的架构,这可能导致隐私数据外泄。
发明内容
基于上述场景对数据隐私和实时更新等至少一个方面的考虑,本申请提出了一种基于迁移学习的隐私计算框架,具体而言:
根据本发明的一方面,提供一种安全的隐私计算方法,包括:在可信计算环境下接收来自多个来源的第一多个数据;在所述可信计算环境下,对所述第一多个数据集中计算,以构建反欺诈模型;基于所述反欺诈模型对所述多个来源的第二多个数据进行标签预测;至少基于所述标签预测以及所述多个来源的性质生成反馈数据;以及根据所述反馈数据对所述反欺诈模型进行更新。
在本发明的一些实施例中,可选地,在所述可信计算环境下,对所述第一多个数据集中计算,以构建反欺诈模型的步骤包括:利用所述第一多个数据训练迁移学习模型,以确定每个来源的迁移特征映射函数以及所述迁移学习模型的参数;以及在所述可信计算环境下保存所述迁移特征映射函数以及所述参数以构建所述反欺诈模型。
在本发明的一些实施例中,可选地,确定所述迁移特征映射函数以及所述参数的步骤包括:采用所述迁移学习模型确定每个来源的迁移特征映射函数;将每个来源的数据的原始特征域通过所述迁移特征映射函数映射至新特征域;以每个来源的数据的原始特征域及其目标标签、每个来源的新特征域及其目标标签训练所述迁移学习模型进行并比较分类效果;以及根据比较结果确定保存每个来源的迁移特征映射函数以及所述迁移学习模型的参数。
在本发明的一些实施例中,可选地,基于所述反欺诈模型对所述多个来源的第二多个数据进行标签预测的步骤包括:根据所述来源选取所述反欺诈模型中的迁移特征映射函数以及所述迁移学习模型的参数进行所述标签预测。
在本发明的一些实施例中,可选地,所述方法还包括:对预测的标签进行核验。
在本发明的一些实施例中,可选地,对所述反欺诈模型进行更新的步骤包括:将所述多个来源的第二多个数据沉淀以形成第三多个数据;以及基于所述第三多个数据及其核验后的标签对所述反欺诈模型进行更新。
在本发明的一些实施例中,可选地,若所述多个来源的性质为可以外传本地隐私数据,则对所述反欺诈模型进行更新的步骤包括:在可信计算环境下利用所述第三多个数据及其核验后的标签训练所述迁移学习模型,以更新每个来源的迁移特征映射函数以及所述迁移学习模型的参数。
在本发明的一些实施例中,可选地,若所述多个来源的性质为不可外传本地隐私数据,则对所述反欺诈模型进行更新的步骤包括:基于梯度增量优化方法生成的反馈数据对所述反欺诈模型进行更新。
在本发明的一些实施例中,可选地,生成反馈数据的步骤包括:根据所述迁移特征映射函数按照梯度增量形成梯度迁移特征映射函数;将所述第一多个数据和所述第三多个数据的原始特征域通过所述梯度迁移特征映射函数映射至新特征域;以所述第一多个数据的原始特征域及其目标标签和所述第三多个数据的原始特征域及其核验后的标签、每个来源的新特征域及其目标标签或核验后的标签训练所述迁移学习模型进行并比较分类效果;以及根据比较结果确定保存经优化的迁移特征映射函数以及所述迁移学习模型的参数以作为所述反馈数据。
根据本发明的另一方面,提供一种安全的隐私计算服务器,包括:可信计算环境,其配置成接收来自多个来源的第一多个数据以及保存反欺诈模型;机器学习模块,其配置成对所述第一多个数据集中计算,以构建反欺诈模型;以及更新模块,其配置成根据反馈数据对所述反欺诈模型进行更新,其中,基于所述反欺诈模型对所述多个来源的第二多个数据进行标签预测,并且所述反馈数据是至少基于所述标签预测以及所述多个来源的性质生成的。
在本发明的一些实施例中,可选地,所述机器学习模块利用所述第一多个数据来训练迁移学习模型,以确定每个来源的迁移特征映射函数以及所述迁移学习模型的参数,其中,根据所述迁移特征映射函数以及所述参数以构建所述反欺诈模型。
在本发明的一些实施例中,可选地,所述机器学习模块包括:映射单元,其配置成采用所述迁移学习模型确定每个来源的迁移特征映射函数,并且将每个来源的数据的原始特征域通过所述迁移特征映射函数映射至新特征域;学习单元,其配置成以每个来源的数据的原始特征域及其目标标签、每个来源的新特征域及其目标标签训练所述迁移学习模型进行并比较分类效果;以及确定单元,其配置成根据比较结果确定保存每个来源的迁移特征映射函数以及所述迁移学习模型的参数。
根据本发明的另一方面,提供一种安全的隐私计算***,其包括如上文所述的任意一种服务器,并且所述***还包括本地预测模块,其配置成基于所述反欺诈模型对所述多个来源的第二多个数据进行标签预测,并且所述标签预测是根据所述来源选取所述反欺诈模型中的迁移特征映射函数以及所述迁移学习模型的参数进行的。
在本发明的一些实施例中,可选地,所述***还包括本地核验模块,其配置成对预测的标签进行核验。
在本发明的一些实施例中,可选地,所述***还包括沉淀模块,其配置成将所述多个来源的第二多个数据沉淀以形成第三多个数据;并且所述更新模块被配置成基于所述第三多个数据及其核验后的标签对所述反欺诈模型进行更新。
在本发明的一些实施例中,可选地,若所述多个来源的性质为可以外传本地隐私数据,则所述更新模块被配置成在可信计算环境下利用所述第三多个数据及其核验后的标签训练所述迁移学习模型,以更新每个来源的迁移特征映射函数以及所述迁移学习模型的参数。
在本发明的一些实施例中,可选地,若所述多个来源的性质为不可外传本地隐私数据,则所述更新模块被配置成基于梯度增量优化方法生成的反馈数据对所述反欺诈模型进行更新。
在本发明的一些实施例中,可选地,所述***还包括本地更新模块,其包括:第二映射单元,其配置成根据所述迁移特征映射函数按照梯度增量形成梯度迁移特征映射函数,并且将所述第一多个数据和所述第三多个数据的原始特征域通过所述梯度迁移特征映射函数映射至新特征域;第二学习单元,其配置成以所述第一多个数据的原始特征域及其目标标签和所述第三多个数据的原始特征域及其核验后的标签、每个来源的新特征域及其目标标签或核验后的标签训练所述迁移学习模型进行并比较分类效果;以及第二确定单元,其配置成根据比较结果确定保存经优化的迁移特征映射函数以及所述迁移学习模型的参数以作为所述反馈数据。
根据本发明的另一方面,提供一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,其特征在于,当所述指令由处理器执行时,使得所述处理器执行如上文所述的任意一种方法。
附图说明
从结合附图的以下详细说明中,将会使本发明的上述和其他目的及优点更加完整清楚,其中,相同或相似的要素采用相同的标号表示。
图1示出了根据本发明的一个实施例的安全的隐私计算的原理示意图。
图2示出了根据本发明的一个实施例的安全的隐私计算的原理示意图。
图3示出了根据本发明的一个实施例的安全的隐私计算方法。
图4示出了根据本发明的一个实施例的安全的隐私计算方法。
图5示出了根据本发明的一个实施例的安全的隐私计算服务器。
图6示出了根据本发明的一个实施例的安全的隐私计算服务器。
图7示出了根据本发明的一个实施例的安全的隐私计算***。
具体实施方式
出于简洁和说明性目的,本文主要参考其示范实施例来描述本发明的原理。但是,本领域技术人员将容易地认识到相同的原理可等效地应用于所有类型的安全的隐私计算方法、服务器、***以及存储介质,并且可以在其中实施这些相同或相似的原理,任何此类变化不背离本申请的真实精神和范围。
在本发明的上下文中,可信计算/可信用计算(Trusted Computing,TC)是在计算和通信***中广泛使用基于硬件安全模块支持下的一种计算平台技术,该技术可以提高***整体的安全性。可信计算环境是承载可信计算的软硬件环境。一些领域中已经使用该技术实现上文描述的目的,该技术的一些基本原理也为本领域技术人员所知,但本领域技术人员在阅读本申请后将知晓如何在本申请的情景中运用该技术,并且将清楚地知晓该技术与具体情景中的其他特征结合而具有新颖性。
在本发明的上下文中,迁移学习是一种机器学习方法,该方法从相关领域(相关任务)中迁移标注数据或者知识结构,从而完成或改进目标领域(目标任务)的学习效果。一些领域中已经使用该技术实现上文描述的目的,该技术的一些基本原理也为本领域技术人员所知,但本领域技术人员在阅读本申请后将知晓如何在本申请的情景中运用该技术,并且将清楚地知晓该技术与具体情景中的其他特征结合而具有新颖性。
在本发明的上下文中,联邦学习是一种新兴的人工智能基础技术,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。一些领域中已经使用该技术实现上文描述的目的,该技术的一些基本原理也为本领域技术人员所知,但是单纯基于深度网络的联邦学习隐私计算方法计算时间耗时长,这对于实时进行模型更新是不利的。另外,本领域技术人员在阅读本申请后将知晓如何在本申请的情景中运用该技术,并且将清楚地知晓该技术与具体情景中的其他特征结合而具有新颖性。
在本发明的上下文中,第一多个、第二多个等用于区分其后连接的项目,第一多个、第二多个等在数目上有时可以是相等的。
根据本发明的一方面,提供一种安全的隐私计算方法。如图3所示,安全的隐私计算方法包括如下步骤。在步骤S301中在可信计算环境下接收来自多个来源的第一多个数据;在步骤S302中利用第一多个数据训练迁移学习模型,以确定每个来源的迁移特征映射函数以及迁移学习模型的参数;在步骤S303中在可信计算环境下保存迁移特征映射函数以及参数以构建反欺诈模型;在步骤S304中基于反欺诈模型对多个来源的第二多个数据进行标签预测;在步骤S305中至少基于所述标签预测以及多个来源的性质生成反馈数据;在步骤S306中根据反馈数据对反欺诈模型进行更新。
本发明的安全的隐私计算方法在步骤S301中在可信计算环境下接收来自多个来源的第一多个数据。上文已经记载了可信计算环境的概念及其在一些领域的应用情况,在本发明的一些示例中,可信计算环境可能由服务端的软硬件环境构成。具体而言,可信计算环境可以由收集多个来源数据的服务器的软硬件环境构成,服务器可以驻守于例如卡组织、金融交易机构的营业场所;此外,服务器也可以是电信服务商提供的计算资源。在本发明的一些示例中,多个来源具体可以为多个行业,例如,可以为餐饮业、交通行业、服装业等等。在可信计算环境接收来自多个来源的数据可以保证数据安全,这在可信计算环境与数据来源不在相同地理位置的情况下是尤为重要的。如图1所示,可信计算环境接收来自多个来源的数据A、B、……、N(统称为第一多个数据),这些数据可以输入可信计算环境作进一步处理。
本发明的安全的隐私计算方法在可信计算环境下对第一多个数据训练集中计算以构建反欺诈模型。以此方式,本发明的安全的隐私计算方法可以在可信计算环境下对诸如各个行业的数据进行集中计算,从而保证了诸如隐私数据等数据的安全性。具体而言,该步骤可以以下面将详细描述的步骤S302和S303来实现。
本发明的安全的隐私计算方法在步骤S302中利用第一多个数据训练迁移学习模型,以确定每个来源的迁移特征映射函数以及迁移学习模型的参数。本发明的一些示例中通过可信计算技术可以融合诸如各行业机构的离线库中已有的数据(区别于即时生成的),建立基础的数据联合使用模型,并根据融合数据进行模型训练和调参,从而可以实现模型的初步固化。模型输出可以包括针对不同行业类的迁移特征映射函数及模型使用参数等。
本发明的安全的隐私计算方法在步骤S303中可以将如上产生的相关输出数据保存于可信计算硬件环境中。具体而言,可以保存在可信计算硬件环境的可信存储环境中。在其他示例中,可信存储环境可能不属于可信计算硬件环境,而是在物理上独立的可信环境。
本发明的安全的隐私计算方法在步骤S304中基于反欺诈模型对多个来源的第二多个数据进行标签预测。上文已经根据历史上的第一多个数据构建了反欺诈模型,但此时的反欺诈模型是根据历史数据构建的,因而某种程度上来说可能并不一定适应当前数据来源。为了使得反欺诈模型更具时效性,可以先利用反欺诈模型对多个来源的第二多个数据进行标签预测,进而可以评估预测的准确程度并进一步用作对模型的更新。
本发明的安全的隐私计算方法在步骤S305中至少基于所述标签预测以及多个来源的性质生成反馈数据。标签预测反映了模型对新产生的数据(诸如实时数据或者据其积累而成的数据)的适应情况,标签预测的情况可以进一步用于实现对模型的更新。反馈的数据将返回至上文描述的可信计算环境,以供用于执行下面的更新操作。本发明的上下文中描述的“来源的性质”是指“来源”对数据的敏感程度,换言之,是指“来源”是否愿意将其内积累的数据外发。在一些敏感行业中,诸如用户隐私数据之类的数据是不宜外发的,因而这类“来源”就是下文描述的“不可外传本地隐私数据”的。
本发明的安全的隐私计算方法在步骤S306中根据反馈数据对反欺诈模型进行更新。在该步骤中,可信执行环境可以根据反馈数据的类型、形式、数量等对反欺诈模型进行更新。若反馈数据是与第一多个数据相似的形式,那么此类数据可以直接参与模型训练;若反馈数据仅是对反欺诈模型中的某个具体参量调整的建议,那么也可以根据这类建议进行更新,本发明在此不对反馈数据的类型、形式、数量等作具体限制,只要反馈数据能够用于执行反欺诈模型更新即可。
以上示例所提出行业细分的隐私计算方法通过数据特征映射函数(迁移特征映射函数)的学***衡和样本缺乏的问题。此外,参与计算的隐私数据的安全性得到较大程度的保护,可以防止隐私数据外泄。以上示例综合使用各行业沉淀的样本数据特征,建立基于迁移学习的机器学习模型,利用可信计算的框架,将各方沉淀数据放入可信的加密计算环境中进行建模。经过模型可信区间的加密学习,形成不同行业特征域的映射函数,并结合相关样本的标签数据验证模型迁移效果,固化不同行业特征阈的映射函数(迁移特征映射函数)及基于该部分沉淀数据的机器学习标签侦测训练模型参数。
在本发明的一些实施例中,如图4所示,步骤S301可以具体包括如下的步骤。在步骤S401中采用迁移学习模型确定每个来源的迁移特征映射函数。例如,在一些示例中可以综合各行业沉淀数据,在可信计算环境中进行加密机器学习模型训练,根据各行业的原始特征域Xi(X1、X2、X3、……),采用诸如TCA迁移学习模型,学习出各行业的迁移特征映射函数f。在步骤S402中将每个来源的数据的原始特征域通过迁移特征映射函数映射至新特征域。在步骤S403中以每个来源的数据的原始特征域及其目标标签、每个来源的新特征域及其目标标签训练迁移学习模型进行并比较分类效果。例如,在一些示例中可以基于原始特征域和目标标签{Xi|Yi}(Yi为目标标签)与新特征域和目标标签{Gi|Yi}(Gi 为新特征域,Yi为目标标签),采用相同机器学习分类模型进行分类建模,对比新旧模型分类效果。在步骤S404中根据比较结果确定保存每个来源的迁移特征映射函数以及迁移学习模型的参数。例如,若{Gi|Yi}获得更好的分类效果,则保留模型,存储各迁移特征映射函数f和模型分类训练好的参数,存入可信计算环境进行加密存储,从而实现模型的该轮固化。
在本发明的一些实施例中,步骤S304具体包括:根据来源选取反欺诈模型中的迁移特征映射函数以及迁移学习模型的参数进行标签预测。如图2所示,可以进一步基于可信计算环境中的反欺诈模型来对多个来源的数据A-2、B-2、……、N-2进行标签预测。该示例对于实时的各行业数据,采用分布式机器学习计算方法(联邦学习),对实时的行业数据进行标签预测,在数据不出本地的情况下,对实时数据进行有效分析建模。例如,在一些示例中可以对于实时出现的行业商户新数据(该类数据可能只拥有数据特征)在不出本地的情况下利用上文描述的固化的迁移特征映射函数f,并采用多方安全计算框架,对实时行业商户数据进行标签预测,参与计算的内容包括:实时更新的行业商户数据特征Xt、行业商户对应的迁移特征映射函数f以及训练好的分类模型参数。
例如,对于某行业或机构新产生的一批新数据,需要利用已训练好的固化模型对其进行预测。此时可以通过联邦学***台获得预测模型使用授权。将可信计算环境中存储的模型、行业对应迁移映射函数与需要预测的行业数据进行联邦学***台发起模型预测,在加密的中间变量传输中实现更新数据与固化模型参数间的隐私计算。
在本发明的一些实施例中,上文描述的对反欺诈模型进行更新的步骤还具体包括:对预测的标签进行核验。在本发明的一些实施例中,对所述反欺诈模型进行更新的步骤包括:将多个来源的第二多个数据沉淀(例如,经过一定时间的沉淀)以形成第三多个数据;基于第三多个数据及其核验后的标签对反欺诈模型进行更新。在一些示例中,在实时数据得到一定沉淀并进行如上文所述的标签预测后,可以进一步对标签进行核验(例如,可以人工逐个进行核验),并将核验结果用于对数据模型进行下一轮更新。进一步参见图2,可以对“预测标签”进行核验并将核验结果用作模型的更新。这些核验后的标签为模型训练提供了更优的参考数据,因而会在一定程度上提高反欺诈模型的识别准确率。
在一些实施例中,考虑到行业准实时数据是否愿意出本地的不同需求,可以设计两套不同的方案。例如,多批次的行业机构新数据预测和后续机构核实后,根据各行业机构意愿可以提供核实后的新数据相关标签,对初始的固化模型进行迭代更新及参数调优。对于模型的调优,根据不同行业机构意愿,可采用数据不出本地的联邦学习方式,在固有的模型基础上,通过线性差分的方式调优原固有模型的相关行业映射函数参数及模型参数;也可采用数据融合后可信计算方式,将各行业数据融合至最基础的模型数据,重新训练一个新的基础模型,以此实现模型的更新和调优,不断迭代更新。具体可以按如下示例进行。
在本发明的一些实施例中,若某个来源的性质为可以外传本地隐私数据,亦即,准实时沉淀的数据及其标签愿意出本地,上文描述的对反欺诈模型进行更新的步骤包括:在上文描述的可信计算环境下利用第三多个数据及其核验后的标签训练迁移学习模型,以更新每个来源的迁移特征映射函数以及迁移学习模型的参数。需要指出的是,此处的“利用”作“至少利用”理解,换言之,这里“利用”的可以仅是第三多个数据及其核验后的标签,优选地,还可以包括第一多个数据及其目标标签。如此,可以继续使用上文描述的可信计算环境执行安全的隐私计算方法,并对可信计算环境中保存的迁移特征映射函数及模型使用参数等作相应更新。
在本发明的一些实施例中,若某个来源的性质为不可外传本地隐私数据,亦即,准实时沉淀数据依然不出本地,对反欺诈模型进行更新的步骤包括:基于梯度增量优化方法生成的反馈数据对反欺诈模型进行更新。此时,通过联邦学习的形式利用新生成的数据(相对于历史数据而言)对模型进行了进一步优化,此外这种方式还兼有分布式执行的优势,可以满足数据来源对隐私保护等的需求。需要指出的是,此处的“利用”作“至少利用”理解,换言之,这里“利用”的可以仅是第三多个数据及其核验后的标签,优选地,还可以包括第一多个数据及其目标标签。梯度增量优化方法能够实现在参与训练的数据不出本地的情况下就可以对模型进行训练、更新,减少了数据传输等过程中的风险。
在本发明的一些实施例中,生成反馈数据的步骤包括:根据迁移特征映射函数按照梯度增量形成梯度迁移特征映射函数;将第一多个数据和第三多个数据的原始特征域通过梯度迁移特征映射函数映射至新特征域;以第一多个数据的原始特征域及其目标标签和第三多个数据的原始特征域及其核验后的标签、每个来源的新特征域及其目标标签或核验后的标签训练迁移学习模型进行并比较分类效果;以及根据比较结果确定保存经优化的迁移特征映射函数以及迁移学习模型的参数以作为反馈数据。
例如,具体算法框架如下:将按上文方法固化的模型的迁移特征映射函数f的相关参数按照某梯度增量形成新函数f’=f+df(f’为梯度迁移特征映射函数,其中df为梯度增量),利用新函数对原固化数据(第一多个数据)和新引入数据(第三多个数据)特征域X进行映射,获得新特征域X’,建立{X’|Y}的机器学习模型,其中Y是由第一多个数据的目标标签或者第三多个数据的核验后的标签构成的。并且验证分类效果,直至达到最优后更新当前模型。
以上示例对于新产生的一批实时数据,在一定周期后形成新数据及标签核验后的沉淀。对于沉淀数据,若仍考虑数据隐私不出本地,则采用分布式的梯度调优方法,更新原有特征域函数,以提升模型效果;若数据可出本地,则将新离线沉淀数据与老数据联合,放入可信计算环境实现新一轮的模型参数调优,输出新特征域映射函数和机器学习标签侦测模型参数,并且将其作为反馈数据返回至诸如以上描述的可信计算环境。
根据本发明的另一方面,提供安全的隐私计算服务器。如图5所示,安全的隐私计算服务器50包括可信计算环境501、机器学习模块502和更新模块503。
安全的隐私计算服务器50的可信计算环境501被配置成接收来自多个来源的第一多个数据以及保存反欺诈模型。上文已经记载了可信计算环境501的概念及其在一些领域的应用情况,在本发明的一些示例中,可信计算环境501可能由服务端的软硬件环境构成。具体而言,可信计算环境501可以由收集多个来源数据的服务器的软硬件环境构成,服务器可以驻守于例如卡组织、金融交易机构的营业场所;此外,服务器也可以是电信服务商提供的计算资源。在本发明的一些示例中,多个来源具体可以为多个行业,例如,可以为餐饮业、交通行业、服装业等等。在可信计算环境501接收来自多个来源的数据可以保证数据安全,这在可信计算环境501与数据来源不在相同地理位置的情况下是尤为重要的。如图1所示,可信计算环境接收来自多个来源的数据A、B、……、N(统称为第一多个数据),这些数据可以输入可信计算环境501作进一步处理。
此外,根据本发明形成的反欺诈模型可以保存在可信计算硬件环境501的可信存储环境中。在其他示例中,可信存储环境可能不属于可信计算硬件环境,而是在物理上独立的可信环境。
安全的隐私计算服务器50的机器学习模块502被配置成对第一多个数据集中计算以构建反欺诈模型。在本发明的一些示例中,机器学习模块502是构建于可信计算环境501中的,因而整个数据的处理过程不出可信计算环境501。以此方式,本发明的安全的隐私计算机制可以在可信计算环境下对诸如各个行业的数据进行集中计算,从而保证了诸如隐私数据等数据的安全性。具体而言,机器学习模块502被配置成利用第一多个数据来训练迁移学习模型,以确定每个来源的迁移特征映射函数以及迁移学习模型的参数;其中,根据迁移特征映射函数以及参数以构建反欺诈模型。本发明的一些示例中通过可信计算技术可以融合诸如各行业机构的离线库中已有的数据(区别于即时生成的),建立基础的数据联合使用模型,并根据融合数据进行模型训练和调参,从而可以实现模型的初步固化。模型输出可以包括针对不同行业类的迁移特征映射函数及模型使用参数等。
安全的隐私计算服务器50的更新模块503被配置成根据反馈数据对反欺诈模型进行更新。其中,基于反欺诈模型对所述多个来源的第二多个数据进行标签预测,并且反馈数据是至少基于所述标签预测以及多个来源的性质生成的。
上文已经根据历史上的第一多个数据构建了反欺诈模型,但此时的反欺诈模型是根据历史数据构建的,因而某种程度上来说可能并不一定适应当前数据来源。为了使得反欺诈模型更具时效性,可以先利用反欺诈模型对多个来源的第二多个数据进行标签预测,进而可以评估预测的准确程度并进一步用作对模型的更新。
反馈数据可以至少基于所述标签预测以及多个来源的性质生成,反馈的数据将返回以供用于执行下面的更新操作。标签预测反映了模型对新产生的数据(诸如实时数据或者据其积累而成的数据)的适应情况,标签预测结果的核验或反馈情况可以进一步用于实现对模型的更新。本发明的上下文中描述的“来源的性质”是指“来源”对数据的敏感程度,换言之,是指“来源”是否愿意将其内积累的数据外发。在一些敏感行业中,诸如用户隐私数据之类的数据是不宜外发的,因而这类“来源”就是下文描述的“不可外传本地隐私数据”的。
可信执行环境可以根据反馈数据的类型、形式、数量等对反欺诈模型进行更新。若反馈数据是与第一多个数据相似的形式,那么此类数据可以直接参与模型训练;若反馈数据仅是对反欺诈模型中的某个具体参量调整的建议,那么也可以根据这类建议进行更新,本发明在此不对反馈数据的类型、形式、数量等作具体限制,只要反馈数据能够用于执行反欺诈模型更新即可。
以上示例所提出行业细分的隐私计算机制通过数据特征映射函数(迁移特征映射函数)的学***衡和样本缺乏的问题。此外,参与计算的隐私数据的安全性得到较大程度的保护,可以防止隐私数据外泄。以上示例综合使用各行业沉淀的样本数据特征,建立基于迁移学习的机器学习模型,利用可信计算的框架,将各方沉淀数据放入可信的加密计算环境中进行建模。经过模型可信区间的加密学习,形成不同行业特征域的映射函数,并结合相关样本的标签数据验证模型迁移效果,固化不同行业特征阈的映射函数及基于该部分沉淀数据的机器学习标签侦测训练模型参数。
如图6所示,在本发明的一些实施例中,机器学习模块502包括映射单元621、学习单元622以及确定单元623。其中,
映射单元621被配置成采用迁移学习模型确定每个来源的迁移特征映射函数,并且将每个来源的数据的原始特征域通过迁移特征映射函数映射至新特征域。例如,在一些示例中可以综合各行业沉淀数据,在可信计算环境中进行加密机器学习模型训练,根据各行业的原始特征域Xi(X1、X2、X3、……),采用诸如TCA迁移学习模型,学习出各行业的迁移特征映射函数f。
学习单元622被配置成以每个来源的数据的原始特征域及其目标标签、每个来源的新特征域及其目标标签训练迁移学习模型进行并比较分类效果。确定单元623被配置成根据比较结果确定保存每个来源的迁移特征映射函数以及迁移学习模型的参数。如图2所示,可以进一步基于可信计算环境中的反欺诈模型来对多个来源的数据A-2、B-2、……、N-2进行标签预测。该示例对于实时的各行业数据,采用分布式机器学习计算机制(联邦学习),对实时的行业数据进行标签预测,在数据不出本地的情况下,对实时数据进行有效分析建模。例如,在一些示例中可以基于原始特征域和目标标签{Xi|Yi}(Yi为目标标签)与新特征域和目标标签{Gi|Yi}(Gi 为新特征域,Yi为目标标签),采用相同机器学习分类模型进行分类建模,对比新旧模型分类效果。并且根据比较结果确定保存每个来源的迁移特征映射函数以及迁移学习模型的参数。例如,若{Gi|Yi}获得更好的分类效果,则保留模型,存储各迁移特征映射函数f和模型分类训练好的参数,存入可信计算环境进行加密存储,从而实现模型的该轮固化。
根据本发明的另一方面,提供一种安全的隐私计算***。如图7所示,在本发明的一些实施例中,安全的隐私计算***70包括如上文描述的任意一种安全的隐私计算服务器(图7中以相同标号示出了服务器中可能包括的单元模块),除此之外还包括本地预测模块704,本地预测模块704被配置成基于反欺诈模型对多个来源的第二多个数据进行标签预测,其中预测是根据来源选取反欺诈模型中的迁移特征映射函数以及迁移学习模型的参数进行的。例如,在一些示例中可以对于实时出现的行业商户新数据(该类数据可能只拥有数据特征)在不出本地的情况下利用上文描述的固化的迁移特征映射函数f,并采用多方安全计算框架,对实时行业商户数据进行标签预测,参与计算的内容包括:实时更新的行业商户数据特征Xt、行业商户对应的迁移特征映射函数f以及训练好的分类模型参数。
例如,对于某行业或机构新产生的一批新数据,需要利用已训练好的固化模型对其进行预测。此时可以通过联邦学***台获得预测模型使用授权。将可信计算环境中存储的模型、行业对应迁移映射函数与需要预测的行业数据进行联邦学***台发起模型预测,在加密的中间变量传输中实现更新数据与固化模型参数间的隐私计算。
继续参见图7,在本发明的一些实施例中,安全的隐私计算***70还包括本地核验模块705和沉淀模块706。其中,本地核验模块705被配置成对预测的标签进行核验。在本发明的一些实施例中,沉淀模块706被配置成将多个来源的第二多个数据沉淀(例如,经过一定时间的沉淀)以形成第三多个数据。更新模块503被配置成基于第三多个数据及其核验后的标签对反欺诈模型进行更新。在实时数据得到一定沉淀并进行如上文所述的标签预测后,可以进一步对标签进行核验(例如,可以人工逐个进行核验),并将核验结果用于对数据模型进行下一轮更新。进一步参见图2,可以对“预测标签”进行核验并将核验结果用作模型的更新。这些核验后的标签为模型训练提供了更优的参考数据,因而会在一定程度上提高反欺诈模型的识别准确率。
在一些实施例中,考虑到行业准实时数据是否愿意出本地的不同需求,可以设计两套不同的方案。例如,多批次的行业机构新数据预测和后续机构核实后,根据各行业机构意愿可以提供核实后的新数据相关标签,对初始的固化模型进行迭代更新及参数调优。对于模型的调优,根据不同行业机构意愿,可采用数据不出本地的联邦学习方式,在固有的模型基础上,通过线性差分的方式调优原固有模型的相关行业映射函数参数及模型参数;也可采用数据融合后可信计算方式,将各行业数据融合至最基础的模型数据,重新训练一个新的基础模型,以此实现模型的更新和调优,不断迭代更新。具体可以按如下示例进行。
在本发明的一些实施例中,若某个来源的性质为可以外传本地隐私数据,亦即,准实时沉淀的数据及其标签愿意出本地,更新模块503被配置成在上文描述的可信计算环境501下利用第三多个数据及其核验后的标签训练迁移学习模型,以更新每个来源的迁移特征映射函数以及迁移学习模型的参数。需要指出的是,此处的“利用”作“至少利用”理解,换言之,这里“利用”的可以仅是第三多个数据及其核验后的标签,优选地,还可以包括第一多个数据及其目标标签。如此,可以继续使用上文描述的可信计算环境执行安全的隐私计算机制,并对可信计算环境中保存的迁移特征映射函数及模型使用参数等作相应更新。
在本发明的一些实施例中,若某个来源的性质为不可外传本地隐私数据,,亦即,准实时沉淀数据依然不出本地,更新模块503被配置成基于梯度增量优化方法生成的反馈数据对反欺诈模型进行更新。此时,通过联邦学习的形式利用新生成的数据(相对于历史数据而言)对模型进行了进一步优化,此外这种方式还兼有分布式执行的优势,可以满足数据来源对隐私保护等的需求。需要指出的是,此处的“利用”作“至少利用”理解,换言之,这里“利用”的可以仅是第三多个数据及其核验后的标签,优选地,还可以包括第一多个数据及其目标标签。梯度增量优化方法能够实现在参与训练的数据不出本地的情况下就可以对模型进行训练、更新,减少了数据传输等过程中的风险。
在本发明的一些实施例中,安全的隐私计算***还包括本地更新模块(未示出),本地更新模块包括:第二映射单元,其配置成根据迁移特征映射函数按照梯度增量形成梯度迁移特征映射函数,并且将第一多个数据和第三多个数据的原始特征域通过梯度迁移特征映射函数映射至新特征域;第二学习单元,其配置成以第一多个数据的原始特征域及其目标标签和第三多个数据的原始特征域及其核验后的标签、每个来源的新特征域及其目标标签或核验后的标签训练迁移学习模型进行并比较分类效果;以及第二确定单元,其配置成根据比较结果确定保存经优化的迁移特征映射函数以及迁移学习模型的参数以作为反馈数据。
例如,具体算法框架如下:将按上文方法固化的模型的迁移特征映射函数f的相关参数按照某梯度增量形成新函数f’=f+df(f’为梯度迁移特征映射函数,其中df为梯度增量),利用新函数对原固化数据(第一多个数据)和新引入数据(第三多个数据)特征域X进行映射,获得新特征域X’,建立{X’|Y}的机器学习模型,其中Y是由第一多个数据的目标标签或者第三多个数据的核验后的标签构成的。并且验证分类效果,直至达到最优后更新当前模型。
以上示例对于新产生的一批实时数据,在一定周期后形成新数据及标签核验后的沉淀。对于沉淀数据,若仍考虑数据隐私不出本地,则采用分布式的梯度调优方法,更新原有特征域函数,以提升模型效果;若数据可出本地,则将新离线沉淀数据与老数据联合,放入可信计算环境实现新一轮的模型参数调优,输出新特征域映射函数和机器学习标签侦测模型参数,并且将其作为反馈数据返回至诸如以上描述的可信计算环境。
根据本发明的另一方面,提供一种计算机可读存储介质,计算机可读存储介质中存储有指令,其特征在于,当指令由处理器执行时,使得处理器执行如上文所述的任意一种方法。本发明中所称的计算机可读介质包括各种类型的计算机存储介质,可以是通用或专用计算机能够存取的任何可用介质。举例而言,计算机可读介质可以包括RAM、ROM、E2PROM、CD-ROM或其他光盘存储器、磁盘存储器或其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码单元并能够由通用或特定用途计算机、或者通用或特定用途处理器进行存取的任何其他临时性或者非临时性介质。如本文所使用的,盘(disk)和碟(disc)包括紧致碟(CD)、激光碟、光碟、数字多用途光碟(DVD)、软盘和蓝光碟,其中盘通常磁性地复制数据,而碟则用激光来光学地复制数据。上述的组合也应当包括在计算机可读介质的保护范围之内。
以上可见,本发明提出了一种基于迁移学***衡的特点,可以解决需要融合计算、细分分析的问题,并提出了提出数据融合分析的隐私计算方法。本发明的基本原理还可以适用于包括电商商品个性化推荐、视频网站内容推送等场景。需要说明的是,附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或者在一个或多个硬件模块或集成电路中实现这些功能实体,或者在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
以上例子主要说明了本发明的安全的隐私计算方法、服务器、***以及存储介质。尽管只对其中一些本发明的实施方式进行了描述,但是本领域普通技术人员应当了解,本发明可以在不偏离其主旨与范围内以许多其他的形式实施。因此,所展示的例子与实施方式被视为示意性的而非限制性的,在不脱离如所附各权利要求所定义的本发明精神及范围的情况下,本发明可能涵盖各种的修改与替换。
Claims (19)
1.一种安全的隐私计算方法,其特征在于,所述方法包括:
在可信计算环境下接收来自多个来源的第一多个数据;
在所述可信计算环境下,对所述第一多个数据集中计算,以构建反欺诈模型;
基于所述反欺诈模型对所述多个来源的第二多个数据进行标签预测;
至少基于所述标签预测以及所述多个来源的性质生成反馈数据;以及
根据所述反馈数据对所述反欺诈模型进行更新。
2. 根据权利要求1所述的方法,其特征在于,在所述可信计算环境下,对所述第一多个数据集中计算,以构建反欺诈模型的步骤包括:
利用所述第一多个数据训练迁移学习模型,以确定每个来源的迁移特征映射函数以及所述迁移学习模型的参数;以及
在所述可信计算环境下保存所述迁移特征映射函数以及所述参数以构建所述反欺诈模型。
3.根据权利要求2所述的方法,其特征在于,确定所述迁移特征映射函数以及所述参数的步骤包括:
采用所述迁移学习模型确定每个来源的迁移特征映射函数;
将每个来源的数据的原始特征域通过所述迁移特征映射函数映射至新特征域;
以每个来源的数据的原始特征域及其目标标签、每个来源的新特征域及其目标标签训练所述迁移学习模型进行并比较分类效果;以及
根据比较结果确定保存每个来源的迁移特征映射函数以及所述迁移学习模型的参数。
4.根据权利要求3所述的方法,其特征在于,基于所述反欺诈模型对所述多个来源的第二多个数据进行标签预测的步骤包括:根据所述来源选取所述反欺诈模型中的迁移特征映射函数以及所述迁移学习模型的参数进行所述标签预测。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:对预测的标签进行核验。
6. 根据权利要求5所述的方法,其特征在于,对所述反欺诈模型进行更新的步骤包括:
将所述多个来源的第二多个数据沉淀以形成第三多个数据;以及
基于所述第三多个数据及其核验后的标签对所述反欺诈模型进行更新。
7.根据权利要求6所述的方法,其特征在于,若所述多个来源的性质为可以外传本地隐私数据,则对所述反欺诈模型进行更新的步骤包括:在可信计算环境下利用所述第三多个数据及其核验后的标签训练所述迁移学习模型,以更新每个来源的迁移特征映射函数以及所述迁移学习模型的参数。
8.根据权利要求6所述的方法,其特征在于,若所述多个来源的性质为不可外传本地隐私数据,则对所述反欺诈模型进行更新的步骤包括:基于梯度增量优化方法生成的反馈数据对所述反欺诈模型进行更新。
9.根据权利要求8所述的方法,其特征在于,生成反馈数据的步骤包括:
根据所述迁移特征映射函数按照梯度增量形成梯度迁移特征映射函数;
将所述第一多个数据和所述第三多个数据的原始特征域通过所述梯度迁移特征映射函数映射至新特征域;
以所述第一多个数据的原始特征域及其目标标签和所述第三多个数据的原始特征域及其核验后的标签、每个来源的新特征域及其目标标签或核验后的标签训练所述迁移学习模型进行并比较分类效果;以及
根据比较结果确定保存经优化的迁移特征映射函数以及所述迁移学习模型的参数以作为所述反馈数据。
10.一种安全的隐私计算服务器,其特征在于,所述服务器包括:
可信计算环境,其配置成接收来自多个来源的第一多个数据以及保存反欺诈模型;
机器学习模块,其配置成对所述第一多个数据集中计算,以构建反欺诈模型;以及
更新模块,其配置成根据反馈数据对所述反欺诈模型进行更新,其中,基于所述反欺诈模型对所述多个来源的第二多个数据进行标签预测,并且所述反馈数据是至少基于所述标签预测以及所述多个来源的性质生成的。
11.根据权利要求10所述的服务器,其特征在于,所述机器学习模块利用所述第一多个数据来训练迁移学习模型,以确定每个来源的迁移特征映射函数以及所述迁移学习模型的参数,其中,根据所述迁移特征映射函数以及所述参数以构建所述反欺诈模型。
12.根据权利要求11所述的服务器,其特征在于,所述机器学习模块包括:
映射单元,其配置成采用所述迁移学习模型确定每个来源的迁移特征映射函数,并且将每个来源的数据的原始特征域通过所述迁移特征映射函数映射至新特征域;
学习单元,其配置成以每个来源的数据的原始特征域及其目标标签、每个来源的新特征域及其目标标签训练所述迁移学习模型进行并比较分类效果;以及
确定单元,其配置成根据比较结果确定保存每个来源的迁移特征映射函数以及所述迁移学习模型的参数。
13.一种安全的隐私计算***,其特征在于,所述***包括如权利要求10至12中任一项所述的服务器,并且所述***还包括本地预测模块,其配置成基于所述反欺诈模型对所述多个来源的第二多个数据进行标签预测,并且所述标签预测是根据所述来源选取所述反欺诈模型中的迁移特征映射函数以及所述迁移学习模型的参数进行的。
14.根据权利要求13所述的***,其特征在于,所述***还包括本地核验模块,其配置成对预测的标签进行核验。
15. 根据权利要求14所述的***,其特征在于:
所述***还包括沉淀模块,其配置成将所述多个来源的第二多个数据沉淀以形成第三多个数据;并且
所述更新模块被配置成基于所述第三多个数据及其核验后的标签对所述反欺诈模型进行更新。
16.根据权利要求15所述的***,其特征在于,若所述多个来源的性质为可以外传本地隐私数据,则所述更新模块被配置成在可信计算环境下利用所述第三多个数据及其核验后的标签训练所述迁移学习模型,以更新每个来源的迁移特征映射函数以及所述迁移学习模型的参数。
17.根据权利要求15所述的***,其特征在于,若所述多个来源的性质为不可外传本地隐私数据,则所述更新模块被配置成基于梯度增量优化方法生成的反馈数据对所述反欺诈模型进行更新。
18.根据权利要求17所述的***,其特征在于,所述***还包括本地更新模块,其包括:
第二映射单元,其配置成根据所述迁移特征映射函数按照梯度增量形成梯度迁移特征映射函数,并且将所述第一多个数据和所述第三多个数据的原始特征域通过所述梯度迁移特征映射函数映射至新特征域;
第二学习单元,其配置成以所述第一多个数据的原始特征域及其目标标签和所述第三多个数据的原始特征域及其核验后的标签、每个来源的新特征域及其目标标签或核验后的标签训练所述迁移学习模型进行并比较分类效果;以及
第二确定单元,其配置成根据比较结果确定保存经优化的迁移特征映射函数以及所述迁移学习模型的参数以作为所述反馈数据。
19.一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,其特征在于,当所述指令由处理器执行时,使得所述处理器执行如权利要求1-9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010453754.8A CN112241549B (zh) | 2020-05-26 | 安全的隐私计算方法、服务器、***以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010453754.8A CN112241549B (zh) | 2020-05-26 | 安全的隐私计算方法、服务器、***以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112241549A true CN112241549A (zh) | 2021-01-19 |
CN112241549B CN112241549B (zh) | 2024-06-21 |
Family
ID=
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112818369A (zh) * | 2021-02-10 | 2021-05-18 | ***股份有限公司 | 一种联合建模方法及装置 |
CN113095430A (zh) * | 2021-04-26 | 2021-07-09 | 北京瑞莱智慧科技有限公司 | 可保护隐私的模型更新方法、对象识别方法、***、装置、介质和设备 |
CN113377625A (zh) * | 2021-07-22 | 2021-09-10 | 支付宝(杭州)信息技术有限公司 | 针对多方联合业务预测进行数据监控的方法及装置 |
CN113378183A (zh) * | 2021-08-05 | 2021-09-10 | 北京好欣晴移动医疗科技有限公司 | 基于多方安全计算的用户隐私保护方法、装置和*** |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109035003A (zh) * | 2018-07-04 | 2018-12-18 | 北京玖富普惠信息技术有限公司 | 基于机器学习的反欺诈模型建模方法和反欺诈监控方法 |
CN109242107A (zh) * | 2018-09-11 | 2019-01-18 | 北京芯盾时代科技有限公司 | 基于迁移学习的反欺诈模型训练方法、***和反欺诈方法 |
WO2019137050A1 (zh) * | 2018-01-12 | 2019-07-18 | 阳光财产保险股份有限公司 | 互联网信贷场景下的实时欺诈检测方法、装置及服务器 |
US20190333155A1 (en) * | 2018-04-27 | 2019-10-31 | International Business Machines Corporation | Health insurance cost prediction reporting via private transfer learning |
WO2020035075A1 (zh) * | 2018-08-17 | 2020-02-20 | 第四范式(北京)技术有限公司 | 在数据隐私保护下执行机器学习的方法和*** |
CN110858253A (zh) * | 2018-08-17 | 2020-03-03 | 第四范式(北京)技术有限公司 | 在数据隐私保护下执行机器学习的方法和*** |
US20210019657A1 (en) * | 2018-03-23 | 2021-01-21 | Welab Information Technology (Shenzhen) Limited | Fraud detection and risk assessment method, system, device, and storage medium |
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019137050A1 (zh) * | 2018-01-12 | 2019-07-18 | 阳光财产保险股份有限公司 | 互联网信贷场景下的实时欺诈检测方法、装置及服务器 |
US20210019657A1 (en) * | 2018-03-23 | 2021-01-21 | Welab Information Technology (Shenzhen) Limited | Fraud detection and risk assessment method, system, device, and storage medium |
US20190333155A1 (en) * | 2018-04-27 | 2019-10-31 | International Business Machines Corporation | Health insurance cost prediction reporting via private transfer learning |
CN109035003A (zh) * | 2018-07-04 | 2018-12-18 | 北京玖富普惠信息技术有限公司 | 基于机器学习的反欺诈模型建模方法和反欺诈监控方法 |
WO2020035075A1 (zh) * | 2018-08-17 | 2020-02-20 | 第四范式(北京)技术有限公司 | 在数据隐私保护下执行机器学习的方法和*** |
CN110858253A (zh) * | 2018-08-17 | 2020-03-03 | 第四范式(北京)技术有限公司 | 在数据隐私保护下执行机器学习的方法和*** |
CN109242107A (zh) * | 2018-09-11 | 2019-01-18 | 北京芯盾时代科技有限公司 | 基于迁移学习的反欺诈模型训练方法、***和反欺诈方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112818369A (zh) * | 2021-02-10 | 2021-05-18 | ***股份有限公司 | 一种联合建模方法及装置 |
CN112818369B (zh) * | 2021-02-10 | 2024-03-29 | ***股份有限公司 | 一种联合建模方法及装置 |
CN113095430A (zh) * | 2021-04-26 | 2021-07-09 | 北京瑞莱智慧科技有限公司 | 可保护隐私的模型更新方法、对象识别方法、***、装置、介质和设备 |
CN113377625A (zh) * | 2021-07-22 | 2021-09-10 | 支付宝(杭州)信息技术有限公司 | 针对多方联合业务预测进行数据监控的方法及装置 |
CN113377625B (zh) * | 2021-07-22 | 2022-05-17 | 支付宝(杭州)信息技术有限公司 | 针对多方联合业务预测进行数据监控的方法及装置 |
CN113378183A (zh) * | 2021-08-05 | 2021-09-10 | 北京好欣晴移动医疗科技有限公司 | 基于多方安全计算的用户隐私保护方法、装置和*** |
CN113378183B (zh) * | 2021-08-05 | 2023-11-10 | 好心情健康产业集团有限公司 | 基于多方安全计算的用户隐私保护方法、装置和*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ekramifard et al. | A systematic literature review of integration of blockchain and artificial intelligence | |
Rahmani et al. | [Retracted] Blockchain‐Based Trust Management Framework for Cloud Computing‐Based Internet of Medical Things (IoMT): A Systematic Review | |
US11546373B2 (en) | Cryptocurrency based malware and ransomware detection systems and methods | |
Gong et al. | An in-depth and systematic literature review on the blockchain-based approaches for cloud computing | |
US11930023B2 (en) | Deep learning-based similarity evaluation in decentralized identity graphs | |
KR20190070163A (ko) | 네트워크를 통해 서로 통신하는 노드들 각각의 자원 운영 방법, 그리고 그러한 노드들 중 어느 하나로 동작하는 컴퓨터 장치 | |
CN110348978A (zh) | 基于图计算的风险团伙识别方法、装置、设备和存储介质 | |
US20200143242A1 (en) | System and method for creating and providing crime intelligence based on crowdsourced information stored on a blockchain | |
US20210049281A1 (en) | Reducing risk of smart contracts in a blockchain | |
CN111563267A (zh) | 用于联邦特征工程数据处理的方法和装置 | |
Lin et al. | A privacy-aware cloud service selection method toward data life-cycle | |
CN109034657A (zh) | 基于区块链的流程路径寻找方法、装置、介质及电子设备 | |
Karumanchi et al. | Cloud based supply chain management system using blockchain | |
CN112039972A (zh) | 一种业务的处理方法、装置及设备 | |
Wassan et al. | A Smart Comparative Analysis for Secure Electronic Websites. | |
Kummar et al. | Blockchain based big data solutions for Internet of Things (IoT) and smart cities | |
CN112258369A (zh) | 统一数据平台和基于统一数据平台的数据处理方法 | |
Altarawneh et al. | Overview of Applied Data Analytic Mechanisms and Approaches Using Permissioned Blockchains | |
CN112241549B (zh) | 安全的隐私计算方法、服务器、***以及存储介质 | |
CN116467759A (zh) | 数据存储策略的确定方法、装置、设备及存储介质 | |
CN112241549A (zh) | 安全的隐私计算方法、服务器、***以及存储介质 | |
CN114493850A (zh) | 基于人工智能的在线公证方法、***及存储介质 | |
US11715037B2 (en) | Validation of AI models using holdout sets | |
US20210182836A1 (en) | Tracing cryptocurrencies | |
US20220269814A1 (en) | Discovery of personal data in machine learning models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |