CN112733181B - 一种产品推荐方法、***、计算机设备及存储介质 - Google Patents
一种产品推荐方法、***、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN112733181B CN112733181B CN202011504951.4A CN202011504951A CN112733181B CN 112733181 B CN112733181 B CN 112733181B CN 202011504951 A CN202011504951 A CN 202011504951A CN 112733181 B CN112733181 B CN 112733181B
- Authority
- CN
- China
- Prior art keywords
- factor matrix
- product
- parameters
- product factor
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 239000011159 matrix material Substances 0.000 claims abstract description 298
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 28
- 238000010606 normalization Methods 0.000 claims abstract description 25
- 238000004364 calculation method Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 12
- 238000012163 sequencing technique Methods 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000012821 model calculation Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- General Health & Medical Sciences (AREA)
- Bioethics (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Development Economics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及人工智能,揭露了一种产品推荐方法、***、计算机设备及存储介质,包括服务器端接收参数数据;服务器经初始化得到产品因子矩阵及参数,并将产品因子矩阵参数和参数数据发送至多个客户端;客户端据此更新用户因子矩阵,利用q‑FedAvg算法计算加权差值和归一化常量并返回给服务器;服务器利用产品因子矩阵参数和加权差值与归一化常量,对产品因子矩阵参数进行更新;服务器根据更新后的产品因子矩阵参数确定目标产品因子矩阵,将目标产品因子矩阵发送至目标客户端;目标客户端利用目标产品因子矩阵和更新后的用户因子矩阵,计算预测评分值,将排序高的前N个产品推荐给所述用户。本申请保护用户数据不外泄的同时,提高推荐产品与用户的贴合度。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种产品推荐方法、***、计算机设备及存储介质。
背景技术
随着社会的不断发展,人们对于隐私的保护越来越看重,并且各国也颁布了各种条款来加以对隐私数据的保护,例如欧盟的GDPR(General Data Protection Regulation,通用数据保护条款),和我国出台的《数据安全管理办法》(征求意见稿),面对这种情况,如何保护用户数据***露的情况下对用户完成产品的推荐是个问题。在现有技术中,基于矩阵分解的协同过滤算法存在计算和存储成本高的问题,并且还存在用户数据可能被服务器泄露的问题,所以如何保证用户隐私***露的情况下完成对用户的产品推荐,且降低推荐模型计算成本成为了亟待解决的问题。
发明内容
本申请提供了一种产品推荐方法、***、计算机设备及存储介质,以解决现有技术中在对用户进行产品推荐时存在的用户隐私泄露且模型计算成本高的问题。
为解决上述问题,本申请提供了一种产品推荐方法,包括:
服务器端接收用户输入参数数据;
所述服务器端经初始化处理得到产品因子矩阵和产品因子矩阵参数/>,并将所述产品因子矩阵参数/>和部分所述参数数据发送至多个客户端;
所述多个客户端根据所述产品因子矩阵参数和部分所述参数数据更新用户因子矩阵/>,并利用q-FedAvg算法计算加权差值/>和归一化常量/>,将所述加权差值/>和归一化常量/>,将所述加权差值/>和归一化常量/>返回给所述服务器端;
所述服务器端基于剩余部分所述参数数据,利用所述产品因子矩阵参数和接收到的所有加权差值/>和归一化常量/>,对所述产品因子矩阵参数/>进行迭代更新;
所述服务器端根据更新后的产品因子矩阵参数确定目标产品因子矩阵,并将所述目标产品因子矩阵发送至目标客户端;
所述目标客户端利用所述目标产品因子矩阵和更新后的所述用户因子矩阵,计算所述用户对产品的预测评分值,并对预测评分值排序,将排序高的前N个产品推荐给所述用户。
进一步的,所述根据更新后的产品因子矩阵参数确定目标产品因子矩阵,包括:
判断更新后的产品因子矩阵参数与更新前的产品因子矩阵参数/>的差值是否小于预设数值;
若所述差值大于预设数值,则将更新后的产品因子矩阵参数,重新发送至客户端继续进行迭代更新,直到所述差值小于所述预设数值为止;
若所述差值小于等于所述预设数值,则利用更新后的所述产品因子矩阵参数生成目标产品因子矩阵。
在所述将所述产品因子矩阵参数发送至多个客户端之前,还包括:
将所述产品因子矩阵参数进行同态加密。
进一步的,所述服务器端基于剩余部分所述参数数据,利用所述产品因子矩阵参数和接收到的所有加权差值/>和归一化常量/>,对所述产品因子矩阵参数/>进行迭代更新,包括:
所述服务器端利用得到更新后的产品因子矩阵参数/>,i表示客户端数量,St表示客户端集合。
进一步的,所述多个客户端根据所述产品因子矩阵参数和部分所述参数数据更新用户因子矩阵/>,包括:
基于所述用户因子矩阵和所述产品因子矩阵参数/>,根据公式一计算损失函数,所述公式一为:/>;
基于损失函数、所述用户因子矩阵/>的梯度和增益参数/>,根据公式二计算更新后的用户因子矩阵参数/>,所述公式二为:/>;
根据更新后的所述用户因子矩阵参数更新所述用户因子矩阵/>;
其中,t表示迭代次数、表示增益参数、/>表示上一次迭代后/>的梯度值、j=1,2,…,m,m为产品个数、/>表示用户/>对产品/>的评分值、/>表示正则化参数、vj表示产品因子矩阵/>的第j行、Fi为损失函数、ui t+1为经过迭代后的所述用户因子矩阵参数、/>为用户因子矩阵参数。
进一步的,所述利用q-FedAvg算法计算加权差值∆i t和归一化常量hi t包括:
获取所述更新后的所述用户因子矩阵参数和所述参数数据中的预设步长/>,对损失函数/>进行E次随机梯度下降,得到模型参数/>;
基于所述模型参数,计算相邻产品因子矩阵参数差值/>:/>;
根据相邻产品因子矩阵参数差值∆Vi t,按以下q-FedAvg算法计算加权差值和归一化常量hi t:
;
;
其中,表示相邻产品因子矩阵参数差值、L表示Lipschitz常数、q表示q-FedAvg算法参数、k=1,2,…,E。
为了解决上述问题,本申请还提供一种产品推荐***,所述***包括:
服务器端和客户端;
所述服务器端包括:
接收模块,用于接收用户输入的参数数据;
初始化模块,用于经初始化处理得到产品因子矩阵和产品因子矩阵参数/>,并将所述产品因子矩阵参数/>和部分所述参数数据发送至多个客户端;
更新模块,基于剩余部分所述参数数据,利用所述产品因子矩阵参数和接收到的所有加权差值/>和归一化常量/>,对所述产品因子矩阵参数/>进行迭代更新;
确定模块,用于根据更新后的产品因子矩阵参数确定目标产品因子矩阵,并将所述目标产品因子矩阵发送至目标客户端;
所述客户端包括:
计算模块,用于根据所述产品因子矩阵参数和部分所述参数数据更新用户因子矩阵/>,并利用q-FedAvg算法计算加权差值∆i t和归一化常量hi t,将所述加权差值∆i t和归一化常量hi t返回给所述服务器端;
输出模块,利用所述目标产品因子矩阵和更新后的所述用户因子矩阵,计算所述用户对产品的预测评分值,并对预测评分值排序,将排序高的前N个产品推荐给所述用户。
进一步的,所述更新模块包括差值判断子模块、迭代子模块和生成子模块;
所述差值判断子模块,用于判断更新后的产品因子矩阵参数与更新前的产品因子矩阵参数/>的差值是否小于预设数值;
所述迭代子模块,用于若所述差值大于预设数值,则将更新后的产品因子矩阵参数,重新发送至客户端继续进行迭代更新,直到所述差值小于所述预设数值为止;
所述生成子模块,用于若所述差值小于等于所述预设数值,则利用更新后的所述产品因子矩阵参数生成目标产品因子矩阵。
为了解决上述问题,本申请还提供一种计算机设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上述所述的产品推荐方法。
为了解决上述问题,本申请还提供一种非易失性的计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如上述所述的产品推荐方法。
根据本申请实施例提供的产品推荐方法、***、计算机设备及存储介质,与现有技术相比至少具有以下有益效果:
通过服务器端与客户端的配合,服务器端接收用户输入的参数数据;所述服务器端经初始化处理得到产品因子矩阵和产品因子矩阵参数/>,并将所述产品因子矩阵参数和部分所述参数数据发送至多个客户端;所述多个客户端根据所述产品因子矩阵参数/>和部分所述参数数据更新用户因子矩阵/>,并利用q-FedAvg算法计算加权差值∆i t和归一化常量hi t,将所述加权差值∆i t和归一化常量hi t返回给所述服务器端;客户端通过自己利用数据进行计算,避免了将数据发送至服务器端出现数据泄露的问题,保护了用户的数据;所述服务器端利用所述产品因子矩阵参数/>和接收到的所有加权差值/>和归一化常量/>,对所述产品因子矩阵参数/>进行迭代更新;所述服务器端根据更新后的产品因子矩阵参数确定目标产品因子矩阵,并将所述目标产品因子矩阵发送至目标客户端;所述目标客户端利用所述目标产品因子矩阵和更新后的所述用户因子矩阵,计算用户对产品的预测评分值,并对预测评分值排序,将排序高的前N个产品推荐给所述用户。通过接收服务器端发送的产品因子矩阵参数在客户端本地利用用户数据计算加权差值/>和归一化常量/>,在保护了用户数据的同时,利用用户数据完成对用户进行精准推荐,且服务器端只利用了客户端发送加权差值/>与归一化常量/>来计算,降低了模型计算成本。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图做一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一实施例提供的产品推荐方法的流程示意图;
图2为本申请一实施例提供的产品推荐装置的模块示意图;
图3为本申请一实施例的计算机设备的结构示意图。
实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是是相同的实施例,也不是与其它实施例相互排斥的独立的或备选的实施例。本领域技术人员显式地或隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本申请提供一种产品推荐方法。参照图1所示,为本申请一实施例提供的产品推荐方法的流程示意图。
在本实施例中,产品推荐方法包括:
S1、服务器端接收用户输入的参数数据;
具体的所述参数数据包括总的客户端的数量n 、epoch次数E,即进行随机梯度下降次数为E次、循环次数T,即利用迭代次数为T次、q-FedAvg算法参数q、Lipschitz常数L(对于在实数集的子集的函数/>,若存在常数,使得/>,则称/>符合利普希茨条件,对于/>最小的常数/>称为/>的利普希茨常数)、步长/>、正则化参数/>和增益参数/>。
所述参数数据一部分用于服务器端,即总的客户端的数量n、循环次数T等参数,一部分通过服务器端发送给客户端,即epoch次数E、q-FedAvg算法参数q、Lipschitz常数L、步长、正则化参数/>和增益参数/>将发送给客户端。
所述服务器端接收用户输入的参数数据。
S2、所述服务器端经初始化处理得到产品因子矩阵和产品因子矩阵参数/>,并将所述产品因子矩阵参数/>和部分所述参数数据发送至多个客户端;
所述服务器端通过随机初始化产品因子矩阵和产品因子矩阵参数,得到产品因子矩阵参数和产品因子矩阵/>,并将所述产品因子矩阵参数,将所述产品因子矩阵/>和参数数据中的E、q、L、/>、/>、/>参数发送给多个客户端。
所述随机初始化可采用高斯分布、Xavier等方式进行初始化,随机产生产品因子矩阵参数和产品因子矩阵/>,通过随机初始化使得模型更有可能找到全局最优解,并且如果产品因子矩阵全赋值0的话,会产生对称性,就导致隐藏层有两个由输入值产生的神经元,由于矩阵具有对称性,无论正向传播还是反向传播,这两个本应表示不同特征的神经元所做的运算都是一致的,就会出现问题。
进一步的,所述将所述产品因子矩阵参数和部分所述参数数据发送至多个客户端,包括:
将个客户端作为集合/>;
将所述产品因子矩阵参数和所述参数数据发送至集合/>中的/>个客户端。
具体的,通过参数数据中规定的客户数量,将所述产品因子矩阵/>和参数数据中的E、q、L、/>、/>、/>参数发送给集合/>中的/>个客户端。
同时,客户端也需要进行初始化,同样对用户因子矩阵和用户因子矩阵参数,进行随机初始化,得到用户因子矩阵参数和用户因子矩阵/>,随机初始化的方式与服务器端一致。
本案通过采用横向联邦学习,将n个客户端作为此次更新迭代的样本。采用n各客户端提高数据的不确定性,便于后续训练得出数据的普适性。
在所述将所述产品因子矩阵参数发送至多个客户端之前,还包括:
将所述产品因子矩阵参数进行同态加密。
经同态加密后保证了数据的安全性。且同态加密的好处还在于不需要对数据进行解密,一样可以利用数据进行运算。
S3、多个客户端根据所述产品因子矩阵参数和部分所述参数数据更新用户因子矩阵/>,并利用q-FedAvg算法计算加权差值/>和归一化常量/>,将所述加权差值/>和归一化常量/>,将所述加权差值/>和归一化常量/>返回给所述服务器端;
所述部分参数数据包括epoch次数E、q-FedAvg算法参数q、Lipschitz常数L、步长、正则化参数/>和增益参数/>归客户端使用。
客户端将加权差值和归一化常量/>发送给服务器端之前需经同态加密,保障数据安全。
进一步的,所述多个客户端根据所述产品因子矩阵参数和所述参数数据更新用户因子矩阵/>包括:
基于所述用户因子矩阵和所述产品因子矩阵参数/>,根据公式一计算损失函数,所述公式一为:
;
基于损失函数、所述用户因子矩阵/>的梯度和增益参数/>,根据公式二计算更新后的用户因子矩阵参数/>,所述公式二为;
;
根据迭代后的所述用户因子矩阵参数更新所述用户因子矩阵/>;
其中,t表示迭代次数、表示增益参数、/>表示上一次迭代后/>的梯度值、j=1,2,…,m,m为产品个数、/>表示用户/>对产品/>的评分值、/>表示正则化参数、/>表示产品因子矩阵/>的第j行、Fi为损失函数、ui t+1为经过迭代后的所述用户因子矩阵参数、/>为用户因子矩阵参数。
具体的,通过利用客户端上的用户因子矩阵、所述产品因子矩阵参数/>和正则化参数/>,来计算损失函数/>;随后基于损失函数/>、所述用户因子矩阵/>的梯度和增益参数/>,计算更新后的用户因子矩阵参数/>;/>为客户端现有的。
利用;
公式具体计算,此公式为公式一的具体展开。
通过客户端自己维护自己数据,避免了数据传输造成的泄露。
再进一步的,所述利用q-FedAvg算法计算加权差值∆i t和归一化常量hi t,包括;
获取所述更新后的所述用户因子矩阵参数和预设步长/>,对损失函数/>进行E次随机梯度下降,得到模型参数/>;
基于所述模型参数,计算相邻产品因子矩阵参数差值/>;
;
根据相邻产品因子矩阵参数差值,按以下q-FedAvg算法计算加权差值∆i t和归一化常量hi t;
;
;
其中,表示相邻产品因子矩阵参数差值、L表示Lipschitz常数、q表示q-FedAvg算法参数、k=1,2,…,E。
具体的,通过;
;
;
当进行第一次随机梯度下降时,即,由于/>,所以,就可以得到/>,从而不断迭代E次,当第E次时,/>,即可得到模型参数/>;
基于模型参数,即可得到相邻产品因子矩阵参数差值/>;
所述客户端基于自身的数据特征,计算出加权差值和归一化常量/>并发送给客户端,通过利用自己数据在本地进行计算,保障了数据安全的同时,将自己的数据特征展示出来,用于后续的产品推荐。
S4、所述服务器端基于剩余部分所述参数数据,利用所述产品因子矩阵参数和接收到的所有加权差值/>和归一化常量/>,对所述产品因子矩阵参数/>进行迭代更新;
所述服务器端利用所述产品因子矩阵参数和接收到的所有加权差值/>和归一化常量/>,对所述产品因子矩阵参数/>进行迭代更新包括:
所述服务器端利用得到更新后的产品因子矩阵参数/>,i表示客户端数量,St表示客户端集合。
通过收集客户端集合St中所有客户端反馈的加权差值∆i t与归一化常量hi t数据,来更新产品因子矩阵参数。提高了参数的普适性。
S5、所述服务器端根据更新后的产品因子矩阵参数确定目标产品因子矩阵,并将所述目标产品因子矩阵发送至目标客户端;
进一步的,所述根据更新后的产品因子矩阵参数确定目标产品因子矩阵,包括:
判断更新后的产品因子矩阵参数与更新前的产品因子矩阵参数/>的差值是否小于预设数值;
若所述差值大于预设数值,则将更新后的产品因子矩阵参数,重新发送至客户端继续进行迭代更新,直到所述差值小于所述预设数值为止;
若所述差值小于等于所述预设数值,则利用更新后的所述产品因子矩阵参数生成目标产品因子矩阵。
具体的,在本申请的一实施例中,通过对两次相邻迭代得到的产品因子矩阵参数的差值与预设数值进行比较判断,来得出是否还需进行迭代更新,若大于预设数值,则将更新后的产品因子矩阵参数重新发送至客户端继续进行迭代更新,即将/>替换原来的/>,从而得到/>,不断迭代,直至相邻迭代得到的产品因子矩阵参数的差值小于预设数值;当所述差值小于预设数值时,则将利用更新后的所述产品因子矩阵参数生成目标产品因子矩阵;所述目标客户端即需要进行产品推荐的用户所对应的客户端,且在参与迭代的客户端中。
通过将所述差值与预设数值进行比较,最后得出满足条件的产品因子矩阵参数,提高了产品推荐质量,即利用该产品因子矩阵参数生成的目标产品因子矩阵结合用户因子矩阵将给用户推荐更贴近其实际需要的产品。
在本申请的另一实施例中,只需完成预设的迭代次数就将输出最后一次迭代得到的产品因子矩阵参数,并利用该产品因子矩阵参数生成目标产品因子矩阵。
S6、所述目标客户端利用所述目标产品因子矩阵和更新后的所述用户因子矩阵,计算所述用户对产品的预测评分值,并对预测评分值排序,将排序高的前N个产品推荐给所述用户。
所述更新后的用户因子矩阵为经迭代更新后的最后一次用户因子矩阵。
所述客户端与其所属的用户一一对应。
需要强调的是,为了进一步保证数据的私密性和安全性,所述目标产品因子矩阵数据还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
通过服务器端与客户端的配合,服务器端接收用户输入的参数数据;所述服务器端经初始化处理得到产品因子矩阵和产品因子矩阵参数/>,并将所述产品因子矩阵参数和所述参数数据发送至多个客户端;所述多个客户端根据所述产品因子矩阵参数/>和所述参数数据更新用户因子矩阵/>,并利用q-FedAvg算法计算加权差值∆i t和归一化常量hi t,将所述加权差值 ∆i t和归一化常量hi t返回给所述服务器端;客户端通过自己利用数据进行计算,避免了将数据发送至服务器端出现数据泄露的问题,保护了用户的数据;所述服务器端利用所述产品因子矩阵参数/>和接收到的所有加权差值∆i t与归一化常量hi t,对所述产品因子矩阵参数/>进行迭代更新;所述服务器端根据更新后的产品因子矩阵参数/>确定目标产品因子矩阵,并将所述目标产品因子矩阵发送至目标客户端;所述目标客户端利用所述目标产品因子矩阵和更新后的所述用户因子矩阵,计算所述用户对产品的预测评分值,并对预测评分值排序,将排序高的前N个产品推荐给所述用户。
通过接收服务器端发送的产品因子矩阵参数在客户端本地利用用户数据计算加权差值∆i t与归一化常量hi t在保护了用户数据的同时,利用用户数据完成对用户进行精准推荐,且服务器端只利用了客户端发送加权差值∆i t与归一化常量hi t来计算,降低了模型计算成本。
如图3所示,是本申请产品推荐***的功能模块图。
本申请所述产品推荐***100可以安装于电子设备中,具体的可以安装在服务器端和客户端中。根据实现的功能,所述产品推荐***100包括服务器端110和客户端120,所述服务器端110包括包括接收模块111、初始化模块112、更新模块113、确定模块114;所述客户端120包括计算模块121和输出模块122。本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述服务器端110包括:
接收模块111,用于接收用户输入的参数数据;
具体的,接收模块111接收总的客户端的数量n 、epoch次数E,即进行随机梯度下降次数为E次、循环次数T,即利用迭代次数为T次、q-FedAvg算法参数q、Lipschitz常数L、步长、正则化参数/>和增益参数/>参数。
初始化模块112,用于经初始化处理得到产品因子矩阵和产品因子矩阵参数/>,并将所述产品因子矩阵参数/>和部分所述参数数据发送至多个客户端;
初始化模块112通过随机初始化,得到产品因子矩阵参数和产品因子矩阵/>。
所述服务器端110还包括同态加密模块;
同态加密模块用于将所述产品因子矩阵参数进行同态加密。
同态加密模块保证了数据的安全性。
更新模块113,基于剩余部分所述参数数据,利用所述产品因子矩阵参数和接收到的所有加权差值∆i t与归一化常量hi t,对所述产品因子矩阵参数/>进行迭代更新;
进一步的,所述更新模块113利用得到更新后的产品因子矩阵参数,i表示客户端数量,St表示客户端集合。
确定模块114,用于根据更新后的产品因子矩阵参数确定目标产品因子矩阵,并将所述目标产品因子矩阵发送至目标客户端;
进一步的,所述确定模块114包括差值判断子模块、迭代子模块和生成子模块;
差值判断子模块用于判断更新后的产品因子矩阵参数与更新前的产品因子矩阵参数/>的差值是否小于预设数值;
迭代子模块用于若所述差值大于预设数值,则将更新后的产品因子矩阵参数,重新发送至客户端继续进行迭代更新,直到所述差值小于所述预设数值为止;
生成子模块用于若所述差值小于等于所述预设数值,则利用更新后的所述产品因子矩阵参数生成目标产品因子矩阵。
差值判断子模块通过对两次相邻迭代得到的产品因子矩阵参数的差值与预设数值进行比较判断,来得出是否还需进行迭代更新,若大于预设数值,迭代子模块则将更新后的产品因子矩阵参数重新发送至客户端继续进行迭代更新,即将/>替换原来的/>,从而得到/>,不断迭代,直至相邻迭代得到的产品因子矩阵参数的差值小于预设数值;当所述差值小于预设数值时,生成子模块则将利用更新后的所述产品因子矩阵参数生成目标产品因子矩阵;
通过差值判断子模块、迭代子模块和生成子模块的配合将所述差值与预设数值进行比较,最后得出满足条件的产品因子矩阵参数,提高了产品推荐质量,即利用该产品因子矩阵参数生成的目标产品因子矩阵结合用户因子矩阵将给用户推荐更贴近其实际需要的产品。
所述客户端120包括:
计算模块121,用于根据所述产品因子矩阵参数更新用户因子矩阵/>,并利用q-FedAvg算法计算加权差值∆i t与归一化常量hi t,将所述加权差值∆i t和归一化常量hi t返回给所述服务器端;
计算模块121包括损失函数计算子模块、用户因子矩阵参数更新子模块和用户因子矩阵更新子模块;
损失函数计算子模块基于所述用户因子矩阵和所述产品因子矩阵参数/>根据公式一计算损失函数/>,所述公式一为:
;
用户因子矩阵参数更新子模块基于损失函数、所述用户因子矩阵/>的梯度和增益参数/>,根据公式二计算更新后的用户因子矩阵参数/>,所述公式二为:;
用户因子矩阵更新子模块根据更新后的所述用户因子矩阵参数更新所述用户因子矩阵/>;
其中,t表示迭代次数、表示增益参数、/>表示上一次迭代后/>的梯度值、j=1,2,…,m,m为产品个数、/>表示用户/>对产品/>的评分值、/>表示正则化参数、/>表示产品因子矩阵/>的第j行、Fi为损失函数、ui t+1为经过迭代后的所述用户因子矩阵参数、/>为用户因子矩阵参数。
通过损失函数计算子模块、用户因子矩阵参数更新子模块和用户因子矩阵更新子模块的配合实现通过客户端自己维护自己数据,避免了数据传输造成的泄露。
计算模块121还包括模型参数计算子模块、差值计算子模块和基于q-FedAvg算法计算子模块;
模型参数计算子模块通过获取所述更新后的所述用户因子矩阵参数和预设步长/>,对损失函数/>进行E次随机梯度下降,得到模型参数/>;
差值计算子模块基于所述模型参数,计算相邻产品因子矩阵参数差值/>;
;
基于q-FedAvg算法计算子模块根据相邻产品因子矩阵参数差值,按以下q-FedAvg算法计算加权差值∆i t和归一化常量hi t;
;
;
其中,表示相邻产品因子矩阵参数差值、L表示Lipschitz常数、q表示q-FedAvg算法参数、k=1,2,…,E。/>
通过参数计算子模块、差值计算子模块和基于q-FedAvg算法计算子模块的配合,实现所述客户端基于自身的数据特征,计算出加权差值∆i t和归一化常量hi t并发送给客户端,通过利用自己数据再本端进行计算,保障了数据安全的同时,将自己的数据特征展示出来,用于后续的产品推荐。
输出模块122,利用所述目标产品因子矩阵和更新后的所述用户因子矩阵,计算所述用户对产品的预测评分值,并对预测评分值排序,将排序高的前N个产品推荐给所述用户。
需要强调的是,为了进一步保证数据的私密性和安全性,所述目标产品因子矩阵数据还可以存储于一区块链的节点中。
通过采用上述装置,通过所述产品推荐***100包括服务器端110和客户端120,所述服务器端110包括包括接收模块111、初始化模块112、更新模块113、确定模块114;所述客户端120包括计算模块121和输出模块122,各模块的配合使用,通过接收服务器端发送的产品因子矩阵参数在客户端本地利用用户数据计算加权差值∆i t与归一化常量hi t,在保护了用户数据的同时,利用用户数据完成对用户进行精准推荐,且服务器端只利用了客户端发送加权差值∆i t与归一化常量hi t来计算,降低了模型计算成本。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图3,图3为本实施例计算机设备基本结构框图。
所述计算机设备4包括通过***总线相互通信连接存储器41、处理器42、网络接口43。需要指出的是,图中仅示出了具有组件41-43的计算机设备4,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器 (Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器41至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器41可以是所述计算机设备4的内部存储单元,例如该计算机设备4的硬盘或内存。在另一些实施例中,所述存储器41也可以是所述计算机设备4的外部存储设备,例如该计算机设备4上配备的插接式硬盘,智能存储卡(Smart Media Card, SMC),安全数字(Secure Digital, SD)卡,闪存卡(FlashCard)等。当然,所述存储器41还可以既包括所述计算机设备4的内部存储单元也包括其外部存储设备。本实施例中,所述存储器41通常用于存储安装于所述计算机设备4的操作***和各类应用软件,例如产品推荐方法的计算机可读指令等。此外,所述存储器41还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器42在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器42通常用于控制所述计算机设备4的总体操作。本实施例中,所述处理器42用于运行所述存储器41中存储的计算机可读指令或者处理数据,例如运行所述产品推荐方法的计算机可读指令。
所述网络接口43可包括无线网络接口或有线网络接口,该网络接口43通常用于在所述计算机设备4与其他电子设备之间建立通信连接。
本实施例通过处理器执行存储在存储器的计算机可读指令时实现如上述实施例产品推荐方法的步骤,通过服务器端与客户端的配合,服务器端接收用户输入的参数数据;所述服务器端经初始化处理得到产品因子矩阵和产品因子矩阵参数/>,并将所述产品因子矩阵参数/>和部分所述参数数据发送至多个客户端;所述多个客户端根据所述产品因子矩阵参数/>和所述参数数据更新用户因子矩阵/>,并利用q-FedAvg算法计算加权差值∆i t与归一化常量hi t,将所述加权差值∆i t和归一化常量hi t返回给所述服务器端;客户端通过自己利用数据进行计算,避免了将数据发送至服务器端出现数据泄露的问题,保护了用户的数据;所述服务器端利用所述产品因子矩阵参数/>和接收到的所有加权差值∆i t与归一化常量hi t,对所述产品因子矩阵参数/>进行迭代更新;所述服务器端根据更新后的产品因子矩阵参数/>确定目标产品因子矩阵,并将所述目标产品因子矩阵发送至目标客户端;所述目标客户端利用所述目标产品因子矩阵和更新后的所述用户因子矩阵,计算所述用户对产品的预测评分值,并对预测评分值排序,将排序高的前N个产品推荐给所述用户。通过接收服务器端发送的产品因子矩阵参数在客户端本地利用用户数据计算加权差值∆i t与归一化常量hi t,在保护了用户数据的同时,利用用户数据完成对用户进行精准推荐,且服务器端只利用了客户端发送加权差值∆i t与归一化常量hi t来计算,降低了模型计算成本。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的产品推荐方法的步骤,通过服务器端与客户端的配合,服务器端接收用户输入的参数数据;所述服务器端经初始化处理得到产品因子矩阵和产品因子矩阵参数/>,并将所述产品因子矩阵参数/>和部分所述参数数据发送至多个客户端;所述多个客户端根据所述产品因子矩阵参数/>和所述参数数据更新用户因子矩阵/>,并利用q-FedAvg算法计算加权差值∆i t与归一化常量hi t,将所述加权差值∆i t和归一化常量hi t返回给所述服务器端;客户端通过自己利用数据进行计算,避免了将数据发送至服务器端出现数据泄露的问题,保护了用户的数据;所述服务器端利用所述产品因子矩阵参数和接收到的所有加权差值∆i t与归一化常量hi t,对所述产品因子矩阵参数/>进行迭代更新;所述服务器端根据更新后的产品因子矩阵参数/>确定目标产品因子矩阵,并将所述目标产品因子矩阵发送至目标客户端;所述目标客户端利用所述目标产品因子矩阵和更新后的所述用户因子矩阵,计算所述用户对产品的预测评分值,并对预测评分值排序,将排序高的前N个产品推荐给所述用户。通过接收服务器端发送的产品因子矩阵参数在客户端本地利用用户数据计算加权差值∆i t与归一化常量hi t,在保护了用户数据的同时,利用用户数据完成对用户进行精准推荐,且服务器端只利用了客户端发送加权差值∆i t与归一化常量hi t来计算,降低了模型计算成本。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种产品推荐方法,其特征在于,所述方法包括:
服务器端接收用户输入的参数数据;
所述服务器端经初始化处理得到产品因子矩阵和产品因子矩阵参数/>,并将所述产品因子矩阵参数/>和部分所述参数数据发送至多个客户端;
所述多个客户端根据所述产品因子矩阵参数和部分所述参数数据更新用户因子矩阵,并利用q-FedAvg算法计算加权差值/>和归一化常量/>,将所述加权差值/>和归一化常量/>,将所述加权差值/>和归一化常量/>返回给所述服务器端;
所述服务器端基于剩余部分所述参数数据,利用所述产品因子矩阵参数和接收到的所有加权差值/>和归一化常量/>,对所述产品因子矩阵参数/>进行迭代更新;
所述服务器端根据更新后的产品因子矩阵参数确定目标产品因子矩阵,并将所述目标产品因子矩阵发送至目标客户端;
所述目标客户端利用所述目标产品因子矩阵和更新后的所述用户因子矩阵,计算所述用户对产品的预测评分值,并对预测评分值排序,将排序高的前N个产品推荐给所述用户。
2.根据权利要求1所述的产品推荐方法,其特征在于,所述根据更新后的产品因子矩阵参数确定目标产品因子矩阵,包括:
判断更新后的产品因子矩阵参数与更新前的产品因子矩阵参数/>的差值是否小于预设数值;
若所述差值大于预设数值,则将更新后的产品因子矩阵参数,重新发送至客户端继续进行迭代更新,直到所述差值小于所述预设数值为止;
若所述差值小于等于所述预设数值,则利用更新后的所述产品因子矩阵参数生成目标产品因子矩阵。
3.根据权利要求1所述的产品推荐方法,其特征在于,在所述将所述产品因子矩阵参数发送至多个客户端之前,还包括:
将所述产品因子矩阵参数进行同态加密。
4.根据权利要求1所述的产品推荐方法,其特征在于,所述服务器端基于剩余部分所述参数数据,利用所述产品因子矩阵参数和接收到的所有加权差值/>和归一化常量/>,对所述产品因子矩阵参数/>进行迭代更新,包括:
所述服务器端利用得到更新后的产品因子矩阵参数/>,i表示客户端数量,St表示客户端集合。
5.根据权利要求1所述的产品推荐方法,其特征在于,所述多个客户端根据所述产品因子矩阵参数和部分所述参数数据更新用户因子矩阵/>,包括:
基于所述用户因子矩阵和所述产品因子矩阵参数/>,根据公式一计算损失函数/>,所述公式一为:/>;
基于损失函数、所述用户因子矩阵/>的梯度和增益参数/>,根据公式二计算更新后的用户因子矩阵参数/>,所述公式二为:/>;
根据更新后的所述用户因子矩阵参数更新所述用户因子矩阵/>;
其中,t表示迭代次数、表示增益参数、/>表示上一次迭代后/>的梯度值、j=1,2,…,m,m为产品个数、/>表示用户/>对产品/>的评分值、/>表示正则化参数、vj表示产品因子矩阵的第j行、Fi为损失函数、ui t+1为经过迭代后的所述用户因子矩阵参数、/>为用户因子矩阵参数。
6.根据权利要求5所述的产品推荐方法,其特征在于,所述利用q-FedAvg算法计算加权差值∆i t和归一化常量hi t包括:
获取所述更新后的所述用户因子矩阵参数和所述参数数据中的预设步长/>,对损失函数/>进行E次随机梯度下降,得到模型参数/>;
基于所述模型参数,计算相邻产品因子矩阵参数差值/>:/>;
根据相邻产品因子矩阵参数差值∆Vi t,按以下q-FedAvg算法计算加权差值和归一化常量hi t:
;
;
其中,表示相邻产品因子矩阵参数差值、L表示Lipschitz常数、q表示q-FedAvg算法参数、k=1,2,…,E。
7.一种产品推荐***,其特征在于,所述产品推荐***包括服务器端和客户端;
所述服务器端包括:
接收模块,用于接收用户输入的参数数据;
初始化模块,用于经初始化处理得到产品因子矩阵和产品因子矩阵参数/>,并将所述产品因子矩阵参数/>和部分所述参数数据发送至多个客户端;
更新模块,基于剩余部分所述参数数据,利用所述产品因子矩阵参数和接收到的所有加权差值/>和归一化常量/>,对所述产品因子矩阵参数/>进行迭代更新;
确定模块,用于根据更新后的产品因子矩阵参数确定目标产品因子矩阵,并将所述目标产品因子矩阵发送至目标客户端;
所述客户端包括:
计算模块,用于根据所述产品因子矩阵参数和部分所述参数数据更新用户因子矩阵,并利用q-FedAvg算法计算加权差值∆i t和归一化常量hi t,将所述加权差值∆i t和归一化常量hi t返回给所述服务器端;
输出模块,利用所述目标产品因子矩阵和更新后的所述用户因子矩阵,计算所述用户对产品的预测评分值,并对预测评分值排序,将排序高的前N个产品推荐给所述用户。
8.根据权利要求7所述的产品推荐***,其特征在于,所述更新模块包括差值判断子模块、迭代子模块和生成子模块;
所述差值判断子模块,用于判断更新后的产品因子矩阵参数与更新前的产品因子矩阵参数/>的差值是否小于预设数值;
所述迭代子模块,用于若所述差值大于预设数值,则将更新后的产品因子矩阵参数,重新发送至客户端继续进行迭代更新,直到所述差值小于所述预设数值为止;
所述生成子模块,用于若所述差值小于等于所述预设数值,则利用更新后的所述产品因子矩阵参数生成目标产品因子矩阵。
9.一种计算机设备,其特征在于,所述计算机设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至6中任一所述的产品推荐方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至6中任一所述的产品推荐方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011504951.4A CN112733181B (zh) | 2020-12-18 | 2020-12-18 | 一种产品推荐方法、***、计算机设备及存储介质 |
PCT/CN2021/083745 WO2022126916A1 (zh) | 2020-12-18 | 2021-03-30 | 一种产品推荐方法、***、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011504951.4A CN112733181B (zh) | 2020-12-18 | 2020-12-18 | 一种产品推荐方法、***、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112733181A CN112733181A (zh) | 2021-04-30 |
CN112733181B true CN112733181B (zh) | 2023-09-15 |
Family
ID=75603180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011504951.4A Active CN112733181B (zh) | 2020-12-18 | 2020-12-18 | 一种产品推荐方法、***、计算机设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112733181B (zh) |
WO (1) | WO2022126916A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116109372B (zh) * | 2022-12-05 | 2023-09-29 | 淮阴工学院 | 基于多层次区块链的冷链物流产品联邦推荐方法及装置 |
CN117290609B (zh) * | 2023-11-24 | 2024-03-29 | 中国科学技术大学 | 产品数据推荐方法及产品数据推荐装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392049A (zh) * | 2017-07-26 | 2017-11-24 | 安徽大学 | 一种基于差分隐私保护的推荐方法 |
CN109510793A (zh) * | 2017-09-14 | 2019-03-22 | 蓝盾信息安全技术股份有限公司 | 一种基于协同过滤的安全事件预测技术 |
CN109670909A (zh) * | 2018-12-13 | 2019-04-23 | 南京财经大学 | 一种基于概率矩阵分解和特征融合的旅游产品推荐方法 |
CN111492391A (zh) * | 2017-12-22 | 2020-08-04 | 华为技术有限公司 | 用于生成个性化推荐的客户端、服务器和客户端-服务器*** |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10932003B2 (en) * | 2015-01-27 | 2021-02-23 | The Toronto-Dominion Bank | Method and system for making recommendations from binary data using neighbor-score matrix and latent factors |
US20170188102A1 (en) * | 2015-12-23 | 2017-06-29 | Le Holdings (Beijing) Co., Ltd. | Method and electronic device for video content recommendation |
CN113614750A (zh) * | 2019-03-26 | 2021-11-05 | 华为技术有限公司 | 联邦学习***中的机器学习模型的超参数优化装置和方法 |
CN111814985B (zh) * | 2020-06-30 | 2023-08-29 | 平安科技(深圳)有限公司 | 联邦学习网络下的模型训练方法及其相关设备 |
-
2020
- 2020-12-18 CN CN202011504951.4A patent/CN112733181B/zh active Active
-
2021
- 2021-03-30 WO PCT/CN2021/083745 patent/WO2022126916A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392049A (zh) * | 2017-07-26 | 2017-11-24 | 安徽大学 | 一种基于差分隐私保护的推荐方法 |
CN109510793A (zh) * | 2017-09-14 | 2019-03-22 | 蓝盾信息安全技术股份有限公司 | 一种基于协同过滤的安全事件预测技术 |
CN111492391A (zh) * | 2017-12-22 | 2020-08-04 | 华为技术有限公司 | 用于生成个性化推荐的客户端、服务器和客户端-服务器*** |
CN109670909A (zh) * | 2018-12-13 | 2019-04-23 | 南京财经大学 | 一种基于概率矩阵分解和特征融合的旅游产品推荐方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112733181A (zh) | 2021-04-30 |
WO2022126916A1 (zh) | 2022-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111814985B (zh) | 联邦学习网络下的模型训练方法及其相关设备 | |
CN112101172B (zh) | 基于权重嫁接的模型融合的人脸识别方法及相关设备 | |
CN110990871B (zh) | 基于人工智能的机器学习模型训练方法、预测方法及装置 | |
CN113435583B (zh) | 基于联邦学习的对抗生成网络模型训练方法及其相关设备 | |
CN112288097A (zh) | 联邦学习数据处理方法、装置、计算机设备及存储介质 | |
WO2021120677A1 (zh) | 一种仓储模型训练方法、装置、计算机设备及存储介质 | |
CN111966904B (zh) | 基于多用户画像模型的信息推荐方法和相关装置 | |
CN112733181B (zh) | 一种产品推荐方法、***、计算机设备及存储介质 | |
US20180366227A1 (en) | Information processing device, information processing system, and information processing method, and program | |
CN112766649B (zh) | 基于多评分卡融合的目标对象评价方法及其相关设备 | |
CN112508118B (zh) | 针对数据偏移的目标对象行为预测方法及其相关设备 | |
CN112035549B (zh) | 数据挖掘方法、装置、计算机设备及存储介质 | |
CN112529101B (zh) | 分类模型的训练方法、装置、电子设备及存储介质 | |
CN111062487A (zh) | 基于数据隐私保护的机器学习模型特征筛选方法及装置 | |
CN112529429B (zh) | 客户信息校验方法、装置、计算机设备及存储介质 | |
CN112418292A (zh) | 一种图像质量评价的方法、装置、计算机设备及存储介质 | |
CN112116008A (zh) | 基于智能决策的目标检测模型的处理方法、及其相关设备 | |
CN110889759A (zh) | 信用数据的确定方法、装置及存储介质 | |
CN110197078B (zh) | 数据处理方法、装置、计算机可读介质及电子设备 | |
CN117349899B (zh) | 基于遗忘模型的敏感数据处理方法、***及存储介质 | |
Aoyagi | A Bayesian learning coefficient of generalization error and Vandermonde matrix-type singularities | |
CN112101609B (zh) | 关于用户还款及时性的预测***、方法、装置及电子设备 | |
CN116432040B (zh) | 基于联邦学习的模型训练方法、装置、介质以及电子设备 | |
CN116776150A (zh) | 接口异常访问识别方法、装置、计算机设备及存储介质 | |
CN116578774A (zh) | 一种预估排序方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |