CN117745371A - 一种基于条件扩散模型的公平性推荐方法及*** - Google Patents

一种基于条件扩散模型的公平性推荐方法及*** Download PDF

Info

Publication number
CN117745371A
CN117745371A CN202311055527.XA CN202311055527A CN117745371A CN 117745371 A CN117745371 A CN 117745371A CN 202311055527 A CN202311055527 A CN 202311055527A CN 117745371 A CN117745371 A CN 117745371A
Authority
CN
China
Prior art keywords
matrix
model
user
article
recommendation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311055527.XA
Other languages
English (en)
Inventor
张金山
沈根行
谌明
尹建伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
School of Software Technology of ZJU
Original Assignee
School of Software Technology of ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by School of Software Technology of ZJU filed Critical School of Software Technology of ZJU
Priority to CN202311055527.XA priority Critical patent/CN117745371A/zh
Publication of CN117745371A publication Critical patent/CN117745371A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于条件扩散模型的公平性推荐方法,包括获取推荐***的原始数据集,经筛选、编码、过滤,进行数据归一化处理后得到用户‑物品交互矩阵;将用户‑物品交互矩阵通过扩散模型处理得到初始的推荐矩阵,通过降低模型总损失函数值对扩散模型的参数进行训练,当模型总损失函数值降至最小值时扩散模型的参数收敛,由此时的模型参数优化扩散模型得到训练后的用户‑物品评分矩阵;根据训练后的用户‑物品评分矩阵中的物品评分进行排序,为用户推荐物品评分高的物品;本发明还提供了一种基于条件扩散模型的公平性推荐***;本发明的优点在于实现了推荐效用并保证推荐的公平性,综合考虑了推荐的公平性,效用目标以及公平性目标。

Description

一种基于条件扩散模型的公平性推荐方法及***
技术领域
本发明涉及推荐算法应用技术领域,尤其是涉及一种基于条件扩散模型的公平性推荐方法及***。
背景技术
随着互联网技术的迅速发展,信息呈爆发式增长,尤其是在电子商务领域中,对于信息过载导致的问题越来越严重;以电商平台上的商品信息为例,消费者希望能从海量的、品类繁杂的商品中快速找到自己感兴趣的商品,生产者渴望让自己生产的商品能脱颖而出,受到广大用户的青睐和关注,因此推荐***应运而生;推荐***的核心是推荐算法,推荐算法是基于用户的搜索、点击、浏览等行为信息建模用户的兴趣偏好,一方面辅助用户发现对自己更有价值的信息,另一方面将优质的信息呈现在有相应兴趣偏好的用户面前,从而实现消费者、生产者与信息平台之间的多方共赢。
在传统的推荐***中,往往存在偏好捕捉和推荐偏差问题,导致某些物品更大程度地受益于算法;这种现象引发了严重的马太效应,即那些当前曝光度高的物品将得到更多的推荐,而冷门物品则得到更少的推荐机会。因此,在设计推荐算法保障推荐效用的同时需要考虑算法的推荐公平性,需要平衡各物品的曝光情况,防止对物品的不公平状况出现。
发明内容
本发明所要解决的技术问题是提供一种基于条件扩散模型的公平性推荐方法及***,具有良好的推荐效用,同时保证推荐的公平性,缓解马太效应。
本发明解决上述技术问题所采用的技术方案为:
一种基于条件扩散模型的公平性推荐方法,包括:
S1.获取推荐***的原始数据集,经筛选、编码、过滤后构建用户-物品矩阵,对所述用户-物品矩阵进行数据归一化处理后得到用户-物品交互矩阵;
S2.模型构建与训练:将所述用户-物品交互矩阵通过扩散模型处理得到初始的推荐矩阵,其中,扩散模型包括条件加噪和条件去噪的处理过程;基于用户-物品交互矩阵和初始的推荐矩阵构建模型总损失函数,通过降低模型总损失函数值对扩散模型的参数进行训练,当模型总损失函数值降至最小值时扩散模型的参数收敛,将此时的扩散模型的参数作为训练后的模型参数,由训练后的模型参数得到优化的扩散模型,由优化的扩散模型对当前的推荐矩阵进行处理得到最终的推荐矩阵,将最终的推荐矩阵作为训练后的用户-物品评分矩阵,根据训练后的用户-物品评分矩阵获取最终的物品评分;
S3.根据训练后的用户-物品评分矩阵中最终的物品评分进行排序,为用户推荐物品评分高的物品。
所述步骤S1的具体过程是:
S11.获取含有用户、物品以及用户对物品的评分的原始数据集,其中用户对物品的评分的范围为0-5;
S12.根据用户对物品的评分,选取所述原始数据集中的评分大于等于4的物品和所述物品相对应的用户,建立物品-用户对;然后对所述物品-用户对中的物品和用户进行编码,编码完成后过滤掉访问操作的次数小于10的用户和被访问操作的次数小于10的物品,反复过滤,得到多个用户-物品对的集合;在所述多个用户-物品对的集合中找到访问操作的次数均大于等于10的物品和用户,构建得到用户-物品矩阵;对所述用户-物品矩阵进行数据归一化处理,限定在[0,1]之间,得到用户-物品交互矩阵。
所述访问操作包括用户对物品的搜索或点击或浏览或购买的行为。
所述步骤S2的具体过程是:
S21.对用户-物品交互矩阵进行条件加噪:令初始的用户-物品交互矩阵为x0,T为加噪总步数,x0经过T步加噪后得到加噪后的模型矩阵,记为xT;将对x0加噪过程中当前一步加噪后的模型矩阵记为xt,xt=γx’t+x0,t表示对x0加噪过程中当前的某一步,1≤t≤T,其中γ为超参数,表示控制加噪的比率系数,x′t表示对xt-1加高斯噪声后得到的噪声矩阵,xt-1表示第t步加噪前的模型矩阵,/>表示均值为/>方差为βtI的高斯分布,I表示单位矩阵,βt是为高斯分布方差的超参数,表示高斯分布的噪声比率;
判断t是否等于T,若相等,则xt=xT,执行步骤S22;若t小于T,则令t=t+1,继续加噪,直至t=T,则xt=xT,执行步骤S22;
S22.对加噪后的模型矩阵xT进行条件去噪:加噪后的模型矩阵xT采用去噪模型经过T步去噪得到去噪后的模型矩阵,记为去噪模型采用六层全连接神经网络,隐藏层维度为200;将对xT去噪过程中当前一步去噪前的模型矩阵记为/>t’为模型矩阵的去噪过程中的当前某一步,1≤t’≤T,当前某一步去噪后的模型矩阵记为/> 其中,reparemeterize(μt’-1,σt’-1)表示重参数函数,μt’-1,σt’-1表示/>的概率分布,μt’-1表示均值,σt’-1表示标准差,μt’-1,/> Model(·)表示去噪模型,/>表示在去噪过程中对/>去噪得到的噪声矩阵,其中,γ为超参数,表示控制去噪矩阵的比率参数,与加噪过程控制保持一致;
判断t’-1是否等于1,若相等,则执行步骤S23;若不相等,则令t’=t’-1,继续去噪,直至t’-1=1,则/>执行步骤S23;
S23.基于和x0构建MSE损失函数,得到推荐的效用损失函数/> 其中MSELoss(·)表示均方误差MSE损失函数,/>表示/>的二范数的平方;
将推荐策略下物品v的位置偏差记为/>
其中,πk表示用户推荐去噪后的模型矩阵中评分最高的前k个物品的推荐策略,则/>表示对用户u推荐去噪后的模型矩阵/>中评分最高的前k个物品,/>为针对用户u推荐去噪后的模型矩阵/>中评分最高的前k个物品中物品v的评分值,物品v表示第v个物品,1≤v≤k,/>为针对用户u推荐去噪后的模型矩阵/>中评分最高的前k个物品中物品i的评分值,1≤i≤k,tanh(·)表示双曲正切函数,物品v、物品i均属于/>k为用户推荐评分前k个的物品,∈表示极小值,otherwise表示其余情况;
采用曝光度计算推荐策略πk下物品v对所有用户的平均位置偏差,曝光度
其中U表示用户集合,m表示用户数;
令L表示全部物品集合,计算得到个体曝光差异,个体曝光差异
其中v,v’,v”均表示全部物品集合L中的任一物品;
令k=|L|,得到公平性损失函数,公平性损失函数其中,|L|表示全部物品集合的总数目,推荐策略π|L|表示为用户推荐L个物品的一个推荐策略,具体值等于/>
基于推荐的效用损失函数和公平性损失函数/>计算得到模型总损失函数,/>其中λ表示权重参数,用于调节两个损失函数的权重比例,λ随着当前轮计算IED的值随时变化,/>R1表示预设的第一目标值,为期望控制IED的上区间范围,R2表示预设的第二目标值,为期望控制IED的下区间范围;
S24.模型优化与参数更新;
将扩散模型中步骤S22首次得到的去噪后的模型矩阵作为初始的推荐模型,通过降低模型总损失函数值训练扩散模型的参数,当/>降至最小值时,将此时的扩散模型的参数作为训练后的模型参数;由训练后的模型参数得到优化的扩散模型,由优化的扩散模型对当前的推荐矩阵进行处理得到最终的推荐矩阵,将最终的模型矩阵作为训练后的用户-物品评分矩阵;
S25.将用户数N乘以物品数M作为训练后的用户-物品评分矩阵的维度,用id表示用户的序号,jd表示物品的序号,则将训练后的用户-物品评分矩阵中第id行第jd列的值作为用户id对物品jd的评分;根据训练后的用户-物品评分矩阵获取用户-物品评分矩阵中最终的物品评分。
一种基于条件扩散模型的公平性推荐***,包括:
用户-物品矩阵获取模块,用于获取推荐***的原始数据集,筛选、编码、过滤、数据归一化处理后得到用户-物品交互矩阵,获取用户-物品的交互数据;
模型构建与训练模块,用于将所述用户-物品交互矩阵通过扩散模型处理得到初始的推荐矩阵,其中,扩散模型包括条件加噪和条件去噪的处理过程;基于用户-物品交互矩阵和初始的推荐矩阵构建模型总损失函数,通过降低模型总损失函数值对扩散模型的参数进行训练,当模型总损失函数值降至最小值时扩散模型的参数收敛,将此时的扩散模型的参数作为训练后的模型参数,由训练后的模型参数得到优化的扩散模型,由优化的扩散模型对当前的推荐矩阵进行处理得到最终的推荐矩阵,将最终的推荐矩阵作为训练后的用户-物品评分矩阵,根据训练后的用户-物品评分矩阵获取最终的物品评分;
用户-物品评分推荐模块,用于根据所述训练后的用户-物品评分矩阵中最终的物品评分进行排序,为用户推荐评分高的物品。
与现有技术相比,本发明的优点在于:
(1)本发明提供了一种基于条件扩散模型的公平性推荐方法和***,将推荐问题转化为矩阵的还原生成问题,即通过当前用户和物品的协同矩阵生成未来的用户-物品评分矩阵;在实现推荐效用的同时保证推荐的公平性。
(2)本发明采用一种基于激活函数tanh的可微函数来替代排序函数rank,解决了公平性损失在反向传播中梯度不存在的问题,容错性好。
(3)本发明提供了一种基于条件扩散模型的公平性推荐方法和***,采用动态可变的参数来控制推荐效用损失以及公平性损失,使得推荐的公平性能够处于要求的范围内,综合考虑了推荐的公平性,优化效用目标以及公平性目标。
(4)将本发明与本领域其它算法于Amazon-Beauty数据集上就推荐效用指标和公平性指标进行对比,发现本发明的Recall和NDCG的数值较对比的基线方法(BPR、CFGAN、IRGAN)高,且IED指标的数值较低,可以得出本发明在Amazon-Beauty数据集上各个指标均优于对比的基线方法,说明本发明的推荐方法更加准确公平。
附图说明
图1为本发明一种基于条件扩散模型的公平性推荐方法及***的条件加噪过程图;
图2为本发明一种基于条件扩散模型的公平性推荐方法及***的条件去噪过程图;
图3为本发明一种基于条件扩散模型的公平性推荐方法及***的算法流程图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明基于条件扩散模型设计了一种生成式推荐方法和***,同时整合考虑推荐的公平性,优化效用目标以及公平性目标;本发明将推荐问题可以转化为矩阵的还原生成问题,即通过当前用户和物品的协同矩阵生成未来的用户-物品评分矩阵。
实施例一:
一种基于条件扩散模型的公平性推荐方法
基于传统的协同过滤进行改进,使物品推荐的公平性得到保障,本发明基于条件扩散模型设计了一种生成式推荐方法,具体为:
S1.获取推荐***的原始数据集,经筛选、编码、过滤的预处理过程构建用户-物品矩阵,再进行数据归一化处理后得到用户-物品交互矩阵;
进一步地,S11.获取原始数据集,原始数据集包含user、item、rating三列,分别表示用户,物品以及用户对该物品的评分,评分属于0-5;
S12.根据用户对物品的评分,选取原始数据集中的评分大于等于4的物品和该物品相对应的用户,建立物品-用户对;然后对物品-用户对中的物品和用户进行编码,编码后对数据进行k-core过滤(k=10),即编码完成后过滤掉对物品的访问操作的次数小于10的用户,和被用户访问操作的次数小于10的物品,反复过滤,得到包含多个用户-物品对的集合;在用户-物品对的集合中找到物品和用户的数量均大于等于10条的记录,构建得到用户-物品矩阵;对用户-物品矩阵进行数据归一化处理,限定在[0,1]之间,得到用户-物品交互矩阵;具体地,如果用户与物品的交互存在于用户-物品对集中,则矩阵对应位置置为1,此外置为0;最终得到维度为用户数*物品数的0,1矩阵,表示用户-物品的交互关系;
其中,访问操作包括用户对物品的搜索、点击、浏览或购买的行为。
S2.模型构建与训练:将所述用户-物品交互矩阵通过扩散模型处理得到初始的推荐矩阵,其中,扩散模型包括条件加噪和条件去噪的处理过程;基于用户-物品交互矩阵和初始的推荐矩阵构建模型总损失函数,通过降低模型总损失函数值对扩散模型的参数进行训练,当模型总损失函数值降至最小值时扩散模型的参数收敛,将此时的扩散模型的参数作为训练后的模型参数,由训练后的模型参数得到优化的扩散模型,由优化的扩散模型对当前的推荐矩阵进行处理得到最终的推荐矩阵,将最终的推荐矩阵作为训练后的用户-物品评分矩阵,根据训练后的用户-物品评分矩阵获取最终的物品评分;
S21.对用户-物品交互矩阵进行条件加噪:模型的前向过程包括扩散加噪的过程以及加条件的过程,模型的前向过程由T步的条件加噪过程构成,即T为加噪总步数,令初始的用户-物品交互矩阵为x0,x0经过T步加噪后得到加噪后的模型矩阵xT;将对x0加噪过程中当前一步加噪后的模型矩阵记为xt,t表示对x0加噪过程中当前的某一步,1≤t≤T,xt-1表示第t步加噪前的模型矩阵,前向过程可以视为马尔科夫过程,即矩阵xt由矩阵xt-1得到,其中由xt-1到xt的单步条件加噪过程为:
xt=γx’t+x0
其中表示均值为/>方差为βtI的高斯分布,I表示单位矩阵,βt是为高斯分布方差的超参数,表示高斯分布的噪声比率,随着t的不断增大,βt趋近于1;γ为超参数,控制加噪矩阵的比率,如超参数γ具体值为0.1;首先对第t步加噪前的模型矩阵xt-1加高斯噪声,得到噪声矩阵x’t,而后对噪声矩阵x’t乘以一定比率γ并加上xo得到第t步的加噪后的模型矩阵xt
判断t是否等于T,若相等,则xt=xT,执行步骤S22;若t小于T,则令t=t+1,继续加噪,直至t=T,则xt=xT,执行步骤S22;
S22.对加噪后的模型矩阵xT进行条件去噪:加噪后的模型矩阵xT采用去噪模型经过T步去噪得到去噪后的模型矩阵,记为将对xT去噪过程中当前一步去噪前的模型矩阵记为/>t’为模型矩阵的去噪过程中的当前某一步,1≤t’≤T,当前某一步去噪后的模型矩阵记为/>去噪模型采用6层的全连接神经网络,隐藏层维度均为200,去噪模型的输入维度为物品数,输出维度为物品数*2(分别表示重建的均值和方差),每一层之间有激活函数PReLU函数,PReLU激活函数的函数表达式为f(x)=max(0,x)+w*min(0,x),其中w表示一个可学习的参数,去噪阶段模型学习逆扩散的概率分布,则:
其中,reparemeterize(μt’-1,σt’-1)表示重参数函数,μt’-1,σt’-1表示的概率分布,μt’-1表示均值,σt’-1表示标准差,Model(·)表示去噪模型,/>表示在去噪过程中对/>去噪得到的噪声矩阵,其中,γ为超参数,表示控制去噪矩阵的比率参数,与加噪过程控制保持一致;
判断t’-1是否等于1,若相等,则执行步骤S23;若不相等,则令t’=t’-1,继续去噪,直至t’-1=1,则/>执行步骤S23;
S23.构建损失函数,损失函数包含两部分,分别为效用损失以及公平性损失。效用上构建MSE损失函数,公平性上构建IED损失;
为了实现在协同过滤任务上优化推荐算法,实现推荐效用的同时保证推荐***的公平性,公平性推荐算法的评价指标除了包括针对性能的评价指标精度、召回率以及NDCG(Normalized Discounted Cumulative Gain,标准化折扣累计增益),还包括针对公平性的评价指标IED(Individual Exposure Disparity,个体曝光差异)。为了更好地解决推荐***的公平性问题,使用个体曝光度来描述推荐算法的不公平程度,个体曝光差异越高说明推荐算法对于物品并未展现出公平,个体曝光差异需要尽可能的低。
基于和x0构建MSE损失函数,得到推荐的效用损失函数/> 其中MSELoss(·)表示均方误差MSE损失函数,/>表示/>的二范数的平方;
将推荐策略下物品v的位置偏差记为/>
其中,πk表示用户去噪后的模型矩阵中评分最高的前k个物品的推荐策略,则/>表示对用户u推荐去噪后的模型矩阵/>中评分最高的前k个物品,/>为针对用户u推荐去噪后的模型矩阵/>中评分最高的前k个物品中物品v的评分值,物品v表示第v个物品,1≤v≤k,/>为针对用户u推荐去噪后的模型矩阵/>中评分最高的前k个物品中物品i的评分值,1≤i≤k,tanh(·)表示双曲正切函数,物品v、物品i均属于/>k为用户推荐评分前k个的物品,∈表示极小值,otherwise表示其余情况;
由于IED计算需要计算位置偏差涉及排序函数rank,其不可微的特性导致无法神经网络反向传播;因而设计可微函数替代排序函数rank。
采用曝光度计算推荐策略πk下物品v对所有用户的平均位置偏差,曝光度
其中U表示用户集合,m表示用户数;
令L表示全部物品集合,计算得到个体曝光差异,个体曝光差异
其中v,v’,v”均表示全部物品集合L中的任一物品;
令k=|L|,得到公平性损失函数,公平性损失函数其中,|L|表示全部物品集合的总数目,推荐策略π|L|表示为用户推荐L个物品的一个推荐策略,具体值等于/>
基于推荐的效用损失函数和公平性损失函数/>计算得到模型总损失函数,/>其中λ表示权重参数,用于调节两个损失函数的权重比例,λ随着当前轮计算IED的值随时变化,/>R1表示预设的第一目标值,为期望控制IED的上区间范围,R2表示预设的第二目标值,为期望控制IED的下区间范围;
λ用于调节两个损失函数的权重,其中权重参数λ随着当前轮计算IED的值随时变化,如当前IED值大于目标值1,则λ乘2,如当前IED值小于目标值2,则λ除以2;其中目标值1为期望控制IED的上区间范围,目标值2为期望控制IED的下区间范围,通过设定目标值,令训练后的IED值处于区间[目标值2,目标值1]之间;在保证效用的同时优化公平性。
S24.模型优化与参数更新;
将扩散模型中步骤S22首次得到的去噪后的模型矩阵作为初始的推荐模型,通过降低模型总损失函数值训练扩散模型的参数,当/>降至最小值时,将此时的扩散模型的参数作为训练后的模型参数,由训练后的模型参数得到优化的扩散模型,由优化的扩散模型对当前的推荐矩阵进行处理得到最终的推荐矩阵,将最终的模型矩阵作为训练后的用户-物品评分矩阵;
S25.将用户数N乘以物品数M作为训练后的用户-物品评分矩阵的维度,用id表示用户的序号,jd表示物品的序号,则将训练后的用户-物品评分矩阵中第id行第jd列的值作为用户id对物品jd的评分;根据训练后的用户-物品评分矩阵获取用户-物品评分矩阵中最终的物品评分。
S3.根据训练后的用户-物品评分矩阵中最终的物品评分进行排序,为用户推荐物品评分高的物品。
对比实施例:
将本发明与本领域其它算法于Amazon-Beauty数据集上就推荐效用指标和公平性指标进行对比,其对比结果如下表表1所示,其中Recall和NDCG为推荐效用指标,IED为公平性指标。
表1本发明与本领域其它算法于Amazon-Beauty数据集上就推荐效用指标和公平性指标的对比表
其中Recall@K测量推荐K个项目中的用户单击次数与整个单击集的比例;
NDCG@K为根据准确推荐的项目的排名来区分它们的共享,这意味着如果推荐的验证集POI排名越靠前,就能得到越高的NDCG;
其中RK(u)表示为用户u推荐的TOP-K个POI,T(u)表示验证集中用户u真实偏好的POI。
结果分析:从表1的结果可以得出本发明在该数据集上各个指标均优于对比的基线方法(BPR、CFGAN、IRGAN);效用指标Recall和NDCG越高表示推荐的效果越好,指标IED表示不公平程度,其值越大表明当前的推荐策略越不公平,本发明的Recall和NDCG的数值较对比的基线方法高,而IED指标的数值较低,说明本发明的推荐方法更加准确公平。
实施例二
本发明还公开了一种基于条件扩散模型的公平性推荐***,包括:
用户-物品矩阵获取模块,用于获取推荐***的原始数据集,筛选、编码、过滤、数据归一化处理后得到用户-物品交互矩阵,获取用户-物品的交互数据;
模型构建与训练模块,用于将所述用户-物品交互矩阵通过扩散模型处理得到初始的推荐矩阵,其中,扩散模型包括条件加噪和条件去噪的处理过程;基于用户-物品交互矩阵和初始的推荐矩阵构建模型总损失函数,通过降低模型总损失函数值对扩散模型的参数进行训练,当模型总损失函数值降至最小值时扩散模型的参数收敛,将此时的扩散模型的参数作为训练后的模型参数,由训练后的模型参数得到优化的扩散模型,由优化的扩散模型对当前的推荐矩阵进行处理得到最终的推荐矩阵,将最终的推荐矩阵作为训练后的用户-物品评分矩阵,根据训练后的用户-物品评分矩阵获取最终的物品评分;
用户-物品评分推荐模块,用于根据所述训练后的用户-物品评分矩阵中最终的物品评分进行排序,为用户推荐评分高的物品。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (5)

1.一种基于条件扩散模型的公平性推荐方法,其特征在于,包括:
S1.获取推荐***的原始数据集,经筛选、编码、过滤后构建用户-物品矩阵,对所述用户-物品矩阵进行数据归一化处理后得到用户-物品交互矩阵;
S2.模型构建与训练:将所述用户-物品交互矩阵通过扩散模型处理得到初始的推荐矩阵,其中,扩散模型包括条件加噪和条件去噪的处理过程;基于用户-物品交互矩阵和初始的推荐矩阵构建模型总损失函数,通过降低模型总损失函数值对扩散模型的参数进行训练,当模型总损失函数值降至最小值时扩散模型的参数收敛,将此时的扩散模型的参数作为训练后的模型参数,由训练后的模型参数得到优化的扩散模型,由优化的扩散模型对当前的推荐矩阵进行处理得到最终的推荐矩阵,将最终的推荐矩阵作为训练后的用户-物品评分矩阵,根据训练后的用户-物品评分矩阵获取最终的物品评分;
S3.根据训练后的用户-物品评分矩阵中最终的物品评分进行排序,为用户推荐物品评分高的物品。
2.根据权利要求1所述的一种基于条件扩散模型的公平性推荐方法,其特征在于,所述步骤S1的具体过程是:
S11.获取含有用户、物品以及用户对物品的评分的原始数据集,其中用户对物品的评分的范围为0-5;
S12.根据用户对物品的评分,选取所述原始数据集中的评分大于等于4的物品和所述物品相对应的用户,建立物品-用户对;然后对所述物品-用户对中的物品和用户进行编码,编码完成后过滤掉访问操作的次数小于10的用户和被访问操作的次数小于10的物品,反复过滤,得到多个用户-物品对的集合;在所述多个用户-物品对的集合中找到访问操作的次数均大于等于10的物品和用户,构建得到用户-物品矩阵;对所述用户-物品矩阵进行数据归一化处理,限定在[0,1]之间,得到用户-物品交互矩阵。
3.根据权利要求2所述的一种基于条件扩散模型的公平性推荐方法,其特征在于,所述访问操作包括用户对物品的搜索或点击或浏览或购买的行为。
4.根据权利要求1所述的一种基于条件扩散模型的公平性推荐方法,其特征在于,所述步骤S2的具体过程是:
S21.对用户-物品交互矩阵进行条件加噪:令初始的用户-物品交互矩阵为x0,T为加噪总步数,x0经过T步加噪后得到加噪后的模型矩阵,记为xT;将对x0加噪过程中当前一步加噪后的模型矩阵记为xt,xt=γx’t+x0,t表示对x0加噪过程中当前的某一步,1≤t≤T,其中γ为超参数,表示控制加噪的比率系数,x't表示对xt-1加高斯噪声后得到的噪声矩阵,xt-1表示第t步加噪前的模型矩阵,/>表示均值为方差为βtI的高斯分布,I表示单位矩阵,βt是为高斯分布方差的超参数,表示高斯分布的噪声比率;
判断t是否等于T,若相等,则xt=xT,执行步骤S22;若t小于T,则令t=t+1,继续加噪,直至t=T,则xt=xT,执行步骤S22;
S22.对加噪后的模型矩阵xT进行条件去噪:加噪后的模型矩阵xT采用去噪模型经过T步去噪得到去噪后的模型矩阵,记为去噪模型采用六层全连接神经网络,隐藏层维度为200;将对xT去噪过程中当前一步去噪前的模型矩阵记为/>t’为模型矩阵的去噪过程中的当前某一步,1≤t’≤T,当前某一步去噪后的模型矩阵记为/> 其中,reparemeterize(μt’-1t’-1)表示重参数函数,μt’-1t’-1表示/>的概率分布,μt’-1表示均值,σt’-1表示标准差,/> Model(·)表示去噪模型,/>表示在去噪过程中对/>去噪得到的噪声矩阵,其中,γ为超参数,表示控制去噪矩阵的比率参数,与加噪过程控制保持一致;
判断t’-1是否等于1,若相等,则执行步骤S23;若不相等,则令t’=t’-1,继续去噪,直至t’-1=1,则/>执行步骤S23;
S23.基于和x0构建MSE损失函数,得到推荐的效用损失函数/> 其中MSELoss(·)表示均方误差MSE损失函数,/>表示/>的二范数的平方;
将推荐策略下物品v的位置偏差记为/>
其中,πk表示用户推荐去噪后的模型矩阵中评分最高的前k个物品的推荐策略,则/>表示对用户u推荐去噪后的模型矩阵/>中评分最高的前k个物品,/>为针对用户u推荐去噪后的模型矩阵/>中评分最高的前k个物品中物品v的评分值,物品v表示第v个物品,1≤v≤k,/>为针对用户u推荐去噪后的模型矩阵/>中评分最高的前k个物品中物品i的评分值,1≤i≤k,tanh(·)表示双曲正切函数,物品v、物品i均属于/>k为用户推荐评分前k个的物品,∈表示极小值,otherwise表示其余情况;
采用曝光度计算推荐策略πk下物品v对所有用户的平均位置偏差,曝光度
其中U表示用户集合,m表示用户数;
令L表示全部物品集合,计算得到个体曝光差异,个体曝光差异
其中v,v’,v”均表示全部物品集合L中的任一物品;
令k=|L|,得到公平性损失函数,公平性损失函数其中,|L|表示全部物品集合的总数目,推荐策略π|L|表示为用户推荐L个物品的一个推荐策略,具体值等于/>
基于推荐的效用损失函数和公平性损失函数/>计算得到模型总损失函数,其中λ表示权重参数,用于调节两个损失函数的权重比例,λ随着当前轮计算IED的值随时变化,/>R1表示预设的第一目标值,为期望控制IED的上区间范围,R2表示预设的第二目标值,为期望控制IED的下区间范围;
S24.模型优化与参数更新;
将扩散模型中步骤S22首次得到的去噪后的模型矩阵作为初始的推荐模型,通过降低模型总损失函数值训练扩散模型的参数,当/>降至最小值时,将此时的扩散模型的参数作为训练后的模型参数;由训练后的模型参数得到优化的扩散模型,由优化的扩散模型对当前的推荐矩阵进行处理得到最终的推荐矩阵,将最终的模型矩阵作为训练后的用户-物品评分矩阵;
S25.将用户数N乘以物品数M作为训练后的用户-物品评分矩阵的维度,用id表示用户的序号,jd表示物品的序号,则将训练后的用户-物品评分矩阵中第id行第jd列的值作为用户id对物品jd的评分;根据训练后的用户-物品评分矩阵获取用户-物品评分矩阵中最终的物品评分。
5.一种基于条件扩散模型的公平性推荐***,其特征在于,包括:
用户-物品矩阵获取模块,用于获取推荐***的原始数据集,筛选、编码、过滤、数据归一化处理后得到用户-物品交互矩阵,获取用户-物品的交互数据;
模型构建与训练模块,用于将所述用户-物品交互矩阵通过扩散模型处理得到初始的推荐矩阵,其中,扩散模型包括条件加噪和条件去噪的处理过程;基于用户-物品交互矩阵和初始的推荐矩阵构建模型总损失函数,通过降低模型总损失函数值对扩散模型的参数进行训练,当模型总损失函数值降至最小值时扩散模型的参数收敛,将此时的扩散模型的参数作为训练后的模型参数,由训练后的模型参数得到优化的扩散模型,由优化的扩散模型对当前的推荐矩阵进行处理得到最终的推荐矩阵,将最终的推荐矩阵作为训练后的用户-物品评分矩阵,根据训练后的用户-物品评分矩阵获取最终的物品评分;用户-物品评分推荐模块,用于根据所述训练后的用户-物品评分矩阵中最终的物品评分进行排序,为用户推荐评分高的物品。
CN202311055527.XA 2023-08-22 2023-08-22 一种基于条件扩散模型的公平性推荐方法及*** Pending CN117745371A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311055527.XA CN117745371A (zh) 2023-08-22 2023-08-22 一种基于条件扩散模型的公平性推荐方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311055527.XA CN117745371A (zh) 2023-08-22 2023-08-22 一种基于条件扩散模型的公平性推荐方法及***

Publications (1)

Publication Number Publication Date
CN117745371A true CN117745371A (zh) 2024-03-22

Family

ID=90278143

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311055527.XA Pending CN117745371A (zh) 2023-08-22 2023-08-22 一种基于条件扩散模型的公平性推荐方法及***

Country Status (1)

Country Link
CN (1) CN117745371A (zh)

Similar Documents

Publication Publication Date Title
CN108648049B (zh) 一种基于用户行为区别建模的序列推荐方法
Guan et al. Matrix factorization with rating completion: An enhanced SVD model for collaborative filtering recommender systems
CN109543109B (zh) 一种融合时间窗技术和评分预测模型的推荐算法
CN107563841B (zh) 一种基于用户评分分解的推荐***
CN111127142B (zh) 一种基于广义神经注意力的物品推荐方法
CN109785062B (zh) 一种基于协同过滤模型的混合神经网络推荐***
CN113158024B (zh) 一种纠正推荐***流行度偏差的因果推理方法
CN113918833B (zh) 通过社交网络关系的图卷积协同过滤实现的产品推荐方法
CN111681084B (zh) 一种基于社交关系影响因素的电商平台推荐方法
CN110222838B (zh) 文档排序方法、装置、电子设备及存储介质
CN116541607B (zh) 基于商品检索数据分析的智能推荐方法
CN111339435B (zh) 一种基于潜在因子的矩阵分解补全混合推荐方法
CN113918832A (zh) 基于社交关系的图卷积协同过滤推荐***
CN111695024A (zh) 对象评估值的预测方法及***、推荐方法及***
CN113762468A (zh) 一种基于缺失数据的分类模型生成方法
Li Accurate digital marketing communication based on intelligent data analysis
CN113918834A (zh) 融合社交关系的图卷积协同过滤推荐方法
CN110413880B (zh) 基于用户人格分层结构的单分类协同过滤方法
CN108491477B (zh) 基于多维云和用户动态兴趣的神经网络推荐方法
CN112381620A (zh) 产品推荐方法、装置、电子设备及计算机可读存储介质
CN115809374B (zh) 纠正推荐***主流偏差的方法、***、设备及存储介质
CN108763515B (zh) 一种基于概率矩阵分解的时间敏感个性化推荐方法
CN111198991A (zh) 一种基于信任度和专家用户的协同过滤推荐方法
CN108681947B (zh) 基于物品的时间关联度和覆盖度的协同过滤推荐方法
CN116523597A (zh) 大数据云熵挖掘的电子商务定制化推荐方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination