CN113190751B - 一种融合关键词生成的推荐方法 - Google Patents
一种融合关键词生成的推荐方法 Download PDFInfo
- Publication number
- CN113190751B CN113190751B CN202110506393.3A CN202110506393A CN113190751B CN 113190751 B CN113190751 B CN 113190751B CN 202110506393 A CN202110506393 A CN 202110506393A CN 113190751 B CN113190751 B CN 113190751B
- Authority
- CN
- China
- Prior art keywords
- user
- product
- vector
- word
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种融合关键词生成的推荐算法,首先获取用户的历史点击行为序列和对应产品标题的关键词序列,然后将所述用户历史点击行为序列输入到用户偏好模型中,学习用户的特征表示向量;接着将产品标题关键词序列数据输入到seq2seq模型中,得到标题关键词序列的上下文向量;最后根据用户最终特征向量计算用户购买各种产品的概率,根据用户购买产品的概率对用户进行产品推荐。
Description
技术领域
本发明涉及智能推荐技术领域,主要涉及一种融合关键词生成的推荐方法。
背景技术
推荐***作为解决“信息过载”问题的有效方法,近年来已经成为学术界和工业界的关注热点,同时各种各样的推荐***亦随之在电子商务、社交网站、电子旅游和互联网广告等大量领域得到了广泛应用,并展示出优越的效果与前景。个性化推荐***通过对用户行为数据进行分析、建模,预测用户的购物意向,为用户推荐可能感兴趣的产品。
常用的推荐方法主要包含基于内容推荐、协同过滤推荐、基于关联规则推荐以及混合推荐等。然而,现有的推荐方法通常根据用户的点击序列捕获用户的购买意图,由于电商网站中包含大规模的产品,这些方法会造成与用户购买意图相关的其他产品被忽略。也就是说,存在着具有不同ID标识的相似商品,这些商品能够满足用户相同需求。我们认为,用户点击序列中的文本信息(例如,商品标题中包含的关键词)可以看作额外的监督信号,来学习相似商品中包含的共同意图。通过在多任务学习方法将产品推荐与商品关键字生成任务相结合,可以缓解训练过程中的上述问题。
发明内容
发明目的:为了解决上述背景技术中存在的问题,本发明提供了一种融合关键词生成的推荐方法,本发明采用的技术方案如下:
步骤S1、获取用户的历史点击行为序列和对应产品标题的关键词序列;
将用户购买的产品vp作为预测目标产品,获取用户历史点击行为序列V=[(v1,t1),(v2,t2),…,(vn,tn)],其中ti对应于产品vi点击的时间戳;从用户历史点击行为对应的产品标题中,获取关键词序列;按照词频,选取前N个关键词组成的关键词序列W=[w1,w2,…,wN];
步骤S2、将所述用户历史点击行为序列V=[(v1,t1),(v2,t2),…,(vn,tn)]输入到用户偏好模型中,学习用户的特征表示向量sn;
步骤S3、将产品标题关键词序列数据W=[w1,w2,…,wN]输入到seq2seq模型中,得到标题关键词序列的上下文向量ct;
步骤S4、整合并计算步骤S2得到的用户的特征表示向量sn和步骤S3得到的标题关键词序列在步骤t=0时的上下文向量c0,得到用户的最终特征表示向量cu如下:
cu=Wu[sn,c0]
其中Wu为可学习参数;
步骤S5、根据所述用户最终特征向量计算用户购买各种产品的概率,根据用户购买产品的概率对用户进行产品推荐。
进一步地,所述步骤S2中学习用户的特征表示向量sn具体步骤如下:
步骤S2.1、创建一个可学习的产品嵌入矩阵Ep,为每一个产品vi分配一个嵌入向量vi;
步骤S2.2、采用时间感知自注意力机制,学习用户行为中不同产品之间的相似度,并采用加权求和得到产品的表示向量;将点击2个产品之间的时间间隔rij=|ti-tj|作为指数获取时间间隔嵌入向量rij如下:
Base(rij,2k)=sin(rij/100002k/d)
Base(rij,2k+1)=cos(rij/100002k/d)
rij=fLinear(Base(rij))
其中fLinear(·)代表线性函数;
加权求和得到产品的表示向量bi如下:
其中bi表示产品i在用户短期行为中的表示向量,vj为根据所述步骤S2.1得到的产品vj的嵌入向量,rij表示时间间隔嵌入向量,αij为产品vi和vj之间的相似度,WV表示可学习的参数;
产品vi和vj之间的相似度αij计算如下:
其中WQ和WK为可学习的参数,vi和vj为根据所述步骤S2.1得到的产品vi和vj的嵌入向量,d表示产品嵌入向量的维度,使用归一化指数函数计算相似度;
步骤S2.3、使用最大池化层,获得用户的特征表示向量如下:
其中sn为用户的特征表示向量,snj为sn在维度j上的值。
进一步地,步骤S3中获取标题关键词序列的上下文向量ct具体步骤如下:
步骤S3.1、由步骤S1所得标题关键词序列W=[w1,w2,…,wN],进过ID嵌入层后,通过双向长短期记忆网络获得隐式状态[h1,h2,...,hN];
步骤S3.2、获取标题关键词序列上下文向量;
通过步骤S3.1所述隐式状态hN,得到解码器的初始状态d0如下:
d0=ReLU(WdhN)
其中Wd为可学习的参数,ReLU为线性整流函数,且ReLU(x)=max(0,x);
通过注意力机制,计算t时刻的关键词序列中单词的注意力分布;解码器根据单词的注意力分布查找生成下一个单词,具体计算公式如下:
eti=vTtanh(W[dt,hi,sn]+b)
βt=softmax(et)
其中βt为关键词序列中单词的注意力分布,W和b是可学习参数;softmax为归一化指数函数;dt为t时刻的解码器状态,计算如下:
dt=f(dt-1,yt-1,ct-1)
其中f代表长短期记忆网络;yt-1为t-1时刻解码器的输入向量。ct-1为t-1时刻的标题关键词序列上下文向量;
标题关键词序列上下文向量ct由编码器的隐式状态加权得到,计算如下:
ct=∑iβtihi。
进一步地,所述步骤S5中计算用户购买产品概率,根据用户购买产品的概率对用户进行产品推荐步骤如下:
步骤S5.1、获得用户的最终偏好表示向量之后,通过用户最终特征表示向量cu与产品最终特征表示向量cv,计算用户购买产品的概率如下:
将交叉熵作为模型训练的目标函数,并使用Adam算法训练产品推荐模型,定义目标函数如下:
步骤S5.2、利用指针生成模型生成关键词序列;
利用生成网络,计算时刻t生成单词w的概率Pvocab(w):
Pvocab(w)=softmax(Wh[dt,ct]+oh)
其中,Wh和oh为可学习的参数,dt为t时刻的解码器状态,ct为关键词序列的上下文向量。
利用指针网络,计算时刻t从关键词序列中复制单词w的概率:
根据t时刻的解码器状态dt,t-1时刻解码器的输入向量yt-1,关键词序列的上下文向量ct,计算从生成网络中生成单词的权重:
Pgen=sigmoid(Wt[dt,yt-1,ct]+bt)
利用权重向量,融合生成网络和指针网络生成和复制单词的结果,计算公式如下:
p(w)=PgenPvocab(w)+(1-Pgen)Pcopy(w)
将交叉熵作为模型训练的目标函数,并使用Adam算法训练关键词生成模型,定义的目标函数如下所示:
步骤S5.3、联合训练产品推荐任务和关键词生成任务;
联合产品推荐任务和关键词生成模型的损失模型,并使用Adam算法同时训练两个模型:
其中0<η<1。
与现有技术相比,本发明将产品标题中包含的关键词看作除购买产品以外的额外监督信号,来学习相似产品中包含的共同意图,通过一种多任务学习框架,将旅游产品推荐与商品关键字生成任务相结合进行建模,可以同时提高推荐性能,并且提升推荐结果的可解释性。
附图说明
图1是本发明提供的融合关键词生成的推荐算法流程图;
图2是本发明提供的融合关键词生成的推荐算法模型示意图;
图3是本发明提供的融合关键词生成的推荐算法实施例示意图。
具体实施方式
下面结合附图对本发明作更进一步的说明。
一种如图1-2所示的融合关键词生成的推荐算法,包括以下步骤:
步骤S1、获取用户的历史点击行为序列和对应产品标题的关键词序列。
将用户购买的产品vp作为预测目标产品,获取用户历史点击行为序列V=[(v1,t1),(v2,t2),…,(vn,tn)],其中ti对应于产品vi点击的时间戳;从用户历史点击行为对应的产品标题中,获取关键词序列;按照词频,选取前N个关键词组成的关键词序列W=[w1,w2,…,wN]。
步骤S2、将所述用户历史点击行为序列V=[(v1,t1),(v2,t2),…,(vn,tn)]输入到用户偏好模型中,学习用户的特征表示向量sn。具体步骤如下:
步骤S2.1、创建一个可学习的产品嵌入矩阵Ep,为每一个产品vi分配一个嵌入向量vi。
步骤S2.2、采用时间感知自注意力机制,学习用户行为中不同产品之间的相似度,并采用加权求和得到产品的表示向量bi;将点击2个产品之间的时间间隔rij=|ti-tj|作为指数获取时间间隔嵌入向量rij如下:
Base(rij,2k)=sin(rij/100002k/d)
Base(rij,2k+1)=cos(rij/100002k/d)
rij=fLinear(Base(rij))
其中fLinear(·)代表线性函数;
加权求和得到产品的表示向量bi如下:
其中bi表示产品i在用户短期行为中的表示向量,vj为根据所述步骤S2.1得到的产品vj的嵌入向量,rij表示时间间隔嵌入向量,αij为产品vi和vj之间的相似度,WV表示可学习的参数;
产品vi和vj之间的相似度αij计算如下:
其中WQ和WK为可学习的参数,vi和vj为根据所述步骤S2.1得到的产品vi和vj的嵌入向量,d表示产品嵌入向量的维度,使用归一化指数函数计算相似度;
步骤S2.3、使用最大池化层,获得用户的特征表示向量如下:
其中sn为用户的特征表示向量,snj为sn在维度j上的值。
步骤S3、将产品标题关键词序列数据W=[w1,w2,…,wN]输入到seq2seq模型中,得到标题关键词序列的上下文向量ct。具体步骤如下:
步骤S3.1、由步骤S1所得标题关键词序列W=[w1,w2,…,wN],进过ID嵌入层后,通过双向长短期记忆网络获得隐式状态[h1,h2,...,hN];
步骤S3.2、获取标题关键词序列上下文向量;
通过步骤S3.1所述隐式状态hN,得到解码器的初始状态d0如下:
d0=ReLU(WdhN)
其中Wd为可学习的参数,ReLU为线性整流函数,且ReLU(x)=max(0,x);
通过注意力机制,计算t时刻的关键词序列中单词的注意力分布;解码器根据单词的注意力分布查找生成下一个单词,具体计算公式如下:
eti=vTtanh(W[dt,hi,sn]+b)
βt=softmax(et)
其中βt为关键词序列中单词的注意力分布,W和b是可学习参数;softmax为归一化指数函数;dt为t时刻的解码器状态,计算如下:
dt=f(dt-1,yt-1,ct-1)
其中f代表长短期记忆网络;yt-1为t-1时刻解码器的输入向量。ct-1为t-1时刻的标题关键词序列上下文向量;
标题关键词序列上下文向量ct由编码器的隐式状态加权得到,计算过程如下:
ct=∑iβtihi。
步骤S4、整合并计算步骤S2得到的用户的特征表示向量sn和步骤S3得到的标题关键词序列在步骤t=0时的上下文向量c0,得到用户的最终特征表示向量cu如下:
cu=Wu[sn,c0]
其中Wu为可学习参数。
步骤S5、根据所述用户最终特征向量计算用户购买各种产品的概率,根据用户购买产品的概率对用户进行产品推荐。具体地:
步骤S5.1、获得用户的最终偏好表示向量之后,通过用户最终特征表示向量cu与产品最终特征表示向量cv,计算用户购买产品的概率如下:
将交叉熵作为模型训练的目标函数,并使用Adam算法训练产品推荐模型,定义目标函数如下:
步骤S5.2、利用指针生成模型生成关键词序列;
利用生成网络,计算时刻t生成单词w的概率Pvocab(w):
Pvocab(w)=softmax(Wh[dt,ct]+oh)
其中,Wh和oh为可学习的参数,dt为t时刻的解码器状态,ct为关键词序列的上下文向量。
利用指针网络,计算时刻t从关键词序列中复制单词w的概率:
根据t时刻的解码器状态dt,t-1时刻解码器的输入向量yt-1,关键词序列的上下文向量ct,计算从生成网络中生成单词的权重:
Pgen=sigmoid(Wt[dt,yt-1,ct]+bt)
利用权重向量,融合生成网络和指针网络生成和复制单词的结果,计算公式如下:
p(w)=PgenPvocab(w)+(1-Pgen)Pcopy(w)
将交叉熵作为模型训练的目标函数,并使用Adam算法训练关键词生成模型,定义的目标函数如下所示:
步骤S5.3、联合训练产品推荐任务和关键词生成任务;
联合产品推荐任务和关键词生成模型的损失模型,并使用Adam算法同时训练两个模型:
其中0<η<1。
为了验证本发明提供的融合关键词生成的推荐算法的效果,本发明提供如下实施例加以证明。
收集中国电商平台途牛旅游网从2013年7月1日到2013年7月31日的用户点击数据以及商品购买信息。用户的点击数据包括用户id,会话id,点击时间,商品id以及对应的商品标题。商品购买信息包含用户id,会话id,购买时间,商品id以及对应的商品标题。在进行相关预处理操作后(过滤掉长度小于2的用户会话和出现次数小于2的项目),并且为了模拟真实的线上商品推荐,将数据集中前28天作为训练,第29天作为验证,其余2天的数据用于测试。数据集描述如下表1所示。
表1数据集描述
为了验证方法的准确性和有效性,我们采用召回率(Recall)和平均倒数排名(Mean Reciprocal Rank,简称MRR)作为算法推荐效果的评价指标。其中,Recall是指用户真实感兴趣项目被推荐的比例。MRR是指在生成的推荐列表中,符合用户偏好的项目排名越靠前,则推荐结果越准确。评价指标的具体定义如下所示:
同时采用如下模型作为对比实验:
(1)POP根据训练集中商品购买的次数,为用户推荐热门商品。
(2)Item-KNN是基于物品的协同过滤算法。其中,物品之间的相似度使用余弦相似度计算。
(3)BPR是一种基于贝叶斯后验优化的个性化排序算法。该算法利用用户对物品的显示反馈信息,并将成对的组合作为优化目标。
(4)CDL是结合评分矩阵与商品描述文本的深度协同学习模型。其利用自编码器学习商品文本向量,并作为商品特征向量的偏置量,从而实现评分数据和商品描述信息的融合。
(5)GRURec-TopK是一种基于循环神经网络的会话推荐模型。该模型采用基于排序的损失函数学习模型以提高推荐的效果。
(6)Time-GRURec是在GRU4Rec模型的基础上,引入时间因素的改进算法,利用点击行为之间的间隔时间来进一步提高模型的精度。
(7)STAMP利用注意力机制捕捉用户的长短期兴趣偏好。
(8)SR-GNN是一种基于图神经网络的会话推荐算法,该算法结合用户的长期偏好和会话中的当前兴趣,预测用户在当前会话中的下一步行为。
对于上述对比方法,在最佳参数设置情况下进行实验。对于本发明提出的融合关键词生成的推荐算法(TPR-KG),单词嵌入层采用word2vec模型,并且将单词嵌入维度和物品嵌入维度设置为128。从[0.0001,0.0005,0.001,0.005]中选择学习率。根据验证集的实验结果,优选为0.0005效果。在所有梯度下降中选择Adam算法,并且使用dropout策略避免过拟合,dropout比率设置为0.2。
下表2所示为本发明的产品推荐方法与其他推荐方法在召回率和平均倒数排名方面的实验结果比较。
表2本发明的产品推荐方法与其他推荐方法在召回率和平均倒数排名方面比较
根据上表所示实验结果,可以发现TPR-KG算法在所有评价指标上,显著优于所有对比方法。其次,传统的推荐方法(即POP、Item-KNN和BPR)在所有情况下都优于基于神经的推荐方法(即CDL、GRURec-TopK、Time-GRURec、STAMP和SR-GNN)。这可能是由于用户-项目交互数据非常稀疏,传统方法并不适用。其中,Time-GRURec比GRU-TopK表现得更好,因为TimeGRURec考虑的时间间隔有助于捕捉用户购买意向的偏移。但是GRU-TopK忽略了时间对基于会话的推荐的影响。最后,尽管CDL利用了项目标题信息,但它的性能比TPR-KG差,说明基于RNN的方法比基于矩阵分解的方法有更好的动态学习用户偏好的能力。
如图3所示为本发明算法的产品推荐案例。可以看出,本发明提供的TPR-KG模型具备以下2个特征:
(1)、TPR-KG能够捕捉用户的购买意图。可以看到TPR-KG在推荐列表的前5位推荐了马尔代夫相关的旅游产品,而用户最终也购买了马尔代夫旅游产品。这验证了TPR-KG在捕捉意图方面的有效性。
(2)、TPR-KG模型可以过滤会话中的意外点击。TPR-KG在推荐列表的前5位只推荐了马尔代夫相关的旅游产品,而过滤掉了张家界和黄石公园的意外点击。
下表3为本发明产品推荐方法中关键词生成子任务的2个案例。其中,左列是TPR-KG生成的关键词,右列是与购买的商品对应的关键词。从这2个案例中,可以看出,TPR-KG模型生成的关键词质量很高。
表3本发明产品推荐方法中关键词生成子任务的2个案例
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (2)
1.一种融合关键词生成的推荐方法,其特征在于,包括以下步骤:
步骤S1、获取用户的历史点击行为序列和对应产品标题的关键词序列;
将用户购买的产品vp作为预测目标产品,获取用户历史点击行为序列V=[(v1,t1),(v2,t2),…,(vn,tn)],其中ti对应于产品vi点击的时间戳;从用户历史点击行为对应的产品标题中,获取关键词序列;按照词频,选取前N个关键词组成的关键词序列W=[w1,w2,…,wN];
步骤S2、将所述用户历史点击行为序列V=[(v1,t1),(v2,t2),…,(vn,tn)]输入到用户偏好模型中,学习用户的特征表示向量sn;
步骤S3、将产品标题关键词序列数据W=[w1,w2,…,wN]输入到seq2seq模型中,得到标题关键词序列的上下文向量ct;
步骤S4、整合并计算步骤S2得到的用户的特征表示向量sn和步骤S3得到的标题关键词序列在步骤t=0时的上下文向量c0,得到用户的最终特征表示向量cu如下:
cu=Wu[sn,c0]
其中Wu为可学习参数;
步骤S5、根据所述用户的最终特征表示向量计算用户购买各种产品的概率,根据用户购买产品的概率对用户进行产品推荐;
其中:步骤S3中获取标题关键词序列的上下文向量ct具体步骤如下:
步骤S3.1、由步骤S1所得标题关键词序列W=[w1,w2,…,wN],进过ID嵌入层后,通过双向长短期记忆网络获得隐式状态[h1,h2,…,hN];
步骤S3.2、获取标题关键词序列上下文向量;
通过步骤S3.1所述隐式状态hN,得到解码器的初始状态d0如下:
d0=ReLU(WdhN)
其中Wd为可学习的参数,ReLU为线性整流函数,且ReLU(x)=max(0,x);
通过注意力机制,计算t时刻的关键词序列中单词的注意力分布;解码器根据单词的注意力分布查找生成下一个单词,具体计算公式如下:
eti=vTtanh(W[dt,hi,sn]+b)
βt=softmax(et)
其中βt为关键词序列中单词的注意力分布,W和b是可学习参数;softmax为归一化指数函数;dt为t时刻的解码器状态,计算如下:
dt=f(dt-1,yt-1,ct-1)
其中f代表长短期记忆网络;yt-1为t-1时刻解码器的输入向量;ct-1为t-1时刻的标题关键词序列上下文向量;
标题关键词序列上下文向量ct由编码器的隐式状态加权得到,计算过程如下:
ct=∑iβtihi;
步骤S5中计算用户购买产品概率,根据用户购买产品的概率对用户进行产品推荐步骤如下:
步骤S5.1、获得用户的最终偏好表示向量之后,通过用户最终特征表示向量cu与产品最终特征表示向量cv,计算用户购买产品的概率如下:
将交叉熵作为模型训练的目标函数,并使用Adam算法训练产品推荐模型,定义目标函数如下:
步骤S5.2、利用指针生成模型生成关键词序列;
利用生成网络,计算时刻t生成单词w的概率Pvocab(w):
Pvocab(w)=softmax(Wh[dt,ct]+oh)
其中,Wh和oh为可学习的参数,dt为t时刻的解码器状态,ct为关键词序列的上下文向量;
利用指针网络,计算时刻t从关键词序列中复制单词w的概率:
根据t时刻的解码器状态dt,t-1时刻解码器的输入向量yt-1,关键词序列的上下文向量ct,计算从生成网络中生成单词的权重:
Pgen=sigmoid(Wt[dt,yt-1,ct]+bt)
利用权重向量,融合生成网络和指针网络生成和复制单词的结果,计算公式如下:
p(w)=PgenPvocab(w)+(1-Pgen)Pcopy(w)
将交叉熵作为模型训练的目标函数,并使用Adam算法训练关键词生成模型,定义的目标函数如下所示:
步骤S5.3、联合训练产品推荐任务和关键词生成任务;
联合产品推荐任务和关键词生成模型的损失模型,并使用Adam算法同时训练两个模型:
其中0<η<1。
2.根据权利要求1所述的一种融合关键词生成的推荐方法,其特征在于,所述步骤S2中学习用户的特征表示向量sn具体步骤如下:
步骤S2.1、创建一个可学习的产品嵌入矩阵Ep,为每一个产品vi分配一个嵌入向量vi;
步骤S2.2、采用时间感知自注意力机制,学习用户行为中不同产品之间的相似度,并采用加权求和得到产品的表示向量;将点击2个产品之间的时间间隔rij=|ti-tj|作为指数获取时间间隔嵌入向量rij如下:
Base(rij,2k)=sin(rij/100002k/d)
Base(rij,2k+1)=cos(rij/100002k/d)
rij=fLinear(Base(rij))
其中fLinear(·)代表线性函数;
加权求和得到产品的表示向量bi如下:
其中bi表示产品i在用户短期行为中的表示向量,vj为根据所述步骤S2.1得到的产品vj的嵌入向量,rij表示时间间隔嵌入向量,αij为产品vi和vj之间的相似度,WV表示可学习的参数;
产品vi和vj之间的相似度αij计算如下:
其中WQ和WK为可学习的参数,vi和vj为根据所述步骤S2.1得到的产品vi和vj的嵌入向量,d表示产品嵌入向量的维度,使用归一化指数函数计算相似度;
步骤S2.3、使用最大池化层,获得用户的特征表示向量如下:
其中sn为用户的特征表示向量,snj为sn在维度j上的值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110506393.3A CN113190751B (zh) | 2021-05-10 | 2021-05-10 | 一种融合关键词生成的推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110506393.3A CN113190751B (zh) | 2021-05-10 | 2021-05-10 | 一种融合关键词生成的推荐方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113190751A CN113190751A (zh) | 2021-07-30 |
CN113190751B true CN113190751B (zh) | 2022-09-27 |
Family
ID=76988741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110506393.3A Active CN113190751B (zh) | 2021-05-10 | 2021-05-10 | 一种融合关键词生成的推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113190751B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113673773B (zh) * | 2021-08-25 | 2024-01-23 | 山东科技大学 | 一种融合知识背景和学习时间预测的学习路径推荐方法 |
CN114048395B (zh) * | 2021-11-05 | 2024-07-05 | 中国科学院信息工程研究所 | 基于时间感知与关键信息抽取的用户转发预测方法和*** |
CN115953215B (zh) * | 2022-12-01 | 2023-09-05 | 上海交通大学 | 一种基于时间和图结构的搜索式推荐方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111915395A (zh) * | 2020-07-07 | 2020-11-10 | 云境商务智能研究院南京有限公司 | 一种基于多视图注意力机制的旅游包推荐方法 |
CN112598462A (zh) * | 2020-12-19 | 2021-04-02 | 武汉大学 | 基于协同过滤和深度学习的个性化推荐方法及*** |
-
2021
- 2021-05-10 CN CN202110506393.3A patent/CN113190751B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111915395A (zh) * | 2020-07-07 | 2020-11-10 | 云境商务智能研究院南京有限公司 | 一种基于多视图注意力机制的旅游包推荐方法 |
CN112598462A (zh) * | 2020-12-19 | 2021-04-02 | 武汉大学 | 基于协同过滤和深度学习的个性化推荐方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN113190751A (zh) | 2021-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112598462B (zh) | 基于协同过滤和深度学习的个性化推荐方法及*** | |
Zhou et al. | Deep interest evolution network for click-through rate prediction | |
Zhao et al. | Recommendations with negative feedback via pairwise deep reinforcement learning | |
CN113190751B (zh) | 一种融合关键词生成的推荐方法 | |
CN108648049B (zh) | 一种基于用户行为区别建模的序列推荐方法 | |
WO2021139164A1 (zh) | 一种基于长短期兴趣的序列化推荐方法 | |
Zhao et al. | Deep reinforcement learning for list-wise recommendations | |
CN111222332B (zh) | 一种结合注意力网络和用户情感的商品推荐方法 | |
CN108763362B (zh) | 基于随机锚点对选择的局部模型加权融合Top-N电影推荐方法 | |
CN108629665B (zh) | 一种个性化商品推荐方法和*** | |
CN110955826B (zh) | 基于改进型循环神经网络单元的推荐*** | |
CN110717098A (zh) | 基于元路径的上下文感知用户建模方法、序列推荐方法 | |
CN112381581A (zh) | 一种基于改进Transformer的广告点击率预估方法 | |
CN110910218A (zh) | 一种基于深度学习的多行为迁移推荐方法 | |
CN108509573A (zh) | 基于矩阵分解协同过滤算法的图书推荐方法及*** | |
CN113420221B (zh) | 融合用户隐式物品偏好与显式特征偏好的可解释推荐方法 | |
CN114386513A (zh) | 一种集成评论与评分的交互式评分预测方法及*** | |
CN111815410B (zh) | 基于选择性邻域信息的商品推荐方法 | |
Hossain et al. | A neural engine for movie recommendation system | |
CN116452293A (zh) | 一种融合物品受众特征的深度学习推荐方法及*** | |
Wang et al. | An online deep reinforcement learning-based order recommendation framework for rider-centered food delivery system | |
Ji et al. | Time-aware conversion prediction | |
CN112559905B (zh) | 一种基于双模式注意力机制和社交相似度的会话推荐方法 | |
Kwon et al. | Improving RNN based recommendation by embedding-weight tying | |
CN110956528B (zh) | 一种电商平台的推荐方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |