CN116662501B - 一种基于会话上下文信息的会话推荐方法 - Google Patents

一种基于会话上下文信息的会话推荐方法 Download PDF

Info

Publication number
CN116662501B
CN116662501B CN202310559754.XA CN202310559754A CN116662501B CN 116662501 B CN116662501 B CN 116662501B CN 202310559754 A CN202310559754 A CN 202310559754A CN 116662501 B CN116662501 B CN 116662501B
Authority
CN
China
Prior art keywords
session
vector
matrix
edge
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310559754.XA
Other languages
English (en)
Other versions
CN116662501A (zh
Inventor
麻琳
刘杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN202310559754.XA priority Critical patent/CN116662501B/zh
Publication of CN116662501A publication Critical patent/CN116662501A/zh
Application granted granted Critical
Publication of CN116662501B publication Critical patent/CN116662501B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及互联网技术领域,公开了一种基于会话上下文信息的会话推荐方法,包括以下步骤:S1、根据会话中包含的上下文信息,对关系增强会话图中的节点进行向量随机初始化操作;S2、将关系增强会话图中节点的嵌入向量送入门控图神经网络中进行训练,得到会话序列s中各节点的嵌入向量表示;S3、将长短期兴趣向量表示拼接得到最后的会话向量表示,短期兴趣表示选取会话中最后一个物品的嵌入向量,长期兴趣表示使用软注意力机制计算得到;S4、对每一个候选项的得分进行计算,并得出所有候选项的推荐概率。本发明能够利用会话上下文信息体现各物品之间的关系,对物品的重要性进行区分,生成用户的兴趣表示,为用户提供准确的推荐。

Description

一种基于会话上下文信息的会话推荐方法
技术领域
本发明涉及互联网技术领域,尤其涉及一种基于会话上下文信息的会话推荐方法。
背景技术
随着信息技术的飞速发展,互联网已经成为人们的日常生活中不可或缺的一部分。人们通过互联网获取信息、购买商品、进行社交和娱乐活动,在享受互联网带来的生活便利的同时,信息的洪流也涌入了人们生活中的各个方面,纷繁复杂的信息加大了人们寻找的难度。因此,推荐***在人们的生产生活中发挥着越来越重要的作用,它能够在学习、生活、购物和医疗等方面,帮助用户以个性化的方式检索符合其需求的信息资源,让用户做出更合适的选择。推荐***能够根据输入的用户信息、物品信息以及用户和物品之间的交互,对物品库中的物品进行排序并选取合适的物品为用户推荐。传统推荐方法无法获取到匿名用户的个人信息以及长期历史行为数据,而会话推荐方法可以利用匿名用户近一段时间内的行为数据分析用户的兴趣偏好,为用户提供准确的推荐。
发明内容
鉴于此,本发明的目的在于,提供一种基于会话上下文信息的会话推荐方法,基于图神经网络和节点信息的复杂转换,解决了传统推荐方法在获取会话序列中物品间关系上下文信息利用不充分的问题。
为了达到上述发明目的,进而采取的技术方案如下:
一种基于会话上下文信息的会话推荐方法,包括以下步骤:
S1、在会话推荐中,S={s1,s2,s3,...,s|s|}表示所有的会话数据的集合,V={v1,v2,v3,...,vn}表示会话中所涉及到的所有物品的集合,一条匿名会话序列s表示为s=[vs,1,vs,2,vs,3,...,vs,m],结合会话中包含的上下文信息,将集合中的每一条会话序列构造为关系增强会话图,对关系增强会话图中的节点进行向量随机初始化操作;
S2、将关系增强会话图中节点的嵌入向量送入门控图神经网络中进行训练,得到会话序列s中各节点的嵌入向量表示;
S3、为捕捉用户的动态兴趣偏好,使用长短期兴趣结合生成会话兴趣表示,短期兴趣表示选取会话中最后一个物品的嵌入向量,长期兴趣表示使用软注意力机制计算得到。将长短期兴趣向量表示拼接得到最后的会话向量表示;
S4、对每一个候选项的得分进行计算,并得出所有候选项的推荐概率。
作为本发明的进一步改进,在步骤S1中,所述上下文信息包括物品的点击顺序和点击次数。
作为本发明的进一步改进,在步骤S1中,结合会话中包含的上下文信息,将集合中的每一条会话序列构造为关系增强会话图,对关系增强会话图中的节点进行向量随机初始化操作,具体如下:
(a)、根据会话中物品的点击顺序构造加权会话图Gsw,使用边权重矩阵Asw[i,j]存储对应的图结构信息,并将使用边权重出边矩阵和边权重入边矩阵/>拼接的方式进行表示,如公式(1)-(2)所示:
其中,e(vs,i,vs,j)代表用户在点击了vs,i节点后点击vs,j节点,如果e(vs,i,vs,j)在边集Esw中,则将边权重矩阵Asw[i,j]的值记为i+1,否则记为0;边权重入边矩阵由边权重出边矩阵/>转置得到的;
(b)、对加权会话图进行进一步改进,将会话序列中包含的每一次点击都记录到加权会话图中,将边的权重逐次累计,得到关系增强会话图Gswn,为每一个会话序列s=[vs,1,vs,2,vs,3,...,vs,m]定义一个多重集合Eset,将关系增强矩阵会话图中的连接边按照先后顺序放入多重集合Eset中,并定义一个边值查找函数index来查找对应边值的大小,如公式(3)-(4)所示:
Eset={e(vs,1,vs,2),e(vs,2,vs,3),...,e(vs,m-1,vs,m)} (3)
I(e(vs,i-1,vs,i))={x|x=index(e(vs,i-1,vs,i),Eset),if e(vs,i-1,vs,i)in Eset}(4)
式中:e(vs,i-1,vs,i)代表用户在点击了vs,i-1节点后点击vs,i节点;x代表边值查找函数查找的边e(vs,i-1,vs,i)在Eset中对应的位置编号,也就是边e(vs,i-1,vs,i)的值;I代表存放查找出来的边值的集合;
使用关系增强矩阵Aswn存储对应的图结构信息,使用出边关系增强矩阵和入边关系增强矩阵/>拼接的方式进行表示,如公式(5)-(6)所示:
如果e(vs,i,vs,j)在边集Eswn中,则将关系增强矩阵中Aswn[i,j]的值记为累计得到的边权重值,否则记为0,入边关系增强矩阵经过出边关系增强矩阵/> 转置得到;
(c)、为了在一定程度上提高模型精度,并提升模型的收敛速度,对关系增强矩阵Aswn进行归一化处理,并对会话图中所有节点进行向量随机初始化,如公式(7)-(8)所示:
式中,Aswn[i,j]代表累计e(vs,i,vs,j)得到的边权重值,min(Aswn)代表关系增强矩阵中的最小值,max(Aswn)代表关系增强矩阵中的最大值;
ei=Embedding(vi) (8)
式中,ei代表每个物品vi∈V的嵌入向量,ei∈Rd;d代表每个物品节点的维度。
作为本发明的进一步改进,在步骤S2中,将关系增强会话图中节点的嵌入向量送入门控图神经网络中进行训练,具体包括以下步骤:使用门控图神经网络对会话图中节点的嵌入向量进行更新,使用连接矩阵表示会话图中节点间的关系,每一个节点既接受邻居节点传递的信息,又向邻居节点传递信息,根据自身信息并聚合它邻居节点的信息来完成信息的聚合和更新操作,更新过程如公式(9)-(13)所示;
式中:代表在t时刻,节点vi聚合邻居节点信息后的向量表示,Aswn,i:代表中与节点vs,i相对应的两列,包含了双向的信息传递,/>代表t-1时刻会话序列s各物品节点向量表示,W代表权重矩阵,bi代表偏置矩阵;
式中:代表更新门控,它的取值范围为[0,1],更新门控能够决定将多少前一时刻状态的信息传递到当前时刻状态中;/>代表重置门控,它的取值范围为[0,1],重置门控能够决定有多少前一时刻状态的信息需要保留;/>代表当前时刻的候选状态;代表候选状态中通过重置门控计算出要保留的前一时刻信息;/>代表当前时刻节点vi最终的表示向量,/>代表当前时刻状态需要遗忘多少前一时刻状态的信息;/>代表当前时刻状态需要保存多少当前候选状态的信息;σ代表Sigmoid激活函数;tanh代表Tanh激活函数;⊙代表元素乘法;Wr、Wz、Wt∈R2d×d分别代表维度为2d×d的更新门控权重参数、重置门控权重参数和候选状态权重参数,Ur、Uz、Ut∈Rd×d代表维度为d的更新门控权重参数、重置门控权重参数和候选状态权重参数。
作为本发明的进一步改进,在步骤S3中,使用长短期兴趣结合计算得到会话嵌入表示,选取会话序列中最后一个物品的嵌入向量em作为局部兴趣表示sl,通过软注意力机制计算得到所有物品与最后一个物品相关性的权重系数αi,对各节点加权聚合得到全局兴趣表示sg,将局部兴趣和全局兴趣表示拼接得到最终的会话兴趣表示sf,公式如(14)-(17)所示:
sl=em (14)
αi=qΤσ(W1em+W2ei+b) (15)
sf=W3[sl;sg] (17)
式中:sl∈Rd代表会话局部兴趣表示。em代表会话s中最后一个物品的嵌入向量;ei代表会话s中物品vs,i的嵌入向量;αi代表每个物品的权重系数;W1、W2∈Rd×d和q∈Rd代表训练参数;b∈Rd代表偏置矩阵;sg∈Rd代表全局兴趣表示。sf∈Rd代表会话兴趣表示;W3∈Rd ×2d
作为本发明的进一步改进,在步骤S4中,使用会话兴趣表示sf和每个节点的向量表示ei对每个候选项的得分进行计算,并通过对候选项得分进行归一化得出所有候选项的推荐概率/>公式如(18)-(19)所示:
式中:代表候选项vi的得分;sf∈Rd代表会话兴趣表示;ei∈Rd代表物品嵌入向量;/>代表所有候选项的推荐得分;/>代表所有候选项下一次被点击的概率;Softmax代表归一化操作。
本发明的有益效果是:本发明提出的基于会话上下文信息的会话推荐模型,针对有向会话图中信息利用不充分的问题,设计融合会话上下文信息的关系增强会话图和对应的关系增强矩阵,通过添加了会话中物品点击顺序和点击次数的关系增强会话图来体现各物品之间的关系,对会话中对物品的重要性进行区分并进一步反映用户的点击兴趣。根据用户的动态兴趣偏好,使用长短期兴趣结合的方式来生成用户的兴趣表示,提高模型推荐准确度。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明根据会话上下文信息构造的关系增强图和对应的关系增强矩阵;
图2为本发明基于会话上下文信息的会话推荐模型的结构图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
如图1-2所示,一种基于会话上下文信息的会话推荐方法,包括以下步骤:
S1、在会话推荐中,S={s1,s2,s3,...,s|s|}表示所有的会话数据的集合,V={v1,v2,v3,...,vn}表示会话中所涉及到的所有物品的集合,一条匿名会话序列s表示为s=[vs,1,vs,2,vs,3,...,vs,m],结合会话中包含的上下文信息,将集合中的每一条会话序列构造为关系增强会话图,对关系增强会话图中的节点进行向量随机初始化操作;
S2、将关系增强会话图中节点的嵌入向量送入门控图神经网络中进行训练,得到会话序列s中各节点的嵌入向量表示;
S3、为捕捉用户的动态兴趣偏好,使用长短期兴趣结合生成会话兴趣表示,短期兴趣表示选取会话中最后一个物品的嵌入向量,长期兴趣表示使用软注意力机制计算得到。将长短期兴趣向量表示拼接得到最后的会话向量表示;
S4、对每一个候选项的得分进行计算,并得出所有候选项的推荐概率。
在步骤S1中,所述上下文信息包括物品的点击顺序和点击次数。
在步骤S1中,结合会话中包含的上下文信息,将集合中的每一条会话序列构造为关系增强会话图,对关系增强会话图中的节点进行向量随机初始化操作,具体如下:
(a)、根据会话中物品的点击顺序构造加权会话图Gsw,使用边权重矩阵Asw[i,j]存储对应的图结构信息,并将使用边权重出边矩阵和边权重入边矩阵/>拼接的方式进行表示,如公式(1)-(2)所示:
其中,e(vs,i,vs,j)代表用户在点击了vs,i节点后点击vs,j节点,如果e(vs,i,vs,j)在边集Esw中,则将边权重矩阵Asw[i,j]的值记为i+1,否则记为0;边权重入边矩阵由边权重出边矩阵/>转置得到的;
(b)、对加权会话图进行进一步改进,将会话序列中包含的每一次点击都记录到加权会话图中,将边的权重逐次累计,得到关系增强会话图Gswn,为每一个会话序列s=[vs,1,vs,2,vs,3,...,vs,m]定义一个多重集合Eset,将关系增强矩阵会话图中的连接边按照先后顺序放入多重集合Eset中,并定义一个边值查找函数index来查找对应边值的大小,如公式(3)-(4)所示:
Eset={e(vs,1,vs,2),e(vs,2,vs,3),...,e(vs,m-1,vs,m)} (3)
I(e(vs,i-1,vs,i))={x|x=index(e(vs,i-1,vs,i),Eset),if e(vs,i-1,vs,i)in Eset}(4)
式中:e(vs,i-1,vs,i)代表用户在点击了vs,i-1节点后点击vs,i节点;x代表边值查找函数查找的边e(vs,i-1,vs,i)在Eset中对应的位置编号,也就是边e(vs,i-1,vs,i)的值;I代表存放查找出来的边值的集合;
使用关系增强矩阵Aswn存储对应的图结构信息,使用出边关系增强矩阵和入边关系增强矩阵/>拼接的方式进行表示,如公式(5)-(6)所示:
如果e(vs,i,vs,j)在边集Eswn中,则将关系增强矩阵中Aswn[i,j]的值记为累计得到的边权重值,否则记为0,入边关系增强矩阵经过出边关系增强矩阵/> 转置得到;
(c)、为了在一定程度上提高模型精度,并提升模型的收敛速度,对关系增强矩阵Aswn进行归一化处理,并对会话图中所有节点进行向量随机初始化,如公式(7)-(8)所示:
式中,Aswn[i,j]代表累计e(vs,i,vs,j)得到的边权重值,min(Aswn)代表关系增强矩阵中的最小值,max(Aswn)代表关系增强矩阵中的最大值;
ei=Embedding(vi) (8)
式中,ei代表每个物品vi∈V的嵌入向量,ei∈Rd;d代表每个物品节点的维度。
在步骤S2中,将关系增强会话图中节点的嵌入向量送入门控图神经网络中进行训练,具体包括以下步骤:使用门控图神经网络对会话图中节点的嵌入向量进行更新,使用连接矩阵表示会话图中节点间的关系,每一个节点既接受邻居节点传递的信息,又向邻居节点传递信息,根据自身信息并聚合它邻居节点的信息来完成信息的聚合和更新操作,更新过程如公式(9)-(13)所示;
式中:代表在t时刻,节点vi聚合邻居节点信息后的向量表示,Aswn,i:代表中与节点vs,i相对应的两列,包含了双向的信息传递,/>代表t-1时刻会话序列s各物品节点向量表示,W代表权重矩阵,bi代表偏置矩阵;
式中:代表更新门控,它的取值范围为[0,1],更新门控能够决定将多少前一时刻状态的信息传递到当前时刻状态中;/>代表重置门控,它的取值范围为[0,1],重置门控能够决定有多少前一时刻状态的信息需要保留;/>代表当前时刻的候选状态;代表候选状态中通过重置门控计算出要保留的前一时刻信息;/>代表当前时刻节点vi最终的表示向量,/>代表当前时刻状态需要遗忘多少前一时刻状态的信息;/>代表当前时刻状态需要保存多少当前候选状态的信息;σ代表Sigmoid激活函数;tanh代表Tanh激活函数;⊙代表元素乘法;Wr、Wz、Wt∈R2d×d分别代表维度为2d×d的更新门控权重参数、重置门控权重参数和候选状态权重参数,Ur、Uz、Ut∈Rd×d代表维度为d的更新门控权重参数、重置门控权重参数和候选状态权重参数。
在步骤S3中,使用长短期兴趣结合计算得到会话嵌入表示,选取会话序列中最后一个物品的嵌入向量em作为局部兴趣表示sl,通过软注意力机制计算得到所有物品与最后一个物品相关性的权重系数αi,对各节点加权聚合得到全局兴趣表示sg,将局部兴趣和全局兴趣表示拼接得到最终的会话兴趣表示sf,公式如(14)-(17)所示:
sl=em (14)
αi=qΤσ(W1em+W2ei+b) (15)
sf=W3[sl;sg] (17)
式中:sl∈Rd代表会话局部兴趣表示。em代表会话s中最后一个物品的嵌入向量;ei代表会话s中物品vs,i的嵌入向量;αi代表每个物品的权重系数;W1、W2∈Rd×d和q∈Rd代表训练参数;b∈Rd代表偏置矩阵;sg∈Rd代表全局兴趣表示。sf∈Rd代表会话兴趣表示;W3∈Rd ×2d
在步骤S4中,使用会话兴趣表示sf和每个节点的向量表示ei对每个候选项的得分进行计算,并通过对候选项得分进行归一化得出所有候选项的推荐概率/>公式如(18)-(19)所示:
式中:代表候选项vi的得分;sf∈Rd代表会话兴趣表示;ei∈Rd代表物品嵌入向量;/>代表所有候选项的推荐得分;/>代表所有候选项下一次被点击的概率;Softmax代表归一化操作。
本发明能够利用会话上下文信息体现各物品之间的关系,对物品的重要性进行区分,生成用户的兴趣表示,为用户提供准确的推荐。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进、部件拆分或组合等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于会话上下文信息的会话推荐方法,其特征在于,包括以下步骤:
S1、在会话推荐中,S={s1,s2,s3,...,s|s|}表示所有的会话数据的集合,V={v1,v2,v3,...,vn}表示会话中所涉及到的所有物品的集合,一条匿名会话序列s表示为s=[vs,1,vs,2,vs,3,...,vs,m],结合会话中包含的上下文信息,将集合中的每一条会话序列构造为关系增强会话图,对关系增强会话图中的节点进行向量随机初始化操作;
S2、将关系增强会话图中节点的嵌入向量送入门控图神经网络中进行训练,得到会话序列s中各节点的嵌入向量表示;
S3、为捕捉用户的动态兴趣偏好,使用长短期兴趣结合生成会话兴趣表示,短期兴趣表示选取会话中最后一个物品的嵌入向量,长期兴趣表示使用软注意力机制计算得到,将长短期兴趣向量表示拼接得到最后的会话向量表示;
S4、对每一个候选项的得分进行计算,并得出所有候选项的推荐概率;
在步骤S1中,所述上下文信息包括物品的点击顺序和点击次数;
在步骤S1中,结合会话中包含的上下文信息,将集合中的每一条会话序列构造为关系增强会话图,对关系增强会话图中的节点进行向量随机初始化操作,具体如下:
(a)、根据会话中物品的点击顺序构造加权会话图Gsw,使用边权重矩阵Asw[i,j]存储对应的图结构信息,并将使用边权重出边矩阵和边权重入边矩阵/>拼接的方式进行表示,如公式(1)-(2)所示:
其中,e(vs,i,vs,j)代表用户在点击了vs,i节点后点击vs,j节点,如果e(vs,i,vs,j)在边集Esw中,则将边权重矩阵Asw[i,j]的值记为i+1,否则记为0;边权重入边矩阵由边权重出边矩阵/>转置得到的;
(b)、将会话序列中包含的每一次点击都记录到加权会话图中,将边的权重逐次累计,得到关系增强会话图Gswn,为每一个会话序列s=[vs,1,vs,2,vs,3,...,vs,m]定义一个多重集合Eset,将关系增强矩阵会话图中的连接边按照先后顺序放入多重集合Eset中,并定义一个边值查找函数index来查找对应边值的大小,如公式(3)-(4)所示:
Eset={e(vs,1,vs,2),e(vs,2,vs,3),...,e(vs,m-1,vs,m)} (3)
I(e(vs,i-1,vs,i))={x|x=index(e(vs,i-1,vs,i),Eset),if e(vs,i-1,vs,i)in Eset} (4)
式中:e(vs,i-1,vs,i)代表用户在点击了vs,i-1节点后点击vs,i节点;x代表边值查找函数查找的边e(vs,i-1,vs,i)在Eset中对应的位置编号,也就是边e(vs,i-1,vs,i)的值;I代表存放查找出来的边值的集合;
使用关系增强矩阵Aswn存储对应的图结构信息,使用出边关系增强矩阵和入边关系增强矩阵/>拼接的方式进行表示,如公式(5)-(6)所示:
如果e(vs,i,vs,j)在边集Eswn中,则将关系增强矩阵中Aswn[i,j]的值记为累计得到的边权重值,否则记为0,入边关系增强矩阵经过出边关系增强矩阵/> 转置得到;
(c)、对关系增强矩阵Aswn进行归一化处理,并对会话图中所有节点进行向量随机初始化,如公式(7)-(8)所示:
式中,Aswn[i,j]代表累计e(vs,i,vs,j)得到的边权重值,min(Aswn)代表关系增强矩阵中的最小值,max(Aswn)代表关系增强矩阵中的最大值;
ei=Embedding(vi) (8)
式中,ei代表每个物品vi∈V的嵌入向量,ei∈Rd;d代表每个物品节点的维度。
2.根据权利要求1所述的一种基于会话上下文信息的会话推荐方法,其特征在于:在步骤S2中,将关系增强会话图中节点的嵌入向量送入门控图神经网络中进行训练,具体包括以下步骤:使用门控图神经网络对会话图中节点的嵌入向量进行更新,使用连接矩阵表示会话图中节点间的关系,每一个节点既接受邻居节点传递的信息,又向邻居节点传递信息,根据自身信息并聚合它邻居节点的信息来完成信息的聚合和更新操作,更新过程如公式(9)-(13)所示;
式中:代表在t时刻,节点vi聚合邻居节点信息后的向量表示,Aswn,i:代表中与节点vs,i相对应的两列,包含了双向的信息传递,/>代表t-1时刻会话序列s各物品节点向量表示,W代表权重矩阵,bi代表偏置矩阵;
式中:代表更新门控,它的取值范围为[0,1],更新门控能够决定将多少前一时刻状态的信息传递到当前时刻状态中;/>代表重置门控,它的取值范围为[0,1],重置门控能够决定有多少前一时刻状态的信息需要保留;/>代表当前时刻的候选状态;/>代表候选状态中通过重置门控计算出要保留的前一时刻信息;/>代表当前时刻节点vi最终的表示向量,/>代表当前时刻状态需要遗忘多少前一时刻状态的信息;/>代表当前时刻状态需要保存多少当前候选状态的信息;σ代表Sigmoid激活函数;tanh代表Tanh激活函数;⊙代表元素乘法;Wr、Wz、Wt∈R2d×d分别代表维度为2d×d的更新门控权重参数、重置门控权重参数和候选状态权重参数,Ur、Uz、Ut∈Rd×d代表维度为d的更新门控权重参数、重置门控权重参数和候选状态权重参数。
3.根据权利要求1所述的一种基于会话上下文信息的会话推荐方法,其特征在于:在步骤S3中,使用长短期兴趣结合计算得到会话嵌入表示,选取会话序列中最后一个物品的嵌入向量em作为局部兴趣表示sl,通过软注意力机制计算得到所有物品与最后一个物品相关性的权重系数αi,对各节点加权聚合得到全局兴趣表示sg,将局部兴趣和全局兴趣表示拼接得到最终的会话兴趣表示sf,公式如(14)-(17)所示:
sl=em (14)
αi=qΤσ(W1em+W2ei+b) (15)
sf=W3[sl;sg] (17)
式中:sl∈Rd代表会话局部兴趣表示;em代表会话s中最后一个物品的嵌入向量;ei代表会话s中物品vs,i的嵌入向量;αi代表每个物品的权重系数;W1、W2∈Rd×d和q∈Rd代表训练参数;b∈Rd代表偏置矩阵;sg∈Rd代表全局兴趣表示;sf∈Rd代表会话兴趣表示;W3∈Rd×2d
4.根据权利要求1所述的一种基于会话上下文信息的会话推荐方法,其特征在于:在步骤S4中,使用会话兴趣表示sf和每个节点的向量表示ei对每个候选项的得分进行计算,并通过对候选项得分进行归一化得出所有候选项的推荐概率/>公式如(18)-(19)所示:
式中:代表候选项vi的得分;sf∈Rd代表会话兴趣表示;ei∈Rd代表物品嵌入向量;/>代表所有候选项的推荐得分;/>代表所有候选项下一次被点击的概率;Softmax代表归一化操作。
CN202310559754.XA 2023-05-18 2023-05-18 一种基于会话上下文信息的会话推荐方法 Active CN116662501B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310559754.XA CN116662501B (zh) 2023-05-18 2023-05-18 一种基于会话上下文信息的会话推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310559754.XA CN116662501B (zh) 2023-05-18 2023-05-18 一种基于会话上下文信息的会话推荐方法

Publications (2)

Publication Number Publication Date
CN116662501A CN116662501A (zh) 2023-08-29
CN116662501B true CN116662501B (zh) 2024-06-14

Family

ID=87719872

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310559754.XA Active CN116662501B (zh) 2023-05-18 2023-05-18 一种基于会话上下文信息的会话推荐方法

Country Status (1)

Country Link
CN (1) CN116662501B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114492763A (zh) * 2022-02-16 2022-05-13 辽宁工程技术大学 一种融合全局上下文信息注意力增强的图神经网络方法
CN114925270A (zh) * 2022-05-09 2022-08-19 华南师范大学 一种会话推荐方法和模型

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111581519B (zh) * 2020-05-25 2022-10-18 中国人民解放军国防科技大学 基于会话中用户意图的物品推荐方法和***
CN115658864A (zh) * 2022-10-24 2023-01-31 重庆师范大学 一种基于图神经网络和兴趣注意力网络的会话推荐方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114492763A (zh) * 2022-02-16 2022-05-13 辽宁工程技术大学 一种融合全局上下文信息注意力增强的图神经网络方法
CN114925270A (zh) * 2022-05-09 2022-08-19 华南师范大学 一种会话推荐方法和模型

Also Published As

Publication number Publication date
CN116662501A (zh) 2023-08-29

Similar Documents

Publication Publication Date Title
CN112214685B (zh) 一种基于知识图谱的个性化推荐方法
CN110555112B (zh) 一种基于用户正负偏好学习的兴趣点推荐方法
CN112150210A (zh) 一种基于ggnn网络的改进型神经网络推荐方法及***
US11381651B2 (en) Interpretable user modeling from unstructured user data
CN110162700A (zh) 信息推荐及模型的训练方法、装置、设备以及存储介质
CN110427560A (zh) 一种应用于推荐***的模型训练方法以及相关装置
CN115658864A (zh) 一种基于图神经网络和兴趣注意力网络的会话推荐方法
CN114971784B (zh) 一种融合自注意力机制基于图神经网络的会话推荐方法与***
CN115203471B (zh) 一种基于注意力机制的多模融合视频推荐方法
CN110727864A (zh) 一种基于手机App安装列表的用户画像方法
CN112948625A (zh) 一种基于属性异质信息网络嵌入的电影推荐方法
JP2023530370A (ja) 注意メカニズムを融合したパーソナライズド検索方法及び検索システム
CN117633371B (zh) 基于多注意力机制的推荐方法、设备和可读存储介质
CN113409157B (zh) 一种跨社交网络用户对齐方法以及装置
CN114925270A (zh) 一种会话推荐方法和模型
CN116662501B (zh) 一种基于会话上下文信息的会话推荐方法
CN115098767B (zh) 一种基于兴趣感知和用户相似度的新闻推荐方法
CN117194765A (zh) 一种兴趣感知的双通道图对比学习会话推荐方法
CN116361643A (zh) 实现对象推荐的模型训练方法及对象推荐方法及相关装置
CN114417166B (zh) 基于行为序列和动态社交影响的连续兴趣点推荐方法
CN113032567B (zh) 位置嵌入解释方法、装置、计算机设备及存储介质
CN115564532A (zh) 序列推荐模型的训练方法及装置
CN115293812A (zh) 一种基于长短期兴趣的电商平台会话感知推荐预测方法
CN114519600A (zh) 一种融合相邻节点方差的图神经网络ctr预估算法
CN114528491A (zh) 信息处理方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant