CN112221159A - 一种虚拟道具推荐方法、装置及计算机可读存储介质 - Google Patents

一种虚拟道具推荐方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
CN112221159A
CN112221159A CN202011131039.9A CN202011131039A CN112221159A CN 112221159 A CN112221159 A CN 112221159A CN 202011131039 A CN202011131039 A CN 202011131039A CN 112221159 A CN112221159 A CN 112221159A
Authority
CN
China
Prior art keywords
user
game
node
target
prop
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011131039.9A
Other languages
English (en)
Other versions
CN112221159B (zh
Inventor
蔡红云
程序
何峰
***
姚亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202011131039.9A priority Critical patent/CN112221159B/zh
Publication of CN112221159A publication Critical patent/CN112221159A/zh
Application granted granted Critical
Publication of CN112221159B publication Critical patent/CN112221159B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种虚拟道具推荐方法、装置及计算机可读存储介质,其中,通过获取目标游戏的异构网络;利用异构网络表征学习模型将其中的目标用户节点表征为用户学习向量,以及将其中每一道具节点表征为道具学习向量;根据用户学习向量和道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第一偏好信息;获取目标游戏用户的历史操作序列,并通过时序模型将历史操作序列表征为时序学习向量;根据时序学习向量和道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第二偏好信息;根据第一偏好信息和第二偏好信息,向目标游戏用户推荐游戏虚拟道具。能够更准确的向游戏用户推荐游戏虚拟道具。

Description

一种虚拟道具推荐方法、装置及计算机可读存储介质
技术领域
本申请涉及人工智能技术领域,具体涉及一种虚拟道具推荐方法、装置及计算机可读存储介质。
背景技术
随着人工智能技术的飞速发展,通过在服务器部署智能推荐算法,能够对用户进行针对性的推荐,以游戏为例,能够向用户推荐其可能偏好的游戏虚拟道具。
现有技术中,通常采用基于图表征学习模型的智能推荐算法来学习用户对游戏道具的偏好,这种智能推荐算法将用户和游戏虚拟道具都表示成一个向量,最终通过两个向量的相似度来预测用户对一个游戏道具的偏好程度。
在对现有技术的研究和实践过程中,本申请的发明人发现,现有技术中在预测用户对游戏道具的偏好时,预测的准确率较低。
发明内容
本申请实施例提供一种虚拟道具推荐方法、装置及计算机可读存储介质,可以预测用户对游戏道具偏好的准确度。
为解决上述技术问题,本申请实施例提供以下技术方案:
一种虚拟道具推荐方法,包括:
获取目标游戏的异构网络,所述异构网络包括游戏用户的用户节点、游戏虚拟道具的道具节点、用户节点之间的第一边连接线、以及用户节点与道具节点之间的第二边连接线,所述第一边连接线表征游戏用户之间的社交关系,所述第二边连接线表征游戏用户对游戏虚拟道具的历史操作;
通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量,以及将每一道具节点表征为道具学习向量;
根据所述目标用户节点的用户学习向量和每一道具节点的道具学习向量,获取所述目标游戏用户对每一游戏虚拟道具的第一偏好信息;
获取所述目标游戏用户的历史操作序列,并通过时序模型将所述历史操作序列表征为时序学习向量;
根据所述历史操作序列的时序学习向量和每一道具节点的道具学习向量,获取所述目标游戏用户对每一游戏虚拟道具的第二偏好信息;
根据所述第一偏好信息和所述第二偏好信息,向所述目标游戏用户推荐游戏虚拟道具。
一种虚拟道具推荐装置,包括:
网络获取单元,用于获取目标游戏的异构网络,所述异构网络包括游戏用户的用户节点、游戏虚拟道具的道具节点、用户节点之间的第一边连接线、以及用户节点与道具节点之间的第二边连接线,所述第一边连接线表征游戏用户之间的社交关系,所述第二边连接线表征游戏用户对游戏虚拟道具的历史操作;
第一表征单元,用于通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量,以及将每一道具节点表征为道具学习向量;
第一偏好获取单元,用于根据所述目标用户节点的用户学习向量和每一道具节点的道具学习向量,获取所述目标游戏用户对每一游戏虚拟道具的第一偏好信息;
第二表征单元,用于获取所述目标游戏用户的历史操作序列,并通过时序模型将所述历史操作序列表征为时序学习向量;
第二偏好获取单元,用于根据所述历史操作序列的时序学习向量和每一道具节点的道具学习向量,获取所述目标游戏用户对每一游戏虚拟道具的第二偏好信息;
道具推荐单元,用于根据所述第一偏好信息和所述第二偏好信息,向所述目标游戏用户推荐游戏虚拟道具。
可选地,在一实施例中,所述第一表征单元,用于:
获取预设的用于在异构网络中进行游走采样的游走路径集合,所述游走路径集合包括多条不同的游走路径;
根据所述游走路径集合在所述异构网络中对所述目标用户节点进行游走采样,得到多条游走节点序列;
所述通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量的步骤,包括:
将所述多条游走节点序列输入所述异构网络表征学习模型进行表征学习,得到所述目标用户节点的用户学习向量。
可选地,在一实施例中,所述第一表征单元,用于:
针对每一游走节点序列,提取其中每一节点的特征向量,并通过所述异构网络表征学习模型将提取的特征向量映射到同一特征空间;
通过所述异构网络表征学习模型将每一游走节点序列中所有节点映射后的特征向量拼接为拼接特征向量;
通过所述异构网络表征学习模型将对应同一游走路径的多条游走节点序列的拼接特征向量聚合为第一聚合特征向量;
通过所述异构网络表征学习模型将多条不同游走路径对应的多个第一聚合特征向量聚合为第二聚合特征向量;
通过所述异构网络表征学习模型将所述第二聚合特征向量线性转换为所述用户学习向量。
可选地,在一实施例中,所述第一表征单元,用于:
针对对应同一游走路径的每一游走节点序列,根据其中相邻节点之间边连接线的预分配的权重,利用注意力机制生成对应的第一注意力权重;
根据对应同一游走路径的每一游走节点序列的第一注意力权重,通过所述异构网络表征学习模型将对应同一游走路径的多条游走节点序列的拼接特征向量聚合为所述第一聚合特征向量。
可选地,在一实施例中,所述虚拟道具推荐装置还包括权重分配模块,用于:
根据用户节点之间的交互记录,为用户节点之间的第一边连接线预分配权重;
根据用户节点对道具节点的历史操作,为用户节点与道具节点之间的第二边连接线预分配权重。
可选地,在一实施例中,所述时序模型包括双向长短期记忆模型,所述第二表征单元,用于:
获取所述历史操作序列中每一历史操作对应的目标道具节点的道具学习向量;
通过所述双向长短期记忆模型将每一目标道具节点的道具学习向量表征为时序向量;
获取每一目标道具节点的操作时间占比,并根据所述操作时间占比利用注意力机制生成对应的第二注意力权重;
根据每一目标道具节点所对应的第二注意力权重,将所述历史操作序列对应的多个目标道具节点的时序向量聚合为所述时序学习向量。
可选地,在一实施例中,所述第一偏好获取单元,用于:
计算所述目标用户节点的用户学习向量和每一道具节点的道具学习向量的相似度,并将所述相似度设为所述目标游戏用户对每一游戏虚拟道具的第一偏好信息。
可选地,在一实施例中,所述第二偏好获取单元,用于:
计算所述历史操作序列的时序学习向量和每一道具节点的道具学习向量的匹配度,并将所述匹配度设为所述目标游戏用户对每一游戏虚拟道具的第二偏好信息。
可选地,在一实施例中,所述道具推荐单元,用于:
融合所述目标游戏用户对每一游戏虚拟道具的第一偏好信息和第二偏好信息,得到所述目标游戏用户对每一游戏虚拟道具的目标偏好信息;
根据所述目标游戏用户对每一游戏虚拟道具的目标偏好信息进行排序,得到排序结果;
根据所述排序结果确定待推荐的目标游戏虚拟道具,并向所述目标游戏用户推荐所述目标游戏虚拟道具。
可选地,在一实施例中,所述网络获取单元,用于:
获取所述目标游戏中每一游戏用户的社交关系,得到社交关系集合;
获取每一游戏用户对所述目标游戏中游戏虚拟道具的历史操作,得到历史操作集合;
根据所述社交关系集合和所述历史操作集合构建所述异构网络。
可选地,在一实施例中,所述虚拟道具推荐装置还包括维度分配模块,用于:
获取所述异构网络中用户节点和道具节点的数量和值;
根据所述数量和值确定所述时序学习向量、所述用户学习向量以及所述道具学习向量的目标维度,所述目标维度小于所述数量和值;
所述第一表征单元,用于:
通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为所述目标维度的用户学习向量。
可选地,在一实施例中,所述虚拟道具推荐装置还包括联合训练模块,用于:
获取样本异构网络,所述样本异构网络包括样本游戏用户的样本用户节点、样本游戏虚拟道具的样本道具节点、样本用户节点之间的第三边连接线、以及样本用户节点与样本道具节点之间的第四边连接线,所述第三边连接线表征样本游戏用户之间的社交关系,所述第四边连接线表征样本游戏用户对样本游戏虚拟道具的历史操作;
获取每一样本游戏用户的历史操作序列;
根据所述样本异构网络以及每一样本游戏用户的历史操作序列对所述异构网络表征学习模型和所述时序模型进行联合训练。
可选地,在一实施例中,所述联合训练模块,用于:
通过所述异构网络表征学习模型将每一样本用户节点表征为样本用户学习向量,以及将每一道具节点表征为样本道具学习向量;
通过所述时序模型将每一样本游戏用户的样本历史操作序列表征为样本时序学习向量;
根据每一样本用户节点的样本用户学习向量以及每一样本道具节点的样本道具学习向量,获取所述异构网络表征学习模型的第一损失值;
根据每一样本历史操作序列的样本时序学习向量和每一样本道具节点的样本道具学习向量,获取所述时序模型的第二损失值;
融合所述第一损失值以及所述第二损失值得到融合损失值,并以最小化所述融合损失值为约束对所述异构网络表征学习模型和所述时序模型进行联合训练。
一种计算机可读存储介质,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行上述虚拟道具推荐方法中的步骤。
本申请中,获取目标游戏的异构网络;利用异构网络表征学习模型将目标游戏用户的在异构网络中的目标用户节点表征为用户学习向量,以及将异构网络中的每一道具节点表征为道具学习向量;根据用户学习向量和道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第一偏好信息;获取目标游戏用户的历史操作序列,并通过时序模型将历史操作序列表征为时序学习向量;根据时序学习向量和道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第二偏好信息;根据第一偏好信息和第二偏好信息,向目标游戏用户推荐游戏虚拟道具。以此,结合基于异构网络结构的第一偏好信息和基于操作时序的第二偏好信息,能够更准确反映游戏用户对游戏虚拟道具的真实偏好,从而更准确的向其推荐游戏虚拟道具。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的虚拟道具推荐***的场景示意图;
图2是本申请实施例提供的虚拟道具推荐方法的一流程示意图;
图3是本申请实施例中异构网络表征学习模型学习得到用户学习向量的示意图;
图4是本申请实施例中一个单向的长短期记忆单元的结构示意图;
图5是本申请实施例中双向长短期记忆模型被配置为时序模型时学习得到时序学习向量的示意图;
图6为本申请实施例中一异构网络的结构示意图;
图7是本申请实施例中提供的道具推荐界面的示例图;
图8是本申请实施例提供的虚拟道具推荐方法的另一流程示意图;
图9是本申请实施例中进行线上实验时的推荐效果对比示意图。
图10是本申请实施例提供的虚拟道具推荐装置的结构示意图;
图11是本申请实施例提供的服务器的结构示意图。
具体实施方式
应当说明的是,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反映的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、运算与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
其中,机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习等技术。利用机器学习技术,以及对应的训练数据集,能够训练得到实现不同功能的网络模型,比如,基于一训练数据集能够训练得到用于性别分类的网络模型,基于另一训练数据集能够训练得到图像优化的网络模型等。
目前,随着人工智能技术的不断发展,网络模型被部署在如智能手机、平板电脑、服务器等电子设备上,用于增强电子设备的处理能力。比如,电子设备通过其部署的图像优化模型,可以对其拍摄的图像进行优化,提升图像质量。
相关技术中,通常采用基于图表征学习模型的智能推荐算法来学习用户对游戏道具的偏好,其中,图表征学习模型将用户和游戏虚拟道具都表示成一个向量,最终通过两个向量的相似度来预测用户对一个游戏道具的偏好程度。然而,这种单一维度的预测偏好难以准确的反映用户的实际偏好。基于此,本申请提供一种虚拟道具推荐方法、装置、及计算机可读存储介质。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参阅图1,本申请还提供一虚拟道具推荐***,如图1所示,该虚拟道具推荐***包括用户终端(该虚拟道具推荐***还可以包括除图示用户终端之外的其他用户终端,具体个数在此处不作限定)和服务器,服务器用于提供游戏的运行服务,用户终端(比如智能手机、平板电脑、台式电脑等用户侧终端)与服务器通过通信网络连接,利用服务器所提供的运行服务运行游戏。用户终端和服务器之间的通信网络可以包括为无线通信网络,也可以为有线通信网络,其中无线通信网络包括无线广域网、无线局域网、无线城域网、以及无线个人网中的一种或多种的组合。应当说明的是,对于通信网络中包括的路由器、网关等网络实体,图1中并未示出。在图1所示的虚拟道具推荐***中,用户终端可以通过通信网络与服务器进行信息交互,比如服务器在预测得到用户终端的游戏用户对游戏虚拟道具的偏好之后,根据预测得到偏好向该用户终端进行游戏虚拟道具的推荐。
比如,该服务器将其提供运行服务的游戏记为目标游戏,首先获取该目标游戏的异构网络,该异构网络包括游戏用户的用户节点、游戏虚拟道具的道具节点、用户节点之间的第一边连接线、以及用户节点与道具节点之间的第二边连接线,第一边连接线表征游戏用户之间的社交关系,第二边连接线表征游戏用户对游戏虚拟道具的历史操作;然后,服务器将图示用户终端的游戏用户设为目标游戏用户,通过异构网络表征学习模型将该目标游戏用户的目标用户节点表征为用户学习向量,以及将每一道具节点表征为道具学习向量;以及根据目标用户节点的用户学习向量和每一道具节点的道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第一偏好信息;然后,服务器获取目标游戏用户的历史操作序列,并通过时序模型将历史操作序列表征为时序学习向量;以及根据历史操作序列的时序学习向量和每一道具节点的道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第二偏好信息;最后,服务器根据第一偏好信息和第二偏好信息,向图示用户终端的目标游戏用户推荐游戏虚拟道具。
需要说明的是,图1所示的虚拟道具推荐***的场景示意图仅仅是一个示例,本申请实施例描述的虚拟道具推荐***以及场景是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域普通技术人员可知,随着虚拟道具推荐***的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
以下分别进行详细说明。需说明的是,以下实施例的序号不作为对实施例优选顺序的限定。
在一实施例中,将从虚拟道具推荐装置的角度进行描述,该虚拟道具推荐装置具体可以集成在具备储存单元并安装有处理器而具有运算能力的服务器中。请参阅图2,图2是本申请实施例提供的虚拟道具推荐方法的流程示意图。该虚拟道具推荐方法包括:
在步骤110中,获取目标游戏的异构网络。
应当说明的是,目标游戏代指需要进行虚拟道具推荐的游戏,该目标游戏可以为虚拟道具推荐装置所在服务器自身所提供运行服务的游戏,也可以是其它服务器所提供运行服务的游戏,包括但不限于网络第一人称射击游戏、网络角色扮演游戏、多人在线战术竞技游戏等类型游戏。
其中,异构网络可以通过结构图的形式进行表征,比如G=(V,E,W,T),其中G表示一异构网络的结构图,V是节点集合,E是边集合,W是边的权重矩阵,T是边或点到类型的映射函数。如果节点v到节点v’有边连接线,则边连接线ev,v’=(v,v’)在E中,W v,v’是节点v和节点v’之间边连接线预分配的权重。T(v)返回节点v的类型,T(e v,v’)返回边连接线ev,v’的类型。
本申请实施例中,可以根据服务器本地的相关信息生成目标游戏的异构网络,也可以直接从其它服务器处获取已生成的目标游戏的异构网络。
其中,目标游戏的异构网络包括游戏用户的用户节点、游戏虚拟道具的道具节点、用户节点之间的第一边连接线、以及用户节点与道具节点之间的第二边连接线,第一边连接线表征游戏用户之间的社交关系,第二边连接线表征游戏用户对游戏虚拟道具的历史操作。
比如,以某网络角色扮演游戏为例,其中游戏用户之间的社交关系包括但不限于好友关系、师徒关系、家族关系、帮会关系以及阵营关系等;游戏虚拟道具包括但不限于可操作角色、外观道具等;游戏用户对游戏虚拟道具的历史操作包括但不限于点击、购买、以及使用(可以自己使用,也可以是赠送给其它游戏用户)等。
在一可选地实施方式中,获取目标游戏的异构网络的步骤,包括:
(1)获取目标游戏中每一游戏用户的社交关系,得到社交关系集合;
(2)获取每一游戏用户对目标游戏中游戏虚拟道具的历史操作,得到历史操作集合;
(3)根据社交关系集合和历史操作集合构建异构网络。
本实施方式中,在获取目标游戏的异构网络时,可以获取目标游戏中每一游戏用户的社交关系,得到社交关系集合。比如,对于一网络角色扮演游戏,其中的社交关系比如好友关系、师徒关系、家族关系、帮会关系以及阵营关系等。此外,还获取每一游戏用户对目标游戏中游戏虚拟道具的历史操作,得到历史操作集合S={(Vui,ti)|u∈U},其中,Vui表示游戏用户u执行的历史操作,ti表示该历史操作的执行时刻,U表示目标游戏中的所有游戏用户。
如上,在获取得到目标游戏的社交关系集合以及历史操作集合之后,即可根据该社交关系集合和该历史操作集合构建对应目标游戏的异构网络。
比如,请参照图6,示出了一网络角色扮演游戏的异构网络的一示意图。
如图6所示,其中包括四个用户节点,分别为对应游戏用户1的用户节点1,对应游戏用户2的用户节点2,对应游戏用户3的用户节点3以及对应游戏用户4的用户节点4,此外,还包括四个虚拟道具节点,分别为对应游戏虚拟道具1的道具节点1,对应游戏虚拟道具2的道具节点2,对应游戏虚拟道具3的道具节点3以及对应游戏虚拟道具4的道具节点4。其中,用户节点之间的第一边连接线表征了对应游戏用户之间的社交关系,比如用户节点1与用户节点2之间的第一边连接线表征游戏用户1和游戏用户2的社交关系为“师徒”;用户节点与道具节点之间的第二边连接线表征了对应的游戏用户对游戏虚拟道具的历史操作,比如用户节点1与道具节点1之间的第二边连接线表征游戏用户1和游戏虚拟道具1的历史操作为“使用过”。此外,如图7所示,异构网络中还可以包括类别节点,类别节点与道具节点之间的边连接线表征了道具节点的类别,比如,道具节点1与类别节点1之间的边连接线表征了道具节点1的类别为“道具类别1”。
在步骤120中,通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量,以及将每一道具节点表征为道具学习向量。
应当说明的是,本申请实施例中预先训练有异构网络表征学习模型,该异构网络表征学习模型被配置为对用户节点/游戏虚拟道具节点进行异构网络表征学习,将用户节点/游戏虚拟道具节点映射为长度固定的学习向量。类似于同构网络的表征学习,学习目标是使得学习出来的向量能尽可能保留异构网络中的结构信息,使得在异构网络中连接更紧密的节点的学习向量在映射空间里距离更近,此外,还需要考虑节点类型和边连接线类型的步态,在优化目标中区别对待。
本申请实施例中,目标游戏用户用于代指需要进行游戏虚拟道具推荐的游戏用户,可以为目标游戏中的任一游戏用户,具体可由本领域普通技术人员根据实际需要进行目标游戏用户的配置,本申请实施例中对此不作具体限制,比如,可以在一游戏用户上线时,即将该游戏用户设为目标用户。
相应的,通过预训练的异构网络表征学习模型对目标游戏用户在异构网络中的目标用户节点进行异构网络表征学习,将其表征为一个学习向量,记为用户学习向量;此外,还通过异构网络表征学习模型对每一游戏虚拟道具在异构网络中的道具节点进行异构网络表征学习,将其也表征为一个学习向量,记为道具学习向量。
在一可选地实施方式中,通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量的步骤之前,还包括:
(1)获取预设的用于在异构网络中进行游走采样的游走路径集合,游走路径集合包括多条不同的游走路径;
(2)根据游走路径集合在异构网络中对目标用户节点进行游走采样,得到多条游走节点序列;
通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量的步骤,包括:
(3)将多条游走节点序列输入异构网络表征学习模型进行表征学习,得到目标用户节点的用户学习向量。
其中,游走路径(也称元路径)用于约束在异构网络中进行随机游走时,每一步游走选择的节点类型。比如,用户节点-道具节点-用户节点就是一条游走路径。不同游走路径指向了不同的语义,比如“用户节点-用户节点”表示存在好友关系的游戏用户,“用户节点-道具节点-用户节点”表示操作过同一游戏虚拟道具的游戏用户等。
本实施方式中,预先进行游走路径的配置,比如,本申请实施例中预先配置多条不同的游走路径,由这些游走路径构成一游走路径集合,此处对配置的游走路径不做具体限制,可由本领域普通技术人员根据实际需要进行配置。
示例性的,本申请实施例中配置的游走路径集合包括四条不同的游走路径,分别为:
游走路径A:用户节点-用户节点,表示存在好友关系的游戏用户;
游走路径B:用户节点-道具节点-用户节点,表示操作过同一游戏虚拟道具的游戏用户;
游走路径C:道具节点-用户节点-道具节点,表示同一游戏用户操作过的游戏虚拟道具;
游走路径D:道具节点-用户节点-用户节点-道具节点,表示存在好友关系的游戏用户操作过的游戏虚拟道具。
相应的,为了能够通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量,首先获取到预设的游走路径集合,该游走路径集合包括预先配置的多条不同的游走路径,然后根据该游走路径集合中的多条游走路径针对目标用户节点进行游走采样,得到多条游走节点序列。
根据以上描述,可以理解的是,一游走节点序列可以包括目标用户节点和其它用户节点,也可以包括目标用户节点和其它用户节点以及道具节点,还可以包括目标用户节点和多个道具节点等,其中每一游走节点序列均包括了该目标用户节点在异构网络中的结构信息。
相应的,将携带了目标用户节点在异构网络中的结构信息的多条游走节点序列输入到异构网络表征学习模型进行表征学习,即可得到携带了目标用户节点的结构信息的用户学习向量。
在一可选地实施方式中,将多条游走节点序列输入异构网络表征学习模型进行表征学习,得到目标用户节点的用户学习向量的步骤,包括:
(1)针对每一游走节点序列,提取其中每一节点的特征向量,并通过异构网络表征学习模型将提取的特征向量映射到同一特征空间,以及将每一游走节点序列中所有节点映射后的特征向量拼接为拼接特征向量;
(2)通过异构网络表征学习模型将对应同一游走路径的多条游走节点序列的拼接特征向量聚合为第一聚合特征向量;
(3)通过异构网络表征学习模型将多条不同游走路径对应的多个第一聚合特征向量聚合为第二聚合特征向量;
(4)通过异构网络表征学习模型将第二聚合特征向量线性转换为用户学习向量。
比如,请参照图3,异构网络表征学习模型包括特征变化层、内部聚合层、外部激活层以及输出层,在将多条游走节点序列输入异构网络表征学习模型进行表征学习,得到目标用户节点的用户学习向量时,首先针对每一游走节点序列,提取其中每一节点(用户节点/道具节点)的特征向量,并经由特征变换层将不同类型的节点的特征向量映射到同一特征空间,比如,可以采用一层线性变换将不同类型的节点的特征向量映射到同一特征空间。
在完成特征向量的映射后,进一步将每一游走节点序列中所有节点映射后的特征向量拼接为拼接特征向量。比如,可以采用线性编码器进行拼接。
在将每一游走节点序列中的所有节点映射后的特征向量拼接为拼接特征向量之后,经由内部聚合层将对应同一游走路径的多条游走节点序列的拼接特征向量聚合为第一聚合特征向量。其中,可以采用注意力机制为每一游走节点序列分配注意力权重,用于约束多条游走节点序列的拼接特征向量的聚合。
通俗的说,注意力机制把注意力集中放在重要的点上,而忽略其他不重要的因素。可以看做是一种资源分配的机制,其将原本平均分配的资源根据注意力对象的重要程度重新分配资源,重要的单位就多分一点,不重要或者不好的单位就少分一点,在人工智能领域,注意力机制所要分配的资源就是权重。本实施方式中,将利用注意力机制分配的权重记为注意力权重。
在将对应同一游走路径的多条游走节点序列的拼接特征向量聚合为第一聚合特征向量之后,进一步经由外部聚合层利用外部-游走路径的注意力机制将多条不同游走路径对应的多个第一聚合特征向量聚合为第二聚合特征向量。
最后,经由输出层将第二聚合特征向量线性转换为用户学习向量。比如,可以按照如下公式将第二聚合特征向量线性转换为用户学习向量为:
Figure BDA0002735168350000141
其中,hu表示用户学习向量,σ表示sigmoid函数,·表示点乘,
Figure BDA0002735168350000142
表示第二聚合特征向量,W表示配置的用于做线性转换的参数矩阵。
在一可选地实施方式中,通过异构网络表征学习模型将对应同一游走路径的多条游走节点序列的拼接特征向量聚合为第一聚合特征向量的步骤,包括:
(1)针对对应同一游走路径的每一游走节点序列,根据其中相邻节点之间边连接线的预分配的权重,利用注意力机制生成对应的第一注意力权重;
(2)根据对应同一游走路径的每一游走节点序列的第一注意力权重,通过异构网络表征学习模型将对应同一游走路径的多条游走节点序列的拼接特征向量聚合为第一聚合特征向量。
本实施方式中,加入异构网络中节点之间边连接线预分配的权重,来指导注意力机制中的权重分配。
其中,针对对应同一游走路径的每一游走节点序列,根据其中相邻节点之间边连接线的预分配的权重,利用注意力机制生成对应的第一注意力权重,可以表示为:
Figure BDA0002735168350000151
其中,
Figure BDA0002735168350000152
表示第一注意力权重,wvu表示两个相邻节点u和v之间边连接线的预分配的权重,
Figure BDA0002735168350000153
表示了边连接线对节点u的重要度(可由本领域普通技术人员根据实际需要确定其取值方式,比如采用基于元路径的异构图表征学习算法中的计算方式,),
Figure BDA0002735168350000154
表示节点v在游走节点序列中的邻居节点的集合,
Figure BDA0002735168350000155
表示节点v和邻居节点之间边连接线对该相邻节点的重要度,wvs表示节点v和邻居节点之间边连接线的预分配的权重。
在生成每一游走节点序列的第一注意力权重之后,即根据每一游走节点序列的第一注意力权重,对多条游走节点序列的拼接特征向量进行加权求和,将其聚合为一个向量,也即第一聚合特征向量。
在一可选地实施方式中,还包括:
(1)根据游戏用户之间的交互记录,为对应的用户节点之间的第一边连接线预分配权重;
(2)根据用户节点对道具节点的历史操作,为用户节点与道具节点之间的第二边连接线预分配权重。
可以理解的是,一游戏用户对他所有的好友的亲密程度是不一样的,比如有些好友整天一起开黑、互送礼物,而有些人加了好友之后几乎没有互动。并且,游戏用户对自己购买过的游戏虚拟道具的偏好程度也是不一样的,比如游戏用户对那些重复购买过很多次的游戏虚拟道具有更强的购买意愿和需求。
因此,在本实施方式中,可以根据游戏用户之间的交互记录,为对应的用户节点之间的第一边连接线预分配权重。此处对于具体的权重分配方式不作限制,可由本领域普通技术人员根据实际需要进行权重分配方式的配置,比如,可以游戏用户间的交互越频繁,相应分配给对应用户节点之间第一边连接线的权重越大为约束,进行权重分配。
此外,根据游戏用户对游戏虚拟道具的历史操作,为对应的用户节点与道具节点之间的第二边连接线预分配权重。此处对于具体的权重分配方式不作限制,可由本领域普通技术人员根据实际需要进行权重分配方式的配置,比如,可以游戏用户对游戏虚拟道具的操作越频繁,相应分配给对应用户节点之间第二边连接线的权重越大为约束,进行权重分配。
另外,对于如何通过异构网络表征学习模型将每一道具节点表征为道具学习向量,具体可参照通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量的实施方式相应实施,此处不再赘述。
在一可选地实施方式中,通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量的步骤之前,还包括:
(1)获取异构网络中用户节点和道具节点的数量和值;
(2)根据数量和值确定时序学习向量、用户学习向量以及道具学习向量的目标维度,目标维度小于数量和值;
通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量的步骤,包括:
(3)通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为目标维度的用户学习向量。
本实施方式中,将时序学习向量、用户学习向量以及道具学习向量的维度设置为相同,并利用异构网络中用户节点和道具节点的数量和值来确定时序学习向量、用户学习向量以及道具学习向量的目标维度,即期望生成的时序学习向量、用户学习向量以及道具学习向量的维度。
其中,首先获取异构网络中用户节点和道具节点的数量和值,然后,根据数量和值确定时序学习向量、用户学习向量以及道具学习向量的目标维度,该目标维度小于数量和值。比如,可以将获取目标维度的过程表示为:
d=[1/n*N];
其中,d表示目标维度,n可由本领域普通技术人员根据实际需要取经验值,N表示数量和值,[]表示取整。
在步骤130中,根据目标用户节点的用户学习向量和每一道具节点的道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第一偏好信息。
应当说明的是,以上通过异构网络表征学习模型所学习到的用户学习向量携带了目标用户节点在异构网络中的结构信息,同样的,以上通过异构网络表征学习模型所学习到的道具学习向量则携带了道具节点在异构网络中的结构信息。因此,利用目标用户节点的用户学习向量以及每一道具节点的道具学习向量,可以获取到目标游戏用户对每一游戏虚拟道具在结构维度的偏好信息,记为第一偏好信息。
在一可选地实施方式中,根据目标用户节点的用户学习向量和每一道具节点的道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第一偏好信息的步骤,包括:
计算目标用户节点的用户学习向量和每一道具节点的道具学习向量的相似度,并将相似度设为目标游戏用户对每一游戏虚拟道具的第一偏好信息。
其中,目标用户节点的用户学习向量与一道具节点的道具学习向量的相似度可以由两个向量的内积计算而得,可以表示为:
Figure BDA0002735168350000171
其中,hu表示用户学习向量,hv表示道具学习向量,T表示转置,Plong表示用户学习向量和道具学习向量的相似度,其反映了游戏用户的对游戏虚拟道具的长期偏好,将其设为第一偏好信息。
在步骤140中,获取目标游戏用户的历史操作序列,并通过时序模型将历史操作序列表征为时序学习向量。
如上所述,异构网络中的用户节点与道具节点通过第二边连接线连接,该第二边连接线表征了游戏用户对游戏虚拟道具的历史操作。因此,可以根据连接目标用户节点的所有第二边连接线,获取到目标游戏用户所执行过的所有历史操作,按照时序对目标游戏用户所执行过的所有历史操作进行排序,即可得到该目标游戏用户的历史操作序列。比如,获取到目标游戏用户的历史操作序列S=(Vui,ti),其中,i在[0,N]中取值,N为正整数,Vui表示目标游戏用户在ti时刻执行的历史操作,假设目标游戏用户共执行过3次操作,则N为2,Vu0表示目标游戏用户在t0时刻执行的历史操作,Vu1表示目标游戏用户在t1时刻执行的历史操作,Vu2表示目标游戏用户在t2时刻执行的历史操作。
应当说明的是,本申请实施例中还预先训练有时序模型,该时序模型被配置为时序数据进行时序表征学习,将其映射为长度固定的学习向量。此处对该时序模型的类型不作具体限制,可由本领域普通技术人员根据实际需要进行配置,包括但不限于长短期记忆模型、双向长短期记忆模型以及门控制循环单元模型等循环神经网络模型。
本申请实施例中,在获取到目标游戏用户的历史操作序列之后,即通过预训练的时序模型对历史操作序列进行时序表征学习,将历史操作序列表征为一个学习向量,记为时序学习向量。
在一可选地实施方式中,时序模型包括双向长短期记忆模型,通过时序模型将历史操作序列表征为时序学习向量的步骤,包括:
(1)获取历史操作序列中每一历史操作对应的目标道具节点的道具学习向量;
(2)通过双向长短期记忆模型将每一目标道具节点的道具学习向量表征为时序向量;
(3)获取每一目标道具节点的操作时间占比,并根据操作时间占比利用注意力机制生成对应的第二注意力权重;
(4)根据每一目标道具节点所对应的第二注意力权重,将历史操作序列对应的多个目标道具节点的时序向量聚合为时序学习向量。
本实施方式中,以时序模型为双向长短期记忆模型为例进行说明。
其中,双向长短期记忆模型包括双向的长短期记忆单元,请参照图5,以一个单向的长短期记忆单元为例,如图4所示,该长短期记忆单元包括输入门、输出门、遗忘门以及记忆单元(或称记忆细胞),其中,σ表示sigmoid函数,g和h分别表示记忆单元输入到输出的激活函数,取双曲正切函数,即tanh(),具体按照如下公式进行迭代计算:
it=σ(Wixxt+Wihht-1+Wicct-1+bi);
ft=σ(Wfxxt+Wfhht-1+Wfcct-1+bf);
ct=ft·ct-1+it·tanh(Wcxxt+Wchht-1+bc));
ot=σ(Woxxt+Wohht-1+Wocct+bo);
ht=ot·tanh(ct);
其中,it表示长短期记忆单元中输入门的输出值,σ表示sigmoid函数,Wix表示当前时刻的输入数据到输入门的权重矩阵,xt表示当前时刻的输入数据,Wih表示长短期记忆单元上一时刻的输出值到输入门的权重矩阵,ht-1表示长短期记忆单元上一时刻的输出值,Wic表示长短期记忆单元中记忆单元到输入门的权重矩阵,ct-1表示记忆单元上一时刻的输出值,bi表示输入门的偏置量,ft表示长短期记忆单元中遗忘门的输出值,Wfx表示当前时刻的输入数据到遗忘门的权重矩阵,Wfh表示长短期记忆单元上一时刻的输出值到遗忘门的权重矩阵,Wfc表示记忆单元到遗忘门的权重矩阵,bf表示记忆单元的偏置量,ct表示记忆单元的输出值,Wcx表示当前时刻的输入数据到记忆单元的权重矩阵,Wch表示长短期记忆单元上一时刻的输出值到记忆单元的权重矩阵,bc表示记忆单元的偏置量,ot表示长短期记忆单元中输出门的输出值,Wox表示当前时刻的输入数据到输出门的权重矩阵,Woh表示长短期记忆单元上一时刻的输出值到输出门的权重矩阵,Woc表示记忆单元的输出值到输出门的权重矩阵,bo表示输出门的偏置量,ht表示长短期记忆单元的输出值,·表示点乘。
相应的,本实施方式中,获取所述历史操作序列中每一历史操作对应的目标道具节点的道具学习向量,这些道具学习向量对应了不同的时刻,将这些不同时刻的道具学习向量作为双向长短期记忆模型的输入xt
然后,通过双向长短期记忆模型将每一目标道具节点的道具学习向量分别表征为正向的时序向量和反向的时序向量,并拼接正向的时序向量和反向的时序向量得到目标时序向量。比如,请参照图5,x1至xt分别表示到时刻t为止的不同时刻所对应的道具学习向量,fh1至fht表示双向长短期记忆模型中正向长短期记忆单元在前述不同时刻的输出,bh1至bht表示双向长短期记忆模型中反向长短期记忆单元在前述不同时刻的输出,相应的,正向的时序向量fh=(fh1,fh2,……,fht),反向的时序向量bh=(bh1,bh2,……,bht)。
然后,获取每一目标道具节点的操作时间占比,并根据所述操作时间占比利用注意力机制生成对应的第二注意力权重,可以表示为:
Figure BDA0002735168350000191
Figure BDA0002735168350000192
其中,η、Q以及ba通过预先训练得到,wt表示时刻t的历史操作对应的游戏虚拟道具的操作时间占比(即该游戏虚拟道具***作的时长与历史操作序列对应的总时长之比),
Figure BDA0002735168350000201
表示目标时序向量。
在生成每一目标道具节点的第二注意力权重之后,即可根据每一目标道具节点所对应的第二注意力权重,对历史操作序列对应的多个目标道具节点的目标时序向量进行加权求和,将其聚合为一个向量,也即时序学习向量。
在步骤150中,根据历史操作序列的时序学习向量和每一道具节点的道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第二偏好信息。
应当说明的是,以上通过时序模型所学习到的时序学习向量携带了目标用户节点在时序上的操作信息。因此,利用目标游戏用户的历史操作序列的时序学习向量和每一道具节点的道具学习向量,可以获取到目标游戏用户对每一游戏虚拟道具在时序维度的偏好信息,记为第二偏好信息。
在一可选地实施方式中,根据历史操作序列的时序学习向量和每一道具节点的道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第二偏好信息的步骤,包括:
计算历史操作序列的时序学习向量和每一道具节点的道具学习向量的匹配度,并将匹配度设为目标游戏用户对每一游戏虚拟道具的第二偏好信息。
比如,可以采用多层感知器(Multilayer Perceptron,MLP)来计算时序学习向量和道具学习向量的匹配度,可以表示为:
Pshort=MLP(hs,hv);
其中,hs表示时序学习向量,hv表示道具学习向量,T表示转置,Pshort表示时序学习向量和道具学习向量的匹配度,其反映了游戏用户在当前时刻的对游戏虚拟道具的短期偏好,将其设为第二偏好信息。
在步骤160中,根据第一偏好信息和第二偏好信息,向目标游戏用户推荐游戏虚拟道具。
如上,第一偏好信息反映了目标游戏用户在结构维度上的偏好,第二偏好信息反映了目标游戏用户在时序维度上的偏好,因此,可以综合第一偏好信息和第二偏好信息确定满足预设推荐条件的目标游戏虚拟道具,并向目标游戏用户推荐目标游戏虚拟道具。
比如,请参照图7,提供了一道具推荐界面的示例图,如图7所示,该道具推荐界面包括确定出的针对目标游戏用户的多个游戏虚拟道具,分别为道具A、道具B、道具C、道具D、道具E以及道具F。可选地,目标游戏用户的用户终端可以在目标游戏用户上线时,接收来自于服务器的针对该目标游戏用户的目标游戏虚拟道具信息,并根据该目标游戏虚拟道具信息生成道具推荐界面,向目标游戏用户进行展示。如图7所示,该道具推荐界面还包括对应目标游戏虚拟道具的购买接口,该购买接口示出了对应游戏虚拟道具的售价信息(如对应道具A的购买接口示出了道具A的售价为8元,其它同理,此处不再赘述),目标游戏用户可根据实际需要通过购买接口购买期望的游戏虚拟道具。
在一可选地实施方式中,根据第一偏好信息和第二偏好信息,向目标游戏用户推荐游戏虚拟道具的步骤,包括:
(1)融合目标游戏用户对每一游戏虚拟道具的第一偏好信息和第二偏好信息,得到目标游戏用户对每一游戏虚拟道具的目标偏好信息;
(2)根据目标游戏用户对每一游戏虚拟道具的目标偏好信息进行排序,得到排序结果;
(3)根据排序结果确定待推荐的目标游戏虚拟道具,并向目标游戏用户推荐目标游戏虚拟道具。
其中,对于融合第一偏好信息和第二偏好信息,本实施方式中不作具体限制,比如,可以取二者的平均值,还可以对二者进行加权求和等。
以加权求和的融合方式为例,二者的权重可由本领域普通技术人员根据实际需要进行配置,比如,均配置为0.5,则融合偏好信息的过程可以表示为:
P=0.5*Plong+0.5*Pshort
其中,P表示目标偏好信息,其融合目标游戏用户对游戏虚拟道具的长期偏好和短期偏好。
之后,根据目标游戏用户对每一游戏虚拟道具的目标偏好信息进行排序,得到排序结果,并根据排序结果确定待推荐的目标游戏虚拟道具,并向目标游戏用户推荐目标游戏虚拟道具。
比如,可以按照目标偏好信息又大至小的顺序对虚拟游戏道具进行排序,得到排序结果,然后根据排序结果确定排序前预设个数(可由本领域普通技术人员根据目标游戏的不同取一合适的经验值,比如,对于一网络角色扮演游戏,配置的预设个数为20)的游戏虚拟道具作为目标游戏虚拟道具,用于推荐给目标游戏用户。
在一可选地实施方式中,获取目标游戏的异构网络的步骤之前,还包括:
(1)获取样本异构网络,样本异构网络包括样本游戏用户的样本用户节点、样本游戏虚拟道具的样本道具节点、样本用户节点之间的第三边连接线、以及样本用户节点与样本道具节点之间的第四边连接线,第三边连接线表征样本游戏用户之间的社交关系,第四边连接线表征样本游戏用户对样本游戏虚拟道具的历史操作;
(2)获取每一样本游戏用户的历史操作序列;
(3)根据样本异构网络以及每一样本游戏用户的历史操作序列对异构网络表征学习模型和时序模型进行联合训练。
在一可选地实施方式中,根据样本异构网络以及每一样本游戏用户的历史操作序列对异构网络表征学习模型和时序模型进行联合训练的步骤,包括:
(1)通过异构网络表征学习模型将每一样本用户节点表征为样本用户学习向量,以及将每一道具节点表征为样本道具学习向量;
(2)通过时序模型将每一样本游戏用户的样本历史操作序列表征为样本时序学习向量;
(3)根据每一样本用户节点的样本用户学习向量以及每一样本道具节点的样本道具学习向量,获取异构网络表征学习模型的第一损失值;
(4)根据每一样本历史操作序列的样本时序学习向量和每一样本道具节点的样本道具学习向量,获取时序模型的第二损失值;
(5)融合第一损失值以及第二损失值得到融合损失值,并以最小化融合损失值为约束对异构网络表征学习模型和时序模型进行联合训练。
其中,对于如何将每一样本用户节点表征为样本用户学习向量、将每一道具节点表征为样本道具学习向量,以及如何每一样本游戏用户的样本历史操作序列表征为样本时序学习向量,可以参照以上实施例中相应方式对应实施,此处不再赘述。
获取异构网络表征学习模型的第一损失值的过程可以表示为:
Figure BDA0002735168350000231
其中,u表示样本游戏用户,v表示样本游戏虚拟道具,Y表示所有样本游戏用户和所有样本游戏虚拟道具构成的样本集,yuv为道具样本标签(预先标记得到),yuv=1代表样本游戏用户u操作过样本游戏虚拟道具v,反之yuv=0代表样本游戏用户u没有操作过样本游戏虚拟道具v,hu表示样本游戏用户u的样本用户节点的样本用户学习向量,hv表示样本游戏虚拟道具v的样本道具节点的样本道具学习向量。
获取时序模型的第二损失值的过程可以表示为:
Figure BDA0002735168350000232
其中,s表示一历史操作,ysv为时序样本标签(预先标记得到),ysv=1代表样本游戏用户u经过样本历史操作序列对应时刻的下一时刻操作过样本游戏虚拟道具v,反之ysv=0代表样本游戏用户u经过样本历史操作序列对应时刻的下一时刻没有操作过样本游戏虚拟道具v,hs是样本历史操作序列s的样本时序学习向量。
本实施方式中,对于如何融合第一损失值以及第二损失值得到融合损失值,可由本领域普通技术人员根据实际需要进行配置,比如,可以计算第一损失值以及第二损失值之和作为融合损失值。
在融合得到融合损失值之后,即可以最小化融合损失值为约束对异构网络表征学习模型和时序模型进行联合训练。比如,可以使用Adam算法来最小化融合损失值,从而完成异构网络表征学习模型和时序模型进行联合训练。
由上述可知,本申请实施例通过获取目标游戏的异构网络;利用异构网络表征学习模型将目标游戏用户的在异构网络中的目标用户节点表征为用户学习向量,以及将异构网络中的每一道具节点表征为道具学习向量;根据用户学习向量和道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第一偏好信息;获取目标游戏用户的历史操作序列,并通过时序模型将历史操作序列表征为时序学习向量;根据时序学习向量和道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第二偏好信息;根据第一偏好信息和第二偏好信息,向目标游戏用户推荐游戏虚拟道具。以此,结合基于异构网络结构的第一偏好信息和基于操作时序的第二偏好信息,能够更准确反映游戏用户对游戏虚拟道具的真实偏好,从而更准确的向其推荐游戏虚拟道具。
结合上述实施例所描述的方法,以下将举例作进一步详细说明。
在本实施例中,将以服务器为执行主体为例进行说明,请参阅图8,图8为本申请实施例提供的虚拟道具推荐方法的另一流程示意图。该方法流程可以包括:
在步骤210中,服务器获取目标游戏的异构网络。
应当说明的是,目标游戏代指需要进行虚拟道具推荐的游戏,该目标游戏可以为虚拟道具推荐装置所在服务器自身所提供运行服务的游戏,也可以是其它服务器所提供运行服务的游戏,包括但不限于网络第一人称射击游戏、网络角色扮演游戏、多人在线战术竞技游戏等类型游戏。
其中,异构网络可以通过结构图的形式进行表征,比如G=(V,E,W,T),其中G表示一异构网络的结构图,V是节点集合,E是边集合,W是边的权重矩阵,T是边或点到类型的映射函数。如果节点v到节点v’有边连接线,则边连接线ev,v’=(v,v’)在E中,W v,v’是节点v和节点v’之间边连接线预分配的权重。T(v)返回节点v的类型,T(e v,v’)返回边连接线ev,v’的类型。
本申请实施例中,服务器可以根据本地的相关信息生成目标游戏的异构网络,也可以直接从其它服务器处获取已生成的目标游戏的异构网络。
其中,目标游戏的异构网络包括游戏用户的用户节点、游戏虚拟道具的道具节点、用户节点之间的第一边连接线、以及用户节点与道具节点之间的第二边连接线,第一边连接线表征游戏用户之间的社交关系,第二边连接线表征游戏用户对游戏虚拟道具的历史操作。
比如,以某网络角色扮演游戏为例,其中游戏用户之间的社交关系包括但不限于好友关系、师徒关系、家族关系、帮会关系以及阵营关系等;游戏虚拟道具包括但不限于可操作角色、外观道具等;游戏用户对游戏虚拟道具的历史操作包括但不限于点击、购买、以及使用(可以自己使用,也可以是赠送给其它游戏用户)等。
在步骤220中,服务器获取预设的用于在异构网络中进行游走采样的游走路径集合,并根据游走路径集合中多条游走路径在异构网络中对目标用户节点进行游走采样,得到多条游走节点序列。
其中,游走路径(也称元路径)用于约束在异构网络中进行随机游走时,每一步游走选择的节点类型。比如,用户节点-道具节点-用户节点就是一条游走路径。不同游走路径指向了不同的语义,比如“用户节点-用户节点”表示存在好友关系的游戏用户,“用户节点-道具节点-用户节点”表示操作过同一游戏虚拟道具的游戏用户等。
本实施方式中,预先进行游走路径的配置,比如,本申请实施例中预先配置多条不同的游走路径,由这些游走路径构成一游走路径集合,此处对配置的游走路径不做具体限制,可由本领域普通技术人员根据实际需要进行配置。
示例性的,本申请实施例中配置的游走路径集合包括四条不同的游走路径,分别为:
游走路径A:用户节点-用户节点,表示存在好友关系的游戏用户;
游走路径B:用户节点-道具节点-用户节点,表示操作过同一游戏虚拟道具的游戏用户;
游走路径C:道具节点-用户节点-道具节点,表示同一游戏用户操作过的游戏虚拟道具;
游走路径D:道具节点-用户节点-用户节点-道具节点,表示存在好友关系的游戏用户操作过的游戏虚拟道具。
相应的,为了能够通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量,服务器首先获取到预设的游走路径集合,该游走路径集合包括预先配置的多条不同的游走路径,然后根据该游走路径集合中的多条游走路径针对目标用户节点进行游走采样,得到多条游走节点序列。
在步骤230中,服务器将多条游走节点序列输入异构网络表征学习模型进行表征学习,得到目标用户节点的用户学习向量。
根据以上描述,可以理解的是,一游走节点序列可以包括目标用户节点和其它用户节点,也可以包括目标用户节点和其它用户节点以及道具节点,还可以包括目标用户节点和多个道具节点等,其中每一游走节点序列均包括了该目标用户节点在异构网络中的结构信息。
相应的,服务器将携带了目标用户节点在异构网络中的结构信息的多条游走节点序列输入到异构网络表征学习模型进行表征学习,即可得到携带了目标用户节点的结构信息的用户学习向量。
在步骤240中,服务器通过异构网络表征学习模型将每一道具节点表征为道具学习向量。
其中,对于如何通过异构网络表征学习模型将每一道具节点表征为道具学习向量,具体可参照通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量的实施方式相应实施,此处不再赘述。
在步骤250中,服务器计算目标用户节点的用户学习向量和每一道具节点的道具学习向量的相似度,相应设为目标游戏用户对每一游戏虚拟道具的第一偏好信息。
应当说明的是,以上通过异构网络表征学习模型所学习到的用户学习向量携带了目标用户节点在异构网络中的结构信息,同样的,以上通过异构网络表征学习模型所学习到的道具学习向量则携带了道具节点在异构网络中的结构信息。因此,利用目标用户节点的用户学习向量以及每一道具节点的道具学习向量,可以获取到目标游戏用户对每一游戏虚拟道具在结构维度的偏好信息,记为第一偏好信息。
其中,服务器可以计算目标用户节点的用户学习向量和每一道具节点的道具学习向量的相似度,并将相似度设为目标游戏用户对每一游戏虚拟道具的第一偏好信息。目标用户节点的用户学习向量与一道具节点的道具学习向量的相似度可以由两个向量的内积计算而得,可以表示为:
Figure BDA0002735168350000261
其中,hu表示用户学习向量,hv表示道具学习向量,T表示转置,Plong表示用户学习向量和道具学习向量的相似度,其反映了游戏用户的对游戏虚拟道具的长期偏好,将其设为第一偏好信息。
在步骤260中,服务器获取目标游戏用户的历史操作序列,并通过时序模型将历史操作序列表征为时序学习向量。
如上所述,异构网络中的用户节点与道具节点通过第二边连接线连接,该第二边连接线表征了游戏用户对游戏虚拟道具的历史操作。因此,可以根据连接目标用户节点的所有第二边连接线,获取到目标游戏用户所执行过的所有历史操作,按照时序对目标游戏用户所执行过的所有历史操作进行排序,即可得到该目标游戏用户的历史操作序列。比如,服务器获取到目标游戏用户的历史操作序列S=(Vui,ti),其中,i在[0,N]中取值,N为正整数,Vui表示目标游戏用户在ti时刻执行的历史操作,假设目标游戏用户共执行过3次操作,则N为2,Vu0表示目标游戏用户在t0时刻执行的历史操作,Vu1表示目标游戏用户在t1时刻执行的历史操作,Vu2表示目标游戏用户在t2时刻执行的历史操作。
应当说明的是,本申请实施例中还预先训练有时序模型,该时序模型被配置为时序数据进行时序表征学习,将其映射为长度固定的学习向量。此处对该时序模型的类型不作具体限制,可由本领域普通技术人员根据实际需要进行配置,包括但不限于长短期记忆模型、双向长短期记忆模型以及门控制循环单元模型等循环神经网络模型。
在步骤270中,服务器计算历史操作序列的时序学习向量和每一道具节点的道具学习向量的匹配度,相应设为目标游戏用户对每一游戏虚拟道具的第二偏好信息。
应当说明的是,以上通过时序模型所学习到的时序学习向量携带了目标用户节点在时序上的操作信息。因此,利用目标游戏用户的历史操作序列的时序学习向量和每一道具节点的道具学习向量,可以获取到目标游戏用户对每一游戏虚拟道具在时序维度的偏好信息,记为第二偏好信息。
其中,服务器可以计算历史操作序列的时序学习向量和每一道具节点的道具学习向量的匹配度,并将匹配度设为目标游戏用户对每一游戏虚拟道具的第二偏好信息。
比如,可以采用多层感知器(Multilayer Perceptron,MLP)来计算时序学习向量和道具学习向量的匹配度,可以表示为:
Pshort=MLP(hs,hv);
其中,hs表示时序学习向量,hv表示道具学习向量,T表示转置,Pshort表示时序学习向量和道具学习向量的匹配度,其反映了游戏用户在当前时刻的对游戏虚拟道具的短期偏好,将其设为第二偏好信息。
在步骤280中,服务器融合目标游戏用户对每一游戏虚拟道具的第一偏好信息和第二偏好信息,得到目标游戏用户对每一游戏虚拟道具的目标偏好信息。
如上,第一偏好信息反映了目标游戏用户在结构维度上的偏好,第二偏好信息反映了目标游戏用户在时序维度上的偏好,因此,可以综合第一偏好信息和第二偏好信息确定满足预设推荐条件的目标游戏虚拟道具,并向目标游戏用户推荐目标游戏虚拟道具。
其中,对于服务器融合第一偏好信息和第二偏好信息,本实施方式中不作具体限制,比如,服务器可以取二者的平均值,还可以对二者进行加权求和等。
以加权求和的融合方式为例,二者的权重可由本领域普通技术人员根据实际需要进行配置,比如,均配置为0.5,则融合偏好信息的过程可以表示为:
P=0.5*Plong+0.5*Pshort
其中,P表示目标偏好信息,其融合目标游戏用户对游戏虚拟道具的长期偏好和短期偏好。
在步骤290中,服务器根据目标游戏用户对每一游戏虚拟道具的目标偏好信息进行排序,得到排序结果,以及根据排序结果确定待推荐的目标游戏虚拟道具,并向目标游戏用户推荐目标游戏虚拟道具。
其中,服务器根据目标游戏用户对每一游戏虚拟道具的目标偏好信息进行排序,得到排序结果,并根据排序结果确定待推荐的目标游戏虚拟道具,并向目标游戏用户推荐目标游戏虚拟道具。
比如,可以按照目标偏好信息又大至小的顺序对虚拟游戏道具进行排序,得到排序结果,然后根据排序结果确定排序前预设个数(可由本领域普通技术人员根据目标游戏的不同取一合适的经验值,比如,对于一网络角色扮演游戏,配置的预设个数为20)的游戏虚拟道具作为目标游戏虚拟道具,用于推荐给目标游戏用户。
为了验证本实施例所提供的虚拟道具推荐方法的性能,进行了如下的离线实验。
从某游戏中提取了游戏用户玩地图(游戏虚拟道具)的历史记录,和游戏用户的社交关系。其中:
游戏用户的地图历史记录:从该游戏的数据库中提取了一周的数据,过滤掉玩低于1分钟的地图,过滤掉只出现一次的地图。共生成371560个游戏用户,55705个地图,1620824个用户玩地图的正样本,并保留了1:1的曝光未点击的地图作为负样本。
游戏用户的社交关系:涵盖了所有游戏用户的一共69346条好友关系。
根据以上信息进行异构网络的构建,包括对应游戏用户的用户节点,以及对应地图的道具节点。
采用如下4条游走路径,包括:
用户节点-用户节点;
用户节点-道具节点-用户节点;
道具节点-用户节点-道具节点;
道具节点-用户节点-用户节点-道具节点。
基于以上异构网络对本申请提供的游戏虚拟道具推荐方法(命名为T-MPGNN:Time-aware MetaPath GNN)与另外三个对比方案进行了对比实验。对比方案包括:
IMF:基于游戏用户-道具交互矩阵的隐式矩阵分解推荐算法
MetapPath MF:将异构表征学习与矩阵分解相结合的异构推荐算法。
MAGNN:仅考虑异构结构信息的Metapath GNN算法
评价指标:从上述离线数据集中随机采样20%的游戏用户历史记录作为测试样本,每一个样本是一个三元组(u,v,y),代表了游戏用户u是否玩过地图v。其中y=1表示玩过,y=0表示没有玩过。给定一个测试样本,每个方案会根据(u,v)预测y。使用AUC(AreaUnder the receiver operating characteristic Curve)作为评价指标来衡量每个方案的效果。AUC衡量了在随机抽取一个正样本(y=1)和负样本(y=0)的情况下,分类器正确判断正样本的值大约负样本的值的几率。所以AUC值越大的分类器,正确率越高。
对比实验的结果如下表所示:
Figure BDA0002735168350000301
可以发现,本技术方案T-MPGNN的预测准确度AUC是最高的。更具体的说,T-MPGNN相比IMF,AUC相对提升23.43%。与结合矩阵分解的异构表征算法MetaPath MF相比,T-MPGNN获得了10%的AUC相对提升。MAGNN由于仅考虑了游戏用户的长期偏好,忽略了时序信息,AUC相对比T-MPGNN低6%。
此外,还将本技术方案T-MPGNN用于线上的道具推荐的场景。请参照图9,在某游戏的道具推荐中,相较于默认推荐列表,基于同构图表征node2vec的推荐列表,基于业务规则制定的推荐列表,和XGBoost分类模型,T-MPGNN带来了购买率12%-477%的提升,arpu22%-651%的相对提升,购买arpu值2%-30%的提升。
为便于更好的实施本申请实施例提供的虚拟道具推荐方法,本申请实施例还提供一种基于上述虚拟道具推荐方法的装置。其中名词的含义与上述虚拟道具推荐方法中相同,具体实现细节可以参考方法实施例中的说明。
请参阅图10,图10为本申请实施例提供的虚拟道具推荐装置的结构示意图,其中该虚拟道具推荐装置可以包括网络获取单元310、第一表征单元320、第一偏好获取单元330、第二表征单元340、第二偏好获取单元350、以及道具推荐单元360等。
网络获取单元310,用于获取目标游戏的异构网络,异构网络包括游戏用户的用户节点、游戏虚拟道具的道具节点、用户节点之间的第一边连接线、以及用户节点与道具节点之间的第二边连接线,第一边连接线表征游戏用户之间的社交关系,第二边连接线表征游戏用户对游戏虚拟道具的历史操作;
第一表征单元320,用于通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量,以及将每一道具节点表征为道具学习向量;
第一偏好获取单元330,用于根据目标用户节点的用户学习向量和每一道具节点的道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第一偏好信息;
第二表征单元340,用于获取目标游戏用户的历史操作序列,并通过时序模型将历史操作序列表征为时序学习向量;
第二偏好获取单元350,用于根据历史操作序列的时序学习向量和每一道具节点的道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第二偏好信息;
道具推荐单元360,用于根据第一偏好信息和第二偏好信息,向目标游戏用户推荐游戏虚拟道具。
可选地,在一实施例中,第一表征单元320,用于:
获取预设的用于在异构网络中进行游走采样的游走路径集合,游走路径集合包括多条不同的游走路径;
根据游走路径集合在异构网络中对目标用户节点进行游走采样,得到多条游走节点序列;
通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量的步骤,包括:
将多条游走节点序列输入异构网络表征学习模型进行表征学习,得到目标用户节点的用户学习向量。
可选地,在一实施例中,第一表征单元320,用于:
针对每一游走节点序列,提取其中每一节点的特征向量,并通过异构网络表征学习模型将提取的特征向量映射到同一特征空间;
通过异构网络表征学习模型将每一游走节点序列中所有节点映射后的特征向量拼接为拼接特征向量;
通过异构网络表征学习模型将对应同一游走路径的多条游走节点序列的拼接特征向量聚合为第一聚合特征向量;
通过异构网络表征学习模型将多条不同游走路径对应的多个第一聚合特征向量聚合为第二聚合特征向量;
通过异构网络表征学习模型将第二聚合特征向量线性转换为用户学习向量。
可选地,在一实施例中,第一表征单元320,用于:
针对对应同一游走路径的每一游走节点序列,根据其中相邻节点之间边连接线的预分配的权重,利用注意力机制生成对应的第一注意力权重;
根据对应同一游走路径的每一游走节点序列的第一注意力权重,通过异构网络表征学习模型将对应同一游走路径的多条游走节点序列的拼接特征向量聚合为第一聚合特征向量。
可选地,在一实施例中,虚拟道具推荐装置还包括权重分配模块,用于:
根据用户节点之间的交互记录,为用户节点之间的第一边连接线预分配权重;
根据用户节点对道具节点的历史操作,为用户节点与道具节点之间的第二边连接线预分配权重。
可选地,在一实施例中,时序模型包括双向长短期记忆模型,第二表征单元340,用于:
获取历史操作序列中每一历史操作对应的目标道具节点的道具学习向量;
通过双向长短期记忆模型将每一目标道具节点的道具学习向量表征为时序向量;
获取每一目标道具节点的操作时间占比,并根据操作时间占比利用注意力机制生成对应的第二注意力权重;
根据每一目标道具节点所对应的第二注意力权重,将历史操作序列对应的多个目标道具节点的时序向量聚合为时序学习向量。
可选地,在一实施例中,第一偏好获取单元330,用于:
计算目标用户节点的用户学习向量和每一道具节点的道具学习向量的相似度,并将相似度设为目标游戏用户对每一游戏虚拟道具的第一偏好信息。
可选地,在一实施例中,第二偏好获取单元350,用于:
计算历史操作序列的时序学习向量和每一道具节点的道具学习向量的匹配度,并将匹配度设为目标游戏用户对每一游戏虚拟道具的第二偏好信息。
可选地,在一实施例中,道具推荐单元360,用于:
融合目标游戏用户对每一游戏虚拟道具的第一偏好信息和第二偏好信息,得到目标游戏用户对每一游戏虚拟道具的目标偏好信息;
根据目标游戏用户对每一游戏虚拟道具的目标偏好信息进行排序,得到排序结果;
根据排序结果确定待推荐的目标游戏虚拟道具,并向目标游戏用户推荐目标游戏虚拟道具。
可选地,在一实施例中,网络获取单元310,用于:
获取目标游戏中每一游戏用户的社交关系,得到社交关系集合;
获取每一游戏用户对目标游戏中游戏虚拟道具的历史操作,得到历史操作集合;
根据社交关系集合和历史操作集合构建异构网络。
可选地,在一实施例中,虚拟道具推荐装置还包括维度分配模块,用于:
获取异构网络中用户节点和道具节点的数量和值;
根据数量和值确定时序学习向量、用户学习向量以及道具学习向量的目标维度,目标维度小于数量和值;
第一表征单元320,用于:
通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为目标维度的用户学习向量。
可选地,在一实施例中,虚拟道具推荐装置还包括联合训练模块,用于:
获取样本异构网络,样本异构网络包括样本游戏用户的样本用户节点、样本游戏虚拟道具的样本道具节点、样本用户节点之间的第三边连接线、以及样本用户节点与样本道具节点之间的第四边连接线,第三边连接线表征样本游戏用户之间的社交关系,第四边连接线表征样本游戏用户对样本游戏虚拟道具的历史操作;
获取每一样本游戏用户的历史操作序列;
根据样本异构网络以及每一样本游戏用户的历史操作序列对异构网络表征学习模型和时序模型进行联合训练。
可选地,在一实施例中,联合训练模块,用于:
通过异构网络表征学习模型将每一样本用户节点表征为样本用户学习向量,以及将每一道具节点表征为样本道具学习向量;
通过时序模型将每一样本游戏用户的样本历史操作序列表征为样本时序学习向量;
根据每一样本用户节点的样本用户学习向量以及每一样本道具节点的样本道具学习向量,获取异构网络表征学习模型的第一损失值;
根据每一样本历史操作序列的样本时序学习向量和每一样本道具节点的样本道具学习向量,获取时序模型的第二损失值;
融合第一损失值以及第二损失值得到融合损失值,并以最小化融合损失值为约束对异构网络表征学习模型和时序模型进行联合训练。
以上各个单元的具体实施可参见前面的实施例,在此不再赘述。
由上述可知,本申请实施例通过网络获取单元310获取目标游戏的异构网络;第一表征单元320利用异构网络表征学习模型将目标游戏用户的在异构网络中的目标用户节点表征为用户学习向量,以及将异构网络中的每一道具节点表征为道具学习向量;第一偏好获取单元330根据用户学习向量和道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第一偏好信息;第二表征单元340获取目标游戏用户的历史操作序列,并通过时序模型将历史操作序列表征为时序学习向量;第二偏好获取单元350根据时序学习向量和道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第二偏好信息;道具推荐单元360根据第一偏好信息和第二偏好信息,向目标游戏用户推荐游戏虚拟道具。以此,结合基于异构网络结构的第一偏好信息和基于操作时序的第二偏好信息,能够更准确反映游戏用户对游戏虚拟道具的真实偏好,从而更准确的向其推荐游戏虚拟道具。
本申请实施例还提供一种服务器,如图11所示,其示出了本申请实施例所涉及的服务器的结构示意图,具体来讲:
该服务器可以包括一个或者一个以上处理核心的处理器410、一个或一个以上计算机可读存储介质的存储器420、电源430和输入单元440等部件。本领域技术人员可以理解,图11中示出的服务器结构并不构成对服务器的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器410是该服务器的控制中心,利用各种接口和线路连接整个服务器的各个部分,通过运行或执行存储在存储器420内的软件程序和/或模块,以及调用存储在存储器420内的数据,执行服务器的各种功能和处理数据,从而对服务器进行整体监控。可选的,处理器410可包括一个或多个处理核心;可选的,处理器410可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作***、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器410中。
存储器420可用于存储软件程序以及模块,处理器410通过运行存储在存储器420的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器420可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据服务器的使用所创建的数据等。此外,存储器420可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器420还可以包括存储器控制器,以提供处理器410对存储器420的访问。
服务器还包括给各个部件供电的电源430,可选的,电源430可以通过电源管理***与处理器410逻辑相连,从而通过电源管理***实现管理充电、放电、以及功耗管理等功能。电源430还可以包括一个或一个以上的直流或交流电源、再充电***、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
服务器还可包括输入单元440,该输入单元440可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,服务器还可以包括显示单元等,在此不再赘述。具体在本实施例中,服务器中的处理器410会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器420中,并由处理器410来运行存储在存储器420中的应用程序,从而实现前述实施例提供的各种方法步骤,如下:
获取目标游戏的异构网络,异构网络包括游戏用户的用户节点、游戏虚拟道具的道具节点、用户节点之间的第一边连接线、以及用户节点与道具节点之间的第二边连接线,第一边连接线表征游戏用户之间的社交关系,第二边连接线表征游戏用户对游戏虚拟道具的历史操作;
通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量,以及将每一道具节点表征为道具学习向量;
根据目标用户节点的用户学习向量和每一道具节点的道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第一偏好信息;
获取目标游戏用户的历史操作序列,并通过时序模型将历史操作序列表征为时序学习向量;
根据历史操作序列的时序学习向量和每一道具节点的道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第二偏好信息;
根据第一偏好信息和第二偏好信息,向目标游戏用户推荐游戏虚拟道具。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见上文针对虚拟道具推荐方法的详细描述,此处不再赘述。
由上述可知,本申请实施例的服务器可以通过获取目标游戏的异构网络;利用异构网络表征学习模型将目标游戏用户的在异构网络中的目标用户节点表征为用户学习向量,以及将异构网络中的每一道具节点表征为道具学习向量;根据用户学习向量和道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第一偏好信息;获取目标游戏用户的历史操作序列,并通过时序模型将历史操作序列表征为时序学习向量;根据时序学习向量和道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第二偏好信息;根据第一偏好信息和第二偏好信息,向目标游戏用户推荐游戏虚拟道具。以此,结合基于异构网络结构的第一偏好信息和基于操作时序的第二偏好信息,能够更准确反映游戏用户对游戏虚拟道具的真实偏好,从而更准确的向其推荐游戏虚拟道具。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本申请实施例所提供的任一种虚拟道具推荐方法中的步骤。例如,该指令可以执行如下步骤:
获取目标游戏的异构网络,异构网络包括游戏用户的用户节点、游戏虚拟道具的道具节点、用户节点之间的第一边连接线、以及用户节点与道具节点之间的第二边连接线,第一边连接线表征游戏用户之间的社交关系,第二边连接线表征游戏用户对游戏虚拟道具的历史操作;
通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量,以及将每一道具节点表征为道具学习向量;
根据目标用户节点的用户学习向量和每一道具节点的道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第一偏好信息;
获取目标游戏用户的历史操作序列,并通过时序模型将历史操作序列表征为时序学习向量;
根据历史操作序列的时序学习向量和每一道具节点的道具学习向量,获取目标游戏用户对每一游戏虚拟道具的第二偏好信息;
根据第一偏好信息和第二偏好信息,向目标游戏用户推荐游戏虚拟道具。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该计算机可读存储介质中所存储的指令,可以执行本申请实施例所提供的任一种虚拟道具推荐方法中的步骤,因此,可以实现本申请实施例所提供的任一种虚拟道具推荐方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种虚拟道具推荐方法、装置及计算机可读存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (15)

1.一种虚拟道具推荐方法,其特征在于,包括:
获取目标游戏的异构网络,所述异构网络包括游戏用户的用户节点、游戏虚拟道具的道具节点、用户节点之间的第一边连接线、以及用户节点与道具节点之间的第二边连接线,所述第一边连接线表征游戏用户之间的社交关系,所述第二边连接线表征游戏用户对游戏虚拟道具的历史操作;
通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量,以及将每一道具节点表征为道具学习向量;
根据所述目标用户节点的用户学习向量和每一道具节点的道具学习向量,获取所述目标游戏用户对每一游戏虚拟道具的第一偏好信息;
获取所述目标游戏用户的历史操作序列,并通过时序模型将所述历史操作序列表征为时序学习向量;
根据所述历史操作序列的时序学习向量和每一道具节点的道具学习向量,获取所述目标游戏用户对每一游戏虚拟道具的第二偏好信息;
根据所述第一偏好信息和所述第二偏好信息,向所述目标游戏用户推荐游戏虚拟道具。
2.根据权利要求1所述的虚拟道具推荐方法,其特征在于,所述通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量的步骤之前,还包括:
获取预设的用于在所述异构网络中进行游走采样的游走路径集合,所述游走路径集合包括多条不同的游走路径;
根据所述游走路径集合在所述异构网络中对所述目标用户节点进行游走采样,得到多条游走节点序列;
所述通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量的步骤,包括:
将所述多条游走节点序列输入所述异构网络表征学习模型进行表征学习,得到所述目标用户节点的用户学习向量。
3.根据权利要求2所述的虚拟道具推荐方法,其特征在于,所述将所述多条游走节点序列输入所述异构网络表征学习模型进行表征学习,得到所述目标用户节点的用户学习向量的步骤,包括:
针对每一游走节点序列,提取其中每一节点的特征向量,并通过所述异构网络表征学习模型将提取的特征向量映射到同一特征空间,以及将每一游走节点序列中所有节点映射后的特征向量拼接为拼接特征向量;
通过所述异构网络表征学习模型将对应同一游走路径的多条游走节点序列的拼接特征向量聚合为第一聚合特征向量;
通过所述异构网络表征学习模型将多条不同游走路径对应的多个第一聚合特征向量聚合为第二聚合特征向量;
通过所述异构网络表征学习模型将所述第二聚合特征向量线性转换为所述用户学习向量。
4.根据权利要求3所述的虚拟道具推荐方法,其特征在于,所述通过所述异构网络表征学习模型将对应同一游走路径的多条游走节点序列的拼接特征向量聚合为第一聚合特征向量的步骤,包括:
针对对应同一游走路径的每一游走节点序列,根据其中相邻节点之间边连接线的预分配的权重,利用注意力机制生成对应的第一注意力权重;
根据对应同一游走路径的每一游走节点序列的第一注意力权重,通过所述异构网络表征学习模型将对应同一游走路径的多条游走节点序列的拼接特征向量聚合为所述第一聚合特征向量。
5.根据权利要求4所述的虚拟道具推荐方法,其特征在于,所述虚拟道具推荐方法还包括:
根据游戏用户之间的交互记录,为对应的用户节点之间的第一边连接线预分配权重;
根据用户节点对道具节点的历史操作,为用户节点与道具节点之间的第二边连接线预分配权重。
6.根据权利要求1所述的虚拟道具推荐方法,其特征在于,所述时序模型包括双向长短期记忆模型,所述通过时序模型将所述历史操作序列表征为时序学习向量的步骤,包括:
获取所述历史操作序列中每一历史操作对应的目标道具节点的道具学习向量;
通过所述双向长短期记忆模型将每一目标道具节点的道具学习向量表征为目标时序向量;
获取每一目标道具节点的操作时间占比,并根据所述操作时间占比利用注意力机制生成对应的第二注意力权重;
根据每一目标道具节点所对应的第二注意力权重,将所述历史操作序列对应的多个目标道具节点的目标时序向量聚合为所述时序学习向量。
7.根据权利要求1所述的虚拟道具推荐方法,其特征在于,所述根据所述目标用户节点的用户学习向量和每一道具节点的道具学习向量,获取所述目标游戏用户对每一游戏虚拟道具的第一偏好信息的步骤,包括:
计算所述目标用户节点的用户学习向量和每一道具节点的道具学习向量的相似度,并将所述相似度设为所述目标游戏用户对每一游戏虚拟道具的第一偏好信息。
8.根据权利要求1所述的虚拟道具推荐方法,其特征在于,所述根据所述历史操作序列的时序学习向量和每一道具节点的道具学习向量,获取所述目标游戏用户对每一游戏虚拟道具的第二偏好信息的步骤,包括:
计算所述历史操作序列的时序学习向量和每一道具节点的道具学习向量的匹配度,并将所述匹配度设为所述目标游戏用户对每一游戏虚拟道具的第二偏好信息。
9.根据权利要求1所述的虚拟道具推荐方法,其特征在于,所述根据所述第一偏好信息和所述第二偏好信息,向所述目标游戏用户推荐游戏虚拟道具的步骤,包括:
融合所述目标游戏用户对每一游戏虚拟道具的第一偏好信息和第二偏好信息,得到所述目标游戏用户对每一游戏虚拟道具的目标偏好信息;
根据所述目标游戏用户对每一游戏虚拟道具的目标偏好信息进行排序,得到排序结果;
根据所述排序结果确定待推荐的目标游戏虚拟道具,并向所述目标游戏用户推荐所述目标游戏虚拟道具。
10.根据权利要求1所述的虚拟道具推荐方法,其特征在于,所述获取目标游戏的异构网络的步骤,包括:
获取所述目标游戏中每一游戏用户的社交关系,得到社交关系集合;
获取每一游戏用户对所述目标游戏中游戏虚拟道具的历史操作,得到历史操作集合;
根据所述社交关系集合和所述历史操作集合构建所述异构网络。
11.根据权利要求1-10任一项所述的虚拟道具推荐方法,其特征在于,所述通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量的步骤之前,还包括:
获取所述异构网络中用户节点和道具节点的数量和值;
根据所述数量和值确定所述时序学习向量、所述用户学习向量以及所述道具学习向量的目标维度,所述目标维度小于所述数量和值;
所述通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量的步骤,包括:
通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为所述目标维度的用户学习向量。
12.根据权利要求1-10任一项所述的虚拟道具推荐方法,其特征在于,所述获取目标游戏的异构网络的步骤之前,还包括:
获取样本异构网络,所述样本异构网络包括样本游戏用户的样本用户节点、样本游戏虚拟道具的样本道具节点、样本用户节点之间的第三边连接线、以及样本用户节点与样本道具节点之间的第四边连接线,所述第三边连接线表征样本游戏用户之间的社交关系,所述第四边连接线表征样本游戏用户对样本游戏虚拟道具的历史操作;
获取每一样本游戏用户的历史操作序列;
根据所述样本异构网络以及每一样本游戏用户的历史操作序列对所述异构网络表征学习模型和所述时序模型进行联合训练。
13.根据权利要求12所述的虚拟道具推荐方法,其特征在于,所述根据所述样本异构网络以及每一样本游戏用户的历史操作序列对所述异构网络表征学习模型和所述时序模型进行联合训练的步骤,包括:
通过所述异构网络表征学习模型将每一样本用户节点表征为样本用户学习向量,以及将每一道具节点表征为样本道具学习向量;
通过所述时序模型将每一样本游戏用户的样本历史操作序列表征为样本时序学习向量;
根据每一样本用户节点的样本用户学习向量以及每一样本道具节点的样本道具学习向量,获取所述异构网络表征学习模型的第一损失值;
根据每一样本历史操作序列的样本时序学习向量和每一样本道具节点的样本道具学习向量,获取所述时序模型的第二损失值;
融合所述第一损失值以及所述第二损失值得到融合损失值,并以最小化所述融合损失值为约束对所述异构网络表征学习模型和所述时序模型进行联合训练。
14.一种虚拟道具推荐装置,其特征在于,包括:
网络获取单元,用于获取目标游戏的异构网络,所述异构网络包括游戏用户的用户节点、游戏虚拟道具的道具节点、用户节点之间的第一边连接线、以及用户节点与道具节点之间的第二边连接线,所述第一边连接线表征游戏用户之间的社交关系,所述第二边连接线表征游戏用户对游戏虚拟道具的历史操作;
第一表征单元,用于通过异构网络表征学习模型将目标游戏用户的目标用户节点表征为用户学习向量,以及将每一道具节点表征为道具学习向量;
第一偏好获取单元,用于根据所述目标用户节点的用户学习向量和每一道具节点的道具学习向量,获取所述目标游戏用户对每一游戏虚拟道具的第一偏好信息;
第二表征单元,用于获取所述目标游戏用户的历史操作序列,并通过时序模型将所述历史操作序列表征为时序学习向量;
第二偏好获取单元,用于根据所述历史操作序列的时序学习向量和每一道具节点的道具学习向量,获取所述目标游戏用户对每一游戏虚拟道具的第二偏好信息;
道具推荐单元,用于根据所述第一偏好信息和所述第二偏好信息,向所述目标游戏用户推荐游戏虚拟道具。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求1至13任一项所述的虚拟道具推荐方法中的步骤。
CN202011131039.9A 2020-10-21 2020-10-21 一种虚拟道具推荐方法、装置及计算机可读存储介质 Active CN112221159B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011131039.9A CN112221159B (zh) 2020-10-21 2020-10-21 一种虚拟道具推荐方法、装置及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011131039.9A CN112221159B (zh) 2020-10-21 2020-10-21 一种虚拟道具推荐方法、装置及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN112221159A true CN112221159A (zh) 2021-01-15
CN112221159B CN112221159B (zh) 2022-04-08

Family

ID=74117585

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011131039.9A Active CN112221159B (zh) 2020-10-21 2020-10-21 一种虚拟道具推荐方法、装置及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN112221159B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112767054A (zh) * 2021-01-29 2021-05-07 北京达佳互联信息技术有限公司 数据推荐方法、装置、服务器和计算机可读存储介质
CN113144599A (zh) * 2021-04-30 2021-07-23 腾讯科技(深圳)有限公司 虚拟角色的装扮更换方法、装置、计算机设备及存储介质
CN113450181A (zh) * 2021-05-27 2021-09-28 广州三七极耀网络科技有限公司 虚拟商品推荐方法、装置、设备和存储介质
CN113509727A (zh) * 2021-07-09 2021-10-19 网易(杭州)网络有限公司 一种游戏中道具展示的方法、装置、电子设备和介质
CN116151354A (zh) * 2023-04-10 2023-05-23 之江实验室 网络节点的学习方法、装置、电子装置和存储介质
CN116775988A (zh) * 2023-05-17 2023-09-19 广州大学 基于超图嵌入的poi推荐方法及装置
CN117575744A (zh) * 2024-01-15 2024-02-20 成都帆点创想科技有限公司 一种基于用户关联关系的物品推荐方法及***

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101321190A (zh) * 2008-07-04 2008-12-10 清华大学 一种异构网络中的推荐方法及推荐***
JP2011248837A (ja) * 2010-05-31 2011-12-08 Rakuten Inc くじ引き装置、くじ引き方法、くじ引きプログラム及びくじ引きプログラムを記録したコンピュータ読み取り可能な記録媒体
CN103955535A (zh) * 2014-05-14 2014-07-30 南京大学镇江高新技术研究院 一种基于元路径的个性化推荐方法及***
CN106354862A (zh) * 2016-09-06 2017-01-25 山东大学 一种异构网络中多维个性化推荐方法
CN110503468A (zh) * 2019-08-19 2019-11-26 珠海天燕科技有限公司 一种基于用户行为的资源推荐方法及装置
CN110717098A (zh) * 2019-09-20 2020-01-21 中国科学院自动化研究所 基于元路径的上下文感知用户建模方法、序列推荐方法
CN111061949A (zh) * 2019-12-03 2020-04-24 深圳市其乐游戏科技有限公司 道具的推荐方法、推荐装置及计算机可读存储介质
CN111222053A (zh) * 2019-11-27 2020-06-02 腾讯音乐娱乐科技(深圳)有限公司 一种对象推荐方法、装置以及相关设备
CN111310049A (zh) * 2020-02-25 2020-06-19 腾讯科技(深圳)有限公司 一种信息交互方法及相关设备
CN111569412A (zh) * 2020-04-29 2020-08-25 炫彩互动网络科技有限公司 一种云游戏资源调度的方法和装置
CN111652673A (zh) * 2020-05-09 2020-09-11 腾讯科技(深圳)有限公司 智能推荐方法、装置、服务器和存储介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101321190A (zh) * 2008-07-04 2008-12-10 清华大学 一种异构网络中的推荐方法及推荐***
JP2011248837A (ja) * 2010-05-31 2011-12-08 Rakuten Inc くじ引き装置、くじ引き方法、くじ引きプログラム及びくじ引きプログラムを記録したコンピュータ読み取り可能な記録媒体
CN103955535A (zh) * 2014-05-14 2014-07-30 南京大学镇江高新技术研究院 一种基于元路径的个性化推荐方法及***
CN106354862A (zh) * 2016-09-06 2017-01-25 山东大学 一种异构网络中多维个性化推荐方法
CN110503468A (zh) * 2019-08-19 2019-11-26 珠海天燕科技有限公司 一种基于用户行为的资源推荐方法及装置
CN110717098A (zh) * 2019-09-20 2020-01-21 中国科学院自动化研究所 基于元路径的上下文感知用户建模方法、序列推荐方法
CN111222053A (zh) * 2019-11-27 2020-06-02 腾讯音乐娱乐科技(深圳)有限公司 一种对象推荐方法、装置以及相关设备
CN111061949A (zh) * 2019-12-03 2020-04-24 深圳市其乐游戏科技有限公司 道具的推荐方法、推荐装置及计算机可读存储介质
CN111310049A (zh) * 2020-02-25 2020-06-19 腾讯科技(深圳)有限公司 一种信息交互方法及相关设备
CN111569412A (zh) * 2020-04-29 2020-08-25 炫彩互动网络科技有限公司 一种云游戏资源调度的方法和装置
CN111652673A (zh) * 2020-05-09 2020-09-11 腾讯科技(深圳)有限公司 智能推荐方法、装置、服务器和存储介质

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112767054A (zh) * 2021-01-29 2021-05-07 北京达佳互联信息技术有限公司 数据推荐方法、装置、服务器和计算机可读存储介质
CN113144599A (zh) * 2021-04-30 2021-07-23 腾讯科技(深圳)有限公司 虚拟角色的装扮更换方法、装置、计算机设备及存储介质
CN113450181A (zh) * 2021-05-27 2021-09-28 广州三七极耀网络科技有限公司 虚拟商品推荐方法、装置、设备和存储介质
CN113509727A (zh) * 2021-07-09 2021-10-19 网易(杭州)网络有限公司 一种游戏中道具展示的方法、装置、电子设备和介质
CN113509727B (zh) * 2021-07-09 2024-06-04 网易(杭州)网络有限公司 一种游戏中道具展示的方法、装置、电子设备和介质
CN116151354A (zh) * 2023-04-10 2023-05-23 之江实验室 网络节点的学习方法、装置、电子装置和存储介质
CN116775988A (zh) * 2023-05-17 2023-09-19 广州大学 基于超图嵌入的poi推荐方法及装置
CN117575744A (zh) * 2024-01-15 2024-02-20 成都帆点创想科技有限公司 一种基于用户关联关系的物品推荐方法及***
CN117575744B (zh) * 2024-01-15 2024-03-26 成都帆点创想科技有限公司 一种基于用户关联关系的物品推荐方法及***

Also Published As

Publication number Publication date
CN112221159B (zh) 2022-04-08

Similar Documents

Publication Publication Date Title
CN112221159B (zh) 一种虚拟道具推荐方法、装置及计算机可读存储介质
US10922866B2 (en) Multi-dimensional puppet with photorealistic movement
CN111931062A (zh) 一种信息推荐模型的训练方法和相关装置
CN110852419B (zh) 一种基于深度学习的动作模型及其训练方法
CN112052948B (zh) 一种网络模型压缩方法、装置、存储介质和电子设备
CN111494964B (zh) 虚拟物品的推荐方法、模型的训练方法、装置及存储介质
CN112116090A (zh) 神经网络结构搜索方法、装置、计算机设备及存储介质
CN112380453A (zh) 物品推荐方法、装置、存储介质及设备
CN113609337A (zh) 图神经网络的预训练方法、训练方法、装置、设备及介质
Wang et al. Basketball shooting angle calculation and analysis by deeply-learned vision model
CN113761359A (zh) 数据包推荐方法、装置、电子设备和存储介质
CN115168720A (zh) 内容交互预测方法以及相关设备
CN110222734B (zh) 贝叶斯网络学习方法、智能设备及存储装置
CN115238169A (zh) 一种慕课可解释推荐方法、终端设备及存储介质
CN111046655A (zh) 一种数据处理方法、装置及计算机可读存储介质
Huang et al. GeoPM-DMEIRL: A deep inverse reinforcement learning security trajectory generation framework with serverless computing
Jin et al. Domain prompt tuning via meta relabeling for unsupervised adversarial adaptation
Gao Game-theoretic approaches for generative modeling
CN112084876A (zh) 一种目标对象追踪方法、***、装置及介质
CN115168722A (zh) 内容交互预测方法以及相关设备
Hu et al. Learning multi-expert distribution calibration for long-tailed video classification
Lee et al. REINDEAR: REINforcement learning agent for Dynamic system control in Edge-Assisted Augmented Reality service
CN115858911A (zh) 信息推荐方法、装置、电子设备及计算机可读存储介质
Zhang et al. Stm-gail: Spatial-Temporal meta-gail for learning diverse human driving strategies
Elesedy Symmetry and Generalisation in Machine Learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40037768

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant