CN116764236A - 游戏道具推荐方法、装置、计算机设备和存储介质 - Google Patents
游戏道具推荐方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN116764236A CN116764236A CN202210230129.6A CN202210230129A CN116764236A CN 116764236 A CN116764236 A CN 116764236A CN 202210230129 A CN202210230129 A CN 202210230129A CN 116764236 A CN116764236 A CN 116764236A
- Authority
- CN
- China
- Prior art keywords
- prop
- feature
- game
- test sample
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 238000012549 training Methods 0.000 claims abstract description 151
- 230000003993 interaction Effects 0.000 claims abstract description 56
- 238000012360 testing method Methods 0.000 claims description 197
- 238000004590 computer program Methods 0.000 claims description 19
- 238000012216 screening Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 4
- 238000006467 substitution reaction Methods 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 18
- 238000005516 engineering process Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 19
- 230000000694 effects Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000007637 random forest analysis Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229910021389 graphene Inorganic materials 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及一种游戏道具推荐方法、装置、计算机设备和存储介质。所述方法涉及人工智能,包括:当检测到当前游戏实例的实时游戏进程满足道具推荐条件时,获取利用符合特征重要度要求的目标特征训练得到道具推荐模型,各目标特征根据标签预测模型输出的预测标签确定得到。从当前游戏实例的游戏进程数据、游戏道具属性数据和玩家属性数据中,分别提取目标玩家特征、目标交互特征和目标道具特征,并将目标玩家特征、目标交互特征和目标道具特征输入道具推荐模型,以输出游戏推荐道具,并在当前游戏实例的游戏界面进行展示。采用本方法能够减少训练模型所需的特征维度,并去除特征噪音,提升道具推荐模型的预测结果,进而提升游戏道具的推荐成功率。
Description
技术领域
本申请涉及人工智能技术领域,特别是涉及一种游戏道具推荐方法、装置、计算机设备和存储介质。
背景技术
随着人工智能技术的发展,以及网络游戏运营业务的逐步推广,就各类游戏应用程序或应用平台等而言,需要向游戏用户推荐并销售游戏道具,从而获得收益。为了保证向游戏用户成功推荐游戏道具,提升游戏道具的购买率,需要确定出游戏用户购买意愿高的游戏道具,并向游戏用户推荐。
传统技术中,多采用获取游戏用户的历史购买记录,并基于历史购买记录对游戏用户按照消费能力进行分类,并确定出每类游戏用户的道具购买偏好。比如在确定出游戏用户属于消费高的用户分类时,获取该用户分类下各游戏用户的道具购买情况,进而对各用户的道具购买偏好进行排序,以确定出道具购买偏好排序靠前的一个或多个游戏道具,最终向对应用户分类的游戏用户进行推荐。
然而传统上基于历史购买记录进行分析的方式,只考虑了游戏用户的消费能力,也仅仅是对已有的历史数据进行处理,不能实时跟进游戏进程以及在当前游戏进程下考虑游戏用户的需求,存在所推荐的游戏道具已经购买多次无需再购买的情况。因此,传统的游戏道具偏好排序以及道具推荐的方式,仍存在推荐成功率较低,平台收益较低的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提升游戏道具推荐成功率以及平台收益的游戏道具推荐方法、装置、计算机设备和存储介质。
第一方面,本申请提供了一种游戏道具推荐方法。所述方法包括:
当检测到当前游戏实例的实时游戏进程满足道具推荐条件时,获取道具推荐模型,所述道具推荐模型利用符合特征重要度要求的目标特征训练得到,各所述目标特征根据标签预测模型所输出的预测标签确定得到;
采集当前游戏实例的游戏进程数据、游戏道具属性数据以及玩家属性数据;
从所述玩家属性数据中提取目标玩家特征,从所述游戏进程数据中提取目标交互特征,从所述游戏道具属性数据中提取目标道具特征;
将所述目标玩家特征、目标道具特征以及目标交互特征,确定为所述道具推荐模型的输入数据,基于所述道具推荐模型输出游戏推荐道具,并在所述当前游戏实例的游戏界面展示。
在其中一个实施例中,在所述根据各所述目标特征以及对应的特征数值,训练得到道具推荐模型之后,还包括:
获取针对各所述目标特征预先标注的特征标签,并根据预先标注的所述特征标签确定预设推荐道具;
根据所述预设推荐道具和所述游戏推荐道具,确定出训练损失值;
基于所述训练损失值,确定所述道具推荐模型的预测准确度。
第二方面,本申请还提供了一种游戏道具推荐装置。所述装置包括:
道具推荐模型获取模块,用于当检测到当前游戏实例的实时游戏进程满足道具推荐条件时,获取道具推荐模型,所述道具推荐模型利用符合特征重要度要求的目标特征训练得到,各所述目标特征根据标签预测模型所输出的预测标签确定得到;
数据采集模块,用于采集当前游戏实例的游戏进程数据、游戏道具属性数据以及玩家属性数据;
目标特征提取模块,用于从所述玩家属性数据中提取目标玩家特征,从所述游戏进程数据中提取目标交互特征,从所述游戏道具属性数据中提取目标道具特征;
游戏推荐道具展示模块,用于将所述目标玩家特征、目标道具特征以及目标交互特征,确定为所述道具推荐模型的输入数据,基于所述道具推荐模型输出游戏推荐道具,并在所述当前游戏实例的游戏界面展示。
第三方面,本申请还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
当检测到当前游戏实例的实时游戏进程满足道具推荐条件时,获取道具推荐模型,所述道具推荐模型利用符合特征重要度要求的目标特征训练得到,各所述目标特征根据标签预测模型所输出的预测标签确定得到;
采集当前游戏实例的游戏进程数据、游戏道具属性数据以及玩家属性数据;
从所述玩家属性数据中提取目标玩家特征,从所述游戏进程数据中提取目标交互特征,从所述游戏道具属性数据中提取目标道具特征;
将所述目标玩家特征、目标道具特征以及目标交互特征,确定为所述道具推荐模型的输入数据,基于所述道具推荐模型输出游戏推荐道具,并在所述当前游戏实例的游戏界面展示。
第四方面,本申请还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
当检测到当前游戏实例的实时游戏进程满足道具推荐条件时,获取道具推荐模型,所述道具推荐模型利用符合特征重要度要求的目标特征训练得到,各所述目标特征根据标签预测模型所输出的预测标签确定得到;
采集当前游戏实例的游戏进程数据、游戏道具属性数据以及玩家属性数据;
从所述玩家属性数据中提取目标玩家特征,从所述游戏进程数据中提取目标交互特征,从所述游戏道具属性数据中提取目标道具特征;
将所述目标玩家特征、目标道具特征以及目标交互特征,确定为所述道具推荐模型的输入数据,基于所述道具推荐模型输出游戏推荐道具,并在所述当前游戏实例的游戏界面展示。
第五方面,本申请还提供了一种计算机程序产品。所述计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
当检测到当前游戏实例的实时游戏进程满足道具推荐条件时,获取道具推荐模型,所述道具推荐模型利用符合特征重要度要求的目标特征训练得到,各所述目标特征根据标签预测模型所输出的预测标签确定得到;
采集当前游戏实例的游戏进程数据、游戏道具属性数据以及玩家属性数据;
从所述玩家属性数据中提取目标玩家特征,从所述游戏进程数据中提取目标交互特征,从所述游戏道具属性数据中提取目标道具特征;
将所述目标玩家特征、目标道具特征以及目标交互特征,确定为所述道具推荐模型的输入数据,基于所述道具推荐模型输出游戏推荐道具,并在所述当前游戏实例的游戏界面展示。
上述游戏道具推荐方法、装置、计算机设备和存储介质中,当检测到当前游戏实例的实时游戏进程满足道具推荐条件时,获取道具推荐模型,其中,道具推荐模型利用符合特征重要度要求的目标特征训练得到,而目标特征则根据标签预测模型所输出的预测标签确定得到。通过采集当前游戏实例的游戏进程数据、游戏道具属性数据以及玩家属性数据,并从玩家属性数据中提取目标玩家特征,从游戏进程数据中提取目标交互特征,从游戏道具属性数据中提取目标道具特征,进而将目标玩家特征、目标道具特征以及目标交互特征,确定为道具推荐模型的输入数据,基于道具推荐模型输出游戏推荐道具,并在当前游戏实例的游戏界面进行展示。实现了可基于特征重要度确定出符合要求的目标特征,进而根据目标特征训练得到道具推荐模型,而不是采用所有的特征进行训练,减少训练模型所需的特征维度,并去除特征噪音,提升训练得到的道具推荐模型的预测结果,使得所输出的游戏推荐道具更符合当前游戏进程的实际需求,进一步提升游戏道具的推荐成功率,增加平台收益。
附图说明
图1为一个实施例中游戏道具推荐方法的应用环境图;
图2为一个实施例中游戏道具推荐方法的流程示意图;
图3为一个实施例中游戏道具推荐方法的道具推荐界面示意图;
图4为一个实施例中利用符合特征重要度要求的目标特征训练得到道具推荐模型的流程示意图;
图5为一个实施例中特征重要度的计算过程示意图;
图6为一个实施例中道具推荐模型的特征数量优化效果示意图;
图7为一个实施例中输出与各测试样本特征对应的预测标签的流程示意图;
图8为一个实施例中确定与各测试样本特征对应的值域的流程示意图;
图9为另一个实施例中游戏道具推荐方法的流程示意图;
图10为一个实施例中游戏道具推荐装置的结构框图;
图11为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例提供的游戏道具推荐方法,涉及人工智能技术。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
本申请实施例提供的游戏道具推荐方法涉及人工智能的机器学***板电脑、物联网设备和便携式可穿戴设备,物联网设备可为智能音箱、智能电视、智能空调、智能车载设备等。便携式可穿戴设备可为智能手表、智能手环、头戴设备等。服务器104可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式***,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。
在一个实施例中,如图2所示,提供了一种游戏道具推荐方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
步骤S202,当检测到当前游戏实例的实时游戏进程满足道具推荐条件时,获取道具推荐模型,道具推荐模型利用符合特征重要度要求的目标特征训练得到,各目标特征根据标签预测模型所输出的预测标签确定得到。
具体地,通过获取当前游戏实例的实时游戏进程,并判断当前游戏实例的实时游戏进程是否满足道具推荐条件。在确定实时游戏进程满足道具推荐条件时,则获取训练好的道具推荐模型,以通过该道具推荐模型输出推荐道具并展示,以游戏玩家查看或购买。
进一步地,判断是否满足道具推荐条件,可以通过判断当前游戏实例的实时游戏进程是否进入道具推荐场景,比如游戏实例中的幸运空投场景,物资返场场景等,当某一游戏实例进入该些场景时,则表示当前游戏实例的实时游戏进程满足道具推荐条件,进而在满足道具推荐的条件下,在游戏界面弹出道具推荐购买页面,并展示根据道具推荐模型确定的推荐道具,以供游戏玩家查看和购买。
在一个实施例中,利用符合特征重要度要求的目标特征训练得到道具推荐模型的方式,包括:
采集训练样本特征,并根据各训练样本特征以及对应的样本标签,训练得到标签预测模型;采集测试样本特征,并基于标签预测模型,输出与各测试样本特征对应的预测标签;基于各预测标签,确定出符合特征重要度要求的目标特征;根据各目标特征以及对应的特征数值,训练得到道具推荐模型。
具体地,通过采集玩家特征、道具特征以及交互特征,并根据所采集的玩家特征、道具特征以及交互特征进行拼接处理,得到训练样本特征,并为各训练样本特征预先标注样本标签。其中,预先标注的样本标签包括游戏玩家已购买道具标签和游戏玩家未购买道具标签,比如游戏玩家A购买了道具a,则与游戏玩家A对应的样本标签则为1,即游戏玩家已购买道具标签,反之如果游戏玩家A未购买了道具a,则与游戏玩家A对应的样本标签则为0,即游戏玩家未购买道具标签。
其中,对玩家特征、道具特征以及交互特征进行拼接处理,可以采用向量拼接操作符的方式实现,比如玩家特征为Xi(U)、道具特征为Xi(I)以及交互特征为Xi(Q),则以下公式(1)进行体现:
其中,表示将向量进行拼接的操作符,s、k、t则是用于表示不同特征的数量,比如玩家特征、道具特征以及交互特征的数量。
进一步地,可根据各训练样本特征以及对应的样本标签,对初始神经网络模型进行训练,得到训练后的标签预测模型。其中,在得到标签预测模型后,需要对标签预测模型进行测试,以进一步确定出对标签预测模型影响更大的目标特征,即确定出符合特征重要度要求的目标特征。进而根据符合特征重要度要求的目标特征,以及与目标特征对应的特征数值,重新对初始神经网络模型进行训练,得到训练好的道具推荐模型。
步骤S204,采集当前游戏实例的游戏进程数据、游戏道具属性数据以及玩家属性数据。
具体地,在获取训练好的道具推荐模型后,进一步采集当前游戏实例的游戏进程数据、游戏道具属性数据以及玩家属性数据,其中,游戏进程数据包括游戏实例的当前游戏进程,比如是属于过场动画阶段,还是游戏操作阶段,或者当前是否进入幸运空投场景或物资返场场景等,还包括游戏玩家和道具之间的交互特征,比如游戏玩家是否使用或者查看过这个道具,或者游戏玩家在实例中使用某个道具的次数等,其中,交互特征不包括游戏玩家对道具的购买行为。
进一步地,游戏道具属性数据包括道具属性和购买特征,道具属性包括道具类型、道具功能以及道具价格等信息,购买特征包括单个道具的购买数量,以及在所有道具中的购买数据排名等信息。
同样地,玩家属性数据则包括账号特征、活跃特征、付费特征以及社交特征等,其中,账号特征对应游戏玩家的个人信息,包括游戏注册时间、游戏性别、登录设备以及登录渠道等,活跃特征则包括游戏玩家的在线时长、在线时间段、游戏等级、游戏对局次数、游戏对局时长、游戏对局胜率、游戏模式偏好、游戏地图模式偏好等数据,而付费特征则包括游戏玩家的每次的付费金额、付费次数、初次付费时间以及单次付费最大金额等数据,社交特征包括游戏玩家的游戏好友数量、聊天次数、分享次数、赠送礼物次数以及组队次数等数据。
其中,账号特征中的登录渠道可以是不同的通讯软件账号,或者和当前游戏实例建立关联的应用账号,活跃特征中的在线时间段可以包括早上、中午、下午、晚上、凌晨、工作日以及周末等,游戏模式偏好可以是匹配模式或者排位模式,而地图模式偏好可以包括沙漠地图、城市地图以及雨林地图等不同地图模式。
步骤S206,从玩家属性数据中提取目标玩家特征,从游戏进程数据中提取目标交互特征,从游戏道具属性数据中提取目标道具特征。
具体地,符合特征重要度的目标特征包括目标玩家特征、目标交互特征以及目标道具特征,根据目标玩家特征、目标交互特征以及目标道具特征可训练得到道具推荐模型。进而利用道具推荐模型进行道具推荐推荐时,需要从所获取的玩家属性数据中提取目标玩家特征,从游戏进程数据中提取目标交互特征,以及从游戏道具属性数据中提取目标道具特征,进而将所提取的目标特征作为道具推荐模型的输入数据,以基于训练好的道具推荐模型输出游戏推荐道具。
步骤S208,将目标玩家特征、目标道具特征以及目标交互特征,确定为道具推荐模型的输入数据,基于道具推荐模型输出游戏推荐道具,并在当前游戏实例的游戏界面展示。
具体地,在利用道具推荐模型进行道具推荐推荐时,需要从所获取的玩家属性数据中提取目标玩家特征,从游戏进程数据中提取目标交互特征,以及从游戏道具属性数据中提取目标道具特征,进而将目标玩家特征、目标道具特征以及目标交互特征,确定为道具推荐模型的输入数据,基于道具推荐模型可输出与输入数据对应的游戏推荐道具。
其中,在确定出游戏推荐道具后,则可在进入游戏实例的幸运空投场景时,在当前游戏实例的游戏界面弹出道具推荐购买页面,在道具推荐购买页面展示游戏推荐道具。
在一个实施例中,如图3,提供了一种游戏道具推荐方法的道具推荐界面,参照图3可知,在进入游戏实例中的幸运空投场景时,表示当前游戏实例的实时游戏进程满足道具推荐条件,进而在满足道具推荐的条件下,在当前游戏实例的游戏界面弹出如图3所示的道具推荐购买页面。
其中,在道具推荐购买页面,展示的是根据训练好的道具推荐模型输出的游戏推荐道具,包括服饰、工具、药品或者游戏皮肤等不同道具,比如从游戏道具池中确定出3个推荐道具,并进行展示。同时,在游戏实例的幸运空投场景下,还设置有相应的规定购买时长,即在相应规定购买时长下,用户可查看和购买所展示的游戏推荐道具。
在一个实施例中,针对在幸运空投场景下的游戏实例,进行道具推荐时所采用的道具推荐模型,具体是按重要度大小进行排序得到特征重要度序列,并选择特征重要度序列中的前200个特征,根据所选择的前200个特征进行模型训练,所训练得到。其中,在模型训练过程中,可有效地减少模型中使用的特征数据,并提升道具推荐成功率,具体可体现在游戏玩家的购买率提升上,比如在购买率上相对之前的推荐模型提升了8%。
上述游戏道具推荐方法中,当检测到当前游戏实例的实时游戏进程满足道具推荐条件时,获取道具推荐模型,其中,道具推荐模型利用符合特征重要度要求的目标特征训练得到,而目标特征则根据标签预测模型所输出的预测标签确定得到。通过采集当前游戏实例的游戏进程数据、游戏道具属性数据以及玩家属性数据,并从玩家属性数据中提取目标玩家特征,从游戏进程数据中提取目标交互特征,从游戏道具属性数据中提取目标道具特征,进而将目标玩家特征、目标道具特征以及目标交互特征,确定为道具推荐模型的输入数据,基于道具推荐模型输出游戏推荐道具,并在当前游戏实例的游戏界面进行展示。实现了可基于特征重要度确定出符合要求的目标特征,进而根据目标特征训练得到道具推荐模型,而不是采用所有的特征进行训练,减少训练模型所需的特征维度,并去除特征噪音,提升训练得到的道具推荐模型的预测结果,使得所输出的游戏推荐道具更符合当前游戏进程的实际需求,进一步提升游戏道具的推荐成功率,增加平台收益。
在一个实施例中,如图4所示,利用符合特征重要度要求的目标特征训练得到道具推荐模型的步骤,具体包括:
步骤S402,采集训练样本特征,并根据各训练样本特征以及对应的样本标签,训练得到标签预测模型。
具体地,通过采集训练数据样本,并获取每个训练数据样本对应的训练样本特征,以及各训练样本对应的第一特征数值,以得到训练样本特征集,进而为各训练样本特征分别标注对应的样本标签,则可根据训练样本特征集和与各训练样本特征对应的样本标签,训练得到标签预测模型。
其中,训练样本特征是根据玩家特征、道具特征以及交互特征进行特征拼接得到。比如,采集n个训练数据样本,则对于每个训练数据样本Oi,其中,1≤i≤n,每个训练数据样本Oi对应的训练样本特征为Xi,Xi=(xi,1,…xi,m),与训练样本特征Xi对应的样本标签为yi。
进一步地,需要根据与各训练数据样本Oi对应的训练样本特征Xi、各训练样本特征Xi对应的第一特征数值,以及样本标签为yi训练得到一个标签预测模型f(Xi)。其中,训练得到标签预测模型f(Xi)的目的在于根据样本特征拟合样本标签,输出预测标签f(xi),该标签预测模型的优化目标是最小化f(Xi)和yi之间的差值,即达到min||f(Xi)-yi||的目的。
在一个实施例中,具体采用以下公式(2)表示训练得到的标签预测模型:
其中,σ表示激活函数,比如sigmoid函数 表示模型参数向量的转置,b表示模型偏置参数,属于机器学习模型的常见参数。
步骤S404,采集测试样本特征,并基于标签预测模型,输出与各测试样本特征对应的预测标签。
具体地,在训练得到标签预测模型后,需要对标签预测模型进行测试,判断是否该标签测试模型可以用于进行数据特征的标签预测,进而通过采集测试数据样本,并获取每个测试数据样本对应的测试样本特征。其中,测试样本特征同样也是根据玩家特征、道具特征以及交互特征进行特征拼接得到的。
其中,在获取各测试样本特征的同时,还需获取各测试样本特征对应的第二特征数值,进而将各测试样本特征和对应的第二特征数值确定为标签预测模型的输入数据,并基于标签预测模型,输出对应的第一预测标签f(Xi)。
进一步地,由于需要确定出目标特征,即确定出哪些特征对于标签测预测模型的预测效果影响更大,则需要从测试样本特征中随机选取预设量的测试样本特征,并对该些测试样本特征进行特征数值替换,得到更新后的测试样本特征,进而将更新后的测试样本特征以及对应的第二特征数值,同样确定为标签预测模型的输入数据,以基于标签预测模型,输出与更新后的各测试样本特征对应的第二预测标签。
其中,可随机抽取预设量的测试数据样本,对测试数据样本的每个测试样本特征xi,j的进行特征数值替换,以形成新的测试样本特征将新的测试样本特征和对应的特征数值,输入标签预测模型中,输出与更新后的各测试样本特征对应的第二预测标签
步骤S406,基于各预测标签,确定出符合特征重要度要求的目标特征。
具体地,基于第一预测标签和第二预测标签,确定出与各测试样本特征对应的预测差异值,并根据预测差异值进行特征重要度计算处理,确定出与各测试样本特征对应的特征重要度。进而根据预设的特征重要度要求,对各训练样本特征进行筛选,确定出特征重要度符合特征重要度要求的目标特征。
其中,第一预测标签和第二预测标签用于确定出各训练样本特征对应的预测差异值,具体是需要计算第一预测标签和第二预测标签的差值的绝对值,即预测差异值进而根据预测差异值进行特征重要度计算处理,确定出与各测试样本特征对应的特征重要度。
具体来说,可计算预测差异值的平均值或方差,以作为测试样本特征对标签预测模型的模型预测结果影响程度的衡量,即理解为该测试样本特征的特征重要度。
其中,可计算预测差异值的平均值作为测试样本特征的特征重要度,即采用以下公式(3)计算得到特征重要度p:
其中,n是测试样本数据的样本数量。
在一个实施例中,如图5,提供了一种特征重要度的计算过程,参照图5可知,可基于所采集的各测试样本特征,包括X1、X2、X3、…Xn等,和标签预测模型,输出得到第一预测标签f(Xi),而将所采集的各测试样本特征进行随机抽取后,再进行特征数值替换,可得到更新后的测试样本特征,比如对X1进行特征数值替换,得到X1′,则更新后的测试样本特征为X1′、X2、X3、…Xn,进而根据更新后的测试样本特征以及标签预测模型,可输出得到第二预测标签
在一个实施例中,在确定出与各测试样本特征对应的特征重要度后,通过获取预设的特征重要度要求,并根据预设的特征重要度要求,对各训练样本特征进行筛选,以确定出特征重要度符合特征重要度要求的目标特征。
具体地,预设的特征重要度要求可以是对所用特征重要度按照大小进行排序后,提取排名靠前的预设个特征作为目标特征。其中,排名靠前可以理解为在从大至小的特征重要度排序中,选取排序前60%至85%的特征重要度对应的特征,作为目标特征。而出于对标签预测模型更好的预测效果的考虑,可以进一步选取排序前70%的特征重要度对应的特征,作为目标特征。
步骤S408,根据各目标特征以及对应的特征数值,训练得到道具推荐模型。
具体地,根据所确定出的符合特征重要度要求的目标特征,以及与目标特征对应的特征数值,重新对初始神经网络模型进行训练,得到训练好的道具推荐模型。
本实施例中,通过采集训练样本特征,并根据各训练样本特征以及对应的样本标签,训练得到标签预测模型,采集测试样本特征,并基于标签预测模型,输出与各测试样本特征对应的预测标签,进而基于各预测标签,确定出符合特征重要度要求的目标特征,以根据各目标特征以及对应的特征数值,训练得到道具推荐模型。实现了对初始神经网络模型的训练、预测以及根据目标特征进行的二次训练,以最终训练得到道具推荐模型,而不是采用所有的特征进行训练,减少训练模型所需的特征维度,并去除特征噪音,提升训练得到的道具推荐模型的预测结果。
在一个实施例中,在根据各目标特征以及对应的特征数值,训练得到道具推荐模型之后,还包括:
获取针对各目标特征预先标注的特征标签,并根据预先标注的特征标签确定预设推荐道具;根据预设推荐道具和游戏推荐道具,确定出训练损失值;基于训练损失值,确定道具推荐模型的预测准确度。
具体地,通过获取针对各目标特征预先标注的特征标签,并根据预先标注的特征标签确定预设推荐道具,其中预设推荐道具可以理解为真实值,而根据道具推荐模型除数的游戏推荐道具可理解为预测值,进而根据真实值和预测值进行训练损失值的计算,以根据训练损失值,对道具推荐模型的预测效果进行衡量,来确定出道具推荐模型的预测准确度。
进一步地,可以采用以下公式(4),计算得到训练损失值loss:
其中,yi是真实值,即预设推荐道具,y′i是预测值,即根据道具推荐模型除数的游戏推荐道具。
在一个实施例中,如图6所示,提供了一种道具推荐模型的特征数量优化效果示意图,参照图6可知,通过对原始的集成模型或者随机森林模型进行训练、测试以及二次训练,得到训练后的集成模型或者随机森林模型,其中,筛选出可用于二次训练的目标特征数量均少于普通训练时所需要考虑的特征数量,进而可提升模型的训练效率,减少模型训练时间。同时,根据筛选出的目标特征训练得到的集成模型和随机森林模型的道具推荐成功率也有所提升。
本实施例中,通过获取针对各目标特征预先标注的特征标签,并根据预先标注的特征标签确定预设推荐道具,进而根据预设推荐道具和游戏推荐道具,确定出训练损失值,并基于训练损失值,确定道具推荐模型的预测准确度。实现了根据训练损失值对道具推荐模型的预测效果进行衡量,来确定出道具推荐模型的预测准确度,进而在预测准确度不符合要求时,可及时进行调整或重新训练,以提升所应用的道具推荐模型的推荐成功率。
在一个实施例中,如图7所示,输出与各测试样本特征对应的预测标签的步骤,即采集测试样本特征,并基于标签预测模型,输出与各测试样本特征对应的预测标签的步骤,具体包括:
步骤S702,采集测试样本特征,并获取各测试样本特征对应的第二特征数值,测试样本特征根据所采集到的玩家特征、道具特征以及交互特征进行特征拼接得到。
具体地,训练得到标签预测模型后,需要对标签预测模型进行测试,判断是否该标签测试模型可以用于进行数据特征的标签预测,进而需要获取测试样本特征,可通过采集玩家特征、道具特征以及交互特征,并根据玩家特征、道具特征以及交互特征进行特征拼接,得到各测试样本特征。
其中,在获取各测试样本特征的同时,还需获取各测试样本特征对应的第二特征数值。
步骤S704,将各测试样本特征和对应的第二特征数值确定为标签预测模型的输入数据,并基于标签预测模型,输出对应的第一预测标签。
具体地,将各测试样本特征和对应的第二特征数值确定为标签预测模型的输入数据,将各测试样本特征和对应的第二特征数值输入训练好的标签预测模型中,输出对应的第一预测标签。
步骤S706,从测试样本特征中随机选取预设量的测试样本特征,并对该些测试样本特征进行特征数值替换,得到更新后的测试样本特征。
具体地,由于需要确定出目标特征,即确定出哪些特征对于标签测预测模型的预测效果影响更大,则需要从测试样本特征中随机选取预设量的测试样本特征,并对该些测试样本特征进行特征数值替换,得到更新后的测试样本特征。
进一步地,具体需要从各测试样本特征中随机选取预设量的测试样本特征,并根据各测试样本特征的第二特征数值,确定与各测试样本特征对应的值域。进而从值域中确定出与该些测试样本特征对应的替换特征数值,并根据替换特征数值,对该些测试样本特征进行特征数值替换,得到更新后的测试样本特征。其中,可采用从值域中随机确定出与该些测试样本特征对应的替换特征数值的方式,确定出替换特征数值。
步骤S708,基于标签预测模型,输出与更新后的各测试样本特征对应的第二预测标签。
具体地,将更新后的各测试样本特征和对应的替换特征数值,确定为标签预测模型的输入数据,则可通过标签预测模型,输出与更新后的各测试样本特征对应的第二预测标签。
本实施例中,通过采集测试样本特征,并获取各测试样本特征对应的第二特征数值,并将各测试样本特征和对应的第二特征数值确定为标签预测模型的输入数据,以基于标签预测模型,输出对应的第一预测标签。通过从测试样本特征中随机选取预设量的测试样本特征,并对该些测试样本特征进行特征数值替换,得到更新后的测试样本特征,以基于标签预测模型,输出与更新后的各测试样本特征对应的第二预测标签。实现了对标签预测模型的测试,以及根据特征数值替换后的测试样本特征对标签预测模型的二次测试,以便后续确定出目标特征,用于根据目标特征最终训练得到道具推荐模型,而不是采用所有的特征进行训练,减少训练模型所需的特征维度,并去除特征噪音,提升训练得到的道具推荐模型的预测结果。
在一个实施例中,如图8所示,确定与各测试样本特征对应的值域的步骤,即根据各测试样本特征的第二特征数值,确定与各测试样本特征对应的值域的步骤,具体包括:
步骤S802,获取各测试样本特征所属的特征类型;特征类型包括离散型特征和连续型特征。
具体地,需要获取各测试样本特征,包括道具特征、玩家特征以及交互特征,其中,道具特征包括道具属性和购买特征,道具属性包括道具类型、道具功能以及道具价格等信息,购买特征包括单个道具的购买数量,以及在所有道具中的购买数据排名等信息。玩家特征包括账号特征、活跃特征、付费特征以及社交特征等,其中,账号特征对应游戏玩家的个人信息,包括游戏注册时间、游戏性别、登录设备以及登录渠道等,活跃特征则包括游戏玩家的在线时长、在线时间段、游戏等级、游戏对局次数、游戏对局时长、游戏对局胜率、游戏模式偏好、游戏地图模式偏好等数据,而付费特征则包括游戏玩家的每次的付费金额、付费次数、初次付费时间以及单次付费最大金额等数据,社交特征包括游戏玩家的游戏好友数量、聊天次数、分享次数、赠送礼物次数以及组队次数等数据。交互特征包括游戏玩家是否使用或者查看过这个道具,或者游戏玩家在实例中使用某个道具的次数等,且交互特征不包括游戏玩家对道具的购买行为。
进一步地,针对道具特征、玩家特征以及交互特征进行特征类型划分,确定出各特征是属于离散型特征还是连续型特征,离散型特征包括性别、城市等,连续型特征包括价格、年龄等,其中,离散型特征具有有限的取值空间,而连续型特征的取值空间是无限的。
步骤S804,基于各测试样本特征和所属特征类型,分别设置对应的取值空间,并为取值空间添加对应的存储上限。
具体地,基于各测试样本特征和所属特征类型,为每个测试样本特征初始化对应的取值空间,即初始化取值空间并为取值空间设置对应的存储上限,比如1000、2000等不同取值,可根据实际需求进行调整。/>
步骤S806,遍历各测试样本特征,获取各测试样本特征对应的不同特征数值。
具体地,通过遍历各测试样本特征,获取各测试样本特征对应的不同特征数值,即每个测试样本特征在历史游戏进程数据或当前游戏进程数据中的不同特征数值。
步骤S808,判断取值空间是否达到存储上限。
步骤S810,在取值空间未达到存储上限时,将各特征数值存储至对应设置的取值空间Dj中,以确定与各测试样本特征对应的值域。
具体地,获取预设的存储上限,并判断当前取值空间Dj是否达到预设的存储上限,比如判断当前取值空间Dj是否达到存储上限1000,当在取值空间Dj未达到存储上限时,则将各特征数值存储至对应设置的取值空间Dj中,并根据取值空间Dj中存储的各特征数值,确定与各测试样本特征对应的值域。
步骤S812,在取值空间达到存储上限时,根据预设筛选要求,从取值空间中确定出待替换取值。
具体地,当在取值空间Dj达到存储上限时,则根据预设筛选要求,比如次擦用的概率从取值空间Dj选取一个值,确定为待替换取值。
步骤S814,获取当前待存储特征数值的测试样本特征的目标特征数值,并将待替换取值更新为目标特征值,以确定与各测试样本特征对应的值域。
具体地,通过获取当前待存储特征数值的测试样本特征的目标特征数值,比如获取当前待存储特征数值的测试样本特征xj,并将待替换取值更新为当前待存储特征数值的测试样本特征xj的目标特征值,以根据更新后的取值空间Dj确定与各测试样本特征对应的值域。
在一个实施例中,还可以采用选取任意两个样本,然后交换这两个样本相应特征的值的方式,实现特征数值替换的效果。其中,样本值交换需要选取样本,即需要达到对样本进行有效采样。而确定出取值空间则是把需要计算的特征维度进行抽取,相应计算效率更高。
在一个实施例中,确定与各测试样本特征对应的值域之后,可从特征xj的取值空间Dj中,以的概率选取一个特征数值x′,并把测试样本中的测试样本特征xj的特征数值替换为x′,得到更新后的测试样本。
本实施例中,通过获取各测试样本特征所属的特征类型,基于各测试样本特征和所属特征类型,分别设置对应的取值空间,并为取值空间添加对应的存储上限。通过遍历各测试样本特征,获取各测试样本特征对应的不同特征数值,在取值空间未达到存储上限时,将各特征数值存储至对应设置的取值空间中,以确定与各测试样本特征对应的值域。而在取值空间达到存储上限时,则根据预设筛选要求,从取值空间中确定出待替换取值,并获取当前待存储特征数值的测试样本特征的目标特征数值,并将待替换取值更新为目标特征值,以确定与各测试样本特征对应的值域。实现了通过设置取值空间进行特征数值存储的方式,以便后续从取值空间中获取替换特征数值进行特征数值替换处理,进而得到更新后的测试样本特征,达到根据更新后的测试样本特征对标签预测模型的二次测试,进一步提升标签预测模型的预测效果。
在一个实施例中,如图9所示,提供了一种游戏道具推荐方法,参照图9可知,该方法具体包括以下步骤:
步骤S901,采集训练样本特征,并获取各训练样本特征对应的第一特征数值,得到训练样本特征集,训练样本特征根据所采集到的玩家特征、道具特征以及交互特征进行特征拼接得到。
步骤S902,为各训练样本特征分别标注对应的样本标签;样本标签包括已购买道具标签和未购买道具标签。
步骤S903,根据训练样本特征集,以及与各训练样本特征对应的样本标签,训练得到的标签预测模型。
步骤S904,采集测试样本特征,并获取各测试样本特征对应的第二特征数值,测试样本特征根据所采集到的玩家特征、道具特征以及交互特征进行特征拼接得到。
步骤S905,将各测试样本特征和对应的第二特征数值确定为标签预测模型的输入数据,并基于标签预测模型,输出对应的第一预测标签。
步骤S906,从测试样本特征中随机选取预设量的测试样本特征,并对该些测试样本特征进行特征数值替换,得到更新后的测试样本特征。
步骤S907,基于标签预测模型,输出与更新后的各测试样本特征对应的第二预测标签。
步骤S908,基于第一预测标签和第二预测标签,确定出与各测试样本特征对应的预测差异值。
步骤S909,根据预测差异值进行特征重要度计算处理,确定出与各测试样本特征对应的特征重要度。
步骤S910,根据预设的特征重要度要求,对各训练样本特征进行筛选,确定出特征重要度符合特征重要度要求的目标特征。
步骤S911,根据各目标特征以及对应的特征数值,训练得到道具推荐模型。
步骤S912,当检测到当前游戏实例的实时游戏进程满足道具推荐条件时,获取道具推荐模型,道具推荐模型利用符合特征重要度要求的目标特征训练得到,各目标特征根据标签预测模型所输出的预测标签确定得到。
步骤S913,采集当前游戏实例的游戏进程数据、游戏道具属性数据以及玩家属性数据。
步骤S914,从玩家属性数据中提取目标玩家特征,从游戏进程数据中提取目标交互特征,从游戏道具属性数据中提取目标道具特征。
步骤S915,将目标玩家特征、目标道具特征以及目标交互特征,确定为道具推荐模型的输入数据,基于道具推荐模型输出游戏推荐道具,并在当前游戏进程的游戏界面展示。
上述游戏道具推荐方法中,当检测到当前游戏实例的实时游戏进程满足道具推荐条件时,获取道具推荐模型,其中,道具推荐模型利用符合特征重要度要求的目标特征训练得到,而目标特征则根据标签预测模型所输出的预测标签确定得到。通过采集当前游戏实例的游戏进程数据、游戏道具属性数据以及玩家属性数据,并从玩家属性数据中提取目标玩家特征,从游戏进程数据中提取目标交互特征,从游戏道具属性数据中提取目标道具特征,进而将目标玩家特征、目标道具特征以及目标交互特征,确定为道具推荐模型的输入数据,基于道具推荐模型输出游戏推荐道具,并在当前游戏实例的游戏界面进行展示。实现了可基于特征重要度确定出符合要求的目标特征,进而根据目标特征训练得到道具推荐模型,而不是采用所有的特征进行训练,减少训练模型所需的特征维度,并去除特征噪音,提升训练得到的道具推荐模型的预测结果,使得所输出的游戏推荐道具更符合当前游戏进程的实际需求,进一步提升游戏道具的推荐成功率,增加平台收益。
应该理解的是,虽然如上的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的游戏道具推荐方法的游戏道具推荐装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个游戏道具推荐装置实施例中的具体限定可以参见上文中对于游戏道具推荐方法的限定,在此不再赘述。
在一个实施例中,如图10所示,提供了一种游戏道具推荐装置,包括:道具推荐模型获取模块1002、数据采集模块1004、目标特征提取模块1006以及游戏推荐道具展示模块1008,其中:
道具推荐模型获取模块1002,用于当检测到当前游戏实例的实时游戏进程满足道具推荐条件时,获取道具推荐模型,道具推荐模型利用符合特征重要度要求的目标特征训练得到,各目标特征根据标签预测模型所输出的预测标签确定得到。
数据采集模块1004,用于采集当前游戏实例的游戏进程数据、游戏道具属性数据以及玩家属性数据。
目标特征提取模块1006,用于从玩家属性数据中提取目标玩家特征,从游戏进程数据中提取目标交互特征,从游戏道具属性数据中提取目标道具特征。
游戏推荐道具展示模块1008,用于将目标玩家特征、目标道具特征以及目标交互特征,确定为道具推荐模型的输入数据,基于道具推荐模型输出游戏推荐道具,并在当前游戏进程的游戏界面展示。
上述游戏道具推荐装置中,当检测到当前游戏实例的实时游戏进程满足道具推荐条件时,获取道具推荐模型,其中,道具推荐模型利用符合特征重要度要求的目标特征训练得到,而目标特征则根据标签预测模型所输出的预测标签确定得到。通过采集当前游戏实例的游戏进程数据、游戏道具属性数据以及玩家属性数据,并从玩家属性数据中提取目标玩家特征,从游戏进程数据中提取目标交互特征,从游戏道具属性数据中提取目标道具特征,进而将目标玩家特征、目标道具特征以及目标交互特征,确定为道具推荐模型的输入数据,基于道具推荐模型输出游戏推荐道具,并在当前游戏进程的游戏界面进行展示。实现了可基于特征重要度确定出符合要求的目标特征,进而根据目标特征训练得到道具推荐模型,而不是采用所有的特征进行训练,减少训练模型所需的特征维度,并去除特征噪音,提升训练得到的道具推荐模型的预测结果,使得所输出的游戏推荐道具更符合当前游戏进程的实际需求,进一步提升游戏道具的推荐成功率,增加平台收益。
在一个实施例中,提供了一种游戏道具推荐装置,还包括:
标签预测模型训练模块,用于采集训练样本特征,并根据各训练样本特征以及对应的样本标签,训练得到标签预测模型;
预测标签输出模块,用于采集测试样本特征,并基于标签预测模型,输出与各测试样本特征对应的预测标签;
目标特征确定模块,用于基于各预测标签,确定出符合特征重要度要求的目标特征;
道具推荐模型训练模块,用于根据各目标特征以及对应的特征数值,训练得到道具推荐模型。
在一个实施例中,标签预测模型训练模块,还用于:
采集训练样本特征,并获取各训练样本特征对应的第一特征数值,得到训练样本特征集;训练样本特征根据所采集到的玩家特征、道具特征以及交互特征进行特征拼接得到;为各训练样本特征分别标注对应的样本标签;样本标签包括已购买道具标签和未购买道具标签;根据训练样本特征集,以及与各训练样本特征对应的样本标签,训练得到的标签预测模型。
在一个实施例中,预测标签输出模块,还用于:
采集测试样本特征,并获取各测试样本特征对应的第二特征数值;测试样本特征根据所采集到的玩家特征、道具特征以及交互特征进行特征拼接得到;将各测试样本特征和对应的第二特征数值确定为标签预测模型的输入数据,并基于标签预测模型,输出对应的第一预测标签;从测试样本特征中随机选取预设量的测试样本特征,并对该些测试样本特征进行特征数值替换,得到更新后的测试样本特征;基于标签预测模型,输出与更新后的各测试样本特征对应的第二预测标签。
在一个实施例中,目标特征确定模块,还用于:
基于第一预测标签和第二预测标签,确定出与各测试样本特征对应的预测差异值;根据预测差异值进行特征重要度计算处理,确定出与各测试样本特征对应的特征重要度;根据预设的特征重要度要求,对各训练样本特征进行筛选,确定出特征重要度符合特征重要度要求的目标特征。
在一个实施例中,预测标签输出模块,还用于:
从各测试样本特征中随机选取预设量的测试样本特征;根据各测试样本特征的第二特征数值,确定与各测试样本特征对应的值域;从值域中确定出与该些测试样本特征对应的替换特征数值;根据替换特征数值,对该些测试样本特征进行特征数值替换,得到更新后的测试样本特征。
在一个实施例中,预测标签输出模块,还用于:
获取各测试样本特征所属的特征类型;特征类型包括离散型特征和连续型特征;基于各测试样本特征和所属特征类型,分别设置对应的取值空间,并为取值空间添加对应的存储上限;遍历各测试样本特征,获取各测试样本特征对应的不同特征数值;在取值空间未达到存储上限时,将各特征数值存储至对应设置的取值空间中,以确定与各测试样本特征对应的值域。
在一个实施例中,预测标签输出模块,还用于:
在取值空间达到存储上限时,根据预设筛选要求,从取值空间中确定出待替换取值;
获取当前待存储特征数值的测试样本特征的目标特征数值,并将待替换取值更新为目标特征值,以确定与各测试样本特征对应的值域。
在一个实施例中,提供了一种游戏道具推荐装置,还包括预测准确度确定模块,用于:
获取针对各目标特征预先标注的特征标签,并根据预先标注的特征标签确定预设推荐道具;根据预设推荐道具和游戏推荐道具,确定出训练损失值;基于训练损失值,确定道具推荐模型的预测准确度。
上述游戏道具推荐装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图11所示。该计算机设备包括处理器、存储器、输入/输出接口(Input/Output,简称I/O)和通信接口。其中,处理器、存储器和输入/输出接口通过***总线连接,通信接口通过输入/输出接口连接到***总线。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质和内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于存储目标特征、游戏进程数据、游戏道具属性数据、玩家属性数据、目标玩家特征、目标交互特征、目标道具特征、道具推荐模型以及游戏推荐道具等数据。该计算机设备的输入/输出接口用于处理器与外部设备之间交换信息。该计算机设备的通信接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种游戏道具推荐方法。
本领域技术人员可以理解,图11中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
需要说明的是,本申请所涉及的用户信息、玩家特征(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。
Claims (11)
1.一种游戏道具推荐方法,其特征在于,所述方法包括:
当检测到当前游戏实例的实时游戏进程满足道具推荐条件时,获取道具推荐模型,所述道具推荐模型利用符合特征重要度要求的目标特征训练得到,各所述目标特征根据标签预测模型所输出的预测标签确定得到;
采集当前游戏实例的游戏进程数据、游戏道具属性数据以及玩家属性数据;
从所述玩家属性数据中提取目标玩家特征,从所述游戏进程数据中提取目标交互特征,从所述游戏道具属性数据中提取目标道具特征;
将所述目标玩家特征、目标道具特征以及目标交互特征,确定为所述道具推荐模型的输入数据,基于所述道具推荐模型输出游戏推荐道具,并在所述当前游戏实例的游戏界面展示。
2.根据权利要求1所述的方法,其特征在于,利用符合特征重要度要求的目标特征训练得到道具推荐模型的方式,包括:
采集训练样本特征,并根据各训练样本特征以及对应的样本标签,训练得到标签预测模型;
采集测试样本特征,并基于所述标签预测模型,输出与各所述测试样本特征对应的预测标签;
基于各所述预测标签,确定出符合特征重要度要求的目标特征;
根据各所述目标特征以及对应的特征数值,训练得到道具推荐模型。
3.根据权利要求2所述的方法,其特征在于,所述采集训练样本特征,并根据各训练样本特征以及对应的样本标签,训练得到标签预测模型,包括:
采集训练样本特征,并获取各所述训练样本特征对应的第一特征数值,得到训练样本特征集;所述训练样本特征根据所采集到的玩家特征、道具特征以及交互特征进行特征拼接得到;
为各所述训练样本特征分别标注对应的样本标签;所述样本标签包括已购买道具标签和未购买道具标签;
根据所述训练样本特征集,以及与各训练样本特征对应的样本标签,训练得到的标签预测模型。
4.根据权利要求2所述的方法,其特征在于,所述预测标签包括第一预测标签和第二预测标签;所述采集测试样本特征,并基于所述标签预测模型,输出与各所述测试样本特征对应的预测标签,包括:
采集测试样本特征,并获取各测试样本特征对应的第二特征数值;所述测试样本特征根据所采集到的玩家特征、道具特征以及交互特征进行特征拼接得到;
将各所述测试样本特征和对应的第二特征数值确定为所述标签预测模型的输入数据,并基于所述标签预测模型,输出对应的第一预测标签;
从所述测试样本特征中随机选取预设量的测试样本特征,并对该些测试样本特征进行特征数值替换,得到更新后的测试样本特征;
基于所述标签预测模型,输出与更新后的各所述测试样本特征对应的第二预测标签。
5.根据权利要求4所述的方法,其特征在于,所述基于各所述预测标签,确定出符合特征重要度要求的目标特征,包括:
基于所述第一预测标签和所述第二预测标签,确定出与各所述测试样本特征对应的预测差异值;
根据所述预测差异值进行特征重要度计算处理,确定出与各所述测试样本特征对应的特征重要度;
根据预设的特征重要度要求,对各所述训练样本特征进行筛选,确定出特征重要度符合特征重要度要求的目标特征。
6.根据权利要求4所述的方法,其特征在于,所述从所述测试样本特征中随机选取预设量的测试样本特征,并对该些测试样本特征进行特征数值替换,得到更新后的测试样本特征,包括:
从各所述测试样本特征中随机选取预设量的测试样本特征;
根据各所述测试样本特征的第二特征数值,确定与各所述测试样本特征对应的值域;
从所述值域中确定出与该些测试样本特征对应的替换特征数值;
根据所述替换特征数值,对该些测试样本特征进行特征数值替换,得到更新后的测试样本特征。
7.根据权利要求6所述的方法,其特征在于,所述根据各所述测试样本特征的第二特征数值,确定与各所述测试样本特征对应的值域,包括:
获取各所述测试样本特征所属的特征类型;所述特征类型包括离散型特征和连续型特征;
基于各所述测试样本特征和所属特征类型,分别设置对应的取值空间,并为所述取值空间添加对应的存储上限;
遍历各所述测试样本特征,获取各所述测试样本特征对应的不同特征数值;
在所述取值空间未达到所述存储上限时,将各所述特征数值存储至对应设置的所述取值空间中,以确定与各所述测试样本特征对应的值域。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
在所述取值空间达到所述存储上限时,根据预设筛选要求,从所述取值空间中确定出待替换取值;
获取当前待存储特征数值的所述测试样本特征的目标特征数值,并将所述待替换取值更新为所述目标特征值,以确定与各所述测试样本特征对应的值域。
9.一种游戏道具推荐装置,其特征在于,所述装置包括:
道具推荐模型获取模块,用于当检测到当前游戏实例的实时游戏进程满足道具推荐条件时,获取道具推荐模型,所述道具推荐模型利用符合特征重要度要求的目标特征训练得到,各所述目标特征根据标签预测模型所输出的预测标签确定得到;
数据采集模块,用于采集当前游戏实例的游戏进程数据、游戏道具属性数据以及玩家属性数据;
目标特征提取模块,用于从所述玩家属性数据中提取目标玩家特征,从所述游戏进程数据中提取目标交互特征,从所述游戏道具属性数据中提取目标道具特征;
游戏推荐道具展示模块,用于将所述目标玩家特征、目标道具特征以及目标交互特征,确定为所述道具推荐模型的输入数据,基于所述道具推荐模型输出游戏推荐道具,并在所述当前游戏实例的游戏界面展示。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8中任一项所述的方法的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至8中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210230129.6A CN116764236A (zh) | 2022-03-09 | 2022-03-09 | 游戏道具推荐方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210230129.6A CN116764236A (zh) | 2022-03-09 | 2022-03-09 | 游戏道具推荐方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116764236A true CN116764236A (zh) | 2023-09-19 |
Family
ID=87986535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210230129.6A Pending CN116764236A (zh) | 2022-03-09 | 2022-03-09 | 游戏道具推荐方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116764236A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117112911A (zh) * | 2023-10-22 | 2023-11-24 | 成都亚度克升科技有限公司 | 基于大数据分析和人工智能的软件推荐方法和*** |
CN117942577A (zh) * | 2024-02-20 | 2024-04-30 | 北京优路互娱科技有限公司 | 利用人工智能的玩家行为预测和优化方法 |
-
2022
- 2022-03-09 CN CN202210230129.6A patent/CN116764236A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117112911A (zh) * | 2023-10-22 | 2023-11-24 | 成都亚度克升科技有限公司 | 基于大数据分析和人工智能的软件推荐方法和*** |
CN117112911B (zh) * | 2023-10-22 | 2024-03-22 | 成都亚度克升科技有限公司 | 基于大数据分析和人工智能的软件推荐方法和*** |
CN117942577A (zh) * | 2024-02-20 | 2024-04-30 | 北京优路互娱科技有限公司 | 利用人工智能的玩家行为预测和优化方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113508378B (zh) | 推荐模型的训练方法、推荐方法、装置及计算机可读介质 | |
CN111898031B (zh) | 一种获得用户画像的方法及装置 | |
CN110046304A (zh) | 一种用户推荐方法和装置 | |
EP4181026A1 (en) | Recommendation model training method and apparatus, recommendation method and apparatus, and computer-readable medium | |
CN111784455A (zh) | 一种物品推荐方法及推荐设备 | |
CN111046294A (zh) | 点击率预测方法、推荐方法、模型、装置及设备 | |
CN111339415A (zh) | 一种基于多交互式注意力网络的点击率预测方法与装置 | |
CN110008397B (zh) | 一种推荐模型训练方法及装置 | |
CN109582876A (zh) | 旅游行业用户画像构造方法、装置和计算机设备 | |
CN110413888B (zh) | 一种书籍推荐方法及装置 | |
CN108305181B (zh) | 社交影响力确定、信息投放方法及装置、设备及存储介质 | |
CN116764236A (zh) | 游戏道具推荐方法、装置、计算机设备和存储介质 | |
CN111949886A (zh) | 一种用于信息推荐的样本数据生成方法和相关装置 | |
CN111680213B (zh) | 信息推荐方法、数据处理方法及装置 | |
Roy et al. | Role of artificial intelligence in gamification for the emerging markets | |
Ren et al. | A co-attention based multi-modal fusion network for review helpfulness prediction | |
CN110851708A (zh) | 负样本的抽取方法、装置、计算机设备和存储介质 | |
CN114529399A (zh) | 用户数据处理方法、装置、计算机设备和存储介质 | |
CN115471260A (zh) | 基于神经网络的销售预测方法、装置、设备及介质 | |
CN114926210A (zh) | 评论生成方法、装置、设备及计算机可读存储介质 | |
CN114254070A (zh) | 问题推荐方法和装置 | |
CN112488355A (zh) | 基于图神经网络预测用户评级的方法和装置 | |
McIlwraith | Algorithms of the intelligent web | |
CN116628236B (zh) | 多媒体信息的投放方法、装置、电子设备及存储介质 | |
CN115689648B (zh) | 应用于定向投放的用户信息处理方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40094465 Country of ref document: HK |