CN113413607A - 一种信息推荐方法、装置、计算机设备及存储介质 - Google Patents
一种信息推荐方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN113413607A CN113413607A CN202110722007.4A CN202110722007A CN113413607A CN 113413607 A CN113413607 A CN 113413607A CN 202110722007 A CN202110722007 A CN 202110722007A CN 113413607 A CN113413607 A CN 113413607A
- Authority
- CN
- China
- Prior art keywords
- information
- target
- ability
- game
- capability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 101
- 230000006399 behavior Effects 0.000 claims description 78
- 238000012549 training Methods 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 10
- 238000012216 screening Methods 0.000 claims description 10
- 230000003993 interaction Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- 230000000875 corresponding effect Effects 0.000 description 32
- 238000012545 processing Methods 0.000 description 13
- 239000013598 vector Substances 0.000 description 12
- 238000013145 classification model Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 230000008439 repair process Effects 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/79—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/85—Providing additional services to players
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Computer Security & Cryptography (AREA)
- General Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例公开了一种信息推荐方法、装置、计算机设备及存储介质。本方案通过获取用户游戏行为数据,提取在不同能力方向上的游戏玩法的特征数据构建用户画像,然后根据用户画像确定用户偏好的目标能力方向或者用户需要提升的目标能力方向,进一步地,为用户推荐该目标能力方向的游戏攻略文章,从而可以提高信息推荐的准确性。
Description
技术领域
本申请涉及计算机技术领域,具体涉及一种信息推荐方法、装置、计算机设备及存储介质。
背景技术
随着计算机技术的发展,网络游戏越来越受到用户欢迎。在一些多人在线的网络游戏(比如:Multiplayer Online Battle Arena,多人在线战术竞技游戏)中。养成***是延续玩家生命周期的关键所在。而玩家在游戏中花费大量的时间和金钱,其目的就是希望得到自身在游戏中能力(如:职业,宠物,装备,修为等)的提升。但是,部分玩家会有能力提升的瓶颈期,尤其是在游戏初期玩家对自身能力提升的途径没有清晰认知的阶段。影响玩家对于游戏的兴趣度,从而导致玩家流失。
发明内容
本申请实施例提供一种信息推荐方法、装置、计算机设备及存储介质,可以提高信息推荐的准确性。
本申请实施例提供了一种信息推荐方法,包括:
获取当前游戏玩家在指定游戏中的游戏行为信息,其中,所述指定游戏包含多个能力方向上的游戏玩法,所述游戏行为信息包括针对不同能力方向的游戏玩法的行为信息;
基于所述游戏行为信息从所述多个能力方向中确定目标能力方向;
从引导信息集合中确定与所述目标能力方向匹配的目标引导信息,其中,所述引导信息集合包括多个候选引导信息;
基于所述目标引导信息对所述当前游戏玩家进行信息推荐。
相应的,本申请实施例还提供了一种信息推荐装置,包括:
第一获取单元,用于获取当前游戏玩家在指定游戏中的游戏行为信息,其中,所述指定游戏包含多个能力方向上的游戏玩法,所述游戏行为信息包括:针对不同能力方向的游戏玩法的行为信息;
第一确定单元,用于基于所述游戏行为信息从所述多个能力方向中确定目标能力方向;
第二确定单元,用于从引导信息集合中确定与所述目标能力方向匹配的目标引导信息,其中,所述引导信息集合包括多个候选引导信息;
推荐单元,用于基于所述目标引导信息对所述当前游戏玩家进行信息推荐。
在一些实施例中,第一确定单元包括:
构建子单元,用于基于所述游戏行为信息构建对应能力方向的特征数据;
生成子单元,用于根据所述特征数据生成所述当前游戏玩家在所述指定游戏中的用户画像;
第一筛选子单元,用于基于所述用户画像从所述多个能力方向中筛选出所述目标能力方向。
在一些实施例中,第一确定单元还包括:
第一获取子单元,用于从所述游戏行为信息中,获取所述当前游戏玩家在每一能力方向上游戏玩法的第一实际操作时长,以及在每一能力方向上游戏玩法的当前能力等级;
第一确定子单元,用于确定每一目标游戏玩家分别在每一能力方向上游戏玩法的操作时长为所述第一实际操作时长时达到的实际能力等级,其中,所述目标游戏玩家为所述指定游戏中除所述当前游戏玩家之外的所有游戏玩家;
第二确定子单元,用于基于所有所述目标游戏玩家的所述实际能力等级确定目标能力等级;
第二筛选子单元,用于从所述多个能力方向中,筛选出所述当前能力等级未达到所述目标能力等级的能力方向,得到所述目标能力方向。
在一些实施例中,第一确定单元还包括:
第三确定子单元,用于确定每一目标游戏玩家分别在每一能力方向上游戏玩法中的等级为所述当前能力等级时所需的第二实际操作时长;
第四确定子单元,用于基于所有所述目标游戏玩家的所述第二实际操作时长确定目标操作时长;
第三筛选子单元,用于从所述多个能力方向中,筛选出所述第一实际操作时长大于所述目标操作时长的能力方向,得到所述目标能力方向。
在一些实施例中,第二确定单元包括:
处理子单元,用于对所述引导信息集合进行分类处理,得到多个引导信息子集合,其中,不同的引导信息子集合对应不同的能力方向;
第五确定子单元,用于确定所述目标能力方向对应的引导信息子集合,得到目标引导信息子集合;
第六确定子单元,用于基于所述目标引导信息子集合中的候选引导信息,确定所述目标引导信息。
在一些实施例中,第六确定子单元具体用于:
确定所述当前游戏玩家在所述目标能力方向上游戏玩法的能力等级信息;
获取所述当前游戏玩家的历史查阅信息,所述历史查阅信息包括:指定历史时间段内查阅的候选引导信息;
基于所述能力等级信息和所述历史查阅信息,对所述目标引导信息子集合中的候选引导信息进行排序,得到排序结果;
基于所述排序结果获取指定数量的候选引导信息,得到所述目标引导信息。
在一些实施例中,处理子单元具体用于:
对所述引导信息集合中的候选引导信息进行预处理,得到所述候选引导信息对应的文本信息;
将所述文本信息输入训练模型,并基于所述训练模型对所述文本信息进行分类处理,得到所述候选引导信息归类于不同能力方向的目标概率;
根据所述目标概率确定所述候选引导信息所属的能力方向;
将属于同一能力方向的候选引导信息划分为同一引导信息子集合,得到所述多个引导信息子集合。
在一些实施例中,处理子单元具体还用于:
对所述引导信息集合中的候选引导信息进行预处理,得到所述候选引导信息对应的文本信息;
通过每一子模型计算所述候选引导信息归类于每一能力方向的概率;基于预设权重信息对所述候选引导信息归类于同一能力方向的多个概率进行加权处理,得到所述候选引导信息归类于每一能力方向的目标概率;
根据所述目标概率确定所述候选引导信息所属的能力方向;
将属于同一能力方向的候选引导信息划分为同一引导信息子集合,得到所述多个引导信息子集合。
在一些实施例中,推荐单元包括:
第二获取子单元,用于获取所述当前游戏玩家不同时间段中在每一能力方向上游戏玩法的活跃信息;
第七确定子单元,用于从所述不同时间段中,确定出与所述目标能力方向的游戏玩法对应的目标时间段;
推荐子单元,用于在所述目标时间段基于所述目标引导信息对所述当前游戏玩家进行信息推荐。
相应的,本申请实施例还提供了一种计算机设备,包括存储器,处理器及存储在储存器上并可在处理器上运行的计算机程序,其中,处理器执行本申请实施例任一提供的信息推荐方法。
相应的,本申请实施例还提供了一种存储介质,存储介质存储有多条指令,指令适于处理器进行加载,以执行如上的信息推荐方法。
本申请实施例通过获取用户游戏行为数据,提取在不同能力方向上的游戏玩法的特征数据构建用户画像,然后根据用户画像确定用户偏好的目标能力方向或者用户需要提升的目标能力方向,进一步地,为用户推荐该目标能力方向的游戏攻略文章,从而可以提高信息推荐的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种信息推荐方法的流程示意图。
图2为本申请实施例提供的一种信息推荐方法的文本分类模型结构示意图。
图3为本申请实施例提供的另一种信息推荐方法的文本分类模型结构示意图。
图4为本申请实施例提供的另一种信息推荐方法的文本分类模型结构示意图。
图5为本申请实施例提供的另一种信息推荐方法的流程示意图。
图6为本申请实施例提供的一种信息推荐装置的结构框图。
图7为本申请实施例提供的计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种信息推荐方法、装置、存储介质及计算机设备。具体地,本申请实施例的信息推荐方法可以由计算机设备执行,其中,该计算机设备可以为终端或者服务器等设备。该终端可以为智能手机、平板电脑、笔记本电脑、触控屏幕、个人计算机(PC,Personal Computer)、个人数字助理(Personal Digital Assistant,PDA)等终端设备。服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式***,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。
例如,该计算机设备可以是服务器,该服务器可以获取当前游戏玩家在指定游戏中的游戏行为信息,其中,指定游戏包含多个能力方向上的游戏玩法,游戏行为信息包括:针对不同能力方向的游戏玩法的行为信息;基于游戏行为信息从多个能力方向中确定目标能力方向;从引导信息集合中确定与目标能力方向匹配的目标引导信息,其中,引导信息集合包括多个候选引导信息;基于目标引导信息对当前游戏玩家进行信息推荐。
基于上述问题,本申请实施例提供第一种信息推荐方法、装置、计算机设备及存储介质,可以提高信息推荐的准确性。
以下分别进行详细说明。需说明的是,以下实施例的描述顺序不作为对实施例优选顺序的限定。
本申请实施例提供一种信息推荐方法,该方法可以由终端或服务器执行,本申请实施例以信息推荐方法由服务器执行为例来进行说明。
请参阅图1,图1为本申请实施例提供的一种信息推荐方法的流程示意图。该信息推荐方法的具体流程可以如下:
101、获取当前游戏玩家在指定游戏中的游戏行为信息。
在本申请实施例中,指定游戏可以包含多个能力方向上的游戏玩法,不同能力方向上的游戏玩法不相同。比如,多个能力方向可以包括:第一能力方向、第二能力方向、第三能力方向、第四能力方向等,也即指定游戏可以包含:第一能力方向的游戏玩法、第二能力方向的游戏玩法、第三能力方向的游戏玩法,以及第四能力方向的游戏玩法等。
其中,游戏行为信息指的是游戏玩家在指定游戏中的游戏操作行为,游戏行为信息至少包括:游戏玩家在不同能力方向的游戏玩法的行为信息。
例如,游戏行为信息可以包括:在第一能力方向的游戏行为信息、在第二能力方向的游戏行为信息、在第三能力方向的游戏行为信息,以及在第四能力方向的游戏行为信息等。
102、基于游戏行为信息从多个能力方向中确定目标能力方向。
其中,目标能力方向指的是需要为游戏玩家提供引导信息的能力方向,以便玩家熟悉目标能力方向上的游戏玩法,提升游戏能力。
在一些实施例中,为了构建准确的游戏玩家的用户画像,游戏行为信息可以包含以下至少一项:活跃度、消费信息、能力等级的提升信息以及互动信息等。
在一些实施例中,为了满足不同游戏玩家的游戏偏好,步骤“基于游戏行为信息从多个能力方向中确定目标能力方向”,可以包括以下操作:
基于游戏行为信息构建对应能力方向的特征数据;
根据特征数据生成当前游戏玩家在指定游戏中的用户画像;
基于用户画像从多个能力方向中筛选出目标能力方向。
其中,活跃度指的是当前游戏玩家在每一能力方向上的游戏玩法的活跃信息,活跃信息可以包括:在预设历史时间段内对于每一能力方向的游戏玩法的游戏操作时长。
例如,预设历史时间段可以为:过去5天,然后获取当前游戏玩家过去5天在每一能力方向上游戏玩法的游戏操作时长,可以包括:在第一能力方向的游戏操作时长可以为:50小时;在第一能力方向的游戏操作时长可以为:20小时;在第二能力方向的游戏操作时长可以为:50小时;在第三能力方向的游戏操作时长可以为:45小时;在第四能力方向的游戏操作时长可以为:80小时,等等。
其中,消费信息指的是当前游戏玩家在指定游戏中的每一能力方向的游戏玩法进行消费的金额值。
比如,获取到当前游戏玩家在第一能力方向的消费信息可以为:消费第一金额值;当前游戏玩家在第二能力方向的消费信息可以为:消费第二金额值;当前游戏玩家在第三能力方向的消费信息可以为:消费第三金额值;当前游戏玩家在第四能力方向的消费信息可以为:消费第四金额值。
其中,能力等级的提升信息指的是在预设历史时间段内,当前游戏玩家在指定游戏中的每一能力方向的游戏玩法的提升的等级。
例如,预设历史时间段可以为过去5天,然后获取当前游戏玩家过去5天在每一能力方向上游戏玩法的提升等级,可以包括:在第一能力方向的提升的等级可以为:提升了3个等级;在第一能力方向的提升的等级可以为:提升了5个等级;在第二能力方向的提升的等级可以为:提升了5个等级;在第三能力方向的提升的等级可以为:提升了6个等级;在第四能力方向的提升的等级可以为:提升了2个等级,等等。
进一步的,根据当前游戏玩家在每一能力方向的游戏玩法的活跃度、消费信息以及能力等级的提升信息,提取当前游戏玩家在指定游戏中各个能力方向的游戏玩法的特征数据。
具体的,获取当前游戏玩家的游戏账户信息,然后根据游戏账户信息与该特征数据生成当前游戏玩家的用户画像。
其中,用户画像是一种勾画目标用户、联系用户诉求与设计方向的数据集,通过将用户的每个具体信息抽象成标签,然后利用这些标签将用户形象具体化,从而为用户提供有针对性的服务,可以用于用户个性化推荐。
在本申请实施例中,用户画像至少包括当前游戏玩家在指定游戏中各个能力方向的活跃度、消费信息以及能力等级的提升信息,通过用户画像可以反映当前游戏玩家在指定游戏中偏好的目标能力方向,然后可以根据当前游戏玩家偏好的目标能力方向对当前游戏玩家进行信息推荐。
在一些实施例中,为了准确推断出用户偏好的能力方向,在步骤“基于活跃度、消费信息以及能力等级的提升信息构建能力方向特征数据”之前,还可以包括以下步骤:
获取当前游戏玩家与目标游戏玩家的互动信息;
则步骤“基于活跃度、消费信息以及能力等级的提升信息构建能力方向特征数据”,可以包括以下操作:
基于互动信息、活跃度、消费信息以及能力等级的提升信息构建能力方向特征数据。
其中,目标游戏玩家为指定游戏中的游戏玩家,互动信息指的是当前游戏玩家与目标游戏玩家在指定游戏中进行互动的信息,比如,互动信息可以包括当前游戏玩家与目标游戏玩家的对话消息、当前游戏玩家与目标游戏玩家之间的礼物赠送等。
进一步的,在生成当前游戏玩家的用户画像之前,还可以获取互动信息的特征数据,然后根据互动信息、活跃度、消费信息以及能力等级的提升信息等各个信息的特征数据构建当前游戏玩家在指定游戏中的能力方向特征数据,最后根据该能力方向特征数据生成用户画像,则用户画像包括:当前游戏玩家在指定游戏中各个能力方向的活跃度、消费信息以及能力等级的提升信息,以及当前游戏玩家与目标游戏玩家的互动信息,更能准确反映出当前游戏玩家的偏好的能力方向。
具体的,基于用户画像从多个能力方向中筛选出目标能力方向,可以从用户画像中筛选活跃度最高、消费信息中消费金额值最高,和/或等级提升最快的能力方向,得到目标能力方向。其中,活跃度最高、消费信息中消费金额值最高,以及等级提升最快的能力方向可以表示当前游戏玩家偏好的能力方向的游戏玩法。
例如,指定游戏中包含:第一能力方向的游戏玩法,第二能力方向的游戏玩法,第三能力方向的游戏玩法,第四能力方向的游戏玩法。根据用户画像筛选出的活跃度最高、消费信息中消费金额值最高,和/或等级提升最快的能力方向可以为:第一能力方向,则可以确定第一能力方向为目标能力方向。
在一些实施例中,为了保证游戏玩家各个能力方向的能力等级平衡,步骤“基于游戏行为信息从多个能力方向中确定目标能力方向”,可以包括以下操作:
从游戏行为信息中,获取当前游戏玩家在每一能力方向上游戏玩法上的第一实际操作时长,以及在每一能力方向上游戏玩法的当前能力等级;
确定每一目标游戏玩家分别在每一能力方向上游戏玩法的操作时长为第一实际操作时长时达到的实际能力等级;
基于所有目标游戏玩家的实际能力等级确定目标能力等级;
从多个能力方向中,筛选出当前能力等级未达到目标能力等级的能力方向,得到目标能力方向。
其中,第一实际操作时长指的是当前游戏玩家从开启每一能力方向的游戏玩法的时间至当前时间,进行该能力方向的游戏玩法的时长。
例如,指定游戏可以包含:第一能力方向的游戏玩法、第二能力方向的游戏玩法、第三能力方向的游戏玩法,以及第四能力方向的游戏玩法。获取到当前游戏玩家在第一能力方向的游戏玩法的第一实际操作时长可以为:400小时,第二能力方向的游戏玩法的第一实际操作时长可以为:500小时,第三能力方向的游戏玩法的第一实际操作时长可以为:500小时,第四能力方向的游戏玩法的第一实际操作时长可以为:300小时。
其中,当前能力等级指的是当前时间时当前游戏玩家在每一能力方向的当前能力等级。
比如,获取到当前游戏玩家在第一能力方向的游戏玩法的当前能力等级可以为:第10能力等级,第二能力方向的游戏玩法的当前能力等级可以为:第15能力等级,第三能力方向的游戏玩法的当前能力等级可以为:第8能力等级,第四能力方向的游戏玩法的当前能力等级可以为:第9能力等级。
其中,目标游戏玩家为指定游戏中的其他游戏玩家。比如,目标游戏玩家可以包括:玩家A、玩家B、玩家C和玩家D等。实际能力等级指的是目标游戏玩家在每一能力方向上游戏玩法的操作时长为第一实际操作时长时,达到的能力等级。
比如,获取玩家A在第一能力方向的游戏玩法的第一实际操作时长为400小时达到的实际能力等级可以为:第20能力等级;获取玩家B在第一能力方向的游戏玩法的第一实际操作时长为400小时达到的实际能力等级可以为:第18能力等级;获取玩家C在第一能力方向的游戏玩法的第一实际操作时长为400小时达到的实际能力等级可以为:第20能力等级;获取玩家D在第一能力方向的游戏玩法的第一实际操作时长为400小时达到的实际能力等级可以为:第30能力等级。
具体的,基于实际能力等级确定目标能力等级,可以计算实际能力等级的平均等级,得到第二目标能力等级。
例如,玩家A在第一能力方向的游戏玩法的实际能力等级为:第20能力等级,玩家B在第一能力方向的游戏玩法的实际能力等级为:第18能力等级,玩家C在第一能力方向的游戏玩法的实际能力等级为:第20能力等级,玩家D在第一能力方向的游戏玩法的实际能力等级为:第30能力等级;进一步的,计算多个第一能力等级的平均等级可以为:第22能力等级,也即在第一能力方向的目标能力等级可以为:第22能力等级。
具体的,对于其他能力方向的目标能力等级的计算方式与上述第一能力方向目标能力等级的计算方式可以相同,在此不多做赘述。通过上述方式可以确定每一能力方向的目标能力等级,也即操作时长相同时根据各个游戏玩家的能力等级确定的平均能力等级,可以用于判定当前游戏玩家在每一能力方向的能力等级是否偏离平均能力等级。
比如,当前游戏玩家在第一能力方向的游戏玩法操作时长为400小时,对应的当前能力等级可以为:第10能力等级;在第一能力方向的目标能力等级可以为:第22能力等级,由于第10能力等级小于第22能力等级,则可以确定当前游戏玩家在第一能力方向的能力等级偏离平均能力等级,也即该第一能力方向为当前游戏玩家需要进行等级提升的能力方向,为目标能力方向。
在一些实施例中,为了保证游戏玩家各个能力方向的能力等级平衡,在步骤“获取当前游戏玩家在每一能力方向上游戏玩法的第一实际操作时长,以及在每一能力方向上游戏玩法的当前能力等级”之后,还可以包括以下步骤:
确定每一目标游戏玩家分别在每一能力方向上游戏玩法中的等级为当前能力等级时所需的第二实际操作时长;
基于所有目标游戏玩家的第二实际操作时长确定目标操作时长;
从多个能力方向中,筛选出第一实际操作时长大于目标操作时长的能力方向,得到目标能力方向。
其中,第二实际操作时长指的是目标游戏玩家在能力方向上达到当前游戏级别进行该能力方向的游戏玩法的时长。
例如,当前游戏玩家在第一能力方向的当前游戏级别可以为:第10能力等级。目标游戏玩家包括:玩家A,玩家B,玩家C和玩家D等。获取到玩家A在第一能力方向上达到当前能力等级的第二实际操作时长可以为:100小时,玩家B在第一能力方向上达到当前能力等级的第二实际操作时长可以为:200小时,玩家C在第一能力方向上达到当前能力等级的第二实际操作时长可以为:200小时,玩家D在第一能力方向上达到当前能力等级的第二实际操作时长可以为:500小时。
具体的,基于第二实际操作时长确定目标操作时长,可以计算第二实际操作时长的平均时长,得到目标操作时长。
例如,第二实际操作时长包括:100小时、200小时、200小时和500小时,计算平均时长可以为250小时,也即目标操作时长为:250小时。
具体的,对于其他能力方向的目标操作时长的计算方式与上述第一能力方向目标操作时长的计算方式相同,在此不多做赘述。通过上述方式可以确定每一能力方向的目标操作时长,也即当前能力等级相同时各个游戏玩家的操作时长确定的平均操作时长,可以用于判定当前游戏玩家在每一能力方向的能力等级是否偏离平均能力等级。
比如,当前游戏玩家在第一能力方向达到当前能力等级的操作时长可以为400小时,在第一能力方向的目标操作时长可以为250小时,由于400小时大于250小时,表示当前游戏玩家与其他游戏玩家达到相同能力等级时花费的时间更长,则可以确定当前游戏玩家在第一能力方向的能力等级偏离平均能力等级,也即该第一能力方向为当前游戏玩家需要进行等级提升的能力方向,为目标能力方向。
103、从引导信息集合中确定与目标能力方向匹配的目标引导信息。
其中,引导信息集合包括多个候选引导信息,候选引导信息可以用于引导游戏玩家如何提升在能力方向中的能力等级。候选引导信息可以包括多种类型,比如,候选引导信息可以包括:文本类型,图片类型,以及视频类型等。
在一些实施例中,为了选择与目标能力方向最匹配的引导信息,步骤“从引导信息集合中确定与目标能力方向匹配的目标引导信息”,可以包括以下操作:
对引导信息集合进行分类处理,得到多个引导信息子集合;
确定目标能力方向对应的引导信息子集合,得到目标引导信息子集合;
基于目标引导信息子集合中的候选引导信息,确定目标引导信息。
其中,不同的引导信息子集合对应不同的能力方向。比如,能力方向包括:第一能力方向、第二能力方向、第三能力方向,以及第四能力方向,则引导信息子集合可以包括:第一引导信息子集合、第二引导信息子集合、第三引导信息子集合以及第四引导信息子集合,其中,第一引导信息子集合可以对应第一能力方向、第二引导信息子集合可以对应第二能力方向、第三引导信息子集合可以对应第三能力方向、第四引导信息子集合可以对应第四能力方向。
在一些实施例中,为了提高引导信息分类的准确性,步骤“对引导信息集合进行分类处理,得到多个引导信息子集合”,可以包括以下操作:
对引导信息集合中的候选引导信息进行预处理,得到候选引导信息对应的文本信息;
将文本信息输入训练模型,并基于训练模型对文本信息进行分类处理,得到候选引导信息归类于不同能力方向的目标概率;
根据目标概率确定候选引导信息所属的能力方向;
将属于同一能力方向的候选引导信息划分为同一引导信息子集合,得到多个引导信息子集合。
其中,对候选引导信息进行预处理可以根据候选引导信息的类型进行不同的处理。
例如,候选引导信息可以为文本类型,则对候选引导信息进行预处理可以提取候选引导信息中的文本内容,得到文本信息;或者,候选引导信息可以为图片类型,则对候选引导信息进行预处理可以识别候选引导信息的图片内容,根据图片内容得到文本信息;又或者,候选引导信息可以为视频类型,则对候选引导信息进行预处理可以识别候选引导信息的视频内容,根据视频内容得到文本信息等。
进一步的,将获取的候选引导信息的文本信息输入训练模型,通过训练模型对候选引导信息进行处理。
其中,在将获取的候选引导信息的文本信息输入训练模型之前,还可以对预设模型进行训练,得到训练模型。
具体的,预设模型可以为文本分类模型,在本申请实施例中,预设模型可以包括:fastText(快速文本分类算法),textCNN(文本卷积神经网络),textRNN(文本循环神经网络)。
其中,fastText方法包含三部分:模型架构,层次Softmax(激活函数)和N-Gram子词特征。其中,N-Gram是大词汇连续语音识别中常用的一种语言模型,对中文而言,我们称之为汉语语言模型,汉语语言模型利用上下文中相邻词间的搭配信息,在需要把连续无空格的拼音、笔划,或代表字母或笔划的数字,转换成汉字串(即句子)时,可以计算出具有最大概率的句子,从而实现到汉字的自动转换。
首先,请参阅图2,图2为本申请实施例提供的一种信息推荐方法的文本分类模型结构示意图。图2所示的模型结构为fastText模型架构,其中X1,X2,…,X(n-1),Xn表示一个文本中的N-Gram向量,每个特征是词向量的平均值,用全部的N-Gram去预测指定类别。
进一步的,对于有大量类别的数据集,fastText使用了一个分层分类器(而非扁平式架构)。不同的类别被整合进树形结构中。在某些文本分类任务中类别很多,计算线性分类器的复杂度高。为了改善运行时间,fastText模型使用了层次Softmax技巧。层次Softmax技巧建立在哈弗曼编码的基础上,对标签进行编码,能够极大地缩小模型预测目标的数量。fastText也利用了类别(class)不均衡这个事实(一些类别出现次数比其他的更多),通过使用哈弗曼算法建立用于表征类别的树形结构。因此,频繁出现类别的树形结构的深度要比不频繁出现类别的树形结构的深度要小,这也使得进一步的计算效率更高。
其中,霍夫曼编码使用变长编码表对源符号(如文件中的一个字母)进行编码,其中变长编码表是通过一种评估来源符号出现机率的方法得到的,出现机率高的字母使用较短的编码,反之出现机率低的则使用较长的编码,这便使编码之后的字符串的平均长度、期望值降低,从而达到无损压缩数据的目的。
例如,在英文中,e的出现机率最高,而z的出现概率则最低。当利用霍夫曼编码对一篇英文进行压缩时,e极有可能用一个比特来表示,而z则可能花去25个比特(不是26)。用普通的表示方法时,每个英文字母均占用一个字节(byte),即8个比特。二者相比,e使用了一般编码的1/8的长度,z则使用了3倍多。倘若我们能实现对于英文中各个字母出现概率的较准确的估算,就可以大幅度提高无损压缩的比例。
其中,霍夫曼树又称最优二叉树,是一种带权路径长度最短的二叉树。所谓树的带权路径长度,就是树中所有的叶结点的权值乘上其到根结点的路径长度(若根结点为0层,叶结点到根结点的路径长度为叶结点的层数)。树的路径长度是从树根到每一结点的路径长度之和,记为WPL=(W1*L1+W2*L2+W3*L3+...+Wn*Ln),N个权值Wi(i=1,2,...,n)构成一棵有N个叶结点的二叉树,相应的叶结点的路径长度为Li(i=1,2,...,n)。可以证明霍夫曼树的WPL是最小的。
具体的,fastText可以用于文本分类和句子分类。不管是文本分类还是句子分类,常用的特征是词袋模型。但词袋模型不能考虑词之间的顺序,因此fastText还加入了N-Gram特征。在fastText中,每个词被看做是N-Gram字母串包。为了区分前后缀情况,"<",">"符号被加到了词的前后端。除了词的子串外,词本身也被包含进了N-Gram字母串包。以where为例,在n=3的情况下,其子串分别可以为<wh,whe,her,ere,re>,以及其本身。
其中,通过textRNN进行文本分类时,可以指定一个固定的输入序列/文本长度:该长度可以是最长文本/序列的长度,此时其他所有文本/序列都要进行填充以达到该长度;该长度也可以是训练集中所有文本/序列长度的均值,此时对于过长的文本/序列需要进行截断,过短的文本则进行填充。总之,要使得训练集中所有的文本/序列长度相同,该长度除之前提到的设置外,也可以是其他任意合理的数值。在测试时,也需要对测试集中的文本/序列做同样的处理。
进一步的,假设训练集中所有文本/序列的长度统一为n,我们需要对文本进行分词,并使用词嵌入得到每个词固定维度的向量表示。对于每一个输入文本/序列,可以在RNN的每一个时间步长上输入文本中一个单词的向量表示,计算当前时间步长上的隐藏状态,然后用于当前时间步骤的输出以及传递给下一个时间步长并和下一个单词的词向量一起作为RNN单元输入,然后再计算下一个时间步长上RNN的隐藏状态,以此重复…直到处理完输入文本中的每一个单词,由于输入文本的长度为n,所以要经历n个时间步长。
例如,请参阅图3,图3为本申请实施例提供的另一种信息推荐方法的文本分类模型结构示意图。图3所示的模型结构为textRNN模型架构。在图3中,TextRNN的结构分为:1、embedddinglayer,2、Bi-LSTMlayer,3、concatoutput,4、FClayer,5、Softmax。
其中,通过embeddding layer将离散变量转为连续向量。一般取前向/反向LSTM(也即图3中长短期记忆网络)在最后一个时间步长上隐藏状态,然后进行拼接,在经过一个Softmax层(输出层使用Softmax激活函数)进行一个多分类;或者取前向/反向LSTM在每一个时间步长上的隐藏状态,对每一个时间步长上的两个隐藏状态进行拼接,然后对所有时间步长上拼接后的隐藏状态取均值,再经过一个Softmax层(输出层使用Softmax激活函数)进行一个多分类(2分类的话使用sigmoid激活函数)。
其中,textCNN模型主要使用了一维卷积层和时序最大池化层。假设输入的文本序列由n个词组成,每个词用d维的词向量表示。那么输入样本的宽为n,高为1,输入通道数为d。textCNN的计算主要分为以下几步:定义多个一维卷积核,并使用这些卷积核对输入分别做卷积计算。宽度不同的卷积核可能会捕捉到不同个数的相邻词的相关性。对输出的所有通道分别做时序最池化,再将这些通道的池化输出值连结为向量。通过全连接层将连结后的向量变换为有关各类别的输出。这一步可以使用丢弃层应对过拟合。
例如,请参阅图4,图4为本申请实施例提供的另一种信息推荐方法的文本分类模型结构示意图。在图4中,在模型输入层输入一个有11个词的句子,每个词用6维词向量表示。因此输入序列的宽为11,输入通道数为6。给定2个一维卷积核,核宽分别为2和4,输出通道数分别设为4和5。因此,一维卷积计算后,4个输出通道的宽为11-2+1=10,而其他5个通道的宽为11-4+1=8。尽管每个通道的宽不同,我们依然可以对各个通道做时序最大池化,并将9个通道的池化输出连结成一个9维向量。最终,使用全连接将9维向量变换为2维输出,即两种分类结果的预测。
在本申请实施例中,首先对样本文本进行预处理,即提取关键词表示文本,主要包含文本分词和去除停用词两个阶段。其中,样本文本指的是用于训练预设模型的文本。
具体的,由于文章特征粒度为词粒度远远好于字粒度,可以不考虑词序信息。对文章进行分词可以直接使用开源的分词工具,简单易用且准确率较高。
进一步的,建立停用词字典,停用词主要包括一些副词、形容词及其一些连接词。通过维护一个停用词表,实际上是一个特征提取的过程,本质上是特征选择的一部分。
其中,文本分词指的是,将连续的字序列按照一定的规范重新组合成词序列的过程。停用词是指在信息检索中,为节省存储空间和提高搜索效率,在处理自然语言数据(或文本)之前或之后会自动过滤掉某些字或词,这些字或词即被称为停用词。
通过上述文本分词和去停用词对样本文本进行预处理之后,即可以得到特征文本数据,然后基于特征文本数据构建训练数据集、测试数据集合验证数据集。
进一步的,将训练数据集分别输入fastText,textCNN,textRNN三个预设模型中,进行训练调整参数得到最佳的三个分类模型,也即得到三个训练模型。
在一些实施例中,为了提高文本分类准确率,步骤“基于训练模型对文本信息进行分类处理,得到候选引导信息归类于不同能力方向的目标概率”,可以包括以下操作:
通过每一子模型计算候选引导信息归类于每一能力方向的概率;
基于预设权重信息对候选引导信息归类于同一能力方向的多个概率进行加权处理,得到候选引导信息归类于每一能力方向的目标概率。
其中,子模型指的是本申请实施例中的文本分类模型,也即fastText,textCNN,textRNN。
例如,候选引导信息可以为:第一候选引导信息。将第一候选引导信息输入fastText中,通过fastText计算第一候选引导信息归类于各个能力方向的概率包括:第一候选引导信息归类于第一能力方向的概率可以为:0.3,归类于第二能力方向的概率可以为0.3,归类于第二能力方向的概率可以为0.2,归类于第二能力方向的概率可以为0.2;将第一候选引导信息输入textCNN中,通过textCNN计算第一候选引导信息归类于各个能力方向的概率包括:第一候选引导信息归类于第一能力方向的概率可以为:0.25,归类于第二能力方向的概率可以为0.25,归类于第二能力方向的概率可以为0.3,归类于第二能力方向的概率可以为0.2;将第一候选引导信息输入textRNN中,通过textRNN计算第一候选引导信息归类于各个能力方向的概率包括:第一候选引导信息归类于第一能力方向的概率可以为:0.4,归类于第二能力方向的概率可以为0.3,归类于第二能力方向的概率可以为0.2,归类于第二能力方向的概率可以为0.1。
其中,预设权重信息指的是为每一分类模型的分类结果分配的权重值,比如,为fastText的分类结果分配的权重值可以为0.3,为textCNN的分类结果分配的权重值可以为0.3,为textRNN的分类结果分配的权重值可以为0.4。
进一步的,基于预设权重信息确定第一候选引导信息归类于每一能力方向的目标概率值可以根据每一分类模型对应的权重值对该分类模型对应的分类结果进行加权处理,进行如下计算:对于归类于第一能力方向:0.3x0.3+0.25x0.3+0.4x0.4=0.325,对于归类于第二能力方向:0.3x0.3+0.25x0.3+0.4x0.3=0.285,对于归类于第三能力方向:0.2x0.3+0.3x0.3+0.2x0.4=0.23,对于归类于第四能力方向:0.2x0.3+0.2x0.3+0.1x0.4=0.16,则可以确定第一候选引导信息归类于第一能力方向的目标概率为:0.325,归类于第二能力方向的目标概率为0.285,归类于第三能力方向的目标概率为:0.23,归类于第四能力方向的目标概率为0.16。
在确定候选引导信息归类于每一能力方向的目标概率之后,可以确定目标概率最大的能力方向为该候选引导信息所属的能力方向。
例如,第一候选引导信息归类于第一能力方向的目标概率可以为最大,则可以确定第一候选引导信息所属的能力方向为第一能力方向。在文本分类过程中使用了三个模型进行分类,并对三个分类结果进行加权综合,鲁棒性更好。
进一步的,根据上述分类方式对引导信息集合中的所有候选引导信息进行分类处理,可以得到每一候选引导信息所属的能力方向,然后将属于同一能力方向的引导信息添加至同一引导信息子集合,即可以得到多个引导信息子集合。
在一些实施例中,为了向玩家推荐合适的引导信息,步骤“基于目标引导信息子集合中的候选引导信息,确定目标引导信息”,可以包括以下操作:
确定当前游戏玩家在目标能力方向上游戏玩法的能力等级信息;
获取当前游戏玩家的历史查阅信息;
基于能力等级信息和历史查阅信息,对目标引导信息子集合中的候选引导信息进行排序,得到排序结果;
基于排序结果获取指定数量的候选引导信息,得到目标引导信息。
其中,能力等级信息至少包括:当前游戏玩家在目标能力方向的当前能力等级,比如,目标能力方向可以为第一能力方向,当前游戏玩家在第一能力方向的当前能力等级可以为:第10能力等级。
其中,历史查阅信息指的是当前游戏玩家历史时间内在指定游戏中查阅的引导信息,也即历史查阅信息包括:指定历史时间段内查阅的候选引导信息。
具体的,根据能力等级信息和历史查阅信息对目标引导信息子集合中的候选引导信息进行排序,首先可以从目标引导信息子集合中确定出与当前游戏玩家在目标能力方向的当前能力等级对应的第一目标候选引导信息,然后计算第一目标候选引导信息与历史查阅信息的相似度,基于相似度大小对第一目标候选引导信息进行排序,得到排序结果。
例如,第一目标候选引导信息包括:候选引导信息a,候选引导信息b,候选引导信息c等,计算候选引导信息a与历史查阅信息的相似度可以为50%,候选引导信息b与历史查阅信息的相似度可以为80%,候选引导信息c与历史查阅信息的相似度可以为90%,然后按照相似度从大到小的顺序对第一目标候选引导信息进行排序,得到排序结果可以为:候选引导信息c,候选引导信息b,候选引导信息a。
其中,指定数量指的是需要为当前游戏玩家推荐的信息数量,比如,指定数量可以为:1,则可以将候选引导信息c对当前游戏玩家进行推荐。
104、基于目标引导信息对当前游戏玩家进行信息推荐。
在确定目标引导信息后,可以通过多种方式对当前游戏玩家进行信息推荐,比如,可以将目标引导信息以邮件形式发送至当前游戏玩家在指定游戏的游戏账户中,当前游戏玩家可以查收邮箱对目标引导信息进行查看。
在一些实施例中,为了提高信息推荐效率,步骤“基于目标引导信息对当前游戏玩家进行信息推荐”,可以包括以下操作:
获取当前游戏玩家不同时间段中在每一能力方向上游戏玩法的活跃信息;
从不同时间段中,确定出与目标能力方向的游戏玩法对应的目标时间段;
在目标时间段基于目标引导信息对当前游戏玩家进行信息推荐。
其中,活跃信息指的是当前游戏玩家不同时间段在每一能力方向的游戏玩法的操作时长。
例如,不同时间段可以指的是一天的不同时间段,可以将一天划分为四个时间段,包括:第一时间段、第二时间段、第三时间段和第四时间段。然后获取当前游戏玩家在每一能力方向的游戏玩法的操作时长,可以为:第一时间段在第一能力方向的操作时长为4小时,第一时间段在第二能力方向的操作时长为0小时,第一时间段在第三能力方向的操作时长为0小时,第一时间段在第四能力方向的操作时长为0小时;第二时间段在第一能力方向的操作时长为0小时,第二时间段在第二能力方向的操作时长为4小时,第二时间段在第三能力方向的操作时长为0小时,第二时间段在第四能力方向的操作时长为0小时;第三时间段在第一能力方向的操作时长为0小时,第三时间段在第二能力方向的操作时长为0小时,第三时间段在第三能力方向的操作时长为4小时,第三时间段在第四能力方向的操作时长为0小时;第四时间段在第一能力方向的操作时长为0小时,第四时间段在第二能力方向的操作时长为0小时,第四时间段在第三能力方向的操作时长为0小时,第四时间段在第四能力方向的操作时长为4小时。
进一步的,可以确定第一能力方向对应的时间段为第一时间段,第二能力方向对应的时间段可以为第二时间段,第三能力方向对应的时间段可以为第三时间段,第四能力方向对应的时间段可以为第四时间段。
若目标能力方向为第一能力方向,则可以在第一时间段时对当前游戏玩家进行目标引导信息的推荐,通过不同时间段对不同能力方向的引导信息对游戏玩家进行推荐,可以提高引导信息使用效率,提高玩家游戏体验。
本申请实施例公开了一种信息推荐方法,该方法包括:获取当前游戏玩家在指定游戏中的游戏行为信息,其中,指定游戏包含多个能力方向上的游戏玩法,游戏行为信息包括:针对不同能力方向的游戏玩法的行为信息;基于游戏行为信息从多个能力方向中确定目标能力方向;从引导信息集合中确定与目标能力方向匹配的目标引导信息,其中,引导信息集合包括多个候选引导信息;基于目标引导信息对当前游戏玩家进行信息推荐。本实施例通过获取用户游戏行为数据,提取在不同能力方向上的游戏玩法的特征数据构建用户画像,然后根据用户画像确定用户偏好的目标能力方向或者用户需要提升的目标能力方向,结合游戏玩家在指定游戏中当前的成长画像能刻画在不同能力方向的偏好,以及结合游戏玩家偏离平均等级较高的能力方向的分析能够让整个推荐的能力方向更加的精准,进一步地,为用户推荐该目标能力方向的游戏攻略文章,从而可以提高信息推荐的准确性。
根据上述介绍的内容,下面将举例来进一步说明本申请的信息推荐方法。请参阅图5,图5为本申请实施例提供的另一种信息推荐方法的流程示意图,以该信息推荐方法应用于服务器为例,具体流程可以如下:
201、服务器获取当前游戏玩家在指定游戏中的游戏行为信息。
在本申请实施例中,指定游戏可以包含多个能方向上的游戏玩法,不同能力方向上的游戏玩法不相同。例如,多个能力方向可以包括:角色职业、宠物、装备、修为等能力方向。
其中,角色职业指的是游戏玩家在指定游戏中选择的游戏角色类别;宠物指的是在指定游戏中,游戏玩家通过购买或者其他渠道获取的游戏宠物,在进行游戏时,携带宠物进行游戏可以提升游戏角色的战斗力等;装备指的是在指定游戏中,游戏玩家通过购买或者其他渠道获取的游戏装备,包括服装、武器道具等,在进行游戏时,携带装备进行游戏可以提升游戏角色的战斗力等;修为指的是游戏玩家在指定游戏中的经验等级。
其中,游戏行为信息指的是游戏玩家在指定游戏中的游戏操作行为,游戏行为信息至少包括:游戏玩家在不同能力方向的游戏玩法的行为信息。
例如,游戏行为信息可以包括:在角色职业方向包括游戏玩家更换的角色职业数量、当前的角色职业、在每一角色职业的登录时长,以及在每一角色职业的消费信息;在宠物方向包括游戏玩家总共拥有的宠物数量、每一宠物的拥有时长、携带每一宠物进行游戏的时长、每一宠物的当前等级,以及在每一宠物的消费信息;在装备方向包括游戏玩家总共拥有的装备数量、每一装备的拥有时长、携带每一装备进行游戏的时长、每一装备的当前等级,以及在每一装备的消费信息;在修为方向包括当前修为等级、在每一修为等级的停留时长等。
202、服务器根据游戏行为信息生成当前游戏玩家的用户画像。
具体的,服务器根据游戏行为信息提取当前游戏玩家在每一能力方向的行为信息的特征数据,并基于特征数据构建当前游戏玩家的用户画像。
203、服务器基于用户画像确定当前游戏玩家偏好的目标能力方向游戏玩法。
在生成当前游戏玩家的用户画像之后,可以根据用户画像确定当前游戏玩家偏好的目标能力方向游戏玩法。
具体的,可以根据用户画像中在每一能力方向游戏玩法的操作时长、消费信息以及能力等级的提升信息,确定当前游戏玩家偏好的目标能力方向游戏玩法,比如,根据用户画像判定出当前游戏玩家偏好的能力方向为宠物,则可以确定目标能力方向游戏玩法为宠物方向玩法。
204、服务器获取与目标能力方向游戏玩法匹配的目标游戏攻略文章。
其中,游戏攻略文章可以用于指导游戏玩家进行游戏能力等级的提升,游戏攻略文章可以在游戏设计期间进行设计。
具体的,服务器可以预先对所有游戏攻略文章进行分类,可以按照不同能力方向游戏玩法对游戏攻略文章进行分类,比如,能力方向可以包括:角色职业、宠物、装备、修为等能力方向,则可以根据角色职业、宠物、装备、修为等能力方向对游戏攻略文章进行分类,至少可以分为四类,包括:角色职业对应的攻略文章、宠物对应的攻略文章、装备对应的攻略文章、修为对应的攻略文章。
例如,目标能力方向可以为:宠物方向,则可以确定目标游戏攻略文章为宠物对应的攻略文章。
205、服务器向当前游戏玩家的游戏账户发送目标游戏攻略文章。
在确定目标游戏攻略文章之后,服务器可以向当前游戏玩家的游戏账户发送目标游戏攻略文章,具体的,可以将目标游戏攻略文章发送至当前游戏玩家在指定游戏的游戏账户中,或者,可以通过提示方式向当前游戏玩家推荐目标游戏攻略文章。
本申请实施例公开了一种信息推荐方法,该方法包括:服务器获取当前游戏玩家在指定游戏中的游戏行为信息,服务器根据游戏行为信息生成当前游戏玩家的用户画像,服务器基于用户画像确定当前游戏玩家偏好的目标能力方向游戏玩法,服务器获取与目标能力方向游戏玩法匹配的目标游戏攻略文章,服务器向当前游戏玩家的游戏账户发送目标游戏攻略文章。以此,可以提高游戏中信息推荐效率。
为便于更好的实施本申请实施例提供的信息推荐方法,本申请实施例还提供一种基于上述信息推荐方法的信息推荐装置。其中名词的含义与上述信息推荐方法中相同,具体实现细节可以参考方法实施例中的说明。
请参阅图6,图6为本申请实施例提供的一种信息推荐装置的结构框图,该装置包括:
第一获取单元401,用于获取当前游戏玩家在指定游戏中的游戏行为信息,其中,所述指定游戏包含多个能力方向上的游戏玩法,所述游戏行为信息包括:针对不同能力方向的游戏玩法的行为信息;
第一确定单元402,用于基于所述游戏行为信息从所述多个能力方向中确定目标能力方向;
第二确定单元403,用于从引导信息集合中确定与所述目标能力方向匹配的目标引导信息,其中,所述引导信息集合包括多个候选引导信息;
推荐单元404,用于基于所述目标引导信息对所述当前游戏玩家进行信息推荐。
在一些实施例中,第一确定单元402可以包括:
构建子单元,用于基于所述游戏行为信息构建对应能力方向的特征数据;
生成子单元,用于根据所述特征数据生成所述当前游戏玩家在所述指定游戏中的用户画像;
第一筛选子单元,用于基于所述用户画像从所述多个能力方向中筛选出所述目标能力方向。
在一些实施例中,第一确定单元402还可以包括:
第一获取子单元,用于从所述游戏行为信息中,获取所述当前游戏玩家在每一能力方向上游戏玩法的第一实际操作时长,以及在每一能力方向上游戏玩法的当前能力等级;
第一确定子单元,用于确定每一目标游戏玩家分别在每一能力方向上游戏玩法的操作时长为所述第一实际操作时长时达到的实际能力等级,其中,所述目标游戏玩家为所述指定游戏中除所述当前游戏玩家之外的所有游戏玩家;
第二确定子单元,用于基于所有所述目标游戏玩家的所述实际能力等级确定目标能力等级;
第二筛选子单元,用于从所述多个能力方向中,筛选出所述当前能力等级未达到所述目标能力等级的能力方向,得到所述目标能力方向。
在一些实施例中,第一确定单元402还可以包括:
第三确定子单元,用于确定每一目标游戏玩家分别在每一能力方向上游戏玩法中的等级为所述当前能力等级时所需的第二实际操作时长;
第四确定子单元,用于基于所有所述目标游戏玩家的所述第二实际操作时长确定目标操作时长;
第三筛选子单元,用于从所述多个能力方向中,筛选出所述第一实际操作时长大于所述目标操作时长的能力方向,得到所述目标能力方向。
在一些实施例中,第二确定单元403可以包括:
处理子单元,用于对所述引导信息集合进行分类处理,得到多个引导信息子集合,其中,不同的引导信息子集合对应不同的能力方向;
第五确定子单元,用于确定所述目标能力方向对应的引导信息子集合,得到目标引导信息子集合;
第六确定子单元,用于基于所述目标引导信息子集合中的候选引导信息,确定所述目标引导信息。
在一些实施例中,第六确定子单元具体可以用于:
确定所述当前游戏玩家在所述目标能力方向上游戏玩法的能力等级信息;
获取所述当前游戏玩家的历史查阅信息,所述历史查阅信息包括:指定历史时间段内查阅的候选引导信息;
基于所述能力等级信息和所述历史查阅信息,对所述目标引导信息子集合中的候选引导信息进行排序,得到排序结果;
基于所述排序结果获取指定数量的候选引导信息,得到所述目标引导信息。
在一些实施例中,处理子单元具体可以用于:
对所述引导信息集合中的候选引导信息进行预处理,得到所述候选引导信息对应的文本信息;
将所述文本信息输入训练模型,并基于所述训练模型对所述文本信息进行分类处理,得到所述候选引导信息归类于不同能力方向的目标概率;
根据所述目标概率确定所述候选引导信息所属的能力方向;
将属于同一能力方向的候选引导信息划分为同一引导信息子集合,得到所述多个引导信息子集合。
在一些实施例中,处理子单元具体还可以用于:
对所述引导信息集合中的候选引导信息进行预处理,得到所述候选引导信息对应的文本信息;
通过每一子模型计算所述候选引导信息归类于每一能力方向的概率;基于预设权重信息对所述候选引导信息归类于同一能力方向的多个概率进行加权处理,得到所述候选引导信息归类于每一能力方向的目标概率;
根据所述目标概率确定所述候选引导信息所属的能力方向;
将属于同一能力方向的候选引导信息划分为同一引导信息子集合,得到所述多个引导信息子集合。
在一些实施例中,推荐单元404可以包括:
第二获取子单元,用于获取所述当前游戏玩家不同时间段中在每一能力方向上游戏玩法的活跃信息;
第七确定子单元,用于从所述不同时间段中,确定出与所述目标能力方向的游戏玩法对应的目标时间段;
推荐子单元,用于在所述目标时间段基于所述目标引导信息对所述当前游戏玩家进行信息推荐。
本申请实施例公开了一种信息推荐装置,通过第一获取单元401获取当前游戏玩家在指定游戏中的游戏行为信息,其中,所述指定游戏包含多个能力方向上的游戏玩法,所述游戏行为信息包括:针对不同能力方向的游戏玩法的行为信息,第一确定单元402基于所述游戏行为信息从所述多个能力方向中确定目标能力方向,第二确定单元403从引导信息集合中确定与所述目标能力方向匹配的目标引导信息,其中,所述引导信息集合包括多个候选引导信息,推荐单元404基于所述目标引导信息对所述当前游戏玩家进行信息推荐。以此,可以提高信息推荐的准确性。
相应的,本申请实施例还提供一种计算机设备,该计算机设备可以为终端。如图7所示,图7为本申请实施例提供的计算机设备的结构示意图。该计算机设备500包括有一个或者一个以上处理核心的处理器501、有一个或一个以上计算机可读存储介质的存储器502及存储在存储器502上并可在处理器上运行的计算机程序。其中,处理器501与存储器502电性连接。本领域技术人员可以理解,图中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
处理器501是计算机设备500的控制中心,利用各种接口和线路连接整个计算机设备500的各个部分,通过运行或加载存储在存储器502内的软件程序和/或模块,以及调用存储在存储器502内的数据,执行计算机设备500的各种功能和处理数据,从而对计算机设备500进行整体监控。
在本申请实施例中,计算机设备500中的处理器501会按照如下的步骤,将一个或一个以上的应用程序的进程对应的指令加载到存储器502中,并由处理器501来运行存储在存储器502中的应用程序,从而实现各种功能:
获取当前游戏玩家在指定游戏中的游戏行为信息,其中,指定游戏包含多个能力方向上的游戏玩法,游戏行为信息包括:针对不同能力方向的游戏玩法的行为信息;基于游戏行为信息从多个能力方向中确定目标能力方向;从引导信息集合中确定与目标能力方向匹配的目标引导信息,其中,引导信息集合包括多个候选引导信息;基于目标引导信息对当前游戏玩家进行信息推荐。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
可选的,如图7所示,计算机设备500还包括:触控显示屏503、射频电路504、音频电路505、输入单元506以及电源507。其中,处理器501分别与触控显示屏503、射频电路504、音频电路505、输入单元506以及电源507电性连接。本领域技术人员可以理解,图7中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
触控显示屏503可用于显示图形用户界面以及接收用户作用于图形用户界面产生的操作指令。触控显示屏503可以包括显示面板和触控面板。其中,显示面板可用于显示由用户输入的信息或提供给用户的信息以及计算机设备的各种图形用户接口,这些图形用户接口可以由图形、引导信息、图标、视频和其任意组合来构成。可选的,可以采用液晶显示器(LCD,Liquid Crystal Display)、有机发光二极管(OLED,Organic Light-EmittingDiode)等形式来配置显示面板。触控面板可用于收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板上或在触控面板附近的操作),并生成相应的操作指令,且操作指令执行对应程序。可选的,触控面板可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器501,并能接收处理器501发来的命令并加以执行。触控面板可覆盖显示面板,当触控面板检测到在其上或附近的触摸操作后,传送给处理器501以确定触摸事件的类型,随后处理器501根据触摸事件的类型在显示面板上提供相应的视觉输出。在本申请实施例中,可以将触控面板与显示面板集成到触控显示屏503而实现输入和输出功能。但是在某些实施例中,触控面板与触控面板可以作为两个独立的部件来实现输入和输出功能。即触控显示屏503也可以作为输入单元506的一部分实现输入功能。
射频电路504可用于收发射频信号,以通过无线通信与网络设备或其他计算机设备建立无线通讯,与网络设备或其他计算机设备之间收发信号。
音频电路505可以用于通过扬声器、传声器提供用户与计算机设备之间的音频接口。音频电路505可将接收到的音频数据转换后的电信号,传输到扬声器,由扬声器转换为声音信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路505接收后转换为音频数据,再将音频数据输出处理器501处理后,经射频电路504以发送给比如另一计算机设备,或者将音频数据输出至存储器502以便进一步处理。音频电路505还可能包括耳塞插孔,以提供外设耳机与计算机设备的通信。
输入单元506可用于接收输入的数字、字符信息或用户特征信息(例如指纹、虹膜、面部信息等),以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
电源507用于给计算机设备500的各个部件供电。可选的,电源507可以通过电源管理***与处理器501逻辑相连,从而通过电源管理***实现管理充电、放电、以及功耗管理等功能。电源507还可以包括一个或一个以上的直流或交流电源、再充电***、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管图7中未示出,计算机设备500还可以包括摄像头、传感器、无线保真模块、蓝牙模块等,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
由上可知,本实施例提供的计算机设备,获取当前游戏玩家在指定游戏中的游戏行为信息,其中,指定游戏包含多个能力方向上的游戏玩法,游戏行为信息包括:针对不同能力方向的游戏玩法的行为信息;基于游戏行为信息从多个能力方向中确定目标能力方向;从引导信息集合中确定与目标能力方向匹配的目标引导信息,其中,引导信息集合包括多个候选引导信息;基于目标引导信息对当前游戏玩家进行信息推荐。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有多条计算机程序,该计算机程序能够被处理器进行加载,以执行本申请实施例所提供的任一种信息推荐方法中的步骤。例如,该计算机程序可以执行如下步骤:
获取当前游戏玩家在指定游戏中的游戏行为信息,其中,指定游戏包含多个能力方向上的游戏玩法,游戏行为信息包括:针对不同能力方向的游戏玩法的行为信息;
基于游戏行为信息从多个能力方向中确定目标能力方向;
从引导信息集合中确定与目标能力方向匹配的目标引导信息,其中,引导信息集合包括多个候选引导信息;
基于目标引导信息对当前游戏玩家进行信息推荐。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该存储介质中所存储的计算机程序,可以执行本申请实施例所提供的任一种信息推荐方法中的步骤,因此,可以实现本申请实施例所提供的任一种信息推荐方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种信息推荐方法、装置、存储介质及计算机设备进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (13)
1.一种信息推荐方法,其特征在于,所述方法包括:
获取当前游戏玩家在指定游戏中的游戏行为信息,其中,所述指定游戏包含多个能力方向上的游戏玩法,所述游戏行为信息包括针对不同能力方向的游戏玩法的行为信息;
基于所述游戏行为信息从所述多个能力方向中确定目标能力方向;
从引导信息集合中确定与所述目标能力方向匹配的目标引导信息,其中,所述引导信息集合包括多个候选引导信息;
基于所述目标引导信息对所述当前游戏玩家进行信息推荐。
2.根据权利要求1所述的方法,其特征在于,所述游戏行为信息包含以下至少一项:活跃度、消费信息、能力等级的提升信息以及互动信息。
3.根据权利要求1或2所述的方法,其特征在于,所述基于所述游戏行为信息从所述多个能力方向中确定目标能力方向,包括:
基于所述游戏行为信息构建对应能力方向的特征数据;
根据所述特征数据生成所述当前游戏玩家在所述指定游戏中的用户画像;
基于所述用户画像从所述多个能力方向中筛选出所述目标能力方向。
4.根据权利要求1所述的方法,其特征在于,所述基于所述游戏行为信息从所述多个能力方向中确定目标能力方向,包括:
从所述游戏行为信息中,获取所述当前游戏玩家在每一能力方向上游戏玩法的第一实际操作时长,以及在每一能力方向上游戏玩法的当前能力等级;
确定每一目标游戏玩家分别在每一能力方向上游戏玩法的操作时长为所述第一实际操作时长时达到的实际能力等级,其中,所述目标游戏玩家为所述指定游戏中除所述当前游戏玩家之外的所有游戏玩家;
基于所有所述目标游戏玩家的所述实际能力等级确定目标能力等级;
从所述多个能力方向中,筛选出所述当前能力等级未达到所述目标能力等级的能力方向,得到所述目标能力方向。
5.根据权利要求4所述的方法,其特征在于,在所述获取所述当前游戏玩家在每一能力方向上游戏玩法的第一实际操作时长,以及在每一能力方向上游戏玩法的当前能力等级之后,还包括:
确定每一目标游戏玩家分别在每一能力方向上游戏玩法中的等级为所述当前能力等级时所需的第二实际操作时长;
基于所有所述目标游戏玩家的所述第二实际操作时长确定目标操作时长;
从所述多个能力方向中,筛选出所述第一实际操作时长大于所述目标操作时长的能力方向,得到所述目标能力方向。
6.根据权利要求1所述的方法,其特征在于,所述从引导信息集合中确定与所述目标能力方向匹配的目标引导信息,包括:
对所述引导信息集合进行分类处理,得到多个引导信息子集合,其中,不同的引导信息子集合对应不同的能力方向;
确定所述目标能力方向对应的引导信息子集合,得到目标引导信息子集合;
基于所述目标引导信息子集合中的候选引导信息,确定所述目标引导信息。
7.根据权利要求6所述的方法,其特征在于,所述基于所述目标引导信息子集合中的候选引导信息,确定所述目标引导信息,包括:
确定所述当前游戏玩家在所述目标能力方向上游戏玩法的能力等级信息;
获取所述当前游戏玩家的历史查阅信息,所述历史查阅信息包括:指定历史时间段内查阅的候选引导信息;
基于所述能力等级信息和所述历史查阅信息,对所述目标引导信息子集合中的候选引导信息进行排序,得到排序结果;
基于所述排序结果获取指定数量的候选引导信息,得到所述目标引导信息。
8.根据权利要求6所述的方法,其特征在于,所述对所述引导信息集合进行分类处理,得到多个引导信息子集合,包括:
对所述引导信息集合中的候选引导信息进行预处理,得到所述候选引导信息对应的文本信息;
将所述文本信息输入训练模型,并基于所述训练模型对所述文本信息进行分类处理,得到所述候选引导信息归类于不同能力方向的目标概率;
根据所述目标概率确定所述候选引导信息所属的能力方向;
将属于同一能力方向的候选引导信息划分为同一引导信息子集合,得到所述多个引导信息子集合。
9.根据权利要求8所述的方法,其特征在于,所述训练模型包括:多个子模型;
所述基于所述训练模型对所述文本信息进行分类处理,得到所述候选引导信息归类于不同能力方向的目标概率,包括:
通过每一子模型计算所述候选引导信息归类于每一能力方向的概率;
基于预设权重信息对所述候选引导信息归类于同一能力方向的多个概率进行加权处理,得到所述候选引导信息归类于每一能力方向的目标概率。
10.根据权利要求1所述的方法,其特征在于,所述基于所述目标引导信息对所述当前游戏玩家进行信息推荐,包括:
获取所述当前游戏玩家不同时间段中在每一能力方向上游戏玩法的活跃信息;
从所述不同时间段中,确定出与所述目标能力方向的游戏玩法对应的目标时间段;
在所述目标时间段基于所述目标引导信息对所述当前游戏玩家进行信息推荐。
11.一种信息推荐装置,其特征在于,所述装置包括:
第一获取单元,用于获取当前游戏玩家在指定游戏中的游戏行为信息,其中,所述指定游戏包含多个能力方向上的游戏玩法,所述游戏行为信息包括针对不同能力方向的游戏玩法的行为信息;
第一确定单元,用于基于所述游戏行为信息从所述多个能力方向中确定目标能力方向;
第二确定单元,用于从引导信息集合中确定与所述目标能力方向匹配的目标引导信息,其中,所述引导信息集合包括多个候选引导信息;
推荐单元,用于基于所述目标引导信息对所述当前游戏玩家进行信息推荐。
12.一种计算机设备,包括存储器,处理器及存储在存储器上并在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现如权利要求1至10任一项所述的信息推荐方法。
13.一种存储介质,其特征在于,所述存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求1至10任一项所述的信息推荐方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110722007.4A CN113413607A (zh) | 2021-06-28 | 2021-06-28 | 一种信息推荐方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110722007.4A CN113413607A (zh) | 2021-06-28 | 2021-06-28 | 一种信息推荐方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113413607A true CN113413607A (zh) | 2021-09-21 |
Family
ID=77717764
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110722007.4A Pending CN113413607A (zh) | 2021-06-28 | 2021-06-28 | 一种信息推荐方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113413607A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114832386A (zh) * | 2022-04-26 | 2022-08-02 | 江苏果米文化发展有限公司 | 一种基于大数据分析的游戏用户智能管理*** |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105808700A (zh) * | 2016-03-02 | 2016-07-27 | 深圳市游科互动科技有限公司 | 游戏信息推荐方法及服务器 |
US20180001206A1 (en) * | 2016-06-30 | 2018-01-04 | Sony Interactive Entertainment Inc. | Automated artificial intelligence (ai) personal assistant |
CN108304440A (zh) * | 2017-11-01 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 游戏推送的方法、装置、计算机设备及存储介质 |
CN108920213A (zh) * | 2018-06-29 | 2018-11-30 | 北京金山安全软件有限公司 | 游戏的动态配置方法及装置 |
CN110609947A (zh) * | 2018-06-15 | 2019-12-24 | 翟红鹰 | 智能学习***的学习内容推荐方法、终端及存储介质 |
CN111953763A (zh) * | 2020-08-06 | 2020-11-17 | 腾讯科技(深圳)有限公司 | 一种业务数据推送方法、装置及存储介质 |
CN112650918A (zh) * | 2020-11-06 | 2021-04-13 | 江苏乐易学教育科技有限公司 | 一种强相关于用户知识模型的个性化推荐方法及*** |
-
2021
- 2021-06-28 CN CN202110722007.4A patent/CN113413607A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105808700A (zh) * | 2016-03-02 | 2016-07-27 | 深圳市游科互动科技有限公司 | 游戏信息推荐方法及服务器 |
US20180001206A1 (en) * | 2016-06-30 | 2018-01-04 | Sony Interactive Entertainment Inc. | Automated artificial intelligence (ai) personal assistant |
CN108304440A (zh) * | 2017-11-01 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 游戏推送的方法、装置、计算机设备及存储介质 |
CN110609947A (zh) * | 2018-06-15 | 2019-12-24 | 翟红鹰 | 智能学习***的学习内容推荐方法、终端及存储介质 |
CN108920213A (zh) * | 2018-06-29 | 2018-11-30 | 北京金山安全软件有限公司 | 游戏的动态配置方法及装置 |
CN111953763A (zh) * | 2020-08-06 | 2020-11-17 | 腾讯科技(深圳)有限公司 | 一种业务数据推送方法、装置及存储介质 |
CN112650918A (zh) * | 2020-11-06 | 2021-04-13 | 江苏乐易学教育科技有限公司 | 一种强相关于用户知识模型的个性化推荐方法及*** |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114832386A (zh) * | 2022-04-26 | 2022-08-02 | 江苏果米文化发展有限公司 | 一种基于大数据分析的游戏用户智能管理*** |
CN114832386B (zh) * | 2022-04-26 | 2024-05-14 | 江苏果米文化发展有限公司 | 一种基于大数据分析的游戏用户智能管理*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110097085B (zh) | 歌词文本生成方法、训练方法、装置、服务器及存储介质 | |
CN109271521B (zh) | 一种文本分类方法及装置 | |
CN112632385A (zh) | 课程推荐方法、装置、计算机设备及介质 | |
CN111667056B (zh) | 用于搜索模型结构的方法和装置 | |
CN108491433A (zh) | 聊天应答方法、电子装置及存储介质 | |
CN111382260A (zh) | 一种检索文本纠错方法、装置和存储介质 | |
CN111985243B (zh) | 情感模型的训练方法、情感分析方法、装置及存储介质 | |
CN111159414A (zh) | 文本分类方法及***、电子设备、计算机可读存储介质 | |
CN111539212A (zh) | 文本信息处理方法、装置、存储介质及电子设备 | |
CN111858898A (zh) | 基于人工智能的文本处理方法、装置及电子设备 | |
CN111026840A (zh) | 文本处理方法、装置、服务器和存储介质 | |
KR20190075277A (ko) | 콘텐트 검색을 위한 방법 및 그 전자 장치 | |
CN114328800A (zh) | 文本处理方法、装置、电子设备和计算机可读存储介质 | |
CN113413607A (zh) | 一种信息推荐方法、装置、计算机设备及存储介质 | |
CN117195046A (zh) | 异常文本识别方法及相关设备 | |
CN114841471B (zh) | 知识点预测方法、装置、电子设备和存储介质 | |
CN114357152A (zh) | 信息处理方法、装置、计算机可读存储介质和计算机设备 | |
CN116415624A (zh) | 模型训练方法及装置、内容推荐方法及装置 | |
CN115017914A (zh) | 语言处理方法、装置、电子设备以及存储介质 | |
CN110866195B (zh) | 文本描述的生成方法、装置、电子设备及存储介质 | |
CN113836005A (zh) | 一种虚拟用户的生成方法、装置、电子设备和存储介质 | |
CN109815490A (zh) | 文本分析方法、装置、设备及存储介质 | |
CN114492669B (zh) | 关键词推荐模型训练方法、推荐方法和装置、设备、介质 | |
CN112417086B (zh) | 数据处理方法、装置、服务器及存储介质 | |
CN117725191B (zh) | 大语言模型的引导信息生成方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |