CN116977661A - 一种数据处理方法、装置、设备、存储介质及程序产品 - Google Patents

一种数据处理方法、装置、设备、存储介质及程序产品 Download PDF

Info

Publication number
CN116977661A
CN116977661A CN202310783354.7A CN202310783354A CN116977661A CN 116977661 A CN116977661 A CN 116977661A CN 202310783354 A CN202310783354 A CN 202310783354A CN 116977661 A CN116977661 A CN 116977661A
Authority
CN
China
Prior art keywords
virtual
sample
feature
predicted
prediction model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310783354.7A
Other languages
English (en)
Inventor
常佳艺
陈梓阳
陈祺
安东岳
杜楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202310783354.7A priority Critical patent/CN116977661A/zh
Publication of CN116977661A publication Critical patent/CN116977661A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请提供了一种数据处理方法、装置、设备、存储介质及程序产品,应用于云技术、人工智能、竞赛解说和游戏等各种虚拟对象旁观场景中;方法包括:遍历当前时刻的M个待预测虚拟对象,针对遍历到的每个待预测虚拟对象执行以下处理:基于当前时间窗中虚拟实体与虚拟事件的关系,提取待预测虚拟对象的第一特征;基于待预测虚拟对象在当前时刻的虚拟地图位置,提取第二特征;基于待预测虚拟对象在当前时刻的虚拟属性,提取第三特征;将第一特征、第二特征和第三特征,组合为待预测特征;基于与M个待预测虚拟对象对应的M个待预测特征,从M个待预测虚拟对象中预测N个待旁观虚拟对象,N M。通过本申请,能够提升确定待旁观虚拟对象的智能性。

Description

一种数据处理方法、装置、设备、存储介质及程序产品
技术领域
本申请涉及人工智能领域中的数据处理技术,尤其涉及一种数据处理方法、装置、设备、存储介质及程序产品。
背景技术
观察者(Observer,OB)视角是指用于观察虚拟角色的旁观者视角,而OB视角切换依赖于所确定的待旁观虚拟对象。一般来说,待旁观虚拟对象通常是由人工实时地确定,影响了确定待旁观虚拟对象的智能性。
发明内容
本申请实施例提供一种数据处理方法、装置、设备、存储介质及程序产品,能够提升确定待旁观虚拟对象的智能性。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种数据处理方法,所述方法包括:
遍历当前时刻的M个待预测虚拟对象,针对遍历到的每个所述待预测虚拟对象执行以下处理,其中,M为正整数:
基于当前时间窗中虚拟实体与虚拟事件的关系,提取所述待预测虚拟对象的第一特征,其中,所述当前时间窗是指所述当前时刻对应的时间窗,所述虚拟实体包括虚拟对象;
基于所述待预测虚拟对象在所述当前时刻的虚拟地图位置,提取第二特征;
基于所述待预测虚拟对象在所述当前时刻的虚拟属性,提取第三特征;
将所述第一特征、所述第二特征和所述第三特征,组合为待预测特征;
基于与M个所述待预测虚拟对象对应的M个所述待预测特征,从M个所述待预测虚拟对象中预测N个待旁观虚拟对象,其中,N≤M,且N为正整数,所述待旁观虚拟对象为待旁观的所述待预测虚拟对象。
本申请实施例提供一种数据处理装置,所述数据处理装置包括:
对象遍历模块,用于遍历当前时刻的M个待预测虚拟对象,针对遍历到的每个所述待预测虚拟对象执行第一特征模块、第二特征模块、第三特征模块和特征组合模块所执行的处理,其中,M为正整数;
第一特征模块,用于基于当前时间窗中虚拟实体与虚拟事件的关系,提取所述待预测虚拟对象的第一特征,其中,所述当前时间窗是指所述当前时刻对应的时间窗,所述虚拟实体包括虚拟对象;
第二特征模块,用于基于所述待预测虚拟对象在所述当前时刻的虚拟地图位置,提取第二特征;
第三特征模块,用于基于所述待预测虚拟对象在所述当前时刻的虚拟属性,提取第三特征;
特征组合模块,用于将所述第一特征、所述第二特征和所述第三特征,组合为待预测特征;
对象预测模块,用于基于与M个所述待预测虚拟对象对应的M个所述待预测特征,从M个所述待预测虚拟对象中预测N个待旁观虚拟对象,其中,N≤M,且N为正整数,所述待旁观虚拟对象为待旁观的所述待预测虚拟对象。
在本申请实施例中,所述第一特征模块,还用于以所述当前时间窗中的所述虚拟实体与所述虚拟事件分别为节点,并以所述当前时间窗中各个所述虚拟实体之间、以及所述虚拟实体与所述虚拟事件之间的关系为边,构建实体事件图;获取所述实体事件图中每个所述节点的初始节点特征;基于所述实体事件图对应的各个所述初始节点特征进行编码,得到所述待预测虚拟对象的所述第一特征。
在本申请实施例中,所述第一特征通过图预测模型获得,所述数据处理装置还包括模型训练模块,用于基于每个样本时间窗中虚拟样本实体与虚拟样本事件的关系,构建对应的样本图;基于待训练图预测模型,预测所述样本图中每个对象样本节点在下一样本时间窗中发生每个事件样本节点的发生预测结果、以及各个样本节点之间的节点预测关系,其中,所述样本节点为所述事件样本节点或实体样本节点,所述实体样本节点包括所述对象样本节点;获取所述发生预测结果与所述下一样本时间窗中的发生结果标签之间的第一差异,并获取所述节点预测关系与所述样本图中的节点关系标签之间的第二差异;结合所述第一差异和所述第二差异,训练所述待训练图预测模型,得到所述图预测模型。
在本申请实施例中,所述待训练图预测模型包括初始特征映射模块、图编码模块、事件预测模块和关系预测模块,所述模型训练模块,还用于基于所述初始特征映射模块,对所述样本图中每个所述样本节点的初始样本节点特征进行指定维度的映射,得到映射样本特征;基于所述图编码模块,对所述样本图中每个所述样本节点的所述映射样本特征、以及所述样本图进行编码,得到每个所述样本节点的样本节点特征;基于所述事件预测模块,对每个所述事件样本节点的所述映射样本特征、以及每个所述对象样本节点的所述样本节点特征进行预测,得到每个对象样本节点在所述下一样本时间窗中发生每个所述事件样本节点的所述发生预测结果;基于所述关系预测模块,对所述样本图中每个所述样本节点的所述样本节点特征进行预测,得到各个所述样本节点之间的所述节点预测关系。
在本申请实施例中,所述第二特征模块,还用于在包括所述当前时刻的前T个时刻中,针对每个所述时刻执行以下处理,其中,T≥2,且T为正整数:将所述待预测虚拟对象在所述时刻所处的所述虚拟地图位置映射至虚拟地图网格图中,得到类图像特征;对与前T个所述时刻对应的T个所述类图像特征进行特征提取,得到所述第二特征。
在本申请实施例中,所述虚拟属性包括以下中的至少一种:虚拟对象名称、虚拟状态值、开镜信息、虚拟装备信息、虚拟攻击信息和虚拟伤害信息。
在本申请实施例中,N个所述待旁观虚拟对象通过对象预测模型获得,所述模型训练模块,还用于从旁观样本视频中,确定每个样本时刻对应的旁观虚拟对象序列标签;在每个所述样本时刻,提取各个虚拟样本对象的各个样本特征;基于待训练对象预测模型对各个所述样本特征进行预测,得到旁观虚拟对象预测序列;基于所述旁观虚拟对象预测序列与所述旁观虚拟对象序列标签之间的差异,训练所述待训练对象预测模型,得到初始对象预测模型;基于所述初始对象预测模型,得到所述对象预测模型。
在本申请实施例中,所述模型训练模块,还用于获取所述初始对象预测模型预测结果的虚拟对象排序序列,其中,所述虚拟对象排序序列是指基于喜好度排序的结果;基于所述虚拟对象排序序列,训练奖励模型;基于所述奖励模型优化所述初始对象预测模型,得到所述对象预测模型。
在本申请实施例中,所述模型训练模块,还用于对所述虚拟对象排序序列进行所述虚拟对象的两两组合,得到多个虚拟对象对,其中,每个所述虚拟对象对包括第一虚拟对象和第二虚拟对象,所述第一虚拟对象的所述喜好度大于所述第二虚拟对象的所述喜好度;基于所述初始对象预测模型对各个所述样本特征和所述第一虚拟对象进行预测,得到第一喜好奖励值;基于所述初始对象预测模型对各个所述样本特征和所述第二虚拟对象进行预测,得到第二喜好奖励值;基于所述第一喜好奖励值与所述第二喜好奖励值之间的差异,训练所述初始对象预测模型,得到所述奖励模型。
在本申请实施例中,所述模型训练模块,还用于基于所述初始对象预测模型对各个所述样本特征进行预测,得到待优化对象预测序列;基于所述奖励模型对各个所述样本特征和所述待优化对象预测序列中的每个待优化对象进行预测,得到基准喜好奖励值;基于所述基准喜好奖励值,优化所述初始对象预测模型,得到所述对象预测模型。
在本申请实施例中,所述数据处理装置还包括事件解说模块,用于从N个所述待旁观虚拟对象中滤除异常虚拟对象,得到所述当前时刻的最佳入境对象,其中,所述异常虚拟对象包括状态异常虚拟对象和距离异常虚拟对象中的至少一种;选择所述最佳入境对象的待解说虚拟事件;获取所述待解说虚拟事件的待解说描述;基于所述待解说描述,解说所述最佳入境对象的所述待解说虚拟事件。
本申请实施例提供一种用于数据处理的电子设备,所述电子设备包括:
存储器,用于存储计算机可执行指令或者计算机程序;
处理器,用于执行所述存储器中存储的计算机可执行指令或者计算机程序时,实现本申请实施例提供的数据处理方法。
本申请实施例提供一种计算机可读存储介质,存储有计算机可执行指令或者计算机程序,所述计算机可执行指令或者计算机程序用于被处理器执行时,实现本申请实施例提供的数据处理方法。
本申请实施例提供一种计算机程序产品,包括计算机可执行指令或者计算机程序,所述计算机可执行指令或者计算机程序被处理器执行时,实现本申请实施例提供的数据处理方法。
本申请实施例至少具有以下有益效果:通过在每个用于确定待旁观虚拟对象的当前时刻,对M个待预测虚拟对象中的每个待预测虚拟对象从虚拟实体与虚拟事件的关系、虚拟地图位置和虚拟属性三个维度提取待预测特征,使得所提取的待预测特征能够准确地描述每个待预测虚拟对象在当前时刻的信息;如此,能够基于M个待预测特征准确且自动地从M个待预测虚拟对象中预测出N个待旁观虚拟对象,能够提升确定待旁观虚拟对象的智能性。
附图说明
图1是本申请实施例提供的数据处理***的架构示意图;
图2是本申请实施例提供的一种图1中的服务器的结构示意图;
图3是本申请实施例提供的数据处理方法的流程示意图一;
图4是本申请实施例提供的数据处理方法的流程示意图二;
图5是本申请实施例提供的一种示例性的获取图预测模型的流程图;
图6是本申请实施例提供的一种示例性的获取对象预测模型的流程图;
图7是本申请实施例提供的数据处理方法的流程示意图三;
图8是本申请实施例提供的一种示例性的模型训练示意图;
图9是本申请实施例提供的一种示例性的预训练模型的结构示意图;
图10是本申请实施例提供的一种示例性的切镜视频画面的示意图;
图11是本申请实施例提供的一种示例性的事件预测模型的结构示意图;
图12是本申请实施例提供的一种示例性的获取类图像特征图的示意图;
图13是本申请实施例提供的一种示例性的通过提示方式描述输入信息的示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
在以下的描述中,所涉及的术语“第一\第二\第三”用于区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
除非另有定义,本申请实施例所使用的所有的技术和科学术语与所属技术领域的技术人员通常理解的含义相同。本申请实施例中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)人工智能(Artificial Intelligence,AI),是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。在本申请实施例中,每个待预测虚拟对象的第一特征、第二特征和第三特征的提取可通过AI方式实现;另外,基于待预测特征预测待旁观虚拟对象的过程可通过AI方式实现。
2)机器学习(Machine Learning,ML),是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析和算法复杂度理论等多门学科。用于研究计算机模拟或实现人类的学习行为,以获取新的知识或技能;重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,机器学习应用遍及人工智能的各个领域。机器学习通常包括人工神经网络、置信网络、强化学习、迁移学习和归纳学习等技术。本申请实施例所提供的数据处理方法可以结合机器学习中的人工神经网络和强化学习实现。
3)人工神经网络,是一种模仿生物神经网络结构和功能的数学模型,本申请实施例中人工神经网络的示例性结构包括图卷积网络(Graph Convolutional Network,GCN,一种用于处理图结构的数据的神经网络)、深度神经网络(Deep Neural Networks,DNN)、卷积神经网络(Convolutional Neural Network,CNN)和循环神经网络(Recurrent NeuralNetwork,RNN)、神经状态机(Neural State Machine,NSM)和相位函数神经网络(Phase-Functioned Neural Network,PFNN)等。本申请实施例中所涉及的待训练图预测模型、图预测模型、待训练对象预测模型和对象预测模型均为人工神经网络对应的模型。
4)强化学习,是指智能体(Agent)以“试错”的方式进行学习,通过与环境进行交互获得的奖励值来指导行为,以使智能体获得最大的奖励值。在本申请实施例中,智能体可以为人工神经网络模型。
5)响应于,用于表示所执行的操作所依赖的条件或者状态,当满足所依赖的条件或状态时,所执行的一个或多个操作可以是实时的,也可以具有设定的延迟;在没有特别说明的情况下,所执行的多个操作不存在执行先后顺序的限制。
6)虚拟场景,是通过包括云端服务器针对自身运行的应用程序发送的音视频信息所显示的虚拟场景。该虚拟场景可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟环境,还可以是纯虚构的虚拟环境。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本申请实施例对虚拟场景的维度不加以限定。例如,虚拟场景可以包括虚拟天空、虚拟陆地、虚拟海洋等,该虚拟陆地可以包括虚拟沙漠、虚拟城市等环境元素,用户可以控制虚拟对象在该虚拟场景中进行移动。
7)虚拟对象,虚拟场景中可以进行交互的各种人和物的形象,或在虚拟场景中的可移动对象。其中,该可活动对象可以是虚拟人物、虚拟动物、动漫人物、以及虚拟道具等,例如在虚拟场景中显示的人物和动物等;该虚拟对象还可以是虚拟场景中的一个虚拟的用于代表用户的虚拟形象。虚拟场景中可以包括多个虚拟对象,每个虚拟对象在虚拟场景中具有自身的形状和体积,占据虚拟场景中的一部分空间。
需要说明的是,OB视角切换依赖于所确定的待旁观虚拟对象,而待旁观虚拟对象通常是由人工实时地确定;比如,在对竞赛等画面解说的过程中,常常由导播人工实时进行OB视角的切换,影响了确定待旁观虚拟对象的智能性和效率。
另外,为了提升确定待旁观虚拟对象的智能性和效率,可以基于规则进行;比如,将待发生事件的关联虚拟对象确定为待旁观虚拟对象,将当前事件的关联虚拟对象确定为待旁观虚拟对象,将满足团队构成条件的虚拟团队中的虚拟对象确定为待旁观虚拟对象;如此,多个规则互相影响、相互制约,影响了所确定待旁观虚拟对象的准确度,导致OB运镜时画面混乱、切镜缓慢、无法呈现最佳镜头画面的问题;以及,还导致切镜琐碎,影响了切镜灵活性;此外,还影响了可拓展性。
基于此,本申请实施例提供一种数据处理方法、装置、设备、计算机可读存储介质及计算机程序产品,能够提升确定待旁观虚拟对象的智能性、效率、灵活性和准确率,进而能够提升OB切镜的质量、效果和逼真度。下面说明本申请实施例提供的用于数据处理的电子设备(以下简称为数据处理设备)的示例性应用,本申请实施例提供的数据处理设备可以实施为智能手机、智能手表、笔记本电脑、平板电脑、台式计算机、智能家电、机顶盒、智能车载设备、便携式音乐播放器、个人数字助理、专用消息设备、智能语音交互设备、便携式游戏设备和智能音箱等各种类型的终端,也可以实施为服务器,又可以是两者的结合。下面,将说明数据处理设备实施为服务器时的示例性应用。
参见图1,图1是本申请实施例提供的数据处理***的架构示意图;如图1所示,为支撑一个数据处理应用,在数据处理***100中,终端200(示例性示出了终端200-1和终端200-2)通过网络300连接服务器400,网络300可以是广域网或者局域网,又或者是二者的组合,服务器400可以通过网络300向终端200提供计算服务(比如,虚拟操作同步服务,特征提取服务,待旁观虚拟对象预测服务等)。另外,该数据处理***100中还包括数据库500,用于向服务器400提供数据支持;并且,图1中示出的为数据库500独立于服务器400的一种情况,此外,数据库500还可以集成在服务器400中,本申请实施例对此不作限定。
终端200,用于在当前时刻通过网络300向服务器400发送对象预测请求;通过网络300接收服务器200响应于对象预测请求所发送的最佳入境对象对应的虚拟场景画面数据,基于虚拟场景画面数据显示虚拟场景画面(示例性示出了图形界面210-1和图形界面210-2)。
服务器400,用于通过网络300接收终端200发送的对象预测请求,响应于该对象预测请求,遍历当前时刻的M个待预测虚拟对象,针对遍历到的每个待预测虚拟对象执行以下处理,其中,M为正整数:基于当前时间窗中虚拟实体与虚拟事件的关系,提取待预测虚拟对象的第一特征,其中,当前时间窗是指当前时刻对应的时间窗,虚拟实体包括虚拟对象;基于待预测虚拟对象在当前时刻的虚拟地图位置,提取第二特征;基于待预测虚拟对象在当前时刻的虚拟属性,提取第三特征;将第一特征、第二特征和第三特征,组合为待预测特征;基于与M个待预测虚拟对象对应的M个待预测特征,从M个待预测虚拟对象中预测N个待旁观虚拟对象,其中,N≤M,且N为正整数;基于N个待旁观虚拟对象最佳入境对象对应的虚拟场景画面数据,通过网络300向终端200发送虚拟场景画面数据。
在一些实施例中,服务器400可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式***,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content DeliveryNetwork,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例中不作限制。
参见图2,图2是本申请实施例提供的一种图1中的服务器的结构示意图;如图2所示,服务器400包括:至少一个处理器410、存储器450、至少一个网络接口420和用户接口430。服务器400中的各个组件通过总线***440耦合在一起。可理解,总线***440用于实现这些组件之间的连接通信。总线***440除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2中将各种总线都标为总线***440。
处理器410可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(Digital Signal Processor,DSP),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
用户接口430包括使得能够呈现媒体内容的一个或多个输出装置431,包括一个或多个扬声器和/或一个或多个视觉显示屏。用户接口430还包括一个或多个输入装置432,包括有助于用户输入的用户接口部件,比如键盘、鼠标、麦克风、触屏显示屏、摄像头、其他输入按钮和控件。
存储器450可以是可移除的,不可移除的或其组合。示例性的硬件设备包括固态存储器,硬盘驱动器,光盘驱动器等。存储器450可选地包括在物理位置上远离处理器410的一个或多个存储设备。
存储器450包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。非易失性存储器可以是只读存储器(Read Only Memory,ROM),易失性存储器可以是随机存取存储器(Random Access Memory,RAM)。本申请实施例描述的存储器450旨在包括任意适合类型的存储器。
在一些实施例中,存储器450能够存储数据以支持各种操作,这些数据的示例包括程序、模块和数据结构或者其子集或超集,下面示例性说明。
操作***451,包括用于处理各种基本***服务和执行硬件相关任务的***程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务;
网络通信模块452,用于经由一个或多个(有线或无线)网络接口420到达其他电子设备,示例性的网络接口420包括:蓝牙、无线相容性认证(Wi-Fi)、和通用串行总线(Universal Serial Bus,USB)等;
呈现模块453,用于经由一个或多个与用户接口430相关联的输出装置431(例如,显示屏、扬声器等)使得能够呈现信息(例如,用于操作***设备和显示内容和信息的用户接口);
输入处理模块454,用于对来自一个或多个输入装置432之一的一个或多个用户输入或互动进行检测以及翻译所检测的输入或互动。
在一些实施例中,本申请实施例提供的数据处理装置可以采用软件方式实现,图2示出了存储在存储器450中的数据处理装置455,其可以是程序和插件等形式的软件,包括以下软件模块:对象遍历模块4551、第一特征模块4552、第二特征模块4553、第三特征模块4554、特征组合模块4555、对象预测模块4556、模型训练模块4557和事件解说模块4558,这些模块是逻辑上的,因此根据所实现的功能可以进行任意的组合或进一步拆分。将在下文中说明各个模块的功能。
在一些实施例中,本申请实施例提供的数据处理装置可以采用硬件方式实现,作为示例,本申请实施例提供的数据处理装置可以是采用硬件译码处理器形式的处理器,其被编程以执行本申请实施例提供的数据处理方法,例如,硬件译码处理器形式的处理器可以采用一个或多个应用专用集成电路(Application Specific Integrated Circuit,ASIC)、DSP、可编程逻辑器件(Programmable Logic Device,PLD)、复杂可编程逻辑器件(Complex Programmable Logic Device,CPLD)、现场可编程门阵列(Field-ProgrammableGate Array,FPGA)或其他电子元件。
在一些实施例中,终端或服务器可以通过运行各种计算机可执行指令或者计算机程序来实现本申请实施例提供的数据处理方法。举例来说,计算机可执行指令可以是微程序级的命令、机器指令或软件指令。计算机程序可以是操作***中的原生程序或软件模块;可以是本地(Native)应用程序(APPlication,APP),即需要在操作***中安装才能运行的程序,如直播APP或者即时通信APP;也可以是能够嵌入至任意APP中的小程序,即只需要下载到浏览器环境中就可以运行的程序。总而言之,上述的计算机可执行指令可以是任意形式的指令,上述计算机程序可以是任意形式的应用程序、模块或插件。
下面,将结合本申请实施例提供的数据处理设备的示例性应用和实施,说明本申请实施例提供的数据处理方法。另外,本申请实施例提供的数据处理方法应用于云技术、人工智能、竞赛解说和游戏等各种虚拟对象旁观场景。
参见图3,图3是本申请实施例提供的数据处理方法的流程示意图一,其中,图3中各步骤的执行主体是数据处理设备;下面将结合图3示出的步骤进行说明。
在本申请实施例中,数据处理设备周期性地预测待旁观的虚拟对象,对应的周期可以是固定的,也可以是不同的阶段对应不同的周期,比如,前期虚拟对局准备阶段的周期大于后期虚拟对局阶段的周期。这里,当前时刻表示基于对应的周期确定的待预测待旁观的虚拟对象的时间,数据处理设备遍历当前时刻的M个待预测虚拟对象,并针对遍历到的每个待预测虚拟对象执行以下处理(即为步骤101至步骤104);其中,M为正整数,M个待预测虚拟对象为当前时刻虚拟场景中的全量可旁观的虚拟对象,并且,该虚拟对象可以为表征账号的虚拟角色,还可以是虚拟宠物,又可以是虚拟道具,等等。下面对步骤101至步骤104中的各个步骤分别进行描述。
步骤101、基于当前时间窗中虚拟实体与虚拟事件的关系,提取待预测虚拟对象的第一特征。
在本申请实施例中,数据处理设备基于指定的时间窗(比如,10秒,5秒等)确定当前时刻对应的时间窗,也就获得了当前时间窗;比如,可以是将当前时刻之前的时间窗大小的时间段确定为当前时间窗。接着,数据处理设备统计当前时间窗中的虚拟实体和虚拟事件,并获取虚拟实体与虚拟事件的关系;这里,由于虚拟实体包括虚拟对象,待预测虚拟对象也是虚拟对象,故虚拟实体与虚拟事件的关系中包括待预测虚拟对象与虚拟事件、以及与其他虚拟对象之间的关系,进而对待预测虚拟对象与虚拟事件、以及与其他虚拟对象之间的关系进行特征提取,也就获得了待预测虚拟对象的第一特征;从而,第一特征表示待预测虚拟对象与虚拟事件、以及与其他虚拟对象之间的关系所对应的特征。
需要说明的是,虚拟实体还可以包括虚拟队伍,此时,虚拟实体与虚拟事件的关系包括虚拟对象与虚拟队伍之间的关系、虚拟对象之间的关系、虚拟队伍与虚拟队伍之间的关系,虚拟对象与虚拟事件之间的关系,虚拟队伍与虚拟事件之间的关系;从而,数据处理设备对待预测虚拟对象与虚拟事件、与虚拟队伍、以及与其他虚拟对象之间的关系进行特征提取,得到第一特征;从而,第一特征表示待预测虚拟对象与虚拟事件、与虚拟队伍、以及与其他虚拟对象之间的关系所对应的特征。
参见图4,图4是本申请实施例提供的数据处理方法的流程示意图二,其中,图4中各步骤的执行主体是数据处理设备;在本申请实施例中,步骤101可通过步骤1011至步骤1013实现;也就是说,数据处理设备基于当前时间窗中虚拟实体与虚拟事件的关系,提取待预测虚拟对象的第一特征,包括步骤1011至步骤1013,下面对各个步骤分别进行说明。
步骤1011、以当前时间窗中的虚拟实体与虚拟事件分别为节点,并以当前时间窗中各个虚拟实体之间、以及虚拟实体与虚拟事件之间的关系为边,构建实体事件图。
在本申请实施例中,数据处理设备基于虚拟实体与虚拟事件之间的关系构建图,以在图中进行节点的第一特征的提取。这里,数据处理设备将每个虚拟实体作为一个节点,并将每个虚拟事件作为一个节点;以及,基于各个虚拟实体之间的关系、以及虚拟实体与虚拟事件之间的关系,构建节点之间的边,最终所构建的图即为实体事件图。
需要说明的是,虚拟实体与虚拟事件之间的关系可以包括以下中的至少一种:虚拟对象发生了虚拟事件,虚拟队伍发生了虚拟事件,虚拟对象属于虚拟队伍,虚拟队伍包括虚拟对象,一虚拟对象邻近(两虚拟对象间的距离小于第一距离阈值)另一虚拟对象,一虚拟对象与另一虚拟对象为虚拟对手关系,一虚拟对象与另一虚拟对象为虚拟队友关系。
步骤1012、获取实体事件图中每个节点的初始节点特征。
在本申请实施例中,数据处理设备获取实体事件图中每个节点的特征表示,也就获得了每个节点的初始节点特征。
步骤1013、基于实体事件图对应的各个初始节点特征进行编码,得到待预测虚拟对象的第一特征。
在本申请实施例中,数据处理设备将每个初始节点特征进行指定维度的映射,将所获得的映射结果称为映射特征,其中,指定维度的映射用于实现维度的统一。接着,数据处理设备对实体事件图中每个节点的映射特征、以及样本实体事件图进行编码,得到每个节点的最终特征;这里,将待预测虚拟对象的最终特征称为第一特征。
需要说明的是,数据处理设备可以通过步骤1011至步骤1013获取第一特征,还可以通过人工神经网络模型获取第一特征,本申请实施例对此不作限定。
步骤102、基于待预测虚拟对象在当前时刻的虚拟地图位置,提取第二特征。
在本申请实施例中,数据处理设备获取待预测虚拟对象在当前时刻所处的虚拟地图的位置,也就获得了虚拟地图位置;这里,数据处理设备可以对该虚拟地图位置进行特征提取,并将提取到的特征确定为第二特征;数据处理设备还可以将当前时刻之前的相邻历史时刻对应的至少一个虚拟地图位置,并通过提取当前时刻之前的相邻历史时刻的至少一个虚拟地图位置和当前时刻的虚拟地图位置的特征,来获得第二特征;等等,本申请实施例对此不作限定。
需要说明的是,第二特征表示待预测虚拟对象在虚拟地图上的位置信息(或位置变化信息)对应的特征。
继续参见图4,在本申请实施例中,步骤102可通过步骤1021和步骤1022实现;也就是说,数据处理设备基于待预测虚拟对象在当前时刻的虚拟地图位置,提取第二特征,包括步骤1021和步骤1022,下面对各个步骤分别进行说明。
步骤1021、在包括当前时刻的前T个时刻中,针对每个时刻执行以下处理:将待预测虚拟对象在时刻所处的虚拟地图位置映射至虚拟地图网格图中,得到类图像特征。
在本申请实施例中,当数据处理设备通过当前时刻之前的相邻历史时刻的至少一个虚拟地图位置和当前时刻的虚拟地图位置来获得第二特征时,数据处理设备先获取包括当前时刻的前T个时刻,该前T个时刻即为相邻历史时刻和当前时刻;接着,数据处理设备针对每个时刻对对应的虚拟地图位置进行处理,以得到每个时刻对应的类图像特征。其中,T≥2,且T为正整数。
需要说明的是,虚拟地图网格图是通过对虚拟地图进行网格划分获得的;这里,数据处理设备将每个时刻的虚拟地图位置映射到虚拟地图网格图的对应网格中,并将所映射的网格标记为与该待预测虚拟对象对应的映射值,其中,不同虚拟对象或不同虚拟队伍的虚拟对象的映射值不同;从而,包括映射值的虚拟地图网格即为类图像特征。
步骤1022、对与前T个时刻对应的T个类图像特征进行特征提取,得到第二特征。
在本申请实施例中,数据处理设备由每个时刻的类图像特征,能够获得前T个时刻对应的T个类图像特征;这里,数据处理设备对T个类图像特征进行特征提取,所提取的结果即为第二特征。
步骤103、基于待预测虚拟对象在当前时刻的虚拟属性,提取第三特征。
在本申请实施例中,数据处理设备获取待预测虚拟对象截止到当前时刻自身的虚拟属性,并对该虚拟属性进行特征提取,所提取出的特征即为第三特征。这里,第三特征表示待预测虚拟对象在当前时刻的虚拟属性对应的特征。
需要说明的是,虚拟属性是指待预测虚拟对象在虚拟场景中所包括的属性信息;虚拟属性包括以下中的至少一种:虚拟对象名称、虚拟状态值、开镜信息、虚拟装备信息、虚拟攻击信息和虚拟伤害信息。其中,虚拟对象名称是指待预测虚拟对象的虚拟名称;虚拟状态值是指待预测虚拟对象的虚拟状态情况,比如,虚拟生命值;开镜信息是指待预测虚拟对象的虚拟开镜情况,比如,开镜中,未开镜;虚拟装备信息包括待预测虚拟对象的可穿戴的虚拟装备和/或可携带的虚拟装备;虚拟攻击信息包括待预测虚拟对象对应的攻击情况,比如,虚拟击杀数量等;虚拟伤害信息是指待预测虚拟对象所受到的虚拟伤害情况。
步骤104、将第一特征、第二特征和第三特征,组合为待预测特征。
在本申请实施例中,数据处理设备将第一特征、第二特征和第三特征组合起来,所获得的结果即为待预测特征。这里,数据处理设备将待预测特征作为待预测虚拟对象在当前时刻的特征表示。
需要说明的是,数据处理设备可以采用拼接的方式组合第一特征、第二特征和第三特征,也可以采用加权融合的方式组合第一特征、第二特征和第三特征,还可以是采用提示方式组合第一特征、第二特征和第三特征,等等,本申请实施例对此不作限定;从而,待预测特征包括第一特征、第二特征和第三特征的综合信息,可以为第一特征、第二特征和第三特征的拼接结果,还可以为第一特征、第二特征和第三特征的加权融合结果,又可以为第一特征、第二特征和第三特征对应的提示描述,等等。
步骤105、基于与M个待预测虚拟对象对应的M个待预测特征,从M个待预测虚拟对象中预测N个待旁观虚拟对象。
在本申请实施例中,数据处理设备由每个待预测虚拟对象对应的待预测特征,得到与M个待预测虚拟对象对应的M个待预测特征;接着,数据处理设备基于M个待预测特征,以确定当前时刻最佳出境的N个待旁观虚拟对象。其中,N≤M,且N为正整数。
需要说明的是,待旁观虚拟对象为待旁观的待预测虚拟对象,或者说待旁观虚拟对象是指当前时刻最佳待旁观的虚拟对象;N个待旁观虚拟对象可以应用在虚拟场景解说应用中,还可以应用在虚拟场景观战场景中,等等,本申请实施例对此不作限定。其中,在虚拟场景解说应用中,N个待旁观虚拟对象用于确定最佳旁观视角,进而将最佳旁观视角所在的画面作为最佳OB画面;也就是说,在解说场景中,待旁观虚拟对象为待解说的虚拟对象。在虚拟场景观战场景中,N个待旁观虚拟对象用于选择目标旁观虚拟对象,以将目标旁观虚拟对象作为观战虚拟对象;也就是说,在观战场景中,待旁观虚拟对象为推荐的待观战的虚拟对象。
可以理解的是,通过在每个用于确定待旁观虚拟对象的当前时刻,对M个待预测虚拟对象中的每个待预测虚拟对象从虚拟实体与虚拟事件的关系、虚拟地图位置和虚拟属性三个维度提取待预测特征,使得所提取的待预测特征能够准确地描述每个待预测虚拟对象在当前时刻的信息;如此,能够基于M个待预测特征准确且自动地从M个待预测虚拟对象中预测出N个待旁观虚拟对象,能够提升确定待旁观虚拟对象的智能性、效率和准确度。
在本申请实施例中,当数据处理设备通过人工神经网络模型获取第一特征时,用于获取第一特征的人工神经网络模型称为图预测模型。参见图5,图5是本申请实施例提供的一种示例性的获取图预测模型的流程图;如图5所示,该图预测模型通过步骤106至步骤109获得,下面对各个步骤分别进行说明。
步骤106、基于每个样本时间窗中虚拟样本实体与虚拟样本事件的关系,构建对应的样本图。
需要说明的是,数据处理设备构建样本图的过程与构建对象事件图的过程类似,本申请实施例在此不再重复描述。
步骤107、基于待训练图预测模型,预测样本图中每个对象样本节点在下一样本时间窗中发生每个事件样本节点的发生预测结果、以及各个样本节点之间的节点预测关系。
需要说明的是,待训练图预测模型为待训练的图神经网络模型,且用于获取虚拟实体与虚拟事件的关系方面的特征。在训练待训练图预测模型的过程中,数据处理设备利用待训练图预测模型获取样本图中每个对象样本节点的最终特征,并基于该最终特征进行事件发生的预测和样本节点关系的预测。其中,样本节点为事件样本节点或实体样本节点,实体样本节点包括对象样本节点;实体样本节点还包括队伍样本节点;发生预测结果表示每个对象样本节点在下一样本时间窗中发生每个事件样本节点的预测结果,发生或者未发生;节点预测关系表示样本图中各个样本节点之间的预测关系,类似于虚拟实体与虚拟事件的关系,本申请实施例在此不再重复描述。
在本申请实施例中,待训练图预测模型包括初始特征映射模块、图编码模块、事件预测模块和关系预测模块,此时,数据处理设备基于待训练图预测模型,预测样本图中每个对象样本节点在下一样本时间窗中发生每个事件样本节点的发生预测结果、以及各个样本节点之间的节点预测关系,包括:数据处理设备先基于初始特征映射模块,对样本图中每个样本节点的初始样本节点特征进行指定维度的映射,得到映射样本特征;再基于图编码模块,对样本图中每个样本节点的映射样本特征、以及样本图进行编码,得到每个样本节点的样本节点特征;最后,基于事件预测模块,对每个事件样本节点的映射样本特征、以及每个对象样本节点的样本节点特征进行预测,得到每个对象样本节点在下一样本时间窗中发生每个事件样本节点的发生预测结果;并基于关系预测模块,对样本图中每个样本节点的样本节点特征进行预测,得到各个样本节点之间的节点预测关系。
需要说明的是,初始特征映射模块用于将样本图中所有样本节点分别对应的初始样本节点特征进行维度统一。图编码模块为异质图神经网络,用于进行图编码,以编码出样本图中每个对象样本节点的最终特征,这里称为样本节点特征。事件预测模块和关系预测模块是两个预测模块,用于基于预测结果训练待训练图预测模型。
步骤108、获取发生预测结果与下一样本时间窗中的发生结果标签之间的第一差异,并获取节点预测关系与样本图中的节点关系标签之间的第二差异。
在本申请实施例中,数据处理设备将发生预测结果与下一样本时间窗中的发生结果标签进行比较,以获取两者之间的差异,这里称为第一差异;此外,数据处理设备将节点预测关系与样本图中的节点关系标签进行比较,以获取两者之间的差异,这里称为第二差异。其中,发生结果标签表示每个对象样本节点在下一样本时间窗中发生每个事件样本节点的真实结果,节点关系标签表示样本图中各个样本节点之间的真实关系。
步骤109、结合第一差异和第二差异,训练待训练图预测模型,得到图预测模型。
在本申请实施例中,数据处理设备基于指定的第一损失函数计算第一差异对应的第一损失函数值,并基于指定的第二损失函数计算第二差异对应的第二损失函数值,最后,对第一损失函数值和第二损失函数值进行加权求和,获得用于训练待训练图预测模型的损失函数值。接着,基于该损失函数值在待训练图预测模型中进行反向传播,以调整待训练图预测模型中的模型参数。另外,待训练图预测模型的训练可以是迭代进行的,当迭代结束时,当前迭代出的待训练图预测模型即为图预测模型。
需要说明的是,待训练图预测模型可以是构建的原始图神经网络模型,还可以是预训练出的图神经网络模型,等等,本申请实施例对此不作限定。另外,数据处理设备确定满足训练结束条件时,确定迭代结束;反之,继续进行迭代。其中,训练结束条件可以是达到第一准确度指标阈值,也可以是达到第一迭代次数阈值,还可以是达到第一迭代时长阈值,又可以是以上的结合,等等,本申请实施例对此不作限定。
在本申请实施例中,用于训练待训练图预测模型的数据集可以是虚拟场景视频。
可以理解的是,通过事件的发生和节点关系两方面获取损失函数值,以训练待训练图预测模型,能够提升待训练图预测模型的收敛速度,提升训练出的图预测模型的准确度。
在本申请实施例中,当数据处理设备通过人工神经网络模型预测待旁观虚拟对象时,用于预测待旁观虚拟对象的人工神经网络模型称为对象预测模型模型。参见图6,图6是本申请实施例提供的一种示例性的获取对象预测模型的流程图;如图6所示,该图预测模型通过步骤110至步骤114获得,下面对各个步骤分别进行说明。
步骤110、从旁观样本视频中,确定每个样本时刻对应的旁观虚拟对象序列标签。
在本申请实施例中,数据处理设备将包括旁观处理的虚拟场景视频称为旁观样本视频;比如,虚拟场景的切镜视频,虚拟场景的旁观视频等;这里,数据处理设备以每个样本时刻(比如,1秒,3秒等)为粒度识别旁观样本视频对应的旁观视频画面中的全量虚拟对象,并将旁观视频画面中的全量虚拟对象组合为旁观虚拟对象序列标签,以作为训练样本标签。
步骤111、在每个样本时刻,提取各个虚拟样本对象的各个样本特征。
需要说明的是,数据处理设备在每个样本时刻对每个虚拟样本对象进行特征提取,以获得与各个虚拟样本对象对应的各个样本特征。其中,各个虚拟样本对象是每个样本时刻的全量虚拟样本对象;数据处理设备获取虚拟样本对象的样本特征的过程与获取待预测虚拟对象的待预测特征的过程类似,本申请实施例在此不再重复描述。另外,当待训练对象预测模型为预训练模型时,每个样本特征可以是采用提示方式获得的特征表示,其中,提示方式的描述形式与预训练模型的输入形式适配。
步骤112、基于待训练对象预测模型对各个样本特征进行预测,得到旁观虚拟对象预测序列。
在本申请实施例中,数据处理设备利用待训练对象预测模型对每个样本时刻的各个样本特征进行预测,所预测出的结果即为旁观虚拟对象预测序列。其中,旁观虚拟对象预测序列为预测出的最佳待旁观的虚拟样本对象序列。
需要说明的是,待训练对象预测模型可以是构建的原始神经网络模型,还可以是预训练出的神经网络模型(比如,语言模型),等等,本申请实施例对此不作限定。
步骤113、基于旁观虚拟对象预测序列与旁观虚拟对象序列标签之间的差异,训练待训练对象预测模型,得到初始对象预测模型。
在本申请实施例中,由于旁观虚拟对象序列标签为真实的最佳待旁观的虚拟样本对象序列,因此数据处理设备将旁观虚拟对象预测序列与旁观虚拟对象序列标签进行比较,并通过比较来获取旁观虚拟对象预测序列与旁观虚拟对象序列标签之间的差异,进而基于指定的第三损失函数计算该差异对应的损失函数值。接着,基于该损失函数值在待训练对象预测模型中进行反向传播,以调整待训练对象预测模型中的模型参数。另外,待训练对象预测模型的训练可以是迭代进行的,当迭代结束时,当前迭代出的待训练对象预测模型即为初始对象预测模型。
需要说明的是,数据处理设备确定满足训练结束条件时,确定迭代结束;反之,继续进行迭代。其中,训练结束条件可以是达到第二准确度指标阈值,也可以是达到第二迭代次数阈值,还可以是达到第二迭代时长阈值,又可以是以上的结合,等等,本申请实施例对此不作限定。
步骤114、基于初始对象预测模型,得到对象预测模型。
在本申请实施例中,数据处理设备基于旁观虚拟对象预测序列与旁观虚拟对象序列标签之间的差异,训练待训练对象预测模型,可以将完成训练的待训练对象预测模型(称为初始对象预测模型)直接确定为对象预测模型,还可以对完成训练的待训练对象预测模型再进行优化,并将优化结果确定为对象预测模型,本申请实施例对此不作限定。
可以理解的是,当待待训练对象预测模型为预训练模型且为语言模型时,由于语言模型用于基于字符序列预测字符,与本申请实施例提供的基于待预测对象的历史虚拟信息预测待旁观虚拟对象的任务思想一致,从而,通过微调待待训练对象预测模型,即可获得对象预测模型;如此,能够提升对象预测模型的获取效率和准确度。
继续参见图6,步骤114可通过步骤1141至步骤1143实现;也就是说,数据处理设备基于初始对象预测模型,得到对象预测模型,包括步骤1141至步骤1143,下面对各个步骤分别进行说明。
步骤1141、获取初始对象预测模型预测结果的虚拟对象排序序列。
需要说明的是,数据处理设备利用初始对象预测模型进行预测,并针对获得的预测结果中的虚拟对象基于喜好度进行排序,得到虚拟对象排序序列;其中,虚拟对象排序序列是指基于喜好度排序的结果,喜好度表示旁观的概率或优先级。
步骤1142、基于虚拟对象排序序列,训练奖励模型。
在本申请实施例中,数据处理设备基于虚拟对象排序序列,训练奖励模型,包括:数据处理设备先对虚拟对象排序序列进行虚拟对象的两两组合,得到多个虚拟对象对,其中,每个虚拟对象对包括第一虚拟对象和第二虚拟对象,第一虚拟对象的喜好度大于第二虚拟对象的喜好度;再基于初始对象预测模型对各个样本特征和第一虚拟对象进行预测,得到第一喜好奖励值;并基于初始对象预测模型对各个样本特征和第二虚拟对象进行预测,得到第二喜好奖励值;最后基于第一喜好奖励值与第二喜好奖励值之间的差异,训练初始对象预测模型,得到奖励模型。
需要说明的是,训练初始对象预测模型的过程,即为数据处理设备通过提升第一喜好奖励值和降低第二喜好奖励值,来使得奖励模型能够获得与喜好度正相关的奖励值的过程。
步骤1143、基于奖励模型优化初始对象预测模型,得到对象预测模型。
在本申请实施例中,数据处理设备基于奖励模型优化初始对象预测模型,得到对象预测模型,包括:数据处理设备先基于初始对象预测模型对各个样本特征进行预测,得到待优化对象预测序列;再基于奖励模型对各个样本特征和待优化对象预测序列中的每个待优化对象进行预测,得到基准喜好奖励值;最后基于基准喜好奖励值,优化初始对象预测模型,得到对象预测模型。
需要说明的是,优化初始对象预测模型的过程,即为使得对象预测模型能够输出喜好奖励值最大的虚拟对象。另外,当对象预测模型的一次训练过程包括步骤111至步骤113、步骤1141至步骤1143时,数据处理设备可以通过迭代执行步骤111至步骤113、步骤1141至步骤1143,来获得对象预测模型。
可以理解的是,通过喜好度训练奖励模型,再基于奖励模型优化初始对象预测模型,能够提升对象预测模型所预测的待旁观虚拟对象对应处理的逼真度,比如,提升切镜逼真度。
参见图7,图7是本申请实施例提供的数据处理方法的流程示意图三,其中,图7中各步骤的执行主体是数据处理设备;在本申请实施例中,步骤105之后还包括步骤115至步骤118;也就是说,数据处理设备基于与M个待预测虚拟对象对应的M个待预测特征,从M个待预测虚拟对象中预测N个待旁观虚拟对象之后,该数据处理方法还包括步骤115至步骤118,下面对各个步骤分别进行说明。
步骤115、从N个待旁观虚拟对象中滤除异常虚拟对象,得到当前时刻的最佳入境对象。
在本申请实施例中,当数据处理设备获得的N个待旁观虚拟对象不包括异常虚拟对象时,将N个待旁观虚拟对象确定为最佳入境对象;而当数据处理设备获得的N个待旁观虚拟对象包括异常虚拟对象时,对N个待旁观虚拟对象进行异常虚拟对象的滤除,并将完成异常虚拟对象滤除的N个待旁观虚拟对象确定为最佳入境对象。其中,异常虚拟对象包括状态异常虚拟对象(比如,离线状态虚拟对象)和距离异常虚拟对象(比如,N个待旁观虚拟对象中距离N个待旁观虚拟对象中其他待旁观虚拟对象的长度大于指定长度的待旁观虚拟对象)中的至少一种。
步骤116、选择最佳入境对象的待解说虚拟事件。
在本申请实施例中,数据处理设备可以基于最佳入境对象横向旁观虚拟场景画面;还可以将最佳入境对象所发生的虚拟事件确定为待解说虚拟事件。
步骤117、获取待解说虚拟事件的待解说描述。
在本申请实施例中,数据处理设备可以采用解说描述机制(比如,解说描述库匹配,解说描述生成模型等)生成待解说虚拟事件的解说描述,这里称为待解说描述。
步骤118、基于待解说描述,解说最佳入境对象的待解说虚拟事件。
需要说明的是,数据处理设备通过包括待解说描述对应的内容,来实现对最佳入境对象的待解说虚拟事件的解说。
可以理解的是,在旁观解说虚拟场景的应用中,通过先准确地确定最佳入境对象,再对该最佳入境对象的待解说虚拟事件进行解说,能够提升最佳事件旁观的及时性。
下面,将说明本申请实施例在一个实际的应用场景中的示例性应用。该示例性应用描述了在游戏中通过自动化确定最佳入镜虚拟角色(称为待旁观虚拟对象),以基于最佳入镜虚拟角色自动化选择OB视角(包括TP视角和FOV视角)的过程。
需要说明的是,游戏可以为第一人称射击游戏(First-Person Shooter,FPS),还可以为多人在线战术竞技游戏(Multiplayer Online Battle Arena,MOBA);其中,FPS游戏是以虚拟角色的第一人称视角为主视角进行的虚拟射击类的电子游戏的总称,FPS游戏通常通过虚拟道具进行虚拟对局。
参见图8,图8是本申请实施例提供的一种示例性的模型训练示意图;如图8所示,该示例性的模型训练过程由服务器执行,包括步骤201至步骤203,下面对各步骤分别进行说明。
步骤201、基于提示(Prompt)方式对预训练模型(称为待训练对象预测模型)进行微调,得到初始模型(称为初始对象预测模型)。
需要说明的是,提示方式是指对输入的信息按照特定模板进行处理,以与训练模型的处理任务适配的过程。这里,服务器基于提示方式对预训练模型进行有监督的微调(Fine-Tune),其中,微调是指通过修改预训练模型结构(比如,修改样本类别输出个数,修改层数等),再用数据集重新训练结构修改后的预训练模型的处理。
在本申请实施例中,预训练模型是语言模型(比如,GPT-3);由于语言模型用于通过句子序列预测下一个字符,从而,可以将语音模型作为预训练模型,以通过历史游戏信息预测当前时刻的最佳入镜虚拟角色。
参见图9,图9是本申请实施例提供的一种示例性的预训练模型的结构示意图;如图9所示,输入信息9-1(称为样本特征)经过预训练模型9-2,输出预测结果9-3(称为旁观虚拟对象预测序列);其中,输入信息9-1可以为历史游戏信息的嵌入特征,预测结果9-3为最佳入镜游戏角色;预训练模型9-2的模型结构为12层解码器9-21,而每层解码器9-21包括掩码多头注意力层(Mask Multi-Head Attention)9-211、归一化层(Layer Norm)9-212、前馈网络层(Feed Forward)9-213和归一化层(Layer Norm)9-214。
在本申请实施例中,采用FPS游戏联赛中真人导播的切镜视频(称为旁观样本视频)来作为训练数据,以使最终训练出的用于预测最佳入境虚拟角色的模型能够学习到特定游戏领域的专业知识。这里,在秒级别上通过目标检测识别每个时间点(秒)切镜视频画面(又称为OB画面)中出现的虚拟角色,将所出现的虚拟角色组成的虚拟角色序列作为该时间点的标签(称为旁观虚拟对象序列标签)。
参见图10,图10是本申请实施例提供的一种示例性的切镜视频画面的示意图;如图10所示,该切镜视频画面10-1中包括与六名玩家对应的六个虚拟角色(虚拟角色10-11至虚拟角色10-16),该六个虚拟角色为当前时间点的最佳入境虚拟角色的标签。
在本申请实施例中,采用Prompt方式获取预训练模型的输入信息。该输入信息包括四部分,第一部分为提示文本对应的嵌入表示(Word Embedding),其中,提示文本用于描述输入内容和任务内容。
第二部分为基于游戏动态事件图谱的嵌入向量表示(称为第一特征)。其中,游戏动态事件图谱是指针对每个时间窗构建事件图谱(称为实体事件图或样本图),该事件图谱表示游戏中游戏事件与游戏实体(虚拟角色和虚拟队伍)、以及游戏事件与游戏实体之间的关系;并利用异质图神经网络(比如,HeteroGNN)对该事件图谱进行表示学习,以获得游戏事件与游戏实体的嵌入向量表示。
参见图11,图11是本申请实施例提供的一种示例性的事件预测模型的结构示意图;如图11所示,针对第t个时间窗(称为当前时间窗)的事件图谱G(t)11-11中的各个节点(游戏事件节点与游戏实体节点(虚拟角色节点和虚拟队伍节点)),获取每个节点的原始特征X(t)11-12(包括虚拟角色节点的原始特征虚拟队伍节点的原始特征/>虚拟事件节点的原始特征/>称为初始节点特征或初始样本节点特征);接着,经过事件预测模型11-2(称为图预测模型)中的初始特征映射模块Ff11-21将原始特征X(t)11-12映射到d(0)维空间,获得第0层特征H(t,0)11-13(包括虚拟角色节点的第0层特征/>虚拟队伍节点的第0层特征/>虚拟事件节点的第0层特征/>称为映射样本特征);再接着,将第0层特征H(t,0)11-13与事件图谱G(t)11-11输入至事件预测模型11-2中的异质图编码器Fenc11-22,得到每个节点的最终的嵌入向量表示H(t,L)11-14(包括虚拟角色节点最终嵌入表示虚拟队伍节点最终嵌入表示/>虚拟事件节点最终嵌入表示/>L为异质图编码器Fenc11-22中的层数,称为第一特征或样本节点特征)。在本申请实施例中,/>即为基于游戏动态事件图谱的嵌入向量表示,采用/>作为预训练模型的输入信息的第二部分;这里,该嵌入向量表示的维度可以为256。
另外,事件预测模型11-2还包括图解码器(关系解码)Fdec11-23和事件预测器Fpred11-24;其中,图解码器Fdec11-23用于基于嵌入向量表示H(t,L)11-14,预测节点之间的关系(对应构成事件图谱G’(t)),进而基于预测的关系与事件图谱G(t)11-11中节点之间的关系两者之间的差异(称为第二差异),计算关系损失值Lossrec11-31;而事件预测器Fpred11-2用于对虚拟角色节点的最终嵌入表示和每个虚拟事件节点的第0层特征/>的合并结果进行处理,以预测虚拟角色在下一时间窗的事件图谱G(t+1)中是否发生对应的虚拟事件,进而基于下一时间窗中虚拟角色所发生的虚拟事件与该预测的是否发生的结果,计算事件损失值Losspred11-32;最后,结合关系损失值Lossrec11-31和事件损失值Losspred11-32,训练事件预测模型11-2。这里,结合关系损失值Lossrec11-31和事件损失值Losspred11-32可通过公式(1)描述,公式(1)如下所示。
Lossevt=(1)*ossrec+λ*osspred(1);
其中,λ表示事件损失Losspred的权重,Lossevt表示用于训练事件预测模型11-2的损失值。
在本申请实施例中,预训练模型的输入信息的第三部分是游戏地图信息。这里,将游戏地图划分成P*P的游戏地图网格(称为虚拟地图网格图),基于游戏角色在每个时间点所处的游戏地图坐标,在游戏地图网格上对应的网格上映射对应的像素点位值,得到类图像特征图;其中,不同虚拟对象队伍映射出的像素点位值各不相同。
参见图12,图12是本申请实施例提供的一种示例性的获取类图像特征图的示意图;如图12所示,将每个时间点的游戏地图12-1(示例性地示出了3张)上的每个游戏角色所处的游戏地图坐标,映射在游戏地图网格中,得到类图像特征图12-2;示例性地示出了T个类图像特征图12-2,其中,T个类图像特征图12-2包括与3张游戏地图12-1对应的3个类图像特征图12-2。另外,在图12中,还示例性示出了映射4个虚拟角色的游戏地图坐标的过程,如箭头12-3所示。
需要说明的是,每个时间点会截取包括该时间点的前T秒的类图像特征图;这里,将每个类图像特征图作为一个通道,因此每个时间点提取的游戏地图信息是大小为(T,P,P)的矩阵。并且,本申请实施例采用训练好的残差网络模型(比如,ResNet-50)提取游戏地图信息的深度特征,得到大小为256的一维特征(称为第二特征)。
在本申请实施例中,预训练模型的输入信息的第四部分是虚拟角色自身的信息,包括虚拟角色名称(称为虚拟对象名称)、虚拟生命值(HP,称为虚拟状态值)、开镜信息、虚拟装甲信息、虚拟道具信息(与虚拟装甲信息共称为虚拟装备信息)、虚拟开枪信息(称为虚拟攻击信息)和虚拟伤害信息,共8维。因此,虚拟角色自身的信息大小为(60,8)的向量(称为第三特征)。
在本申请实施例中,以每个虚拟角色的维度,将基于游戏动态事件图谱的嵌入向量表示、游戏地图信息的特征和虚拟角色自身信息的8维特征连接在一起,构成了大小为(60,520(256+256+8))的矩阵。
在本申请实施例中,最后通过提示文本描述大小为(60,520)的矩阵,得到初始输入信息;将初始输入信息中的提示文本转换为字符嵌入表示,得到预训练模型最终的输入信息,表示为Prompt(x)(称为待预测特征)。
参见图13,图13是本申请实施例提供的一种示例性的通过提示方式描述输入信息的示意图;如图13所示,提示方式的输入信息13-1为“下面是当前游戏信息:(Thefollowing is the current game information:)输入内容13-11,最佳入境虚拟角色是:(The best OB is:)”。其中,输入内容13-11包括基于游戏动态事件图谱的嵌入向量表示、游戏地图信息的特征和虚拟角色自身信息的8维特征。
需要说明的是,基于获得的预训练模型最终的输入信息和最佳入境虚拟角色的标签,采用监督学习的方式微调预训练模型,微调后的模型称之为初始模型M1。
步骤202、基于初始模型训练奖励模型。
需要说明的是,奖励模型M2的结构是将M1的最后嵌入层去掉后的模型结构。这里,先获取M1针对Prompt(x)的预测结果,该预测结果包括K个虚拟角色;再获取人工对该K个虚拟角色的排序结果,并获取K个虚拟角色中两两虚拟角色组合结果,能够获得个组合结果;并且,每个组合结果(yw,yl)中,虚拟角色yw的排序比如虚拟角色yl的排序靠前。在训练奖励模型时,将Prompt(x)的/>个组合结果作为一个批量(Batch)训练数据,以及训练训练奖励模型的损失函数值。其中,奖励模型的损失函数表示如公式(2)所示,用于最大化虚拟角色yl和虚拟角色yw的奖励差值。
其中,Loss(θ)表示奖励模型的损失函数;E表示期望;(x,yw,yl)表示Prompt(x)和组合结果(yw,yl);D表示批量训练数据对应的整个训练数据集;σ表示激活函数;M2(x,yw)是Prompt(x)和组合结果中的虚拟角色yw在待训练的奖励模型M2下的奖励值(称为第一喜好奖励值),该值为标量;M2(x,yl)是Prompt(x)和组合结果中的虚拟角色yl在待训练的奖励模型M2下的奖励值(称为第二喜好奖励值),该值为标量。
在本申请实施例中,基于Loss(θ)训练出待训练的奖励模型M2,得到训练好的奖励模型M2,对应的输出结合了观镜对象偏好。
步骤203、基于奖励模型优化初始模型,得到目标模型(称为对象预测模型)。
在本申请实施例中,采用近似策略优化(Proximal Policy Optimization,PPO)来基于奖励模型优化初始模型;其中,PPO的训练目标objective(φ)如公式(3)所示。
其中,(x,y)表示Prompt(x)和任一虚拟角色y;D1表示批量训练数据对应的整个训练数据集;初始化为与/>一致,表示强化学习策略,也是待优化的模型;/>是迭代训练过程中监督学习训练的模型;β是散度(比如,KL散度)的权重系数。该训练目标objective(φ)表示最大化prompt(x)输入/>模型后获得的虚拟对象y在M2模型中的奖励值;为正则化项,随着模型的更新,强化学习模型产生的数据和训练奖励模型的数据的差异会越来越大,通过在损失函数中加入KL惩罚项来降低PPO模型的输出和/>的输出差距。
在本申请实施例中,整个训练过程(包括预训练模型的训练、奖励模型的训练和初始模型的优化)是迭代进行的,也就是说,步骤201至步骤203是迭代执行的。另外,向量嵌入(Embedding),又称为特征表示,或者嵌入表示,或者向量表示等,为机器学习中针对样本或实体进行映射之后的向量编码。
可以理解的是,通过基于Prompt方式有监督的微调GPT-3的模型权重,使GPT-3学习到特定游戏信息;之后,采用微调后的模型预测K个结果,并基于专业导播对K个结果进行排序,再用微调后的模型训练奖励模型;再后,使用强化学习策略通过奖励模型来优化微调后的模型,使得最终获得的模型能够理解游戏并实时输出最佳入境虚拟角色序列;最后从最佳入境虚拟角色序列中去掉异常虚拟角色,所获得的剩余虚拟角色即可作为当前时间点的OB入镜虚拟角色;是一种基于大模型的微调方法和强化学习相结合的实现框架,能够实现游戏解说自动化OB,模拟真人导播的切镜思路,提高了AI解说的智能性和解说效果,降低了确定OB入镜虚拟角色的资源消耗。另外,本申请实施例由OB入镜虚拟角色来驱动事件选择,通过先给出最佳OB入镜虚拟角色再从当前OB入镜虚拟角色中选择合适的事件进行解说,能够降低切镜频率,提升切镜准确度。此外,本申请实施例提供的模型训练方法,适用于任意游戏解说,提升了扩展性和适用性。
下面继续说明本申请实施例提供的数据处理装置455的实施为软件模块的示例性结构,在一些实施例中,如图2所示,存储在存储器450的数据处理装置455中的软件模块可以包括:
对象遍历模块4551,用于遍历当前时刻的M个待预测虚拟对象,针对遍历到的每个所述待预测虚拟对象执行第一特征模块4552、第二特征模块4553、第三特征模块4554和特征组合模块4555所执行的处理,其中,M为正整数;
第一特征模块4552,用于基于当前时间窗中虚拟实体与虚拟事件的关系,提取所述待预测虚拟对象的第一特征,其中,所述当前时间窗是指所述当前时刻对应的时间窗,所述虚拟实体包括虚拟对象;
第二特征模块4553,用于基于所述待预测虚拟对象在所述当前时刻的虚拟地图位置,提取第二特征;
第三特征模块4554,用于基于所述待预测虚拟对象在所述当前时刻的虚拟属性,提取第三特征;
特征组合模块4555,用于将所述第一特征、所述第二特征和所述第三特征,组合为待预测特征;
对象预测模块4556,用于基于与M个所述待预测虚拟对象对应的M个所述待预测特征,从M个所述待预测虚拟对象中预测N个待旁观虚拟对象,其中,N≤M,且N为正整数,所述待旁观虚拟对象为待旁观的所述待预测虚拟对象。
在本申请实施例中,所述第一特征模块4552,还用于以所述当前时间窗中的所述虚拟实体与所述虚拟事件分别为节点,并以所述当前时间窗中各个所述虚拟实体之间、以及所述虚拟实体与所述虚拟事件之间的关系为边,构建实体事件图;获取所述实体事件图中每个所述节点的初始节点特征;基于所述实体事件图对应的各个所述初始节点特征进行编码,得到所述待预测虚拟对象的所述第一特征。
在本申请实施例中,所述第一特征通过图预测模型获得,所述数据处理装置455还包括模型训练模块4557,用于基于每个样本时间窗中虚拟样本实体与虚拟样本事件的关系,构建对应的样本图;基于待训练图预测模型,预测所述样本图中每个对象样本节点在下一样本时间窗中发生每个事件样本节点的发生预测结果、以及各个样本节点之间的节点预测关系,其中,所述样本节点为所述事件样本节点或实体样本节点,所述实体样本节点包括所述对象样本节点;获取所述发生预测结果与所述下一样本时间窗中的发生结果标签之间的第一差异,并获取所述节点预测关系与所述样本图中的节点关系标签之间的第二差异;结合所述第一差异和所述第二差异,训练所述待训练图预测模型,得到所述图预测模型。
在本申请实施例中,所述待训练图预测模型包括初始特征映射模块、图编码模块、事件预测模块和关系预测模块,所述模型训练模块4557,还用于基于所述初始特征映射模块,对所述样本图中每个所述样本节点的初始样本节点特征进行指定维度的映射,得到映射样本特征;基于所述图编码模块,对所述样本图中每个所述样本节点的所述映射样本特征、以及所述样本图进行编码,得到每个所述样本节点的样本节点特征;基于所述事件预测模块,对每个所述事件样本节点的所述映射样本特征、以及每个所述对象样本节点的所述样本节点特征进行预测,得到每个对象样本节点在所述下一样本时间窗中发生每个所述事件样本节点的所述发生预测结果;基于所述关系预测模块,对所述样本图中每个所述样本节点的所述样本节点特征进行预测,得到各个所述样本节点之间的所述节点预测关系。
在本申请实施例中,所述第二特征模块4553,还用于在包括所述当前时刻的前T个时刻中,针对每个所述时刻执行以下处理,其中,T≥2,且T为正整数:将所述待预测虚拟对象在所述时刻所处的所述虚拟地图位置映射至虚拟地图网格图中,得到类图像特征;对与前T个所述时刻对应的T个所述类图像特征进行特征提取,得到所述第二特征。
在本申请实施例中,所述虚拟属性包括以下中的至少一种:虚拟对象名称、虚拟状态值、开镜信息、虚拟装备信息、虚拟攻击信息和虚拟伤害信息。
在本申请实施例中,N个所述待旁观虚拟对象通过对象预测模型获得,所述模型训练模块4557,还用于从旁观样本视频中,确定每个样本时刻对应的旁观虚拟对象序列标签;在每个所述样本时刻,提取各个虚拟样本对象的各个样本特征;基于待训练对象预测模型对各个所述样本特征进行预测,得到旁观虚拟对象预测序列;基于所述旁观虚拟对象预测序列与所述旁观虚拟对象序列标签之间的差异,训练所述待训练对象预测模型,得到初始对象预测模型;基于所述初始对象预测模型,得到所述对象预测模型。
在本申请实施例中,所述模型训练模块4557,还用于获取所述初始对象预测模型预测结果的虚拟对象排序序列,其中,所述虚拟对象排序序列是指基于喜好度排序的结果;基于所述虚拟对象排序序列,训练奖励模型;基于所述奖励模型优化所述初始对象预测模型,得到所述对象预测模型。
在本申请实施例中,所述模型训练模块4557,还用于对所述虚拟对象排序序列进行所述虚拟对象的两两组合,得到多个虚拟对象对,其中,每个所述虚拟对象对包括第一虚拟对象和第二虚拟对象,所述第一虚拟对象的所述喜好度大于所述第二虚拟对象的所述喜好度;基于所述初始对象预测模型对各个所述样本特征和所述第一虚拟对象进行预测,得到第一喜好奖励值;基于所述初始对象预测模型对各个所述样本特征和所述第二虚拟对象进行预测,得到第二喜好奖励值;基于所述第一喜好奖励值与所述第二喜好奖励值之间的差异,训练所述初始对象预测模型,得到所述奖励模型。
在本申请实施例中,所述模型训练模块4557,还用于基于所述初始对象预测模型对各个所述样本特征进行预测,得到待优化对象预测序列;基于所述奖励模型对各个所述样本特征和所述待优化对象预测序列中的每个待优化对象进行预测,得到基准喜好奖励值;基于所述基准喜好奖励值,优化所述初始对象预测模型,得到所述对象预测模型。
在本申请实施例中,所述数据处理装置455还包括事件解说模块4558,用于从N个所述待旁观虚拟对象中滤除异常虚拟对象,得到所述当前时刻的最佳入境对象,其中,所述异常虚拟对象包括状态异常虚拟对象和距离异常虚拟对象中的至少一种;选择所述最佳入境对象的待解说虚拟事件;获取所述待解说虚拟事件的待解说描述;基于所述待解说描述,解说所述最佳入境对象的所述待解说虚拟事件。
本申请实施例提供了一种计算机程序产品,该计算机程序产品包括计算机可执行指令或者计算机程序,该计算机可执行指令或者计算机程序存储在计算机可读存储介质中。数据处理设备的处理器从计算机可读存储介质读取该计算机可执行指令或者计算机程序,处理器执行该计算机可执行指令或者计算机程序,使得该数据处理设备执行本申请实施例上述的数据处理方法。
本申请实施例提供一种计算机可读存储介质,其中存储有计算机可执行指令或者计算机程序,当计算机可执行指令或者计算机程序被处理器执行时,将引起处理器执行本申请实施例提供的数据处理方法,例如,如图3示出的数据处理方法。
在一些实施例中,计算机可读存储介质可以是FRAM、ROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,计算机可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,计算机可执行指令可以但不一定对应于文件***中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(Hyper TextMarkup Language,HTML)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,计算机可执行指令可被部署为在一个电子设备上执行(此时,这一个电子设备即为数据处理设备),或者在位于一个地点的多个电子设备上执行(此时,位于一个地点的多个电子设备即为数据处理设备),又或者,在分布在多个地点且通过通信网络互连的多个电子设备上执行(此时,分布在多个地点且通过通信网络互连的多个电子设备即为数据处理设备)。
可以理解的是,在本申请实施例中,涉及到虚拟对象的信息等相关的数据,当本申请实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。另外,在本申请实施例中,涉及到的数据抓取技术方案实施,在本申请以上实施例运用到具体产品或技术中时,相关数据收集、使用和处理过程应该遵守国家法律法规要求,符合合法、正当、必要的原则,不涉及获取法律法规禁止或限制的数据类型,不会妨碍目标网站的正常运行。
综上所述,本申请实施例通过在每个用于确定待旁观虚拟对象的当前时刻,对M个待预测虚拟对象中的每个待预测虚拟对象从虚拟实体与虚拟事件的关系、虚拟地图位置和虚拟属性三个维度提取待预测特征,使得所提取的待预测特征能够准确地描述每个待预测虚拟对象在当前时刻的信息;如此,能够基于M个待预测特征准确且自动地从M个待预测虚拟对象中预测出N个待旁观虚拟对象,能够提升确定待旁观虚拟对象的智能性和准确度。另外,当基于N个待旁观虚拟对象进行旁观选择或OB视角确定时,能够提升准确度和效果。
以上所述,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。

Claims (15)

1.一种数据处理方法,其特征在于,所述方法包括:
遍历当前时刻的M个待预测虚拟对象,针对遍历到的每个所述待预测虚拟对象执行以下处理,其中,M为正整数:
基于当前时间窗中虚拟实体与虚拟事件的关系,提取所述待预测虚拟对象的第一特征,其中,所述当前时间窗是指所述当前时刻对应的时间窗,所述虚拟实体包括虚拟对象;
基于所述待预测虚拟对象在所述当前时刻的虚拟地图位置,提取第二特征;
基于所述待预测虚拟对象在所述当前时刻的虚拟属性,提取第三特征;
将所述第一特征、所述第二特征和所述第三特征,组合为待预测特征;
基于与M个所述待预测虚拟对象对应的M个所述待预测特征,从M个所述待预测虚拟对象中预测N个待旁观虚拟对象,其中,N M,且N为正整数,所述待旁观虚拟对象为待旁观的所述待预测虚拟对象。
2.根据权利要求1所述的方法,其特征在于,所述基于当前时间窗中虚拟实体与虚拟事件的关系,提取所述待预测虚拟对象的第一特征,包括:
以所述当前时间窗中的所述虚拟实体与所述虚拟事件分别为节点,并以所述当前时间窗中各个所述虚拟实体之间、以及所述虚拟实体与所述虚拟事件之间的关系为边,构建实体事件图;
获取所述实体事件图中每个所述节点的初始节点特征;
基于所述实体事件图对应的各个所述初始节点特征进行编码,得到所述待预测虚拟对象的所述第一特征。
3.根据权利要求1或2所述的方法,其特征在于,所述第一特征通过图预测模型获得,其中,所述图预测模型通过以下步骤获得:
基于每个样本时间窗中虚拟样本实体与虚拟样本事件的关系,构建对应的样本图;
基于待训练图预测模型,预测所述样本图中每个对象样本节点在下一样本时间窗中发生每个事件样本节点的发生预测结果、以及各个样本节点之间的节点预测关系,其中,所述样本节点为所述事件样本节点或实体样本节点,所述实体样本节点包括所述对象样本节点;
获取所述发生预测结果与所述下一样本时间窗中的发生结果标签之间的第一差异,并获取所述节点预测关系与所述样本图中的节点关系标签之间的第二差异;
结合所述第一差异和所述第二差异,训练所述待训练图预测模型,得到所述图预测模型。
4.根据权利要求3所述的方法,其特征在于,所述待训练图预测模型包括初始特征映射模块、图编码模块、事件预测模块和关系预测模块,所述基于待训练图预测模型,预测所述样本图中每个对象样本节点在下一样本时间窗中发生每个事件样本节点的发生预测结果、以及各个样本节点之间的节点预测关系,包括:
基于所述初始特征映射模块,对所述样本图中每个所述样本节点的初始样本节点特征进行指定维度的映射,得到映射样本特征;
基于所述图编码模块,对所述样本图中每个所述样本节点的所述映射样本特征、以及所述样本图进行编码,得到每个所述样本节点的样本节点特征;
基于所述事件预测模块,对每个所述事件样本节点的所述映射样本特征、以及每个所述对象样本节点的所述样本节点特征进行预测,得到每个对象样本节点在所述下一样本时间窗中发生每个所述事件样本节点的所述发生预测结果;
基于所述关系预测模块,对所述样本图中每个所述样本节点的所述样本节点特征进行预测,得到各个所述样本节点之间的所述节点预测关系。
5.根据权利要求1所述的方法,其特征在于,所述基于所述待预测虚拟对象在所述当前时刻的虚拟地图位置,提取第二特征,包括:
在包括所述当前时刻的前T个时刻中,针对每个所述时刻执行以下处理,其中,T 2,且T为正整数:
将所述待预测虚拟对象在所述时刻所处的所述虚拟地图位置映射至虚拟地图网格图中,得到类图像特征;
对与前T个所述时刻对应的T个所述类图像特征进行特征提取,得到所述第二特征。
6.根据权利要求1所述的方法,其特征在于,所述虚拟属性包括以下中的至少一种:虚拟对象名称、虚拟状态值、开镜信息、虚拟装备信息、虚拟攻击信息和虚拟伤害信息。
7.根据权利要求1或2或5或6所述的方法,其特征在于,N个所述待旁观虚拟对象通过对象预测模型获得,其中,所述对象预测模型通过以下步骤获得:
从旁观样本视频中,确定每个样本时刻对应的旁观虚拟对象序列标签;
在每个所述样本时刻,提取各个虚拟样本对象的各个样本特征;
基于待训练对象预测模型对各个所述样本特征进行预测,得到旁观虚拟对象预测序列;
基于所述旁观虚拟对象预测序列与所述旁观虚拟对象序列标签之间的差异,训练所述待训练对象预测模型,得到初始对象预测模型;
基于所述初始对象预测模型,得到所述对象预测模型。
8.根据权利要求7所述的方法,其特征在于,所述基于所述初始对象预测模型,得到所述对象预测模型,包括:
获取所述初始对象预测模型预测结果的虚拟对象排序序列,其中,所述虚拟对象排序序列是指基于喜好度排序的结果;
基于所述虚拟对象排序序列,训练奖励模型;
基于所述奖励模型优化所述初始对象预测模型,得到所述对象预测模型。
9.根据权利要求8所述的方法,其特征在于,所述基于所述虚拟对象排序序列,训练奖励模型,包括:
对所述虚拟对象排序序列进行所述虚拟对象的两两组合,得到多个虚拟对象对,其中,每个所述虚拟对象对包括第一虚拟对象和第二虚拟对象,所述第一虚拟对象的所述喜好度大于所述第二虚拟对象的所述喜好度;
基于所述初始对象预测模型对各个所述样本特征和所述第一虚拟对象进行预测,得到第一喜好奖励值;
基于所述初始对象预测模型对各个所述样本特征和所述第二虚拟对象进行预测,得到第二喜好奖励值;
基于所述第一喜好奖励值与所述第二喜好奖励值之间的差异,训练所述初始对象预测模型,得到所述奖励模型。
10.根据权利要求8所述的方法,其特征在于,所述基于所述奖励模型优化所述初始对象预测模型,得到所述对象预测模型,包括:
基于所述初始对象预测模型对各个所述样本特征进行预测,得到待优化对象预测序列;
基于所述奖励模型对各个所述样本特征和所述待优化对象预测序列中的每个待优化对象进行预测,得到基准喜好奖励值;
基于所述基准喜好奖励值,优化所述初始对象预测模型,得到所述对象预测模型。
11.根据权利要求1或2或5或6所述的方法,其特征在于,所述基于与M个所述待预测虚拟对象对应的M个所述待预测特征,从M个所述待预测虚拟对象中预测N个待旁观虚拟对象之后,所述方法还包括:
从N个所述待旁观虚拟对象中滤除异常虚拟对象,得到所述当前时刻的最佳入境对象,其中,所述异常虚拟对象包括状态异常虚拟对象和距离异常虚拟对象中的至少一种;
选择所述最佳入境对象的待解说虚拟事件;
获取所述待解说虚拟事件的待解说描述;
基于所述待解说描述,解说所述最佳入境对象的所述待解说虚拟事件。
12.一种数据处理装置,其特征在于,所述数据处理装置包括:
对象遍历模块,用于遍历当前时刻的M个待预测虚拟对象,针对遍历到的每个所述待预测虚拟对象执行第一特征模块、第二特征模块、第三特征模块和特征组合模块所执行的处理,其中,M为正整数;
第一特征模块,用于基于当前时间窗中虚拟实体与虚拟事件的关系,提取所述待预测虚拟对象的第一特征,其中,所述当前时间窗是指所述当前时刻对应的时间窗,所述虚拟实体包括虚拟对象;
第二特征模块,用于基于所述待预测虚拟对象在所述当前时刻的虚拟地图位置,提取第二特征;
第三特征模块,用于基于所述待预测虚拟对象在所述当前时刻的虚拟属性,提取第三特征;
特征组合模块,用于将所述第一特征、所述第二特征和所述第三特征,组合为待预测特征;
对象预测模块,用于基于与M个所述待预测虚拟对象对应的M个所述待预测特征,从M个所述待预测虚拟对象中预测N个待旁观虚拟对象,其中,N M,且N为正整数,所述待旁观虚拟对象为待旁观的所述待预测虚拟对象。
13.一种用于数据处理的电子设备,其特征在于,所述电子设备包括:
存储器,用于存储计算机可执行指令或者计算机程序;
处理器,用于执行所述存储器中存储的计算机可执行指令或者计算机程序时,实现权利要求1至11任一项所述的数据处理方法。
14.一种计算机可读存储介质,存储有计算机可执行指令或者计算机程序,其特征在于,所述计算机可执行指令或者计算机程序被处理器执行时,实现权利要求1至11任一项所述的数据处理方法。
15.一种计算机程序产品,包括计算机可执行指令或者计算机程序,其特征在于,所述计算机可执行指令或者计算机程序被处理器执行时,实现权利要求1至11任一项所述的数据处理方法。
CN202310783354.7A 2023-06-28 2023-06-28 一种数据处理方法、装置、设备、存储介质及程序产品 Pending CN116977661A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310783354.7A CN116977661A (zh) 2023-06-28 2023-06-28 一种数据处理方法、装置、设备、存储介质及程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310783354.7A CN116977661A (zh) 2023-06-28 2023-06-28 一种数据处理方法、装置、设备、存储介质及程序产品

Publications (1)

Publication Number Publication Date
CN116977661A true CN116977661A (zh) 2023-10-31

Family

ID=88484059

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310783354.7A Pending CN116977661A (zh) 2023-06-28 2023-06-28 一种数据处理方法、装置、设备、存储介质及程序产品

Country Status (1)

Country Link
CN (1) CN116977661A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117809798A (zh) * 2024-03-01 2024-04-02 金堂县第一人民医院 基于大模型的检验报告解读方法、***、设备及介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117809798A (zh) * 2024-03-01 2024-04-02 金堂县第一人民医院 基于大模型的检验报告解读方法、***、设备及介质
CN117809798B (zh) * 2024-03-01 2024-04-26 金堂县第一人民医院 基于大模型的检验报告解读方法、***、设备及介质

Similar Documents

Publication Publication Date Title
Olson et al. Counterfactual state explanations for reinforcement learning agents via generative deep learning
US20220198800A1 (en) Video processing method, apparatus and device, and computerreadable storage medium
WO2018054330A1 (zh) 数据处理方法、装置和存储介质
CN110339569B (zh) 控制游戏场景中虚拟角色的方法及装置
CN115769234A (zh) 基于模板从2d图像生成3d对象网格
GB2618917A (en) Method for few-shot unsupervised image-to-image translation
CN115064020B (zh) 基于数字孪生技术的智慧教学方法、***及存储介质
CN114550223B (zh) 人物交互检测方法、装置及电子设备
Bruce et al. Genie: Generative interactive environments
CN111709493A (zh) 对象分类方法、训练方法、装置、设备及存储介质
CN112906888B (zh) 一种任务执行方法及装置、电子设备和存储介质
CN116977661A (zh) 一种数据处理方法、装置、设备、存储介质及程序产品
CN113536970A (zh) 一种视频分类模型的训练方法及相关装置
CN115222044A (zh) 模型训练方法、图数据处理方法、装置、设备及存储介质
CN115168720A (zh) 内容交互预测方法以及相关设备
CN109670623A (zh) 神经网络预测方法及装置
CN114638408A (zh) 一种基于时空信息的行人轨迹预测方法
Qin et al. Mp5: A multi-modal open-ended embodied system in minecraft via active perception
CN110704668A (zh) 基于网格的协同注意力vqa方法和装置
Chen et al. Vision-language models provide promptable representations for reinforcement learning
Rahtz et al. Safe deep rl in 3d environments using human feedback
CN115965736B (zh) 图像处理方法、装置、设备及存储介质
WO2022127603A1 (zh) 一种模型处理方法及相关装置
CN113822790A (zh) 一种图像处理方法、装置、设备及计算机可读存储介质
CN112717408A (zh) 动作确定方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication