CN109529356B - 对战结果确定方法、装置及存储介质 - Google Patents

对战结果确定方法、装置及存储介质 Download PDF

Info

Publication number
CN109529356B
CN109529356B CN201811408864.1A CN201811408864A CN109529356B CN 109529356 B CN109529356 B CN 109529356B CN 201811408864 A CN201811408864 A CN 201811408864A CN 109529356 B CN109529356 B CN 109529356B
Authority
CN
China
Prior art keywords
image frame
interactive
data
scene
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811408864.1A
Other languages
English (en)
Other versions
CN109529356A (zh
Inventor
李宏亮
袁博
杨木
邱福浩
李思琴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201811408864.1A priority Critical patent/CN109529356B/zh
Publication of CN109529356A publication Critical patent/CN109529356A/zh
Application granted granted Critical
Publication of CN109529356B publication Critical patent/CN109529356B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明实施例公开了一种对战结果确定方法、装置及存储介质,属于计算机技术领域。该方法包括:获取目标图像帧对应的交互数据,目标图像帧用于显示目标角色对象当前的视野范围内的虚拟环境,交互数据用于表示虚拟环境当前的交互情况;当根据交互数据确定当前处于对战场景时,对交互数据进行特征提取,得到交互特征;获取对战结果输出模型,对战结果输出模型用于确定对战场景的对战结果;将交互特征输入至对战结果输出模型中,基于对战结果输出模型确定对战场景的对战结果。可以根据局部的对战场景确定对战场景的对战结果,考虑的交互数据更为细节,能够提供更小粒度的对战结果,为用户的后续操作提供指导。

Description

对战结果确定方法、装置及存储介质
技术领域
本发明实施例涉及互联网技术领域,特别涉及一种对战结果确定方法、装置及存储介质。
背景技术
MOBA(Multiplayer Online Battle Arena,多人在线战术竞技)游戏是两组玩家在同一个虚拟环境中进行竞技并决出获胜方的游戏,该虚拟环境会提供多种对象,每名玩家可以从多种对象中选取自己的角色对象,控制自己的角色对象在虚拟环境中进行操作,如拾取虚拟资源、移动、与虚拟环境中的其他对象进行对战等。
相关技术中提出了一种预先确定游戏结果的方案,可以收集多局游戏的游戏数据和游戏结果,作为样本数据,并根据收集到的样本数据进行训练,得到游戏结果输出模型,该游戏结果输出模型可以用于预测任一局游戏的游戏结果。那么,在进行游戏的过程中,可以收集本局游戏开局以来的游戏数据,输入至该游戏结果输出模型中,基于该游戏结果输出模型确定本局游戏的游戏结果,以便玩家获知本局游戏是否可能获胜。
游戏过程包括至少一个对战场景,游戏的最终游戏结果是受到每个对战场景的对战结果影响后才产生的游戏结果,而上述方案仅基于该游戏结果输出模型确定本局游戏的最终游戏结果,而无法确定每个对战场景的游戏结果。因此,需要提出一种确定对战场景的对战结果的方案。
发明内容
本发明实施例提供了一种对战结果确定方法、装置及存储介质,可以解决相关技术存在的问题。所述技术方案如下:
一方面,提供了一种对战结果确定方法,所述方法包括:
获取目标图像帧对应的交互数据,所述目标图像帧用于显示目标角色对象当前的视野范围内的虚拟环境,所述交互数据用于表示所述虚拟环境当前的交互情况;
当根据所述交互数据确定当前处于对战场景时,对所述交互数据进行特征提取,得到交互特征;
获取对战结果输出模型,所述对战结果输出模型用于确定对战场景的对战结果;
将所述交互特征输入至所述对战结果输出模型中,基于所述对战结果输出模型确定所述对战场景的对战结果。
另一方面,提供了一种对战结果确定装置,所述装置包括:
数据获取模块,用于获取目标图像帧对应的交互数据,所述目标图像帧用于显示目标角色对象当前的视野范围内的虚拟环境,所述交互数据用于表示所述虚拟环境当前的交互情况;
特征提取模块,用于当根据所述交互数据确定当前处于对战场景时,对所述交互数据进行特征提取,得到交互特征;
模型获取模块,用于获取对战结果输出模型,所述对战结果输出模型用于确定对战场景的对战结果;
确定模块,用于将所述交互特征输入至所述对战结果输出模型中,基于所述对战结果输出模型确定所述对战场景的对战结果。
另一方面,提供了一种对战结果确定装置,所述装置包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述指令、所述程序、所述代码集或所述指令集由所述处理器加载并执行以实现如所述对战结果确定方法中所执行的操作。
再一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述指令、所述程序、所述代码集或所述指令集由处理器加载并具有以实现如所述对战结果确定方法中所执行的操作。
本发明实施例提供的方法、装置及存储介质,通过获取到的目标图像帧对应的交互数据,在确定当前处于对战场景时,对交互数据进行特征提取得到交互特征,基于对战结果输出和交互特征,确定对战场景的对战结果。本方法可以有效地评估当前对战场景的交互情况,并通过训练对战结果输出模型来学习根据对战场景的交互情况确定对战结果的规律,提供了一种基于对战结果输出模型确定对战场景的对战结果的方案,能够根据局部的对战场景的交互数据确定对战结果,而不仅是根据全局的交互活动确定最终交互结果,考虑的交互数据更为细节,能够提供更小粒度的对战结果,为用户的后续操作提供指导。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明实施例的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种实施环境的结构示意图;
图2是本发明实施例提供的一种操作同步流程的示意图;
图3是本发明实施例提供的一种对战结果输出模型训练方法的流程图;
图4是本发明实施例提供的一种对战场景划分示意图;
图5是本发明实施例提供的第一显示区域、第二显示区域和第三显示区域的示意图;
图6是本发明实施例提供的第一特征、第二特征和第三特征的示意图;
图7是本发明实施例提供的一种对战结果输出模型的结构示意图;
图8是本发明实施例提供的一种对战结果确定方法的流程图;
图9是本发明实施例提供的一种预测结果示意图;
图10是本发明实施例提供的一种对战结果确定方法的操作流程图;
图11是本发明实施例提供的一种对战结果确定装置的结构示意图;
图12是本发明实施例提供的一种终端的结构示意图;
图13是本发明实施例提供的一种服务器的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
在对本发明实施例进行详细地解释说明之前,首先对本发明实施例涉及到的概念进行如下解释:
1、虚拟环境:是应用程序在终端上运行时提供的虚拟环境,可以通过显示屏幕进行显示,以便用户进行查看。
虚拟环境可以是对真实世界的仿真环境,也可以是半仿真半虚构的环境,还可以是纯虚构的环境。如可以为虚构的游戏环境、虚构的电影环境、虚构的游戏环境与真实环境叠加形成的虚拟现实环境等。该虚拟环境可以是二维虚拟环境,也可以是三维虚拟环境。
例如,该虚拟环境中可以包括天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素。该虚拟环境还可以用于模拟不同天气下的真实环境,例如,晴天、雨天、雾天或黑夜等天气。
2、对象:虚拟环境中提供的立体模型,包括角色对象、野怪、小兵和防御塔等多种类型。其中,角色对象、野怪和小兵为可移动的立体模型,防御塔为不可移动的立体模型。在交互活动中,角色对象、小兵和防御塔可以分属于不同的群组,而野怪不属于任一群组,属于任一群组的敌方对象。
(1)、角色对象:可称为游戏角色或用户角色,在本发明实施例中指代可以由用户选择并控制的对象,可以代表用户的形象。用户可以控制该用户的角色对象在虚拟环境中执行操作,如行走、跳跃、奔跑、攻击等,则多个用户可以控制各自选择的角色对象在虚拟环境中进行交互,模拟出多个用户进行面对面互动的效果。
虚拟环境中的角色对象众多,不同的角色对象通常拥有不同的形象和可执行的操作。并且,虚拟环境可以为每个用户提供全部的角色对象,或者由用户通过执行任务或消耗虚拟货币来获得角色对象,该虚拟货币可以通过真实货币进行购买得到,也可以通过拾取或执行任务得到,也可以通过与其他角色对象进行对战并获得胜利后得到。
(2)、防御塔:是一种用于地面防御的对象,在虚拟环境中所处的位置固定,无法移动,也无法被用户控制。
并且,防御塔具有一定的覆盖范围,能够对进入覆盖范围内的敌方对象触发攻击操作。例如,在防御塔的覆盖范围内,当敌方对象对我方对象执行攻击操作,而导致我方对象的生命值减少时,该防御塔会将上述敌方对象作为攻击目标,通过攻击该敌方对象达到保护我方对象的目的。或者,当覆盖范围内只有敌方对象时,防御塔将该敌方对象作为攻击目标,攻击该敌方对象。
(3)野怪:是一种处于虚拟环境中的“中立敌对”对象,不属于任何群组,是任一群组的敌方对象,不受用户控制。
小兵:是一种在虚拟环境中的游戏角色,具有所属的群组,可以与敌方对象进行交互,也可以在所属的群组中的角色对象与敌方对象对战时,协助所属的群组中的角色对象与敌方对象对战。
上述角色对象、野怪和小兵均是采用三维显示技术创建出的三维立体的虚拟形象,上述防御塔是采用三维显示技术创建出的三维立体的塔状虚拟形象,角色对象、野怪、小兵和防御塔在虚拟环境中具有自身的形状和体积,占用一定的空间。
角色对象、野怪和小兵可以为人形形象、动物形象、卡通形象或者其他的自定义形象,如根据真人头像进行三维建模后得到的真人形象等。虚拟形象中除不可更换的基本形象之外,还包括对该基本形象进行装饰的造型,如发型、服饰、佩戴的武器道具等,这些造型可以进行更换。虚拟形象可以模拟人或动物做出的反应,例如可以模拟人或动物做出的动作,如招手、鼓掌、跑跳等,或者模拟人或动物做出的面部表情,如大笑、咆哮等,或者模拟人或动物发出的声音,如笑声、咆哮声等,或者模拟人或动物对其他人做出的动作,如拿枪射击、攻击等。
3、角色对象的视野范围:是指用户以角色对象的第一人称视角或第三人称视角在虚拟环境中进行观察时的观察范围,也可称为角色对象在虚拟环境中的可见范围。随着用户控制角色对象进行旋转,其视角范围相应发生变化。
终端可以采用第一人称视角进行显示,所显示的虚拟环境中仅包括角色对象的手部、手臂或者手中所持有的兵器等,从而能够模拟通过该角色对象的视角观察虚拟环境的效果。或者,还可以采用第三人称视角进行显示,第三人称视角与第一人称视角的方向一致,只是第三人称视角会在虚拟环境中显示背对终端屏幕的角色对象,以使得用户可以在虚拟环境中看到其控制的角色对象的动作、所处环境等。
4、交互活动:是指多个对象在虚拟环境中进行交互的活动,例如该交互活动可以为电子竞技游戏,虚拟环境为该电子竞技游戏的游戏环境。
每个交互活动中的对象被划分至两个或两个以上的群组中,每个群组包括多个对象,如多个角色对象、多个小兵和多个防御塔等。属于同一群组的多个对象互为我方对象,属于不同群组的多个对象互为敌方对象。
交互过程中,多个对象分布在虚拟环境中的不同位置,执行某些操作。并且,对象的位置可以随着该对象执行的操作而发生改变。
5、交互数据:是指表示交互活动中交互情况的数据,交互数据包括交互活动的多个对象的属性数据、位置数据、操作数据等。
其中,对象的属性数据用于描述该对象的特性和当前的状态,可以包括生命值、所属群组、攻击力、防御力或类型等。对象的位置数据用于描述该对象在虚拟环境中的位置,可以为对象在虚拟环境中的坐标。
操作数据为交互过程中记录对象所执行操作的记录,包括操作的操作类型、操作执行方和接受方的身份标识等数据。
6、图像帧:显示角色对象当前的视野范围内的虚拟环境的图像帧。在一次交互活动中,多个用户的终端会显示各自的角色对象对应的图像帧,因此在一个时刻可以产生多个图像帧,从不同角色对象的视角对当前的虚拟环境进行描述。
每个图像帧对应一份交互数据,该交互数据用于表示在图像帧对应的时刻,角色对象当前的视野范围内的交互情况。则同一时刻产生的多个图像帧对应的交互数据实际上是在同一时刻的多个角色对象当前的视野范围内的交互情况,可以包含相同的数据,也可能包括不同的数据。
7、操作:是指用户通过控制虚拟环境中的对象执行的操作或者按照交互规则自动触发执行的某些操作,操作包括多种类型,如拾取虚拟资源的操作、移动操作、对战操作、补充生命值的操作等,其中移动操作又包括如行走操作、跳跃操作、奔跑操作等,对战操作又包括普通攻击操作和释放技能操作等。用户可以控制对象执行不同的操作并达到相应的效果,其中不同类型的对象可执行的操作可以相同,也可以不同。
其中,角色对象可执行的对战操作包括普通攻击操作和释放技能操作,而防御塔可执行的对战操作只包括普通攻击操作,并不包括释放技能操作。该普通攻击操作包括基础物理攻击操作和法术攻击操作的至少一种。
8、操作的冷却时间:在交互活动中每个对象不能连续执行某一操作,在执行完该操作后,需要经过一定的时间间隔后才能再次执行该操作,该时间间隔即为该操作的冷却时间。
9、速度加成:是指将某一操作的执行速度按照一定的比率增加,以加快操作的执行速度,该比率可以为百分比、千分比或万分比等。
例如,某一操作的速度加成比率为万分之4,则该操作经速度加成后的执行速度可以通过以下公式计算:
Figure BDA0001878025510000071
其中,v为该操作的原始执行速度,v′为该操作经速度加成后的执行速度。
10、生命值:对象的生命值是指用于衡量对象在交互活动的过程中的表现的数据,根据对象所执行操作的不同,其生命值可以增加或减少。在交互活动开始时对象的生命值为满值,当被其他对象攻击时,该对象的生命值就会被消耗而减少,当生命值减少至零时,该对象死亡。生命值可以通过虚拟货币购买,也可以通过击败其他对象来获得。
每个群组包括多个对象,群组的生命值即为该群组中多个对象的生命值的总和。在交互活动中,当群组中所有对象的生命值均为零时,该群组即为该交互活动中的落败方,而最后一个保留生命值的群组即为获胜方。
本发明实施例主要涉及电子游戏,如FPS(First-Person Shooter Game,第一人称射击游戏)、RTS(Real-Time Strategy,即时战略)游戏或者MOBA(Multiplayer OnlineBattle Arena,多人在线战术竞技游戏)等。终端可以下载并安装电子游戏的配置文件,该配置文件中包括该电子游戏的应用程序、页面显示数据或虚拟环境数据,用户在该终端上登录电子游戏时,终端通过调用该配置文件对电子游戏中的虚拟环境进行渲染显示。用户可以在终端上进行控制操作,终端检测到控制操作后,可以确定该控制操作所对应的游戏数据,并对该游戏数据进行渲染显示,该游戏数据可以包括虚拟环境数据、该虚拟环境中对象的操作数据等。
图1是本发明实施例提供的一种实施环境的结构示意图,参见图1,该实施环境包括服务器101和多个终端102,该多个终端102分别与该服务器101通过网络连接。每个终端102基于注册的用户标识登录服务器101,该用户标识用于表示终端102用户的身份,可以为手机号码、用户账号、用户昵称等。
其中,终端101可以为手机、计算机、平板电脑等具有数据处理能力的多种类型的设备,可以为便携式、袖珍式、手持式的设备。该终端101可以运行支持虚拟环境的应用程序,该应用程序可以为虚拟现实应用程序、三维地图程序、军事仿真游戏程序、FPS(First-person shooting game,第一人称射击类游戏)游戏、MOBA游戏等应用程序。服务器102可以是一台服务器,或者由若干台服务器组成的服务器集群,或者是一个云计算服务中心。
该多个终端102可以通过服务器101进行交互,交互过程中该多个终端102执行的操作同步,从而为多个虚拟形象提供了一个共享的虚拟环境,模拟出一种多人交互的场景。在一种可能实现方式中,该多个终端102可以安装同一类型的应用客户端,基于各自的用户标识登录安装的应用客户端,则多个应用客户端通过服务器101进行交互。该应用客户端可以为游戏客户端、社区客户端等。
上述操作同步的具体过程参见图2,该服务器101和该多个终端102可以采用帧同步技术,在多个终端102进行交互的过程中,每个终端102生成图像帧,显示各自的角色对象当前视野范围内的虚拟环境,并且向服务器101上报角色对象执行的操作,服务器101收集参与交互的所有终端102上报的操作,进行汇总后将操作集合下发给所有终端102,每个终端102根据服务器下发的操作集合独立地执行相应的操作,从而实现了多个终端102之间的操作同步。并且,服务器101还会根据该操作集合生成每个图像帧对应的交互数据,对每个图像帧对应时刻的交互情况进行记录。
相关技术中,通常只能预测一局游戏的最终游戏结果,而无法预测一局游戏中每个对战场景的对战结果,而一局游戏中通常包括至少一个对战场景,每个对战场景的对战结果均会影响该局游戏的最终游戏结果,并且在游戏中当存在多个对象处于相同位置的情况下,相关技术表达的信息有限,只能考虑其中一个对象,导致最终游戏结果不准确。
而本发明实施例提出了一种对战结果确定方法,该方法通过获取某一交互活动中当前对战场景的交互数据,对该对战场景的对战结果进行预测,并将该对战结果展示给用户,该对战结果可以有效评估当前对战场景的局面,并对用户后续的交互行为起到一定的指导作用。
本发明实施例可以应用于终端作为机器人与其他用户进行交互的场景下,也可以应用于用户与其他用户进行交互的场景下。例如,当某一真人用户使用终端登录电子竞技游戏并选择单机游戏模式时,终端可以作为一个机器人,与该真人用户一起参与到该电子竞技游戏中,在游戏过程中终端和真人用户控制各自的角色对象进行对战,并根据交互数据对当前对战场景的对战结果进行预测,以便终端根据预测结果决定下一步要执行的操作。
又如,当某一真人用户使用终端登录电子竞技游戏,与其他登录该电子竞技游戏的真人用户进行交互的过程中,每个终端控制自己的角色对象与其他角色对象进行对战,则根据交互数据对当前对战场景的获胜者进行预测,并将预测结果发送给参与该电子竞技游戏的每个终端,供终端的真人用户查看,并决定下一步要执行的操作。
又如,在多个真人用户使用终端登录电子竞技游戏,并进行交互的过程中,解说员也可以使用终端登录电子竞技游戏,以第三方的身份观察虚拟环境中的对战场景,则根据交互数据对当前对战场景的获胜者进行预测,以便解说员获知当前的对战情况以及可能的获胜方。
图3是本发明实施例提供的一种对战结果输出模型训练方法的流程图。本发明实施例的执行主体为训练装置,参见图3,该方法包括:
301、训练装置获取样本交互活动中的多个图像帧以及多个图像帧对应的交互数据。
训练装置收集多个终端已完成的交互活动作为样本交互活动,其中每个样本交互活动包括多个图像帧,每个图像帧具有对应的交互数据,训练装置获取样本交互活动中的多个图像帧以及该多个图像帧对应的交互数据。
上述多个图像帧对应的交互数据用于表示虚拟环境在样本交互活动进行过程中的交互情况,包括多个对象的属性数据、位置数据、操作数据等。
需要说明的是,每个交互活动的进行过程中会在参与该交互活动的多个终端上分别产生多个图像帧,则在选取样本交互活动的图像帧时,可以选取该样本交互活动的所有图像帧,或者,为了减小计算量,也可以选取参与该样本交互活动的某一终端的多个图像帧,而不再考虑其他终端的图像帧。
需要说明的另一点是,本发明实施例仅是以一个样本交互活动作为样本来训练对战结果输出模型为例进行说明,而在实际应用中,训练装置可以将多个样本交互活动分别作为样本,来训练对战结果输出模型,以得到更为精确的对战结果输出模型。
302、训练装置根据多个图像帧以及对应的交互数据,确定样本交互活动中多个对战场景的样本图像帧,以及多个对战场景的对战结果。
样本交互活动中,根据各个对象执行操作的不同,可以划分为多种交互场景,包括对战场景和非对战场景。其中,对战场景是指任两个对象之间执行预设对战操作的场景,而非对战场景是指任两个对象之间未执行预设对战操作的场景,如在样本交互活动的开始阶段,所有对象均在执行移动操作或者拾取虚拟资源的操作,而未执行预设对战操作,因此可将该开始阶段称为非对战场景。
本发明实施例中,考虑到对战场景的对战结果会对整个样本交互活动的交互结果产生重要的影响,因此,可以从样本交互活动中提取对战场景,对对战场景的图像帧和对战结果进行统计学习,以便训练出能够预测对战结果的对战结果输出模型。
在一种可能实现方式中,该步骤302可以包括以下步骤3021-3022中的至少一项:
3021、训练装置根据多个图像帧对应的交互数据,从多个图像帧中提取多个对战场景。其中,每个对战场景中包括多个图像帧。
提取到的多个图像帧中,每个图像帧对应的交互数据可以体现每个图像帧中各个对象执行的操作,从而能够体现每个图像帧中是否发生了预设对战操作。
因此,根据多个图像帧对应的交互数据,可以确定属于对战场景的图像帧,从而从样本交互活动中提取至少一个对战场景。
在一种可能实现方式中,训练装置分别将该样本交互活动的多个图像帧中的每个图像帧作为当前图像帧,根据当前图像帧对应的交互数据,判断当前图像帧是否满足预设起始条件或预设结束条件。其中,预设起始条件是指对战场景的起始图像帧应当满足的条件,预设结束条件是指对战场景的结束图像帧应当满足的条件。
参见图4,训练装置根据样本交互活动的多个图像帧对应的交互数据,将该多个图像帧中满足上述预设起始条件的图像帧确定为起始图像帧,并根据样本交互活动的多个图像帧对应的交互数据,将该多个图像帧中满足上述预设结束条件的图像帧确定为结束图像帧,得到至少一个起始图像帧和至少一个结束图像帧。对于每个起始图像帧,将起始图像帧、起始图像帧之后的第一个结束图像帧、起始图像帧与第一个结束图像帧之间的图像帧划分为同一对战场景,从而从样本交互活动中提取出至少一个对战场景,则该样本交互活动中的其他场景即为非对战场景。
考虑到通常在任两个互为敌方对象的对象在虚拟环境中相遇时,开始执行对战操作,此时对战场景开始。因此,该预设起始条件可以为当前图像帧(角色对象的视野范围内)包含敌方对象,或者,该预设起始条件可以为当前图像帧中包含敌方对象,且上一个图像帧中不包含敌方对象。其中,敌方对象为与当前图像帧的角色对象属于不同群组的对象。
考虑到通常在任两个互为敌方对象的对象在执行对战操作后,一方对象死亡或离开时,对战场景结束。因此,该预设结束条件可以为当前图像帧中不包含敌方对象,或者,该预设结束条件可以为当前图像帧中包含敌方对象,且下一个图像帧中不包含敌方对象。
在另一种可能实现方式中,考虑到在任两个互为敌方对象的对象在虚拟环境中相遇时,可能会执行对战操作,也可能不执行对战操作,因此为了保证提取的对战场景准确,可以根据双方对象是否执行预设对战操作,来确定当前的场景是否为对战场景。
也即是,在确定至少一个起始图像帧和至少一个结束图像帧之后,对于每个起始图像帧,确定该起始图像帧与该第一个结束图像帧之间的中间图像帧对应的交互数据。预设操作数据为记录对应的图像帧中发生预设对战操作的数据,当上述中间图像帧对应的交互数据中包括预设操作数据时,表示在当前场景下发生了预设对战操作,因此,训练装置将该起始图像帧、起始图像帧之后的第一个结束图像帧、该起始图像帧与该起始图像帧之后的第一个结束图像帧之间的图像帧划分为同一对战场景。而当上述中间图像帧对应的交互数据中不包括预设操作数据时,表示在当前场景下并未发生预设对战操作,因此将该起始图像帧、起始图像帧之后的第一个结束图像帧、该起始图像帧与该起始图像帧之后的第一个结束图像帧之间的图像帧划分为非对战场景。
3022、对于每个对战场景,训练装置从对战场景的多个图像帧中选取样本图像帧,并根据对战场景的交互数据进行统计,得到对战场景的对战结果。
其中,上述对战场景的样本图像帧是从属于对战场景的多个图像帧中选取得到的。
由于每个对战场景包括起始图像帧、结束图像帧以及至少一个中间图像帧,因此,对于每个对战场景,训练装置可以从上述多个图像帧中选择一个或多个图像帧作为该对战场景的样本图像帧。例如,从上述多个图像帧中随机选择一个图像帧,或者选择该对战场景的结束图像帧作为样本图像帧。
考虑到随着样本交互活动的进行,对战场景的最后一个图像帧的交互数据最能准确体现对战场景的对战结果,因此训练装置选择对战场景的结束图像帧作为该对战场景的样本图像帧,可以保证后续训练的对战结果输出模型更为准确。
由于样本交互活动是第一样本群组和第二样本群组之间进行的交互活动,第一样本群组和第二样本群组分别包括多个对象,因此对战场景的对战结果可以为第一样本群组获胜,或者第二样本群组获胜,或者第一样本群组与第二样本群组在该对战场景中达成平局。
而样本交互活动的交互数据包括第一样本群组和第二样本群组在多个维度上的状态数据,因此,样本交互活动中的每个图像帧对应的交互数据均包括第一样本群组和第二样本群组在多个维度上的状态数据。因此,可以根据对战场景的多个图像帧对应的交互数据进行统计,得到对战结果。
上述根据对战场景的交互数据进行统计,得到该对战场景的对战结果,包括:训练装置根据该交互数据,统计该对战场景中第一样本群组在指定维度上的状态数据,得到第一统计值,根据该交互数据,统计该对战场景中第二样本群组在该指定维度上的状态数据,得到第二统计值,将该第一统计值与该第二统计值进行对比,确定该对战场景的对战结果。
其中,指定维度为多个维度中的任一个维度,例如可以为多个维度中最能衡量群组在样本交互活动中的表现的维度。
在一种可能实现的方式中,指定维度可以为生命值,训练装置统计该对战场景中第一样本群组中的所有对象的生命值的总和,作为第一统计值,统计该对战场景中第二样本群组中的所有对象的生命值的总和,作为第二统计值,通过对比该第一统计值和该第二统计值,确定该对战场景的对战结果。若第一统计值大于该第二统计值,则该对战场景的对战结果为第一样本群组获胜;若第一统计值小于该第二统计值,则该对战场景的对战结果为第二样本群组获胜;若第一统计值等于该第二统计值,则该对战场景的对战结果为第一样本群组和第二样本群组在该对战场景中达成平局。
在另一种可能实现的方式中,指定维度可以为对象死亡数目,如角色对象的死亡数目或者角色对象和防御塔的死亡数目,训练装置根据该对战场景中每个图像帧中第一样本群组和第二样本群组的对象数目,统计该对战场景中第一样本群组的对象死亡数目,作为第一统计值,并统计该对战场景中第二样本群组的对象死亡数目,作为第二统计值,通过对比该第一统计值和该第二统计值,确定该对战场景的对战结果。若第一统计值大于该第二统计值,则该对战场景的对战结果为第二群组获胜;若第一统计值小于该第二统计值,则该对战场景的对战结果为第一群组获胜;若第一统计值等于该第二统计值,则该对战场景的对战结果为第一群组和第二群组在该对战场景中达成平局。
例如,样本交互活动为电子竞技游戏,该电子竞技游戏包括第一样本群组和第二样本群组,可以采用对战场景中角色对象的死亡数目差来反映对战局面,处于优势的样本群组即为本次对战场景中的获胜方。训练装置统计从对战场景的起始图像帧到结束图像帧中所有的图像帧中,第一样本群组中角色对象的死亡数目x和第二样本群组中角色对象的死亡数目y,其中x和y中已排除中途离开战场的两个样本群组中角色对象的数目。若x-y>0,则表明在对战场景中第一样本群组的角色对象的死亡数目比第二样本群组的角色对象的死亡数目多,即第二样本群组处于优势,该对战结果为第二样本群组获胜。
训练装置在确定对战场景的对战结果后,将该对战场景的样本图像帧和对战结果作为一组样本数据,为样本图像帧标注对战结果。
本发明实施例中,可以为样本交互活动的每个图像帧分配唯一标识,并存储每个标识对应的图像帧以及交互数据。当要训练对战结果输出模型时,根据样本交互活动中的多个图像帧的标识,获取多个图像帧以及对应的交互数据,通过统计后得到至少一个对战场景的样本图像帧和对战结果,此时可以创建样本图像帧的标识与对战结果之间的关联关系,后续根据该关联关系可以确定每个样本图像帧对应的对战结果。
303、训练装置对多个对战场景的样本图像帧对应的交互数据进行特征提取,得到交互特征。
参见图5,样本图像帧包括第一显示区域、第二显示区域和第三显示区域,其中第一显示区域用于显示该视野范围内该样本图像帧对应的角色对象的属性数据,该属性数据包括样本图像帧中的对象拥有的技能、当前的生命值、所属样本群组中当前的生命值未消耗完的角色对象、样本群组消灭的敌方对象的数目以及两个样本群组之间的比分等数据。
第二显示区域用于显示虚拟环境的缩略地图,该缩略地图是交互活动所处的整个虚拟环境的地图的缩小版本,在该缩略地图中显示有虚拟环境中的每个角色对象的标记,以体现每个对象在虚拟环境中的位置。
第三显示区域用于显示该样本图像帧对应的角色对象当前的视野范围内的虚拟环境,以及该视野范围内的每个对象,还用于显示虚拟环境中的障碍物等,并且第三显示区域还可以显示用于执行技能操作或普通攻击操作等操作的操作按钮,并且在第三显示区域中还包括该样本图像帧中的角色对象当前拥有的金币数量等。
相应地,样本图像帧对应的交互数据中包括:虚拟环境中多个角色对象的属性数据、样本图像帧中的对象所在的位置、多个对象在缩略地图中的位置,以及每个对象的操作数据。
在一种可能实现方式中,该步骤303可以包括以下步骤3031-3034:
3031、交互数据包括虚拟环境中多个角色对象的属性数据,训练装置将多个角色对象的属性数据对应的属性特征进行组合,得到第一特征。
样本交互活动中包括多个角色对象,每个角色对象具有不同的属性数据,上述交互数据中包括该多个角色对象的属性数据,根据该属性数据,可以确定每个角色对象的属性特征,并将该多个角色对象的属性特征进行组合,得到第一特征,该第一特征用于描述样本交互活动中的多个角色对象。
在一种可能实现的方式中,属性特征可以包括类型特征、群组特征、生命值特征、形象特征以及技能特征等多个特征,其中类型特征用于描述角色对象代表的角色,群组特征用于描述角色对象所属的群组,生命值特征用于描述角色对象的生命值,形象特征用于描述角色对象的服饰、装扮以及佩饰等特征,技能特征用于描述角色对象当前可以释放的技能操作、已释放的技能操作以及释放的技能操作的类型和数量等特征。
在另一种可能实现方式中,将该多个角色对象的属性特征进行组合时,将样本图像帧对应的角色对象所属群组内的多个角色对象的属性特征进行组合,得到第一属性特征,将样本图像帧对应的角色对象所属群组之外的另一群组的多个角色对象的属性特征进行组合,得到第二属性特征,将第一属性特征与第二属性特征进行组合,得到该第一特征。
3032、样本图像帧中包括虚拟环境的缩略地图,训练装置根据多个对象在缩略地图中的位置,确定多个对象的位置特征,将多个对象的位置特征进行组合,得到第二特征。
在获取到虚拟环境的缩略地图后,确定该虚拟环境中的多个对象在上述缩略地图中的位置,根据该多个对象在上述缩略地图中的位置,确定该多个对象的位置特征,并将该多个对象的位置特征进行组合,得到第二特征,该第二特征用于表征样本交互活动中的多个对象在虚拟环境的缩略地图中的分布情况。
3033、样本图像帧中包括虚拟环境中的至少一个对象,训练装置根据至少一个对象在样本图像帧中的位置,确定至少一个对象的位置特征,将至少一个对象的位置特征进行组合,得到第三特征。
在获取样本图像帧后,根据该样本图像帧中的至少一个对象以及该至少一个对象在样本图像帧中的位置,确定该至少一个对象的位置特征,并将该至少一个对象的位置特征进行组合,得到第三特征,该第三特征用于表征样本图像帧中至少一个对象的分布情况,也即是样本图像帧对应的角色对象的视野范围内至少一个对象的分布情况。
例如,参见图6,在一次样本交互活动中,虚拟环境中包括英雄、兵、野怪、防御塔等对象以及障碍物。其中我方英雄和敌方英雄的数目均为5,每个英雄具有一组属性特征,上述十个英雄的属性特征组合构成第一特征,上述英雄、兵、野怪和防御塔分布在虚拟环境中的不同位置,根据上述多个对象在虚拟环境的缩略地图中的位置,确定该多个对象的位置特征,将该多个对象的位置特征组合得到第二特征,根据英雄、兵、野怪、防御塔等对象以及障碍物在样本图像帧中的位置,确定样本图像帧中包含的对象和障碍物的位置特征,并进行组合得到第三特征。
3034、训练装置根据参与交互活动的第一样本群组和第二样本群组中每个角色对象和每个防御塔的操作数据,获取第四特征。
参与样本交互活动的第一样本群组和第二样本群组中包括多个角色对象、防御塔以及其他对象,训练装置获取操作数据,该操作数据包括多个对象的操作数据,用于记录该多个对象在样本交互活动中执行的操作。
根据上述操作数据,采用以下公式,获取第四特征:
Figure BDA0001878025510000161
Figure BDA0001878025510000162
Figure BDA0001878025510000163
其中,u为虚拟环境中的任一个角色对象,dpf(u)为角色对象u的伤害值,damageu为在样本图像帧中角色对象u执行的普通攻击操作的伤害值,即角色对象u执行的普通攻击操作时对该普通攻击操作的接受方造成的伤害值,cooldownu为普通攻击操作的冷却时间,atk_spdu为普通攻击操作的速度加成的万分比,wi(u)为在目标图像帧中角色对象u执行的第i个技能操作,damage(wi(u))为技能操作的伤害值,cooldown(wi(u))为技能操作的冷却时间。
t为虚拟环境中的任一个防御塔,dpf(t)为防御塔t的伤害值,damaget为在目标图像帧中防御塔t执行的普通攻击操作的伤害值,cooldownt为普通攻击操作的冷却时间,atk_spdt为防御塔t执行的普通攻击操作的速度加成的万分比。
LTD为第四特征,U1为目标图像帧中第一群组的角色对象集合,T1为目标图像帧中第一群组的防御塔集合,U2为目标图像帧中第二群组的角色对象集合,T2为目标图像帧中第二群组的防御塔集合,hp(x)为对象x的生命值。
其中,某一群组的第四特征越大,意味着该群组越具有优势,在该次对战场景中获胜的概率就越大。
上述第四特征综合考虑了样本图像帧中包含的对象以及每个对象的生命值、发出的普通攻击操作和释放的技能操作以及每个普通攻击操作和技能操作的冷却时间和伤害值等因素,将第四特征也输入至对战结果输出模型,考虑的交互数据更为细节,能够提高对战结果输出模型的准确率。
304、训练装置根据交互特征以及对应的对战结果进行训练,得到对战结果输出模型。
其中,该对战结果输出模型可以为卷积神经网络模型、循环网络模型、深度神经网络模型等多种不同类型的模型,具体选用哪一种模型可以根据采用的训练算法确定。对于卷积神经网络,该对战结果输出模型可以采用如ResNet、GoogLenet、DenseNet等算法训练卷积神经网络模型。
例如,参见图7,本发明实施例采用卷积神经网络和全连接网络结合的网络结构,该网络结构包括第一输入层、第二输入层和第三输入层,第一输入层经过多个全连接层后与第一全连接层连接,第二输入层经过多个卷积层后与第一全连接层连接,第三输入层经过多个卷积层后与第一全连接层连接,而第一全连接层与第二全连接层连接,第二全连接层与输出层连接。
则将第一特征输入至第一输入层中,经过多个全连接层后输入至第一全连接层中,将第二特征输入至第二输入层中,经过多个卷积层后输入至第一全连接层中,将第三特征输入至第三输入层中,经过多个卷积层后输入至第一全连接层中,则通过第一全连接层将第一特征、第二特征和第三特征计算得到的特征进行连接,合并为一个特征向量,该特征向量输入至第二全连接层,之后通过输出层输出对战结果。
本发明实施例中,该对战结果输出模型用于确定任一对战场景的对战结果,将任一对战场景的图像帧输入至该对战结果输出模型中,可以基于该对战结果输出模型,确定该对战场景的对战结果,从而实现对战结果的预测。该对战结果用于表征该图像帧对应的角色对象在本次对战场景中能否获胜,该对战结果可以对参与交互活动的用户进行提示,并对用户应当执行的操作提供指导。
需要说明的是,上述训练装置可以为图1所示实施环境中的服务器或终端。当训练装置为服务器时,服务器收集样本交互活动中多个终端上报的图像帧以及对应的交互数据,统计得到对战场景的对战结果,并进行训练后得到对战结果输出模型。或者,当训练装置为终端时,服务器收集样本交互活动中多个终端上报的图像帧,并生成交互数据,发送给终端,由终端统计得到对战场景的对战结果,并进行训练后得到对战结果输出模型。
本发明实施例提供的方法,根据已获取的样本交互活动的多个图像帧以及多个图像帧对应的交互数据,确定多个对战场景的交互特征和对战结果,并根据该交互特征和对应的对战结果进行训练,得到对战结果输出模型。本发明实施例通过训练得到对战结果输出模型,来学习根据不同对战场景的交互情况确定对战结果的规律,提供了一种基于对战结果输出模型确定对战场景的对战结果的方案,能够根据局部的对战场景的交互数据确定对战结果,而不仅是根据全局的交互活动确定最终交互结果,考虑的交互数据更为细节,能够提供更小粒度的对战结果,为用户的后续操作提供指导。
图8是本发明实施例提供的一种对战结果确定方法的流程图。本发明实施例的执行主体为处理装置,处理装置可以为图1所示实施例中的终端或服务器,参见图8,该方法包括:
801、处理装置获取目标图像帧对应的交互数据。
其中,上述目标图像帧是指当前时刻产生的任一个图像帧,目标图像帧用于显示目标角色对象当前的视野范围内的虚拟环境。
在一种可能实现的方式中,该服务器与多个终端连接。多个终端参与交互活动,每个终端设置有对应的角色对象。在进行交互活动的过程中,每个终端会显示图像帧,在图像帧中显示角色对象的视野范围内的虚拟环境。由于该虚拟环境中包括角色对象、防御塔、怪兽等多个对象和障碍物,因此,图像帧中可能会包括该视野范围内的对象和障碍物。
处理装置可以为服务器,为了便于预测对战结果,每个终端将当前显示的图像帧发送给服务器,服务器接收多个终端发送的图像帧,并生成交互数据,该交互数据用于表示虚拟环境当前的交互情况,此时可以从多个图像帧中选取任一个图像帧作为目标图像帧,该目标图像帧对应的角色对象作为目标角色对象,并从生成的交互数据中,获取目标图像帧对应的交互数据。
或者,处理装置也可以为参与交互活动的每个终端,则服务器收集多个终端发送的图像帧,并生成交互数据,发送给每个终端,每个终端将本端显示的图像帧作为目标图像帧,将本端设置的角色对象作为目标角色对象,并从服务器发送的交互数据中,获取目标图像帧对应的交互数据。
802、处理装置当根据交互数据确定当前处于对战场景时,对交互数据进行特征提取,得到交互特征。
交互活动在虚拟环境中进行,虚拟环境中包括多个对象、障碍物等,在虚拟环境中可执行的操作可以包括多种类型,如打野怪操作、清兵操作、推塔操作、团战操作、导航操作、移动操作、补血操作以及拾取虚拟资源的操作等。根据交互活动中发生的操作可以获取交互数据,该交互数据用于记录虚拟环境中的交互情况,该交互数据中包括交互活动中多个对象的属性数据、位置数据、操作数据等,其中操作数据中又包括操作的操作类型、操作的执行方和接受方等数据。
根据虚拟环境中发生的操作的不同,可以将交互活动分为多个场景,如导航场景、对战场景、移动场景等。其中,导航场景可以为根据虚拟环境的地图进行导航、根据导航的路线寻找宝藏的场景。对战场景可以为交互活动中的角色对象与其他对象如野怪、敌方角色对象、敌方防御塔或敌方小兵进行对战的场景。根据当前虚拟环境中是否发生预设对战操作,可以将交互场景划分为对战场景或非对战场景,其中预设对战操作通常指发出普通攻击操作或释放技能操作等。
当对应的交互数据中包括预设操作数据时,表明当前发生了预设对战操作,因此可以确定当前处于对战场景。而当交互数据中不包括预设操作数据时,即当前未发生预设对战操作,确定当前处于非对战场景。
在一种可能实现的方式中,若确定当前处于对战场景,处理装置对交互数据进行特征提取,得到交互特征的过程可以包括以下步骤8021-8024中的至少一项:
8021、交互数据包括虚拟环境中多个角色对象的属性数据,处理装置将多个角色对象的属性数据对应的属性特征进行组合,得到第一特征。
对战场景中包括多个角色对象,每个角色对象具有不同的属性数据,上述交互数据中包括该多个角色对象的属性数据,根据该属性数据,可以确定每个角色对象的属性特征,并将该多个角色对象的属性特征进行组合,得到第一特征,该第一特征用于描述对战场景中的多个角色对象。
在一种可能实现的方式中,属性特征可以包括类型特征、群组特征、生命值特征、形象特征以及技能特征等多个特征,其中类型特征用于描述角色对象代表的角色,群组特征用于描述角色对象所属的群组,生命值特征用于描述角色对象的生命值,形象特征用于描述角色对象的服饰、装扮以及佩饰等特征,技能特征用于描述角色对象当前可以释放的技能操作、已释放的技能操作以及释放的技能操作的类型和数量等特征。
在另一种可能实现方式中,将该多个角色对象的属性特征进行组合时,将目标图像帧对应的角色对象所属群组内的多个角色对象的属性特征进行组合,得到第一属性特征,将目标图像帧对应的角色对象所属群组之外的另一群组的多个角色对象的属性特征进行组合,得到第二属性特征,将第一属性特征与第二属性特征进行组合,得到该第一特征。
8022、目标图像帧中包括虚拟环境的缩略地图,处理装置根据多个对象在缩略地图中的位置,确定多个对象的位置特征,将多个对象的位置特征进行组合,得到第二特征。
在获取到虚拟环境的缩略地图后,确定该虚拟环境中的多个对象在上述缩略地图中的位置,根据该多个对象在上述缩略地图中的位置,确定该多个对象的位置特征,并将该多个对象的位置特征进行组合,得到第二特征,该第二特征用于表征对战场景中的多个对象在虚拟环境的缩略地图中的分布情况。
8023、目标图像帧中包括虚拟环境中的至少一个对象,处理装置根据至少一个对象在目标图像帧中的位置,确定至少一个对象的位置特征,将至少一个对象的位置特征进行组合,得到第三特征。
在获取目标图像帧后,根据该目标图像帧中的至少一个对象以及该至少一个对象在目标图像帧中的位置,确定该至少一个对象的位置特征,并将该至少一个对象的位置特征进行组合,得到第三特征,该第三特征用于表征目标图像帧中至少一个对象的分布情况,也即是目标图像帧对应的角色对象的视野范围内至少一个对象的分布情况。
8024、处理装置根据参与交互活动的第一群组和第二群组中每个角色对象和每个防御塔的操作数据,获取第四特征。
参与交互活动的第一群组和第二群组中包括多个角色对象、防御塔以及其他对象,该交互活动为第一群组中的多个对象与第二群组中的多个对象之间进行交互的活动,处理装置获取操作数据,该操作数据包括多个对象的操作数据,用于记录该多个对象在交互活动中执行的操作。
根据上述操作数据,采用以下公式,得到第四特征:
Figure BDA0001878025510000201
Figure BDA0001878025510000202
Figure BDA0001878025510000211
其中,u为虚拟环境中的任一个角色对象,dpf(u)为角色对象u的伤害值,damageu为在目标图像帧中角色对象u执行的普通攻击操作的伤害值,cooldownu为普通攻击操作的冷却时间,atk_spdu为普通攻击操作的速度加成的万分比,wi(u)为在目标图像帧中角色对象u执行的第i个技能操作,damage(wi(u))为技能操作的伤害值,cooldown(wi(u))为技能操作的冷却时间。
t为虚拟环境中的任一个防御塔,dpf(t)为防御塔t的伤害值,damaget为在目标图像帧中防御塔t执行的普通攻击操作的伤害值,cooldownt为普通攻击操作的冷却时间,atk_spdt为防御塔t执行的普通攻击操作的速度加成的万分比。
LTD为第四特征,U1为目标图像帧中第一群组的角色对象集合,T1为目标图像帧中第一群组的防御塔集合,U2为目标图像帧中第二群组的角色对象集合,T2为目标图像帧中第二群组的防御塔集合,hp(x)为对象x的生命值。
803、处理装置获取对战结果输出模型。
其中,该对战结果输出模型用于确定对战场景的对战结果,该对战结果用于表示在当前对战场景中,参与对战的群组能否获胜。
804、处理装置将交互特征输入至对战结果输出模型中,基于对战结果输出模型确定对战场景的对战结果。
处理装置在获取到交互特征之后,将该交互特征输入至对战结果输出模型中,并基于该对战结果输出模型确定当前对战场景的对战结果,该对战结果用于表示在当前对战场景中,参与对战的目标角色对象能否获胜。
在一种可能实现的方式中,对战结果可以为第一对战结果、第二对战结果或第三对战结果中的一种,其中第一对战结果表示当前对战场景中,目标角色对象所属的群组获胜,第二对战结果表示当前对战场景中目标角色对象所属的群组失败,第三对战结果表示当前对战场景中目标角色对象所属的群组与敌方对象所属的群组达成平局。
805、处理装置显示对战结果。
其中,该对战结果可以通过语音的形式显示,也可以以语音的形式显示,或者以文字的形式显示,或者还可以以概率曲线图的形式显示,并且显示内容也可以多种多样。
例如,当角色对象在一次对战场景中处于优势时,处理装置显示第一提示信息,该第一提示信息可以是“马上就要获胜了,全力开火”。当用户在一次对战场景中处于劣势时,处理装置显示第二提示信息,该第二提示信息可以是“坚持不下去了,赶紧撤退”。当用户在一次对战场景中处于均势时,处理装置显示第三提示信息,该第三提示信息可以是“与敌方势均力敌,请英雄自由发挥”。并且,该第一提示信息、第二提示信息以及第三提示信息可以为语音形式,在显示目标图像帧的同时,播放该语音消息,也可以在目标图像帧中以文字形式显示,供用户参考。
而后续过程中,参与对战的用户可以根据对战结果,控制目标角色对象执行不同的操作,如当目标角色对象在当前的对战场景中占据优势时,用户可以控制目标角色对象频繁执行普通攻击操作或释放技能操作,或者当目标角色对象在当前的对战场景中占据劣势时,用户可以控制目标角色对象可以执行移动操作进行躲闪或者执行撤退等操作。
参见图9,上述对战结果输出模型可以用于确定对战场景的对战结果,则随着时间的变化,能够重新预测当前对战场景的对战结果,获知当前的对战情况,并生成概率曲线图,该概率曲线图用于表示对战场景中每一时刻对应的对战结果,其中横轴为当前时刻与对战场景的起始时刻之间的时间间隔,纵轴为当前时刻对应的获胜概率,该获胜概率为目标角色对象所属群组在当前对战场景下的获胜概率。
本发明实施例提供的方法,通过获取到的目标图像帧对应的交互数据,在确定当前处于对战场景时,对交互数据进行特征提取得到交互特征,基于对战结果输出模型和交互特征,确定对战场景的对战结果。本方法可以有效地评估当前对战场景的交互情况,并通过训练对战结果输出模型来学习根据对战场景的交互情况确定对战结果的规律,提供了一种基于对战结果输出模型确定对战场景的对战结果的方案,能够根据局部的对战场景的交互数据确定对战结果,而不仅是根据全局的交互活动确定最终交互结果,考虑的交互数据更为细节,能够提供更小粒度的对战结果,为用户的后续操作提供指导。
并且,相关技术中会根据对象的位置预测最终游戏结果,但是由于表达的信息有限,因此当存在多个对象处于相同位置的情况下,只能考虑其中一个对象的位置,导致最终游戏结果不准确。而本发明实施例中,采用了更为细节的交互数据进行预测,位置划分的更为精细,尽可能避免出现多个对象出现的同一位置的情况,从而确定的对战结果更为准确。
本发明实施例中的处理装置可以作为一个机器人,参与到交互活动中,成为其中一个参与者。那么,对于该处理装置来说,当处于对战场景时,可以根据当前的交互情况预测当前交互场景的对战结果,后续可以根据该对战结果更好地思考局势并寻找应对策略。该处理装置也可以在多个真人用户参与交互活动的过程中,根据当前的交互情况,为该多个真人用户提供对战场景的对战结果,供真人用户参考。
或者,在多个用户使用处理装置进行对战时,解说员可以第三方的身份使用处理装置观察虚拟环境中的对战场景,当处理装置根据当前对战场景的交互数据确定对战结果后,后续解说员可以根据对战结果,对当前的对战场景进行解说。
综上所述,参见图10,本发明实施例所示的对战结果确定方法的操作流程可以包括以下两个阶段:
一、离线训练阶段,包括:
1、对战场景切分:输入样本交互活动的交互数据,根据预设条件找到起始图像帧和结束图像帧,根据起始图像帧和结束图像帧,从样本交互活动中找出对战场景。
2、对战结果统计:根据属于对战场景的多个图像帧以及该多个图像帧的交互数据,获取样本图像帧和对战场景的对战结果,并为样本图像帧标注对战结果。
3、交互特征提取:根据样本图像帧以及样本图像帧的交互数据,对该交互数据进行特征提取,得到交互特征。
4、模型训练:将样本图像帧的交互特征及对应的对战结果输入至对战结果输出模型中,得到对战结果输出模型。
二、在线预测阶段,包括:
1、对战场景判断:获取目标图像帧及其交互数据,当该交互数据中包括预设操作数据时,确定当前处于对战场景。
2、交互特征提取:根据目标图像帧以及目标图像帧的交互数据,对该交互数据进行特征提取,得到交互特征。
3、对战结果预测:将上述交互特征输入至对战结果输出模型中,得到当前所处的对战场景的对战结果。
图11是本发明实施例提供的一种对战结果确定装置的结构示意图。参见图11,该装置包括:
数据获取模块1101,用于执行上述实施例中获取目标图像帧对应的交互数据的步骤;
特征提取模块1102,用于执行上述实施例中当根据交互数据确定当前处于对战场景时,对交互数据进行特征提取,得到交互特征的步骤;
模型获取模块1103,用于执行上述实施例中获取对战结果输出模型的步骤;
确定模块1104,用于执行上述实施例中将交互特征输入至对战结果输出模型中,基于对战结果输出模型确定对战场景的对战结果的步骤。
可选地,装置还包括:
场景确定模块,用于执行上述实施例中当交互数据中包括预设操作数据时,确定当前处于对战场景的步骤。
可选地,装置还包括:
样本获取模块,用于执行上述实施例中获取样本交互活动中的多个图像帧以及多个图像帧对应的交互数据的步骤;
样本确定模块,用于执行上述实施例中根据多个图像帧以及对应的交互数据,确定样本交互活动中至少一个对战场景的样本图像帧,以及至少一个对战场景的对战结果的步骤;
样本提取模块,用于执行上述实施例中对至少一个对战场景的样本图像帧对应的交互数据进行特征提取,得到交互特征的步骤;
训练模块,用于执行上述实施例中根据交互特征以及对应的对战结果进行训练,得到对战结果输出模型的步骤。
可选地,样本确定模块包括:
提取单元,用于执行上述实施例中根据多个图像帧对应的交互数据,从多个图像帧中提取至少一个对战场景的步骤;
统计单元,用于执行上述实施例中对于每个对战场景,从对战场景的多个图像帧中选取样本图像帧,并根据对战场景的交互数据进行统计,得到对战场景的对战结果的步骤。
可选地,提取单元还用于执行上述实施例中根据多个图像帧对应的交互数据,将多个图像帧中满足预设起始条件的图像帧确定为起始图像帧;根据多个图像帧对应的交互数据,将多个图像帧中满足预设结束条件的图像帧确定为结束图像帧;对于每个起始图像帧,将起始图像帧、起始图像帧之后的第一个结束图像帧、起始图像帧与第一个结束图像帧之间的图像帧划分为同一对战场景的步骤。
可选地,预设起始条件为当前图像帧中包含敌方对象,且上一个图像帧中不包含敌方对象;
预设结束条件为当前图像帧中包含敌方对象,且下一个图像帧不包含敌方对象;
其中,敌方对象为与当前图像帧的角色对象属于不同群组的对象。
可选地,提取单元还用于执行上述实施例中确定起始图像帧与第一个结束图像帧之间的中间图像帧对应的交互数据的步骤;
提取单元还用于执行上述实施例中当中间图像帧对应的交互数据中包括预设操作数据时,将起始图像帧、第一个结束图像帧以及中间图像帧划分为同一对战场景的步骤。
可选地,每个图像帧对应的交互数据包括第一样本群组和第二样本群组在多个维度上的状态数据,第一样本群组和第二样本群组分别包括多个对象;
统计单元还用于执行上述实施例中根据交互数据,统计对战场景中第一样本群组在指定维度上的状态数据,得到第一统计值;根据交互数据,统计对战场景中第二样本群组在指定维度上的状态数据,得到第二统计值;将第一统计值与第二统计值进行对比,确定对战结果的步骤。
可选地,特征提取模块1102包括第一特征提取单元、第二特征提取单元或第三特征提取单元中的至少一项:
交互数据包括虚拟环境中多个角色对象的属性数据,第一特征提取单元,用于执行上述实施例中将多个角色对象的属性数据对应的属性特征进行组合,得到第一特征的步骤;
目标图像帧中包括虚拟环境的缩略地图,第二特征提取单元,用于执行上述实施例中根据多个对象在缩略地图中的位置,确定多个对象的位置特征,将多个对象的位置特征进行组合,得到第二特征的步骤;
目标图像帧中包括虚拟环境中的至少一个对象,第三特征提取单元,用于执行上述实施例中根据至少一个对象在目标图像帧中的位置,确定至少一个对象的位置特征,将至少一个对象的位置特征进行组合,得到第三特征的步骤。
可选地,特征提取模块1102还包括:
第四特征提取单元,用于执行上述实施例中根据参与交互活动的第一群组和第二群组中每个角色对象和每个防御塔的操作数据,采用以下公式,获取第四特征的步骤:
Figure BDA0001878025510000261
Figure BDA0001878025510000262
Figure BDA0001878025510000263
其中,u为所述虚拟环境中的任一个角色对象,dpf(u)为所述角色对象u的伤害值,damageu为在所述目标图像帧中所述角色对象u执行的普通攻击操作的伤害值,cooldownu为所述普通攻击操作的冷却时间,atk_spdu为所述普通攻击操作的速度加成的万分比,wi(u)为在所述目标图像帧中所述角色对象u执行的第i个技能操作,damage(wi(u))为所述技能操作的伤害值,cooldown(wi(u))为所述技能操作的冷却时间;
t为所述虚拟环境中的任一个防御塔,dpf(t)为所述防御塔t的伤害值,damaget为在所述目标图像帧中所述防御塔t执行的普通攻击操作的伤害值,cooldownt为所述普通攻击操作的冷却时间,atk_spdt为所述防御塔t执行的普通攻击操作的速度加成的万分比;
LTD为所述第四特征,U1为所述目标图像帧中所述第一群组的角色对象集合,T1为所述目标图像帧中所述第一群组的防御塔集合,U2为所述目标图像帧中所述第二群组的角色对象集合,T2为所述目标图像帧中所述第二群组的防御塔集合,hp(x)为对象x的生命值。
需要说明的是:上述实施例提供的对战结果确定装置在进行对战结果确定时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将训练装置或处理装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的对战结果确定装置与对战结果确定方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图12示出了本发明一个示例性实施例提供的终端1200的结构示意图。该终端1200可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑、台式电脑、头戴式设备,或其他任意智能终端。终端1200还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1200包括有:处理器1201和存储器1202。
处理器1201可以包括一个或多个处理核心,比如4核心处理器、5核心处理器等。处理器1201可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1201也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1201可以在集成有GPU(Graphics Processing Unit,图像处理的交互器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1201还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1202可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1202还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1202中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1201所具有以实现本申请中方法实施例提供的对战结果确定方法。
在一些实施例中,终端1200还可选包括有:***设备接口1203和至少一个***设备。处理器1201、存储器1202和***设备接口1203之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口1203相连。具体地,***设备包括:射频电路1204、触摸显示屏1205、摄像头1206、音频电路1207、定位组件1208和电源1209中的至少一种。
***设备接口1203可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器1201和存储器1202。在一些实施例中,处理器1201、存储器1202和***设备接口1203被集成在同一芯片或电路板上;在一些其他实施例中,处理器1201、存储器1202和***设备接口1203中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1204用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1204通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1204将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1204包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1204可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及8G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1204还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1205用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1205是触摸显示屏时,显示屏1205还具有采集在显示屏1205的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1201进行处理。此时,显示屏1205还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1205可以为一个,设置终端1200的前面板;在另一些实施例中,显示屏1205可以为至少两个,分别设置在终端1200的不同表面或呈折叠设计;在再一些实施例中,显示屏1205可以是柔性显示屏,设置在终端1200的弯曲表面上或折叠面上。甚至,显示屏1205还可以设置成非矩形的不规则图形,也即异形屏。显示屏1205可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1206用于采集图像或视频。可选地,摄像头组件1206包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1206还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1207可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1201进行处理,或者输入至射频电路1204以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1200的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1201或射频电路1204的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1207还可以包括耳机插孔。
定位组件1208用于定位终端1200的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件1208可以是基于美国的GPS(GlobalPositioning System,全球定位***)、中国的北斗***、俄罗斯的格雷纳斯***或欧盟的伽利略***的定位组件。
电源1209用于为终端1200中的各个组件进行供电。电源1209可以是交流电、直流电、一次性电池或可充电电池。当电源1209包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1200还包括有一个或多个传感器1210。该一个或多个传感器1210包括但不限于:加速度传感器1211、陀螺仪传感器1212、压力传感器1213、指纹传感器1214、光学传感器1215以及接近传感器1216。
加速度传感器1211可以检测以终端1200建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1211可以用于检测重力加速度在三个坐标轴上的分量。处理器1201可以根据加速度传感器1211采集的重力加速度信号,控制触摸显示屏1205以横向视图或纵向视图进行用户界面的显示。加速度传感器1211还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1212可以检测终端1200的机体方向及转动角度,陀螺仪传感器1212可以与加速度传感器1211协同采集用户对终端1200的3D动作。处理器1201根据陀螺仪传感器1212采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1213可以设置在终端1200的侧边框和/或触摸显示屏1205的下层。当压力传感器1213设置在终端1200的侧边框时,可以检测用户对终端1400的握持信号,由处理器1201根据压力传感器1213采集的握持信号进行左右手识别或快捷操作。当压力传感器1213设置在触摸显示屏1405的下层时,由处理器1201根据用户对触摸显示屏1205的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1214用于采集用户的指纹,由处理器1201根据指纹传感器1414采集到的指纹识别用户的身份,或者,由指纹传感器1214根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1201授权该用户具有相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1214可以被设置终端1200的正面、背面或侧面。当终端1200上设置有物理按键或厂商Logo时,指纹传感器1214可以与物理按键或厂商标志集成在一起。
光学传感器1215用于采集环境光强度。在一个实施例中,处理器1201可以根据光学传感器1215采集的环境光强度,控制触摸显示屏1205的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1205的显示亮度;当环境光强度较低时,调低触摸显示屏1205的显示亮度。在另一个实施例中,处理器1201还可以根据光学传感器1215采集的环境光强度,动态调整摄像头组件1206的拍摄参数。
接近传感器1216,也称距离传感器,通常设置在终端1200的前面板。接近传感器1216用于采集用户与终端1200的正面之间的距离。在一个实施例中,当接近传感器1216检测到用户与终端1200的正面之间的距离逐渐变小时,由处理器1201控制触摸显示屏1205从亮屏状态切换为息屏状态;当接近传感器1216检测到用户与终端1200的正面之间的距离逐渐变大时,由处理器1201控制触摸显示屏1205从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图12中示出的结构并不构成对终端1200的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图13是本发明实施例提供的一种服务器的结构示意图,该服务器1300可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processingunits,CPU)1301和一个或一个以上的存储器1302,其中,所述存储器1302中存储有至少一条指令,所述至少一条指令由所述处理器1301加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器还可以包括其他用于实现设备功能的部件,在此不做赘述。
服务器1300可以用于执行上述对战结果确定方法中处理装置所执行的步骤。
本发明实施例还提供了一种用于确定对战结果的装置,该装置包括处理器和存储器,存储器中存储有至少一条指令、至少一段程序、代码集或指令集,指令、程序、代码集或指令集由处理器加载并具有以实现上述实施例的对战结果确定方法中所具有的操作。
本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该指令、该程序、该代码集或该指令集由处理器加载并具有以实现上述实施例的对战结果确定方法中所具有的操作。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明实施例的较佳实施例,并不用以限制本发明实施例,凡在本发明实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (15)

1.一种对战结果确定方法,其特征在于,所述方法包括:
获取目标图像帧对应的交互数据,所述目标图像帧用于显示目标角色对象当前的视野范围内的虚拟环境,所述交互数据用于表示所述虚拟环境当前的交互情况;
当根据所述交互数据确定当前处于对战场景时,对所述交互数据进行特征提取,得到交互特征;
获取对战结果输出模型,所述对战结果输出模型用于确定对战场景的对战结果;
将所述交互特征输入至所述对战结果输出模型中,基于所述对战结果输出模型确定所述对战场景的对战结果。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当所述交互数据中包括预设操作数据时,确定当前处于对战场景,所述预设操作数据为记录所述目标图像帧中发生预设对战操作的数据。
3.根据权利要求1所述的方法,其特征在于,所述获取对战结果输出模型之前,所述方法还包括:
获取样本交互活动中的多个图像帧以及所述多个图像帧对应的交互数据,所述多个图像帧对应的交互数据用于表示所述虚拟环境在所述样本交互活动进行过程中的交互情况;
根据所述多个图像帧以及对应的交互数据,确定所述样本交互活动中至少一个对战场景的样本图像帧,以及所述至少一个对战场景的对战结果,所述对战场景的样本图像帧从属于所述对战场景的多个图像帧中选取;
对所述至少一个对战场景的样本图像帧对应的交互数据进行特征提取,得到交互特征;
根据所述交互特征以及对应的对战结果进行训练,得到所述对战结果输出模型。
4.根据权利要求3所述的方法,其特征在于,所述根据所述多个图像帧以及对应的交互数据,确定所述样本交互活动中至少一个对战场景的样本图像帧,以及所述至少一个对战场景的对战结果,包括:
根据所述多个图像帧对应的交互数据,从所述多个图像帧中提取至少一个对战场景,每个对战场景中包括多个图像帧;
对于所述每个对战场景,从所述对战场景的多个图像帧中选取样本图像帧,并根据所述对战场景的交互数据进行统计,得到所述对战场景的对战结果。
5.根据权利要求4所述的方法,其特征在于,所述根据所述多个图像帧对应的交互数据,从所述多个图像帧中提取至少一个对战场景,包括:
根据所述多个图像帧对应的交互数据,将所述多个图像帧中满足预设起始条件的图像帧确定为起始图像帧;
根据所述多个图像帧对应的交互数据,将所述多个图像帧中满足预设结束条件的图像帧确定为结束图像帧;
对于每个起始图像帧,将所述起始图像帧、所述起始图像帧之后的第一个结束图像帧、所述起始图像帧与所述第一个结束图像帧之间的图像帧划分为同一对战场景。
6.根据权利要求5所述的方法,其特征在于,所述预设起始条件为当前图像帧中包含敌方对象,且上一个图像帧中不包含敌方对象;
所述预设结束条件为当前图像帧中包含敌方对象,且下一个图像帧不包含敌方对象;
其中,所述敌方对象为与所述当前图像帧的角色对象属于不同群组的对象。
7.根据权利要求5所述的方法,其特征在于,所述将所述起始图像帧、所述起始图像帧之后的第一个结束图像帧、所述起始图像帧与所述第一个结束图像帧之间的中间图像帧划分为同一对战场景,包括:
确定所述起始图像帧与所述第一个结束图像帧之间的中间图像帧对应的交互数据;
当所述中间图像帧对应的交互数据中包括预设操作数据时,将所述起始图像帧、所述第一个结束图像帧以及所述中间图像帧划分为同一对战场景,所述预设操作数据为记录对应的图像帧中发生预设对战操作的数据。
8.根据权利要求4所述的方法,其特征在于,每个图像帧对应的交互数据包括第一样本群组和第二样本群组在多个维度上的状态数据,所述第一样本群组和所述第二样本群组分别包括多个对象;
所述根据所述对战场景的交互数据进行统计,得到所述对战场景的对战结果,包括:
根据所述交互数据,统计所述对战场景中所述第一样本群组在指定维度上的状态数据,得到第一统计值;
根据所述交互数据,统计所述对战场景中所述第二样本群组在所述指定维度上的状态数据,得到第二统计值;
将所述第一统计值与所述第二统计值进行对比,确定所述对战结果,所述对战结果为所述第一样本群组获胜,或者所述第二样本群组获胜,或者所述第一样本群组与所述第二样本群组平局。
9.根据权利要求1所述的方法,其特征在于,所述虚拟环境中包括多个对象,所述对所述交互数据进行特征提取,得到交互特征,包括以下至少一项:
所述交互数据包括所述虚拟环境中多个角色对象的属性数据,将所述多个角色对象的属性数据对应的属性特征进行组合,得到第一特征;
所述目标图像帧中包括所述虚拟环境的缩略地图,根据所述多个对象在所述缩略地图中的位置,确定所述多个对象的位置特征,将所述多个对象的位置特征进行组合,得到第二特征,所述第二特征用于表征在所述缩略地图中的对象分布情况;
所述目标图像帧中包括所述虚拟环境中的至少一个对象,根据所述至少一个对象在所述目标图像帧中的位置,确定所述至少一个对象的位置特征,将所述至少一个对象的位置特征进行组合,得到第三特征,所述第三特征用于表征在所述目标角色对象的视野范围内的对象分布情况。
10.根据权利要求9所述的方法,其特征在于,所述对所述交互数据进行特征提取,得到交互特征,还包括:
根据参与交互活动的第一群组和第二群组中每个角色对象和每个防御塔的操作数据,采用以下公式,获取第四特征:
Figure FDA0003370373040000041
Figure FDA0003370373040000042
Figure FDA0003370373040000043
其中,u为所述虚拟环境中的任一个角色对象,dpf(u)为所述角色对象u的伤害值,damageu为在所述目标图像帧中所述角色对象u执行的普通攻击操作的伤害值,cooldownu为所述普通攻击操作的冷却时间,atk_spdu为所述普通攻击操作的速度加成的万分比,wi(u)为在所述目标图像帧中所述角色对象u执行的第i个技能操作,damage(wi(u))为所述技能操作的伤害值,cooldown(wi(u))为所述技能操作的冷却时间;
t为所述虚拟环境中的任一个防御塔,dpf(t)为所述防御塔t的伤害值,damaget为在所述目标图像帧中所述防御塔t执行的普通攻击操作的伤害值,cooldownt为所述普通攻击操作的冷却时间,atk_spdt为所述防御塔t执行的普通攻击操作的速度加成的万分比;
LTD为所述第四特征,U1为所述目标图像帧中所述第一群组的角色对象集合,T1为所述目标图像帧中所述第一群组的防御塔集合,U2为所述目标图像帧中所述第二群组的角色对象集合,T2为所述目标图像帧中所述第二群组的防御塔集合,hp(x)为对象x的生命值。
11.一种对战结果确定装置,其特征在于,所述装置包括:
数据获取模块,用于获取目标图像帧对应的交互数据,所述目标图像帧用于显示目标角色对象当前的视野范围内的虚拟环境,所述交互数据用于表示所述虚拟环境当前的交互情况;
特征提取模块,用于当根据所述交互数据确定当前处于对战场景时,对所述交互数据进行特征提取,得到交互特征;
模型获取模块,用于获取对战结果输出模型,所述对战结果输出模型用于确定对战场景的对战结果;
确定模块,用于将所述交互特征输入至所述对战结果输出模型中,基于所述对战结果输出模型确定所述对战场景的对战结果。
12.根据权利要求11所述的装置,其特征在于,所述装置还包括:
场景确定模块,用于当所述交互数据中包括预设操作数据时,确定当前处于对战场景,所述预设操作数据为记录所述目标图像帧中发生预设对战操作的数据。
13.根据权利要求11所述的装置,其特征在于,所述装置还包括:
样本获取模块,用于获取样本交互活动中的多个图像帧以及所述多个图像帧对应的交互数据,所述多个图像帧对应的交互数据用于表示所述虚拟环境在所述样本交互活动进行过程中的交互情况;
样本确定模块,用于根据所述多个图像帧以及对应的交互数据,确定所述样本交互活动中至少一个对战场景的样本图像帧,以及所述至少一个对战场景的对战结果,所述对战场景的样本图像帧从属于所述对战场景的多个图像帧中选取;
样本提取模块,用于对所述至少一个对战场景的样本图像帧对应的交互数据进行特征提取,得到交互特征;
训练模块,用于根据所述交互特征以及对应的对战结果进行训练,得到所述对战结果输出模型。
14.一种对战结果确定装置,其特征在于,所述装置包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述指令、所述程序、所述代码集或所述指令集由所述处理器加载并执行以实现如权利要求1至10任一权利要求所述的对战结果确定方法中所执行的操作。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述指令、所述程序、所述代码集或所述指令集由处理器加载并执行以实现如权利要求1至10任一权利要求所述的对战结果确定方法中所执行的操作。
CN201811408864.1A 2018-11-23 2018-11-23 对战结果确定方法、装置及存储介质 Active CN109529356B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811408864.1A CN109529356B (zh) 2018-11-23 2018-11-23 对战结果确定方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811408864.1A CN109529356B (zh) 2018-11-23 2018-11-23 对战结果确定方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN109529356A CN109529356A (zh) 2019-03-29
CN109529356B true CN109529356B (zh) 2022-02-18

Family

ID=65849829

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811408864.1A Active CN109529356B (zh) 2018-11-23 2018-11-23 对战结果确定方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN109529356B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110064205B (zh) * 2019-04-24 2023-02-17 腾讯科技(深圳)有限公司 用于游戏的数据处理方法、设备和介质
CN110119547B (zh) * 2019-04-28 2021-07-30 腾讯科技(深圳)有限公司 一种预测团战胜负的方法、装置及控制设备
CN110180176B (zh) * 2019-06-06 2021-10-29 腾讯科技(深圳)有限公司 战报展示界面的显示方法、装置、设备及可读存储介质
CN110442148B (zh) * 2019-07-26 2022-06-14 上海歌尔泰克机器人有限公司 无人机对战信息的获取方法及无人机对战***
CN110613938B (zh) * 2019-10-18 2023-04-11 腾讯科技(深圳)有限公司 控制虚拟对象使用虚拟道具的方法、终端及存储介质
CN111228812B (zh) * 2020-01-08 2021-08-10 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端及存储介质
CN111467798B (zh) * 2020-04-01 2021-09-21 腾讯科技(深圳)有限公司 游戏应用程序中的帧显示方法、装置、终端和存储介质
CN113769400A (zh) * 2021-09-17 2021-12-10 网易(杭州)网络有限公司 一种游戏中对战的提示方法、装置、电子设备及存储介质
CN114444716A (zh) * 2022-01-06 2022-05-06 中国电子科技集团公司电子科学研究院 虚拟环境下的多智能体博弈训练方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013100364A1 (ko) * 2011-12-28 2013-07-04 (주)네오위즈게임즈 온라인 게임에서의 예상 결과 정보를 표시하는 방법 및 서버
CN104899413A (zh) * 2015-04-14 2015-09-09 湘潭大学 基于最大熵模型的团体比赛结果预测方法
CN107145596A (zh) * 2017-05-31 2017-09-08 南京理工大学 基于深度神经网络的电子竞技比赛胜负预测方法
CN107998661A (zh) * 2017-12-26 2018-05-08 苏州大学 一种在线对战游戏的辅助决策方法、装置及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9468849B2 (en) * 2013-07-31 2016-10-18 Gree, Inc. Non-transitory computer readable recording medium, game server, game control method, and game system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013100364A1 (ko) * 2011-12-28 2013-07-04 (주)네오위즈게임즈 온라인 게임에서의 예상 결과 정보를 표시하는 방법 및 서버
CN104899413A (zh) * 2015-04-14 2015-09-09 湘潭大学 基于最大熵模型的团体比赛结果预测方法
CN107145596A (zh) * 2017-05-31 2017-09-08 南京理工大学 基于深度神经网络的电子竞技比赛胜负预测方法
CN107998661A (zh) * 2017-12-26 2018-05-08 苏州大学 一种在线对战游戏的辅助决策方法、装置及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Modelling Attribute Dependencies in Single Unit Game Combat Settings;Shaun Bangay等;《2013 IEEE International Games Innovation Conference (IGIC)》;20131111;全文 *
Predicting e-sports winners with machine learning;Bowen Yang;《https://blog.insightdatascience.com/hero2vec-d42d6838c941?gi=7d8fc38e8272》;20180303;全文 *

Also Published As

Publication number Publication date
CN109529356A (zh) 2019-03-29

Similar Documents

Publication Publication Date Title
CN109529356B (zh) 对战结果确定方法、装置及存储介质
CN111589142B (zh) 虚拟对象的控制方法、装置、设备及介质
CN110585710B (zh) 互动道具控制方法、装置、终端及存储介质
CN109445662B (zh) 虚拟对象的操作控制方法、装置、电子设备及存储介质
CN110917619B (zh) 互动道具控制方法、装置、终端及存储介质
CN111013142B (zh) 互动效果显示方法、装置、计算机设备及存储介质
WO2021184806A1 (zh) 互动道具显示方法、装置、终端及存储介质
CN110917623B (zh) 互动信息显示方法、装置、终端及存储介质
CN111589136B (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
CN113289331B (zh) 虚拟道具的显示方法、装置、电子设备及存储介质
CN112076469A (zh) 虚拟对象的控制方法、装置、存储介质及计算机设备
CN111672106B (zh) 虚拟场景显示方法、装置、计算机设备及存储介质
CN110755844B (zh) 技能激活方法、装置、电子设备及存储介质
CN110585706B (zh) 互动道具控制方法、装置、终端及存储介质
CN114339368A (zh) 赛事直播的显示方法、装置、设备及存储介质
CN113680060B (zh) 虚拟画面显示方法、装置、设备、介质及计算机程序产品
CN113058264A (zh) 虚拟场景的显示方法、虚拟场景的处理方法、装置及设备
CN111672118A (zh) 虚拟对象的瞄准方法、装置、设备及介质
CN112569607A (zh) 预购道具的显示方法、装置、设备及介质
CN113144597A (zh) 虚拟载具的显示方法、装置、设备以及存储介质
CN111330278B (zh) 基于虚拟环境的动画播放方法、装置、设备及介质
CN111544897A (zh) 基于虚拟场景的视频片段显示方法、装置、设备及介质
CN111651616B (zh) 多媒体资源的生成方法、装置、设备及介质
CN113813606A (zh) 虚拟场景显示方法、装置、终端及存储介质
CN112704875A (zh) 虚拟道具控制方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant