CN112121414A - 虚拟场景中的追踪方法、装置、电子设备及存储介质 - Google Patents

虚拟场景中的追踪方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN112121414A
CN112121414A CN202011057660.5A CN202011057660A CN112121414A CN 112121414 A CN112121414 A CN 112121414A CN 202011057660 A CN202011057660 A CN 202011057660A CN 112121414 A CN112121414 A CN 112121414A
Authority
CN
China
Prior art keywords
tracking
virtual object
prop
virtual
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011057660.5A
Other languages
English (en)
Other versions
CN112121414B (zh
Inventor
姚丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202011057660.5A priority Critical patent/CN112121414B/zh
Publication of CN112121414A publication Critical patent/CN112121414A/zh
Application granted granted Critical
Publication of CN112121414B publication Critical patent/CN112121414B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请提供了一种虚拟场景中的追踪方法、装置、电子设备及计算机可读存储介质;方法包括:在人机交互界面中呈现虚拟场景、以及追踪道具的投掷操作控件;响应于针对所述投掷操作控件的触发操作,控制第一虚拟对象在所述虚拟场景中投掷所述追踪道具;当所述追踪道具到达目标位置并释放特效时,检测特效释放范围内包括的至少一个第二虚拟对象;获取所述至少一个第二虚拟对象在所述虚拟场景中的实时位置,在所述第一虚拟对象的追踪界面中,呈现所述至少一个第二虚拟对象的实时位置。通过本申请,能够实现灵活的按需跟踪虚拟对象的效果,有效节省计算资源。

Description

虚拟场景中的追踪方法、装置、电子设备及存储介质
技术领域
本申请涉及人机交互技术,尤其涉及一种虚拟场景中的追踪方法、装置、电子设备及计算机可读存储介质。
背景技术
随着基于图形处理硬件的显示技术日渐成熟,扩展了感知环境以及获取信息的渠道,尤其是虚拟场景的显示技术,能够根据实际需求实现受控于用户或人工智能(Artificial Intelligence,AI)的虚拟对象之间的多样化的交互,具有各种典型的应用场景,例如在军事仿真或战术竞技游戏等虚拟场景中,能够模拟虚拟对象之间的对战过程。
在相关技术提供的方案中,提供针对虚拟场景中虚拟对象统一的位置追踪功能,即在任意一个虚拟对象的小地图中显示其他虚拟对象在虚拟场景中的位置,这种方式无法适配虚拟场景中对于不同对象的个性化的位置追踪需求,并且由于需要不断计算每个虚拟对象在虚拟场景中的位置,对电子设备的计算资源造成了较大的消耗,尤其是对于大型的虚拟场景,频繁的位置计算会影响虚拟场景响应人机交互的实时性能。
发明内容
本申请实施例提供一种虚拟场景中的追踪方法、装置、电子设备及计算机可读存储介质,能够实现灵活的获取虚拟对象的位置的途径。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种虚拟场景中的追踪方法,包括:
在人机交互界面中呈现虚拟场景、以及追踪道具的投掷操作控件;
响应于针对所述投掷操作控件的触发操作,控制第一虚拟对象在所述虚拟场景中投掷所述追踪道具;
当所述追踪道具到达目标位置并释放特效时,检测特效释放范围内包括的至少一个第二虚拟对象;
获取所述至少一个第二虚拟对象在所述虚拟场景中的实时位置,在所述第一虚拟对象的追踪界面中,呈现所述至少一个第二虚拟对象的实时位置。
本申请实施例提供一种虚拟场景中的追踪装置,包括:
场景呈现模块,用于在人机交互界面中呈现虚拟场景、以及追踪道具的投掷操作控件;
投掷模块,用于响应于针对所述投掷操作控件的触发操作,控制第一虚拟对象在所述虚拟场景中投掷所述追踪道具;
特效释放模块,用于当所述追踪道具到达目标位置并释放特效时,检测特效释放范围内包括的至少一个第二虚拟对象;
位置呈现模块,用于获取所述至少一个第二虚拟对象在所述虚拟场景中的实时位置,在所述第一虚拟对象的追踪界面中,呈现所述至少一个第二虚拟对象的实时位置。
本申请实施例提供一种电子设备,包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现本申请实施例提供的虚拟场景中的追踪方法。
本申请实施例提供一种计算机可读存储介质,存储有可执行指令,用于引起处理器执行时,实现本申请实施例提供的虚拟场景中的追踪方法。
本申请实施例具有以下有益效果:
在虚拟场景中将追踪道具的特效释放范围包括的对象识别为需要进行位置跟踪的对象,从而实现了在虚拟场景中灵活的按需跟踪虚拟对象的效果,适应了虚拟场景中个性跟踪不同虚拟对象的需求,相较于对虚拟对象中所有虚拟对象的位置进行计算,有效节约了计算资源,进而提升了虚拟场景响应人机交互操作的实时性。
附图说明
图1是本申请实施例提供的虚拟场景中的追踪***的一个架构示意图;
图2A是本申请实施例提供的终端设备的一个架构示意图;
图2B是本申请实施例提供的人机交互引擎的一个架构示意图;
图3A是本申请实施例提供的虚拟场景中的追踪方法的一个流程示意图;
图3B是本申请实施例提供的虚拟场景中的追踪方法的一个流程示意图;
图3C是本申请实施例提供的虚拟场景中的追踪方法的一个流程示意图;
图3D是本申请实施例提供的虚拟场景中的追踪方法的一个流程示意图;
图3E是本申请实施例提供的虚拟场景中的追踪方法的一个流程示意图;
图4是本申请实施例提供的虚拟场景中的追踪方法的一个流程示意图;
图5是本申请实施例提供的战术装备界面的一个示意图;
图6是本申请实施例提供的包括切换操作控件的游戏界面的一个示意图;
图7是本申请实施例提供的包括投掷操作控件的游戏界面的一个示意图;
图8是本申请实施例提供的包括模拟投掷轨迹的游戏界面的一个示意图;
图9是本申请实施例提供的模拟投掷轨迹的绘制界面的一个示意图;
图10是本申请实施例提供的碰撞盒的配置参数界面的一个示意图;
图11是本申请实施例提供的包括感染范围的游戏界面的一个示意图;
图12是本申请实施例提供的感染范围的一个示意图;
图13是本申请实施例提供的包括被感染敌人的位置的小地图的一个示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
在以下的描述中,所涉及的术语“第一\第二\第三”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。在以下的描述中,所涉及的术语“多个”是指至少两个。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)虚拟场景:利用设备输出的区别于现实世界的场景,通过裸眼或设备的辅助能够形成对虚拟场景的视觉感知,例如通过显示屏幕输出的二维影像,通过立体投影、虚拟现实和增强现实技术等立体显示技术来输出的三维影像;此外,还可以通过各种可能的硬件形成听觉感知、触觉感知、嗅觉感知和运动感知等各种模拟现实世界的感知。虚拟场景可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟环境,还可以是纯虚构的虚拟环境。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本申请实施例对虚拟场景的维度不加以限定。例如,虚拟场景可以包括天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素,虚拟对象可以在用户或AI的控制下,在该虚拟场景中进行运动或执行其他操作(如攻击操作)。
2)响应于:用于表示所执行的操作所依赖的条件或者状态,当满足所依赖的条件或状态时,所执行的一个或多个操作可以是实时的,也可以具有设定的延迟;在没有特别说明的情况下,所执行的多个操作不存在执行先后顺序的限制。
3)客户端,终端设备中运行的用于提供各种服务的应用程序,例如射击游戏客户端等。
4)虚拟对象:虚拟场景中可以进行交互的各种人和物的形象,或在虚拟场景中的可活动对象。该可活动对象可以是虚拟人物、虚拟动物、动漫人物等,比如,在虚拟场景中显示的人物、动物、植物、油桶、墙壁、石块等。该虚拟对象可以是该虚拟场景中的一个虚拟的用于代表用户的虚拟形象。虚拟场景中可以包括多个虚拟对象,每个虚拟对象在虚拟场景中具有自身的形状和体积,占据虚拟场景中的一部分空间。
例如,该虚拟对象可以是通过客户端上的操作进行控制的用户角色,也可以是通过训练设置在虚拟场景对战中的人工智能(AI,Artificial Intelligence),还可以是设置在虚拟场景互动中的非用户角色(NPC,Non-Player Character)。例如,该虚拟对象可以是在虚拟场景中进行对抗式交互的虚拟人物。例如,该虚拟场景中参与互动的虚拟对象的数量可以是预先设置的,也可以是根据加入互动的客户端的数量动态确定的。
以射击类游戏为例,用户可以控制虚拟对象在该虚拟场景的天空中自由下落、滑翔或者打开降落伞进行下落等,在陆地上中跑动、跳动、爬行、弯腰前行等,也可以控制虚拟对象在海洋中游泳、漂浮或者下潜等,当然,用户也可以控制虚拟对象乘坐虚拟载具在该虚拟场景中进行运动,例如,该虚拟载具可以是虚拟汽车、虚拟飞行器、虚拟游艇等,在此仅以上述场景进行举例说明,本申请实施例对此不作具体限定。用户也可以控制虚拟对象通过虚拟道具与其他虚拟对象进行对抗式的交互,例如,该虚拟道具可以是手雷、集束雷、粘性手雷等投掷类虚拟道具,也可以是机枪、***、步枪等射击类虚拟道具,本申请对虚拟道具的类型不作具体限定。
5)追踪道具:指用于实现追踪功能的虚拟道具,本申请实施例对追踪道具的类型不做限定,可以是追踪手雷等投掷类的虚拟道具,也可以是追踪枪械、追踪子弹或追踪榴弹等射击类的虚拟道具。
本申请实施例提供一种虚拟场景中的追踪方法、装置、电子设备及计算机可读存储介质,能够扩展虚拟对象位置的获取途径,提升人机交互的体验。下面说明本申请实施例提供的电子设备的示例性应用,本申请实施例提供的电子设备可以实施为各种类型的终端设备,也可以实施为服务器。
参见图1,图1是本申请实施例提供的虚拟场景中的追踪***100的一个架构示意图,终端设备400通过网络300连接服务器200,网络300可以是广域网或者局域网,又或者是二者的组合。
在一些实施例中,以电子设备是终端设备为例,本申请实施例提供的虚拟场景中的追踪方法可以由终端设备实现,适用于一些完全依赖终端设备400本地的计算能力即可完成虚拟场景的相关数据计算的实际应用场景,例如单机版/离线模式的游戏通过终端设备400完成虚拟场景的输出。
当需要形成虚拟场景的视觉感知时,终端设备400通过图形计算硬件计算显示所需要的数据,并完成显示数据的加载、解析和渲染,在图形输出硬件输出能够对虚拟场景形成视觉感知的视频帧,例如,在智能手机的显示屏幕呈现二维的视频帧,或者,在增强现实/虚拟现实眼镜的镜片上投射实现三维显示效果的视频帧;此外,为了丰富感知效果,终端设备还可以借助不同的硬件来形成听觉感知(如借助麦克风)、触觉感知(如借助振动器)、运动感知和味觉感知的一种或多种。
作为示例,如图1所示,终端设备400运行客户端410(例如单机版游戏的应用程序),在客户端410的运行过程中输出虚拟场景500,虚拟场景500是供虚拟对象(如游戏角色)交互的环境,例如可以是用于供虚拟对象进行对战的平原、街道、山谷等等;虚拟场景500中包括第一虚拟对象510和追踪道具520,第一虚拟对象510可以是受用户(或称玩家)控制的游戏角色,即第一虚拟对象510受控于真实用户,将响应于真实用户针对控制器(包括触控屏、声控开关、键盘、鼠标和摇杆等)的操作而在虚拟场景中运动,例如当真实用户向左移动摇杆时,第一虚拟对象510将在虚拟场景中向左部运动,还可以保持原地静止、跳跃以及使用各种功能(如技能和道具),当然,第一虚拟对象510也可受控于AI;追踪道具520可以是在虚拟场景500中被第一虚拟对象510使用的对战工具,例如,第一虚拟对象510可以拾取虚拟场景中的追踪道具520,从而使用追踪道具520的功能进行游戏对局,此外,也可以在游戏对局开始之前,为第一虚拟对象510装备追踪道具520。
举例来说,当用户通过客户端410控制第一虚拟对象510投掷追踪道具520时,客户端410在人机交互界面中呈现追踪道具520运动的过程。当追踪道具520到达目标位置时,客户端410释放特效,检测特效释放范围内包括的至少一个第二虚拟对象,图1中以第二虚拟对象530为例,其中,第二虚拟对象530受控于真实用户或AI。然后,客户端410在第一虚拟对象510的追踪界面540中,呈现第二虚拟对象530的实时位置。这里,客户端410可以在追踪界面540中,持续呈现第一虚拟对象510自身的实时位置。
在一些实施例中,以电子设备是服务器为例,本申请实施例提供的虚拟场景中的追踪方法可以由服务器和终端设备协同实现,适用于依赖服务器200的计算能力完成虚拟场景计算、并在终端设备400输出虚拟场景的实际应用场景。
以形成虚拟场景的视觉感知为例,服务器200进行虚拟场景相关显示数据的计算并发送到终端设备400,终端设备400依赖于图形计算硬件完成计算显示数据的加载、解析和渲染,依赖于图形输出硬件输出虚拟场景以形成视觉感知。
终端设备400可以运行客户端410(例如网络版游戏的应用程序),通过连接游戏服务器(即服务器200),在人机交互界面中输出虚拟场景500,以与其他用户或服务器200的AI进行游戏互动。举例来说,当用户通过客户端410,在第一虚拟对象510上实施对追踪道具520的投掷操作控件的触发操作时,客户端410将接收到的触发操作通过网络300发送至服务器200,服务器200根据预先设定的投掷逻辑,将追踪道具520的运动轨迹发送至客户端410,以使客户端410显示追踪道具520沿运动轨迹进行运动的过程。服务器200在确定追踪道具520到达目标位置时,将释放特效的指令发送至客户端410,并检测特效释放范围内包括的至少一个第二虚拟对象,图1中以第二虚拟对象530为例。然后,服务器200可以将第二虚拟对象530的实时位置发送至客户端410,以使客户端410在追踪界面540(可以是小地图)中进行呈现。这里,服务器200也可以持续地将第一虚拟对象510自身的实时位置发送至客户端410,以使客户端410在追踪界面540中进行持续呈现。
值得说明的是,在图1中,虚拟场景500是以第一虚拟对象510的视角进行观察得到的,即为第一人称视角,但这并不构成对本申请实施例的限定,在实际应用场景中,虚拟场景500也可以是根据第三人称的视角进行观察得到的。
在一些实施例中,终端设备400可以通过运行计算机程序来实现本申请实施例提供的虚拟场景中的追踪方法,例如,计算机程序可以是操作***中的原生程序或软件模块;可以是本地(Native)应用程序(APP,Application),即需要在操作***中安装才能运行的程序,例如军事仿真程序、游戏应用程序(即上述的客户端410);也可以是小程序,即只需要下载到浏览器环境中就可以运行的程序;还可以是能够嵌入至任意APP中的游戏小程序。总而言之,上述计算机程序可以是任意形式的应用程序、模块或插件。对于游戏应用程序来说,其可以是第一人称射击(First-Person Shooting,FPS)游戏、第三人称射击(Third-Personal Shooting,TPS)游戏、多人在线战术竞技(MOBA,Multiplayer Online BattleArena)游戏或者多人枪战类生存游戏中的任意一种,对此不做限定。
例如,在军事仿真的场景中,追踪道具520可以用于模拟具有追踪功能的纳米机器人或其他军事装备。在确定出追踪道具520的特效释放范围包括的第二虚拟对象530后,将第二虚拟对象530的实时位置呈现于第一虚拟对象510的追踪界面540中,从而模拟纳米机器人附着在第二虚拟对象530上,并不断向外(即向第一虚拟对象510)发送实时位置数据的过程。
本申请实施例可以借助于云技术(Cloud Technology)实现,云技术是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。在另一种意义上,云技术也是基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、以及应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络***的后台服务需要大量的计算、存储资源。
在一些实施例中,服务器200可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式***,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器,例如,云服务可以是虚拟场景的服务,供终端设备400调用,以向终端设备400发送与虚拟场景相关的显示数据。终端设备400可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表以及智能电视等,但并不局限于此。终端设备400以及服务器200可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例中不做限制。
以本申请实施例提供的电子设备是终端设备为例说明,可以理解的,对于电子设备是服务器的情况,图2A中示出的结构中的部分(例如用户接口、呈现模块和输入处理模块)可以缺省。参见图2A,图2A是本申请实施例提供的终端设备400的结构示意图,图2A所示的终端设备400包括:至少一个处理器410、存储器450、至少一个网络接口420和用户接口430。终端设备400中的各个组件通过总线***440耦合在一起。可理解,总线***440用于实现这些组件之间的连接通信。总线***440除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2A中将各种总线都标为总线***440。
处理器410可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
用户接口430包括使得能够呈现媒体内容的一个或多个输出装置431,包括一个或多个扬声器和/或一个或多个视觉显示屏。用户接口430还包括一个或多个输入装置432,包括有助于用户输入的用户接口部件,比如键盘、鼠标、麦克风、触屏显示屏、摄像头、其他输入按钮和控件。
存储器450可以是可移除的,不可移除的或其组合。示例性的硬件设备包括固态存储器,硬盘驱动器,光盘驱动器等。存储器450可选地包括在物理位置上远离处理器410的一个或多个存储设备。
存储器450包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。非易失性存储器可以是只读存储器(ROM,Read Only Memory),易失性存储器可以是随机存取存储器(RAM,Random Access Memory)。本申请实施例描述的存储器450旨在包括任意适合类型的存储器。
在一些实施例中,存储器450能够存储数据以支持各种操作,这些数据的示例包括程序、模块和数据结构或者其子集或超集,下面示例性说明。
操作***451,包括用于处理各种基本***服务和执行硬件相关任务的***程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务;
网络通信模块452,用于经由一个或多个(有线或无线)网络接口420到达其他计算设备,示例性的网络接口420包括:蓝牙、无线相容性认证(WiFi)、和通用串行总线(USB,Universal Serial Bus)等;
呈现模块453,用于经由一个或多个与用户接口430相关联的输出装置431(例如,显示屏、扬声器等)使得能够呈现信息(例如,用于操作***设备和显示内容和信息的用户接口);
输入处理模块454,用于对一个或多个来自一个或多个输入装置432之一的一个或多个用户输入或互动进行检测以及翻译所检测的输入或互动。
在一些实施例中,本申请实施例提供的装置可以采用软件方式实现,图2A示出了存储在存储器450中的虚拟场景中的追踪装置455,其可以是程序和插件等形式的软件,包括以下软件模块:场景呈现模块4551、投掷模块4552、特效释放模块4553及位置呈现模块4554,这些模块是逻辑上的,因此根据所实现的功能可以进行任意的组合或进一步拆分。将在下文中说明各个模块的功能。
参见图2B,图2B是本申请实施例提供的虚拟场景中的追踪装置中的人机交互引擎的原理示意图,在虚拟场景是游戏虚拟场景的情况下,人机交互引擎可以是游戏引擎。游戏引擎是指一些已编写好的可编辑电脑游戏***或者一些交互式实时图像应用程序的核心组件,这些***为游戏设计者提供各种编写游戏所需的各种工具,其目的在于让游戏设计者能容易和快速地做出游戏程式而不用由零开始,同时,游戏引擎也是游戏的发动机,用于控制游戏的运行。游戏引擎包括但不限于渲染引擎(即“渲染器”,含二维图像引擎和三维图像引擎)、物理引擎、碰撞检测组件、特效、音效、脚本引擎、电脑动画、人工智能、网络引擎以及场景管理,在底层层面上,游戏引擎是一个能够被机器识别的代码(指令)集合。一个游戏应用程序可以包括游戏引擎和游戏资源两大部分,游戏资源包括图像、声音及动画等,游戏引擎则是按游戏设计的要求(即按照设计好的程序代码)有序地调用这些游戏资源。
本申请实施例提供的虚拟场景中的追踪方法,可以是由图2A中所示出的虚拟场景中的追踪装置455中的各个模块调用图2B所示出的游戏引擎的相关组件所实现的,下面进行示例说明。
例如,场景呈现模块4551用于调用游戏引擎中的用户界面组件,实现用户与游戏之间的交互,还调用游戏引擎中的模型组件制作二维或者三维模型,并在模型制作完毕之后,通过骨骼动画组件按照不同的面把材质贴图赋予模型,这相当于为骨骼蒙上皮肤,最后再通过渲染组件将模型、动画、光影、特效等所有效果实时计算出来并展示于人机交互界面中,如此,便可在人机交互界面中显示虚拟场景以及虚拟场景中包括的不同类型的内容,如虚拟对象、虚拟道具及建筑物等。
投掷模块4552用于响应于针对投掷操作控件的触发操作,呈现第一虚拟对象在虚拟场景中投掷追踪道具以使追踪道具运动的过程,其中,可以调用游戏引擎中的渲染组件,基于计算出的运动轨迹进行实时图像计算,并将追踪道具的运动过程展示于人机交互界面中。
特效释放模块4553用于调用游戏引擎中的相机组件以及碰撞检测组件,判断追踪道具是否到达目标位置。当追踪道具到达目标位置时,调用渲染组件进行特效渲染,以将特效展示于人机交互界面中。此外,特效释放模块4553还用于检测特效释放范围内包括的至少一个第二虚拟对象,例如可调用游戏引擎的底层算法组件,以判断除第一虚拟对象外的虚拟对象是否位于特效释放范围内。
位置呈现模块4554用于调用渲染组件,以将至少一个第二虚拟对象的实时位置,渲染至第一虚拟对象的追踪界面中。上述示例并不构成对本申请实施例的限定,游戏引擎包括的各个组件,以及虚拟场景中的追踪装置455中的各个模块对游戏引擎中的组件的调用关系,均可以根据实际应用场景进行调整。
将结合本申请实施例提供的电子设备的示例性应用和实施,说明本申请实施例提供的虚拟场景中的追踪方法。
参见图3A,图3A是本申请实施例提供的虚拟场景中的追踪方法的一个流程示意图,将结合图3A示出的步骤进行说明。
在步骤101中,在人机交互界面中呈现虚拟场景、以及追踪道具的投掷操作控件。
这里,在人机交互界面中呈现包括多个虚拟对象的虚拟场景,以人机交互界面为游戏应用程序的界面为例,则可以在游戏对局开始时,呈现包括多个虚拟对象(如游戏角色)的虚拟场景。为了便于区分,将通过终端设备所控制的游戏应用程序中的虚拟对象,命名为第一虚拟对象,则在呈现虚拟场景时,一种方式是呈现全量虚拟场景中以第一虚拟对象的视角(即第一人称视角)观察得到的部分虚拟场景;另一种方式是呈现全量虚拟场景中以第三人称的视角观察得到的部分虚拟场景,其中,在第三人称的视角中,第一虚拟对象是整体可见的。
在呈现虚拟场景时,还呈现第一虚拟对象所持有的追踪道具的投掷操作控件,本申请实施例对追踪道具的类型不做限定,例如可以是追踪手雷等投掷类的虚拟道具,也可以是追踪枪械或追踪子弹等射击类的虚拟道具(对于追踪道具是射击类的虚拟道具的情况,投掷操作控件可以更新为射击操作控件);对投掷操作控件的呈现形式也不做限定,例如可以是圆形按钮的形式。其中,追踪道具可以是预先为第一虚拟对象装备的(例如在游戏对局开始之前,由用户手动选取),也可以是第一虚拟对象在虚拟场景中所拾取的。
除了呈现投掷操作控件外,根据实际应用场景的不同,还可以呈现更多的内容,例如第一虚拟对象当前装备的护甲(如防弹衣)或其他的虚拟道具(如***手雷或闪光手雷等)。
在一些实施例中,可以通过这样的方式来实现上述的在人机交互界面中呈现虚拟场景、以及追踪道具的投掷操作控件:在人机交互界面中呈现虚拟场景、以及追踪道具的切换操作控件;响应于针对切换操作控件的触发操作,控制第一虚拟对象将所持有的虚拟道具切换为追踪道具;在人机交互界面中呈现追踪道具的投掷操作控件。
这里,追踪道具可以是第一虚拟对象默认不持有的,如第一虚拟对象默认持有的虚拟道具是枪械,则在人机交互界面中呈现虚拟场景的同时,呈现追踪道具的切换操作控件。当接收到针对切换操作控件的触发操作,如点击操作时,显示将第一虚拟对象所持有的虚拟道具切换为追踪道具的过程,同时,在人机交互界面中呈现追踪道具的投掷操作控件,便于用户通过投掷操作控件来投掷追踪道具。通过上述方式,在满足一定条件时才显示追踪道具及投掷操作控件,适用于追踪道具的使用频率较低的场景(例如射击游戏中枪械的使用频率大于追踪道具的使用频率),能够避免持续呈现投掷操作控件所导致的操作误导。
在一些实施例中,在人机交互界面中呈现虚拟场景、以及追踪道具的切换操作控件之前,还包括:在人机交互界面中,呈现包括追踪道具在内的多个虚拟道具的描述信息;可以通过这样的方式来实现上述的在人机交互界面中呈现虚拟场景、以及追踪道具的切换操作控件:响应于针对追踪道具的选中操作,在人机交互界面中呈现虚拟场景、以及追踪道具的切换操作控件。
这里,在呈现虚拟场景之前,可以在人机交互界面中呈现包括追踪道具在内的多个虚拟道具的描述信息,例如在游戏对局开始之前呈现一个选择界面,该选择界面包括多个虚拟道具的描述信息,供用户选择虚拟道具以装备至第一虚拟对象上,从而进入游戏对局。其中,描述信息可以包括伤害值、射程以及道具功能中的至少一种。当接收到针对追踪道具的选中操作,再在人机交互界面中呈现虚拟场景、以及追踪道具的切换操作控件。
当然,上述示例并不构成对本申请实施例的限定,例如还可以在呈现虚拟场景之后,呈现包括追踪道具在内的多个虚拟道具的描述信息,如呈现包括多个虚拟道具的描述信息的商城界面,商城界面中的虚拟道具需要花费虚拟资源进行购买。当接收到针对追踪道具的选中操作(如购买操作),再在人机交互界面中呈现追踪道具的切换操作控件。通过上述方式,在用户选中追踪道具后,再呈现追踪道具的切换操作控件,能够符合用户的实际需求,提升呈现内容的合理性。
在步骤102中,响应于针对投掷操作控件的触发操作,控制第一虚拟对象在虚拟场景中投掷追踪道具。
这里,触发操作可以是点击操作或长按操作等,不做限定。在接收到针对投掷操作控件的触发操作时,控制第一虚拟对象在虚拟场景中投掷追踪道具,这里,可以在人机交互界面中显示追踪道具运动的过程,例如,呈现第一虚拟对象将投掷类的追踪道具投掷出去的过程,或者,呈现第一虚拟对象将射击类的追踪道具射击出去的过程。
在一些实施例中,控制第一虚拟对象在虚拟场景中投掷追踪道具之前,还包括:获取追踪道具的初始位置、初始运动方向、初始速度以及加速度,以确定追踪道具的模拟运动轨迹;在人机交互界面中呈现模拟运动轨迹。
例如,针对投掷操作控件的触发操作包括第一触发操作和第二触发操作,第一触发操作是长按操作,第二触发操作是解除长按的操作。当接收到针对投掷操作控件的第一触发操作时,获取追踪道具的初始位置、初始运动方向、初始速度以及加速度,以结合实际的物理规律,确定出追踪道具的模拟运动轨迹,其中,初始速度可以预先设定,加速度包括重力加速度和朝向初始运动方向的投掷加速度,投掷加速度同样可以预先设定。在确定追踪道具的模拟运动轨迹的过程中,可以按照设定的时长间隔或距离间隔确定出一些轨迹点,再根据这些轨迹点绘制出模拟运动轨迹。这里,模拟运动轨迹的终点位置可以是模拟运动轨迹与虚拟场景中的支撑面或障碍物最先发生碰撞的碰撞位置。
值得说明的是,还可以在人机交互界面中呈现道具方向控件(如针对追踪道具的方向摇杆),在接收到对投掷操作控件的第一触发操作期间,可以根据接收到的针对道具方向控件的方向调整操作,来对应地调整追踪道具的初始运动方向,其中,道具方向控件可以位于投掷操作控件外部或内部。此外,还可以在人机交互界面中呈现对象方向控件(如针对第一虚拟对象的方向摇杆),在接收到对投掷操作控件的第一触发操作期间,可以根据接收到的针对对象方向控件的方向调整操作,来对应地调整追踪道具的初始位置,其中,对象方向控件用于调整第一虚拟对象的位置,追踪道具的初始位置会随着第一虚拟对象的位置改变而对应变化。
在接收到针对投掷操作控件的第一触发操作期间,在人机交互界面中呈现模拟运动轨迹。当接收到针对投掷操作控件的第二触发操作时,呈现第一虚拟对象在虚拟场景中投掷追踪道具以使追踪道具运动的过程。通过上述方式,能够使用户以预览的形式获知投掷追踪道具后的运动轨迹,便于用户针对性地调整追踪道具的初始位置和初始运动方向,提升人机交互体验。
在步骤103中,当追踪道具到达目标位置并释放特效时,检测特效释放范围内包括的至少一个第二虚拟对象。
对于追踪道具是否到达目标位置,可以设定相应的判断条件,例如,当追踪道具被投掷出去的持续时长达到设定的投掷时长时,将追踪道具的实时位置作为目标位置;当追踪道具被投掷出去的射程达到设定的射程时,将追踪道具的实时位置作为目标位置。
当追踪道具到达目标位置时,调用设定的特效资源以释放特效,即是将特效显示于虚拟场景中。同时,检测特效释放范围内是否包括区别于第一虚拟对象的第二虚拟对象。
在步骤104中,获取至少一个第二虚拟对象在虚拟场景中的实时位置,在第一虚拟对象的追踪界面中,呈现至少一个第二虚拟对象的实时位置。
当特效释放范围内包括至少一个第二虚拟对象时,获取至少一个第二虚拟对象在虚拟场景中的实时位置,以在第一虚拟对象的追踪界面中呈现,这里的追踪界面可以包括虚拟场景(全量虚拟场景或者部分虚拟场景)的缩略地图,当然也可以包括实际地图。其中,第一虚拟对象的追踪界面可以是持续呈现(始终呈现)的,例如在整个游戏对局中持续呈现;也可以是在确定出特效释放范围内包括至少一个第二虚拟对象时,开始呈现的,并且,在停止呈现至少一个第二虚拟对象的实时位置时,同时停止呈现追踪界面。
在一些实施例中,呈现至少一个第二虚拟对象的实时位置之前,还包括:根据虚拟场景的实际地图与追踪界面的缩略地图之间的位置映射关系,对至少一个第二虚拟对象在实际地图中的第一实时位置进行映射处理,得到用于在缩略地图中呈现的第二实时位置。
对于追踪界面包括的是虚拟场景的缩略地图,且获取到的是至少一个第二虚拟对象在实际地图中的实时位置(为了便于区分,命名为第一实时位置)的情况,可以根据虚拟场景的实际地图与缩略地图之间的位置映射关系(即比例尺),对第一实时位置进行映射处理,得到用于在缩略地图中呈现的第二实时位置。如此,能够提升最终呈现的第二实时位置的准确性。
如图3A所示,本申请实施例可以通过控制第一虚拟对象投掷追踪道具,从而对第二虚拟对象进行追踪,提升了追踪的个性化和灵活性,相较于统一地呈现所有虚拟对象的实时位置的方式,能够节省计算资源,从而提升虚拟场景响应人机交互操作的实时性,提升用户体验。
在一些实施例中,参见图3B,图3B是本申请实施例提供的虚拟场景中的追踪方法的一个流程示意图,图3A示出的步骤103可以通过步骤201至步骤204实现,将结合各步骤进行说明。
在步骤201中,当追踪道具到达目标位置时,获取追踪道具的特效辐射距离。
这里,追踪道具的特效辐射距离可以通过查询追踪道具的属性数据得到,追踪道具的属性数据可以预先设定。
在步骤202中,将以目标位置为中心、且以特效辐射距离为半径的圆作为特效释放范围,在特效释放范围内释放粒子特效及烟雾特效中的任意一种。
这里,特效释放范围可以是以目标位置为中心、且以特效辐射距离为半径的圆,当然这并不构成对本申请实施例的限定,例如还可以是以目标位置为中心、且以特效辐射距离为长的正方形。本申请实施例对释放的特效的类型也不做限定,例如可以是粒子特效及烟雾特效中的任意一种。
在步骤203中,获取虚拟场景中区别于第一虚拟对象的多个虚拟对象的实时位置。
这里,可以获取虚拟场景中区别于第一虚拟对象的所有虚拟对象的实时位置(不区分具有协作关系还是对抗关系,即统一追踪),或者区别于第一虚拟对象、且与第一虚拟对象具有对抗关系的所有虚拟对象的实时位置(仅追踪具有对抗关系的虚拟对象),又或者区别于第一虚拟对象、且与第一虚拟对象具有协作关系的所有虚拟对象的实时位置(仅追踪具有协作关系的虚拟对象),根据实际应用场景而定。
举例来说,在一个游戏对局中,可以将多个虚拟对象分别添加至两个相互对抗的群组(阵营),得到群组A和群组B,则对于群组A内的任意两个虚拟对象来说,两者之间具有协作关系;对于群组A内的某个虚拟对象及群组B内的某个虚拟对象来说,两者之间具有对抗关系。
在步骤204中,当多个虚拟对象中任意一个虚拟对象的实时位置与目标位置之间的距离小于或等于特效辐射距离时,将任意一个虚拟对象识别为特效释放范围内包括的第二虚拟对象。
例如,在获取到区别于第一虚拟对象的多个虚拟对象的实时位置后,计算每一个实时位置与目标位置之间的距离。当计算出的距离小于或等于特效辐射距离时,将对应的虚拟对象(指区别于第一虚拟对象的虚拟对象)识别为特效释放范围内包括的第二虚拟对象。
值得说明的是,当步骤203中获取的是区别于第一虚拟对象的所有虚拟对象的实时位置时,步骤204中得到的第二虚拟对象可以包括与第一虚拟对象具有协作关系的虚拟对象、以及与第一虚拟对象具有对抗关系的虚拟对象中的至少一种。
如图3B所示,本申请实施例以目标位置为中心释放特效,能够提升人机交互的视觉效果,在投掷追踪道具后便于用户准确获知是否已追踪到第二虚拟对象。
在一些实施例中,参见图3C,图3C是本申请实施例提供的虚拟场景中的追踪方法的一个流程示意图,图3A示出的步骤103可以更新为步骤301,当追踪道具到达目标位置并释放特效时,检测特效释放范围内包括的与第一虚拟对象具有对抗关系的第二虚拟对象。
在本申请实施例中,追踪道具所提供的追踪功能可以是对区别于第一虚拟对象的虚拟对象(不区分是具有协作关系还是对抗关系)进行追踪,可以是仅对与第一虚拟对象具有协作关系的虚拟对象进行追踪,还可以是仅对与第一虚拟对象具有对抗关系的虚拟对象进行追踪。这里,以最后一种情况进行示例说明,则当追踪道具到达目标位置并释放特效时,检测特效释放范围内包括的与第一虚拟对象具有对抗关系的虚拟对象,为了便于区分,将检测到的该虚拟对象命名为第二虚拟对象。
在图3C中,图3A示出的步骤104可更新为步骤302,在步骤302中,获取具有对抗关系的第二虚拟对象在虚拟场景中的实时位置,在第一虚拟对象的追踪界面中,呈现具有对抗关系的第二虚拟对象的实时位置。
这里,可以在第一虚拟对象的追踪界面中,持续呈现具有对抗关系的第二虚拟对象的实时位置,也可以为具有对抗关系的第二虚拟对象的实时位置设定停止呈现条件,对呈现的时效性进行限制。
在一些实施例中,在任意步骤之间,还包括:在第一虚拟对象的追踪界面中,持续呈现与第一虚拟对象具有协作关系的至少部分虚拟对象的实时位置。
在仅对与第一虚拟对象具有对抗关系的虚拟对象进行追踪的情况下,可以在第一虚拟对象的追踪界面中,持续呈现与第一虚拟对象具有协作关系的至少部分虚拟对象的实时位置。例如,在与第一虚拟对象具有协作关系的虚拟对象中,可以持续呈现全部的虚拟对象的实时位置,或者持续呈现与第一虚拟对象之间的距离小于或等于设定距离阈值的虚拟对象的实时位置,或者设定的至少一个虚拟对象的实时位置。如此,便于控制第一虚拟对象的用户获知队友位置,从而制定相应的战术策略,如集合策略,提升人机交互的体验。
在图3C中,步骤301之后,还可以在步骤303中,在与第一虚拟对象具有协作关系的虚拟对象的追踪界面中,呈现具有对抗关系的第二虚拟对象的实时位置。
在本申请实施例中,还可以对追踪到的实时位置进行共享,例如,在与第一虚拟对象具有协作关系的所有虚拟对象的追踪界面中,呈现具有对抗关系的第二虚拟对象的实时位置。如此,便于控制第一虚拟对象的队友的用户获知对手位置,从而制定相应的战术策略,如突袭策略或围剿策略等,能够提升不同群组之间的整体对抗性。
在图3C中,步骤303之后,还可以在步骤304中,当呈现具有对抗关系的第二虚拟对象的实时位置的持续时长达到追踪时长时,停止呈现具有对抗关系的第二虚拟对象的实时位置。
这里,停止呈现条件可以是追踪时长,该追踪时长可以包含在追踪道具的属性数据内。当呈现具有对抗关系的第二虚拟对象的实时位置的持续时长达到追踪时长(即满足停止呈现条件)时,停止呈现该第二虚拟对象的实时位置。
当然,这并不构成对停止呈现条件的限定,例如可以设定当呈现具有对抗关系的第二虚拟对象的实时位置超出追踪范围(可以包含在追踪道具的属性数据内)时,停止呈现该第二虚拟对象的实时位置;或者当具有对抗关系的第二虚拟对象受到伤害时,停止呈现该第二虚拟对象的实时位置;或者响应于具有对抗关系的第二虚拟对象使用与追踪道具对应的消除道具(用于消除追踪效果)的操作,停止呈现该第二虚拟对象的实时位置。上述的停止呈现条件可以任选其一进行应用,也可以复用,例如停止呈现条件可以同时包括追踪时长和追踪范围。
值得说明的是,对于第一虚拟对象自身的追踪界面、以及与第一虚拟对象具有协作关系的虚拟对象的追踪界面,可以应用相同的停止呈现条件,从而保证共享位置的一致性。
如图3C所示,通过对与第一虚拟对象具有对抗关系的虚拟对象进行追踪,能够提升不同群组之间的整体对抗性,激发用户的人机交互热情,适用于包括多个群组的游戏对局。
在一些实施例中,参见图3D,图3D是本申请实施例提供的虚拟场景中的追踪方法的一个流程示意图,图3A示出的步骤104可以通过步骤401至步骤404实现,将结合各步骤进行说明。
在步骤401中,获取至少一个第二虚拟对象在虚拟场景中的实时位置。
在步骤402中,当至少一个第二虚拟对象的实时位置未在第一虚拟对象的追踪界面中呈现时,将追踪道具对应的追踪参数关联到至少一个第二虚拟对象。
在本申请实施例中,第一虚拟对象的追踪界面中默认的追踪功能可以是:1)显示与第一虚拟对象具有协作关系的虚拟对象的实时位置;2)显示有限数量的虚拟对象,该虚拟对象是与第一虚拟对象具有协作关系的虚拟对象和/或具有对抗关系的虚拟对象,例如,显示与第一虚拟对象最近一次的交互时间在设定时间段内(如距当前时间30秒内)的虚拟对象;3)显示有限范围(如与第一虚拟对象之间的距离小于或等于设定距离阈值)内的虚拟对象,该虚拟对象是与第一虚拟对象具有协作关系的虚拟对象和/或具有对抗关系的虚拟对象;4)在有限时长内显示虚拟对象,该虚拟对象是与第一虚拟对象具有协作关系的虚拟对象和/或具有对抗关系的虚拟对象。根据实际应用场景的不同,可以在追踪界面中默认应用上述的一种或多种追踪功能。
这里,追踪道具的作用在于对追踪界面默认的追踪功能进行不同维度的提升、增强。当至少一个第二虚拟对象的实时位置目前未在第一虚拟对象的追踪界面中呈现时,将追踪道具对应的追踪参数关联到至少一个第二虚拟对象,追踪参数越大,则追踪效果越强。其中,追踪道具对应的追踪参数可以是通过对追踪道具的属性数据进行查询得到,即是固定的,也可以是根据实际场景动态变化的。另外,追踪参数的类型也可以根据实际应用场景进行设定,例如包括追踪时长和追踪范围中的至少一种。
在步骤403中,当至少一个第二虚拟对象的实时位置正在第一虚拟对象的追踪界面中呈现时,将追踪道具对应的追踪参数叠加到至少一个第二虚拟对象已关联的追踪参数。
当至少一个第二虚拟对象的实时位置正在追踪界面中呈现时,证明至少一个第二虚拟对象已关联有追踪参数,故将追踪道具对应的追踪参数叠加到至少一个第二虚拟对象已关联的追踪参数。例如,某个第二虚拟对象的实时位置正在追踪界面中呈现,目前剩余的追踪时长为10秒,而追踪道具对应的追踪时长为30秒,则可以进行叠加,得到该第二虚拟对象关联的追踪时长为40秒,叠加追踪范围的方式同理。如此,可以实现追踪道具的追踪效果的叠加。
另一种方式是,当至少一个第二虚拟对象的实时位置正在追踪界面中呈现时,根据追踪道具对应的追踪参数直接覆盖至少一个第二虚拟对象已关联的追踪参数。例如某个第二虚拟对象目前剩余的追踪时长为10秒,而追踪道具对应的追踪时长为30秒,则可以进行覆盖,得到该第二虚拟对象关联的追踪时长为30秒。如此,可以实现追踪道具的追踪效果的刷新。根据实际应用场景的不同,可以应用任意一种方式。
在一些实施例中,步骤401之后,还包括:执行以下任意一种处理,以确定追踪道具对应的追踪参数:确定与追踪道具的等级对应的追踪参数;其中,追踪参数的取值与追踪道具的等级正相关;确定与第一虚拟对象的行为指标正相关的追踪参数;确定与第一虚拟对象所属群组的行为指标正相关的追踪参数;其中,行为指标为等级、击杀数量、对局积分及资源数量中的任意一种。
在本申请实施例中,可以通过以下三种方式中的任意一种,来确定追踪道具对应的追踪参数:
1)确定与追踪道具的等级对应的追踪参数,其中,追踪道具的等级越高,对应的追踪参数越大。以追踪参数为追踪时长举例,可以设定等级1的追踪道具对应的追踪时长为10秒,等级2的追踪道具对应的追踪时长为20秒。如此,可以激励用户升级追踪道具,以取得更强大的追踪效果。
2)确定与第一虚拟对象的行为指标正相关的追踪参数,即追踪参数是随着行为指标而动态变化的,其中,行为指标包括等级(如第一虚拟对象自身的角色等级)、击杀数量、对局积分及资源数量中的至少一种。以追踪参数为追踪时长,且行为指标为等级的情况举例,则可以设定当第一虚拟对象的等级为1时,追踪道具对应的追踪时长为10秒;当第一虚拟对象的等级为2时,追踪道具对应的追踪时长为20秒。又例如,可以具体设定第一虚拟对象的行为指标与追踪参数之间的线性或非线性关系,根据该线性或非线性关系,对第一虚拟对象的行为指标进行计算处理,得到追踪参数。如设定追踪道具对应的追踪参数(如追踪时长)=w1×等级+w2×击杀数量+w3×对局积分+w4×资源数量,即对行为指标中的各个指标进行加权求和,得到追踪参数,其中,w1、w2、w3和w4均为大于0的数。
另一种方式是,确定第一虚拟对象的行为指标与第二虚拟对象的行为指标之间的比值,并确定与该比值正相关的追踪参数,例如设定当比值为1(即1:1)时,追踪道具对应的追踪时长为10秒;当比值为2时,追踪道具对应的追踪时长为20秒。又例如,设定追踪道具对应的追踪参数=w×比值,w为大于0的数。
3)确定与第一虚拟对象所属群组的行为指标正相关的追踪参数,其中,群组的行为指标可以是对该群组内各个虚拟对象的行为指标进行融合处理得到,融合处理的方式可以是平均处理或求和处理等。其中,可以预先设定与群组的不同行为指标对应的追踪参数,也可以根据群组的行为指标与追踪参数之间的线性或非线性关系,对群组的行为指标进行计算处理得到追踪参数。
同样地,也可以确定第一虚拟对象所属群组的行为指标、与第二虚拟对象所属群组的行为指标之间的比值,并确定与该比值正相关的追踪参数。通过上述方式,提升了确定追踪道具对应的追踪参数的灵活性、以及对不同应用场景的适用性。
在步骤404中,在第一虚拟对象的追踪界面中,根据至少一个第二虚拟对象关联的追踪参数,呈现至少一个第二虚拟对象的实时位置。
在一些实施例中,追踪参数包括追踪时长及追踪范围中的至少一种;可以通过这样的方式来实现上述的根据至少一个第二虚拟对象关联的追踪参数,呈现至少一个第二虚拟对象的实时位置:针对每个第二虚拟对象,执行以下至少一种处理:呈现第二虚拟对象的实时位置,直至持续时长达到第二虚拟对象关联的追踪时长;呈现第二虚拟对象的实时位置,直至第二虚拟对象的实时位置超出第二虚拟对象关联的追踪范围。
这里,当追踪参数包括追踪时长时,针对每个第二虚拟对象,在第一虚拟对象的追踪界面中呈现第二虚拟对象的实时位置,直至持续时长达到该追踪时长,其中,该追踪时长可以是无限时长,也可以是有限时长,根据实际应用场景而定。
当追踪参数包括追踪范围时,针对每个第二虚拟对象,在第一虚拟对象的追踪界面中呈现第二虚拟对象的实时位置,直至第二虚拟对象的实时位置超出该追踪范围,其中,该追踪范围可以是无限范围(例如覆盖全量虚拟场景),也可以是有限范围,根据实际应用场景而定。通过上述方式,提升了追踪道具的追踪功能的灵活性。
如图3D所示,本申请实施例通过追踪道具对应的追踪参数,对追踪界面默认的追踪功能进行增强,从而能够激励用户在虚拟场景中更多地使用追踪道具,提升人机交互过程中的用户体验。
在一些实施例中,参见图3E,图3E是本申请实施例提供的虚拟场景中的追踪方法的一个流程示意图,图3A示出的步骤102之后,还可以在步骤501中,周期性地获取追踪道具的实时位置、实时运动方向、实时速度以及加速度,以确定追踪道具的运动轨迹。
这里,可以周期性地获取追踪道具在虚拟场景中的实时位置、实时运动方向、实时速度以及加速度,以结合实际的物理规律,确定出追踪道具在被投掷后的运动轨迹,例如,每隔一帧确定一次追踪道具的运动轨迹。
其中,在追踪道具最开始进行运动时,获取的实时位置是接收到针对投掷操作控件的触发操作时,追踪道具所在的初始位置;获取的实时运动方向是接收到针对投掷操作控件的触发操作时,追踪道具的初始运行方向;获取的实时速度是设定的初始速度;获取的加速度包括重力加速度以及朝向初始运动方向的投掷加速度,该重力加速度可以通过人机交互引擎中的物理引擎进行调整,并不一定是现实世界中的重力加速度,该投掷加速度可以预先设定。在追踪道具后续运动的过程中,获取的加速度包括重力加速度。
在步骤502中,控制追踪道具沿运动轨迹进行运动。
对于每一次确定出的运动轨迹,控制追踪道具沿运动轨迹进行运动,同时呈现追踪道具沿运动轨迹进行运动的过程,从而体现出第一虚拟对象投掷追踪道具的真实视觉效果。
在图3E中,步骤502之后,还可以在步骤503中,在追踪道具沿运动轨迹进行运动的过程中,通过绑定在追踪道具上的相机组件,周期性地从追踪道具的实时位置发射与追踪道具的实时运动方向一致的检测射线。
这里,在追踪道具沿运动轨迹进行运动的过程中,周期性地检测追踪道具是否运动到目标位置,例如,通过绑定在追踪道具上的相机组件,周期性地从追踪道具的实时位置发射与追踪道具的实时运动方向一致的检测射线,该检测射线的长度可以预先设定。其中,发射检测射线的周期与确定追踪道具的运动轨迹的周期可以是相同或不同的。
在步骤504中,确定检测射线与虚拟场景中的多个碰撞器组件之间的位置关系。
在本申请实施例中,可以通过碰撞器组件来检测是否发生碰撞,其中,碰撞器组件可以绑定在虚拟场景中的支撑面或障碍物上,支撑面如地面,障碍物如墙面、木箱或木桶等。这里,当追踪道具与支撑面发生碰撞时,确定追踪道具运动到目标位置;当追踪道具与障碍物发生碰撞时,呈现追踪道具发生碰撞后进行反弹的过程。
在步骤505中,基于位置关系确定追踪道具是否到达目标位置。
在一些实施例中,可以通过这样的方式来实现上述的基于位置关系确定追踪道具是否到达目标位置:当检测射线与绑定在支撑面上的碰撞器组件之间存在交叉时,将存在交叉时追踪道具的实时位置确定为目标位置;当检测射线与绑定在障碍物上的碰撞器组件之间存在交叉时,确定追踪道具未到达目标位置;当检测射线与多个碰撞器组件之间均不存在交叉时,确定追踪道具未到达目标位置。
这里,位置关系存在以下几种情况:
1)检测射线与绑定在支撑面上的碰撞器组件之间存在交叉,在该情况下,确定追踪道具与支撑面发生了碰撞,将存在交叉时追踪道具的实时位置确定为目标位置。
2)检测射线与绑定在障碍物上的碰撞器组件之间存在交叉,在该情况下,确定追踪道具未到达目标位置,呈现追踪道具在障碍物上进行反弹的过程。
3)检测射线与虚拟场景中所有的碰撞器组件之间均不存在交叉,在该情况下,继续周期性地确定追踪道具的运动轨迹,并呈现追踪道具沿确定出的运动轨迹进行运动的过程。通过上述方式,能够基于检测射线和碰撞器组件,准确地判断是否发生碰撞,从而呈现精准且符合物理规律的碰撞过程。
在一些实施例中,当检测射线与绑定在障碍物上的碰撞器组件之间存在交叉时,还包括:获取追踪道具的实时位置、实时运动方向、实时速度以及加速度,以确定追踪道具的反弹运动轨迹;控制追踪道具沿反弹运动轨迹进行运动。
针对于检测射线与绑定在障碍物上的碰撞器组件之间存在交叉的情况,可以获取追踪道具的实时位置、实时运动方向、实时速度以及加速度,以结合实际的物理规律,确定出追踪道具与障碍物发生碰撞后的反弹运动轨迹。然后,呈现追踪道具沿反弹运动轨迹进行运动的过程,从而提升追踪道具运动的精准性和合理化程度。
如图3E所示,本申请实施例通过周期性地确定追踪道具的运动轨迹,能够呈现出符合实际物理规律的运动过程;通过确定检测射线与碰撞器组件之间的位置关系,能够准确地判断追踪道具与支撑面之间,或者追踪道具与障碍物之间是否发生碰撞。
下面,将说明本申请实施例在一个实际的应用场景中的示例性应用。为了便于理解,以射击游戏中的虚拟场景进行示例说明。
本申请实施例提供了一种战术性的追踪道具,即追踪弹(追踪手雷),用户可以控制当前游戏角色(对应上文的第一虚拟对象)投掷该追踪弹,从而对敌人(对应上文的具有对抗关系的虚拟对象)进行主动追踪。为了便于理解,提供了如图4所示的虚拟场景中的追踪方法的示意图,将结合图4进行步骤说明:
1)用户在战术装备界面(对应上文的选择界面)选择追踪弹,以对当前游戏角色进行装备,其中,战术装备界面可以在游戏对局开始前呈现,也可以在游戏对局开始后呈现。如图5所示,战术装备界面包括多个可供选择的虚拟道具,如闪光弹、烟雾弹、震撼弹及追踪弹,还包括虚拟道具的描述信息,如图5中的追踪弹的描述信息51。
2)若为当前游戏角色装备上了追踪弹,则在游戏界面(对应上文的人机交互界面)中显示追踪弹的切换操作控件,如图6所示的切换操作控件61。该切换操作控件61用于将当前游戏角色持有的虚拟道具(如枪械)切换为追踪弹,切换操作控件61可以包括当前游戏角色剩余可用的追踪弹的数量,图6中以剩余1个作为示例。游戏界面中还显示有枪械道具的射击操作控件62(图6中示出了两个射击操作控件,其功能相同,目的是符合不同用户的操作习惯),也称开火键,用户可通过触发该射击操作控件,从而控制当前游戏角色根据持有的枪械道具进行射击。此外,游戏界面中还显示有小地图(对应上文的追踪界面),如图6中的小地图63,小地图63中的三角形标志即表示当前游戏角色的位置。
当接收到用户对切换操作控件的触发操作,如点击操作时,在游戏界面中显示将当前游戏角色持有的虚拟道具切换为追踪弹的过程。如图7所示,示出了追踪弹71,以及对图6中的射击操作控件62进行切换得到的投掷操作控件72,即在图7中,开火键成为了投掷追踪弹的按键。
3)在切换至追踪弹后,用户可以长按开火键,此时游戏界面中会显示一个预投掷状态的模拟投掷轨迹(对应上文的模拟运动轨迹),如图8中的模拟投掷轨迹81,模拟投掷轨迹81的终点便是追踪弹的落点***位置,如此,用户可以根据模拟投掷轨迹81,针对性地调整追踪弹的初始运动方向或者当前游戏角色的位置(相当于调整追踪弹的初始位置),从而提升追踪弹的命中率。
模拟投掷轨迹是根据追踪弹的初始位置、初始运动方向、初始速度、重力加速度以及投掷加速度,结合实际的物理规律计算出来的。在模拟投掷轨迹的底层计算过程中,可以按照一定的时长间隔或距离间隔计算出多个路点(对应上文的轨迹点),如图9中的路点集合91,根据路点集合91中的多个路点来拉伸特效线,最后形成抛物线形状的模拟投掷轨迹92。
4)当用户停止长按开火键,即松手时,在游戏界面中呈现当前游戏角色投掷追踪弹以使追踪弹飞行的过程,其中,可以周期性地根据追踪弹的实时位置、实时运动方向、实时速度以及加速度,来计算追踪弹的投掷轨迹(对应上文的运动轨迹),并呈现追踪弹沿投掷轨迹运动的过程。
在射击游戏中,可以设定当追踪弹与地面发生碰撞时发生***,当追踪弹与障碍物(如墙面)发生碰撞时进行反弹。在底层实现上,可以周期性地在追踪弹的实时位置,发射与追踪弹的实时运动方向一致的检测射线,并判断检测射线与绑定在地面上的碰撞盒(对应上文的碰撞器组件)是否存在交叉,如果存在交叉,则确定追踪弹与地面发生了碰撞,即追踪弹到达了目标位置。
在本申请实施例中,可以为不同的碰撞盒设定不同的材质,即设定碰撞盒所绑定的是地面还是障碍物。在图10中,以地面101以及放置于地面101上的障碍物102和障碍物103举例,图10的右侧示出了地面101的碰撞盒的一些配置参数,其中材质1011用于表示该碰撞盒绑定于地面上。当检测射线与某个碰撞盒存在交叉时,通过查询该碰撞盒的材质参数,便可确定该碰撞盒绑定于地面还是障碍物上。
5)当追踪弹落地***时,呈现颗粒或白烟的特效,特效释放范围即为感染范围(或称追踪范围),如图11中的感染范围111,在感染范围111内的所有敌人均会被感染。
在底层实现上,是获取追踪弹***的落地位置(对应上文的目标位置),如图12中的落地位置121,然后,确定以落地位置121为中心、以设定的特效辐射距离为半径的圆,作为感染范围122。在释放特效的同时,计算当前游戏角色的每个敌人的位置与落地位置121之间的距离,若该距离小于或等于特效辐射距离,则确定对应的敌人被感染。
6)对于被感染的敌人,根据虚拟场景的实际地图与小地图之间的位置映射关系,将被感染的敌人在实际地图中的位置,投掷到当前游戏角色及当前游戏角色的队友(对应上文的具有协作关系的虚拟对象)的小地图中进行显示。例如在图13中,在当前游戏角色的小地图131中以圆圈标志来表示被感染的敌人的位置,在被感染的敌人运动后,小地图132中被感染的敌人的位置也随之更新。这里,可以设定一个追踪时长,当敌人的感染效果的持续时长达到追踪时长时,在当前游戏角色及其队友的小地图中,停止呈现该敌人的位置。
本申请实施例能够提升射击游戏中追踪敌人的个性化和灵活性,同时能够节省计算资源,使得虚拟场景能够更加及时地响应人机交互操作。
下面继续说明本申请实施例提供的虚拟场景中的追踪装置455实施为软件模块的示例性结构,在一些实施例中,如图2A所示,存储在存储器450的虚拟场景中的追踪装置455中的软件模块可以包括:场景呈现模块4551,用于在人机交互界面中呈现虚拟场景、以及追踪道具的投掷操作控件;投掷模块4552,用于响应于针对投掷操作控件的触发操作,控制第一虚拟对象在虚拟场景中投掷追踪道具;特效释放模块4553,用于当追踪道具到达目标位置并释放特效时,检测特效释放范围内包括的至少一个第二虚拟对象;位置呈现模块4554,用于获取至少一个第二虚拟对象在虚拟场景中的实时位置,在第一虚拟对象的追踪界面中,呈现至少一个第二虚拟对象的实时位置。
在一些实施例中,当追踪道具到达目标位置时,特效释放模块4553还用于:获取追踪道具的特效辐射距离;将以目标位置为中心、且以特效辐射距离为半径的圆作为特效释放范围,在特效释放范围内释放粒子特效及烟雾特效中的任意一种。
在一些实施例中,特效释放模块4553,还用于:获取虚拟场景中区别于第一虚拟对象的多个虚拟对象的实时位置;当多个虚拟对象中任意一个虚拟对象的实时位置与目标位置之间的距离小于或等于特效辐射距离时,将任意一个虚拟对象识别为特效释放范围内包括的第二虚拟对象。
在一些实施例中,当特效释放范围内包括与第一虚拟对象具有对抗关系的第二虚拟对象时,位置呈现模块4554还用于:呈现具有对抗关系的第二虚拟对象的实时位置。
在一些实施例中,虚拟场景中的追踪装置455还包括:停止呈现模块,用于当呈现具有对抗关系的第二虚拟对象的实时位置的持续时长达到追踪时长时,停止呈现具有对抗关系的第二虚拟对象的实时位置。
在一些实施例中,虚拟场景中的追踪装置455还包括:共享模块,用于在与第一虚拟对象具有协作关系的虚拟对象的追踪界面中,呈现具有对抗关系的第二虚拟对象的实时位置。
在一些实施例中,虚拟场景中的追踪装置455还包括:持续呈现模块,用于在第一虚拟对象的追踪界面中,持续呈现与第一虚拟对象具有协作关系的至少部分虚拟对象的实时位置。
在一些实施例中,位置呈现模块4554,还用于:当至少一个第二虚拟对象的实时位置未在追踪界面中呈现时,将追踪道具对应的追踪参数关联到至少一个第二虚拟对象;当至少一个第二虚拟对象的实时位置正在追踪界面中呈现时,将追踪道具对应的追踪参数叠加到至少一个第二虚拟对象已关联的追踪参数;根据至少一个第二虚拟对象关联的追踪参数,呈现至少一个第二虚拟对象的实时位置。
在一些实施例中,追踪参数包括追踪时长及追踪范围中的至少一种;位置呈现模块4554,还用于:针对每个第二虚拟对象,执行以下至少一种处理:呈现第二虚拟对象的实时位置,直至持续时长达到第二虚拟对象关联的追踪时长;呈现第二虚拟对象的实时位置,直至第二虚拟对象的实时位置超出第二虚拟对象关联的追踪范围。
在一些实施例中,虚拟场景中的追踪装置455还包括:参数确定模块,用于执行以下任意一种处理,以确定追踪道具对应的追踪参数:确定与追踪道具的等级对应的追踪参数;其中,追踪参数的取值与追踪道具的等级正相关;确定与第一虚拟对象的行为指标正相关的追踪参数;确定与第一虚拟对象所属群组的行为指标正相关的追踪参数;其中,行为指标包括等级、击杀数量、对局积分及资源数量中的至少一种。
在一些实施例中,场景呈现模块4551,还用于:在人机交互界面中呈现虚拟场景、以及追踪道具的切换操作控件;响应于针对切换操作控件的触发操作,控制第一虚拟对象将所持有的虚拟道具切换为追踪道具;在人机交互界面中呈现追踪道具的投掷操作控件。
在一些实施例中,虚拟场景中的追踪装置455还包括:信息呈现模块,用于在人机交互界面中,呈现包括追踪道具在内的多个虚拟道具的描述信息;场景呈现模块4551,还用于响应于针对追踪道具的选中操作,在人机交互界面中呈现虚拟场景、以及追踪道具的切换操作控件。
在一些实施例中,虚拟场景中的追踪装置455还包括:运动模块,用于周期性地获取追踪道具的实时位置、实时运动方向、实时速度以及加速度,以确定追踪道具的运动轨迹;控制追踪道具沿运动轨迹进行运动。
在一些实施例中,在追踪道具沿运动轨迹进行运动的过程中,运动模块还用于:通过绑定在追踪道具上的相机组件,周期性地从追踪道具的实时位置发射与追踪道具的实时运动方向一致的检测射线;确定检测射线与虚拟场景中的多个碰撞器组件之间的位置关系;基于位置关系确定追踪道具是否到达目标位置。
在一些实施例中,运动模块还用于:当检测射线与绑定在支撑面上的碰撞器组件之间存在交叉时,将存在交叉时追踪道具的实时位置确定为目标位置;当检测射线与绑定在障碍物上的碰撞器组件之间存在交叉时,确定追踪道具未到达目标位置;当检测射线与多个碰撞器组件之间均不存在交叉时,确定追踪道具未到达目标位置。
在一些实施例中,当检测射线与绑定在障碍物上的碰撞器组件之间存在交叉时,运动模块还用于:获取追踪道具的实时位置、实时运动方向、实时速度以及加速度,以确定追踪道具的反弹运动轨迹;控制追踪道具沿反弹运动轨迹进行运动。
在一些实施例中,虚拟场景中的追踪装置455还包括:预览模块,用于获取追踪道具的初始位置、初始运动方向、初始速度以及加速度,以确定追踪道具的模拟运动轨迹;在人机交互界面中呈现模拟运动轨迹。
本申请实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本申请实施例上述的虚拟场景中的追踪方法。
本申请实施例提供一种存储有可执行指令的计算机可读存储介质,其中存储有可执行指令,当可执行指令被处理器执行时,将引起处理器执行本申请实施例提供的方法,例如,如图3A、图3B、图3C、图3D或图3E示出的虚拟场景中的追踪方法。值得说明的是,计算机包括终端设备和服务器在内的各种计算设备。
在一些实施例中,计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,可执行指令可以但不一定对应于文件***中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(HTML,Hyper TextMarkup Language)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,可执行指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。
以上,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。

Claims (20)

1.一种虚拟场景中的追踪方法,其特征在于,所述方法包括:
在人机交互界面中呈现虚拟场景、以及追踪道具的投掷操作控件;
响应于针对所述投掷操作控件的触发操作,控制第一虚拟对象在所述虚拟场景中投掷所述追踪道具;
当所述追踪道具到达目标位置并释放特效时,检测特效释放范围内包括的至少一个第二虚拟对象;
获取所述至少一个第二虚拟对象在所述虚拟场景中的实时位置,在所述第一虚拟对象的追踪界面中,呈现所述至少一个第二虚拟对象的实时位置。
2.根据权利要求1所述的方法,其特征在于,当所述追踪道具到达所述目标位置时,还包括:
获取所述追踪道具的特效辐射距离;
将以所述目标位置为中心、且以所述特效辐射距离为半径的圆作为特效释放范围,在所述特效释放范围内释放粒子特效及烟雾特效中的任意一种。
3.根据权利要求2所述的方法,其特征在于,所述检测特效释放范围内包括的至少一个第二虚拟对象,包括:
获取所述虚拟场景中区别于所述第一虚拟对象的多个虚拟对象的实时位置;
当所述多个虚拟对象中任意一个虚拟对象的实时位置与所述目标位置之间的距离小于或等于所述特效辐射距离时,将所述任意一个虚拟对象识别为所述特效释放范围内包括的第二虚拟对象。
4.根据权利要求1所述的方法,其特征在于,
当所述特效释放范围内包括与所述第一虚拟对象具有对抗关系的第二虚拟对象时,所述呈现所述至少一个第二虚拟对象的实时位置,包括:
呈现所述具有对抗关系的第二虚拟对象的实时位置。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
当呈现所述具有对抗关系的第二虚拟对象的实时位置的持续时长达到追踪时长时,停止呈现所述具有对抗关系的第二虚拟对象的实时位置。
6.根据权利要求4所述的方法,其特征在于,所述方法还包括:
在与所述第一虚拟对象具有协作关系的虚拟对象的追踪界面中,呈现所述具有对抗关系的第二虚拟对象的实时位置。
7.根据权利要求4所述的方法,其特征在于,所述方法还包括:
在所述第一虚拟对象的追踪界面中,持续呈现与所述第一虚拟对象具有协作关系的至少部分虚拟对象的实时位置。
8.根据权利要求1至7任一项所述的方法,其特征在于,所述呈现所述至少一个第二虚拟对象的实时位置,包括:
当所述至少一个第二虚拟对象的实时位置未在所述追踪界面中呈现时,将所述追踪道具对应的追踪参数关联到所述至少一个第二虚拟对象;
当所述至少一个第二虚拟对象的实时位置正在所述追踪界面中呈现时,将所述追踪道具对应的追踪参数叠加到所述至少一个第二虚拟对象已关联的追踪参数;
根据所述至少一个第二虚拟对象关联的追踪参数,呈现所述至少一个第二虚拟对象的实时位置。
9.根据权利要求8所述的方法,其特征在于,所述追踪参数包括追踪时长及追踪范围中的至少一种;
所述根据所述至少一个第二虚拟对象关联的追踪参数,呈现所述至少一个第二虚拟对象的实时位置,包括:
针对每个所述第二虚拟对象,执行以下至少一种处理:
呈现所述第二虚拟对象的实时位置,直至持续时长达到所述第二虚拟对象关联的追踪时长;
呈现所述第二虚拟对象的实时位置,直至所述第二虚拟对象的实时位置超出所述第二虚拟对象关联的追踪范围。
10.根据权利要求8所述的方法,其特征在于,所述方法还包括:
执行以下任意一种处理,以确定所述追踪道具对应的追踪参数:
确定与所述追踪道具的等级对应的追踪参数;其中,所述追踪参数的取值与所述追踪道具的等级正相关;
确定与所述第一虚拟对象的行为指标正相关的追踪参数;
确定与所述第一虚拟对象所属群组的行为指标正相关的追踪参数;
其中,所述行为指标包括等级、击杀数量、对局积分及资源数量中的至少一种。
11.根据权利要求1至7任一项所述的方法,其特征在于,所述在人机交互界面中呈现虚拟场景、以及追踪道具的投掷操作控件,包括:
在所述人机交互界面中呈现虚拟场景、以及所述追踪道具的切换操作控件;
响应于针对所述切换操作控件的触发操作,控制所述第一虚拟对象将所持有的虚拟道具切换为所述追踪道具;
在所述人机交互界面中呈现所述追踪道具的投掷操作控件。
12.根据权利要求11所述的方法,其特征在于,
所述在所述人机交互界面中呈现虚拟场景、以及所述追踪道具的切换操作控件之前,还包括:
在所述人机交互界面中,呈现包括所述追踪道具在内的多个虚拟道具的描述信息;
所述在所述人机交互界面中呈现虚拟场景、以及所述追踪道具的切换操作控件,包括:
响应于针对所述追踪道具的选中操作,在所述人机交互界面中呈现虚拟场景、以及所述追踪道具的切换操作控件。
13.根据权利要求1至7任一项所述的方法,其特征在于,所述控制第一虚拟对象在所述虚拟场景中投掷所述追踪道具之后,还包括:
周期性地获取所述追踪道具的实时位置、实时运动方向、实时速度以及加速度,以确定所述追踪道具的运动轨迹;
控制所述追踪道具沿所述运动轨迹进行运动。
14.根据权利要求13所述的方法,其特征在于,在所述追踪道具沿所述运动轨迹进行运动的过程中,还包括:
通过绑定在所述追踪道具上的相机组件,周期性地从所述追踪道具的实时位置发射与所述追踪道具的实时运动方向一致的检测射线;
确定所述检测射线与所述虚拟场景中的多个碰撞器组件之间的位置关系;
基于所述位置关系确定所述追踪道具是否到达目标位置。
15.根据权利要求14所述的方法,其特征在于,所述基于所述位置关系确定所述追踪道具是否到达目标位置,包括:
当所述检测射线与绑定在支撑面上的碰撞器组件之间存在交叉时,将存在交叉时所述追踪道具的实时位置确定为目标位置;
当所述检测射线与绑定在障碍物上的碰撞器组件之间存在交叉时,确定所述追踪道具未到达目标位置;
当所述检测射线与所述多个碰撞器组件之间均不存在交叉时,确定所述追踪道具未到达目标位置。
16.根据权利要求15所述的方法,其特征在于,当所述检测射线与绑定在障碍物上的碰撞器组件之间存在交叉时,还包括:
获取所述追踪道具的实时位置、实时运动方向、实时速度以及加速度,以确定所述追踪道具的反弹运动轨迹;
控制所述追踪道具沿所述反弹运动轨迹进行运动。
17.根据权利要求1至7任一项所述的方法,其特征在于,所述控制第一虚拟对象在所述虚拟场景中投掷所述追踪道具之前,还包括:
获取所述追踪道具的初始位置、初始运动方向、初始速度以及加速度,以确定所述追踪道具的模拟运动轨迹;
在所述人机交互界面中呈现所述模拟运动轨迹。
18.一种虚拟场景中的追踪装置,其特征在于,所述装置包括:
场景呈现模块,用于在人机交互界面中呈现虚拟场景、以及追踪道具的投掷操作控件;
投掷模块,用于响应于针对所述投掷操作控件的触发操作,控制第一虚拟对象在所述虚拟场景中投掷所述追踪道具;
特效释放模块,用于当所述追踪道具到达目标位置并释放特效时,检测特效释放范围内包括的至少一个第二虚拟对象;
位置呈现模块,用于获取所述至少一个第二虚拟对象在所述虚拟场景中的实时位置,在所述第一虚拟对象的追踪界面中,呈现所述至少一个第二虚拟对象的实时位置。
19.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现权利要求1至17任一项所述的虚拟场景中的追踪方法。
20.一种计算机可读存储介质,其特征在于,存储有可执行指令,用于被处理器执行时,实现权利要求1至17任一项所述的虚拟场景中的追踪方法。
CN202011057660.5A 2020-09-29 2020-09-29 虚拟场景中的追踪方法、装置、电子设备及存储介质 Active CN112121414B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011057660.5A CN112121414B (zh) 2020-09-29 2020-09-29 虚拟场景中的追踪方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011057660.5A CN112121414B (zh) 2020-09-29 2020-09-29 虚拟场景中的追踪方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN112121414A true CN112121414A (zh) 2020-12-25
CN112121414B CN112121414B (zh) 2022-04-08

Family

ID=73843335

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011057660.5A Active CN112121414B (zh) 2020-09-29 2020-09-29 虚拟场景中的追踪方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN112121414B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113680061A (zh) * 2021-09-03 2021-11-23 腾讯科技(深圳)有限公司 虚拟道具的控制方法、装置、终端及存储介质
CN113713383A (zh) * 2021-09-10 2021-11-30 腾讯科技(深圳)有限公司 投掷道具控制方法、装置、计算机设备及存储介质
CN113750530A (zh) * 2021-09-18 2021-12-07 腾讯科技(深圳)有限公司 虚拟场景中的道具控制方法、装置、设备及存储介质
CN114047998A (zh) * 2021-11-30 2022-02-15 珠海金山数字网络科技有限公司 对象更新方法及装置
WO2023226565A1 (zh) * 2022-05-25 2023-11-30 腾讯科技(深圳)有限公司 虚拟角色的追寻方法和装置、存储介质、设备和程序产品

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107930123A (zh) * 2017-12-15 2018-04-20 玖万里网络科技(上海)有限公司 碰撞***及其信息处理方法
CN109200582A (zh) * 2018-08-02 2019-01-15 腾讯科技(深圳)有限公司 控制虚拟对象与投掷物交互的方法、装置及存储介质
CN110215706A (zh) * 2019-06-20 2019-09-10 腾讯科技(深圳)有限公司 虚拟对象的位置确定方法、装置、终端及存储介质
CN111035918A (zh) * 2019-11-20 2020-04-21 腾讯科技(深圳)有限公司 基于虚拟环境的侦察界面显示方法、装置及可读存储介质
CN111265869A (zh) * 2020-01-14 2020-06-12 腾讯科技(深圳)有限公司 虚拟对象的检测方法、装置、终端及存储介质
CN111282275A (zh) * 2020-03-06 2020-06-16 腾讯科技(深圳)有限公司 虚拟场景中的碰撞痕迹展示方法、装置、设备及存储介质
CN111359207A (zh) * 2020-03-09 2020-07-03 腾讯科技(深圳)有限公司 虚拟道具的操作方法、装置、存储介质及电子装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107930123A (zh) * 2017-12-15 2018-04-20 玖万里网络科技(上海)有限公司 碰撞***及其信息处理方法
CN109200582A (zh) * 2018-08-02 2019-01-15 腾讯科技(深圳)有限公司 控制虚拟对象与投掷物交互的方法、装置及存储介质
CN110215706A (zh) * 2019-06-20 2019-09-10 腾讯科技(深圳)有限公司 虚拟对象的位置确定方法、装置、终端及存储介质
CN111035918A (zh) * 2019-11-20 2020-04-21 腾讯科技(深圳)有限公司 基于虚拟环境的侦察界面显示方法、装置及可读存储介质
CN111265869A (zh) * 2020-01-14 2020-06-12 腾讯科技(深圳)有限公司 虚拟对象的检测方法、装置、终端及存储介质
CN111282275A (zh) * 2020-03-06 2020-06-16 腾讯科技(深圳)有限公司 虚拟场景中的碰撞痕迹展示方法、装置、设备及存储介质
CN111359207A (zh) * 2020-03-09 2020-07-03 腾讯科技(深圳)有限公司 虚拟道具的操作方法、装置、存储介质及电子装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113680061A (zh) * 2021-09-03 2021-11-23 腾讯科技(深圳)有限公司 虚拟道具的控制方法、装置、终端及存储介质
CN113680061B (zh) * 2021-09-03 2023-07-25 腾讯科技(深圳)有限公司 虚拟道具的控制方法、装置、终端及存储介质
CN113713383A (zh) * 2021-09-10 2021-11-30 腾讯科技(深圳)有限公司 投掷道具控制方法、装置、计算机设备及存储介质
CN113713383B (zh) * 2021-09-10 2023-06-27 腾讯科技(深圳)有限公司 投掷道具控制方法、装置、计算机设备及存储介质
CN113750530A (zh) * 2021-09-18 2021-12-07 腾讯科技(深圳)有限公司 虚拟场景中的道具控制方法、装置、设备及存储介质
CN113750530B (zh) * 2021-09-18 2023-07-21 腾讯科技(深圳)有限公司 虚拟场景中的道具控制方法、装置、设备及存储介质
CN114047998A (zh) * 2021-11-30 2022-02-15 珠海金山数字网络科技有限公司 对象更新方法及装置
CN114047998B (zh) * 2021-11-30 2024-04-19 珠海金山数字网络科技有限公司 对象更新方法及装置
WO2023226565A1 (zh) * 2022-05-25 2023-11-30 腾讯科技(深圳)有限公司 虚拟角色的追寻方法和装置、存储介质、设备和程序产品

Also Published As

Publication number Publication date
CN112121414B (zh) 2022-04-08

Similar Documents

Publication Publication Date Title
CN112121414B (zh) 虚拟场景中的追踪方法、装置、电子设备及存储介质
CN112090069B (zh) 虚拟场景中的信息提示方法、装置、电子设备及存储介质
CN113181650B (zh) 虚拟场景中召唤对象的控制方法、装置、设备及存储介质
CN112090070B (zh) 虚拟道具的交互方法、装置及电子设备
CN112295230B (zh) 虚拟场景中虚拟道具的激活方法、装置、设备及存储介质
CN112057863B (zh) 虚拟道具的控制方法、装置、设备及计算机可读存储介质
JP7447296B2 (ja) 仮想道具のインタラクティブ処理方法、装置、電子機器及びコンピュータプログラム
CN112057860B (zh) 虚拟场景中激活操作控件的方法、装置、设备及存储介质
CN113633964B (zh) 虚拟技能的控制方法、装置、设备及计算机可读存储介质
US20230072503A1 (en) Display method and apparatus for virtual vehicle, device, and storage medium
CN112138385B (zh) 虚拟射击道具的瞄准方法、装置、电子设备及存储介质
CN112121434A (zh) 特效道具的互动方法、装置、电子设备及存储介质
CN112295228B (zh) 虚拟对象的控制方法、装置、电子设备及存储介质
CN112402946B (zh) 虚拟场景中的位置获取方法、装置、设备及存储介质
CN111921198A (zh) 虚拟道具的控制方法、装置、设备及计算机可读存储介质
CN113457151A (zh) 虚拟道具的控制方法、装置、设备及计算机可读存储介质
CN112121432B (zh) 虚拟道具的控制方法、装置、设备及计算机可读存储介质
CN113703654B (zh) 虚拟场景中的伪装处理方法、装置及电子设备
CN115634449A (zh) 虚拟场景中控制虚拟对象的方法、装置、设备及产品
CN112156472B (zh) 虚拟道具的控制方法、装置、设备及计算机可读存储介质
CN112121433B (zh) 虚拟道具的处理方法、装置、设备及计算机可读存储介质
CN113769392A (zh) 虚拟场景的状态处理方法、装置、电子设备及存储介质
CN113440853B (zh) 虚拟场景中虚拟技能的控制方法、装置、设备及存储介质
CN113663329B (zh) 虚拟角色的射击控制方法、装置、电子设备及存储介质
CN116726499A (zh) 虚拟场景中的位置转移方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant