CN113577765A - 用户界面的显示方法、装置、设备及存储介质 - Google Patents

用户界面的显示方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113577765A
CN113577765A CN202110960461.3A CN202110960461A CN113577765A CN 113577765 A CN113577765 A CN 113577765A CN 202110960461 A CN202110960461 A CN 202110960461A CN 113577765 A CN113577765 A CN 113577765A
Authority
CN
China
Prior art keywords
layer
virtual environment
virtual
target event
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110960461.3A
Other languages
English (en)
Other versions
CN113577765B (zh
Inventor
陈孝峰
史璟晨
艾韫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202110960461.3A priority Critical patent/CN113577765B/zh
Publication of CN113577765A publication Critical patent/CN113577765A/zh
Priority to PCT/CN2022/108865 priority patent/WO2023020254A1/zh
Priority to JP2023571346A priority patent/JP2024522067A/ja
Priority to US18/302,333 priority patent/US20230249073A1/en
Application granted granted Critical
Publication of CN113577765B publication Critical patent/CN113577765B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/88Mini-games executed independently while main games are being loaded
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种用户界面的显示方法、装置、设备及存储介质,属于图形用户界面领域。所述方法包括:显示用户界面;控制虚拟角色在虚拟环境中活动;响应于虚拟角色在虚拟环境中被目标事件影响,将虚拟环境画面显示为屏蔽状态,且将地图展示控件显示为模糊状态。本申请利用虚拟角色模拟真人的致盲效果,通过将虚拟环境画面显示为屏蔽状态的方式模拟出真人的致盲情景、通过将地图展示控件显示为模糊状态的方式模拟出真人在致盲情况下仍具备一定记忆力的情景,从而通过上述方式模拟出更为真实的致盲体验效果。

Description

用户界面的显示方法、装置、设备及存储介质
技术领域
本申请实施例涉及图形用户界面领域,特别涉及一种用户界面的显示方法、装置、设备及存储介质。
背景技术
用户可以操作游戏程序中的游戏人物进行竞技对抗。游戏程序提供有虚拟世界,游戏人物是位于虚拟世界中的虚拟角色。
终端上显示有虚拟环境画面、操作控件和地图展示控件。该虚拟环境画面是以当前虚拟角色的视角对虚拟世界进行观察得到的画面,操作控件是用于控制虚拟角色执行某种行为的控件,地图展示控件是用于显示虚拟世界的俯视地图的控件。在虚拟角色受到闪光弹或类似致盲效果技能致盲的情况下,需要屏蔽虚拟角色从虚拟环境中所能获取的信息,相关技术中,通过屏蔽虚拟环境画面,实现致盲的效果。
但是,相关技术中对虚拟角色获取的虚拟环境画面信息全部屏蔽且致盲效果恒定不变,该方式模拟出的致盲场景不真实。
发明内容
本申请提供了一种用户界面的显示方法、装置、设备及存储介质,可以通过在显示层上叠加遮罩层、信息层上叠加模糊特效层的方式模拟出更为真实的致盲效果。所述技术方案如下:
根据本申请的一方面,提供了一种用户界面的显示方法,所述方法包括:
显示用户界面,用户界面包括虚拟环境画面、操作控件和地图展示控件;虚拟环境画面显示有位于虚拟环境中的虚拟角色,操作控件用于控制虚拟角色,地图展示控件用于展示虚拟环境的地图;
控制虚拟角色在虚拟环境中活动;
响应于虚拟角色在虚拟环境中被目标事件影响,将虚拟环境画面显示为屏蔽状态,且将地图展示控件显示为模糊状态。
根据本申请的一方面,提供了一种用户界面的显示装置,所述装置包括:
显示模块,用于显示用户界面,用户界面包括虚拟环境画面、操作控件和地图展示控件;虚拟环境画面显示有位于虚拟环境中的虚拟角色,操作控件用于控制虚拟角色,地图展示控件用于展示虚拟环境的地图;
控制模块,用于控制虚拟角色在虚拟环境中活动;
屏蔽模块,用于响应于虚拟角色在虚拟环境中被目标事件影响,将虚拟环境画面显示为屏蔽状态,且将地图展示控件显示为模糊状态。
根据本申请的另一方面,提供了一种计算机设备,所述计算机设备包括:处理器和存储器,存储器中存储有至少一段程序,至少一段程序由所述处理器加载并执行以实现如上方面所述的用户界面的显示方法。
根据本申请的另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上方面所述的用户界面的显示方法。
根据本申请的另一方面,提供了一种计算机程序产品,所述计算机程序产品中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上方面所述的用户界面的显示方法。
本申请提供的技术方案带来的有益效果至少包括:
通过显示用户界面;控制虚拟角色在虚拟环境中活动;响应于虚拟角色在虚拟环境中被目标事件影响,将虚拟环境画面显示为屏蔽状态,且将地图展示控件显示为模糊状态。本申请利用虚拟角色模拟真人的致盲效果,通过将虚拟环境画面显示为屏蔽状态的方式模拟出真人的致盲情景、通过将地图展示控件显示为模糊状态的方式模拟出真人在致盲情况下仍具备一定记忆力的情景,从而通过上述方式模拟出更为真实的致盲体验效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的一种用户界面的显示方法的示意图;
图2是本申请一个示例性实施例提供的计算机***的结构框图;
图3是本申请一个示例性实施例提供的用户界面的显示方法的流程图;
图4是本申请一个示例性实施例提供的地图展示控件模糊状态的示意图;
图5是本申请一个示例性实施例提供的用户界面的显示方法的流程图;
图6是本申请一个示例性实施例提供的信息层显示信息部分模糊的示意图;
图7是本申请一个示例性实施例提供的用户界面的显示结构示意图;
图8是本申请一个示例性实施例提供的用户界面的显示方法的流程图;
图9是本申请一个示例性实施例提供的用户界面的显示结构示意图;
图10是本申请一个示例性实施例提供的用户界面的显示方法的流程图;
图11是本申请一个示例性实施例提供的用户界面的显示结构示意图;
图12是本申请一个示例性实施例提供的用户界面的显示方法的流程图;
图13是本申请一个示例性实施例提供的用户界面的显示结构示意图;
图14是本申请一个示例性实施例提供的目标事件与显示层重叠区域的示意图;
图15是本申请一个示例性实施例提供的用户界面的显示方法的流程图;
图16是本申请一个示例性实施例提供的用户界面的显示方法的流程图;
图17是本申请一个示例性实施例提供的用户界面的显示装置的框图;
图18是本申请一个示例性实施例提供的计算机设备的装置结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请实施例中涉及的名词进行介绍:
虚拟环境:是应用程序在终端上运行时显示(或提供)的虚拟环境。该虚拟环境可以是对真实世界的仿真世界,也可以是半仿真半虚构的三维世界,还可以是纯虚构的三维世界。虚拟环境可以是二维虚拟环境、2.5维虚拟环境和三维虚拟环境中的任意一种。
虚拟角色:是指在虚拟环境中的可活动对象。该可活动对象可以是虚拟动物、动漫人物中的至少一种。可选地,当虚拟环境为三维虚拟环境时,虚拟角色可以是三维虚拟模型,每个虚拟角色在三维虚拟环境中具有自身的形状和体积,占据三维虚拟环境中的一部分空间。可选地,虚拟角色是基于三维人体骨骼技术构建的三维角色,该虚拟角色通过穿戴不同的皮肤来实现不同的外在形象。在一些实现方式中,虚拟角色也可以采用2.5维或2维模型来实现,本申请实施例对此不加以限定。
信息屏蔽:是指在支持虚拟环境的应用程序中,虚拟角色在被目标事件命中后,对虚拟角色能够获取的信息进行屏蔽,包括但不限于周围视野、地图地形、敌人位置等信息。
层级:是指在游戏中的UI界面由许多个层级组成。
本申请实施例提供了一种用户界面的显示方法的技术方案。如图1所示,在用户界面上显示有虚拟环境画面10、操作控件20和地图展示控件30。用户界面包括显示层、操作层和信息层。显示层用于显示虚拟环境画面10,虚拟环境画面10表示虚拟角色在目前位置所能够获得的虚拟环境信息;操作层用于显示操作控件,操作控件20是用于控制虚拟角色执行某种行为的控件;信息层显示地图展示控件30,地图展示控件30是用于表示虚拟世界的俯视地图的控件。通过操作控件20控制虚拟角色在虚拟环境中活动;响应于虚拟角色在虚拟环境中被目标事件影响,将虚拟环境画面10显示为屏蔽状态,且将地图展示控件30显示为模糊状态。
当虚拟角色在虚拟环境中被目标事件影响后,本实施例中目标事件以闪光弹为例。虚拟角色在被闪光弹命中后,在显示层上显示的虚拟环境画面10与操作层上显示的操作控件20之间增加遮罩层,遮罩层用于屏蔽显示层显示的虚拟环境画面10;在信息层上显示的地图展示控件30上增加模糊特效层,模糊特效层用以屏蔽信息层显示的地图展示控件30。
比如,在虚拟角色被闪光弹命中的情况下,虚拟角色暂时失去视觉,但对地图位置仍拥有模糊记忆,且行动力不受限,依然拥有反制能力。通过遮罩层屏蔽显示层显示的虚拟环境画面10,使得虚拟角色难以获取虚拟环境的信息,但依然可以通过操作操作控件控制虚拟角色执行某种行为动作;虚拟角色在致盲的情况下,虽然无法获取虚拟环境的信息,但是虚拟角色对当前所处地图位置仍具有模糊记忆,所以,通过模糊特效层使得信息层显示的地图展示控件30呈现模糊状态,以此模拟虚拟角色对地图信息的模糊记忆。
由于闪光弹的影响范围有限,在不同位置被闪光弹命中,会产生不同的致盲效果,比如,虚拟角色在闪光弹的影响范围外面,用户界面上的虚拟环境画面10、操作控件20和地图展示控件30均不受闪光弹的影响;在闪光弹的影响范围包括显示层但不包括遮罩层的情况下,用户界面中仅有部分虚拟环境画面10受屏蔽,地图展示控件30为清晰状态;在闪光弹的影响范围包括遮罩层但不包括信息层的情况下,用户界面中的虚拟环境画面10全部受屏蔽,地图展示控件30为清晰状态;在闪光弹的影响范围包括信息层,但不包括模糊特效层的情况下,用户界面中虚拟环境画面10全部受屏蔽且部分地图展示控件30显示为模糊状态;在闪光弹的影响范围包括模糊特效层的情况下,用户界面中虚拟环境画面10全部受屏蔽且全部地图展示控件30显示为模糊状态。
本申请能够实现虚拟角色在目标事件的不同影响范围下的真实致盲模拟效果。虚拟角色在被虚拟道具命中的情况下,虽然失去视力但仍具备记忆力和反应力,通过将虚拟环境画面10显示为屏蔽状态、将地图展示控件30显示为模糊状态,能够模拟出更为真实的致盲体验效果。
图2给出了本申请一个示例性实施例提供的计算机***的结构框图。该计算机***100包括:第一终端110、服务器120、第二终端130。
第一终端110安装和运行有支持虚拟环境的客户端111,该客户端111可以是多人在线对战程序。当第一终端运行客户端111时,第一终端110的屏幕上显示客户端111的用户界面。该客户端111可以是军事仿真程序、大逃杀射击游戏、虚拟现实(Virtual Reality,VR)应用程序、增强现实(Augmented Reality,AR)程序、三维地图程序、虚拟现实游戏、增强现实游戏、第一人称射击游戏(First-Person Shooting Game,FPS)、第三人称射击游戏(Third-Personal Shooting Game,TPS)、多人在线战术竞技游戏(Multiplayer OnlineBattle Arena Games,MOBA)、策略游戏(Simulation Game,SLG)中的任意一种。在本实施例中,以该客户端111是MOBA游戏来举例说明。第一终端110是第一用户112使用的终端,第一用户112使用第一终端110控制位于虚拟环境中的第一虚拟角色进行活动,第一虚拟角色可以称为第一用户112的虚拟角色。第一虚拟角色的活动包括但不限于:移动、跳跃、传送、释放技能、调整身体姿态、爬行、步行、奔跑、骑行、飞行、跳跃、驾驶、拾取、射击、攻击、投掷中的至少一种。示意性的,第一虚拟角色是第一虚拟角色,比如仿真人物角色或动漫人物角色。
第二终端130安装和运行有支持虚拟环境的客户端131,该客户端131可以是多人在线对战程序。当第二终端130运行客户端131时,第二终端130的屏幕上显示客户端131的用户界面。该客户端可以是军事仿真程序、大逃杀射击游戏、VR应用程序、AR程序、三维地图程序、虚拟现实游戏、增强现实游戏、FPS、TPS、MOBA、SLG中的任意一种,在本实施例中,以该客户端是MOBA游戏来举例说明。第二终端130是第二用户113使用的终端,第二用户113使用第二终端130控制位于虚拟环境中的第二虚拟角色进行活动,第二虚拟角色可以称为第二用户113的虚拟角色。示意性的,第二虚拟角色是第二虚拟角色,比如仿真人物角色或动漫人物角色。
可选地,第一虚拟角色和第二虚拟角色处于同一虚拟环境中。可选地,第一虚拟角色和第二虚拟角色可以属于同一个阵营、同一个队伍、同一个组织、具有好友关系或具有临时性的通讯权限。可选的,第一虚拟角色和第二虚拟角色可以属于不同的阵营、不同的队伍、不同的组织或具有敌对关系。
可选地,第一终端110和第二终端130上安装的客户端是相同的,或两个终端上安装的客户端是不同操作***平台(安卓或IOS)上的同一类型客户端。第一终端110可以泛指多个终端中的一个,第二终端130可以泛指多个终端中的另一个,本实施例仅以第一终端110和第二终端130来举例说明。第一终端110和第二终端130的设备类型相同或不同,该设备类型包括:智能手机、平板电脑、电子书阅读器、MP3播放器、MP4播放器、膝上型便携计算机和台式计算机中的至少一种。
图2中仅示出了两个终端,但在不同实施例中存在多个其它终端140可以接入服务器120。可选地,还存在一个或多个终端140是开发者对应的终端,在终端140上安装有支持虚拟环境的客户端的开发和编辑平台,开发者可在终端140上对客户端进行编辑和更新,并将更新后的客户端安装包通过有线或无线网络传输至服务器120,第一终端110和第二终端130可从服务器120下载客户端安装包实现对客户端的更新。
第一终端110、第二终端130以及其它终端140通过无线网络或有线网络与服务器120相连。
服务器120包括一台服务器、多台服务器、云计算平台和虚拟化中心中的至少一种。服务器120用于为支持三维虚拟环境的客户端提供后台服务。可选地,服务器120承担主要计算工作,终端承担次要计算工作;或者,服务器120承担次要计算工作,终端承担主要计算工作;或者,服务器120和终端之间采用分布式计算架构进行协同计算。
在一个示意性的例子中,服务器120包括处理器122、用户账号数据库123、对战服务模块124、面向用户的输入/输出接口(Input/Output Interface,I/O接口)125。其中,处理器122用于加载服务器121中存储的指令,处理用户账号数据库123和对战服务模块124中的数据;用户账号数据库123用于存储第一终端110、第二终端130以及其它终端140所使用的用户账号的数据,比如用户账号的头像、用户账号的昵称、用户账号的战斗力指数,用户账号所在的服务区;对战服务模块124用于提供多个对战房间供用户进行对战,比如1V1对战、3V3对战、5V5对战等;面向用户的I/O接口125用于通过无线网络或有线网络和第一终端110和/或第二终端130建立通信交换数据。
图3是本申请一个示例性实施例提供的用户界面的显示方法的流程图。该方法可以由如图2所示的***中的终端或终端上的客户端执行。该方法包括:
步骤202:显示用户界面,用户界面显示有虚拟环境画面、操作控件和地图展示控件;
虚拟环境是终端中的应用程序在运行的过程中,虚拟角色在虚拟世界中所处的环境。可选地,本申请的实施例中,在虚拟世界中通过摄像机模型对虚拟角色进行观察。
可选地,摄像机模型在虚拟世界中对虚拟角色进行自动跟随,即,当虚拟角色在虚拟世界中的位置发生改变时,摄像机模型跟随虚拟角色在虚拟世界中的位置同时发生改变,且该摄像机模型在虚拟世界中始终处于虚拟角色的预设距离范围内。可选地,在自动跟随过程中,摄像头模型和虚拟角色的相对位置不发生变化。
摄像机模型是指在虚拟世界中位于虚拟角色周围的三维模型,当采用第一人称视角时,该摄像机模型位于虚拟角色的头部附近或者位于虚拟角色的头部;当采用第三人称视角时,该摄像机模型可以位于虚拟角色的后方并与虚拟角色进行绑定,也可以位于与虚拟角色相距预设距离的任意位置,通过该摄像机模型可以从不同角度对位于虚拟世界中的虚拟角色进行观察,可选地,该第三人称视角为第一人称的过肩视角时,摄像机模型位于虚拟角色(比如虚拟角色的头肩部)的后方。可选地,除第一人称视角和第三人称视角外,视角还包括其他视角,比如俯视视角;当采用俯视视角时,该摄像机模型可以位于虚拟角色头部的上空,俯视视角是以从空中俯视的角度进行观察虚拟世界的视角。可选地,该摄像机模型在虚拟世界中不会进行实际显示,即,在用户界面显示的虚拟世界中不显示该摄像机模型。
对该摄像机模型位于与虚拟角色相距预设距离的任意位置为例进行说明,可选地,一个虚拟角色对应一个摄像机模型,该摄像机模型可以以虚拟角色为旋转中心进行旋转,如:以虚拟角色的任意一点为旋转中心对摄像机模型进行旋转,摄像机模型在旋转过程中的不仅在角度上有转动,还在位移上有偏移,旋转时摄像机模型与该旋转中心之间的距离保持不变,即,将摄像机模型在以该旋转中心作为球心的球体表面进行旋转,其中,虚拟角色的任意一点可以是虚拟角色的头部、躯干、或者虚拟角色周围的任意一点,本申请实施例对此不加以限定。可选地,摄像机模型在对虚拟角色进行观察时,该摄像机模型的视角的中心指向为该摄像机模型所在球面的点指向球心的方向。
可选地,该摄像机模型还可以在虚拟角色的不同方向以预设的角度对虚拟角色进行观察。
操作控件用于控制虚拟角色执行某种行为动作。该行为动作包括走动、跑动、趴下、跳跃、半蹲中的至少一种,但不限于此,本实施例对此不作限定。
地图展示控件是用于展示虚拟环境地图的用户界面(User Interface,UI)控件。虚拟环境的地图用于表达虚拟环境中各项事物的空间分布、联系、数量和质量特征及其在时间中的发展变化状态。该地图展示控件中显示的地图,可以是二维(2D)或三维(3D)形式,便于向用户快速直观反映当前虚拟环境的情况,以便于用户制定使用策略、实施操作。以游戏应用程序为例,地图展示控件也可以称为地图或小地图,用于以二维或三维的形式展示游戏应用程序提供的虚拟环境的地形地貌,如R城、P城、港口等的位置。
需要说明的一点是,该地图展示控件可以展示虚拟环境的全局地图,也可以展示虚拟环境的部分地图,本申请实施例对此不作限定。例如,若用户需要对虚拟环境中的某个部分进行实时监控,则用户可以对该地图展示控件进行设置,客户端在获取地图展示控件对应的显示参数之后,控制该地图展示控件仅仅显示由用户设置的部分虚拟环境。
可选地,上述地图展示控件是一个UI操作控件,能够接收用户操作并进行响应,如支持对用户的点击、拖动、缩放等操作进行响应。
步骤204:控制虚拟角色在虚拟环境中活动;
用户通过操作控件控制虚拟角色进行活动,用户可以通过按压一个或多个操作控件中的按钮控制虚拟角色进行活动,该活动包括:走动、跑动、趴下、跳跃、半蹲中的至少一种,本实施例对此不作限定。用户也可以通过按压一个或多个操作控件中的按钮控制虚拟角色释放技能或使用物品。用户还可以通过在触摸屏上进行长按、点击、双击和/或滑动所产生的信号控制虚拟角色。
步骤206:响应于虚拟角色在虚拟环境中被目标事件影响,将虚拟环境画面显示为屏蔽状态,且将地图展示控件显示为模糊状态。
目标事件包括被具有致盲效果的道具命中,或,被具有致盲效果的技能命中中的至少一种,本实施例对此不作限定。比如,具有致盲效果的道具可以是闪光弹,本实施例对此不作限定。被目标事件影响是指虚拟角色在虚拟环境中所处位置位于目标事件的影响范围内。
屏蔽状态是指虚拟角色难以从虚拟环境中获取信息,即用户难以从用户界面中的虚拟环境画面中10获取到信息;
模糊状态是指虚拟角色仅可以得知模糊的地图信息,不能清晰的获取地图信息,即用户仅可以从用户界面中的地图展示控件30中获取模糊的信息。
示例性地,如图4所示,用户界面中的地图展示控件30在显示为模糊状态前、后的示意图。地图展示控件30在模糊状态下,仅显示模糊的信息。
地图展示控件30也可以称为地图或小地图,用于以二维或三维的形式展示游戏应用程序提供的虚拟环境的地形地貌。地图展示控件30显示的信息包括虚拟环境的地形地貌,如R城、P城、港口的位置;或,虚拟角色自身所处位置;或,脚步声信息、枪声信息、机械声信息的至少一种,本申请对此不作限定。
地图展示控件30的模糊状态包括全部模糊和部分模糊。示例性地,地图展示控件30中包含n种信息,全部模糊是指模糊地图展示控件30中的全部n种信息;部分模糊是指模糊地图展示控件30中的至少一种,n种信息包括地形地貌信息、虚拟角色自身所处位置信息、脚步声信息、枪声信息、机械声信息中的至少两种,本申请对此不作限定。
综上所述,本实施例提供的方法,通过显示用户界面,控制虚拟角色在虚拟环境中活动,虚拟角色在虚拟环境中被目标事件影响的情况下,虚拟环境画面10显示为屏蔽状态,且将地图展示控件30显示为模糊状态。屏蔽状态下的虚拟环境画面10以及模糊状态下的地图展示控件30真实地显示出虚拟角色在被目标事件影响的情况下的致盲效果。
图5是本申请一个示例性实施例提供的用户界面的显示方法的流程图。该方法可以由如图2所示的***中的终端或终端上的客户端执行。该方法包括:
步骤202:显示用户界面,用户界面的显示层显示有虚拟环境画面、操作层显示有操作控件、信息层显示有地图展示控件;
用户界面是用于显示虚拟环境画面10、操作控件20和地图展示控件30的界面。虚拟环境画面10是用于显示位于虚拟环境中虚拟角色视野所及的画面信息,包括房屋、车辆、树木、河流、桥梁中的至少一种,本实施例对此不作限定。操作控件20用于控制虚拟角色执行某种行为动作。地图展示控件30是用于展示虚拟环境的地图。
用户界面包括显示层56、操作层54和显示层52。显示层56用于显示虚拟环境画面10,操作层54用于显示操作控件20,操作层54的显示优先级大于显示层56;显示层52用于显示地图展示控件,显示层52的显示优先级大于操作层54。
步骤204:控制虚拟角色在虚拟环境中活动;
用户通过操作控件20控制虚拟角色进行活动,用户可以通过按压一个或多个操作控件20中的按钮控制虚拟角色进行活动,该活动包括:走动、跑动、趴下、跳跃、半蹲中的至少一种,本实施例对此不作限定。用户也可以通过按压一个或多个操作控件20中的按钮控制虚拟角色释放技能或使用物品。用户还可以通过在触摸屏上进行长按、点击、双击和/或滑动所产生的信号控制虚拟角色。
步骤206a:响应于虚拟角色在虚拟环境中被第一目标事件影响,在显示层和操作层之间叠加第一遮罩层,第一遮罩层用于将虚拟环境画面中的全部画面内容显示为屏蔽状态,且在信息层上叠加第一模糊特效层,第一模糊特效层用于将地图展示控件上的全部信息显示为模糊状态。
遮罩层用于屏蔽显示层上的虚拟环境画面,遮罩层处于显示层56与操作层54之间;第一遮罩层551是用于遮罩全部虚拟环境画面10的遮罩层。模糊特效层用于将信息层52上的地图展示控件显示为模糊状态;模糊特效层的显示优先级大于信息层52,第一模糊特效层511用于将信息层52上的地图展示控件30全部显示为模糊状态。模糊特效层的大小等于信息层52的大小,或,模糊特效层的大小小于信息层52的大小。
虚拟环境画面10的全部信息是指位于虚拟环境中的虚拟角色视野所及的全部画面信息,虚拟环境画面10中的全部画面内容显示为屏蔽状态是指显示层所显示的所有画面全部被遮罩层屏蔽覆盖,即从用户界面中看不到显示层所显示的所有画面,遮罩层的显示优先级大于显示层。且在需要全部屏蔽显示层的情况下,遮罩层的大小和显示层的大小相同,或,遮罩层的大小大于显示层的大小;在需要部分屏蔽显示层的情况下,遮罩层的大小小于显示层的大小。
地图展示控件30也可以称为地图或小地图,用于以二维或三维的形式展示游戏应用程序提供的虚拟环境的地形地貌。地图展示控件30显示的信息包括虚拟环境的地形地貌,如R城、P城、港口的位置;或,虚拟角色自身所处位置;或,脚步声信息、枪声信息、机械声信息的至少一种,本申请对此不作限定。
地图展示控件30的模糊状态包括全部模糊和部分模糊。示例性地,地图展示控件30中包含n种信息,全部模糊是指模糊地图展示控件30中的全部n种信息;部分模糊是指模糊地图展示控件30中的至少一种,n种信息包括地形地貌信息、虚拟角色自身所处位置信息、脚步声信息、枪声信息、机械声信息中的至少两种,本申请对此不作限定。
地图展示控件30的部分模糊方式包括赋予地图展示控件30中的信息予以至少两种不同的属性,根据待模糊信息的属性选用与待模糊信息的属性相同的模糊特效层,利用该模糊特效层对待模糊信息予以模糊。不同的属性可以包括颜色属性、形状属性、透明度属性、图案属性中的至少一种,本申请对此不加以限定。
示例性地,如图6所示,在需要对地图展示控件30中显示的脚步声信息进行模糊的情况下,脚步声信息的属性为形状属性,脚步声信息在地图展示控件30中显示为脚印形状,则可以选用同种形状属性的模糊特效层对地图展示控件30进行模糊,即模糊特效层中显示多个同样的脚印形状,以此来模糊地图展示控件30中显示的脚步声信息,从而实现地图展示控件30中显示信息的部分模糊。
示例性地,在需要对地图展示控件30中显示的道路信息进行模糊的情况下,比如地图展示控件30中显示的道路信息为土黄色,则可以选用土黄色的且具有一定透明度的模糊特效层,以此来模糊地图展示控件30中显示的道路信息,从而实现地图展示控件30中显示信息的部分模糊。
遮罩层是纯色图层、渐变图层、图片图层中的至少一种,本申请实施例对此不作限定。通常情况下,遮罩层是不透明的图层,比如,遮罩层可以是白色不透明图层、黑色不透明图层、黄色不透明图层中的一种或多种,本实施例对此不作限定。
模糊特效层是纯色图层、网格图层、马赛克图层、棋盘状图层中的至少一种,本实施例对此不作限定。通常情况下,模糊特效层是具有一定透明度的图层,比如,模糊特效层上可以是具有花纹的图层、具有网格的图层、具有颜色的图层中的一种或多种,本实施例对此不作限定。
目标事件包括被具有致盲效果的道具命中,或,被具有致盲效果的技能命中中的至少一种,本实施例对此不作限定。比如,具有致盲效果的道具可以是闪光弹,本实施例对此不作限定。被目标事件影响是指虚拟角色在虚拟环境中所处的位置位于目标事件的影响范围内。第一目标事件是指影响范围包括模糊特效层的道具。
示意性地,在虚拟角色被第一道具命中的情况下,在用户界面中的显示层56上叠加第一遮罩层551;在信息层52上叠加第一模糊特效层511。
示意性地,如图7所示,在虚拟角色在虚拟环境中被第一目标事件影响的情况下,根据第一目标事件与虚拟角色的相对位置,分别确定显示层56、信息层52上的叠加位置;在显示层56和操作层54之间的叠加位置上叠加第一遮罩层551,在信息层52上的叠加位置上叠加第一模糊特效层511。
示意性地,虚拟角色在虚拟环境中被第一目标事件影响的情况下,即虚拟角色处于第一目标事件的影响范围内,用户界面中的虚拟环境画面10的全部画面显示为屏蔽状态,屏蔽状态是指虚拟角色难以从虚拟环境中获取信息,即用户难以从用户界面中的虚拟环境画面10获取到信息;用户界面中的地图展示控件30的全部信息显示为模糊状态,模糊状态是指虚拟角色仅能从地图信息中获取模糊的信息,不能清晰的获取地图信息,即用户仅可以从用户界面中的地图展示控件30中获取模糊的信息。
综上所述,本实施例提供的方法,通过显示用户界面,控制虚拟角色在虚拟环境中活动,在虚拟角色在虚拟环境中被第一目标事件影响的情况下,在显示层56和操作层54之间叠加第一遮罩层551,在信息层52上叠加第一模糊特效层511;虚拟环境画面中的全部画面内容显示为屏蔽状态,且地图展示控件上的全部信息显示为模糊状态。虚拟角色在被第一目标事件影响后,全部处于屏蔽状态下的虚拟环境画面以及全部处于模糊状态下地图展示控件,真实地显示出虚拟角色在被第一目标事件影响下的致盲效果。
图8是本申请一个示例性实施例提供的用户界面的显示方法的流程图。该方法可以由如图2所示的***中的终端或终端上的客户端执行。该方法包括:
步骤202:显示用户界面,用户界面的显示层显示有虚拟环境画面、操作层显示有操作控件、信息层显示有地图展示控件;
用户界面是用于显示虚拟环境画面10、操作控件20和地图展示控件30的界面。虚拟环境画面10是用于显示位于虚拟环境中虚拟角色视野所及的画面信息,包括房屋、车辆、树木、河流、桥梁中的至少一种,本实施例对此不作限定。操作控件20用于控制虚拟角色执行某种行为动作。地图展示控件30是用于展示虚拟环境的地图。
用户界面包括显示层56、操作层54和显示层52。显示层56用于显示虚拟环境画面10,操作层54用于显示操作控件20,操作层54的显示优先级大于显示层56;显示层52用于显示地图展示控件,显示层52的显示优先级大于操作层54。
步骤204:控制虚拟角色在虚拟环境中活动;
用户通过操作控件20控制虚拟角色进行活动,用户可以通过按压一个或多个操作控件20中的按钮控制虚拟角色进行活动,该活动包括:走动、跑动、趴下、跳跃、半蹲中的至少一种,本实施例对此不作限定。用户也可以通过按压一个或多个操作控件20中的按钮控制虚拟角色释放技能或使用物品。用户还可以通过在触摸屏上进行长按、点击、双击和/或滑动所产生的信号控制虚拟角色。
步骤206b:响应于虚拟角色在虚拟环境中被第二目标事件影响,在显示层和操作层之间叠加第一遮罩层,第一遮罩层用于将虚拟环境画面中的全部画面内容显示为屏蔽状态,且在信息层上叠加第二模糊特效层,第二模糊特效层用于将地图展示控件上的部分信息显示为模糊状态。
遮罩层用于屏蔽显示层上的虚拟环境画面,遮罩层处于显示层56与操作层54之间;第一遮罩层551是用于遮罩全部虚拟环境画面的遮罩层。模糊特效层用于将信息层上的地图展示控件显示为模糊状态;模糊特效层的显示优先级大于信息层52,第一模糊特效层512用于将信息层52上的地图展示控件30全部显示为模糊状态,第二模糊特效层512用于将信息层52上的地图展示控件30部分显示为模糊状态,第二模糊特效层512的模糊效果弱于第一模糊特效层511的模糊效果,即,在地图展示控件30上的部分信息显示为模糊状态的情况下,用户通过用户界面上的信息层获取的地图展示控件信息的清晰度优于地图展示控件30上的全部信息显示为模糊状态时获取的信息。
地图展示控件30也可以称为地图或小地图,用于以二维或三维的形式展示游戏应用程序提供的虚拟环境的地形地貌。地图展示控件30显示的信息包括虚拟环境的地形地貌,如R城、P城、港口的位置;或,虚拟角色自身所处位置;或,脚步声信息、枪声信息、机械声信息的至少一种,本申请对此不作限定。
地图展示控件30的模糊状态包括全部模糊和部分模糊。示例性地,地图展示控件30中包含n种信息,全部模糊是指模糊地图展示控件30中的全部n种信息;部分模糊是指模糊地图展示控件30中的至少一种,n种信息包括地形地貌信息、虚拟角色自身所处位置信息、脚步声信息、枪声信息、机械声信息中的至少两种,本申请对此不作限定。
遮罩层是纯色图层、渐变图层、图片图层中的至少一种,本申请实施例对此不作限定。本实施例采用纯色图层作为遮罩层,遮罩层可以是白色、黑色、黄色中的一种或多种,本实施例对此不作限定。
模糊特效层是纯色图层、网格图层、马赛克图层、棋盘状图层中的至少一种,本实施例对此不作限定。
目标事件包括被具有致盲效果的道具命中,或,被具有致盲效果的技能命中中的至少一种,本实施例对此不作限定。比如,具有致盲效果的道具可以是闪光弹,本实施例对此不作限定。被目标事件影响是指虚拟角色在虚拟环境中所处的位置位于目标事件的影响范围内。第二目标事件是指影响范围包括信息层52但不包括模糊特效层的道具。
示意性地,如图9所示,在虚拟角色在虚拟环境中被第二目标事件影响的情况下,根据第二目标事件与虚拟角色的相对位置,分别确定在显示层56、信息层52上的叠加位置;在显示层56和操作层54之间的叠加位置上叠加第一遮罩层551,在信息层52上的叠加位置上叠加第二模糊特效层512。
示意性地,虚拟角色在虚拟环境中被第二目标事件影响的情况下,即虚拟角色处于第二目标事件的影响范围内,用户界面中的虚拟环境画面的全部画面显示为屏蔽状态,屏蔽状态是指虚拟角色难以从虚拟环境中获取信息,即用户难以从用户界面中的虚拟环境画面获取到信息;用户界面中的地图展示控件的部分信息显示为模糊状态,模糊状态是指虚拟角色仅能从地图信息中获取模糊的信息,不能清晰的获取地图信息,即用户仅可以从用户界面中的地图展示控件中获取模糊的信息。
综上所述,本实施例提供的方法,通过显示用户界面,控制虚拟角色在虚拟环境中活动,在虚拟角色在虚拟环境中被第二目标事件影响的情况下,在显示层56和操作层54之间叠加第一遮罩层551,在信息层52上叠加第二模糊特效层512;虚拟环境画面中的全部画面内容显示为屏蔽状态,且地图展示控件30上的部分信息显示为模糊状态。虚拟角色在被第二目标事件影响后,全部处于屏蔽状态下的虚拟环境画面10以及部分处于模糊状态下地图展示控件30,真实地显示出虚拟角色在被第二目标事件影响下的致盲效果。
图10是本申请一个示例性实施例提供的用户界面的显示方法的流程图。该方法可以由如图2所示的***中的终端或终端上的客户端执行。该方法包括:
步骤202:显示用户界面,用户界面的显示层显示有虚拟环境画面、操作层显示有操作控件、信息层显示有地图展示控件;
用户界面是用于显示虚拟环境画面10、操作控件20和地图展示控件30的界面。虚拟环境画面10是用于显示位于虚拟环境中虚拟角色视野所及的画面信息,包括房屋、车辆、树木、河流、桥梁中的至少一种,本实施例对此不作限定。操作控件20用于控制虚拟角色执行某种行为动作。地图展示控件30是用于展示虚拟环境的地图。
用户界面包括显示层56、操作层54和显示层52。显示层56用于显示虚拟环境画面10,操作层54用于显示操作控件20,操作层54的显示优先级大于显示层56;显示层52用于显示地图展示控件,显示层52的显示优先级大于操作层54。
步骤204:控制虚拟角色在虚拟环境中活动;
用户通过操作控件20控制虚拟角色进行活动,用户可以通过按压一个或多个操作控件20中的按钮控制虚拟角色进行活动,该活动包括:走动、跑动、趴下、跳跃、半蹲中的至少一种,本实施例对此不作限定。用户也可以通过按压一个或多个操作控件20中的按钮控制虚拟角色释放技能或使用物品。用户还可以通过在触摸屏上进行长按、点击、双击和/或滑动所产生的信号控制虚拟角色。
步骤206c:响应于虚拟角色在虚拟环境中被第三目标事件影响,在显示层和操作层之间叠加第一遮罩层,第一遮罩层用于将虚拟环境画面中的全部画面内容显示为屏蔽状态,且保持显示地图展示控件为清晰状态。
遮罩层用于屏蔽显示层上的拟环境画面,遮罩层处于显示层56与操作层54之间;第一遮罩层551是用于遮罩全部虚拟环境画面10的遮罩层。
目标事件包括被具有致盲效果的道具命中,或,被具有致盲效果的技能命中中的至少一种,本实施例对此不作限定。比如,具有致盲效果的道具可以是闪光弹,本实施例对此不作限定。被目标事件影响是指虚拟角色在虚拟环境中所处的位置位于目标事件的影响范围内。第三目标事件是指影响范围包括遮罩层但不包括信息层的道具。
示意性地,如图11所示,在虚拟角色在虚拟环境中被第三目标事件影响的情况下,根据第三目标事件与虚拟角色的相对位置,分别确定在显示层56上的叠加位置;在显示层56和操作层54之间的叠加位置上叠加第一遮罩层551,信息层52上的地图展示控件30以清晰状展示。
虚拟环境画面10的全部信息是指位于虚拟环境中的虚拟角色视野所及的全部画面信息,虚拟环境画面10中的全部画面内容显示为屏蔽状态是指显示层所显示的所有画面全部被遮罩层屏蔽覆盖,即从用户界面中看不到显示层所显示的所有画面,遮罩层的显示优先级大于显示层。且在需要全部屏蔽显示层的情况下,遮罩层的大小和显示层的大小相同,或,遮罩层的大小大于显示层的大小;在需要部分屏蔽显示层的情况下,遮罩层的大小小于显示层的大小。
遮罩层是纯色图层、渐变图层、图片图层中的至少一种,本申请实施例对此不作限定。本实施例采用纯色图层作为遮罩层,遮罩层可以是白色、黑色、黄色中的一种或多种,本实施例对此不作限定。
示意性地,虚拟角色在虚拟环境中被第三目标事件影响的情况下,即虚拟角色处于第三目标事件的影响范围内,用户界面中的虚拟环境画面10的全部画面显示为屏蔽状态,屏蔽状态是指虚拟角色难以从虚拟环境中获取信息,即用户难以从用户界面中的虚拟环境画面10获取到信息;用户界面中的地图展示控件30显示为清晰状态,即用户仅可以从用户界面中的地图展示控件中清晰的获取地图信息。
综上所述,本实施例提供的方法,通过显示用户界面,控制虚拟角色在虚拟环境中活动,在虚拟角色在虚拟环境中被第三目标事件影响的情况下,仅在显示层56和操作层54之间叠加第一遮罩层551;虚拟环境画面中的全部画面内容显示为屏蔽状态,且地图展示控件上的信息显示为清晰状态。虚拟角色在被第三目标事件影响后,全部处于屏蔽状态下的虚拟环境画面以及清晰状态下的地图展示控件,真实地显示出虚拟角色在被第三目标事件影响下的致盲效果。
图12是本申请一个示例性实施例提供的用户界面的显示方法的流程图。该方法可以由如图2所示的***中的终端或终端上的客户端执行。该方法包括:
步骤202:显示用户界面,用户界面的显示层显示有虚拟环境画面、操作层显示有操作控件、信息层显示有地图展示控件;
用户界面是用于显示虚拟环境画面10、操作控件20和地图展示控件30的界面。虚拟环境画面10是用于显示位于虚拟环境中虚拟角色视野所及的画面信息,包括房屋、车辆、树木、河流、桥梁中的至少一种,本实施例对此不作限定。操作控件20用于控制虚拟角色执行某种行为动作。地图展示控件30是用于展示虚拟环境的地图。
用户界面包括显示层56、操作层54和显示层52。显示层56用于显示虚拟环境画面10,操作层54用于显示操作控件20,操作层54的显示优先级大于显示层56;显示层52用于显示地图展示控件,显示层52的显示优先级大于操作层54。
步骤204:控制虚拟角色在虚拟环境中活动;
用户通过操作控件20控制虚拟角色进行活动,用户可以通过按压一个或多个操作控件20中的按钮控制虚拟角色进行活动,该活动包括:走动、跑动、趴下、跳跃、半蹲中的至少一种,本实施例对此不作限定。用户也可以通过按压一个或多个操作控件20中的按钮控制虚拟角色释放技能或使用物品。用户还可以通过在触摸屏上进行长按、点击、双击和/或滑动所产生的信号控制虚拟角色。
步骤206d:响应于虚拟角色在虚拟环境中被第四目标事件影响,在显示层和操作层之间叠加第二遮罩层,第二遮罩层用于将虚拟环境画面中的部分画面内容显示为屏蔽状态,且保持显示地图展示控件为清晰状态。
遮罩层用于屏蔽显示层上的拟环境画面,遮罩层处于显示层56与操作层54之间;第二遮罩层552是用于遮罩部分虚拟环境画面的遮罩层。
目标事件包括被具有致盲效果的道具命中,或,被具有致盲效果的技能命中中的至少一种,本实施例对此不作限定。比如,具有致盲效果的道具可以是闪光弹,本实施例对此不作限定。被目标事件影响是指虚拟角色在虚拟环境中所处的位置位于目标事件的影响范围内。第四目标事件是指影响范围包括显示层56但不包括遮罩层的道具。
示意性地,如图13所示,在虚拟角色在虚拟环境中被第四目标事件影响的情况下,根据第四目标事件与虚拟角色的相对位置,确定在显示层56上的叠加位置;在显示层56和操作层54之间的叠加位置上叠加第二遮罩层552,信息层52上清晰地显示地图展示控件。
示意性地,虚拟角色在虚拟环境中被第四目标事件影响的情况下,即虚拟角色处于第四目标事件的影响范围内,用户界面中的虚拟环境画面的部分画面显示为屏蔽状态;用户界面中的地图展示控件显示为清晰状态。
示意性地,如图14所示,虚拟环境画面10的部分信息是指位于虚拟环境中的虚拟角色视野所及的全部画面信息与第四目标事件的影响范围所重叠的区域,根据第四目标事件与虚拟角色的相对位置,确定显示层56上的叠加位置,即全部画面信息与第四目标事件的影响范围的重叠区域40。在显示层56上的叠加位置上叠加第二遮罩层552,需要说明的是,此处第二遮罩层552的大小与一个重叠区域40的大小相同。
综上所述,本实施例提供的方法,通过显示用户界面,控制虚拟角色在虚拟环境中活动,在虚拟角色在虚拟环境中被第四目标事件影响的情况下,仅在显示层56和操作层54之间叠加第二遮罩层552;虚拟环境画面中的部分画面内容显示为屏蔽状态,且地图展示控件上的信息显示为清晰状态。虚拟角色在被第四目标事件影响后,部分处于屏蔽状态下的虚拟环境画面以及清晰状态下的地图展示控件,真实地显示出虚拟角色在被第四目标事件影响下的致盲效果。
图15是本申请一个示例性实施例提供的用户界面的显示方法的流程图。该方法可以由如图2所示的***中的终端或终端上的客户端执行。该方法包括:
步骤302:确定目标事件的影响范围;
目标事件包括被具有致盲效果的道具命中,或,被具有致盲效果的技能命中中的至少一种,本实施例对此不作限定。比如,具有致盲效果的道具可以是闪光弹,本实施例对此不作限定。被目标事件影响是指虚拟角色在虚拟环境中所处的位置位于目标事件的影响范围内。
步骤304a:在目标事件的影响范围包括模糊特效层的情况下,该道具为第一目标事件;
在确定目标事件的影响范围包括模糊特效层的情况下,确定该道具为第一目标事件;
步骤306a:在显示层和操作层之间叠加第一遮罩层,在信息层上叠加第一模糊特效层;
参照图7,在确定目标事件为第一目标事件的情况下,在显示层56和操作层54之间的叠加位置上叠加第一遮罩层551,在信息层52上的叠加位置上叠加第一模糊特效层511。
步骤304b:在目标事件的影响范围包括信息层但不包括模糊特效层的情况下,该道具为第二目标事件;
在确定目标事件的影响范围包括信息层但不包括模糊特效层的情况下,确定该道具为第二目标事件;
步骤306b:在显示层和操作层之间叠加第一遮罩层,在信息层上叠加第二模糊特效层;
参照图9,在确定目标事件为第二目标事件的情况下,在显示层56和操作层54之间的叠加位置上叠加第一遮罩层551,在信息层52上的叠加位置上叠加第二模糊特效层512。
步骤304c:在目标事件的影响范围包括遮罩层但不包括信息层的情况下,该道具为第三目标事件;
在确定目标事件的影响范围包括遮罩层但不包括信息层的情况下,确定该道具为第三目标事件;
步骤306c:在显示层和操作层之间叠加第一遮罩层;
参照图11,在确定目标事件为第二目标事件的情况下,在显示层56和操作层54之间的叠加位置上叠加第一遮罩层551。
步骤304d:在目标事件的影响范围包括遮罩层但不包括信息层的情况下,该道具为第四目标事件;
在确定目标事件的影响范围包括显示层但不包括遮罩层的情况下,确定该道具为第四目标事件;
步骤306d:在显示层和操作层之间叠加第二遮罩层。
参照图13,在确定目标事件为第二目标事件的情况下,在显示层56和操作层54之间的叠加位置上叠加第二遮罩层552。
图16是本申请实施例提供的用户界面的显示方法的流程图。该方法可以由如图2所示的***中的终端或终端上的客户端执行。该方法包括:
步骤1601:开始;
步骤1602:使用目标事件;
目标事件包括被具有致盲效果的道具命中,或,被具有致盲效果的技能命中中的至少一种,本实施例对此不作限定。比如,具有致盲效果的道具可以是闪光弹,本实施例对此不作限定。目标事件的使用可以是虚拟环境中的任一虚拟角色,本实施例对此不作限定。
步骤1603:判断虚拟角色是否被目标事件影响;
示例性地,判断虚拟角色是否被目标事件影响,即判断虚拟角色是否在目标事件的影响范围内,若虚拟角色在目标事件的影响范围内,则虚拟角色被目标事件影响,执行步骤1604;若虚拟角色不在目标事件的影响范围内,则虚拟角色没有被目标事件影响,执行步骤1606。
步骤1604:获取该目标事件的影响范围;
示例性地,在虚拟角色被目标事件影响的情况下,获取该目标事件的影响范围,依据该目标事件的影响范围判断目标事件对虚拟角色的影响程度,执行步骤1605。
步骤1605:判断该目标事件的影响范围是否包括显示层;
示例性地,在获取了该目标事件的影响范围的情况下,判断该目标事件的影响范围是否包括显示层,显示层用于显示虚拟环境界面,在该目标事件的影响范围不包括显示层的情况下,执行步骤1606;在该目标事件的影响范围包括显示层的情况下,执行步骤1607。
步骤1606:用户界面无影响;
示例性地,在该目标事件的影响范围不包括显示层的情况下,显示层可以正常显示虚拟环境界面,用户从用户界面所获得的信息没有产生变化。
步骤1607:判断该目标事件的影响范围是否包括遮罩层;
示例性地,在该目标事件的影响范围包括显示层的情况下,进而判断该目标事件的影响范围是否包括遮罩层,遮罩层位于显示层与信息层之间。在该目标事件的影响范围包括遮罩层的情况下,执行步骤1609;在该目标事件的影响范围没有包括遮罩层的情况下,执行步骤1608。
步骤1608:虚拟环境画面部分被屏蔽;
示例性地,在该目标事件的影响范围不包括遮罩层的情况下,依据目标事件的影响范围,显示层的虚拟环境画面仅有部分显示为屏蔽状态;信息层的地图展示控件显示为清晰状态。
步骤1609:判断该目标事件的影响范围是否包括信息层;
示例性地,在该目标事件的影响范围包括遮罩层的情况下,进一步判断,该目标事件的影响范围是否包括信息层。在该目标事件的影响范围包括信息层的情况下,执行步骤1611;在该目标事件的影响范围没有包括信息层的情况下,执行步骤1610。
步骤1610:虚拟环境画面全部被屏蔽;
示例性地,在该目标事件的影响范围包括遮罩层,但没有包括信息层的情况下,显示层的虚拟环境画面中的全部画面内容显示为屏蔽状态;信息层的地图展示控件显示为清晰状态。
步骤1611:判断该目标事件的影响范围是否包括模糊特效层;
示例性地,在该目标事件的影响范围包括遮罩层,且包括信息层的情况下,进一步判断,该目标事件的影响范围是否包括模糊特效层。在该目标事件的影响范围包括模糊特效层的情况下,执行步骤1613;在该目标事件的影响范围没有包括模糊特效层的情况下,执行步骤1612。
步骤1612:虚拟环境画面全部被屏蔽,地图展示控件部分模糊;
示例性地,在该目标事件的影响范围包括信息层,但没有包括模糊特效层的情况下,显示层的虚拟环境画面中的全部画面内容显示为屏蔽状态;信息层的部分地图展示控件显示为模糊状态。
步骤1613:虚拟环境画面全部被屏蔽,地图展示控件全部模糊;
示例性地,在该目标事件的影响范围包括信息层,且包括模糊特效层的情况下,显示层的虚拟环境画面中的全部画面内容显示为屏蔽状态;信息层的全部地图展示控件显示为模糊状态。
步骤1614:结束。
图17示出了本申请一个示例性实施例提供的用户界面的显示装置的结构示意图。该装置可以通过软件、硬件或者两者的结合实现成为计算机设备的全部或一部分,该装置包括:
显示模块1720,用于显示用户界面;
控制模块1740,用于控制虚拟角色在虚拟环境中活动;
屏蔽模块1760,用于响应于虚拟角色在虚拟环境中被目标事件影响,将虚拟环境画面显示为屏蔽状态,且将地图展示控件显示为模糊状态。
在本实施例的一个可选设计中,屏蔽模块1760,用于响应于虚拟角色在虚拟环境中被第一目标事件影响,将虚拟环境画面中的全部画面内容显示为屏蔽状态,且将地图展示控件上的全部信息显示为模糊状态。
在本实施例的一个可选设计中,屏蔽模块1760,用于响应于虚拟角色在虚拟环境中被第二目标事件影响,将虚拟环境画面中的全部画面内容显示为屏蔽状态,且将地图展示控件上的部分信息显示为模糊状态。
在本实施例的一个可选设计中,屏蔽模块1760,用于响应于虚拟角色在虚拟环境中被第三目标事件影响,将虚拟环境画面中的全部画面内容显示为屏蔽状态,且保持显示地图展示控件为清晰状态;
在本实施例的一个可选设计中,屏蔽模块1760,用于响应于虚拟角色在虚拟环境中被第四目标事件影响,将虚拟环境画面中的部分画面内容显示为屏蔽状态,且保持显示地图展示控件为清晰状态。
图18示出了本申请一个示例性实施例提供的计算机设备1800的结构框图。该计算机设备1800可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(MovingPicture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器。计算机设备1800还可能被称为用户设备、便携式终端等其他名称。
通常,计算机设备1800包括有:处理器1801和存储器1802。
处理器1801可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1801可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(FieldProgrammable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1801也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1801可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1801还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1802可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是有形的和非暂态的。存储器1802还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1802中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1801所执行以实现本申请实施例中提供的虚拟环境画面的显示方法。
在一些实施例中,计算机设备1800还可选包括有:***设备接口1803和至少一个***设备。具体地,***设备包括:射频电路1804、触摸显示屏1805、摄像头1806、音频电路1807、定位组件1808和电源1809中的至少一种。
***设备接口1803可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器1801和存储器1802。在一些实施例中,处理器1801、存储器1802和***设备接口1803被集成在同一芯片或电路板上;在一些其他实施例中,处理器1801、存储器1802和***设备接口1803中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1804用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1704通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1804将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1804包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等。射频电路1804可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1804还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
触摸显示屏1805用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。触摸显示屏1805还具有采集在触摸显示屏1805的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1801进行处理。触摸显示屏1805用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,触摸显示屏1805可以为一个,设置计算机设备1800的前面板;在另一些实施例中,触摸显示屏1805可以为至少两个,分别设置在计算机设备1800的不同表面或呈折叠设计;在再一些实施例中,触摸显示屏1805可以是柔性显示屏,设置在计算机设备1800的弯曲表面上或折叠面上。甚至,触摸显示屏1805还可以设置成非矩形的不规则图形,也即异形屏。触摸显示屏1805可以采用LCD(Liquid Crystal Display,液晶显示器)、OLED(OrganicLight-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1806用于采集图像或视频。可选地,摄像头组件1806包括前置摄像头和后置摄像头。通常,前置摄像头用于实现视频通话或自拍,后置摄像头用于实现照片或视频的拍摄。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能,主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能。在一些实施例中,摄像头组件1806还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1807用于提供用户和计算机设备1800之间的音频接口。音频电路1807可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1801进行处理,或者输入至射频电路1804以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在计算机设备1800的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1801或射频电路1804的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1807还可以包括耳机插孔。
定位组件1808用于定位计算机设备1800的当前地理位置,以实现导航或LBS(Location Based Service,基于位置的服务)。定位组件1808可以是基于美国的GPS(Global Positioning System,全球定位***)、中国的北斗***或俄罗斯的伽利略***的定位组件。
电源1809用于为计算机设备1800中的各个组件进行供电。电源1809可以是交流电、直流电、一次性电池或可充电电池。当电源1809包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,计算机设备1800还包括有一个或多个传感器1810。该一个或多个传感器1810包括但不限于:加速度传感器1811、陀螺仪传感器1812、压力传感器1813、指纹传感器1814、光学传感器1815以及接近传感器1816。
加速度传感器1811可以检测以计算机设备1800建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1811可以用于检测重力加速度在三个坐标轴上的分量。处理器1801可以根据加速度传感器1811采集的重力加速度信号,控制触摸显示屏1805以横向视图或纵向视图进行用户界面的显示。加速度传感器1811还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1812可以检测计算机设备1800的机体方向及转动角度,陀螺仪传感器1812可以与加速度传感器1811协同采集用户对计算机设备1800的3D动作。处理器1801根据陀螺仪传感器1812采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1813可以设置在计算机设备1800的侧边框和/或触摸显示屏1805的下层。当压力传感器1813设置在计算机设备1800的侧边框时,可以检测用户对计算机设备1800的握持信号,根据该握持信号进行左右手识别或快捷操作。当压力传感器1813设置在触摸显示屏1805的下层时,可以根据用户对触摸显示屏1805的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1814用于采集用户的指纹,以根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1801授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1814可以被设置计算机设备1800的正面、背面或侧面。当计算机设备1800上设置有物理按键或厂商Logo时,指纹传感器1814可以与物理按键或厂商Logo集成在一起。
光学传感器1815用于采集环境光强度。在一个实施例中,处理器1801可以根据光学传感器1815采集的环境光强度,控制触摸显示屏1805的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1805的显示亮度;当环境光强度较低时,调低触摸显示屏1805的显示亮度。在另一个实施例中,处理器1801还可以根据光学传感器1815采集的环境光强度,动态调整摄像头组件1806的拍摄参数。
接近传感器1816,也称距离传感器,通常设置在计算机设备1800的正面。接近传感器1816用于采集用户与计算机设备1800的正面之间的距离。在一个实施例中,当接近传感器1816检测到用户与计算机设备1800的正面之间的距离逐渐变小时,由处理器1801控制触摸显示屏1805从亮屏状态切换为息屏状态;当接近传感器1816检测到用户与计算机设备1800的正面之间的距离逐渐变大时,由处理器1801控制触摸显示屏1805从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图18中示出的结构并不构成对计算机设备1800的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请实施例还提供一种计算机设备,该计算机设备包括处理器和存储器,该存储器中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的用户界面的显示方法。
本申请实施例还提供一种计算机可读存储介质,该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的用户界面的显示方法。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同切换、改进等,均应包含在本申请的保护范围之内。

Claims (20)

1.一种用户界面的显示方法,其特征在于,所述方法包括:
显示用户界面,所述用户界面包括虚拟环境画面、操作控件和地图展示控件;所述虚拟环境画面显示有位于虚拟环境中的虚拟角色,所述操作控件用于控制所述虚拟角色,所述地图展示控件用于展示所述虚拟环境的地图;
控制所述虚拟角色在所述虚拟环境中活动;
响应于所述虚拟角色在所述虚拟环境中被目标事件影响,将所述虚拟环境画面显示为屏蔽状态,且将所述地图展示控件显示为模糊状态。
2.根据权利要求1所述的方法,其特征在于,所述响应于所述虚拟角色在所述虚拟环境中被目标事件影响,将所述虚拟环境画面显示为屏蔽状态,且将所述地图展示控件显示为模糊状态,包括:
响应于所述虚拟角色在所述虚拟环境中被第一目标事件影响,将所述虚拟环境画面中的全部画面内容显示为所述屏蔽状态,且将所述地图展示控件上的全部信息显示为所述模糊状态;
响应于所述虚拟角色在所述虚拟环境中被第二目标事件影响,将所述虚拟环境画面中的全部画面内容显示为所述屏蔽状态,且将所述地图展示控件上的部分信息显示为所述模糊状态。
3.根据权利要求2所述的方法,其特征在于,所述虚拟环境画面处于显示层,所述地图展示控件处于信息层,所述信息层高于所述显示层;
所述响应于所述虚拟角色在所述虚拟环境中被第一目标事件影响,将所述虚拟环境画面中的全部画面内容显示为所述屏蔽状态,且将所述地图展示控件上的全部信息显示为所述模糊状态,包括:
响应于所述虚拟角色在所述虚拟环境中被第一目标事件影响,在所述显示层上叠加第一遮罩层,且在所述信息层上叠加第一模糊特效层;
所述响应于所述虚拟角色在所述虚拟环境中被第二目标事件影响,将所述虚拟环境画面中的全部画面内容显示为所述屏蔽状态,且将所述地图展示控件上的部分信息显示为所述模糊状态,包括:
响应于所述虚拟角色在所述虚拟环境中被第二目标事件影响,在所述显示层上叠加所述第一遮罩层,且在所述信息层上叠加第二模糊特效层;
其中,所述第一遮罩层是用于遮罩全部虚拟环境画面的遮罩层,所述第一遮罩层低于所述信息层,所述第一模糊特效层的模糊效果强于所述第二模糊特效层的模糊效果。
4.根据权利要求3所述的方法,其特征在于,所述用户界面还包括:操作控件,所述操作控件用于控制所述虚拟角色在所述虚拟环境中的活动;
所述方法还包括:
在所述用户界面上保持显示所述操作控件。
5.根据权利要求3所述的方法,其特征在于,所述操作控件位于操作层;
所述在所述显示层上叠加所述第一遮罩层,包括:
在所述显示层和所述操作层之间叠加所述第一遮罩层。
6.根据权利要求2至5任一所述的方法,其特征在于,所述方法还包括:
响应于所述虚拟角色在所述虚拟环境中被第三目标事件影响,将所述虚拟环境画面中的全部画面内容显示为所述屏蔽状态,且保持显示所述地图展示控件为清晰状态;
响应于所述虚拟角色在所述虚拟环境中被第四目标事件影响,将所述虚拟环境画面中的部分画面内容显示为所述屏蔽状态,且保持显示所述地图展示控件为所述清晰状态。
7.根据权利要求6所述的方法,其特征在于,所述虚拟环境画面处于显示层,所述地图展示控件处于信息层,所述信息层高于所述显示层;
所述响应于所述虚拟角色在所述虚拟环境中被第三目标事件影响,将所述虚拟环境画面中的全部画面内容显示为所述屏蔽状态,且保持显示所述地图展示控件为清晰状态,包括:
响应于所述虚拟角色在所述虚拟环境中被第三目标事件影响,在所述显示层上叠加第一遮罩层;
所述响应于所述虚拟角色在所述虚拟环境中被第四目标事件影响,将所述虚拟环境画面中的部分画面内容显示为所述屏蔽状态,且保持显示所述地图展示控件为所述清晰状态,包括:
响应于所述虚拟角色在所述虚拟环境中被第四目标事件影响,在所述显示层上叠加第二遮罩层;
其中,所述第一遮罩层是用于遮罩全部虚拟环境画面的遮罩层,所述第二遮罩层是用于遮罩部分虚拟环境画面的遮罩层,所述第一遮罩层和所述第二遮罩层均低于所述信息层。
8.根据权利要求7所述的方法,其特征在于,所述响应于所述虚拟角色在所述虚拟环境中被第四目标事件影响,在所述显示层上叠加第二遮罩层,包括:
响应于所述虚拟角色在所述虚拟环境中被第四目标事件影响,根据所述第四目标事件与所述虚拟角色的相对位置,在所述显示层上确定叠加位置;
在所述显示层的所述叠加位置上叠加所述第二遮罩层。
9.根据权利要求8所述的方法,其特征在于,所述用户界面还包括:操作控件,所述操作控件用于控制所述虚拟角色在所述虚拟环境中的活动;所述操作控件位于操作层;
所述在所述显示层的所述叠加位置上叠加所述第二遮罩层,包括:
在所述显示层的所述叠加位置和所述操作层之间叠加所述第二遮罩层。
10.根据权利要求2至9任一所述的方法,其特征在于,所述方法还包括:
获取所述目标事件的影响范围;
根据所述目标事件的影响范围,确定所述目标事件的类型。
11.根据权利要求10所述的方法,其特征在于,所述根据所述目标事件的影响范围,确定所述目标事件的类型包括:
在所述目标事件的影响范围包括模糊特效层的情况下,确定所述目标事件的类型为所述第一目标事件;
在所述目标事件的影响范围包括所述信息层,但不包括所述模糊特效层的情况下,确定所述目标事件的类型为所述第二目标事件;
在所述目标事件的影响范围包括所述遮罩层,但不包括所述信息层的情况下,确定所述目标事件的类型为所述第三目标事件;
在所述目标事件的影响范围包括所述显示层,但不包括所述遮罩层的情况下,确定所述目标事件的类型为所述第四目标事件。
12.一种用户界面的显示装置,其特征在于,所述装置包括:
显示模块,用于显示用户界面,所述用户界面包括虚拟环境画面、操作控件和地图展示控件;所述虚拟环境画面显示有位于虚拟环境中的虚拟角色,所述操作控件用于控制所述虚拟角色,所述地图展示控件用于展示所述虚拟环境的地图;
控制模块,用于控制所述虚拟角色在所述虚拟环境中活动;
屏蔽模块,用于响应于所述虚拟角色在所述虚拟环境中被目标事件影响,将所述虚拟环境画面显示为屏蔽状态,且将所述地图展示控件显示为模糊状态。
13.根据权利要求12所述的装置,其特征在于,所述屏蔽模块,包括:
第一屏蔽单元,用于响应于所述虚拟角色在所述虚拟环境中被第一目标事件影响,将所述虚拟环境画面中的全部画面内容显示为所述屏蔽状态,且将所述地图展示控件上的全部信息显示为所述模糊状态;
第二屏蔽单元,用于响应于所述虚拟角色在所述虚拟环境中被第二目标事件影响,将所述虚拟环境画面中的全部画面内容显示为所述屏蔽状态,且将所述地图展示控件上的部分信息显示为所述模糊状态。
14.根据权利要求13所述的装置,其特征在于,所述虚拟环境画面处于显示层,所述地图展示控件处于信息层,所述信息层高于所述显示层;
所述第一屏蔽单元,用于响应于所述虚拟角色在所述虚拟环境中被第一目标事件影响,在所述显示层上叠加第一遮罩层,且在所述信息层上叠加第一模糊特效层;
所述第二屏蔽单元,用于响应于所述虚拟角色在所述虚拟环境中被第二目标事件影响,在所述显示层上叠加所述第一遮罩层,且在所述信息层上叠加第二模糊特效层;
其中,所述第一遮罩层是用于遮罩全部虚拟环境画面的遮罩层,所述第一遮罩层低于所述信息层,所述第一模糊特效层的模糊效果强于所述第二模糊特效层的模糊效果。
15.根据权利要求14所述的装置,其特征在于,所述用户界面还包括:操作控件,所述操作控件用于控制所述虚拟角色在所述虚拟环境中的活动;
所述装置还包括:
操作模块,用于在所述用户界面上保持显示所述操作控件。
16.根据权利要求15所述的装置,其特征在于,所述操作控件位于操作层;
所述第一屏蔽单元,用于:
在所述显示层和所述操作层之间叠加所述第一遮罩层。
17.根据权利要求13至16任一所述的装置,其特征在于,所述装置还包括:
第三屏蔽单元,用于响应于所述虚拟角色在所述虚拟环境中被第三目标事件影响,将所述虚拟环境画面中的全部画面内容显示为所述屏蔽状态,且保持显示所述地图展示控件为清晰状态;
第四屏蔽单元,用于响应于所述虚拟角色在所述虚拟环境中被第四目标事件影响,将所述虚拟环境画面中的部分画面内容显示为所述屏蔽状态,且保持显示所述地图展示控件为所述清晰状态。
18.根据权利要求17所述的装置,其特征在于,所述虚拟环境画面处于显示层,所述地图展示控件处于信息层,所述信息层高于所述显示层;
所述第三屏蔽单元,用于响应于所述虚拟角色在所述虚拟环境中被第三目标事件影响,在所述显示层上叠加第一遮罩层;
所述第四屏蔽单元,用于响应于所述虚拟角色在所述虚拟环境中被第四目标事件影响,在所述显示层上叠加第二遮罩层;
其中,所述第一遮罩层是用于遮罩全部虚拟环境画面的遮罩层,所述第二遮罩层是用于遮罩部分虚拟环境画面的遮罩层,所述第一遮罩层和所述第二遮罩层均低于所述信息层。
19.一种计算机设备,其特征在于,所述计算机设备包括:处理器和存储器,所述存储器中存储有至少一段程序,所述至少一段程序由所述处理器加载并执行以实现如权利要求1至11中任一项所述的用户界面的显示方法。
20.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至11中任一项所述的用户界面的显示方法。
CN202110960461.3A 2021-08-20 2021-08-20 用户界面的显示方法、装置、设备及存储介质 Active CN113577765B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202110960461.3A CN113577765B (zh) 2021-08-20 2021-08-20 用户界面的显示方法、装置、设备及存储介质
PCT/CN2022/108865 WO2023020254A1 (zh) 2021-08-20 2022-07-29 用户界面的显示方法、装置、设备及存储介质
JP2023571346A JP2024522067A (ja) 2021-08-20 2022-07-29 ユーザインタフェースの表示方法、装置、機器及びコンピュータプログラム
US18/302,333 US20230249073A1 (en) 2021-08-20 2023-04-18 User interface display method and apparatus, device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110960461.3A CN113577765B (zh) 2021-08-20 2021-08-20 用户界面的显示方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN113577765A true CN113577765A (zh) 2021-11-02
CN113577765B CN113577765B (zh) 2023-06-16

Family

ID=78238901

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110960461.3A Active CN113577765B (zh) 2021-08-20 2021-08-20 用户界面的显示方法、装置、设备及存储介质

Country Status (4)

Country Link
US (1) US20230249073A1 (zh)
JP (1) JP2024522067A (zh)
CN (1) CN113577765B (zh)
WO (1) WO2023020254A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023020254A1 (zh) * 2021-08-20 2023-02-23 腾讯科技(深圳)有限公司 用户界面的显示方法、装置、设备及存储介质
WO2023207667A1 (zh) * 2022-04-27 2023-11-02 华为技术有限公司 一种显示方法、汽车和电子设备
WO2023246307A1 (zh) * 2022-06-23 2023-12-28 腾讯科技(深圳)有限公司 虚拟环境中的信息处理方法、装置、设备及程序产品

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3345665A1 (en) * 2017-01-10 2018-07-11 Nintendo Co., Ltd. Information processing program, informationprocessing method, information processing system, andinformation processing apparatus
CN108434736A (zh) * 2018-03-23 2018-08-24 腾讯科技(深圳)有限公司 虚拟环境对战中的装备显示方法、装置、设备及存储介质
CN108619720A (zh) * 2018-04-11 2018-10-09 腾讯科技(深圳)有限公司 动画的播放方法和装置、存储介质、电子装置
CN109432766A (zh) * 2015-12-24 2019-03-08 网易(杭州)网络有限公司 一种游戏控制方法及装置
CN110833694A (zh) * 2019-11-15 2020-02-25 网易(杭州)网络有限公司 游戏中的显示控制方法及装置
CN110917618A (zh) * 2019-11-20 2020-03-27 腾讯科技(深圳)有限公司 在虚拟环境中控制虚拟对象的方法、装置、设备及介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5702653B2 (ja) * 2011-04-08 2015-04-15 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
CN107890673A (zh) * 2017-09-30 2018-04-10 网易(杭州)网络有限公司 补偿声音信息的视觉显示方法及装置、存储介质、设备
CN111760280B (zh) * 2020-07-31 2023-08-25 腾讯科技(深圳)有限公司 界面显示方法、装置、终端及存储介质
CN112057864B (zh) * 2020-09-11 2024-02-27 腾讯科技(深圳)有限公司 虚拟道具的控制方法、装置、设备及计算机可读存储介质
CN113577765B (zh) * 2021-08-20 2023-06-16 腾讯科技(深圳)有限公司 用户界面的显示方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109432766A (zh) * 2015-12-24 2019-03-08 网易(杭州)网络有限公司 一种游戏控制方法及装置
EP3345665A1 (en) * 2017-01-10 2018-07-11 Nintendo Co., Ltd. Information processing program, informationprocessing method, information processing system, andinformation processing apparatus
CN108434736A (zh) * 2018-03-23 2018-08-24 腾讯科技(深圳)有限公司 虚拟环境对战中的装备显示方法、装置、设备及存储介质
CN108619720A (zh) * 2018-04-11 2018-10-09 腾讯科技(深圳)有限公司 动画的播放方法和装置、存储介质、电子装置
CN110833694A (zh) * 2019-11-15 2020-02-25 网易(杭州)网络有限公司 游戏中的显示控制方法及装置
CN110917618A (zh) * 2019-11-20 2020-03-27 腾讯科技(深圳)有限公司 在虚拟环境中控制虚拟对象的方法、装置、设备及介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023020254A1 (zh) * 2021-08-20 2023-02-23 腾讯科技(深圳)有限公司 用户界面的显示方法、装置、设备及存储介质
WO2023207667A1 (zh) * 2022-04-27 2023-11-02 华为技术有限公司 一种显示方法、汽车和电子设备
WO2023246307A1 (zh) * 2022-06-23 2023-12-28 腾讯科技(深圳)有限公司 虚拟环境中的信息处理方法、装置、设备及程序产品

Also Published As

Publication number Publication date
JP2024522067A (ja) 2024-06-11
CN113577765B (zh) 2023-06-16
WO2023020254A1 (zh) 2023-02-23
US20230249073A1 (en) 2023-08-10

Similar Documents

Publication Publication Date Title
CN111589133B (zh) 虚拟对象控制方法、装置、设备及存储介质
CN111589128B (zh) 基于虚拟场景的操作控件显示方法及装置
CN110694273A (zh) 控制虚拟对象使用道具的方法、装置、终端及存储介质
CN111467802B (zh) 虚拟环境的画面显示方法、装置、设备及介质
CN111035918A (zh) 基于虚拟环境的侦察界面显示方法、装置及可读存储介质
CN111420402B (zh) 虚拟环境画面的显示方法、装置、终端及存储介质
CN110917616B (zh) 虚拟场景中的方位提示方法、装置、设备及存储介质
CN111603770B (zh) 虚拟环境画面的显示方法、装置、设备及介质
CN113577765B (zh) 用户界面的显示方法、装置、设备及存储介质
CN112083848B (zh) 应用程序内的控件位置调整方法、装置、设备及存储介质
CN111596838B (zh) 业务处理方法、装置、计算机设备及计算机可读存储介质
CN111672106B (zh) 虚拟场景显示方法、装置、计算机设备及存储介质
CN111589141B (zh) 虚拟环境画面的显示方法、装置、设备及介质
CN111921197A (zh) 对局回放画面的显示方法、装置、终端及存储介质
CN111325822B (zh) 热点图的显示方法、装置、设备及可读存储介质
CN112604305A (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN112569600A (zh) 虚拟场景中的路径信息发送方法、计算机设备及存储介质
CN112843679A (zh) 虚拟对象的技能释放方法、装置、设备及介质
CN112691370A (zh) 虚拟对局中投票结果的显示方法、装置、设备及存储介质
CN113559495A (zh) 虚拟对象释放技能的方法、装置、设备及存储介质
CN112870699A (zh) 虚拟环境中的信息显示方法、装置、设备及介质
CN114404972A (zh) 视野画面的显示方法、装置及设备
CN112169330B (zh) 虚拟环境的画面显示方法、装置、设备及介质
CN113599819A (zh) 提示信息的显示方法、装置、设备及存储介质
CN111035929B (zh) 基于虚拟环境的淘汰信息反馈方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40054045

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant