CN113996060A - 显示画面的调整方法和装置、存储介质及电子设备 - Google Patents

显示画面的调整方法和装置、存储介质及电子设备 Download PDF

Info

Publication number
CN113996060A
CN113996060A CN202111276177.0A CN202111276177A CN113996060A CN 113996060 A CN113996060 A CN 113996060A CN 202111276177 A CN202111276177 A CN 202111276177A CN 113996060 A CN113996060 A CN 113996060A
Authority
CN
China
Prior art keywords
display interface
scene
adjustment
picture
touch position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111276177.0A
Other languages
English (en)
Inventor
邝野
桂芷欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Chengdu Co Ltd
Original Assignee
Tencent Technology Chengdu Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Chengdu Co Ltd filed Critical Tencent Technology Chengdu Co Ltd
Priority to CN202111276177.0A priority Critical patent/CN113996060A/zh
Publication of CN113996060A publication Critical patent/CN113996060A/zh
Priority to PCT/CN2022/126917 priority patent/WO2023071962A1/zh
Priority to KR1020237030083A priority patent/KR20230140567A/ko
Priority to JP2023560951A priority patent/JP2024514796A/ja
Priority to US18/212,632 priority patent/US20230330518A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种显示画面的调整方法和装置、存储介质及电子设备。其中,该方法包括:在显示界面中显示虚拟场景内的第一场景画面及目标虚拟对象;响应于对目标虚拟对象执行的拖拽触控操作,确定拖拽触控操作当前停驻的触控位置;在触控位置达到画面调整触发条件的情况下,按照与触控位置相匹配的调整速度,调整显示界面中所显示的场景画面;响应于对显示界面执行的放置操作,将目标虚拟对象放置在显示界面中当前所显示的第二场景画面内的目标位置。本发明解决了由于需要执行多次调整操作导致画面调整的效率较低的技术问题。

Description

显示画面的调整方法和装置、存储介质及电子设备
技术领域
本发明涉及计算机领域,具体而言,涉及一种显示画面的调整方法和装置、存储介质及电子设备。
背景技术
如今,在即时战略(Real-Time Strategy,简称RTS)游戏和即时战术(Real-TimeTactics,简称RTT)游戏等类型的游戏应用中,通常会为玩家提供一个场景空间很大的虚拟世界。但由于受到移动终端的屏幕尺寸的限制,虚拟世界中的内容往往无法完整地展示出来。其中,当玩家希望将虚拟世界中的目标对象移动到场景中的指定位置,而该指定位置位于屏幕的当前显示画面之外时,就需要对屏幕的当前的显示画面进行调整(如下文可称作卷屏)。
目前,相关技术中提供了很多种对显示画面进行调整的方案。比如,通过滑动屏幕内显示的轮盘来调整屏幕中所显示的画面,再结合放置操作来完成将目标对象放置在指定位置。或者,通过点击屏幕内显示的切换按钮(如“左”指向按钮或“右”指向按钮等),来调整屏幕中所显示的画面,再结合放置操作来完成将目标对象放置在指定位置。
也就是说,在相关技术提供的显示画面的调整方式中,往往需要在屏幕内增加额外的调整控件。这里的调整控件不仅占用了屏幕的显示空间,而且基于调整控件进行调整时,往往需要玩家操作多次才能将指定位置调整到显示画面中,存在操作繁琐的问题。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种显示画面的调整方法和装置、存储介质及电子设备,以至少解决由于需要执行多次调整操作导致画面调整的效率较低的技术问题。
根据本发明实施例的一个方面,提供了一种显示画面的调整方法,应用于目标游戏应用中,包括:在显示界面中显示虚拟场景内的第一场景画面及目标虚拟对象;响应于对上述目标虚拟对象执行的拖拽触控操作,确定上述拖拽触控操作当前停驻的触控位置;在上述触控位置达到画面调整触发条件的情况下,按照与上述触控位置相匹配的调整速度,调整上述显示界面中所显示的场景画面;响应于对上述显示界面执行的放置操作,将上述目标虚拟对象放置在上述显示界面中当前所显示的第二场景画面内的目标位置。
根据本发明实施例的另一方面,还提供了一种显示画面的调整装置,应用于目标游戏应用中,包括:显示单元,用于在显示界面中显示虚拟场景内的第一场景画面及目标虚拟对象;确定单元,用于响应于对上述目标虚拟对象执行的拖拽触控操作,确定上述拖拽触控操作当前停驻的触控位置;调整单元,用于在上述触控位置达到画面调整触发条件的情况下,按照与上述触控位置相匹配的调整速度,调整上述显示界面中所显示的场景画面;放置单元,用于响应于对上述显示界面执行的放置操作,将上述目标虚拟对象放置在上述显示界面中当前所显示的第二场景画面内的目标位置。
根据本发明实施例的又一方面,还提供了一种计算机可读的存储介质,该计算机可读的存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述显示画面的调整方法。
根据本申请实施例的又一个方面,提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行如以上显示画面的调整方法。
根据本发明实施例的又一方面,还提供了一种电子设备,包括存储器和处理器,上述存储器中存储有计算机程序,上述处理器被设置为通过所述计算机程序执行上述的显示画面的调整方法。
在本发明实施例中,在显示有第一场景画面的显示界面中拖拽目标虚拟对象时,在拖拽触控操作的触控位置达到画面调整触发条件的情况下,按照与该触控位置相匹配的调整速度,来自动灵活地调整显示界面中当前显示的场景画面。并在调整后的显示界面中当前所显示的第二场景画面内,响应于放置操作,直接将目标虚拟对象放置在第二场景画面内的目标位置。从而实现在无需在显示界面中增加额外的调整控件的情况下,根据拖拽触控操作的触控位置来直接调整显示界面中当前所显示的场景画面,以便于快速将目标虚拟对象放置在第一场景画面之外的目标位置,不仅节省了显示界面中的显示空间,而且简化了画面调整的操作,达到提高画面调整操作的效率的效果。进而克服了相关技术中基于调整控件进行调整时需要玩家操作多次,才能完成画面调整的过程中存在的操作繁琐现象所导致的调整效率较低的问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种可选的显示画面的调整方法的硬件环境的示意图;
图2是根据本发明实施例的一种可选的显示画面的调整方法的流程图;
图3是根据本发明实施例的一种可选的显示画面的调整方法的示意图;
图4是根据本发明实施例的另一种可选的显示画面的调整方法的示意图;
图5是根据本发明实施例的另一种可选的显示画面的调整方法的流程图;
图6是根据本发明实施例的又一种可选的显示画面的调整方法的示意图;
图7是根据本发明实施例的又一种可选的显示画面的调整方法的示意图;
图8是根据本发明实施例的又一种可选的显示画面的调整方法的示意图;
图9是根据本发明实施例的又一种可选的显示画面的调整方法的示意图;
图10是根据本发明实施例的又一种可选的显示画面的调整方法的示意图;
图11是根据本发明实施例的又一种可选的显示画面的调整方法的示意图;
图12是根据本发明实施例的又一种可选的显示画面的调整方法的示意图;
图13是根据本发明实施例的又一种可选的显示画面的调整方法的示意图;
图14是根据本发明实施例的又一种可选的显示画面的调整方法的示意图;
图15是根据本发明实施例的又一种可选的显示画面的调整方法的流程图;
图16是根据本发明实施例的一种可选的显示画面的调整装置的结构示意图;
图17是根据本发明实施例的一种可选的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本发明实施例的一个方面,提供了一种显示画面的调整方法,可选地,作为一种可选的实施方式,上述显示画面的调整方法可以但不限于应用于如图1所示的硬件环境中的显示画面的调整***,其中,该显示画面的调整***可以包括但不限于终端设备102、网络104、服务器106、数据库108。终端设备102中运行有目标游戏应用的客户端。上述终端设备102中包括人机交互屏幕,处理器及存储器。人机交互屏幕用于显示虚拟场景内的第一场景画面及目标虚拟对象;还用于提供人机交互接口以接收用于控制虚拟场景中受控的虚拟对象的人机交互操作,该虚拟对象将完成虚拟场景中设置的游戏任务。处理器用于响应上述人机交互操作生成交互指令,并将该交互指令发送给服务器。存储器用于存储相关属性数据,如场景画面的画面数据,以及客户端所控制的目标虚拟对象的角色属性信息等,这里的属性信息可以包括但不限于用于目标虚拟对象的状态或位置等信息。
此外,服务器106中包括处理引擎,处理引擎用于对数据库108执行存储或读取操作。具体地,处理引擎根据终端设备反馈的触控位置确定所显示的场景画面的调整速度,并从数据库108中拉取对应场景画面的画面数据,并将该画面数据发送给终端设备102进行展示,以使得被控制的目标虚拟对象可以快速被放置在调整后的场景画面中。
具体过程如以下步骤:如步骤S102,在终端设备102的显示界面中显示虚拟场景内的第一场景画面(如图1中(a)所示在界面中间位置显示有尖顶建筑和参考对象的画面)及目标虚拟对象10。然后如步骤S104,响应于对目标虚拟对象执行的拖拽触控操作(如图1中(a)所示的加粗虚线轨迹),确定该拖拽触控操作当前停驻的触控位置。并执行步骤S106,将该触控位置的位置信息通过网络104发送给服务器106。
服务器106从数据库108中获取画面调整触发条件,如步骤S108。假设画面调整触发条件可以为触控位置位于画面调整触发区域(如图1中(a)所示的点线所圈中的画面调整触发区域11)。在服务器106判断出触控位置达到画面调整触发条件的情况下,确定与该触控位置相匹配的调整速度,然后将该调整速度通过网络104返回给终端设备102,如步骤S110-S112。
终端设备102将执行步骤S114-S116,按照调整速度来调整显示界面中所显示的场景画面。响应于对显示界面执行的放置操作,将目标虚拟对象10放置在显示界面中当前所显示的第二场景画面(调整后可以如图1中(b)所示在界面左侧位置显示有尖顶建筑和参考对象的画面)内的目标位置12。
作为另一种可选的实施方式,在终端设备102具备较强大的计算处理能力时,上述步骤S108-S110也可以由终端设备102来完成。这里为示例,本实施例中对此不作任何限定。
需要说明的是,在本实施例中,在显示界面中显示虚拟场景内的第一场景画面及目标虚拟对象之后,响应于对目标虚拟对象执行的拖拽触控操作,确定拖拽触控操作当前停驻的触控位置。并在该触控位置达到画面调整触发条件的情况下,按照与上述触控位置相匹配的调整速度来调整显示界面中所显示的场景画面。然后,响应于对显示界面执行的放置操作,将目标虚拟对象放置在显示界面中当前所显示的第二场景画面内的目标位置。也就是说,在显示有第一场景画面的显示界面中拖拽目标虚拟对象时,在拖拽触控操作的触控位置达到画面调整触发条件的情况下,按照与该触控位置相匹配的调整速度,来自动灵活地调整显示界面中当前显示的场景画面。并在调整后的显示界面中当前所显示的第二场景画面内,响应于放置操作,直接将目标虚拟对象放置在第二场景画面内的目标位置。从而实现在无需在显示界面中增加额外的调整控件的情况下,根据拖拽触控操作的触控位置来直接调整显示界面中当前所显示的场景画面,以便于快速将目标虚拟对象放置在第一场景画面之外的目标位置,不仅节省了显示界面中的显示空间,而且简化了画面调整的操作,达到提高画面调整操作的效率的效果。进而克服了相关技术中基于调整控件进行调整时需要玩家操作多次,才能完成画面调整的过程中存在的操作繁琐现象所导致的调整效率较低的问题。
可选地,在本实施例中,上述终端设备可以是配置有目标客户端的终端设备,可以包括但不限于以下至少之一:手机(如Android手机、iOS手机等)、笔记本电脑、平板电脑、掌上电脑、MID(Mobile Internet Devices,移动互联网设备)、PAD、台式电脑、智能电视等。目标客户端可以是视频客户端、即时通信客户端、浏览器客户端、教育客户端等支持允许运行目标游戏应用的客户端。上述网络可以包括但不限于:有线网络,无线网络,其中,该有线网络包括:局域网、城域网和广域网,该无线网络包括:蓝牙、WIFI及其他实现无线通信的网络。上述服务器可以是单一服务器,也可以是由多个服务器组成的服务器集群,或者是云服务器。上述仅是一种示例,本实施例中对此不作任何限定。
可选地,作为一种可选的实施方式,如图2所示,上述显示画面的调整方法,应用于目标游戏应用中,该方法包括:
S202,在显示界面中显示虚拟场景内的第一场景画面及目标虚拟对象;
可选地,在本实施例中,上述显示画面的调整方法可以但不限于是应用于安装在移动终端的目标游戏应用中,该目标游戏应用可以但不限于为在虚拟场景中完成既定对抗游戏任务的游戏类终端应用(Application,简称APP),如即时战略(Real-Time Strategy,简称RTS)游戏和即时战术(Real-Time Tactics,简称RTT)游戏等。其中,上述对抗游戏任务可以但不限于是当前玩家通过人机交互操作控制虚拟场景中的虚拟角色与其他玩家控制的虚拟角色通过对抗互动完成的游戏任务,这里的对抗游戏任务可以但不限于以插件、小程序形式运行在应用(如非独立运行的游戏APP)中,或在游戏引擎中运行在应用(如独立运行的游戏APP)中。上述游戏应用的类型可以包括但不限于以下至少之一:二维(TwoDimension,简称2D)游戏应用、三维(Three Dimension,简称3D)游戏应用、虚拟现实(Virtual Reality,简称VR)游戏应用、增强现实(Augmented Reality,简称AR)游戏应用、混合现实(Mixed Reality,简称MR)游戏应用。以上只是一种示例,本实施例对此不作任何限定。
可选地,在本实施例中,上述目标虚拟对象可以但不限于是第一场景画面内已显示的待移动的虚拟对象。也就是已经位于虚拟场景中且需调整位置的对象。此外,在本实施例中,上述目标虚拟对象还可以但不限于是并未显示在第一场景画面中的待添加的虚拟对象,也就是尚未进入虚拟场景中但处于待添加(或待出场)状态的对象。如虚拟场景内的虚拟角色(如虚拟人物、虚拟动物等虚拟形象扮演的角色)、虚拟物体、虚拟载具、虚拟道具等。上述为示例,本实施例中对此不作任何限定。
可选地,在本实施例中,上述第一场景画面可以但不限于是目标游戏应用提供的虚拟场景内的场景画面,也就是该场景画面用于表示并未包含显示界面中用于实现控制操作的用户界面(User Interface,简称UI)控件,以及登录该目标游戏应用的客户端的用户账号信息,如用户头像和账号ID等。
如结合图3所示内容进行说明:假设目标游戏应用提供的虚拟场景的第一场景画面302及待移动放置的虚拟对象304,二者在显示界面中的显示位置关系如图3中(a)所示。这里图中所示为示例,本实施例中对此不作限定。
S204,响应于对目标虚拟对象执行的拖拽触控操作,确定拖拽触控操作当前停驻的触控位置;
可选地,在本实施例中,上述拖拽触控操作可以但不限于是对移动终端的触摸屏幕执行的触屏滑动操作。这里的触控位置可以但不限于是在玩家按住目标虚拟对象后执行的拖拽滑动过程中,滑动轨迹所经过的各个位置。
S206,在触控位置达到画面调整触发条件的情况下,按照与触控位置相匹配的调整速度,调整显示界面中所显示的场景画面;
可选地,在本实施例中,上述画面调整触发条件可以但不限于是触控位置位于为显示界面内配置的画面调整触发区域。也就是说,在触控位置移动到画面调整触发区域的情况下,确定该触控位置达到画面调整触发条件,从而开始控制显示界面中所显示的场景画面,按照与位于画面调整触发区域内的触控位置相匹配的调整速度进行调整滚动(下文也可称作卷屏)。而在触控位置并未移动到画面调整触发区域的情况下,确定该触控位置并未达到画面调整触发条件。
此外,在本实施例中,在触控位置移动到画面调整触发区域后,但又移动到画面调整触发区域之外的情况下,则停止显示界面中正在滚动的场景画面(下文可称作中止卷屏)。
需要说明的是,在本实施例中,位于画面调整触发区域内的触控位置不同的情况下,将对应匹配不同的调整速度。也就是说,在显示界面中所显示的场景画面,将根据触控位置在画面调整触发区域内的不同位置,而匹配不同的调整速度。例如,假设画面调整触发区域位于显示界面的边界,那在触控位置距离显示界面的边界越近,则对应的调整速度可以配置为越大的速度值;而在触控位置距离显示界面的边界越远,则对应的调整速度可以配置为越小的速度值,从而实现灵活控制场景画面的调整进度的效果。
如结合图3所示内容进行说明:假设检测到玩家按住了待移动放置的虚拟对象304中的目标虚拟对象304-A,对其进行拖拽移动。其中,这里拖拽的轨迹可以如图3中(b)的带有箭头的虚线所示。在拖拽目标虚拟对象304-A移动到如图3中(b)所示的画面调整触发区域306中的触控位置308时,确定这里的触控位置308达到画面调整触发条件。这里图中所示为示例,本实施例中对此不作限定。
S208,响应于对显示界面执行的放置操作,将目标虚拟对象放置在显示界面中当前所显示的第二场景画面内的目标位置。
可选地,在本实施例中,上述放置操作可以但不限于是确定目标虚拟对象将要放置的位置,该放置操作可以包括但不限于:1)点击显示界面中某个位置的点击操作、2)拖拽触控操作后的释放操作。也就是说,假设右手按住目标虚拟对象执行拖拽触控操作时,可以通过左手点击(如双击屏幕)显示界面中的某个位置(即目标位置)来完成放置操作,也可以将右手释放所按住的目标虚拟对象(抬起手指)时的释放位置确定为放置的目标位置。
需要说明的是,上述目标位置可以但不限于是:1)画面调整触发区域内的位置。如通过拖拽触控操作将目标虚拟对象拖拽至画面调整触发区域内后,当调整到第二场景画面时,在画面调整触发区域内抬起手指时的释放位置。或者,通过拖拽触控操作将目标虚拟对象拖拽至画面调整触发区域内后,检测到对第二场景画面中画面调整触发区域内的位置执行了点击操作,则可以停止对场景画面的调整操作,并将点击的位置确定为目标位置。上述目标位置还可以但不限于是:2)画面调整触发区域之外的位置。如通过拖拽触控操作将目标虚拟对象拖拽至画面调整触发区域内后,当调整到第二场景画面时,目标虚拟对象又被拖拽至第二场景画面中画面调整触发区域之外而抬起手指时的释放位置。或者,通过拖拽触控操作将目标虚拟对象拖拽至画面调整触发区域内后,检测到对第二场景画面中画面调整触发区域之外的位置执行了点击操作,则可以停止对场景画面的调整操作,并将点击的位置确定为目标位置。
如结合图3所示内容进行说明:假设按照与触控位置308相匹配的调整速度,已将显示界面中所显示的场景画面调整至第二场景画面310(如尖顶建筑和参考对象已经从视野中间移动到视野的左侧)。进一步,假设检测到玩家的手指移出了画面调整触发区域,且在目标位置310释放了所按住的目标虚拟对象304-A,则可以确定检测到放置操作,并将目标位置312确定为目标虚拟对象304-A的放置位置。这里图中所示为示例,本实施例中对此不作限定。
可选地,在本实施例中,上述显示界面中所显示的场景画面的调整方向可以但不限于是拖拽触控操作所生成的滑动轨迹的切线方向。例如,假设拖拽触控操作的滑动轨迹如图4中所示的虚线,并在手指所指示的圆圈位置停驻,则可以将该位置上轨迹的切线方向,确定为对显示画面的调整方向。如假设通过上述判定过程,确定调整方向为图4中所示的垂直右边界向右,则表示观察视野需要向右调整,对应的,显示界面中的场景画面将对应向左移动。
具体的,可以结合图5所示过程来进行调整流程的说明:
如步骤S502,打开目标游戏应用,并在显示界面中显示当前定位到的第一场景画面。
如步骤S504,检测目标虚拟对象被按住,并被拖拽至显示界面的边缘。
如步骤S506,判断按压触控的手指是否到达画面调整触发区域(下文也可称作热区)。在手指到达热区的情况下,则执行步骤S508-1,触发卷屏;在手指并未到达热区的情况下,则执行步骤S508-2,不触发卷屏。
如步骤S510,判断触控的手指是否抬起。在判断出手指抬起,则执行步骤S512-1,停止卷屏;在判断出手指并未抬起,则执行步骤S512-2,判断触控的手指是否移出热区。其中,在确定手指移出热区的情况下,则停止卷屏,如步骤S512-1;在确定手指并未移出热区的情况下,则继续卷屏,如步骤S514。
通过本申请提供的实施例,在显示有第一场景画面的显示界面中拖拽目标虚拟对象时,在拖拽触控操作的触控位置达到画面调整触发条件的情况下,按照与该触控位置相匹配的调整速度,来自动灵活地调整显示界面中当前显示的场景画面。并在调整后的显示界面中当前所显示的第二场景画面内,响应于放置操作,直接将目标虚拟对象放置在第二场景画面内的目标位置。从而实现在无需在显示界面中增加额外的调整控件的情况下,根据拖拽触控操作的触控位置来直接调整显示界面中当前所显示的场景画面,以便于快速将目标虚拟对象放置在第一场景画面之外的目标位置,不仅节省了显示界面中的显示空间,而且简化了画面调整的操作,达到提高画面调整操作的效率的效果。进而克服了相关技术中基于调整控件进行调整时需要玩家操作多次,才能完成画面调整的过程中存在的操作繁琐现象所导致的调整效率较低的问题。
作为一种可选的方案,在确定拖拽触控操作当前停驻的触控位置之后,还包括:
S1,在触控位置位于显示界面中配置的画面调整触发区域内的情况下,确定触控位置达到画面调整触发条件;
S2,获取触控位置与显示界面的各个边界之间的边界距离;
S3,基于边界距离确定调整速度。
可选地,在本实施例中,上述画面调整触发区域可以包括但不限于位于显示界面的边缘,且画面调整触发区域为闭合的环状区域。从而使得触控操作在滑动到显示界面的任意一个边界时,都可以触发在该边界对应方向上的画面调整(即卷屏)。
此外,在本实施例中,上述画面调整触发区域可以包括但不限于以下类型:1)避开UI控件型、2)覆盖UI控件型、3)混融型。其中,1)避开UI控件型表示在显示界面中设置有UI控件的地方不设置热区,但仍保证热区能够连成环状。2)覆盖UI控件型表示将热区设置在显示界面的最上图层,当触发卷屏操作时,显示界面上的UI控件会被调整为锁定状态,避免对其进行误触交互。3)混融型表示对上述两者的混合。如将二者叠加组合:(1),两个区域直接叠加,其中,避开UI控件型区域位于外边缘,覆盖UI控件型区域位于内边缘。(2),两个区域适应性组合,其中,有UI控件的区域按照避开UI控件型设置热区,而对没有UI控件的区域按照覆盖UI控件型设置热区。上述内容为示例,组合方式还可以根据实际情况设置为不同的方式,这里不做限定。
具体结合以下示例进行说明:在玩家把目标虚拟对象拖拽移动至当前视野内显示第一场景画面之外的过程中,可以保持当前对目标虚拟对象的按住姿势,将其拖拽移动至显示界面(即屏幕)的边缘。在拖拽的触控位置抵达画面调整触发区域(如图6中所示四个边缘上点线轨迹圈中的区域)后,则可触发对所显示的场景画面进行调整(即卷屏)。其中,当触控的手指的停驻位置越靠近显示界面的边缘,则卷屏速度越快。若检测到触控的手指抬起(即松开手指),则确定检测到放置操作,并将目标虚拟对象放置到对应选择的目标位置。
进一步,假设在上述过程中检测到触控的手指在热区内停驻,且停驻的触控位置为图6中右侧点轨迹圈中的位置。然后可获取该触控位置与显示界面各个边界之间的边界距离,如获取到与右边界的边界距离h1、与上边界的边界距离h2、与左边界的边界距离h3、与下边界的边界距离h4。然后可以基于这些边界距离确定出与触控位置相匹配的调整速度。
例如,获取到最小边界距离值,与右边界的边界距离h1,则表示该目标虚拟对象已被拖拽移动至右边缘的热区。进一步根据该边界距离h1来计算得出对应的调整速度。
通过本申请提供的实施例,在触控位置位于显示界面中配置的画面调整触发区域内的情况下,确定触控位置达到画面调整触发条件。然后获取触控位置与显示界面各个边界之间的边界距离,并基于边界距离来确定画面调整的调整速度,从而实现基于不同的触控位置,灵活确定出不同的调整速度,来动态调整场景画面,进而达到提高画面调整的效率的效果。
作为一种可选的方案,基于边界距离确定调整速度包括:
S1,获取与目标游戏应用的类型相匹配的参考值;
S2,确定边界距离中的最小距离值;
S3,将参考值与最小距离值之间的比值,确定为调整速度。
可选地,在本实施例中,上述参考值可以但不限于是常量n,该常量是根据游戏应用的类型和操作特征而确定的一个专属值。
具体结合以下示例进行说明:假设在上述过程中检测到触控的手指在热区内停驻,且停驻的触控位置为图7中右侧点轨迹圈中的位置。在热区范围内,触控位置距离边缘的距离越大,则卷屏速度越慢;触控位置距离边缘的距离越小,则卷屏速度越快。
如图6-图7所示,在四个边界距离中,与右边界的边界距离h1为最小边界距离值。然后可以基于以下公式计算得到卷屏速度v:v=n/h1。
需要说明的是,这里的调整速度与最小边界距离值是反相关的关系,对于二者之间的计算关系不限于上述一次函数,还可以包括其他函数,这里不再赘述。
通过本申请提供的实施例,根据参考值与最小距离值之间的比值,来确定调整速度,从而实现对画面调整速度的灵活控制的目的。
作为一种可选的方案,在确定拖拽触控操作当前停驻的触控位置之后,还包括:
S1,在触控位置并未位于显示界面中配置的画面调整触发区域内的情况下,确定触控位置并未达到画面调整触发条件,保持显示第一场景画面。
具体结合图8所示内容进行说明:
假设目标游戏应用提供的虚拟场景的第一场景画面302及待移动放置的虚拟对象304,二者在显示界面中的显示位置关系如图8中(a)所示。
进一步,若检测到玩家按住了待移动放置的虚拟对象304中的目标虚拟对象304-A,并对其进行了拖拽移动。其中,这里拖拽的轨迹可以如图8中(b)所示的带有箭头的虚线,而画面调整触发区域306可以如图8中(b)所示的点线轨迹所圈中的区域。
在拖拽目标虚拟对象304-A移动到如图8中(b)所示的触控位置802时,该触控位置802并未位于显示界面中配置的画面调整触发区域内,因而可判定其并未达到画面调整触发条件。也就是说,上述情形将不会触发画面调整(不触发卷屏),显示界面中将保持显示第一场景画面
通过本申请提供的实施例,在触控位置并未位于显示界面中配置的画面调整触发区域的情况下,确定该触控位置并未达到画面调整触发条件,并保持显示第一场景画面。从而实现对达到画面调整触发条件的情形才触发卷屏,以确保画面调整的准确性,而对未达到画面调整触发条件的情形则不触发卷屏,进而避免误触调整所导致的不必要的资源浪费的问题。
作为一种可选的方案,在按照与触控位置相匹配的调整速度,调整显示界面中所显示的场景画面的过程中,还包括:
1)在画面调整触发区域中并未检测到触控位置,且触控位置的拖拽终点位于显示界面之内的情况下,停止调整显示界面中所显示的场景画面,在显示界面中显示停止调整时所呈现的场景画面;
具体结合图9中所示内容进行说明:假设显示界面中显示有目标游戏应用提供的虚拟场景的第一场景画面及目标虚拟对象904。其中,显示界面的边缘配置有画面调整触发区域902。需要说明的是,图9中所示为显示界面右边缘设置的画面调整触发区域,显示界面的其他边缘也设置有画面调整触发区域,以使其形成环状(图中未示出)。
若检测到玩家按住了目标虚拟对象904,并对其进行了拖拽移动,且其拖拽的轨迹如图9中所示的带有箭头的虚线,即,目标虚拟对象904被拖拽移动到画面触发区域902内的触控位置A时,将触发对场景画面的调整(即卷屏)。然后若检测到目标虚拟对象904又被拖拽移动到画面触发区域902之外的触控位置B(即在画面调整触发区域中并未检测到触控位置,且触控位置的拖拽终点位于显示界面之内的情况下)时,则停止对场景画面的调整(即停止卷屏)。
2)响应于对显示界面中执行的点击触控操作,停止调整显示界面中所显示的场景画面,在显示界面中显示停止调整时所呈现的场景画面。
具体结合图10中所示内容进行说明:假设显示界面中显示有目标游戏应用提供的虚拟场景的第一场景画面及目标虚拟对象904。其中,显示界面的边缘配置有画面调整触发区域902。需要说明的是,图10中所示为显示界面右边缘设置的画面调整触发区域,显示界面的其他边缘也设置有画面调整触发区域,以使其形成环状(图中未示出)。
若检测到玩家按住了目标虚拟对象904,并对其进行了拖拽移动,且其拖拽的轨迹如图10中所示的带有箭头的虚线,即,目标虚拟对象904被拖拽移动到画面触发区域902内的触控位置C时,将触发对场景画面的调整(即卷屏)。然后若检测到对显示界面中画面触发区域902之外的触控位置D的点击操作(如单击屏幕)时,即在画面调整触发区域之外检测到点击触控操作,则停止对场景画面的调整(如可称作停止卷屏或取消卷屏)。
通过本申请提供的实施例,在调整显示界面中所显示的场景画面的过程中,在画面调整触发区域并未检测到触控位置,且触控位置的拖拽终点位于显示界面之内的情况下,或者,在检测到对显示界面中执行的点击触控操作的情况下,停止调整显示界面中所显示的场景画面,并显示当前所呈现的场景画面,从而实现及时根据需要终止画面调整过程。
作为一种可选的方案,响应于对显示界面执行的放置操作,将目标虚拟对象放置在显示界面中当前所显示的第二场景画面内的目标位置包括:
S1,在停止调整时所呈现的场景画面中检测到放置操作,将停止调整时所呈现的场景画面确定为第二场景画面,并将放置操作的操作位置确定为目标位置。
可选地,在本实施例中,上述放置操作可以但不限于是确定目标虚拟对象将要放置的位置,该放置操作可以包括但不限于:1)点击显示界面中某个位置的点击操作、2)拖拽触控操作后的释放操作。此外,在本实施例中,上述放置的目标位置可以位于画面调整触发区域内的位置,也可以位于画面调整触发区域之外的位置。也就是说,在显示界面中的场景画面调整的过程中,可以点击任意位置来取消画面调整(即中止卷屏),并将点击位置确定为目标位置;或者在显示界面中的场景画面调整的过程中,将按住目标虚拟对象的触控位置拖拽到显示界面内画面调整触发区域之外的位置释放手指,来取消画面调整(即中止卷屏),并将该释放位置确定为放置的目标位置。
通过本申请提供的实施例,在停止调整时所呈现的场景画面中检测到放置操作,将停止调整时所呈现的场景画面确定为第二场景画面,并将放置操作的操作位置确定为目标位置。从而实现直接通过触控操作的触控位置来灵活地控制画面调整的开始和结束。
作为一种可选的方案,在按照与触控位置相匹配的调整速度,调整显示界面中所显示的场景画面的过程中,还包括:
S1,在画面调整触发区域中并未检测到触控位置,且触控位置的拖拽终点位于显示界面之外的情况下,停止调整显示界面中所显示的场景画面,在显示界面中显示停止调整时所呈现的场景画面;
S2,将目标虚拟对象放置回原始位置。
具体结合以下示例进行说明:假设显示界面中显示有目标游戏应用提供的虚拟场景的第一场景画面及目标虚拟对象。其中,显示界面的边缘配置有画面调整触发区域。若检测到玩家按住了目标虚拟对象,并对其进行了拖拽移动,且其拖拽的轨迹指示目标虚拟对象被拖拽移动到画面触发区域内时,将触发对场景画面的调整(即卷屏)。然后,若检测到该拖拽的轨迹延伸到显示界面之外,即在画面调整触发区域中并未检测到触控位置,且触控位置的拖拽终点位于显示界面之外,则停止对场景画面的调整(如可称作停止卷屏或取消卷屏),并确定当前目标虚拟对象的移动放置操作失败,并将其放置回原始位置。目标虚拟对象以图3中所示飞行员为例,在拖拽触控操作滑出显示界面之外时,飞行员将被放置回显示界面下边缘的区域,该区域中包含至少一个尚未进入虚拟场景的对象,需要说明的是,这里的至少一个尚未进入虚拟场景的对象包括以下状态:1)达到进入条件但尚未被选中添加的状态;2)未达到进入条件的状态。
此外,在本实施例中,在上述情形下的画面调整过程被停止后,上述目标虚拟对象将被放置回原始位置,但显示界面中将继续显示的调整后的第二场景画面,而不会切换回第一场景画面。
通过本申请提供的实施例,在画面调整触发区域中并未检测到触控位置,且触控位置的拖拽终点位于显示界面之外的情况下,停止卷屏,并将拖拽失败的目标虚拟对象放置回原始位置,从而确保目标虚拟对象的放置位置满足预期,避免错误放置后需要再多次重复调整所导致的增加操作复杂度的问题。
作为一种可选的方案,在显示界面中显示虚拟场景内的第一场景画面及目标虚拟对象之前,还包括以下之一:
1)在显示界面的各个边界关联的非操作区域内配置画面调整触发区域;
需要说明的是,上述非操作区域可以但不限于为显示界面中并未设置UI控件的位置。这里的画面调整触发区域可以称作避开UI型:即有UI遮挡的地方不设置热区,但仍保证热区能够连成环状,且该区域各个位置距离边界的宽度相等。
例如,假设上述避开UI型的画面调整触发区域可以如图11中点线轨迹所圈中的区域。避开了显示界面中左上角和右上角,以及下边缘上设置的UI控件,其区域宽度相等,从而确保在拖拽触控操作从任意方向移动到画面调整触发区域内时,对应计算调整速度的方式是统一的,而无需区分计算方式,达到简化了调整速度的计算步骤的目的。
2)在显示界面上显示操作浮层,并在操作浮层上配置画面调整触发区域,其中,操作浮层悬浮显示在显示界面中的操作区域之上;
需要说明的是,上述操作浮层可以但不限于为设置在显示界面之上的图层。这里的画面调整触发区域可以称作覆盖UI型:即将热区设置在最上层,当用户触发卷屏操作时,显示界面上的UI控件可调整为锁定状态(不在可交互状态)。这里的热区可以但不限于呈一个方环形,各部分宽度相等。
例如,假设上述覆盖UI型的画面调整触发区域可以如图12中点线轨迹所圈中的区域。该区域设置在显示界面之上的浮层,且该区域各个位置距离边界的宽度相等,从而确保在拖拽触控操作从任意方向移动到画面调整触发区域内时,对应计算调整速度的方式是统一的,而无需区分计算方式,达到简化了调整速度的计算步骤的目的。
3)在显示界面的各个边界关联的非操作区域内配置画面调整触发区域的第一子区域,并在显示界面上显示的操作浮层上配置画面调整触发区域的第二子区域。
需要说明的是,画面调整触发区域的类型还可以包括但不限于混融型:即上文实施例中两种操作方式的混合型。其中,两种类型的叠加组合方式可以为直接叠加,也可以为按照显示界面中UI控件的布局适应性组合调整。
例如,假设上述覆盖UI型的画面调整触发区域可以如图13中点线轨迹所圈中的区域。其中包括位于点线轨迹以内的第一子区域,以及位于点线轨迹之外的第二子区域。这里的第一子区域避开了UI控件,可以设置避开UI型的画面调整区域,而第二子区域覆盖在UI控件之上,则可以设置覆盖UI型的画面调整区域。
通过本申请提供的实施例,针对显示界面中UI控件的布局情况设置不同类型的画面调整触发区域,从而不仅丰富了区域样式的多样化,而且有利于优化操作,避免用户误触导致的用户体验差的问题。
作为一种可选的方案,按照与触控位置相匹配的调整速度,调整显示界面中所显示的场景画面包括:
1)在触控位置位于第一子区域的情况下,基于边界距离确定调整速度;
2)在触控位置位于第二子区域的情况下,将基于第一子区域获取到的最大速度,确定为调整速度。
可选地,在本实施例中,在触控位置位于内边缘的第一子区域中,可以仍然按照触控位置到边界的最小边界距离值来确定调整速度。此外,在本实施例中,在触控位置位于内边缘的第二子区域中,可以按照触控位置在第一子区域中确定出的最大调整速度进行调整。具体的计算公式可以参考上文实施例,这里不再赘述。
通过本申请提供的实施例,通过将画面调整触发区域划分为至少两个子区域,从而实现按照至少两种不同的调整速度的计算方式来控制卷屏,以提升画面调整的灵活性。
作为一种可选的方案,在确定拖拽触控操作当前停驻的触控位置之后,还包括:
S1,在触控位置位于显示界面内配置的画面调整触发区域内的情况下,确定触控位置达到画面调整触发条件;
S2,响应于对显示界面中显示的速度调整按键执行的操作,确定调整速度。
可选地,在本实施例中,在触控位置位于显示界面内配置的画面调整触发区域内以触发场景画面调整的过程中,还可以但不限于结合对显示界面的其他触控操作,来辅助完成对卷屏的调整速度的调整确定。其中,用于调整卷屏的调整速度的方式可以包括但不限于:
1)在卷屏期间,在显示界面上出现速度调整按键(如加速按键或减速按键),响应于对加速按键或减速按键的点击操作,来对卷屏的调整速度进行相应地加/减速。其中,在卷屏中止或被取消时,上述加速按键或减速按键可以但不限于被隐藏显示,从而达到节省显示界面的显示空间,以提高显示资源利用率的目的。此外,这里的加速按钮或减速按钮可以但不限于设置在与触控位置关联的区域内,方便快捷调整操作。
2)在卷屏期间,结合一只手的拖拽触控操作与另一只手的触控操作的组合手势,来对卷屏的调整速度进行相应地加/减速。如另一只手的触控操作可以包括但不限于:双击、双指单击、三指单击或上/下滑动等等。这里的触控操作手势为示例,本实施例中对此不做限定。
通过本申请提供的实施例,在检测到拖拽触控操作的触控位置进入画面调整触发区域以触发卷屏的情况下,还可以结合其他触控方式构成组合控制策略,以灵活调整卷屏的调整速度,而且还丰富了调整的方式,使其更加多样化。
作为一种可选的方案,在显示界面中显示虚拟场景内的第一场景画面及目标虚拟对象包括:
1)在显示界面中显示第一场景画面,其中,目标虚拟对象位于第一场景画面中;
具体结合图14中所示内容进行说明:假设显示界面中显示有目标游戏应用提供的虚拟场景的第一场景画面1400及目标虚拟对象1402。其中,目标虚拟对象1402位于第一场景画面1400中,如图中所示点轨迹圈中的对象为目标虚拟对象。而显示界面的边缘配置有画面调整触发区域1404。
在检测到目标虚拟对象1402被拖拽到画面调整触发区域内的触控位置E时,也将触发对该第一场景画面的调整过程。
2)在显示界面中显示第一场景画面,其中,目标虚拟对象位于第一场景画面之外的候选操作区域中,候选操作区域中包括待放置到虚拟场景内的至少一个虚拟对象。
例如,如图3中(a)所示,第一场景画面302之外的候选操作区域内显示有待加入虚拟场景的虚拟对象304。如图3中(b)所示,在检测到目标虚拟对象304-A被拖拽到画面调整触发区域内的触控位置308时,也将触发对该第一场景画面的调整过程。
通过本申请提供的实施例,上述画面调整过程可以应用于对显示界面内显示的虚拟对象进行位置移动调整(预期移动到当前视野之外)的场景中,还可以应用于对尚未进入虚拟场景内的虚拟对象进行布局定位(预期定位安插到当前视野之外)的场景中。丰富了画面调整的应用场景,使其应用范围更广泛。
具体结合图15所示时序流程来完整说明本案实施例:假设游戏客户端被划分为表现层和逻辑层,其中,表现层用于展示可显示的画面内容,逻辑层用于执行相应的操作逻辑。
玩家执行步骤S1502打开游戏客户端。然后,游戏客户端的表现层将执行步骤S1504,在显示界面中显示默认的UI界面(如第一场景画面)。玩家根据观察判断所要放置的物体(如目标虚拟对象)是否拖拽到屏幕(显示界面)外,如步骤S1506。
若确定不拖拽物体到屏幕外,则如步骤S1508,直接在当前界面中放置物体。接着,游戏客户端的表现层将执行步骤S1510,传输触控的手指的实时位置信号给游戏客户端的逻辑层。在游戏客户端的逻辑层经判断,确定并未触发卷屏,则在玩家抬起手指时确定物体被放置成功,如步骤S1512。
若确定拖拽物体到屏幕外,则如步骤S1514,保持移动手指到屏幕边缘。接着,游戏客户端的表现层将执行步骤S1516,传输触控的手指的实时位置信号给游戏客户端的逻辑层。游戏客户端的逻辑层执行步骤S1518,判断触控的手指是否抬起。如识别到触控的手指抬起,则如步骤S1520-1,中止卷屏,则将物体放置到相应位置。如识别到触控的手指未抬起,则如步骤S1520-2,确定其仍在热区中。并执行步骤S1522,持续进行卷屏。若如步骤S1520-3,识别到触控的手指未抬起,且手指移出热区,则执行步骤S1524,暂停卷屏。
玩家检测显示界面中场景画面所指示的场景变化,判断是否符合预期,如步骤S1526。若符合预期,则如步骤S1528,抬起手指放置物体。具体如步骤S1530-S1532:传输手指的实时位置,检测到抬起手指时,放置物体,并中止卷屏。
若不符合预期,则如步骤S1534,则可以用另一只手执行取消。具体如步骤S1536-S1538:传输手指的实时位置,检测到另一只手指点屏幕时中止卷屏。
上述图15所示流程步骤及其顺序为示例,本实施例中对此不做任何限定。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
根据本发明实施例的另一个方面,还提供了一种用于实施上述显示画面的调整方法的显示画面的调整装置。如图16所示,该装置包括:
显示单元1602,用于在显示界面中显示虚拟场景内的第一场景画面及目标虚拟对象;
确定单元1604,用于响应于对目标虚拟对象执行的拖拽触控操作,确定拖拽触控操作当前停驻的触控位置;
调整单元1606,用于在触控位置达到画面调整触发条件的情况下,按照与触控位置相匹配的调整速度,调整显示界面中所显示的场景画面;
放置单元1608,用于响应于对显示界面执行的放置操作,将目标虚拟对象放置在显示界面中当前所显示的第二场景画面内的目标位置。
可选地,在本实施例中,上述各个单元模块所要实现的实施例,可以参考上述各个方法实施例,这里不再赘述。
根据本发明实施例的又一个方面,还提供了一种用于实施上述显示画面的调整方法的电子设备,该电子设备可以是图1所示的终端设备或服务器。本实施例以该电子设备为终端设备为例来说明。如图17所示,该电子设备包括存储器1702和处理器1704,该存储器1702中存储有计算机程序,该处理器1704被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述电子设备可以位于计算机网络的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,在显示界面中显示虚拟场景内的第一场景画面及目标虚拟对象;
S2,响应于对目标虚拟对象执行的拖拽触控操作,确定拖拽触控操作当前停驻的触控位置;
S3,在触控位置达到画面调整触发条件的情况下,按照与触控位置相匹配的调整速度,调整显示界面中所显示的场景画面;
S4,响应于对显示界面执行的放置操作,将目标虚拟对象放置在显示界面中当前所显示的第二场景画面内的目标位置。
可选地,本领域普通技术人员可以理解,图17所示的结构仅为示意,电子装置电子设备也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile Internet Devices,MID)、PAD等终端设备。图17其并不对上述电子装置电子设备的结构造成限定。例如,电子装置电子设备还可包括比图17中所示更多或者更少的组件(如网络接口等),或者具有与图17所示不同的配置。
其中,存储器1702可用于存储软件程序以及模块,如本发明实施例中的显示画面的调整方法和装置对应的程序指令/模块,处理器1704通过运行存储在存储器1702内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的显示画面的调整方法。存储器1702可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1702可进一步包括相对于处理器1704远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。其中,存储器1702具体可以但不限于用于存储显示界面中各个虚拟对象的位置信息,以及画面调整触发区域的区域信息等。作为一种示例,如图17所示,上述存储器1702中可以但不限于包括上述显示画面的调整装置中的显示单元1602、确定单元1604、调整单元1606及放置单元1608。此外,还可以包括但不限于上述显示画面的调整装置中的其他模块单元,本示例中不再赘述。
可选地,上述的传输装置1706用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置1706包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置1706为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
此外,上述电子设备还包括:显示器1708,用于显示上述显示界面中包含的场景画面及虚拟对象;和连接总线1710,用于连接上述电子设备中的各个模块部件。
在其他实施例中,上述终端设备或者服务器可以是一个分布式***中的一个节点,其中,该分布式***可以为区块链***,该区块链***可以是由该多个节点通过网络通信的形式连接形成的分布式***。其中,节点之间可以组成点对点(P2P,Peer To Peer)网络,任意形式的计算设备,比如服务器、终端等电子设备都可以通过加入该点对点网络而成为该区块链***中的一个节点。
根据本申请的一个方面,提供了一种计算机程序产品,该计算机程序产品包括计算机程序/指令,该计算机程序/指令包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。在该计算机程序被中央处理器执行时,执行本申请实施例提供的各种功能。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。具体的实施例可以参考上文方法实施例中记载的步骤,这里不再赘述。
根据本申请的一个方面,提供了一种计算机可读存储介质,计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各种可选实现方式中提供的显示画面的调整方法。
可选地,在本实施例中,上述计算机可读存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,在显示界面中显示虚拟场景内的第一场景画面及目标虚拟对象;
S2,响应于对目标虚拟对象执行的拖拽触控操作,确定拖拽触控操作当前停驻的触控位置;
S3,在触控位置达到画面调整触发条件的情况下,按照与触控位置相匹配的调整速度,调整显示界面中所显示的场景画面;
S4,响应于对显示界面执行的放置操作,将目标虚拟对象放置在显示界面中当前所显示的第二场景画面内的目标位置。
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (15)

1.一种显示画面的调整方法,应用于目标游戏应用中,其特征在于,包括:
在显示界面中显示虚拟场景内的第一场景画面及目标虚拟对象;
响应于对所述目标虚拟对象执行的拖拽触控操作,确定所述拖拽触控操作当前停驻的触控位置;
在所述触控位置达到画面调整触发条件的情况下,按照与所述触控位置相匹配的调整速度,调整所述显示界面中所显示的场景画面;
响应于对所述显示界面执行的放置操作,将所述目标虚拟对象放置在所述显示界面中当前所显示的第二场景画面内的目标位置。
2.根据权利要求1所述的方法,其特征在于,在确定所述拖拽触控操作当前停驻的触控位置之后,还包括:
在所述触控位置位于所述显示界面中配置的画面调整触发区域内的情况下,确定所述触控位置达到所述画面调整触发条件;
获取所述触控位置与所述显示界面的各个边界之间的边界距离;
基于所述边界距离确定所述调整速度。
3.根据权利要求2所述的方法,其特征在于,所述基于所述边界距离确定所述调整速度包括:
获取与所述目标游戏应用的类型相匹配的参考值;
确定所述边界距离中的最小距离值;
将所述参考值与所述最小距离值之间的比值,确定为所述调整速度。
4.根据权利要求2所述的方法,其特征在于,在确定所述拖拽触控操作当前停驻的触控位置之后,还包括:
在所述触控位置并未位于所述显示界面中配置的所述画面调整触发区域内的情况下,确定所述触控位置并未达到所述画面调整触发条件,保持显示所述第一场景画面。
5.根据权利要求2所述的方法,其特征在于,在按照与所述触控位置相匹配的调整速度,调整所述显示界面中所显示的场景画面的过程中,还包括:
在所述画面调整触发区域中并未检测到所述触控位置,且所述触控位置的拖拽终点位于所述显示界面之内的情况下,停止调整所述显示界面中所显示的场景画面,在所述显示界面中显示停止调整时所呈现的场景画面;
响应于对所述显示界面中执行的点击触控操作,停止调整所述显示界面中所显示的场景画面,在所述显示界面中显示停止调整时所呈现的场景画面。
6.根据权利要求5所述的方法,其特征在于,响应于对所述显示界面执行的放置操作,将所述目标虚拟对象放置在所述显示界面中当前所显示的第二场景画面内的目标位置包括:
在所述停止调整时所呈现的场景画面中检测到所述放置操作,将所述停止调整时所呈现的场景画面确定为所述第二场景画面,并将所述放置操作的操作位置确定为所述目标位置。
7.根据权利要求2所述的方法,其特征在于,在按照与所述触控位置相匹配的调整速度,调整所述显示界面中所显示的场景画面的过程中,还包括:
在所述画面调整触发区域中并未检测到所述触控位置,且所述触控位置的拖拽终点位于所述显示界面之外的情况下,停止调整所述显示界面中所显示的场景画面,在所述显示界面中显示停止调整时所呈现的场景画面;
将所述目标虚拟对象放置回原始位置。
8.根据权利要求2所述的方法,其特征在于,在显示界面中显示虚拟场景内的第一场景画面及目标虚拟对象之前,还包括以下之一:
在所述显示界面的各个边界关联的非操作区域内配置所述画面调整触发区域;
在所述显示界面上显示操作浮层,并在所述操作浮层上配置所述画面调整触发区域,其中,所述操作浮层悬浮显示在所述显示界面中的操作区域之上;
在所述显示界面的各个边界关联的非操作区域内配置所述画面调整触发区域的第一子区域,并在所述显示界面上显示的操作浮层上配置所述画面调整触发区域的第二子区域。
9.根据权利要求8所述的方法,其特征在于,所述按照与所述触控位置相匹配的调整速度,调整所述显示界面中所显示的场景画面包括:
在所述触控位置位于所述第一子区域的情况下,基于所述边界距离确定所述调整速度;
在所述触控位置位于所述第二子区域的情况下,将基于所述第一子区域获取到的最大速度,确定为所述调整速度。
10.根据权利要求1所述的方法,其特征在于,在确定所述拖拽触控操作当前停驻的触控位置之后,还包括:
在所述触控位置位于所述显示界面内配置的画面调整触发区域内的情况下,确定所述触控位置达到所述画面调整触发条件;
响应于对所述显示界面中显示的速度调整按键执行的操作,确定所述调整速度。
11.根据权利要求1至10中任一项所述的方法,其特征在于,在显示界面中显示虚拟场景内的第一场景画面及目标虚拟对象包括:
在所述显示界面中显示所述第一场景画面,其中,所述目标虚拟对象位于所述第一场景画面中;
在所述显示界面中显示所述第一场景画面,其中,所述目标虚拟对象位于所述第一场景画面之外的候选操作区域中,所述候选操作区域中包括待放置到所述虚拟场景内的至少一个虚拟对象。
12.一种显示画面的调整装置,应用于目标游戏应用中,其特征在于,包括:
显示单元,用于在显示界面中显示虚拟场景内的第一场景画面及目标虚拟对象;
确定单元,用于响应于对所述目标虚拟对象执行的拖拽触控操作,确定所述拖拽触控操作当前停驻的触控位置;
调整单元,用于在所述触控位置达到画面调整触发条件的情况下,按照与所述触控位置相匹配的调整速度,调整所述显示界面中所显示的场景画面;
放置单元,用于响应于对所述显示界面执行的放置操作,将所述目标虚拟对象放置在所述显示界面中当前所显示的第二场景画面内的目标位置。
13.一种计算机可读的存储介质,其特征在于,所述计算机可读的存储介质包括存储的程序,其中,所述程序运行时执行所述权利要求1至11任一项中所述的方法。
14.一种计算机程序产品,包括计算机程序/指令,其特征在于,该计算机程序/指令被处理器执行时实现权利要求1至11任一项所述方法的步骤。
15.一种电子设备,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至11任一项中所述的方法。
CN202111276177.0A 2021-10-29 2021-10-29 显示画面的调整方法和装置、存储介质及电子设备 Pending CN113996060A (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202111276177.0A CN113996060A (zh) 2021-10-29 2021-10-29 显示画面的调整方法和装置、存储介质及电子设备
PCT/CN2022/126917 WO2023071962A1 (zh) 2021-10-29 2022-10-24 显示画面的调整方法和装置、存储介质及电子设备
KR1020237030083A KR20230140567A (ko) 2021-10-29 2022-10-24 디스플레이 픽처를 조정하기 위한 방법 및 장치, 저장 매체 및 전자 디바이스
JP2023560951A JP2024514796A (ja) 2021-10-29 2022-10-24 表示画面の調整方法と装置、電子装置及びコンピュータプログラム
US18/212,632 US20230330518A1 (en) 2021-10-29 2023-06-21 Display picture adjustment method and apparatus, storage medium, and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111276177.0A CN113996060A (zh) 2021-10-29 2021-10-29 显示画面的调整方法和装置、存储介质及电子设备

Publications (1)

Publication Number Publication Date
CN113996060A true CN113996060A (zh) 2022-02-01

Family

ID=79925568

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111276177.0A Pending CN113996060A (zh) 2021-10-29 2021-10-29 显示画面的调整方法和装置、存储介质及电子设备

Country Status (5)

Country Link
US (1) US20230330518A1 (zh)
JP (1) JP2024514796A (zh)
KR (1) KR20230140567A (zh)
CN (1) CN113996060A (zh)
WO (1) WO2023071962A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115097975A (zh) * 2022-07-08 2022-09-23 北京有竹居网络技术有限公司 用于控制视角转换的方法、装置、设备和存储介质
WO2023071962A1 (zh) * 2021-10-29 2023-05-04 腾讯科技(深圳)有限公司 显示画面的调整方法和装置、存储介质及电子设备
WO2024027344A1 (zh) * 2022-08-05 2024-02-08 腾讯科技(深圳)有限公司 社交互动的方法、装置、设备、可读存储介质及程序产品

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108525295A (zh) * 2018-04-18 2018-09-14 网易(杭州)网络有限公司 虚拟对象的速度控制方法和装置
CN109224438A (zh) * 2018-10-26 2019-01-18 网易(杭州)网络有限公司 游戏中虚拟角色的控制方法及装置
CN109568956A (zh) * 2019-01-10 2019-04-05 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
CN110597594A (zh) * 2019-09-29 2019-12-20 联想(北京)有限公司 一种虚拟教具的处理方法、装置、电子设备及教具***
CN111475087A (zh) * 2020-04-16 2020-07-31 腾讯科技(深圳)有限公司 对象出售方法和装置、存储介质及电子装置
CN112807692A (zh) * 2021-01-21 2021-05-18 网易(杭州)网络有限公司 游戏中的信息控制方法、装置和终端设备
CN113144601A (zh) * 2021-05-26 2021-07-23 腾讯科技(深圳)有限公司 虚拟场景中的表情显示方法、装置、设备以及介质
US20210322864A1 (en) * 2019-01-10 2021-10-21 Netease (Hangzhou) Network Co.,Ltd. In-Game Display Control Method and Apparatus, Storage Medium, Processor, and Terminal

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017192538A (ja) * 2016-04-20 2017-10-26 株式会社コロプラ ゲームプログラム、方法及びタッチスクリーンを備える情報処理装置
CN111773711A (zh) * 2020-07-27 2020-10-16 网易(杭州)网络有限公司 游戏视角的控制方法、装置、存储介质和电子装置
CN112370780B (zh) * 2020-11-30 2022-09-13 腾讯科技(深圳)有限公司 虚拟控件的显示方法和装置、存储介质及电子设备
CN113082697B (zh) * 2021-04-13 2024-02-02 网易(杭州)网络有限公司 游戏交互方法、装置和电子设备
CN113318447B (zh) * 2021-05-25 2022-07-29 网易(杭州)网络有限公司 游戏场景的处理方法、装置、存储介质及电子设备
CN113318434A (zh) * 2021-06-10 2021-08-31 网易(杭州)网络有限公司 游戏的信息处理方法及装置、存储介质
CN113996060A (zh) * 2021-10-29 2022-02-01 腾讯科技(成都)有限公司 显示画面的调整方法和装置、存储介质及电子设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108525295A (zh) * 2018-04-18 2018-09-14 网易(杭州)网络有限公司 虚拟对象的速度控制方法和装置
CN109224438A (zh) * 2018-10-26 2019-01-18 网易(杭州)网络有限公司 游戏中虚拟角色的控制方法及装置
CN109568956A (zh) * 2019-01-10 2019-04-05 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
US20210322864A1 (en) * 2019-01-10 2021-10-21 Netease (Hangzhou) Network Co.,Ltd. In-Game Display Control Method and Apparatus, Storage Medium, Processor, and Terminal
CN110597594A (zh) * 2019-09-29 2019-12-20 联想(北京)有限公司 一种虚拟教具的处理方法、装置、电子设备及教具***
CN111475087A (zh) * 2020-04-16 2020-07-31 腾讯科技(深圳)有限公司 对象出售方法和装置、存储介质及电子装置
CN112807692A (zh) * 2021-01-21 2021-05-18 网易(杭州)网络有限公司 游戏中的信息控制方法、装置和终端设备
CN113144601A (zh) * 2021-05-26 2021-07-23 腾讯科技(深圳)有限公司 虚拟场景中的表情显示方法、装置、设备以及介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023071962A1 (zh) * 2021-10-29 2023-05-04 腾讯科技(深圳)有限公司 显示画面的调整方法和装置、存储介质及电子设备
CN115097975A (zh) * 2022-07-08 2022-09-23 北京有竹居网络技术有限公司 用于控制视角转换的方法、装置、设备和存储介质
WO2024027344A1 (zh) * 2022-08-05 2024-02-08 腾讯科技(深圳)有限公司 社交互动的方法、装置、设备、可读存储介质及程序产品

Also Published As

Publication number Publication date
WO2023071962A1 (zh) 2023-05-04
KR20230140567A (ko) 2023-10-06
JP2024514796A (ja) 2024-04-03
US20230330518A1 (en) 2023-10-19

Similar Documents

Publication Publication Date Title
US10398977B2 (en) Information processing method, terminal, and computer storage medium
EP3273334B1 (en) Information processing method, terminal and computer storage medium
US10792562B2 (en) Information processing method, terminal, and computer storage medium
CN113996060A (zh) 显示画面的调整方法和装置、存储介质及电子设备
US9916066B2 (en) Object transfer method using gesture-based computing device
US11494004B2 (en) Controlling a local application running on a user device that displays a touchscreen image on a touchscreen via mouse input from external electronic equipment
EP4002075A1 (en) Interface display method and apparatus, terminal, and storage medium
JP2022527502A (ja) 仮想オブジェクトの制御方法及び装置、モバイル端末及びコンピュータプログラム
EP3021204B1 (en) Information processing device, information processing method, and computer program
CN109589605B (zh) 游戏的显示控制方法和装置
US20170336883A1 (en) Using a hardware mouse to operate a local application running on a mobile device
CN105204745A (zh) 用于移动终端的截屏方法和装置
EP2383638B1 (en) Information processing apparatus
CN111831190B (zh) 音乐应用程序控制方法、装置及电子设备
US11256400B2 (en) Terminal, split-screen display method for screen thereof, and storage device
CN113434065B (zh) 一种信息处理方法及终端
CN113452744B (zh) 文件分享方法、装置、设备和存储介质
WO2022262485A1 (zh) 操作控件的位置调整方法、装置、终端及存储介质
CN111966860A (zh) 音频播放方法、装置及电子设备
WO2022252748A1 (zh) 虚拟物品的处理方法、装置、设备及存储介质
CN103634631B (zh) 基于遥控触摸屏的图标选定方法及***
US11487559B2 (en) Dynamically switching between pointer modes
CN113926186A (zh) 游戏中虚拟对象的选择方法、装置以及触控终端
CN113835578A (zh) 显示方法、装置及电子设备
CN110928612A (zh) 虚拟资源的显示控制方法及装置、电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination