JP7104164B2 - 仮想オブジェクトの移動制御方法、電子装置、記憶媒体、及びプログラム - Google Patents

仮想オブジェクトの移動制御方法、電子装置、記憶媒体、及びプログラム Download PDF

Info

Publication number
JP7104164B2
JP7104164B2 JP2020545341A JP2020545341A JP7104164B2 JP 7104164 B2 JP7104164 B2 JP 7104164B2 JP 2020545341 A JP2020545341 A JP 2020545341A JP 2020545341 A JP2020545341 A JP 2020545341A JP 7104164 B2 JP7104164 B2 JP 7104164B2
Authority
JP
Japan
Prior art keywords
function button
virtual
touch operation
target function
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020545341A
Other languages
English (en)
Other versions
JP2021517006A (ja
Inventor
ワン,ハン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2021517006A publication Critical patent/JP2021517006A/ja
Application granted granted Critical
Publication of JP7104164B2 publication Critical patent/JP7104164B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本願は、2018年3月30日に提出された、出願番号が2018102767938であり、発明の名称が「仮想オブジェクトの移動制御方法、装置、電子装置及び記憶媒体」である中国特許出願に基づく優先権を主張し、その全ての内容は参照することにより本願に組み込まれる。
本発明は、コンピュータ技術分野に関し、特に仮想オブジェクトの移動制御方法、装置、電子装置及び記憶媒体に関する。
コンピュータ技術の発展及び端末機能の多様化に伴い、端末上で実行可能なゲームの種類がますます多くなる。その中でも、ファーストパーソン・シューティングゲーム(FPS:First-Person Shooting Game)やサードパーソン・シューティングゲーム(TPS:Third-Person Shooting Game)などのシューティングゲームは、はやっているゲームである。シューティングゲームの中では、戦術的な競争ゲームと呼ばれる新しいゲームタイプがある。この新しいゲームタイプでは、1回のゲームの同じ仮想シーンに多くのプレーヤーが存在し、プレーヤーは、仮想オブジェクトがシューティング又はボクシングの攻撃方式で次第に相手を淘汰して最終的な勝利を勝ち取るように制御することができる。
現在、このようなゲームの仮想シーンが比較的大きく、戦略的な移動が必要なため、プレーヤーは、多くの場合、仮想オブジェクトが長距離で移動するように制御する必要がある。この場合、仮想オブジェクトの移動を制御するには、プレーヤーは、同じタッチ操作を長時間に亘って持続的に行う必要がある。
本発明の実施例では、仮想オブジェクトの移動制御方法、装置、電子装置及び記憶媒体が提供されており、仮想オブジェクトが仮想シーンにおいて自動的に移動するように制御する方法が提供されており、操作の利便性及び柔軟性が向上する。その構成は、以下のとおりである。
一態様によれば、電子装置に適用される、仮想オブジェクトの移動制御方法が提供されている。前記方法は、
仮想ジョイスティック領域を端末画面に表示するステップと、
前記仮想ジョイスティック領域へのタッチ操作が検出されると、前記タッチ操作の変位が変位閾値より大きく、且つ前記タッチ操作の持続時間が目標時間より長い場合、目標機能ボタンを端末画面に表示するステップであって、前記目標機能ボタンが、仮想オブジェクトが目標速度で自動的に移動するように制御するためのものである、ステップと、
前記目標機能ボタンへのタッチ操作が検出されると、仮想オブジェクトが仮想シーンにおいて前記目標速度で自動的に移動するように制御するステップと、を含む。
一態様によれば、仮想オブジェクトの移動制御装置が提供されている。前記装置は、
仮想ジョイスティック領域を端末画面に表示する表示モジュールと、制御モジュールと、を備え、
前記表示モジュールは、さらに、前記仮想ジョイスティック領域へのタッチ操作が検出されると、前記タッチ操作の変位が変位閾値より大きく、且つ前記タッチ操作の持続時間が目標時間より長い場合、目標機能ボタンを端末画面に表示し、前記目標機能ボタンが、仮想オブジェクトが目標速度で自動的に移動するように制御するためのものであり、
前記制御モジュールは、前記目標機能ボタンへのタッチ操作が検出されると、仮想オブジェクトが仮想シーンにおいて前記目標速度で自動的に移動するように制御する。
一態様によれば、電子装置が提供されている。前記電子装置は、プロセッサと、コンピュータプログラムを格納するメモリと、を備え、前記プロセッサが、メモリに格納されているコンピュータプログラムを実行することで、前記仮想オブジェクトの移動制御方法のいずれか1項に記載の方法のステップを実現する。
一態様によれば、コンピュータプログラムを記憶したコンピュータ読み取り可能な記憶媒体が提供されている。前記コンピュータプログラムは、プロセッサにより実行されると、前記仮想オブジェクトの移動制御方法のいずれか1項に記載の方法のステップを実現させる。
本発明の実施例では、仮想ジョイスティック領域へのタッチ操作が一定のトリガー条件を満たすことが検出されると、目標機能ボタンを表示し、目標機能ボタンへのタッチ操作が検出されると、仮想オブジェクトが自動的に移動するように制御することができる。これにより、同様な操作方式によって同一領域に対して連続的な操作を行うことで、仮想オブジェクトを自動的に移動させることができ、ユーザが異なるボタン間で切り替えして操作を行う必要がなく、ユーザ操作の複雑さを低減させ、ユーザ操作の利便性及び柔軟性を向上させる。
本願の実施例の構成をより明確に説明するために、以下、実施例の説明に必要な図面を簡単的に紹介する。明らかに、以下の説明における図面は本願のいくつかの実施例を示しているにすぎず、当業者にとって、創造的な労働をせずに、これらの図面から他の図面を得ることもできる。
本発明の実施例で提供された端末画面の模式図である。 本発明の実施例で提供された仮想オブジェクトの移動制御方法のフローチャートである。 本発明の実施例で提供された端末画面の模式図である。 本発明の実施例で提供された端末画面の模式図である。 本発明の実施例で提供された端末画面の模式図である。 本発明の実施例で提供された端末画面の模式図である。 本発明の実施例で提供された実際の端末画面図である。 本発明の実施例で提供された仮想オブジェクトの移動制御方法の模式図である。 本発明の実施例で提供された実際の端末画面図である。 本発明の実施例で提供された仮想オブジェクトの移動制御方法のフローチャートである。 本発明の実施例で提供された仮想オブジェクトの移動制御方法のフローチャートである。 本発明の実施例で提供された仮想オブジェクトの移動制御方法の模式図である。 本発明の実施例で提供された仮想オブジェクトの移動制御装置の構成の模式図である。 本発明の実施例で提供された電子装置の構成の模式図である。
本発明の目的、構成及びメリットをより明確にするために、以下、図面を参照しながら、本発明の実施形態をさらに詳細に説明する。
本発明の実施例は、主に電子ゲームや模擬訓練のシナリオに関するものである。電子ゲームのシナリオを例にとれば、ユーザは、予め端末で操作を行ってもよい。該端末は、ユーザによる操作を検出すると、電子ゲームのゲームプロファイルをダウンロードしてもよい。該ゲームプロファイルは、該電子ゲームのアプリケーションプログラム、画面表示データ、又は仮想シーンデータなどを含んでもよい。これにより、該ユーザが該端末で電子ゲームにログインすると、該端末は、該ゲームプロファイルを呼び出し、電子ゲーム画面をレンダリング表示することができる。ユーザは、端末でタッチ操作を行ってもよい。該端末は、タッチ操作を検出すると、該タッチ操作に対応するゲームデータを取得し、該ゲームデータをレンダリング表示してもよい。該ゲームデータは、仮想シーンデータ、該仮想シーンにおける仮想オブジェクトの行動データなどを含んでもよい。
本発明の実施例に係る仮想シーンは、三次元仮想空間をシミュレーションするために用いられてもよいし、二次元仮想空間をシミュレーションするために用いられてもよい。該三次元仮想空間又は二次元仮想空間は、開放的な空間であってもよい。該仮想シーンは、現実での実環境をシミュレーションするために用いられてもよい。例えば、該仮想シーンには、空、陸地、海洋などが含まれてもよい。該陸地は、砂漠、都市などの環境要素を含んでもよい。ユーザは、仮想オブジェクトが該仮想シーン内を移動するように制御することができる。該仮想オブジェクトは、該仮想シーン内の仮想的な、ユーザを代表するための仮想アバターであってもよい。該仮想アバターは、例えば、人物、動物などの任意の形態であってもよいが、本発明の実施例はこれを限定しない。該仮想シーンは、複数の仮想オブジェクトを含んでもよく、各仮想オブジェクトは、仮想シーン内に自身の形状及び体積を持っており、仮想シーン内の空間の一部を占める。
シューティングゲームを例にとれば、ユーザは、仮想オブジェクトが該仮想シーンの空中で自由落下したり、滑空したり、パラシュートを開いて落下したりし、陸地で走ったり、跳ねたり、這ったり、腰をかがめて進んだりするように制御することができるし、仮想オブジェクトが海洋を泳いだり、浮かんだり、潜ったりするように制御することができる。当然のことながら、ユーザは、仮想オブジェクトが乗り物に乗って該仮想シーン内を移動するように制御することもできる。ここで、上記のシーンのみを例示するが、本発明の実施例はこれを具体的に限定しない。ユーザは、仮想オブジェクトが兵器で他の仮想オブジェクトと戦うように制御することもできる。この兵器は、冷兵器であってもよいし、火器であってもよいが、本発明の実施例はこれを具体的に限定しない。
ユーザは、仮想オブジェクトを移動させるように制御したい場合、端末画面の仮想ジョイスティック領域をタッチ操作することで実施してもよい。ユーザによるこの仮想ジョイスティック領域へのタッチ操作は、スライド操作であってもよく、タップ操作であってもよく、本発明の実施例ではこれを限定しない。該仮想ジョイスティック領域の形状は、円形でも正方形でもよく、該仮想ジョイスティック領域は、端末画面の左側に配置されてもよいし、端末画面の右側に配置されてもよく、本発明の実施例は、該仮想ジョイスティック領域の形状及び具体的な位置を具体的に限定しない。
具体的には、端末は、ユーザによるタッチ操作の終了点と仮想ジョイスティック領域との相対位置に基づいて、仮想オブジェクトを制御して移動させたい方向及び速度を取得してもよい。この変位の大きさは、該タッチ操作の終了点の位置と仮想ジョイスティック領域の中心点との距離であってもよい。該中心点は、該仮想ジョイスティック領域の中心に配置してもよく、他の位置に配置してもよく、本発明の実施例は、これを具体的に限定しない。可能な一実現形態では、端末は、タッチ操作の変位の大きさに基づいて、該タッチ操作に対応する、仮想オブジェクトを制御して移動させる速度を取得してもよい。具体的には、該仮想オブジェクトの移動速度は、該変位の大きさに比例し、即ち、該変位が大きいほど該仮想オブジェクトの移動速度が大きく、該変位が小さいほど該仮想オブジェクトの移動速度が小さいようにしてもよい。
電子ゲームシナリオでは、ユーザ操作を容易にするために、該端末画面に目標機能ボタンが配置されてもよい。該目標機能ボタンは、仮想オブジェクトが目標速度で自動的に移動するように制御するためのものである。ここで、自動的に移動することは、仮想ジョイスティック領域で操作が検出されていない場合に持続的に移動することを指し、つまり、ユーザがタッチ操作を行う必要がなく、端末自体は、仮想オブジェクトが持続的に移動するように制御することができる。具体的には、該目標機能ボタンのデフォルト表示状態は、非表示状態であってもよい。つまり、通常状態では、該目標機能ボタンが該端末画面に表示されず、ユーザは、タッチ操作によって、端末が目標機能ボタンを表示することをトリガーする必要がある。該目標機能ボタンの表示位置は、該仮想ジョイスティック領域の近傍であってもよい。ユーザが、仮想ジョイスティック領域に対して、相応のタッチ操作を行うことで、端末は、このタッチ操作を検出すると、該目標機能ボタンを表示してもよい。
可能な一実現形態では、ユーザによって利き手が異なる場合があるので、操作の柔軟性を向上させ、該仮想オブジェクトが目標速度で自動的に移動するように制御する機能の実用性を向上させるために、該端末画面の反対側に移動制御機能ボタンを配置してもよい。該移動制御機能ボタンは、該目標機能ボタンとは機能が同じであり、且つそれぞれ画面の異なる領域に表示される。可能な一実現形態では、該移動制御機能ボタン及び該目標機能ボタンは、それぞれ画面の両側に表示されてもよい。このようにして、ユーザは、左手で左側の機能ボタンをタッチ操作するか、右手で右側の機能ボタンをタッチ操作するかを自由に選択できる。これにより、該ユーザは、左手か右手を自由に選択して同じ機能をトリガーすることができ、操作が柔軟で便利になる。もちろん、該移動制御機能ボタン及び該目標機能ボタンは、該画面の同一側に配置してもよい。この2つのボタンの位置は、関連技術者が設計の要件に応じて設定又は調整することができ、もちろん、ユーザが自分の使用習慣に応じて設定又は調整することもでき、本発明の実施例はこれを限定しない。
図1は、本発明の実施例で提供された端末画面の模式図である。図1に示すように、該仮想ジョイスティック領域が、円形の形状であり、端末画面の左側に位置し、ユーザによる該仮想ジョイスティック領域へのタッチ操作がスライド操作である場合を例にとれば、該仮想ジョイスティック領域には、前方、後方、左方、右方への移動をそれぞれ示す上下左右の4方向の矢印アイコンがあってもよい。この4方向の矢印アイコンは、該仮想ジョイスティック領域の方向の指示をより直感的にすることにより、ユーザ操作に対応する方向を如何に判断するかをユーザに案内することにのみ使用される。もちろん、該仮想ジョイスティック領域には、該4方向の矢印アイコンが表示されなくてもよい。ユーザは、実際の操作状況に応じて、該仮想ジョイスティック領域へのタッチ操作に徐々に慣れていくようにしてもよい。該仮想ジョイスティック領域の上方が前方への移動を示し、ユーザにより制御される仮想オブジェクトの自動移動は、通常前方への移動であるので、端末は、目標機能ボタンを該仮想ジョイスティック領域の上方に配置してもよい。可能な一実現形態では、該目標機能ボタンは、グラフィックであってもよいし、テキスト情報を含んでもよく、本発明の実施例はこれを具体的に限定しない。該端末画面の右側には、ユーザが右手で移動制御機能ボタンをタッチ操作できるように移動制御機能ボタンを設けてもよい。これによっても、上記仮想オブジェクトが目標速度で自動的に移動するように制御する機能を実現することができる。
図2は、本発明の実施例で提供された仮想オブジェクトの移動制御方法のフローチャートである。該仮想オブジェクトの移動制御方法は、電子装置に適用できる。以下、該電子装置が端末として提供される場合を例にして説明する。図2を参照すると、該仮想オブジェクトの移動制御方法は、下記のステップを含む。
201で、端末は、仮想ジョイスティック領域を端末画面に表示する。
端末は、仮想シーンをレンダリングして表示し、仮想ジョイスティック領域を端末画面に表示してもよい。これにより、ユーザによる仮想ジョイスティック領域へのタッチ操作が検出されると、該仮想シーンにおける仮想オブジェクトを移動させるように制御することができる。例えば、電子ゲームシナリオでは、1回のゲームの開始時に、端末は、端末の現在の視角での仮想シーンをレンダリングして表示し、仮想ジョイスティック領域を端末画面に表示してもよい。該端末は、視角調整操作を検出すると、調整後視角で仮想シーンをレンダリングして表示してもよい。該端末は、該仮想ジョイスティック領域へのタッチ操作を検出すると、仮想オブジェクトが仮想シーンにおいて自動的に移動するように制御することができる。
可能な一実現形態では、仮想シーンを遮らないために、このステップ201は、端末が、目標透明度で仮想ジョイスティック領域を端末画面に表示することを含んでもよい。該目標透明度は、関連技術者によって予め設定されるか、又は該端末のユーザが自分の使用習慣に応じて調整されてもよいが、本発明の実施例はこれを具体的に限定しない。
202で、仮想ジョイスティック領域へのタッチ操作が検出されると、端末は、該タッチ操作の変位を取得する。
該タッチ操作は、スライド操作であってもよいし、ドラッグアンドドロップ操作(drag and drop)であってもよい。該ドラッグアンドドロップ操作は、画面上のアイコンを押して、このアイコンをゆっくりと他の位置に移動させる操作である。本発明の実施例において、該タッチ操作がスライド操作である場合、該タッチ操作は、該仮想ジョイスティック領域から、該仮想ジョイスティック領域から離れる方向にスライドしてもよい。該タッチ操作がドラッグアンドドロップ操作である場合、該タッチ操作は、該仮想ジョイスティック領域から、仮想ジョイスティックを上記仮想ジョイスティック領域外にドラッグアンドドロップしてもよい。もちろん、該タッチ操作は、例えば、タップ操作や押し操作などの他の操作でも構わないが、ここでは、該タッチ操作がスライド操作又はドラッグアンドドロップ操作である場合のみを例にして説明する。本発明の実施例は、該タッチ操作の具体的な操作方式を限定しない。
端末は、仮想ジョイスティック領域へのタッチ操作を検出すると、まず、該タッチ操作の変位を取得してもよい。これにより、次に、この変位の大きさに基づいて、現在のタッチ操作が仮想オブジェクトを制御して移動させる移動速度が、特定の速度閾値に達したか否かを判断することができる。該速度閾値は、自動移動の目標速度と同じであってもよく、目標速度未満であって、且つ該目標速度との差が目標速度差未満であるようにしてもよく、該変位は、タッチ操作の終了点位置と仮想ジョイスティック領域の中心点との距離であってもよい。
可能な一実現形態では、ユーザの現在のタッチ操作の、仮想ジョイスティック領域に対する方向をより直感的かつ生き生きと示すために、端末は、ユーザによる仮想ジョイスティック領域へのタッチ操作を検出すると、仮想ジョイスティックがユーザのタッチ操作の接触点に従って移動することを画面に表示してもよい。具体的には、該仮想ジョイスティックを円形領域として表示してもよい。さらに、端末は、円形領域がユーザのタッチ操作の接触点に従うように表示し、該円形領域と仮想ジョイスティック領域との間にドラッグアンドドロップ効果を表示するようにしてもよい。例えば、このドラッグアンドドロップ効果は、該円形領域及び該仮想ジョイスティック領域の中心点によって形成されるセクター領域であってもよい。端末は、タッチ操作の終了を検出すると、該仮想ジョイスティックが仮想ジョイスティック領域の中心に戻ることを表示してもよい。例えば、端末は、該仮想ジョイスティックが該仮想ジョイスティック領域の中心に跳ね返るように表示するか、直接に該仮想ジョイスティックの表示状態を非表示状態に設定してもよい。もちろん、端末は、上記仮想ジョイスティックを表示しなくてもよく、本発明の実施例はこれを具体的に限定しない。
203で、該変位が変位閾値より大きい場合、端末は、該タッチ操作の持続時間と目標時間との大きさの関係を取得する。
可能な一実現形態では、端末は、仮想ジョイスティック領域へのタッチ操作を検出すると、仮想オブジェクトが該タッチ操作に対応する移動速度で移動するように制御してもよい。
端末は、現在のタッチ操作の変位に基づいて、該タッチ操作に対応する仮想オブジェクトの移動速度を取得してもよい。具体的には、仮想オブジェクトの移動速度は、タッチ操作の変位と正の相関がある。該タッチ操作の変位が大きいほど、該仮想オブジェクトの移動速度が大きくなる。端末は、該変位が変位閾値より大きいか否かに応じて、該仮想オブジェクトの移動速度が速度閾値に達したか否かを判断してもよい。ここで、該変位閾値は、予め設定された画素点の数であってもよく、該端末画面の座標系で定義された距離であってもよく、タッチ操作の変位を測定するための他の値であってもよく、本発明の実施例はこれを具体的に限定しない。もちろん、該端末は、変位に基づいて仮想オブジェクトの移動速度を取得した後、該移動速度が速度閾値に達したか否かを判断してもよい。端末は、該移動速度が速度閾値に達した場合、該タッチ操作の持続時間が目標時間に達したか否かを判断してもよい。
ここで、該変位閾値は、関連技術者によって予め設定されてもよく、ユーザが自分の使用習慣に応じて調整されてもよい。可能な一実現形態では、該変位閾値は、端末画面のサイズに応じて調整されてもよい。本発明の実施例は、該変位閾値の具体的な値を限定しない。
例えば、該仮想オブジェクトが仮想シーンの陸地に立っており、該変位閾値が20距離単位である場合を例にする。ここで、該距離単位は、1つ又は所定数の画素点、或いは該端末画面の座標系で定義された距離値であってもよいし、他の測定方式での距離単位であってもよい。該変位が変位閾値以下である場合、端末は、該仮想オブジェクトが仮想シーン内を歩くように制御してもよい。また、該変位が大きいほど、該仮想オブジェクトの歩行速度が大きくなる。例えば、該変位が5距離単位である場合、端末は、該仮想オブジェクトが仮想シーン内を歩くように制御してもよい。該変位が変位閾値より大きい場合、端末は、該仮想オブジェクトが仮想シーン内を走るように制御してもよい。例えば、該変位が21距離単位より大きい場合、端末は、該仮想オブジェクトが仮想シーン内を走るように制御してもよい。
該仮想オブジェクトが置かれた環境が異なると、その移動状態も異なり、その自動移動時の目標速度も異なってもよい。例えば、該仮想オブジェクトの水泳時の移動速度は、走る時、飛ぶ時、這う時の移動速度と異なる場合があるため、異なる運動状態での該仮想オブジェクトの目標速度も異なる場合がある。該目標速度は、異なる仮想シーンに応じて技術者によって予め設定されてもよいが、本発明の実施例は、該目標速度の値を具体的に限定しない。
該変位が変位閾値より大きい場合は、該仮想オブジェクトの移動速度が速度閾値に達し、自動移動への切り替え条件が基本的に満たされていることを意味する。このとき、端末は、現在ユーザが手動で該仮想オブジェクトを制御して移動させる時間をさらに取得してもよい。この時間が短い場合、ユーザは短時間で実現できるため、仮想オブジェクトが自動的に移動するように制御する機能を提供する必要がなく、この時間が長い場合、端末は、操作の利便性を向上させるために、その機能を提供してもよい。具体的には、端末は、該タッチ操作の持続時間が目標時間に達したか否かを判断することにより、仮想オブジェクトが自動的に移動するように制御する機能を提供する必要があるか否かを判断してもよい。該目標時間は、技術者によって予め設定されてもよい。該目標時間は、上記の目標速度や仮想シーンの大きさなどに基づいて設定してもよい。例えば、該目標時間は、2秒(s)であってもよく、本発明の実施例はこれを具体的に限定しない。
204で、該タッチ操作の持続時間が目標時間より長い場合、端末は、目標機能ボタンを端末画面に表示する。
該タッチ操作の持続時間が目標時間より長い場合、該タッチ操作が一定のトリガー条件を満たし、さらに、上述した仮想オブジェクトが自動的に移動するように制御する機能を提供してもよい。持続時間が目標時間以下である場合、端末は、この機能を提供する必要がなく、直接に、ユーザによるタッチ操作に応じて、仮想オブジェクトを制御して移動させればよい。この過程は、本質的には、端末が、ユーザのタッチ操作を検出すると、該タッチ操作が、仮想オブジェクトが自動的に移動するように制御する機能を提供する条件を満たすか否かを判断する過程であり、満たす場合、該端末は、目標機能ボタンの表示を実行してもよい。
該目標機能ボタンのデフォルト表示状態が非表示状態であり、端末は、上記ステップ202~ステップ204で仮想ジョイスティック領域へのタッチ操作が上記条件を満たすことを検出すると、該目標機能ボタンを表示してもよい。端末が該目標機能ボタンを表示すると、ユーザは、該目標機能ボタンの位置をタッチ操作して、仮想オブジェクトが自動的に移動するように制御することをトリガーできる。
可能な一実現形態では、該目標機能ボタンの表示位置に応じて、異なる取得方式があり得、ステップ204は、以下の3つのケースを含み得る。
ケース1:目標機能ボタンの表示位置は固定されている。
このケース1では、端末は、端末画面の該仮想ジョイスティック領域の真上にある第1表示位置を取得し、該第1表示位置に目標機能ボタンを表示する。該端末には、該目標機能ボタンの第1表示位置が予め設定されてもよい。該端末は、ステップ204を実行する際に、仮想ジョイスティック領域の真上にある該第1表示位置を取得し、第1表示位置に目標機能ボタンを表示してもよい。例えば、図1に示すように、該第1表示位置は、該仮想ジョイスティック領域から目標距離だけ離れた、該仮想ジョイスティック領域の真上のある固定位置であってもよい。
ケース2:目標機能ボタンの表示位置は、タッチ操作の接触点位置に基づいて取得されてもよい。
このケース2では、該仮想ジョイスティック領域へのタッチ操作の接触点位置の真上にある第2表示位置を取得し、該第2表示位置に目標機能ボタンを表示する。接触点位置に基づいて、今回の該目標機能ボタンの表示位置をリアルタイムに取得することで、ユーザ操作に必要な移動距離を短縮でき、操作の利便性を大幅に向上させ、操作位置に応じて目標機能ボタンが異なり、ユーザの使用習慣に柔軟に適応できる。例えば、図3に示すように、該表示位置aは、接触点位置aの真上にあってもよく、即ち、該表示位置aは、ユーザの接触点位置aに基づいて取得される。
ケース3:目標機能ボタンの表示位置は、タッチ操作の接触点位置と仮想ジョイスティック領域とを結ぶ線の方向に基づいて取得されてもよい。
このケース3では、該ステップ204は、下記ステップ(1)及び(2)によって実現されてもよい。
(1)端末は、該仮想ジョイスティック領域へのタッチ操作の接触点位置と該仮想ジョイスティック領域とを結ぶ線の方向に基づいて、該結ぶ線の方向における該目標機能ボタンの第3表示位置を取得する。
(2)端末は、該第3表示位置に目標機能ボタンを表示する。
ここで、該タッチ操作の接触点位置は、ユーザの指又はタッチ操作を行うための他の物体と端末画面との接触点位置であってもよい。本発明の実施例では、該ユーザが指で端末画面をタッチ操作する場合のみを例にして説明する。
可能な一実現形態では、該ステップ(1)は、少なくとも以下の2つの実現形態を含んでもよい。
第1実現形態:端末は、該仮想ジョイスティック領域へのタッチ操作の接触点位置と該仮想ジョイスティック領域とを結ぶ線の方向に基づいて、該結ぶ線の方向において仮想ジョイスティック領域からの距離が第1目標距離である位置を取得する。
この第1実現形態では、該目標機能ボタンの第3表示位置と仮想ジョイスティック領域との距離が固定されており、該目標機能ボタンの第3表示位置は、仮想ジョイスティック領域の中心点を中心として、第1目標距離を半径とする円弧形状であり得る。例えば、図4に示すように、該タッチ操作の接触点位置が接触点位置aである場合、端末は表示位置aを取得でき、該タッチ操作の接触点位置が接触点位置bである場合、端末は表示位置bを取得できる。ここで、表示位置a及び表示位置bは、中心点Oとの距離が等しく、両方とも第1目標距離である。
第2実現形態:端末は、該仮想ジョイスティック領域へのタッチ操作の接触点位置と該仮想ジョイスティック領域とを結ぶ線の方向及び該接触点位置に基づいて、該結ぶ線の方向において該接触点位置との距離が第2目標距離である位置を取得する。例えば、図5に示すように、該タッチ操作の接触点位置が接触点位置cである場合、端末は表示位置cを取得でき、該タッチ操作の接触点位置が接触点位置dである場合、端末は表示位置dを取得できる。ここで、表示位置cと接触点位置cとの距離は、表示位置dと接触点位置dとの距離に等しく、両方とも第2目標距離である。
説明すべきものとして、上記第1目標距離及び第2目標距離は、いずれも関連技術者によって予め設定されてもよく、該端末のユーザが自分の使用習慣に応じて調整されてもよく、もちろん、該端末画面のサイズに応じて調整されてもよい。本発明の実施例は、第1目標距離及び第2目標距離の具体的な値を限定しない。上記は、2つの実現形態を例として、端末が目標機能ボタンの表示位置を取得する過程を説明しているが、該ステップ(1)は、他の実現形態を含んでもよいが、本発明の実施例はこれを具体的に限定しない。
以上は、該ステップ204に含まれ得る3つのケースを詳細に説明している。可能な一実現形態では、該目標機能ボタンの表示位置を取得する過程は、該表示位置と仮想オブジェクトとの距離を固定するなどの方式によって実現されてもよく、本発明の実施例はこれを限定しない。
可能な一実現形態では、端末は、ステップ204において仮想ジョイスティック領域へのタッチ操作が検出され、且つ該タッチ操作の変位が変位閾値より大きく、且つ該タッチ操作の持続時間が目標時間より長い場合、提示情報を表示してもよい。該提示情報は、該タッチ操作を持続的に行うとともに、該タッチ操作の接触点を該目標機能ボタンの位置に移動させることにより、目標機能ボタンをタッチ操作することを提示するためのものである。可能な一実現形態では、該提示情報は、テキスト情報であってもよいし、画像情報であってもよい。本発明の実施例は、該提示情報の具体的な形態を限定しない。
可能な一実現形態では、該提示情報は、矢印であってもよい。端末は、該仮想ジョイスティック領域と該目標機能ボタンとの間に、目標矢印を表示してもよい。該目標矢印の方向は、該仮想ジョイスティック領域から該目標機能ボタンへの方向である。もちろん、該目標矢印は、静的効果であってもよく、ユーザによるタッチ操作の移動軌跡を動的に示すことで、ユーザが目標機能ボタンを正しくタッチ操作して、仮想オブジェクトの移動状態を自動移動状態に切り替える目的を達成させるように、動的効果にしてもよい。例えば、目標矢印の具体的な表示効果は、図6に示すようにしてもよい。目標機能ボタンが仮想ジョイスティック領域の上方にあるとき、該目標矢印は、該目標機能ボタンと仮想ジョイスティック領域との間にあり、且つ目標矢印が移動ジョイスティック領域から目標機能ボタンを指す。実際の画面図は、図7に示す通りである。
上記ステップ202~ステップ204は、該仮想ジョイスティック領域へのタッチ操作が検出されると、該タッチ操作の変位が変位閾値より大きく、且つ該タッチ操作の持続時間が目標時間より長い場合、目標機能ボタンを端末画面に表示する過程である。端末は、上記変位が変位閾値より大きく、持続時間が目標時間より長いという2つの条件を該タッチ操作が同時に満たしていることが検出される必要がある。この場合、ユーザは、仮想オブジェクトの高速移動を制御している可能性があるため、仮想オブジェクトの高速移動の制御と同時に、目標機能ボタンを表示してもよい。これにより、ユーザに、その仮想オブジェクトの現在の高速移動状態が自動移動状態に設定されることが可能であることを提示する。ステップ202の後に、該タッチ操作の変位が変位閾値以下である場合、現在ユーザが該仮想オブジェクトの低速移動を制御しており、該ユーザには仮想オブジェクトが自動的に移動するように制御するニーズがないと考えられる。この場合、端末は、ステップ203~ステップ204を実行せず、目標機能ボタンを表示することなく、直接に、該変位と移動速度との対応関係に基づいて、仮想オブジェクトが該タッチ操作に対応する移動速度で移動するように制御してもよい。
205で、仮想ジョイスティック領域への該タッチ操作が持続状態であり、且つ該タッチ操作の接触点が該目標機能ボタンの位置に移動したことが検出されると、端末は、ステップ206を実行する。
端末は、目標機能ボタンを画面に表示し、該ユーザは、上記提示情報に基づいて、現在実行中のタッチ操作を持続的に行うとともに、該タッチ操作の接触点を目標機能ボタンの位置に移動させてもよい。このように、該端末は、第1タッチ操作が持続状態であり、且つ該第1タッチ操作の接触点が目標機能ボタンの位置に移動したことを検出すると、つまり、ユーザが目標機能ボタンをタッチ操作したことを検出すると、下記ステップ206を実行して、仮想オブジェクトが自動的に移動するように制御するサービスを提供してもよい。該タッチ操作は、仮想オブジェクトが自動的に移動するように制御する機能が起動又はアクティブ化されることを意味する。
例えば、該ユーザによる仮想ジョイスティック領域へのタッチ操作が、仮想ジョイスティックをドラッグアンドドロップすることで画面に表示できる場合を例にする。端末は、ユーザによるドラッグアンドドロップ操作が検出され、且つ該ドラッグアンドドロップ操作により、仮想ジョイスティックが、仮想ジョイスティック領域からの距離が変位閾値に達する位置に停止するようにドラッグアンドドロップされ、且つ目標時間だけ持続すると、目標機能ボタンを画面に表示してもよい。ユーザは、このドラッグアンドドロップ操作を続けて、仮想ジョイスティックを該目標機能ボタンの位置に移動させ、該目標機能ボタンをトリガーする。このとき、端末は、該目標機能ボタンへのタッチ操作を検出すると、現在のタッチ操作によって、仮想オブジェクトが自動的に移動するように制御する機能がトリガーされ、ステップ206が実行される。
もちろん、可能な一実現形態では、もう1つの可能なシナリオがある。即ち、端末によって、該仮想ジョイスティック領域へのタッチ操作が持続状態であるが、該タッチ操作の接触点が該目標機能ボタンの位置に移動していないことが検出される。このシナリオでは、端末は、該目標機能ボタンを端末画面に表示してもよい。その後、ステップ205の状況が検出された場合、ステップ205を実行してもよい。もちろん、別の可能なシナリオがある。即ち、端末によって、仮想ジョイスティック領域へのタッチ操作の終了が検出される。このシナリオでは、端末は、目標機能ボタンの表示状態を非表示状態に設定してもよい。説明すべきものとして、このシナリオでは、端末は、仮想ジョイスティック領域へのタッチ操作の終了を検出すると、仮想オブジェクトが仮想シーン内の移動を停止するように制御してもよい。
206で、端末は、仮想オブジェクトが仮想シーンにおいて該目標速度で自動的に移動するように制御する。
端末が目標機能ボタンへのタッチ操作を検出すると、端末は、仮想オブジェクトが目標速度で移動するように制御してもよい。また、仮想オブジェクトの移動状態は、自動移動状態になる。つまり、ユーザのいかなる操作も必要なく、端末は、依然として、仮想オブジェクトが現在の移動方向及び現在の移動速度で移動するように制御する。
可能な一実現形態では、該目標機能ボタンへのタッチ操作が検出されると、端末は、目標機能ボタンを強調表示に設定し、例えば、点灯するように設定してもよい。これにより、該目標機能ボタンの表示状態を変化させるように制御し、仮想オブジェクトが自動的に移動するように制御する機能がアクティブになり、仮想ジョイスティック領域をタッチ操作する必要がないことをユーザに提示し、ユーザの誤操作を減らし、操作の利便性を向上させることができる。
可能な一実現形態では、端末は、目標機能ボタンを強調表示に設定した後、該目標機能ボタンが仮想ジョイスティック領域の中心に表示されるように制御してもよい。具体的には、端末は、該目標機能ボタンの表示位置を、指定された位置から仮想ジョイスティック領域の中心に動的に移動させてもよい。さらに、該目標機能ボタンの表示位置の移動過程は、跳ね返る効果として表現されてもよい。端末は、該目標機能ボタンを強調表示に設定した後、目標機能ボタンへのタッチ操作を再度検出した場合、該仮想オブジェクトの自動移動を停止させるように制御してもよい。もちろん、該端末が仮想ジョイスティック領域へのタッチ操作を検出した場合にも、端末は、仮想オブジェクトの自動移動を停止させるように制御してもよい。
一般的に、ユーザは、該仮想オブジェクトの自動移動状態を停止させてから、該仮想オブジェクトのさらなる移動を制御することに慣れている可能性がある。このように、ユーザは、まず、該目標機能ボタンをタッチ操作してから、仮想ジョイスティック領域をタッチ操作する可能性がある。この場合、ユーザは、2つのステップの操作を行う必要がある。一方、端末によって、目標機能ボタンが仮想ジョイスティック領域の中心に表示されるように制御された場合、ユーザは、直接に該仮想ジョイスティック領域から始めて、1つのステップのドラッグアンドドロップ操作を行うことができる。このように、端末は、該仮想ジョイスティック領域の中心に表示されている目標機能ボタンに対する該ユーザのタッチ操作を検出すると、仮想オブジェクトの自動移動を停止させるように制御するとともに、ユーザによるドラッグアンドドロップ操作に基づいて、該仮想オブジェクトが該ドラッグアンドドロップ操作に対応する速度で移動するように制御してもよい。これにより、ユーザ操作の連続性及び利便性が向上する。
上記ステップ202~ステップ206は、端末が、ユーザによる仮想ジョイスティック領域へのタッチ操作が一定のトリガー条件を満たすことを検出した後、目標機能ボタンへのタッチ操作をさらに検出した場合、端末画面上の仮想オブジェクトの移動状態を更新する過程である。以下、図8を参照して、上記ステップにおける端末画面の表示状況を例示的に説明する。図8は、本発明の実施例で提供された仮想オブジェクトの移動制御方法の模式図である。図8に示すように、端末によって、ユーザによる仮想ジョイスティック領域へのタッチ操作が検出されていない場合、図8の(a)及び(b)に示すように、該ユーザの指が位置1から位置2に移動し、端末は、該ユーザによるタッチ操作の接触点が位置1から位置2に移動したことを検出すると、位置1と位置2との間の変位が変位閾値より大きく、且つ、該ユーザの指が該位置2を目標時間だけ押し続けていることを検出したとき、目標機能ボタン及び提示情報を該端末画面に表示してもよい。図(b)及び図(c)に示すように、ユーザは、タッチ操作を持続的に行うとともに、指を矢印の方向に沿って目標機能ボタンへ移動させ、位置2から位置3に移動させてもよい。この場合、端末は、ユーザの移動操作を検出した後、仮想オブジェクトが仮想シーンにおいて目標速度で自動的に移動するように制御するとともに、目標機能ボタンを強調表示に設定してもよい。強調表示時の端末画面は、図(d)に示すとおりであり、その実際の画面図は、図9に示すとおりである。
207で、視角調整操作が検出されると、端末は、該仮想オブジェクトが仮想シーンにおいて調整後の視角方向に向かって該目標速度で自動的に移動するように制御する。
ユーザが簡単な操作で仮想オブジェクトの移動を制御でき、且つ仮想オブジェクトの加速、減速、又は移動方向の変更などを自由に制御できるようにするために、端末は、上記仮想ジョイスティック領域を提供するとともに、端末の視角を調整する操作方式を提供することにより、仮想オブジェクトの移動方向を調整してもよい。
端末が視角調整操作を検出すると、端末は、該視角調整操作に応じて視角を調整してもよい。該視角調整操作は、スライド操作又はタップ操作であってもよい。該視角調整操作がスライド操作である場合を例にすると、ユーザは、端末画面でスライド操作を行ってもよい。端末は、該スライド操作を検出すると、該スライド操作のスライド方向に応じて、視角の移動方向が該スライド方向と同じになるように該視角を調整してもよい。任意選択的に、該視角の移動角度は、該スライド操作のスライド距離と正の相関があるようにしてもよい。該スライド距離が大きいほど、該視角の移動角度が大きくなる。
可能な一実現形態では、該ユーザは、別の仮想ジョイスティック領域を設定してもよい。この別の仮想ジョイスティック領域は、端末が該ユーザのタッチ操作を検出して、視角調整ステップを実現するためのものである。端末は、該仮想ジョイスティック領域のタッチ操作を検出すると、該仮想ジョイスティック領域のタッチ操作の終了点と該仮想ジョイスティック領域の原点との相対位置に基づいて、該タッチ操作に対応する視角調整方向及び調整角度を取得する。任意選択的に、該仮想ジョイスティック領域の原点に対する該タッチ操作の終了点の方向は、視角調整方向と同じであり、該タッチ操作の終了点と該仮想ジョイスティック領域の原点との距離は、視角調整角度と正の相関がある。上記は、いくつかの視角調整操作の操作方式の例であり、本発明の実施例は、該視角調整操作の具体的な操作方式を限定しない。
端末は、視角調整操作を検出すると、視角を調整するとともに、仮想オブジェクトが調整後の視角に向かって移動するように制御してもよいが、該仮想オブジェクトの自動移動状態を変更しない。即ち、ユーザによる視角調整操作は、仮想オブジェクトの移動方向を変更することができるが、その自動移動状態を中断させない。このように、ユーザは、仮想オブジェクトが自動的に移動するように制御する機能をトリガーする上記操作を繰り返して行うことなく、仮想オブジェクトの移動方向を変更することができる。これにより、操作の利便性を効果的に向上させる。
可能な一実現形態では、ユーザが落下中に周辺環境をより良く観察することで、周辺環境に基づいて着陸点を選択したり、周辺環境に他の仮想オブジェクトがあるか否かを確認したりすることができるように、端末は、観察視角機能ボタンを提供してもよい。該端末が該観察視角機能ボタンへのタッチ操作を検出すると、端末は、該観察視角機能ボタンへのタッチ操作の操作方向に応じて、視角を調整してもよいが、該端末は、該観察視角機能ボタンへのタッチ操作に応じて、仮想オブジェクトの移動方向を調整しなくてもよく、該仮想オブジェクトの自動移動状態も変更しない。該タッチ操作は、該観察視角機能ボタンを中心とした目標領域であってもよい。該目標領域の形状は、円形であってもよいし、その他の形状であってもよく、本発明の実施例は、該目標領域の形状や大きさを具体的に限定しない。説明すべきものとして、該端末は、該観察視角機能ボタンへのタッチ操作がなくなったことを検出すると、視角を該観察視角機能ボタンへのタッチ操作前の視角に戻すように調整してもよい。
説明すべきものとして、上記ステップ202~ステップ206は、ユーザが目標機能ボタンをタッチ操作することで、仮想オブジェクトの自動移動を制御できる場合である。可能な一実現形態では、ユーザは、該端末画面上の移動制御機能ボタンをタッチ操作することで、仮想オブジェクトが自動的に移動するように制御してもよい。具体的なステップについては、図11に示す実施例を参照すればよい。
208で、該仮想オブジェクトの移動状態を変更するためのタッチ操作が検出されると、端末は、該仮想オブジェクトが該仮想シーンにおいて自動移動を停止するように制御し、該目標機能ボタンを消灯状態に設定する。
該仮想オブジェクトの移動状態を変更するための該タッチ操作は、目標機能ボタンへのタッチ操作であってもよく、仮想オブジェクトがしゃがむか腹ばいになるように制御するためのボタンへのタッチ操作であってもよく、仮想ジョイスティック領域へのタッチ操作であってもよい。ユーザがタッチ操作により仮想オブジェクトの移動状態を変更する場合、該ユーザが仮想オブジェクトの自動移動をキャンセルして仮想オブジェクトを手動で制御したいと考えられる。このため、端末は、上記タッチ操作を検出すると、該仮想オブジェクトが該仮想シーンにおいて自動移動を停止するように制御してもよい。
具体的には、該タッチ操作が目標機能ボタンへのタッチ操作である場合、端末は、該仮想オブジェクトの移動を停止させるように制御してもよい。該タッチ操作が、該仮想オブジェクトがしゃがむか腹ばいになるように制御するためのものである場合、端末は、該仮想オブジェクトの現在の移動状態を停止させるように制御するとともに、該仮想オブジェクトが現在の位置でしゃがむか腹ばいになるように制御する。該タッチ操作が仮想ジョイスティック領域へのタッチ操作である場合、端末は、該仮想オブジェクトの現在の移動状態を停止させるように制御するとともに、該仮想オブジェクトが該タッチ操作に対応する方向及び速度で移動するように制御する。
可能な一実現形態では、端末が目標機能ボタンを消灯状態に設定すると、該目標機能ボタンは、該仮想オブジェクトが自動的に移動するように制御しない場合のデフォルト表示状態が非表示状態である。このため、該仮想オブジェクトの移動状態を変更するためのタッチ操作が検出されると、端末は、該目標機能ボタンの表示状態を非表示状態に設定してもよい。
以下、図10に示す実施例によって一例を提供して、上記仮想オブジェクトの移動制御方法のフローを例示する。図10は、本発明の実施例で提供された仮想オブジェクトの移動制御方法のフローチャートである。図10を参照すると、該仮想オブジェクトが仮想シーンの陸地に位置し、該目標機能ボタンが「走り続けボタン」と名付けられた場合を例にとれば、端末は、プレーヤーによる移動ジョイスティックへのドラッグアンドドロップ操作を検出すると、プレーヤーによるドラッグアンドドロップ操作に応じて、仮想オブジェクトが相応の移動をするように制御する。ここで、プレーヤーとは、該端末のユーザを指し、該移動ジョイスティックとは、上記仮想ジョイスティック領域内の仮想ジョイスティックを指す。
端末は、プレーヤーによるドラッグアンドドロップ操作が走り条件を満たすか否かを判断し、プレーヤーによるドラッグアンドドロップ操作が走り条件を満たす場合、仮想オブジェクトが走り状態に入るように制御し、プレーヤーによるドラッグアンドドロップ操作が走り条件を満たしていない場合、仮想オブジェクトが歩行状態を維持するように制御するようにしてもよい。具体的には、該走り条件とは、プレーヤーが移動ジョイスティックを現在の位置にドラッグアンドドロップし、現在の位置と移動ジョイスティックの初期位置との距離が閾値より大きく、つまり、仮想ジョイスティック領域へのタッチ操作の変位が変位閾値より大きいことである。
仮想オブジェクトが歩行状態を維持するように制御している場合、端末は、プレーヤーによる移動ジョイスティックへのドラッグアンドドロップ操作を引き続き検出する。仮想オブジェクトが走り状態に入るように制御している場合、端末は、走り状態の時間が閾値に達したか否かを判断し、走り状態の時間が閾値に達した場合、走り続けボタンを生成し、走り状態の時間が閾値に達していない場合、プレーヤーによる移動ジョイスティックへのドラッグアンドドロップ操作を検出するステップに戻るようにしてもよい。ここで、該走り続けボタンは、プレーヤーが移動ジョイスティックを上へ押し続けて該ボタンのタッチ範囲に入らせることが便利なように、移動ジョイスティックの初期位置の上方に配置されてもよい。もちろん、該ボタンの位置は、他の場所に配置されてもよい。このとき、端末は、特殊効果のある提示を提供することで、該ボタンをタッチすると、仮想オブジェクトが走り続け状態に入るように制御できることをプレーヤーに提示してもよい。つまり、上記提示情報は、具体的に、目標矢印の形態であってもよい。
プレーヤーが移動ジョイスティックを走り続けボタンにドラッグアンドドロップすると、端末は、仮想オブジェクトが走り続け状態に入るように制御できる。つまり、目標機能ボタンへのタッチ操作が検出されると、端末は、仮想オブジェクトが目標速度で自動的に移動するように制御できる。また、仮想オブジェクトが走り続け状態に入った後、プレーヤーは、視角を調整することもでき、仮想オブジェクトの走り続け状態が変わらないように維持されることが可能である。走り続け状態の持続時期内で、該走り続けボタンを強調表示し、例えば、ボタンの縁をハイライト表示してもよく、つまり、目標機能ボタンを強調表示に設定してもよい。プレーヤーが走り続けボタンに再度タッチすると、仮想オブジェクトの走り続け状態を終了するように制御する。
本発明の実施例では、仮想ジョイスティック領域へのタッチ操作が一定のトリガー条件を満たすことが検出されると、目標機能ボタンを表示し、目標機能ボタンへのタッチ操作が検出されると、仮想オブジェクトが自動的に移動するように制御することができる。これにより、同様な操作方式によって同一領域に対して連続的な操作を行うことで、仮想オブジェクトを自動的に移動させることができ、ユーザが異なるボタン間で切り替えして操作を行う必要がなく、ユーザ操作の複雑さを低減させ、ユーザ操作の利便性及び柔軟性を向上させる。
図2に示す上記実施例は、ユーザが目標機能ボタンをタッチ操作することにより、仮想オブジェクトが自動的に移動するように制御することができる過程である。可能な一実現形態では、該目標機能ボタンは、移動制御機能ボタンとは機能が同じであり、且つ該移動制御機能ボタンが常に表示状態のままであるため、該ユーザは、直接に移動制御機能ボタンをタッチ操作することにより、上記自動移動機能をトリガーすることもできる。図11に示すように、このような操作方式を用いる場合、上記仮想オブジェクトの移動制御方法は、下記のステップを含む。
1001で、端末は、移動制御機能ボタンを端末画面に表示する。
1002で、該移動制御機能ボタンへのタッチ操作が検出されると、端末は、仮想オブジェクトが仮想シーンにおいて目標速度で自動的に移動するように制御し、該移動制御機能ボタンを強調表示に設定する。
該移動制御機能ボタンへのタッチ操作は、タップ操作でもよいし、押し操作などの他のタッチ操作でもよく、本発明の実施例は、該移動制御機能ボタンへのタッチ操作の操作方式を具体的に限定しない。該ステップ1002は、端末によって仮想ジョイスティック領域へのタッチ操作が検出されていない場合に実行されてもよいし、端末によって仮想ジョイスティック領域へのタッチ操作が検出された場合に実行されてもよい。
該端末がステップ1002を実行するとき、該仮想オブジェクトは、静止状態にあってもよいし、移動状態にあってもよい。該仮想オブジェクトが静止状態又は後方に移動している状態にある場合、端末は、仮想オブジェクトが仮想シーンにおいて目標速度で該仮想オブジェクトの真前に自動的に移動するように制御してもよい。該仮想オブジェクトが前方に移動している状態にある場合、端末は、仮想オブジェクトが仮想シーンにおいて目標速度で元の移動方向に自動的に移動するように制御してもよい。ここで、強調表示は、ボタン全体が点灯すること、ボタンの縁部が点灯すること、又はボタンが特定の頻度で点滅することなどであってもよい。
説明すべきものとして、該移動制御機能ボタンが常に表示状態である場合、ユーザは、直接に移動制御機能ボタンをタッチ操作する。端末は、該タッチ操作を検出すると、ステップ1002を実行することができる。仮想ジョイスティック領域を目標時間だけタッチ操作することで、端末に目標機能ボタンを表示させるような操作方式に比べて、操作がより簡便で迅速になる。また、該移動制御機能ボタン及び目標機能ボタンがそれぞれ画面の異なる領域に配置され、ユーザは、自分の使用習慣に応じて、任意1つのボタンを自ら選択してタッチ操作することができる。この2つのボタンがそれぞれ画面の両側にある場合、ユーザは、該移動制御機能ボタン及び目標機能ボタンへのタッチ操作にそれぞれ左手及び右手を使用することができる。このようにして、ユーザは、仮想オブジェクトが自動的に移動するように制御しながら、他のタッチ操作を行う場合、左手及び右手が分担して行うことができ、操作が便利で柔軟になり、左手と右手の切り替え操作が柔軟で便利になる。
例えば、図12の(a)に示すように、ユーザが端末画面上の移動制御機能ボタンをタッチ操作した場合、端末は、該タッチ操作を検出すると、図12の(b)に示すように、該移動制御機能ボタンを強調表示に設定する。
1003で、該仮想オブジェクトの移動状態を変更するためのタッチ操作が検出されると、端末は、該仮想オブジェクトが該仮想シーンにおいて自動移動を停止するように制御し、該移動制御機能ボタンを消灯状態に設定する。
該ステップ1003は、上記ステップ208と同様であり、ここで詳しく説明しない。
本発明の実施例では、移動制御機能ボタンをトリガー操作することにより、仮想オブジェクトが自動的に移動するように制御する機能をトリガーする。これにより、柔軟で迅速な操作方式が提供され、ユーザは、仮想オブジェクトが自動的に移動するように制御しながら、他のタッチ操作を行う場合、左手及び右手が分担して行うことができ、操作が便利で柔軟になり、左手と右手の切り替え操作が柔軟で便利になる。
上記の全ての選択可能な構成は、任意の組み合わせにより本発明の選択可能な実施例を形成することができ、ここでは一々詳しく説明しない。
図13は、本発明の実施例で提供された仮想オブジェクトの移動制御装置の構成の模式図である。図13に示すように、該装置は、
仮想ジョイスティック領域を端末画面に表示する表示モジュール1201と、制御モジュール1202と、を備え、
該表示モジュール1201は、さらに、該仮想ジョイスティック領域へのタッチ操作が検出されると、該タッチ操作の変位が変位閾値より大きく、且つ該タッチ操作の持続時間が目標時間より長い場合、目標機能ボタンを端末画面に表示し、該目標機能ボタンが、仮想オブジェクトが目標速度で自動的に移動するように制御するためのものであり、
該制御モジュール1202は、該目標機能ボタンへのタッチ操作が検出されると、仮想オブジェクトが仮想シーンにおいて該目標速度で自動的に移動するように制御する。
可能な一実現形態では、該表示モジュール1201は、端末画面の該仮想ジョイスティック領域の真上にある第1表示位置を決定し、該第1表示位置に目標機能ボタンを表示する。
可能な一実現形態では、該表示モジュール1201は、該仮想ジョイスティック領域への該タッチ操作の接触点位置の真上にある第2表示位置を決定し、該第2表示位置に目標機能ボタンを表示する。
可能な一実現形態では、該表示モジュール1201は、該仮想ジョイスティック領域への該タッチ操作の接触点位置と該仮想ジョイスティック領域とを結ぶ線の方向に基づいて、該結ぶ線の方向における該目標機能ボタンの第3表示位置を取得し、該第3表示位置に目標機能ボタンを表示する。
可能な一実現形態では、該表示モジュール1201は、仮想ジョイスティック領域への該タッチ操作が持続状態であり、且つ該タッチ操作の接触点が該目標機能ボタンの位置に移動したことを検出すると、該目標機能ボタンへのタッチ操作が検出されると決定する。
可能な一実現形態では、該制御モジュール1201は、さらに、該目標機能ボタンへのタッチ操作が検出されると、該目標機能ボタンを強調表示に設定する。
可能な一実現形態では、該表示モジュール1201は、さらに、該仮想ジョイスティック領域への該タッチ操作が終了したことを検出すると、該目標機能ボタンの表示状態を非表示状態に設定する。
可能な一実現形態では、該表示モジュール1201は、さらに、該仮想ジョイスティック領域へのタッチ操作が検出されると、タッチ操作の変位が変位閾値より大きく、且つ該タッチ操作の持続時間が目標時間より長い場合、提示情報を表示し、該提示情報が、該タッチ操作を持続的に行うとともに、該タッチ操作の接触点を該目標機能ボタンの位置に移動させることにより、目標機能ボタンをタッチ操作することを提示するためのものである。
可能な一実現形態では、該表示モジュール1201は、さらに、該仮想ジョイスティック領域と該目標機能ボタンとの間に目標矢印を表示し、該目標矢印の方向、が該仮想ジョイスティック領域から該目標機能ボタンへの方向である。
可能な一実現形態では、該制御モジュール1202は、さらに、該仮想オブジェクトの移動状態を変更するためのタッチ操作が検出されると、該仮想オブジェクトが該仮想シーンにおいて自動移動を停止するように制御し、該目標機能ボタンを消灯状態に設定する。
可能な一実現形態では、該制御モジュール1202は、さらに、視角調整操作が検出されると、該仮想オブジェクトが仮想シーンにおいて調整後の視角方向に向かって該目標速度で自動的に移動するように制御する。
可能な一実現形態では、該制御モジュール1202は、さらに、該移動制御機能ボタンへのタッチ操作が検出されると、仮想オブジェクトが仮想シーンにおいて目標速度で自動的に移動するように制御し、該移動制御機能ボタンを強調表示に設定し、該移動制御機能ボタンが、該目標機能ボタンとは、機能が同じであり、且つそれぞれ画面の異なる領域に表示される。
本発明の実施例で提供された装置は、仮想ジョイスティック領域へのタッチ操作が一定のトリガー条件を満たすことが検出されると、目標機能ボタンを表示し、目標機能ボタンへのタッチ操作が検出されると、仮想オブジェクトが自動的に移動するように制御することができる。これにより、同様な操作方式によって同一領域に対して連続的な操作を行うことで、仮想オブジェクトを自動的に移動させることができ、ユーザが異なるボタン間で切り替えして操作を行う必要がなく、ユーザ操作の複雑さを低減させ、ユーザ操作の利便性及び柔軟性を向上させる。
説明すべきものとして、上記実施例で提供された仮想オブジェクトの移動制御装置が、仮想オブジェクトを移動させるように制御することについて、上記の各機能モジュールの分割のみを例に挙げて説明しているが、実際の適用では、必要に応じて上記機能を異なる機能モジュールに割り当て、つまり、装置の内部構成を異なる機能モジュールに分割することにより、上述した機能の全部又は一部を完了してもよい。また、上記実施例で提供された仮想オブジェクトの移動制御装置は、仮想オブジェクトの移動制御方法の実施例とは同一の構想に属し、その具体的な実現過程の詳細については、方法の実施例を参照すればよく、ここで説明を省略する。
図14は、本発明の実施例で提供された電子装置の構成の模式図である。該電子装置1300は、スペック又は性能の相違によって大きく異なることがあり、1つ又は複数のプロセッサ(CPU:central processing units)1301と、1つ又は複数のメモリ1302とを備えてもよい。該メモリ1302には、少なくとも1つの命令が記憶されており、この少なくとも1つの命令は、該プロセッサ1301によってロードされて実行されることで、
仮想ジョイスティック領域を端末画面に表示するステップと、
該仮想ジョイスティック領域へのタッチ操作が検出されると、該タッチ操作の変位が変位閾値より大きく、且つ該タッチ操作の持続時間が目標時間より長い場合、目標機能ボタンを端末画面に表示するステップであって、該目標機能ボタンが、仮想オブジェクトが目標速度で自動的に移動するように制御するためのものである、ステップと、
該目標機能ボタンへのタッチ操作が検出されると、仮想オブジェクトが仮想シーンにおいて該目標速度で自動的に移動するように制御するステップと、を実現させる。
可能な一実現形態では、該プロセッサ1301は、端末画面の該仮想ジョイスティック領域の真上にある第1表示位置を決定し、該第1表示位置に目標機能ボタンを表示する。
可能な一実現形態では、該プロセッサ1301は、該仮想ジョイスティック領域への該タッチ操作の接触点位置の真上にある第2表示位置を決定し、該第2表示位置に目標機能ボタンを表示する。
可能な一実現形態では、該プロセッサ1301は、該仮想ジョイスティック領域への該タッチ操作の接触点位置と該仮想ジョイスティック領域とを結ぶ線の方向に基づいて、該結ぶ線の方向における該目標機能ボタンの第3表示位置を取得し、該第3表示位置に目標機能ボタンを表示する。
可能な一実現形態では、該プロセッサ1301は、仮想ジョイスティック領域への該タッチ操作が持続状態であり、且つ該タッチ操作の接触点が該目標機能ボタンの位置に移動したことが検出されると、該目標機能ボタンへのタッチ操作が検出されると決定する。
可能な一実現形態では、該プロセッサ1301は、さらに、該目標機能ボタンへのタッチ操作が検出されると、該目標機能ボタンを強調表示に設定する。
可能な一実現形態では、該プロセッサ1301は、さらに、該仮想ジョイスティック領域への該タッチ操作が終了したことが検出されると、該目標機能ボタンの表示状態を非表示状態に設定する。
可能な一実現形態では、該プロセッサ1301は、さらに、該仮想ジョイスティック領域へのタッチ操作が検出されると、タッチ操作の変位が変位閾値より大きく、且つ該タッチ操作の持続時間が目標時間より長い場合、提示情報を表示し、該提示情報が、該タッチ操作を持続的に行うとともに、該タッチ操作の接触点を該目標機能ボタンの位置に移動させることにより、目標機能ボタンをタッチ操作することを提示するためのものである。
可能な一実現形態では、該プロセッサ1301は、該仮想ジョイスティック領域と該目標機能ボタンとの間に目標矢印を表示し、該目標矢印の方向が、該仮想ジョイスティック領域から該目標機能ボタンへの方向である。
可能な一実現形態では、該プロセッサ1301は、さらに、該仮想オブジェクトの移動状態を変更するためのタッチ操作が検出されると、該仮想オブジェクトが該仮想シーンにおいて自動移動を停止するように制御し、該目標機能ボタンを消灯状態に設定する。
可能な一実現形態では、該プロセッサ1301は、さらに、視角調整操作が検出されると、該仮想オブジェクトが仮想シーンにおいて調整後の視角方向に向かって該目標速度で自動的に移動するように制御する。
可能な一実現形態では、該プロセッサ1301は、さらに、該移動制御機能ボタンへのタッチ操作が検出されると、仮想オブジェクトが仮想シーンにおいて目標速度で自動的に移動するように制御し、該移動制御機能ボタンを強調表示に設定し、該移動制御機能ボタンが、該目標機能ボタンとは、機能が同じであり、且つそれぞれ画面の異なる領域に表示される。
もちろん、該電子装置1300は、有線又は無線のネットワークインターフェース、キーボード、及び入出力のための入出力インターフェースなどのコンポーネントを備えてもよい。該電子装置1300は、デバイスの機能を実現するための他のコンポーネントを備えてもよいが、ここでは説明を省略する。
例示的な実施例では、コンピュータ読み取り可能な記憶媒体、例えば、命令を含むメモリも提供されており、上記命令は、端末のプロセッサによって実行されることで、上記各実施例における仮想オブジェクトの移動制御方法を実現させることが可能である。例えば、該コンピュータ読み取り可能な記憶媒体は、読み出し専用メモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、読み出し専用光ディスク(CD-ROM:Compact Disc Read-Only Memory)、磁気テープ、フロッピーディスクや光データ記憶デバイスなどであってもよい。
当業者であれば理解できるように、上記実施例を実現するためのステップの全部又は一部は、ハードウェアによって実行されてもよいし、プログラムによって関連ハードウェアに指示することにより実行されてもよい。該プログラムは、コンピュータ読み取り可能な記憶媒体に記憶されてもよい。上記で言及された記憶媒体は、読み出し専用メモリ、磁気ディスク、又は光ディスクなどであってもよい。
上記は、本発明の好ましい実施例にすぎず、本発明の保護範囲を限定するものではない。本発明の精神および原則内で行われる種々の修正、均等置換え、改善などは全て本願の保護範囲内に含まれるべきである。
1201 表示モジュール
1202 制御モジュール
1300 電子装置
1301 プロセッサ
1302 メモリ

Claims (14)

  1. 電子装置が実行する、仮想オブジェクトの移動制御方法であって、
    仮想ジョイスティック領域を端末画面に表示するステップと、
    前記仮想ジョイスティック領域へのタッチ操作が検出されると、前記タッチ操作の変位が変位閾値より大きく、且つ前記タッチ操作の持続時間が目標時間より長い場合、目標機能ボタンを端末画面に表示するステップであって、前記目標機能ボタンが、仮想オブジェクトが目標速度で自動的に移動するように制御するためのものである、ステップと、
    前記仮想ジョイスティック領域への前記タッチ操作が持続状態であり、且つ前記タッチ操作の接触点が前記目標機能ボタンの位置に移動したことが検出されると、仮想オブジェクトが仮想シーンにおいて前記目標速度で自動的に移動するように制御するステップと、
    前記タッチ操作が終了したことが検出されると、前記目標機能ボタンが前記仮想ジョイスティック領域の中心に表示されるように制御するステップと、
    前記仮想ジョイスティック領域の中心に表示される前記目標機能ボタンに対するドラッグアンドドロップ操作が検出されると、前記仮想オブジェクトの自動移動を停止させるように制御するとともに、前記ドラッグアンドドロップ操作に基づいて、前記仮想オブジェクトがドラッグアンドドロップ操作に対応する速度で移動するように制御するステップと、
    を含むことを特徴とする方法。
  2. 目標機能ボタンを端末画面に表示する前記ステップは、
    端末画面の前記仮想ジョイスティック領域の真上にある第1表示位置を決定し、前記第1表示位置に目標機能ボタンを表示するステップ、
    を含むことを特徴とする請求項1に記載の方法。
  3. 目標機能ボタンを端末画面に表示する前記ステップは、
    前記仮想ジョイスティック領域への前記タッチ操作の接触点位置の真上にある第2表示位置を決定し、前記第2表示位置に目標機能ボタンを表示するステップ、
    を含むことを特徴とする請求項1に記載の方法。
  4. 目標機能ボタンを端末画面に表示する前記ステップは、
    前記仮想ジョイスティック領域への前記タッチ操作の接触点位置と前記仮想ジョイスティック領域とを結ぶ線の方向に基づいて、前記結ぶ線の方向における前記目標機能ボタンの第3表示位置を取得し、前記第3表示位置に目標機能ボタンを表示するステップ、
    を含むことを特徴とする請求項1に記載の方法。
  5. 前記目標機能ボタンへのタッチ操作が検出されると、前記目標機能ボタンを強調表示に設定するステップ、
    をさらに含むことを特徴とする請求項1~のいずれか1項に記載の方法。
  6. 目標機能ボタンを端末画面に表示する前記ステップの後、
    前記仮想ジョイスティック領域への前記タッチ操作が終了したことが検出されると、前記目標機能ボタンの表示状態を非表示状態に設定するステップ、
    をさらに含む、ことを特徴とする請求項1~のいずれか1項に記載の方法。
  7. 前記仮想ジョイスティック領域への前記タッチ操作が検出されると、前記タッチ操作の変位が変位閾値より大きく、且つ前記タッチ操作の持続時間が目標時間より長い場合、提示情報を表示するステップであって、前記提示情報は、前記タッチ操作を持続的に行うとともに前記タッチ操作の接触点を前記目標機能ボタンの位置に移動させることにより、目標機能ボタンをタッチ操作することを提示するためのものである、ステップ、
    をさらに含むことを特徴とする請求項1~のいずれか1項に記載の方法。
  8. 提示情報を表示する前記ステップは、
    前記仮想ジョイスティック領域と前記目標機能ボタンとの間に目標矢印を表示するステップであって、前記目標矢印の方向が、前記仮想ジョイスティック領域から前記目標機能ボタンへの方向である、ステップ、
    を含むことを特徴とする請求項に記載の方法。
  9. 仮想オブジェクトが仮想シーンにおいて前記目標速度で自動的に移動するように制御する前記ステップの後、
    前記仮想オブジェクトの移動状態を変更するためのタッチ操作が検出されると、前記仮想オブジェクトが前記仮想シーンにおいて自動移動を停止するように制御し、前記目標機能ボタンを消灯状態に設定するステップ、
    をさらに含むことを特徴とする請求項1~のいずれか1項に記載の方法。
  10. 仮想オブジェクトが仮想シーンにおいて前記目標速度で自動的に移動するように制御する前記ステップの後、
    視角調整操作が検出されると、前記仮想オブジェクトが仮想シーンにおいて調整後の視角方向に向かって前記目標速度で自動的に移動するように制御するステップ、
    をさらに含むことを特徴とする請求項1~のいずれか1項に記載の方法。
  11. 移動制御機能ボタンへのタッチ操作が検出されると、仮想オブジェクトが仮想シーンにおいて目標速度で自動的に移動するように制御し、前記移動制御機能ボタンを強調表示に設定するステップであって、前記移動制御機能ボタンと前記目標機能ボタンは、機能が同じであり、且つそれぞれ画面の異なる領域に表示される、ステップ、
    をさらに含むことを特徴とする請求項1~10のいずれか1項に記載の方法。
  12. 電子装置であって、
    プロセッサと、
    コンピュータプログラムを格納するためのメモリと、を備え、
    前記プロセッサは、メモリに格納されているコンピュータプログラムを実行することで、請求項1~11のいずれか1項に記載の仮想オブジェクトの移動制御方法を実現する、
    ことを特徴とする電子装置。
  13. 請求項1~11のいずれか1項に記載の仮想オブジェクトの移動制御方法を電子装置に実行させるコンピュータプログラム。
  14. コンピュータプログラムを記憶したコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムは、プロセッサにより実行されると、請求項1~11のいずれか1項に記載の仮想オブジェクトの移動制御方法を実現させる記憶媒体。
JP2020545341A 2018-03-30 2019-02-28 仮想オブジェクトの移動制御方法、電子装置、記憶媒体、及びプログラム Active JP7104164B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810276793.8A CN108509139B (zh) 2018-03-30 2018-03-30 虚拟对象的移动控制方法、装置、电子装置及存储介质
CN201810276793.8 2018-03-30
PCT/CN2019/076508 WO2019184648A1 (zh) 2018-03-30 2019-02-28 虚拟对象的移动控制方法、装置、电子装置及存储介质

Publications (2)

Publication Number Publication Date
JP2021517006A JP2021517006A (ja) 2021-07-15
JP7104164B2 true JP7104164B2 (ja) 2022-07-20

Family

ID=63379520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020545341A Active JP7104164B2 (ja) 2018-03-30 2019-02-28 仮想オブジェクトの移動制御方法、電子装置、記憶媒体、及びプログラム

Country Status (5)

Country Link
US (1) US11298609B2 (ja)
JP (1) JP7104164B2 (ja)
KR (1) KR102358363B1 (ja)
CN (1) CN108509139B (ja)
WO (1) WO2019184648A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019058468A1 (ja) * 2017-09-20 2019-03-28 株式会社スクウェア・エニックス プログラム、及びシステム
CN108509139B (zh) * 2018-03-30 2019-09-10 腾讯科技(深圳)有限公司 虚拟对象的移动控制方法、装置、电子装置及存储介质
JP6560801B1 (ja) * 2018-09-26 2019-08-14 株式会社Cygames プログラム、電子装置、及び方法
CN109324739B (zh) * 2018-09-28 2021-08-06 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端及存储介质
CN109847354B (zh) * 2018-12-19 2020-05-22 网易(杭州)网络有限公司 一种游戏中虚拟镜头控制的方法及装置
CN109568957B (zh) * 2019-01-10 2020-02-07 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
CN109999506B (zh) * 2019-03-26 2023-04-07 网易(杭州)网络有限公司 目标事件的交互控制方法与装置、存储介质、电子设备
CN110215691B (zh) * 2019-07-17 2023-04-28 网易(杭州)网络有限公司 一种游戏中虚拟角色的移动控制方法及装置
CN110270086B (zh) * 2019-07-17 2023-03-24 网易(杭州)网络有限公司 一种游戏中虚拟角色的移动控制方法及装置
CN110413171B (zh) * 2019-08-08 2021-02-09 腾讯科技(深圳)有限公司 控制虚拟对象进行快捷操作的方法、装置、设备及介质
CN110523085A (zh) * 2019-08-30 2019-12-03 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端及存储介质
CN110559658B (zh) 2019-09-04 2020-07-28 腾讯科技(深圳)有限公司 信息交互方法、装置、终端以及存储介质
CN110772784B (zh) * 2019-10-28 2021-05-11 腾讯科技(深圳)有限公司 载具控制方法和装置、存储介质及电子装置
CN111061362A (zh) * 2019-11-21 2020-04-24 珠海剑心互动娱乐有限公司 自适应视角方法、装置、计算设备和存储介质
CN111632380A (zh) * 2020-05-28 2020-09-08 腾讯科技(深圳)有限公司 虚拟姿态切换方法、装置、存储介质及电子装置
CN111638850A (zh) * 2020-05-29 2020-09-08 维沃移动通信有限公司 响应方法、响应装置及电子设备
CN111672115B (zh) * 2020-06-05 2022-09-23 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、计算机设备及存储介质
CN112245918B (zh) * 2020-11-13 2023-01-31 腾讯科技(深圳)有限公司 虚拟角色的控制方法和装置、存储介质及电子设备
CN112402959A (zh) * 2020-11-19 2021-02-26 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及计算机可读存储介质
KR20220071149A (ko) * 2020-11-19 2022-05-31 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 가상 객체 제어 방법 및 장치, 디바이스, 저장 매체 및 컴퓨터 프로그램 제품
CN112416196B (zh) 2020-11-19 2022-08-30 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及计算机可读存储介质
AU2022234308B2 (en) * 2021-03-10 2024-07-11 Bungie, Inc. Infinite drag and swipe for virtual controller
CN113094282B (zh) * 2021-04-28 2023-08-01 腾讯科技(深圳)有限公司 程序块运行方法、装置、设备及存储介质
CN113813599B (zh) * 2021-08-27 2023-07-14 腾讯科技(深圳)有限公司 虚拟角色的控制方法和装置、存储介质及电子设备
CN113722644B (zh) * 2021-09-03 2023-07-21 如你所视(北京)科技有限公司 基于外接设备在虚拟空间选取浏览点位的方法及其装置
CN117427332A (zh) * 2022-07-12 2024-01-23 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备、存储介质及程序产品
CN117618903A (zh) * 2022-08-18 2024-03-01 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端、存储介质及程序产品
CN117717765A (zh) * 2023-04-21 2024-03-19 网易(杭州)网络有限公司 游戏控制方法、装置和电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011141632A (ja) 2010-01-06 2011-07-21 Square Enix Co Ltd ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP2014045965A (ja) 2012-08-31 2014-03-17 Square Enix Co Ltd ビデオゲーム処理装置、およびビデオゲーム処理プログラム
CN107754309A (zh) 2017-09-30 2018-03-06 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107803028A (zh) 2017-09-30 2018-03-16 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4353552A (en) * 1979-02-23 1982-10-12 Peptek, Incorporated Touch panel system and method
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US20040130525A1 (en) * 2002-11-19 2004-07-08 Suchocki Edward J. Dynamic touch screen amusement game controller
US7057607B2 (en) * 2003-06-30 2006-06-06 Motorola, Inc. Application-independent text entry for touch-sensitive display
KR100593982B1 (ko) * 2003-11-06 2006-06-30 삼성전자주식회사 가상 그래피티를 제공하는 장치 및 방법과 그에 따른기록매체
US7309287B2 (en) * 2003-12-10 2007-12-18 Nintendo Co., Ltd. Game machine having display screen with touch panel
US7942743B2 (en) * 2004-01-20 2011-05-17 Nintendo Co., Ltd. Game apparatus and storage medium storing game program
JP2005204754A (ja) * 2004-01-20 2005-08-04 Nintendo Co Ltd タッチパネル入力を用いたゲームシステム
US7578742B2 (en) * 2004-03-26 2009-08-25 Nintendo Co., Ltd. Recording medium storing video game program and video game device
SE0400875D0 (sv) * 2004-04-01 2004-04-01 Teleca Software Solutions Ab A terminal for navigating documents
JP4412715B2 (ja) * 2004-05-07 2010-02-10 株式会社バンダイナムコゲームス プログラム、情報記憶媒体および画像生成システム
US20060111180A1 (en) * 2004-11-25 2006-05-25 Zeroplus Technology Co., Ltd. Touch-control game controller
JP5302816B2 (ja) * 2008-08-07 2013-10-02 パナソニック株式会社 タッチパネルを備えた情報表示装置
US8187095B2 (en) * 2008-08-12 2012-05-29 Sony Corporation Universal game console controller
CN103324386A (zh) * 2008-08-22 2013-09-25 谷歌公司 移动设备上的三维环境中的导航
US20100162128A1 (en) * 2008-12-19 2010-06-24 Nigel Richardson User interfaces and associated apparatus and methods
US8686952B2 (en) * 2008-12-23 2014-04-01 Apple Inc. Multi touch with multi haptics
US8963844B2 (en) * 2009-02-26 2015-02-24 Tara Chand Singhal Apparatus and method for touch screen user interface for handheld electronic devices part I
JP4734435B2 (ja) * 2009-03-23 2011-07-27 株式会社スクウェア・エニックス タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP5330090B2 (ja) * 2009-05-20 2013-10-30 キヤノン株式会社 放射線撮影装置、その表示処理方法、及びプログラム
KR20100136156A (ko) * 2009-06-18 2010-12-28 삼성전자주식회사 터치스크린을 구비하는 휴대 단말기의 화면 스크롤 방법 및 장치
JP4823342B2 (ja) * 2009-08-06 2011-11-24 株式会社スクウェア・エニックス タッチパネル式ディスプレイを持った携帯型コンピュータ
US20110080351A1 (en) * 2009-10-07 2011-04-07 Research In Motion Limited method of controlling touch input on a touch-sensitive display when a display element is active and a portable electronic device configured for the same
US8382591B2 (en) * 2010-06-03 2013-02-26 Ol2, Inc. Graphical user interface, system and method for implementing a game controller on a touch-screen device
KR20110134810A (ko) * 2010-08-26 2011-12-15 백규현 디스플레이 장치를 제어하기 위한 원격 제어 장치 및 원격 제어 방법
TW201334843A (zh) * 2012-02-20 2013-09-01 Fu Li Ye Internat Corp 具有觸控面板媒體的遊戲控制方法及該遊戲媒體
EP2645219A1 (en) * 2012-03-30 2013-10-02 Orange Method of and device for validation of a user command for controlling an application
US9348488B1 (en) * 2012-11-29 2016-05-24 II Andrew Renema Methods for blatant auxiliary activation inputs, initial and second individual real-time directions, and personally moving, interactive experiences and presentations
KR101525401B1 (ko) * 2013-11-11 2015-06-09 (주)위메이드엔터테인먼트 게임 자동 실행 방법 및 이에 적용되는 장치
US9227141B2 (en) * 2013-12-31 2016-01-05 Microsoft Technology Licensing, Llc Touch screen game controller
CN105373238A (zh) * 2014-08-11 2016-03-02 冠捷投资有限公司 显示在公用显示器上的虚拟对象的操作***
JP5781213B1 (ja) * 2014-12-26 2015-09-16 株式会社Cygames ゲーム制御プログラム、ゲーム制御方法及びゲーム制御装置
US9772743B1 (en) * 2015-03-30 2017-09-26 Electronic Arts Inc. Implementation of a movable control pad on a touch enabled device
US10078410B1 (en) * 2015-03-30 2018-09-18 Electronic Arts Inc. System to locomote an entity in three dimensional space
CN106155553B (zh) * 2016-07-05 2020-06-30 网易(杭州)网络有限公司 虚拟对象运动控制方法及装置
JP6072338B1 (ja) * 2016-07-29 2017-02-01 株式会社 ディー・エヌ・エー ゲームを提供するためのプログラム、システム、及び方法
WO2018042467A1 (ja) * 2016-08-31 2018-03-08 任天堂株式会社 ゲームプログラム、ゲーム処理方法、ゲームシステム、およびゲーム装置
KR20180068411A (ko) * 2016-12-14 2018-06-22 삼성전자주식회사 무인 비행 전자 장치의 운행 제어 방법 및 이를 지원하는 전자 장치
CN107019909B (zh) * 2017-04-13 2020-05-22 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及计算机可读存储介质
CN107132988B (zh) * 2017-06-06 2019-11-05 网易(杭州)网络有限公司 虚拟对象状态控制方法、装置、电子设备及存储介质
CN107273037A (zh) * 2017-07-04 2017-10-20 网易(杭州)网络有限公司 虚拟对象控制方法及装置、存储介质、电子设备
CN108509139B (zh) * 2018-03-30 2019-09-10 腾讯科技(深圳)有限公司 虚拟对象的移动控制方法、装置、电子装置及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011141632A (ja) 2010-01-06 2011-07-21 Square Enix Co Ltd ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP2014045965A (ja) 2012-08-31 2014-03-17 Square Enix Co Ltd ビデオゲーム処理装置、およびビデオゲーム処理プログラム
CN107754309A (zh) 2017-09-30 2018-03-06 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107803028A (zh) 2017-09-30 2018-03-16 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
KR20200091897A (ko) 2020-07-31
US20200298104A1 (en) 2020-09-24
CN108509139A (zh) 2018-09-07
JP2021517006A (ja) 2021-07-15
US11298609B2 (en) 2022-04-12
CN108509139B (zh) 2019-09-10
KR102358363B1 (ko) 2022-02-08
WO2019184648A1 (zh) 2019-10-03

Similar Documents

Publication Publication Date Title
JP7104164B2 (ja) 仮想オブジェクトの移動制御方法、電子装置、記憶媒体、及びプログラム
CN108379844B (zh) 控制虚拟对象移动的方法、装置、电子装置及存储介质
US10346128B2 (en) Systems and methods for providing audio to a user based on gaze input
US9740452B2 (en) Systems and methods for providing audio to a user based on gaze input
JP7045486B2 (ja) 視野角調整方法、電子機器、及びコンピュータプログラム
EP3970819B1 (en) Interface display method and apparatus, and terminal and storage medium
CN109224438B (zh) 游戏中虚拟角色的控制方法及装置
CN108854063B (zh) 射击游戏中的瞄准方法、装置、电子设备及存储介质
JP2023162233A (ja) 仮想オブジェクトの制御方法、装置、端末及び記憶媒体
CN110812838A (zh) 游戏中的虚拟单位控制方法、装置及电子设备
CN111905380B (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN114404944A (zh) 玩家角色的控制方法、装置、电子设备及存储介质
CN113663326B (zh) 一种游戏技能的瞄准方法和装置
EP3984608A1 (en) Method and apparatus for controlling virtual object, and terminal and storage medium
CN116585707A (zh) 一种游戏互动方法、装置、电子设备和存储介质
KR20240090702A (ko) 가상 객체를 제어하기 위한 방법 및 장치, 및 단말기, 저장 매체 및 프로그램 제품
CN118217632A (zh) 游戏中的交互控制方法、装置和电子设备
KR20220035324A (ko) 애플리케이션에서의 컨트롤을 위한 위치 조정 방법 및 장치, 디바이스 및 저장 매체
CN115155052A (zh) 通过手柄控制游标的方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220707

R150 Certificate of patent or registration of utility model

Ref document number: 7104164

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150