JP2022525172A - 仮想オブジェクトの制御方法、装置、コンピュータ機器及びプログラム - Google Patents

仮想オブジェクトの制御方法、装置、コンピュータ機器及びプログラム Download PDF

Info

Publication number
JP2022525172A
JP2022525172A JP2021555308A JP2021555308A JP2022525172A JP 2022525172 A JP2022525172 A JP 2022525172A JP 2021555308 A JP2021555308 A JP 2021555308A JP 2021555308 A JP2021555308 A JP 2021555308A JP 2022525172 A JP2022525172 A JP 2022525172A
Authority
JP
Japan
Prior art keywords
virtual
target area
virtual object
virtual environment
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021555308A
Other languages
English (en)
Inventor
リィウ,ジホォン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2022525172A publication Critical patent/JP2022525172A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

仮想オブジェクトの制御方法及び関連装置を提供する。該方法は、仮想環境画面及びインタラクティブパネル領域を含むユーザインターフェースを表示するステップであって、該仮想環境画面は、仮想オブジェクトの視点で仮想環境を観察する画面である、ステップ(401)と、該ユーザインターフェースの対象領域におけるショートカット操作を受け付けるステップであって、該対象領域は、該仮想環境画面に属し、且つ該インタラクティブパネル領域に属さない領域を含む、ステップ(402)と、該ショートカット操作に従って、該仮想オブジェクトが該仮想環境で対応する動作を行うように制御するステップ(403)と、を含む。ユーザインターフェースで対象領域を設定することで、ユーザは、対象領域でショートカット操作を実行して仮想オブジェクトが対応する動作を行うように制御できるため、動作に対応するUIウィジェットをトリガする必要がなく、UIウィジェットの機能及び位置を覚える必要がなく、ショートカット操作に従って仮想オブジェクトが仮想環境で対応する動作を行うように制御することを実現することができる。【選択図】図4

Description

本発明は、2019年8月23日に出願した出願番号が201910784863.5であり、発明の名称が「仮想オブジェクトの制御方法、装置、機器及び媒体」である中国特許出願に基づく優先権を主張し、その全ての内容を参照により本発明に援用する。
本発明は、コンピュータ分野に関し、特に仮想オブジェクトの制御に関する。
例えばファーストパーソンシューティングゲームなどの3次元仮想環境に基づくアプリケーションプログラムでは、ユーザは、仮想環境内の仮想オブジェクトを操作して、歩き、走り、登り、射撃、格闘などの動作を行うことができる。ユーザは、仮想オブジェクトが様々な動作を行うように制御する際に、ユーザインターフェースにおける対応するユーザインターフェース(UI)ウィジェットをトリガする必要がある。
ユーザインターフェースには仮想オブジェクトにより行われる様々な動作に対応するUIウィジェットがあり、且つ様々な動作に対応するUIウィジェットがユーザインターフェースの異なる位置にある。例えば、方向ボタンがユーザインターフェースの左部分に位置し、走りボタンがユーザインターフェースの右部分に位置する。仮想オブジェクトが多くの動作を行う場合、ユーザインターフェースにおける動作に対応するUIウィジェットの数も増加するため、ユーザは、各UIウィジェットに対応する動作又は機能を覚えておく必要があり、各UIウィジェットに対応する位置を覚えておく必要がある。
本発明の実施例は、関連方法において、仮想オブジェクトが様々な動作を行うように制御する際に、動作に対応するUIウィジェットをトリガする必要があり、ユーザが仮想オブジェクトに様々な動作を行わせるように迅速に制御できないという問題を解決することができる仮想オブジェクトの制御方法及び関連装置を提供する。その技術的手段は、以下の通りである。
本発明の1つの態様では、端末が実行する仮想オブジェクトの制御方法であって、仮想環境画面及びインタラクティブパネル領域を含むユーザインターフェースを表示するステップであって、前記仮想環境画面は、仮想オブジェクトの視点で仮想環境を観察する画面である、ステップと、前記ユーザインターフェースの対象領域におけるショートカット操作を受け付けるステップであって、前記対象領域は、前記仮想環境画面に属し、且つ前記インタラクティブパネル領域に属さない領域を含む、ステップと、前記ショートカット操作に従って、前記仮想オブジェクトが前記仮想環境で対応する動作を行うように制御するステップと、を含む、方法を提供する。
本発明のもう1つの態様では、仮想オブジェクトの制御装置であって、仮想環境画面及びインタラクティブパネル領域を含むユーザインターフェースを表示する表示モジュールであって、前記仮想環境画面は、仮想オブジェクトの視点で仮想環境を観察する画面である、表示モジュールと、前記ユーザインターフェースの対象領域におけるショートカット操作を受け付ける受け付けモジュールであって、前記対象領域は、前記仮想環境画面に属し、且つ前記インタラクティブパネル領域に属さない領域を含む、受け付けモジュールと、前記ショートカット操作に従って、前記仮想オブジェクトが前記仮想環境で対応する動作を行うように制御する制御モジュールと、を含む、装置を提供する。
本発明のもう1つの態様では、プロセッサと、メモリと、を含むコンピュータ機器であって、前記メモリには、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は前記命令セットは、上記の仮想オブジェクトの制御方法を実現するように、前記プロセッサによりロードされて実行される、コンピュータ機器を提供する。
本発明のもう1つの態様では、コンピュータプログラムが記憶されている記憶媒体であって、前記コンピュータプログラムは、上記の仮想オブジェクトの制御方法を実行するために用いられる、記憶媒体を提供する。
本発明のもう1つの態様では、命令を含むコンピュータプログラムプロダクトであって、コンピュータで実行される際に、上記の仮想オブジェクトの制御方法を前記コンピュータに実行させる、コンピュータプログラムプロダクトを提供する。
本発明の実施例に係る技術的手段は、少なくとも以下の有利な効果を有する。
ユーザインターフェースで対象領域を設定することで、ユーザは、対象領域でショートカット操作を実行して仮想オブジェクトが対応する動作を行うように制御できるため、動作に対応するUIウィジェットをトリガする必要がなく、UIウィジェットの機能及び位置を覚える必要がなく、ショートカット操作に従って仮想オブジェクトが仮想環境で対応する動作を行うように制御することを実現することができる。
本発明の実施例に係る技術をより明確に説明するために、以下は、実施例の説明に必要な図面を簡単に紹介する。なお、以下の説明における図面は、単なる本発明の幾つかの実施例であり、当業者にとって、創造的な作業を行うことなく、これらの図面に基づいて他の図面を得ることができる。
本発明の1つの例示的な実施例に係る関連技術における仮想オブジェクトがスコープをオンにするように制御するインターフェースの概略図である。 本発明の1つの例示的な実施例に係る仮想オブジェクトがスコープをオンにするように制御するインターフェースの概略図である。 本発明の1つの例示的な実施例に係る実装環境のブロック図である。 本発明の1つの例示的な実施例に係る仮想オブジェクト制御方法のフローチャートである。 本発明の1つの例示的な実施例に係る仮想オブジェクトの視点に対応するカメラモデルの概略図である。 本発明の1つの例示的な実施例に係るユーザインターフェースに直交座標系を確立するインターフェースの概略図である。 本発明の1つの例示的な実施例に係る仮想オブジェクトが立ち上がるように制御するインターフェースの概略図である。 本発明の1つの例示的な実施例に係る関連技術における仮想オブジェクトが仮想アイテムを有効化するように制御するインターフェースの概略図である。 本発明の1つの例示的な実施例に係る仮想オブジェクトが仮想アイテムを有効化するように制御するインターフェースの概略図である。 本発明の1つの例示的な実施例に係る仮想オブジェクトが仮想アイテムを投げるように制御するインターフェースの概略図である。 本発明の1つの例示的な実施例に係る仮想オブジェクトがスコープをオンにするように制御する方法のフローチャートである。 本発明の1つの例示的な実施例に係る仮想オブジェクトがスコープをオフにするように制御する方法のフローチャートである。 本発明の1つの例示的な実施例に係る仮想オブジェクトが撃つように制御する方法のフローチャートである。 本発明の1つの例示的な実施例に係る仮想オブジェクトが立ち上がって仮想アイテムを投げるように制御する方法のフローチャートである。 本発明のもう1つの実施例に係る仮想オブジェクト制御装置のブロック図である。 本発明の1つの実施例に係るコンピュータ機器の装置構成の概略図である。
本発明の目的、技術的手段、及び利点をより明確にするために、以下は、図面を参照しながら本発明の実施形態をさらに詳細に説明する。
まず、本発明の実施例に関する用語を紹介する。
仮想環境:アプリケーションプログラムが端末で実行されている際に表示(又は提供)される仮想環境である。該仮想環境は、実世界に対するシミュレーション環境であってもよいし、半シミュレーション及び半架空の環境であってもよいし、純粋な架空の環境であってもよい。仮想環境は、2次元仮想環境、2.5次元仮想環境、及び3次元仮想環境のうちの何れかであってもよいが、本発明はこれらに限定されない。以下の実施例では、仮想環境が3次元仮想環境であることを一例にして説明する。
仮想オブジェクト:仮想環境における移動可能なオブジェクトを意味する。該移動可能なオブジェクトは、仮想キャラクタ、仮想動物、漫画又はアニメーションのキャラクタなどであってもよく、例えば、3次元仮想環境に表示されるキャラクタ、動物、植物、樽、壁、石などである。好ましくは、仮想オブジェクトは、スケルタルアニメーション技術に基づいて作成された3次元モデルである。各仮想オブジェクトは、3次元仮想環境において独自の形状及び体積を持ち、3次元仮想環境において空間の一部を占める。
仮想アイテム:仮想オブジェクトが仮想環境で使用可能なアイテムを意味する。仮想アイテムは、仮想オブジェクトにより使用される仮想武器及び仮想武器に対応するアクセサリ、仮想食品、仮想薬、衣服、飾りなどを含む。本発明の実施例では、仮想アイテムが仮想武器であることを一例にして説明する。仮想武器は、拳銃、ライフル、狙撃銃などの一般的な銃器、弓矢、クロスボウ、槍、短剣、剣、ナイフ、斧、爆弾、ミサイルなどを含む。
ファーストパーソンシューティング(First-person Shooting:FPS)ゲーム:ユーザが一人称視点でプレイできるシューティングゲームを意味する。ゲーム内の仮想環境の画面は、第1の仮想オブジェクトの視点で仮想環境を観察する画面である。ゲームでは、少なくとも2つの仮想オブジェクトが仮想環境でシングルラウンドの対戦モードのゲームを行う。仮想オブジェクトは、仮想環境で生きるために他の仮想オブジェクトにより行われる攻撃や仮想環境にある危険(例えば、毒ガス、沼地など)を回避する。仮想環境内の仮想オブジェクトの寿命値がゼロになった場合、仮想環境内の仮想オブジェクトの寿命が終了し、最終的に仮想環境内で生きる仮想オブジェクトが勝者となる。好ましくは、該対戦は、最初のクライアントが対戦に参加した時点を開始時点とし、最後のクライアントが対戦を離れる時点を終了時点とし、各クライアントが仮想環境内の1つ又は複数の仮想オブジェクトを制御できる。好ましくは、該対戦の競技モードは、シングルプレーヤの対戦モード、ダブルプレーヤのチーム対戦モード、又はマルチプレーヤのチーム対戦モードを含んでもよいが、本発明の実施例は対戦モードに限定されない。
トリガウィジェット:ユーザインターフェース(UI:User Interface)を意味し、アプリケーションプログラムのユーザインターフェースに見える如何なる視覚的なウィジェット又は要素を意味し、例えば画像、入力ボックス、テキストボックス、ボタン、ラベルなどのウィジェットを含む。UIウィジェットは、ユーザの操作に応答し、例えば、ユーザが拳銃に対応する攻撃ウィジェットをトリガすると、仮想オブジェクトが拳銃を使用して攻撃するように制御する。
本発明における「装備、携帯、又は装着」されている仮想アイテムとは、仮想オブジェクトが所有する仮想アイテムを意味する。仮想オブジェクトがバッグを持ち、バッグにポーチがあり、仮想アイテムが仮想オブジェクトのバックに格納され、或いは、仮想オブジェクトが仮想アイテムを使用している。
本発明に係る方法は、仮想現実アプリケーションプログラム、3次元地図プログラム、軍事シミュレーションプログラム、一人称シューティング(First-person Shooting:FPS)ゲーム、マルチプレーヤオンラインバトルアリーナ(Multiplayer Online Battle Arena:MOBA)ゲームなどに適用されてもよい。以下の実施例では、ゲーム内のアプリケーションを一例にして説明する。
仮想環境に基づくゲームは、ゲーム世界の1つ又は複数の地図により構成される場合が多い。ゲーム内の仮想環境は、現実世界のシーンをシミュレートする。ユーザは、ゲーム内の仮想オブジェクトが歩き、走り、跳び、射撃、格闘、運転、投げ、立ち上がり、腹ばいになることなどの動作を行うように操作する。インタラクティブ性が高いゲームでは、複数のユーザがオンラインで競技のゲームを行うためにチームを組むことができる。ゲームに対応するアプリケーションプログラムでは、ユーザインターフェースにUIウィジェットが設定されており、ユーザは、様々なUIウィジェットをトリガすることで、仮想オブジェクト仮想環境で様々な動作を実行するように制御する。例えば、ユーザは、移動機能に対応するUIウィジェット(方向ボタン)をトリガする場合、仮想オブジェクトが仮想環境内で移動するように制御する。仮想オブジェクトが拳銃を使用している場合、ユーザは、撃ち機能(仮想武器を使用して攻撃する機能)に対応するUIウィジェット(撃ちボタン)をタッチするとき、仮想オブジェクトが拳銃を使用して仮想環境で攻撃するように制御する。UIウィジェットがユーザインターフェースの様々な領域に分散されているため、ユーザは、仮想オブジェクトが対応する動作を行うように迅速に制御できるように、各UIウィジェットの機能及びそれが位置する領域を覚えておく必要がある。
関連技術では、仮想オブジェクトがスコープをオンにするように制御する方法を提案している。図1は、本発明の1つの例示的な実施例に係る関連技術における仮想オブジェクトがスコープをオンにするように制御するインターフェースの概略図である。図1の(a)に示すように、スコープをオンにするためのインターフェース10には、照準ウィジェット101、攻撃ウィジェット103及び移動ウィジェット104が表示されている。例えば、照準ウィジェット101は、スコープをオンにするためのインターフェース10の右部分の領域に位置し、仮想環境の対応するミニ地図の下側に位置する。好ましくは、該インターフェース10における照準ウィジェット101の数は1つである。幾つかの実施例では、照準ウィジェット101の数は2つ以上であるが、本発明は照準ウィジェット101の数及び位置に限定されない。好ましくは、ユーザは、照準ウィジェット101の位置及び数をカスタマイズしてもよい。例えば、ユーザにより設定された、スコープをオンにするためのインターフェース10の右部分の領域に位置する照準ウィジェット101の数は、3つである。好ましくは、標的に向けられる必要のある銃器などの仮想アイテムを使用する場合、ユーザは、照準ウィジェット101をトリガすることで、仮想オブジェクトがスコープ105をオンにするように制御する。
攻撃ウィジェット103は、スコープをオンにするためのインターフェース10の左部分の領域及び右部分の領域にそれぞれ位置し、該インターフェース10の左部分の領域に位置する攻撃ウィジェット103は、移動ウィジェット104の左上に位置する。好ましくは、該インターフェース10における攻撃ウィジェット103の数は2つである。幾つかの実施例では、攻撃ウィジェット103の数は、1つ又は3つ以上であってもよいが、本発明は攻撃ウィジェット103の数及び位置に限定されない。好ましくは、ユーザは、攻撃ウィジェット103の位置及び数をカスタマイズしてもよい。例えば、ユーザにより設定された攻撃ウィジェット103の数は、3つであり、該攻撃ウィジェット103は、それぞれスコープをオンにするためのインターフェース10の左部分の領域、右部分の領域、及び中央領域に位置する。
移動ウィジェット104は、スコープをオンにするためのインターフェース10の左部分の領域に位置し、攻撃ウィジェット103の右下に位置する。好ましくは、ユーザは、移動ウィジェット104をトリガすることで、仮想オブジェクトが仮想環境内で移動するように制御することができる。
仮想オブジェクトがスコープ105をオンにした後、ユーザインターフェースは、図1の(b)に示すように、スコープをオンにしたインターフェース11にはオフウィジェット102がさらに表示されている。該オフウィジェット102は、元の照準ウィジェット101が位置する場所に位置し、即ち、照準ウィジェット101の表示スタイルは、オフウィジェット102の表示スタイルに切り替えられている。この際に、ユーザは、仮想オブジェクトが使用されている銃器に対応するスコープ105をオンにするように制御し、該銃器は、ユーザインターフェースの左部分の領域に表示されるものから、ユーザインターフェースの中央に表示されるものに変わる。スコープ105は、スコープをオンにしたインターフェース11の真ん中に表示され、照準状態となっている。ユーザは、オフウィジェット102をトリガすると、該スコープ105をオフにし、スコープをオンにしたインターフェース11が図1の(a)に示すスコープをオンにするためのインターフェース10に変わる。
上記の実施例に係る方法では、ユーザは、仮想オブジェクトが対応する動作を行うように制御する際に、対応するUIウィジェットをトリガする必要がある。例えば、ユーザは、仮想オブジェクトがスコープ105をオンにする場合、照準ウィジェット101をトリガする必要があり、仮想オブジェクトが該動作を停止するように制御する場合、対応するオフウィジェット102をトリガする必要がある。この手順が面倒であり、ユーザが各UIウィジェットに対応する機能及び所在する位置を覚えておく必要がある。ユーザは、動作に対応するUIウィジェット及びUIウィジェットに対応する位置を忘れると、仮想オブジェクトが対応する動作を行うことを遅延させてしまう。
本発明は、仮想オブジェクトの制御方法を提供する。図2は、本発明の1つの例示的な実施例に係る仮想オブジェクトがスコープをオンにするように制御するインターフェースの概略図である。
ユーザが仮想オブジェクトに仮想環境で仮想アイテムに対応するアクセサリをオンにさせるように制御することを一例にして説明する。一例では、仮想オブジェクトにより使用される仮想アイテムは狙撃銃であり、該仮想アイテムに対応するアクセサリはスコープ113である。図1に示すように、ユーザインターフェースには、照準ウィジェット101及びオフウィジェット102が表示され、これに対し、図2におけるスコープをオンにしたインターフェース110には、スコープ113をオンにするためのウィジェットが何れも表示されていない。ユーザは、ショートカット操作により、仮想オブジェクトがスコープ113を迅速にオンにするように制御してもよい。好ましくは、該ショートカット操作は、ダブルタップ操作である。好ましくは、ユーザインターフェースには対象領域131が設定され、対象領域131は、仮想環境画面に属し、且つインタラクティブパネル領域112に属さない領域を含む。例えば、対象領域131はユーザインターフェースにおける右部分の領域であり、且つ該右部分の領域はインタラクティブパネル領域112に属さない領域である。好ましくは、ユーザが対象領域131でダブルタップ操作を行った後、ユーザインターフェースには、スコープをオンにしたインターフェース110が表示され、仮想オブジェクトにより使用される仮想アイテム(狙撃銃)111のスコープ113は、ユーザインターフェースの中央に位置し、照準状態になり、スコープ113は既にオンにされており、図1の(b)に示すユーザが照準ウィジェット101をタップすることでスコープ105をオンにするという効果と同様である。
好ましくは、ユーザは、スコープ113をオフにする場合、ショートカット操作を使用してスコープ113をオンにしてもよい。例えば、スコープ113をオフにするためのショートカット操作は、ダブルタップ操作である。好ましくは、スコープ113をオフにするための対象領域131とスコープ113をオンにするための対象領域131とは、同一の領域であってもよいし、異なる領域であってもよい。ユーザは、対象領域131でダブルタップ操作を行うと、仮想オブジェクトがスコープ113をオフにするように制御する。好ましくは、仮想オブジェクトにより使用される仮想アイテム(狙撃銃)は、スコープ113をオンにする前に状態に変わる。
好ましくは、ユーザは、対象領域の範囲を設定してもよい。例えば、ユーザは、ユーザインターフェースの中心を円心として、半径が10個の単位の円形領域を対象領域として設定する。ユーザは、該対象領域131の範囲内でショートカット操作を行う場合、仮想オブジェクトがショートカット操作に対応する動作を行うように制御することができる。好ましくは、ショートカット操作は、シングルタップ操作、ダブルタップ操作、スワイプ操作、ドラッグ操作、長押し操作、ダブルタップ長押し操作、2本指のスワイプ操作のうちの少なくとも1つであってもよい。好ましくは、ユーザは、仮想オブジェクトが動作を行う時の対応する動作ウィジェットを設定してもよい。例えば、ユーザは、ショートカット操作を使用して仮想オブジェクトを制御する場合、ユーザインターフェースにおける動作に対応するウィジェットの表示を無効化し、或いは動作に対応するウィジェットの位置及び数などを設定してもよい。なお、ユーザは、対象領域131で異なるショートカット操作を行うことで、仮想オブジェクトが対応する動作を行うように制御する。
図3は、本発明の1つの例示的な実施例に係るコンピュータシステムの構成のブロック図を示している。コンピュータシステム100は、第1の端末120、サーバ140及び第2の端末160を含む。
第1の端末120は、仮想環境をサポートするアプリケーションプログラムをインストールして実行する。該アプリケーションプログラムは、仮想現実アプリケーションプログラム、3次元地図プログラム、軍事シミュレーションプログラム、FPSゲーム、MOBAゲーム、マルチプレーヤガンバトルサバイバルゲームの何れかであってもよい。第1の端末120は、第1のユーザにより使用される端末であり、第1のユーザは、第1の端末120を使用して、仮想環境における仮想オブジェクトが動作を行うように制御する。該動作は、体の姿勢の調整、這い、歩き、走り、乗り、跳び、運転、射撃、投げ、仮想アイテムのうちの何れかの使用を含むが、これらに限定されない。例えば、仮想オブジェクトは、シミュレートされたキャラクタオブジェクト又はアニメーションのキャラクタオブジェクトなどの仮想キャラクタである。
第1の端末120は、無線ネットワーク又は有線ネットワークを介してサーバ140に接続されている。
サーバ140は、1つのサーバ、複数のサーバ、クラウドコンピューティングプラットフォーム、及び仮想化センターのうちの少なくとも1つを含む。例えば、サーバ140は、プロセッサ144及びメモリ142を含み、メモリ142は、表示モジュール1421、制御モジュール1422、及び受け付けモジュール1423をさらに含む。サーバ140は、3次元仮想環境をサポートするアプリケーションプログラムにバックグラウンドのサービスを提供するために使用される。好ましくは、サーバ140は、一次的なコンピューティング作業を行い、第1の端末120及び第2の端末160は、二次的なコンピューティング作業を行い、或いは、サーバ140は、二次的なコンピューティング作業を行い、第1の端末120及び第2の端末160は、一次的なコンピューティング作業を行い、或いは、サーバ140、第1の端末120及び第2の端末160は、協調コンピューティングを行うために分散型のコンピューティングアーキテクチャを採用する。
第2の端末160は、仮想環境をサポートするアプリケーションプログラムをインストールして実行する。該アプリケーションプログラムは、仮想現実アプリケーションプログラム、3次元地図プログラム、軍事シミュレーションプログラム、FPSゲーム、MOBAゲーム、マルチプレーヤガンバトルサバイバルゲームの何れかであってもよい。第2の端末160は、第2のユーザにより使用される端末であり、第2のユーザは、第2の端末160を使用して、仮想環境における仮想オブジェクトが動作を行うように制御する。該動作は、体の姿勢の調整、這い、歩き、走り、乗り、跳び、運転、射撃、投げ、仮想アイテムのうちの何れかの使用を含むが、これらに限定されない。例えば、仮想オブジェクトは、シミュレートされたキャラクタオブジェクト又はアニメーションのキャラクタオブジェクトなどの仮想キャラクタである。
好ましくは、第1のユーザにより制御される仮想オブジェクトと第2のユーザにより制御される仮想オブジェクトとは、同一の仮想環境にある。好ましくは、第1のユーザにより制御される仮想オブジェクトと第2のユーザにより制御される仮想オブジェクトとは、同一のチーム、同一の組織に属してもよく、友人関係を持ってもよく、或いは一時的な通信権限を持ってもよい。
好ましくは、第1の端末120及び第2の端末160にインストールされたアプリケーションプログラムは同一であり、或いは、2つの端末にインストールされたアプリケーションプログラムは、異なる制御システムプラットフォームの同一のタイプのアプリケーションプログラムである。第1の端末120は、一般に、複数の端末のうちの1つを意味してもよく、第2の端末160は、一般に、複数の端末のうちの1つを意味してもよく、本実施例では、単に第1の端末120及び第2の端末160を一例にして説明する。第1の端末120及び第2の端末160のデバイスタイプは、同一であってもよいし、異なってもよい。該デバイスタイプは、スマートフォン、タブレットコンピュータ、電子書籍リーダ、MP3プレーヤ、MP4プレーヤ、ラップトップコンピュータ及びデスクトップコンピュータのうちの少なくとも1つを含む。以下の実施例では、端末にスマートフォンが含まれることを一例にして説明する。
当業者が分かるように、上記の端末の数は、その数よりも多くてもよいし、少なくてもよい。例えば、上記の端末の数は、1つのみであってもよいし、数十又は数百であってもよいし、それ以上の数であってもよい。本発明の実施例は、端末の数及びデバイスタイプに限定されない。
図4は、本発明の1つの例示的な実施例に係る仮想オブジェクト制御方法のフローチャートである。該方法は、図3に示すコンピュータシステムの第1の端末120、第2の端末160、又は該コンピュータシステムにおける他の端末に適用されてもよい。該方法は、以下のステップを含む。
ステップ401において、仮想環境画面及びインタラクティブパネル領域を含むユーザインターフェースを表示する。仮想環境画面は、仮想オブジェクトの視点で仮想環境を観察する画面である。
好ましくは、仮想環境画面は、仮想オブジェクトの視点で仮想環境を観察する画面である。視点(視角)とは、仮想環境において仮想オブジェクトの一人称視点又は三人称視点で観察を行う際の視点を意味する。好ましくは、本発明の実施例では、視点は、仮想環境においてカメラモデルにより仮想オブジェクトを観察する際の視点である。
好ましくは、カメラモデルは、仮想環境において仮想オブジェクトに自動的に追従し、即ち、仮想環境における仮想オブジェクトの位置が変化すると、カメラモデルが仮想環境において仮想オブジェクトの位置に追従して同時に変化し、該カメラモデルが常に仮想環境において仮想オブジェクトの所定の距離範囲内にある。好ましくは、自動的な追従プロセスでは、カメラモデルと仮想オブジェクトとの相対位置は変化しない。
カメラモデルとは、仮想環境における仮想オブジェクトの周囲の3次元モデルを意味する。一人称視点を採用する場合、カメラモデルは、仮想オブジェクトの頭の近傍又は仮想オブジェクトの頭に位置する。三人称視点を採用する場合、カメラモデルは、仮想オブジェクトの後方に位置し、且つ仮想オブジェクトに対して固定されてもよいし、仮想オブジェクトから所定の距離を離れて任意の位置に位置してもよい。該カメラモデルを使用して、様々な角度から仮想環境内に位置する仮想オブジェクトを観察してもよい。好ましくは、該三人称視点は、一人称視点の肩越し視点である場合、カメラモデルは、仮想オブジェクト(例えば仮想オブジェクトの頭及び肩)の後方に位置する。好ましくは、一人称視点及び三人称視点に加えて、視点は、トップビューの視点などの他の視点をさらに含む。トップビューの視点を採用する場合、該カメラモデルを仮想オブジェクトの頭上の空中に位置してもよい。トップビューの視点は、空中から平面視するように仮想環境を観察する視点である。好ましくは、該カメラモデルは、実際には仮想環境に表示されなく、即ち、ユーザインターフェースに表示される仮想環境には該カメラモデルが表示されない。
カメラモデルが仮想オブジェクトから所定の距離を離れて任意の位置に位置することを一例にして説明する。好ましくは、1つの仮想オブジェクトは1つのカメラモデルに対応し、該カメラモデルは、仮想オブジェクトを回転の中心として回転してもよい。例えば、仮想オブジェクトの任意の1つの点を回転の中心としてカメラモデルを回転させ、カメラモデルの回転中、角度で回転することだけでなく、変位でもシフトする。回転の際に、カメラモデルと該回転の中心との間の距離をそのまま維持し、即ち、カメラモデルは、回転の中心を球の中心として球の表面で回転する。ここで、仮想オブジェクトの任意の1つの点は、仮想オブジェクトの頭、胴体、又は仮想オブジェクトの周囲の任意の1つの点であってもよいが、本発明の実施例はこれらに限定されない。好ましくは、カメラモデルが仮想オブジェクトを観察する際に、該カメラモデルの視点(視角)の中心の向きは、該カメラモデルが位置する球面上の点が球の中心を向く方向である。
好ましくは、該カメラモデルは、仮想オブジェクトの異なる方向に所定の角度で仮想オブジェクトを観察してもよい。
例えば、図5に示すように、仮想オブジェクト11の1つの点を回転中心12として決定し、カメラモデルが回転中心12を中心に回転する。好ましくは、該カメラモデルは、初期位置が設定され、該初期位置は、仮想オブジェクトの後方の上方の位置(例えば、頭の後方位置)である。例えば、図5に示すように、初期位置は位置13であり、カメラモデルが位置14又は位置15に回転する場合、カメラモデルの視点方向は、カメラモデルの回転に伴って変化する。
好ましくは、仮想環境画面に表示される仮想環境は、山、平地、川、湖、海、砂漠、空、植物、建物、及び車両のうちの少なくとも1つの要素を含む。
好ましくは、ユーザインターフェースは、図2に示すように、インタラクティブパネル領域112を含む。インタラクティブパネル領域112には、仮想オブジェクトが動作を行うように制御するUIウィジェット、メッセージ送信ウィジェット、音声ウィジェット、表情ウィジェット、設定ウィジェットなどが配置されている。上記のウィジェットを使用することによって、ユーザは、仮想オブジェクトが仮想環境で対応する動作を行うように制御し、或いは、同一のチーム内のチームメートにメッセージ(テキストメッセージ、音声メッセージ、絵文字メッセージを含む)を送信し、或いは、仮想オブジェクトの仮想環境での動作属性(例えば、走る時の速度)又は仮想武器の属性(例えば、銃器の感度、攻撃範囲、ダメージなど)を設定し、或いは、ユーザにより制御される仮想オブジェクトの仮想環境における位置を表示する(例えば、ユーザインターフェースには仮想環境の縮小地図が表示される)。ユーザは、インタラクティブパネル領域112により仮想オブジェクトの現在の状態をリアルタイムで知ることができ、インタラクティブパネル領域112を介して仮想オブジェクトが対応する動作を行うようにリアルタイムで制御することができる。幾つかの実施例では、インタラクティブパネル領域の形状は矩形又は円形であり、或いは、インタラクティブパネル領域の形状はユーザインターフェースにおけるUIウィジェットの形状に対応するが、本発明はインタラクティブパネル領域の形状に限定されない。
ステップ402において、ユーザインターフェースの対象領域におけるショートカット操作を受け付ける。対象領域は、仮想環境画面に属し、且つインタラクティブパネル領域に属さない領域を含む。
好ましくは、ショートカット操作は、ダブルタップ操作、ダブルタップ長押し操作、2本指の横方向のスワイプ操作、及び2本指の縦方向のスワイプ操作のうちの少なくとも1つを含む。
好ましくは、仮想環境画面が属する領域が領域Aであり、インタラクティブパネル領域が領域Bであることを一例にして説明する。対象領域は、以下の形態を含む。
第1の形態では、対象領域は領域Aに対応する領域である。
対象領域は、仮想環境画面に属し、且つインタラクティブパネル領域に属さない領域を含む。例えば、図2に示すように、ユーザは、UIウィジェット及びミニ地図が含まれていない領域、例えば、移動ウィジェットと攻撃ウィジェットとの間の領域でショートカット操作を行ってもよく、該領域は、仮想環境画面に属し、且つインタラクティブパネル領域に属さない領域である。
第2の形態では、対象領域は、領域A及び領域Bに対応する領域である。
対象領域は、仮想環境画面及びインタラクティブパネル領域に対応する領域を含む。例えば、図2に示すように、ユーザは、仮想環境画面及びインタラクティブパネル領域の対応する領域の両方でショートカット操作を行ってもよく、例えば、ユーザは、UIウィジェット及びミニ地図が位置する領域でショートカット操作を行ってもよく、即ち、ユーザは、ユーザインターフェース110の任意の位置でショートカット操作を行ってもよい。
第3の形態では、対象領域は、領域Aの部分領域及び領域Bに対応する領域である。
対象領域は、仮想環境画面の一部に対応する領域、及びインタラクティブパネル領域に対応する領域を含む。例えば、図2に示すように、ユーザは、仮想環境画面の右部分の領域及びインタラクティブパネル領域でショートカット操作を行ってもよく、即ち、ユーザは、ユーザインターフェース110の右部分の領域及びユーザインターフェース110の左部分の領域におけるUIウィジェットに対応するインタラクティブパネル領域でショートカット操作を行ってもよい。好ましくは、仮想環境画面の一部に対応する領域は、仮想環境画面の左部分の領域、右部分の領域、上部の領域、及び下部の領域の何れかであってもよい。
第4の形態では、対象領域は、領域Bの部分領域と領域Aに対応する領域である。
対象領域は、仮想環境画面に対応する領域、及びインタラクティブパネル領域の一部に対応する領域である。図2に示すように、ユーザは、仮想環境画面に対応する領域及び右部分のインタラクティブパネル領域でショートカット操作を行ってもよく、即ち、ユーザは、ユーザインターフェース110の左部分のインタラクティブパネル領域を含まない領域でショートカット操作を行ってもよい。好ましくは、インタラクティブパネル領域の一部は、左部分のインタラクティブパネル領域、右部分のインタラクティブパネル領域、上部のインタラクティブパネル領域、及び下部のインタラクティブパネル領域の何れかの領域であってもよい。
第5の形態では、対象領域は、領域Aの部分領域及び領域Bの部分領域に対応する領域である。
対象領域は、仮想環境画面の一部に対応する領域及びインタラクティブパネル領域の一部に対応する領域である。図2に示すように、ユーザは、左部分の仮想環境画面及び左部分のインタラクティブパネル領域に対応する領域でショートカット操作を行ってもよく、即ち、ユーザは、ユーザインターフェース110の左部分の領域でショートカット操作を行ってもよい。例えば、ユーザは、右部分の仮想環境画面及び左部分のインタラクティブパネル領域に対応する領域でショートカット操作を行ってもよく、即ち、ユーザは、右部分のインタラクティブパネル領域に対応する領域及び左部分の仮想環境画面に対応する領域を含まない領域でショートカット操作を行ってもよい。ユーザは、移動ウィジェット及び攻撃ウィジェットでショートカット操作を行ってもよいし、右部分の仮想環境画面に対応する領域でショートカット操作を行ってもよい。
好ましくは、上記の対象領域の表現の形態に応じて、ユーザインターフェースには、インタラクティブパネル領域を表示しなくてもよく、即ち、インタラクティブパネル領域を非表示にしてもよい。
図6は、本発明の1つの例示的な実施例に係るユーザインターフェースに直交座標系を確立するインターフェースの概略図である。例えば、ユーザインターフェース130の中心を原点として直交座標系を確立し、対象領域131は、ユーザインターフェース130の右部分の領域に、直交座標系の第1象限と第4象限との間に配置される。該対象領域131の形状は楕円形である。一例では、ユーザは、対象領域131でダブルタップ操作を行う場合、仮想オブジェクトが仮想アイテムに対応するアクセサリをオンにするように制御する。
好ましくは、対象領域131は、ユーザインターフェース130におけるインタラクティブパネル領域以外の任意の領域、例えば、ユーザインターフェース130の上部領域であってもよく、該領域は、ユーザインターフェース130の左端と右部分のUIウィジェットとの間の部分に対応する領域を意味する。或いは、対象領域131は、仮想オブジェクトにより使用される仮想アイテムの位置に対応する領域であってもよく、例えば、対象領域131は、仮想オブジェクトにより使用される仮想武器(狙撃銃)に対応する領域である。
例えば、ユーザは、対象領域131で異なるショートカット操作を行い、仮想オブジェクトが異なる動作を行うように制御する。例えば、ユーザは、対象領域131でダブルタップ操作を行い、仮想オブジェクトが仮想アイテムに対応するアクセサリ(例えば、仮想オブジェクトにより使用される狙撃銃のスコープ)をオンにするように制御する。
ステップ403において、ショートカット操作に従って、仮想オブジェクトが仮想環境で対応する動作を行うように制御する。
好ましくは、仮想オブジェクトの体の姿勢が第1の条件を満たす場合、ショートカット操作に従って、仮想オブジェクトが仮想環境で体の姿勢を調整するように制御する。好ましくは、第1の条件は、仮想オブジェクトの体の姿勢がしゃがみ状態であることを含み、ショートカット操作は、2本指の縦方向のスワイプ操作を含む。仮想オブジェクトは、仮想環境で走り、跳び、登り、立ち上がり、這いなどの動作を行ってもよい。仮想オブジェクトの仮想環境での体の姿勢は、腹ばいになること、しゃがみ、立ち、座り、横になること、跪くことなどである。例えば、仮想オブジェクトが仮想環境で立ち上がることを一例にして説明する。図7は、本発明の1つの例示的な実施例に係る仮想オブジェクトが立ち上がるように制御するインターフェースの概略図である。
仮想オブジェクトの体の姿勢がしゃがみ状態である場合、仮想環境画面が仮想オブジェクトの視点から仮想環境を観察する画面であるため、ユーザインターフェース150は、仮想オブジェクトの上向きの視点、即ち空に対応する画面を表示する。好ましくは、ユーザの指がユーザインターフェース150で上向きに同時にスライドし(図7の矢印で示すように)、ユーザインターフェース150における仮想環境画面がユーザのスワイプ操作に伴って変化し、ユーザインターフェース150における空に対応する画面が占める面積の割合が減少する。そして、仮想オブジェクトの視点は水平方向の状態になり、ユーザインターフェース150に仮想環境の地面及び風景を含み、ユーザは、2本指の縦方向のスワイプ操作により、仮想オブジェクトが仮想環境で立ち上がるように制御する。
幾つかの実施例では、ユーザは、2本指の縦方向のスワイプ操作により、仮想オブジェクトが仮想環境で跳び、或いは登るように制御し、或いは、ユーザは、ダブルタップ操作又は他のショートカット操作により、仮想オブジェクトが仮想環境で立ち上がる(仮想オブジェクトが仮想環境における体の姿勢がしゃがみ状態である場合)ように制御してもよいが、本発明はこれらに限定されない。
好ましくは、仮想アイテムの使用状態が第2の条件を満たす場合、ショートカット操作に従って、仮想オブジェクトが仮想環境で仮想アイテムに対応するアクセサリをオンにするように制御する。好ましくは、第2の条件は、仮想アイテムが自動的に有効化する状態にあることを含み、ショートカット操作は、ダブルタップ操作を含む。自動的に有効化する状態とは、操作をトリガせずに仮想アイテムを自動的に有効化(起動)できることを意味する。例えば、サブマシンガンは、ユーザが攻撃ウィジェット又は撃ちウィジェットをトリガする必要がなく、スコープ113がオンにされた場合、自動的に攻撃し、或いは撃つ。図2に示すように、仮想アイテムが仮想武器であり、仮想アイテムに対応するアクセサリがスコープであることを一例にして説明する。例えば、ユーザにより制御される仮想オブジェクトにより使用される仮想武器111は、サブマシンガンである。仮想アイテムが自動的に有効化する状態にある場合、ユーザは、対象領域でダブルタップ操作を行い、仮想オブジェクトが仮想環境でサブマシンガンに対応するスコープ113をオンにする。サブマシンガンは、ユーザインターフェース110の中央に表示され、スコープ113もユーザインターフェース110の中央に表示される。
好ましくは、仮想アイテムが仮想武器である場合、仮想アイテムに対応するアクセサリは挿弾子であってもよい。例えば、仮想武器が銃器類の武器であることを一例にして説明する。仮想武器が自動的に有効化する状態にある場合、ユーザは、対象領域でダブルタップ操作を行い、仮想オブジェクトが仮想環境で銃器類の仮想武器に挿弾子を装備するように制御する。
幾つかの実施例では、ユーザは、ダブルタップ操作により、仮想オブジェクトが仮想アイテムのアクセサリを装備するように制御してもよいし、ユーザは、ダブルタップ長押し操作又は他のショートカット操作により、仮想オブジェクトが仮想環境で仮想アイテムに対応するアクセサリをオンにするように制御してもよいが、本発明はこれらに限定されない。
好ましくは、仮想アイテムの使用状態が第3の条件を満たす場合、ショートカット操作に従って、仮想オブジェクトが仮想環境で前記仮想アイテムをオンにするように制御する。好ましくは、第3の条件は、仮想アイテムが手動で有効化する状態にあることを含み、ショートカット操作は、ダブルタップ長押し操作を含む。手動で有効化する状態とは、ユーザが仮想アイテムを有効化するために操作をトリガする必要があることを意味する。例えば、ユーザが仮想オブジェクトに仮想武器を使用させて攻撃させるように制御するために、攻撃ウィジェットをトリガする必要がある。図8は、本発明の1つの例示的な実施例に係る関連技術における仮想オブジェクトが仮想アイテムを有効化するように制御するインターフェースの概略図である。攻撃インターフェース12には、ユーザインターフェースの左部分の領域と右部分の領域にそれぞれ位置する2つの攻撃ウィジェット103が表示されている。例えば、ユーザにより制御される仮想オブジェクトにより使用される仮想アイテムはサブマシンガンであり、ユーザは、仮想オブジェクトが攻撃する(即ち、サブマシンガンで撃つ)ように制御するために、2つの攻撃ウィジェット103のうちの少なくとも1つをトリガする必要がある。
図9は、本発明の1つの例示的な実施例に係る仮想オブジェクトが仮想アイテムを有効化するように制御するインターフェースの概略図である。攻撃インターフェース170には、対象領域131及び攻撃ウィジェット114が表示されている。ユーザは、対象領域131でダブルタップ長押し操作を行うことで、仮想オブジェクトが仮想アイテムを有効化するように制御してもよい。例えば、仮想アイテムが狙撃銃であり、対象領域131が攻撃インターフェース170の右部分の楕円形領域であることを一例にして説明する。ユーザは、対象領域131でダブルタップ長押し操作を行う場合、仮想オブジェクトが狙撃銃を使用して攻撃する(即ち、撃つ)するように制御する。好ましくは、ユーザは、攻撃ウィジェット114をトリガすることで、仮想オブジェクトが狙撃銃を使用して攻撃するように制御してもよい。好ましくは、ユーザは、攻撃ウィジェット114の数を設定してもよい。例えば、ユーザインターフェースにおける攻撃ウィジェット114の数は2であり、或いは、ゲームに対応するアプリケーションプログラムでデフォルトとして設定された攻撃ウィジェット114の数であり、或いは、バックエンドのサーバによりユーザの使用習慣や履歴記録に基づいてインテリジェントに設定された攻撃ウィジェット114の数であってもよいが、本発明はこれらに限定されない。好ましくは、ユーザは、攻撃ウィジェット114のユーザインターフェースにおける位置を調整してもよい。例えば、実際のゲーム状況に応じて、攻撃ウィジェット114の位置がユーザに視覚的な妨害を引き起こさないように、攻撃ウィジェット114のユーザインターフェースにおける位置をリアルタイムで調整してもよい。
幾つかの実施例では、ユーザは、ダブルタップ長押し操作により、仮想オブジェクトが仮想環境で継続的に走るように制御してもよいし、ユーザは、ダブルタップ操作又は他のショートカット操作により、仮想オブジェクトが仮想環境で仮想アイテムを有効化するように制御してもよいが、本発明はこれらに限定されない。
好ましくは、仮想アイテムの使用状態が第4の条件を満たす場合、ショートカット操作に従って、仮想オブジェクトが仮想環境で仮想アイテムを投げるように制御する。好ましくは、第4の条件は、仮想オブジェクトが仮想アイテムを所持していることを含み、ショートカット操作は、2本指の横方向のスワイプ操作を含む。仮想オブジェクトが仮想アイテムを所持していることは、仮想オブジェクトが該仮想アイテムを装備していることを意味する。該仮想アイテムは、仮想オブジェクトのバッグのポーチにあり、或いは、仮想オブジェクトにより使用されている。例えば、仮想アイテムが爆弾であることを一例にして説明する。
図10は、本発明の1つの例示的な実施例に係る仮想オブジェクトが仮想アイテムを投げるように制御するインターフェースの概略図である。投げインターフェース190には、仮想オブジェクトが所有する爆弾115が表示されている。好ましくは、ユーザの指が対象領域で右へ同時にスライドし、ユーザによるスライドが停止した場合、仮想オブジェクトが所有する爆弾を投げるように制御する。好ましくは、ユーザは、武器ウィジェット115をトリガすることで、仮想オブジェクトが爆弾を投げるように制御してもよい。好ましくは、仮想オブジェクトがしゃがみ状態にある場合、ユーザは、2本指の横方向のスワイプ操作により、仮想オブジェクトが立ち上がって爆弾を投げるように制御する。
幾つかの実施例では、ユーザは、2本指の縦方向のスワイプ操作により、仮想オブジェクトが仮想環境内の仮想アイテムを拾い、或いは、仮想オブジェクトに装備されている仮想アイテムを取り外すように制御してもよいし、ユーザは、2本指の横方向のスワイプ操作又は他のショートカット操作により、仮想オブジェクトが仮想環境で仮想アイテムを投げるように制御してもよいが、本発明はこれらに限定されない。
上述したように、ユーザインターフェースで対象領域を設定することで、ユーザは、対象領域でショートカット操作を実行して仮想オブジェクトが対応する動作を行うように制御できるため、動作に対応するUIウィジェットをトリガする必要がなく、UIウィジェットの機能及び位置を覚える必要がなく、ショートカット操作に従って仮想オブジェクトが仮想環境で対応する動作を行うように制御することを実現することができる。
図11は、本発明の1つの例示的な実施例に係る仮想オブジェクトがスコープをオンにするように制御する方法のフローチャートである。該方法は、図3に示すコンピュータシステムの第1の端末120、第2の端末160、又はコンピュータシステムの他の端末に適用されてもよい。該方法は、以下のステップを含む。
ステップ1101において、自動撃ち状態を選択し、ダブルタップ操作を受け付ける。
例えば、仮想アイテムが狙撃銃であることを一例にして説明する。ユーザにより選択された狙撃銃の状態が自動撃ち状態であり、或いはユーザが狙撃銃を自動撃ち状態に設定し、即ち仮想オブジェクトが狙撃銃を装備している場合、該狙撃銃は既に自動撃ち状態になっているため、設定する必要はない。
ステップ1102において、ダブルタップ操作であるか否かを判断する。
例えば、スコープをオンにするためのショートカット操作がダブルタップ操作であることを一例にして説明する。ユーザがダブルタップ操作を行った後、ゲームに対応するアプリケーションプログラムは、該操作がダブルタップ操作であるか否かを判断する。好ましくは、アプリケーションプログラムがユーザによる1回目のタップ操作の時間及び2回目のタップ操作の時間を取得し、1回目のタップ操作の時間と2回目のタップ操作の時間との間の時間間隔が時間間隔閾値よりも小さい場合、該操作がダブルタップ操作であると判断する。例えば、時間間隔閾値は500ミリ秒であり、1回目のタップ操作の時間と2回目のタップ操作の時間との間の時間間隔が500ミリ秒よりも小さい場合、受け付けられた操作がダブルタップ操作であると判断する。
ステップ1103において、ダブルタップ操作が回転領域にあるか否かを判断する。
幾つかの実施例では、対象領域は、回転領域とも称され、本発明は、対象領域の名称に限定されない。好ましくは、ダブルタップ操作を受け付けた領域が回転領域の範囲内にある場合、該ダブルタップ操作が回転領域内にあると判断する。例えば、ユーザインターフェースは、長さが100単位長さであり、幅が50単位長さである矩形領域である。例えば、該回転領域の範囲は、50単位長さよりも大きく、且つ100単位長さよりも小さい長さと、50単位長さの幅とで形成された矩形領域であり、即ち、ユーザインターフェースの中心を境界線とする場合の右部分の領域である。図6に示すように、ユーザインターフェースの中心を原点として直交座標系を確立する。該直交座標系の第1象限及び第4象限に対応する領域は回転領域であり、対象領域131が該第1象限及び第4象限対応する領域の範囲内にある場合、ユーザは、対象領域131でショートカット操作を行って仮想オブジェクトを制御することができる。
ステップ1104において、スコープオン操作を実行する。
例えば、仮想アイテムが狙撃銃であることを一例にして説明する。狙撃銃が自動撃ち状態にある場合、対象領域でユーザのダブルタップ操作を受け付けた後、ゲームに対応するアプリケーションプログラムは、仮想オブジェクトが狙撃銃のスコープをオンにするように制御する。
図12は、本発明の1つの例示的な実施例に係る仮想オブジェクトがスコープをオフにするように制御する方法のフローチャートである。該方法は、図3に示すコンピュータシステムの第1の端末120、第2の端末160又はコンピュータシステムの他の端末に適用されてもよい。該方法は、以下のステップを含む。
ステップ1201において、スコープオフ操作を受け付ける。
例えば、仮想アイテムが狙撃銃であることを一例にして説明する。ユーザが狙撃銃のスコープをオフにする場合、ユーザインターフェースの回転領域でショートカット操作を行い、アプリケーションプログラムがユーザのショートカット操作に従って狙撃銃のスコープをオフにする。
ステップ1202において、ダブルタップ操作であるか否かを判断する。
一例では、時間間隔閾値は900ミリ秒であり、ユーザの1回目のタップ操作と2回目のタップ操作との間の時間間隔は500ミリ秒であり、時間間隔閾値よりも小さい場合、2回のタップ操作がダブルタップ操作であると判定する。好ましくは、1回目のタップ操作と2回目のタップ操作との間の時間間隔が1秒である場合、アプリケーションプログラムは今回のタップ操作を1回目のタップイベントとして記録し、ユーザは2回のタップ操作を再度行い、2回目のタップイベントに基づいて2回のタップ操作の間の時間間隔を再計算する。
ステップ1203において、ダブルタップ操作が回転領域にあるか否かを判断する。
例えば、ユーザインターフェースの長さは100単位長さであり、幅は50単位長さである。一例では、回転領域の範囲は、20単位長さと30単位長さとの間にある長さと、45単位長さの幅とで形成された矩形領域である。ユーザは、該領域の範囲内でダブルタップ操作を行うと、アプリケーションプログラムは、該ダブルタップ操作が回転領域内にあると判断する。
ステップ1204において、スコープオフ操作を実行する。
一例では、狙撃銃のスコープがオンにされた状態にある場合、ユーザは、回転領域でダブルタップ操作を行い、仮想オブジェクトが狙撃銃のスコープをオフにするように制御する。
図13は、本発明の1つの例示的な実施例に係る仮想オブジェクトが撃つように制御する方法のフローチャートである。該方法は、図3に示すコンピュータシステムの第1の端末120、第2の端末160、又はコンピュータシステムの他の端末に適用されてもよい。該方法は、以下のステップを含む。
ステップ1301において、手動で撃つことを選択する。
好ましくは、ユーザは、仮想アイテムの使用モードを手動有効化モードに設定してもよい。或いは、ユーザが仮想アイテムを選択する際に、該仮想アイテムが既に手動有効化モード(仮想アイテムのデフォルト設定)になっている。手動有効化モードは、ユーザが仮想オブジェクトに仮想アイテムをオンにさせるために、対応するUIウィジェットをトリガし、或いは対応する操作を行う必要があることを意味する。例えば、仮想アイテムをサブマシンガンであることを一例にして説明する。ユーザは、手動撃ちをサブマシンガンの撃ちモードとして選択し、撃ち又は攻撃ウィジェットをトリガする場合、仮想オブジェクトがサブマシンガンを使用して攻撃する(即ち、サブマシンガンで弾丸を発射する)ように制御する。
ステップ1302において、ダブルタップ操作であるか否かを判断する。
一例では、ユーザの1回目のタップ操作と2回目のタップ操作との間の時間間隔が300ミリ秒であり、時間間隔閾値の500ミリ秒よりも小さい場合、該ユーザの1回目のタップ操作及び2回目のタップ操作がダブルタップ操作であると判断する。
ステップ1303において、ダブルタップ操作が回転領域にあるか否かを判断する。
例えば、ユーザインターフェースの長さは100単位長さであり、幅は50単位長さである。一例では、回転領域は、50単位長さよりも大きく、且つ100単位長さよりも小さい長さと、50単位長さの幅とで形成された矩形領域であり、即ち、ユーザインターフェースの中心を境界とする場合の右部分の領域である。ユーザは、該回転領域でダブルタップ操作を行う。
ステップ1304において、長押し操作を受け付けたか否かを判断する。
対象領域でダブルタップ操作を受け付けた後、ユーザは、対象領域(即ち、回転領域)で押し操作を行う必要がある。押し操作の期間が持続期間閾値よりも大きい場合、対象領域において長押し操作を受け付けたと決定する。例えば、持続期間閾値が200ミリ秒であり、ユーザの押し操作の期間が300ミリ秒であり、持続期間閾値よりも大きい場合、ユーザにより行われた押し操作が長押し操作であると決定する。
ステップ1305において、撃ち操作を実行する。
ユーザが対象領域でダブルタップ操作及び長押し操作を行った後、該ダブルタップ長押し操作に従って、仮想オブジェクトが撃ち操作を行うように制御する。一例では、ユーザは、対象領域でダブルタップ長押し操作を行う、仮想オブジェクトがサブマシンガンを使用して撃ち操作を行うように制御する。
ステップ1306において、長押し操作を停止するか否かを判断する。
例えば、仮想アイテムがサブマシンガンであることを一例にして説明する。ユーザが仮想オブジェクトがサブマシンガンを使用して撃つように制御する場合、サブマシンガンは、ユーザの長押し操作時間に従って撃ちの時間を調整する。例えば、撃ち状態では、ユーザの長押し操作の持続期間が3秒である場合、サブマシンガンの撃ち時間は3秒である。
ステップ1307において、撃ち停止操作を実行する。
好ましくは、対象領域のダブルタップ長押し操作が停止する場合、仮想オブジェクトが仮想アイテムをオフにするように制御する。
幾つかの実施例では、ダブルタップ長押し操作は、ダブルタップ及び長押し操作とも称され、本発明はショートカット操作の名称に限定されない。なお、対象領域でユーザが行うダブルタップ長押し操作は、まずダブルタップ操作を行って、次に長押し操作を行う。仮想アイテムの有効化状態では、長押しの期間は、仮想アイテムがオンになっている期間であり、長押し操作が停止する場合、仮想アイテムはオフにされる。
図14は、本発明の1つの例示的な実施例に係る仮想オブジェクトが立ち上がって仮想アイテムを投げるように制御する方法のフローチャートである。該方法は、図3に示すコンピュータシステムの第1の端末120、第2の端末160、又はコンピュータシステムの他の端末に適用されてもよい。該方法には、以下のステップを含む。
ステップ1401において、2本指のスワイプ操作を受け付ける。
ユーザは、ユーザインターフェースで2本指のスワイプ操作を行う。好ましくは、2本指のスワイプ操作は、2本の指の横方向のスワイプ操作及び2本指の縦方向のスワイプ操作を含む。
ステップ1402において、2本指がユーザインターフェースに同時にあるか否かを判断する。
アプリケーションプログラムは、ユーザの2本の指に対応する2つの接触点が同時にユーザインターフェースにあるか否かを判断する。好ましくは、2つの接触点が同時にユーザインターフェースにあることでない場合は、ダブルタップ操作であると判断してもよい。
ステップ1403において、2本指がユーザインターフェースの左部分の領域と右部分の領域にそれぞれ位置するか否かを判断する。
好ましくは、対象領域は、第1の対象領域及び第2の対象領域を含み、アプリケーションプログラムは、2本の指に対応する2つの接触点がそれぞれ第1の対象領域及び第2の対象領域に位置するか否かを判断する。好ましくは、ユーザの左手の指に対応する接触点は第1の対象領域(即ち、ユーザインターフェースの左部分の領域)にあり、右手の指に対応する接触点は第2の対象領域(即ち、ユーザインターフェースの右部分の領域)にある。
ステップ1404において、2本指のスライド変位を判断する。
アプリケーションプログラムは、2本の指に対応する2つの接触点のユーザインターフェースにおけるスライド変位を判断する。好ましくは、2つの接触点のスライド変位は、横方向のスライド変位又は縦方向のスライド変位である。横方向のスライド変位とは、ユーザインターフェースの長さ方向に平行な方向にスライドすることを意味し、縦方向のスライド変位とは、ユーザインターフェースの幅方向に平行な方向にスライドすることを意味する。
ステップ1404aにおいて、2本指のスライドの横座標の変位が横座標変位閾値に達するか否かを判断する。
例えば、2本指の横方向のスワイプ操作を一例にして説明する。好ましくは、ユーザの2本の指がユーザインターフェースにおける対象領域に接触する場合、第1の接触点の第1の対象領域における第1の開始位置座標及び第2の接触点の第2の対象領域における第2の開始位置座標を取得し、第1の接触点及び第2の接触点のスライドを停止する場合、第1の接触点の第1の対象領域における第1の終了位置座標及び第2の接触点の第2の対象領域における第2の終了位置座標を取得し、第1の接触点の横座標変位が横座標変位閾値よりも大きく、且つ第2接触点の横座標変位が横座標変位閾値よりも大きい場合、対象領域において2本指の横方向のスワイプ操作を受け付けたと決定する。一例では、横座標変位閾値は2単位の長さであり、第1の接触点の第1の開始位置座標は(-1、1)であり、第2の開始位置座標は(1、1)であり、第1の接触点の第1の終了位置座標は(-4、1)であり、第2の接触点の第2の終了位置座標は(4、1)であり、第1接触点の横座標変位及び第2接触点の横座標変位が何れも3単位の長さであり、横座標変位閾値(2単位の長さ)より大きく、第1の接触点の縦座標及び第2の接触点の縦座標が接触点のスライドプロセスにおいて変位がない場合、アプリケーションプログラムは、該2本の指のスワイプ操作が2本の指の横方向のスワイプ操作であると判断する。
ステップ1404bにおいて、2本指のスライドの縦座標の変位が縦座標変位閾値に達するか否かを判断する。
例えば、2本指の縦方向のスワイプ操作を一例にして説明する。好ましくは、ユーザの2本の指がユーザインターフェースにおける対象領域に接触する場合、第1の接触点の第1の対象領域における第1の開始位置座標及び第2の接触点の第2の対象領域における第2の開始位置座標を取得し、第1の接触点及び第2の接触点のスライドを停止する場合、第1の接触点の第1の対象領域における第1の終了位置座標及び第2の接触点の第2の対象領域における第2の終了位置座標を取得し、第1の接触点の縦座標変位が縦座標変位閾値よりも大きく、且つ第2接触点の縦座標変位が縦座標変位閾値よりも大きい場合、対象領域において2本指の縦方向のスワイプ操作を受け付けたと決定する。一例では、横座標変位閾値は2単位の長さであり、第1の接触点の第1の開始位置座標は(-1、1)であり、第2の開始位置座標は(1、1)であり、第1の接触点の第1の終了位置座標は(-1、-3)であり、第2の接触点の第2の終了位置座標は(1、-3)であり、第1接触点の縦座標変位及び第2接触点の縦座標変位が何れも3単位の長さであり、縦座標変位閾値(2単位の長さ)より大きく、第1の接触点の横座標及び第2の接触点の横座標が接触点のスライドプロセスにおいて変位がない場合、アプリケーションプログラムは、該2本の指のスワイプ操作が2本の指の縦方向のスワイプ操作であると判断する。
ステップ1405aにおいて、仮想オブジェクトが爆弾を投げるように制御する。
好ましくは、アプリケーションプログラムは、ユーザの2本指の横方向のスワイプ操作に従って、仮想オブジェクトが爆弾を投げるように制御する。
ステップ1405bにおいて、仮想オブジェクトが爆弾の投げをキャンセルするように制御する。
好ましくは、第1の接触点及び第2の接触点の何れかの横座標変位が横座標変位閾値よりも小さい場合、アプリケーションプログラムは、仮想オブジェクトが爆弾の投げをキャンセルするように制御する。好ましくは、ユーザが実行するショートカット操作が2本指のスワイプ操作であるとアプリケーションプログラムにより判断された場合、ユーザが仮想アイテム(例えば爆弾)を所持していないとき、仮想オブジェクトが爆弾の投げをキャンセルするように制御する。
ステップ1406において、仮想オブジェクトがしゃがみ状態にあるか否かを判断する。
例えば、仮想環境における仮想オブジェクトの体の姿勢は、しゃがみ状態である。
ステップ1407aにおいて、仮想オブジェクトが立ち上がるように制御する。
例えば、仮想環境における仮想オブジェクトの体の姿勢がしゃがみ状態である場合、2本指の縦方向のスワイプ操作に従って、仮想オブジェクトが仮想環境で立ち上がるように制御する。
ステップ1407bにおいて、仮想オブジェクトが元の状態を維持する。
例えば、仮想環境における仮想オブジェクトの体の姿勢がしゃがみ状態ではない場合、例えば、仮想オブジェクトの体の姿勢が立ち状態である場合、ユーザが2本指の縦方向のスワイプ操作を行った後、仮想オブジェクトは立ち状態をそのまま維持する。
好ましくは、ダブルタップ操作は、仮想オブジェクトが仮想アイテムに対応するアクセサリを装備するように制御するために使用されてもよい。ダブルタップ長押し操作は、仮想オブジェクトが走り、跳びなどの動作を継続的に行うように制御するために使用されてもよい。2本指の横方向のスワイプ操作は、仮想オブジェクトが仮想アイテムを拾い、窓を開き、ドアを開くことなどの動作を行うように制御するために使用されてもよい。2本指の縦方向のスワイプ操作は、仮想オブジェクトがしゃがみ、腹ばいになり、転がることなどの動作を行うように制御するために使用されてもよい。
上記の実施例は、ゲームの適用シナリオに基づく上記の方法を説明しているが、以下は、軍事シミュレーションの適用シナリオを一例にして上記の方法を例示的に説明する。
シミュレーション技術は、ソフトウェアとハードウェアを利用して実際の環境をシミュレートする実験を通じて、システムの動作又はプロセスを反映するモデル技術である。
軍事シミュレーションプログラムは、シミュレーション技術を使用して、海、陸、空などの戦闘要素、武器装備の性能、戦闘操作を定量的に解析し、戦場環境を正確にシミュレートし、戦場の状況を表現することにより、戦闘システムの評価と意思決定の支援を実現する軍事用途向けに特別に構築されたプログラムである。
一例では、兵士は、軍事シミュレーションプログラムが構成されている端末に仮想戦場を構築し、チームで対戦する。兵士は、戦場の仮想環境における仮想オブジェクトが戦場の仮想環境で歩き、走り、登り、運転、射撃、投げ、偵察、及び白兵戦の少なくとも1つの操作を行うように制御する。戦場の仮想環境は、平地、山、高原、盆地、砂漠、川、湖、海、植生の少なくとも1つの自然な形態、及び建物、車両、遺跡、訓練場などの場所の形態を含む。仮想オブジェクトは、仮想キャラクタ、仮想動物、漫画やアニメーションのキャラクタなどを含む。各仮想オブジェクトは、3次元仮想環境において独自の形状と体積を持ち、3次元仮想環境で空間の一部を占める。
上述したように、一例では、兵士Aにより制御される仮想オブジェクトaは、仮想環境において対応する動作を行う。
図7に示すように、仮想環境における仮想オブジェクトaの体の姿勢がしゃがみ状態である場合、仮想オブジェクトaの視点は上向きであり、仮想環境の画面は空である。兵士Aは、軍事シミュレーションプログラムのユーザインターフェースにおける対象領域で2本指の縦方向のスワイプ操作を行う。好ましくは、対象領域は、第1の対象領域及び第2の対象領域を含む。兵士Aの両手の指が第1の対象領域及び第2の対象領域にそれぞれ位置し、例えば、兵士Aの左手の指が第1の対象領域にあり、右手の指が第2の対象領域にある。兵士Aの左手の指と右手の指は、それぞれの対象領域で同時に上向きにスライドし(図7の矢印で示すように)、仮想オブジェクトaが仮想環境で立ち上がるように制御する。好ましくは、仮想環境における仮想オブジェクトaの体の姿勢が立ち状態である場合、兵士Aは、対象領域において2本指の縦方向のスワイプ操作を行い(スライド方向は、図7に示す方向とは反対である)、仮想オブジェクトaが仮想環境でしゃがむように制御する。
例えば、仮想オブジェクトaにより使用される仮想アイテムは狙撃銃であり、狙撃銃は自動的に有効化する状態にある。兵士Aは、軍事シミュレーションプログラムのユーザインターフェースにおける対象領域131で(図2に示すように)2回のタップ操作を行う。1回目のタップ操作と2回目のタップ操作との間の時間間隔が時間間隔閾値よりも小さい場合、軍事シミュレーションプログラムは、2回のタップ操作がダブルタップ操作であると判断する。該ダブルタップ操作が対象領域131内にある場合、兵士Aは、ダブルタップ操作により、狙撃銃に対応するスコープをオンにすることができる。好ましくは、スコープをオンにした後、兵士Aは、対象領域でダブルタップ操作を行うことで、狙撃銃に対応するスコープをオフにすることができる。
例えば、仮想オブジェクトaにより使用される仮想アイテムはサブマシンガンであり、該狙撃銃は手動で有効化する状態にある。兵士Aは、軍事シミュレーションプログラムのユーザインターフェースにおける対象領域131で(図6に示すように)ダブルタップ長押し操作を行う。軍事シミュレーションプログラムは、兵士Aの2回のタップ操作がダブルタップ操作であるか否かを判断し、2回のタップ操作がダブルタップ操作である場合、軍事シミュレーションプログラムは、兵士Aの押し操作が長押し操作であるか否かをさらに判断し、兵士Aの押し操作の期間が持続期間閾値よりも大きい場合、対象領域131でのショートカット操作がダブルタップ長押し操作であると判断する。軍事シミュレーションプログラムは、該ダブルタップ長押し操作に従って、仮想オブジェクトaがサブマシンガンを有効化する(即ち、図9に示すように、サブマシンガンを使用して撃つ)ように制御する。好ましくは、兵士Aが長押し操作を停止する場合、軍事シミュレーションプログラムは、仮想オブジェクトaがサブマシンガンの撃ち機能をオフにするように制御する。長押し操作の期間は、サブマシンガンの撃ち期間である。
例えば、仮想オブジェクトaにより使用される仮想アイテムは爆弾であり、爆弾は仮想オブジェクトaにより所持されている。兵士Aは、軍事シミュレーションプログラムのユーザインターフェースにおける対象領域で2本指の横方向のスワイプ操作を行う。好ましくは、対象領域は、第1の対象領域及び第2の対象領域を含む。兵士Aの両手の指は、第1の対象領域及び第2の対象領域にそれぞれ位置する。例えば、兵士Aの左手の指は第1の対象領域にあり、右手の指は第2の対象領域にある。兵士Aの左手の指及び右手の指がそれぞれの対象領域で同時に右へスライドし(図10の矢印で示すように)、仮想オブジェクトaが爆弾を投げるように制御する。好ましくは、仮想オブジェクトaが仮想環境の建物内にある場合、兵士Aは、2本指の横方向のスワイプ操作により、仮想オブジェクトaがドアや窓を開くように制御してもよい。或いは、仮想環境に仮想アイテムが存在する場合、兵士Aは、2本指の横方向のスワイプ操作により、仮想オブジェクトaが仮想環境で仮想アイテムを拾うように制御してもよい。
上述したように、本発明の実施例では、上記の仮想オブジェクトの制御方法を軍事シミュレーションプログラムに適用することによって、戦闘効率を向上させ、兵士間の協力レベルを高めることができる。
以下は、本発明の装置の実施例を説明し、装置の実施例に詳細に説明されていない部分について、上記の方法の実施例における対応する説明を参照してもよく、ここでその説明を省略する。
図15は、本発明のもう1つの実施例に係る仮想オブジェクト制御装置のブロック図である。該装置は、ソフトウェア、ハードウェア、又は両者の組み合わせにより端末の全部又は一部として実装されてもよい。該装置は、表示モジュール1510、受け付けモジュール1520、制御モジュール1530及び取得モジュール1540を含む。ここで、表示モジュール1510及び受け付けモジュール1520は、オプションのモジュールである。
表示モジュール1510は、仮想環境画面及びインタラクティブパネル領域を含むユーザインターフェースを表示する。仮想環境画面は、仮想オブジェクトの視点で仮想環境を観察する画面である。
受け付けモジュール1520は、ユーザインターフェースの対象領域におけるショートカット操作を受け付ける。対象領域は、仮想環境画面に属し、且つインタラクティブパネル領域に属さない領域を含む。
制御モジュール1530は、ショートカット操作に従って、仮想オブジェクトが仮想環境で対応する動作を行うように制御する。
1つの好ましい実施例では、制御モジュール1530は、仮想オブジェクトの体の姿勢が第1の条件を満たす場合、ショートカット操作に従って、仮想オブジェクトが仮想環境で体の姿勢を調整するように制御する。
1つの好ましい実施例では、第1の条件は、仮想オブジェクトの体の姿勢がしゃがみ状態であることを含み、ショートカット操作は、2本指の縦方向のスワイプ操作を含む。受け付けモジュール1520は、対象領域における前記2本指の縦方向のスワイプ操作を受け付ける。制御モジュール1530は、仮想オブジェクトの体の姿勢がしゃがみ状態である場合、2本指の縦方向のスワイプ操作に従って、仮想オブジェクトが仮想環境でしゃがみ状態から立ち状態に切り替えるように制御する。
1つの好ましい実施例では、対象領域は、第1の対象領域及び第2の対象領域を含む。取得モジュール1540は、第1の接触点の第1の対象領域における第1の開始位置座標及び第2の接触点の第2の対象領域における第2の開始位置座標を取得する。取得モジュール1540は、第1の接触点及び第2の接触点のスライドを停止する場合、第1の接触点の第1の対象領域における第1の終了位置座標及び第2の接触点の第2の対象領域における第2の終了位置座標を取得する。受け付けモジュール1520は、第1の接触点の縦座標変位が縦座標変位閾値よりも大きく、且つ第2接触点の縦座標変位が縦座標変位閾値よりも大きい場合、対象領域において2本指の縦方向のスワイプ操作を受け付けたと決定する。
1つの好ましい実施例では、制御モジュール1530は、仮想アイテムの使用状態が第2の条件を満たす場合、ショートカット操作に従って、仮想オブジェクトが仮想環境で仮想アイテムに対応するアクセサリをオンにするように制御する。或いは、制御モジュール1530は、仮想アイテムの使用状態が第3の条件を満たす場合、ショートカット操作に従って、仮想オブジェクトが仮想環境で仮想アイテムをオンにするように制御する。或いは、制御モジュール1530は、仮想アイテムの使用状態が第4の条件を満たす場合、ショートカット操作に従って、仮想オブジェクトが仮想環境で仮想アイテムを投げるように制御する。
1つの好ましい実施例では、第2の条件は、仮想アイテムが自動的に有効化する状態にあることを含み、ショートカット操作は、ダブルタップ操作を含む。受け付けモジュール1520は、対象領域におけるダブルタップ操作を受け付ける。制御モジュール1530は、第1の仮想アイテムが自動的に有効化する状態にある場合、ダブルタップ操作に従って、仮想オブジェクトが仮想環境で第1の仮想アイテムに対応するスコープをオンにするように制御する。
1つの好ましい実施例では、取得モジュール1540は、対象領域における1回目のタップ操作の時間及び2回目のタップ操作の時間を取得する。受け付けモジュール1520は、1回目のタップ操作の時間と2回目のタップ操作の時間との間の時間間隔が時間間隔閾値よりも小さい場合、対象領域においてダブルタップ操作を受け付けたと決定する。
1つの好ましい実施例では、第3の条件は、仮想アイテムが手動で有効化する状態にあることを含み、前記ショートカット操作は、ダブルタップ長押し操作を含む。受け付けモジュール1520は、対象領域におけるダブルタップ長押し操作を受け付ける。制御モジュール1530は、第2の仮想アイテムが手動で有効化する状態にある場合、ダブルタップ長押し操作に従って、仮想オブジェクトが仮想環境で第2の仮想アイテムをオンにするように制御する。
1つの好ましい実施例では、受け付けモジュール1520は、対象領域におけるダブルタップ操作を受け付けた後、対象領域における押し操作を受け付け、押し操作の期間が持続期間閾値よりも大きい場合、対象領域においてダブルタップ長押し操作を受け付けたと決定する。
1つの好ましい実施例では、制御モジュール1530は、対象領域におけるダブルタップ長押し操作が停止した場合、仮想オブジェクトが前記仮想アイテムをオフにするように制御する。
1つの好ましい実施例では、第4の条件は、仮想オブジェクトが仮想アイテムを所持していることを含み、ショートカット操作は、2本指の横方向のスワイプ操作を含む。受け付けモジュール1520は、対象領域における2本指の横方向のスワイプ操作を受け付ける。制御モジュール1530は、仮想オブジェクトが第3の仮想アイテムを所持している場合、2本指の横方向のスワイプ操作に従って、仮想オブジェクトが仮想環境で第3の仮想アイテムを投げるように制御する。
1つの好ましい実施例では、対象領域は、第1の対象領域及び第2の対象領域を含む。取得モジュール1540は、第1の接触点の第1の対象領域における第1の開始位置座標及び第2の接触点の第2の対象領域における第2の開始位置座標を取得する。取得モジュール1540は、第1の接触点及び第2の接触点のスライドを停止する場合、第1の接触点の第1の対象領域における第1の終了位置座標及び第2の接触点の第2の対象領域における第2の終了位置座標を取得する。受け付けモジュール1520は、第1の接触点の横座標変位が横座標変位閾値よりも大きく、且つ第2接触点の横座標変位が横座標変位閾値よりも大きい場合、対象領域において2本指の横方向のスワイプ操作を受け付けたと決定する。
図16は、本発明の1つの実施例に係るコンピュータ機器1600の構成のブロック図である。該コンピュータ機器1600は、例えばスマートフォン、タブレットコンピュータ、MP3(Moving Picture Experts Group Audio Layer III:ムービングピクチャーエキスパートグループオーディオレイヤーIII)プレーヤ、MP4(Moving Picture Experts Group Audio Layer IV:ムービングピクチャーエキスパートグループオーディオレイヤーIV)プレーヤなどの携帯型移動端末であってもよい。コンピュータ機器1600は、ユーザ装置、携帯型端末、及び他の名称とも称される。
一般に、コンピュータ機器1600は、プロセッサ1601及びメモリ1602を含む。
プロセッサ1601は、4コアプロセッサ、8コアプロセッサなどのような1つ又は複数の処理コアを含んでもよい。プロセッサ1601は、DSP(Digital Signal Processing:デジタル信号処理)、FPGA(Field Programmable Gate Array:フィールドプログラマブルゲートアレイ)、及びPLA(Programmable Logic Array:プログラマブルロジックアレイ)の少なくとも1つのハードウェア形式で実現されてもよい。プロセッサ1601は、メインプロセッサ及びコプロセッサを含んでもよい。メインプロセッサは、アウェイク状態でデータを処理するために使用されるプロセッサであり、CPU(Central Processing Unit:中央処理装置)とも称される。コプロセッサは、スタンバイ状態でデータを処理するために使用される低電力プロセッサである。幾つかの実施例では、プロセッサ1601は、GPU(Graphics Processing Unit:グラフィックスプロセッシングユニット)と統合されてもよく、GPUは、表示画面に表示される必要がある内容をレンダリング及び描画するために使用される。幾つかの実施例では、プロセッサ1601は、AI(Artificial Intelligence:人工知能)プロセッサをさらに含んでもよく、該AIプロセッサは、機械学習に関連する計算操作を処理するために使用される。
メモリ1602は、1つ又は複数のコンピュータ読み取り可能な記憶媒体を含んでもよく、該コンピュータ読み取り可能な記憶媒体は、有形で非一時的であってもよい。メモリ1602は、高速ランダムアクセスメモリ及び不揮発性メモリ、例えば、1つ又は複数の磁気ディスク記憶装置やフラッシュメモリ記憶装置をさらに含んでもよい。幾つかの実施例では、メモリ1602における非一時的なコンピュータ読み取り可能な記憶媒体は、少なくとも1つの命令が記憶され、該少なくとも1つの命令は、本発明に係る仮想オブジェクトの制御方法を実現するように、プロセッサ1601により実行されるために使用される。
幾つかの実施例では、コンピュータ機器1600は、好ましくは、周辺機器インターフェース1603及び少なくとも1つの周辺機器をさらに含んでもよい。具体的には、周辺機器は、無線周波数回路1604、タッチ表示スクリーン1605、カメラコンポーネント1606、オーディオ回路1607、位置特定コンポーネント1608、及び電源1609のうちの少なくとも1つを含む。
周辺機器インターフェース1603は、I/O(入力/出力)に関連する少なくとも1つの周辺機器をプロセッサ1601及びメモリ1602に接続するために使用されてもよい。幾つかの実施例では、プロセッサ1601、メモリ1602及び周辺機器インターフェース1603は、同一のチップ又は回路基板に統合される。他の幾つかの実施例では、プロセッサ1601、メモリ1602及び周辺機器インターフェース1603の何れか1つ又は2つは、単独したチップ又は回路基板に実装されてもよいが、本実施例はこれらに限定されない。
無線周波数回路1604は、電磁信号とも称されるRF(Radio Frequency:無線周波数)信号を送受信するために使用される。無線周波数回路1604は、電磁信号を介して通信ネットワーク及び他の通信機器と通信する。無線周波数回路1604は、電気信号を送信用の電磁信号に変換し、或いは、受信した電磁信号を電気信号に変換する。好ましくは、無線周波数回路1604は、アンテナシステム、RF送受信機、1つ又は複数の増幅器、チューナ、発振器、デジタル信号プロセッサ、コーデックチップセット、ユーザIDモジュールカードなどを含む。無線周波数回路1604は、少なくとも1つの無線通信プロトコルを介して他の端末と通信することができる。該無線通信プロトコルは、ワールドワイドウェブ、メトロポリタンエリアネットワーク、イントラネット、各世代の移動通信ネットワーク(2G、3G、4G及び5G)、ワイヤレスローカルエリアネットワーク及び/又はWiFi(Wireless Fidelity:ワイヤレスフィデリティ)ネットワークを含むが、これらに限定されない。幾つかの実施例では、無線周波数回路1604は、NFC(Near Field Communication:近距離無線通信)に関連する回路を含んでもよいが、本発明はこれらに限定されない。
タッチ表示スクリーン1605は、UI(User Interface:ユーザインターフェース)を表示するために使用される。該UIは、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせを含んでもよい。タッチ表示スクリーン1605は、タッチ表示スクリーン1605の表面又は表面の上方でのタッチ信号を取り込む能力を有する。タッチ信号は、処理のための制御信号としてプロセッサ1601に入力されてもよい。タッチ表示スクリーン1605は、ソフトボタン及び/又はソフトキーボードとも称される仮想ボタン及び/又は仮想キーボードを提供するために使用される。幾つかの実施例では、1つのタッチ表示スクリーン1605は、コンピュータ機器1600のフロントパネルに配置されてもよい。他の幾つかの実施例では、少なくとも2つのタッチ表示スクリーン1605は、コンピュータ機器1600の異なる表面にそれぞれ配置され、或いは折り畳むように設計されてもよい。さらに他の幾つかの実施例では、タッチ表示スクリーン1605は、コンピュータ機器1600の湾曲した表面又は折り畳み面上に配置された可撓性ディスプレイスクリーンであってもよい。また、タッチ表示スクリーン1605は、非矩形の不規則な形状、即ち、特殊な形状のスクリーンとして構成されてもよい。タッチ表示スクリーン1605は、LDC(Liquid Crystal Display:液晶ディスプレイ)、OLED(Organic Light-Emitting Diode:有機発光ダイオード)などの材料で形成されてもよい。
カメラコンポーネント1606は、画像又はビデオを取り込むために使用される。好ましくは、カメラコンポーネント1606は、フロントカメラ及びリアカメラを含む。通常、フロントカメラはビデオ通話や自撮りを実現するために使用され、リアカメラは写真やビデオを実現するために使用される。幾つかの実施例では、リアカメラは、メインカメラと被写界深度カメラとの融合を実現して背景ぼかし機能を実現するために、メインカメラ、被写界深度カメラ、及び広角カメラのうちの少なくとも2つである。メインカメラと広角カメラと融合して、パノラマ撮影とVR(Virtual Reality:バーチャルリアリティ)の撮影機能を実現する。幾つかの実施例では、カメラコンポーネント1606は、フラッシュをさらに含んでもよい。フラッシュは、単一色温度フラッシュ又はダブル色温度フラッシュであってもよい。ダブル色温度フラッシュは、ウォームライトフラッシュとコールドライトフラッシュの組み合わせを意味し、様々な色温度での光補正に使用してもよい。
オーディオ回路1607は、ユーザとコンピュータ機器1600との間のオーディオインターフェースを提供するために使用される。オーディオ回路1607は、マイクロフォン及びスピーカを含んでもよい。マイクロフォンは、ユーザ及び環境の音波を取り込み、音波を電気信号に変換して処理のためにプロセッサ1601に入力し、或いは無線周波数回路1604に入力して音声通信を実現するために使用される。ステレオ取得又はノイズ低減のために、コンピュータ機器1600の異なる部分に複数のマイクロフォンがそれぞれ配置されてもよい。マイクは、アレイマイク又は全方向性コレクション型マイクであってもよい。スピーカは、プロセッサ1601又は無線周波数回路1604からの電気信号を音波に変換するために使用される。スピーカは、従来の薄膜スピーカであってもよいし、圧電セラミックスピーカであってもよい。スピーカは、圧電セラミックスピーカである場合、電気信号を人間の可聴音波に変換するだけでなく、距離測定などのために電気信号を人間の非可聴音波に変換してもよい。幾つかの実施例では、オーディオ回路1607は、ヘッドホンジャックをさらに含んでもよい。
位置特定コンポーネント1608は、ナビゲーション又はLBS(Location Based Service:ロケーションベースサービス)を実現するために、コンピュータ機器1600の現在の地理的位置を特定するために使用される。位置特定コンポーネント1608は、米国のGPS(Global Positioning System:全地球測位システム)、中国の北斗システム、又はロシアのガリレオシステムに基づく測位コンポーネントであってもよい。
電源1609は、コンピュータ機器1600内の各コンポーネントに電力を供給するために使用される。電源1609は、交流、直流、一次的な電池、又は充電式電池であってもよい。電源1609が充電式電池を含む場合、該充電式電池は、有線充電式電池又は無線充電式電池であってもよい。有線充電式電池は有線回路で充電される電池であり、無線充電式電池は無線回路で充電される電池である。該充電式電池は、急速充電技術をサポートするものを採用してもよい。
幾つかの実施例では、コンピュータ機器1600は、1つ又は複数のセンサ1610をさらに含む。該1つ又は複数のセンサ1610は、加速度センサ1611、ジャイロスコープセンサ1612、圧力センサ1613、指紋センサ1614、光学センサ1615、及び近接センサ1616を含むが、これらに限定されない。
加速度センサ1611は、コンピュータ機器1600により確立された座標系の3つの座標軸上の加速度の大きさを検出してもよい。例えば、加速度センサ1611を使用して、3つの座標軸上の重力加速度の成分を検出してもよい。プロセッサ1601は、加速度センサ1611により収集された重力加速度信号に基づいて、タッチ表示スクリーン1605により水平ビュー又は垂直ビューでユーザインターフェースを表示するように制御してもよい。加速度センサ1611は、ゲーム又はユーザの動きデータを収集するために使用されてもよい。
ジャイロスコープセンサ1612は、コンピュータ機器1600の本体の方向及び回転角度を検出してもよい。ジャイロスコープセンサ1612は、加速度センサ1611と協調して、コンピュータ機器1600でのユーザの3D動作を収集してもよい。プロセッサ1601は、ジャイロスコープセンサ1612により収集されたデータに基づいて、動作センシング(例えば、ユーザの傾斜操作に従ってUIを変更する)、撮影中の画像安定化、ゲーム制御、及び慣性ナビゲーションを実現してもよい。
圧力センサ1613は、コンピュータ機器1600のサイドフレーム及び/又はタッチ表示スクリーン1605の下層に配置されてもよい。圧力センサ1613がコンピュータ機器1600のサイドフレームに配置されている場合、コンピュータ機器1600のユーザの把持信号を検出し、把持信号に基づいて左右の手を認識し、或いはショートカット操作を行ってもよい。圧力センサ1613がタッチ表示スクリーン1605の下層に配置されている場合、タッチ表示スクリーン1605に対するユーザの圧力操作に従って、UIインターフェースでの操作可能なウィジェットを制御してもよい。操作可能なウィジェットは、ボタンウィジェット、スクロールバーウィジェット、アイコンウィジェット、及びメニューウィジェットのうちの少なくとも1つを含む。
指紋センサ1614は、収集された指紋に従ってユーザのIDを識別するように、ユーザの指紋を収集するために使用される。識別されたユーザのIDが信頼可能なIDである場合、プロセッサ1601は、画面のロック解除、暗号化された情報の表示、ソフトウェアのダウンロード、支払い、及び設定の変更を含む関連する機密操作を実行することをユーザに許可する。指紋センサ1614は、コンピュータ機器1600の前面、背面、又は側面に配置されてもよい。コンピュータ機器1600に物理的ボタン又は製造業者のロゴ(Logo)が設けられている場合、指紋センサ1614は、物理的ボタン又は製造業者のロゴと統合されてもよい。
光学センサ1615は、周囲光強度を収集するために使用される。1つの実施例では、プロセッサ1601は、光学センサ1615により収集された周囲光強度に基づいて、タッチ表示スクリーン1605の表示輝度を制御してもよい。具体的には、周囲光強度が高い場合、タッチ表示スクリーン1605の表示輝度を高くし、周囲光強度が低い場合、タッチ表示スクリーン1605の表示輝度を低くする。他の実施例では、プロセッサ1601は、光学センサ1615により収集された周囲光強度に基づいて、カメラコンポーネント1606の撮影パラメータを動的に調整してもよい。
近接センサ1616は、距離センサとも呼ばれ、通常、コンピュータ機器1600の前面に配置される。近接センサ1616は、ユーザとコンピュータ機器1600の前面との間の距離を収集するために使用される。1つの実施例では、ユーザとコンピュータ機器1600の前面との間の距離が徐々に小さくなると近接センサ1616により検出された場合、プロセッサ1601は、オンスクリーン状態からオフスクリーン状態に切り替えるようにタッチ表示スクリーン1605を制御する。ユーザとコンピュータ機器1600の前面との間の距離が徐々に大きくなると近接センサ1616により検出された場合、プロセッサ1601は、オフスクリーン状態からオンスクリーン状態に切り替えるようにタッチ表示スクリーン1605を制御する。
なお、当業者が理解できるように、コンピュータ機器1600は、図16に示す構成に限定されず、図示されているものより多く、又は少ない構成要素を含んでもよいし、特定の構成要素を組み合わせてもよいし、異なる構成要素の配置を採用してもよい。
本発明は、プロセッサと、メモリと、を含むコンピュータ機器をさらに提供する。該メモリには、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶されている。該少なくとも1つの命令、該少なくとも1つのプログラム、該コードセット又は該命令セットは、上記の各方法の実施例に記載された仮想オブジェクトの制御方法を実現するように、該プロセッサによりロードされて実行される。
また、本発明の実施例は、コンピュータプログラムが記憶されている記憶媒体をさらに提供する。該コンピュータプログラムは、上記の実施例に記載された仮想オブジェクトの制御方法を実行するために用いられる。
本発明の実施例は、命令を含むコンピュータプログラムプロダクトをさらに提供する。該コンピュータプログラムプロダクトは、コンピュータで実行される際に、上記の実施例に記載された仮想オブジェクトの制御方法を前記コンピュータに実行させる。
なお、本明細書で言及される「複数」は、2つ以上を意味する。「及び/又は」は、関連付けられたオブジェクトの関連付け関係を説明し、3つのタイプの関係があり得ることを表す。例えば、「A及び/又はB」は、Aのみが存在すること、A及びBが同時に存在すること、及びBのみが存在することを意味してもよい。記号「/」は、通常、前後の関連オブジェクトが「又は」関係にあることを表す。
当業者が理解できるように、上記の実施例のステップの全部又は一部は、ハードウェアにより実現されてもよいし、関連するハードウェアが実行するようにプログラムを介して指示することで実現されてもよい。該プログラムは、コンピュータ読み取り可能な記憶媒体に記憶されてもよい。上述した記憶媒体は、読み取り専用メモリ、磁気ディスク又は光ディスクなどであってもよい。
以上は、単に本発明の例示的な実施例を説明し、本発明を制限するものではない。本発明の主旨及び原則の範囲内で行われる変更、均等的な置換、改良などは、本発明の保護範囲内に含まれる。

Claims (15)

  1. 端末が実行する仮想オブジェクトの制御方法であって、
    仮想環境画面及びインタラクティブパネル領域を含むユーザインターフェースを表示するステップであって、前記仮想環境画面は、仮想オブジェクトの視点で仮想環境を観察する画面である、ステップと、
    前記ユーザインターフェースの対象領域におけるショートカット操作を受け付けるステップであって、前記対象領域は、前記仮想環境画面に属し、且つ前記インタラクティブパネル領域に属さない領域を含む、ステップと、
    前記ショートカット操作に従って、前記仮想オブジェクトが前記仮想環境で対応する動作を行うように制御するステップと、を含む、方法。
  2. 前記ショートカット操作に従って、前記仮想オブジェクトが前記仮想環境で対応する動作を行うように制御するステップは、
    前記仮想オブジェクトの体の姿勢が第1の条件を満たす場合、前記ショートカット操作に従って、前記仮想オブジェクトが前記仮想環境で前記体の姿勢を調整するように制御するステップ、を含む、請求項1に記載の方法。
  3. 前記第1の条件は、前記仮想オブジェクトの体の姿勢がしゃがみ状態であることを含み、前記ショートカット操作は、2本指の縦方向のスワイプ操作を含み、
    前記仮想オブジェクトの体の姿勢が第1の条件を満たす場合、前記ショートカット操作に従って、前記仮想オブジェクトが前記仮想環境で前記体の姿勢を調整するように制御するステップは、
    前記対象領域における前記2本指の縦方向のスワイプ操作を受け付けるステップと、
    前記仮想オブジェクトの体の姿勢がしゃがみ状態である場合、前記2本指の縦方向のスワイプ操作に従って、前記仮想オブジェクトが前記仮想環境でしゃがみ状態から立ち状態に切り替えるように制御するステップと、を含む、請求項2に記載の方法。
  4. 前記対象領域は、第1の対象領域及び第2の対象領域を含み、
    前記対象領域における前記2本指の縦方向のスワイプ操作を受け付けるステップは、
    第1の接触点の前記第1の対象領域における第1の開始位置座標及び第2の接触点の前記第2の対象領域における第2の開始位置座標を取得するステップと、
    前記第1の接触点及び前記第2の接触点のスライドを停止する場合、前記第1の接触点の前記第1の対象領域における第1の終了位置座標及び前記第2の接触点の前記第2の対象領域における第2の終了位置座標を取得するステップと、
    前記第1の接触点の縦座標変位が縦座標変位閾値よりも大きく、且つ前記第2接触点の縦座標変位が前記縦座標変位閾値よりも大きい場合、前記対象領域において前記2本指の縦方向のスワイプ操作を受け付けたと決定するステップと、を含む、請求項3に記載の方法。
  5. 前記ショートカット操作に従って、前記仮想オブジェクトが前記仮想環境で対応する動作を行うように制御するステップは、
    仮想アイテムの使用状態が第2の条件を満たす場合、前記ショートカット操作に従って、前記仮想オブジェクトが前記仮想環境で仮想アイテムに対応するアクセサリをオンにするように制御するステップ、又は、
    前記仮想アイテムの使用状態が第3の条件を満たす場合、前記ショートカット操作に従って、前記仮想オブジェクトが前記仮想環境で前記仮想アイテムをオンにするように制御するステップ、又は、
    前記仮想アイテムの使用状態が第4の条件を満たす場合、前記ショートカット操作に従って、前記仮想オブジェクトが前記仮想環境で前記仮想アイテムを投げるように制御するステップ、を含む、請求項1に記載の方法。
  6. 前記第2の条件は、仮想アイテムが自動的に有効化する状態にあることを含み、前記ショートカット操作は、ダブルタップ操作を含み、
    前記仮想アイテムの使用状態が第2の条件を満たす場合、前記ショートカット操作に従って、前記仮想オブジェクトが前記仮想環境で仮想アイテムに対応するアクセサリをオンにするように制御するステップは、
    前記対象領域における前記ダブルタップ操作を受け付けるステップと、
    第1の仮想アイテムが前記自動的に有効化する状態にある場合、前記ダブルタップ操作に従って、前記仮想オブジェクトが前記仮想環境で前記第1の仮想アイテムに対応するスコープをオンにするように制御するステップと、を含む、請求項5に記載の方法。
  7. 前記対象領域における前記ダブルタップ操作を受け付けるステップは、
    前記対象領域における1回目のタップ操作の時間及び2回目のタップ操作の時間を取得するステップと、
    前記1回目のタップ操作の時間と前記2回目のタップ操作の時間との間の時間間隔が時間間隔閾値よりも小さい場合、前記対象領域において前記ダブルタップ操作を受け付けたと決定するステップと、を含む、請求項6に記載の方法。
  8. 前記第3の条件は、仮想アイテムが手動で有効化する状態にあることを含み、前記ショートカット操作は、ダブルタップ長押し操作を含み、
    前記仮想アイテムの使用状態が第3の条件を満たす場合、前記ショートカット操作に従って、前記仮想オブジェクトが前記仮想環境で前記仮想アイテムをオンにするように制御するステップは、
    前記対象領域における前記ダブルタップ長押し操作を受け付けるステップと、
    第2の仮想アイテムが手動で有効化する状態にある場合、前記ダブルタップ長押し操作に従って、前記仮想オブジェクトが前記仮想環境で前記第2の仮想アイテムをオンにするように制御するステップと、を含む、請求項5に記載の方法。
  9. 前記対象領域における前記ダブルタップ長押し操作を受け付けるステップは、
    前記対象領域におけるダブルタップ操作を受け付けた後、前記対象領域における押し操作を受け付けるステップと、
    前記押し操作の期間が持続期間閾値よりも大きい場合、前記対象領域において前記ダブルタップ長押し操作を受け付けたと決定するステップと、を含む、請求項8に記載の方法。
  10. 前記仮想アイテムが手動で有効化する状態にある場合、前記ダブルタップ長押し操作に従って、前記仮想オブジェクトが前記仮想環境で前記仮想アイテムをオンにするように制御した後に、
    前記対象領域におけるダブルタップ長押し操作が停止した場合、前記仮想オブジェクトが前記仮想アイテムをオフにするように制御するステップ、をさらに含む、請求項8又は9に記載の方法。
  11. 前記第4の条件は、仮想オブジェクトが前記仮想アイテムを所持していることを含み、前記ショートカット操作は、2本指の横方向のスワイプ操作を含み、
    前記仮想アイテムの使用状態が第4の条件を満たす場合、前記ショートカット操作に従って、前記仮想オブジェクトが前記仮想環境で前記仮想アイテムを投げるように制御するステップは、
    前記対象領域における前記2本指の横方向のスワイプ操作を受け付けるステップと、
    前記仮想オブジェクトが第3の仮想アイテムを所持している場合、前記2本指の横方向のスワイプ操作に従って、前記仮想オブジェクトが前記仮想環境で前記第3の仮想アイテムを投げるように制御するステップと、を含む、請求項5に記載の方法。
  12. 前記対象領域は、第1の対象領域及び第2の対象領域を含み、
    前記対象領域における前記2本指の横方向のスワイプ操作を受け付けるステップは、
    第1の接触点の前記第1の対象領域における第1の開始位置座標及び第2の接触点の前記第2の対象領域における第2の開始位置座標を取得するステップと、
    前記第1の接触点及び前記第2の接触点のスライドを停止する場合、前記第1の接触点の前記第1の対象領域における第1の終了位置座標及び前記第2の接触点の前記第2の対象領域における第2の終了位置座標を取得するステップと、
    前記第1の接触点の横座標変位が横座標変位閾値よりも大きく、且つ前記第2接触点の横座標変位が前記横座標変位閾値よりも大きい場合、前記対象領域において前記2本指の横方向のスワイプ操作を受け付けたと決定するステップと、を含む、請求項11に記載の方法。
  13. 仮想オブジェクトの制御装置であって、
    仮想環境画面及びインタラクティブパネル領域を含むユーザインターフェースを表示する表示モジュールであって、前記仮想環境画面は、仮想オブジェクトの視点で仮想環境を観察する画面である、表示モジュールと、
    前記ユーザインターフェースの対象領域におけるショートカット操作を受け付ける受け付けモジュールであって、前記対象領域は、前記仮想環境画面に属し、且つ前記インタラクティブパネル領域に属さない領域を含む、受け付けモジュールと、
    前記ショートカット操作に従って、前記仮想オブジェクトが前記仮想環境で対応する動作を行うように制御する制御モジュールと、を含む、装置。
  14. プロセッサと、メモリと、を含むコンピュータ機器であって、
    前記メモリには、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、
    前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は前記命令セットは、請求項1乃至12の何れかに記載の仮想オブジェクトの制御方法を実現するように、前記プロセッサによりロードされて実行される、コンピュータ機器。
  15. コンピュータにより実行される際に、請求項1乃至12の何れかに記載の仮想オブジェクトの制御方法を前記コンピュータに実行させる、プログラム。
JP2021555308A 2019-08-23 2020-07-20 仮想オブジェクトの制御方法、装置、コンピュータ機器及びプログラム Pending JP2022525172A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910784863.5 2019-08-23
CN201910784863.5A CN110507993B (zh) 2019-08-23 2019-08-23 控制虚拟对象的方法、装置、设备及介质
PCT/CN2020/103006 WO2021036577A1 (zh) 2019-08-23 2020-07-20 控制虚拟对象的方法和相关装置

Publications (1)

Publication Number Publication Date
JP2022525172A true JP2022525172A (ja) 2022-05-11

Family

ID=68626588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021555308A Pending JP2022525172A (ja) 2019-08-23 2020-07-20 仮想オブジェクトの制御方法、装置、コンピュータ機器及びプログラム

Country Status (6)

Country Link
US (1) US20210387087A1 (ja)
JP (1) JP2022525172A (ja)
KR (1) KR102619439B1 (ja)
CN (1) CN110507993B (ja)
SG (1) SG11202109543UA (ja)
WO (1) WO2021036577A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110507993B (zh) * 2019-08-23 2020-12-11 腾讯科技(深圳)有限公司 控制虚拟对象的方法、装置、设备及介质
CN111135568B (zh) * 2019-12-17 2022-01-04 腾讯科技(深圳)有限公司 虚拟道具的控制方法和装置、存储介质及电子装置
CN111298440A (zh) * 2020-01-20 2020-06-19 腾讯科技(深圳)有限公司 虚拟环境中的虚拟角色控制方法、装置、设备及介质
CN111298435B (zh) * 2020-02-12 2024-04-12 网易(杭州)网络有限公司 Vr游戏的视野控制方法、vr显示终端、设备及介质
CN111389000A (zh) * 2020-03-17 2020-07-10 腾讯科技(深圳)有限公司 虚拟道具的使用方法、装置、设备及介质
CN111589142B (zh) * 2020-05-15 2023-03-21 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及介质
CN112587924B (zh) * 2021-01-08 2024-07-23 网易(杭州)网络有限公司 游戏ai的躲避方法、装置、存储介质及计算机设备
CN112807679A (zh) * 2021-02-01 2021-05-18 网易(杭州)网络有限公司 游戏道具的使用方法、装置、设备及存储介质
CN112807680A (zh) * 2021-02-09 2021-05-18 腾讯科技(深圳)有限公司 虚拟场景中虚拟对象的控制方法、装置、设备及存储介质
US20220317782A1 (en) * 2021-04-01 2022-10-06 Universal City Studios Llc Interactive environment with portable devices
CN113559507B (zh) * 2021-04-28 2024-02-13 网易(杭州)网络有限公司 信息处理方法、装置、存储介质及电子设备
CN113655927B (zh) * 2021-08-24 2024-04-26 亮风台(上海)信息科技有限公司 一种界面交互方法与设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106502563A (zh) * 2016-10-19 2017-03-15 北京蜜柚时尚科技有限公司 一种游戏控制方法及装置
JP6308643B1 (ja) * 2017-03-24 2018-04-11 望月 玲於奈 姿勢算出プログラム、姿勢情報を用いたプログラム
CN108363531A (zh) * 2018-01-17 2018-08-03 网易(杭州)网络有限公司 一种游戏中的交互方法及装置
JP2018187289A (ja) * 2017-05-11 2018-11-29 株式会社アルヴィオン プログラム及び情報処理装置
JP2019037783A (ja) * 2017-08-28 2019-03-14 ネットイース(ハンチョウ)ネットワーク カンパニーリミテッド シューティングゲーム制御方法及び装置、記憶媒体、プロセッサ、端末

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6057845A (en) * 1997-11-14 2000-05-02 Sensiva, Inc. System, method, and apparatus for generation and recognizing universal commands
US8118653B2 (en) * 2008-06-16 2012-02-21 Microsoft Corporation Taking cover in a simulated environment
TW201334843A (zh) * 2012-02-20 2013-09-01 Fu Li Ye Internat Corp 具有觸控面板媒體的遊戲控制方法及該遊戲媒體
JP5909023B2 (ja) * 2013-04-05 2016-04-26 グリー株式会社 オンラインシューティングゲームの提供装置及びその方法
US11465040B2 (en) * 2013-12-11 2022-10-11 Activision Publishing, Inc. System and method for playing video games on touchscreen-based devices
JP2016093361A (ja) * 2014-11-14 2016-05-26 株式会社コロプラ ゲームプログラム
CN104436657B (zh) * 2014-12-22 2018-11-13 青岛烈焰畅游网络技术有限公司 游戏控制方法、装置以及电子设备
CN105582670B (zh) * 2015-12-17 2019-04-30 网易(杭州)网络有限公司 瞄准射击控制方法及装置
CN107754308A (zh) * 2017-09-28 2018-03-06 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN108579086B (zh) * 2018-03-27 2019-11-08 腾讯科技(深圳)有限公司 对象的处理方法、装置、存储介质和电子装置
CN108744509A (zh) * 2018-05-30 2018-11-06 努比亚技术有限公司 一种游戏操作控制方法、移动终端及计算机可读存储介质
CN108888952A (zh) * 2018-06-19 2018-11-27 腾讯科技(深圳)有限公司 虚拟道具显示方法、装置、电子设备及存储介质
CN108926840A (zh) * 2018-06-27 2018-12-04 努比亚技术有限公司 游戏控制方法、移动终端及计算机可读存储介质
CN108970112A (zh) * 2018-07-05 2018-12-11 腾讯科技(深圳)有限公司 姿势的调整方法和装置、存储介质、电子装置
CN109126129B (zh) * 2018-08-31 2022-03-08 腾讯科技(深圳)有限公司 在虚拟环境中对虚拟物品进行拾取的方法、装置及终端
CN110075522B (zh) * 2019-06-04 2024-02-23 网易(杭州)网络有限公司 射击游戏中虚拟武器的控制方法、装置及终端
CN110507993B (zh) * 2019-08-23 2020-12-11 腾讯科技(深圳)有限公司 控制虚拟对象的方法、装置、设备及介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106502563A (zh) * 2016-10-19 2017-03-15 北京蜜柚时尚科技有限公司 一种游戏控制方法及装置
JP6308643B1 (ja) * 2017-03-24 2018-04-11 望月 玲於奈 姿勢算出プログラム、姿勢情報を用いたプログラム
JP2018187289A (ja) * 2017-05-11 2018-11-29 株式会社アルヴィオン プログラム及び情報処理装置
JP2019037783A (ja) * 2017-08-28 2019-03-14 ネットイース(ハンチョウ)ネットワーク カンパニーリミテッド シューティングゲーム制御方法及び装置、記憶媒体、プロセッサ、端末
CN108363531A (zh) * 2018-01-17 2018-08-03 网易(杭州)网络有限公司 一种游戏中的交互方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"[バンドリ!ガルパ]回レ!雪月花 EXPERT 親指 フルコンボ", YOUTUBE[ONLINE][VIDEO], JPN6023041946, 2 January 2019 (2019-01-02), ISSN: 0005170395 *
"ARKモバイルの操作方法", 神ゲー攻略 [ONLINE], JPN6022048204, 8 March 2019 (2019-03-08), ISSN: 0005170394 *

Also Published As

Publication number Publication date
WO2021036577A1 (zh) 2021-03-04
US20210387087A1 (en) 2021-12-16
CN110507993B (zh) 2020-12-11
CN110507993A (zh) 2019-11-29
SG11202109543UA (en) 2021-09-29
KR20210125568A (ko) 2021-10-18
KR102619439B1 (ko) 2023-12-28

Similar Documents

Publication Publication Date Title
CN110413171B (zh) 控制虚拟对象进行快捷操作的方法、装置、设备及介质
CN110694261B (zh) 控制虚拟对象进行攻击的方法、终端及存储介质
JP2022525172A (ja) 仮想オブジェクトの制御方法、装置、コンピュータ機器及びプログラム
CN108434736B (zh) 虚拟环境对战中的装备显示方法、装置、设备及存储介质
JP7419382B2 (ja) 仮想アイテムをマークするように仮想対象を制御する方法及びその装置並びにコンピュータプログラム
CN108815851B (zh) 在虚拟环境中射击时的界面显示方法、设备及存储介质
CN111399639B (zh) 虚拟环境中运动状态的控制方法、装置、设备及可读介质
CN113398571B (zh) 虚拟道具的切换方法、装置、终端及存储介质
CN110585695B (zh) 在虚拟环境中使用近战道具的方法、装置、设备及介质
CN112870715B (zh) 虚拟道具的投放方法、装置、终端及存储介质
WO2021031765A1 (zh) 虚拟环境中瞄准镜的应用方法和相关装置
WO2021143253A1 (zh) 虚拟环境中虚拟道具的操作方法、装置、设备及可读介质
CN111001159A (zh) 虚拟场景中的虚拟道具控制方法、装置、设备及存储介质
CN113713383A (zh) 投掷道具控制方法、装置、计算机设备及存储介质
CN111921190A (zh) 虚拟对象的道具装备方法、装置、终端及存储介质
CN111589134A (zh) 虚拟环境画面的显示方法、装置、设备及存储介质
CN112044066B (zh) 界面显示方法、装置、设备及可读存储介质
CN112138392A (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN112402969A (zh) 虚拟场景中虚拟对象控制方法、装置、设备及存储介质
CN113730916A (zh) 基于虚拟环境中的资源加载方法、装置、设备及介质
CN112169321A (zh) 模式确定方法、装置、设备及可读存储介质
CN118253087A (zh) 虚拟道具的显示方法、装置、设备、介质及程序产品
CN113117333A (zh) 虚拟飞行载具的控制方法、装置、终端及存储介质
CN118059496A (zh) 虚拟对象的控制方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230907

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230915

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20231013