JP2022539289A - 仮想オブジェクト照準方法、装置及びプログラム - Google Patents

仮想オブジェクト照準方法、装置及びプログラム Download PDF

Info

Publication number
JP2022539289A
JP2022539289A JP2021566345A JP2021566345A JP2022539289A JP 2022539289 A JP2022539289 A JP 2022539289A JP 2021566345 A JP2021566345 A JP 2021566345A JP 2021566345 A JP2021566345 A JP 2021566345A JP 2022539289 A JP2022539289 A JP 2022539289A
Authority
JP
Japan
Prior art keywords
virtual object
aiming
virtual
target
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021566345A
Other languages
English (en)
Inventor
▲ユ▼林 万
建苗 翁
▲勳▼ 胡
山▲東▼ 粟
勇 ▲張▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022539289A publication Critical patent/JP2022539289A/ja
Priority to JP2024060261A priority Critical patent/JP2024074915A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本願は、仮想オブジェクト照準方法、装置、機器及び媒体を開示し、仮想環境の分野に関する。該方法は、ユーザインタフェースを表示するステップであって、ユーザインタフェースは仮想環境の画面を含み、仮想環境の画面は仮想環境内に位置する第1の仮想オブジェクト及び第2の仮想オブジェクトを含むものである、ステップと、照準命令に応答して、仮想環境に点式照準インジケータを表示するステップであって、点式照準インジケータは照準動作により仮想環境の地平面で選択された照準点を指示するものである、ステップと、第1の仮想オブジェクトが目標仮想オブジェクトに照準するように制御するステップであって、目標仮想オブジェクトが、目標選択範囲内に位置する第2の仮想オブジェクトから選択された1つの仮想オブジェクトであり、目標選択範囲が、前記照準点を基準として決定された選択範囲である、ステップと、を含む。

Description

関連出願の相互参照
本願は、2020年6月5日に中国国家知識産権局に提出した、出願番号が第202010508239.5号で、名称が「仮想オブジェクト照準方法、装置、機器及び媒体」である中国特許出願の優先権を主張するものであり、その全ての内容は参照により本願に組み込まれるものとする。
本願の実施例は仮想環境の分野に関し、特に、仮想オブジェクト照準方法、装置、機器及び記憶媒体に関する。
対戦ゲームは、複数の仮想オブジェクトが同一の仮想世界内で競技を行うゲームである。対戦ゲームは、マルチプレイヤーオンラインバトルアリーナ(Multiplayer Online Battle Arena Games、MOBA)である。
典型的なMOBAにおいて、ユーザによって制御される第1の仮想オブジェクトは指向性スキルを持っている。該指向性スキルを使用する場合、端末に扇形のスキルインジケータが表示され、該扇形のスキルインジケータは第1の仮想オブジェクトの足元に位置する扇形領域を含み、該扇形領域の対称軸が照準線となる。ユーザは、該扇形のスキルインジケータを第1の仮想オブジェクトの周りに回転するようにドラッグすることができ、該扇形領域に位置するとともに、照準線に最も近い候補仮想オブジェクトを、照準の目標仮想オブジェクトとして決定し、さらに、ユーザは第1の仮想オブジェクトが目標仮想オブジェクトに対してスキルを発動するように制御する。
本願の一態様に係る仮想オブジェクト照準方法は、
ユーザインタフェースを表示するステップであって、仮想環境の画面を含む前記仮想環境の画面は、第1の仮想オブジェクトを中心として仮想環境を見た画面であり、前記仮想環境内に位置する第1の仮想オブジェクト及び第2の仮想オブジェクトを含むものである、ステップと、
照準命令に応答して、前記仮想環境に点式照準インジケータを表示するステップであって、前記点式照準インジケータは前記照準動作により前記仮想環境の地平面で選択された照準点を指示するものである、ステップと、
前記第1の仮想オブジェクトが目標仮想オブジェクトに照準するように制御するステップであって、前記目標仮想オブジェクトは、目標選択範囲内に位置する第2の仮想オブジェクトから選択された1つの仮想オブジェクトであり、前記目標選択範囲は、前記照準点を基準として決定された選択範囲である、ステップと、を含む。
本願の別の態様に係る仮想オブジェクト照準装置は、
表示モジュールと、照準モジュールとを含み、
前記表示モジュールは、ユーザインタフェースを表示し、前記ユーザインタフェースは仮想環境の画面を含み、前記仮想環境の画面は、第1の仮想オブジェクトを中心として仮想環境を見た画面であって、前記仮想環境内に位置する第1の仮想オブジェクト及び第2の仮想オブジェクトを含み、
前記表示モジュールはさらに、照準命令に応答して、前記仮想環境に点式照準インジケータを表示し、前記点式照準インジケータは前記照準動作により前記仮想環境の地平面で選択された照準点を指示するものであり、
前記照準モジュールは、前記第1の仮想オブジェクトが目標仮想オブジェクトに照準するように制御し、前記目標仮想オブジェクトは、目標選択範囲内に位置する第2の仮想オブジェクトから選択された1つの仮想オブジェクトであり、前記目標選択範囲は、前記照準点を基準として決定された選択範囲である。
本願の別の態様に係るコンピュータ装置は、プロセッサと、前記プロセッサによりロードされ実行されると、上記仮想オブジェクト照準方法を実現する少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットを記憶しているメモリと、を含む。
本願の別の態様に係るコンピュータ読み取り可能な記憶媒体は、プロセッサによりロードされ実行されると、上記仮想オブジェクト照準方法を実現する少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットを記憶している。
本願の別の態様に係るコンピュータプログラム製品は、コンピュータ装置で実行されると、コンピュータ装置に上記態様において記載した仮想オブジェクト照準方法を実行させる。
本発明の実施例における技術的解決手段をより明確に説明するために、以下に実施例の説明に必要な図面を簡単に説明するが、当然ながら、以下の説明における図面は本発明のいくつかの実施例に過ぎず、当業者にとって、創造的労働を行うことなくこれらの図面に基づいて他の図面を取得することができる。
本願の例示的な実施例に係るコンピュータシステムの構成ブロック図である。 本願の例示的な実施例に係る状態同期技術の概略図である。 本願の例示的な実施例に係るフレーム同期技術の概略図である。 本願の例示的な実施例に係るホイール照準コントロールの概略図である。 本願の別の例示的な実施例に係るホイール照準コントロールの2つのトリガ方式の概略図である。 本願の別の例示的な実施例に係る仮想オブジェクト照準方法のインタフェースの概略図である。 本願の例示的な実施例に係る仮想オブジェクト照準方法のフローチャートである。 本願の別の例示的な実施例に係る仮想オブジェクト照準方法のフローチャートである。 本願の別の例示的な実施例に係る仮想オブジェクト照準方法のマッピング概略図である。 本願の例示的な実施例に係る目標選択範囲の概略図である。 本願の別の例示的な実施例に係る目標選択範囲の概略図である。 本願の別の例示的な実施例に係る仮想オブジェクトの予備照準の概略図である。 本願の別の例示的な実施例に係る仮想オブジェクト照準方法のフローチャートである。 本願の別の例示的な実施例に係る距離の優先順位で照準する概略図である。 本願の別の例示的な実施例に係るHPパーセントの優先順位で照準する概略図である。 本願の別の例示的な実施例に係る目標選択範囲の範囲概略図である。 本願の別の例示的な実施例に係る仮想オブジェクト照準方法のフローチャートである。 本願の別の例示的な実施例に係るプログラムクラスの構造概略図である。 本願の別の例示的な実施例に係るプログラムクラスの構造概略図である。 本願の別の例示的な実施例に係る仮想オブジェクトに照準するシーンの概略図である。 本願の別の例示的な実施例に係る仮想オブジェクトに照準するシーンの概略図である。 本願の別の例示的な実施例に係る仮想オブジェクト照準装置のブロック図である。 本願の別の例示的な実施例に係る端末のブロック図である。
以下、本願の目的、技術手段及び利点をより明確にするために、図面を参照しながら本願の実施形態をさらに詳細に説明する。
まず、本願の実施例において言及される名詞を簡単に説明する。
仮想環境:アプリケーションプログラムが端末で実行される時に表示(又は提供)する仮想環境である。該仮想環境は、実世界を模擬したシミュレーション世界であってもよく、シミュレーションと架空を組み合わせた3次元世界であってもよく、単純に架空である3次元世界であってもよい。仮想環境は、2次元仮想環境、2.5次元仮想環境及び3次元仮想環境のいずれであり得る。該仮想環境はさらに少なくとも2つの仮想オブジェクトの間の仮想環境での対戦に用いられ、該仮想環境は、少なくとも2つの仮想オブジェクトが使用可能な仮想リソースを備える。該仮想環境は、対称している左下隅領域と右上隅領域を含み、互いに敵対する陣営に属する2つの仮想オブジェクトは、それぞれ、そのうちの1つの領域を占めており、相手領域の奥にある目標建物/拠点/基地/ネクサスを破壊することを、勝つための目標とする。
仮想オブジェクト:仮想環境で行動可能なオブジェクトを指す。該行動可能なオブジェクトは仮想人物、仮想動物、アニメ人物のうちの少なくとも1つであり得る。仮想環境が3次元仮想環境である場合、仮想オブジェクトは3次元仮想モデルであってもよく、各仮想オブジェクトは3次元仮想環境において自分の形状及び体積を有し、3次元仮想環境における一部の空間を占める。仮想オブジェクトは、3次元の人間の骨格の技術に基づいて構築された3次元のキャラクターであり、様々なスキンを着ることで、様々なイメージを実現する。いくつかの実施形態において、仮想オブジェクトは2.5次元又は2次元モデルで実現してもよく、本願の実施例はこれについて限定しない。例示的に、仮想オブジェクトは、ユーザがクライアントにより制御するものであるか、又は、サーバにより制御されるものである。
マルチプレイヤーオンラインバトルアリーナ:仮想環境において、それぞれ敵対する少なくとも2つの陣営に属する異なる仮想チームがそれぞれ各自の地図領域を占め、勝利のためのある条件を目標として競技を行うことを指す。該勝利のための条件は、拠点を占有するか又は敵陣営の拠点を破壊したこと、敵陣営の仮想オブジェクトをキルしたこと、指定されたシーン及び期間内で生き延びたこと、あるソースを奪い取ったこと、及び指定された期間内に相手より高い点数をとったこと、のうちの少なくとも1つ以下を含むがこれらに限定されない。戦術競技はゲーム単位で行うことができ、ゲームごとの戦術競技の地図は同じであってもよく、異なってもよい。各仮想チームは1つ又は複数の仮想オブジェクトを含み、例えば、1つ、2つ、3つ又は5つを含む。
MOBAゲーム:複数の拠点を提供した仮想環境において、異なる陣営に属するユーザが仮想オブジェクトを制御して、仮想環境において対戦し拠点を占領するか又は敵陣営の拠点を破壊するゲームである。例えば、MOBAゲームは、ユーザを敵対する2つの陣営に分けて、ユーザによって制御される仮想オブジェクトを仮想環境に分散させて、互いバトルして敵方の拠点をすべて破壊するか又は占領することを勝利の条件とする。MOBAゲームは、ゲームを単位とし、MOBAゲームの一ゲームの持続時間は、ゲームを始めた時刻から勝利の条件を達成した時刻までである。
ユーザインタフェースUI(User Interface)コントロールは、アプリケーションプログラムのユーザインタフェースに見える任意の可視コントロール又はエレメント、例えば、画像、入力ボックス、テキストボックス、ボタン、タグ等のコントロールである。そのうちのいくつかのUIコントロールはユーザの動作に応答し、例えば、スキルコントロールは、仮想オブジェクトがスキルを発動するように制御する。ユーザはスキルコントロールをトリガすることで、仮想オブジェクトがスキルを発動するように制御する。本願の実施例に係るUIコントロールは、スキルコントロール、移動コントロールを含むが、これらに限定されない。
典型的なMOBAゲームにおいて、照準線に最も近い候補仮想オブジェクトを照準の目標仮想オブジェクトとして決定する。しかし、MOBAゲームでは、能動的に照準する動作はコストが高く、攻撃しようとする目標と他の目標が照準線にそった同一の直線にある場合、攻撃しようとする目標を正確に選択しにくく、動作時間が長く、ミスになる確率が高い。射程外の目標を選択できず、目標を予め照準することができず、動作体験が悪い。
本願の実施例は、ユーザが能動的に照準する時の正確性を向上させることができる仮想オブジェクト照準方法、装置、機器及び媒体を提供する。
図1は、本願の例示的な実施例に係る仮想オブジェクト照準方法が適用されるコンピュータシステムの構造ブロック図を示す。該コンピュータシステム100は、第1の端末110、サーバ120、及び第2の端末130を含む。
第1の端末110に、仮想環境をサポートするクライアント111がインストールされ実行されており、該クライアント111は、マルチプレイヤーオンライン対戦プログラムであってもよい。第1の端末がクライアント111を実行する場合、第1の端末110のスクリーンにクライアント111のユーザインタフェースを表示する。該クライアントは、軍事シミュレーションプログラム、バトルロイヤルシューティングゲーム、仮想現実(Virtual Reality、VR)アプリケーションプログラム、拡張現実(Augmented Reality、AR)プログラム、3次元地図プログラム、仮想現実ゲーム、拡張現実ゲーム、ファーストパーソン・シューティングゲーム(First-person shooting game、FPS)、サードパーソン・シューティングゲーム(Third-Personal Shooting Game、TPS)、マルチプレイヤーオンラインバトルアリーナ(Multiplayer Online Battle Arena Games、MOBA)、戦略ゲーム(Simulation Game、SLG)のうちのいずれの1つであってもよい。本実施例において、該クライアントがMOBAゲームである場合を例として説明する。第1の端末110は第1のユーザ112に使用される端末であり、第1のユーザ112は第1の端末110を使用して、仮想環境内に位置している第1の仮想オブジェクトを行動するように制御し、第1の仮想オブジェクトは、第1のユーザ112の第1の仮想オブジェクトと称してもよい。第1の仮想オブジェクトの行動は、体の姿勢の調整、這い、歩き、走り、サイクリング、飛行、ジャンプ、運転、ピックアップ、射撃、攻撃、投げのうちの少なくとも1つを含むが、これらに限定されない。例示的には、第1の仮想オブジェクトは、第1の仮想人物であり、例えば、シミュレーション人物キャラクター又はアニメ人物キャラクターなどである。
第2の端末130に、仮想環境をサポートするクライアント131がインストールされ実行されており、該クライアント131は、マルチプレイヤーオンライン対戦プログラムであってもよい。第2の端末130がクライアント131を実行する場合、第2の端末130のスクリーンにクライアント131のユーザインタフェースを表示する。該クライアントは、軍事シミュレーションプログラム、バトルロイヤルシューティングゲーム、VRアプリケーションプログラム、ARプログラム、3次元地図プログラム、仮想現実ゲーム、拡張現実ゲーム、FPS、TPS、MOBA、SLGのうちのいずれの1つであってもよい。本実施例において、該クライアントがMOBAゲームである場合を例として説明する。第2の端末130は第2のユーザ113の使用する端末であり、第2のユーザ113は第2の端末130を使用して、仮想環境内に位置している第2の仮想オブジェクトを行動するように制御し、第2の仮想オブジェクトは、第2のユーザ113の第1の仮想オブジェクトと称してもよい。例示的には、第2の仮想オブジェクトは、第2の仮想人物であり、例えば、シミュレーション人物キャラクター又はアニメ人物キャラクターなどである。
第1の仮想人物と第2の仮想人物は同一の仮想環境に位置している。第1の仮想人物と第2の仮想人物は、同じ陣営、同じチーム、同じ組織に属し、友人関係を持っているか、一時的なコミュニケーション権限を持っていてもよい。第1の仮想人物と第2の仮想人物は、異なる陣営、異なるチーム、異なる組織に属するか、敵対関係を持っていてもよい。
第1の端末110と第2の端末130にインストールされたクライアントは同じであるか、又は2つの端末にインストールされたクライアントは、異なるオペレーティングシステムプラットフォーム(Android(登録商標)又はiOS(登録商標))上の同じ種類のクライアントである。第1の端末110は複数の端末のうちの1つを一般的に指してもよく、第2の端末130は複数の端末のうちの他の1つを一般的に指してもよい。本実施例は第1の端末110と第2の端末130のみを例として説明する。第1の端末110と第2の端末130のデバイス種類は、同じか又は異なる。該デバイス種類は、スマートフォン、タブレットコンピュータ、電子書籍リーダー、MP3プレイヤー、MP4プレイヤー、ラップトップポータブルコンピュータ及びデスクトップコンピュータの少なくとも1つを含む。
図1は2つの端末のみを示しているが、異なる実施例において複数の他の端末140が存在してサーバ120に接続することができる。また、開発者に対応する端末である1つ又は複数の端末140が存在する。端末140に、仮想環境をサポートするクライアントの開発及び編集プラットフォームがインストールされ、開発者は端末140でクライアントを編集し更新し、更新後のクライアントインストールパッケージを有線又は無線ネットワークを介してサーバ120に伝送することができる。第1の端末110及び第2の端末130は、サーバ120からクライアントインストールパッケージをダウンロードしてクライアントの更新を実現することができる。
第1の端末110、第2の端末130及び他の端末140は、無線ネットワーク又は有線ネットワークを介してサーバ120に接続される。
サーバ120は、1つのサーバ、複数のサーバ、クラウドコンピューティングプラットフォーム、及びバーチャル化センターのうちの少なくとも1つを含む。サーバ120は、3次元仮想環境をサポートするクライアントにバックグラウンドサービスを提供する。サーバ120が主なコンピューティング作業を担い、端末が副次的なコンピューティング作業を担うか、或いは、サーバ120が副次的なコンピューティング作業を担い、端末が主なコンピューティング作業を担うか、或いは、サーバ120と端末が、分散コンピューティングアーキテクチャを用いて協同してコンピューティングを行う。
1つの例示的な例において、サーバ120は、プロセッサ122、ユーザアカウントデータベース123、対戦サービスモジュール124、ユーザ向けの入力/出力インタフェース(Input/Output Interface、I/Oインタフェース)125を含む。そのうち、プロセッサ122は、サーバ121に記憶された命令をロードし、ユーザアカウントデータベース123及び対戦サービスモジュール124内のデータを処理し、ユーザアカウントデータベース123は、第1の端末110、第2の端末130及び他の端末140が使用するユーザアカウントのデータ、例えば、ユーザアカウントのアバター、ユーザアカウントのニックネーム、ユーザアカウントの戦闘力格付け、ユーザアカウントの所在するサーバを記憶し、対戦サービスモジュール124は、ユーザが対戦するための複数の対戦ルームを提供し、例えば1vs1対戦、3vs3対戦、5vs5対戦などである。ユーザ向けのI/Oインタフェース125は、無線ネットワーク又は有線ネットワークを介して第1の端末110及び/又は第2の端末130と通信しデータを交換する。
サーバ120は同期技術を用いて複数のクライアント画面表示を一致させることができる。例示的に、サーバ120の用いた同期技術は、状態同期技術又はフレーム同期技術を含む。
状態同期技術
図1に基づく実施例において、サーバ120は状態同期技術を用いて複数のクライアントと同期を行う。状態同期技術において、図2に示すように、戦闘ロジックはサーバ120において実行される。仮想環境内のある仮想オブジェクトの状態が変化した場合、サーバ120は全てのクライアント、例えばクライアント1~クライアント10に、状態同期結果を送信する。
1つの例示的な例において、クライアント1は、仮想オブジェクト1に対して凍結スキルを発動するように要求する要求をサーバ120に送信する。すると、サーバ120は、該凍結スキルの発動を許可するか、該凍結スキルの発動を許可する場合、他の仮想オブジェクト2にどれほどダメージを与えるかを判断する。次に、サーバ120は、スキル発動結果を全てのクライアントに送信し、全てのクライアントはスキル発動結果に基づいてローカルデータ及びインタフェース表示を更新する。
フレーム同期技術
図1に基づく実施例において、サーバ120はフレーム同期技術を用いて複数のクライアントと同期を行う。フレーム同期技術において、図3に示すように、戦闘ロジックは各クライアントにおいて実行される。各クライアントは、クライアントのローカルのデータ変化を含むフレーム同期要求をサーバに送信する。サーバ120は、あるフレーム同期要求を受信した後、全てのクライアントに該フレーム同期要求を転送する。各クライアントは、フレーム同期要求を受信した後、ローカルの戦闘ロジックに従って該フレーム同期要求を処理し、ローカルデータ及びインタフェース表示を更新する。
仮想環境及び実施環境についての上記説明を参照しながら、本願の実施例に係る仮想環境の画面表示方法を説明し、図1に示す端末で実行されるクライアントが該方法の実行主体となる例を挙げて説明する。該端末にクライアントが実行されており、該クライアントは仮想環境をサポートするアプリケーションプログラムである。
例示的に、本願に係る仮想オブジェクト照準方法をMOBAゲームに応用することを例とする。
なお、前記照準は複数の仮想オブジェクトから1つ又は複数の目標仮想オブジェクトを選択することを指す。これにより、本願の実施例における照準点は、複数の仮想オブジェクトから1つ又は複数の目標仮想オブジェクトを選択する時の選択点であってもよい。同様に、照準線を選択線と称してもよく、照準命令を選択命令と称してもよく、ここでは一々説明はしない。
MOBAゲームにおいて、図4に示すように、ユーザはホイール照準コントロールを制御することにより第1の仮想オブジェクトが指向性スキル又は指向性攻撃を発動するように制御することができる。ホイール照準コントロールは、ホイール領域40及びレバーボタン42を含む。ホイール領域40の面積は、レバーボタン42の面積よりも大きい。レバーボタン42は、ホイール領域40において位置を変更可能である。ホイール領域40は、内輪領域41と外輪領域43とに分けられている。内輪領域41は、デッドゾーンとも呼ばれる。
図5から分かるように、ユーザの照準動作の作用位置によって、迅速トリガモードと能動照準モードに分けられる。
ユーザが内輪領域41においてレバーボタン42をクリックすると、迅速放出モード(迅速放出又は自動放出とも称する)をトリガする。迅速放出モードとは、クライアントが、攻撃対象を選択するデフォルトのルールにしたがって、第1の仮想オブジェクトを中心とした円形の発動範囲内から目標仮想オブジェクトを自動的に選択することを指す。ユーザの指がレバーボタン42から離れると、クライアントは、第1の仮想オブジェクトが目標仮想オブジェクトに指向性スキル又は指向性攻撃を発動するように制御する。
ユーザがレバーボタン42をクリックしてレバーボタン42を外輪領域43にドラッグすると、能動照準モードをトリガする。図6に示すように、本願の実施例に係る能動照準モードは、レバーボタン42の外輪領域43における位置に基づいて、点式照準インジケータ44と射程インジケータ45をマッピングして表示することを指す。該点式照準インジケータ44は、仮想環境における照準点を照準動作するために用いられ、点式照準インジケータ44の位置はレバーボタン42の位置に対応し、該射程インジケータ45は、指向性スキル又は指向性攻撃の最大射程範囲を示し、外輪領域43の外縁に対応し、一般的に円形の発動範囲である。ユーザはレバーボタン42の外輪領域43での位置を変更することにより、点式照準インジケータ44の円形の発動範囲45内での表示位置を変更することができる。ユーザの指がレバーボタン42から離れると、クライアントは、第1の仮想オブジェクト51が目標仮想オブジェクト52に照準して指向性スキル又は指向性攻撃を発動するように制御する。目標仮想オブジェクト52は、第1の仮想オブジェクト以外の仮想オブジェクトのうち、照準点44に最も近い仮想オブジェクトである。
一例において、第1の仮想オブジェクト51は目標仮想オブジェクト52が位置している位置に飛び、目標仮想オブジェクト52に対してダメージの高い斬りつけスキルを発動する。
図7は、本願の例示的な実施例に係る仮想オブジェクト照準方法のフローチャートを示す。本実施例は、図1に示す端末(又はクライアント)により該方法を実行することを例として説明する。該方法は、以下のステップ702、ステップ704、ステップ706を含む。
ステップ702において、ユーザインタフェースを表示し、ユーザインタフェースは仮想環境の画面を含み、仮想環境の画面は仮想環境内に位置する第1の仮想オブジェクト及び第2の仮想オブジェクトを含む。
仮想環境の画面は、仮想環境を第1の仮想オブジェクトに対応する観察視点から見た画面である。例示的に、仮想環境の画面は3次元仮想環境に対して画面取り込みを行った後、クライアントに表示した2次元画面である。例示的に、仮想環境の画面の形状は、端末のディスプレイの形状により決定されるか、又は、クライアントのユーザインタフェースの形状により決定される。端末のディスプレイが矩形である場合を例として、仮想環境の画面も矩形の画面として表示される。
仮想環境には、第1の仮想オブジェクトにバインドされたカメラモデルが設定されている。仮想環境の画面は、該カメラモデルが仮想環境内のある観察位置を観察中心として撮影した画面である。観察中心は、仮想環境の画面の中心である。仮想環境の画面が矩形の画面である場合を例として、仮想環境の画面における矩形対角線の交点が観察中心である。一般的には、第1の仮想オブジェクトにバインディングされたカメラモデルは第1の仮想オブジェクトを観察中心とし、第1の仮想オブジェクトの仮想環境における位置は観察位置である。観察位置は、仮想環境における座標位置である。仮想環境が3次元仮想環境である場合、観察位置は3次元座標である。例示的に、仮想環境における地面が水平面であれば、観察位置の高さ座標は0であり、観察位置を水平面における2次元座標として近似的に表示することができる。
第1の仮想オブジェクトは、クライアントによって制御される仮想オブジェクトである。クライアントは、受信したユーザ動作(又はマンマシン動作と呼ばれる)に基づいて、第1の仮想オブジェクトの仮想環境における行動を制御する。例示的に、第1の仮想オブジェクトの仮想環境における行動は、歩き、走り、飛び、登り、伏せ、攻撃、スキル発動、アイテムピックアップ、及びメッセージ送信を含む。
スキルは、ある仮想オブジェクトが使用又は発動することで、自身及び/又は他の仮想オブジェクトに攻撃を行い、減益効果又は増益効果を発生させる能力である。射程範囲により分類すれば、スキルは、指向性スキルと無差別スキルを含む。指向性スキルは、最大射程範囲内で、照準した方向や領域、又は仮想オブジェクトに向かって発動するスキルである。無差別スキルは、最大射程範囲内で、全ての領域に向かって発動するスキルである。種類により分類すれば、スキルは、アクティブスキルとパッシブスキルを含む。アクティブスキルは、仮想オブジェクトが能動的に使用又は発動するスキルであり、パッシブスキルは受動的な条件を満たす場合に自動的にトリガされるスキルである。
例示的に、本実施例に言及された指向性スキルは、ユーザが第1の仮想オブジェクトを制御して能動的に使用又は発動するアクティブスキルであり、該スキルは、最大射程範囲内で、照準された目標仮想オブジェクトに向かって発動されるスキルである。
例示的に、本実施例に言及された指向性攻撃は、ユーザが第1の仮想オブジェクトを制御して能動的に使用又は発動する一般的な攻撃であり、該攻撃は、最大射程範囲内で、照準された目標仮想オブジェクトに向かって発動される一般的な攻撃である。
ステップ704において、照準命令に応答して、仮想環境に点式照準インジケータを表示し、点式照準インジケータは照準動作により仮想環境の地平面で選択された照準点を指示するものである。
照準命令は、ユーザの照準動作(又はスキル発動動作又は攻撃動作)によりトリガされる。一例において、照準命令は、ホイール照準コントロールでのドラッグ動作によりトリガされるが、別の例において、照準命令は、物理ハンドルのレバーボタンのドラッグ動作によりトリガされ、本願は照準命令のトリガ方式を限定しない。
本実施例において、照準命令は、ホイール照準コントロールにおいてデッドゾーンから外れたドラッグ動作によりトリガされる命令であることを例とし、この場合、「照準動作」はホイール照準コントロールでのデッドゾーンから外れたドラッグ動作である。図6から分かるように、端末は、ホイール照準コントロールでドラッグ動作を受信した後、レバーボタン42の外輪領域43での位置に基づいて、点式照準インジケータ44をマッピングして表示する。
ステップ706において、第1の仮想オブジェクトが目標仮想オブジェクトに照準するように制御し、目標仮想オブジェクトが目標選択範囲内に位置する第2の仮想オブジェクトから選択された1つの仮想オブジェクトであり、目標選択範囲が前記照準点を基準として決定された選択範囲である。
目標選択範囲は照準点を基準として決定した選択範囲である。目標選択範囲は、仮想環境の地平面に位置し、第1の仮想オブジェクトの位置する第1の地図ポイントを回転中心とし、その対称軸が照準点を通過する。
目標仮想オブジェクトは目標選択範囲内に位置する第2の仮想オブジェクトから選択された1つの仮想オブジェクトである。目標仮想オブジェクトは、目標選択範囲内に位置する第2の仮想オブジェクトから、優先順位の原則にそって選択された1つの仮想オブジェクトである。優先順位の原則は、
照準点に最も近い候補仮想オブジェクトを優先的に選択すること、
HPパーセントの最も少ない候補仮想オブジェクトを優先的に選択すること、
HP絶対値の最も少ない候補仮想オブジェクトを優先的に選択すること、及び
種類優先順位の最も高い候補仮想オブジェクトを優先的に選択すること、のうちの少なくとも1つを含むが、これらに限定されない。
例示的に、本実施例における照準は、一般的な照準とロッキング照準を含む。一般的な照準:照準目標(目標仮想オブジェクト)の位置が変化すると、照準は自動的にキャンセルされる。ロッキング照準:照準目標(目標仮想オブジェクト)の位置が変化しても、照準はキャンセルされない。
例示的に、第1の仮想オブジェクトが一般的な照準により目標仮想オブジェクトに照準した後、目標仮想オブジェクトが移動して位置が変化する場合でも、第1の仮想オブジェクトは目標仮想オブジェクトに照準せず、目標仮想オブジェクトに対してスキルの使用又は一般的な攻撃をしない。ユーザが目標仮想オブジェクトに照準し続けたければ、再度と照準動作を行って目標仮想オブジェクトに照準する必要がある。
例示的に、第1の仮想オブジェクトがロッキング照準により目標仮想オブジェクトに照準した後、第1の仮想オブジェクトは目標仮想オブジェクトを持続的に照準してスキル発動又は一般的な攻撃を行う。1つの実施例において、第1の仮想オブジェクトはロッキング照準により目標仮想オブジェクトに照準した後、目標仮想オブジェクトの位置が変化して第1の仮想オブジェクトの攻撃範囲(照準範囲)から外れる場合、クライアントは、第1の仮想オブジェクトが目標仮想オブジェクトに追従することで、目標仮想オブジェクトに照準して攻撃し続けるように、自動的に制御する。例示的に、ロッキング照準の終了は、照準時間が所定の時間に達すると、ロッキング照準を停止すること、目標仮想オブジェクトが移動して第1の仮想オブジェクトの照準範囲から外れると、照準を停止すること、目標仮想オブジェクト又は第1の仮想オブジェクトが死ぬと、照準を停止すること、ユーザが照準動作を改めて行い、他の仮想オブジェクトに照準する時、目標仮想オブジェクトに対する照準を停止すること、という方式を含む。
上記したように、本実施例に係る方法は、照準点を用いてコンピュータ端末上のマウスのクリック位置をシミュレーションし、照準点を基準として決定した目標選択範囲内に位置している第2の仮想オブジェクトから1つの仮想オブジェクトを選択し、照準の目標仮想オブジェクトとする。目標選択範囲は照準点を基準として決定された選択範囲であり、かつ照準点による指向の正確性が照準線による指向の正確性よりも優れていることで、能動的な照準の目標選択がより安定し、目標の選択が間違いやすくない。そのため、ユーザが能動的に照準する時の正確性を向上させるとともに、能動的な照準における目標選択にかかる時間を減少させ、動作コストを低減させ、マンマシンインタラクションの効率及びユーザの動作体験を向上させる。また、クライアントの設計者に、スキルを設計するための多くの余裕を与えている。
図7に基づく実施例において、上記照準命令はホイール照準コントロールによりトリガされる。クライアントに表示されるユーザインタフェースはホイール照準コントロールを含み、該ホイール照準コントロールは、仮想環境の画面に重畳して表示される。図4に示すように、ホイール照準コントロール40は、ホイール領域40及びレバーボタン42を含む。上記ステップ704は、図8に示すように、以下のステップ704a~ステップ704dを含む。
ステップ704aにおいて、照準命令に応答して、活性化点からオフセット点へのオフセットベクトルを計算する。
ドラッグ動作は、端末のタッチスクリーンがCPUに一連のタッチ命令を報告するようにトリガし、タッチ命令は、1つのタッチ開始命令、少なくとも1つのタッチ移動命令及び1つのタッチ終了命令を含むが、これらに限定されない。各タッチ命令に、いずれもユーザの指のタッチスクリーンでのリアルタイムなタッチ座標が含まれている。ドラッグ動作によりトリガされた一連のタッチ命令は、いずれも照準命令と見なしてもよい。或いは、ドラッグ動作によりデッドゾーン以外の領域でトリガされたタッチ指令は、いずれも照準命令と見なしてもよい。
図9を参照し、活性化点91はホイール領域の中心位置を指す。いくつかの実施例において、ホイール領域の中心位置は一定であり、他の実施例において、ホイール領域の中心位置は動的に変更し、ユーザの右手の親指が落下した時に、タッチスクリーンにより検出された指の落下位置はホイール領域の中心位置として設定される。
ユーザの右手の親指がレバーボタンをホイール領域においてドラッグすると、レバーの位置は活性化点91からオフセット点92にオフセットする。クライアントに活性化点の第1の座標が記録され、照準命令からオフセット点の第2の座標を読み取り、第2の座標と第1の座標に基づいてオフセットベクトルを計算する。
ここで、オフセットベクトルは、活性化点91からオフセット点92へのベクトルであり、第1の座標と第2の座標は、いずれもタッチスクリーンが位置する平面の座標であり、オフセットベクトルは、タッチスクリーンが位置する平面のベクトルである。
ステップ704bにおいて、オフセットベクトルに基づいて照準ベクトルを計算する。
照準ベクトルは、第1の仮想オブジェクトが存在する第1の地図ポイント93から照準点94に指しているベクトルである。
オフセットベクトルの長さL1とホイールの半径R1との比は、照準ベクトルの長さL2と照準半径R2との比に等しい。ホイールの半径R1は、ホイール領域の半径であり、照準半径R2は、第1の仮想オブジェクトが能動的に照準する時の最大照準距離である。いくつかの実施例において、照準半径R2は指向性スキル(又は指向性攻撃)の最大射程距離xに等しい。別の実施例において、照準半径R2は指向性スキル(又は指向性攻撃)の最大射程距離xと予備照準距離yとの和に等しい。本実施例は後者を例とし、第2の仮想オブジェクトが指向性スキルの最大射程の外にあっても、予備照準してロッキングすることができる。
α1は、照準角α2に等しい。α1は、オフセットベクトルが水平方向に対するオフセット角であり、α2は、照準ベクトルの、仮想環境におけるx軸に対するオフセット角である。
照準ベクトルは、仮想環境におけるベクトルである。仮想環境が3次元仮想環境である場合、照準ベクトルは仮想環境における平面上のベクトルである。
ステップ704cにおいて、照準ベクトル及び第1の仮想オブジェクトの位置する第1の地図ポイントに基づいて照準点を計算する。
クライアントは第1の地図ポイントと照準ベクトルを加算して照準点を取得する。照準点は、仮想環境の地平面上に位置する点である。
ステップ704dにおいて、仮想環境における照準点に点式照準インジケータを表示する。
上記したように、本実施例に係る方法は、オフセット点92に基づいて正確にマッピングして照準点94を取得することにより、ユーザがホイール照準コントロールを使用する時、コンピュータ端末のマウスのクリックと類似する動作を取得し、能動的に照準する時の照準精度を向上させることができる。
図7に基づく実施例において、目標選択範囲は、照準点を基準として決定された選択範囲である。目標選択範囲は、仮想環境の地平面に位置し、第1の仮想オブジェクトの位置する第1の地図ポイントを回転中心とし、その対称軸が照準点を通過する。目標選択範囲は、軸対称図形である。
目標選択範囲は扇形、半円形、円形のうちの少なくとも1つである。或いは、目標選択範囲は、少なくとも2つの幾何学図形を組み合わせて得られた範囲であり、幾何学図形としては、正方向、菱形、三角形、円形、扇形を含む。
図10に示す例において、目標選択範囲95は、第1の仮想オブジェクトの位置する第1の地図ポイント93を回転中心とし、目標選択範囲95の対称軸が照準点94を通過する。目標選択範囲95は、円形と半円形を組み合わせた範囲である。
図11に示す例において、目標選択範囲95は、第1の仮想オブジェクトの位置する第1の地図ポイント93を回転中心とし、目標選択範囲95の対称軸が照準点94を通過する。目標選択範囲95は、円形と扇形を組み合わせた範囲である。
例示的に、第1の仮想オブジェクトは、指向性スキル又は指向性攻撃を使う時に最大射程範囲96を有し、該最大射程範囲96は第1の仮想オブジェクトの位置する第1の地図ポイント93を円心とする円形範囲であってもよい。目標選択範囲95は、最大射程範囲96の外に位置する予備照準領域と、最大射程範囲96内に位置する照準領域とを含む。
図12に示すように、このような設計にすることにより、ユーザはより遠距離の目標仮想オブジェクトを予備照準領域でロッキングすることができる。
図7に基づく実施例において、上記照準命令はホイール照準コントロールによりトリガされる。クライアントに表示されるユーザインタフェースはホイール照準コントロールを含み、該ホイール照準コントロールは、仮想環境の画面に重畳して表示される。図4に示すように、ホイール照準コントロール40は、ホイール領域40及びレバーボタン42を含む。上記ステップ706は、図13に示すように、以下のステップ706a~ステップ706cを含む。
ステップ706aにおいて、目標選択範囲内に位置する第2の仮想オブジェクトを候補仮想オブジェクトとする。
クライアントは、第1の地図ポイント93を円心とし、照準半径R2を半径とした範囲内の全ての第2の仮想オブジェクトを初期の候補仮想オブジェクトとする。次に、フィルタを用いて初期の候補仮想オブジェクトをフィルタリングし、目標選択範囲外に位置する第2の仮想オブジェクトをフィルタリングし除外し、目標選択範囲内に位置する第2の仮想オブジェクトを候補仮想オブジェクトとして保留する。
候補仮想オブジェクトは、正当性条件を満たす必要もあり、正当性条件は、候補仮想オブジェクトが第1の仮想オブジェクトとは同一の陣営に属しないこと、特定の種類(例えば建物、ドラゴンやバロン、監視目)の仮想オブジェクトではないこと、特定の状態にある仮想オブジェクト(隠形中、選択不可)ではないこと、を含むが、これらに限定されない。
ステップ706bにおいて、候補仮想オブジェクトから優先順位の原則にそって目標仮想オブジェクトを選択する。
優先順位の原則は、以下の原則のうちの少なくとも1つを含む。
1.距離優先順位の原則、
照準点に最も近い候補仮想オブジェクトを優先的に選択する。図14に示すように、候補仮想オブジェクトに候補仮想オブジェクトAと候補仮想オブジェクトBが同時に存在し、候補仮想オブジェクトAと照準点との間の直線距離が第1の距離であり、候補仮想オブジェクトBと照準点との間の直線距離が第2の距離である。第1の距離が第2の距離より小さい場合、候補仮想オブジェクトAを目標仮想オブジェクトとして優先的に選択する。
2.HPパーセント優先順位の原則
HPパーセントの最も少ない候補仮想オブジェクトを優先的に選択する。図15に示すように、候補仮想オブジェクトに候補仮想オブジェクトAと候補仮想オブジェクトBが同時に存在し、候補仮想オブジェクトAのHPパーセントが43%であり、候補仮想オブジェクトBのHPパーセントが80%である場合、候補仮想オブジェクトAを目標仮想オブジェクトとして優先的に選択する。
3.HP絶対値優先順位の原則
HP絶対値の最も少ない候補仮想オブジェクトを優先的に選択する。例えば、候補仮想オブジェクトに候補仮想オブジェクトAと候補仮想オブジェクトBが同時に存在し、候補仮想オブジェクトAのHPが1200点であり、候補仮想オブジェクトBのHPが801点である場合、候補仮想オブジェクトBを目標仮想オブジェクトとして優先的に選択する。
4.種類優先順位の原則
種類優先順位の最も高い候補仮想オブジェクトを優先的に選択する。例えば、候補仮想オブジェクトには候補仮想オブジェクトAと候補仮想オブジェクトBが同時に存在し、候補仮想オブジェクトAの種類はヒーローであり、候補仮想オブジェクトBの種類は兵士である場合、ヒーローの優先順位が兵士の順位よりも高く、候補仮想オブジェクトAを目標仮想オブジェクトとして優先的に選択する。
優先順位の原則が少なくとも2つの異なる優先順位の原則を含む場合、主優先順位の原則及び副次優先順位の原則を設定し、主優先順位の原則で選択した後、選択結果が存在しないか又は2つ以上の選択結果が存在すれば、副次優先順原則で選択する。例えば、まず距離優先順位の原則にそって選択するが、照準点からの距離が同じである2つの候補仮想オブジェクトが存在する場合、さらに種類優先順位の原則にそって選択し、最終的な目標仮想オブジェクトを取得する。
優先順位の原則が少なくとも2つの異なる優先順位の原則を含む場合、同時に異なる優先順位の原則に対して加重加算を行う方式で、各候補仮想オブジェクトの優先順位スコアを算出し、優先順位スコアの最も高い候補仮想オブジェクトを選択して、最終的な目標仮想オブジェクトを取得する。例えば、仮想オブジェクトの種類及び照準点との間の距離に基づいて優先順位スコアを計算することで、照準点の周囲に位置するヒーローが兵士より優先的に選定されるようにする。
ステップ706cにおいて、第1の仮想オブジェクトが目標仮想オブジェクトに照準するように制御する。
ステップ707において、目標仮想オブジェクトに選定エフェクトを表示する。
ここで、選定エフェクトは、目標仮想オブジェクトの位置する第2の地図ポイントに第1の選定マークを表示することと、目標仮想オブジェクトの上方に第2の選定マークを表示することと、のうちの少なくとも1つを含む。
例示的に、第1の選定マークは、目標仮想オブジェクトの足元に表示される円形の光エフェクトであり、第2の選定マークは、目標仮想オブジェクトの頭の上に表示される円形の光束エフェクトであり、本実施例は、選定エフェクトの具体的な形態を限定しない。
例示的に、目標仮想オブジェクトの位置する第2の地図ポイントが予備照準領域に位置することに応答して、目標仮想オブジェクトに第1の選定エフェクトを表示し、目標仮想オブジェクトの位置する第2の地図ポイントが照準領域に位置することに応答して、目標仮想オブジェクトに、第1の選定エフェクトとは異なる第2の選定エフェクトを表示する。例えば、第1の選定エフェクトと第2の選定エフェクトは色が異なる。
ステップ708において、最後の照準命令の受信に応答して、第1の仮想オブジェクトが目標仮想オブジェクトに対して指向性スキル又は指向性攻撃を発動するように制御する。
上記したように、本実施例に係る方法は、優先順位の原則にそって目標選択範囲内に位置する第2の仮想オブジェクトから、照準すべき目標仮想オブジェクトを選択することにより、ユーザの選択したい照準目標を正確に選択することができ、ユーザの動作のフォールトトレランス性を向上させ、特定のインテリジェント化レベルを有する自動照準ソリューションを提供する。
本実施例に係る方法は、目標仮想オブジェクトの位置する第2の地図ポイントが照準領域に位置することに応答して、目標仮想オブジェクトに第2の選定エフェクトを表示することで、目標仮想オブジェクトが照準状態にあるか、又は予備照準のロッキング状態にあるかをユーザに明確に知らせることができ、マンマシンインタラクションの効率を向上させ、選定エフェクトで表示する情報量を向上させる。
図13に基づく実施例において、図16に示すように、目標選択範囲95は第1の選択範囲951(扇形)及び第2の選択範囲952(半円形)を含み、第1の選択範囲951と第2の選択範囲952に部分的な重複部が存在するが、第1の選択範囲951の優先順位は第2の選択範囲952の優先順位よりも大きい。第1の選択範囲951内に第2の仮想オブジェクトが存在することに応答して、優先的に第1の選択範囲951内の第2の仮想オブジェクトを候補仮想オブジェクトとし、第1の選択範囲951内に第2の仮想オブジェクトが存在しないことに応答して、優先的に、第2の選択範囲952内に位置する第2の仮想オブジェクトを候補仮想オブジェクトとする。
候補仮想オブジェクトが正当性条件を満たす必要がある場合、第1の選択範囲951内に正当性条件に合致する第2の仮想オブジェクトが存在することに応答して、優先的に、第1の選択範囲951内の、正当性条件に合致する第2の仮想オブジェクトを候補仮想オブジェクトとし、第1の選択範囲951内に正当性条件に合致する第2の仮想オブジェクトが存在しないことに応答して、優先的に、第2の選択範囲952内に位置する正当性条件に合致する第2の仮想オブジェクトを候補仮想オブジェクトとする。
1つの設計において、第1の選択範囲951は第1の優先順位の原則に対応し、第2の選択範囲952は第2の優先順位の原則に対応する。第1の優先順位の原則と第2の優先順位の原則は異なり、例えば、第1の優先順位の原則はHPパーセント優先順位であり、第2の優先順位の原則は距離優先順位である。
候補仮想オブジェクトが第1の選択範囲951に属することに応答して、候補仮想オブジェクトから、第1の優先順位の原則にそって目標仮想オブジェクトを選択し、候補仮想オブジェクトが第2の選択範囲952に属することに応答して、候補仮想オブジェクトから、第2の優先順位の原則にそって目標仮想オブジェクトを選択する。
第1の仮想オブジェクトが目標仮想オブジェクトに指向性スキルを発動することを例として、図17に示すように、上記仮想オブジェクト照準方法は以下のステップ801~ステップ806を含む。
ステップ801において、ホイール照準コントロールのレバーボタンが押されたままドラッグされる。
レバーボタンが押されると、タッチスクリーンはCPUにタッチ開始イベントを報告し、クライアントはタッチ開始イベントの第1の座標を記録し、活性化点DownPosとする。
レバーボタンがドラッグされると、タッチスクリーンはサンプリング周波数でCPUにタッチ移動イベントを報告し、クライアントは最後のタッチモバイルイベントにおける第2の座標を記録し、オフセットポイントDragPosとする。
ステップ802において、ドラッグされたレバーボタンの、仮想環境において対応する照準点FocusPointを計算する。
ホイール照準コントロールにおけるホイール半径(最大のドラッグ範囲)をMaxDragRadiusとし、ユーザが制御した第1のヒーローの仮想環境における第1の地図ポイントをHeroPosとし、指向性スキルの最大射程半径をXとすれば、以下のような比例関係を用いて、照準点の第1の地図ポイントに対するオフセット位置を計算する。
|DragPos-DownPos|/MaxDragRadius=|FocusPoint-HeroPos|/X
また、照準点FocusPointの、第1の地図ポイントHeroPosに対する方向を計算する必要がある。例示的に、まず、スクリーン中心点(0,0)の位置を3次元仮想環境における、カメラモデルの観察中心でもある位置ScreenCenter2SencePosにマッピングし、次に、スクリーン中心点(0,0)にオフセットベクトル(DragPos-DownPos)を加算した位置を用いて参照点ScreenDrag2ScenePosをマッピングする。3次元仮想環境における参照点ScreenDrag2ScenePosと観察中心ScreenCenter2SencePosとの位置方向は照準点FocusPointと第1の地図ポイントHeroPosとの位置方向である。以上をまとめて、下式を取得する。
FocusPoint=HeroPos+(|DragPos-DownPos|/MaxDragRadius)*X*Normalize(ScreenDrag2ScenePos-ScreenCenter2SencePos)
ここで、Normalizeは正規化を表す。
ステップ803において、スキル情報(スキルツリーID、照準点、最大射程範囲、最大射程範囲外の予備照準範囲などのパラメータ)に基づいて索敵インタフェースを呼び出す。
スキルツリーIDは、指向性スキルの識別子である。最大射程範囲は、指向性スキルの最大射程範囲であり、一般的に円形の範囲である。最大射程範囲は、上記最大射程半径Xで示される。最大射程範囲外の予備照準範囲は、Yで示される。そのうち、プロデューサが指向性スキルごとにYを設定することができる。
ステップ804において、第1のヒーロー(最大射程範囲+予備照準範囲)の周囲の他の仮想オブジェクトを取得して候補仮想オブジェクトリストに記憶する。
索敵インタフェースは、第1のヒーローの位置する第1の地図ポイントを中心とし(X+Y)を半径として決定された円形の範囲内で、円形の範囲内に属する全ての他のヒーローを目標リストに追加する。ここで、Xは、指向性スキルの最大射程範囲の半径であり、Yは、予備照準範囲の半径と最大射程範囲の半径との差値であり、予備照準範囲は、最大射程範囲に外嵌している円環状範囲であり、図9に示すとおりである。
ステップ805において、候補仮想オブジェクトリストをトラバースし、フィルタに合致しないオブジェクトを削除する。
プロデューサは各指向性スキルに1つのフィルタIDを設定するが、このフィルタIDは、即ち指向性スキルを発動する目標が満たさなければならない正当性条件であり、例えば、第1のヒーローとは同一の陣営に属しないこと、特定の種類(例えば建物、ドラゴンやバロン、監視目)の仮想オブジェクトではないこと、特定の状態にある仮想オブジェクト(隠形中、選択不可)ではないことなどである。
クライアントは候補仮想オブジェクトリスト内の候補仮想オブジェクトをフィルタルールに合致するか否かについてトラバースし、フィルタに合致しない候補仮想オブジェクトを候補仮想オブジェクトリストから削除する。
ステップ806において、検索ツリーを呼び出し、適切な第2のヒーローを見つける。
検索ツリーの構造は図18に示すように、まず検索ツリー内の全てのノードはBaseSelectorノードから継承され、BaseSelectorノードは主に、ConfigureとBattleActor Selectの2つの関数方法を有し、BattleActorは候補仮想オブジェクトを指す。
ここで、Configure関数は、プロデューサが設定したテーブルデータに基づいてSelectorサブクラスの自身のデータを初期化することに用いられ、例えば、BranchSelectorノードに複数のブランチを設定する必要があり、その場合に、Configureで設定するデータはいくつかのブランチSelectorのidである。また、例えば、ShapeFilterノードに、円形、扇形、当然のことながら、円形の半径、扇形の角度などのパラメータも含む目標選択範囲の形状フィールドを設定する必要がある。
BattleActor Select関数の入力パラメータは候補仮想オブジェクトリストList<BattleActor>であり、リターンパラメータはフィルタリング後の候補仮想オブジェクトBattleActorであるが、その実際の内容はSelectorサブクラス実装によって異なる挙動をする。
BaseSelectorノードは、LinkedSelector、BranchSelector及びPrioritySelectorの3つの中核派生サブクラスを含む。
LinkSelector:中核として、次の必要なフィルタを表示するためのnextパラメータを有し、それにより、鎖状構造を形成する。それは多くのサブクラスを有し、多くのサブクラスは基本的にフィルタFilterである。主に、Select関数において正当性ルールに合致しない候補仮想オブジェクトBattleActorを削除し、正当性ルールに合致しない候補仮想オブジェクトBattleActorを削除したList<BattleActor>を次のSelectorに伝達することで、フィルタを実現する。例えば、目標選択範囲に対応するShapeSectorは、Configureに必要な図形及びパラメータを設定し、Select関数は、List<BattleActor>内の候補仮想オブジェクトが目標選択範囲に対応する形状の範囲内にあるか否かを1つずつ判断し、目標選択範囲にない候補仮想オブジェクトをList<BattleActor>から削除する。他のFilterも同様である。例えばBuffTypeFilterは、ある種類の付加効果buffを有する候補仮想オブジェクトを削除し、IDSectorは、あるスキルに二回目に命中されない敵への取り扱いとして、あるbuff idを含む候補仮想オブジェクトを削除する。以上のフィルタ以外に、他の多くの具体的なフィルタがあってもよい。例えば、CanKillFilterは、現在のスキルを発動すればキルをとれるよう保証し、IDFilterは、ある仮想オブジェクトをスクリーニングし、BuffTypeFilterは、あるbuffを有する仮想オブジェクトをスクリーニングし、他にも多くのFilterの実装があるが、説明は省略する。
BranchSelector:主要な機能は、複数の選択範囲がある場合に候補仮想オブジェクトをスクリーニングすることである。例えば、図16に示すように、まず第1の選択範囲951である扇形範囲を判断し、次に第2の選択範囲952を判断する必要がある場合には、BranchSelectorが用いられる。設定テーブルにいくつかのSelector IDが設定されており、Configure関数において、設定されたSelector IDに基づいてメンバー変数selectorsを初期化し、Select関数において、パラメータList<BattleActor>actorsを一時的に記憶し、次にselectorsにおけるBaseSelectorを1つずつ用いて一時的に記憶したList<BattleActor>をパラメータとして、Select関数を呼び出し、候補仮想オブジェクトBattleActorがフィードバックされているか否かを判断する。候補仮想オブジェクトBattleActorがフィードバックされていれば、第1の選択範囲951のルールを満たす1つの候補仮想オブジェクトBattleActorが存在していることを意味し、その後の第2の選択範囲952のselectorsをトラバースする必要がない。フィードバックされていなければ、第2の選択範囲952に対応する次のselectorsにおけるBaseSelectorを呼び出す。
PrioritySelector:プロデューサはこのSelectorを利用して、フィルタリング済みのList<BattleActor>をソートし、適切な目標仮想オブジェクトBattleActorを選択する。プロデューサは、例えばHP優先順位の原則、距離優先順位の原則、パーセントHP優先順位の原則などの優先順位の原則をテーブルに構成する必要があり、Select関数において、構成された優先順位の原則にそってリストList<BattleActor>をソートし、リスト中の1番目になるものをフィードバックし、リストが空であればNULLとフィードバックする。
上記Selectorを組み合わせて使用することにより、非常に複雑な索敵ロジックを実現することができる。例示的に、図16に示すように、まず第1の選択範囲951について判断し、次に第2の選択範囲952について判断する必要がある場合、第1の選択範囲951の優先順位の原則がHP優先順位の原則であり、第2の選択範囲952の優先順位の原則が照準点からの距離優先順位の原則であるように設定することができるが、この場合、検索ツリーの全体的な構造は図19に示すとおりである。
図20に示す一例を参照し、まず、クライアントは3つの候補仮想オブジェクトを取得し、次に、3つの候補仮想オブジェクトを、第1の選択範囲951に対応する90度扇形形状のフィルタに入れ、オブジェクト3が第1の選択範囲951にないことを仮定すると、オブジェクト3を削除し、オブジェクト1、オブジェクト2のみを残し、次に、フィルタはオブジェクト1及びオブジェクト2を優先順位の原則にそってソートする。第1の選択範囲951において、HP優先順位の原則でソートを行い、オブジェクト2のHPがより低いことをクライアントがソートにより知るため、オブジェクト2を最終的に照準する目標仮想オブジェクトとしてフィードバックし、最後に索敵してオブジェクト2を取得する。
図21に示す一例を参照し、まず、クライアントは3つの候補仮想オブジェクトを取得し、次に、3つの候補仮想オブジェクトを、第1の選択範囲951に対応する90度扇形形状のフィルタに入れ、オブジェクト1、オブジェクト2及びオブジェクト3が第1の選択範囲951にないことを仮定すると、3つの候補仮想オブジェクトを削除し、次に、クライアントは、第2の選択範囲952に対応するBranchSelectorに属する第2のブランチに戻るが、依然として3つの候補仮想オブジェクトがある。まずクライアントは、3つの候補仮想オブジェクトを第2の選択範囲951に対応する180度半円形状のフィルタに入れるが、どの候補仮想オブジェクトも削除されない。次に、オブジェクト1、オブジェクト2、及びオブジェクト3と照準点とのそれぞれの距離でソートする。距離から分かるように、オブジェクト1が照準点に最も近いため、オブジェクト1を最終的に照準する目標仮想オブジェクトとしてフィードバックする。
以下は本願の装置の実施例であり、装置の実施例において具体的に説明されていない詳細は、上記方法の実施例を参照することができる。
図22は本願の例示的な実施例に係る仮想オブジェクト照準装置のブロック図である。前記装置は、表示モジュール901と、照準モジュール902とを含み、
前記表示モジュール901は、仮想環境の画面を含むユーザインタフェースを表示し、前記仮想環境の画面は、第1の仮想オブジェクトを中心として仮想環境を見た画面であり、前記仮想環境内に位置する第1の仮想オブジェクト及び第2の仮想オブジェクトを含み、
前記表示モジュール901はさらに、照準命令に応答して、前記仮想環境に点式照準インジケータを表示し、点式照準インジケータは前記照準動作により前記仮想環境の地平面で選択された照準点を指示するものであり、
前記照準モジュール902は、前記第1の仮想オブジェクトが目標仮想オブジェクトに照準するように制御し、前記目標仮想オブジェクトは、目標選択範囲内に位置する第2の仮想オブジェクトから選択された1つの仮想オブジェクトであり、前記目標選択範囲は、前記照準点を基準として決定された選択範囲である。
本実施例の一例において、前記照準モジュール902は、前記目標選択範囲内に位置する第2の仮想オブジェクトを候補仮想オブジェクトとしてフィルタリングし、前記候補仮想オブジェクトから、優先順位の原則にそって前記目標仮想オブジェクトを選択し、前記第1の仮想オブジェクトが目標仮想オブジェクトに照準するように制御する。
本実施例の一例において、前記目標選択範囲は第1の選択範囲及び第2の選択範囲を含み、前記第1の選択範囲の優先順位は前記第2の選択範囲より高く、
前記照準モジュール902は、前記第1の選択範囲内に前記第2の仮想オブジェクトが存在することに応答して、優先的に第1の選択範囲内の第2の仮想オブジェクトを候補仮想オブジェクトとしてフィルタリングし、前記第1の選択範囲内に第2の仮想オブジェクトが存在しないことに応答して、前記第2の選択範囲内に位置する前記第2の仮想オブジェクトを前記候補仮想オブジェクトとしてフィルタリングする。
本実施例の一例において、前記第1の選択範囲は第1の優先順位の原則に対応し、前記第2の選択範囲は第2の優先順位の原則に対応し、
前記照準モジュール902は、前記候補仮想オブジェクトが前記第1の選択範囲に属することに応答し、前記候補仮想オブジェクトから、前記第1の優先順位の原則にそって前記目標仮想オブジェクトを選択し、前記候補仮想オブジェクトが前記第2の選択範囲に属することに応答し、前記候補仮想オブジェクトから、前記第2の優先順位の原則にそって前記目標仮想オブジェクトを選択する。
本実施例の一例において、前記目標選択範囲は、前記仮想環境の地平面に位置し、前記第1の仮想オブジェクトの位置する第1の地図ポイントを回転中心とし、その対称軸が照準点を通過する。
本実施例の一例において、前記第1の仮想オブジェクトは最大射程範囲を有し、前記目標選択範囲は前記最大射程範囲外に位置する予備照準領域を含む。
本実施例の一例において、前記優先順位の原則は、
前記照準点に最も近い候補仮想オブジェクトを優先的に選択すること、
HPパーセントの最も少ない候補仮想オブジェクトを優先的に選択すること、
HP絶対値の最も少ない候補仮想オブジェクトを優先的に選択すること、及び
種類優先順位の最も高い候補仮想オブジェクトを優先的に選択すること、のうちの少なくとも1つを含む。
本実施例の一例において、前記表示モジュール901は、さらに、前記目標仮想オブジェクトに選定エフェクトを表示する。前記選定エフェクトは、前記目標仮想オブジェクトの位置する第2の地図ポイントに第1の選定マークを表示することと、前記目標仮想オブジェクトの上方に第2の選定マークを表示することと、のうちの少なくとも1つを含む。
本実施例の一例において、前記第1の仮想オブジェクトは最大射程範囲を有し、前記目標選択範囲は、前記最大射程範囲外に位置する予備照準領域と、前記最大射程範囲内に位置する照準領域とを含む。
前記表示モジュール901は、さらに、前記目標仮想オブジェクトの位置する第2の地図ポイントが前記予備照準領域に位置することに応答して、前記目標仮想オブジェクトに第1の選定エフェクトを表示し、前記目標仮想オブジェクトの位置する前記第2の地図ポイントが前記照準領域に位置することに応答して、前記目標仮想オブジェクトに、第1の選定エフェクトとは異なる第2の選定エフェクトを表示する。
本実施例の一例において、前記ユーザインタフェースは、ホイール領域及びレバーボタンを含むホイール照準コントロールを含む。前記照準命令は、前記レバーボタンが前記ホイール領域において活性化点からオフセットしたオフセット点を含み、前記活性化点は前記ホイール領域の中心である。
前記表示モジュール901は、さらに、前記照準命令に応答して、前記活性化点から前記オフセット点へのオフセットベクトルを計算し、前記オフセットベクトルに基づいて前記照準ベクトルを計算し、前記照準ベクトルと、前記第1の仮想オブジェクトの位置する第1の地図ポイントとに基づいて、前記照準点を計算し、前記仮想環境における前記照準点に前記点式照準インジケータを表示し、前記照準ベクトルは、前記第1の仮想オブジェクトの位置する第1の地図ポイントから前記照準点へのベクトルであり、前記オフセットベクトルと前記ホイールの半径との比は、前記照準ベクトルと照準半径との比に等しく、前記ホイールの半径はホイール領域の半径であり、前記照準半径は前記第1の仮想オブジェクトの能動照準する時の最大照準距離である。
なお、上記実施例に係る仮想オブジェクト照準装置は、上記各機能モジュールの区画を例として説明したのみであり、実際の応用において、必要に応じて上記機能を割り当てて異なる機能モジュールにより実現し、つまり、機器の内部構造を異なる機能モジュールに区画して、以上に説明した全て又は一部の機能を実現してもよい。また、上記実施例に係る仮想オブジェクト照準装置は、仮想オブジェクト照準方法の実施例とは同じ構想に属し、それらの具体的な実現過程の詳細について、方法の実施例を参照し、ここで説明を省略する。
本願は、プロセッサと、プロセッサによりロードされ、実行されることにより上記各方法の実施例に係る仮想オブジェクト照準方法を実現する少なくとも1つの命令を記憶しているメモリと、を含む端末をさらに提供する。なお、該端末は、以下の図23で示された端末であってもよい。
図23は、本願の例示的な実施例に係る端末2300の構成ブロック図を示す。該端末2300は、スマートフォン、タブレットコンピュータ、MP3プレイヤー(Moving Picture Experts Group Audio Layer III、ムービングピクチャーエクスパーツグループオーディオレイヤー3)、MP4(Moving Picture Experts Group Audio Layer IV、ムービングピクチャーエクスパーツグループオーディオレイヤー4)プレイヤー、ノート型パーソナルコンピュータ又はデスクトップコンピュータであってもよい。端末2300は、ユーザ機器、携帯端末、ラップトップ型端末、デスクトップ端末などの他の名称と呼ばれることもある。
一般的に、端末2300は、プロセッサ2301及びメモリ2302を含む。
プロセッサ2301は、例えば、4コアプロセッサ、8コアプロセッサなどの1つ以上の処理コアを含んでよい。プロセッサ2301は、DSP(Digital Signal Processing、デジタル信号処理)、FPGA(Field-Programmable Gate Array、フィールドプログラマブルゲートアレイ)、PLA(Programmable Logic Array、プログラマブルロジックアレイ)のうちの少なくとも1つのハードウェアの形態で実現されてもよい。プロセッサ2301はメインプロセッサ及びコプロセッサを含んでもよく、メインプロセッサはアウェイク状態にあるデータを処理するためのプロセッサであって、CPU(Central Processing Unit、中央演算装置)とも称され、コプロセッサは待機状態にあるデータを処理するための低消費電力プロセッサである。いくつかの実施例では、プロセッサ2301には、ディスプレイに表示すべきコンテンツのレンダリング及びプロットを担当するGPU(Graphics Processing Unit、画像処理装置)が集積されてもよい。いくつかの実施例では、プロセッサ2301は、機械学習に関する計算動作を処理するためのAI(Artificial Intelligence、人工知能)プロセッサをさらに含んでもよい。
メモリ2302は、非一時的であってもよい1つ以上のコンピュータ読み取り可能な記憶媒体を含んでよい。メモリ2302は、高速ランダムアクセスメモリ、及び不揮発性メモリ、例えば1つ又は複数の磁気ディスク記憶装置、フラッシュ記憶装置をさらに含んでもよい。幾つかの実施例では、メモリ2302の非一時的コンピュータ読み取り可能な記憶媒体は、プロセッサ2301によって実行されて本願の方法の実施例に係る仮想オブジェクト照準方法を実現するための少なくとも1つの命令を記憶する。
いくつかの実施例において、端末2300は、周辺機器インタフェース2303及び少なくとも1つの周辺機器をさらに含む。プロセッサ2301と、メモリ2302と、周辺機器インタフェース2303とは、バス又は信号線を介して接続することができる。各周辺機器は、バス、信号線又は回路基板を介して周辺機器インタフェース2303に接続することができる。具体的には、周辺機器は、無線周波数回路2304、タッチディスプレイ2305、カメラアセンブリ2306、オーディオ回路2307、測位アセンブリ2308及び電源2309のうちの少なくとも1つを含む。
当業者であれば理解できるように、図23に示した構造は、端末2300を限定するものではなく、図に示したものよりも多い又は少ないアセンブリを含んでもよく、一部のアセンブリを組み合わせてもよく、異なるアセンブリの配置を用いてもよい。
前記メモリは、メモリに記憶され、本願の実施例に係る仮想オブジェクト照準方法を実行するための1つ以上のプログラムをさらに含む。
本願は、プロセッサによりロードされ、実行されることにより上記各方法の実施例に係る仮想オブジェクト照準方法を実現する少なくとも1つの命令を記憶しているコンピュータ読み取り可能な記憶媒体をさらに提供する。
本願は、コンピュータで実行されると、上記各方法の実施例に係る仮想オブジェクト照準方法をコンピュータ装置に実行させるコンピュータプログラム製品をさらに提供する。
上記本願の実施例の番号は説明のためのものに過ぎず、実施例の優劣を示すものではない。
当業者であれば理解できるように、上記実施形態の全部又は一部のステップの実現はハードウェアにより完了してもよく、プログラムにより関連するハードウェアを命令することで完了してもよく、前記プログラムはコンピュータ読み取り可能な記憶媒体に記憶することができ、上記記憶媒体はリードオンリーメモリ、磁気ディスク又は光ディスクなどであってもよい。
以上の記載は、本願の実施例に過ぎず、本願を限定するものではなく、本願の構想及び原則内で行われた全ての修正、等価置換及び改善などは、いずれも本願の保護範囲内に含まれるべきである。
100 コンピュータシステム
110 第1の端末
111 仮想環境をサポートするクライアント
112 第1のユーザ
113 第2のユーザ
120 サーバ
122 プロセッサ
123 ユーザアカウントデータベース
124 対戦サービスモジュール
125 ユーザ向けの入力/出力(I/O)インタフェース
130 第2の端末
131 仮想環境をサポートするクライアント
140 他のクライアント
901 表示モジュール
902 照準モジュール
2300 端末
2301 プロセッサ
2302 メモリ
2303 周辺機器インタフェース
2304 無線周波数回路
2305 ディスプレイ
2306 カメラアセンブリ
2307 オーディオ回路
2308 測位アセンブリ
2309 電源
2310 センサ
2311 加速度センサ
2312 ジャイロセンサ
2313 圧力センサ
2314 指紋センサ
2315 光学センサ
2316 近接センサ

Claims (13)

  1. 端末が実行する仮想オブジェクト照準方法であって、
    ユーザインタフェースを表示するステップであって、前記ユーザインタフェースは仮想環境の画面を含み、前記仮想環境の画面は前記仮想環境内に位置する第1の仮想オブジェクト及び第2の仮想オブジェクトを含むものである、ステップと、
    照準命令に応答して、前記仮想環境に点式照準インジケータを表示するステップであって、前記点式照準インジケータは照準動作により前記仮想環境の地平面で選択された照準点を指示するものである、ステップと、
    前記第1の仮想オブジェクトが目標仮想オブジェクトに照準するように制御するステップであって、前記目標仮想オブジェクトは、目標選択範囲内に位置する第2の仮想オブジェクトから選択された1つの仮想オブジェクトであり、前記目標選択範囲は、前記照準点を基準として決定された選択範囲である、ステップと、を含む方法。
  2. 前記第1の仮想オブジェクトが目標仮想オブジェクトに照準するように制御する前記ステップは、
    前記目標選択範囲内に位置する第2の仮想オブジェクトを候補仮想オブジェクトとしてフィルタリングするステップと、
    前記候補仮想オブジェクトから、優先順位の原則にそって前記目標仮想オブジェクトを選択するステップと、
    前記第1の仮想オブジェクトが目標仮想オブジェクトに照準するように制御するステップと、を含む、請求項1に記載の方法。
  3. 前記目標選択範囲は、第1の選択範囲及び第2の選択範囲を含み、前記第1の選択範囲の優先順位は前記第2の選択範囲よりも高く、
    前記目標選択範囲内に位置する第2の仮想オブジェクトを候補仮想オブジェクトとしてフィルタリングする前記ステップは、
    前記第1の選択範囲内に前記第2の仮想オブジェクトが存在することに応答して、優先的に前記第1の選択範囲内の前記第2の仮想オブジェクトを前記候補仮想オブジェクトとしてフィルタリングするステップと、
    前記第1の選択範囲内に前記第2の仮想オブジェクトが存在しないことに応答して、前記第2の選択範囲内に位置する前記第2の仮想オブジェクトを前記候補仮想オブジェクトとしてフィルタリングするステップと、を含む、請求項2に記載の方法。
  4. 前記第1の選択範囲は第1の優先順位の原則に対応し、前記第2の選択範囲は第2の優先順位の原則に対応し、
    前記候補仮想オブジェクトから、優先順位の原則にそって前記目標仮想オブジェクトを選択する前記ステップは、
    前記候補仮想オブジェクトが前記第1の選択範囲に属することに応答して、前記候補仮想オブジェクトから、前記第1の優先順位の原則にそって前記目標仮想オブジェクトを選択するステップと、
    前記候補仮想オブジェクトが前記第2の選択範囲に属することに応答して、前記候補仮想オブジェクトから、前記第2の優先順位の原則にそって前記目標仮想オブジェクトを選択するステップと、を含む、請求項3に記載の方法。
  5. 前記目標選択範囲は、
    前記仮想環境の地平面に位置し、
    前記第1の仮想オブジェクトの位置する第1の地図ポイントを回転中心とし、その対称軸が前記照準点を通過する、請求項1から4のいずれか一項に記載の方法。
  6. 前記第1の仮想オブジェクトは最大射程範囲を有し、前記目標選択範囲は前記最大射程範囲外に位置する予備照準領域を含む、請求項1から4のいずれか一項に記載の方法。
  7. 前記優先順位の原則は、
    前記照準点に最も近い候補仮想オブジェクトを優先的に選択すること、
    HPパーセントの最も少ない候補仮想オブジェクトを優先的に選択すること、
    HP絶対値の最も少ない候補仮想オブジェクトを優先的に選択すること、及び
    種類優先順位の最も高い候補仮想オブジェクトを優先的に選択すること、のうちの少なくとも1つを含む、請求項2に記載の方法。
  8. 前記候補仮想オブジェクトから、優先順位の原則にそって前記目標仮想オブジェクトを選択する前記ステップの後に、
    前記目標仮想オブジェクトに選定エフェクトを表示するステップであって、前記選定エフェクトは、前記目標仮想オブジェクトの位置する第2の地図ポイントに第1の選定マークを表示するエフェクト、及び、前記目標仮想オブジェクトの上方に第2の選定マークを表示するエフェクト、のうちの少なくとも1つを含むものである、ステップをさらに含む、請求項2に記載の方法。
  9. 前記第1の仮想オブジェクトは最大射程範囲を有し、前記目標選択範囲は、前記最大射程範囲外に位置する予備照準領域と、前記最大射程範囲内に位置する照準領域とを含み、
    前記目標仮想オブジェクトに選定エフェクトを表示する前記ステップは、
    前記目標仮想オブジェクトの位置する第2の地図ポイントが前記予備照準領域に位置することに応答して、前記目標仮想オブジェクトに第1の選定エフェクトを表示するステップと、
    前記目標仮想オブジェクトの位置する第2の地図ポイントが前記照準領域に位置することに応答して、前記目標仮想オブジェクトに、第1の選定エフェクトとは異なる第2の選定エフェクトを表示するステップと、を含む、請求項8に記載の方法。
  10. 前記ユーザインタフェースは、ホイール領域及びレバーボタンを含むホイール照準コントロールを含み、
    前記照準命令には、前記レバーボタンが前記ホイール領域において前記ホイール領域の中心である活性化点からオフセットしたオフセット点が含まれており、
    前記照準命令に応答して、前記仮想環境において点式照準インジケータを表示するステップは、
    前記照準命令に応答して、前記活性化点から前記オフセット点へのオフセットベクトルを計算するステップと、
    前記オフセットベクトルに基づいて照準ベクトルを計算するステップであって、前記照準ベクトルは、前記第1の仮想オブジェクトの位置する第1の地図ポイントから前記照準点へのベクトルであり、前記オフセットベクトルとホイールの半径との比は、前記照準ベクトルと照準半径との比に等しく、前記ホイールの半径はホイール領域の半径であり、前記照準半径は、前記第1の仮想オブジェクトが能動的に照準する時の最大照準距離である、ステップと、
    前記照準ベクトルと、前記第1の仮想オブジェクトの位置する第1の地図ポイントとに基づいて、前記照準点を計算するステップと、
    前記仮想環境における前記照準点に前記点式照準インジケータを表示するステップと、を含む、請求項1から3のいずれか一項に記載の方法。
  11. 表示モジュールと照準モジュールとを含む仮想オブジェクト照準装置であって、
    前記表示モジュールは、仮想環境の画面を含むユーザインタフェースを表示し、前記仮想環境の画面は、第1の仮想オブジェクトを中心として仮想環境を見た画面であり、前記仮想環境内に位置する第1の仮想オブジェクト及び第2の仮想オブジェクトを含み、
    前記表示モジュールはさらに、照準命令に応答して、前記仮想環境に点式照準インジケータを表示し、前記点式照準インジケータは照準動作により前記仮想環境の地平面で選択された照準点を指示するものであり、
    前記照準モジュールは、前記第1の仮想オブジェクトが目標仮想オブジェクトに照準するように制御し、前記目標仮想オブジェクトは、目標選択範囲内に位置する第2の仮想オブジェクトから選択された1つの仮想オブジェクトであり、前記目標選択範囲は、前記照準点を基準として決定された選択範囲である、仮想オブジェクト照準装置。
  12. プロセッサと、前記プロセッサによりロードされ実行されると、請求項1から10のいずれか一項に記載の方法を実現する少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットを記憶しているメモリと、を含むコンピュータ装置。
  13. プロセッサによりロードされ実行されると、請求項1から10のいずれか一項に記載の方法を実現する少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットを記憶しているコンピュータ可読記憶媒体。
JP2021566345A 2020-06-05 2021-05-21 仮想オブジェクト照準方法、装置及びプログラム Pending JP2022539289A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024060261A JP2024074915A (ja) 2020-06-05 2024-04-03 仮想オブジェクト照準方法、装置及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010508239.5 2020-06-05
CN202010508239.5A CN111672119B (zh) 2020-06-05 2020-06-05 瞄准虚拟对象的方法、装置、设备及介质
PCT/CN2021/095101 WO2021244322A1 (zh) 2020-06-05 2021-05-21 瞄准虚拟对象的方法、装置、设备及存储介质

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024060261A Division JP2024074915A (ja) 2020-06-05 2024-04-03 仮想オブジェクト照準方法、装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2022539289A true JP2022539289A (ja) 2022-09-08

Family

ID=72435185

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021566345A Pending JP2022539289A (ja) 2020-06-05 2021-05-21 仮想オブジェクト照準方法、装置及びプログラム
JP2024060261A Pending JP2024074915A (ja) 2020-06-05 2024-04-03 仮想オブジェクト照準方法、装置及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024060261A Pending JP2024074915A (ja) 2020-06-05 2024-04-03 仮想オブジェクト照準方法、装置及びプログラム

Country Status (6)

Country Link
US (2) US11893217B2 (ja)
EP (1) EP3950079A4 (ja)
JP (2) JP2022539289A (ja)
KR (1) KR20210151861A (ja)
CN (1) CN111672119B (ja)
WO (1) WO2021244322A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111672119B (zh) * 2020-06-05 2023-03-10 腾讯科技(深圳)有限公司 瞄准虚拟对象的方法、装置、设备及介质
CN111672117B (zh) * 2020-06-05 2021-07-09 腾讯科技(深圳)有限公司 虚拟对象的选择方法、装置、设备及存储介质
CN112717403B (zh) * 2021-01-22 2022-11-29 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、电子设备及存储介质
KR102666778B1 (ko) * 2021-05-28 2024-05-20 주식회사 엔씨소프트 게임의 대상체를 타겟팅하는 방법 및 장치
CN113304478B (zh) * 2021-06-22 2022-07-29 腾讯科技(深圳)有限公司 技能指示器的控制方法和装置、存储介质及电子设备
CN113521737B (zh) * 2021-07-26 2024-07-09 网易(杭州)网络有限公司 虚拟角色的锁定方法、装置、计算机设备及存储介质
CN113577766B (zh) * 2021-08-05 2024-04-02 百度在线网络技术(北京)有限公司 对象处理方法及装置
CN113730909B (zh) * 2021-09-14 2023-06-20 腾讯科技(深圳)有限公司 瞄准位置的显示方法、装置、电子设备及存储介质
CN114344880A (zh) * 2022-01-10 2022-04-15 腾讯科技(深圳)有限公司 虚拟场景中的准星控制方法、装置、电子设备及存储介质
CN116920371A (zh) * 2022-03-29 2023-10-24 网易(杭州)网络有限公司 游戏中道具的处理方法及装置、电子设备、存储介质
JP7469378B2 (ja) 2022-05-24 2024-04-16 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
CN118203841A (zh) * 2022-12-15 2024-06-18 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、终端及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000167239A (ja) * 1998-12-02 2000-06-20 Square Co Ltd ゲーム装置、記録媒体およびキャラクタの行動制御方法
JP2004181055A (ja) * 2002-12-05 2004-07-02 Nintendo Co Ltd ゲーム装置およびゲームプログラム
US20170291108A1 (en) * 2016-04-11 2017-10-12 DEXINT GAMES Inc. Method for controlling automatic attack of user character
JP2018518997A (ja) * 2015-06-16 2018-07-19 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド タッチスクリーンに基づく操作及び制御方法及び端末
CN109865282A (zh) * 2019-03-05 2019-06-11 网易(杭州)网络有限公司 移动终端中的信息处理方法、装置、介质及电子设备
JP2019136358A (ja) * 2018-02-13 2019-08-22 株式会社バンダイナムコオンライン ゲームシステム及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001009156A (ja) * 1999-06-30 2001-01-16 Square Co Ltd コンピュータ読み取り可能な記録媒体、ゲームの表示制御方法およびゲーム装置
US7594847B1 (en) * 2002-10-11 2009-09-29 Microsoft Corporation Squad command interface for console-based video game
US9704350B1 (en) * 2013-03-14 2017-07-11 Harmonix Music Systems, Inc. Musical combat game
EP3008685A4 (en) * 2013-06-11 2017-01-25 Wemade IO Co., Ltd. Method and apparatus for automatically targeting target objects in a computer game
US9766040B2 (en) * 2015-01-09 2017-09-19 Evrio, Inc. Relative aiming point display
CN105194873B (zh) * 2015-10-10 2019-01-04 腾讯科技(成都)有限公司 一种信息处理方法、终端及计算机存储介质
CN105930081A (zh) * 2016-04-19 2016-09-07 上海逗屋网络科技有限公司 一种在触摸终端上执行操作的方法与设备
CN107450812A (zh) * 2017-06-26 2017-12-08 网易(杭州)网络有限公司 虚拟对象控制方法及装置、存储介质、电子设备
CN107899241B (zh) * 2017-11-22 2020-05-22 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN108310772A (zh) * 2018-01-22 2018-07-24 腾讯科技(深圳)有限公司 攻击操作的执行方法和装置以及存储介质、电子装置
CN108379839B (zh) * 2018-03-23 2019-12-10 网易(杭州)网络有限公司 控件的响应方法、装置和终端
CN109513209B (zh) * 2018-11-22 2020-04-17 网易(杭州)网络有限公司 虚拟对象处理方法及装置、电子设备以及存储介质
CN109828663A (zh) * 2019-01-14 2019-05-31 北京七鑫易维信息技术有限公司 瞄准区域的确定方法及装置、瞄准目标物的操作方法
CN109847336B (zh) 2019-02-26 2021-08-06 腾讯科技(深圳)有限公司 虚拟场景显示方法、装置、电子设备及存储介质
CN111672119B (zh) * 2020-06-05 2023-03-10 腾讯科技(深圳)有限公司 瞄准虚拟对象的方法、装置、设备及介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000167239A (ja) * 1998-12-02 2000-06-20 Square Co Ltd ゲーム装置、記録媒体およびキャラクタの行動制御方法
JP2004181055A (ja) * 2002-12-05 2004-07-02 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP2018518997A (ja) * 2015-06-16 2018-07-19 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド タッチスクリーンに基づく操作及び制御方法及び端末
US20170291108A1 (en) * 2016-04-11 2017-10-12 DEXINT GAMES Inc. Method for controlling automatic attack of user character
JP2019136358A (ja) * 2018-02-13 2019-08-22 株式会社バンダイナムコオンライン ゲームシステム及びプログラム
CN109865282A (zh) * 2019-03-05 2019-06-11 网易(杭州)网络有限公司 移动终端中的信息处理方法、装置、介质及电子设备

Also Published As

Publication number Publication date
US11893217B2 (en) 2024-02-06
US20240143145A1 (en) 2024-05-02
US20220035515A1 (en) 2022-02-03
CN111672119A (zh) 2020-09-18
EP3950079A1 (en) 2022-02-09
CN111672119B (zh) 2023-03-10
JP2024074915A (ja) 2024-05-31
EP3950079A4 (en) 2022-07-13
WO2021244322A1 (zh) 2021-12-09
KR20210151861A (ko) 2021-12-14

Similar Documents

Publication Publication Date Title
JP2022539289A (ja) 仮想オブジェクト照準方法、装置及びプログラム
JP7476235B2 (ja) 仮想オブジェクトの制御方法、装置、デバイス及びコンピュータプログラム
JP7379532B2 (ja) 仮想オブジェクトの制御方法、装置、機器及びコンピュータプログラム
JP7375043B2 (ja) 仮想環境の画面表示方法、装置、機器及びコンピュータプログラム
US20230068653A1 (en) Method and apparatus for controlling virtual object to use virtual prop, terminal, and medium
US20230013014A1 (en) Method and apparatus for using virtual throwing prop, terminal, and storage medium
KR102678616B1 (ko) 타깃 가상 객체를 결정하는 방법 및 장치, 단말, 및 저장 매체
CN111672116B (zh) 控制虚拟对象释放技能的方法、装置、终端及存储介质
WO2021244310A1 (zh) 虚拟场景中的虚拟对象控制方法、装置、设备及存储介质
US20230054065A1 (en) Delivery of virtual effect
TWI821779B (zh) 虛擬對象的控制方法、裝置、計算機設備及儲存媒體
KR20220139970A (ko) 가상 장면에서의 데이터 처리 방법, 디바이스, 저장 매체, 및 프로그램 제품
JP2023164787A (ja) 仮想環境の画面表示方法、装置、機器及びコンピュータプログラム
JP2022552752A (ja) 仮想環境の画面表示方法及び装置、並びにコンピュータ装置及びプログラム
CN112691366A (zh) 虚拟道具的显示方法、装置、设备及介质
JP2023164687A (ja) 仮想オブジェクトの制御方法及び装置並びにコンピュータ装置及びプログラム
CN115634449A (zh) 虚拟场景中控制虚拟对象的方法、装置、设备及产品
TWI843042B (zh) 虛擬道具的投放方法、裝置、終端、儲存媒體及程式產品
CN113663329B (zh) 虚拟角色的射击控制方法、装置、电子设备及存储介质
CN112843682B (zh) 数据同步方法、装置、设备及存储介质
CN114210062A (zh) 虚拟道具的使用方法、装置、终端、存储介质及程序产品
CN113680061A (zh) 虚拟道具的控制方法、装置、终端及存储介质
CN117298580A (zh) 虚拟对象的互动方法、装置、设备、介质及程序产品

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230619

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231204