JP2022531770A - 仮想環境画面の表示方法、装置、機器およびコンピュータプログラム - Google Patents

仮想環境画面の表示方法、装置、機器およびコンピュータプログラム Download PDF

Info

Publication number
JP2022531770A
JP2022531770A JP2021564807A JP2021564807A JP2022531770A JP 2022531770 A JP2022531770 A JP 2022531770A JP 2021564807 A JP2021564807 A JP 2021564807A JP 2021564807 A JP2021564807 A JP 2021564807A JP 2022531770 A JP2022531770 A JP 2022531770A
Authority
JP
Japan
Prior art keywords
shift
area
virtual environment
camera model
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021564807A
Other languages
English (en)
Inventor
嘉城 魏
▲勳▼ 胡
康 ▲張▼
翔宇 ▲張▼
山▲東▼ 粟
勇 ▲張▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022531770A publication Critical patent/JP2022531770A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/57Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本願は、仮想環境画面の表示方法、装置、機器および記憶媒体を開示し、ヒューマンコンピュータインタラクションの分野に属する。該方法は、第1観察位置を観察中心として仮想環境を観察して得られる第1エリアを含む第1仮想環境画面を表示するステップであって、第1仮想環境画面に、仮想環境に位置するマスター仮想キャラクタが表示されている、ステップと、照準操作を受信したことに応答して、目標エリアを選択するためのエリアスキルインジケータを表示するステップであって、エリアスキルインジケータは、仮想環境において、マスター仮想キャラクタがスキルをリリースするときのスキル作用エリアである目標エリアをマークするためのものである、ステップと、第2観察位置を観察中心として仮想環境を観察して得られる第2エリアを含む第2仮想環境画面を表示するステップであって、第2観察位置は第1観察位置に対してシフトした位置であり、第2領域は目標エリアを含む、ステップと、を含む。目標を照準するときの精度を向上させる。

Description

本願は、2020年4月9日に提出した出願番号が第202010275730.8号であり、発明の名称が「仮想環境画面の表示方法、装置、機器および記憶媒体」である中国特許出願の優先権を求めるものであり、その全ての内容は引用により本願に組み込まれる。
本願は、ヒューマンコンピュータインタラクションの分野に関し、特に、仮想環境画面の表示方法、装置、機器および記憶媒体に関する。
3次元仮想環境に基づくアプリケーション、例えばバトルアリーナゲームにおいて、カメラモデルはマスター仮想キャラクタに関連付けられ、ユーザがマスター仮想キャラクタを制御して仮想環境において移動させるとき、カメラモデルは、マスター仮想キャラクタに追随して移動することで、マスター仮想キャラクタの仮想環境における画面を表示する。
ユーザは、マスター仮想キャラクタを、仮想環境において様々なエリアスキルをリリースして仮想環境における他の仮想キャラクタを攻撃するように制御することができる。マスター仮想キャラクタがエリアスキルをリリースするときにスキルがリリースされるエリアを選択し、エリアスキルを該エリアに作用させる。エリアスキルのリリース過程において、レンズがそのままマスター仮想キャラクタに追随することによって、マスター仮想キャラクタを常に端末の表示スクリーンの中心に位置させる。
マスター仮想キャラクタがエリアスキルをリリースするとき、エリアスキルが表示スクリーンの表示範囲を超えることがあり、これにより、照準エリアの視野が遮断され、ユーザは照準エリアにおける目標オブジェクトが見えず、感覚で照準するしかないので、判断が影響される。
本願の実施例は、照準操作によってエリアスキルインジケータを、目標エリアを選択するようにトリガすることによって、スキルリリースの精度を向上させるとともに、ヒューマンコンピュータインタラクションの効率を向上させる仮想環境画面の表示方法、装置、機器および記憶媒体を提供する。前記実施例の技術手段を次に記載する。
本願の一態様によれば、クライアントによって実行される仮想環境画面の表示方法であって、
第1観察位置を観察中心として仮想環境を観察して得られる第1エリアを含む第1仮想環境画面を表示するステップであって、前記第1仮想環境画面に、前記仮想環境に位置するマスター仮想キャラクタが表示されている、ステップと、
照準操作を受信したことに応答して、目標エリアを選択するためのエリアスキルインジケータを表示するステップであって、前記エリアスキルインジケータは、前記仮想環境において、前記マスター仮想キャラクタがスキルをリリースするときのスキル作用エリアである前記目標エリアをマークするためのものである、ステップと、
第2観察位置を観察中心として前記仮想環境を観察して得られる第2エリアを含む第2仮想環境画面を表示するステップであって、前記第2観察位置は前記第1観察位置に対してシフトした位置であり、前記第2エリアは前記目標エリアを含む、ステップと、を含む仮想環境画面の表示方法を提供する。
本願の他の態様によれば、第1観察位置を観察中心として仮想環境を観察して得られる第1エリアを含む第1仮想環境画面を表示するための表示モジュールを備え、前記第1仮想環境画面に、前記仮想環境に位置するマスター仮想キャラクタが表示されており、
前記表示モジュールは、照準操作を受信したことに応答して、目標エリアを選択するためのエリアスキルインジケータを表示するためのものであり、前記エリアスキルインジケータは、前記仮想環境において、前記マスター仮想キャラクタがスキルをリリースするときのスキル作用エリアである前記目標エリアをマークするためのものであり、
前記表示モジュールは、第2観察位置を観察中心として前記仮想環境を観察して得られる第2エリアを含む第2仮想環境画面を表示するためのものであり、前記第2観察位置は前記第1観察位置に対してシフトした位置であり、前記第2エリアは前記目標エリアを含む仮想環境画面の表示装置を提供する。
本願の他の態様によれば、プロセッサと、少なくとも1つのコマンド、少なくとも1つのプログラム、コードセットまたはコマンドセットが記憶されているメモリと、を備え、前記少なくとも1つのコマンド、前記少なくとも1つのプログラム、前記コードセットまたは前記コマンドセットは、前記プロセッサによってロードされて実行されることで、前記態様に記載の仮想環境画面の表示方法を実現するコンピュータ機器を提供する。
本願の他の態様によれば、プロセッサによってロードされて実行されることで、前記態様に記載の仮想環境画面の表示方法を実現する少なくとも1つのコマンド、少なくとも1つのプログラム、コードセットまたはコマンドセットが記憶されているコンピュータ読み取り可能な記憶媒体を提供する。
本願の他の態様によれば、コンピュータ読み取り可能な記憶媒体に記憶されているコンピュータコマンドを含むコンピュータプログラム製品またはコンピュータプログラムを提供する。コンピュータ機器のプロセッサは、前記コンピュータ読み取り可能な記憶媒体から前記コンピュータコマンドを読み取り、前記プロセッサは前記コンピュータコマンドを実行することによって、前記コンピュータ機器に前記態様に記載の仮想環境画面の表示方法を実行させる。
本願の実施例により提供される技術手段による有益な効果は、少なくとも次のことを含む。
クライアントは、照準操作を受信することによって、照準操作で選択された目標エリアにエリアスキルインジケータを表示し、選択された目標エリアに応じて仮想環境画面の観察中心を調整することで、目標エリア全体が仮想環境画面に含まれる。これによって、仮想環境画面にエリアスキルインジケータ全体を表示することができ、さらに、エリアスキルインジケータが攻撃目標を正確に照準することができ、照準操作により攻撃目標を正確に照準するための時間を低減させ、クライアントによる多すぎる無駄な照準操作の受信を回避し、さらに、照準中におけるクライアントの余分な演算を低減させ、クライアントの稼働効率を向上させるとともに、ヒューマンコンピュータインタラクションの効率を向上させる。
本願の例示的な一実施例により提供される仮想環境画面の模式図である。 本願の例示的な一実施例により提供されるコンピュータシステムのブロック図である。 本願の例示的な一実施例により提供される仮想環境画面の表示方法のフローチャートである。 本願の例示的な一実施例により提供されるマスター仮想キャラクタの視点に対応するカメラモデル模式図である。 本願の例示的な他の実施例により提供される仮想環境画面の表示方法のフローチャートである。 本願の例示的な一実施例により提供される第1仮想環境画面の模式図である。 本願の例示的な一実施例により提供されるホイール式の仮想ジョイスティックの模式図である。 本願の例示的な一実施例により提供されるエリアスキルインジケータを表示するインタフェース模式図である。 本願の例示的な一実施例により提供される視野判定枠の模式図である。 本願の例示的な一実施例により提供される第2シフト形式のインタフェース模式図である。 本願の例示的な一実施例により提供される第1シフト量の計算の模式図である。 本願の例示的な一実施例により提供されるカメラモデルと仮想環境の位置関係の模式図である。 本願の例示的な一実施例により提供される第2シフト量の計算の模式図である。 本願の例示的な一実施例により提供される仮想環境画面の表示方法のフレームワーク図である。 本願の例示的な一実施例により提供されるカメラモデルの移動制御のシステムのフレームワーク図である。 本願の例示的な一実施例により提供されるグローバルシフト量の計算のフレームワーク図である。 本願の例示的な一実施例により提供されるスキルシフト量の計算のフレームワーク図である。 本願の例示的な一実施例により提供される第2仮想環境画面の模式図である。 本願の例示的な一実施例により提供されるカメラモデルの移動制御のプロセスのフレームワーク図である。 本願の例示的な一実施例により提供される仮想環境画面の表示装置のブロック図である。 本願の例示的な一実施例により提供されるコンピュータ機器の装置構造の模式図である。
先ず、本願の実施例に用いられる用語を紹介する。
仮想環境とは、アプリケーションが端末で稼働するときに表示(または提供)される仮想環境である。該仮想環境は現実世界のシミュレーション環境であってもよいし、半シミュレーション半架空の環境であってもよいし、完全架空の環境であってもよい。仮想環境は2次元仮想環境、2.5次元仮想環境および3次元仮想環境のいずれか1つであってもよいが、本願において、これについて特に限定しない。下記実施例において、仮想環境が3次元仮想環境であることを例として説明する。一部の実施例において、仮想環境は、少なくとも2つのマスター仮想キャラクタにバトル環境を提供するためのものである。該仮想環境は、対称の左下エリアと右上エリアを含み、2つの敵対する陣営に属するマスター仮想キャラクタは、それぞれ一方のエリアを占拠し、相手のエリアの奥の目標建物や拠点、基地、クリスタルを破壊することを勝利目標とする。
仮想キャラクタとは、仮想環境における活動可能なオブジェクトである。該活動可能なオブジェクトは、3次元仮想環境に表示される人物または動物等のような仮想人物、仮想動物、アニメキャラ等であってもよい。任意に、仮想キャラクタは、スケルタルアニメーション技術に基づいて構築された3次元モデルである。仮想キャラクタのそれぞれは、3次元仮想環境において独自の形状および体積を持ち、3次元仮想環境における空間の一部を占める。本願の実施例において、仮想キャラクタがユーザによって制御されるマスター仮想キャラクタであることを例として説明する。マスター仮想キャラクタとは、仮想環境における1つまたは複数のマスター仮想キャラクタを広く指す。
カメラモデルとは、仮想環境においてマスター仮想キャラクタの周りに位置する3次元モデルであり、仮想環境においてマスター仮想キャラクタに自主的に追随し、仮想環境画面を取得するためのものである。ユーザは、カメラモデルによって該仮想環境画面を視認し、カメラモデルが視認されない。該仮想環境画面は、マスター仮想キャラクタの1人称視点または3人称視点で仮想環境において観察した画面であってもよい。
マルチプレイヤーオンラインバトルアリーナ(Multiplayer Online Battle Arena Games,MOBA)とは、仮想環境において、少なくとも2つの敵対陣営に属する異なる仮想チームはそれぞれ独自のマップエリアを占拠し、ある勝利条件を目標として競技することである。該勝利条件は、拠点を占領するかまたは敵対陣営の拠点を破壊すること、敵対陣営の仮想キャラクタを撃殺すること、指定されたシーンと時間内で生き残ること、あるリソースを奪い取ること、指定された時間内で相手のスコアを超えることのうちの少なくとも1つを含むが、これらに限定されない。バトルは、ラウンド単位で行ってもよく、ラウンドごとのバトルのマップは、同じであっても異なっていてもよい。各仮想チームは、1名または複数名、例えば1名、2名、3名または5名の仮想キャラクタを含む。1ラウンドのMOBAゲームの持続時間は、ゲーム開始の時点から勝利条件達成の時点までの時間である。
本願により提供される方法は、仮想現実アプリケーション、3次元マッププログラム、軍事シミュレーションプログラム、ファーストパーソン・シューティングゲーム(First Person Shooting Game,FPS)、MOBAゲーム等で実行されてもよいが、下記実施例において、ゲームにおける応用を例として説明する。
仮想環境に基づくゲームは、1つまたは複数のゲーム世界のマップから構成され、ゲームにおける仮想環境は、現実世界のシーンをシミュレートし、ユーザは、ゲームにおけるマスター仮想キャラクタを、仮想環境において歩く、走る、跳ぶ、射撃する、格闘する、運転する、スキルをリリースする、他の仮想キャラクタの攻撃を受ける、仮想環境においてダメージを受ける、他の仮想キャラクタを攻撃する等の動作を行うように操作することができ、イントラクション性が高く、また、複数人のユーザは、オンラインでチームを組んで競技ゲームに参加することができる。
一部の実施例において、マスター仮想キャラクタは、仮想環境においてスキルをリリースする場所を選択し、このようなスキルをエリアスキルと呼ぶ。エリアスキルインジケータで仮想環境における場所の座標を選択する必要があり、仮想環境における仮想ユニット、例えば拠点、クリスタル、防御タワー等を含めて選択する必要もある。マスター仮想キャラクタは、エリアスキルインジケータによって仮想環境においてエリアスキルをリリースする。エリアスキルインジケータは、仮想環境においてマスター仮想キャラクタがスキルをリリースするときのスキル作用エリアをマークするためのものである。
本願の実施例において、ゲームにおけるマスター仮想キャラクタがエリアスキルをリリースすることを例として説明する。
図1は、本願の例示的な一実施例により提供されるカメラモデルの移動のインタフェースの模式図である。ユーザが視認する仮想環境画面は、仮想環境に設けられたカメラモデルによって撮影された画面である。該カメラモデルはレンズアンカーに対応し、レンズアンカーとは、カメラモデルの仮想環境における3次元位置座標であり、レンズアンカーを変更することによってカメラモデルの位置を変更する。本願の実施例において、カメラモデルの高さが一定(高さに対応する座標が一定)であり、カメラモデルの水平面における横、縦座標のみが変更されることを例として説明する。例示的に、ユーザが利用する端末はスマートフォンである。
マスター仮想キャラクタ100は仮想環境における任意の位置に位置してもよい。例示的に、図1の(a)に示すように、マスター仮想キャラクタ100は仮想環境画面の中央位置に表示され、このとき、マスター仮想キャラクタ100はエリアスキルをリリースしようとしている。
ユーザがスキルウィジェットをトリガすると、スキルウィジェットには、ホイール部およびジョイスティック部を有するホイール式の仮想ジョイスティック102が表示されるようになるホイール。仮想環境の地面にエリアスキルインジケータ101が表示され、図1の(b)に示すように、エリアスキルインジケータ101は、ユーザがホイール式の仮想ジョイスティック102をドラッグする方向に従って仮想環境において移動する。カメラモデルはエリアスキルインジケータ101の移動方向へシフトするが、マスター仮想キャラクタ100の仮想環境における位置がそのままであるので、仮想環境画面は、マスター仮想キャラクタ100から離れる方向へシフトし、ユーザには、マスター仮想キャラクタ100が仮想環境画面の片側のエリアに位置するように視認される。このとき、ユーザは、エリアスキルインジケータ101により選択された目標エリア、即ちエリアスキルのスキル作用エリアを視認することができる。
図1の(c)に示すように、マスター仮想キャラクタ100がエリアスキルをリリースする(未図示)と、エリアスキルインジケータが消え、カメラモデルで撮影された仮想環境画面は図1の(c)に示すような仮想環境画面になり、即ち図1の(b)に示す画面に対して、カメラモデルの位置が変更されていない。
マスター仮想キャラクタ100がエリアスキルをリリースした後、カメラモデルはマスター仮想キャラクタ100へ移動し、図1の(a)に示す仮想環境画面になり、例示的に、マスター仮想キャラクタ100は再び仮想環境画面の中央位置に位置するようになる。
マスター仮想キャラクタが使用するエリアスキルの作用範囲によっては、カメラモデルの移動形式は、カメラモデルがエリアスキルインジケータと視野判定枠の相対位置関係に応じて移動する(視野判定枠は仮想環境に設置されたユーザが視認できない枠線である)パターンと、カメラモデルがエリアスキルインジケータで選択されたエリアに応じて、仮想環境において所定の割合によってシフトするパターンと、カメラモデルが使用されるエリアスキルのタイプに応じてシフトするパターンとの3つのパターンを含む。
本実施例において、カメラモデルをエリアスキルインジケータに追随して移動させることで、ユーザに照準位置の仮想環境画面が視認できるようになり、視野の制限によりユーザの照準にずれが生じることを回避し、ヒューマンコンピュータインタラクションの効率を向上させる。
図2は本願の例示的な一実施例により提供されるコンピュータシステムの構造ブロック図である。該コンピュータシステム1は、第1端末120、サーバ140および第2端末160を含む。
第1端末120には、仮想環境をサポートするアプリケーションがインストールされ、稼働する。該アプリケーションは、仮想現実アプリケーション、3次元マッププログラム、軍事シミュレーションプログラム、FPSゲーム、MOBAゲーム、マルチプレイヤーシューティングサバイバルゲーム、バトルロイアル型のシューティングゲームのうちのいずれか1つであってもよい。第1端末120は第1ユーザが利用する端末であり、第1ユーザは、第1端末120により仮想環境に位置する第1マスター仮想キャラクタを制御して活動させる。該活動は、体の姿勢を調整する、歩く、走る、跳ぶ、スキルをリリースする、拾う、攻撃する、他の仮想キャラクタの攻撃を避けることのうちの少なくとも1つを含むが、これらに限定されない。例示的に、第1マスター仮想キャラクタは第1仮想人物であり、例えばシミュレーション人物キャラまたはアニメキャラである。例示的に、第1マスター仮想キャラクタは、仮想環境においてエリアスキルをリリースし、仮想環境画面がマスター仮想キャラクタの位置からエリアスキルインジケータで選択された目標エリアへ移動する。エリアスキルインジケータは、マスター仮想キャラクタにスキルのリリース時にスキル作用エリアを選択させるためのものである。
第1端末120は無線ネットワークまたは有線ネットワークを介してサーバ140と接続されている。
サーバ140は、1台のサーバ、複数台のサーバ、クラウドコンピューティングプラットフォーム、仮想化センターのうち少なくとも1つを含む。例示的に、サーバ140はプロセッサ144とメモリ142とを備え、メモリ142はまた、受信モジュール1421と制御モジュール1422と送信モジュール1423とを備える。受信モジュール1421はクライアントから送信されるリクエスト、例えばチーム編成リクエストを受信するためのものである。制御モジュール1422は仮想環境画面のレンダリングを制御するためのものである。送信モジュール1423はクライアントにメッセージや通知、例えばチーム編成成功の通知を送信するためのものである。サーバ140は3次元仮想環境をサポートするアプリケーションにバックグラウンドサービスを提供するためのものである。任意に、サーバ140は主要な計算作業を担当し、第1端末120と第2端末160は副次的な計算作業を担当し、または、サーバ140は副次的な計算作業を担当し、第1端末120と第2端末160は主要な計算作業を担当し、または、サーバ140と第1端末120と第2端末160とは分散コンピューティングアーキテクチャによって協働計算を行う。
第2端末160は、無線ネットワークまたは有線ネットワークを介してサーバ140と接続されている。
第2端末160には、仮想環境をサポートするアプリケーションがインストールされ、稼働する。該アプリケーションは、仮想現実アプリケーション、3次元マッププログラム、軍事シミュレーションプログラム、FPSゲーム、MOBAゲーム、マルチプレイヤーシューティングサバイバルゲーム、バトルロイアル型のシューティングゲームのうちのいずれか1つであってもよい。第2端末160は第2ユーザが利用する端末であり、第2ユーザは第2端末160により仮想環境に位置する第2マスター仮想キャラクタを制御して活動させる。該活動は、体の姿勢を調整する、歩く、走る、跳ぶ、スキルをリリースする、拾う、攻撃する、他のマスター仮想キャラクタの攻撃を避けることのうちの少なくとも1つを含むが、これらに限定されない。例示的に、第2マスター仮想キャラクタは第2仮想人物、例えばシミュレーション人物キャラまたはアニメキャラである。
任意に、第1仮想人物キャラクタと第2仮想人物キャラクタは同じ仮想環境にいる。任意に、第1仮想人物キャラクタと第2仮想人物キャラクタは、同じチーム、同じ組織に属し、友達関係または一時的な通信権限を持っていてもよい。
任意に、第1端末120と第2端末160には、同じアプリケーションがインストールされ、または、2つの機器には異なる制御システムプラットフォームの同じタイプのアプリケーションがインストールされてもよい。第1端末120は複数の端末のうちの1つを広く指してもよく、第2端末160は複数の端末のうちの1つを広く指してもよいが、本実施例において、単に第1端末120と第2端末160のみを例として説明する。第1端末120と第2端末160は同じ又は異なるタイプの機器であり、該機器のタイプは、スマートフォン、タブレット、電子書籍リーダー、MP3プレーヤー、MP4プレーヤー、ラップトップおよび卓上コンピュータのうちの少なくとも1つを含む。以下の実施例において、端末がスマートフォンを含むことを例として説明する。
当業者であれば、上記機器の数はそれ以上又はそれ以下であってもよいことを理解できる。例えば、上記機器は1つのみであってもよく、あるいは、上記機器は、何十台または何百台であっても、またはこれ以上であってもよい。本願の実施例において、機器の数および機器のタイプについて限定しない。
図3は本願の例示的な一実施例により提供される仮想環境画面の表示方法のフローチャートである。該方法は、図2に示すようなコンピュータシステム1における第1端末120または第2端末160、あるいは該コンピュータシステムにおける他の端末により実行されてもよい。該方法は次のステップを含む。
ステップ301において、第1観察位置を観察中心として仮想環境を観察して得られる第1エリアを含む第1仮想環境画面を表示し、第1仮想環境画面に、仮想環境に位置するマスター仮想キャラクタが表示されている。
ユーザが利用する端末に仮想環境をサポートするアプリケーションが稼働する。ユーザが該アプリケーションを稼働させるとき、端末の表示スクリーンに、対応して該アプリケーションを利用するときのユーザインタフェースが表示され、ユーザインタフェースに仮想環境画面が含まれる。仮想環境画面に表示される仮想環境は、山河、平地、河川、湖、海、砂漠、空、植物、建物、交通機関のうちの少なくとも1つの要素を含む。
一部の実施例において、仮想環境は、任意形状の輪郭を有する仮想環境であり、例えば仮想環境は菱形をなしている。ユーザは、仮想環境に対応するマップを確認することで仮想環境全体を見ることができる。仮想環境においてカメラモデルが設けられており、カメラモデルは、異なる視点で仮想環境を観察することで、仮想環境画面を取得するためのものである。
視点とは、マスター仮想キャラクタの1人称視点または3人称視点で仮想環境において観察して得られる観察角度である。
任意に、カメラモデルは、仮想環境においてマスター仮想キャラクタに自主的に追随し、即ち、マスター仮想キャラクタの仮想環境における位置が変更されるとき、カメラモデルは、マスター仮想キャラクタの仮想環境における位置に追随して同時に位置が変更され、かつ、該カメラモデルは仮想環境において常にマスター仮想キャラクタからプリセット距離範囲内に位置する。任意に、自主的に追随する中において、カメラモデルとマスター仮想キャラクタの相対位置は、変更されても、変更されなくてもよい。
カメラモデルとは、仮想環境においてマスター仮想キャラクタの周りに位置するカメラの3次元モデルである。1人称視点を採用する場合、該カメラモデルはマスター仮想キャラクタの頭部付近またはマスター仮想キャラクタの頭部に位置する。3人称視点を採用する場合、該カメラモデルはマスター仮想キャラクタの後方に位置するとともにマスター仮想キャラクタに関連付けられてもよいし、マスター仮想キャラクタからプリセット距離の任意位置に位置してもよい。該カメラモデルによって、異なる角度から仮想環境に位置するマスター仮想キャラクタを観察することができる。任意に、該3人称視点が1人称の肩越しの視点である場合、カメラモデルはマスター仮想キャラクタ(例えば、仮想人物キャラクタの頭と肩)の後方に位置する。任意に、視点は、1人称視点と3人称視点の以外、他の視点、例えば俯瞰視点をさらに含む。俯瞰視点を採用する場合、該カメラモデルはマスター仮想キャラクタの頭部の上方の空中に位置してもよい。俯瞰視点とは空中から俯瞰する角度で仮想環境を観察する視点である。任意に、該カメラモデル仮想環境において実際に表示されず、即ち、ユーザインタフェースに表示される仮想環境画面において、該カメラモデルが表示されない。
該カメラモデルがマスター仮想キャラクタからプリセット距離の任意位置にあることを例として説明する。任意に、1名のマスター仮想キャラクタに1つのカメラモデルが対応する。該カメラモデルはマスター仮想キャラクタを回転中心に回転してもよい。例えば、マスター仮想キャラクタの任意の1点を回転中心にカメラモデルを回転させ、カメラモデルは回転中に角度の回転だけでなく、位置のシフトもある。回転時、カメラモデルと該回転中心との距離が一定に維持され、即ち、該回転中心を球心とする球体の表面においてカメラモデルを回転させる。マスター仮想キャラクタの任意の1点は、マスター仮想キャラクタの頭部、胴体、またはマスター仮想キャラクタの周りの任意の1点としてもよいが、本願の実施例において、これについて限定しない。任意に、カメラモデルでマスター仮想キャラクタを観察するときに、該カメラモデルの視点の中心の向きは、該カメラモデルの位置する球面における点から球心に向かう方向である。
任意に、該カメラモデルは、さらにマスター仮想キャラクタに対して異なる方向からプリセット角度でマスター仮想キャラクタを観察してもよい。
例示的に、図4を参照し、マスター仮想キャラクタ11において回転中心12として1点を決め、カメラモデルを該回転中心12の周りに回転させる。任意に、該カメラモデルに初期位置が配置されており、該初期位置はマスター仮想キャラクタの後上方の位置(例えば脳部の後方の位置)である。例示的に、図4に示すように、該初期位置は位置13であり、カメラモデルが位置14または位置15まで回転した場合、カメラモデルの視点方向はカメラモデルの回転に従って変更される。
一部の実施例において、ユーザのマニュアル操作によってカメラモデルの視点を切り替える。例えば、ユーザは仮想環境に対応するマップで確認したい目標を選択し、カメラモデルは、ユーザの操作に応じて視点をユーザによって選択された目標に対応する視点に切り替える。該視点での仮想環境画面にユーザによって選択された目標が表示され、ユーザによって制御されるマスター仮想キャラクタが表示されない。
第1観察位置はカメラモデルが第1カメラ位置(図4における位置14)において仮想環境を観察して得られる、仮想環境における対応する観察位置である。カメラモデルのレンズを始点として、観察方向(または撮影方向)に沿って延びる直線と仮想環境との交差点は観察位置である。第1観察位置は仮想環境における任意位置に対応し、該第1観察位置はマスター仮想キャラクタの位置を含む。
第1エリアは第1観察位置を観察中心として仮想環境を観察して得られるエリアであり、第1エリアは、円形、矩形、不規則な形状等のような任意の形状であってもよい。一部の実施例において、第1エリアは、ユーザが端末の表示スクリーンにより視認するエリアである。他の実施例において、第1エリアは表示スクリーンに表示されるエリア(該エリアは仮想環境における一部のエリアである)を超えたエリアであり、または第1エリアは、仮想環境全体に対応するエリアである。
第1仮想環境画面は、マスター仮想キャラクタがエリアスキルをリリースしていないときに対応する仮想環境画面であってもよく、マスター仮想キャラクタがエリアスキルを1回リリースした後に対応する仮想環境画面であってもよい。
マスター仮想キャラクタは仮想環境において活動可能なオブジェクトであり、マスター仮想キャラクタは仮想人物、仮想動物、アニメキャラクタ等であってもよい。仮想環境においてリリースされるスキルは仮想キャラクタによって異なる。スキルのリリース形式により、スキルを様々なタイプ、例えば、エリアスキル、指向性スキル、自動ロックオンスキル等に分けてもよい。エリアスキルとは、ユーザが仮想環境においてスキルをリリースするスキル作用エリアを選択した後に、マスター仮想キャラクタがスキル作用エリアにおいてリリースするスキルである。指向性スキルとは、ユーザが仮想環境においてリリース方向を選択した後に、マスター仮想キャラクタが選択した方向に向かってリリースするスキルである。自動ロックオンスキルとは、リリースされるときにマスター仮想キャラクタの付近に位置する目標ユニットを自動的にロックオンしてリリースされるスキルである。本願の実施例において、マスター仮想キャラクタがエリアスキルをリリースすることを例として説明する。
スキルとは、仮想キャラクタにより使用されるまたはリリースされる、仮想キャラクタ(他の仮想キャラクタおよび自身を含む)を攻撃する、減益効果または増益効果を生じる能力である。スキルは、仮想キャラクタアクティブが使用するまたはリリースするスキルであるアクティブスキルと、パッシブ条件が満たされるときに自動的にトリガされるスキルであるパッシブスキルを含む。例示的に、本実施例に説明されるスキルは、ユーザの制御によってマスター仮想キャラクタが能動的に使用、リリースするアクティブスキルである。
ステップ302において、照準操作を受信したことに応答して、目標エリアを選択するためのエリアスキルインジケータを表示し、エリアスキルインジケータは、仮想環境において、マスター仮想キャラクタがスキルをリリースするときのスキル作用エリアである目標エリアをマークするためのものである。
エリアスキルとは、マスター仮想キャラクタがスキルをリリースするときにリリースが行われるスキル作用エリアを選択する必要のあるスキルである。マスター仮想キャラクタは、エリアスキルインジケータによって仮想環境において目標エリアを選択し、目標エリア内においてエリアスキルをリリースする。エリアスキルは、リリースされると、目標エリア内に位置する仮想ユニットにスキル効果を発揮する。例えば、仮想ユニットは仮想キャラクタ、クリスタル、拠点、防御タワー等を含む。一部の実施例において、マスター仮想キャラクタがエリアスキルをリリースする方式として、ユーザがエリアスキルのリリース操作(または照準操作)を行い、例えばエリアスキルのリリースウィジェットをトリガして、エリアスキルインジケータを制御するホイール式の仮想ジョイスティックを表示し、仮想環境画面においてエリアスキルインジケータが表示される。ユーザがホイール式の仮想ジョイスティックを制御することによって、エリアスキルインジケータの仮想環境における位置を制御し、エリアスキルインジケータは仮想環境における任意箇所に位置してもよい。エリアスキルインジケータで選択されるエリアがエリアスキルのスキル作用エリアを示し、該スキル作用エリアはエリアスキルインジケータで仮想環境においてマークされた目標エリアでもある。スキルのリリース操作は、ユーザがホイール式の仮想ジョイスティックをドラッグすることで、エリアスキルインジケータを、目標位置を選択するように制御してから手を離すであることを例として、ユーザが手を離すと(ドラッグ操作が停止すると)、マスター仮想キャラクタが現在エリアスキルインジケータで選択されたエリアを目標エリアとして、目標エリアにエリアスキルをリリースする。エリアスキルのスキル作用エリアは、円形、矩形、三角形、多角形、不規則な形状等のような任意の形状であってもよいが、本願の実施例において、作用エリアが円形であることを例として説明する。例示的に、エリアスキルインジケータの形状は、エリアスキルのスキル作用エリアの形状と同様である。
一部の実施例において、目標エリアと第1エリアとは一部の重なっているエリアがあり、即ち、目標エリアに第1エリアの外に位置する一部のエリアが存在する。あるいは、目標エリアと第1エリアとは重なっておらず、即ち、目標エリアは第1エリアの外に位置する。
ユーザが利用する端末はタッチスクリーンを有する端末、例えばスマートフォンまたはタブレット等である場合、照準操作は、ユーザによりユーザインタフェース(User Interface,UI)のウィジェットをトリガすること、またはタッチスクリーンにおいてエリアスキルをリリースするジェスチャーをすることによって生成される。一部の実施例において、UIウィジェットはスキルリリースウィジェットまたはエリアスキルリリースウィジェットとも呼ばれるが、本願の実施例において、ウィジェットの名称について限定しない。
ユーザが利用する端末は外部入力装置が接続されている端末、例えば卓上コンピュータ、ラップトップ等である場合、照準操作はユーザにより外部入力装置をトリガすることで生成される。例えば、ユーザは卓上コンピュータに接続されたマウスまたはゲームパッドをクリックすることで、マスター仮想キャラクタを、エリアスキルをリリースするように制御する。
ステップ303において、第2観察位置を観察中心として前記仮想環境を観察して得られる第2エリアを含む第2仮想環境画面を表示し、第2観察位置は第1観察位置に対してシフトした位置であり、第2エリアは目標エリアを含む。
カメラモデルは第1カメラ位置から第2カメラ位置に移動し(図4に示すように、位置14から位置13に移動する)、第2仮想環境画面を形成する。第2観察位置はカメラモデルが第2カメラ位置で仮想環境を観察して得られる、仮想環境において第2仮想環境画面の中心に対応する観察位置である。第2観察位置は第1観察位置に基づいてシフトした位置であり、第2観察位置を観察中心として第2仮想環境画面を形成する。
第2エリアは第2観察位置を観察中心として仮想環境を観察して得られるエリアであり、第2エリアは、円形、矩形、不規則な形状等のような任意の形状であってもよい。目標エリアは第2エリア内に位置する。一部の実施例において、第2エリアは、ユーザが端末の表示スクリーンで視認する仮想環境のエリア範囲である。
第2仮想環境画面は、照準操作に応じて、エリアスキルインジケータでエリアスキルの目標エリアを選択するときの仮想環境画面、即ち、エリアスキルがリリースされる前の照準中に表示される仮想環境画面である。例示的に、第2仮想環境画面は、照準操作に応じてエリアスキルインジケータで仮想環境における目標エリアを選択した後に、目標エリアにエリアスキルをリリースするときに表示される仮想環境画面、即ち、エリアスキルがリリースされるときに表示される仮想環境画面であってもよい。
以上により、本実施例により提供される方法によれば、クライアントは、ユーザの照準操作を受信し、照準操作で選択された目標エリアに応じて、目標エリアにエリアスキルインジケータを表示し、選択された目標エリアに応じて仮想環境画面の観察中心を調整することで、仮想環境画面に目標エリア全体を含める。クライアントは、目標エリアを観察中心として、仮想環境画面に目標エリア全体を表示させることによって、ユーザは、さらにエリアスキルのスキル作用エリアを観察し、エリアスキルのリリース後の作用範囲を判断することができ、ユーザが感覚によりマスター仮想キャラクタを仮想環境においてエリアスキルをリリースするように制御することを低減させ、スキルリリースの精度を向上させるとともに、ヒューマンコンピュータインタラクションの効率を向上させる。仮想環境画面の表示形式を最適化させることで、ユーザは、より完全なエリアスキルインジケータを視認し、より正確にエリアスキルインジケータを操作して攻撃目標を照準し、これによって、ユーザ操作の効率を向上させ、照準操作で目標エリアを正確に選択する時間を低減させ、ユーザがスキルの作用エリアを適切に観察できないことにより照準操作の時間が長くなるようなことを回避し、さらにクライアントの照準中における無駄な演算を減らし、クライアントの稼働効率を向上させる。
ユーザインタフェースを例示しながら仮想環境画面の表示方法を説明する。
図5は本願の例示的な他の実施例により提供される仮想環境画面の表示方法のフローチャートである。該方法は、図2に示すようなコンピュータシステム1における第1端末120または第2端末160または該コンピュータシステムにおける他の端末によって実行されてもよい。該方法は次のステップを含む。
ステップ501において、第1観察位置を観察中心として仮想環境を観察して得られる第1エリアを含む第1仮想環境画面を表示し、第1仮想環境画面に、仮想環境に位置するマスター仮想キャラクタが表示されている。
例示的に、ユーザが利用する端末はスマートフォンを含むことを例として説明する。図6に示すように、端末の表示スクリーンにゲームプログラムのユーザインタフェースが表示され、該ユーザインタフェースは第1仮想環境画面60を含み、第1仮想環境画面60はマスター仮想キャラクタ61を含む。第1仮想環境画面60は第1エリアを含み、該第1エリアは第1仮想環境画面60で表示されるエリアと同じ大きさのエリアである。
一例では、第1エリアは第1仮想環境画面60で表示されるエリアであり、マスター仮想キャラクタ61が第1エリアに位置する。
該ユーザインタフェースは、UIウィジェット62をさらに含み、UIウィジェット62は、ユーザによるトリガされるときにマスター仮想キャラクタを仮想環境においてスキルをリリースするように制御するためのものである。一部の実施例において、ユーザは、異なるUIウィジェット62をトリガすることで異なるタイプのスキルをリリースするが、本願の実施例において、マスター仮想キャラクタを、エリアスキルをリリースするように制御することを例として説明する。
ステップ502において、照準操作を受信したことに応答して、目標エリアを選択するためのエリアスキルインジケータを表示し、エリアスキルインジケータは、仮想環境において、マスター仮想キャラクタがスキルをリリースするときのスキル作用エリアである目標エリアをマークするためのものである。
例示的に、ユーザがユーザインタフェースのUIウィジェットをトリガすると、端末は照準操作を受信する。一例では、UIウィジェット62はマスター仮想キャラクタを制御してエリアスキルをリリースするものである。ユーザがUIウィジェット62をクリックすると、図7に示すようなホイール式の仮想ジョイスティックが表示され、ホイール式の仮想ジョイスティックはホイール部63とジョイスティック部64とを有し、図8に示すように、ジョイスティック部64をドラッグすることで、エリアスキルインジケータ65が仮想環境に表示される位置を制御する。一部の実施例において、ジョイスティック部64は三角形、矩形等の他の形状であってもよく、または、ジョイスティック部64はエリアスキルインジケータの中心からホイール部63の縁に向かう半直線であり、半直線の向きにより、エリアスキルインジケータで仮想環境において選択される目標エリアを指示してもよい。
例示的に、エリアスキルインジケータ65は円形であり、エリアスキルインジケータ65でマークされるエリアはマスター仮想キャラクタがエリアスキルをリリースする目標エリアであり、該目標エリアは円形であり、エリアスキルの作用範囲は該目標エリアである。一部の実施例において、目標エリアの面積はエリアスキルの作用範囲に関連し、またはエリアスキルのタイプに関連し、例えば、エリアスキルの作用範囲が大きいほど、目標エリアの面積が大きくなる。
一部の実施例において、エリアスキルインジケータ65は選択エリア66においてリリースされ、選択エリア66は、エリアスキルインジケータ65が目標エリアを選択するために選択範囲を提供するためのものである。選択エリア66は仮想環境の一部のエリアであってもよいし、仮想環境全体に対応するエリアであってもよい。任意に、選択エリアはマスター仮想キャラクタの位置を中心としたエリアであり、選択エリアの形状は任意の形状であってもよく、例えば、円形である。
一部の実施例において、エリアスキルをリリースする形式として、マスター仮想キャラクタは仮想環境における目標エリアを選択し、目標エリアにスキルをリリースする。例示的に、リリースされたスキルは、目標エリア内に位置する仮想ユニットに作用効果を発揮する。例えば、仮想ユニットは仮想キャラクタ、クリスタル、拠点、防御タワー等を含む。または、リリースされたエリアスキルは目標エリア内の仮想環境に作用効果を発揮する。例えば、目標エリアの地形属性を変更し、目標エリアに新たな地形を作り、あるいは、目標エリアにトラップを設置する等。または、リリースされたエリアスキルはマスター仮想キャラクタを目標エリアに関連付けする。例えば、仮想キャラクタを目標エリアに瞬間移動させる。
ステップ503において、シフト形式に応じて、カメラモデルを、第1観察位置に対応する第1カメラ位置から第2観察位置に対応する第2カメラ位置に移動させる。
仮想環境にカメラモデルが設けられており、カメラモデルは仮想環境を観察して仮想環境画面を取得するためのものであり、カメラモデルの位置を移動させることによって、第1仮想環境画面から第2仮想環境画面を表示するようになる。
図4に示すように、例示的に、第1カメラ位置は位置13であり、カメラモデルが位置13で観察または撮影した仮想環境の画面は第1仮想環境画面であり、シフト形式に応じてカメラモデルを第2カメラ位置に移動させ、第2カメラ位置は位置15であり、カメラモデルが位置15で観察または撮影した仮想環境の画面は第2仮想環境画面である。
一部の実施例において、シフト形式はカメラモデルの移動速度を含み、例えばカメラモデルは等速で第1カメラ位置から第2カメラ位置に移動する。他の実施例において、シフト形式はカメラモデルを移動させるトリガ形式を含み、即ち、トリガ条件が満たされるとカメラモデルの移動がトリガされる。他の実施例において、カメラモデルの移動形式はカメラモデルの移動距離を含み、例えば、マスター仮想キャラクタがリリースするエリアスキルの作用範囲が小さい場合、カメラモデルの移動距離も小さく、または、マスター仮想キャラクタがリリースするエリアスキルの作用範囲が大きい場合、カメラモデルの移動距離が大きくなる。本願の実施例において、シフト形式がカメラモデルを移動させるトリガ形式を含むことを例として説明する。
カメラモデルのシフト形式は第1シフト形式と第2シフト形式のうちの少なくとも1つを含み、カメラモデルが第1シフト形式でシフトする場合、ステップ503を次のステップに置き換えてもよい。
ステップ503aにおいて、目標エリアの中心点に基づいて決められたエリア参照点が視野判定枠の外に位置することに応答して、エリア参照点と視野判定枠の枠線との距離から、カメラモデルの第1シフト形式での第1シフト量を決める。
第1シフト形式は、カメラモデルの視野範囲を表現するための視野判定枠に基づいてカメラモデルをシフトさせる形式である。視野判定枠は仮想環境画面に設置された視認できない枠線であり、視野判定枠はカメラモデルの観察中心を中心点とし、水平面に平行する枠線であり、視野判定枠は、カメラモデルの観察方向に垂直である少なくとも1本の枠線がある。
視野判定枠の形状は端末表示スクリーンの形状(および他の要素)で決められ、視野判定枠の中心はカメラモデルの仮想環境における照準位置である。端末のスクリーンが矩形であることを例として、カメラモデルの仮想環境における照準位置を視野判定枠の中心とし、視野判定枠の長さと幅がスクリーンの長さと幅により決められる。視野判定枠は、大きさがスクリーンよりもやや小さく、長辺がカメラモデルの観察方向に垂直であり、短辺がカメラモデルの観察方向に平行する。または、視野判定枠は、短辺がカメラモデルの観察方向に垂直であり、長辺がカメラモデルの観察方向に平行する。例示的に、視野判定枠はカメラモデルの仮想環境における移動に追随して移動する。例示的に、カメラモデルがシフトしていない場合、カメラモデルはマスター仮想キャラクタの位置を観察中心とし、視野判定枠の中心もマスター仮想キャラクタの位置にある。
図9に示すように、仮想環境画面において視野判定枠67が表示され、視野判定枠67は円形、三角形、多角形等の形状であってもよいが、本願の実施例において、視野判定枠67の形状について限定しない。視野判定枠67の大きさは予め設定されてもよいし、カメラモデルのシフト距離に応じて設定されてもよいし、エリアスキルの作用範囲に応じて設定されてもよいが、本願の実施例において、視野判定枠67の大きさについて限定しない。説明すべきこととして、本願の実施例において、視野判定枠67は例に過ぎず、実際に、視野判定枠67は仮想環境画面に表示されず、即ち、ユーザはユーザインタフェースにおいて視野判定枠67を視認できない。
図9に示すように、エリア参照点68はエリアスキルインジケータ65の中心点に基づいて決められる。エリア参照点68が視野判定枠67の外に位置する場合、カメラモデルのシフトがトリガされる。カメラモデルの第1シフト形式での第1シフト量は、エリア参照点68と視野判定枠67との距離から算出される。
ステップ504aにおいて、第1シフト量に応じてカメラモデルを第1カメラ位置から第2カメラ位置に移動させる。
カメラモデルをステップ503aで算出された第1シフト量に応じてシフトさせ、第1シフト量はカメラモデルの第1移動方向と第1移動距離を含む。
本実施例により提供される方法によれば、視野判定枠を設置し、視野判定枠に基づいてカメラモデルの第1シフト量を決めることによって、カメラモデルを対応する位置に正確に移動させることができ、これによって、カメラモデルの位置に基づいて第2仮想環境画面を正確に表示することができる。
カメラモデルが第2シフト形式でシフトする場合、ステップ503を次のステップに置き換えてもよい。
ステップ503bにおいて、指示方向に応じてカメラモデルの第2シフト形式での第2シフト量を決める。
第2シフト形式は指示方向に基づいてシフトする形式であり、指示方向はマスター仮想キャラクタの位置から目標エリアの中心点へ向かう方向である。
図10に示すように、仮想環境画面においてエリアスキルインジケータ65が表示され、該エリアスキルインジケータ65は中心点68に対応し、エリアスキルをリリースする目標エリアが該エリアスキルインジケータ65でマークされており、ユーザは、選択エリア66からエリアスキルインジケータ65のリリース位置を選択する。
仮想環境画面に指示方向69がさらに表示されており、該指示方向は、マスター仮想キャラクタの位置からエリアスキルインジケータの中心点、即ち目標エリアの中心点に指向する。
指示方向と水平方向の夾角、指示方向に対応する距離およびシフト比率に基づいて、カメラモデルの第2シフト形式での第2シフト量を決める。
ステップ504bにおいて、第2シフト量に応じてカメラモデルを第1カメラ位置から第2カメラ位置に移動させる。
カメラモデルをステップ504aで決められた第2シフト量に応じてシフトさせ、第2シフト量はカメラモデルの第2移動方向と第2移動距離を含む。
本実施例により提供される方法によれば、エリアスキルインジケータで指示される方向から、対応する夾角、一定のシフト距離およびシフト比率を取得し、カメラモデルの第2シフト量を決めることで、マスター仮想キャラクタがリリースするスキルの作用範囲が大きく変わる場合、カメラモデルは、第2シフト量に応じて対応する位置に正確にシフトし、第2仮想環境画面を正確に表示することができる。
ステップ505において、カメラモデルが位置する第2カメラ位置に応じて、第2仮想環境画面を表示する。
カメラモデルが第2カメラ位置に移動すると、第2カメラ位置で撮影または観察した画面を第2仮想環境画面として表示する。第2仮想環境画面は、第2カメラ位置で仮想環境を観察して得られる第2エリアを含み、該第2エリアはエリアスキルインジケータでマークされた目標エリアを含む。
理解すべきこととして、上記第1シフト形式と第2シフト形式は、それぞれに単独で実施してもよく、組み合わせて実施してもよく、さらに他のシフト形式と組み合わせて実施してもよい。
以上により、本実施例により提供される方法によれば、クライアントは、異なるシフト形式によってカメラモデルを制御して第1カメラ位置から第2カメラ位置に移動させることによって、カメラモデルが仮想環境から取り込んだ仮想環境画面においてエリアスキルインジケータで選択された目標エリア全体を表示させる。これによって、ユーザは、仮想環境画面においてエリアスキルのスキル作用エリア全体を観察し、それに基づいてエリアスキルをリリースした場合の作用範囲を判断することができ、ユーザが感覚によりマスター仮想キャラクタを仮想環境においてエリアスキルをリリースするように制御することを低減させ、スキルリリースの精度を向上させ、ヒューマンコンピュータインタラクションの効率を向上させる。また、ユーザの照準中における無駄な操作を減らし、無駄な操作によるクライアントのロジック演算量を減少させ、クライアントがスキルリリース操作を受信するときの稼働効率を向上させる。
カメラモデルは、異なるシフト形式に対応してシフト量が異なり、クライアントは、カメラモデルを制御して異なるシフト量に応じてシフトさせることによって、カメラモデルで対応する位置の仮想環境画面を正確に撮影することができ、ユーザインタフェースに対応する仮想環境画面を正確に表示することができる。
次に、第1シフト量と第2シフト量の決定方法をそれぞれ説明する。
図5に基づく選択的な実施例において、カメラモデルが第1シフト形式でシフトする場合、上記ステップ503aを次のステップに置き換えてもよい。
ステップ5031aにおいて、エリア参照点が視野判定枠の外に位置することに応答して、エリア参照点と視野判定枠の枠線との垂直距離を計算する。垂直距離は、エリア参照点と視野判定枠の縦方向枠線との垂直距離である横方向垂直距離と、エリア参照点と視野判定枠の横方向枠線との垂直距離である縦方向垂直距離のうちの少なくとも1つを含む。
例示的に、横方向垂直距離はエリア参照点と視野判定枠の縦方向枠線が位置する直線との垂直距離であり、縦方向垂直距離はエリア参照点と視野判定枠の横方向枠線が位置する直線との垂直距離である。
図11に示すように、エリアスキルインジケータ65と視野判定枠67との垂直距離は横方向垂直距離70と縦方向垂直距離71を含み、横方向垂直距離70はエリア参照点68から視野判定枠67までの垂直距離である。
例示的に、マスター仮想キャラクタを原点とし、カメラモデルの観察方向に垂直な軸をx軸とし、カメラの観察方向に平行する軸をy軸として、仮想環境において平面直角座標系を構築する。例示的に、横方向垂直距離70を計算する場合、エリア参照点68の座標を(x1,y1)とし、視野判定枠67におけるエリア参照点68とともに垂直距離を示す点の座標を(x2,y1)とすると、横方向垂直距離70が(x1-x2)であり、縦方向垂直距離が0である(両点の縦座標が同じ)。
同様に、縦方向垂直距離71を計算する場合、エリア参照点68の座標を(x3,y3)とし、視野判定枠67におけるエリア参照点68とともに垂直距離を示す点の座標を(x3,y4)とすると、縦方向垂直距離71が(x3-x4)であり、横方向垂直距離が0である(両点の横座標が同じ)。
ステップ5032aにおいて、垂直距離をカメラモデルの第1シフト形式での第1シフト量として決める。
第1シフト形式で、第1シフト量は第1横方向垂直距離と第1縦方向垂直距離のうちの少なくとも1つを含む。
以上により、本実施例により提供される方法によれば、視野判定枠を設置し、視野判定枠とエリア参照点との垂直距離によってカメラモデルの第1シフト量を計算することで、カメラモデルが目標位置に移動したときの座標を正確に決め、カメラモデルを制御して目標位置に正確に移動させることができる。
図5に基づく選択的な実施例において、例示的に、ユーザがホイール式の仮想ジョイスティックをドラッグすることでエリアスキルインジケータの配置位置を制御する場合、ドラッグ中において、エリア参照点が再び視野判定枠内に位置することがあり、このときのカメラモデルの移動形式を次に説明する。
ステップ1において、エリア参照点が再び視野判定枠内に位置することに応答して、カメラモデルを第2カメラ位置から第3カメラ位置に移動させ、第3カメラ位置は、第2カメラ位置と第1カメラ位置との間に位置し、第3観察位置に対応するものである。
例示的に、上記実施例における第2仮想環境画面を例として、第2仮想環境画面は1組の画面における第iフレームに対応し、このとき、エリア参照点が視野判定枠の外に位置し、カメラモデルは、視野判定枠とエリア参照点との距離に基づいて第1シフト形式での第1シフト量を決める。カメラモデルが第1シフト量に応じてシフトした後、画面が第i+1フレームに移行し、エリアスキルインジケータがまだ仮想環境においてリリースされていないときに、視野判定枠はエリア参照点に自動的に近づくことにより、エリア参照点が視野判定枠内に位置するようになる。このとき、カメラモデルが移動して、第2カメラ位置から第3カメラ位置に移動する。カメラモデルは第2カメラ位置から第1カメラ位置へ移動するが、第1カメラ位置に到達せず、「ばね」のような効果が発生する。即ち、ユーザがホイール式の仮想ジョイスティックをドラッグすることによって第1方向に沿ってエリアスキルインジケータを制御して移動させる場合、カメラモデルはエリアスキルインジケータに追随して移動し、ユーザがホイール式の仮想ジョイスティックをドラッグすることによって第1方向とは反対の方向に沿ってエリアスキルインジケータを制御して移動させる場合、カメラモデルはエリアスキルインジケータに追随して第1方向とは反対の方向に沿って移動する。
ステップ2において、第3カメラ位置にあるカメラモデルに応じて第3仮想環境画面を表示する。第3仮想環境画面は第3観察位置を観察中心として仮想環境を観察して得られる第3エリアを含み、第3エリアは目標エリアを含む。
カメラモデルに「ばね」のような引き戻し移動が発生した場合、カメラモデルの位置に応じて第3仮想環境画面を表示し、第3仮想環境画面に対応するエリアにおいて、エリアスキルインジケータで選択された目標エリアが常に表示される。第1エリアと第2エリアと同様に、第3エリアは第3仮想環境画面に表示される仮想環境におけるエリアを含む。
以上により、本実施例により提供される方法によれば、ユーザは、再びエリアスキルインジケータを、目標エリアを選択するように制御することにより、エリアスキルインジケータのエリア参照点が再び視野判定枠内に位置する場合、カメラモデルを制御して第3カメラ位置へ移動させ、即ち、カメラモデルを「引き戻す」。これによって、エリア参照点が最初の仮想環境画面を超えた場合、カメラモデルを制御してシフトさせるが、エリア参照点が最初の仮想環境画面を超えていない場合、カメラモデルを制御してそれに応じて戻させることで、カメラモデルのシフト時の一貫性を向上させ、ユーザによる操作と観察を容易にする。
図5に基づく選択的な実施例において、カメラモデルが第2シフト形式でシフトする場合、上記ステップ503bを次のステップに置き換えてもよい。
ステップ5031bにおいて、指示方向と、仮想環境における水平面に平行するとともにカメラモデルの観察方向に垂直な水平方向との夾角を取得する。
図10に示す指示方向69のように、指示方向は、マスター仮想キャラクタから目標エリアの中心点に指向する方向である。
図12に示すように、仮想環境の位置する平面200において、マスター仮想キャラクタ204、水平方向203および他の仮想キャラクタ207が存在し、マスター仮想キャラクタ204にカメラモデル201が対応する。理解すべきこととして、カメラモデル201の観察方向202は水平方向203に垂直であり、水平方向203は仮想環境の水平面(即ち仮想環境の位置する平面200)に平行する。カメラモデル201の観察方向202は水平面に対して45°をなし、一部の実施例において、観察方向202は水平面に対して60°または90°をなしてもよいが、本願の実施例において、これについて限定しない。
ステップ5032bにおいて、カメラモデルの指示方向に対応する一定のシフト距離を取得する。
指示方向と水平方向に夾角がある場合、該指示方向に対応する一定のシフト距離を取得する。一部の実施例において、該一定のシフト距離は予め設定されておくものであり、または、実際の指示方向に応じて設定されるものである。一部の実施例において、指示方向は上、下、左、右、左上、左下、右上、右下のうちのいずれか1つを含む。一定のシフト距離は横方向シフト距離と縦方向シフト距離のうちの少なくとも1つを含む。
ステップ5033bにおいて、カメラモデルの第2シフト形式でのシフト比率を取得し、シフト比率はカメラモデルを比率に従って移動させるように指示するためのものである。
エリアスキルインジケータは選択エリアにおいて目標エリアを任意に選択できるため、エリアスキルインジケータで選択された目標エリアによっては、対応する指示方向が異なり、カメラモデルのシフト量も異なる。
ステップ5034bにおいて、夾角、一定のシフト距離およびシフト比率に基づいて、第2シフト量を決める。
第2シフトは横方向シフト量と縦方向シフト量のうちの少なくとも1つを含む。
横方向シフト量と縦方向シフト量の決定方法をそれぞれ説明する。
1.夾角の余弦値と横方向シフト距離とシフト比率との積から、横方向シフト量を決める。
横方向シフト距離は左シフト距離と右シフト距離のうちの少なくとも1つを含む。左、右は、それぞれ仮想環境画面の正面方向を基準とする左、右であり、左シフト距離は仮想環境画面の左側に向かう方向に対応するシフト距離であり、右シフト距離は仮想環境画面の右側に向かう方向に対応するシフト距離である。
シフト比率は、マスター仮想キャラクタの位置と目標エリアの中心との距離である第1距離と、選択エリアの半径である第2距離との比であり、選択エリアは、エリアスキルインジケータが目標エリアを選択するために範囲を提供するためのものである。
図13に示すように、エリアスキルインジケータ65は選択エリア66の縁に位置し、エリアスキルインジケータの中心点をCとし、マスター仮想キャラクタの位置をAとし、選択エリア66における点をBとする。第1距離はACの距離であり、第2距離はABの距離であり、シフト比率はAC/ABである。一部の実施例において、マスター仮想キャラクタの位置が選択エリアの円心である場合、第2距離は選択エリアの半径であり、他の実施例において、マスター仮想キャラクタの位置が選択エリアの円心ではない場合、第2距離はマスター仮想キャラクタの位置と選択エリアの縁との距離である。
カメラモデルの横方向シフト量Xは、次の式
X=cosα×x×(AC/AB)
によって計算することができる。たたし、αは指示方向と水平方向の夾角であり、xは横方向シフト距離であり、該横方向シフト距離は一定値であり、AC/ABはシフト比率である。
2.夾角の正弦値と縦方向シフト距離とシフト比率との積から、縦方向シフト量を決める。
縦方向シフト距離は上シフト距離と下シフト距離のうちの少なくとも1つを含む。上、下とは、それぞれ仮想環境画面の正面方向を基準とする上、下であり、上シフト距離は仮想環境画面の上側に向かう方向に対応するシフト距離であり、下シフト距離は仮想環境画面の下側に向かう方向に対応するシフト距離である。
横方向シフト量の計算方法と同様に、カメラモデルの縦方向シフト量Yは、次の式
Y=sinα×y×(AC/AB)
によって計算することができる。ただし、αは指示方向と水平方向の夾角であり、yは縦方向シフト距離であり、該縦方向シフト距離は一定値であり、AC/ABはシフト比率である。
以上により、本実施例により提供される方法によれば、エリアインジケータによる指示方向に対応するパラメータ(指示方向と水平方向の夾角、指示方向に対応する一定のシフト距離およびシフト比率を含む)を取得して、カメラモデルの第2シフト量を計算することで、カメラモデルは、マスター仮想キャラクタがリリースするスキルの作用範囲に応じて、比率に従って移動することができ、インジケータ全体を仮想環境画面に表示することができ、ヒューマンコンピュータインタラクションの効率を向上させる。
上記実施例により提供されるカメラモデルを移動させることで第2仮想環境画面を表示する方法以外、一部の実施例において、カメラモデルに対応するレンズの焦点距離を変更することで、カメラモデルで撮影された仮想環境画面を変更してもよいし、または、カメラモデルの観察方向と仮想環境との角度、例えば仮想環境に対するカメラモデルのピッチ角とヨー角を変更することで、カメラモデルに異なる角度の観察方向から異なる仮想環境画面を撮影させてもよい。
本願の実施例では、仮想環境画面の表示方法のプロセスのフレームワークを提供し、図14に示すように、該方法のプロセスのフレームワークを次に説明する。
ステップ1401において、ユーザがマスター仮想キャラクタを仮想環境においてエリアスキルを使うように制御する場合、カメラモデルは、エリアスキルインジケータを自主的に照準する。
ステップ1402において、カメラモデルが移動する。
ステップ1403において、マスター仮想キャラクタがエリアスキルをリリースしたまたはエリアスキルのリリースを取り消した場合、カメラモデルが元の位置に戻る。
マスター仮想キャラクタがエリアスキルを使っていないときに対応する仮想環境画面、またはエリアスキルを1回使った後の終了時点に対応する仮想環境画面を撮影するカメラモデルに対応するカメラ位置は元の位置である。
一部の実施例において、カメラモデルにレンズが設けられており、実際の状況に応じてレンズを交換することによって、端末の表示スクリーンに異なる仮想環境画面を表示してもよい。例えば、仮想環境における仮想ユニットを拡大する対応レンズに交換することによって、仮想環境画面に表示される仮想ユニットを大きくしてもよい。
一部の実施例において、レンズアンカーによってカメラモデルの仮想環境における3次元位置座標を示す。本願の実施例において、カメラモデルのレンズアンカーは横座標と縦座標(即ち平面座標)のみが変更され、カメラモデルの高さ位置を示す座標が変更されず、即ち、カメラモデルと仮想環境との相対距離が変更されず、またはカメラモデルとマスター仮想キャラクタとの相対距離が変更されない。
カメラモデルのシフト量が大きい場合に表示される仮想環境画面によりユーザにめまいを引き起こすことを防止するために、通常、カメラモデルをシフトさせるときの最大距離が限定され、カメラモデルのシフト量が最大距離になった場合に、移動を停止させる。
一部の実施例において、カメラモデルが第2シフト形式で移動する場合、カメラモデルの高さ位置に対応する座標が変更されることがある。例えば、カメラモデルを高くしてカメラモデルと仮想環境との相対距離を大きくすることで、カメラモデルで撮影可能な仮想環境の面積を大きくし、仮想環境画面に表示される内容をより多くし、ユーザがマスター仮想キャラクタからより遠い仮想ユニット(仮想環境における他の仮想人物キャラクタまたは仮想物体)を視認できるようになることがある。
以上により、ユーザがマスター仮想キャラクタを仮想環境においてエリアスキルインジケータを用いるように制御する場合、カメラモデルがエリアスキルインジケータに自主的に追随することによって、ユーザは、インジケータ全体、即ちエリアスキルインジケータが照準する目標エリア全体を視認できるようになり、ヒューマンコンピュータインタラクションの効率を向上させる。
本願の実施例は、カメラモデルでシフト量を計算するときの次のシステムのフレームワークを提供する。
S1において、カメラモデルのスキルシフト量とグローバルシフト量を取得する。
カメラモデルユーティリティ1501(CameraActionUtils)は、レンズモジュールユーティリティとも呼ばれ、各種の操作に対応するインタフェースを外部に提供する。操作は移動、回転、カメラモデル持ち上げまたはレンズ持ち上げ等の操作を含む。
カメラモデルコントローラ1502(CameraController)は、レンズコントローラとも呼ばれ、主にカメラモデルまたはレンズの各種のデータを管理し、レンズモジュールユーティリティの内部のそれぞれのインタフェースを提供するためのものである。
カメラモデルソリューション1503(CameraAction)は、レンズソリューションとも呼ばれ、等速運動、差分運動、スムーズな減衰運動等のようなカメラモデルの移動時の各種のデータを設定するためのものである。
スキルシフト量処理1504a(LocalMoveComponent)は、マスター仮想キャラクタがスキルをリリースするとき、レンズソリューションからソリューションパラメータを取得し、目的とする位置に到達するまで、フレーム単位でカメラモデルを移動させるものである。スキルシフト量はシフト形式に応じて決められ、シフト形式は上記実施例における第1シフト形式と第2シフト形式のうちの少なくとも1つであってもよい。理解すべきこととして、該プロセスのフレームワークは、スキルシフト量に基づくシフトをデフォルトカメラ位置に戻すように制御するための軌跡リセット(SetLocalPosOff)1505aをさらに含む。
グローバルシフト量処理1504b(GlobalMoveComponent)は、図16に示すように、一般的なグローバルのドラッグ操作について、カメラモデルを制御してシフトさせるためのものである。グローバルシフト量はカメラモデルの制御コマンドに応じて決められ、制御コマンドは、マップドラッグコマンド、ミニマップ確認コマンド、仮想ユニット視点指定コマンド、弾追随コマンドのうちの少なくとも1つを含む。マップドラッグコマンドは、選択されたマップでの場所に対応する仮想環境画面の表示を切り替えるためのコマンドである。ミニマップ確認コマンドは、仮想環境を示すマップを開き、マップでの対応する仮想ユニットを確認するためのコマンドである。仮想ユニット視点指定コマンドは、マスター仮想キャラクタの死亡後、味方の視点で仮想環境の観察を続けるような、選択された仮想ユニットの視点で仮想環境を観察するためのコマンドである。弾追随コマンドは、マスター仮想キャラクタがリリースするスキルの作用範囲が大きい場合、またはリリースするスキルが弾を打つものである場合、スキルがリリースされるまで、カメラモデルをスキルの作用方向または飛行する弾に追随して移動させるためのコマンドである。理解すべきこととして、該プロセスのフレームワークは、グローバルシフト量に基づくシフトをデフォルトカメラ位置に戻すように制御するためのグローバルリセット(SetGlobalPosOff)1505bをさらに含む。
S2において、スキルシフト量とグローバルシフト量との合計をカメラモデルのシフト量として決める。
カメラモデルの移動時の衝突を減らすために、カメラモデルのシフト量をスキルシフト量とグローバルシフト量とに分ける。
スキルシフト量のフレームワークは、図17に示される。スキルシフト量とは、マスター仮想キャラクタがスキルをリリースするときにカメラモデルに発生するシフト量であり、スキルシフト量は、上記実施例に記載された第1シフト量と第2シフト量のうちの少なくとも1つを含み、他のシフト量をさらに含む。他のシフト量とは、マスター仮想キャラクタがリリースするスキルのタイプに応じて決められるカメラモデルのシフト量である。図18に示すように、マスター仮想キャラクタ80がスキルをリリースするときに、スキルの作用範囲が扇形であるため、該作用範囲に応じてカメラモデルを仮想環境画面の右下へシフトさせることによって、スキルインジケータ全体を仮想環境画面に表示する。
一部の実施例において、カメラモデルの最終シフト量はグローバルシフト量、スキルシフト量およびレンズ高さのうちの少なくとも1つを含む。
シフト量を得た後、カメラモデルをシフト量だけ移動させる必要がある。一部の実施例において、シフト形式に応じてカメラモデルの移動形式を取得し、移動形式は、等速運動、スムーズな減衰運動、差分運動のうちの少なくとも1つを含む。移動形式に応じてカメラモデルを制御して第1カメラ位置から第2カメラ位置に移動させる。
等速運動とは、設定された時間内でカメラモデルを制御して第1カメラ位置から第2カメラ位置に等速で移動させるものであり、この運動形式はリズムの変化が乏しい。
スムーズな減衰運動とは、ダンピング機能の関数を呼び出すことで得られる運動である。例えば、関数Vector3.SmoothDamp()によってカメラモデルの移動を制御する。これによって、カメラモデルは、移動中にオーバーシュート現象が発生することを回避する。
差分運動とは、前記カメラモデルの位置、目標位置および差分比率に応じた運動である。関数Vector3.Lerp(s,e,t)によってカメラモデルの移動を制御し、sが現在のシフト値であり、tが0から1へ変化し、1になると運動が終了する。
一例では、現在位置と目標位置の距離を10とし、差分比率を0.1とし、フレーム単位で現在位置から目標位置までの差分比率で移動する。例えば、第1フレームでは、現在位置0から10までの0.1、即ち1に移動する。第2フレームでは、現在位置1から10までの0.1、即ち1.9に移動する。第3フレームでは、現在位置1.9から10までの0.1、即ち2.71に移動する。以降同様である。
他の例では、移動の最小速度を設定し、現在の移動速度が該最小速度よりも小さい場合、最小速度でシフトさせる。
他の例では、差分比率増加量aを設定し、差分比率増加量aでフレームごとの差分比率を変更する。例えば、現在位置と目標位置の距離を10とし、差分比率を0.2とし、比率増加量を0.03とする。第1フレームでは、現在位置0から10までの0.2、即ち2に移動する。第2フレームでは、現在位置2から10までの0.23、即ち3.84に移動する。以降同様である。
図19に示すように、カメラモデルのシフト過程を3つの状態に分ける。
シフト量入力待機(IDLE)状態では、カメラモデルのシフト量が存在し、またはシフトが既に完成した。
遅延時間待機(FAR)状態では、ユーザがエリアスキルインジケータをドラッグするときにシフト量が発生する。
復帰時の遅延時間待機(BACK)状態では、マスター仮想キャラクタがエリアスキルをリリースした後にカメラモデルが原点に復帰する。
FarとBackは、いずれも移動ソリューションを指定可能であり、それぞれスキルのリリースとカメラモデルの復帰を表す。即ち、スキルを1回リリースするときに、2つのソリューションが用いられることがある。
それ以外、遅延時間(DelayTime)を設定してもよい。これによって、カメラモデルの状態をIDLEからFARに変更し、またはBACKからIDLEに戻すとき、カメラモデルが直ちにシフトすることなく、視覚的に緩和効果をもたらす。
以上により、グローバルシフト量とスキルシフト量との合計によってカメラモデルの総シフト量を計算し、ユーザがマップをスライドさせることで、カメラモデルで撮影された仮想環境画面を変更しながら、仮想環境画面を超えてエリアスキルインジケータを用いる場合、カメラモデルは上記2つのシフト量に基づいてカメラモデルの総シフト量を決める。これによって、異なる操作で発生するカメラモデルのシフト効果が衝突することなく、計算の難易度を低下させる。
上記実施例は、ゲームへの応用シーンに基づいて上記方法を説明したが、次に、軍事シミュレーションへの応用シーンに基づいて上記方法を例示的に説明する。
ミュレーション技術は、アプリケーションおよびハードウェアが現実世界を模擬する実験によって、システムの行為または過程を反映するモデリング技術である。
軍事シミュレーションプログラムは、ミュレーション技術によって軍事応用のために特化して構築されるプログラムであり、海、陸、空等の作戦要素、武器装備性能および作戦行動等を数値化して分析することによって、戦場の環境を正確に模擬し、戦場の情勢を表し、作戦体系に対する評価と戦略決定への寄与を実現する。
一例では、兵士は、軍事シミュレーションプログラムの端末で仮想の戦場を構築し、チームを組んで対戦する。兵士は、仮想戦場環境におけるマスター仮想キャラクタを、仮想戦場環境において立つ、しゃがむ、座る、仰向けになる、うつぶせになる、横向きになる、歩く、走る、よじ登る、運転する、射撃する、投げる、攻撃する、ダメージを受ける、偵察する、近接格闘するといった動作のうちの少なくとも1つの操作を行うように制御する。仮想戦場環境は、平地、山河、高原、盆地、砂漠、河川、湖、海、植生のうちの少なくとも1つ自然形態、および建物、交通機関、廃墟、訓練場等の場所形態を含む。マスター仮想キャラクタは、仮想人物キャラクタ、仮想動物キャラクタ、アニメキャラクタ等を含み、仮想キャラクタのそれぞれは、3次元仮想環境において独自の形状および体積を持ち、3次元仮想環境における空間の一部を占める。
上記状況に基づいて、一例では、仮想環境において、2隊の兵士によって制御されるマスター仮想キャラクタが対戦する。例示的に、第1隊には、兵士Aによって制御されるマスター仮想キャラクタaが存在し、第2隊には、兵士Bによって制御されるマスター仮想キャラクタbが存在する。仮想環境にカメラモデルが設けられており、該カメラモデルによって、兵士が視認可能な仮想環境画面を撮影する。
マスター仮想キャラクタaの位置する仮想環境は第1仮想環境画面に対応し、該第1仮想環境画面は第1観察位置を観察中心とした仮想環境画面であり、該第1観察位置に対応するカメラモデルが第1カメラ位置に位置する。兵士Aは、マスター仮想キャラクタaを、兵士Bによって制御されるマスター仮想キャラクタbを攻撃するように制御するが、マスター仮想キャラクタbが第1仮想環境画面に位置していない。兵士Aは、エリアスキルをリリースするための照準操作を行い、マスター仮想キャラクタaを、仮想環境において仮想キャラクタbの位置するエリアを選択してエリアスキルインジケータを配置するように制御する。
例示的に、カメラモデルは兵士Aの操作に追随して、第1シフト形式でシフトする。仮想環境には、兵士Aが視認不能な視野判定枠が設けられ、該視野判定枠は、カメラモデルの観察中心を中心点とし、水平面に平行する矩形であり、カメラモデルの観察方向に垂直な少なくとも1本の枠線がある。エリアスキルインジケータの中心には、エリア参照点が設けられており、例示的に、該エリアスキルインジケータは円形であり、エリア参照点はエリアスキルインジケータの円心である。エリアスキルインジケータの円心が視野判定枠を超えた場合、エリア参照点から視野判定枠の枠線までの距離を計算し、該距離はカメラモデルのシフト量であり、第1横方向シフト距離と第1縦方向シフト距離のうちの少なくとも1つを含む。
カメラモデルは、シフト距離に応じて第1カメラ位置から第2カメラ位置に切り替え、第2カメラ位置は第2観察位置に対応し、第2観察位置を観察中心として第2仮想環境画面を表示する。兵士Aは、第2仮想環境画面を介してエリアスキルインジケータで選択される目標エリアを視認し、エリアスキルインジケータをリリースしてマスター仮想キャラクタbを攻撃することができる。
例示的に、カメラモデルは兵士Aの操作に追随して第2シフト形式でシフトする。仮想環境において選択エリアが表示され、該選択エリアはエリアスキルインジケータが目標エリアを選択する範囲である。マスター仮想キャラクタaは、エリアスキルインジケータによってマスター仮想キャラクタbに対して作用範囲の遠いエリアスキルをリリースする。例示的に、該エリアスキルインジケータは円形であり、エリア参照点はエリアスキルインジケータの円心であり、選択エリアも円形である。
カメラモデルは、兵士Aの操作に応じて、エリアスキルインジケータの指示方向および指示方向と水平方向との夾角を決め、指示方向に応じて、カメラモデルのシフト方向における対応する一定のシフト距離を決め、該一定のシフト距離は第2横方向シフト距離と第2縦方向シフト距離のうちの少なくとも1つを含む。シフト方向、一定のシフト距離およびシフト比率から、カメラモデルのシフト量を計算する。カメラモデルのシフト量は横方向シフト量と縦方向シフト量のうちの少なくとも1つを含む。
横方向シフト量は、指示方向と水平方向との間に対応する夾角の余弦値と第2横方向シフト距離とシフト比率との積であり、次の式
横方向シフト量=cosα×第2横方向シフト距離×(E/F)
によって表される。ただし、αがシフト方向と水平方向の夾角であり、Eがマスター仮想キャラクタとエリア参照点との距離であり、Fが選択エリアの半径であり、E/Fがシフト比率である。
縦方向シフト量は、シフト方向と水平方向との間に対応する夾角の正弦値と第2縦方向シフト距離とシフト比率との積であり、次の式
縦方向シフト量=sinα×第2縦方向シフト距離×(E/F)
によって表される。ただし、αがシフト方向と水平方向の夾角であり、Eがマスター仮想キャラクタとエリア参照点との距離であり、Fが選択エリアの半径であり、E/Fがシフト比率である。
カメラモデルは、シフト量に応じて第1カメラ位置から第2カメラ位置に切り替え、第2カメラ位置は第2観察位置に対応し、第2観察位置を中心として第2仮想環境画面を表示する。兵士Aは、第2仮想環境画面を介してエリアスキルインジケータで選択される目標エリアを視認し、攻撃しようとするマスター仮想キャラクタbを正確に照準することができる。
以上により、本実施例において、上記仮想環境画面の表示方法を軍事ミュレーションプログラムに応用する場合、カメラモデルをエリアスキルインジケータで選択される目標エリアに応じてシフトさせることで、兵士は、照準エリアを視認することができ、兵士による照準時の正確率を向上させ、実戦現場をより真実に模擬し、兵士により良い訓練を提供する。
以下、本願の装置実施例について説明する。装置実施例において詳しく説明されない点について、上記方法実施例における対応する記載を参照してもよく、ここでは重複して述べない。
図20は本願の例示的な一実施例により提供される仮想環境画面の表示装置の構造模式図である。該装置は、ソフトウェア、ハードウェアまたは両者の組み合わせによって端末の全部または一部として実現されてもよい。該装置は表示モジュール2010を備える。
表示モジュール2010は、第1観察位置を観察中心として仮想環境を観察して得られる第1エリアを含む第1仮想環境画面を表示するためのものであり、第1仮想環境画面に、仮想環境に位置するマスター仮想キャラクタが表示されている。
前記表示モジュール2010は、照準操作を受信したことに応答して、目標エリアを選択するためのエリアスキルインジケータを表示するためのものであり、エリアスキルインジケータは、仮想環境において、マスター仮想キャラクタがスキルをリリースするときのスキル作用エリアである目標エリアをマークするためのものである。
前記表示モジュール2010は、第2観察位置を観察中心として仮想環境を観察して得られる第2エリアを含む第2仮想環境画面を表示するためのものであり、第2観察位置は第1観察位置に対してシフトした位置であり、第2エリアは目標エリアを含む。
任意の実施例において、仮想環境に、前記仮想環境を観察して仮想環境画面を取得するためのカメラモデルが設けられており、前記表示モジュール2010は制御ユニット2020を備える。
前記制御ユニット2020は、シフト形式に応じてカメラモデルを第1観察位置に対応する第1カメラ位置から第2観察位置に対応する第2カメラ位置に移動させるためのものである。カメラモデルが位置する第2カメラ位置に応じて、第2仮想環境画面を表示する。
任意の実施例において、シフト形式は第1シフト形式を含み、第1シフト形式は、カメラモデルの視野範囲を表現するための視野判定枠に基づいてカメラモデルをシフトさせる形式であり、該装置は計算モジュール2030を備える。
前記計算モジュール2030は、目標エリアの中心点に基づいて決められたエリア参照点が再び視野判定枠の外に位置することに応答して、エリア参照点と視野判定枠の枠線との距離から、カメラモデルの第1シフト形式での第1シフト量を決めるためのものである。前記制御ユニット2020は、第1シフト量に応じてカメラモデルを第1カメラ位置から第2カメラ位置に移動させるためのものである。
任意の実施例において、前記計算モジュール2030は、エリア参照点が視野判定枠の外に位置することに応答して、エリア参照点と視野判定枠の枠線との垂直距離を計算するためのものであり、垂直距離は、エリア参照点と視野判定枠の縦方向枠線との垂直距離である横方向垂直距離と、エリア参照点と視野判定枠の横方向枠線との垂直距離である縦方向垂直距離のうちの少なくとも1つを含む。前記制御ユニット2020は、垂直距離をカメラモデルの第1シフト形式での第1シフト量として決めるためのものである。
任意の実施例において、前記制御ユニット2020は、エリア参照点が再び視野判定枠内に位置することに応答して、カメラモデルを第2カメラ位置から第3カメラ位置に移動させるためのものであり、第3カメラ位置は、第2カメラ位置と第1カメラ位置との間に位置し、第3観察位置に対応するものである。前記表示モジュール2010は、第3カメラ位置に位置するカメラモデルに応じて第3仮想環境画面を表示するためのものであり、第3仮想環境画面は第3観察位置を観察中心として仮想環境を観察して得られる第3エリアを含み、第3エリアは目標エリアを含む。
任意の実施例において、シフト形式は、指示方向に基づいてシフトする形式である第2シフト形式を含み、指示方向はマスター仮想キャラクタの位置から目標エリアの中心点に指向する方向である。該装置は計算モジュール2030を備える。
前記計算モジュール2030は、指示方向に応じてカメラモデルの第2シフト形式での第2シフト量を決めるためのものである。
前記制御ユニット2020は、第2シフト量に応じてカメラモデルを第1カメラ位置から第2カメラ位置に移動させるためのものである。
任意の実施例において、前記計算モジュール2030は取得ユニット2040を備える。
前記取得ユニット2040は、指示方向と、仮想環境における水平面に平行するとともにカメラモデルの観察方向に垂直な水平方向との夾角を取得し、カメラモデルの指示方向に対応する一定のシフト距離を取得し、カメラモデルの第2シフト形式でのシフト比率を取得するためのものであり、シフト比率はカメラモデルを比率に従って移動させるように指示するためのものである。前記計算モジュール2030は、夾角、一定のシフト距離およびシフト比率に基づいて第2シフト量を決めるためのものである。
任意の実施例において、第2シフト量は横方向シフト量を含み、一定のシフト距離は横方向シフト距離を含む。
前記計算モジュール2030は、夾角の余弦値と横方向シフト距離とシフト比率との積から、横方向シフト量を決めるためのものであり、シフト比率は、マスター仮想キャラクタの位置と目標エリアの中心との距離である第1距離と、選択エリアの半径である第2距離との比であり、選択エリアは、エリアスキルインジケータが目標エリアを選択するために選択範囲を提供するためのものである。
任意の実施例において、第2シフト量は縦方向シフト量を含み、一定のシフト距離は縦方向シフト距離を含む。
前記計算モジュール2030は、夾角の正弦値と縦方向シフト距離とシフト比率との積から、縦方向シフト量を決めるためのものであり、シフト比率は、マスター仮想キャラクタの位置と目標エリアの中心との距離である第1距離と、選択エリアの半径である第2距離との比であり、選択エリアは、エリアスキルインジケータが目標エリアを選択するために選択範囲を提供するためのものである。
任意の実施例において、前記制御ユニット2020は、シフト形式に応じてカメラモデルの移動形式を取得するためのものである。移動形式は、等速運動、差分運動、スムーズな減衰運動のうちのいずれか1つを含む。移動形式に応じて、カメラモデルを制御して第1カメラ位置から第2カメラ位置に移動させる。
任意の実施例において、シフト形式はカメラモデルのシフト量に対応する。
前記取得ユニット2040は、カメラモデルのスキルシフト量とグローバルシフト量を取得するためのものである。スキルシフト量はシフト形式に応じて決められ、グローバルシフト量はカメラモデルの制御コマンドに応じて決められる。制御コマンドは、マップドラッグコマンド、ミニマップ確認コマンド、仮想ユニット視点指定コマンドのうちの少なくとも1つを含む。スキルシフト量とグローバルシフト量との合計をカメラモデルのシフト量として決める。
本願の例示的な一実施例により提供されるコンピュータ機器2100の構造ブロック図を示す図21を参照する。該コンピュータ機器2100は、スマートフォン、タブレット、MP3(Moving Picture Experts Group Audio Layer III,ムービング・ピクチャ・エクスパーツ・グループ・オーディオレイヤ3)プレーヤー、MP4(Moving Picture Experts Group Audio Layer IV,ムービング・ピクチャ・エクスパーツ・グループ・オーディオレイヤ4)プレーヤーのような携帯型モバイル端末であってもよい。コンピュータ機器2100は、ユーザ機器、携帯型端末等の他の名称で呼ばれることもある。
通常、コンピュータ機器2100は、プロセッサ2101とメモリ2102とを備える。
プロセッサ2101は、1つまたは複数のプロセッサコアを含んでもよく、例えば、4コアプロセッサ、8コアプロセッサ等であってもよい。プロセッサ2101は、DSP(Digital Signal Processing,デジタル信号処理)、FPGA(Field Programmable Gate Array,フィールド・プログラマブル・ゲート・アレイ)、PLA(Programmable Logic Array,プログラマブル・ロジック・アレイ)のうちの少なくとも一種のハードウェアとして実現してもよい。プロセッサ2101は、ホストプロセッサとコプロセッサを含んでもよい。ホストプロセッサは、ウェイクアップ状態のデータを処理するためのプロセッサであり、CPU(Central Processing Unit,中央処理装置)とも呼ばれる。コプロセッサは、待機状態のデータを処理するための低消費電力プロセッサである。一部の実施例において、プロセッサ2101に、表示スクリーンに表示する必要があるコンテンツのレンダリングおよびプロットを行うためのGPU(Graphics Processing Unit,グラフィックスプロセッシングユニット)が集積されていてもよい。一部の実施例において、プロセッサ2101は、機械学習に関する計算操作を処理するためのAI(Artificial Intelligence,人工知能)プロセッサをさらに含んでもよい。
メモリ2102は、1つまたは複数のコンピュータ読み取り可能な記憶媒体を含んでもよい。該コンピュータ読み取り可能な記憶媒体は有形で非一過性のものであってもよい。メモリ2102は、高速ランダムアクセスメモリおよび不揮発性メモリ、例えば、1つまたは複数の磁気ディスク記憶装置、フラッシュメモリ記憶装置をさらに含んでもよい。一部の実施例において、メモリ2102における非一過性のコンピュータ読み取り可能な記憶媒体は、プロセッサ2101によって実行されることで、本願の実施例により提供される仮想環境画面の表示方法を実現する少なくとも1つのコマンドを記憶するためのものである。
一部の実施例において、コンピュータ機器2100は、任意に、周辺機器インタフェース2103および少なくとも1つの周辺機器をさらに備えてもよい。具体的に、周辺機器は、RF回路2104、タッチスクリーン2105、カメラアセンブリ2106、オーディオ回路2107、測位アセンブリ2108および電源2109のうちの少なくとも1つを含んでもよい。
周辺機器インタフェース2103は、I/O(Input/Output,入力/出力)に関する少なくとも1つの周辺機器をプロセッサ2101およびメモリ2102に接続するために用いてもよい。一部の実施例において、プロセッサ2101、メモリ2102および周辺機器インタフェース2103は、同一のチップまたは回路基板に集積される。他の実施例において、プロセッサ2101、メモリ2102および周辺機器インタフェース2103のうちのいずれか1つまたは2つは、独立したチップまたは回路基板において実現されてもよいが、本実施例において、これを限定しない。
RF回路2104は、電磁気信号とも呼ばれるRF(Radio Frequency,無線周波数)信号を送受信するためのものである。RF回路2104は、電磁気信号によって通信ネットワークおよび他の通信機器と通信する。RF回路2104は、電気信号を電磁気信号に変換して送信する、または、受信した電磁気信号を電気信号に変換する。任意に、RF回路2104は、アンテナシステム、RF送受信機、1つまたは複数のアンプ、チューナ、発振器、デジタル信号プロセッサ、コーデックチップセット、ユーザ加入識別モジュールカード等を含む。RF回路2104は、少なくとも1つの無線通信プロトコルによって他の端末と通信してもよい。該無線通信プロトコルは、ワールド・ワイド・ウェブ、メトロポリタンエリアネットワーク、イントラネット、各世代のモバイル通信ネットワーク(2G、3G、4Gおよび5G)、無線ローカルエリアネットワークおよび/またはWiFi(Wireless Fidelity,ワイヤレス・フィディリティ)ネットワークを含むが、これらに限られない。一部の実施例において、RF回路2104は、NFC(Near Field Communication,近距離無線通信)に関連する回路を含んでもよいが、本願において、これを限定しない。
タッチスクリーン2105は、UI(User Interface,ユーザインタフェース)を表示するためのものである。該UIは、図形、テキスト、アイコン、ビデオおよびそれらの任意の組合せを含んでもよい。タッチスクリーン2105は、タッチスクリーン2105の表面または表面の上方のタッチ信号を収集する能力をさらに有する。該タッチ信号は制御信号としてプロセッサ2101に入力されて処理されてもよい。タッチスクリーン2105は、ソフトボタンおよび/またはソフトキーボードとも呼ばれる仮想ボタンおよび/または仮想キーボードを提供するためのものである。一部の実施例において、タッチスクリーン2105は、コンピュータ装機器2100の前面板に設けられる1つのタッチスクリーンであってもよい。他の実施例において、タッチスクリーン2105は、それぞれコンピュータ機器2100の異なる表面に設けられ、または折り畳み型の少なくとも2つのタッチスクリーンであってもよい。さらに他の実施例において、タッチスクリーン2105は、コンピュータ機器2100の湾曲表面または折り畳み面に設けられるフレキシブル表示スクリーンであってもよい。さらに、タッチスクリーン2105は、非矩形の不規則な図形、即ち異形スクリーンとしてもよい。タッチスクリーン2105は、LCD(Liquid Crystal Display,液晶表示ディスプレイ)、OLED(Organic Light-Emitting Diode,有機発光ダイオード)等の材質により製造されてもよい。
一部の実施例において、コンピュータ機器2100は1つまたは複数のセンサ2110を有する。該1つまたは複数のセンサ2110は、加速度センサ2111、ジャイロセンサ2112、圧力センサ2113、指紋センサ2114、光学センサ2115および近接センサ2116を含むが、これらに限定されない。
圧力センサ2113は、コンピュータ機器2100のサイドフレームおよび/またはタッチスクリーン2105の下層に設けられてもよい。圧力センサ2113がコンピュータ機器2100のサイドフレームに設けられた場合、ユーザのコンピュータ機器2100に対する把持信号を検出し、該把持信号によって左右手の識別またはショットカット操作をすることができる。圧力センサ2113がタッチスクリーン2105の下層に設けられた場合、ユーザのタッチスクリーン2105に対する圧力操作に応じて、UIインタフェースにおける操作可能なウィジェットを制御することができる。操作可能なウィジェットは、ボタンウィジェット、スクロールバーウィジェット、アイコンウィジェット、メニューウィジェットのうちの少なくとも1つを含む。
当業者であれば、コンピュータ機器2100は、図21に示す構造によって限定されず、図示よりも多いまたは少ないアセンブリを含み、あるいは一部のアセンブリを組み合わせ、あるいは異なるアセンブリ配置にしてもよいことを理解することができる。
本願の実施例は、プロセッサと、少なくとも1つのコマンド、少なくとも1つのプログラム、コードセットまたはコマンドセットが記憶されているメモリと、を備え、該少なくとも1つのコマンド、少なくとも1つのプログラム、コードセットまたはコマンドセットは、プロセッサによってロードされて実行されることで、上記各方法実施例により提供される仮想環境画面の表示方法を実現するコンピュータ機器をさらに提供する。
本願の実施例は、プロセッサによってロードされて実行されることで、上記各方法実施例により提供される仮想環境画面の表示方法を実現する少なくとも1つのコマンド、少なくとも1つのプログラム、コードセットまたはコマンドセットが記憶されているコンピュータ読み取り可能な記憶媒体をさらに提供する。
本願は、コンピュータ読み取り可能な記憶媒体に記憶されているコンピュータコマンドを含むコンピュータプログラム製品またはコンピュータプログラムを提供する。コンピュータ機器のプロセッサは、前記コンピュータ読み取り可能な記憶媒体から前記コンピュータコマンドを読み取り、前記プロセッサは前記コンピュータコマンドを実行することによって、前記コンピュータ機器に上記各方法実施例により提供される仮想環境画面の表示方法を実行させる。
1 コンピュータシステム
120 第1端末
140 サーバ
142 メモリ
1421 受信モジュール
1422 制御モジュール
1423 送信モジュール
144 プロセッサ
160 第2端末
1501 カメラモデルユーティリティ
1502 カメラモデルコントローラ
1503 カメラモデルソリューション
1504a スキルシフト量処理
1504b グローバルシフト量処理
1505a 軌跡リセット
1505b グローバルリセット
2010 表示モジュール
2020 制御ユニット
2030 計算モジュール
2040 取得ユニット
2100 コンピュータ機器
2101 プロセッサ
2102 メモリ
2103 周辺機器インタフェース
2104 無線周波数(RF)回路
2105 タッチスクリーン
2106 カメラアセンブリ
2107 オーディオ回路
2108 測位アセンブリ
2109 電源
2110 センサ
2111 加速度センサ
2112 ジャイロセンサ
2113 圧力センサ
2114 指紋センサ
2115 光学センサ
2116 近接センサ

Claims (20)

  1. クライアントによって実行される仮想環境画面の表示方法であって、
    第1観察位置を観察中心として仮想環境を観察して得られる第1エリアを含む第1仮想環境画面を表示するステップであって、前記第1仮想環境画面に、前記仮想環境に位置するマスター仮想キャラクタが表示されている、ステップと、
    照準操作を受信したことに応答して、目標エリアを選択するためのエリアスキルインジケータを表示するステップであって、前記エリアスキルインジケータは、前記仮想環境において、前記マスター仮想キャラクタがスキルをリリースするときのスキル作用エリアである前記目標エリアをマークするためのものである、ステップと、
    第2観察位置を観察中心として前記仮想環境を観察して得られる第2エリアを含む第2仮想環境画面を表示するステップであって、前記第2観察位置は前記第1観察位置に対してシフトした位置であり、前記第2エリアは前記目標エリアを含む、ステップと、を含むことを特徴とする方法。
  2. 前記仮想環境に、前記仮想環境を観察して前記仮想環境画面を取得するためのカメラモデルが設けられており、
    第2仮想環境画面を表示する前記ステップは、
    シフト形式に応じて、前記カメラモデルを、前記第1観察位置に対応する第1カメラ位置から前記第2観察位置に対応する第2カメラ位置に移動させるステップと、
    前記カメラモデルの位置する前記第2カメラ位置に応じて、前記第2仮想環境画面を表示するステップと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記シフト形式は第1シフト形式を含み、前記第1シフト形式は、前記カメラモデルの視野範囲を表現するための視野判定枠に基づいて前記カメラモデルをシフトさせる形式であり、
    シフト形式に応じて前記カメラモデルを第1カメラ位置から第2カメラ位置に移動させる前記ステップは、
    前記目標エリアの中心点に基づいて決められたエリア参照点が前記視野判定枠の外に位置することに応答して、前記エリア参照点と前記視野判定枠の枠線との距離から、前記カメラモデルの前記第1シフト形式での第1シフト量を決めるステップと、
    前記第1シフト量に応じて、前記カメラモデルを前記第1カメラ位置から前記第2カメラ位置に移動させるステップと、を含むことを特徴とする請求項2に記載の方法。
  4. エリア参照点が前記視野判定枠の外に位置することに応答して、前記エリア参照点と前記視野判定枠の枠線との距離から、前記カメラモデルの前記第1シフト形式での第1シフト量を決める前記ステップは、
    前記エリア参照点が前記視野判定枠の外に位置することに応答して、前記エリア参照点と前記視野判定枠の枠線との垂直距離を計算するステップであって、前記垂直距離は、前記エリア参照点と前記視野判定枠の縦方向枠線との垂直距離である横方向垂直距離と、前記エリア参照点と前記視野判定枠の横方向枠線との垂直距離である縦方向垂直距離とのうちの少なくとも1つを含む、ステップと、
    前記垂直距離を前記カメラモデルの前記第1シフト形式での第1シフト量として決めるステップと、を含むことを特徴とする請求項3に記載の方法。
  5. 前記エリア参照点が再び前記視野判定枠の内に位置することに応答して、前記カメラモデルを前記第2カメラ位置から第3カメラ位置に移動させるステップであって、前記第3カメラ位置は、前記第2カメラ位置と前記第1カメラ位置との間に位置し、第3観察位置に対応するものである、ステップと、
    前記第3カメラ位置に位置する前記カメラモデルに応じて第3仮想環境画面を表示するステップであって、前記第3仮想環境画面は前記第3観察位置を観察中心として前記仮想環境を観察して得られる第3エリアを含み、前記第3エリアは前記目標エリアを含む、ステップと、をさらに含むことを特徴とする請求項3に記載の方法。
  6. 前記シフト形式は、指示方向に基づいてシフトする形式である第2シフト形式を含み、前記指示方向は前記マスター仮想キャラクタの位置から前記目標エリアの中心点に指向する方向であり、
    前記シフト形式に応じて前記カメラモデルを第1カメラ位置から第2カメラ位置に移動させる前記ステップは、
    前記指示方向に応じて前記カメラモデルの前記第2シフト形式での第2シフト量を決めるステップと、
    前記第2シフト量に応じて前記カメラモデルを前記第1カメラ位置から前記第2カメラ位置に移動させるステップと、を含むことを特徴とする請求項2に記載の方法。
  7. 前記指示方向に応じて前記カメラモデルの前記第2シフト形式での第2シフト量を決める前記ステップは、
    前記指示方向と、前記仮想環境における水平面に平行するとともに前記カメラモデルの観察方向に垂直な水平方向との夾角を取得するステップと、
    前記カメラモデルの前記指示方向に対応する一定のシフト距離を取得するステップと、
    前記カメラモデルの前記第2シフト形式でのシフト比率を取得するステップであって、前記シフト比率は前記カメラモデルを比率に従って移動させるように指示するためのものである、ステップと、
    前記夾角、前記一定のシフト距離および前記シフト比率に基づいて前記第2シフト量を決めるステップと、を含むことを特徴とする請求項6に記載の方法。
  8. 前記第2シフト量は横方向シフト量を含み、前記一定のシフト距離は横方向シフト距離を含み、
    前記夾角、前記一定のシフト距離および前記シフト比率に基づいて前記第2シフト量を決める前記ステップは、
    前記夾角の余弦値と前記横方向シフト距離と前記シフト比率との積から、前記横方向シフト量を決めるステップを含み、前記シフト比率は、前記マスター仮想キャラクタの位置と前記目標エリアの中心との距離である第1距離と、選択エリアの半径である第2距離との比であり、前記選択エリアは、前記エリアスキルインジケータが前記目標エリアを選択するために選択範囲を提供するためのものであることを特徴とする請求項7に記載の方法。
  9. 前記第2シフト量は縦方向シフト量を含み、前記一定のシフト距離は縦方向シフト距離を含み、
    前記夾角、前記一定のシフト距離および前記シフト比率に基づいて前記第2シフト量を決める前記ステップは、
    前記夾角の正弦値と前記縦方向シフト距離と前記シフト比率との積から、前記縦方向シフト量を決めるステップを含み、前記シフト比率は、前記マスター仮想キャラクタの位置と前記目標エリアの中心との距離である第1距離と、選択エリアの半径である第2距離との比であり、前記選択エリアは、エリアスキルインジケータが前記目標エリアを選択するために選択範囲を提供するためのものであることを特徴とする請求項7に記載の方法。
  10. 仮想環境画面の表示装置であって、
    第1観察位置を観察中心として仮想環境を観察して得られる第1エリアを含む第1仮想環境画面を表示するための表示モジュールを備え、前記第1仮想環境画面に、前記仮想環境に位置するマスター仮想キャラクタが表示されており、
    前記表示モジュールは、照準操作を受信したことに応答して、目標エリアを選択するためのエリアスキルインジケータを表示するためのものであり、前記エリアスキルインジケータは、前記仮想環境において、前記マスター仮想キャラクタがスキルをリリースするときのスキル作用エリアである前記目標エリアをマークするためのものであり、
    前記表示モジュールは、第2観察位置を観察中心として前記仮想環境を観察して得られる第2エリアを含む第2仮想環境画面を表示するためのものであり、前記第2観察位置は前記第1観察位置に対してシフトした位置であり、前記第2エリアは前記目標エリアを含むことを特徴とする装置。
  11. 前記仮想環境に、前記仮想環境を観察して前記仮想環境画面を取得するためのカメラモデルが設けられており、前記表示モジュールは制御ユニットを備え、
    前記制御ユニットは、シフト形式に応じて前記カメラモデルを、前記第1観察位置に対応する第1カメラ位置から前記第2観察位置に対応する第2カメラ位置に移動させ、前記カメラモデルの位置する前記第2カメラ位置に応じて、前記第2仮想環境画面を表示するためのものであることを特徴とする請求項10に記載の装置。
  12. 前記シフト形式は第1シフト形式を含み、前記第1シフト形式は、前記カメラモデルの視野範囲を表現するための視野判定枠に基づいて前記カメラモデルをシフトさせる形式であり、前記装置は、計算モジュールをさらに備え、
    前記計算モジュールは、前記目標エリアの中心点に基づいて決められたエリア参照点が再び前記視野判定枠の外に位置することに応答して、前記エリア参照点と前記視野判定枠の枠線との距離から、前記カメラモデルの前記第1シフト形式での第1シフト量を決めるためのものであり、
    前記制御ユニットは、前記第1シフト量に応じて、前記カメラモデルを前記第1カメラ位置から前記第2カメラ位置に移動させるためのものであることを特徴とする請求項11に記載の装置。
  13. 前記計算モジュールは、前記エリア参照点が前記視野判定枠の外に位置することに応答して、前記エリア参照点と前記視野判定枠の枠線との垂直距離を計算するためのものであり、前記垂直距離は、前記エリア参照点と前記視野判定枠の縦方向枠線との垂直距離である横方向垂直距離と、前記エリア参照点と前記視野判定枠の横方向枠線との垂直距離である縦方向垂直距離とのうちの少なくとも1つを含み、
    前記制御ユニットは、前記垂直距離を前記カメラモデルの前記第1シフト形式での前記第1シフト量として決めるためのものであることを特徴とする請求項12に記載の装置。
  14. 前記制御ユニットは、前記エリア参照点が再び前記視野判定枠の内に位置することに応答して、前記カメラモデルを前記第2カメラ位置から第3カメラ位置に移動させるためのものであり、第3カメラ位置は、前記第2カメラ位置と前記第1カメラ位置との間に位置し、第3観察位置に対応するものであり、
    前記表示モジュールは、前記第3カメラ位置に位置する前記カメラモデルに応じて第3仮想環境画面を表示するためのものであり、前記第3仮想環境画面は前記第3観察位置を観察中心として前記仮想環境を観察して得られる第3エリアを含み、前記第3エリアは前記目標エリアを含むことを特徴とする請求項12に記載の装置。
  15. 前記シフト形式は、指示方向に基づいてシフトする形式である第2シフト形式を含み、前記指示方向は前記マスター仮想キャラクタの位置から前記目標エリアの中心点に指向する方向であり、前記装置は、計算モジュールをさらに備え、
    前記計算モジュールは、前記指示方向に応じて前記カメラモデルの前記第2シフト形式での第2シフト量を決めるためのものであり、
    前記制御ユニットは、前記第2シフト量に応じて前記カメラモデルを前記第1カメラ位置から前記第2カメラ位置に移動させるためのものであることを特徴とする請求項11に記載の装置。
  16. 前記計算モジュールは取得ユニットを備え、
    前記取得ユニットは、前記指示方向と、前記仮想環境における水平面に平行するとともに前記カメラモデルの観察方向に垂直な水平方向との夾角を取得し、前記カメラモデルの前記指示方向に対応する一定のシフト距離を取得し、前記カメラモデルの前記第2シフト形式でのシフト比率を取得するためのものであり、前記シフト比率は前記カメラモデルを比率に従って移動させるように指示するためのものであり、
    前記計算モジュールは、前記夾角、前記一定のシフト距離および前記シフト比率に基づいて前記第2シフト量を決めるためのものであることを特徴とする請求項15に記載の装置。
  17. 前記第2シフト量は横方向シフト量を含み、前記一定のシフト距離は横方向シフト距離を含み、
    前記計算モジュールは、前記夾角の余弦値と前記横方向シフト距離と前記シフト比率との積から、前記横方向シフト量を決めるためのものであり、前記シフト比率は、前記マスター仮想キャラクタの位置と前記目標エリアの中心との距離である第1距離と、選択エリアの半径である第2距離との比であり、前記選択エリアは、前記エリアスキルインジケータが前記目標エリアを選択するために選択範囲を提供するためのものであることを特徴とする請求項16に記載の装置。
  18. 前記第2シフト量は縦方向シフト量を含み、前記一定のシフト距離は縦方向シフト距離を含み、
    前記計算モジュールは、前記夾角の正弦値と前記縦方向シフト距離と前記シフト比率との積から、前記縦方向シフト量を決めるためのものであり、前記シフト比率は、前記マスター仮想キャラクタの位置と前記目標エリアの中心との距離である第1距離と、選択エリアの半径である第2距離との比であり、前記選択エリアは、前記エリアスキルインジケータが前記目標エリアを選択するために選択範囲を提供するためのものであることを特徴とする請求項16に記載の装置。
  19. プロセッサと、少なくとも1つのコマンド、少なくとも1つのプログラム、コードセットまたはコマンドセットが記憶されているメモリと、を備え、前記コマンド、前記プログラム、前記コードセットまたは前記コマンドセットは、前記プロセッサによってロードされて実行されることで、請求項1から11のいずれか一項に記載の方法を実現することを特徴とするコンピュータ機器。
  20. プロセッサによってロードされて実行されることで、請求項1から11のいずれか一項に記載の方法を実現する少なくとも1つのコマンド、少なくとも1つのプログラム、コードセットまたはコマンドセットが記憶されていることを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2021564807A 2020-04-09 2021-03-11 仮想環境画面の表示方法、装置、機器およびコンピュータプログラム Pending JP2022531770A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010275730.8A CN111481934B (zh) 2020-04-09 2020-04-09 虚拟环境画面的显示方法、装置、设备及存储介质
CN202010275730.8 2020-04-09
PCT/CN2021/080258 WO2021203904A1 (zh) 2020-04-09 2021-03-11 虚拟环境画面的显示方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
JP2022531770A true JP2022531770A (ja) 2022-07-11

Family

ID=71798367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021564807A Pending JP2022531770A (ja) 2020-04-09 2021-03-11 仮想環境画面の表示方法、装置、機器およびコンピュータプログラム

Country Status (6)

Country Link
US (2) US11847734B2 (ja)
JP (1) JP2022531770A (ja)
KR (1) KR102645534B1 (ja)
CN (1) CN111481934B (ja)
SG (1) SG11202111549TA (ja)
WO (1) WO2021203904A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111481934B (zh) * 2020-04-09 2023-02-10 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法、装置、设备及存储介质
CN111921191B (zh) * 2020-08-27 2023-10-13 腾讯科技(深圳)有限公司 状态图标的显示方法、装置、终端及存储介质
CN112245920A (zh) * 2020-11-13 2021-01-22 腾讯科技(深圳)有限公司 虚拟场景的显示方法、装置、终端及存储介质
JP6928709B1 (ja) * 2020-12-28 2021-09-01 プラチナゲームズ株式会社 情報処理プログラム、情報処理装置、および情報処理方法
CN113379870A (zh) * 2021-03-12 2021-09-10 广东虚拟现实科技有限公司 基于虚拟训练场景训练的显示方法、装置及存储介质
CN113368490B (zh) * 2021-06-10 2023-05-30 北京字跳网络技术有限公司 一种控制方法、装置以及计算机存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157942A (ja) * 2009-04-01 2009-07-16 Nintendo Co Ltd 表示領域を移動させる画像処理プログラムおよび画像処理装置
JP2012128514A (ja) * 2010-12-13 2012-07-05 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理方法及び情報処理システム
CN107168611A (zh) * 2017-06-16 2017-09-15 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
WO2020024806A1 (zh) * 2018-08-02 2020-02-06 腾讯科技(深圳)有限公司 控制虚拟对象与投掷物交互的方法、装置及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001269482A (ja) * 2000-03-24 2001-10-02 Konami Computer Entertainment Japan Inc ゲームシステム、ゲーム用プログラムを記録したコンピュータ読み取り可能な記録媒体及び画像表示方法
EP1563882A4 (en) * 2002-11-20 2006-01-18 Sega Corp GAME IMAGE DISPLAY CONTROL PROGRAM, GAME DEVICE, AND RECORDING MEDIUM
JP2006018476A (ja) 2004-06-30 2006-01-19 Sega Corp 画像の表示制御方法
JP2011255119A (ja) 2010-06-11 2011-12-22 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
KR101298030B1 (ko) * 2013-03-12 2013-08-26 주식회사 네시삼십삼분 슈팅 게임이 기록된 컴퓨터 판독 가능한 기록매체
US11465040B2 (en) * 2013-12-11 2022-10-11 Activision Publishing, Inc. System and method for playing video games on touchscreen-based devices
CN107754309B (zh) * 2017-09-30 2019-03-08 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107913520B (zh) * 2017-12-14 2021-04-23 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN109260702A (zh) * 2018-08-30 2019-01-25 腾讯科技(深圳)有限公司 虚拟场景中的虚拟载具控制方法、计算机设备及存储介质
CN109568957B (zh) * 2019-01-10 2020-02-07 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
CN109840043B (zh) * 2019-01-30 2021-08-10 腾讯科技(深圳)有限公司 在虚拟环境中建造建筑物的方法、装置、设备及存储介质
CN110115838B (zh) * 2019-05-30 2021-10-29 腾讯科技(深圳)有限公司 虚拟环境中生成标记信息的方法、装置、设备及存储介质
CN110292778A (zh) * 2019-08-02 2019-10-01 网易(杭州)网络有限公司 一种游戏技能释放的方法和装置
CN110613933A (zh) * 2019-09-24 2019-12-27 网易(杭州)网络有限公司 游戏中技能释放控制方法、装置、存储介质和处理器
CN111481934B (zh) * 2020-04-09 2023-02-10 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法、装置、设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157942A (ja) * 2009-04-01 2009-07-16 Nintendo Co Ltd 表示領域を移動させる画像処理プログラムおよび画像処理装置
JP2012128514A (ja) * 2010-12-13 2012-07-05 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理方法及び情報処理システム
CN107168611A (zh) * 2017-06-16 2017-09-15 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
WO2020024806A1 (zh) * 2018-08-02 2020-02-06 腾讯科技(深圳)有限公司 控制虚拟对象与投掷物交互的方法、装置及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"ドラッグショット", スプラトゥーン2 イカす攻略天国, JPN6023024291, 10 October 2017 (2017-10-10), pages 23, ISSN: 0005085799 *

Also Published As

Publication number Publication date
KR20210141658A (ko) 2021-11-23
SG11202111549TA (en) 2021-11-29
US11847734B2 (en) 2023-12-19
US20220051470A1 (en) 2022-02-17
KR102645534B1 (ko) 2024-03-07
WO2021203904A1 (zh) 2021-10-14
CN111481934B (zh) 2023-02-10
US20240070974A1 (en) 2024-02-29
CN111481934A (zh) 2020-08-04

Similar Documents

Publication Publication Date Title
JP2022531770A (ja) 仮想環境画面の表示方法、装置、機器およびコンピュータプログラム
KR102592632B1 (ko) 가상 환경에서 마크 정보를 생성하는 방법 및 장치, 전자 장치 및 저장 매체
KR102665665B1 (ko) 가상 환경 픽처를 디스플레이하는 방법 및 장치, 디바이스, 및 저장 매체
JP2022539289A (ja) 仮想オブジェクト照準方法、装置及びプログラム
KR20210140747A (ko) 가상 객체 제어 방법 및 장치, 디바이스 및 매체
JP7325664B2 (ja) 仮想オブジェクトの制御方法及び装置、端末、並びに、コンピュータプログラム
CN113440846B (zh) 游戏的显示控制方法、装置、存储介质及电子设备
AU2021254521B2 (en) Virtual character control method and apparatus, device, and storage medium
JP7406567B2 (ja) 仮想環境の画面表示方法及び装置、並びにコンピュータ装置及びプログラム
TWI789088B (zh) 虛擬對象釋放技能的方法、裝置、設備、媒體及程式產品
JP2023164787A (ja) 仮想環境の画面表示方法、装置、機器及びコンピュータプログラム
WO2023071808A1 (zh) 基于虚拟场景的图形显示方法、装置、设备以及介质
CN111589134A (zh) 虚拟环境画面的显示方法、装置、设备及存储介质
EP4151293A1 (en) Virtual object skill releasing method and apparatus, device, medium, and program product

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231113

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240411