JP7191210B2 - 仮想環境の観察方法、デバイス及び記憶媒体 - Google Patents

仮想環境の観察方法、デバイス及び記憶媒体 Download PDF

Info

Publication number
JP7191210B2
JP7191210B2 JP2021514085A JP2021514085A JP7191210B2 JP 7191210 B2 JP7191210 B2 JP 7191210B2 JP 2021514085 A JP2021514085 A JP 2021514085A JP 2021514085 A JP2021514085 A JP 2021514085A JP 7191210 B2 JP7191210 B2 JP 7191210B2
Authority
JP
Japan
Prior art keywords
scene
virtual object
virtual
viewing
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021514085A
Other languages
English (en)
Other versions
JP2021535806A (ja
Inventor
柏君 ▲劉▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2021535806A publication Critical patent/JP2021535806A/ja
Application granted granted Critical
Publication of JP7191210B2 publication Critical patent/JP7191210B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

(関連出願の相互参照)
本願は、2018年12月5日に中国特許局に提出された出願番号が第201811478458.2号であり、発明の名称が「仮想環境の観察方法、デバイス及び記憶媒体」である中国特許出願の優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願の実施形態は、仮想環境分野に関し、特に、仮想環境の観察方法、デバイス及び記憶媒体に関する。
スマート端末には、一般的に、仮想エンジンによって開発されたアプリケーションプログラムがインストールされている。仮想環境をサポートする該アプリケーションプログラムにおいて、仮想対象、仮想物体又は地面などの表示要素の表示は、モデルで実現している。ここで、仮想物体は、仮想建物、仮想給水塔、仮想山坂、仮想芝生、及び仮想家具などを含む。ユーザは、仮想対象を、仮想環境において仮想戦闘するように制御することができる。
一般的には、仮想環境を観察する時に、カメラモデルにより、仮想対象を観察中心として仮想環境を観察する。また、仮想環境において、カメラモデルは仮想対象から一定の距離が離れ、且つ撮影方向が、該仮想対象の三次元モデルに向かっている。
しかしながら、通常、仮想環境に異なる観察シーンが含まれ、例えば、暗いシーン、明るいシーン、屋内シーン又は屋外シーンが挙げられ、上記の観察方式で仮想環境を観察する時、複数の観察シーンにおける観察方式が互換性を有しないという問題を引き起こしてしまう。例えば、屋内シーンで、該観察方式によれば、視線が屋内の家具により遮られる可能性が大きい。暗いシーンで、該観察方式によれば、仮想環境における仮想物品を明るく表現することができない。上記の互換性を有しないという問題は、いずれも戦闘プロセスに影響を与えてしまう。ユーザは、仮想対象の観察角度を複数回で調整するか又は端末自体のディスプレイ表示輝度を調整する必要がある。
本願の実施形態は、仮想環境の観察方法、デバイス及び記憶媒体を提供する。
仮想環境の観察方法であって、端末により実行され、前記方法は、
アプリケーションプログラムの第1環境画面を表示することであって、前記第1環境画面に第1シーンに位置する仮想対象が含まれ、前記第1環境画面は、前記仮想環境において第1観察方式で前記仮想環境を観察する画面である、ことと、
移動操作を受け取ることであって、前記移動操作は、前記仮想対象を前記第1シーンから第2シーンに移動させるためのものであり、前記第1シーンと前記第2シーンは、異なる2種類の観察シーンであり、前記観察シーンは、前記仮想環境を観察する少なくとも1つの観察方式に対応する、ことと、
前記移動操作に基づいて前記第1観察方式を第2観察方式に調整することであって、前記第1観察方式は、前記第1シーンに対応し、前記第2観察方式は、前記第2シーンに対応する、ことと、
アプリケーションプログラムの第2環境画面を表示することであって、前記第2環境画面に前記第2シーンに位置する前記仮想対象が含まれ、前記第2環境画面は、前記仮想環境において前記第2観察方式で前記仮想環境を観察する画面である、ことと、を含む。
仮想環境の観察装置であって、前記装置は、
アプリケーションプログラムの第1環境画面を表示するように構成される表示モジュールであって、前記第1環境画面に第1シーンに位置する仮想対象が含まれ、前記第1環境画面は、前記仮想環境において第1観察方式で前記仮想環境を観察する画面である、表示モジュールと、
移動操作を受け取るように構成される受け取りモジュールであって、前記移動操作は、前記仮想対象を前記第1シーンから第2シーンに移動させるためのものであり、前記第1シーンと前記第2シーンは、異なる2種類の観察シーンであり、前記観察シーンは、前記仮想環境を観察する少なくとも1つの観察方式に対応する、受け取りモジュールと、
前記移動操作に基づいて前記第1観察方式を第2観察方式に調整するように構成される調整モジュールであって、前記第1観察方式は、前記第1シーンに対応し、前記第2観察方式は、前記第2シーンに対応する、調整モジュールと、を備え、
前記表示モジュールは更に、アプリケーションプログラムの第2環境画面を表示するように構成され、前記第2環境画面に前記第2シーンに位置する前記仮想対象が含まれ、前記第2環境画面は、前記仮想環境において前記第2観察方式で前記仮想環境を観察する画面である。
端末であって、プロセッサと、メモリと、を備え、前記メモリに、コンピュータ可読命令が記憶されており、前記コンピュータ可読命令が前記プロセッサにより実行される時に、前記プロセッサに、
アプリケーションプログラムの第1環境画面を表示することであって、前記第1環境画面に第1シーンに位置する仮想対象が含まれ、前記第1環境画面は、前記仮想環境において第1観察方式で前記仮想環境を観察する画面である、ことと、
移動操作を受け取ることであって、前記移動操作は、前記仮想対象を前記第1シーンから第2シーンに移動させるためのものであり、前記第1シーンと前記第2シーンは、異なる2種類の観察シーンであり、前記観察シーンは、前記仮想環境を観察する少なくとも1つの観察方式に対応する、ことと、
前記移動操作に基づいて前記第1観察方式を第2観察方式に調整することであって、前記第1観察方式は、前記第1シーンに対応し、前記第2観察方式は、前記第2シーンに対応する、ことと、
アプリケーションプログラムの第2環境画面を表示することであって、前記第2環境画面に前記第2シーンに位置する前記仮想対象が含まれ、前記第2環境画面は、前記仮想環境において前記第2観察方式で前記仮想環境を観察する画面である、ことと、を実行させる。
不揮発性コンピュータ可読記憶媒体であって、コンピュータ可読命令が記憶されており、前記コンピュータ可読命令が1つ又は複数のプロセッサにより実行される時に、前記1つ又は複数のプロセッサに、
アプリケーションプログラムの第1環境画面を表示することであって、前記第1環境画面に第1シーンに位置する仮想対象が含まれ、前記第1環境画面は、前記仮想環境において第1観察方式で前記仮想環境を観察する画面である、ことと、
移動操作を受け取ることであって、前記移動操作は、前記仮想対象を前記第1シーンから第2シーンに移動させるためのものであり、前記第1シーンと前記第2シーンは、異なる2種類の観察シーンであり、前記観察シーンは、前記仮想環境を観察する少なくとも1つの観察方式に対応する、ことと、
前記移動操作に基づいて前記第1観察方式を第2観察方式に調整することであって、前記第1観察方式は、前記第1シーンに対応し、前記第2観察方式は、前記第2シーンに対応する、ことと、
アプリケーションプログラムの第2環境画面を表示することであって、前記第2環境画面に前記第2シーンに位置する前記仮想対象が含まれ、前記第2環境画面は、前記仮想環境において前記第2観察方式で前記仮想環境を観察する画面である、ことと、を実行させる。
本願の実施形態における技術的解決手段をより明確に説明するために、以下、実施形態の説明に必要な図面を簡単に説明する。勿論、上記の図面は本願の一部の実施形態に過ぎず、当業者は創造的な労力を払わなくても、これらの図面に基づいて他の図面を得ることもできる。
本願の例示的な一実施形態における電子デバイスの構造ブロック図である。 本願の例示的な一実施形態におけるコンピュータシステムの構造ブロック図である。 本願の例示的な一実施形態によるカメラモデルによる仮想環境の観察を示す概略図である。 本願の例示的な一実施形態における仮想環境の観察方法を示すフローチャートである。 図4に示した実施形態による関連技術における屋内外シーンで仮想環境を観察することを示す概略図である。 図4に示した実施形態による本願における屋内外シーンで仮想環境を観察することを示す概略図である。 図4に示した実施形態による別の本願における屋内外シーンで仮想環境を観察することを示す概略図である。 図4に示した実施形態による別の関連技術における屋内外シーンで仮想環境を観察することを示す概略図である。 図4に示した実施形態による別の本願における屋内外シーンで仮想環境を観察することを示す概略図である。 本願の別の例示的な実施形態における仮想環境の観察方法を示すフローチャートである。 図10に示した実施形態による垂直射線検出を示す概略図である。 図10に示した実施形態による別の垂直射線検出を示す概略図である。 図10に示した実施形態による別の垂直射線検出を示す概略図である。 本願の別の例示的な実施形態における仮想環境の観察方法を示すフローチャートである。 図14に示した実施形態による水平射線検出を示す概略図である。 本願の別の例示的な実施形態における仮想環境の観察方法を示すフローチャートである。 本願の例示的な一実施形態による仮想環境の観察装置の構造ブロック図である。 本願の別の例示的な実施形態による仮想環境の観察装置の構造ブロック図である。 本願の例示的な一実施形態による端末の構造ブロック図である。
本願の目的、技術的解決手段及びメリットをより明確にするために、以下、図面を参照しながら、本願の実施形態をさらに詳しく説明する。
まず、本願の実施形態に係わる用語を説明する。
仮想環境は、アプリケーションプログラムが端末で実行される時に表示(又は提供)される仮想環境である。該仮想環境は、実世界に対するシミュレーション環境であってもよく、セミシミュレーションされた半架空の三次元環境であってもよく、完全に架空の三次元環境であってもよい。仮想環境は、二次元仮想環境、2.5次元仮想環境及び三次元仮想環境のうちのいずれか1つであってもよい。下記の実施形態は、仮想環境が三次元仮想環境であることを例として説明するが、これを限定するものではない。選択的に、該仮想環境は更に、少なくとも2つの仮想キャラクターの仮想環境における対戦に用いられる。選択的に、該仮想環境は更に、少なくとも2つの仮想キャラクター同士の、仮想銃器を用いた対戦に用いられる。選択的に、該仮想環境は更に、ターゲット領域範囲内で、少なくとも2つの仮想キャラクターが仮想銃器を用いて対戦することに用いられる。該ターゲット領域範囲は、仮想環境に伴って経時的に小さくなる。
仮想対象は、仮想シーンにおける可動対象である。該可動対象は、仮想キャラクター、仮想動物、アニメキャラクターのうちの少なくとも1つである。幾つかの実施形態において、仮想環境が三次元仮想環境である場合、仮想対象は、動画骨格技術に基づいて構築された三次元立体モデルである。各仮想対象は、三次元仮想環境において自体の形状及び体積を有し、三次元仮想環境における一部の空間を占有する。
観察シーンは、仮想環境を観察する少なくとも1つの観察方式に対応するシーンである。幾つかの実施形態において、該観察シーンが、仮想対象のターゲット視角で仮想環境を観察する少なくとも1つの観察方式に対応する場合、該観察方式の視角タイプは同じであり、観察角度、観察距離、観察設定(例えば、暗視スコープがオンにするかどうか)のうちの少なくとも1つのパラメータは異なる。該観察シーンが、仮想対象のターゲット観察角度で仮想環境を観察する少なくとも1つの観察方式に対応する場合、該観察方式の観察角度は同じであり、観察視角、観察距離及び観察設定のうちの少なくとも1つのパラメータは異なる。該観察シーンが、仮想対象のターゲット観察距離で仮想環境を観察する少なくとも1つの観察方式に対応する場合、該観察方式の観察距離は同じであり、観察視角、観察角度及び観察設定のうちの少なくとも1つのパラメータは異なる。該観察パラメータが、仮想対象のターゲット観察設定で仮想環境を観察する少なくとも1つの観察方式に対応する場合、該観察方式の観察設定は同じであり、観察視角、観察角度及び観察距離のうちの少なくとも1つのパラメータは異なる。選択的に、該観察シーンは、特定の観察方式で仮想環境を観察するシーンであり、選択的に、該観察シーンは、シーン特徴に対応する。該観察シーンが対応する観察方式は、シーン特徴に応じて設定される方式である。選択的に、該シーン特徴は、光線条件特徴、シーン高さ特徴、シーンにおける仮想物体の集中程度特徴のうちの少なくとも1つを含む。選択的に、仮想環境における観察シーンは、複数の種類に分けられてもよい。複数の観察シーンを重ねて1つの新たな観察シーンを形成することができる。例示的に、該観察シーンは、屋内シーン、屋外シーン、暗いシーン、明るいシーン、建物シーン、山地シーン、防空壕シーン、物品堆積シーンのうちの少なくとも1つを含む。ここで、屋内シーンと暗いシーンを重なることで、新しい屋内の暗いシーン、例えば、照明されていない屋内を形成することができ、建物シーンと山地シーンを重ねることで、新しい山地における建物シーンを形成することができる。
カメラモデルは、三次元仮想環境において仮想対象の周囲に位置する三次元モデルである。一人称の視角を採用する時に、該カメラモデルは、仮想対象の頭部付近に位置するか又は仮想対象の頭部に位置する。三人称の視角を採用する時に、該カメラモデルは、仮想対象の後方に位置し、仮想対象とバインディングされてもよく、仮想対象から所定距離離れる任意の位置に位置してもよい。該カメラモデルにより、異なる角度から、三次元仮想環境に位置する仮想環境を観察することができる。選択的に、該三人称の視角が一人称の肩越しの視角である時に、カメラモデルは、仮想対象(例えば、仮想キャラクターの頭肩部)の後方に位置する。選択的に、該カメラモデルは、三次元仮想環境において実際に表示されなく、即ち、ユーザインタフェースに表示された三次元仮想環境において、該カメラモデルを識別することができない。
本願における端末は、デスクトップコンピュータ、ラップトップ型ポータブルコンピュータ、スマートフォン、タブレット、電子ブックリーダー、MP3(Moving Picture Experts Group Audio Layer III:動画専門家集団オーディオ規格のレイヤ3)プレーヤー、MP4(Moving Picture Experts Group Audio Layer IV:動画専門家集団オーディオ規格のレイヤ4)プレーヤーなどであってもよい。該端末に、三次元仮想環境をサポートするアプリケーションプログラムのような仮想環境をサポートするアプリケーションプログラムがインストールされて実行されている。該アプリケーションプログラムは、仮想現実アプリケーションプログラム、三次元マッププログラム、軍事シミュレーションゲームプログラム、TPSゲーム、FPSゲーム、MOBAゲームのうちのいずれか1つであってもよい。幾つかの実施形態において、該アプリケーションプログラムは、例えば、スタンドアロン版の3Dゲームプログラムのようなスタンドアロン版のアプリケーションプログラムであってもよく、オンライン版のアプリケーションプログラムであってもよい。
図1は、本願の例示的な一実施形態における電子デバイスの構造ブロック図である。該電子デバイスは具体的には、端末100であってもよい。端末100は、オペレーティングシステム120と、アプリケーションプログラム122と、を備える。
オペレーティングシステム120は、アプリケーションプログラム122に対して、コンピュータハードウェアへの安全なアクセスを提供するための基礎ソフトウェアである。
アプリケーションプログラム122は、仮想環境をサポートするアプリケーションプログラムである。幾つかの実施形態において、アプリケーションプログラム122は、三次元仮想環境をサポートするアプリケーションプログラムである。該アプリケーションプログラム122は、仮想現実アプリケーションプログラム、三次元マッププログラム、軍事シミュレーションゲームプログラム、三人称シューティングゲーム(Third-Personal Shooting Game:TPS)、一人称シューティングゲーム(First-person shooting game:FPS)、MOBAゲーム、マルチプレイヤー銃撃サバイバルゲームのうちのいずれか1つであってもよい。該アプリケーションプログラム122は、例えば、スタンドアロン版の3Dゲームプログラムのようなスタンドアロン版のアプリケーションプログラムであってもよい。
図2は、本願の例示的な一実施形態におけるコンピュータシステムの構造ブロック図である。該コンピュータシステム200は、第1デバイス220と、サーバ240と、第2デバイス260と、を備える。
第1デバイス220に、仮想環境をサポートするアプリケーションプログラムがインストール、実行されている。該アプリケーションプログラムは、仮想現実アプリケーションプログラム、三次元マッププログラム、軍事シミュレーションゲームプログラム、TPSゲーム、FPSゲーム、MOBAゲーム、マルチプレイヤー銃撃サバイバルゲームのうちのいずれか1つであってもよい。第1デバイス220は、第1ユーザに使用されるデバイスである。第1ユーザは、第1デバイス220を利用して仮想環境に位置する第1仮想対象を制御して作動させる。該作動は、体姿勢の調整、腹這い、歩行、ランニング、サイクリング、ジャンプ、運転、ピックアップ、シューティング、攻撃、投擲のうちの少なくとも1つを含むが、これらに限定されない。例示的に、第1仮想対象は、シミュレーションキャラクター又はアニメーションキャラクターのような第1仮想キャラクターである。
第1デバイス220は、無線ネットワーク又は有線ネットワークを経由してサーバ240に接続する。
サーバ240は、1つのサーバ、複数のサーバ、クラウドコンピューティングプラットフォーム及び仮想センターのうちの少なくとも1つを含む。サーバ240は、三次元仮想環境をサポートするアプリケーションプログラムのためにバックグラウンドサービスを提供するためのものである。選択的に、サーバ240は、主なコンピューティング動作を担い、第1デバイス220及び第2デバイス260は、副次的なコンピューティング動作を担い、又は、サーバ240は、副次的なコンピューティング動作を担い、第1デバイス220及び第2デバイス260は、主なコンピューティング動作を担い、又は、サーバ240、第1デバイス220及び第2デバイス260の三者は、分散型コンピューティングアーキテクチャにより協働的にコンピューティングを行う。
第2デバイス260に、仮想環境をサポートするアプリケーションプログラムがインストール、実行されている。該アプリケーションプログラムは、仮想現実アプリケーションプログラム、三次元マッププログラム、軍事シミュレーションゲームプログラム、FPSゲーム、MOBAゲーム、マルチプレイヤー銃撃サバイバルゲームのうちのいずれか1つであってもよい。第2デバイス260は、第2ユーザに使用されるデバイスである。第2ユーザは、第2デバイス260を利用して仮想環境に位置する第2仮想対象を制御して作動させる。該作動は、体姿勢の調整、腹這い、歩行、ランニング、サイクリング、ジャンプ、運転、ピックアップ、シューティング、攻撃、投擲のうちの少なくとも1つを含むが、これらに限定されない。例示的に、第2仮想対象は、シミュレーションキャラクター又はアニメーションキャラクターのような第2仮想キャラクターである。
幾つかの実施形態において、第1仮想キャラクターと第2仮想キャラクターは、同一の仮想環境に位置する。幾つかの実施形態において、第1仮想キャラクターと第2仮想キャラクターは、同一のチーム、同一の組織に属し、友人関係があるか又は一時的通信権限を有するものであってもよい。幾つかの実施形態において、第1仮想キャラクターと第2仮想キャラクターは、異なるチーム、異なる組織に属するか又は敵対関係にある2つのコミュニティであってもよい。
幾つかの実施形態において、第1デバイス220及び第2デバイス260にインストールされたアプリケーションプログラムは同じである。又は、2つのデバイスにインストールされたアプリケーションプログラムは、異なる制御システムプラットフォームにおける同一のタイプのアプリケーションプログラムである。第1デバイス220は、複数のデバイスのうちの1つを一般的に指してもよい。第2デバイス260は、複数のデバイスのうちの1つを一般的に指してもよい。本実施形態は、第1デバイス220及び第2デバイス260のみを例として説明する。第1デバイス220と第2デバイス260のデバイスタイプは、同じであるか又は異なる。該デバイスタイプは、ゲームホスト、デスクトップコンピュータ、スマートフォン、タブレット、電子ブックリーダー、MP3プレーヤー、MP4プレーヤー及びラップトップコンピュータのうちの少なくとも1つを含む。下記実施形態は、デバイスがデスクトップコンピュータであることを例として説明する。
上記のデバイスの数が、それよりも多くても少なくても良いと、当業者であれば自明である。例えば、上記のデバイスは、1つのみであるか、又は上記のデバイスは、数十個又は数百個であり、又はより多くてもよい。本願の実施形態は、デバイスの数及びデバイスタイプを限定するものではない。
幾つかの実施形態において、カメラモデルは、仮想対象から所定距離離れる任意の位置にある。幾つかの実施形態において、1つの仮想対象は、1つのカメラモデルに対応する。該カメラモデルは、仮想対象を回転中心として回転することができる。例えば、仮想対象上の任意の点を回転中心としてカメラモデルを回転することができる。カメラモデルが回転過程において、角度で回転するだけでなく、変位も生じ得る。回転時に、カメラモデルと該回転中心との距離を変えずに保持し、即ち、該カメラモデルは、該回転中心を球心とした球体表面で回転する。ここで、仮想対象上の任意の点は、仮想対象の頭部、胴体、又は仮想対象の周囲のいずれか1つの点であってもよく、本願の実施形態は、これを限定しない。幾つかの実施形態において、カメラモデルによって、仮想環境を観察する時、該カメラモデルの視角方向は、該カメラモデルの所在する球面の接平面における垂線が仮想対象に指す方向である。
幾つかの実施形態において、該カメラモデルは、仮想対象の異なる方向に、所定の角度で仮想環境を観察することもできる。
例示的に、図3を参照すると、仮想対象31における一点を回転中心32として決定する。カメラモデルは、該回転中心32の周りを回転する。幾つかの実施形態において、該カメラモデルに1つの初期位置が設定されている。該初期位置は、仮想対象の後上位置(例えば、脳部の後方位置)である。例示的に、図3に示すように、該初期位置は、位置33である。カメラモデルが位置34又は35に回転する時、カメラモデルの視角方向は、カメラモデルの回転に伴って変動する。
図4は、本願の例示的な一実施形態における仮想環境の観察方法を示す。該方法を図1に示した端末100に適用することを例として説明する。図4に示すように、該方法は、以下を含む。
ステップS401において、アプリケーションプログラムの第1環境画面を表示し、第1環境画面は、仮想環境において第1観察方式で仮想環境を観察する画面である。
幾つかの実施形態において、該第1環境画面に第1シーンに位置する仮想対象が含まれる。
幾つかの実施形態において、仮想環境において、仮想対象は少なくとも1つのシーンに属する。例示的に、仮想環境におけるシーンは、屋内シーン、屋外シーン、暗いシーン及び明るいシーンのうちの少なくとも1つを含む。屋内シーンと屋外シーンは、独立する、相補性を有する2つの観察シーンであり、即ち、仮想対象は、屋内シーンに位置しなければ、屋外シーンに位置する。
幾つかの実施形態において、該第1観察方式は、第1シーンが対応する観察方式を含む。幾つかの実施形態において、観察シーン毎に、1つの観察方式が対応する。該対応関係は、事前設定されたものである。幾つかの実施形態において、仮想環境におけるある1つの位置が、1つ以上の観察シーンに対応する場合、仮想対象が該位置に位置する時に、該仮想環境を観察する観察方式は、上記の1つ以上の観察シーンが対応する観察方式の組み合わせであってもよく、上記の1つ以上の観察シーンが対応する観察方式のうちの1つの観察方式であってもよい。ここで、複数の観察方式から1つの観察方式を選択する時、異なる観察方式に対して優先度を設定し、優先度に応じて優先度が高い観察方式を選択して、該位置にある仮想環境を観察することができる。複数の観察方式から1つの観察方式をランダムに選択して該仮想環境を観察することもできる。
例示的に、屋内シーンが対応する観察方式は、仮想対象から第1距離にある位置で仮想環境を観察する方式である。暗いシーンが対応する観察方式は、ナイトビジョンデバイスによって仮想環境を観察する方式である。仮想対象が屋内の暗いシーンに位置する場合、仮想対象から第1距離にある位置で、ナイトビジョンデバイスにより仮想環境を観察することもできる。ナイトビジョンデバイスのみにより、仮想対象から第2距離にある位置(該第2距離は、デフォルト距離である)で仮想環境を観察することもできる。
S402において、移動操作を受け取り、移動操作は、仮想対象を前記第1シーンから第2シーンに移動させるためのものである。
幾つかの実施形態において、第1シーンと第2シーンは、異なる2種類の観察シーンである。
幾つかの実施形態において、第1シーンと第2シーンは、独立して相補性を有する2つの観察シーンであり、即ち、仮想対象は、第1シーンに位置しなければ、第2シーンに位置する。例示的に、第1シーンは、屋外シーンであり、第2シーンは、屋内シーンである。又は、第1シーンは、明るいシーンであり、第2シーンは、暗いシーンである。又は、第1シーンは、物品堆積シーンであり、第2シーンは、野原シーンである。
例示的に、移動操作に基づいて、仮想対象を第1シーンから第2シーンに移動させることは、移動操作に基づいて仮想対象を屋外から屋内に移動させることで実現してもよく、その場合、該第1シーンは、屋外シーンであり、第2シーンは、屋内シーンである。また、屋外シーンが明るいシーンとして実現されてもよく、屋内シーンが、暗いシーンとして実現されてもよく、即ち、第1シーンは、明るいシーンであり得、第2シーンは、暗いシーンであり得る。
幾つかの実施形態において、上記の端末がタッチディスプレイを有する携帯端末である場合、該移動操作は、ユーザがタッチディスプレイでスライド操作を行った後に生成されたものであってもよく、ユーザが携帯端末の物理的ボタンを押圧した後に生成されたものであってもよい。上記の端末がデスクトップコンピュータ、又は携帯型ラップトップノートパソコンである場合、該移動操作は、端末により受け取った外部入力デバイスから入力された信号に対応する操作であってもよい。例えば、ユーザは、マウス操作を移動操作として端末に移動信号を送信し、又は、ユーザは、キーボード操作を移動操作として端末に移動信号を送信する。
ステップS403において、移動操作に基づいて第1観察方式を第2観察方式に調整し、第1観察方式は、第1シーンに対応し、第2観察方式は、第2シーンに対応する。
幾つかの実施形態において、観察方式におけるパラメータは、観察角度、観察距離、ナイトビジョンデバイスをオンにするかどうか、観察視角の人称のうちの少なくとも1つを含む。
幾つかの実施形態において、端末は、所定時間おきに、仮想環境における仮想対象の所在する観察シーンを検出する。幾つかの実施形態において、該検出プロセスは、下記ケースのうちの少なくとも1つを含む。
ケース1において、第1シーンは、屋外シーンであり、第2シーンは、屋内シーンである。衝突検出方式で、仮想環境における仮想対象の所在する観察シーンを検出する。仮想対象が移動操作に基づいて屋外シーンから屋内シーンに移動したことを検出した時に、第1観察方式を第2観察方式に調整する。
幾つかの実施形態において、該第1観察方式は、カメラモデルによって仮想対象から第1距離にある位置で仮想環境を観察する方式である。第2観察方式は、カメラモデルによって仮想対象から第2距離にある位置で仮想環境を観察する方式である。該カメラモデルは、仮想環境において仮想対象を回って観察する三次元モデルである。第1距離は、第2距離よりも大きく、即ち、カメラモデルと仮想対象との距離を第1距離から第2距離に調整する。
例示的に、関連技術において、仮想対象が屋外シーンに位置するかそれとも屋内シーンに位置するかに関わらず、該仮想対象を観察する観察距離は一致しており、図5に示すように、屋内シーンで、仮想対象51を観察する時に、カメラモデル50と仮想対象51との距離は、aであり、屋外シーンで、仮想対象51を観察する時に、カメラモデル50と仮想対象51との距離もaである。ここで、カメラモデル50と仮想対象51との距離を、カメラモデル50と仮想対象51の物理的中心点との距離と見なしてもよく、カメラモデル50と仮想対象51における任意の点との距離と見なしてもよい。該方式で仮想環境を観察する時に、カメラモデルと仮想対象との間の仮想物体が、カメラモデルから仮想環境へ観察する視線の邪魔になり得、戦闘プロセスへ影響する問題が生じる。
本願に係る上記の方式は、図6を参照されたい。屋内シーンで、仮想対象61を観察する時に、カメラモデル60と仮想対象61との距離は、aである。屋外シーンで、仮想対象61を観察する時に、カメラモデル60と仮想対象61との距離は、bであり、ここで、である。
幾つかの実施形態において、該第1観察方式は、カメラモデルによって第1視角で仮想環境を観察する方式であってもよい。第2観察方式は、カメラモデルによって第2視角で仮想環境を観察する方式であってもよい。ここで、第1視角の方向と仮想環境における水平方向との夾角は、第2視角の方向と水平方向との夾角よりも小さい。つまり、移動操作に基づいて、カメラモデルによって仮想対象を観察する角度を第1視角から第2視角に回転する。
例示的に、図7に示すように、屋内シーンで、仮想対象71を観察する時に、カメラモデル70と水平方向73との角度は、αである。屋外シーンで、仮想対象71を観察する時に、カメラモデル70と仮想対象71との角度は、βである。ここで、βαである。
幾つかの実施形態において、該第1観察方式は、三人称観察方式であり、第2観察方式は、一人称観察方式であり得る。つまり、移動操作に基づいて、観察視角を三人称視角から一人称視角に変換する。
ケース2において、第1シーンは、明るいシーンであり、第2シーンは、暗いシーンである。色検出方式で、仮想環境における仮想対象の所在する観察シーンを検出する。仮想対象が移動操作に基づいて明るいシーンから暗いシーンに移動したことを検出した場合、第1観察方式を第2観察方式に調整する。
幾つかの実施形態において、該第1観察方式は、ナイトビジョンデバイスをオフにした観察方式であり、即ち、仮想対象及び仮想環境を観察するのにナイトビジョンデバイスを使用しない。第2観察方式は、ナイトビジョンデバイスをオンにした観察方式であり、即ち、ナイトビジョンデバイスにより、仮想環境を観察する。
幾つかの実施形態において、該色検出方式は、表示インタフェースにおける画素点を検出するために用いられる。画素点の平均階調値が所定の閾値よりも大きい時に、該仮想対象が第1シーンから第2シーンに移動したと見なす。
ケース3において、第1シーンは、野原シーンであり、第2シーンは、物品堆積シーンである。シーン標識検証方式で、仮想環境における仮想対象の所在する観察シーンを検出する。仮想対象が移動操作に基づいて野原シーンから物品堆積シーンに移動したことを検出した時に、第1観察方式を第2観察方式に調整する。
幾つかの実施形態において、仮想対象の所在する位置が対応する座標は、シーン標識に対応する。該シーン標識に基づいて、仮想対象の所在するシーンを検証する。
幾つかの実施形態において、該第1観察方式は、カメラモデルによって仮想対象から第1距離にある位置で仮想環境を観察する方式を含む。第2観察方式は、カメラモデルによって仮想対象から第2距離にある位置で仮想環境を観察する方式を含む。該カメラモデルは、仮想環境において仮想対象を回って観察する三次元モデルを含む。第1距離は、第2距離よりも大きい。つまり、カメラモデルと仮想対象との距離を第1距離から第2距離に調整する。
幾つかの実施形態において、該第1観察方式は、カメラモデルによって第1視角で仮想環境を観察する方式であってもよい。第2観察方式は、カメラモデルによって第2視角で仮想環境を観察する方式である。ここで、第1視角の方向と仮想環境における水平方向との夾角は、第2視角の方向と水平方向との夾角よりも小さい。つまり、移動操作に基づいて、カメラモデルによって仮想対象を観察する角度を第1視角から第2視角に回転する。
幾つかの実施形態において、該第1観察方式が、三人称観察方式であり、第2観察方式が、一人称観察方式であり得る。つまり、移動操作に基づいて、観察視角を三人称視角から一人称視角に変換する。
ステップS404において、アプリケーションプログラムの第2環境画面を表示し、第2環境画面は、仮想環境において、第2観察方式で仮想環境を観察する画面である。
幾つかの実施形態において、第2環境画面に、第2シーンに位置する仮想対象が含まれる。
例示的に、上記の第1シーンが屋外シーンであり、第2シーンが屋内シーンであり、カメラモデルと仮想対象との距離を調整することを例として、第1環境画面及び第2環境画面を説明する。まず、関連技術において、仮想対象が屋外シーン及び屋内シーンに位置する環境画面を説明し、図8に示すように、屋内シーンで、第1画面81に仮想対象82が含まれる。仮想ドア83及び仮想キャビネット84によれば、該仮想対象82が屋内シーンに位置することを知ることができる。屋外シーンで、第2画面85に仮想対象82が含まれる。仮想クラウド86によれば、該仮想対象82が屋外シーンに位置することを知ることができる。該第1画面81に仮想物体87が更に含まれる。該仮想物体87で仮想対象82の下方が遮られる。次に、本願に係る技術的解決手段に対応する第1環境画面及び第2環境画面を説明する。図9に示すように、屋内シーンで、第1環境画面91に仮想対象92が含まれる。仮想ドア93及び仮想キャビネット94によれば、該仮想対象92が屋内シーンに位置することを知ることができる。屋外シーンで、第2環境画面95に仮想対象92が含まれる。仮想クラウド96によれば、該仮想対象92が屋外シーンに位置することを知ることができる。第1画面81において仮想対象の邪魔になっている仮想物体87については、カメラモデルがより近い距離で仮想対象92を観察する時に第2環境画面95を生成しているため、該仮想物体87は、第2環境画面95に表示されることがなく、即ち、該仮想物体87は、仮想対象又はカメラモデルの視線を遮ることがない。
従って、本実施形態で提供される仮想環境を観察する方式によれば、仮想対象が所在する異なる観察シーンに対して、仮想環境において仮想対象を観察する方式を変換することで、観察シーンに適する観察方式で該観察シーンにおける仮想対象を観察し、それによって、単一の観察方式によって異なる観察シーンでも同一の観察方式で仮想対象を観察する時、不適切な観察角度、観察距離又は観察設定に起因する戦闘への影響を避けることができる。
選択可能な実施形態において、第1シーンは、屋外シーンであり、第2シーンは、屋内シーンである。端末は、衝突検出方式で、仮想環境における仮想対象の所在する観察シーンを検出し、該衝突検出方式は、垂直射線検出という方式である。図10は、本願の別の例示的な実施形態における仮想環境の観察方法を示す。該方法を図1に示した端末100に適用することを例として説明する。図10に示すように、該方法は以下を含む。
ステップS1001において、アプリケーションプログラムの第1環境画面を表示する。
幾つかの実施形態において、第1環境画面に第1シーンに位置する仮想対象が含まれ、該第1環境画面は、仮想環境において第1観察方式で仮想環境を観察する画面である。
幾つかの実施形態において、仮想環境において、仮想対象は少なくとも1つのシーンに属する。例示的に、仮想環境における観察シーンは、屋内シーン及び屋外シーンのうちのいずれか1つを含む。屋内シーンと屋外シーンは、独立して相補性を有する2つの観察シーンであるため、仮想対象は、屋内シーンに位置しなければ、屋外シーンに位置する。
ステップS1002において、移動操作を受け取る。
幾つかの実施形態において、該移動操作は、仮想対象を第1シーンから第2シーンに移動させるためのものである。ここで、第1シーンは、屋外シーンであり、第2シーンは、屋内シーンであり、即ち、該移動操作は、仮想対象を屋外シーンから屋内シーンに移動させるためのものである。
ステップS1003において、仮想対象におけるターゲット点を始点として、仮想環境における垂直上向き方向に沿って垂直射線検出を行う。
幾つかの実施形態において、該ターゲット点は、仮想対象における物理的中心点、頭部に対応する点、腕に対応する点、脚部に対応する点のうちのいずれか1つであってもよく、仮想対象におけるいずれか1つの点であってもよく、仮想対象外の、仮想対象に対応するいずれか1つの点であってもよい。
幾つかの実施形態において、該垂直射線検出は、仮想環境における垂直下向きに沿って行われる射線検出であってもよい。
例示的に、図11に示すように、座標系111は、仮想環境に適用される三次元座標系である。ここで、z軸が指す方向は、仮想環境における垂直上向き方向である。端末は、仮想対象112のターゲット点113を始点として、垂直上向き方向に沿って垂直射線114を引いて検出を行うことができる。図11において垂直射線114を例として説明するが、実際の適用シーンにおいて、該垂直射線114は、環境画面に表示されなくてもよい。
ステップS1004において、垂直射線検出を行って返された第1検出結果を受け取る。
幾つかの実施形態において、該第1検出結果は、仮想対象の垂直上向き方向に当たった仮想物体を表すためのものである。
幾つかの実施形態において、該第1検出結果に、垂直射線検出で当たった一番目の仮想物体の物体標識及び/又は垂直射線検出で一番目の仮想物体に当たった時の射線の長さが含まれる。
幾つかの実施形態において、垂直射線検出において如何なる仮想物体にも当たっていない場合、該第1検出結果は空である。
ステップS1005において、第1検出結果に基づいて仮想対象の所在する観察シーンを決定する。
幾つかの実施形態において、端末が第1検出結果に基づいて仮想対象の所在する観察シーンを決定する方式は、下記のいずれか1つを含む。
方式1において、第1検出結果に、垂直射線検出で当たった一番目の仮想物体の物体標識が含まれる場合、第1検出結果における物体標識が仮想建物標識である場合、端末は、仮想対象の所在する観察シーンが屋内シーンであると決定する。
幾つかの実施形態において、第1検出結果が空であるか又は第1検出結果における物体標識が他の物体標識、例えば、仮想クラウド標識、仮想木標識などである場合、端末は、仮想対象の所在する観察シーンが屋外シーンであると決定することができる。つまり、第1検出結果における物体標識が、仮想建物以外の他の標識である場合、端末は、仮想対象の所在する観察シーンが屋外シーンであると決定する。
例示的に、図12及び図13に示すように、図12における仮想対象120は、屋内シーンに位置しており、該仮想対象120のターゲット点121から垂直上向き方向で垂直射線検出を行い、垂直射線122が仮想建物に当たって建物標識を返した後、端末は、該仮想対象120が仮想建物内に位置すると決定し、即ち、屋内シーンに位置すると決定する。図13における仮想対象130が屋外シーンに位置しており、該仮想対象130のターゲット点131から垂直上向き方向で垂直射線検出を行い、該垂直射線132は何の仮想物体にも当たっていないため、空値(null)を返した後、該仮想対象130が屋外シーンに位置すると決定する。
なお、上記の図12における垂直射線122及び図13における垂直射線132は、いずれも説明するためのものであり、実際の適用において存在しない。
方式2において、第1検出結果に、垂直射線検出で一番目の仮想物体に当たった時の射線の長さが含まれる場合、第1検出結果における射線の長さは、所定の長さ以下である場合、端末は、仮想対象の所在する観察シーンが屋内シーンであると決定する。第1検出結果における射線の長さが所定の長さを超える場合、端末は、仮想対象の所在する観察シーンが屋外シーンであると決定する。
例示的に、建物の階高が最大2mである場合、該所定の長さは、2mである。第1検出結果における射線の長さが2m以下である場合、端末は、仮想対象が屋内シーンに位置すると決定することができる。第1検出結果における射線の長さが2mを超える場合、端末は、仮想対象が屋外シーンに位置すると決定することができる。
なお、上記のステップS1003からステップS1005は、環境画面表示の全過程にわたって実行される。つまり、全てのフレームの環境画面において、仮想対象の所在する観察シーンを検出する。例示的に、1秒に、30フレームの環境画面が含まれる場合、1秒で、端末は、仮想対象の所在する観察シーンに対する検出を30回行う必要がある。
ステップS1006において、仮想対象が移動操作に基づいて屋外シーンから屋内シーンに移動したことを検出した時に、第1観察方式を第2観察方式に調整する。
ここで、第1観察方式は、第1シーンに対応し、第2観察方式は、第2シーンに対応する。
ステップS1007において、アプリケーションプログラムの第2環境画面を表示する。
幾つかの実施形態において、第2環境画面に、第2シーンに位置する仮想対象が含まれ、第2環境画面は、仮想環境において第2観察方式で仮想環境を観察する画面である。
従って、本実施形態で提供される仮想環境を観察する方式は、仮想対象の所在する異なる観察シーンに応じて、仮想環境において仮想対象を観察する方式を変換することによって、観察シーンに適する観察方式で該観察シーンにおける仮想対象を観察し、それによって、観察方式が単一であるため、異なる観察シーンでも同一の観察方式で仮想対象を観察する時、不適切な観察角度、観察距離又は観察設定によって戦闘に影響する問題を避けることができる。
本実施形態で提供される方法において、垂直射線検出により、仮想対象の所在する観察シーンを判定し、便利かつ正確な方式で、仮想対象の所在する観察シーンを検出し、それによって、観察方式が単一であるため、異なる観察シーンでも同一の観察方式で仮想対象を観察する時、不適切な観察角度、観察距離又は観察設定によって戦闘に影響する問題を避けることができる。
任意選択な実施形態において、第1シーンは、屋外シーンであり、第2シーンは、屋内シーンである。端末は、衝突検出方式で、仮想環境における仮想対象の所在する観察シーンを検出し、該衝突検出方式は、水平射線検出である。図14は、本願の別の例示的な実施形態における仮想環境の観察方法を示す。該方法を図1に示した端末100に適用することを例として説明する。図14に示すように、該方法は以下を含む。
ステップS1401において、アプリケーションプログラムの第1環境画面を表示する。
幾つかの実施形態において、第1環境画面に第1シーンに位置する仮想対象が含まれ、該第1環境画面は、仮想環境において第1観察方式で仮想環境を観察する画面である。
幾つかの実施形態において、仮想環境において、仮想対象は少なくとも1つのシーンに属する。例示的に、仮想環境における観察シーンは、屋内シーン及び屋外シーンのうちのいずれか1つを含む。屋内シーンと屋外シーンは、独立して相補性を有する2つの観察シーンであるため、仮想対象は、屋内シーンに位置しなければ、屋外シーンに位置する。
ステップS1402において、移動操作を受け取る。
幾つかの実施形態において、該移動操作は、仮想対象を第1シーンから第2シーンに移動させるためのものである。ここで、第1シーンは、屋外シーンであり、第2シーンは、屋内シーンであり、即ち、該移動操作は、仮想対象を屋外シーンから屋内シーンに移動させるためのものである。
ステップS1403において、仮想対象におけるターゲット点を始点として、仮想環境における水平方向に沿って、方向が互いに異なる少なくとも3本の検出射線を引く。
幾つかの実施形態において、該ターゲット点は、仮想対象における物理的中心点、頭部に対応する点、腕に対応する点、脚部に対応する点のうちのいずれか1つであってもよく、仮想対象におけるいずれか1つの点であってもよく、仮想対象外の、仮想対象に対応するいずれか1つの点であってもよい。
幾つかの実施形態において、該少なくとも3本の検出射線のうちの2本ずつから形成される夾角は、所定夾角よりも大きい。例示的に、2本ずつから形成される検出射線の最小夾角は、90°である場合、多くとも4本の検出射線が存在し、3本の検出射線が存在する場合、2本ずつから形成される検出射線の夾角は120°であってもよく、又は、2つの夾角が90°であり、3番目の夾角が180°であってもよく、又は、各夾角がいずれも90°以上である任意の組み合わせであってもよい。
例示的に、図15を参照すると、図15は、仮想対象1501の平面図である。ここで、仮想対象1501のターゲット点1502を始点として、水平方向に沿って、検出射線1503、検出射線1504及び検出射線1505を引く。ここで、検出射線1503と検出射線1504との夾角は、90°であり、検出射線1504と検出射線1505との夾角は、110°であり、検出射線1503と検出射線1505との夾角は、160°である。
ステップS1404において、少なくとも3本の検出射線によって水平射線検出を行って返された第2検出結果を受け取る。
幾つかの実施形態において、該第2検出結果は、検出射線が水平方向に当たった仮想物体を表すためのものである。
ステップS1405において、第2検出結果に基づいて、仮想対象の所在する観察シーンを決定する。
幾つかの実施形態において、第2検出結果に基づいて、仮想対象の所在する観察シーンを決定する方式は、下記のいずれか1つを含む。
方式1において、第2検出結果に、少なくとも3本の検出射線が一番目の仮想物体に当たった時の射線の長さが含まれる。少なくとも3本の検出射線のうちの半数以上の検出射線が一番目の仮想物体に当たった時の前記射線の長さが所定の長さ以下である場合、端末は、仮想対象が屋内シーンに位置すると決定することができる。少なくとも3本の検出射線のうちの半数を超える検出射線が一番目の仮想物体に当たった時の射線の長さが所定の長さを超える場合、端末は、仮想対象の所在する観察シーンが屋外シーンであると決定することができる。
方式2において、第2検出結果に、少なくとも3本の射線が当たった一番目の仮想物体の物体標識が含まれる。少なくとも3本の検出射線のうちの半数以上の検出射線が当たった一番目の仮想物体の物体標識が建物標識である場合、端末は、仮想対象が屋内シーンに位置すると決定することができる。少なくとも3本の検出射線のうちの半数を超える検出射線が当たった一番目の仮想物体の物体標識が建物標識ではない場合、端末は、仮想対象が屋外シーンに位置すると決定することができる。
なお、上記のステップS1403からステップS1405は、環境画面表示の全過程にわたって実行される。つまり、各フレームの環境画面について、仮想対象の所在する観察シーンを検出する。例示的に、1秒に、30フレームの環境画面が含まれる場合、1秒で、端末は、仮想対象の所在する観察シーンに対する検出を30回行う必要がある。
ステップS1406において、仮想対象が移動操作に基づいて屋外シーンから屋内シーンに移動したことを検出した時に、第1観察方式を第2観察方式に調整する。
ここで、第1観察方式は、第1シーンに対応し、第2観察方式は、第2シーンに対応する。
ステップS1407において、アプリケーションプログラムの第2環境画面を表示する。
幾つかの実施形態において、第2環境画面に、第2シーンに位置する仮想対象が含まれ、第2環境画面は、仮想環境において第2観察方式で仮想環境を観察する画面である。
従って、本実施形態で提供される仮想環境を観察する方式は、仮想対象の所在する異なる観察シーンに応じて、仮想環境において仮想対象を観察する方式を変換することによって、観察シーンに適する観察方式で該観察シーンにおける仮想対象を観察し、それによって、観察方式が単一であるため、異なる観察シーンでも同一の観察方式で仮想対象を観察する時、不適切な観察角度、観察距離又は観察設定によって戦闘に影響する問題を避けることができる。
本実施形態で提供される方法において、垂直射線検出により、仮想対象の所在する観察シーンを判定し、便利かつ正確な方式で、仮想対象の所在する観察シーンを検出し、それによって、観察方式が単一であるため、異なる観察シーンでも同一の観察方式で仮想対象を観察する時、不適切な観察角度、観察距離又は観察設定によって戦闘に影響する問題を避けることができる。
図16は、本願の別の例示的な実施形態における仮想環境の観察方法を示す。図16に示すように、該方法は以下を含む。
ステップS1601において、クライアントは、各フレームの画像に対して、仮想対象の所在する観察シーンを検出する。
例示的に、1秒に、30フレームの環境画面が含まれる場合、1秒で、端末は、仮想対象の所在する観察シーンに対する検出を30回行う必要がある。
ステップS1602において、ユーザは、屋内に入るようにクライアントにおける仮想対象を制御する。
幾つかの実施形態において、端末は、移動操作を受け取る。該移動操作は、仮想環境において移動するように仮想対象を制御するためのものである。
ステップS1603において、クライアントは、射線により、仮想対象が屋内シーンに位置することを検出する。
ステップS1604において、カメラモデルと仮想対象との距離を第1距離から第2距離に調整する。
幾つかの実施形態において、第1距離は、第2距離よりも大きい。つまり、仮想対象が屋外シーンから屋内シーンに移動した時、カメラモデルと仮想対象との距離を小さくする。
ステップS1605において、ユーザは、屋外に移動するようにライアントにおける仮想対象を制御する。
ステップS1606において、クライアントは、射線により、仮想対象が屋外シーンに位置することを検出する。
ステップS1607において、カメラモデルと仮想対象との距離を第2距離から第1距離に調整する。
従って、本実施形態で提供される仮想環境を観察する方式は、仮想対象の所在する異なる観察シーンに応じて、仮想環境において仮想対象を観察する方式を変換することによって、観察シーンに適する観察方式で該観察シーンにおける仮想対象を観察し、それによって、観察方式が単一であるため、異なる観察シーンでも同一の観察方式で仮想対象を観察する時、不適切な観察角度、観察距離又は観察設定によって戦闘に影響する問題を避けることができる。
本実施形態で提供される方法において、仮想対象が屋内シーンに位置する時、カメラモデルと仮想対象との距離を短縮し、仮想物体が射線を遮ることを減少させる。
図17は、本願の例示的な一実施形態による仮想環境の観察装置の構造ブロック図である。該装置は、図1に示した端末100において実現することができる。該装置は、
アプリケーションプログラムの第1環境画面を表示するように構成される表示モジュール1710であって、第1環境画面に第1シーンに位置する仮想対象が含まれ、第1環境画面は、前記仮想環境において第1観察方式で仮想環境を観察する画面である、表示モジュール1710と、
移動操作を受け取るように構成される受け取りモジュール1720であって、移動操作は、仮想対象を第1シーンから第2シーンに移動させるためのものであり、第1シーンと第2シーンは、異なる2種類の観察シーンであり、観察シーンは、仮想環境を観察する少なくとも1つの観察方式に対応する、受け取りモジュール1720と、
移動操作に基づいて第1観察方式を第2観察方式に調整するように構成される調整モジュール1730であって、第1観察方式は、第1シーンに対応し、第2観察方式は、第2シーンに対応する、調整モジュール1730と、を備え、
表示モジュール1710は更に、アプリケーションプログラムの第2環境画面を表示するように構成され、第2環境画面に、第2シーンに位置する前記仮想対象が含まれ、第2環境画面は、仮想環境において、第2観察方式で仮想環境を観察する画面である。
選択可能な実施形態において、図18に示すように、第1シーンは、屋外シーンを含み、第2シーンは、屋内シーンを含み、調整モジュール1730は、
衝突検出方式で、仮想環境における仮想対象の所在する観察シーンを検出するように構成される検出ユニット1731と、
仮想対象が移動操作に基づいて屋外シーンから屋内シーンに移動したことを検出した時に、第1観察方式を第2観察方式に調整するように構成される調整ユニット1732と、を備える。
選択可能な実施形態において、第1観察方式は、カメラモデルによって仮想対象から第1距離にある位置で仮想環境を観察する方式を含み、第2観察方式は、カメラモデルによって仮想対象から第2距離にある位置で仮想環境を観察する方式を含み、カメラモデルは、仮想環境において仮想対象を回って観察する三次元モデルを含み、第1距離は、第2距離よりも大きい。調整ユニット1732は更に、カメラモデルと仮想対象との距離を第1距離から第2距離に調整するように構成される。
選択可能な実施形態において、第1観察方式は、カメラモデルによって第1視角で仮想環境を観察する方式を含み、第2観察方式は、カメラモデルによって第2視角で仮想環境を観察する方式を含み、カメラモデルは、仮想環境において仮想対象を回って観察する三次元モデルを含み、第1視角の方向と仮想環境における水平方向との夾角は、第2視角の方向と水平方向との夾角よりも小さく、調整ユニット1732は更に、移動操作に基づいて、カメラモデルによって仮想対象を観察する角度を第1視角から第2視角に回転するように構成される。
選択可能な実施形態において、衝突検出方式は、垂直射線検出であり、検出ユニット1731は更に、仮想対象におけるターゲット点を始点として、仮想環境における垂直上向き方向に沿って垂直射線検出を行い、垂直射線検出を行って返された第1検出結果を受け取るように構成され、第1検出結果は、仮想対象の垂直上向き方向に当たった仮想物体を表すためのものであり、検出ユニット1731は更に、第1検出結果に基づいて仮想対象の所在する観察シーンを決定するように構成される。
選択可能な実施形態において、第1検出結果に、垂直射線検出で当たった一番目の仮想物体の物体標識が含まれ、検出ユニット1731は更に、第1検出結果における物体標識が仮想建物標識である場合、仮想対象の所在する観察シーンが屋内シーンであると決定するように構成され、検出ユニット1731は更に、第1検出結果における物体標識が、仮想建物以外の他の標識である場合、仮想対象の所在する観察シーンが屋外シーンであると決定するように構成される。
選択可能な実施形態において、第1検出結果に、垂直射線検出で一番目の仮想物体に当たった時の射線の長さが含まれ、検出ユニット1731は更に、第1検出結果における射線の長さが所定の長さ以下である場合、仮想対象の所在する観察シーンが屋内シーンであると決定するように構成され、検出ユニット1731は更に、第1検出結果における射線の長さが所定の長さを超える場合、仮想対象の所在する観察シーンが屋外シーンであると決定するように構成される。
選択可能な実施形態において、衝突検出方式は、水平射線検出を含み、検出ユニット1731は更に、仮想対象におけるターゲット点を始点として、仮想環境における水平方向に沿って、方向が互いに異なる少なくとも3本の検出射線を引くように構成され、2本ずつから形成される検出射線の夾角は、所定夾角よりも大きく、検出ユニット1731は更に、少なくとも3本の検出射線によって水平射線検出を行って返された第2検出結果を受け取るように構成され、第2検出結果は、検出射線が水平方向に当たった仮想物体を表すためのものであり、検出ユニット1731は更に、第2検出結果に基づいて、仮想対象の所在する観察シーンを決定するように構成される。
選択可能な実施形態において、第2検出結果に、少なくとも3本の検出射線が一番目の仮想物体に当たった時の射線の長さが含まれ、検出ユニット1731は更に、少なくとも3本の検出射線のうちの半数以上の検出射線が一番目の仮想物体に当たった時の前記射線の長さが所定の長さ以下である場合、仮想対象が屋内シーンに位置すると決定するように構成され、検出ユニット1731は更に、少なくとも3本の検出射線のうちの半数を超える検出射線が一番目の仮想物体に当たった時の射線の長さが所定の長さを超える場合、仮想対象が屋外シーンに位置すると決定するように構成される。
上記の実施形態における受け取りモジュール1720、調整モジュール1730は、プロセッサにより実現されてもよく、プロセッサとメモリにより協働で実現されてもよく、上記の実施形態における表示モジュール1710は、ディスプレイにより実現されてもよく、プロセッサとディスプレイにより協働で実現されてもよいことに留意されたい。
図19は、本願の例示的な一実施形態による端末1900の構造ブロック図である。該端末1900は、スマートフォン、タブレット、MP3プレーヤー(Moving Picture Experts Group Audio Layer III:動画専門家集団オーディオ規格のレイヤ3)、MP4(Moving Picture Experts Group Audio Layer IV::動画専門家集団オーディオ規格のレイヤ4)プレーヤー、ノートパソコン又はデスクトップパソコンであってもよい。端末1900は、ユーザ装置、携帯端末、ラップトップ端末、デスクトップ端末などの他の名称で呼ばれてもよい。
一般的に、端末1900は、プロセッサ1901と、メモリ1902とを備える。
プロセッサ1901は、1つ又は複数のプロセッシングコアを含んでもよい。例えば、4コアプロセッサ、8コアプロセッサ等である。プロセッサ1901は、DSP(Digital Signal Processing:デジタル信号処理)、FPGA(Field-Programmable Gate Array:フィールドプログラマブルゲートアレイ)、PLA(Programmable Logic Array:プログラマブルロジックアレイ)のうちの少なくとも1つのハードウェア形態により実現してもよい。プロセッサ1901は、ホストプロセッサ及びコプロセッサを含んでもよい。ホストプロセッサは、アウェイク状態であるデータを処理するためのプロセッサであり、CPU(Central Processing Unit:中央プロセッサ)とも呼ばれる。コプロセッサは、待機状態であるデータを処理するための低電力プロセッサである。幾つかの実施形態において、プロセッサ1901に、GPU(Graphics Processing Unit:グラフィックプロセッサ)が集積されてもよい。GPUは、ディスプレイが表示すべきコンテンツのレンダリング及び描画に用いられる。幾つかの実施形態において、プロセッサ1901は、AI(Artificial Intelligence:人工知能)プロセッサを含んでもよい。該AIプロセッサは、デバイス学習に関わる演算操作を処理するためのものである。
メモリ1902は、1つ又は複数のコンピュータ可読記憶媒体を含んでもよい。該コンピュータ可読記憶媒体は、非一時的なものであってもよい。メモリ1902は、高速ランダムアクセスメモリ、及び不揮発性メモリを含んでもよい。例えば、1つ又は複数の磁気ディスク記憶装置、フラッシュ記憶装置を含む。幾つかの実施形態において、メモリ1902における非一時的なコンピュータ可読記憶媒体は、少なくとも1つの命令を記憶するためのものである。該少なくとも1つの命令は、プロセッサ1901により実行され、本願の方法の実施形態で提供される仮想環境の観察方法を実現させる。
幾つかの実施形態において、端末1900は、選択的に、外部装置インタフェース1903と、少なくとも1つの外部装置とを備えてもよい。プロセッサ1901、メモリ1902及び外部装置インタフェース1903は、バス又は信号線を介して接続される。各外部装置は、バス、信号線又は回路基板を介して外部装置インタフェース1903に接続される。具体的に、外部装置は、無線周波数回路1904、タッチディスプレイ1905、カメラ1906、オーディオ回路1907、位置決めユニット1908及電源1909のうちの少なくとも1つを含む。
外部装置インタフェース1903は、I/O(Input /Output:入力/出力)に関わる少なくとも1つの外部装置をプロセッサ1901及びメモリ1902に接続するためのものであってもよい。幾つかの実施形態において、プロセッサ1901、メモリ1902及び外部装置インタフェース1903は、同一のチップ又は回路基板に集積される。幾つかの他の実施形態において、プロセッサ1901、メモリ1902及び外部装置インタフェース1903のうちのいずれか1つ又は2つは、単独のチップ又は回路基板上で実現されてもよく、本実施形態はこれを限定するものではない。
無線周波数回路1904は、電磁信号とも呼ばれるRF(Radio Frequency:無線周波数)信号の受信及び送信に用いられる。無線周波数回路1904は電磁信号を経由して通信ネットワーク及び他の通信装置と通信する。無線周波数回路1904は、電気信号を電磁信号に変換して送信するか又は受け取った電磁信号を電気信号に変換する。選択的に、無線周波数回路1904は、アンテナシステム、RF送受信機、1つ又は複数の増幅器、チューナ、発振器、デジタル信号プロセッサ、コーデックチップセット、加入者識別モジュールカードなどを含む。無線周波数回路1904は、少なくとも1つの無線通信プロトコルにより、他の端末と通信することができる。該無線通信プロトコルは、ワールドワイドウェブ、メトロエリアネットワーク、イントラネット、各世代の移動体通信ネットワーク(2G、3G、4G及び5G)、無線ローカルエリアネットワーク及び/又はWiFi(Wireless Fidelity:ワイヤレスフィデリティ)ネットワークを含むが、これらに限定されない。幾つかの実施形態において、無線周波数回路1904は、NFC(Near Field Communication:近接場通信)に関わる回路を含んでもよく、本願は、これを限定するものではない。
ディスプレイ1905は、UI(User Interface:ユーザインタフェース)を表示するためのものである。該UIは、図形、テキスト、アイコン、ビデオ及びそれらの任意の組み合わせを含んでもよい。ディスプレイ1905がタッチディスプレイである場合、ディスプレイ1905は、ディスプレイ1905の表面又は表面の上方のタッチ信号を収集する能力を持つ。該タッチ信号は、制御信号としてプロセッサ1901に入力されて処理されてもよい。この場合、ディスプレイ1905は、ソフトボタン及び/又はソフトキーボードとも呼ばれる仮想ボタン及び/又は仮想キーボードを提供するためのものであってもよい。幾つかの実施形態において、ディスプレイ1905は、1つであってもよく、端末1900のフロントパネルに設けられる。別の幾つかの実施形態において、ディスプレイ1905は少なくとも2つであってもよく、それぞれ端末1900の異なった表面に設けられるか又は折り畳むように設けられる。また幾つかの実施形態において、ディスプレイ1905は、フレキシブルディスプレイであってもよく、端末1900の湾曲表面又は折り畳み面に設けられる。なお、ディスプレイ1905は、非矩形の不規則な画像に設けられてもよく、つまり、異形ディスプレイであってもよい。ディスプレイ1805として、LCD(Liquid Crystal Display:液晶ディスプレイ)、OLED(Organic Light-Emitting Diode:有機発光ダイオード)などの材質からなるものであってもよい。
カメラユニット1906は、画像又はビデオの収集に用いられる。選択的に、カメラユニット1906は、フロントカメラ及びリアカメラを備える。一般的に、フロントカメラは、端末のフロントパネルに設けられ、リアカメラは、端末の背面に設けられる。幾つかの実施形態において、リアカメラは少なくとも2つであり、それぞれメインカメラ、デプスカメラ、広角カメラ、長焦点カメラのうちのいずれか1つである。これにより、メインカメラとデプスカメラを組み合わせて背景ぼかし機能を実現させる。メインカメラと広角カメラを組み合わせてパノラマ撮影及びVR(Virtual Reality:仮想現実)撮影機能又は他の組み合わせによる撮影機能を実現させる。幾つかの実施形態において、カメラユニット1906は、フラッシュを含んでもよい。フラッシュは、単色フラッシュであってもよく、二色フラッシュであってもよい。二色フラッシュは、暖色光フラッシュと冷色光フラッシュとの組み合わせを指し、様々な色温度での光線補償に用いられる。
オーディオ回路1907は、マイクロホン及びスピーカーを含んでもよい。マイクロホンは、ユーザ及び環境の音波を収集し、音波を電気信号に変換してプロセッサ1901に入力して処理するか、又は無線周波数回路1904に入力して音声通信を実現させる。ステレオ音響の収集又はノイズ低減を実現させるために、マイクロホンは、複数であってもよく、それぞれ端末1900の様々な部位に設けられる。マイクロホンは、アレイマイクロホン又は全方向収集型マイクロホンであってもよい。スピーカーは、プロセッサ1901又は無線周波数回路1904からの電気信号を音波に変換するためのものである。スピーカーは、従来のフィルムスピーカーであってもよく、圧電セラミックススピーカーであってもよい。スピーカーは、圧電セラミックススピーカーである場合、電気信号を、人間にとって可聴な音波に変換することができるだけでなく、電気信号を、人間にとって不可聴な音波に変換して距離測定などの用途に適用することもできる。幾つかの実施形態において、オーディオ回路1907は、イヤホンジャックを含んでもよい。
位置決めユニット1908は、端末1900の現在の地理的位置を位置決めし、ナビゲーション又はLBS(Location Based Service:ロケーションベースサービス)を実現させるためのものである。位置決めユニット1908は、米国のGPS(Global Positioning System:全地球測位システム)、中国の北斗システム又はロシアのガリレオシステムに基づいた位置決めユニットであってもよい。
電源1909は、端末1900における各ユニットに給電するためのものである。電源1909は、交流電、直流電、使い捨て電池又は充電可能な電池であってもよい。電源1909が充電可能な電池を含む場合、該充電可能な電池は、有線充電電池又は無線充電電池であってもよい。有線充電電池は、有線回路により充電される電池であり、無線充電電池は、無線コイルにより充電される電池である。該充電可能な電池は、急速充電技術をサポートするものであってもよい。
幾つかの実施形態において、端末1900は、1つ又は複数のセンサ1910を更に備える。該1つ又は複数のセンサ1910は、加速度センサ1911、ジャイロセンサ1912、圧力センサ1913、指紋センサ1914、光学センサ1915及び近接センサ1916を含むが、これらに限定されない。
加速センサ1911は、端末1900により確立された座標系の3つの座標軸における加速度の大きさを検出することができる。例えば、加速度センサ1911は、3つの座標軸における重力加速度の成分を検出することができる。プロセッサ1901は、加速度センサ1911により収集された重力加速度信号に基づいて、タッチディスプレイ1905を、横ビュー又は縦ビューによりユーザインタフェースの表示を行うように制御することができる。加速度センサ1911は、ゲーム又はユーザの移動データの収集にも用いられる。
ジャイロセンサ1912は、端末1900の本体方向及び回転角度を検出することができる。ジャイロセンサ1912は、ユーザによる端末1900に対する3D動作を加速度センサ1911と協力して収集することができる。プロセッサ1901は、ジャイロセンサ1912により収集されたデータに基づいて、動作検知(例えば、ユーザによる傾斜操作に基づいてUIを変える)、撮影時の画像安定化、ゲーム制御及び慣性航法機能を実現させることができる。
圧力センサ1913は、端末1900の側枠及び/又はタッチディスプレイ1905の下層に設けられてもよい。圧力センサ1913が端末1900の側枠に設けられる時、ユーザによる端末1900に対する把持信号を検出することができる。プロセッサ1901は、圧力センサ1913により収集された把持信号に基づいて、左右手識別又はショートカット操作を行う。圧力センサ1913がタッチディスプレイ1905の下層に設けられる時、プロセッサ1901は、ユーザによるタッチディスプレイ1905に対する加圧操作に基づいて、UIインタフェースにおける操作可能なコントロールの制御を実現させる。操作可能なコントロールは、ボタンコントロール、スクロールバーコントロール、アイコンコントロール、メニューコントロールのうちの少なくとも1つを含む。
指紋センサ1914は、ユーザの指紋の収集に用いられる。プロセッサ1901は、指紋センサ1914により収集された指紋に基づいて、ユーザの身分認証を行う。又は、指紋センサ1914は、収集された指紋に基づいて、ユーザの身分認証を行う。ユーザの身分が信頼できる身分であると判定した時、プロセッサ1901は、該ユーザによる関連機密操作の実行を許可する。該機密操作は、スクリーンアンロック、暗号化情報の確認、ソフトウェアダウンロード、支払い及び設定変更などを含む。指紋センサ1914は、端末1900の正面、背面又は側面に設けられてもよい。端末1900に物理的ボタン又はメーカーLogoが設けられた場合、指紋センサ1914は、物理的ボタン又はメーカーLogoと一体化されてもよい。
光学センサ1915は、環境光の強度の収集に用いられる。一実施形態において、プロセッサ1901は、光学センサ1915により収集された環境光の強度に基づいて、タッチディスプレイ1905の表示輝度を制御することができる。具体的に、環境光の強度が高い時、タッチディスプレイ1905の表示輝度を高くする。環境光の強度が低い時、タッチディスプレイ1905の表示輝度を低くする。別の実施形態において、プロセッサ1901は、光学センサ1915により収集された環境光の強度に基づいて、カメラユニット1906の撮影パラメータを動的に調整することもできる。
近接センサ1916は、距離センサとも呼ばれ、一般的に、端末1900のフロントパネルに設けられる。近接センサ1916は、ユーザと端末1900の正面との距離の収集に用いられる。一実施形態において、近接センサ1916は、ユーザと端末1900の正面との距離が次第に小さくなることを検出した時に、プロセッサ1901により、タッチディスプレイ1905をスクリーン点灯状態からスクリーン消灯状態に切り替えるように制御する。近接センサ1916は、ユーザと端末1900の正面との距離が次第に大きくなることを検出した時に、プロセッサ1901により、タッチディスプレイ1905をスクリーン消灯状態からスクリーン点灯状態に切り替えるように制御する。
図19に示した構造は、端末1900を限定するものではなく、図示したものよりも多い又は少ないユニットを含んでもよく、幾つかのユニットを組み合わせてもよく、様々なユニット配置を利用してもよいことは、当業者であれば理解されるべきである。
本願の実施形態は、仮想環境を観察する端末を更に提供する。該端末は、プロセッサと、メモリと、を備え、メモリに、コンピュータ可読命令が記憶されており、コンピュータ可読命令が前記プロセッサにより実行される時に、プロセッサに、仮想環境の観察方法のステップを実行させる。ここで、仮想環境の観察方法のステップは、上記の各実施形態における仮想環境の観察方法のステップであってもよい。
本願の実施形態は、コンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体にコンピュータ可読命令が記憶されており、コンピュータ可読命令がプロセッサにより実行される時に、プロセッサに、仮想環境の観察方法のステップを実行させる。ここで、仮想環境の観察方法のステップは、上記の各実施形態における仮想環境の観察方法のステップであってもよい。
上記の実施形態の各方法における全て又は一部のステップは、プログラム命令に係るハードウェアにより実現されてもよく、該プログラムは、コンピュータ可読記憶媒体に記憶されてもよく、該コンピュータ可読記憶媒体は、上記の実施形態におけるメモリに含まれるコンピュータ可読記憶媒体であってもよく、端末に装着されていない単独で存在したコンピュータ可読記憶媒体であってもよいことは、当業者であれば理解すべきである。該コンピュータ可読記憶媒体に、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶されており、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットは、前記プロセッサによりロードされて実行され、図4、図10、図14及び図16のうちのいずれか1つに記載の仮想環境の観察方法を実現させる。
幾つかの実施形態において、該コンピュータ可読記憶媒体は、読み出し専用メモリ(ROM:Read Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、ソリッドステートドライブ(SSD:Solid State Drives)又は光ディスク等を含んでもよい。ここで、ランダムアクセスメモリは、抵抗変化型ランダムアクセスメモリ(ReRAM: Resistance Random Access Memory)及びダイナミックランダムアクセスメモリ(DRAM:Dynamic Random Access Memory)を含んでもよい。上記の本願の実施形態の番号は、ただ、記述するためのものであり、実施形態の優劣を意味しない。
上記の実施形態の各方法における全て又は一部のステップは、ハードウェアにより実現されてもよいし、プログラム命令に係るハードウェアにより実現されてもよく、前記プログラムは、コンピュータ可読記憶媒体に記憶されてもよく、上記に記載される記憶媒体は、読み出し専用メモリ、磁気ディスク又は光ディスク等であってもよいことは、当業者であれば理解すべきである。
以上は、本願の好適な実施形態に過ぎず、本願を限定するものではない。本願の精神や原則を逸脱しないあらゆる修正、均等な置換、改良などはすべて本発明の保護範囲内に含まれるものとする。
100 端末
120 オペレーティングシステム
122 アプリケーションプログラム
200 コンピュータシステム
220 第1デバイス
240 サーバ
260 第2デバイス
1710 表示モジュール
1720 受け取りモジュール
1730 調整モジュール
1731 検出ユニット
1732 調整ユニット
1900
1901 プロセッサ
1902 メモリ
1903 外部装置インタフェース
1904 無線周波数回路
1905 ディスプレイ
1906 カメラユニット
1907 オーディオ回路
1908 位置決めユニット
1909 電源
1910 センサ
1911 加速度センサ
1912 ジャイロセンサ
1913 圧力センサ
1914 指紋センサ
1915 光学センサ
1916 近接センサ

Claims (12)

  1. 端末が実行する、仮想環境の観察方法であって、
    アプリケーションプログラムの第1環境画面を表示するステップであって、前記第1環境画面に第1シーンに位置する仮想対象が含まれ、前記第1環境画面は、前記仮想環境において第1観察方式で前記仮想環境を観察する画面である、ステップと、
    移動操作を受け取るステップであって、前記移動操作は、前記仮想対象を前記第1シーンから第2シーンに移動させるためのものであり、前記第1シーンと前記第2シーンは、異なる2種類の観察シーンであり、前記観察シーンは、前記仮想環境を観察する少なくとも1つの観察方式に対応する、ステップと、
    前記移動操作に基づいて前記第1観察方式を第2観察方式に調整するステップであって、前記第1観察方式は、前記第1シーンに対応し、前記第2観察方式は、前記第2シーンに対応し、前記観察方式は、前記仮想対象からの射線が当たった仮想物体の物体標識に基づいて前記仮想対象が異なる観察シーンへ移動したことが検出されたときに調整される、ステップと、
    前記アプリケーションプログラムの第2環境画面を表示するステップであって、前記第2環境画面に前記第2シーンに位置する前記仮想対象が含まれ、前記第2環境画面は、前記仮想環境において前記第2観察方式で前記仮想環境を観察する画面である、ステップと、を含む、
    方法。
  2. 前記第1シーンは、屋外シーンを含み、前記第2シーンは、屋内シーンを含み、前記移動操作に基づいて前記第1観察方式を第2観察方式に調整するステップは、
    衝突検出方式で、前記仮想対象からの射線が仮想物体に当たった場合に前記仮想環境における前記仮想対象の所在する観察シーンを検出するステップと、
    前記仮想対象が前記移動操作に基づいて前記屋外シーンから前記屋内シーンに移動したことを検出した時に、前記第1観察方式を前記第2観察方式に調整するステップと、を含むことを特徴とする
    請求項1に記載の方法。
  3. 前記第1観察方式は、カメラモデルによって前記仮想対象から第1距離にある位置で前記仮想環境を観察する方式を含み、前記第2観察方式は、前記カメラモデルによって前記仮想対象から第2距離にある位置で前記仮想環境を観察する方式を含み、前記カメラモデルは、前記仮想環境において前記仮想対象を回って観察する三次元モデルを含み、前記第1距離は前記第2距離よりも大きく、
    前記第1観察方式を第2観察方式に調整するステップは、
    前記カメラモデルと前記仮想対象との距離を前記第1距離から前記第2距離に調整するステップを含むことを特徴とする
    請求項2に記載の方法。
  4. 前記第1観察方式は、カメラモデルが第1視角で前記仮想環境を観察する方式を含み、前記第2観察方式は、前記カメラモデルが第2視角で前記仮想環境を観察する方式を含み、前記カメラモデルは、前記仮想対象を回って観察する三次元モデルを含み、前記第1視角の方向と仮想環境における水平方向との夾角は、前記第2視角の方向と前記水平方向との夾角よりも小さく、
    前記移動操作に基づいて前記第1観察方式を第2観察方式に調整するステップは、
    前記移動操作に基づいて、前記カメラモデルによって前記仮想対象を観察する角度を前記第1視角から前記第2視角に回転するステップを含むことを特徴とする
    請求項2に記載の方法。
  5. 前記衝突検出方式は、垂直射線検出を含み、
    衝突検出方式で、前記仮想環境における前記仮想対象の所在する観察シーンを検出するステップは、
    前記仮想対象におけるターゲット点を始点として、前記仮想環境における垂直上向き方向に沿って前記垂直射線検出を行うステップと、
    前記垂直射線検出を行って返された第1検出結果を受け取るステップであって、前記第1検出結果は、前記仮想対象の垂直上向き方向に当たった仮想物体を表すためのものである、ステップと、
    前記第1検出結果に基づいて前記仮想対象の所在する観察シーンを決定するステップと、を含むことを特徴とする
    請求項2から4のいずれか一項に記載の方法。
  6. 前記第1検出結果に、前記垂直射線検出で当たった一番目の仮想物体の物体標識が含まれ、
    前記第1検出結果に基づいて前記仮想対象の所在する観察シーンを決定するステップは、
    前記第1検出結果における前記物体標識が仮想建物標識である場合、前記仮想対象の所在する観察シーンが前記屋内シーンであると決定するステップと、
    前記第1検出結果における前記物体標識が、前記仮想建物以外の他の標識である場合、前記仮想対象の所在する観察シーンが前記屋外シーンであると決定するステップと、を含むことを特徴とする
    請求項5に記載の方法。
  7. 前記第1検出結果に、前記垂直射線検出で一番目の仮想物体に当たった時の射線の長さが含まれ、
    前記第1検出結果に基づいて前記仮想対象の所在する観察シーンを決定するステップは、
    前記第1検出結果における前記射線の長さが所定の長さ以下である場合、前記仮想対象の所在する観察シーンが前記屋内シーンであると決定するステップと、
    前記第1検出結果における前記射線の長さが前記所定の長さを超える場合、前記仮想対象の所在する観察シーンが前記屋外シーンであると決定するステップと、を含むことを特徴とする
    請求項5に記載の方法。
  8. 前記衝突検出方式は、水平射線検出を含み、
    衝突検出方式で、前記仮想環境における前記仮想対象の所在する観察シーンを検出するステップは、
    前記仮想対象におけるターゲット点を始点として、前記仮想環境における水平方向に沿って、方向が互いに異なる少なくとも3本の検出射線を引くステップであって、前記少なくとも3本の検出射線のうちの2本の検出射線ずつから形成される検出射線の夾角は、所定夾角よりも大きい、ステップと、
    少なくとも3本の前記検出射線によって水平射線検出を行って返された第2検出結果を受け取るステップであって、前記第2検出結果は、前記検出射線が前記水平方向に当たった仮想物体を表すためのものであるステップと、
    前記第2検出結果に基づいて、前記仮想対象の所在する観察シーンを決定するステップと、を含むことを特徴とする
    請求項2から4のいずれか一項に記載の方法。
  9. 前記第2検出結果に、少なくとも3本の前記検出射線が一番目の仮想物体に当たった時の射線の長さが含まれ、
    前記第2検出結果に基づいて、前記仮想対象の所在する観察シーンを決定するステップは、
    少なくとも3本の前記検出射線のうちの半数以上の前記検出射線が一番目の仮想物体に当たった時の前記射線の長さが所定の長さ以下である場合、前記仮想対象が屋内シーンに位置すると決定するステップと、
    少なくとも3本の前記検出射線のうちの半数を超える前記検出射線が前記一番目の仮想物体に当たった時の前記射線の長さが前記所定の長さを超える場合、前記仮想対象が前記屋外シーンに位置すると決定するステップと、を含むことを特徴とする
    請求項8に記載の方法。
  10. 仮想環境の観察装置であって、請求項1から9のいずれか一項に記載の方法を行うように構成された装置。
  11. 端末であって、前記端末は、プロセッサと、メモリと、を備え、前記メモリに、コンピュータ可読命令が記憶されており、前記コンピュータ可読命令が前記プロセッサにより実行される時に、前記プロセッサに、請求項1から9のいずれか一項に記載の方法のステップを実行させる、端末。
  12. 1つ又は複数のプロセッサに、請求項1から9のいずれか一項に記載の方法のステップを実行させる、コンピュータプログラム。
JP2021514085A 2018-12-05 2019-11-05 仮想環境の観察方法、デバイス及び記憶媒体 Active JP7191210B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811478458.2A CN109634413B (zh) 2018-12-05 2018-12-05 对虚拟环境进行观察的方法、设备及存储介质
CN201811478458.2 2018-12-05
PCT/CN2019/115623 WO2020114176A1 (zh) 2018-12-05 2019-11-05 对虚拟环境进行观察的方法、设备及存储介质

Publications (2)

Publication Number Publication Date
JP2021535806A JP2021535806A (ja) 2021-12-23
JP7191210B2 true JP7191210B2 (ja) 2022-12-16

Family

ID=66071135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021514085A Active JP7191210B2 (ja) 2018-12-05 2019-11-05 仮想環境の観察方法、デバイス及び記憶媒体

Country Status (6)

Country Link
US (2) US11783549B2 (ja)
JP (1) JP7191210B2 (ja)
KR (1) KR20210036392A (ja)
CN (1) CN109634413B (ja)
SG (1) SG11202103706SA (ja)
WO (1) WO2020114176A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109634413B (zh) * 2018-12-05 2021-06-11 腾讯科技(深圳)有限公司 对虚拟环境进行观察的方法、设备及存储介质
CN110585707B (zh) * 2019-09-20 2020-12-11 腾讯科技(深圳)有限公司 视野画面显示方法、装置、设备及存储介质
CN111784844B (zh) * 2020-06-09 2024-01-05 北京五一视界数字孪生科技股份有限公司 观察虚拟对象的方法、装置、存储介质及电子设备
CN112843716B (zh) * 2021-03-17 2024-06-11 网易(杭州)网络有限公司 虚拟物体提示与查看方法、装置、计算机设备及存储介质
CN117339205A (zh) * 2022-06-29 2024-01-05 腾讯科技(成都)有限公司 画面显示方法、装置、设备、存储介质及程序产品
US11801448B1 (en) 2022-07-01 2023-10-31 Datadna, Inc. Transposing virtual content between computing environments

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249799A (ja) 2011-06-02 2012-12-20 Nintendo Co Ltd 画像処理装置、画像処理方法、および画像処理装置の制御プログラム
JP2014184300A (ja) 2014-04-28 2014-10-02 Copcom Co Ltd ゲームプログラム、及びゲーム装置
JP2016171989A (ja) 2015-03-16 2016-09-29 株式会社スクウェア・エニックス プログラム、記録媒体、情報処理装置及び制御方法
JP2018110629A (ja) 2017-01-06 2018-07-19 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、情報処理方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US6283857B1 (en) * 1996-09-24 2001-09-04 Nintendo Co., Ltd. Three-dimensional image processing apparatus with enhanced automatic and user point of view control
US10151599B1 (en) * 2003-03-13 2018-12-11 Pamala Meador Interactive virtual reality tour
JP4474640B2 (ja) * 2004-05-11 2010-06-09 株式会社セガ 画像処理プログラム、ゲーム処理プログラムおよびゲーム情報処理装置
GB2462095A (en) * 2008-07-23 2010-01-27 Snell & Wilcox Ltd Processing of images to represent a transition in viewpoint
US20130303247A1 (en) * 2012-05-08 2013-11-14 Mediatek Inc. Interaction display system and method thereof
US8979652B1 (en) * 2014-03-27 2015-03-17 TECHLAND Sp. z o. o Natural movement in a virtual environment
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
KR20160128119A (ko) * 2015-04-28 2016-11-07 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10403043B2 (en) * 2016-04-14 2019-09-03 The Research Foundation For The State University Of New York System and method for generating a progressive representation associated with surjectively mapped virtual and physical reality image data
WO2018020735A1 (ja) * 2016-07-28 2018-02-01 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US10372970B2 (en) * 2016-09-15 2019-08-06 Qualcomm Incorporated Automatic scene calibration method for video analytics
CN106237616A (zh) * 2016-10-12 2016-12-21 大连文森特软件科技有限公司 基于在线可视化编程的vr器械格斗类游戏制作体验***
US10389935B2 (en) * 2016-12-13 2019-08-20 Canon Kabushiki Kaisha Method, system and apparatus for configuring a virtual camera
CN106600709A (zh) * 2016-12-15 2017-04-26 苏州酷外文化传媒有限公司 基于装修信息模型的vr虚拟装修方法
WO2019032967A1 (en) * 2017-08-10 2019-02-14 Google Llc HAND INTERACTION SENSITIVE TO THE CONTEXT
US10726626B2 (en) * 2017-11-22 2020-07-28 Google Llc Interaction between a viewer and an object in an augmented reality environment
CN107977141B (zh) * 2017-11-24 2021-03-23 网易(杭州)网络有限公司 交互控制方法、装置、电子设备及存储介质
CN108665553B (zh) * 2018-04-28 2023-03-17 腾讯科技(深圳)有限公司 一种实现虚拟场景转换的方法及设备
CN108717733B (zh) * 2018-06-07 2019-07-02 腾讯科技(深圳)有限公司 虚拟环境的视角切换方法、设备及存储介质
CN109634413B (zh) * 2018-12-05 2021-06-11 腾讯科技(深圳)有限公司 对虚拟环境进行观察的方法、设备及存储介质
US20200285784A1 (en) * 2019-02-27 2020-09-10 Simulation Engineering, LLC Systems and methods for generating a simulated environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249799A (ja) 2011-06-02 2012-12-20 Nintendo Co Ltd 画像処理装置、画像処理方法、および画像処理装置の制御プログラム
JP2014184300A (ja) 2014-04-28 2014-10-02 Copcom Co Ltd ゲームプログラム、及びゲーム装置
JP2016171989A (ja) 2015-03-16 2016-09-29 株式会社スクウェア・エニックス プログラム、記録媒体、情報処理装置及び制御方法
JP2018110629A (ja) 2017-01-06 2018-07-19 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大野 功二,3Dゲームをおもしろくする技術 ,第1版,SBクリエイティブ株式会社,2014年08月05日,第709-712ページ,特に「プレイヤーキャラに密着したカメラ」に関する記載を参照。

Also Published As

Publication number Publication date
WO2020114176A1 (zh) 2020-06-11
JP2021535806A (ja) 2021-12-23
KR20210036392A (ko) 2021-04-02
US20230360343A1 (en) 2023-11-09
US11783549B2 (en) 2023-10-10
CN109634413A (zh) 2019-04-16
CN109634413B (zh) 2021-06-11
SG11202103706SA (en) 2021-05-28
US20210201591A1 (en) 2021-07-01

Similar Documents

Publication Publication Date Title
JP7264993B2 (ja) 仮想対象と投擲物とのインタラクションを制御する方法及びその装置、並びにコンピュータプログラム
US11221726B2 (en) Marker point location display method, electronic device, and computer-readable storage medium
JP7191210B2 (ja) 仮想環境の観察方法、デバイス及び記憶媒体
US11703993B2 (en) Method, apparatus and device for view switching of virtual environment, and storage medium
CN108619721B (zh) 虚拟场景中的距离信息显示方法、装置及计算机设备
US11628371B2 (en) Method, apparatus, and storage medium for transferring virtual items
CN112494955B (zh) 虚拟对象的技能释放方法、装置、终端及存储介质
CN111035918A (zh) 基于虚拟环境的侦察界面显示方法、装置及可读存储介质
CN111921197B (zh) 对局回放画面的显示方法、装置、终端及存储介质
CN110496392B (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN111273780B (zh) 基于虚拟环境的动画播放方法、装置、设备及存储介质
CN108786110A (zh) 虚拟环境中的瞄准镜显示方法、设备及存储介质
WO2022227915A1 (zh) 显示位置标记的方法、装置、设备及存储介质
US20220291791A1 (en) Method and apparatus for determining selected target, device, and storage medium
CN108744511A (zh) 虚拟环境中的瞄准镜显示方法、设备及存储介质
CN109806583B (zh) 用户界面显示方法、装置、设备及***
CN110833695A (zh) 基于虚拟场景的业务处理方法、装置、设备及存储介质
CN113289336A (zh) 在虚拟环境中标记物品的方法、装置、设备及介质
CN113134232A (zh) 虚拟对象的控制方法、装置、设备及计算机可读存储介质
CN111035929B (zh) 基于虚拟环境的淘汰信息反馈方法、装置、设备及介质
CN112121438A (zh) 操作提示方法、装置、终端及存储介质
CN112057861B (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
CN111754631B (zh) 三维模型的生成方法、装置、设备及可读存储介质
JP2023528119A (ja) 仮想オブジェクトの制御方法、装置、機器及びコンピュータプログラム
CN114011073A (zh) 控制载具的方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221206

R150 Certificate of patent or registration of utility model

Ref document number: 7191210

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150