JP6799017B2 - 端末装置、システム、プログラム及び方法 - Google Patents

端末装置、システム、プログラム及び方法 Download PDF

Info

Publication number
JP6799017B2
JP6799017B2 JP2017566043A JP2017566043A JP6799017B2 JP 6799017 B2 JP6799017 B2 JP 6799017B2 JP 2017566043 A JP2017566043 A JP 2017566043A JP 2017566043 A JP2017566043 A JP 2017566043A JP 6799017 B2 JP6799017 B2 JP 6799017B2
Authority
JP
Japan
Prior art keywords
image
real space
space
virtual
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017566043A
Other languages
English (en)
Other versions
JPWO2019123509A1 (ja
Inventor
小笠原 博之
博之 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gungho Online Entertainment Inc
Original Assignee
Gungho Online Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gungho Online Entertainment Inc filed Critical Gungho Online Entertainment Inc
Publication of JPWO2019123509A1 publication Critical patent/JPWO2019123509A1/ja
Application granted granted Critical
Publication of JP6799017B2 publication Critical patent/JP6799017B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/327Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections using wireless networks, e.g. Wi-Fi® or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本開示は、仮想空間に配置された仮想オブジェクトに対して指示入力を行う実空間のプレイヤを撮像した画像に、当該仮想空間を合成して出力するための端末装置、システム、プログラム及び方法に関する。
従来より、そのプレイヤの指示入力に連動して、仮想空間内に配置された操作対象オブジェクトを操作するためのシステムが知られていた。その一例としては、例えば特許文献1のように、プレイヤがヘッドマウントディスプレイ(HMD)を装着し、ヘッドマウントディスプレイのディスプレイに表示された仮想空間をプレイヤ自らの視点で仮想空間内を移動したり、操作対象オブジェクトを操作することで、プレイヤがその仮想空間内に存在するかのような仮想現実を体験することが可能なシステムがあった。
しかし、このような場合、プレイヤはヘッドマウントディスプレイを介して仮想空間を認識することができる一方で、プレイヤの操作を観覧・観戦している第三者にとっては、単にプレイヤの操作を見るだけで十分に趣向が高いものとは言えなかった。
特開2017−170106号公報
そこで、上記のような技術を踏まえ、本開示では、様々な実施形態により、第三者にとってより趣向の高い仮想空間の表示が可能な端末装置、システム、プログラム、又は方法を提供する。
本開示の一態様によれば、「所定の指示命令が記憶されたメモリと、前記所定の指示命令に基づいて、仮想空間に配置された仮想カメラによって仮想的に撮像された仮想空間画像と、実空間に配置された実空間カメラによって撮影され、前記仮想空間に配置された仮想オブジェクトに対して指示入力を行う実空間のプレイヤを含む実空間画像とから、前記仮想空間画像の少なくとも一部と前記実空間画像に含まれるプレイヤ画像とを合成し、合成された画像を出力するための処理をするように構成されるプロセッサと、を含む端末装置」が提供される。
本開示の一態様によれば、「上記端末装置と、実空間に配置され前記端末装置と通信可能に接続された、仮想空間に配置された仮想オブジェクトに対して指示入力を行う実空間のプレイヤを含む実空間画像を撮影するための実空間カメラと、前記端末装置と通信可能に接続された、前記仮想空間に配置された仮想カメラによって仮想的に撮像された仮想空間画像の少なくとも一部と、前記実空間画像に含まれるプレイヤ画像とが合成された画像を表示するためのディスプレイと、を含むシステム」が提供される。
本開示の一態様によれば、「所定の指示命令を記憶するように構成されたメモリと、前記所定の指示命令に基づいて処理をするように構成されたプロセッサを含むコンピュータに、仮想空間に配置された仮想カメラによって仮想的に撮像された仮想空間画像と、実空間に配置された実空間カメラによって撮影され、前記仮想空間に配置された仮想オブジェクトに対して指示入力を行う実空間のプレイヤを含む実空間画像とから、前記仮想空間画像の少なくとも一部と前記実空間画像に含まれるプレイヤ画像とを合成する処理と、合成された画像を出力する処理と、を実行させるためのプログラム」が提供される。
本開示の一態様によれば、「所定の指示命令を記憶するように構成されたメモリと、前記所定の指示命令に基づいて所定の処理をするように構成されたプロセッサを含む端末装置において、前記プロセッサが前記所定の指示命令を処理することによりなされる方法であって、仮想空間に配置された仮想カメラによって仮想的に撮像された仮想空間画像と、実空間に配置された実空間カメラによって撮影され、前記仮想空間に配置された仮想オブジェクトに対して指示入力を行う実空間のプレイヤを含む実空間画像とから、前記仮想空間画像の少なくとも一部と前記実空間画像に含まれるプレイヤ画像とを合成する段階と、合成された画像を出力する段階と、を含む方法」が提供される。
本開示の様々な実施形態によれば、第三者にとってより趣向の高い仮想空間の表示が可能な端末装置、システム、プログラム、又は方法を提供することができる。
なお、上記効果は説明の便宜のための例示的なものであるにすぎず、限定的なものではない。上記効果に加えて、または上記効果に代えて、本開示中に記載されたいかなる効果や当業者であれば明らかな効果を奏することも可能である。
図1aは、本開示の一実施形態に係るシステム1を概念的に説明するための図である。 図1bは、本開示の一実施形態に係るシステム1においてディスプレイ300に表示される画面の例を示す図である。 図2は、本開示の一実施形態に係るシステム1の構成を示すブロック図である。 図3は、本開示の一実施形態に係るシステム1において実行される処理フローを示す図である。 図4は、本開示の一実施形態に係る端末装置100において実行される処理フローを示す図である。 図5aは、本開示の一実施形態に係る実空間カメラ200による実空間の撮影を概念的に説明するための図である。 図5bは、本開示の一実施形態に係る仮想カメラ600による仮想空間の撮影を概念的に説明するための図である。 図6aは、本開示の一実施形態に係る実空間カメラ200で撮影される実空間画像の例を示す図である。 図6bは、本開示の一実施形態に係る実空間カメラ200で撮影される実空間画像の例を示す図である。 図6cは、本開示の一実施形態に係る仮想カメラ600で撮影される仮想空間画像の例を示す図である。 図6dは、本開示の一実施形態に係る仮想カメラ600で撮影される仮想空間画像の例を示す図である。 図7は、本開示の一実施形態に係る実空間デプス画像の例を示す図である。 図8aは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。 図8bは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。 図9aは、本開示の一実施形態に係る実空間カラー画像の例を示す図である。 図9bは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。 図9cは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。 図10は、本開示の一実施形態に係る合成画像の例を示す図である。
添付図面を参照して本開示の様々な実施形態を説明する。なお、図面における共通する構成要素には同一の参照符号が付されている。
1.本開示の一実施形態に係るシステムの概要
図1aは、本開示の一実施形態に係るシステム1を概念的に説明するための図である。具体的には、図1aは、実空間のプレイヤ11が、ヘッドマウントディスプレイ400を装着し、仮想空間においてゲームアプリケーションを実行している様子を示す。このとき、実行されているゲームアプリケーションを観戦している第三者12a〜12dは、単にプレイヤ11の動きをみるだけで、仮想空間で行われている処理を認識することができず、非常に退屈なものとなる。そこで、本実施形態においては、実空間に配置され、実空間カメラ200によってプレイヤ11を含む実空間画像を撮影する。また、その撮影に同期して、仮想空間に仮想的に配置された仮想カメラ600によって仮想空間画像を撮影する。そして、それぞれ撮影された実空間画像中のプレイヤ11の画像と、仮想空間画像の少なくとも一部を合成して、ディスプレイ300に表示する。これによって、第三者12a〜12dは、実行されているゲームアプリケーションの仮想空間内で、プレイヤ11がどのように仮想空間内を移動し、操作対象オブジェクトを操作しているのか、臨場感をもって視聴することが可能となる。
図1bは、本開示の一実施形態に係るシステム1においてディスプレイ300に表示される画面の例を示す図である。具体的には、図1bは、第三者12a〜12dがディスプレイ300で視聴する画面の例を示す。図1bによると、ディスプレイ300のディスプレイパネル312上に、実空間カメラ200によって撮影されたプレイヤ11の画像と、仮想カメラ600によって撮影された仮想空間画像とが合成して表示される。したがって、第三者12a〜12dは、この合成後の画像を視聴することによって、プレイヤ11が、仮想オブジェクト(背景オブジェクト21e、雲オブジェクト21d、敵オブジェクト21c、敵オブジェクト21b、及び木オブジェクト21a)を含む仮想空間内で、ゲームアプリケーションを実行している様子を、臨場感をもって視聴することが可能となる。
なお、本実施形態において、「第三者」とは、単にプレイヤ11と区別して用いているに過ぎない。すなわち、第三者自身も、ゲームアプリケーションを実行するプレイヤの一人であってもよいし、単にプレイヤ11がプレイする様子を視聴するだけであってもよい。
また、本実施形態では、ゲームプリケーションを実行する場合について説明するが、特にゲームアプリケーションに限らず、仮想空間を利用したアプリケーションであればいずれでも好適に本実施形態に係るシステム1を適用することができる。例えば、医療シミュレーション、自動車、電車、飛行機等の運転シミュレーション、観光地への旅行シミュレーション、仮想店舗や仮想不動産などでの仮想ショッピング、映画や音楽ライブなどのエンターテイメント等のアプリケーションで利用することで、プレイヤとなるユーザが操作しているシーンを他のプレイヤ(第三者)と共有することが可能となる。
また、本実施形態において、実空間画像、実空間デプス画像、実空間カラー画像、仮想空間画像、仮想空間デプス画像、仮想空間カラー画像等が用いられる。これらは、各カメラによって撮影された直後の画像のみを意味するのではなく、様々な処理後の各画像も含めた意味である。
また、本実施形態において、実空間カメラ200の撮影に同期して、つまり同じか実質的に同じタイミングで仮想カメラ600により仮想空間画像が撮影されるが、この仮想カメラ600による撮影は、一例としては、仮想オブジェクトが配置された仮想空間を仮想カメラ600の位置からレンダリングを行い、仮想スクリーンに対して仮想空間内の仮想オブジェクトを投影して画像を得ることにより行われる。
2.本開示の第1実施形態に係るシステム1の全体構成
図2は、本開示の一実施形態に係るシステム1の構成を示すブロック図である。図2を参照すると、システム1は、画像の合成等の処理を実行する端末装置100と、仮想空間に配置された仮想オブジェクトに対して指示入力を行う実空間のプレイヤ11を含む実空間画像を撮影するための実空間カメラ200と、仮想空間に配置された仮想カメラによって仮想的に撮影された仮想空間画像の少なくとも一部と実空間画像に含まれるプレイヤ画像が合成された画像を表示するためのディスプレイ300と、プレイヤ11に装着され、プレイヤ11が実行するゲームアプリケーションの仮想空間を表示するヘッドマウントディスプレイ400と、を含む。端末装置100と、実空間カメラ200と、ディスプレイ300と、ヘッドマウントディスプレイ400とは、互いに有線又は無線によって通信可能に接続されている。
なお、特に図示はしていないが、仮想空間において移動又は仮想オブジェクトの操作のためのプレイヤ11による指示入力を検出する検出装置を有していてもよい。検出装置の一例としては、プレイヤ11に装着し内蔵する加速度センサやジャイロセンサ等によってプレイヤ11の動きを検出する装置や、プレイヤ11から離れた位置に設置され赤外線センサやカメラを用いてプレイヤ11の動きを画像認識する装置などが挙げられる。
また、システム1は、図2に示す構成要素の全てを備える必要はなく、一部を省略した構成をとることも可能であるし、他の構成要素を加えることも可能である。また、図2の例では、実空間カメラ200やディスプレイ300を端末装置100とは別々に設けたが、端末装置100の構成要素の一つとして実空間カメラ200やディスプレイ300を設けることも可能である。
3.端末装置100の構成
端末装置100は、プロセッサ111、メモリ112、通信インターフェイス113、入力インターフェイス114及びI/Oポート115を含む。そして、これらの各構成要素が制御ライン及びデータラインを介して互いに電気的に接続される。
プロセッサ111は、CPU(マイクロコンピュータ:マイコン)から構成され、メモリ112に記憶された各種プログラムに基づいて、接続された他の構成要素を制御する制御部として機能する。プロセッサ111は、メモリ112に記憶された指示命令、すなわち本実施形態に係るアプリケーションを実行するためのプログラムやOSを実行するためのプログラムを処理する。具体的には、プロセッサ111は、仮想空間を表示したゲームアプリケーションの実行に伴う様々な処理を、ヘッドマウントディスプレイ400及びプレイヤ11の指示入力を検出する検出装置(図示しない)等と共同して、実行する。また、プロセッサ111は、実空間カメラ200を制御して実空間画像を生成する処理を実行する。また、プロセッサ111は、実空間カメラ200により取得した実空間画像と仮想カメラ600により仮想的に撮像された仮想空間画像とを合成する処理を実行する。また、プロセッサ111は、合成された画像をディスプレイ300に出力する処理を実行する。
なお、プロセッサ111は、単一のCPUで構成されても良いが、複数のCPUで構成しても良い。また、画像処理に特化したGPU等、他の種類のプロセッサを適宜組み合わせてもよい。また、プロセッサ111は、メモリ112に記憶された指示命令を処理することとした。しかし、例えば本実施形態に係るアプリケーションを実行するためのプログラムが記憶された光ディスクやカートリッジを読み取り可能なドライブ装置を端末装置100が備え、プロセッサ111はそれらに記憶されたプログラムを実行するようにしてもよい。
メモリ112は、RAM、ROM、又は不揮発性メモリ(場合によっては、HDD)を含み、記憶部として機能する。ROMは、本実施形態に係るアプリケーションやOSを実行するための指示命令をプログラムとして記憶する。RAMは、ROMに記憶されたプログラムがプロセッサ111により処理されている間、データの書き込み及び読み込みをするために用いられるメモリである。不揮発性メモリは、当該プログラムの実行によってデータの書き込み及び読み込みが実行されるメモリであって、ここに書き込まれたデータは、当該プログラムの実行が終了した後でも保存される。メモリ112には、一例として、仮想空間を構成する仮想オブジェクト等の描画データ、ゲームアプリケーションを実行するプレイヤのプレイヤ情報、ゲームアプリケーションを実行した結果である得点等のゲーム情報、ゲームアプリケーションを実行するためのプログラム、実空間画像と仮想空間画像とを合成し出力する処理を実行するためのプログラム、実空間カメラ200によって撮像された実空間画像の画像データ(例えば、各画素が有するカラー値やデプス値等のデータ)、仮想カメラ600によって仮想的に撮像された仮想空間画像の画像データ等が適宜更新・記憶される。なお、特に図示しないが、例示した各種情報が記憶された光ディスクやカートリッジを外付けして、記憶部として利用することが可能である。
通信インターフェイス113は、無線通信処理回路、及び当該無線通信処理装置に接続されたアンテナを含み、通信部として機能する。通信インターフェイス113は、ネットワークを介して接続されたサーバ装置(図示しない)から本実施形態に係るゲームアプリケーションの実行に必要なプログラムや、ユーザ情報、ゲームアプリケーションの実行の結果情報などの送受信を行う。また、通信インターフェイス113は、ヘッドマウントディスプレイ400と、ゲームアプリケーションの実行に必要なゲーム情報、制御情報、描画データ、プレイヤ情報等の送受信を行う。無線通信処理回路では、送受信する情報の変調や復調などの処理を行う。
通信インターフェイス113は、W−CDMA(Wideband−Code Division Multiple Access)方式に代表されるような広帯域の無線通信方式に基づいて処理されるが、IEEE802.11に代表されるような無線LANやBluetooth(登録商標)のような狭帯域の無線通信に関する方式に基づいて処理することも可能である。また、通信インターフェイス113は、無線通信に代えて、または加えて、有線通信を用いることも可能である。その場合には、無線通信処理回路に代えて、または加えて、有線通信のための通信処理回路を設ければよい。
入力インターフェイス114は、タッチパネルやハードキーを含み、使用者からの各種指示入力を受け付ける。例えば、入力インターフェイス114は、仮想空間画像と実空間画像を合成する際に必要な各種設定等を行う際に利用される。
I/Oポート115は、実空間カメラ200及びディスプレイ300にそれぞれ含まれるI/Oポートと接続され、実空間カメラ200及びディスプレイ300との間で情報の入出力をするための情報入出力部として機能する。具体的には、I/Oポート115は、実空間カメラ200で撮像された実空間画像を受信したり、ディスプレイ300に表示する画像データを出力するためのインターフェイスとして機能する。なお、I/Oポート115は、シリアルポート、パラレルポート、USB等、所望に応じて公知の接続形式を採用することが可能である。
端末装置100の例としては、据え置き型ゲーム機、アーケードゲーム機、デスクトップパソコン、ラップトップパソコン、携帯型ゲーム機、スマートフォンなど、実空間カメラ200、ディスプレイ300及びヘッドマウントディスプレイ400と通信可能であって、本実施形態に係るゲームアプリケーションを実行可能な端末装置であれば、いずれでもよい。
また、図2の例では、端末装置100は1個しか記載されていないが、当然複数の端末装置に分散して各構成要素を配置させても良いし、各処理を分散して実行させてもよい。また、端末装置100は、本実施形態に係るゲームアプリケーションの実行専用のものであってもよいが、当然それ以外の機能を実行可能なものであってもよい。
4.実空間カメラ200の構成
実空間カメラ200は、実空間カラー画像を撮影するための実空間カラーカメラ211、実空間デプス画像を撮影するための実空間デプスカメラ212、及びI/Oポート213を含む。そして、これらの各構成要素が制御ライン及びデータラインを介して互いに電気的に接続される。
実空間カラーカメラ211は、CCDイメージセンサやCMOSイメージセンサ等の公知のイメージセンサを備える。実空間カラーカメラ211は、構成する画素ごとに被写体からの光をフォトダイオード等で受信し、その光を電荷の量に光電変換し、それを順次読み出して画像信号に変換することで、複数の画素から構成された実空間カラー画像を生成する。実空間カラーカメラ211によって撮影された実空間カラー画像は、一例としては、各画素ごとに赤、青、緑のサブピクセルを含み、各サブピクセルの色の明るさや濃淡を、各画素ごとにカラー値として生成し、メモリ112に記憶される。
実空間デプスカメラ212は、赤外線センサ等の公知のデプス(深度)センサを備える。実空間デプスカメラ212は、構成する画素ごとに被写体となる撮像対象物までの距離に対応した値を測定する。測定されたデプス値は、各画素ごとにメモリ112に記憶される。
I/Oポート213は、端末装置100のI/Oポート115と接続され、実空間カメラ200で撮影された、実空間カラー画像及び実空間デプス画像を含む実空間画像の画像データを端末装置100に送信したり、端末装置100から実空間カメラ200の制御情報を受信する。
なお、実空間カメラ200は、図2に示す構成要素の全てを備える必要はなく、一部を省略した構成をとることも可能であるし、他の構成要素を加えることも可能である。例えば、特に図示はしていないが、実空間カメラ200は、端末装置100からの制御情報に基づいて撮影を制御するためのプロセッサや、撮影した画像データを記憶するためのメモリ、端末装置100を含む他の装置と通信するための通信インターフェイスを適宜備える。
また、本実施形態においては、実空間カメラ200に実空間カラーカメラ211と実空間デプスカメラ212とが含まれる場合について説明したが、実空間カラー画像に加えて、各画素のデプス値が測定できればよく、必ずしも両カメラを備える必要はない。例えば、ステレオカラーカメラを利用してデプス値を測定するなど、実空間カラーカメラ211のみを用いて公知方法でデプス値を測定するようにしてもよい。また、実空間デプスカメラ212に代えて、モノクロステレオカメラを利用してデプス値を測定するようにしてもよい。
5.ディスプレイ300の構成
ディスプレイ300は、I/Oポート311及びディスプレイパネル312を含み、これらの各構成要素が制御ライン及びデータラインを介して互いに電気的に接続される。I/Oポート311は、端末装置100のI/Oポート115及び実空間カメラ200のI/Oポート213と接続され、端末装置100で生成された画像や実空間カメラ200で撮影された画像等を受信する。また、ディスプレイパネル312は、受信した画像の表示を行う表示部として機能する。一例としては、液晶ディスプレイパネルや有機ELパネルから構成される。なお、特に図示はしていないが、適宜プロセッサやメモリを含む。
6.ヘッドマウントディスプレイ400の構成
ヘッドマウントディスプレイ400は、プロセッサ411、メモリ412、ディスプレイ413、及び通信インターフェイス414を含み、これらの各構成要素が制御ライン及びデータラインを介して互いに電気的に接続される。ヘッドマウントディスプレイ400は、通信インターフェイス414を介して、ディスプレイ413に仮想空間を表示するための画像データを受信し、メモリ412に記憶するとともに、プロセッサ411で処理してディスプレイ413に表示する。
7.システム1において実行される処理フロー
図3は、本開示の一実施形態に係るシステム1において実行される処理フローを示す図である。具体的には、図3に記載の処理フローは、本実施形態に係るゲームアプリケーションを端末装置100で起動したときに開始される処理フローである。当該処理フローは、プロセッサ111が、実空間カメラ200、ディスプレイ300、及びヘッドマウントディスプレイ400と共同して、メモリ112に記憶された指示命令(プログラム)を読み出して実行することにより行われる。
図3によると、入力インターフェイス114又は検出装置(図示しない)において、プレイヤ11によるゲームアプリケーションの起動の指示入力を検出することにより開始される(S101)。その後、プロセッサ111は、実空間カメラ200を制御して、実空間カメラ200により撮影されたプレイヤ11を含む実空間画像を取得し、メモリ112に記憶するよう制御する(S102)。また、当該処理に同期して、プロセッサ111は、ヘッドマウントディスプレイ400に表示される仮想空間を仮想カメラ600によって仮想的に撮影し仮想空間画像を取得する(S102)。次に、プロセッサ111は、メモリ112に記憶された実空間画像からプレイヤ11のプレイヤ画像を抽出して、仮想空間画像と抽出されたプレイヤ画像とを合成する(S103)。なお、実空間デプス画像を構成する各画素ごとに測定されたデプス値と、実空間カラー画像のカラー値とに基づいてプレイヤ11の画像の抽出が行われる。そして、プロセッサ111は、ディスプレイ300に合成された画像を出力し、ディスプレイ300を制御して、ディスプレイ300に当該画像を表示させる(S104)。次いで、プロセッサ111は、プレイヤ11によるゲームアプリケーションの終了の指示入力を検出したか否かを判断し、検出していない場合には、S102〜S104の処理を所定間隔(例えば、30m秒ごと)で繰り返す(S105)。一方、ゲームアプリケーションの終了の指示入力を検出した場合には、当該アプリケーションの実行を終了する。なお、S102〜S104については、図4等においてさらに詳しく説明すする。
8.端末装置100において実行される処理フロー
図4は、本開示の一実施形態に係る端末装置100において実行される処理フローを示す図である。具体的には、図4に記載の処理フローは、実空間画像と仮想空間画像の合成に係る処理フローである。当該処理フローは、プロセッサ111が、実空間カメラ200、ディスプレイ300、及びヘッドマウントディスプレイ400と共同して、メモリ112に記憶された指示命令(プログラム)を読み出して実行することにより行われる。
図4によると、プロセッサ111は、まず、実空間デプスカメラ212によって撮影された実空間デプス画像、及び実空間カラーカメラ211によって撮影された実空間カラー画像を取得しメモリ112に記憶するとともに、仮想カメラ600によって仮想的に撮影された仮想空間デプス画像と仮想空間カラー画像を生成しメモリ112に記憶する(S201)。なお、本実施形態においては、実空間デプス画像、実空間カラー画像、仮想空間デプス画像、及び仮想空間カラー画像は、それぞれ同期して、つまり同じか実質的に同じタイミングで実空間カメラ200又は仮想カメラ600によって撮影される。
図5aは、本開示の一実施形態に係る実空間カメラ200による実空間の撮影を概念的に説明するための図である。具体的には、図5aは、実空間カラーカメラ211及び実空間デプスカメラ212でプレイヤ11及びクロマキー合成に用いられる背景布500が撮影される様子を説明するための図である。図5aによると、ヘッドマウントディスプレイ400を装着しているプレイヤ11が、ヘッドマウントディスプレイ400に表示された仮想空間における移動や仮想空間に配置された仮想オブジェクトに対する指示入力を行っている。そして、プレイヤ11の背後には、実空間カラーカメラ211で撮像した際の背景の一部となる背景布500が配置されている。すなわち、実空間カメラ200を基準にした場合、当該実空間カメラ200から距離D1(例えば、2m)の位置にプレイヤ11が存在し、実空間カメラ200から距離D1以上の距離D2(例えば、4m)の位置に背景布500が配置されている。実空間カメラ200は、このような実空間を適宜のタイミング(例えば、30m秒ごと)で撮影する。
なお、背景布500は、クロマキー合成をする際に用いられる背景布が好適には用いられる。一例としては、いわゆるグリーンバックやブルーバックと呼ばれるものであって、全面が緑色か青色をしたものが用いられる。また、特に布地状のものに限定されるものではなく、例えば板状の壁材等を用いることも可能である。また、本実施形態においては、詳しくは後述するが、撮影された実空間画像からのプレイヤ11の抽出はデプス値を併用するため、プレイヤ11の周囲のみ緑色や青色の背景となっていれば良い。したがって、従来のクロマキー合成で用いられるような広範な範囲が緑色や青色に覆われる必要はなく、プレイヤ11の周囲のみの狭い範囲が緑色又は青色の背景となるだけで十分である。
図5bは、本開示の一実施形態に係る仮想カメラ600による仮想空間の撮影を概念的に説明するための図である。具体的には、図5bは、仮想カメラ600で仮想空間が撮影される様子を説明するための図である。図5bによると、実空間の実空間カメラ200が配置された位置に対応付けて仮想空間内に仮想カメラ600が配置されている。すなわち、実空間においては座標Cの位置にプレイヤ11が存在しているが、実空間における距離D1に対応する距離d1だけ離れた位置に仮想カメラ600が配置されている。そして、仮想カメラ600の位置を原点とした座標空間上に、仮想カメラ600から距離d1より手前の距離d2だけ離れた座標位置に木オブジェクト21a、距離d1以上の距離d3だけ離れた座標位置に敵オブジェクト21b、距離d4だけ離れた座標位置に敵オブジェクト21c、距離d5だけ離れた座標位置に雲オブジェクト21d、距離d6だけ離れた座標位置に背景オブジェクト21eが仮想的に配置されている。仮想カメラ600は、このような仮想空間を、実空間カメラの撮影のタイミングに同期して、つまりは同じか実質的に同じタイミングで仮想的に撮影する。なお、図5bにおいては、説明の便宜のために仮想オブジェクト21a等を薄い板状に描いているが、実際の各仮想オブジェクトは上下、及び前後方向に厚みを有する立体物として形成してもよい。また、各仮想オブジェクトまでの距離をそれぞれd2〜d6として説明したが、後述のとおり、当該距離は各仮想オブジェクトを構成する各画素ごとに算出することも可能である。
図6aは、本開示の一実施形態に係る実空間カメラ200で撮影される実空間画像の例を示す図である。具体的には、図6aは、実空間カメラ200のうち実空間カラーカメラ211で撮影された実空間カラー画像を示す。実空間カラー画像は、実空間のプレイヤ11及び背景布500を含む撮影対象物から反射した光の波長に対応するカラー値が各画素ごとに記憶されている。したがって、各画素ごとにプレイヤ11及び背景布500(本実施形態においてはグリーンバック)の有しているそれぞれの色が再現される。
図6bは、本開示の一実施形態に係る実空間カメラ200で撮影される実空間画像の例を示す図である。具体的には、図6bは、実空間カメラ200のうち実空間デプスカメラ212で撮影された実空間デプス画像を示す。実空間デプスカメラ212は、実空間カラーカメラ211の位置と実質的に同じ位置に配置され、その撮影に同期して撮影されるため、実空間カラーカメラ211と実質的に同じ画角で同じシーンが撮影される。したがって、実空間デプス画像は、プレイヤ11と背景布500を含む。
一方、実空間デプス画像は、実空間デプスカメラ212によって測定されたデプス値を、実空間デプス画像を構成する各画素ごとに有する。なお、図6b等の実空間デプス画像、及び図6d等の仮想空間デプス画像においては、説明の便宜のために、そのデプス値に応じた階調(例えば、デプス値がゼロのものを白、デプス値が最大のものを黒とした2階調)で描いている。すなわち、実空間デプスカメラ212から距離D1にあるプレイヤ11の座標に存在する各画素には、距離D1に対応するデプス値が記憶され、そのデプス値に対応した階調でプレイヤ11は描かれる。また、実空間デプスカメラ212から距離D2にある背景布500の座標に存在する各画素には、距離D2に対応するデプス値が記憶され、そのデプス値に対応した階調で背景布500は描かれる。なお、説明の便宜のため、プレイヤ11を構成する画素のデプス値を一律に距離D1として説明した。しかし、実際はプレイヤ11も奥行きを有する立体物であるため、プレイヤ11を構成する各画素ごとに異なるデプス値を有する。
図6cは、本開示の一実施形態に係る仮想カメラ600で撮影される仮想空間画像の例を示す図である。具体的には、仮想カメラ600で仮想的に撮影された仮想空間カラー画像を示す。仮想カメラ600は、実空間カメラ200に対応する位置に配置され、実空間カメラ200の撮影に同期して撮影されるため、実空間カラーカメラ211と実質的に同じ画角で仮想空間が撮影される。したがって、仮想空間カラー画像には、仮想空間とその仮想空間の所定の座標位置に配置された背景オブジェクト21e、雲オブジェクト21d、敵オブジェクト21c、敵オブジェクト21b、及び木オブジェクト21aがそれぞれ含まれる。また、仮想オブジェクト21a〜21eを含むすべての仮想空間を構成する仮想オブジェクトには、予めオブジェクト情報として色、大きさ、仮想空間内の位置、仮想空間における向き等の各種属性情報が記憶されている。したがって、仮想空間カラー画像は、仮想カメラ600で撮影したシーンを、構成される画素ごとに、仮想オブジェクトが有するカラー値に基づいて再現したものとなる。
図6dは、本開示の一実施形態に係る仮想カメラ600で撮影される仮想空間画像の例を示す図である。具体的には、仮想カメラ600で仮想的に撮影された仮想空間デプス画像を示す。上記のとおり、仮想オブジェクト21a〜21eを含むすべての仮想空間を構成する仮想オブジェクトには、予めオブジェクト情報として色、大きさ、仮想空間内の位置、仮想空間における向き等の各種属性情報が記憶されている。したがって、仮想空間内の各仮想オブジェクトを、属性情報に基づいて仮想カメラ600を原点とするカメラ座標系に変換することで、仮想カメラ600の位置からの距離を算出する。そして、仮想カメラ600の位置から仮想スクリーンに投影変換することで、仮想空間デプス画像を構成する各画素ごとに、仮想カメラ600からの距離を算出する。図6dは、各画素ごとに算出された仮想カメラ600からの距離に対応するデプス値に基づいて再現したものとなる。
再び図4に戻り、図6a〜図6dに例示する各実空間画像及び各仮想空間画像がそれぞれ取得または生成され、メモリ112に記憶されると、プロセッサ111は、次に、実空間デプス画像が有するデプス値の変換処理を行う(S202)。
具体的には、実空間デプス画像を構成する各画素には、実空間デプスカメラ212からの距離に対応するデプス値が記憶されている。当該処理では、このデプス値が所定値よりも大きい場合には、無限遠を示すデプス値(つまり、理論上の最大のデプス値(たとえば、0m〜10mの範囲を、0〜65535の16bitのデプス値で表す場合、10mよりも後ろについては全て「65535」のデプス値とする))に変換して記憶する処理を行う。本実施形態においては、所定値として、プレイヤ11及び背景布500よりも遠い距離D3に対応する値が設定されている。したがって、距離D3に対応する所定値以上のデプス値が記憶されている全ての画素のデプス値は、無限遠を示すデプス値に変換して記憶される。一方、プレイヤ11及び背景布500を構成する画素は、距離D3に対応するデプス値未満のデプス値が記憶されているため、デプス値は変換されない。
図7は、本開示の一実施形態に係る実空間デプス画像の例を示す図である。具体的には、図7は、図6bで示された実空間デプス画像に対してS202のデプス値の変換処理を行った後の図である。上記のとおり、距離D3よりも遠い領域については、無限遠を示すデプス値に変換されているため、無限遠を示す黒で描画されている。一方、距離D3よりも近い領域については、測定されたデプス値から変換されることなく、もともとのデプス値に対応した階調で描画される。
再び図4に戻り、実空間デプス画像のデプス値の変換処理が行われたのちに、プロセッサ111は、実空間デプス画像の解像度の変換処理を行う(S203)。一般的に、実空間デプスカメラ212の解像度は、実空間カラーカメラ211の解像度よりも低い。つまり、図6bに示す実空間デプス画像は、実空間デプスカメラ212によって、相対的に低い解像度(第1の解像度)で撮影されたものであって、図6aに示す実空間カラー画像は、実空間カラーカメラ211によって、第1の解像度よりも高い第2の解像度で撮影されたものとなる。そのため、撮影されたままの実空間デプス画像に基づいてプレイヤ11の画像を抽出すると、実空間カラー画像では背景布500が表示されている領域等の不要な領域がプレイヤ11の画像として抽出されてしまう。したがって、このような不要な領域の切り出しを最小限にし、プレイヤ11の画像をより鮮明に抽出するために、本実施形態のS203の実空間デプス画像の解像度の変換処理が必要となる。本実施形態においては、例えば、実空間デプスカメラ212の解像度に対して、実空間カラーカメラ211は4倍の解像度を有する。したがって、当該変換処理では、実空間デプス画像の解像度を、実空間カラーカメラ211の解像度に対応して、4倍の解像度に変換する。なお、本実施形態では説明の便宜のための4倍の解像度としたが、用いる実空間カラーカメラ211と実空間デプスカメラ212の解像度に応じて適宜設定することが可能である。
図8aは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。具体的には、図8aは、図6bの実空間デプス画像の領域Aの部分を拡大した図であって、S203の解像度変換処理を実行する前の画像を示す。図8aによると、実空間デプス画像は、1画素がa×bの大きさを有する画素によって構成されている。
図8bは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。具体的には、図8bは、S203の解像度変換処理を実行した後の画像を示す。本実施形態においては、上記のとおり、実空間カラーカメラ211の解像度に対応して、4倍の解像度に変換する処理を実行する。したがって、図8bによると、縦及び横ともに、2分の1の長さ(a’×b’)に各画素が精細化される。なお、解像度変換処理後の各画素には、処理前の各画素が有していたデプス値がそのまま記憶される。
再び図4に戻り、実空間デプス画像の解像度の変換処理が行われたのちに、プロセッサ111は、実空間カラー画像のカラー値に基づくデプス値の変換処理を実行する(S204)。具体的には、実空間カラー画像において背景布500の色(本実施形態においては緑色)のカラー値を有する画素と同じ座標位置にある実空間デプス画像の画素のデプス値を、無限遠を示すデプス値に変換する処理を実行する。
図9aは、本開示の一実施形態に係る実空間カラー画像の例を示す図である。具体的には、図9aは、図6aの実空間カラー画像の領域A’の部分を拡大した図である。図9aによると、図8bに示す解像度変換処理後の実空間デプス画像と同じ解像度(1画素がa’×b’で構成)で、プレイヤ11の画像及び背景布500の画像を含む実空間カラー画像が描画されている。したがって、プレイヤ11と背景布500との境界線が、図8bに示す実空間デプス画像に比べてより精細に描画されている。
図9bは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。具体的には、図9bは、図8bに示す解像度変換処理後の実空間デプス画像と図9aにおける実空間カラー画像とにおいて、プレイヤ11と背景布500との境界線の違いを示す図である。図9bによると、解像度の低いもともとの実空間デプス画像において、領域11a〜11d等の右斜線で示す画素は、プレイヤ11の他の画素と同じデプス値を有しており、プレイヤ11として抽出される画素である。しかし、より解像度の高い実空間カラー画像(図9a)において、領域11a〜11d等の右斜線で示す画素は、プレイヤ11として抽出される画素ではなく、背景布500として切り取られるべき画素である。したがって、仮に解像度の低いもともとの実空間デプス画像のみに基づいてプレイヤ11の画像を抽出すると、その輪郭の一部に背景布500が混在し見栄えの劣る画像となる。そこで、本実施形態においては、実空間カラー画像において背景布500である領域を抽出しないように、背景布500の色(本実施形態においては緑色)のカラー値を有する画素と同じ座標位置にある実空間デプス画像の画素のデプス値を、すべて無限遠を示すデプス値に変換する処理を実行する。
図9cは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。具体的には、図9cは、S204のデプス値変換処理後の実空間デプス画像を示す図である。図9cによると、図9bにおいて右斜線で示された背景布500として切り取られるべき画素は、すべて無限遠を示すデプス値に変換されたことにより、無限遠である黒の階調で描画されている。したがって、実空間デプス画像においても、実空間カラー画像と同様に、プレイヤ11と背景布500との境界線がより精細に描画されることが可能となる。
再び図4に戻り、実空間デプス画像のデプス値の変換処理が行われたのちに、プロセッサ111は、実空間カラー画像と仮想空間カラー画像との合成処理を実行する(S205)。具体的には、S204の処理後の実空間デプス画像と、当該実空間デプス画像の解像度と同じ解像度を有する仮想空間デプス画像との間で、各画素ごとに両者のデプス値を比較する。そして、よりデプス値が小さい方のカラー画像のカラー値をその画素のカラー値として選択するようにする。例えば、実空間デプス画像の座標位置(x1,y1)の画素のデプス値が「2.0」であり、仮想空間デプス画像の対応する座標位置(x1,y1)の画素のデプス値が「6.0」であった場合は、実空間カラー画像の対応する座標位置(x1,y1)の画素のカラー値を、合成画像の対応する座標位置(x1,y1)の画素のカラー値として採用する。一方、実空間デプス画像の座標位置(x2,y2)の画素のデプス値が「無限遠(理論上の最大値)」であり、仮想空間デプス画像の座標位置(x2,y2)の画素のデプス値が「1.0」であった場合は、仮想空間カラー画像の座標位置(x2,y2)の画素のカラー値を、合成画像の座標位置(x2,y2)の画素のカラー値として採用する。以上の処理を、すべての画素について繰り返すことにより、実空間カラー画像と仮想空間カラー画像との合成処理が実施される。
図10は、本開示の一実施形態に係る合成画像の例を示す図である。具体的には、図10は、プロセッサ111によって実空間カラー画像と仮想空間カラー画像とが合成されたのちの画像を示す。図4のS202〜S204の処理によって、プレイヤ11以外の領域はすべて無限遠を示すデプス値に変換される。つまり、図5bに示す仮想空間において、距離d2〜d6にそれぞれ対応するデプス値を有する仮想オブジェクト21a〜21eを含む全ての仮想オブジェクトは、プレイヤ11以外の領域のデプス値(無限遠)よりも必ず小さい値となる。したがって、プレイヤ11以外の領域には、仮想空間カラー画像のカラー値が採用されることにより、すべての仮想オブジェクト21a〜21eを含む仮想オブジェクトが描画される。
一方、プレイヤ11を構成する各画素には、デプス値として実空間デプスカメラ212からの距離が画素単位に記憶されている(なお、図5a等においては、それらの代表値として距離D1に対応するデプス値が記憶されていることとして説明した)。そして、プレイヤ11を構成する各画素に記憶されたデプス値よりも大きいデプス値を有する敵オブジェクト21b、敵オブジェクト21c、雲オブジェクト21d、及び背景オブジェクト21eのうち、プレイヤ11と重なっている領域については、実空間カラー画像のカラー値が採用されることにより、プレイヤ11の画像が前面に描画される。また、プレイヤ11を構成する各画素に記憶されたデプス値よりも小さいデプス値を有する木オブジェクト21aのうち、プレイヤ11と重なっている領域については、仮想空間カラー画像のカラー値が採用されることにより、木オブジェクト21aが前面に描画される。したがって、実空間画像に着目すると、最終的に合成される画像の中には、プレイヤ11の画像のみが抽出されて描画されることとなる。
以上、本実施形態においては、ヘッドマウントディスプレイ400を装着して仮想空間においてゲームアプリケーションを実行しているプレイヤと、その仮想空間とを合成して表示するため、それを観覧する第三者にとってより趣向の高い表示が可能となる。また、本実施形態においては、実空間デプス画像のデプス値と、実空間カラー画像のカラー値とを併用してプレイヤ11の画像を抽出する。したがって、実空間デプス画像のデプス値のみによる抽出処理に比べて、より高精細なプレイヤ11の抽出が可能となる。また、本実施形態においては、仮想空間内の仮想オブジェクトと実空間カメラ200で撮影されたプレイヤ11との前後関係を画素単位で再現することが可能である。したがって、プレイヤ11のほかに、実空間カメラ200で撮影された画像から抽出されるべきプレイヤが他にも複数いるような場合や、プレイヤ11がコントローラを把持しているような場合など、プレイヤ11以外の現実の物体が実空間カメラ200の撮像範囲の中に存在していても、仮想空間内の仮想オブジェクトと正しい前後関係で判定を行うことが可能である。一例としては、プレイヤ11と実空間カメラ200の間で、かつ距離d2よりも近い位置に実空間の物体が存在していた場合、その物体は木オブジェクト21aよりも手前に描画することが可能である。逆に、たとえばプレイヤ11が後方に手を伸ばして仮想空間の敵オブジェクト21bの後ろになった場合には、その手を敵オブジェクト21bの後方に描画することが可能である。また、実空間カラー画像のカラー値のみによる抽出処理(クロマキー合成処理)に比べて、背景布500を設置するエリアを最小限にとどめることが可能となる。
9.他の実施形態
上記実施形態においては、ある程度の大きさを有するディスプレイ300に合成画像を出力し、第三者全員によって観覧する場合について説明した。しかし、第三者がそれぞれヘッドマウントディスプレイを装着し、各ヘッドマウントディスプレイに合成画像を出力するようにしてもよい。
また、本実施形態においては、ゲームアプリケーションの実行にシステム1を用いる場合について説明したが、医療シミュレーション、自動車、電車、飛行機等の運転シミュレーション、観光地への旅行シミュレーション、仮想店舗や仮想不動産などでの仮想ショッピング、映画や音楽ライブなどのエンターテイメント等のアプリケーションにも好適に用いることが可能である。
本明細書で説明される処理及び手順は、実施形態において明示的に説明されたものによってのみならず、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実現可能である。具体的には、本明細書で説明された処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク、光ストレージ等の媒体に、当該処理に相当するロジックを実装することによって実現される。また、本明細書で説明される処理及び手順は、それらの処理・手順をコンピュータプログラムとして実装し、端末装置やサーバ装置を含む各種のコンピュータに実行させることが可能である。
本明細書中で説明される処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理又は手順は、複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は、複数のモジュールによって実行されるものとすることができる。また、本明細書中で説明される各種情報が単一のメモリや記憶部に格納される旨が説明されたとしても、そのような情報は、単一の装置に備えられた複数のメモリ又は複数の装置に分散して配置された複数のメモリに分散して格納されるものとすることができる。さらに、本明細書において説明されるソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、又は、より多い構成要素に分解することによって実現されるものとすることができる。
100 端末装置
200 実空間カメラ
300 ディスプレイ
400 ヘッドマウントディスプレイ

Claims (10)

  1. 所定の指示命令が記憶されたメモリと、
    前記所定の指示命令に基づいて、仮想空間に配置された仮想カメラによって仮想的に撮像された仮想空間画像と、実空間に配置された実空間カメラによって撮影され、前記仮想空間に配置された仮想オブジェクトに対して指示入力を行う実空間のプレイヤを含む実空間画像とから、前記仮想空間画像の少なくとも一部と前記実空間画像に含まれるプレイヤ画像とを合成し、合成された画像を出力するための処理をするように構成されるプロセッサと、
    を含む処理装置であって、
    前記プレイヤとは異なる第三者が視聴可能に、前記合成された画像を表示するためのディスプレイに接続され、
    前記実空間画像は実空間デプス画像と実空間カラー画像とを含み、
    前記実空間デプス画像を構成する画素ごとにデプス値が測定されるとともに、前記実空間カラー画像を構成する画素ごとにカラー値が生成され、
    前記仮想空間画像は、構成する画素ごとに特定のカラー値が記憶された仮想空間カラー画像と、構成する画素ごとに特定のデプス値が記憶された仮想空間デプス画像とを含み、
    前記プレイヤ画像は前記実空間カラー画像を構成する画素ごとに測定された前記実空間カラー画像の前記カラー値と、前記実空間デプス画像を構成する画素ごとに測定された前記実空間デプス画像の前記デプス値とに基づいて前記実空間画像から抽出される、処理装置。
  2. 前記デプス値は、前記実空間カメラから撮像対象物までの距離に対応した値である、請求項1に記載の処理装置。
  3. 前記カラー値は、前記実空間カラー画像を構成する各画素の色の明るさ又は濃さを表す値である、請求項1又は2に記載の処理装置。
  4. 前記実空間デプス画像は第1の解像度で前記実空間カメラにより撮影され、前記実空間カラー画像は前記第1の解像度よりも高い第2の解像度で前記実空間カメラにより撮影される、請求項1〜3のいずれか一項に記載の処理装置。
  5. 前記プロセッサは、前記実空間デプス画像の解像度を前記第2の解像度に対応する解像度に変換するための処理をするように構成される、請求項4に記載の処理装置。
  6. 前記プロセッサは、前記実空間カラー画像を構成する各画素のカラー値が所定のカラー値である場合には、解像度が変換された実空間デプス画像を構成する画素のうち、所定のカラー値である前記画素の座標位置に対応する画素のデプス値を無限遠を示す値に変換する、請求項5に記載の処理装置。
  7. 前記プロセッサは、前記実空間デプス画像の各画素ごとに記憶されたデプス値と、仮想空間デプス画像のそれぞれ対応する画素のデプス値とを比較して、実空間デプス画像のデプス値の方が小さい場合には実空間カラー画像の対応する画素のカラー値を合成された画像の対応する画素のカラー値として選択し、仮想空間デプス画像のデプス値の方が小さい場合には仮想空間カラー画像の対応する画素のカラー値を合成された画像の対応する画素のカラー値として選択する、
    請求項1〜6に記載の処理装置。
  8. 請求項1〜7のいずれか一項に記載の処理装置と、
    実空間に配置され前記処理装置と通信可能に接続された、仮想空間に配置された仮想オブジェクトに対して指示入力を行う実空間のプレイヤを含む実空間画像を撮影するための実空間カメラと、
    前記処理装置と通信可能に接続された、前記仮想空間に配置された仮想カメラによって仮想的に撮像された仮想空間画像の少なくとも一部と、前記実空間画像に含まれるプレイヤ画像とが合成された画像を、前記プレイヤとは異なる第三者が視聴可能に表示するためのディスプレイと、
    を含むシステム。
  9. 所定の指示命令を記憶するように構成されたメモリと、前記所定の指示命令に基づいて処理をするように構成されたプロセッサを含むコンピュータに、
    仮想空間に配置された仮想カメラによって仮想的に撮像された仮想空間画像と、実空間に配置された実空間カメラによって撮影され、前記仮想空間に配置された仮想オブジェクトに対して指示入力を行う実空間のプレイヤを含む実空間画像とから、前記仮想空間画像の少なくとも一部と前記実空間画像に含まれるプレイヤ画像とを合成する処理と、
    合成された画像を、前記プレイヤとは異なる第三者が視聴可能に、前記コンピュータに接続されたディスプレイに出力する処理と、
    を実行させるためのプログラムであって、
    前記実空間画像は実空間デプス画像と実空間カラー画像とを含み、
    前記実空間デプス画像を構成する画素ごとにデプス値が測定されるとともに、前記実空間カラー画像を構成する画素ごとにカラー値が生成され、
    前記仮想空間画像は、構成する画素ごとに特定のカラー値が記憶された仮想空間カラー画像と、構成する画素ごとに特定のデプス値が記憶された仮想空間デプス画像とを含み、
    前記プレイヤ画像は前記実空間カラー画像を構成する画素ごとに測定された前記実空間カラー画像の前記カラー値と、前記実空間デプス画像を構成する画素ごとに測定された前記実空間デプス画像の前記デプス値とに基づいて前記実空間画像から抽出される、プログラム。
  10. 所定の指示命令を記憶するように構成されたメモリと、前記所定の指示命令に基づいて所定の処理をするように構成されたプロセッサを含む処理装置において、前記プロセッサが前記所定の指示命令を処理することによりなされる方法であって、
    仮想空間に配置された仮想カメラによって仮想的に撮像された仮想空間画像と、実空間に配置された実空間カメラによって撮影され、前記仮想空間に配置された仮想オブジェクトに対して指示入力を行う実空間のプレイヤを含む実空間画像とから、前記仮想空間画像の少なくとも一部と前記実空間画像に含まれるプレイヤ画像とを合成する段階と、
    合成された画像を、前記プレイヤとは異なる第三者が視聴可能に、前記処理装置に接続されたディスプレイに出力する段階と、
    を含み、
    前記実空間画像は実空間デプス画像と実空間カラー画像とを含み、
    前記実空間デプス画像を構成する画素ごとにデプス値が測定されるとともに、前記実空間カラー画像を構成する画素ごとにカラー値が生成され、
    前記仮想空間画像は、構成する画素ごとに特定のカラー値が記憶された仮想空間カラー画像と、構成する画素ごとに特定のデプス値が記憶された仮想空間デプス画像とを含み、
    前記プレイヤ画像は前記実空間カラー画像を構成する画素ごとに測定された前記実空間カラー画像の前記カラー値と、前記実空間デプス画像を構成する画素ごとに測定された前記実空間デプス画像の前記デプス値とに基づいて前記実空間画像から抽出される、方法。
JP2017566043A 2017-12-18 2017-12-18 端末装置、システム、プログラム及び方法 Active JP6799017B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/045252 WO2019123509A1 (ja) 2017-12-18 2017-12-18 端末装置、システム、プログラム及び方法

Publications (2)

Publication Number Publication Date
JPWO2019123509A1 JPWO2019123509A1 (ja) 2019-12-26
JP6799017B2 true JP6799017B2 (ja) 2020-12-09

Family

ID=66816272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017566043A Active JP6799017B2 (ja) 2017-12-18 2017-12-18 端末装置、システム、プログラム及び方法

Country Status (3)

Country Link
US (1) US10748341B2 (ja)
JP (1) JP6799017B2 (ja)
WO (1) WO2019123509A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10598936B1 (en) * 2018-04-23 2020-03-24 Facebook Technologies, Llc Multi-mode active pixel sensor
US11120632B2 (en) * 2018-10-16 2021-09-14 Sony Interactive Entertainment Inc. Image generating apparatus, image generating system, image generating method, and program
US10841552B2 (en) * 2018-12-05 2020-11-17 Electro-Luminx Lighting Corporation Chroma keying illumination system
US11831854B2 (en) * 2018-12-17 2023-11-28 Sony Interactive Entertainment Inc. Information processing system, information processing method, and computer program
WO2023189580A1 (ja) * 2022-03-31 2023-10-05 ソニーグループ株式会社 画像処理装置及び画像処理システム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06176131A (ja) * 1992-12-03 1994-06-24 Namco Ltd 画像合成装置及びこれを用いた仮想体験装置
JP3363861B2 (ja) * 2000-01-13 2003-01-08 キヤノン株式会社 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
JP4006949B2 (ja) * 2000-02-15 2007-11-14 株式会社セガ 画像処理システム、画像処理装置及び撮像装置
JP2002218454A (ja) 2001-01-19 2002-08-02 Make Softwear:Kk 写真自販機
JP4917346B2 (ja) * 2006-05-02 2012-04-18 任天堂株式会社 ゲーム画像処理プログラムおよびゲーム画像処理装置
US9858475B2 (en) * 2010-05-14 2018-01-02 Intuitive Surgical Operations, Inc. Method and system of hand segmentation and overlay using depth data
JP5776218B2 (ja) * 2011-02-24 2015-09-09 株式会社大林組 画像合成方法
JP6016061B2 (ja) * 2012-04-20 2016-10-26 Nltテクノロジー株式会社 画像生成装置、画像表示装置及び画像生成方法並びに画像生成プログラム
GB201208088D0 (en) 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
US9947134B2 (en) * 2012-07-30 2018-04-17 Zinemath Zrt. System and method for generating a dynamic three-dimensional model
JP5613741B2 (ja) 2012-09-27 2014-10-29 株式会社東芝 画像処理装置、方法、及びプログラム
US10235806B2 (en) * 2014-11-21 2019-03-19 Rockwell Collins, Inc. Depth and chroma information based coalescence of real world and virtual world images
GB2551396B (en) * 2016-06-17 2018-10-10 Imagination Tech Ltd Augmented reality occlusion
JP2017170106A (ja) 2016-08-19 2017-09-28 株式会社コロプラ ゲームプログラム、方法およびゲームシステム

Also Published As

Publication number Publication date
WO2019123509A1 (ja) 2019-06-27
JPWO2019123509A1 (ja) 2019-12-26
US10748341B2 (en) 2020-08-18
US20190188914A1 (en) 2019-06-20

Similar Documents

Publication Publication Date Title
JP6799017B2 (ja) 端末装置、システム、プログラム及び方法
US10083540B2 (en) Virtual light in augmented reality
JP7504953B2 (ja) 画像を合成するための方法及び装置
JP6669783B2 (ja) 端末装置、システム、プログラム及び方法
US20160180593A1 (en) Wearable device-based augmented reality method and system
US9305400B2 (en) Method and system for augmented reality
WO2019076348A1 (zh) 一种虚拟现实vr界面生成的方法和装置
CN105611267B (zh) 现实世界和虚拟世界图像基于深度和色度信息的合并
WO2013108285A1 (ja) 画像記録装置、立体画像再生装置、画像記録方法、及び立体画像再生方法
CN111095348A (zh) 基于摄像头的透明显示器
US11430178B2 (en) Three-dimensional video processing
US10750080B2 (en) Information processing device, information processing method, and program
EP3236423A1 (en) Method and device for compositing an image
US9942540B2 (en) Method and a device for creating images
KR101665363B1 (ko) 가상현실, 증강현실 및 홀로그램을 혼합한 인터랙티브 콘텐츠 시스템
US20210349315A1 (en) Camera controller and integration for vr photography/videography
US20230222741A1 (en) Video pass-through computing system
JP2023174066A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191218

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200824

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20200901

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200925

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201119

R150 Certificate of patent or registration of utility model

Ref document number: 6799017

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250