JP2022003498A - 情報処理装置、方法、プログラム及び情報処理システム - Google Patents

情報処理装置、方法、プログラム及び情報処理システム Download PDF

Info

Publication number
JP2022003498A
JP2022003498A JP2020152094A JP2020152094A JP2022003498A JP 2022003498 A JP2022003498 A JP 2022003498A JP 2020152094 A JP2020152094 A JP 2020152094A JP 2020152094 A JP2020152094 A JP 2020152094A JP 2022003498 A JP2022003498 A JP 2022003498A
Authority
JP
Japan
Prior art keywords
space
user
shared
information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020152094A
Other languages
English (en)
Other versions
JP2022003498A5 (ja
Inventor
良徳 大橋
Yoshinori Ohashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to PCT/JP2021/022794 priority Critical patent/WO2021261346A1/ja
Priority to US18/001,094 priority patent/US20230214005A1/en
Publication of JP2022003498A publication Critical patent/JP2022003498A/ja
Publication of JP2022003498A5 publication Critical patent/JP2022003498A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】ユーザに斬新な視聴体験を提供する。【解決手段】本発明の情報処理装置は、第1ユーザの周囲の第1空間1における物体の位置を示す空間情報を取得する取得部と、空間情報に基づいて、第1ユーザと第1空間1とは異なる第2空間2に存在する第2ユーザとによって共有される共有空間であって、第1空間1での物体の配置が反映された共有空間を構築する空間構築部と、第2ユーザについての共有空間での位置を決定する決定部と、を備える。【選択図】図2

Description

本発明は、情報処理装置、方法、プログラム及び情報処理システムに関する。
近年、体の動きや空間をリアルタイムで共有することにより、互いに離れた別の場所にいる複数のユーザがあたかも同じ場所にいるかのような体験をさせる技術が検討されている。例えば、テレイグジスタンス(Telexistence)と呼ばれる技術では、ヘッドマウントディスプレイ等を通して、遠隔地にある物又は人があたかも近くにあるかのようにユーザに感じさせながら、操作などをリアルタイムに行う環境が提供される。
上述した技術において、ユーザに斬新な視聴体験を提供することが求められている。
上記課題を鑑みて、本発明の1つの目的は、ユーザに斬新な視聴体験を提供することにある。
上記課題を解決するために、本発明のある態様の情報処理装置は、第1ユーザの周囲の第1空間における物体の位置を示す空間情報を取得する取得部と、前記空間情報に基づいて、前記第1ユーザと前記第1空間とは異なる第2空間に存在する第2ユーザとによって共有される共有空間であって、前記第1空間での前記物体の位置が反映された前記共有空間を構築する空間構築部と、前記第2ユーザについての前記共有空間での位置を決定する決定部と、を含む。
なお、以上の任意の組み合わせや、本発明の構成要素や表現を方法、装置、プログラム、プログラムを記録した一時的なまたは一時的でない記憶媒体、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。
本発明によれば、ユーザに斬新な視聴体験を提供できる。
情報処理システムの全体概要図である。 ユーザによる実施形態の利用例を示す。 情報処理システムの機能ブロック図である。 ユーザAのHMDによって表示されるAR空間映像を例示する。 ユーザAのHMDによって表示されるAR空間映像を例示する。 情報処理システムにおける処理の流れを示すシーケンス図である。 ユーザAのHMDによって表示されるAR空間映像を例示する。 ユーザAのHMDによって表示されるAR空間映像を例示する。 ユーザBのHMDによって表示されるAR空間映像を例示する。 情報処理システムにおける処理の流れを示すシーケンス図である。 情報処理システムの全体概要図である。 情報処理システムの機能ブロック図である。 情報処理システムにおける処理の流れを示すシーケンス図である。
[第1実施形態]
図1は、本実施形態に係る情報処理システム10の全体概要図である。図1の情報処理システム10は、複数の情報処理端末100を含む。複数の情報処理端末100は、それぞれインターネット等の通信ネットワーク5を介してデータ通信可能に接続されている。本実施形態の情報処理システム10は、ユーザAが使用する情報処理端末100AとユーザBが使用する情報処理端末100Bの2台の情報処理端末を含む。しかしながら、これに限らず、情報処理システム10は、3台以上の情報処理端末100を含んでもよい。
情報処理端末100A及び100Bは、制御部11と、記憶部12と、通信部13と、インタフェース部14と、を含む。情報処理端末100A及び100Bは、ヘッドマウントディスプレイ(HMD)15、ステレオカメラ16、トラッカ17及び入力装置18に接続される。制御部11はプロセッサを含み、記憶部12に記憶されているプログラムを実行して各種の情報処理を実行する。記憶部12は、RAM等のメモリデバイスを含み、制御部11が実行するプログラム、及び当該プログラムによって処理されるデータを格納する。通信部13は、通信ネットワーク5を介してデータ通信を行うための通信インタフェースである。本実施形態では、情報処理端末100A及び100Bは、互いの通信部13を介してP2P(ピアツーピア)接続によって通信する。このP2P接続は、後述のサーバ200と情報処理端末100との間の接続と比べて、低遅延、高画質、双方向の通信路を確立する。
インタフェース部14は、HMD15、ステレオカメラ16、トラッカ17及び入力装置18のそれぞれの間のデータ通信のためのインタフェースである。情報処理端末100は、インタフェース部14を介して有線又は無線でHMD15、ステレオカメラ16、トラッカ17及び入力装置18のそれぞれと接続される。具体的には、インタフェース部14は、映像・音声をデジタル信号で伝送する通信インタフェースの標準規格であるHDMI(登録商標)(High-Definition Multimedia Interface)等のマルチメディアインタフェースを含む。また、インタフェース部14は、ステレオカメラ16から送信される映像信号を受信するために、USB等のデータ通信インタフェースを含む。
HMD15は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための視聴装置である。HMD15には、ジャイロセンサや加速度センサが設けられる。HMD15は、これらのセンサを用いて、HMD15を装着したユーザの頭部の位置情報と頭部の回転角や傾きなどを計測する。HMD15には、カメラユニットが搭載される。HMD15は、カメラユニットを用いて、ユーザがHMDを装着している間、外界を撮影することができる。
ステレオカメラ16は、並んで配置された複数の撮像素子を含む。これらの撮像素子のそれぞれが撮像した画像を解析することによって、情報処理端末100は、ステレオカメラ16の視野範囲に存在する物体までの撮像位置からの距離を測定することができる。これにより、情報処理端末100は、ステレオカメラ16の周囲の空間に存在する物体の位置や形状を推定することができる。本実施形態では、ステレオカメラ16は、ユーザ及びその周囲に存在する床や壁などの物体を視野範囲に含み、これらの位置を特定するために用いられる。
トラッカ17は、慣性センサ、地磁気センサ、加速度センサ、モーションセンサなどのセンサを備え、ユーザの身体部位の位置や姿勢を検出することができる。入力装置18は、複数の操作ボタンやアナログ量を入力できるアナログスティックなどの複数の入力装置を有する。入力装置18は、入力装置を介してユーザによって入力された操作情報を制御部に供給する。入力装置18は、複数のプッシュ式の操作ボタンや、アナログ量を入力できるアナログスティック、回動式ボタンなどの複数の入力装置を有する。
HMD15、ステレオカメラ16、トラッカ17の検出データに基づいて、ユーザA及びBの全身の姿勢及び位置を推定することにより、ユーザA及びBの姿勢情報がそれぞれ生成される。ユーザA及びBの姿勢情報は、ユーザA及びユーザBによって共有される後述の共有空間に反映される。
図2は、ユーザによる本実施形態の利用例を示す。図2に示すように、ユーザA及びBは、現実世界の異なる空間に存在する。具体的には、ユーザAは第1空間1に存在し、ユーザBは第1空間1とは異なる第2空間2に存在する。ユーザA及びBの頭部には、HMD15A及び15Bがそれぞれ装着される。本実施形態の第1空間1及び第2空間2は、それぞれ、ユーザA及びユーザBの部屋である。
本実施形態では、ユーザAのHMD15Aは、主に、搭載されたカメラユニットによって外界の映像を撮影してディスプレイパネルに表示することができるビデオ透過(ビデオシースルー)型HMDとして機能する。このビデオ透過型HMDは、外界の映像にコンピュータグラフィックス(CG)によって生成された仮想オブジェクトを重畳させることで拡張現実(AR(Augmented Reality))の映像(AR空間映像)を生成して表示することができる。なお、本実施形態のHMD15Aは、後述するように、共有空間の床面からユーザAのアバターが落下する場合などには、現実世界から切り離された仮想現実(VR(Virtual Reality))の映像(VR空間映像)を表示可能な非透過型HMDとして機能することができる。
本実施形態では、ユーザBのHMD15Bは、VR空間映像をディスプレイパネルに表示することができる非透過型HMDである。この非透過型HMDは、ユーザBが頭部を回転させると、360度見渡せる全周囲のVR空間映像を表示する。
ステレオカメラ16A及び16Bは、それぞれ、ユーザA及びBの正面に配置される。ステレオカメラ16A及び16Bは、それぞれ、前方のユーザA及びB、ユーザA及びBが立っている床面、ユーザA及びBがいる部屋の壁面などを視野範囲に含む。
ユーザAの両手とユーザBの両手及び両足には、トラッカ17A及び17Bがそれぞれ装着される。ここでは、ユーザの両手や両足にトラッカを装着した例を説明するが、手と足の一方のみにトラッカ17を装着してもよいし、胴体など他の身体部位にトラッカ17を装着してもよい。入力装置18A及び18Bは、それぞれ、ユーザA及びBの両手に所持される。
本実施形態では、第1空間1と、第1空間1とは離れた場所の第2空間2との2つの空間を後述の共有空間によって結合して、ユーザA及びユーザBの両者があたかも同じ場所(ユーザA側の第1空間1)にいるかのようにインタラクションができる体験が提供される。例えば、第1空間1にいないユーザBのアバターがまさに第1空間1にいるような体験を提供することで、インタラクションやコミュニケーションを楽しむことが可能となる。
ユーザA側では、AR空間映像によるビデオシースルーの体験が提供される。例えば、ユーザAは、身体を使ったインタラクションにより、AR空間映像においてリアルな壁を模した仮想オブジェクトを破壊することができる。また、AR空間映像においてユーザBのアバターがその場にいるように見え、身振りなど体を使ったコミュニケーションができる。
ユーザB側では、VR空間映像による体験が提供される。例えば、ユーザBは、VR空間映像においてユーザAの部屋(第1空間1)にアバターの体で入ることができる。ユーザBも同様に、身体を使ったインタラクションにより、VR空間映像においてリアルな壁を模した仮想オブジェクトを破壊することができる。また、VR空間映像において、ユーザBのアバターの身体は、大きくも小さくも変化させることができる。
図3は、本実施形態に係る情報処理システム10の機能ブロック図である。図3を含む各図の機能ブロックはハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現することができる。情報処理端末100Aは、第1取得部51と、空間構築部52と、空間更新部53と、第1描画部54と、を含む。情報処理端末100Bは、第2取得部55と、提供部56と、第2描画部57と、を含む。
第1取得部51は、ユーザAの周囲の第1空間1における物体の位置、色及びテクスチャを示す空間情報を取得する。ここでの「物体」とは、ユーザがいる空間内の床、壁、天井、物品(テーブル等)の他に、そのユーザの身体自体を含むものとする。第1取得部51は、取得部の一例である。第2取得部55は、後述する共有空間情報、空間更新情報を取得する。
第1取得部51及び第2取得部55は、それぞれ、ユーザA及びBの姿勢を示す姿勢情報を取得する。上述したように、姿勢情報は、HMD15、ステレオカメラ16及びトラッカ17の検出データに基づいて生成される。第1取得部51及び第2取得部55は、ユーザA及びBの操作入力に応じてユーザの所望の操作を示す操作情報をそれぞれ取得する。操作情報は、入力装置18を介した操作入力に基づいて生成される。
空間構築部52は、空間情報に基づいて第1空間1での物体の位置が反映された共有空間を構築する。空間構築部52は、構築した共有空間の位置座標系(以下、共有座標系という)を示す共有空間情報を生成する。
空間更新部53は、空間情報、ユーザA及びBの姿勢情報及び操作情報に基づいて、共有空間を更新する。その結果、ユーザBについての共有空間での位置が決定される。空間更新部53は、更新した共有空間の状態を示す空間更新情報を生成する。空間更新部53は、決定部の一例である。
提供部56は、第2取得部55によって取得されたユーザBの姿勢情報及び操作情報を第1取得部51に提供する。第1描画部54及び第2描画部57は、空間更新情報を用いて生成した映像によって共有空間内の様子を描画し、HMD15に表示させる。このとき、第1描画部54及び第2描画部57は、共有座標系において、表示される共有空間画像を閲覧するユーザA及びBの頭部の位置を特定し、その特定した位置に仮想カメラを配置する。そして、配置した仮想カメラから共有空間内を見た様子を描画する。これによりユーザA及びBは、離れた場所にいる他のユーザと共有空間内の様子を一緒に閲覧できる。
図4A及び図4Bは、ユーザAのHMD15Aによって表示されるAR空間映像を例示する。図4Aの例では、AR空間映像において、ユーザAの手には剣の仮想オブジェクトが重畳されている。また、AR空間映像においては、部屋の中央部分にユーザBの人型のアバターの仮想オブジェクトが重畳されている。そのため、ユーザAのHMD15Aには、AR空間映像を介して、ユーザAがいる部屋(第1空間1)内で、図面手前で剣を持って図面中央のユーザBの人型のアバターと戦っている様子が表示される。図4Bの例では、ユーザAがユーザBのアバターから攻撃を受けている。
図5のシーケンス図を用いて、本実施形態に係る情報処理端末100A及び100Bにおける処理の流れを説明する。本実施形態では、ユーザAの情報処理端末100Aが、サーバとして機能する。
まず、S11で、情報処理端末100Aは、情報処理端末100Bとの接続を確立する。本実施形態では、情報処理端末100Aは、通信ネットワーク5を介して情報処理端末100BとP2P(ピアツーピア)接続する。本実施形態では、情報処理端末100Aは、ゲーム参加受付を通知し、情報処理端末100Bからのゲームプレイ要求を承認した後、情報処理端末100BとP2P接続する。
S12で、第1取得部51は、ユーザAの周囲の第1空間1における物体の位置、色及びテクスチャを示す空間情報を取得する。本実施形態では、第1取得部51は、ステレオカメラ16Aが撮像した画像を解析することによって、ステレオカメラ16Aの撮像範囲内に存在する物体の位置、色及びテクスチャを特定する。第1取得部51は、この特定した物体の位置、色及びテクスチャに基づいて空間情報を取得する。
具体的には、第1取得部51は、ステレオカメラ16の撮像範囲を格子状に分割して得られる複数の単位領域のそれぞれについて、その単位領域に写っている被写体の一部分までの距離を算出する。これにより、第1取得部51は、単位領域ごとにその単位領域に写っている物体までの距離の情報を含む距離画像(デプスマップ)を取得できる。以下では、現実空間に存在する物体のうち、距離画像内の各単位領域に写っている部分を単位部分という。
第1取得部51は、各単位領域の距離画像内における位置(すなわち、ステレオカメラ16の設置位置から見たその単位領域の方向)、及びその単位領域に写っている単位部分までの距離の数値を用いて、その単位部分の現実空間内における位置座標を算出する。この位置座標は、ステレオカメラ16の設置位置を基準位置とした座標系における3次元の位置座標となる。このようにして得られる複数の単位部分の各々の位置座標を用いることによって、ユーザの身体やテーブルなどの複雑な構造を有する物体の位置や形状が特定される。また、このようにして得られる複数の単位部分の各々の位置座標について、撮像した画像に基づいて色及びテクスチャが特定される。
空間情報は、第1空間1における床面を指定する床面情報を含む。本実施形態では、第1取得部51は、最も低い位置に存在する単位部分によって構成される平面を床面として、床面情報を生成する。
S13で、空間構築部52は、空間情報に基づいて共有空間を構築する。S13では、空間構築部52は、空間情報において特定された位置座標に基づいて、第1空間1における物体の位置を反映させるように共有座標系を構築する。また、共有座標系では、空間情報に含まれる床面情報に基づいて、第1空間1の床面に対応させるように共有空間の床面が設定される。なお、共有空間において第1空間1に対応する空間の外側の空間には、所定の仮想オブジェクト(例えば、宇宙空間を示すような仮想オブジェクト)が配置される。本実施形態では、ユーザBの初期位置は、共有空間において第1空間1に対応する空間内の所定の位置に設定される。
S14で、空間構築部52は、構築した共有空間の共有座標系を示す共有空間情報を生成して情報処理端末100Bに提供する。
S15で、第2描画部57は、共有空間情報に基づいて、構築された共有空間を反映するようにVR空間映像を生成する。第2描画部57は、共有座標系に基づいて、共有空間において設定された床面に第2空間2の床面を合わせ、この床面を基準に壁、天井及び物品を形成するようにVR空間映像を生成して描画する。このようにVR空間映像を表示することにより、ユーザBは、共有空間における自身の状態をVR空間映像によって確認することができる。ユーザBは、この物体の位置のみが反映されたVR空間映像に基づいて、操作入力を実行できる。
S16で、第1取得部51は、第1空間1の空間情報、ユーザAの姿勢情報及び操作情報を取得するとともに、情報処理端末100Bの提供部56を介して提供されたユーザBの姿勢情報及び操作情報を取得する。ここで、操作情報は、例えば、ユーザのアバターに特定の動作(例えば、弾丸を放つ、剣を出現させる等)を実行させるための動作情報を含むことができる。また、ユーザBのHMD15BのようなVR空間映像用のHMDが用いられる場合、操作情報は、共有空間内でユーザのアバターを所望の位置に移動させるための移動情報と、ユーザのアバターのスケールを設定するためのスケール情報とをさらに含む。スケール情報は、ユーザのアバターのスケールを調整するためのスケール値を含む。
S17で、空間更新部53は、S16で取得した第1空間1の空間情報、ユーザA及びBの姿勢情報及び操作情報に基づいて、共有空間を更新する。具体的には、空間更新部53は、各単位部分について、共有空間における仮想オブジェクトの位置、形状(大きさを含む)、色及びテクスチャを決定する。本実施形態の仮想オブジェクトは、例えば、床、壁、天井及び物品、ユーザA及びBのアバター、剣、弾丸等である。なお、共有空間における床、壁、天井及び物品の仮想オブジェクトは、これらを破壊できるように破片の集合体で構成される。
空間更新部53は、空間情報及びユーザAの姿勢情報に基づいて、第1空間1におけるユーザAの現在の位置及び姿勢に対応させるように、共有空間内でのユーザAの位置及び姿勢を決定する。空間更新部53は、決定したユーザAの位置及び姿勢に基づいて、共有空間でのユーザAのアバターの仮想オブジェクトの位置及び姿勢を更新する。
空間更新部53は、ユーザBの姿勢情報に基づいてユーザBの現在の姿勢に対応させるように共有空間内でのユーザBの姿勢を決定するとともに、移動情報で指定された位置に共有空間内でのユーザBの位置を決定する。また、本実施形態では、空間更新部53は、ユーザBのスケール情報に基づいて、共有空間でのユーザBのアバターの仮想オブジェクトの大きさを決定する。例えば、空間更新部53は、スケール情報のスケール値に基づいて、その指定されたスケールが現在のスケールとは異なる場合に共有空間でのユーザBのアバターのスケールを増減するようにその大きさを変更する。空間更新部53は、決定したユーザBの位置、姿勢及びスケールに基づいて、共有空間でのユーザBのアバターの仮想オブジェクトの位置、姿勢及びスケールを更新する。
空間更新部53は、空間情報に基づいて現在の第1空間1における床、壁、天井、物品の位置、色及びテクスチャを反映させるように共有空間での床、壁、天井、物品の位置、色及びテクスチャを決定する。空間更新部53は、決定された床、壁、天井、物品の位置、色及びテクスチャに基づいて、共有空間での床、壁、天井、物品の仮想オブジェクトの位置、色及びテクスチャを更新する。
本実施形態では、空間更新部53は、空間情報、ユーザA及びBの姿勢情報及び操作情報に基づいて、ユーザA及びBの少なくとも一方のアバターに関する仮想オブジェクトが共有空間において第1空間1に対応する空間を形成する第1空間仮想オブジェクトに接触したかどうかを判定する。ここで、本実施形態のアバターに関する仮想オブジェクトは、アバターの所定の身体部位(腕等)、アバターが所持する剣、アバターが放った弾丸等のアバターによって操作される仮想オブジェクトである。また、本実施形態の第1空間仮想オブジェクトは、共有空間における第1空間1に対応する床、壁、天井、物品を形成する仮想オブジェクトである。ただし、これに限定されず、第1空間仮想オブジェクトは、共有空間における第1空間1に対応する床、壁、天井、物品の少なくとも1つを形成する仮想オブジェクトであってもよい。第1空間仮想オブジェクトは、その破片となる複数の仮想オブジェクトによって構成される。
アバターに関する仮想オブジェクトが第1空間仮想オブジェクトに接触したと判定された場合、空間更新部53は、第1空間仮想オブジェクトにおけるその接触した箇所の状態を変化させる。この状態の変化は、例えば、第1空間仮想オブジェクトにおける接触箇所の破壊、炎上、凍結、又は着色を含む。この状態の変化が例えば第1空間仮想オブジェクトにおける接触箇所の破壊である場合、空間更新部53は共有空間においてその接触した箇所の仮想オブジェクトを消失させるように接触箇所の仮想オブジェクトの状態を変化させる。
本実施形態では、共有空間の床面に対応する第1空間仮想オブジェクトが破壊された場合であって、ユーザA及びユーザBのアバターの少なくとも一方がその破壊された床面の箇所に位置する場合、空間更新部53は、その破壊された床面の箇所に位置するアバターをその破壊された床面の位置から落下させるように共有空間におけるそのアバターに関するユーザの位置を決定する。
また、空間更新部53は、例えば、一方のユーザのアバターが所持する剣の仮想オブジェクトが他方のユーザから放出された弾丸の仮想オブジェクトと接触したと判定された場合、弾丸を弾き返す等の特定の動作を実行させるように仮想オブジェクトを生成する。このようなユーザA及びBと共有空間内の仮想オブジェクトとのインタラクションの結果、後述のS19A及び19Bにおいて仮想オブジェクトが増減されたり、見た目が変更される。
S18で、空間更新部53は、生成した空間更新情報を第1描画部54に提供するとともに情報処理端末100Bに提供する。
S19Aで、第1描画部54は、空間更新情報に基づいて、更新された共有空間を反映するようにAR空間映像を描画する。S19Aでは、第1描画部54は、HMD15Aを装着したユーザAの視点位置・視点方向から更新された共有空間を見たときの仮想オブジェクトを描画する。本実施形態では、第1描画部54は、HMD15Aの視野内の第1空間1の床、壁、天井、物品の位置に合わせて、これらの破片の仮想オブジェクトを敷き詰めることにより、共有空間において第1空間1の床、壁、天井、物品を反映するように第1空間仮想オブジェクトを描画する。第1描画部54は、生成した床、壁、天井、物品の第1空間仮想オブジェクトの表面上に、ポストプロセスでHMD15によって撮影された床、壁、天井、物品の撮影画像(ビデオシースルー画像)を重畳する。ここで、「第1空間仮想オブジェクトの表面」とは、共有空間において第1空間1に対応する空間内から見たときの第1空間仮想オブジェクトの面である。第1描画部54は、空間更新情報に基づいて、仮想オブジェクト上に重畳した撮影画像の上に、ユーザBのアバターや剣等の仮想オブジェクトを重畳することにより、AR空間映像を描画する。
第1空間仮想オブジェクト(壁等)が破壊された場合には、その破壊部分の仮想オブジェクトにおいて敷き詰められた破片の仮想オブジェクトがバラバラに崩れ去って消失する。その結果、第1描画部54は、その消失した部分についてユーザAの視点方向奥側に存在する仮想オブジェクトを描画することが可能となる。また、バラバラになった破片の仮想オブジェクトの破壊断面には、壁等が破壊された時の断面を示すテクスチャ画像が貼り付けられている。加えて、上述したように、第1空間仮想オブジェクトの表面には、ポストプロセスでHMD15の撮影画像(ビデオシースルー画像)が重畳されている。その結果、壁等の第1空間仮想オブジェクトが破壊されると、その破片の仮想オブジェクトによって示される画像は、ビデオシースルー画像からその破壊された状態を示す所定のテクスチャ画像に変化する。その結果、その接触箇所の壁等が実際に破壊されたような演出が可能となる。この場合、ビデオシースルー画像は、HMD15によって撮影された撮影画像から生成されるテクスチャ画像を用いても良いし、撮影画像そのままを用いても良い。
ユーザAのアバターが共有空間において破壊された床面の箇所に位置する場合、ユーザAのアバターをその破壊された床面の位置から落下させるように共有空間におけるユーザAの位置が決定される。この場合、ユーザAのHMD15Aは、共有空間における第1空間1に対応する空間からのユーザAのアバターの落下に伴い、共有空間における第1空間1に対応する空間の外側の空間を反映するVR空間映像を表示するようになる。
S19Bで、第2描画部57は、空間更新情報に基づいて、更新された共有空間を反映するようにVR空間映像を描画する。S19Bでは、第2描画部57は、空間更新情報に基づいて、HMD15Bを装着したユーザBの視点位置・視点方向から更新された共有空間を見たときの仮想オブジェクトを生成することにより、VR空間映像を描画する。具体的には、第2描画部57は、共有空間において床、壁、天井、物品、ユーザAのアバターや剣等を反映するように仮想オブジェクトを生成することにより、VR空間映像を描画する。例えば、第2描画部57は、第1空間仮想オブジェクトの表面が第1空間1の床、壁、天井、物品の色及びテクスチャを反映する画像を示すように、VR空間映像を描画する。第2描画部57は、上述のように接触箇所の破片の仮想オブジェクトが消失した場合、その消失した部分についてユーザBの視点方向奥側に存在する仮想オブジェクトを描画する。
第1空間仮想オブジェクトが破壊されると、その破片の仮想オブジェクトによって示される画像は、その破壊部分の色及びテクスチャを反映する画像から破壊状態を示すテクスチャ画像に変化する。その結果、その接触箇所の壁等が実際に破壊されたような演出が可能となる。なお、S19A及びS19Bは同時に実行される。
これ以降、情報処理システム10は、このS16からS19A及びS19Bまでの処理を繰り返し実行する。具体的には、情報処理システム10は、第1空間1の空間情報の取得、各ユーザA及びBの姿勢情報及び操作情報の取得、及び取得したこれらの情報に応じた共有空間の更新及びその描画を繰り返し実行する。これにより、ユーザA及びBの身体の動き等を反映したアバターが存在する共有空間の様子をユーザA及びBに提示することができる。
以上により、情報処理端末100A及び100Bにおける処理が終了する。
本実施形態によると、ユーザA及びBはユーザAの部屋内の物体が反映された共有空間を用いて互いに他の空間にいるユーザとインタラクションすることが可能となる。そのため、ユーザに斬新な体験を提供することができる。
本実施形態では、共有空間において第1空間1に対応する空間内にユーザBの位置が決定される。その結果、ユーザAにとっては自身の部屋にユーザBのアバターが出現するようにAR空間映像が描画され、ユーザBにとってはユーザAの部屋にあたかもいるようにVR空間映像が描画される。そのため、より没入感及び臨場感のある体験をユーザA及びBに提供することが可能となる。
本実施形態では、空間更新部53は、スケール情報に基づいて、共有空間におけるユーザのアバターのスケールを決定する。本構成によると、共有空間内における各ユーザのアバターのスケールを変更できるようになる。そのため、ユーザA及びBは、共有空間内で互いにスケールが異なるアバターとインタラクションができるため、より斬新な体験を提供可能となる。
本実施形態では、空間構築部52は、第1空間1の床面に対応させるように共有空間の床面を設定する。これにより、ユーザAの床面とユーザBの床面とが一致するようになるため、ユーザA及びBは同じ部屋で互いにインタラクションできるような感覚を得ることができる。
本実施形態では、空間情報は、物体の位置に加え、物体の色及びテクスチャを示す。この構成によると、実際のユーザAの部屋(第1空間1)により近い映像が得られるため、より臨場感のある体験を提供することが可能となる。
本実施形態では、ユーザA及びユーザBの少なくとも一方のアバターに関する仮想オブジェクトが第1空間仮想オブジェクトと接触した場合、第1空間仮想オブジェクトにおける接触箇所の状態を変化させる。本構成によると、実際のユーザAの部屋の壁等に対して特定の演出がなされるため、より臨場感のある体験を提供することが可能となる。
本実施形態では、共有空間の床面に対応する第1空間仮想オブジェクトが破壊され、ユーザA及びユーザBのアバターの少なくとも一方がその破壊された床面の箇所に位置する場合、その破壊された床面の箇所に位置するアバターをその破壊された床面の位置から落下させるように共有空間におけるそのアバターに関するユーザの位置が決定される。本構成によると、実際のユーザAの部屋から誤って落下するような斬新な体験をユーザに提供することが可能となる。
本実施形態では、第1空間仮想オブジェクトの表面は、第1空間1での物体を示す画像(例えば、ビデオシースルー画像、物体の色及びテクスチャを反映する画像)を示し、第1空間仮想オブジェクトの破壊断面は、破壊された状態を示す所定のテクスチャ画像を示す。本構成によると、ユーザAの部屋が実際に破壊されたような演出が可能となるため、より斬新な体験を提供可能となる。
以下、変形例を説明する。本実施形態では、HMD15Aを主にビデオ透過型HMDとして機能させ、HMD15Bを非透過型HMDとして機能させたが、これに限定されず、HMD15A及び15Bはビデオ透過型HMD及び非透過型HMDのいずれで機能してもよい。
本実施形態では、ユーザA側の第1空間1の床の位置とユーザB側の第2空間2の床の位置とを合わせたが、これに限定されない。例えば、一方のユーザ側の床、壁、天井のいずれかを他方のユーザ側の床、壁、天井に合わせてもよい。
本実施形態では、情報処理端末100Aをサーバとして機能させたが、これに限定されない。例えば、情報処理端末100Bをサーバとして機能させてもよい。本実施形態では、空間情報は、第1空間1における物体の位置、色及びテクスチャを示したが、これに限定されず、少なくとも第1空間1における物体の位置が示せればよい。本実施形態では、空間情報は、物体の位置、色及びテクスチャを示すものとしたが、これに限定されず、少なくとも物体の位置を示すものであればよい。本実施形態では、入力装置18を介して操作情報が入力されたが、これに限定されず、ユーザのジェスチャ等の任意の動作に応じて操作情報が入力されてもよい。
[第2実施形態]
以下、本発明の第2実施形態を説明する。第2実施形態の図面および説明では、第1実施形態と同一または同等の構成要素、部材には、同一の符号を付する。第1実施形態と重複する説明を適宜省略し、第1実施形態と相違する構成について重点的に説明する。
上記第1実施形態では、共有空間において第1空間1に対応する空間内にユーザBのアバターを出現させるように共有空間を構築した。一方で、第2実施形態では、共有空間において第1空間1に対応する空間の外にユーザBのアバターを出現させるように共有空間を構築する。具体的には、ユーザBの第2空間2内にユーザAの第1空間1を出現させるように共有空間を構築する。
図6A及び図6Bは、ユーザAのHMD15Aによって表示されるAR空間映像を例示する。図6Aの例では、ユーザBが人型のアバターではなく、巨大なロボットのアバターとして表される。この例では、ユーザBのロボットのアバターは、AR空間映像において10メートル程度の身長となるようにスケーリングされている。また、ユーザAの部屋の壁の一部は、破壊されたような態様の仮想オブジェクトによって示される。その結果、ユーザAのHMDには、ユーザBのロボットアームがユーザAの部屋の外から部屋の壁と接触することにより、部屋の壁を破壊してユーザAの部屋に進入していく様子が表示される。図6Bの例では、ユーザAの部屋の大半がユーザBのロボットのアバターによって破壊された様子が表される。
本実施形態では、ユーザBのHMD15Bは、外界の映像に仮想オブジェクトを重畳させることでAR空間映像を生成して表示することができるビデオ透過型HMDである。図7は、ユーザBのHMD15Bによって表示されるAR空間映像を例示する。図7の例では、ユーザBの両手が図面手前でロボットアームの仮想オブジェクトによって重畳されてAR空間映像において表される。また、ユーザAの部屋(第1空間)を示すメッシュの壁が部分的に破壊され、その破壊された部分からユーザAのアバターが見える。ユーザBのアバターのスケールが大きいため、AR空間映像においてユーザAの部屋は小さく反映される。
本実施形態によると、ユーザAは自身の部屋が部屋の外からやってきたユーザBのアバターとインタラクションができ、ユーザBは自身の部屋内でユーザAの部屋内のユーザAのアバターとインタラクションができる。そのため、より臨場感のある体験を提供することが可能となる。以下、図8を用いてその処理を説明する。
S22で、第1取得部51は、第1空間1の空間情報を取得するとともに、第2空間2における物体の位置を示す第2空間2の空間情報を取得する。第2空間2の空間情報は、情報処理端末100Bの提供部56を介して提供される。本実施形態では、情報処理端末100Bの第2取得部55は、ステレオカメラ16Bを用いて第1空間1の空間情報の場合と同様の手法により第2空間2の空間情報を取得する。提供部56は、取得した第2空間2の空間情報を情報処理端末100Aに提供する。第2空間2の空間情報は、第2空間2の床面を示す床面情報を含む。
S23で、空間構築部52は、第1空間1及び第2空間2の各空間情報に基づいて、共有空間を構築する。S23では、空間構築部52は、各空間情報において特定された第1空間1及び第2空間2の位置座標に基づいて、共有空間において第2空間2に対応する空間内の所定の位置に第1空間1に対応する空間を配置するように共有空間を構築する。本実施形態では、共有空間において、第2空間2に対応する空間は、第1空間1に対応する空間を収容可能な大きさになるようにそのスケールが設定される。この第1空間1に対応する空間では、第1空間1における物体の位置が反映されている。本実施形態の共有座標系は、各空間情報に含まれる床面情報に基づいて、第1空間1に対応する空間の床面と第2空間の対応する空間の床面とが水平になるように設定される。本実施形態では、ユーザBの初期位置は、共有空間において第1空間1に対応する空間の外側の所定の位置に設定される。
S24の後、S25で、第2描画部57は、共有空間情報に基づいて、共有空間を反映させるようにAR空間映像を生成する。このAR空間映像では、第2空間2の所定の位置に第1空間を表す箱状の仮想オブジェクトが重畳される。なお、第2ユーザの操作情報に基づいて、この第1空間を表す箱状の仮想オブジェクトの位置が変更されてもよい(例えばテーブルの上等)。S26〜S28の後、S29Bで、第2描画部57は、空間更新情報に基づいて、更新された共有空間を反映させるようにAR空間映像を生成する。
その後、情報処理システム10は、S26からS29A及びS29Bまでの処理を繰り返し実行する。具体的には、情報処理システム10は、第1空間1の空間情報の取得、各ユーザA及びBの姿勢情報及び操作情報の取得、及び取得したこれらの情報に応じた共有空間の更新及びその描画を繰り返し実行する。
以上により、情報処理端末100A及び100Bにおける処理が終了する。
[第3実施形態]
以下、本発明の第3実施形態を説明する。第3実施形態の図面および説明では、第1実施形態と同一または同等の構成要素、部材には、同一の符号を付する。第1実施形態と重複する説明を適宜省略し、第1実施形態と相違する構成について重点的に説明する。
図9の情報処理システム10は、サーバ200と、複数の情報処理端末100と、を含む。サーバ200は、通信ネットワーク5を介して複数の情報処理端末100とデータ通信可能に接続されている。サーバ200は、制御部211と、記憶部212と、通信部213と、を含む。
制御部211はプロセッサを含み、記憶部212に記憶されているプログラムを実行して各種の情報処理を実行する。記憶部212は、RAM等のメモリデバイスを含み、制御部211が実行するプログラム、及び当該プログラムによって処理されるデータを格納する。通信部213は、通信ネットワーク5を介してデータ通信を行うための通信インタフェースである。本実施形態では、各情報処理端末100とサーバ200とは、通信部13及び213を介してクライアント・サーバ型の接続によって通信する。
図10は、本実施形態に係る情報処理システム10の機能ブロック図である。図10に示すように、サーバ200は、第1取得部51と、空間構築部52と、空間更新部53と、を含む。情報処理端末100は、第2取得部55と、提供部56と、描画部58と、を含む。なお、描画部58は、第1描画部54及び第2描画部57と同様の機能を有する。本実施形態の第1取得部51及び第2取得部55は、それぞれ、サーバ側取得部及び端末側取得部の一例である。
図11のシーケンス図を用いて、本実施形態に係る情報処理端末100及びサーバ200における処理の流れを説明する。S31で、サーバ200は、各情報処理端末100との接続を確立する。本実施形態では、サーバ200は、通信ネットワーク5を介して各情報処理端末100とクライアント・サーバ型の接続を行う。
S32で、第1取得部51は、情報処理端末100から空間情報を取得する。本実施形態では、第1取得部51は、提供部56を介して情報処理端末100A及び100Bの少なくとも一方から空間情報を取得する。
S33で、空間構築部52は、取得した空間情報に基づいて共有空間を構築する。本実施形態では、事前に指定された情報処理端末100(本実施形態では情報処理端末Aとする)の空間情報を用いて、共有空間が構築される。S34〜S36の後、S37で、空間更新部53は、S36で取得した情報処理端末100Aにおける第1空間1の空間情報、ユーザA及びBの姿勢情報及び操作情報に基づいて、共有空間を更新する。S38で、空間更新部53は、空間更新情報を情報処理端末100A及び100Bに提供する。S39で、情報処理端末100A及び100Bの描画部58は、それぞれ、第2取得部55を介して取得した空間更新情報に基づいて、更新された共有空間を反映するようにAR空間映像又はVR空間映像を描画する。
その後、情報処理システム10は、S36からS39までの処理を繰り返し実行する。以上により、情報処理端末100及びサーバ200における処理が終了する。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
1 第1空間、 2 第2空間、 5 通信ネットワーク、 10 情報処理システム、 11 制御部、 12 記憶部、 13 通信部、 14 インタフェース部、 15 HMD、 16 ステレオカメラ、 17 トラッカ、 18 入力装置、 51 第1取得部、 52 空間構築部、 53 空間更新部、 54 第1描画部、 55 第2取得部、 56 提供部、 57 第2描画部、 58 描画部、100 情報処理端末、200 サーバ。

Claims (12)

  1. 第1ユーザの周囲の第1空間における物体の位置を示す空間情報を取得する取得部と、
    前記空間情報に基づいて、前記第1ユーザと前記第1空間とは異なる第2空間に存在する第2ユーザとによって共有される共有空間であって、前記第1空間での前記物体の位置が反映された前記共有空間を構築する空間構築部と、
    前記第2ユーザについての前記共有空間での位置を決定する決定部と、
    を含む、情報処理装置。
  2. 前記決定部は、前記共有空間において前記第1空間に対応する空間内に前記第2ユーザの位置を決定する、請求項1に記載の情報処理装置。
  3. 前記取得部は、前記第2空間における物体の位置を示す他の空間情報をさらに取得し、
    前記空間構築部は、前記他の空間情報にさらに基づいて、前記共有空間において前記第1空間に対応する空間と前記第2空間に対応する空間とのうちの一方の空間が他方の空間内に位置するように、前記共有空間を構築する、請求項1又は2に記載の情報処理装置。
  4. 前記取得部は、前記共有空間における前記第1ユーザ及び前記第2ユーザの少なくとも一方のアバターのスケールを設定するためのスケール情報を取得し、
    前記決定部は、前記スケール情報に基づいて、前記アバターのスケールを決定する、請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記空間情報は、前記第1空間における床面を指定する床面情報を含み、
    前記空間構築部は、前記床面情報に基づいて、前記第1空間の床面に対応させるように前記共有空間の床面を設定する、請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記空間情報は、前記第1空間における前記物体の色及びテクスチャをさらに示し、
    前記決定部は、前記第1空間での前記物体の色及びテクスチャをさらに反映させるように前記共有空間における物体の仮想オブジェクトの色及びテクスチャを決定する、請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記第1ユーザ及び前記第2ユーザの少なくとも一方のアバターに関する仮想オブジェクトが前記共有空間において前記第1空間に対応する空間を形成する第1空間仮想オブジェクトと接触した場合、前記第1空間仮想オブジェクトにおける前記接触した箇所の状態を変化させる、請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 前記状態の変化は、前記第1空間仮想オブジェクトにおける前記接触した箇所の破壊であり、
    前記共有空間の床面に対応する前記第1空間仮想オブジェクトが破壊された場合であって、前記第1ユーザ及び前記第2ユーザのアバターの少なくとも一方がその破壊された床面の箇所に位置する場合、前記決定部は、前記位置するアバターを前記破壊された床面の位置から落下させるように前記共有空間における前記位置するアバターに関するユーザの位置を決定する、請求項7に記載の情報処理装置。
  9. 前記状態の変化は、前記第1空間仮想オブジェクトにおける前記接触した箇所の破壊であり、
    前記第1空間仮想オブジェクトは、その破片となる複数の仮想オブジェクトによって構成され、
    前記第1空間仮想オブジェクトの表面は、前記第1空間での前記物体を示す画像を示し、
    前記第1空間仮想オブジェクトの破壊断面は、破壊された状態を示す所定のテクスチャ画像を示す、請求項7又は8に記載の情報処理装置。
  10. 第1ユーザの周囲の第1空間における物体の位置を示す空間情報を取得するステップと、
    前記空間情報に基づいて、前記第1ユーザと前記第1空間とは異なる第2空間に存在する第2ユーザとによって共有される共有空間であって、前記第1空間での前記物体の位置が反映された前記共有空間を構築するステップと、
    前記第2ユーザについての前記共有空間での位置を決定するステップと、
    を含む、方法。
  11. コンピュータに、
    第1ユーザの周囲の第1空間における物体の位置を示す空間情報を取得するステップと、
    前記空間情報に基づいて、前記第1ユーザと前記第1空間とは異なる第2空間に存在する第2ユーザとによって共有される共有空間であって、前記第1空間での前記物体の位置が反映された前記共有空間を構築するステップと、
    前記第2ユーザについての前記共有空間での位置を決定するステップと、
    を実行させるためのプログラム。
  12. サーバと、複数の情報処理端末と、を含む情報処理システムであって、
    前記複数の情報処理端末のうちの第1情報処理端末は、
    前記第1情報処理端末を利用する第1ユーザの周囲の第1空間における物体の位置を示す空間情報を取得する端末側取得部と、
    前記取得した空間情報を前記サーバに提供する提供部と、
    を含み、
    前記サーバは、
    前記第1情報処理端末から、前記空間情報を取得するサーバ側取得部と、
    前記空間情報に基づいて、前記第1ユーザと前記第1空間とは異なる第2空間に存在する第2ユーザとによって共有される共有空間であって、前記第1空間での前記物体の位置が反映された前記共有空間を構築する空間構築部と、
    前記第2ユーザについての前記共有空間での位置を決定する決定部と、
    を含む、情報処理システム。
JP2020152094A 2020-06-23 2020-09-10 情報処理装置、方法、プログラム及び情報処理システム Pending JP2022003498A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/022794 WO2021261346A1 (ja) 2020-06-23 2021-06-16 情報処理装置、方法、プログラム及び情報処理システム
US18/001,094 US20230214005A1 (en) 2020-06-23 2021-06-16 Information processing apparatus, method, program, and information processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020107907 2020-06-23
JP2020107907 2020-06-23

Publications (2)

Publication Number Publication Date
JP2022003498A true JP2022003498A (ja) 2022-01-11
JP2022003498A5 JP2022003498A5 (ja) 2023-08-04

Family

ID=79247120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020152094A Pending JP2022003498A (ja) 2020-06-23 2020-09-10 情報処理装置、方法、プログラム及び情報処理システム

Country Status (3)

Country Link
US (1) US20230214005A1 (ja)
JP (1) JP2022003498A (ja)
WO (1) WO2021261346A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7413472B1 (ja) 2022-09-26 2024-01-15 株式会社コロプラ 情報処理システムおよびプログラム
JP7412497B1 (ja) 2022-09-26 2024-01-12 株式会社コロプラ 情報処理システム
JP7412617B1 (ja) 2023-02-10 2024-01-12 株式会社コロプラ 情報処理システムおよびプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US20100169799A1 (en) * 2008-12-30 2010-07-01 Nortel Networks Limited Method and Apparatus for Enabling Presentations to Large Numbers of Users in a Virtual Environment
WO2013026048A2 (en) * 2011-08-18 2013-02-21 Utherverse Digital, Inc. Systems and methods of virtual world interaction
US9911232B2 (en) * 2015-02-27 2018-03-06 Microsoft Technology Licensing, Llc Molding and anchoring physically constrained virtual environments to real-world environments
US10701318B2 (en) * 2015-08-14 2020-06-30 Pcms Holdings, Inc. System and method for augmented reality multi-view telepresence
US20170256096A1 (en) * 2016-03-07 2017-09-07 Google Inc. Intelligent object sizing and placement in a augmented / virtual reality environment
US10722800B2 (en) * 2016-05-16 2020-07-28 Google Llc Co-presence handling in virtual reality
US20170372499A1 (en) * 2016-06-27 2017-12-28 Google Inc. Generating visual cues related to virtual objects in an augmented and/or virtual reality environment
WO2018005690A1 (en) * 2016-06-28 2018-01-04 Against Gravity Corp. Systems and methods for assisting virtual gestures based on viewing frustum
US20180060333A1 (en) * 2016-08-23 2018-03-01 Google Inc. System and method for placement of virtual characters in an augmented/virtual reality environment
KR102355175B1 (ko) * 2016-11-21 2022-01-26 소니그룹주식회사 정보 처리 장치, 정보 처리 방법, 및 비일시적 컴퓨터 판독가능 매체
JP6203369B1 (ja) * 2016-12-08 2017-09-27 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
WO2018193687A1 (ja) * 2017-04-18 2018-10-25 ソニー株式会社 情報処理装置、情報処理方法、および記録媒体
WO2018237256A1 (en) * 2017-06-22 2018-12-27 Centurion VR, LLC SIMULATION OF VIRTUAL REALITY
US10960297B2 (en) * 2018-09-17 2021-03-30 Disney Enterprises, Inc. Systems and methods for tracking a physical object using a passive object having a reflective surface
US10937244B2 (en) * 2018-10-23 2021-03-02 Microsoft Technology Licensing, Llc Efficiency enhancements to construction of virtual reality environments
JP2021047720A (ja) * 2019-09-19 2021-03-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、情報処理方法、及びプログラム
WO2021095175A1 (ja) * 2019-11-13 2021-05-20 株式会社Abal 仮想空間体感システム
US11875013B2 (en) * 2019-12-23 2024-01-16 Apple Inc. Devices, methods, and graphical user interfaces for displaying applications in three-dimensional environments
JP2020074108A (ja) * 2019-12-24 2020-05-14 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム
US11095855B2 (en) * 2020-01-16 2021-08-17 Microsoft Technology Licensing, Llc Remote collaborations with volumetric space indications

Also Published As

Publication number Publication date
US20230214005A1 (en) 2023-07-06
WO2021261346A1 (ja) 2021-12-30

Similar Documents

Publication Publication Date Title
US10449444B2 (en) Spatially-correlated multi-display human-machine interface
WO2021261346A1 (ja) 情報処理装置、方法、プログラム及び情報処理システム
US10671239B2 (en) Three dimensional digital content editing in virtual reality
US8339364B2 (en) Spatially-correlated multi-display human-machine interface
CN103635891B (zh) 大量同时远程数字呈现世界
US20170094264A1 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
CN109643161A (zh) 动态进入和离开由不同hmd用户浏览的虚拟现实环境
US11055920B1 (en) Performing operations using a mirror in an artificial reality environment
JP7496460B2 (ja) 画像生成装置および画像生成方法
EP2485119A2 (en) Spatially-correlated multi-display human-machine interface
EP2243525A2 (en) Method and system for creating a shared game space for a networked game
JP2010253277A (ja) ビデオゲームにおいてオブジェクトの動きを制御する方法およびシステム
JP2002247602A (ja) 画像生成装置及びその制御方法並びにそのコンピュータプログラム
JP2023126474A (ja) 拡張現実のためのシステムおよび方法
CN111862348A (zh) 视频显示方法、视频生成方法、装置、设备及存储介质
WO2020218131A1 (ja) 画像生成装置および情報提示方法
JP6661756B2 (ja) 画像生成装置、画像生成方法及びプログラム
WO2020017435A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2018171320A (ja) シミュレーションシステム及びプログラム
JP2017086542A (ja) 画像変更システム、方法、及びプログラム
JP2018094086A (ja) 情報処理装置および画像生成方法
JP6382928B2 (ja) 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
JP6563592B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP6554139B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6114848B1 (ja) 同期サーバ及び同期方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230727

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230727