JP6694514B2 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP6694514B2
JP6694514B2 JP2018542629A JP2018542629A JP6694514B2 JP 6694514 B2 JP6694514 B2 JP 6694514B2 JP 2018542629 A JP2018542629 A JP 2018542629A JP 2018542629 A JP2018542629 A JP 2018542629A JP 6694514 B2 JP6694514 B2 JP 6694514B2
Authority
JP
Japan
Prior art keywords
distance image
distance
virtual space
observation point
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018542629A
Other languages
English (en)
Other versions
JPWO2018062251A1 (ja
Inventor
掛 智一
智一 掛
中島 聡
聡 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2018062251A1 publication Critical patent/JPWO2018062251A1/ja
Application granted granted Critical
Publication of JP6694514B2 publication Critical patent/JP6694514B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、現実空間から得られる情報に基づいて仮想空間を構築する情報処理装置、情報処理方法、プログラム、及び情報記憶媒体に関する。
近年、拡張現実や仮想現実といった技術が研究されている。このような技術の一つとして、カメラで撮影した画像などの現実空間から得られる情報に基づいて仮想空間を構築して、ユーザーにその仮想空間内にいるかのような体験をさせるものがある。このような技術によれば、ユーザーは現実世界と関連する仮想空間内で現実世界では体験できないような体験をすることができる。
上述した技術において、現実空間についての情報をどのように取得したらよいかについては、いまだ十分に検討されていない。
本発明は上記実情を考慮してなされたものであって、その目的の一つは、効果的に現実空間の情報を取得して、現実空間に対応する仮想空間を構築することのできる情報処理装置、情報処理方法、プログラム、及び情報記憶媒体を提供することにある。
本発明に係る情報処理装置は、1又は複数の被写体が存在する現実空間を観測して得られる距離画像であって、当該距離画像内の複数の単位領域のそれぞれに写っている被写体部分までの第1観測点からの距離の情報を含んだ第1距離画像と、前記第1観測点とは異なる第2観測点からの距離の情報を含んだ第2距離画像と、を取得する距離画像取得部と、前記第1距離画像、及び前記第2距離画像のそれぞれに含まれる距離の情報に基づいて、前記被写体を表現する仮想空間を構築する仮想空間構築部と、を含むことを特徴とする。
本発明に係る情報処理方法は、1又は複数の被写体が存在する現実空間を観測して得られる距離画像であって、当該距離画像内の複数の単位領域のそれぞれに写っている被写体部分までの第1観測点からの距離の情報を含んだ第1距離画像と、前記第1観測点とは異なる第2観測点からの距離の情報を含んだ第2距離画像と、を取得するステップと、前記第1距離画像、及び前記第2距離画像のそれぞれに含まれる距離の情報に基づいて、前記被写体を表現する仮想空間を構築するステップと、を含むことを特徴とする。
本発明に係るプログラムは、1又は複数の被写体が存在する現実空間を観測して得られる距離画像であって、当該距離画像内の複数の単位領域のそれぞれに写っている被写体部分までの第1観測点からの距離の情報を含んだ第1距離画像と、前記第1観測点とは異なる第2観測点からの距離の情報を含んだ第2距離画像と、を取得する距離画像取得部、及び、前記第1距離画像、及び前記第2距離画像のそれぞれに含まれる距離の情報に基づいて、前記被写体を表現する仮想空間を構築する仮想空間構築部、としてコンピュータを機能させるためのプログラムである。このプログラムは、コンピュータ読み取り可能で非一時的な情報記憶媒体に格納されて提供されてよい。
本発明の実施の形態に係る情報処理装置をユーザーが使用する様子を示す図である。 本発明の実施の形態に係る情報処理装置の構成を示す構成ブロック図である。 本発明の実施の形態に係る情報処理装置の機能を示す機能ブロック図である。 仮想空間内に徐々にボクセルが配置されていく様子の一例を示す図である。 本発明の実施の形態に係る情報処理装置が実行する処理の流れの一例を示す図である。 本発明の実施の形態に係る情報処理装置が実行する処理の流れの一例を示す図である。 仮想空間の様子の一例を模式的に示す図である。
以下、本発明の実施形態について、図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る情報処理装置1をユーザーが使用する様子を示す図である。また、図2は情報処理装置1の構成を示す構成ブロック図である。情報処理装置1は、例えば家庭用ゲーム機や携帯型ゲーム機、パーソナルコンピュータ、スマートホン等であって、図2に示すように、制御部11と、記憶部12と、インタフェース部13と、を含んで構成されている。また、情報処理装置1は、図1に示すように、表示装置14、第1ステレオカメラ15、及び第2ステレオカメラ16と接続されている。
制御部11は少なくとも一つのプロセッサーを含んで構成され、記憶部12に記憶されているプログラムを実行して各種の情報処理を実行する。本実施形態において制御部11が実行する処理の具体例については、後述する。記憶部12は、RAM等のメモリデバイスを少なくとも一つ含み、制御部11が実行するプログラム、及び当該プログラムによって処理されるデータを格納する。インタフェース部13は、情報処理装置1が表示装置14、第1ステレオカメラ15、及び第2ステレオカメラ16との間で各種の情報を授受するためのインタフェースである。
表示装置14は、ヘッドマウントディスプレイ等、ユーザーが頭部に装着して使用する頭部装着型の表示装置である。表示装置14は、情報処理装置1が出力する映像信号に応じた画像をユーザーの眼前に表示する。特に本実施形態では、表示装置14はユーザーの左右の目に互いに異なる左目用画像、右目用画像を閲覧させるものとする。これにより表示装置14は、視差を利用した立体映像を表示することができる。
第1ステレオカメラ15は、左右に並んで配置された複数のカメラによって構成されており、1又は複数の被写体が存在する現実空間を観測するために用いられる。情報処理装置1は、これら複数のカメラによる撮影画像の視差を利用することで、第1ステレオカメラ15の撮影位置(観測点)から撮影画像内に写っている被写体までの距離を算出することができる。第1ステレオカメラ15を構成する各カメラによって撮影された撮影画像は、インタフェース部13経由で情報処理装置1に入力される。同様に、第2ステレオカメラ16も左右に並んで配置された複数のカメラから構成され、視野範囲内の被写体までの距離の算出に用いられる。
本実施形態において第1ステレオカメラ15は、ユーザーの前方に設置されており、ユーザー側に向けられた位置及び向きで固定されている。一方、第2ステレオカメラ16は、表示装置14に取り付けられており、その撮影方向は表示装置14の前面に向けられている。すなわち、第1ステレオカメラ15の観測点は現実空間内で固定されている。これに対して、第2ステレオカメラ16の観測点はユーザーに対して固定されており、ユーザーが頭部を動かすとこれに連動して動くことになる。通常の使用状態では、第1ステレオカメラ15と第2ステレオカメラ16は互いに向き合う状態となり、第1ステレオカメラ15の視野範囲にはユーザーの頭部、表示装置14、及び第2ステレオカメラ16が含まれることになる。また、ユーザーが正面を向いている際には、第2ステレオカメラ16の視野範囲に第1ステレオカメラ15が含まれることになる。
なお、ここでは第2ステレオカメラ16は表示装置14に取り付けられた別の装置であることとしたが、第2ステレオカメラ16は表示装置14と一体に構成されてもよい。また、第1ステレオカメラ15は情報処理装置1と一体に構成されてもよい。
以下、情報処理装置1が実現する機能について、図3を用いて説明する。図3に示すように、情報処理装置1は、機能的に、距離画像取得部21と、仮想空間構築部22と、表示制御部23と、を含んで構成されている。これらの機能は、制御部11が記憶部12に記憶されたプログラムに従って動作することにより実現される。このプログラムは、インターネット等の通信ネットワークを介して情報処理装置1に提供されてもよいし、光ディスク等のコンピュータ読み取り可能な情報記憶媒体に格納されて提供されてもよい。
距離画像取得部21は、第1ステレオカメラ15、及び第2ステレオカメラ16のそれぞれが現実空間を撮影することで得られる距離画像(デプスマップ)を取得する。以下では、第1ステレオカメラ15の撮影画像に基づいて生成された距離画像を第1距離画像DM1と表記し、第2ステレオカメラ16の撮影画像に基づいて生成された距離画像を第2距離画像DM2と表記する。また、これら2種類の距離画像を距離画像DMと総称する。本実施形態において距離画像DMは、画像内の複数の単位領域ごとに、少なくとも当該単位領域内に写っている物体の一部分(被写体部分)までの距離Dの情報を含んだ画像である。ここで単位領域は、画像内の一つ一つの画素であってもよいし、互いに隣接する複数の画素からなる画素ブロックであってもよい。距離画像DMは、単位領域に写っている被写体の色成分の情報を含んでもよい。
また、距離画像取得部21は、距離画像DMの生成に用いる画像を撮影した時点におけるステレオカメラの位置、及び向きの情報を距離画像DMとともに取得する。以下、距離画像DMの生成に用いる画像を撮影した際のステレオカメラの位置、及び向きの情報を、観測点情報という。特に第2ステレオカメラ16は、ユーザーの頭部の動きに合わせてその位置、及び向きが変化する。そのため、第2距離画像DM2内に写っている物体の現実空間内における位置を特定するためには、対応する観測点情報が必要となる。距離画像DMのデータと、距離画像DMの生成に用いられた画像の観測点情報を用いることにより、距離画像DM内の各単位領域に写っている被写体の、現実空間内における位置を特定することができる。
具体的に、例えば距離画像取得部21は、第1ステレオカメラ15による撮影画像内に写っている第2ステレオカメラ16の位置、及び向きを特定することによって、第2ステレオカメラ16の現実空間内における位置、及び向きを特定してもよい。この場合、精度よく第2ステレオカメラ16の位置を特定するために、第2ステレオカメラ16,又は表示装置14の所定位置に発光素子を取り付け、この発光素子を発光させてもよい。こうすれば、距離画像取得部21は、第1ステレオカメラ15の撮影画像内において発光素子からの光が写っている位置を特定することによって、第2ステレオカメラ16の観測点情報を特定することができる。また、第2ステレオカメラ16又は表示装置14に複数の発光素子を配置し、その光の位置パターンを検出することによって、第1ステレオカメラ15から見た第2ステレオカメラ16の傾きの変化を特定することもできる。
また、距離画像取得部21は、第2ステレオカメラ16、又は表示装置14が備えるモーションセンサーの検出結果を用いて、第2ステレオカメラ16の位置、及び向きの変化を特定してもよい。具体的に距離画像取得部21は、第2ステレオカメラ16、又は表示装置14が内蔵する加速度センサーやジャイロスコープ、地磁気センサー等のモーションセンサーの検出結果を利用することで、第2ステレオカメラ16の観測点情報を特定できる。
また、距離画像取得部21は、第2ステレオカメラ16による撮影画像の時間変化を用いて、第2ステレオカメラ16の位置、及び向きの変化を特定してもよい。このような撮影画像の時間変化に基づく位置推定は、公知のステレオSLAM(Simultaneous Localization and Mapping)技術等により実現できる。このような技術によって第2ステレオカメラ16の位置、及び向きの変化をモニタし続けることで、モニタ開始時点の第2ステレオカメラ16の位置及び向きを基準として、任意の時点における第2ステレオカメラ16の観測点情報を特定することができる。この方法によれば、発光素子やモーションセンサー等のデバイスがなくとも、第2ステレオカメラ16の撮影画像だけから観測点情報を特定できる。
なお、距離画像取得部21は、以上説明した観測点情報を特定するための複数の方法を組み合わせて用いてもよい。これにより、より精度よく観測点情報を特定できる。また、以上説明したもの以外の方法で観測点情報を特定してもよい。
仮想空間構築部22は、距離画像取得部21が取得した第1距離画像DM1及び第2距離画像DM2に基づいて、仮想空間を構築する。具体的に仮想空間構築部22は、各距離画像DMに写っている被写体(すなわち、現実空間に存在している物体)に対応するオブジェクトを生成し、仮想3次元空間内に配置する。特に本実施形態では、現実仮想空間構築部22は、各距離画像DM内の各単位領域に対応するボクセルを仮想空間内に配置していくことによって、当該距離画像DM内に写っている物体を仮想空間内に再現する。ボクセルは、3次元空間を格子状に分割した際の各格子に対応する単位体積要素であって、所定のサイズを有する。ボクセルのサイズは、距離画像DMの単位領域と対応するサイズであってよい。また、ボクセルの形状は立方体であってよい。現実空間に存在する様々な形状の物体は、仮想空間内において複数のボクセルの集合によって表現される。
具体的に、仮想空間構築部22は、距離画像取得部21が取得した第1距離画像DM1、及び第2距離画像DM2に含まれる単位領域のそれぞれに対応するボクセルを生成し、仮想空間内に配置する。ボクセルの配置位置は、対応する単位領域に写っている物体までのステレオカメラからの距離D、距離画像DM内における当該単位領域の位置、及びステレオカメラの観測点情報に基づいて決定される。また、ボクセルの表面の色は、対応する単位領域の色(画素値)に基づいて決定されてよい。
第2距離画像DM2は、ユーザーの視点に近い位置から見た景色を含んでいる。そのため、第2距離画像DM2に基づいて生成されるボクセルは、ユーザーのいる部屋の中の壁や床、家具など、ユーザーの周囲に存在する物体に対応すると考えられる。すなわち、第2距離画像DM2に基づいてボクセルを生成、配置することによって、仮想空間構築部22は、ユーザーがいる部屋の様子を仮想空間内に再現することができる。なお、距離画像取得部21は複数回にわたって第2距離画像DM2を取得し、仮想空間構築部22はこれら複数の第2距離画像DM2のそれぞれに基づいてボクセルを生成してもよい。第2ステレオカメラ16が取り付けられた表示装置14を装着した状態でユーザーに自分の周囲を見渡してもらい、その間に撮影された複数の撮影画像に基づいて生成された第2距離画像DM2を用いてボクセルを配置することによって、仮想空間構築部22は第2ステレオカメラ16の視野角以上の広い範囲にわたって現実空間の様子を再現することができる。
一方、第1距離画像DM1には、ユーザー自身が写っていると想定される。そのため、第1距離画像DM1に基づいて生成されるボクセルにより、ユーザー自身の体が再現される。二つの距離画像DMに基づいて生成されたボクセルを一つの仮想空間内に配置することによって、仮想空間構築部22は、ユーザー自身とその周囲の空間の双方を再現した仮想空間を構築することができる。なお、仮想空間構築部22は、第1距離画像DM1に基づいてボクセルを配置する際には、現実空間において第2ステレオカメラ16の存在する位置を中心とした所定範囲内に存在する被写体部分のみを処理対象としてもよい。第2ステレオカメラ16から離れた位置に存在する被写体は、ユーザー自身ではないと考えられるためである。逆に、第2距離画像DM2に基づいてボクセルを配置する際には、現実空間において第2ステレオカメラ16の存在する位置を中心とした所定範囲の外に存在する被写体部分のみを処理対象としてもよい。
さらに本実施形態では、仮想空間構築部22は、第1距離画像DM1に写っている物体を仮想空間内に再現する場合と、第2距離画像DM2に写っている物体を仮想空間内に再現する場合とで、異なる処理を実行することとする。これにより、各距離画像DMの取得条件(観測点等)の違いに応じて、仮想空間内に配置されるボクセルの役割や性質を異ならせることができる。このような処理の具体例については、後に詳しく説明する。
表示制御部23は、仮想空間構築部22が構築した仮想空間内の様子を示す空間画像を生成し、表示装置14に表示させる。例えば表示制御部23は、現実空間内における表示装置14の現在位置に対応する仮想空間内の位置に視点を配置し、その視点から仮想空間内を見た様子を示す空間画像を生成する。このとき表示制御部23は、ユーザーの左右の目に対応する2つの視点を仮想空間内に並べて配置し、この2つの視点のそれぞれから仮想空間内を見た様子を示す2つの空間画像を生成する。この2つの空間画像を左目用画像、右目用画像として表示装置14に表示させることにより、ユーザーは仮想空間内の様子を立体的に認識することができる。
ここで、表示制御部23は、第2ステレオカメラ16の観測点情報を用いて、ユーザーの目の位置、及び視線方向を特定する。そして、このユーザーの目の位置と向きに対応する仮想空間内の位置及び向きに、空間画像を描画するための視点を設定する。これにより、ユーザーが現実空間を見るのと同じように仮想空間内のオブジェクトを見た様子を表示装置14に表示させることができる。
また、表示制御部23は、ユーザーの実際の目の位置とは異なる位置に視点を設定してもよい。例えば表示制御部23は、ユーザーの操作デバイスに対する方向指示に応じて、視点の位置を仮想空間内で移動させてもよい。これによりユーザーは、自分の体を離れた空間内の任意の位置から、自分自身の体を含め自分がいる空間の様子を閲覧することができる。
以下、仮想空間構築部22が2種類の距離画像DMを用いて異なる性質を持った2種類のボクセルからなる仮想空間を構築する処理の具体例について、説明する。以下の例では、第1距離画像DM1と第2距離画像DM2のどちらを入力とするかに応じて、仮想空間内に配置するボクセルの更新頻度を変化させる例について、説明する。なお、以下では説明の便宜のために、第1距離画像DM1に基づいて生成されるボクセルを人物ボクセルと表記し、第2距離画像DM2に基づいて生成されるボクセルを背景ボクセルと表記する。
具体的に、第2距離画像DM2については、距離画像取得部21が仮想空間の初期化時に所定時間にわたって繰り返し取得することとし、仮想空間構築部22は、これら複数の第2距離画像DM2に基づいて生成した背景ボクセルを仮想空間内に配置する。そして、次に初期化が行われるまでは、一度生成した背景ボクセルを更新せずにそのまま仮想空間内に存在させ続けることとする。
これに対して第1距離画像DM1については、ユーザーが仮想空間内の様子を閲覧している間、距離画像取得部21が比較的短い時間間隔で繰り返し取得することとし、仮想空間構築部22は、第1距離画像DM1が新たに取得されるつど、前回配置した人物ボクセルを仮想空間から消去し、新たに取得された第1距離画像DM1に基づいて人物ボクセルを生成し、仮想空間内に配置する。これにより、ユーザーの体を表す人物ボクセルについては実際のユーザーの動きに合わせてリアルタイムに更新しつつ、背景ボクセルを固定とすることで処理負荷を軽減することができる。
さらに、仮想空間構築部22は、取得された距離画像DMに基づいてボクセルを仮想空間内に配置する場合、全てのボクセルを一度に配置するのではなく、仮想空間内のボクセルが徐々に増えていくように各ボクセルの配置タイミングをずらしながら配置していってもよい。特に背景ボクセルを配置する際にこのような処理を適用することにより、徐々に仮想世界が構築されていくように演出することができる。この例における各ボクセルの配置タイミングの決定例について、以下に説明する。
例えば仮想空間構築部22は、対応する距離画像DM内の単位領域の色に応じて、ボクセルの配置タイミングを決定してもよい。具体例として、仮想空間構築部22は、距離画像DM内の複数の単位領域のうち、色成分値が所定の色範囲に属する単位領域について、対応するボクセルを配置する。この状態の仮想空間の様子が表示制御部23によって表示装置14に表示された後、仮想空間構築部22は次の色範囲に属する単位領域について、対応するボクセルを配置する。このような処理を全ての色範囲について順次繰り返すことにより、仮想空間内に徐々にボクセルが配置されていく様子を表示できる。
また、仮想空間構築部22は、ボクセルを配置する候補となる候補位置のそれぞれについて、当該候補位置に対応する現実空間内の位置に被写体部分が所定時間にわたって存在すると判定されたタイミングで、当該候補位置にボクセルを配置することとしてもよい。このような手法によれば、所定時間にわたって継続的に物体の存在が検出された位置から、順にボクセルが配置されていくことになる。この例における候補位置は、仮想空間内を格子状に分割して得られる位置である。仮想空間構築部22は、これらの候補位置のそれぞれに対して、カウンタを設定する。そして、仮想空間の初期化時には、距離画像取得部21が第2距離画像DM2を繰り返し取得し、取得するごとに仮想空間構築部22は第2距離画像DM2に写っている物体が存在すると推定される仮想空間内の各候補位置について、その候補位置に設定されたカウンタの値をインクリメントする。その結果、カウンタの値が所定の閾値に達した場合、その候補位置に背景ボクセルを配置する。一方、あるタイミングで取得された第2距離画像DM2に基づいて物体が存在しないと推定された候補位置については、当該候補位置のカウンタの値をリセットする。これにより、一定時間にわたって物体が存在すると検出された位置から、順にボクセルを配置していくことができる。
このような手法によれば、ノイズや誤検出を回避して物体が確かに存在すると判定される候補位置にボクセルを配置することができる。しかも、カウンタの値が閾値に到達するタイミングは、仮想空間内の候補位置ごとにずれると想定されるため、同じ条件で各候補位置にボクセルを配置するにもかかわらず、ボクセルが仮想空間内に配置されるタイミングをずらすことができる。図4は、このような手法によりボクセルが時間とともに徐々に仮想空間内に配置されていく様子の一例を示している。
ここで、以上説明したようにカウンタを用いて徐々に背景ボクセルを仮想空間内に配置し、その後人物ボクセルをリアルタイムで生成、配置していく場合に情報処理装置1が実行する処理の流れの一例について、図5A及び図5Bのフロー図を用いて説明する。
まず、仮想空間構築部22が、仮想空間の初期化処理を実行する(S1)。この初期化処理では、仮想空間内に存在する全てのボクセルが消去され、仮想空間内のボクセルが配置される可能性がある全ての候補位置に対して、初期値0でカウンタが設定される。
続いて距離画像取得部21が、その時点での第2ステレオカメラ16の撮像画像を用いて生成された第2距離画像DM2を取得する(S2)。仮想空間構築部22は、S3で取得された第2距離画像DM2内の注目する単位領域について、当該単位領域に写っている被写体部分の現実空間内における位置を特定し(S3)、対応する仮想空間内の候補位置に設定されたカウンタの値をインクリメントする(S4)。仮想空間構築部22は、この段階でインクリメントされたカウンタの値が所定の閾値以上になったか判定し(S5)、閾値以上になった場合にはその候補位置に背景ボクセルを配置する(S6)。S3〜S6の処理を全ての単位領域について実行すると、次に仮想空間構築部22は、この一連のループ中にS4でカウンタの値がインクリメントされなかった候補位置について、そのカウンタの値を0にリセットする(S7)。
その後、仮想空間構築部22は、その時点での第2ステレオカメラ16の位置及び向きに基づいて、仮想空間内の視点位置及び視線方向を更新する(S8)。そして表示制御部23が、S8で更新された視点位置から視線方向に向けて仮想空間を見た様子を示す空間画像を描画し、表示装置14に表示させる(S9)。
次に仮想空間構築部22は、初期化が行われた後、所定の時間が経過したか判定する(S10)。所定時間が経過していなければ、S2に戻って新たな第2距離画像DM2に基づく背景ボクセルの配置処理が実行される。所定時間が経過すると、背景ボクセルの配置処理は終了し、次の処理が実行される。
背景ボクセルの配置処理が終了すると、それ以降、S6で配置された背景ボクセルは更新されなくなる。次に仮想空間構築部22は、その時点で仮想空間内に配置されている全ての人物ボクセルを消去する(S11)。そして、今度は距離画像取得部21が第1距離画像DM1を取得する(S12)。仮想空間構築部22は、S12で取得した第1距離画像DM1内の各単位領域に写っている被写体部分の現実空間内における位置を特定し(S13)、対応する仮想空間内の候補位置に人物ボクセルを配置する(S14)。
その後、仮想空間構築部22は、その時点での第2ステレオカメラ16の位置及び向きに基づいて、仮想空間内の視点位置及び視線方向を更新する(S15)。そして表示制御部23が、S15で更新された視点位置から視線方向に向けて仮想空間を見た様子を示す空間画像を描画し、表示装置14に表示させる(S16)。その後、処理の終了がユーザーから指示されるまで、S11に戻って人物ボクセルの更新処理が繰り返し実行される。
このように第1距離画像DM1に基づいて配置される人物ボクセルと第2距離画像DM2に基づいて配置される背景ボクセルとで更新タイミングや更新頻度を変化させることで、ユーザーについてはリアルタイムでその動きを仮想空間に反映させつつ、それほど変化しないと想定されるユーザー周囲の物体については更新頻度を抑えて処理負荷を軽減することができる。また、第2ステレオカメラ16の撮影位置はユーザーの動きとともに変化するため、第2距離画像DM2に基づいて配置される背景ボクセルを消去せずに仮想空間内に残し続けることで、一度に第2ステレオカメラ16で撮影可能な範囲を超える広い範囲から得られた背景ボクセルを仮想空間内に配置することができる。
なお、上記の例では背景ボクセルが一度配置されるとその後一切消去されないこととしたが、その後も人物ボクセルの更新処理よりも低い更新頻度で背景ボクセルに対応する被写体部分の存在をチェックし、被写体部分の存在が検出されなくなった候補位置に配置されている背景ボクセルは消去することとしてもよい。これにより、ユーザーの周囲に存在する動きのある物体が背景ボクセルとして固定され続けることを回避できる。
なお、背景ボクセルの消去は、第2距離画像DM2に基づいて実行するのではなく、これとは別の固定位置に配置されたステレオカメラによって得られる別の距離画像に基づいて実行してもよい。この場合、第2距離画像DM2により検出された被写体部分の存在を、固定位置に配置されたステレオカメラから得られる画像を用いてモニタし、その被写体部分に動きがあるか否かを判定する。そして、動きがあればその被写体部分の更新頻度を上げることとする。固定位置に配置されたステレオカメラを用いることで、被写体部分に動きがあるか否かを第2ステレオカメラ16よりも精度よく判定することが期待できる。
また、仮想空間構築部22は、現実空間に存在する被写体部分に対応するボクセルを、現実空間における位置とは異なる位置に配置してもよい。例えば、ユーザーの周囲の予め定められた一部の空間領域内に存在する被写体部分については、その被写体部分に対応するボクセルを、仮想空間内における離れた空間領域に配置することとする。この場合、仮想空間構築部22は、ボクセルの配置位置を決定する際に、その現実空間内における位置座標を予め定められた変換行列によって変換することで、ボクセルの位置座標を決定する。このような制御によれば、例えばユーザーが現実空間内の所定領域に自分の手を進入させた場合に、その所定領域内の手が別の場所にワープするかのような演出を実現できる。図6は、このような例において仮想空間構築部22が構築する仮想空間の様子を模式的に示した図である。また、空間画像を描画する際の基準となる視点位置についても、同様の手法でユーザーの現実の目の位置とは異なる位置に配置させてもよい。
なお、この例においても、位置を変化させるボクセルを、2種類のボクセルのうちの一方に限定してもよい。具体的に、仮想空間構築部22は、第2距離画像DM2に写っている物体については、所定領域内に存在すると算定された場合であってもそのままの位置に対応する背景ボクセルを配置する。一方、第1距離画像DM1に写っている物体については、所定領域内に存在すると算定された場合、所定のルールに従って変換された位置に人物ボクセルを配置する。
また、以上の説明では、仮想空間構築部22は、距離画像DMに写っている被写体部分に対応するボクセルだけを仮想空間内に配置することとした。そのため、ステレオカメラの撮影位置から見えない死角の領域に存在する物体については、対応するボクセルを仮想空間内に配置することはできない。そこで仮想空間構築部22は、距離画像DMから検出された被写体部分の位置、及び配列に基づいて、そこに写っている被写体が何なのかを推定し、推定結果に基づいて被写体を表すボクセルを配置してもよい。このような手法によれば、被写体の一部が他の物体の影に隠れているなどの場合に、その影に隠れた部分を表すボクセルも仮想空間内に配置することができる。
具体例として、第2ステレオカメラ16から見て椅子の上部だけが机の上に現れており、椅子の下部は机の影に隠れているものとする。この場合、仮想空間構築部22は、予め用意された推定器を用いて、机の上に現れている被写体部分からその物体が椅子であると推定する。このような推定ができれば、標準的な形状の椅子を表すボクセルを対応する位置に配置することで、机の影に隠れた部分にもボクセルを配置することができる。この例における推定器は、公知の機械学習技術によって生成することができる。
また、仮想空間構築部22は、上述したような推定器を用いて、第1距離画像DM1に写っている被写体の中から、ユーザーと背景とを識別してもよい。このような識別ができれば、第1距離画像DM1に基づいて配置するボクセルを全てリアルタイムで更新する人物ボクセルとするのではなく、ユーザーを表すと推定されたボクセルのみを人物ボクセルとし、それ以外のボクセルは背景ボクセルとして仮想空間内に固定してもよい。
さらに、以上説明した被写体部分から物体を推定する技術を適用する場合、仮想空間構築部22は、ステレオカメラの撮影位置から見てより遠くに存在する被写体部分を優先的に物体推定の対象とし、推定された物体を表すボクセルを、手前側の物体を表すボクセルよりも先に仮想空間内に配置することとしてもよい。前述した椅子と机の例では、机の影に隠れた部分も含めた椅子の全体を表すボクセルを、机を表すボクセルよりも先に仮想空間内に配置し、その様子を示す空間画像が表示されてから、机を表すボクセルを仮想空間内に配置する。このような制御によれば、ユーザーは物体の前後関係や隠れて見えない部分を把握しやすくなる。
なお、本発明の実施の形態は以上説明したものに限られない。例えば、以上の説明ではユーザーの前方に固定した第1ステレオカメラ15、及び表示装置14に固定された第2ステレオカメラ16によって距離画像DMを取得することとしたが、ユーザーの後方や天井など、これ以外の場所に設置したステレオカメラを用いて取得した距離画像DMに基づいてボクセルを配置してもよい。また、表示装置14に対しても、ユーザーの前方だけでなく、ユーザーの側方や後方などを撮影範囲とする別のステレオカメラを配置してもよい。これにより、ユーザーが自分の周囲を見渡す動きをせずとも、ユーザーの周囲の広い範囲に存在する物体の情報を一度に取得することができる。
また、以上の説明では第2ステレオカメラ16は表示装置14に固定されていることとしたが、第2ステレオカメラ16は表示装置14に固定されておらずともよく、またユーザーの頭部の動きに連動して撮影方向を変化させなくともよい。例えばユーザーが第2ステレオカメラ16を手で持って動かすことにより、情報処理装置1はユーザーの周囲に存在する物体の情報を取得することができる。さらにこの場合、表示装置14はユーザーが頭部に装着するタイプのものでなくともよく、据え置き型の表示装置などであってもよい。
また、以上の説明では情報処理装置1はユーザーの近くに存在し、各ステレオカメラや表示装置14と直接接続されるものとしたが、情報処理装置1はユーザーと離れた位置に設置され、通信ネットワークを介して各ステレオカメラや表示装置14と接続されることとしてもよい。
また、情報処理装置1は通信ネットワークを介してクライアント装置と接続されるサーバ装置であってもよい。この場合、クライアント装置がステレオカメラや表示装置14と接続され、これらの入出力装置と情報処理装置1との間の情報の授受を中継する。また、以上の説明では情報処理装置1自身がステレオカメラの撮影画像を用いて距離画像DMを生成することとしたが、情報処理装置1はクライアント装置が生成した距離画像DMをネットワーク経由で受信することにより取得してもよい。
また、情報処理装置1は、複数のクライアント装置と接続されてもよい。例えばこの場合、1台のクライアント装置が第1ステレオカメラ15と接続され、第1距離画像DMを生成して情報処理装置1に送信する。一方、別のクライアント装置は第2ステレオカメラ16、及び表示装置14と接続され、第2距離画像DMを生成して情報処理装置1に送信するとともに、情報処理装置1からの指示に応じて空間画像を表示装置14に表示させる。
また、以上の説明では情報処理装置1の表示制御部23が空間画像の描画を行うこととしたが、これに限らず表示装置14と接続されるクライアント装置が空間画像を描画してもよい。この場合、情報処理装置1から送信される仮想空間内のボクセルの情報をクライアント装置が受信し、受信した情報を用いて空間画像を描画し、表示装置14に表示させる。
また、ステレオカメラと表示装置14とは別の場所に設置されてもよい。これにより、例えばあるユーザーがいる部屋の様子や当該ユーザーの動きを、別の場所にいる別のユーザーに閲覧させることができる。
また、以上の説明では距離画像DMは、ステレオカメラによって得られる複数の撮影画像を用いて生成されるものとした。しかしながらこれに限らず、距離画像DMは、その内部の単位領域ごとに被写体までの距離Dの情報を含むものであれば、どのような方式で生成されたものであってもよい。具体的に情報処理装置1は、例えばTOF方式などで生成された距離画像DMを用いて仮想空間を構築してもよい。
1 情報処理装置、11 制御部、12 記憶部、13 インタフェース部、14 表示装置、15 第1ステレオカメラ、16 第2ステレオカメラ、21 距離画像取得部、22 仮想空間構築部、23 表示制御部。

Claims (5)

  1. 第1観測点に配置された第1のデバイスによって1又は複数の被写体が存在する現実空間を観測して得られる距離画像であって、当該距離画像内の複数の単位領域のそれぞれに写っている被写体部分までの前記第1観測点からの距離の情報を含んだ第1距離画像と、前記第1観測点とは異なる第2観測点に配置された前記第1のデバイスとは別の第2のデバイスによって現実空間を観測して得られる距離画像であって、当該距離画像内の複数の単位領域のそれぞれに写っている被写体部分までの前記第2観測点からの距離の情報を含んだ第2距離画像と、を取得する距離画像取得部と、
    前記第1距離画像、及び前記第2距離画像のそれぞれに含まれる距離の情報に応じて決まる位置に複数の単位体積要素を配置することによって、前記被写体を表現する仮想空間を構築する仮想空間構築部と、
    を含み、
    前記仮想空間構築部は、前記第1距離画像に応じて配置される単位体積要素については、一度配置した後は更新せず、前記第2距離画像に応じて配置される単位体積要素については、所定時間おきに新たに取得される前記第2距離画像に基づいて更新する
    ことを特徴とする情報処理装置。
  2. 第1観測点に配置された第1のデバイスによって1又は複数の被写体が存在する現実空間を観測して得られる距離画像であって、当該距離画像内の複数の単位領域のそれぞれに写っている被写体部分までの前記第1観測点からの距離の情報を含んだ第1距離画像と、前記第1観測点とは異なる第2観測点に配置された前記第1のデバイスとは別の第2のデバイスによって現実空間を観測して得られる距離画像であって、当該距離画像内の複数の単位領域のそれぞれに写っている被写体部分までの前記第2観測点からの距離の情報を含んだ第2距離画像と、を取得する距離画像取得部と、
    前記第1距離画像、及び前記第2距離画像のそれぞれに含まれる距離の情報に応じて決まる位置に複数の単位体積要素を配置することによって、前記被写体を表現する仮想空間を構築する仮想空間構築部と、
    を含み、
    前記仮想空間構築部は、前記単位体積要素を配置する候補となる前記仮想空間内の候補位置のそれぞれについて、当該候補位置に対応する現実空間内の位置に被写体部分が所定時間にわたって存在すると判定されたタイミングで、当該候補位置に単位体積要素を配置する
    ことを特徴とする情報処理装置。
  3. 請求項1又は2に記載の情報処理装置において、
    前記第1距離画像は、前記被写体としてユーザーを含み、現実空間内に固定された前記第1観測点からの距離の情報を含む画像であって、
    前記第2距離画像は、前記ユーザーに対して固定され、当該ユーザーの動きに連動して動く前記第2観測点からの距離の情報を含む画像である
    ことを特徴とする情報処理装置。
  4. 第1観測点に配置された第1のデバイスによって1又は複数の被写体が存在する現実空間を観測して得られる距離画像であって、当該距離画像内の複数の単位領域のそれぞれに写っている被写体部分までの前記第1観測点からの距離の情報を含んだ第1距離画像と、前記第1観測点とは異なる第2観測点に配置された前記第1のデバイスとは別の第2のデバイスによって現実空間を観測して得られる距離画像であって、当該距離画像内の複数の単位領域のそれぞれに写っている被写体部分までの前記第2観測点からの距離の情報を含んだ第2距離画像と、を取得するステップと、
    前記第1距離画像、及び前記第2距離画像のそれぞれに含まれる距離の情報に応じて決まる位置に複数の単位体積要素を配置することによって、前記被写体を表現する仮想空間を構築するステップと、
    を含み、
    前記仮想空間を構築するステップにおいて、前記第1距離画像に応じて配置される単位体積要素については、一度配置した後は更新せず、前記第2距離画像に応じて配置される単位体積要素については、所定時間おきに新たに取得される前記第2距離画像に基づいて更新する、
    又は、
    前記仮想空間を構築するステップにおいて、前記単位体積要素を配置する候補となる前記仮想空間内の候補位置のそれぞれについて、当該候補位置に対応する現実空間内の位置に被写体部分が所定時間にわたって存在すると判定されたタイミングで、当該候補位置に単位体積要素を配置する、
    ことを特徴とする情報処理方法。
  5. 第1観測点に配置された第1のデバイスによって1又は複数の被写体が存在する現実空間を観測して得られる距離画像であって、当該距離画像内の複数の単位領域のそれぞれに写っている被写体部分までの前記第1観測点からの距離の情報を含んだ第1距離画像と、前記第1観測点とは異なる第2観測点に配置された前記第1のデバイスとは別の第2のデバイスによって現実空間を観測して得られる距離画像であって、当該距離画像内の複数の単位領域のそれぞれに写っている被写体部分までの前記第2観測点からの距離の情報を含んだ第2距離画像と、を取得する距離画像取得部、及び、
    前記第1距離画像、及び前記第2距離画像のそれぞれに含まれる距離の情報に応じて決まる位置に複数の単位体積要素を配置することによって、前記被写体を表現する仮想空間を構築する仮想空間構築部、
    としてコンピュータを機能させるためのプログラムであって、
    前記仮想空間構築部は、前記第1距離画像に応じて配置される単位体積要素については、一度配置した後は更新せず、前記第2距離画像に応じて配置される単位体積要素については、所定時間おきに新たに取得される前記第2距離画像に基づいて更新する、
    又は、
    前記仮想空間構築部は、前記単位体積要素を配置する候補となる前記仮想空間内の候補位置のそれぞれについて、当該候補位置に対応する現実空間内の位置に被写体部分が所定時間にわたって存在すると判定されたタイミングで、当該候補位置に単位体積要素を配置する、
    プログラム
JP2018542629A 2016-09-30 2017-09-27 情報処理装置 Active JP6694514B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016194092 2016-09-30
JP2016194092 2016-09-30
PCT/JP2017/034907 WO2018062251A1 (ja) 2016-09-30 2017-09-27 情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2018062251A1 JPWO2018062251A1 (ja) 2019-06-24
JP6694514B2 true JP6694514B2 (ja) 2020-05-13

Family

ID=61762792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018542629A Active JP6694514B2 (ja) 2016-09-30 2017-09-27 情報処理装置

Country Status (2)

Country Link
JP (1) JP6694514B2 (ja)
WO (1) WO2018062251A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020049619A1 (ja) 2018-09-03 2020-03-12 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
JP7406350B2 (ja) * 2019-11-15 2023-12-27 日本信号株式会社 物体検知装置及び物体検知プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011095858A (ja) * 2009-10-27 2011-05-12 Panasonic Electric Works Co Ltd 3次元デジタイザ
US8587583B2 (en) * 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8570320B2 (en) * 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay

Also Published As

Publication number Publication date
JPWO2018062251A1 (ja) 2019-06-24
WO2018062251A1 (ja) 2018-04-05

Similar Documents

Publication Publication Date Title
JP7349793B2 (ja) 画像処理装置および画像処理方法、プログラム
US10600253B2 (en) Information processing apparatus, information processing method, and program
US20160307374A1 (en) Method and system for providing information associated with a view of a real environment superimposed with a virtual object
JP7423683B2 (ja) 画像表示システム
US10360444B2 (en) Image processing apparatus, method and storage medium
CN106062821A (zh) 用于不受限制的slam的基于传感器的相机运动检测
JP5762600B1 (ja) 情報処理装置及び情報処理方法
JP7182976B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US11156830B2 (en) Co-located pose estimation in a shared artificial reality environment
CN113168732A (zh) 增强现实显示装置和增强现实显示方法
WO2018216602A1 (ja) 情報処理装置、情報処理方法、及びプログラム
TWI821220B (zh) 影像擷取之設備及方法
JP2022522504A (ja) 画像の奥行きマップの処理
JP6695997B2 (ja) 情報処理装置
JP6694514B2 (ja) 情報処理装置
JP6775669B2 (ja) 情報処理装置
JP7341736B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN112774183A (zh) 鉴赏***、模型构成装置、控制方法以及记录介质
KR102287939B1 (ko) 동영상을 이용하여 3차원 이미지를 렌더링하는 장치 및 방법
JP6739539B2 (ja) 情報処理装置
US10798360B2 (en) Information processing system, method for controlling same, and program
WO2016185634A1 (ja) 情報処理装置
WO2018173206A1 (ja) 情報処理装置
JP7044846B2 (ja) 情報処理装置
EP4365887A1 (en) Image display system and image display method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200417

R150 Certificate of patent or registration of utility model

Ref document number: 6694514

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150