JP6332281B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP6332281B2 JP6332281B2 JP2015553406A JP2015553406A JP6332281B2 JP 6332281 B2 JP6332281 B2 JP 6332281B2 JP 2015553406 A JP2015553406 A JP 2015553406A JP 2015553406 A JP2015553406 A JP 2015553406A JP 6332281 B2 JP6332281 B2 JP 6332281B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- information processing
- change
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- User Interface Of Digital Computer (AREA)
Description
1.概要
2.スマートフォンの構成例
3.動作処理
3−1.変化オブジェクトの生成処理
3−2.バッファリング処理
3−3.背景テクスチャの生成処理
3−4.変化テクスチャの生成処理
3−5.AR表示処理
4.まとめ
まず、図1を参照して、本開示の一実施形態に係るAR表示処理の概要を説明する。
図2は、本実施形態に係るスマートフォン1の構成の一例を示すブロック図である。図2に示すように、スマートフォン1は、撮像部2、姿勢情報取得部3、三次元データ取得部4、制御部5、表示制御部6、および表示部7を有する。
撮像部2は、撮像レンズ、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。撮像部2は、単眼カメラであってもよいし、複眼(ステレオ)カメラであってもよい。単眼カメラ又は複眼カメラによって撮像された撮像画像は、後述する画像生成部53によるテクスチャの生成に用いられてもよいし、三次元データ取得部4による動的な三次元データの生成に用いられてもよい。
姿勢情報取得部3は、スマートフォン1の位置および角度(姿勢)を示す姿勢情報を取得する機能を有する。特に、姿勢情報取得部3は、撮像部2の姿勢情報を取得する。AR技術において、真に有用な情報をユーザに呈示するためには、コンピュータが実空間の状況を的確に把握することが重要である。そのため、AR技術の基盤となる実空間の状況の把握を目的とした技術の開発が進められている。そのような技術のひとつとして、例えば、カメラの位置や姿勢とカメラの画像に映る特徴点の位置とを同時に推定可能なSLAM(Simultaneous Localization And Mapping)とよばれる技術がある。単眼カメラを用いたSLAM技術の基本的な原理は、「Andrew J.Davison, “Real-Time Simultaneous Localization and Mapping with a Single Camera”, Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410」において説明されている。なお、カメラ画像を用いて視覚的に位置を推定するSLAM技術は、特にVSLAM(visual SLAM)とも称される。SLAM技術においては、環境マップとカメラ画像とを用いて、カメラの位置および姿勢が推定される。姿勢情報取得部3は、例えばSLAM技術を用いた場合、環境マップと物体に属す特徴点の三次元位置とのマッチングをとることにより、当該物体の形状を構成するポリゴン情報を実物体に対して高精度に位置合わせをすることができる。姿勢情報取得部3は、この位置合わせの結果により、撮像部2の姿勢情報を取得する。他にも、姿勢情報取得部3は、マーカーを用いた姿勢推定技術や、DTAM(Dense Tracking and Mapping in Real-Time)、Kinect Fusionといった技術により、撮像部2の姿勢情報を取得してもよい。また、姿勢情報取得部3は、加速度センサや角速度(ジャイロ)センサ、地磁気センサにより検知された情報に基づいて、姿勢情報を取得してもよい。姿勢情報取得部3は、取得した姿勢情報を制御部5および表示制御部6に出力する。
三次元データ取得部4は、実空間の三次元データを取得する機能を有する。三次元データは、例えば単眼撮像センサ又は複眼撮像センサによって、又は赤外線を用いた形状センサによって作成され得る。三次元データ取得部4は、撮像部2又は図示しない赤外線を用いた形状センサおよび姿勢情報取得部3を用いて三次元データを生成してもよいし、予め他の端末により生成された三次元データを外部から取得してもよい。三次元データは、例えばCAD(Computer Assisted Drafting)データとして実現される。三次元データ取得部4は、取得した三次元データを制御部5および表示制御部6に出力する。
制御部5は、演算処理装置および制御装置として機能し、各種プログラムに従ってスマートフォン1内の動作全般を制御する。制御部5は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。なお、制御部5は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。図2に示すように、制御部5は、識別部51、変化オブジェクト生成部52、および画像生成部53として機能する。
識別部51は三次元データ取得部4により取得された実空間の三次元データに基づいて、実空間に含まれる対象オブジェクトを背景オブジェクトから区別して識別する機能を有する。例えば、識別部51は、三次元データが人工物(例えば室内の構造)を示しているものと仮定して、三次元データから床面(Dominant Plane)および壁面を識別する。そして、識別部51は、床面および壁面以外であって、床面の上に突出している閾値以上の体積を有する三次元形状を、対象オブジェクトとして識別する。ただし、識別された対象オブジェクトのうち、もともと床面や壁面に接触していた部分などは、三次元データに表面として登録されていないため欠損(Hole)になり得る。このため、識別部51は、欠損部分の周辺の頂点を伸ばしたり、欠損部分の周辺の頂点間を線で繋いだり、表面を補ったりすることで、欠損を補間する。他にも、識別部51は、既存アルゴリズムにより欠損を補間してもよい。これにより対象オブジェクトの多面性(Manifoldness)が担保されるため体積計算が可能となり、識別部51は対象オブジェクトを適切に識別することができる。識別部51により識別された対象オブジェクトは、後述の変化オブジェクト生成部52による変化オブジェクトの生成対象となる。また、識別部51は、三次元データが示す三次元形状のうち、対象オブジェクト以外を背景オブジェクトとして識別する。識別部51により対象オブジェクトと区別して識別された背景オブジェクトは、後述の変化オブジェクト生成部52による変化オブジェクトの生成対象から除外される。識別部51は、対象オブジェクトと同様の手法により、背景オブジェクトの欠損を補間してもよい。以下、図3を参照して、識別部51による対象オブジェクトの識別処理について説明する。
変化オブジェクト生成部52は、識別部51により識別された対象オブジェクトについて、対象オブジェクトの状態を変化させた変化オブジェクトを生成する機能を有する。詳しくは、変化オブジェクト生成部52は、変化オブジェクトの頂点の位置情報、頂点間を繋ぐ線分、および線分により囲まれる表面から成るデータを生成する。変化オブジェクトは、例えば対象オブジェクトが破壊された破片であってもよいし、凹凸が形成された対象オブジェクトであってもよい。例えば、変化オブジェクト生成部52は、対象オブジェクトにVoronoi FractureやVoronoi Shatter等のアルゴリズムを適用することで、破壊後の破片を示す変化オブジェクトを生成する。以下、図3を再度参照して、変化オブジェクト生成部52による変化オブジェクトの生成処理について説明する。
画像生成部53は、AR画像のもととなるテクスチャを、AR表示のための事前準備として予め生成する機能を有する。詳しくは、画像生成部53は、識別部51により識別された背景オブジェクトの仮想のオブジェクト画像、即ち状態変化により新たに露出する背景オブジェクトの表面に表示すべきテクスチャ(背景テクスチャ)を生成する。また、画像生成部53は、識別部51により識別された対象オブジェクトの状態を変化させた仮想のオブジェクト画像、即ち変化オブジェクト生成部52により生成された変化オブジェクトの表面に表示すべきテクスチャ(変化テクスチャ)を生成する。画像生成部53は、例えば撮像部2により実空間が撮像された撮像画像に基づいてテクスチャを生成する。
画像生成部53は、実空間が撮像された1枚以上の撮像画像において露出している背景部分を合成することで、背景オブジェクトの表面に表示すべき背景テクスチャ(第1の表面画像)を生成する。詳しくは、画像生成部53は、三次元データにおける頂点を繋ぐ線分により区切られる領域(以下ではポリゴンとも称する)を最小単位として、1枚以上の撮像画像から背景オブジェクトに相当する画像を集めて合成することで、1枚の背景テクスチャを生成する。図4は、背景テクスチャの生成処理を説明するための説明図である。図4は、実空間の撮像画像と三次元データとの対応関係を示している。図4では、対象オブジェクトの表面が実線で囲まれたポリゴンとして示され、背景オブジェクトの表面が破線で囲まれたポリゴンとして示されている。画像生成部53は、1枚以上の撮像画像から、図4の破線で示された背景オブジェクトの各ポリゴンに対応する画像を集めて合成することで、背景テクスチャを生成する。
画像生成部53は、変化オブジェクト生成部52により生成された変化オブジェクトの表面に表示すべき変化テクスチャを生成する。変化オブジェクトに関して表示されるテクスチャとしては、例えば破片断面等の不可視な部分のテクスチャと、もともと露出しており可視であった部分のテクスチャの2種類が挙げられる。画像生成部53は、このうち前者を変化テクスチャ(第2の表面画像)として生成する。後者については、後述の表示制御部6により、スルー画像から対応する部分が表示される。
表示制御部6は、画像生成部53により生成されたテクスチャまたはスルー画像を用いて、AR表示を行うよう表示部7を制御する機能を有する。詳しくは、まず、表示制御部6は、姿勢情報取得部3により取得された姿勢情報および三次元データ取得部4により取得された三次元データを用いて、スルー画像における背景オブジェクト、および変化オブジェクトの頂点位置を動的に決定する。そして、表示制御部6は、変化オブジェクトの状態変化に応じてスルー画像を動的にマスクしながら、スルー画像にAR画像を重畳して表示する。表示制御部6による制御は、変化オブジェクトの状態の演算、動的な描画マスクの生成、背景テクスチャの表示、および変化オブジェクトへのテクスチャの表示に大別される。
表示制御部6は、変化オブジェクトの状態を演算する。詳しくは、まず、表示制御部6は、変化オブジェクトの動きを演算する。そして、表示制御部6は、姿勢情報および三次元データを用いて、スルー画像における背景オブジェクトおよび変化オブジェクトの頂点位置を動的に決定する。例えば、状態変化が破壊である場合、表示制御部6は、破片の位置や姿勢を物理演算して、スルー画像における背景オブジェクトの頂点位置および各破片の頂点位置を決定する。
表示制御部6は、スルー画像において、対象オブジェクトの状態変化に伴い、実空間と異なったAR表示を行う領域を透過する描画マスクを動的に生成する。例えば、図1に示した例においては、ヘルメット12がボール120に当たった衝撃で奥側に移動しているため、移動により新たに露出する背景、および破壊されたヘルメット12の破片が位置する領域を透過する描画マスクを生成する。なお、表示制御部6は、透過領域を二次元的に領域拡大させたり、描画マスクにガウシアンブラーを適用したりしてもよい。これにより、もともとの背景と描画マスクを用いて描画されるテクスチャとの継ぎ目がより自然に表示される。図7は、対象オブジェクトの状態変化に伴う動的な描画マスク生成処理を説明するための図である。図7における符号610および符号620は、表示部7により表示される画像を示し、符号612および符号622は、表示制御部6による動的に生成される描画マスクを示している。図7の符号610に示すように対象オブジェクトに状態変化が生じていない場合、表示制御部6は、AR表示を行わずスルー画像をそのまま表示するため、符号612に示すように透過する領域がない描画マスクを生成する。一方で、図7の符号620に示すように対象オブジェクトの状態に変化が生じた場合、表示制御部6は、符号622に示すようにAR画像を表示する領域を透過する描画マスクを生成する。
表示制御部6は、対象オブジェクトにより隠れた背景オブジェクトのうち、対象オブジェクトの状態が変化することにより新たに露出するポリゴンに、背景テクスチャを貼り付けたAR画像を表示する。詳しくは、表示制御部6は、姿勢情報および三次元データを用いてスルー画像における背景オブジェクトの頂点位置を動的に決定しながら、背景オブジェクトのうち新たに露出するポリゴンに、背景テクスチャの対応する領域を貼り付けたAR画像を、スルー画像に重畳して表示する。このとき、表示制御部6は、背景テクスチャの輝度値や画素値を補正してもよい。例えば、表示制御部6は、バッファリングの際に記録された輝度値の分布とスルー画像における対応する位置の輝度値の分布との比較結果に基づいて、両者の輝度値がより近づくよう背景テクスチャの輝度値を補正する。これにより、背景テクスチャがよりスルー画像と整合し、より自然なAR表示が実現される。以下、図8〜図10を参照して、背景テクスチャの表示処理について具体的に説明する。
表示制御部6は、動的に決定された変化オブジェクトの頂点位置を用いて、変化オブジェクトの表面にテクスチャを貼り付けて表示する。上述したように、変化オブジェクトに関して表示されるテクスチャとしては、不可視であった部分のテクスチャと、可視であった部分のテクスチャの2種類が挙げられる。前者については、表示制御部6は、変化オブジェクトのうち状態変化により新たに露出するポリゴンに、画像生成部53により生成された変化テクスチャを貼り付けたAR画像を表示する。例えば、図1に示した例においては、表示制御部6は、破片の各表面のポリゴンのうち破壊断面に相当するポリゴンに、画像生成部53により決定された単一色を塗りつぶしたテクスチャを貼り付ける。また、後者については、表示制御部6は、スルー画像において露出している対象オブジェクトの画像を、変化オブジェクトの対応するポリゴンに貼り付けたAR画像を表示する。例えば、図1に示した例においては、表示制御部6は、スルー画像において露出しているヘルメット12の表面の画像を、破片の各表面のポリゴンのうちヘルメット12の表面に対応するポリゴンに貼り付ける。なお、表示制御部6は、変化オブジェクト生成部52により設定されたフラグ情報を参照して、変化テクスチャを表示するか、スルー画像の一部を表示するかを判定してもよい。
表示部7は、表示制御部6による制御に基づいて、撮像部2により撮像されたスルー画像、および画像生成部53により生成されたAR画像を合成して表示する。表示部7は、例えばLCD(Liquid Crystal Display)またはOLED(Organic Light−Emitting Diode)、などにより実現される。また、本実施形態に係る情報処理装置がHMDとして実現される場合、表示部7は、透明または半透明のスルー状態として形成され、スルー状態の表示部7に映る実空間にAR画像を表示してもよい。他にも、表示部7は、表示制御部6による制御に基づき、図6を参照して説明した、独立性の高い撮像画像をバッファリングするためのUIを表示する。
以下では、一例として、スマートフォン1が、対象オブジェクトが破壊されたAR画像を表示する例における動作処理を説明する
図12は、本実施形態に係るスマートフォン1において実行される変化オブジェクトの生成処理の流れの一例を示すフローチャートである。
図13は、本実施形態に係るスマートフォン1において実行されるバッファリング処理の流れの一例を示すフローチャートである。
図14は、本実施形態に係るスマートフォン1において実行される背景テクスチャの生成処理の流れの一例を示すフローチャートである。
図15は、本実施形態に係るスマートフォン1において実行される変化テクスチャの生成処理の流れの一例を示すフローチャートである。
図16は、本実施形態に係るスマートフォン1において実行されるAR表示処理の流れの一例を示すフローチャートである。図16では、図1に示した対象オブジェクトの破壊を示すAR表示を行う例を想定して、具体的に説明する。
ここまで、図1〜図16を用いて、本開示に係る技術の実施形態を詳細に説明した。上述した実施形態によれば、実空間に存在するオブジェクトが変化する表現が提供され、AR技術による現実世界が拡張されたかのような感覚をユーザにより強く与えることができる。例えば、本実施形態に係るスマートフォン1は、実世界に存在するオブジェクトの自然な破壊表現を実現することができる。
(1)
実空間の三次元データに基づいて、前記実空間に含まれるオブジェクトを、前記オブジェクトの状態を変化させた仮想のオブジェクト画像を生成するために背景から区別して識別する識別部、
を備える情報処理装置。
(2)
前記情報処理装置は、
前記識別部により識別された前記オブジェクトの前記オブジェクト画像を生成する画像生成部をさらに備える、前記(1)に記載の情報処理装置。
(3)
前記情報処理装置は、
前記オブジェクトの状態を変化させた仮想の変化オブジェクトを生成する変化オブジェクト生成部と、
前記変化オブジェクトの表面に前記画像生成部により生成された前記オブジェクト画像を表示するよう表示部を制御する表示制御部と、
をさらに備える、前記(2)に記載の情報処理装置。
(4)
前記画像生成部は、前記実空間が撮像された撮像画像のうち前記オブジェクトの露出した表面に相当する部分に基づいて、前記撮像画像においては隠れている前記オブジェクトの表面を推定した第2の表面画像を生成し、
前記表示制御部は、前記変化オブジェクトのうち前記変化により新たに露出する領域に、前記第2の表面画像を貼り付けた前記オブジェクト画像を表示する、前記(3)に記載の情報処理装置。
(5)
前記表示制御部は、前記実空間を実時間で撮像したスルー画像において露出している対象オブジェクトの画像を、前記変化オブジェクトの対応する領域に貼り付けた前記オブジェクト画像を表示する、前記(3)または(4)に記載の情報処理装置。
(6)
前記表示制御部は、前記実空間における光源位置を推定して、推定した前記光源位置に応じて前記オブジェクト画像の輝度を補正して表示する、前記(3)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記表示制御部は、前記オブジェクトにより隠れた前記背景のうち前記オブジェクトの状態が変化することで新たに露出する部分に、第1の表面画像を貼り付けた前記オブジェクト画像を表示する、前記(3)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記画像生成部は、前記実空間が撮像された1枚以上の撮像画像において露出している前記背景を合成することで前記第1の表面画像を生成する、前記(7)に記載の情報処理装置。
(9)
前記画像生成部は、前記実空間が撮像された撮像画像のうち、前記オブジェクトにより前記背景が隠れる部分の重複が少なく、且つ直近に撮像された前記撮像画像を、優先的にバッファリングして前記第1の表面画像の生成に用いる、前記(8)に記載の情報処理装置。
(10)
前記画像生成部は、撮像画像を撮像した撮像部の位置および角度を示す姿勢情報および前記三次元データに基づいて、前記撮像画像をバッファリングするか否かを判定する、前記(9)に記載の情報処理装置。
(11)
前記表示制御部は、前記三次元データが表す立体の表面のうち前記背景に対応する部分の全領域が、バッファリングされた1つ以上の前記撮像画像の少なくともいずれかにおいて露出されるように、前記画像生成部が画像生成に用いる撮像画像を撮像する撮像部の撮像姿勢を誘導する表示を行う、前記(9)または(10)に記載の情報処理装置。
(12)
前記表示制御部は、バッファリングされた撮像画像において露出している前記背景であって前記三次元データの頂点に対応する位置近傍の輝度値と、前記実空間を実時間で撮像されたスルー画像における対応する位置の輝度値との比較結果に基づいて、前記第1の表面画像の輝度値を補正する、前記(9)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記情報処理装置は、
前記画像生成部が画像生成に用いる撮像画像を撮像する撮像部をさらに備え、
前記表示制御部は、前記撮像部により実時間で撮像された撮像画像に前記画像生成部により生成された画像を合成して表示する、前記(3)〜(12)のいずれか一項に記載の情報処理装置。
(14)
前記識別部により区別して識別された前記背景は、変化オブジェクト生成部による前記変化オブジェクトの生成対象から除外される、前記(3)〜(13)のいずれか一項に記載の情報処理装置。
(15)
前記識別部は、前記三次元データから床面を抽出して、抽出した前記床面の上に突出する部分を前記オブジェクトとして識別し、前記オブジェクト以外を前記背景として識別する、前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記識別部は、重力方向に基づいて前記床面を抽出する、前記(15)に記載の情報処理装置。
(17)
前記状態の変化は、前記オブジェクトの破壊を含む、前記(1)〜(16)のいずれか一項に記載の情報処理装置。
(18)
プロセッサが、実空間の三次元データに基づいて、前記実空間に含まれるオブジェクトを、前記オブジェクトの状態を変化させた仮想のオブジェクト画像を生成するために背景から区別して識別すること、
を含む情報処理方法。
(19)
コンピュータを、
実空間の三次元データに基づいて、前記実空間に含まれるオブジェクトを、前記オブジェクトの状態を変化させた仮想のオブジェクト画像を生成するために背景から区別して識別する識別部、
として機能させるためのプログラム。
2 撮像部
3 姿勢情報取得部
4 三次元データ取得部
5 制御部
51 識別部
52 変化オブジェクト生成部
53 画像生成部
6 表示制御部
7 表示部
10 電話機
11 ガムテープ
12 ヘルメット
13 飲料缶
14 スプレー缶
Claims (17)
- 実空間の三次元データに基づいて、前記実空間に含まれるオブジェクトを、前記オブジェクトの状態を変化させた仮想のオブジェクト画像を生成するために背景から区別して識別する識別部と、
前記識別部により識別された前記オブジェクトの前記オブジェクト画像を生成する画像生成部と、
前記オブジェクトの状態を変化させた仮想の変化オブジェクトを生成する変化オブジェクト生成部と、
前記変化オブジェクトの表面に前記画像生成部により生成された前記オブジェクト画像を表示するよう表示部を制御する表示制御部と、
を備える、情報処理装置。 - 前記画像生成部は、前記実空間が撮像された撮像画像のうち前記オブジェクトの露出した表面に相当する部分に基づいて、前記撮像画像においては隠れている前記オブジェクトの表面を推定した第2の表面画像を生成し、
前記表示制御部は、前記変化オブジェクトのうち前記変化により新たに露出する領域に、前記第2の表面画像を貼り付けた前記オブジェクト画像を表示する、請求項1に記載の情報処理装置。 - 前記表示制御部は、前記実空間を実時間で撮像したスルー画像において露出している対象オブジェクトの画像を、前記変化オブジェクトの対応する領域に貼り付けた前記オブジェクト画像を表示する、請求項1又は2に記載の情報処理装置。
- 前記表示制御部は、前記実空間における光源位置を推定して、推定した前記光源位置に応じて前記オブジェクト画像の輝度を補正して表示する、請求項1〜3のいずれか一項に記載の情報処理装置。
- 前記表示制御部は、前記オブジェクトにより隠れた前記背景のうち前記オブジェクトの状態が変化することで新たに露出する部分に、第1の表面画像を貼り付けた前記オブジェクト画像を表示する、請求項1〜4のいずれか一項に記載の情報処理装置。
- 前記画像生成部は、前記実空間が撮像された1枚以上の撮像画像において露出している前記背景を合成することで前記第1の表面画像を生成する、請求項5に記載の情報処理装置。
- 前記画像生成部は、前記実空間が撮像された撮像画像のうち、前記オブジェクトにより前記背景が隠れる部分の重複が少なく、且つ直近に撮像された前記撮像画像を、優先的にバッファリングして前記第1の表面画像の生成に用いる、請求項6に記載の情報処理装置。
- 前記画像生成部は、撮像画像を撮像した撮像部の位置および角度を示す姿勢情報および前記三次元データに基づいて、前記撮像画像をバッファリングするか否かを判定する、請求項7に記載の情報処理装置。
- 前記表示制御部は、前記三次元データが表す立体の表面のうち前記背景に対応する部分の全領域が、バッファリングされた1つ以上の前記撮像画像の少なくともいずれかにおいて露出されるように、前記画像生成部が画像生成に用いる撮像画像を撮像する撮像部の撮像姿勢を誘導する表示を行う、請求項7又は8に記載の情報処理装置。
- 前記表示制御部は、バッファリングされた撮像画像において露出している前記背景であって前記三次元データの頂点に対応する位置近傍の輝度値と、前記実空間を実時間で撮像されたスルー画像における対応する位置の輝度値との比較結果に基づいて、前記第1の表面画像の輝度値を補正する、請求項7〜9のいずれか一項に記載の情報処理装置。
- 前記情報処理装置は、
前記画像生成部が画像生成に用いる撮像画像を撮像する撮像部をさらに備え、
前記表示制御部は、前記撮像部により実時間で撮像された撮像画像に前記画像生成部により生成された画像を合成して表示する、請求項1〜10のいずれか一項に記載の情報処理装置。 - 前記識別部により区別して識別された前記背景は、変化オブジェクト生成部による前記変化オブジェクトの生成対象から除外される、請求項1〜11のいずれか一項に記載の情報処理装置。
- 前記識別部は、前記三次元データから床面を抽出して、抽出した前記床面の上に突出する部分を前記オブジェクトとして識別し、前記オブジェクト以外を前記背景として識別する、請求項1〜12のいずれか一項に記載の情報処理装置。
- 前記識別部は、重力方向に基づいて前記床面を抽出する、請求項13に記載の情報処理装置。
- 前記状態の変化は、前記オブジェクトの破壊を含む、請求項1〜14のいずれか一項に記載の情報処理装置。
- プロセッサが、実空間の三次元データに基づいて、前記実空間に含まれるオブジェクトを、前記オブジェクトの状態を変化させた仮想のオブジェクト画像を生成するために背景から区別して識別することと、
識別された前記オブジェクトの前記オブジェクト画像を生成することと、
前記オブジェクトの状態を変化させた仮想の変化オブジェクトを生成することと、
前記変化オブジェクトの表面に前記オブジェクト画像を表示するよう表示部を制御することと、
を含む情報処理方法。 - コンピュータを、
実空間の三次元データに基づいて、前記実空間に含まれるオブジェクトを、前記オブジェクトの状態を変化させた仮想のオブジェクト画像を生成するために背景から区別して識別する識別部と、
前記識別部により識別された前記オブジェクトの前記オブジェクト画像を生成する画像生成部と、
前記オブジェクトの状態を変化させた仮想の変化オブジェクトを生成する変化オブジェクト生成部と、
前記変化オブジェクトの表面に前記画像生成部により生成された前記オブジェクト画像を表示するよう表示部を制御する表示制御部と、
として機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013260107 | 2013-12-17 | ||
JP2013260107 | 2013-12-17 | ||
PCT/JP2014/076618 WO2015093129A1 (ja) | 2013-12-17 | 2014-10-03 | 情報処理装置、情報処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2015093129A1 JPWO2015093129A1 (ja) | 2017-03-16 |
JP6332281B2 true JP6332281B2 (ja) | 2018-05-30 |
Family
ID=53402486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015553406A Active JP6332281B2 (ja) | 2013-12-17 | 2014-10-03 | 情報処理装置、情報処理方法およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (2) | US10452892B2 (ja) |
EP (1) | EP3086292B1 (ja) |
JP (1) | JP6332281B2 (ja) |
CN (3) | CN105814611B (ja) |
WO (1) | WO2015093129A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11288869B2 (en) | 2017-08-09 | 2022-03-29 | Sony Corporation | Information processing device, and information processing method |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105814611B (zh) * | 2013-12-17 | 2020-08-18 | 索尼公司 | 信息处理设备和方法以及非易失性计算机可读存储介质 |
EP3115969B1 (en) | 2015-07-09 | 2021-01-06 | Nokia Technologies Oy | Mediated reality |
JP6113337B1 (ja) * | 2016-06-17 | 2017-04-12 | 株式会社コロプラ | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム |
CN106125938B (zh) * | 2016-07-01 | 2021-10-22 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
JP6857980B2 (ja) * | 2016-08-02 | 2021-04-14 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
EP3340187A1 (en) | 2016-12-26 | 2018-06-27 | Thomson Licensing | Device and method for generating dynamic virtual contents in mixed reality |
US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
JP6782433B2 (ja) * | 2017-03-22 | 2020-11-11 | パナソニックIpマネジメント株式会社 | 画像認識装置 |
CN107170046B (zh) * | 2017-03-30 | 2020-10-30 | 努比亚技术有限公司 | 一种增强现实装置及增强现实画面显示方法 |
EP3631768A1 (en) * | 2017-06-01 | 2020-04-08 | Signify Holding B.V. | A system for rendering virtual objects and a method thereof |
JP7046506B2 (ja) * | 2017-06-12 | 2022-04-04 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN109427083B (zh) * | 2017-08-17 | 2022-02-01 | 腾讯科技(深圳)有限公司 | 三维虚拟形象的显示方法、装置、终端及存储介质 |
US10380803B1 (en) * | 2018-03-26 | 2019-08-13 | Verizon Patent And Licensing Inc. | Methods and systems for virtualizing a target object within a mixed reality presentation |
US10957100B2 (en) * | 2018-04-06 | 2021-03-23 | Korea University Research And Business Foundation | Method and apparatus for generating 3D map of indoor space |
US11122237B2 (en) * | 2018-06-05 | 2021-09-14 | Axon Enterprise, Inc. | Systems and methods for redaction of screens |
KR102126561B1 (ko) * | 2018-07-23 | 2020-06-24 | 주식회사 쓰리아이 | 적응적 삼차원 공간 생성방법 및 그 시스템 |
US11030813B2 (en) | 2018-08-30 | 2021-06-08 | Snap Inc. | Video clip object tracking |
CN111200827B (zh) * | 2018-11-19 | 2023-03-21 | 华硕电脑股份有限公司 | 网络***、无线网络延伸器以及网络供应端 |
US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
JP7145970B2 (ja) * | 2018-11-29 | 2022-10-03 | 富士フイルム株式会社 | コンクリート構造物の点検支援装置、点検支援方法及び点検支援プログラム |
US11301966B2 (en) * | 2018-12-10 | 2022-04-12 | Apple Inc. | Per-pixel filter |
US11501499B2 (en) | 2018-12-20 | 2022-11-15 | Snap Inc. | Virtual surface modification |
JP7341736B2 (ja) * | 2019-06-06 | 2023-09-11 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US11189098B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | 3D object camera customization system |
US11232646B2 (en) | 2019-09-06 | 2022-01-25 | Snap Inc. | Context-based virtual object rendering |
US11227442B1 (en) | 2019-12-19 | 2022-01-18 | Snap Inc. | 3D captions with semantic graphical elements |
US11263817B1 (en) | 2019-12-19 | 2022-03-01 | Snap Inc. | 3D captions with face tracking |
KR20220003376A (ko) | 2020-07-01 | 2022-01-10 | 삼성전자주식회사 | 이미지 처리 방법 및 장치 |
JP2023048014A (ja) * | 2021-09-27 | 2023-04-06 | 株式会社Jvcケンウッド | 表示装置、表示装置の制御方法およびプログラム |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5995639A (en) * | 1993-03-29 | 1999-11-30 | Matsushita Electric Industrial Co., Ltd. | Apparatus for identifying person |
US6752720B1 (en) | 2000-06-15 | 2004-06-22 | Intel Corporation | Mobile remote control video gaming system |
US8189864B2 (en) | 2007-08-29 | 2012-05-29 | Casio Computer Co., Ltd. | Composite image generating apparatus, composite image generating method, and storage medium |
JP4973622B2 (ja) * | 2007-08-29 | 2012-07-11 | カシオ計算機株式会社 | 画像合成装置および画像合成処理プログラム |
EP2255339A1 (en) * | 2008-03-10 | 2010-12-01 | Koninklijke Philips Electronics N.V. | Method and apparatus for modifying a digital image |
JP5156571B2 (ja) * | 2008-10-10 | 2013-03-06 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
EP2375755B8 (en) * | 2009-01-06 | 2013-10-09 | Panasonic Corporation | Apparatus for detecting direction of image pickup device and moving body comprising same |
JP5275880B2 (ja) * | 2009-04-03 | 2013-08-28 | 株式会社トプコン | 光画像計測装置 |
JP2011095797A (ja) * | 2009-10-27 | 2011-05-12 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
US8947455B2 (en) * | 2010-02-22 | 2015-02-03 | Nike, Inc. | Augmented reality design system |
US20120249797A1 (en) * | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
US20110234631A1 (en) * | 2010-03-25 | 2011-09-29 | Bizmodeline Co., Ltd. | Augmented reality systems |
CA2797302C (en) * | 2010-04-28 | 2019-01-15 | Ryerson University | System and methods for intraoperative guidance feedback |
JP5652097B2 (ja) * | 2010-10-01 | 2015-01-14 | ソニー株式会社 | 画像処理装置、プログラム及び画像処理方法 |
JP5690135B2 (ja) | 2010-12-29 | 2015-03-25 | 任天堂株式会社 | 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法 |
US20160187654A1 (en) * | 2011-02-28 | 2016-06-30 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a light transmissive wedge shaped illumination system |
JP2012181688A (ja) * | 2011-03-01 | 2012-09-20 | Sony Corp | 情報処理装置、情報処理方法、情報処理システムおよびプログラム |
WO2013027628A1 (ja) * | 2011-08-24 | 2013-02-28 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
KR20130053466A (ko) * | 2011-11-14 | 2013-05-24 | 한국전자통신연구원 | 인터랙티브 증강공간 제공을 위한 콘텐츠 재생 장치 및 방법 |
TWI544447B (zh) * | 2011-11-29 | 2016-08-01 | 財團法人資訊工業策進會 | 擴增實境的方法及系統 |
US9734633B2 (en) * | 2012-01-27 | 2017-08-15 | Microsoft Technology Licensing, Llc | Virtual environment generating system |
US8963805B2 (en) * | 2012-01-27 | 2015-02-24 | Microsoft Corporation | Executable virtual objects associated with real objects |
JP2013225245A (ja) * | 2012-04-23 | 2013-10-31 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP6040564B2 (ja) * | 2012-05-08 | 2016-12-07 | ソニー株式会社 | 画像処理装置、投影制御方法及びプログラム |
JP6064376B2 (ja) * | 2012-06-06 | 2017-01-25 | ソニー株式会社 | 情報処理装置、コンピュータプログラムおよび端末装置 |
US8922557B2 (en) * | 2012-06-29 | 2014-12-30 | Embarcadero Technologies, Inc. | Creating a three dimensional user interface |
US9443414B2 (en) * | 2012-08-07 | 2016-09-13 | Microsoft Technology Licensing, Llc | Object tracking |
JP2014071499A (ja) * | 2012-09-27 | 2014-04-21 | Kyocera Corp | 表示装置および制御方法 |
US20140125698A1 (en) * | 2012-11-05 | 2014-05-08 | Stephen Latta | Mixed-reality arena |
US10819962B2 (en) * | 2012-12-28 | 2020-10-27 | Apple Inc. | Method of and system for projecting digital information on a real object in a real environment |
US9535496B2 (en) * | 2013-03-15 | 2017-01-03 | Daqri, Llc | Visual gestures |
US9129430B2 (en) * | 2013-06-25 | 2015-09-08 | Microsoft Technology Licensing, Llc | Indicating out-of-view augmented reality images |
US9207771B2 (en) * | 2013-07-08 | 2015-12-08 | Augmenta Oy | Gesture based user interface |
US20150091891A1 (en) * | 2013-09-30 | 2015-04-02 | Dumedia, Inc. | System and method for non-holographic teleportation |
US20160217623A1 (en) * | 2013-09-30 | 2016-07-28 | Pcms Holdings, Inc. | Methods, apparatus, systems, devices, and computer program products for providing an augmented reality display and/or user interface |
US9256072B2 (en) * | 2013-10-02 | 2016-02-09 | Philip Scott Lyren | Wearable electronic glasses that detect movement of a real object copies movement of a virtual object |
US9747307B2 (en) * | 2013-11-18 | 2017-08-29 | Scott Kier | Systems and methods for immersive backgrounds |
CN105814611B (zh) * | 2013-12-17 | 2020-08-18 | 索尼公司 | 信息处理设备和方法以及非易失性计算机可读存储介质 |
-
2014
- 2014-10-03 CN CN201480067824.9A patent/CN105814611B/zh active Active
- 2014-10-03 JP JP2015553406A patent/JP6332281B2/ja active Active
- 2014-10-03 EP EP14871364.7A patent/EP3086292B1/en active Active
- 2014-10-03 CN CN202010717885.2A patent/CN111986328A/zh active Pending
- 2014-10-03 WO PCT/JP2014/076618 patent/WO2015093129A1/ja active Application Filing
- 2014-10-03 US US15/102,299 patent/US10452892B2/en active Active
- 2014-10-03 CN CN202010728196.1A patent/CN111985344A/zh active Pending
-
2019
- 2019-09-23 US US16/578,818 patent/US11462028B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11288869B2 (en) | 2017-08-09 | 2022-03-29 | Sony Corporation | Information processing device, and information processing method |
Also Published As
Publication number | Publication date |
---|---|
WO2015093129A1 (ja) | 2015-06-25 |
US20200019755A1 (en) | 2020-01-16 |
CN111986328A (zh) | 2020-11-24 |
US10452892B2 (en) | 2019-10-22 |
EP3086292B1 (en) | 2018-12-26 |
US11462028B2 (en) | 2022-10-04 |
JPWO2015093129A1 (ja) | 2017-03-16 |
CN105814611A (zh) | 2016-07-27 |
US20170017830A1 (en) | 2017-01-19 |
CN105814611B (zh) | 2020-08-18 |
EP3086292A4 (en) | 2017-08-02 |
CN111985344A (zh) | 2020-11-24 |
EP3086292A1 (en) | 2016-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6332281B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN109561296B (zh) | 图像处理装置、图像处理方法、图像处理***和存储介质 | |
JP6747504B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5818773B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2015114905A (ja) | 情報処理装置、情報処理方法およびプログラム | |
US9361731B2 (en) | Method and apparatus for displaying video on 3D map | |
CN106896925A (zh) | 一种虚拟现实与真实场景融合的装置 | |
KR20150082379A (ko) | 단안 시각 slam 을 위한 고속 초기화 | |
CN106997618A (zh) | 一种虚拟现实与真实场景融合的方法 | |
US10863210B2 (en) | Client-server communication for live filtering in a camera view | |
JP2022523478A (ja) | マルチビュー視覚データからの損傷検出 | |
WO2010038693A1 (ja) | 情報処理装置、情報処理方法、プログラム及び情報記憶媒体 | |
US12010288B2 (en) | Information processing device, information processing method, and program | |
CN111801725A (zh) | 图像显示控制装置及图像显示控制用程序 | |
CN107016730A (zh) | 一种虚拟现实与真实场景融合的装置 | |
CN106981100A (zh) | 一种虚拟现实与真实场景融合的装置 | |
US11275434B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP5820716B2 (ja) | 画像処理装置、画像処理方法、コンピュータプログラム、記録媒体、立体画像表示装置 | |
CN111354088A (zh) | 环境地图建立方法以及其*** | |
WO2019230169A1 (ja) | 表示制御装置、プログラムおよび表示制御方法 | |
KR101915578B1 (ko) | 시점 기반 오브젝트 피킹 시스템 및 그 방법 | |
US20230127539A1 (en) | Information processing apparatus, information processing method, and information processing program | |
CN107016729A (zh) | 一种虚拟现实与真实场景融合的方法 | |
US20210390928A1 (en) | Information processing apparatus, information processing method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170908 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180416 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6332281 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |