JP2010040037A - ユーザと拡張現実場面との相互作用を実時間で検出する方法及びデバイス - Google Patents

ユーザと拡張現実場面との相互作用を実時間で検出する方法及びデバイス Download PDF

Info

Publication number
JP2010040037A
JP2010040037A JP2009155865A JP2009155865A JP2010040037A JP 2010040037 A JP2010040037 A JP 2010040037A JP 2009155865 A JP2009155865 A JP 2009155865A JP 2009155865 A JP2009155865 A JP 2009155865A JP 2010040037 A JP2010040037 A JP 2010040037A
Authority
JP
Japan
Prior art keywords
model
reference model
image
comparison
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009155865A
Other languages
English (en)
Other versions
JP2010040037A5 (ja
Inventor
Valentin Lefevre
ルフェーブル バランタン
Nicolas Livet
リベ ニコラ
Thomas Pasquier
パスキエ トマ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Total Immersion
Original Assignee
Total Immersion
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Total Immersion filed Critical Total Immersion
Publication of JP2010040037A publication Critical patent/JP2010040037A/ja
Publication of JP2010040037A5 publication Critical patent/JP2010040037A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】ユーザと拡張現実場面との相互作用を実時間で検出すること。
【解決手段】この相互作用は画像内に存在する物体の外見を修正することによって行われる。初期化段階(100)において参照モデルが生成(110)され,処理(115)された後,画像内の物体の姿勢が判定(135)され,画像から比較モデルが抽出(160)される。参照モデルと比較モデルとが,判定された上記の物体の姿勢によって比較(170)され,比較ステップに応答して相互作用が検出される。
【選択図】図1

Description

本発明は,実画像と,拡張現実とも呼ばれる仮想画像との実時間での組合せに関する。より詳細に言えば,実場面と仮想場面との相互作用,すなわち1又は複数のユーザと実場面の物体との相互作用を,特に目印(marker)なしでこれらの物体を実時間で自動追跡するシステムを用いる拡張現実アプリケーションによって可能にする方法及びデバイスに関する。
拡張現実の目的は,映像ストリームの画像内に1又は複数の仮想物体を挿入することである。これら仮想物体の位置及び方向は,応用種別に応じて,例えばゲームシナリオから直接得られる座標値など画像によって表される場面の外部データ,又は例えばプレイヤの手のような場面の特定の点の座標値など,当該場面のある要素に結合されたデータ,によって決定される。位置及び方向が,場面のある要素に結合されたデータによって決定されたときは,カメラの動き,又は場面内のこれら要素自体の動き,によってこれらの要素を追跡することが必要である。要素を追跡する演算及び実画像内に仮想物体を組み込む演算は,別個の計算機で実行してもよいし,同一の計算機で実行してもよい。
一連の画像内の要素を追跡する方法はいくつかある。要素追跡アルゴリズムは目標追跡アルゴリズムとも呼ばれ,一般に目印(marker)を用いる。目印は目に見えるものでもよいし,無線周波(RF)手段又は赤外線手段のような別の手段を用いてもよい。あるいは,一連の画像内の特定要素を追跡するために形状認識を用いるアルゴリズムもある。
これらの視覚追跡アルゴリズム又はセンサ追跡アルゴリズムの目的は,物体の姿勢,すなわち位置及び方向を実場面内で特定して物体の幾何学情報を得ること,又は当該物体を撮影しているカメラから,画像解析によって外部的な位置及び方向のパラメータを取得することである。
本出願人は,目印を用いない物体の視覚追跡アルゴリズムを開発した。このアルゴリズムの新規性は,映像ストリーム中の現在の画像と,システム初期化時に自動的に取得したキー画像集合との間で,特定点の対応付けを行うことにある。
しかし拡張現実システムにおいて,ユーザと観察される実場面との相互作用ができない制約があることがよく知られている。このような相互作用性を提供するようにした方法がいくつかあるが,それらは複雑なシステムを用いるものである。
最初の方法は,例えばユーザ,すなわち登場人物の関節に関するセンサを用いるものである。この方法は,特に映画の特殊効果におけるモーションキャプチャ応用に特化されていることが多いが,登場人物,特にその手及び足の空間内位置及び方向を追跡することも可能であり,それによって仮想場面と相互作用可能にすることもできる。しかしこの技法は,場面内に大きなセンサを挿入することが必須であるため高価であり,また更にセンサが特定環境において干渉を受けることもある。
例えばヨーロッパのOCETREプロジェクト及びHOLONICSプロジェクトにおいては,環境及びユーザの空間動作の再構成を実時間で得るために,多カメラ法も用いられている。このような方法の一例が,特に次の文書に記載されている。
T. Rodriquez, A. Cabo de Leon, B. Uzzan, N. Livet, E. Boyer, F. Geffray, T. Balogh, Z. Megyesi, and A. Barsi, Holographic and action capture techniques, SIGGRAPH '07, ACM SIGGRAPH 2007 emerging technologies, August 2007
これらの応用は実場面の幾何学的構成を再現できるが,現在は正確な動きを特定することはできないことに注意されたい。更に,実時間の制約を満たすために,複雑かつ高価なハードウェア構成を使用しなければならない。
ユーザとアプリケーションの相互作用を判定する拡張現実場面を表示するために用いられるタッチスクリーンもある。しかしこれらのタッチスクリーンは高価であり,拡張現実アプリケーションには向いていない。
ビデオゲーム分野では,計算機又はゲーム機に接続されたwebcam型カメラによって最初に画像がキャプチャされる。この画像は,通常カメラが接続されたシステムのメモリに記憶される。物体追跡アルゴリズムはblob追跡アルゴリズムとも呼ばれ,特にオプチカルフローアルゴリズムによって,画像内を移動するユーザのある要素の輪郭を実時間で計算するために用いられる。画像内のこれら形状の位置は,表示画像のある部分を修正又は変形させるために用いられる。この方法は,干渉を2自由度で画像のある範囲に局所化する。
しかしこの方法は主に,カメラの動きについて方法を正確に実行できないため精度に欠け,また前景の動きと背景の動きとの識別ができないため意味論に欠けるという制約がある。更にこの方法は,オプチカルフロー画像解析を用いており,この解析は照明の変化又はノイズに対する耐性がない。
物体追跡システムを用いて,単純な幾何学形状を有する平面シートからなる所定の物体の上にある,例えば手の形状などを検出する方法もある。しかしこの方法は,ノイズ及び照明変化に対してあまり耐性がなく,大きな黒い長方形のような幾何学パターンを含む特定の物体にだけ適用できるという点で限定される。更に遮へい(occulusion)を検出するためには安定器を用いなければならず,このことは検出中にはカメラを大きく動かしてはならないことを意味する。
このように上記の各方法は,多くの応用に必要な性能及び簡潔性を提供しない。したがって,照明と,映像ストリーム内のノイズと,動きとに対する耐性を改善し,特別な目印又はセンサを備えない実環境に適用可能で,同時に受け入れ可能な価格のシステムを提案することが必要である。
本発明は上述の課題のうち少なくとも一つを解決するものである。
このように本発明はユーザと,一連の画像のうち少なくとも一つの画像内の拡張現実場面との少なくとも一つの相互作用を実時間で検出する方法にあり,上記少なくとも一つの相互作用は,上記少なくとも一つの画像内の少なくとも一つの物体の表現(representation)の外見を修正する修正ステップによって得られ,本方法は
初期化段階において
上記少なくとも一つの物体の少なくとも一つの参照モデルを生成する生成ステップと,
上記少なくとも一つの参照モデルを処理する処理ステップと,
を有し,利用段階において
上記少なくとも一つの画像内の上記少なくとも一つの物体の姿勢を判定する判定ステップと,
上記少なくとも一つの物体によって上記少なくとも一つの画像から少なくとも一つの比較モデルを抽出する抽出ステップと,
処理済みの上記少なくとも一つの参照モデルと,上記少なくとも一つの比較モデルとを,上記の判定した姿勢によって比較する比較ステップと,
上記比較ステップに応答して上記少なくとも一つの相互作用を検出する検出ステップと,
を有することを特徴とする。
このように本発明の方法は,ユーザが実時間で拡張現実場面と相互作用することを可能にする。一連の画像を発生するソースと同様に,この相互作用を検出するために用いられる物体は移動してもよい。本発明の方法は処理される画像のパラメータの変動に対して耐性があり,標準ハードウェアによって実行することができる。
上記判定ステップは物体追跡アルゴリズムを用いるのが好ましい。
上記利用段階の各ステップは,上記一連の画像のうち少なくとも2画像に少なくとも1回反復すると有利である。したがって本発明の方法は,一連の画像の各画像において連続的に相互作用を検出する。
本方法は,相互作用検出の品質及び耐性を改善するために,上記比較ステップの結果を再帰処理するステップを更に有することが好ましい。
一特定実施例において,上記処理ステップは上記少なくとも一つの参照モデル内に少なくとも一つの活性範囲を規定するステップを含み,上記方法は上記利用段階で上記比較モデル内の少なくとも一つの活性範囲を判定するステップを更に有し,上記比較ステップは上記活性範囲を基準とする。このように本発明の方法は,各画像の特定範囲の変動を分析し,これらの範囲に応じて種々の動作を関連付ける。
更に一つの特定実施例においては,上記方法が上記少なくとも一つの参照モデルの上記少なくとも一つの活性範囲内で,少なくとも一つの参照点を判定するステップを更に有し,上記比較ステップは上記比較モデルの上記活性範囲内の上記少なくとも一つの参照点を探索するステップを含む。
更に一つの特定実施例においては,上記比較ステップは,上記少なくとも一つの参照モデルの処理したモデルの少なくとも一部と,上記少なくとも一つの比較モデルの少なくとも一部との相関を評価するステップを含む。本発明の方法はこのように,相互作用コマンドに関連する可能性のあるじょう乱を検出するために,参照光景と現在の光景とでの物体の表現の変化を比較する。
更に一つの特定実施例によれば,上記生成ステップは,上記少なくとも一つの物体の表現を平面射影(homographic)幾何学変換するステップを含む。このようにして,物体の表現及びその姿勢から直接参照モデルを取得することができる。
更に一つの特定実施例によれば,上記少なくとも一つの比較モデルは上記少なくとも一つの物体の上記姿勢によって決定され,上記抽出ステップは上記少なくとも一つの画像の少なくとも一部を平面射影幾何学変換するステップを含む。このようにして,物体の表現及びその姿勢から比較モデルを取得することができ,該比較モデルは所定の姿勢によって物体を表す参照モデルと同等である。
更に一つの特定実施例によれば,上記決定ステップは,上記参照モデルの少なくとも一つの要素の,少なくとも一つのパラメータの分布を表す,少なくとも一つのガウスモデルを決定するステップを含む。このようにして本発明の方法は,相互作用コマンドに関連する可能性のあるじょう乱を検出するために,参照光景と現在の光景とでの物体の表現の変化を比較する。本発明の方法はしたがって,特に色(colorimetry)及び照明の変化によるじょう乱に対して耐性がある。
参照モデルの表現と比較モデルの表現との類似性を測定するために,上記比較ステップは,上記参照モデルの少なくとも一つの点に対応する上記比較モデルの上記少なくとも一つの点と,上記参照モデルの上記少なくとも一つの点に関する上記ガウスモデルとの距離の測定値を評価するステップを含むと有利である。
一つの特定実施例によれば,本方法は上記利用段階で上記少なくとも一つの物体の上記姿勢と,3次元幾何学モデル及び付随テキスチャを有する上記参照モデルとによって,上記参照モデルの表現を決定するステップを更に有する。本発明の方法はこのようにして,物体の姿勢によって現在の画像の一部と参照モデルの表現とを比較する。
本方法は,上記検出ステップに応答して少なくとも一つの動作を開始するステップを更に有すると有利である。
一つの特定実施例によれば,上記修正ステップは,上記少なくとも一つの物体と,上記少なくとも一つの画像のソースとの間に,上記少なくとも一つの物体とは異なる,第2物体と呼ぶ物体を配置するステップによって得られる。
更に一つの特定実施例によれば,上記修正ステップは,上記少なくとも一つの物体を修正するステップによって得られる。
本発明はまた,上述の方法の各ステップを実行するようになっている命令を含む計算機プログラムと,上述の方法の各ステップを実行するようになっている手段を備えるデバイスとにある。
本発明のほかの利点,目的及び特徴は,以降の詳細な説明から明らかとなる。この詳細な説明は,付属の図面を参照して非限定的な例によって示される。
本発明の方法を示す図である。 追跡する物体の活性範囲を用いる本発明の方法の第1実施例を示す図である。 参照モデル又は比較モデルと関係する物体を含む画像から,該参照モデル又は比較モデルを決定する例を示す図である。 3次元物体及び付随テキスチャを含む参照モデルの例を示す図である。 活性範囲集合を含む幾何学物体の参照モデル例を示す図である。 参照モデルの表現を決定する例を示す図である。 参照モデルの表現を決定する例を示す図である。 参照モデルの表現を決定する例を示す図である。 参照モデルの表現の活性範囲と比較モデルの表現の活性範囲とを比較して,活性範囲がじょう乱を受けたかどうかを判定する例を示す図である。 参照モデルの表現の活性範囲と比較モデルの表現の活性範囲とを比較して,活性範囲がじょう乱を受けたかどうかを判定する例を示す図である。 追跡する物体の活性範囲を用いない本発明の方法の第2実施例を示す図である。 物体の修正によって相互作用を検出する本発明の利用例を示す図である。 本発明を少なくとも部分的に実現するデバイスの例を示す図である。
本発明は,幾何学物体を追跡するアルゴリズムと,画像解析アルゴリズムとを組み合わせて,ユーザと拡張現実場面との相互作用を実時間で検出できるようにするものである。このシステムは,カメラの動きと,場面内の物体の動きと,照明変化と,に対して耐性がある。
簡単に言えば,本発明のシステムは一連の画像内の1又は複数の物体を追跡し,画像毎に物体の姿勢を判定することを目的とする。そして物体の実際の姿勢を用い,画像の一部を投影することによって,所定の姿勢をとる物体の表現を取得する。この表現は画像及び所定モデルから生成される。これらの表現とモデルとの比較によって物体の隠された部分が判定され,この隠された部分を用いてユーザと拡張現実場面との相互作用を検出することができる。
図1に本発明の方法を示す。図示のとおり方法は二つの部分を含む。
第1部分100は初期化段階に対応する。この段階では処理はオフラインで実行,すなわち一連の画像内のユーザと拡張現実場面との相互作用の実時間検出を行う前に実行される。
第2部分105は,一連の画像内のユーザと拡張現実場面との相互作用を実時間検出するオンライン処理に対応する。
初期化段階は,必ずしも物体追跡アルゴリズムを用いる必要はない。この段階は,参照モデル120を生成及び処理する二つの対応ステップ110及び115を本質的に含む。
ここで参照モデルは,相互作用を検出するために用いられる物体の幾何学情報及び物体のテキスチャを含む。一般に参照モデルは3次元(3D)はん用メッシュ問題であり,これは展開済み(unrolled)と呼ばれる展開(unfolded)画像(UV map)に関係する。平面物体に関しては,単純な画像で十分である。各物体に少なくとも一つの参照モデルを決定する必要があり,それによって相互作用が検出される。
参照モデル120を生成するステップ(ステップ110)は,例えば標準2D/3D制作ソフトウェア製品によってこれらのモデルを構築するステップにある。これら参照モデルのテキスチャは,カメラからの信号に最も一致するように,一連の画像から抽出した画像によって構成するのが好ましい。
相互作用の検出をより耐性のあるものにするため,何種類かの処理を参照モデルに適用してもよい(ステップ115)。
第1の処理は,例えば参照モデル上に視覚的関心を表す活性範囲を規定するステップにある。これらの範囲は,特にMMI(マンマシンインタフェース)を用いて,3Dはん用モデル又は該モデルの2次元(2D)投影上に直接規定される。活性範囲は特に,2D又は3Dの幾何学形状と,識別情報と,検出しきい値とを含むことができる。このような一例が図2のステップ215に示されている。
別の処理は例えば,相互作用の実時間検出段階に影響する可能性がある照明と,影と,ノイズとの変化を十分考慮するために,モデル上のじょう乱を模擬するステップにある。このような一例が図8のステップ815に示されている。
このような処理によって参照モデルの特性値125が得られる。
後で相互作用を検出するために用いられる比較演算子130は,この処理ステップで決定することが好ましい。
ここで相互作用の実時間検出段階105は,物体追跡アルゴリズムを利用する必要がある(ステップ135)。この種のアルゴリズムは,例えばテキスチャ及び幾何学情報を用いて一連の画像,すなわち映像ストリーム140内の物体を追跡する。
この種のアルゴリズムは,各画像,特に現在の画像145に対して,画像内に存在する物体の識別子150と,これらの物体の位置及び方向に対応する6自由度(6DF)の姿勢155とのリストを決定する。ここでは標準の物体追跡アルゴリズムが用いられる。
検出段階の第2ステップは,一連の画像内で追跡している幾何学物体ごとに,現在の画像145内で比較モデルを抽出する(ステップ160)ことを目的とする。このステップは特に,追跡アルゴリズムによって得られた物体の位置によって,画像から物体を抽出するステップと,参照モデルの座標系で物体を表現するために,物体に線形変換を適用するステップとにある。
参照モデルが3Dはん用モデルを含むときは,第2ステップは更に,物体追跡アルゴリズム及び3Dはん用モデルの展開テキスチャによって決定された現在の3Dモデルの位置及び方向を用いて参照モデルの投影を決定するステップを含む。ここで比較モデルは符号165で参照される。
次のステップは,二つのモデルにおける対応活性範囲の部分集合,又は活性範囲が規定されていないときは二つのモデルすべてについて,参照モデルと比較モデルとを重畳し,比較演算子を用いて比較する(ステップ170)。
比較演算子は,じょう乱された活性範囲を判定,すなわち参照モデルと比較モデルとがどの活性範囲で一致しないかを判定する。
別の比較演算子は各モデルの重畳部分を差し引き,例えば絶対値がじょう乱された範囲を判定するための類似性基準となる。
活性範囲が規定されていないとき,この演算子はすべてのモデルに適用してもよい。この場合,活性範囲は実際のところ,すべてのモデルを包含する。
これらのじょう乱された範囲は,じょう乱範囲のリスト175に入れられる。
最後に,検出された相互作用に対応する動作を開始する(ステップ185)ために,再帰的プログラムステップ(ステップ180)がシステムの耐性を向上させる。これらの処理動作は目的とする応用種別に依存する。
例えばこのような処理は,より耐性のあるモデルを抽出するため,じょう乱された活性範囲の探索を改善するため,及び/又はじょう乱された画素によって物体の輪郭を抽出するステップ及び/又はユーザのジェスチャを認識するステップを向上させるために,じょう乱を再帰的に監視するステップにある。
図2に追跡する物体の活性範囲を用いる本発明の方法の第1実施例を示す。ここで活性範囲とは画像の特定範囲であって,その範囲の修正によって,ユーザと拡張現実場面との相互作用を可能にする特定の動作を生じさせるものである。
上述のとおり,本方法は初期化段階に対応する第1部分200と,一連の画像内のユーザと拡張現実場面との相互作用を実時間検出するオンライン処理に対応する第2部分205とを有する。
初期化段階は本質的にステップ210及び215を含む。ステップ110と同様に,ステップ210の目的は参照モデル220を生成することである。
平面幾何学物体の場合は,追跡する物体の,例えば画像のような2次元表現によって,参照モデルを直接構成することができる。
このような表現が利用できないときは,物体及びその6自由度の姿勢を含む,映像ストリームから抽出した画像を用いて当該物体の表現を投影し,それによって画像から参照モデルを抽出することができる。参照モデルは,3次元幾何学物体に関してもこの方法で取得できることに注意されたい。
一連の画像から得られる画像の点Pの座標は,参照モデルに関係する物体の座標系において(x,y,z)であり,当該座標の参照モデルの座標系における変換は次式で定義される。
P’=K.(R.P+T)
ここで
P’は点Pの参照モデルの座標系における座標であって,P’の座標は同次2D座標であり,
R及びTはカメラの座標系における物体の姿勢を定義するものであって,参照点に対する回転及び変換に対応し,
Kは,画像を取得するための固有パラメータを含む投影マトリクスである。
マトリクスKは次の形式で書くことができる。
Figure 2010040037
ここで対(fx,fy)は画素で表したカメラの焦点を表し,座標(cx,cy)はこれも画素で表したカメラの光学中心を表す。
同様な方法で,変換は次の幾何学的関係によって表すことができる。
P’=K.(R.P+R.RT)=K.R.(P+RT)
参照モデルが平面を表すときは,参照モデルの点は2次元座標系で定義できる。すなわち,z座標をゼロと見なす。したがってRTを次の関係
Figure 2010040037
によって置き換えることによって,参照モデルの座標系における点Pの座標は,次式で表される。
Figure 2010040037
このようにして平面射影幾何学関係が得られる。物体の座標系で表される点
Figure 2010040037
から始めて,その対応点
Figure 2010040037
は参照モデルの座標系で決定される。
この等式(∝=)は同次空間で表される,すなわちこの等式はスケーリング係数なしで表される。したがって点P’は次のベクトル
Figure 2010040037
で表される。
したがって関係する画像内の物体の姿勢から,当該物体を含む画像に適用する平面射影マトリクス(homography)K.R.Aを取得することができる。
図3に参照モデル又は比較モデルと関係する物体305を含む画像300から,該参照モデル又は比較モデルを決定する例を示す。
図示したとおり,一連の画像から得られる画像300が,ここではカタログの表紙である物体の参照モデルの表現310を決定するために用いられる。符号315で参照されるこの物体の姿勢及びサイズは既知であり,表現310内で追跡される物体に対応する画像300の点を投影するために用いられる。画像300内の物体のサイズ及び姿勢は,ユーザが規定してもよいし,標準物体追跡アルゴリズムを用いて自動的に判定してもよい。
同様に,画像300’から比較モデル320を取得することもでき,画像300’内の物体のサイズ及び姿勢はここでは標準物体追跡アルゴリズムによって自動的に判定される。
3次元はん用物体の場合,参照モデルを生成する一つの方法は,該物体と実物体に対応する該物体の展開テキスチャとを対応付けることである。
図4に3次元物体400と,この例ではパターン410を含む付随テキスチャ405を含む参照モデルの例を示す。テキスチャ405の形態は,展開された物体400によって決定される。
物体400は,例えば床及び三つの壁からなる部屋の一部を表しており,その中をユーザが移動することができる。
図2に戻ると,このステップ215の目的は,追跡される物体の活性範囲225を規定することにある。
活性範囲は,参照モデル内で規定される特定の幾何学形状である。活性範囲のパラメータは例えば,形状と,位置と,方向と,画素を単位とするサイズと,識別名称とであって,初期化段階,すなわちアプリケーションを立ち上げる前にユーザによって規定される。これらの範囲だけがじょう乱検知に関係し,ユーザと拡張現実場面との相互作用を承認する1又は複数の動作を開始する。いくつかの活性範囲が重複している範囲があり得る。更に,活性範囲は不連続な表面を表してもよい。すなわち活性範囲自体がいくつかの連結した活性範囲を含む。
活性範囲は,例えばユーザインタフェースを用いて参照モデル内の点を選択することによって規定してもよい。
図5は,活性範囲集合を含む幾何学物体(図示していない)の参照モデル例を示す図である。
ここで上記参照モデルは,表面を規定する,幾何学形状によって特徴付けられた4範囲を含む。したがって参照モデル500は,点510によって規定される活性範囲505と,該活性範囲の各辺の長さによって規定される長方形表面515と,を含む。また幾何学モデル500は,点525と,短径530及び長径535とによって規定される楕円表面を表す活性範囲520,並びに多角形で表された活性範囲540及び545を含む。
これらの活性範囲は,参照モデルの座標系で定義されるのが好ましい。3次元モデルの場合,活性範囲は例えばユーザインタフェースツールを用いて面集合を選択することによって,当該モデル自体上に直接定義してもよい。
活性範囲を定義するこのステップで,相互作用を検出するために次に用いられる比較演算子230が決定されることが好ましい。
相互作用の実時間検出の段階205は,物体追跡アルゴリズムの利用(ステップ235)を必要とする。このようなアルゴリズムは,例えばテキスチャ及び幾何学情報を用いて一連の画像,すなわち映像ストリーム240内の物体を追跡するために用いられる。
上述のとおり,この種のアルゴリズムは,各画像について,特に現在の画像245について,該画像内にある各物体の識別子250と,該物体の位置及び方向に対応する6自由度(6DF)を有する物体の姿勢255と,を判定する。
現在の画像245から比較モデルを抽出するステップ260は,一連の画像内で追跡する各幾何学物体について,追跡アルゴリズムによって判定される姿勢情報を用い,参照モデルの座標系で表すために,追跡物体の表現に幾何学変換を適用する。
参照モデルが平たんな表面であるときは,比較モデルを抽出するステップは,上述し図3に示したとおりの参照モデルを決定するステップに類似している。
参照モデルがはん用3Dモデルを含むときは,追跡物体の表現を単に抽出するステップによって,現在の画像から比較モデルを直接取得することができる。しかしこの第2ステップは,追跡アルゴリズムによって判定された追跡物体の位置及び方向と,平面展開テキスチャとを用いて,参照モデルの投影を判定するステップを更に含む。この投影が比較モデルと対比される参照モデルの表現を決定する。
図6a〜6cは,参照モデルの表現を決定するステップ例を示している。
図6aは,ユーザがいる実場面600の透視図である。実際の静的な場面の少なくとも一部が,ここでは参照モデル,すなわち追跡物体に対応する。カメラ605は移動可能であり,実場面600の一連の画像,特に図6bに示した画像610を撮影する。ここでは画像610は,比較モデルの表現と考える。
画像610から始めて,追跡アルゴリズムは物体の姿勢を判定することができる。追跡物体は,ここでは実場面の座標系(実場面の環境)で移動しないので,追跡アルゴリズムは実際にはカメラ605の姿勢を判定する。あるいは追跡物体が移動していてもよい。
この姿勢と,例えば3次元モデル400及び付随テキスチャ405などの,3次元モデル及び付随テキスチャを含む参照モデルを用い,カメラの姿勢に応じて参照モデルを投影して,図6cに示す参照モデルの表現615を得る。
一特定実施例において,参照モデルの表現は,3D描画グラヒックカードの作業用メモリを単に読むことによって得られる。この場合,グラヒックカードは標準モードで使用される。しかし計算される画像は表示のためではなく,じょう乱範囲を判定するための参照モデルの表現として用いられる。
図2では,比較モデルは符号265で参照されている。
上述のとおり,次に続くステップで参照モデルと比較モデルとを比較する。ここでは各モデルに対応する活性範囲のすべて又は一部について相関演算子を用いる(ステップ270)。
活性範囲における遮へい検出は,各活性範囲における特徴点の時間比較を用いる。これらの特徴点は,例えば参照画像の活性範囲に属するハリス(Harris)関心点である。
このようにして各活性範囲は,カメラから見た画像の実品質によって,特徴参照点集合によって特徴付けられる。
類似して映像ストリーム内の実時間で追跡する物体について,関心点を抽出することができる。これらの点は,物体追跡アルゴリズムによって決定できること注意されたい。しかしこれらの点,特にハリス検出器で判定された点は,スケールのいくらかの変更,いくつかのアフィン変換,又は照明の変更に対して耐性がない。したがって,オフラインステップでは参照モデル上で,幾何学変換ステップ後の映像ストリームの各新規画像については比較モデル上で,特徴点を検出するのが有利である。
次に,参照特徴点,すなわち参照モデルの活性範囲の特徴点と,現在の特徴点,すなわち比較モデルの活性範囲の特徴点との対応が判定される。対応を判定するステップには,例えば次に掲げる2基準が用いられる。
・所定のウィンドウについて画素グループの輝度を比較し,そこから類似性測定値を抽出するためのゼロ正規化相互相関(ZNCC)演算子
・平面演算子における距離。空間内の物体の姿勢と,既知の参照モデルとの幾何学変換であり,参照特徴点と現在の特徴点との距離を測定することができる。この距離はゼロに近くなければならない。この距離がゼロに近いときは,画素単位差分演算子を用いるのが有利であることに注意されたい。
参照モデルと比較モデルとの一致を探索するステップにおいて,ほかの比較演算子を用いてもよい。例えば,局所ジェット(Jet)タイプ記述子は,映像信号の方向性微分係数又はSIFT(尺度不変特徴変換)記述子,若しくはSURF(高速耐性特徴)記述子を用いることによって,関心点を方向によって特徴付ける。これらの演算子は計算時間のがより長いことが多く,一般に各モデルの抽出ステップにおいて生じる幾何学的変動に対してより耐性がある。
遮へい検出は,次の2ステップを含むと有利である。すなわち,現在の画像内の参照関心点に対応する点を探索するステップと,位置探索後に対応関係を検証する任意選択ステップと,である。
点が探索できないとき,又は点の位置が無効のときは,その点について遮へいが生じている。反対に点が探索でき,かつ点の位置が有効であるときは,その点について遮へいは生じていない。
追跡物体の現在の姿勢が完全であり,追跡物体が全く剛体であるときは,Prと記された現在の画像中の参照関心点に対応する点の探索ステップは必要ないことに注意されたい。実際にこの場合は,参照モデルの座標系に再投影された現在の画像は,参照モデルに完全に重畳することになる。そしてZNCC演算子は,遮へいを検出するために点Prについてのウィンドウにだけ用いられる。
しかし物体追跡アルゴリズムは,姿勢計算精度に限度があることが多い。これらの誤差は,例えば追跡物体の変形に関係していることがある。したがって集合Prに属する点pの平面座標(u,v)は,比較画像内の座標(u+uerr,v+verr)によって推定される。
したがって,理想点(u,v)の周囲のウィンドウ内で各点pを探索することが推奨される。この探索ステップで,現在の画像内の,点pの対応点を信頼性高く探索するためにあまり大きなウィンドウを用いる必要はない(その点が遮へいされていないとき)。それでもなお,性能の点であまりにコストが高い処理を避けると同時に物体追跡アルゴリズムの誤差を考慮するためには,探索ウィンドウは十分大きくなければならない。
探索ステップは,正の相関を示すことがある。すなわち,点が現在の画像に存在しなくても,現在の画像内の参照関心点に対応する点の位置を示すことがある。
このような誤差を避け,位置を検証するために,相関しきい値により厳しい制約がある第2相関計算を各画像内の点の周囲のより大きなウィンドウに適用することが好ましい。相関ウィンドウを大きくすればするほど,相関結果は信頼性が高くなる。
これらの探索ステップ及び検証ステップは,ほかの相関演算子によって実現してもよく,上述の説明は限定的なものではない。
処理の最後に,活性範囲毎に遮へいされていることが検出されたいくつかの関心点が得られる。
活性範囲がじょう乱を受けていると考えられるかどうかを判定するために,当該範囲について,参照関心点の数と,遮へいされていると考えられる参照関心点の数と,の比を用いることができる。
この比の値が所定のしきい値を超えたとき,対応する活性範囲はじょう乱を受けたと考えられる。反対にこの比の値が適用されるしきい値より低いか,等しいときは,対応する活性範囲はじょう乱を受けていないと考えられる。
じょう乱を受けた活性範囲のリスト275は,このようにして得られる。
図7a及び7bは,活性範囲がじょう乱を受けているかどうかを判定するために,参照モデルの表現の活性範囲と,比較モデルの表現の活性範囲とを比較するステップの例である。明りょうにするため,参照モデルの表現を参照画像と呼び,比較モデルの表現を比較画像と呼ぶ。
図7aに示すとおり,参照画像700はここでは2関心点710及び715を含む活性範囲705それ自体を含む。
図7bに示す比較画像720は,同一座標系で輪郭725が表されている参照画像と完全には一致しない。このような一致誤差は,特に物体追跡アルゴリズムから生じる。比較画像720は,参照画像の活性範囲705に対応する活性範囲730を含む。参照符号735は,参照画像及び比較画像のように,比較活性範囲に対してシフトした参照活性範囲の輪郭を表す。
参照点710に対応する点を探索するために,参照点710の座標を有する比較画像の活性範囲の点を中心とする探索ウィンドウ740が用いられる。この探索ステップを実行すると,点745が識別される。点745の位置が有効なときは,点710において遮へいは生じていない。
類似して参照点715に対応する点750を見付けるために,参照点715の座標を有する比較画像の活性範囲の点を中心とする探索ウィンドウが用いられる。しかしこの探索ステップの実行は,ここでは点715に対応する点750を特定しない。したがって,この点で遮へいは生じていない。
このように関心点の数を用いて,現在の画像720内の活性範囲705がじょう乱を受けているかどうか判定することができる。
図2に戻り,じょう乱を受けた活性範囲のリストを決定するステップのあとで,動作を開始する(ステップ285)ために再帰処理ステップ(ステップ280)が実行される。この処理は,目的とする応用種別に依存する。
この種の応用において,ユーザの手と追跡物体との接触を判定するのは困難であることに注意されたい。第2検証ステップに対応する再帰処理ステップは,したがって好みに応じて次の方法のうち一つを用いて行われる。
・遮へいされた活性範囲を時間軸上のフィルタによって再帰的に検討する。これによって,ユーザが活性範囲に留まっているときは,当該範囲に対する動作の検証となる。
・追跡物体の姿勢のじょう乱についてのしきい値を利用する(物体が例えばテーブル上に置かれていて,固定されていないとき)。ユーザは,必要な活性範囲に圧力を加えて物体をわずかに動かすことによって,自分の選択を確認することができる。
・音響検知器を用いて,ユーザの指と,目的物体の表面との衝突相互作用の雑音を検出する。
より一般的には,活性範囲に対応するデータがフィルタされる。利用するフィルタは特に動きフィルタであってよい(物体が画像内を非常に速く移動するときは,検出を阻止することができる)。また利用するフィルタは,再帰フィルタであってもよく,該フィルタは時間軸上で遮へいの一貫性を検証し,それによってシステムを偽の検出に対してより耐性があるようにするために,各活性範囲について遮へい状態を記憶している。
図8は,本発明の方法の第2実施例を示す図であって,ここでは追跡物体の活性範囲を用いない方法である。しかしそれでもなお,この実施例において活性範囲を用いてもよいことに注意されたい。ここでは参照モデルと比較モデルとの差分演算子が,ユーザと拡張現実場面との相互作用を可能にする特定の動作を検出するために用いられる。このような実施例は,関心点の数が少ない範囲内で遮へいを検出するために用いられる。
上述のとおり,本方法は初期化段階に対応する第1部分800と,一連の画像においてユーザと拡張現実場面との相互作用を実時間で検出するために,オンラインで実行される処理に対応する第2部分805とを含む。
初期化段階は本質的にステップ810及び815を含む。ステップ810は,参照モデル820を生成することを目的としており,ここでは図2に説明されているステップ210と類似している。
二つの画像間で色の減算のためのアルゴリズムを用いるために,参照モデルは映像信号内に存在する輝度と,影と,ノイズとに対してより耐性があるようにしなければならない。したがってじょう乱は,参照モデルから発生することがある。
参照モデルにおいて発生する変化は例えば,
・画像の姿勢のじょう乱と,
・色のじょう乱と,
・輝度のじょう乱と,
・映像信号に最も関係する,例えば均一ノイズ又はガウスノイズなどのノイズと
である。
ここでトレーニングステップ(ステップ815)は,映像信号の成分毎にガウスモデル825を生成することを目的とする。このステップは,例えば参照モデル(3次元の場合,これはテキスチャ又はUVマップである)を表す画像集合を決定するステップ及び記憶するステップにあり,これらの画像は少なくともいくつかの上述のじょう乱を含んでいる。
RGB信号の場合,トレーニングステップは例えば次のとおりである。参照モデルに対応するすべてのじょう乱を受けた画像の画素毎にガウス分布モデルを決定する。このモデルは,R,G及びB成分毎の中央値(μ)及び標準偏差(σ),すなわち<μR,σRR>,<μG,σGG>,<μB,σBB>からなる。
ノイズ又は使用する追跡アルゴリズムに関連した姿勢推定誤差に対する耐性を改善するため,kガウスモデルを構築することも均等に可能である。画像の画素が,構築した平均からかけ離れているときは,新規ガウスモデルが追加される。したがって成分R,G及びB毎にガウスモデル集合,すなわち[<μR1,σRR1>,・・・<μRn,σRRn>],[<μG1,σGG1>,・・・<μGn,σGGn>],[<μG1,σGG1>,・・・<μBn,σBBn>]が決定される。
相互作用を検出するため,その後に使用される比較演算子830は,参照モデルをトレーニングするステップ中に決定するのが好ましい。
ステップ840〜855は,現在の画像を生成し,該画像内で追跡される物体の姿勢はステップ240〜255と同一である。
同様に比較モデル865を抽出するステップ860は,比較モデル265を取得するステップ260に類似している。
参照モデルと比較モデルとを比較するステップ870は,例えば次の演算子を適用するステップにある。
・次の式によって成分(R,G<B)を有するガウスモデルと現在の画素とのマハラノビス距離を決定するステップ。
Figure 2010040037
・計算したマハラノビス距離(v)が所定のしきい値以上であるか,現在の画像の色によって計算されるとき,画素は前景に属する,すなわち参照モデルに属さないと記される。
・上記条件が否のとき,画素は背景に属する,すなわち参照モデルに属すると記される。
このステップに従って,背景に属さない,すなわち参照モデルに属さない画素のマップ875が得られる。この方法で得られたマップはじょう乱を受けた画素を表す。
同じ方法で,次式によって決定される現在の各画素とkガウスモデルのそれぞれとのマハラノビス距離を決定することができる。
Figure 2010040037
重みwiは,これらkガウスモデルのそれぞれに関係し,この重みは発生頻度によって決定される。したがってこれらの分布から確率を計算し,そこからじょう乱を受けた画素を表すマップを推論することができる。これらのkガウスモデルは,上述のようにトレーニング段階で最初に構築し,現在の画像内のじょう乱により良く適応するように定常状態段階で更新するのが有利である。
同じ方法で,遮へいに対してより耐性のあるマップを得るために,隣接画素グループとして画素を処理することができる。
じょう乱を受けた画素のマップを再帰的に記憶し(ステップ880),数学的変形(morphology)演算子を適用してパケット内の画素グループを抽出することができる。単純な再帰演算子は,孤立画素を除去するために,二つの連続するじょう乱画素マップに“and”アルゴリズムを用いる。拡張,侵食,囲い込みのようなほかの標準演算子,又は結合(connex)成分分析演算子をこの処理に均等に加えてもよい。
その後,輪郭抽出アルゴリズムを用いてデータベース内の所定の輪郭と比較し,そしてジェスチャによるコマンドを識別し,対応する動作を開始することができる(ステップ885)。
ここで,上述の第1実施例と第2実施例とを結合してもよく,いくつかの参照モデル又は参照モデルのいくつかの部分は第1実施例によって処理し,ほかは第2実施例によって処理してもよい。
第1利用例において,本方法はユーザが平面実物体と相互作用することを可能にする。これらの物体は可視又は非可視のターゲット集合を含み,該ターゲット集合は活性範囲に対応する可能性があり,一つの動作又は複数の動作集合と関係し,該動作は拡張現実場面に影響を与えることができる。いくつかの平たん物体モデルが利用でき,本方法は映像ストリーム内にどの1又は複数の追跡物体があるかを特定する追加認識ステップを含むことに注意されたい。それらが特定され,その姿勢が判定されたとき,これらの物体は例えば種々の自動車デザインが現れるようにできる。そして各物体のターゲットを指差して,ドア又は屋根を開けたり,表示されている自動車の色を変えるようなアニメーションを開始したりすることができる。
同じ利用法において,専用の音響視覚環境を用いてユーザがパズルを解くことができるパズルアプリケーションが可能になる。このパズルは,ユーザが選択範囲を遮へいすることによって答えなければならないクイズの形態をとることも均等に可能である。
さらに同じ利用法において,GUI(グラヒックユーザインタフェース)型アプリケーションを制御して,ソフトウェアアプリケーション内を人間工学的に(ergonomically)閲覧することができる。
顔追跡アプリケーションの場合,ユーザが手をこめかみの上に通過させたとき仮想眼鏡を加えたり,ほほを覆ったときメークアップを加えたりすることができる。
例えば剛物体のような良い品質の物体追跡の場合,この種の利用アルゴリズムでは通常必要な手動トレーニング段階なしに背景減算へ進むことができる。更に上述の方法を用いることによって,ユーザが背景から分離し,同時にカメラの動きに対して十分耐性を持たせることができる。この方法を相関演算子を用いる方法と組み合わせることによって,高速の照明変化に対して耐性のある方法も得ることができる。
図9に第2利用例を示す。ここでは相互作用検出が,単に追跡物体を少なくとも部分的に隠す外部物体があることではなく,追跡物体の修正と結びついている。ここで示す例は,子供の本に適用される拡張現実シナリオを目的としている。その本は,タブを引っ張ることによって子供が本の内容と相互作用でき,それによって物語を先に進めることができるものである。
このタブ付きの本900は,イラストが描かれているページ905を含む。ここでページ905は三つの窓910−1,910−2及び910−3を含み,移動するひも915−1及び915−2の上に表示されているパターンを見ることができる。用いられているパターンはひもの位置によって異なる。ページ905は通常部分的に接合されている2枚のシートからなるシート自体に属し,その2枚のシートの間をひも915−1及び915−2がスライドし,ひもの一方の端,すなわちタブがシートの周囲から突出している。
例えば,ひも915−1が第1位置にあるときは窓910−1に月の表現が見え,このひもが第2位置にあるときは太陽の表現が見えるように(図示のとおり)することができる。
これらの窓910−1〜910−3を活性範囲と考えてもよく,これがじょう乱を受けると相互作用が起きる。したがって,本900のタブを操作することによって,活性範囲のパターンが修正され,動作が開始される。
活性範囲において特定されるパターンに応じて実行する動作を特定するために,形状認識アルゴリズムを用いることができる。
上述の原理によれば,これらの活性範囲を隠すことによっても均等に動作が実行される。
最後に,本発明の方法は,拡張現実シナリオを実現するために3D空間内で合成物体を移動させ配置することを目的としたアプリケーションにも均等に供せられる。
本発明又は本発明の一部を実現するデバイスを図10に示す。デバイス1000は,例えばマイクロコンピュータ,ワークステーション又はゲーム機である。
デバイス1000は,次の部分に接続されている通信バス1002を含むことが好ましい。
・中央処理装置(CPU)又はマイクロプロセッサ1004
・オペレーティングシステム及び“Prog”のようなプログラムを含むことができる読み出し専用メモリ(ROM)1006
・上述のプログラムの実行中に生成及び修正される変数及びパラメータを記憶するようになっているレジスタを含むランダムアクセスメモリ(RAM)又はキャッシュメモリ1008
・カメラ1012に接続された映像取得カード1010
・スクリーン又はプロジェクタ1018に接続されたグラヒックカード1016
デバイス1000は,任意選択で次のアイテムを更に備えてもよい。
・上述のプログラム“Prog”と,本発明によって処理された,又は処理されるデータを含むハードディスク1020
・キーボード1022及びマウス1024,又はユーザが本発明のプログラムと対話できるようにする光学ペン,タッチスクリーン,若しくはリモコンのような任意のほかの指示デバイス
・データを送受信できる例えばインターネットなどの分散通信網1028に接続された通信インタフェース1026
・センサ(図示していない)に接続したデータ取得カード1014
・本発明によって処理された,又は処理するカード内のデータを読み書きするようになっているメモリカードリーダ(図示していない)
通信バスは,デバイス1000に含まれるか,接続されている種々の要素間の通信及び相互運用性を提供する。バスの動作は限定的ではなく,特に中央処理装置はデバイス1000の任意の要素へ直接,又はデバイス1000の別の要素を介して,命令を送信することができる。
本発明の方法をプログラム可能デバイスに実行させることができる各プログラムの実行時コードは,例えばハードディスク1020又は読み出し専用メモリ1006に記憶させることができる。
別の実施例においては,プログラムの実行時コードはインタフェース1026を介して通信網1028から受信することができ,上記と同様に記憶される。
メモリカードは,例えばコンパクトディスク(CD−ROM又はDVD)のような任意の情報媒体で置き換え可能である。メモリカードは,一般に,デバイスに組み込まれているか,組み込まれていない,恐らくは着脱可能の,本発明の方法を実行する1又は複数のプログラムを記憶するようになっている計算機又はマイクロプロセッサによって可読の情報記憶手段で置き換えることができる。
更に一般的には,1又は複数のプログラムは実行する前にデバイス1000の複数の記憶手段の一つにロードしてもよい。
中央処理装置1004は,本発明の1又は複数のプログラムの命令又はソフトウェアコード部分の実行を制御及び指示する。この命令は,ハードディスク1020,読み出し専用メモリ1006,又は上記のほかの記憶要素に記憶される。電源投入時,例えばハードディスク1020又は読み出し専用メモリ1006などの不揮発性メモリに記憶された1又は複数のプログラムは,本発明の1又は複数のプログラムの実行時コードを含むことになるランダムアクセスメモリ1008に転送されると共に,本発明を利用するために必要な変数及びパラメータを記憶するレジスタにも転送される。
グラヒックカード1016は,特に3次元モデル及びテキスチャ情報から2次元表現を決定するようになっている3D描画グラヒックカードであることが好ましい。この2次元表現はメモリ内で利用できればよく,必ずしも表示されなくてもよい。
特定の要求条件を満たすため,本発明分野の当業者は当然に上述の説明に修正を加えてもよい。
100 第1部分
105 第2部分
200 第1部分
205 第2部分
300 画像
305 物体
310 参照モデルの表現
505 活性範囲
540 活性範囲
545 活性範囲
800 第1部分
805 第2部分
910−1 窓
915−1 ひも
1000 デバイス
1004 中央処理装置
1006 読み出し専用メモリ
1008 ランダムアクセスメモリ
1010 映像取得カード
1012 カメラ
1016 グラヒックカード
1018 スクリーン/プロジェクタ
1020 ハードディスク
1026 通信インタフェース
1028 網

Claims (18)

  1. ユーザと,一連の画像のうち少なくとも一つの画像内の拡張現実場面との少なくとも一つの相互作用を実時間で検出する方法であって,前記少なくとも一つの相互作用は,前記少なくとも一つの画像内の少なくとも一つの物体の表現の外見を修正する修正ステップによって得られ,
    初期化段階(100,200,800)において
    前記少なくとも一つの物体の少なくとも一つの参照モデルを生成する生成ステップ(110,210,810)と,
    前記少なくとも一つの参照モデルを処理する処理ステップ(115,215,815)と,
    を有し,利用段階において
    前記少なくとも一つの画像内の前記少なくとも一つの物体の姿勢を判定する判定ステップ(135,235,835)と,
    前記少なくとも一つの物体によって前記少なくとも一つの画像から少なくとも一つの比較モデルを抽出する抽出ステップ(160,260,860)と,
    処理済みの前記少なくとも一つの参照モデルと,前記少なくとも一つの比較モデルとを,前記の判定した姿勢によって比較する比較ステップ(170,270,870)と,
    前記比較ステップに応答して前記少なくとも一つの相互作用を検出する検出ステップと,
    を有することを特徴とする方法。
  2. 前記判定ステップは物体追跡アルゴリズムを用いる請求項1に記載の方法。
  3. 前記利用段階の各ステップを,前記一連の画像のうち少なくとも2画像に少なくとも1回反復する請求項1又は2に記載の方法。
  4. 前記比較ステップの結果を再帰処理するステップ(180,280,880)を更に有する請求項1〜3のいずれか1項に記載の方法。
  5. 前記処理ステップは前記少なくとも一つの参照モデル内に少なくとも一つの活性範囲を規定するステップ(215)を含み,前記方法は前記利用段階で前記比較モデル内の少なくとも一つの活性範囲を判定するステップを更に有し,前記比較ステップは前記活性範囲を基準とする請求項1〜4のいずれか1項に記載の方法。
  6. 前記少なくとも一つの参照モデルの前記少なくとも一つの活性範囲内で,少なくとも一つの参照点を判定するステップを更に有し,前記比較ステップは前記比較モデルの前記活性範囲内の前記少なくとも一つの参照点を探索するステップを含む請求項1〜5のいずれか1項に記載の方法。
  7. 前記比較ステップは,前記少なくとも一つの参照モデルの処理したモデルの少なくとも一部と,前記少なくとも一つの比較モデルの少なくとも一部との相関を評価するステップを含む請求項1〜6のいずれか1項に記載の方法。
  8. 前記比較ステップは,前記少なくとも一つの比較モデルの少なくとも一部と,処理済みの前記少なくとも一つの参照モデルの少なくとも一部との差を評価するステップを含む請求項1〜6のいずれか1項に記載の方法。
  9. 前記生成ステップは,前記少なくとも一つの物体の表現を平面射影幾何学変換するステップを含む請求項1〜8のいずれか1項に記載の方法。
  10. 前記少なくとも一つの比較モデルは前記少なくとも一つの物体の前記姿勢によって決定され,前記抽出ステップは前記少なくとも一つの画像の少なくとも一部を平面射影幾何学変換するステップを含む請求項1〜9のいずれか1項に記載の方法。
  11. 前記生成ステップは,前記参照モデルの少なくとも一つの要素の,少なくとも一つのパラメータの分布を表す,少なくとも一つのガウスモデルを決定するステップを含む請求項1〜10のいずれか1項に記載の方法。
  12. 前記比較ステップは,前記参照モデルの少なくとも一つの点に対応する前記比較モデルの前記少なくとも一つの点と,前記参照モデルの前記少なくとも一つの点に関する前記ガウスモデルとの距離の測定値を評価するステップを含む請求項1〜11のいずれか1項に記載の方法。
  13. 前記参照モデルは3次元幾何学モデル及び付随テキスチャを含み,前記方法は前記利用段階で前記少なくとも一つの物体の前記姿勢と,前記幾何学モデル及び前記テキスチャとによって,前記参照モデルの表現を決定するステップを更に有する請求項1〜9のいずれか1項に記載の方法。
  14. 前記検出ステップに応答して,少なくとも一つの動作を開始するステップを更に有する請求項1〜13のいずれか1項に記載の方法。
  15. 前記修正ステップは,前記少なくとも一つの物体と,前記少なくとも一つの画像のソースとの間に,前記少なくとも一つの物体とは異なる,第2物体と呼ぶ物体を配置するステップによって得られる請求項1〜14のいずれか1項に記載の方法。
  16. 前記修正ステップは,前記少なくとも一つの物体を修正するステップによって得られる請求項1〜15のいずれか1項に記載の方法。
  17. 請求項1〜16のいずれか1項に記載の方法の各ステップを実行するようになっている命令を含む計算機プログラム。
  18. 請求項1〜16のいずれか1項に記載の方法の各ステップを実行するようになっている手段を備えるデバイス。
JP2009155865A 2008-06-30 2009-06-30 ユーザと拡張現実場面との相互作用を実時間で検出する方法及びデバイス Pending JP2010040037A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0854382A FR2933218B1 (fr) 2008-06-30 2008-06-30 Procede et dispositif permettant de detecter en temps reel des interactions entre un utilisateur et une scene de realite augmentee

Publications (2)

Publication Number Publication Date
JP2010040037A true JP2010040037A (ja) 2010-02-18
JP2010040037A5 JP2010040037A5 (ja) 2012-06-21

Family

ID=40348018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009155865A Pending JP2010040037A (ja) 2008-06-30 2009-06-30 ユーザと拡張現実場面との相互作用を実時間で検出する方法及びデバイス

Country Status (5)

Country Link
US (1) US20100002909A1 (ja)
EP (1) EP2141656A1 (ja)
JP (1) JP2010040037A (ja)
KR (1) KR20100003252A (ja)
FR (1) FR2933218B1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011105528A1 (ja) 2010-02-25 2011-09-01 三菱重工業株式会社 充電式フォークリフトの充電管理システム、及び充電管理方法
JP2013515275A (ja) * 2010-03-08 2013-05-02 エンパイア テクノロジー ディベロップメント エルエルシー 拡張現実のためのブロードバンドパッシブ追跡
JP2014510943A (ja) * 2011-02-24 2014-05-01 クアルコム,インコーポレイテッド オートフォーカス追跡
JP2016192132A (ja) * 2015-03-31 2016-11-10 Kddi株式会社 画像認識ar装置並びにその姿勢推定装置及び姿勢追跡装置
CN106504629A (zh) * 2016-11-04 2017-03-15 大连文森特软件科技有限公司 一种基于增强现实技术的汽车组装演示记忆***

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5709906B2 (ja) 2010-02-24 2015-04-30 アイピープレックス ホールディングス コーポレーション 視覚障害者支援用拡張現実パノラマ
KR101129328B1 (ko) * 2010-03-03 2012-03-26 광주과학기술원 타겟 추적 장치 및 방법
KR101135186B1 (ko) * 2010-03-03 2012-04-16 광주과학기술원 상호작용형 실시간 증강현실 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
KR101281095B1 (ko) * 2010-06-08 2013-07-02 주정인 증강현실을 이용한 컨텐츠 찾기 게임 방법 및 시스템
US9514654B2 (en) 2010-07-13 2016-12-06 Alive Studios, Llc Method and system for presenting interactive, three-dimensional learning tools
KR101397712B1 (ko) * 2010-07-27 2014-06-27 주식회사 팬택 증강 현실 객체 인식 가이드 제공 장치 및 방법
WO2012030958A1 (en) * 2010-08-31 2012-03-08 Activate Systems, Inc. Methods and apparatus for improved motion capture
US9013550B2 (en) * 2010-09-09 2015-04-21 Qualcomm Incorporated Online reference generation and tracking for multi-user augmented reality
US9529424B2 (en) 2010-11-05 2016-12-27 Microsoft Technology Licensing, Llc Augmented reality with direct user interaction
KR20120087287A (ko) * 2010-12-28 2012-08-07 주식회사 팬택 증강현실 히스토리 정보를 이용하여 소셜 네트워킹 서비스를 제공하는 단말기, 서버 및 이를 이용한 증강현실 제공 시스템
US9090214B2 (en) 2011-01-05 2015-07-28 Orbotix, Inc. Magnetically coupled accessory for a self-propelled device
US10281915B2 (en) 2011-01-05 2019-05-07 Sphero, Inc. Multi-purposed self-propelled device
US9429940B2 (en) 2011-01-05 2016-08-30 Sphero, Inc. Self propelled device with magnetic coupling
US9218316B2 (en) 2011-01-05 2015-12-22 Sphero, Inc. Remotely controlling a self-propelled device in a virtualized environment
WO2012094349A2 (en) 2011-01-05 2012-07-12 Orbotix, Inc. Self-propelled device with actively engaged drive system
USD648796S1 (en) 2011-01-31 2011-11-15 Logical Choice Technologies, Inc. Educational card
USD648390S1 (en) 2011-01-31 2011-11-08 Logical Choice Technologies, Inc. Educational card
USD654538S1 (en) 2011-01-31 2012-02-21 Logical Choice Technologies, Inc. Educational card
USD648391S1 (en) 2011-01-31 2011-11-08 Logical Choice Technologies, Inc. Educational card
USD647968S1 (en) 2011-01-31 2011-11-01 Logical Choice Technologies, Inc. Educational card
USD675648S1 (en) 2011-01-31 2013-02-05 Logical Choice Technologies, Inc. Display screen with animated avatar
US8724853B2 (en) * 2011-07-18 2014-05-13 Google Inc. Identifying a target object using optical occlusion
WO2013023706A1 (en) * 2011-08-18 2013-02-21 Layar B.V. Computer-vision based augmented reality system
US20130063556A1 (en) * 2011-09-08 2013-03-14 Prism Skylabs, Inc. Extracting depth information from video from a single camera
JP5784237B2 (ja) * 2011-10-12 2015-09-24 クアルコム,インコーポレイテッド カメラを搭載したコンピューティングデバイスを用いた偽造印刷物の検出
US9292758B2 (en) * 2012-05-14 2016-03-22 Sphero, Inc. Augmentation of elements in data content
US9827487B2 (en) 2012-05-14 2017-11-28 Sphero, Inc. Interactive augmented reality using a self-propelled device
WO2013173389A1 (en) 2012-05-14 2013-11-21 Orbotix, Inc. Operating a computing device by detecting rounded objects in an image
US9813666B2 (en) 2012-05-29 2017-11-07 Qualcomm Incorporated Video transmission and reconstruction
US9583032B2 (en) * 2012-06-05 2017-02-28 Microsoft Technology Licensing, Llc Navigating content using a physical object
US20130328930A1 (en) * 2012-06-06 2013-12-12 Samsung Electronics Co., Ltd. Apparatus and method for providing augmented reality service
US10056791B2 (en) 2012-07-13 2018-08-21 Sphero, Inc. Self-optimizing power transfer
US9147251B2 (en) * 2012-08-03 2015-09-29 Flyby Media, Inc. Systems and methods for efficient 3D tracking of weakly textured planar surfaces for augmented reality applications
JP6098133B2 (ja) * 2012-11-21 2017-03-22 カシオ計算機株式会社 顔構成部抽出装置、顔構成部抽出方法及びプログラム
US9076257B2 (en) 2013-01-03 2015-07-07 Qualcomm Incorporated Rendering augmented reality based on foreground object
US9946963B2 (en) 2013-03-01 2018-04-17 Layar B.V. Barcode visualization in augmented reality
US20140282220A1 (en) * 2013-03-14 2014-09-18 Tim Wantland Presenting object models in augmented reality images
US9886622B2 (en) * 2013-03-14 2018-02-06 Intel Corporation Adaptive facial expression calibration
US8922589B2 (en) 2013-04-07 2014-12-30 Laor Consulting Llc Augmented reality apparatus
US10509533B2 (en) 2013-05-14 2019-12-17 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
US9443355B2 (en) * 2013-06-28 2016-09-13 Microsoft Technology Licensing, Llc Reprojection OLED display for augmented reality experiences
US9514571B2 (en) 2013-07-25 2016-12-06 Microsoft Technology Licensing, Llc Late stage reprojection
US9829882B2 (en) 2013-12-20 2017-11-28 Sphero, Inc. Self-propelled device with center of mass drive system
DE102014208048A1 (de) * 2014-04-29 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zur Personalisierung eines Ausstellungsraums
FR3025917A1 (fr) * 2014-09-16 2016-03-18 Ingenuity I O Dispositif et procede d'orchestration de surfaces d'affichage, de dispositifs de projection et de dispositifs d'interaction spatialises 2d et 3d pour la creation d'environnements interactifs
PL411602A1 (pl) * 2015-03-17 2016-09-26 Politechnika Poznańska System do estymacji ruchu na obrazie wideo i sposób estymacji ruchu na obrazie wideo
CN106203280A (zh) * 2016-06-28 2016-12-07 广东欧珀移动通信有限公司 一种增强现实ar图像处理方法、装置及智能终端
KR20180046003A (ko) * 2016-10-27 2018-05-08 주식회사 퍼즐스페이스 가상현실을 이용한 게임 서비스 제공 시스템
US10529137B1 (en) * 2016-11-29 2020-01-07 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Machine learning systems and methods for augmenting images
US10360832B2 (en) 2017-08-14 2019-07-23 Microsoft Technology Licensing, Llc Post-rendering image transformation using parallel image transformation pipelines
DK180640B1 (en) 2018-05-07 2021-11-09 Apple Inc Devices and methods of measurement using augmented reality
US10785413B2 (en) 2018-09-29 2020-09-22 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
KR101966020B1 (ko) 2018-10-12 2019-08-13 (주)셀빅 혼합 현실 기반의 다중 참여형 공간 어뮤즈먼트 서비스 방법 및 다중 참여형 공간 어뮤즈먼트 서비스 시스템
CN111626082A (zh) * 2019-02-28 2020-09-04 佳能株式会社 检测装置和方法及图像处理装置和***
US11227446B2 (en) 2019-09-27 2022-01-18 Apple Inc. Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality
US11138771B2 (en) 2020-02-03 2021-10-05 Apple Inc. Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
US11727650B2 (en) 2020-03-17 2023-08-15 Apple Inc. Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments
US11615595B2 (en) 2020-09-24 2023-03-28 Apple Inc. Systems, methods, and graphical user interfaces for sharing augmented reality environments
US11941764B2 (en) 2021-04-18 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for adding effects in augmented reality environments

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005141702A (ja) * 2003-07-11 2005-06-02 Olympus Corp 情報呈示装置
JP2005174352A (ja) * 2003-12-11 2005-06-30 Sony United Kingdom Ltd オブジェクト検出

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6061064A (en) * 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US6124864A (en) * 1997-04-07 2000-09-26 Synapix, Inc. Adaptive modeling and segmentation of visual image streams
US6330356B1 (en) * 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
US6765569B2 (en) * 2001-03-07 2004-07-20 University Of Southern California Augmented-reality tool employing scene-feature autocalibration during camera motion
US7215322B2 (en) * 2001-05-31 2007-05-08 Siemens Corporate Research, Inc. Input devices for augmented reality applications
US20030012410A1 (en) * 2001-07-10 2003-01-16 Nassir Navab Tracking and pose estimation for augmented reality using real features
US20070035562A1 (en) * 2002-09-25 2007-02-15 Azuma Ronald T Method and apparatus for image enhancement
US9229540B2 (en) * 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7826641B2 (en) * 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
GB2411532B (en) * 2004-02-11 2010-04-28 British Broadcasting Corp Position determination
JP4726194B2 (ja) * 2005-04-01 2011-07-20 キヤノン株式会社 キャリブレーション方法及び装置
US7706603B2 (en) * 2005-04-19 2010-04-27 Siemens Corporation Fast object detection for augmented reality systems
US7536030B2 (en) * 2005-11-30 2009-05-19 Microsoft Corporation Real-time Bayesian 3D pose tracking
DE102006005044B4 (de) * 2006-02-03 2011-01-27 Metaio Gmbh Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung
US8571272B2 (en) * 2006-03-12 2013-10-29 Google Inc. Techniques for enabling or establishing the use of face recognition algorithms
EP2201495B1 (en) * 2007-10-12 2013-03-27 MVTec Software GmbH Computer vision cad models
CA2734143C (en) * 2008-08-15 2021-08-31 Brown University Method and apparatus for estimating body shape
US20100045701A1 (en) * 2008-08-22 2010-02-25 Cybernet Systems Corporation Automatic mapping of augmented reality fiducials
US9600067B2 (en) * 2008-10-27 2017-03-21 Sri International System and method for generating a mixed reality environment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005141702A (ja) * 2003-07-11 2005-06-02 Olympus Corp 情報呈示装置
JP2005174352A (ja) * 2003-12-11 2005-06-30 Sony United Kingdom Ltd オブジェクト検出

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200400536001; 加藤博一 外2名: 'テクスチャー画像からオンライン生成されたテンプレートのマッチングに基づく拡張現実感のための位置合わせ' 日本バーチャルリアリティ学会論文誌 第7巻 第2号 第7巻 第2号, 20020630, 頁119〜128, 日本バーチャルリアリティ学会 *
CSNJ200810077319; 今本健児 外3名: '電子情報通信学会2000年総合大会講演論文集 基礎・境界 AR環境における仮想物体操作のためのカード' 電子情報通信学会2000年総合大会講演論文集 基礎・境界 , 20000307, 頁319, 電子情報通信学会2000年総合大会 *
JPN6013006639; 今本健児 外3名: '電子情報通信学会2000年総合大会講演論文集 基礎・境界 AR環境における仮想物体操作のためのカード' 電子情報通信学会2000年総合大会講演論文集 基礎・境界 , 20000307, 頁319, 電子情報通信学会2000年総合大会 *
JPN6013006640; 加藤博一 外2名: 'テクスチャー画像からオンライン生成されたテンプレートのマッチングに基づく拡張現実感のための位置合わせ' 日本バーチャルリアリティ学会論文誌 第7巻 第2号 第7巻 第2号, 20020630, 頁119〜128, 日本バーチャルリアリティ学会 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011105528A1 (ja) 2010-02-25 2011-09-01 三菱重工業株式会社 充電式フォークリフトの充電管理システム、及び充電管理方法
JP2013515275A (ja) * 2010-03-08 2013-05-02 エンパイア テクノロジー ディベロップメント エルエルシー 拡張現実のためのブロードバンドパッシブ追跡
US8610771B2 (en) 2010-03-08 2013-12-17 Empire Technology Development Llc Broadband passive tracking for augmented reality
US9390503B2 (en) 2010-03-08 2016-07-12 Empire Technology Development Llc Broadband passive tracking for augmented reality
JP2014510943A (ja) * 2011-02-24 2014-05-01 クアルコム,インコーポレイテッド オートフォーカス追跡
JP2016192132A (ja) * 2015-03-31 2016-11-10 Kddi株式会社 画像認識ar装置並びにその姿勢推定装置及び姿勢追跡装置
CN106504629A (zh) * 2016-11-04 2017-03-15 大连文森特软件科技有限公司 一种基于增强现实技术的汽车组装演示记忆***
CN106504629B (zh) * 2016-11-04 2019-05-24 快创科技(大连)有限公司 一种基于增强现实技术的汽车组装演示记忆***

Also Published As

Publication number Publication date
US20100002909A1 (en) 2010-01-07
FR2933218B1 (fr) 2011-02-11
KR20100003252A (ko) 2010-01-07
EP2141656A1 (fr) 2010-01-06
FR2933218A1 (fr) 2010-01-01

Similar Documents

Publication Publication Date Title
JP2010040037A (ja) ユーザと拡張現実場面との相互作用を実時間で検出する方法及びデバイス
JP5967904B2 (ja) ユーザがコンピュータシステムとやり取りを行うことができる、ビデオストリームにおける動く非剛体オブジェクトをリアルタイムで検出し及び追跡する方法及び装置
Hagbi et al. Shape recognition and pose estimation for mobile augmented reality
Hauswiesner et al. Virtual try-on through image-based rendering
Sharp et al. Accurate, robust, and flexible real-time hand tracking
US11514646B2 (en) System, device, and method of generating a reduced-size volumetric dataset
US9519968B2 (en) Calibrating visual sensors using homography operators
Pucihar et al. Exploring the evolution of mobile augmented reality for future entertainment systems
WO2011075082A1 (en) Method and system for single view image 3 d face synthesis
US9754161B2 (en) System and method for computer vision based tracking of an object
Morshidi et al. Gravity optimised particle filter for hand tracking
Viyanon et al. AR furniture: Integrating augmented reality technology to enhance interior design using marker and markerless tracking
CN112088348A (zh) 经由头部姿态远程控制显示设备的方法、***和计算机程序
US9483691B2 (en) System and method for computer vision based tracking of an object
Vysocky et al. Generating synthetic depth image dataset for industrial applications of hand localization
Okamoto et al. Assembly assisted by augmented reality (A 3 R)
Huo et al. Multiple people tracking and pose estimation with occlusion estimation
Álvarez et al. A new marker design for a robust marker tracking system against occlusions
Jáuregui et al. Real-time 3D motion capture by monocular vision and virtual rendering
Rodrigues et al. AR contents superimposition on walls and persons
Coleca et al. Gesture interfaces with depth sensors
Merriman Real-Time 3D Person Tracking and Dense Stereo Maps Using GPU Acceleration
Shen et al. Depth Sensor-Based Facial and Body Animation Control
Lee et al. AR paint: a fusion system of a paint tool and AR
Seeber Realistic Hands: Multi-Modal 3D Hand Reconstruction using Deep Neural Networks and Differential Rendering

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120509

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130517

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130809

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140121