JP2008501184A - インタラクティブ・システム及び方法 - Google Patents
インタラクティブ・システム及び方法 Download PDFInfo
- Publication number
- JP2008501184A JP2008501184A JP2007514998A JP2007514998A JP2008501184A JP 2008501184 A JP2008501184 A JP 2008501184A JP 2007514998 A JP2007514998 A JP 2007514998A JP 2007514998 A JP2007514998 A JP 2007514998A JP 2008501184 A JP2008501184 A JP 2008501184A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- scene
- multimedia content
- cube
- identified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04802—3D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【選択図】図1
Description
各面に1つのマーカーを有する少なくとも2つの面を有するオブジェクトと、
第1シーンにおけるオブジェクトの複数の画像をキャプチャーするための画像キャプチャリング・デバイスと、
オブジェクトの少なくとも2つの面をトラックしさらに少なくとも1つのマーカーを識別することで、第1シーン内のオブジェクトの位置及び向きをトラックするためのコンピュータ・ソフトウェアとを備えている。
第1シーンにおける1つのオブジェクトのキャプチャーされた画像を画像キャプチャリング・デバイスから受け取るための画像処理モジュールと、
各面が1つのマーカーを有するオブジェクトの少なくとも2つの面をトラックしてさらに少なくとも1つのマーカーを識別することで、第1シーン内のオブジェクトの位置及び向きをトラックするためのトラッキング・モジュールと、を備えている。
識別されたマーカーに関連するマーカー識別データを受け取るためのデータ・レシーバと、
マーカー識別データに関連する仮想オブジェクトを求めて仮想オブジェクトデーターベースを検索するための検索ツールと、を備えている。
マルチメディア・コンテンツの各アイテムを識別するための識別データフィールドと、
マルチメディア・コンテンツのアイテム又はマルチメディア・コンテンツの1つのアイテムの格納位置を格納するためのコンテンツデータのフィールドと、を備えている。
実際のシーンと、実際のシーン上の識別されたマーカーに対する位置に重ね合わされた識別されたマーカーに関連するマルチメディア・コンテンツとを含むグラフィック情報を備えている。
少なくとも2つの面と、
各面における不連続のボーダー及びボーダー内の画像を含んでいるマーカーと、を備えている。
不連続のボーダー及びボーダー内の画像を備え、
シーン内のマーカーを識別するため、ボーダーはシーン内に配置されており、さらにボーダー内の画像は、画像レポジトリ内のマッチング・イメージを見つけるためにサーチされる。
各面に1つのマーカーがあるオブジェクトの各面のために対応する変換行列を計算するステップと、
最高のトラッキング信頼性を有する表面を識別するステップと、
識別された表面とオブジェクトとの物理的関係に基づいて、マーカー座標系からオブジェクト座標系への変換行列を計算するステップとを備えている。
第1シーン内の1つのオブジェクトの複数の画像をキャプチャーするための画像キャプチャリング・モジュールと、
各面が1つのマーカーを有するオブジェクトの少なくとも2つの面をトラックしさらに少なくとも1つのマーカーを識別することで、第1シーン内のオブジェクトの位置及び向きをトラックするためのトラッキング・モジュールと、を備えている。
第1シーンにおける1つのオブジェクトのキャプチャーされた画像を画像キャプチャリング・デバイスから受け取ることと、
各面が1つのマーカーを有するオブジェクトの少なくとも2つの面をトラックしさらに少なくとも1つのマーカーを識別することで、第1シーン内のオブジェクトの位置及び向きをトラックすることと、を備えている。
図22を参照すると、子供用3Dインタラクティブ・ボキャブラリ・ブックは、インタラクティブ・システムの一つのアプリケーションのである。3Dインタラクティブ・ボキャブラリ・ブックは、2つのキューブからの相互作用を必要とする。スクリーンショット上の左にある「オブジェクト・キューブ」は6面を有している。各面は、子供学習用3Dオブジェクトのカテゴリーを表している。図22は、「乗り物」カテゴリーを示している。スクリーンショットの右側の「方法キューブ」は、「乗り物」データベースをナビゲートするのに使用される。ユーザーがキューブの上面の上方に示されたナビゲーション・パターンに従って「方法キューブ」を回転させると、「オブジェクト・キューブ」上方の3Dモデルが戦車から車に変化する。ポップアップ2Dテキストは、短い説明を含む互いに異なる言語で単語「戦車」を説明している。モデルはアニメーション化されていても良い。モデルがアニメーション化されている場合は、エンジン音は短い説明の人間による朗読とともに鳴らされる。互いに異なる言語における単語の異なる発音が再生されても良い。また、ユーザーにはオブジェクトをリサイズしたり動かしたりすることを含む相互作用が提供される。
インタラクティブ・システムのもう一つのアプリケーションは、3Dマジックストーリーキューブ・アプリケーションである。このアプリケーションでは、物語キューブは、有名な聖書物語、「ノアの箱船」について語る。アプリケーションが必要とするハードウェアは、コンピュータ、カメラ及び折り畳み可能なキューブである。コンピュータに対する最低限の要件は、少なくとも512MBのRAM及び128MBのグラフィックカードである。一例では、IEEE1394カメラが用いられる。IEEE1394カードがIEEE1394カメラとのインターフェースを取るためにコンピュータに取り付けられる。このアプリケーションに適した2つのIEEE1394カメラは、Dragonflyカメラ又はFireflyカメラである。これら両方のカメラは、640x480ピクセルの解像度及び30Hzの速度でカラー画像を取得可能である。これにより、折り畳み可能な有形のキューブを探りながら、ストーリーの3D版を見ることが可能である。カメラのキャプチャー速度が高くなればなるほど、待ち時間の低減によって複合現実感の経験がユーザーにとってより現実感を増す。カメラの解像度が高くなればなるほど、画像がより詳細になり、その結果トラッキングの正確さを向上させる。折り畳み可能なキューブは、3DストーリーテリングのためのTUIとして用いられる。ユーザーはキューブを単方向に展開可能である。折り畳み可能なキューブは、先には、キューブ表面に印刷された図面を有する2Dストーリーテリングに用いられていた。
インタラクティブ・システムのために開発されたさらなるアプリケーションは、インテリア・デザイン・アプリケーションである。このアプリケーションでは、家具カタログとしてのブックを用いることで、MXRツールキットが部屋の位置を示す家具ボードと共に用いられる。
2)キューブを用いた「掴み上げ」ジェスチャーを行う
掴み上げられたオブジェクトは落とされるまで手のジェスチャーに従う。実際のオブジェクトが落とされると、以下のことが予期される。
2)重力の法則に従って、落とされたオブジェクトは、オブジェクトの落下前の位置から真下に落ちる。
図8を参照すると、家具アイテムを追加するのと同様に、「掴み上げ」80及び落下の考えは、家具を再配置するのにも用いられる。追加を表す「+」マーカーとは対照的に、「右向きの矢印」マーカー81は、「右向きの矢印」マーカー81が上面となるように用いられることで、全ての方向に移動可能であることを表す。図9は、家具を再配置するための仮想結合を示している。
tfmCube.r23*tfmTable.r23+
tfmCube.r33*tfmTable.r33
(数式2)
数式2の変換行列を用いたときに最大のDot_product値となる面が、キューブの上面として決定される。キューブがブック及びボードに対してどの位置にあるかも考慮される。キューブの4つの位置状態は、オンボード、オフボード、オンブック及びオフブックとして定義される。キューブの状態と位置との関係は以下のようになる。
図17を参照すると、家具の追加は、「+」マーカーをキューブ170の上面として使うことで行われる(170)。これは、家具カタログの近くに連れて行かれ、望みの家具のページが現れる。キューブがブック上にある(オンブック)と検出された場合(171)、仮想家具オブジェクトがキューブの上面に飛び出てくる。回転動作を用いることで、ユーザーは、キューブが回転している間に互いに異なる仮想家具アイテムが飛び出してくるので、カタログを「ブラウズ」することができる。キューブが掴み上げられる(オフブック)とき、キューブ上に見られる最後の仮想家具アイテムが掴み上げられる(172)。
VN=sinθ(XN−X0)+cosθ(YN−Y0)
この式において、
(UN、VN)は、ボード上の家具に対して新しく転換された座標であり、
θは、ボード上の家具がX−Y座標に対してなす角度であり、
(X0,Y0)は、ボード上の家具のX−Y中心座標であり、
(XN,YN)は、キューブ上の家具のいずれかのX−Y座標である(図からは、それらは、pt0、pt1,pt2,pt3,pt4を表している。)
U−V座標のいずれかがUN<x方向長さ && VN<y方向幅であれば、音響が鳴らされる。これは、ユーザーに対して、家具アイテムをその位置に落とせず、家具アイテムを落とす前に他の位置に移動しなければならないことを示している。
・自らを表面の残りの部分から区別する。つまり、マーカーのIDを異ならせる。
・背景から容易に分離可能となる高コントラストエッジを有している。したがって、色は、必ずしも白黒にのみ制限される必要はない。
・さらにトラッキングのための少なくとも4つの特徴点を有する。変換行列を計算しているときに、少なくとも4つの特徴点が識別される。しかし、コーナーの代わりに、大きな黒点といった他の特徴点が用いられても良い。
Claims (67)
- ユーザーに複合現実感の経験をもたらすためのインタラクティブ・システムであって、
各面に1つのマーカーを有する少なくとも2つの面を有するオブジェクトと、
第1シーンにおける前記オブジェクトの画像をキャプチャーするための画像キャプチャリング・デバイスと、
前記オブジェクトの少なくとも2つの面をトラックし、少なくとも1つのマーカーを識別することにより前記第1シーンにおける前記オブジェクトの位置と方向とをトラックするコンピュータ・ソフトウェアと、
を備え、
前記コンピュータ・ソフトウェアは、識別されたマーカーに関連するマルチメディア・コンテンツを取得し、前記識別されたマーカーに対する相対位置に重ね合わされた前記関連のマルチメディア・コンテンツを含む第2シーンを生成し、その結果ユーザーに複合現実感の経験をもたらす、
インタラクティブ・システム。 - 前記マーカーは、塞がれていない、
請求項1に記載のシステム。 - 前記マーカーは、先に定められた形状である、
請求項1に記載のシステム。 - 前記マーカーは、前記形状の少なくとも一部を認識することにより、前記ソフトウェアにより識別される、
請求項3に記載のシステム。 - 前記コンピュータ・ソフトウェアは、前記形状の前記認識された一部を用いて、前記マーカーの前記先に定められた形状を完全に決定する、
請求項4に記載のシステム。 - 前記先に定められた形状は、正方形である、
請求項3に記載のシステム。 - 前記コンピュータ・ソフトウェアは、前記正方形の少なくとも2つのコーナーを認識することで、前記マーカーを決定する、
請求項6に記載のシステム。 - 前記マーカーは、単一のギャップを有する不連続のボーダーを含む、
請求項1に記載のシステム。 - 前記マーカーは、前記ボーダー内に画像を備えている、
請求項8に記載のシステム。 - 前記画像は、幾何学的なパターンである、
請求項9に記載のシステム。 - 前記パターンは、見本パターンのレポジトリに格納されている見本パターンである、
請求項10に記載のシステム。 - 前記ボーダーの色は、前記マーカーの背景の色に対して高コントラストをなしており、それによって、前記背景が前記コンピュータ・ソフトウェアによって、分離され得る、
請求項8に記載のシステム。 - 前記ボーダーの色は黒であり、前記背景の色は白である、
請求項12に記載のシステム。 - 前記コンピュータ・ソフトウェアは、前記ボーダーが部分的にふさがれている場合および前記ボーダー内の前記パターンがふさがれていない場合、1つのマーカーを識別することが可能である、
請求項10に記載のシステム。 - 前記第2シーンが生成されると同時に前記第2シーンを表示するディスクプレイ・デバイスをさらに備える、
請求項1に記載のシステム。 - 前記ディスプレイ・デバイスは、モニタ、テレビスクリーン、LCDまたはPDPである、
請求項15に記載のシステム。 - 前記ディスプレイ・デバイスは、前記画像キャプチャーリング・デバイスのビューファインダ、または、画像若しくはビデオを投影するプロジェクターである、
請求項15に記載のシステム。 - 前記ディスプレイ・デバイスの前記ビデオのフレームレートは、12fps(frames per second)から30fpsの範囲内である、
請求項15に記載のシステム。 - 前記画像キャプチャーリング・デバイスは、前記ディスプレイ・デバイスの上方に配置されている、
請求項1に記載のシステム。 - 前記画像キャプチャーリング・デバイスおよび前記ディスプレイ・デバイスは、ユーザーに向いている、
請求項19に記載のシステム - 前記オブジェクトは、前記ユーザーと前記ディスプレイ・デバイスの間で操作される、
請求項20に記載のシステム - マルチメディア・コンテンツは、2次元画像または3次元モデル、ビデオまたはオーディオの情報を含む、
請求項1に記載のシステム - 前記オブジェクトの前記少なくとも2つの面は、実質的に平面である、
請求項1に記載のシステム - 前記少なくとも2つの面は、互いに接続されている、
請求項23に記載のシステム - 前記オブジェクトは、キューブまたは多面体である、
請求項23に記載のシステム - 前記オブジェクトは、折り畳み可能である、
請求項1に記載のシステム - 前記オブジェクトは、ストーリーを語るための折り畳み可能なキューブである、
請求項26に記載のシステム - 前記コンピュータ・ソフトウェアは、パーソナル・デジタル・アシスタント(PDA)、携帯電話、その他のモバイル・コミュニケーション・デバイス、または、内蔵コンピュータ・プロセッサ付きのコンソール・ボックスといった、モバイルのコンピューティング・デバイスやデスクトップのコンピューティング・デバイスにインストールされる、
請求項1に記載のシステム - 前記画像キャプチャーリング・デバイスは、カメラである、
請求項1に記載のシステム - 前記カメラは、CCDまたはCMOSビデオ・カメラである、
請求項29に記載のシステム - 前記カメラ、前記コンピュータ・ソフトウェアおよび前記ディスプレイ・デバイスは、単一の統合ユニット内に設けられている、
請求項29に記載のシステム。 - 前記カメラ、前記コンピュータ・ソフトウェアおよび前記ディスプレイ・デバイスは、互いに遠く離れた位置に配置されている、
請求項29に記載のシステム。 - 前記関連するマルチメディア・コンテンツは、表示されるビデオ・フレームごとに前記関連するマルチメディア・コンテンツを前記第1シーンにレンダリングすることで、前記第1シーンに重ね合わせられる、
請求項1に記載のシステム。 - 前記オブジェクトの前記位置は、3次元空間で計算される、
請求項1に記載のシステム。 - 位置関係は、前記ディスプレイ・デバイスと前記オブジェクトとの間で推定される、
請求項34に記載のシステム。 - 前記キャプチャーされた画像には、しきい値が設けられる、
請求項1に記載のシステム。 - 隣接する暗い領域は、コネクトテッド・コンポーネント・アルゴリズム(connected components algorithm)を用いて識別される、
請求項36に記載のシステム。 - 輪郭探索技術がこれらの暗い領域の輪郭を識別するのに用いられる、
請求項37に記載のシステム。 - 4つのコーナーを有さない輪郭は、放棄される、
請求項38に記載のシステム。 - 間違ったサイズの領域は、放棄される、
請求項38に記載のシステム。 - 複数の直線は、正方形輪郭の各側に合致する、
請求項38に記載のシステム。 - 前記複数の直線の交点は、コーナー位置の推定として用いられる、
請求項41に記載のシステム。 - 射影変換が前記コーナー位置によって規定された領域をワープして標準の形状にするために用いられる、
請求項42に記載のシステム。 - 前記標準の形状は、前記マーカーを識別し、前記オブジェクトの方向を決定するために、マーカーの格納されている見本パターンと相互相関関係にある、
請求項43に記載のシステム。 - 前記コーナー位置は、前記マーカーの位置に対する前記ディスプレイ・デバイスの位置に関連するユニークなユーグリッド変換行列を識別するために用いられる、
請求項42に記載のシステム。 - 前記インタラクティブ・システムは、インテリア・デザイン・アプリケーションまたはボキャブラリ・ティーチング・アプリケーションである、
請求項1に記載のシステム。 - 少なくとも2つのオブジェクトをさらに備え、
前記少なくとも2つのオブジェクト同士の空間的関係が決定されると、前記識別されたマーカーに関連する前記マルチメディア・コンテンツから先に定められた応答を生じさせる、
請求項1に記載のシステム。 - 前記空間的関係は、オブジェクト同士の距離、積み上げ及び塞がりからなるグループの中から選択される、
請求項47に記載のシステム。 - 前記先に定められた応答は、前記関連するマルチメディア・コンテンツ、少なくとも1つの関連するマルチメディア・コンテンツのアニメーション及び少なくとも1つの関連するマルチメディア・コンテンツのためのオーディオ・レコーディングの再生の相互作用からなるグループの中から選ばれる、
請求項47に記載のシステム。 - ユーザーに複合現実感の経験をもたらすためのインタラクティブ・システムであって、
第1シーン内のオブジェクトの画像をキャプチャーするための画像キャプチャリング・デバイスと、
前記オブジェクトの少なくとも2面をトラックしさらに少なくとも1つのマーカーを識別することで、前記第1シーン内の前記オブジェクトの位置及び向きをトラックするためのコンピュータ・ソフトウェアと、
を備え、
前記コンピュータ・ソフトウェアは、識別されたマーカーに関連するマルチメディア・コンテンツを取得し、さらに前記第1シーン上の前記識別されたマーカーの相対位置に重ね合わされた前記関連するマルチメディア・コンテンツを含む第2シーンを生成し、その結果ユーザーに複合現実感をもたらす、
インタラクティブ・システム。 - ユーザーに複合現実感の経験をもたらすためのソフトウェア・アプリケーションであって、
第1シーンにおける1つのオブジェクトのキャプチャーされた画像を画像キャプチャリング・デバイスから受け取るための画像処理モジュールと、
各面が1つのマーカーを有する前記オブジェクトの少なくとも2面をトラックしさらに少なくとも1つのマーカーを識別することで、前記第1シーン内の前記オブジェクトの位置及び向きをトラックするためのトラッキング・モジュールと、
を備え、
前記ソフトウェア・アプリケーションは、識別されたマーカーに関連するマルチメディア・コンテンツを取得し、さらに前記第1シーン上の前記識別されたマーカーに対する相対位置に重ね合わされた前記関連のマルチメディア・コンテンツを含む第2シーンを生成し、その結果ユーザーに複合現実感の経験をもたらす、
ソフトウェア・アプリケーション。 - 仮想オブジェクトを取得してユーザーに複合現実感の経験をもたらすための取得モジュールであって、
識別されたマーカーに関連するマーカー識別データを受け取るためのデータ・レシーバと、
前記マーカー識別データに関連する仮想オブジェクトを求めて仮想オブジェクトデーターベースを検索するための検察ツールと、
を備え、
マッチングが見つけられると、前記仮想オブジェクトは、実際のシーンの前記識別されたマーカーに対する相対位置に重ね合わされ、それにより複合現実感の経験をユーザーにもたらす、
取得モジュール。 - 1つの識別されたマーカーは、2つ以上の対応仮想オブジェクトを有している、
請求項52記載のモジュール。 - 複合現実感の経験をユーザーにもたらすための関連するマルチメディア・コンテンツのレポジトリであって、
マルチメディア・コンテンツの各アイテムを識別するための識別データフィールドと、
マルチメディア・コンテンツのアイテム又はマルチメディア・コンテンツのアイテムの格納位置を格納するためのコンテンツデータのフィールドと、
を備え、
識別されたマーカーに関連するマーカー識別データは、前記識別データフィールドに関して検索され、さらに前記識別されたマーカーに関連するマルチメディア・コンテンツは、取得されて実際のシーン上の前記識別されたマーカーに対する相対位置に重ね合わされて、それにより複合現実感の経験をユーザーにもたらす、
レポジトリ。 - 複合現実感の経験をユーザーにもたらすための複合現実感コンテンツを搬送する信号であって、
実際のシーンと、識別されたマーカーに関連するマルチメディア・コンテンツであって、前記実際のシーン上の前記識別されたマーカーに対する相対位置に重ね合わされた関連するマルチメディア・コンテンツとを含むグラフィック情報を備え、
前記識別されたマーカーは、各面におけるマーカーを有するオブジェクトの少なくとも2つの面をトラックすることによって識別される、
信号。 - 識別されたマーカーに関連するオーディオ情報をさらに備える、
請求項55に記載の信号。
- ユーザーに複合現実感の経験をもたらすためのインタラクティブ・システムで用いられる有形のオブジェクトであって、
少なくとも2つの面と、
不連続のボーダー及び前記ボーダー内の画像を有する、各面における1つのマーカーと、
を備え、
前記ボーダーの不連続は、前記ボーダー内のイメージの配置(位置合わせ)及び前記オブジェクトの向きを示している、
有形のオブジェクト。 - 前記オブジェクトの少なくとも1つの面をトラックすることで、前記オブジェクトの位置と方向がトラックされる、
請求項57に記載のオブジェクト。 - ユーザーに複合現実感の経験をもたらすためのインタラクティブ・システムで用いられる有形のオブジェクトのマーカーであって、
不連続のボーダーと、
前記ボーダー内の画像と、
を備え、
1つのシーンにおいて前記マーカーを識別するために、前記ボーダーが前記シーン内に配置され、前記ボーダー内の前記画像が画像レポジトリ内のマッチング画像を見つけるためにサーチされる、
マーカー。 - コンピュータ・ソフトウェアは、前記マーカーが識別された場合、前記マーカーに関連するマルチメディア・コンテンツを取得する、
請求項59に記載のマーカー。 - 複合現実感の経験をユーザーにもたらすための方法であって、
各面に1つのマーカーを有する少なくとも2つの面を有するオブジェクトの画像を第1シーンでキャプチャーすることと、
前記オブジェクトの少なくとも2つの面をトラックすることで、前記第1シーン内の前記オブジェクトの位置及び向きをトラックすることと、
少なくとも1つのマーカーを識別することと、
を備え、
識別されたマーカーに関連するマルチメディア・コンテンツが取得され、さらに前記第1シーン上の前記識別されたマーカーに対する相対位置に重ね合わされた前記関連するマルチメディア・コンテンツを含む第2シーンを生成し、それにより複合現実感の経験をユーザーにもたらす、
方法。 - 複合現実感の経験をユーザーにもたらすためのオブジェクトをトラックする方法であって、
各面に1つのマーカーがあるオブジェクトの各面のための変換行列を計算するステップと、
最高のトラッキング信頼性を有する面を識別するステップと、
前記識別された面と前記オブジェクトとの物理的関係に基づいて、マーカー座標系からオブジェクト座標系への変換行列を計算するステップと、
を備え、
前記オブジェクト座標系からカメラ座標系への変換行列は、前記オブジェクト座標系から表面座標系への変換行列に前記表面座標系からカメラ座標系への変換行列を乗算することで、計算される、
方法。 - 静止位置にある前記オブジェクトの上面の法線をキャプチャーする初期ステップをさらに備えている、
請求項62に記載の方法。 - 前記変換行列を用いて最大の内積を生成する面を計算することで、前記オブジェクトの上面を決定するステップをさらに備えている、
請求項63に記載の方法。 - 前記オブジェクトの操作の間、前記オブジェクトの上面は、前記変換行列を用いて最大の内積を生成する面を連続して計算することで、決定される、
請求項64に記載の方法。 - 複合現実感の経験をユーザーにもたらすための画像キャプチャリング・デバイスであって、
第1シーンにおける1つのオブジェクトのキャプチャーされた複数の画像を受け取るための画像処理モジュールと、
各面が1つのマーカーを有するオブジェクトの少なくとも2つの面をトラックしさらに少なくとも1つのマーカーを識別することで、前記第1シーン内の前記オブジェクトの位置及び向きをトラックするためのトラッキング・モジュールと、
を備え、
前記デバイスは識別されたマーカーに関連するマルチメディア・コンテンツを取得し、さらに前記第1シーン上の前記識別されたマーカーに対する相対位置に重ね合わされた前記関連するマルチメディア・コンテンツを含む第2シーンを生成し、その結果ユーザーに複合現実感の経験をもたらす、
画像キャプチャリング・デバイス。 - コンピュータにより実行可能なインストラクション(命令)を担持するコンピュータにより読み取り可能なメディアからなるコンピュータプログラム・プロダクトであって、
第1シーンにおける1つのオブジェクトのキャプチャーされた画像を画像キャプチャリング・デバイスから受け取ることと、
各面が1つのマーカーを有する前記オブジェクトの少なくとも2つの面をトラックし、さらに少なくとも1つのマーカーを識別することで、前記第1シーン内の前記オブジェクトの位置及び向きをトラックすることと、
を備え、
識別されたマーカーに関連するマルチメディア・コンテンツは取得され、さらに前記第1シーン上の前記識別されたマーカーに対する相対位置に重ね合わされた前記関連するマルチメディア・コンテンツを含む第2シーンが生成され、それにより複合現実感の経験をユーザーにもたらす、
コンピュータプログラム・プロダクト。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/857,698 US7295220B2 (en) | 2004-05-28 | 2004-05-28 | Interactive system and method |
PCT/SG2005/000146 WO2005116807A1 (en) | 2004-05-28 | 2005-05-09 | An interactive system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008501184A true JP2008501184A (ja) | 2008-01-17 |
Family
ID=35424675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007514998A Pending JP2008501184A (ja) | 2004-05-28 | 2005-05-09 | インタラクティブ・システム及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US7295220B2 (ja) |
EP (1) | EP1769321A1 (ja) |
JP (1) | JP2008501184A (ja) |
KR (1) | KR20070050878A (ja) |
CN (1) | CN101031866B (ja) |
WO (1) | WO2005116807A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013140678A1 (ja) * | 2012-03-23 | 2013-09-26 | Necビッグローブ株式会社 | 情報処理システム |
JP2014503923A (ja) * | 2011-01-31 | 2014-02-13 | クアルコム,インコーポレイテッド | コンテキストアウェアな拡張相互作用 |
KR20180014676A (ko) * | 2016-08-01 | 2018-02-09 | 코그넥스코오포레이션 | 비전 시스템에서 3d 정렬 알고리즘의 자동 선택을 위한 시스템 및 방법 |
KR20190002834A (ko) * | 2017-06-30 | 2019-01-09 | 강동민 | 홈 스타일링 서버 및 이를 포함하는 시스템과, 홈 스타일링을 위한 영상 처리 방법 |
JP7123222B1 (ja) | 2021-06-18 | 2022-08-22 | ヤフー株式会社 | 表示制御装置、表示制御方法および表示制御プログラム |
Families Citing this family (77)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120154438A1 (en) * | 2000-11-06 | 2012-06-21 | Nant Holdings Ip, Llc | Interactivity Via Mobile Image Recognition |
US8817045B2 (en) | 2000-11-06 | 2014-08-26 | Nant Holdings Ip, Llc | Interactivity via mobile image recognition |
JP3904562B2 (ja) * | 2004-02-18 | 2007-04-11 | 株式会社ソニー・コンピュータエンタテインメント | 画像表示システム、記録媒体及びプログラム |
JP3851907B2 (ja) * | 2004-02-18 | 2006-11-29 | 株式会社ソニー・コンピュータエンタテインメント | 画像表示システム及びビデオゲームシステム |
US20050288078A1 (en) * | 2004-05-28 | 2005-12-29 | Cheok Adrian D | Game |
US7474318B2 (en) | 2004-05-28 | 2009-01-06 | National University Of Singapore | Interactive system and method |
US20050289590A1 (en) * | 2004-05-28 | 2005-12-29 | Cheok Adrian D | Marketing platform |
US20050285878A1 (en) * | 2004-05-28 | 2005-12-29 | Siddharth Singh | Mobile platform |
CN101273368A (zh) | 2005-08-29 | 2008-09-24 | 埃韦里克斯技术股份有限公司 | 经由移动图像识别的交互 |
JP4757115B2 (ja) * | 2006-06-28 | 2011-08-24 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
EP1926051A3 (en) * | 2006-11-21 | 2011-08-03 | MindSpace Solutions Ltd. | Network connected media platform |
US8782043B2 (en) * | 2007-07-10 | 2014-07-15 | Nbc Universal, Inc. | Multi-sided media viewer and technique for media association |
WO2009040675A2 (en) * | 2007-09-24 | 2009-04-02 | View22 Technology Inc. | Facilitating electronic commerce via a 3d virtual environment |
US8358320B2 (en) * | 2007-11-02 | 2013-01-22 | National University Of Singapore | Interactive transcription system and method |
KR100974900B1 (ko) * | 2008-11-04 | 2010-08-09 | 한국전자통신연구원 | 동적 임계값을 이용한 마커 인식 장치 및 방법 |
US8817092B2 (en) * | 2008-11-25 | 2014-08-26 | Stuart Leslie Wilkinson | Method and apparatus for generating and viewing combined images |
US8970690B2 (en) * | 2009-02-13 | 2015-03-03 | Metaio Gmbh | Methods and systems for determining the pose of a camera with respect to at least one object of a real environment |
DE102009037835B4 (de) | 2009-08-18 | 2012-12-06 | Metaio Gmbh | Verfahren zur Darstellung von virtueller Information in einer realen Umgebung |
KR20110036463A (ko) * | 2009-10-01 | 2011-04-07 | 엘지전자 주식회사 | 이동단말기 및 그의 브라우징 방법 |
WO2011054132A1 (en) * | 2009-11-06 | 2011-05-12 | Thomson Licensing | Method and device for adaptive 3d rendering |
JP4816789B2 (ja) * | 2009-11-16 | 2011-11-16 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラムおよび情報処理システム |
US8499257B2 (en) * | 2010-02-09 | 2013-07-30 | Microsoft Corporation | Handles interactions for human—computer interface |
US8682879B2 (en) * | 2010-04-16 | 2014-03-25 | Bizmodeline Co., Ltd. | Marker search system for augmented reality service |
US8381108B2 (en) | 2010-06-21 | 2013-02-19 | Microsoft Corporation | Natural user input for driving interactive stories |
KR101399248B1 (ko) * | 2010-07-29 | 2014-05-27 | 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 | 증강 현실용 기준 마커 |
CN102385571B (zh) | 2010-09-06 | 2016-03-30 | 联想(北京)有限公司 | 一种显示方法及显示装置 |
CN102036054B (zh) * | 2010-10-19 | 2013-04-17 | 北京硅盾安全技术有限公司 | 一种基于三维虚拟场景的智能视频监控*** |
JP5480777B2 (ja) * | 2010-11-08 | 2014-04-23 | 株式会社Nttドコモ | オブジェクト表示装置及びオブジェクト表示方法 |
KR101295712B1 (ko) * | 2010-11-22 | 2013-08-16 | 주식회사 팬택 | 증강 현실 사용자 인터페이스 제공 장치 및 방법 |
CN102004552A (zh) * | 2010-12-06 | 2011-04-06 | 深圳泰山在线科技有限公司 | 一种基于跟踪点识别的加强用户现场运动体验的方法和*** |
KR101269773B1 (ko) * | 2010-12-13 | 2013-05-30 | 주식회사 팬택 | 증강 현실 제공 단말기 및 방법 |
CN102568025B (zh) * | 2010-12-20 | 2013-09-04 | 福建星网视易信息***有限公司 | 在显示器中使3d对象运动而不重叠的方法和显示*** |
US9111326B1 (en) | 2010-12-21 | 2015-08-18 | Rawles Llc | Designation of zones of interest within an augmented reality environment |
US9721387B2 (en) | 2010-12-21 | 2017-08-01 | Cyberlink Corp. | Systems and methods for implementing augmented reality |
US8845110B1 (en) | 2010-12-23 | 2014-09-30 | Rawles Llc | Powered augmented reality projection accessory display device |
US9134593B1 (en) | 2010-12-23 | 2015-09-15 | Amazon Technologies, Inc. | Generation and modulation of non-visible structured light for augmented reality projection system |
US8905551B1 (en) | 2010-12-23 | 2014-12-09 | Rawles Llc | Unpowered augmented reality projection accessory display device |
US8845107B1 (en) | 2010-12-23 | 2014-09-30 | Rawles Llc | Characterization of a scene with structured light |
US9721386B1 (en) | 2010-12-27 | 2017-08-01 | Amazon Technologies, Inc. | Integrated augmented reality environment |
US9508194B1 (en) | 2010-12-30 | 2016-11-29 | Amazon Technologies, Inc. | Utilizing content output devices in an augmented reality environment |
US9607315B1 (en) * | 2010-12-30 | 2017-03-28 | Amazon Technologies, Inc. | Complementing operation of display devices in an augmented reality environment |
US10242456B2 (en) | 2011-06-23 | 2019-03-26 | Limitless Computing, Inc. | Digitally encoded marker-based augmented reality (AR) |
SG11201400429RA (en) * | 2011-09-08 | 2014-04-28 | Paofit Holdings Pte Ltd | System and method for visualizing synthetic objects withinreal-world video clip |
US9118782B1 (en) | 2011-09-19 | 2015-08-25 | Amazon Technologies, Inc. | Optical interference mitigation |
CN103366352B (zh) | 2012-03-30 | 2017-09-22 | 北京三星通信技术研究有限公司 | 用于产生背景被虚化的图像的设备和方法 |
GB2501145A (en) * | 2012-04-12 | 2013-10-16 | Supercell Oy | Rendering and modifying objects on a graphical user interface |
WO2013176525A1 (ko) * | 2012-05-25 | 2013-11-28 | 주식회사 고영테크놀러지 | 수술용 내비게이션 시스템의 증강현실을 위한 카메라 레지스트레이션 방법 |
KR101427730B1 (ko) | 2012-05-25 | 2014-09-23 | 주식회사 고영테크놀러지 | 수술용 내비게이션 시스템의 증강현실을 위한 카메라 레지스트레이션 방법 |
US9280788B2 (en) * | 2012-06-13 | 2016-03-08 | Oracle International Corporation | Information retrieval and navigation using a semantic layer |
US9870642B2 (en) * | 2012-08-10 | 2018-01-16 | Here Global B.V. | Method and apparatus for layout for augmented reality view |
CN102945563B (zh) * | 2012-09-26 | 2017-05-24 | 天津游奕科技有限公司 | 一种全景视频的展示与交互***及方法 |
KR101720097B1 (ko) * | 2013-07-12 | 2017-04-11 | 한국교통연구원 | 사용자 기기의 측위방법 |
US8958663B1 (en) * | 2013-09-24 | 2015-02-17 | Zazzle Inc. | Automated imaging of customizable products |
US9626737B2 (en) * | 2013-11-15 | 2017-04-18 | Canon Information And Imaging Solutions, Inc. | Devices, systems, and methods for examining the interactions of objects in an enhanced scene |
GB2542518B (en) * | 2014-05-21 | 2020-07-22 | Tangible Play Inc | Virtualization of tangible interface objects |
US9865089B2 (en) * | 2014-07-25 | 2018-01-09 | Microsoft Technology Licensing, Llc | Virtual reality environment with real world objects |
WO2016040466A1 (en) | 2014-09-10 | 2016-03-17 | Hasbro, Inc. | Toy system with manually operated scanner |
WO2016172506A1 (en) | 2015-04-23 | 2016-10-27 | Hasbro, Inc. | Context-aware digital play |
BE1023079B1 (fr) * | 2015-10-06 | 2016-11-17 | Next-Tech Sprl | Système de conception pour aider à la conception d'un aménagement d'un espace |
CN106571072A (zh) * | 2015-10-26 | 2017-04-19 | 苏州梦想人软件科技有限公司 | 基于增强现实幼教卡片的实现方法 |
KR101700120B1 (ko) * | 2015-10-28 | 2017-01-31 | 주식회사 아이에스엘코리아 | 사물 인식 장치 및 방법, 이를 포함하는 시스템 |
US10720082B1 (en) | 2016-09-08 | 2020-07-21 | Ctskh, Llc | Device and system to teach stem lessons using hands-on learning method |
CN106383578B (zh) * | 2016-09-13 | 2020-02-04 | 网易(杭州)网络有限公司 | 虚拟现实***、虚拟现实交互装置及方法 |
AU2017101277A4 (en) | 2016-09-16 | 2017-10-26 | Christopher Ghaleb | A floorplan visualisation system |
CN106780754B (zh) * | 2016-11-30 | 2021-06-18 | 福建北极光虚拟视觉展示科技有限公司 | 一种混合现实方法及*** |
CN110140100B (zh) * | 2017-01-02 | 2020-02-28 | 摩致实验室有限公司 | 三维增强现实对象用户界面功能 |
CN107276883B (zh) * | 2017-06-19 | 2020-09-25 | 李明 | 用于混合现实的终端装置、网络侧装置及信息交互方法 |
CN110120100B (zh) * | 2018-02-06 | 2023-07-14 | 广东虚拟现实科技有限公司 | 图像处理方法、装置及识别跟踪*** |
EP3557380B1 (en) * | 2018-04-20 | 2024-07-03 | Cadwalk Global Pty Ltd | An arrangement for the relocating of virtual object images within a real non-electronic space |
CN108596105B (zh) * | 2018-04-26 | 2023-02-03 | 李辰 | 增强现实书画*** |
CN108961422B (zh) * | 2018-06-27 | 2023-02-14 | 百度在线网络技术(北京)有限公司 | 三维模型的标记方法和装置 |
CN109284000B (zh) * | 2018-08-10 | 2022-04-01 | 西交利物浦大学 | 一种虚拟现实环境下三维几何物体可视化的方法及*** |
CN109343714B (zh) * | 2018-11-01 | 2022-02-18 | 北京天际微动科技有限公司 | 一种基于立方体的现实增强多场景实现方法、装置及*** |
CN113133829B (zh) * | 2021-04-01 | 2022-11-01 | 上海复拓知达医疗科技有限公司 | 一种手术导航***、方法、电子设备和可读存储介质 |
CN113343207A (zh) * | 2021-06-07 | 2021-09-03 | 网易(杭州)网络有限公司 | 信息验证的方法、装置、计算机设备及存储介质 |
KR20230032842A (ko) | 2021-08-31 | 2023-03-07 | 한국기술교육대학교 산학협력단 | 스마트 운동 코치 방법 및 장치 |
CN116563495A (zh) | 2022-01-27 | 2023-08-08 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、计算机设备以及可读存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003515829A (ja) * | 1999-11-23 | 2003-05-07 | キヤノン株式会社 | 画像処理装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6655597B1 (en) * | 2000-06-27 | 2003-12-02 | Symbol Technologies, Inc. | Portable instrument for electro-optically reading indicia and for projecting a bit-mapped color image |
EP0807352A1 (en) * | 1995-01-31 | 1997-11-19 | Transcenic, Inc | Spatial referenced photography |
US6064354A (en) * | 1998-07-01 | 2000-05-16 | Deluca; Michael Joseph | Stereoscopic user interface method and apparatus |
CN100428218C (zh) * | 2002-11-13 | 2008-10-22 | 北京航空航天大学 | 一种实现通用虚拟环境漫游引擎的方法 |
-
2004
- 2004-05-28 US US10/857,698 patent/US7295220B2/en active Active
-
2005
- 2005-05-09 JP JP2007514998A patent/JP2008501184A/ja active Pending
- 2005-05-09 KR KR1020067027499A patent/KR20070050878A/ko not_active Application Discontinuation
- 2005-05-09 CN CN2005800252251A patent/CN101031866B/zh not_active Expired - Fee Related
- 2005-05-09 WO PCT/SG2005/000146 patent/WO2005116807A1/en active Application Filing
- 2005-05-09 EP EP05737580A patent/EP1769321A1/en not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003515829A (ja) * | 1999-11-23 | 2003-05-07 | キヤノン株式会社 | 画像処理装置 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014503923A (ja) * | 2011-01-31 | 2014-02-13 | クアルコム,インコーポレイテッド | コンテキストアウェアな拡張相互作用 |
KR101554797B1 (ko) | 2011-01-31 | 2015-09-21 | 퀄컴 인코포레이티드 | 콘텍스트 인식 증강 상호작용 |
WO2013140678A1 (ja) * | 2012-03-23 | 2013-09-26 | Necビッグローブ株式会社 | 情報処理システム |
JP2013200633A (ja) * | 2012-03-23 | 2013-10-03 | Nec Biglobe Ltd | 情報処理システム |
KR20180014676A (ko) * | 2016-08-01 | 2018-02-09 | 코그넥스코오포레이션 | 비전 시스템에서 3d 정렬 알고리즘의 자동 선택을 위한 시스템 및 방법 |
KR102011564B1 (ko) | 2016-08-01 | 2019-08-16 | 코그넥스코오포레이션 | 비전 시스템에서 3d 정렬 알고리즘의 자동 선택을 위한 시스템 및 방법 |
KR20190002834A (ko) * | 2017-06-30 | 2019-01-09 | 강동민 | 홈 스타일링 서버 및 이를 포함하는 시스템과, 홈 스타일링을 위한 영상 처리 방법 |
KR102019299B1 (ko) | 2017-06-30 | 2019-09-06 | 강동민 | 홈 스타일링 서버 및 이를 포함하는 시스템과, 홈 스타일링을 위한 영상 처리 방법 |
JP7123222B1 (ja) | 2021-06-18 | 2022-08-22 | ヤフー株式会社 | 表示制御装置、表示制御方法および表示制御プログラム |
JP2023000948A (ja) * | 2021-06-18 | 2023-01-04 | ヤフー株式会社 | 表示制御装置、表示制御方法および表示制御プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2005116807A1 (en) | 2005-12-08 |
KR20070050878A (ko) | 2007-05-16 |
US7295220B2 (en) | 2007-11-13 |
CN101031866B (zh) | 2010-11-10 |
US20050264555A1 (en) | 2005-12-01 |
CN101031866A (zh) | 2007-09-05 |
EP1769321A1 (en) | 2007-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008501184A (ja) | インタラクティブ・システム及び方法 | |
US7474318B2 (en) | Interactive system and method | |
US20050288078A1 (en) | Game | |
Billinghurst et al. | Tangible augmented reality | |
KR101481880B1 (ko) | 휴대용 실감형 상호작용을 위한 시스템 | |
US9330478B2 (en) | Augmented reality creation using a real scene | |
Benko et al. | Multi-point interactions with immersive omnidirectional visualizations in a dome | |
US20050289590A1 (en) | Marketing platform | |
Ha et al. | Digilog book for temple bell tolling experience based on interactive augmented reality | |
Schou et al. | A Wii remote, a game engine, five sensor bars and a virtual reality theatre | |
US10866563B2 (en) | Setting hologram trajectory via user input | |
LaViola et al. | 3D spatial interaction: applications for art, design, and science | |
US20050285878A1 (en) | Mobile platform | |
EP1621985A2 (en) | Method and system for the interaction between objects and a virtual environment | |
EP3814876B1 (en) | Placement and manipulation of objects in augmented reality environment | |
CN102915112A (zh) | 用于近距离动作跟踪的***和方法 | |
US20130080976A1 (en) | Motion controlled list scrolling | |
Lai et al. | Mobile edutainment with interactive augmented reality using adaptive marker tracking | |
Monteiro et al. | Teachable reality: Prototyping tangible augmented reality with everyday objects by leveraging interactive machine teaching | |
Hosoi et al. | VisiCon: a robot control interface for visualizing manipulation using a handheld projector | |
CN114931746B (zh) | 基于笔式和触屏交互的3d游戏的交互方法、装置及介质 | |
KR20140078083A (ko) | 증강 현실이 구현된 만화책 | |
Nguyen | Developing a multiplayer AR game using AR Foundation and Unity | |
Černeková et al. | Single camera pointing gesture recognition for interaction in edutainment applications | |
Sorokin | Tangible Augmented Reality Tabletop Game |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101019 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110118 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110125 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110412 |