JP4537104B2 - マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法 - Google Patents

マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法 Download PDF

Info

Publication number
JP4537104B2
JP4537104B2 JP2004106243A JP2004106243A JP4537104B2 JP 4537104 B2 JP4537104 B2 JP 4537104B2 JP 2004106243 A JP2004106243 A JP 2004106243A JP 2004106243 A JP2004106243 A JP 2004106243A JP 4537104 B2 JP4537104 B2 JP 4537104B2
Authority
JP
Japan
Prior art keywords
marker
image
area
captured image
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004106243A
Other languages
English (en)
Other versions
JP2005293141A5 (ja
JP2005293141A (ja
Inventor
和樹 武本
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004106243A priority Critical patent/JP4537104B2/ja
Priority to US11/091,624 priority patent/US7519218B2/en
Publication of JP2005293141A publication Critical patent/JP2005293141A/ja
Publication of JP2005293141A5 publication Critical patent/JP2005293141A5/ja
Application granted granted Critical
Publication of JP4537104B2 publication Critical patent/JP4537104B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像から所定の視覚的特徴を有する領域(マーカ)を検出する技術に関し、特に誤って検出したマーカを排除する技術に関するものである。
複合現実空間提示システムでは、現実空間の画像と非現実空間(仮想空間)の画像を合成した複合現実空間画像を、HMDを通じて提示することにより、HMDを装着するユーザに複合現実空間(又は複合現実感)を体感させることができる(非特許文献1参照)。
このような複合現実空間提示システムにおいて、現実空間を撮影する撮像装置の位置姿勢(あるいは、撮像装置に対する現実物体の位置姿勢)を求める方法として、例えば非特許文献2に記載されるような、マーカ(ランドマークとも呼ばれる)を用いる方法が知られている。これは、現実空間中の既知の三次元座標に所定の視覚的特徴を有する物体(マーカ)を配置し、撮像画像中に含まれるマーカを検出し、検出したマーカの構成要素(マーカの重心や頂点など)の二次元画像位置と、既知の三次元座標とから撮像装置の位置姿勢を算出する方法である。
また、非特許文献3には、前フレームでの位置姿勢を初期値として、画面上における対応点の誤差が最小になるように撮像部の位置姿勢を繰り返し修正する方法が開示されている。
さらに、特許文献1には、マーカと位置姿勢センサとを組み合わせて用いることにより撮像装置の位置姿勢を求める方法が開示されている。これは、計測範囲が限定され、かつ計測誤差を有する6自由度センサ又は3自由度センサを撮像装置に固定し、6自由度センサ又は3自由度センサにより測定される位置姿勢情報と、撮像画像上のマーカ検出により得られる位置姿勢情報とを組み合わせることにより、測定精度を向上させようとするものである。
これらの方法ではいずれも、得られる位置姿勢の精度がマーカの検出精度に大きく影響される。例えば、撮影画像からマーカと認識した複数の領域のうち、1つでも誤検出したものが含まれると、最終的に得られる位置姿勢の精度は大きく悪化する。このような誤検出を誘発する要因として、撮像した現実空間内にマーカと似た画像的な特徴を有する物体が存在しうることが挙げられる。
このような類似の特徴を有するマーカ以外の領域を誤検出することを回避するため、現実空間内に存在する確率の低い視覚的特徴(形状や模様、色など)を持つマーカを使用する方法が採られることが多い。
特開平11−136706号公報 H. Tamura, H. Yamamoto and A. Katayama: "Mixed reality: Future dreams seen at the border between real and virtual worlds," Computer Graphics and Applications, vol.21, no.6, pp.64-70, 2001. 加藤ら:"マーカー追跡に基づく拡張現実感システムとそのキャリブレーション", 日本VR 学会論文誌, Vol.4, No.4,pp.607-616 (1999) 内山晋二, 山本裕之, 田村秀行:"複合現実感のためのハイブリッド位置合わせ手法−6自由度センサとICP アルゴリズムの併用−", 画像の認識・理解シンポジウム(MIRU 2002)論文集I, 情報処理学会シンポジウムシリーズ, vol.2002, no.11, pp.I.107-I.112, 2002.
しかし、マーカを利用した位置姿勢の算出(推定)精度を低下させる要因としては、上述したような、「マーカ以外のものを誤って検出する」こと以外にも存在する。例えば、検出を妨げない程度に一部が他の物体に隠された状態にあるマーカ(以後、部分隠蔽されたマーカと呼ぶ)に帰因する精度低下である。部分隠蔽されたマーカは、本来検出されるべき領域とは異なる形状の領域として検出されるため、重心位置や頂点の座標が誤って認識又は算出され、最終的な撮像装置の位置姿勢算出精度を悪化させる。以下、マーカが部分隠蔽されることにより、マーカの情報が正しく得られない状態を部分隠蔽による誤検出と呼ぶ。
図5及び図6は、部分隠蔽による誤検出の例を説明する図である。図5において、マーカ(矩形マーカ4000A)は、その内部に矩形5020を有している。このようなマーカを利用する場合、矩形5020の4頂点(5030、5040、5050及び5060)を正しく検出する必要がある。
しかし、図5(A)に示すように、矩形5020の4頂点のうちの2頂点5030、5040が、ユーザの手4020Rによって隠蔽されている状況においては、図5(B)のような画像処理(例えば二値化)によって矩形5020を検出した場合、手4020Rと矩形5020との接点6010、6020を頂点5030、5040であると誤認識してしまう(図5(C))。
また、図6は、図6(A)に示すマーカ(色領域マーカ4010)の一部が図6(B)に示すようにユーザの手4020Rによって隠蔽された場合を示している。この場合、マーカの重心点として、本来の位置7000ではなく、誤った位置7010が検出されてしまう。
マーカを利用した撮像装置の位置姿勢算出は、世界座標系において既知なマーカ(又はマーカが有するパターン)の頂点や重心位置が、撮像装置の座標系においてどのような座標として検出されるかを元に行われる。従って、画像中で検出したマーカの特徴点(頂点や重心など)が誤って検出されると、最終的に得られる位置姿勢情報の精度悪化を引き起こす。
しかしながら、従来のマーカ検出方法では、部分隠蔽による誤検出が生じても、誤検出だと判断できないという課題があった。
本発明は、このような従来技術の課題に鑑みなされたものであり、マーカの部分隠蔽が原因で誤検出されたマーカの特徴点(上の例における頂点座標や重心位置)の利用を抑制することをその主な目的とする。
上述の目的は、撮像されたマーカを撮像画像から検出するマーカ検出方法であって、撮像画像を取得する画像取得工程と、撮像画像から、マーカの形状、色、もしくは模様に対応するマーカ領域を検出するマーカ領域検出工程と、検出されたマーカ領域に、所定色の画素を含んだ隣接領域が存在するか否かを検査する隣接領域検査工程と、検出されたマーカ領域のうち、所定色の画素を含んだ隣接領域が存在するマーカ領域を無効なマーカ領域と判定する判定工程とを有することを特徴とするマーカ検出方法によって達成される。
また、上述の目的は、撮像されたマーカを撮像画像から検出するマーカ検出方法であって、撮像画像を取得する画像取得工程と、撮像画像から、マーカの形状、色、もしくは模様に対応するマーカ領域を検出するマーカ領域検出工程と、検出されたマーカ領域の頂点毎に定められる隣接領域に、所定色の画素を含んだ隣接領域が存在するか否かを検査する隣接領域検査工程と、検出されたマーカ領域の頂点のうち、所定色の画素を含んだ隣接領域が存在する頂点を無効な頂点と判定する判定工程とを有することを特徴とするマーカ検出方法によっても達成される。
本発明によれば、部分隠蔽の可能性のあるマーカをマーカ領域の隣接領域に含まれる色によって判定することで、誤検出されたマーカの特徴点の利用を抑制することが可能になる。従って、撮像部の位置姿勢推定にマーカを用いる場合の推定精度を向上することが可能になる。
[第1の実施形態]
以下、添付図面を参照して、本発明をその最適な実施形態に基づき詳細に説明する。
以下の説明においては、ビデオシースルー(Video See-Through)型のヘッドマウントディスプレイ(HMD)を用いた複合現実(Mixed Reality : MR)空間提示システムに、本発明の実施形態に係るマーカ検出装置を適用した場合について説明する。
本発明のマーカ検出装置により、ビデオシースルー型のHMDに取り付けた撮像部(以降、特に断らない限り「撮像部」という言葉は左右一対のカメラをまとめて指す)の位置姿勢を精度良く推定することができる。その結果、現実空間を撮像した現実空間画像上にコンピュータグラフィックス等により描画された仮想空間の画像をより正しく位置合わせして重畳合成することが可能になり、この合成画像をHMDを通じて観察するユーザが複合現実空間(以下、MR空間と呼称する)を違和感無く、より自然に体験できる。
複合現実空間提示システムでは、現実空間の画像と非現実空間(仮想空間)の画像を合成した複合現実空間画像を、HMDを通じて提示することにより、HMDを装着するユーザに複合現実空間(又は複合現実感)を体感させることができる。なお、このような、複合現実感に関する技術(MR技術)についての情報は、例えば、非特許文献1から得ることができる。
MR空間を表現するためには、現実空間中に定義した基準座標系(現実空間に重畳しようとする仮想物体の位置姿勢を決定する基準となる現実空間中の座標系)と、撮像部の座標系(カメラ座標系)との間の、相対的な位置姿勢関係を得ることが不可欠である。なぜなら、仮想物体(仮想空間画像)を違和感なく現実空間画像に重畳表示するためには、現実空間画像を撮影する撮像部の実際のカメラパラメータ(すなわち、焦点距離や主点などのカメラ内部パラメータと撮像部の位置と姿勢を表すカメラ外部パラメータ)と同一のカメラパラメータを用いて仮想物体の画像を生成しなければならないからである。カメラ内部パラメータは撮像部固有で変化しない値であるため、予め用意しておくことが可能である。例えば、現実物体であるテーブル上のある位置に仮想物体を重畳表示する場合には、テーブルに基準座標系を定義し、その基準座標系における撮像部の位置姿勢(カメラ外部パラメータ)を求めればよい。また、観察者が手に保持する現実の箱に何らかの仮想の模様やラベルを重畳表示する場合には、箱自身の物体座標系を基準座標系と考え、カメラ座標系における箱(基準座標系)の位置姿勢を求めればよい。
なお、以下では、基準座標系に対する撮像部(カメラ座標系)の相対的な位置姿勢を、便宜的に「撮像部の位置姿勢」と呼称する。基準座標系と撮像部との間の相対的な位置姿勢とは、基準座標系に対する撮像部の位置姿勢、撮像部に対する基準座標系の位置姿勢、あるいは、これらを表現可能なデータ形式(例えば、基準座標系からカメラ座標系への座標変換行列や、カメラ座標系から基準座標系への座標変換行列)といった、一意に変換可能でありかつ本質的に同一の事象を表す情報を総称するものである。
本実施形態では、現実物体の上に配置したマーカを撮影画像中から検出し、そのマーカの検出結果を用いて、物体座標系を基準座標系とした撮像部の位置姿勢を推定する。本実施形態に係るマーカ検出装置によれば、前述の部分隠蔽による誤検出が生じる状況においても、それが誤検出であることを判別することが可能であり、誤検出された情報を利用しないことにより、撮像部の位置姿勢を精度良く求めることが可能である。
<構成>
図1は本実施形態に係るマーカ検出装置を含む複合現実空間提示システムの機能構成例を示すブロック図である。また図2は、この複合現実空間提示システムの外観を模式的に示す図である。また図3は、この複合現実空間提示システムの使用時の状態を示す模式図である。尚、各図で同じ部分については同じ番号を付けている。
本実施形態において、複合現実空間提示システムは、観察者(ユーザ)4030が位置姿勢を変更可能な可動物体3010を用い、可動物体3010の位置姿勢に応じて可動物体3010の近辺に仮想物体を表示するものとする。
HMD1000には、撮像部1010、表示部1030が設けられている。本実施形態では図2に示すように、撮像部1010と表示部1030とは2つずつあり、撮像部1010R、表示部1030Rは右目用、撮像部1010L、表示部1030Lは左目用である。このような構成を有することにより、このHMD1000を頭部に装着した観察者4030の右目と左目には、視差画像を提示することができ、複合現実空間を三次元表示することが可能である。
つまり、本実施形態では、撮像部1010Rが撮像した現実空間の画像と、後段のワークステーション2040が生成した右目用の仮想空間の画像とが重畳された右目用の複合現実空間画像(この重畳画像を以下、MR画像と呼称する)を表示部1030Rにより右目に提示し、撮像部1010Lが撮像した現実空間の画像と、後段のワークステーション2040が生成した左目用の仮想空間の画像とが重畳された左目用のMR画像を表示部1030Lにより左目に提示するので、結果として観察者4030はステレオMR画像を観察することができる。なお、このようなステレオMR画像の生成、提示に関する一般的な手法自体は周知であり、かつ本発明の本質とは関係ないため、これ以上の説明は行わない。
また、本実施形態に係るマーカ検出装置は、一つの撮像部、表示部を右目、左目で共有するシステム(即ち観察者4030がモノラルMR画像を観察する場合)や、MR画像を単眼のみに表示するシステムに対しても適用可能である。
また、現実空間画像を取得し、また観察者4030にMR画像を提示するための手段として本実施形態ではHMDを用いるが、撮像部1010と表示部1030を少なくとも1対有する装置であれば任意の装置が利用可能である。さらには、撮像部1010と表示部1030とは互いに固定されている必要もない。
なお、説明を簡潔にし、また理解を容易にするために、以下、特に右目用、左目用等の、ステレオ画像を表す修飾語により特定される場合を除き、撮像部、表示部はそれぞれ1つの構成要素として取り扱う。また、システム内の他の構成要素や、そこで行われる処理や生成される画像についても、1つの要素、処理、画像として取り扱う。
撮像画像取得部1040は、撮像部1010によって撮像された現実空間の撮像画像(カラー画像)を入力し、画像データとして後述する記憶部1090に出力する。
マーカ検出部1050では、記憶部1090が保持している撮像画像の中からマーカの検出を行う。本実施形態では、マーカとして、図4に示すような、矩形形状のマーカ(以降、矩形マーカと呼ぶ)を用いる。矩形マーカ4000は、図4(A)に示すように、内部に白い矩形パターン5020を有し、矩形パターン5020の内部に、マーカの向きを表すための小型の黒い矩形パターン5010と、IDを表すための色付きの小型矩形パターン5000(IDパターン)が隣接して配置されるマーカである。また、白色矩形パターン5020の周囲には、白色矩形パターン5020の検出を容易にするために白と区別しやすい色を有する枠が設けられている。なお、本実施形態において、検出すべき領域は白色矩形パターン5020であり、白色矩形パターン5020の検出ができれば枠部分は不要である。つまり、マーカとして機能するのは白色矩形パターン5020である。そのため、以下の説明では白色矩形パターン5020のことをマーカとして説明する。もちろん、図6に示したマーカのような枠の無いマーカを用いることも可能である。マーカ検出部1050の動作については後で詳細に説明する。
本実施形態においては、図3に示すように、可動物体3010には判別可能な異なる色のIDパターン5000を有する2つの矩形マーカ4000A,4000Bが設置されている。これらのマーカの配置情報(物体座標系4050における各頂点の3次元座標や各マーカのIDパターンの色情報など)は、予め記憶部1090に記憶されている。
隣接色検査部1060は、マーカ検出部1050が生成し、記憶部1090に記憶されている検出マーカのリストに含まれる各マーカに対して、部分隠蔽(誤検出)の可能性があるかどうかを判定し、部分隠蔽(誤検出)の疑いのあるマーカを検出マーカリストから削除する。隣接色検査部1060の動作については後で詳細に説明する。
記憶部1090では、本実施形態における複合現実空間提示システムの処理に必要な情報を保持し、処理に応じて情報の読み出しや更新を行う。複合現実空間提示システムの処理に必要な情報とは、例えば、マーカの配置情報、描画する仮想物体の頂点情報、仮想物体の配置情報といった、予め用意される情報に加え、撮像画像や、後述する二値化画像、検出マーカのリスト(IDと各頂点の画像座標)など、処理中に発生する情報が含まれる。
仮想画像生成部1110は、撮像部位置姿勢推定部1080が出力する撮像部1010の位置姿勢と、記憶部1090に保存される情報に基づいて、撮像部の位置姿勢から見える仮想物体の画像を生成(描画)する。
画像合成部1120は、記憶部1090が保持している撮像画像と、仮想画像生成部1110から得られる仮想物体の画像(仮想空間の画像)とを合成した画像(MR画像)を生成する。この合成については、撮像画像の上に仮想画像生成部1110からの仮想画像を重畳することにより行われる。
この重畳処理時に、撮像画像から仮想物体より手前に表示すべき領域(例えば図3の例では観察者の手の領域)を検出し、この領域に対しては仮想空間の画像を上書き描画しない(撮像画像をそのまま描画する)ことにより、物体3010を持つ手の上に仮想物体が描画されるという不自然さが生じないようにしてもよい。
そして、画像合成部1120は、生成したMR画像をHMD1000の表示部1030に出力する。これにより、表示部1030には、撮像部1010の位置姿勢に応じた現実空間の画像と仮想空間の画像とが重畳されたMR画像が表示され、このHMD1000を頭部に装着したユーザに、複合現実空間を体験させることができる。
なお、図1において、HMD1000を除くすべての機能は、ワークステーション3040の機能構成に含まれるものとする。
ワークステーション3040の基本構成はパーソナルコンピュータとして市販されているコンピュータと同様であり、CPU、RAM、ROM、外部記憶装置(ハードディスクドライブなど)、記憶媒体ドライブ装置(CD、DVDなどリムーバブル記憶媒体にアクセスするためのドライブ)、ビデオキャプチャボード、グラフィックボード、表示装置(LCD、CRTモニタなど)及び入力デバイス(キーボード、マウス、タブレット、ジョイスティックなど)を備える。
そして、CPUは、ワークステーション3040全体の制御を行うと共に、上記MR画像を生成し、HMD1000の表示部1030に出力するまでの一連の処理を実行する。また、RAMは、外部記憶装置や記憶媒体ドライブ装置からロードされたプログラムやデータを一時的に記憶するためのエリアを備えると共に、CPUが各種の処理を実行するために用いるワークエリアも備える。
ROMは、ブートプログラムなど、本装置全体の制御を行うためのプログラムやデータ等を格納する。
入力デバイスは、ユーザ(観察者ではなく、ワークステーション3040のオペレータ)が、複合現実空間提示システムを実現するアプリケーションに対し、表示装置に示されるGUIを通じて各種設定を行ったり、各種の指示を入力するために用いられる。
ハードディスクドライブ装置等に代表される外部記憶装置は、本実施形態の複合現実空間提示システムを実現するためのアプリケーションソフトウエアはもとより、処理に必要なデータや、アプリケーションソフトウエアが動作するOS(オペレーティングシステム)、を格納する。
このような構成を有する複合現実空間提示システムにおいて、例えば、記憶部1090は外部記憶装置、記憶媒体ドライブ装置、RAMにより、また撮像画像取得部はビデオキャプチャボード、画像合成部1120はグラフィックボードにより実現され、他のマーカ検出部1050、隣接色検査部1060、撮像部位置姿勢推定部1080及び仮想画像生成部1110はRAMやROMに格納されているプログラムやデータを用いて、CPUにより実現することができる。
<処理の手順>
次に、本実施形態における複合現実空間提示システムの全体的な処理の流れを図8のフローチャートを参照して説明する。上述のように、この処理はワークステーション3040が有するCPUが記憶部1090に格納されるプログラムを実行して図1の各部を制御することによって実現される。なお、図8で示される処理は、MR画像を1枚生成するごとに繰り返し行われる処理である。
ステップS9010において、撮像画像取得部1040は撮像部1010にて撮像される撮像画像を取得して、記憶部1090に書き込む。
ステップS9030において、マーカ検出部1050は、記憶部1090から撮像画像を読み出し、マーカ検出処理を実行して、検出されたマーカのリストを記憶部1090に保存する。マーカ検出処理の詳細は後述する。
ステップS9050において、隣接色検査部1060は、記憶部1090に保持されている検出マーカのリスト中の全マーカに関して、部分隠蔽(誤検出)の疑いのあるマーカを判定し、部分隠蔽(誤検出)の疑いありと判断されたマーカのデータをリストから削除する。この処理についても詳細は後述する。
ステップS9100において、撮像部位置姿勢推定部1080は、マーカリスト中の複数のマーカの画像座標と、予め記憶部1090に登録されている、夫々のマーカの基準座標系における3次元座標とから、撮像部1010の位置姿勢を推定し、仮想画像生成部1110に出力する。基準座標系における複数の点の3次元座標(マーカの頂点座標など)とそれらの投影像の画像座標(撮像画像から検出されたマーカの頂点座標など)から、投影像を撮像した撮像部の位置姿勢を求める方法は本発明と直接関係せず、また公知な技術であるので、詳細な説明は省略する。例えば、前フレームでの位置姿勢を初期値として、画面上における対応点の誤差が最小になるように撮像部の位置姿勢を繰り返し修正する方法(非特許文献3参照)や、同一平面内の点のみを用いてホモグラフィ演算を用いて撮像部の位置姿勢を求める手法(非特許文献1参照)等を用いることが可能である。
本実施形態においては、撮像部位置姿勢推定部1080による撮像部の位置姿勢推定処理時に、部分隠蔽の疑いのあるマーカの情報を用いないため、従来よりも精度良く撮像部の位置姿勢を求めることができる。
ステップS9110においては、仮想画像生成部1110が予め用意された仮想空間モデル(仮想物体の形状など、仮想空間を描画するために必要な情報)と、撮像部位置姿勢推定部1080から得た撮像部の位置姿勢に基づいて仮想物体の画像を描画し、画像合成部1120へ出力する。そして、画像合成部1120は、この仮想画像を記憶部1090から読み出した撮像画像(現実空間画像)上に重畳合成してMR画像を生成し、表示部1030に出力する。
<マーカ検出処理>
次に、ステップS9030でマーカ検出部1050が行うマーカ検出処理について、図10のフローチャートを用いて説明する。
マーカ検出部1050は、まず始めに、記憶部1090から撮像画像を読み出す(ステップS101)。図4(A)は、撮像された矩形マーカの像の一例を表す。次に図4(B)で示すように、画像の各画素の明度に基づいた閾値処理によって、白黒の二値化画像を生成し、記憶部1090に保存する(ステップS105)。
そして、生成した二値化画像の中で白い領域に対してラベリングを行い、ラベリングされた領域(ラベル領域)毎に、その外周を表す画素の並びを抽出する。次に、各ラベル領域の中で、得られた画素の並びが、一定値以上の長さを持つ4つの線分から構成されるラベル領域を矩形マーカ候補として選定(図4(B)の5020’)し、4つの折れ点を探す。次いで図4(C)で示すように、各2頂点間に直線当てはめ処理を施すことで線分を求め、この4つの線分の交点を矩形マーカ候補の4頂点とする(ステップS107)。抽出されたマーカ候補は例えば記憶部1090にマーカ候補リストを生成し、頂点座標とともに登録する(ステップS109)。
次に、検出された各マーカ候補が実際のマーカの投影像であるか、ノイズや意図しない物体の映り込みによるマーカ以外のものの誤検出であるかの検証を行うと同時に、画像面上でのマーカの向きを判定する(ステップS111)。図7は検証の処理を示す概念図である。検証は、矩形マーカ候補の対角線を2本引き、各対角線を3等分する点8010、8020、8030、8040(2本の対角線で合計4点)における二値化画像(マーカ検出処理過程で生成された図4(B)の画像)上の画素値を用いて行う。具体的には、各点を起点として4点を反時計回りに(例えば、8030を起点とした8030、8020、8040、8010の4点)見たときに、画素値が[黒,任意,白,白]という並びになるような配置があるか否かを検証し、そのような配置がある場合は、そのマーカ候補を矩形マーカであると判定する(ステップS113、”N”)。それ以外の場合(ステップS113、”Y”)は、そのマーカ候補は誤検出されたものと判定し、マーカ候補のリストから削除する(ステップS115)。図7の例では、8040を起点とした際にこの条件を満たし、矩形マーカであると判定される。
また、マーカ検出処理過程で生成した二値化画像を用いずに、撮像画像の画素値(明度)を参照することにより、予め定めた基準により[暗,任意,明,明]という並びとなるかどうかにより判定してもよい。この処理は、誤検出を判定すると同時にマーカの向きを得る処理も含んでおり、マーカであると判定された矩形マーカは、画面上における向きが一意に特定できる。すなわち、起点(図7の例では8040)に一番近い頂点が5050(矩形5010に一番近い頂点)となり、以下反時計回りに、5060、5030、5040の順で頂点にIDを割振ることができる。
最後に、検出された矩形マーカが、可動物体3010に設置された複数のマーカのうちのどのマーカであるかを同定する(ステップS117)。矩形マーカのIDはマーカ内部の色付きの小型矩形5000によって表されているので、検出された矩形マーカの投影像から、小型矩形5000上の点(マーカの向きの検出処理で利用した対角線上の4点のうちの、起点の右隣の点(図7の例では8010)がこれに相当する)の色によって判別する。ただし、この色付きの小型矩形5000の色は、マーカ検出処理過程で生成された二値化画像から取得するのではなく、検出処理に利用した撮像画像(カラー画像)の同じ画素位置を参照し、色を取得するものとする。
マーカ検出部1050により得られた以下の処理結果は、記憶部1090に格納される。
・検出マーカのリスト(IDと各頂点の画像座標)
・マーカ検出処理過程で生成された二値化画像
検出マーカのリストの例を図12に示す。図12において、No.は検出マーカの連番である。そして、各頂点の座標が順次格納され、最後に同定されたマーカのIDが格納される。
<部分隠蔽の疑われるマーカの検出・削除処理>
次に、ステップS9050で隣接色検査部1060が行う処理について、図11のフローチャートを用いて説明する。
隣接色検査部1060は、記憶部1090に記憶されている検出マーカのリストに含まれる各マーカに対して、その隣接する領域に指定された色が含まれているかどうかを検査し、隣接領域に指定色が含まれているマーカを検出リストから削除する。
予め指定する色に特に制限はなく、マーカを利用するアプリケーションの内容などに応じてマーカを隠蔽する可能性のある物体の色などを指定すればよい。本実施形態における隣接色検査部1060においては、図3に示したように、観察者が手でマーカを隠蔽する可能性があるアプリケーションを想定する。この場合、図5(A)における矩形マーカ4000Aのように、観察者の手によってマーカの一部が隠蔽されている状況では、図5(C)に示す、マーカとして検出された矩形領域(以下、マーカ領域と称する)に隣接する領域にユーザの手の画像が存在する。したがって、手による隠蔽の可能性を判定するには、ユーザの肌の色を指定色として記憶部1090に登録しておき、マーカ領域の隣接領域に指定色の画素が存在するか否かを検出することにより、手による隠蔽が生じている可能性の有無を検出することができる。
なお、上述したように、奥行き関係を正確に表したMR画像を生成するため、仮想物体より手前にあるように(仮想物体に隠されないように)描画すべき領域の抽出を行う場合であって、ユーザの手の領域など肌色領域を抽出する場合には、隣接色検査部1060で検出した肌色の領域に関する情報を仮想画像生成部1110で利用して仮想物体の画像を描画することで、処理の効率化を計ることも可能である。ただし、この場合には、肌色を検出すべき隣接領域の範囲をより大きくする必要がある。
あるいは、指定色(ここでは肌色)領域の抽出を行う肌色領域抽出部を別途設け、記憶部1090から読み出した撮影画像中に含まれる肌色領域を抽出し、その領域に関する情報を仮想画像生成部1110での仮想画像生成処理及び隣接色検査部1060での処理に利用するようにしてもよい。この場合、肌色領域抽出部が例えば記憶部1090に肌色領域の撮像画像中の座標値を記憶し、その座標値を参照して仮想画像生成及び隣接領域における肌色画素の有無を調べることができ、効率的な処理が可能になる。このような肌色領域抽出部も、隣接色検査部1060と同様、CPUによってソフトウェア的に実現することが可能である。
マーカ領域の「隣接領域」は、記憶部1090に保持されている二値化画像(マーカ検出部1050におけるマーカ検出処理過程(図10のステップS105)で生成された画像)に含まれているマーカ領域に膨張処理を施し、得られた領域(マーカ領域よりも全体的に大きな領域)から元のマーカ領域を取り除いた領域として得ることができる。なお、2次元画像処理における領域の膨張処理は公知の技術であるため、ここでの説明は省略する。また、検査の対象となる「隣接領域」の範囲はマーカ領域の周辺1画素であってもよいし、より大きな幅を持つ領域を隣接領域として検査しても良い。
隣接領域における肌色画素の有無の判定は、二値化画像上で隣接領域とされた領域に対して撮像画像上の対応する座標の各画素を検査することで行う。本実施形態では、肌色を示すYCbCr値(Y,Cb,Crのそれぞれの上限値と下限値)を記憶部1090に登録しておき、隣接領域における肌色画素の(正確には、肌色を示すYCbCr値の範囲に含まれる画素値を有する画素の)有無を検出する。なお、隠蔽を起こす可能性がある物体の色として、肌色のみではなく、撮像する空間に存在する他の物体の色を指定することも可能であるし、複数色を同時に指定してもよい。
図11において、隣接検査部1060はまず記憶部1090の検出マーカリストに登録された検出マーカの全てに対して処理を行ったかどうかを調べる(ステップS121)。全ての検出マーカに対して処理を行った場合には処理を終了し、未処理の検出マーカがあればステップS123へ移行する。
ステップS123では、記憶部1090に記憶された二値化撮像画像から、処理対象の検出マーカの隣接領域を抽出する。そして、ステップS125で、抽出した隣接領域に対応する(二値化されていない、カラーの)撮像画像の領域中に、指定色の画素が含まれるかどうか調べる。その結果、指定色画素が含まれていれば、処理対象の検出マーカ(に関する情報)を検出マーカのリストから削除する(ステップS129)。一方、指定色画素が含まれていなければ、ステップS121へ戻って未処理の検出マーカが残っているか調べる。
なお、ステップS125の処理において、隣接領域に指定色画素が含まれると判断する基準は、部分隠蔽の原因となりうる物体の種類や大きさなどの条件や、実際の試行錯誤になどに基づいて適宜定めることが可能である。例えば、隣接領域に1画素でも指定色画素が含まれれば「含まれる」と判定するようにしてもよいし、所定数(又は割合)以上含まれる場合や所定数以上連続して(又はある画素数以上の領域が)含まれる場合に「含まれる」と判定するようにしてもよい。また、複数の条件を組み合わせて判定しても良い。さらに、指定色が複数存在する場合には、指定色毎に判定条件を定めることもできる。
以上説明したように、本実施形態によれば、簡便な処理によって部分隠蔽の疑いのあるマーカを判定することが可能であり、このようなマーカを用いずに撮像部の位置姿勢を推定することで、より精度の良い位置姿勢推定結果を得ることが可能になる。
[変形例1]
第1の実施形態においては、検出マーカの隣接領域に特定の色が存在する場合に、そのマーカが部分隠蔽されている疑いがあると判定して、検出マーカのリストから削除していた。しかし、部分隠蔽による誤検出の判定方法は、これに限定されるものではなく、マーカを設置した周辺領域の色(周辺色)をマーカが隠蔽されていないときに取得して記憶部1090に登録しておき、隣接色検査部1060においては、登録されている周辺色以外の色が検出マーカの隣接領域に含まれるか否かを判定し、周辺色以外の色が検出された場合に、そのマーカを検出マーカのリストから削除するという手法を用いてもよい。
本変形例における複合現実空間提示システムの構成は、図1のブロック図と同様である。ただし、隣接色検査部1060の内部処理が異なっている。あらかじめ記憶部1090に登録する周辺色としては、マーカの周辺部の色(図4の例では黒)を人手で登録しておいても良いし、マーカの周りを隠蔽されていない状態で撮像することで自動的に収集しても良い。例えば、マーカを中心とする半球上を縦横10分割する間隔で撮像することにより、様々な方向からの周辺色を収集することができる。ただし、収集の過程で注意しなければならないのは、隠蔽を起こす可能性が高い色(本実施形態においては、手の肌色)が周辺色として撮像画像に入らないように、現実空間の物体を肌色でないものに取り替えたり、空間から取り除く必要があるということである。
本変形例における処理の手順は、図11のステップS125における処理を、指定された色ではなく、予め登録された周辺部の色以外の色の存在を判定する処理とすればよい。その他の処理は図11と同じ流れとなる。
本変形例の手法により、例えば、手によるマーカの部分隠蔽が起こるような状態であっても、手の色は周辺色として登録されていないため、隠蔽を検出できる。その結果、正しく検出されたマーカのみを利用して撮像部1010の位置姿勢を推定することができ、やはり精度向上が実現される。
[変形例2]
第1の実施形態においては、部分隠蔽の疑いがあると判断された矩形マーカが検出マーカとしてリストに含まれていた場合、その矩形マーカをリストから削除していた。つまり、部分隠蔽の疑いがあると判断された検出マーカから得られた全ての情報(すなわち、4つの頂点情報全て)を利用しないものであった。しかし、部分隠蔽された検出マーカであっても、隠蔽されていない頂点5050、5060に関する情報は正しく検出されている。本変形例では、部分隠蔽の疑いがある検出マーカの、隠蔽されていないと考えられる頂点情報については破棄せず、撮像画像推定部1080における位置姿勢の算出に用いることを特徴とする。
本変形例における複合現実空間提示システムの構成は、図1のブロック図と同様である。ただし、隣接色検査部1060の内部処理が異なっている。第1の実施形態では、隣接色検査部1060において、検出マーカの隣接領域を一括して検査していた。これに対し、本変形例では、検出マーカの各頂点の隣接領域に対してそれぞれ独立に検査を行う。すなわち、各頂点を中心とする所定の隣接領域(例えば、半径10画素の円に含まれる隣接領域)の画素に関して検査を行い、1つの頂点の周辺領域に指定された色がある場合は、その頂点をリストから削除する。この場合、頂点の座標値を削除しても良いが、無効化することが出来れば、どのような方法を用いても良い。例えば、図13に示すように、検出マーカのリスト中における当該検出マーカの当該頂点に部分隠蔽による誤検出であることを示すフラグfを設け、通常は0、誤検出された頂点座標については1にすることで、座標値は残すが、無効であることを明示する方法であっても良い。このように利用できる頂点はリストに残しておくことで、撮像部位置姿勢推定部1080において、一部が隠蔽されている矩形マーカに対しても、隠蔽されていない部分の頂点の情報を、撮像部1010の位置姿勢の推定に利用することができる。
本実施形態における処理の手順を示すフローチャートを図9に示す。図9は、第1の実施形態において説明した図11の処理と基本的な処理は共通である。異なる点は、隣接領域の抽出を頂点毎に行うこと(ステップS131)、隣接領域中の指定色画素の有無検査(ステップS125、S127)を頂点単位で行うこと(そのための判定ステップS133が追加されていること)、及び指定色を含む隣接領域に対応する頂点のみを削除(フラグをセットすることによる無効化、ステップS135)する点である。
なお、変形例1と変形例2を組み合わせて用いることはもちろん可能であり、あらかじめ指定した色以外の色が検出された場合に、その頂点を削除(無効化)するという方法を用いてもよい。
[変形例3]
第1の実施形態においては、図4に示すような特徴をもつ矩形マーカを用いたが、このマーカ以外のマーカであっても、部分隠蔽による誤検出の判別を行うことができる。例えば、非特許文献1に開示されている内部に同定用パターンを持つ矩形マーカを用いる場合には、マーカ検出部1050を、固定閾値による2値化、テンプレートマッチングによるマーカ識別、輪郭線データの直線あてはめによる頂点位置検出、という当該マーカの検出部に置き換える。このようにして検出されたマーカ領域と検出マーカのリストを記憶部1090に保持させることにより、前述の隣接色検査部1060の処理によって部分隠蔽による誤検出マーカを削除することが可能である。
また、図6に示したような、背景と区別できる色を備えた円形状のマーカ(以降、色領域マーカと呼ぶ)を用いる場合であっても、同様な部分隠蔽による誤検出の判別を行うことができる。この場合、マーカ検出部1050を特定の形状ではなく、特定の色領域を検出する処理に置き換え、検出された色領域に対して前述の隣接色検査部1060の処理を施すことによって、部分隠蔽による誤検出マーカを削除できる。その他、どのような外観上の特徴を有するマーカを用いる場合であっても、部分隠蔽が生じた場合に隣接領域にそれを隠蔽する物体色(例えば肌色)が存在するという特性が成立する限りにおいては、本実施形態で説明した手法で、部分隠蔽による誤検出マーカを撮像部の位置姿勢推定処理への使用から除外することができる。
[変形例4]
また、第1の実施形態においては、マーカ検出部1050と隣接色検査部1060が独立していたが、隣接色検査部1060の処理工程はマーカ検出部1050の機能に含まれていても良い。この場合、隣接色検査の工程は必ずしもマーカ検出処理の後に行う必要は無い。例えば、矩形当てはめによるマーカ候補領域の検出を行った後に、隣接色検査を行って部分隠蔽の可能性のある領域を削除し、その後にノイズ除去や方向検出以降の処理を行っても良いし、他の順序で処理を行っても良い。発明の本質は、これらの処理の順序に依存するものではない。
[変形例5]
第1の実施形態における複合現実空間提示システムは、手に保持して移動させることの可能な現実物体3010上に仮想物体を重畳表示することを目的としていた。しかし、現実空間と撮像部との関係はこれに限定されるものではなく、例えば、室内空間に仮想物体を重畳表示することを目的として、室内空間に貼られたマーカを観測することで室内空間における撮像部の位置姿勢を計測する場合であっても、第1の実施形態と同様な構成によって、部分隠蔽されたマーカの情報を用いることによる位置姿勢推定精度の低下を抑制可能な可能な複合現実空間提示システムを構成することができる。
[変形例6]
なお、第1の実施形態において示した部分隠蔽によるマーカ誤検出の判定方法の適用範囲は、第1の実施形態において示した構成による複合現実感提示システムに限定されるものではない。例えば、非特許文献3に開示されているような、HMD1000に6自由度位置姿勢センサをさらに装着し、室内空間に貼られたマーカを観測することでセンサ計測値の誤差を補正する機構を備える複合現実空間提示システムにおいても、適用することが可能である。このような構成においても、マーカ情報から撮像部の位置姿勢を推定し、その推定結果を用いてセンサ測定値の補正を行うのであるから、マーカから推定される位置姿勢の精度向上は最終的な推定位置姿勢の精度を向上させる。
このように、上述した手法は撮像画像中のマーカ座標と既知のマーカ座標とを利用して撮像部の位置姿勢を求めるいずれの複合現実空間提示システムにおいても適用可能である。さらには、複合現実感提示システムに限らず、マーカを検出することで撮像装置(あるいは撮像装置を装着した物体。あるいは、撮像装置によって観測されている物体)の位置姿勢を求めるあらゆる用途においてマーカ検出の信頼性を向上させる目的で用いることが可能であるし、位置姿勢推定以外の目的であっても、画像上におけるマーカ検出を正確に行う何れの用途においても、適用することが可能である。
[他の実施形態]
なお、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フロッピディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明の第1の実施形態に係るマーカ検出装置を含む複合現実空間提示システムの機能構成例を示すブロック図である。 第1の実施形態における複合現実空間提示システムの外観例を示す模式図である。 第1の実施形態における複合現実空間提示システムの動作時の状況を模式的に示す図である。 第1の実施形態における矩形マーカの検出処理を説明する図である。 マーカの部分隠蔽による誤検出について説明する図である。 第1の実施形態におけるマーカの向き検出処理を説明する図である。 第1の実施形態に係る複合現実空間提示システムの全体的な処理を説明するフローチャートである。 第1の実施形態の変形例2における、隣接色検査部1060の処理を説明するフローチャートである。 第1の実施形態における、マーカ検出部1050の処理を説明するフローチャートである。 第1の実施形態における、隣接色検査部1060の処理を説明するフローチャートである。 第1の実施形態における、検出マーカリストの例を示す図である。 第1の実施形態の変形例2における、検出マーカリストの例を示す図である。

Claims (11)

  1. 撮像されたマーカを撮像画像から検出するマーカ検出方法であって、
    前記撮像画像を取得する画像取得工程と、
    前記撮像画像から、前記マーカの形状、色、もしくは模様に対応するマーカ領域を検出するマーカ領域検出工程と、
    前記検出されたマーカ領域に、所定色の画素を含んだ隣接領域が存在するか否かを検査する隣接領域検査工程と、
    前記検出されたマーカ領域のうち、前記所定色の画素を含んだ隣接領域が存在するマーカ領域を無効なマーカ領域と判定する判定工程とを有することを特徴とするマーカ検出方法。
  2. 撮像されたマーカを撮像画像から検出するマーカ検出方法であって、
    前記撮像画像を取得する画像取得工程と、
    前記撮像画像から、前記マーカの形状、色、もしくは模様に対応するマーカ領域を検出するマーカ領域検出工程と、
    前記検出されたマーカ領域の頂点毎に定められる隣接領域に、所定色の画素を含んだ隣接領域が存在するか否かを検査する隣接領域検査工程と、
    前記検出されたマーカ領域の頂点のうち、前記所定色の画素を含んだ隣接領域が存在する頂点を無効な頂点と判定する判定工程とを有することを特徴とするマーカ検出方法。
  3. 前記所定色は、前記マーカを隠蔽する可能性のある物体の色であることを特徴とする請求項1又は2に記載のマーカ検出方法。
  4. 前記所定色は、前記マーカの周囲に存在すべき色以外の色であることを特徴とする請求項1又は2に記載のマーカ検出方法。
  5. 請求項1記載のマーカ検出方法によって検出された前記マーカ領域のうち、前記無効なマーカ領域である判定されたマーカ領域以外のマーカ領域から得られる情報と、既知のマーカ情報とを用い、前記撮像画像を撮像した撮像装置の位置姿勢を推定する位置姿勢推定方法。
  6. 請求項2記載のマーカ検出方法によって検出された前記マーカ領域のうち、前記無効な頂点判定された頂点以外の頂点の座標と、既知のマーカ情報とを用い、前記撮像画像を撮像した撮像装置の位置姿勢を推定する位置姿勢推定方法。
  7. 請求項5又は6記載の位置姿勢推定方法によって得られた撮像装置の位置姿勢に基づいて仮想物体の画像を生成する画像生成工程と、
    前記仮想物体の画像を前記撮像画像に重畳して複合現実空間画像を生成する画像合成工程と、
    前記複合現実空間画像を表示装置に出力する出力工程とを有することを特徴とする複合現実空間提示方法。
  8. 撮像されたマーカを撮像画像から検出するマーカ検出装置であって、
    前記撮像画像を取得する画像取得手段と、
    前記撮像画像から、前記マーカの形状、色、もしくは模様に対応するマーカ領域を検出するマーカ領域検出手段と、
    前記検出されたマーカ領域に、所定色の画素を含んだ隣接領域が存在するか否かを検査する隣接領域検査手段と、
    前記検出されたマーカ領域のうち、前記所定色の画素を含んだ隣接領域が存在するマーカ領域を無効なマーカ領域と判定する判定手段とを有することを特徴とするマーカ検出装置。
  9. 撮像されたマーカを撮像画像から検出するマーカ検出装置であって、
    前記撮像画像を取得する画像取得手段と、
    前記撮像画像から、前記マーカの形状、色、もしくは模様に対応するマーカ領域を検出するマーカ領域検出手段と、
    前記検出されたマーカ領域の頂点毎に定められる隣接領域に、所定色の画素を含んだ隣接領域が存在するか否かを検査する隣接領域検査手段と、
    前記検出されたマーカ領域の頂点のうち、前記所定色の画素を含んだ隣接領域が存在する頂点を無効な頂点と判定する判定手段とを有することを特徴とするマーカ検出装置。
  10. コンピュータを、請求項8又は請求項9記載のマーカ検出装置の各手段として機能させるためのプログラム。
  11. 請求項10記載のプログラムを格納したコンピュータ読み取り可能な記録媒体。
JP2004106243A 2004-03-31 2004-03-31 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法 Expired - Fee Related JP4537104B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004106243A JP4537104B2 (ja) 2004-03-31 2004-03-31 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
US11/091,624 US7519218B2 (en) 2004-03-31 2005-03-29 Marker detection method and apparatus, and position and orientation estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004106243A JP4537104B2 (ja) 2004-03-31 2004-03-31 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法

Publications (3)

Publication Number Publication Date
JP2005293141A JP2005293141A (ja) 2005-10-20
JP2005293141A5 JP2005293141A5 (ja) 2007-04-26
JP4537104B2 true JP4537104B2 (ja) 2010-09-01

Family

ID=35097179

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004106243A Expired - Fee Related JP4537104B2 (ja) 2004-03-31 2004-03-31 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法

Country Status (2)

Country Link
US (1) US7519218B2 (ja)
JP (1) JP4537104B2 (ja)

Families Citing this family (110)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4537104B2 (ja) 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
JP4227561B2 (ja) * 2004-06-03 2009-02-18 キヤノン株式会社 画像処理方法、画像処理装置
JP4738870B2 (ja) * 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置
USD559985S1 (en) 2005-04-08 2008-01-15 Beekley Corporation Mammogram marker
JP4574473B2 (ja) * 2005-07-11 2010-11-04 キヤノン株式会社 情報処理装置および方法
JP4914039B2 (ja) * 2005-07-27 2012-04-11 キヤノン株式会社 情報処理方法および装置
JP5038307B2 (ja) * 2005-08-09 2012-10-03 トタル イメルシオン 実在環境内においてデジタルモデルを視覚化する方法、装置、及びコンピュータプログラム
JP4670657B2 (ja) * 2006-01-24 2011-04-13 富士ゼロックス株式会社 画像処理装置、画像処理方法及びプログラム
JP2007206807A (ja) * 2006-01-31 2007-08-16 Nippon Hoso Kyokai <Nhk> 映像合成装置及び映像合成プログラム
JP4550767B2 (ja) * 2006-05-09 2010-09-22 日本電信電話株式会社 画像検出方法および画像検出装置
JP4958497B2 (ja) * 2006-08-07 2012-06-20 キヤノン株式会社 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体
JP4789745B2 (ja) * 2006-08-11 2011-10-12 キヤノン株式会社 画像処理装置および方法
JP5403861B2 (ja) * 2006-11-06 2014-01-29 キヤノン株式会社 情報処理装置、情報処理方法
WO2008090908A1 (ja) 2007-01-23 2008-07-31 Nec Corporation マーカ生成及びマーカ検出のシステム、方法とプログラム
US20080266323A1 (en) * 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system
JP5538667B2 (ja) * 2007-04-26 2014-07-02 キヤノン株式会社 位置姿勢計測装置及びその制御方法
NO327279B1 (no) 2007-05-22 2009-06-02 Metaio Gmbh Kamerapositurestimeringsanordning og- fremgangsmate for foroket virkelighetsavbildning
JP4956456B2 (ja) * 2008-02-05 2012-06-20 キヤノン株式会社 画像処理装置、画像処理方法
WO2009123066A1 (ja) * 2008-04-03 2009-10-08 日本電気株式会社 画像処理方法、画像処理装置及び記録媒体
JP2010134649A (ja) * 2008-12-03 2010-06-17 Canon Inc 情報処理装置、その処理方法及びプログラム
JP5207941B2 (ja) * 2008-12-09 2013-06-12 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2010197361A (ja) * 2009-02-27 2010-09-09 Brother Ind Ltd 異音診断システム
JP5388932B2 (ja) * 2009-04-30 2014-01-15 キヤノン株式会社 情報処理装置およびその制御方法
JP5247590B2 (ja) * 2009-05-21 2013-07-24 キヤノン株式会社 情報処理装置及びキャリブレーション処理方法
TWI411300B (zh) * 2009-07-21 2013-10-01 Reallusion Inc 可調式網格視訊偵測與監控之方法與系統
EP2458556A4 (en) * 2009-07-23 2014-01-08 Nec Corp MARKER CREATING DEVICE, MARKER CREATING DETECTING SYSTEM, MARKER CREATING DETECTING DEVICE, MARKER, MARKER CREATING METHOD, AND PROGRAM THEREOF
US8693786B2 (en) 2009-07-23 2014-04-08 Nec Corporation Marker determination device, marker determination detection system, marker determination detection device, marker, marker determination method, and program therefor
JP5898842B2 (ja) 2010-01-14 2016-04-06 任天堂株式会社 携帯型情報処理装置、携帯型ゲーム装置
EP2355526A3 (en) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP5800501B2 (ja) 2010-03-12 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
US9158777B2 (en) 2010-03-30 2015-10-13 Gravity Jack, Inc. Augmented reality methods and apparatus
JP4696184B1 (ja) * 2010-06-02 2011-06-08 任天堂株式会社 画像表示システム、画像表示装置および画像表示方法
US8633947B2 (en) * 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
JP5647819B2 (ja) 2010-06-11 2015-01-07 任天堂株式会社 携帯型電子機器
EP2395769B1 (en) * 2010-06-11 2015-03-04 Nintendo Co., Ltd. Image display program, image display system, and image display method
KR101682705B1 (ko) * 2010-06-14 2016-12-06 주식회사 비즈모델라인 알에프리더를 이용한 증강현실 제공 방법
JP5769392B2 (ja) * 2010-08-26 2015-08-26 キヤノン株式会社 情報処理装置およびその方法
JP4869430B1 (ja) * 2010-09-24 2012-02-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP5739674B2 (ja) 2010-09-27 2015-06-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
JP5480777B2 (ja) * 2010-11-08 2014-04-23 株式会社Nttドコモ オブジェクト表示装置及びオブジェクト表示方法
JP5687881B2 (ja) * 2010-11-12 2015-03-25 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
US9721387B2 (en) 2010-12-21 2017-08-01 Cyberlink Corp. Systems and methods for implementing augmented reality
JP5734700B2 (ja) * 2011-02-24 2015-06-17 京セラ株式会社 携帯情報機器および仮想情報表示プログラム
JP5026604B2 (ja) 2011-02-24 2012-09-12 任天堂株式会社 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法
JP4989768B2 (ja) 2011-02-24 2012-08-01 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP2011134343A (ja) 2011-02-24 2011-07-07 Nintendo Co Ltd 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP4967065B2 (ja) 2011-02-24 2012-07-04 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP5016723B2 (ja) 2011-02-24 2012-09-05 任天堂株式会社 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法
JP5178860B2 (ja) * 2011-02-24 2013-04-10 任天堂株式会社 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法
JP5735861B2 (ja) * 2011-06-01 2015-06-17 任天堂株式会社 画像表示プログラム、画像表示装置、画像表示方法、画像表示システム、マーカ
JP5988563B2 (ja) * 2011-10-25 2016-09-07 キヤノン株式会社 画像処理装置と画像処理装置の制御方法およびプログラムと、情報処理装置と情報処理装置の制御方法およびプログラム
JP5821526B2 (ja) 2011-10-27 2015-11-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
KR101874895B1 (ko) * 2012-01-12 2018-07-06 삼성전자 주식회사 증강 현실 제공 방법 및 이를 지원하는 단말기
JP5776903B2 (ja) * 2012-03-02 2015-09-09 カシオ計算機株式会社 画像処理装置及び画像処理方法並びにプログラム
US9439627B2 (en) 2012-05-22 2016-09-13 Covidien Lp Planning system and navigation system for an ablation procedure
US9439622B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
US8750568B2 (en) 2012-05-22 2014-06-10 Covidien Lp System and method for conformal ablation planning
US9439623B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical planning system and navigation system
US9498182B2 (en) 2012-05-22 2016-11-22 Covidien Lp Systems and methods for planning and navigation
JP5799928B2 (ja) * 2012-09-28 2015-10-28 カシオ計算機株式会社 閾値設定装置、被写体検出装置、閾値設定方法及びプログラム
WO2014069248A1 (ja) * 2012-11-02 2014-05-08 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP2014112055A (ja) * 2012-12-05 2014-06-19 Denso It Laboratory Inc カメラ姿勢の推定方法およびカメラ姿勢の推定システム
TWI649675B (zh) * 2013-03-28 2019-02-01 新力股份有限公司 Display device
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
WO2014175324A1 (ja) 2013-04-24 2014-10-30 川崎重工業株式会社 ワーク加工作業支援システムおよびワーク加工方法
JP6344890B2 (ja) 2013-05-22 2018-06-20 川崎重工業株式会社 部品組立作業支援システムおよび部品組立方法
JP6369461B2 (ja) * 2013-05-27 2018-08-08 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP6313432B2 (ja) * 2013-06-09 2018-04-18 株式会社ソニー・インタラクティブエンタテインメント 頭部装着ディスプレイ
US9892489B1 (en) * 2013-08-20 2018-02-13 Rockwell Collins, Inc. System for and method of providing a virtual cockpit, control panel, or dashboard using augmented reality
JP6397269B2 (ja) 2013-09-06 2018-09-26 キヤノン株式会社 画像処理装置、画像処理方法
JP2017016166A (ja) * 2013-11-12 2017-01-19 Necソリューションイノベータ株式会社 画像処理装置及び画像処理方法
JP6393986B2 (ja) * 2013-12-26 2018-09-26 セイコーエプソン株式会社 頭部装着型表示装置、画像表示システム、および、頭部装着型表示装置の制御方法
JP5762600B1 (ja) * 2014-06-06 2015-08-12 キヤノン株式会社 情報処理装置及び情報処理方法
US20150359517A1 (en) 2014-06-11 2015-12-17 Covidien Lp Swipe to see through ultrasound imaging for intraoperative applications
US10229543B2 (en) * 2014-06-13 2019-03-12 Mitsubishi Electric Corporation Information processing device, information superimposed image display device, non-transitory computer readable medium recorded with marker display program, non-transitory computer readable medium recorded with information superimposed image display program, marker display method, and information-superimposed image display method
JP6393106B2 (ja) 2014-07-24 2018-09-19 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US9977495B2 (en) * 2014-09-19 2018-05-22 Utherverse Digital Inc. Immersive displays
KR20160070874A (ko) * 2014-12-10 2016-06-21 브이앤아이 주식회사 모바일 기기를 이용한 위치기반 시설물 관리 시스템
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
GB2535727A (en) * 2015-02-25 2016-08-31 Bae Systems Plc Interactive information system
JP6540108B2 (ja) * 2015-03-09 2019-07-10 富士通株式会社 画像生成方法、システム、装置、及び端末
US9690374B2 (en) * 2015-04-27 2017-06-27 Google Inc. Virtual/augmented reality transition system and method
CN105068649A (zh) * 2015-08-12 2015-11-18 深圳市埃微信息技术有限公司 基于虚拟现实头盔的双目手势识别装置及方法
EP3367326A4 (en) * 2015-12-01 2018-10-03 Sony Corporation Image-processing device and image-processing method
JP2017129904A (ja) * 2016-01-18 2017-07-27 ソニー株式会社 情報処理装置、情報処理方法、及び記録媒体
JP6690277B2 (ja) * 2016-02-09 2020-04-28 富士通株式会社 画像処理制御方法、画像処理制御プログラムおよび情報処理装置
US9807383B2 (en) * 2016-03-30 2017-10-31 Daqri, Llc Wearable video headset and method for calibration
DE102016211244B4 (de) * 2016-06-23 2018-01-18 Kuka Roboter Gmbh Roboter-Bedienhandgerätverbund mit einem Grundsteuerungs-Lagesensor
JP6711715B2 (ja) 2016-07-19 2020-06-17 キヤノン株式会社 画像処理装置および画像処理方法
JP6840481B2 (ja) 2016-07-19 2021-03-10 キヤノン株式会社 画像処理装置および画像処理方法
TWI619093B (zh) * 2016-10-19 2018-03-21 財團法人資訊工業策進會 視覺定位裝置、方法及其電腦程式產品
US10922836B2 (en) * 2016-11-15 2021-02-16 Carl Zeiss Industrielle Messtechnik Gmbh Method and system for determining a 3D position of an object in space
JP6917701B2 (ja) * 2016-11-30 2021-08-11 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP2018092313A (ja) * 2016-12-01 2018-06-14 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2018110615A (ja) 2017-01-06 2018-07-19 キヤノン株式会社 画像処理装置および画像処理方法
JP6934734B2 (ja) 2017-03-17 2021-09-15 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
JP6721550B2 (ja) 2017-08-04 2020-07-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および位置情報取得方法
JP7105996B2 (ja) * 2018-05-29 2022-07-25 センティエーアール インコーポレイテッド 拡張現実環境内の使い捨てステッカー
JP2020014057A (ja) * 2018-07-13 2020-01-23 オリンパス株式会社 頭部搭載型表示装置、検査支援表示システム、表示方法及び表示プログラム
WO2020030156A1 (zh) * 2018-08-10 2020-02-13 广东虚拟现实科技有限公司 图像处理方法、终端设备及计算机可读介质
CN112566581B (zh) 2018-08-10 2024-03-19 柯惠有限合伙公司 用于消融可视化的***
US11893789B2 (en) 2018-11-15 2024-02-06 Magic Leap, Inc. Deep neural network pose estimation system
US11049264B2 (en) * 2019-10-03 2021-06-29 Pixart Imaging Inc. Marker detecting device and optical tracking device
JP7441465B2 (ja) 2020-04-03 2024-03-01 学校法人法政大学 コンクリート締固めトレーサビリティシステム
JP7441466B2 (ja) 2020-04-03 2024-03-01 学校法人法政大学 コンクリート締固め管理システム
JP7443938B2 (ja) 2020-06-01 2024-03-06 コニカミノルタ株式会社 物品の認識方法、プログラム、および情報処理装置
JP2022102885A (ja) * 2020-12-25 2022-07-07 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システムおよびプログラム
US20230186550A1 (en) * 2021-12-09 2023-06-15 Unity Technologies Sf Optimizing generation of a virtual scene for use in a virtual display environment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136706A (ja) * 1997-09-01 1999-05-21 Mr System Kenkyusho:Kk 位置姿勢検出装置、位置姿勢検出方法、複合現実感提示装置、ゲーム装置、複合現実感提示方法および記憶媒体
JP2000350860A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実空間画像の生成方法
JP2002117409A (ja) * 2000-10-10 2002-04-19 Canon Inc 画像処理方法及びその装置
JP2003141574A (ja) * 2001-11-02 2003-05-16 National Institute Of Advanced Industrial & Technology 画像表示方法及びシステム
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム
JP2004062757A (ja) * 2002-07-31 2004-02-26 Canon Inc 情報処理方法および撮像部位置姿勢推定装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0423654A3 (en) * 1989-10-19 1992-07-08 Konica Corporation Colour image processing apparatus
JP3595579B2 (ja) * 1994-08-26 2004-12-02 キヤノン株式会社 画像処理装置及び画像処理方法
US6522312B2 (en) 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
JP3805231B2 (ja) 2001-10-26 2006-08-02 キヤノン株式会社 画像表示装置及びその方法並びに記憶媒体
JP3796449B2 (ja) 2002-01-31 2006-07-12 キヤノン株式会社 位置姿勢決定方法および装置並びにコンピュータプログラム
EP1349114A3 (en) 2002-03-19 2011-06-15 Canon Kabushiki Kaisha Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus
JP4537104B2 (ja) 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136706A (ja) * 1997-09-01 1999-05-21 Mr System Kenkyusho:Kk 位置姿勢検出装置、位置姿勢検出方法、複合現実感提示装置、ゲーム装置、複合現実感提示方法および記憶媒体
JP2000350860A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実空間画像の生成方法
JP2002117409A (ja) * 2000-10-10 2002-04-19 Canon Inc 画像処理方法及びその装置
JP2003141574A (ja) * 2001-11-02 2003-05-16 National Institute Of Advanced Industrial & Technology 画像表示方法及びシステム
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム
JP2004062757A (ja) * 2002-07-31 2004-02-26 Canon Inc 情報処理方法および撮像部位置姿勢推定装置

Also Published As

Publication number Publication date
US7519218B2 (en) 2009-04-14
US20050234333A1 (en) 2005-10-20
JP2005293141A (ja) 2005-10-20

Similar Documents

Publication Publication Date Title
JP4537104B2 (ja) マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
US10339712B2 (en) Image processing apparatus and image processing method
JP4401727B2 (ja) 画像表示装置及び方法
US7558403B2 (en) Information processing apparatus and information processing method
JP5777507B2 (ja) 情報処理装置、情報処理方法、及びそのプログラム
US20140003738A1 (en) Method and apparatus for gaze point mapping
US20140168367A1 (en) Calibrating visual sensors using homography operators
US8917317B1 (en) System and method for camera calibration
WO2016029939A1 (en) Method and system for determining at least one image feature in at least one image
US10692291B2 (en) Apparatus, method, and medium for generating a 3D model of a finger using captured image
JP2007018426A (ja) 情報処理装置および方法
JP4834424B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11823394B2 (en) Information processing apparatus and method for aligning captured image and object
JP2006267879A (ja) 画像処理方法、画像処理装置、マーカ
JP2017187861A (ja) 情報処理装置およびその制御方法
JP2008146108A (ja) 指標、画像処理装置、画像処理方法
JP6362401B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP4623172B2 (ja) 瞳孔検出装置、瞳孔検出装置用プログラム及び瞳孔検出方法
JP2010271921A (ja) 皮膚領域抽出方法、皮膚領域抽出装置、および皮膚領域抽出プログラム
JP4082718B2 (ja) 画像認識方法および画像表示方法および画像認識装置
JP4745724B2 (ja) 画像処理方法、画像処理装置
CN115272417A (zh) 图像数据的处理方法、图像处理设备以及可读存储介质
JP5412215B2 (ja) 画像処理装置およびプログラム
KR20130117668A (ko) 3차원 볼륨 데이터 생성 방법
JP2010057682A (ja) 瞳孔検出装置、瞳孔検出装置用プログラム及び瞳孔検出方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070308

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100611

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100617

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130625

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4537104

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees