JP4136652B2 - Image processing apparatus, image processing method, image processing program, recording medium, and electronic apparatus - Google Patents
Image processing apparatus, image processing method, image processing program, recording medium, and electronic apparatus Download PDFInfo
- Publication number
- JP4136652B2 JP4136652B2 JP2002381504A JP2002381504A JP4136652B2 JP 4136652 B2 JP4136652 B2 JP 4136652B2 JP 2002381504 A JP2002381504 A JP 2002381504A JP 2002381504 A JP2002381504 A JP 2002381504A JP 4136652 B2 JP4136652 B2 JP 4136652B2
- Authority
- JP
- Japan
- Prior art keywords
- shape
- image
- image processing
- dimensional shape
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、画像処理装置、画像処理方法、画像処理プログラム、記録媒体及び電子機器に関する。
【0002】
【従来の技術】
現在、デジタルカメラの普及は急速に進んでおり、デジタルカメラを利用したアプリケーションの開発も盛んである。この例としては「画像のパノラマ合成」「画像の歪補正」「三次元形状の算出」「ロボットの自律移動」「車両の自動運転」等が挙げられる。この中でも「三次元形状の算出」は、電子商取引のために商品の三次元情報を提供したいというようなニーズが存在することから、その進展が期待されている。
【0003】
【特許文献1】
特開平11−136575号公報
【0004】
【特許文献2】
特開平11−306363号公報
【0005】
【特許文献3】
特開2000−115639号公報
【0006】
【特許文献4】
特開2000−134537号公報
【0007】
【特許文献5】
特開2000−228748号公報
【0008】
【特許文献6】
特開2001−92944号公報
【0009】
【特許文献7】
特開2001−148025号公報
【0010】
【特許文献8】
特開2001−325069号公報
【0011】
【非特許文献1】
Q.−T.Luong,O.D.Faugeras「Determining the Fundamental Matrix with Planes:Instability and New Algorithms」Proc. of Computer Vision and Pattern Recognition,p489−494,1993
【0012】
【非特許文献2】
芋生周作,浪江宏宗,安田明生著「RTK−GPSによる船体の三次元姿勢測定:3−Dimensional Atitude Measurement of a Ship by RTK−GPS Positioning」東京商船大学
【0013】
【非特許文献3】
浪江宏宗著「DGPS及びRTK−GPSの実用化に関する研究」東京商船大学
【0014】
【非特許文献4】
徐剛,辻三郎著「三次元ビジョン」共立出版,第3章
【0015】
【非特許文献5】
岡谷貴之,出口光一郎著「3次元向きセンサを取り付けたカメラを用いた投票によるカメラの並進運動の推定」ヒューマンインタフェース コンピュータビジョンとイメージメディア,2001/9/13
【0016】
【非特許文献6】
Richard I.Hartley,Computer VisionAnd Image Understanding,vol.68,No.2,November,pp146−157,1997
【0017】
【非特許文献7】
森尻智昭,小野寺康浩,金谷健一著「2画像からの平面の3次元運動の計算」情報処理学会研究報告,94−CV−90,1994
【0018】
【非特許文献8】
徐剛,辻三郎著「三次元ビジョン」共立出版,第6章
【0019】
【非特許文献9】
金谷健一著「画像理解」司巧社,第4章
【0020】
【発明が解決しようとする課題】
デジタルカメラ等の撮像装置により撮像された画像を使用して被写体の三次元形状を算出するためには、一般的に「Structure from Motion」という手法が使用される。しかし、この手法では、被写体形状が平面形状に近いと遠近差が小さいため算出精度が低下する(非特許文献1)という。そのため、この手法では、被写体形状が紙や平板のような平面形状である場合には、被写体の三次元形状を精度よく算出することができないという問題がある。
【0021】
被写体形状が平面形状である場合には、特許文献7に記載されているように、射影変換行列を算出して被写体の三次元形状を算出することができる。しかし、この手法では逆に、被写体形状が立体形状である場合には、被写体の三次元形状を精度よく算出することができないという問題がある。
【0022】
したがって、本発明は、被写体形状が平面形状である場合にも立体形状である場合にも、被写体の三次元形状を精度よく算出することを課題とする。
【0023】
【課題を解決するための手段】
本発明の画像処理装置は、撮像装置により撮像された画像について画像処理を実行して三次元形状を算出する画像処理装置であって、2 箇所の視点から撮像された画像上の4点以上の対応点の位置情報から射影変換行列を算出する変換行列算出手段と、前記射影変換行列算出手段により算出された射影変換行列により前記画像の被写体の形状判定に用いる値を抽出する奥行抽出手段と、前記形状判定に用いる値から前記画像の被写体が平面形状であるか立体形状であるかを判定する形状判定手段を備え、前記奥行抽出手段は、互いに異なる組合せの対応点から算出された2つの射影変換行列の差をもって前記形状判定に用いる値とし、平面形状である場合は、前記画像について平面形状用の画像処理を実行して三次元形状を算出して、立体形状である場合は、前記画像について立体形状用の画像処理を実行して三次元形状を算出することを特徴とする。
【0034】
本発明の画像処理装置又は画像形成方法は、前記画像の被写体が平面形状であるか立体形状であるかを判定して、平面形状である場合は、前記画像について平面形状用の画像処理を実行して三次元形状を算出して、立体形状である場合は、前記画像について立体形状用の画像処理を実行して三次元形状を算出するため、被写体形状が平面形状である場合にも立体形状である場合にも、被写体形状の判定のおかげで、被写体の三次元形状を精度よく算出することができる。
【0035】
本発明の他の局面における発明の画像処理装置又は画像形成方法は、前記画像の被写体の形状判定に用いる値を抽出して、前記形状判定に用いる値から前記画像の被写体が平面形状であるか立体形状であるかを判定して、平面形状である場合は、前記画像について平面形状用の画像処理を実行して三次元形状を算出して、立体形状である場合は、立体形状用の画像処理を実行して三次元形状を算出するため、被写体形状が平面形状である場合にも立体形状である場合にも、形状判定に用いる値の抽出を介した被写体形状の判定のおかげで、被写体の三次元形状を精度よく算出することができる。
【0036】
本発明の他の局面における発明の画像処理装置又は画像形成方法は、前記画像の被写体の三次元形状を概算して、前記三次元形状から前記画像の被写体の形状判定に用いる値を抽出して、前記形状判定に用いる値から前記画像の被写体が平面形状であるか立体形状であるかを判定して、平面形状である場合は、前記画像について平面形状用の画像処理を実行して三次元形状を算出して、立体形状である場合は、前記画像について立体形状用の画像処理を実行して三次元形状を算出するため、被写体形状が平面形状である場合にも立体形状である場合にも、被写体の三次元形状の概算を介した被写体の形状判定に用いる値の抽出を介した被写体形状の判定のおかげで、被写体の三次元形状を精度よく算出することができる。
【0037】
【発明の実施の形態】
本発明の実施の形態について説明する。
【0038】
図1は、撮像装置101と画像処理装置102を表す。撮像装置101は、画像を撮像する装置であり、画像処理装置102は、その画像について画像処理を実行して三次元形状を算出する装置である。撮像装置101は、ここではデジタルカメラであり、画像処理装置102は、ここではパソコンであるとする。両者の間での画像の授受は、両者をコードで接続するなどして実行する。
【0039】
図2は、撮像装置101のハードウェア構成を表す。被写体の画像は、固定レンズ201・ズームレンズ202・絞り機構203・シャッタ204・フォーカスレンズ205を通して、撮像素子206に形成される。撮像素子206からの画像信号は、CDS回路207(Correlated Double Sampling)でサンプリングされて、A/D変換器208でデジタル信号化される。この際のタイミングは、TG211(Timing Generator)により生成される。撮像素子206からの画像信号はその後、IPP209(Image Pre−Processor)でアパーチャ補正や圧縮等の画像処理が実行されて、画像バッファメモリ210で一時的に保存される。各ユニットの動作は、MPU212により制御される。画像バッファメモリ210で保存された画像信号は、最終的に外部通信機器221により外部機器に転送される。
【0040】
図3は、画像処理装置102のハードウェア構成を表す。CPU301は、各種の処理や制御を実行する。SDRAM302は、CPU301の作業領域として利用されると共に、各種の処理プログラムや制御プログラムの固定情報の記録領域として利用される。外部I/F321は、インターネット等の電気通信回線や外部機器と接続するためのインタフェースであり、表示I/F322は、ディスプレイ等の表示装置と接続するためのインタフェースであり、入力I/F323は、キーボードやマウス等の入力装置と接続するためのインターフェースである。撮像装置101からの画像信号や、各種の処理プログラムや制御プログラムは、CD−RWドライブ等の記録装置311や外部I/F321を介してSDRAM202にロードされる。この際、HDD312に一旦セーブしてSDRAM302に適宜ロードしてもよい。
【0041】
図4は、画像処理装置102の機能ブロックを表す。画像処理装置102は、形状判定部401と、第1処理部402と、第2処理部403と、記録部404を備える。これらの機能ブロックにより画像処理装置102は、撮像装置101により撮像された画像について画像処理を実行して三次元形状を算出する。
【0042】
形状判定部401は、この画像の被写体が平面形状であるか立体形状であるかを自動的に判定する。例えば、この画像の被写体の奥行を抽出して、この奥行からこの画像の被写体が平面形状であるか立体形状であるかを自動的に判定する。これについては第1実施例として後述する。例えば、この画像の被写体の三次元形状を概算して、この三次元形状からこの画像の被写体の奥行を抽出して、この奥行からこの画像の被写体が平面形状であるか立体形状であるかを自動的に判定する。これについては第2実施例として後述する。
【0043】
第1処理部402は、形状判定部401によりこの画像の被写体が平面形状であると判定された場合に、この画像について平面形状用の画像処理を実行して三次元形状を算出する。この詳細については後述することにする。第2処理部403は、形状判定部401によりこの画像の被写体が立体形状であると判定された場合に、この画像について立体形状用の画像処理を実行して三次元形状を算出する。この詳細については後述することにする。記録部404は、画像や判定結果や算出結果等を記録する。
【0044】
このように、画像処理装置102は、上記の画像の被写体が平面形状であるか立体形状であるかを自動的に判定して、平面形状である場合は、上記の画像について平面形状用の画像処理を実行して三次元形状を算出して、立体形状である場合は、上記の画像について立体形状用の画像処理を実行して三次元形状を算出するため、被写体形状が平面形状である場合にも立体形状である場合にも、被写体形状の判定のおかげで、被写体の三次元形状を精度よく算出することができる。
【0045】
(1)第1実施例
図5は、第1実施例の画像処理装置102の機能ブロックを表す。第1実施例の画像形成装置102は、図4の形状判定部401を奥行抽出部501と形状判定部502により構成したものである。これらの機能ブロックにより第1実施例の画像処理装置102は、撮像装置101により撮像された画像について画像処理を実行して三次元形状を算出する。
【0046】
奥行抽出部501は、この画像の被写体の奥行を自動的に抽出して、形状判定部502は、この奥行からこの画像の被写体が平面形状であるか立体形状であるかを自動的に判定する。ここでは、2箇所以上の視点から撮像された画像の射影変換により「被写体奥行」を抽出して、抽出された被写体奥行の閾値処理により「被写体形状」を判定するものとする。
【0047】
なお、この「被写体奥行」とは、図6のように、被写体を正面方向(被写体の概形を直方体で置き換えたときの最大面)から見たときの被写体の厚みのことを意味する。被写体奥行が小さいことは被写体形状が平面形状であることを、被写体奥行が大きいことは被写体形状が立体形状であることを意味する。
【0048】
さて、射影変換行列は、2箇所の視点から撮像された画像上の4点以上の対応点の位置情報から算出することができる。ただし、被写体形状が平面形状であることが射影変換を行う上での前提となるため、被写体形状が立体形状である場合には射影変換を行うことができず、射影変換行列を精度よく算出することができない。別の見方をすると、互いに異なる組み合わせの対応点から射影変換行列B1と射影変換行列B2を算出した場合、被写体形状が平面形状から離れるほどB1とB2の差が広がることになる。すなわち、B1とB2の差をもって被写体奥行とすることができる。よってここでは、奥行抽出部501は、2箇所以上の視点から撮像された画像の射影変換により被写体奥行(B1とB2の差)を抽出して、形状判定部502は、抽出された被写体奥行(B1とB2の差)の閾値処理により被写体形状を判定するものとする。
【0049】
なお、この「2箇所以上の視点から撮像された画像」は、同一の撮像装置101により撮像された画像同士でも、別個の撮像装置101により撮像された画像同士でもよい。
【0050】
図7は、第1実施例の画像処理装置102に係るフローチャートである。
【0051】
S701では、2箇所以上の視点から撮像された画像をメモリに記録する。
【0052】
S702では、1枚目の画像から特徴点を検出する。具体的には、▲1▼各画素を中心位置にして特徴点検出ブロックを作成し、各特徴点検出ブロック内の輝度値分布(又はRGB値分布)を検出して、▲2▼画像を領域分割し、各領域内で輝度値分布の差が顕著である特徴点検出ブロックを検出して、▲3▼この特徴点検出ブロックの中心位置(特徴点)の位置情報と輝度値分布をメモリに記録する。
【0053】
S703では、2枚目の画像から特徴点の対応点を検出する。具体的には、▲1▼各画素を中心位置にして対応点検出ブロックを作成し、各対応点検出ブロック内の輝度値分布を検出して、▲2▼この輝度値分布と各特徴点の輝度値分布(S702でメモリに記録した輝度値分布)とのマッチング行い、▲3▼一致度が最良である対応点検出ブロックの中心位置(対応点)の位置情報をメモリに記録する。一致度が閾値より良い対応点検出ブロックが存在しない場合には、その特徴点をメモリから消去する。
【0054】
S704では、各対応点の正否を判断する。具体的には、▲1▼各特徴点から縦横5ピクセルの画素を中心位置にして特徴点検出ブロックを作成して、▲2▼各対応点から縦横5ピクセルの画素を中心位置にして対応点検出ブロックを作成して、▲3▼この特徴点検出ブロックとこの対応点検出ブロックとのマッチングを行い、▲4▼一致度が閾値より悪い場合には、間違えて検出されたものと判断し、その対応点をメモリから消去する。一致度に応じて対応点の順位付けをして、メモリに記録しておいてもよい。
【0055】
S705では、任意に選択した4点以上の対応点の位置情報から射影変換行列B1を算出する。S706では、任意に選択した4点以上の対応点の位置情報から射影変換行列B2を算出する。S707では、B1とB2の差の閾値処理を行う。なお、S705で選択する対応点とS706で選択する対応点を別個のものとするために、S705とS706との間で、S705で選択された対応点をメモリから消去する。
【0056】
B1とB2の差が閾値以下である場合には、S708にて、上記の画像について平面形状用の画像処理を実行して三次元形状を算出する。B1とB2の差が閾値以下でない場合には、S709にて、上記の画像について平面形状用の画像処理を実行して三次元形状を算出する。いずれの場合もS710にて、三次元形状の算出結果をメモリに記録する。
【0057】
(2)第2実施例
図8は、第2実施例の画像処理装置102の機能ブロックを表す。第2実施例の画像形成装置102は、図4の形状判定部401を三次元形状概算部801と奥行抽出部802と形状判定部803により構成したものである。これらの機能ブロックにより第1実施例の画像処理装置102は、撮像装置101により撮像された画像について画像処理を実行して三次元形状を算出する。
【0058】
三次元形状概算部801は、この画像の被写体の大まかな三次元形状を自動的に概算して、奥行抽出部802は、この三次元形状からこの画像の被写体の奥行を自動的に抽出して、形状判定部803は、この奥行からこの画像の被写体が平面形状であるか立体形状であるかを自動的に判定する。ここでは、後述する手法により「被写体の三次元形状」を概算して、概算された被写体の三次元形状の点群データにより「被写体奥行」を抽出して、抽出された被写体奥行の閾値処理により「被写体形状」を判定するものとする。
【0059】
被写体の大まかな三次元形状を概算する手法としては、▲1▼因子分解法を使用して概算する手法、▲2▼対応点からオプティカルフローを算出して概算する手法、▲3▼被写体の輪郭を抽出して概算する手法、▲4▼被写体にパタン光を照射して三角測定により概算する手法、▲5▼被写体からの反射光の強度比を測定して概算する手法、▲6▼焦点距離の違いによる画像ボケを利用して概算する手法等が挙げられる。よってここでは、三次元形状概算部801は、いずれかの手法により被写体の三次元形状を概算するものとする。
【0060】
なお、手法▲4▼や手法▲5▼により被写体の三次元形状を概算する場合には、被写体に光を照射するための光照射装置を撮像装置101に設置してもよい。
【0061】
以下の例のように、概算された被写体の三次元形状を利用すれば、被写体奥行を抽出することができる。まず、概算された被写体の三次元形状から、この三次元形状を構成する点群データを抽出する。次に、5点以上の点群データを平面方程式「ax+by+cz=d」に代入して、4個の定数「a,b,c,d」を算出する。5点以上の点群データを代入して4個の定数を算出するため、定数解が一意に決定されず分布を持つ。そこで、最小二乗法を使用して、各点群データと平面方程式との距離の二乗和が最小になるようにして、定数解を決定することにする。ここで、被写体形状が平面形状であれば、点群データは平面をなすのであるから、この最小二乗和は小さい値になるはずであるが、被写体形状が立体形状であれば、点群データは平面をなさないのであるから、この最小二乗和は大きい値になるはずである。すなわち、この最小二乗和をもって被写体奥行とすることができる。よってここでは、奥行抽出部802は、概算された被写体の三次元形状の点群データにより被写体奥行(各点群データと平面方程式との距離の二乗和の最小値)を抽出するものとする。
【0062】
以下の例のように、抽出された被写体奥行を利用すれば、被写体形状を判定することができる。抽出された被写体奥行Dの一定閾値Jによる閾値処理により、被写体形状を判定することは可能である。しかし、厳密に言えば、被写体奥行が小さくても被写体サイズも小さければ、被写体形状が立体形状である場合もあるし、被写体奥行が大きくても被写体サイズも大きければ、被写体形状が平面形状である場合もある。よってここでは、形状判断部803は、抽出された被写体奥行Dと被写体サイズSとの商D/Sの一定閾値Jによる閾値処理により、被写体形状を判定するものとする。
【0063】
なお、被写体サイズは、概算された三次元形状を利用して算出するようにしてもよい。例えば、この三次元形状を構成する点群データのうちで最も離れたもの同士の距離を算出して、この距離をもって被写体サイズとする。また、手法▲3▼のように被写体の輪郭を抽出する場合は、被写体サイズは、この輪郭線を利用して算出するようにしてもよい。
【0064】
図9は、第2実施例の画像処理装置102に係るフローチャートである。
【0065】
S901では、撮像された画像をメモリに記録する。
【0066】
S902では、被写体の三次元形状を概算する。S903では、被写体奥行を抽出する。S904では、被写体形状を判定する。ここでは、上述した手法により被写体の三次元形状を概算して、概算された被写体の三次元形状の点群データにより被写体奥行D(各点群データと平面方程式との距離の二乗和の最小値)を抽出して、抽出された被写体奥行Dと被写体サイズSとの商D/Sの一定閾値Jによる閾値処理により被写体形状を判定する。
【0067】
D/SがJ以下である場合(平面形状である場合)には、S905にて、上記の画像について平面形状用の画像処理を実行して三次元形状を算出する。D/SがJ以下でない場合(立体形状である場合)には、S906にて、上記の画像について平面形状用の画像処理を実行して三次元形状を算出する。いずれの場合もS907にて、三次元形状の算出結果をメモリに記録する。
【0068】
(3)第3実施例
図10は、第3実施例の撮像装置101のハードウェア構成を表す。第3実施例の撮像装置101は、図2の構成要素に加えて、当該撮像装置101の姿勢を算出するための物理量(ここでは重力加速度と地磁気)を検出する検出装置1001を備える。図2により説明したように、画像バッファメモリ210で保存された画像信号は、最終的に外部通信機器221により外部機器に転送されるが、ここでは、画像バッファメモリ210で保存された画像信号は、その前にMPU212内の記憶部215に記憶される。
【0069】
以上のような「撮像動作」は電源スイッチ213がONの状態で撮像スイッチ214が押されると開始されるのであるが、これと同時に、以下のような「検出動作」も開始される。すなわち、重力加速度と地磁気(詳細にはこれらのX成分とY成分とZ成分)が、三軸加速度センサ1002と三軸磁気センサ1003でそれぞれ電圧信号として検出されて、A/D変換器1004でデジタル信号化されて、MPU212内の記憶部215に画像信号に添付されて記憶される。重力加速度信号と地磁気信号が添付された画像信号は、最終的に外部通信機器221により外部機器に転送される。
【0070】
なお、三軸磁気センサ1003に代えて「三軸角速度センサ」を使用してもよい。また、三軸磁気センサ1003と共に「三軸角速度センサ」を使用してもよい。その他にも、三軸重力センサと三軸磁気センサ1003に代えて「水平センサ」を使用してもよい。検出装置1001に使用するセンサは、撮像装置101の姿勢を算出するための物理量(ここでは重力加速度と地磁気)を検出することができれば、どのようなセンサでも構わない。例えば、撮像装置101が巨大である場合には「GPSセンサ」を使用する(研究例は非特許文献2や非特許文献3)ことも考えられる。
【0071】
図11は、第3実施例の画像処理装置102の機能ブロックを表す。第3実施例の画像形成装置102は、図8の三次元形状概算部801を対応点検出部1101と姿勢算出部1102と並進成分算出部1103と三次元形状概算部1104により構成したものである。これらの機能ブロックにより第3実施例の画像処理装置102は、撮像装置101により撮像された画像について画像処理を実行して三次元形状を算出する。
【0072】
対応点検出部1101は、撮像装置101により撮像された画像から対応点を検出する。画像から対応点を検出する手法としては、ブロックマッチング(理論的詳細は非特許文献4)が挙げられる。ブロックマッチングでは、2箇所以上の視点から撮像された画像を使用して、輝度値分布やRGB値分布により、1枚目の画像から特徴点を検出して、輝度値分布やRGB値分布のマッチング(相互相関の最大化)により、2枚目の画像から特徴点の対応点を検出する。
【0073】
姿勢算出部1102は、検出装置1001により検出された物理量(ここでは重力加速度と地磁気)から撮像装置101の姿勢を算出する。撮像装置101の姿勢は、ワールド座標系(図12のXYZ座標系:地面に固定された座標系)に対する撮像装置座標系(図13のxyz座標系:撮像装置101に固定された座標系)の向きにより表現される。ワールド座標系に対する撮像装置座標系の向きは、式(1)のような、ワールド座標系を回転して撮像装置座標系にするための回転行列Rにより表現される。Rは、▲1▼Z軸回りに角度γだけ回転して、▲2▼X軸回りに角度αだけ回転して、▲3▼Y軸回りに角度βだけ回転することを意味する。
【0074】
【数1】
さて、ここでは計算の便宜上、地磁気の伏角は無視することにする。これにより、ワールド座標系における重力加速度gと地磁気mは、式(2)のように表現できる。また、撮像装置座標系における重力加速度Gと地磁気Mは、式(3)のように表現される。
【0075】
【数2】
【0076】
【数3】
ここで、gとGとの間には式(4)のような関係式が成立して、mとMとの間には式(5)のような関係式が成立する。
【0077】
【数4】
【0078】
【数5】
式(4)からは、角度αが式(6)のように導出されて、角度γが式(7)のように導出される。式(5)からは、角度βが式(8)のように導出される。
【0079】
【数6】
【0080】
【数7】
【0081】
【数8】
ここで、重力加速度以外の加速度(慣性力加速度)や地磁気以外の磁気は無視できるとすると、三軸加速度センサ1002で検出される加速度は重力加速度Gとなり、三軸磁気センサ1003で検出される磁気は地磁気Mとなる。よって、姿勢算出部1102は、検出装置1001により検出された重力加速度Gと地磁気Mを、式(6)と式(7)と式(8)に代入して、角度αと角度βと角度γを算出する。こうして、撮像装置101の姿勢が算出されたことになる。
【0082】
並進成分算出部1103は、上記の対応点と上記の姿勢から撮像装置101の並進成分を算出する。ここで、この「並進成分」とは、図14のように、対応点検出の際に使用された画像に関して、1枚目の画像を撮像した際の光学中心から2枚目の画像を撮像した際の光学中心までのベクトル成分bのことを意味する。
【0083】
さて、図14中のオブジェクトに関して対応点検出が実行されたとする場合、1枚目の画像と2枚目の画像を撮像した際の光学中心からオブジェクトまでのベクトル成分をそれぞれPとP’とすると、PとP’とbとは同一平面上にあるため、PとP’とbとのスカラ3重積(平行六面体の体積にあたる)は0になる。正確には、PとP’との座標系が異なるため、1枚目の画像を撮像した際から2枚目の画像を撮像した際までの撮像装置101の姿勢の変化RをP’に掛けて、PとRP’とbとのスカラ3重積「P・RP’×b」が0になる。よって、並進成分算出部1103は、上記の対応点と上記の姿勢を、このスカラ3重積の式に代入して、撮像装置101の並進成分を算出する。
【0084】
なお、必要となるのは並進成分の向きであるから、算出すべき変数は最低2個であり、必要となる対応点は最低2点である。そのため、3点以上の対応点検出を実行した場合には、相互相関の高い対応点のみを使用してもいいし、最小二乗法を使用してもいいし、多数の並進成分を導出して並進成分群を投票空間に投影して最適な並進成分を算出(研究例は非特許文献5)してもいい。
【0085】
三次元形状概算部1104は、上記の対応点と上記の姿勢と上記の並進成分から、撮像装置101により撮像された画像の被写体の三次元形状を概算する。対応点と姿勢と並進成分から被写体の三次元形状を概算する手法としては、三角測定原理により概算する手法が代表例として挙げられる。加えて、三角測定の精度向上のための対策(研究例は非特許文献6)を実行してもいい。
【0086】
このように、第3実施例の画像処理装置102は、検出装置1001により検出された物理量(ここでは重力加速度と地磁気)から算出される撮像装置101の姿勢に基づいて、上記の画像の被写体の三次元形状を概算する。
【0087】
図15は、第3実施例の画像処理装置102に係るフローチャートである。
【0088】
S1501では、2箇所以上の視点から撮像された画像と共に、これらの画像を撮像した際に検出された重力加速度と地磁気をメモリに記録する。
【0089】
S1502では、1枚目の画像から特徴点を検出する。具体的には、▲1▼各画素を中心位置にして特徴点検出ブロックを作成し、各特徴点検出ブロック内の輝度値分布(又はRGB値分布)を検出して、▲2▼画像を領域分割し、各領域内で輝度値分布の差が顕著である特徴点検出ブロックを検出して、▲3▼この特徴点検出ブロックの中心位置(特徴点)の位置情報と輝度値分布をメモリに記録する。
【0090】
S1503では、2枚目の画像から特徴点の対応点を検出する。具体的には、▲1▼各画素を中心位置にして対応点検出ブロックを作成し、各対応点検出ブロック内の輝度値分布を検出して、▲2▼この輝度値分布と各特徴点の輝度値分布(S1502でメモリに記録した輝度値分布)とのマッチング行い、▲3▼一致度が最良である対応点検出ブロックの中心位置(対応点)の位置情報をメモリに記録する。一致度が閾値より良い対応点検出ブロックが存在しない場合には、その特徴点をメモリから消去する。
【0091】
S1504では、各対応点の正否を判断する。具体的には、▲1▼各特徴点から縦横5ピクセルの画素を中心位置にして特徴点検出ブロックを作成して、▲2▼各対応点から縦横5ピクセルの画素を中心位置にして対応点検出ブロックを作成して、▲3▼この特徴点検出ブロックとこの対応点検出ブロックとのマッチングを行い、▲4▼一致度が閾値より悪い場合には、間違えて検出されたものと判断し、その対応点をメモリから消去する。一致度に応じて対応点の順位付けをして、メモリに記録しておいてもよい。
【0092】
S1505では、1枚目の画像を撮像した際に検出された重力加速度と地磁気から、1枚目の画像を撮像した際の撮像装置101の姿勢を算出して、2枚目の画像を撮像した際に検出された重力加速度と地磁気から、2枚目の画像を撮像した際の撮像装置101の姿勢を算出する。
【0093】
S1506では、上記の画像と上記の姿勢から、1枚目の画像を撮像した際から2枚目の画像を撮像した際までの撮像装置101の並進成分を算出する。
【0094】
S1507では、上記の画像と上記の姿勢と上記の並進成分から、撮像装置101により撮像された画像の被写体の三次元形状を概算する。S1508では、被写体奥行を抽出する。S1509では、被写体形状を判定する。ここでは、三角測定原理により被写体の三次元形状を概算して、概算された被写体の三次元形状の点群データにより被写体奥行D(各点群データと平面方程式との距離の二乗和の最小値)を抽出して、抽出された被写体奥行Dと被写体サイズSとの商D/Sの一定閾値Jによる閾値処理により被写体形状を判定する。
【0095】
D/SがJ以下である場合(平面形状である場合)には、S1510にて、上記の画像について平面形状用の画像処理を実行して三次元形状を算出する。D/SがJ以下でない場合(立体形状である場合)には、S1511にて、上記の画像について平面形状用の画像処理を実行して三次元形状を算出する。いずれの場合もS1512にて、三次元形状の算出結果をメモリに記録する。
【0096】
(第1処理部402)
上述のように、第1処理部402は、上記の画像の被写体が平面形状であると判定された場合に、上記の画像について平面形状用の画像処理(平面形状の三次元形状を算出するのに適した画像処理)を実行して三次元形状を算出する。この具体例としてここでは、2箇所以上の視点から撮像された画像の射影変換により撮像装置101の姿勢と並進成分を算出して、これらに基づいて三角測定原理等により三次元形状を算出する場合について説明する。
【0097】
被写体形状が平面形状である場合には、2箇所以上の視点から撮像された画像から射影変換行列Bを算出することにより、撮像装置101の姿勢と並進成分を算出することができる。1枚目の画像の特徴点の位置を(u,v)として、2枚目の画像の対応点の位置を(U,V)とすると、射影変換は式(9)のように表現される。式(9)の未知数b1からb8を式(10)のようにまとめたものが射影変換行列Bである。
【0098】
【数9】
【0099】
【数10】
この射影変換行列Bは、2箇所以上の視点から撮像された画像の4点以上の対応点の位置情報から算出することができる。5点以上の対応点検出を実行した場合には、相互相関の高い対応点のみを使用してもいいし、最小二乗法を使用してもいい。
【0100】
この射影変換行列Bは、撮像装置座標系で表現されているので、式(11)のような撮像装置内部行列Aによる変換式(12)を使用して、撮像装置座標系で表現された射影変換行列Bをワールド座標系で表現された射影変換行列Hに変換する。ただし、zは焦点距離であり、u0とv0は画面中心であり、kuとkvは画素密度である。
【0101】
【数11】
【0102】
【数12】
この射影変換行列Hと姿勢Rと並進成分bとの間には式(13)のような関係式(理論的詳細は非特許文献7)が成立する。ただし、sはスケール調整ための定数であり、nは被写体平面の法線ベクトルである。
【0103】
【数13】
よってここでは、第1処理部402は、2箇所以上の視点から撮像された画像から射影変換行列Bや射影変換行列Hを算出することにより、撮像装置101の姿勢Rと並進成分bを算出して、これらに基づいて三角測定原理等により三次元形状を算出するものとする。
【0104】
(第2処理部403)
上述のように、第2処理部403は、上記の画像の被写体が立体形状であると判定された場合に、上記の画像について立体形状用の画像処理(立体形状の三次元形状を算出するのに適した画像処理)を実行して三次元形状を算出する。この具体例としてここでは、2箇所以上の視点から撮像された画像に関しての8点アルゴリズム(Structure from Motionの一種。理論的詳細は非特許文献8や非特許文献9)により撮像装置101の姿勢と並進成分を算出して、これらに基づいて三角測定原理等により三次元形状を算出する場合について説明する。
【0105】
被写体形状が立体形状である場合には、2箇所以上の視点から撮像された画像に関しての8点アルゴリズムにより、撮像装置101の姿勢と並進成分を算出することができる。8点アルゴリズムでは、上述したPとP’とbとの間の関係式「P・RP’×b=0」を使用して、姿勢Rと並進成分bを、2箇所以上の視点から撮像された画像の8点以上の対応点の位置情報から算出する。
【0106】
具体的には、3次行列E(=b×R)を上記の関係式に代入して、3次行列Eの各成分を算出する。よって、算出すべき変数は9個であり、必要となる対応点は9点である。しかし、並進成分に関して、必要となるのは並進成分の向きであるから、算出すべき変数は1個少ない最低8個であり、必要となる対応点は1点少ない最低8点である。そのため、9点以上の対応点検出を実行した場合には、相互相関の高い対応点のみを使用してもいいし、最小二乗法を使用してもいい。
【0107】
よってここでは、第2処理部403は、2箇所以上の視点から撮像された画像から8点アルゴリズムにより3次行列Eを算出することにより、撮像装置101の姿勢Rと並進成分bを算出して、これらに基づいて三角測定原理等により三次元形状を算出するものとする。
【0108】
(変形例)
第1処理部402の変形例としては、▲1▼上記の画像の被写体が平面形状であるか立体形状であるかを再判定して、▲2▼平面形状であると再判断された場合は、上記の画像について平面形状用の画像処理を実行して三次元形状を算出して、▲3▼立体形状であると再判断された場合は、上記の画像について立体形状用の画像処理を実行して三次元形状を算出するようにしてもいい。なお、▲1▼▲2▼▲3▼を実行する機能ブロックを、それぞれ再形状判断部・再第1処理部・再第2処理部と呼ぶ。
【0109】
第3実施例に関しては、再形状判定部は、▲1▼撮像装置101により撮像された画像から対応点を再検出して、▲2▼この対応点等から被写体の三次元形状を再概算して、▲3▼この三次元形状から被写体奥行を再抽出して、▲4▼この被写体奥行から被写体形状を再判定するようにしてもよい。このようにする理由としては例えば、図16のように、1平面からしか対応点を検出できなかったために、実際は立体形状であるのに平面形状であると誤判定される場合があることが挙げられる。
【0110】
したがって、対応点再検出は、より対応点を検出しやすい手法で実行することが望ましい。このような手法としては、姿勢と並進成分からエピポーラ拘束条件を算出して、エピポーラ線を撮像面に投影して、エピポーラ線上で対応点再検出を実行することで、相互相関の閾値を低下させる手法が挙げられる。エピポーラ拘束条件とは、上述したPとP’とbとの間の関係式「P・RP’×b=0」に姿勢Rと並進成分bを代入した関係式である。エピポーラ線とは、この関係式に特徴点(u,v)と焦点距離zを代入して算出される、対応点(U,V)を変数とする直線方程式「aU+bY+c=0」である。このエピポーラ線上で対応点再検出を実行するようにすれば、対応点を検出しやすくなる。具体的に言えば、相互相関の閾値を低下させて、より多くの対応点をより誤対応なく検出することができる。
【0111】
なお、平面形状であると再判定された場合は、直ちに三次元形状を算出するようにしてもいいし、平面形状であるか立体形状であるかの再判定を何度もループしてもよい。上述した第3実施例に関する具体例で言うと、対応点再検出を何度もループすることになる。このループを終了する手法としては、各対応点再検出で検出された各対応点とエピポーラ線との距離の和を算出しておいて、今回の和L(n)と前回の和L(n−1)との差が閾値以下になったら、今回でループを終了するという手法が挙げられる。ループが終了したら、三次元形状を算出するようにする。
【0112】
(変形例)
図1の画像処理装置102は、本発明に係る「画像処理装置」の実施の形態の例であり、図1の画像処理装置102により実行される画像処理方法は、本発明に係る「画像処理方法」の実施の形態の例である。この画像処理方法をコンピュータに実行させる画像処理プログラムは、本発明に係る「画像処理プログラム」の実施の形態の例であり、この画像処理方法をコンピュータに実行させる画像処理プログラムが記録された記録媒体(CD−ROM、DVD−ROM、スマートメディア等)は、本発明に係る「記録媒体」の実施の形態の例である。
【0113】
図1の撮像装置101と画像処理装置102は、個別の電子機器ではなく一体の電子機器でもよい。このような電子機器の例としては、カメラ付き携帯電話機や、カメラ付きノート型パソコンや、カメラ付きPDAや、画像処理機能付きのデジタルカメラが挙げられる。
【0114】
【発明の効果】
このように、本発明は、被写体形状が平面形状である場合にも立体形状である場合にも、被写体の三次元形状を精度よく算出することを可能にする。
【図面の簡単な説明】
【図1】撮像装置と画像処理装置を表す。
【図2】撮像装置のハードウェア構成を表す。
【図3】画像処理装置のハードウェア構成を表す。
【図4】画像処理装置の機能ブロックを表す。
【図5】第1実施例の画像処理装置の機能ブロックを表す。
【図6】被写体奥行について説明するための図である。
【図7】第1実施例の画像処理装置に係るフローチャートである。
【図8】第2実施例の画像処理装置の機能ブロックを表す。
【図9】第2実施例の画像処理装置に係るフローチャートである。
【図10】第3実施例の撮像装置のハードウェア構成を表す。
【図11】第3実施例の画像処理装置の機能ブロックを表す。
【図12】ワールド座標系を表す。
【図13】撮像装置座標系を表す。
【図14】並進成分について説明するための図である。
【図15】第3実施例の画像処理装置に係るフローチャートである。
【図16】第1処理部の変形例について説明するための図である。
【符号の説明】
101 撮像装置
102 画像処理装置
401 形状判定部
402 第1処理部
403 第2処理部
404 記録部
501 奥行抽出部
502 形状判定部
801 三次元形状概算部
802 奥行抽出部
803 形状判定部
1001 検出装置
1101 対応点検出部
1102 姿勢算出部
1103 並進成分算出部
1104 三次元形状概算部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, an image processing method, an image processing program, a recording medium, and an electronic apparatus.
[0002]
[Prior art]
Currently, the spread of digital cameras is rapidly progressing, and the development of applications using digital cameras is also active. Examples of this include “image panorama synthesis”, “image distortion correction”, “three-dimensional shape calculation”, “autonomous movement of a robot”, and “automatic driving of a vehicle”. Among these, “calculation of three-dimensional shape” is expected to progress because there is a need to provide three-dimensional information of goods for electronic commerce.
[0003]
[Patent Document 1]
JP 11-136575 A
[0004]
[Patent Document 2]
Japanese Patent Laid-Open No. 11-306363
[0005]
[Patent Document 3]
Japanese Patent Laid-Open No. 2000-115639
[0006]
[Patent Document 4]
JP 2000-134537 A
[0007]
[Patent Document 5]
JP 2000-228748 A
[0008]
[Patent Document 6]
JP 2001-92944 A
[0009]
[Patent Document 7]
JP 2001-148025 A
[0010]
[Patent Document 8]
JP 2001-325069 A
[0011]
[Non-Patent Document 1]
Q. -T. Luong, O .; D. Faugeras “Determining the Fundamental Matrix with Planes: Instability and New Algorithms” Proc. of Computer Vision and Pattern Recognition, p489-494, 1993.
[0012]
[Non-Patent Document 2]
Shusaku Mibu, Hiromune Namie, Akio Yasuda “Three-dimensional attitude measurement of the hull with RTK-GPS: 3-Dimensional Attitude Measurement of RTK-GPS Positioning” Tokyo MOL University
[0013]
[Non-Patent Document 3]
Hiromune Namie “Study on PGPS and RTK-GPS for Practical Use”, Tokyo MOL University
[0014]
[Non-Patent Document 4]
Xugang and Saburo Saburo, “Three-dimensional Vision”, Kyoritsu Shuppan, Chapter 3
[0015]
[Non-Patent Document 5]
Okaya Takayuki, Deguchi Koichiro "Estimating translational motion of a camera by voting using a camera with a three-dimensional sensor" Human Interface Computer Vision and Image Media, 2001/9/13
[0016]
[Non-Patent Document 6]
Richard I. Hartley, Computer Vision And Image Understanding, vol. 68, no. 2, November, pp146-157, 1997
[0017]
[Non-Patent Document 7]
Tomoaki Morijiri, Yasuhiro Onodera, Kenichi Kanaya “Calculation of three-dimensional motion of a plane from two images” Information Processing Society of Japan, 94-CV-90, 1994
[0018]
[Non-Patent Document 8]
Xugang, Saburo Tsubasa "3D Vision" Kyoritsu Shuppan, Chapter 6
[0019]
[Non-patent document 9]
Kenichi Kanaya “Image Understanding”, Shukusha, Chapter 4
[0020]
[Problems to be solved by the invention]
In order to calculate the three-dimensional shape of a subject using an image captured by an imaging device such as a digital camera, a technique called “Structure from Motion” is generally used. However, according to this method, when the subject shape is close to a planar shape, the calculation accuracy decreases because the perspective difference is small (Non-Patent Document 1). For this reason, this method has a problem that the three-dimensional shape of the subject cannot be accurately calculated when the subject shape is a planar shape such as paper or a flat plate.
[0021]
When the subject shape is a planar shape, a three-dimensional shape of the subject can be calculated by calculating a projective transformation matrix as described in Patent Document 7. However, this method has a problem that, if the subject shape is a three-dimensional shape, the three-dimensional shape of the subject cannot be accurately calculated.
[0022]
Therefore, an object of the present invention is to accurately calculate the three-dimensional shape of a subject regardless of whether the subject shape is a planar shape or a three-dimensional shape.
[0023]
[Means for Solving the Problems]
The image processing apparatus of the present inventionAn image processing device that performs image processing on an image captured by an imaging device to calculate a three-dimensional shape,2 A transformation matrix calculation means for calculating a projection transformation matrix from position information of four or more corresponding points on the image captured from the viewpoint of the location, and the projection transformation matrix calculated by the projection transformation matrix calculation meansThe subject of the imageDepth extraction means for extracting values used for shape determination, and values used for shape determinationComprising a shape determining means for determining whether the subject of the image is a planar shape or a three-dimensional shape;The depth extraction means is a value used for the shape determination with a difference between two projective transformation matrices calculated from corresponding points of different combinations.If it is a planar shape, the image processing for the planar shape is executed for the image to calculate a three-dimensional shape. If it is a three-dimensional shape, the image processing for the three-dimensional shape is executed for the image The shape is calculated.
[0034]
Image processing apparatus or image forming method of the present inventionDetermines whether the subject of the image is a planar shape or a three-dimensional shape, and if it is a planar shape, performs image processing for the planar shape on the image to calculate a three-dimensional shape, If the object shape is a three-dimensional shape, the image processing for the three-dimensional shape is performed on the image to calculate the three-dimensional shape. Therefore, whether the subject shape is a planar shape or a three-dimensional shape, the subject shape is determined. Thanks to this, the three-dimensional shape of the subject can be calculated accurately.
[0035]
An image processing apparatus or an image forming method according to another aspect of the present inventionOf the subject of the imageValue used for shape judgmentExtract the aboveValue used for shape judgmentFrom the above, it is determined whether the subject of the image is a planar shape or a three-dimensional shape. If the subject is a planar shape, the image processing for the planar shape is performed on the image to calculate a three-dimensional shape, and the three-dimensional shape is obtained. If it is a shape, it calculates the three-dimensional shape by executing the image processing for the three-dimensional shape, so whether the subject shape is a planar shape or a three-dimensional shape,Value used for shape judgmentThanks to the determination of the subject shape through the extraction of the three-dimensional shape, the three-dimensional shape of the subject can be accurately calculated.
[0036]
An image processing apparatus or an image forming method according to another aspect of the present inventionApproximates the three-dimensional shape of the subject of the image and calculates the subject of the image from the three-dimensional shape.Value used for shape judgmentExtract the aboveValue used for shape judgmentFrom the above, it is determined whether the subject of the image is a planar shape or a three-dimensional shape. If the subject is a planar shape, the image processing for the planar shape is performed on the image to calculate a three-dimensional shape, and the three-dimensional shape is obtained. If it is a shape, the image processing for the three-dimensional shape is performed on the image to calculate the three-dimensional shape. Therefore, the three-dimensional shape of the subject can be obtained regardless of whether the subject shape is a planar shape or a three-dimensional shape. Subject via an estimate ofUsed for shape determinationThanks to the determination of the subject shape through the extraction of the three-dimensional shape, the three-dimensional shape of the subject can be accurately calculated.
[0037]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described.
[0038]
FIG. 1 shows an
[0039]
FIG. 2 shows a hardware configuration of the
[0040]
FIG. 3 shows a hardware configuration of the image processing apparatus 102. The
[0041]
FIG. 4 shows functional blocks of the image processing apparatus 102. The image processing apparatus 102 includes a
[0042]
The
[0043]
When the
[0044]
As described above, the image processing apparatus 102 automatically determines whether the subject of the image has a planar shape or a three-dimensional shape. If the subject has a planar shape, the image for the planar shape is used for the image. If the object shape is a planar shape because the three-dimensional shape is calculated by executing the processing and the three-dimensional shape is calculated by executing the image processing for the three-dimensional shape on the above image. Even in the case of a three-dimensional shape, the three-dimensional shape of the subject can be accurately calculated thanks to the determination of the subject shape.
[0045]
(1) First embodiment
FIG. 5 illustrates functional blocks of the image processing apparatus 102 according to the first embodiment. In the image forming apparatus 102 of the first embodiment, the
[0046]
The
[0047]
The “subject depth” means the thickness of the subject when the subject is viewed from the front direction (the maximum surface when the outline of the subject is replaced with a rectangular parallelepiped) as shown in FIG. A small subject depth means that the subject shape is a planar shape, and a large subject depth means that the subject shape is a three-dimensional shape.
[0048]
Now, the projective transformation matrix can be calculated from position information of four or more corresponding points on an image captured from two viewpoints. However, since it is a precondition for performing the projective transformation that the subject shape is a planar shape, the projective transformation cannot be performed when the subject shape is a three-dimensional shape, and the projective transformation matrix is accurately calculated. I can't. From another viewpoint, when the projective transformation matrix B1 and the projective transformation matrix B2 are calculated from corresponding points in different combinations, the difference between B1 and B2 becomes wider as the subject shape becomes farther from the planar shape. That is, the subject depth can be determined by the difference between B1 and B2. Therefore, here, the
[0049]
The “images captured from two or more viewpoints” may be images captured by the same
[0050]
FIG. 7 is a flowchart according to the image processing apparatus 102 of the first embodiment.
[0051]
In S701, images taken from two or more viewpoints are recorded in the memory.
[0052]
In S702, feature points are detected from the first image. Specifically, (1) a feature point detection block is created with each pixel as the center position, luminance value distribution (or RGB value distribution) in each feature point detection block is detected, and (2) the image is a region The feature point detection block in which the difference in luminance value distribution is remarkable in each region is detected, and (3) the position information and luminance value distribution of the center position (feature point) of this feature point detection block are stored in the memory. Record.
[0053]
In S703, the corresponding point of the feature point is detected from the second image. Specifically, (1) a corresponding point detection block is created with each pixel as the center position, a luminance value distribution in each corresponding point detection block is detected, and (2) the luminance value distribution and each feature point are detected. Matching with the luminance value distribution (the luminance value distribution recorded in the memory in S702) is performed, and (3) the position information of the center position (corresponding point) of the corresponding point detection block having the best matching degree is recorded in the memory. If there is no corresponding point detection block whose matching degree is better than the threshold value, the feature point is deleted from the memory.
[0054]
In S704, it is determined whether each corresponding point is correct. Specifically, (1) create a feature point detection block centered on 5 pixels vertically and horizontally from each feature point, and (2) check the correspondence centered on 5 pixels vertically and horizontally from each corresponding point. Create an outgoing block and (3) perform matching between this feature point detection block and this corresponding point detection block. (4) If the matching degree is worse than the threshold value, it is determined that it has been detected by mistake, The corresponding point is deleted from the memory. The corresponding points may be ranked according to the degree of coincidence and recorded in the memory.
[0055]
In S705, a projective transformation matrix B1 is calculated from position information of four or more corresponding points that are arbitrarily selected. In S706, a projective transformation matrix B2 is calculated from position information of four or more corresponding points that are arbitrarily selected. In S707, threshold processing for the difference between B1 and B2 is performed. Note that the corresponding point selected in S705 is deleted from the memory between S705 and S706 in order to make the corresponding point selected in S705 and the corresponding point selected in S706 distinct.
[0056]
If the difference between B1 and B2 is less than or equal to the threshold value, in step S708, the image processing for the planar shape is executed on the above image to calculate a three-dimensional shape. If the difference between B1 and B2 is not less than or equal to the threshold value, in step S709, a three-dimensional shape is calculated by executing image processing for a planar shape on the image. In either case, the calculation result of the three-dimensional shape is recorded in the memory in S710.
[0057]
(2) Second embodiment
FIG. 8 illustrates functional blocks of the image processing apparatus 102 according to the second embodiment. In the image forming apparatus 102 of the second embodiment, the
[0058]
The three-dimensional
[0059]
The approximate three-dimensional shape of the subject can be estimated by (1) a method using a factorization method, (2) a method for calculating an optical flow from corresponding points, and (3) a contour of the subject. (4) Method of irradiating pattern light to a subject and estimating by triangulation measurement, (5) Method of measuring and estimating the intensity ratio of reflected light from the subject, (6) Focal length For example, a rough estimation method using image blur due to the difference between the two may be used. Therefore, it is assumed here that the three-dimensional
[0060]
Note that when the three-dimensional shape of the subject is approximated by the methods (4) and (5), a light irradiation device for irradiating the subject with light may be installed in the
[0061]
As in the following example, the subject depth can be extracted by using the estimated three-dimensional shape of the subject. First, point cloud data constituting the three-dimensional shape is extracted from the estimated three-dimensional shape of the subject. Next, four constants “a, b, c, d” are calculated by substituting the point group data of five or more points into the plane equation “ax + by + cz = d”. Since four constants are calculated by substituting five or more point group data, the constant solution is not uniquely determined and has a distribution. Therefore, a constant solution is determined by using the least square method so that the sum of squares of the distance between each point cloud data and the plane equation is minimized. Here, if the subject shape is a plane shape, the point cloud data forms a plane, so this minimum square sum should be a small value, but if the subject shape is a three-dimensional shape, the point cloud data is Since it does not form a plane, this least square sum should be large. In other words, the subject depth can be set with the least square sum. Therefore, here, it is assumed that the
[0062]
As in the following example, the subject shape can be determined by using the extracted subject depth. It is possible to determine the subject shape by threshold processing using the fixed threshold J of the extracted subject depth D. However, strictly speaking, if the subject depth is small and the subject size is small, the subject shape may be a three-dimensional shape. If the subject depth is large and the subject size is large, the subject shape is a planar shape. In some cases. Therefore, here, the
[0063]
Note that the subject size may be calculated using an estimated three-dimensional shape. For example, the distance between the most distant point cloud data constituting this three-dimensional shape is calculated, and this distance is used as the subject size. When extracting the contour of the subject as in method (3), the subject size may be calculated using this contour line.
[0064]
FIG. 9 is a flowchart according to the image processing apparatus 102 of the second embodiment.
[0065]
In step S901, the captured image is recorded in the memory.
[0066]
In S902, the three-dimensional shape of the subject is approximated. In step S903, the subject depth is extracted. In step S904, the subject shape is determined. Here, the three-dimensional shape of the subject is approximated by the above-described method, and the subject depth D (the minimum value of the sum of squares of the distance between each point group data and the plane equation is calculated based on the estimated point cloud data of the subject. ) And the subject shape is determined by threshold processing using a constant threshold J of the quotient D / S of the extracted subject depth D and subject size S.
[0067]
If D / S is equal to or less than J (in the case of a planar shape), in S905, the image processing for the planar shape is executed on the above image to calculate a three-dimensional shape. If D / S is not equal to or less than J (in the case of a three-dimensional shape), a three-dimensional shape is calculated by executing image processing for a planar shape on the above image in S906. In any case, the calculation result of the three-dimensional shape is recorded in the memory in S907.
[0068]
(3) Third embodiment
FIG. 10 illustrates a hardware configuration of the
[0069]
The “imaging operation” as described above is started when the
[0070]
Instead of the triaxial magnetic sensor 1003, a “triaxial angular velocity sensor” may be used. Further, a “triaxial angular velocity sensor” may be used together with the triaxial magnetic sensor 1003. In addition, a “horizontal sensor” may be used instead of the triaxial gravity sensor and the triaxial magnetic sensor 1003. The sensor used in the detection device 1001 may be any sensor as long as it can detect physical quantities (in this case, gravitational acceleration and geomagnetism) for calculating the attitude of the
[0071]
FIG. 11 illustrates functional blocks of the image processing apparatus 102 according to the third embodiment. In the image forming apparatus 102 of the third embodiment, the three-dimensional
[0072]
The corresponding point detection unit 1101 detects a corresponding point from the image captured by the
[0073]
The
[0074]
[Expression 1]
Here, for the convenience of calculation, the dip angle of geomagnetism is ignored. Thereby, the gravitational acceleration g and the geomagnetism m in the world coordinate system can be expressed as shown in Expression (2). Further, the gravitational acceleration G and the geomagnetism M in the image pickup apparatus coordinate system are expressed as in Expression (3).
[0075]
[Expression 2]
[0076]
[Equation 3]
Here, a relational expression such as Expression (4) is established between g and G, and a relational expression such as Expression (5) is established between m and M.
[0077]
[Expression 4]
[0078]
[Equation 5]
From equation (4), angle α is derived as in equation (6), and angle γ is derived as in equation (7). From equation (5), the angle β is derived as in equation (8).
[0079]
[Formula 6]
[0080]
[Expression 7]
[0081]
[Equation 8]
If acceleration other than gravitational acceleration (inertial force acceleration) and magnetism other than geomagnetism can be ignored, the acceleration detected by the three-axis acceleration sensor 1002 becomes the gravitational acceleration G, and the magnetism detected by the three-axis magnetic sensor 1003. Becomes geomagnetism M. Therefore, the
[0082]
The translation
[0083]
Now, assuming that corresponding point detection is executed for the object in FIG. 14, let P and P ′ be vector components from the optical center to the object when the first image and the second image are captured, respectively. , P, P ′, and b are on the same plane, the scalar triple product of P, P ′, and b (corresponding to the volume of a parallelepiped) is zero. Precisely, since the coordinate system of P and P ′ is different, a change in attitude R of the
[0084]
Note that since the direction of the translation component is required, at least two variables are to be calculated, and at least two corresponding points are required. For this reason, when three or more corresponding points are detected, only corresponding points with high cross-correlation may be used, the least squares method may be used, or many translation components may be derived. An optimal translation component may be calculated by projecting the translation component group onto a voting space (non-patent document 5 is a research example).
[0085]
The three-dimensional shape estimation unit 1104 estimates the three-dimensional shape of the subject of the image captured by the
[0086]
As described above, the image processing apparatus 102 according to the third embodiment is based on the posture of the
[0087]
FIG. 15 is a flowchart according to the image processing apparatus 102 of the third embodiment.
[0088]
In S1501, together with images taken from two or more viewpoints, the gravitational acceleration and geomagnetism detected when these images are taken are recorded in the memory.
[0089]
In S1502, feature points are detected from the first image. Specifically, (1) a feature point detection block is created with each pixel as the center position, luminance value distribution (or RGB value distribution) in each feature point detection block is detected, and (2) the image is a region The feature point detection block in which the difference in luminance value distribution is remarkable in each region is detected, and (3) the position information and luminance value distribution of the center position (feature point) of this feature point detection block are stored in the memory. Record.
[0090]
In S1503, the corresponding point of the feature point is detected from the second image. Specifically, (1) a corresponding point detection block is created with each pixel as the center position, a luminance value distribution in each corresponding point detection block is detected, and (2) the luminance value distribution and each feature point are detected. Matching with the luminance value distribution (the luminance value distribution recorded in the memory in S1502) is performed, and (3) the position information of the center position (corresponding point) of the corresponding point detection block having the best matching degree is recorded in the memory. If there is no corresponding point detection block whose matching degree is better than the threshold value, the feature point is deleted from the memory.
[0091]
In S1504, it is determined whether each corresponding point is correct. Specifically, (1) create a feature point detection block centered on 5 pixels vertically and horizontally from each feature point, and (2) check the correspondence centered on 5 pixels vertically and horizontally from each corresponding point. Create an outgoing block and (3) perform matching between this feature point detection block and this corresponding point detection block. (4) If the matching degree is worse than the threshold value, it is determined that it has been detected by mistake, The corresponding point is deleted from the memory. The corresponding points may be ranked according to the degree of coincidence and recorded in the memory.
[0092]
In S1505, the orientation of the
[0093]
In step S <b> 1506, the translation component of the
[0094]
In step S <b> 1507, the three-dimensional shape of the subject of the image captured by the
[0095]
If D / S is equal to or less than J (in the case of a planar shape), in S1510, the image processing for the planar shape is executed on the above image to calculate a three-dimensional shape. If D / S is not equal to or less than J (in the case of a three-dimensional shape), a three-dimensional shape is calculated by executing image processing for a planar shape on the above image in S1511. In either case, the calculation result of the three-dimensional shape is recorded in the memory in S1512.
[0096]
(First processing unit 402)
As described above, when it is determined that the subject of the image has a planar shape, the
[0097]
When the subject shape is a planar shape, the orientation and translational component of the
[0098]
[Equation 9]
[0099]
[Expression 10]
This projective transformation matrix B can be calculated from position information of four or more corresponding points of an image captured from two or more viewpoints. When five or more corresponding points are detected, only corresponding points with high cross-correlation may be used, or the least square method may be used.
[0100]
Since the projection transformation matrix B is expressed in the imaging device coordinate system, the projection expressed in the imaging device coordinate system using the transformation equation (12) by the imaging device internal matrix A as shown in Equation (11). The transformation matrix B is transformed into a projective transformation matrix H expressed in the world coordinate system. However, z is a focal length, u0 and v0 are the screen centers, and ku and kv are pixel densities.
[0101]
[Expression 11]
[0102]
[Expression 12]
A relational expression (theoretical details are Non-Patent Document 7) is established among the projective transformation matrix H, the posture R, and the translation component b. Here, s is a constant for adjusting the scale, and n is a normal vector of the object plane.
[0103]
[Formula 13]
Therefore, here, the
[0104]
(Second processing unit 403)
As described above, when the
[0105]
When the subject shape is a three-dimensional shape, the posture and translational component of the
[0106]
Specifically, the cubic matrix E (= b × R) is substituted into the above relational expression to calculate each component of the cubic matrix E. Therefore, there are nine variables to be calculated, and nine corresponding points are required. However, regarding the translation component, since the direction of the translation component is required, the number of variables to be calculated is one less, at least eight, and the corresponding corresponding points are one point less, at least eight. Therefore, when detection of nine or more corresponding points is performed, only corresponding points having a high cross-correlation may be used, or the least square method may be used.
[0107]
Therefore, here, the
[0108]
(Modification)
As a modified example of the
[0109]
With respect to the third embodiment, the reshape determining unit {circle around (1)} redetects corresponding points from the image captured by the
[0110]
Therefore, it is desirable that the corresponding point redetection is performed by a method that makes it easier to detect the corresponding points. As such a method, the epipolar constraint condition is calculated from the posture and the translation component, the epipolar line is projected onto the imaging surface, and the corresponding point is detected again on the epipolar line, thereby reducing the cross-correlation threshold. A method is mentioned. The epipolar constraint condition is a relational expression in which the posture R and the translation component b are substituted into the relational expression “P · RP ′ × b = 0” between P, P ′, and b described above. The epipolar line is a linear equation “aU + bY + c = 0” with the corresponding point (U, V) as a variable, which is calculated by substituting the characteristic point (u, v) and the focal length z into this relational expression. If the corresponding point redetection is executed on the epipolar line, it becomes easier to detect the corresponding point. More specifically, it is possible to detect a greater number of corresponding points with no erroneous correspondence by lowering the cross-correlation threshold.
[0111]
If it is determined again that the shape is a planar shape, the three-dimensional shape may be calculated immediately, or the re-determination of whether the shape is a planar shape or a three-dimensional shape may be looped many times. . If it says in the specific example regarding 3rd Example mentioned above, corresponding point redetection will be looped many times. As a method of ending this loop, the sum of the distances between the corresponding points detected by the corresponding point redetection and the epipolar line is calculated, and the current sum L (n) and the previous sum L (n If the difference from -1) is less than or equal to the threshold value, a method of terminating the loop at this time can be mentioned. When the loop is finished, the three-dimensional shape is calculated.
[0112]
(Modification)
An image processing apparatus 102 in FIG. 1 is an example of an embodiment of an “image processing apparatus” according to the present invention, and an image processing method executed by the image processing apparatus 102 in FIG. It is an example of embodiment of a method. An image processing program for causing a computer to execute this image processing method is an example of an embodiment of an “image processing program” according to the present invention, and a recording medium on which an image processing program for causing the computer to execute this image processing method is recorded (CD-ROM, DVD-ROM, smart media, etc.) is an example of an embodiment of a “recording medium” according to the present invention.
[0113]
The
[0114]
【The invention's effect】
As described above, the present invention makes it possible to accurately calculate the three-dimensional shape of a subject regardless of whether the subject shape is a planar shape or a three-dimensional shape.
[Brief description of the drawings]
FIG. 1 illustrates an imaging apparatus and an image processing apparatus.
FIG. 2 illustrates a hardware configuration of the imaging apparatus.
FIG. 3 illustrates a hardware configuration of the image processing apparatus.
FIG. 4 illustrates functional blocks of the image processing apparatus.
FIG. 5 illustrates functional blocks of the image processing apparatus according to the first embodiment.
FIG. 6 is a diagram for explaining subject depth.
FIG. 7 is a flowchart according to the image processing apparatus of the first embodiment.
FIG. 8 illustrates functional blocks of the image processing apparatus according to the second embodiment.
FIG. 9 is a flowchart according to the image processing apparatus of the second embodiment.
FIG. 10 illustrates a hardware configuration of an imaging apparatus according to a third embodiment.
FIG. 11 illustrates functional blocks of the image processing apparatus according to the third embodiment.
FIG. 12 represents a world coordinate system.
FIG. 13 illustrates an imaging apparatus coordinate system.
FIG. 14 is a diagram for explaining a translational component.
FIG. 15 is a flowchart according to an image processing apparatus of a third embodiment.
FIG. 16 is a diagram for explaining a modification of the first processing unit.
[Explanation of symbols]
101 Imaging device
102 Image processing apparatus
401 Shape determination unit
402 First processing unit
403 Second processing unit
404 Recording section
501 Depth extraction unit
502 Shape determination unit
801 3D shape estimation part
802 Depth extraction unit
803 Shape determination unit
1001 Detection device
1101 Corresponding point detector
1102 Attitude calculation unit
1103 Translation component calculation unit
1104 Three-dimensional shape estimation part
Claims (9)
2 箇所の視点から撮像された画像上の4点以上の対応点の位置情報から射影変換行列を算出する変換行列算出手段と、
前記射影変換行列算出手段により算出された射影変換行列により前記画像の被写体の形状判定に用いる値を抽出する奥行抽出手段と、
前記形状判定に用いる値から前記画像の被写体が平面形状であるか立体形状であるかを判定する形状判定手段を備え、
前記奥行抽出手段は、互いに異なる組合せの対応点から算出された2つの射影変換行列の差をもって前記形状判定に用いる値とし、
平面形状である場合は、前記画像について平面形状用の画像処理を実行して三次元形状を算出して、立体形状である場合は、前記画像について立体形状用の画像処理を実行して三次元形状を算出することを特徴とする画像処理装置。An image processing device that performs image processing on an image captured by an imaging device to calculate a three-dimensional shape,
Transformation matrix calculation means for calculating a projection transformation matrix from position information of four or more corresponding points on an image captured from two viewpoints;
Depth extraction means for extracting values used for shape determination of the subject of the image by the projection transformation matrix calculated by the projection transformation matrix calculation means;
Shape determining means for determining whether the subject of the image is a planar shape or a three-dimensional shape from the value used for the shape determination,
The depth extraction means is a value used for the shape determination with a difference between two projective transformation matrices calculated from corresponding points of different combinations.
If it is a planar shape, the image processing for the planar shape is executed for the image to calculate a three-dimensional shape. If it is a three-dimensional shape, the image processing for the three-dimensional shape is executed for the image An image processing apparatus that calculates a shape.
前記画像の被写体の三次元形状を概算する三次元形状概算手段と、
前記三次元形状を構成する点群データを抽出し、複数の前記点群データと平面方程式との距離の二乗和の最小値を前記画像の被写体の形状判定に用いる値として抽出する奥行抽出手段と、
前記形状判定に用いる値から前記画像の被写体が平面形状であるか立体形状であるかを判定する形状判定手段を備え、
平面形状である場合は、平面形状用の画像処理を実行して三次元形状を算出して、立体形状である場合は、立体形状用の画像処理を実行して三次元形状を算出することを特徴とする画像処理装置。An image processing device that performs image processing on an image captured by an imaging device to calculate a three-dimensional shape,
Three-dimensional shape estimation means for estimating the three-dimensional shape of the subject of the image;
Depth extraction means for extracting point cloud data constituting the three-dimensional shape, and extracting a minimum value of a square sum of distances between the plurality of point cloud data and a plane equation as a value used for determining the shape of the subject of the image ; ,
Shape determining means for determining whether the subject of the image is a planar shape or a three-dimensional shape from the value used for the shape determination,
If the shape is a plane shape, the image processing for the plane shape is executed to calculate the three-dimensional shape. If the shape is the three-dimensional shape, the image processing for the shape is executed to calculate the three-dimensional shape A featured image processing apparatus.
2 箇所の視点から撮像された画像上の4点以上の対応点の位置情報から射影変換行列を算出する変換行列算出段階と、
前記射影変換行列算出手段により算出された射影変換行列により前記画像の被写体の形状判定に用いる値を抽出する奥行抽出段階と、
前記形状判定に用いる値から前記画像の被写体が平面形状であるか立体形状であるかを判定する形状判定段階を備え、
前記奥行抽出段階は、互いに異なる組合せの対応点から算出された2つの射影変換行列の差をもって前記形状判定に用いる値とし、
平面形状である場合は、前記画像について平面形状用の画像処理を実行して三次元形状を算出して、立体形状である場合は、前記画像について立体形状用の画像処理を実行して三次元形状を算出することを特徴とする画像処理方法。An image processing method for calculating a three-dimensional shape by executing image processing on an image captured by an imaging device,
A transformation matrix calculation stage for calculating a projection transformation matrix from position information of four or more corresponding points on an image captured from two viewpoints;
A depth extraction step of extracting a value to be used for determining the shape of the subject of the image from the projection transformation matrix calculated by the projection transformation matrix calculating means;
A shape determination step for determining whether the subject of the image is a planar shape or a three-dimensional shape from the values used for the shape determination;
The depth extraction step is a value used for the shape determination with a difference between two projective transformation matrices calculated from corresponding points of different combinations.
If it is a planar shape, the image processing for the planar shape is executed for the image to calculate a three-dimensional shape. If it is a three-dimensional shape, the image processing for the three-dimensional shape is executed for the image An image processing method characterized by calculating a shape.
前記画像の被写体の三次元形状を概算する三次元形状概算段階と、
前記三次元形状を構成する点群データを抽出し、複数の前記点群データと平面方程式との距離の二乗和の最小値を前記画像の被写体の形状判定に用いる値として抽出する奥行抽出段階と、
前記形状判定に用いる値から前記画像の被写体が平面形状であるか立体形状であるかを判定する形状判定段階を備え、
平面形状である場合は、平面形状用の画像処理を実行して三次元形状を算出して、立体形状である場合は、立体形状用の画像処理を実行して三次元形状を算出することを特徴とする画像処理方法。An image processing method for calculating a three-dimensional shape by executing image processing on an image captured by an imaging device,
A three-dimensional shape estimation step for estimating the three-dimensional shape of the subject of the image;
A depth extraction step of extracting point cloud data constituting the three-dimensional shape, and extracting a minimum sum of squares of distances between the plurality of point cloud data and a plane equation as a value used for determining the shape of the subject of the image ; ,
A shape determination step for determining whether the subject of the image is a planar shape or a three-dimensional shape from the values used for the shape determination;
If the shape is a plane shape, the image processing for the plane shape is executed to calculate the three-dimensional shape. If the shape is the three-dimensional shape, the image processing for the shape is executed to calculate the three-dimensional shape A featured image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002381504A JP4136652B2 (en) | 2002-12-27 | 2002-12-27 | Image processing apparatus, image processing method, image processing program, recording medium, and electronic apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002381504A JP4136652B2 (en) | 2002-12-27 | 2002-12-27 | Image processing apparatus, image processing method, image processing program, recording medium, and electronic apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004213278A JP2004213278A (en) | 2004-07-29 |
JP4136652B2 true JP4136652B2 (en) | 2008-08-20 |
Family
ID=32817401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002381504A Expired - Fee Related JP4136652B2 (en) | 2002-12-27 | 2002-12-27 | Image processing apparatus, image processing method, image processing program, recording medium, and electronic apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4136652B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5977591B2 (en) * | 2012-06-20 | 2016-08-24 | オリンパス株式会社 | Image processing apparatus, imaging apparatus including the same, image processing method, and computer-readable recording medium recording an image processing program |
JP7147828B2 (en) * | 2020-11-11 | 2022-10-05 | 日本電気株式会社 | Image processing system, image processing method and program |
-
2002
- 2002-12-27 JP JP2002381504A patent/JP4136652B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004213278A (en) | 2004-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101776620B1 (en) | Apparatus for recognizing location mobile robot using search based correlative matching and method thereof | |
KR100886439B1 (en) | Estimation system, estimation method, and estimation program for estimating object state | |
US10311595B2 (en) | Image processing device and its control method, imaging apparatus, and storage medium | |
CN110462686B (en) | Apparatus and method for obtaining depth information from a scene | |
KR101776621B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
US8818097B2 (en) | Portable electronic and method of processing a series of frames | |
US8639025B2 (en) | Measurement apparatus and control method | |
US8928736B2 (en) | Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program | |
WO2018112788A1 (en) | Image processing method and device | |
KR20150144731A (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
WO2017022033A1 (en) | Image processing device, image processing method, and image processing program | |
KR20150144729A (en) | Apparatus for recognizing location mobile robot using key point based on gradient and method thereof | |
KR20130051501A (en) | Online reference generation and tracking for multi-user augmented reality | |
US6839081B1 (en) | Virtual image sensing and generating method and apparatus | |
JP2010014450A (en) | Position measurement method, position measurement device, and program | |
JPH11306363A (en) | Image input device and image inputting method | |
CN113012224B (en) | Positioning initialization method and related device, equipment and storage medium | |
JP6922348B2 (en) | Information processing equipment, methods, and programs | |
JP2001266128A (en) | Method and device for obtaining depth information and recording medium recording depth information obtaining program | |
JP4136652B2 (en) | Image processing apparatus, image processing method, image processing program, recording medium, and electronic apparatus | |
JP6579816B2 (en) | Image processing apparatus, image processing method, and program | |
JP2006113832A (en) | Stereoscopic image processor and program | |
JPH10320558A (en) | Calibration method, corresponding point search method and device therefor, focus distance detection method and device therefor, three-dimensional position information detection method and device therefor, and recording medium | |
JP2005038021A (en) | Image processing apparatus, image input device, image processing method and program for executing the method by computer | |
JP2003006618A (en) | Method and device for generating three-dimensional model and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080129 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080507 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080603 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110613 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110613 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120613 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130613 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |