JP2008250487A - エッジ検出によるモデルマッチングを用いたカメラ校正方法 - Google Patents

エッジ検出によるモデルマッチングを用いたカメラ校正方法 Download PDF

Info

Publication number
JP2008250487A
JP2008250487A JP2007088868A JP2007088868A JP2008250487A JP 2008250487 A JP2008250487 A JP 2008250487A JP 2007088868 A JP2007088868 A JP 2007088868A JP 2007088868 A JP2007088868 A JP 2007088868A JP 2008250487 A JP2008250487 A JP 2008250487A
Authority
JP
Japan
Prior art keywords
camera calibration
model matching
model
calibration method
reference point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007088868A
Other languages
English (en)
Other versions
JP4821009B2 (ja
Inventor
Hiroyuki Miyamoto
弘之 宮本
Shuji Yamaguchi
修司 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
Original Assignee
Kyushu Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC filed Critical Kyushu Institute of Technology NUC
Priority to JP2007088868A priority Critical patent/JP4821009B2/ja
Publication of JP2008250487A publication Critical patent/JP2008250487A/ja
Application granted granted Critical
Publication of JP4821009B2 publication Critical patent/JP4821009B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)

Abstract

【課題】乱雑な背景で基準点の指定が実際の位置とずれていてもカメラ校正が可能となるエッジ検出によるモデルマッチングを用いたカメラ校正方法を提供する。
【解決手段】形状と大きさが既知で直交する3辺を備えた対象物11をステレオカメラ12、13で撮影して入力画像を得る第1工程と、入力画像の平滑化処理を行なって解析対象画像を得る第2工程と、解析対象画像内のエッジを検出する第3工程と、3辺で構成される三次元座標系の原点と各座標軸上の点にそれぞれ対応する4基準点位置を入力画像内に指定する第4工程と、各基準点位置から決まる座標軸モデルと解析対象画像内の3辺が一致するようにモデルマッチングを行なって修正基準点位置を求める第5工程と、各修正基準点位置を用いて対象物モデルを作成し解析対象画像内の対象物11と一致するようにモデルマッチングを行なって最適な透視投影行列を決定する第6工程とを有し、最適な透視投影行列を用いてカメラ校正を行なう。
【選択図】図2

Description

本発明は、エッジ検出によるモデルマッチングを用いたカメラ校正方法に関する。
ステレオカメラは三次元の空間位置を知ることができるため、人間の活動を支援または代行する多くのシステムに必要なコンピュータの眼となっている。しかし、ステレオカメラによる三次元位置計測を行なうためには、カメラの画像中の座標と実際の空間座標とを対応させるためのカメラ校正(カメラキャリブレーション)が必要である。カメラ校正は通常、大きさが予め判っている対象物をカメラで写し、基準点を複数個指定してカメラの画像中の座標と実際の空間の座標とを対応させる透視投影行列を計算することにより行なわれる(例えば、非特許文献1参照)。
徐剛、辻三郎著、「3次元ビジョン」、共立出版、1998年4月20日、p.79−82
一般的に、指定される基準点の数が多いほどカメラ校正の精度は向上するが、外乱が発生した場合、その度にカメラ校正をやり直す必要があるため多数の点を指定することは煩雑になるという問題がある。そのため、多くの基準点を指定しなくても精度の高いカメラ校正が行なえるようになれば、三次元位置計測の簡略化、作業時間の短縮、可搬性の向上等が期待できる。そこで、対象物に特徴的な色を使用し、色情報を用いて対象物を検出することが試みられている。しかしながら、乱雑な背景ではカメラ校正が行なえないという問題がある。
本発明はかかる事情に鑑みてなされたもので、乱雑な背景でも対象物を検出でき、しかも、基準点の指定が実際の位置とずれていてもそのずれを修正した後にカメラ校正が可能となるエッジ検出によるモデルマッチングを用いたカメラ校正方法を提供することを目的とする。
前記目的に沿う本発明に係るエッジ検出によるモデルマッチングを用いたカメラ校正方法は、形状と大きさが既知で1点で互いに直交する3辺を備えた対象物をステレオカメラで撮影して入力画像を得る第1工程と、
前記入力画像の平滑化処理を行なって解析対象画像を得る第2工程と、
前記解析対象画像内のエッジを検出する第3工程と、
前記直交する3辺で構成される三次元座標系の原点および各座標軸上の点にそれぞれ対応する4つの基準点位置を前記入力画像内に指定する第4工程と、
前記4つの基準点位置から決まる座標軸モデルの各軸と前記解析対象画像内の前記直交する3辺のエッジが一致するようにモデルマッチングを行なって該4つの基準点位置を正確な原点および各座標軸上の点に修正し4つの修正基準点位置を求める第5工程と、
前記各修正基準点位置を用いて透視投影行列の初期値を求めて対象物モデルを作成し、該対象物モデルの各辺と前記解析対象画像内の前記対象物の各エッジが一致するようにモデルマッチングを行なって最適な透視投影行列を決定する第6工程とを有し、
前記最適な透視投影行列を用いてカメラ校正を行なう。
本発明に係るエッジ検出によるモデルマッチングを用いたカメラ校正方法において、前記入力画像を静止画像として得ることが好ましい。
ここで、前記平滑化処理はガウシアンフィルタを用いて行なうことができる。
また、前記エッジの検出にはロバートフィルタを使用することができる。
更に、前記エッジの検出には、前記解析対象画像中の緑色を使用することが好ましい。
本発明に係るエッジ検出によるモデルマッチングを用いたカメラ校正方法において、前記4つの修正基準点位置を求めるモデルマッチングおよび前記透視投影行列を最適化するモデルマッチングには、それぞれ多次元滑降シンプレックス法を適用することができる。
請求項1〜7記載のエッジ検出によるモデルマッチングを用いたカメラ校正方法においては、モデルマッチングには対象物のエッジを使用するので、乱雑な背景でも対象物を検出することが可能になる。更に、入力画像内に指定した4つの基準点位置から作成される各座標軸モデルと解析対象画像内の直交する3辺のエッジが一致するようにモデルマッチングを行なって4つの修正基準点位置を求めるので、入力画像内に指定する各基準点位置を正確に入力することが不要となり、基準点の指定を容易かつ短時間に行なうことができる。そして、4つの修正基準点位置を用いて透視投影行列の初期値を求めて対象物モデルを作成し、対象物モデルの各辺と解析対象画像内の対象物の各エッジが一致するようにモデルマッチングを行なって最適な透視投影行列を決定するので、精度の高いカメラ校正が可能になる。その結果、外乱が発生しても容易かつ短時間でカメラ校正をやり直すことが可能になる。
特に、請求項2記載のエッジ検出によるモデルマッチングを用いたカメラ校正方法においては、入力画像を静止画像とするので解析を高速化することができる。
請求項3記載のエッジ検出によるモデルマッチングを用いたカメラ校正方法においては、平滑化処理をガウシアンフィルタを用いて行なうことで、対象物が容易に検出されるようになる。
請求項4記載のエッジ検出によるモデルマッチングを用いたカメラ校正方法においては、ロバートフィルタを適用するので、対象物のエッジ成分の強度と方向を求めることができ、エッジ成分の強度と方向の情報を用いてモデルマッチングに用いる目的関数を構成することができる。
請求項5記載のエッジ検出によるモデルマッチングを用いたカメラ校正方法においては、エッジ成分の検出に解析対象画像中の緑色を使用するので、人間の眼に近い検出を行なうことができる。
請求項6、7記載のエッジ検出によるモデルマッチングを用いたカメラ校正方法においては、多次元滑降シンプレックス法を適用することで、座標軸モデルの各軸と解析対象画像内の直交する3辺のエッジを一致させるモデルマッチング、対象物モデルの各辺と解析対象画像内の対象物の各エッジを一致させるモデルマッチングをそれぞれ容易に行なうことができる。
続いて、添付した図面を参照しつつ、本発明を具体化した実施の形態につき説明し、本発明の理解に供する。
ここで、図1は本発明の一実施の形態に係るエッジ検出によるモデルマッチングを用いたカメラ校正方法を適用した三次元位置計測装置の説明図、図2は同カメラ校正方法の工程説明図、図3は立方体に設定した三次元座標系および基準点の説明図、図4(A)は多次元滑降シンプレックス法の初期値の説明図、(B)〜(E)は多次元滑降シンプレックス法の基本動作の説明図である。
図1に示すように、本発明の一実施の形態に係るエッジ検出によるモデルマッチングを用いたカメラ校正方法を適用した三次元位置計測装置10は、形状と大きさが既知で1点で互いに直交する3辺を備えた対象物の一例である立方体11と、静止状態の立方体11を撮影するステレオカメラを構成する左右のカメラ12、13と、カメラ12、13がそれぞれ接続されたコンピュータ14と、コンピュータ14に接続され、カメラ12、13で撮影しコンピュータ14内に保存された静止画像としての入力画像およびカメラ校正の結果を視覚的に表示可能なモニタ17とを有している。ここで、立方体11は、所定の長さ(例えば、10〜100cm程度)を有する、例えば白色の12本の棒状部材18で形成されている。なお、対象物としては、直方体であってもよい。また、カメラ12、13は、立方体11にそれぞれ光軸を向けて、しかも、立方体11に向かって左右にそれぞれ配置されている。
ここで、コンピュータ14は、カメラ12、13で撮影したカメラ画像15、16を入力画像として保存する機能、入力画像の平滑化処理を行なって解析対象画像を作成し保存する機能、解析対象画像内のエッジを検出する機能、三次元座標系の原点および各座標軸上の点として指定された4つの基準点位置を入力画像内での位置として保存する機能を有している。更に、コンピュータ14は、4つの基準点位置から決まる座標軸モデルの各軸と解析対象画像内の直交する3辺のエッジが一致するようにモデルマッチングを行なって4つの基準点位置を正確な原点および各座標軸上の点に修正し4つの修正基準点位置を求めて保存する機能、各修正基準点位置を用いて透視投影行列の初期値を求めて対象物モデルを作成し、対象物モデルの各辺と解析対象画像内の立方体の各エッジが一致するようにモデルマッチングを行なって最適な透視投影行列を決定し保存する機能を有している。
続いて、本発明の一実施の形態に係るエッジ検出によるモデルマッチングを用いたカメラ校正方法について説明する。
図2に示すように、本発明のエッジ検出によるモデルマッチングを用いたカメラ校正方法は、形状と大きさが既知の立方体11を左右のカメラ12、13で撮影しコンピュータ14内に取り込んで入力画像を得る第1工程と、入力画像の平滑化処理を行なって解析対象画像を得る第2工程と、解析対象画像内のエッジを検出する第3工程と、直交する3辺で構成される三次元座標系の原点および各座標軸上の点にそれぞれ対応する4つの基準点位置を入力画像内に指定する第4工程と、4つの基準点位置から決まる座標軸モデルの各軸と解析対象画像内の直交する3辺のエッジが一致するようにモデルマッチングを行なって4つの基準点位置を正確な原点および各座標軸上の点に修正し4つの修正基準点位置を求める第5工程と、各修正基準点位置を用いて透視投影行列の初期値を求めて対象物モデルとなる立方体モデルを作成し、立方体モデルの各辺と解析対象画像内の立方体の各エッジが一致するようにモデルマッチングを行なって最適な透視投影行列を決定する第6工程とを有している。以下、詳細に説明する。
立方体11を左右のカメラ12、13で撮影する場合、立方体11のカメラ画像として静止像を撮影する。これによって、カメラ画像15、16をコンピュータ14内に取り込んで得られる立方体11の入力画像を静止画像とすることができ、以下の工程における入力画像に基づいた各種解析を高速化することができる(以上、第1工程)。
入力画像に、ガウシアンフィルタを適用して平滑化処理を行なって、入力画像から余分なエッジ成分が除去された立方体11の解析対象画像を求め、コンピュータ14内に保存する。解析対象画像を使用することで、立方体11の検出が容易になる(以上、第2工程)。
微分フィルタの一種であるロバートフィルタを適用することで平面上の隣り合う2つの画素の濃度の差分が求まるので、直交する2方向の差分値を合成することにより、任意の画素点(解析対象画像内の任意の位置)におけるエッジ成分の強度とエッジ勾配の方向が求まる。そこで、解析対象画像の全ての領域に対してロバートフィルタを適用し、立方体11の解析対象画像からエッジを検出することで、得られたエッジ成分の強度と角度が求まり、得られた各値をそれぞれエッジ強度、エッジ角度のマップとしてコンピュータ14内に保存する。ここで、エッジの検出には、解析対象画像中の緑色を使用する。人間の眼は380〜780nmの放射スペクトルが可視域範囲であるが、波長によって人の眼の感度が異なる。そして、標準的な人間の眼の分光感度として、国際照明委員会により標準比視感度曲線が定められており、最大視感度は波長555nmの光、すなわち緑色の光である。これは、人の目が特に緑の色に敏感に反応することを示している。従って、解析対象画像中の緑色を使用することにより、人間の眼に近い検出ができると解される(以上、第3工程)。
立方体11の直交する3辺で構成される三次元座標系の原点および各座標軸上の点にそれぞれ対応する4つの基準点位置を入力画像内に、例えば、入力機器の一例であるマウスを用いて指定する。ここで、図3に示すように、原点を基準点1に指定し、次いで各座標軸上の点として原点から伸びる各辺の端点をそれぞれ基準点2、3、4として順次指定する。なお、指定する各基準点1〜4の位置は、例えば、画素数で10%程度まで、好ましくは10%以内のずれが発生していてもよい(以上、第4工程)。
指定した各基準点1、2、3、4の位置から、基準点1、2を通る軸をX軸、基準点1、3を通る軸をY軸、基準点1、4を通る軸をZ軸と定義した座標軸モデルを設定し、各軸と解析対象画像内の直交する3辺のエッジが一致するようにモデルマッチングを行なって各基準点1、2、3、4の位置を修正して4つの修正基準点位置を求める(第5工程)。ここで、座標軸モデルに式(1)に示す目的関数Oを与え、多次元滑降シンプレックス法を適用した最適化によりモデルマッチングを行なった。
O=−d−e・・・・・(1)
式(1)において、dはロバートフィルタで求めたエッジの角度と、重ね合わせた座標軸モデルの各軸の角度の一致数であり、eは座標軸モデルの各軸上のエッジ強度の合計である。
dを求める場合、座標軸モデルの各軸と解析対象画像を重ね合わせ、座標軸モデルの各軸上の複数(例えば、3〜30個)の点に対応する解析対象画像上の点から予め設定した幅(例えば、立方体11の辺の長さの3〜30%であり、辺の長さが長くなると広くするように調整する)の区間についてのエッジの角度を調べ、その角度が、座標軸モデルの各軸の角度と一致すればカウントするという方法で求めた。同様に、eを求める場合も、座標軸モデルの各軸上の複数(例えば、3〜30個)の点に対応する解析対象画像上の点から予め設定した幅(例えば、立方体11の辺の長さの3〜30%であり、辺の長さが長くなると広くするように調整する)の区間についてのエッジの強度を調べ、その強度を合計する方法で求めた。そして、(1)式の目的関数の値が最小値になるような各基準点1、2、3、4の位置を求めれば、その位置が修正基準点位置となる。
なお、多次元滑降シンプレックス法では、最適化すべき要素、すなわち、変数の数をKとし、各変数を少しずつ変化させてK+1組の座標軸モデルを作る。次に、作成したK+1組の座標軸モデルを各頂点(K+1個)として、初期状態のシンプレックスを作成する。更に、初期状態のシンプレックスを用いて座標軸モデルの最適化を行う。そして、シンプレックスの変更を繰り返し、目的関数Oの値が標高で表されるK次元の地形を下り降り、最も低い場所に到達したとき、目的関数Oの値が最小化される。
座標軸モデルのモデルマッチングでは、4点がそれぞれ決定されているので、変数の数Kは3となり、図4(A)に示すように初期状態のシンプレックスは4つの頂点を有する四面体となる。次に、図4(B)に示すように、目的関数Oの値が最大の(一番高いところにある)頂点Aを対向面の逆側に反射させ、目的関数の値を低く(小さく)する。更に、図4(C)に示すように、シンプレックスを膨張させ、移動距離を大きくすることもできる。また、図4(D)に示すように、初期状態のシンプレックスが谷底のような地形である場合には、シンプレックスを収縮させ、より低い場所に徐々に移動させる。更に、図4(E)に示すように、シンプレックスが狭い窪地に到着した際には、目的関数Oの値が最小の(一番低い位置にある)頂点Bの周りに凝集させ、窪地に落ち込ませる。そして、シンプレックスの目的関数Oが最小値となるまで、図4(B)〜(E)に示す動作を繰り返す。
各修正基準点位置を用いて透視投影行列の初期値を求めて立方体モデルを作成し、立方体モデルの各辺と解析対象画像内の立方体の各エッジが一致するようにモデルマッチングを行なって最適な透視投影行列を決定する(第6工程)。ここで、立方体モデルに式(1)に示す目的関数Oを与え、多次元滑降シンプレックス法を適用した最適化によりモデルマッチングを行なった。なお、モデルマッチングの方法は第5工程と同様なので、説明は省略する。
そして、最適な透視投影行列を用いてカメラ校正を行なうことで、実際の立方体11と立方体モデルのずれを最小にすることができる。
次に、本発明の作用効果を確認するために行った実施例について説明する。
ここで、図5は計算で求めた立方体の各頂点位置座標と真の値との二乗誤差の合計値を示すグラフ、図6(A)、(B)はそれぞれ実施例の左、右のカメラにおける入力画像と立方体モデルの画像の重ね合わせを示す説明図、図7は比較例1で立方体に設定した三次元座標系および基準点の説明図、図8(A)、(B)はそれぞれ比較例1の左、右のカメラにおける入力画像と立方体モデルの画像の重ね合わせを示す説明図、図9は比較例2で立方体に設定した三次元座標系および基準点の説明図、図10(A)、(B)はそれぞれ比較例2の左、右のカメラにおける入力画像と立方体モデルの画像の重ね合わせを示す説明図である。
(実施例)
本発明のエッジ検出によるモデルマッチングを用いたカメラ校正方法を適用して、カメラ校正を行った。また、対象物としては、一辺が0.2mの白色棒状部材を組んだ立方体を使用し、この立方体を机の上に置き、背景は乱雑な状態とした。そして、立方体をステレオカメラで撮影して入力画像を求め(第1工程)、ガウシアンフィルタを用いて入力画像の平滑化処理を行なって解析対象画像を作成し(第2工程)、解析対象画像内のエッジをロバートフィルタを使用して検出した(第3工程)。また、図3に示すように、立方体の直交する3辺で構成される三次元座標系を設定し、3辺の交わる点を原点として基準点1に指定し、次いで各座標軸上の点として原点から伸びる各辺の端点をそれぞれ基準点2、3、4として順次指定した(第4工程)。
続いて、各基準点1、2、3、4の位置から、基準点1、2を通る軸をX軸、基準点1、3を通る軸をY軸、基準点1、4を通る軸をZ軸と定義した座標軸モデルを設定し、各軸と解析対象画像内の直交する3辺のエッジが一致するようにモデルマッチングを行なって各基準点1、2、3、4の位置を修正して4つの修正基準点位置を求め(第5工程)、各修正基準点位置を用いて透視投影行列の初期値を求めて立方体モデルを作成し、立方体モデルの各辺と解析対象画像内の対象物の各エッジが一致するようにモデルマッチングを行なって最適な透視投影行列を決定した(第6工程)。次いで、最適な透視投影行列を用いて立方体の各頂点位置の座標を計算し真の値との二乗誤差を求めた。そして、各頂点毎の二乗誤差の合計値を求め、その結果を図5に示す。また、実際の立方体と立方体モデルのずれを視覚的に確認するため、計算結果を用いて立方体モデルを作成し、入力画像と比較した。その結果を図6(A)、(B)に示す。
(比較例1)
実施例で使用した立方体において、同一の三次元座標系を設定し、図7に示すように、8つの頂点を基準点1〜8として順次指定した。そして、従来のカメラ校正方法を用いて最適な透視投影行列を求めた。そして、得られた最適透視投影行列を用いて立方体の各頂点位置の座標を計算し真の値との二乗誤差を求め、各頂点毎の二乗誤差の合計値を算出した。その結果を図5に示す。また、実際の立方体と立方体モデルのずれを視覚的に確認するため、計算結果を用いて立方体モデルを作成し、入力画像と比較した。その結果を図8(A)、(B)に示す。
(比較例2)
実施例で使用した立方体において、同一の三次元座標系を設定し、図9に示すように、各頂点および各辺の中点を基準点1〜20として順次指定した。そして、従来のカメラ校正方法を用いて最適な透視投影行列を求めた。そして、得られた最適透視投影行列を用いて立方体の各頂点位置の座標を計算し真の値との二乗誤差を求め、各頂点毎の二乗誤差の合計値を算出した。その結果を図5に示す。また、実際の立方体と立方体モデルのずれを視覚的に確認するため、計算結果を用いて立方体モデルを作成し、入力画像と比較した。その結果を図10(A)、(B)に示す。
図8に示すように、比較例1の8個の基準点を指定する従来のカメラ校正方法から求めた立方体モデルは、原点(基準点1)からの距離が長くなるにつれて入力画像とのずれが大きくなった。一方、図10に示すように、比較例2の20個の基準点を指定する従来のカメラ校正方法から求めた立方体モデルは、入力画像とよく一致していることが確認できた。これに対して、実施例のカメラ校正方法から求めた立方体モデルは、入力画像とほぼ一致していることが確認できた。
また、図5で示されるように、実施例の二乗誤差の合計値は、8個の基準点を指定する従来のカメラ校正方法で生じる二乗誤差の合計値よりもかなり小さくなり、20個の基準点を指定する従来のカメラ校正方法で生じる二乗誤差の合計値と同程度の結果となった。20個の基準点を指定するには多くの時間が必要になるので、4個の基準点を入力するだけでよい本発明のカメラ校正方法は非常に実用的であることが判る。
本発明は、前記した実施の形態に限定されるものではなく、本発明の要旨を変更しない範囲での変更は可能であり、例えば、前記したそれぞれの実施の形態や変形例の一部または全部を組み合わせて本発明のエッジ検出によるモデルマッチングを用いたカメラ校正方法を構成する場合も本発明の権利範囲に含まれる。
例えば、対象物上で基準点となる位置の色調を予め変えておき、色調変化を検知することで自動的に4つの基準点位置が入力画像内で指定されるようにしてもよい。
本発明の一実施の形態に係るエッジ検出によるモデルマッチングを用いたカメラ校正方法を適用した三次元位置計測装置の説明図である。 同カメラ校正方法の工程説明図である。 立方体に設定した三次元座標系および基準点の説明図である。 (A)は多次元滑降シンプレックス法の初期値の説明図、(B)〜(E)は多次元滑降シンプレックス法の基本動作の説明図である。 実施例で求めた立方体の各頂点位置座標と真の値との二乗誤差の合計値を示すグラフである。 (A)、(B)はそれぞれ実施例の左、右のカメラにおける入力画像と立方体モデルの画像の重ね合わせを示す説明図である。 比較例1で立方体に設定した三次元座標系および基準点の説明図である。 (A)、(B)はそれぞれ比較例1の左、右のカメラにおける入力画像と立方体モデルの画像の重ね合わせを示す説明図である。 比較例2で立方体に設定した三次元座標系および基準点の説明図である。 (A)、(B)はそれぞれ比較例2の左、右のカメラにおける入力画像と立方体モデルの画像の重ね合わせを示す説明図である。
符号の説明
10:三次元位置計測装置、11:立方体、12、13:カメラ、14:コンピュータ、15、16:カメラ画像、17:モニタ、18:棒状部材

Claims (7)

  1. 形状と大きさが既知で1点で互いに直交する3辺を備えた対象物をステレオカメラで撮影して入力画像を得る第1工程と、
    前記入力画像の平滑化処理を行なって解析対象画像を得る第2工程と、
    前記解析対象画像内のエッジを検出する第3工程と、
    前記直交する3辺で構成される三次元座標系の原点および各座標軸上の点にそれぞれ対応する4つの基準点位置を前記入力画像内に指定する第4工程と、
    前記4つの基準点位置から決まる座標軸モデルの各軸と前記解析対象画像内の前記直交する3辺のエッジが一致するようにモデルマッチングを行なって該4つの基準点位置を正確な原点および各座標軸上の点に修正し4つの修正基準点位置を求める第5工程と、
    前記各修正基準点位置を用いて透視投影行列の初期値を求めて対象物モデルを作成し、該対象物モデルの各辺と前記解析対象画像内の前記対象物の各エッジが一致するようにモデルマッチングを行なって最適な透視投影行列を決定する第6工程とを有し、
    前記最適な透視投影行列を用いてカメラ校正を行なうことを特徴とするエッジ検出によるモデルマッチングを用いたカメラ校正方法。
  2. 請求項1記載のエッジ検出によるモデルマッチングを用いたカメラ校正方法において、前記入力画像を静止画像として得ることを特徴とするエッジ検出によるモデルマッチングを用いたカメラ校正方法。
  3. 請求項1および2のいずれか1項に記載のエッジ検出によるモデルマッチングを用いたカメラ校正方法において、前記平滑化処理はガウシアンフィルタを用いて行なうことを特徴とするエッジ検出によるモデルマッチングを用いたカメラ校正方法。
  4. 請求項1〜3のいずれか1項に記載のエッジ検出によるモデルマッチングを用いたカメラ校正方法において、前記エッジの検出にロバートフィルタを使用することを特徴とするエッジ検出によるモデルマッチングを用いたカメラ校正方法。
  5. 請求項4記載のエッジ検出によるモデルマッチングを用いたカメラ校正方法において、前記エッジの検出には、前記解析対象画像中の緑色を使用することを特徴とするエッジ検出によるモデルマッチングを用いたカメラ校正方法。
  6. 請求項1〜5のいずれか1項に記載のエッジ検出によるモデルマッチングを用いたカメラ校正方法において、前記4つの修正基準点位置を求めるモデルマッチングには、多次元滑降シンプレックス法を適用することを特徴とするエッジ検出によるモデルマッチングを用いたカメラ校正方法。
  7. 請求項1〜6のいずれか1項に記載のエッジ検出によるモデルマッチングを用いたカメラ校正方法において、前記透視投影行列を最適化するモデルマッチングには、多次元滑降シンプレックス法を適用することを特徴とするエッジ検出によるモデルマッチングを用いたカメラ校正方法。
JP2007088868A 2007-03-29 2007-03-29 エッジ検出によるモデルマッチングを用いたカメラ校正方法 Active JP4821009B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007088868A JP4821009B2 (ja) 2007-03-29 2007-03-29 エッジ検出によるモデルマッチングを用いたカメラ校正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007088868A JP4821009B2 (ja) 2007-03-29 2007-03-29 エッジ検出によるモデルマッチングを用いたカメラ校正方法

Publications (2)

Publication Number Publication Date
JP2008250487A true JP2008250487A (ja) 2008-10-16
JP4821009B2 JP4821009B2 (ja) 2011-11-24

Family

ID=39975392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007088868A Active JP4821009B2 (ja) 2007-03-29 2007-03-29 エッジ検出によるモデルマッチングを用いたカメラ校正方法

Country Status (1)

Country Link
JP (1) JP4821009B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102567991A (zh) * 2011-12-09 2012-07-11 北京航空航天大学 一种基于同心圆合成图像匹配的双目视觉标定方法和***
CN102930549A (zh) * 2012-11-19 2013-02-13 云南大学 利用点阵模板和正交性求解摄像机内参数
WO2014000159A1 (zh) * 2012-06-26 2014-01-03 Yan Tao 校正多通道视景投影***的投影仪的方法及设备
KR101376503B1 (ko) 2010-09-23 2014-03-25 돌비 레버러토리즈 라이쎈싱 코오포레이션 카메라 디바이스에 의해 결정된 피드백을 이용한 3d 디스플레이 교정을 위한 방법 및 시스템
CN104933717A (zh) * 2015-06-17 2015-09-23 合肥工业大学 基于方向性标定靶标的摄像机内外参数自动标定方法
JP2016031321A (ja) * 2014-07-30 2016-03-07 アイシン精機株式会社 欠陥抽出装置及び欠陥抽出方法
CN109002219A (zh) * 2018-08-03 2018-12-14 合肥联宝信息技术有限公司 一种互动投影定位校正方法及装置
JP2019510982A (ja) * 2016-04-06 2019-04-18 フェイスブック,インク. カメラ較正システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007064836A (ja) * 2005-08-31 2007-03-15 Kyushu Institute Of Technology カメラキャリブレーションの自動化アルゴリズム
JP2008193188A (ja) * 2007-02-01 2008-08-21 Sanyo Electric Co Ltd カメラ校正装置及び方法並びに車両

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007064836A (ja) * 2005-08-31 2007-03-15 Kyushu Institute Of Technology カメラキャリブレーションの自動化アルゴリズム
JP2008193188A (ja) * 2007-02-01 2008-08-21 Sanyo Electric Co Ltd カメラ校正装置及び方法並びに車両

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101376503B1 (ko) 2010-09-23 2014-03-25 돌비 레버러토리즈 라이쎈싱 코오포레이션 카메라 디바이스에 의해 결정된 피드백을 이용한 3d 디스플레이 교정을 위한 방법 및 시스템
CN102567991A (zh) * 2011-12-09 2012-07-11 北京航空航天大学 一种基于同心圆合成图像匹配的双目视觉标定方法和***
CN102567991B (zh) * 2011-12-09 2015-10-21 北京航空航天大学 一种基于同心圆合成图像匹配的双目视觉标定方法和***
WO2014000159A1 (zh) * 2012-06-26 2014-01-03 Yan Tao 校正多通道视景投影***的投影仪的方法及设备
CN102930549A (zh) * 2012-11-19 2013-02-13 云南大学 利用点阵模板和正交性求解摄像机内参数
CN102930549B (zh) * 2012-11-19 2015-05-06 云南大学 利用点阵模板和正交性求解摄像机内参数
JP2016031321A (ja) * 2014-07-30 2016-03-07 アイシン精機株式会社 欠陥抽出装置及び欠陥抽出方法
CN104933717A (zh) * 2015-06-17 2015-09-23 合肥工业大学 基于方向性标定靶标的摄像机内外参数自动标定方法
JP2019510982A (ja) * 2016-04-06 2019-04-18 フェイスブック,インク. カメラ較正システム
CN109002219A (zh) * 2018-08-03 2018-12-14 合肥联宝信息技术有限公司 一种互动投影定位校正方法及装置
CN109002219B (zh) * 2018-08-03 2021-09-03 合肥联宝信息技术有限公司 一种互动投影定位校正方法及装置

Also Published As

Publication number Publication date
JP4821009B2 (ja) 2011-11-24

Similar Documents

Publication Publication Date Title
JP4821009B2 (ja) エッジ検出によるモデルマッチングを用いたカメラ校正方法
TWI729995B (zh) 基於場景之拍攝圖像而產生合併、融合三維點雲
JP6635690B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR100386090B1 (ko) 동심원 패턴을 이용한 카메라 내부변수 보정시스템 및카메라 보정방법
KR101604037B1 (ko) 카메라와 레이저 스캔을 이용한 3차원 모델 생성 및 결함 분석 방법
CN110392252B (zh) 用于生成相机的校正模型以校正像差的方法
JP6363863B2 (ja) 情報処理装置および情報処理方法
CN103782232B (zh) 投影仪及其控制方法
US9182220B2 (en) Image photographing device and method for three-dimensional measurement
CN102376089A (zh) 一种标靶校正方法及***
JP5633058B1 (ja) 3次元計測装置及び3次元計測方法
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
EP3049756B1 (en) Modeling arrangement and method and system for modeling the topography of a three-dimensional surface
KR101510206B1 (ko) 항공 하이퍼스펙트럴 영상을 이용한 수치지도 수정 도화용 도시변화지역의 탐지 방법
JP2014013147A5 (ja)
Chen et al. Self-recalibration of a colour-encoded light system for automated three-dimensional measurements
JP2007064836A (ja) カメラキャリブレーションの自動化アルゴリズム
CA3233222A1 (en) Method, apparatus and device for photogrammetry, and storage medium
JP2005140547A (ja) 3次元計測方法、3次元計測装置、及びコンピュータプログラム
CN116527856B (zh) 球幕影院的播放控制方法、装置、设备及存储介质
JP7298687B2 (ja) 物体認識装置及び物体認識方法
Skabek et al. Comparison of photgrammetric techniques for surface reconstruction from images to reconstruction from laser scanning
JP4429135B2 (ja) 三次元形状計測システム及び計測方法
Baláž et al. Camera systems of industrial robots
JP7003291B2 (ja) 補正方法および像データを補正するための装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110809

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150