JP2004062757A - Image processing method and method for estimating imaging part position and attitude - Google Patents
Image processing method and method for estimating imaging part position and attitude Download PDFInfo
- Publication number
- JP2004062757A JP2004062757A JP2002223281A JP2002223281A JP2004062757A JP 2004062757 A JP2004062757 A JP 2004062757A JP 2002223281 A JP2002223281 A JP 2002223281A JP 2002223281 A JP2002223281 A JP 2002223281A JP 2004062757 A JP2004062757 A JP 2004062757A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- orientation
- landmark
- imaging unit
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、撮像画像における特徴部の検出条件を、撮影画像から自動的に調整するものに関する。
【0002】
【従来の技術】
現実空間を撮像する撮像部の外部パラメータ(位置姿勢)を計測、決定する方法において、現実空間に3次元位置姿勢が既知である特徴点(ランドマーク)を配置しておき、撮像部によって撮像されたいくつかのランドマークの撮像面上における画像情報を基準として、撮像部の位置姿勢を求める方法がある。例えば、現実空間を撮像する撮像部(ビデオカメラ等)の外部パラメータ(位置姿勢)を計測、決定する方法において、
(1)画像情報のみによる推定方法
(例えば、加藤,Mark,浅野,橘:「マーカ追跡に基づく拡張現実感システムとそのキャリブレーション」,日本バーチャルリアリティ学会論文集 Vol.4 No.4, pp.607−616,1999に記載。)、
(2)6自由度位置姿勢センサと画像とのハイブリッドな推定方法
(例えば特開平11−136706号公報、特開2000−347128号公報に記載)
(3)画像と加速度センサのハイブリッドな推定方法
(例えば、横小路,菅原,吉川:「画像と加速度計を用いたHMD上での映像の正確な重ね合わせ」,日本バーチャルリアリティ学会論文集 Vol.4 No.4,pp.589−598,1999)
(4)ジャイロセンサと画像とのハイブリッドな位置合わせなどの推定方法
(例えば、藤井,神原,岩佐,竹村,横矢:「拡張現実のためのジャイロセンサを併用したステレオカメラによる位置合わせ」,信学技報 PRMU99−192, January 2000)
等が知られている。また、画像による位置合わせや、6自由度センサと画像のハイブリッドな方法では、さらに手法の異なる様々な方法がある。
【0003】
【発明が解決しようとする課題】
しかし、従来のような撮像部の位置姿勢推定装置は、ランドマークの検出精度に大きく依存しており、状況によっては、ランドマークの検出精度が著しく低下し、現実空間の撮像部の位置姿勢と、位置姿勢推定装置により出力された撮像部の位置姿勢とのずれの大きさが問題になる場合があった。ランドマークの検出精度が落ちる要因は、例えば、照明条件の変化、撮像部のシャッタースピード、ホワイトバランス、ゲインなどの設定変化、もしくはこれらの自動調整機能などが挙げられる。従来の位置姿勢推定装置においては、ランドマークの検出処理における検出パラメータが固定されていることから、前述した画像の変化に対応できないことがランドマークの検出精度を低下させている主な原因である。
【0004】
この検出精度の低下に対して、従来の位置姿勢推定装置においては、なるべく撮像する空間の照明条件が変わらないように工夫し、さらに時間や場所ごとに最適な検出パラメータを手動で設定して対処する必要があった。
【0005】
本発明は、このような課題に鑑みて発明されたものであり、撮像画像における特徴部の検出条件を自動的に調整することにより、常に高精度に特徴部を検出可能にすることを目的とする。
【0006】
【課題を解決するための手段】
上記目的を達成するために、本発明は以下の構成を有することを特徴とする。
【0007】
本願請求項1の発明は、3次元空間内に位置する撮像手段の位置姿勢を推定する情報処理方法であって、位置姿勢測定部によって得られた前記撮像手段の位置姿勢情報を取得する取得ステップと、3次元位置が既知である特徴点の存在する現実空間を前記撮像手段によって撮像することにより得られた映像から、検出条件を用いてに前記特徴点を検出する特徴点検出ステップと、前記特徴点の位置に基づいて、前記位置姿勢情報を補正する補正ステップと、前記映像から前記検出条件を自動的に最適化する最適化ステップを有することを特徴とする。
【0008】
本願請求項11の発明は、撮影手段によって撮影された映像内の特徴部を検出し、前記検出結果を用いて前記撮影手段の位置姿勢情報を求める際に用いる、該特徴部の検出条件を調整する情報処理方法であって、3次元位置および形状が既知である特徴部が存在する現実空間を前記撮像手段によって撮像することにより得られた映像から、検出条件を用いて該特徴点の領域を検出し、前記特徴点の3次元位置および形状から、前記映像における特徴領域を算出し、前記検出された特徴領域と前記算出された特徴領域を比較し、前記検出条件を調整することを特徴とする。
【0009】
【発明の実施の形態】
<第1の実施形態>
以下、添付図面を参照して、本発明を適用した好適な実施形態に従って詳細に説明する。
本実施形態では、従来例の(2)6自由度位置姿勢センサと画像とのハイブリッドな推定方法に本発明を適用した例を示す。
【0010】
<6自由度位置姿勢センサの誤差>
ここで、6自由度位置姿勢センサとは、Polhemus社の3SPCACEFASTRAKやAssension Technology社のFlockof Birdsなどの磁気センサ、または、Northern Digital社のOPTOTRAKなどの光学式センサなど、計測対象の位置と姿勢を計測する機器を指す。この6自由度位置姿勢センサ140は、撮像部110に固定されていることから、6自由度センサ140の計測値により撮像部の位置姿勢が取得できる。しかしながら、センサには誤差があり、状況によっては、撮像部110の位置姿勢を精度良く求めることができない。例えば、磁気センサを用いた6自由度位置姿勢センサの測定値は周囲の磁場に影響されるので、計測部近辺に金属物質があると誤差が大きくなり、結果として撮像部110の位置姿勢と、6自由度センサによる出力のずれ量(誤差)が増える。
【0011】
<特開平11−136706号公報における解決法>
このような状況に鑑みて特開平11−136706号公報では、画像情報を用いて、6自由度センサ誤差を補正する方法を述べている。図7は上述の従来の方法を説明する模式図である。この方法では、現実空間にマーカと呼ばれる、画像処理によって検出しやすい特定の色や形状を有する物体、例えばシールを、現実空間中の物体に貼り付けてランドマーク(絶対位置基準)として利用する。また、ランドマーク100としては特別に配置したもの以外にも、現実空間中の特徴的な物体や点を利用することも可能である。点Aは撮像部110の位置姿勢に基づいて予測されるランドマーク100の位置、点Bはこのランドマーク100の実際の位置、点Cは撮像部110の視点位置を示す。なお、点A、点Bが示す位置はカメラ座標系における位置であって、点Cはカメラ座標系の原点とする。また、点Pは撮像面上における点Aの位置、点Qは撮像面上における点Bの位置を示す。
【0012】
このとき、撮像面においてカメラの位置姿勢により予測されるランドマークの位置Aと実際の位置Bとでは、前述のようにずれ(誤差)がある。このずれを、撮像部によって撮像されたランドマーク100の撮像面上での位置Qを現実空間の基準とし、撮像面上でのランドマーク予測位置Pに重ね合わせるような変換行列ΔMCを求める。この変換行列ΔMCを6自由度センサ140から得られる撮像部のビューイング変換行列MCに積算することにより、誤差補正を行った撮像部のビューイング行列MC´が得られる。ここで、MC´の逆行列が撮像部の位置姿勢成分を含む。ここでMC´を
【外1】
とすると、位置tは(M14,M24,M34)のベクトルで得られ、回転Rは
【外2】
の行列によって得られる。つまり、撮像部110の位置姿勢を求めるためには、撮像部のビューイング変換行列MC´が求められればよい。
【0013】
このように、6自由度センサ140の出力を基本とし、さらに現実空間の絶対位置基準により位置合わせされた位置姿勢は、6自由度センサ140のみで計測する位置姿勢よりも、実際の撮像部110の位置姿勢に対するずれ量は安定して減少する。
【0014】
しかし、ランドマーク100の位置が後述する位置姿勢補正部において絶対位置基準として利用されるため、この基準が正確でないと、撮像部の位置姿勢は正確に推定できない。このことから、いかにして撮像画像に映ったランドマーク100を最適な検出パラメータによって検出するかが解決するべき課題である。
【0015】
<特開平11−136706号公報の手法に本発明を適応した例>
前述の特開平11−136706号公報の手法に本発明を適応することにより、撮像部で得られる撮像画像の明度、色変化に伴い、検出パラメータを自動的に最適化することで、ランドマークの検出性能を向上させることが可能となる。ここで、最適化とは、「最適な状態に変化させること」と定義する。よって、1回の最適化処理を行った検出パラメータは、必ずしも撮像画像において、ランドマークを検出するのに最適な状態になるのではない。複数回の最適化処理によって、最適な状態に成り得る。
【0016】
図1は、特開平11−136706号で述べられているような、6自由度センサと画像のハイブリッドな位置合わせ手法に、本発明を適用する場合における撮像部位置姿勢推定装置の構成図を表す。図1に従って撮像部位置姿勢の推定処理手順を示す。
【0017】
図5は装置全体の処理の流れを示すフローチャートを表している。まず、ステップS500撮像部により、ランドマークを配置している現実空間を撮像する。次にステップS510において、後述するランドマーク検出処理を行う。次にステップS520に移り、6自由度センサによる計測を行う。さらに、ステップS530で、計測値と撮像画像から検出されたランドマーク位置を用いて撮像部の位置姿勢を推定する。次に、ステップS540において、検出パラメータの最適化を行う。検出パラメータの最適化が終了した時点で、ステップS550に移り、終了命令があれば終了し、なければステップS500に戻り、更新された撮像画像を基に再度処理を行う。
【0018】
以下にステップS510からステップS540までの各処理の詳細を述べる。
【0019】
<1.ランドマーク検出処理>
まず、現実空間の既知の位置に配置されているランドマーク100を撮像部110で撮像し、撮像画像の取得部120に格納する。その撮像画像からランドマーク100の検出を行い、観測座標での2次元位置Q(xq,yq)を得る。
【0020】
ここで、撮像部110から得られた画像におけるランドマーク100の検出方法については特に限らないが、例えば以下のような例が挙げられる。現実空間に図2中で示すような赤色ランドマーク100を配置している場合は、撮像画像中の注目画素値(R,G,B)の特徴量Isを
Is=R/((G+B)/2) (式3)
の計算式を用いて算出する。また、緑色のランドマーク100の場合は、
Is=G/((R+B)/2) (式4)
であり、青色のランドマークの場合は、
Is=B/((R+G)/2) (式5)
の計算式で算出する。本発明では、ランドマークの色を前述の3色に限るものではなく、任意の色を検出する場合においても適応可能である。例えば、任意の色の検出において、画素値R,G,BをYCbCrフォーマットの画素に変換し、Cb、Crの色領域に対応するランドマーク検出を行い、Cb、Crの指定領域に関するパラメータに対して最適化を行う処理にも適応可能である。この場合、領域を指定するパラメータは、CbCr空間中における、楕円の領域を指し、中心位置を表すθ、rと、各軸を表すRa、Rbから構成される。
【0021】
このランドマーク検出処理においては、検出パラメータ調整部195により調整された検出パラメータである閾値Tcを入力し、特徴量IsがTcを超えた場合は、注目画素がマーカ領域内であると判定する。これを、撮像画像の全ての画素に対して適応し、検出された特徴領域は、個々にラベル付けされる。さらに、ラベル付けされた領域のうち、ラベルを構成する画素が、ランドマーク画素数閾値Nを越えたものをランドマーク領域の候補とする。ランドマーク画素数閾値Nは、検出時のノイズがラベル付けされていた場合、ほとんどのノイズの画素数が微小であるを利用して、ある閾値以下のものをランドマークとして認識しないようにしておく。この処理により、検出ノイズを減少させ、位置姿勢補正部160の処理において検出ノイズをランドマークと誤認識することをある程度防ぐことが可能である。このランドマーク領域の重心位置をランドマーク100の2次元位置とし、観測座標のランドマーク位置Q(xq,yq)とする。ここで、ランドマーク100が撮像画像に複数含まれる場合は、個々のランドマークに対して上述の処理を1回ずつ行う。このときの特徴量Isとランドマーク画素数閾値Nも個々のランドマーク毎に記憶しておく。例えばランドマークが3つ撮像されている場合は、Tc=(Tc1,Tc2,Tc3)N=(N1,N2,N3)のようにランドマーク毎の値を格納する。ここで撮像画像からランドマークを検出した検出画像Ud(例えば、本実施形態においては、対応画素の特徴量Isを画素値として格納した画像)と、検出パラメータ(本実施形態においては閾値Tc、ランドマーク画素数閾値Nから構成される)を状態記憶部190に保存する。
【0022】
<2.6自由度センサによる計測処理>
一方で、6自由度センサ140により、撮像部110の位置姿勢を検出する。本実施形態では、6自由度センサとしてPolhemus社の3SPCACE FASTRAK(以下、FASTRAK)を用いている。FASTRAKセンサのレシーバ140Aが撮像部110の位置姿勢の動きに追従するように固定する。例えば、図2は本実施形態の処理を実行中時の状態を表す図であるが、図2中の撮像部110とFASTRAKレシーバ140Aのように、金属以外の棒状のもので2つを固定し、FASTRAKレシーバ140付近のの交流磁界になるべく影響を与えない方法で固定する。FASTRAKセンサのトランスミッタ140Bから発生される交流磁界をレシーバ140Aが受ける。位置姿勢計測部150によりレシーバ140Aが受けた交流磁界の変化から、撮像部110の位置姿勢を計測する。
【0023】
<3.撮像部位置姿勢の推定処理>
このようにして得られた撮像部110の位置姿勢計測値と、ランドマーク100の撮像部110で撮像した画像上の2次元位置とを位置姿勢補正部160に入力する。図3は位置姿勢補正部160の処理を示す図である。まず、位置姿勢計測部150より入力された計測値から撮像部のビューイング変換行列MCを生成する(ステップS300)。さらに、ビューイング変換座標MCとランドマーク配置・形状記憶部170に保存されている世界座標系上での各ランドマークの3次元位置と、既知である撮像部110の理想的透視変換行列から、各ランドマークの観測座標予測値Pi(xpi,ypi)を算出する(ステップS310)。次に、ステップS320において、渡されたランドマーク観測予測座標値Pに基づいて、現在観測しているランドマーク、すなわち補正の基準となるランドマークを判別する。本実施形態における判別方法は、注目観測予測座標値Pj(xpj,ypj)から、観測しているランドマークの観測座標値Qi(xqi,yqi)との距離が近いものを対応付けする方法を採用している。すなわち、各ランドマークの観測予測座標Pと観測座標Qの組み合わせのうち、(xqi−xpj)2+(yqi−ypj)2が最小になるランドマーク同士を対応付けする。ただし、本発明においては、この判別方法を限定するものではなく、6自由度センサから得られる観測予測座標のランドマークを撮像画像中のランドマークと正しく対応付けが可能な方法であれば適応可能である。ランドマークの対応付け処理において1点でも対応付けが成功していれば、ステップS330では、ステップS310で演算されたランドマークの観測予測座標値P(xp,yp)とランドマーク検出部130が検出したランドマークの観測座標値Q(xq,yq)との差異に基づいて、位置姿勢計測部150によって得られた撮像部110の位置姿勢を表すビューイング変換行列MCを補正するためのΔMCを求める。さらに、ステップS340において、ステップS330で求めたΔMCとステップS300で求めた計測値からのカメラのビューイング変換行列MCを積算することにより補正後の撮像部視点のビューイング変換行列MC´を得ることができる。
【0024】
MC´=ΔMC・MC (式6)
ステップS320において、もし、ランドマークの対応付けができない場合は、例えば、ΔMCを単位行列に設定することにより、FASTRAKセンサ出力から得たMCを最終的に出力する視点のビューイング変換行列MC´としてもよい。
【0025】
<4.ランドマーク領域生成処理>
位置姿勢補正部160を通して、ランドマーク配置・形状記憶部170から各ランドマークの配置情報と形状情報をランドマーク領域生成部180に入力する。
【0026】
まず、形状情報とは、例えば,図2で示すような円形の赤色ランドマーク100(図8A)を用いている場合は,図8Bのように、あらかじめ3Dモデル化しておき、複数の頂点800から構成され擬似的にランドマークの形状を表現するものである。本発明は、円形のランドマークに制限するものではなく、画像処理によって検出しやすい特定の色や形状を有する物体であれば適応可能である。また、ランドマーク100としては特別に配置したもの以外にも、現実空間中の特徴的な物体や点を利用することも可能である。さらに、複数のランドマークが個々に違う形状をしていても適応可能である。ここで、3次元空間中のモデル座標系での頂点800の座標値(xm,ym,zm)とする。ここで、この頂点情報は各頂点の結合情報を持つ。本発明においては、3次元モデルが結合情報を持つことに限定するものではなく、後述するランドマーク領域生成部180において、適切なランドマーク領域情報を再構築できる方法であれば適応可能である。
【0027】
さらに、配置情報とは、現実空間に配置されたランドマークの重心位置を表す頂点810の世界座標系における位置姿勢を表す行列Lを格納している。この頂点800とランドマークの重心位置810における位置姿勢情報Lは、それぞれランドマーク配置・形状記憶部170に記憶されている。ランドマーク領域生成部180では、このランドマーク形状情報800を、配置情報Lと補正された撮像部視点のビューイング変換行列MC´によって変換することにより、各頂点800の視点座標系上での位置(xm’,ym’,zm’)を得る。
【0028】
【外3】
【0029】
さらに、既知である視点座標系から観測座標系へのプロジェクション行列Cによって、撮像面上での2次元位置V(xv,yv)を得る。
【0030】
【外4】
【0031】
【外5】
【0032】
次に、各頂点800の2次元位置Vから、ランドマーク形状情報が持つ頂点の結合情報を基にランドマーク形状の各辺に対して2次元直線の式を算出し、アウトライン900を生成する。このアウトライン900は、観測座標において各頂点を結ぶ直線式群によって構成される。ランドマーク領域910はこのアウトライン900とランドマーク領域内の点Gから構成される。領域内の点Gは、例えば、円形のランドマーク100であれば、ランドマークの重心位置810を領域内の点とすればよい。生成されたランドマーク領域910は状態記憶部190に記憶される。図9は、図2の撮像部位置姿勢において、ランドマーク100のうちの一つを撮像したときの撮像画像に、アウトライン900と各頂点800を重ねて表示した画像を表す。この図中におけるアウトライン900は、位置姿勢補正部160により推定された撮像部110の位置姿勢を基に位置と形状が決定されるので、位置姿勢補正部160において、ランドマークの対応が取れている状態であれば、撮像画像におけるランドマーク100の位置に表示される。
【0033】
<5.検出パラメータの調整処理>
図4は、検出パラメータ調整部195の処理の詳細手順を表す図である。検出パラメータ調整部195は、状態記憶部190から、ランドマーク領域910、検出画像Ud、検出パラメータである閾値Tcと、ランドマーク画素数閾値Nを受ける。
【0034】
まず、ステップS410において、ランドマーク領域910を完全に含む処理領域1000を生成する。この処理領域1000は、例えば、ランドマーク領域内の点810を重心とし、全てのランドマーク領域を含む矩形領域でもよい。図10はこの処理領域を表す。この処理領域1000は、撮像されているランドマーク毎に生成する。例えば、図14に示すように、3つのランドマークが撮像されている場合の処理領域1000は、個々のランドマーク周辺にそれぞれ生成される。本発明は、この処理領域1000の生成方法を制限するものではなく、ランドマーク領域910と検出画像上の検出画素の形状を比較できるものであれば適応可能である。
【0035】
次に、ステップS420において、検出画像Ud内のランドマーク検出画像とランドマーク領域を比較するための理想検出画素パターン1110を作成する。まず、処理領域と同画素で、全ての画素が0で初期化されている画像バッファ領域1100を作成する。次に、このバッファ領域1100でランドマーク領域内に含まれる画素にマーキングを行う。このマーキングは例えば、領域内の全ての画素値1に設定する方法でもよい。この様子を図11中のA,Bに表す。図11Aに表されるようなランドマーク領域910がバッファ領域1100上にあったとすると、マーキング処理によって図11Bのように、ランドマーク領域内の画素がマーキングされる。ここで、図11Bの図では黒色の画素がマーキングされていることを表す。本実施形態では、画素上に領域を含む場合であっても、この領域が画素面積の半分以上を占めない限りマーキングしない。ただし、本発明は、このマーキング処理に制限するものではなく、検出画素パターンと比較して適切な検出パラメータを設定できる方法であれば適応可能である。ここで、マーキングされている領域を理想検出画素パターン1110と呼ぶ。
【0036】
次に、ステップS430において、後述するランドマークの検出画素パターン1200と理想検出画素パターン1110を比較する。
【0037】
まず、検出画像Ud内の処理領域に含まれるランドマークの検出画素パターン1200を生成する。ここで、画像バッファ領域1100と同じ画像サイズで、画素値が0で初期化されているバッファ領域1220を別に用意する。このバッファ領域1220の画素値には、対応する検出画像Udの画素値である特徴量Isが検出パラメータの閾値Tdよりも大きい場合に1が入力される。このようにして、生成したパターンを検出画素パターン1200とする。図12は、ある時点において同一ランドマークを注視している場合の、検出画像Udに含まれるランドマークの検出画素パターン例を表す。さらに、図12A、Bは検出パラメータが最適でないために、ランドマークの検出画素パターン1200が理想検出画素パターン1110と異なっている状態を表す。図12Aに関しては、ランドマークの領域上の画素特徴量Isに対して、閾値Tcが大きすぎるため、本来はランドマーク領域内であるはずの画素が検出できていない状態を表す。逆に、図12Bでは、閾値Tcがランドマークの領域上の画素特徴量Isに対して小さすぎるため、ランドマーク領域外の画素までランドマークとして検出している状態を表している。ここで、図12Bにおいて理想検出画素パターン1110の内側に含まれない検出画素で、かつ、検出画素パターン1200以外の画素を検出ノイズ1210と呼ぶ。この検出ノイズ1210は、ランドマーク検出処理において、ランドマーク画素数閾値Nよりもラベル画素数が多く、ランドマーク領域の候補だと判断された領域である。このステップS430における比較方法は、理想検出画素パターン1110と検出画素パターン1200の検出画素数を利用する。まず、理想検出画素パターン内に含まれる検出画素パターン1200の画素数gを認識し、理想検出画素パターンが内包する画素数iとの差分dを計算する。
【0038】
d=g−i (式10)
さらに、処理領域1000内の理想検出画素パターン1110に含まれない検出画素パターン1200の画素(はみ出し画素)の合計数をe,検出ノイズ1210の画素の合計数をnとする。
【0039】
図12の例であれば、図12Aはd=12、e=0、n=0、図12Bはd=0、e=10、n=7となる。
【0040】
次に、ステップS440において、検出パラメータの最適化を行う。この処理の詳細を図6のフローチャートを用いて説明する。まず、ステップS600において、dとeが0であるかを検査する。両方とも0であれば、理想検出画素パターンと検出画素パターンが一致していることになるので、検出パラメータは最適な状態であると判断し、この処理を終了してランドマーク検出処理に戻る。ランドマーク検出処理においては、現在の検出パラメータによって新たな撮像画像のランドマーク検出を行う。dまたはeのどちらかが正の場合は、ステップS610に移る。
【0041】
ステップS610においては、理想検出画素パターン1110と検出画素パターン1200の画素数の差分であるdが正の場合は、ステップS620へ移る。もし、dが0である場合は、ステップS650に移る。
【0042】
ステップ620では、現在のランドマーク画素数閾値Nが現在の理想検出画素数iよりも小さいことを判定する。この判定は、本来ランドマーク上にある画素をランドマーク画素数閾値Nによって除去しないように、Nの値を理想検出画素数iよりも必ず小さくする処理である。本実施形態においては、常にNとiの間に3画素分の閾を設けており、Nが必ずiよりも3画素分小さくなるように設定される。もし、Nがi+3よりも小さい場合は、ステップ630に移る。もし、Nがi+3よりも大きい場合は、ステップS640に移る。
【0043】
ステップ630では、dが正であることから、理想検出画素パターン内のランドマーク領域に未検出の画素があるので、未検出であった画素が検出できるように検出閾値Tcを1減少させる。
【0044】
ステップS640では、ランドマーク画素数閾値Nがi+3よりも大きいので、Nにi−4を代入し、ランドマークを的確に検出できるように設定する。また、同時に未検出であった理想検出画素パターン上の画素が検出できるように検出閾値Tcを1減少させる。
【0045】
ステップS650ではdが0であるので、理想検出画素パターン内の検出画素パターンは全て検出さていることになるが、eが正であることから、理想検出画素画素1110外の画素がランドマーク100内の画素として検出されている状態である。ここでは、まず検出ノイズ1210の画素数nが正であるかどうかを判定し、検出ノイズ1210の有無を調べる。検出ノイズ1210がない場合は、ステップS660に移る。もし検出ノイズがある場合は、ステップS670に移り、検出ノイズを減少させる処理を行う。
【0046】
ステップS660では、はみ出し画素が検出されないように検出閾値Tcを1増加させる。
【0047】
ステップS670においては、ステップS620と同様に、ランドマーク画素数閾値Nが現在の理想検出画素数iよりも小さいことを判定する。もし、Nがi+3よりも小さい場合は、ステップS680に移り、はみ出し画素が検出されないように検出閾値Tcを1増加させる。また、Nがi+3よりも大きい場合は、ステップS670に移り、はみ出し画素が検出されないように検出閾値Tcを1増加させると共に、ランドマーク画素数閾値Nを1増加させ、検出ノイズ画素数nを減少させる。これらの処理が終了した場合は、個々の検出パラメータを保存し、ランドマーク検出処理部に戻り、更新された検出パラメータによって新たな撮像画像からランドマーク検出を行う。
【0048】
本発明は、図6で示した検出パラメータの最適化処理に制限するものではなく、ランドマークが的確に検出できるような最適化処理であれば適応可能である。
【0049】
<変形例1>
本発明は、上述の実施形態にのみ適用されるものではない。上述の実施形態においては、検出パラメータの最適化処理は、1つの撮像画像に対して、撮像されているランドマークの数と同じ回数だけ行われるが、図13が示す処理のように、検出パラメータをランドマークの数だけ最適化処理を行ったあと、さらに、同一の撮像画像を用いて同様の最適化処理を行うことで、前述した実施形態の最適化処理に比べて、より最適な状態に早く到達する。
【0050】
この例の処理の流れを図13を用いて説明する。
【0051】
まず、ステップS500において、ランドマークが配置されている現実空間を撮像する。次にステップS510において、配置されたランドマークを撮像画像中から抽出する。次にステップS520において、撮像部110の位置姿勢を6自由度センサによって計測する。次にステップS530では、6自由度センサによる計測値と撮像画像から検出されたランドマークの画像上での位置を用いて、撮像部110の位置姿勢を推定する。次にステップS540においては、ステップS510において使用した検出パラメータを、画像上にあるランドマーク領域910毎に、それぞれ最適化処理を行う。次にステップS1300に移るが、同一の撮像画像に対して、1回の最適化処理を終了した時点では必ずステップS510に戻り、前回と同じ撮像画像に対して、最適化処理を施された検出パラメータでランドマーク検出を行う。さらに、前回と同様にS520、S530、S540を実行する。次に、ステップS1300において、同一の撮像画像に対して、2回以上の最適化処理が終了していることを確認した場合はステップS1310に移る。ステップS1310において、最適化処理中で算出したd、e、nの減少率Cを判定する。例えば、減少率Cが予め定めた閾値CTを越えた時点でステップS550に移ってもよいし、減少率の微分値が予め定めた閾値DTを下回った場合にステップS550へ移ってもよい。ステップS550において、終了命令が発せられなければ、ステップS500に移り、撮像画像の更新を行う。終了命令が発せられれば一連の処理を終了する。
【0052】
<変形例2>
上述の実施形態においては、R、G、Bの3色に対して、マーカの検出を行っている。しかし、本発明は、上述の実施形態にのみ適用されるものではない。例えば、輝度を特徴とするランドマークに対しても本発明を適応可能である。以下に、この輝度を特徴とするランドマークに対して、本発明を適応した例を挙げる。上述の実施形態における<2.ランドマーク検出処理>において、RGBの画素値から輝度Yを検出し、この輝度Yに対してマーカ検出を行い、この輝度Yに対する閾値を検出パラメータとして最適化を行う。
【0053】
ここで、輝度Yの算出方法を以下に示す。
【0054】
Y=0.299×R+0.587×G+0.114×B (式10)
このYから特徴量Isを算出し、閾値Tcが特徴量Isを越えた場合は、注目画素がマーカ領域内であると判定する。例えば、ランドマークが黒い物体の場合は、
Is=Ymax−Y (式11)
として、特徴量Isを算出する。ここでYmaxは輝度Yの最大値とする。さらに、閾値Tcは輝度の特徴量に関する閾値である。
【0055】
この処理により、輝度を特徴としたランドマークに対して、検出パラメータの最適化処理を行うことが可能である。
【0056】
(他の実施形態)
前述した実施形態の機能を実現する様に各種のデバイスを動作させる様に該各種デバイスと接続された装置あるいはシステム内のコンピュータに、前記実施の形態の機能を実現するためのソフトウエアのプログラムコードを供給し、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)を格納されたプログラムに従って前記各種デバイスを動作させることによって実施したものも本発明の範疇に含まれる。
【0057】
この場合、前記ソフトウエアのプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムコードを格納した記憶媒体は本発明を構成する。
【0058】
かかるプログラムコードを格納する記憶媒体としては例えばフロッピー(R)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることが出来る。
【0059】
またコンピュータが供給されたプログラムコードを実行することにより、前述の実施形態の機能が実現されるだけではなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)、あるいは他のアプリケーションソフト等と共同して前述の実施形態の機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれることは言うまでもない。
【0060】
更に供給されたプログラムコードが、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後そのプログラムコードの指示に基づいてその機能拡張ボードや機能格納ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれることは言うまでもない。
【0061】
【発明の効果】
以上説明したように、本発明によれば、特徴部を検出するための検出条件を、撮影画像から自動的に最適化することができ、撮像画像の変化にかかわらず撮像手段の位置姿勢を高精度に求めることができるようにすることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態を適用した撮像部位置姿勢推定装置の構成例を示すブロック図である。
【図2】図1の撮像部位置姿勢推定装置の使用時の状態を説明する図である。
【図3】第1の実施形態における、位置姿勢補正部160の構成例を示すブロック図である。
【図4】第1の実施形態における、検出パラメータ調整部195の構成例を示すブロック図である。
【図5】第1の実施形態における、撮像部位置姿勢推定装置の処理を説明するフローチャートである。
【図6】図5における、検出パラメータの最適化の処理を説明するフローチャートである。
【図7】従来の方法における、撮像部位置姿勢の補正方法を説明する模式図である。
【図8】第1の実施形態における、ランドマークの形状を示す図である。
【図9】図2の状態において、ランドマーク1点を撮像した時の撮像画像に、ランドマークの各頂点800とアウトライン900を重畳した模式図である。
【図10】第1の実施形態における、処理領域1000を示す模式図である。
【図11】第1の実施形態における、理想検出画素パターン生成の処理の過程を示す模式図である。
【図12】第1の実施形態における、ランドマークの検出画素パターン例を示す模式図である。
【図13】変形例を適用した撮像部位置姿勢推定装置の構成例を示すブロック図である。
【図14】第1の実施形態における、複数のランドマークを撮像したときの、処理領域を示す模式図である。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an apparatus for automatically adjusting a detection condition of a characteristic portion in a captured image from the captured image.
[0002]
[Prior art]
In a method of measuring and determining external parameters (position and orientation) of an imaging unit for imaging a real space, a feature point (landmark) having a known three-dimensional position and orientation is arranged in the real space, and the image is captured by the imaging unit. There is a method of obtaining the position and orientation of the imaging unit based on image information of some landmarks on the imaging surface. For example, in a method of measuring and determining external parameters (position and orientation) of an imaging unit (such as a video camera) for imaging a real space,
(1) Estimation method using only image information
(For example, Kato, Mark, Asano, Tachibana: "Augmented reality system based on marker tracking and its calibration", described in Transactions of the Virtual Reality Society of Japan Vol.4 No.4, pp.607-616, 1999.) ,
(2) Hybrid estimation method of position and orientation sensor with 6 degrees of freedom and image
(For example, described in JP-A-11-136706 and JP-A-2000-347128)
(3) Hybrid estimation method of image and acceleration sensor
(For example, Yokokoji, Sugawara, Yoshikawa: "Precise superimposition of video on HMD using image and accelerometer", Transactions of the Virtual Reality Society of Japan, Vol. 4, No. 4, pp. 589-598, 1999. )
(4) Estimation method such as hybrid positioning of gyro sensor and image
(For example, Fujii, Kamihara, Iwasa, Takemura, Yokoya: "Positioning using a stereo camera combined with a gyro sensor for augmented reality", IEICE Technical Report PRMU 99-192, January 2000)
Etc. are known. In addition, there are various methods that are different from each other in the method of image alignment and the hybrid method of a 6-DOF sensor and an image.
[0003]
[Problems to be solved by the invention]
However, the position and orientation estimation device of the imaging unit like the conventional one largely depends on the detection accuracy of the landmark, and depending on the situation, the detection accuracy of the landmark is remarkably reduced, and the position and orientation of the imaging unit in the real space are different. In some cases, the magnitude of the deviation from the position and orientation of the imaging unit output by the position and orientation estimation device may be a problem. Factors that reduce the detection accuracy of landmarks include, for example, changes in illumination conditions, changes in settings such as shutter speed, white balance, and gain of the imaging unit, and automatic adjustment functions of these. In the conventional position and orientation estimating apparatus, since the detection parameters in the landmark detection processing are fixed, the inability to cope with the above-described change in the image is a main cause of lowering the landmark detection accuracy. .
[0004]
In order to cope with this decrease in detection accuracy, the conventional position and orientation estimating device is designed so that the lighting conditions of the space to be imaged do not change as much as possible, and furthermore, the optimum detection parameters are manually set for each time and place, and are dealt with. I needed to.
[0005]
The present invention has been made in view of such a problem, and an object of the present invention is to automatically adjust a feature detection condition in a captured image so that a feature can always be detected with high accuracy. I do.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, the present invention is characterized by having the following configuration.
[0007]
The invention according to
[0008]
The invention according to claim 11 of the present application detects a characteristic portion in an image photographed by a photographing unit, and adjusts a detection condition of the characteristic unit used when obtaining position and orientation information of the photographing unit using the detection result. An information processing method, wherein a region of a feature point is detected using a detection condition from a video obtained by imaging a real space in which a feature portion having a known three-dimensional position and shape is present by the imaging unit. Detecting, calculating a characteristic region in the video from the three-dimensional position and shape of the characteristic point, comparing the detected characteristic region with the calculated characteristic region, and adjusting the detection condition. I do.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
<First embodiment>
Hereinafter, with reference to the accompanying drawings, a detailed description will be given according to a preferred embodiment to which the present invention is applied.
In the present embodiment, an example in which the present invention is applied to (2) a hybrid estimation method of a position and orientation sensor having six degrees of freedom and an image, which is a conventional example, will be described.
[0010]
<Error of 6 degrees of freedom position and orientation sensor>
Here, the 6-degree-of-freedom position / posture sensor measures the position and orientation of a measurement target, such as a magnetic sensor such as 3SPCACEFASTRAK of Polhemus or Flockof Birds of Assion Technology, or an optical sensor such as OPTOTRAK of Northern Digital. Device that Since the six-degree-of-freedom position and
[0011]
<Solution in JP-A-11-136706>
In view of such a situation, Japanese Patent Laying-Open No. 11-136706 describes a method of correcting a 6-degree-of-freedom sensor error using image information. FIG. 7 is a schematic diagram illustrating the above-described conventional method. In this method, an object having a specific color or shape, called a marker, which is easy to detect by image processing in a real space, for example, a sticker, is attached to an object in the real space and used as a landmark (absolute position reference). As the
[0012]
At this time, there is a deviation (error) between the position A of the landmark predicted by the position and orientation of the camera on the imaging surface and the actual position B as described above. A conversion matrix ΔM is set such that this displacement is superimposed on a predicted landmark position P on the imaging plane, using the position Q of the
[Outside 1]
Then, the position t becomes (M 14, M 24, M 34 ), And the rotation R is
[Outside 2]
It is obtained by the matrix of That is, in order to obtain the position and orientation of the
[0013]
In this manner, the position and orientation based on the output of the six-degree-of-
[0014]
However, since the position of the
[0015]
<Example in which the present invention is applied to the technique disclosed in JP-A-11-136706>
By applying the present invention to the method described in Japanese Patent Application Laid-Open No. H11-136706, the detection parameters are automatically optimized according to the brightness and color change of the captured image obtained by the imaging unit, so that the landmark Detection performance can be improved. Here, optimization is defined as "change to an optimal state". Therefore, a detection parameter that has been subjected to one optimization process is not necessarily in an optimal state for detecting a landmark in a captured image. An optimum state can be achieved by a plurality of optimization processes.
[0016]
FIG. 1 shows a configuration diagram of an imaging unit position / posture estimating apparatus when the present invention is applied to a hybrid alignment method of a six-degree-of-freedom sensor and an image as described in JP-A-11-136706. . A procedure for estimating the position and orientation of the imaging unit will be described with reference to FIG.
[0017]
FIG. 5 is a flowchart showing the flow of processing of the entire apparatus. First, in step S500, the real space in which the landmark is arranged is imaged by the imaging unit. Next, in step S510, a landmark detection process described later is performed. Next, the process proceeds to step S520, in which measurement is performed by a 6-DOF sensor. Further, in step S530, the position and orientation of the imaging unit are estimated using the measured values and the landmark positions detected from the captured image. Next, in step S540, the detection parameters are optimized. When the optimization of the detection parameters is completed, the process proceeds to step S550. If there is an end command, the process ends. If not, the process returns to step S500, and the process is performed again based on the updated captured image.
[0018]
The details of each process from step S510 to step S540 will be described below.
[0019]
<1. Landmark detection processing>
First, the
[0020]
Here, the method of detecting the
I s = R / ((G + B) / 2) (Equation 3)
It is calculated using the calculation formula. In the case of a
I s = G / ((R + B) / 2) (Equation 4)
And for blue landmarks,
I s = B / ((R + G) / 2) (Equation 5)
It is calculated by the following formula. In the present invention, the colors of the landmarks are not limited to the three colors described above, and the present invention can be applied to a case where an arbitrary color is detected. For example, in the detection of an arbitrary color, the pixel values R, G, and B are converted into pixels in the YCbCr format, landmarks corresponding to the Cb and Cr color regions are detected, and parameters for the designated regions of Cb and Cr are determined. It is also applicable to the process of performing optimization. In this case, the parameter for designating the region indicates an elliptical region in the CbCr space, and is composed of θ and r representing the center position, and Ra and Rb representing each axis.
[0021]
In this landmark detection process, the threshold value T, which is the detection parameter adjusted by the detection
[0022]
<Measurement processing by 2.6 degrees of freedom sensor>
On the other hand, the 6-degree-of-
[0023]
<3. Estimation process of imaging unit position and orientation>
The position and orientation measurement values of the
[0024]
M C '= ΔM C ・ M C (Equation 6)
In step S320, if landmarks cannot be associated, for example, ΔM C Is set as a unit matrix, so that M obtained from the FASTRAK sensor output is obtained. C The viewing transformation matrix M of the viewpoint that finally outputs C '.
[0025]
<4. Landmark area generation processing>
Through the position /
[0026]
First, the shape information means, for example, when a circular red landmark 100 (FIG. 8A) as shown in FIG. 2 is used, a 3D model is formed in advance as shown in FIG. It is configured and expresses the shape of a landmark in a pseudo manner. The present invention is not limited to circular landmarks, but can be applied to any object having a specific color or shape that can be easily detected by image processing. As the
[0027]
Further, the arrangement information stores a matrix L representing the position and orientation of the
[0028]
[Outside 3]
[0029]
Further, by using a known projection matrix C from the viewpoint coordinate system to the observation coordinate system, the two-dimensional position V (x v , Y v Get)
[0030]
[Outside 4]
[0031]
[Outside 5]
[0032]
Next, from the two-dimensional position V of each
[0033]
<5. Adjustment of detection parameters>
FIG. 4 is a diagram illustrating a detailed procedure of the process of the detection
[0034]
First, in step S410, a
[0035]
Next, in step S420, the detected image U d Then, an ideal
[0036]
Next, in step S430, a landmark
[0037]
First, the detected image U d A
[0038]
d = gi (Equation 10)
Further, it is assumed that the total number of pixels (protruding pixels) of the
[0039]
In the example of FIG. 12, FIG. 12A has d = 12, e = 0, n = 0, and FIG. 12B has d = 0, e = 10, n = 7.
[0040]
Next, in step S440, the detection parameters are optimized. Details of this processing will be described with reference to the flowchart of FIG. First, in step S600, it is checked whether d and e are 0. If both are 0, it means that the ideal detected pixel pattern and the detected pixel pattern are coincident, so that it is determined that the detection parameters are in an optimal state, and this processing is terminated and the processing returns to the landmark detection processing. In the landmark detection processing, landmark detection of a new captured image is performed using the current detection parameters. If either d or e is positive, the process moves to step S610.
[0041]
In step S610, if the difference d between the number of pixels of the ideal
[0042]
In step 620, it is determined that the current landmark pixel number threshold N is smaller than the current ideal detection pixel number i. This determination is a process of making the value of N smaller than the ideal detection pixel number i so that pixels originally on the landmark are not removed by the landmark pixel number threshold N. In the present embodiment, a threshold of three pixels is always provided between N and i, and N is always set to be smaller than i by three pixels. If N is smaller than i + 3, the process proceeds to step 630. If N is larger than i + 3, the process moves to step S640.
[0043]
In
[0044]
In step S640, since the landmark pixel number threshold value N is larger than i + 3, i-4 is substituted for N, and setting is made so that landmarks can be accurately detected. Further, the detection threshold value T is set so that pixels on the ideal detection pixel pattern which have not been detected at the same time can be detected. c Is reduced by one.
[0045]
In step S650, since d is 0, all the detection pixel patterns in the ideal detection pixel pattern have been detected. However, since e is positive, pixels outside the ideal
[0046]
In step S660, the detection threshold value T is set so that the protruding pixel is not detected. c Is increased by one.
[0047]
In step S670, similarly to step S620, it is determined that the landmark pixel number threshold N is smaller than the current ideal detection pixel number i. If N is smaller than i + 3, the process moves to step S680, and the detection threshold value T is set so that the protruding pixel is not detected. c Is increased by one. If N is larger than i + 3, the process moves to step S670, and the detection threshold value T is set so that the pixel that does not protrude is detected. c Is increased by one, the landmark pixel number threshold N is increased by one, and the detected noise pixel number n is decreased. When these processes have been completed, the individual detection parameters are stored, and the process returns to the landmark detection processing unit, where landmarks are detected from a new captured image using the updated detection parameters.
[0048]
The present invention is not limited to the detection parameter optimizing process shown in FIG. 6, but can be applied to any optimizing process that can accurately detect landmarks.
[0049]
<
The present invention is not applied only to the above embodiments. In the above-described embodiment, the detection parameter optimization process is performed for one captured image by the same number of times as the number of landmarks being captured. However, as shown in FIG. After performing optimization processing by the number of landmarks, the same optimization processing is further performed using the same captured image, so that a more optimal state is obtained as compared to the optimization processing of the above-described embodiment. Reach early.
[0050]
The processing flow of this example will be described with reference to FIG.
[0051]
First, in step S500, an image of a real space where landmarks are arranged is taken. Next, in step S510, the arranged landmark is extracted from the captured image. Next, in step S520, the position and orientation of the
[0052]
<Modification 2>
In the above-described embodiment, markers are detected for three colors of R, G, and B. However, the present invention is not applied only to the above embodiments. For example, the present invention is applicable to landmarks characterized by luminance. An example in which the present invention is applied to a landmark characterized by this luminance will be described below. <2. In the landmark detection process>, the luminance Y is detected from the RGB pixel values, a marker is detected for the luminance Y, and optimization is performed using a threshold value for the luminance Y as a detection parameter.
[0053]
Here, a method of calculating the luminance Y will be described below.
[0054]
Y = 0.299 × R + 0.587 × G + 0.114 × B (Equation 10)
From this Y, the feature amount I s Is calculated and the threshold T c Is the feature value I s Is exceeded, it is determined that the target pixel is within the marker area. For example, if the landmark is a black object,
I s = Y max −Y (Equation 11)
As the feature value I s Is calculated. Where Y max Is the maximum value of the luminance Y. Further, the threshold T c Is a threshold related to the luminance feature amount.
[0055]
With this processing, it is possible to perform the optimization processing of the detection parameter for the landmark characterized by the luminance.
[0056]
(Other embodiments)
A program code of software for realizing the functions of the above-described embodiment is provided to an apparatus or a computer in a system connected to the various devices so as to operate the various devices so as to realize the functions of the above-described embodiment. The present invention also includes a computer (CPU or MPU) of the system or the apparatus that operates by operating the various devices according to a stored program.
[0057]
In this case, the program code itself of the software realizes the function of the above-described embodiment, and the program code itself and a unit for supplying the program code to the computer, for example, the program code is stored. The storage medium constitutes the present invention.
[0058]
As a storage medium for storing such a program code, for example, a floppy (R) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, magnetic tape, nonvolatile memory card, ROM or the like can be used.
[0059]
When the computer executes the supplied program code, not only the functions of the above-described embodiments are realized, but also the OS (Operating System) in which the program code runs on the computer, or other application software. It goes without saying that such a program code is also included in the embodiment of the present invention when the functions of the above-described embodiment are realized in cooperation with the above.
[0060]
Further, after the supplied program code is stored in a memory provided in a function expansion board of a computer or a function expansion unit connected to the computer, a CPU or the like provided in the function expansion board or the function storage unit based on the instruction of the program code. It is needless to say that the present invention includes a case in which the functions of the above-described embodiments are implemented by performing part or all of the actual processing.
[0061]
【The invention's effect】
As described above, according to the present invention, the detection condition for detecting the characteristic portion can be automatically optimized from the captured image, and the position and orientation of the imaging unit can be increased regardless of the change in the captured image. The accuracy can be determined.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of an imaging unit position and orientation estimation apparatus to which a first embodiment of the present invention has been applied.
FIG. 2 is a diagram illustrating a state when the imaging unit position and orientation estimation device of FIG. 1 is used.
FIG. 3 is a block diagram illustrating a configuration example of a position and
FIG. 4 is a block diagram illustrating a configuration example of a detection
FIG. 5 is a flowchart illustrating a process performed by the imaging unit position and orientation estimation device according to the first embodiment.
FIG. 6 is a flowchart illustrating a process of optimizing a detection parameter in FIG. 5;
FIG. 7 is a schematic diagram illustrating a method of correcting the position and orientation of an imaging unit in a conventional method.
FIG. 8 is a diagram illustrating a shape of a landmark according to the first embodiment.
9 is a schematic diagram in which each
FIG. 10 is a schematic diagram showing a
FIG. 11 is a schematic diagram showing a process of generating an ideal detection pixel pattern in the first embodiment.
FIG. 12 is a schematic diagram illustrating an example of a landmark detection pixel pattern according to the first embodiment.
FIG. 13 is a block diagram illustrating a configuration example of an imaging unit position and orientation estimation apparatus to which a modification is applied.
FIG. 14 is a schematic diagram showing a processing area when a plurality of landmarks are imaged in the first embodiment.
Claims (11)
位置姿勢測定部によって得られた前記撮像手段の位置姿勢情報を取得する取得ステップと、
3次元位置が既知である特徴点の存在する現実空間を前記撮像手段によって撮像することにより得られた映像から、検出条件を用いてに前記特徴点を検出する特徴点検出ステップと、
前記特徴点の位置に基づいて、前記位置姿勢情報を補正する補正ステップと、
前記映像から前記検出条件を自動的に最適化する最適化ステップを有することを特徴とする情報処理方法。An information processing method for estimating a position and orientation of an imaging unit located in a three-dimensional space,
An acquisition step of acquiring position and orientation information of the imaging unit obtained by a position and orientation measurement unit,
A feature point detecting step of detecting the feature point from a video obtained by imaging the real space having a feature point whose three-dimensional position is known by the imaging unit using a detection condition;
A correction step of correcting the position and orientation information based on the position of the feature point,
An information processing method, comprising an optimization step of automatically optimizing the detection condition from the video.
前記投影形状と前記特徴点検出ステップによって得られた検出結果とを比較し、
前記比較結果から前記検出条件の最適化を図ることを特徴とする請求項1記載の情報処理方法。Estimating the projection shape of the feature point on the video based on the imaging unit position and orientation obtained by the correction step and the three-dimensional position / shape information of the known feature point,
Comparing the projection shape and the detection result obtained by the feature point detection step,
2. The information processing method according to claim 1, wherein the detection condition is optimized based on the comparison result.
3次元位置および形状が既知である特徴部が存在する現実空間を前記撮像手段によって撮像することにより得られた映像から、検出条件を用いて該特徴点の領域を検出し、
前記特徴点の3次元位置および形状から、前記映像における特徴領域を算出し、
前記検出された特徴領域と前記算出された特徴領域を比較し、前記検出条件を調整することを特徴とする情報処理方法。An information processing method for detecting a characteristic portion in a video imaged by an imaging unit and using the detection result to obtain position and orientation information of the imaging unit, wherein the information processing method adjusts a detection condition of the characteristic unit,
Detecting, using a detection condition, a region of the feature point from a video obtained by imaging the real space in which a feature portion having a known three-dimensional position and shape is present by the imaging unit;
Calculating a characteristic region in the video from the three-dimensional position and shape of the characteristic point;
An information processing method, comprising: comparing the detected characteristic region with the calculated characteristic region to adjust the detection condition.
前記撮像手段の位置姿勢を撮像された映像を利用する以外の方法で計測して、該撮像手段の位置姿勢を示す外部パラメータを取得する計測手段と、
3次元位置が既知である複数の特徴点の存在する現実空間を、前記撮像手段によって撮像した映像から検出パラメータにより前記特徴点を検出する特徴点検出手段と、
前記特徴点の位置に基づいて、前記計測手段によって得られた前記外部パラメータを補正する補正手段とを備え、
前記特徴点検出手段は、映像の輝度、色変化に応じて自動的に特徴点を検出する前記検出パラメータを最適化する検出パラメータの最適化手段を備えることを特徴とする撮像部位置姿勢推定装置。An imaging unit position and orientation estimation device that estimates a position and orientation of an imaging unit located in a three-dimensional space and outputs the position and orientation information,
A measuring unit that measures the position and orientation of the imaging unit by a method other than using a captured image, and obtains external parameters indicating the position and orientation of the imaging unit,
Feature point detection means for detecting a feature point from a video taken by the imaging means using a detection parameter in a real space having a plurality of feature points whose three-dimensional positions are known;
Correction means for correcting the external parameter obtained by the measurement means based on the position of the feature point,
An image pickup unit position / posture estimating device, comprising: a detection parameter optimizing unit that optimizes the detection parameter for automatically detecting a characteristic point in accordance with luminance and color change of an image. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002223281A JP4194316B2 (en) | 2002-07-31 | 2002-07-31 | Position / orientation estimation apparatus, position / orientation estimation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002223281A JP4194316B2 (en) | 2002-07-31 | 2002-07-31 | Position / orientation estimation apparatus, position / orientation estimation method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2004062757A true JP2004062757A (en) | 2004-02-26 |
JP2004062757A5 JP2004062757A5 (en) | 2005-07-21 |
JP4194316B2 JP4194316B2 (en) | 2008-12-10 |
Family
ID=31943077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002223281A Expired - Fee Related JP4194316B2 (en) | 2002-07-31 | 2002-07-31 | Position / orientation estimation apparatus, position / orientation estimation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4194316B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005293141A (en) * | 2004-03-31 | 2005-10-20 | Canon Inc | Method and device for detecting marker, and method for estimating position and attitude |
JP2005292027A (en) * | 2004-04-02 | 2005-10-20 | Miyazaki Tlo:Kk | Processor and method for measuring/restoring three-dimensional shape |
JP2008002980A (en) * | 2006-06-23 | 2008-01-10 | Canon Inc | Information processing method and device |
CN100408969C (en) * | 2004-05-14 | 2008-08-06 | 佳能株式会社 | Method and device for determining position and direction |
JP2010157035A (en) * | 2008-12-26 | 2010-07-15 | Ritsumeikan | System, method, and program for displaying composite image |
JP2010157034A (en) * | 2008-12-26 | 2010-07-15 | Ritsumeikan | System, method, and program for displaying composite image |
JP2011209622A (en) * | 2010-03-30 | 2011-10-20 | Ns Solutions Corp | Device and method for providing information, and program |
JP2011226931A (en) * | 2010-04-20 | 2011-11-10 | Fujitsu Ten Ltd | Calibration method |
JP2012018684A (en) * | 2011-09-05 | 2012-01-26 | Canon Inc | Information processing method and apparatus |
JP2012103116A (en) * | 2010-11-10 | 2012-05-31 | Nippon Telegr & Teleph Corp <Ntt> | Camera pose information calculating device and camera pose information calculating program |
JP2013024586A (en) * | 2011-07-15 | 2013-02-04 | Univ Of Yamanashi | Monospectral marker, method and device for detecting the same |
US10593044B2 (en) | 2017-08-30 | 2020-03-17 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
JP2020113951A (en) * | 2019-01-16 | 2020-07-27 | 住友重機械工業株式会社 | Information processing device, program, and image recognition marker |
JP2020113950A (en) * | 2019-01-16 | 2020-07-27 | 住友重機械工業株式会社 | Information processing device, program, and image recognition marker set |
-
2002
- 2002-07-31 JP JP2002223281A patent/JP4194316B2/en not_active Expired - Fee Related
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005293141A (en) * | 2004-03-31 | 2005-10-20 | Canon Inc | Method and device for detecting marker, and method for estimating position and attitude |
JP4537104B2 (en) * | 2004-03-31 | 2010-09-01 | キヤノン株式会社 | Marker detection method, marker detection device, position and orientation estimation method, and mixed reality space presentation method |
JP2005292027A (en) * | 2004-04-02 | 2005-10-20 | Miyazaki Tlo:Kk | Processor and method for measuring/restoring three-dimensional shape |
CN100408969C (en) * | 2004-05-14 | 2008-08-06 | 佳能株式会社 | Method and device for determining position and direction |
JP2008002980A (en) * | 2006-06-23 | 2008-01-10 | Canon Inc | Information processing method and device |
JP2010157035A (en) * | 2008-12-26 | 2010-07-15 | Ritsumeikan | System, method, and program for displaying composite image |
JP2010157034A (en) * | 2008-12-26 | 2010-07-15 | Ritsumeikan | System, method, and program for displaying composite image |
JP2011209622A (en) * | 2010-03-30 | 2011-10-20 | Ns Solutions Corp | Device and method for providing information, and program |
JP2011226931A (en) * | 2010-04-20 | 2011-11-10 | Fujitsu Ten Ltd | Calibration method |
JP2012103116A (en) * | 2010-11-10 | 2012-05-31 | Nippon Telegr & Teleph Corp <Ntt> | Camera pose information calculating device and camera pose information calculating program |
JP2013024586A (en) * | 2011-07-15 | 2013-02-04 | Univ Of Yamanashi | Monospectral marker, method and device for detecting the same |
JP2012018684A (en) * | 2011-09-05 | 2012-01-26 | Canon Inc | Information processing method and apparatus |
US10593044B2 (en) | 2017-08-30 | 2020-03-17 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
JP2020113951A (en) * | 2019-01-16 | 2020-07-27 | 住友重機械工業株式会社 | Information processing device, program, and image recognition marker |
JP2020113950A (en) * | 2019-01-16 | 2020-07-27 | 住友重機械工業株式会社 | Information processing device, program, and image recognition marker set |
JP7191706B2 (en) | 2019-01-16 | 2022-12-19 | 住友重機械工業株式会社 | Information processing device, program, marker for image recognition |
JP7292883B2 (en) | 2019-01-16 | 2023-06-19 | 住友重機械工業株式会社 | Information processing device, program, marker set for image recognition |
Also Published As
Publication number | Publication date |
---|---|
JP4194316B2 (en) | 2008-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10234873B2 (en) | Flight device, flight control system and method | |
US7529387B2 (en) | Placement information estimating method and information processing device | |
JP4194316B2 (en) | Position / orientation estimation apparatus, position / orientation estimation method, and program | |
JP2003281504A (en) | Image pickup portion position and attitude estimating device, its control method and composite reality presenting system | |
JP3859574B2 (en) | 3D visual sensor | |
US8798387B2 (en) | Image processing device, image processing method, and program for image processing | |
US8705868B2 (en) | Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method | |
US7812871B2 (en) | Index identification method and apparatus | |
EP1596329A2 (en) | Marker placement information estimating method and information processing device | |
US8699749B2 (en) | Computer-readable storage medium, image processing apparatus, image processing system, and image processing method | |
JP6464938B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2008046687A (en) | Photographic environment calibration method and information processor | |
US8571266B2 (en) | Computer-readable storage medium, image processing apparatus, image processing system, and image processing method | |
WO2015019526A1 (en) | Image processing device and markers | |
US11488354B2 (en) | Information processing apparatus and information processing method | |
US10205928B2 (en) | Image processing apparatus that estimates distance information, method of controlling the same, and storage medium | |
WO2019228523A1 (en) | Method and device for determining spatial position shape of object, storage medium and robot | |
US8718325B2 (en) | Computer-readable storage medium, image processing apparatus, image processing system, and image processing method | |
US20130314533A1 (en) | Data deriving apparatus | |
JP6942566B2 (en) | Information processing equipment, information processing methods and computer programs | |
JP4502361B2 (en) | Index attitude detection method and apparatus | |
JP2021106025A (en) | Information processing device, information processing method, and program | |
JP6922348B2 (en) | Information processing equipment, methods, and programs | |
US11900632B2 (en) | Moving body position determination device, moving body position determination method, and moving body position determination system | |
JPWO2005096130A1 (en) | Method and apparatus for detecting designated position of imaging apparatus, and program for detecting designated position of imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080306 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080318 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080610 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080808 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080909 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080922 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111003 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111003 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121003 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131003 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |