JP2006153848A - 情報処理方法および装置 - Google Patents

情報処理方法および装置 Download PDF

Info

Publication number
JP2006153848A
JP2006153848A JP2005217554A JP2005217554A JP2006153848A JP 2006153848 A JP2006153848 A JP 2006153848A JP 2005217554 A JP2005217554 A JP 2005217554A JP 2005217554 A JP2005217554 A JP 2005217554A JP 2006153848 A JP2006153848 A JP 2006153848A
Authority
JP
Japan
Prior art keywords
information
image
index
calibration
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005217554A
Other languages
English (en)
Other versions
JP4914038B2 (ja
Inventor
Shinichi Araya
真一 荒谷
Kiyohide Sato
清秀 佐藤
Daisuke Kotake
大輔 小竹
Shinji Uchiyama
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005217554A priority Critical patent/JP4914038B2/ja
Priority to US11/265,981 priority patent/US7580027B2/en
Publication of JP2006153848A publication Critical patent/JP2006153848A/ja
Application granted granted Critical
Publication of JP4914038B2 publication Critical patent/JP4914038B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 物体に装着した較正対象指標の該物体に対する配置情報と、該物体に装着したセンサの該物体に対する配置情報とを、同時に簡便かつ正確に求めることができるようにする。
【解決手段】 物体を客観視点位置から撮影した客観視点画像を取得し、センサの計測値を入力し、客観視点画像から較正対象指標の画像座標に関する情報を検出し、計測値と較正対象指標の画像座標に関する情報とを用いて、物体に装着した較正対象指標の物体に対する配置情報と、物体に装着したセンサの物体に対する配置情報とを求める。
【選択図】 図1

Description

本発明は、物体に装着した指標の物体に対する配置情報と、物体に装着したセンサの物体に対する配置情報を求めるものに関する。
計測対象物体に複数の指標を設定し、カメラによって計測対象物体を撮影し、撮像した画像内における指標の投影像の画像座標を検出することで、計測対象物体の(カメラに対する、あるいは、カメラの設置されている空間における)位置及び姿勢を求めることが行われている(例えば、非特許文献1を参照)。
本件の発明者らも、非特許文献3において、計測対象物体上に指標と姿勢センサを装着し、客観視点位置から計測対象物体を撮像した客観視点画像から検出した指標の像と、姿勢センサによる姿勢計測値を利用して、物体の位置及び姿勢を計測する方法を提案している。さらに、撮像装置が計測対象物体である場合に、該撮像装置に指標と姿勢センサを装着し、客観視点位置から該撮像装置を撮像した客観視点画像から検出した指標の像と、該撮像装置自身の撮像画像から検出した情景中に別途配置されている指標の像と、姿勢センサによる姿勢計測値を利用して、物体の位置及び姿勢を計測する方法を提案している。
物体に設定した複数の指標の像を検出することで物体の位置及び姿勢を算出する方法においては、指標と計測対象物体との相対的な位置関係が既知でなければならない。また、非特許文献3のように物体の位置及び姿勢の計測に姿勢センサを用いる場合には、計測対象物体に対する姿勢センサの相対姿勢が既知でなければならない。
従来は、これらの関係、すなわち物体に対する指標の配置情報および物体に対するセンサの配置情報(以下ではこれを一般的に較正情報と呼ぶ)を求める作業(以下ではこれを一般的に較正と呼ぶ)を、別々に行っていた。すなわち、従来は、指標の較正は指標の較正で、姿勢センサの較正は姿勢センサの較正で、別々の工程として行っていた。
D.G.Lowe:Fitting parameterized three−dimensional models to images,IEEE Transactions on PAMI,vol.13,no.5,pp.441−450,1991. A.I.Comport,E.Marchand,F.Chaumette,A real−time tracker for markerless augmented reality,Proc.Int'l Symp.on Mixed and Augmented Reality 2004,pp.36−45,2004. K.Satoh,S.Uchiyama,and H.Yamamoto:"A head tracking method using bird's−eye view camera and gyroscope,"Proc. 3rd IEEE/ACM Int'l Symp.on Mixed and Augmented Reality(ISMAR 2004),pp.202−211,2004.
しかしながら、これらを個別に較正することは、作業の手間がかかるという観点で改善の余地があった。
本発明は以上を鑑みてなされたものであり、物体に装着した較正対象指標の該物体に対する配置情報と、該物体に装着したセンサの該物体に対する配置情報とを、同時に簡便かつ正確に求めることができるようにすることを目的とする。
上記目的を達成するために、本発明は以下の構成を有することを特徴とする。
本願請求項1記載の発明は、物体に装着した較正対象指標の該物体に対する配置情報と、該物体に装着したセンサの該物体に対する配置情報とを較正情報として求める情報処理方法であって、前記物体を撮影した画像を取得し、前記センサの計測値を入力し、前記画像から前記較正対象指標の画像座標に関する情報を検出し、前記計測値と前記較正対象指標の画像座標に関する情報とを用いて、前記較正情報を求めることを有することを特徴とする。
本願請求項8記載の発明は、撮像装置に装着した較正対象指標の撮像装置に対する位置と、該撮像装置に装着した姿勢センサの撮像装置に対する姿勢を較正情報として算出する情報処理方法であって、前記撮像装置を撮影した第一の画像を取得し、前記撮像装置によって撮影された第二の画像を取得し、前記姿勢センサによる計測値を入力し、前記較正対象指標の画像座標に関する情報を前記第一の画像から検出し、情景に配置された基準指標の画像座標に関する情報を前記第二の画像から検出し、前記計測値と、前記較正対象指標の画像座標に関する情報と、前記基準指標の画像座標に関する情報とを用いて、前記較正情報を算出することを特徴とする。
本発明によれば、物体に装着した較正対象指標の該物体に対する配置情報と、該物体に装着したセンサの該物体に対する配置情報とを、同時に、簡便かつ正確に求めることができる。
以下、添付図面を参照して本発明の好適な実施形態について詳細に説明する。
[第1の実施形態]
本実施形態に係る指標較正装置は、撮像装置に装着した指標の撮像装置に対する配置情報と、撮像装置に装着された姿勢センサの配置情報とを取得する。以下、本実施形態に係る指標較正装置及び指標較正方法について説明する。
図1は、本実施形態に係る指標較正装置100の概略構成を示す図である。図1に示したように、本実施形態に係る指標較正装置100は、主観視点指標検出部110、センサ計測値入力部120、客観視点カメラ140、客観視点指標検出部150、指示部160、データ管理部170、較正情報算出部180によって構成されており、較正対象である撮像装置130と、後述する姿勢センサ190に接続されている。
なお、撮像装置130上には、較正される対象である姿勢センサ190が装着されており、さらに、較正される対象であるふたつの指標P,P(以下、これを客観視点指標と呼ぶ)が設定されているものとする。主観視点カメラ座標系(撮像装置130上の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)における、姿勢センサ190の姿勢と夫々の客観視点指標の位置は未知であり、この未知である主観視点カメラ座標系における姿勢センサの姿勢及び夫々の客観視点指標の位置が、本実施形態に係る指標較正装置が較正する情報、すなわち、本実施形態に係る指標較正装置の出力となる。
本実施形態では、計測対象物体である撮像装置上に指標を配置するともに、姿勢サンサを装着しているので、較正情報は指標の配置情報および姿勢センサの配置情報となる。
現実空間中の複数の位置には、撮像装置130によって撮影するための指標(以下、主観視点指標(基準指標))として、世界座標系(現実空間の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)における位置が既知である複数個の主観視点指標Q(k=1,,,K)が配置されている。主観視点指標Qは、指標較正用のデータを取得する時の撮像装置130によって、少なくとも3個以上の指標が観測されるように設置されていることが望ましい。図1の例は、4個の主観視点指標Q,Q,Q,Qが配置されており、そのうちの3個Q,Q,Qが撮像装置130の視野内に含まれている状況を示している。
主観視点指標Qは、例えば、それぞれが異なる色を有する円形状のマーカによって構成してもよいし、それぞれが異なるテクスチャ特徴を有する自然特徴等の特徴点によって構成してもよい。また、ある程度の面積を有する四角形領域によって形成されるような四角形指標を用いることも可能である。撮影画像上における投影像の画像座標が検出可能であって、かついずれの指標であるかが識別可能であるような指標であれば、何れの形態であってもよい。
主観視点指標検出部110は、撮像装置130が出力する画像(以下、これを主観視点画像と呼ぶ)を撮像装置130から入力し、入力した画像中に撮影されている主観視点指標Qの画像座標を検出する。例えば、主観視点指標Qの各々が異なる色を有するマーカによって構成されている場合には、主観視点画像上から各々のマーカ色に対応する領域を検出し、その重心位置を指標の検出座標とする。また、主観視点指標Qの各々が異なるテクスチャ特徴を有する特徴点によって構成されている場合には、既知の情報として予め保持している各々の指標のテンプレート画像によるテンプレートマッチングを主観視点画像上に施すことにより、指標の位置を検出する。基準指標として四角形指標を用いる場合は、画像に2値化処理を施した後にラベリングを行い、一定面積以上の領域の中から4つの直線によって形成されているものを指標候補として検出する。さらに、候補領域の中に特定のパターンがあるか否かを判定することによって誤検出を排除し、また、指標の方向と識別子を取得する。なお、このようにして検出される四角形指標は、本明細では、4つの頂点の個々によって形成される4つの指標であると考える。
さらに、主観視点指標検出部110は、検出された各々の主観視点指標Qknの画像座標uQknとその識別子kを、データ管理部170の要求に従ってデータ管理部170へと出力する。ここで、n(n=1,,,N)は検出された指標夫々に対するインデックスであり、Nは検出された指標の総数を表している。例えば図1の場合には、N=3であり、識別子k=1,k=3,k=4とこれらに対応する画像座標uQk1,uQk2,uQk3が出力される。本実施形態における主観視点指標検出部110は、撮像装置130からの画像の入力をトリガとして上記の指標検出処理を逐次実行しているが、データ管理部170からの要求に応じて(その時点で入力している主観視点画像を利用して)処理を実行する構成としても良い。
センサ計測値入力部120は、姿勢センサ190から姿勢計測値を入力し、データ管理部170の要求に従ってデータ管理部170へと出力する。姿勢センサ190が出力する値は一般的にはセンサが独自に定義するセンサ座標系におけるセンサ自身の姿勢であるが、センサ計測値入力部120は、既知の値であるセンサ座標系から世界座標系への変換行列を乗算することでこれを世界座標系におけるセンサ自身の姿勢に変換し、変換後の回転行列(以下ではこれをRWSと記する)をデータ管理部170へと出力する。
客観視点カメラ140は、撮像装置130を撮像可能な位置に固定して配置されている。世界座標系における客観視点カメラ140の位置及び姿勢は、既知の値として較正情報算出部180に予め保持されているものとする。
客観視点指標検出部150は、客観視点カメラ140が撮影した画像(以下、これを客観視点画像と呼ぶ)を入力し、主観視点指標検出部110と同様な処理によって(較正対象となっている客観視点指標P,Pの種類に応じて)画像中に撮影されている各客観視点指標の画像座標を検出し、検出された画像座標uP1,uP2を、データ管理部170の要求に従ってデータ管理部170へと出力する。本実施形態における客観視点指標検出部150は、客観視点画像の入力をトリガとして上記の指標検出処理を逐次実行しているが、データ管理部170からの要求に応じて(その時点で入力している客観視点画像を利用して)処理を実行する構成としても良い。
指示部160は、不図示のオペレータからデータ取得コマンドが入力された時には「データ取得」の指示をデータ管理部170に、較正情報算出コマンドが入力されたときには「較正情報算出」の指示を較正情報算出部180に送信する。指示部160へのコマンド入力は、例えばキーボードを用いて、特定のコマンドを割り当てたキーを押すことによって行うことができる。また、コマンドの入力は、ディスプレイ上に表示されたGUIで行うなどの、いずれの方法で行ってもよい。
データ管理部170は、指示部160から「データ取得」の指示を受けると、主観視点指標検出部110から主観視点指標の画像座標とその識別子を入力し、センサ計測値入力部120からセンサ計測値RWSを入力し、客観視点指標検出部150から客観視点指標の画像座標uP1,uP2を入力し、[ある時刻におけるセンサ計測値−同時刻に検出された全客観視点指標の画像座標−同時刻に検出されたある主観視点指標の検出情報(画像座標と識別子)]の組を、入力された主観視点指標の数だけ作成し、データリストに追加してこれを保持する。また、データ管理部170は、較正情報算出部180からの要求にしたがって、保持しているデータリストを較正情報算出部180に出力する。
較正情報算出部180は、指示部160から「較正情報算出」の指示を受けると、データ管理部170からデータリストを入力し、これをもとに較正処理を行い、その結果として得られた較正情報(すなわち、各客観視点指標の主観視点カメラ座標系における位置と姿勢センサ190の主観視点カメラ座標系における姿勢)を出力する。
図2は、本実施形態の較正装置が較正情報を求める際に行う処理のフローチャートである。なお、同フローチャートに従ったプログラムコードは、本実施形態の装置内の、不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUにより読み出され、実行される。
ステップS2005において、指示部160は、データ取得コマンドがオペレータから入力されたか否かの判定を行う。オペレータは、データ取得を行う位置に撮像装置130を配置して、データ取得コマンドを入力する。指示部160は、データ取得コマンドが入力されている場合には、ステップS2010へと処理を移行させる。
ステップS2010において、データ管理部170は、主観視点指標検出部110から、主観視点指標検出部110によって検出された夫々の主観視点指標Qknの画像座標uQknとその識別子kを入力する。
ステップS2020において、データ管理部170は、客観視点指標検出部150から、客観視点指標検出部150によって検出された客観視点指標の画像座標uP1,uP2を入力する。
ステップS2030において、データ管理部170は、センサ計測値入力部120から姿勢計測値RWSを入力する。以上のステップS2010,S2020,S2030の処理により、同一時刻におけるセンサ計測値と各客観視点指標及び主観視点指標の画像座標を得ることができる。
ステップS2040において、データ管理部170は、入力した夫々の主観視点指標Qknの情報を、データリストLにデータDとして追加する。具体的には、主観視点指標検出部110から入力する識別子kをkとし、同じく主観視点指標検出部110から入力するuQknをuQkiとし、客観視点指標検出部150から入力する客観視点指標の画像座標uP1,uP2をuP1i,uP2iとし、センサ計測値入力部120から入力する姿勢計測値RWSをRWSiとして、D=[k,u Qki,uP1i,uP2i,RWSi]の組を、i番目のデータとしてデータリストLに登録する。ここでi(i=1,,,I)は、データリストLに登録したデータの組夫々に対するインデックスであり、Iは登録したデータの総組数を表している。
以上の処理によって、データの取得が行われる。
ステップS2050では、データ管理部170によって、それまでに取得されたデータリストが、較正情報を算出するに足るだけの情報を有しているかどうかの判定が行われる。データリストが条件を満たしていない場合には、再びステップS2005へと戻り、データ取得コマンドの入力を待つ。一方、データリストが較正情報算出の条件を満たしている場合には、ステップS2060へと処理を移行させる。データリストが較正情報を算出するに足るだけの情報を有す条件としては、例えば、少なくとも異なる3つ以上の主観視点指標Qに関するデータが、夫々複数回以上データリストLに含まれていること、が挙げられる。ただし、入力データの多様性が増すほどに導出される較正情報の精度は向上するので、より多くのデータを要求するように条件を設定してもよい。
次にステップS2060において、較正情報算出コマンドがオペレータから入力されたか否かの判定を行う。較正情報算出コマンドが入力されている場合には、ステップS2070へと処理を移行し、入力されていない場合には、再びステップS2005へと戻り、データ取得コマンドの入力を待つ。
較正情報算出部180は、求めるべき較正情報を9値の状態ベクトル、すなわち、主観視点カメラ座標系における客観視点指標Pの位置x P1=(x P1,y P1,z P1)、主観視点カメラ座標系における客観視点指標Pの位置x P2=(x P2,y P2,z P2)、主観視点カメラ座標系における姿勢センサ190の姿勢ωCS=(ξCS,φCS,ζCS)によって定められるs=[x P1 P1 P1 P2 P2 P2 ξCS φCS ζCSとして扱う。なお、姿勢を3値で表現する方法にはさまざまなものが存在するが、ここでは、ベクトルの大きさによって回転角を、ベクトルの向きによって回転軸を定義するような3値のベクトルによって表現されているものとする。
ステップS2070において、較正情報算出部180は、状態ベクトルsに適当な初期値を与える。この値は、例えば、オペレータによる対話的な設定操作等によって予め与えておく。
ステップS2080において、較正情報算出部180は、データリストL中の各データDおよび状態ベクトルsから、全てのiに対して、主観視点指標Qkiの主観視点画像座標の理論値u' Qki=[u'xi Qki,u'yi Qki]を算出する。ここで主観視点指標の主観視点画像座標の理論値とは、状態ベクトルの値がsである時に、世界座標系における位置x Qkiが既知な主観視点指標Qkiの、主観視点画像中に見えるべき座標を指す。u' Qkiの算出は、状態ベクトルsの関数
Figure 2006153848
に基づいて行われる。
具体的には、関数F( )は、i番目のデータを取得した時の主観視点指標Qkiの主観視点カメラ座標における位置xCi Qkiを、状態ベクトルs及びデータDから求める次式、
Figure 2006153848
及び、主観視点指標Qkiの主観視点画像上の座標u' QkiをxCi Qkiから求める次式、
Figure 2006153848
によって構成されている。ここでf 及びf は、それぞれx軸方向及びy軸方向における撮像装置130の焦点距離であり、既知の値として予め保持されているものとする。
式2におけるRWCiは、i番目のデータを取得した時の世界座標系における主観視点カメラの姿勢を表しており、状態ベクトルsの要素であるωCSによって定まる行列RCSと、データDの要素である姿勢計測値RWSiによって、次式によって定義される。
Figure 2006153848
ここで、RCSは、センサ座標系から主観視点カメラ座標系への姿勢の変換を施す回転行列であり、次式によって定義される。
Figure 2006153848
ただし、
Figure 2006153848
である。
また、tWCiは、i番目のデータを取得した時の世界座標系における主観視点カメラの位置であり、状態ベクトルs及びDから、次式によって得ることができる。
Figure 2006153848
ここで、
Figure 2006153848
Figure 2006153848
を表している。なお、RWBは世界座標系における客観視点カメラ140の姿勢を表す回転行列、tWBは世界座標系における客観視点カメラ140の位置を表す平行移動ベクトルであり、既知の値として予め保持されている世界座標系における客観視点カメラ140の位置及び姿勢に基づいて、予め算出されているものとする。また、f 及びf は、それぞれx軸方向及びy軸方向における客観視点カメラ140の焦点距離であり、既知の値として予め保持されているものとする。
なお、式7から式9の関係は、客観視点指標P(j=1,2)を客観視点カメラで観測する際の幾何変換を式10及び式11のように定式化し、
Figure 2006153848
Figure 2006153848
これを展開することで次式
Figure 2006153848
Figure 2006153848
を得て、式12及び式13を解くことで得ることができる。なお、式12及び式13における記号x'WCi,y'WCi,z'WCiは、次式の関係を表している。
Figure 2006153848
ステップS2090において、較正情報算出部180は、全てのiに対して、データリストL中の各データに含まれる主観視点指標Qkiの実際の画像座標u Qkiと、それに対応する画像座標の理論値u' Qkiとの誤差△u Qkiを次式によって算出する。
Figure 2006153848
ステップS2100において、較正情報算出部180は、全てのiに対して、状態ベクトルsに関する画像ヤコビアン(すなわち、式1の関数F()を状態ベクトルsの各要素で偏微分した解を各要素に持つ2行×9列のヤコビ行列)Juis Qki(=∂u Qki/∂s)を算出する。具体的には、式3の右辺を主観視点カメラ座標系上の位置ベクトルxCi Qkiの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列JuixCi Qki(=∂u Qki/∂xCi Qki)と、式2の右辺を状態ベクトルsの各要素で偏微分した解を各要素に持つ3行×9列のヤコビ行列JxCis Qki(=∂xCi Qki/∂s)を算出し、次式によってJuis Qkiを算出する。
Figure 2006153848
ステップS2110において、較正情報算出部180は、以上のステップで算出した、全てのiに対する誤差△u Qki及びヤコビ行列Juis Qkiに基づいて、sの補正値△sを算出する。具体的には、全てのiに対する誤差△u Qkiを垂直に並べた2I次元ベクトルの誤差ベクトル
Figure 2006153848
及びヤコビ行列Juis Qkiを垂直に並べた2I行×9列の行列
Figure 2006153848
を作成し、Φの擬似逆行列Φを用いて、△sを次式より算出する。
△sPk=ΦU ・・・式(19)
なおΦは、例えばΦ=(ΦΦ)−1Φによって求めることができるが、他の方法によって求めてもよい。
ステップS2120において、較正情報算出部180は、ステップS2110において算出した補正値△sを用いて、式20に従ってsを補正し、得られた値を新たなsとする。
s+△s→s ・・・式(20)
ステップS2130において、較正情報算出部180は、誤差ベクトルUが予め定めた閾値より小さいかどうか、あるいは、補正値△sが予め定めた閾値より小さいかどうかといった何らかの判断基準を用いて、計算が収束しているか否かの判定を行う。収束していない場合には、補正後の状態ベクトルsを用いて、再度ステップS2080以降の処理を行う。
ステップS2130において計算が収束したと判定されると、ステップS2140において、較正情報算出部180は、得られた状態ベクトルsを出力する。
最後にステップS2150では、較正処理を終了するか否かの判定が行われる。オペレータが、指標較正装置100に対して、較正処理の終了を指示した場合には、処理を終了させ、較正処理の継続(再較正)を指示した場合には、再びステップS2005へと戻り、データ取得コマンドの入力を待つ。
以上の処理によって、撮像装置に装着した指標の撮像装置に対する配置情報および撮像装置に装着したセンサの撮像装置に対する配置情報を、簡便かつ正確に取得することができる。
<変形例>
なお、上記実施形態においては、状態ベクトルの補正値の算出に式19で表現されるNewton−Raphson法を用いているが、補正値の算出は必ずしもNewton−Raphson法によって行わなくてもよい。例えば公知の非線形方程式の反復解法であるLM法(Levenberg−Marquardt法)を用いて求めてもよいし、公知のロバスト推定手法であるM推定等の統計的手法を組み合わせてもよいし、他の何れの数値計算手法を適用しても本発明の本質が損なわれないことは言うまでもない。
また、上記実施形態においては、撮像装置に姿勢センサを用いたが、位置姿勢センサなどの他のセンサを用いても構わない。
また、本実施形態においては、画像上で2次元座標を与えるような指標を主観視点指標として用いているが、非特許文献1や非特許文献2で開示されているような線特徴や幾何特徴を、評価のための基準指標として用いてもよい。例えば、線特徴を用いる場合には、直線の原点からの距離を誤差評価基準として、画像からの検出値dと状態ベクトルsからの推定値d'から算出する誤差△dによって誤差ベクトルUを構成し、d'の算出式を状態ベクトルsの各要素で偏微分した解を各要素に持つ1行×4列のヤコビ行列Jds(=∂d/∂s)によって行列Φを構成することで、上記実施形態と同様な枠組みによって補正値の算出を行うことが出来る。なお、d'の算出式は、非特許文献1や非特許文献2等で撮像装置の位置姿勢の関数として開示されており、かつ、撮像装置の位置姿勢はsの関数として得られる(式4及び式7)ので、これらから容易に得ることができる。また、線特徴と点特徴、その他の指標から得られる誤差及び画像ヤコビアンを積み重ねることによって、それらの特徴を併用することも可能である。
<第2の実施形態>
本実施形態に係る指標較正装置では、対象物体に装着した複数の指標の較正と物体に装着した6自由度位置姿勢センサの較正を、6自由度位置姿勢センサを装着した移動可能なカメラで対象物体に装着した指標を撮影することにより行う。第1の実施形態では、カメラに装着した指標のカメラに対する位置と、カメラに装着された姿勢センサの姿勢とを未知パラメータとして取り扱っていたが、本実施形態では,物体に対する指標の位置姿勢、物体に対する6自由度位置姿勢センサの位置姿勢を未知パラメータとして取り扱う。以下、本実施形態に係る指標較正装置及び指標較正方法について説明する。
図3は、本実施形態に係る指標較正装置1100の概略構成を示している。図3に示すように、本実施形態に係る指標較正装置1100は、撮像部1010、指標検出部1020、位置姿勢算出部1030、データ管理部1040、指示部1050、較正情報算出部1060によって構成されており、指標が装着された物体1000に接続されている。
また、物体1000には6自由度位置姿勢センサA2が装着されており、世界座標系に対する6自由度位置姿勢センサA2の位置姿勢を計測することが可能になっている。6自由度位置姿勢センサA2は位置姿勢算出部1030に接続されている。また、撮像部1010には6自由度位置姿勢センサA1が装着されている。撮像部を構成するカメラに対する6自由度位置姿勢センサA1の位置姿勢は既知であり、カメラの世界座標系に対する位置姿勢を計測することが可能であるとする。6自由度位置姿勢センサA1は位置姿勢算出部1030に接続されている。
なお、物体1000上には、図5(A)に示すように指標が複数配置されている。ここで、物体に配置された指標をP(k=1,,,K)で表す。但し、Kは物体上に配置された較正対象となる指標の数である。また、図5(B)で示すように指標Pは点pki((k=1,,,K)、(i=1,,,N))により構成される。但し、Nは、指標Pを構成する点の総数を表す。ここで物体上に配置された夫々の指標を構成する各点の指標座標系における位置は既知であるとする。物体座標系(物体上の一点を原点として定義し、互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)における各指標の位置姿勢は未知である。また,物体上に配置された6自由度位置姿勢センサの物体座標系における位置姿勢は未知である。なお、物体上には、物体座標系を規定するための基準指標として、物体座標系における位置が既知でかつ同一直線上にない指標が3点以上配置されている。すべての基準指標は、撮像部1010によって他の較正対象のマーカと少なくとも1回は同一画像内で観測される必要がある。また、物体に装着した指標Pは、撮影画像上における投影像の画面座標が検出可能であって、かついずれの指標であるか、さらには指標を構成する各点が識別可能であるような指標であれば、何れの形態であってもよい。
例えば、基準指標として四角形指標を用いる場合は、画像に2値化処理を施した後にラベリングを行い、一定面積以上の領域の中から4つの直線によって形成されているものを指標候補として検出する。さらに、候補領域の中に特定のパターンがあるか否かを判定することによって誤検出を排除し、また、指標の方向と識別子を取得する。なお、このようにして検出される四角形指標は、本明細では、4つの頂点の個々によって形成される4つの指標により1つの指標座標系を構成すると考える。
撮像部1010は、物体上に配置された指標を様々な位置や方向から撮影する。撮影された画像は、指標検出部1020に入力される。
指標検出部1020は、撮像部1010より画像を入力し、入力した画像中に撮影されている指標Pを構成する各点の画像座標を検出する。
さらに、指標検出部1020は、検出された各々の指標Pknを構成する点pkniの画像座標uPkniとその識別子kをデータ管理部1040へと出力する。ここで、n(n=1,,,M)は検出された指標夫々に対するインデックスであり、Mは検出された指標の総数を表している。例えば図3の場合は、識別子が
1、2,3である四角形形状の指標が撮影される場合を示しており、M=3であり、識別子k=1、k=2、k=3とこれらに対応する画像座標uPk1i、uPk2i、uPk3i、(i=1、2、3、4)が出力される。
次に位置姿勢算出部1030について説明する。ここで、ある座標系Aの別の座標系Bに対する位置をt、姿勢を表す3×3回転行列をRとすると、A上の点xの、B上の点xへの座標変換は式21に示す4×4行列MBAを使って式22のように表される。
Figure 2006153848
Figure 2006153848
本実施形態において、MBAを、座標系Aの座標系Bに対する位置姿勢を表す手段として用いる。
位置姿勢算出部1030は、カメラに装着された6自由度位置姿勢センサA1のセンサ計測値より得られる世界座標系におけるカメラの位置姿勢MWCと、物体に装着された6自由度位置姿勢センサA2のセンサ計測値より得られる世界座標系における物体装着6自由度位置姿勢センサA2の位置姿勢MWA2より、物体装着6自由度位置姿勢センサの座標系におけるカメラの位置姿勢MA2Cを式23のように算出する。
Figure 2006153848
また、本実施形態では、位置及び姿勢を、夫々3値ベクトルx=[x y z]及びω=[ξ ψ ζ]によって内部的に表現する。姿勢を3値によって表現する方法には様々なものが存在するが、ここでは、ベクトルの大きさによって回転角を、ベクトルの向きによって回転軸方向を定義するような3値のベクトルによって表現されているものとする。さらに、位置x及び姿勢ωをまとめて、6次元ベクトルa=[x y z ξ ψ ζ]で表す。
センサ出力値より求めた物体装着6自由度位置姿勢センサ座標系におけるカメラの位置姿勢を表す4×4行列MA2Cは、6次元ベクトルaA2C=[xA2CA2CA2C ξA2C ψA2C ζA2Cに変換することができる。
この物体装着6自由度センサ座標系におけるカメラの位置姿勢を、データ管理部1040の要求に従って、データ管理部1040へ出力する。
指示部1050は、不図示のオペレータからデータ取得コマンドが入力されたとき時には「データ取得」の支持をデータ管理部1040に、較正情報算出コマンドが入力されたときには「較正情報算出」の支持を較正情報算出部1060に送信する。
データ管理部1040は、指示部1050から「データ取得」の指示を受けると、位置姿勢算出部1030から物体装着6自由度位置姿勢センサの座標系におけるカメラの位置姿勢を入力し、指標検出部1020から指標の画像座標とその識別子を入力し、[ある時刻における物体装着6自由度位置姿勢センサ座標系におけるカメラの位置姿勢−同時刻に検出された指標の画像座標−同時刻に検出された指標の識別子]の組を一つのデータリストに追加しこれを保持する。また、データ管理部1040は、較正情報算出部1060からの要求に従って、生成したデータリストを較正情報算出部1060に出力する。
較正情報算出部1060は、指示部1050から「較正情報算出」の指示を受け取ると、データ管理部1040からデータリストを入力し、これをもとに較正処理を行い、その結果として得られた較正情報(すなわち、物体座標系における指標座標の位置姿勢と,物体座標系における6自由度位置姿勢センサの位置姿勢)を出力する。
図4は、本実施形態の較正装置が較正情報を求める際に行う処理のフローチャートである。なお同フローチャートに従ったプログラムコードは、本実施形態の、不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUにより読み出され、実行される。
ステップS6010において、指示部1050は、データ取得コマンドがオペレータから入力されたか否かの判定を行う。オペレータは、指標較正用のデータ取得を行う位置に物体1000またはカメラ1010を配置した時に、データ取得コマンドを入力する。指示部1050は、データ取得コマンドが入力されている場合には、ステップS6020へと処理を移行させる。
ステップS6020において、データ管理部1040は、位置姿勢算出部1030から、センサ出力値より求めた物体装着6自由度位置姿勢センサ座標系におけるカメラの位置及び姿勢aA2C=[xA2CA2CA2C ξA2C ψA2C ζA2Cを入力する。
ステップS6030において、データ管理部1040は、指標検出部1020から、指標検出部1020によって検出された指標Pknを構成する点の画像座標群uPkniとその識別子kを入力する。指標検出部1020は、入力された画像に対して常に指標の検出処理を行っており、本ステップの処理により、同一時刻における物体装着6自由度位置姿勢センサ座標系におけるカメラの位置姿勢と、指標の画像座標及び識別子を得ることができる。なお、指標検出部1020から入力される情報は、必ずしも全ての指標に関するものである必要はなく、その時点で画像上において検出されている指標に関する情報であればよい。
次に、ステップS6040において、データ管理部1040は、検出された指標Pkn全てについて、入力したデータの組をデータリストDLにデータDとして追加する。具体的には、位置姿勢算出部1030から入力するaA2CをaA2Cj=[xA2CjA2CjA2Cj ξA2Cj ψA2Cj ζA2Cjとし、指標検出部1020から入力する識別子kをknjとし、同じく指標検出部1020から入力するuPkniをu Pknjiとして、D=[aA2Cj,u Pknji,knj]の組を、L番目のデータとしてデータリストDLに登録する。ここでj(j=1,,,N)は、撮影した画像に対するインデックスであり、L(L=1,,,N)は、データリストDLに登録したデータの組夫々に対するインデックスであり、Nは、撮影した画像の総数を表し、Nは、登録したデータの総組数を表している。
以上の処理によって、データの取得が行われる。
ステップS6050では、データ管理部1040によって、それまでに取得されたデータリストが、較正情報を算出するに足るだけの情報を有しているかどうかの判定が行われる。条件を満たしていない場合には、再びステップS6010へと戻り、データ取得コマンドの入力を待つ。一方、データリストが較正情報算出の条件を満たしている場合には、ステップS6060へと処理を移行させる。データリストが較正情報を算出するに足るだけの情報を有す条件としては、例えば、少なくとも異なる3つ以上の基準指標に関するデータが、データリストDLに含まれていること、が挙げられる。ただし、入力データの多様性が増すほどに導出される較正情報の精度は向上するので、より多くのデータを要求するように条件を設定してもよい。
次にステップS6060において、較正情報算出コマンドがオペレータから入力されたか否かの判定を行う。較正情報算出コマンドが入力されている場合には、ステップS6070へと処理を移行し、入力されていない場合には、再びステップS6010へと戻り、データ取得コマンドの入力を待つ。
較正情報算出部1060は、求めるべき較正情報、すなわち物体座標系における指標の位置姿勢と、物体座標系における6自由度位置姿勢センサの位置姿勢を未知パラメータとして夫々6値ベクトルとして扱う。以下では、物体座標系における指標の位置姿勢を状態ベクトルsmk=[xmkmkmk ξmk ψmk ζmk(k=1,,,K)、物体座標系における物体装着6自由度位置姿勢センサの位置姿勢をsOA2=[xOA2OA2OA2 ξOA2 ψOA2 ζOA2と記述する。ただしKは物体上の配置された較正対象となる指標の数である。
ステップS6070において、較正情報算出部1060は、夫々の状態ベクトルsmk、sOA2に適当な初期値を与える。夫々の初期値としては、オペレータが指示部1050を介しておおよその値を手入力しても良い。物体装着6自由度位置姿勢センサ座標系におけるカメラの位置姿勢を表す変換行列をMA2C、物体座標系における6自由度位置姿勢センサの位置姿勢を表す変換行列をMOA2、また、物体座標系における物体装着指標の位置姿勢を表す変換行列をMOMとすると、これらより指標座標系からカメラ座標系への変換行列MCMは式24のように表せる。
Figure 2006153848
ステップS6080において、較正情報算出部1060は、データリストDL中の各データD=[aA2Cj,u Pknji,k]、((j=1,2,,,,N)(L=1,2,,,,N)および状態ベクトルsmk、sOA2、から、全てのLに対して、指標Pknjの画像座標の計算値ulL Pknji'=[uxL Pknji',uyL Pknji']を求める。ここで指標の画像座標の計算値とは、物体座標系における位置及び姿勢がsmkである指標の指標座標系における位置ベクトルx Pknjが既知な点Pknjの、画像中に観察されるべき位置(座標)を指す。u Pknji'の算出は、物体座標系における指標座標系の位置を表す状態ベクトルs=[smkOA2]の関数
Figure 2006153848
に基づいて行われる。
具体的には、関数F()は、L番目のデータを取得した時の(すなわち、同データセット中のカメラ1010の位置姿勢がaA2Cjである時の)指標Pknjのカメラ座標における位置ベクトルxCL Pknjiを、smk,sOA2から求める次式、
Figure 2006153848
及び、xCL Pknjiから指標Pknjの画像上の座標u Pknji'を求める次式、
Figure 2006153848
によって構成されている。ここでf 及びf は、それぞれx軸方向及びy軸方向におけるカメラ1010の焦点距離であり、既知の値として予め保持されているものとする。また、MOM(smk)はsmkによって定まる変換行列(指標座標系から物体座標系に変換する行列)であり、MOA2(sOA2)はsOA2によって定まる変換行列である。
OM(smk)は次式によって定義される。
Figure 2006153848
ただし、(k=1,,,K)でKは物体上に配置された較正対象となる指標の数である。また、
Figure 2006153848
である。また、
Figure 2006153848
ただし、
Figure 2006153848
である。
ステップS6090において、較正情報算出部1060は、全てのLに対して、データリストDL中の各データに含まれる指標Pknjの実際の画像座標u Pknjiと、それに対応する画像座標の計算値u Pknji'との誤差Δu Pknjiを次式によって算出する。
Figure 2006153848
ステップS6100において、較正情報算出部1060は、全てのLに対して、状態ベクトルs=[sm1 m2 ...smk OA2 に関する画像ヤコビアン(すなわち、式35の関数F()を状態ベクトルsmk、sOA2の各要素で偏微分した解を各要素に持つ(2×N)行×(6×K+6)列のヤコビ行列)JuL Pknji (=∂u Pknji/∂s)を算出する。ここで、Nは検出したすべての指標の総数であり、Kは、較正対象となる指標の総数である。
ステップS6110において、較正情報算出部1060は、以上のステップで算出した、全てのLに対する誤差△u Pknji及びヤコビ行列JuL Pknji に基づいて、sの補正値△sを算出する。具体的には、全てのLに対する誤差△u Pkndjiを垂直に並べた2N次元ベクトルの誤差ベクトル
Figure 2006153848
及びヤコビ行列JuL Pknji を垂直に並べた(2N)行×(6×K+6)列の行列
Figure 2006153848
を作成し、Φの擬似逆行列Φを用いて、△sを次式より算出する。
△s=ΦU ・・・式(35)
ここで、△sは(6×K+6)次元ベクトルであるから、2Nが(6×K+6)以上であれば、△sを求めることができる。なおΦは、例えばΦ=(ΦΦ)−1Φによって求めることができるが、他の方法によって求めてもよい。
ステップS6120において、較正情報算出部1060は、ステップS6110において算出した補正値△sを用いて、式46に従ってsを補正し、得られた値を新たなsとする。ここで状態ベクトルs=[sm1 m2 ...smk OA2 は、物体座標系における指標の位置姿勢の状態ベクトルsmk、物体座標系における物体装着6自由度位置姿勢センサの位置姿勢の状態ベクトルsOA2である。
s+△s→s ・・・式(36)
ステップS6130において、較正情報算出部1060は、誤差ベクトルUが予め定めた閾値より小さいかどうか、あるいは、補正値Δsが予め定めた閾値より小さいかどうかといった何らかの判断基準を用いて、計算が収束しているか否かの判定を行う。収束していない場合には、補正後の状態ベクトルsを用いて、再度ステップS6080以降の処理を行う。
ステップS6130において計算が収束したと判定されると、ステップS6140において、較正情報算出部1060は、得られた状態ベクトルsのうち較正情報として、物体座標系における指標座標系の位置及び姿勢smk,物体座標系における6自由度位置姿勢センサの位置及び姿勢sOA2を出力する。この時の出力の形態は、smkやsOA2そのものであっても良いし、smkやsOA2の位置成分を3値のベクトルで表し、姿勢成分をオイラー角や3×3の回転行列で表したものであっても良いし、smkやsOA2から生成した座標変換行列MOM、MOA2であっても良い。
最後にステップS6150では、較正処理を終了するか否かの判定が行われる。オペレータが、指標較正装置1100に対して、較正処理の終了を指示した場合には、処理を終了させ、較正処理の継続(再較正)を指示した場合には、再びステップS6010へと戻り、データ取得コマンドの入力を待つ。
以上の処理によって、対象物体に対する(すなわち、対象物体座標系における)対象物体に装着した指標の位置または位置姿勢、及び対象物体に対する対象物体に装着した6自由度位置姿勢センサの位置または位置姿勢を取得することができる。
<変形例2−1>
なお、上記第2の実施形態では、較正情報として物体に装着した複数の指標の物体座標系における指標の位置姿勢と、物体に装着した6自由度位置姿勢センサの物体座標系における物体装着6自由度位置姿勢センサの位置姿勢であったが、それらに加えてカメラに装着した6自由度位置姿勢センサのカメラ座標系における位置姿勢を較正情報として求めてもよい。
第2の実施形態では、カメラに装着した6自由度位置姿勢センサのカメラ座標系における位置姿勢MCA1は、既知であるとしていたがここでは未知パラメータとする。また、カメラに装着された6自由度位置姿勢センサA1のセンサ計測値より得られる世界座標系におけるカメラ装着6自由度位置姿勢センサA1の位置姿勢MWA1と、物体に装着された6自由度位置姿勢センサA2のセンサ計測値より得られる世界座標系における物体装着6自由度位置姿勢センサA2の位置姿勢MWA2より、物体装着6自由度位置姿勢センサA2の座標系におけるカメラ装着6自由度位置姿勢センサA1の位置姿勢MA2A1を式37のように算出する。
Figure 2006153848
カメラ座標系におけるカメラ装着6自由度位置姿勢センサの位置姿勢MCA1、物体装着6自由度位置姿勢センサA2の座標系におけるカメラ装着6自由度位置姿勢センサA1の位置姿勢を表す変換行列をMA2A1、物体座標系における6自由度位置姿勢センサの位置姿勢を表す変換行列をMOA2、また、物体座標系における物体装着指標の位置姿勢を表す変換行列をMOMとすると、これらより指標座標系からカメラ座標系への変換行列MCMは式(38)のように表せる。
Figure 2006153848
求めるべき較正情報、すなわち物体座標系における指標の位置姿勢MOM、物体座標系における6自由度位置姿勢センサの位置姿勢MOA2、カメラ座標系におけるカメラ装着6自由度位置姿勢センサの位置姿勢MCA1、を第2の実施形態と同様に6値ベクトルとして扱う。ここでは、物体座標系における指標の位置姿勢を状態ベクトルsmk=[xmkmkmk ξmk ψmk ζmk、物体座標系における6自由度位置姿勢センサの位置姿勢を状態ベクトルsOA2=[xOA2OA2OA2 ξOA2 ψOA2 ζOA2、カメラ座標系におけるカメラ装着6自由度位置姿勢センサの位置姿勢を状態ベクトルsCA1=[xCA1CA1CA1 ξCA1 ψCA1 ζCA1、と記述する。ただしk=1,,,Kであり、Kは物体上の配置された較正対象となる指標の数である。
夫々の状態ベクトルsmk、sOA2、sCA1に適当な初期値を与える。初期値は、例えば手計測を行うなどしてあらかじめ求めておく。較正情報である未知パラメータをs=[smkOA2CA1]とし、例えば第2の実施形態と同様に画像ヤコビアンを用いた繰り返し計算によって、全入力データに対するsの最適値を求める。これにより物体座標系における指標の位置姿勢、物体座標系における6自由度位置姿勢センサの位置姿勢、カメラ座標系におけるカメラ装着6自由度位置姿勢センサの位置姿勢を得て、較正情報として出力することができる。
<変形例2−2>
第2の実施形態に係る指標較正装置は、対象物体に対する(すなわち、対象物体座標系における)指標の「位置姿勢」と、対象物体に装着した6自由度センサの位置姿勢の較正を行うためのものであり、物体上に配置された夫々の指標を構成する各点が、指標ごとに規定される指標座標系において位置が既知であった。しかし、指標の形状はこれに限るものではなく、一点から構成される点形状の指標(以下、点指標)であってもよい。この場合には、指標較正装置は、物体上に配置された点指標の物体に対する「位置」と、対象物体に対する6自由度センサの位置姿勢を較正情報として算出する。点指標は例えば、それぞれが異なる色を有する円形状のマーカであってもよいし、それぞれが異なるテクスチャ特徴を有する自然特徴等の特徴点であってもよい。
図6で示すように物体に配置された点指標をP(k=1,,,K)で表す。但し、Kは物体上に配置された較正対象となる点指標の数である。また、物体に装着した点指標Pは、撮影画像上における投影像の画面座標が検出可能であって、かついずれの点指標であるか識別可能であれば何れの形態であってもよい。なお、物体上には、物体座標系を規定するための基準指標として、物体座標系における位置が既知でかつ同一直線上にない指標が3点以上配置されている。対象物体上に配置された点指標をカメラで観測する際の幾何変換は、カメラ座標系における物体装着6自由度位置姿勢センサA2の位置姿勢を表す変換行列MCA2j、物体座標系における6自由度位置姿勢センサの位置姿勢を表す変換行列MOA2、また、物体座標系における物体装着点指標の位置を表す変換行列xOMkとすると、これらより式39のように表せる。
Figure 2006153848
ただし、xCL Pknjは点指標Pのカメラ座標を表す。またj(j=1,,,N)は、撮影した画像に対するインデックスであり、L(L=1,,,N)は、データリストDLに登録したデータの組夫々に対するインデックスであり、Nは、撮影した画像の総数を表し、Nは、登録したデータの総組数を表している。
第2の実施例と同様に、求めるべき較正情報、すなわち物体座標系における点指標の位置xOMkを状態ベクトルsOMk=[xOMk OMk OMk 、とし、物体座標系における6自由度位置姿勢センサの位置姿勢MOA2を状態ベクトルsOA2=[xOA2OA2OA2 ξOA2 ψOA2 ζOA2、と記述する。
夫々の状態ベクトルsOMk、sOA2に適当な初期値を与える。初期値は、例えば手計測を行うなどしてあらかじめ求めておく。較正情報である未知パラメータをs=[sOMk OA2 とし、例えば第2の実施形態と同様に画像ヤコビアンを用いた繰り返し計算によって、全入力データに対するsの最適値を求める。これにより物体座標系における点指標の位置、物体座標系における6自由度位置姿勢センサの位置姿勢を較正情報として出力することができる。
[他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記憶媒体に適用する場合、その記憶媒体には先に説明した図2に示すフローチャートに対応するプログラムコードが格納されることになる。
第1の実施形態に係る指標較正装置の概略構成を示す図である。 第1の実施形態に係る指標較正方法の概略処理を示すフローチャートである。 第2の実施形態に係る指標較正装置の概略構成を示す図である。 第2の実施形態に係る指標較正方法の概略処理を示すフローチャートである。 第2の実施形態に係る指標の概略構成を示す図である。 変形例2−2に係る指標の概略構成を示す図である。

Claims (13)

  1. 物体に装着した較正対象指標の該物体に対する配置情報と、該物体に装着したセンサの該物体に対する配置情報とを較正情報として求める情報処理方法であって、
    前記物体を撮影した画像を取得し、
    前記センサの計測値を入力し、
    前記画像から前記較正対象指標の画像座標に関する情報を検出し、
    前記計測値と前記較正対象指標の画像座標に関する情報とを用いて、前記較正情報を求めることを特徴とする情報処理方法。
  2. 前記センサは姿勢センサであり、
    前記センサの配置情報は、該物体に対する該姿勢センサの姿勢に関する情報であることを特徴とする請求項1に記載の情報処理方法。
  3. 前記センサは6自由度位置姿勢センサであり、
    前記センサの配置情報は、該物体に対する該6自由度位置姿勢センサの位置及び姿勢に関する情報であることを特徴とする請求項1に記載の情報処理方法。
  4. 前記物体は撮像部を有し、
    前記撮像部によって撮影された画像を取得し、
    前記画像から基準指標の画像座標に関する情報を検出し、
    前記較正情報を、前記計測値、前記較正対象指標の画像座標に関する情報および前記基準指標の画像座標に関する情報を用いて求めることを特徴とする請求項1乃至請求項3のいずれかに記載の情報処理方法。
  5. 前記較正対象指標は、該物体に対する位置によって配置情報が記述される指標と、該物体に対する位置及び姿勢によって配置情報が記述される指標のいずれかまたはそれらの組み合わせであることを特徴とする、請求項1乃至請求項4のいずれかに記載の情報処理方法。
  6. 前記較正情報を求める工程は、
    前記計測値と、較正情報の推定値とに基づいて、前記検出されている前記較正対象指標の前記画像内における画像座標に関する情報を推定する推定工程と、
    前記検出された前記較正対象指標の画像座標に関する情報と、前記推定工程が推定した該指標の画像座標に関する情報との間の誤差を軽減させるように、前記較正情報の推定値を補正する補正工程とを有することを特徴とする請求項1乃至請求項5のいずれかに記載の情報処理方法。
  7. 前記物体は撮像部を有し、
    前記物体が有する撮像部によって撮影された画像を入力し、
    前記前記物体が有する撮像部によって撮影された画像から、情景に配置された基準指標の画像座標に関する情報を検出するとともに、
    前記較正情報を求める工程は、
    前記較正情報算出手段は、前記計測値と、前記検出された較正対象指標の画像座標に関する情報と、前記基準指標の画像座標に関する情報とを用いて、前記較正情報を算出することを特徴とする請求項1乃至請求項6のいずれかに記載の情報処理方法。
  8. 撮像装置に装着した較正対象指標の撮像装置に対する位置と、該撮像装置に装着した姿勢センサの撮像装置に対する姿勢を較正情報として算出する情報処理方法であって、
    前記撮像装置を撮影した第一の画像を取得し、
    前記撮像装置によって撮影された第二の画像を取得し、
    前記姿勢センサによる計測値を入力し、
    前記較正対象指標の画像座標に関する情報を前記第一の画像から検出し、
    情景に配置された基準指標の画像座標に関する情報を前記第二の画像から検出し、
    前記計測値と、前記較正対象指標の画像座標に関する情報と、前記基準指標の画像座標に関する情報とを用いて、前記較正情報を算出することを特徴とする情報処理方法。
  9. 前記較正情報を算出する工程は、
    前記計測値と、前記較正対象指標の画像座標に関する情報と、較正情報の推定値とに基づいて、前記基準指標の前記第二の画像内における画像座標に関する情報を推定し、
    前記検出された基準指標の画像座標に関する情報と、前記推定された基準指標の画像座標に関する情報との間の誤差を軽減させるように、前記較正情報の推定値を補正することを特徴とする請求項8に記載の情報処理方法。
  10. 前記撮像装置の位置・姿勢に対する前記第1の画像を撮影する撮像部の位置・姿勢が算出可能であることを特徴とする請求項8または請求項9に記載の情報処理方法。
  11. 前記請求項1乃至請求項10のいずれかの情報処理方法をコンピュータにおいて実現するためのプログラム。
  12. 物体に装着した較正対象指標の該物体に対する配置情報と、該物体に装着したセンサの該物体に対する配置情報とを較正情報として算出する情報処理装置であって、
    前記物体を撮影する撮像手段と、
    前記センサによる計測値を入力する計測値入力手段と、
    前記撮像手段によって撮影された第一の画像を入力する第一の画像入力手段と、
    前記較正対象指標の画像座標に関する情報を前記第一の画像から検出する第一の検出手段と、
    前記計測値入力手段が入力した前記計測値と、前記第一の検出手段が検出した夫々の較正対象指標の画像座標に関する情報とを用いて、前記較正情報を算出する較正情報算出手段とを有することを特徴とする情報処理装置。
  13. 撮像装置に装着した較正対象指標の撮像装置に対する位置と、該撮像装置に装着した姿勢センサの撮像装置に対する姿勢を較正情報として算出する情報処理装置であって、
    前記撮像装置を撮影した第一の画像を取得する第1の取得手段と、
    前記撮像装置によって撮影された第二の画像を第2の取得手段と、
    前記姿勢センサによる計測値を入力する入力手段と、
    前記較正対象指標の画像座標に関する情報を前記第一の画像から検出する第一の検出手段と、
    情景に配置された基準指標の画像座標に関する情報を前記第二の画像から検出する第二の検出手段と、
    前記計測値と、前記較正対象指標の画像座標に関する情報と、前記基準指標の画像座標に関する情報とを用いて、前記較正情報を算出する較正情報算出手段とを有することを特徴とする情報処理装置。
JP2005217554A 2004-11-04 2005-07-27 情報処理方法および装置 Expired - Fee Related JP4914038B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005217554A JP4914038B2 (ja) 2004-11-04 2005-07-27 情報処理方法および装置
US11/265,981 US7580027B2 (en) 2004-11-04 2005-11-03 Method and apparatus for processing information

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004320638 2004-11-04
JP2004320638 2004-11-04
JP2005217554A JP4914038B2 (ja) 2004-11-04 2005-07-27 情報処理方法および装置

Publications (2)

Publication Number Publication Date
JP2006153848A true JP2006153848A (ja) 2006-06-15
JP4914038B2 JP4914038B2 (ja) 2012-04-11

Family

ID=36262989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005217554A Expired - Fee Related JP4914038B2 (ja) 2004-11-04 2005-07-27 情報処理方法および装置

Country Status (2)

Country Link
US (1) US7580027B2 (ja)
JP (1) JP4914038B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008261755A (ja) * 2007-04-12 2008-10-30 Canon Inc 情報処理装置、情報処理方法
JP2008275340A (ja) * 2007-04-25 2008-11-13 Canon Inc 情報処理装置、情報処理方法
JP2013101128A (ja) * 2012-12-21 2013-05-23 Canon Inc 情報処理装置、情報処理方法
EP2600308A2 (en) 2011-11-30 2013-06-05 Canon Kabushiki Kaisha Information processing apparatus, information processing method, program and computer-readable storage medium

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4914019B2 (ja) * 2005-04-06 2012-04-11 キヤノン株式会社 位置姿勢計測方法及び装置
JP4739004B2 (ja) * 2005-12-15 2011-08-03 キヤノン株式会社 情報処理装置及び情報処理方法
JP4916167B2 (ja) * 2005-12-15 2012-04-11 キヤノン株式会社 指標識別方法及び指標識別装置
JP4976756B2 (ja) * 2006-06-23 2012-07-18 キヤノン株式会社 情報処理方法および装置
US8565853B2 (en) 2006-08-11 2013-10-22 DePuy Synthes Products, LLC Simulated bone or tissue manipulation
JP5403861B2 (ja) * 2006-11-06 2014-01-29 キヤノン株式会社 情報処理装置、情報処理方法
NO327279B1 (no) * 2007-05-22 2009-06-02 Metaio Gmbh Kamerapositurestimeringsanordning og- fremgangsmate for foroket virkelighetsavbildning
US8696458B2 (en) * 2008-02-15 2014-04-15 Thales Visionix, Inc. Motion tracking system and method using camera and non-camera sensors
US8934008B2 (en) * 2009-12-07 2015-01-13 Cognitech, Inc. System and method for determining geo-location(s) in images
DE102011117923A1 (de) * 2011-11-09 2013-05-16 Diehl Bgt Defence Gmbh & Co. Kg Suchkopf für einen Lenkflugkörper
KR101901483B1 (ko) 2012-01-17 2018-09-21 아셀산 엘렉트로닉 사나이 베 티카렛 아노님 시르케티 추적 시스템 정확성 측정을 위한 시스템 및 방법
KR20160016966A (ko) 2013-05-31 2016-02-15 인씨피오 디바이시스 에스에이 비구 리머 조립체
ES2763912T3 (es) * 2013-08-20 2020-06-01 Curefab Tech Gmbh Seguimiento óptico
US20160178754A1 (en) 2014-12-18 2016-06-23 Javad Gnss, Inc. Portable gnss survey system
US9734594B2 (en) 2015-08-26 2017-08-15 Electronics Arts Inc. Producing three-dimensional representation based on images of an object
US10169891B2 (en) * 2015-08-26 2019-01-01 Electronic Arts Inc. Producing three-dimensional representation based on images of a person
EP3151031A1 (en) * 2015-10-02 2017-04-05 Metronor A/S Military electro-optical sensor tracking
US11017585B1 (en) * 2018-06-11 2021-05-25 Facebook, Inc. Systems and methods for capturing image data for recreation in a virtual environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001074428A (ja) * 1999-09-03 2001-03-23 Sanyo Electric Co Ltd 形状測定装置の校正方法及び校正治具
JP2001241928A (ja) * 2000-03-01 2001-09-07 Sanyo Electric Co Ltd 形状測定装置
JP2005326275A (ja) * 2004-05-14 2005-11-24 Canon Inc 情報処理方法および装置
JP2005351883A (ja) * 2004-05-14 2005-12-22 Canon Inc 指標較正装置および情報処理方法
JP2005353036A (ja) * 2004-05-14 2005-12-22 Canon Inc 情報処理装置および情報処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0846836A (ja) * 1994-07-29 1996-02-16 Canon Inc 視線検出方法及び装置並びに撮像装置
JP2001022520A (ja) * 1999-07-07 2001-01-26 Canon Inc 座標入力装置
US6697761B2 (en) * 2000-09-19 2004-02-24 Olympus Optical Co., Ltd. Three-dimensional position/orientation sensing apparatus, information presenting system, and model error detecting system
SE516565C2 (sv) * 2000-09-20 2002-01-29 Jan G Faeger Metod och anordning för att producera information om en omgivning och användning av anordningen

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001074428A (ja) * 1999-09-03 2001-03-23 Sanyo Electric Co Ltd 形状測定装置の校正方法及び校正治具
JP2001241928A (ja) * 2000-03-01 2001-09-07 Sanyo Electric Co Ltd 形状測定装置
JP2005326275A (ja) * 2004-05-14 2005-11-24 Canon Inc 情報処理方法および装置
JP2005351883A (ja) * 2004-05-14 2005-12-22 Canon Inc 指標較正装置および情報処理方法
JP2005353036A (ja) * 2004-05-14 2005-12-22 Canon Inc 情報処理装置および情報処理方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008261755A (ja) * 2007-04-12 2008-10-30 Canon Inc 情報処理装置、情報処理方法
JP2008275340A (ja) * 2007-04-25 2008-11-13 Canon Inc 情報処理装置、情報処理方法
EP2600308A2 (en) 2011-11-30 2013-06-05 Canon Kabushiki Kaisha Information processing apparatus, information processing method, program and computer-readable storage medium
JP2013113805A (ja) * 2011-11-30 2013-06-10 Canon Inc 情報処理装置、情報処理装置の制御方法、およびプログラム
US9584768B2 (en) 2011-11-30 2017-02-28 Canon Kabushiki Kaisha Information processing apparatus, information processing method and computer-readable storage medium
JP2013101128A (ja) * 2012-12-21 2013-05-23 Canon Inc 情報処理装置、情報処理方法

Also Published As

Publication number Publication date
US7580027B2 (en) 2009-08-25
US20060094955A1 (en) 2006-05-04
JP4914038B2 (ja) 2012-04-11

Similar Documents

Publication Publication Date Title
JP4914038B2 (ja) 情報処理方法および装置
JP4914039B2 (ja) 情報処理方法および装置
EP1596333B1 (en) Calibration for mixed reality
JP4136859B2 (ja) 位置姿勢計測方法
JP5230114B2 (ja) 情報処理装置、情報処理方法
JP4593968B2 (ja) 位置姿勢計測方法および装置
JP4785416B2 (ja) 位置姿勢計測方法及び装置
JP4886560B2 (ja) 情報処理装置、情報処理方法
JP5036260B2 (ja) 位置姿勢算出方法及び装置
JP4859205B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP4956456B2 (ja) 画像処理装置、画像処理方法
KR100934564B1 (ko) 정보 처리 장치 및 정보 처리 방법
JP2008506953A5 (ja)
JP2005326275A (ja) 情報処理方法および装置
JP2008309631A (ja) 情報処理方法及び情報処理装置
WO2019146201A1 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP4533193B2 (ja) 情報処理装置および情報処理方法
KR101896827B1 (ko) 사용자 자세 추정 장치 및 방법
JP4566786B2 (ja) 位置姿勢計測方法および情報処理装置
JP4533090B2 (ja) 指標較正装置および情報処理方法
JP4227037B2 (ja) 撮像システム及び校正方法
JP2008292407A (ja) 情報処理方法及び情報処理装置
JP4612804B2 (ja) 位置姿勢計測方法および情報処理装置
JP2009168626A (ja) 位置姿勢計測装置、位置姿勢計測方法
JP5620972B2 (ja) 情報処理装置、情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080728

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120120

R151 Written notification of patent or utility model registration

Ref document number: 4914038

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees