JP4785416B2 - 位置姿勢計測方法及び装置 - Google Patents

位置姿勢計測方法及び装置 Download PDF

Info

Publication number
JP4785416B2
JP4785416B2 JP2005138468A JP2005138468A JP4785416B2 JP 4785416 B2 JP4785416 B2 JP 4785416B2 JP 2005138468 A JP2005138468 A JP 2005138468A JP 2005138468 A JP2005138468 A JP 2005138468A JP 4785416 B2 JP4785416 B2 JP 4785416B2
Authority
JP
Japan
Prior art keywords
orientation
index
measurement target
imaging device
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005138468A
Other languages
English (en)
Other versions
JP2006317223A (ja
Inventor
清秀 佐藤
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005138468A priority Critical patent/JP4785416B2/ja
Priority to US11/418,168 priority patent/US7630555B2/en
Publication of JP2006317223A publication Critical patent/JP2006317223A/ja
Application granted granted Critical
Publication of JP4785416B2 publication Critical patent/JP4785416B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、物体の位置及び姿勢を計測するものに関する。
近年、現実空間と仮想空間の繋ぎ目のない結合を目的とした、複合現実感に関する研究が盛んに行われている。複合現実感の提示を行う画像表示装置は、ビデオカメラなどによって撮影された現実空間の画像に、カメラの位置及び姿勢に応じて生成した仮想空間の画像(たとえばコンピュータ・グラフィックスにより描画された仮想物体や文字情報など)を重畳描画した画像を表示する装置として実現することができる。
このような画像表示装置を実現するには、現実空間中に定義した基準座標系(重畳しようとする仮想物体の位置及び姿勢を決定する基準となる現実空間中の座標系)と、カメラの座標系(カメラ座標系)との間の、相対的な位置及び姿勢を計測することが不可欠である。これは、仮想物体(仮想空間画像)を現実空間上の位置に合わせて描画するには、基準座標系に対するカメラの現実のカメラパラメータと同一のカメラパラメータを用いて仮想物体の画像を生成しなければならないからである。例えば、室内やテーブル上といった現実環境の所定位置に仮想物体を重畳表示する場合には、その環境の適切な場所(例えば部屋の床面やテーブル面)に基準座標系を定義し、基準座標系におけるカメラの位置及び姿勢を求めればよい。
一方、移動可能な現実物体上に何らかの情報を重畳表示する(例えば、観察者が手に把持する現実の箱に仮想の模様やラベルを重畳表示する)アプリケーションを実現するためには、被重畳対象物体である箱自身の物体座標系を基準座標系と考え、箱(基準座標系)に対するカメラの位置及び姿勢を求めればよい。
このような計測を実現するための方法として、被重畳対象物体である箱の表面に複数の指標(人為的なマーカや自然特徴など)を配置あるいは設定し、計測対象であるカメラによる撮像画像内における当該指標の投影像の座標を検出し、それらの物体座標系における位置との対応関係に基づいて、カメラに対する被重畳対象物体の位置及び姿勢を求めることが一般的に行われている(第一のアプローチ)。
あるいは、環境側に基準座標系を定義して、カメラと、被重畳対象物体である箱のそれぞれの、基準座標系における位置及び姿勢を求めてもよい。共通の座標系における位置及び姿勢が求まれば、それらの間の相対的な位置及び姿勢の関係は容易に得ることができる(第二のアプローチ)。例えば、計測対象であるカメラと被重畳対象物体である箱のそれぞれを撮影する客観視点カメラを環境側に別途設置し、客観視点カメラによる撮像画像から、カメラ及び箱のぞれぞれの上に配置あるいは設定した複数の指標の投影像座標を検出する。そして、カメラ上の指標の投影像とそれらのカメラ座標系における位置との対応関係に基づいて、環境に設定した基準座標系におけるカメラの位置及び姿勢を算出し、さらに、物体上の指標の投影像とそれらの物体座標系における位置との対応関係に基づいて、基準座標系における箱の位置及び姿勢を算出することで、カメラに対する被重畳対象物体の位置及び姿勢を計測することがなされている。
また、第二のアプローチは、基準座標系における計測対象物体の位置及び姿勢を計測するような従来手法を夫々の計測対象物体の位置姿勢計測に適用することによっても実現できる。例えば、環境中の既知の位置に複数の指標を配置し、計測対象カメラによる撮像画像から検出した当該指標の画像座標を用いることで、基準座標系における計測対象カメラの位置及び姿勢を求めることができるし、同様に、計測対象物体である被重畳物体に装着した主観視点カメラによって同指標を撮像/検出することで、基準座標系における物体の位置及び姿勢を得ることができる。また、計測対象物体であるカメラ(あるいは計測対象物体に装着した主観視点カメラ)によって観測した環境中の指標の情報と、環境に設置した客観視点カメラによって観測した計測対象物体上の指標の情報を併用して、基準座標系における計測対象物体の位置及び姿勢を求める方法も利用可能である(非特許文献3,非特許文献4参照)。
J.Park,B.Jiang,and U.Neumann:"Vision−based pose computation:robust and accurate augmented reality tracking,"Proc.2nd International Workshop on Augmented Reality(IWAR’99),pp.3−12,1999. D.G.Lowe:"Fitting parameterized three−dimensional models to images,"IEEE Transactions on PAMI,vol.13,no.5,pp.441−450,1991. K.Satoh,S.Uchiyama,H.Yamamoto,and H.Tamura:"Robust vision−based registration utilizing bird’s−eye view with user’s view,"Proc.2nd International Symposium on Mixed and Augmented Reality(ISMAR’03),pp.46−55,2003. E.Foxlin,Y.Altshuler,L.Naimark and M.Harrington:"FlightTracker:A novel optical/inertial tracker for cockpit enhanced vision,"Proc.3rd International Symposium on Mixed and Augmented Reality(ISMAR’04),pp.212−221,2004.
しかし、第一のアプローチを用いる場合、被重畳対象物体である箱上の指標が、計測対象であるカメラから常に十分に観測されていなくてはならないという制約がある。したがって、箱の表面の大部分が観察者の手で隠蔽されているような状況において、情報の重畳を行うことができない。また、第一のアプローチでは、基準座標系における夫々の計測対象物体の位置及び姿勢を得ることができないので、基準座標系に定位した仮想情報を同時に表示するような用途には用いることができない。
また、第二のアプローチを用いる場合、計測対象であるカメラが撮像した被重畳対象物体の情報が計測に利用されないので、カメラと被重畳対象物体である箱のそれぞれの位置姿勢計測誤差の影響が、重畳される仮想物体の位置のずれとして画像上に直接的に現れてしまう。
本発明はこのような従来技術の課題を鑑みてなされたものであり、位置姿勢計測を安定性と精度とを両立しながら行うことが可能にすることを目的とする。
上記目的を達成するために本発明は以下の構成を有することを特徴とする。
本願請求項1記載の発明は、第一の撮像装置の位置及び姿勢と、該第一の撮像装置による被観測物体の位置及び姿勢とを計測する位置姿勢計測方法であって、前記第一の撮像装置が撮像した第一の撮像画像から、前記被観測物体上の指標を検出する第一の指標検出工程と、環境中に設置された第二の撮像装置が撮像した第二の撮像画像から、前記被観測物体上の指標を検出する第二の指標検出工程と、前記第二の撮像画像から前記第一の撮像装置上の指標を検出する第三の指標検出工程と、前記第一、第二、及び第三の指標検出工程において検出された指標の画像座標に関する情報を用いて、前記第一の撮像装置の位置及び姿勢と前記被観測物体の位置及び姿勢とを算出する位置姿勢算出工程とを有することを特徴とする。
本願請求項2記載の発明は、第一の撮像装置の位置及び姿勢と、該第一の撮像装置による被観測物体の位置及び姿勢とを計測する位置姿勢計測方法であって、前記第一の撮像装置が撮像した第一の撮像画像から、前記被観測物体上の指標を検出する第一の指標検出工程と、前記被観測物体に装着された第二の撮像装置が撮像した第二の撮像画像から、環境中の指標を検出する第二の指標検出工程と、前記第一の撮像画像または前記第一の撮像装置に装着された第三の撮像装置が撮像した第三の撮像画像から、環境中の指標を検出する第三の指標検出工程と、前記第一、第二、及び第三の指標検出工程において検出された指標の画像座標に関する情報を用いて、前記第一の撮像装置の位置及び姿勢と前記被観測物体の位置及び姿勢とを算出する位置姿勢算出工程とを有することを特徴とする。
本願請求項3記載の発明は、複数の計測対象物体の夫々の位置及び姿勢あるいは当該計測対象物体間の相対的な位置及び姿勢の関係を計測する位置姿勢計測方法であって、前記計測対象物体のいずれか一つ以上に装着された第一の撮像装置によって、他の計測対象物体上の指標を観測し検出する第一の指標検出工程と、環境中に設置された第二の撮像装置によって、前記夫々の計測対象物体上の指標を観測し検出する第二の指標検出工程と、前記第一及び第二の指標検出工程において検出された指標の画像座標に関する情報を用いて、前記計測対象物体の夫々の位置及び姿勢あるいは前記計測対象物体間の相対的な位置及び姿勢の関係を算出する位置姿勢算出工程とを有することを特徴とする。
本願請求項4記載の発明は、複数の計測対象物体の夫々の位置及び姿勢あるいは当該計測対象物体間の相対的な位置及び姿勢の関係を計測する位置姿勢計測方法であって、前記計測対象物体のいずれか一つ以上に装着された第一の撮像装置によって、他の計測対象物体上の指標を観測し検出する第一の指標検出工程と、前記計測対象物体の夫々に装着した第二の撮像装置によって、環境中の指標を観測し検出する第二の指標検出工程と、前記第一及び第二の指標検出工程において検出された指標の画像座標に関する情報を用いて、前記計測対象物体の夫々の位置及び姿勢あるいは前記計測対象物体間の相対的な位置及び姿勢の関係を算出する位置姿勢算出工程とを有することを特徴とする。
本発明によれば、カメラと被重畳対象物体との配置の関係を直接計測する画像情報と、環境に対するカメラ及び被重畳対象物体との配置の関係を計測する画像情報の双方に矛盾の無い位置姿勢計測を行うことができ、従来の方法と比べて安定性と精度に優れた計測を実現することができる。
以下添付図面を参照して、好適な実施形態の1例を説明する。
[第1の実施形態]
本実施形態に係る位置姿勢計測装置は、撮像装置と計測対象物体の位置及び姿勢の計測を行う。以下、本実施形態に係る位置姿勢計測装置及び位置姿勢計測方法について説明する。
図1は、本実施形態における位置姿勢計測装置の構成を示している。同図に示したように、本実施形態における位置姿勢計測装置100は、画像入力部110(主観視点画像入力部110a及び客観視点画像入力部110b)、指標検出部120(主観視点指標検出部120a及び客観視点指標検出部120b)、位置姿勢算出部130、及び客観視点カメラ140(140a,140b,140c)によって構成される。そして、撮像装置150に接続されている。撮像装置150と計測対象物体160の位置及び姿勢が、本実施形態に係る位置姿勢計測装置100によって計測される。
計測対象物体160上の複数の位置には、物体座標系(計測対象物体160上に定義される座標系。以下では記号Oによってこの座標系を表す)における位置が既知である複数個の指標Q(k=1,2,・・・,K)が配置されている。図1の例は、K=6、すなわち6個の指標Q〜Qが配置されている状況を示している。指標Qは、例えば、それぞれが異なる色を有する同一形状(図では円形)のマーカによって構成してもよいし、それぞれが異なるテクスチャ特徴を有する自然特徴等の特徴点によって構成してもよい。また、ある程度の面積を有する四角形の単色領域によって形成されるような、四角形指標を用いることも可能である。撮影画像上における投影像の画像座標が検出可能であって、かついずれの指標であるかが何らかの方法で識別可能であるような指標であれば、何れの形態であってもよい。また指標は故意に設定されたものであっても良いし、故意に設定されたものではない、自然形状のものを用いても良い。
撮像装置150は例えばビデオカメラである。計測対象物体160と同様に、撮像装置150上の複数の位置には、主観視点カメラ座標系(撮像装置の視点位置を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系。以下では記号Cによってこの座標系を表現する)における位置が既知である複数個の指標QKO+k(k=1,・・・,K)が配置されている。図1の例は、K=2、すなわち2個の指標Q,Qが配置されている状況を示している。撮像装置150が撮像する画像(以下、これを主観視点画像と呼ぶ)は、位置姿勢計測装置100に入力される。
客観視点カメラ140(140a,140b,140c)は例えば1台以上のビデオカメラであり、計測対象範囲内に撮像装置150及び計測対象物体160が位置するときに、そのいずれかによって撮像装置150及び計測対象物体160が撮像されるような位置に固定して配置されている。客観視点カメラ140が出力する画像(以下、これを客観視点画像と呼ぶ)は、客観視点画像入力部110bに入力される。ここで、基準座標系(以下では記号Wによってこの座標系を表現する)における客観視点カメラ140の位置及び姿勢は、既知の値として予め保持されているものとする。以下では、客観視点カメラ140の夫々によって定義される客観視点カメラ座標系を、それぞれ記号B,B,Bで表現する。
画像入力部110は、主観視点画像入力部110aと客観視点画像入力部110bからなる。主観視点画像入力部110aは、位置姿勢計測装置100へ入力される主観視点画像をデジタルデータに変換し、指標検出部120aへと出力する。同様に、客観視点画像入力部110bは、客観視点カメラ140から入力される客観視点画像をデジタルデータに変換し、指標検出部120bへと出力する。
指標検出部120(120a,120b)は、画像入力部110(110a,110b)より撮影画像を入力し、入力した画像中に撮影されている指標(指標Q)の画像座標を検出する。例えば、指標の各々が異なる色を有するマーカによって構成されている場合には、撮影画像上から各々のマーカ色に対応する領域を検出し、その重心位置を指標の検出座標とする。また、指標の各々が異なるテクスチャ特徴を有する特徴点によって構成されている場合には、既知の情報として予め保持している各々の指標のテンプレート画像によるテンプレートマッチングを撮影画像上に施すことにより、指標の位置を検出する。また、四角形指標を用いる場合は、画像に2値化処理を施した後にラベリングを行い、4つの直線によって形成されている領域を指標候補として検出する。さらに、候補領域の中に特定のパターンがあるか否かを判定することによって誤検出を排除し、また、指標の識別子を取得する。なお、このようにして検出される四角形指標は、本明細書では、4つの頂点の個々によって形成される4つの指標であると考える。
指標検出部120は、さらに、検出された各々の指標の画像座標とその識別子を、位置姿勢算出部130へと出力する。
なお、以下では、検出された指標の夫々に通し番号n(n=1,,,N)をつけ、画像上で検出された夫々の指標をQknと表記する。ここで、Nは各画像上で検出された指標の総数であり、N=ΣN、Nは夫々のカメラの撮影画像上で検出された指標の数、dはカメラの識別子(d=B,B,B,C)を表している。また、指標Qknの画像座標をu、その指標を撮影したカメラの識別子をdと表記し、識別子dのカメラで検出された指標Qの画像座標をu Qkと表記する(すなわち、u=udn Qkn)。
例えば、図1の例で、客観視点カメラ140aが指標Q,Q,Qを、客観視点カメラ140cが指標Q,Qを、撮像装置150が指標Q,Q,Q,Qをそれぞれ観測し、それぞれの撮影画像から各指標が検出されているものとする。この場合、N=9,NB1=3,NB2=0,NB3=2,N=4であり、指標の識別子(k=4,k=5,k=6,k=7,k=8,k=2,k=3,k=5,k=6)と、これらを撮影したカメラの識別子(d=B,d=B,d=B,d=B,d=B,d=C,d=C,d=C,d=C)と、検出された画像座標(uB1 Q4,uB1 Q5,uB1 Q6,uB3 Q7,uB3 Q8,u Q2,u Q3,u Q5,u Q6)が出力される。
位置姿勢算出部130は、指標検出部120から各々の指標の画像座標を入力し、撮像装置150及び計測対象物体160の位置及び姿勢を算出して出力する。
なお、図1に示した画像入力部110、指標検出部120、及び位置姿勢算出部130の少なくとも一部は、独立した装置として実現しても良いし、夫々を1つもしくは複数のコンピュータにインストールし、コンピュータのCPUにより実行することで、その機能を実現するソフトウェアとして実現しても良い。本実施形態では、各部(画像入力部110、指標検出部120、及び位置姿勢算出部130)は、それぞれソフトウェアにより実現され、同一のコンピュータにインストールされているものとする。
図2は、画像入力部110、指標検出部120、及び位置姿勢算出部130の夫々の機能を、ソフトウェアを実行することで実現するためのコンピュータの基本構成を示す図である。
CPU1001は、RAM1002やROM1003に格納されたプログラムやデータを用いてコンピュータ全体の制御を行うと共に、画像入力部110、指標検出部120、及び位置姿勢算出部130の夫々のソフトウェアの実行を制御して、各部の機能を実現する。
RAM1002は、外部記憶装置1007や記憶媒体ドライブ1008からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU1001が各種の処理を行うために必要とするワークエリアを備える。
ROM1003は、一般にコンピュータのプログラムや設定データなどが格納されている。キーボード1004、マウス1005は入力デバイスであり、操作者はこれらを用いて、各種の指示をCPU1001に入力することができる。
表示部1006は、CRTや液晶ディスプレイなどにより構成されており、例えば、位置姿勢計測のために表示すべきメッセージ等を表示することができる。
外部記憶装置1007は、ハードディスクドライブなどの大容量情報記憶装置として機能する装置であって、ここにOS(オペレーティングシステム)やCPU1001が実行するプログラム等を保存する。また本実施形態の説明において、既知であると説明する情報はここに保存されており、必要に応じてRAM1002にロードされる。
記憶媒体ドライブ1008は、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているプログラムやデータをCPU1001からの指示に従って読み出して、RAM1002や外部記憶装置1007に出力する。
I/F1009は、撮像装置150を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポート、RS−232CやUSB等のシリアルポート、また、算出した位置及び姿勢を外部へ出力するためのイーサネット(登録商標)ポート等によって構成される。夫々が入力したデータはI/F1009を介してRAM1002に取り込まれる。画像入力部110の機能の一部は、I/F1009によって実現される。
上述した各構成要素は、バス1010によって相互に接続される。
図3は、位置姿勢算出部130の処理手順を示すフローチャートであり、本実施形態ではCPU1001が位置姿勢算出部130の機能を実現するプログラムを実行することにより実現される。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、例えば外部記憶装置1007からRAM1002に既にロードされているものとする。
以下では、基準座標系における計測対象物体160の位置を3値のベクトルtWO=[xWOWOWO、姿勢を3値のベクトルωWO=[ξWO ψWO ζWO、位置と姿勢を6値のベクトルsWO=[tWO ωWO 、撮像装置150の位置を3値のベクトルtWC=[xWCWCWC、姿勢を3値のベクトルωWC=[ξWC ψWC ζWC、位置と姿勢を6値のベクトルsWC=[tWC ωWC と表すことにする。以下の処理では、これらのパラメータを1次元に並べた12値の状態ベクトルs=[sWO WC =[xWOWOWO ξWO ψWO ζWOWCWCWC ξWC ψWC ζWCを、導出すべき未知パラメータとする。
姿勢を3値によって表現する方法には様々なものが存在するが、ここでは、ベクトルの大きさによって回転角を、ベクトルの向きによって回転軸方向を定義するような3値のベクトルによって表現されているものとする。なお、姿勢ωは、次式、
Figure 0004785416
によって、3×3の回転行列Rによっても表現可能であり、ωとRとは、互いに一意に変換することができる。Rからωへの変換方法は公知であるので、その詳細な説明は省略する。
ステップS3000において、位置姿勢算出部130は、検出された各々の指標Qkn(n=1,,,N)について、画像座標u(=udn Qkn)と、指標識別子k及びカメラ識別子dを指標抽出部120から入力する。なお、各指標の物体座標系における3次元座標x Qknあるいは主観視点カメラ座標系における3次元座標x Qknは、既知の値としてRAM1002に予めロードされているものとする。
ステップS3010において、位置姿勢算出部130は、状態ベクトルsに適当な初期値(位置及び姿勢の推定値)を設定する。例えば、前フレーム(時刻tk−1)の処理において導出されたsを初期値としてもよいし、過去からのsの導出値の変化に基づいた予測によって得た値を設定してもよい。
ステップS3020において、位置姿勢算出部130は、各々の指標Qknに対して、その画像座標の推定値u を算出する。u の算出は、sによって定義される指標の観測方程式に基づいて行われる。指標の観測方程式は、観測するカメラの種類(撮像装置150または客観視点カメラ140)と、観測される指標が属する物体(計測対象物体160または撮像装置150)の組み合わせ応じて、以下のように定義される。
(1)計測対象物体160上の指標を、撮像装置150で観測している場合:
観測方程式を、
Figure 0004785416
とおくと、この式は、指標の物体座標x Qknとsから、当該指標の主観視点カメラ座標x Qknを求める次式、
Figure 0004785416
及び、主観視点カメラ座標x Qknから主観視点画像座標u Qkn*を求める透視投影変換を表す次式、
Figure 0004785416
によって構成される。ここでf 及びf は、それぞれx軸方向及びy軸方向における撮像装置150の焦点距離であり、既知の値としてRAM1002に予めロードされているものとする。
(2)計測対象物体160上の指標を、客観視点カメラ140で観測している場合:
観測方程式を、
Figure 0004785416
とおくと、この式は、指標の物体座標x Qknとsから、当該指標の客観視点カメラ座標x Qknを求める次式、
Figure 0004785416
及び、客観視点カメラ座標x Qknから客観視点画像座標u Qkn*を求める透視投影変換を表す次式、
Figure 0004785416
によって構成される。ここでRWBは基準座標系における客観視点カメラ140の姿勢を表す3×3の回転行列、tWBは基準座標系における客観視点カメラ140の位置を表す3値のベクトル、f 及びf は、それぞれx軸方向及びy軸方向における客観視点カメラ140の焦点距離であり、既知の値としてRAM1002に予めロードされているものとする。なお、ここでは夫々の客観視点カメラ140を代表して記号Bを用いているが、実際には、何れの客観視点カメラによる観測かに応じて、焦点距離や位置や姿勢には、異なったパラメータが使用される。
(3)撮像装置150上の指標を、客観視点カメラ140で観測している場合:
観測方程式を
Figure 0004785416
とおくと、この式は、指標の主観視点カメラ座標x Qknとsから、当該指標の客観視点カメラ座標x Qknを求める次式、
Figure 0004785416
及び、透視投影変換を行う式7によって構成される。
ステップS3030において、位置姿勢算出部130は、各々の指標Qknに対して、画像座標の推定値u と実測値uとの誤差△uを、次式によって算出する。
△u=u−u ・・・式(10)
ステップS3040において、位置姿勢算出部130は、各々の指標Qknに対して、sに関する画像ヤコビアン(すなわち、式2,式5,または式8の観測方程式をsの各要素で偏微分した解を各要素に持つ2行×12列のヤコビ行列)Jus Qkn(=∂u/∂s)を算出する。
具体的には、撮像装置150による計測対象物体160上の指標の観測(ステップS3030の(1))に対しては、式4の右辺を主観視点カメラ座標の各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列Jux Qkn(=∂u/∂x)と、式3の右辺をベクトルsの各要素で偏微分した解を各要素に持つ3行×12列のヤコビ行列Jxs Qkn(=∂x/∂s)を算出し、次式によってJus Qknを算出する。
Figure 0004785416
同様に、客観視点カメラ140による計測対象物体160上の指標の観測(ステップS3030の(2))に対しては、式7の右辺を客観視点カメラ座標の各要素で偏微分したヤコビ行列と、式6の右辺をベクトルsの各要素で偏微分したヤコビ行列を算出し、式11と同様にこれらの積によってJus Qknを算出する。なお、式6には撮像装置150の位置と姿勢に関するパラメータが含まれないことから、この観測で得られる画像ヤコビアンJus QknのうちのsWCに関する要素は、全て0となる。
同様に、客観視点カメラ140による撮像装置150上の指標の観測(ステップS3030の(3))に対しては、式7の右辺を客観視点カメラ座標の各要素で偏微分したヤコビ行列と、式9の右辺をベクトルsの各要素で偏微分したヤコビ行列を算出し、式11と同様にこれらの積によってJus Qknを算出する。なお、式9には計測対象物体160の位置と姿勢に関するパラメータが含まれないことから、この観測で得られる画像ヤコビアンJus QknのうちのsWOに関する要素は、全て0となる。
ステップS3050において、位置姿勢算出部130は、ステップS3030及びステップS3040において算出した誤差及び画像ヤコビアンに基づいて、sの補正値△sを算出する。具体的には、誤差△uを垂直に並べた2N次元の誤差ベクトル
Figure 0004785416
及び、画像ヤコビアンJus Qknを垂直に並べた2N行×12列の行列
Figure 0004785416
を作成し、Θの擬似逆行列Θを用いて、
Figure 0004785416
として算出する。
ステップS3060において、位置姿勢算出部130は、ステップS3050において算出した補正値△sを用いて式15に従ってsを補正し、得られた値をsの新たな推定値とする。
s+△s→s ・・・式(15)
ステップS3070において、位置姿勢算出部130は、誤差ベクトルUが予め定めた閾値より小さいかどうか、あるいは、補正値△sが予め定めた閾値より小さいかどうかといった何らかの判定基準を用いて、計算が収束しているか否かの判定を行う。収束してない場合には、補正後のsを用いて、再度ステップS3020以降の処理を行う。一方、収束していると判断した場合には、ステップS3080へと処理を進める。
ステップS3080において、位置姿勢算出部130は、ステップ3070までの処理によって得られたsを、撮像装置150と計測対象物体160の位置及び姿勢の推定値として、I/F1009を介して外部へと出力する。あるいは、これらのデータを、他のアプリケーションから利用可能な状態としてRAM1002上に格納する。
なお、位置及び姿勢を出力する際のデータの表現方法は、各物体(撮像装置150と計測対象物体160)の位置及び姿勢をそれぞれ6値のパラメータで表したものであってもよいし、他の表現形態をとってもよい。例えば、各物体の姿勢に関して式1によって姿勢の3値ベクトルから3×3の回転行列を求め、位置の3値ベクトルと姿勢の3×3行列を出力してもよいし、オイラー角や4元数による表現に姿勢を変換して出力してもよいし、同時座標表現による4×4の位置姿勢変換行列やその逆行列を出力してもよい。また、撮像装置150に対する計測対象物体160の位置及び姿勢を求めてこれを出力してもよいし、反対に、計測対象物体160に対する撮像装置150の位置及び姿勢を求めてこれを出力してもよい。もちろん、これらのいずれかの組み合わせを同時に出力してもよい。
ステップS3090において、位置姿勢算出部130は、処理を終了するか否かの判定を行い、終了しない場合には再びステップS3000へと進み、次フレーム以降の入力データに対して同様の処理を実行する。
以上のようにして、撮像装置150と客観視点カメラ140から得られる情報を同時に利用して、計測対象物体160と撮像装置150の位置及び姿勢を同時に推定することができる。
本実施形態に係る位置姿勢計測装置によれば、撮像装置150の撮影画像から得られる撮像装置150と計測対象物体160との間の相対的位置姿勢に関する情報と、客観視点カメラ140の撮影画像から得られる夫々の計測対象物体の絶対的位置姿勢に関する情報の、双方に矛盾の無い解を得ることができる。したがって、絶対精度の信頼性を保ちつつ重畳画像の位置ずれを最小限に抑えるような、複合現実感の提示に好適な位置姿勢計測が実現できる。
[第2の実施形態]
本実施形態に係る位置姿勢計測装置は、二つの計測対象物体の位置及び姿勢の計測を行う。例えば、現実空間の像を透過させつつ情報を重畳表示することが可能な光学シースルーHMDを用いて、手持ちの物体の上に何らかの情報を重畳表示するアプリケーションを実現する場合に、当該HMDと手持ち物体の双方の位置及び姿勢を計測する目的に、本実施形態に係る位置姿勢計測装置を用いることができる。本実施形態に係る位置姿勢計測装置は、主観視点画像を撮影する複数の主観視点カメラと、物体の姿勢を計測する複数の姿勢センサを有している点が、第1の実施形態とは異なっている。以下では、第1の実施形態との相違点に焦点を絞って、本実施形態に係る位置姿勢計測装置及び位置姿勢計測方法について説明する。
図4は、本実施形態における位置姿勢計測装置の構成を示している。同図に示したように、本実施形態における位置姿勢計測装置400は、画像入力部110、指標検出部120、位置姿勢算出部430、客観視点カメラ140、主観視点カメラ450(450a,450b)、姿勢センサ470(470a,470b)、及びセンサ計測値入力部480によって構成されている。二つの計測対象物体160(160a,160b)の位置及び姿勢が、本実施形態に係る位置姿勢計測装置400によって計測される。例えば、計測対象物体160bとして光学シースルーHMDを、計測対象物体160aとして情報を重畳表示する対象である被観測物体を設定することができる。
第1の実施形態と同じ機能を有する部分(110,120,140)については図1と同じ番号を付けており、その説明を省略する。ただし、2台の主観視点カメラ450(450a,450b)によって取得された画像が主観視点画像として主観視点画像入力部110aに入力されるという点と、これらの画像に対して主観視点指標検出部120aにおいて指標の検出処理が実行されるという点は、第1の実施形態とは異なっている。
夫々の計測対象物体160上の複数の位置には、夫々の物体座標系(以下では、記号O,Oによって表現する)における位置が既知である複数個の指標Qがそれぞれ配置されている。第一の実施形態と同様に、撮影画像上における投影像の画像座標が検出可能であって、かついずれの指標であるかが何らかの方法で識別可能であるような指標であれば、指標は何れの形態であってもよい。
第1の実施形態では、計測対象物体160上の指標は全て同種のものであり、客観視点画像と主観視点画像から共通の指標を検出していたが、本実施形態では、客観視点カメラ140によって観測/検出するための指標と、主観視点カメラ450によって観測/検出するための指標として、異なる種類の指標を用いている。図4の例では、客観視点カメラによる観測を意図した球形の指標Q〜Qと、主観視点カメラ450による観測を意図した四角形指標QS1及びQS2(それぞれの頂点をQ〜Q12及びQ13〜Q16とする)が配置されている。このように複数種類の指標を使い分けることは、カメラから指標までの距離等が異なる際に有効な場合がある。もちろん、第一の実施形態と同様に共通の指標を用いることも可能である。なお、図4では、指標Q〜Qが計測対象物体160の上ではなく主観視点カメラ450の上に配置されているが、物体座標系における位置が既知であれば、指標の配置場所に限定は無い。
主観視点カメラ450(450a,450b)は、例えば1台以上のビデオカメラであり、計測対象物体160の夫々に設置されている。夫々の物体座標系上における主観視点カメラ450の位置及び姿勢は既知であり、主観視点カメラ450は、夫々が装着されている計測対象物体160の主観視点位置からもう一方の計測対象物体を観測した画像を得て、主観視点画像入力部110aへと出力する。以下では、主観視点カメラ450の夫々によって定義される主観視点カメラ座標系を、それぞれ記号C,Cで表現する。
姿勢センサ470(470a,470b)は、計測対象物体160の夫々に設置されている。姿勢センサ470は、例えばジャイロセンサをベースとしたセンサユニットであり、具体的には、株式会社トキメックのTISS−5−40や、米国InterSense社のInertiaCube2等によって構成される。夫々の物体座標系上における姿勢センサ470の姿勢は既知であり、姿勢センサ470は、夫々が装着されている計測対象物体160の基準座標系における姿勢を計測して、センサ計測値入力部480へ出力する。
センサ計測値入力部480は、夫々の姿勢センサ470から姿勢計測値を入力し、位置姿勢算出部430へ出力する。
位置姿勢算出部430は、各々の指標の画像座標を指標検出部120から入力し、姿勢計測値をセンサ計測値入力部480から入力し、これらの情報に基づいて、夫々の計測対象物体160の位置及び姿勢を算出して出力する。
なお、図4に示した画像入力部110、指標検出部120、センサ計測値入力部480、及び位置姿勢算出部430の少なくとも一部は、独立した装置として実現しても良いし、夫々を1つもしくは複数のコンピュータにインストールし、コンピュータのCPUにより実行することで、その機能を実現するソフトウェアとして実現しても良い。本実施形態では、各部(画像入力部110、指標検出部120、センサ計測値入力部480、及び位置姿勢算出部430)は、それぞれソフトウェアにより実現され、同一のコンピュータにインストールされているものとする。ソフトウェアを実行することで各部の機能を実現するためのコンピュータの基本構成は第1の実施形態と同様であるので、説明を省略する。なお、センサ計測値入力部480の機能の一部は、I/F1009(例えばUSBポート)によって実現される。
図5は、位置姿勢算出部430の処理手順を示すフローチャートであり、本実施形態ではCPU1001が位置姿勢算出部430の機能を実現するプログラムを実行することにより実現される。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、例えば外部記憶装置1007からRAM1002に既にロードされているものとする。
ステップS5000において、位置姿勢算出部430は、夫々の計測対象物体160の姿勢計測値(以下ではそれぞれを、3×3の回転行列RWO1,WO2と記す)を、センサ計測値入力部480から入力する。
本実施形態では、姿勢センサ470によって計測された姿勢は十分信頼できるものであると考え、ステップS5000において入力した物体の姿勢RWO1,WO2を正しいものとして取り扱う。第一の実施形態では二つの物体の位置と姿勢を表す12のパラメータを未知パラメータとして扱っていたが、本実施形態では、夫々の計測対象物体160の姿勢は既知であり、位置のみを画像情報から求めればよい。以下では、これらのパラメータ(計測対象物体160aと160bの位置)を1次元に並べた6値の状態ベクトルs=[tWO1 WO2 =[xWO1WO1WO1WO2WO2WO2を、導出すべき未知パラメータとする。
ステップS5010において、位置姿勢算出部430は、検出された各々の指標Qkn(n=1,,,N)について、画像座標u(=udn Qkn)と、指標識別子k及びカメラ識別子dを指標抽出部120から入力する。なお、各指標の物体座標系における3次元座標xO1 QknあるいはxO2 Qknは、既知の値としてRAM1002に予めロードされているものとする。
ステップS5020において、位置姿勢算出部430は、状態ベクトルsに適当な初期値(位置の推定値)を設定する。例えば、前フレーム(時刻tk−1)の処理において導出されたsを初期値としてもよいし、過去からのsの導出値の変化に基づいた予測によって得た値を設定してもよい。
ステップS5030において、位置姿勢算出部430は、各々の指標Qknに対して、その画像座標の推定値u を算出する。u の算出は、sによって定義される指標の観測方程式に基づいて行われる。指標の観測方程式は、観測するカメラと観測される指標が属する物体の組み合わせ応じて、以下のように定義される。
計測対象物体160a上の指標を主観視点カメラ450bで観測している場合、観測方程式は、指標の物体座標xO1 Qknとsから、当該指標の主観視点カメラ座標xC2 Qknを求める次式、
Figure 0004785416
及び、透視投影変換を表す式4によって構成される。計測対象物体160b上の指標を主観視点カメラ450aで観測している場合も同様であり、式16の代わりに次式を使用する。
Figure 0004785416
ここで、RO2C2及びtO2C2は物体座標系Oにおける主観視点カメラ450bの姿勢及び位置、RO1C1及びtO1C1は物体座標系Oにおける主観視点カメラ450aの姿勢及び位置、式4におけるf 及びf は夫々のカメラの焦点距離であり、既知の値としてRAM1002に予めロードされているものとする。なお、一つの計測対象物体160に複数の主観視点カメラが設置されている場合には、夫々の主観視点カメラに固有のパラメータが使用される。
一方、計測対象物体160上の指標を客観視点カメラ140で観測している場合については、第一の実施形態(式5〜式7)と同様であるので説明を省略する。ただし、姿勢センサにより計測対象物体160の姿勢としてRWOが得られているので、式6におけるR(ωWO)の項を、計測値RWOに置き換える必要がある。
ステップS5040において、位置姿勢算出部430は、各々の指標Qknに対して、画像座標の推定値u と実測値uとの誤差△uを、式10によって算出する。
ステップS5050において、位置姿勢算出部430は、各々の指標Qknに対して、sに関する画像ヤコビアン(すなわち、観測方程式をsの各要素で偏微分した解を各要素に持つ2行×6列のヤコビ行列)Jus Qkn(=∂u/∂s)を算出する。なお、画像ヤコビアンの算出方法は、式16や式17を用いて観測方程式を構成する点以外は第一の実施形態と同様であるので、詳細な説明は省略する。
ステップS5060において、位置姿勢算出部430は、ステップS5040及びステップS5050において算出した誤差及び画像ヤコビアンに基づいて、sの補正値△sを算出する。具体的には、誤差△uを垂直に並べた2N次元の誤差ベクトルU及び、画像ヤコビアンJus Qknを垂直に並べた2N行×6列の行列Θを作成し、式14によって算出する。
ステップS5070において、位置姿勢算出部430は、ステップS5060において算出した補正値△sを用いて式15に従ってsを補正し、得られた値をsの新たな推定値とする。
ステップS5080において、位置姿勢算出部430は、計算が収束しているか否かの判定を行う。収束してない場合には、補正後のsを用いて、再度ステップS5030以降の処理を行う。一方、収束していると判断した場合には、ステップS5090へと処理を進める。
ステップS5090において、位置姿勢算出部430は、ステップ5080までの処理によって得られたsを、計測対象物体160a及び160bの位置として、ステップS5000で入力した姿勢計測値と合わせて、I/F1009を介して外部へと出力する。あるいは、これらのデータを、他のアプリケーションから利用可能な状態としてRAM1002上に格納する。
ステップS5100において、位置姿勢算出部430は、処理を終了するか否かの判定を行い、終了しない場合には再びステップS5000へと進み、次フレーム以降の入力データに対して同様の処理を実行する。
以上によって、計測対象物体の位置及び姿勢が計測される。このように、本実施形態に係る位置姿勢計測装置によっても、計測対象物体160間の相対的位置姿勢に関する情報と計測対象物体の絶対的位置姿勢に関する情報の双方に矛盾の無い解を得ることが可能であり、精度と安定性を両立した位置及び姿勢の計測が実現できる。
なお、主観視点カメラ450a及び450bは、必ずしも双方が必要ではない。両者の相対的位置姿勢に関する情報を得るために最低限必要なのはいずれかの1台であり、本実施形態のより簡易的な構成として、450aあるいは450bのいずれかを有さない構成をとることも可能である。
[第3の実施形態]
本実施形態に係る位置姿勢計測装置は、撮像装置と計測対象物体の位置及び姿勢の計測を行う。以下では、第1及び第2の実施形態との相違点に焦点を絞って、本実施形態に係る位置姿勢計測装置及び位置姿勢計測方法について説明する。
図6は、本実施形態における位置姿勢計測装置の構成を示している。同図に示したように、本実施形態における位置姿勢計測装置600は、画像入力部110、指標検出部120、位置姿勢算出部630、主観視点カメラ450(450a,450b)、姿勢センサ470(470a,470b)、及びセンサ計測値入力部480によって構成されている。撮像装置150と計測対象物体160の位置及び姿勢が、本実施形態に係る位置姿勢計測装置600によって計測される。
第1の実施形態と同じ機能を有する部分(110,120)については図1と同じ番号を付けており、その説明を省略する。ただし、本実施形態では、客観視点画像入力部110b及び客観視点指標検出部120bが存在しない点が第1の実施形態とは異なっている。また、2台の主観視点カメラ450(450a,450b)および撮像装置150の夫々によって取得された画像が主観視点画像として画像入力部110に入力されるという点と、これらの画像に対して指標検出部120において指標の検出処理が実行されるという点も、第1の実施形態とは異なっている。
同様に、第2の実施形態と同じ機能を有する部分(450,470,480)については図4と同じ番号を付けており、その説明を省略する。ただし、本実施形態では、主観視点カメラ450(450a,450b)及び姿勢センサ470(470a,470b)が、計測対象物体160及び撮像装置150の夫々に設置されているという点が、第2の実施形態とは異なっている。また、主観視点カメラ450の夫々が、計測対象物体160及び撮像装置150が標準的な姿勢である際に、夫々が鉛直上方向を撮影するような位置関係となるように設置されている点も、第2の実施形態とは異なっている。
計測対象物体160上の複数の位置には、計測対象物体160上の物体座標系における位置が既知である複数個の指標Qが配置されている。他の実施形態と同様に、撮影画像上における投影像の画像座標が検出可能であって、かついずれの指標であるかが何らかの方法で識別可能であるような指標であれば、指標は何れの形態であってもよい。
撮像装置150は例えばビデオカメラである。撮像装置150が撮像する画像は、位置姿勢計測装置600に入力される。以下では、撮像装置150によって定義されるカメラ座標系を、記号Cで表現する。
現実空間中の複数の位置には、撮像装置150及び主観視点カメラ450によって撮影するための指標として、基準座標系における位置が既知である複数個の指標が配置されている。図6の例では、9個の四角形指標QS2〜QS10が天井面に、5個の四角形指標QS11〜QS15が壁面及び床面に設定されている状況を示している。図6では、指標QS2〜QS10が主観視点カメラ450によって撮影されることを意図して、指標QS11〜QS15が撮像装置150によって観測されることを意図して配置されているが、必ずしも別々の指標を用いる必要は無い。なお、指標の種類は、撮影画像上における投影像の画像座標が検出可能であって、かついずれの指標であるかが何らかの方法で識別可能であるような指標であれば、何れの形態であってもよい。撮像装置150で検出するための指標と主観視点カメラ450で検出するための指標として別種の指標を用いてもよいし、図6ように同種の指標を用いてもよい。
位置姿勢算出部630は、各々の指標の画像座標を指標検出部120から入力し、姿勢計測値をセンサ計測値入力部480から入力し、これらの情報に基づいて、撮像装置150及び計測対象物体160の位置及び姿勢を算出して出力する。
なお、図6に示した画像入力部110、指標検出部120、センサ計測値入力部480、及び位置姿勢算出部630の少なくとも一部は、独立した装置として実現しても良いし、夫々を1つもしくは複数のコンピュータにインストールし、コンピュータのCPUにより実行することで、その機能を実現するソフトウェアとして実現しても良い。本実施形態では、各部(画像入力部110、指標検出部120、センサ計測値入力部480、及び位置姿勢算出部630)は、それぞれソフトウェアにより実現され、同一のコンピュータにインストールされているものとする。ソフトウェアを実行することで各部の機能を実現するためのコンピュータの基本構成は第1の実施形態と同様であるので、説明を省略する。
以下、図5のフローチャートに従って、位置姿勢算出部630の処理手順を説明する。
ステップS5000において、位置姿勢算出部630は、撮像装置150と計測対象物体160の姿勢計測値(以下ではそれぞれを、3×3の回転行列RWC,WOと記す)を、センサ計測値入力部480から入力する。
本実施形態では、ステップS5000において入力した物体の姿勢を正しい値と考え、計測対象物体160と撮像装置150の位置を1次元に並べた6値の状態ベクトルs=[tWC WO =[xWCWCWCWOWOWOを、導出すべき未知パラメータとする。
ステップS5010において、位置姿勢算出部630は、検出された各々の指標Qkn(n=1,,,N)について、画像座標u(=udn Qkn)と、指標識別子k及びカメラ識別子dを指標抽出部120から入力する。なお、各指標の物体座標系における3次元座標x Qknあるいは基準座標系における3次元座標x Qknは、既知の値としてRAM1002に予めロードされているものとする。
ステップS5020において、位置姿勢算出部630は、状態ベクトルsに適当な初期値(位置の推定値)を設定する。
ステップS5030において、位置姿勢算出部630は、各々の指標Qknに対して、その画像座標の推定値u を算出する。u の算出は、sによって定義される指標の観測方程式に基づいて行われる。指標の観測方程式は、観測するカメラと観測される指標が属する物体の組み合わせ応じて、以下のように定義される。
計測対象物体160上の指標を撮像装置150で観測している場合の観測方程式は、第一の実施形態(式2〜式4)と同様であるので説明を省略する。ただし、姿勢センサにより計測対象物体160と撮像装置150の姿勢が得られているので、式3におけるR(ωWO)及びR(ωWC)の項を、それぞれ計測値RWO及びRWCに置き換える必要がある。
一方、基準座標系の指標を撮像装置150、主観視点カメラ450a及び主観視点カメラ450bで観測している場合の観測方程式は、それぞれ、
Figure 0004785416
Figure 0004785416
Figure 0004785416
及び、透視投影変換を表す式4によって構成される。ここで、ROC1及びtOC1は物体座標系Oにおける主観視点カメラ450aの姿勢及び位置、RCC2及びtCC2はカメラ座標系Cにおける主観視点カメラ450bの姿勢及び位置であり、それぞれ既知の値としてRAM1002に予めロードされているものとする。また、式4におけるf 及びf は、夫々のカメラの焦点距離であり、既知の値としてRAM1002に予めロードされているものとする。
ステップS5040において、位置姿勢算出部630は、各々の指標Qknに対して、画像座標の推定値u と実測値uとの誤差△uを、式10によって算出する。
ステップS5050において、位置姿勢算出部630は、各々の指標Qknに対して、sに関する画像ヤコビアン(すなわち、観測方程式をsの各要素で偏微分した解を各要素に持つ2行×6列のヤコビ行列)Jus Qkn(=∂u/∂s)を算出する。なお、画像ヤコビアンの算出方法は、式18,式19,式20を用いて観測方程式を構成する点以外は第一の実施形態と同様であるので、詳細な説明は省略する。
ステップS5060において、位置姿勢算出部630は、ステップS5040及びステップS5050において算出した誤差及び画像ヤコビアンに基づいて、sの補正値△sを算出する。具体的には、誤差△uを垂直に並べた2N次元の誤差ベクトルU及び、画像ヤコビアンJus Qknを垂直に並べた2N行×6列の行列Θを作成し、式14によって算出する。
ステップS5070において、位置姿勢算出部630は、ステップS5060において算出した補正値△sを用いて式15に従ってsを補正し、得られた値をsの新たな推定値とする。
ステップS5080において、位置姿勢算出部630は、計算が収束しているか否かの判定を行う。収束してない場合には、補正後のsを用いて、再度ステップS5030以降の処理を行う。一方、収束していると判断した場合には、ステップS5090へと処理を進める。
ステップS5090において、位置姿勢算出部630は、ステップ5080までの処理によって得られたsを、撮像装置150及び計測対象物体160の位置として、ステップS5000で入力した姿勢計測値と合わせて、I/F1009を介して外部へと出力する。あるいは、これらのデータを、他のアプリケーションから利用可能な状態としてRAM1002上に格納する。
ステップS5100において、位置姿勢算出部630は、処理を終了するか否かの判定を行い、終了しない場合には再びステップS5000へと進み、次フレーム以降の入力データに対して同様の処理を実行する。
以上によって、計測対象物体の位置及び姿勢が計測される。このように、本実施形態に係る位置姿勢計測装置によっても、撮像装置150と計測対象物体160との間の相対的位置姿勢に関する情報と、撮像装置150及び計測対象物体160の環境中における絶対的位置姿勢に関する情報の双方に矛盾の無い解を得ることが可能であり、精度と安定性を両立した位置及び姿勢の計測が実現できる。
なお、主観視点カメラ450b及び撮像装置150の双方による環境側の指標の観測は必ずしも必須ではなく、両者のいずれかによって行われていればよい。すなわち、本実施形態のより簡易的な構成として、主観視点カメラ450bを有さない構成を取ることも可能であるし、あるいは、撮像装置150による環境側の指標の観測を行わなくてもよい。また、主観視点カメラ450bによって計測対象物体160上の指標を観測してもよいし、この場合は、撮像装置150による計測対象物体160上の指標の観測は必須ではない。また、撮像装置150上に複数の主観視点カメラを設置し、計測対象物体160上の指標を観測するための主観視点カメラと、環境側の指標を観測するための主観視点カメラを使い分けてもよい。
[他の実施形態]
(変形例1)
上記実施形態の各々では、誤差ベクトルUと行列Θに基づく補正値△sの算出に、式14で表現されるNewton−Raphson法を用いている。しかし、補正値△sの算出は必ずしもNewton−Raphson法によって行わなくてもよい。例えば公知の非線形方程式の反復解法であるLM法(Levenberg−Marquardt法)を用いて求めてもよいし、公知のロバスト推定手法であるM推定等の統計的手法を組み合わせてもよいし、他の何れの数値計算手法を適用しても本発明の本質が損なわれないことは言うまでもない。また、上記の実施形態における未知パラメータsを含むようなカルマンフィルタの状態ベクトルを定義し、式2,式5,及び式8などで定義される観測方程式を利用し、さらに、例えば等加速度などの予測モデルを用いることで、計測対象間の相対位置姿勢に関する情報と各計測対象の絶対位置姿勢に関する情報の双方に矛盾しないように各計測対象の位置と姿勢を同時に更新するという効果を有した、拡張カルマンフィルタ(Extended Kalman Filter)や、反復拡張カルマンフィルタ(iterative Extended Kalman Filter)を構成することができる。なお、拡張カルマンフィルタ及び反復拡張カルマンフィルタについては非特許文献1に記載されるように周知であるので、その詳細に関するこれ以上の説明は省略する。
また、上記実施形態の各々では、ステップS3010またはステップS5020において過去の算出結果から未知パラメータの初期値を設定しているが、初期値の取得方法はこれに限るものではない。例えば、第1及び第2の実施形態においては、客観視点カメラによる計測対象上の指標の検出情報に基づいて公知の技術を用いて夫々の計測対象の位置及び姿勢を得てこれを初期値としてもよいし、第3の実施形態においては、夫々の主観視点カメラによる指標の検出情報に基づいて公知の技術を用いて夫々の計測対象の位置及び姿勢を得てこれを初期値としてもよい。
また、上記第2及び第3の実施形態では、ステップS5030からステップS5080で表される反復解法によって未知パラメータを求めていたが、必ずしもこの解法を用いなくてもよい。第2及び第3の実施形態のように未知パラメータが位置情報のみの場合には、各々の観測方程式を展開することで未知パラメータに関する線型方程式を得ることが可能であるので、検出された夫々の指標の画像座標と3次元座標を入力とした線形連立方程式を作成し、これを解くことによって解を得てもよい。
(変形例2)
上記第2及び第3の実施形態では、夫々の計測対象(撮像装置150及び計測対象物体160)に姿勢センサ470が装着されていたが、姿勢センサは必ずしも必要ではない。姿勢センサ470を装着せずに、第1の実施形態と同様に夫々の計測対象の位置及び姿勢の12パラメータを未知として、画像情報のみからこれらを算出することも可能である。この場合、夫々の観測方程式における姿勢に関するパラメータを、いずれも未知数として取り扱えばよい。例えば、式16及び式17ではRWO2及びRWO1を姿勢センサから得ていたが、これをそれぞれR(ωWO2)及びR(ωWO1)とおき、未知数としてωWO2,ωWO1を追加すればよい。同様に、式18,式19,式20ではRWO及びRWCを姿勢センサから得ていたが、これをそれぞれR(ωWO)及びR(ωWC)とおき、未知数としてωWO,ωWCを追加すればよい。
反対に、上記第1の実施形態における夫々の計測対象に姿勢センサを装着することで、未知パラメータを夫々の計測対象の位置情報のみに限定することもできる。この場合は、第3の実施形態と同様に姿勢センサによって計測対象物体160の姿勢RWO及び撮像装置150の姿勢RWCを得て、式3,式6,式9におけるR(ωWO)及びR(ωWC)を、計測値RWO及びRWCに置き換えればよい。
また、姿勢センサを用いる場合であっても、センサによる姿勢計測値の全てを信頼するのではなく、より信頼できるパラメータのみを固定値として取り扱うこともできる。姿勢センサの多くは鉛直重力軸まわりの計測値(すなわち方位角)の精度に信頼性がないという性質を有しているので、姿勢センサから得られる傾斜角のみを固定値として用いてもよい。言い換えると、3軸の姿勢センサの替わりに傾斜センサを用いてもよい。また、姿勢センサは姿勢の初期値を得るためにのみ利用して、位置及び姿勢の全パラメータを未知として求めてもよい。また、姿勢センサ以外の他のセンサ(例えば6自由度位置姿勢センサや位置センサ)を計測対象に装着し、そのセンサによる計測値の少なくとも一部を固定パラメータとして用いることや、あるいは、そのセンサによる計測値を初期値として用いることも、同様の技術思想の範疇において実現可能である。また、複数の計測対象物体に対して一方のみにセンサを装着してその出力を利用することも、もちろん可能である。
(変形例3)
上記の実施形態の各々においては、各々が一つの座標を表すような指標(以下、これを点指標と呼ぶ)を用いていた。しかし、点指標以外の指標を用いることも可能である。例えば、公知の位置姿勢計測装置(例えば、非特許文献2を参照)に用いられているような、線特徴によって構成される指標(以下、これを線指標と呼ぶ)を用いてもよい。例えば、原点から線指標までの距離を評価のための基準として画像からの検出値とsによる推定値から算出する誤差によって誤差ベクトルUを構成し、観測方程式をsの各要素で偏微分した解を各要素に持つ1行×12列(または1行×6列)のヤコビ行列によって行列Θを構成することで、上記実施形態と同様にして位置及び姿勢の計測(補正)を行うことができる。また、線指標と点指標、その他の指標から得られる誤差及び画像ヤコビアンを積み重ねることによって、それらの特徴を併用することも可能である。例えば、第3の実施形態において、計測対象物体160上の指標として物体の輪郭線等の線特徴を用い、かつ、環境側には指標として人為的なマーカを設置するという組み合わせを用いることが可能である。
(変形例4)
第1の実施形態に係る位置姿勢計測装置は、第2の実施形態における主観視点カメラ450に相当する構成要素を有していなかった。しかし、第2の実施形態と同様に、計測対象物体160に主観視点カメラ450をさらに装着し、撮像装置150上に設定した指標をこれによって観測することで、撮像装置150及び計測対象物体160の位置及び姿勢の算出にその情報を用いてもよい。この場合、主観視点カメラ450による撮影画像を画像入力部110へ入力し、指標検出部120で座標を検出し、位置姿勢算出部130による解の算出工程に第2の実施形態と同様な観測方程式(式17及び式4)を組み込めばよい。同様に、撮像装置150に主観視点カメラ450を装着してもよいし、この場合は、撮像装置150による指標の観測は必須とはならない。
また、第1及び第2の実施形態に係る位置姿勢計測装置は、第3の実施形態において利用されているような環境側に設置された指標を用いていなかった。一方、第3の実施形態に係る位置姿勢計測装置は、第1及び第2の実施形態において利用されているような客観視点カメラを用いていなかった。しかし、客観視点カメラによって観測した計測対象物体(撮像装置150及び計測対象物体160)上の指標の情報と、主観視点カメラ(撮像装置150及び主観視点カメラ450)によって観測した環境側の指標の情報を併用してもよい。
すなわち、第1及び第2の実施形態において、第3の実施形態と同様に環境側に指標を設定し、撮像装置150及び主観視点カメラ450によって撮影したこれらの指標の情報を撮像装置150及び計測対象物体160の位置及び姿勢の算出に用いてもよい。この場合、位置姿勢算出部130あるいは430による解の算出工程に、第3の実施形態と同様な観測方程式(式18〜式20及び式4)を組み込めばよい。また、一方の計測対象物体のみが両者(主観視点カメラによる環境側の指標の観測と客観視点カメラによる物体上の指標の観測)を併用するという構成も可能であるし、一方の計測対象物体には環境側の指標を観測する主観視点カメラを設置せずにその物体上の指標を客観視点カメラで観測し、さらに、もう一方の計測対象物体上には指標を設定せずにその物体に設置した主観視点カメラによって環境側の指標の観測するという構成も可能であるし、発明の本質を逸脱しなければ、どのような組み合わせを取ることも可能である。
(変形例5)
上記の実施形態の各々に係る位置姿勢計測装置は2つの物体を計測対象としていたが、計測する物体の数は2つに限定されるものではない。例えば第1の実施形態において、1台の撮像装置と複数の計測対象物体を計測する場合には、夫々の計測対象物体上に指標を設定し、これを撮像装置150及び客観視点カメラ140によって観測し、各物体の位置及び姿勢を未知パラメータとして解けばよい。第2、第3の実施形態においても同様であり、夫々に必要な主観視点カメラや姿勢センサを設置することで、前述した実施形態における技術思想の範疇において実現可能である。
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記憶媒体に適用する場合、その記憶媒体には先に説明したフローチャートに対応するプログラムコードが格納されることになる。
第1の実施形態における位置姿勢計測装置の構成を示す図である。 位置姿勢計測装置の各部をソフトウェアにより実現することのできるコンピュータの基本構成を示す図である。 第1の実施形態における、撮像装置150及び計測対象物体160の位置及び姿勢を算出する処理を説明するフローチャートである。 第2の実施形態における位置姿勢計測装置の構成を示す図である。 第2の実施形態における、計測対象物体160の位置及び姿勢を算出する処理を説明するフローチャートである。 第3の実施形態における位置姿勢計測装置の構成を示す図である。

Claims (14)

  1. 第一の撮像装置の位置及び姿勢と、該第一の撮像装置による被観測物体の位置及び姿勢とを計測する位置姿勢計測方法であって、
    前記第一の撮像装置が撮像した第一の撮像画像から、前記被観測物体上の指標を検出する第一の指標検出工程と、
    環境中に設置された第二の撮像装置が撮像した第二の撮像画像から、前記被観測物体上の指標を検出する第二の指標検出工程と、
    前記第二の撮像画像から前記第一の撮像装置上の指標を検出する第三の指標検出工程と、
    前記第一、第二、及び第三の指標検出工程において検出された指標の画像座標に関する情報を用いて、前記第一の撮像装置の位置及び姿勢と前記被観測物体の位置及び姿勢とを算出する位置姿勢算出工程とを有することを特徴とする位置姿勢計測方法。
  2. 第一の撮像装置の位置及び姿勢と、該第一の撮像装置による被観測物体の位置及び姿勢とを計測する位置姿勢計測方法であって、
    前記第一の撮像装置が撮像した第一の撮像画像から、前記被観測物体上の指標を検出する第一の指標検出工程と、
    前記被観測物体に装着された第二の撮像装置が撮像した第二の撮像画像から、環境中の指標を検出する第二の指標検出工程と、
    前記第一の撮像画像または前記第一の撮像装置に装着された第三の撮像装置が撮像した第三の撮像画像から、環境中の指標を検出する第三の指標検出工程と、
    前記第一、第二、及び第三の指標検出工程において検出された指標の画像座標に関する情報を用いて、前記第一の撮像装置の位置及び姿勢と前記被観測物体の位置及び姿勢とを算出する位置姿勢算出工程とを有することを特徴とする位置姿勢計測方法。
  3. 複数の計測対象物体の夫々の位置及び姿勢あるいは当該計測対象物体間の相対的な位置及び姿勢の関係を計測する位置姿勢計測方法であって、
    前記計測対象物体のいずれか一つ以上に装着された第一の撮像装置によって、他の計測対象物体上の指標を観測し検出する第一の指標検出工程と、
    環境中に設置された第二の撮像装置によって、前記夫々の計測対象物体上の指標を観測し検出する第二の指標検出工程と、
    前記第一及び第二の指標検出工程において検出された指標の画像座標に関する情報を用いて、前記計測対象物体の夫々の位置及び姿勢あるいは前記計測対象物体間の相対的な位置及び姿勢の関係を算出する位置姿勢算出工程とを有することを特徴とする位置姿勢計測方法。
  4. 複数の計測対象物体の夫々の位置及び姿勢あるいは当該計測対象物体間の相対的な位置及び姿勢の関係を計測する位置姿勢計測方法であって、
    前記計測対象物体のいずれか一つ以上に装着された第一の撮像装置によって、他の計測対象物体上の指標を観測し検出する第一の指標検出工程と、
    前記計測対象物体の夫々に装着した第二の撮像装置によって、環境中の指標を観測し検出する第二の指標検出工程と、
    前記第一及び第二の指標検出工程において検出された指標の画像座標に関する情報を用いて、前記計測対象物体の夫々の位置及び姿勢あるいは前記計測対象物体間の相対的な位置及び姿勢の関係を算出する位置姿勢算出工程とを有することを特徴とする位置姿勢計測方法。
  5. 前記位置姿勢算出工程は、前記夫々の指標検出工程において検出された指標の画像座標に関する情報と、前記計測対象物体の夫々の位置及び姿勢のパラメータの推定値を用いて求められた当該画像座標に関する情報の計算値との間の誤差に基づき、前記計測対象物体の夫々の位置及び姿勢のパラメータの推定値を補正することを特徴とする請求項1乃至請求項4のいずれかに記載の位置姿勢計測方法。
  6. 前記位置姿勢算出工程は、前記推定値の補正を行う際の補正値の算出処理を、前記計測対象物体の夫々に関して同時に行うことを特徴とする請求項5に記載の位置姿勢計測方法。
  7. 前記計測対象物体の少なくとも一つ以上の位置または/及び姿勢を計測するセンサから位置または/及び姿勢の計測値を入力するセンサ計測値入力工程をさらに有し、
    前記位置姿勢算出工程は、前記夫々の指標検出工程において検出された指標の画像座標に関する情報に加えて、前記センサ計測値入力工程において入力された前記計測対象物体の位置または/及び姿勢の計測値を用いて、前記計測対象物体の夫々の位置及び姿勢を算出することを特徴とする請求項1乃至請求項6のいずれかに記載の位置姿勢計測方法。
  8. 前記位置姿勢算出工程は、前記センサ計測値入力工程において入力された前記計測対象物体の位置または/及び姿勢の計測値のうちの少なくともいずれかのパラメータを既知の値として利用して、前記夫々の指標検出工程において検出された指標の画像座標に関する情報を用いて、前記計測対象物体の夫々の位置及び姿勢のうちの残されたパラメータを算出することを特徴とする請求項7に記載の位置姿勢計測方法。
  9. 第一の撮像装置の位置及び姿勢と、該第一の撮像装置による被観測物体の位置及び姿勢とを計測する位置姿勢計測装置であって、
    前記第一の撮像装置が撮像した第一の撮像画像から、前記被観測物体上の指標を検出する第一の指標検出手段と、
    環境中に設置された第二の撮像装置が撮像した第二の撮像画像から、前記被観測物体上の指標を検出する第二の指標検出手段と、
    前記第二の撮像画像から前記第一の撮像装置上の指標を検出する第三の指標検出手段と、
    前記第一、第二、及び第三の指標検出工程において検出された指標の画像座標に関する情報を用いて、前記第一の撮像装置の位置及び姿勢と前記被観測物体の位置及び姿勢とを算出する位置姿勢算出手段とを有することを特徴とする位置姿勢計測装置。
  10. 第一の撮像装置の位置及び姿勢と、該第一の撮像装置による被観測物体の位置及び姿勢とを計測する位置姿勢計測装置であって、
    前記第一の撮像装置が撮像した第一の撮像画像から、前記被観測物体上の指標を検出する第一の指標検出手段と、
    前記被観測物体に装着された第二の撮像装置が撮像した第二の撮像画像から、環境中の指標を検出する第二の指標検出手段と、
    前記第一の撮像画像または前記第一の撮像装置に装着された第三の撮像装置が撮像した第三の撮像画像から、環境中の指標を検出する第三の指標検出手段と、
    前記第一、第二、及び第三の指標検出手段において検出された指標の画像座標に関する情報を用いて、前記第一の撮像装置の位置及び姿勢と前記被観測物体の位置及び姿勢とを算出する位置姿勢算出手段とを有することを特徴とする位置姿勢計測装置。
  11. 複数の計測対象物体の夫々の位置及び姿勢あるいは当該計測対象物体間の相対的な位置及び姿勢の関係を計測する位置姿勢計測装置であって、
    前記計測対象物体のいずれか一つ以上に装着された第一の撮像装置によって、他の計測対象物体上の指標を観測し検出する第一の指標検出手段と、
    環境中に設置された第二の撮像装置によって、前記夫々の計測対象物体上の指標を観測し検出する第二の指標検出手段と、
    前記第一及び第二の指標検出工程において検出された指標の画像座標に関する情報を用いて、前記計測対象物体の夫々の位置及び姿勢あるいは前記計測対象物体間の相対的な位置及び姿勢の関係を算出する位置姿勢算出手段とを有することを特徴とする位置姿勢計測装置。
  12. 複数の計測対象物体の夫々の位置及び姿勢あるいは当該計測対象物体間の相対的な位置及び姿勢の関係を計測する位置姿勢計測装置であって、
    前記計測対象物体のいずれか一つ以上に装着された第一の撮像装置によって、他の計測対象物体上の指標を観測し検出する第一の指標検出手段と、
    前記計測対象物体の夫々に装着した第二の撮像装置によって、環境中の指標を観測し検出する第二の指標検出手段と、
    前記第一及び第二の指標検出工程において検出された指標の画像座標に関する情報を用いて、前記計測対象物体の夫々の位置及び姿勢あるいは前記計測対象物体間の相対的な位置及び姿勢の関係を算出する位置姿勢算出手段とを有することを特徴とする位置姿勢計測装置。
  13. 請求項1乃至請求項8のいずれか1項に記載の位置姿勢計測方法をコンピュータに実行させるための制御プログラム。
  14. 請求項13に記載の制御プログラムを格納するコンピュータ読み取り可能な記録媒体。
JP2005138468A 2005-05-11 2005-05-11 位置姿勢計測方法及び装置 Active JP4785416B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005138468A JP4785416B2 (ja) 2005-05-11 2005-05-11 位置姿勢計測方法及び装置
US11/418,168 US7630555B2 (en) 2005-05-11 2006-05-04 Position and orientation measuring method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005138468A JP4785416B2 (ja) 2005-05-11 2005-05-11 位置姿勢計測方法及び装置

Publications (2)

Publication Number Publication Date
JP2006317223A JP2006317223A (ja) 2006-11-24
JP4785416B2 true JP4785416B2 (ja) 2011-10-05

Family

ID=37447914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005138468A Active JP4785416B2 (ja) 2005-05-11 2005-05-11 位置姿勢計測方法及び装置

Country Status (2)

Country Link
US (1) US7630555B2 (ja)
JP (1) JP4785416B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4958497B2 (ja) * 2006-08-07 2012-06-20 キヤノン株式会社 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体
JP5403861B2 (ja) * 2006-11-06 2014-01-29 キヤノン株式会社 情報処理装置、情報処理方法
JP4886560B2 (ja) * 2007-03-15 2012-02-29 キヤノン株式会社 情報処理装置、情報処理方法
JP5538667B2 (ja) * 2007-04-26 2014-07-02 キヤノン株式会社 位置姿勢計測装置及びその制御方法
FR2948759B1 (fr) * 2009-07-31 2011-08-12 Movea Procede d'estimation de l'orientation d'un solide en mouvement
JP2013504239A (ja) * 2009-09-04 2013-02-04 ブライトブリック ゲーエムベーハー 携帯型広角映像記録システム
JP2011123741A (ja) * 2009-12-11 2011-06-23 Toppan Printing Co Ltd サンプル提供装置およびプロモーション展開システム
JP5494364B2 (ja) * 2010-09-02 2014-05-14 カシオ計算機株式会社 測位装置、測位方法、及び、プログラム
JP5306313B2 (ja) * 2010-12-20 2013-10-02 株式会社東芝 ロボット制御装置
US9600933B2 (en) * 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system
US9210384B2 (en) 2012-09-20 2015-12-08 NAE Systems Information and Electronic Systems Integration Inc. System and method for real time registration of images
EP2985624B1 (de) * 2014-08-13 2021-03-10 Deutsche Telekom AG Verfahren und Vorrichtungen zum Bestimmen der Orientierung einer beweglichen Kommunikationseinrichtung
US10976343B2 (en) 2015-09-09 2021-04-13 Sony Corporation Sensor device, sensor system, and information processing device
JP6722502B2 (ja) * 2016-04-27 2020-07-15 株式会社キーエンス 三次元座標測定器
US10394315B2 (en) * 2017-05-25 2019-08-27 Acer Incorporated Content-aware virtual reality systems and related methods
US11137247B2 (en) * 2018-07-30 2021-10-05 The Boeing Company Method and system for measuring the orientation of one rigid object relative to another
US20200034985A1 (en) * 2018-07-30 2020-01-30 The Boeing Company Method and system for measuring the orientation of one rigid object relative to another
CN112825145B (zh) * 2019-11-20 2022-08-23 上海商汤智能科技有限公司 人体朝向检测方法、装置、电子设备和计算机存储介质
US20230089049A1 (en) * 2021-09-21 2023-03-23 Apple Inc. Methods and Systems for Composing and Executing a Scene

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064749A (en) * 1996-08-02 2000-05-16 Hirota; Gentaro Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
JP2001074428A (ja) * 1999-09-03 2001-03-23 Sanyo Electric Co Ltd 形状測定装置の校正方法及び校正治具
US6587783B2 (en) * 2000-10-05 2003-07-01 Siemens Corporate Research, Inc. Method and system for computer assisted localization, site navigation, and data navigation
US6765569B2 (en) * 2001-03-07 2004-07-20 University Of Southern California Augmented-reality tool employing scene-feature autocalibration during camera motion
JP3796449B2 (ja) * 2002-01-31 2006-07-12 キヤノン株式会社 位置姿勢決定方法および装置並びにコンピュータプログラム
JP4136859B2 (ja) * 2003-01-10 2008-08-20 キヤノン株式会社 位置姿勢計測方法
JP2005107247A (ja) * 2003-09-30 2005-04-21 Canon Inc 位置姿勢推定方法および装置

Also Published As

Publication number Publication date
US7630555B2 (en) 2009-12-08
JP2006317223A (ja) 2006-11-24
US20060262141A1 (en) 2006-11-23

Similar Documents

Publication Publication Date Title
JP4785416B2 (ja) 位置姿勢計測方法及び装置
JP4593968B2 (ja) 位置姿勢計測方法および装置
JP4914039B2 (ja) 情報処理方法および装置
JP4859205B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP4532982B2 (ja) 配置情報推定方法および情報処理装置
JP5063023B2 (ja) 位置姿勢補正装置、位置姿勢補正方法
JP4960754B2 (ja) 情報処理装置、情報処理方法
JP5230114B2 (ja) 情報処理装置、情報処理方法
EP1596332B1 (en) Information processing method and apparatus for finding position and orientation of targeted object
JP4136859B2 (ja) 位置姿勢計測方法
JP5036260B2 (ja) 位置姿勢算出方法及び装置
JP5132138B2 (ja) 位置姿勢計測方法、位置姿勢計測装置
JP2008261755A (ja) 情報処理装置、情報処理方法
JP5728372B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP4726191B2 (ja) 位置姿勢補正装置、位置姿勢補正方法、そのプログラムおよび記憶媒体
JP4566786B2 (ja) 位置姿勢計測方法および情報処理装置
JP2009168626A (ja) 位置姿勢計測装置、位置姿勢計測方法
JP5726024B2 (ja) 情報処理方法および装置
JP4612804B2 (ja) 位置姿勢計測方法および情報処理装置
JP5620972B2 (ja) 情報処理装置、情報処理方法
JP2016065830A (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080512

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110712

R151 Written notification of patent or utility model registration

Ref document number: 4785416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3