JP4195382B2 - 線の自動較正によって拡張可能な追跡システム - Google Patents

線の自動較正によって拡張可能な追跡システム Download PDF

Info

Publication number
JP4195382B2
JP4195382B2 JP2003538815A JP2003538815A JP4195382B2 JP 4195382 B2 JP4195382 B2 JP 4195382B2 JP 2003538815 A JP2003538815 A JP 2003538815A JP 2003538815 A JP2003538815 A JP 2003538815A JP 4195382 B2 JP4195382 B2 JP 4195382B2
Authority
JP
Japan
Prior art keywords
line
parameters
camera
coordinate system
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003538815A
Other languages
English (en)
Other versions
JP2005507109A (ja
Inventor
ウルリッヒ ノイマン,
ボラン ジャン,
Original Assignee
ユニバーシティ オブ サウザーン カリフォルニア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニバーシティ オブ サウザーン カリフォルニア filed Critical ユニバーシティ オブ サウザーン カリフォルニア
Publication of JP2005507109A publication Critical patent/JP2005507109A/ja
Application granted granted Critical
Publication of JP4195382B2 publication Critical patent/JP4195382B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/08Trick photography
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

発明の背景
[0001]本発明は概して、拡張現実感の用途に関連して使用する追跡システムに関する。
[0002]拡張現実感(AR)システムは、実環境に仮想の物体を表示するのに使用される。ARシステムには、映画の特殊効果、医療データの表示、及びシミュレーション環境を使用した訓練など、広範囲に渡る用途がある。仮想の物体を実環境に挿入する錯覚を効果的に生じさせるためには、ユーザが実環境内を動き回るときには、その実環境内におけるユーザの視点(以下「カメラ姿勢」)が変化するので、変化のたびに正確に追跡せねばならない。
[0003]概して、実環境におけるカメラ姿勢は、その環境内の現実の物体の前較正を行うことによって初期設定できる。実環境における特定の物体や特徴の位置を前較正し、カメラ姿勢の初期写像によって生成された画像を分析することによって、初期のカメラ姿勢に関するパラメータを計算できる。このようにして、カメラ姿勢を初期設定する。次に、所与のフレーム内のカメラの視点に従って、適切にかつ現実に即した形で仮想の物体を実環境内に統合できるよう、その実環境内で移動するカメラの視点を、変化のたびに追跡していかねばならない。この種の追跡は「物体中心追跡」と称され、変化するカメラ姿勢を追跡するために実環境内の物体を利用する。ARシステムの効果は、少なくとも部分的には、実環境内での現実の物体の整合と注釈に依存している。
[0004]過去に、拡張現実感システムと共に使用するための、様々な種類の物体中心追跡システムが利用されてきた。例えば、環境内のカメラ姿勢を追跡するために、実環境内の物体上に存在している点特徴を用いる自己追跡システムが使用されてきた(R.Azuma、“Survey of Augmented Reality”、Presence:Teleoperators and Virtual Environments(拡張現実感の調査、存在:遠隔操作装置と仮想環境)6 (4)、355−385 (1997年8月)、U.Neumann and Y. Cho、“A Self−Tracking Augmented Reality System”、Proceedingsof ACM Virtual Reality Software and Techology (自己追跡拡張現実感システム、ACM仮想現実ソフトウェアと技術会報)、109−115(1996年7月)、J. Park、B. Jiang、and U. Neumann、“Vision−basedPose Computation:Robust and Accurate AugmentedReality Tracking”、Proceedings of International Workshop on AugmentedReality (IWAR)’99(仮想ベースの位置計算:堅牢で正確な拡張現実感)(1999年10月)、A. State、G. Hiorta、D.Chen、B. Garrett、and M. Livington、“Superior Augmented Reality Registrationby Integrateing LandmarkTracking and MagneticTracking”、Proceedings of SIGGRAPH’96(ランドマーク追跡機能と磁気追跡機能の統合による、優れた拡張現実感の登録、SIGGRAPH会報 96)、G.Welch and G. Bishop、“SCAAT:Incremental Tracking with Incomplete Information”、Proceedings of SIGGRAPH’96(SIGGRAPH:不完全情報でのインクリメンタル追跡、SIGGRAPH会報96)、429−438(August 1996))。これらのシステム及びその他の類似したシステムでは、システムオペレータが人為的ランドマークを配置及び較正できる調整された環境が必要である。そして、変化するカメラ姿勢を追跡するために、前較正したランドマークの既知の特徴を使用する。残念ながら、このような前較正点特徴追跡法の使用は、前較正ランドマークが目視可能な環境内に制限されてしまう。カメラ姿勢が前較正点特徴を目視できる環境部分から逸れた場合には、この追跡法の確度は低下し、ついには機能しなくなる。したがって、このようなシステムの範囲と有用性には限界がある。
[0005]可視ランドマークに対する依存度を軽減し、それによって環境内の追跡範囲を拡張するため、環境内の未知の点特徴を自動較正することによる、他の追跡法が利用されてきた(U.Neumann and J. Park、“Extendible Object−Centric Tracking for AugmentedReality”(拡張現実感用拡張可能物体中心追跡)、Proceedings of IEEE Virtual Reality Annual International Symposium 1998(IEEE仮想現実年次国際シンポジウム1998)、148−155(1998年3月)、B. Jiang、S. You and U. Neumann、“Camera Tracking forAugmented Reality Media”(拡張現実感メディア用カメラ追跡)、Proceedingsof IEEE International Conference on Multimedia and Expo 2000(IEEEマルチメディア国際会議およびExpo 2000の会報)、1637−1640(2000年7月30−8月2日)、New York、NY.)。これらの追跡法及び類似の追跡法では「自動較正」が用いられているが、これは、変化するカメラ姿勢を追跡しながら、未較正の特徴を感知して追跡データベースに統合することにより、この新特徴を動的に較正する追跡システムの能力に関する。追跡データベースは、前較正されたデータだけを使用して初期設定されるため、このような点特徴自動較正追跡法のデータベースの成長によって、追跡領域が半自動的に拡張する。このような点特徴自動較正技術により、追跡範囲は前較正されたランドマークに占められた小さな調整済み領域から、前較正されたランドマークのどれもユーザの視野にない大きな未調整の領域へと効果的に拡張した。しかし残念なことに、このような追跡法は、環境内の点特徴のみに依存している。したがって、これらの方法は、識別可能な点特徴のない環境や目視できる点特徴の位置座標が未知であるような環境では効果を発揮しない。さらに、その場面でのカメラ姿勢と物体の構造を再生するこのような方法では、絶対カメラ姿勢ではなく、相対カメラ姿勢が生成されるので、拡張現実感の用途に適さない場合もある。
[0006]さらに、他の追跡法では、環境内で前較正された線特徴を利用する(R.Kumar and A. Hanson、“Robust Methods forEstimating Pose anda Sensitivity Analysis”(カメラのポーズ点を推測するための堅牢な方法と感度分析)、CVGIP:ImageUnderstanding(CVGIP:画像の理解)、第60巻、3号、11月、313−342、1994年)。線特徴は、点特徴に比べ数多くの情報を提供するので、点特徴よりも高い信頼性の下に追跡を行うことができる。線特徴は、点特徴がまったくない環境や未知の点特徴だけの環境における追跡の目的にも有効である。しかし、線に関する数学的定義は、単純な点特徴のそれに比べ、非常に複雑である。線の定義には数学的複雑さが伴うため、数学的にあまり複雑ではない点特徴が自動較正法に適していたようには、線特徴は適さなかった。したがって、線特徴を利用する追跡法は前較正したランドマークの可視性に依存しており、元々、環境の範囲に限界があった。このように、線特徴追跡法は、線特徴が未知で未較正であったり、前較正された線特徴が目視できない広い環境には適さなかった。
[0007]上記の様々な問題を考えると、追跡に未較正の線特徴を使用する堅牢な拡張現実感追跡システムが必要である。さらに、目視できる前較正線特徴に依存しない線特徴追跡システムも必要である。
[0008]本発明の一つの態様では、実環境の画像を観察するときのカメラ姿勢の推定方法は、画像内の線特徴の特定と、線特徴を定義する4つのパラメータの各値の特定と、カメラ姿勢に関する複数のパラメータの各値の推定と、4つの各線特徴パラメータの特定値とカメラ姿勢に関する複数のパラメータの推定値とを挿入することによって、4つの線特徴パラメータとカメラ姿勢パラメータに関する連立方程式の求解とを含んでいる。
[0009]本発明のもう一つの態様では、実環境内の線特徴の自動較正方法は、第一のカメラ姿勢から観察した環境の第一の画像の線特徴の特定と、第二のカメラ姿勢から観察した環境の第二の画像の線特徴の特定と、その特定された線特徴を定義する4つの線特徴パラメータの計算のための第一のカメラ姿勢を定義する第一のカメラ姿勢パラメータ組と第二のカメラ姿勢を定義する第二のカメラ姿勢パラメータ組との使用とを含んでいる。
[0010]本発明のさらにもう一つの態様では、コンピュータ可読媒体が、コンピュータにロードされた後の実行時に、実環境の画像が観察されるカメラ姿勢の推定方法を引き起こす、コンピュータに実行可能な命令を格納しており、この方法は、画像の線特徴の特定と、線特徴を定義する4つのパラメータの各値の特定と、カメラ姿勢に関する複数のパラメータの各値を推定する処理と、4つの各線特徴パラメータの特定値とカメラ姿勢に関する複数のパラメータの推定値とを挿入することによって、4つの線特徴パラメータとカメラ姿勢パラメータに関する連立方程式の求解を含む。
[0011]本発明のさらにもう一つの態様では、コンピュータ可読媒体が、コンピュータにロードされた後の実行時に、実環境内の線特徴を自動較正する方法を引き起こすコンピュータが実行できる命令を格納しており、この方法は、第一のカメラ姿勢から観察した環境内の第一の画像の線特徴の特定と、第二のカメラ姿勢から観察した環境内の第二の画像の線特徴の特定と、この特定された線特徴を定義する4つの線特徴パラメータを計算するための第一のカメラ姿勢を定義する第一のカメラ姿勢パラメータ組と第二のカメラ姿勢を定義する第二のカメラ姿勢パラメータ組との使用とを含む。
[0012]本発明のその他の実施形態は、当業者であれば、図解により本発明の模範的実施形態だけを記載した以下の詳細な説明から、すぐに理解できると考えられる。これらの説明から分かるように、本発明は、他の実施形態および異なる実施形態でも可能であり、そのいくつかの詳細な内容は、本発明の意図や適用範囲から一切逸脱することなく他の様々な観点から修正してもよい。したがって、図面や詳細な説明は、本発明を制限することを目的とするのではなく、単に説明することだけを目的としていると見なされるべきである。
[0013]本発明の態様を、制限するのではなく例としてあげる目的で、以下の添付図面に図解する。
実施形態の詳細な説明
[0019]添付の図面に関連して以下に記載されている詳細な説明は、本発明の模範的実施形態を説明することを目的としており、本発明を実施できる実施形態だけを記述することを目的としているわけではない。本説明全体を通じて使用されている「代表」という用語は、「例、事例、または図解としての役割を果たす」という意味であり、必ずしも他の実施形態より好ましいかあるいは有利なように構成されていることを意味するわけではない。詳細な説明には、本発明を完全に理解できるようにすることを目的とした、特定の詳細な説明が記載されている。ただし、当業者であれば、これらの特定の詳細な説明がなくても本発明を実施できることを理解するであろう。本発明の概念のあいまいさを極力排除するために、よく知られた構造や装置はブロック図の形式で表した。
[0020]図1は、仮想物体を環境内に適正に追加することができるように、環境内の現実の物体の位置と相対的にカメラ姿勢を追跡する環境を表している。具体的には、図1に示されている環境には、現実のテーブル102が含まれており、カメラ104によって観察されている。環境内の各物体をそこにある他のすべての物体と関連付けられるように、物体のそれぞれの局所座標系間で変換が行われている。例えば、テーブル102は、「実」座標系106内に存在しており、仮想の椅子108は、「仮想」座標系110内に存在しており、カメラ104は、「カメラ」座標系112内に存在しており、これらのそれぞれが現実世界の「ワールド」座標系114に個別に関連付けられている。
[0021]カメラ姿勢が環境内で変化するごとに、固定ワールド座標系と相対的にカメラ姿勢を追跡することによって、テーブル102と椅子108の相対的位置が維持される。追跡プロセスでは、各局所座標系間での変換が行われる。弧116は、「実」座標系106と「カメラ」座標系112との間で行われた変換を表し、弧118は、「実」座標系106と「仮想」座標系110との間で行われた変換を表している。同様に、弧120は、「カメラ」座標系112と「仮想」座標系110との間で行われた変換を表している。これらの弧のそれぞれが相関関係を持っており、環境内の物体によって表現されているおよびワールド座標系のいずれかとの間で行われた変換を表している。環境内の物体のそれぞれは、適切な変換マトリクスで変換されたときに別の座標系内に正しく表現できるよう、固有の座標系内に位置座標を所有している。したがって、弧116及び弧118によって表される適切な変換を実施することによって、各物体の位置座標をそれぞれ相対的に保持することができる。これは、どのような仮想物体を環境内に挿入するのであっても、その配置を正確に決定するために必要である。局所「カメラ」座標系112内と「仮想」座標系110内の各仮想物体間の変換を知ることにより、各仮想物体を環境内に正しく配置することができ、カメラの視点からの見かけが妥当なものとなる。
[0022]前述のように、本発明の一実施形態は、カメラ姿勢が変化するときに、環境内における未較正の線特徴の追跡を含む。例えば、図1では、テーブル102は、テーブルの上面やテーブルの足のいずれか1つを構成する線特徴など、複数の線特徴を含んでいる。カメラ104によって環境を観察する最初のフレーム内で、このような線特徴の1つを選択し、複数の後続フレームを通じて追跡してもよい。複数のフレームを通じて単一の線特徴を追跡することによって、カメラ姿勢そのものを含む各物体の相対的位置を追跡することができ、またその相対的位置に従ってそれらを保持することができる。上記のような複数の一連の変換を伴う追跡計算は、概して複雑である。したがって、効率的で実行可能であるようにするために、追跡する線特徴を最小表現でモデル化する。本発明の代表的実施形態では、線特徴は4つ以下の変数パラメータを持つ最小表現でモデル化されている。したがって、最小表現でモデル化された線特徴の自由度は4でしかないから、ここに記載する動的較正追跡法に関連する複雑な数学計算に適している。
[0023]図2は、追跡した線特徴を4つの一意変数パラメータ(nx1、ny1、nx2、ny2)及び4つの定数パラメータ(T1、R1、T2、R2)によって表現するための方法の代表例を表している。4つの定数パラメータのそれぞれに、複数の要素が含まれていることを理解されたい。例えば、この代表的実施形態では、T1とT2がそれぞれ3次元ベクトルであり、R1とR2がそれぞれ3×3の回転マトリクスである。したがって、T1とT2は、合計6個の要素を表し、R1とR2は合計18個の要素を表している。ただし、ここでは、各ベクトルT1、T2及び各回転マトリクスR1、R2を単に「定数パラメータ」と呼んでおり、各定数パラメータは複数の要素を含んでいることを理解されたい。代表的実施形態では、カメラによって異なるカメラ姿勢で捕捉されたその環境の複数の画像を通しての環境内の線特徴の追跡は、最初に線分の特定及び較正を伴う。画像内に3次元(3D)線(L)202が観され、かつ、この画像のカメラ姿勢がすでに判明している場合には、カメラの中心(O1)204と検出された線分 1 212が、3D線(L)202を通過する背景映写面(π1)206を構成する。第二の背景映写面(π2)210が3D線(L)202を通過するように、カメラの新しい中心(O2)208の位置からカメラが3D線(L)202を第二の画像内に観察すると、これら2つの背景映写面(π1、π2)206、210が、3D線(L)202を定義できる。具体的には、面206と面210の交点が、線202を定義する。
[0024]面π1 206は、n1が3次元ベクトルであり、d1がスカラーであるワールド座標で
Figure 0004195382
として表現できる。同様に、面π2は、
Figure 0004195382
として表現できる。3D線(L)202は、これら2つの面の交点によって表現できるが、3D線(L)202についての表現、すなわち
Figure 0004195382
及び
Figure 0004195382
は最小ではない。つまるところ3D線(L)202は、4つの一意変数パラメータnx1、ny1、nx2、ny2及び4つの定数パラメータT1、R1、T2、R2によって表現される。4つの変数パラメータnx1、ny1、nx2、ny2は、2種類の局所座標系内で3D線(L)202を定義する2つの面を定義しているが、これらは逆に定数パラメータT1、R1、T2、R2によって定義されている。原点が第一のカメラの中心O1 204である第一の局所座標系内では、面が、この面に対する法線ベクトルN1=(Lx1,Ly1,Lz1)によって表現される。同様に、面π2は、法線N2=(Lx2,Ly2,Lz2)によって、第二の局所座標系内で局所的に定義でき、この座標系の原点は第二のカメラの中心O2 208である。この場合、2つの面の表現は以下のような局所表現によって4つの次元に縮小できる。
Figure 0004195382
ここで
Figure 0004195382
である。
Figure 0004195382
ここで
Figure 0004195382
である。上記のように、定数パラメータT1、R1、T2、R2は、2つの局所座標系とワールド座標系それぞれの間における変換を表している。当然のことながら、カメラの中心O1 204とO2 208は、局所座標系の原点を配置するための唯一の選択肢ではないことを理解されたい。むしろ、局所座標系の中心は、3D線(L)202そのもの上ではなく、他のどこか別の点に置くことができる。しかし、このような制約条件は別として、カメラの他の中心の原点O1 204とO2 208が、3D線(L)202を持つ2つの異なる面を定義して、この線を表現する。この場合、上記の連立方程式を使用して、これら2種類の面について最小表現するためのパラメータを計算する。所与の定数パラメータT1、R1、T2、R2に関しては、4つの変数パラメータnx1、ny1、nx2、ny2を変えることによって、3D線(L)202の表現を一意に定義してもよい。ただし、当業者であれば、所与の定数パラメータT1、R1、T2、R2に関して、3D空間内のすべての線を4つの変数パラメータnx1、ny1、nx2、ny2によって表現できるわけではないということを認識するであろう。例えば、カメラの中心O1 204とO2 208を通過する線、及び面π1 206と面π2 210に対する法線の一つがその対応する局所座標系のX−Y面に平行な線は、ここに記載の最小表現によって定義されない可能性がある。しかし、所与の定数パラメータT1、R1、T2、R2の組で3D空間内のすべての線のサブグループを表現するには、4つの変数パラメータnx1、ny1、nx2、ny2によって表現される最小表現で十分である。要するに、定数パラメータT1、R1、T2、R2に対して1つの共通の値の組を共有する線のサブグループ内では、サブグループ内の各線を一意に定義するには、変数パラメータnx1、ny1、nx2、ny2の組で十分である。定変数T1、R1、T2、R2に対する異なる値により、所与の空間内のすべての3D線の異なるサブグループを表すことができる。したがって、異なるサブグループの表現を統合すれば、空間内の3D線のすべての表現を求めることができる。ある3D線は、定数パラメータT1、R1、T2、R2の組の異なる値で異なるサブグループ内でを表現でき、この3D線の変数パラメータnx1、ny1、nx2、ny2の対応する値は、異なるサブグループのそれぞれで異なる。
[0025]3D線(L)202の2つの写像を表す上記式では、4つのマトリクスT1、R1、T2、R2は定数である。T1とT2は、それぞれ、面π1 206と面π2 210のそれぞれの2つの局所座標系のワールド座標系への平行移動を定義している。R1とR2は、それぞれ、ワールド座標系に対する局所座標系の向きを定義している。R1、R2の定数は、第一の面π1 206と第二の面π2210に対する法線がそれぞれ第一および第二の局所座標系のZ軸に整合されるように選択されている。図2に示されているように、第一の面π1206の法線はN1で、第二の面π2 210の法線はN2である。T1、T2の定数は、第一のカメラの中心(O1)204と第二のカメラの中心(O2)208が、それぞれ局所座標系の原点となるように選択されている。当然のことながら、当業者であれば、定数パラメータT1、R1、T2、R2の値は、可能な組み合わせからどれか一つを選択すればよく、これら定数に他の値を選択してもよいということは、認識できるであろう。パラメータnx1、ny1、nx2、ny2を解くのに使用される上記連立方程式では、変数n1、d1、n2、d2は、次に記載するように、2つの個別の画像に対する既知のカメラ姿勢と、3D線(L)202、 1 212及び 2 214の画像写像とから得られる。
[0026]線(L)202の第一のカメラの中心(O1)204から観察された部分は、 1 212として定義され、線(L)202の第二のカメラの中心(O2)208から観察された部分は、 2 214として定義される。 1 212と 2 214は、それぞれ第一のカメラの中心204と第二のカメラの中心208の局所座標系内の線(L)202の写像画像を表すベクトルである。 1 212と 2 214は、写像された線分であるが、3D線(L)202は、無限の線であることを理解されたい。カメラのパラメータは既知であるので、各画像のカメラ写像マトリクスも既知である。具体的には、第一のカメラ姿勢を第一のカメラの中心(O1)204に関して(Tc1,Rc1)として定義し、第二のカメラ姿勢を第二のカメラの中心(O2)208に関して(Tc2,Rc2)として定義する場合には、固有のカメラマトリクスが
Figure 0004195382
となり、ここでは焦点長、αは、アスペクト比、( 0 0)は画像の中心である。第一のカメラの中心(O1)204に関してP1と定義されている写像マトリクスと、第二のカメラの中心(O2)208に関してP2と定義されている写像マトリクスは、次のように計算される。
Figure 0004195382
この場合、背景映写面(π1、π2)206、210は、下記のように「ワールド」座標系に表現される。
Figure 0004195382
写像マトリクスP1とP2は既知であり、線分 1 2の座標を観察し、特定しているので、n1、d1、n2、及びd2の解は容易に求めることができる。これらの値を取得したなら、前述の連立方程式に使用して、線(L)202の4つの変数パラメータnx1、ny1、nx2、ny2と、定数パラメータT1、R1、T2、R2の解を求め、それに基づいて自由度が4度以下の最小表現に動的に較正される。
[0027]3D線(L)202は、検出され、較正されたなら、以後、別のカメラ姿勢による後続の画像内で連続的にしかも動的に較正することができる。上記の線の最小表現では、所与の定数パラメータT1、R1、T2、R2による4つの変数パラメータnx1、ny1、nx2、ny2の更新だけが必要なので、推定値更新プロセス中に環境内の画像の線特徴の動的較正が効率的に達成される。
[0028]環境に関するもう一つの代表的実施形態では、画像で目視できる線特徴の既知の表現を用いると、その画像が生成されたときの未知のカメラ姿勢が計算できる。上記のように、3D線は、面π1と面π2の交点によって表現される。上記のように、これら2つの面のそれぞれが、変数パラメータnx1、ny1、nx2、ny2と定数パラメータT1、R1、T2、R2の最小表現によって表される。
[0029]2つの面π1とπ2の「ワールド」座標系における表現は、それぞれ、
Figure 0004195382
及び
Figure 0004195382
であり、次のように計算できる。
Figure 0004195382
ここで
Figure 0004195382
である。カメラ平行移動マトリクスTcと回転マトリクスRcを有するカメラ姿勢xcは、「ワールド」座標系と「カメラ」座標系との間の変換に使用するので、決定しておかねばならない。これら2つのマトリクスは、3D線(L)の既知の特徴に従って上に定義されている面π1と面π2の既知の特徴から計算できる。具体的には、2つの面π1とπ2は、それぞれ
Figure 0004195382

Figure 0004195382
として、「カメラ」座標系に表現できる。
[0030]図3は、追跡中であり、姿勢が未知であるカメラによって捕捉された画像上に写像された代表的線特徴を表しており、カメラ姿勢はここに記載する代表的方法に従って算出される。検出された線分304は、捕捉された画像上で検出された線特徴の画像写像である。写像線302は、カメラ姿勢と3D線構造の現在の推定値に基づいた、線特徴の画像写像の推定である。写像線( p)302は、式xmx+ymy+mz =0として表現できる。したがって、写像線302は、以下のように3つの定数mx、my、mzによって表される。
Figure 0004195382
写像線に関するこの式を解くためには、カメラ姿勢の初期推定値を式に挿入する。本発明の代表的実施形態では、第一の推定値は、既知のカメラ姿勢か、または前のフレームか同じ環境の近くの別の画像から計算したカメラ姿勢でよい。カメラ姿勢の推定値は、上記線の式( p)にRcとTcの初期値を提供するのに使用する。4つの変数パラメータ(nx1、ny1、nx2、ny2)と4つの定数パラメータ(T1、R1、T2、R2)を有する3D線の最小表現は、(n1、d1、n2、d2)を提供するのに使用する。ここで、写像線(mx、my、mz)の推定値が計算され、この推定された線と実際に検出された線304の両端点間のオフセット 1 2が計算される。具体的には、これらのオフセット( 1)306と( 2)308は、以下のように定義される。
Figure 0004195382
[0031]次に、当業者にとって明らかなように、例えばカルマンフィルタなどの非線形ソルバを応用して、これらのオフセットを最小化することにより初期のカメラ姿勢推定値を調整して、線の式の近似解を求めてもよい。拡張カルマンフィルタは、位置、インクリメンタルな向き、及びそれらの第一の導関数を含むカメラの状態表現を処理することによって、カメラ姿勢を推測する。カルマンフィルタをどのように応用して、カメラ姿勢を推測し、3D線(L)202の写像画像を較正したらよいかは、当業者であれば明らかであろう。カルマンフィルタリングに関する詳細は、例えば、参考としてここに引用する“Viosion−basedPose Computation:Robust and Accurate AugmentedReality Tracking(Viosionベースのカメラ姿勢計算:堅牢で正確な拡張現実感追跡)”及び“CameraTracking for AugmentedReality Media(拡張現実感メディア用カメラ追跡)”に記載されている。
[0032]次に、カルマンフィルタの出力として得られる調整済みのカメラ姿勢の推定値は、未知であったカメラ姿勢のパラメータを提供するのに使用される。当然のことながら、オフセットを最小化し、カメラ姿勢パラメータの実際の値の最も近い推定値に近づける目的で、他の非線形ソルバを利用してもよく、本発明はカルマンフィルタの利用に限定されないことを理解されたい。カメラ姿勢の推測に使用される線特徴の3D構造に関する推定値を、その後、非線形ソルバで更新してもよい。代表的実施形態の非線形ソルバは、カメラ姿勢の推定に使用するものと同じものであってもよい。さらに、カメラ姿勢と線特徴の3D構造は、同時に推定してもよい。あるいは、個別の非線形ソルバを用いて、線特徴の3D構造を推定し、カメラ姿勢を推測してもよい。いずれの場合も、3D線特徴の4つの変数パラメータ(nx1、ny1、nx2、ny2)の値は、非線形ソルバによって調整される一方、定数パラメータ(T1、R1、T2、R2)は変更されない。
[0033]ここに記載の各種方法を利用して追跡可能な環境を拡張できるだけでなく、上記の代表的方法を画像捕捉ルーチンを実行してリアルタイムで使用し、実際のシーン内の仮想物体の配置が後再生処理に制限されないようにしてもよい。これらの方法は、ソフトウェア誘導型なので、ビデオカメラや他の画像捕捉装置と直接接続していてもよい。
[0034]図4は、未知のカメラ姿勢を、その未知のカメラ姿勢から画像を観察した環境内で最小表現された線の既知のパラメータから計算できる代表的ソフトウェアの実施形態によって実施されているプロセスを表した機能ブロック図である。実環境のカメラ画像から、カメラ画像上に写像された環境内の線特徴が、ブロック402で検出される。3D線の表現は、線特徴が、カメラ画像を捕捉する前に前較正されていたかまたは動的に較正されていたかのどちらかの理由で、既知である。線を動的に較正する必要がある場合には、4つの変数パラメータと定数パラメータを有する最小表現が使用される。動的に較正する必要のない前較正された線に関しては、本発明の最小表現は必要がないことが、当業者によって理解されよう。ブロック404では、推測されたカメラ姿勢に関するパラメータが、検出された線特徴の既知のパラメータとともに、連立方程式に挿入されている。例えば、推測されたカメラ姿勢は、前のフレームからすでに計算されたカメラ姿勢(例えば、処理中の現在の画像を含む画像シーケンス内に捕捉されている前の画像など)であってもよい。推定されたカメラ姿勢に関するパラメータに基づいて、ブロック406で線特徴の推定値を得るため連立方程式が解かれる。実際に検出された線の端点は、図3で306、308に示されている写像線推定値からのオフセットとなる。このオフセットは、ブロック408で計算される。次に、推測されたカメラ姿勢が、オフセットを最小化するために、ブロック410に示されているように、非線形ソルバを使用することによって調整される。オフセットが最小化されると、調整済みのカメラ姿勢が、計算された画像のカメラ姿勢として出力される。すでに説明したように、非線形ソルバは、例えばカルマンフィルタ、数値法アプリケーション、または他の線特徴オフセットを最小化し、調整済みカメラ姿勢の解に近づけるのに適した他の反復型アプローチであってもよい。このようにすると、3D線の4つの変数パラメータを、必要に応じて、同じ非線形ソルバまたは個別の非線形ソルバによって動的に較正できる。
[0035]図5は、各画像のカメラ姿勢が既知である場合に、4つのパラメータを計算して環境の2種類の画像間で追跡された線特徴の最小表現を決定する、代表的ソフトウェアの実施形態に従って実施されるプロセスを表している機能的ブロック図である。ブロック502では、第一のカメラ姿勢で観察された3D線特徴が検出される。この第一のカメラ姿勢に関するパラメータは既知であり、ブロック504で検索される。カメラ姿勢と検出された線特徴により、ワールド座標系内の第一の背景写像面の表現が、ブロック506で再生される。同様に、ブロック510では、同じ3D線特徴が、同じ環境の第二のカメラ画像上に観察されたとおりに検出される。第二のカメラ姿勢に関するパラメータも既知であり、ブロック512で検索される。第二の背景写像面は、ブロック514で再生される。ここでは、2つの局所座標系(T1,R1)、及び(T2,R2)の変換が、ブロック508及び516で上記のように定義される。最小表現に関する4つの変数パラメータ(nx1、ny1、nx2、ny2)の解は、上記の代表的方法に従って求められる。
[0036]当業者が本発明を実現したり使用したりできるように、前述の開示実施形態の説明を提供した。これらの実施形態に対する様々な修正は、当業者にとって容易に理解できるものであり、ここに定義されている一般原理は、本発明の意図や適用範囲から逸脱することなく他の実施形態に適用してもよい。したがって、本発明は、ここに記載されている実施形態に限定することを目的とせず、ここに開示されている原理や新奇な特徴と一貫性のある幅広い適用範囲で実施されることが好ましい。
仮想物体を環境内に適切に追加できるように、環境内の現実物体の位置と相対的にカメラ姿勢を追跡する環境の代表例を示す図である。 追跡された線特徴の最小表現の計算方法の代表例を表しており、この最小表現は4つ以下の変数パラメータを含む。 追跡中であり、姿勢が不明で算出中であるカメラによって捕捉された画像に写像される線特徴の代表例を示している。 較正された線特徴を含む画像を観察するときのカメラ姿勢を計算するのに実施するステップを図解した機能ブロック図である。 カメラ姿勢が判明している2種類の異なる画像に写像された線特徴の最小表現のためのパラメータを計算するのに実施するステップを図解した機能ブロック図である。

Claims (20)

  1. 実環境の画像が観察されるカメラ姿勢の推定方法であって、
    (a)画像内の線特徴の特定と、
    (b)局所座標系内で線特徴を定義する4つの変数パラメータのそれぞれの値の特定と、
    (c)カメラ姿勢の複数のパラメータのそれぞれの値の推定と、
    (d)4つの変数パラメータのそれぞれの特定された値とカメラ姿勢の複数のパラメータの推定値を挿入することによって、4つの変数パラメータとカメラ姿勢パラメータに関する連立方程式の求解と、
    (e)ワールド座標系で線特徴を定義する4つの定数パラメータのそれぞれの値の指定と、
    を含み、
    前記変数パラメータが、2種類の局所座標系内で線分を定義する2つの面を定義し、
    前記定数パラメータが、局所座標系とワールド座標系との間の回転及び平行移動変換を定義する、
    カメラ姿勢の推定方法。
  2. 前記画像内の線特徴の特定は、3次元線の線分の画像写像の検出を含む、請求項1に記載の方法。
  3. 連立方程式が、前記4つの定数パラメータをさらに含む、請求項1に記載の方法。
  4. 前記カメラ姿勢の複数のパラメータの推定値は、実環境での異なる画像から導出される、請求項1に記載の方法。
  5. 前記連立方程式の求解は、カメラ姿勢の複数のパラメータのそれぞれの推定値を向上するための、非線形ソルバの応用を含む、請求項1に記載の方法。
  6. 前記カメラ姿勢の複数のパラメータのそれぞれの推定値を向上するための、非線形ソルバの応用が、
    (a)特定された線特徴の写像線分画像の端点の特定と、
    (b)カメラ姿勢の複数のパラメータのそれぞれの推定値に従った、推定された線特徴の写像画像の推定と、
    (c)特定された線特徴の写像線画像と、推定された線特徴の推定された写像画像との特定された端点間のオフセット値の算出と、
    (d)オフセット値を縮小させるための、カメラ姿勢の複数のパラメータのそれぞれの推定値の変更と、
    を含む、請求項5に記載の方法。
  7. 前記非線形ソルバがカルマンフィルタである、請求項5又は6に記載の方法。
  8. 実環境における線特徴の自動較正方法であって、
    (a)第一のカメラ姿勢から観察した、環境の第一の画像の線特徴の第一の画像写像の特定と、
    (b)第二のカメラ姿勢から観察した環境の第二の画像の線特徴の第二の画像写像の特定と、
    (c)特定された線特徴を局所座標系で定義する4つの線特徴変数パラメータの算出と、
    を含み、
    前記線特徴の変数パラメータの算出が、さらに、4つの線特徴変数パラメータに関連して、ワールド座標系で線特徴を定義する4つの定数パラメータの定義を含み、
    前記線特徴変数パラメータが、2種類の局所座標系内で線分を定義する2つの面を定義し、
    前記定数パラメータが、局所座標系とワールド座標系との間の回転及び平行移動変換を定義し、
    前記4つの線特徴変数パラメータの算出が、さらに
    (a)第一のカメラ姿勢におけるカメラ原点と線特徴の特定された第一の画像写像とを通過する第一の平面の特定と、
    (b)第二のカメラ姿勢におけるカメラ原点と特定された線特徴の第二の画像写像とを通過する第二の平面の特定と、
    を含み、
    前記第一の平面の特定が、
    (a)第一のカメラ姿勢のカメラ原点に対して局所的な座標系での、第一の画像の特定された線特徴の画像写像のベクトル座標の決定と、
    (b)第一のカメラ姿勢を定義する写像マトリクスによるそのベクトル座標の乗算と、
    (c)乗算の結果に従って、ワールド座標系への第一の平面の記述と、
    を含む、自動較正方法
  9. 実環境における線特徴の自動較正方法であって、
    (a)第一のカメラ姿勢から観察した、環境の第一の画像の線特徴の第一の画像写像の特定と、
    (b)第二のカメラ姿勢から観察した環境の第二の画像の線特徴の第二の画像写像の特定と、
    (c)特定された線特徴を局所座標系で定義する4つの線特徴変数パラメータの算出と、
    を含み、
    前記線特徴の変数パラメータの算出が、さらに、4つの線特徴変数パラメータに関連して、ワールド座標系で線特徴を定義する4つの定数パラメータの定義を含み、
    前記線特徴変数パラメータが、2種類の局所座標系内で線分を定義する2つの面を定義し、
    前記定数パラメータが、局所座標系とワールド座標系との間の回転及び平行移動変換を定義し、
    前記4つの線特徴変数パラメータの算出が、さらに
    (a)第一のカメラ姿勢におけるカメラ原点と線特徴の特定された第一の画像写像とを通過する第一の平面の特定と、
    (b)第二のカメラ姿勢におけるカメラ原点と特定された線特徴の第二の画像写像とを通過する第二の平面の特定と、
    を含み、
    前記4つの線特徴変数パラメータの算出と前記4つの定数パラメータの定義が、
    (a)4つの線特徴変数パラメータと、4つの定数パラメータと、特定された第一及び第二の平面の成分に関する連立方程式の求解を含み、さらに
    (b)この連立方程式の解が、4つの定数パラメータによって定義されている、第一の平面の第一の局所座標系と、第二の平面の第二の局所座標系上の制限によって制約されており
    前記制約が、連立方程式に応用したときに、第一及び第二の平面の局所座標系をそれぞれ整合する、定回転マトリクスを含む、
    自動較正方法
  10. 実環境における線特徴の自動較正方法であって、
    (a)第一のカメラ姿勢から観察した、環境の第一の画像の線特徴の第一の画像写像の特定と、
    (b)第二のカメラ姿勢から観察した環境の第二の画像の線特徴の第二の画像写像の特定と、
    (c)特定された線特徴を局所座標系で定義する4つの線特徴変数パラメータの算出と、
    を含み、
    前記線特徴の変数パラメータの算出が、さらに、4つの線特徴変数パラメータに関連して、ワールド座標系で線特徴を定義する4つの定数パラメータの定義を含み、
    前記線特徴変数パラメータが、2種類の局所座標系内で線分を定義する2つの面を定義し、
    前記定数パラメータが、局所座標系とワールド座標系との間の回転及び平行移動変換を定義し、
    前記4つの線特徴変数パラメータの算出が、さらに
    (a)第一のカメラ姿勢におけるカメラ原点と線特徴の特定された第一の画像写像とを通過する第一の平面の特定と、
    (b)第二のカメラ姿勢におけるカメラ原点と特定された線特徴の第二の画像写像とを通過する第二の平面の特定と、
    を含み、
    前記4つの線特徴変数パラメータの算出と前記4つの定数パラメータの定義が、
    (a)4つの線特徴変数パラメータと、4つの定数パラメータと、特定された第一及び第二の平面の成分に関する連立方程式の求解を含み、さらに
    (b)この連立方程式の解が、4つの定数パラメータによって定義されている、第一の平面の第一の局所座標系と、第二の平面の第二の局所座標系上の制限によって制約されており
    前記制約が、連立方程式に応用したときに、ワールド座標系で第一及び第二の局所座標系の中心をそれぞれ定義する、定平行移動ベクトルを含む、
    自動較正方法
  11. コンピュータにロードされ実行された時に、コンピュータが実行可能な命令を格納しているコンピュータ可読媒体であって、
    (a)画像内の線特徴の特定と、
    (b)この線特徴を局所座標系で定義する4つの変数パラメータのそれぞれの値の特定と、
    (c)カメラ姿勢の複数のパラメータのそれぞれの値の推定と、
    (d)この4つの変数パラメータのそれぞれに特定された値とカメラ姿勢の複数のパラメータの推定値とを挿入することによって、4つの変数パラメータとカメラ姿勢変数に関連する連立方程式の求解と、
    (e)ワールド座標系で線特徴を定義する4つの定数パラメータのそれぞれの値の指定と、
    によって、実環境の画像を観察するときのカメラ姿勢を推定し、
    前記変数パラメータが、2種類の局所座標系内で線分を定義する2つの面を定義し、
    前記定数パラメータが、局所座標系とワールド座標系との間の回転及び平行移動変換を定義する、コンピュータ可読媒体
  12. 前記画像の線特徴の特定は、3次元線の線分の画像写像の検出を含む、請求項11に記載のコンピュータ可読媒体。
  13. 前記連立方程式が、前記4つの定数パラメータをさらに含む、請求項11に記載のコンピュータ可読媒体。
  14. カメラ姿勢の複数のパラメータの推定値は、実環境の異なる画像から導出される、請求項11に記載のコンピュータ可読媒体。
  15. 前記連立方程式の求解が、カメラ姿勢の複数のパラメータのそれぞれの推定値を向上するための、非線形ソルバの応用を含む、請求項11に記載のコンピュータ可読媒体。
  16. カメラ姿勢の複数のパラメータのそれぞれの推定値を改良するための非線形ソルバの応用が、
    (a)特定された線特徴の写像線分画像の端点の特定と、
    (b)カメラ姿勢の複数のパラメータのそれぞれの推定値に従った、推定された線特徴の写像画像の推定と、
    (c)特定された線特徴の写像線画像と、推定された線特徴の推定された写像画像との特定された端点間のオフセット値の算出と、
    (d)オフセット値を縮小させるための、カメラ姿勢の複数のパラメータのそれぞれの推定値の変更と、
    を含む、請求項15に記載のコンピュータ可読媒体。
  17. 前記非線形ソルバがカルマンフィルタである、請求項15又は16に記載のコンピュータ可読媒体。
  18. コンピュータにロードされ、実行された時に、コンピュータが実行可能な命令を格納しているコンピュータ可読媒体であって、
    (a)第一のカメラ姿勢から観察した環境の第一の画像における線特徴の第一の画像写像の特定と、
    (b)第二のカメラ姿勢から観察した環境の第二の画像における線特徴の第二の画像写像の特定と、
    (c)特定された線特徴を局所座標系内で定義する4つの線特徴変数パラメータの算出と、
    によって、実環境における線特徴を自動較正し、
    前記線特徴変数パラメータの算出が、4つの線特徴変数パラメータに関連した、ワールド座標系で線特徴を定義する4つの定数パラメータの定義をさらに含み、
    前記線特徴変数パラメータが、2種類の局所座標系内で線分を定義する2つの面を定義し、
    前記定数パラメータが、局所座標系とワールド座標系との間の回転及び平行移動変換を定義し、
    前記4つの線特徴変数パラメータの算出が、さらに
    (a)第一のカメラ姿勢におけるカメラ原点と、線特徴の特定された第一の画像写像とを通過する第一の平面の特定と、
    (b)第二のカメラ姿勢におけるカメラ原点と、特定された線特徴の第二の画像写像とを通過する第二の平面の特定と、
    を含み、
    前記4つの線特徴変数パラメータの算出と前記4つの定数パラメータの定義とが、さらに
    (a)4つの線特徴変数パラメータと、4つの定数パラメータと、特定された第一及び第二の平面の成分に関連する連立方程式の求解を含んでおり、
    (b)この連立方程式の解が、4つの定数パラメータによって定義されるように、第一の平面の第一の局所座標系と、第二の平面の第二の局所座標系における制限によって制約され、
    前記制約が、連立方程式に応用したときに、第一及び第二の平面の局所座標系をそれぞれ整合する定回転マトリクスを含む、コンピュータ可読媒体
  19. コンピュータにロードされ、実行された時に、コンピュータが実行可能な命令を格納しているコンピュータ可読媒体であって、
    (a)第一のカメラ姿勢から観察した環境の第一の画像における線特徴の第一の画像写像の特定と、
    (b)第二のカメラ姿勢から観察した環境の第二の画像における線特徴の第二の画像写像の特定と、
    (c)特定された線特徴を局所座標系内で定義する4つの線特徴変数パラメータの算出と、
    によって、実環境における線特徴を自動較正し、
    前記線特徴変数パラメータの算出が、4つの線特徴変数パラメータに関連した、ワールド座標系で線特徴を定義する4つの定数パラメータの定義をさらに含み、
    前記線特徴変数パラメータが、2種類の局所座標系内で線分を定義する2つの面を定義し、
    前記定数パラメータが、局所座標系とワールド座標系との間の回転及び平行移動変換を定義し、
    前記4つの線特徴変数パラメータの算出が、さらに
    (a)第一のカメラ姿勢におけるカメラ原点と、線特徴の特定された第一の画像写像とを通過する第一の平面の特定と、
    (b)第二のカメラ姿勢におけるカメラ原点と、特定された線特徴の第二の画像写像とを通過する第二の平面の特定と、
    を含み、
    前記4つの線特徴変数パラメータの算出と前記4つの定数パラメータの定義とが、さらに
    (a)4つの線特徴変数パラメータと、4つの定数パラメータと、特定された第一及び第二の平面の成分に関連する連立方程式の求解を含んでおり、
    (b)この連立方程式の解が、4つの定数パラメータによって定義されるように、第一の平面の第一の局所座標系と、第二の平面の第二の局所座標系における制限によって制約され、
    前記制約が、連立方程式に応用したときに、ワールド座標系で第一及び第二の局所座標系の中心をそれぞれ定義する定平行移動ベクトルを含む、コンピュータ可読媒体
  20. 前記第一の平面の特定が、
    (a)第一のカメラ姿勢におけるカメラ原点に対して局所的な座標系で、第一の画像で特定された線特徴の画像写像のためのベクトル座標決定と、
    (b)第一のカメラ姿勢を定義する写像マトリクスでのベクトル座標の乗算と、
    (c)乗算の結果に従って、ワールド座標系への第一の平面の記述と、
    を含む、請求項18又は19に記載のコンピュータ可読媒体。
JP2003538815A 2001-10-22 2002-10-22 線の自動較正によって拡張可能な追跡システム Expired - Fee Related JP4195382B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US33620801P 2001-10-22 2001-10-22
PCT/US2002/033836 WO2003036384A2 (en) 2001-10-22 2002-10-22 Extendable tracking by line auto-calibration

Publications (2)

Publication Number Publication Date
JP2005507109A JP2005507109A (ja) 2005-03-10
JP4195382B2 true JP4195382B2 (ja) 2008-12-10

Family

ID=23315034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003538815A Expired - Fee Related JP4195382B2 (ja) 2001-10-22 2002-10-22 線の自動較正によって拡張可能な追跡システム

Country Status (5)

Country Link
US (1) US7239752B2 (ja)
JP (1) JP4195382B2 (ja)
AU (1) AU2002337944A1 (ja)
DE (1) DE10297343T5 (ja)
WO (1) WO2003036384A2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1796048A3 (en) 2002-10-15 2007-06-20 University Of Southern California Environnements virtuels accrus
GB2411532B (en) * 2004-02-11 2010-04-28 British Broadcasting Corp Position determination
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
US7599972B2 (en) * 2006-08-25 2009-10-06 Qnx Software Systems Gmbh & Co. Kg File system having variable logical storage block size
TW200937348A (en) * 2008-02-19 2009-09-01 Univ Nat Chiao Tung Calibration method for image capturing device
JP2009237878A (ja) * 2008-03-27 2009-10-15 Dainippon Printing Co Ltd 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム
US20140015924A1 (en) * 2010-10-07 2014-01-16 Sungevity, Inc. Rapid 3D Modeling
US8587583B2 (en) * 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8509483B2 (en) * 2011-01-31 2013-08-13 Qualcomm Incorporated Context aware augmentation interactions
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US9160979B1 (en) * 2011-05-27 2015-10-13 Trimble Navigation Limited Determining camera position for a photograph having a displaced center of projection
US9589326B2 (en) * 2012-11-29 2017-03-07 Korea Institute Of Science And Technology Depth image processing apparatus and method based on camera pose conversion
US8922589B2 (en) 2013-04-07 2014-12-30 Laor Consulting Llc Augmented reality apparatus
US9754167B1 (en) * 2014-04-17 2017-09-05 Leap Motion, Inc. Safety for wearable virtual reality devices via object detection and tracking
US10007350B1 (en) 2014-06-26 2018-06-26 Leap Motion, Inc. Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
JP6507730B2 (ja) * 2015-03-10 2019-05-08 富士通株式会社 座標変換パラメータ決定装置、座標変換パラメータ決定方法及び座標変換パラメータ決定用コンピュータプログラム
US10845188B2 (en) 2016-01-05 2020-11-24 Microsoft Technology Licensing, Llc Motion capture from a mobile self-tracking device
CN107097122A (zh) * 2017-06-27 2017-08-29 长春工程学院 一种自主研磨大型自由曲面的机器人

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5424556A (en) 1993-11-30 1995-06-13 Honeywell Inc. Gradient reflector location sensing system
US6046745A (en) * 1996-03-25 2000-04-04 Hitachi, Ltd. Three-dimensional model making device and its method
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
WO2001067749A2 (en) * 2000-03-07 2001-09-13 Sarnoff Corporation Camera pose estimation

Also Published As

Publication number Publication date
US20030076996A1 (en) 2003-04-24
US7239752B2 (en) 2007-07-03
JP2005507109A (ja) 2005-03-10
DE10297343T5 (de) 2005-01-27
AU2002337944A1 (en) 2003-05-06
WO2003036384A3 (en) 2003-11-20
WO2003036384A2 (en) 2003-05-01

Similar Documents

Publication Publication Date Title
JP4195382B2 (ja) 線の自動較正によって拡張可能な追跡システム
You et al. Orientation tracking for outdoor augmented reality registration
US7529387B2 (en) Placement information estimating method and information processing device
Tuceryan et al. Calibration requirements and procedures for a monitor-based augmented reality system
CN108170297B (zh) 实时六自由度vr/ar/mr设备定位方法
US7623250B2 (en) Enhanced shape characterization device and method
US20090245681A1 (en) Information processing method and information processing apparatus
JP2002259992A (ja) 画像処理装置およびその方法並びにプログラムコード、記憶媒体
WO2006082825A1 (ja) 指標配置計測方法、位置姿勢推定方法、指標配置計測装置、位置姿勢推定装置
Park et al. Natural feature tracking for extendible robust augmented realities
KR100248374B1 (ko) 증강현실 시스템에서 카메라와 트랙커간의 오차 보정방법
Frahm et al. Camera calibration with known rotation
Oliensis et al. Incorporating motion error in multi-frame structure from motion
Jiang et al. Extendible tracking by line auto-calibration
Thomas et al. Recursive multi-frame structure from motion incorporating motion error
Satoh et al. Robot vision-based registration utilizing bird's-eye view with user's view
JP2005241323A (ja) 撮像システム及び校正方法
EP0875115A1 (en) Method and apparatus for insertion of virtual objects into a video sequence
Gramegna et al. Optimization of the POSIT algorithm for indoor autonomous navigation
Chandaria et al. The MATRIS project: real-time markerless camera tracking for augmented reality and broadcast applications
Lee et al. Tracking with omni-directional vision for outdoor AR systems
Jung et al. A model-based 3-D tracking of rigid objects from a sequence of multiple perspective views
Dornaika et al. An algebraic approach to camera self-calibration
Olsen et al. Calibrating a camera network using a domino grid
JP2006323139A (ja) プロジェクタ・カメラサーバ、及び画像投影方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080826

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080925

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121003

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131003

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees