JP4685313B2 - 任意の局面の受動的な体積画像の処理方法 - Google Patents
任意の局面の受動的な体積画像の処理方法 Download PDFInfo
- Publication number
- JP4685313B2 JP4685313B2 JP2001549261A JP2001549261A JP4685313B2 JP 4685313 B2 JP4685313 B2 JP 4685313B2 JP 2001549261 A JP2001549261 A JP 2001549261A JP 2001549261 A JP2001549261 A JP 2001549261A JP 4685313 B2 JP4685313 B2 JP 4685313B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- coordinate system
- camera
- rays
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
(発明の背景)
本発明は、記録された画像からの測量に関し、具体的には、偽ステレオ画像または合成ステレオ画像の受動的な体積測量に関する。画像コンテンツへのジオメトリック効果の影響の包括的な理解、正確な測定、および簡潔なパラメータ表示により、簡単な組の式を用いて、画像相関の問題から画像のジオメトリの複雑性を分離することが可能になり、したがって、従来の共面ステレオ画像の場合のように、相当効率的な自動画像相関への道を開くことが可能である。次いで、これにより、斜めの画像によって提供された複数の任意の視点から見られ得るように、実世界の詳細な三次元の仮想モデルを効率的に生成することが可能になる。
【0002】
測量は、画像内、例えば、映像画像内に現れる点またはオブジェクトの地理的位置を決定する工程を含む。測量の際に用いられる画像は、種々の方法のうちのいずれか一つで取得され得る。例としては、ヘリコプターから取られる画像および移動車両から取られる画像を含む。移動車両から映像画像データを取得する方法は、同一の譲受人に譲渡された「METHOD AND APPRATUS FOR COLLECTING AND PROCESSING VISUAL AND SPATIAL POSITION INFORMATION FROM A MOVING PLATFORM」という名称の米国特許第5,633,946号(’946特許)に開示される。同文献を本明細書において参考として援用する。’946特許は、複数のビデオカメラが異なる方向で車両上に取り付けられた車両を開示する。車両は道路に沿って運転され、そしてビデオカメラそれぞれからの映像画像は記録される。各画像フレームは、各画像フレームと関連付けられた時間コードを有する。正確な空間位置データも、関連付けられた時間コードと共に、取得され、かつ記録される。空間位置データは、衛星航法システム(GPS)および慣性航法システム(INS)から取得される。GPSシステムは、車両内にGPS受信機、および公知の位置に設けられたGPSベースの受信機を含む。GPS衛星情報内に導入された誤差は、車両内のGPS受信機およびGPSベース受信機によって集められたGPSデータの差分処理によって排除される。INSは、一組の回転センサおよび加速センサを含み、そして、車両が緯度に沿って、経度に沿って、上昇するように、上下に(pitch)、回転して、および左右(yaw)移動するごとに、継続的に回転の変化および速度の変化を測定する。したがって、INSは、正確な位置読み取りがGPSシステムによって行われる位置と位置との間の六つの自由度を備えた生の異なる空間位置データを提供する。
【0003】
上述のナビゲーションデータの後処理において、Kalmanのフィルタリング技術が用いられて、バンの六つの自由度の軌跡を時間関数として計算する。この結果生じた軌跡は、すべてのナビゲーションデータの中で最も適した軌跡である。車両の六次元の空間位置データを時間コードでインデックス付けすることによって、このデータをそれぞれの記録された映像画像(これも時間コードによってインデックス付けされる)に相関させることが可能である。
【0004】
各カメラに関して、カメラの較正データも、生成され、そして測量処理において後に用いられるように格納される。カメラの較正データは、車両内のカメラの内部光ジオメトリおよびカメラ外部の六次元的位置の両方を十分に示すように意図される。内部アスペクトは、画像ピクセルとカメラ座標内で関連付けられた光線とを関連付ける。外部アスペクトは、カメラ座標内に規定された光線とグローバル座標内の光線とを関連付ける。これらの局面は両方、双方向に動作する。車両のナビゲーションデータの後処理およびカメラの較正の両方が完了した後、六次元のグローバル位置が各映像フレームに割り当てられ得る。空間データとカメラの較正データとの組み合わせを、本明細書において各フレームの画像パラメータと呼ぶ。画像パラメータが決定された後、画像は測量用に用いられる準備が整う。異なる位置から同じ対象のオブジェクト(単数または複数)を見る二つ以上のこのような画像を用いて測量を達成する。
【0005】
従来、空中測量は、ステレオ写真測量アプローチを用いて行われた。従来のステレオ写真技術の数学的計算は、ソース画像が共面の仮定から得られる画像位置の小さな偏差の修正項を用いてほぼ同じジオメトリック平面で撮られたという仮定に基づく。このようなアプローチは、解像度が高い(高い解像度は異常に大量のデータが格納されることを必要とする)デジタルカメラを用いることによって二つのカメラ間の比較的短いベース線を補償する必要がある。さらに、ステレオの写真測量アプローチにおいてしばしば行われる必要があるように、カメラから非常に遠い点またはオブジェクトの位置を計算する場合、オブジェクトの位置を計算する際に誤差が生じる可能性が非常に増加する。
【0006】
’946特許の一目的は、一般化された測量アプローチを用いて二つ以上の画像内に見られるオブジェクトの位置を決定することである。このアプローチにおいて、画像内のオブジェクトの位置は、画像内のジオメトリに関係なく、重複した場面を有する任意の二つ以上の画像から決定される。画像間のジオメトリに関係なく、全画像の重複ピクセルにこの概念を組織的に適用することが望ましい。しかし、複数の非共面画像によって生じる難しさは、画像が容易に相関されないことである。相関アルゴリズムは、画像データの大部分を検索して、第一の画像内のピクセルの中で、第二の画像内のピクセルに対応するピクセルを見つける必要がある。相関はステレオペアの画像上でより効率的に動作するように処理することが一般的に公知である。例えば、人間に見えるステレオペアにおいて、左の画像および右の画像における同じオブジェクト点は、両方の画像内の同じ水平線上にある。水平線に沿った横方向の位置ずれの差異は、画像の共面からオブジェクト点の距離によって変化する。
【0007】
(発明の簡単な要旨)
ステレオペアの人間の視野が質的である一方、ステレオペアで示唆される情報の深さに関する決定的な定量知識を有することも望ましい。さらに、人間の生理機能によって制約されない自動アルゴリズムはこのようなステレオペアのより広いクラスで動作し得る。このより広いクラスの変換された画像を定量円柱球面のステレオペア(QCSP)と呼ぶ。QCSPは対応するピクセルの線登録を保存する。
【0008】
本発明において、重複場面を有する記録された画像は、ジオメトリックな変換を用いてQCSPに変換される。上記QCSPは複数の異なるフォーマット、例えば、従来の人間の視野内のステレオペア、半径のステレオペアおよび一般的な場合の定量円柱球面のステレオペアをとり得る。上記QCSPは、種々の三次元の画像化処理、例えば、受動的な体積測量および三次元の視覚化の生成に用いられ得る。
【0009】
(詳細な説明)
(1.定量円柱球面(cylispheric)ステレオペア(QCSP)の生成)
測量プロセスの第一の工程は、画像データ、空間位置データおよびカメラの較正データを収集することである。このデータを収集した後、重複場面を有する二つの画像が識別される。二つの識別された画像は、異なるカメラからの画像であったり、または異なる時間点における同じカメラからの画像であり得る。二つの画像は共面である必要はない。二つの識別されたソース画像のそれぞれは、変換された画像または目標画像に変換される。この変換を「円柱球面」変換と呼ぶ。これは、円柱形の数学的構造および球形の数学的構造の両方を用いて画像を変換させるからである。二つの変換された画像はQCSPを含み、これにより、特定の点が両方のソース画像において見られる場合、点が変換された画像両方の同じ線上にある。円柱球面変換およびこの一般的な場合の出力をまず記述する。定量な半径のおよび従来のステレオペアは、円柱球面変換の別の出力フォーマットである。
【0010】
円柱球面変換は、正確な画像パラメータが存在する場合に最も有用である。画像パラメータ内の誤差により、オブジェクト点と関連付けられたピクセルが、不正確な水平および/または垂直のオフセットを有するようになり、このオフセットにおいて、ピクセルは変換された画像内に置かれる。したがって、誤差は相関ウィンドウを拡大させようとする傾向にあり、したがって、計算時間を浪費する。画像パラメータが正確であればあるほど、画像間で対応するピクセルの検索が狭くなる。すなわち、非常に正確な画像パラメータを用いると、対応するピクセルは、変換された画像の同じ線に見られる。位置情報の正確さが下がると、対応するピクセルは数本以上の線内に見られる。
【0011】
続いて、「カメラ位置」は、特定の画像が撮られた場合の六次元空間でのカメラの位置を示す。各画像の「画像パラメータ」はこの情報を含む。
【0012】
図1Aは、円柱球面変換で用いられる数学的構造をグラフィカルに示す。二つのカメラ位置(第一のカメラ位置14Aおよび第二のカメラ位置14B)を図1に示す。カメラ1の方向は軸20Aによって示され、カメラ2の方向は軸20Bによって示される。カメラ2は、実際には、カメラ1と同じであってもよいが、カメラを用いる位置および時間を異なって用いてもよい。カメラ位置14Aおよび14Bを通る軸12を有する円筒10は、平面18の360度のファン(fan)を規定する。平面18それぞれは、円筒10の軸12と交差する。角度「ベータ」は、基準面18Aに対して平面18それぞれの角回転を割り当てる。平面18の全部でないにしてもいくつかは、二つのソース画像それぞれの視野を通る。平面が視野にある場合、平面がその端部(edge−on)から見られるため、この平面は線に見える。ある画像と別の画像との間の対応するピクセルは同じ線に沿って生じる。これらの線は出力画像の水平線(すなわち、行)を規定する。
【0013】
第一の球体22Aは第一のカメラ位置14Aを中心とし、第二の球体22Bは第二のカメラ位置14Bを中心とする。円筒軸12と球体22の原点から始まる任意のベクトルとの間の角度を「アルファ」と呼ぶ。図1Aにおいて、第一のベクトル24は第一のカメラ位置14Aから空間内の点28まで引き伸ばされ、第二のベクトル26は第二のカメラ位置14Bから同じ点28まで引き伸ばされる。アルファ1(α1)は第一のベクトル24のアルファ値を示し、アルファ2(α2)は第二のベクトル26のアルファ値を示す。空間内の任意の点は二つのアルファ値および一つのベータ値を有する。不変のアルファ線はQCSP画像の垂直線(すなわち、列)を規定する。
【0014】
(アルファ、ベータ)の座標の対と関連付けられた明示的な長さはない。したがって、図1Aの球体22Aおよび22Bは、図1Bに示すような、無限の半径および一つの(アルファ、ベータ)座標システムを有する共通の球体であるとも考えられ得る。
【0015】
円柱球面変換の最終的な結果は、各カメラ位置14Aおよび14Bが、(1)円筒軸と位置が合わされた極軸、(2)出力画像の行に対応した経度線、および(3)出力画像の列に対応した緯度線によって、球のようなグリッドで囲まれる。このグリッド上へのソース画像の投影は、画像が出力画像にプロットされる図を示す。円柱球面変換は、回転動作以外のいずれの変換動作にも関与しない。円柱球面変換は二つのカメラ位置間の偏差ベクトルに固定される。したがって、視差の誤差は変換によって導入されない。
【0016】
図2は、本発明の円柱球面変換のフロー図を示す。プロセスの第一の工程は、円筒軸12を規定することである(ブロック50)。ベクトルは、第二のカメラ位置14Bから第一のカメラ位置14Aまでの線である。カメラ位置14は、格納された画像パラメータデータから決定される。格納された画像パラメータデータは、各画像に対して、ITRF地球中心、地球固定(earth−centered,earth−fixed)(ECEF)グローバル座標の変換データ、標準的な航空機の座標フォーマットの回転データ(回転、上下および左右)(図6参照)、および回転データに基づいて計算された3×3のオイラーマトリクス(すなわち、方向コサインマトリクス)(図7参照)を含む。
【0017】
円筒軸のベクトルは正規化されてユニットベクトルを生成する。次いで、円筒軸のユニットベクトルは、3×3の回転変換マトリクスの第三の列に割り当てられる(ブロック52)。
【0018】
変換の次の工程は、平均的なカメラのビュー方向を規定することである(ブロック54)。平均的なカメラのビュー方向は、第一の画像と関連付けられた方向(これは、大体、第一のカメラの外方への光軸の方向)コサインマトリクスの第一の列と、第二の画像と関連付けられた方向(これは、大体、第二のカメラの外方への光軸の方向)コサインマトリクスの第一の列とを合計して、そして結果生じるベクトルを正規化することによって計算される。
【0019】
次に、ベクトルは回転変換マトリクスの第二の列に割り当て(ブロック56)、このベクトルは円筒軸および平均ビュー方向の両方に垂直である。回転変換マトリクスの第三の列に割り当てられたベクトルは、正規化された円筒軸のベクトルと正規化された平均ビュー方向ベクトルとのクロス乗積から生じたベクトルである。結果生じたベクトルは、回転変換マトリクスの第三の列に割り当てられる前に正規化される。
【0020】
平均ビュー方向が円筒軸の近位にある場合、平均ビュー方向の代わりに「上」または「下」のベクトルを用いることが好適であり得る。さらに、円筒軸が垂直である場合、平均ビュー方向の代わりに「北」ベクトルを用いることが好適であり得る。
【0021】
回転変換マトリクスは、このマトリクスの第一の列にベクトルを割り当てることによって完成する(ブロック58)。マトリクスの第一の列に割り当てられたベクトルは、マトリクスの第二の列とマトリクスの第三の列とのクロス乗積から生じるベクトルである。完成した回転変換マトリクスは、グローバルECEF座標で示されたベクトルを回転させて、局所的な円柱球面のX座標、Y座標およびZ座標にする際に用いられる。次いで、アルファ値およびベータ値は、円柱球面のX座標、Y座標およびZ座標から計算され得る。
【0022】
以下のパラグラフにおいて、「光線」は、特定の点から始まるベクトルであり、そして、一方向にのみ延びる(すなわち、光線は方向付けられた線セグメントである)。
回転変換マトリクスが完成した後、変換された画像の視野が決定される(ブロック60)。視野の決定は、アルファ値およびベータ値の最小値および最大値を識別する工程を含む。アルファ値およびベータ値の最小値および最大値を識別する好適な方法は、各ソース画像のピクセルのサブセットを選択することである。画像のエッジを含む11×11のピクセルのグリッドは、良好であることが分かっている(したがって、121のピクセルがテストされた)。各ピクセルに対して、カメラ位置から外方に延びる対応する光線が生成される。光線はグローバルECEF座標で示される。アルファ値およびベータ値は各光線に対して計算される。光線に対応するアルファ値およびベータ値を計算する際、光線のグローバル座標は、回転変換マトリクスを用いて、円柱球面のX座標、Y座標およびZ座標に変換される。次いで、アルファ値およびベータ値は、円柱球面のX座標、Y座標およびZ座標から決定される。アルファ値およびベータ値は相互に比較されて、最小値および最大値を識別する。
【0023】
アルファ中央値およびベータ中央値は、アルファ値およびベータ値の最小値および最大値から計算される(ブロック62)。アルファ中央値はアルファ値の最小値と最大値とを加算して、この結果を2で除算することによって計算される。同様に、ベータ中央値はベータ値の最小値と最大値とを加算して、この結果を2で除算することによって計算される。アルファ中央値およびベータ中央値は、変換された画像(これは入力画像の視野全体をカバーする)の中央にある。
【0024】
アルファ値および/またはベータ値の範囲をテストして、従来の出力フォーマットまたは半径の出力フォーマットでの有用性を見ることが望ましい場合がある。例えば、アルファ値の範囲が正でも負でもない場合、対数目盛の半径のステレオ画像は出力され得ない。ベータ値の範囲が180度以上である場合、従来のステレオ画像は出力され得ない(これはブロック64において行われる)。
【0025】
アルファ値およびベータ値の最小値および最大値を、両方の画像の視野全体のサブセットにさらに制限することが望ましい場合がある。例えば、二つの画像の重複を制限することによって境界決めされた領域を用いてもよい。これはブロック66において行われる。
【0026】
QCSPの変換された画像の両方は同じ方向コサインマトリクスを有する。
【0027】
各出力画像に用いられるピクセル数は規定される(ブロック68)。選択されるピクセル数は、所望の水平出力解像度および垂直出力解像度に依存する。
【0028】
アルファおよびベータに対するステップ値(すなわち、増加値)が決定される(ブロック70)。ベータのステップ値は、出力画像の行数および出力画像の計算されたベータ値の範囲(すなわち、ベータ値の最大値からベータ値の最小値を減算した値)に基づくため、出力画像の各行は対応するベータ値を有する。同様に、アルファのステップ値は、出力画像の列数および出力画像の計算されたアルファ値の範囲(すなわち、アルファ値の最大値からアルファ値の最小値を減算した値)に基づくため、出力画像の各列は対応するアルファ値を有する。
【0029】
アルファ値およびベータ値のそれぞれの対に関して、対応する光線は円柱球面のX座標、Y座標およびZ座標で生成される(ブロック72)。次いで、光線は、回転変換を用いてグローバル座標に変換される。生成されたそれぞれの光線に対して、ソース画像それぞれを有する光線の交差点が決定される(ブロック74)。光線が交差したソース画像それぞれのピクセルは、光線を生成するために用いられたアルファ値およびベータ値の対応する目標画像にコピーされる。
【0030】
ソース画像の所与のピクセルと交差する光線を識別する場合や、または所与の光線が交差したピクセルを識別する場合、カメラの較正データが考慮される。ソース画像内の所与のピクセルと交差する光線を生成するには、入力ピクセルがカメラの座標システム内のベクトルに変換される。カメラの座標システムにおいて、X軸はレンズの中心から外を向き、Y軸は右を向き、そしてZ軸は下を向く。カメラ座標内のベクトルのX成分は1に設定される。Y成分は、正規化された水平ピクセル位置に水平の目盛係数を乗算して、次いで水平0点オフセットを加算することによって規定される。同様に、Z成分は、正規化された垂直ピクセル位置に垂直の目盛係数を乗算して、次いで垂直0点オフセットを加算することによって規定される。目盛係数および0点オフセットは測定されたカメラの較正パラメータに基づく。生成されたベクトルは歪みのない画像内の点を示す。半径の歪みはまず画像の中央から半径距離の点を計算することによって考慮される。半径距離は、生成されたベクトルのY成分およびZ成分を二乗し、これらの成分を加算し、そしてこの合計の二乗根を計算することによって計算される。半径距離は3次多項式の歪み修正アルゴリズムに入力される。3次多項式の歪み修正アルゴリズムは、歪みが修正された半径距離を出力する。好適な実施形態において、歪みが修正された半径距離は、入力半径距離を三乗し、この三乗した入力半径距離をカメラ特定の目盛歪み係数(scalar distortion factor)で乗算し、そして入力半径距離を加算することによって計算される。カメラ特定の歪み係数はカメラごとに異なり、カメラレンズによって生成された歪みの量に主に依存する。カメラの画像平面は、ピクセルレベルにおいて、比較的ほとんど歪みを有さない傾向にある。実験から、光軸からの半径距離に基づいた歪みの修正が良好に終了されることが分かっている。係数が一つのアプローチにより、カメラの較正に必要なデータ収集の複雑性およびサイズが減少する。次いで、歪みが無いベクトルは、ベクトルのY成分およびZ成分に、歪みが修正された半径距離と元々計算された半径距離との比を乗算することによって歪みが調整される。歪みが調整されたベクトルは、焦点面上の真の点を識別する。歪みが調整されたベクトルには、画像の方向コサインマトリクスが乗算されて、ベクトルをカメラ座標からグローバル座標に変換し、この結果、グローバル光線が生じる。
【0031】
カメラの較正データが考慮される別の状況は、所与の光線によって交差されるソース画像内のピクセルを識別する場合である。プロセスは、実質的に、上述のプロセスの逆(すなわち、所与のピクセルと交差する光線を生成するプロセス)である。しかし、重要な差異が一つある。ピクセルから開始する場合、このピクセルと交差する光線は常に生成され得る。逆に、光線から開始する場合、この光線はピクセルを交差する場合も交差しない場合もある。ピクセルが交差されない場合、適切な「失敗」フラグが設定されて、ピクセルが交差していないことを示す。
【0032】
所与の光線によって交差されるピクセルを識別する際の第一の工程は、正規化された光線に逆方向の画像のコサインマトリクスを乗算して、この光線をグローバル座標からXカメラ座標、Yカメラ座標およびZカメラ座標に変換することである。入力光線のY成分およびZ成分はそれぞれ、入力光線のX成分で除算されて、画像平面にあるベクトルを生成し、そして焦点面内の真の点を識別する。ベクトルのY成分およびZ成分は用いられて、画像中央からの半径距離の真の点を計算する。半径距離は、Y成分およびZ成分を二乗し、これらの成分を加算し、そしてこの合計の二乗根を計算することによって計算される。半径距離およびカメラ特定の歪み係数は、3次多項式の解を得るアルゴリズムに入力されて、一つの真の根に対する3次式の解を得る。3次式の解を得る技術は、Schaum’s Math Handbookなどの数学の教科書に記載される。アルゴリズムの解を得る3次多項式は歪みが修正された半径距離を出力する。正規化された水平ピクセル位置は、画像平面ベクトルのY成分に、歪みが修正された半径距離と元の半径距離との比を乗算し、次いで水平0点オフセットと水平目盛係数との比を減算することによって計算される。正規化された垂直のピクセル位置は、画像平面ベクトルのZ成分に、歪みが修正された半径距離と元の半径距離との比を乗算し、次いで垂直0点オフセットと垂直目盛係数との比を減算することによって計算される。
【0033】
円柱球面変換は三つの異なるモードで動作する。第三の最も一般的なモードの計算を上述してきた。モード1およびモード2は、有用な方法で水平ピクセル位置を調整する。モード1は、方向コサインマトリクスで用いられる角度を変更させ、出力画像の水平線間の空間における非線形的な増加を用いる。第一のモードにおいて、変換は、普通の人間の知覚を用いて見られ得そして解釈され得る「従来の」ステレオペアを生成する。第一のモードは、画像位置間のベクトルを概して横向きに見る画像に対してうまく機能する。第一のモードは、進行方向と位置が合わされた(すなわち、進行方向を指す)画像に対してはうまく機能しないが、第二のモードはこのような画像に対してうまく機能する。第二のモードにおいて、変換は「半径の」ステレオペアを生成する。第二のモードは、画像が進行方向と位置が合わされていない場合、うまく機能しない。第三のモードは、概して、共通の場面を共有する任意の対の画像に適用可能である。第三のモードにおいて、変換は「通常の場合の円柱球面」ステレオペアを生成する。モードの選択は入力画像の方向および所望の出力特徴に依存する。各種類のQCSPの実施例を以下の段落において説明する。
【0034】
(A. 従来のステレオペア)
図3Aおよび図3Bは、カメラを一つ備えたヘリコプターから撮られた画像を示し、カメラがヘリコプターのやや前方の地面の方を見下ろしている画像を示す。図3Cおよび図3Dはそれぞれ、図3Aおよび図3Bに示すソース画像から生成されたQCSPを示す。カメラはヘリコプターにボルト留めされ、ヘリコプターはその飛行経路に沿って、左右に移動、上下に移動、および回転するため、元の画像のフットプリントは位置が合わせられず、ステレオペアではない。カメラがヘリコプターのやや前方に向けられたため、元の画像のフットプリントは形状が長方形ではなく台形であった。QCSPの下位画像が長方形の重複領域をクロッピングしたことに留意されたい。このようなクロッピングは、特定の対象範囲(境界線上の任意のピクセルペアの範囲)を示唆する。
【0035】
モード1のQCSPを以下の方法で一般の場合から変更する。
【0036】
1.QCSPのベータ=0(すなわち、左右移動の角度)の選択が、任意でないにしてもやや柔軟であることに留意されたい。
【0037】
2.画像座標フレーム(ICF)をQCSP座標フレームに対して+90度回転する。(+Xは前、+Yは右、+Zは下に回転する)。
【0038】
3.従来のステレオペアをICFの+X軸に垂直の二つの共面平面上に投影する。
【0039】
4.ICF内の距離x=+Dにおける投影平面に関して、画像平面点(D、Y、Z)は以下によってアルファおよびベータに関連する。
ICFを−90度回転する場合:
ベータ=アークタンジェント(Z/D)
アルファ=アークタンジェント(Y*コサイン(ベータ)/D)
ICFを+90度回転する場合:
ベータ=アークタンジェント(Z/D)
アルファ=アークタンジェント(Y*コサイン(ベータ)/D)
5.典型的な入力画像の台形のフットプリント、およびカメラが円筒軸に対して垂直に見ない場合があるという点により、ソース画像の中央軸も出力画像の座標の中央軸も中心としない画像の重複エリアが生じる。したがって、モード1のQCSPのパラメータは、ステレオペアの座標フレームの原点から保存された合成画像のペアの中心への二次元のオフセット移動を含む。結果生じた利益により、人間の視野を損なうことなく、実際の画像サイズが減少し、そしてコンピュータ記憶装置が節約される。
【0040】
(B. 半径のステレオペア)
図4Aおよび図4Bは、車両の前方を向いたカメラを一つ備えた移動車両から撮られた二つのソース画像、および二つのソース画像の変換を示す。左上の角に示すソース画像(図4A)は、右上の角に示すソース画像(図4B)より後の時間に撮られた。各画像の変換をソース画像の下に示す。
【0041】
進行方向の周囲で水平の目盛(scaling)を、特に上手に、特に有用に選択することが用いられた。中心からの偏差の対数(すなわち、(90度−ABS(アルファ))のタンジェントの対数)を計算することによって、カメラの偏差の方向に垂直である標識などの平坦なオブジェクトは同じサイズを有する。ほとんどの高速道路の標識が車両の進行方向にほぼ垂直であるため、広く有用なクラスのステレオ相関が簡略化される。この機能を図4Cおよび図4Dに示す。進行方向に垂直のオブジェクトは両方の画像において同じサイズであり、これにより、変換された画像内で自動的に測量するために用いられる画像認識アルゴリズムの複雑性を減少させることが可能になる。例えば、図4Cおよび図4Dの変換された画像に示すように、道路を越えて延びた道路の標識は両方の画像において同じサイズである。アルファ=0の場合、対数は無限大になり、したがって、円筒軸の直接上の小さなエリアは変換から排除されることに留意されたい。排除されたエリアは、一つのピクセルのフラクションと同程度に小さく選択されたり、またはいくつかのピクセルと同程度に大きく選択され得る。範囲情報は進行軸の近位で品質が下がる。モード2およびモード3の合成ステレオペアは、人間の知覚には馴染みのないものであるが、モード1のステレオペアとのこれらの差異は自動画像相関アルゴリズムには分からない。
【0042】
(C.円柱球面ステレオペア)
図5Aおよび図5Bは、車両の右前方を向いたカメラを一つ備えた移動車両から撮られた二つのソース画像を示し、図5Cおよび図5Dは二つのソース画像の変換を示す。各画像(図5C、図5D)の変換をソース画像(図5A、図5B)の下に示す。図5Cおよび図5Dに示す円柱球面ステレオペアは内斜視のビュー用に設定される。
【0043】
(II. QCSPの相関および受動的な範囲の決定)
QCSPが生成された後、相関アルゴリズムがステレオペア上で動作し、画像間の対応したピクセルを識別する。共面から離れた画像を相関させることは困難である。例えば、人がオブジェクトに近づく方向に移動すると、オブジェクトは大きくなる。オブジェクトのサイズが画像ごとに変化するため、対応するピクセルの検索がより困難になる。上述したように非共面画像をQCSPにすることによって、検索が著しく簡略化される。本発明のQCSPにおいて、画像間の対応するピクセルは、同じ線上にあるかまたは互いの数本の線内にある。これにより、対応するピクセルの検索が狭い線形空間に限定されるため、相関プロセスの効率が顕著に増加する。従来のステレオペアと協働するアルゴリズムのような既存の相関アルゴリズムも、本発明のQCSPと共に用いられ得る。このようなアルゴリズムは、エッジ検出、パターン認識および他の技術によって対応するピクセルを識別する。
【0044】
対応するピクセルが識別された後、これらのピクセルの範囲が決定される。各ピクセルと関連付けられたアルファ値およびベータ値を用いて、円柱球面空間における二つの交差光線が計算される。光線の最も近いアプローチの交差点または点は、この点の円柱球面のX座標、Y座標およびZ座標である。次いで、この点は、回転されて、ユーザ定義の座標システム内に変換され得る。したがって、ピクセルの範囲が三角測量によって決定され得る。範囲決定プロセスによって、各ピクセルと関連付けられたX円柱球面座標、Y円柱球面座標およびZ円柱球面座標が生じる。好適な実施形態において、ITRF地球中心、地球固定(ECEF)座標が、X座標、Y座標およびZ座標に対して用いられる。ピクセルのX位置、Y位置およびZ位置が決定された後、ピクセルが体積エンティティになる。好適な実施形態において、コンピュータはQCSP内のピクセルに自動的に相関させ、そして三次元の視覚化モデルを生成する。
【0045】
(III.QCSP用のデータ構造)
QCSP画像は、好適には、十分なパラメトリック情報を含んで、場面における要素の三次元の定量的空間位置を識別し、そして仮想(例えば、三次元)オブジェクトを場面内に挿入することを可能にするために、画像を有用なツールにするデータ構造として保存される。仮想オブジェクトの挿入はモード1において特に有用であるため、提案された変更が行われた後、自然な方法で、人は既存の場面のコンテキストにおいて「物はどのように見るか」を見ることが可能である。QCSPのデータ構造により、三次元における定量情報のリアルタイムの抽出および挿入が可能になる。通常、合成の定量的なステレオペアの合成の間、ソース画像におけるモデル化された歪みが排除され、これにより、出力画像ジオメトリを記載するために歪みパラメータが必要でなくなる。
【0046】
好適な実施形態において、QCSPは標準的な24ビット/ピクセルのビットマップ画像(.BMP)として保存される。QCSPは、54バイトのヘッダを含み、この直後には、ピクセルデータ(ピクセルあたり3バイトでエンコードされる−−青/緑/赤)の継続的なストリームが続く。各画像の左下の角で開始して、ピクセルデータはそれぞれの水平行の画像に対して左から右に書き込まれ、行の最後は0バイトで埋められて、最も近い4バイトの境界線に切り上げられる。次の上の行がすぐに続く。QCSPにおいて、画像の低部における黒色のピクセルの一つ以上の余分な線は定量ヘッダデータを提供する。定量ヘッダデータはすぐに、標準的なビットマップヘッダに続く。定量ヘッダデータは、対応するピクセルの正確な三次元の地理的な位置決めを可能にする一組の式によって用いられる数の係数を含む。係数は、三次元の地理的な位置からピクセルペアの座標への逆変換にも用いられる。定量ヘッダ内の最後の入力は、テストのピクセルペアであり、提供された係数を用いて計算された、関連付けられたECEF座標である。
【0047】
合成ステレオ画像は、二つの右手側のユークリッドの座標システムを用いる。これらの座標システムは、(1)ステレオペア内部の座標システム、および(2)ステレオペア外部の座標システムである。ステレオペア外部の座標システムはECEF座標を用いる。回転変換は用いられて、ステレオペアの内部座標システムと外部のECEF座標との間で変換される。
【0048】
本発明を好適な実施形態に関して説明したが、当業者であれば、本発明の意図および範囲から逸脱することなく、形態および詳細の変更が行われ得ることを理解する。
【図面の簡単な説明】
【図1A】 図1Aは、本発明の円柱球面変換において用いられる数学的構造をグラフィカルに示す。
【図1B】 図1Bは、図1Aの二つの球体が、無限の半径および一つの座標システムを有する共通の球体としていかに示され得るかを示す。
【図2】 図2は、本発明の円柱球面変換のフロー図を示す。
【図3】 図3Aは、カメラを一つ備えたヘリコプターから撮られた画像を示し、ヘリコプターのやや前方の地面の方を見下ろしている画像を示す。
図3Bは、カメラを一つ備えたヘリコプターから撮られた画像を示し、ヘリコプターのやや前方の地面の方を見下ろしている画像を示す。
図3Cは、図3Aおよび図3Bに示すソース画像から生成されたQCSP(これは人間に見えるステレオペアの画像である)を示す。
図3Dは、図3Aおよび図3Bに示すソース画像から生成されたQCSP(これは人間に見えるステレオペアの画像である)を示す。
【図4】 図4Aは、車両の前方に向けられたカメラを一つ備えた移動車両から撮られた二つのソース画像を示す。
図4Bは、車両の前方を向いたカメラを一つ備えた移動車両から撮られた二つのソース画像を示す。
図4Cは、水平軸上に対数目盛を用いて二つのソース画像を正確な半径のステレオペアにする変換を示す。
図4Dは、水平軸上に対数目盛を用いて二つのソース画像を正確な半径のステレオペアにする変換を示す。
【図5】 図5Aは、車両の右前方に向けられたカメラを一つ備えた移動車両から撮られた二つのソース画像を示す。
図5Bは、車両の右前方に向けられたカメラを一つ備えた移動車両から撮られた二つのソース画像を示す。
図5Cは、円柱球面画像目盛を用いた、二つのソース画像の変換を示す。
図5Dは、円柱球面画像目盛を用いた、二つのソース画像の変換を示す。
【図6】 図6は、飛行シミュレーションの座標を示す図である。
【図7】 図7は、オイラー変換を示す。
Claims (23)
- 記録画像を処理する方法であって、
カメラの光学中心およびカメラの方向に関連付けられた記録画像であって、重複場面を表すピクセルを有する一対の記録画像を選択する工程A1と、
前記一対の記録画像を変換する工程であって、変換後の前記一対の記録画像である一対の変換後画像内において、共通の場面のオブジェクト点に対応するピクセルが、対応する水平線内に配置されるように、前記一対の記録画像を変換する工程A2と、
前記工程A2による前記一対の変換後画像を用いて画像相関を実行する工程A3と、
を含み、
前記工程A2は、
前記一対の記録画像に共通の球面座標系であって、前記一対の記録画像に対応するカメラの光学中心を通る線に平行な極軸を有する球面座標系を定める工程A21と、
前記一対の記録画像が有するピクセルを、前記共通の球面座標系を用いて変換し、前記ピクセルの各行が、経度β一定のラインに示され、前記ピクセルの各列が、緯度α一定のラインに示される前記一対の変換後画像を生成する工程A22と、
を含むこと
を特徴とする方法。 - 各記録画像は、自己に関連付けられたデータとして、この画像を生成したカメラの空間位置および方向を識別するためのデータを有し、
前記一対の記録画像を変換する工程A2は、前記関連付けられたデータに基づくものであることを特徴とする請求項1に記載の方法。 - 前記一対の記録画像を変換する工程A2は、前記関連付けられたデータおよび前記カメラの較正パラメータに基づいてジオメトリックな変換を用いるものであることを特徴とする請求項2に記載の方法。
- 前記画像相関によって識別された前記一対の変換後画像内の対応するピクセルの範囲を決定する工程をさらに含むことを特徴とする請求項1に記載の方法。
- 前記範囲に基づいて、各ピクセルのグローバル位置を決定する工程をさらに含むことを特徴とする請求項4に記載の方法。
- 前記画像相関に基づいて、三次元の視覚化モデルを生成する工程をさらに含むことを特徴とする請求項1に記載の方法。
- 前記工程A22は、
グローバル座標系と前記共通する球面座標系との間の変換則を規定する工程と、
前記一対の変換後画像のピクセルを規定する前記共通の球面座標系において、第一の組の光線および第二の組の光線を生成する工程と、
前記第一の組の光線および前記第二の組の光線を、個別のカメラの座標系に変換する工程と、
前記カメラの座標系において前記第一の組の光線および前記第二の組の光線が交差した前記一対の記録画像のピクセルで、前記一対の変換後画像を生成する工程と、
を含むことを特徴とする請求項1に記載の方法。 - 各光線は、前記共通の球面座標系ならびに角度αおよび角度βによって規定され、
前記角度αは、前記極軸に対する前記光線の角度であり、
前記角度βは、前記極軸を通る基準面に対する前記光線および前記極軸によって規定された平面の角度であることを特徴とする請求項7に記載の方法。 - 画像データを処理する方法であって、
第一の画像データおよび第一のカメラ位置のデータを保存する工程B1と、
第二の画像データおよび第二のカメラ位置のデータを保存する工程B2と、
前記第一のカメラ位置のデータおよび前記第二のカメラ位置のデータに基づいて、前記第一の画像データおよび前記第二の画像データをジオメトリックに変換し、それぞれの変換後の画像データである第一の変換後画像データおよび第二の変換後画像データを生成する工程B3と、
前記第一の変換後画像データおよび前記第二の変換後画像データを用いて画像相関を実行する工程B4と
を含み、
前記工程B3は、
前記第一のカメラ位置のデータおよび前記第二のカメラ位置のデータに基づいて、共通の球面座標系における極軸を定める工程B31と、
前記極軸および前記共通の球面座標系に基づいて、グローバル座標系と前記共通の球面座標系との間の変換に用いる回転変換行列を規定する工程B32と、
前記共通の球面座標系において、前記第一の変換後画像データのピクセルを規定する第一の組の光線および前記第二の変換後画像データのピクセルを規定する第二の組の光線を生成する工程B33と、
前記第一の組の光線および前記第二の組の光線を、前記第一の画像データおよび前記第二の画像データに関連する座標系に変換する工程B34と、
前記第一の組の光線および前記第二の組の光線が交差する前記第一の画像データおよび前記第二の画像データ内のピクセルに基づいて、前記第一の変換後画像データおよび前記第二の変換後画像データを生成する工程B35と、
を含むことを特徴とする方法。 - 前記共通の球面座標系は、前記極軸上の点を中心とする第一の球体および前記極軸上の点を中心とする第二の球体に対応する半径無限の座標系であり、
前記第一の球体は、前記第一のカメラ位置を中心とすることを特徴とする請求項9に記載の方法。 - 前記第二の球体は、前記第二のカメラ位置を中心とすることを特徴とする請求項10に記載の方法。
- 各光線は、角度αおよび角度βによって規定され、
前記角度αは、前記極軸に対する前記光線の角度であり、
前記角度βは、前記極軸を通る基準面に対する前記光線および前記極軸によって規定された平面の角度であることを特徴とする請求項9に記載の方法。 - 前記画像相関によって識別された前記第一の変換後画像データおよび前記第二の変換後画像データ内の対応するピクセルの範囲を決定する工程をさらに含むことを特徴とする請求項9に記載の方法。
- 前記範囲に基づいて、各ピクセルのグローバル位置を決定する工程をさらに含むことを特徴とする請求項13に記載の方法。
- 前記画像相関に基づいて、三次元の視覚化モデルを生成する工程をさらに含むことを特徴とする請求項9に記載の方法。
- 記録された画像を処理する方法であって、
重複場面を有する第一の記録画像および第二の記録画像を選択する工程と、
前記第一の記録画像に関連付けられた第一のカメラ位置と前記第二の記録画像に関連付けられた第二のカメラ位置とを結ぶ線に平行な極軸を有する共通の球面座標系を定める工程と、
前記第一のカメラ位置から始まる第一の組の光線および前記第二のカメラ位置から始まる第二の組の光線のそれぞれを生成する工程であって、各光線を、前記極軸に対する前記光線の緯度である角度α、ならびに、前記極軸を通る基準面に対する前記光線および前記極軸によって規定された平面の経度である角度βで規定する工程と、
前記第一の記録画像および前記第二の記録画像に関するグローバル座標系と、前記共通の球面座標系との間の変換則を規定する工程と、
前記第一の組の光線および前記第二の組の光線を、前記共通の球面座標系から個別のカメラの座標系に変換する工程と、
前記第一の組の光線に交差する第一の記録画像のピクセルで、第一の変換後画像を生成する工程と、
前記第二の組の光線に交差する第二の記録画像のピクセルで、第二の変換後画像を生成する工程と、
を含み、
前記第一の変換後画像および前記第二の変換後画像の夫々において、前記ピクセルの各行は、前記経度β一定のラインに示され、前記ピクセルの各列は、前記緯度α一定のラインに示されることを特徴とする方法。 - 前記第一の変換後画像および前記第二の変換後画像を用いて画像相関を実行する工程をさらに含むことを特徴とする請求項16に記載の方法。
- 前記画像相関を用いて、前記第一の変換後画像および前記第二の変換後画像内の対応するピクセルの位置を決定する工程をさらに含むことを特徴とする請求項17に記載の方法。
- 前記第一の変換後画像および前記第二の変換後画像を用いて、三次元のモデルを生成する工程をさらに含むことを特徴とする請求項16に記載の方法。
- 前記第一の組の光線および前記第二の組の光線に対する光線方向の刻みを決定する工程をさらに含むことを特徴とする請求項16に記載の方法。
- 前記光線方向の刻みは、一定距離刻みのアークタンジェントによるものであることを特徴とする請求項20に記載の方法。
- 前記光線方向の刻みは、角度αのタンジェントの対数によるものであることを特徴とする請求項20に記載の方法。
- 前記光線方向の刻みは、一定角度刻みによるものであることを特徴とする請求項20に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17344099P | 1999-12-29 | 1999-12-29 | |
US60/173,440 | 1999-12-29 | ||
PCT/US2000/035591 WO2001048683A1 (en) | 1999-12-29 | 2000-12-29 | Any aspect passive volumetric image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003519421A JP2003519421A (ja) | 2003-06-17 |
JP4685313B2 true JP4685313B2 (ja) | 2011-05-18 |
Family
ID=22632044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001549261A Expired - Fee Related JP4685313B2 (ja) | 1999-12-29 | 2000-12-29 | 任意の局面の受動的な体積画像の処理方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US7233691B2 (ja) |
EP (1) | EP1242966B1 (ja) |
JP (1) | JP4685313B2 (ja) |
AU (1) | AU2464101A (ja) |
CA (1) | CA2395257C (ja) |
WO (1) | WO2001048683A1 (ja) |
Families Citing this family (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6603885B1 (en) * | 1998-04-30 | 2003-08-05 | Fuji Photo Film Co., Ltd. | Image processing method and apparatus |
US6895126B2 (en) | 2000-10-06 | 2005-05-17 | Enrico Di Bernardo | System and method for creating, storing, and utilizing composite images of a geographic location |
US7424133B2 (en) | 2002-11-08 | 2008-09-09 | Pictometry International Corporation | Method and apparatus for capturing, geolocating and measuring oblique images |
FR2897163B1 (fr) * | 2006-02-08 | 2008-04-11 | Thales Sa | Procede de geo-localisation d'une ou plusieurs cibles |
US20100245571A1 (en) * | 2006-04-24 | 2010-09-30 | Northrop Grumman Corporation | Global hawk image mosaic |
US7873238B2 (en) | 2006-08-30 | 2011-01-18 | Pictometry International Corporation | Mosaic oblique images and methods of making and using same |
WO2008054217A1 (en) * | 2006-11-03 | 2008-05-08 | Tele Atlas B.V. | Method and apparatus for identification and position determination of planar objects in images |
US8593518B2 (en) * | 2007-02-01 | 2013-11-26 | Pictometry International Corp. | Computer system for continuous oblique panning |
US8520079B2 (en) * | 2007-02-15 | 2013-08-27 | Pictometry International Corp. | Event multiplexer for managing the capture of images |
US8078436B2 (en) | 2007-04-17 | 2011-12-13 | Eagle View Technologies, Inc. | Aerial roof estimation systems and methods |
US8145578B2 (en) | 2007-04-17 | 2012-03-27 | Eagel View Technologies, Inc. | Aerial roof estimation system and method |
US8385672B2 (en) * | 2007-05-01 | 2013-02-26 | Pictometry International Corp. | System for detecting image abnormalities |
US9262818B2 (en) | 2007-05-01 | 2016-02-16 | Pictometry International Corp. | System for detecting image abnormalities |
US7991226B2 (en) | 2007-10-12 | 2011-08-02 | Pictometry International Corporation | System and process for color-balancing a series of oblique images |
US8531472B2 (en) * | 2007-12-03 | 2013-09-10 | Pictometry International Corp. | Systems and methods for rapid three-dimensional modeling with real façade texture |
US8675068B2 (en) | 2008-04-11 | 2014-03-18 | Nearmap Australia Pty Ltd | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
US8497905B2 (en) | 2008-04-11 | 2013-07-30 | nearmap australia pty ltd. | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
CA2721675A1 (en) * | 2008-04-18 | 2009-10-22 | Tele Atlas B.V. | Method of using laser scanned point clouds to create selective compression masks |
US8634593B2 (en) * | 2008-04-24 | 2014-01-21 | GM Global Technology Operations LLC | Pixel-based texture-less clear path detection |
US8917904B2 (en) * | 2008-04-24 | 2014-12-23 | GM Global Technology Operations LLC | Vehicle clear path detection |
US8452053B2 (en) * | 2008-04-24 | 2013-05-28 | GM Global Technology Operations LLC | Pixel-based texture-rich clear path detection |
US8803966B2 (en) | 2008-04-24 | 2014-08-12 | GM Global Technology Operations LLC | Clear path detection using an example-based approach |
US8751154B2 (en) | 2008-04-24 | 2014-06-10 | GM Global Technology Operations LLC | Enhanced clear path detection in the presence of traffic infrastructure indicator |
US8155433B2 (en) * | 2008-07-10 | 2012-04-10 | Goodrich Corporation | Method of object location in airborne imagery using recursive quad space image processing |
GB2461912A (en) * | 2008-07-17 | 2010-01-20 | Micron Technology Inc | Method and apparatus for dewarping and/or perspective correction of an image |
US8588547B2 (en) | 2008-08-05 | 2013-11-19 | Pictometry International Corp. | Cut-line steering methods for forming a mosaic image of a geographical area |
US8170840B2 (en) | 2008-10-31 | 2012-05-01 | Eagle View Technologies, Inc. | Pitch determination systems and methods for aerial roof estimation |
US8209152B2 (en) | 2008-10-31 | 2012-06-26 | Eagleview Technologies, Inc. | Concurrent display systems and methods for aerial roof estimation |
US8401222B2 (en) | 2009-05-22 | 2013-03-19 | Pictometry International Corp. | System and process for roof measurement using aerial imagery |
US9330494B2 (en) * | 2009-10-26 | 2016-05-03 | Pictometry International Corp. | Method for the automatic material classification and texture simulation for 3D models |
US9097532B2 (en) * | 2010-01-20 | 2015-08-04 | Honeywell International Inc. | Systems and methods for monocular airborne object detection |
WO2011094760A2 (en) * | 2010-02-01 | 2011-08-04 | Eagle View Technologies | Geometric correction of rough wireframe models derived from photographs |
US8477190B2 (en) | 2010-07-07 | 2013-07-02 | Pictometry International Corp. | Real-time moving platform management system |
US8823732B2 (en) | 2010-12-17 | 2014-09-02 | Pictometry International Corp. | Systems and methods for processing images with edge detection and snap-to feature |
MX339356B (es) | 2011-06-10 | 2016-05-17 | Pictometry Int Corp | Sistema y metodo para formar una secuencia de video que contiene datos de gis en tiempo real. |
US8774525B2 (en) | 2012-02-03 | 2014-07-08 | Eagle View Technologies, Inc. | Systems and methods for estimation of building floor area |
US10515414B2 (en) | 2012-02-03 | 2019-12-24 | Eagle View Technologies, Inc. | Systems and methods for performing a risk management assessment of a property |
US10663294B2 (en) | 2012-02-03 | 2020-05-26 | Eagle View Technologies, Inc. | Systems and methods for estimation of building wall area and producing a wall estimation report |
US9599466B2 (en) | 2012-02-03 | 2017-03-21 | Eagle View Technologies, Inc. | Systems and methods for estimation of building wall area |
US9933257B2 (en) | 2012-02-03 | 2018-04-03 | Eagle View Technologies, Inc. | Systems and methods for estimation of building wall area |
US8953024B2 (en) * | 2012-02-21 | 2015-02-10 | Intellectual Ventures Fund 83 Llc | 3D scene model from collection of images |
US9183538B2 (en) | 2012-03-19 | 2015-11-10 | Pictometry International Corp. | Method and system for quick square roof reporting |
EP2904417A1 (en) * | 2012-09-27 | 2015-08-12 | Metaio GmbH | Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image |
US9214025B2 (en) * | 2012-11-30 | 2015-12-15 | Adobe Systems Incorporated | Depth estimation using normalized displacement of image pairs |
US9240048B2 (en) | 2012-11-30 | 2016-01-19 | Adobe Systems Incorporated | Depth estimation using three-dimensional epipolar data structures |
US9881163B2 (en) | 2013-03-12 | 2018-01-30 | Pictometry International Corp. | System and method for performing sensitive geo-spatial processing in non-sensitive operator environments |
US9244272B2 (en) | 2013-03-12 | 2016-01-26 | Pictometry International Corp. | Lidar system producing multiple scan paths and method of making and using same |
US9275080B2 (en) | 2013-03-15 | 2016-03-01 | Pictometry International Corp. | System and method for early access to captured images |
US11587176B2 (en) | 2013-03-15 | 2023-02-21 | Eagle View Technologies, Inc. | Price estimation model |
US10909482B2 (en) | 2013-03-15 | 2021-02-02 | Pictometry International Corp. | Building materials estimation |
US9753950B2 (en) | 2013-03-15 | 2017-09-05 | Pictometry International Corp. | Virtual property reporting for automatic structure detection |
US9959581B2 (en) | 2013-03-15 | 2018-05-01 | Eagle View Technologies, Inc. | Property management on a smartphone |
AU2015204838B2 (en) | 2014-01-10 | 2020-01-02 | Pictometry International Corp. | Unmanned aircraft structure evaluation system and method |
US9292913B2 (en) | 2014-01-31 | 2016-03-22 | Pictometry International Corp. | Augmented three dimensional point collection of vertical structures |
WO2015120188A1 (en) | 2014-02-08 | 2015-08-13 | Pictometry International Corp. | Method and system for displaying room interiors on a floor plan |
GB201407643D0 (en) | 2014-04-30 | 2014-06-11 | Tomtom Global Content Bv | Improved positioning relatie to a digital map for assisted and automated driving operations |
US9745083B2 (en) * | 2015-04-01 | 2017-08-29 | Worldvu Satellites Limited | Method for thermal stabilization of a communications satellite |
CN107850445B (zh) | 2015-08-03 | 2021-08-27 | 通腾全球信息公司 | 用于生成及使用定位参考数据的方法及*** |
EP3403050A4 (en) | 2016-02-15 | 2019-08-21 | Pictometry International Corp. | AUTOMATED SYSTEM AND METHOD OF CHARACTERIZATION EXTRACTION |
US10671648B2 (en) | 2016-02-22 | 2020-06-02 | Eagle View Technologies, Inc. | Integrated centralized property database systems and methods |
US10628802B2 (en) | 2016-05-19 | 2020-04-21 | Lockheed Martin Corporation | Systems and methods for assessing damage to infrastructure assets |
US10032267B2 (en) | 2016-06-09 | 2018-07-24 | Lockheed Martin Corporation | Automating the assessment of damage to infrastructure assets |
US10503843B2 (en) | 2017-12-19 | 2019-12-10 | Eagle View Technologies, Inc. | Supervised automatic roof modeling |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4754327A (en) * | 1987-03-20 | 1988-06-28 | Honeywell, Inc. | Single sensor three dimensional imaging |
WO1990016037A1 (en) * | 1989-06-20 | 1990-12-27 | Fujitsu Limited | Method for measuring position and posture of object |
JP3107929B2 (ja) * | 1992-10-22 | 2000-11-13 | キヤノン株式会社 | 複眼撮像装置 |
US5680474A (en) * | 1992-10-27 | 1997-10-21 | Canon Kabushiki Kaisha | Corresponding point extraction method for a plurality of images |
JPH0719832A (ja) | 1993-06-21 | 1995-01-20 | Canon Inc | 複数画像の対応点抽出方法 |
US5937015A (en) | 1994-01-11 | 1999-08-10 | Dent; Paul W. | Interference mitigation by joint decoding of overlapped signals |
CA2190596C (en) * | 1994-05-19 | 2002-03-26 | Theodore M. Lachinski | Method for collecting and processing visual and spatial position information |
US5963247A (en) | 1994-05-31 | 1999-10-05 | Banitt; Shmuel | Visual display systems and a system for producing recordings for visualization thereon and methods therefor |
US5703961A (en) | 1994-12-29 | 1997-12-30 | Worldscape L.L.C. | Image transformation and synthesis methods |
US5644651A (en) | 1995-03-31 | 1997-07-01 | Nec Research Institute, Inc. | Method for the estimation of rotation between two frames via epipolar search for use in a three-dimensional representation |
US6084979A (en) | 1996-06-20 | 2000-07-04 | Carnegie Mellon University | Method for creating virtual reality |
DE19636028C1 (de) | 1996-09-05 | 1997-11-20 | Daimler Benz Ag | Verfahren zur Stereobild-Objektdetektion |
US6064760A (en) | 1997-05-14 | 2000-05-16 | The United States Corps Of Engineers As Represented By The Secretary Of The Army | Method for rigorous reshaping of stereo imagery with digital photogrammetric workstation |
US6011863A (en) | 1997-06-12 | 2000-01-04 | Nec Research Institute, Inc. | Cylindrical rectification to minimize epipolar distortion |
US6078701A (en) | 1997-08-01 | 2000-06-20 | Sarnoff Corporation | Method and apparatus for performing local to global multiframe alignment to construct mosaic images |
US6157747A (en) | 1997-08-01 | 2000-12-05 | Microsoft Corporation | 3-dimensional image rotation method and apparatus for producing image mosaics |
-
2000
- 2000-12-29 CA CA2395257A patent/CA2395257C/en not_active Expired - Fee Related
- 2000-12-29 AU AU24641/01A patent/AU2464101A/en not_active Abandoned
- 2000-12-29 WO PCT/US2000/035591 patent/WO2001048683A1/en active Application Filing
- 2000-12-29 EP EP00988431A patent/EP1242966B1/en not_active Expired - Lifetime
- 2000-12-29 US US10/168,811 patent/US7233691B2/en not_active Expired - Lifetime
- 2000-12-29 JP JP2001549261A patent/JP4685313B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CA2395257A1 (en) | 2001-07-05 |
CA2395257C (en) | 2013-04-16 |
AU2464101A (en) | 2001-07-09 |
US20020191838A1 (en) | 2002-12-19 |
JP2003519421A (ja) | 2003-06-17 |
EP1242966A4 (en) | 2007-01-31 |
US7233691B2 (en) | 2007-06-19 |
WO2001048683A1 (en) | 2001-07-05 |
EP1242966A1 (en) | 2002-09-25 |
EP1242966B1 (en) | 2012-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4685313B2 (ja) | 任意の局面の受動的な体積画像の処理方法 | |
US8315477B2 (en) | Method and apparatus of taking aerial surveys | |
KR100912715B1 (ko) | 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치 | |
Teller et al. | Calibrated, registered images of an extended urban area | |
US7873240B2 (en) | Method for analyzing geographic location and elevation data and geocoding an image with the data | |
US20230351625A1 (en) | A method for measuring the topography of an environment | |
WO2008103804A2 (en) | Iterative region-based automated control point generation | |
CN110986888A (zh) | 一种航空摄影一体化方法 | |
EP0892911A1 (en) | Methods and apparatus for using image data to determine camera location and orientation | |
US20220276046A1 (en) | System and method for providing improved geocoded reference data to a 3d map representation | |
CN115830116A (zh) | 一种鲁棒视觉里程计方法 | |
AU2013260677B2 (en) | Method and apparatus of taking aerial surveys | |
US11776148B1 (en) | Multi-view height estimation from satellite images | |
Tan et al. | Novel framework for producing multi-scale and multi-viewpoint images based on remote sensing stereopair |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071221 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071221 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20071221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100713 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20101013 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20101020 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20101115 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20101122 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110118 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110210 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140218 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |