JP4890465B2 - 同じ焦点面内で取得された画像の対から得られる画像の自動ジオリファレンシングを使用して画像を処理する方法 - Google Patents

同じ焦点面内で取得された画像の対から得られる画像の自動ジオリファレンシングを使用して画像を処理する方法 Download PDF

Info

Publication number
JP4890465B2
JP4890465B2 JP2007546074A JP2007546074A JP4890465B2 JP 4890465 B2 JP4890465 B2 JP 4890465B2 JP 2007546074 A JP2007546074 A JP 2007546074A JP 2007546074 A JP2007546074 A JP 2007546074A JP 4890465 B2 JP4890465 B2 JP 4890465B2
Authority
JP
Japan
Prior art keywords
pair
digital
image
model
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007546074A
Other languages
English (en)
Other versions
JP2008524684A (ja
Inventor
エレーヌ、バドン
クリストフ、ラトリ
Original Assignee
サントル、ナショナル、デチュード、スパシアル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サントル、ナショナル、デチュード、スパシアル filed Critical サントル、ナショナル、デチュード、スパシアル
Publication of JP2008524684A publication Critical patent/JP2008524684A/ja
Application granted granted Critical
Publication of JP4890465B2 publication Critical patent/JP4890465B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Image Processing (AREA)
  • Wire Bonding (AREA)
  • Mechanical Coupling Of Light Guides (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明の分野は、遠隔画像取得の分野、特に、地上でまたは衛星により送信される画像を取得する分野である。より詳細には、本発明は画像の遠隔取得を自動的にジオリファレンスするための方法に関し、このことは、本発明が、地理的座標または地図座標により決定される位置を画像の遠隔取得のための要素と自動的に関連付けるために使用される方法に関するものであることを意味している。
遠隔的に取得された画像は、シーンと呼ばれる地上の領域の3次元の空間的にサンプリングされた表示を供給する。これは、遠隔的に取得された各デジタル値がサンプリンググリッドの各点に中心付けられた地上の小さな領域を表わしているという表示である。
遠隔的に取得された画像アプリケーションの大部分は、ライン数およびカラム数によって規定される画像構成中の座標と地上の地理的座標または地図座標と間の幾何学的関係を確立するジオリファレンシングと呼ばれる方法を必要とする。
地理的座標系において緯度および経度に換算して表わされ且つ投影地図系においてメートルで表わされるライン・カラム画像座標と地上座標との間の対応は、取得時に地球のモデルを使用して、画像を取得するイメージングシステムのセンサを構成する検出器の視野方向の交わりを計算することにより決定される。
この場合、この計算は、情報の2つのカテゴリーを必要とする。
第1の情報カテゴリーは、ピクチャ(写真)の幾何学的構成の知識に関係している。これは、センサの特性(機器特性)、キャリアの位置、速度、姿勢によって決定され、その場合、後者は、ロール、ピッチ、ヨー(roll, pitch and yaw)の角度である。ピクチャの幾何学的構成は、幾何学的サンプリングによって形成され且つ一般に画像と共に配信される幾何学的モデルを通じてユーザに知られている。このモデルは、焦点面のサンプリングが欠如しているため、また、姿勢データのサンプリングおよびフィルタリングに起因して、常に精度が限られている。
第2の情報カテゴリーは、地球の高度モデルの知識に関係している。後者は、楕円によって、あるいは、シーンが位置される領域の高度モデル、より詳細にはデジタル地形モデル(DTM)によって概算することができる。これは、検討中の地理領域の勾配およびレリーフパラメータを含む高度のデジタル表示として規定される。
そのような情報を任意の精度で入手することは、実際にはかなり例外的である。センサによって得られる原画像は、正確な態様で直接にジオリファレンスすることができない。これは、それらの原画像が完全にモデリングされていない広範囲の或いは局所的な変形を含んでいるからである。例えば、ピクチャ光学の不完全な知識、イメージングシステムの未知の動き、観測区域内のレリーフの知識の不正確さに起因する変形について言及することができる。
遠隔的に取得された画像を幾何学的に補正してジオリファレンスすることが望ましい場合には、主に制御点と呼ばれる特定数の点の知識または既にジオリファレンスされた他の遠隔画像取得の知識となり得る更なる情報を要求する必要がある。
したがって、遠隔的に取得された画像を補正してジオリファレンスするために使用される第1の既知の技術は、画像内および地上の両方で識別できる制御点の検索すなわち座標に関しては位置決め点の検索に依存している。利用可能な場合に局所的なレリーフの知識(DTMから)を用いると、これらの点を使用して、遠隔的に取得された画像の幾何学的なピクチャモデルが精緻化され、それにより、それを地上に投影することができるとともに、それをジオリファレンスすることができる。
地上へ投影すると、利用可能な制御点の数および画像内でのそれらの分布の均一性に伴って精度が向上する。
制御点選択処理は、一般に、道路の交差点、建物、フィールドの角などの明確で正確な点を使用する。
殆どの場合、選択は地図から行なわれる。地図を利用できない場合、または、地図の精度が不十分である場合には、従来の測地法によって或いはグローバル・ポジショニング・システム(GPS)を使用して制御点を見つけることに頼らなければならない。
したがって、制御点の選択は部分的に或いは全体的に手作業である。これは、ジオリファレンシングプロセスへのエラーの導入を回避するために非常に経験豊かなオペレータおよび多大な注意を要する非常に長く費用のかかる作業である。
遠隔的に取得された画像を補正してジオリファレンスし且つ手動プロセスを回避するために使用される第2の既知の技術は、既にジオリファレンスされた画像から抽出される特定数のサムネイル画像の使用に依存している。
この場合、制御点の検索が、ジオリファレンスされるべき画像と既にジオリファレンスされたサムネイル画像との間の有効点の検索に置き換えられ、それにより、ジオリファレンシング処理を自動化できるという利点が得られる。
ここで、この技術は、地球の表面の大部分を覆う画像またはサムネイル画像のデータベースを所有しているということ、および、このベースを画像処理の殆どのユーザが利用できるということを前提としている。現在のところ、そのようなデータベースは、あるとすれば、自由にアクセスすることができない。
また、そのようなデータベースの構築は複雑で且つ極めて高価な作業である。
更に、そのような参照ベースを使用する場合には、画像の大きな季節変化が、ジオリファレンスされるべき画像と基準画像との間の有効点の検索を複雑にする時間的相関関係の欠如をもたらす。
この本発明の1つの目的は、画像のジオリファレンシングを達成し且つ特に画像のデータベースまたは既にジオリファレンスされたサムネイル画像に依存しない画像の完全自動ジオリファレンシングを可能にするという点で従前の技術およびそれらの欠点とは異なる画像処理システムを提案することである。
本発明の他の目的は、CCD(電荷結合素子)センサにより或いはTDI(時間遅延積分)マトリクスにより取得され且つ分解能およびスペクトル帯域幅が異なってもよい画像対であって、同じ焦点面に属し、したがって小さいステレオ視ベースを用いた構成で配置される画像対から完全に自動で画像をジオリファレンスする方法を提供することである。
地上の各点におけるステレオ視係数b/hは、地上でこの点を画像化した空間内の2つの点間の距離bと、空間内のこれらの点と観測シーンの点との間の距離hとの間の比率である。小さいステレオ視ベース構成は、一般に0.3よりも小さいステレオ視比率b/hとして規定される。
この本発明の他の目的は、ジオリファレンシングプロセスにおいて、b/hが低い立体鏡の特徴である画像アーチファクト、すなわち、モデリングされていない姿勢振動により生じる残余を克服することである。姿勢残余は、図1において見ることができるとともに、カラム(列)に沿う波によって概略的に示されており、この波により、組a’,b’,c’などの明るいラインおよび暗いラインの組が交互に出現している。これらが排除されない場合、これらの姿勢アーチファクトは、真の値の前後で計算される高度値のプラスおよびマイナスの交互の変化として解釈される。
また、第1に、任意のユーザが利用できるデータを使用することができ、第2に、ジオリファレンシング精度の質を保ちつつコストおよび時間を節約できる遠隔画像取得のジオリファレンシングのための技術を提供することが望ましい。これだけでなく、方法によって達成される精度は、現在使用できる殆どのイメージングシステムの位置精度よりも良好である。
これらの目的および以下で示される他の目的は、少なくとも1つのデジタル画像のジオリファレンシングが前記デジタル画像の少なくとも1つのピクチャモデルおよびデジタル基準レリーフフォームによって達成され、前記デジタル画像が同じ焦点面内で取得されたデジタル画像の対から得られる画像処理システムであって、
− デジタル画像の前記対から、中間デジタルレリーフフォームと呼ばれるデジタルレリーフフォームを生成する段階と、
− ジオリファレンスされるべき前記デジタル画像の前記ピクチャモデルを精緻化する目的で、前記デジタル基準レリーフフォームの点と中間デジタルレリーフフォームにおけるそれらの等価物との間の位置オフセットを計算することにより、前記中間デジタルレリーフフォームおよび前記基準デジタルフォームを処理する段階と、
− デジタル画像の前記対および前記精緻化されたピクチャモデルから、最終デジタルレリーフフォームと呼ばれるデジタルレリーフフォームを生成する段階と、
− 前記最終デジタルレリーフフォームおよび前記デジタル画像を、それらをジオリファレンスする目的で、地理システムまたは地図システムにおいて地上に投影する段階と、
を少なくとも含むことを特徴とする画像処理システムによって達成される。
対の2つの画像は、同じ焦点面内に位置されたセンサにより小さなステレオ視ベース構成で取得され、また、デジタルレリーフフォームがデジタル地形モデルであることが有益である。
非限定的な単なる例として与えられ且つ添付図面に関連して与えられている以下の説明を読めば、本発明を更に良く理解できるとともに、他の利点が更に明確になる。
図2に示されるように、本方法は画像対Aの取得を必要とする。センサから特定の距離にある観測シーンの2つの衛星画像を取得するために、同じ焦点面内に位置された2つのCCD素子(あるいは、隣接するCCD素子の2つの組)または2つのTDIマトリクス(あるいは、隣接するTDI素子の2つの組)が使用される。以下、対取得システムについて詳しく説明する。
センサによって取得される画像の性質および特徴にしたがって、画像の任意の処理の前に第1の前処理段階(段階1)が行なわれる。以下、これについて図3を参照しながら詳しく説明する。
より正確には、本方法は、小さなステレオ視(立体視)ベース構成の画像対Aの取得と、観測シーンの参照符号Bで示されるデジタル地形モデルの利用可能性とに基づいている。本方法は、非常に小さいステレオ視係数b/hを用いても機能するが、得られる高度測量精度はb/h値に反比例する。より正確には、高度Δhの精度はΔx/(b/h)に等しい。この場合、Δxは相関によるオフセット計算中に期待される精度(メートル)である。対Aの2つの画像は、それらが立ち上がるように重ね合わせることができない。実際には、画像に関連する幾何学的モデルの使用により、我々は、対の第2の画像内の1点の座標を第1の画像内でのその座標から完全な精度で得ることができない。モデルにより推定された位置と真の位置との間にはオフセットが存在する。この位置オフセットを決定するために、相関技術を使用して画像対Aのピクセル間で比較が行なわれる。第1の画像が基準画像として使用され、また、このとき、我々は、この画像の各ピクセル毎に、二次画像中でその等価物を見つけようとする。その結果、幾何学的なピクチャモデルから観測シーン内の点のデータを3次元で再構成することができる。
段階21’で対Aの衛星画像の自動的なジオリファレンシングを達成するため、本方法はこの能力を使用する。
第1の段階において、本方法は、シーンの点のデジタルレリーフ(起伏)モデルの生成、と、特に、画像対Aからの小さなステレオ視ベース(段階10’)の中間DTMの生成とを提案する。DTMタイプのモデルの生成のためのこの作業10’は、幾つかの連続した予備的な作業を必要とし、その主なものは以下の通りである。
− 対Aの2つの画像の比較、より正確には、一般的にはかなりまばらである基準画像内の点の第1のサブセットにおける2つの画像間の位置オフセットの第1の計算(段階4)。
− 画像対の相対ピクチャモデルの精緻化(段階6)。これは、基準画像に対する二次画像の内部配向のための作業に相当する。対の画像に関連するこれらの記述については以下で図3を参照して詳しく説明する。
− 精緻化されたピクチャモデルによる段階7での基準画像の(この場合一般に密度が高い)点の第2のサブセットにおけるステレオ視ベースb/hおよび高度の位置オフセットのモデリング。
− 対Aの2つの画像の第2の比較、より正確には、基準画像のこの第2のサブセットにおける2つの画像間の位置オフセットの入念な計算。
− 基準画像のこの第2のサブセットにおける高度の計算による観測シーンのレリーフ(起伏)の中間再構成(段階10)。この場合、これらの高度は、段階4で測定され且つ段階9でモデリングされた位置オフセットを参照することにより決定される。
第2の段階において、対Aの画像の自動ジオリファレンシングのための方法は、基準デジタル地形モデル上に構成により重ね合わせることができる最終デジタル地形モデルの生成(段階19’)を提案する。この目的を伴って、以下が使用される主要な段階である。
− 基準画像の幾何学的構成における基準デジタル地形モデル(B’)と中間デジタル地形モデルとの間の有効な点の検索を参照することにより行なわれる対Aの画像の段階13での外部ピクチャモデルの幾何学的な精緻化。
− 新たに精緻化されたピクチャモデルによるステレオ視ベースb/hおよび高度のオフセットの段階14でのモデリング。
− 基準画像の第2のサブセットにおける高度の計算による観測シーンのレリーフの最終的な再構成(段階19)。この場合、高度は、段階8で測定され且つ段階14でモデリングされた位置オフセットを参照することにより決定される。その後、段階20’において、地図システムまたは地理システムで最終デジタル地形モデルが投影される。その後、従来のように情報の2つの正確な要素の知識から、すなわち、地図または地理的な地上座標の最終デジタル地形モデルおよび対Aの画像の最終ピクチャモデルから、段階21’での対Aの画像のジオリファレンシングが行なわれる。
以下で示す図3,4,6は、本発明に係る方法の異なる処理段階に関して更に明確にする。ここで、これらの異なるシーケンスについて示す。
1.入力データ
プロセスを実施するため、入力データは以下の通りである。
− 同じ焦点面内で取得され、したがって一般的には1ピクセルの数百分の一の小さなステレオ視ベース構成b/hを有する画像対A、すなわち、第1の画像および第2の画像。
ジオリファレンシングプロセスの図示の例において、我々は、対Aの第1の画像を高分解能全整色画像と定義するとともに、対Aの第2の画像を低分解能の多重スペクトル画像と定義する。この例では、全整色スペクトルバンドが多重スペクトルバンドの組み合わせにスペクトル的に近いと見なされる。
好ましくは、我々は、高分解能画像を基準画像として選択し、低分解能画像を二次画像として選択する。
画像の性質およびそれらの特徴が多くの実施バリエーションの対象となり得る。これらは、プロセスの実施の好ましい方法の説明で与えられる例示に限定されない。特に、ハイパースペクトル画像のジオリファレンシングを想定することができる。
− 基準デジタル地形モデルB。本方法は、高度測量の質またはその分解能に関して厳しい制約を課さないが、その位置は可能な最善のものでなければならない。なぜなら、それが基準位置として使用されるからである。第2に、その分解能が良ければ良いほど、除去できる姿勢残余のモデリングが良くなる。
基準デジタル地形モデルBは、当業者に非常に良く知られている技術により基準画像の幾何学的構成で投影される。このDTMの焦点面内の投影を、当初の幾何学的モデルと共にB’と称する。関連する幾何学的パラメータを精緻化した後においては、それをB”と称する。
基準DTM Bは、−60°〜+60°の緯度において任意のユーザがサイトhttp://seamless.usgs.gov/で利用できるSRTM(シャトル・レーダー・トポグラフィ・ミッション)DTMであることが好ましい。
ジオリファレンシングプロセスの説明を簡略化するため、以下では、海および雲の処理が対Aの画像中で考慮されない。本方法の実施の変形例は、画像マスクを形成してこれらの画像マスクを位置オフセット計算の結果を局所的に無効にするために使用することによりこれらの特徴を処理することから成る。
2.対Aの画像の前処理
図3に示されるように、小さなステレオ視ベースで取得された画像対Aの段階1での前処理は、以下の段階を実行することにより行なわれる。
− レジストレーション(登録)、すなわち、多重スペクトル画像のチャンネルの同じ幾何学的構成での配置(段階1a)、そのようなレジストレーションが必要な場合には、全整色に近いスペクトルバンドを合成するためのこれらのチャンネルの組み合わせ(段階1b);
− 高分解能画像の低分解能画像にしたがった段階2でのスケーリング;
− 段階3における画像対Aのハイポモード処理。
図3によれば、二次多重スペクトル画像が登録されない場合には(段階1a)、スペクトルチャンネルの組み合わせの前にレジストレーションが行なわれなければならない(段階1b)。したがって、我々は輝度画像反射率を表す二次画像を変換する。
二次多重スペクトル画像が登録される場合、その二次多重スペクトルは、最初の処理のようにそのスペクトルチャンネルの組み合わせを有している(段階1b)。
単なる例示的な実施例において、基準全整色画像が2つの多重スペクトルチャンネルの等価物をスペクトル的にカバーする場合、段階1bにおける二次画像チャンネルの組み合わせは、2つのスペクトルチャンネルの放射測定値をそれらの絶対較正係数で割ることにより、また、得られた2つのチャンネルを加えることにより行なわれる。このようにして、我々は二次全整色画像を生成する。
2つの画像が同じ分解能を有していない場合には、低分解能画像にしたがって高分解能画像をスケーリングするために段階2が実行される。
我々は、基準高分解能画像を畳み込み(convolution)によりサンプリングすることにより、また、基準高分解能画像をサブサンプリングすることにより、二次画像にしたがった基準高分解能画像のスケーリングを行なう。
畳み込みおよびサブサンプリングによる基準画像のフィルタリングが適切なフィルタを用いて行なわれる。フィルタは、低分解能変調伝達関数(MTF)と高分解能変調伝達関数との間の比率を表わしていることが好ましい。畳み込みウインドウのサイズは2つの画像の伝達関数の比率によって決まる。この演算は、任意の非整数でも良い分解能比率を用いて行なうことができる。
空間分解能が変調伝達関数と直接に関係があることは従来技術から良く知られている。実際には、フィルタリング演算により画像対Aの基準高分解能画像の分解能が低下する可能性がある。
シャノン基準(Shannon criterion)は、使用し得る最大空間周波数の2倍で任意の画像がサンプリングされなければならないことを規定している。対Aの2つの画像のうちの一方がシャノン基準を順守しない場合には、それに対してアンチエイリアス処理が適用される。
ハイポモード処理が使用される(段階3)のが有益であるが、他のタイプの処理も想定し得る。画像のピクセルは、サンプリング方式を変えることなく2×2の行列(ライン、カラム)で合計される。このようにして新たなサンプリングネットワークが形成される。このように、我々は、ラインおよびカラムにおいて2のファクタだけ分解能を減少させるが、この場合、処理された画像は正確にサンプリングされる。
計算のために使用される式は以下の通りである。
Figure 0004890465
Hは、座標(i,j)を有するピクセルのハイポモード化された画像の放射測定値を表わしており、IMは処理前の画像における放射測定値を表わしており、座標(i,j)および(k,l)でピクセルが合計される。
このタイプの処理は、画像をラインおよびカラムにおいて0.5ピクセル分だけオフセットすることにより画像の幾何学的状態を変える。その後、我々は、この演算を、ラインおよびカラムにおける−0.5ピクセルの平行移動と関連付けることにより、当初の幾何学的状態へ正確に戻す。画像前処理の段階1の最後は、同じスケールでの画像対の取得によって特徴付けられ、このようにして、シャノン基準が検証される。
その後、我々は、対Aの画像に適した処理を実行する。ジオリファレンスされた画像を生成する方法は前述した異なる段階を含んでおり、ここで、それについて図4および図6を参照しながら詳しく説明する。
3.ピクチャモデルの相対的な幾何学的精緻化
図4に示されるように、我々は、第1の段階では、ピクチャモデルの相対的な幾何学的精緻化、より正確には基準画像に対する二次画像の内部配向を行なおうとしている。
衛星の進路の日付、位置、速度(航海暦)、衛星の向き(姿勢)、衛星に対する検出器の視野方向(焦点面の特性)のようなパラメータの知識が完全ではなく、したがって、この知識によって我々は地上に座標を有する対Aの画像のピクセルの対応座標を正確に決定することができないため、ピクチャモデルを精緻化することが必要であることを思い出されたい。
この精緻化により、我々は、ピクチャモデルとキャリアの姿勢の時間的変化との間の相対的な違いを識別することができる。
我々は、進路の日付および航海暦が正確であると考えることが有益である。実際に、これらのパラメータの精度は1メートルよりも良好である。
精緻化は、画像の相対的配向に影響を及ぼす姿勢パラメータ、すなわち、姿勢の時間的ドリフトおよびセンサの相対的な内部配向に関係している。センサの内部配向が完全に知られている場合、物体は、角度、ロール、ピッチ、ヨーの3つの組のそれぞれにおいてドリフトを減少させ或いは除去するようになるとともに、基準画像に対する二次画像の焦点距離を調整するようになる。
航海暦または進路の日付が精度を欠いている可能性のあるシステムに関するプロセスの1つの実施変形例においては、当業者に知られている技術を使用してこれらを精緻化することも必要である。幾何学的なピクチャモデルの精緻化は以下の段階によって行なわれる。
− 段階4における対Aの2つの衛星画像間の位置オフセットの計算;
− 段階5における対Aの2つの画像の最良有効点の選択;
− 段階5で選択された有効点による段階6での二次画像の内部ピクチャモデルに適した幾何学的精緻化。
対の2つの画像間の位置オフセットを計算するための段階4は、2つの画像内で等価物と見なされるピクセルの識別を必要とする。
2つの画像のピクセル間のこの比較は、これらのピクセルの近傍の放射測定類似性の認識によってのみ可能である。長方形状または正方形状を考慮することにより、1つのピクセル(i,j)に中心付けられた1つの近傍がサムネイルによって特徴付けられる。
したがって、基準画像のピクセルと二次画像のピクセルとの間の類似性を測定することは、2つのサムネイルの類似性を評価することに相当する。相関技術は、サムネイル間、すなわち、基準画像のサムネイルと二次画像のサムネイルとの間の類似性の度合いを決定するために選択されることが好ましい。
より詳細には、類似性の測定は共分散計算に類似している。選択される相関係数は2つのサムネイル間の正規化された共分散として規定され、その式は以下の通りである。
Figure 0004890465
表示rad(i,j)は、基準サムネイルにおける(i,j)と等しい放射測定値(ライン、カラム)を規定し、rad(l,p)は、二次サムネイルにおける(l,p)と等しい座標(ライン、カラム)を有するピクセルの放射測定値を規定しており、また、分母は、サムネイル1,2の標準偏差の積として表わされている。Eは数学的期待値を表わしている。
相関係数の計算は、基準画像内のピクセルの規則的なサブセットを表わすルーズ相関点グリッドに関して行なわれることが有益である。相関グリッドのピッチは、精緻化プロセス中に決定されるべき未知数よりもかなり大きくなるように選択される。約30*30のグリッドに関しては1つの規則的なシーディング(regular seeding)を使用することが好ましい。自動相関技術により、2つの画像間の有効点の決定を、相関サムネイルとして知られるサムネイルの導入によって最初に適用することができる。これらのサムネイルは、等価物として評価されるピクセルに中心付けられる基準画像および二次画像のサブ画像である。これらの等価なピクセルは、最初のピクチャモデルおよび基準デジタル地形モデルBの我々の知識によって評価される。
相関によるオフセット計算の原理は基準画像のルーズ相関グリッドの1つの特定の点に関して示されるが、それはグリッド内の各点毎に行なわれる。我々は基準画像のグリッドの1つの点に中心付けられたサムネイルを取得し、また、我々は二次画像内のその放射測定等価物を捜す。この作業は、検索領域を示す大きなウインドウ内で二次画像の相関サムネイルを移動させることにより行なわれる。これらの両方は、基準画像のグリッドの点の評価された等価ピクセルに最初に中心付けられ、また、検索領域内での相関サムネイルの各移動で相関係数が計算される。計算された相関係数の値に基づいて、最も高い相関係数を生み出す検索領域内の相関サムネイルの中心を表わす二次画像のピクセルが、基準画像の相関グリッド上の点に相当する点と見なされる。この位置から、また、1/2ピッチ二分法のような異なる可能な方法を用いて、または、相関率の最大勾配の方向での検索を用いて、相関係数を最大にする部分位置が見つかるまで、ラインおよびカラムに関して部分位置で二次画像を局所的にリサンプリングすることによりサブピクセルレベルで同じ計算が実行される。
その後、我々は、正規化ガウスによりアポダイズされた15*15個の点の寸法を用いて、二次画像の相関サムネイルに関してカージナルサインフィルタを適用する。実際には、理論的に理想的なフィルタすなわち無限のカージナルサインフィルタにできる限り近い補間フィルタを使用する必要がある。スプライン関数に基づくフィルタなどの他のフィルタも使用できる。二次画像は、ラインおよびカラムにおいて+0.5ピクセルまたは−0.5ピクセルまで、先行するサブ段階中に識別される等価物の位置の周囲でリサンプリングされる。その後、繰り返しの態様で、それぞれが最良の位置の周囲で(1/2)倍小さいオフセットを用いて、相関係数が各位置毎に再計算されるとともに、相関最大値が特定される。
サムネイルのサイズは妥協の結果である。大きなサムネイルは、相関係数の統計的有意性を増大させるが、プロセスの幾何学的分解能を減少させる。相関サムネイルのサイズは13*13点であることが好ましく、また、検索領域のサイズは、2つの画像の相対的な配向における推定最大エラーの関数である。
しかしながら、相関サムネイルのサイズおよび形状、並びに、有効点を特定するために使用される類似性係数の性質は、多くの実施変形例の対象となり得る。対Aにおける2つの画像の有効点の対を特定すると、有効点の各対におけるラインおよびカラムの位置オフセットは、段階4におけるそれらのピクセル座標から推定される。
その後、我々は、段階5において、相関基準の値、相関ピークの形状、二次画像上の有効点の分布にしたがって最良の有効点を選択する。最初の2つの態様は、当業者に良く知られており、したがって更に詳しく説明しない。点の分布に関して、我々は、例えば、各画像区域毎に少なくとも10個の有効点対が存在するように確保する。その場合、画像は一般に同じサイズの4*4個の隣接区域に分割される。
有効点のための検索技術および点の整合対間の位置オフセットの計算のための検索技術は、多くの実施変形例の対象となることができるとともに、ジオリファレンシングプロセスの図4で与えられる例示に限定されてはならない。
ここで、画像のピクチャモデルの内部幾何学的精緻化(段階6)へと進むことができ、また、我々は特に対Aの2つの画像間で姿勢取得のパラメータを精緻化しようとしている。我々は、精緻化されるべきこれらのパラメータの値が最初に知られた値に近いと考えており、また、我々はこれらの最初の状態の前後で線形化する。
有効点の選択された対を使用することによって、我々は、当業者に良く知られた技術である最小2乗法を用いて測定点と精緻化演算によって推定された点との間の差を最小化することにより精緻化を行なう。
本プロセスを使用する任意のイメージングシステムとの関連で、精緻化処理は、多くの実施変形例の対象となることができるとともに、図4に参考のために与えられている例示に限定されない。
4.中間DTMの生成
図4に示されるように、ここで、我々は、小さなステレオ視ベースを使用する状態において中間デジタル地形モデルを生成しようとしている。この高度モデルの生成は、主に、基準画像内の密度の高い相関点グリッドにおいて以下の段階を用いて行なわれる。
− 新たに精緻化されたピクチャモデルおよび基準DTM Bを使用することによる、グリッドの全ての点におけるステレオ視ベース(b/h)および推定高度(B’)の位置オフセットのモデリング。高度グリッド(B’)を決定するため、我々は基準DTM Bを基準画像の幾何学的構成で投影し、また、我々は基準デジタルモデル(B’)を得る;
− 段階8における対Aの2つの画像の比較、より正確には、2つの画像間の位置オフセットの最終計算。
− 相関グリッド内の各点毎に高度を計算する(段階10)ことによる観測シーンのレリーフの中間再構成。
グリッドのピッチはN/3〜N/2の間で決定されることが好ましい。ここで、Nは、一方向で基準画像のピクセルに中心付けられたサムネイルのサイズである。実際には、オフセット測定値はサムネイルにわたって平均化される。この信号を正確にサンプリングするためには、N/2よりも小さいグリッドピッチをとるだけで済む。また、これは、計算されるべき点の数を制限するという利点もある。
モデリングの効果は、段階8でのオフセットの計算を加速させることである。これは、二次画像内の等価点に中心付けられた相関サムネイルのための検索領域が、その位置の推定値が改善するにつれて小さくなるからである。
基準画像と二次画像との間の位置オフセットの最終計算のための段階8は以下のサブ段階を含んでいる。
− 自動線形相関による二次画像内における基準画像のグリッド上の点の等価物の位置の検索。相関原理は段階4の相関原理に類似しているが、ここでは2つのピクチャ間の相対的な幾何学的構成が良く知られているため、検索領域を更に小さくできる。計算を初期化するため、我々は、モデリング段階7で処理された基準画像中の点に相当すると推定された二次画像の点に中心付けられる相関サムネイルを位置決めする。その後、我々は、相関係数を最大にする相関サムネイルの中心の位置を検索領域内で決定することにより真の等価点を捜して特定する。
− 相関係数の最大値を与える二次サムネイルの位置をサブピクセル精度をもって検索するため、我々は、段階4と同じ方法で選択される値の前後の二次画像を補間する。我々は、正規化ガウスによりアポダイズされた15*15個の点の寸法を用いて、二次画像の相関サムネイルに対してカージナルサインフィルタを適用することが有益である。スプライン関数に基づくタイプなどの他のフィルタも使用できる。二次画像は、ラインおよびカラムに関して+0.5ピクセルまたは−0.5ピクセルまで、先行するサブ段階中に識別される等価物の位置の周囲でリサンプリングされる。その後、繰り返しの態様で、それぞれが最良の位置の周囲で(1/2)倍小さいオフセットを用いて、相関係数が各位置毎に再計算されるとともに、相関最大値が特定される。相関率の局所的勾配に基づく方法など、他の方法も可能である。一般に、相関率は0.97よりも大きく、また、10メートルの分解能を有する画像に関して、120w/nr/ステラジアンの平均輝度における信号/雑音比が200で且つシャノン基準の条件内の画像をもたらした後、達成される有効点の位置精度は0.01〜0.03ピクセルである。
したがって、等価ピクセルが見つけられるという条件で、位置オフセット値を基準画像の任意のピクセルに対応させることができる。この段階の出力において、我々は、基準画像のピクセルと二次画像中のそれらの等価物との間の位置オフセットの密度が高い正確なグリッドを得る。
基準画像の密度の高い相関グリッドの各点の高度の計算のために段階10で形成されるシーンのレリーフの中間再構成は、段階8中に決定される位置オフセットとモデリング段階7で定められるオフセットモデルとの間の差(Δx)のエピポーラ方向で、すなわち、立体視差の方向で、段階9において計算により初期化される。
最初の概算として、この差(Δx)は、グリッド上の各点の真の高度と段階7で推定された高度との間の差に比例する。実際には、我々は、以下の式により各点の高度値を規定する。
高度=DTM B’でモデリングされた高度+[Δx/(局所b/h)]
このように、密度の高い相関グリッド上の基準画像の幾何学的構成および局所的なステレオ視ベース値(b/h)のモデルの幾何学的構成で配置される基準DTM Bを表わすB’を使用して、我々は、基準画像内のグリッドの各点のレリーフを形成することができる。したがって、我々は、小さなステレオ視ベースを用いて基準画像の幾何学的構成で中間デジタル地形モデルを形成することができる。相関方法中に達成されるサブピクセル精度により、我々は、小さなステレオ視効果にもかかわらず、非常に良好な高度測量精度を得ることができる。
図5a,5b,5cはそれぞれ、プロセス、基準DTM(B’)、2つの先行するモデル間の差(これらの3つの全ては機器の焦点面内にある)によって形成される小さなステレオ視ベースを用いた中間DTMの一例を示している。
大きな差を有する区域は、基準デジタル地形モデルが値を持たない区域、すなわち、例えば過度に高いレリーフに起因するマスクされた部分を含む区域である。ウインドウd内のマークのようなマークの存在は、基準DTMが知られていなかった、したがって補間されなければならない区域のサインである。目に見えてレリーフに関連付けられる低周波形状の存在は、2つのDTM、すなわち、中間DTMおよび基準DTMが依然として完全に重ね合わされていないというサインである。
以下の処理段階はこの状態の問題を改善することができる。
5.ピクチャモデルの外部幾何学的精緻化
図6に示されるように、また、図2に関して既に与えられたように、我々は、ここで、一般にロール、ピッチ、ヨーのバイアスを除去することにより、ピクチャモデルの第2の幾何学的精緻化、より正確には、対Aの画像の外部配向のための作業を行なおうとしている(段階13)。
幾何学的なピクチャモデルの精緻化は以下の段階によって行なわれる。
− 段階11での2つのDTM間すなわち中間DTMと基準DTMとの間の位置オフセットの最終計算;
− 段階12での2つのDTM間の最良有効点の選択;
− 段階13での基準画像のピクチャモデルに適した外部幾何学的精緻化。
2つのデジタル地形モデル間の段階11での位置オフセットの最終計算の方法は、画像の結果のような、2つのDTM間の局所的な相関を最大にする有効点の位置の検索の結果である。
位置オフセットのこの最終計算は、基準画像の幾何学的構成に組み込まれる基準DTM(B’)および中間DTMを使用して行なわれ、それは以下のサブ段階を含んでいる。
− 線形相関による中間DTM内の基準DTM(B’)の点での有効点の位置の検索。有効点を検索する原理は段階4の原理と同じであり、また、サムネイルの特徴は段階4のそれと類似している。検索領域は、小さくなり得るが、イメージングシステムの位置精度に依存している。例えば100メートルの位置精度の場合、例えば50メートル毎に中間DTMが形成され且つ基準DTMが完全に見つけられる場合、2DTMピクセルの検索領域が適している。計算を初期化するため、基準DTM(B’)の場合と同じ場所で二次画像上に相関サムネイルが位置付けられる。その後、我々は、相関係数を最大にする相関サムネイルの中心の検索領域内での位置を決定することにより等価点を特定しようとする。
− 段階4の場合と同じ方法でサブピクセル計算が行なわれる。
段階11の出力において、我々は、基準DTM(B’)上のグリッドの各点毎に、2つのDTMの有効点間でラインおよびカラムに関してオフセットを得る。
その後、我々は、2つの基準にしたがって段階12において有効点の最良の対を選択する。すなわち、好ましくは大きなレリーフ上の高い相関率を有する有効点の対を選択する。
当該対で選択される基準DTMの点は、制御点またはアンカーポイントであると考えられる。なぜなら、定義により、我々は地上におけるそれらの位置の正確な知識を有しているからである。
有効点のための検索技術および2つのデジタル地形モデル間の位置オフセットの計算のための検索技術は、多くの実施変形例の対象になることができるとともに、図6に関連する方法で与えられた説明に限定されてはならない。
基準画像のピクチャモデルの外部幾何学的精緻化のための段階13は、最小2乗法による最小化の方法を使用して行なわれるとともに、基準画像の焦点面が完全に知られていると仮定することにより一般にロール、ヨー、ピッチにおけるバイアスを補正する目的で行なわれる。
この段階の出力において、我々は、基準画像および二次画像のための最終的な精緻化されたピクチャモデルを得る。なお、後者の場合には、我々が基準画像のピクチャモデルのバイアスの値を二次画像のピクチャモデルへコピーするという条件で得られる。
したがって、プロセスのこの処理レベルにおいて、我々は、対Aの2つの画像のための精緻化された幾何学的パラメータを有している。
一次画像のモデルにおけるピッチ、ロール、ヨーのバイアスの精緻化、2つの画像におけるロール、ピッチ、ヨーのドリフトの共有精緻化、2つの要素間の内部ピクチャアングルの精緻化を含めて、全てのパラメータの全精緻化で終わるべきことを推奨する。これは、本方法によって行なわれる2つの精緻化処理が厳密に独立していないからである。
6.最終DTMの形成
図6に示されるように、我々は、ここで、焦点面内に最終的なデジタル地形モデルを形成しようとしている。この高度モデルの形成は主に以下の段階によって行なわれる。
− 精緻化された最終的なピクチャモデルおよび基準DTMを使用することによる、密度の高いグリッドの点に関するステレオ視ベース(b/h)の値および高度(B”)の位置オフセットのモデリング(段階14)。高度グリッド(B”)を決定するため、基準DTM Bが基準画像の幾何学的構成で投影され、そのため、我々は基準デジタルモデル(B”)を得る;
− 対Aの2つの画像の、段階8で測定され且つ段階14でモデリングされた位置オフセット間の差を得る(段階15);
− 密度の高い点グリッドの平均のラインおよびカラムのフィルタリング(段階17);
− グリッドの各点の高度を計算することによる観測シーンのレリーフの最終的な再構成(段階19)およびオプションのフィルタリング。
位置オフセットのこの最終的なモデルを用いて、また、基準画像と二次画像との間の段階8でのオフセット測定の密度の高いグリッドを知ることにより、我々は、段階15において、2つの画像の有効点の対に関してエピポーラ方向で測定オフセットと推定オフセットとの間の差(Δx)を計算する。これらは以下の3つのソースによってもたらされる。
− センサのモデリングされない姿勢残余に起因するオフセットまたは焦点面の不完全な知識に起因するオフセット;
− 基準DTMの高度における精度の欠如に起因するオフセット。実際に、これらの差は、基準DTMにおいて高度エラーの形態で直接に解釈できる。
− 測定ノイズ。
ピクチャの幾何学的構成のモデリングされていない残余に起因する場合によっては大きい高度測量エラーを補正するため、すなわち、小さいステレオ視ベースに起因して性能を低下させる残余効果をカラム(姿勢残余)およびライン(焦点面の残余)の両方に関して排除するため、我々は以下を行なう。
− 有効点すなわち相関が有効であり且つ基準DTMが有効であった点に関してのみ計算を行なうように注意して、グリッドにおける位置オフセットの平均のラインおよびカラムを計算する(段階16)。
− 基準DTMによってアクセス可能な最大空間周波数よりも低い空間周波数を選択するローパスフィルタによって平均のラインおよびカラムを計算する(段階17)。フィルタは空間領域内または周波数領域内で構築することができ、また、跳ね返り現象を防止するためにその周波数応答をしっかりと規則化する。フィルタリングは当業者に良く知られた技術である。この段階で、我々は、平均のラインとして、焦点面のモデリングエラーの低周波残余を得るとともに、平均のカラムとして、キャリア姿勢のモデリングエラーの低周波残余を得る。
− 差(Δx)を平均のラインおよびカラムから差し引く(段階18)とともに、図4を参照して段階10で規定された中間MIMTの形成のための式により、高度(B”)の最終的なモデルグリッドおよびステレオ視ベースを使用して、密度の高い相関グリッド中の各点の高度を計算する(段階19)。
最終的に、基準DTM BがこのDTMの局所的な勾配に応じて有効であると見なされた区域(隠れ区域ではない)で相関グリッドの点を個別にフィルタリングすることもできる。高いレリーフに対応する勾配が大きくなればなるほど、これにより、基準DTM(B”)と計算された最終的なDTMとの間の差を大きくすることができる。我々は、モデルからの差の絶対値が局所的な勾配の絶対値の3倍を超えない点だけを保持することが有益である。したがって、段階19の出力において、我々は、基準DTMの配置特性に等しい配置特性をもって、歪みを伴うことなく、特に高いレリーフにおいて高い精度をもって統合された基準画像の幾何学的構成の最終的なデジタル地形モデルを得る。
7.衛星画像のジオリファレンシング
焦点面内で計算された最終的なデジタル地形モデルは、基準画像および基準DTMの精緻化された最終的なピクチャモデルを使用して逆位置グリッドを計算した後にリサンプリングすることから成る当業者に良く知られた技術を使用して、地理システムまたは地図システム内において、段階20で地上座標に投影される。生成されるものは、基準DTM Bとして正確に位置付けられる最終的なDTM(C)である。
ここで、我々がジオリファレンスしようとしている画像の精緻化された最終的なピクチャモデルを使用することにより、また、生成された最終的なDTM(C)を使用することにより、我々は、地図システムの全てにわたって対Aの画像を自動的にサンプリングし、即ち、段階20と同じ方法で地理システムの全てにわたって対Aの画像を自動的にサンプリングする。実際には、画像の精緻化されたピクチャパラメータが利用できるため、DTM(C)に関する我々の知識により地図的または地理的な幾何学的構成で正確に画像の点の全てを投影できる。
8.出力データ
本方法により、我々は、高分解能全整色画像および低分解能多重スペクトル画像から成る対Aの衛星像内に頻繁に自分自身を置くと以下のデータを得ることができる。これは、基準ジオリファレンス全整色画像、二次ジオリファレンス多重スペクトル画像、ジオリファレンス組み合わせ画像(多重スペクトル高分解能画像)であり、後者は基準全整色画像上に構成により完全に重ね合わせることができるからである。本方法によって形成される生成物のこれらの例は、プロセスの能力の非限定的な例である。本方法によって形成される生成物の1つの想定し得る変形例は、入力データがハイパースペクトル画像対であるという当然の条件で、2つのジオリファレンスされたハイパースペクトル画像である。他の変形例は、同じスペクトルバンドで同じ分解能を持つ2つの画像から成ることができ、これにより更に細かいDTMを形成できる。
2.5メートルの分解能を有するSpot5画像から作られる人工的な画像および重ね合わされたIGN Scan25マップが図7の写真に示されている。第1に、図7aにおいて、Spot5画像は、Spot5の当初の位置およびピクチャモデルを用いてジオリファレンスされており、約30メートル内まで正確であった。また、第2に、図7bにおいて、Spot5画像は、本発明の自動ジオリファレンシング方法を使用してジオリファレンスされた。80%画像および20%マップを伴う画像/マップ透明性プロセスにより、我々は、IGN(全国地理学会)のマップ上へのジオエンコード画像の重ね合わせを評価することができる。
ここで分かるように、重ね合わせの質は、基準DTMの位置に依存するとともに、プロセスによって形成された最終的なDTMの質に依存している。図7の場合には、SRTM DTMである基準DTMの位置が見るからに非常に良く見定められる。
9.画像対の取得のためのシステム
前述した方法は、遠隔画像の処理のためのシステムおよび遠隔画像の取得のためのシステムを含むアセンブリでの実施に適している。
取得システムは、画像対Aの2つの画像すなわち基準画像および二次画像であるプロセスの入力データの取得を可能にする。
本発明の実施の好ましい方法においては、この取得システムが衛星によって説明されるが、プロセスにより使用される入力データの取得のためのシステムによって任意のイメージングシステムを説明することができる。この取得システムは、2つのかなり近いアングルからシーンを観察することにより小さいステレオ視ベースを有する画像対を1つの経路でほぼ同時に且つほぼリアルタイムで収集するために使用される固有の取得機器を含んでいる。これらの画像対は、小さなステレオ視ベースを有するデジタル地形モデルを大きな領域にわたって形成するために使用される。
取得機器は、1つの固有の光学システムと、同じ焦点面内に位置された幾つかのセンサとから成る。
対Aの画像は、センサ上でレンズの焦点面内に形成される。
各センサはCCD素子またはTDIマトリクスタイプから成る。各センサはその内部の幾何学的構成によって規定される。センサのそれぞれは、必要に応じて、並列配置される幾つかのCCD検出器またはTDIマトリクスから成る。各検出器は、地上ピクセルによって発せられる光を捕らえる。
同じ焦点面内のセンサの配置は、b/h比率の小さな値、一般的には0.01または0.02の値を生み出す。実際には、焦点距離がfの機器の場合、センサ間の距離はf*(b/h)である。焦点距離が約1メートルで且つ2つのセンサ間の距離が1センチメートル程度において、我々は100分の1程度のb/hの値を得る。この場合の視野方向間の隔たりは1°程度である。取得システムによって衛星画像Aの対を取得するための原理によれば、ランドスケープセンサの応答によって各ラインが形成され、衛星の前進によってカラムが形成される。
各センサ毎に、各瞬間tにおいては、光学システムの光学的中心によって規定される面内に位置される地上点およびCCD素子またはTDIマトリクスを含む直線だけがシステムにより見つけられる。この面は観測面と呼ばれる。
特定の期間dt中に受けられ且つ観測面内に含まれる地上点から生じる放射線が記録される。衛星は動いているため、次の瞬間t’では、空間の他の部分が観測され、等々とつづく。したがって、規則的な時間間隔で、システムはピクセルのラインを記録する。結果として得られる記録の組は対Aの画像のうちの1つを構成し、また、これは前述した方法を用いてジオリファレンスすることができる。
小さいステレオ視ベースをもって従来のようにDTMタイプのモデルに存在する姿勢残余を示している。 本発明に係る方法の全体のフローチャートを示している。 本発明に係るイメージングシステムのセンサにより取得された画像対の前処理シーケンスのフローチャートである。 本発明にしたがって中間デジタル地形モデル(DTM)を生成する段階のフローチャートである。 図5a,5b,5cは、3つのデジタル地形モデル、すなわち、中間DTM、基準DTM、前記2つのDTM間の差を示している。 本発明にしたがって最終デジタル地形モデル(DTM)を生成した後に画像をジオリファレンスする段階のフローチャートである。 図7a,7bは、透明性によってマップ上に重ね合わされた、SPOT5衛星の当初の位置によってジオリファレンスされたSPOT5画像からの抽出物、および、本発明に係る方法によってジオリファレンスされた同じ抽出物を示している。

Claims (17)

  1. 少なくとも1つのデジタル画像のジオリファレンシングが前記デジタル画像の少なくとも1つのピクチャ幾何学モデルおよび基準デジタル地形モデルによって行なわれ、前記デジタル画像が同じ焦点面内で取得されたデジタル画像の対(A)から得られる方法であって、
    − デジタル画像の前記対(A)から、中間デジタル地形モデルを決定する段階(4,6,7,8,10’)であって、前記対(A)の2つのデジタル画像の間の位置ずれを相関により計算することを含む少なくとも1つのサブ段階を含む段階(4,6,7,8,10’)と
    − ジオリファレンスされるべき前記デジタル画像の前記ピクチャ幾何学モデル(B)を精緻化(13)するために、前記基準デジタル地形モデルと中間デジタル地形モデルとの間の位置ずれ相関によって計算することにより、前記中間デジタル地形モデルおよび前記基準デジタル地形モデルを処理する段階(11,13)と、
    − デジタル画像の前記対(A)および前記精緻化されたピクチャ幾何学モデル(B)から、最終デジタル地形モデルを生成する段階(14、19’)であって、前記対(A)の2つのデジタル画像の間の位置ずれのモデルを前記精緻化されたピクチャ幾何学モデルから計算すること(14)と、該位置ずれのモデルと前記段階(4,6,7,8,10’)で計算された位置ずれとの間の差を計算することとを含む少なくとも1つのサブステージを含む段階(14、19’)と、
    − 前記最終デジタル地形モデルおよび前記デジタル画像を、それらをジオリファレンスする目的で、地理システムまたは地図システムにおいて地上に投影する段階と、
    を少なくとも含むことを特徴とする方法。
  2. 前記対のデジタル画像が小さなステレオ視ベースを用いて取得されることを特徴とする、請求項1に記載の方法。
  3. 前記中間デジタル地形モデルを決定する前記段階は、
    ・前記対(A)の2つのデジタル画像間の前記推定された位置ずれの第1のモデルを形成するサブ段階(7)と、
    ・前記対(A)の2つのデジタル画像間の前記位置ずれ(4)と位置ずれの前記第1のモデルとの間の差を計算するサブ段階(8,9)と、
    ・前記対(A)のデジタル画像の点の高度を計算するサブ段階(10)と、
    を更に含むことを特徴とする、請求項1または2に記載の方法。
  4. 前記対(A)のデジタル画像の両方がシャノン基準を検証するように前記対(A)のデジタル画像のアンチエイリアス処理の実施を少なくとも含んでいる前処理段階含むことを特徴とする、請求項1から3のいずれか一項に記載の方法。
  5. 前記対(A)のデジタル画像の両方がシャノン基準を検証するよう前記対(A)のデジタル画像の前記アンチエイリアス処理はハイポモードプロセスであることを特徴とする、請求項1から4のいずれか一項に記載の方法。
  6. 最終デジタル地形モデルを生成するための前記段階は、
    ・前記対(A)の2つのデジタル画像間の前記推定された位置ずれの第2のモデルを形成するサブ段階(14)と、
    ・前記対(A)の2つのデジタル画像間の前記位置ずれと位置ずれの前記第2のモデルとの間の差を計算するサブ段階(15)と、
    ・前記対(A)のデジタル画像の平均のラインおよびカラムをフィルタリングするサブ段階(16,17)と、
    ・前記対(A)のデジタル画像の点の高度を計算するサブ段階(18,19)と、
    を少なくとも含んでいることを特徴とする、請求項1から5のいずれか一項に記載の方法。
  7. 異なるスペクトル帯域幅および/または異なる分解能を有する2つの画像から前記対(A)のデジタル画像が構成されることを特徴とする、請求項1から6のいずれか一項に記載の方法。
  8. 少なくとも1つのデジタル画像のジオリファレンシングが前記デジタル画像の少なくとも1つのピクチャ幾何学モデルおよび1つの基準デジタル地形モデルによって行なわれ、前記デジタル画像が同じ焦点面内で取得されたデジタル画像の対(A)から得られる画像処理システムであって、
    ・デジタル画像の前記対(A)から、中間デジタル地形モデル決定する決定手段であって、前記対(A)の2つのデジタル画像の間の位置ずれを相関により計算する決定手段と、
    ・ジオリファレンスされるべき前記デジタル画像の前記ピクチャ幾何学モデル(B)を精緻化(13)するために、前記基準デジタル地形モデルと前記中間デジタル地形モデルとの間の位置ずれを相関によって計算することにより、前記中間デジタル地形モデルおよび前記基準デジタル地形モデルを処理する処理手段と、
    ・前記対(A)のデジタル画像および前記精緻化されたピクチャ幾何学モデル(B)から、最終デジタル地形モデルを形成する形成手段であって、前記対(A)の2つのデジタル画像の間の位置ずれのモデルを前記精緻化されたピクチャ幾何学モデルから計算し、該位置ずれのモデルと前記決定手段で計算された位置ずれとの間の差を計算する形成手段と、
    ・前記最終デジタル地形モデルおよび前記デジタル画像を、それらをジオリファレンスする目的で、地理システムまたは地図システムにおいて地上に投影する投影手段と、
    を少なくとも含むことを特徴とする、画像処理システム。
  9. 前記対の画像が小さなステレオ視ベースで取得されることを特徴とする、請求項8に記載のシステム。
  10. 前記中間デジタル地形モデルを決定するための前記手段は、
    ・前記対(A)の2つのデジタル画像間の前記位置ずれの第1のモデルを形成するためのモデリング手段と、
    ・前記対(A)の2つのデジタル画像間の前記位置ずれと位置ずれの前記第1のモデルとの間の差を計算する一次計算手段と、
    ・前記対(A)のデジタル画像の点の高度を決定するための二次計算手段と、
    に少なくとも関連付けられることを特徴とする、請求項8または9に記載のシステム。
  11. 前記対(A)のデジタル画像の両方がシャノン基準を検証するように前記対(A)のデジタル画像のアンチエイリアス処理を行なうのに少なくとも適している前処理手段も含むことを特徴とする、請求項8から10のいずれか一項に記載のシステム。
  12. 前記対(A)のデジタル画像の両方がシャノン基準を検証するように前記対(A)のデジタル画像の前記アンチエイリアス処理はハイポモードプロセスであることを特徴とする、請求項8から11のいずれか一項に記載のシステム。
  13. 最終デジタル地形モデルを形成するための前記手段は、
    ・前記対(A)の2つのデジタル画像間の前記位置ずれの第2のモデルを形成するためのモデリング手段と、
    ・前記対(A)の2つのデジタル画像間の前記位置ずれと位置ずれの前記第2のモデルとの間の差を計算するための一次計算手段と、
    ・前記対(A)のデジタル画像の平均のラインおよびカラムをフィルタリングするためのフィルタリング手段と、
    ・前記対(A)のデジタル画像の点の高度を決定するための二次計算手段と、
    に少なくとも関連付けられることを特徴とする、請求項8から12のいずれか一項に記載のシステム。
  14. 前記対(A)のデジタル画像は、異なるスペクトル帯域幅および/または異なる分解能を有する2つの画像から成ることを特徴とする、請求項8から13のいずれか一項に記載のシステム。
  15. 請求項1から7のいずれか一項に記載の方法を実施するための、少なくとも2つの光学センサを含む同じ焦点面内の画像の対のための取得システムの使用であって、第1のセンサが前記対の第1の画像の取得のために使用され、第2のセンサが前記対の第2の画像の取得のために使用され、2つのセンサが小さいステレオ視ベース構成で位置決めされる、取得システムの使用方法
  16. 請求項1から7のいずれか一項に記載の方法を実施するための、光学センサとしてのCCD素子またはTDIマトリクスを含む同じ焦点面内の画像の対のための取得システムの使用方法
  17. 同じ焦点面内の画像対のための取得システムの使用であって、前記画像対のうちの少なくとも一方の画像をジオリファレンスする目的で、少なくとも2つの光学センサを含み且つ請求項1から7のいずれか一項にしたがって特定されるイメージング処理システムにより実施され、第1のセンサが前記対の第1の画像の取得のために使用され、第2のセンサが前記対の第2の画像の取得のために使用され、2つのセンサが小さいステレオ視ベース構成で位置決めされる、取得システムの使用方法
JP2007546074A 2004-12-16 2005-12-16 同じ焦点面内で取得された画像の対から得られる画像の自動ジオリファレンシングを使用して画像を処理する方法 Active JP4890465B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0413420 2004-12-16
FR0413420A FR2879791B1 (fr) 2004-12-16 2004-12-16 Procede de traitement d'images mettant en oeuvre le georeferencement automatique d'images issues d'un couple d'images pris dans le meme plan focal
PCT/EP2005/056852 WO2006064051A1 (fr) 2004-12-16 2005-12-16 Procede de traitement d'images mettant en oeuvre le georeferencement automatique d'images issues d'un couple d'images pris dans le meme plan focal

Publications (2)

Publication Number Publication Date
JP2008524684A JP2008524684A (ja) 2008-07-10
JP4890465B2 true JP4890465B2 (ja) 2012-03-07

Family

ID=34953586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007546074A Active JP4890465B2 (ja) 2004-12-16 2005-12-16 同じ焦点面内で取得された画像の対から得られる画像の自動ジオリファレンシングを使用して画像を処理する方法

Country Status (9)

Country Link
US (1) US8879871B2 (ja)
EP (1) EP1828992B1 (ja)
JP (1) JP4890465B2 (ja)
AT (1) ATE500575T1 (ja)
CA (1) CA2592293C (ja)
DE (1) DE602005026698D1 (ja)
FR (1) FR2879791B1 (ja)
IL (1) IL183991A (ja)
WO (1) WO2006064051A1 (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2868168B1 (fr) * 2004-03-26 2006-09-15 Cnes Epic Appariement fin d'images stereoscopiques et instrument dedie avec un faible coefficient stereoscopique
US8942483B2 (en) 2009-09-14 2015-01-27 Trimble Navigation Limited Image-based georeferencing
US8515207B2 (en) * 2007-05-25 2013-08-20 Google Inc. Annotations in panoramic images, and applications thereof
US7990394B2 (en) 2007-05-25 2011-08-02 Google Inc. Viewing and navigating within panoramic images, and applications thereof
US8094960B2 (en) * 2008-07-07 2012-01-10 Harris Corporation Spectral calibration of image pairs using atmospheric characterization
US8078009B2 (en) * 2008-07-08 2011-12-13 Harris Corporation Optical flow registration of panchromatic/multi-spectral image pairs
US8073279B2 (en) * 2008-07-08 2011-12-06 Harris Corporation Automated atmospheric characterization of remotely sensed multi-spectral imagery
US8427505B2 (en) * 2008-11-11 2013-04-23 Harris Corporation Geospatial modeling system for images and related methods
US8478067B2 (en) * 2009-01-27 2013-07-02 Harris Corporation Processing of remotely acquired imaging data including moving objects
US8260086B2 (en) * 2009-03-06 2012-09-04 Harris Corporation System and method for fusion of image pairs utilizing atmospheric and solar illumination modeling
US9477368B1 (en) 2009-03-31 2016-10-25 Google Inc. System and method of indicating the distance or the surface of an image of a geographical object
US9324003B2 (en) 2009-09-14 2016-04-26 Trimble Navigation Limited Location of image capture device and object features in a captured image
US8897541B2 (en) * 2009-09-14 2014-11-25 Trimble Navigation Limited Accurate digitization of a georeferenced image
US9497581B2 (en) * 2009-12-16 2016-11-15 Trimble Navigation Limited Incident reporting
US10115158B2 (en) 2010-10-25 2018-10-30 Trimble Inc. Generating a crop recommendation
CN102676538B (zh) * 2011-03-16 2014-11-19 嘉汉林业(中国)投资有限公司 桉树wpgs1或wpgs2基因及其过量表达具有增加植物生物量功能
FR2976386B1 (fr) * 2011-06-09 2018-11-09 Mbda France Procede et dispositif pour determiner automatiquement les contours de hauteurs du relief d'une zone geographique.
FR2976754B1 (fr) * 2011-06-15 2013-06-28 Centre Nat Etd Spatiales Capteur d'images avec correction de bouge par recalage numerique de prises de vue fractionnees
US9476970B1 (en) * 2012-03-19 2016-10-25 Google Inc. Camera based localization
CN105160684B (zh) * 2015-09-30 2019-01-18 中国科学院遥感与数字地球研究所 一种用于遥感影像几何校正的在线自动匹配方法
US10217283B2 (en) 2015-12-17 2019-02-26 Google Llc Navigation through multidimensional images spaces
US10223331B2 (en) 2016-04-08 2019-03-05 Goodrich Corporation Warp models for registering multi-spectral imagery
CN106595598B (zh) * 2016-12-21 2019-03-19 上海航天控制技术研究所 一种宽视场恒地元光学遥感成像方法
US10706551B2 (en) * 2017-03-30 2020-07-07 4DM Inc. Object motion mapping using panchromatic and multispectral imagery from single pass electro-optical satellite imaging sensors
US10379545B2 (en) * 2017-07-03 2019-08-13 Skydio, Inc. Detecting optical discrepancies in captured images
US10839211B2 (en) 2017-08-08 2020-11-17 Spaceknow Inc. Systems, methods and computer program products for multi-resolution multi-spectral deep learning based change detection for satellite images
CN107702697B (zh) * 2017-09-27 2019-11-29 中国科学院长春光学精密机械与物理研究所 Tdi相机垂轨旋转摆扫成像的行频计算方法
CN107705246B (zh) 2017-10-16 2019-08-16 苏州微景医学科技有限公司 图像配准方法和图像拼接方法及装置
FR3081590B1 (fr) * 2018-05-22 2020-06-19 Airbus Ds Geo Sa Procede d’augmentation de resolution spatiale d’une image multi-spectrale a partir d’une image panchromatique
CN110310370B (zh) * 2019-06-18 2023-01-10 中南林业科技大学 一种gps与srtm点面融合的方法
CN111160276B (zh) * 2019-12-31 2023-05-12 重庆大学 基于遥感影像的u型空洞全卷积分割网络识别模型
DE102020201496A1 (de) * 2020-02-07 2021-08-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Verfahren zur Georeferenzierung von Fernerkundungsdaten

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01133179A (ja) * 1987-11-18 1989-05-25 Nec Corp 多バンドステレオ画像データ作成装置
JP2002157576A (ja) * 2000-11-22 2002-05-31 Nec Corp ステレオ画像処理装置及びステレオ画像処理方法並びにステレオ画像処理用プログラムを記録した記録媒体
JP2003141575A (ja) * 2001-11-02 2003-05-16 Nec Toshiba Space System Kk 三次元データベース生成システム及び三次元データベース生成方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2752619B1 (fr) * 1996-08-23 1998-11-13 Thomson Csf Procede et dispositif de reconnaissance air-sol pour equipement optronique
US6064760A (en) * 1997-05-14 2000-05-16 The United States Corps Of Engineers As Represented By The Secretary Of The Army Method for rigorous reshaping of stereo imagery with digital photogrammetric workstation
JP4021026B2 (ja) * 1998-01-29 2007-12-12 富士重工業株式会社 ステレオ画像処理システム
US6694064B1 (en) * 1999-11-19 2004-02-17 Positive Systems, Inc. Digital aerial image mosaic method and apparatus
US7038681B2 (en) * 2000-03-29 2006-05-02 Sourceprose Corporation System and method for georeferencing maps
US6757445B1 (en) * 2000-10-04 2004-06-29 Pixxures, Inc. Method and apparatus for producing digital orthophotos using sparse stereo configurations and external models
JP4181800B2 (ja) * 2002-06-20 2008-11-19 Nec東芝スペースシステム株式会社 ステレオ画像を用いた地形計測システム及び記憶媒体並びにプログラム
IL155034A0 (en) * 2003-03-23 2004-06-20 M A M D Digital Data Proc Syst Automatic aerial digital photography and digital data processing systems
US20060215935A1 (en) * 2004-04-02 2006-09-28 The Boeing Company System and architecture for automatic image registration
US7751651B2 (en) * 2004-04-02 2010-07-06 The Boeing Company Processing architecture for automatic image registration
US20050283294A1 (en) * 2004-06-16 2005-12-22 Lehman Allen A Jr Method and apparatus for machine guidance at a work site
US20060041375A1 (en) * 2004-08-19 2006-02-23 Geographic Data Technology, Inc. Automated georeferencing of digitized map images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01133179A (ja) * 1987-11-18 1989-05-25 Nec Corp 多バンドステレオ画像データ作成装置
JP2002157576A (ja) * 2000-11-22 2002-05-31 Nec Corp ステレオ画像処理装置及びステレオ画像処理方法並びにステレオ画像処理用プログラムを記録した記録媒体
JP2003141575A (ja) * 2001-11-02 2003-05-16 Nec Toshiba Space System Kk 三次元データベース生成システム及び三次元データベース生成方法

Also Published As

Publication number Publication date
WO2006064051A1 (fr) 2006-06-22
FR2879791B1 (fr) 2007-03-16
JP2008524684A (ja) 2008-07-10
CA2592293A1 (fr) 2006-06-22
DE602005026698D1 (de) 2011-04-14
CA2592293C (fr) 2015-04-14
IL183991A (en) 2011-11-30
EP1828992A1 (fr) 2007-09-05
FR2879791A1 (fr) 2006-06-23
EP1828992B1 (fr) 2011-03-02
ATE500575T1 (de) 2011-03-15
US8879871B2 (en) 2014-11-04
IL183991A0 (en) 2007-10-31
US20080089558A1 (en) 2008-04-17

Similar Documents

Publication Publication Date Title
JP4890465B2 (ja) 同じ焦点面内で取得された画像の対から得られる画像の自動ジオリファレンシングを使用して画像を処理する方法
Toutin Geometric processing of remote sensing images: models, algorithms and methods
Carvajal-Ramírez et al. Effects of image orientation and ground control points distribution on unmanned aerial vehicle photogrammetry projects on a road cut slope
Parente et al. Optimising the quality of an SfM‐MVS slope monitoring system using fixed cameras
Robertson Rigorous geometric modeling and correction of QuickBird imagery
Benjamin et al. Improving data acquisition efficiency: Systematic accuracy evaluation of GNSS-assisted aerial triangulation in UAS operations
Maurice et al. A photogrammetric approach for map updating using UAV in Rwanda
Javadnejad Small unmanned aircraft systems (UAS) for engineering inspections and geospatial mapping
Singla et al. 3D building reconstruction and validation using high-resolution stereo data
Long et al. Block adjustment with relaxed constraints from reference images of coarse resolution
Kardoš Methods of digital photogrammetry in forest management in Slovakia.
Schmidt et al. The use of CORONA satellite images for generating a high resolution digital elevation model
Dowman Encoding and validating data from maps and images
Dev et al. Production of orthophoto map using mobile photogrammetry and comparative assessment of cost and accuracy with satellite imagery for corridor mapping: a case study in Manesar, Haryana, India
Ahn et al. Ortho-rectification software applicable for IKONOS high resolution images: GeoPixel-Ortho
Toutin Three-dimensional geometric correction of Earth observation satellite data
Müller et al. Ortho image production within an automatic processing chain for hyperspectral airborne scanner ARES
JP2004171413A (ja) デジタル画像処理装置
Abduelmola High resolution satellite image analysis and rapid 3D model extraction for urban change detection
Schläpfer et al. Parametric geocoding of AVIRIS data using a ground control point derived flightpath
El Sagheer et al. Rigorous Versus Generalized Sensor Models: Assessment of Different Height Sources for Orthorectification of High-Resolution Satellite Imagery
Bethel Imaging Body of Knowledge for the Professional Surveyor
Howat Elevation Model Mosaicking From Coregistration, Adjustment, and Median of Stacks (CAMS)
Ioannou et al. Evaluating large scale orthophotos derived from high resolution satellite imagery
Abduelmula et al. High-accuracy satellite image analysis and rapid DSM extraction for urban environment evaluations (Tripoli-Libya)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110218

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110506

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111214

R150 Certificate of patent or registration of utility model

Ref document number: 4890465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250