JPH0894747A - Topography-extracting apparatus based on image of synthetic aperture radar - Google Patents

Topography-extracting apparatus based on image of synthetic aperture radar

Info

Publication number
JPH0894747A
JPH0894747A JP6233077A JP23307794A JPH0894747A JP H0894747 A JPH0894747 A JP H0894747A JP 6233077 A JP6233077 A JP 6233077A JP 23307794 A JP23307794 A JP 23307794A JP H0894747 A JPH0894747 A JP H0894747A
Authority
JP
Japan
Prior art keywords
phase
phase difference
image
pixel
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6233077A
Other languages
Japanese (ja)
Inventor
Shigetoshi Ishikawa
重年 石川
Kiyousuke Kawabata
享介 河端
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP6233077A priority Critical patent/JPH0894747A/en
Publication of JPH0894747A publication Critical patent/JPH0894747A/en
Pending legal-status Critical Current

Links

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

PURPOSE: To compute the difference of phases accurately by providing a group dividing means, which divides the phase difference corresponding to topography, a phase integration memory, a magnitude judging means, a phase adding means for the group and a total-phase-difference adding means. CONSTITUTION: A phase-difference computing means 3 reads the image corresponding to the result of the inspection of the correspondence of two images from an image storing memory 1 and writes the result into a phase storing memory 4 after the computation of the phase difference. A phase-difference-change computing means 5 reads two orbit data and the observing time of each pixel in the memory 1 and computes the satellite position and the distance to the ground point corresponding to each pixel of each image with regard to two orbits. A magnitude discriminating means 10 reads the phase difference corresponding to the elevation and the result of the group dividing from the memory 4 and a phase-integration memory 9 and superimpose the results on the memory 9 after the discrimination of the magnitude relation between the groups. An in-group phase adding means 11 and a total-phase computing means 12 read the phase difference and the like corresponding to the elevation and computer the total phase of each pixel.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、人工衛星や飛行機な
どの飛しょう体に搭載した合成開口レーダによるリモー
トセンシングにおける地形抽出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a terrain extraction device for remote sensing by a synthetic aperture radar mounted on a flying body such as an artificial satellite or an airplane.

【0002】[0002]

【従来の技術】自ら電波を放射しその反射波を受信する
合成開口レーダを用いた観測では、振幅情報と同時に位
相情報が得られる。近年この画像中の位相情報に着目
し、2つの画像の位相情報を用いて観測対象地域の地形
を求める処理(干渉計処理)が行なわれている。従来の
合成開口レーダを用いた地形情報抽出装置、および処理
を図7,図8をもとに説明する。
2. Description of the Related Art In an observation using a synthetic aperture radar that emits radio waves and receives reflected waves, phase information can be obtained at the same time as amplitude information. In recent years, attention has been paid to the phase information in this image, and processing (interferometer processing) for obtaining the topography of the observation target area using the phase information of the two images has been performed. A terrain information extraction device and processing using a conventional synthetic aperture radar will be described with reference to FIGS. 7 and 8.

【0003】図7において1は2つの異なる日時に観測
した合成開口レーダの複素数画像とそれを取得した際の
軌道データ、および各画素の観測時刻を格納する画像格
納メモリである。対応点検出手段2は、画像格納メモリ
1から2つの異なる日時に観測した合成開口レーダ複素
数画像を読みだし、一方の画像の総ての目標物の画素に
対応する他方の画像状の画素を検出し、その結果を位相
差算出手段3に与える。位相差算出手段3では、2つの
画像の対応点検出結果に対応する画素を画像格納メモリ
1から読みだし、位相差を算出後その結果を位相格納メ
モリ4に書き込む。位相差変化算出手段5は、画像格納
メモリ1中に2つの軌道データ、および各々の画像の各
画素の観測時刻を読み込み、2つの軌道に関して衛星位
置と各々の画像の各画素に対応する地上点までの距離を
計算する。そして両者の差と電波の波長から、位相差を
画像の各画素に対応する算出し、その結果を高度ゼロの
位相差として標高位相差算出手段6に与える。標高位相
差算出手段6は、全画素の位相差を位相格納メモリ4か
ら読み込み、それから対応する高度ゼロの位相差を差し
引き、その結果を位相格納メモリ4に上書きする。位相
積分手段7は標高に対応する位相差を位相格納メモリ4
から読み込み、それの積分後結果を位相格納メモリ4に
上書きする。位相積分手段7は次のステップからなる。
位相加算手段44では、標高に対応する位相差を位相格
納メモリ4から読み込み、隣接する画素ごとにある基準
に従い大小関係を判定後、位相の加減算を行い、その結
果を位相格納メモリ4に上書きする。地形情報変換手段
13では、各画素のトータルの位相を位相格納メモリ4
から読み込み、標高に変換後最終結果を位相格納メモリ
4に上書きする。
In FIG. 7, reference numeral 1 denotes an image storage memory for storing a complex number image of a synthetic aperture radar observed at two different dates and times, orbit data when the image was acquired, and an observation time of each pixel. Corresponding point detection means 2 reads the synthetic aperture radar complex number images observed at two different dates and times from the image storage memory 1 and detects the other image-like pixels corresponding to the pixels of all the targets of one image. Then, the result is given to the phase difference calculating means 3. In the phase difference calculating means 3, the pixels corresponding to the detection result of the corresponding points of the two images are read from the image storage memory 1, the phase difference is calculated, and the result is written in the phase storage memory 4. The phase difference change calculation means 5 reads the two orbital data and the observation time of each pixel of each image into the image storage memory 1, and the satellite position and the ground point corresponding to each pixel of each image with respect to the two orbits. Calculate the distance to. Then, a phase difference corresponding to each pixel of the image is calculated from the difference between the two and the wavelength of the radio wave, and the result is given to the altitude phase difference calculating means 6 as a phase difference of zero altitude. The altitude phase difference calculation means 6 reads the phase differences of all pixels from the phase storage memory 4, subtracts the corresponding phase difference of zero from the altitude, and overwrites the result on the phase storage memory 4. The phase integration means 7 stores the phase difference corresponding to the altitude in the phase storage memory 4
And the integrated result is overwritten in the phase storage memory 4. The phase integrating means 7 comprises the following steps.
The phase addition means 44 reads the phase difference corresponding to the altitude from the phase storage memory 4, determines the magnitude relationship according to a criterion for each adjacent pixel, adds or subtracts the phase, and overwrites the result in the phase storage memory 4. . In the terrain information conversion means 13, the total phase of each pixel is stored in the phase storage memory 4
Is read from, and the final result is overwritten in the phase storage memory 4 after being converted to an altitude.

【0004】次に処理フローを図8のフローチャートに
従い説明する。いま、2つの異なる日時に観測した合成
開口レーダの複素数画像とそれを取得した際の軌道デー
タ、および各画素の観測時刻が画像メモリ1に格納され
たとすると(ステップ14)、対応点検出手段2は2つ
の画素を画像格納メモリ1から読みだし2つの画像の対
応点を検出する(ステップ15)。検出結果をもとに位
相差算出手段3は、2つの画像の対応点検出結果と2つ
の複素数画像から位相差を全画素に関して算出し干渉縞
をつくる(ステップ16)。次に位相差変化算出手段5
は、画像格納メモリ1中の軌道データ、および各画素の
観測時刻を読み込み、2つの軌道に関して衛星位置と各
々の画像の各画素に対応する地上点までの距離を計算
し、両者の差と電波の波長から位相差を画像の各画素に
対して算出する。標高位相差算出手段6は、2つの画像
の対応点から算出された位相差からその高度ゼロの位相
差を減算する(ステップ17)。位相積分手段7は標高
に対応する位相差を用いて、位相積分手段7中の位相加
算手段44で隣接する画素ごとに差を求め、その差が0
゜から180゜の範囲であれば位相差を大と判定し、1
80゜から360゜であれば位相差を小と判定して大小
関係を判別後、位相の加減算を行い各画素のトータルの
位相を算出する(ステップ45)。算出したトータルの
位相を用いて地形情報変換手段13で、標高に変換する
(ステップ20)。
Next, the processing flow will be described with reference to the flowchart of FIG. Now, assuming that the complex number images of the synthetic aperture radar observed at two different dates and times, the orbit data when the images are acquired, and the observation time of each pixel are stored in the image memory 1 (step 14), the corresponding point detecting means 2 Reads out two pixels from the image storage memory 1 and detects corresponding points of the two images (step 15). Based on the detection result, the phase difference calculating means 3 calculates the phase difference for all pixels from the corresponding point detection result of the two images and the two complex number images to form interference fringes (step 16). Next, the phase difference change calculation means 5
Reads the orbit data in the image storage memory 1 and the observation time of each pixel, calculates the satellite position for two orbits and the distance to the ground point corresponding to each pixel of each image. The phase difference is calculated for each pixel of the image from the wavelength of. The altitude phase difference calculating means 6 subtracts the phase difference of zero altitude from the phase difference calculated from the corresponding points of the two images (step 17). The phase integrator 7 uses the phase difference corresponding to the altitude to find the difference between adjacent pixels by the phase adder 44 in the phase integrator 7, and the difference is 0.
If the range is between 180 ° and 180 °, the phase difference is judged to be large and 1
From 80 ° to 360 °, the phase difference is determined to be small, the magnitude relationship is determined, and then the phase is added / subtracted to calculate the total phase of each pixel (step 45). Using the calculated total phase, the terrain information converting means 13 converts it into an altitude (step 20).

【0005】図中の処理15は、図9に示すように2つ
の画像の軌道46,47が異なるため、そのままでは各
々の画像48,49中の点が対応しない。そのため一方
の画像を平行移動、あるいは一方の画像を他方の画像へ
合わせ込みを行なう処理である。画像の対応点をとる方
法は“数1”に示す相関係数を計算し、その最大値とな
る点を対応点とする。ここで、一方の画像をA、他方の
画像をB、そのサイズをL,M,a,bijは各々の画像
の画素値の平均値の平均、a,bijは各々の画像の値と
平均値との差の自乗和、の相関係数をcijとする。
In the process 15 in the figure, since the trajectories 46 and 47 of the two images are different as shown in FIG. 9, the points in the images 48 and 49 do not correspond as they are. Therefore, this is a process of translating one image or aligning one image with the other image. The method of taking the corresponding points of the image is to calculate the correlation coefficient shown in "Equation 1" and use the point having the maximum value as the corresponding points. Here, one image is A, the other image is B, and the sizes thereof are L, M, a, and b ij are the averages of the average pixel values of the respective images, and a and b ij are the values of the respective images. The correlation coefficient of the sum of squares of the difference from the average value is c ij .

【0006】[0006]

【数1】 [Equation 1]

【0007】ただし、複素数画像の場合に“数1”を計
算するには、“数2”に示すように振幅値を計算してか
ら行う。ここで、複素数画像の実数Re,虚数Im,振
幅値AMPとする。
However, in the case of a complex number image, "mathematical expression 1" is calculated after calculating the amplitude value as shown in "mathematical expression 2". Here, the real number Re, the imaginary number Im, and the amplitude value AMP of the complex number image are assumed.

【0008】[0008]

【数2】 [Equation 2]

【0009】図8中、処理ステップ16,ステップ17
の原理を図10に示す。図中の50,51は異なる日時
に観測した際の合成開口レーダの位置で、図中の曲線は
2つの合成開口レーダからの等位相差線を表す。干渉縞
は図中の等位相差線と地形との交点の位相を表し、地形
の変化に応じて位相差も変化する。2つの複素数画像の
対応する点の位相差の算出は“数3”に示すとおりであ
る。ここで、一方の複素画像の振幅をAMP0,位相を
θ0,他方の複素数画像の振幅をAMP1、位相をθ
1,位相差をθとする。
In FIG. 8, processing steps 16 and 17
The principle of is shown in FIG. 50 and 51 in the figure are the positions of the synthetic aperture radar when observed at different dates and times, and the curves in the figure represent the equal phase difference lines from the two synthetic aperture radars. The interference fringe represents the phase of the intersection of the equal phase difference line in the figure and the topography, and the phase difference also changes according to the change of the topography. The calculation of the phase difference between the corresponding points of the two complex number images is as shown in "Equation 3". Here, the amplitude of one complex image is AMP0, the phase is θ0, the amplitude of the other complex image is AMP1, and the phase is θ.
1, the phase difference is θ.

【0010】[0010]

【数3】 [Equation 3]

【0011】このままでは、高さがゼロであっても合成
開口レーダから離れるに従って位相が変化する。このこ
とは、図10中の水平面が等位相差線を複数本横切って
いることに対応する。
In this state, even if the height is zero, the phase changes as the distance from the synthetic aperture radar increases. This corresponds to the horizontal plane in FIG. 10 crossing a plurality of equal phase difference lines.

【0012】処理ステップ16では干渉縞から高さゼロ
(水平面)との交点の位相差の変化を差し引き、地形の
変化に対応した位相差を求める。高さゼロ(水平面)と
の交点の位相差の変化は、2つの観測軌道、各画素の観
測時刻から衛星と地球上の位置関係を求め、“数4”を
用いて求める。ただし、位相差をθ,50,51の地球
から高度を各々52,53をh0,h1とし、50,5
1の水平方向の距離54をL、51の直下点からの距離
55をx,電波の波長をλとする。
In processing step 16, the change in phase difference at the intersection with the height of zero (horizontal plane) is subtracted from the interference fringes to obtain the phase difference corresponding to the change in topography. The change in the phase difference at the intersection with the height of zero (horizontal plane) is calculated using "Equation 4" by calculating the positional relationship between the satellite and the earth from the observation time of two observation orbits and each pixel. However, if the phase difference is θ, 50, 51 from the earth, and the altitudes are 52, 53, h0, h1, respectively, 50, 5
The horizontal distance 54 of 1 is L, the distance 55 from the point directly below 51 is x, and the wavelength of the radio wave is λ.

【0013】[0013]

【数4】 [Equation 4]

【0014】“数4”から得らる位相差から、例えば図
10中、地点57に対応する位相差は図中58の位相差
である。この位相から高さゼロに対応する位相差57か
ら56までの位相差を引くと地形に対応する位相が得ら
れる。
From the phase difference obtained from "Equation 4", for example, the phase difference corresponding to the point 57 in FIG. 10 is the phase difference 58 in the figure. By subtracting the phase difference 57 to 56 corresponding to the height of zero from this phase, the phase corresponding to the terrain is obtained.

【0015】次に図8中、処理ステップ44の原理を図
11に示す。ある画素59をスタートとし、それに隣り
合う画素60の位相差をスタートの画素に加える。同様
にその隣り合う画素61に、いま求めた位相差を加える
ことによって順次位相差を求める。したがって、画素6
1のトータルの位相は“数5”のように計算される。た
だし、画素61の積分後の位相をθ61,画素59の位
相差をΔθ59,画素60の位相差をΔθ60,画素6
1の位相差をΔθ61とする。
Next, FIG. 11 shows the principle of the processing step 44 in FIG. A certain pixel 59 is started, and the phase difference of the pixel 60 adjacent thereto is added to the start pixel. Similarly, the phase difference thus obtained is added to the adjacent pixels 61 to sequentially obtain the phase difference. Therefore, pixel 6
The total phase of 1 is calculated as in "Equation 5". However, the integrated phase of the pixel 61 is θ61, the phase difference of the pixel 59 is Δθ59, the phase difference of the pixel 60 is Δθ60, and the pixel 6 is
The phase difference of 1 is Δθ61.

【0016】[0016]

【数5】 [Equation 5]

【0017】図8中の処理ステップ20は、2つの軌道
の位置関係から求めた位相から地形情報に変換する。例
えばClaudioとFabioらは位相を地形情報に
変換する数6を提唱している。ただし、各変数は図12
の一方の衛星位置を62,他方の位置を63,観測点の
標高64をq,電波の角速度をω,軌道間隔のスラント
レンジ方向に垂直な方向成分65をns,光速をc,ス
ラントレンジ66をh,ルックアングル67をφ,位相
をθとする。
In processing step 20 in FIG. 8, the phase obtained from the positional relationship between the two trajectories is converted into topographical information. For example, Claudio and Fabio have proposed Equation 6 for converting the phase into topographical information. However, each variable is shown in FIG.
One satellite position is 62, the other position is 63, the elevation 64 of the observation point is q, the angular velocity of the radio wave is ω, the direction component 65 of the orbit interval perpendicular to the slant range direction is ns, the speed of light is c, and the slant range 66. Is h, the look angle 67 is φ, and the phase is θ.

【0018】[0018]

【数6】 [Equation 6]

【0019】[0019]

【発明が解決しようとする課題】従来の方法では、地形
に対応する位相差を積分する場合、単純に前の画素の位
相差に隣の画素の位相差を加算、減算していた。位相は
0゜から360゜の範囲しかないため、位相が進んでい
るのか、遅れているのかの判断を差が0゜から180゜
であれば進んでおり、180゜から360゜であれば遅
れているとしていた。しかし、ノイズによって位相差が
急激に変化する場合や、地形が急激に変化しているため
位相差も同様に急激に変化している場合には、位相を加
算しなければならないところで、位相を減算することに
なり位相の不確かさが生じることになる。前の画素を参
照するため位相差が誤りがその画素以降伝ぱんし、結果
として誤った位相差を算出することになる。したがっ
て、ノイズによって位相差が急激に変化する場合や、地
形が急激に変化している場合でも、位相差の誤りを伝ぱ
んさせないようにする必要があった。
In the conventional method, when the phase difference corresponding to the terrain is integrated, the phase difference of the adjacent pixel is simply added to or subtracted from the phase difference of the preceding pixel. Since the phase is only in the range of 0 ° to 360 °, it is judged whether the phase is advanced or delayed if the difference is 0 ° to 180 °, and it is delayed if 180 ° to 360 °. I was trying to. However, if the phase difference changes abruptly due to noise, or if the phase difference also changes abruptly due to the terrain changing rapidly, the phase should be added, and the phase subtracted. As a result, phase uncertainty will occur. Since the previous pixel is referred to, an error in the phase difference propagates from that pixel onward, resulting in the calculation of an incorrect phase difference. Therefore, it is necessary to prevent the error of the phase difference from being propagated even when the phase difference changes rapidly due to noise or the topography changes rapidly.

【0020】この発明はかかる課題を解決するためにな
されたものであり、ノイズによって位相差が急激に変化
する場合や、地形が急激に変化する場合でも正確に位相
差を算出できる地形抽出装置を得ることを目的とする。
The present invention has been made in order to solve the above problems, and provides a terrain extraction device capable of accurately calculating a phase difference even when the phase difference changes abruptly due to noise or when the terrain changes abruptly. The purpose is to get.

【0021】[0021]

【課題を解決するための手段】この発明の合成開口レー
ダ画像による地形抽出装置は位相積分手段に、位相格納
メモリのデータを読み出し、地形に対応する位相差をあ
る範囲のグループに分割するグループ分割手段と、その
グループ分けの結果を格納する位相積分用メモリと、グ
ループ分けの結果を領域に分割し、その領域ごとの大小
関係を判定する大小判定手段と、グループ内で位相を順
次加算するグループ内位相加算手段と、大小判定手段結
果とグループ内位相加算手段結果からトータルの位相差
を算出するトータル位相差算出手段を設ける。
A terrain extraction apparatus using a synthetic aperture radar image according to the present invention reads data in a phase storage memory into a phase integrator and divides a phase difference corresponding to the terrain into groups within a certain range. Means, a phase integration memory that stores the result of grouping, a magnitude determining unit that divides the result of grouping into regions and determines the magnitude relationship for each region, and a group that sequentially adds phases within the group. An internal phase addition means and a total phase difference calculation means for calculating a total phase difference from the magnitude determination means result and the in-group phase addition means result are provided.

【0022】またこの発明は上記位相積分手段でのグル
ープ分割手段において、位相を120゜ごとグループに
分割する。
Further, according to the present invention, the phase is divided into groups every 120 ° in the group dividing means in the phase integrating means.

【0023】この発明は上記大小判定手段において、隣
接する3つのグループ間の大小が一定の関係であれば、
その関係を採用する。
According to the present invention, in the above-mentioned magnitude judging means, if the magnitudes between the three adjacent groups are constant,
Adopt that relationship.

【0024】またこの発明は上記大小判定手段におい
て、隣接する3つのグループ間の大小が一定の関係でな
ければ、異なった大小関係を判定しているグループの境
界の画素数の比較を行い、その数が多いほうの関係を採
用する。
Further, according to the present invention, in the size determining means, if the sizes of three adjacent groups are not in a fixed relationship, the numbers of pixels at the boundaries of the groups that are different in size are compared, and the comparison is made. Adopt the relationship with the larger number.

【0025】[0025]

【作用】この発明は、標高に相当する位相を積分する際
に隣接するピクセルごとではなく、位相をグループに分
割し、分割したグループごとに大小関係を決定する。グ
ループごとの大小関係が決定された後、そのグループ内
の各画素の大小関係を決定する。
According to the present invention, when integrating the phase corresponding to the altitude, the phase is divided into groups, not adjacent pixels, and the magnitude relationship is determined for each divided group. After the magnitude relationship for each group is determined, the magnitude relationship for each pixel in the group is determined.

【0026】また位相積分手段でのグループ分割手段
は、位相差を一義的に3つのグループに分割する。
Further, the group dividing means in the phase integrating means uniquely divides the phase difference into three groups.

【0027】大小判定手段は、隣接する3つのグループ
間の大小が一定の関係であれば、その関係を決定する。
The magnitude determining means determines the relationship between the three adjacent groups if the magnitude is constant.

【0028】また大小判定手段は、隣接する3つのグル
ープ間の大小が一定の関係でなくても、その関係を決定
する。
Further, the size determining means determines the relationship between the three adjacent groups even if the size is not constant.

【0029】[0029]

【実施例】【Example】

実施例1.この発明の手法の一実施例である図面に基づ
き詳述する。図1は本発明の実施に使用する装置のブロ
ック図、図2は本発明の手法のフローチャートである。
図1において1は2つの異なる日時に観測した合成開口
レーダ複素数画像とそれを取得した際の軌道データ、お
よび各画素の観測時刻を格納する画像格納メモリであ
る。対応点検手段2は、画像格納メモリ1から2つの異
なる日時に観測した合成開口レーダ複素数画像を読みだ
し、一方の画像の総ての目標物の画素に対応する他方の
画像上の画素を検出し、その結果を位相差算出手段3に
与える。位相差算出手段3では、2つの画像の対応点検
出結果に対応する画素を画像格納メモリ1から読みだ
し、位相差を算出後その結果を位相格納メモリ4に書き
込む。位相差変化算出手段5は、画像格納メモリ1中の
2つの軌道データ、および各々の画像の各画素の観測時
刻を読み込み、2つの軌道に関して衛星位置と各々の画
像の各画素に対応する地上点までの距離を計算する。そ
して両者の差と電波の波長から、画像の各画素に対応す
る位相差を算出し、その結果を高度ゼロの位相差として
標高位相差算出手段6に与える。標高位相差算出手段6
は、全画素の位相差を位相格納メモリ4から読み込み、
それから対応する高度ゼロの位相差を差し引き、その結
果を位相格納メモリ4に上書きする。位相積分手段7は
標高に対応する位相差を位相格納メモリ4から読み込
み、それを積分後結果を位相格納メモリ4に上書きす
る。位相積分手段7は次のステップからなる。グループ
分割手段8では、標高に対応する位相差を位相格納メモ
リ4から読み込み、位相差を120゜の範囲ごとにグル
ープ分け採番し、その結果を位相積分メモリ9に書き込
む。大小判別手段10では、標高に対応する位相差、お
よびグループ分割結果を各々位相格納メモリ4、および
位相積分メモリ9から読み込み、グループ間の大小関係
判別後降順に採番し、その結果を位相積分用メモリ9に
上書きする。グループ内位相加算手段11およびトータ
ル位相の算出手段12では、標高に対応する位相差、お
よびグループを降順に採番した結果を各々位相格納メモ
リ4、および位相積分メモリ9から読み込み、各グルー
プの各画素のトータル位相を算出後、その結果を位相格
納メモリ4に上書きする。地形情報変換手段13では、
各画素のトータルの位相を位相格納メモリ4から読み込
み、標高に変換後最終結果を位相格納メモリ4に上書き
する。
Example 1. An embodiment of the method of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram of an apparatus used for implementing the present invention, and FIG. 2 is a flowchart of the method of the present invention.
In FIG. 1, reference numeral 1 denotes an image storage memory that stores synthetic aperture radar complex number images observed at two different dates and times, orbital data when the images were acquired, and observation times of each pixel. Correspondence checking means 2 reads the synthetic aperture radar complex number images observed at two different dates and times from the image storage memory 1 and detects the pixels on the other image corresponding to the pixels of all the targets of one image. The result is given to the phase difference calculating means 3. In the phase difference calculating means 3, the pixels corresponding to the detection result of the corresponding points of the two images are read from the image storage memory 1, the phase difference is calculated, and the result is written in the phase storage memory 4. The phase difference change calculation means 5 reads the two orbit data in the image storage memory 1 and the observation time of each pixel of each image, and the satellite position and the ground point corresponding to each pixel of each image with respect to the two orbits. Calculate the distance to. Then, the phase difference corresponding to each pixel of the image is calculated from the difference between them and the wavelength of the radio wave, and the result is given to the altitude phase difference calculating means 6 as a phase difference of zero altitude. Elevation phase difference calculation means 6
Reads the phase difference of all pixels from the phase storage memory 4,
Then, the corresponding phase difference of zero altitude is subtracted, and the result is overwritten in the phase storage memory 4. The phase integrator 7 reads the phase difference corresponding to the altitude from the phase storage memory 4, and after the integration, overwrites the result on the phase storage memory 4. The phase integrating means 7 comprises the following steps. In the group dividing means 8, the phase difference corresponding to the altitude is read from the phase storage memory 4, the phase difference is numbered into groups in the range of 120 °, and the result is written in the phase integration memory 9. The magnitude discriminating means 10 reads the phase difference corresponding to the altitude and the group division result from the phase storage memory 4 and the phase integration memory 9, respectively, and after determining the magnitude relation between the groups, numbers them in descending order, and the result is phase integrated. The memory 9 for writing is overwritten. The in-group phase adding means 11 and the total phase calculating means 12 read the phase difference corresponding to the altitude and the result of numbering the groups in descending order from the phase storage memory 4 and the phase integration memory 9, respectively. After the total phase of the pixel is calculated, the result is overwritten in the phase storage memory 4. In the topographical information conversion means 13,
The total phase of each pixel is read from the phase storage memory 4, converted to an altitude, and the final result is overwritten in the phase storage memory 4.

【0030】次に処理フローを図2のフローチャートに
従い説明する。いま、2つの異なる日時に観測した合成
開口レーダ複素数画像とそれを取得した際の軌道データ
と各画素の観測時刻が画像メモリ1に格納されたとする
と(ステップ14)、対応点検出手段2は2つの画像を
画像格納メモリ1から読みだし2つの画像の対応点を検
出する(ステップ15)。検出結果をもとに位相差算出
手段3は、2つの画像の対応点検出結果と2つの複素数
画像から位相差を算出しそれを干渉縞とする(ステップ
16)。次に位相差変化算出手段5は、画像格納メモリ
1中の軌道データ、および各々の画像の各画素の観測時
刻を読み込み、2つの軌道に関して衛星位置と各々の画
像の各画素に対応する地上点までの距離を計算する。両
者の差と電波の波長から、画像の各画素に対応する位相
差を算出し、標高位相差算出手段6は、干渉縞からその
高度ゼロの位相差を減算する(ステップ17)。位相積
分手段7は標高に対応する位相差を用いて、位相積分手
段7中の次のステップのグループ分割手段8で、位相差
を120゜ごとにグループ分け採番し、次ステップの大
小別手段10で、グループ間の大小関係判別後降順に採
番する(ステップ18)。位相積分手段(7)中の次の
ステップであるグループ内位相加算手段11で、標高に
対応する位相差、およびグループを降順に採番した結果
から、各グループの各画素のトータル位相を算出する
(ステップ19)。トータルの位相を用いて地形情報変
換手段(12)で、標高に変換する(ステップ20)。
Next, the processing flow will be described with reference to the flowchart of FIG. Now, assuming that the synthetic aperture radar complex number images observed at two different dates and times, the orbital data when the images are acquired, and the observation time of each pixel are stored in the image memory 1 (step 14), the corresponding point detecting means 2 outputs 2 One image is read from the image storage memory 1 and the corresponding points of the two images are detected (step 15). Based on the detection result, the phase difference calculating means 3 calculates the phase difference from the corresponding point detection result of the two images and the two complex number images, and makes it the interference fringe (step 16). Next, the phase difference change calculation means 5 reads the orbit data in the image storage memory 1 and the observation time of each pixel of each image, and the satellite position and the ground point corresponding to each pixel of each image with respect to the two orbits. Calculate the distance to. The phase difference corresponding to each pixel of the image is calculated from the difference between the two and the wavelength of the radio wave, and the altitude phase difference calculating means 6 subtracts the phase difference of zero altitude from the interference fringes (step 17). The phase integrating means 7 uses the phase difference corresponding to the altitude, and the group dividing means 8 of the next step in the phase integrating means 7 assigns the phase difference to each group by 120 ° and assigns a number to the next step. At 10, the numbers are numbered in descending order after the magnitude relationship between the groups is determined (step 18). The total phase of each pixel of each group is calculated from the phase difference corresponding to the altitude and the result of numbering the groups in descending order by the intra-group phase adding means 11 which is the next step in the phase integrating means (7). (Step 19). The terrain information converting means (12) converts the altitude using the total phase (step 20).

【0031】処理ステップ18を次に詳細に説明する。
位相差は120゜ずつ3つのグループに分割するので、
グループ間の大小関係が一義的に決定できる。2つの複
素画像から算出した位相差を0゜から120゜の範囲を
21に、120゜から240゜の範囲を22、240゜
から360゜までの範囲を23と採番した例を図3に示
す。但し、21と23を比較する場合には、21の位相
差の範囲を360゜から480゜と考える。これは、位
相差を単純に採番したのみで、ある画素と隣の画素が同
じグループか否かという情報はない、そこである画素と
隣の画素が同じグループか否かという判断をし、同一の
グループであれば同じ領域とし、異なれば違う領域とし
て画像全体を領域に分割し、24から37に採番した例
を図4に示す。この領域分割したグループごとに位相差
の大小を求めるが、従来の位相差の大小基準では、図領
域24は領域28より小さいが、領域30より大きくな
る。この発明の方法では2つの領域間の大小関係に矛盾
が生じた場合、2通りの大小関係を判定している領域の
境界の画素数の比較を行い、その数が多いほうの関係を
採用するので、その判定の確実度を高めることができ
る。図5に上記手法を図4に適用して求めた領域単位で
の大小関係の結果そ示す。またこの処理のフローチャー
トを図6に示す。
Process step 18 will now be described in detail.
Since the phase difference is divided into three groups of 120 degrees,
The size relationship between groups can be uniquely determined. Fig. 3 shows an example in which the phase difference calculated from two complex images is numbered 21 from 0 ° to 120 °, 22 from 120 ° to 240 °, and 23 from 240 ° to 360 °. Show. However, when comparing 21 and 23, the range of the phase difference of 21 is considered to be 360 ° to 480 °. This is because the phase difference is simply numbered and there is no information as to whether or not a pixel and an adjacent pixel are in the same group. Therefore, it is determined whether or not a pixel and an adjacent pixel are in the same group and the same. FIG. 4 shows an example in which the entire image is divided into areas and the areas are numbered from 24 to 37 as the same area if the groups are different and different areas if different. The magnitude of the phase difference is obtained for each group obtained by dividing the area. According to the conventional criteria for the magnitude of the phase difference, the figure area 24 is smaller than the area 28 but larger than the area 30. According to the method of the present invention, when a contradiction occurs in the magnitude relationship between two areas, the number of pixels at the boundary of the areas for which two magnitude relationships are determined is compared, and the relationship having the larger number is adopted. Therefore, the certainty of the determination can be increased. FIG. 5 shows the result of the size relation in area units obtained by applying the above method to FIG. A flowchart of this processing is shown in FIG.

【0032】領域の大小関係を求める処理は、位相差を
120゜ずつ3つのグループに分割し、ラベル1〜3の
ラベルをつける処理(ステップ38)、ラベルから領域
に分割する処理(ステップ39)、領域毎の大小を従来
の位相差の関係を用いて求める処理(ステップ40)、
領域の大小に一定の関係が成り立つか否かをチェックす
る処理(ステップ41)、大小に一定の関係が成り立つ
場合にはその関係を採用し、成り立たない場合にはその
領域の境界の画素数を計算する処理(ステップ42)、
算出した画素数が大きい領域、即ちサイズが大きい領域
の順に大小関係決定の優先度とする処理(ステップ4
3)からなる。
The processing for obtaining the magnitude relation of the regions is performed by dividing the phase difference into three groups of 120 ° each, labeling the labels 1 to 3 (step 38), and dividing the labels into regions (step 39). , Processing for obtaining the size of each area using the conventional phase difference relationship (step 40),
A process of checking whether or not a certain relationship holds for the size of the area (step 41). If the certain relationship holds for the size, the relationship is adopted, and if not, the number of pixels at the boundary of the area is set. Calculation process (step 42),
A process of setting the priority of the magnitude relationship determination in the order of the region having the larger calculated pixel number, that is, the region having the larger size (step 4).
It consists of 3).

【0033】処理(ステップ19)では、その領域内に
従来の位相差の積分手法を適用する。ただし、この場合
には位相差の範囲が0゜〜120゜,120゜〜240
゜,240゜〜360゜なので、位相差の不確かさを含
んでおらず、一義的にトータル位相を求めることができ
る。
In the process (step 19), the conventional phase difference integration method is applied to the region. However, in this case, the range of the phase difference is 0 ° to 120 °, 120 ° to 240 °
Since the angle is 240 ° to 360 °, the uncertainty of the phase difference is not included and the total phase can be uniquely obtained.

【0034】[0034]

【発明の効果】以上のようにこの発明によれば、干渉縞
から地形に対応する位相差を積分によって求める際に、
位相差をある範囲のグループに分割し、その結果から画
像全体を領域に分け、その領域ごとに大小関係を求めた
後、領域内の位相差の積分を行う処理を施したため、ノ
イズによっての位相差が急激に変化する場合や、地形が
急激に変化したているため位相も同様に変化している場
合にも、誤りが少なく位相を積分し地形を求めることが
できる。
As described above, according to the present invention, when the phase difference corresponding to the terrain is obtained from the interference fringes by integration,
The phase difference is divided into groups of a certain range, the entire image is divided into regions from the result, and the magnitude relationship is calculated for each region, and then the process of integrating the phase difference in the region is performed. Even when the phase difference changes abruptly, or when the terrain changes abruptly and therefore the phase changes as well, the terrain can be obtained by integrating the phase with few errors.

【0035】位相積分手段でのグループ分割手段におい
て、位相差を3つのグループに分割しているので、グル
ープ内の大小関係を一義的に決定できる。
Since the phase difference is divided into three groups by the group dividing means in the phase integrating means, the magnitude relationship within the group can be uniquely determined.

【0036】大小判定手段において、隣接する3つのグ
ループ間の大小が一定の関係であれば、その関係を採用
しているので、緩やかな地形などでの位相差の大小関係
が得られる。
In the magnitude determining means, if the magnitudes of the three adjacent groups are constant, the relationship is adopted, so that the magnitude relationship of the phase difference in a gentle topography can be obtained.

【0037】大小判定手段において、隣接する3つのグ
ループ間の大小が一定の関係でなくても、その関係を決
定しているので、ノイズによっての位相差が急激に変化
する場合や、地形が急激に変化しているため位相も同様
に変化している場合にも大小関係が得られる。
Even if the magnitudes of the three adjoining groups do not have a fixed relationship, the magnitude determining means determines the relationship. Therefore, when the phase difference due to noise changes abruptly or the terrain changes sharply. As a result, the magnitude relationship can be obtained even when the phase also changes.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明による地形抽出装置のブロック図であ
る。
FIG. 1 is a block diagram of a terrain extraction device according to the present invention.

【図2】 本発明による地形抽出処理を示すフローチャ
ートである。
FIG. 2 is a flowchart showing a terrain extraction process according to the present invention.

【図3】 位相差の領域分割を表す図である。FIG. 3 is a diagram showing region division of phase difference.

【図4】 位相差の領域のラベル付けを表す図である。FIG. 4 is a diagram illustrating labeling of regions of phase difference.

【図5】 ラベル付けされた領域の大小関係を表す図で
ある。
FIG. 5 is a diagram showing a size relationship of labeled areas.

【図6】 ラベル付けされた領域の大小関係を算出する
方法のフローチャートである。
FIG. 6 is a flowchart of a method for calculating the size relationship of labeled areas.

【図7】 従来の地形抽出装置のブロック図である。FIG. 7 is a block diagram of a conventional terrain extraction device.

【図8】 従来の地形抽出処理のフローチャートであ
る。
FIG. 8 is a flowchart of a conventional terrain extraction process.

【図9】 2つの軌道で得られる画像の位置関係を表す
図である。
FIG. 9 is a diagram showing a positional relationship between images obtained by two trajectories.

【図10】 地形と干渉縞(等位相差線)との関係を表
す図である。
FIG. 10 is a diagram showing a relationship between topography and interference fringes (equal phase difference lines).

【図11】 隣接する画素の位相の積分を表す図であ
る。
FIG. 11 is a diagram illustrating integration of phases of adjacent pixels.

【図12】 位相から高さの算出する説明図である。FIG. 12 is an explanatory diagram of calculating a height from a phase.

【符号の説明】[Explanation of symbols]

1 画像格納メモリ、2 対応点検出手段、3 位相差
算出手段、4 位相格納メモリ、5 位相差変化算出手
段、6 標高位相差算出手段、7 位相積分手段、8
グループ分割手段、9 位相積分メモリ、10 大小判
別手段、11グループ内位相加算手段、12 トータル
位相算出手段、13 地形情報変換手段。
1 image storage memory, 2 corresponding point detection means, 3 phase difference calculation means, 4 phase storage memory, 5 phase difference change calculation means, 6 elevation phase difference calculation means, 7 phase integration means, 8
Group dividing means, 9 phase integration memory, 10 magnitude discriminating means, 11 intra-group phase adding means, 12 total phase calculating means, 13 topographic information converting means.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 飛しょう体に搭載された合成開口レーダ
により2つの異なる日時に観測した地上の固定目標の複
素数画像とそれを取得した際の軌道データ、および各画
素の観測時刻を格納する画像格納メモリと、この画像格
納メモリ中の複素画像の対応する点を検出する対応点検
出手段と、検出した2つの複素画像の対応する画素の位
相差(0゜〜360゜の範囲)を画像全体で求め干渉縞
を作成する位相差算出手段と、上記位相差算出手段で算
出した対応する画素の位相差を格納する位相格納メモリ
と、上記画像格納メモリ中の軌道データ、および各々の
画像の各画素の観測時刻を読み込み、2つの軌道に関し
て上記飛しょう***置と各々の画像の各画素に対応する
地上点までの距離を計算して高度ゼロに対応する位相差
の変化を算出する位相差変化算出手段と、上記位相格納
メモリ中の求めた干渉縞の位相差から高度ゼロに対応す
る位相差の変化を差し引き、地形に対応した位相を算出
する標高位相算出手段と、上記位相格納メモリに格納さ
れた位相差を積分する位相積分手段と、その積分した位
相差を地形情報に変換する地形情報変換手段を具備する
合成開口レーダ画像による地形抽出装置において、前記
位相積分手段は、上記位相格納メモリのデータを読み出
し、地形に対応する位相差をある範囲のグループに分割
するグループ分割手段と、そのグループ分けの結果を格
納する位相積分用メモリと、上記グループ分けの結果を
領域に分割し、その領域ごとの位相差の大小関係を判定
する大小判定手段と、上記グループ内で位相を順次加算
するグループ内位相加算手段と、上記大小判定手段結果
とグループ内位相加算手段結果からトータルの位相差を
算出するトータル位相差算出手段を含むことを特徴とす
る合成開口レーダ画像による地形抽出装置。
1. A complex number image of a fixed target on the ground observed at two different dates and times by a synthetic aperture radar mounted on a spacecraft, orbit data when the image is acquired, and an image storing an observation time of each pixel. The storage memory, the corresponding point detecting means for detecting corresponding points of the complex image in the image storage memory, and the phase difference (range of 0 ° to 360 °) of the corresponding pixels of the two detected complex images are used as the entire image. The phase difference calculation means for creating the interference fringes obtained in step 1, the phase storage memory for storing the phase difference of the corresponding pixels calculated by the phase difference calculation means, the trajectory data in the image storage memory, and each of the images The position of calculating the change in the phase difference corresponding to altitude zero by reading the observation time of the pixel and calculating the distance to the ground point corresponding to the above-mentioned flying object position and each pixel of each image for two orbits. Phase difference change calculating means, altitude phase calculating means for calculating the phase corresponding to the terrain by subtracting the change in phase difference corresponding to altitude zero from the phase difference of the interference fringes found in the phase storing memory, and the phase storing memory. In a terrain extraction apparatus using a synthetic aperture radar image, which comprises phase integration means for integrating the phase difference stored in and topographic information conversion means for converting the integrated phase difference into terrain information, the phase integration means comprises: Group data is read out from the storage memory and the phase difference corresponding to the terrain is divided into groups within a certain range, a phase integration memory that stores the results of the grouping, and the grouping results are divided into areas. A magnitude determining means for determining the magnitude relationship of the phase difference for each region, and an intra-group phase adding means for sequentially adding the phases within the group, Terrain extraction apparatus according to synthetic aperture radar images, which comprises a total phase difference calculating means for calculating a phase difference between total from the small judging means results and intragroup phase adding means results.
【請求項2】 グループ分割手段は、位相差を120゜
ごとに3つのグループに分割することを特徴とする請求
項1記載の合成開口レーダ画像による地形抽出装置。
2. A terrain extraction apparatus using a synthetic aperture radar image according to claim 1, wherein the group dividing means divides the phase difference into three groups every 120 °.
【請求項3】 大小判定手段は、隣接する3つのグルー
プ間の大小が一定の関係であれば、その関係を採用する
ことを特徴とする請求項1記載の合成開口レーダ画像に
よる地形抽出装置。
3. The terrain extraction apparatus using the synthetic aperture radar image according to claim 1, wherein the magnitude determining means adopts the magnitude relationship between three adjacent groups if the magnitude relationship is constant.
【請求項4】 大小判定手段は、隣接する3つのグルー
プ間の大小が一定の関係でなければ、異なった大小関係
を判定しているグループの境界の画素数の比較を行い、
その数が多いほうの関係を採用することを特徴とする請
求項1記載の合成開口レーダ画像による地形抽出装置。
4. The size determining means compares the numbers of pixels at the boundaries of the groups that have different size relationships, unless the sizes of three adjacent groups are constant.
The terrain extraction apparatus using a synthetic aperture radar image according to claim 1, wherein the relationship having the larger number is adopted.
JP6233077A 1994-09-28 1994-09-28 Topography-extracting apparatus based on image of synthetic aperture radar Pending JPH0894747A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6233077A JPH0894747A (en) 1994-09-28 1994-09-28 Topography-extracting apparatus based on image of synthetic aperture radar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6233077A JPH0894747A (en) 1994-09-28 1994-09-28 Topography-extracting apparatus based on image of synthetic aperture radar

Publications (1)

Publication Number Publication Date
JPH0894747A true JPH0894747A (en) 1996-04-12

Family

ID=16949447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6233077A Pending JPH0894747A (en) 1994-09-28 1994-09-28 Topography-extracting apparatus based on image of synthetic aperture radar

Country Status (1)

Country Link
JP (1) JPH0894747A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014044109A (en) * 2012-08-27 2014-03-13 Mitsubishi Electric Corp Synthetic aperture radar apparatus
WO2018123748A1 (en) * 2016-12-27 2018-07-05 日本電気株式会社 Image analysis device, image analysis method, and computer-readable recording medium
WO2019106850A1 (en) * 2017-12-01 2019-06-06 日本電気株式会社 Sar image analysis system, image processing device, image processing method, and image processing program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014044109A (en) * 2012-08-27 2014-03-13 Mitsubishi Electric Corp Synthetic aperture radar apparatus
WO2018123748A1 (en) * 2016-12-27 2018-07-05 日本電気株式会社 Image analysis device, image analysis method, and computer-readable recording medium
US11487001B2 (en) 2016-12-27 2022-11-01 Nec Corporation Image analysis device, image analysis method, and computer-readable recording medium
WO2019106850A1 (en) * 2017-12-01 2019-06-06 日本電気株式会社 Sar image analysis system, image processing device, image processing method, and image processing program
JPWO2019106850A1 (en) * 2017-12-01 2020-12-03 日本電気株式会社 SAR image analysis system, image processing equipment, image processing method and image processing program
US11709254B2 (en) 2017-12-01 2023-07-25 Nec Corporation SAR image analysis system, image processing apparatus, image processing method, and image processing program

Similar Documents

Publication Publication Date Title
CN103575267B (en) The method for making image related to the landform altitude map for navigating
CN101339244B (en) On-board SAR image automatic target positioning method
CN110081881A (en) It is a kind of based on unmanned plane multi-sensor information fusion technology warship bootstrap technique
JP2001331787A (en) Road shape estimating device
EP2513668A1 (en) Method for geo-referencing an imaged area
CN101968361A (en) Space absolute orientation technology based on starlight observation
Zhang et al. Satellite SAR geocoding with refined RPC model
Kumari et al. Adjustment of systematic errors in ALS data through surface matching
CN111652896A (en) Inertial navigation auxiliary meteorite crater coarse-to-fine detection method
CN111462182B (en) Trajectory missile three-dimensional trajectory estimation method based on infrared early warning image
Joughin Estimation of ice-sheet topography and motion using interferometric synthetic aperture radar
CN115343744A (en) Optical single-double-star combined on-satellite positioning method and system for aerial moving target
Liu et al. Correction of positional errors and geometric distortions in topographic maps and DEMs using a rigorous SAR simulation technique
Ren et al. Automated SAR reference image preparation for navigation
US11428802B2 (en) Localization using particle filtering and image registration of radar against elevation datasets
Behan et al. Steps towards quality improvement of airborne laser scanner data
JPH0894747A (en) Topography-extracting apparatus based on image of synthetic aperture radar
Park et al. A new measurement model of interferometric radar altimeter for terrain referenced navigation using particle filter
CN116740151A (en) InSAR point cloud registration method and terminal equipment
EP1307705A1 (en) Height measurement apparatus
Topan et al. Georeferencing accuracy assessment of high-resolution satellite images using figure condition method
Hammond et al. Automated point cloud correspondence detection for underwater mapping using AUVs
Linglin et al. A fast SAR image position algorithm for maritime target location
Shiping DEM generation using ERS-1/2 interferometric SAR data
Gromek et al. System Architecture for a Miniaturized X-band SAR-based Navigation Aid System