JPH07190767A - Three-dimensional shape surveying device and three-dimensional shape surveying method - Google Patents

Three-dimensional shape surveying device and three-dimensional shape surveying method

Info

Publication number
JPH07190767A
JPH07190767A JP5348653A JP34865393A JPH07190767A JP H07190767 A JPH07190767 A JP H07190767A JP 5348653 A JP5348653 A JP 5348653A JP 34865393 A JP34865393 A JP 34865393A JP H07190767 A JPH07190767 A JP H07190767A
Authority
JP
Japan
Prior art keywords
point
coordinate
image
matching
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5348653A
Other languages
Japanese (ja)
Inventor
Tomonori Takada
知典 高田
Hiroshi Sakurai
浩 桜井
Takao Kakehashi
孝夫 掛橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsui Construction Co Ltd
Original Assignee
Mitsui Construction Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsui Construction Co Ltd filed Critical Mitsui Construction Co Ltd
Priority to JP5348653A priority Critical patent/JPH07190767A/en
Publication of JPH07190767A publication Critical patent/JPH07190767A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To detect the three-dimensional shape of a surveying object in such state as making possible a discrimination, depending on a chromatically difference in the object. CONSTITUTION:This device is provided with a matching work section having both a photographed image memory 9 capable of storing the first and second photographed images SG1 and SG2 obtainable as a result of photographing a surveying object from two photographing positions, and a capability of performing a matching process for the images SG1 and SG2 and detecting such a point on the image SG2 as corresponding to a point on the image SG1. In addition, a three-dimensional position operating section 13 is provided for detecting the three-dimensional position S1 of the object, on the basis of the positions of the corresponding points on the images SG1 and SG2. Also, a chromaticity data preparation section 36 is provided for preparing chromaticity data CG1 to CG3, depending on a chromaticity difference pertaining to such a picture element as corresponding to the point on the image SG1. Furthermore, an output section 16 is provided for outputting a survey result KX, on the basis of the detected three-dimensional position S1 and the prepared chromaticity data CG1 to CG3.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、測量対象物の三次元形
状を測量するのに好適な三次元形状測量装置及び、三次
元形状測量方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional shape surveying apparatus and a three-dimensional shape surveying method suitable for measuring the three-dimensional shape of an object to be surveyed.

【0002】[0002]

【従来の技術】従来、ステレオ撮影したデジタル写真画
像を解析して三次元形状を検出する写真測量が提案され
ている。
2. Description of the Related Art Conventionally, photogrammetry has been proposed in which a stereoscopically photographed digital photographic image is analyzed to detect a three-dimensional shape.

【発明が解決しようとする課題】[Problems to be Solved by the Invention]

【0003】しかし、従来提案されている写真測量では
検出される三次元形状が測量対象物の色度に関係無く検
出されるので、該測量対象物中に色度により区別される
複数の部分が存在しても、これら複数の部分間が形状的
に区別されにくい場合には、検出された三次元形状か
ら、色度により区別される各部分毎の三次元形状を求め
ることは困難であった。例えば、複数の地層が形成され
た地山の掘削面において、各地層毎の三次元形状を求め
たり、複数種類の作物が植えられている農地において、
各種類の作物の作付の三次元的状態(起伏のある農地に
おける正確な作付面積等)を求めることは困難であっ
た。本発明は、上記事情に鑑み、測量対象物の三次元形
状を、該測量対象物中の色度の違いに応じて区別し得る
形で検出することのできる三次元形状測量装置及び、三
次元形状測量方法を提供することを目的としている。
However, in the conventionally proposed photogrammetry, the detected three-dimensional shape is detected irrespective of the chromaticity of the object to be surveyed, so that a plurality of parts distinguished by chromaticity are present in the object to be surveyed. Even if they exist, it is difficult to obtain the three-dimensional shape of each part that is distinguished by the chromaticity from the detected three-dimensional shape when it is difficult to distinguish these plural parts geometrically. . For example, in the excavated surface of the ground where a plurality of strata are formed, the three-dimensional shape for each stratum is obtained, or in the farmland where multiple types of crops are planted,
It was difficult to obtain the three-dimensional state of cropping for each type of crop (exact cropping area on undulating farmland, etc.). In view of the above circumstances, the present invention provides a three-dimensional shape surveying device and a three-dimensional shape surveying device capable of detecting the three-dimensional shape of a surveying object in a form that can be distinguished according to the difference in chromaticity in the surveying object. The purpose is to provide a shape measurement method.

【0004】[0004]

【課題を解決するための手段】本発明のうち第一の発明
は、三次元空間(CK)中の互いに相違した2つの撮影
位置(PT1、PT2)より、該三次元空間(CK)に
存在する測量対象物(50)をそれぞれ撮影して得られ
る2つのカラーデジタル写真画像(SG1、SG2)
を、記憶し得る画像記憶部(9)を有し、前記画像記憶
部(9)に記憶された2つの写真画像(SG1、SG
2)間でマッチングを行い、一方の写真画像(SG1)
上の点(29A)に対応した他方の写真画像(SG2)
上の点(MT)を検出し得るマッチング作業部(3、
5、6、20、21)を設け、前記2つの写真画像(S
G1、SG2)間において互いに対応した点(29A、
MT)の、前記各写真画像(SG1、SG2)上の位置
に基づいて、前記測量対象物(50)の三次元空間(C
K)における三次元位置(SI)を検出する三次元位置
演算部(13)を設け、前記写真画像(SG1、SG
2)上の点(29A、MT)について、該点(29A、
MT)に対応した画素(GS)のもつ色度(R、G、
B)の違いに応じた色度情報(CG1、CG2、CG
3)を作成する色度情報作成部(36)を設け、前記検
出された測量対象物(50)の三次元位置(SI)と前
記作成された色度情報(CG1、CG2、CG3)に基
づいた前記測量対象物(50)の測量結果(KX)を出
力する出力部(16)を設けて構成される。本発明のう
ち第二の発明は、三次元空間(CK)中の互いに相違し
た2つの撮影位置(PT1、PT2)より、該三次元空
間(CK)に存在する測量対象物(50)をそれぞれカ
ラーデジタル写真画像(SG1、SG2)として撮影
し、撮影された2つの写真画像(SG1、SG2)間で
マッチングを行い、一方の写真画像(SG1)上の点
(29A)に対応した他方の写真画像(SG2)上の点
(MT)を検出し、これら2つの写真画像(SG1、S
G2)間において互いに対応した点(29A、MT)
の、各写真画像(SG1、SG2)上の位置に基づい
て、前記測量対象物(50)の三次元空間(CK)にお
ける三次元位置(SI)を検出すると共に、前記写真画
像(SG1、SG2)上の点(29A、MT)につい
て、該点(29A、MT)に対応した画素(GS)のも
つ色度(R、G、B)の違いに応じた色度情報(CG
1、CG2、CG3)を作成し、前記検出された測量対
象物(50)の三次元位置(SI)と、前記作成された
色度情報(CG1、CG2、CG3)に基づいて前記測
量対象物(50)を測量するようにして構成される。な
お、( )内の番号等は、図面における対応する要素を
示す、便宜的なものであり、従って、本記述は図面上の
記載に限定拘束されるものではない。以下の「作用」の
欄についても同様である。
The first aspect of the present invention is to exist in a three-dimensional space (CK) from two different photographing positions (PT1, PT2) in the three-dimensional space (CK). Two color digital photographic images (SG1, SG2) obtained by photographing the surveyed object (50)
An image storage unit (9) capable of storing the two photographic images (SG1, SG) stored in the image storage unit (9).
2) Matching is performed between the two photo images (SG1)
The other photographic image (SG2) corresponding to the upper point (29A)
A matching working unit (3, which can detect the upper point (MT)
5, 6, 20, 21) are provided, and the two photographic images (S
G1 and SG2) correspond to each other (29A,
3D space (C) of the survey object (50) based on the position of MT) on each of the photographic images (SG1, SG2).
K), a three-dimensional position calculation unit (13) for detecting a three-dimensional position (SI) is provided, and the photographic images (SG1, SG)
2) Regarding the point (29A, MT) above, the point (29A, MT)
Chromaticity (R, G,) of the pixel (GS) corresponding to MT)
B) Chromaticity information (CG1, CG2, CG)
3) is provided, and based on the detected three-dimensional position (SI) of the surveyed object (50) and the created chromaticity information (CG1, CG2, CG3). An output unit (16) for outputting the survey result (KX) of the survey target (50) is provided. The second invention of the present invention is to measure the surveying object (50) existing in the three-dimensional space (CK) from two different photographing positions (PT1, PT2) in the three-dimensional space (CK). Photographed as color digital photo images (SG1, SG2), matching is performed between the two photo images (SG1, SG2) taken, and the other photo corresponding to the point (29A) on one photo image (SG1) The point (MT) on the image (SG2) is detected and these two photographic images (SG1, S) are detected.
G2) corresponding points (29A, MT)
Of the measurement object (50) in the three-dimensional space (CK) based on the position on each of the photographic images (SG1, SG2), and at the same time, the photographic images (SG1, SG2). ) Regarding the point (29A, MT) above, the chromaticity information (CG) corresponding to the difference in chromaticity (R, G, B) of the pixel (GS) corresponding to the point (29A, MT).
1, CG2, CG3) and the three-dimensional position (SI) of the detected survey object (50) and the created chromaticity information (CG1, CG2, CG3) (50) is surveyed. The numbers in parentheses () indicate the corresponding elements in the drawings for convenience, and therefore the present description is not limited to the description in the drawings. The same applies to the column of "action" below.

【0005】[0005]

【作用】上記した構成により、本発明のうち第一の発明
による三次元形状測量装置(1)を用いて、或いは、本
発明のうち第二の発明による三次元測量方法を適用し
て、測量対象物(50)の測量を行うと、カラーデジタ
ル写真画像(SG1、SG2)に対応した測量対象物
(50)の三次元形状が検出されると共に、該測量対象
物(50)の三次元位置(SI)に対応した色度情報
(CG1、CG2、CG3)も一緒に検出されるように
作用する。
With the above configuration, the surveying is performed by using the three-dimensional shape surveying apparatus (1) according to the first aspect of the present invention or by applying the three-dimensional surveying method according to the second aspect of the present invention. When the object (50) is surveyed, the three-dimensional shape of the object (50) corresponding to the color digital photographic images (SG1, SG2) is detected, and the three-dimensional position of the object (50) is detected. The chromaticity information (CG1, CG2, CG3) corresponding to (SI) is also detected together.

【0006】[0006]

【実施例】以下、本発明の実施例を図面に基づき説明す
る。図1は、本発明による三次元形状測量装置の一例で
ある写真測量装置を示したブロック図、図2(a)は、
掘削面と、ステレオ撮影が行われる第一、第二地点との
位置関係を示した平面図、図2(b)は、図2(a)の
W1−W2線断面図、図3は、図1の写真測量装置に入
力されている概念上の、基準座標KZ、カメラ座標CZ
1、CZ2を示した図、図4及び図5は、第一、第二デ
ィスプレイを示した図、図6は、マッチングの手順を概
念的に示した図である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a photogrammetric device which is an example of a three-dimensional shape surveying device according to the present invention, and FIG.
2B is a plan view showing the positional relationship between the excavation surface and the first and second points where stereo imaging is performed, FIG. 2B is a sectional view taken along line W1-W2 of FIG. 2A, and FIG. Nominal reference coordinates KZ and camera coordinates CZ input to the photogrammetry device 1
1, CZ2, FIGS. 4 and 5 are diagrams showing the first and second displays, and FIG. 6 is a diagram conceptually showing the matching procedure.

【0007】本発明による三次元形状測量装置の一例で
ある写真測量装置1は、図1に示すように主制御部2を
有しており、主制御部2にはバス線2aを介して、相関
窓濃度値検出部3、探索窓濃度値検出部5、マッチング
ポイント検出部6、表示手段7、写真画像メモリ9、相
互標定演算部10、対地標定演算部11、偏位修正演算
部12、三次元位置演算部13、三次元位置メモリ部1
5、出力部16、入力手段17、格子設定制御部26、
座標変換制御部19、相関窓制御部20、探索窓制御部
21、カーソル位置認識部22、射影変換制御部25、
格子設定制御部26、色度情報作成部36、測量結果メ
モリ部37が接続されている。表示手段7には、表示制
御部7a及び、図示しないオペレータに作業の指示や命
令を文字等(図示せず)により表示し得る作業指示表示
部7bが設けられており、表示制御部7aには第一ディ
スプレイ7c、第二ディスプレイ7dが接続されてい
る。相関窓濃度値検出部3は、相関窓赤色濃度値検出部
3a、相関窓緑色濃度値検出部3b、相関窓青色濃度値
検出部3cからなっており、探索窓濃度値検出部5は、
探索窓赤色濃度値検出部5a、探索窓緑色濃度値検出部
5b、探索窓青色濃度値検出部5cからなっている。ま
た、表示手段7には、表示制御部7a及び、図示しない
オペレータに作業の指示や命令を文字等(図示せず)に
より表示し得る作業指示表示部7bが設けられており、
表示制御部7aには第一ディスプレイ7c、第二ディス
プレイ7dが接続されている。また、入力手段17は、
入力操作部17a、カーソル移動操作部17bによって
構成されている。更に、写真画像メモリ9には、ICメ
モリーカード62aを装填自在なるデッキ23が接続さ
れている。なお、このICメモリーカード62aは、公
知のカラー・デジタルスチルカメラであるカメラ62に
も装填自在である。即ち、ICメモリーカード62aを
装填したカメラ62で撮影された写真画像は、該写真画
像の各画素がデジタル情報に変換されて構成された画像
情報としてICメモリーカード62aに記録される。ま
た、撮影された該写真画像の各画素がもつデジタル情報
は、光学濃度即ち、明度に関する濃度値情報であり、更
に各画素がもつ濃度値情報は、赤色R、緑色G、青色B
(即ち、三原色)の3つの色度毎の光学濃度の情報から
なっている。従って、1つの画素がもつデジタル情報
は、赤色Rの濃度値情報、緑色Gの濃度値情報、青色B
の濃度値情報である。
A photogrammetric apparatus 1 as an example of a three-dimensional shape surveying apparatus according to the present invention has a main control section 2 as shown in FIG. 1, and the main control section 2 is provided with a bus wire 2a. Correlation window density value detection unit 3, search window density value detection unit 5, matching point detection unit 6, display unit 7, photographic image memory 9, mutual orientation calculation unit 10, ground orientation calculation unit 11, deviation correction calculation unit 12, Three-dimensional position calculation unit 13, three-dimensional position memory unit 1
5, output unit 16, input means 17, grid setting control unit 26,
Coordinate conversion control unit 19, correlation window control unit 20, search window control unit 21, cursor position recognition unit 22, projective transformation control unit 25,
The grid setting control unit 26, the chromaticity information creating unit 36, and the survey result memory unit 37 are connected. The display means 7 is provided with a display control section 7a and a work instruction display section 7b capable of displaying work instructions and commands to an operator (not shown) by characters or the like (not shown). The display control section 7a has a display control section 7a. The first display 7c and the second display 7d are connected. The correlation window density value detection unit 3 includes a correlation window red density value detection unit 3a, a correlation window green density value detection unit 3b, and a correlation window blue density value detection unit 3c. The search window density value detection unit 5 includes
It comprises a search window red density value detection unit 5a, a search window green density value detection unit 5b, and a search window blue density value detection unit 5c. Further, the display means 7 is provided with a display control section 7a and a work instruction display section 7b capable of displaying work instructions and commands to an operator (not shown) by characters or the like (not shown),
A first display 7c and a second display 7d are connected to the display controller 7a. Also, the input means 17
The input operation unit 17a and the cursor movement operation unit 17b are included. Further, the photo image memory 9 is connected to the deck 23 into which the IC memory card 62a can be loaded. The IC memory card 62a can also be loaded into the camera 62, which is a known color digital still camera. That is, a photographic image taken by the camera 62 loaded with the IC memory card 62a is recorded on the IC memory card 62a as image information configured by converting each pixel of the photographic image into digital information. Further, the digital information held by each pixel of the photographed photographic image is optical density, that is, density value information relating to lightness, and the density value information held by each pixel is red R, green G, and blue B.
It is composed of optical density information for each of the three chromaticities (that is, the three primary colors). Therefore, the digital information of one pixel is the red R density value information, the green G density value information, and the blue B
Is the density value information of.

【0008】また、測量すべき掘削面50は、図2
(a)及び図2(b)に示すように、山51の斜面に沿
って形成されており、掘削面50は起伏のある面になっ
ている。山51には、土質A1の第一地層51a、土質
A2の第二地層51b、土質A3の第三地層51c等が
埋蔵されており、掘削面50にはこれら第一地層51
a、第二地層51b、第三地層51cの端部が現われて
いる。なお、掘削面50には地上空間CKにおける三次
元位置即ち、緯度、経度、標高が既知である3つの基準
点KJ1、KJ2、KJ3が予め検出されマーキングさ
れている。
The excavation surface 50 to be surveyed is shown in FIG.
As shown in FIGS. 2A and 2B, it is formed along the slope of the mountain 51, and the excavation surface 50 is an uneven surface. The mountain 51 has a first geological layer 51a having a soil type A1, a second geological layer 51b having a soil type A2, a third geological layer 51c having a soil type A3, and the like, and the excavated surface 50 has these first geological layer 51.
The end portions of a, the second formation 51b, and the third formation 51c are exposed. The three-dimensional position in the ground space CK, that is, three reference points KJ1, KJ2, and KJ3 whose latitude, longitude, and altitude are known are previously detected and marked on the excavated surface 50.

【0009】写真測量装置1及び、カメラ62及び、掘
削面50等は、以上のように構成されているので、該写
真測量装置1を用いて、掘削面50を測量するには次の
ように行う。まず、ICメモリーカード62aを装填し
たカメラ62により、前記掘削面50を、図2(a)及
び図2(b)に示すように、該地上空間CKの相違なる
2地点である第一地点PT1と第二地点PT2よりそれ
ぞれ撮影する(即ち、ステレオ撮影する。)。撮影の結
果、第一地点PT1、第二地点PT2において撮影され
た各写真画像のデジタル情報である第一画像情報GJ
1、第二画像情報GJ2がICメモリーカード62aに
記録された。なお、第一地点PT1及び第二地点PT2
のいずれからの撮影においても、前記基準点KJ1、K
J2、KJ3が撮影されている。次いで、第一画像情報
GJ1、第二画像情報GJ2が記録されたICメモリー
カード62aを前記カメラ62から取外して、写真測量
装置1のデッキ23に装填する。装填後、図示しないオ
ペレータは、入力手段17の入力操作部17aを介して
解析処理作業開始の命令を与える。解析処理作業開始の
命令は、バス線2aを介して主制御部2に伝送され、主
制御部2は該命令を受けて解析処理作業を開始させる。
即ちまず、主制御部2は写真画像メモリ9に命令して、
図1に示すように、該写真画像メモリ9に接続されたデ
ッキ23より、該デッキ23に装填された前記ICメモ
リーカード62aの第一画像情報GJ1と第二画像情報
GJ2とを読み取り記憶させる。
Since the photogrammetric device 1, the camera 62, the excavation surface 50 and the like are configured as described above, in order to measure the excavation surface 50 using the photogrammetric device 1, the following is performed. To do. First, the excavation surface 50 is moved by the camera 62 loaded with the IC memory card 62a as shown in FIGS. 2 (a) and 2 (b) to the first point PT1 which is two different points in the ground space CK. And the second point PT2, respectively (that is, a stereo image is taken). As a result of the shooting, the first image information GJ which is digital information of each photographic image taken at the first point PT1 and the second point PT2
1. The second image information GJ2 is recorded on the IC memory card 62a. In addition, the first point PT1 and the second point PT2
The reference points KJ1 and KJ
J2 and KJ3 are photographed. Next, the IC memory card 62a on which the first image information GJ1 and the second image information GJ2 are recorded is removed from the camera 62 and loaded on the deck 23 of the photogrammetry device 1. After loading, an operator (not shown) gives a command to start the analysis processing work via the input operation unit 17a of the input means 17. The instruction to start the analysis processing work is transmitted to the main control unit 2 via the bus line 2a, and the main control unit 2 receives the instruction and starts the analysis processing work.
That is, first, the main control unit 2 commands the photographic image memory 9 to
As shown in FIG. 1, the first image information GJ1 and the second image information GJ2 of the IC memory card 62a loaded in the deck 23 are read and stored from the deck 23 connected to the photographic image memory 9.

【0010】ところで、写真画像メモリ9には、図3に
示すように、Xk軸、Yk軸、Zk軸からなる三次元の
基準座標KZが入力されており、基準座標KZのXk軸
成分、Yk軸成分、Zk軸成分はそれぞれ、地上空間C
Kの緯度、経度、標高に対応している。また、写真画像
メモリ9には、基準座標KZに対して任意の位置関係を
もち得る2つのカメラ座標CZ1、CZ2が設けられて
おり、カメラ座標CZ1は、Xc1軸、Yc1軸、Zc
1軸からなる三次元座標、カメラ座標CZ2は、Xc2
軸、Yc2軸、Zc2軸からなる三次元座標である。カ
メラ座標CZ1、CZ2は、いずれも前記カメラ62に
対する同一の固定座標であるが、第一地点PT1より撮
影した際の地上空間CKとカメラ62の位置関係を基準
座標KZとカメラ座標CZ1との位置関係で示し、第二
地点PT2より撮影した際の地上空間CKとカメラ62
の位置関係を基準座標KZとカメラ座標CZ2との位置
関係で示し得るようになっている。また、カメラ座標C
Z1、CZ2のうち、Zc1軸成分がゼロで表される平
面、Zc2軸成分がゼロで表される平面はそれぞれ、前
記カメラ62によって撮影される写真画像が形成される
画像平面GH1、GH2となっている。従って、写真画
像メモリ9がICメモリーカード62aから、記録され
ている第一画像情報GJ1と第二画像情報GJ2とを読
み取り記憶する際には、第一画像情報GJ1をカメラ座
標CZ1の画像平面GH1に第一写真画像SG1として
入力し、第二画像情報GJ2をカメラ座標CZ2の画像
平面GH2に第二写真画像SG2として入力する形で読
み取り記憶される(なお、基準座標KZ、カメラ座標C
Z1、CZ2の三者間の相対的位置関係は未だ決定され
ていない。)。
By the way, as shown in FIG. 3, a three-dimensional reference coordinate KZ consisting of the Xk axis, the Yk axis, and the Zk axis is input to the photographic image memory 9, and the Xk axis component of the reference coordinate KZ, Yk. The axis component and the Zk axis component are the ground space C, respectively.
It corresponds to the latitude, longitude, and altitude of K. Further, the photographic image memory 9 is provided with two camera coordinates CZ1 and CZ2 that can have an arbitrary positional relationship with respect to the reference coordinates KZ. The camera coordinates CZ1 are the Xc1 axis, the Yc1 axis, and Zc.
The three-dimensional coordinate consisting of one axis, the camera coordinate CZ2 is Xc2.
It is a three-dimensional coordinate including an axis, a Yc2 axis, and a Zc2 axis. The camera coordinates CZ1 and CZ2 are the same fixed coordinates with respect to the camera 62, but the positional relationship between the ground space CK and the camera 62 when the image is taken from the first point PT1 is the position of the reference coordinates KZ and the camera coordinates CZ1. The relationship is shown, and the ground space CK and the camera 62 when taken from the second point PT2
The positional relationship between the reference coordinates KZ and the camera coordinates CZ2 can be shown. Also, the camera coordinate C
Of Z1 and CZ2, the plane in which the Zc1 axis component is represented by zero and the plane in which the Zc2 axis component is represented by zero are image planes GH1 and GH2 on which the photographic image photographed by the camera 62 is formed. ing. Therefore, when the photographic image memory 9 reads and stores the recorded first image information GJ1 and second image information GJ2 from the IC memory card 62a, the first image information GJ1 is stored in the image plane GH1 at the camera coordinate CZ1. Is input as the first photographic image SG1 and the second image information GJ2 is read and stored in the image plane GH2 of the camera coordinate CZ2 as the second photographic image SG2 (note that the reference coordinate KZ and the camera coordinate C
The relative positional relationship between the three members, Z1 and CZ2, has not yet been determined. ).

【0011】写真画像メモリ9における読み取り記憶が
完了すると共に、該写真画像メモリ9は読み取り記憶が
完了後のカメラ座標CZ1、CZ2及び、カメラ座標C
Z1上の第一写真画像SG1、カメラ座標CZ2上の第
二写真画像SG2を電気信号によってに主制御部2に報
告する。主制御部2は、カメラ座標CZ1と第一写真画
像SG1及び、カメラ座標CZ2と第二写真画像SG2
を座標変換制御部19に伝送して、第一写真画像SG1
及び第二写真画像SG2を第一ディスプレイ7c及び第
二ディスプレイ7dに表示させるために座標変換させ
る。ところで、第一ディスプレイ7cには、図4に示す
ように、X1軸、Y1軸からなる平面座標HZ1が設定
されており、第二ディスプレイ7dには、X2軸、Y2
軸からなる平面座標HZ2が設定されている。従って、
座標変換制御部19では、カメラ座標CZ1のうち画像
平面GH1上の任意の点を、該任意の点のXc1軸成分
を平面座標HZ1のX1軸成分に、Yc1軸成分をY1
軸成分にそれぞれ置き換えて、平面座標HZ1の点に変
換させる方法で、カメラ座標CZ1上の第一写真画像S
G1を平面座標HZ1上に変換する。また、カメラ座標
CZ2のうち画像平面GH2上の第二写真画像SG2も
同様に、カメラ座標CZ2上の任意の点を、該任意の点
のXc2軸成分を平面座標HZ2のX2軸成分に、Yc
2軸成分をY2軸成分にそれぞれ置き換えて、平面座標
HZ2の点に変換させる方法により、カメラ座標CZ2
上の第二写真画像SG2を平面座標HZ2上に変換す
る。変換後、主制御部2は座標変換制御部19の両写真
画像SG1、SG2を表示手段7の表示制御部7aに伝
送し、表示制御部7aは第一写真画像SG1と第二写真
画像SG2をそれぞれ第一ディスプレイ7cの平面座標
HZ1上に、第二ディスプレイ7dの平面座標HZ2上
にそれぞれ表示する。
Upon completion of reading and storing in the photographic image memory 9, the photographic image memory 9 stores the camera coordinates CZ1, CZ2 and the camera coordinate C after the reading and storing is completed.
The first photo image SG1 on Z1 and the second photo image SG2 on the camera coordinate CZ2 are reported to the main control unit 2 by electric signals. The main controller 2 controls the camera coordinate CZ1 and the first photographic image SG1, and the camera coordinate CZ2 and the second photographic image SG2.
Is transmitted to the coordinate conversion control unit 19 and the first photographic image SG1 is transmitted.
And the second photographic image SG2 is coordinate-converted to be displayed on the first display 7c and the second display 7d. By the way, as shown in FIG. 4, plane coordinates HZ1 composed of the X1 axis and the Y1 axis are set on the first display 7c, and the X2 axis and the Y2 axis are set on the second display 7d.
A plane coordinate HZ2 composed of an axis is set. Therefore,
In the coordinate conversion control unit 19, an arbitrary point on the image plane GH1 in the camera coordinate CZ1 is set as the Xc1-axis component of the arbitrary point as the X1-axis component of the plane coordinate HZ1 and the Yc1-axis component as Y1.
The first photographic image S on the camera coordinate CZ1 is converted by the method of replacing each with the axial component and converting into the point of the plane coordinate HZ1.
G1 is transformed on the plane coordinate HZ1. Similarly, in the second photographic image SG2 on the image plane GH2 of the camera coordinates CZ2, an arbitrary point on the camera coordinates CZ2 is converted into an X2 axis component of the plane coordinates HZ2 by the Yc axis.
By replacing the 2-axis component with the Y2-axis component and converting it into the point of the plane coordinate HZ2, the camera coordinate CZ2
The second upper photographic image SG2 is converted to the plane coordinate HZ2. After the conversion, the main control unit 2 transmits both photographic images SG1 and SG2 of the coordinate conversion control unit 19 to the display control unit 7a of the display means 7, and the display control unit 7a displays the first photographic image SG1 and the second photographic image SG2. They are displayed on the plane coordinates HZ1 of the first display 7c and on the plane coordinates HZ2 of the second display 7d, respectively.

【0012】第一ディスプレイ7c、第二ディスプレイ
7dでの表示が完了した後、主制御部2は公知の手法に
よる相互標定作業を開始させる。即ち、主制御部2は、
上述したように写真画像メモリ9に読み込み記憶されて
いる基準座標KZ、カメラ座標CZ1、CZ2及び、カ
メラ座標CZ1上の第一写真画像SG1、カメラ座標C
Z2上の第二写真画像SG2を、相互標定演算部10に
伝送すると共に、主制御部2は作業指示表示部7bに命
令して、パスポイントの入力を命令する旨の表示(図示
せず)を行わせる。図示しないオペレータは作業指示表
示部7bの表示を読み取ることによって、第一ディスプ
レイ7c、第二ディスプレイ7dに表示されている第一
写真画像SG1、第二写真画像SG2を目視比較し、第
一写真画像SG1より5つのパスポイントPPa1〜P
Pa5を、第二写真画像SG2より5つのパスポイント
PPb1〜PPb5を探し出す。なお、パスポイントP
Pa1(PPa2〜PPa5)は第一写真画像SG1中
の一点(即ち、1つの画素GS)、パスポイントPPb
1(PPb2〜PPb5)は第二写真画像SG2中の一
点(即ち、1つの画素GS)であり、対応したパスポイ
ントPPa1(PPa2〜PPa5)とパスポイントP
Pb1(PPb2〜PPb5)とは共に山51中の同一
なる一点DP1(DP2〜DP5)を撮影したと明確に
判別できるものである。5つのパスポイントPPa1〜
PPa5及び、これらに対応した5つのパスポイントP
Pb1〜PPb5を探し出した後、図示しないオペレー
タは、互いに対応したパスポイントPPa1(PPa2
〜PPa5)、PPb1(PPb2〜PPb5)をそれ
ぞれ対にして順次入力する。なお、第一ディスプレイ7
c、第二ディスプレイ7dには、図4に示すように、入
力手段17のカーソル移動操作部17bを介して、各デ
ィスプレイ7c、7d上で移動自在なカーソル33、3
5が設けられており、パスポイントPPa1(PPa2
〜PPa5)、PPb1(PPb2〜PPb5)をそれ
ぞれ対にして入力する際には、カーソル移動操作部17
bを介して、各ディスプレイ7c、7d上でカーソル3
3、35を移動させ、カーソル33を1つの画素GSか
らなるパスポイントPPa1(PPa2〜PPa5)に
位置決めし、カーソル35をパスポイントPPb1(P
Pb2〜PPb5)に位置決めする。カーソル移動操作
部17bからのカーソル33、35の位置決め完了の信
号はカーソル位置認識部22にそれぞれ伝送され、カー
ソル位置認識部22はカーソル33、35が位置決めさ
れている位置即ち、パスポイントPPa1(PPa2〜
PPa5)の平面座標HZ1上での座標位置及び、パス
ポイントPPb1(PPb2〜PPb5)の平面座標H
Z2上での座標位置を認識し、認識された平面座標HZ
1及び、平面座標HZ2上での座標位置は座標変換制御
部19に伝送されて、カメラ座標CZ1におけるパスポ
イント座標位置Pa1(Pa2〜Pa5)及び、パスポ
イント座標位置Pb1(Pb2〜Pb5)に変換され、
変換の後、主制御部2に伝送される。主制御部2は、パ
スポイント座標位置Pa1(Pa2〜Pa5)と、これ
に対応するパスポイント座標位置Pb1(Pb2〜Pb
5)とを対にした形で、相互標定演算部10に伝送す
る。
After the display on the first display 7c and the second display 7d is completed, the main control unit 2 starts the mutual orientation work by a known method. That is, the main controller 2
As described above, the reference coordinates KZ, the camera coordinates CZ1 and CZ2 read and stored in the photographic image memory 9, the first photographic image SG1 on the camera coordinates CZ1, and the camera coordinates C.
The second photographic image SG2 on Z2 is transmitted to the relative orientation calculation unit 10, and the main control unit 2 instructs the work instruction display unit 7b to instruct the input of the pass point (not shown). To perform. An operator (not shown) visually compares the first photographic image SG1 and the second photographic image SG2 displayed on the first display 7c and the second display 7d by reading the display on the work instruction display unit 7b, and the first photographic image is displayed. Five pass points PPa1-P from SG1
For Pa5, five pass points PPb1 to PPb5 are searched for from the second photographic image SG2. In addition, pass point P
Pa1 (PPa2 to PPa5) is one point (that is, one pixel GS) in the first photographic image SG1, the pass point PPb.
1 (PPb2 to PPb5) is one point (that is, one pixel GS) in the second photographic image SG2, and the corresponding pass point PPa1 (PPa2 to PPa5) and pass point P.
Both Pb1 (PPb2 to PPb5) can be clearly discriminated as having photographed the same point DP1 (DP2 to DP5) in the mountain 51. Five pass points PPa1
PPa5 and five pass points P corresponding to these
After finding out Pb1 to PPb5, an operator (not shown) recognizes the corresponding pass points PPa1 (PPa2).
~ PPa5) and PPb1 (PPb2 to PPb5) are sequentially input in pairs. The first display 7
c, on the second display 7d, as shown in FIG. 4, the cursors 33, 3 movable on the respective displays 7c, 7d via the cursor movement operation section 17b of the input means 17.
5 is provided, and the pass point PPa1 (PPa2
~ PPa5) and PPb1 (PPb2 to PPb5) are input in pairs, the cursor movement operation unit 17
Cursor 3 on each display 7c, 7d via b
3, 35 are moved to position the cursor 33 at the pass point PPa1 (PPa2 to PPa5) consisting of one pixel GS, and the cursor 35 is moved to the pass point PPb1 (P
Position Pb2 to PPb5). Positioning completion signals of the cursors 33 and 35 from the cursor movement operation unit 17b are transmitted to the cursor position recognition unit 22, respectively, and the cursor position recognition unit 22 positions the cursors 33 and 35, that is, the pass point PPa1 (PPa2). ~
PPa5) on the plane coordinate HZ1 and the plane coordinate H of the pass point PPb1 (PPb2 to PPb5).
Recognizing the coordinate position on Z2, the recognized plane coordinates HZ
1 and the coordinate position on the plane coordinate HZ2 are transmitted to the coordinate conversion control unit 19 and converted into the pass point coordinate position Pa1 (Pa2 to Pa5) and the pass point coordinate position Pb1 (Pb2 to Pb5) in the camera coordinate CZ1. Is
After conversion, it is transmitted to the main control unit 2. The main controller 2 determines the pass point coordinate position Pa1 (Pa2 to Pa5) and the corresponding pass point coordinate position Pb1 (Pb2 to Pb).
5) and 5 are paired and transmitted to the mutual orientation calculator 10.

【0013】次いで、主制御部2は、相互標定演算部1
0に相互標定演算を実行させる。ところで、撮影された
第一写真画像SG1、第二写真画像SG2は、測量対象
物60の各点から、カメラ座標CZ1、CZ2の所定の
位置(本実施例では、Zc1軸、Zc2軸上)に設定さ
れた投影中心点O1、O2に向かってそれぞれ収斂する
形で直進する光束により、画像平面GH1、GH2上に
それぞれ投影された前記山51の画像と考えることが出
来る。よって、逆に2つの投影中心点O1、O2にそれ
ぞれ光源を設け、第一写真画像SG1、第二写真画像S
G2を映し出したとすると、各々の写真画像SG1、S
G2において対応する各点(即ち、山51における同一
点を撮影した点)を通過した二本の光束は全て交会する
はずである。そこで、2枚の立体写真の対応する光束の
うち少なくとも5本の光束が交会すれば、対応する点が
ことごとく交会するという公知の射影幾何学の原理を応
用して、投影中心点O1とカメラ座標CZ1上の前記パ
スポイント座標位置Pa1〜Pa5とを結ぶ直線と、投
影中心点O2とカメラ座標CZ2上の前記パスポイント
座標位置Pb1〜Pb5とを結ぶ直線とが各々ことごと
く交会するという条件で、カメラ座標CZ1とカメラ座
標CZ2との相対的な傾きを演算(即ち、相互標定演
算)して決定する。演算及び決定されたカメラ座標CZ
1、CZ2の基準座標KZでの相対的な傾きは、第一地
点PT1、第二地点PT2においてそれぞれ撮影した状
態での地上空間CKにおける前記カメラ62の相対的な
傾きに対応している。こうして第一地点PT1、第二地
点PT2においてそれぞれ撮影した状態での地上空間C
Kにおける前記カメラ62の相対的な傾きがカメラ座標
CZ1とカメラ座標CZ2との基準座標KZにおける相
対的な位置関係として再現されたので、上述したよう
に、これらカメラ座標CZ1とカメラ座標CZ2におい
て、2つの投影中心点O1、O2にそれぞれ光源を設
け、各写真画像SG1、SG2を映し出したとすると、
図3に示すように、各々の写真画像SG1、SG2にお
いて対応する各点を通過した二本の光束は全て交会し、
交会する点の集合によって測量対象物60と相対的に相
似なるモデル61を仮想的に形成することが可能とな
る。以上で相互標定作業が完了する。完了後、相互標定
演算部10より、基準座標KZ、相対的な傾きが決定さ
れたカメラ座標CZ1、CZ2及び、カメラ座標CZ1
上の第一写真画像SG1、カメラ座標CZ2上の第二写
真画像SG2は主制御部2を介して対地標定演算部11
に伝送される。
Next, the main control unit 2 includes the mutual orientation calculation unit 1
Causes 0 to perform a relative orientation operation. By the way, the photographed first photographic image SG1 and second photographic image SG2 are located at predetermined positions (on the Zc1 axis and the Zc2 axis in this embodiment) of the camera coordinates CZ1 and CZ2 from the respective points on the survey object 60. It can be considered as an image of the mountain 51 projected on the image planes GH1 and GH2 by the light beams that travel straight in a convergent manner toward the set projection center points O1 and O2, respectively. Therefore, conversely, light sources are respectively provided at the two projection center points O1 and O2, and the first photographic image SG1 and the second photographic image S
If G2 is projected, each photographic image SG1, S
All the two light fluxes that have passed through corresponding points in G2 (that is, the points at which the same point on the mountain 51 is photographed) should meet. Therefore, the projection center point O1 and the camera coordinates are applied by applying the known principle of projective geometry that, if at least five light fluxes of the corresponding light fluxes of the two stereoscopic pictures meet, the corresponding points all meet. Under the condition that the straight line connecting the path point coordinate positions Pa1 to Pa5 on the CZ1 and the straight line connecting the projection center point O2 and the pass point coordinate positions Pb1 to Pb5 on the camera coordinates CZ2 all meet, The relative inclination between the coordinate CZ1 and the camera coordinate CZ2 is calculated (that is, the mutual orientation calculation) and determined. Calculated and determined camera coordinates CZ
The relative inclinations of the reference coordinates KZ of 1 and CZ2 correspond to the relative inclinations of the camera 62 in the ground space CK when the images are taken at the first point PT1 and the second point PT2, respectively. In this way, the ground space C in the state where images are taken at the first point PT1 and the second point PT2, respectively.
Since the relative inclination of the camera 62 at K is reproduced as the relative positional relationship between the camera coordinates CZ1 and the camera coordinates CZ2 at the reference coordinates KZ, as described above, at these camera coordinates CZ1 and camera coordinates CZ2, If light sources are respectively provided at the two projection center points O1 and O2 and the respective photographic images SG1 and SG2 are projected,
As shown in FIG. 3, all the two light fluxes that have passed through the corresponding points in the respective photographic images SG1 and SG2 meet,
It is possible to virtually form a model 61 that is relatively similar to the survey object 60 by the set of points that meet. This completes the mutual orientation work. After the completion, the reference orientation KZ, the camera coordinates CZ1 and CZ2 and the camera coordinates CZ1 whose relative inclinations are determined by the mutual orientation calculation unit 10.
The upper first photographic image SG1 and the second photographic image SG2 on the camera coordinate CZ2 are connected to the ground orientation calculating section 11 via the main control section 2.
Be transmitted to.

【0014】伝送と共に主制御部2は公知の手法による
対地標定作業を開始する。まず主制御部2は、作業指示
表示部7bに命令して、基準点の入力を命令する旨の表
示(図示せず)を行わせる。図示しないオペレータは、
該表示を見ることによって、上述したように予めマーキ
ングされている3つの基準点KJ1〜KJ3が第一写真
画像SG1において撮影されている基準点像KJa1〜
KJa3、第二写真画像SG2において撮影されている
基準点像KJb1〜KJb3を、第一ディスプレイ7c
の第一写真画像SG1、第二ディスプレイ7dの第二写
真画像SG2内でそれぞれ探し出す。探し出した後、図
示しないオペレータは、カーソル移動操作部17bを介
して、カーソル33、35を各ディスプレイ7c、7d
上で移動させ、それぞれ対応した1つの画素GSからな
る基準点像KJa1(KJa2、KJa3)と基準点像
KJb1(KJb2、KJb3)に順次位置決めする。
位置決めと共に、図示しないオペレータは、基準点像K
Ja1(KJa2、KJa3)と、対応する基準点像K
Jb1(KJb2、KJb3)の予め検出されている地
上空間CKでの緯度、経度、標高を、地上空間CKに対
応した基準座標KZ上の座標位置である基準点座標位置
Kc1(Kc2、Kc3)として入力手段17の入力操
作部17aを介して順次入力する。一方、カーソル3
3、35が位置決めされることにより、カーソル位置認
識部22では、基準点像KJa1(KJa2、KJa
3)の平面座標HZ1上での座標位置及び、基準点像K
Jb1(KJb2、KJb3)の平面座標HZ2上での
座標位置を認識し、平面座標HZ1上での座標位置及
び、平面座標HZ2上での座標位置は更に、座標変換制
御部19に伝送されて、それぞれカメラ座標CZ1にお
ける基準点像座標位置Ka1(Ka2、Ka3)及び、
カメラ座標CZ2における基準点像座標位置Kb1(K
b2、b3)に変換されて、主制御部2に伝送される。
主制御部2は基準点像座標位置Ka1(Ka2、Ka
3)、基準点像座標位置Kb1(Kb2、b3)及び、
入力操作部17aを介して入力された基準点座標位置K
c1(Kc2、Kc3)を対地標定演算部11に伝送す
る。
At the same time as the transmission, the main control unit 2 starts the ground location work by a known method. First, the main control unit 2 instructs the work instruction display unit 7b to perform a display (not shown) for instructing the input of the reference point. An operator not shown is
By looking at the display, the three reference points KJ1 to KJ3, which are marked in advance as described above, are the reference point images KJa1 to KJa1 captured in the first photographic image SG1.
KJa3, the reference point images KJb1 to KJb3 captured in the second photographic image SG2 are displayed on the first display 7c.
The first photographic image SG1 of No. 2 and the second photographic image SG2 of the second display 7d are searched for. After searching, the operator (not shown) moves the cursors 33 and 35 to the respective displays 7c and 7d via the cursor movement operation unit 17b.
The reference point image KJa1 (KJa2, KJa3) and the reference point image KJb1 (KJb2, KJb3) each made up of one corresponding pixel GS are sequentially positioned.
Along with the positioning, the operator (not shown) operates the reference point image K.
Ja1 (KJa2, KJa3) and corresponding reference point image K
The latitude, longitude, and altitude of Jb1 (KJb2, KJb3) detected in the ground space CK are set as the reference point coordinate position Kc1 (Kc2, Kc3) which is the coordinate position on the reference coordinate KZ corresponding to the ground space CK. Inputs are sequentially made via the input operation unit 17a of the input means 17. On the other hand, cursor 3
By positioning 3 and 35, the cursor position recognition unit 22 causes the reference point images KJa1 (KJa2, KJa).
3) The coordinate position on the plane coordinate HZ1 and the reference point image K
The coordinate position of the Jb1 (KJb2, KJb3) on the plane coordinate HZ2 is recognized, and the coordinate position on the plane coordinate HZ1 and the coordinate position on the plane coordinate HZ2 are further transmitted to the coordinate conversion control unit 19, The reference point image coordinate position Ka1 (Ka2, Ka3) at the camera coordinate CZ1 and
Reference point image coordinate position Kb1 (K
b2, b3) and transmitted to the main control unit 2.
The main controller 2 controls the reference point image coordinate position Ka1 (Ka2, Ka2, Ka2
3), the reference point image coordinate position Kb1 (Kb2, b3), and
Reference point coordinate position K input via the input operation unit 17a
The c1 (Kc2, Kc3) is transmitted to the ground orientation calculating section 11.

【0015】次いで、対地標定演算部11では対地標定
演算が行われる。即ち、カメラ座標CZ1上の基準点像
座標位置Ka1(Ka2、Ka3)或いは、カメラ座標
CZ2上の基準点像座標位置Kb1(Kb2、b3)に
対応する基準点座標位置Kc1(Kc2、Kc3)は、
相互標定作業の結果得られる仮想的な前記モデル61上
の位置であり、前記モデル61上の位置は、上述したよ
うに、カメラ座標CZ1、CZ2に対して相対的に決定
されている。よって、基準点座標位置Kc1(Kc2、
Kc3)は基準座標KZ上の点であることから、モデル
61と基準座標KZとの位置関係が特定され、基準座標
KZとカメラ座標CZ1或いは、カメラ座標CZ2との
位置関係が特定される。以上のように基準座標KZ上で
特定されたモデル61は実際の測量対象物60と正確に
対応したものとなっており、また、モデル61とカメラ
座標CZ1、CZ2との位置関係も特定されているた
め、カメラ座標CZ1、CZ2における互いに対応した
点の各座標位置が決定されたならば、これら座標位置に
対応するモデル61上の点が基準座標KZにおける座標
位置の形で1つ決定される。従って、対地標定演算部1
1は、カメラ座標CZ1、CZ2における、対応する点
の各座標位置を、モデル61の基準座標KZにおける点
の三次元座標位置SIに変換する所定の変換式HS1を
構築し、対地標定演算部11は、該変換式HS1を主制
御部2を介して三次元位置演算部13に伝送記憶させ
る。
Next, the ground orientation calculation section 11 performs the ground orientation calculation. That is, the reference point image coordinate position Ka1 (Ka2, Ka3) on the camera coordinate CZ1 or the reference point coordinate position Kc1 (Kc2, Kc3) corresponding to the reference point image coordinate position Kb1 (Kb2, b3) on the camera coordinate CZ2 is ,
It is a virtual position on the model 61 obtained as a result of the mutual orientation work, and the position on the model 61 is determined relatively to the camera coordinates CZ1 and CZ2 as described above. Therefore, the reference point coordinate position Kc1 (Kc2,
Since Kc3) is a point on the reference coordinates KZ, the positional relationship between the model 61 and the reference coordinates KZ is specified, and the positional relationship between the reference coordinates KZ and the camera coordinates CZ1 or the camera coordinates CZ2 is specified. As described above, the model 61 specified on the reference coordinates KZ accurately corresponds to the actual survey object 60, and the positional relationship between the model 61 and the camera coordinates CZ1 and CZ2 is also specified. Therefore, if the coordinate positions of the points corresponding to each other in the camera coordinates CZ1 and CZ2 are determined, one point on the model 61 corresponding to these coordinate positions is determined in the form of the coordinate position in the reference coordinate KZ. . Therefore, the ground orientation calculation unit 1
1 constructs a predetermined conversion formula HS1 for converting each coordinate position of the corresponding points in the camera coordinates CZ1 and CZ2 into a three-dimensional coordinate position SI of the point in the reference coordinates KZ of the model 61, and the ground orientation calculating unit 11 Causes the conversion formula HS1 to be transmitted and stored in the three-dimensional position calculation unit 13 via the main control unit 2.

【0016】次いで、主制御部2は対地標定演算部11
より、相対的な位置関係が互いに決定されている基準座
標KZ、カメラ座標CZ1、CZ2及び、第一写真画像
SG1、第二写真画像SG2を偏位修正演算部12に伝
送して、偏位修正演算部12に公知の手法による偏位修
正作業を行わせる。即ち、基準座標KZにおける同一平
面である修正平面SH1、SH2(但し、投影中心O
1、O2を結んだ直線と修正平面SH1、SH2とは共
に平行である)を、図3の二点鎖線に示すように、カメ
ラ座標CZ1、CZ2にそれぞれ設定し、画像平面GH
1、GH2上の点をそれぞれ修正平面SH1、SH2に
変換させる形で、画像平面GH1、GH2上の第一写真
画像SG1、第二写真画像SG2を修正平面SH1、S
H2に変換させる。なお、画像平面GH1、GH2上の
点の修正平面SH1、SH2への変換は、画像平面GH
1、GH2上の各点を、投影中心O1、O2とこれら各
点とを結んだ光束と、修正平面SH1、SH2との各交
点へ変換させる形(即ち、公知の射影変換)で行う。ま
た、これら修正平面SH1、SH2の上に、Xs1軸、
Ys1軸からなる修正平面座標SHZ1と、Xs2軸、
Ys2軸からなる修正平面座標SHZ2とを設定する。
但し、Xs1軸、Xs2軸は基準座標KZ上の同一なる
直線となるように設定されている。つまり、修正平面座
標SHZ1、SHZ2上の写真画像SG1、SG2で
は、両写真画像SG1、SG2間での視差がXs1軸或
いは、Xs2軸方向にのみ生じるようになっている。ま
た、偏位修正演算部12は、修正平面座標SHZ1、S
HZ2とカメラ座標CZ1、CZ2との間の座標変換式
HS2を算出する。
Next, the main control unit 2 has a ground orientation calculation unit 11
Further, the reference coordinates KZ, the camera coordinates CZ1, CZ2, and the first photographic image SG1 and the second photographic image SG2, whose relative positional relationships are determined with each other, are transmitted to the eccentricity correction calculation unit 12, and the eccentricity correction is performed. The calculation unit 12 is caused to perform the deviation correction work by a known method. That is, the correction planes SH1 and SH2 (where the projection center O
(The straight line connecting 1 and O2 and the correction planes SH1 and SH2 are parallel to each other) are set to the camera coordinates CZ1 and CZ2, respectively, as shown by the chain double-dashed line in FIG.
The first photographic image SG1 and the second photographic image SG2 on the image planes GH1 and GH2 are converted into correction planes SH1 and SH2 by converting points on the image planes GH1 and GH2, respectively.
Convert to H2. The conversion of the points on the image planes GH1 and GH2 into the correction planes SH1 and SH2 is performed by the image plane GH.
The points 1 and GH2 are converted into the intersections of the light fluxes connecting the projection centers O1 and O2 with these points and the correction planes SH1 and SH2 (that is, known projection transformation). In addition, on these correction planes SH1 and SH2, the Xs1 axis,
Modified plane coordinates SHZ1 consisting of Ys1 axis, Xs2 axis,
A corrected plane coordinate SHZ2 consisting of the Ys2 axis is set.
However, the Xs1 axis and the Xs2 axis are set to be the same straight line on the reference coordinate KZ. That is, in the photographic images SG1 and SG2 on the corrected plane coordinates SHZ1 and SHZ2, parallax between the photographic images SG1 and SG2 occurs only in the Xs1 axis direction or the Xs2 axis direction. Further, the deviation correction calculation unit 12 uses the correction plane coordinates SHZ1 and SZ.
A coordinate conversion formula HS2 between HZ2 and camera coordinates CZ1 and CZ2 is calculated.

【0017】次いで、偏位修正演算部12は修正平面座
標SHZ1、SHZ2及び、修正平面座標SHZ1、S
HZ2上に変換された写真画像SG1、SG2と、座標
変換式HS2を主制御部2に伝送する。主制御部2は、
修正平面座標SHZ1上の第一写真画像SG1及び、修
正平面座標SHZ2上の第一写真画像SG2を、座標変
換制御部19に伝送する。座標変換制御部19は、修正
平面座標SHZ1上の任意の点を、該任意の点のXs1
軸成分を平面座標HZ1のX1軸成分に、Ys1軸成分
をY1軸成分にそれぞれ置き換える形で変換させる方法
で、修正平面座標SHZ1上の第一写真画像SG1を平
面座標HZ1上に変換し、修正平面座標SHZ2上の任
意の点を、該任意の点のXs2軸成分を平面座標HZ2
のX2軸成分に、Ys2軸成分をY2軸成分にそれぞれ
置き換える形で変換し、変換した両写真画像SG1、S
G2を表示制御部7aに伝送する。表示制御部7aは、
図5に示すように、これら両写真画像SG1、SG2を
第一ディスプレイ7c、第二ディスプレイ7dにそれぞ
れ表示させる(第一ディスプレイ7c、第二ディスプレ
イ7dに直前に表示されていた偏位修正作業前の写真画
像SG1、SG2は消去される。)。一方、主制御部2
は座標変換式HS2を、座標変換制御部19及び、三次
元位置演算部13に伝送し記憶させる。以上で偏位修正
作業が完了したが、該偏位修正作業の結果、図5に示す
ように、各ディスプレイ7c、7dに表示された写真画
像SG1、SG2間では、Xs1軸に対応したX1軸方
向或いは、Xs2軸に対応したX2軸方向にのみ視差が
生じているため、第一写真画像SG1上の一点のY1軸
成分の値と、該一点に対応する第二写真画像SG2上の
一点のY2軸成分の値とは常に等しくなる。
Next, the deviation correction calculation unit 12 corrects the plane coordinates SHZ1, SHZ2 and the plane coordinates SHZ1, SZ.
The photographic images SG1 and SG2 converted on the HZ2 and the coordinate conversion formula HS2 are transmitted to the main control unit 2. The main control unit 2
The first photographic image SG1 on the corrected plane coordinates SHZ1 and the first photographic image SG2 on the corrected plane coordinates SHZ2 are transmitted to the coordinate conversion control unit 19. The coordinate conversion control unit 19 determines an arbitrary point on the corrected plane coordinate SHZ1 as Xs1 of the arbitrary point.
The first photographic image SG1 on the corrected plane coordinate SHZ1 is converted to the plane coordinate HZ1 by the method of converting the axis component into the X1 axis component of the plane coordinate HZ1 and the Ys1 axis component with the Y1 axis component. An arbitrary point on the plane coordinate SHZ2 is converted into an Xs2 axis component of the arbitrary point on the plane coordinate HZ2.
To the X2 axis component of the Ys2 axis component by replacing the Ys2 axis component with the Y2 axis component.
G2 is transmitted to the display controller 7a. The display control unit 7a
As shown in FIG. 5, both of these photographic images SG1 and SG2 are displayed on the first display 7c and the second display 7d, respectively (before the deviation correction work displayed immediately before on the first display 7c and the second display 7d). The photographic images SG1 and SG2 are deleted.) On the other hand, the main controller 2
Transmits the coordinate conversion formula HS2 to the coordinate conversion control unit 19 and the three-dimensional position calculation unit 13 for storage. The deviation correction work is completed as described above. As a result of the deviation correction work, as shown in FIG. 5, the X1 axis corresponding to the Xs1 axis is displayed between the photographic images SG1 and SG2 displayed on the displays 7c and 7d. Direction or the parallax occurs only in the X2 axis direction corresponding to the Xs2 axis, the Y1 axis component value of one point on the first photographic image SG1 and the one point on the second photographic image SG2 corresponding to the one point. It is always equal to the value of the Y2-axis component.

【0018】偏位修正作業完了後、主制御部2は射影変
換式検出作業を開始させる。主制御部2は、偏位修正演
算部12より基準座標KZ、カメラ座標CZ1、CZ
2、修正平面座標SHZ1、SHZ2を射影変換制御部
25に伝送入力すると共に、相互標定演算部10におい
て使用された、カメラ座標CZ1上の5つのパスポイン
ト座標位置Pa1〜Pa5及び、カメラ座標CZ2上の
5つのパスポイント座標位置Pb1〜Pb5を、各々対
応するものどうしを対にする形で取り出して、これら対
を座標変換制御部19に伝送する。座標変換制御部19
では、伝送されたカメラ座標CZ1上のパスポイント座
標位置Pa1〜Pa5及び、カメラ座標CZ2上のパス
ポイント座標位置Pb1〜Pb5を、前記座標変換式H
S2によって修正平面座標SHZ1上の座標位置(i
1、j1)、(i2、j2)、(i3、j3)、(i
4、j4)、(i5、j5)及び、修正平面座標SHZ
2上の座標位置(l1、m1)、(l2、m2)、(l
3、m3)、(l4、m4)、(l5、m5)に変換し
て射影変換制御部25に伝送入力させる。射影変換制御
部25では、a、b、c、x、x’、y、y’を変数と
する方程式である数1のxに、i1〜i5を代入し、y
にj1〜j5を代入し、x’にl1〜l5を代入し、
y’にm1〜m5を代入して、a、b、cを変数とする
方程式を4つ形成し、該4つの方程式からa、b、cを
変数とする行列式、即ち、数2を形成する。なお、数1
におけるx、yは、修正平面座標SHZ1における任意
の点のXs1軸成分、Ys1軸成分に対応し、x’、
y’は、修正平面座標SHZ2における、修正平面座標
SHZ1上の前記任意の点に対応する点のXs2軸成
分、Ys2軸成分に対応する。また、上述したように、
修正平面座標SHZ1上の任意の点のYs1軸成分が、
該任意の点に対応する修正平面座標SHZ2上の点のY
s2軸成分と同値になるように、修正平面座標SHZ
1、SHZ2が偏位修正されているため、yとy’は常
に等しい。
After the deviation correction work is completed, the main control section 2 starts the projective conversion formula detection work. The main control unit 2 receives the reference coordinates KZ, the camera coordinates CZ1 and CZ from the deviation correction calculation unit 12.
2. The corrected plane coordinates SHZ1 and SHZ2 are transmitted and input to the projective transformation control unit 25, and the five path point coordinate positions Pa1 to Pa5 on the camera coordinate CZ1 and the camera coordinate CZ2 used in the relative orientation calculation unit 10 are also transmitted. Of the five path point coordinate positions Pb1 to Pb5 are taken out in the form of pairs corresponding to each other, and these pairs are transmitted to the coordinate conversion control unit 19. Coordinate conversion control unit 19
Then, the transmitted path point coordinate positions Pa1 to Pa5 on the camera coordinate CZ1 and the transmitted path point coordinate positions Pb1 to Pb5 on the camera coordinate CZ2 are converted into the coordinate conversion formula H.
The coordinate position (i on the corrected plane coordinate SHZ1 by S2
1, j1), (i2, j2), (i3, j3), (i
4, j4), (i5, j5) and corrected plane coordinates SHZ
2 coordinate positions (l1, m1), (l2, m2), (l
3, m3), (l4, m4), (l5, m5), and the transmission is input to the projective transformation control unit 25. In the projective transformation control unit 25, i1 to i5 are substituted into x in the equation 1 which is an equation having variables a, b, c, x, x ′, y, y ′, and y
Substituting j1 to j5 for x, substituting 11 to 15 for x ′,
Substituting m1 to m5 into y ′ to form four equations with a, b, and c as variables, and form a determinant with a, b, and c as variables from the four equations, that is, Formula 2 To do. The number 1
X and y correspond to the Xs1 axis component and the Ys1 axis component of an arbitrary point in the corrected plane coordinate SHZ1, and x ′,
y'corresponds to the Xs2-axis component and the Ys2-axis component of the point on the corrected plane coordinate SHZ2 corresponding to the arbitrary point on the corrected plane coordinate SHZ1. Also, as mentioned above,
The Ys1 axis component of an arbitrary point on the corrected plane coordinate SHZ1 is
Y of the point on the corrected plane coordinate SHZ2 corresponding to the arbitrary point
Corrected plane coordinate SHZ so that it has the same value as the s2-axis component
1, SHZ2 is rectified, so that y and y'are always equal.

【数1】 [Equation 1]

【数2】 この数2は、数3のように変形することが出来る。[Equation 2] The equation 2 can be transformed into the equation 3.

【数3】 なお、右肩に添字のtを付けた行列は転置行列を表し、
右肩に添字の−1を付けた行列は逆行列を表す。従っ
て、射影変換制御部25は、数3に基づいて、変数a、
b、cを演算して求め、求められた変数a、b、cを前
記数1に代入して、数1をy、y’、x、x’を変数と
する修正平面座標SHZ1と修正平面座標SHZ2間の
射影変換式HS3として決定する。
[Equation 3] The matrix with the subscript t on the right shoulder represents the transposed matrix,
The matrix with the subscript -1 on the right shoulder represents the inverse matrix. Therefore, the projective transformation control unit 25 uses the variable a,
b and c are calculated and the calculated variables a, b and c are substituted into the above equation 1, and the corrected plane coordinates SHZ1 and the corrected plane in which the equation 1 is used as variables y, y ', x and x' It is determined as the projective transformation formula HS3 between the coordinates SHZ2.

【0019】次いで、主制御部2は、マッチング作業を
開始させ、まず、格子設定制御部26に命令し、第一デ
ィスプレイ7cに表示された平面座標HZ1に、図5に
示すように、複数本の縦線27aと複数本の横線27b
を所定の格子縞27を形成する形で設け、その縦線27
aと横線27bの各交点に基準交点29を設定する。設
定の後、主制御部2は、1回目の相関窓30の設定作業
を行わせる。即ち、主制御部2は相関窓制御部20に命
令して、複数個の基準交点29が設定された平面座標H
Z1における任意の基準交点29を1つ選ばせ、選んだ
基準交点29をマッチング基準点29Aとさせる。ま
た、該マッチング基準点29Aを中心として、図5及び
図6に示すように、所定の領域を包囲する正方形の相関
窓30を設定する。なお、相関窓30の四隅の点30
a、30b、30c、30dは平面座標HZ1(或い
は、修正平面座標SHZ1)上で座標位置(i31、j
31)、(i32、j32)、(i33、j33)、
(i34、j34)であり、マッチング基準点29Aは
座標位置(i29、j29)である。1回目の相関窓3
0の設定後、相関窓制御部20は、マッチング基準点2
9Aの座標位置(i29、j29)を三次元位置演算部
13に伝送記憶させる。次いで、相関窓制御部20は、
相関窓30内部に含まれる複数の画素GSに関するデジ
タル情報即ち、赤色R、緑色G、青色Bの3つの色度毎
の明度αに関する濃度値情報NJ1を抽出し、相関窓濃
度値検出部3に伝送する。相関窓濃度値検出部3では、
図6において模式的に示すように、相関窓30内部に含
まれる複数の画素GSの赤色Rの明度αに関する情報が
相関窓赤色濃度値検出部3aに、緑色Gの明度αに関す
る情報が相関窓緑色濃度値検出部3b、青色Bの明度α
に関する情報が相関窓青色濃度値検出部3cに区別して
伝送されており、これら各濃度値検出部3a、3b、3
cにおいて、相関窓30内部に含まれる複数の画素GS
の各色度R、G、B毎の明度αの分布状況P1、P2、
P3が検出される。検出の後、これら各色度R、G、B
毎の明度αの分布状況P1、P2、P3はマッチングポ
イント検出部6に伝送させる。また一方で、1回目の相
関窓30の設定後、相関窓制御部20は、相関窓30の
四隅の点30a、30b、30c、30dの座標位置
(i31、j31)、(i32、j32)、(i33、
j33)、(i34、j34)及び、マッチング基準点
29Aの座標位置(i29、j29)を射影変換制御部
25に出力する。
Next, the main control section 2 starts the matching work, firstly commands the lattice setting control section 26, and sets a plurality of lines on the plane coordinates HZ1 displayed on the first display 7c as shown in FIG. Vertical line 27a and multiple horizontal lines 27b
Are provided in the form of forming a predetermined lattice stripe 27, and the vertical line 27
A reference intersection 29 is set at each intersection of a and the horizontal line 27b. After setting, the main control unit 2 causes the first setting operation of the correlation window 30. That is, the main control unit 2 commands the correlation window control unit 20 to set the plane coordinates H in which a plurality of reference intersections 29 are set.
One arbitrary reference intersection 29 in Z1 is selected, and the selected reference intersection 29 is set as the matching reference point 29A. Further, as shown in FIGS. 5 and 6, centering on the matching reference point 29A, a square correlation window 30 surrounding a predetermined area is set. The points 30 at the four corners of the correlation window 30
a, 30b, 30c, and 30d are coordinate positions (i31, j) on the plane coordinate HZ1 (or the corrected plane coordinate SHZ1).
31), (i32, j32), (i33, j33),
(I34, j34), and the matching reference point 29A is the coordinate position (i29, j29). First correlation window 3
After setting 0, the correlation window control unit 20 determines that the matching reference point 2
The coordinate position (i29, j29) of 9A is transmitted and stored in the three-dimensional position calculation unit 13. Then, the correlation window control unit 20
Digital information regarding a plurality of pixels GS included in the correlation window 30, that is, density value information NJ1 regarding lightness α for each of the three chromaticities of red R, green G, and blue B is extracted, and is output to the correlation window density value detection unit 3. To transmit. In the correlation window density value detection unit 3,
As schematically shown in FIG. 6, information about the brightness α of the red R of the plurality of pixels GS included in the correlation window 30 is displayed in the correlation window red density value detection unit 3a, and information about the brightness α of the green G is displayed in the correlation window. Green density value detection unit 3b, lightness α of blue B
The information on the correlation window blue density value detecting section 3c is separately transmitted to the correlation window blue density value detecting sections 3a, 3b, 3 and 3.
c, the plurality of pixels GS included in the correlation window 30
Of the lightness α for each chromaticity R, G, B of P1, P2,
P3 is detected. After detection, these chromaticities R, G, B
The distribution states P1, P2, P3 of the brightness α for each are transmitted to the matching point detection unit 6. On the other hand, after setting the correlation window 30 for the first time, the correlation window control unit 20 sets the coordinate positions (i31, j31), (i32, j32) of the points 30a, 30b, 30c, 30d at the four corners of the correlation window 30, (I33,
j33), (i34, j34) and the coordinate position (i29, j29) of the matching reference point 29A are output to the projective transformation control unit 25.

【0020】射影変換制御部25は、相関窓30の四隅
の点30a、30b、30c、30dの座標位置(i3
1、j31)、(i32、j32)、(i33、j3
3)、(i34、j34)及び、マッチング基準点29
Aの座標位置(i29、j29)を、前記射影変換式H
S3にそれぞれ代入し、それぞれの修正平面座標SHZ
1での座標位置(i31、j31)、(i32、j3
2)、(i33、j33)、(i34、j34)、(i
29、j29)に対応する修正平面座標SHZ2上の座
標位置(l31、m31)、(l32、m32)、(l
33、m33)、(l34、m34)、(l29、m2
9)を演算する。演算後、射影変換制御部25は、これ
ら5個の座標位置(l31、m31)、(l32、m3
2)、(l33、m33)、(l34、m34)、(l
29、m29)を探索窓制御部21に出力する。探索窓
制御部21は、これら座標位置(l31、m31)、
(l32、m32)、(l33、m33)、(l34、
m34)、(l29、m29)に基づいて、修正平面座
標SHZ2上に、座標位置(l31、m31)、(l3
2、m32)、(l33、m33)、(l34、m3
4)を四隅の点31a、31b、31c、31dとする
平行四辺形(なぜなら、修正平面座標SHZ1上の互い
に平行な任意の2直線が、それぞれ射影変換式HS3に
よって修正平面座標SHZ2に変換された場合、変換前
の前記任意の2直線は、修正平面座標SHZ2における
互いに平行な直線となるから、修正平面座標SHZ1上
で点30a、30bを結ぶ直線と点30c、30dを結
ぶ直線が互いに平行であると共に点30a、30cを結
ぶ直線と点30b、30dを結ぶ直線が互いに平行であ
ることより、修正平面座標SHZ2上で点31a、31
bを結ぶ直線と点31c、31dを結ぶ直線が互いに平
行であると共に点31a、31cを結ぶ直線と点31
b、31dを結ぶ直線が互いに平行であるから)の探索
窓31を設定する。また、探索窓制御部21は、座標位
置(l29、m29)を探索対応点29Bとして設定す
る。なお、探索対応点29Bは探索窓31の平行四辺形
形状の中心点である(なぜなら、修正平面座標SHZ1
上の任意の2点及びこれら2点の中点が、それぞれ射影
変換式HS3によって修正平面座標SHZ2に変換され
た場合、変換前の前記任意の2点の中点であった点は、
変換後に平面座標HZ2に位置する前記任意の2点の中
点に位置するから、修正平面座標SHZ1上で正方形の
2対角線の中点であり交点である中心点は、修正平面座
標SHZ2上では平行四辺形の2対角線の中点であり交
点である中心点となるから)。
The projective transformation control unit 25 controls the coordinate positions (i3) of the points 30a, 30b, 30c and 30d at the four corners of the correlation window 30.
1, j31), (i32, j32), (i33, j3)
3), (i34, j34) and matching reference point 29
The coordinate position (i29, j29) of A is converted into the projective transformation formula H
Substituting for each S3, each corrected plane coordinate SHZ
Coordinate positions (i31, j31), (i32, j3)
2), (i33, j33), (i34, j34), (i
29, j29) and coordinate positions (l31, m31), (l32, m32), (l) on the corrected plane coordinate SHZ2.
33, m33), (l34, m34), (l29, m2)
9) is calculated. After the calculation, the projective transformation control unit 25 determines that these five coordinate positions (l31, m31), (l32, m3).
2), (l33, m33), (l34, m34), (l
29, m29) to the search window controller 21. The search window control unit 21 uses these coordinate positions (l31, m31),
(L32, m32), (l33, m33), (l34,
Based on m34) and (l29, m29), coordinate positions (l31, m31), (l3) on the corrected plane coordinate SHZ2.
2, m32), (l33, m33), (l34, m3)
4) parallelograms having four corner points 31a, 31b, 31c, 31d (because any two parallel lines on the corrected plane coordinate SHZ1 are converted to the corrected plane coordinate SHZ2 by the projective transformation formula HS3). In this case, the arbitrary two straight lines before conversion are parallel to each other in the corrected plane coordinate SHZ2. Therefore, on the corrected plane coordinate SHZ1, the line connecting the points 30a and 30b and the line connecting the points 30c and 30d are parallel to each other. Since the straight line connecting the points 30a and 30c and the straight line connecting the points 30b and 30d are parallel to each other, the points 31a and 31 on the corrected plane coordinate SHZ2 are
The straight line connecting b and the straight line connecting points 31c and 31d are parallel to each other, and the straight line connecting the points 31a and 31c and point 31
(Because the straight lines connecting b and 31d are parallel to each other), a search window 31 is set. In addition, the search window control unit 21 sets the coordinate position (l29, m29) as the search corresponding point 29B. The search corresponding point 29B is the center point of the parallelogram shape of the search window 31 (because of the corrected plane coordinates SHZ1.
When the arbitrary two points above and the midpoints of these two points are transformed into the modified plane coordinates SHZ2 by the projective transformation formula HS3, the point which was the midpoint of the arbitrary two points before transformation is
Since it is located at the midpoint between the two arbitrary points located on the plane coordinate HZ2 after conversion, the center point, which is the midpoint and intersection of the two diagonals of the square on the revised plane coordinate SHZ1, is parallel on the revised plane coordinate SHZ2. (Because it is the center of the quadrilateral, which is the midpoint and intersection of the two diagonals).

【0021】ところで、上述した射影変換式HS3は次
のような意味をもっている。即ち、相互標定作業、対地
標定作業によって得られた基準座標KZにおける前記モ
デル61は平面ではなく比高差を有している。従って、
モデル61中の点の基準座標KZにおける座標位置を決
定するには、上述した変換式HS1、HS2によって示
されるように、モデル61中の点の該座標位置に対応す
る修正平面座標SHZ1上の点の座標位置と、モデル6
1中の点の該座標位置に対応する修正平面座標SHZ2
上の点の座標位置とが共に決定される必要があった。し
かし、修正平面座標SHZ1上の5つの座標位置(i1
〜i5、j1〜j5)と、これらに対応する修正平面座
標SHZ2上の5つの座標位置(l1〜l5、m1〜m
5)と、変換式HS1、HS2により求められるこれら
5つの座標位置(i1〜i5、j1〜j5)或いは、5
つの座標位置(l1〜l5、m1〜m5)に対応するモ
デル61中の対応点T1〜T5を求め、これら対応点T
1〜T5を近似的に含む仮想平面HHを基準座標KZ上
で、図3に示すように想定した場合、カメラ座標CZ1
上の投影中心O1に光源を置き、修正平面座標SHZ1
上の第一写真画像SG1を該仮想平面HH上に仮想写真
画像SG3として投影することができる。つまり、比高
差のあるモデル61を比高差のない仮想写真画像SG3
に近似的に置き換えることができる。即ち、上述した射
影変換式HS3は、修正平面座標SHZ1上の任意の点
を、該任意の点に対応する仮想平面HH上の点と、カメ
ラ座標CZ2上の投影中心O2とを結んだ直線の、修正
平面座標SHZ2との交点に変換することを意味してい
る。よって、修正平面座標SHZ1の相関窓30の四隅
の点30a、30b、30c、30dを射影変換式HS
3によって修正平面座標SHZ2の点31a、31b、
31c、31dに変換し、これら点31a、31b、3
1c、31dを四隅とする探索窓31を設定することに
よって、相関窓30内に含まれる点に対応した、モデル
61を近似的に置き換えた仮想平面HH上の仮想写真画
像SG3中の点が、探索窓31内に含まれる点に対応す
るので、相関窓30内に含まれる点と探索窓31内に含
まれる点との整合性を極力高めることができる。よっ
て、後述する画像濃度値の分布状態の比較等において、
対応しているはずの画像どうしよりも、対応していない
はずの画像どうしの類似度をより高く評価してしまう可
能性を小さくできるので、適正なマッチングを行うこと
ができる。
By the way, the above-mentioned projective transformation formula HS3 has the following meaning. That is, the model 61 at the reference coordinates KZ obtained by the mutual orientation work and the ground orientation work does not have a flat surface but a specific height difference. Therefore,
In order to determine the coordinate position of the point in the model 61 in the reference coordinate KZ, a point on the corrected plane coordinate SHZ1 corresponding to the coordinate position of the point in the model 61, as indicated by the above-mentioned conversion formulas HS1 and HS2. Coordinate position and model 6
Modified plane coordinates SHZ2 corresponding to the coordinate position of the point in 1
The coordinate position of the upper point had to be determined together. However, the five coordinate positions (i1
To i5, j1 to j5) and the corresponding five coordinate positions (11 to 15 and m1 to m5 on the corrected plane coordinates SHZ2).
5) and these five coordinate positions (i1 to i5, j1 to j5) obtained by the conversion expressions HS1 and HS2, or 5
Corresponding points T1 to T5 in the model 61 corresponding to two coordinate positions (11 to 15 and m1 to m5) are obtained, and these corresponding points T
When the virtual plane HH approximately including 1 to T5 is assumed on the reference coordinate KZ as shown in FIG. 3, the camera coordinate CZ1
The light source is placed at the upper projection center O1 and the corrected plane coordinates SHZ1
The upper first photographic image SG1 can be projected as the virtual photographic image SG3 on the virtual plane HH. That is, the model 61 having a relative height difference is set to the virtual photograph image SG3 having no relative height difference.
Can be replaced approximately. That is, the above-described projective transformation formula HS3 is a straight line that connects an arbitrary point on the corrected plane coordinate SHZ1 with a point on the virtual plane HH corresponding to the arbitrary point and the projection center O2 on the camera coordinate CZ2. , Which means conversion to an intersection with the corrected plane coordinate SHZ2. Therefore, the points 30a, 30b, 30c, and 30d at the four corners of the correlation window 30 of the corrected plane coordinates SHZ1 are converted into the projective transformation formula HS.
Points 31a, 31b of the corrected plane coordinates SHZ2 by 3,
31c, 31d and these points 31a, 31b, 3
By setting the search windows 31 having the four corners 1c and 31d, the points in the virtual photographic image SG3 on the virtual plane HH corresponding to the points included in the correlation window 30 are approximately replaced by the model 61. Since it corresponds to the points included in the search window 31, it is possible to maximize the consistency between the points included in the correlation window 30 and the points included in the search window 31. Therefore, in the comparison of the distribution of image density values, which will be described later,
Since it is possible to reduce the possibility that the similarity between images that should not correspond to each other will be evaluated higher than the images that should correspond to each other, it is possible to perform appropriate matching.

【0022】一方、前記仮想平面HHは、上述したよう
に、比高差をもつモデル61と一致しているわけではな
く、よって射影変換式HS3は、修正平面座標SHZ1
上の任意の点を該任意の点に近似的に対応する修正平面
座標SHZ2上の点へ変換する式であるので、修正平面
座標SHZ1の全ての点を修正平面座標SHZ2上の対
応する点に正確に移すことはできない。よって、マッチ
ング基準点29Aが、上述したように、射影変換式HS
3によって修正平面座標SHZ2上の点に変換され、変
換された該点をマッチング基準点29Aに対応する探索
対応点29Bとして設定したが、マッチング基準点29
Aと探索対応点29Bとは近似的に対応しているだけで
あって正確に対応しているとは限らない。従って、以下
に相関窓30の中心のマッチング基準点29Aに正確に
対応する修正平面座標SHZ2上の探索対応点29Bを
求めるマッチングポイント検出作業を行う。ところで、
上述したように、修正平面座標SHZ1、SHZ2は互
いに偏位修正が行われており、両修正平面座標SHZ
1、SHZ2上の両写真画像SG1、SG2間ではY1
軸(Ys1軸)方向或いはY2軸(Ys2軸)方向の視
差が無い。つまり、マッチング基準点29Aに正確に対
応した修正平面座標SHZ2上の点は、射影変換式HS
3によって変換され設定された探索対応点29BとY2
軸(Ys2軸)成分が等しい値をもつはずである。よっ
て、主制御部2は、探索窓制御部21に命令して、探索
窓31及び、探索対応点29Bを修正平面座標SHZ2
上において、Xs2軸の正方向(或いは、負方向)に所
定の移動量δづつ平行移動させる。なお、移動量δは1
つの画素GSのX2軸(Xs2軸)方向の幅に等しく、
移動量δづつ平行移動するということは、探索対応点2
9Bが、その位置をX2軸(Xs2軸)方向に隣接する
画素GSに順次対応させながら移り変える形で移動する
ことを意味する。また、探索窓制御部21は、探索対応
点29Bの修正平面座標SHZ2上の座標位置(lk、
m29)を移動量δ移動ごとに、マッチングポイント検
出部16に出力する。また、探索窓制御部21は、移動
量δを移動するごとに、探索窓31内部に含まれる複数
の画素GSに関するデジタル情報即ち、赤色R、緑色
G、青色Bの3つの色度毎の明度βに関する濃度値情報
NJ2を抽出し、探索窓濃度値検出部5に伝送する。探
索窓濃度値検出部5では、図6に示すように、探索窓3
1内部に含まれる複数の画素GSのうち赤色Rの明度β
に関する情報が探索窓赤色濃度値検出部5aに、緑色G
の明度βに関する情報が探索窓緑色濃度値検出部5b、
青色Bの明度βに関する情報が探索窓青色濃度値検出部
5cに区別して伝送されており、これら各濃度値検出部
5a、5b、5cにおいて、探索窓31内部に含まれる
複数の画素GSのうち各色度R、G、B毎の明度βの分
布状況Q1、Q2、Q3が検出される。また検出の後、
これら各色度R、G、B毎の明度βの分布状況Q1、Q
2、Q3はマッチングポイント検出部6に伝送させる。
つまり、探索窓31が移動量δを移動するごとに、該探
索窓31内部の複数の画素GSの明度βの分布状況Q
1、Q2、Q3が検出され、検出される度にマッチング
ポイント検出部6に伝送される。
On the other hand, the virtual plane HH does not coincide with the model 61 having a difference in specific height as described above, and therefore the projective transformation formula HS3 is the corrected plane coordinate SHZ1.
Since it is an expression for converting any point on the corrected plane coordinate SHZ2 approximately corresponding to the arbitrary point, all the points on the corrected plane coordinate SHZ1 become corresponding points on the corrected plane coordinate SHZ2. It cannot be moved exactly. Therefore, as described above, the matching reference point 29A is the projective transformation expression HS.
3 is converted into a point on the corrected plane coordinate SHZ2, and the converted point is set as a search corresponding point 29B corresponding to the matching reference point 29A.
A and the search corresponding point 29B only correspond approximately and do not necessarily correspond exactly. Therefore, the matching point detection operation for obtaining the search corresponding point 29B on the corrected plane coordinate SHZ2 that exactly corresponds to the matching reference point 29A at the center of the correlation window 30 is performed below. by the way,
As described above, the corrected plane coordinates SHZ1 and SHZ2 are offset from each other, and both corrected plane coordinates SHZ1.
1, Y1 between both photographic images SG1 and SG2 on SHZ2
There is no parallax in the axis (Ys1 axis) direction or the Y2 axis (Ys2 axis) direction. That is, the point on the corrected plane coordinate SHZ2 that exactly corresponds to the matching reference point 29A is the projective transformation formula HS.
Search corresponding points 29B and Y2 converted and set by 3
The axis (Ys2 axis) components should have equal values. Therefore, the main control unit 2 commands the search window control unit 21 to set the search window 31 and the search corresponding point 29B to the corrected plane coordinates SHZ2.
In the above, the Xs2 axis is translated in the positive direction (or the negative direction) by a predetermined movement amount δ. The movement amount δ is 1
Equal to the width of one pixel GS in the X2 axis (Xs2 axis) direction,
The parallel movement by the movement amount δ means that the search corresponding point 2
9B means that the position of 9B moves in such a manner that the position of 9B sequentially changes to correspond to the pixel GS adjacent in the X2 axis (Xs2 axis) direction. Further, the search window control unit 21 causes the search corresponding point 29B to have a coordinate position (lk,
m29) is output to the matching point detection unit 16 for each movement amount δ movement. In addition, the search window control unit 21 shifts the movement amount δ and digital information regarding the plurality of pixels GS included in the search window 31, that is, the brightness of each of the three chromaticities of red R, green G, and blue B. The density value information NJ2 regarding β is extracted and transmitted to the search window density value detection unit 5. In the search window density value detection unit 5, as shown in FIG.
The brightness β of the red R among the plurality of pixels GS included in 1
Information regarding the green color G is displayed in the red density value detection unit 5a of the search window.
Information about the brightness β of the search window green density value detection unit 5b,
Information regarding the brightness β of blue B is separately transmitted to the search window blue density value detection unit 5c, and among these density value detection units 5a, 5b, and 5c, among the plurality of pixels GS included in the search window 31, The distribution statuses Q1, Q2, Q3 of the lightness β for each chromaticity R, G, B are detected. Also after detection,
The distribution situation Q1, Q of the lightness β for each of the chromaticities R, G, B
2 and Q3 are transmitted to the matching point detection unit 6.
That is, every time the search window 31 moves by the movement amount δ, the distribution situation Q of the brightness β of the plurality of pixels GS inside the search window 31.
1, Q2, Q3 are detected and transmitted to the matching point detection unit 6 each time they are detected.

【0023】分布状況Q1、Q2、Q3がマッチングポ
イント検出部6に伝送される度に、主制御部2は、マッ
チングポイント検出部6に分布状況の比較を行わせる。
即ち、マッチングポイント検出部6は、既に伝送されて
いる相関窓30内の複数の画素GSの明度αの分布状況
P1、P2、P3と、順次伝送されて来る探索窓31内
の複数の画素GSの明度βの分布状況Q1、Q2、Q3
との間での類似度を示す相関係数γを順次求める。相関
係数γは、図6に示すように、まず分布状況P1、Q1
間の相関係数γ1、分布状況P2、Q2間の相関係数γ
2、分布状況P3、Q3間の相関係数γ3をそれぞれ算
出し、これら、相関係数γ1、γ2、γ3の平均として
求める。順次求められた相関係数γは、該相関係数γに
対応した探索対応点29Bの座標位置(lk、m29)
(既にマッチングポイント検出部6に伝送済)と対にし
てマッチングポイント検出部6に保存される。
Each time the distribution statuses Q1, Q2, Q3 are transmitted to the matching point detection unit 6, the main control unit 2 causes the matching point detection unit 6 to compare the distribution statuses.
That is, the matching point detection unit 6 determines the distribution states P1, P2, P3 of the brightness α of the plurality of pixels GS in the correlation window 30 that have already been transmitted, and the plurality of pixels GS in the search window 31 that are sequentially transmitted. Distribution of brightness β of Q1, Q2, Q3
The correlation coefficient γ indicating the degree of similarity between and is sequentially obtained. As shown in FIG. 6, the correlation coefficient γ is calculated based on the distribution conditions P1 and Q1.
Correlation coefficient γ1, between the distribution statuses P2, Q2
2. The correlation coefficient γ3 between the distribution states P3 and Q3 is calculated, and the average of the correlation coefficients γ1, γ2, and γ3 is obtained. The correlation coefficient γ sequentially obtained is the coordinate position (lk, m29) of the search corresponding point 29B corresponding to the correlation coefficient γ.
It is stored in the matching point detecting unit 6 in a pair with (already transmitted to the matching point detecting unit 6).

【0024】探索窓31を移動量δづつ移動させて、移
動の度に、マッチングポイント検出部6で相関係数γを
検出する動作を繰返しながら、探索窓31及び探索対応
点29Bを、該探索対応点29Bが、マッチング基準点
29Aに正確に対応する可能性のある所定の範囲内の位
置にことごとく移動される形で、移動させた後、探索窓
制御部21は、探索窓31の移動を終了させる。終了と
共に、主制御部2は、マッチングポイント検出部6に命
令して、マッチング対応点MTの検出を行わせる。即
ち、マッチングポイント検出部6は、保存されている複
数の相関係数γのうち最も大きいものを選び出し、この
相関係数γに対応して保存されている探索対応点29B
の座標位置(lk、m29)をマッチング基準点29A
に対応したマッチング対応点MTとして検出する。な
お、通常、相関窓内或いは探索窓内の複数の画素が構成
する画像の個別性は、これら複数の画素の色度に関係無
い明度の分布状況においてよりも、これら複数の画素が
もつ各色度毎の明度の分布状況において、より大きく発
揮されているので、従来の写真測量方法のように、マッ
チングを行うために用いる類似度を、相関窓内或いは探
索窓内の複数の画素がもつ色度に関係無い明度の分布状
況の比較によってのみ検出するよりも、マッチングを行
うために用いる類似度である相関係数γを、相関窓30
内或いは探索窓31内の複数の画素GSがもつ各色度
R、G、B毎の明度α、βの分布状況P1〜P3、Q1
〜Q3の比較によって検出する方が、相関窓30内の複
数の画素GSが構成する画像と対応する画像を構成する
複数の画素GSを含んだ探索窓31の位置をより高い信
頼性をもって検出することができる。つまり、本発明を
適用することによって、ミスマッチングが極力防止さ
れ、測量対象物60の立体形状の適正な検出が容易にな
る。マッチング対応点MTの検出後、マッチングポイン
ト検出部6は、該マッチング対応点MTの修正平面座標
SHZ2上での座標位置(l、m29)を三次元位置演
算部13に出力する。すると、三次元位置演算部13
は、修正平面座標SHZ1、SHZ2間において対応す
る、マッチング基準点29Aとマッチング対応点MTに
基づいて、これらマッチング基準点29Aとマッチング
対応点MTに対応する対地標定作業後の前記モデル61
上の対応点の基準座標KZ上の三次元位置SIを、三次
元位置演算部13に既に入力されている前記変換式HS
1、HS2によって算出する。また、三次元位置演算部
13は、マッチング基準点29Aの修正平面座標SHZ
1上での座標位置(129、j29)を、前記座標変換
式HS2によって画像平面GH1上の座標位置29gに
変換し、該座標位置29gと、算出された三次元位置S
Iとを、対にした形で三次元位置メモリ部15に伝送格
納する。
The search window 31 and the search corresponding point 29B are moved by moving the search window 31 by the movement amount δ and repeating the operation of detecting the correlation coefficient γ by the matching point detection unit 6 each time the movement is performed. After the corresponding point 29B is moved to a position within a predetermined range that may correspond to the matching reference point 29A exactly, the search window control unit 21 moves the search window 31. To finish. Upon completion, the main control unit 2 commands the matching point detection unit 6 to detect the matching corresponding point MT. That is, the matching point detection unit 6 selects the largest one among the plurality of stored correlation coefficients γ, and the search corresponding point 29B stored corresponding to this correlation coefficient γ.
The coordinate position (lk, m29) of the matching reference point 29A
Is detected as a matching corresponding point MT corresponding to. In general, the individuality of an image formed by a plurality of pixels in the correlation window or the search window is determined by the chromaticity of each of the plurality of pixels, rather than in the distribution of lightness irrelevant to the chromaticity of the plurality of pixels. It is more effective in each lightness distribution, so the similarity used for matching is the chromaticity of multiple pixels in the correlation window or search window, as in conventional photogrammetry. The correlation coefficient γ, which is the similarity used for performing matching, is detected by the correlation window 30 rather than being detected only by comparing the distribution of lightness that is not related to
Distributions P1 to P3, Q1 of lightness α, β for each chromaticity R, G, B possessed by a plurality of pixels GS in the search window 31
It is more reliable to detect the position of the search window 31 including the plurality of pixels GS forming the image corresponding to the image formed by the plurality of pixels GS in the correlation window 30 by the comparison of Q3 to Q3. be able to. That is, by applying the present invention, mismatching is prevented as much as possible, and proper detection of the three-dimensional shape of the survey object 60 is facilitated. After detecting the matching corresponding point MT, the matching point detecting unit 6 outputs the coordinate position (l, m29) of the matching corresponding point MT on the corrected plane coordinates SHZ2 to the three-dimensional position calculating unit 13. Then, the three-dimensional position calculation unit 13
Is based on the matching reference point 29A and the matching corresponding point MT corresponding between the corrected plane coordinates SHZ1 and SHZ2 and corresponds to the matching reference point 29A and the matching corresponding point MT.
The three-dimensional position SI of the corresponding point on the reference coordinate KZ is converted into the three-dimensional position calculation unit 13 by the conversion formula HS.
1, calculated by HS2. The three-dimensional position calculation unit 13 also determines the corrected plane coordinates SHZ of the matching reference point 29A.
The coordinate position (129, j29) on 1 is converted into the coordinate position 29g on the image plane GH1 by the coordinate conversion formula HS2, and the coordinate position 29g and the calculated three-dimensional position S
I and I are transmitted and stored in the three-dimensional position memory unit 15 in pairs.

【0025】その後、主制御部2は第1回目の相関窓の
設定より始まる、探索窓の設定、相関係数の検出、マッ
チングポイントの検出、三次元位置の検出からなる一連
の作業と同様にして、第2、3、4、……回目の相関窓
の設定より始まる、探索窓の設定、相関係数の検出、マ
ッチングポイントの検出、三次元位置の検出からなる一
連の作業を順次行う。即ち、主制御部2は相関窓制御部
20に命令して、未だ一度もマッチング基準点29Aと
して選ばれていない基準交点29のうちの1つを新たな
マッチング基準点29Aとして選び、選ばれた該マッチ
ング基準点29Aを中心として相関窓30を新たに設定
する。設定後、相関窓制御部20は、マッチング基準点
29Aの座標位置(i29、j29)を三次元位置演算
部13に伝送記憶させる。次いで、相関窓制御部20
は、相関窓30内部に含まれる複数の画素GSの濃度値
情報NJ1を抽出し、相関窓濃度値検出部3に伝送す
る。相関窓濃度値検出部3では、相関窓赤色濃度値検出
部3aにおいて分布状況P1が検出され、相関窓緑色濃
度値検出部3bにおいて分布状況P2が検出され、相関
窓青色濃度値検出部3cにおいて分布状況P3が検出さ
れる。検出の後、これら分布状況P1、P2、P3はマ
ッチングポイント検出部6に伝送される。また一方で、
相関窓30の設定後、相関窓制御部20は、相関窓30
の四隅の点30a、30b、30c、30dの修正平面
座標SHZ1での座標位置(i31、j31)、(i3
2、j32)、(i33、j33)、(i34、j3
4)及び、マッチング基準点29Aの座標位置(i2
9、j29)を射影変換制御部25に出力する。射影変
換制御部25は、相関窓30の四隅の点30a、30
b、30c、30dの座標位置(i31、j31)、
(i32、j32)、(i33、j33)、(i34、
j34)及び、マッチング基準点29Aの座標位置(i
29、j29)を、前記射影変換式HS3にそれぞれ代
入し、それぞれの修正平面座標SHZ1での座標位置
(i31、j31)、(i32、j32)、(i33、
j33)、(i34、j34)、(i29、j29)に
対応する修正平面座標SHZ2上の座標位置(l31、
m31)、(l32、m32)、(l33、m33)、
(l34、m34)、(l29、m29)を演算する。
演算後、射影変換制御部25は、これら5個の座標位置
(l31、m31)、(l32、m32)、(l33、
m33)、(l34、m34)、(l29、m29)を
探索窓制御部21に出力する。探索窓制御部21は、こ
れら座標位置(l31、m31)、(l32、m3
2)、(l33、m33)、(l34、m34)、(l
29、m29)に基づいて、修正平面座標SHZ2上
に、座標位置(l31、m31)、(l32、m3
2)、(l33、m33)、(l34、m34)を四隅
の点31a、31b、31c、31dとする平行四辺形
の探索窓31を設定する。また、探索窓制御部21は、
座標位置(l29、m29)を探索対応点29Bとして
設定する。次いで、相関窓30の中心のマッチング基準
点29Aに正確に対応する修正平面座標SHZ2上の探
索対応点29Bを求めるマッチングポイント検出作業を
行う。まず、探索窓制御部21は、探索窓31及び、探
索対応点29Bを修正平面座標SHZ2上において、X
s2軸の正方向(或いは、負方向)に所定の移動量δづ
つ平行移動させる。また、探索窓制御部21は、探索対
応点29Bの修正平面座標SHZ2上の座標位置(l
k、m29)を移動量δ移動ごとに、マッチングポイン
ト検出部16に出力する。また、探索窓制御部21は、
移動量δを移動するごとに、探索窓31内部に含まれる
複数の画素GSに関するデジタル情報即ち、赤色R、緑
色G、青色Bの3つの色度毎の明度βに関する濃度値情
報NJ2を抽出し、探索窓濃度値検出部5に伝送する。
探索窓濃度値検出部5では、探索窓赤色濃度値検出部5
aにおいて分布状況Q1が検出され、探索窓緑色濃度値
検出部5bにおいて分布状況Q2が検出され、探索窓青
色濃度値検出部5cにおいて分布状況Q3が検出され
る。検出の後、分布状況Q1、Q2、Q3はマッチング
ポイント検出部6に伝送される。つまり、探索窓31が
移動量δを移動するごとに、該探索窓31内部の複数の
画素GSの明度βの分布状況Q1、Q2、Q3が検出さ
れ、検出される度にマッチングポイント検出部6に伝送
される。分布状況Q1、Q2、Q3がマッチングポイン
ト検出部6に伝送される度に、主制御部2は、マッチン
グポイント検出部6に分布状況の比較を行わせる。即
ち、マッチングポイント検出部6は、既に伝送されてい
る相関窓30内の複数の画素GSの明度αの分布状況P
1、P2、P3と、順次伝送されて来る探索窓31内の
複数の画素GSの明度βの分布状況Q1、Q2、Q3と
の間での類似度を示す相関係数γを順次求める。順次求
められた相関係数γは、該相関係数γに対応した探索対
応点29Bの座標位置(lk、m29)と対にしてマッ
チングポイント検出部6に保存される。探索窓31を移
動量δづつ移動させて、移動の度に、マッチングポイン
ト検出部6で相関係数γを検出する動作を繰返しなが
ら、探索窓31及び探索対応点29Bを、該探索対応点
29Bが、マッチング基準点29Aに正確に対応する可
能性のある所定の範囲内の位置にことごとく移動される
形で、移動させた後、探索窓制御部21は、探索窓31
の移動を終了させる。終了と共に、主制御部2は、マッ
チングポイント検出部6に命令して、マッチング対応点
MTの検出を行わせる。即ち、マッチングポイント検出
部6は、保存されている複数の相関係数γのうち最も大
きいものを選び出し、この相関係数γに対応して保存さ
れている探索対応点29Bの座標位置(lk、m29)
をマッチング基準点29Aに対応したマッチング対応点
MTの座標位置(l、m29)として検出する。マッチ
ング対応点MTの検出後、マッチングポイント検出部6
は、該マッチング対応点MTの座標位置(l、m29)
を三次元位置演算部13に出力する。すると、三次元位
置演算部13は、修正平面座標SHZ1、SHZ2間に
おいて対応する、マッチング基準点29Aとマッチング
対応点MTに基づいて、これらマッチング基準点29A
とマッチング対応点MTに対応する対地標定作業後の前
記モデル61上の対応点の基準座標KZ上の三次元位置
SIを、三次元位置演算部13に既に入力されている前
記変換式HS1、HS2によって算出する。また、三次
元位置演算部13は、マッチング基準点29Aの修正平
面座標SHZ1上での座標位置(129、j29)を、
前記座標変換式HS2によって画像平面GH1上の座標
位置29gに変換し、該座標位置29gと、算出された
三次元位置SIとを、対にした形で三次元位置メモリ部
15に伝送格納する。以上の相関窓の設定、探索窓の設
定、相関係数の検出、マッチングポイントの検出、三次
元位置の検出からなる一連の作業を繰り返した後、次回
の相関窓の設定を行おうとする際に相関窓制御部20が
未だ一度もマッチング基準点29Aとして選ばれていな
い基準交点29を修正平面座標SHZ1上で見つけるこ
とができないことにより、相関窓制御部20は主制御部
2にマッチング作業完了の信号を伝送し、主制御部2は
該信号を受け取ることにより、全ての基準点29に対し
てマッチングポイントの検出が既に行われ、従って、全
ての基準点29に対応する山51の対応点の三次元位置
SIが求められたと判断して、作業指示表示部7bにマ
ッチング作業完了の表示(図示せず)を行わせる。
After that, the main control unit 2 performs the same procedure as the series of operations including the setting of the search window, the detection of the correlation coefficient, the detection of the matching point, and the detection of the three-dimensional position, which starts from the setting of the first correlation window. Then, a series of operations including the setting of the search window, the detection of the correlation coefficient, the detection of the matching point, and the detection of the three-dimensional position starting from the second, third, fourth, ... That is, the main control unit 2 commands the correlation window control unit 20 to select and select one of the reference intersection points 29 that has not been selected as the matching reference point 29A, as a new matching reference point 29A. A correlation window 30 is newly set around the matching reference point 29A. After setting, the correlation window control unit 20 causes the three-dimensional position calculation unit 13 to transmit and store the coordinate position (i29, j29) of the matching reference point 29A. Next, the correlation window control unit 20
Extracts the density value information NJ1 of a plurality of pixels GS included in the correlation window 30 and transmits it to the correlation window density value detection unit 3. In the correlation window density value detection unit 3, the correlation window red density value detection unit 3a detects the distribution status P1, the correlation window green density value detection unit 3b detects the distribution status P2, and the correlation window blue density value detection unit 3c. The distribution status P3 is detected. After the detection, these distribution states P1, P2, P3 are transmitted to the matching point detection unit 6. On the other hand,
After setting the correlation window 30, the correlation window control unit 20 sets the correlation window 30
Coordinate points (i31, j31), (i3) in the corrected plane coordinates SHZ1 of the points 30a, 30b, 30c, 30d at the four corners of
2, j32), (i33, j33), (i34, j3
4) and the coordinate position of the matching reference point 29A (i2
9, j29) is output to the projective transformation control unit 25. The projective transformation control unit 25 uses the points 30 a and 30 at the four corners of the correlation window 30.
coordinate positions (i31, j31) of b, 30c, 30d,
(I32, j32), (i33, j33), (i34,
j34) and the coordinate position of the matching reference point 29A (i
29, j29) are respectively substituted into the projective transformation formula HS3, and the coordinate positions (i31, j31), (i32, j32), (i33, in the corrected plane coordinates SHZ1 are respectively substituted.
j33), (i34, j34), and (i29, j29) corresponding to the coordinate position (l31,
m31), (l32, m32), (l33, m33),
(L34, m34) and (l29, m29) are calculated.
After the calculation, the projective transformation control unit 25 causes the five coordinate positions (l31, m31), (l32, m32), (l33,
m33), (l34, m34), and (l29, m29) are output to the search window control unit 21. The search window control unit 21 controls the coordinate positions (l31, m31), (l32, m3).
2), (l33, m33), (l34, m34), (l
29, m29), coordinate positions (l31, m31), (l32, m3) on the corrected plane coordinate SHZ2.
2) Set parallelogram search window 31 having four corner points 31a, 31b, 31c and 31d at (l33, m33) and (l34, m34). In addition, the search window control unit 21
The coordinate position (l29, m29) is set as the search corresponding point 29B. Then, the matching point detection operation is performed to find the search corresponding point 29B on the corrected plane coordinate SHZ2 that exactly corresponds to the matching reference point 29A at the center of the correlation window 30. First, the search window control unit 21 sets the search window 31 and the search corresponding point 29B on the corrected plane coordinates SHZ2 by X.
The s2 axis is translated in the positive direction (or the negative direction) by a predetermined movement amount δ. Further, the search window control unit 21 determines the coordinate position (l of the search corresponding point 29B on the corrected plane coordinate SHZ2).
k, m29) is output to the matching point detection unit 16 for each movement amount δ movement. In addition, the search window control unit 21
Each time the movement amount δ is moved, digital information regarding a plurality of pixels GS included in the search window 31, that is, density value information NJ2 regarding lightness β for each of three chromaticities of red R, green G, and blue B is extracted. , To the search window density value detection unit 5.
In the search window density value detection unit 5, the search window red density value detection unit 5
The distribution status Q1 is detected in a, the distribution status Q2 is detected in the search window green density value detection section 5b, and the distribution status Q3 is detected in the search window blue density value detection section 5c. After the detection, the distribution statuses Q1, Q2, Q3 are transmitted to the matching point detection unit 6. That is, every time the search window 31 moves by the movement amount δ, the distribution states Q1, Q2, and Q3 of the brightness β of the plurality of pixels GS inside the search window 31 are detected, and the matching point detection unit 6 is detected each time. Be transmitted to. Every time the distribution statuses Q1, Q2, Q3 are transmitted to the matching point detection unit 6, the main control unit 2 causes the matching point detection unit 6 to compare the distribution statuses. That is, the matching point detection unit 6 determines the distribution status P of the brightness α of the plurality of pixels GS in the already transmitted correlation window 30.
A correlation coefficient γ indicating the degree of similarity between 1, P2, P3 and the distribution statuses Q1, Q2, Q3 of the brightness β of the plurality of pixels GS in the search window 31 that are sequentially transmitted is sequentially obtained. The sequentially obtained correlation coefficient γ is stored in the matching point detection unit 6 as a pair with the coordinate position (lk, m29) of the search corresponding point 29B corresponding to the correlation coefficient γ. The search window 31 and the search corresponding point 29B are moved while moving the search window 31 by the movement amount δ and repeating the operation of detecting the correlation coefficient γ by the matching point detection unit 6 each time the movement is performed. Is moved to a position within a predetermined range that may correspond exactly to the matching reference point 29A, the search window control unit 21 then moves the search window 31 to the search window 31.
End the move. Upon completion, the main control unit 2 commands the matching point detection unit 6 to detect the matching corresponding point MT. That is, the matching point detection unit 6 selects the largest one from the plurality of stored correlation coefficients γ, and the coordinate position (lk, lk, of the search corresponding point 29B stored corresponding to the correlation coefficient γ). m29)
Is detected as the coordinate position (l, m29) of the matching corresponding point MT corresponding to the matching reference point 29A. After detecting the matching corresponding point MT, the matching point detecting unit 6
Is the coordinate position (l, m29) of the matching corresponding point MT.
Is output to the three-dimensional position calculation unit 13. Then, the three-dimensional position calculation unit 13 determines the matching reference points 29A based on the matching reference points 29A and the matching corresponding points MT corresponding between the corrected plane coordinates SHZ1 and SHZ2.
And the corresponding three-dimensional position SI on the reference coordinate KZ of the corresponding point on the model 61 after the ground orientation work corresponding to the matching corresponding point MT are already input to the three-dimensional position calculating unit 13 by the conversion equations HS1 and HS2 Calculate by In addition, the three-dimensional position calculation unit 13 calculates the coordinate position (129, j29) of the matching reference point 29A on the corrected plane coordinate SHZ1.
The coordinate conversion formula HS2 is used to convert to the coordinate position 29g on the image plane GH1, and the coordinate position 29g and the calculated three-dimensional position SI are transmitted and stored in the three-dimensional position memory unit 15 in a pair. When trying to set the next correlation window after repeating a series of operations including the above correlation window setting, search window setting, correlation coefficient detection, matching point detection, and three-dimensional position detection Since the correlation window control unit 20 cannot find the reference intersection point 29 that has not been selected as the matching reference point 29A on the corrected plane coordinate SHZ1, the correlation window control unit 20 causes the main control unit 2 to complete the matching operation. By transmitting the signal and the main control unit 2 receiving the signal, the matching points have already been detected for all the reference points 29, and accordingly, the corresponding points of the mountains 51 corresponding to all the reference points 29 are detected. When it is determined that the three-dimensional position SI is obtained, the work instruction display unit 7b is caused to display the matching work completion (not shown).

【0026】マッチング作業完了の表示(図示せず)を
見た図示しないオペレータは入力操作部17aにより色
度情報作成作業開始の命令を入力する。入力された該命
令を受けた主制御部2は、写真画像メモリ部9に入力さ
れている画像平面GH1上の第一写真画像SG1を色度
情報作成部36に伝送し、色度情報の作成を行わせる。
即ち、色度情報作成部36は、第一写真画像SG1を構
成している各画素GSを、該画素GSがもっている明度
αのうち、赤色R、緑色G、青色Bの各明度αの割合に
応じて、該画素GSを、公知の色度別画像分類法(例え
ば、クラスタ分類等)によって、赤みを帯びたグループ
或いは、緑みを帯びたグループ或いは、青みを帯びたグ
ループの何れかに分類する。(なお、分類は、地層の種
類等に応じて、4種類以上の複数のグループに分類する
こともできる。)分類された画素GSは画像平面GH1
上の第一写真画像SG1を構成しており、これら画素G
Sはそれぞれ画像平面GH1上の所定の位置(予め定め
られた座標位置)に配置されているので、画像平面GH
1における第一写真画像SG1上の任意の点GTに対
し、該点GTに対応する1つの画素GS(例えば、画像
平面GH1上で、画素GSの存在範囲内に点GTの存在
位置を含むような画素GS)を特定することが可能であ
る。従って分類の後、色度情報作成部36は、第一写真
画像SG1上の予め設定された全ての点GT(マッチン
グ基準点29Aを含む)に対し、該点GTに対応した画
素GSが属する前記グループに応じて、赤みを帯びたこ
とを意味する色度情報CG1、緑みを帯びたことを意味
する色度情報CG2、青みを帯びたことを意味する色度
情報CG3をそれぞれ付与し、第一写真画像SG1上の
各点GTの画像平面GH1での座標位置GTgと該点G
Tのもつ色度情報CG1(CG2、CG3)を対にして
保存する。
An operator (not shown) who has seen the matching work completion display (not shown) inputs a command to start the chromaticity information creation work using the input operation unit 17a. The main control unit 2 which has received the input command transmits the first photographic image SG1 on the image plane GH1 input to the photographic image memory unit 9 to the chromaticity information creating unit 36 to create chromaticity information. To perform.
That is, the chromaticity information creating unit 36 sets the ratio of each lightness α of red R, green G, and blue B to the lightness α of each pixel GS forming the first photographic image SG1. According to the above, the pixel GS is classified into a reddish group, a greenish group, or a bluish group by a known chromaticity-based image classification method (for example, cluster classification). Classify. (Note that the classification can also be classified into four or more groups depending on the type of the stratum.) The classified pixels GS are the image plane GH1.
The first photographic image SG1 above is made up of these pixel G
Since each S is arranged at a predetermined position (predetermined coordinate position) on the image plane GH1, the image plane GH
For any point GT on the first photographic image SG1 in No. 1, one pixel GS corresponding to the point GT (for example, on the image plane GH1, the existence position of the point GT is included within the existence range of the pixel GS). It is possible to specify a different pixel GS). Therefore, after the classification, the chromaticity information creation unit 36 adds the pixel GS corresponding to the point GT to all preset points GT (including the matching reference point 29A) on the first photo image SG1. Depending on the group, chromaticity information CG1 indicating that the image is reddish, chromaticity information CG2 that indicates that the image is greenish, and chromaticity information CG3 that indicates that the image is bluish are given respectively. The coordinate position GTg on the image plane GH1 of each point GT on the one photographic image SG1 and the point G
The chromaticity information CG1 (CG2, CG3) of T is stored as a pair.

【0027】次いで、主制御部2は、三次元位置メモリ
部15に格納されている画像平面GH1上の座標位置2
9gと三次元位置SIとの対を、色度情報作成部36に
伝送する。色度情報作成部36は、画像平面GH1上の
各点GTの座標位置GTgと色度情報CG1(CG2、
CG3)の対及び、伝送された画像平面GH1上のマッ
チング基準点29Aの座標位置29gと三次元位置SI
との対とに基づいて、各三次元位置SIに対応した座標
位置29gに等しい座標位置GTgと対応した色度情報
CG1(CG2、CG3)と、該三次元位置SIとを対
にして、該対を測量結果KXとする。測量結果KXが求
められたということは、モデル61上の各点について、
該点の三次元位置SI及び、該点の色度情報CG1(C
G2、CG3)が一緒に検出されたことを意味する。そ
の後、色度情報作成部36は、測量結果KXを測量結果
メモリ部37に伝送し入力させる。伝送入力の後、主制
御部2は測量結果KXの入力が完了したと判断して、作
業指示表示部7bに測量完了の表示(図示せず)を行わ
せる。
Next, the main controller 2 controls the coordinate position 2 on the image plane GH1 stored in the three-dimensional position memory unit 15.
The pair of 9 g and the three-dimensional position SI is transmitted to the chromaticity information creating unit 36. The chromaticity information creating unit 36 calculates the coordinate position GTg of each point GT on the image plane GH1 and the chromaticity information CG1 (CG2,
CG3) pair and the coordinate position 29g and the three-dimensional position SI of the matching reference point 29A on the transmitted image plane GH1.
And the chromaticity information CG1 (CG2, CG3) corresponding to the coordinate position GTg equal to the coordinate position 29g corresponding to each three-dimensional position SI, and the three-dimensional position SI, Let the pair be the survey result KX. The fact that the survey result KX is obtained means that for each point on the model 61,
Three-dimensional position SI of the point and chromaticity information CG1 (C
G2, CG3) are detected together. After that, the chromaticity information creating unit 36 transmits the survey result KX to the survey result memory unit 37 and inputs it. After the transmission input, the main control unit 2 determines that the input of the survey result KX is completed, and causes the work instruction display unit 7b to display the survey completion (not shown).

【0028】測量完了の表示(図示せず)を見た図示し
ないオペレータは入力操作部17aにより、測量結果出
力信号を入力する。主制御部2は、該測量結果出力信号
に基づいて、測量結果メモリ部37に入力されている測
量結果KXを出力部16より出力する。なお、測量結果
KXのうち三次元位置SIは、対地標定後のモデル61
についての基準座標KZ上の座標位置であり、モデル6
1と山51の掘削面50及び、基準座標KZと地上空間
CKとは互いに対応していることから、三次元位置SI
は、掘削面50上の点の地上空間CKでの三次元位置即
ち、緯度、経度、標高である。また、測量結果KXのう
ち色度情報CG1(CG2、CG3)は、第一写真画像
SG1に撮影された掘削面50上の点の色度を反映した
ものである。よって、該掘削面50の三次元形状が検出
されたと共に、該掘削面50上の点の三次元位置SIに
対応した色度情報CG1(CG2、CG3)も一緒に検
出されたので、掘削面50の三次元形状が、該掘削面5
0中の色度の違いに応じて区別し得る形で検出された。
なお、出力部16は測量結果KXを示す数値等をディス
プレイの形で表示出力するものでもよいし、印刷出力或
いは、他の磁気記憶媒体に記録する形で出力してもよ
い。ところで上述したように、掘削面50を形成してい
る山51には、図2(a)及び図2(b)に示すよう
に、土質A1の第一地層51a、土質A2の第二地層5
1b、土質A3の第三地層51c等が埋蔵されており、
掘削面50には、これら第一地層51a、第二地層51
b、第三地層51cの端部が現われている。また、第一
地層51a、第二地層51b、第三地層51cをそれぞ
れ構成する土質A1、A2、A3は色度の違いによって
判別され得る。つまり、本発明の測量方法により測量を
行った結果、該掘削面50の起伏のある三次元形状が検
出されたと共に、該掘削面50上の点の三次元位置SI
に対応した色度情報CG1(CG2、CG3)即ち、色
度の違いによって判別される土質A1、A2、A3に関
する情報即ち、第一地層51a、第二地層51b、第三
地層51cの区別を示す情報も一緒に検出されたので、
掘削面50の三次元形状が、該掘削面50中の第一地層
51a、第二地層51b、第三地層51cの違いに応じ
て区別し得る形で検出された。なお、掘削面50の三次
元形状が、該掘削面50中の第一地層51a、第二地層
51b、第三地層51cの違いに応じて区別し得る形で
検出され、従って、地層51a、51b、51cは、掘
削面50を形成する各端部において、これら端部のそれ
ぞれの三次元形状が正確に検出された。つまり、地層5
1a、51b、51cの、掘削面50を形成する各端部
の正確な三次元形状によって、山51にに埋蔵されてい
る地層51a、51b、51cの各埋蔵量等が極力正確
な形で推定検出され得る。以上で掘削面50の測量を全
て完了する。
An operator, not shown, who has seen the display (not shown) of the completion of the survey inputs the survey result output signal through the input operation unit 17a. The main control unit 2 outputs the survey result KX input to the survey result memory unit 37 from the output unit 16 based on the survey result output signal. The three-dimensional position SI of the survey result KX is the model 61 after the ground orientation.
Is the coordinate position on the reference coordinate KZ of
1 and the excavation surface 50 of the mountain 51, and the reference coordinates KZ and the ground space CK correspond to each other, the three-dimensional position SI
Is the three-dimensional position of the point on the excavation surface 50 in the ground space CK, that is, the latitude, longitude, and altitude. In addition, the chromaticity information CG1 (CG2, CG3) of the survey result KX reflects the chromaticity of the point on the excavation surface 50 captured in the first photo image SG1. Therefore, the three-dimensional shape of the excavation surface 50 is detected, and the chromaticity information CG1 (CG2, CG3) corresponding to the three-dimensional position SI of the point on the excavation surface 50 is also detected. The three-dimensional shape of 50 is the excavation surface 5
It was detected in a form that can be distinguished according to the difference in chromaticity in 0.
The output unit 16 may display and output a numerical value or the like indicating the survey result KX in the form of a display, print output, or output in a form of recording in another magnetic storage medium. By the way, as described above, in the mountain 51 forming the excavation surface 50, as shown in FIGS. 2A and 2B, the first formation 51a of soil A1 and the second formation 5 of soil A2 are formed.
1b, third layer 51c of soil A3, etc. are buried,
The excavation surface 50 has these first formation 51a and second formation 51
b, the end of the third stratum 51c appears. Further, the soil types A1, A2, and A3 that respectively configure the first formation 51a, the second formation 51b, and the third formation 51c can be distinguished by the difference in chromaticity. That is, as a result of surveying by the surveying method of the present invention, the undulating three-dimensional shape of the excavation surface 50 is detected and the three-dimensional position SI of the point on the excavation surface 50 is detected.
The chromaticity information CG1 (CG2, CG3) corresponding to the above, that is, the information regarding the soil types A1, A2, and A3 that are determined by the difference in chromaticity, that is, the distinction between the first formation 51a, the second formation 51b, and the third formation 51c is shown. The information was also detected, so
The three-dimensional shape of the excavation surface 50 was detected in a form that can be distinguished according to the difference between the first formation 51a, the second formation 51b, and the third formation 51c in the excavation surface 50. The three-dimensional shape of the excavation surface 50 is detected in a form that can be distinguished according to the difference between the first formation 51a, the second formation 51b, and the third formation 51c in the excavation surface 50, and therefore the formations 51a, 51b. , 51c, the three-dimensional shape of each of the end portions forming the excavated surface 50 was accurately detected. That is, stratum 5
The accurate three-dimensional shape of each end forming the excavated surface 50 of 1a, 51b, 51c estimates the reserves of the formations 51a, 51b, 51c buried in the mountain 51 as accurately as possible. Can be detected. With the above, the surveying of the excavation surface 50 is completed.

【0029】なお、上述した実施例においては、複数の
地層51a、51b、51cが形成された山51の掘削
面50において、各地層51a、51b、51c毎の三
次元形状を求める、地層の測量について説明したが、本
発明の適用は上述した実施例のような地層の測量に限定
されない。即ち、本発明は、測量対象物の三次元形状
を、該測量対象物中の色度の違いに応じて区別し得る形
で検出する形のあらゆる測量作業において適用できる。
例えば、本発明を適用して、起伏のある農地の表面形状
を、該農地に植えられた作物の種類の別(色度で判別可
能)に応じて区別し得る形で検出することにより、複数
種類の作物が植えられている農地において、各種類の作
物別の正確な作付面積を測量することも可能である。
In addition, in the above-mentioned embodiment, the geological survey for obtaining the three-dimensional shape of each layer 51a, 51b, 51c on the excavated surface 50 of the mountain 51 in which a plurality of layers 51a, 51b, 51c are formed. However, the application of the present invention is not limited to the surveying of the formation as in the above-described embodiment. That is, the present invention can be applied to all surveying operations in which the three-dimensional shape of the surveyed object is detected in a form that can be distinguished according to the difference in chromaticity in the surveyed object.
For example, applying the present invention, by detecting the surface shape of the undulating farmland in a form that can be distinguished according to the type of crop planted on the farmland (determinable by chromaticity), It is also possible to measure the exact acreage for each type of crop in the farmland where the type of crop is planted.

【0030】[0030]

【発明の効果】以上説明したように、本発明のうち第一
の発明は、地上空間CK等の三次元空間中の互いに相違
した第一地点PT1、第二地点PT2等の2つの撮影位
置より、該三次元空間に存在する掘削面50等の測量対
象物をそれぞれ撮影して得られる第一写真画像SG1、
第二写真画像SG2等の2つのカラーデジタル写真画像
を、記憶し得る写真画像メモリ9等の画像記憶部を有
し、前記画像記憶部に記憶された2つの写真画像間でマ
ッチングを行い、一方の写真画像上のマッチング基準点
29A等の点に対応した他方の写真画像上のマッチング
対応点MT等の点を検出し得る相関窓制御部20、探索
窓制御部21、相関窓濃度値検出部3、探索窓濃度値検
出部5、マッチングポイント検出部6等のマッチング作
業部を設け、前記2つの写真画像間において互いに対応
した点の、前記各写真画像上の位置に基づいて、前記測
量対象物の三次元空間における三次元位置SI等の三次
元位置を検出する三次元位置演算部13等の三次元位置
演算部を設け、前記写真画像上の点について、該点に対
応した画素GS等の画素のもつ赤色R、緑色G、青色B
等の色度の違いに応じた色度情報CG1、CG2、CG
3等の色度情報を作成する色度情報作成部36等の色度
情報作成部を設け、前記検出された測量対象物の三次元
位置と前記作成された色度情報に基づいた前記測量対象
物の測量結果KX等の測量結果を出力する出力部26等
の出力部を設けて構成されるので、本発明による三次元
形状測量装置を用いて測量対象物の測量を行うと、カラ
ーデジタル写真画像に対応した測量対象物の三次元形状
が検出されると共に、該測量対象物の三次元位置に対応
した色度情報も一緒に検出され得る。つまり、測量対象
物の三次元形状を、該測量対象物中の色度の違いに応じ
て区別し得る形で検出することができる。本発明のうち
第二の発明は、地上空間CK等の三次元空間中の互いに
相違した第一地点PT1、第二地点PT2等の2つの撮
影位置より、該三次元空間に存在する掘削面50等の測
量対象物をそれぞれ第一写真画像SG1、第二写真画像
SG2等のカラーデジタル写真画像として撮影し、撮影
された2つの写真画像間でマッチングを行い、一方の写
真画像上のマッチング基準点29A等の点に対応した他
方の写真画像上のマッチング対応点MT等の点を検出
し、これら2つの写真画像間において互いに対応した点
の、各写真画像上の位置に基づいて、前記測量対象物の
三次元空間における三次元位置SI等の三次元位置を検
出すると共に、前記写真画像上の点について、該点に対
応した画素GS等の画素のもつ赤色R、緑色G、青色B
等の色度の違いに応じた色度情報CG1、CG2、CG
3等の色度情報を作成し、前記検出された測量対象物の
三次元位置と、前記作成された色度情報に基づいて前記
測量対象物を測量するようにして構成されるので、第一
の発明と同様に、測量対象物の三次元形状を、該測量対
象物中の色度の違いに応じて区別し得る形で検出するこ
とができる。
As described above, the first aspect of the present invention is based on two photographing positions such as the first point PT1 and the second point PT2 which are different from each other in the three-dimensional space such as the ground space CK. , A first photographic image SG1 obtained by photographing an object to be surveyed such as the excavation surface 50 existing in the three-dimensional space,
An image storage unit such as a photographic image memory 9 capable of storing two color digital photographic images such as the second photographic image SG2 is provided, and matching is performed between the two photographic images stored in the image storage unit. Correlation window control unit 20, search window control unit 21, correlation window density value detection unit capable of detecting points such as matching corresponding points MT on the other photographic image corresponding to points such as matching reference points 29A on the other photographic image. 3. A matching working unit such as a search window density value detection unit 5 and a matching point detection unit 6 is provided, and the survey target is based on the positions on the respective photographic images of points corresponding to each other between the two photographic images. A three-dimensional position calculating unit such as a three-dimensional position calculating unit 13 for detecting a three-dimensional position such as a three-dimensional position SI in a three-dimensional space of an object is provided, and for a point on the photographic image, a pixel GS or the like corresponding to the point. of Red R, green G, blue B having the element
Chromaticity information CG1, CG2, CG according to the difference in chromaticity such as
A chromaticity information creating unit such as a chromaticity information creating unit 36 that creates chromaticity information such as 3 is provided, and the survey target based on the detected three-dimensional position of the survey target and the created chromaticity information. Since the output unit such as the output unit 26 for outputting the survey result such as the survey result KX of the object is provided, when the survey object is surveyed using the three-dimensional shape survey apparatus according to the present invention, a color digital photograph is obtained. The three-dimensional shape of the survey target corresponding to the image can be detected, and the chromaticity information corresponding to the three-dimensional position of the survey target can also be detected together. That is, the three-dimensional shape of the survey target can be detected in a form that can be distinguished according to the difference in chromaticity in the survey target. The second invention of the present invention is that the excavation surface 50 existing in the three-dimensional space from two photographing positions such as the first point PT1 and the second point PT2 which are different from each other in the three-dimensional space such as the ground space CK. And the like are photographed as color digital photograph images such as the first photograph image SG1 and the second photograph image SG2, and the two photographed images are matched, and the matching reference point on one of the photograph images is taken. A point such as a matching corresponding point MT on the other photographic image corresponding to a point such as 29A is detected, and based on the positions on the respective photographic images of points corresponding to each other between these two photographic images, the survey target A three-dimensional position such as a three-dimensional position SI in a three-dimensional space of an object is detected, and a point on the photographic image has a red R, a green G, and a blue B held by a pixel such as a pixel GS corresponding to the point.
Chromaticity information CG1, CG2, CG according to the difference in chromaticity such as
It is configured to create chromaticity information such as 3 and measure the three-dimensional position of the detected surveying object and the surveying object based on the created chromaticity information. Similarly to the invention described in (1), the three-dimensional shape of the surveyed object can be detected in a form that can be distinguished according to the difference in chromaticity in the surveyed object.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は、本発明による三次元形状測量装置の一
例である写真測量装置を示したブロック図である。
FIG. 1 is a block diagram showing a photogrammetry device which is an example of a three-dimensional shape surveying device according to the present invention.

【図2】図2(a)は、掘削面と、ステレオ撮影が行わ
れる第一、第二地点との位置関係を示した平面図、図2
(b)は、図2(a)のW1−W2線断面図である。
FIG. 2A is a plan view showing the positional relationship between the excavation surface and the first and second points where stereo imaging is performed.
2B is a sectional view taken along line W1-W2 of FIG.

【図3】図3は、図1の写真測量装置に入力されている
概念上の、基準座標KZ、カメラ座標CZ1、CZ2を
示した図である。
FIG. 3 is a diagram showing conceptual reference coordinates KZ and camera coordinates CZ1 and CZ2 input to the photogrammetric apparatus of FIG. 1.

【図4】図4は、第一、第二ディスプレイを示した図で
ある。
FIG. 4 is a diagram showing first and second displays.

【図5】図5は、第一、第二ディスプレイを示した図で
ある。
FIG. 5 is a diagram showing first and second displays.

【図6】図6は、マッチングの手順を概念的に示した図
である。
FIG. 6 is a diagram conceptually showing a matching procedure.

【符号の説明】[Explanation of symbols]

1……三次元形状測量装置(写真測量装置) 3……マッチング作業部(相関窓濃度値検出部) 5……マッチング作業部(探索窓濃度値検出部) 6……マッチング作業部(マッチングポイント検出部) 9……画像記憶部(写真画像メモリ) 13……三次元位置演算部 20……マッチング作業部(相関窓制御部) 21……マッチング作業部(探索窓制御部) 16……出力部 29A……点(マッチング基準点) 36……色度情報作成部 50……測量対象物(掘削面) CK……三次元空間(地上空間) CG1……色度情報 CG2……色度情報 CG3……色度情報 GS……画素 KX……測量結果 MT……点(マッチング対応点) PT1……撮影位置(第一地点) PT2……撮影位置(第二地点) SG1……カラーデジタル写真画像(第一写真画像) SG2……カラーデジタル写真画像(第二写真画像) SI……三次元位置 R……色度(赤色) G……色度(緑色) B……色度(青色) 1 ... Three-dimensional shape surveying device (photogrammetric device) 3 ... Matching working unit (correlation window density value detecting unit) 5 ... Matching working unit (search window density value detecting unit) 6 ... Matching working unit (matching point) Detection unit 9 ... Image storage unit (photograph image memory) 13 ... Three-dimensional position calculation unit 20 ... Matching work unit (correlation window control unit) 21 ... Matching work unit (search window control unit) 16 ... Output Part 29A …… Point (matching reference point) 36 …… Chromaticity information creation unit 50 …… Surveying object (excavation surface) CK …… Three-dimensional space (ground space) CG1 …… Chromaticity information CG2 …… Chromaticity information CG3 ... Chromaticity information GS ... Pixel KX ... Surveying result MT ... Point (matching corresponding point) PT1 ... Shooting position (first point) PT2 ... Shooting position (second point) SG1 ... Color digital photograph Image (first True image) SG2 ...... color digital photographic image (second image) SI ...... three-dimensional position R ...... chromaticity (red) G ...... chromaticity (green) B ...... chromaticity (blue)

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】三次元空間中の互いに相違した2つの撮影
位置より、該三次元空間に存在する測量対象物をそれぞ
れ撮影して得られる2つのカラーデジタル写真画像を、
記憶し得る画像記憶部を有し、 前記画像記憶部に記憶された2つの写真画像間でマッチ
ングを行い、一方の写真画像上の点に対応した他方の写
真画像上の点を検出し得るマッチング作業部を設け、 前記2つの写真画像間において互いに対応した点の、前
記各写真画像上の位置に基づいて、前記測量対象物の三
次元空間における三次元位置を検出する三次元位置演算
部を設け、 前記写真画像上の点について、該点に対応した画素のも
つ色度の違いに応じた色度情報を作成する色度情報作成
部を設け、 前記検出された測量対象物の三次元位置と前記作成され
た色度情報に基づいた前記測量対象物の測量結果を出力
する出力部を設けて構成した三次元形状測量装置。
1. Two color digital photographic images obtained by respectively photographing an object to be surveyed existing in the three-dimensional space from two different photographing positions in the three-dimensional space,
Matching having an image storage unit capable of storing, performing matching between two photographic images stored in the image storage unit, and detecting a point on the other photographic image corresponding to a point on one photographic image A three-dimensional position calculation unit is provided which includes a working unit and detects a three-dimensional position of the surveyed object in a three-dimensional space based on the positions of the points corresponding to each other between the two photographic images on each photographic image. Providing a chromaticity information creation unit for creating chromaticity information corresponding to a difference in chromaticity of a pixel corresponding to the point on the photographic image, and the detected three-dimensional position of the surveyed object. And a three-dimensional shape surveying device configured by providing an output unit that outputs a survey result of the survey target based on the created chromaticity information.
【請求項2】三次元空間中の互いに相違した2つの撮影
位置より、該三次元空間に存在する測量対象物をそれぞ
れカラーデジタル写真画像として撮影し、 撮影された2つの写真画像間でマッチングを行い、一方
の写真画像上の点に対応した他方の写真画像上の点を検
出し、これら2つの写真画像間において互いに対応した
点の、各写真画像上の位置に基づいて、前記測量対象物
の三次元空間における三次元位置を検出すると共に、前
記写真画像上の点について、該点に対応した画素のもつ
色度の違いに応じた色度情報を作成し、 前記検出された測量対象物の三次元位置と、前記作成さ
れた色度情報に基づいて前記測量対象物を測量するよう
にして構成した三次元形状測量方法。
2. A color digital photograph image of a surveying object existing in the three-dimensional space is photographed from two mutually different photographing positions in the three-dimensional space, and matching is performed between the two photographed images. Then, the point on the other photographic image corresponding to the point on the one photographic image is detected, and the surveyed object is determined based on the positions on the respective photographic images of the points corresponding to each other between these two photographic images. Detecting the three-dimensional position in the three-dimensional space of, and for the point on the photographic image, to create chromaticity information according to the difference in chromaticity of the pixel corresponding to the point, the detected surveyed object And a three-dimensional shape surveying method configured to survey the object to be surveyed based on the three-dimensional position and the created chromaticity information.
JP5348653A 1993-12-27 1993-12-27 Three-dimensional shape surveying device and three-dimensional shape surveying method Pending JPH07190767A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5348653A JPH07190767A (en) 1993-12-27 1993-12-27 Three-dimensional shape surveying device and three-dimensional shape surveying method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5348653A JPH07190767A (en) 1993-12-27 1993-12-27 Three-dimensional shape surveying device and three-dimensional shape surveying method

Publications (1)

Publication Number Publication Date
JPH07190767A true JPH07190767A (en) 1995-07-28

Family

ID=18398459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5348653A Pending JPH07190767A (en) 1993-12-27 1993-12-27 Three-dimensional shape surveying device and three-dimensional shape surveying method

Country Status (1)

Country Link
JP (1) JPH07190767A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017527785A (en) * 2014-07-07 2017-09-21 ヴィート エヌブイ Method and system for photogrammetric processing of images
JP2018021885A (en) * 2016-08-05 2018-02-08 株式会社小松製作所 Construction management system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017527785A (en) * 2014-07-07 2017-09-21 ヴィート エヌブイ Method and system for photogrammetric processing of images
US10497139B2 (en) 2014-07-07 2019-12-03 Vito Nv Method and system for photogrammetric processing of images
JP2018021885A (en) * 2016-08-05 2018-02-08 株式会社小松製作所 Construction management system
US11966990B2 (en) 2016-08-05 2024-04-23 Komatsu Ltd. Construction management system

Similar Documents

Publication Publication Date Title
JP5362189B2 (en) Image processing apparatus and processing method thereof
US6442293B1 (en) Image forming apparatus, image forming method and computer-readable storage medium having an image forming program
US6757445B1 (en) Method and apparatus for producing digital orthophotos using sparse stereo configurations and external models
US5073819A (en) Computer assisted video surveying and method thereof
EP1591752B1 (en) Measuring method and measuring system
JP3831548B2 (en) Photogrammetry image processing apparatus, photogrammetry image processing method, and storage medium storing photogrammetry image processing program
US20050213808A1 (en) Survey data processing system, storage medium for storing electronic map, and electronic map display device
CN107492069A (en) Image interfusion method based on more lens sensors
US6810142B2 (en) Stereo image measuring device
JP2021504776A (en) Slope stability visualization
US6618497B1 (en) Photogrammetric image processing apparatus and method
CN110009985B (en) Sand table making devices based on machine learning
CN109035365A (en) A kind of damascene process method of high resolution image
JPH07190767A (en) Three-dimensional shape surveying device and three-dimensional shape surveying method
JP2743308B2 (en) Photogrammetry method
JPH07190764A (en) Stratus survey method
JPH07174555A (en) Apparatus and method for photographic survey
JP4480212B2 (en) Calculation method of aerial photo position and orientation
JP3587585B2 (en) Photogrammetry equipment
JP4167509B2 (en) Surveying system
JP3922646B2 (en) Stereo photo image search method, display method, and management system
KR102572490B1 (en) Digital map production system for camparing and updating spatial information
KR102642144B1 (en) Image processing system for correcting image by synthesizing location information with image
CN112465947B (en) Method and system for establishing virtual space of image
JPH08285583A (en) Apparatus and method for forming face observation record