JP4729694B2 - Method and system for measuring surface shape under liquid - Google Patents

Method and system for measuring surface shape under liquid Download PDF

Info

Publication number
JP4729694B2
JP4729694B2 JP2005005824A JP2005005824A JP4729694B2 JP 4729694 B2 JP4729694 B2 JP 4729694B2 JP 2005005824 A JP2005005824 A JP 2005005824A JP 2005005824 A JP2005005824 A JP 2005005824A JP 4729694 B2 JP4729694 B2 JP 4729694B2
Authority
JP
Japan
Prior art keywords
value
liquid
dimensional
image
surface shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005005824A
Other languages
Japanese (ja)
Other versions
JP2006194705A (en
Inventor
博哉 山野
康弘 鈴木
暁美 村瀬
由子 宮下
直人 大川
朋美 谷
美穂 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute for Environmental Studies
Original Assignee
National Institute for Environmental Studies
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute for Environmental Studies filed Critical National Institute for Environmental Studies
Priority to JP2005005824A priority Critical patent/JP4729694B2/en
Publication of JP2006194705A publication Critical patent/JP2006194705A/en
Application granted granted Critical
Publication of JP4729694B2 publication Critical patent/JP4729694B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、ステレオ画像を用いて、液体下の物体表面の形状を計測することのできる液体下の表面形状測定方法及びそのシステムに関するものである。   The present invention relates to a method for measuring a surface shape under a liquid and a system thereof capable of measuring the shape of the surface of an object under the liquid using a stereo image.

物体の表面の形状を計測するには、レーザー光を用いる方法や、超音波を用いる方法があるが、特にステレオ画像を用いる方法は、物体形状を平面的に手軽に把握できる方法として盛んに用いられている。
ステレオ画像の最も効果的な使用法の一つは、デジタル写真測量であり、ステレオペアの空中写真をデジタル図化機を用いて図化することにより陸上の地形図が作成されてきた(下記特許文献1,2参照)。また、地形図作成以外にも、ステレオペアの画像は距離の計測(下記特許文献3参照)や、眼底3次元データの取得(下記特許文献4参照)などに用いられている。
特開平8−210851号公報 特開平9−069148号公報 特開2000−356514号公報 特開平8−000567号公報
To measure the shape of the surface of an object, there are a method using a laser beam and a method using an ultrasonic wave, but a method using a stereo image is particularly popular as a method for easily grasping the shape of an object in a plane. It has been.
One of the most effective uses of stereo images is digital photogrammetry, and land topographic maps have been created by mapping stereo pairs of aerial photographs using a digital mapper (see the following patents). References 1 and 2). In addition to creating topographic maps, stereo pair images are used for distance measurement (see Patent Document 3 below), fundus three-dimensional data acquisition (see Patent Document 4 below), and the like.
Japanese Patent Laid-Open No. 8-210851 JP-A-9-069148 JP 2000-356514 A JP-A-8-000567

しかしながら、空中から撮影されたステレオ画像によって海底面など液体下の物体の表面形状を計測するためには、液体の屈折効果によって浅く見えている割合を補正する必要がある。
本発明は、上記状況に鑑みて、画像の撮影位置情報と液体の屈折率を用いて、液体表面から物体までの深度を求めるための補正を考慮した液体下の表面形状測定方法及びそのシステムを提供することを目的とする。
However, in order to measure the surface shape of an object under the liquid such as the sea bottom using a stereo image taken from the air, it is necessary to correct the ratio of being viewed shallow by the refraction effect of the liquid.
In view of the above situation, the present invention provides a surface shape measurement method and system under liquid that takes into account correction for determining the depth from the surface of the liquid to the object using image position information and the refractive index of the liquid. The purpose is to provide.

本発明は、上記目的を達成するために、
〔1〕ステレオ画像に対して、デジタル図化機を用いてデジタルマッピングを行う液体下の表面形状測定方法であって、前記ステレオ画像をデジタル化する工程と、解析範囲に所定の配列で基準地点群を設定して各々の基準地点の平面座標値を記憶する工程と、前記解析範囲において基準地点群の位置及び標高値を用いて各々の画素の標高を測定して計算する工程と、液体の屈折率と画像撮影位置情報により浅く見えている割合を補正する補正係数を算出する工程と、前記補正係数を用いて液体下の物体の真の深度を得る工程とを有することを特徴とする。
In order to achieve the above object, the present invention provides
[1] A method for measuring a surface shape under a liquid in which digital mapping is performed on a stereo image using a digital plotter, the step of digitizing the stereo image, and a reference point in a predetermined arrangement in an analysis range Setting a group and storing a plane coordinate value of each reference point; measuring and calculating an elevation of each pixel using the position and elevation value of the reference point group in the analysis range; and The method includes a step of calculating a correction coefficient that corrects a ratio of being viewed shallow by the refractive index and the image photographing position information, and a step of obtaining a true depth of an object under the liquid using the correction coefficient.

〔2〕ステレオ画像に対して、デジタル図化機を用いてデジタルマッピングを行う液体下の表面形状計測システムであって、ステレオ画像に対してデジタル図化機を用いてデジタルマッピングを行い、左側に位置する画像撮影装置Aの位置情報、右側に位置する画像撮影装置Bの位置情報、DEM値のそれぞれのデータを生成するデータ生成部と、左右水面到達座標、左右入射角、左右屈折角の演算を行う演算部と、撮影位置の判別部と、屈折率の入力を行う屈折率値の入力部と、画像撮影装置2機の真下の点を結ぶ直線上に対象点がある時を2次元、それ以外の時を3次元としたときの2次元・3次元の判別部と、2次元と判別された場合に対象とする物体の表面の位置の値である真値を演算する演算部と、3次元である場合に画像撮影装置2機の入射角の異同を判別する判別部と、この判別部により入射角が等しいと判別された場合に対象とする物体の表面の位置の値である真値を演算する演算部と、前記入射角が異なると判別された場合に対象とする物体の表面の位置の値である真値を演算する演算部と、前記演算された2次元、3次元の場合の対象とする物体の表面の位置の値である真値に基づいて、液体下の物体の表面形状を生成する生成部と、上記した各部の情報を記憶する記憶部とを有するコンピュータとを具備することを特徴とする。 [2] A surface shape measurement system under a liquid that performs digital mapping on a stereo image using a digital plotter, and performs digital mapping on the stereo image using a digital plotter on the left side. The position information of the image capturing device A located, the position information of the image capturing device B positioned on the right side, the data generator for generating each data of the DEM value, the calculation of the left and right water surface arrival coordinates, the left and right incident angles, and the left and right refraction angles Two-dimensional when the target point is on a straight line connecting the point directly below the two image capturing devices, a calculating unit for performing the imaging, a determining unit for the photographing position, an input unit for the refractive index value for inputting the refractive index, A two-dimensional / three-dimensional discriminating unit when the other times are three-dimensional, an arithmetic unit that calculates a true value that is a position value of the surface of the target object when it is discriminated as two-dimensional, When it is 3D A determination unit for determining the difference of the angle of incidence of the two aircraft, and the calculating unit for calculating the true value is the value of the position of the surface of the object of interest when it is determined that equals the angle of incidence by the determination unit, wherein A calculation unit that calculates a true value that is a position value of the surface of the target object when it is determined that the incident angles are different from each other; and a calculation of the surface of the target object in the two-dimensional and three-dimensional cases. The computer includes a generation unit that generates a surface shape of an object under a liquid based on a true value that is a position value, and a storage unit that stores information on each of the above-described units.

〔3〕上記〔2〕記載の液体下の表面形状計測システムにおいて、計測された前記液体下の物体の表面形状の情報を画面に表示する出力部を具備することを特徴とする。   [3] The surface shape measurement system under the liquid as described in [2] above, further comprising an output unit for displaying information on the measured surface shape of the object under the liquid on a screen.

本発明によれば、海底の地形図をはじめ、液体下にある物体の表面形状データの作成を正確に、しかも安価かつ手軽に行い、液体下にある物体の表面形状の測定を行うことができる。   According to the present invention, it is possible to accurately and inexpensively and easily create surface shape data of an object under a liquid, such as a topographic map of the seabed, and measure the surface shape of the object under the liquid. .

ステレオ画像に対して、デジタル図化機を用いてデジタルマッピングを行う液体下の表面形状測定方法であって、前記ステレオ画像をデジタル化する工程と、解析範囲に所定の配列で基準地点群を設定して各々の基準地点の平面座標値を記憶する工程と、前記解析範囲において基準地点群の位置及び標高値を用いて各々の画素の標高を測定して計算する工程と、液体の屈折率と画像撮影位置情報により浅く見えている割合を補正する補正係数を算出する工程と、前記補正係数を用いて液体下の物体の真の深度を得る工程とを有する。よって、液体下にある物体の表面形状データの作成を正確に、しかも安価かつ手軽に行い、正確な液体下にある物体の表面形状の測定を行うことができる。   A surface shape measurement method under a liquid in which digital mapping is performed on a stereo image using a digital plotter, the step of digitizing the stereo image, and setting a reference point group in a predetermined arrangement in the analysis range Storing the plane coordinate value of each reference point, measuring and calculating the altitude of each pixel using the position and altitude value of the reference point group in the analysis range, and the refractive index of the liquid, A step of calculating a correction coefficient that corrects a ratio of the image captured by the image capturing position information, and a step of obtaining a true depth of an object under the liquid using the correction coefficient. Therefore, it is possible to accurately and inexpensively and easily create the surface shape data of the object under the liquid, and to accurately measure the surface shape of the object under the liquid.

以下、本発明の実施の形態について詳細に説明する。
ここでは、例として、対象を浅海域とし、航空写真を用いた水深図の作成を、本発明の最も効果的な利用方法の一つとして述べる。
以下、本発明の液体下の表面形状データ作成方法について詳細に説明する。
従来、2枚のステレオペアの空中写真を利用し、立体視(ステレオマッチング)を行うことによりデジタル標高図(Digital Elevation Model:DEM)が作成されてきた。標高図の作成には市販のデジタルステレオ図化機(Digital Photogrammetry Workstation:DPW)が広く用いられている。サンゴ礁など海水の透明度の高い浅海域では、海底の様子を空中写真から判別できるため、地表面と同様にステレオマッチングを用いてDEMを作成できることが期待される。しかしながら、DPWのステレオマッチングによって算出されるDEM値は、水面での光の屈折効果によって実際の水深よりも浅い値を示すため、その補正が必要不可欠である。しかし、これまで、航空写真の主点と観測点との位置関係によって、どのくらいの割合で水深が浅く見えるのかということの理論的解明は行われていなかった。
Hereinafter, embodiments of the present invention will be described in detail.
Here, as an example, the creation of a water depth map using an aerial photograph with a target as a shallow sea area will be described as one of the most effective usage methods of the present invention.
Hereinafter, a method for creating surface shape data under a liquid according to the present invention will be described in detail.
Conventionally, a digital elevation model (DEM) has been created by performing stereoscopic viewing (stereo matching) using aerial photographs of two stereo pairs. Commercially available digital stereo plotting machines (Digital Photoworking Workstations: DPW) are widely used for creating elevation maps. In shallow water areas with high transparency of seawater such as coral reefs, the state of the seabed can be distinguished from aerial photographs, so it is expected that DEM can be created using stereo matching in the same way as the ground surface. However, since the DEM value calculated by DPW stereo matching shows a value shallower than the actual water depth due to the refraction effect of light on the water surface, correction thereof is indispensable. However, until now, there has not been a theoretical clarification of how much the depth of water looks shallow depending on the positional relationship between the main points and observation points of aerial photographs.

本発明では、これを理論的に明らかにし、光の屈折効果を補正するコンピュータプログラムを開発した。そして、その水深補正プログラムによってDPWによるDEM値を実際の水深に近い値に補正する。実際に、航空写真(沖縄県石垣島白保サンゴ礁の1995年撮影の1万分の1写真)から得られたDEMを、その水深補正プログラムによって補正した。そして、補正前後のDEMをそれぞれ実測水深と比較し、誤差の平均を算出することで精度検証を行った。   In the present invention, this has been theoretically clarified and a computer program for correcting the light refraction effect has been developed. And the DEM value by DPW is corrected to a value close to the actual water depth by the water depth correction program. Actually, a DEM obtained from an aerial photograph (1 / 10,000 photographs taken in 1995 of Shiraho Coral Reef, Ishigaki Island, Okinawa Prefecture) was corrected by the depth correction program. Then, the accuracy was verified by comparing the DEM before and after correction with the actually measured water depth and calculating the average of the errors.

まず、光の屈折効果及び水深補正の理論を画像撮影装置2機の真下の点を結ぶ直線上に対象点がある場合(2次元)とそれ以外の場合(3次元)に分けて解説する。そして、実際の水深よりどのくらい浅く見えているのか考察し、その浅く見えている割合を算出する。また、その理論の精度を実際の航空写真によるDEM値を用いて検証する。
〔1〕光の屈折
水中では物体や水底が実際より浮き上がって(浅く)見えるという現象が起こる。これは光の屈折によるものである。
First, the theory of light refraction effect and water depth correction will be explained separately for cases where the target point is on a straight line connecting the points directly under the two image capturing devices (two dimensions) and other cases (three dimensions). Then, it is considered how shallow it looks from the actual water depth, and the ratio of the shallow water is calculated. In addition, the accuracy of the theory is verified using DEM values obtained from actual aerial photographs.
[1] Refraction of light Underwater, a phenomenon occurs in which an object and the bottom of the water appear to float (shallow). This is due to light refraction.

図1はその原理を示す図である。
水中の物体(ここでは水底)がどう見えるかを幾何学的に考えるには、屈折した光がどのように像を結ぶかを考えなければならない。
図1において、水底A1から真上に向かって出た光は、A1→P→Rと直進して目に届く。ところが、やや斜め上方に向かった光は、水面Qで屈折してSに届く。しかし、目の網膜(ここでは、航空写真)に映る画像は、この屈折が考慮されないため光が線分SQの延長線上を直進したように結像され、直線A1Rと線分SQの延長線との交点A2に物体(水底)があるように見える。これが浅く見える原理である。
FIG. 1 is a diagram illustrating the principle.
In order to think geometrically about how an underwater object (here, the bottom of the water) looks, you must consider how the refracted light forms an image.
In FIG. 1, the light emitted from the water bottom A <b> 1 directly above reaches the eyes by going straight from A <b> 1 → P → R. However, the light directed slightly upward is refracted on the water surface Q and reaches S. However, the image shown in the retina of the eye (here, an aerial photograph) is imaged as if light travels straight on the extension line of the line segment SQ because this refraction is not considered, and the straight line A1R and the extension line of the line segment SQ It appears that there is an object (water bottom) at the intersection A2. This is the principle that looks shallow.

一般的に空気に対する水の屈折率nは
屈折率n=sinθn/sinθk≒1.33
(θn:入射角,θk:屈折角)
で表される。
〔2〕水深補正理論
上記したように、サンゴ礁の海底のDEMを航空写真測量により、DPWを用いて作成した場合、光の屈折効果の影響で、実際より浅めの結果となってしまう。そこで、本発明では、浅く見える割合は航空写真の主点と観測点との位置関係によって変わることを理論的に明らかにして補正理論を確立し、この補正理論に基づく補正プログラムによりDPWで作成されたDEM値をより現実の値に近づけることを試みる。
In general, the refractive index n of water relative to air is refractive index n = sin θn / sin θk≈1.33.
(Θn: incident angle, θk: refraction angle)
It is represented by
[2] Water depth correction theory As described above, when a DEM of the coral reef seabed is created by aerial photogrammetry using DPW, the result is shallower than the actual result due to the effect of light refraction. Therefore, in the present invention, the correction theory is established by theoretically clarifying that the ratio of the shallow-looking ratio changes depending on the positional relationship between the main point and the observation point of the aerial photograph, and created by DPW by the correction program based on this correction theory. It tries to make the DEM value closer to the actual value.

図2に航空写真測量を例とした鳥瞰図、図3に立体図を示す。
この図において、2機の飛行機は所定の高度で飛行しつつ、飛行速度に応じた一定の間隔で、写真間のオーバーラップ部分が60%となるように撮影を行う。
なお、撮影高度は任意に設定することが可能である。空中写真の場合、一般に高度3,000mから10,000mで撮影されたものを用いる。
FIG. 2 shows a bird's-eye view of an aerial photogrammetry as an example, and FIG. 3 shows a three-dimensional view.
In this figure, two airplanes fly at a predetermined altitude, and are photographed so that the overlap portion between photographs is 60% at regular intervals according to the flight speed.
The photographing altitude can be arbitrarily set. In the case of an aerial photograph, a photograph taken at an altitude of 3,000 m to 10,000 m is generally used.

このようにして取得した空中写真を、スキャナによりデジタルデータに変換する。このとき分解能が10cm程度のものを用いるのが望ましい。
図3において、右画像撮影装置座標と左画像撮影装置座標からの光線が、それぞれ右水面到達座標、左水面到達座標を通過し、海底の対象物をとらえている様子を示している。この時、光は水面においてそれぞれ屈折を起こしている。
The aerial photograph acquired in this way is converted into digital data by a scanner. At this time, it is desirable to use a resolution of about 10 cm.
FIG. 3 shows a state in which light rays from the right image capturing device coordinates and the left image capturing device coordinates pass through the right water surface arrival coordinates and the left water surface arrival coordinates, respectively, and catch an object on the seabed. At this time, the light is refracted on the water surface.

また、図2,図3に示すようにX,Y,Z座標をとり、右画像撮影装置座標を(Xr,Yr,Zr)、左画像撮影装置座標を(Xl,Yl,Zl)、右水面到達座標を(Xwr,Ywr,Zwr)、左水面到達座標を(Xwl,Ywl,Zwl)、DPWによるDEM値を(Xd,Yd,Zd)、求めるべき物体の表面の位置の値である真値(理論値)を(Xh,Yh,Zh)とした。 2 and 3, X, Y, and Z coordinates are taken, the right image photographing device coordinates are (Xr, Yr, Zr), the left image photographing device coordinates are (Xl, Yl, Zl), and the right water surface. The arrival coordinates are (Xwr, Ywr, Zwr), the left water surface arrival coordinates are (Xwl, Ywl, Zwl), the DPW DEM value is (Xd, Yd, Zd), and the true value which is the value of the surface position of the object to be obtained (Theoretical value) was set to (Xh, Yh, Zh).

〔2−1〕画像撮影装置2機の真下の点を結ぶ直線上に対象点がある場合(2次元、図2の直線a上)
この場合、光の軌跡を2次元平面上で考えることができる。この場合は、図4に示すようになる。
図4において、写真取得時の水面の高さ(標高)をZとし、水の空気に対する屈折率をnw(=1.33)とする。また、DPWにより写真標定を終えているので、画像撮影装置座標と撮影高度は既知となり、DEM値も既に計測されているとする。
[2-1] When the target point is on a straight line connecting the points directly below the two image capturing devices (two-dimensional, on the straight line a in FIG. 2)
In this case, the light trajectory can be considered on a two-dimensional plane. In this case, it becomes as shown in FIG.
In FIG. 4, the height (elevation) of the water surface at the time of photo acquisition is Z, and the refractive index of water with respect to air is nw (= 1.33). Further, since the photo orientation is finished by DPW, it is assumed that the image capturing apparatus coordinates and the image capturing altitude are known and the DEM value has already been measured.

はじめに、DEM値と画像撮影装置座標を結ぶ直線と水面Zとの交点により、水面到達座標を求める。
Xwr=〔(Z−Zd)×(Xr−Xd)〕/〔(Zr−Zd)〕+Xd
Xwl=〔(Z−Zd)×(Xl−Xd)〕/〔(Zl−Zd)〕+Xd
Ywr=〔(Z−Zd)×(Yr−Yd)〕/〔(Zr−Zd)〕+Yd
Ywl=〔(Z−Zd)×(Yl−Yd)〕/〔(Zl−Zd)〕+Yd
Zwr=Z
Zwl=Z
次に、水面到達座標と画像撮影装置座標から、入射角のsinの二乗を求める。
First, the water surface arrival coordinates are obtained from the intersection of the straight line connecting the DEM value and the image capturing device coordinates and the water surface Z.
Xwr = [(Z−Zd) × (Xr−Xd)] / [(Zr−Zd)] + Xd
Xwl = [(Z-Zd) * (X1-Xd)] / [(Z1-Zd)] + Xd
Ywr = [(Z−Zd) × (Yr−Yd)] / [(Zr−Zd)] + Yd
Ywl = [(Z-Zd) * (Y1-Yd)] / [(Z1-Zd)] + Yd
Zwr = Z
Zwl = Z
Next, the square of the incident angle sin is obtained from the water surface arrival coordinates and the image capturing apparatus coordinates.

sin2 nr=〔(Yr−Ywr)2 〕/〔(Yr−Ywr)2 +(Zr−Zwr)2 〕 sin2 nl=〔(Yl−Ywl)2 〕/〔(Yl−Ywl)2 +(Zl−Zwl)2 〕 (nr:右画像撮影装置からの入射角,nl:左画像撮影装置からの入射角)
また、屈折率nw=sinθn/sinθkより、屈折角のsinの二乗を求める。
sin2 kr=sin2 nr/nw2
sin2 kl=sin2 nl/nw2
(kr:右画像撮影装置からの入射角に対する屈折角,kl:左画像撮影装置からの入射角に対する屈折角)
そして、最後に真値と右水面到達座標を通る直線と、真値と左水面到達座標を通る直線の交点から、真値(理論値)を求める。まず、先に求めた屈折角のsinの二乗から、tanの二乗を求める。
sin 2 nr = [(Yr−Ywr) 2 ] / [(Yr−Ywr) 2 + (Zr−Zwr) 2 ] sin 2 nl = [(Yl−Ywl) 2 ] / [(Yl−Ywl) 2 + ( Zl−Zwl) 2 ] (nr: incident angle from right image photographing device, nl: incident angle from left image photographing device)
Further, the square of the refraction angle sin is obtained from the refractive index nw = sin θn / sin θk.
sin 2 kr = sin 2 nr / nw 2
sin 2 kl = sin 2 nl / nw 2
(Kr: refraction angle with respect to the incident angle from the right image photographing device, kl: refraction angle with respect to the incident angle from the left image photographing device)
Finally, the true value (theoretical value) is obtained from the intersection of the straight line passing the true value and the right water surface arrival coordinate and the straight line passing the true value and the left water surface arrival coordinate. First, the square of tan is obtained from the square of sin of the refraction angle obtained previously.

tan2 kr=(sin2 kr)/(1−sin2 kr)
tan2 kl=(sin2 kl)/(1−sin2 kl)
これより、図4における真値と水面到達座標を通る二直線の傾きは、それぞれ
tan 2 kr = (sin 2 kr) / (1−sin 2 kr)
tan 2 kl = (sin 2 kl) / (1−sin 2 kl)
From this, the slope of the two straight lines passing through the true value and the water surface arrival coordinates in FIG.

となる(ただし、DEM値の位置座標によって、正・負は変わる)。
よって、真値のYh,Zhは次の2直線の交点として求まる。
(However, positive / negative changes depending on the position coordinates of the DEM value).
Therefore, the true values Yh and Zh are obtained as the intersection of the following two straight lines.

Xhについては、X,Y平面での画像撮影装置2機を結ぶ直線上の点であることから、
Xh=〔(Xr−Xl)/(Yr−Yl)〕(Yh−Yl)+Xl
となる。
Xh is a point on a straight line connecting two image capturing devices on the X and Y planes.
Xh = [(Xr-Xl) / (Yr-Yl)] (Yh-Yl) + Xl
It becomes.

このようにして、真値(Xh,Yh,Zh)を求めることが出来る。
ここで、図4からもわかるように、2機の画像撮影装置からの入射角が違う場合、DEM値のY座標(Yd)と真値のY座標(Yh)はずれる。つまり、実際の位置より横にずれて見えるのである。この横ずれ幅を、画像撮影装置高度3000m、水面の高さZ=0.92、右画像撮影装置座標(0,500,3000),左画像撮影装置座標(0,−500,3000)、DEM値水深(Zd)−0.9mとして、検証したものを以下、図5に示す。
In this way, true values (Xh, Yh, Zh) can be obtained.
Here, as can be seen from FIG. 4, when the incident angles from the two image capturing apparatuses are different, the Y coordinate (Yd) of the DEM value and the Y coordinate (Yh) of the true value deviate. That is, it appears to be shifted laterally from the actual position. This lateral displacement width is the image capturing device height 3000 m, the water surface height Z = 0.92, the right image capturing device coordinates (0,500,3000), the left image capturing device coordinates (0, -500,3000), the DEM value. What was verified as water depth (Zd) -0.9 m is shown in FIG.

ここで、横ずれ幅は、Yd−Yhにより求めた。
図5でY座標幅を−700〜700としているのは、2枚の1万分の1の航空写真(22.8cm×22.8cm,60%オーバーラップ)と仮定したためである。
また、図5において、Y座標が−500と500の画像撮影装置の位置で横ずれがないのは、図1のように、左右いずれかの入射角が2次元的に考えて0°になっているからである。
Here, the lateral displacement width was determined by Yd−Yh.
In FIG. 5, the Y coordinate width is set to −700 to 700 because it is assumed that two aerial photographs of 1 / 10,000 (22.8 cm × 22.8 cm, 60% overlap).
Further, in FIG. 5, there is no lateral shift at the positions of the image capturing apparatuses whose Y coordinates are −500 and 500, as shown in FIG. Because.

この図からわかるように、横ずれ幅は最大で0.004892mであり、誤差は無視できるほど小さいと言える。このことから、Yh≒Ydと近似できる。
〔2−2〕対象点が画像撮影装置2機の真下を結ぶ直線上以外にある場合(3次元)
上記で、水底がどのように見えるかを幾何学的に考えたときに、屈折した光がどのように像を結ぶかを考えた。3次元においても同じように考えられるが、3次元では2次元と違って、2機の画像撮影装置からの水面への入射角が異なる場合は、図6に示すように、屈折後の光線が一点で交わらない。つまり、DPWもステレオマッチングにより、無理やり像を結んでいたと思われる。
As can be seen from this figure, the maximum lateral deviation width is 0.004892 m, and the error can be said to be negligibly small. From this, it can be approximated as Yh≈Yd.
[2-2] When the target point is not on a straight line connecting directly under the two image capturing devices (three-dimensional)
In the above, we considered how the refracted light forms an image when geometrically considering how the bottom of the water looks. Although the same can be considered in three dimensions, unlike in two dimensions, if the incident angles to the water surface from the two image capturing devices are different, as shown in FIG. Do not cross at one point. In other words, the DPW seems to have forcibly formed an image by stereo matching.

(a)2機の画像撮影装置からの入射角が同じ場合(像を結ぶ場合、図2の直線b上)
2機の画像撮影装置から水面への入射角が同じ場合、2機を結んだ2次元の直線の中点を通る垂線上の点に像を結ぶことになる。この点については、2次元における2直線の交点と同様の方法で求まる。この場合、水面到達座標は、
Xwr=〔{(Z−Zd)×(Xr−Xd)}/(Zr−Zd)〕+Xd
Xwl=〔{(Z−Zd)×(Xl−Xd)}/(Zl−Zd)〕+Xd
Ywr=〔{(Z−Zd)×(Yr−Yd)}/(Zr−Zd)〕+Yd
Ywl=〔{(Z−Zd)×(Zl−Zd)}/(Zl−Zd)〕+Yd
Zwr=Z
Zwl=Z
で表され、入射角のsinの二乗は、図3より、
sin2 nr={(Xr−Xwr)2 +(Yr−Ywr)2 }/{(Xr−Xwr)2 +(Yr−Ywr)2 +(Zr−Zwr)2
…(1)
sin2 nl={(Xl−Xwl)2 +(Yl−Ywl)2 }/{(Xl−Xwl)2 +(Yl−Ywl)2 +(Zl−Zwl)2
…(2)
となる。
(A) When incident angles from the two image capturing devices are the same (when connecting images, on the straight line b in FIG. 2)
When the incident angles on the water surface from the two image capturing devices are the same, an image is formed at a point on a perpendicular passing through the midpoint of a two-dimensional straight line connecting the two devices. This point can be obtained by the same method as the intersection of two straight lines in two dimensions. In this case, the water surface arrival coordinates are
Xwr = [{(Z−Zd) × (Xr−Xd)} / (Zr−Zd)] + Xd
Xwl = [{(Z-Zd) * (X1-Xd)} / (Z1-Zd)] + Xd
Ywr = [{(Z−Zd) × (Yr−Yd)} / (Zr−Zd)] + Yd
Ywl = [{(Z−Zd) × (Zl−Zd)} / (Zl−Zd)] + Yd
Zwr = Z
Zwl = Z
3 and the square of the incident angle sin is from FIG.
sin 2 nr = {(Xr−Xwr) 2 + (Yr−Ywr) 2 } / {(Xr−Xwr) 2 + (Yr−Ywr) 2 + (Zr−Zwr) 2 }
... (1)
sin 2 nl = {(Xl−Xwl) 2 + (Yl−Ywl) 2 } / {(Xl−Xwl) 2 + (Yl−Ywl) 2 + (Zl−Zwl) 2 }
... (2)
It becomes.

これにより、2次元同様、傾きを求め、真値を求めることができる。また、この場合、中点であるのでY方向・X方向へのずれは無く、その結果、Xh=Xd,Yh=Ydであり、Zhは、   As a result, as in the two-dimensional case, the inclination can be obtained and the true value can be obtained. In this case, since it is the middle point, there is no shift in the Y direction / X direction. As a result, Xh = Xd, Yh = Yd, and Zh is

で、求められる。
(b)2機の画像撮影装置からの入射角が異なる場合(像を結ばない場合)
次に画像撮影装置2機からの入射角が異なる場合について考える。この場合、屈折後の光線が像を結ばないとされるため、以下のように近似した。
And it is required.
(B) When the incident angles from the two image capturing devices are different (when images are not formed)
Next, consider a case where the incident angles from the two image capturing apparatuses are different. In this case, since it is assumed that the light beam after refraction does not form an image, the following approximation was made.

まず、図3において、屈折角と水面到達座標と真値から以下のような関係式が成り立つ。
sin2 kr={(Xwr−Xh)2 +(Ywr−Yh)2 }/{(Xwr−Xh)2 +(Ywr−Yh)2 +(Zwr−Zh)2
…(3)
sin2 kl={(Xwl−Xh)2 +(Ywl−Yh)2 }/{(Xwl−Xh)2 +(Ywl−Yh)2 +(Zwl−Zh)2
…(4)
また、上記式(1)、(2)から、屈折率nw=sinθn/sinθkより、
sin2 kr=sin2 nr/nw2 …(5)
sin2 kl=sin2 nl/nw2 …(6)
よって、上記した(3)、(5)、(4)、(6)式より以下の方程式が成り立つ。
First, in FIG. 3, the following relational expression is established from the refraction angle, the water surface arrival coordinates, and the true value.
sin 2 kr = {(Xwr−Xh) 2 + (Ywr−Yh) 2 } / {(Xwr−Xh) 2 + (Ywr−Yh) 2 + (Zwr−Zh) 2 }
... (3)
sin 2 kl = {(Xwl−Xh) 2 + (Ywl−Yh) 2 } / {(Xwl−Xh) 2 + (Ywl−Yh) 2 + (Zwl−Zh) 2 }
... (4)
From the above formulas (1) and (2), the refractive index nw = sin θn / sin θk,
sin 2 kr = sin 2 nr / nw 2 (5)
sin 2 kl = sin 2 nl / nw 2 (6)
Therefore, the following equations are established from the above-described equations (3), (5), (4), and (6).

{(Xwr−Xh)2 +(Ywr−Yh)2 }/{(Xwr−Xh)2 +(Ywr−Yh)2 +(Zwr−Zh)2 }=sin2 nr/nw2
{(Xwl−Xh)2 +(Ywl−Yh)2 }/{(Xwl−Xh)2 +(Ywl−Yh)2 +(Zwl−Zh)2 }=sin2 nl/nw2
ここで、上式において、2次元での横ずれの検証の結果より3次元においても横ずれは少ないと仮定し、Yh≒Ydと近似すると、
{(Xwr−Xh)2 +(Ywr−Yd)2 }/{(Xwr−Xh)2 +(Ywr−Yd)2 +(Zwr−Zh)2 }=sin2 nr/nw2
{(Xwl−Xh)2 +(Ywl−Yd)2 }/{(Xwl−Xh)2 +(Ywl−Yd)2 +(Zwl−Zh)2 }=sin2 nl/nw2
となり、連立方程式が成り立つ。これにより、真値のXh,Zhを求める。
{(Xwr−Xh) 2 + (Ywr−Yh) 2 } / {(Xwr−Xh) 2 + (Ywr−Yh) 2 + (Zwr−Zh) 2 } = sin 2 nr / nw 2
{(Xwl-Xh) 2 + (Ywl-Yh) 2 } / {(Xwl-Xh) 2 + (Ywl-Yh) 2 + (Zwl-Zh) 2 } = sin 2 nl / nw 2
Here, in the above equation, it is assumed that the lateral deviation is smaller in three dimensions than the result of the lateral deviation verification in two dimensions, and approximated as Yh≈Yd,
{(Xwr−Xh) 2 + (Ywr−Yd) 2 } / {(Xwr−Xh) 2 + (Ywr−Yd) 2 + (Zwr−Zh) 2 } = sin 2 nr / nw 2
{(Xwl-Xh) 2 + (Ywl-Yd) 2 } / {(Xwl-Xh) 2 + (Ywl-Yd) 2 + (Zwl-Zh) 2 } = sin 2 nl / nw 2
Thus, simultaneous equations hold. As a result, true values Xh and Zh are obtained.

これらの理論により、2機の画像撮影装置からの2枚の航空写真により得られたDEM値を基にステレオマッチングされた範囲において、水深補正を行うことができる。
図7は、画像撮影装置高度3000m、平均海面からの水面の高さZ=0.92m、右画像撮影装置座標(0,500,3000),左画像撮影装置座標(0,−500,3000)、平均海面からのDEM値水深−1.0mとし、X,Y平面において、水深の分布を示したものである。
Based on these theories, water depth correction can be performed within a range stereo-matched based on DEM values obtained from two aerial photographs from two image capturing apparatuses.
FIG. 7 shows an image taking device altitude of 3000 m, an average water surface height Z = 0.92 m, right image taking device coordinates (0,500,3000), left image taking device coordinates (0, −500,3000). The DEM value depth from the average sea level is -1.0 m, and the water depth distribution is shown in the X and Y planes.

この図より、ステレオ画像の中心(X=Y=0)から離れるほど実際の水深より、浅く見えていることがわかる。
ステレオ画像の中心で、DEM値は真値(理論値)より水深にして0.6040倍浅く見え、一番浅く見えるところで、0.5582倍浅く見えることがわかった。またこの場合、平均して0.5802倍浅く見えていることになる。
From this figure, it can be seen that the distance from the center (X = Y = 0) of the stereo image appears shallower than the actual water depth.
It was found that at the center of the stereo image, the DEM value looks 0.6040 times shallower than the true value (theoretical value) in water depth, and 0.5582 times shallower where it appears shallowest. Further, in this case, it appears to be 0.5802 times shallower on average.

図8は本発明の水深補正プログラムのフローチャートである。
この図において、まず、画像撮影装置位置及びDEM値を入力する(ステップS1)。次に、水面到達座標、入射角・屈折角の算出を行う(ステップS2)。次に、屈折率を入力する(ステップS3)。次に、2次元か3次元かの判別を行い(ステップS4)、判別の結果、2次元の場合(ステップS5)水深の真値を算出する(ステップS6)。また、3次元の場合(ステップS7)、画像撮影装置からの入射角の判別を行い(ステップS8)、入射角が同じ場合(ステップS9)、入射角が異なる場合(ステップS10)、それぞれにおいて、水深の真値を決定する(ステップS11、ステップS12)。このようにして、いずれの場合にも、水深の真値を決定する。それらのステップS6,ステップS11,ステップS12の水深の真値に基づいて、液体下の物体の表面形状の生成(真値の決定、ステップS13)を行う。
FIG. 8 is a flowchart of the water depth correction program of the present invention.
In this figure, first, an image photographing device position and a DEM value are input (step S1). Next, the water surface arrival coordinates, the incident angle / refraction angle are calculated (step S2). Next, a refractive index is input (step S3). Next, it is determined whether it is two-dimensional or three-dimensional (step S4). As a result of the determination, in the case of two dimensions (step S5), the true value of the water depth is calculated (step S6). In the case of three dimensions (step S7), the incident angle from the image capturing device is determined (step S8). When the incident angles are the same (step S9) and when the incident angles are different (step S10), The true value of the water depth is determined (step S11, step S12). Thus, in any case, that determine the true value of the water depth. Based on the true value of the water depth in Step S6, Step S11, and Step S12, the surface shape of the object under the liquid is generated (determination of the true value, Step S13).

以下、本発明のDEMデータによる実証試験について説明する。
図9、図10に沖縄県石垣島白保の1995年撮影の1万分の1航空写真2枚(60%オーバーラップ)を示す。
以下、この2枚の航空写真から得られたDEMデータを用いて、本発明の精度検証を行った。
Hereinafter, the verification test using the DEM data of the present invention will be described.
9 and 10 show two 1 / 10,000 aerial photographs (60% overlap) taken in 1995 by Shiraho Ishigaki, Okinawa.
Hereinafter, the accuracy of the present invention was verified using the DEM data obtained from these two aerial photographs.

ここでは、DEM値を本発明のプログラムによって補正した水深理論値と、白保の水深実測値を比較検証した。この条件で、水深補正を行う前のDEM値と水深補正を行った後の理論値を実測値とそれぞれ比較をした。
本発明による補正前のDEM値と実測値との比較結果を図11に、本発明による補正後の理論値と実測値との比較結果を図12に示す。
Here, the theoretical depth value obtained by correcting the DEM value by the program of the present invention and the actual measured depth value of Shiraho were compared and verified. Under these conditions, the DEM value before the water depth correction and the theoretical value after the water depth correction were compared with the measured values, respectively.
FIG. 11 shows a comparison result between the DEM value before correction according to the present invention and the actual measurement value, and FIG. 12 shows a comparison result between the theoretical value after correction according to the present invention and the actual measurement value.

これらの図において、y(実測値)=x(計算値)の直線を引き、この直線に近いほど、実値との誤差が少ないということを示す。
図11からわかるように、DEMの値(補正を行う前)は、実測値よりも浅く見えていて、誤差の平均値は0.622528mとなっている。これに対し図12より、本発明による補正を行った後の理論値では、ほぼy=x直線の周りに集中し、、誤差の平均値も0.297963mとなり精度も良くなったことがわかる。
In these figures, a straight line is drawn of y (measured value) = x (calc), closer to the straight line, indicating that the error between the actual measured value is small.
As can be seen from FIG. 11, the DEM value (before correction) appears to be shallower than the actually measured value, and the average value of the error is 0.622528 m. On the other hand, it can be seen from FIG. 12 that the theoretical values after the correction according to the present invention are concentrated around the y = x straight line, and the average error value is 0.297963 m, which improves the accuracy.

これはDPWのDEM値では実測値よりも水深を浅くとっていたものを、理論的に補正することにより、実測値に近い値、つまり水深を深く補正できたためであると思われる。
また、すべての点がy=x上に乗らなかったのは、DPWのステレオマッチングが上手くできていないこと、画像撮影装置の状態(撮影時の画像撮影装置の傾き、画像撮影装置高度の変動など)を考慮に入れていないことが原因で生じた誤差であると思われる。
This is probably because the DPW DEM value, which was shallower than the actually measured value, was theoretically corrected to correct the value close to the actually measured value, that is, the water depth deeply.
Also, all the points were not on y = x because DPW stereo matching was not successful, the state of the image capturing device (tilt of the image capturing device at the time of capturing, fluctuations in the height of the image capturing device, etc.) ) Seems to be an error caused by not taking into account.

本発明における結果を以下のようにまとめた。
(1)水中において水底や対象物が浅く見える理論を、屈折率を考慮して考えた。
(2)その理論を基に、水深補正プログラムを完成させた。
(3)沖縄県石垣島白保のデータを用いてプログラムの精度検証を行った結果、補正前の誤差の平均は0.62258mであったが、本発明の理論による水深補正では0.29796mと精度が良くなった。また、DEM値水深を−1.0mと仮定し、航空写真のステレオ画像の範囲で水深散布図(図7)を作ったところ、DEMデータは実測したデータより水深にして、平均で0.58倍浅く見えていることがわかった。
The results in the present invention are summarized as follows.
(1) The theory that the bottom of water and objects look shallow in water was considered in consideration of the refractive index.
(2) Based on the theory, a water depth correction program was completed.
(3) Okinawa Ishigaki using data Shiraho result of accuracy verification program, the average of the uncorrected errors was the 0.6225 2 8m, in Theory depth correction of the present invention .29796 The accuracy improved to 3 m. Further, assuming that the DEM water depth is -1.0 m and making a water depth scatter diagram (Fig. 7) in the range of the stereo image of the aerial photograph, the DEM data is taken as the water depth from the measured data, and the average is 0.58. I found that it looked twice as shallow.

図13は上記した液体下の物体の真の水深値に基づいて液体下の物体の表面形状を生成させるシステムブロックである。
この図において、1はステレオ画像に対してDPWを用いてデジタルマッピングを行い、データを生成するデータ生成部であり、2は左側に位置する画像撮影装置Aの位置情報、3は右側に位置する画像撮影装置Bの位置情報、4はDEM値、5は屈折率値である。また、10はコンピュータであり、このコンピュータ10には、データ生成部1から左側に位置する画像撮影装置Aの位置情報2、右側に位置する画像撮影装置Bの位置情報3、DEM値4が入力される。コンピュータ10は、屈折率値の入力部11、左右水面到達座標、左右入射角、左右屈折角の演算部12、2次元・3次元の判別部13、2次元の場合の真値の演算部14、3次元における画像撮影装置2機の入射角の判別部15、3次元の入射角が同じ場合の真値の演算部16、3次元の入射角が異なる場合の真値の演算部17、液体下の物体の表面形状の生成部18、各部からの情報を記憶するとともに、各部へ記憶された情報を提供する記憶部19、液体下の物体の表面形状の生成情報を出力する出力部20から構成されている。ここで、真値を求めるフローは、図8に示した通りであり、出力部からの出力例としては、水深散布図(図7参照)を得ることもできる。
FIG. 13 is a system block for generating the surface shape of the object under the liquid based on the true water depth value of the object under the liquid.
In this figure, 1 is a data generation unit that performs digital mapping on a stereo image using DPW to generate data, 2 is position information of the image capturing device A located on the left side, and 3 is located on the right side. Position information of the image capturing apparatus B, 4 is a DEM value, and 5 is a refractive index value. Reference numeral 10 denotes a computer. The computer 10 receives position information 2 of the image capturing apparatus A located on the left side, position information 3 of the image capturing apparatus B located on the right side, and a DEM value 4 from the data generation unit 1. Is done. Computer 10 includes an input unit 11 of the refractive index value, the left and right water reaches coordinate, lateral incidence angle, of the true value when the arithmetic unit 12,2-D 3-D determination unit 13, the dimensional lateral refraction angle calculating section 14 The incident angle discriminating unit 15 of the two three-dimensional image capturing apparatuses, the true value calculating unit 16 when the three-dimensional incident angles are the same, the true value calculating unit 17 when the three-dimensional incident angles are different, and the liquid From the surface shape generation unit 18 of the lower object, the storage unit 19 that stores information from each unit, and the information stored in each unit, and the output unit 20 that outputs the generation information of the surface shape of the object below the liquid It is configured. Here, the flow for obtaining the true value is as shown in FIG. 8, and as an output example from the output unit, a water depth scatter diagram (see FIG. 7) can also be obtained.

本発明においては、
(1)まず、ステレオ画像をデジタル化する。
(2)次に、解析範囲に所定の配列で基準地点群を設定して各々の基準地点の平面座標値を記憶する。
(3)前記解析範囲において基準地点群の位置及び標高値を用いて各々の画素の標高を測定して計算する。
In the present invention,
(1) First, a stereo image is digitized.
(2) Next, a reference point group is set in a predetermined arrangement in the analysis range, and the plane coordinate value of each reference point is stored.
(3) The altitude of each pixel is measured and calculated using the position and altitude value of the reference point group in the analysis range.

ここまでは、デジタル図化機を用いたデジタルマッピングに基づいて作成することができる。
(4)次に、液体の屈折率と画像撮影位置情報により浅く見えている割合を補正する補正係数を算出する。
(5)前記補正係数を用いて液体下の物体の真の深度を得る。
Up to this point, it can be created based on digital mapping using a digital plotter.
(4) Next, a correction coefficient for correcting the ratio of the image that is viewed shallow is calculated based on the refractive index of the liquid and the image capturing position information.
(5) The true depth of the object under the liquid is obtained using the correction coefficient.

上記(4)及び(5)の工程が本発明の重要なプロセスである。
このように、液体下の表面形状生成の生成を、図13を用いて説明すると、
データ生成部1において、ステレオ画像に対してデジタル図化機(先行技術参照)を用いてデジタルマッピングを行い左側に位置する画像撮影装置Aの位置情報2、右側に位置する画像撮影装置Bの位置情報3、DEM値4のそれぞれのデータを生成する。次に、屈折率値5とともにこれらのデータをコンピュータ10に取込み、演算部12において、左右水面到達座標、左右入射角、左右屈折角の演算を行う。その値は記憶部19に記憶する。次に、2次元・3次元の判別部13において、2次元・3次元の判別を行い、その値は記憶部19に記憶する。次に、真値の演算部14において、2次元の真値の演算を行い、その真値は記憶部19に記憶する。また、3次元の場合は入射角の判別部15において、入射角が同じか異なるかの判別を行い、その値は記憶部19に記憶する。次に、真値の演算部16において、入射角が同じ場合の3次元の記憶の真値の演算を行い、その真値は記憶部19に記憶する。次に、真値の演算部17において、入射角が異なる場合の3次元の真値の演算を行い、その真値は記憶部19に記憶する。このようにして求められた2次元、3次元の真値に基づいて、液体下の物体の表面形状の生成部18において、マッピングを行い、液体下の物体の表面形状の生成を行う。
The steps (4) and (5) are important processes of the present invention.
Thus, the generation of the surface shape generation under the liquid will be described with reference to FIG.
In the data generation unit 1, digital mapping is performed on a stereo image using a digital plotter (refer to the prior art), position information 2 of the image capturing apparatus A located on the left side, and position of the image capturing apparatus B located on the right side Each data of information 3 and DEM value 4 is generated. Next, these data together with the refractive index value 5 are taken into the computer 10 and the calculation unit 12 calculates the left and right water surface arrival coordinates, the left and right incident angles, and the left and right refraction angles. The value is stored in the storage unit 19. Next, the two-dimensional / three-dimensional determination unit 13 performs two-dimensional / three-dimensional determination, and stores the value in the storage unit 19. Next, the true value calculation unit 14 performs a two-dimensional true value calculation and stores the true value in the storage unit 19. In the three-dimensional case, the incident angle determination unit 15 determines whether the incident angles are the same or different, and stores the values in the storage unit 19. Next, the true value calculation unit 16 calculates the true value of the three-dimensional storage when the incident angles are the same, and stores the true value in the storage unit 19. Next, the true value calculation unit 17 calculates a three-dimensional true value when the incident angles are different, and stores the true value in the storage unit 19. Based on the two-dimensional and three-dimensional true values obtained in this way, the surface shape of the object under the liquid performs mapping, and the surface shape of the object under the liquid is generated.

なお、本発明は航空写真測量に限らず、画像撮影装置でステレオ撮影したものであれば汎用的に適用することができる。
また、本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形が可能であり、これらを本発明の範囲から排除するものではない。
Note that the present invention is not limited to aerial photogrammetry, and can be applied universally as long as the image is captured by an image capturing apparatus.
Further, the present invention is not limited to the above-described embodiments, and various modifications can be made based on the spirit of the present invention, and these are not excluded from the scope of the present invention.

本発明の液体下の表面形状データ作成方法は、正確な海面下の物体の表面形状を知るための有効なツールとして利用可能性がある。   The liquid surface shape data creation method of the present invention can be used as an effective tool for knowing the accurate surface shape of an object under the sea surface.

光の屈折による液体下での物体の見え方の原理の説明図である。It is explanatory drawing of the principle of the appearance of the object under the liquid by the refraction of light. 本発明にかかる航空写真測量を例とした鳥瞰図である。It is a bird's-eye view which made the aerial photogrammetry concerning this invention an example. 図2の立体図である。FIG. 3 is a three-dimensional view of FIG. 2. 画像撮影装置2機の真下を結ぶ直線上に対象点がある場合の2次元モデル図である。It is a two-dimensional model figure in case an object point exists on the straight line which connects directly under 2 image photographing devices. DEM値と真値のY座標の横ずれ特性を示す図である。It is a figure which shows the lateral shift characteristic of a DEM value and a true Y coordinate. 画像撮影装置2機の真下を結ぶ直線上以外に対象点がある場合(3次元)の、水面での光線の屈折後の様子を示す図である。It is a figure which shows the mode after the refraction | bending of the light ray in the water surface in case there exists an object point other than on the straight line which connects two image photographing devices directly (three dimensions). 飛行機の高度が3,000mで、デジタル写真測量により計測されたみかけの深度が1mの場合の真の深度を示す図である。It is a figure which shows the true depth in case the altitude of an airplane is 3000 m and the apparent depth measured by digital photogrammetry is 1 m. 本発明の水深補正プログラムのフローチャートである。It is a flowchart of the water depth correction program of the present invention. 本発明の実証試験に用いた沖縄県石垣島白保の航空写真(その1)を示す図である。It is a figure which shows the aerial photograph (the 1) of Ishigaki-jima Shiraho of Okinawa used for the verification test of this invention. 本発明の実証試験に用いた沖縄県石垣島白保の航空写真(その2)を示す図である。It is a figure which shows the aerial photograph (the 2) of Ishigakijima Shiraho of Okinawa used for the verification test of this invention. 本発明による補正前のDEM値と実測値との比較を示す図である。It is a figure which shows the comparison with the DEM value before correction | amendment by this invention, and a measured value. 本発明による補正後の理論値と実測値との比較を示す図である。It is a figure which shows the comparison with the theoretical value after correction | amendment by this invention, and a measured value. 本発明の実施例を示す液体下の表面形状測定システムのブロック図である。It is a block diagram of the surface shape measurement system under the liquid which shows the Example of this invention.

1 データ生成部
2 左側に位置する画像撮影装置Aの位置情報
3 右側に位置する画像撮影装置Bの位置情報
4 DEM値
5 屈折率値
10 コンピュータ
11 屈折率値の入力部
12 左右水面到達座標、左右入射角、左右屈折角の演算部
13 2次元・3次元の判別部
14 2次元の場合の真値の演算部
15 3次元における画像撮影装置2機の入射角の判別部
16 3次元の入射角が同じ場合の真値の演算部
17 3次元の入射角が異なる場合の真値の演算部
18 液体下の物体の表面形状の生成部
19 各部からの情報を記憶するとともに、各部へ記憶された情報を提供する記憶部
20 液体下の物体の表面形状の生成情報を出力する出力部
DESCRIPTION OF SYMBOLS 1 Data generation part 2 Position information of the imaging device A located in the left side 3 Position information of the imaging device B located in the right side 4 DEM value 5 Refractive index value 10 Computer 11 Refractive index value input part 12 Left and right water surface arrival coordinates, left and right angles of incidence, the calculation unit 13 2D-3D left refraction angle determination unit 14 two-dimensional incident determination unit 16 three-dimensional angle of incidence of the image capturing apparatus 2 aircraft in the arithmetic unit 15 three-dimensional true value when with the square to store information from the true value of the generator 19 each part of the surface of the object shape of the arithmetic unit 18 under liquid of the true value when the incident angle of the arithmetic unit 17 3D is different when the same are stored in the respective sections 20 that outputs the generated information on the surface shape of the object under the liquid

Claims (3)

ステレオ画像に対して、デジタル図化機を用いてデジタルマッピングを行う液体下の表面形状計測方法であって、
前記ステレオ画像をデジタル化する工程と、
解析範囲に所定の配列で基準地点群を設定して各々の基準地点の平面座標値を記憶する工程と、
前記解析範囲において基準地点群の位置及び標高値を用いて各々の画素の標高を測定して計算する工程と、
液体の屈折率と画像撮影位置情報により浅く見えている割合を補正する補正係数を算出する工程と、
前記補正係数を用いて液体下の物体の真の深度を得る工程と、
を有することを特徴とする液体下の表面形状測定方法。
A surface shape measurement method under a liquid that performs digital mapping on a stereo image using a digital plotter,
Digitizing the stereo image;
A step of setting a reference point group in a predetermined arrangement in the analysis range and storing a plane coordinate value of each reference point;
Measuring and calculating the altitude of each pixel using the position and altitude value of the reference point group in the analysis range; and
Calculating a correction coefficient that corrects a ratio of being viewed shallow by the refractive index of the liquid and the image shooting position information;
Obtaining the true depth of the object under the liquid using the correction factor;
A method for measuring a surface shape under a liquid, comprising:
ステレオ画像に対して、デジタル図化機を用いてデジタルマッピングを行う液体下の表面形状計測システムであって、
(a)ステレオ画像に対してデジタル図化機を用いてデジタルマッピングを行い、左側に位置する画像撮影装置Aの位置情報、右側に位置する画像撮影装置Bの位置情報、DEM値のそれぞれのデータを生成するデータ生成部と、
(b)左右水面到達座標、左右入射角、左右屈折角の演算を行う演算部と、撮影位置の判別部と、屈折率の入力を行う屈折率値の入力部と、画像撮影装置2機の真下の点を結ぶ直線上に対象点がある時を2次元、それ以外の時を3次元としたときの2次元・3次元の判別部と、2次元と判別された場合に対象とする物体の表面の位置の値である真値を演算する演算部と、3次元である場合に画像撮影装置2機の入射角の異同を判別する判別部と、該判別部により入射角が等しいと判別された場合に対象とする物体の表面の位置の値である真値を演算する演算部と、前記入射角が異なると判別された場合に対象とする物体の表面の位置の値である真値を演算する演算部と、前記演算された2次元、3次元の場合の対象とする物体の表面の位置の値である真値に基づいて、液体下の物体の表面形状を生成する生成部と、上記した各部の情報を記憶する記憶部とを有するコンピュータとを具備することを特徴とする液体下の表面形状計測システム。
A surface shape measurement system under a liquid that performs digital mapping on a stereo image using a digital plotter,
(A) Digital mapping is performed on the stereo image using a digital plotter, and the position information of the image photographing device A located on the left side, the position information of the image photographing device B located on the right side, and the DEM value data A data generation unit for generating
(B) a calculation unit that calculates left and right water surface arrival coordinates, left and right incident angles, and left and right refraction angles, a shooting position determination unit, a refractive index value input unit that inputs a refractive index, and two image shooting apparatuses A two-dimensional / three-dimensional discriminator when the target point is on a straight line connecting the points directly below and two-dimensional when the target point is three-dimensional, and an object that is subject to two-dimensional discrimination A calculation unit that calculates a true value that is a position value of the surface of the image, a determination unit that determines the difference in incident angles of the two image capturing devices in the case of three dimensions, and the determination unit determines that the incident angles are equal A true value that is a value of the surface position of the target object when it is determined that the incident angle is different from a calculation unit that calculates a true value that is a position value of the surface of the target object a calculator for calculating the said calculated two-dimensional, the position of the object surface of interest in the case of a three-dimensional In it, based on the true value, the generation unit and the surface shape of the liquid under characterized by comprising a computer having a storage unit for storing information of the respective units described above to produce a surface shape of an object under liquid Measuring system.
請求項2記載の液体下の表面形状計測システムにおいて、計測された前記液体下の物体の表面形状の情報を画面に表示する出力部を具備することを特徴とする液体下の表面形状計測システム。   3. The surface shape measurement system under liquid according to claim 2, further comprising an output unit that displays information on the measured surface shape of the object under the liquid on a screen.
JP2005005824A 2005-01-13 2005-01-13 Method and system for measuring surface shape under liquid Expired - Fee Related JP4729694B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005005824A JP4729694B2 (en) 2005-01-13 2005-01-13 Method and system for measuring surface shape under liquid

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005005824A JP4729694B2 (en) 2005-01-13 2005-01-13 Method and system for measuring surface shape under liquid

Publications (2)

Publication Number Publication Date
JP2006194705A JP2006194705A (en) 2006-07-27
JP4729694B2 true JP4729694B2 (en) 2011-07-20

Family

ID=36800905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005005824A Expired - Fee Related JP4729694B2 (en) 2005-01-13 2005-01-13 Method and system for measuring surface shape under liquid

Country Status (1)

Country Link
JP (1) JP4729694B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105716581A (en) * 2016-02-15 2016-06-29 中测新图(北京)遥感技术有限责任公司 Underwater object point coordinate determination method and device based on double-medium photography technology

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012129695A1 (en) 2011-03-31 2012-10-04 Ats Automation Tooling Systems Inc. Three dimensional optical sensing through optical media
JP6055274B2 (en) * 2012-10-31 2016-12-27 株式会社トプコン Aerial photograph measuring method and aerial photograph measuring system
JP5989719B2 (en) * 2013-07-26 2016-09-07 国立研究開発法人国立環境研究所 Shallow water observation system
JP6363589B2 (en) * 2015-12-24 2018-07-25 ファナック株式会社 Wire electrical discharge machining system with robot
JP6907566B2 (en) * 2017-02-03 2021-07-21 大日本印刷株式会社 3D shape measuring device and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0783632A (en) * 1993-09-20 1995-03-28 Nissan Motor Co Ltd Shape measuring apparatus
JPH08210851A (en) * 1995-02-02 1996-08-20 Asia Kosoku Kk Three dimensional digital plotter
JP2000329522A (en) * 1999-05-21 2000-11-30 Hitachi Ltd Image processor and water level measuring system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0783632A (en) * 1993-09-20 1995-03-28 Nissan Motor Co Ltd Shape measuring apparatus
JPH08210851A (en) * 1995-02-02 1996-08-20 Asia Kosoku Kk Three dimensional digital plotter
JP2000329522A (en) * 1999-05-21 2000-11-30 Hitachi Ltd Image processor and water level measuring system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105716581A (en) * 2016-02-15 2016-06-29 中测新图(北京)遥感技术有限责任公司 Underwater object point coordinate determination method and device based on double-medium photography technology
CN105716581B (en) * 2016-02-15 2018-08-10 中测新图(北京)遥感技术有限责任公司 Underwater object point coordinate determination method and device based on double medium camera works

Also Published As

Publication number Publication date
JP2006194705A (en) 2006-07-27

Similar Documents

Publication Publication Date Title
CN107316325B (en) Airborne laser point cloud and image registration fusion method based on image registration
US7206080B2 (en) Surface shape measurement apparatus, surface shape measurement method, surface state graphic apparatus
CA2760006C (en) Point cloud assisted photogrammetric rendering method and apparatus
CN108474658B (en) Ground form detection method and system, unmanned aerial vehicle landing method and unmanned aerial vehicle
ES2693785T3 (en) Procedure and disposition to develop a three-dimensional model of an environment
CN111563921B (en) Underwater point cloud acquisition method based on binocular camera
JP4729694B2 (en) Method and system for measuring surface shape under liquid
CN106127745A (en) The combined calibrating method of structure light 3 D visual system and line-scan digital camera and device
CN103292710A (en) Distance measuring method applying binocular visual parallax error distance-measuring principle
US10760907B2 (en) System and method for measuring a displacement of a mobile platform
KR20090064679A (en) Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors
CN114998499A (en) Binocular three-dimensional reconstruction method and system based on line laser galvanometer scanning
CN113012398A (en) Geological disaster monitoring and early warning method and device, computer equipment and storage medium
CN108399631B (en) Scale invariance oblique image multi-view dense matching method
CN105335699B (en) Read-write scene is read and write intelligent identification and the application thereof of element three-dimensional coordinate
CN105115560A (en) Non-contact measurement method for cabin capacity
CN108180888A (en) A kind of distance detection method based on rotating pick-up head
CN108062788A (en) A kind of three-dimensional rebuilding method, device, equipment and medium
CN104482921A (en) Water surface target measuring method
CN107796370A (en) For obtaining the method, apparatus and mobile mapping system of conversion parameter
CN112816967A (en) Image distance measuring method, device, distance measuring equipment and readable storage medium
JP2023505891A (en) Methods for measuring environmental topography
CN112461204B (en) Method for satellite to dynamic flying target multi-view imaging combined calculation of navigation height
CN109493378B (en) Verticality detection method based on combination of monocular vision and binocular vision
CN105354828B (en) Read and write intelligent identification and the application thereof of reading matter three-dimensional coordinate in scene

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110322

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4729694

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees