JP3907200B2 - Environmental information observation equipment - Google Patents

Environmental information observation equipment Download PDF

Info

Publication number
JP3907200B2
JP3907200B2 JP2005200288A JP2005200288A JP3907200B2 JP 3907200 B2 JP3907200 B2 JP 3907200B2 JP 2005200288 A JP2005200288 A JP 2005200288A JP 2005200288 A JP2005200288 A JP 2005200288A JP 3907200 B2 JP3907200 B2 JP 3907200B2
Authority
JP
Japan
Prior art keywords
information
image
subject
luminance
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005200288A
Other languages
Japanese (ja)
Other versions
JP2007018347A (en
Inventor
海生 范
茂 平沼
武明 蔵本
Original Assignee
株式会社ベーシックエンジニアリング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ベーシックエンジニアリング filed Critical 株式会社ベーシックエンジニアリング
Priority to JP2005200288A priority Critical patent/JP3907200B2/en
Priority to PCT/JP2006/312595 priority patent/WO2007007528A1/en
Priority to CN2006800245712A priority patent/CN101218602B/en
Publication of JP2007018347A publication Critical patent/JP2007018347A/en
Application granted granted Critical
Publication of JP3907200B2 publication Critical patent/JP3907200B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Measurement Of Levels Of Liquids Or Fluent Solid Materials (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、環境情報観測装置に関する。 The present invention relates to an environmental information observation apparatus .

特許文献1には、水面に対して垂直に量水板を設置し、係る量水板の水位目盛りを取り込んだ画像から解析して水位を計測する装置が開示されている。   Patent Document 1 discloses an apparatus for measuring a water level by installing a metered water plate perpendicular to the water surface and analyzing it from an image in which the water level scale of the metered water plate is taken.

非特許文献1には、2次元画像の座標系を3次元の地理座標に正射投影変換し、その後画像解析又は地理空間解析を行う技術が開示されている。   Non-Patent Document 1 discloses a technique for performing orthographic projection conversion of a coordinate system of a two-dimensional image into three-dimensional geographic coordinates and then performing image analysis or geospatial analysis.

特許文献2には、2次元の画像上に3次元の画像を重ね合せて表示する技術が開示されている。   Patent Document 2 discloses a technique for displaying a three-dimensional image superimposed on a two-dimensional image.

特開平8−145765号公報JP-A-8-145765 日本リモートセンシング研究会著「図解リモートセンシング」、日本測量協会、平成8年4月、p120〜220“The Illustrated Remote Sensing” by Japan Remote Sensing Study Group, Japan Surveying Association, April 1996, p120 ~ 220 特開2003−132068号公報JP 2003-132068 A

しかし、特許文献1に記載の従来技術では、量水板の水位目盛りを取り込んだ2次元画像を解析して水位を計測しているが、夜間のように照度が低下した場合には目盛りが読み難く、正確な水位を計測し難いという問題があり、量水板など標高位置を標記する物なしに水位計測できることが望まれている。   However, in the prior art described in Patent Document 1, the water level is measured by analyzing a two-dimensional image obtained by taking the water level scale of the volume water plate, but when the illuminance decreases at night, the scale is read. There is a problem that it is difficult and it is difficult to measure the accurate water level, and it is desired that the water level can be measured without an object such as a measuring water plate indicating the altitude position.

非特許文献1に記載の従来技術では、画像解析時において被写体表面における3次元空間情報を参照することができず、2次元位置情報のみしか参照できなかった。また、斜めから取得した被写体側面の2次元画像を地理座標系に正射投影変換してから、被写体側面上の輝度情報を損失される恐れがあった。よって、画像解析の精度に劣るという問題があった。   In the prior art described in Non-Patent Document 1, it is not possible to refer to the three-dimensional spatial information on the surface of the subject at the time of image analysis, and it is possible to refer only to the two-dimensional position information. In addition, there is a risk that luminance information on the side surface of the subject may be lost after orthographic projection conversion of the two-dimensional image of the side surface of the subject acquired from an oblique direction into the geographic coordinate system. Therefore, there is a problem that the accuracy of image analysis is inferior.

一方、特許文献2において、被写体の3次元形状データを2次元画像に投影して描画することはできるが、2次元画像上の被写体が写された範囲における画素に被写体の緯度、経度、標高等の属性情報を付与し又は表示できるものではなく、2次元画像上で被写体の正確な地理座標を得ることで、汎用性の高い情報処理を行うことが望まれている。   On the other hand, in Patent Document 2, it is possible to project and draw three-dimensional shape data of a subject on a two-dimensional image, but the latitude, longitude, altitude, etc. of the subject are applied to pixels in a range where the subject on the two-dimensional image is captured. It is desirable to perform highly versatile information processing by obtaining accurate geographical coordinates of a subject on a two-dimensional image.

本発明は、2次元画像に基づいて汎用性の高い情報処理を行うことができる環境情報観測装置を得ることを目的とする。 An object of this invention is to obtain the environmental information observation apparatus which can perform highly versatile information processing based on a two-dimensional image.

請求項に記載された発明は、被写体の2次元画像情報を取得する2次元画像情報取得手段と、被写体の緯度、経度、標高の群からなる3次元空間情報を取得する3次元空間情報取得手段と、2次元画像を表示する画像表示手段と、取得した2次元画像情報と3次元空間情報とを合成する画像情報合成手段と、被写体の緯度、経度、標高の群からなる属性情報を2次元画像の各画素に付与する属性情報付与手段と、各画素の輝度情報を取得する輝度情報取得手段と、被写体表面の緯度、経度、標高の群からなる被写体表面の属性情報を抽出する3次元表面情報抽出手段と、3次元表面情報抽出手段で得た被写体表面の属性情報を2次元画像上に描く属性情報描画手段と、変化曲線作成手段と、液面境界線情報抽出手段とを備え、属性情報描画手段は被写体表面上の同じ標高属性を結ぶ等高線を2次元画像上に描いており、輝度情報取得手段は2次元画像に付与された等高線毎に輝度情報を取得しており、変化曲線作成手段は取得した輝度情報に基づいて標高方向に沿う輝度情報変化曲線を作成し、液面境界線情報抽出手段は輝度情報変化曲線に基づいて被写体の液面境界線の標高情報を抽出していることを特徴とする。 The invention described in claim 1 is a two-dimensional image information acquisition unit that acquires two-dimensional image information of a subject, and three-dimensional spatial information acquisition that acquires three-dimensional spatial information including a group of latitude, longitude, and altitude of the subject. Means, image display means for displaying a two-dimensional image, image information composition means for synthesizing the acquired two-dimensional image information and three-dimensional space information, and attribute information consisting of a group of latitude, longitude, and altitude of the subject. Attribute information providing means for assigning to each pixel of a three-dimensional image, luminance information acquiring means for acquiring luminance information of each pixel , and three-dimensional extraction of subject surface attribute information consisting of a group of latitude, longitude, and altitude of the subject surface Surface information extracting means, attribute information drawing means for drawing the attribute information of the subject surface obtained by the three-dimensional surface information extracting means on the two-dimensional image, change curve creating means, and liquid surface boundary line information extracting means, Attribute information drawing The steps depict contour lines connecting the same elevation attributes on the surface of the subject on the two-dimensional image, the luminance information acquisition means acquires luminance information for each contour line given to the two-dimensional image, and the change curve creation means A luminance information change curve along the elevation direction is created based on the acquired luminance information, and the liquid surface boundary information extraction means extracts the elevation information of the liquid surface boundary of the subject based on the luminance information change curve. Features.

請求項に記載された発明は、請求項に記載の発明において、輝度情報取得手段は被写体の3次元空間情報が付与された2次元画像上の画素群から輝度情報を取得しており、被写体を連続観測する場合には、連続観測したうちの任意の3次元空間情報を特定すると共に特定した3次元空間情報が付与された画素群の各画素から輝度情報を取得していることを特徴とする。 The invention described in claim 2 is the invention according to claim 1 , wherein the luminance information acquisition means acquires luminance information from a pixel group on a two-dimensional image to which the three-dimensional spatial information of the subject is given, When continuously observing a subject, any three-dimensional spatial information among the continuously observed is specified, and luminance information is acquired from each pixel of the pixel group to which the specified three-dimensional spatial information is given. And

請求項に記載された発明によれば、作成された標高方向に沿う輝度情報変化曲線から被写体の液面境界線情報を抽出しているので、従来技術のように、目盛りの付した標尺を被写体に設置する必要がなく、液面境界線情報(水位)の観測を容易に行うことができる。また、被写体上の標高方向に沿う輝度情報変化曲線を取得してから液面境界線情報を得ているので、夜間のように低照度で目盛りや液面境界線が認識できにくい場合でも、液面の計測を精度良く行うことができる。 According to the invention described in claim 1 , since the liquid level boundary information of the subject is extracted from the created luminance information change curve along the elevation direction, the scale with the scale as in the prior art is used. There is no need to install it on the subject, and liquid level boundary information (water level) can be easily observed. In addition, since the liquid level boundary information is obtained after obtaining the luminance information change curve along the elevation direction on the subject, even if the scale and liquid level boundary line are difficult to recognize at low illumination such as at night Surface measurement can be performed with high accuracy.

請求項に記載された発明によれば、請求項に記載の発明と同様の効果を奏すると共に、被写体を連続観測する際には、特定した3次元空間情報が付与された画素群の各画素から輝度情報を取得することにより、画像を取得する毎に3次元空間情報に関連する画素群を特定する画像情報合成を行う必要がなく、3次元空間情報ごとに輝度情報の計算が簡易になり、高速での画像処理が可能となる。 According to the invention described in claim 2, with the same effect as the invention described in claim 1, when the continuous observation of the subject, each of pixel group 3-dimensional spatial information specified is assigned By acquiring luminance information from pixels, it is not necessary to perform image information synthesis for specifying a pixel group related to three-dimensional spatial information every time an image is acquired, and calculation of luminance information can be easily performed for each three-dimensional spatial information. Thus, high-speed image processing becomes possible.

以下に、添付図面を参照して、本発明の実施の形態を詳細に説明する。図1は本発明の第1実施の形態に係る画像処理装置を用いた水位計測装置において、管理センタのモニタ画面に表示されるデジタル画像を示す図、図2は図1に示すデジタル画像に等高線を描いた状態を示す図、図3は橋脚に係る水位を監視カメラで撮影している状態を示す斜視図、図4は属性情報をデジタル画像に付与する動作を説明する図、図5は本実施の形態に係る水位計測装置の制御ブロック図、図6は標高方向に沿う輝度情報変化曲線の作成原理を示す図、図7は平均輝度変化曲線の特徴部分を示すグラフ、図8は平均輝度変化曲線から河川水位情報を抽出する際の他の実施例について説明するグラフ、図9は等高線上の輝度情報を取得する方法について説明する図、図10はデジタル画像上の1点における画像輝度割合値の算出方法について説明する図、図11は管理センタのモニタ画面に表示される平均輝度変化曲線のウインドウ画面を示した図、図12は画像処理装置を用いた水位計測装置の全体を示す斜視図である。   Embodiments of the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1 is a diagram showing a digital image displayed on the monitor screen of the management center in the water level measurement device using the image processing device according to the first embodiment of the present invention, and FIG. 2 is a contour line on the digital image shown in FIG. FIG. 3 is a perspective view showing a state in which the water level related to the pier is being photographed by a monitoring camera, FIG. 4 is a diagram for explaining the operation of adding attribute information to a digital image, and FIG. 6 is a control block diagram of the water level measurement device according to the embodiment, FIG. 6 is a diagram showing the principle of creating a luminance information change curve along the elevation direction, FIG. 7 is a graph showing the characteristic part of the average luminance change curve, and FIG. FIG. 9 is a diagram for explaining a method for obtaining luminance information on contour lines, and FIG. 10 is an image luminance ratio at one point on a digital image. Value calculation FIG. 11 is a view showing a window screen of an average luminance change curve displayed on the monitor screen of the management center, and FIG. 12 is a perspective view showing the whole water level measuring device using an image processing device. .

本実施形態に係る水位計測装置(環境情報観測装置)1は、図12に示すように、河川等の水位計測に用いられる物であり、河川敷に設けられた複数の監視カメラ3と、各監視カメラ3をつなぐケーブル4と、ケーブル4に接続されて監視カメラ3の情報を逐次監視する管理センタ5とを備えている。監視カメラ3では被写体2のデジタル画像(2次元画像情報)を取得する。   A water level measurement device (environmental information observation device) 1 according to the present embodiment, as shown in FIG. 12, is an object used for water level measurement of a river or the like, and includes a plurality of monitoring cameras 3 provided on the riverbed and each monitoring. A cable 4 for connecting the camera 3 and a management center 5 connected to the cable 4 and sequentially monitoring information of the monitoring camera 3 are provided. The surveillance camera 3 acquires a digital image (two-dimensional image information) of the subject 2.

図5において、管理センタ5は監視カメラ3からの信号を受ける受信装置11(2次元画像情報取得手段11a)と、受信装置11に接続された画像処理部13とを備えている。画像処理部13はCPU15、モニタ画面(画像表示手段)17、データ保存媒体19、プログラム記憶部23、インターフェース(I/F)25等を備えている。   In FIG. 5, the management center 5 includes a receiving device 11 (two-dimensional image information acquisition unit 11 a) that receives a signal from the monitoring camera 3 and an image processing unit 13 connected to the receiving device 11. The image processing unit 13 includes a CPU 15, a monitor screen (image display means) 17, a data storage medium 19, a program storage unit 23, an interface (I / F) 25, and the like.

監視カメラ3にはレンズ、撮像板、画像処理回路などが内蔵されており、その下部に設けた付属設備にはコントローラ、通信装置などが内蔵され、カメラ画像処理回路とコントローラが画像信号線と制御信号線を含むケーブル4を介して管理センタ5に接続されている。   The surveillance camera 3 incorporates a lens, an imaging board, an image processing circuit, and the attached equipment provided below the surveillance camera 3 incorporates a controller, a communication device, and the like, and the camera image processing circuit and the controller control the image signal lines. It is connected to the management center 5 via a cable 4 including a signal line.

CPU(中央演算処理装置)15はプログラム記憶部23に記憶された各プログラム27〜33に従って各種の処理を実行するようになっている。監視カメラ3の映像信号を取り込んだ受信装置11から、デジタル画像の電子データがデータ保存媒体19に送信される。係る電子データは主メモリに読み込んでから、インターフェース25を介して解析される。解析結果データは画像表示部17に表示されると共にデータ保存媒体19に保存される。   A CPU (central processing unit) 15 executes various processes according to the programs 27 to 33 stored in the program storage unit 23. Electronic data of a digital image is transmitted to the data storage medium 19 from the receiving device 11 that has captured the video signal of the monitoring camera 3. Such electronic data is read into the main memory and then analyzed via the interface 25. The analysis result data is displayed on the image display unit 17 and stored in the data storage medium 19.

プログラム記憶部23は、取得したデジタル画像と被写体の3次元空間情報とを合成する画像情報合成部(画像情報合成手段)26、被写体2の緯度、経度、標高の群からなる属性情報を表示されたデジタル画像の各画素に付与する属性情報付与部(属性情報付与手段)27、各画素の輝度情報を取得する輝度情報取得部(輝度情報取得手段)29、輝度情報に基づいて物の種類や状態を判別する物性判別部(物性判別手段)28、被写体表面の緯度、経度、標高の群からなる3次元表面情報を抽出する3次元表面情報抽出部(3次元表面情報抽出手段)32、3次元表面情報抽出部で得た被写体表面の属性情報を2次元画像上に描く属性情報描画部(属性情報描画手段)30を備えている。 The program storage unit 23 displays an attribute information composed of a group of latitude, longitude, and altitude of the subject 2, an image information synthesis unit (image information synthesis unit) 26 that synthesizes the acquired digital image and the three-dimensional spatial information of the subject. An attribute information adding unit (attribute information adding unit) 27 for applying to each pixel of the digital image, a luminance information acquiring unit (luminance information acquiring unit) 29 for acquiring luminance information of each pixel , A physical property discriminating unit (physical property discriminating unit) 28 for discriminating a state, a three-dimensional surface information extracting unit (three-dimensional surface information extracting unit) 32, 3 for extracting three-dimensional surface information consisting of a group of latitude, longitude and altitude of the subject surface that it has the attribute information drawing section (attribute information drawing means) 30 for drawing the attribute information of the obtained object surface dimension surface information extraction section on the two-dimensional image.

特に、属性情報描画部30は、被写体上の同じ標高属性を結ぶ等高線を描いており、輝度情報取得部29はデジタル画像に付与された等高線毎に輝度情報を取得しており、取得した輝度情報に基づいて輝度情報変化曲線を作成する変化曲線作成部(変化曲線作成手段)35と、輝度情報変化曲線に基づいて被写体2の液面境界線の標高情報を抽出する液面境界線情報抽出部(液面境界線情報抽出手段)37とを備える。   In particular, the attribute information drawing unit 30 draws contour lines connecting the same elevation attributes on the subject, and the luminance information acquisition unit 29 acquires luminance information for each contour line added to the digital image, and the acquired luminance information A change curve creation unit (change curve creation means) 35 that creates a luminance information change curve based on the brightness information, and a liquid level boundary line information extraction unit that extracts elevation information of the liquid level boundary line of the subject 2 based on the brightness information change curve (Liquid surface boundary line information extracting means) 37.

次に、本実施の形態に係る画像処理装置を用いた水位計測装置の作用及び効果を説明する。図3に示すように、河川敷に固定された監視カメラ3によって被写体2の画像を取得する。取得した画像はケーブル4を介して管理センタ5に送信される。取得した被写体2の画像信号は受信装置11からデータ保存媒体19に保存されると共に管理センタ5内のモニタ画面17に表示される。   Next, the operation and effect of the water level measurement apparatus using the image processing apparatus according to the present embodiment will be described. As shown in FIG. 3, an image of the subject 2 is acquired by the monitoring camera 3 fixed to the riverbed. The acquired image is transmitted to the management center 5 via the cable 4. The acquired image signal of the subject 2 is stored in the data storage medium 19 from the receiving device 11 and displayed on the monitor screen 17 in the management center 5.

取得したデジタル画像と3次元空間情報との合成は、公知の写真測量手段(村井俊治、「解析写真測量-改訂版」、日本測量協会、平成12年)を用いており、図4に示すような被写体の3次元表面モデルを用いて、監視カメラ3の空間位置や、カメラ姿勢、カメラレンズ焦点距離値等のパラメータを取得してから3次元空間座標を2次元画像座標系に変換し、指定した3次元空間座標位置に対応した2次元画像座標位置を計算できる。同時に、この時モニタ画面17に表示されたデジタル画像には属性情報付与部27によって被写体2の緯度、経度、標高の属性情報がデジタル画像の各画素に付与される。   The synthesis of the acquired digital image and the three-dimensional spatial information uses a well-known photogrammetry means (Shunji Murai, “Analytical Photogrammetry-Revised Edition”, Japan Surveying Association, 2000), as shown in FIG. Using a 3D surface model of a simple subject, parameters such as the spatial position, camera posture, and camera lens focal length value of the surveillance camera 3 are acquired, and then the 3D space coordinates are converted into a 2D image coordinate system for specification. A two-dimensional image coordinate position corresponding to the three-dimensional space coordinate position can be calculated. At the same time, the attribute information providing unit 27 adds the latitude, longitude, and altitude attribute information of the subject 2 to each pixel of the digital image to the digital image displayed on the monitor screen 17 at this time.

次に、デジタル画像上で範囲を指定することで、係る範囲に一定間隔の等高線10が描かれる。すなわち、デジタル画像上で所定範囲を指定すると、公知の手段として被写体2の3次元表面モデルを用いて被写体の表面上に所定高さ毎の等高線10が取得してから、被写体の3次元表面モデルを用いてCG(Computer Graphic)画像を作成し、作成されたCG画像上に等高線10を描く。前述の監視カメラ3によって取り込まれたデジタル画像は、理論的にCG画像と同じ座標系を持っている。従って、被写体の3次元表面モデルに基づき作成された等高線10は、デジタル画像上にも描かれる。   Next, by designating a range on the digital image, contour lines 10 at regular intervals are drawn in the range. That is, when a predetermined range is designated on the digital image, the contour line 10 for each predetermined height is acquired on the surface of the subject using the three-dimensional surface model of the subject 2 as a known means, and then the three-dimensional surface model of the subject. A CG (Computer Graphic) image is created using, and the contour line 10 is drawn on the created CG image. The digital image captured by the monitoring camera 3 described above theoretically has the same coordinate system as the CG image. Accordingly, the contour line 10 created based on the three-dimensional surface model of the subject is also drawn on the digital image.

次にデジタル画像から輝度情報を取得し、係る輝度情報から河川水位を特定する方法について説明する。属性情報描画部30により、デジタル画像上に等高線10が描かれると、次に画像処理部13の輝度情報取得部29によりデジタル画像から被写体表面の輝度情報が取得される。輝度情報は等高線10毎に平均輝度値が求められ、標高方向沿いの平均輝度変化曲線(輝度情報の連続データ曲線)のグラフが作成される。図6は平均輝度変化曲線を示すグラフであり、図6中X軸は標高値を示し、Y軸は被写体(橋脚の一部)2に描かれた等高線10の平均輝度値を示している。   Next, a method for acquiring luminance information from a digital image and specifying a river water level from the luminance information will be described. When the contour line 10 is drawn on the digital image by the attribute information drawing unit 30, the luminance information on the subject surface is acquired from the digital image by the luminance information acquisition unit 29 of the image processing unit 13. As the luminance information, an average luminance value is obtained for each contour line 10, and a graph of an average luminance change curve (continuous data curve of luminance information) along the elevation direction is created. FIG. 6 is a graph showing an average luminance change curve. In FIG. 6, the X axis indicates the altitude value, and the Y axis indicates the average luminance value of the contour line 10 drawn on the subject (a part of the pier).

上述の平均輝度変化曲線から、河川水位に対応する等高線10の位置を検出する手法の基本的な考え方は、平均輝度変化曲線において水を検出すると急激な輝度の減衰が起きるところにある。従って、平均輝度変化曲線から河川水位に対応するローカルパターン(形状)の位置を検出することによって、デジタル画像から河川水位を検出することが可能となる。   The basic idea of the method of detecting the position of the contour line 10 corresponding to the river water level from the above-described average luminance change curve is that when the water is detected in the average luminance change curve, a rapid luminance attenuation occurs. Therefore, by detecting the position of the local pattern (shape) corresponding to the river water level from the average luminance change curve, it becomes possible to detect the river water level from the digital image.

ここで、デジタル画像から輝度情報を取得する原理について説明する。上述したように、標高表示部30において被写体の3次元表面モデルから等高線を作成すると共に、輝度情報取得部29において等高線上の輝度情報を収集する。画像座標系に変換される等高線の形状は図9に示すように、黒点の集合{P|P1,…,Pk,…PN}によって決められる。 次いで等高線と位置的に関連する画素を把握し、デジタル画像座標系における等高線の点Pkの画像輝度割合値Vpkを算出する。 Here, the principle of acquiring luminance information from a digital image will be described. As described above, the elevation display unit 30 creates contour lines from the three-dimensional surface model of the subject, and the luminance information acquisition unit 29 collects luminance information on the contour lines. Shape contours to be converted into an image coordinate system, as shown in FIG. 9, a set of black spot {P | P 1, ..., P k, ... P N} is determined by. Next, the pixel positionally related to the contour line is grasped, and the image luminance ratio value Vpk of the contour line point P k in the digital image coordinate system is calculated.

図10は画像輝度割合値の算出方法の一例を示しており、図に示すように四方形a−b−c−dは、点Pkを中心とした輝度値を取得する有効な範囲を示している。尚、四方形サイズはデジタル画像の一画素と一致し、四方形a−b−c−dと近隣する九つの画素は、点Pkと位置的に関連する画素群である。また、式(1)中、Vi bは関連画素iの指定バンドBの輝度値であり、APiは画素iの四方形a−b−c−dに占める面積の比率である。そして、画像輝度割合値に基づき、下記式(2)に示す等高線LZiの画像平均輝度値MVl(zi)を算出する。 FIG. 10 shows an example of a method for calculating the image luminance ratio value. As shown in the figure, the square ab-cd shows an effective range for acquiring the luminance value centered on the point P k. ing. Note that the quadrangle size matches one pixel of the digital image, and the nine pixels adjacent to the quadrangle abcd are pixel groups that are positionally related to the point Pk . In Expression (1), V i b is the luminance value of the designated band B of the related pixel i, and AP i is the ratio of the area occupied by the pixel i in the quadrangular abcd. Then, based on the image luminance ratio value, an image average luminance value MV l (zi) of the contour line L Zi shown in the following formula (2 ) is calculated.

Figure 0003907200
Figure 0003907200

Figure 0003907200
次に、3次元空間情報毎に輝度情報を取得する際の高速処理方法について説明する。上述したように、上記式(1)に基づいて画像輝度割合値を算出し、上記式(2)に基づいて特定された画素群の輝度情報から画像平均輝度値を算出している。定点観測において、連続的に輝度情報を算出する場合には、3次元空間情報と位置的に関連する画素群の各画素から輝度情報を算出することができる。すなわち、観測時間及び被写体表面の輝度値情報を除き、一時メモリ内に記憶されている3次元空間情報と関連する画素群間の相対位置関係を記録する各パラメータが固定されている(上述の式(1)及び式(2)中、バンド輝度パラメータVi bを除き、全てのパラメータは固定している)。つまり、固定された撮像手段から取得される時系列なデジタル画像を処理する場合において、新しい画像を読み込む毎に、上述のパラメータを繰り返し計算するのではなく、輝度情報パラメータのみ式に代入して画像解析結果を算出できるので、デジタル画像の高速処理を実現することができる。
Figure 0003907200
Next, a high-speed processing method when acquiring luminance information for each three-dimensional space information will be described. As described above, the image luminance ratio value is calculated based on the equation (1), and the image average luminance value is calculated from the luminance information of the pixel group specified based on the equation (2). When the luminance information is continuously calculated in the fixed point observation, the luminance information can be calculated from each pixel of the pixel group that is positionally related to the three-dimensional space information . That is, except for the observation time and the luminance value information on the subject surface, each parameter for recording the relative positional relationship between the pixel groups related to the three-dimensional spatial information stored in the temporary memory is fixed (the above formula) In (1) and (2), all parameters are fixed except for the band luminance parameter V i b ). That is, when processing a time-series digital image acquired from a fixed imaging means, instead of repeatedly calculating the above parameters every time a new image is read, only the luminance information parameter is substituted into the equation. Since the analysis result can be calculated, high-speed processing of the digital image can be realized.

図7は平均輝度変化曲線の特徴部分を示すグラフであり、係る特徴部分の波形パターンを検出して、河川水位を検出している。係る特徴部分の波形を定量化するため波形パターンのパラメータを定義しており、各パラメータの計算式を用いて平均輝度変化曲線上の指定区間におけるパターンを定量的に計算できる。尚、図中に示すパラメータは波形を定量化するための一例であり、その他のパラメータを用いても良い。図中の各パラメータの定義は次の通りである。B:区間の最低輝度値の位置、BL:区間の左側限界点、BR:区間の右側限界点、TL:BとBL間の最高輝度値の位置、TR:BとBR間の最高輝度値の位置、ap:点pにおける曲線の傾斜角、aL:線分TL―Bの傾斜角、aR:線分TR―Bの傾斜角。 FIG. 7 is a graph showing the characteristic portion of the average luminance change curve, and the river pattern is detected by detecting the waveform pattern of the characteristic portion. Waveform pattern parameters are defined in order to quantify the waveform of such a characteristic portion, and a pattern in a specified section on the average luminance change curve can be quantitatively calculated using a calculation formula for each parameter. The parameters shown in the figure are examples for quantifying the waveform, and other parameters may be used. The definition of each parameter in the figure is as follows. B: position of the lowest luminance value in the section, B L : left limit point of the section, B R : right limit point of the section, T L : position of the highest luminance value between B and B L , T R : B and B R Where: ap is the slope angle of the curve at the point p, aL is the slope angle of the line segment T L -B, and aR is the slope angle of the line segment T R -B.

次に、液面境界線情報抽出部37では一定区間を指定して平均輝度変化曲線をスキャニングし、スキャニングした区間における曲線のパラメータから、上述の事前に定義したモデル曲線形状と最も相関する区間を検出する。更に、事前に定義した曲線特徴を参照して、検出された区間から最も相関する標高位置を検出する。このように河川のデジタル画像を用いた画像解析により河川水位情報を検出することができる。尚、輝度情報は等高線10毎に平均輝度値を求めているので、水平方向の観測幅は長くなればなるほど、等高線10に代表された被写体表面上の水平線方向の輝度情報を強調でき、デジタル画像上のノイズを効果的に削除できる。   Next, the liquid surface boundary line information extraction unit 37 scans the average luminance change curve by designating a certain section, and determines the section most correlated with the above-defined model curve shape from the parameters of the curve in the scanned section. To detect. Further, the most correlated elevation position is detected from the detected section with reference to the previously defined curve feature. In this way, river water level information can be detected by image analysis using a digital image of a river. Since the luminance information obtains the average luminance value for each contour line 10, the longer the horizontal observation width is, the more the luminance information in the horizontal direction on the surface of the subject represented by the contour line 10 can be emphasized. The above noise can be effectively removed.

このように、デジタル画像から得た輝度情報に基づいて河川水位を求めることができるので、気象条件の違い(特に夜間における照度の低下)によって、画像が読み取り難くなる場合であっても、容易且つ精度良く河川水位を求めることが可能になる。   Thus, since the river water level can be obtained based on the luminance information obtained from the digital image, even if the image becomes difficult to read due to a difference in weather conditions (especially a decrease in illuminance at night), It becomes possible to obtain the river water level with high accuracy.

また、被写体2の緯度、経度、標高等の属性情報がデジタル画像の各画素に付与されるので、モニタ画面によって表示される画面において各画素のより正確な地理座標を得ることができ、より精度の高い画像解析が可能となる。   Further, since the attribute information such as the latitude, longitude, altitude, etc. of the subject 2 is given to each pixel of the digital image, more accurate geographical coordinates of each pixel can be obtained on the screen displayed by the monitor screen, and more accurate High image analysis.

尚、水位観測場所における地面被覆状況によっては、平均輝度変化曲線の特徴が異なる場合もあり、上述した波形のパラメータを調整することにより、河川水位情報を抽出する際の場所制限は特にないと考えられる。   Note that the characteristics of the average luminance change curve may vary depending on the ground cover situation at the water level observation location, and there is no particular limitation on the location when extracting river water level information by adjusting the above-mentioned waveform parameters. It is done.

次に、河川水位情報を抽出する際の他の実施例について図8を用いて説明する。本実施例では輝度情報を経時的に計測したデータを蓄積する輝度情報蓄積部33(図5参照)を備え、物性判別部28において輝度情報蓄積部33に蓄積された輝度情報に基づき河川水位を判別している。   Next, another embodiment when extracting river water level information will be described with reference to FIG. In this embodiment, a luminance information storage unit 33 (see FIG. 5) for storing data obtained by measuring luminance information over time is provided, and the river level is determined based on the luminance information stored in the luminance information storage unit 33 in the physical property determination unit 28. Judging.

具体的には、時刻(T1)と(T1+Δt)におけるデジタル画像から、被写体表面上の標高方向沿いの平均輝度変化曲線を別々に算出する(40a、40b)。次いで、輝度情報蓄積部33に蓄積された時刻(T1)における輝度情報に基づき、時刻(T1)の水位に対応したローカル曲線パターンを参照して、時刻(T1+Δt)の曲線から形状が最も相関する曲線区間を抽出する。この抽出した区間内における平均輝度の最小値に対応する標高位置が時刻(T1+Δt)の水位と考えられる。このように、輝度情報蓄積手段33に蓄積された過去の輝度情報に基づき河川水位を測定しているので、予め入力したデータに基づいて河川水位を測定する場合に比べて、より精度の高い測定を行うことができる。   Specifically, an average luminance change curve along the elevation direction on the surface of the subject is separately calculated from the digital images at times (T1) and (T1 + Δt) (40a, 40b). Next, referring to the local curve pattern corresponding to the water level at time (T1) based on the luminance information at time (T1) accumulated in the luminance information accumulation unit 33, the shape is most correlated from the curve at time (T1 + Δt). Extract curve sections. The altitude position corresponding to the minimum value of the average luminance in the extracted section is considered as the water level at time (T1 + Δt). As described above, since the river water level is measured based on the past luminance information accumulated in the luminance information accumulating means 33, the measurement with higher accuracy than the case where the river water level is measured based on the previously input data. It can be performed.

図11はモニタ画面に表示される平均輝度変化曲線のウインドウ画面を示した図である。図11に示すように、ウインドウ画面上には平均輝度変化曲線が経時的に表示されていると共に、ウインドウ画面の下側部分には平均輝度変化曲線から河川水位を特定するための各パラメータが表示されるようになっている。また物性判別部28によって算出された河川水位は平均輝度変化曲線のグラフ上に表示(図11中Eに示す)されるようになっている。   FIG. 11 is a diagram showing a window screen of an average luminance change curve displayed on the monitor screen. As shown in FIG. 11, an average luminance change curve is displayed over time on the window screen, and parameters for specifying the river water level from the average luminance change curve are displayed at the lower part of the window screen. It has come to be. The river water level calculated by the physical property determination unit 28 is displayed on the graph of the average luminance change curve (shown by E in FIG. 11).

更に、本発明に係る水位計測装置1には計測した水位が予め設定された水位(例えば、図11中Fに示す)標高を超えた場合には水位の測定頻度を高めるようにしても良い。   Furthermore, in the water level measuring apparatus 1 according to the present invention, when the measured water level exceeds a preset water level (for example, indicated by F in FIG. 11), the frequency of measuring the water level may be increased.

このように、計測している水位が予め設定した標高以上になった場合に河川水位の測定頻度を高めるようにしているので、リアルタイムで水位情報を得ることで、例えば警戒警報の発令やダムの放流による河川流量の調整等、適切且つ迅速な対応が可能となる。   In this way, when the measured water level is higher than the preset altitude, the measurement frequency of the river water level is increased, so by obtaining water level information in real time, for example, issuing warning warnings or dams Appropriate and quick response is possible, such as adjustment of river flow by discharge.

次に、他の実施の形態を説明するが、以下の説明において、上述した第1実施の形態と同一の作用効果を奏する部分には同一の符号を付することにより、その部分の詳細な説明を省略し、以下の説明では上述の第1実施の形態と異なる点を主に説明する。図13〜図15を用いて第2実施の形態を説明する。第2実施の形態は、本発明に係る画像処理装置を植物等の生育状況を観測する生育情報観測装置(環境情報観測装置)として用いている。図13は観測対象となる農地を示す平面図であり、農地に監視カメラを設置した状態を示す図、図14は監視カメラの姿勢を変えて観測対象を向いている様子を示す図、図15はデジタル画像に属性情報を付した状態を示す図である。   Next, other embodiments will be described. In the following description, parts having the same functions and effects as those of the first embodiment described above are denoted by the same reference numerals, and detailed description of the parts is given. In the following description, differences from the first embodiment will be mainly described. A second embodiment will be described with reference to FIGS. In the second embodiment, the image processing apparatus according to the present invention is used as a growth information observation apparatus (environment information observation apparatus) for observing the growth status of plants and the like. FIG. 13 is a plan view showing the farmland to be observed, and shows a state in which a surveillance camera is installed on the farmland. FIG. 14 shows a state in which the attitude of the surveillance camera is changed to face the observation object. FIG. 4 is a diagram illustrating a state in which attribute information is attached to a digital image.

第2実施の形態では、監視カメラ3におけるカメラ部分が水平方向に対して上下及び左右に回転可能になっており、係るカメラ部分は管理センタ5等の制御室において遠隔操作できるようになっている、また、監視カメラ3で取り込んだ画像データについて無線で管理センタ5に送信している。   In the second embodiment, the camera portion of the surveillance camera 3 can be rotated up and down and left and right with respect to the horizontal direction, and the camera portion can be remotely operated in a control room such as the management center 5. Also, the image data captured by the monitoring camera 3 is transmitted to the management center 5 wirelessly.

画像処理部13では、既存の農地区分用の空間データ、地表面の3次元表面モデル、カメラの3次元空間位置を用いて、所望の観測対象が画像中心となるようにカメラの姿勢パラメータを算出する。図13に示すようなモニタ画面上において、複数に区分けされた農地の中から任意の1つの区分50を観測対象として選択し、選択した区分の地理中心Wと、カメラ姿勢の方位角を決める。また、図14に示すように選択した区分の地理中心Wと監視カメラ3の三次元地理空間位置から、カメラ姿勢のピッチ角βを算出する。   The image processing unit 13 uses the existing spatial data for agricultural districts, the three-dimensional surface model of the ground surface, and the three-dimensional spatial position of the camera to calculate the camera posture parameters so that the desired observation target is the image center. To do. On the monitor screen as shown in FIG. 13, an arbitrary section 50 is selected from among a plurality of farmlands divided as observation targets, and the geographic center W of the selected section and the azimuth angle of the camera posture are determined. Further, as shown in FIG. 14, the pitch angle β of the camera posture is calculated from the geographical center W of the selected section and the three-dimensional geospatial position of the monitoring camera 3.

本実施の形態では、物性判別部28は2次元画像の輝度情報に基づき被写体2の空間データを特定すると共に、判別した物性情報を特定した空間データに付与している。 In the present embodiment , the physical property determination unit 28 specifies the spatial data of the subject 2 based on the luminance information of the two-dimensional image and assigns the determined physical property information to the specified spatial data.

農地を観測する際、監視カメラ3で取り込んだ画像は管理センタ5に送信され、送信された画像データは通信装置を介してデータ保存媒体19に電子ファイルにて保存する。次に、デジタル画像を主メモリに読み込み、第1実施の形態で説明した輝度情報取得部29によってデジタル画像から輝度情報を取得している。   When observing the farmland, the image captured by the monitoring camera 3 is transmitted to the management center 5, and the transmitted image data is stored as an electronic file in the data storage medium 19 via the communication device. Next, the digital image is read into the main memory, and the luminance information acquisition unit 29 described in the first embodiment acquires luminance information from the digital image.

本実施の形態では、特定した空間データ60とデジタル画像から取得された物性情報とが関連づけられることで、空間データ60毎にデジタル画像を用いて農地の状態を判別することができる。 In the present embodiment, the state of the farmland can be determined using the digital image for each spatial data 60 by associating the specified spatial data 60 with the physical property information acquired from the digital image.

次に図16及び図17を用いて第3実施の形態について説明する。図16は第3実施の形態に係る環境情報観測装置を示す図であり、(a)は被写体である山腹をデジタルカメラで撮影した状態を示す図、(b)は植物の生育部分と生育していない部分とのデジタル画像における境界線を抜き出して示す図、図17は第3実施の形態に係る環境情報観測装置を示す図であり、(a)は図16で取得したデジタル画像の植物の生育部分に色を付した状態を示す図、(b)は植物の生育部分と生育していない部分との地理座標系における境界線を抜き出して示す図である。   Next, a third embodiment will be described with reference to FIGS. 16A and 16B are diagrams showing an environment information observation apparatus according to the third embodiment. FIG. 16A is a diagram showing a state where a hillside as a subject is photographed with a digital camera, and FIG. FIG. 17 is a diagram illustrating an environment information observation apparatus according to the third embodiment, and FIG. 17A is a diagram illustrating a plant of the digital image acquired in FIG. 16. The figure which shows the state which attached the color to the growth part, (b) is a figure which extracts and shows the boundary line in the geographic coordinate system of the growth part of a plant, and the part which is not growing.

第3実施の形態では、監視カメラ3で被写体2である山腹のデジタル画像を取得し、取得したデジタル画像を管理センタ5に送信している。画像処理部13の物性判別部28はデジタル画像の輝度情報に基づいて被写体2上の境界線(形状データ)45を取得しており(図17(b))、その後、属性情報付与部27により境界線45に3次元空間情報を付与し、3次元空間情報を付与した形状データに従って3次元境界線データ(空間データ)46を作成する(図16(b))。   In the third embodiment, a digital image of the mountainside that is the subject 2 is acquired by the monitoring camera 3, and the acquired digital image is transmitted to the management center 5. The physical property discriminating unit 28 of the image processing unit 13 acquires the boundary line (shape data) 45 on the subject 2 based on the luminance information of the digital image (FIG. 17B). Three-dimensional spatial information is given to the boundary line 45, and three-dimensional boundary line data (spatial data) 46 is created according to the shape data to which the three-dimensional spatial information is given (FIG. 16B).

このように、3次元空間情報を付与した被写体2上の境界線(形状データ)45に従って3次元境界線データ46(空間データ)を作成しているので、従来のデジタル画像を用いた空間データ作成手法に比べて、計算量を抑えることができ、画像処理速度の高速化を図ることができる。   In this way, since the three-dimensional boundary data 46 (spatial data) is created in accordance with the boundary line (shape data) 45 on the subject 2 to which the three-dimensional spatial information is given, spatial data creation using a conventional digital image is performed. Compared with the technique, the amount of calculation can be reduced, and the image processing speed can be increased.

尚、本発明は、前述した実施形態に限定されることなく、その要旨を逸脱しない範囲で種々変形して実施できることは言うまでもない
第1実施の形態において、監視カメラ3は河川敷に設置したが、これに限定されずダム等に設置してダム水位を測定するようにしても良い。
The present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the scope of the invention. In the first embodiment, the surveillance camera 3 is installed on a riverbed. It is not limited to this, It may install in a dam etc. and you may make it measure a dam water level.

更に、監視カメラ3を山に向けて設置して、火山の噴火時に発生する溶岩流等の液面を測定するものであっても良い。   Furthermore, the monitoring camera 3 may be installed facing a mountain to measure the liquid level of a lava flow or the like generated during a volcanic eruption.

本発明に係る環境情報観測装置1はテーマパークやショッピングセンタの駐車場に設置しても良い。この場合、撮影したデジタル画像の輝度情報から駐車スペースの空車位置を特定することができる。   The environmental information observation apparatus 1 according to the present invention may be installed in a parking lot of a theme park or a shopping center. In this case, the empty position of the parking space can be specified from the luminance information of the captured digital image.

上述の第3の実施形態では、監視カメラ3を用いず、GPS機能を搭載した携帯型のカメラを用いて撮影し、撮影したデジタル画像データを別途に画像処理するようにしても良い。   In the third embodiment described above, the monitoring camera 3 may not be used, but a portable camera equipped with a GPS function may be used for image processing, and the captured digital image data may be processed separately.

本発明の第1実施の形態に係る画像処理装置を用いた水位計測装置において、管理センタのモニタ画面に表示されるデジタル画像を示す図である。It is a figure which shows the digital image displayed on the monitor screen of a management center in the water level measurement apparatus using the image processing apparatus which concerns on 1st Embodiment of this invention. 図1に示すデジタル画像に等高線を描いた状態を示す図である。It is a figure which shows the state which drawn the contour line in the digital image shown in FIG. 橋脚に係る水位を監視カメラで撮影している状態を示す斜視図である。It is a perspective view which shows the state which is image | photographing the water level which concerns on a pier with the surveillance camera. 属性情報をデジタル画像に付与する動作を説明する図である。It is a figure explaining the operation | movement which provides attribute information to a digital image. 本実施の形態に係る水位計測装置の制御ブロック図である。It is a control block diagram of the water level measuring device according to the present embodiment. 標高方向に沿う輝度情報変化曲線の作成原理を示す図である。It is a figure which shows the preparation principle of the luminance information change curve along an altitude direction. 平均輝度変化曲線の特徴部分を示すグラフである。It is a graph which shows the characteristic part of an average luminance change curve. 平均輝度変化曲線から河川水位情報を抽出する際の他の実施例について説明するグラフである。It is a graph explaining the other Example at the time of extracting river water level information from an average luminance change curve. 等高線上の輝度情報を取得する方法について説明する図である。It is a figure explaining the method to acquire the luminance information on a contour line. デジタル画像上の1点における画像輝度割合値の算出方法について説明する図である。It is a figure explaining the calculation method of the image luminance ratio value in one point on a digital image. 管理センタのモニタ画面に表示される平均輝度変化曲線のウインドウ画面を示した図である。It is the figure which showed the window screen of the average luminance change curve displayed on the monitor screen of a management center. 画像処理装置を用いた水位計測装置の全体を示す斜視図である。It is a perspective view showing the whole water level measuring device using an image processing device. 第2実施の形態に係る生育情報観測装置において、観測対象となる農地に監視カメラを設置した状態を示す平面図である。In the growth information observation apparatus which concerns on 2nd Embodiment, it is a top view which shows the state which installed the monitoring camera in the farmland used as observation object. 図13に示す生育情報観測装置において、監視カメラの姿勢を変えて観測対象を指定する様子を向いている様子を示す斜視図である。In the growth information observation apparatus shown in FIG. 13, it is a perspective view which shows a mode that it has turned to the state which changes the attitude | position of a monitoring camera and designates an observation object. 図13に示す生育情報観測装置において、デジタル画像に属性情報を付した状態を示す斜視図である。It is a perspective view which shows the state which attached | subjected the attribute information to the digital image in the growth information observation apparatus shown in FIG. 第3実施の形態に係る環境情報観測装置を示す図であり、(a)は被写体である山腹をデジタルカメラで撮影した状態を示す図、(b)は植物の生育部分と生育していない部分とのデジタル画像における境界線を抜き出して示す図である。It is a figure which shows the environmental information observation apparatus which concerns on 3rd Embodiment, (a) is a figure which shows the state which image | photographed the mountainside which is a to-be-photographed object with the digital camera, (b) is a plant growing part and the part which is not growing FIG. 第3実施の形態に係る環境情報観測装置を示す図であり、(a)は図16で取得したデジタル画像の植物の生育部分に色を付した状態を示す図、(b)は植物の生育部分と生育していない部分との地理座標系における境界線を抜き出して示す図である。It is a figure which shows the environmental information observation apparatus which concerns on 3rd Embodiment, (a) is a figure which shows the state which attached | subjected the color to the growth part of the plant of the digital image acquired in FIG. 16, (b) is the growth of a plant It is a figure which extracts and shows the boundary line in the geographic coordinate system of a part and the part which is not growing.

符号の説明Explanation of symbols

1 環境情報観測装置
17 画像表示部
26 画像情報合成部
27 属性情報付与部
28 物性判別部
29 輝度情報取得部
30 属性情報描画部
32 3次元表面情報抽出部
33 画像情報蓄積部
35 変化曲線作成部
37 液面境界線情報抽出部
DESCRIPTION OF SYMBOLS 1 Environment information observation apparatus 17 Image display part 26 Image information synthetic | combination part 27 Attribute information provision part 28 Physical property discrimination | determination part 29 Luminance information acquisition part 30 Attribute information drawing part 32 3D surface information extraction part 33 Image information storage part 35 Change curve creation part 37 Liquid surface boundary line information extraction unit

Claims (2)

被写体の2次元画像情報を取得する2次元画像情報取得手段と、被写体の緯度、経度、標高の群からなる3次元空間情報を取得する3次元空間情報取得手段と、2次元画像を表示する画像表示手段と、取得した2次元画像情報と3次元空間情報とを合成する画像情報合成手段と、被写体の緯度、経度、標高の群からなる属性情報を2次元画像の各画素に付与する属性情報付与手段と、各画素の輝度情報を取得する輝度情報取得手段と、被写体表面の緯度、経度、標高の群からなる被写体表面の属性情報を抽出する3次元表面情報抽出手段と、3次元表面情報抽出手段で得た被写体表面の属性情報を2次元画像上に描く属性情報描画手段と、変化曲線作成手段と、液面境界線情報抽出手段とを備え、属性情報描画手段は被写体表面上の同じ標高属性を結ぶ等高線を2次元画像上に描いており、輝度情報取得手段は2次元画像に付与された等高線毎に輝度情報を取得しており、変化曲線作成手段は取得した輝度情報に基づいて標高方向に沿う輝度情報変化曲線を作成し、液面境界線情報抽出手段は輝度情報変化曲線に基づいて被写体の液面境界線の標高情報を抽出していることを特徴とする環境情報観測装置。 2D image information acquisition means for acquiring 2D image information of a subject, 3D space information acquisition means for acquiring 3D space information consisting of a group of latitude, longitude, and altitude of the subject, and an image for displaying a 2D image Attribute information for assigning each pixel of the two-dimensional image with display means, image information synthesizing means for synthesizing the acquired two-dimensional image information and three-dimensional spatial information, and attribute information consisting of a group of latitude, longitude, and altitude of the subject Providing means; luminance information acquiring means for acquiring luminance information of each pixel; three-dimensional surface information extracting means for extracting attribute information of the subject surface comprising a group of latitude, longitude, and altitude of the subject surface; and three-dimensional surface information Attribute information drawing means for drawing the attribute information on the subject surface obtained by the extraction means on the two-dimensional image, change curve creating means, and liquid surface boundary line information extracting means, the attribute information drawing means being the same on the subject surface elevation Contour lines connecting the sexuality are drawn on the two-dimensional image, the luminance information acquisition means acquires luminance information for each contour line given to the two-dimensional image, and the change curve creation means calculates the altitude based on the acquired luminance information. An environmental information observation apparatus characterized in that a luminance information change curve along a direction is created, and the liquid surface boundary line information extracting means extracts elevation information of the liquid surface boundary line of the subject based on the luminance information change curve. 輝度情報取得手段は被写体の3次元空間情報が付与された画素群の各画素から輝度情報を取得しており、被写体を連続観測する場合には、連続観測したうちの任意の3次元空間情報を特定すると共に特定した3次元空間情報が付与された画素群の各画素から輝度情報を取得していることを特徴とする請求項に記載の環境情報観測装置。 The luminance information acquisition means acquires luminance information from each pixel of the pixel group to which the subject's three-dimensional spatial information is given , and when continuously observing the subject, the arbitrary three-dimensional spatial information of the continuously observed is obtained. The environment information observation apparatus according to claim 1 , wherein luminance information is acquired from each pixel of a pixel group to which the specified three-dimensional spatial information is assigned.
JP2005200288A 2005-07-08 2005-07-08 Environmental information observation equipment Active JP3907200B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005200288A JP3907200B2 (en) 2005-07-08 2005-07-08 Environmental information observation equipment
PCT/JP2006/312595 WO2007007528A1 (en) 2005-07-08 2006-06-23 Image processor and environment information observing device
CN2006800245712A CN101218602B (en) 2005-07-08 2006-06-23 Image processor and environment information observing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005200288A JP3907200B2 (en) 2005-07-08 2005-07-08 Environmental information observation equipment

Publications (2)

Publication Number Publication Date
JP2007018347A JP2007018347A (en) 2007-01-25
JP3907200B2 true JP3907200B2 (en) 2007-04-18

Family

ID=37636925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005200288A Active JP3907200B2 (en) 2005-07-08 2005-07-08 Environmental information observation equipment

Country Status (3)

Country Link
JP (1) JP3907200B2 (en)
CN (1) CN101218602B (en)
WO (1) WO2007007528A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10977923B2 (en) 2017-12-01 2021-04-13 Nec Corporation River risk level determining device, river risk level determining method, and storage medium

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008057994A (en) * 2006-08-29 2008-03-13 Basic Engineering:Kk Water level observation system by image processing
CN101937632A (en) * 2010-07-13 2011-01-05 联宇工程技术(武汉)有限公司 Portable automatic water-level reading instrument based on image processing
JP5590533B2 (en) * 2012-06-01 2014-09-17 国立大学法人茨城大学 Tilt change monitoring system and tilt change monitoring method
CN103942746B (en) * 2014-04-08 2017-05-17 上海师范大学 Target optical image encryption method based on optical scanning images
CN107462544B (en) * 2015-07-10 2019-11-01 上海理工大学 A kind of multi-functional THz wave imaging system and imaging method
JP6682409B2 (en) * 2016-09-08 2020-04-15 株式会社東芝 River monitoring device, river monitoring method and program
WO2020121376A1 (en) * 2018-12-10 2020-06-18 三菱電機株式会社 Water level measurement device and water level measurement method
CN110207676A (en) * 2019-06-12 2019-09-06 中国科学院测量与地球物理研究所 The acquisition methods and device of a kind of field ditch pool parameter
CN111298238B (en) * 2020-02-21 2022-03-01 济南欣格信息科技有限公司 Infusion early warning method based on image recognition
CN111910566A (en) * 2020-07-10 2020-11-10 广州民航职业技术学院 Airport runway foreign matter automatic detection and clearance system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2004076972A1 (en) * 2003-02-27 2006-06-08 三菱電機株式会社 Water level measurement system
JP2004170429A (en) * 2003-12-01 2004-06-17 Asahi Koyo Kk Method and apparatus for generating three-dimensional information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10977923B2 (en) 2017-12-01 2021-04-13 Nec Corporation River risk level determining device, river risk level determining method, and storage medium

Also Published As

Publication number Publication date
CN101218602A (en) 2008-07-09
WO2007007528A1 (en) 2007-01-18
CN101218602B (en) 2010-10-13
JP2007018347A (en) 2007-01-25

Similar Documents

Publication Publication Date Title
JP3907200B2 (en) Environmental information observation equipment
US10140756B2 (en) Method for creating a spatial model with a hand-held distance measuring device
CN100585619C (en) Oblique geolocation and measurement system
KR100795396B1 (en) Method for monitoring altered city using airborne laser surveying data and digital orthophoto
KR101512690B1 (en) Analysis method and portable instrument measuring water surface velocity using digital image processing
JP5384316B2 (en) Displacement measuring device, displacement measuring method, and displacement measuring program
CN101953165A (en) Use the some cloud of laser scanning to form the method that the selectivity compression is covered
US20230308777A1 (en) Image capturing device, data acquisition unit, image capturing system, and image capturing method
JP4077385B2 (en) Global coordinate acquisition device using image processing
JP4574657B2 (en) Method and apparatus for measuring water flow
KR102137526B1 (en) MMS angle control method of suitable facility
Kröhnert et al. Versatile mobile and stationary low-cost approaches for hydrological measurements
JP2010223752A (en) Flying object altitude measuring device
KR101180260B1 (en) Apparatus for mosaicking sea floor image using sea floor topography information and method thereof
JP5276032B2 (en) Device for calculating the position of an object
KR102473804B1 (en) method of mapping monitoring point in CCTV video for video surveillance system
JP5230354B2 (en) POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE
CN113744393A (en) Multi-level slope landslide change monitoring method
JP5297366B2 (en) Imaging object information generation apparatus and imaging object information generation program
Lee et al. Monocular vision-based displacement measurement system robust to angle and distance using homography
Kaufmann et al. Documentation of the retreat of a small debris-covered cirque glacier (Goessnitzkees, Austrian Alps) by means of terrestrial photogrammetry
CN110617800A (en) Emergency remote sensing monitoring method, system and storage medium based on civil aircraft
JP7467722B2 (en) Feature Management System
JP2011090047A (en) Movement locus chart creating device and computer program
JP7241948B2 (en) Road surface condition investigation system, road surface condition investigation device, and road surface condition investigation method

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20061017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070115

R150 Certificate of patent or registration of utility model

Ref document number: 3907200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100126

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100126

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100126

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110126

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110126

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120126

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120126

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130126

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130126

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130126

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250