JP6993852B2 - Building damage estimation device - Google Patents

Building damage estimation device Download PDF

Info

Publication number
JP6993852B2
JP6993852B2 JP2017222555A JP2017222555A JP6993852B2 JP 6993852 B2 JP6993852 B2 JP 6993852B2 JP 2017222555 A JP2017222555 A JP 2017222555A JP 2017222555 A JP2017222555 A JP 2017222555A JP 6993852 B2 JP6993852 B2 JP 6993852B2
Authority
JP
Japan
Prior art keywords
damage
image
building
classifier
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017222555A
Other languages
Japanese (ja)
Other versions
JP2019095886A (en
Inventor
禎人 本田
庸貴 榊原
貫一郎 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2017222555A priority Critical patent/JP6993852B2/en
Publication of JP2019095886A publication Critical patent/JP2019095886A/en
Application granted granted Critical
Publication of JP6993852B2 publication Critical patent/JP6993852B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、注目地域に関し、上空から撮影したカラーの光学画像及び災害発生前に取得されている建物ポリゴンから、建物の災害被害を推定する建物被害推定装置に関する。 The present invention relates to a building damage estimation device that estimates the disaster damage of a building from a color optical image taken from the sky and a building polygon acquired before the occurrence of a disaster with respect to a region of interest.

航空機などによる上空からのリモートセンシングは、広範囲での地上の状況把握が可能であり、地震災害等の状況把握に利用されている。 Remote sensing from the sky by an aircraft or the like can grasp the situation on the ground in a wide range, and is used for grasping the situation such as an earthquake disaster.

災害発生時には被害状況をいち早く把握することが非常に重要であり、被災概況として被災家屋棟数の概算数値が調べられる。 In the event of a disaster, it is very important to grasp the damage situation as soon as possible, and the estimated number of damaged houses can be examined as an overview of the disaster.

例えば、地震災害時、上空からの高分解能の画像を利用して家屋の被害状況を把握する従来の方法として、地震発生後の単画像、又は地震発生前後の2時期の画像を用いた目視判読による方法や、地震発生前後2時期の画像やDSM(Digital Surface Model:数値表層モデル)データを用いる自動判読方法、地震発生前の2次元(2D)・3次元(3D)の家屋データと地震発生後の画像とを用いる自動判読方法がある。 For example, in the event of an earthquake disaster, as a conventional method of grasping the damage situation of a house using a high-resolution image from the sky, a single image after the earthquake or a visual interpretation using images of two periods before and after the earthquake occurs. , Automatic interpretation method using images and DSM (Digital Surface Model) data from two periods before and after the earthquake, 2D (2D) and 3D (3D) house data before the earthquake and earthquake occurrence. There is an automatic interpretation method using a later image.

特開2011-113237号公報Japanese Unexamined Patent Publication No. 2011-11237

目視判読による方法は、判読者のスキルにより精度が左右され、特に軽微な被害の判読が難しいという問題があり、また被災地域が広範囲の場合には判読に多くの日数を要するため家屋被害情報を迅速に取得することが困難であるという問題があった。 The accuracy of the visual interpretation method depends on the skill of the reader, and there is a problem that it is difficult to interpret minor damages. Also, if the disaster area is wide, it takes many days to interpret, so the house damage information is available. There was a problem that it was difficult to obtain it quickly.

地震発生前後の2時期の画像やDSMデータによる自動判読の場合は、地震発生前のアーカイブデータの取得や整備が必要であるという問題が存在する。 In the case of automatic interpretation using images and DSM data for two periods before and after the earthquake, there is a problem that it is necessary to acquire and maintain archive data before the earthquake.

一方、地震発生後の単画像のみによる自動判読においては、画像中の倒壊家屋の領域と非倒壊家屋の領域とを弁別するための好適な指標の設定や閾値設定が難しく、家屋倒壊領域の誤抽出や抽出漏れが生じやすく、精度の確保が難しいという問題があった。 On the other hand, in the automatic interpretation using only a single image after an earthquake, it is difficult to set a suitable index and threshold value for distinguishing between the collapsed house area and the non-collapsed house area in the image, and the house collapsed area is erroneously read. There is a problem that extraction and omission of extraction are likely to occur and it is difficult to secure accuracy.

本発明は上記問題点を解決するためになされたものであり、災害発生後のカラー画像と災害発生前の2次元の家屋データである建物ポリゴンとを用いた自動判読により、建物の災害被害を迅速かつ良好な精度で推定することができる建物被害推定装置を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and the disaster damage of a building is caused by automatic interpretation using a color image after a disaster and a building polygon which is two-dimensional house data before the disaster. It is an object of the present invention to provide a building damage estimation device capable of estimating quickly and with good accuracy.

(1)本発明に係る建物被害推定装置は、注目地域に関し、上空から撮影したカラーの光学画像及び災害発生前に取得されている建物ポリゴンから、建物の災害被害を推定する装置であって、前記光学画像から、予め定められた複数種類の特徴画像を生成する特徴画像生成手段と、前記建物ポリゴンごとに、前記各特徴画像にて当該建物ポリゴンに対応する領域の前記画素値から、当該特徴画像について予め定められた種類の説明変数を算出し、前記複数種類の特徴画像に対応する一群の前記説明変数からなる説明変数データを生成する説明変数データ生成手段と、前記建物ポリゴンに対応する前記説明変数データから当該建物ポリゴンに対応する建物の被害状況を出力するように、前記光学画像及び前記建物ポリゴンに関する訓練用データと、当該訓練用データに対する前記被害状況の正解データとを用いて学習された識別器と、を備え、前記複数種類のうちの少なくとも一つの特徴画像は、二値化画像でありその二値の一方の値を有する画素が、前記光学画像にてRGB値のうちR値が最も大きい画素であるという条件を少なくとも満たす赤系特徴画像である。 (1) The building damage estimation device according to the present invention is a device that estimates the disaster damage of a building from a color optical image taken from the sky and a building polygon acquired before the occurrence of a disaster in a region of interest. From the feature image generation means that generates a plurality of predetermined types of feature images from the optical image, and from the pixel value of the region corresponding to the building polygon in each feature image for each building polygon, the feature. An explanatory variable data generation means that calculates explanatory variables of a predetermined type for an image and generates explanatory variable data consisting of a group of the explanatory variables corresponding to the plurality of types of feature images, and the above-mentioned building polygon. In order to output the damage status of the building corresponding to the building polygon from the explanatory variable data, the training data regarding the optical image and the building polygon and the correct answer data of the damage status for the training data are learned. At least one feature image of the plurality of types is a binarized image, and a pixel having one of the binary values is an R value among RGB values in the optical image. Is a reddish feature image that at least satisfies the condition that is the largest pixel.

(2)上記(1)に記載の建物被害推定装置において、前記赤系特徴画像として、前記二値の一方の値を有する画素が、更に、前記光学画像のグレースケールに対しエッジ抽出処理を行った画像にてエッジ強度が所定の上限と下限との間にある画素であり、かつ、前記光学画像をHSV色空間で表現した際のH値を画素値とする色相値画像に対しエッジ抽出処理を行った画像にてエッジ強度が所定の閾値を超える画素であるという条件を満たす小被害画像を含む構成とすることができる。 (2) In the building damage estimation device according to (1) above, a pixel having one of the two values as the red feature image further performs edge extraction processing on the gray scale of the optical image. Edge extraction processing for a hue value image whose pixel value is the H value when the edge strength of the image is between a predetermined upper limit and the lower limit and the optical image is expressed in the HSV color space. It is possible to include a small damage image satisfying the condition that the edge strength of the image is a pixel exceeding a predetermined threshold value.

(3)上記(2)に記載の建物被害推定装置において、前記光学画像のグレースケールに対する前記エッジ抽出処理はラプラシアンオペレータを作用させる処理及びキャニーオペレータを作用させる処理であり、前記上限に対応して前記キャニーオペレータによるエッジ抽出処理が設定され、前記下限に対応して前記ラプラシアンオペレータによるエッジ抽出処理が設定され、前記光学画像のグレースケールに対し前記ラプラシアンオペレータを作用させた画像にて所定の閾値を超え、かつ、前記グレースケールに対し前記キャニーオペレータを作用させた画像にて所定の閾値未満である画素をエッジ強度が前記上限と前記下限との間にある画素とし、前記色相値画像に対するエッジ抽出処理はラプラシアンオペレータを作用させる処理である構成とすることができる。 (3) In the building damage estimation device according to (2) above, the edge extraction process for the gray scale of the optical image is a process of operating a Laplacian operator and a process of operating a canny operator, corresponding to the upper limit. The edge extraction process by the canny operator is set, the edge extraction process by the Laplacian operator is set corresponding to the lower limit, and a predetermined threshold value is set in the image in which the Laplacian operator is applied to the gray scale of the optical image. Pixels whose edge strength is between the upper limit and the lower limit are defined as pixels that exceed the gray scale and are less than a predetermined threshold in the image in which the canny operator is applied to the gray scale, and edge extraction with respect to the hue value image is performed. The process can be configured to act on the Laplacian operator.

(4)上記(1)から(3)に記載の建物被害推定装置において、前記被害状況として、前記災害被害がある状態についての被害の程度が異なる被害大状態及び被害小状態と、前記災害被害がない被害なし状態との3つの状態を設定され、前記識別器は、前記建物ポリゴンにおける前記被害大状態を前記被害小状態及び前記被害なし状態と区別する被害大識別器と、前記被害大識別器により前記被害大状態以外とされた前記建物ポリゴンにおいて、前記被害小状態を前記被害なし状態と区別する被害小識別器と、を有する構成とすることができる。 (4) In the building damage estimation device described in (1) to (3) above, the damage situations include a large damage state and a small damage state in which the degree of damage differs depending on the state in which the disaster damage occurs, and the disaster damage. Three states of no damage and no damage are set, and the classifier distinguishes the large damage state in the building polygon into the small damage state and the no damage state, and the large damage identification device. In the building polygon that is not in the large damage state by the device, the building polygon may have a small damage classifier that distinguishes the small damage state from the non-damaged state.

(5)上記(4)に記載の建物被害推定装置において、前記被害状況として、さらに青色の不透水性のシートで被覆されたブルーシート被覆状態を設定され、前記識別器は、さらに、前記建物ポリゴンにおける前記ブルーシート被覆状態を前記被害大状態、前記被害小状態及び前記被害なし状態と区別するブルーシート識別器を有し、前記ブルーシート識別器により前記ブルーシート被覆状態以外とされた前記建物ポリゴンに対し前記被害大識別器を適用し、前記ブルーシート識別器にて用いる前記説明変数に対応する前記特徴画像は、前記光学画像にてRGB値のうちR値が最も大きい画素と、それ以外の画素とを二値で区別した赤画素画像を含む一方、前記小被害画像を含まず、前記被害大識別器にて用いる前記説明変数に対応する前記特徴画像は、前記小被害画像を含む一方、前記赤画素画像を含まず、前記被害小識別器にて用いる前記説明変数に対応する前記特徴画像は、前記小被害画像と共に前記赤画素画像を含む構成とすることができる。 (5) In the building damage estimation device according to (4) above, as the damage situation, a blue sheet covering state further covered with a blue impermeable sheet is set, and the classifier further sets the building. The building having a blue sheet classifier that distinguishes the blue sheet covering state in the polygon from the damage large state, the damage small state, and the damage-free state, and the blue sheet classifier makes the building other than the blue sheet covering state. The characteristic image corresponding to the explanatory variable used in the blue sheet classifier by applying the damage large classifier to the polygon includes the pixel having the largest R value among the RGB values in the optical image and the other pixels. The feature image corresponding to the explanatory variable used in the damage large classifier includes the small damage image while the red pixel image in which the pixels of the above are distinguished by two values is included. The feature image corresponding to the explanatory variable used in the damage minor classifier without including the red pixel image may be configured to include the red pixel image together with the minor damage image.

(6)上記(1)~(5)に記載の建物被害推定装置において、前記災害被害の推定対象とする前記建物は木造とすることができる。 (6) In the building damage estimation device according to (1) to (5) above, the building to be estimated for disaster damage may be made of wood.

本発明によれば、災害発生後のカラー画像と災害発生前の2次元の家屋データである建物ポリゴンとを用いた自動判読により、建物の災害被害を迅速かつ良好な精度で推定することができる。 According to the present invention, the disaster damage of a building can be estimated quickly and with good accuracy by automatic interpretation using a color image after a disaster and a building polygon which is two-dimensional house data before the disaster. ..

本発明の実施形態に係る建物被害推定装置の概略の構成図である。It is a schematic block diagram of the building damage estimation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る建物被害推定装置が学習装置として動作する場合の概略のブロック図である。It is a schematic block diagram when the building damage estimation apparatus which concerns on embodiment of this invention operates as a learning apparatus. 建物被害推定モデルの機械学習の概略の流れを示す模式図である。It is a schematic diagram which shows the outline flow of the machine learning of a building damage estimation model. ブルーシート識別器、被害大識別器及び被害小識別器それぞれにて用いる特徴画像及び説明変数の一例を表形式で表した図である。It is the figure which showed the example of the characteristic image and the explanatory variable used in each of the blue sheet classifier, the damage large classifier, and the damage small classifier in a table format. 本発明の実施形態に係る建物被害推定装置が建物被害推定モデルを用いて被害推定を行う場合の概略のブロック図である。It is a schematic block diagram when the building damage estimation apparatus which concerns on embodiment of this invention performs damage estimation using a building damage estimation model. 本発明の実施形態に係る建物被害推定装置を用いた建物被害の推定処理の概略の流れを示す模式図である。It is a schematic diagram which shows the schematic flow of the building damage estimation processing using the building damage estimation apparatus which concerns on embodiment of this invention.

以下、本発明の実施の形態(以下実施形態という)である建物被害推定装置10について、図面に基づいて説明する。 Hereinafter, the building damage estimation device 10, which is an embodiment of the present invention (hereinafter referred to as an embodiment), will be described with reference to the drawings.

図1は、本発明の一実施形態に係る建物被害推定装置10の概略の構成図である。建物被害推定装置10は、パーソナルコンピュータなどのコンピュータである。図1に示すように建物被害推定装置10は例えば、制御部11、記憶部12、入力部13及び出力部14を含んでいる。 FIG. 1 is a schematic configuration diagram of a building damage estimation device 10 according to an embodiment of the present invention. The building damage estimation device 10 is a computer such as a personal computer. As shown in FIG. 1, the building damage estimation device 10 includes, for example, a control unit 11, a storage unit 12, an input unit 13, and an output unit 14.

制御部11は、例えば建物被害推定装置10にインストールされるプログラムに従って動作するCPU(Central Processing Unit)等のプログラム制御デバイスである。 The control unit 11 is a program control device such as a CPU (Central Processing Unit) that operates according to a program installed in the building damage estimation device 10, for example.

記憶部12は、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部12には、制御部11によって実行されるプログラムなどが記憶される。 The storage unit 12 is a storage element such as a ROM or RAM, a hard disk drive, or the like. The storage unit 12 stores a program or the like executed by the control unit 11.

入力部13は、制御部11への入力を行うためのユーザインターフェース装置であり、キーボード、マウス等からなる。入力部13はユーザの操作入力を受け付けて、その内容を示す信号を制御部11に出力する。 The input unit 13 is a user interface device for inputting to the control unit 11, and includes a keyboard, a mouse, and the like. The input unit 13 receives the user's operation input and outputs a signal indicating the content to the control unit 11.

出力部14は、液晶ディスプレイ等の表示デバイスであって、制御部11の指示に従って各種の画像を表示する。 The output unit 14 is a display device such as a liquid crystal display, and displays various images according to the instructions of the control unit 11.

なお、建物被害推定装置10は、ネットワークボードなどの通信インタフェース、DVD-ROMやBlu-ray(登録商標)ディスクなどの光ディスクを読み取る光ディスクドライブ、USB(Universal Serial Bus)ポートなどを含んでいてもよい。 The building damage estimation device 10 may include a communication interface such as a network board, an optical disk drive for reading an optical disk such as a DVD-ROM or a Blu-ray (registered trademark) disk, a USB (Universal Serial Bus) port, and the like. ..

建物被害推定装置10は、地上の注目地域に関し、上空から撮影したカラーの光学画像及び災害発生前に取得されている建物ポリゴンから、建物被害推定モデルを用いて建物の災害被害を推定する装置である。具体的には、建物被害推定装置10は、光学画像から予め定められた複数種類の特徴画像を生成し、各特徴画像にて建物ポリゴンに対応する領域の画素値から、当該特徴画像について予め定められた種類の説明変数を算出し、複数種類の特徴画像に対応する一群の説明変数からなる説明変数データを生成する。建物被害推定モデルは、建物ポリゴンに対応する説明変数データから当該建物ポリゴンに対応する建物の被害状況を出力する識別器を構成する。建物被害推定モデルは、光学画像及び建物ポリゴンに関する訓練用データと、当該訓練用データに対する被害状況の正解データとを用いて、機械学習により生成することができ、本実施形態では建物被害推定装置10として、当該モデルを生成する学習装置の機能も備えている構成例を説明する。 The building damage estimation device 10 is a device that estimates the disaster damage of a building by using a building damage estimation model from a color optical image taken from the sky and a building polygon acquired before the disaster occurs in a region of interest on the ground. be. Specifically, the building damage estimation device 10 generates a plurality of predetermined feature images from the optical images, and determines the feature images in advance from the pixel values of the regions corresponding to the building polygons in each feature image. The explanatory variables of the specified types are calculated, and explanatory variable data consisting of a group of explanatory variables corresponding to a plurality of types of feature images is generated. The building damage estimation model constitutes a classifier that outputs the damage status of the building corresponding to the building polygon from the explanatory variable data corresponding to the building polygon. The building damage estimation model can be generated by machine learning using training data related to optical images and building polygons and correct answer data of the damage situation for the training data. In this embodiment, the building damage estimation device 10 can be generated. A configuration example having a function of a learning device for generating the model will be described.

図2は建物被害推定装置10が学習装置として動作する場合の概略のブロック図である。建物被害推定装置10の制御部11、記憶部12、入力部13、出力部14がそれぞれ学習制御部21、学習記憶部22、学習入力部23、学習出力部24として機能する。 FIG. 2 is a schematic block diagram when the building damage estimation device 10 operates as a learning device. The control unit 11, the storage unit 12, the input unit 13, and the output unit 14 of the building damage estimation device 10 function as a learning control unit 21, a learning storage unit 22, a learning input unit 23, and a learning output unit 24, respectively.

学習制御部21は学習記憶部22からプログラムを読み出して実行し、後述する特徴画像生成手段211、説明変数データ生成手段212、モデル生成手段213として機能する。 The learning control unit 21 reads a program from the learning storage unit 22 and executes it, and functions as a feature image generation means 211, an explanatory variable data generation means 212, and a model generation means 213, which will be described later.

学習記憶部22に記憶されるデータには、光学画像データ221、建物ポリゴンデータ222、判読結果223及び建物被害推定モデル224が含まれる。 The data stored in the learning storage unit 22 includes optical image data 221, building polygon data 222, interpretation result 223, and building damage estimation model 224.

光学画像データ221はカラーの航空写真や衛星画像のデータであり、例えばオルソ画像である。 The optical image data 221 is color aerial photograph or satellite image data, for example, an ortho image.

建物ポリゴンデータ222は地表面での2次元の建物形状を表すデータであり、災害発生前に予め測量等により取得されている。 The building polygon data 222 is data representing a two-dimensional building shape on the ground surface, and is acquired in advance by surveying or the like before a disaster occurs.

判読結果223は正解データであり、例えば、ユーザが学習用データの光学画像を判読して生成される。 The interpretation result 223 is correct answer data, and is generated by, for example, a user interpreting an optical image of learning data.

建物被害推定モデル224は、学習システム2により生成される学習モデルであり、学習制御部21が機械学習にて複数の学習用データを順次処理するのに合わせて更新される。学習記憶部22は、建物被害を識別・分類する識別器を表す情報、具体的には当該識別器に相当する識別関数の係数等のパラメータを建物被害推定モデル224として記憶する。 The building damage estimation model 224 is a learning model generated by the learning system 2, and is updated as the learning control unit 21 sequentially processes a plurality of learning data by machine learning. The learning storage unit 22 stores information representing a classifier that discriminates and classifies building damage, specifically, parameters such as coefficients of a discriminant function corresponding to the classifier as a building damage estimation model 224.

ここで、建物被害推定モデルを構成する識別器は分類しようとする被害の程度等に応じて複数種類作成することができる。本実施形態では、2クラスの分類を行う複数種類の識別器を組み合わせて3種類以上の被害状況を分類する。 Here, a plurality of types of classifiers constituting the building damage estimation model can be created according to the degree of damage to be classified. In the present embodiment, three or more types of damage situations are classified by combining a plurality of types of classifiers that perform two classes of classification.

例えば、被害状況として、災害被害がある状態とない状態とを分類し、さらに災害被害がある状態を被害大状態及び被害小状態という被害の程度が異なる2つの状態に分類する3クラスの分類を行う構成とすることができる。この場合、識別器は、建物ポリゴンにおける被害大状態を被害小状態及び被害なし状態と区別する被害大識別器と、被害大識別器により被害大状態以外とされた建物ポリゴンにおいて、被害小状態を被害なし状態と区別する被害小識別器との2種類で構成することができる。 For example, as the damage situation, there are three classes that classify the state with disaster damage and the state without disaster damage, and further classify the state with disaster damage into two states with different degrees of damage, the large damage state and the small damage state. It can be configured to be performed. In this case, the classifier determines the damage small state in the damage large classifier that distinguishes the damage large state in the building polygon into the damage small state and the damage non-damage state, and in the building polygon that is not the damage large state by the damage large classifier. It can be composed of two types, a damage small classifier that distinguishes from a damage-free state.

本実施形態では、被害状況として、さらに、建物を雨水などから保護する際に通常用いられる青色の不透水性のシートで被覆されたブルーシート被覆状態を設定し、4クラスの分類を行う。この場合、識別器は、さらに、建物ポリゴンにおけるブルーシート被覆状態を被害大状態、被害小状態及び被害なし状態と区別するブルーシート識別器を含む3種類で構成することができる。 In the present embodiment, as the damage situation, a blue sheet covering state covered with a blue impermeable sheet usually used when protecting a building from rainwater or the like is set, and four classes are classified. In this case, the classifier can be further composed of three types including a blue sheet classifier that distinguishes the blue sheet covering state in the building polygon into a large damage state, a small damage state, and a non-damaged state.

図3は、建物被害推定モデルの機械学習の概略の流れを示す模式図である。 FIG. 3 is a schematic diagram showing a schematic flow of machine learning of a building damage estimation model.

学習制御部21は特徴画像生成手段211として機能する。特徴画像生成手段211は、光学画像データ221から特徴画像を生成する画像処理250を行う。具体的には、当該画像処理250では、予め定められた複数種類の特徴画像252を生成する。 The learning control unit 21 functions as the feature image generation means 211. The feature image generation means 211 performs image processing 250 to generate a feature image from the optical image data 221. Specifically, the image processing 250 generates a plurality of predetermined types of feature images 252.

本実施形態では建物被害推定モデル224は複数の識別器で構成され、特徴画像の種類は識別器ごとに異なり得る。この点に関し、本実施形態では上述のブルーシート識別器、被害大識別器及び被害小識別器のそれぞれの複数種類の特徴画像は互いに重複する種類を含むので、画像処理250では3つの識別器に対応する特徴画像の和集合を含む複数種類の特徴画像252を生成する。 In the present embodiment, the building damage estimation model 224 is composed of a plurality of classifiers, and the type of the feature image may differ for each classifier. In this regard, in the present embodiment, since the feature images of each of the plurality of types of the above-mentioned blue sheet classifier, damage large classifier, and damage small classifier include overlapping types, the image processing 250 uses three classifiers. Generate a plurality of types of feature images 252 including the union of the corresponding feature images.

特徴画像252は例えば、R画像、G画像、B画像、H画像、SHSV画像、V画像、SHSL画像、L画像、RMAX画像、GMAX画像、BMAX画像、RMIN画像、GMIN画像、BMIN画像、SD画像を含む。 The feature image 252 is, for example, an R image, a G image, a B image, an H image, an SHSV image, a V image, an SHSL image, an L image, an R MAX image, a G MAX image, a B MAX image, an R MIN image, and a G MIN . Includes images, BMIN images, and SD images.

R画像、G画像、B画像はそれぞれ、光学画像データ221で与えられるカラー画像のRGB表示における各画素のR(赤)成分、G(緑)成分、B(青)成分の値を画素値として定義されるモノクロ画像である。 For the R image, G image, and B image, the values of the R (red) component, G (green) component, and B (blue) component of each pixel in the RGB display of the color image given by the optical image data 221 are used as pixel values. It is a defined monochrome image.

H画像、SHSV画像、V画像、SHSL画像、L画像は光学画像データ221で与えられるカラー画像のHSV色空間又はHSL色空間での成分値を画素値として定義されるモノクロ画像である。具体的には、H画像(色相値画像)は光学画像の各画素のHSV色空間又はHSL色空間でのH成分(色相値)を画素値とする。同様に、SHSV画像、V画像はそれぞれ光学画像の各画素のHSV色空間でのS成分(彩度値)、V成分(明度値)を画素値とする画像である。また、SHSL画像、L画像は光学画像の各画素のHSL色空間でのS成分(彩度値)、L成分(輝度値)を画素値とする画像である。 The H image, SHSV image, V image, SHSL image, and L image are monochrome images defined by the component value in the HSV color space or the HSL color space of the color image given by the optical image data 221 as a pixel value. Specifically, the H image (hue value image) uses the H component (hue value) in the HSV color space or the HSL color space of each pixel of the optical image as the pixel value. Similarly, the SHSV image and the V image are images in which the S component (saturation value) and the V component (brightness value) of each pixel of the optical image in the HSV color space are the pixel values. Further, the SHSL image and the L image are images in which the S component (saturation value) and the L component (luminance value) of each pixel of the optical image in the HSL color space are the pixel values.

MAX画像(赤画素画像)は光学画像にてRGB成分のうちR成分が最も大きい画素とそれ以外の画素とを二値で区別した画像であり、例えば、R成分が最も大きい画素を画素値“1”とし、それ以外の画素を画素値“0”とする。ここで、二値化画像である特徴画像であって、その二値の一方の値を有する画素が、光学画像にてRGB値のうちR値が最も大きい画素であるという条件を少なくとも満たすものを赤系特徴画像とすると、RMAX画像は当該赤系特徴画像である。GMAX画像、BMAX画像はG成分、B成分についての同様の二値画像であり、それぞれG成分、B成分が最大成分である画素を画素値“1”とする。 The R MAX image (red pixel image) is an optical image in which a pixel having the largest R component among RGB components and a pixel having another pixel are distinguished by a binary value. For example, a pixel having the largest R component has a pixel value. It is set to "1", and the other pixels are set to the pixel value "0". Here, a feature image that is a binarized image that at least satisfies the condition that the pixel having one of the binar values is the pixel having the largest R value among the RGB values in the optical image. Assuming that it is a red-based feature image, the RMAX image is the red-based feature image. The G MAX image and the B MAX image are similar binary images for the G component and the B component, and the pixel in which the G component and the B component are the maximum components is defined as the pixel value “1”, respectively.

一方、RMIN画像は光学画像にてRGB成分のうちR成分が最も小さい画素とそれ以外の画素とを二値で区別した画像であり、例えば、R成分が最も小さい画素を画素値“1”とし、それ以外の画素を画素値“0”とする。また、GMIN画像、BMIN画像はG成分、B成分についての同様の二値画像であり、それぞれG成分、B成分が最小成分である画素を画素値“1”とする。 On the other hand, the R MIN image is an image in which the pixel having the smallest R component among the RGB components and the other pixels are distinguished by a binary value in the optical image. For example, the pixel having the smallest R component has a pixel value of "1". The other pixels are set to the pixel value "0". Further, the G MIN image and the B MIN image are similar binary images for the G component and the B component, and the pixel in which the G component and the B component are the minimum components, respectively, is set to the pixel value “1”.

SD画像(小被害画像)は、光学画像にてRGB値のうちR値が最も大きい画素であり、かつ、光学画像のグレースケールに対しラプラシアンオペレータを作用させた画像にて所定の閾値を超える画素であり、かつ、当該グレースケールに対しキャニーオペレータを作用させた画像にて所定の閾値未満である画素であり、かつ、上述のH画像に対しラプラシアンオペレータを作用させた画像にて所定の閾値を超える画素であるものと、それ以外の画素とを二値で区別した画像である。本発明の発明者はこのように生成したSD画像が災害における建物の比較的小さな又は軽度の被害箇所(小被害箇所)の判別に有効であることを発見した。具体的には、小被害箇所では上述の複数の要件を満たす画素が他の箇所よりも多く現れる傾向がある。なお、SD画像は赤系特徴画像の一種である。 An SD image (small damage image) is a pixel having the largest R value among RGB values in an optical image, and a pixel exceeding a predetermined threshold in an image in which a Laplacian operator is applied to the gray scale of the optical image. It is a pixel that is less than a predetermined threshold in the image in which the canny operator is acted on the gray scale, and the predetermined threshold is set in the image in which the Laplacian operator is acted on the above-mentioned H image. It is an image in which a pixel exceeding the pixel and a pixel other than the pixel are distinguished by a binary value. The inventor of the present invention has found that the SD image thus generated is effective in discriminating a relatively small or slightly damaged part (small damaged part) of a building in a disaster. Specifically, there is a tendency that more pixels satisfying the above-mentioned plurality of requirements appear in the small damage area than in other areas. The SD image is a kind of reddish feature image.

ここでラプラシアンオペレータ、キャニーオペレータは周知のエッジ検出フィルタであり、光学画像をグレースケールに変換した画像にラプラシアンオペレータを作用させた画像から生成した二値画像、及びキャニーオペレータを作用させた画像から生成した二値画像をそれぞれ第1エッジ画像、第2エッジ画像と呼ぶことにする。また、H画像に対しラプラシアンオペレータを作用させた画像から生成した二値画像を第3エッジ画像とする。 Here, the Laplacian operator and the Canny operator are well-known edge detection filters, and are generated from a binary image generated from an image obtained by applying the Laplacian operator to an image obtained by converting an optical image into grayscale, and an image generated by applying the Canny operator. The resulting binary image will be referred to as a first edge image and a second edge image, respectively. Further, the binary image generated from the image in which the Laplacian operator is applied to the H image is referred to as the third edge image.

閾値処理による二値化に際し、閾値以上の画素を画素値“1”とし、それ以外の画素を画素値“0”として第1~第3エッジ画像を定義し、またRMAX画像の画素値を上述の定義とすると、SD画像は、RMAX画像と、第1エッジ画像と、第2エッジ画像の画素値を反転させた反転画像と、第3エッジ画像との論理積で与えられる。 In binarization by threshold processing, the pixels above the threshold are set to the pixel value "1", the other pixels are set to the pixel value "0" to define the first to third edge images, and the pixel value of the RMAX image is set. According to the above definition, the SD image is given by the logical product of the RMAX image, the first edge image, the inverted image in which the pixel values of the second edge image are inverted, and the third edge image.

キャニーオペレータにて用いるCanny法は、弱い輝度変化をエッジとして検出することを抑制しつつ、建物と地面との境界のように比較的に大きな輝度変化をエッジとして検出することに適したアルゴリズムである。そこで、第2エッジ画像に関し、キャニーオペレータ及び当該オペレータの出力値に対する二値化の閾値を、建物と地面との境界にて想定される輝度変化以上を選択的にエッジとして検出するように設定する。一方、第1エッジ画像に関しては、ラプラシアンオペレータにて、建物と地面との境界にて想定されるような強い輝度変化でなくてもエッジとして検出し、また、二値化の閾値を小被害箇所に想定される強度程度に設定する。第1~第3エッジ画像を生成する閾値は小被害箇所が好適に抽出されるように実験等により設定することができる。 The Canny method used by the Canny operator is an algorithm suitable for detecting a relatively large change in luminance as an edge, such as the boundary between a building and the ground, while suppressing the detection of a weak change in luminance as an edge. .. Therefore, regarding the second edge image, the binarization threshold value for the canny operator and the output value of the operator is set so as to selectively detect the change in brightness or more assumed at the boundary between the building and the ground as an edge. .. On the other hand, regarding the first edge image, the Laplacian operator detects it as an edge even if it is not a strong change in brightness as expected at the boundary between the building and the ground, and the threshold value for binarization is set as a minor damage location. Set to the expected strength. The threshold value for generating the first to third edge images can be set by an experiment or the like so that the small damage portion is appropriately extracted.

ちなみに、第1エッジ画像と、第2エッジ画像の反転画像との論理積は、光学画像のグレースケールにてエッジ強度が所定の上限と下限との間にあるエッジを抽出する処理に相当する。ここで、エッジ強度の当該上限に対応して第2エッジ画像におけるキャニーオペレータによるエッジ抽出処理が設定され、当該下限に対応して第1エッジ画像におけるラプラシアンオペレータによるエッジ抽出処理が設定される。すなわち、第1エッジ画像により、下限を超えるエッジ強度を有する画素を抽出し、第2エッジ画像の反転画像により、上限未満のエッジ強度を有する画素を抽出する。 Incidentally, the logical product of the first edge image and the inverted image of the second edge image corresponds to the process of extracting the edge whose edge strength is between the predetermined upper limit and the lower limit on the gray scale of the optical image. Here, the edge extraction process by the canny operator in the second edge image is set corresponding to the upper limit of the edge strength, and the edge extraction process by the Laplacian operator in the first edge image is set corresponding to the lower limit. That is, pixels having an edge strength exceeding the lower limit are extracted from the first edge image, and pixels having an edge strength less than the upper limit are extracted from the inverted image of the second edge image.

なお、第1~第3エッジ画像を生成するエッジ抽出処理は、上述したラプラシアンオペレータやキャニーオペレータ以外の演算で行っても良い。 The edge extraction process for generating the first to third edge images may be performed by an operation other than the above-mentioned Laplacian operator or canny operator.

生成された特徴画像252に対し、学習制御部21は説明変数データ生成手段212として機能し、説明変数データ生成処理254を行う。当該処理254では、特徴画像252と建物ポリゴンデータ222とを入力データとし、特徴画像にて建物ポリゴンに対応する領域の画素値から、当該特徴画像について予め定められた種類の説明変数を算出し、複数種類の特徴画像に対応する一群の説明変数からなる説明変数データ256を生成する。 With respect to the generated feature image 252, the learning control unit 21 functions as the explanatory variable data generation means 212 and performs the explanatory variable data generation process 254. In the process 254, the feature image 252 and the building polygon data 222 are used as input data, and an explanatory variable of a predetermined type for the feature image is calculated from the pixel value of the region corresponding to the building polygon in the feature image. Explanatory variable data 256 consisting of a group of explanatory variables corresponding to a plurality of types of feature images is generated.

本実施形態の3つの識別器に対応する特徴画像は共通する種類を含むことは上述したが、特徴画像から生成する説明変数も共通の種類を含む。そこで、説明変数データ生成処理254では、複数種類の特徴画像252について、3つの識別器で用いる全種類の説明変数を一括して生成し、説明変数データ256として学習記憶部22に記憶する。そして後の識別器の学習処理258では、説明変数データ256に含まれる複数種類の説明変数のうち、識別器ごとに選択した種類からなる説明変数データを用いる。 As mentioned above, the feature images corresponding to the three classifiers of the present embodiment include common types, but the explanatory variables generated from the feature images also include the common types. Therefore, in the explanatory variable data generation process 254, all types of explanatory variables used by the three classifiers are collectively generated for the plurality of types of feature images 252, and stored in the learning storage unit 22 as the explanatory variable data 256. Then, in the later learning process 258 of the classifier, the explanatory variable data of the type selected for each classifier is used from among the plurality of types of explanatory variables included in the explanatory variable data 256.

図4は、ブルーシート識別器、被害大識別器及び被害小識別器それぞれにて用いる特徴画像及び説明変数の一例を表形式で表した図である。本実施形態では説明変数として、建物ポリゴンに対応する領域内の画素値の平均値と変動係数が用いる。変動係数は当該領域内での画素値のばらつき具合を示す値であり、例えば、分散を用いることができる。説明変数データ生成手段212は説明変数として例えば、R画像、G画像、B画像、H画像、SHSV画像、V画像、SHSL画像、L画像については各建物ポリゴンにおける平均と変動係数を算出し、一方、RMAX画像、GMAX画像、BMAX画像、RMIN画像、GMIN画像、BMIN画像、SD画像については各建物ポリゴンにおける平均を算出する。 FIG. 4 is a table showing an example of a feature image and explanatory variables used in each of the blue sheet classifier, the damage large classifier, and the damage minor classifier. In this embodiment, the average value and the coefficient of variation of the pixel values in the region corresponding to the building polygon are used as explanatory variables. The coefficient of variation is a value indicating the degree of variation of the pixel values within the region, and for example, dispersion can be used. The explanatory variable data generation means 212 calculates, for example, the average and the fluctuation coefficient of each building polygon for the R image, G image, B image, H image, SHSV image, V image, SHSL image, and L image as explanatory variables. On the other hand, for the R MAX image, G MAX image, B MAX image, R MIN image, G MIN image, B MIN image, and SD image, the average in each building polygon is calculated.

説明変数データ生成処理254で生成された説明変数データ256はモデル生成手段213に渡される。 The explanatory variable data 256 generated by the explanatory variable data generation process 254 is passed to the model generation means 213.

学習制御部21はモデル生成手段213としてブルーシート識別器、被害大識別器及び被害小識別器それぞれの学習処理258を行い、建物被害推定モデル224を生成する。つまり、学習処理258により、上述したように、建物ポリゴンに対応する説明変数データから当該建物ポリゴンに対応する建物の被害状況を出力するように各識別器が機械学習される。 The learning control unit 21 performs learning processing 258 for each of the blue sheet classifier, the damage major classifier, and the damage minor classifier as the model generation means 213, and generates the building damage estimation model 224. That is, as described above, the learning process 258 machine-learns each classifier so as to output the damage status of the building corresponding to the building polygon from the explanatory variable data corresponding to the building polygon.

当該学習は光学画像及び建物ポリゴンに関する訓練用データと、当該訓練用データに対する被害状況の正解データとを用いて行われる。そのために、学習制御部21は正解データとしてユーザの判読結果を取得する処理260を行う。具体的には、ユーザ判読処理260として、例えば、学習に用いる地表領域の光学画像データ221と建物ポリゴンデータ222とを用い、建物ポリゴンが表す建物の輪郭を光学画像にオーバーレイ表示した画像を学習出力部24のディスプレイに表示させて、ユーザに建物ポリゴンに対応する領域の光学画像から被害状況を判読させ、学習入力部23から判読結果を取得する。本実施形態では、ユーザは被害状況として、被害大状態、被害小状態、及び被害なし状態の3段階の被害の程度にさらに、建物がブルーシートで被覆された領域を含むブルーシート被覆状態を加えた4種類の状態のいずれであるかを判読する。生成された判読結果は学習記憶部22に判読結果223として記憶される。 The learning is performed using the training data regarding the optical image and the building polygon, and the correct answer data of the damage situation for the training data. Therefore, the learning control unit 21 performs a process 260 of acquiring the user's reading result as correct answer data. Specifically, as the user interpretation process 260, for example, the optical image data 221 of the ground surface area used for learning and the building polygon data 222 are used, and an image in which the outline of the building represented by the building polygon is superimposed and displayed on the optical image is learned and output. It is displayed on the display of the unit 24, the user is made to read the damage situation from the optical image of the area corresponding to the building polygon, and the reading result is acquired from the learning input unit 23. In the present embodiment, the user adds a blue sheet covering state including an area where the building is covered with a blue sheet to the degree of damage in three stages of a large damage state, a small damage state, and a no damage state as the damage situation. Read which of the four states it is. The generated reading result is stored in the learning storage unit 22 as the reading result 223.

モデル生成手段213は、建物ポリゴンごとに判読結果223と説明変数データ256とを対応付けて学習用データとし、多数の建物ポリゴンについて生成された学習用データを用いて機械学習により建物被害推定モデル224を生成する。 The model generation means 213 associates the interpretation result 223 with the explanatory variable data 256 for each building polygon to obtain learning data, and uses the learning data generated for a large number of building polygons to perform machine learning to estimate the building damage model 224. To generate.

具体的には、ブルーシート識別器の学習では、ブルーシート被覆状態、被害大状態、被害小状態、及び被害なし状態の判読結果に対応する学習用データを用いる。そして、ブルーシート被覆状態とそれ以外との2クラスの分類を行うようにブルーシート識別器が学習される。また、被害大識別器の学習では、被害大状態、被害小状態、及び被害なし状態の判読結果に対応する学習用データを用いる。そして、被害大状態と被害小状態及び被害なし状態との2クラスの分類を行うように被害大識別器が学習される。被害小識別器の学習では、被害小状態及び被害なし状態の判読結果に対応する学習用データを用いる。そして、被害小状態と被害なし状態との2クラスの分類を行うように被害小識別器が学習される。 Specifically, in the learning of the blue sheet classifier, learning data corresponding to the reading results of the blue sheet covering state, the large damage state, the small damage state, and the no damage state is used. Then, the blue sheet classifier is learned so as to classify the two classes of the blue sheet covering state and the other. Further, in the learning of the large damage classifier, learning data corresponding to the interpretation results of the large damage state, the small damage state, and the no damage state is used. Then, the large damage classifier is learned so as to classify into two classes, a large damage state, a small damage state, and a non-damaged state. In the learning of the damage small classifier, learning data corresponding to the interpretation results of the damage small state and the damage-free state is used. Then, the damage minor classifier is learned so as to classify into two classes, a damage minor state and a damage-free state.

図5は建物被害推定装置10が、上述した学習装置により生成された建物被害推定モデル224を用いて被害推定を行う場合の概略のブロック図である。制御部11は記憶部12からプログラムを読み出して実行し、後述する特徴画像生成手段111、説明変数データ生成手段112、判定手段113として機能する。 FIG. 5 is a schematic block diagram when the building damage estimation device 10 performs damage estimation using the building damage estimation model 224 generated by the learning device described above. The control unit 11 reads a program from the storage unit 12 and executes it, and functions as a feature image generation means 111, an explanatory variable data generation means 112, and a determination means 113, which will be described later.

記憶部12に記憶されるデータには、光学画像データ121、建物ポリゴンデータ122、上述の学習で生成された建物被害推定モデル224、及び判定結果データ123が含まれる。 The data stored in the storage unit 12 includes optical image data 121, building polygon data 122, building damage estimation model 224 generated by the above learning, and determination result data 123.

光学画像データ121は上述の光学画像データ221と同様、カラーの航空写真や衛星画像のデータであるが、その撮影範囲は建物被害推定処理の対象とする注目地域である。 The optical image data 121 is color aerial photograph or satellite image data like the above-mentioned optical image data 221. However, the photographing range is a region of interest to be targeted for building damage estimation processing.

建物ポリゴンデータ122は、建物ポリゴンデータ222と同様、災害発生前に予め測量等により取得されている建物形状を表すデータであり、注目地域についてのデータである。 Like the building polygon data 222, the building polygon data 122 is data representing a building shape acquired in advance by surveying or the like before a disaster occurs, and is data for a region of interest.

判定結果データ123は、建物被害推定装置10による建物の被害状況の判定結果である。 The determination result data 123 is a determination result of the damage status of the building by the building damage estimation device 10.

図6は、建物被害推定装置10を用いた建物被害の推定処理の概略の流れを示す模式図である。 FIG. 6 is a schematic diagram showing a schematic flow of a building damage estimation process using the building damage estimation device 10.

制御部11は特徴画像生成手段111として機能し、光学画像データ121に対する画像処理150を行い特徴画像152を生成する。画像処理150は学習装置としての動作にて説明した画像処理250と同じとすることができる。 The control unit 11 functions as the feature image generation means 111, performs image processing 150 on the optical image data 121, and generates the feature image 152. The image processing 150 can be the same as the image processing 250 described in the operation as the learning device.

制御部11は、生成された特徴画像152に対し、説明変数データ生成手段112として機能し、説明変数データ生成処理154を行う。当該処理154では、特徴画像152と建物ポリゴンデータ122とを入力データとし、建物ポリゴンごとに特徴画像の画素値から説明変数データ156が生成される。この説明変数データ生成処理154は学習装置としての動作にて説明した説明変数データ生成処理254と同じとすることができる。 The control unit 11 functions as the explanatory variable data generation means 112 for the generated feature image 152, and performs the explanatory variable data generation process 154. In the process 154, the feature image 152 and the building polygon data 122 are used as input data, and explanatory variable data 156 is generated from the pixel values of the feature image for each building polygon. The explanatory variable data generation process 154 can be the same as the explanatory variable data generation process 254 described in the operation as the learning device.

制御部11は判定手段113として機能し、建物被害推定モデル224を用いて注目地域における建物の災害被害を推定する推定処理158を行う。推定処理158では、建物被害推定モデル224により構成される3種類の識別器を用いて、注目地域の建物ポリゴンについて順次、4種類の被害状況が段階的に分類される。具体的には、判定手段113は最初にブルーシート識別器を用いた分類処理158Aを行い、次に被害大識別器を用いた分類処理158Bを行い、最後に被害小識別器を用いた分類処理158Cを行う。 The control unit 11 functions as the determination means 113, and performs the estimation process 158 for estimating the disaster damage of the building in the area of interest using the building damage estimation model 224. In the estimation process 158, four types of damage situations are sequentially classified for the building polygons in the area of interest by using three types of classifiers composed of the building damage estimation model 224. Specifically, the determination means 113 first performs a classification process 158A using a blue sheet classifier, then a classification process 158B using a large damage classifier, and finally a classification process using a minor damage classifier. Perform 158C.

ブルーシート識別器を用いた分類処理158Aでは、判定手段113はブルーシート識別器に、分類対象とする建物ポリゴンの説明変数データを入力し、当該建物ポリゴンに対応する建物がブルーシート被覆状態であるか、それ以外の被害状況であるかを識別する。そして、判定手段113は、ブルーシート被覆状態であると判定された建物については、建物ポリゴンと判定結果とを対応付けて記憶部12に判定結果データ123として記憶する。 In the classification process 158A using the blue sheet classifier, the determination means 113 inputs the explanatory variable data of the building polygon to be classified into the blue sheet classifier, and the building corresponding to the building polygon is in the blue sheet covering state. Identify whether it is a damage situation other than that. Then, the determination means 113 stores the building determined to be in the blue sheet covering state in the storage unit 12 as the determination result data 123 in association with the building polygon and the determination result.

ブルーシート識別器により、ブルーシート被覆状態以外の被害状況であるとされた建物については、判定手段113は当該建物の説明変数データを被害大識別器に入力して分類処理158Bを行い、当該建物が被害大状態であるか、被害小状態又は被害なし状態であるかを識別する。そして、被害大状態であると判定された建物については、建物ポリゴンと判定結果とを対応付けて記憶部12に判定結果データ123として記憶する。 For a building that is judged to be in a damage situation other than the blue sheet covering state by the blue sheet classifier, the determination means 113 inputs the explanatory variable data of the building into the damage large classifier, performs the classification process 158B, and performs the classification process 158B. Identify whether is in a severe damage state, a minor damage state, or a non-damaged state. Then, for the building determined to be in a severely damaged state, the building polygon and the determination result are associated with each other and stored in the storage unit 12 as the determination result data 123.

被害大識別器により、被害大状態ではないとされた建物については、判定手段113は当該建物の説明変数データを被害小識別器に入力して分類処理158Cを行い、当該建物が被害小状態であるか否かを識別する。そして、被害小状態であると判定された建物については、建物ポリゴンと当該判定結果とを対応付けて記憶部12に判定結果データ123として記憶する。また、被害小状態でないとされた建物については、判定結果を被害なし状態であるとして、建物ポリゴンと当該判定結果とを対応付けて記憶部12に判定結果データ123として記憶する。 For a building that is not in a large damage state by the large damage classifier, the determination means 113 inputs the explanatory variable data of the building into the small damage classifier and performs the classification process 158C, and the building is in a small damage state. Identify if it exists. Then, for the building determined to be in a small damage state, the building polygon and the determination result are associated with each other and stored in the storage unit 12 as the determination result data 123. Further, for a building that is not in a minor damage state, the determination result is assumed to be in a no damage state, and the building polygon and the determination result are associated with each other and stored in the storage unit 12 as the determination result data 123.

各識別器が用いる特徴画像、説明変数の種類は学習時と同じであり、その一例は図4に示している。具体的には、図4に示す例では、説明変数のうち、H画像、SHSV画像及びV画像の平均及び変動係数、並びにSHSL画像、BMAX画像、RMIN画像及びGMIN画像の平均を、ブルーシート識別器、被害大識別器、被害小識別器で共通に使用する。 The types of feature images and explanatory variables used by each classifier are the same as at the time of learning, and an example thereof is shown in FIG. Specifically, in the example shown in FIG. 4, among the explanatory variables, the average and coefficient of variation of the H image, the HSV image and the V image, and the average of the SHSL image, the BMAX image, the RMIN image and the GMIN image. Is commonly used for blue sheet classifiers, large damage classifiers, and minor damage classifiers.

逆に相違点に関しては例えば、ブルーシート識別器ではRMAX画像による説明変数を用いる一方、SD画像によるものを用いないのに対し、被害大識別器ではSD画像によるものを用いる一方、RMAX画像によるものを用いない。また、被害小識別器で用いる説明変数はSD画像によるものとRMAX画像によるものとを共に含む点で、ブルーシート識別器及び被害大識別器と相違する。具体的には、ブルーシート識別器及び被害小識別器ではRMAX画像の平均を説明変数として使用し、被害大識別器及び被害小識別器ではSD画像の平均を説明変数として使用する。 On the contrary, regarding the difference, for example, the blue sheet classifier uses the explanatory variables based on the R MAX image, while the SD image is not used, while the large damage classifier uses the SD image, while the R MAX image. Do not use. Further, the explanatory variables used in the small damage classifier are different from the blue sheet classifier and the large damage classifier in that they include both the SD image and the RMAX image. Specifically, the blue sheet classifier and the damage minor classifier use the average of the RMAX image as an explanatory variable, and the damage major classifier and the damage minor classifier use the average of the SD image as the explanatory variable.

この相違点について説明する。まず、RMAX画像及びSD画像は共に赤系特徴画像である点で共通する。地震等による建物の損壊は、例えば、昭和56年以降の新耐震基準を満たしていないような古い木造家屋で起こり易い。木造家屋の損壊の検出には、損壊により露出する木材の色に関する説明変数を用いることが有効であると考えられる。この点に関し、本発明の発明者はRMAX画像に代表される赤系特徴画像が木材の露出量の多寡の分類に有効であるとの知見を得た。よって、RMAX画像とSD画像とは共に木造家屋の損壊の検出に有効であるが、SD画像は、RMAX画像の値“1”の画素に、条件を追加して生成され、小被害箇所の判別に有効であるという特徴を備えている。 This difference will be described. First, both the RMAX image and the SD image are common in that they are reddish feature images. Damage to buildings due to earthquakes or the like is likely to occur in old wooden houses that do not meet the new earthquake resistance standards after 1981, for example. In order to detect the damage of a wooden house, it is considered effective to use the explanatory variables regarding the color of the wood exposed by the damage. In this regard, the inventor of the present invention has found that a reddish feature image represented by an RMAX image is effective for classifying the amount of exposure of wood. Therefore, both the R MAX image and the SD image are effective in detecting the damage of the wooden house, but the SD image is generated by adding a condition to the pixel of the value "1" of the R MAX image, and the small damage location. It has the feature that it is effective for the discrimination of.

そこで、損壊により木材が露出し得る被害小状態と損壊箇所がない被害なし状態とを分類する被害小識別器、並びに木材が露出し得る被害大状態及び被害小状態を含むクラスと損壊箇所がブルーシートで覆われて露出しにくい状態を含むクラスとを分類するブルーシート識別器にて、RMAX画像を使用する。一方、SD画像は被害小状態を含むクラスと含まないクラスとの分類に有効であることから、当該分類を行う被害大識別器及び被害小識別器にて使用する。 Therefore, a small damage classifier that classifies the small damage state where the wood can be exposed due to damage and the no damage state where there is no damaged part, and the class including the large damage state and the small damage state where the wood can be exposed and the damaged part are blue. The RMAX image is used in a blue sheet classifier that classifies the class into a class that is covered with a sheet and is difficult to expose. On the other hand, since the SD image is effective for classifying the class including the minor damage state and the class not including the damage minor state, it is used in the damage major classifier and the damage minor classifier that perform the classification.

なお、識別器それぞれが使用するその他の説明変数は図4に示す通りであるが、念のため説明すると、ブルーシート識別器及び被害小識別器は、B画像及びBMIN画像の平均、並びにSHSL画像の変動係数を使用し、被害大識別器は、GMAX画像の平均、並びにG画像、B画像及びL画像の変動係数を使用する。 The other explanatory variables used by each of the classifiers are as shown in FIG. 4, but just in case, the blue sheet classifier and the damage minor classifier are the average of the B image and the B MIN image, and S. The coefficient of variation of the HSL image is used, and the large damage classifier uses the average of the GMAX image and the coefficient of variation of the G image, the B image and the L image.

10 建物被害推定装置、11 制御部、12 記憶部、13 入力部、14 出力部、21 学習制御部、22 学習記憶部、23 学習入力部、24 学習出力部、111,211 特徴画像生成手段、112,212 説明変数データ生成手段、113 判定手段、213 モデル生成手段、121,221 光学画像データ、122,222 建物ポリゴンデータ、123 判定結果データ、224 建物被害推定モデル、223 判読結果、152,252 特徴画像、156,256 説明変数データ。 10 Building damage estimation device, 11 Control unit, 12 Storage unit, 13 Input unit, 14 Output unit, 21 Learning control unit, 22 Learning storage unit, 23 Learning input unit, 24 Learning output unit, 111, 211 Feature image generation means, 112,212 Explanatory variable data generation means, 113 judgment means, 213 model generation means, 121,221 optical image data, 122,222 building polygon data, 123 judgment result data, 224 building damage estimation model, 223 interpretation results, 152,252 Feature image, 156,256 explanatory variable data.

Claims (6)

注目地域に関し、上空から撮影したカラーの光学画像及び災害発生前に取得されている建物ポリゴンから、建物の災害被害を推定する建物被害推定装置であって、
前記光学画像から、予め定められた複数種類の特徴画像を生成する特徴画像生成手段と、
前記建物ポリゴンごとに、前記各特徴画像にて当該建物ポリゴンに対応する領域の画素値から、当該特徴画像について予め定められた種類の説明変数を算出し、前記複数種類の特徴画像に対応する一群の前記説明変数からなる説明変数データを生成する説明変数データ生成手段と、
前記建物ポリゴンに対応する前記説明変数データから当該建物ポリゴンに対応する建物の被害状況を出力するように、前記光学画像及び前記建物ポリゴンに関する訓練用データと、当該訓練用データに対する前記被害状況の正解データとを用いて学習された識別器と、を備え、
前記複数種類のうちの少なくとも一つの特徴画像は、二値化画像でありその二値の一方の値を有する画素が、前記光学画像にてRGB値のうちR値が最も大きい画素であるという条件を少なくとも満たす赤系特徴画像であること、
を特徴とする建物被害推定装置。
It is a building damage estimation device that estimates the disaster damage of a building from color optical images taken from the sky and building polygons acquired before the disaster occurred in the area of interest.
A feature image generation means for generating a plurality of predetermined types of feature images from the optical image,
For each building polygon, a predetermined type of explanatory variable for the feature image is calculated from the pixel value of the region corresponding to the building polygon in each feature image, and the plurality of types of feature images are supported. An explanatory variable data generation means for generating explanatory variable data consisting of a group of the above explanatory variables,
The optical image, the training data related to the building polygon, and the correct answer of the damage situation to the training data so as to output the damage status of the building corresponding to the building polygon from the explanatory variable data corresponding to the building polygon. Equipped with a classifier trained using data,
The condition that at least one feature image of the plurality of types is a binarized image and the pixel having one of the binary values is the pixel having the largest R value among the RGB values in the optical image. It is a reddish feature image that satisfies at least
A building damage estimation device featuring.
請求項1に記載の建物被害推定装置において、
前記赤系特徴画像として、前記二値の一方の値を有する画素が、更に、前記光学画像のグレースケールに対しエッジ抽出処理を行った画像にてエッジ強度が所定の上限と下限との間にある画素であり、かつ、前記光学画像をHSV色空間で表現した際のH値を画素値とする色相値画像に対しエッジ抽出処理を行った画像にてエッジ強度が所定の閾値を超える画素であるという条件を満たす小被害画像を含むこと、を特徴とする建物被害推定装置。
In the building damage estimation device according to claim 1,
As the red feature image, a pixel having one of the two values has an edge intensity between a predetermined upper limit and a lower limit in an image obtained by further performing edge extraction processing on the gray scale of the optical image. A pixel whose edge intensity exceeds a predetermined threshold in an image obtained by performing edge extraction processing on a hue value image whose pixel value is the H value when the optical image is expressed in the HSV color space. A building damage estimation device characterized by including a small damage image that satisfies the condition of being present.
請求項2に記載の建物被害推定装置において、
前記光学画像のグレースケールに対する前記エッジ抽出処理はラプラシアンオペレータを作用させる処理及びキャニーオペレータを作用させる処理であり、前記上限に対応して前記キャニーオペレータによるエッジ抽出処理が設定され、前記下限に対応して前記ラプラシアンオペレータによるエッジ抽出処理が設定され、前記光学画像のグレースケールに対し前記ラプラシアンオペレータを作用させた画像にて所定の閾値を超え、かつ、前記グレースケールに対し前記キャニーオペレータを作用させた画像にて所定の閾値未満である画素をエッジ強度が前記上限と前記下限との間にある画素とし、
前記色相値画像に対するエッジ抽出処理はラプラシアンオペレータを作用させる処理であること、
を特徴とする建物被害推定装置。
In the building damage estimation device according to claim 2,
The edge extraction process for the gray scale of the optical image is a process of operating a Laplacian operator and a process of operating a canny operator, and an edge extraction process by the cannie operator is set corresponding to the upper limit and corresponds to the lower limit. The edge extraction process by the Laplacian operator was set, and the predetermined threshold was exceeded in the image in which the Laplacian operator was acted on the gray scale of the optical image, and the Canny operator was acted on the gray scale. Pixels whose edge strength is less than a predetermined threshold in an image are defined as pixels whose edge strength is between the upper limit and the lower limit.
The edge extraction process for the hue value image is a process for operating the Laplacian operator.
A building damage estimation device featuring.
請求項2又は請求項3に記載の建物被害推定装置において、
前記被害状況として、前記災害被害がある状態についての被害の程度が異なる被害大状態及び被害小状態と、前記災害被害がない被害なし状態との3つの状態を設定され、
前記識別器は、
前記建物ポリゴンにおける前記被害大状態を前記被害小状態及び前記被害なし状態と区別する被害大識別器と、
前記被害大識別器により前記被害大状態以外とされた前記建物ポリゴンにおいて、前記被害小状態を前記被害なし状態と区別する被害小識別器と、
を有することを特徴とする建物被害推定装置。
In the building damage estimation device according to claim 2 or claim 3 .
As the damage situation, three states are set: a large damage state and a small damage state in which the degree of damage is different for the state with disaster damage, and a no damage state without the disaster damage.
The classifier is
A large damage classifier that distinguishes the large damage state in the building polygon from the small damage state and the no damage state.
A small damage classifier that distinguishes the small damage state from the non-damaged state in the building polygon that is not in the large damage state by the large damage classifier.
A building damage estimation device characterized by having.
請求項4に記載の建物被害推定装置において、
前記被害状況として、さらに青色の不透水性のシートで被覆されたブルーシート被覆状態を設定され、
前記識別器は、さらに、前記建物ポリゴンにおける前記ブルーシート被覆状態を前記被害大状態、前記被害小状態及び前記被害なし状態と区別するブルーシート識別器を有し、
前記ブルーシート識別器により前記ブルーシート被覆状態以外とされた前記建物ポリゴンに対し前記被害大識別器を適用し、
前記ブルーシート識別器にて用いる前記説明変数に対応する前記特徴画像は、前記光学画像にてRGB値のうちR値が最も大きい画素と、それ以外の画素とを二値で区別した赤画素画像を含む一方、前記小被害画像を含まず、
前記被害大識別器にて用いる前記説明変数に対応する前記特徴画像は、前記小被害画像を含む一方、前記赤画素画像を含まず、
前記被害小識別器にて用いる前記説明変数に対応する前記特徴画像は、前記小被害画像と共に前記赤画素画像を含むこと、
を特徴とする建物被害推定装置。
In the building damage estimation device according to claim 4,
As the damage situation, a blue sheet covering state covered with a blue impermeable sheet is further set.
The classifier further has a blue sheet classifier that distinguishes the blue sheet covering state in the building polygon from the damage large state, the damage small state, and the damage-free state.
The damage large classifier is applied to the building polygon that is not covered by the blue sheet by the blue sheet classifier.
The feature image corresponding to the explanatory variable used in the blue sheet classifier is a red pixel image in which the pixel having the largest R value among the RGB values in the optical image and the other pixels are binarized. On the other hand, it does not include the small damage image.
The feature image corresponding to the explanatory variable used in the damage large classifier includes the small damage image, but does not include the red pixel image.
The feature image corresponding to the explanatory variable used in the damage minor classifier includes the red pixel image together with the minor damage image.
A building damage estimation device featuring.
請求項1から請求項5のいずれか1つに記載の建物被害推定装置において、
前記災害被害の推定対象とする前記建物は木造であること、を特徴とする建物被害推定装置。
In the building damage estimation device according to any one of claims 1 to 5.
A building damage estimation device characterized in that the building to be estimated for disaster damage is made of wood.
JP2017222555A 2017-11-20 2017-11-20 Building damage estimation device Active JP6993852B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017222555A JP6993852B2 (en) 2017-11-20 2017-11-20 Building damage estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017222555A JP6993852B2 (en) 2017-11-20 2017-11-20 Building damage estimation device

Publications (2)

Publication Number Publication Date
JP2019095886A JP2019095886A (en) 2019-06-20
JP6993852B2 true JP6993852B2 (en) 2022-01-14

Family

ID=66971604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017222555A Active JP6993852B2 (en) 2017-11-20 2017-11-20 Building damage estimation device

Country Status (1)

Country Link
JP (1) JP6993852B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112037211B (en) * 2020-09-04 2022-03-25 中国空气动力研究与发展中心超高速空气动力研究所 Damage characteristic identification method for dynamically monitoring small space debris impact event
WO2022196474A1 (en) * 2021-03-19 2022-09-22 富士フイルム株式会社 Disaster damage information processing device, disaster damage information processing system, disaster damage information processing method, and program
JP7113590B1 (en) 2021-12-07 2022-08-05 株式会社オプティム Information processing device, method, program, and system
WO2023167017A1 (en) * 2022-03-04 2023-09-07 富士フイルム株式会社 House state provision device and method
CN116630814B (en) * 2023-07-24 2023-09-29 中国建筑科学研究院有限公司 Quick positioning and evaluating method for building disasters based on machine learning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007248364A (en) 2006-03-17 2007-09-27 Pasuko:Kk Building shape change detection method and building shape change detection system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007248364A (en) 2006-03-17 2007-09-27 Pasuko:Kk Building shape change detection method and building shape change detection system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Xin Ye, Qiming Qin, Mingchao Liu, Jun Wang, Jianhua Wang,Building Damage Detection from Post-quake Remote Sensing Image based on Fuzzy Reasoning,2014 IEEE Geoscience and Remote Sensing Symposium,米国,IEEE,2014年07月13日,pp. 529-532,https://ieeexplore.ieee.org/document/6946476/
利根川 凛, 飯塚 博幸, 山本 雅人, 古川 正志, 大内 東,被災がれき量推定に向けた畳み込みニューラルネットワークを用いた倒壊建造物の自動抽出,情報処理学会論文誌,日本,情報処理学会,2016年06月15日,Vol.57, No.6 (June 2016),pp. 1565-1575
國武 千人, 溝田 平, 岩切 宗利, 榊原 庸貴, 望月 貫一郎,熊本地震による被害家屋検出のための空撮画像処理手法,第16回情報科学技術フォーラム(FIT2017),日本,一般社団法人情報処理学会,2017年09月05日,第4分冊, O-003,pp.333-334
小川 祐紀雄, 角本 繁, 岩村 一昭,立体地図を用いた航空写真画像理解による地域の特徴抽出,電子情報通信学会論文誌D-II,日本,電子情報通信学会,1998年06月25日,Vol. J81-D-II, No.6 (1998年6月),pp. 1242-1250

Also Published As

Publication number Publication date
JP2019095886A (en) 2019-06-20

Similar Documents

Publication Publication Date Title
JP6993852B2 (en) Building damage estimation device
US9317784B2 (en) Image processing apparatus, image processing method, and program
CN111415363B (en) Image edge identification method
CN110298297B (en) Flame identification method and device
US20130170742A1 (en) Image processing apparatus and image processing method
US10803116B2 (en) Logo detection system for automatic image search engines
WO2010078586A1 (en) Detecting skin tone in images
US20150139546A1 (en) Image segmenting apparatus and method
JP5337563B2 (en) Form recognition method and apparatus
CN108830184B (en) Black eye recognition method and device
KR20140096595A (en) Method for image classification
JP2005190474A5 (en)
CN111815528A (en) Bad weather image classification enhancement method based on convolution model and feature fusion
KR101875891B1 (en) apparatus and method for face detection using multi detection
JP2015197376A (en) Device, method, and program for abrasion detection
JP4639754B2 (en) Image processing device
CN114998290A (en) Fabric flaw detection method, device, equipment and medium based on supervised mode
CN107038690B (en) Moving shadow removing method based on multi-feature fusion
US20090214108A1 (en) System and method for isolating near achromatic pixels of a digital image
JP6791593B2 (en) Recognition device, recognition program, and recognition method
CN110807758A (en) Method, device, equipment and storage medium for detecting uncovered area of heat preservation quilt
JP4649498B2 (en) Color correction method and system for image data
JP2010008159A (en) Visual inspection processing method
EP3096294B1 (en) Computer program, image processing apparatus, and method for improving quality of image data
CN115292722B (en) Model safety detection method and device based on different color spaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211210

R150 Certificate of patent or registration of utility model

Ref document number: 6993852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150