JP2021005301A - 建物抽出処理装置及びプログラム - Google Patents

建物抽出処理装置及びプログラム Download PDF

Info

Publication number
JP2021005301A
JP2021005301A JP2019119879A JP2019119879A JP2021005301A JP 2021005301 A JP2021005301 A JP 2021005301A JP 2019119879 A JP2019119879 A JP 2019119879A JP 2019119879 A JP2019119879 A JP 2019119879A JP 2021005301 A JP2021005301 A JP 2021005301A
Authority
JP
Japan
Prior art keywords
building
data
output
learning
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019119879A
Other languages
English (en)
Inventor
竜平 濱口
Ryuhei Hamaguchi
竜平 濱口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2019119879A priority Critical patent/JP2021005301A/ja
Publication of JP2021005301A publication Critical patent/JP2021005301A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】容易に撮影画像から精度よく建物を抽出することのできる建物抽出処理装置及びプログラムを提供する。【解決手段】建物抽出処理装置は、所定の指標に応じて複数のグループに分類された建物の上空からの撮影画像を各々入力とし、建物の範囲を示す出力マップを各々出力とするように、撮影画像とこれに対応付けられた建物の範囲の教師データとを用いてそれぞれ学習された複数の学習済モデル122を有する検出部PR3と、撮影画像の入力に対して複数の学習済モデル122によりそれぞれ出力された複数の出力マップを所定の重み付け係数で重み付け加算した統合マップを得る統合部PR5と、撮影画像の入力に対して重み付け係数を出力するように、統合マップと教師データにおける建物の範囲との不一致度合に応じて重み付け係数が学習された学習済モデル123を有する割当部PR4と、を備える。【選択図】図2

Description

この発明は、建物抽出処理装置及びプログラムに関する。
近年、各種画像データから特定形状を抽出する処理の自動化、省力化及び高速化などのために、機械学習モデルを利用した画像認識技術の適用が広がってきている。航空写真及び衛星写真といった上空から俯瞰した撮影画像を解析して建物などの建築構造物を抽出する技術においても、機械学習モデルの生成及び利用が考慮されている。
しかしながら、抽出対象物の形状及び色調といった特徴が幅広い場合、これらを一括して検出可能な機械学習モデルを生成するのには手間がかかり、高い精度を得るのが難しいという問題がある。特許文献1には、対象物のコントラストに応じて2種類の機械学習モデルのいずれかを選択して当該対象物をより精度よく抽出する技術が開示されている。
特開2010−2960号公報
しかしながら、俯瞰した撮影画像から建物を抽出する場合、撮影画像内に多数の建物が混在していると、単純にいずれかの機械学習モデルを選択的に適用しても精度の向上を図れないという課題がある。
この発明の目的は、容易に撮影画像から精度よく建物を抽出することのできる建物抽出処理装置及びプログラムを提供することにある。
上記目的を達成するため、本発明の一の態様は、
所定の指標に応じて複数のグループに分類された建物の上空からの撮影画像を各々入力とし、前記建物の範囲を示す出力マップを各々出力とするように、前記撮影画像と当該撮影画像に対応付けられた前記建物の範囲の教師データとを用いてそれぞれ学習された複数の第1学習済モデルを有する検出部と、
建物の上空からの撮影画像の入力に対して前記複数の第1学習済モデルによりそれぞれ出力された複数の前記出力マップを所定の重み付け係数で重み付け加算した統合マップを得る統合部と、
建物の上空からの撮影画像の入力に対して前記重み付け係数を出力するように、前記統合マップと前記教師データにおける前記建物の範囲との不一致度合に応じて前記重み付け係数が学習された第2学習済モデルを有する割当部と、
を備えることを特徴とする建物抽出処理装置である。
また、本発明の他の一の態様は、
コンピュータを、
所定の指標に応じて複数のグループに分類された建物の上空からの撮影画像を各々入力とし、前記建物の範囲を示す出力マップを各々出力とするように、前記撮影画像と当該撮影画像に対応付けられた前記建物の範囲の教師データとを用いてそれぞれ学習された複数の第1学習済モデルを有する検出手段、
建物の上空からの撮影画像の入力に対して前記複数の第1学習済モデルによりそれぞれ出力された複数の前記出力マップを所定の重み付け係数で重み付け加算した統合マップを得る統合手段、
建物の上空からの撮影画像の入力に対して前記重み付け係数を出力するように、前記統合マップと、前記教師データにおける前記建物の範囲との不一致度合に応じて前記重み付け係数が学習された第2学習済モデルを有する割当手段、
として機能させることを特徴とするプログラムである。
本発明に従うと、撮影画像から容易かつ精度よく建物を抽出することができるという効果がある。
本実施形態の建物抽出処理装置である処理装置の構成を示すブロック図である。 建物抽出動作の処理の流れを機能的に示した図である。 検出部の各学習モデルの学習時における処理の流れを説明する図である。 学習データ生成処理の制御手順を示すフローチャートである。 判別学習モデル生成処理の制御手順を示すフローチャートである。 割当部の学習モデルの学習時における処理の流れを説明する図である。 割当学習モデル生成処理の制御手順を示すフローチャートである。 建物抽出処理の制御手順を示すフローチャートである。 学習データ生成処理の他の例を示すフローチャートである。 学習モデル生成処理の制御手順を示すフローチャートである。
以下、本発明の実施の形態を図面に基づいて説明する。
図1は、第1実施形態の建物抽出処理装置(コンピュータ)である処理装置1の構成を示すブロック図である。
処理装置1は、例えば、通常のPCであってよく、制御部11と、記憶部12と、入出力インターフェイス13と、操作受付部14と、表示部15などを備える。
制御部11は、各種演算処理を行うプロセッサであり、例えば、CPU(Central Processing Unit)などを備える。CPUは、記憶部12からプログラムなどを読み込んで実行することで各種制御処理を行う。
記憶部12は、RAMと、不揮発性メモリなどを備え、各種データを記憶する。RAMは、CPUに作業用のメモリ空間を提供し、一時データを記憶する。不揮発性メモリは、プログラム、設定データ及び建物抽出結果のデータなどを記憶保持する。不揮発性メモリとしては、フラッシュメモリが含まれ、あるいは、これに代えて又は加えてHDD(Hard Disk Drive)などが含まれてもよい。また、初期制御プログラムなどは、ROM(Read Only Memory)に格納されていてもよい。プログラムには、後述の建物抽出処理に係るプログラム121、及び当該プログラム121で用いられる学習済モデル122、123が含まれる。
入出力インターフェイス13は、周辺機器と接続するための接続端子131及び外部機器との間で信号の送受信を行うための通信部132などを備える。周辺機器としては、大型の補助記憶装置、例えば、データベース装置21、並びにCDROM、DVD及びBlu−ray(登録商標)などの可搬型記憶媒体(光ディスク)を読み取る光学読取装置22などが挙げられる。また、可搬型記憶媒体に磁気テープが含まれ、この磁気テープを読み取る読取装置が周辺機器に含まれてもよい。接続端子としては、USB(Universal Serial Bus)など各種規格に応じたものが利用されてよい。あるいは、LAN(Local Area Network)などのネットワーク回線を介して通信部が外部から取得するものであってもよい。データベース装置21及び/又は可搬型記憶媒体に記憶されたデータには、DSMデータ201(Digital Surface Model)、DEMデータ202(Digital Elevation Model)、学習済モデル122、123の生成用の学習データ203、学習済モデル122、123の生成用の教師データ204、及び建物抽出処理に係るプログラム121により建物を抽出する対象の撮影画像データ205などが含まれる。
DSMデータ201及びDEMデータ202は、水平面に平行な2次元面(2次元地図面)について、2次元地図面を区切った複数のメッシュごとに中心位置の水平座標と高度(標高値)とを対応付けたものである。DSMデータ201は、地上の構造物及び樹林などを含めた高度分布のデータであり、例えば、レーザプロファイラによって計測、取得されたものである。DEMデータ202は、水平面に平行な2次元面について、2次元地図面を区切った複数のメッシュごとに地表面の高度を水平座標と対応付けたものである。すなわち、DEMデータ202では、レーザプロファイラなどで取得されたDSMデータから地上の構造物及び樹木などの高さを取り除いた高度値(標高)の分布を示す。同一位置におけるDSMデータ201の値とDEMデータ202の値の差分が建物などの高さに対応する。
学習データ203及び撮影画像データ205は、上空から俯瞰して(見下ろして)撮影された航空写真及び衛星写真などの可視光画像(撮影画像)のデータである。これらのデータは、オルソ補正がなされた画像(オルソ画像)であってもよい。学習データ203は、建物のサイズからその数倍程度に撮影画像データ205が一部ずつに区切られたブロックデータである。教師データ204では、学習データ203の各画素における建物の有無がそれぞれ2値データで示されている。これらについては、後に改めて説明する。
操作受付部14は、例えば、キーボードやマウスなどの入力デバイスを備え、ユーザなど外部からの入力操作を受け付ける。入力デバイスには、タッチパネル(タッチセンサ)などが含まれていてもよい。
表示部15は、制御部11の制御により表示画面にメニュー、ステータス及び処理結果などの表示を行わせる。表示画面は、特には限られないが、例えば、液晶表示画面である。操作受付部14がタッチパネルを有する場合には、表示画面は、当該タッチパネル(タッチセンサ)と重ねて設けられる。
次に、第1実施形態の建物抽出動作について説明する。
図2は、建物抽出動作の処理の流れを機能的に示した図である。
撮影画像データ205は、建物を抽出するエリアごとに処理に適したサイズのデータを単位として順次検出部PR3に入力される。検出部PR3は、異なる学習データにより学習された複数の学習済モデル122、ここでは、学習済モデルA〜D(第1学習済モデル)を含み、各々並列に撮影画像データ205の各エリアデータが入力される。各学習済モデルA〜Dは、特徴量抽出部PR31及び判定部PR32の処理を経て各エリアの画素ごと(プーリングなどでサイズが変更されている場合には、当該サイズの画素ごと)に建物である確率が配列された(建物の範囲を示す)出力マップA〜D(確率マップ)をそれぞれ出力する。なお、画素に対応する実サイズ(実際の一辺の長さ)などによっては、複数画素ごとに平均などされた値が出力されてもよい。
学習済モデルA〜Dは、それぞれ通常の画像認識アルゴリズムを利用したものであって、ここでは、CNN(畳み込みニューラルネットワーク)が用いられている。特徴量抽出部PR31の処理には、畳み込みとプーリングの各処理が対応し、判定部PR32の処理には、全結合層又は畳み込み層の生成と建物である確率を算出する判定処理とが対応する。なお、説明上特徴量抽出部PR31と判定部PR32とが複数の学習済モデルA〜Dにまたがって示されているが、各係数は学習済モデルA〜Dで各々別個に定められてよい。
一方、撮影画像データ205の各エリアのデータは、割当部PR4にも並列に入力される。割当部PR4は、学習済モデル123、ここでは学習済モデルE(第2学習済モデル)を含み、撮影画像データ205が入力されて、特徴量抽出部PR41及び判定部PR42の処理を経て各出力マップA〜Dの妥当性(不一致度合。処理上は、以下のように出力マップA〜Dを統合した統合マップにおいて得られた建物である確率(0以上1以下)と、同エリアで実際に建物であるか否かを示す教師データ(0又は1の2値)との差分から各出力マップA〜Dにフィードバックされる)に応じた各画素の重み付け係数が配列された割当マップA〜Dが生成、出力される。すなわち、割当マップは、出力マップA〜Dと同サイズの2次元エリアの各画素についてそれぞれ重み付け係数が算出され、配列されている3次元データである。
出力マップA〜D及び割当マップA〜Dが得られると、これらは、統合部PR5に入力される。統合部PR5では、出力マップA〜Dの各画素値に対してそれぞれ割当マップA〜D(重み付け係数)の対応する配列位置(画素)における値(重み付け係数)を乗じることで重み付けをし、これらを加算し、統合マップを生成する(PR5)。すなわち、統合マップのj行k列成分の値Sjk=Σi=A〜D(割当マップijk×出力マップijk)となる。統合マップにおける各配列位置(画素)の値を所定の基準値により二値化して、当該二値により建物であるか否かが特定される(PR6)。
次に、各学習済モデルA〜Eの生成(学習)手順について説明する。特には限られないが、ここでは、学習済モデルA〜Eの生成のための学習データA〜Eの設定及びこれらを用いた学習(学習済モデルA〜Eの生成)は、いずれも処理装置1で行われる。
図3は、検出部PR3に含まれる各学習モデルA〜Dの学習時(学習済モデル122の生成時)における処理の流れを説明する図である。
学習モデルA〜Dの学習処理で用いられる学習データ203は、上述のように、撮影画像データ205を小規模建物程度〜その数倍程度の大きさで区分したブロックデータに分割したものであり、この学習処理で用いられる教師データ204では、当該ブロックデータの各画素における建物有無が上述のように1ビット(2値)などで保持される。
指標値取得部PR2は、ブロックデータから建物面積や屋根の色相H(色情報)といった建物の特性に係るパラメータを指標(所定の指標)として取得し、また、対応する位置でのDSMデータ201及びDEMデータ202の差分(高度プロファイルデータ)から高さ取得部PR1で得られた建物の高さを指標(所定の指標)として取得する。これらの指標値とその基準値とに基づいて、例えば、高い建物か否か、面積の大きい建物か否かといった条件によりブロックデータが複数のグループに分類される。分類を示すデータは、ここでは、例えば、高さの高低を示す1ビットと面積の大小を示す1ビットの組み合わせなどで示されてよい。
判定部PR32の学習モデルA〜Dは、それぞれ、上記指標に基づいて各々分類されたブロックデータ(上空からの撮影画像)を用いて(入力として)学習が行われる。ここでは、例えば、学習モデルA、Bの学習には、建物の面積が所定の基準面積以上か否か(大小)によって分類されたブロックデータがそれぞれ学習データA、Bとして用いられる。学習モデルC、Dの学習には、建物の高さが所定の基準高以上か否か(高低)によって分類されたブロックデータがそれぞれ学習データC、Dとして用いられる。学習データA〜Dは、各々別個に全ての内容が記憶されなくてもよく、各学習データA〜Dに属するブロックデータを特定する情報、すなわち、配列位置(順番)、アドレス、ポインタなどがそれぞれ保持されてもよいし、各ブロックデータに対して上述の分類を示すデータを付加して又は対応付けて保持しておいてもよい。
各学習モデルから出力された出力マップが教師データと比較されて、損失関数が算出され、これを適切に小さくするように、学習済モデルの特徴量抽出部PR31及び判定部PR32における各係数(パラメータ)にフィードバックされる。損失関数の具体的な種別は、特には限定されず、適宜選択されてよい。
図4は、学習データ生成処理の制御部11による制御手順を示すフローチャートである。この学習データ生成処理は、予め学習データ203と教師データ204とが用意された状態で開始されて、各ブロックデータに対して各々分類を設定し、及び/又は各学習データA〜Dに含まれるブロックデータのリストを生成する処理である。下記では、両方の処理を行う旨示すが、どちらか一方であってもよい。
学習データ生成処理が開始されると、制御部11(CPU)は、学習データ203から画像データ(ブロックデータ)を取得する(ステップS101)。制御部11は、画像データに対応する教師データを取得する(ステップS102)。制御部11は、教師データに基づいて各画素が属する建物のエリアを特定し、当該建物の面積を算出する(ステップS103)。制御部11は、建物の面積が所定の基準値以上であるか否かを判別する(ステップS104)。面積が基準値以上であると判別された場合には(ステップS104で“YES”)、当該ブロックデータの位置情報を学習データAのリストに追加する。また、制御部11は、対象ブロックデータの建物面積に係る分類を示す上記1ビットデータを定める(例えば「1」)。また、制御部11は、追加部分に対応する教師データにその旨の設定を行う(ステップS105)。それから、制御部11の処理は、ステップS111に移行する。
面積が基準値以上ではない(未満である)と判別された場合には(ステップS104で“NO”)、制御部11は、当該ブロックデータの位置情報を学習データBのリストに追加する。また、制御部11は、対象ブロックデータの建物面積に係る分類を示す上記1ビットデータを定める(例えば「0」)。また、制御部11は、追加部分に対応する教師データにその旨の設定を行う(ステップS106)。それから、制御部11の処理はステップS111に移行する。
制御部11は、取得している画像データ(ブロックデータ)の位置に対応するDSMデータ201及びDEMデータ202を取得する(ステップS111)。制御部11は、DSMの値とDEMの値の差分により、対象の建物の高さを算出、特定する(ステップS112)。この高さは、画素単位などでなく、対象の建物における最高点の高さであってよい。制御部11は、特定された建物の高さが所定の基準高さ以上であるか否かを判別する(ステップS113)。基準高さ以上であると判別された場合には(ステップS113で“YES”)、制御部11は、当該ブロックデータの位置情報を学習データCのリストに追加する。また、制御部11は、対象ブロックデータの高さに係る分類を示す上記1ビットデータを定める(例えば「1」)。また、制御部11は、追加部分に対応する教師データにその旨設定する(ステップS114)。それから、制御部11の処理は、ステップS116に移行する。
高さが基準高さ以上ではない(未満である)と判別された場合には(ステップS113で“NO”)、制御部11は、当該ブロックデータの位置情報を学習データDのリストに追加する。また、制御部11は、対象がその高さに係る分類を示す上記1ビットデータを定める(例えば(「0」)。また、対応する教師データにその旨設定する(ステップS115)。それから、制御部11の処理は、ステップS116に移行する。
ステップS116の処理に移行すると、制御部11は、処理対象の画像データ(ブロックデータ)の処理が全て終了したか否かを判別する(ステップS116)。終了していないと判別された場合には(ステップS116で“NO”)、制御部11の処理は、ステップS101に戻る。終了したと判別された場合には(ステップS116で“YES”)、制御部11は、学習データ生成処理を終了する。
学習モデルA〜Dは、建物に係る複数の指標(面積及び高さなど)に基づきそれぞれ上記で得られた学習データA〜Dを用いて学習がなされることで、学習済モデルA〜Dとなる。
図5は、判別学習モデル生成処理の制御部11による制御手順を示すフローチャートである。ここでは、学習モデルA〜Dにそれぞれ属するブロックデータの位置情報に係る上記リストが用いられるものとして説明する。
制御部11は、学習データA〜Dのうちいずれかを選択する(ステップS201)。制御部11は、選択された学習データのリストに含まれる画像データ(ブロックデータ)を1つ取得する(ステップS202)。
制御部11は、取得した画像データ(ブロックデータ)を対応する学習モデルに入力させ、特徴量抽出部PR31の処理を行わせて、特徴量情報を得る(ステップS203)。上述のように、特徴量抽出部PR31は、CNNにおける畳み込み及びプーリングに対応し、これらの処理により特徴量情報として所定サイズの特徴マップが出力される。制御部11は、特徴マップ(特徴量)の各値を平坦化し、結合(全結合)させるか、又は更に畳み込み処理を適用することで画素位置ごとに建物か否かの確率を示す出力マップ(確率マップ)を生成する(ステップS204)。制御部11は、対応するエリアの教師データを取得し、出力データと各々比較して、一致の度合に応じた損失関数を算出する(ステップS205)。
制御部11は、誤差逆伝播法などにより、損失関数を減少させるように特徴量抽出部PR31における畳み込みのフィルタ値、及び判定部PR32における全結合時の結合重み付け又は畳み込みのフィルタ値などの係数(パラメータ)をそれぞれ更新する(ステップS206)。
制御部11は、選択されている学習データについての全ての画像データ(ブロックデータ)の処理が終了したか否かを判別する(ステップS207)。終了していないと判別された場合には(ステップS207で“NO”)、制御部11の処理は、ステップS202に戻る。全ての画像データの処理が終了したと判別された場合には(ステップS207で“YES”)、制御部11は、現在選択されている学習モデルを学習済モデルとして確定する。制御部11は、学習データA〜Dの全てが選択されたか否かを判別する(ステップS208)。選択されていないと判別された場合には(ステップS208で“NO”)、制御部11の処理は、ステップS201に戻る。全ての学習データA〜Dが選択されたと判別された場合には(ステップS208で“YES”)、制御部11は、判別学習モデル生成処理を終了する。
なお、学習モデルの学習において、学習データのリストごとではなく、上述のブロックデータごとに分類データに基づいて入力される学習モデルが選択される場合には、各ブロックデータが複数の学習モデルに対応することがあるので、当該対応する複数の学習モデルに対して並列に入力され、各々の学習モデルのパラメータが独立に更新されてもよい。
割当部の学習モデルEは、各種建物を含む学習データ203及び対応する教師データ204、並びに上記の学習済モデルA〜Dを用いて学習がなされる。この場合の学習データ203には、上記指標による分類は不要であるが、各分類に属する建物がバランスよく含まれているものであるとよい。あるいは、学習データ203は、単純に学習データA、Bを組み合わせたもの又は学習データC、Dを組み合わせたものであってもよい。
図6は、割当部PR4に含まれる学習モデルEの学習時(学習済モデル123の生成時)における処理の流れを説明する図である。
学習データ203から取得された画像データ(ブロックデータ)は、検出部PR3の学習済モデルA〜D及び割当部PR4の学習モデルEに入力される。学習済モデルA〜Dでは、特徴量抽出部PR31及び判定部PR32の処理を経てそれぞれ出力マップA〜Dが生成され、出力される。学習モデルEでは、特徴量抽出部PR41及び判定部PR42の処理を経て割当マップA〜Dが生成、出力される。
統合部PR5では、出力マップA〜Dがそれぞれ割当マップA〜Dにより重み付けされて加算されることで、統合マップが生成、出力される。割当部PR4の学習では、この統合マップが教師データ204と比較されて、不一致の度合、すなわち損失関数が算出される。上記同様、損失関数の種別は、特に限られるものではない。この損失関数の値を小さくするように、特徴量抽出部PR41及び判定部PR42の各係数(パラメータ)にフィードバックされていくことで、学習モデルEの学習が行われる。
図7は、割当学習モデル生成処理の制御部11による制御手順を示すフローチャートである。
制御部11は、学習データ203から本処理の対象の画像データ(ブロックデータ)を1つ取得する(ステップS301)。制御部11は、画像データに対して畳み込み(設計に応じてプーリング)を行って特徴量(特徴マップ)を抽出する(ステップS302)。また、制御部11は、得られた特徴量(特徴マップ)を平坦化及び全結合するか、又は更に畳み込み処理を適用することで、割当マップを生成する(ステップS303)。
制御部11は、各学習済モデルA〜Dに上記学習モデルEに入力されたものと同一の画像データを入力して、各々出力マップA〜Dを取得し、取得された出力マップA〜Dを、学習済モデルA〜Dに応じた各割当マップA〜Dでそれぞれ重み付けする(ステップS304)。制御部11は、重み付けした出力マップを当該出力マップの画素ごとに加算して、統合マップを生成する(ステップS305)。
制御部11は、教師データを取得して、統合マップの各画素における教師データの各画素の値(0又は1)との不一致度合に応じた損失関数を算出する(ステップS306)。制御部11は、損失関数を減少させるように、誤差逆伝播法などにより割当マップの生成に係る特徴量抽出部PR41のフィルタ及び判定部PR42の全結合パラメータ又は畳み込みフィルタ値などの各係数を更新する(ステップS307)。
制御部11は、学習データ203における本処理の対象の全ての画像データ(ブロックデータ)の処理が終了したか否かを判別する(ステップS308)。終了していないと判別された場合には(ステップS308で“NO”)、制御部11の処理は、ステップS301に戻る。終了したと判別された場合には(ステップS308で“YES”)、学習済モデルEを確定して割当学習モデル生成処理を終了する。
以上のようにして得られた学習済モデルA〜D(学習済モデル122)及び学習済モデルE(学習済モデル123)が実際の建物抽出処理に適用される。
図8は、建物抽出処理の制御部11による制御手順を示すフローチャートである。
ここでは、建物を抽出する対象となる通常の撮影画像のデータを所定の面積(画素数)で分割した画像データ(上記エリアデータ)を順次設定して建物の抽出を行っていく。
制御部11は、建物を抽出する対象の画像データ(エリアデータ)を取得する(ステップS401)。制御部11は、画像データを学習済モデルEに入力し、各学習済モデルA〜Dに対応した割当マップA〜Dを取得する(ステップS402;割当手段)。制御部11は、画像データを学習済モデルA〜Dにそれぞれ入力し、建物の確率に係る出力マップA〜Dを各々取得する(ステップS403;検出手段)。
制御部11は、各出力マップA〜Dをそれぞれ対応する割当マップA〜Dで重み付けする(ステップS404)。制御部11は、重み付けされた出力マップを当該出力マップの画素ごとに加算して統合マップを生成する(ステップS405)。ステップS404、S405の処理が本実施形態のプログラムにおける統合手段を構成する。制御部11は、統合マップの各画素について、値を所定の基準値と比較してその大小に応じて二値化する(ステップS406)。制御部11は、基準値より大きい画素(例えば、二値で「1」の部分)を建物であると判定して抽出、出力する(ステップS407)。
制御部11は、撮影画像データに対して設定可能なエリアデータが全て取得されたか否かを判別する(ステップS408)。取得されていない画像データ(エリアデータ)があると判別された場合には(ステップS408で“NO”)、制御部11の処理は、ステップS401に戻る。全て取得されたと判別された場合には(ステップS408で“YES”)、制御部11は、建物抽出処理を終了する。
図9は、学習データ生成処理の他の例を示すフローチャートである。
この学習データ生成処理は、建物の高さの代わりに色相Hを用いたものであり、ステップS111の処理が削除され、ステップS112、S113の処理がステップS112a、S113aの処理に置き換えられている。その他の処理は同一であり、同一の処理内容には同一の符号を付して説明を省略する。
ステップS105、S106の処理が終了すると、制御部11の処理は、ステップS112aに移行する。制御部11は、学習データ203において対象としている画像データ(ブロックデータ)から建物の屋根の色を特定し、色相Hを算出する(ステップS112a)。画像データ(RGBカラー画像データ)に用いられているRGBの各輝度値から色相Hの算出は、従来周知のとおりに行われればよい。制御部11は、色相Hが設定されている所定範囲内であるか否かを判別する(ステップS113a)。所定範囲は適宜定められるが、例えば、赤系の屋根は、色相Hの範囲0〜60°及び300〜360°として、他の色相の屋根と区分されてもよい。所定の範囲内にあると判別された場合には(ステップS113aで“YES”)、制御部11の処理は、ステップS114へ移行し、所定の範囲内にないと判別された場合には(ステップS113aで“NO”)、制御部11の処理は、ステップS115へ移行する。
上記では、判別学習モデル生成処理により学習済モデルA〜Dが生成されてから、当該学習済モデルA〜Dを用いて割当学習モデル生成処理を実行することとして説明したが、これらの処理が並列になされてもよい。
図10は、学習モデル生成処理の制御部11による制御手順を示すフローチャートである。この学習モデル生成処理は、上述の判別学習モデル生成処理と割当学習モデル生成処理とを統合して同時に行わせたものである。この処理では、判別学習モデル生成処理におけるステップS203〜S206の処理がそれぞれステップS203a〜S206aの処理に置き換えられ、これに続いて割当学習モデル生成処理におけるステップS304〜S308の処理が実行される。割当学習モデル生成処理と同一の処理内容については、同一の符号を付して説明を省略する。
この処理では、上述のように、学習モデルごとではなく、ブロックデータごとに入力をして、当該ブロックデータが属するグループに対応する学習モデルA〜Dのみを学習させる場合について説明する。学習されない学習モデルについても、学習モデルEの学習に利用されるので、並行にブロックデータが入力されて処理がなされ、出力マップを出力させる。
学習モデル生成処理が開始されると、制御部11は、学習データ203からブロックデータを1つ取得する。制御部11は、取得したブロックデータを学習モデルA〜Eにそれぞれ入力する(ステップS202a)。制御部11は、各学習モデルで畳み込み処理などを行って特徴量を抽出する(ステップS203a)。制御部11は、特徴マップA〜Eに基づいて、各々全結合又は畳み込み処理を行って、出力マップA〜D及び割当てマップを出力させる(ステップS204a)。
制御部11は、入力したブロックデータに対応する教師データを取得し、当該ブロックデータが属するグループ(複数であってよい)の出力マップと比較して損失関数を算出する(ステップS205a)。制御部11は、算出された算出関数に基づいて、上記グループの学習モデルに係る畳み込みのフィルタ及び全結合の重み付けなどに係るパラメータ(係数)を更新する(ステップS206a)。それから、制御部11の処理は、ステップS304に移行する。
以上のように、本実施形態の処理装置1は、所定の指標、ここでは、建物の面積及び高さ(又は色相)に応じて複数のグループA〜Dに分類された建物の上空からの撮影画像(撮影画像データ205)を各々入力とし、建物の範囲を示す出力マップA〜Dを各々出力とするように、撮影画像と当該撮影画像に対応付けられた建物の範囲の教師データとを用いてそれぞれ学習された複数の学習済モデル122(学習済モデルA〜D)を有する検出部(PR3)と、建物の上空からの撮影画像の入力に対して複数の第1学習済モデル(学習済モデルA〜D)によりそれぞれ出力された複数の出力マップA〜Dを所定の重み付け係数(割当マップA〜D)で重み付け加算した統合マップを得る統合部(PR5)と、建物の上空からの撮影画像(撮影画像データ205)の入力に対して重み付け係数(割当マップA〜D)を出力するように、統合マップと教師データにおける建物の範囲との不一致度合に応じて重み付け係数(割当マップA〜D)が学習された学習済モデル123(学習済モデルE)を有する割当部(PR4)と、を備える。
建物では、必ずしも指標を挟んで完全に異なる形状、サイズや色合いを示すわけではなく、しばしば特性が混在する。したがって、建物の特性によっては他の分類に係る学習済モデルの方がより適切に建物を抽出可能となることも多い。したがって、上述のように、複数の学習済モデルを並列に用いて出力マップA〜Dを取得し、建物の特徴に応じた重み付け係数でこれら出力マップA〜Dを適宜に重み付けて建物を抽出することで、より精度よく撮影画像から建物を抽出することが可能になる。また、複数の建物が撮影画像内に存在し、これらの特性が分散していて各々明確に分離することのできない場合に、当該複数の学習済モデルを画素などの単位面積ごとに適宜に重み付けして加算することで、画像内の各建物を容易かつより精度よく抽出することが可能になる。
また、所定の指標には、建物面積、建物の高さ及び建物の屋根の色情報(色相H)のうち少なくともいずれかが含まれる。これらの指標は、建物の大きさ、形状などと比較的よい相関があり、個別に判別用の学習済モデルを構築することで、より精度のよい建物の範囲抽出が可能となる。
また、建物高さの情報は、撮影画像に対応する範囲の高度プロファイルデータ(DSM及びDEM)から取得される。このように、建物の特徴情報は、撮影画像から取得されるもののみに限られなくてもよい。特に、高さの情報は、形状に加えて影などにも影響する一方で、上空からの各撮影画像データのみから取得するのは難しいので、外部から取得して活用することで、建物の抽出精度を向上させることができる。その一方で、複数のモデルを適宜な割合で重み付けて組み合わせることができるので、必ずしも高さで綺麗に分かれない建物形状をより適切に抽出することが可能となる。
また、複数のグループへの分類は、複数の指標(ここでは、面積、及び高さ又は色相)によりなされる。複数の指標に基づくグループ分けで多面的に学習モデルを構築し、これらを適宜な比率で組み合わせることで、より確実に正確な建物形状を抽出することが可能となる。
また、本実施形態の建物抽出処理用のプログラム121をコンピュータにインストールして動作させることで、専用のハードウェア構成を設けたり、特殊な部品を用いたりすることなく、撮影画像から容易かつより適切に撮影画像内の各種建物の形状を抽出することができる。
なお、本発明は、上記実施の形態に限られるものではなく、様々な変更が可能である。
例えば、上記実施の形態では、CNNを用いて出力マップ及び割当マップを取得したが、機械学習モデルはこれに限られない。他の手法が用いられてもよい。また、検出部PR3と割当部PR4とで異なる手法の機械学習モデルが用いられてもよい。
また、上記実施の形態では、建物の面積により2種類、高さ又は色相により2種類の合計4種類の学習済モデルを生成して統合し、建物を抽出したが、種別及び数はこれに限られない。また、上記では、2種類のパラメータが独立に判断されたが、組み合わせにより4種類の排他的な学習データA〜Dにより4種類の学習済モデルが生成されてもよい。
また、上記実施の形態では、屋根の色情報として色相Hを用いることとしたが、これに限られない。
また、上記実施の形態では、可視光画像を用いることとして説明したが、赤外波長が用いられてもよく、また、レーダー計測などが用いられたものであってもよい。
また、上記実施の形態では、記録媒体などの設定を含む画像形成制御処理に係るプログラム121のコンピュータ読み取り可能な媒体としてフラッシュメモリ又はHDDなどを含む不揮発性メモリを有する記憶部12を例に挙げて説明したが、不揮発性メモリは、具体的にこれらに限定されない。また、その他のコンピュータ読み取り可能な媒体として、例えば、CD−ROM及びDVDディスクなどの可搬型記憶媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウェーブ(搬送波)も本発明に適用される。
その他、上記実施の形態で示した構成、処理内容及び手順などの具体的な細部は、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
1 処理装置
11 制御部
12 記憶部
121 プログラム
122、123 学習済モデル
13 入出力インターフェイス
131 接続端子
132 通信部
14 操作受付部
15 表示部
21 データベース装置
22 光学読取装置
201 DSMデータ
202 DEMデータ
203 学習データ
204 教師データ
205 撮影画像データ
PR1 高さ取得部
PR2 指標値取得部
PR3 検出部
PR31 特徴量抽出部
PR32 判定部
PR4 割当部
PR41 特徴量抽出部
PR42 判定部
PR5 統合部

Claims (5)

  1. 所定の指標に応じて複数のグループに分類された建物の上空からの撮影画像を各々入力とし、前記建物の範囲を示す出力マップを各々出力とするように、前記撮影画像と当該撮影画像に対応付けられた前記建物の範囲の教師データとを用いてそれぞれ学習された複数の第1学習済モデルを有する検出部と、
    建物の上空からの撮影画像の入力に対して前記複数の第1学習済モデルによりそれぞれ出力された複数の前記出力マップを所定の重み付け係数で重み付け加算した統合マップを得る統合部と、
    建物の上空からの撮影画像の入力に対して前記重み付け係数を出力するように、前記統合マップと前記教師データにおける前記建物の範囲との不一致度合に応じて前記重み付け係数が学習された第2学習済モデルを有する割当部と、
    を備えることを特徴とする建物抽出処理装置。
  2. 前記所定の指標には、建物面積、建物の高さ及び建物の屋根の色情報のうち少なくともいずれかが含まれることを特徴とする請求項1記載の建物抽出処理装置。
  3. 前記建物の高さの情報は、前記撮影画像に対応する範囲の高度プロファイルデータから取得されることを特徴とする請求項2記載の建物抽出処理装置。
  4. 前記複数のグループへの分類は、複数の前記指標によりなされることを特徴とする請求項1〜3のいずれか一項に記載の建物抽出処理装置。
  5. コンピュータを、
    所定の指標に応じて複数のグループに分類された建物の上空からの撮影画像を各々入力とし、前記建物の範囲を示す出力マップを各々出力とするように、前記撮影画像と当該撮影画像に対応付けられた前記建物の範囲の教師データとを用いてそれぞれ学習された複数の第1学習済モデルを有する検出手段、
    建物の上空からの撮影画像の入力に対して前記複数の第1学習済モデルによりそれぞれ出力された複数の前記出力マップを所定の重み付け係数で重み付け加算した統合マップを得る統合手段、
    建物の上空からの撮影画像の入力に対して前記重み付け係数を出力するように、前記統合マップと、前記教師データにおける前記建物の範囲との不一致度合に応じて前記重み付け係数が学習された第2学習済モデルを有する割当手段、
    として機能させることを特徴とするプログラム。
JP2019119879A 2019-06-27 2019-06-27 建物抽出処理装置及びプログラム Pending JP2021005301A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019119879A JP2021005301A (ja) 2019-06-27 2019-06-27 建物抽出処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019119879A JP2021005301A (ja) 2019-06-27 2019-06-27 建物抽出処理装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2021005301A true JP2021005301A (ja) 2021-01-14

Family

ID=74098201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019119879A Pending JP2021005301A (ja) 2019-06-27 2019-06-27 建物抽出処理装置及びプログラム

Country Status (1)

Country Link
JP (1) JP2021005301A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023007551A1 (ja) * 2021-07-26 2023-02-02 ファナック株式会社 画像処理装置及びコンピュータ読み取り可能な記憶媒体
WO2023053364A1 (ja) * 2021-09-30 2023-04-06 楽天グループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2024100777A1 (ja) * 2022-11-08 2024-05-16 日本電信電話株式会社 推論装置、学習装置、推論方法、学習方法、及びコンピュータプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009051258A1 (ja) * 2007-10-19 2009-04-23 Pasco Corporation 家屋異動判定方法、及び家屋異動判定プログラム
JP2010262506A (ja) * 2009-05-08 2010-11-18 Sony Corp 画像処理装置および方法、並びにプログラム
JP2013045433A (ja) * 2011-08-26 2013-03-04 Canon Inc 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム
JP2019028657A (ja) * 2017-07-28 2019-02-21 株式会社パスコ 建物領域抽出用の学習済みモデル

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009051258A1 (ja) * 2007-10-19 2009-04-23 Pasco Corporation 家屋異動判定方法、及び家屋異動判定プログラム
JP2010262506A (ja) * 2009-05-08 2010-11-18 Sony Corp 画像処理装置および方法、並びにプログラム
JP2013045433A (ja) * 2011-08-26 2013-03-04 Canon Inc 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム
JP2019028657A (ja) * 2017-07-28 2019-02-21 株式会社パスコ 建物領域抽出用の学習済みモデル

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YUANYUAN GUI ET AL.: ""Multi-Branch Regression Network For Building Classification Using Remote Sensing Images"", 2018 10TH IAPR WORKSHOP ON PATTERN RECOGNITION IN REMOTE SENSING (PRRS), JPN6023012287, 19 August 2018 (2018-08-19), US, pages 1 - 4, XP033417864, ISSN: 0005086385, DOI: 10.1109/PRRS.2018.8486177 *
藤田 藍斗、外2名: ""CNNを用いた高空間解像度衛星画像からの地物抽出"", 2016年度 人工知能学会全国大会(第30回)論文集, JPN6023012288, 6 June 2016 (2016-06-06), JP, pages 1 - 4, ISSN: 0005086384 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023007551A1 (ja) * 2021-07-26 2023-02-02 ファナック株式会社 画像処理装置及びコンピュータ読み取り可能な記憶媒体
WO2023053364A1 (ja) * 2021-09-30 2023-04-06 楽天グループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2024100777A1 (ja) * 2022-11-08 2024-05-16 日本電信電話株式会社 推論装置、学習装置、推論方法、学習方法、及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
CN110929607B (zh) 一种城市建筑物施工进度的遥感识别方法和***
US9471853B2 (en) Method and apparatus for image processing
US8179393B2 (en) Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment
US8855427B2 (en) Systems and methods for efficiently and accurately detecting changes in spatial feature data
US8503761B2 (en) Geospatial modeling system for classifying building and vegetation in a DSM and related methods
JP2021005301A (ja) 建物抽出処理装置及びプログラム
JP6808787B1 (ja) 建物変化識別装置及びプログラム
US11334986B2 (en) System and method for processing images of agricultural fields for remote phenotype measurement
CN112634340A (zh) 基于点云数据确定bim模型的方法、装置、设备和介质
CN111323788B (zh) 建筑物变化的监测方法、装置及计算机设备
US20100182316A1 (en) Geospatial modeling system for 3d clutter data and related methods
Bandyopadhyay et al. Classification and extraction of trees and buildings from urban scenes using discrete return LiDAR and aerial color imagery
JPWO2019087673A1 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム
US20130231897A1 (en) Systems and methods for efficient analysis of topographical models
CN113724381B (zh) 一种基于高分遥感影像的动态三维场景快速重建方法
CN111458691A (zh) 建筑物信息的提取方法、装置及计算机设备
ESTOQUE et al. < Original Papers> Validating ALOS PRISM DSM-derived surface feature height: Implications for urban volume estimation
CN116681959B (zh) 基于机器学习的锋线识别方法、装置、存储介质及终端
US8755606B2 (en) Systems and methods for efficient feature extraction accuracy using imperfect extractors
JP5352435B2 (ja) 分類画像作成装置
JP6546385B2 (ja) 画像処理装置及びその制御方法、プログラム
KR101114904B1 (ko) 도화원도와 항공 레이저 측량 데이터를 이용한 도시공간정보 구축 시스템 및 그 방법
Kux et al. Object-oriented analysis of high-resolution satellite images for intra-urban land cover classification: Case study in São José Dos Campos, São Paulo State, Brazil
KR20130002239A (ko) 포인트 클라우드 데이터의 필터링을 통해 획득된 도로데이터의 경사도를 이용하여 도로 레이어를 생성하는 시스템 및 방법
JP2017133966A (ja) 植物種判別装置、植物種判別方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230605

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230620