JP4747122B2 - 特定領域自動抽出システム、特定領域自動抽出方法、および、プログラム - Google Patents

特定領域自動抽出システム、特定領域自動抽出方法、および、プログラム Download PDF

Info

Publication number
JP4747122B2
JP4747122B2 JP2007077631A JP2007077631A JP4747122B2 JP 4747122 B2 JP4747122 B2 JP 4747122B2 JP 2007077631 A JP2007077631 A JP 2007077631A JP 2007077631 A JP2007077631 A JP 2007077631A JP 4747122 B2 JP4747122 B2 JP 4747122B2
Authority
JP
Japan
Prior art keywords
specific area
color
image
specific
height information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007077631A
Other languages
English (en)
Other versions
JP2008242508A (ja
Inventor
真琴 岩田
偉偉 呉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC System Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC System Technologies Ltd filed Critical NEC System Technologies Ltd
Priority to JP2007077631A priority Critical patent/JP4747122B2/ja
Publication of JP2008242508A publication Critical patent/JP2008242508A/ja
Application granted granted Critical
Publication of JP4747122B2 publication Critical patent/JP4747122B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は特定領域自動抽出システム、特定領域自動抽出方法、および、プログラムに関し、特に、上空から撮影した画像中の緑植生領域を抽出する特定領域自動抽出システム、特定領域自動抽出方法、および、プログラムに関する。
従来、例えば航空写真などからの緑植生の抽出は、画像の各ピクセルから抽出される色情報をR「赤」、G「緑」、B「青」として、値の大きさがG>R、Bである部分を緑部分としていた(例えば、特許文献1参照)。
特開2001−142393
従来の緑部分の抽出方法は、各ピクセルの色情報をR、G、Bとして、G>R、Bの部分を抽出するものであり、このような従来の方法では、抽出結果としてはすべての緑部分ではなくG>R、Bである灰色などの部分も含まれるという問題があった。さらに緑色の屋上(例えば緑の塗料を塗った屋根)や緑色の海面などの植生ではない部分の誤抽出も含まれるという問題があった。
本発明の目的は、所望の特定領域としての条件の一部には合致しているが、目的の特定領域ではない領域であるところのノイズ領域を除去することで、特定領域を正しく抽出することを可能とする特定領域自動抽出方法、および、特定領域自動抽出プログラムを提供することにある。
本発明の第1の特定領域自動抽出システムは、画像中の特定領域の色範囲を定義する特定色範囲を設定された2以上の表色系を用いた色解析により、画像の中の特定領域候補を抽出し、前記画像の領域に対応する表面高さ情報と基準面高さ情報に基づいて、前記特定領域候補からノイズ領域を検出し、除去することで特定領域を抽出する手段を有する。
本発明の第2の特定領域自動抽出システムは、前記第1の特定領域自動抽出システムに於いて、前記特定領域候補の抽出は、画像中の各ピクセルを走査し、前記各ピクセルから取得したRGB(R:Red「赤」、G:Green「緑」、B:Blue「青」)色系の各要素の分量(R、G、B)の情報を変換して、HSB(H:Hue「色相」、S:Saturation「彩度」、B:Brightness「明度」)色系の各要素の分量(H、S、B)の情報と、Lab(L:Lightness「明度」、a「赤−緑座標値」、b「黄−青座標値」)色系の各要素の分量(L、a、b)の情報とを算出し、HSB色系の各要素の分量の値に対してあらかじめ設定された特定色範囲を用いた色解析により前記画像から暫定特定領域候補を抽出し、Lab色系の各要素の分量の値に対してあらかじめ設定された特定色範囲を用いた色解析により前記暫定特定領域候補から前記特定領域候補を抽出するものである。
本発明の第3の特定領域自動抽出システムは、前記第1、または、第2の特定領域自動抽出システムに於いて、前記基準面高さ情報は、間隔の空いた点群に対応して与えられた標高データに基づいて、各ピクセルの位置に対応した連続的な地面の高さを算出するものである。
本発明の第4の特定領域自動抽出システムは、前記第1乃至第3のいづれかに特定領域自動抽出システムに於いて、前記ノイズ領域の検出は、前記表面高さ情報と前記基準面高さ情報の差分があらかじめ定められた閾値以下、あるいは、あらかじめ定められた閾値以上であることを判断することによるものである。
本発明の第5の特定領域自動抽出システムは、前記第1乃至第4のいずれかに特定領域自動抽出システムに於いて、前記特定領域候補、または、前記特定領域から、オブジェクトを抽出し、当該オブジェクトの輪郭の特徴に基づいて、オブジェクトノイズ領域を検出し、除去する。
本発明の第6の特定領域自動抽出システムは、前記第5の特定領域自動抽出システムに於いて、前記オブジェクトの抽出は、前記画像をグレイスケール画像に変換し、当該グレイスケール画像を二値画像に変換することによるものである。
本発明の第7の特定領域自動抽出システムは、前記第5、または、第6の特定領域自動抽出システムに於いて、前記輪郭は、前記オブジェクトから抽出した前記輪郭をインデックスで表記して登録し、前記輪郭から直線を抽出し、前記インデックスを用いて前記直線に対応する前記輪郭を抽出することで、直線を有するという特徴を持つ。
本発明の第8の特定領域自動抽出システムは、前記第1乃至第7のいずれかに特定領域自動抽出システムに於いて、前記表面高さ情報と基準面高さ情報の差分があらかじめ定められた下限閾値と上限閾値の範囲内にあるか否かにより、草と樹木とを分類する手段を有する。
本発明の第9の特定領域自動抽出システムは、前記第1乃至第8のいずれかに特定領域自動抽出システムに於いて、表面高さ情報と基準面高さ情報との差分が0であることにより道路の部分を検出する手段を有する。
本発明の第1の特定領域自動抽出方法は、情報処理装置が、画像中の特定領域の色範囲を定義する特定色範囲を設定された2以上の表色系を用いた色解析により、画像の中の特定領域候補を抽出し、前記画像の領域に対応する表面高さ情報と基準面高さ情報に基づいて、前記特定領域候補から特定色範囲の色であるが特定領域ではないノイズ領域を検出し、除去することで特定領域を抽出する。
本発明の第2の特定領域自動抽出方法は、前記第1の特定領域自動抽出方法に於いて、前記特定領域候補の抽出は、情報処理装置が、画像中の各ピクセルを走査し、前記各ピクセルから取得したRGB(R:Red「赤」、G:Green「緑」、B:Blue「青」)色系の各要素の分量(R、G、B)の情報を変換して、HSB(H:Hue「色相」、S:Saturation「彩度」、B:Brightness「明度」)色系の各要素の分量(H、S、B)の情報と、Lab(L:Lightness「明度」、a「赤−緑座標値」、b「黄−青座標値」)色系の各要素の分量(L、a、b)の情報とを算出し、HSB色系の各要素の分量の値に対してあらかじめ設定された特定色範囲を用いた色解析により前記画像から暫定特定領域候補を抽出し、Lab色系の各要素の分量の値に対してあらかじめ設定された特定色範囲を用いた色解析により前記暫定特定領域候補から前記特定領域候補を抽出するものである。
本発明の第3の特定領域自動抽出方法は、前記第1、または、第2の特定領域自動抽出方法に於いて、前記基準面高さ情報は、情報処理装置が、間隔の空いた点群に対応して与えられた標高データに基づいて、各ピクセルの位置に対応した連続的な地面の高さを算出するものである。
本発明の第4の特定領域自動抽出方法は、前記第1乃至第3のいずれかに特定領域自動抽出方法に於いて、前記ノイズ領域の検出は、情報処理装置が、前記表面高さ情報と前記基準面高さ情報の差分があらかじめ定められた閾値以下、あるいは、あらかじめ定められた閾値以上であることを判断することによるものである。
本発明の第5の特定領域自動抽出方法は、前記第1乃至第4のいずれかに特定領域自動抽出方法に於いて、情報処理装置が、前記特定領域候補、または、前記特定領域から、オブジェクトを抽出し、当該オブジェクトの輪郭の特徴に基づいて、前記領域を検出し、除去する。
本発明の第6の特定領域自動抽出方法は、前記第5の特定領域自動抽出方法に於いて、前記オブジェクトの抽出は、情報処理装置が、前記画像をグレイスケール画像に変換し、当該グレイスケール画像を二値画像に変換することによるものである。
本発明の第7の特定領域自動抽出方法は、前記第5、または、第6の特定領域自動抽出方法に於いて、前記輪郭は、情報処理装置が、前記オブジェクトから抽出した前記輪郭をインデックスで表記して登録し、前記輪郭から直線を抽出し、前記インデックスを用いて前記直線に対応する前記輪郭を抽出することで、直線を有するという特徴を持つ。
本発明の第8の特定領域自動抽出方法は、前記第1乃至第7のいずれかに特定領域自動抽出方法に於いて、情報処理装置が、前記表面高さ情報と基準面高さ情報の差分があらかじめ定められた下限閾値と上限閾値の範囲内にあるか否かにより、草と樹木とを分類する。
本発明の第9の特定領域自動抽出方法は、前記第1乃至第8のいずれかに特定領域自動抽出方法に於いて、情報処理装置が、表面高さ情報と基準面高さ情報との差分が0であることにより道路の部分を検出する。
本発明の第1のプログラムは、情報処理装置に、画像中の特定領域の色範囲を定義する特定色範囲を設定された2以上の表色系を用いた色解析により、画像の中の特定領域候補を抽出し、前記画像の領域に対応する表面高さ情報と基準面高さ情報に基づいて、前記特定領域候補から特定色範囲の色であるが特定領域ではないノイズ領域を検出し、除去することで特定領域を抽出する処理を行わせる。
本発明の第2のプログラムは、前記第1のプログラムに於いて、前記特定領域候補の抽出は、情報処理装置に、画像中の各ピクセルを走査し、前記各ピクセルから取得したRGB(R:Red「赤」、G:Green「緑」、B:Blue「青」)色系の各要素の分量(R、G、B)の情報を変換して、HSB(H:Hue「色相」、S:Saturation「彩度」、B:Brightness「明度」)色系の各要素の分量(H、S、B)の情報と、Lab(L:Lightness「明度」、a「赤−緑座標値」、b「黄−青座標値」)色系の各要素の分量(L、a、b)の情報とを算出し、HSB色系の各要素の分量の値に対してあらかじめ設定された特定色範囲を用いた色解析により前記画像から暫定特定領域候補を抽出し、Lab色系の各要素の分量の値に対してあらかじめ設定された特定色範囲を用いた色解析により前記暫定特定領域候補から前記特定領域候補を抽出する処理を行わせるものである。
本発明の第3のプログラムは、前記第1、または、第2のプログラムに於いて、前記基準面高さ情報は、情報処理装置に、間隔の空いた点群に対応して与えられた標高データに基づいて、各ピクセルの位置に対応した連続的な地面の高さを算出する処理を行わせるものである。
本発明の第4のプログラムは、前記第1乃至第3のいずれかにプログラムに於いて、前記ノイズ領域の検出は、情報処理装置に、前記表面高さ情報と前記基準面高さ情報の差分があらかじめ定められた閾値以下、あるいは、あらかじめ定められた閾値以上であることを判断する処理を行わせることによるものである。
本発明の第5のプログラムは、前記第1乃至第4のいずれかにプログラムに於いて、情報処理装置に、前記特定領域候補、または、前記特定領域から、オブジェクトを抽出し、当該オブジェクトの輪郭の特徴に基づいて、前記ノイズ領域を検出し、除去する処理を行わせる。
本発明の第6のプログラムは、前記第5のプログラムに於いて、前記オブジェクトの抽出は、情報処理装置に、前記画像をグレイスケール画像に変換し、当該グレイスケール画像を二値画像に変換する処理を行わせることによるものである。
本発明の第7のプログラムは、前記第5、または、第6のプログラムに於いて、前記輪郭は、情報処理装置に、前記オブジェクトから抽出した前記輪郭をインデックスで表記して登録し、前記輪郭から直線を抽出し、前記インデックスを用いて前記直線に対応する前記輪郭を抽出する処理を行わせることで、直線を有するという特徴を持つ。
本発明の第8のプログラムは、前記第1乃至第7のいずれかにプログラムに於いて、情報処理装置に、前記表面高さ情報と基準面高さ情報の差分があらかじめ定められた下限閾値と上限閾値の範囲内にあるか否かにより、草と樹木とを分類する処理を行わせる。
本発明の第9のプログラムは、前記第1乃至第8のいずれかにプログラムに於いて、情報処理装置に、表面高さ情報と基準面高さ情報との差分が0であることにより道路の部分を検出する処理を行わせる。
本発明によれば、画像の特定領域を正確に抽出することが可能になる。その理由は、画像に対して、特定色範囲を設定した色解析により画像中の特定領域候補を抽出し、当該画像の表面高さ情報と基準面高さ情報に基づいて、抽出した特定領域候補から特定色範囲の色であるが特定領域ではないノイズ領域を検出し、除去することができるようにしたためである。
次に、本発明について図面を参照して詳細に説明する。
尚、本発明において、表面高さ情報、基準面高さ情報、メッシュデータ、ピクセル、オブジェクト、表色系の用語は、以下の意味で用いる。
表面高さ情報は、DSM(Digital Surface Model)とも表記する。表面高さ情報は、例えば地表面の場合ならば、図4にDSMとして示すように建物などの土地上に存在する草木や建物などを含めた表面の高さを格納したものである。これは、特許番号第003027995号に記載された3ラインセンサなどを利用して求めた各ピクセルの表面高さ情報(DSM)が格納されているものである。
基準面高さ情報は、例えば地表面の場合、図4にDEMとして示すように建物などの土地上に存在する草木や建物などを含まない地面の高さ、すなわち標高の情報である。以下では、地表面に対する処理を例に説明しているため、以後は基準面高さ情報を地面高さ情報と表現して記載する。
地面高さ情報は、DEM(Digital Elevation Model)とも表記する。地面高さ情報は、メッシュデータに格納されている標高情報の疎な(点間に隙間がある)部分を計算値により埋めて、各ピクセルの連続的な地面の高さを格納したものである。メッシュデータとは、緯度・経度・標高を格納した点群データである。本実施の形態では、市販されているメッシュデータの利用を想定している。図4は、基準面高さ情報である地面高さ情報と、表面高さ情報の関係を模式的に表したものである。
ピクセルは、画素とも呼ばれる。ピクセルは、画像を構成する単位であり、色、明度、彩度等の画像表示情報を持った点である。本発明では、画像表示情報以外の情報も対応付けて、例えば、あるピクセルの位置の地面高さを表す情報を「ピクセルの地面高さ情報」と表現をする。
表色系は、人間の目に見える色を表現する体系であり、客観的・定量的な混色系のRGB色系(RGB表色系)、HSB色系(HSB表色系)、XYZ表色系、Lab色系(L*a*b表色系)などと、主観的・定性的な顕色系のマンセル表色系、PCCSなどとがある。
特定色範囲は、ある表色系で表される特定の色の範囲であり、例えば、緑植生の「緑」を定義する当該表色系の各要素の分量の値の範囲である。
色解析は、ある表色系の各要素の分量の値の範囲を設定して特定色範囲とし、画像中の特定色範囲の部分を抽出することである。
ノイズ領域は、特定色範囲の色を有するが、抽出しようとしている特定領域ではない部分を示す。たとえば、緑植生が抽出しようとしている特定領域であれば、緑植生の特定色範囲である緑色に塗られた地面、緑色の海面、屋根などの緑色のオブジェクトなどである。
オブジェクトは、画像中の特定の色の領域の個々のブロックであり、背景色が黒である二値画像であれば、白色の領域の個々のブロックである。
図1を参照すると、本発明の第1の実施の形態は、処理の対象となる航空写真、もしくは、衛星写真等の画像の情報を図示しない手段から入力し、表面高さ情報(DSM)と、メッシュデータをDB手段200から入力する入力手段100と、メッシュデータと、表面高さ情報(DSM)を格納したDB手段200と、HSB色系とLab色系とによる色解析を用いて、画像の特定の色の領域を抽出する候補抽出手段300と、メッシュデータから地面高さ情報(DEM)を算出し、当該算出した地面高さ情報(DEM)と、表面高さ情報(DSM)とに基づいて地面のノイズを除去する地面処理手段400と、当該画像内のオブジェクトを抽出し、当該オブジェクトから輪郭を抽出し、当該輪郭から直線を抽出し、当該直線を含む輪郭を抽出し、当該輪郭を含むオブジェクトを建物の屋上として抽出し、当該建物の屋上をノイズとして除去する建物処理手段500と、処理結果として得た緑植生を図示しない手段に出力する出力手段110とから構成されている。
図2は、候補抽出手段300の処理を示すフローチャートである。
候補抽出手段300は、入力手段100から画像の情報を受け取る(ステップS301)。
次に候補抽出手段300は、当該画像の情報から各ピクセルのRGB色系のR、G、Bのそれぞれの値を取得し(ステップS302)、RGB色系をHSB色系に変換する(ステップS303)。RGB色系をHSB色系に変換する計算式は以下の式1の通りである。
Figure 0004747122
次に候補抽出手段300は、すべてのピクセルのHSB色系のH、S、B値から、平均的なH、S、B値を算出し、あらかじめ定められた基準に基づき、平均的なH、S、B値を用いて、画像に対する全般的な色モデル(例えば、緑っぽい、黒っぽい、明るい等)を設定する(ステップS304)。
次に候補抽出手段300は、あらかじめ定められた色モデルに対応した基準に基づきHSB色系のH、S、B値の範囲をそれぞれ設定することで、緑色の範囲を暫定的に設定する(ステップS305)。
次に候補抽出手段300は、RGB色系をLab色系に変換する(ステップS306)。RGB色系をLab色系に変更する計算式は以下の式2の通りである。
Figure 0004747122
次に候補抽出手段300は、あらかじめ定められた色モデルに対応した基準に基づき、Lab色系による各モデルのL、a、bの値の範囲をそれぞれ設定し、ステップ305で暫定的に設定した緑色の範囲として誤りやすいところ(例えば、緑色と黄色が隣り合った部分、緑色と青色が隣り合った部分など)を除去することで、ステップS305の結果を補正する(ステップS307)。こうして候補抽出手段300は、抽出した緑植生候補を、図7に示す緑植生データ記憶部710に「状態1:緑植生候補(図16参照)」として格納する(ステップS308)。
図3は、地面処理手段400の処理を示すフローチャートである。
まず、高さ情報処理部410は、入力手段100からメッシュデータを受け取る(ステップS401)。そして、高さ情報処理部410は、当該メッシュデータに基づき、各ピクセルに対応する点の地面高さを計算し、連続的な値で埋めた地面高さ情報(DEM)を算出し、図8に示すDEM記憶部720に「地面高さ情報(図19参照)」として格納する(ステップS402)。計算方法は、例えば、linear interpolation(直線補間)法を用いればよい。この方法は、隣り合う二点の直線上の各点の高さ情報を求めるために、既存の隣り合う二点の高さ情報と各点から既存点までの長さの割合を用いて各点の高さ情報を計算するものである。
次に、地面ノイズ除去部420は、図8に示すDEM記憶部720の「地面高さ情報」を参照し(ステップS403)、入力手段100から表面高さ情報(DSM)を受け取り(ステップS404)、図7に示す緑植生データ記憶部710の「状態1:緑植生候補(図16参照)」を参照し(ステップS405)、当該緑植生候補中の地面部分と海面部分を除去する(ステップS406)。
地面部分と海面部分の判断方法は、地面高さ情報(DEM)と表面高さ情報(DSM)の差に対して、あらかじめ定められた、以下の式3で示される閾値による。
Figure 0004747122
そして地面ノイズ除去部420は、地面の緑色の道路、および、緑色の海面などのノイズのない修正した緑植生候補を、図7に示す緑植生データ記憶部710に「状態2:修正した緑植生候補(図17参照)」として格納する(ステップS407)。
図5は、建物処理手段500の処理を示すフローチャートである。
グレイスケール処理部510は、入力手段100から画像の情報を受け取る(ステップS501)。そして、グレイスケール処理部510は、カラーの画像を変換してGray Scale図を生成し、図9に示すGray Scale図記憶部740に「Gray Scale図(図20参照)」として格納する(ステップS502)。変換の計算式は、以下の式4の通りである。
Figure 0004747122
次に、オブジェクト抽出処理部520は、OTSU法により適切な二値変化の閾値を算出する。そしてオブジェクト抽出処理部520は、当該閾値に基づいてステップS502で生成したGray Scale図を、背景を黒いピクセルとして、白いピクセルがブロック状となったオブジェクト群を有する二値図に変換する。そして、オブジェクト抽出処理部520は、当該オブジェクト群を四分法により分割して個々のオブジェクトを生成する、図10に示す二値図記憶部750に「状態1:Object(図21参照)」として格納する(ステップS503)。
次に、オブジェクト抽出処理部520は、ステップ503で生成したオブジェクトを、図11に示すオブジェクト記憶部751にindex(インデックス)を付与して登録する(ステップS504)。indexとは、例えばあるオブジェクトを識別する名称であり、『オブジェクト[1]』は、[1]というindexを属性として対応付けられたオブジェクトであることを示す。
OTSU法とは、Gray Scale画像の濃度分布から閾値を決定する方法である。OTSU法では、まず、各輝度におけるヒストグラムを作成し、ヒストグラムの各要素を画像サイズで除算して正規化ヒストグラム(濃度の確率分布)を作成する。次に、ある輝度のピクセル数の割合を求め、最小輝度から最大輝度までの間で最大のクラス内分散を求めることで適切な閾値を計算するものである。
参考文献として、「Nobuyuki Otsu: ”A Threshold Selection Method from Gray−Level Histograms、” IEEE Transactions on Systems、 Man、 and Cybernetics、 Vol.SMC−9、 No.1、 pp.62−66 (1979−01)」、及び、「大津展之: ”判別および最小2乗規準に基づく自動しきい値選定法”、 電子通信学会論文誌(D)、 Vol.63−D、 No.4、 pp.349−356 (1980−04))」で示されるものがある。
四分法の登録方法とは、基本的には抽出したオブジェクト群を同じ属性値(ここでは明度)を持つブロック毎にindex値を設定して、個々のブロックとして識別可能なように分割することであり、具体的には下記(a)から(e)までのとおりである。(a)本点(x、y)を囲む2x2というサイズの窓口(合わせて四つのピクセル)を設定し、隣の3点はそれぞれ縦(x、y−1)、横(x−1、y)、斜め(x−1、y−1)となる。(b)本点と縦横二点の明度をそれぞれ『pixel[0]』、『pixel[1]』、『pixel[2]』として取得し、『オブジェクト』というindex名の『オブジェクト[0]』、『オブジェクト[1]』』、『オブジェクト[2]』を抽出する。(c)本点と縦横二点の明度の勾配を求める(例えば勾配をSa**とすると、Sa01=abs(『pixel[1]』−『pixel[0]』);Sa02=abs(『pixel[2]』−『pixel[0]』); Sa21=abs(『pixel[2]』−『pixel[1]』))。(d)明度の勾配と画面上の明度勾配閾値『pixelThe』による本点のLabel値を判断する。例えば、Sa01>『pixelThe』 かつ Sa02>『pixelThe』の場合は『Label[0]』そのままとなり、Sa01>『pixelThe』 かつSa02<『pixelThe』の場合は『Label[0]』=『Label[2]』となり、Sa01<『pixelTheかつSa02>『pixelThe』の場合は『Label[0]』=『Label[1]』となり、Sa01<『pixelThe』かつSa02<『pixelThe』の場合は『Label[0]』=min{『Label[1]』、『Label[2]』}となる。(e)上記により求めた本点のLabel値により、当該ピクセルのLabel値を設定し直す。結果としては、同じLabelでは同じindex値を持つ。
次に、輪郭抽出処理部530は、Sobelエッジ検出方法用いて、図10に示す二値図記憶部750の「状態1:Object(図21参照)」から、ステップ503で生成したオブジェクトの輪郭を抽出し(ステップS505)、図12に示す輪郭図記憶部760に「輪郭図(図24参照)」として格納する。そして、輪郭抽出処理部530は、当該輪郭にindex値を付与して、図13に示す輪郭記憶部761に登録する(ステップS506)。
尚、一般のSobelフィルタでは3x3というモデル窓口でピクセルを水平方向と垂直方向に一つずつ畳み込み積分処理するものであるが、既存の0度方向(水平)と90度方向(垂直)だけの処理に加え、斜めの輪郭も抽出できるように45度と135度方向にも処理する。
次に、建物の輪郭は直線の部分を持っているという仮定により、最終的に建物を抽出するために、建物の輪郭に含まれる直線を抽出する。
直線抽出処理部540は、Hough変換と最小二乗法などの直線検出方法により輪郭に存在する直線を抽出し(ステップS507)、図14に示す直線図記憶部770に「直線図(図26参照)」として格納する。そして、直線抽出処理部540は、当該直線にindex値を付与して、図15に示す直線記憶部771に登録する(ステップS508)。
Hough変換は、画像から直線を検出する一般的な技法である。ρ=xCos(θ)+ySin(θ)という式による直交座標(x、y)上の画像を、極座標の二次元空間(角度θと距離ρ)に変換して、その個数をメモリー配列上に加算し(Accumulator CellやVoting Cellなどの呼び方がある)、個数が最大になった極座標(角度θ、距離ρ)を元の直角座標に戻し、最も直線らしい点を集まり、個数を下げてゆくと、次の直線候補が順次得られる。
最小二乗法は、実験数値(x、y)の組を、適当なモデルから想定される一次関数、対数曲線など特定の関数を用いて近似するときに、想定する関数が実験数値に対してよい近似となるように、誤差(残差)の二乗和を最小とするような係数を決定する方法である。ただし、上記のHough変換の角度θと距離ρを細かく分けると、精度が上がるが、計算時間と必要なメモリー容量も増えてしまう。スピードと精度向上のため、Hough変換と最小二乗法と合わせて、角度θの間隔(少し広く、本発明の例は2度)と距離ρの間隔(少し広く、本発明の例は50ピクセル)を設定してHough変換することで得られた直線の候補点を最小二乗法の入力データとする。
直線割当処理部550は、図15に示す直線記憶部771に登録された直線に対応している輪郭とオブジェクトを抽出する。直線割当処理とは、一つの直線が複数の輪郭に共通に含まれる時に、当該直線がいずれのオブジェクトの輪郭に割り当てられるかを判定することである。
直線割当処理部550は、直線と同じindex値を持つ輪郭を探すことにより、当該直線を含んでいる輪郭を抽出する(ステップS509)。次に、直線割当処理部550は、ステップ509で抽出した輪郭に対応するオブジェクトを建物として抽出し、図10に示す二値図記憶部750に「状態2:建物(図22参照)」として格納する(ステップS510)。
図6はステップS509の処理をさらに詳細に示したフローチャートである。まず、直線割当処理部550は、抽出された各直線を順次選択し(ステップS601)、輪郭を順次走査してindex値を比較する(ステップS602)。そして、直線割当処理部550は、選択した直線のindex値と走査している輪郭のindex値が同じであるか否かを判断する(ステップS603)。そして、直線割当処理部550は、index値が同一の場合は当該輪郭を、当該直線を含む輪郭として抽出する(ステップS604)。直線割当処理部550は、index値が同一でない場合は、ステップS602に戻る。直線割当処理部550は、全ての直線について以上の走査を実行する(ステップS605)。
ステップS510において、直線を含む輪郭と同一のindex値を持つオブジェクトを抽出する処理は、上記と同様である。
次に、屋上ノイズ除去部560は、図7に示す緑植生データ記憶部710に格納された「状態2:修正された緑植生候補(図17参照)」と図10に示す二値図記憶部750に格納された「状態2:建物(図22参照)」を座標により重ね合わせて全ピクセル走査し、図7に示す緑植生データ記憶部710に格納された「状態2:修正された緑植生候補(図17参照)」のオブジェクト部分から、図10に示す二値図記憶部750に格納された「状態2:建物(図22参照)」のオブジェクト部分を削除する(ステップS511)。屋上ノイズ除去部560は、こうして抽出した緑植生を図7に示す緑植生データ記憶部710に「状態3:緑植生(図18参照)」として、格納する(ステップS512)
次に、図を参照して、本発明の第1の実施の形態の動作について、具体的な実施例を示して詳細に説明する。
まず、候補抽出手段300により緑植生候補を抽出する動作を図2のフローチャートに従って説明する。
候補抽出手段300は、入力手段100が図示しない手段から入力した処理対象領域の24bitカラー型の航空写真の画像の情報を受け取る(ステップS301)。
そして、候補抽出手段300は、画像を走査して各ピクセルのRGB色系のR、G、B値を取得する(ステップS302)。
次に、候補抽出手段300は、RGB色系のR、G、Bの値『(例)78、98、90』をHSB色系のH、S、B値『(例)156、0.20、0.38』に変換する(ステップS303)。
次に、候補抽出手段300は、ステップ301で受け取った画像の全ピクセルのH、S、Bの平均値Ha、Sa、Baにより当該画像の色モデルを設定する。例えば、『Ha>100』、かつ、『Ba<0.[4]』の場合は、色モデルを『黒っぽい画像』とする。(ステップS304)
次に、候補抽出手段300は、当該画像の色モデルに基づいてHSB色系のH、S、Bの範囲『(例)[80、160]、[0.1、0.4]、[0.3、0.6]』を算出することで、当該画像の緑色の範囲を抽出する(ステップS305)。
また、候補抽出手段300は、RGB色系のR、G、B値『(例)78、98、90』をLab色系のL、a、bの値『(例)82、−6、1』に変換する(ステップS306)。
次に、候補抽出手段300は、Labの各要素の分量の範囲をそれぞれ設定し『(例)[60、80]、[-25、-10][-7、15]』、ステップS305の結果として抽出した緑色の範囲中の植生ではない部分を削除することで、当該画像を補正する(ステップS307)。
そして、候補抽出手段300は、ステップS307で補正した画像を緑植生候補として抽出(図16参照)し、図7に示す緑植生データ記憶部710のm_pImageDspに「状態1:緑植生候補(図16参照)」として格納する(ステップS308)。
次に、地面処理手段400により地面のノイズを除去する動作を図3のフローチャートに従って説明する。
高さ情報処理部410は、入力手段100がメッシュデータ記憶部210から入力した、処理対象領域の24bitカラー型の航空写真の画像に対応する領域のメッシュデータを受け取る(ステップS401)。
そして、高さ情報処理部410は、ステップ401で受け取ったメッシュデータに基づいて地面高さ情報(DEM)を算出し、図8に示すDEM記憶部720のm_MeshAltに格納する(図19参照、ステップS402)。
次に、地面ノイズ除去部420は、図8に示すDEM記憶部720のm_MeshAltを参照する(ステップS403)。また、地面ノイズ除去部420は、入力手段100がDSM記憶部220から入力した、処理対象領域の24bitカラー型の航空写真の画像に対応する領域のDSM情報を受け取る(ステップS404)。さらに、地面ノイズ除去部420は、ステップ308で格納した図7に示す緑植生データ記憶部710のm_pImageDspの「状態1:緑植生候補(図16参照)」を参照する(ステップS405)。そして、地面ノイズ除去部420は、あらかじめ設定された地面の閾値により、それらの緑植生候補からDSM=DEMの部分とDEM=0の部分を、緑色の道路および緑色の海面などのノイズとして除去して当該緑植生候補を修正する(図17参照、ステップS406)。
そして、地面ノイズ除去部420は、修正された緑植生を図7に示す緑植生データ記憶部710のm_pImageDspに「状態2:修正した緑植生候補(図17参照)」として格納する(ステップS407)。
次に、建物処理手段500により建物の屋上のノイズを除去する動作を図5のフローチャートに従って説明する。
グレイスケール処理部510は、入力手段100が図示しない手段から入力した24bitカラー型の航空写真の画像の情報を受け取る(ステップS501)。
そして、グレイスケール処理部510は、処理対象領域の24bitカラー型の航空写真のすべてのピクセルを走査して変換し、Gray Scale図を生成する、図9に示すGray Scale図記憶部740のm_pImageGrayに「Gray Scale図(図20参照)」格納する(ステップS502)。
次に、オブジェクト抽出処理部520は、ステップ502で生成したGrayScale図を二値図に変換してオブジェクト群を抽出し、四分法により当該オブジェクト群を分割し、同一のindex値を持つピクセルで構成された個々のオブジェクト(図23参照)に分割し、図10に示す二値図記憶部750のm_pImageEdgeに「状態1:Object(図21参照)」として格納する(ステップS503)。
そして、オブジェクト抽出処理部520は、ステップ503で分割されたオブジェクトにオブジェクトというindex名を対応付け、図11に示すオブジェクト記憶部751のpLabelImageEdgeに登録する。例えば、オブジェクト抽出処理部520は、当該オブジェクトにそれぞれ『[1]』、『[2]』、『[3]』、『[4]』、『[5]』、『[6]』、『[7]』、『[8]』、『[9]』というindexを属性として対応付ける(ステップS504)。
次に、輪郭抽出処理部530は、図10に示す二値図記憶部750のm_pImageEdgeに「状態1:Object」として格納された二値図から、オブジェクトの『輪郭[1]』、『輪郭[2]』、『輪郭[3]』、『輪郭[4]』、『輪郭[5]』、『輪郭[6]』、『輪郭[7]』、『輪郭[8]』、『輪郭[9]』を抽出し、輪郭図を得る(図24参照)。そして、輪郭抽出処理部530は、当該輪郭図を図12に示す輪郭図記憶部760のm_pLabelLineImageに「輪郭図」として格納する(ステップS505)。当該輪郭の各ピクセルは、対応するオブジェクトと同じindex値を持っている(図25参照)。そして、輪郭抽出処理部530は、当該輪郭を図13に示す輪郭記憶部761のpLabelLineに登録する(ステップS506)。
次に、直線抽出処理部540は、図12に示す輪郭図記憶部760のm_pLabelLineImageに格納された輪郭図から直線の部分を抽出し、直線図を得る(図26参照)。そして、直線抽出処理部540は、当該直線図を図14に示す直線図記憶部770のm_pLabelLineSegmentに「直線図(図26参照)」として格納する(ステップS507)。当該直線の各ピクセルは、対応する輪郭と同じindex値を持っている(図27参照)。そして、直線抽出処理部540は、当該直線を図15に示す直線記憶部771のpLabelImageに登録する(ステップS508)。即ち、直線のindex値は、直線が付随する輪郭のindex値と同じであり、例えば、『輪郭[1]』、『輪郭[2]』、『輪郭[4]』、『輪郭[7]』が直線を含んでいると、それぞれ検出した直線が『直線1』、『直線2』、『直線4』、『直線7』であれば、『輪郭1』と『直線1』のindex値は同じであり、『輪郭2』と『直線2』、『輪郭3』と『直線3』、『輪郭4』と『直線4』も同様である。
次に、直線割当処理部550は、ステップ507で抽出した直線と同じindex値をもつ輪郭を探すことにより当該直線を含んでいる輪郭を抽出する(ステップS509)。
具体的には図28に示すように、直線割当処理部550は、図28の(c)の図14に示す直線図記憶部770のm_pLabelLineSegmentを基に、図15に示す直線記憶部771のpLabelImage内の直線のindexを一つずつ選択する。そして、直線割当処理部550は、当該直線のindex値と、図13に示す輪郭記憶部761のpLabeiLineの輪郭のindex値を順次走査して比較して、『輪郭[1]』、『輪郭[2]』、『輪郭[3]』、『輪郭[4]』、『輪郭[5]』、『輪郭[6]』、『輪郭[7]』、『輪郭[8]』、『輪郭[9]』から、『直線[1]』、『直線[2]』、『直線[4]』、『直線[7]』のindexと同じindex値を持つ輪郭として『輪郭[1]』、『輪郭[2]』、『輪郭[4]』、『輪郭[7]』を検出する。
次に、直線割当処理部550は、上記と同様に、検出した『輪郭[1]』、『輪郭[2]』、『輪郭[4]』、『輪郭[7]』を1つずつ選択し、そのindex値と図11に示すオブジェクト記憶部751のpLabelImageEdgeのオブジェクトのindex値を順次走査して比較する。そして、直線割当処理部550は、図28の(a)のように直線を含んでいる『輪郭[1]』、『輪郭[2]』、『輪郭[4]』、『輪郭[7]』のindex値と同じindex値を持つオブジェクトを『オブジェクト[1]』、『オブジェクト[2]』、『オブジェクト[3]』、『オブジェクト[4]』、『オブジェクト[5]』、『オブジェクト[6]』、『オブジェクト[7]』、『オブジェクト[8]』、『オブジェクト[9]』から、『オブジェクト[1]』、『オブジェクト[2]』、『オブジェクト[4]』、『オブジェクト[7]』として検出する。そして、直線割当処理部550は、『オブジェクト[1]』、『オブジェクト[2]』、『オブジェクト[4]』、『オブジェクト[7]』を建物として、『建物[1]』、『建物[2]』、『建物[4]』、『建物[7]』を、図10に示す二値図記憶部750のm_pImageEdgeに「状態2:建物(図22参照)」として格納する。(ステップS510)
次に、屋上ノイズ除去部560は、図10に示す二値図記憶部750のm_pImageEdgeの「状態2:建物(図22参照)」と、図7に示す緑植生データ記憶部710のm_pImageDspの「状態2:修正した緑植生候補(図17参照)」とを、座標により重ね合わせることにより、「修正した緑植生候補」中の建物(屋上)のノイズを除去する。すなわち、屋上ノイズ除去部560は、図7に示す緑植生データ記憶部710のm_pImageDspの「状態2:修正した緑植生候補(図17参照)」から、図10に示す二値図記憶部750のm_pImageEdgeの「状態2:建物」の『建物[1]』、『建物[2]』、『建物[4]』、『建物[7]』の部分を除去する(ステップS511)。そして、屋上ノイズ除去部560は、残った結果を図7に示す緑植生データ記憶部710のm_pImageDspに「状態3:緑植生(図18参照)」として保存する(ステップS512)。
以上により本発明の第1の実施の形態の動作が完了する。本発明の第1の実施の形態によれば、任意の航空写真画像あるいは衛星画像等から、地面上の緑に近い部分、緑色の海面、緑色の建物の除去を行なった正確な緑植生抽出結果を取得することができるという効果がある。その理由は、色解析技術により、HSB色系とLab色系とを用いて特定の色範囲を設定することで、画像の緑植生候補を抽出し、表面高さ情報(DSM)と、メッシュデータ(格子状の数値標高データ)から得られる地面高さ情報(DEM)との間に閾値を設定することにより、の緑植生候補における道路上の緑に近い部分などのノイズを除去し、さらに輪郭から画像中の建物を抽出し、緑植生候補中に存在する緑色の屋上等の建物ノイズを除去し、残る部分を緑植生とするようにしたためである。
次に本発明の第2の実施の形態について図面を参照して詳細に説明する。
図29は、本発明の第2の実施の形態の構成を示す機能ブロック図である。本発明の第2の実施の形態においては、本発明の第1の実施の形態の構成を示す機能ブロック図である図1に草木分類処理部800を追加した点が、本発明の第1の実施の形態と異なる。
図30は、草木分類処理部800の処理を示すフローチャートである。
草木分類処理部800は、入力手段100から表面高さ情報(DSM)を受け取り(ステップS801)、また、図8に示すDEM記憶部720の地面高さ情報(DEM)を参照する(ステップS802)。
そして、草木分類処理部800は、あらかじめ定められた表面高さ情報(DSM)と地面高さ情報(DEM)との間の閾値に基づいて、図7に示す緑植生データ記憶部710のm_pImageDspの「状態3:緑植生(図18参照)」を参照し、緑植生中の樹木と草を分類する(ステップS803)。
そして、草木分類処理部800は、図31に示すように結果(縞部分)を区分して出力する(ステップS804)。
次に、図を参照して、本発明の第2の実施の形態の動作について、具体的な実施例を示して詳細に説明する。本実施例では、第1の実施の形態と異なる草木分類処理部800の動作について、主に説明する。
草木分類処理部800は、本発明の第1の実施の形態の屋上ノイズ除去部560で検出した緑植生の最終結果である図7に示す緑植生データ記憶部710のm_pImageDspの「状態3:緑植生(図18参照)」をもとに、メッシュデータから求めた地面高さ情報(DEM)とDB手段200の表面高さ情報(DSM)とから、分類高さ閾値として0.5mを設定することで樹木と草を分類する。
例えば、草木分類処理部800は、図7に示す緑植生データ記憶部710のm_pImageDspの「状態3:緑植生(図18参照)」の各ピクセルに対応する表面高さ情報(DSM)の各ピクセルを一つずつ走査し、0m以上0.5m未満の値を持っていれば草として抽出し、0.5m以上の値を持っていれば樹木として抽出する。結果としては図31に示すように、縞部の縦の分が樹木、縞部の横の分が草である。
本発明の第2の実施の形態によれば、地面高さ情報(DEM)と表面高さ情報(DSM)との差について樹木と草の分類の閾値(例えば0.5m)を設定し、当該設定に基づき、草、または、樹木の部分を抽出するようにしたことにより、樹木と草との分類を行なうことができるという効果を有している。
次に本発明の第3の実施の形態について図面を参照して詳細に説明する。
図32を参照すると、本発明の第3の実施の形態は、本発明の第1の実施の形態における入力手段100と、DB手段200と、高さ情報処理部410と、グレイスケール処理部510と、オブジェクト抽出処理部520と、DEM記憶部720とGray Scale図記憶部740と、二値図記憶部750と出力手段110とを有し、さらに、道路検出部910とから構成されている。
図33は、道路検出部910の処理を示すフローチャートである。
道路検出部910は、入力手段100から表面高さ情報(DSM)を受け取り(ステップS901)、また、図8に示すDEM記憶部720の地面高さ情報(DEM)を参照する(ステップS902)。
さらに、道路検出部910は、図10に示す二値図記憶部750の「状態1:Object(図21参照)」を参照する(ステップS903)。
そして、道路検出部910は、あらかじめ定められた閾値に基づいて道路部分を検出する(ステップS904)。
次に、図を参照して、本発明の第3の実施の形態の動作について、具体的な実施例を示して詳細に説明する。本実施例では、第1の実施の形態と異なる道路検出部910の動作について、主に説明する。
道路検出部910は、入力手段100から表面高さ情報(DSM)を受け取り(ステップS901)、また、図8に示すDEM記憶部720のm_MeshAltの地面高さ情報(DEM)を参照する(ステップS902)。さらに、道路検出部910は、図10に示す二値図記憶部750のm_pImageEdgeの「状態1:Object(図21参照)」を参照する(ステップS903)。
そして、地面高さ情報(DEM)と表面高さ情報(DSM)の差分閾値として『0m』が、設定されているものとする。
次に、道路検出部910は、図10に示す二値図記憶部750のm_pImageEdgeの「状態1:Object(図21参照)」をもとに、差分閾値に基づいて、表面高さと地面高さの差がゼロで、色が黒い部分を道路部分として抽出する(図34参照、ステップS904)。
本発明の第3の実施の形態によれば、地面高さ情報(DEM)と表面高さ情報(DSM)との差について設定された道路の閾値(例えば0m)と、色彩に基づき、道路部分を抽出するようにしたことにより、道路とそれ以外の部分の分類を行なうことができるという効果を有している。
都市計画、緑化計画業務、あるいは道路地図作製に必要な特定領域を分類した画像の作成に利用できる。
また、落ちているゴミを検出して、収集する自動機械や、鉄道線路、高速道路等の異物発見装置などにも容易に適用出来る。
本発明の第1の実施の形態の構成を示すブロック図である。 本発明の第1および第2の実施の形態における候補抽出手段300の処理を示すフローチャートである。 本発明の第1および第2の実施の形態における地面処理手段400の処理を示すフローチャートである。 本発明の第1、第2、および、第3の実施の形態における地面高さデータ(DEM)と表面高さ情報(DSM)との関係を説明する図である。 本発明の第1および第2の実施の形態における建物処理手段500の処理を示すフローチャートである。 本発明の第1および第2の実施の形態における同じindexの輪郭と直線を探す処理を示すフローチャートである。 本発明の第1および第2の実施の形態における緑植生データ記憶部710の構造を示す図である。 本発明の第1、第2、および、第3の実施の形態におけるDEM記憶部720の構造を示す図である。 本発明の第1、第2、および、第3の実施の形態におけるGray Scale図記憶部740の構造を示す図である。 本発明の第1、第2、および、第3の実施の形態における二値図記憶部750の構造を示す図である。 本発明の第1および第2の実施の形態におけるオブジェクト記憶部751の構造を示す図である。 本発明の第1および第2の実施の形態における輪郭図記憶部760の構造を示す図である。 本発明の第1および第2の実施の形態における輪郭記憶部761の構造を示す図である。 本発明の第1および第2の実施の形態における直線図記憶部770の構造を示す図である。 本発明の第1および第2の実施の形態における直線記憶部771の構造を示す図である。 本発明の第1および第2の実施の形態における緑植生データの状態1:緑植生候補の例である。 本発明の第1および第2の実施の形態における緑植生データの状態2:修正した緑植生候補の例である。 本発明の第1および第2の実施の形態における緑植生データの状態3:緑植生の例である。 本発明の第1、第2、および、第3の実施の形態における地面高さ情報イメージである。 本発明の第1、第2、および、第3の実施の形態におけるGray Scale図の例である。 本発明の第1、第2、および、第3の実施の形態における二値図の状態1:Objectの例である。 本発明の第1および第2の実施の形態における二値図の状態2:建物の例である。 本発明の第1および第2の実施の形態におけるインデックス値を付与されたObjectの模式図である。 本発明の第1および第2の実施の形態における輪郭図の例である。 本発明の第1および第2の実施の形態におけるインデックス値を付与された輪郭の模式図である。 本発明の第1および第2の実施の形態における直線図の例である。 本発明の第1および第2の実施の形態におけるインデックス値を付与された直線の模式図である。 本発明の第1および第2の実施の形態における直線割当処理部550のindex値を用いて輪郭と直線を対応させる処理の例を示した図である。 本発明の第2の実施の形態の構成を示すブロック図である。 本発明の第2の実施の形態における草木分類処理部800の処理を示すフローチャートである。 本発明の第2の実施の形態における草と樹木とが分類された結果の例である。 本発明の第3の実施の形態の構成を示すブロック図である。 本発明の第3の実施の形態における道路検出部910の処理を示すフローチャートである。 本発明の第3の実施の形態における道路検出結果の例である。
符号の説明
100 入力手段
110 出力手段
200 DB手段
210 メッシュデータ記憶部
220 DSM記憶部
300 候補抽出手段
400 地面処理手段
410 情報処理部
420 地面ノイズ除去部
500 建物処理手段
510 グレイスケール処理部
520 オブジェクト抽出処理部
530 輪郭抽出処理部
540 直線抽出処理部
550 直線割当処理部
560 屋上ノイズ除去部
710 緑植生データ記憶部
720 DEM記憶部
740 Scale図記憶部
750 二値図記憶部
751 オブジェクト記憶部
760 輪郭図記憶部
761 輪郭記憶部
770 直線図記憶部
771 直線記憶部
800 草木分類処理部
910 道路検出部

Claims (27)

  1. 画像中の特定領域の色範囲を定義する特定色範囲を設定された2以上の表色系を用いたピクセル毎の色解析により、画像中の特定領域候補をピクセル単位で抽出し、前記画像の領域に対応するピクセル毎の表面高さ情報とピクセル毎の基準面高さ情報に基づいて、前記特定領域候補から特定色範囲の色であるが特定領域ではないノイズ領域をピクセル単位で検出し、除去することで特定領域を抽出する手段を有することを特徴とする特定領域自動抽出システム。
  2. 前記特定領域候補の抽出は、画像中の各ピクセルを走査し、前記各ピクセルから取得したRGB(R:Red「赤」、G:Green「緑」、B:Blue「青」)色系の各要素の分量(R、G、B)の情報を変換して、HSB(H:Hue「色相」、S:Saturation「彩度」、B:Brightness「明度」)色系の各要素の分量(H、S、B)の情報と、Lab(L:Lightness「明度」、a「赤−緑座標値」、b「黄−青座標値」)色系の各要素の分量(L、a、b)の情報とを算出し、HSB色系の各要素の分量の値に対してあらかじめ設定された特定色範囲を用いた色解析により前記画像から暫定特定領域候補を抽出し、Lab色系の各要素の分量の値に対してあらかじめ設定された特定色範囲を用いた色解析により前記暫定特定領域候補から前記特定領域候補を抽出するものであることを特徴とする請求項1記載の特定領域自動抽出システム。
  3. 前記基準面高さ情報は、間隔の空いた点群に対応して与えられた標高データに基づいて、各ピクセルの位置に対応した連続的な地面の高さを算出するものであることを特徴とする請求項1、または、2記載の特定領域自動抽出システム。
  4. 前記ノイズ領域の検出は、前記表面高さ情報と前記基準面高さ情報の差分があらかじめ定められた閾値以下、あるいは、あらかじめ定められた閾値以上であることを判断することによるものであることを特徴とする請求項1乃至3のいずれかに記載の特定領域自動抽出システム。
  5. 前記特定領域候補、または、前記特定領域から、オブジェクトを抽出し、当該オブジェクトの輪郭の特徴に基づいて、前記ノイズ領域を検出し、除去することを特徴とする請求項1乃至4のいずれかに記載の特定領域自動抽出システム。
  6. 前記オブジェクトの抽出は、前記画像をグレイスケール画像に変換し、当該グレイスケール画像を二値画像に変換することによるものであることを特徴とする請求項5記載の特定領域自動抽出システム。
  7. 前記輪郭は、前記オブジェクトから抽出した前記輪郭をインデックスで表記して登録し、前記輪郭から直線を抽出し、前記インデックスを用いて前記直線に対応する前記輪郭を抽出することで、直線を有するという特徴を持つことを特徴とする請求項5、または、6記載の特定領域自動抽出システム。
  8. 前記表面高さ情報と基準面高さ情報の差分があらかじめ定められた下限閾値と上限閾値の範囲内にあるか否かにより、草と樹木とを分類する手段を有することを特徴とする請求項1乃至7のいずれかに記載の特定領域自動抽出システム。
  9. 表面高さ情報と基準面高さ情報との差分が0であることにより道路の部分を検出する手段を有することを特徴とする請求項1乃至8のいずれかに記載の特定領域自動抽出システム。
  10. 情報処理装置が、画像中の特定領域の色範囲を定義する特定色範囲を設定された2以上の表色系を用いたピクセル毎の色解析により、画像の中の特定領域候補をピクセル単位で抽出し、前記画像の領域に対応するピクセル毎の表面高さ情報とピクセル毎の基準面高さ情報に基づいて、前記特定領域候補から特定色範囲の色であるが特定領域ではないノイズ領域をピクセル単位で検出し、除去することで特定領域を抽出することを特徴とする特定領域自動抽出方法。
  11. 前記特定領域候補の抽出は、情報処理装置が、画像中の各ピクセルを走査し、前記各ピクセルから取得したRGB(R:Red「赤」、G:Green「緑」、B:Blue「青」)色系の各要素の分量(R、G、B)の情報を変換して、HSB(H:Hue「色相」、S:Saturation「彩度」、B:Brightness「明度」)色系の各要素の分量(H、S、B)の情報と、Lab(L:Lightness「明度」、a「赤−緑座標値」、b「黄−青座標値」)色系の各要素の分量(L、a、b)の情報とを算出し、HSB色系の各要素の分量の値に対してあらかじめ設定された特定色範囲を用いた色解析により前記画像から暫定特定領域候補を抽出し、Lab色系の各要素の分量の値に対してあらかじめ設定された特定色範囲を用いた色解析により前記暫定特定領域候補から前記特定領域候補を抽出するものであることを特徴とする請求項10記載の特定領域自動抽出方法。
  12. 前記基準面高さ情報は、情報処理装置が、間隔の空いた点群に対応して与えられた標高データに基づいて、各ピクセルの位置に対応した連続的な地面の高さを算出するものであることを特徴とする請求項10、または、11記載の特定領域自動抽出方法。
  13. 前記ノイズ領域の検出は、情報処理装置が、前記表面高さ情報と前記基準面高さ情報の差分があらかじめ定められた閾値以下、あるいは、あらかじめ定められた閾値以上であることを判断することによるものであることを特徴とする請求項10乃至12のいずれかに記載の特定領域自動抽出方法。
  14. 情報処理装置が、前記特定領域候補、または、前記特定領域から、オブジェクトを抽出し、当該オブジェクトの輪郭の特徴に基づいて、前記ノイズ領域を検出し、除去することを特徴とする請求項10乃至13のいずれかに記載の特定領域自動抽出方法。
  15. 前記オブジェクトの抽出は、情報処理装置が、前記画像をグレイスケール画像に変換し、当該グレイスケール画像を二値画像に変換することによるものであることを特徴とする請求項14記載の特定領域自動抽出方法。
  16. 前記輪郭は、情報処理装置が、前記オブジェクトから抽出した前記輪郭をインデックスで表記して登録し、前記輪郭から直線を抽出し、前記インデックスを用いて前記直線に対応する前記輪郭を抽出することで、直線を有するという特徴を持つことを特徴とする請求項14、または、15記載の特定領域自動抽出方法。
  17. 情報処理装置が、前記表面高さ情報と基準面高さ情報の差分があらかじめ定められた下限閾値と上限閾値の範囲内にあるか否かにより、草と樹木とを分類することを特徴とする請求項10乃至16のいずれかに記載の特定領域自動抽出方法。
  18. 情報処理装置が、表面高さ情報と基準面高さ情報との差分が0であることにより道路の部分を検出することを特徴とする請求項10乃至17のいずれかに記載の特定領域自動抽出方法。
  19. 情報処理装置に、画像中の特定領域の色範囲を定義する特定色範囲を設定された2以上の表色系を用いたピクセル毎の色解析により、画像の中の特定領域候補をピクセル単位で抽出し、前記画像の領域に対応するピクセル毎の表面高さ情報とピクセル毎の基準面高さ情報に基づいて、前記特定領域候補から特定色範囲の色であるが特定領域ではないノイズ領域をピクセル単位で検出し、除去することで特定領域を抽出する処理を行わせることを特徴とするプログラム。
  20. 前記特定領域候補の抽出は、情報処理装置に、画像中の各ピクセルを走査し、前記各ピクセルから取得したRGB(R:Red「赤」、G:Green「緑」、B:Blue「青」)色系の各要素の分量(R、G、B)の情報を変換して、HSB(H:Hue「色相」、S:Saturation「彩度」、B:Brightness「明度」)色系の各要素の分量(H、S、B)の情報と、Lab(L:Lightness「明度」、a「赤−緑座標値」、b「黄−青座標値」)色系の各要素の分量(L、a、b)の情報とを算出し、HSB色系の各要素の分量の値に対してあらかじめ設定された特定色範囲を用いた色解析により前記画像から暫定特定領域候補を抽出し、Lab色系の各要素の分量の値に対してあらかじめ設定された特定色範囲を用いた色解析により前記暫定特定領域候補から前記特定領域候補を抽出する処理を行わせるものであることを特徴とする請求項19記載のプログラム。
  21. 前記基準面高さ情報は、情報処理装置に、間隔の空いた点群に対応して与えられた標高データに基づいて、各ピクセルの位置に対応した連続的な地面の高さを算出する処理を行わせるものであることを特徴とする請求項19、または、20記載のプログラム。
  22. 前記ノイズ領域の検出は、情報処理装置に、前記表面高さ情報と前記基準面高さ情報の差分があらかじめ定められた閾値以下、あるいは、あらかじめ定められた閾値以上であることを判断する処理を行わせることによるものであることを特徴とする請求項19乃至21のいずれかに記載のプログラム。
  23. 情報処理装置に、前記特定領域候補、または、前記特定領域から、オブジェクトを抽出し、当該オブジェクトの輪郭の特徴に基づいて、前記ノイズ領域を検出し、除去する処理を行わせることを特徴とする請求項19乃至22のいずれかに記載のプログラム。
  24. 前記オブジェクトの抽出は、情報処理装置に、前記画像をグレイスケール画像に変換し、当該グレイスケール画像を二値画像に変換する処理を行わせることによるものであることを特徴とする請求項23記載のプログラム。
  25. 前記輪郭は、情報処理装置に、前記オブジェクトから抽出した前記輪郭をインデックスで表記して登録し、前記輪郭から直線を抽出し、前記インデックスを用いて前記直線に対応する前記輪郭を抽出する処理を行わせることで、直線を有するという特徴を持つことを特徴とする請求項23、または、24記載のプログラム。
  26. 情報処理装置に、前記表面高さ情報と基準面高さ情報の差分があらかじめ定められた下限閾値と上限閾値の範囲内にあるか否かにより、草と樹木とを分類する処理を行わせることを特徴とする請求項19乃至25のいずれかに記載のプログラム。
  27. 情報処理装置に、表面高さ情報と基準面高さ情報との差分が0であることにより道路の部分を検出する処理を行わせることを特徴とする請求項19乃至26のいずれかに記載のプログラム。
JP2007077631A 2007-03-23 2007-03-23 特定領域自動抽出システム、特定領域自動抽出方法、および、プログラム Expired - Fee Related JP4747122B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007077631A JP4747122B2 (ja) 2007-03-23 2007-03-23 特定領域自動抽出システム、特定領域自動抽出方法、および、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007077631A JP4747122B2 (ja) 2007-03-23 2007-03-23 特定領域自動抽出システム、特定領域自動抽出方法、および、プログラム

Publications (2)

Publication Number Publication Date
JP2008242508A JP2008242508A (ja) 2008-10-09
JP4747122B2 true JP4747122B2 (ja) 2011-08-17

Family

ID=39913830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007077631A Expired - Fee Related JP4747122B2 (ja) 2007-03-23 2007-03-23 特定領域自動抽出システム、特定領域自動抽出方法、および、プログラム

Country Status (1)

Country Link
JP (1) JP4747122B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101419837B1 (ko) 2013-05-07 2014-07-21 성균관대학교산학협력단 분할 이미지 셀을 이용하는 아다부스트 기반의 보행자 검출 방법 및 장치

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5305485B2 (ja) * 2011-05-23 2013-10-02 Necシステムテクノロジー株式会社 地盤高データ生成装置、地盤高データ生成方法、及びプログラム
KR101421128B1 (ko) 2014-04-30 2014-07-22 국방과학연구소 레이저 레이더 기반의 3차원 원시 데이터를 이용한 건물 영역 추출 방법
JP7273259B2 (ja) * 2019-06-17 2023-05-15 株式会社パスコ 植生領域判定装置及びプログラム
CN111489387B (zh) * 2020-04-09 2023-10-20 湖南盛鼎科技发展有限责任公司 遥感图像建筑物面积计算方法
CN113514829B (zh) * 2021-07-12 2024-06-25 自然资源部国土卫星遥感应用中心 面向InSAR的初始DSM的区域网平差方法
CN114299402B (zh) * 2022-03-07 2022-05-20 成都理工大学 隐患点自动识别方法、电子设备及计算机可读存储介质
CN117237565B (zh) * 2023-09-27 2024-02-13 自然资源部国土卫星遥感应用中心 基于高分辨率卫星立体影像的建筑物白模制作方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2781530B2 (ja) * 1995-03-30 1998-07-30 川崎重工業株式会社 画像処理方法および装置
JP4334155B2 (ja) * 2001-02-23 2009-09-30 株式会社パスコ 画像地図作成装置及びその作成方法
JP4156320B2 (ja) * 2002-09-27 2008-09-24 株式会社パスコ 家屋異動判定方法
JP4228745B2 (ja) * 2003-03-28 2009-02-25 株式会社日立製作所 多スペクトル撮像画像解析装置
JP4566074B2 (ja) * 2005-06-21 2010-10-20 株式会社パスコ 家屋異動判定方法及び家屋異動判定プログラム
JP4185075B2 (ja) * 2005-07-08 2008-11-19 株式会社エヌ・ティ・ティ・データ 緑被率マップ作成装置、緑被率マップ作成方法、及び、プログラム。

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101419837B1 (ko) 2013-05-07 2014-07-21 성균관대학교산학협력단 분할 이미지 셀을 이용하는 아다부스트 기반의 보행자 검출 방법 및 장치

Also Published As

Publication number Publication date
JP2008242508A (ja) 2008-10-09

Similar Documents

Publication Publication Date Title
CN107463918B (zh) 基于激光点云与影像数据融合的车道线提取方法
JP4747122B2 (ja) 特定領域自動抽出システム、特定領域自動抽出方法、および、プログラム
CN106651872B (zh) 基于Prewitt算子的路面裂缝识别方法及***
Kwak et al. Detection of individual trees and estimation of tree height using LiDAR data
CN109191432B (zh) 基于域变换滤波多尺度分解的遥感图像云检测方法
CN106295562A (zh) 一种高分辨率遥感影像道路信息提取方法
Heenkenda et al. Mangrove tree crown delineation from high-resolution imagery
CN110909640A (zh) 水位线的确定方法及装置、存储介质、电子装置
US20130342694A1 (en) Method and system for use of intrinsic images in an automotive driver-vehicle-assistance device
US11804025B2 (en) Methods and systems for identifying topographic features
JP2005234603A (ja) 地図情報更新方法及び地図更新装置
CN114511770A (zh) 道路标识标牌识别方法
CN110852207A (zh) 基于面向对象影像分类技术的蓝色屋顶建筑物提取方法
CN103927759A (zh) 一种航空图像自动云检测方法
Rahimzadeganasl et al. Automatic building detection based on CIE LUV color space using very high resolution pleiades images
Yao et al. Automated detection of 3D individual trees along urban road corridors by mobile laser scanning systems
Chaloeivoot et al. Building detection from terrestrial images
CN113219472B (zh) 一种测距***和方法
JP5531643B2 (ja) 通路検出方法、装置、及びプログラム
Lehrbass et al. Urban tree cover mapping with relief-corrected aerial imagery and LiDAR
Lorite Martínez et al. Automatic classification of bridges and continental water bodies from 3D point clouds (aerial lidar)
Saliola Object-based image analysis for the delineation of canopy gaps and individual tree crowns using multi-source data: A case study in Haliburton Forest, Ontario
CN107153823B (zh) 一种基于视觉关联双空间的车道线特征提取方法
Liu et al. Identification of Damaged Building Regions from High-Resolution Images Using Superpixel-Based Gradient and Autocorrelation Analysis
CN110348443A (zh) 复杂环境树木主干多特征分离统计方法及树干识别方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20090519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110516

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4747122

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees