JP2019091393A - Point group kind estimating apparatus using red three-dimensional map image, and point group kind estimating program using red three-dimensional map image - Google Patents

Point group kind estimating apparatus using red three-dimensional map image, and point group kind estimating program using red three-dimensional map image Download PDF

Info

Publication number
JP2019091393A
JP2019091393A JP2018023131A JP2018023131A JP2019091393A JP 2019091393 A JP2019091393 A JP 2019091393A JP 2018023131 A JP2018023131 A JP 2018023131A JP 2018023131 A JP2018023131 A JP 2018023131A JP 2019091393 A JP2019091393 A JP 2019091393A
Authority
JP
Japan
Prior art keywords
data
image
ground
mesh
red
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018023131A
Other languages
Japanese (ja)
Other versions
JP6993644B2 (en
Inventor
里美 角田
Satomi Tsunoda
里美 角田
和夫 織田
Kazuo Oda
和夫 織田
達朗 千葉
Tatsuro Chiba
達朗 千葉
野中 秀樹
Hideki Nonaka
秀樹 野中
実可子 佐野
Mikako Sano
実可子 佐野
一弘 堀田
Kazuhiro Hotta
一弘 堀田
知也 小見山
Tomoya Komiyama
知也 小見山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meijo University
Asia Air Survey Co Ltd
Original Assignee
Meijo University
Asia Air Survey Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meijo University, Asia Air Survey Co Ltd filed Critical Meijo University
Publication of JP2019091393A publication Critical patent/JP2019091393A/en
Application granted granted Critical
Publication of JP6993644B2 publication Critical patent/JP6993644B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

To obtain a point group kind estimating apparatus using a red three-dimensional map image which can reduce time and costs because a noise of the red three-dimensional map image is automatically removed.SOLUTION: A point group kind estimating apparatus comprises an automatic filtering unit 112, a red three-dimensional map generating unit 118, a teacher data generating unit 124, a noise region estimating model generating unit 128, a noise detection removing unit 132, and the like. On the basis of a laser point group obtained by a laser scanner mounted on an air plane for scanning laser irradiated on a ground, a feature other than a foundation which exists upon generation of DEM, that is, features of a noise are leaned by deep learning to detect and remove the noise.SELECTED DRAWING: Figure 1

Description

本発明は、赤色立体地図画像を用いた点群種類推定装置に関する。   The present invention relates to a point cloud type estimation device using a red three-dimensional map image.

一般に、航空機にレーザスキャナを搭載して地上にレーザ光を発射して、その反射光を受光した場合は、樹木の下の下草等による反射光を含んでいたり、或いは地表面に到達しない反射光を受光したりする。   In general, when a laser scanner is mounted on an aircraft and a laser beam is emitted to the ground and the reflected light is received, the reflected light from the lower grass of the tree or the like does not reach the ground surface. Receive light.

このため、レーザデータから地盤の標高値を得るためにはフィルタリングを行うことになる。例えば、特許文献1のレーザデータのフィルタリング方法は、レーザスキャナと重複してカメラ撮影し、ステレオマッチング処理により得られた数値表層モデルと各レーザデータの標高座標値を比較し、数値表層モデルの標高座標値に対して所定の範囲内にある標高座標値を有するレーザデータをレーザデータ群から除去して地表面候補データを抽出している。   Therefore, filtering is performed to obtain the ground elevation value from the laser data. For example, in the filtering method of laser data in Patent Document 1, camera photography is performed by overlapping with a laser scanner, the numerical surface layer model obtained by stereo matching processing is compared with the elevation coordinate value of each laser data, and the elevation of the numerical surface layer model The ground surface candidate data is extracted by removing laser data having elevation coordinate values within a predetermined range with respect to coordinate values from the laser data group.

特開2011−158278号公報JP, 2011-158278, A

しかしながら、引用文献1のフィルタリング方法は、使用する数値表層モデルとレーザデータとの位置精度が異なる場合に計測誤差が生じるため、レーザデータと同等の高い位置精度を持つ数値表層モデルが必要となるが、こうしたデータを全てのフィルタリング処理過程において生成することは、生産コストの面から実用的ではない。また、地表面データの抽出精度が、レーザデータとは異なる計測データの空間解像度や位置精度に依存するため、これらの両データについて信頼性を担保する必要性がある点や、エラーが見つかった際の原因特定が困難になる点など、課題がある。   However, in the filtering method of Patent Document 1, measurement errors occur when the positional accuracy between the numerical surface layer model to be used and the laser data is different, so a numerical surface layer model having high positional accuracy equal to that of the laser data is required. Producing such data in all filtering processes is not practical from the aspect of production cost. In addition, because the extraction accuracy of ground surface data depends on the spatial resolution and position accuracy of measurement data different from laser data, there is a need to ensure the reliability of both of these data, and when an error is found There are issues such as difficulty in identifying the cause of

一方、従来行われてきた経験豊かなオペレータが手作業で、レーザデータに残存した地盤以外の地物(以降、ノイズと称する)を除去する方法は、時間とコストがかかる。   On the other hand, the conventional method in which experienced operators manually remove the features (hereinafter referred to as noise) other than the ground remaining in the laser data is time-consuming and costly.

本発明の赤色立体地図画像を用いた点群種類推定装置は、レーザスキャナを航空機に搭載して地上にレーザ光を発射して得た計測データをレーザ点群とし、このレーザ点群に基づいた地盤データを記憶した地盤データ記憶部と、
前記地盤データを読み込んで、地上開度画像と地下開度画像とを生成して尾根谷度画像を生成し、この尾根谷度画像の局所領域毎に、この局所領域の斜度に応じて赤色を濃くした色値を割り付けて赤色立体地図画像を生成する赤色立体地図生成部と、
前記地盤データの特徴を判定するための教師データに基づく特徴推定モデルを記憶した特徴推定モデル記憶部と、
(A)前記赤色立体地図画像のメッシュ毎に、このメッシュデータと前記特徴推定モデルとに基づいて、ディープラーニングにより、そのメッシュデータを「非地形的特徴又は地形的特徴を有するメッシュデータ」と推定する手段
を備えたことを要旨とする。
A point cloud type estimation device using a red stereographic map image according to the present invention uses measurement data obtained by mounting a laser scanner on an aircraft and emitting laser light to the ground as a laser point cloud, and is based on this laser point cloud Ground data storage unit that stores ground data;
The ground data is read, a ground opening image and an underground opening image are generated to generate a ridge valley degree image, and for each local region of the ridge valley degree image, red is generated according to the inclination degree of the local region A red three-dimensional map generation unit that generates a red three-dimensional map image by assigning a color value in which
A feature estimation model storage unit storing a feature estimation model based on teacher data for determining features of the ground data;
(A) For each mesh of the red three-dimensional map image, the mesh data is estimated as "mesh data having non-topographical features or topographical features" by deep learning based on the mesh data and the feature estimation model The gist of the present invention is to provide means for

以上のように本発明によれば、特徴推定モデルに基づいて、ディープラーニングにより、そのメッシュデータを「非地形的特徴又は地形的特徴を有するメッシュデータ」と推定する。   As described above, according to the present invention, the mesh data is estimated as “mesh data having non-topographical features or topographical features” by deep learning based on the feature estimation model.

このため、自動的に赤色立体地図画像のメッシュが非地形的特徴又は地形的特徴を有するメッシュデータと推定され、非地形的特徴を有するメッシュデータは自動的に除去されていくので時間とコストを低減できる。   Therefore, the mesh of the red stereographic map image is automatically estimated as mesh data having non-geographical features or geographical features, and mesh data having non-geographical features is automatically removed, so time and cost can be reduced. It can be reduced.

実施の形態の機械学習によるレーザ点群ノイズ除去装置の概略構成図である。It is a schematic block diagram of the laser point-group noise removal apparatus by machine learning of embodiment. 自動フィルタリング後地盤データGAaのデータ構成の説明図である。It is an explanatory view of data composition of ground data GAa after automatic filtering. 教師データ作成部124の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the teacher data preparation part 124. FIG. ノイズ検出除去部132の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the noise detection removal part 132. FIG. 自動フィルタリング後赤色立体地図画像KAGaの説明図である。It is explanatory drawing of red three-dimensional map image KAGa after automatic filtering. 手動フィルタリング後赤色立体地図KGaの説明図である。It is explanatory drawing of the red three-dimensional map KGa after manual filtering. ノイズ領域強調画像KEGaの説明図である。It is explanatory drawing of the noise area | region emphasis image KEKa. 標高値に基づいて疑似カラー表示した自動フィルタリング後DEM画像AFGaの説明図である。It is explanatory drawing of DEM image AFGa after the automatic filtering which displayed false color based on the altitude value. 標高値に基づいて疑似カラー表示した手動フィルタリング後DEM画像MFGaの説明図である。It is explanatory drawing of the DEM image MFGa after the manual filtering which carried out pseudo color display based on the altitude value. ノイズ領域教師画像TKGaの説明図である。It is explanatory drawing of a noise area | region teacher image TKGa. ノイズ領域教師画像TKGaの背景に自動フィルタリング後赤色立体地図画像KAGaを示した画像THKGaの説明図である。It is explanatory drawing of image THKGa which showed red three-dimensional map image KAGa after automatic filtering on the background of noise area teacher image TKGa. ノイズ領域強調画像をしきい値処理することによって得られるノイズ候補領域画像TKGbの説明図である。It is explanatory drawing of the noise candidate area | region image TKGb obtained by carrying out the threshold process of the noise area | region emphasis image. ノイズ候補領域画像TKGbの背景に自動フィルタリング後赤色立体地図画像KAGaを示した画像THKGbの説明図である。It is explanatory drawing of image THKGb which showed the red three-dimensional map image KAGa after automatic filtering on the background of noise candidate area | region image TKGb. 自動フィルタリング後DEM画像AFGaと手動フィルタリング後DEM画像MFGaの差分およびしきい値処理によって得られるノイズ候補領域画像TKGbbの説明図である。It is explanatory drawing of the noise candidate area | region image TKGbb obtained by the difference and threshold value processing of the DEM image AFGa after automatic filtering, and the DEM image MFGa after manual filtering. ノイズ候補領域画像TKGbbの背景に自動フィルタリング後赤色立体地図画像KAGaを示した画像THKGbbの説明図である。It is explanatory drawing of image THKGbb which showed the red three-dimensional map image KAGa after automatic filtering on the background of noise candidate area | region image TKGbb. 標高値に基づいて疑似カラー表示した自動フィルタリング後地盤データ(ランダム点)GHbの説明図である。It is an explanatory view of ground data (random point) GHb after automatic filtering which carried out false color display based on an altitude value. 自動フィルタリング後地盤データ(ランダム点)GHbの拡大画像Gbの説明図である。It is explanatory drawing of ground image (random point) GHb enlarged image Gb after automatic filtering. 自動フィルタリング後地盤データ(ランダム点)の拡大画像Gbの背景(に自動フィルタリング後赤色立体地図画像KAGaを示した画像KHGbbの説明図である。It is explanatory drawing of the image KHGbb which showed the red background image (after automatic filtering to the red stereogram image KAGa) of the enlarged image Gb of ground data (random point) after automatic filtering. 標高値に基づいて疑似カラー表示した正方格子内最小標高ラスタ画像GBbの説明図である。It is explanatory drawing of the minimum elevation raster image GBb in a square lattice which displayed the pseudo color based on the elevation value. 正方格子内最小標高ラスタ画像GBbの拡大画像GBbbの説明図である。It is explanatory drawing of the expansion image GBbb of the minimum elevation raster image GBb in a square lattice. 標高値に基づいて疑似カラー表示したノイズ領域補間DEM画像GKbの説明図である。It is explanatory drawing of the noise area | region interpolation DEM image GKb which displayed the pseudo color based on the elevation value. ノイズ領域補間DEM画像GKbの拡大画像GKbbの説明図である。It is explanatory drawing of the enlarged image GKbb of noise area | region interpolation DEM image GKb. 標高値に基づいて疑似カラー表示したノイズ除去後地盤データ(ランダム点)Gbbの説明図である。It is explanatory drawing of ground data (random point) Gbb after noise removal which carried out the false color display based on the altitude value. ノイズ除去後地盤データ(ランダム点)の拡大画像KGbbの背景に自動フィルタリング後赤色立体地図画像KAGaを示した画像KHGbbの説明図である。It is explanatory drawing of the image KHGbb which showed the red stereo map image KAGa after automatic filtering on the background of the enlarged image KGbb of ground data (random point) after noise removal. ノイズ除去後地盤データ(ランダム点)Gbbの拡大画像KGbbの説明図である。It is explanatory drawing of ground data (random point) Gbb enlarged image KGbb after noise removal. 実施の形態の効果を示す説明図である。It is an explanatory view showing the effect of an embodiment. 実施の形態の効果を示す説明図である。It is an explanatory view showing the effect of an embodiment. 地すべり地形の自動抽出に用いた場合の説明図(1/2)である。It is explanatory drawing (1/2) at the time of using for automatic extraction of landslide topography. 地すべり地形の自動抽出に用いた場合の説明図(2/2)である。It is explanatory drawing (2/2) at the time of using for automatic extraction of landslide topography.

以下に示す本実施の形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想(構造、配置)は、下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された技術的範囲内において、種々の変更を加えることができる。図面は模式的なものであり、装置やシステムの構成等は現実のものとは異なることに留意すべきである。   The present embodiment described below exemplifies an apparatus and a method for embodying the technical idea of the present invention, and the technical idea (structure, arrangement) of the present invention is specified to the following. It is not something to do. Various changes can be added to the technical idea of the present invention within the technical scope described in the claims. It should be noted that the drawings are schematic and the configuration of the apparatus and system is different from the actual one.

本実施の形態の赤色立体地図画像を用いた点群種類推定装置は、航空機にレーザスキャナを搭載して地上にレーザを発射して得たレーザ点群の地盤データに基づいて、DEM(Digital Elevation Model:数値標高モデル)を生成し、さらに、DEMから赤色立体地図を生成したときに存在する地盤以外の地物である非地形的特徴(非地形的特徴を示すパラメータともいう)又は地形的特徴を有するメッシュデータをディープラーニング(Deep Learning:深層学習)によって学習させる。なお、以後、非地形的とは、正しく地盤と判定されるべきもの以外のメッシュデータであり、これをノイズと称して説明する。   The point cloud type estimation device using a red stereographic map image according to the present embodiment is based on ground data of a laser point cloud obtained by mounting a laser scanner on an aircraft and emitting a laser on the ground, the DEM (Digital Elevation) Model: A non-geographical feature (also referred to as a non-geographical feature indicating parameter) or a topographical feature that is a feature other than the ground that exists when a red elevation map is generated from a DEM. The mesh data having D is learned by deep learning. Hereinafter, non-geographical means mesh data other than that which should be correctly determined to be ground, and this will be described as noise.

そして、これを用いて赤色立体地図のノイズ領域を検出する。さらに、このノイズ領域に含まれるレーザ点群のうち、周囲の標高値よりも一定以上高い標高値を持つ点データをノイズとして除去する。   Then, using this, the noise area of the red three-dimensional map is detected. Further, among the laser point clouds included in the noise area, point data having an elevation value which is higher by a certain amount or more than surrounding elevation values is removed as noise.

また、地形的特徴というのは、正に地盤とするメッシュデータである。以後は、地形的特徴を示すパラメータは地盤と称して説明する。また、赤色立体地図画像を用いた点群種類推定装置をディープラーニングによるレーザ点群ノイズ除去装置として説明する。   In addition, topographical features are mesh data exactly as ground. Hereinafter, parameters indicating topographical features will be described as ground. In addition, a point cloud type estimation device using a red three-dimensional map image will be described as a laser point cloud noise removal device by deep learning.

図1は実施の形態のディープラーニングによるレーザ点群ノイズ除去装置の概略構成図である。ディープラーニングによるレーザ点群ノイズ除去装置300は、コンピュータ本体部100と、表示部200等より構成されている。   FIG. 1 is a schematic configuration diagram of a laser point cloud noise removal apparatus by deep learning according to the embodiment. The laser point cloud noise removal apparatus 300 based on deep learning is configured of a computer main body unit 100, a display unit 200, and the like.

コンピュータ本体部100は、飛行機にレーザスキャナ等を搭載して地上にレーザ光を発射して取得した山等の計測データLRを記憶した点群用データベース110と、自動フィルタリング部112と、赤色立体地図作成部118と、教師データ作成部124と、ノイズ領域推定モデル生成部128(特徴推定モデル生成部ともいう)と、ノイズ検出除去部132等を備えている。このノイズ領域推定モデル生成部128は例えば、条件付き敵対的生成ネットワーク (Generative adversarial networks:GANs)を用いている。   The computer main unit 100 includes a point cloud database 110 storing measurement data LR of mountains and the like obtained by mounting a laser scanner or the like on an airplane and emitting laser light to the ground, an automatic filtering unit 112, and a red stereo map The generation unit 118, the teacher data generation unit 124, the noise region estimation model generation unit 128 (also referred to as a feature estimation model generation unit), the noise detection and removal unit 132, and the like are provided. The noise region estimation model generation unit 128 uses, for example, a conditional adversary networks (GANs).

自動フィルタリング部112は、対象範囲を一定のサイズに分割し、全計測点群データから各分割範囲内の標高値の低いデータを抽出し、概略地形モデル(概略特徴推定モデルともいう)を作成する。さらに、地形特性に応じた数種類のパラメータを与えながら、概略地形モデルに近い位置に存在するデータを繰り返し抽出することで、地盤データ(地形的特徴を有するメッシュデータともいう)を作成する。   The automatic filtering unit 112 divides the target range into fixed sizes, extracts data with low elevation values within each divided range from all measured point cloud data, and creates a rough terrain model (also referred to as a rough feature estimation model) . Furthermore, ground data (also referred to as mesh data having topographical features) is created by repeatedly extracting data present at a position close to the general topography model while giving several types of parameters according to the topography characteristics.

しかし、急勾配地形では、斜度が周りと比較して極端に違うため地物と誤認識をする場合もある。また、樹木が密生していて樹木下の地盤データが取得できないような場所では、樹上の点群を地表の点群と誤認識する場合がある。つまり、自動フィルタリング後の地盤データには地盤ではない樹木や地物が含まれる。また、一方で、地盤が過剰に除去される場合がある。この地盤データを自動フィルタリング後地盤データGAaとして自動フィルタリング後用記憶部114に記憶する(図2参照)。   However, in steep terrain, it may be misrecognized as a feature because the inclination is extremely different compared to the surroundings. In addition, in places where trees are densely grown and ground data under the trees can not be acquired, point clouds on trees may be erroneously recognized as point clouds on the ground. That is, ground data after automatic filtering includes trees and features that are not ground. On the other hand, ground may be removed excessively. The ground data is stored in the storage unit after automatic filtering 114 as the ground data GAa after automatic filtering (see FIG. 2).

自動フィルタリング後地盤データGAaは、図2に示すように三次元座標で表されるランダム点のデータである。   The ground data GAa after automatic filtering is data of random points represented by three-dimensional coordinates as shown in FIG.

具体的には図2に示すように、レコード番号i(i=1,2,・・・,n)を付与したランダム点のX座標(経度Xi)、Y座標(緯度Yi)、Z座標(地盤標高値Zgi)を対応させて構成している。   Specifically, as shown in FIG. 2, X coordinate (longitude Xi), Y coordinate (latitude Yi), Z coordinate (longitude Xi) of the random point to which the record number i (i = 1, 2,..., N) is given The ground elevation value Zgi) is made to correspond.

赤色立体地図作成部118は、自動フィルタリング後地盤データGAaを使用してTINモデルを生成し、このTINモデルに任意の格子間隔d(例えば、0.5mあるいは1mなど)のメッシュをかぶせ、各メッシュの中心点の高さをその点を囲む三角形の頂点の高さから補間して求めることにより、DEMを生成する。   The red three-dimensional map generation unit 118 generates a TIN model using the ground data GAa after automatic filtering, applies a mesh of an arbitrary grid interval d (for example, 0.5 m or 1 m, etc.) to the TIN model, The DEM is generated by interpolating the height of the center point of from the heights of the triangle vertices surrounding the point.

このDEMから生成した地上開度画像(浮上度、尾根度を表すグレイスケール画像)と地下開度画像(沈下度、谷度を表すグレイスケール画像)とを合成して尾根谷度画像(浮沈度画像ともいう)を得る。   A ridge valley degree image (floating / sinking degree) by combining the ground opening degree image (greyscale image representing the floating degree and the ridge degree) generated from this DEM and the underground opening degree image (the gray scale image representing the settlement degree and the valley degree) (Also called an image).

そして、前記尾根谷度画像と、斜度に応じて赤色を濃くした斜度図画像とを合成して、赤色立体画像(以下、赤色立体地図画像という)を得る。   Then, the above-mentioned ridge valley degree image and an obliqueness view image in which red is darkened according to the obliqueness are synthesized to obtain a red three-dimensional image (hereinafter referred to as a red three-dimensional map image).

この赤色立体地図画像は、傾斜が大きいほど赤が濃く、尾根は高い程に明るく(白く)、谷は深い程暗く(黒く)表現される。従って、地形の高低及び勾配の度合い、凹凸を一目で立体的に把握できる(特許第3670274号公報)。   In this red stereo map image, the red is darker as the inclination is larger, the ridge is brighter (white) as the height is higher, and the valley is darker (blacker) as the depth is deeper. Therefore, the height of the terrain, the degree of the slope, and the unevenness can be grasped three-dimensionally at a glance (Japanese Patent No. 3670274).

そして、この赤色立体地図画像を自動フィルタリング後赤色立体地図画像KAGaとして赤色立体地図画像記憶部120に記憶する。   Then, this red stereo map image is stored in the red stereo map image storage unit 120 as a red stereo map image KAGa after automatic filtering.

教師データ作成部124は、自動フィルタリング後用記憶部114に記憶されている自動フィルタリング後地盤データGAaと、赤色立体地図画像記憶部120に記憶されている自動フィルタリング後赤色立体地図画像KAGaと、後述する手動フィルタリング後地盤データGMaとを読み込む。そして、自動フィルタリング後赤色立体地図画像KAGaに分散値フィルタを適用して、ノイズ領域強調画像KEGa(非地形的特徴領域強調画像ともいう)を生成する。   The teacher data creation unit 124 includes ground data GAa after automatic filtering stored in the storage unit 114 after automatic filtering, a red stereo map image KAGa after automatic filtering stored in the red stereo map image storage unit 120, and To read ground data GMa after manual filtering. Then, a dispersion value filter is applied to the automatically filtered red three-dimensional map image KAGa to generate a noise region emphasized image KEGa (also referred to as a non-geographical feature region emphasized image).

このノイズ領域強調画像KEGaは、地上開度、地下開度、斜度を合成した赤色立体地図画像が元になっており、各画素(メッシュ)のR、G、B値にその周辺の局所領域における分散値がそれぞれ割り当てられている。   This noise area-emphasized image KEGa is based on a red three-dimensional map image obtained by combining the ground opening degree, underground opening degree, and inclination degree, and the R, G, and B values of each pixel (mesh) are local areas around it. The variances at are assigned respectively.

そして、このノイズ領域強調画像KEGaをメッシュ毎に、R、G、B値のいずれかが閾値δ(色値)より大であるかどうかに対して「真」又は「偽」のいずれかであるかどうかを判定する。「偽」と判定した場合は地盤と判定し、この判定結果を教師データとして教師データ用記憶部126に記憶する。   Then, for each mesh of this noise area emphasized image KEKa, it is either "true" or "false" with respect to whether any one of R, G and B values is larger than the threshold value δ (color value) Determine if it is. When it determines with "false", it determines with a ground, and memorize | stores this determination result in the memory | storage part 126 for teacher data as teacher data.

また、教師データ作成部124は、自動フィルタリング後地盤データGAaをラスタ化した自動フィルタリング後DEM画像AFGa(第1のノイズ除去後地盤DEM画像ともいう)の標高値と、手動フィルタリング後地盤データGMaをラスタ化した手動フィルタリング後DEM画像MFGa(第2のノイズ除去後地盤DEM画像ともいう)の標高値との差を求め、この差が閾値βより大であるかどうかに対して「真」又は「偽」のいずれかであるかどうかを判定する。   In addition, the teacher data creation unit 124 generates elevation values of the post-automatic filtering DEM image AFGa (also referred to as the first post-noise removal ground DEM image) and the post-manual filtering ground data GMa. The difference between the rasterized manual filtered DEM image MFGa (also referred to as the second noise-removed ground DEM image) and the elevation value is determined, and "true" or "to check whether this difference is larger than the threshold value β It is determined whether it is false or not.

ノイズ領域強調画像KEGaのR、G、B値のいずれかが閾値δ(色値)より大であるかどうかに対して「真」と判定された場合に、第1のノイズ除去後地盤DEM画像の標高値と第2のノイズ除去後地盤DEM画像の標高値の差が閾値βより大であるかどうかに対して「真」と判定された場合をノイズ、「偽」と判定された場合を地盤と判定し、この判定結果を教師データとして教師データ用記憶部126に記憶する。このような処理を教師データ用に予め用意した計測データLRに対して実施する。   The first DEM image after noise removal when it is determined “true” whether or not any one of the R, G, and B values of the noise area-emphasized image KEKa is larger than the threshold value δ (color value) The case where it is judged as "true" with respect to whether or not the difference between the altitude value of the second and the altitude value of the ground DEM image after the second noise removal is larger than the threshold value β is the case where it is judged as noise and "false" The ground is determined, and the determination result is stored in the teacher data storage unit 126 as teacher data. Such processing is performed on the measurement data LR prepared in advance for teacher data.

ノイズ領域推定モデル生成部128は、教師データ用記憶部126に記憶されている教師データに基づいてノイズ領域と判定するためのモデルをノイズ領域推定モデル用記憶部130に生成する。   The noise area estimation model generation unit 128 generates a model for determining as a noise area in the noise area estimation model storage unit 130 based on the teacher data stored in the teacher data storage unit 126.

ノイズ検出除去部132は、点群用データベース110に計測データLRが記憶されるに伴って、生成された自動フィルタリング後赤色立体地図画像KAGaを読み込み、ノイズ領域推定モデル用記憶部130に記憶されているノイズ領域推定モデルに基づいて、ディープラーニングによるノイズ領域抽出を行って、ノイズ領域画像KAGNaを生成する。   The noise detection and removal unit 132 reads the generated auto-filtered red three-dimensional map image KAGa as the measurement data LR is stored in the point cloud database 110, and stores it in the noise region estimation model storage unit 130. Based on the noise area estimation model, noise area extraction is performed by deep learning to generate a noise area image KAGNa.

また、自動フィルタリング後地盤データGAaが生成される毎に、このデータに前記自動フィルタリング後赤色立体地図画像KAGaと同一間隔のメッシュを設定し、各メッシュ(正方格子)内に含まれる点群データの最小標高値を用いてラスタ化して画像(以下、正方格子内最小標高ラスタ画像GBという)を生成する。   Moreover, every time ground data GAa after automatic filtering is generated, a mesh having the same interval as the automatically filtered red three-dimensional map image KAGa is set to this data, and point cloud data included in each mesh (square grid) The image is rasterized using the minimum elevation value to generate an image (hereinafter referred to as a square grid minimum elevation raster image GB).

そして、ノイズ領域画像KAGNaと正方格子内最小標高ラスタ画像GBとを重ね合わせてノイズ領域の標高値を削除し、周囲の標高値を使用してノイズ領域の標高値を補間してノイズ領域補間DEM画像を生成する。   Then, the noise area image KAGNa and the minimum elevation raster image GB in the square lattice are superimposed to delete the elevation value of the noise area, and the elevation value of the noise area is interpolated using the surrounding elevation value to perform the noise area interpolation DEM Generate an image.

そして、自動フィルタリング後地盤データGAaとノイズ領域画像KAGNaを重ね合わせ、自動フィルタリング後地盤データGAaの各点データについて、この点データが含まれる前記ノイズ領域画像KAGNaのメッシュがノイズ領域であるかどうかを判定する。つまり、「偽」又は「真」かどうかを判定する。   Then, the ground data GAa after automatic filtering and the noise area image KAGNa are superimposed, and for each point data of the ground data GAa after automatic filtering, whether or not the mesh of the noise area image KAGNa including this point data is a noise area judge. That is, it is determined whether "false" or "true".

そして、「偽」と判定した場合は、地盤と判定し、ノイズ除去後地盤データ記憶部134に記憶する。   And when it determines with "false", it determines with a ground and stores it in the ground data storage part 134 after noise removal.

一方、「真」と判定した場合は、ノイズ領域補間DEM画像を重ね合わせ、前記点データの標高値と前記点データが含まれるノイズ領域補間DEM画像のメッシュの標高値(補間後の標高)との差>除去用標高閾値Δrかどうかを判定する。   On the other hand, when it is determined as “true”, the noise area interpolation DEM image is superimposed, and the elevation value of the point data and the elevation value (altitude after interpolation) of the mesh of the noise area interpolation DEM image including the point data It is determined whether the difference of > the elevation threshold Δr for removal.

除去用標高閾値Δrは、例えば、1mなどである。「偽」と判定した場合は、前記点データを地盤データと判定する。また、「真」の場合はノイズと判定する。これらの判定結果は、ノイズ除去後地盤データ記憶部134に記憶する。   The removal altitude threshold Δr is, for example, 1 m. When it determines with "false", the said point data are determined to be ground data. Also, in the case of “true”, it is determined as noise. These determination results are stored in the ground data storage unit 134 after noise removal.

起動判定部140は、自動フィルタリング部112、赤色立体地図作成部118、教師データ作成部124、手動フィルタリング部113、ノイズ領域推定モデル生成部128又はノイズ検出除去部132を監視して、これらを適宜、起動させる。   The start determination unit 140 monitors the automatic filtering unit 112, the red three-dimensional map generation unit 118, the teacher data generation unit 124, the manual filtering unit 113, the noise area estimation model generation unit 128 or the noise detection and removal unit 132, and appropriately monitors them. Start up.

上記のように構成されたレーザ点群ノイズ除去装置300の動作をフローチャートを用いて説明する。図3は教師データ作成部124の動作を説明するフローチャートである。図4は、ノイズ検出除去部132の動作を説明するフローチャートである。但し、図3及び図4は、自動フィルタリング部112の処理、赤色立体地図作成部118の処理、手動フィルタリング部113の処理を記載して説明する。   The operation of the laser point cloud noise removal apparatus 300 configured as described above will be described using a flowchart. FIG. 3 is a flowchart for explaining the operation of the teacher data creation unit 124. FIG. 4 is a flowchart for explaining the operation of the noise detection and removal unit 132. However, FIG.3 and FIG.4 describes and describes the process of the automatic filtering part 112, the process of the red three-dimensional map preparation part 118, and the process of the manual filtering part 113. FIG.

図3に示すように、自動フィルタリング部112は、点群用データベース110の計測データLRを読み込み、地形特性に応じた数種類のパラメータを与えて、地物・地形データを自動判別して、それ以外を除去する自動フィルタリング処理を行う(S1)。   As shown in FIG. 3, the automatic filtering unit 112 reads the measurement data LR of the point cloud database 110, gives several kinds of parameters according to the terrain characteristics, automatically discriminates the feature / terrain data, and others Perform an automatic filtering process to remove (S1).

この自動フィルタリング後地盤データGAaを自動フィルタリング後用記憶部114に記憶する(S3:図2参照)。   The post-automatic filtering ground data GAa is stored in the post-automatic filtering storage unit 114 (S3: see FIG. 2).

そして、赤色立体地図作成部118は、自動フィルタリング後地盤データGAaを自動フィルタリング後用記憶部114から読み込んでDEMを生成し、このDEMから地上開度画像図と地下開度画像図を生成し、これらを合成して尾根谷度画像を生成し、さらに前記DEMから斜度図画像図を生成し、これらを合成して、赤色立体地図画像(ラスタ)を生成する(S5)。   Then, the red three-dimensional map creation unit 118 reads the ground data GAa after automatic filtering from the storage unit 114 after automatic filtering to generate a DEM, and generates a ground opening image figure and an underground opening degree image figure from this DEM, These are combined to generate a ridge valley degree image, and a slope degree map image is further generated from the DEM, and these are combined to generate a red three-dimensional map image (raster) (S5).

そして、この赤色立体地図画像を自動フィルタリング後赤色立体地図画像KAGa(ラスタ)として赤色立体地図画像記憶部120に記憶する(S7)。   Then, the red stereo map image is stored in the red stereo map image storage unit 120 as a red stereo map image KAGa (raster) after automatic filtering (S7).

この自動フィルタリング後赤色立体地図画像KAGa(ラスタ)を図6に示す。しかし、依然としてノイズによって不要な凸が残っている。   This automatically filtered red stereo map image KAGa (raster) is shown in FIG. However, the noise still leaves an unwanted convexity.

このため、手動フィルタリング部113が赤色立体地図画像記憶部120の自動フィルタリング後赤色立体地図画像KAGaを表示部200に表示して手動処理によりノイズによる凸と思われる個所を適宜、削除する(S9)。つまり、自動フィルタリング後赤色立体地図画像KAGaの地盤データからノイズが手動により除去される。なお、手動フィルタリングでは、残存地物の除去の他、地盤の過剰除去箇所の復元も行う。   For this reason, the manual filtering unit 113 displays the red stereo map image KAGa after automatic filtering of the red stereo map image storage unit 120 on the display unit 200, and appropriately deletes a portion that seems to be convex due to noise by manual processing (S9) . That is, noise is removed manually from the ground data of the red three-dimensional map image KAGa after automatic filtering. In the manual filtering, in addition to the removal of the remaining features, restoration of the excessive removal point of the ground is also performed.

これを、手動フィルタリング後地盤データGMaとして、手動フィルタリング後用記憶部115に記憶する(S11)。   This is stored in the storage unit 115 after manual filtering as the ground data GMa after manual filtering (S11).

赤色立体地図作成部118は、手動フィルタリング後地盤データGMaを手動フィルタリング後用記憶部115から読み込んでDEMを生成し、このDEMから地上開度画像図と地下開度画像図とを生成し、これらを合成して尾根谷度画像を生成し、さらに前記DEMから斜度図画像図を生成し、これらを合成して、赤色立体地図画像(ラスタ)を生成する(S13)。   The red stereo map creating unit 118 reads the manually filtered ground data GMa from the manual filtering storage unit 115 to generate a DEM, and generates a ground opening degree image map and an underground opening degree image graph from the DEM, Are generated to generate a ridge valley degree image, and a slope degree map image is further generated from the DEM, and these are synthesized to generate a red stereoscopic map image (raster) (S13).

この赤色立体地図画像を手動フィルタリング後赤色立体地図画像KMGaとして赤色立体地図画像記憶部120に記憶する(S15)。   The red stereo map image is stored in the red stereo map image storage unit 120 as a red stereo map image KMGa after manual filtering (S15).

すなわち、手動フィルタリング後赤色立体地図画像KGaは、図6に示すように凸が除かれた赤色立体地図画像となっている。   That is, as shown in FIG. 6, the red stereo map image KGa after manual filtering is a red stereo map image from which the convex is removed.

一方、教師データ作成部124は、教師データを作成する。   On the other hand, the teacher data creation unit 124 creates teacher data.

教師データは正解データとも呼ばれる。つまり、自動フィルタリング後赤色立体地図に含まれている地盤以外のノイズを検出するための教師データを作成する。   Teacher data is also called correct answer data. That is, teacher data for detecting noise other than the ground included in the red three-dimensional map after automatic filtering is created.

以下に教師データ作成部124の処理を説明する。   The processing of the teacher data creation unit 124 will be described below.

図3に示すように、赤色立体地図画像記憶部120に記憶されている自動フィルタリング後赤色立体地図画像KAGa(ラスタ)を読み込み、所定のウィンドウサイズ(例えば、11×11メッシュなど)の分散値フィルタを適用して(S21)、図7に示すノイズ領域強調画像KEGaを生成してメモリに記憶する(S23)。   As shown in FIG. 3, the automatically filtered red stereo map image KAGa (raster) stored in the red stereo map image storage unit 120 is read, and a dispersion value filter of a predetermined window size (for example, 11 × 11 mesh etc.) Is applied (S21) to generate the noise region emphasized image KEGa shown in FIG. 7 and store it in the memory (S23).

図7に示すように、背景が黒にされて凸領域(メッシュ)がRGBのいずれかの色でノイズ領域として強調されている。   As shown in FIG. 7, the background is made black and the convex area (mesh) is emphasized as a noise area with any of RGB colors.

一方、教師データ作成部124は、ステップS3で生成された、自動フィルタリング後地盤データGAaを読み込み、この自動フィルタリング後地盤データGAaに対してTINを作成してラスタ化して(S31)、DEMを作成して自動フィルタリング後DEM画像用記憶部124aに記憶する(S33)。   On the other hand, the teacher data creation unit 124 reads the ground data GAa after automatic filtering generated in step S3, creates a TIN for the ground data GAa after this automatic filtering and rasterizes it (S31), and creates a DEM. Then, after automatic filtering, it is stored in the DEM image storage unit 124a (S33).

これを実施の形態では自動フィルタリング後DEM画像AFGa(第1のノイズ除去後地盤DEM画像とも称する)と称する。自動フィルタリング後DEM画像AFGaを図9に示す。   In the embodiment, this is referred to as a post-automatic filtering DEM image AFGa (also referred to as a first post-noise removal ground DEM image). The DEM image AFGa after automatic filtering is shown in FIG.

一方、ステップS11で生成された手動フィルタリング後地盤データGMaを読み込み、この手動フィルタリング後地盤データGMaに対してTINを作成してラスタ化して(S35)、DEMを作成して手動フィルタリング後DEM画像用記憶部124bに記憶する(S37)。これを実施の形態では手動フィルタリング後DEM画像MFGa(第2のノイズ除去後地盤DEM画像とも称する)と称する。   On the other hand, the manually filtered ground data GMa generated in step S11 is read, and a TIN is created and rasterized for the manually filtered ground data GMa (S35), and a DEM is created for the manually filtered DEM image It memorize | stores in the memory | storage part 124b (S37). In the embodiment, this is referred to as a DEM image after manual filtering MFGa (also referred to as a second post-noise removal ground DEM image).

手動フィルタリング後DEM画像MFGaを図9に示す。   The DEM image MFGa after manual filtering is shown in FIG.

そして、ステップS23で生成したノイズ領域強調画像KEGaに対してメッシュ毎に、その色値を読み込み、R、G、Bのいずれかが閾値δ(色値)より大であるかどうかに対して「真」又は「偽」かどうかを判断する(S41:ノイズ領域強調画像閾値処理)。   Then, the color value is read for each mesh with respect to the noise area emphasized image KEGa generated in step S23, and “R”, “G”, or “B” is greater than the threshold value δ (color value) It is determined whether "true" or "false" (S41: noise region enhanced image thresholding).

前述の閾値δ(色値)は、例えば、1000などである。このステップS41の処理を、ノイズ領域強調画像閾値処理と称している。   The aforementioned threshold value δ (color value) is, for example, 1000 or the like. The process of step S41 is referred to as noise area emphasized image threshold process.

ステップS41で、「偽」と判定した場合は、このメッシュを地盤と判定して教師データ用記憶部126に記憶する(S43)。具体的には、ノイズ領域強調画像KEGa(図7)を生成した元の自動フィルタリング後赤色立体地図画像KAGa(図5)の各メッシュについて、そのメッシュが地盤である場合は白、ノイズである場合は黒の色を割り当てた画像を教師データとして教師データ用記憶部126に記憶するものとするが、ステップS41の段階では、「偽」と判定した場合のみ、このメッシュが地盤であること(白)が確定する。   If it is determined in step S41 that the mesh is "false", the mesh is determined to be ground and stored in the teacher data storage unit 126 (S43). Specifically, for each mesh of the original auto-filtered red three-dimensional map image KAGa (FIG. 5) that generated the noise region emphasized image KEGa (FIG. 7), if the mesh is ground, it is white, if it is noise Stores the image assigned the color of black in the teacher data storage unit 126 as teacher data, but at the stage of step S41, this mesh is a ground only when it is determined to be “false” (white ) Is finalized.

全メッシュに対してステップS41の判定を行って、「偽」と判定し地盤が確定したメッシュを白、「真」と判定し地盤かノイズかが確定していないノイズ候補領域のメッシュを黒で表したノイズ候補領域画像を図12及び図13に示す。図12はノイズ候補領域画像TKGbであり、図13は背景に自動フィルタリング後赤色立体地図画像KAGaを示したノイズ候補領域画像THKGbである。   The determination in step S41 is performed on all the meshes, and the mesh determined as "false" and the ground determined is white, the mesh determined as the "true" and the noise candidate region determined whether the ground or noise is not determined in black The noise candidate area | region image represented is shown in FIG.12 and FIG.13. FIG. 12 shows a noise candidate area image TKGb, and FIG. 13 shows a noise candidate area image THKGb showing a red stereo map image KAGa after automatic filtering in the background.

一方、ステップS33で生成した自動フィルタリング後DEM画像AFGaと、ステップS37で生成した手動フィルタリング後DEM画像MFGaと、ステップS23で生成したノイズ領域強調画像KEGa(図7)とを重ね合わせる。   On the other hand, the automatically filtered DEM image AFGa generated in step S33, the manually filtered DEM image MFGa generated in step S37, and the noise region emphasized image KEGa (FIG. 7) generated in step S23 are superimposed.

そして、各メッシュについて、ステップS41で「真」と判定している場合(S46)は、自動フィルタリング後DEMのメッシュに割り付けられている標高値(以下、自動フィルタ後標高値という)と手動フィルタリング後DEM画像AFGaのメッシュに割り付けられている標高値(以下、手動フィルタ後標高値という)との差を求め、この差が閾値β(距離)より大かどうかを判定する(S48:DEM差分閾値処理)。   Then, for each mesh, when “true” is determined in step S41 (S46), the altitude value assigned to the mesh of the DEM after automatic filtering (hereinafter referred to as the altitude value after automatic filtering) and the manual filtering The difference with the altitude value allocated to the mesh of the DEM image AFGa (hereinafter referred to as the manually filtered altitude value) is determined, and it is determined whether this difference is larger than the threshold β (distance) (S48: DEM difference thresholding) ).

閾値β(距離)は、例えば、5mなどである。   The threshold value β (distance) is, for example, 5 m.

ステップS48で閾値β(距離)以下と判定した場合(「偽」)は地盤(S52)、閾値β(距離)より大と判定した場合(「真」)はノイズ(S50)と判定し、教師データ用記憶部126に記憶する。具体的には、ステップS41の段階で、地盤かノイズかが確定していないメッシュについて、ステップS48で「偽」と判定した場合は地盤(白)、「真」と判定した場合はノイズ(黒)であることが確定する。   When it is determined in step S48 that it is not more than the threshold β (distance) (“false”), the ground (S52) is determined as larger than the threshold β (distance) (“true”) is determined as noise (S50). It is stored in the data storage unit 126. Specifically, in the step S41, the mesh (whether ground or noise is not determined) is determined as “false” in step S48 when it is determined as “false”, and when it is determined as “true” as noise (black It is decided that it is).

全メッシュに対してステップS48の判定を行って、「偽」と判定し地盤が確定したメッシュを白、「真」と判定しノイズが確定したメッシュを黒で表したノイズ領域教師画像を図10及び図11に示す。   The noise region teacher image is shown in FIG. 10 in which the mesh determined as “false” and the ground determined by performing the determination in step S48 is white for all meshes, and the mesh determined as “true” determined as noise and black is represented in black. And FIG.

図10はノイズ領域教師画像TKGaであり、図11は背景に自動フィルタリング後赤色立体地図画像KAGaを示したノイズ領域教師画像THKGaである。また、仮にステップS41の判定を行わずに、ステップS48のみの判定を行った場合の判定結果を図14及び図15に示す。図14は自動フィルタリング後DEM画像AFGaと手動フィルタリング後DEM画像MFGaの差分およびしきい値処理によって得られるノイズ候補領域画像TKGbbであり、図15はノイズ候補領域画像TKGbbの背景に自動フィルタリング後赤色立体地図画像KAGaを示した画像THKGbbである。   FIG. 10 is a noise area teacher image TKGa, and FIG. 11 is a noise area teacher image THKGa showing a red stereo map image KAGa after automatic filtering in the background. 14 and 15 show the determination results in the case where only the determination of step S48 is performed without performing the determination of step S41. FIG. 14 shows the difference between the automatically filtered DEM image AFGa and the manually filtered DEM image MFGa and the noise candidate area image TKGbb obtained by thresholding, and FIG. 15 shows the red solid after automatic filtering on the background of the noise candidate area image TKGbb It is image THKGbb which showed map image KAGa.

ノイズ領域推定モデル生成部128は、教師データ用記憶部126に記憶されている教師データに基づいてノイズ領域と判定するためのモデル(関数)を生成する。   The noise area estimation model generation unit 128 generates a model (function) for determining a noise area based on the teacher data stored in the teacher data storage unit 126.

そして、ノイズ検出除去部132は、以下に説明する処理を行う。   And the noise detection removal part 132 performs the process demonstrated below.

すなわち、図4に示すように、自動フィルタリング部112が点群用データベース110に新たに記憶された計測データLRを読み込み、地形特性に応じた数種類のパラメータを与えて、地物・地形データを自動判別して、それ以外を除去する自動フィルタリング処理を行う(S61)。   That is, as shown in FIG. 4, the automatic filtering unit 112 reads the measurement data LR newly stored in the point cloud database 110, gives several types of parameters according to the terrain characteristics, and automatically performs the feature / terrain data. It discriminate | determines and performs the automatic filtering process which removes others (S61).

この自動フィルタリング後地盤データGAa(ランダム点)を自動フィルタリング後用記憶部114に記憶する(S63)。   The post-automatic filtering ground data GAa (random point) is stored in the post-automatic filtering storage unit 114 (S63).

図16には、属性である標高値に基づいて疑似カラー表示した自動フィルタリング後地盤データ(ランダム点)GHbを示す。また、図17には、図16の一部を拡大した画像Gbを示す。   FIG. 16 shows automatic filtered ground data (random points) GHb pseudo-color displayed based on the attribute elevation value. Further, FIG. 17 shows an image Gb in which a part of FIG. 16 is enlarged.

そして、赤色立体地図作成部118は、自動フィルタリング後地盤データGAaを自動フィルタリング後用記憶部114から読み込んでDEMを生成し、このDEMから地上開度画像図と地下開度画像図を生成し、これらを合成して尾根谷度画像(浮沈度画像ともいう)を生成し、さらに前記DEMから斜度図画像図を生成し、これらを合成して、赤色立体地図画像(ラスタ)を得て(S65)、赤色立体地図画像記憶部120に記憶する(S67)。   Then, the red three-dimensional map creation unit 118 reads the ground data GAa after automatic filtering from the storage unit 114 after automatic filtering to generate a DEM, and generates a ground opening image figure and an underground opening degree image figure from this DEM, These are combined to generate a ridge valley degree image (also referred to as a floatation / depression degree image), and a slope figure image figure is further generated from the DEM, and these are combined to obtain a red three-dimensional map image (raster) S65), stored in the red stereo map image storage unit 120 (S67).

しかし、依然としてノイズによって不要な凸が残っている場合がある(図18参照)。図18は、図19の背景に自動フィルタリング後赤色立体地図画像KAGaを示した画像KHGbbである。   However, noise may still cause unnecessary convexity (see FIG. 18). FIG. 18 is an image KHGbb showing a red stereo map image KAGa after automatic filtering in the background of FIG.

このため、ノイズ検出除去部132が、ステップS67で生成した自動フィルタリング後赤色立体地図画像KAGa(ラスタ)をノイズ領域推定モデル用記憶部130に記憶されているノイズ領域推定モデルに読み込み(S81)、ディープラーニング(Deep Learning、深層学習)によるノイズ領域抽出を行い(S83)、ノイズ領域画像を生成する(S85)。   Therefore, the noise detection and removal unit 132 reads the automatically filtered red three-dimensional map image KAGa (raster) generated in step S67 into the noise region estimation model stored in the noise region estimation model storage unit 130 (S81), Noise region extraction is performed by deep learning (Deep Learning, deep learning) (S 83), and a noise region image is generated (S 85).

つまり、入力データを自動フィルタリング後赤色立体地図画像KAGaとし、この自動フィルタリング後赤色立体地図画像KAGaに存在するノイズ領域をノイズ領域推定モデルによって判定する。   That is, the input data is set as the post-automatic filtering red stereo map image KAGa, and the noise area present in the post-automatic filtering red stereo map image KAGa is determined by the noise area estimation model.

一方、ステップS63で自動フィルタリング後地盤データGAaが生成される毎に、このデータに前記自動フィルタリング後赤色立体地図画像KAGaと同一間隔のメッシュを設定し、各メッシュ(正方格子)内に含まれる点群データの最小標高値を用いてラスタ化して(S87)、DEMを生成する(S89)。   On the other hand, each time ground data GAa after automatic filtering is generated in step S63, a mesh having the same interval as that of the automatically filtered red three-dimensional map image KAGa is set to this data, and the points included in each mesh (square lattice) Rasterization is performed using the minimum elevation value of group data (S87), and a DEM is generated (S89).

このDEMを正方格子内最小標高ラスタ画像GBbと称する。この正方格子内最小標高ラスタ画像GBbを標高値に基づいて疑似カラー表示した画像を図20に示す。また、図20の所定領域の拡大図GBbbを図20に示す。なお、色がついていない画素(メッシュ)は、ランダム点(ノイズ)が存在しない画素(メッシュ)である。   This DEM is referred to as a square grid minimum elevation raster image GBb. An image obtained by pseudocolor display of the minimum elevation raster image GBb in the square lattice based on the elevation value is shown in FIG. Further, FIG. 20 shows an enlarged view GBbb of the predetermined area of FIG. The uncolored pixel (mesh) is a pixel (mesh) in which no random point (noise) exists.

そして、ステップS85で生成したノイズ領域画像とステップS89で生成した正方格子内最小標高ラスタ画像とを重ね合わせてノイズ領域の標高値を削除し、周囲の標高値を使用してノイズ領域の標高値を補間し(S91)、DEM(以下、ノイズ領域補間DEMと称する)を作成する(S93)。つまり、線形補間によるノイズ領域の標高値の推定を行ってノイズ領域補間DEMを作成している。   Then, the noise area image generated in step S85 and the minimum elevation raster image in square lattice generated in step S89 are superimposed to delete the elevation value of the noise area, and the elevation value of the noise area is used using the surrounding elevation value. Are interpolated (S91), and a DEM (hereinafter referred to as a noise area interpolation DEM) is created (S93). That is, the elevation value of the noise area is estimated by linear interpolation to create the noise area interpolation DEM.

このノイズ領域補間DEMをノイズ領域補間DEM画像GKbと称し、標高値に基づいて疑似カラー表示した画像を図21に示す。また、図21の所定領域の拡大画像GKbbを図22に示す。   This noise area interpolation DEM is referred to as a noise area interpolation DEM image GKb, and an image pseudo-color displayed based on elevation values is shown in FIG. In addition, an enlarged image GKbb of the predetermined area in FIG. 21 is shown in FIG.

そして、ステップS63の自動フィルタリング後地盤データGAa(ランダム点)と、ステップS85で生成したノイズ領域画像を重ね合わせ、自動フィルタリング後地盤データの各点データについて、この点データが含まれるノイズ領域画像のメッシュがノイズ領域であるかどうかを判定する(S95)。つまり、「偽」又は「真」かどうかを判定する。   Then, the ground data GAa (random points) after automatic filtering in step S63 and the noise area image generated in step S85 are superimposed, and each point data of the ground data after automatic filtering is a noise area image including the point data It is determined whether the mesh is a noise area (S95). That is, it is determined whether "false" or "true".

そして、ステップS95において「偽」と判定した場合は、地盤と判定する(S96)。   And when it determines with "false" in step S95, it determines with a ground (S96).

一方、ステップS95で「真」と判定した場合は、ステップS63の自動フィルタリング後地盤データGAa(ランダム点)の標高値(ランダム点の標高)とステップS93で生成したノイズ領域補間DEMの標高(補間後の標高)との差>除去用標高閾値Δrかどうかを判定する(S97)。除去用標高閾値Δrは、1mなどである。ステップS97において「偽」と判定した場合は、地盤データと判定する(S98a)。また、「真」の場合はノイズと判定する(S98b)。   On the other hand, if “true” is determined in step S95, the elevation value (altitude of random points) of the ground data GAa (random points) after automatic filtering in step S63 and the elevation (interpolation of the noise area interpolation DEM generated in step S93 It is determined whether or not the difference with the later elevation)> the removal elevation threshold Δr (S97). The removal altitude threshold Δr is, for example, 1 m. When it determines with "false" in step S97, it determines with ground data (S98a). Also, in the case of "true", it is determined as noise (S98b).

そして、ステップS95及びステップS97の判定結果に基づいて、ノイズ除去後地盤データ(ランダム点)を得る(S99)。   Then, ground data (random points) after noise removal are obtained based on the determination results of step S95 and step S97 (S99).

このデータをノイズ除去後地盤データ(ランダム点)Gbbと称し、標高値に基づいて疑似カラー表示した画像を図23に示す。また、図23の所定領域の拡大画像KGbbを図25に示す。さらに、図25の背景に自動フィルタリング後赤色立体地図画像KAGaを示した画像KHGbbを図24に示す。   This data is referred to as ground data (random points) Gbb after noise removal, and an image displayed in pseudocolor based on the elevation value is shown in FIG. Further, an enlarged image KGbb of the predetermined area of FIG. 23 is shown in FIG. Furthermore, FIG. 24 shows an image KHGbb showing a red stereo map image KAGa after automatic filtering in the background of FIG.

ステップ99で得られたノイズ除去後地盤データ(ランダム点)は、ノイズ領域推定モデルによって検出された領域のノイズが除去されているが、検出漏れや誤検出を防ぐ必要があるため、ステップS69において、手動フィルタリングを行い、ノイズ除去後の地盤データ(ランダム点)(S71)を得、ステップS73において、赤色立体地図を生成して(S75)最終的な点検を行う。   In the ground data (random points) after noise removal obtained in step 99, the noise in the region detected by the noise region estimation model has been removed, but since it is necessary to prevent detection omission and false detection, in step S69 , Manual filtering is performed to obtain ground data (random points) after noise removal (S71), and in step S73, a red stereo map is generated (S75) and a final inspection is performed.

なお、前記ノイズ領域推定モデルへの入力画像として、標高(DEM)や斜度等の地形表現画像を使用することも可能である。赤色立体地図を入力画像として使用する場合の効果を示すため、まず、ノイズ領域の教師データをモデル生成用と検証用の2つのグループに分け、入力画像に標高、斜度、赤色立体地図をそれぞれ使用し、一方、出力画像には共通のモデル生成用の教師データを使用してノイズ領域推定モデルを3種生成した。そして、ノイズ領域推定モデルによって検出されたノイズ領域と検証用の教師データのノイズ領域を比較して、各種ノイズ領域推定モデルの検出精度を比較した。   In addition, it is also possible to use topography expression images, such as altitude (DEM) and a slope, as an input image to the said noise area | region estimation model. In order to show the effect of using the red stereo map as the input image, first, the teacher data of the noise area is divided into two groups for model generation and for verification, and the altitude, inclination, and red stereo map are input to the input image. Three types of noise region estimation models were generated using the same training data for model generation used in the output image. Then, the detection accuracy of various noise area estimation models was compared by comparing the noise area detected by the noise area estimation model and the noise area of the teacher data for verification.

図26に、入力画像として使用した標高、斜度、赤色立体地図の例を示す。また、図27に、Kappa係数と呼ばれる指標を用いて、入力画像に標高、斜度、赤色立体地図をそれぞれ用いて生成したノイズ領域推定モデルの検出精度を示す。Kappa係数の値は高いほど、高い精度で検出されたことを示す。   FIG. 26 shows an example of the elevation, the inclination, and the red three-dimensional map used as the input image. Further, FIG. 27 shows the detection accuracy of the noise area estimation model generated using the elevation, the inclination, and the red three-dimensional map in the input image using an index called a Kappa coefficient. The higher the value of the Kappa coefficient, the higher the accuracy detected.

図27に示されるように、赤色立体地図を入力画像として用いた場合の検出精度が最も高く、ノイズ検出に最適であることがわかる。   As shown in FIG. 27, it can be seen that the detection accuracy is highest when a red three-dimensional map is used as an input image, and is optimal for noise detection.

<その他の実施の形態>
上記実施の形態では地形的特徴の抽出は、例えば、図29に示すように、地すべり地形の自動抽出に用いることができる。
<Other Embodiments>
In the above embodiment, extraction of topographical features can be used for automatic extraction of landslide topography, as shown in FIG. 29, for example.

例えば、図28の(1)に示すような赤色画像と、(2)に示す地すべり地形判読データを正解データとするペアを複数用いてでディープラーニング(機械学習)を行い、得られた学習モデル(特徴推定モデル)を用いて、図29に示す(3)の入力画像から地すべり地形を抽出すると、図29(4)に示す自動抽出画像が得られる。(5)に示す正解データと比べ、ほぼ正しい位置を抽出することが可能である。   For example, a learning model obtained by performing deep learning (machine learning) using a plurality of red images as shown in (1) of FIG. 28 and pairs in which the landslide topography interpretation data as shown in (2) is the correct data. When landslide topography is extracted from the input image of (3) shown in FIG. 29 using (feature estimation model), an automatically extracted image shown in FIG. 29 (4) is obtained. Compared with the correct answer data shown in (5), it is possible to extract an almost correct position.

すなわち、本実施の形態の構成の概要は、地形的特徴は、正しい地盤を示すパラメータ又は地すべり地形を示すパラメータとし、非地形的とされたものは、正しい地盤又は地すべり地形を示す地盤をノイズとすると、レーザスキャナを航空機に搭載して地上にレーザ光を発射して得た計測データをレーザ点群とし、このレーザ点群に基づいた地盤データを読み込む。   That is, the outline of the configuration of the present embodiment is that the topographical feature is a parameter indicating the correct ground or a parameter indicating the landslide topography, and the non-geographical one is a noise indicating the correct ground or the landslide topography Then, a laser scanner is mounted on an aircraft, and measurement data obtained by emitting laser light on the ground is used as a laser point cloud, and ground data based on the laser point cloud is read.

そして、この地盤データを読み込んで地上開度画像と地下開度画像とを生成して尾根谷度画像を生成し、この尾根谷度画像の局所領域毎に、この局所領域の斜度に応じて赤色を濃くした色値を割り付けて赤色立体地図画像を生成する(赤色立体地図生成部)。   Then, the ground data is read and the ground opening image and the underground opening image are generated to generate the ridge valley degree image, and for each local region of the ridge valley degree image, according to the inclination degree of the local region A red three-dimensional map image is generated by assigning color values in which red is darkened (red three-dimensional map generation unit).

そして、赤色立体地図画像のメッシュ毎に、このメッシュデータと特徴推定モデル(地盤データの特徴を判定するための教師データに基づく特徴推定モデル)とに基づいて、ディープラーニングにより、そのメッシュデータを「非地形的特徴又は地形的特徴を有するメッシュデータ」と推定している。   Then, for each mesh of the red three-dimensional map image, based on the mesh data and the feature estimation model (a feature estimation model based on teacher data for determining features of the ground data), the mesh data is It is estimated that “mesh data having non-topographical features or topographical features”.

この推定手段は、
(A1)「非地形的特徴とされたメッシュデータ」をラスタ化した非地形的特徴領域画像を生成する手段と、
(A2)地盤データ毎に、DEMと同一間隔のメッシュを設定し、このメッシュに含まれている点データの最小標高点でラスタ化した地盤DEM画像を生成する手段と、
(A3)赤色立体地図画像における「非地形的特徴とされたメッシュデータ」とこれに対応する「地盤DEM画像のメッシュデータ」とを重ね合わせて赤色立体地図画像の「非地形的特徴とされたメッシュデータ」の標高値を削除し、周囲のメッシュの標高値で補間した標高値をそのメッシュデータに割り付ける手段と、
(A4)非地形的特徴領域画像の、「補間した標高値が割り付けられたメッシュデータ」をラスタ化して非地形的特徴領域補間DEM画像を生成する手段と、
(A5)地盤データ毎の点データを指定する毎に、この点データが含まれる非地形的特徴領域画像のメッシュが非地形的特徴を示しているかどうかを判定する手段と、
(A6)非地形的特徴領域画像のメッシュが非地形的特徴を示すと判定された場合は、点データの標高値とこのメッシュに対応する非地形的特徴領域補間DEM画像の標高値との差が閾値距離以上かどうかを判定する手段と、
(A7)閾値距離以上と判定した場合は、その点データを「非地形的特徴の点データ」又は閾値以下と判定した場合は「地形的特徴の点データ」と判定する手段と、
(A8)「非地形的特徴の点データ」と判定された地盤データに存在する点データを削除した非地形的特徴除去後地盤データを生成する手段と
を有している。
This estimation means
(A1) a means for generating a non-geographical feature area image obtained by rasterizing "non-geographically characterized mesh data";
(A2) A means for setting a mesh having the same interval as the DEM for each ground data, and generating a ground DEM image rasterized at the minimum elevation point of the point data included in the mesh;
(A3) “non-geographical feature meshed” of the red three-dimensional map image by superimposing “non-geographically characterized mesh data” in the red stereoscopic map image and the corresponding “mesh data of the ground DEM image” A method of deleting the elevation value of the “mesh data” and assigning the elevation value interpolated by the elevation value of the surrounding mesh to the mesh data,
(A4) a means for rasterizing “mesh data to which interpolated elevation values are allocated” of a non-geographical feature area image to generate a non-geographical feature area interpolated DEM image;
(A5) A means for determining whether or not the mesh of the non-geographical feature area image including the point data indicates a non-geographical feature every time point data for each ground data is designated.
(A6) When it is determined that the mesh of the non-geographical feature area image indicates a non-geographical feature, the difference between the elevation value of the point data and the elevation value of the non-geographical feature area interpolation DEM image corresponding to this mesh Means for determining whether or not the threshold distance is greater than or equal to
(A7) a means for determining the point data as "point data of non-geographical feature" or "point data of topographical feature" when it is determined that the point data is "point data of non-geographical feature" or less than the threshold value;
(A8) A means for generating ground data after removal of non-topographical features from which point data present in ground data determined as "point data of non-geographical features" is deleted.

さらに、
(B1)計測データに自動フィルタリング処理をかけた自動フィルタリング後地盤データを生成する手段と、
自動フィルタリング後地盤データを使用して赤色立体地図画像を生成する手段と、
(B2)赤色立体地図画像に対して分散値フィルタをかけて非地形的特徴のメッシュを強調した非地形的特徴領域強調画像を生成する手段と、
(B3)自動フィルタリング後地盤データをラスタ化して第1の非地形的特徴除去後地盤DEM画像を生成する手段と、
(B4)自動フィルタリング後地盤データに対し、手動フィルタリング処理で非地形的特徴のメッシュを除去した手動フィルタリング後地盤データを生成する手段と、
(B5)手動フィルタリング後地盤データをラスタ化して第2の非地形的特徴除去後地盤DEM画像を生成する手段と、
(B6)非地形的特徴強調画像のメッシュ毎に、RGB値のいずれかが閾値より大であるかどうかを判定し、閾値以下の場合は、地形的特徴を有するメッシュと判定する手段と、
(B7)RGB値のいずれかが閾値より大と判定された場合は、第1の非地形的特徴除去後地盤DEM画像の標高値と第2の非地形的特徴除去後地盤DEM画像の標高値との差が閾値標高値より大であるかどうかを判定する手段と、
(B8)閾値標高より大と判定した場合は、非地形的特徴のメッシュ、以下の場合は地形的特徴のメッシュとする教師データを生成し、これらの教師データで特徴推定モデルを生成する手段とを有している。
further,
(B1) A means for generating ground data after automatic filtering in which measurement data is subjected to automatic filtering processing,
Means for generating a red three-dimensional map image using the ground data after automatic filtering;
(B2) a means for generating a non-topographical feature region-emphasized image in which a mesh of non-geographical features is enhanced by applying a variance value filter to a red stereographic map image;
(B3) means for rasterizing the ground data after automatic filtering to generate a first non-geographical feature-removed ground DEM image;
(B4) A means for generating manually filtered ground data in which meshes of non-geographical features are removed by manual filtering processing for the ground data after automatic filtering,
(B5) means for rasterizing the ground data after manual filtering to generate a second non-geographical feature-removed ground DEM image;
(B6) For each mesh of the non-geographical feature-emphasized image, it is determined whether or not any of the RGB values is larger than the threshold, and in the case of less than the threshold, it is determined as a mesh having geographical features.
(B7) If any of the RGB values is determined to be greater than the threshold value, the elevation value of the first non-geographical feature removed ground DEM image and the second non-geographical feature removed ground elevation DEM image elevation value Means for determining whether the difference between the
(B8) a means for generating teacher data as a mesh of non-geographical features if it is determined to be greater than the threshold elevation, or a mesh of geomorphy features in the following case, and generating a feature estimation model from these teacher data have.

110 点群用データベース
112 自動フィルタリング部
118 赤色立体地図作成部
124 教師データ作成部
128 ノイズ領域推定モデル生成部
132 ノイズ検出除去部
110 point group database 112 automatic filtering unit 118 red three-dimensional map creation unit 124 teacher data creation unit 128 noise region estimation model generation unit 132 noise detection and removal unit

Claims (10)

レーザスキャナを航空機に搭載して地上にレーザ光を発射して得た計測データをレーザ点群とし、このレーザ点群に基づいた地盤データを記憶した地盤データ記憶部と、
前記地盤データを読み込んで、地上開度画像と地下開度画像とを生成して尾根谷度画像を生成し、この尾根谷度画像の局所領域毎に、この局所領域の斜度に応じて赤色を濃くした色値を割り付けて赤色立体地図画像を生成する赤色立体地図生成部と、
前記地盤データの特徴を判定するための教師データに基づく特徴推定モデルを記憶した特徴推定モデル記憶部と、
(A)前記赤色立体地図画像のメッシュ毎に、このメッシュデータと前記特徴推定モデルとに基づいて、ディープラーニングにより、そのメッシュデータを「非地形的特徴又は地形的特徴を有するメッシュデータ」と推定する手段
を有することを特徴とする赤色立体地図画像を用いた点群種類推定装置。
A ground data storage unit storing measurement data obtained by mounting a laser scanner on an aircraft and emitting laser light on the ground as a laser point cloud and storing ground data based on the laser point cloud;
The ground data is read, a ground opening image and an underground opening image are generated to generate a ridge valley degree image, and for each local region of the ridge valley degree image, red is generated according to the inclination degree of the local region A red three-dimensional map generation unit that generates a red three-dimensional map image by assigning a color value in which
A feature estimation model storage unit storing a feature estimation model based on teacher data for determining features of the ground data;
(A) For each mesh of the red three-dimensional map image, the mesh data is estimated as "mesh data having non-topographical features or topographical features" by deep learning based on the mesh data and the feature estimation model What is claimed is: 1. A point cloud type estimation device using a red three-dimensional map image, characterized by comprising:
(A)の手段は、
(A1)前記「非地形的特徴とされたメッシュデータ」をラスタ化した非地形的特徴領域画像を生成する手段と、
(A2)前記地盤データ記憶部の前記地盤データ毎に、DEMと同一間隔のメッシュを設定し、このメッシュに含まれている点データの最小標高点でラスタ化した地盤DEM画像を生成する手段と、
(A3)前記赤色立体地図画像における「非地形的特徴とされたメッシュデータ」とこれに対応する「地盤DEM画像のメッシュデータ」とを重ね合わせて前記赤色立体地図画像の「非地形的特徴とされたメッシュデータ」の標高値を削除し、周囲のメッシュの標高値で補間した標高値をそのメッシュデータに割り付ける手段と、
(A4)前記非地形的特徴領域画像の、「補間した標高値が割り付けられたメッシュデータ」をラスタ化して非地形的特徴領域補間DEM画像を生成する手段と、
(A5)前記地盤データ毎の点データを指定する毎に、この点データが含まれる前記非地形的特徴領域画像のメッシュが非地形的特徴を示しているかどうかを判定する手段と、
(A6)前記非地形的特徴領域画像のメッシュが非地形的特徴を示すと判定された場合は、前記点データの標高値とこのメッシュに対応する前記非地形的特徴領域補間DEM画像の標高値との差が閾値距離以上かどうかを判定する手段と、
(A7)閾値距離以上と判定した場合は、その点データ「非地形的特徴の点データ」又は閾値以下と判定した場合は前記「地形的特徴の点データ」と判定する手段と、
(A8)前記「非地形的特徴の点データ」と判定された前記地盤データに存在する点データを削除した非地形的特徴除去後地盤データを生成する手段と
を有することを特徴とする請求項1記載の赤色立体地図画像を用いた点群種類推定装置。
The means of (A) is
(A1) a means for generating a non-geographical feature area image obtained by rasterizing the "non-geographically characterized mesh data";
(A2) A mesh having the same interval as the DEM is set for each of the ground data in the ground data storage unit, and means for generating a ground DEM image rasterized at the minimum elevation point of the point data included in the mesh ,
(A3) “non-geographical features of the red stereogram image” and “mesh data of non-geographically featured mesh data” in the red stereogram image and “mesh data of the ground DEM image” corresponding thereto are superimposed Means for deleting the elevation value of the selected mesh data, and assigning the height value interpolated by the elevation value of the surrounding mesh to the mesh data,
(A4) a means for rasterizing “mesh data to which interpolated elevation values are allocated” of the non-geographical feature area image to generate a non-geographical feature area interpolated DEM image;
(A5) A means for determining whether or not the mesh of the non-geographical feature area image including the point data indicates a non-geographical feature every time point data for each of the ground data is designated.
(A6) When it is determined that the mesh of the non-geographical feature area image indicates a non-geographical feature, the elevation value of the point data and the elevation value of the non-geographical feature area interpolation DEM image corresponding to the mesh Means for determining whether the difference between the
(A7) A means for determining the point data as "point data of non-geographical feature" or the point data of "geographical feature's point" when it is determined that the point data is not less than the threshold distance;
(A8) A means for generating ground data after non-geographical feature removal from which point data present in the ground data determined as the "point data of non-geographical features" is deleted. The point cloud type estimation apparatus using the red three-dimensional map image of 1 statement.
さらに、
(B1)前記計測データに自動フィルタリング処理をかけた自動フィルタリング後地盤データを生成する手段と、
前記自動フィルタリング後地盤データを使用して前記赤色立体地図画像を生成する手段と、
(B2)前記赤色立体地図画像に対して分散値フィルタをかけて非地形的特徴のメッシュを強調した非地形的特徴強調画像を生成する手段と、
(B3)前記自動フィルタリング後地盤データをラスタ化して第1の非地形的特徴除去後地盤DEM画像を生成する手段と、
(B4)前記自動フィルタリング後地盤データに対し、手動フィルタリング処理で非地形的特徴のメッシュを除去した手動フィルタリング後地盤データを生成する手段と、
(B5)前記手動フィルタリング後地盤データをラスタ化して第2の非地形的特徴除去後地盤DEM画像を生成する手段と、
(B6)前記非地形的特徴強調画像のメッシュ毎に、RGB値のいずれかが閾値より大であるかどうかを判定し、閾値以下の場合は、前記地形的特徴を有するメッシュと判定する手段と、
(B7)RGB値のいずれかが閾値より大と判定された場合は、第1の非地形的特徴除去後地盤DEM画像の標高値と第2の非地形的特徴除去後地盤DEM画像の標高値との差が閾値標高値より大であるかどうかを判定する手段と、
(B8)閾値標高より大と判定した場合は、非地形的特徴のメッシュ、以下の場合は地形的特徴のメッシュとする教師データを生成し、これらの教師データで前記特徴推定モデルを生成する手段と
を有することを特徴とする請求項2記載の赤色立体地図画像を用いた点群種類推定装置。
further,
(B1) A means for generating ground data after automatic filtering in which automatic filtering processing is applied to the measurement data;
Means for generating the red stereogram image using the post-automatic filtered ground data;
(B2) A means for generating a non-geographical feature-emphasized image in which a mesh of non-geographical features is enhanced by applying a variance value filter to the red stereoscopic map image;
(B3) means for rasterizing the ground data after automatic filtering to generate a first non-geographical feature-removed ground DEM image;
(B4) A means for generating manually filtered ground data in which meshes of non-geographical features are removed by manual filtering processing from the automatically filtered ground data;
(B5) a means for rasterizing the manually filtered ground data to generate a second non-geographical feature removed ground DEM image;
(B6) a means for determining whether any of RGB values is larger than a threshold value for each mesh of the non-geographical feature-emphasized image, and determining the mesh having the geographical feature when it is less than the threshold value; ,
(B7) If any of the RGB values is determined to be greater than the threshold value, the elevation value of the first non-geographical feature removed ground DEM image and the second non-geographical feature removed ground elevation DEM image elevation value Means for determining whether the difference between the
(B8) A means for generating teacher data as a mesh of non-geographical features if it is determined to be larger than the threshold elevation, or a mesh of geomorphy features in the following case, and generating the feature estimation model from these teacher data The point cloud type estimation device using a red three-dimensional map image according to claim 2, characterized in that
前記地形的特徴は、正しい地盤を示すパラメータ又は地すべり地形を示すパラメータであることを特徴とする請求項1記載の赤色立体地図画像を用いた点群種類推定装置。   The apparatus according to claim 1, wherein the topographical feature is a parameter indicating a correct ground or a parameter indicating a landslide topography. 非地形的とされたものは、ノイズを示すパラメータとすることを特徴とする請求項1記載の赤色立体地図画像を用いた点群種類推定装置。   The point cloud type estimation device using a red stereographic map image according to claim 1, wherein the non-geographical one is a parameter indicating noise. コンピュータを、
レーザスキャナを航空機に搭載して地上にレーザ光を発射して得た計測データをレーザ点群とし、このレーザ点群に基づいた地盤データを地盤データ記憶部に記憶する手段、
前記地盤データを読み込んで、地上開度画像と地下開度画像とを生成して尾根谷度画像を生成し、この尾根谷度画像の局所領域毎に、この局所領域の斜度に応じて赤色を濃くした色値を割り付けて赤色立体地図画像を生成する赤色立体地図生成手段、
前記地盤データの特徴を判定するための教師データに基づく特徴推定モデルを特徴推定モデル記憶部に記憶する手段、
(A)前記赤色立体地図画像のメッシュ毎に、このメッシュデータと前記特徴推定モデルとに基づいて、ディープラーニングにより、そのメッシュデータを「非地形的特徴又は地形的特徴を有するメッシュデータ」と推定する手段
としての機能を実行させるための赤色立体地図画像を用いた点群種類推定プログラム。
Computer,
Means for storing measurement data obtained by mounting a laser scanner on an aircraft and emitting laser light on the ground as a laser point group and storing ground data based on the laser point group in a ground data storage unit;
The ground data is read, a ground opening image and an underground opening image are generated to generate a ridge valley degree image, and for each local region of the ridge valley degree image, red is generated according to the inclination degree of the local region Means for generating a red three-dimensional map image by assigning color values in which
Means for storing a feature estimation model based on teacher data for determining features of the ground data in a feature estimation model storage unit
(A) For each mesh of the red three-dimensional map image, the mesh data is estimated as "mesh data having non-topographical features or topographical features" by deep learning based on the mesh data and the feature estimation model A point cloud type estimation program using a red stereo map image for executing a function as a means for
コンピュータを、
(A1)前記「非地形的特徴とされたメッシュデータ」をラスタ化した非地形的特徴領域画像を生成する手段、
(A2)前記地盤データ記憶部の前記地盤データ毎に、DEMと同一間隔のメッシュを設定し、このメッシュに含まれている点データの最小標高点でラスタ化した地盤DEM画像を生成する手段、
(A3)前記赤色立体地図画像における「非地形的特徴とされたメッシュデータ」とこれに対応する「地盤DEM画像のメッシュデータ」とを重ね合わせて前記赤色立体地図画像の「非地形的特徴とされたメッシュデータ」の標高値を削除し、周囲のメッシュの標高値で補間した標高値をそのメッシュデータに割り付ける手段、
(A4)前記非地形的特徴領域画像の、「補間した標高値が割り付けられたメッシュデータ」をラスタ化して非地形的特徴領域補間DEM画像を生成する手段、
(A5)前記地盤データ毎の点データを指定する毎に、この点データが含まれる前記非地形的特徴領域画像のメッシュが非地形的特徴を示しているかどうかを判定する手段、
(A6)前記非地形的特徴領域画像のメッシュが非地形的特徴を示すと判定された場合は、前記点データの標高値とこのメッシュに対応する前記非地形的特徴領域補間DEM画像の標高値との差が閾値距離以上かどうかを判定する手段、
(A7)閾値距離以上と判定した場合は、その点データを前記「非地形的特徴の点データ」又は閾値以下と判定した場合は「地形的特徴の点データ」と判定する手段、
(A8)前記「非地形的特徴の点データ」と判定された前記地盤データに存在する点データを削除した非地形的特徴除去後地盤データを生成する手段
としての機能を実行させるための請求項6記載の赤色立体地図画像を用いた点群種類推定プログラム。
Computer,
(A1) a means for generating a non-geographical feature area image obtained by rasterizing the "non-geographically characterized mesh data";
(A2) A means for setting a mesh having the same interval as the DEM for each of the ground data in the ground data storage unit, and generating a ground DEM image rasterized at the minimum elevation point of point data included in the mesh;
(A3) “non-geographical features of the red stereogram image” and “mesh data of non-geographically featured mesh data” in the red stereogram image and “mesh data of the ground DEM image” corresponding thereto are superimposed A method of deleting the elevation value of “mesh data” and assigning the height value interpolated by the elevation value of the surrounding mesh to the mesh data,
(A4) means for rasterizing “mesh data to which interpolated elevation values are allocated” of the non-geographical feature area image to generate a non-geographical feature area interpolated DEM image;
(A5) A means for determining whether or not the mesh of the non-geographical feature area image including the point data indicates a non-geographical feature every time point data for each of the ground data is designated.
(A6) When it is determined that the mesh of the non-geographical feature area image indicates a non-geographical feature, the elevation value of the point data and the elevation value of the non-geographical feature area interpolation DEM image corresponding to the mesh Means for determining whether the difference between the
(A7) A means for determining that the point data is “point data of non-geographical feature” or “point data of topographical feature” when it is determined that the point data is not more than the threshold.
(A8) A claim for executing a function as means for generating ground data after non-topographic feature removal from which point data present in the ground data determined as the “point data of non-topographical features” is deleted. The point cloud type estimation program using the red stereographic image of 6 statement.
コンピュータを、さらに、
(B1)前記計測データに自動フィルタリング処理をかけた自動フィルタリング後地盤データを生成する手段、
前記自動フィルタリング後地盤データを使用して前記赤色立体地図画像を生成する手段と、
(B2)前記赤色立体地図画像に対して分散値フィルタをかけて非地形的特徴のメッシュを強調した非地形的特徴強調画像を生成する手段、
(B3)前記自動フィルタリング後地盤データをラスタ化して第1の非地形的特徴除去後地盤DEM画像を生成する手段、
(B4)前記自動フィルタリング後地盤データに対し、手動フィルタリング処理で非地形的特徴のメッシュを除去した手動フィルタリング後地盤データを生成する手段、
(B5)前記手動フィルタリング後地盤データをラスタ化して第2の非地形的特徴除去後地盤DEM画像を生成する手段、
(B6)前記非地形的特徴強調画像のメッシュ毎に、RGB値のいずれかが閾値より大であるかどうかを判定し、閾値以下の場合は、前記地形的特徴を有するメッシュと判定する手段、
(B7)RGB値のいずれかが閾値より大と判定された場合は、第1の非地形的特徴除去後地盤DEM画像の標高値と第2の非地形的特徴除去後地盤DEM画像の標高値との差が閾値標高値より大であるかどうかを判定する手段、
(B8)閾値標高より大と判定した場合は、非地形的特徴のメッシュ、以下の場合は地形的特徴のメッシュとする教師データを生成し、これらの教師データで前記特徴推定モデルを生成する手段
としての機能を実行させるための請求項7記載の赤色立体地図画像を用いた点群種類推定プログラム。
Furthermore, the computer
(B1) A means for generating ground data after automatic filtering in which automatic filtering processing is applied to the measurement data,
Means for generating the red stereogram image using the post-automatic filtered ground data;
(B2) A means for generating a non-geographical feature-emphasized image in which a mesh of non-geographical features is enhanced by applying a variance value filter to the red stereoscopic map image;
(B3) means for rasterizing the ground data after automatic filtering to generate a first non-geographical feature-removed ground DEM image;
(B4) A means for generating manually filtered ground data in which meshes of non-geographical features are removed by manual filtering processing from the automatically filtered ground data;
(B5) means for rasterizing the manually filtered ground data to generate a second non-geographical feature removed ground DEM image;
(B6) A means for determining whether any of RGB values is larger than a threshold for each mesh of the non-geographical feature-emphasized image, and determining that the mesh has the topographical feature if it is less than the threshold.
(B7) If any of the RGB values is determined to be greater than the threshold value, the elevation value of the first non-geographical feature removed ground DEM image and the second non-geographical feature removed ground elevation DEM image elevation value Means for determining whether the difference between the
(B8) A means for generating teacher data as a mesh of non-geographical features if it is determined to be larger than the threshold elevation, or a mesh of geomorphy features in the following case, and generating the feature estimation model from these teacher data The point cloud type estimation program using the red three-dimensional map image according to claim 7, for executing the function as.
前記地形的特徴は、正しい地盤を示すパラメータ又は地すべり地形を示すパラメータであることを特徴とする請求項6記載の赤色立体地図画像を用いた点群種類推定プログラム。   The point cloud type estimation program using a red three-dimensional map image according to claim 6, wherein the topographical feature is a parameter indicating a correct ground or a parameter indicating a landslide topography. 非地形的とされたものは、ノイズを示すパラメータとすることを特徴とする請求項6記載の赤色立体地図画像を用いた点群種類推定プログラム。   The point cloud type estimation program using a red stereo map image according to claim 6, characterized in that non-topographical parameters are parameters indicating noise.
JP2018023131A 2017-11-10 2018-02-13 Point group type estimation device using red stereo map image and point group type estimation program using red stereo map image Active JP6993644B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017216920 2017-11-10
JP2017216920 2017-11-10

Publications (2)

Publication Number Publication Date
JP2019091393A true JP2019091393A (en) 2019-06-13
JP6993644B2 JP6993644B2 (en) 2022-01-13

Family

ID=66836664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018023131A Active JP6993644B2 (en) 2017-11-10 2018-02-13 Point group type estimation device using red stereo map image and point group type estimation program using red stereo map image

Country Status (1)

Country Link
JP (1) JP6993644B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021053917A1 (en) * 2019-09-20 2021-03-25 アジア航測株式会社 Super-resolution stereoscopic visualization processing system and program for same
WO2021210617A1 (en) 2020-04-16 2021-10-21 浜松ホトニクス株式会社 Radiography method, trained model, radiography module, radiography program, radiography system, and machine learning method
WO2021210618A1 (en) 2020-04-16 2021-10-21 浜松ホトニクス株式会社 Radiographic image processing method, trained model, radiographic image processing module, radiographic image processing program, and radiographic image processing system
JP7094411B1 (en) 2021-03-17 2022-07-01 三菱電機株式会社 Sensor data processing system
JP2022119040A (en) * 2021-02-03 2022-08-16 株式会社パスコ Road area identification device, road area identification method, and program
WO2022172506A1 (en) 2021-02-15 2022-08-18 浜松ホトニクス株式会社 Radiographic image processing method, machine-learning method, trained model, machine-learning preprocessing method, radiographic image processing module, radiographic image processing program, and radiographic image processing system
JP7514669B2 (en) 2020-06-30 2024-07-11 ジオテクノロジーズ株式会社 Inference device, inference method, inference program, and computer-readable storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174354A (en) * 2002-11-05 2005-06-30 Asia Air Survey Co Ltd Visualizing system, visualizing method, and visualization processing program
JP2010112889A (en) * 2008-11-07 2010-05-20 Asia Air Survey Co Ltd Recognition system, recognition method, and recognition program
JP2015111248A (en) * 2013-11-06 2015-06-18 アジア航測株式会社 Fault diagram creation device, fault diagram creation method and fault diagram creation program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174354A (en) * 2002-11-05 2005-06-30 Asia Air Survey Co Ltd Visualizing system, visualizing method, and visualization processing program
JP2010112889A (en) * 2008-11-07 2010-05-20 Asia Air Survey Co Ltd Recognition system, recognition method, and recognition program
JP2015111248A (en) * 2013-11-06 2015-06-18 アジア航測株式会社 Fault diagram creation device, fault diagram creation method and fault diagram creation program

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI780945B (en) * 2019-09-20 2022-10-11 日商亞細亞航測股份有限公司 Contour generation systems using super-resolution images and contour generation programs using super-resolution images
US11836856B2 (en) 2019-09-20 2023-12-05 Asia Air Survey Co., Ltd. Super-resolution stereoscopic visualization processing system and program
CN114424268B (en) * 2019-09-20 2023-09-29 亚洲航测株式会社 Super-resolution stereoscopic vision processing system and storage medium
TWI746150B (en) * 2019-09-20 2021-11-11 日商亞細亞航測股份有限公司 Super-resolution stereoscopic visual processing system and its program
CN114424268A (en) * 2019-09-20 2022-04-29 亚洲航测株式会社 Super-resolution stereoscopic vision processing system and program therefor
AU2020350243B2 (en) * 2019-09-20 2023-05-25 Asia Air Survey Co., Ltd. Super-resolution stereoscopic visualization processing system and program
US20220237868A1 (en) * 2019-09-20 2022-07-28 Asia Air Survey Co., Ltd. Super-resoution stereoscopic visualization processing system and program
WO2021053917A1 (en) * 2019-09-20 2021-03-25 アジア航測株式会社 Super-resolution stereoscopic visualization processing system and program for same
KR20230003485A (en) 2020-04-16 2023-01-06 하마마츠 포토닉스 가부시키가이샤 Radiation image processing method, learned model, radiation image processing module, radiation image processing program, and radiation image processing system
KR20230003484A (en) 2020-04-16 2023-01-06 하마마츠 포토닉스 가부시키가이샤 Radiation image processing method, learned model, radiation image processing module, radiation image processing program, radiation image processing system, and machine learning method
WO2021210618A1 (en) 2020-04-16 2021-10-21 浜松ホトニクス株式会社 Radiographic image processing method, trained model, radiographic image processing module, radiographic image processing program, and radiographic image processing system
WO2021210617A1 (en) 2020-04-16 2021-10-21 浜松ホトニクス株式会社 Radiography method, trained model, radiography module, radiography program, radiography system, and machine learning method
JP7514669B2 (en) 2020-06-30 2024-07-11 ジオテクノロジーズ株式会社 Inference device, inference method, inference program, and computer-readable storage medium
JP2022119040A (en) * 2021-02-03 2022-08-16 株式会社パスコ Road area identification device, road area identification method, and program
WO2022172506A1 (en) 2021-02-15 2022-08-18 浜松ホトニクス株式会社 Radiographic image processing method, machine-learning method, trained model, machine-learning preprocessing method, radiographic image processing module, radiographic image processing program, and radiographic image processing system
KR20230145081A (en) 2021-02-15 2023-10-17 하마마츠 포토닉스 가부시키가이샤 Radiological image processing method, machine learning method, learned model, preprocessing method of machine learning, radiological image processing module, radiological image processing program, and radiological image processing system
JP2022142879A (en) * 2021-03-17 2022-10-03 三菱電機株式会社 Sensor data processing system
JP7094411B1 (en) 2021-03-17 2022-07-01 三菱電機株式会社 Sensor data processing system

Also Published As

Publication number Publication date
JP6993644B2 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
JP6993644B2 (en) Point group type estimation device using red stereo map image and point group type estimation program using red stereo map image
JP4545219B1 (en) Analysis method of topographic change using topographic image and program thereof
KR102415767B1 (en) Color image generating device by feature height and color image generating program by feature height
US20090103773A1 (en) Smart picking in 3d point clouds
AU2018381378B2 (en) Feature/Ground Height-Based Colored Image Generating Apparatus and Feature Height-Based Colored Image Generating Program
US20100328308A1 (en) Three Dimensional Mesh Modeling
CN111080662A (en) Lane line extraction method and device and computer equipment
KR100967838B1 (en) A method and a system for generating 3-dimensional geographical information using aerial lidar information and digital aerial photograph information
CN105264566A (en) Modeling device, three-dimensional model generation device, modeling method, program, and layout simulator
JP6534296B2 (en) Three-dimensional model generation device, three-dimensional model generation method, and program
KR101130284B1 (en) System and method for checking accuracy of true-orthoimage using digital map
KR101021013B1 (en) A system for generating 3-dimensional geographical information using intensive filtering an edge of building object and digital elevation value
JP2015125092A (en) Consistency determination method of measurement result and consistency determination apparatus of measurement result
JP6146731B2 (en) Coordinate correction apparatus, coordinate correction program, and coordinate correction method
JP6550305B2 (en) Road data generation device, road data generation method, and program
JP2015005143A (en) Data analyzer, data analysis method, and program
JP5295044B2 (en) Method and program for extracting mask image and method and program for constructing voxel data
JP6032678B2 (en) Data analysis apparatus, data analysis method, and program
KR100812793B1 (en) Quality assurance method and system for 3-dimensional digital map
CN109920049B (en) Edge information assisted fine three-dimensional face reconstruction method and system
KR102042343B1 (en) Apparatus and method for genaration of depth image based on point-cloud data obtained by 3d scanning and method for identifing 3d object using the same
JP2013231843A (en) Topography image creation method and topography image creation device
KR101008394B1 (en) Apparatus for planarizing ground of building in digital elevation model using boundary of digital surface model
CN113256756B (en) Map data display method, device, equipment and storage medium
JP2018040181A (en) Civil engineering structure finished shape evaluation system, finished shape evaluation method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211130

R150 Certificate of patent or registration of utility model

Ref document number: 6993644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150