JP6730501B1 - Automatic plotting apparatus, automatic plotting method, and automatic plotting program - Google Patents

Automatic plotting apparatus, automatic plotting method, and automatic plotting program Download PDF

Info

Publication number
JP6730501B1
JP6730501B1 JP2019185268A JP2019185268A JP6730501B1 JP 6730501 B1 JP6730501 B1 JP 6730501B1 JP 2019185268 A JP2019185268 A JP 2019185268A JP 2019185268 A JP2019185268 A JP 2019185268A JP 6730501 B1 JP6730501 B1 JP 6730501B1
Authority
JP
Japan
Prior art keywords
image
line
point cloud
normal vector
learned model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019185268A
Other languages
Japanese (ja)
Other versions
JP2021060860A (en
Inventor
植田 拓也
拓也 植田
Original Assignee
アイコンヤマト株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイコンヤマト株式会社 filed Critical アイコンヤマト株式会社
Priority to JP2019185268A priority Critical patent/JP6730501B1/en
Application granted granted Critical
Publication of JP6730501B1 publication Critical patent/JP6730501B1/en
Publication of JP2021060860A publication Critical patent/JP2021060860A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【課題】測量対象を表す点群の分布状態を色の違いで表現したカラー画像から地図を自動作成するための装置を提供する。【解決手段】自動図化装置は、線で表現された地図を自動作成するための装置であって、測量対象を表す点群の分布状態を色の違いで表現したカラー画像から、線で表現すべき部分を含む画像を第1の学習済みモデルを用いて抽出する線抽出部と、線抽出部により抽出した画像に基づいて細線化画像を生成する細線化画像生成部と、を有する。第1の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた学習済みモデルである。【選択図】図2PROBLEM TO BE SOLVED: To provide an apparatus for automatically creating a map from a color image in which a distribution state of a point cloud representing a survey target is represented by a difference in color. An automatic plotting device is a device for automatically creating a map represented by a line, and represents a distribution state of a point cloud representing a survey target by a color difference from a color image. A line extraction unit that extracts an image including a portion to be used by using the first learned model, and a thinned image generation unit that generates a thinned image based on the image extracted by the line extraction unit. The first learned model is a learned model obtained by executing machine learning using an image including a portion to be expressed by a line as an input image and a line image as a teacher image. [Selection diagram] Figure 2

Description

本発明は、測量対象を表す点群の分布状態を色の違いで表現したカラー画像から線で表現された地図を自動作成するための装置、方法およびプログラムに関する。 The present invention relates to an apparatus, a method and a program for automatically creating a map represented by lines from a color image in which a distribution state of point groups representing a survey target is represented by different colors.

近年、ドローン(UAV、無人航空機)など飛行体を用いた航空レーザ測量技術の高度化が著しい。航空レーザ測量は、計測領域の上空を飛行する飛行体から地表に向けてレーザ光を照射しつつ、地物からの反射光を計測することにより行われる。航空レーザ測量によれば、地形や建物などをあらわす情報として三次元点群データを取得することが可能となる。三次元点群データは、空間座標情報(三次元の位置)とその位置でのカラー情報とを含んで構成される(たとえば、特許文献1参照)。 In recent years, the sophistication of aeronautical laser surveying technology using a flying body such as a drone (UAV, unmanned aerial vehicle) has been remarkable. The aviation laser survey is performed by measuring the reflected light from the feature while irradiating a laser beam from the flying object flying above the measurement area toward the ground surface. According to aerial laser surveying, it is possible to acquire three-dimensional point cloud data as information representing topography and buildings. The three-dimensional point cloud data is configured to include spatial coordinate information (three-dimensional position) and color information at that position (for example, see Patent Document 1).

特開2016−105081号公報JP, 2016-105081, A

土木、建設、防災、等の分野では、航空レーザ測量により得られた三次元点群データを利用して、地形、道路、樹木、建物、等、測量対象を線で表現した地図が作成される。 In the fields of civil engineering, construction, disaster prevention, etc., three-dimensional point cloud data obtained by aerial laser surveying is used to create maps that represent the surveyed objects such as topography, roads, trees, buildings, etc. with lines. ..

従来この種の地図の作成は、オペレータが三次元点群データの画像を視認しつつ、マウスなどの入力装置を操作して線を描くことにより行われていたため、非常に効率が悪いという問題があった。 Conventionally, this kind of map was created by an operator operating an input device such as a mouse to draw a line while visually recognizing the image of the three-dimensional point cloud data, so that there is a problem that it is very inefficient. there were.

そこで、本発明は、測量対象を表す点群の分布状態を色の違いで表現したカラー画像から地図を自動作成するための装置、方法およびプログラムを提供する。 Therefore, the present invention provides an apparatus, a method, and a program for automatically creating a map from a color image in which the distribution state of a point cloud representing a survey target is represented by different colors.

上記課題を解決するために、請求項1記載の発明は、線で表現された地図を自動作成するための装置であって、測量により得られた三次元点群データから測量対象を表す点群の法線ベクトルを求める法線ベクトル算出部と、水平面または垂直面に対する前記法線ベクトルの角度を求める角度算出部と、前記角度に応じて測量対象の各部に色付けをすることにより、前記測量対象を表す点群の分布状態を色の違いで表現したカラー画像を生成する点群分布可視化部と、前記点群分布可視化部により生成されたカラー画像から、線で表現すべき部分を含む画像を第1の学習済みモデルを用いて抽出する線抽出部と、前記線抽出部により抽出された画像に基づいて細線化画像を生成する細線化画像生成部と、を有し、前記第1の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであり、前記点群分布可視化部は、前記法線ベクトルの角度と予め設定した色相環との関係とに基づいて、前記法線ベクトルの始点ごとに色付けを行うことを特徴とする自動図化装置である。In order to solve the above-mentioned problems, the invention according to claim 1 is an apparatus for automatically creating a map represented by a line, and a point cloud representing a survey target from three-dimensional point cloud data obtained by surveying. A normal vector calculation unit that obtains a normal vector of the measurement object, an angle calculation unit that obtains an angle of the normal vector with respect to a horizontal plane or a vertical plane, and by coloring each part of the measurement object according to the angle, the measurement object From the color image generated by the point cloud distribution visualization unit that generates a color image in which the distribution state of the point cloud is represented by different colors, and the color image generated by the point cloud distribution visualization unit, an image including a portion to be represented by a line is displayed. A line extracting unit that extracts using a first learned model; and a thinned image generating unit that generates a thinned image based on the image extracted by the line extracting unit, and the first learning The trained model is a trained model obtained by executing machine learning by using an image including a portion to be represented by a line as an input image, and a line image as a teacher image, and the point cloud distribution visualization unit is The automatic plotting device is characterized in that coloring is performed at each starting point of the normal vector based on the relationship between the angle of the normal vector and a preset hue circle.

請求項2記載の発明は、前記細線化画像生成部は、前記線抽出部により抽出した画像に基づいて、細線化画像を第2の学習済みモデルを用いて生成し、前記第2の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、太さ1ピクセルの線画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであることを特徴とする請求項1記載の自動図化装置である。In the invention according to claim 2, the thinned image generation unit generates a thinned image using a second learned model based on the image extracted by the line extraction unit, and the second learned image is generated. The model is a learned model obtained by executing machine learning using an image including a portion to be represented by a line as an input image and a line image having a thickness of 1 pixel as a teacher image. It is the automatic plotting device according to item 1.

請求項3記載の発明は、線で表現された地図を自動作成する方法であって、測量により得られた三次元点群データから測量対象を表す点群の法線ベクトルを求める法線ベクトル算出ステップと、水平面または垂直面に対する前記法線ベクトルの角度を求める角度算出ステップと、前記角度に応じて測量対象の各部に色付けをすることにより、前記測量対象を表す点群の分布状態を色の違いで表現したカラー画像を生成する点群分布可視化ステップと、前記点群分布可視化ステップにより生成されたカラー画像から、線で表現すべき部分を含む画像を第1の学習済みモデルを用いて抽出する線抽出ステップと、前記線抽出ステップにより抽出された画像に基づいて細線化画像を生成する細線化画像生成ステップと、を含み、前記第1の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであり、前記点群分布可視化ステップは、前記法線ベクトルの角度と予め設定した色相環との関係とに基づいて、前記法線ベクトルの始点ごとに色付けを行うことを特徴とする自動図化方法である。The invention according to claim 3 is a method for automatically creating a map represented by a line, in which normal vector calculation for obtaining a normal vector of a point cloud representing a survey target from three-dimensional point cloud data obtained by surveying A step, an angle calculation step of obtaining an angle of the normal vector with respect to a horizontal plane or a vertical plane, and by coloring each part of the survey target according to the angle, the distribution state of the point cloud representing the survey target is colored. From the color image generated by the point cloud distribution visualization step to generate a color image represented by the difference and the point cloud distribution visualization step, an image including a portion to be represented by a line is extracted using the first learned model. Line extraction step, and a thinned image generation step for generating a thinned image based on the image extracted by the line extraction step, the first learned model, the portion to be represented by a line The image including the input image, the image of the line as a teacher image is a learned model obtained by executing machine learning, the point cloud distribution visualization step, the angle of the normal vector and the preset hue The automatic plotting method is characterized in that coloring is performed for each starting point of the normal vector based on the relationship with the ring.

請求項4記載の発明にあっては、前記細線化画像生成ステップは、前記線抽出ステップにより抽出された画像に基づいて、細線化画像を第2の学習済みモデルを用いて生成し、前記第2の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、太さ1ピクセルの線画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであることを特徴とする請求項3記載の自動図化方法である。In the invention according to claim 4, in the thinned image generating step, a thinned image is generated using a second learned model based on the image extracted in the line extracting step, and the thinned image is generated. The trained model of 2 is a trained model obtained by executing machine learning using an image including a portion to be expressed by a line as an input image and a line image with a thickness of 1 pixel as a teacher image. It is the automatic plotting method according to claim 3.

請求項5記載の発明にあっては、コンピュータを、線で表現された地図を自動作成するための装置として機能させるためのプログラムであって、測量により得られた三次元点群データから測量対象を表す点群の法線ベクトルを求める法線ベクトル算出ステップと、水平面または垂直面に対する前記法線ベクトルの角度を求める角度算出ステップと、前記角度に応じて測量対象の各部に色付けをすることにより、前記測量対象を表す点群の分布状態を色の違いで表現したカラー画像を生成する点群分布可視化ステップと、前記点群分布可視化ステップにより生成されたカラー画像から、線で表現すべき部分を含む画像を第1の学習済みモデルを用いて抽出する線抽出ステップと、前記線抽出ステップにより抽出された画像に基づいて細線化画像を生成する細線化画像生成ステップと、を有し、前記第1の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであり、前記点群分布可視化ステップは、前記法線ベクトルの角度と予め設定した色相環との関係とに基づいて、前記法線ベクトルの始点ごとに色付けを行うことを特徴とする自動図化プログラムである。According to another aspect of the present invention, there is provided a program for causing a computer to function as a device for automatically creating a map represented by a line, which is a survey target from three-dimensional point cloud data obtained by surveying. By calculating the normal vector of the point vector representing the point vector, the angle calculating step of calculating the angle of the normal vector with respect to the horizontal plane or the vertical plane, and coloring each part of the surveying object according to the angle. A point cloud distribution visualization step of generating a color image in which a distribution state of the point cloud representing the survey target is expressed by a color difference, and a portion to be represented by a line from the color image generated by the point cloud distribution visualization step A line extraction step of extracting an image using the first learned model, and a thinned image generation step of generating a thinned image based on the image extracted by the line extraction step, The first trained model is a trained model obtained by executing machine learning by using an image including a portion to be represented by a line as an input image and a line image as a teacher image, and the point cloud distribution The visualization step is an automatic plotting program characterized by performing coloring at each starting point of the normal vector based on the relationship between the angle of the normal vector and a preset hue circle.

請求項6記載の発明にあっては、前記細線化画像生成ステップは、前記線抽出ステップにより抽出された画像に基づいて、細線化画像を第2の学習済みモデルを用いて生成するステップであり、前記第2の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、太さ1ピクセルの線画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであることを特徴とする請求項5記載の自動図化プログラムである。In the invention according to claim 6, the thinned image generating step is a step of generating a thinned image using the second learned model based on the image extracted in the line extracting step. The second learned model is a learned model obtained by executing machine learning using an image including a portion to be expressed by a line as an input image and a line image having a thickness of 1 pixel as a teacher image. The automatic plotting program according to claim 5, wherein the automatic plotting program is provided.

請求項1、請求項3及び請求項5記載の発明によれば、測量により得られた三次元点群データから点群の法線ベクトルを求め、その法線ベクトルの水平面または垂直面に対する角度を求め、その角度に応じて測量対象の各部に色付けをしたカラー画像を生成することにより、測量により得られた三次元点群データの計測時間帯が日中であるか夜間であるかを問わず、当該三次元点群データから測量対象を表す点群の分布状態を色の違いで表現したカラー画像を生成することができる。According to the inventions of claim 1, claim 3 and claim 5, the normal vector of the point cloud is obtained from the three-dimensional point cloud data obtained by the survey, and the angle of the normal vector with respect to the horizontal plane or the vertical plane is determined. The color image is generated by coloring each part of the surveyed object according to the angle, and the 3D point cloud data obtained by the surveying is measured regardless of whether it is during the day or at night. From the three-dimensional point cloud data, it is possible to generate a color image in which the distribution state of the point cloud representing the survey target is represented by the difference in color.
その結果、測量対象を表す点群の分布状態を色の違いで表現したカラー画像が得られることにより、測量対象の境界や輪郭を機械的に判別し易くなるため、線で表現すべき部分の画像の抽出精度が向上し、自動作成される地図の精度が向上する。As a result, a color image that represents the distribution of the point cloud that represents the survey target using different colors is obtained, which makes it easier to mechanically determine the boundaries and contours of the survey target. The accuracy of image extraction is improved, and the accuracy of automatically created maps is improved.
また、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた第1の学習済みモデルを用いて、測量対象を表す点群の分布状態を色の違いで表現したカラー画像から、線で表現すべき部分を含む画像を抽出し、その抽出された画像に基づいて細線化画像を生成することにより、測量対象を線で表現した地図を自動作成することができる。そして、第1の学習済みモデルの機械学習が進むにつれて、線で表現すべき部分の画像の抽出精度が向上し、自動作成される地図の精度が向上する。その結果、測量対象を表す点群の分布状態を色の違いで表現したカラー画像から測量対象の輪郭を形成する線を明確に抽出することが可能となり、地図化作業を迅速かつ容易に行うことが可能となる。In addition, an image including a portion to be expressed by a line is used as an input image, a line image is used as a teacher image, and a first trained model obtained by executing machine learning is used to represent a point cloud representing a survey target. Represent the surveyed object with a line by extracting an image that includes the part that should be represented by a line from the color image that expresses the distribution state of the with different colors and generating a thinned image based on the extracted image. The created map can be created automatically. Then, as the machine learning of the first learned model advances, the extraction accuracy of the image of the portion to be represented by the line improves, and the accuracy of the map automatically created improves. As a result, it is possible to clearly extract the line forming the contour of the survey target from the color image in which the distribution state of the point cloud representing the survey target is represented by different colors, and to perform the mapping work quickly and easily. Is possible.
さらに、法線ベクトルの角度と予め設定した色相環との関係とに基づいて、法線ベクトルの始点ごとに色付けを行うことにより、法線ベクトルの角度に応じて測量対象の各部に色付けをしたカラー画像を比較的小さい計算量で生成することができるので、地図の自動作成に要する計算量を比較的小さくできる。Further, based on the relationship between the angle of the normal vector and the preset hue circle, each starting point of the normal vector is colored to color each part of the survey target according to the angle of the normal vector. Since a color image can be generated with a relatively small calculation amount, the calculation amount required for automatic map creation can be made relatively small.

請求項2、請求項4及び請求項6記載の発明によれば、線で表現すべき部分を含む画像を入力画像とし、太さ1ピクセルの線画像を教師画像として機械学習を実行することにより得られた第2の学習済みモデルを用いて、線を表現する細線化画像が生成されるので、第2の学習済みモデルの機械学習が進むにつれて、生成される細線化画像の精度が向上し、自動作成される地図の精度が向上する。According to the second, fourth and sixth aspects of the invention, the machine learning is executed by using an image including a portion to be expressed by a line as an input image and a line image having a thickness of 1 pixel as a teacher image. Since the thinned image representing the line is generated using the obtained second trained model, the accuracy of the generated thinned image improves as the machine learning of the second trained model progresses. , The accuracy of automatically created maps is improved.

本発明に係る一実施形態の自動図化装置を使用して測量対象を線で表現した地図を作成する際の一連の作業工程を示す図である。It is a figure which shows a series of work processes at the time of creating the map which represented the surveying object by the line using the automatic plotting apparatus of one Embodiment which concerns on this invention. 本発明に係る一実施形態の自動図化装置のブロック図である。It is a block diagram of an automatic plotting device of one embodiment concerning the present invention. 法線ベクトルと色相環とを示す説明図である。It is explanatory drawing which shows a normal vector and a hue circle. 第1の学習済みモデルの機械学習に使用される学習データの説明図である。FIG. 6 is an explanatory diagram of learning data used for machine learning of a first learned model. 第2の学習済みモデルの機械学習に使用される学習データの説明図である。It is explanatory drawing of the learning data used for the machine learning of the 2nd learned model. 図2に示す自動図化装置の動作内容を示すフロー図である。It is a flowchart which shows the operation content of the automatic plotting apparatus shown in FIG. 本発明に係る三次元点群データによる画像とその画像を処理して得られたカラー画像とを例示する説明図である。It is explanatory drawing which illustrates the image by the three-dimensional point cloud data which concerns on this invention, and the color image obtained by processing the image. 本発明に係る三次元点群データによる画像とその画像を処理して得られたカラー画像とを例示する別の説明図である。It is another explanatory view which illustrates the image by the three-dimensional point cloud data which concerns on this invention, and the color image obtained by processing the image. 本発明におけるカラー画像とそのカラー画像を処理して得られた線抽出画像とその線抽出画像を処理して得られた細線化画像とを例示する説明図である。FIG. 3 is an explanatory diagram illustrating a color image according to the present invention, a line extraction image obtained by processing the color image, and a thinned image obtained by processing the line extraction image.

本発明の一実施形態について添付図面を参照しつつ説明する。
1.地図作成の作業工程
まず、航空測量により得られた三次元点群データを利用して、地形、道路、樹木、建物、等、測量対象を線で表現した平面図(地図)を作成する作業工程について説明する。ここでは、ドローンを用いた航空レーザ測量により得られた三次元点群データから地図を作成する作業工程について、図1を参照して説明する。
An embodiment of the present invention will be described with reference to the accompanying drawings.
1. Work process of map creation First, the work process of creating a plan view (map) in which the surveyed objects such as topography, roads, trees, buildings, etc. are represented by lines using the 3D point cloud data obtained by aerial survey. Will be described. Here, a work process of creating a map from three-dimensional point cloud data obtained by aerial laser surveying using a drone will be described with reference to FIG.

図1には、ドローン撮影工程P1、三次元点群データ生成工程P2および図化工程P3からなる一連の作業工程が示されている。 FIG. 1 shows a series of work processes including a drone photographing process P1, a three-dimensional point cloud data generation process P2, and a plotting process P3.

ドローン撮影工程P1は、計測領域の上空にドローンを飛行させ、そのドローンに搭載した光学カメラ、レーザ測距装置、高度計、等を用いて計測領域に存在する測量対象(地形、建物、等)に関する測量データ(画像データ、距離データ、高度データ、等)D1を取得する工程である。 The drone photographing step P1 relates to a survey target (terrain, building, etc.) existing in the measurement area by flying the drone over the measurement area and using an optical camera, a laser range finder, an altimeter, etc. mounted on the drone. This is a step of acquiring survey data (image data, distance data, altitude data, etc.) D1.

三次元点群データ生成工程P2は、ドローン撮影工程P1により取得した測量データD1から、公知の三次元形状復元計算処理および点群編集処理を経て、三次元点群データD2を作成する工程である。この工程は、三次元点群データ作成用の公知のソフトウエアをインストールしたコンピュータ(図示省略)を使用することにより自動化される。 The three-dimensional point cloud data generation step P2 is a step of creating three-dimensional point cloud data D2 from the survey data D1 acquired in the drone photographing step P1 through known three-dimensional shape restoration calculation processing and point cloud editing processing. .. This process is automated by using a computer (not shown) in which known software for creating three-dimensional point cloud data is installed.

図化工程P3は、三次元点群データ生成工程P2により得られた三次元点群データD2から、測量対象を線で表現した地図Fを作成する工程である。この工程は、図2に示す一実施形態の自動図化装置100により自動化される。 The plotting step P3 is a step of creating a map F in which a survey target is represented by a line from the three-dimensional point cloud data D2 obtained in the three-dimensional point cloud data generation step P2. This step is automated by the automatic plotting apparatus 100 of the embodiment shown in FIG.

2.自動図化装置の構成
図2に示すように、一実施形態の自動図化装置100は、法線ベクトル算出部110と、角度算出部120と、点群分布可視化部130と、線抽出部140と、細線化画像生成部150と、図化部160と、を有する。この自動図化装置100は、一実施形態の自動図化プログラムをコンピュータにインストールし実行することにより実現される。
2. Configuration of Automatic Plotting Device As shown in FIG. 2, an automatic plotting device 100 according to an embodiment includes a normal vector calculation unit 110, an angle calculation unit 120, a point cloud distribution visualization unit 130, and a line extraction unit 140. And a thinned image generation unit 150 and a plotting unit 160. The automatic plotting apparatus 100 is realized by installing and executing the automatic plotting program of one embodiment in a computer.

法線ベクトル算出部110は、三次元点群データ生成工程P2(図1)により得られた三次元点群データD2から点群の法線ベクトルnを求める機能ブロックである。点群の法線ベクトルnを求める方法は任意である。 The normal vector calculation unit 110 is a functional block that calculates the normal vector n of the point cloud from the three-dimensional point cloud data D2 obtained in the three-dimensional point cloud data generation step P2 (FIG. 1). The method for obtaining the normal vector n of the point group is arbitrary.

点群の法線ベクトルnを求める方法には、点群から曲面を求め、その曲面から各点の法線を計算する方法と、点群から直接法線を計算する方法と、がある。前者の方法は、三次元点群データD2にノイズによる点が混在していると不正確な曲面が求められるため、ノイズに弱いという欠点がある。一方、後者の方法は、対象点近傍の点を複数個考慮して法線を求めるため、ノイズの効果は相対的に小さくなるという利点がある。 There are two methods for obtaining the normal vector n of the point group: a method of obtaining a curved surface from the point group and calculating the normal line of each point from the curved surface; The former method has a drawback that it is vulnerable to noise because an inaccurate curved surface is required if points due to noise are mixed in the three-dimensional point group data D2. On the other hand, the latter method has an advantage that the effect of noise is relatively small because the normal line is obtained by considering a plurality of points near the target point.

法線ベクトル算出部110では、後者の方法すなわち、点群から直接法線を計算する方法を採用している。この方法では、点群の位置座標について主成分分析を行い、得られた3つの固有値のうち一番小さい固有値に対応する固有ベクトルを法線ベクトルnとして求める。 The normal vector calculation unit 110 adopts the latter method, that is, the method of directly calculating the normal line from the point cloud. In this method, the principal component analysis is performed on the position coordinates of the point cloud, and the eigenvector corresponding to the smallest eigenvalue of the obtained three eigenvalues is obtained as the normal vector n.

角度算出部120は、水平面または垂直面に対する法線ベクトルnの角度を求める機能ブロックである。水平面(xy平面)に対する法線ベクトルnの角度θは、式1により求められる。ここで、a、aおよびaは法線ベクトルの成分である。 The angle calculator 120 is a functional block that calculates the angle of the normal vector n with respect to the horizontal plane or the vertical plane. The angle θ of the normal vector n with respect to the horizontal plane (xy plane) is calculated by Equation 1. Here, a 1 , a 2 and a 3 are components of the normal vector.

また、垂直面(xz平面、yz平面)に対する法線ベクトルnの角度φは、式2により求められる。 Further, the angle φ of the normal vector n with respect to the vertical plane (xz plane, yz plane) is calculated by Equation 2.

点群分布可視化部130は、角度算出部120により求めた法線ベクトルnの角度θまたはφに応じて測量対象の各部に色付けをしたカラー画像Gを生成する。この実施形態では、点群分布可視化部130は、図3に示すように、法線ベクトルnの角度θまたはφと予め設定した色相環HCとの関係とに基づいて、法線ベクトルnの始点ごとに色付けを行うことによりカラー画像Gを生成する。 The point cloud distribution visualization unit 130 generates a color image G in which each part of the survey target is colored according to the angle θ or φ of the normal vector n calculated by the angle calculation unit 120. In this embodiment, the point cloud distribution visualization unit 130, as shown in FIG. 3, based on the relationship between the angle θ or φ of the normal vector n and the preset hue circle HC, the starting point of the normal vector n. A color image G is generated by coloring each color.

色相環HCは、色相のみの変化を平面上に表したものである。色相は、心軸O回りの矢印H方向に赤〜緑〜青と変化していく。赤と緑の間にはこれらを混ぜ合わせた黄色(255、255、0)があり、緑と青の間、青と赤の間にもこれらを混ぜ合わせた色があり、色相は徐々に変化していく。法線ベクトルnの角度θまたはφと予め設定した色相環HCとの関係とに基づいて、法線ベクトルnの始点ごとに色付けを行うことは、具体的には、法線ベクトルnの始点の色をその法線ベクトルnが指し示す色相環HC上の点の色に決定することを意味する。 The hue circle HC represents a change in hue only on a plane. The hue changes from red to green to blue in the direction of arrow H around the axis O. There is yellow (255, 255, 0) that is a mixture of these between red and green, and there is also a mixture of these between green and blue, and between blue and red, and the hue gradually changes. I will do it. Coloring for each starting point of the normal vector n based on the relationship between the angle θ or φ of the normal vector n and the preset hue circle HC is, specifically, to specify the starting point of the normal vector n. This means that the color is determined to be the color of the point on the hue circle HC indicated by the normal vector n.

線抽出部140は、点群分布可視化部130により生成されたカラー画像Gから、線で表現すべき部分の画像(以下、「線表現目標画像」とも称す)LGを第1の学習済みモデルLM1を用いて抽出する機能ブロックである。 From the color image G generated by the point cloud distribution visualization unit 130, the line extraction unit 140 extracts an image of a portion to be expressed by a line (hereinafter, also referred to as “line expression target image”) LG as a first learned model LM1. Is a functional block extracted by using.

第1の学習済みモデルLM1は、図4に示すように、線で表現すべき部分の複数の画像IG01、IG02、IG03、・・・を入力画像LD1とし、それぞれの画像IG01、IG02、IG03、・・・に対応する線の画像LI01、LI02、LI03、・・・を教師画像TD1として、所定の学習アルゴリズムによる機械学習を実行することにより得られた学習済みモデルである。 As shown in FIG. 4, the first learned model LM1 has a plurality of images IG01, IG02, IG03,... Of a portion to be represented by lines as input images LD1, and the respective images IG01, IG02, IG03, Are trained models obtained by executing machine learning by a predetermined learning algorithm with the images LI01, LI02, LI03,... Of the lines corresponding to... As the teacher images TD1.

細線化画像生成部150は、線抽出部140により抽出された線表現目標画像LGに基づき、細線化画像TLを第2の学習済みモデルLM2を用いて生成する機能ブロックである。ここで、細線化画像TLは、太さ1ピクセルの線画像である。 The thinned image generation unit 150 is a functional block that generates the thinned image TL based on the line representation target image LG extracted by the line extraction unit 140 using the second learned model LM2. Here, the thinned image TL is a line image having a thickness of 1 pixel.

第2の学習済みモデルLM2は、図5に示すように、線で表現すべき部分を含む複数の画像IG11、IG12、IG13、・・・を入力画像LD2とし、それぞれの画像IG11、IG12、IG13、・・・に対応する太さ1ピクセルの線画像TL11、TL12、TL13、・・・を教師画像TD2として、所定の学習アルゴリズムによる機械学習を実行することにより得られた学習済みモデルである。ここで、入力画像LD2は、太さ2ピクセル以上の線画像である。 As shown in FIG. 5, the second learned model LM2 has a plurality of images IG11, IG12, IG13,... Containing portions to be expressed by lines as input images LD2, and respective images IG11, IG12, IG13. , Which are 1-pixel-thick line images TL11, TL12, TL13,... As teacher images TD2, are learned models obtained by executing machine learning by a predetermined learning algorithm. Here, the input image LD2 is a line image having a thickness of 2 pixels or more.

図化部160は、細線化画像生成部150により生成された細線化画像TLからなる地図Fすなわち、測定対象を線で表現したCAD(Computer Aided Design)図面ファイルを自動生成する機能ブロックである。 The plotting unit 160 is a functional block that automatically generates a map F including the thinned image TL generated by the thinned image generating unit 150, that is, a CAD (Computer Aided Design) drawing file in which a measurement target is expressed by a line.

3.自動図化装置の動作
つぎに、自動図化装置100の動作を、図6のフロー図に従って説明する。ここで説明する動作内容は、図化工程P3(図1)の内容に相当する。すなわち、図化工程P3は、図6に示すように、法線ベクトル算出ステップS1と、角度算出ステップS2と、点群分布可視化ステップS3と、線抽出ステップS4と、細線化画像生成ステップS5と、図化ステップS6と、により構成される。これらのステップS1〜S6は、一実施形態の自動図化プログラムにより実現される処理内容を示すものである。
3. Operation of Automatic Plotting Device Next, the operation of the automatic plotting device 100 will be described with reference to the flowchart of FIG. The operation content described here corresponds to the content of the plotting process P3 (FIG. 1). That is, as shown in FIG. 6, the plotting process P3 includes a normal vector calculation step S1, an angle calculation step S2, a point cloud distribution visualization step S3, a line extraction step S4, and a thinned image generation step S5. , And the plotting step S6. These steps S1 to S6 show the processing contents realized by the automatic plotting program of one embodiment.

法線ベクトル算出ステップS1は、三次元点群データ生成工程P2(図1)により得られた三次元点群データから点群の法線ベクトルnを求めるステップである。 The normal vector calculation step S1 is a step of obtaining the normal vector n of the point cloud from the three-dimensional point cloud data obtained in the three-dimensional point cloud data generation step P2 (FIG. 1).

角度算出ステップS2は、法線ベクトル算出ステップS1により求めた法線ベクトルnの水平面に対する角度θまたは垂直面に対する角度φを求めるステップである。 The angle calculation step S2 is a step of obtaining the angle θ of the normal vector n obtained in the normal vector calculation step S1 with respect to the horizontal plane or the angle φ with respect to the vertical plane.

点群分布可視化ステップS3は、角度算出ステップS2により求めた法線ベクトルnの角度θまたはφに応じて測量対象の各部に色付けをしたカラー画像Gを生成するステップである。この実施形態では、点群分布可視化ステップS3では、図3に示すように、法線ベクトルnの角度θまたはφと予め設定した色相環HCとの関係とに基づいて、法線ベクトルnの始点ごとに色付けを行うことによりカラー画像Gを生成する。 The point cloud distribution visualization step S3 is a step of generating a color image G in which each part of the survey target is colored according to the angle θ or φ of the normal vector n obtained in the angle calculation step S2. In this embodiment, in the point cloud distribution visualization step S3, as shown in FIG. 3, the starting point of the normal vector n is calculated based on the relationship between the angle θ or φ of the normal vector n and the preset hue circle HC. A color image G is generated by coloring each color.

線抽出ステップS4は、点群分布可視化ステップS3により生成されたカラー画像Gから、線で表現すべき部分の画像LGを第1の学習済みモデルLM1を用いて抽出するステップである。 The line extraction step S4 is a step of extracting the image LG of the portion to be represented by a line from the color image G generated in the point cloud distribution visualization step S3 using the first learned model LM1.

細線化画像生成ステップS5は、線抽出ステップS4により抽出された画像LGに基づき、細線化画像TLを第2の学習済みモデルLM2を用いて生成するステップである。 The thinned image generation step S5 is a step of generating the thinned image TL using the second learned model LM2 based on the image LG extracted in the line extraction step S4.

図化ステップS6は、細線化画像生成ステップS5により生成された細線化画像TLからなる地図(CAD図面ファイル)を自動生成するステップである。 The plotting step S6 is a step of automatically generating a map (CAD drawing file) including the thinned image TL generated in the thinned image generating step S5.

4.一実施形態の作用・効果
つぎに、上記のように構成された自動図化装置100の作用・効果について説明する。
自動図化装置100は、線で表現すべき部分を含む複数の画像IG01、IG02、IG03、・・・を入力画像LD1とし、それぞれの画像IG01、IG02、IG03、・・・に対応する線の画像LI01、LI02、LI03、・・・を教師画像TD1として、所定の学習アルゴリズムによる機械学習を実行することにより得られた第1の学習済みモデルLM1を用いて、測量対象を表す点群の分布状態を色の違いで表現したカラー画像Gから、線表現目標画像LGを抽出し、その抽出された線表現目標画像LGに基づいて細線化画像TLを生成することにより、測量対象を線で表現した地図Fを自動作成することができる。そして、第1の学習済みモデルLM1の機械学習が進むにつれて、線で表現すべき部分の画像LGの抽出精度が向上し、自動作成される地図Fの精度が向上する。
4. Action/Effect of One Embodiment Next, the action/effect of the automatic plotting apparatus 100 configured as described above will be described.
The automatic plotting apparatus 100 sets a plurality of images IG01, IG02, IG03,... Containing portions to be expressed by lines as input images LD1 and displays lines corresponding to the respective images IG01, IG02, IG03,. The images LI01, LI02, LI03,... Are used as teacher images TD1 and the first learned model LM1 obtained by executing machine learning by a predetermined learning algorithm is used to distribute the point cloud representing the survey target. The line representation target image LG is extracted from the color image G representing the state by the color difference, and the thinned image TL is generated based on the extracted line representation target image LG to represent the surveyed object by a line. The created map F can be automatically created. Then, as the machine learning of the first learned model LM1 progresses, the extraction accuracy of the image LG of the portion to be represented by the line improves, and the accuracy of the map F automatically created improves.

また、自動図化装置100によれば、線を表す複数の画像IG11、IG12、IG13、・・・を入力画像LD2とし、それぞれの画像IG11、IG12、IG13、・・・に対応する太さ1ピクセルの線画像TL11、TL12、TL13、・・・を教師画像TD2として、所定の学習アルゴリズムによる機械学習を実行することにより得られた第2の学習済みモデルLM2を用いて、細線化画像TLが生成されるので、第2の学習済みモデルLM2の機械学習が進むにつれて、生成される細線化画像TLの精度が向上し、自動作成される地図Fの精度が向上する。 Further, according to the automatic plotting apparatus 100, a plurality of images IG11, IG12, IG13,... Representing lines are used as the input image LD2, and the thickness 1 corresponding to each of the images IG11, IG12, IG13,. Using the line images TL11, TL12, TL13,... Of pixels as the teacher image TD2, the thinned image TL is obtained by using the second learned model LM2 obtained by executing machine learning by a predetermined learning algorithm. Since it is generated, as the machine learning of the second learned model LM2 proceeds, the precision of the thinned image TL that is generated is improved, and the precision of the map F that is automatically created is improved.

また、自動図化装置100は、ドローン撮影により得られた三次元点群データD2から点群の法線ベクトルnを求め、その法線ベクトルnの水平面に対する角度θまたは垂直面に対する角度φを求め、その角度θまたはφに応じて測量対象の各部に色付けをしたカラー画像Gを生成する。このように、法線ベクトルnの角度θまたはφに基づいてカラー画像Gを生成することにより、ドローン撮影により得られた三次元点群データD2の計測時間帯が日中であるか夜間であるかを問わず、当該三次元点群データD2から測量対象を表す点群の分布状態を色の違いで表現したカラー画像Gを生成することができる。法線ベクトルnの水平面に対する角度θに基づく彩色は、地形などの地図Fを作成するのに適している。法線ベクトルnの垂直面に対する角度φに基づく彩色は、建物・構造物などの地図Fを作成するのに適している。 Further, the automatic plotting apparatus 100 obtains the normal vector n of the point cloud from the three-dimensional point cloud data D2 obtained by drone photography, and obtains the angle θ of the normal vector n with respect to the horizontal plane or the angle φ with respect to the vertical plane. , And generates a color image G in which each part of the survey target is colored according to the angle θ or φ. As described above, by generating the color image G based on the angle θ or φ of the normal vector n, the measurement time zone of the three-dimensional point cloud data D2 obtained by drone photography is daytime or nighttime. Regardless of this, it is possible to generate a color image G in which the distribution state of the point cloud representing the survey target is represented by the difference in color from the three-dimensional point cloud data D2. The coloring based on the angle θ of the normal vector n with respect to the horizontal plane is suitable for creating the map F such as the terrain. Coloring based on the angle φ of the normal vector n with respect to the vertical plane is suitable for creating a map F of a building/structure or the like.

図7の左側の画像G11は、日中に取得したカラー情報を有する三次元点群データD2による地形の画像を例示している。この画像G11を法線ベクトル算出部110、角度算出部120および点群分布可視化部130で処理することにより、図7の右側に例示するカラー画像G12(G)が得られる。カラー画像G12(G)では、測量対象を表す点群の分布状態が色の違いで表現されている。 An image G11 on the left side of FIG. 7 exemplifies a topographic image based on the three-dimensional point cloud data D2 having color information acquired during the day. By processing this image G11 by the normal vector calculation unit 110, the angle calculation unit 120, and the point cloud distribution visualization unit 130, a color image G12 (G) illustrated on the right side of FIG. 7 is obtained. In the color image G12 (G), the distribution state of the point cloud representing the survey target is represented by the difference in color.

図8の左側の画像G21は、夜間に取得した三次元点群データD2による建物を多く含む画像を例示している。画像G21は、カラー情報を有していないモノトーンの画像である。この画像G21を法線ベクトル算出部110、角度算出部120および点群分布可視化部130で処理することにより、図7の右側に例示するカラー画像G22(G)が得られる。カラー画像G22(G)では、測量対象を表す点群の分布状態が色の違いで表現されている。 An image G21 on the left side of FIG. 8 exemplifies an image including many buildings based on the three-dimensional point cloud data D2 acquired at night. The image G21 is a monotone image having no color information. By processing this image G21 by the normal vector calculation unit 110, the angle calculation unit 120, and the point cloud distribution visualization unit 130, a color image G22 (G) illustrated on the right side of FIG. 7 is obtained. In the color image G22(G), the distribution state of the point cloud representing the survey target is represented by the difference in color.

このように、測量対象を表す点群の分布状態を色の違いで表現したカラー画像Gが得られることにより、測量対象の境界や輪郭を機械的に判別し易くなるため、線で表現すべき部分の画像LGの線抽出部140による抽出精度が向上し、自動作成される地図Fの精度が向上する。 As described above, since the color image G in which the distribution state of the point cloud representing the survey target is represented by the difference in color is obtained, it becomes easy to mechanically determine the boundary or contour of the survey target, and therefore it should be represented by a line. The accuracy of extraction of the partial image LG by the line extraction unit 140 is improved, and the accuracy of the map F that is automatically created is improved.

また、自動図化装置100によれば、法線ベクトルnの角度θまたはφと予め設定した色相環HCとの関係とに基づいて、法線ベクトルnの始点ごとに色付けを行うことにより、測量対象の各部に色付けをしたカラー画像Gを生成するので、カラー画像Gを比較的小さい計算量で生成することができるので、地図Fの自動作成に要する計算量を比較的小さくできる。 Further, according to the automatic plotting apparatus 100, the surveying is performed by coloring each starting point of the normal vector n based on the relationship between the angle θ or φ of the normal vector n and the preset hue circle HC. Since the color image G in which each part of the target is colored is generated, the color image G can be generated with a relatively small calculation amount, and thus the calculation amount required for automatically creating the map F can be relatively reduced.

図9の左側の画像は、線抽出部140に入力されるカラー画像G31(G)を例示している。このカラー画像G31(G)を線抽出部140で処理することにより、図9の中央に例示する線抽出画像OPが得られる。この線抽出画像OPにおいては、カラー画像G31から抽出された線表現目標画像LG内の線で表現すべき部分である認識された部分が白抜きの領域で表現されている。この線抽出画像OPを細線化画像生成部150で処理することにより、図9の右側に例示する細線化画像TLが生成される。 The image on the left side of FIG. 9 exemplifies the color image G31 (G) input to the line extraction unit 140. By processing this color image G31 (G) by the line extraction unit 140, the line extraction image OP illustrated in the center of FIG. 9 is obtained. In this line extraction image OP, the recognized portion, which is the portion to be represented by the line in the line representation target image LG extracted from the color image G31, is represented by a white area. By processing the line-extracted image OP by the thinned-image generation unit 150, the thinned-image TL illustrated on the right side of FIG. 9 is generated.

第1の学習済みモデルLM1の機械学習が進むにつれて、図9の中央に例示する線抽出画像OPの精度が向上し、第2の学習済みモデルLM2の機械学習が進むにつれて、図9の右側に例示する細線化画像TLの精度が向上する。その結果、図化部160から出力される地図F(図1)の精度が向上する。 As the machine learning of the first learned model LM1 progresses, the accuracy of the line extraction image OP illustrated in the center of FIG. 9 improves, and as the machine learning of the second learned model LM2 progresses, the right side of FIG. The accuracy of the illustrated thinned image TL is improved. As a result, the accuracy of the map F (FIG. 1) output from the plotting unit 160 is improved.

その結果、測量対象を表す点群の分布状態を色の違いで表現したカラー画像から測量対象の輪郭を形成する線を明確に抽出することが可能となり、地図化作業を迅速かつ容易に行うことが可能となる。 As a result, it is possible to clearly extract the line forming the contour of the survey target from the color image in which the distribution state of the point cloud representing the survey target is represented by different colors, and to perform the mapping work quickly and easily. Is possible.

なお、上記実施形態では、自動図化装置100が法線ベクトル算出部110、角度算出部120および点群分布可視化部130を備え、点群分布可視化部130により生成されたカラー画像Gが線抽出部140に入力されるように構成されているが、法線ベクトル算出部110、角度算出部120および点群分布可視化部130とは異なる手段によりカラー画像Gが生成され、そのカラー画像Gが線抽出部140に入力されるように構成されてもよい。この場合、自動図化装置100の構成要素として、法線ベクトル算出部110、角度算出部120および点群分布可視化部130を省略することが可能である。 In the above embodiment, the automatic plotting apparatus 100 includes the normal vector calculation unit 110, the angle calculation unit 120, and the point cloud distribution visualization unit 130, and the color image G generated by the point cloud distribution visualization unit 130 is line-extracted. The color image G is generated by a unit different from the normal vector calculation unit 110, the angle calculation unit 120, and the point cloud distribution visualization unit 130, although the color image G is input to the unit 140. It may be configured to be input to the extraction unit 140. In this case, the normal vector calculation unit 110, the angle calculation unit 120, and the point cloud distribution visualization unit 130 can be omitted as components of the automatic plotting apparatus 100.

100 点群分布可視化装置
110 法線ベクトル算出部
120 角度算出部
130 点群分布可視化部
140 線抽出部
150 細線化画像生成部
160 図化部
D1 測量データ
D2 三次元点群データ
F 地図
G 点群分布可視化画像、カラー画像
G12 点群分布可視化画像
G22 点群分布可視化画像
HC 色相環
LD1 入力画像
LD2 入力画像
ld 線データ
LG 線で表現すべき部分の画像、線表現目標画像
IG01、IG02、IG03、・・・ 線で表現すべき部分を含む画像
IG11、IG12、IG13、・・・ 線を表す画像
LI01、LI02、LI03、・・・ 線の画像
LM1 第1の学習済みモデル
LM2 第2の学習済みモデル
n 法線ベクトル
P1 ドローン撮影工程
P2 三次元点群データ生成工程
P3 点群分布可視化工程
P4 図作成工程
pd 点データ
S1 法線ベクトル算出ステップ
S2 角度算出ステップ
S3 点群分布可視化ステップ
S4 線抽出ステップ
S5 細線化画像生成ステップ
S6 図化ステップ
TD1 教師画像
TD2 教師画像
TL 細線化画像
TL11、TL12、TL13、・・・ 太さ1ピクセルの線画像
θ 角度
φ 角度
100 point cloud distribution visualization device 110 normal vector calculation unit 120 angle calculation unit 130 point cloud distribution visualization unit 140 line extraction unit 150 thinned image generation unit 160 plotting unit D1 survey data D2 three-dimensional point cloud data F map G point cloud Distribution visualization image, color image G12 point cloud distribution visualization image G22 point cloud distribution visualization image HC hue circle LD1 input image LD2 input image ld line data LG image of portion to be expressed by line, line expression target image IG01, IG02, IG03, ... Images including parts to be expressed by lines IG11, IG12, IG13, ... Images representing lines LI01, LI02, LI03, ... Line images LM1 First learned model LM2 Second learned Model n Normal vector P1 Drone imaging process P2 Three-dimensional point cloud data generation process P3 Point cloud distribution visualization process P4 Drawing process pd Point data S1 Normal vector calculation step S2 Angle calculation step S3 Point cloud distribution visualization step S4 Line extraction step S5 Thin line image generation step S6 Visualization step TD1 Teacher image TD2 Teacher image TL Thin line images TL11, TL12, TL13,... Line image with a thickness of 1 pixel θ Angle φ Angle

Claims (6)

線で表現された地図を自動作成するための装置であって、A device for automatically creating a map represented by lines,
測量により得られた三次元点群データから測量対象を表す点群の法線ベクトルを求める法線ベクトル算出部と、A normal vector calculation unit that obtains a normal vector of the point cloud representing the survey target from the three-dimensional point cloud data obtained by the survey,
水平面または垂直面に対する前記法線ベクトルの角度を求める角度算出部と、An angle calculation unit for obtaining an angle of the normal vector with respect to a horizontal plane or a vertical plane,
前記角度に応じて測量対象の各部に色付けをすることにより、前記測量対象を表す点群の分布状態を色の違いで表現したカラー画像を生成する点群分布可視化部と、By coloring each part of the surveying object according to the angle, a point cloud distribution visualization unit that generates a color image expressing the distribution state of the point cloud representing the surveying object with different colors,
前記点群分布可視化部により生成されたカラー画像から、線で表現すべき部分を含む画像を第1の学習済みモデルを用いて抽出する線抽出部と、From the color image generated by the point cloud distribution visualization unit, a line extraction unit that extracts an image including a portion to be represented by a line using the first learned model,
前記線抽出部により抽出された画像に基づいて細線化画像を生成する細線化画像生成部と、を有し、A thinned image generation unit that generates a thinned image based on the image extracted by the line extraction unit,
前記第1の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであり、The first learned model is an learned image obtained by executing machine learning, with an image including a portion to be expressed by a line as an input image, and a line image as a teacher image,
前記点群分布可視化部は、前記法線ベクトルの角度と予め設定した色相環との関係とに基づいて、前記法線ベクトルの始点ごとに色付けを行うことを特徴とする自動図化装置。The point group distribution visualization unit performs coloring at each starting point of the normal vector based on the relationship between the angle of the normal vector and a preset hue circle.
前記細線化画像生成部は、前記線抽出部により抽出した画像に基づいて、細線化画像を第2の学習済みモデルを用いて生成し、前記第2の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、太さ1ピクセルの線画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであることを特徴とする請求項1記載の自動図化装置。The thinned image generation unit generates a thinned image using a second learned model based on the image extracted by the line extraction unit, and the second learned model should be represented by a line. 2. The automatic plotting apparatus according to claim 1, wherein the model is a learned model obtained by executing machine learning using an image including a portion as an input image and a line image having a thickness of 1 pixel as a teacher image. .. 線で表現された地図を自動作成する方法であって、A method to automatically create a map represented by lines,
測量により得られた三次元点群データから測量対象を表す点群の法線ベクトルを求める法線ベクトル算出ステップと、A normal vector calculation step of obtaining a normal vector of the point cloud representing the survey target from the three-dimensional point cloud data obtained by the survey,
水平面または垂直面に対する前記法線ベクトルの角度を求める角度算出ステップと、An angle calculation step of obtaining an angle of the normal vector with respect to a horizontal plane or a vertical plane,
前記角度に応じて測量対象の各部に色付けをすることにより、前記測量対象を表す点群の分布状態を色の違いで表現したカラー画像を生成する点群分布可視化ステップと、By coloring each part of the surveying object according to the angle, a point cloud distribution visualization step of generating a color image expressing the distribution state of the point cloud representing the surveying object with a color difference,
前記点群分布可視化ステップにより生成されたカラー画像から、線で表現すべき部分を含む画像を第1の学習済みモデルを用いて抽出する線抽出ステップと、From the color image generated by the point cloud distribution visualization step, a line extraction step of extracting an image including a portion to be expressed by a line using the first learned model,
前記線抽出ステップにより抽出された画像に基づいて細線化画像を生成する細線化画像生成ステップと、を含み、A thinned image generating step of generating a thinned image based on the image extracted by the line extracting step,
前記第1の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであり、The first learned model is an learned image obtained by executing machine learning, with an image including a portion to be expressed by a line as an input image, and a line image as a teacher image,
前記点群分布可視化ステップは、前記法線ベクトルの角度と予め設定した色相環との関係とに基づいて、前記法線ベクトルの始点ごとに色付けを行うことを特徴とする自動図化方法。The automatic visualization method, wherein in the point cloud distribution visualization step, coloring is performed for each starting point of the normal vector based on the relationship between the angle of the normal vector and a preset hue circle.
前記細線化画像生成ステップは、前記線抽出ステップにより抽出された画像に基づいて、細線化画像を第2の学習済みモデルを用いて生成し、前記第2の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、太さ1ピクセルの線画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであることを特徴とする請求項3記載の自動図化方法。The thinned image generating step generates a thinned image using a second learned model based on the image extracted in the line extracting step, and the second learned model is expressed by a line. 4. The automatic plotting according to claim 3, wherein the model is a learned model obtained by executing machine learning using an image including a power part as an input image and a line image having a thickness of 1 pixel as a teacher image. Method. コンピュータを、線で表現された地図を自動作成するための装置として機能させるためのプログラムであって、A program for causing a computer to function as a device for automatically creating a map represented by lines,
測量により得られた三次元点群データから測量対象を表す点群の法線ベクトルを求める法線ベクトル算出ステップと、A normal vector calculation step of obtaining a normal vector of the point cloud representing the survey target from the three-dimensional point cloud data obtained by the survey,
水平面または垂直面に対する前記法線ベクトルの角度を求める角度算出ステップと、 An angle calculation step of obtaining an angle of the normal vector with respect to a horizontal plane or a vertical plane,
前記角度に応じて測量対象の各部に色付けをすることにより、前記測量対象を表す点群の分布状態を色の違いで表現したカラー画像を生成する点群分布可視化ステップと、By coloring each part of the surveying object according to the angle, a point cloud distribution visualization step of generating a color image expressing the distribution state of the point cloud representing the surveying object with a color difference,
前記点群分布可視化ステップにより生成されたカラー画像から、線で表現すべき部分を含む画像を第1の学習済みモデルを用いて抽出する線抽出ステップと、From the color image generated by the point cloud distribution visualization step, a line extraction step of extracting an image including a portion to be expressed by a line using the first learned model,
前記線抽出ステップにより抽出された画像に基づいて細線化画像を生成する細線化画像生成ステップと、を有し、A thinned image generating step of generating a thinned image based on the image extracted by the line extracting step,
前記第1の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであり、The first learned model is an learned image obtained by executing machine learning, with an image including a portion to be expressed by a line as an input image, and a line image as a teacher image,
前記点群分布可視化ステップは、前記法線ベクトルの角度と予め設定した色相環との関係とに基づいて、前記法線ベクトルの始点ごとに色付けを行うことを特徴とする自動図化プログラム。An automatic plotting program characterized in that the point cloud distribution visualization step performs coloring for each starting point of the normal vector based on the relationship between the angle of the normal vector and a preset hue circle.
前記細線化画像生成ステップは、前記線抽出ステップにより抽出された画像に基づいて、細線化画像を第2の学習済みモデルを用いて生成するステップであり、前記第2の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、太さ1ピクセルの線画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであることを特徴とする請求項5記載の自動図化プログラム。The thinned image generating step is a step of generating a thinned image using a second learned model based on the image extracted in the line extracting step, and the second learned model is a line 6. The learned model obtained by executing machine learning using an image including a portion to be expressed by as an input image and a line image having a thickness of 1 pixel as a teacher image. Automatic plotting program.
JP2019185268A 2019-10-08 2019-10-08 Automatic plotting apparatus, automatic plotting method, and automatic plotting program Active JP6730501B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019185268A JP6730501B1 (en) 2019-10-08 2019-10-08 Automatic plotting apparatus, automatic plotting method, and automatic plotting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019185268A JP6730501B1 (en) 2019-10-08 2019-10-08 Automatic plotting apparatus, automatic plotting method, and automatic plotting program

Publications (2)

Publication Number Publication Date
JP6730501B1 true JP6730501B1 (en) 2020-07-29
JP2021060860A JP2021060860A (en) 2021-04-15

Family

ID=71738524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019185268A Active JP6730501B1 (en) 2019-10-08 2019-10-08 Automatic plotting apparatus, automatic plotting method, and automatic plotting program

Country Status (1)

Country Link
JP (1) JP6730501B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113899360A (en) * 2021-12-10 2022-01-07 北京主线科技有限公司 Generation and precision evaluation method and device for port automatic driving high-precision map
JP7366472B1 (en) 2022-07-05 2023-10-23 吉谷土木株式会社 Planting support methods and field work support systems, etc.

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0272491A (en) * 1988-09-08 1990-03-12 Sony Corp Picture conversion processor
JPH06111027A (en) * 1992-07-15 1994-04-22 Canon Inc Method and device for outputting image
JP4276473B2 (en) * 2003-06-03 2009-06-10 独立行政法人科学技術振興機構 Image creating method, program, recording medium, image creating apparatus, slope vector diagram
JP5074622B2 (en) * 2005-11-01 2012-11-14 株式会社日立ソリューションズ Geographic image processing system
JP5817422B2 (en) * 2011-10-18 2015-11-18 朝日航洋株式会社 Building extraction apparatus, method and program
JP6964031B2 (en) * 2018-03-27 2021-11-10 Tasmit株式会社 Pattern edge detection method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113899360A (en) * 2021-12-10 2022-01-07 北京主线科技有限公司 Generation and precision evaluation method and device for port automatic driving high-precision map
JP7366472B1 (en) 2022-07-05 2023-10-23 吉谷土木株式会社 Planting support methods and field work support systems, etc.
JP2024007317A (en) * 2022-07-05 2024-01-18 吉谷土木株式会社 Planting support method, field work support system and the like
JP7438516B2 (en) 2022-07-05 2024-02-27 吉谷土木株式会社 Planting support methods and field work support systems, etc.

Also Published As

Publication number Publication date
JP2021060860A (en) 2021-04-15

Similar Documents

Publication Publication Date Title
KR102145109B1 (en) Methods and apparatuses for map generation and moving entity localization
CN110008851B (en) Method and equipment for detecting lane line
CN111629193B (en) Live-action three-dimensional reconstruction method and system
CN108090957B (en) BIM-based terrain mapping method
CN111724477A (en) Method for constructing multi-level three-dimensional terrain model through multi-source data fusion
JP2023072064A (en) Performing 3d reconstruction via unmanned aerial vehicle
CN109685886A (en) A kind of distribution three-dimensional scenic modeling method based on mixed reality technology
CA2861555A1 (en) Densifying and colorizing point cloud representation of physical surface using image data
JP6730501B1 (en) Automatic plotting apparatus, automatic plotting method, and automatic plotting program
CN112652065A (en) Three-dimensional community modeling method and device, computer equipment and storage medium
JP2012137933A (en) Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device
KR20130102873A (en) Method for generating three-dimensional modeling data of the structure using color groud lidar measurement data
CN106969721A (en) A kind of method for three-dimensional measurement and its measurement apparatus
JP2018031693A (en) Isolation evaluation method, isolation evaluation device and isolation evaluation program for aerial power transmission line, and method for displaying isolation evaluation data
US20230184564A1 (en) High-precision map construction method, electronic device, and storage medium
JP6730502B1 (en) Point cloud distribution visualization device, point cloud distribution visualization method, and point cloud distribution visualization program
CN115825067A (en) Geological information acquisition method and system based on unmanned aerial vehicle and electronic equipment
CN112017227A (en) Method for hybrid visualization of terrain model and tidal data generated by point cloud fusion
JP7140933B1 (en) machine learning system
JP4852006B2 (en) Spatial information database generation device and spatial information database generation program
KR100732915B1 (en) Method for three-dimensional determining of basic design road route using digital photommetry and satellite image
KR101979879B1 (en) Apparatus and method for post-processing about aerial photogrammetry output
CN117557931A (en) Planning method for meter optimal inspection point based on three-dimensional scene
KR102041320B1 (en) Precision-Location Based Optimized 3D Map Delivery System
Zhang et al. Primitive-based building reconstruction by integration of Lidar data and optical imagery

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191105

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191206

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200702

R150 Certificate of patent or registration of utility model

Ref document number: 6730501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200612

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250