JP7394935B2 - Method, device, and program for measuring the shape of a three-dimensional measurement object - Google Patents

Method, device, and program for measuring the shape of a three-dimensional measurement object Download PDF

Info

Publication number
JP7394935B2
JP7394935B2 JP2022131862A JP2022131862A JP7394935B2 JP 7394935 B2 JP7394935 B2 JP 7394935B2 JP 2022131862 A JP2022131862 A JP 2022131862A JP 2022131862 A JP2022131862 A JP 2022131862A JP 7394935 B2 JP7394935 B2 JP 7394935B2
Authority
JP
Japan
Prior art keywords
data
dimensional
point cloud
output
measurement object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022131862A
Other languages
Japanese (ja)
Other versions
JP2022159560A (en
Inventor
茂雄 草木
誉光 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mr Support Inc
Original Assignee
Mr Support Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mr Support Inc filed Critical Mr Support Inc
Publication of JP2022159560A publication Critical patent/JP2022159560A/en
Priority to JP2023200482A priority Critical patent/JP2024009279A/en
Application granted granted Critical
Publication of JP7394935B2 publication Critical patent/JP7394935B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、例えば、道路の傷やいたみ等、路面のクラック調査、轍調査、縦横断調査等、測量対象物を立体的にとらえることができる、三次元測定対象物の形状測定方法、及び装置、並びにプログラムに関する。 The present invention is directed to a method and apparatus for measuring the shape of a three-dimensional object, which can three-dimensionally capture the object to be surveyed, such as inspecting road cracks, ruts, longitudinal and cross-sectional surveys, etc. , and programs.

例えば、特許文献1に、現場に持ち込んだトータルステーション等の測量計により、任意位置の三次元座標の計測を行う技術が記載されている。 For example, Patent Document 1 describes a technique for measuring the three-dimensional coordinates of an arbitrary position using a surveying instrument such as a total station brought to the site.

特許文献1に記載された技術によれば、座標が既知の2つの基準位置にプリズムや反射光等の反射部材を置き、トータルステーションから反射部材に向けて測定用の光を投光し、その反射光の位相差に基づき各基準位置までの距離を測定するとともに、測定用の光の投光方向の水平角度や鉛直角度を測定する。そして、測定した距離、水平角度、鉛直角度、及び既知の基準位置の位置座標等に基づいて幾何学的計算を行うことにより、測定位置の三次元座標を求めることができる。 According to the technology described in Patent Document 1, a reflective member such as a prism or a reflected light is placed at two reference positions with known coordinates, a total station emits measuring light toward the reflective member, and the reflected light is measured. The distance to each reference position is measured based on the phase difference of the light, and the horizontal angle and vertical angle of the projection direction of the measurement light are also measured. Then, by performing geometric calculations based on the measured distance, horizontal angle, vertical angle, and the positional coordinates of the known reference position, the three-dimensional coordinates of the measured position can be determined.

特開2013-32983号公報JP2013-32983A

ところで、土木建築業界において、測量データは、ますます正確なデータが求められている。例えば、道路の傷やいたみ等の路面のクラック調査、轍調査、縦横断調査(切削量のボリューム)等、三次元測定対象物を立体的にとらえた正確な測量は、人が実際に現場へ足を運んで目視確認を行い、測量計で測量地点のデータをとり、測量成果報告書を作成する必要がある。また、その作業はそれぞれ専門の会社が行っている。このため、作業に要する時間、人的コストが高く、したがって、実際の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図るためのツールの出現がのぞまれていた。 By the way, in the civil engineering and construction industry, more and more accurate survey data is required. For example, accurate surveying that captures a three-dimensional measurement object in three dimensions, such as investigating road cracks such as scratches and damage on the road, investigating ruts, and longitudinal and cross-sectional surveys (volume of cutting amount), requires a person to actually go to the site. It is necessary to visit the site for visual confirmation, collect data at the survey point using a survey instrument, and create a survey results report. Moreover, each of these tasks is carried out by a specialized company. For this reason, the time and human costs required for the work are high.Therefore, it is necessary to accurately perform a series of tasks from actual surveying to creating various reports in a one-stop manner in order to reduce time and human costs. The emergence of tools was expected.

本発明は上記した課題を解決するためになされたものであり、三次元測量対象物の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図った、三次元測定対象物の形状測定方法、及び装置、並びにプログラムを提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and enables a series of operations from surveying a three-dimensional survey object to creating various reports to be accurately performed in one stop, thereby reducing time and human costs. The purpose of the present invention is to provide a method, device, and program for measuring the shape of a three-dimensional object to be measured.

上記した課題を解決するために、本発明の形状確認図の生成方法は、三次元走査装置によりレーザ光が照射することにより三次元測定対象物からの反射点における各点が3次元座標化された点群データを取得し、前記点群データに、トータルステーションによる観測結果を反映させて前記三次元測定対象物の第1形状確認データを生成し、UAVから出力された前記三次元測定対象物を含む複数の画像を合成することにより、前記三次元測定対象物を含む画像に含まれる非三次元測定対象を除外した合成画像を生成し、前記第1形状確認データの少なくとも一部に対して、前記合成画像を解析することにより前記点群データに対応するように生成した色彩情報であり且つ前記点群データの色彩情報よりも鮮明な色彩情報を付加して、第2形状確認データを生成し、前記第2形状確認データを出力して前記三次元測定対象物の形状確認図を生成することを特徴とする。 In order to solve the above-mentioned problems, the shape confirmation diagram generation method of the present invention converts each point at a reflection point from a three-dimensional measurement object into three-dimensional coordinates by irradiating a laser beam with a three-dimensional scanning device. obtain point cloud data, reflect the observation results by the total station on the point cloud data to generate first shape confirmation data of the three-dimensional measurement object, and generate first shape confirmation data of the three-dimensional measurement object output from the UAV. generating a composite image excluding non-three-dimensional measurement objects included in the images including the three-dimensional measurement object, and for at least part of the first shape confirmation data, generating second shape confirmation data by adding color information that is generated to correspond to the point cloud data by analyzing the composite image and that is clearer than the color information of the point cloud data; , the second shape confirmation data is output to generate a shape confirmation diagram of the three-dimensional measurement object.

本発明の形状確認図の生成方法において、前記三次元測定対象物の形状確認図は、路面のクラック調査、轍調査、縦横断調査の何れかに使用されることを特徴とする。In the method for generating a shape confirmation diagram of the present invention, the shape confirmation diagram of the three-dimensional measurement object is used for any one of a road surface crack investigation, a rut investigation, and a longitudinal and transverse investigation.

本発明によれば、三次元測量対象物の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図った、三次元測定対象物の形状確認図を提供することができる。 According to the present invention, a series of tasks ranging from surveying a 3D measurement target to creating various reports can be accurately realized in one stop, and the time and human costs can be reduced. Shape confirmation drawings can be provided.

本発明の実施の形態に係る三次元測定対象物の形状測定装置の構成を示すブロック図である。1 is a block diagram showing the configuration of a shape measuring device for a three-dimensional object to be measured according to an embodiment of the present invention. 本発明の実施の形態に係る三次元測定対象物の形状測定装置の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the shape measuring device of a three-dimensional measurement object concerning an embodiment of the present invention. 本発明の実施の形態に係る三次元測定対象物の形状測定装置の処理動作を示すフローチャートである(図2の続き)。2 is a flowchart illustrating the processing operation of the shape measuring device of the three-dimensional object according to the embodiment of the present invention (continuation of FIG. 2). 本発明の実施の形態に係る三次元測定対象物の形状測定装置により生成される座標化され色マッピングされた点群データの一例を示す図である。FIG. 2 is a diagram illustrating an example of coordinate-based and color-mapped point cloud data generated by the shape measuring device of the three-dimensional measurement object according to the embodiment of the present invention. 本発明の実施の形態に係る三次元測定対象物の形状測定装置により生成される三次元測定対象物の現況平面画像の一例を示す図である。FIG. 2 is a diagram showing an example of a current planar image of the three-dimensional measurement object generated by the shape measuring device of the three-dimensional measurement object according to the embodiment of the present invention. 本発明の実施の形態に係る三次元測定対象物の形状測定装置により生成される現況縦横断図の一例を示す図である。FIG. 2 is a diagram showing an example of a current longitudinal and cross-sectional view generated by the shape measuring device of the three-dimensional measurement object according to the embodiment of the present invention. 撮像部が撮像した道路に反射材を散布した場合の画像を示す図である。It is a figure which shows the image when reflective material is scattered on the road imaged by the imaging part. 三次元走査装置が取得した点群データを図7に示す画像に合成した合成画像を示す図である。8 is a diagram showing a composite image obtained by combining point cloud data acquired by a three-dimensional scanning device with the image shown in FIG. 7. FIG. 第3実施例に係る三次元測定対象物の形状測定装置の構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of a shape measuring device for a three-dimensional measurement object according to a third embodiment. UAVの撮像部が異なる時刻で同領域を撮像した道路を含む複数の画像を示す図である。FIG. 3 is a diagram showing a plurality of images including roads taken in the same area by the imaging unit of the UAV at different times. 図10に示す画像から車両を除外した合成画像を示す図である。11 is a diagram showing a composite image obtained by excluding a vehicle from the image shown in FIG. 10. FIG. 図11に示す合成画像を解析することにより生成され、色彩情報を含む三次元点群データを示す図である。FIG. 12 is a diagram showing three-dimensional point cloud data that is generated by analyzing the composite image shown in FIG. 11 and includes color information. 色彩情報が補正された点群データを示す図である。FIG. 3 is a diagram showing point cloud data with color information corrected. 第4実施例に係る三次元測定対象物の形状測定装置の構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of a shape measuring device for a three-dimensional measurement object according to a fourth example. 電子マーキングが追加された点群データを示す図である。FIG. 3 is a diagram showing point cloud data to which electronic markings have been added. 拡大された電子マーキングの点群データを示す図である。FIG. 3 is a diagram showing enlarged point cloud data of electronic marking.

(第1実施形態の構成)
以下、本発明の実施の形態(以下、本実施形態という)に係る三次元測定対象物の形状測定装置について図面を参照しながら詳細に説明する。なお、実施形態の説明の全体を通して同じ要素には同じ番号又は符号を付している。
(Configuration of first embodiment)
DESCRIPTION OF THE PREFERRED EMBODIMENTS A shape measuring apparatus for a three-dimensional object to be measured according to an embodiment of the present invention (hereinafter referred to as the present embodiment) will be described in detail below with reference to the drawings. Note that the same elements are given the same numbers or symbols throughout the description of the embodiments.

図1に示すように、本実施形態に係る三次元測定対象物の形状測定装置100は、例えば、PC(Personal Computer)等により実現され、装置本体である解析装置30と、キーボードやマウス等の入力装置31と、LCD(Liquid Crystal Display)モニタ、プリンタ等の出力装置32とから構成される。なお、解析装置30は、三次元走査装置(3Dスキャナ)10と、トータルステーション(TS)20とは、オフラインで接続される。 As shown in FIG. 1, an apparatus 100 for measuring the shape of a three-dimensional object according to the present embodiment is realized by, for example, a PC (Personal Computer), and includes an analysis apparatus 30, which is the main body of the apparatus, and a keyboard, mouse, etc. It is composed of an input device 31 and an output device 32 such as an LCD (Liquid Crystal Display) monitor or a printer. Note that the analysis device 30 is connected offline to a three-dimensional scanning device (3D scanner) 10 and a total station (TS) 20.

三次元走査装置10は、道路等の三次元測定対象物に対してレーザ光を照射し、そのレーザ光の多数の反射点の各点を三次元座標化された点の群(以下、点群データという)として取り込み、解析装置30へ出力する。 The three-dimensional scanning device 10 irradiates a three-dimensional measurement object such as a road with a laser beam, and converts each point of a large number of reflection points of the laser beam into a group of points (hereinafter referred to as a point group) that is converted into three-dimensional coordinates. data) and output to the analysis device 30.

トータルステーション20は、位置座標が既知の2つの基準位置(基準点)に反射部材を置き、その反射部材に向けて測定用光を投光し、その反射光の位相差に基づき各基準位置までの距離を測定して水平角度や鉛直角度を求め、解析装置30に対し、測量データの共通フォーマットとして知られているSIMA(Surveying Instruments Manufacturers’ Association)データとして出力する。 The total station 20 places reflective members at two reference positions (reference points) whose position coordinates are known, projects measurement light toward the reflective members, and calculates the distance to each reference position based on the phase difference of the reflected light. The distance is measured, the horizontal angle and the vertical angle are determined, and the results are output to the analysis device 30 as SIMA (Surveying Instruments Manufacturers' Association) data, which is known as a common format for survey data.

解析装置30は、図示省略したプログラムを逐次読み出し実行することにより、三次元走査装置10から取得した点群データ、及び/又はトータルステーション20から取得したSIMAデータを解析して道路の形状確認データを生成すると共に、入力装置31によって入力される任意の2点間の縦・横断図を作成して設計データに変換し、それぞれ出力装置32に出力(表示又は印刷)する機能を有する。 The analysis device 30 analyzes the point cloud data obtained from the three-dimensional scanning device 10 and/or the SIMA data obtained from the total station 20 and generates road shape confirmation data by sequentially reading and executing a program (not shown). In addition, it has a function of creating vertical and cross-sectional views between any two points inputted by the input device 31, converting them into design data, and outputting (displaying or printing) them to the output device 32 respectively.

このため、解析装置30は、図1にそのプログラム構造をブロックで展開して示したように、点群データ取得部301と、SIMAデータ取得部302と、SIMA統合部303と、平面画像合成部304と、平面資料作成部305と、線形作成部306と、路線計算部307と、三角網縦横断データ取得部308と、出来形管理部309と、設計データ及び納品データ作成部310と、を含み構成される。 For this reason, the analysis device 30 includes a point cloud data acquisition section 301, a SIMA data acquisition section 302, a SIMA integration section 303, and a planar image synthesis section, as shown in FIG. 304, a planar data creation unit 305, a linearity creation unit 306, a route calculation unit 307, a triangular network longitudinal and cross-sectional data acquisition unit 308, a finished form management unit 309, and a design data and delivery data creation unit 310. Contains and consists of.

点群データ取得部301は、三次元走査装置10により照射されるレーザ光により三次元測定対象物である道路からの反射点における各点が3次元座標化された点群データとして取得し、SIMA統合部303へ出力する。 The point cloud data acquisition unit 301 acquires point cloud data in which each point at a reflection point from a road, which is a three-dimensional measurement object, is converted into three-dimensional coordinates using a laser beam irradiated by the three-dimensional scanning device 10, and Output to the integration unit 303.

SIMAデータ取得部302は、トータルステーション20により出力される基準点を含むSIMAデータ(点番、点名、X,Y,Z)を、解析装置30が読み込み可能なCSV(Comma Separated Values)形式のデータにファイル変換し、XY座標を入れ替えてSIMA統合部303へ出力する。 The SIMA data acquisition unit 302 converts the SIMA data (point number, point name, X, Y, Z) including the reference point output by the total station 20 into CSV (Comma Separated Values) format data that can be read by the analysis device 30. The file is converted, the XY coordinates are replaced, and the file is output to the SIMA integration unit 303.

SIMA統合部303は、SIMAデータ取得部302から出力されるCSVデータを点群データ取得部301から出力される点群データに反映させ、更に、色マッピング処理により生成される点群のPTSファイルのX,Yを入れ替えて読み込み、基準点SIMAデータと統合して平面画像合成部304に出力する。 The SIMA integration unit 303 reflects the CSV data output from the SIMA data acquisition unit 302 in the point cloud data output from the point cloud data acquisition unit 301, and further reflects the PTS file of the point cloud generated by color mapping processing. The X and Y data are exchanged and read, integrated with the reference point SIMA data, and output to the planar image synthesis unit 304.

平面画像合成部304は、SIMA統合部303により出力される統合データに縮尺を固定した現況平面画像を合成し、合成TIFF(Tagged Image File Format)データとして平面資料作成部305へ出力する。 The planar image synthesis section 304 synthesizes the current planar image with a fixed scale on the integrated data outputted by the SIMA integration section 303, and outputs it to the planar material creation section 305 as combined TIFF (Tagged Image File Format) data.

平面資料作成部305は、基準点SIMAデータと平面画像合成部304から出力されるTIFFデータを基に平面資料を作成し、線形作成部306へ出力する。平面資料作成部305は、更に、作成した平面資料をPDF(Portable Document Format)及びAutoCAD(登録商標)の標準ファイル形式であるDWG(Drawing)にファイルに変換し、設計データ及び納品データ作成部301へ出力する。 The planar material creation unit 305 creates a planar material based on the reference point SIMA data and the TIFF data output from the planar image synthesis unit 304, and outputs it to the linear creation unit 306. The planar document creation unit 305 further converts the created planar document into files in PDF (Portable Document Format) and DWG (Drawing), which is a standard file format of AutoCAD (registered trademark), and converts the created planar document into a file in the design data and delivery data creation unit 301. Output to.

線形作成部306は、平面資料作成部305から出力される平面資料に基づき、IP(Intersection Point)点を作成し、路線計算部307へそのIP座標(SIMAデータ)を出力すると共に、そのSIMAデータをPDFにファイル変換して設計データ及び納品データ作成部310へそのPDFデータを出力する。 The alignment creation unit 306 creates IP (Intersection Point) points based on the plane data output from the plane data creation unit 305, outputs the IP coordinates (SIMA data) to the route calculation unit 307, and also outputs the IP coordinates (SIMA data) to the route calculation unit 307. is converted into a PDF file, and the PDF data is output to the design data and delivery data creation section 310.

路線計算部307は、SIMA統合部303から出力される統合データに示される線形を基準とする路線測量によって得られる線形の主要点の位置座標と、線形作成部306から出力されるIP座標に基づき、入力装置31から入力される、曲線パラメータ、縦断要素、幅員、任意測点により、路線全体で三次元座標値を求める路線計算を実行し、その結果を三角網縦横断データ取得部308へ出力する。 The route calculation unit 307 calculates the position coordinates of the main points of the alignment obtained by route survey based on the alignment shown in the integrated data output from the SIMA integration unit 303 and the IP coordinates output from the alignment creation unit 306. , Executes route calculation to obtain three-dimensional coordinate values for the entire route using curve parameters, longitudinal elements, width, and arbitrary measurement points input from the input device 31, and outputs the results to the triangular network longitudinal and transverse data acquisition unit 308. do.

三角網縦横断データ取得部308は、路線計算部307から出力される三次元座標値に基づき、指定される任意の2点間の縦横断データ(縦横断図)をSIMAデータとして設計データ及び納品データ作成部310へ出力する。 The triangular network longitudinal and transverse data acquisition unit 308 uses the longitudinal and transverse data (vertical and transverse diagram) between any two specified points as SIMA data based on the three-dimensional coordinate values output from the route calculation unit 307 as design data and delivery. It is output to the data creation section 310.

設計データ及び納品データ作成部310は、三角網縦横断データ取得部308から出力される横断SIMAデータに基づき現況縦横断データを出力装置32へ出力する。 The design data and delivery data creation section 310 outputs current longitudinal and sectional data to the output device 32 based on the sectional SIMA data output from the triangular network longitudinal and sectional data acquisition section 308 .

出来形管理部309は、作成した基本設計データを用い、現場での出来形を測定し、出来形の良否判定が可能な設計と出来形の差を出力し、更に、基本設計データと、測定した出来形測定データとを読み込み、設計データ及び納品データ作成部310を介して出来形帳票を作成する。 The finished form management unit 309 measures the finished form on site using the created basic design data, outputs the difference between the design and the finished form that allows judgment of the quality of the finished form, and further measures the basic design data and the measured form. The finished form measurement data is read in, and a finished form form is created via the design data and delivery data creation section 310.

設計データ及び納品データ作成部310は、横断SIMAデータを線形データALG(ER Mapper Algorithm Data)にファイル変換して3Dビューア用の縦横断図を作成して出力装置32へ表示する。設計データ及び納品データ作成部310は、他に、平面資料作成部305から出力されるPDFあるいはDWGフォーマットの平面資料から、所定様式の概況平面図、面積体積計算書を作成し、また、線形作成部306から出力されるPDF形式の路線測量計算書を作成して路線計算部307へ出力し、更に、路線計算部307により出力されるPDFと三次元座標データに基づき、所定様式のクラック、轍調査資料を生成し、それぞれ出力装置32へ出力する。 The design data and delivery data creation unit 310 converts the cross-sectional SIMA data into linear data ALG (ER Mapper Algorithm Data), creates a longitudinal and cross-sectional view for a 3D viewer, and displays it on the output device 32. The design data and delivery data creation unit 310 also creates a general plan and area volume calculation sheet in a predetermined format from the PDF or DWG format planar material output from the planar material creation unit 305, and also creates linear data. A route survey calculation report in PDF format output from the route calculation unit 306 is created and outputted to the route calculation unit 307. Furthermore, based on the PDF and three-dimensional coordinate data output by the route calculation unit 307, cracks and ruts are calculated in a predetermined format. Investigation materials are generated and output to the output device 32, respectively.

(第1実施形態の動作)
以下、図2、図3のフローチャート、及び図4~図6に示す画像を参照しながら、図1に示す本実施形態に係る三次元測定対象物の形状測定装置100の処理動作について説明する。なお、図2は3D事前測量、図3は、3D事前測量により作成される基本設計データに基づき施工された三次元測定対象物が発注者の意図する規格基準に対してどの程度の精度で施工されたか、その施工技術の度合を管理する出来形計測の処理の流れを示す。
(Operation of the first embodiment)
Hereinafter, the processing operation of the shape measuring apparatus 100 of the three-dimensional object to be measured according to the present embodiment shown in FIG. 1 will be described with reference to the flowcharts shown in FIGS. 2 and 3 and the images shown in FIGS. 4 to 6. In addition, Figure 2 shows the 3D preliminary survey, and Figure 3 shows the degree of accuracy of the 3D measurement object constructed based on the basic design data created by the 3D preliminary survey in relation to the specifications intended by the client. This figure shows the flow of processing for measuring workmanship to manage the level of workmanship and construction technology.

ここでは、三次元測定対象物である道路にあらかじめ基準点が設置されており、光波測距儀とトランシットが一体化されたトータルステーション20が、ダイポイント、主要点観測の結果をSIMAデータと互換のあるCADデータとして出力する。そして、このCADデータと基準点SIMAデータとに基づき、主要点を折れ線状に配置し、各点における隣接点間の交角(夾角)と距離を測定して点の位置を求めるトラバース計算を行い(ステップS101)、点番、点名、X,Y,ZからなるSIMAデータを生成する。 Here, a reference point is set in advance on the road, which is the object to be measured in three dimensions, and the total station 20, which has an integrated light wave rangefinder and transit, converts the results of die point and key point observations into SIMA data and compatible data. Output as certain CAD data. Then, based on this CAD data and reference point SIMA data, key points are arranged in a polygonal line, and a traverse calculation is performed to determine the position of the point by measuring the intersection angle (included angle) and distance between adjacent points at each point ( Step S101), SIMA data consisting of point number, point name, X, Y, and Z is generated.

一方、三次元走査装置10は、道路に対してレーザ光を照射し、そのレーザ光の多数の反射点の各点を三次元座標化された点群データを生成する。三次元走査装置10は、レーザの照射から受光までの時間により、設置位置から反射点までの距離を算出し、調査範囲の反射点の三次元座標化された位置(X,Y,Z)を算出し、調査範囲の反射点の各位置をまとめた点群データとして出力する。この点群データにより、三次元測定対象物の道路の絵柄を描画することができる。 On the other hand, the three-dimensional scanning device 10 irradiates the road with laser light and generates point cloud data in which each of the many reflection points of the laser light is converted into three-dimensional coordinates. The three-dimensional scanning device 10 calculates the distance from the installation position to the reflection point based on the time from laser irradiation to light reception, and calculates the three-dimensional coordinate position (X, Y, Z) of the reflection point in the investigation area. It is calculated and output as point cloud data that summarizes the positions of each reflection point in the survey area. Using this point cloud data, it is possible to draw a picture of a road as a three-dimensional object to be measured.

解析装置30は、三次元走査装置10から取得される点群データ、トータルステーション20から取得されるSIMAデータに基づき以下の処理を実行する。すなわち、点群データ取得部301が、三次元走査装置10によりスキャンされ出力された点群データを取得してSIMA統合部303へ出力し、SIMAデータ取得部302が、トータルステーション20により観測され出力されるSIMAデータを取得し、CSV形式にファイル変換し、X,Y座標を入れ替えたCSVファイルを生成してSIMA統合部303へ出力する(ステップS102)。 The analysis device 30 executes the following processing based on the point cloud data obtained from the three-dimensional scanning device 10 and the SIMA data obtained from the total station 20. That is, the point cloud data acquisition unit 301 acquires the point cloud data scanned and output by the three-dimensional scanning device 10 and outputs it to the SIMA integration unit 303, and the SIMA data acquisition unit 302 acquires the point cloud data that has been observed and output by the total station 20. The SIMA data is acquired, converted into a CSV format, and a CSV file with the X and Y coordinates swapped is generated and output to the SIMA integration unit 303 (step S102).

SIMA統合部303は、SIMAデータ取得部302から出力されるCSVデータを点群データ取得部301から出力される点群データに反映させ、更に、色マッピングにより点群のPTSファイルを生成する(ステップS103)。図4に、点群データの一例が示されている。 The SIMA integration unit 303 reflects the CSV data output from the SIMA data acquisition unit 302 on the point cloud data output from the point cloud data acquisition unit 301, and further generates a PTS file of the point cloud by color mapping (step S103). FIG. 4 shows an example of point cloud data.

続いて、SIMA統合部303は、生成したPTSファイルのX,Yを入れ替えて読み込み、基準点SIMAデータと統合し、更に、ステップS101のトラバース計算により得られる、人孔、道路幅員、クラック形状等の主要点情報をDXFデータ、SIMAデータに変換したファイルを結合して平面画像合成部304に出力する(ステップS104)。 Next, the SIMA integration unit 303 replaces the X and Y of the generated PTS file, reads it, integrates it with the reference point SIMA data, and further calculates the human hole, road width, crack shape, etc. obtained by the traverse calculation in step S101. The files obtained by converting the main point information into DXF data and SIMA data are combined and output to the planar image synthesis unit 304 (step S104).

平面画像合成部304は、フリーフォームNURBS(Non-Uniform Rational Basis Spline(非一様有理Bスプライン)モデリングに特化した商用の製造業向け3次元CADソフトウェアであるライノセラス(登録商標)の画面上で施工範囲を画定してDXFデータを出力し(ステップS105)、SIMA統合部303により出力される統合データに縮尺を固定した現況平面画像を合成し、合成TIFFデータとして平面資料作成部305へ出力する(ステップS106)。図5に、現況平面画像の一例が示されている。 The planar image synthesis unit 304 performs image processing on the screen of Rhinoceras (registered trademark), which is a commercial 3D CAD software for the manufacturing industry that specializes in free-form NURBS (Non-Uniform Rational Basis Spline) modeling. The construction area is defined and DXF data is output (step S105), the current planar image with a fixed scale is combined with the integrated data output by the SIMA integration unit 303, and the result is output to the planar material creation unit 305 as composite TIFF data. (Step S106). FIG. 5 shows an example of the current planar image.

平面資料作成部305は、基準点SIMAデータと平面画像合成部304から出力されるTIFFデータを基に平面資料を作成し、線形作成部306へ出力する(ステップS106)。平面資料作成部305は、更に、作成した平面資料をPDF及びDWGにファイルに変換し、設計データ及び納品データ作成部310へ出力する。 The planar material creation unit 305 creates a planar material based on the reference point SIMA data and the TIFF data output from the planar image synthesis unit 304, and outputs it to the linear creation unit 306 (step S106). The planar material creation section 305 further converts the created planar material into PDF and DWG files, and outputs them to the design data and delivery data creation section 310.

続いて、線形作成部306は、平面資料作成部305から出力される平面資料に基づき、道路中心線の平面線形において、円曲線や緩和曲線を両側から挟む2つの直線部の延長線の交点であるIP点を作成し(ステップS107)、路線計算部307へそのIP座標(SIMAデータ)を出力する。線形作成部306は、更に、SIMAデータをPDFにファイル変換して設計データ及び納品データ作成部310へそのPDFデータを出力する。 Next, based on the planar material output from the planar material creating section 305, the alignment creation section 306 calculates the intersection of the extension lines of two straight sections that sandwich the circular curve or transition curve from both sides in the planar alignment of the road center line. A certain IP point is created (step S107), and its IP coordinates (SIMA data) are output to the route calculation unit 307. The linear creation unit 306 further converts the SIMA data into a PDF file and outputs the PDF data to the design data and delivery data creation unit 310.

路線計算部307は、SIMA統合部303から出力される統合データに示される線形を基準とする路線測量によって得られる線形の主要点の位置座標と、線形作成部306から出力されるIP座標とに基づき、入力装置31を介してユーザによって入力される、曲線パラメータ、縦断要素、幅員、任意測点により、路線全体で三次元座標値を求める路線計算を実行し、その結果を三角網縦横断データ取得部308へ出力する(ステップS108)。路線計算部307は、更に、線形を基準として路面の損傷を調査(路面調査)し、クラックや轍の調査資料作成のために、その結果をPDF、3Dデータに変換して、設計データ及び納品データ作成部310に出力する(ステップS109)。路線計算部307による3Dデータへの変換にあたり、ライノセラス(登録商標)でデータ処理した結果が反映される。 The route calculation unit 307 uses the position coordinates of the main points of the alignment obtained by route survey based on the alignment shown in the integrated data output from the SIMA integration unit 303 and the IP coordinates output from the alignment creation unit 306. Based on the curve parameters, longitudinal elements, width, and arbitrary measurement points input by the user through the input device 31, route calculation is performed to obtain three-dimensional coordinate values for the entire route, and the results are converted into triangular network longitudinal and transverse data. It is output to the acquisition unit 308 (step S108). The route calculation unit 307 further investigates damage to the road surface based on the alignment (road surface investigation), converts the results into PDF and 3D data in order to create investigation materials for cracks and ruts, and provides design data and delivery. The data is output to the data creation unit 310 (step S109). When converting to 3D data by the route calculation unit 307, the results of data processing by Rhinoceras (registered trademark) are reflected.

三角網縦横断データ取得部308は、路線計算部307から出力される三次元座標値に基づき任意の2点間における三角網縦横断SIMAデータを作成し(ステップS110)、設計データ及び納品データ作成部310へ出力する。設計データ及び納品データ作成部310は、三角網縦横断データ取得部308から出力される横断SIMAデータに基づき現況縦横断データを出力装置32へ出力する(ステップS111)。ここで出力される現況縦横断データは、図3にその詳細を示す出来形計測でも使用される。図6に、現況縦横断データにより作成される現況縦横断図の一例が示されている。 The triangular mesh longitudinal and transverse data acquisition unit 308 creates longitudinal and transverse triangular mesh SIMA data between any two points based on the three-dimensional coordinate values output from the route calculation unit 307 (step S110), and creates design data and delivery data. output to section 310. The design data and delivery data creation section 310 outputs current longitudinal and sectional data to the output device 32 based on the sectional SIMA data output from the triangular network longitudinal and sectional data acquisition section 308 (step S111). The current longitudinal and cross-sectional data outputted here is also used for performance measurement, the details of which are shown in FIG. FIG. 6 shows an example of a current longitudinal and cross-sectional diagram created using the current longitudinal and cross-sectional data.

設計データ及び納品データ作成部310は、更に、横断SIMAデータを線形データALGにファイル変換して3Dビューア用の縦横断図を含む基本設計データ作成して出力装置32に出力する。設計データ及び納品データ作成部310は、他に、平面資料作成部305から出力されるPDFあるいはDWGフォーマットの平面資料から、所定様式の概況平面図、面積体積計算書を作成し、また、線形作成部306から出力されるPDF形式の路線測量計算書を作成して路線計算部307へ出力し、更に、路線計算部307により出力されるPDFと三次元座標データに基づき、所定様式のクラック、轍調査資料を生成し、それぞれ出力装置32へ出力する。 The design data and delivery data creation unit 310 further converts the cross-sectional SIMA data into linear data ALG, creates basic design data including longitudinal and cross-sectional views for the 3D viewer, and outputs the basic design data to the output device 32. The design data and delivery data creation unit 310 also creates a general plan and area volume calculation sheet in a predetermined format from the PDF or DWG format planar material output from the planar material creation unit 305, and also creates linear data. A route survey calculation report in PDF format output from the route calculation unit 306 is created and outputted to the route calculation unit 307. Furthermore, based on the PDF and three-dimensional coordinate data output by the route calculation unit 307, cracks and ruts are calculated in a predetermined format. Investigation materials are generated and output to the output device 32, respectively.

次に、図3を参照しながら、縦横断計画出来形計測(3D事前測量から3D出来形計測)について説明する。出来形管理部309は、設計データ及び納品データ作成部310から出力される基本設計データに基づき、現状横断データ解析、及び縦断線形変化点ごとの縦断曲線諸量を計算する縦横断計画を行い(ステップS201)、入力される基準点SIMAデータに基づき、3次元設計データを作成してXML(Extensible Markup Language)形式のファイルを出力する(ステップS202)。 Next, with reference to FIG. 3, vertical and cross-sectional planned as-built measurement (from 3D preliminary survey to 3D as-built measurement) will be described. The finished form management section 309 performs a longitudinal and transverse plan that analyzes the current cross-sectional data and calculates the vertical curve quantities at each longitudinal alignment change point based on the basic design data output from the design data and delivery data creation section 310 ( Step S201) Based on the input reference point SIMA data, three-dimensional design data is created and a file in XML (Extensible Markup Language) format is output (step S202).

続いて、出来形管理部309は、そのXMLファイルに基づき、トータルステーション20を用いた出来形計測を行い(ステップS203)、その結果を設計データ及び納品データ作成部310を介してPDF及びXMLのファィル形式で出力装置32へ出力する。 Next, the finished form management unit 309 performs finished form measurement using the total station 20 based on the XML file (step S203), and saves the results to PDF and XML files via the design data and delivery data creation unit 310. It is output to the output device 32 in the format.

また、出来形管理部309は、基準点SIMAデータ、及び三角網縦横断データ取得部208から出力される線形データ(ALG)、そして、三次元走査装置10、及びトータルステーション20により観測され出力される3Dデータに基づき、図2にフローチャートで示した3D事前測量と同じ工程でデータ解析を行う(ステップS204)。そして、入力されXMLファイルの3次元設計データに基づき出来形縦横断データを出力し、3D事前測量縦横断データとの対比資料を作成すべく、設計データ及び納品データ作成部310を介し、PDF又はDWG形式の3D出来形成果資料を出力装置32へ出力する(ステップS205)。 In addition, the finished form management unit 309 receives the reference point SIMA data, the linear data (ALG) output from the triangular network longitudinal and transverse data acquisition unit 208, and the data observed and output by the three-dimensional scanning device 10 and the total station 20. Based on the 3D data, data analysis is performed in the same process as the 3D preliminary survey shown in the flowchart in FIG. 2 (step S204). Then, the as-built vertical and cross-sectional data is output based on the input 3D design data in the XML file, and is sent to the design data and delivery data creation unit 310 in PDF or The 3D finished result material in DWG format is output to the output device 32 (step S205).

(第1実施形態の効果)
以上説明のように本実施形態に係る三次元測定対象物の形状測定装置100は、解析装置30が、三次元走査装置10により照射されるレーザ光により、道路等の三次元測定対象からの反射点における各点が3次元座標化された点群データとして取得し、当該取得した点群データを解析し、三次元測定対象物の形状確認データを生成すると共に、入力装置31によって入力される任意の2点間の縦・横断図を作成して設計データに変換し、それぞれ出力装置32に出力する。このことにより、三次元測量対象物の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図ることができる。
(Effects of the first embodiment)
As described above, in the shape measuring device 100 of a three-dimensional measurement object according to the present embodiment, the analysis device 30 uses a laser beam irradiated by the three-dimensional scanning device 10 to detect reflections from a three-dimensional measurement object such as a road. Each point in the point is acquired as point cloud data converted into three-dimensional coordinates, and the acquired point cloud data is analyzed to generate shape confirmation data of the three-dimensional measurement object. The vertical and cross-sectional views between the two points are created, converted into design data, and outputted to the output device 32, respectively. This makes it possible to accurately perform a series of tasks from surveying a three-dimensional survey object to creating various reports in one stop, thereby reducing time and human costs.

具体的に、従来、作業員が、メジャー、あるいはトータルステーション20等の測量計を設置し、時間をかけて測定していた、クラック調査、轍調査、縦横断調査(切削量のボリューム調査)等の現地調査を、三次元走査装置10を使用した形状測定装置100により短時間で実施でき、かつ、トータルステーション20を使用して得られる測量データと併用することにより、詳細な測量データを所得できる。これにより、従来、把握できなかった三次元測定対象物の形状や変化を現地に何度も赴くことなく把握することができるようになる。このことにより、例えば、3日程度要していたこれら調査を、2時間程度まで短縮できることが確認された。また、従来、道路の轍や縦横断調査をそれぞれの専門会社が行っていたが、これをワンストップで行えるようになり、測量作業の時間的、人員的な負担を大幅に削減すことができ、また、効率化が図れることから、大幅なコストダウンが可能になる。 Specifically, in the past, workers installed measuring instruments such as measuring tape or total station 20 and took time to measure, such as crack investigation, rut investigation, longitudinal and transverse investigation (volume investigation of cutting amount), etc. A field survey can be carried out in a short time using the shape measuring device 100 using the three-dimensional scanning device 10, and detailed survey data can be obtained by using the survey data together with the survey data obtained using the total station 20. This makes it possible to understand the shape and changes of a three-dimensional measurement object, which was previously impossible to understand, without having to visit the site multiple times. As a result, it has been confirmed that these investigations, which previously took about three days, can be shortened to about two hours. In addition, previously, road ruts and longitudinal and cross-sectional surveys were carried out by separate specialized companies, but this can now be done one-stop, greatly reducing the time and personnel burden of surveying work. In addition, efficiency can be improved, making it possible to significantly reduce costs.

なお、本実施形態に係る三次元測定対象物の形状測定装置100において、三次元測定対象物として道路のみ例示したが、道路に限らず、例えば、森林における樹木等の形態を定量化する用途、あるいは、工事計画、施工、面積、地図作成等、各種用途への適用が可能である。 In addition, in the shape measuring device 100 of the three-dimensional object to be measured according to the present embodiment, only a road is illustrated as the three-dimensional object to be measured, but the application is not limited to roads, and can be used, for example, to quantify the form of trees in a forest, etc. Alternatively, it can be applied to various purposes such as construction planning, construction, area, map creation, etc.

(三次元測定対象物の形状測定方法)
また、本実施形態に係る三次元測定対象物の形状測定方法は、少なくとも、図1に示す三次元走査装置10と、入力装置31と出力装置32とを有する解析装置30とを用いることにより実現される。そして、その方法は、例えば、図2に示すように、三次元走査装置10により照射されるレーザ光により三次元測定対象からの反射点における各点が3次元座標化された点群データとして取得する第1のステップ(S103)と、取得した点群データを解析装置30によって解析し、三次元測定対象物の形状確認データを生成すると共に、入力装置31によって入力される任意の2点間の縦・横断図を作成して設計データに変換し、それぞれ出力装置32に出力する第2のステップ(S104~S111)と、を有するものである。
(Method for measuring the shape of a three-dimensional object)
Further, the method for measuring the shape of a three-dimensional measurement object according to this embodiment is realized by using at least the three-dimensional scanning device 10 shown in FIG. 1 and the analysis device 30 having an input device 31 and an output device 32. be done. As shown in FIG. 2, for example, each point at a reflection point from a three-dimensional measurement object is acquired as point cloud data in three-dimensional coordinates using a laser beam irradiated by a three-dimensional scanning device 10. In the first step (S103), the acquired point cloud data is analyzed by the analysis device 30 to generate shape confirmation data of the three-dimensional measurement object, and the data between any two points input by the input device 31 is This process includes a second step (S104 to S111) of creating vertical and cross-sectional views, converting them into design data, and outputting the data to the output device 32, respectively.

また、本実施形態に係る三次元測定対象物の形状測定方法において、第1のステップは、トータルステーション20による観測結果を解析装置30が利用可能なファイル形式に変換して点群データに反映させ、色マッピング処理により生成されるPTSファイルと、基準点SIMAデータとを統合して解析装置30に入力してもよい(ステップS101~S104)。また、第2のステップは、線形を基準とした路線測量により得られる線形の主要点の位置座標と、取り込んだ中間座標とに基づき路線計算を行い、路線計算の結果に基づき、三角網による縦横断図を作成してもよい(ステップS105~S111)。 Furthermore, in the method for measuring the shape of a three-dimensional measurement object according to the present embodiment, the first step is to convert the observation results by the total station 20 into a file format that can be used by the analysis device 30 and reflect it in the point cloud data. The PTS file generated by the color mapping process and the reference point SIMA data may be integrated and input to the analysis device 30 (steps S101 to S104). In addition, the second step is to calculate the route based on the positional coordinates of the main points of the alignment obtained by route survey based on the alignment and the imported intermediate coordinates. A cross-sectional diagram may be created (steps S105 to S111).

本実施形態に係る三次元測定対象物の形状測定方法によれば、三次元測量対象物の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図った、三次元測定対象物の形状測定方法を提供することができる。 According to the method for measuring the shape of a three-dimensional measurement object according to the present embodiment, a series of operations from surveying the three-dimensional measurement object to creating various reports can be accurately realized in one-stop manner, reducing time and human resources. It is possible to provide a method for measuring the shape of a three-dimensional object to be measured, which aims to reduce the number of objects to be measured.

(プログラム)
また、本実施形態に係るプログラムは、三次元測定対象物の形状測定装置100のためのプログラムである。そしてそのプログラムは、解析装置30に、上記した本実施形態に係る三次元測定対象物の形状測定方法における各ステップと同様の処理を実行させるものであり、重複を回避する意味で各処理の説明を省略する。
(program)
Further, the program according to this embodiment is a program for the shape measuring apparatus 100 of a three-dimensional measurement object. The program causes the analysis device 30 to execute the same processing as each step in the method for measuring the shape of a three-dimensional measurement object according to the present embodiment described above, and each processing will be explained in order to avoid duplication. omitted.

本実施形態に係るプログラムによれば、解析装置30が、上記した本実施形態に係るプログラムを読み出し実行することにより、三次元測量対象物の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図った、三次元測定対象物の形状測定装置100を提供することができる。 According to the program according to the present embodiment, the analysis device 30 reads and executes the program according to the above-described present embodiment, thereby accurately performing a series of operations from surveying the three-dimensional survey object to creating various reports. It is possible to provide an apparatus 100 for measuring the shape of a three-dimensional object to be measured, which can be realized in one-stop operation and reduces time and human costs.

[第2実施形態]
上記第1実施形態では、三次元走査装置10は、道路等の三次元測定対象物に対してレーザ光を照射し、そのレーザ光の多数の反射点の各点を三次元座標化して点群データを生成していた。
ところで、施工直後の道路や雨天時又は雨が止んだ直後の道路は、雨水等の影響で光沢のある黒色面が形成される。
[Second embodiment]
In the first embodiment, the three-dimensional scanning device 10 irradiates a three-dimensional measurement object such as a road with a laser beam, converts each of the many reflection points of the laser beam into three-dimensional coordinates, and converts each point into a point group. was generating data.
By the way, a glossy black surface is formed on a road immediately after construction, during rainy weather, or immediately after the rain has stopped due to the influence of rainwater and the like.

しかしながら、三次元走査装置10は、そのような光沢のある黒色面の計測には適していない。
つまり、三次元走査装置10で、このような道路に雨水が残っているような場所を計測しようとすると、レーザ光が上手く反射されず、その結果、レーザ光の少数の反射点の各点が少なくなるため、それに基づいて三次元座標化された点群データも少なくなり、十分な点群データが得られないという課題がある。
なお、雨水に限らず、道路に水が散布されたり、元々、適切な反射が得られ難い素材が用いられている場合も同様の課題がある。
However, the three-dimensional scanning device 10 is not suitable for measuring such a glossy black surface.
In other words, when trying to measure a place where rainwater remains on a road with the three-dimensional scanning device 10, the laser beam is not reflected well, and as a result, each of the small number of reflection points of the laser beam is As the number of point group data decreases, the amount of point group data converted into three-dimensional coordinates based on the amount of point group data also decreases, and there is a problem that sufficient point group data cannot be obtained.
Note that similar problems occur not only when rainwater is used, but also when water is sprinkled on roads, or when materials that are inherently difficult to obtain appropriate reflection are used.

そこで、第2実施例では、そのような状況でも、良好に点群データを得ることができる手法について、以下、図7及び図8を参照しながら説明する。
なお、以下では、第1実施形態と同様の点については、説明を省略し、第1実施形態と主に異なる点について説明するものとする。
また、以下の説明では、適切なレーザ光の反射が得られない箇所のことをレーザ光不適面という場合がある。
図7は、撮像部が撮像した道路に反射材50を散布した場合の画像を示す図であり、図8は、三次元走査装置10が取得した点群データを図7に示す画像に合成した合成画像を示す図である。
Therefore, in the second embodiment, a method for obtaining point cloud data satisfactorily even in such a situation will be described below with reference to FIGS. 7 and 8.
Note that, in the following, descriptions of points similar to those of the first embodiment will be omitted, and points that are mainly different from the first embodiment will be described.
Furthermore, in the following description, a portion where appropriate laser beam reflection cannot be obtained may be referred to as a laser beam unsuitable surface.
FIG. 7 is a diagram showing an image obtained by scattering reflective material 50 on a road imaged by the imaging unit, and FIG. 8 is a diagram showing an image obtained by combining the point cloud data acquired by the three-dimensional scanning device 10 with the image shown in FIG. 7. FIG. 3 is a diagram showing a composite image.

図7に示すように、雨水等の影響で適切なレーザ光の反射が得られないレーザ光不適面に対して小麦粉等からなる反射材50を散布する。
なお、この反射材50は、小麦粉等に限らず、例えば、ガラスビーズ混入の塗料からなる液状のものであってもよい。
As shown in FIG. 7, a reflective material 50 made of wheat flour or the like is sprinkled on a surface unsuitable for laser beams where proper reflection of the laser beam cannot be obtained due to the influence of rainwater or the like.
Note that the reflective material 50 is not limited to wheat flour or the like, but may be a liquid material such as a paint containing glass beads, for example.

そして、そのように反射材50を散布した後に、三次元走査装置10を用いるようにすると、そのレーザ光が反射材50によって上手く反射されるため、図8に示すように、レーザ光の多数の反射点を得ることができる。
この結果、図8に示すように、その反射点の各点を三次元座標化した点群データも多数得られ、良好な点群データを生成することができる。
なお、このような反射材散布によるレーザ光不適面の点群取得方法をMRP法と呼ぶ場合がある。
If the three-dimensional scanning device 10 is used after scattering the reflective material 50 in this way, the laser light will be well reflected by the reflective material 50, so as shown in FIG. You can get a reflection point.
As a result, as shown in FIG. 8, a large amount of point cloud data in which each of the reflection points is converted into three-dimensional coordinates is obtained, and good point cloud data can be generated.
Note that this method of acquiring a point cloud of a laser beam unsuitable surface by scattering a reflective material is sometimes called an MRP method.

[第3実施形態]
上記第1実施形態では、SIMA統合部303は、SIMAデータ取得部302から出力されるCSVデータを点群データ取得部301から出力される点群データに反映させ、更に、色マッピングにより点群のPTSファイルを生成していたが、第3実施形態では、さらに、色彩がより鮮明な点群データを得るために、点群データに色彩情報を補正する方法について、以下、図9~図13を参照しながら説明する。
なお、第3実施形態の説明においても第1実施形態と同様の点については説明を省略する場合がある。
[Third embodiment]
In the first embodiment, the SIMA integration unit 303 reflects the CSV data output from the SIMA data acquisition unit 302 on the point cloud data output from the point cloud data acquisition unit 301, and further integrates the point cloud by color mapping. Although a PTS file was generated, in the third embodiment, a method for correcting color information in point cloud data in order to obtain point cloud data with clearer colors will be described below with reference to FIGS. 9 to 13. I will explain while referring to it.
Note that in the description of the third embodiment, the description of the same points as in the first embodiment may be omitted.

図9は、第3実施例に係る三次元測定対象物の形状測定装置100の構成を示すブロック図である。
図10は、UAV40の撮像部が異なる時刻で同領域を撮像した道路を含む複数の画像を示す図であり、図10(a)は、第1時刻で同領域を撮像した道路を含む画像を示す図であり、図10(b)は、第1時刻よりも後である第2時刻で同領域を撮像した道路を含む画像を示す図である。
図11は、図10に示す画像から車両を除外した合成画像を示す図である。
図12は、図11に示す合成画像を解析することにより生成され、色彩情報を含む三次元点群データを示す図である。
図13は、色彩情報が補正された点群データを示す図である。
FIG. 9 is a block diagram showing the configuration of a shape measuring apparatus 100 of a three-dimensional object to be measured according to the third embodiment.
FIG. 10 is a diagram showing a plurality of images including roads taken in the same area by the imaging unit of the UAV 40 at different times, and FIG. 10(a) is a diagram showing an image including roads taken in the same area at a first time. FIG. 10(b) is a diagram showing an image including a road taken in the same area at a second time which is after the first time.
FIG. 11 is a diagram showing a composite image obtained by excluding the vehicle from the image shown in FIG. 10.
FIG. 12 is a diagram showing three-dimensional point cloud data that is generated by analyzing the composite image shown in FIG. 11 and includes color information.
FIG. 13 is a diagram showing point cloud data with color information corrected.

図9に示すように、第3実施例に係る三次元測定対象の形状測定装置100は、解析装置30と、入力装置31と、出力装置32とから構成され、解析装置30には、三次元走査装置10と、トータルステーション20と、さらに、UAV(Unmanned Aerial Vehicle)40が、オフラインで接続される。
なお、点群データの色彩情報の補正には、以下で説明するように解析装置30及びUAV40が用いられる。
As shown in FIG. 9, an apparatus 100 for measuring the shape of a three-dimensional object according to the third embodiment includes an analysis apparatus 30, an input apparatus 31, and an output apparatus 32. The scanning device 10, the total station 20, and a UAV (Unmanned Aerial Vehicle) 40 are connected offline.
Note that the analysis device 30 and the UAV 40 are used to correct the color information of the point cloud data, as described below.

UAV40は、解析装置30とオフラインで接続されており、遠隔操作により飛行可能な無人機である。
そして、UAV40は、道路等の三次元測定対象物の画像を撮像するための撮像部(図示しない)を備えている。
The UAV 40 is an unmanned aircraft that is connected offline to the analysis device 30 and can fly by remote control.
The UAV 40 includes an imaging unit (not shown) for capturing an image of a three-dimensional measurement object such as a road.

このUAV40の撮像部が撮像した画像を図10(a)及び図10(b)に示している。
具体的には、図10(a)及び図10(b)は、三次元走査装置10の有効範囲を含む同領域を、UAV40の撮像部で異なる時刻に撮像した道路等の三次元測定対象物を含む画像である。
なお、上述のように、UAV40はオフラインで解析装置30に接続されており、UAV40が撮像したその複数の画像は、後述する画像合成部311に出力できるようになっている。
Images captured by the imaging unit of this UAV 40 are shown in FIGS. 10(a) and 10(b).
Specifically, FIGS. 10(a) and 10(b) show images of a three-dimensional measurement target such as a road taken by the imaging unit of the UAV 40 at different times in the same area including the effective range of the three-dimensional scanning device 10. This is an image containing .
Note that, as described above, the UAV 40 is connected offline to the analysis device 30, and the plurality of images captured by the UAV 40 can be output to the image composition unit 311, which will be described later.

第3実施例の解析装置30は、画像合成部311と、画像測量解析部312と、色彩情報補正部313と、を含む点を除き、上記第1実施形態の解析装置30と同じ構成を有している。 The analysis device 30 of the third embodiment has the same configuration as the analysis device 30 of the first embodiment, except that it includes an image synthesis section 311, an image measurement analysis section 312, and a color information correction section 313. are doing.

画像合成部311は、UAV40から出力される道路等の三次元測定対象物を含む複数の画像を合成することにより、図11に示すような非三次元測定対象の車両を除外した合成画像を生成し、画像測量解析部312へ出力する。 The image synthesis unit 311 generates a composite image excluding vehicles that are not objects of three-dimensional measurement, as shown in FIG. 11, by synthesizing a plurality of images output from the UAV 40 and including three-dimensional measurement objects such as roads. and outputs it to the image measurement analysis section 312.

画像測量解析部312は、画像合成部311から出力される合成画像を解析することにより、図12に示すような色彩情報を含む三次元点群データを生成し、色彩情報補正部313へ出力する。 The image measurement analysis unit 312 generates three-dimensional point cloud data including color information as shown in FIG. 12 by analyzing the composite image output from the image composition unit 311, and outputs it to the color information correction unit 313. .

そして、色彩情報補正部313が、画像測量解析部312から出力される色彩情報を含む三次元点群データを用いて、SIMA係合部303から出力される点群のPTSファイルに三次元点群データの持つ色彩情報を補正し、より鮮明な色彩情報を持つ三次元点群データとして、その点群のPTSファイルを平面画像合成部304及び路線計算部307へ出力する。 Then, the color information correction unit 313 uses the three-dimensional point cloud data including color information output from the image surveying analysis unit 312 to convert the three-dimensional point cloud into a PTS file of the point cloud output from the SIMA engagement unit 303. The color information of the data is corrected, and the PTS file of the point cloud is output to the planar image synthesis unit 304 and route calculation unit 307 as three-dimensional point cloud data having clearer color information.

具体的には、SIMA係合部303から出力される点群のPTSファイルの色彩情報を含む三次元点群データは、三次元走査装置10によって取得されたデータに基づいたもののため、道路上に描かれている白線等の色彩情報が不鮮明である場合がある一方、UAV40によって取得された画像に基づく色彩情報を含む三次元点群データは、道路上に描かれている白線等の色彩情報が鮮明であるため、色彩情報補正部313では、道路上の白線等の色彩情報を補正する処理が行われる。 Specifically, since the three-dimensional point cloud data including color information of the PTS file of the point cloud output from the SIMA engagement unit 303 is based on data acquired by the three-dimensional scanning device 10, While color information such as drawn white lines may be unclear, three-dimensional point cloud data containing color information based on images acquired by UAV 40 does not show color information such as white lines drawn on roads. Since the image is clear, the color information correction unit 313 performs processing to correct color information such as white lines on the road.

このように、第3実施例では、UAV40及び解析装置30を用いて、点群のPTSファイルに色彩情報を補正することにより、色彩がより鮮明な点群データを得ることができ、この補正によって、図13に示すように、例えば、道路に描かれた白線等の細部をよく確認することができる状態にすることができる。 In this way, in the third embodiment, by correcting the color information in the PTS file of the point cloud using the UAV 40 and the analysis device 30, it is possible to obtain point cloud data with clearer colors. As shown in FIG. 13, for example, details such as white lines drawn on the road can be clearly seen.

[第4実施形態]
上記第3実施形態では、UAV40を用いることで色彩情報を補正する場合について説明したが、UAV40を用いて三次元点群データを補正する、つまり、三次元走査装置10のレーザ光が届かないような範囲のために、三次元走査装置10によって取得したデータに基づいた三次元点群データで点群が不足している箇所の点群を補足してもよく、第4実施形態では、以下、図14を参照しながら、UAV40を用いて、三次元走査装置10による点群データを補足する方法について説明する。
[Fourth embodiment]
In the third embodiment, a case has been described in which the color information is corrected by using the UAV 40. For such a range, the point cloud where the point cloud is insufficient may be supplemented with three-dimensional point cloud data based on the data acquired by the three-dimensional scanning device 10. In the fourth embodiment, the following will be explained. With reference to FIG. 14, a method for capturing point cloud data obtained by the three-dimensional scanning device 10 using the UAV 40 will be described.

図14は、第4実施例に係る三次元測定対象物の形状測定装置100の構成を示すブロック図である。
なお、図14を参照しながら、以下、具体的に第4実施形態について説明するが、第4実施形態でも、第1実施形態と同様の点については説明を省略する場合がある。
また、UAV40について、第3実施形態で既に説明している内容についても省略する場合がある。
FIG. 14 is a block diagram showing the configuration of a shape measuring device 100 of a three-dimensional object to be measured according to the fourth embodiment.
Note that the fourth embodiment will be specifically described below with reference to FIG. 14, but the description of the same points as the first embodiment may be omitted in the fourth embodiment as well.
Moreover, the content already described in the third embodiment regarding the UAV 40 may also be omitted.

図14に示すように、第4実施例に係る三次元測定対象の形状測定装置100は、解析装置30と、入力装置31と、出力装置32とから構成され、解析装置30には、三次元走査装置10と、トータルステーション20と、さらに、UAV40が、オフラインで接続される。
なお、三次元走査装置10による点群データへの補足には、以下で説明するようにUAV40及び解析装置30が用いられる。
As shown in FIG. 14, an apparatus 100 for measuring the shape of a three-dimensional object according to the fourth embodiment includes an analysis apparatus 30, an input apparatus 31, and an output apparatus 32. The scanning device 10, the total station 20, and also the UAV 40 are connected offline.
Note that the UAV 40 and the analysis device 30 are used to supplement the point cloud data by the three-dimensional scanning device 10, as described below.

UAV40は、解析装置30にオフラインで接続され、遠隔操作により飛行可能な無人機であり、また、UAV40が道路等の三次元測定対象物の画像を撮像するための撮像部(図示しない)を備えていることは第3実施形態で説明したとおりである。
そして、第3実施形態で説明したのと同様に、UAV40の撮像部が異なる時刻で三次元走査装置10の有効範囲以外の領域を含む同領域を撮像した道路等の三次元測定対象物を含む複数の画像は、画像合成部311に出力される。
The UAV 40 is an unmanned aircraft that is connected offline to the analysis device 30 and can fly by remote control, and is equipped with an imaging unit (not shown) for capturing images of a three-dimensional measurement target such as a road. This is the same as described in the third embodiment.
Then, as described in the third embodiment, the imaging unit of the UAV 40 captures images of the same area including areas other than the effective range of the three-dimensional scanning device 10 at different times, including a three-dimensional measurement object such as a road. The plurality of images are output to the image composition section 311.

第4実施例の解析装置30は、画像合成部311と、画像測量解析部312と、点群データ合成部314と、を含む点を除き、上記第1実施形態の解析装置30と同じ構成を有している。 The analysis device 30 of the fourth embodiment has the same configuration as the analysis device 30 of the first embodiment, except that it includes an image synthesis section 311, an image surveying analysis section 312, and a point cloud data synthesis section 314. have.

第3実施形態と同様に、画像合成部311は、UAV40から出力される道路等の三次元測定対象物を含む複数の画像を合成することにより、非三次元測定対象の車両を除外して三次元走査装置10の有効範囲以外の領域を含む合成画像を生成し、画像測量解析部312へ出力する。 Similarly to the third embodiment, the image synthesis unit 311 synthesizes a plurality of images including a three-dimensional measurement object such as a road outputted from the UAV 40, thereby excluding a vehicle that is not a three-dimensional measurement object and A composite image including an area outside the effective range of the original scanning device 10 is generated and output to the image surveying analysis unit 312.

そして、画像測量解析部312が、画像測量解析部312から出力される三次元走査装置10の有効範囲以外の領域を含む合成画像を解析することにより、三次元走査装置10の有効範囲以外の領域を含む三次元点群データを生成し、点群データ合成部314へ出力する。 Then, the image surveying analysis unit 312 analyzes the composite image including the area outside the effective range of the three-dimensional scanning device 10 outputted from the image surveying analysis unit 312, thereby determining the area outside the effective range of the three-dimensional scanning device 10. , and outputs it to the point cloud data synthesis unit 314.

そうすると、点群データ合成部314は、点群データ取得部301から出力される点群データの点群が不足している箇所を補足するように、画像測量解析部312から出力される三次元点群データの点群を部分的に合成し、部分的な点群の補足が行われた三次元点群データをSIMA統合部303へ出力する。 Then, the point cloud data synthesis unit 314 uses the three-dimensional points output from the image surveying analysis unit 312 to supplement the points where the point cloud data output from the point cloud data acquisition unit 301 is insufficient. Point groups of the group data are partially synthesized, and three-dimensional point group data with partial point group supplementation is output to the SIMA integration unit 303.

このように、第4実施例では、三次元走査装置10によって取得されたデータに基づく三次元点群データで点群が不足している箇所の点群をUAV40を用いることで補足するので、より完全な三次元点群データを生成することができる。 In this manner, in the fourth embodiment, the UAV 40 is used to supplement point clouds in locations where the point cloud is insufficient in the three-dimensional point cloud data based on the data acquired by the three-dimensional scanning device 10, so that Complete 3D point cloud data can be generated.

[第5実施形態]
上記第1実施形態で説明したトータルステーション20を、三次元走査装置10によって取得されたデータに基づく三次元点群データにおける境界がわかり難い箇所を境界がわかりやすくするのに用いてもよく、第5実施形態では、トータルステーション20を用いて、そのような境界をわかりやすくする方法について説明する。
[Fifth embodiment]
The total station 20 described in the first embodiment may be used to make the boundaries easy to understand at locations where the boundaries are difficult to understand in the three-dimensional point cloud data based on the data acquired by the three-dimensional scanning device 10. In the embodiment, a method for making such boundaries easier to understand using the total station 20 will be described.

つまり、点群による現況観測では情報量が膨大であるため、三次元走査装置10によって取得されたデータに基づく三次元点群データでは、部分的に拡大していくと、車道と歩道との境目やマンホールの境界等が見えなくなるが、トータルステーション20を用いて、その境界がわかるように電子マーキングを付けることが可能であり、以下、図15及び図16を参照しながら、点群データへの電子マーキングについて説明する。
なお、第5実施形態においても、第1実施形態と同様の点については説明を省略する場合がある。
In other words, since the amount of information obtained when observing the current situation using a point cloud is enormous, the 3D point cloud data based on the data acquired by the 3D scanning device 10 can be used to partially enlarge the boundary between the roadway and the sidewalk. However, using the total station 20, it is possible to attach electronic markings so that the boundaries of manholes and manholes can be seen. Explain marking.
Note that in the fifth embodiment as well, descriptions of the same points as in the first embodiment may be omitted.

図15は、電子マーキングが追加された点群データを示す図であり、図16は、拡大された電子マーキングの点群データを示す図である。
例えば、トータルステーション20は、道路の車道と歩道との境界(車道と歩道を分ける白線の境界)におけるマーキング点の観測結果を電子マーキング用のSIMAデータとして解析装置30のSIMAデータ取得部302へ出力する。
FIG. 15 is a diagram showing point cloud data to which electronic markings have been added, and FIG. 16 is a diagram showing point cloud data of enlarged electronic markings.
For example, the total station 20 outputs the observation results of marking points at the boundary between the roadway and the sidewalk (the boundary of the white line that separates the roadway and the sidewalk) to the SIMA data acquisition unit 302 of the analysis device 30 as SIMA data for electronic marking. .

そして、SIMAデータ取得部302は、トータルステーション20により出力される電子マーキング用のSIMAデータを、解析装置30が読み込み可能な電子マーキング用のCSV形式のデータにファイル変換し、XY座標を入れ替えてSIMA統合部303へ出力する。 Then, the SIMA data acquisition unit 302 converts the SIMA data for electronic marking outputted by the total station 20 into CSV format data for electronic marking that can be read by the analysis device 30, replaces the XY coordinates, and performs SIMA integration. It outputs to section 303.

そうすると、SIMA統合部303は、SIMAデータ取得部302から出力される電子マーキング用のCSVデータを点群データ取得部301から出力される点群データに反映させ、更に、色マッピング処理により電子マーキングが追加された点群のPTSファイルを生成する。 Then, the SIMA integration unit 303 reflects the CSV data for electronic marking outputted from the SIMA data acquisition unit 302 on the point cloud data outputted from the point cloud data acquisition unit 301, and furthermore, the electronic marking is Generate a PTS file of the added point cloud.

例えば、白線の境界を示すように、電子マーキングMが追加された点群データの一例は、図15に示すものであり、電子マーキングMを結ぶ線上が白線の境界になっている。
そして、その電子マーキングMの周辺を拡大していくと、図15では、なんとなく見えていた白線の状態がぼやけて行き、図16に示すように、白線の状態がわからなくなるが、先に述べたように、電子マーキングMを結ぶ線上に白線の境界が存在するため、図16に示すように、白線の状態がわからなくなっても、電子マーキングMによって境界がどこにあるのかを知ることができる。
For example, an example of point cloud data in which electronic markings M are added to indicate the boundaries of white lines is shown in FIG. 15, and the line connecting the electronic markings M is the boundary of the white lines.
Then, as the area around the electronic marking M is enlarged, the state of the white line that was somehow visible in Fig. 15 becomes blurred, and as shown in Fig. 16, the state of the white line becomes unclear, but as mentioned earlier, Since the border of the white line exists on the line connecting the electronic markings M, as shown in FIG. 16, even if the state of the white line is unknown, it is possible to know where the border is based on the electronic marking M.

このように、第5実施例では、点群データに電子マーキングを追加することにより、拡大によって境界がわからなくなるような場合であっても、図16に示すように、電子マーキングMを目印として、スピーディー且つ正確に道路の車道と歩道との境界を見分けることができる。
さらに、追加された電子マーキングと、点群データに示される道路の車道と歩道との境界と、の距離が所定の閾値を超える場合、点群データにエラーがあることを推測することができる。
In this way, in the fifth embodiment, by adding electronic markings to the point cloud data, even if the boundary becomes unclear due to enlargement, the electronic marking M can be used as a landmark as shown in FIG. To quickly and accurately distinguish the boundary between a roadway and a sidewalk.
Furthermore, if the distance between the added electronic marking and the boundary between the roadway and sidewalk of the road shown in the point cloud data exceeds a predetermined threshold, it can be inferred that there is an error in the point cloud data.

以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, it goes without saying that the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the embodiments described above. Furthermore, it is clear from the claims that such modifications or improvements may be included within the technical scope of the present invention.

10 三次元走査装置
20 トータルステーション
30 解析装置
31 入力装置
32 出力装置
40 UAV
50 反射材
100 形状測定装置
301 点群データ取得部
302 SIMAデータ取得部
303 SIMA統合部
304 平面画像合成部
305 平面資料作成部
306 線形作成部
307 路線計算部
308 三角網縦横断データ取得部
309 出来形管理部
310 設計データ及び納品データ作成部
311 画像合成部
312 画像測量解析部
313 色彩情報補正部
314 点群データ合成部
M 電子マーキング
10 Three-dimensional scanning device 20 Total station 30 Analysis device 31 Input device 32 Output device 40 UAV
50 Reflective material 100 Shape measuring device 301 Point cloud data acquisition unit 302 SIMA data acquisition unit 303 SIMA integration unit 304 Planar image synthesis unit 305 Planar data creation unit 306 Linear creation unit 307 Route calculation unit 308 Triangular network longitudinal and transverse data acquisition unit 309 Completion Shape management department 310 Design data and delivery data creation department 311 Image synthesis department
312 Image measurement analysis section 313 Color information correction section 314 Point cloud data synthesis section M Electronic marking

Claims (2)

三次元走査装置によりレーザ光が照射することにより三次元測定対象物からの反射点における各点が3次元座標化された点群データを取得し、
前記点群データに、トータルステーションによる観測結果を反映させて前記三次元測定対象物の第1形状確認データを生成し、
UAVから出力された前記三次元測定対象物を含む複数の画像を合成することにより、前記三次元測定対象物を含む画像に含まれる非三次元測定対象を除外した合成画像を生成し、
前記第1形状確認データの少なくとも一部に対して、前記合成画像を解析することにより前記点群データに対応するように生成した色彩情報であり且つ前記点群データの色彩情報よりも鮮明な色彩情報を付加して、第2形状確認データを生成し、
前記第2形状確認データを出力して前記三次元測定対象物の形状確認図を生成することを特徴とする形状確認図の生成方法。
Obtain point cloud data in which each point at the reflection point from the three-dimensional measurement object is converted into three-dimensional coordinates by irradiating a laser beam with a three-dimensional scanning device,
generating first shape confirmation data of the three-dimensional measurement object by reflecting observation results by the total station on the point cloud data;
Generating a composite image excluding non-three-dimensional measurement objects included in the images including the three-dimensional measurement object by combining a plurality of images including the three-dimensional measurement object output from the UAV,
Color information generated for at least a portion of the first shape confirmation data to correspond to the point cloud data by analyzing the composite image , and a color that is clearer than the color information of the point cloud data. Adding information to generate second shape confirmation data,
A method for generating a shape confirmation diagram, comprising: outputting the second shape confirmation data to generate a shape confirmation diagram of the three-dimensional measurement object.
前記三次元測定対象物の形状確認図は、路面のクラック調査、轍調査、縦横断調査の何れかに使用されることを特徴とする請求項1に記載の形状確認図の生成方法。
2. The method for generating a shape confirmation diagram according to claim 1, wherein the shape confirmation diagram of the three-dimensional measurement object is used for any one of a road surface crack investigation, a rut investigation, and a longitudinal and transverse investigation.
JP2022131862A 2016-07-27 2022-08-22 Method, device, and program for measuring the shape of a three-dimensional measurement object Active JP7394935B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023200482A JP2024009279A (en) 2016-07-27 2023-11-28 Shape measuring method, device and program for three dimensional measurement object

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016147236 2016-07-27
JP2016147236 2016-07-27
JP2017141901A JP7208708B2 (en) 2016-07-27 2017-07-21 Shape measurement method, apparatus, and program for three-dimensional measurement object

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017141901A Division JP7208708B2 (en) 2016-07-27 2017-07-21 Shape measurement method, apparatus, and program for three-dimensional measurement object

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023200482A Division JP2024009279A (en) 2016-07-27 2023-11-28 Shape measuring method, device and program for three dimensional measurement object

Publications (2)

Publication Number Publication Date
JP2022159560A JP2022159560A (en) 2022-10-17
JP7394935B2 true JP7394935B2 (en) 2023-12-08

Family

ID=61195030

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017141901A Active JP7208708B2 (en) 2016-07-27 2017-07-21 Shape measurement method, apparatus, and program for three-dimensional measurement object
JP2022131862A Active JP7394935B2 (en) 2016-07-27 2022-08-22 Method, device, and program for measuring the shape of a three-dimensional measurement object
JP2023200482A Pending JP2024009279A (en) 2016-07-27 2023-11-28 Shape measuring method, device and program for three dimensional measurement object

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017141901A Active JP7208708B2 (en) 2016-07-27 2017-07-21 Shape measurement method, apparatus, and program for three-dimensional measurement object

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023200482A Pending JP2024009279A (en) 2016-07-27 2023-11-28 Shape measuring method, device and program for three dimensional measurement object

Country Status (1)

Country Link
JP (3) JP7208708B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020204602A (en) * 2018-11-20 2020-12-24 株式会社エムアールサポート Ortho-image creation system, ortho-image creation method, anti-aircraft mark used therefor, and road investigation method
WO2020255548A1 (en) * 2019-06-17 2020-12-24 株式会社エムアールサポート Orthoimage creation system, orthoimage creation method, ground control points for use in orthoimage creation method, and road surveying method
JP2021082058A (en) * 2019-11-20 2021-05-27 株式会社豊田中央研究所 Travel path estimation device and travel path estimation program
CN112613277B (en) * 2020-12-09 2024-05-28 万兴科技(湖南)有限公司 Method, system and storage medium for converting PDF document into DXF document

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010085131A (en) 2008-09-30 2010-04-15 Taisei Corp Finished work confirming system, finished work confirmation program, and finished work confirmation method
JP2010530997A (en) 2007-04-19 2010-09-16 テレ アトラス ベスローテン フエンノートシャップ Method and apparatus for generating road information
JP2011257276A (en) 2010-06-09 2011-12-22 Ihi Corp Topographical data acquisition method
US20140146173A1 (en) 2012-11-26 2014-05-29 Trimble Navigation Limited Integrated Aerial Photogrammetry Surveys
CN104123730A (en) 2014-07-31 2014-10-29 武汉大学 Method and system for remote-sensing image and laser point cloud registration based on road features
JP2015087307A (en) 2013-10-31 2015-05-07 株式会社トプコン Three-dimensional measurement system and survey system
JP2015206768A (en) 2014-04-23 2015-11-19 株式会社東芝 Foreground area extraction device, foreground area extraction method and program
JP2016045150A (en) 2014-08-26 2016-04-04 株式会社トプコン Point group position data processing device, point group position data processing system, point group position data processing method, and program
JP2016105081A (en) 2014-11-19 2016-06-09 首都高技術株式会社 Point group data utilization system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007057498A (en) 2005-08-26 2007-03-08 Matsushita Electric Works Ltd Laser topography observation system
JP2008045890A (en) 2006-08-11 2008-02-28 Public Works Research Institute Ground displacement measuring system, light reflector installation method used for it, and light reflector installation apparatus
JP2010177743A (en) 2009-01-27 2010-08-12 Casio Hitachi Mobile Communications Co Ltd Image photographing device, and program
JP5384316B2 (en) 2009-12-24 2014-01-08 株式会社パスコ Displacement measuring device, displacement measuring method, and displacement measuring program
US8537338B1 (en) * 2011-08-24 2013-09-17 Hrl Laboratories, Llc Street curb and median detection using LIDAR data
JP2013190272A (en) 2012-03-13 2013-09-26 Kyushu Univ Three-dimensional laser measuring apparatus and three-dimensional laser measuring method
JP6006179B2 (en) 2013-06-20 2016-10-12 株式会社パスコ Data analysis apparatus, data analysis method, and program
JP6432825B2 (en) 2014-08-22 2018-12-05 株式会社Ihi Method and apparatus for aligning three-dimensional point cloud data and moving body system thereof

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010530997A (en) 2007-04-19 2010-09-16 テレ アトラス ベスローテン フエンノートシャップ Method and apparatus for generating road information
JP2010085131A (en) 2008-09-30 2010-04-15 Taisei Corp Finished work confirming system, finished work confirmation program, and finished work confirmation method
JP2011257276A (en) 2010-06-09 2011-12-22 Ihi Corp Topographical data acquisition method
US20140146173A1 (en) 2012-11-26 2014-05-29 Trimble Navigation Limited Integrated Aerial Photogrammetry Surveys
JP2015087307A (en) 2013-10-31 2015-05-07 株式会社トプコン Three-dimensional measurement system and survey system
JP2015206768A (en) 2014-04-23 2015-11-19 株式会社東芝 Foreground area extraction device, foreground area extraction method and program
CN104123730A (en) 2014-07-31 2014-10-29 武汉大学 Method and system for remote-sensing image and laser point cloud registration based on road features
JP2016045150A (en) 2014-08-26 2016-04-04 株式会社トプコン Point group position data processing device, point group position data processing system, point group position data processing method, and program
JP2016105081A (en) 2014-11-19 2016-06-09 首都高技術株式会社 Point group data utilization system

Also Published As

Publication number Publication date
JP2024009279A (en) 2024-01-19
JP2022159560A (en) 2022-10-17
JP7208708B2 (en) 2023-01-19
JP2018025553A (en) 2018-02-15

Similar Documents

Publication Publication Date Title
JP7394935B2 (en) Method, device, and program for measuring the shape of a three-dimensional measurement object
Murphy et al. Historic building information modelling (HBIM)
Duque et al. Bridge deterioration quantification protocol using UAV
Fawzy 3D laser scanning and close-range photogrammetry for buildings documentation: A hybrid technique towards a better accuracy
Mill et al. Combined 3D building surveying techniques–terrestrial laser scanning (TLS) and total station surveying for BIM data management purposes
Riveiro et al. Terrestrial laser scanning and limit analysis of masonry arch bridges
CN106524920A (en) Application of field measurement in construction project based on three-dimensional laser scanning
Baik et al. Jeddah historical building information modeling" jhbim" old Jeddah–Saudi Arabia
JP2018025553A5 (en)
CN111597666A (en) Method for applying BIM to transformer substation construction process
Doneus et al. 3D laser scanners on archaeological excavations
Renaudin et al. Featured‐Based Registration of Terrestrial Laser Scans with Minimum Overlap Using Photogrammetric Data
CN105550428A (en) Bridge security evaluation method based on TLS (three-dimensional laser scanning) technique
Sun et al. Building displacement measurement and analysis based on UAV images
Ergun et al. A case study on the historical peninsula of Istanbul based on three-dimensional modeling by using photogrammetry and terrestrial laser scanning
WO2019242081A1 (en) Cadastral surveying system based on multi-platform laser radar
Turkan et al. Towards automated progress tracking of erection of concrete structures
Turkan et al. Automated progress tracking of erection of concrete structures
Abdel-Maksoud Combining UAV-LiDAR and UAV-photogrammetry for bridge assessment and infrastructure monitoring
Abu Hanipah et al. Development of the 3D dome model based on a terrestrial laser scanner
Zhu et al. Comparison of civil infrastructure optical-based spatial data acquisition techniques
Markovic et al. Application of modern technologies in assessing facade condition of building structures
George et al. Documentation of Cultural Heritage Monuments, by Introducing New Surveying Technologies: Implementation in Sarlitza Pallas, in Thermi Mytilene
Hoensheid Evaluation of surface defect detection in reinforced concrete bridge decks using terrestrial LiDAR
Adjidjonu et al. Optimal UAS Parameters for Aerial Mapping and Modeling

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231128

R150 Certificate of patent or registration of utility model

Ref document number: 7394935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150