JP2019192170A - Three dimensional model generation device and three-dimensional model generation method - Google Patents
Three dimensional model generation device and three-dimensional model generation method Download PDFInfo
- Publication number
- JP2019192170A JP2019192170A JP2018087756A JP2018087756A JP2019192170A JP 2019192170 A JP2019192170 A JP 2019192170A JP 2018087756 A JP2018087756 A JP 2018087756A JP 2018087756 A JP2018087756 A JP 2018087756A JP 2019192170 A JP2019192170 A JP 2019192170A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional model
- measurement
- unnecessary
- unit
- model generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、3次元モデル生成装置及び3次元モデル生成方法に関する。 The present invention relates to a three-dimensional model generation apparatus and a three-dimensional model generation method.
建設現場の生産性向上のため、日々の出来形管理などに、3次元モデル生成手法が活用されつつある(例えば特許文献1)。3次元モデル生成手法としては、LIDAR(Light Detection and Ranging)を用いたSLAM(Simultaneous Localization and Mapping)の技術や、カメラを用いたVisual SLAMやSfM(Structure from Motion)の技術が提案されている。LIDARは、直接距離を測定することができるため、Visual SLAMやSfMに比べて形状の精度が高いが、取得した点群データにはRGB情報が含まれていない。一方、カメラを用いたVisual SLAMやSfMの技術は、RGB情報を持っているが、視差による測量であるため、LIDARに比べて一般的に精度が劣る。 In order to improve productivity at a construction site, a three-dimensional model generation method is being used for daily workmanship management (for example, Patent Document 1). As a three-dimensional model generation method, a SLAM (Simultaneous Localization and Mapping) technique using LIDAR (Light Detection and Ranging) and a Visual SLAM or SfM (Structure from Motion) technique using a camera have been proposed. Since LIDAR can directly measure the distance, the shape accuracy is higher than that of Visual SLAM and SfM, but the acquired point cloud data does not include RGB information. On the other hand, the Visual SLAM and SfM techniques using a camera have RGB information, but are generally inferior in accuracy compared to LIDAR because they are surveyed by parallax.
建設現場には、作業員、重機、資材など、出来形管理の3次元モデルに不要な様々なものが多くある。LIDARを用いて3次元モデルを生成する場合でも、カメラを用いて3次元モデルを生成する場合でも、これら出来形管理に不要なものが写り込んだまま3次元モデルを生成すると、不要物体の形状が測定物体の3次元モデルに残ってしまい、出来形管理の支障となる。また、作業員、重機、資材等は頻繁に動くため、3次元モデルの中にノイズとなって残り、3次元モデルの精度を低下させる。 There are many things on construction sites that are not necessary for the 3D model of workmanship management, such as workers, heavy machinery, and materials. Whether generating a 3D model using LIDAR or a 3D model using a camera, if you generate a 3D model with these unneeded items in the shape management, Remains in the three-dimensional model of the measured object, which hinders the management of the finished shape. In addition, since workers, heavy machinery, materials, and the like frequently move, noise remains in the three-dimensional model, thereby reducing the accuracy of the three-dimensional model.
本発明は、このような課題に鑑みてなされたものであり、不要物体やノイズが混入されることなく、測定対象物の3次元モデルを正確に生成できる3次元モデル生成装置及び3次元モデル生成方法を提供することを目的とする。 The present invention has been made in view of such problems, and a three-dimensional model generation apparatus and a three-dimensional model generation capable of accurately generating a three-dimensional model of an object to be measured without mixing unnecessary objects and noise. It aims to provide a method.
上述の課題を解決するために、本発明の一態様に係る3次元モデル生成装置は、測定対象物を計測して計測データを取得する計測部と、前記測定対象物を撮像する撮像部と、前記撮像部で撮像した画像データから、3次元モデルの生成に不要な物体を判定する抽出物体判定部と、前記抽出物体判定部での判定結果を基に、前記計測部から取得された計測データから、前記3次元モデルの生成に不要な物体に対応する領域の部分を除去し、当該不要な物体に対応する領域の部分が除去された測定対象物の計測データを用いて3次元モデルを生成する3次元モデル生成部とを備えることを特徴とする。 In order to solve the above-described problem, a three-dimensional model generation apparatus according to an aspect of the present invention includes a measurement unit that measures a measurement object and acquires measurement data, an imaging unit that images the measurement object, An extracted object determination unit that determines an object that is unnecessary for generating a three-dimensional model from image data captured by the imaging unit, and measurement data that is acquired from the measurement unit based on a determination result in the extracted object determination unit From this, the part of the region corresponding to the object unnecessary for generating the three-dimensional model is removed, and the three-dimensional model is generated using the measurement data of the measurement object from which the part of the region corresponding to the unnecessary object is removed. And a three-dimensional model generation unit.
本発明の一態様に係る3次元モデル生成方法は、測定対象物を計測して計測データを取得する工程と、前記測定対象物を撮像する工程と、前記撮像した画像データから、3次元モデルの生成に不要な物体を判定する工程と、前記判定した結果を基に、前記計測データから、前記3次元モデルの生成に不要な物体に対応する領域の部分を除去する工程と、前記不要な物体に対応する領域の部分が除去された計測データを用いて3次元モデルを生成する工程とを含むことを特徴とする。 A 3D model generation method according to an aspect of the present invention includes a step of measuring a measurement object to obtain measurement data, a step of imaging the measurement object, and a three-dimensional model from the captured image data. Determining an object unnecessary for generation, removing a portion of a region corresponding to an object unnecessary for generation of the three-dimensional model from the measurement data based on the determination result, and the unnecessary object And a step of generating a three-dimensional model using the measurement data from which the portion of the region corresponding to is removed.
本発明によれば、測定対象物以外の3次元モデルを生成するのに不要な物体が存在する状況において計測を行ったとしても、不要な物体やノイズを含まず、測定対象物のみからなる3次元モデルを正確に生成できる。これにより、測定対象物として施工対象物の出来形を計測して3次元モデルを生成した場合に、出来形の3次元モデルを精度良く生成することができる。 According to the present invention, even if measurement is performed in a situation where an object unnecessary for generating a three-dimensional model other than the measurement object exists, the measurement object 3 does not include an unnecessary object or noise and includes only the measurement object 3 A dimensional model can be generated accurately. Thereby, when the completed shape of a construction target object is measured as a measurement object and a three-dimensional model is generated, the completed three-dimensional model can be generated with high accuracy.
以下、本発明の実施の形態について図面を参照しながら説明する。
<第1の実施形態>
図1は、本発明の第1の実施形態に係る3次元モデル生成装置1の構成を示すブロック図である。図1に示すように、本発明の第1の実施形態に係る3次元モデル生成装置1は、LIDAR(light detection and ranging)10と、カメラ20と、3次元モデル生成部30と、抽出物体判定部40と、表示部50とから構成される。なお、3次元モデル生成部30及び抽出物体判定部40は、PC(Personal Computer)等の画像解析用計算機60により実現することができる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a three-dimensional model generation apparatus 1 according to the first embodiment of the present invention. As shown in FIG. 1, a three-dimensional model generation apparatus 1 according to the first embodiment of the present invention includes a LIDAR (light detection and ranging) 10, a
LIDAR10は、パルスレーザーの反射光を検出して距離計測を行い、周囲の3次元点群データを出力する。LIDAR10は、物体までの距離を点群の深度として計測する距離センサであり、測定対象物を計測して、3次元点群データを計測データとして取得する計測部となる。 The LIDAR 10 measures the distance by detecting the reflected light of the pulse laser and outputs the surrounding three-dimensional point cloud data. The LIDAR 10 is a distance sensor that measures the distance to an object as the depth of a point cloud, and is a measurement unit that measures a measurement target and acquires three-dimensional point cloud data as measurement data.
カメラ20は、周囲の画像を撮像して、RGB画像データを出力する。カメラ20は、測定対象物を撮像する撮像部となる。なお、カメラ20としては、LIDAR10の検出範囲と同等の視野のものを用いることが望ましい。例えば、LIDAR10が周囲360度の計測を行うものであれば、カメラ20としては、周囲360度の撮像が行えるものが望ましい。また、カメラ20は1台とは限らず、カメラ20として複数のカメラを用いてLIDAR10の検出範囲と同等の視野を確保するようにしても良い。また、LIDAR10とカメラ20とは、その座標が対応付けられている。LIDAR10とカメラ20との座標の対応付は、例えばLIDAR10からの3次元点群データとカメラ20からの画像データとの相関に基いて検出することができる。
The
3次元モデル生成部30は、LIDAR10からの3次元点群データを用いて3次元モデルを生成し、表示部50に表示させる。3次元モデル生成部30は、不要物体除去部31と、SLAM(Simultaneous Localization and Mapping)処理部32と、3次元表示画像生成部33とを含む。不要物体除去部31は、抽出物体判定部40の判定出力を基に、LIDAR10から出力される3次元点群データの中から、作業員、重機、資材等、3次元モデルの生成に不要な物体に対応する部分を除去する。SLAM処理部32は、不要物体除去部31で不要部分が除去された3次元点群データを用いて、自己位置推定と環境地図作成とを同時に行い、3次元モデルを生成する。3次元表示画像生成部33は、SLAM処理部32で生成された3次元モデルを用いて、周囲の3次元モデルの表示画像を生成する。
The three-dimensional
抽出物体判定部40は、カメラ20で撮像された画像から、作業員、重機、資材等、3次元モデルの生成に不要な物体を判定し、その判定結果を3次元モデル生成部30に送る。
The extracted
表示部50は、3次元モデル生成部30で生成された3次元モデルを表示する。表示部50としては、例えば、液晶ディスプレイが用いられる。
The
本発明の第1の実施形態に係る3次元モデル生成装置1は、例えば建設現場で出来形管理を行うために用いられる。すなわち、出来形管理を行う場合、LIDAR10により施工対象物がスキャンされ、3次元モデル生成部30により施工対象物の出来形の3次元モデルが生成されて、表示部50に表示される。この3次元モデルを評価することで、出来形管理が行える。
The three-dimensional model generation apparatus 1 according to the first embodiment of the present invention is used, for example, to perform shape management at a construction site. That is, when performing shape management, the construction object is scanned by the LIDAR 10, a three-dimensional model of the construction object is generated by the three-dimensional
このようにして出来形管理を行う場合、必要とされる施工対象物の出来形のみから3次元モデルが生成されれば良い。ところが、建設現場には、作業員、資材、重機などが多くあり、これらは、多方向に移動する。このため、LIDAR10によりスキャンした3次元点群データの中に、このような不要な物体が含まれてしまうと、出来形管理の精度を低下させる。 In this way, when the finished shape management is performed, it is only necessary to generate a three-dimensional model only from the finished shape of the required construction object. However, there are many workers, materials, heavy machinery, etc. on the construction site, and these move in multiple directions. For this reason, if such an unnecessary object is included in the three-dimensional point cloud data scanned by the LIDAR 10, the accuracy of the completed shape management is lowered.
そこで、本実施形態では、抽出物体判定部40により、カメラ20で撮像された画像から、作業員、重機、資材等、建設現場の3次元モデルの生成に不要な物体を判定し、その判定結果を3次元モデル生成部30の不要物体除去部31に送っている。不要物体除去部31は、LIDAR10からの3次元点群データの中から、抽出物体判定部40での判定結果を基に、3次元モデルの生成に不要な物体に対応する部分を除去する。SLAM処理部32は、不要物体除去部31で不要部分が除去された3次元点群データを用いて、SLAM処理を行い、3次元モデルを生成する。これにより、施工対象物の出来形のみから3次元モデルが生成できる。
Therefore, in this embodiment, the extracted
抽出物体判定部40での物体認識には、YOLO(You Look Only Ones)、SSD(Single Shot Multibox Detector)等の深層学習技術を用いた手法が使用できる。図2は、本発明の第1の実施形態に係る3次元モデル生成装置1における抽出物体判定部40での処理の概念図である。
For the object recognition in the extracted
(処理PRC1)抽出物体判定部40は、物体認識を行う場合には、除去したい物体について様々な角度や背景の画像を訓練データとして用いて予め学習させておく。出来形管理では、作業員、重機、資材等が3次元モデルの生成に不要な物体となる。したがって、抽出物体判定部40は、作業員、重機、資材等について、様々な角度や背景の画像群を訓練データとして用意する。例えば、除去したい物体が作業員であれば、作業員が立っている姿勢における正面や側面、背面の画像や、作業中の姿勢を撮像した画像群を訓練データとして用意する。
(Processing PRC1) When performing the object recognition, the extracted
(処理PRC2)抽出物体判定部40は、これらの除去したい物体の訓練データを多数用いて、物体認識の学習を行い、判別モデルを生成する。学習は、例えばAI(Artificial Intelligence)技術を用いた、機械学習、強化学習、複数の中間層を含むニューラルネットワークによるディープラーニングのうちいずれかを用いることができる。また、学習方式としては、教師あり学習であっても教師無し学習であってもよい。
(Processing PRC2) The extracted
(処理PRC3)抽出物体判定部40は、生成された判別モデルを用いて、カメラ20からのRGB画像データから除去したい物体を判別する。抽出物体判定部40は、判定の結果、認識精度が閾値以上の物体の領域を不要物体の部分として不要物体除去部31に送る。
(Processing PRC3) The extracted
以上のようにして、抽出物体判定部40では、カメラ20で撮像された画像から、作業員、重機、資材等、建設現場の3次元モデルの生成に不要な物体をリアルタイムに判定することができる。
As described above, the extracted
なお、この例では、3次元モデルの生成に不要な物体として、作業員、重機、資材等を例に挙げたが、3次元モデルの生成に不要な物体は、これらに限定されるものではない。また、3次元モデルの生成に不要な物体は、周囲の環境、3次元モデルの使用目的等に依存して、様々なものが考えられる。 In this example, workers, heavy equipment, materials, and the like are given as examples of objects unnecessary for generating the three-dimensional model. However, objects unnecessary for generating the three-dimensional model are not limited to these. . Various objects that are unnecessary for generating the three-dimensional model can be considered depending on the surrounding environment, the purpose of use of the three-dimensional model, and the like.
図3は、本発明の第1の実施形態に係る3次元モデル生成装置1の説明に用いるフローチャートである。 FIG. 3 is a flowchart used to describe the three-dimensional model generation apparatus 1 according to the first embodiment of the present invention.
(ステップS1)3次元モデル生成部30は、LIDAR10からの3次元点群データを取得して、処理をステップS2に進める。
(Step S1) The three-dimensional
(ステップS2)抽出物体判定部40は、カメラ20で撮像された画像を解析し、処理をステップS3に進める。画像の解析では、前述したように、学習により生成された判別モデルを用いて、カメラ20からのRGB画像データから、作業員、重機、資材等、3次元モデルの生成する際に不要な物体を判別する。
(Step S2) The extracted
(ステップS3)抽出物体判定部40は、カメラ20で撮像された画像から、3次元モデルを生成する際に不要な物体が認識されたか否かを判定する。3次元モデルを生成する際に不要な物体が認識されたら(ステップS3:Yes)、処理をステップS4に進め、3次元モデルを生成する際に不要な物体が認識されなければ(ステップS3:No)、処理をステップS5に進める。
(Step S3) The extracted
(ステップS4)3次元モデル生成部30は、LIDAR10からの3次元点群データの中から、ステップS3で抽出物体判定部40により認識された領域にある3次元点群データを除去して、処理をステップS5に進める。
(Step S4) The three-dimensional
(ステップS5)3次元モデル生成部30は、3次元点群データを用いてSLAM処理を行って3次元モデルを生成し、処理をステップS6に進める。
(Step S5) The three-dimensional
(ステップS6)3次元モデル生成部30は、SLAM処理部32で生成された3次元モデルを基に、3次元表示画像を生成し、表示部50に表示させる。
(Step S <b> 6) The three-dimensional
(ステップS7)3次元モデル生成部30は、計測処理を終了するか否かを判定し、終了しなければ(ステップS7:No)、処理をステップS1に戻す。計測処理が終了すれば(ステップS7:Yes)、処理は終了となる。
(Step S7) The three-dimensional
以上説明したように、本発明の第1の実施形態では、カメラ20で撮像された画像から、作業員、重機、資材等、建設現場の3次元モデルの生成に不要な物体を判定し、LIDAR10からの3次元点群データの中から、3次元モデルの生成に不要な物体に対応する部分を除去して3次元モデルを生成している。これにより、最終的に生成された3次元モデルにおいてノイズが低減され、正確な出来形の把握ができるようになる。
As described above, in the first embodiment of the present invention, an object unnecessary for generating a three-dimensional model of a construction site, such as a worker, a heavy machine, or a material, is determined from an image captured by the
<第2の実施形態>
図4は、本発明の第2の実施形態に係る3次元モデル生成装置101の構成を示すブロック図である。図4に示すように、本発明の第2の実施形態に係る3次元モデル生成装置101は、カメラ120と、3次元モデル生成部130と、抽出物体判定部140と、表示部150とから構成される。なお、3次元モデル生成部130及び抽出物体判定部140は、PC等の画像解析用計算機160により実現することができる。
<Second Embodiment>
FIG. 4 is a block diagram showing the configuration of the three-dimensional
カメラ120は、周囲の画像を撮像して、RGB画像データを出力する。カメラ120は、測定対象物を計測して計測データを取得する計測部となるとともに、不要物体の抽出に用いられる。なお、この例では1つのカメラ120のみを図示しているが、カメラは複数台あっても良い。また、測定対象物を計測して計測データを取得するカメラと、不要物体の抽出に用いられるカメラとを分けて設けても良い。
The
3次元モデル生成部130は、カメラ120からの画像データを用いて3次元モデルを生成し、表示部150に表示させる。3次元モデル生成部130は、不要物体除去部131と、Visual SLAM処理部132と、3次元表示画像生成部133とを含む。不要物体除去部131は、抽出物体判定部140の判定出力を基に、カメラ120から出力される画像データの中から、作業員、重機、資材等、3次元モデルの生成に不要な物体に対応する部分を除去する。Visual SLAM処理部132は、不要物体除去部131で不要部分が除去された画像データを用いて、自己位置推定と環境地図作成とを同時に行い、3次元モデルを生成する。3次元表示画像生成部133は、Visual SLAM処理部132で生成された3次元モデルを用いて、周囲の3次元モデルの表示画像を生成する。
The three-dimensional
抽出物体判定部140は、カメラ120で撮像された画像から、作業員、重機、資材等、3次元モデルの生成に不要な物体を判定し、その判定結果を3次元モデル生成部130に送る。
The extracted
表示部150は、3次元モデル生成部130で生成された3次元モデルを表示する。表示部150としては、例えば、液晶ディスプレイが用いられる。
The
図1に示した第1の実施形態に係る3次元モデル生成装置1では、LIDAR10から取得された3次元点群データから3次元モデルを生成しているのに対して、この第2の実施形態に係る3次元モデル生成装置101では、カメラ120から取得された画像データから3次元データを推定して、3次元モデルを生成している。ここでは、カメラ120から取得された画像データから3次元データを推定する手法として、Visual SLAMが用いられる。なお、カメラ120から取得された画像データから3次元データを推定する手法として、SfM(Structure from Motion )を用いても良い。他の構成については、第1の実施形態と同様である。
The 3D model generation apparatus 1 according to the first embodiment shown in FIG. 1 generates a 3D model from the 3D point cloud data acquired from the
上述した実施形態における3次元モデル生成装置1及び101の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
You may make it implement | achieve all or one part of the three-dimensional model production |
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design and the like within the scope not departing from the gist of the present invention.
10…LIDAR、20…カメラ、30…3次元モデル生成部、31…不要物体除去部、32…SLAM処理部、120…カメラ、130…3次元モデル生成部、131…不要物体除去部、132…Visual SLAM処理部
DESCRIPTION OF
Claims (6)
前記測定対象物を撮像する撮像部と、
前記撮像部で撮像した画像データから、3次元モデルの生成に不要な物体を判定する抽出物体判定部と、
前記抽出物体判定部での判定結果を基に、前記計測部から取得された計測データから、前記3次元モデルの生成に不要な物体に対応する領域の部分を除去し、当該不要な物体に対応する領域の部分が除去された測定対象物の計測データを用いて3次元モデルを生成する3次元モデル生成部と
を備える3次元モデル生成装置。 A measurement unit that measures a measurement object and obtains measurement data;
An imaging unit for imaging the measurement object;
An extracted object determination unit that determines an object unnecessary for generating a three-dimensional model from the image data captured by the imaging unit;
Based on the determination result in the extracted object determination unit, the portion of the region corresponding to the object unnecessary for generating the three-dimensional model is removed from the measurement data acquired from the measurement unit, and the unnecessary object is supported. A three-dimensional model generation apparatus comprising: a three-dimensional model generation unit that generates a three-dimensional model using measurement data of a measurement object from which a portion of a region to be removed is removed.
請求項1に記載の3次元モデル生成装置。 The three-dimensional model generation apparatus according to claim 1, wherein the measurement unit measures a measurement object with a distance sensor and acquires three-dimensional point cloud data as measurement data.
請求項1に記載の3次元モデル生成装置。 The three-dimensional model generation apparatus according to claim 1, wherein the measurement unit acquires image data obtained by imaging a measurement object as measurement data, and estimates three-dimensional data from the image data.
請求項1又は2に記載の3次元モデル生成装置。 The extracted object determination unit is unnecessary for generating the three-dimensional model from image data captured by the imaging unit using a discrimination model generated by learning from an image including an object unnecessary for generating the three-dimensional model. The three-dimensional model generation device according to claim 1 or 2, wherein a three-dimensional model generation device is determined.
前記判別モデルは、作業員、重機、資材のうち少なくとの何れか1つを対象して撮像された画像群を前記3次元モデルの生成に不要な物体として学習して生成したモデルである
請求項4に記載の3次元モデル生成装置。 The measurement object is a construction object,
The discriminant model is a model generated by learning an image group captured for at least one of a worker, heavy equipment, and materials as an object unnecessary for generating the three-dimensional model. Item 5. The three-dimensional model generation device according to Item 4.
前記測定対象物を撮像する工程と、
前記撮像した画像データから、3次元モデルの生成に不要な物体を判定する工程と、
前記判定した結果を基に、前記計測データから、前記3次元モデルの生成に不要な物体に対応する領域の部分を除去する工程と、
前記不要な物体に対応する領域の部分が除去された計測データを用いて3次元モデルを生成する工程と、
を含む3次元モデル生成方法。 Measuring the measurement object and obtaining measurement data;
Imaging the measurement object;
Determining an object unnecessary for generating the three-dimensional model from the captured image data;
Removing a portion of a region corresponding to an object unnecessary for generating the three-dimensional model from the measurement data based on the determination result;
Generating a three-dimensional model using measurement data from which a portion of a region corresponding to the unnecessary object is removed;
A three-dimensional model generation method including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018087756A JP7133971B2 (en) | 2018-04-27 | 2018-04-27 | 3D model generation device and 3D model generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018087756A JP7133971B2 (en) | 2018-04-27 | 2018-04-27 | 3D model generation device and 3D model generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019192170A true JP2019192170A (en) | 2019-10-31 |
JP7133971B2 JP7133971B2 (en) | 2022-09-09 |
Family
ID=68391339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018087756A Active JP7133971B2 (en) | 2018-04-27 | 2018-04-27 | 3D model generation device and 3D model generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7133971B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021179365A (en) * | 2020-05-14 | 2021-11-18 | 株式会社オービタルネット | Information processing device, information processing method, and computer program |
CN115292785A (en) * | 2022-08-06 | 2022-11-04 | 中铁六局集团有限公司 | Method, device, equipment and storage medium for pre-assembling steel structure close to existing line |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011070927A1 (en) * | 2009-12-11 | 2011-06-16 | 株式会社トプコン | Point group data processing device, point group data processing method, and point group data processing program |
JP2015165420A (en) * | 2013-05-31 | 2015-09-17 | パナソニックIpマネジメント株式会社 | Modeling device, three-dimensional model generation apparatus, modeling method, program and layout simulator |
WO2016139819A1 (en) * | 2015-03-03 | 2016-09-09 | 株式会社岩崎 | Ground-shape estimation program, ground-shape estimation device, and ground-shape estimation method |
JP2017107443A (en) * | 2015-12-10 | 2017-06-15 | 株式会社大林組 | Situation determination system, situation determination method, and situation determination program |
-
2018
- 2018-04-27 JP JP2018087756A patent/JP7133971B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011070927A1 (en) * | 2009-12-11 | 2011-06-16 | 株式会社トプコン | Point group data processing device, point group data processing method, and point group data processing program |
JP2015165420A (en) * | 2013-05-31 | 2015-09-17 | パナソニックIpマネジメント株式会社 | Modeling device, three-dimensional model generation apparatus, modeling method, program and layout simulator |
WO2016139819A1 (en) * | 2015-03-03 | 2016-09-09 | 株式会社岩崎 | Ground-shape estimation program, ground-shape estimation device, and ground-shape estimation method |
JP2017107443A (en) * | 2015-12-10 | 2017-06-15 | 株式会社大林組 | Situation determination system, situation determination method, and situation determination program |
Non-Patent Citations (1)
Title |
---|
"GPSから3次元レーザスキャナーまで 測量最前線 New Waves of Surveying", CAD&CG MAGAZINE, vol. 第5巻 第12号, JPN6022002232, 1 December 2003 (2003-12-01), ISSN: 0004688989 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021179365A (en) * | 2020-05-14 | 2021-11-18 | 株式会社オービタルネット | Information processing device, information processing method, and computer program |
CN115292785A (en) * | 2022-08-06 | 2022-11-04 | 中铁六局集团有限公司 | Method, device, equipment and storage medium for pre-assembling steel structure close to existing line |
CN115292785B (en) * | 2022-08-06 | 2024-03-22 | 中铁六局集团有限公司 | Pre-assembly method, device, equipment and storage medium for adjacent existing wire steel structure |
Also Published As
Publication number | Publication date |
---|---|
JP7133971B2 (en) | 2022-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Applicability of personal laser scanning in forestry inventory | |
CN112288742B (en) | Navigation method and device for ultrasonic probe, storage medium and electronic equipment | |
US10068344B2 (en) | Method and system for 3D capture based on structure from motion with simplified pose detection | |
CN103988226B (en) | Method for estimating camera motion and for determining real border threedimensional model | |
CN107077735A (en) | Three dimensional object is recognized | |
CN103959307B (en) | The method of detection and Expressive Features from gray level image | |
US20100042382A1 (en) | Method and Apparatus for Localizing and Mapping the Position of a Set of Points on a Digital Model | |
CN105700525B (en) | Method is built based on Kinect sensor depth map robot working environment uncertainty map | |
JP2018522345A5 (en) | ||
JP2011185872A (en) | Information processor, and processing method and program of the same | |
JP2015147256A (en) | Robot, robot system, control device, and control method | |
JP2012533222A (en) | Image-based surface tracking | |
JP2017103602A (en) | Position detection device, and position detection method and program | |
JP2008275391A (en) | Position attitude measurement device and method | |
KR102263152B1 (en) | Method and apparatus for object detection in 3d point clouds | |
CN114119864A (en) | Positioning method and device based on three-dimensional reconstruction and point cloud matching | |
JP7306192B2 (en) | Synthesis processing device, synthesis processing system, and synthesis processing method | |
JP6821326B2 (en) | Information processing equipment, measurement systems, information processing methods and programs | |
JP7133971B2 (en) | 3D model generation device and 3D model generation method | |
Guo et al. | 3D scanning of live pigs system and its application in body measurements | |
CN111047699A (en) | Seabed detection image display method, device, equipment and storage medium | |
CN112883920A (en) | Point cloud deep learning-based three-dimensional face scanning feature point detection method and device | |
Song et al. | Calibration of event-based camera and 3d lidar | |
JP3919722B2 (en) | Skin shape measuring method and skin shape measuring apparatus | |
Albrecht et al. | Seeing the unseen: Simple reconstruction of transparent objects from point cloud data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220325 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7133971 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |