JP7133971B2 - 3D model generation device and 3D model generation method - Google Patents
3D model generation device and 3D model generation method Download PDFInfo
- Publication number
- JP7133971B2 JP7133971B2 JP2018087756A JP2018087756A JP7133971B2 JP 7133971 B2 JP7133971 B2 JP 7133971B2 JP 2018087756 A JP2018087756 A JP 2018087756A JP 2018087756 A JP2018087756 A JP 2018087756A JP 7133971 B2 JP7133971 B2 JP 7133971B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional model
- unnecessary
- model
- generating
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、3次元モデル生成装置及び3次元モデル生成方法に関する。 The present invention relates to a three-dimensional model generation device and a three-dimensional model generation method.
建設現場の生産性向上のため、日々の出来形管理などに、3次元モデル生成手法が活用されつつある(例えば特許文献1)。3次元モデル生成手法としては、LIDAR(Light Detection and Ranging)を用いたSLAM(Simultaneous Localization and Mapping)の技術や、カメラを用いたVisual SLAMやSfM(Structure from Motion)の技術が提案されている。LIDARは、直接距離を測定することができるため、Visual SLAMやSfMに比べて形状の精度が高いが、取得した点群データにはRGB情報が含まれていない。一方、カメラを用いたVisual SLAMやSfMの技術は、RGB情報を持っているが、視差による測量であるため、LIDARに比べて一般的に精度が劣る。 In order to improve productivity at construction sites, a three-dimensional model generation method is being used for daily work management, etc. (for example, Patent Document 1). SLAM (Simultaneous Localization and Mapping) technology using LIDAR (Light Detection and Ranging), and Visual SLAM and SfM (Structure from Motion) technology using cameras have been proposed as three-dimensional model generation methods. Since LIDAR can measure distance directly, LIDAR has higher shape accuracy than Visual SLAM and SfM, but the acquired point cloud data does not include RGB information. On the other hand, Visual SLAM and SfM techniques using a camera have RGB information, but are generally less accurate than LIDAR because they are surveys based on parallax.
建設現場には、作業員、重機、資材など、出来形管理の3次元モデルに不要な様々なものが多くある。LIDARを用いて3次元モデルを生成する場合でも、カメラを用いて3次元モデルを生成する場合でも、これら出来形管理に不要なものが写り込んだまま3次元モデルを生成すると、不要物体の形状が測定物体の3次元モデルに残ってしまい、出来形管理の支障となる。また、作業員、重機、資材等は頻繁に動くため、3次元モデルの中にノイズとなって残り、3次元モデルの精度を低下させる。 At a construction site, there are many things such as workers, heavy machinery, materials, etc. that are unnecessary for a 3D model for workmanship management. Whether a 3D model is generated using LIDAR or a 3D model using a camera, if a 3D model is generated with objects that are unnecessary for finished shape management reflected in the image, the shape of the unnecessary object will be lost. remains in the three-dimensional model of the measured object, which hinders finished product management. In addition, since workers, heavy machinery, materials, etc. move frequently, they remain as noise in the three-dimensional model, reducing the accuracy of the three-dimensional model.
本発明は、このような課題に鑑みてなされたものであり、不要物体やノイズが混入されることなく、測定対象物の3次元モデルを正確に生成できる3次元モデル生成装置及び3次元モデル生成方法を提供することを目的とする。 The present invention has been made in view of such problems, and provides a three-dimensional model generating apparatus and a three-dimensional model generating apparatus capable of accurately generating a three-dimensional model of an object to be measured without mixing unnecessary objects or noise. The purpose is to provide a method.
上述の課題を解決するために、本発明の一態様に係る3次元モデル生成装置は、測定対象物を計測して計測データを取得する計測部と、前記測定対象物を撮像する撮像部と、前記撮像部で撮像した画像データから、3次元モデルの生成に不要な物体を判定する抽出物体判定部と、前記抽出物体判定部での判定結果を基に、前記計測部から取得された計測データから、前記3次元モデルの生成に不要な物体に対応する領域の部分を除去し、当該不要な物体に対応する領域の部分が除去された測定対象物の計測データを用いて3次元モデルを生成する3次元モデル生成部と、を有し、前記抽出物体判定部は、前記3次元モデルの生成に不要な物体を含む画像から学習により生成された判別モデルを用いて、前記撮像部で撮像した画像データから、前記3次元モデルの生成に不要な物体を判定することを特徴とする。 In order to solve the above-described problems, a three-dimensional model generation device according to an aspect of the present invention includes a measurement unit that measures a measurement object and acquires measurement data, an imaging unit that images the measurement object, an extracted object determination unit that determines an object unnecessary for generating a three-dimensional model from the image data captured by the imaging unit; and measurement data obtained from the measurement unit based on the determination result of the extracted object determination unit. Generating a three-dimensional model using the measurement data of the measurement object from which the region corresponding to the object unnecessary for the generation of the three-dimensional model is removed, and from which the region corresponding to the unnecessary object is removed and a three-dimensional model generation unit for generating the three-dimensional model , wherein the extracted object determination unit uses a discrimination model generated by learning from an image including an object unnecessary for generation of the three-dimensional model, and the image is captured by the imaging unit. It is characterized in that an unnecessary object for generating the three-dimensional model is determined from the image data .
本発明の一態様に係る3次元モデル生成方法は、測定対象物を計測して計測データを取得する工程と、前記測定対象物を撮像する工程と、前記撮像した画像データから、3次元モデルの生成に不要な物体を判定する工程と、前記判定した結果を基に、前記計測データから、前記3次元モデルの生成に不要な物体に対応する領域の部分を除去する工程と、前記不要な物体に対応する領域の部分が除去された計測データを用いて3次元モデルを生成する工程と、を含み、前記判定する工程は、前記3次元モデルの生成に不要な物体を含む画像から学習により生成された判別モデルを用いて、前記撮像する工程で撮像した画像データから、前記3次元モデルの生成に不要な物体を判定することを含むことを特徴とする。 A three-dimensional model generation method according to an aspect of the present invention includes the steps of measuring a measurement object to acquire measurement data, imaging the measurement object, and generating a three-dimensional model from the image data obtained. a step of determining an object unnecessary for generation; a step of removing a portion of a region corresponding to the object unnecessary for generation of the three-dimensional model from the measurement data based on the result of the determination; and generating a three-dimensional model using measurement data from which a portion of the area corresponding to Using the generated discriminant model, the image data captured in the imaging step is characterized by determining an object unnecessary for generation of the three-dimensional model .
本発明によれば、測定対象物以外の3次元モデルを生成するのに不要な物体が存在する状況において計測を行ったとしても、不要な物体やノイズを含まず、測定対象物のみからなる3次元モデルを正確に生成できる。これにより、測定対象物として施工対象物の出来形を計測して3次元モデルを生成した場合に、出来形の3次元モデルを精度良く生成することができる。 According to the present invention, even if measurement is performed in the presence of objects unnecessary for generating a three-dimensional model other than the object to be measured, the three-dimensional model consisting of only the object to be measured does not include unnecessary objects or noise. Dimensional models can be generated accurately. As a result, when a three-dimensional model is generated by measuring the finished shape of a construction object as a measurement object, the three-dimensional model of the finished shape can be generated with high accuracy.
以下、本発明の実施の形態について図面を参照しながら説明する。
<第1の実施形態>
図1は、本発明の第1の実施形態に係る3次元モデル生成装置1の構成を示すブロック図である。図1に示すように、本発明の第1の実施形態に係る3次元モデル生成装置1は、LIDAR(light detection and ranging)10と、カメラ20と、3次元モデル生成部30と、抽出物体判定部40と、表示部50とから構成される。なお、3次元モデル生成部30及び抽出物体判定部40は、PC(Personal Computer)等の画像解析用計算機60により実現することができる。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<First Embodiment>
FIG. 1 is a block diagram showing the configuration of a three-dimensional
LIDAR10は、パルスレーザーの反射光を検出して距離計測を行い、周囲の3次元点群データを出力する。LIDAR10は、物体までの距離を点群の深度として計測する距離センサであり、測定対象物を計測して、3次元点群データを計測データとして取得する計測部となる。 The LIDAR 10 detects the reflected light of the pulse laser, performs distance measurement, and outputs surrounding three-dimensional point cloud data. The LIDAR 10 is a distance sensor that measures the distance to an object as the depth of a point cloud, and serves as a measurement unit that measures a measurement target and acquires three-dimensional point cloud data as measurement data.
カメラ20は、周囲の画像を撮像して、RGB画像データを出力する。カメラ20は、測定対象物を撮像する撮像部となる。なお、カメラ20としては、LIDAR10の検出範囲と同等の視野のものを用いることが望ましい。例えば、LIDAR10が周囲360度の計測を行うものであれば、カメラ20としては、周囲360度の撮像が行えるものが望ましい。また、カメラ20は1台とは限らず、カメラ20として複数のカメラを用いてLIDAR10の検出範囲と同等の視野を確保するようにしても良い。また、LIDAR10とカメラ20とは、その座標が対応付けられている。LIDAR10とカメラ20との座標の対応付は、例えばLIDAR10からの3次元点群データとカメラ20からの画像データとの相関に基いて検出することができる。
The
3次元モデル生成部30は、LIDAR10からの3次元点群データを用いて3次元モデルを生成し、表示部50に表示させる。3次元モデル生成部30は、不要物体除去部31と、SLAM(Simultaneous Localization and Mapping)処理部32と、3次元表示画像生成部33とを含む。不要物体除去部31は、抽出物体判定部40の判定出力を基に、LIDAR10から出力される3次元点群データの中から、作業員、重機、資材等、3次元モデルの生成に不要な物体に対応する部分を除去する。SLAM処理部32は、不要物体除去部31で不要部分が除去された3次元点群データを用いて、自己位置推定と環境地図作成とを同時に行い、3次元モデルを生成する。3次元表示画像生成部33は、SLAM処理部32で生成された3次元モデルを用いて、周囲の3次元モデルの表示画像を生成する。
The 3D
抽出物体判定部40は、カメラ20で撮像された画像から、作業員、重機、資材等、3次元モデルの生成に不要な物体を判定し、その判定結果を3次元モデル生成部30に送る。
The extracted
表示部50は、3次元モデル生成部30で生成された3次元モデルを表示する。表示部50としては、例えば、液晶ディスプレイが用いられる。
The
本発明の第1の実施形態に係る3次元モデル生成装置1は、例えば建設現場で出来形管理を行うために用いられる。すなわち、出来形管理を行う場合、LIDAR10により施工対象物がスキャンされ、3次元モデル生成部30により施工対象物の出来形の3次元モデルが生成されて、表示部50に表示される。この3次元モデルを評価することで、出来形管理が行える。
A three-dimensional
このようにして出来形管理を行う場合、必要とされる施工対象物の出来形のみから3次元モデルが生成されれば良い。ところが、建設現場には、作業員、資材、重機などが多くあり、これらは、多方向に移動する。このため、LIDAR10によりスキャンした3次元点群データの中に、このような不要な物体が含まれてしまうと、出来形管理の精度を低下させる。 When performing finished shape management in this way, it is sufficient to generate a three-dimensional model only from the finished shape of the required construction object. However, at a construction site, there are many workers, materials, heavy machinery, etc., and these move in multiple directions. Therefore, if such an unnecessary object is included in the three-dimensional point cloud data scanned by the LIDAR 10, the accuracy of finished shape management is lowered.
そこで、本実施形態では、抽出物体判定部40により、カメラ20で撮像された画像から、作業員、重機、資材等、建設現場の3次元モデルの生成に不要な物体を判定し、その判定結果を3次元モデル生成部30の不要物体除去部31に送っている。不要物体除去部31は、LIDAR10からの3次元点群データの中から、抽出物体判定部40での判定結果を基に、3次元モデルの生成に不要な物体に対応する部分を除去する。SLAM処理部32は、不要物体除去部31で不要部分が除去された3次元点群データを用いて、SLAM処理を行い、3次元モデルを生成する。これにより、施工対象物の出来形のみから3次元モデルが生成できる。
Therefore, in this embodiment, the extracted
抽出物体判定部40での物体認識には、YOLO(You Look Only Ones)、SSD(Single Shot Multibox Detector)等の深層学習技術を用いた手法が使用できる。図2は、本発明の第1の実施形態に係る3次元モデル生成装置1における抽出物体判定部40での処理の概念図である。
For object recognition in the extracted
(処理PRC1)抽出物体判定部40は、物体認識を行う場合には、除去したい物体について様々な角度や背景の画像を訓練データとして用いて予め学習させておく。出来形管理では、作業員、重機、資材等が3次元モデルの生成に不要な物体となる。したがって、抽出物体判定部40は、作業員、重機、資材等について、様々な角度や背景の画像群を訓練データとして用意する。例えば、除去したい物体が作業員であれば、作業員が立っている姿勢における正面や側面、背面の画像や、作業中の姿勢を撮像した画像群を訓練データとして用意する。
(Processing PRC1) When performing object recognition, the extracted
(処理PRC2)抽出物体判定部40は、これらの除去したい物体の訓練データを多数用いて、物体認識の学習を行い、判別モデルを生成する。学習は、例えばAI(Artificial Intelligence)技術を用いた、機械学習、強化学習、複数の中間層を含むニューラルネットワークによるディープラーニングのうちいずれかを用いることができる。また、学習方式としては、教師あり学習であっても教師無し学習であってもよい。
(Processing PRC2) The extracted
(処理PRC3)抽出物体判定部40は、生成された判別モデルを用いて、カメラ20からのRGB画像データから除去したい物体を判別する。抽出物体判定部40は、判定の結果、認識精度が閾値以上の物体の領域を不要物体の部分として不要物体除去部31に送る。
(Processing PRC3) The extraction
以上のようにして、抽出物体判定部40では、カメラ20で撮像された画像から、作業員、重機、資材等、建設現場の3次元モデルの生成に不要な物体をリアルタイムに判定することができる。
As described above, the extracted
なお、この例では、3次元モデルの生成に不要な物体として、作業員、重機、資材等を例に挙げたが、3次元モデルの生成に不要な物体は、これらに限定されるものではない。また、3次元モデルの生成に不要な物体は、周囲の環境、3次元モデルの使用目的等に依存して、様々なものが考えられる。 In this example, workers, heavy machinery, materials, and the like are cited as examples of objects that are unnecessary for generating a 3D model, but objects that are unnecessary for generating a 3D model are not limited to these. . Also, various objects are conceivable as unnecessary objects for generating a three-dimensional model, depending on the surrounding environment, purpose of use of the three-dimensional model, and the like.
図3は、本発明の第1の実施形態に係る3次元モデル生成装置1の説明に用いるフローチャートである。
FIG. 3 is a flowchart used for explaining the three-dimensional
(ステップS1)3次元モデル生成部30は、LIDAR10からの3次元点群データを取得して、処理をステップS2に進める。
(Step S1) The
(ステップS2)抽出物体判定部40は、カメラ20で撮像された画像を解析し、処理をステップS3に進める。画像の解析では、前述したように、学習により生成された判別モデルを用いて、カメラ20からのRGB画像データから、作業員、重機、資材等、3次元モデルの生成する際に不要な物体を判別する。
(Step S2) The extracted
(ステップS3)抽出物体判定部40は、カメラ20で撮像された画像から、3次元モデルを生成する際に不要な物体が認識されたか否かを判定する。3次元モデルを生成する際に不要な物体が認識されたら(ステップS3:Yes)、処理をステップS4に進め、3次元モデルを生成する際に不要な物体が認識されなければ(ステップS3:No)、処理をステップS5に進める。
(Step S3) The extracted
(ステップS4)3次元モデル生成部30は、LIDAR10からの3次元点群データの中から、ステップS3で抽出物体判定部40により認識された領域にある3次元点群データを除去して、処理をステップS5に進める。
(Step S4) The 3D
(ステップS5)3次元モデル生成部30は、3次元点群データを用いてSLAM処理を行って3次元モデルを生成し、処理をステップS6に進める。
(Step S5) The 3D
(ステップS6)3次元モデル生成部30は、SLAM処理部32で生成された3次元モデルを基に、3次元表示画像を生成し、表示部50に表示させる。
(Step S6) The 3D
(ステップS7)3次元モデル生成部30は、計測処理を終了するか否かを判定し、終了しなければ(ステップS7:No)、処理をステップS1に戻す。計測処理が終了すれば(ステップS7:Yes)、処理は終了となる。
(Step S7) The three-dimensional
以上説明したように、本発明の第1の実施形態では、カメラ20で撮像された画像から、作業員、重機、資材等、建設現場の3次元モデルの生成に不要な物体を判定し、LIDAR10からの3次元点群データの中から、3次元モデルの生成に不要な物体に対応する部分を除去して3次元モデルを生成している。これにより、最終的に生成された3次元モデルにおいてノイズが低減され、正確な出来形の把握ができるようになる。
As described above, in the first embodiment of the present invention, objects such as workers, heavy machinery, and materials that are unnecessary for generating a three-dimensional model of a construction site are determined from an image captured by the
<第2の実施形態>
図4は、本発明の第2の実施形態に係る3次元モデル生成装置101の構成を示すブロック図である。図4に示すように、本発明の第2の実施形態に係る3次元モデル生成装置101は、カメラ120と、3次元モデル生成部130と、抽出物体判定部140と、表示部150とから構成される。なお、3次元モデル生成部130及び抽出物体判定部140は、PC等の画像解析用計算機160により実現することができる。
<Second embodiment>
FIG. 4 is a block diagram showing the configuration of a 3D
カメラ120は、周囲の画像を撮像して、RGB画像データを出力する。カメラ120は、測定対象物を計測して計測データを取得する計測部となるとともに、不要物体の抽出に用いられる。なお、この例では1つのカメラ120のみを図示しているが、カメラは複数台あっても良い。また、測定対象物を計測して計測データを取得するカメラと、不要物体の抽出に用いられるカメラとを分けて設けても良い。
3次元モデル生成部130は、カメラ120からの画像データを用いて3次元モデルを生成し、表示部150に表示させる。3次元モデル生成部130は、不要物体除去部131と、Visual SLAM処理部132と、3次元表示画像生成部133とを含む。不要物体除去部131は、抽出物体判定部140の判定出力を基に、カメラ120から出力される画像データの中から、作業員、重機、資材等、3次元モデルの生成に不要な物体に対応する部分を除去する。Visual SLAM処理部132は、不要物体除去部131で不要部分が除去された画像データを用いて、自己位置推定と環境地図作成とを同時に行い、3次元モデルを生成する。3次元表示画像生成部133は、Visual SLAM処理部132で生成された3次元モデルを用いて、周囲の3次元モデルの表示画像を生成する。
The 3D
抽出物体判定部140は、カメラ120で撮像された画像から、作業員、重機、資材等、3次元モデルの生成に不要な物体を判定し、その判定結果を3次元モデル生成部130に送る。
The extracted
表示部150は、3次元モデル生成部130で生成された3次元モデルを表示する。表示部150としては、例えば、液晶ディスプレイが用いられる。
The
図1に示した第1の実施形態に係る3次元モデル生成装置1では、LIDAR10から取得された3次元点群データから3次元モデルを生成しているのに対して、この第2の実施形態に係る3次元モデル生成装置101では、カメラ120から取得された画像データから3次元データを推定して、3次元モデルを生成している。ここでは、カメラ120から取得された画像データから3次元データを推定する手法として、Visual SLAMが用いられる。なお、カメラ120から取得された画像データから3次元データを推定する手法として、SfM(Structure from Motion )を用いても良い。他の構成については、第1の実施形態と同様である。
In the three-dimensional
上述した実施形態における3次元モデル生成装置1及び101の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
All or part of the 3D
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiment of the present invention has been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and design and the like are included within the scope of the gist of the present invention.
10…LIDAR、20…カメラ、30…3次元モデル生成部、31…不要物体除去部、32…SLAM処理部、120…カメラ、130…3次元モデル生成部、131…不要物体除去部、132…Visual SLAM処理部
Claims (4)
前記測定対象物を撮像する撮像部と、
前記撮像部で撮像した画像データから、3次元モデルの生成に不要な物体を判定する抽出物体判定部と、
前記抽出物体判定部での判定結果を基に、前記計測部から取得された計測データから、前記3次元モデルの生成に不要な物体に対応する領域の部分を除去し、当該不要な物体に対応する領域の部分が除去された測定対象物の計測データを用いて3次元モデルを生成する3次元モデル生成部と、を有し、
前記抽出物体判定部は、前記3次元モデルの生成に不要な物体を含む画像から学習により生成された判別モデルを用いて、前記撮像部で撮像した画像データから、前記3次元モデルの生成に不要な物体を判定する
3次元モデル生成装置。 a measurement unit that measures an object to be measured and acquires measurement data;
an imaging unit that captures an image of the object to be measured;
an extracted object determination unit that determines objects unnecessary for generating a three-dimensional model from the image data captured by the imaging unit;
Based on the result of determination by the extracted object determination unit, a region corresponding to an unnecessary object for generating the three-dimensional model is removed from the measurement data acquired by the measurement unit, and the unnecessary object is handled. a three-dimensional model generation unit that generates a three-dimensional model using the measurement data of the measurement object from which the portion of the region to be measured is removed ;
The extracted object determination unit uses a discriminant model generated by learning from an image including an object unnecessary for generation of the three-dimensional model, and extracts the object unnecessary for generation of the three-dimensional model from the image data captured by the imaging unit. object
3D model generator.
請求項1に記載の3次元モデル生成装置。 The three-dimensional model generation device according to claim 1, wherein the measurement unit measures the object to be measured with a distance sensor and acquires three-dimensional point cloud data as measurement data.
前記判別モデルは、作業員、重機、資材のうち少なくとの何れか1つを対象して撮像された画像群を前記3次元モデルの生成に不要な物体として学習して生成したモデルである
請求項1に記載の3次元モデル生成装置。 The object to be measured is a construction object,
The discriminant model is a model generated by learning a group of images taken of at least one of workers, heavy machinery, and materials as objects unnecessary for generating the three-dimensional model. 3. The three-dimensional model generation device according to item 1 .
前記測定対象物を撮像する工程と、
前記撮像した画像データから、3次元モデルの生成に不要な物体を判定する工程と、
前記判定した結果を基に、前記計測データから、前記3次元モデルの生成に不要な物体に対応する領域の部分を除去する工程と、
前記不要な物体に対応する領域の部分が除去された計測データを用いて3次元モデルを生成する工程と、
を含み、
前記判定する工程は、前記3次元モデルの生成に不要な物体を含む画像から学習により生成された判別モデルを用いて、前記撮像する工程で撮像した画像データから、前記3次元モデルの生成に不要な物体を判定することを含む
3次元モデル生成方法。 a step of measuring an object to be measured to obtain measurement data;
imaging the object to be measured;
a step of determining an unnecessary object for generating a three-dimensional model from the captured image data;
a step of removing, from the measurement data, a portion of a region corresponding to an object unnecessary for generating the three-dimensional model, based on the determined result;
generating a three-dimensional model using the measurement data from which the portion of the region corresponding to the unnecessary object has been removed;
including
The determining step uses a discriminant model generated by learning from an image including an object unnecessary for generating the three-dimensional model, from the image data captured in the imaging step, unnecessary for generating the three-dimensional model. including determining objects that are
3D model generation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018087756A JP7133971B2 (en) | 2018-04-27 | 2018-04-27 | 3D model generation device and 3D model generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018087756A JP7133971B2 (en) | 2018-04-27 | 2018-04-27 | 3D model generation device and 3D model generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019192170A JP2019192170A (en) | 2019-10-31 |
JP7133971B2 true JP7133971B2 (en) | 2022-09-09 |
Family
ID=68391339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018087756A Active JP7133971B2 (en) | 2018-04-27 | 2018-04-27 | 3D model generation device and 3D model generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7133971B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6762636B1 (en) * | 2020-05-14 | 2020-09-30 | 株式会社オービタルネット | Information processing equipment, information processing methods, and computer programs |
CN115292785B (en) * | 2022-08-06 | 2024-03-22 | 中铁六局集团有限公司 | Pre-assembly method, device, equipment and storage medium for adjacent existing wire steel structure |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011070927A1 (en) | 2009-12-11 | 2011-06-16 | 株式会社トプコン | Point group data processing device, point group data processing method, and point group data processing program |
JP2015165420A (en) | 2013-05-31 | 2015-09-17 | パナソニックIpマネジメント株式会社 | Modeling device, three-dimensional model generation apparatus, modeling method, program and layout simulator |
WO2016139819A1 (en) | 2015-03-03 | 2016-09-09 | 株式会社岩崎 | Ground-shape estimation program, ground-shape estimation device, and ground-shape estimation method |
JP2017107443A (en) | 2015-12-10 | 2017-06-15 | 株式会社大林組 | Situation determination system, situation determination method, and situation determination program |
-
2018
- 2018-04-27 JP JP2018087756A patent/JP7133971B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011070927A1 (en) | 2009-12-11 | 2011-06-16 | 株式会社トプコン | Point group data processing device, point group data processing method, and point group data processing program |
JP2015165420A (en) | 2013-05-31 | 2015-09-17 | パナソニックIpマネジメント株式会社 | Modeling device, three-dimensional model generation apparatus, modeling method, program and layout simulator |
WO2016139819A1 (en) | 2015-03-03 | 2016-09-09 | 株式会社岩崎 | Ground-shape estimation program, ground-shape estimation device, and ground-shape estimation method |
JP2017107443A (en) | 2015-12-10 | 2017-06-15 | 株式会社大林組 | Situation determination system, situation determination method, and situation determination program |
Non-Patent Citations (1)
Title |
---|
GPSから3次元レーザスキャナーまで 測量最前線 New Waves of Surveying,CAD&CG MAGAZINE,第5巻 第12号,2003年12月01日 |
Also Published As
Publication number | Publication date |
---|---|
JP2019192170A (en) | 2019-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10977818B2 (en) | Machine learning based model localization system | |
JP5618569B2 (en) | Position and orientation estimation apparatus and method | |
CN107077735A (en) | Three dimensional object is recognized | |
CN103988226B (en) | Method for estimating camera motion and for determining real border threedimensional model | |
CN113362444B (en) | Point cloud data generation method and device, electronic equipment and storage medium | |
JP6955783B2 (en) | Information processing methods, equipment, cloud processing devices and computer program products | |
JP6397379B2 (en) | CHANGE AREA DETECTION DEVICE, METHOD, AND PROGRAM | |
JP2008304268A (en) | Information processor, information processing method, and computer program | |
CN114119864A (en) | Positioning method and device based on three-dimensional reconstruction and point cloud matching | |
Kang et al. | Accurate fruit localisation using high resolution LiDAR-camera fusion and instance segmentation | |
CN115330958A (en) | Real-time three-dimensional reconstruction method and device based on laser radar | |
KR102186733B1 (en) | 3D modeling method for undersea topography | |
KR102263152B1 (en) | Method and apparatus for object detection in 3d point clouds | |
JP7306192B2 (en) | Synthesis processing device, synthesis processing system, and synthesis processing method | |
JP7133971B2 (en) | 3D model generation device and 3D model generation method | |
Jin et al. | An Indoor Location‐Based Positioning System Using Stereo Vision with the Drone Camera | |
CN109284653A (en) | Slender body detection based on computer vision | |
CN110136186A (en) | A kind of detection target matching method for mobile robot object ranging | |
Wu et al. | Fishery monitoring system with AUV based on YOLO and SGBM | |
CN111047699A (en) | Seabed detection image display method, device, equipment and storage medium | |
CN113496163B (en) | Obstacle recognition method and device | |
KR20230049969A (en) | Method and apparatus for global localization | |
CN112883920A (en) | Point cloud deep learning-based three-dimensional face scanning feature point detection method and device | |
CN110458177B (en) | Method for acquiring image depth information, image processing device and storage medium | |
Suttasupa et al. | Plane detection for Kinect image sequences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220325 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7133971 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |