JP7274782B1 - 建屋内構造物認識システム及び建屋内構造物認識方法 - Google Patents
建屋内構造物認識システム及び建屋内構造物認識方法 Download PDFInfo
- Publication number
- JP7274782B1 JP7274782B1 JP2021201084A JP2021201084A JP7274782B1 JP 7274782 B1 JP7274782 B1 JP 7274782B1 JP 2021201084 A JP2021201084 A JP 2021201084A JP 2021201084 A JP2021201084 A JP 2021201084A JP 7274782 B1 JP7274782 B1 JP 7274782B1
- Authority
- JP
- Japan
- Prior art keywords
- data
- measured
- imaging device
- building
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 21
- 238000003384 imaging method Methods 0.000 claims abstract description 95
- 230000004807 localization Effects 0.000 claims abstract description 5
- 238000013507 mapping Methods 0.000 claims abstract description 5
- 238000005259 measurement Methods 0.000 claims description 45
- 238000010801 machine learning Methods 0.000 claims description 26
- 238000009877 rendering Methods 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 abstract description 24
- 238000012545 processing Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 239000002131 composite material Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000004566 building material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明においては、建築現場で基準としてよいものを認識すべく学習させたAIにより、建築現場で基準とすべきものを認識し、その基準とすべきものの位置に基づき座標位置が重なり合う座標変換を行うことにより、複数の撮像画像を重ね合わせて、施工中の建物内のデータ全体を取得するものである。
本発明によれば、この人間が自分の持つ知識をもとに行っている作業と同様の効果をAIを用いて実現することが可能となり、作業の効率化を図るとともに、建屋内の構造物の高精度な認識を実現することができる。
本発明の他の目的、特徴および利点は添付図面に関する以下の本発明の実施例の記載から明らかになるであろう。
本発明による建屋内構造物認識システム1は、少なくとも1つの測距センサ20と、少なくとも1つの撮像装置30と、SLAM(Simultaneous Localization and Mapping)計測装置10とを備え、SLAM計測装置10は、第1の学習済モデルM1を用いて基準部材の認識を行う基準認識部101と、第2の学習済モデルM2を用いて撮像装置の自己位置の認識を行う自己位置認識部102と、第3の学習済モデルM3を用いて建屋内の被測定物の認識を行う被測定物認識部103とを備える。
第1の学習済モデルM1は、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより生成される。第1の学習済モデルM1は、SLAM測定装置10による測定の前に予め機械学習モデル生成装置40により生成される。
基準認識部101は、撮像装置30から得られた画像データ及び測距センサ20から得られた距離データを入力データとして、基準部材の認識を行い、基準部材の3次元特徴データを出力データとして出力する。ここで、基準認識部101における基準認識処理の結果として出力される3次元特徴データは、柱やパイプ、ダクトなどの基準となる部材を直線や点、平面等の特徴で表現したデータである。
第2の学習済モデルM2は、BIMデータから得られた撮像装置30の現在の3次元座標と姿勢角を正解データとし、a)現在と過去の仮想観測画像、b)現在と過去の仮想基準特徴、及びc)過去の撮像装置30の3次元座標と姿勢角を観測データとして機械学習を行うことにより生成される。第2の学習済モデルM2は、SLAM測定装置10による測定の前に予め機械学習モデル生成装置40により生成される。
自己位置認識部102は、a)撮像装置から得られた画像データと、b)基準認識部101から出力された基準部材の3次元特徴データと、c)撮像装置30の過去の3次元座標と姿勢角とを入力データとして第2の学習済モデルM2に入力することにより撮像装置の自己位置の認識を行い、撮像装置30の現在の3次元座標と姿勢角を出力データとして出力する。ここで、自己位置認識部102における自己位置認識処理の結果として出力される3次元座標及び姿勢角のうち、3次元座標(X座標、Y座標、Z座標)は、撮像装置30が被測定物を撮像しながら建屋内を移動する際の建屋内における撮像装置30の現在の3次元位置を示すものである。また、姿勢角(ロール角、ピッチ角、ヨー角)は、それぞれ撮像装置30の3次元座標のX軸に対する回転角、Y軸に対する回転角、Z軸に対する回転角を示すものである。
第3の学習済モデルM3は、BIMデータから生成された正解画像と被測定物の種類を示すデータを正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像及びBIMデータから生成した仮想距離画像を観測データとして機械学習を行うことにより生成される。第3の学習済モデルM3は、SLAM測定装置10による測定の前に予め機械学習モデル生成装置40により生成される。
被測定物認識部103は、撮像装置30から得られた画像データと、測距センサから得られた距離データとを第3の学習済モデルM3に入力することにより被測定物の認識を行い、被測定物の種類及び被測定物の形状データを出力データとして出力する。ここで、被測定物の種類とは、例えば柱、パイプ、ダクト等であり、被測定物の種類は被測定物の名称、カテゴリ名、ID等で示されるようにしてもよい。また、第3の学習済モデルM3から出力される被測定物の形状データは、撮像装置30のカメラ座標系での形状データである。
本発明による建屋内構造物認識方法は、第1の学習済モデルを用いて基準部材を認識するステップと、第2の学習済モデルを用いて撮像装置の自己位置を認識するステップと、第3の学習済モデルを用いて被測定物を認識するステップとを備える。
まず、ステップS801において、画像データと距離データを取得する。画像データは撮像装置30から取得され、距離データは測距センサ20から取得される(S801)。
まず、ステップS901において、a)現在と過去の画像データ、b)現在と過去の基準部材の3次元特徴データ、及びc)過去の建屋内の自己位置(3次元座標と姿勢角)を取得する。a)現在と過去の画像データは、撮像装置30から取得される。撮像装置30から取得した現在と過去の画像データは、撮像装置30内のメモリ又はデータベース(図示せず)等に随時、保存される。b)現在と過去の基準部材の3次元特徴データは、図8の基準認識処理の結果R1であり、基準認識部101から取得される。c)過去の建屋内の自己位置(3次元座標と姿勢角)は、自己位置認識部102内のメモリ又はデータベース(図示せず)等に随時、保存される。過去の建屋内での自己位置(3次元座標と姿勢角)は、2回目以降の自己位置認識処理の際に取得されて、現在の建屋内の自己位置(3次元座標と姿勢角)を認識するために用いられる。
まず、ステップS1001において、画像データと距離データを取得する。画像データは撮像装置30から取得され、距離データは測距センサ20から取得される(S1001)。
上記記載は実施例についてなされたが、本発明はそれに限らず、本発明の原理と添付の請求の範囲の範囲内で種々の変更および修正をすることができることは当業者に明らかである。
10 SLAM計測装置
101 基準認識部
102 自己位置認識部
103 被測定物認識部
M1 第1の学習済モデル
M2 第2の学習済モデル
M3 第3の学習済モデル
20 測距センサ
30 撮像装置
40 機械学習モデル生成装置
401 正解データ生成部
402 仮想観測データ生成部
403 学習モデル生成部
Claims (16)
- 建屋内構造物認識システムであって、
少なくとも1つの測距センサと、
少なくとも1つの撮像装置と、
SLAM(Simultaneous Localization and Mapping)計測装置とを備え、
前記SLAM計測装置は、
第1の学習済モデルを用いて基準部材の認識を行う基準認識部と、
第2の学習済モデルを用いて前記撮像装置の自己位置の認識を行う自己位置認識部と、
第3の学習済モデルを用いて建屋内の被測定物の認識を行う被測定物認識部と、
を備え、
前記第1の学習済モデルは、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、前記BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより生成されたものであることを特徴とする、建屋内構造物認識システム。 - 前記基準認識部は、前記測距センサから得られたデータのうちSLAMにおける自己位置推定及び環境地図作成の基準にすることが可能な点又は領域を前記基準部材として認識する、請求項1に記載の建屋内構造物認識システム。
- 前記基準認識部は、前記撮像装置から得られた画像データ及び前記測距センサから得られた距離データを入力データとして前記第1の学習済モデルに入力することにより前記基準部材の認識を行い、前記基準部材の3次元特徴データを出力データとして出力することを特徴とする、請求項1又は2に記載の建屋内構造物認識システム。
- 前記自己位置認識部は、前記撮像装置が前記被測定物を撮像しながら移動する際に、前記撮像装置の自己位置を逐次認識することを特徴とする、請求項1~3のいずれか一項に記載の建屋内構造物認識システム。
- 前記第2の学習済モデルは、BIMデータから得られた前記撮像装置の現在の3次元座標と姿勢角を正解データとし、a)現在と過去の仮想観測画像、b)現在と過去の基準部材の3次元特徴データ、及びc)過去の前記撮像装置の3次元座標と姿勢角を観測データとして機械学習を行うことにより生成されたものであることを特徴とする、請求項1~4のいずれか一項に記載の建屋内構造物認識システム。
- 前記自己位置認識部は、a)前記撮像装置から得られた画像データと、b)前記基準認識部から出力された基準部材の3次元特徴データと、c)前記撮像装置の過去の3次元座標と姿勢角とを入力データとして第2の学習済モデルに入力することにより前記撮像装置の自己位置の認識を行い、前記撮像装置の現在の3次元座標と姿勢角を出力データとして出力することを特徴とする、請求項1~5のいずれか一項に記載の建屋内構造物認識システム。
- 前記被測定物認識部は、建屋内の構造物及び物体を被測定物として認識することを特徴とする、請求項1~6のいずれか一項に記載の建屋内構造物認識システム。
- 前記第3の学習済モデルは、BIMデータから生成された正解画像と被測定物の種類を示すデータを正解データとし、前記BIMデータをレンダリングすることにより生成された仮想観測画像及び前記BIMデータから生成した仮想距離画像を観測データとして機械学習を行うことにより生成されたものであることを特徴とする、請求項1~7のいずれか一項に記載の建屋内構造物認識システム。
- 前記被測定物認識部は、前記撮像装置から得られた画像データと、前記測距センサから得られた距離データとを第3の学習済モデルに入力することにより前記被測定物の認識を行い、前記被測定物の種類及び前記被測定物の形状データを出力データとして出力することを特徴とする、請求項1~8のいずれか一項に記載の建屋内構造物認識システム。
- 前記被測定物認識部は、
前記被測定物の前記撮像装置のカメラ座標系での前記形状データと、
前記自己位置認識部から出力された前記撮像装置の現在の3次元座標及び姿勢角とから、前記被測定物の建屋内の空間座標系での自己位置を算出することを特徴とする、請求項9に記載の建屋内構造物認識システム。 - 前記測距センサが、ToF(Time Of Flight)カメラ、ToFセンサ、LiDAR(Light Detection And Ranging)センサ、RADAR(RAdio Detection And Ranging)センサ、超音波センサ又は赤外線センサであることを特徴とする、請求項1~10のいずれか一項に記載の建屋内構造物認識システム。
- 建屋内構造物認識方法であって、
第1の学習済モデルを用いて基準部材を認識するステップと、
第2の学習済モデルを用いて撮像装置の自己位置を認識するステップと、
第3の学習済モデルを用いて被測定物を認識するステップと
を備え、
前記第1の学習済モデルは、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、前記BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより生成されたものであることを特徴とする、建屋内構造物認識方法。 - 前記基準部材を認識するステップは、
画像データと距離データを取得するステップと、
前記画像データと前記距離データを前記第1の学習済モデルに入力するステップと、
前記第1の学習済モデルからの出力データとして、基準部材の3次元特徴データを出力するステップと
を備えることを特徴とする、請求項12に記載の建屋内構造物認識方法。 - 前記自己位置を認識するステップは、
a)前記画像データと、b)前記基準部材の3次元特徴データと、c)前記撮像装置の過去の3次元座標と姿勢角とを取得するステップと、
a)前記画像データと、b)前記基準部材の3次元特徴データと、c)前記撮像装置の過去の3次元座標と姿勢角とを入力データとして第2の学習済モデルに入力するステップと、
前記第2の学習済モデルからの出力データとして、前記撮像装置の現在の建屋内での自己位置を出力するステップと
を備えることを特徴とする、請求項13に記載の建屋内構造物認識方法。 - 前記被測定物を認識するステップは、
画像データと距離データを取得するステップと、
前記画像データと前記距離データを前記第3の学習済モデルに入力するステップと、
前記第3の学習済モデルからの出力データとして、前記被測定物の種類と、カメラ座標系における前記被測定物の形状を出力するステップと、
前記撮像装置の現在の建屋内での自己位置を用いて、前記被測定物の自己位置を算出するステップと、
前記被測定物の種類と、建屋内の空間座標系における前記被測定物の自己位置と、前記空間座標系における前記被測定物の形状を出力するステップと
を備えることを特徴とする、請求項14に記載の建屋内構造物認識方法。 - コンピュータに、請求項12~15のいずれか一項に記載の方法の各ステップを実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021201084A JP7274782B1 (ja) | 2021-12-10 | 2021-12-10 | 建屋内構造物認識システム及び建屋内構造物認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021201084A JP7274782B1 (ja) | 2021-12-10 | 2021-12-10 | 建屋内構造物認識システム及び建屋内構造物認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7274782B1 true JP7274782B1 (ja) | 2023-05-17 |
JP2023086519A JP2023086519A (ja) | 2023-06-22 |
Family
ID=86332425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021201084A Active JP7274782B1 (ja) | 2021-12-10 | 2021-12-10 | 建屋内構造物認識システム及び建屋内構造物認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7274782B1 (ja) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003025859A1 (fr) | 2001-09-17 | 2003-03-27 | National Institute Of Advanced Industrial Science And Technology | Dispositif d'interface |
JP2004110802A (ja) | 2002-08-26 | 2004-04-08 | Sony Corp | 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置 |
JP2008304268A (ja) | 2007-06-06 | 2008-12-18 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2011164666A (ja) | 2010-02-04 | 2011-08-25 | Sony Corp | 通信制御装置、通信制御方法及びプログラム |
JP2019011971A (ja) | 2017-06-29 | 2019-01-24 | 株式会社東芝 | 推定システムおよび自動車 |
JP2020149186A (ja) | 2019-03-12 | 2020-09-17 | 清水建設株式会社 | 位置姿勢推定装置、学習装置、移動ロボット、位置姿勢推定方法、学習方法 |
JP2020177289A (ja) | 2019-04-15 | 2020-10-29 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
JP2021131652A (ja) | 2020-02-19 | 2021-09-09 | 株式会社トプコン | データ構造、記録媒体、プログラム、及びシステム |
JP2021140445A (ja) | 2020-03-05 | 2021-09-16 | 株式会社トプコン | 情報処理装置、推論モデル構築方法、情報処理方法、推論モデル、プログラム、及び記録媒体 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102472176B1 (ko) * | 2020-02-20 | 2022-11-28 | 주식회사 케이티 | 자율주행 로봇, 자율주행 로봇의 위치 추정 서버 및 이를 이용한 자율주행 로봇의 위치 추정 방법 |
-
2021
- 2021-12-10 JP JP2021201084A patent/JP7274782B1/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003025859A1 (fr) | 2001-09-17 | 2003-03-27 | National Institute Of Advanced Industrial Science And Technology | Dispositif d'interface |
JP2004110802A (ja) | 2002-08-26 | 2004-04-08 | Sony Corp | 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置 |
JP2008304268A (ja) | 2007-06-06 | 2008-12-18 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2011164666A (ja) | 2010-02-04 | 2011-08-25 | Sony Corp | 通信制御装置、通信制御方法及びプログラム |
JP2019011971A (ja) | 2017-06-29 | 2019-01-24 | 株式会社東芝 | 推定システムおよび自動車 |
JP2020149186A (ja) | 2019-03-12 | 2020-09-17 | 清水建設株式会社 | 位置姿勢推定装置、学習装置、移動ロボット、位置姿勢推定方法、学習方法 |
JP2020177289A (ja) | 2019-04-15 | 2020-10-29 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
JP2021131652A (ja) | 2020-02-19 | 2021-09-09 | 株式会社トプコン | データ構造、記録媒体、プログラム、及びシステム |
JP2021140445A (ja) | 2020-03-05 | 2021-09-16 | 株式会社トプコン | 情報処理装置、推論モデル構築方法、情報処理方法、推論モデル、プログラム、及び記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2023086519A (ja) | 2023-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6465789B2 (ja) | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 | |
JP5248806B2 (ja) | 情報処理装置、情報処理方法 | |
TWI574223B (zh) | 運用擴增實境技術之導航系統 | |
JP4708752B2 (ja) | 情報処理方法および装置 | |
CN103988226B (zh) | 用于估计摄像机运动以及用于确定实境三维模型的方法 | |
JP4278979B2 (ja) | ジェスチャーに基づいた入力及びターゲット指示のための単一カメラシステム | |
US8792726B2 (en) | Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus | |
JP6192938B2 (ja) | 三次元合成処理システムおよび三次元合成処理方法 | |
CN111508021A (zh) | 一种位姿确定方法、装置、存储介质及电子设备 | |
Xu et al. | Online intelligent calibration of cameras and lidars for autonomous driving systems | |
JP2011095797A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2008304268A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
KR20110099998A (ko) | 상호작용형 실시간 증강현실 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체 | |
US10950056B2 (en) | Apparatus and method for generating point cloud data | |
JP7164045B2 (ja) | 骨格認識方法、骨格認識プログラムおよび骨格認識システム | |
CN112925223A (zh) | 基于视觉传感网络的无人机三维跟踪虚拟测试仿真*** | |
Yan et al. | Joint camera intrinsic and lidar-camera extrinsic calibration | |
KR102075844B1 (ko) | 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법 | |
JP2016217941A (ja) | 3次元データ評価装置、3次元データ測定システム、および3次元計測方法 | |
TW202238449A (zh) | 室內定位系統及室內定位方法 | |
JP7274782B1 (ja) | 建屋内構造物認識システム及び建屋内構造物認識方法 | |
CN115131407B (zh) | 面向数字仿真环境的机器人目标跟踪方法、装置和设备 | |
Nguyen et al. | Interactive syntactic modeling with a single-point laser range finder and camera | |
BARON et al. | APPLICATION OF AUGMENTED REALITY TOOLS TO THE DESIGN PREPARATION OF PRODUCTION. | |
Radanovic et al. | Virtual Element Retrieval in Mixed Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230425 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7274782 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |