JP2020149186A - 位置姿勢推定装置、学習装置、移動ロボット、位置姿勢推定方法、学習方法 - Google Patents
位置姿勢推定装置、学習装置、移動ロボット、位置姿勢推定方法、学習方法 Download PDFInfo
- Publication number
- JP2020149186A JP2020149186A JP2019044580A JP2019044580A JP2020149186A JP 2020149186 A JP2020149186 A JP 2020149186A JP 2019044580 A JP2019044580 A JP 2019044580A JP 2019044580 A JP2019044580 A JP 2019044580A JP 2020149186 A JP2020149186 A JP 2020149186A
- Authority
- JP
- Japan
- Prior art keywords
- image
- orientation
- unit
- learning
- construction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 20
- 238000010276 construction Methods 0.000 claims abstract description 86
- 238000004364 calculation method Methods 0.000 claims abstract description 14
- 230000033001 locomotion Effects 0.000 claims description 10
- 230000036544 posture Effects 0.000 description 39
- 238000007726 management method Methods 0.000 description 26
- 238000003384 imaging method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 239000004566 building material Substances 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000011960 computer-aided design Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
【課題】重量の増大を抑えつつ、かつ、精度よく建設現場における位置姿勢を求めることができる位置姿勢推定装置を提供する。【解決手段】建設現場内における何れかの位置姿勢において撮影された画像データを取得する撮像画像取得部と、前記建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢と当該位置姿勢から一人称視点で見たときの画像との関係を学習した学習済みモデルを用いて、前記画像データに対応する位置姿勢情報を求める位置姿勢情報算出部と、を有する。【選択図】図1
Description
本発明は、位置姿勢推定装置、学習装置、移動ロボット、位置姿勢推定方法、学習方法に関する。
建設現場の生産性向上のため、日々の出来形管理などにLIDAR(Light Detection and Ranging)を用いたSLAM (Simultaneous Localization and Mapping)技術、あるいはカメラを用いたVisual SLAM技術などといった、自己位置姿勢推定および現場管理方法が活用されつつある。
LIDARは、直接距離を測定することができるため、写真測量(Structure from Motion)技術に比べて形状の精度が高いことが利点である。
例えば、LIDARによって、毎日あるいは数日毎に、建設現場内の施工対象物の形状を測定することで、測定時において施工対象物がどのような段階まで施工されているか、また、施工状況がどのような状態であるかを把握することができる。これにより、施工の進捗管理をすることができ、また、施工状況に基づく出来形を推定することで出来形を管理することができる。
自己位置姿勢推定技術を、例えば、建設現場内において用いられる自動走行ロボットの現在位置および姿勢の推定に適用した位置姿勢推定装置がある(例えば特許文献1)。
LIDARは、直接距離を測定することができるため、写真測量(Structure from Motion)技術に比べて形状の精度が高いことが利点である。
例えば、LIDARによって、毎日あるいは数日毎に、建設現場内の施工対象物の形状を測定することで、測定時において施工対象物がどのような段階まで施工されているか、また、施工状況がどのような状態であるかを把握することができる。これにより、施工の進捗管理をすることができ、また、施工状況に基づく出来形を推定することで出来形を管理することができる。
自己位置姿勢推定技術を、例えば、建設現場内において用いられる自動走行ロボットの現在位置および姿勢の推定に適用した位置姿勢推定装置がある(例えば特許文献1)。
しかしながら、LIDARは、機器が一般的に高価で重いため、軽量なロボット(例えば小型のロボットやドローン)などに搭載することができない。
また、LIDARは、取得した点群のRGB情報が含まれていない欠点がある。
また、LIDARは、取得した点群のRGB情報が含まれていない欠点がある。
一方、Visual SLAMは、RGB情報が含まれているが、視差による測量であるため、LIDARに比べて一般的に測定精度が悪いという欠点がある。
施工状況の管理や出来形管理を行うために、施工対象物の形状測定を移動ロボットに行わせようとすると、自己の位置姿勢を精度良く推定する必要がある。すなわち、自己位置姿勢の推定精度が低い場合には、出来形管理の精度も低下してしまう。また、移動ロボットが移動するためには、機体の重量が増大しないことが望ましい。
本発明は、このような課題に鑑みてなされたものであり、重量の増大を抑えつつ、かつ、精度よく建設現場における位置姿勢を求めることができる位置姿勢推定装置、学習装置、移動ロボット、位置姿勢推定方法、学習方法を提供することにある。
上述した課題を解決するために、本発明の一態様は、建設現場内における何れかの位置姿勢において撮影された画像データを取得する撮像画像取得部と、前記建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢と当該位置姿勢から一人称視点で見たときの画像との関係を学習した学習済みモデルを用いて、前記画像データに対応する位置姿勢情報を求める位置姿勢情報算出部と、を有する位置姿勢推定装置である。
また、本発明の一態様は、建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢を表す位置姿勢情報を取得する位置姿勢情報取得部と、一人称視点で前記三次元モデルデータにおいて前記位置姿勢から見たときの画像を取得する画像取得部と、前記位置姿勢情報と前記画像との関係性を表す条件を学習する学習部と、を有する学習装置である。
また、本発明の一態様は、上述の位置姿勢推定装置と、回避対象を表す回避対象画像データと回避対象であるか否かを識別する識別情報との関係を学習した学習済みモデルを用いて、前記撮像画像取得部によって取得された画像に回避対象である物体が含まれているか否かを判定する判定部と、前記取得された画像に、前記回避対象画像に対応する物体が含まれている場合には、当該を迂回する経路である迂回経路を生成する経路生成部と、前記位置姿勢情報算出部によって求められた位置姿勢情報が前記生成された迂回経路に沿うように移動する移動制御部と、を有する移動ロボットである。
また、本発明の一態様は、撮像画像取得部が、建設現場内における何れかの位置姿勢において撮影された画像データを取得し、位置姿勢情報算出部が、前記建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢と当該位置姿勢から一人称視点で見たときの画像との関係を学習した学習済みモデルを用いて、前記画像データに対応する位置姿勢情報を求める位置姿勢推定方法である。
また、本発明の一態様は、位置姿勢情報取得部が、建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢を表す位置姿勢情報を取得し、画像取得部が、一人称視点で前記三次元モデルデータにおいて前記位置姿勢から見たときの画像を取得し、学習部が、前記位置姿勢情報と前記画像との関係性を表す条件を学習する学習方法である。
以上説明したように、この発明によれば、位置姿勢情報を推定するために必要な機器の重量が増大してしまうことを抑えつつ、かつ、精度よく建設現場における位置姿勢を求めることができる。
以下、本発明の一実施形態による位置姿勢推定装置を用いた状況管理システム1について図面を参照して説明する。
図1は、この発明の一実施形態による状況管理システム1の構成を示す概略ブロック図である。
状況管理システム1は、三次元モデル画像生成装置10、一人称視点画像データベース20、学習装置30、自律移動ロボット40、状況管理装置50を有する。
図1は、この発明の一実施形態による状況管理システム1の構成を示す概略ブロック図である。
状況管理システム1は、三次元モデル画像生成装置10、一人称視点画像データベース20、学習装置30、自律移動ロボット40、状況管理装置50を有する。
三次元モデル画像生成装置10は、建設現場の施工対象物の三次元モデルデータを記憶している。三次元モデル画像生成装置10は、建設現場の施工対象物の三次元モデルデータを用い、当該建設現場のいずれかの位置姿勢から一人称視点で見たときの画像を生成する。一人称視点での画像は、建設現場内において異なる多数の地点において、それぞれ生成される。例えば、一人称視点での画像を生成する位置姿勢は、施工対象物において自律移動ロボット40が移動する経路となりうる位置姿勢であればいずれの位置姿勢であってもよい。施工対象物は、例えば構造物あるいは建築物であってもよい。施工対象物がビル等である場合には、あるフロアにおける種々の場所について一人称視点での画像を、各フロアのそれぞれにおいて生成する。
三次元モデル画像生成装置10は、一人称視点での画像を生成する場合、施工途中の段階毎における三次元モデルデータのそれぞれにおいて、一人称視点での画像を生成する。これにより、施工途中において施工対象物がどのように見えるかを示した画像を生成することができる。
また、三次元モデル画像生成装置10は、画像を生成したときの一人称視点における位置姿勢を示す位置姿勢情報を生成する。この位置姿勢情報は、緯度、経度、高度、姿勢角を含む情報であり、一人称視点で見たときの建設現場における位置姿勢を特定することができる。
また、三次元モデル画像生成装置10は、例えば、緯度、経度、高度、姿勢角を表す座標系と、三次元モデルの座標系とを重ね合わせる機能を有しており、この重ね合わせを行うことで、三次元モデルにおける施工対象物におけるいずれの位置姿勢についても、緯度、経度、高度、姿勢角を把握できるようになっている。
また、三次元モデル画像生成装置10は、例えば、緯度、経度、高度、姿勢角を表す座標系と、三次元モデルの座標系とを重ね合わせる機能を有しており、この重ね合わせを行うことで、三次元モデルにおける施工対象物におけるいずれの位置姿勢についても、緯度、経度、高度、姿勢角を把握できるようになっている。
ここで生成される画像は、全天球が望ましいが、画角の広いカメラを模擬したものであっても良い。全天球あるいは画角の広いカメラを用いることで、自律移動ロボット40が撮影を行った向きがいずれの方向であっても位置姿勢を推定することが可能な画像を得ることができる。
三次元モデル画像生成装置10は、当該建設現場のいずれかの位置姿勢から一人称視点で見たときの画像データと、当該画像を生成したときの一人称視点における位置姿勢を示す位置姿勢情報とを含む画像情報を出力する。
三次元モデル画像生成装置10は、三次元モデルデータとして、BIM(Building Information Modeling)によって表された三次元モデルデータまたはCAD(computer-aided design)によって表された三次元モデルデータを用いてもよい。
三次元モデル画像生成装置10は、三次元モデルデータとして、BIM(Building Information Modeling)によって表された三次元モデルデータまたはCAD(computer-aided design)によって表された三次元モデルデータを用いてもよい。
一人称視点画像データベース20は、三次元モデル画像生成装置10から出力される画像情報(画像データと位置姿勢情報との組み合わせ)を記憶する。
学習装置30は、三次元モデル画像生成装置10によって、建設現場におけるあらゆる点における十分な量の画像が生成された後、深層学習技術により画像と当該画像の位置姿勢情報とを入力し、画像と位置姿勢(緯度・経度・高度・姿勢角)との関係性を表す条件を学習する。
学習装置30は、画像解析用ワークステーション、小型計算機等を組み合わせて構成されてもよい。
学習装置30は、画像解析用ワークステーション、小型計算機等を組み合わせて構成されてもよい。
より具体的に、学習装置30は、画像情報取得部31、位置姿勢情報学習部32、回避対象学習部33、出力部34を有する。
画像情報取得部31は、一人称視点画像データベースから画像情報を取得する。この画像情報には、建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢を表す位置姿勢情報と、一人称視点で三次元モデルデータにおいて前記位置姿勢から見たときの画像データとが含まれる。この画像情報は、建設現場における様々な位置姿勢毎の画像データである。
位置姿勢情報学習部32は、画像情報取得部31によって取得された画像情報を用いて、学習アルゴリズムに基づいて、位置姿勢情報と画像との関係性を表す条件を学習し、学習済みモデルを生成する。
例えば、位置姿勢情報学習部32は、画像情報に含まれる画像データに対して画像処理を行い、画像データに含まれる物体(柱、梁、壁、床、天井、窓、設備、什器等)の形状(輪郭など)、色、サイズ、光の反射度合い等について解析することで、これらを特徴量(特徴データ)として取得する。位置姿勢情報学習部32は、この特徴量と位置姿勢情報との関係を学習し、学習済モデルを生成する。ここで、位置姿勢情報学習部32における学習は、例えば、特徴量と、位置姿勢情報との関係性を示す条件を学習するようにしてもよい。位置姿勢情報学習部32におけるこの条件とは、画像データと位置姿勢情報との相関性を表すモデル構造、あるいは、当該モデル構造を決定する種々のパラメータである。
画像情報取得部31は、一人称視点画像データベースから画像情報を取得する。この画像情報には、建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢を表す位置姿勢情報と、一人称視点で三次元モデルデータにおいて前記位置姿勢から見たときの画像データとが含まれる。この画像情報は、建設現場における様々な位置姿勢毎の画像データである。
位置姿勢情報学習部32は、画像情報取得部31によって取得された画像情報を用いて、学習アルゴリズムに基づいて、位置姿勢情報と画像との関係性を表す条件を学習し、学習済みモデルを生成する。
例えば、位置姿勢情報学習部32は、画像情報に含まれる画像データに対して画像処理を行い、画像データに含まれる物体(柱、梁、壁、床、天井、窓、設備、什器等)の形状(輪郭など)、色、サイズ、光の反射度合い等について解析することで、これらを特徴量(特徴データ)として取得する。位置姿勢情報学習部32は、この特徴量と位置姿勢情報との関係を学習し、学習済モデルを生成する。ここで、位置姿勢情報学習部32における学習は、例えば、特徴量と、位置姿勢情報との関係性を示す条件を学習するようにしてもよい。位置姿勢情報学習部32におけるこの条件とは、画像データと位置姿勢情報との相関性を表すモデル構造、あるいは、当該モデル構造を決定する種々のパラメータである。
位置姿勢情報学習部32の学習は、どのような学習方式であってもよく、例えば、AI(Artificial Intelligence)技術を用いた、機械学習、強化学習、複数の中間層を含むニューラルネットワークによる深層学習技術(ディープラーニング)のうちいずれかを用いることができる。また、学習方式としては、教師あり学習であっても教師無し学習のいずれを用いるようにしてもよい。
位置姿勢情報学習部32は、教師なし学習を行う場合には、例えば、画像データの特徴量に基づいて、画像データに含まれる物体の形状、色、サイズ、光の反射度合い等の観点に基づくクラスタ分析を行なうことで、画像データを位置姿勢情報に応じて分類するようにしてもよい。
位置姿勢情報学習部32は、教師なし学習を行う場合には、例えば、画像データの特徴量に基づいて、画像データに含まれる物体の形状、色、サイズ、光の反射度合い等の観点に基づくクラスタ分析を行なうことで、画像データを位置姿勢情報に応じて分類するようにしてもよい。
例えば、位置姿勢情報学習部32は、学習の開始時においては、画像データの特徴量と位置姿勢情報との相関関係は未知であるが、学習を進めるに従い、徐々に特徴を識別して相関関係を解釈する。学習が進行することにより、位置姿勢情報学習部32は、画像データの特徴量(画像データに含まれる物体の形状(輪郭など)、色、サイズ、光の反射度合い等)と位置姿勢情報(緯度、経度、高度、姿勢角)の相関関係を表す条件を最適解に近づけることができる。なお、位置姿勢情報学習部32は、画像データの特徴量と位置姿勢情報との関係を学習するようにしたが、画像データの特徴量を用いずに、画像データと位置姿勢情報との関係性を表す条件を学習するようにしてもよい。この場合、位置姿勢情報学習部32は、例えば、画像データに含まれるそれぞれの画素と位置姿勢情報の関係性を表す条件を学習するようにしてもよい。
このようにして得られる学習済みモデルは、実際の現場で撮影した画像から位置姿勢を算出することができる。実際の現場で撮像した画像は、例えば、自律移動ロボットや飛行ロボットによって自律撮影された画像であってもよいし、現場内を巡回する作業員によって撮影された画像であってもよい。このように撮像された画像とその撮影された位置姿勢とを保存することができるため、簡単に状況管理をすることができる。
回避対象学習部33は、回避対象を表す回避対象画像データと回避対象であるか否かを識別する識別情報との関係を学習することで、学習済みモデルを生成する。回避対象は、作業員、重機、建築資材等である。回避対象学習部33は、画像情報に含まれる画像データに対して画像処理を行い、画像データに含まれる回避対象である物体(作業員、重機、一時保管された建築資材等)の形状(輪郭など)、色、サイズ、光の反射度合い等について解析することで、これらを特徴量(特徴データ)として取得する。回避対象学習部33は、得られた特徴量と回避対象であるか否かを識別する識別情報との関係を学習する。例えば、作業員、重機、建築資材について回避対象であることを表す識別情報とを関係を学習する。回避対象画像データは、作業員、重機、一時保管された建築資材のそれぞれについて、種々の種類や、種々の角度から撮影された画像が用いられる。これにより、作業員、重機、一時保管された建築資材を精度よく識別可能な学習済みモデルを得ることができる。
また、回避対象学習部33は、回避対象ではないことを表す識別情報と、回避しなくてもよい物体の画像(作業員が床面を汚さずに歩行することができるように床面上に敷かれた養生シート等)との関係を学習してもよい。
回避対象学習部33の学習の方式等は、位置姿勢情報学習部32と共通するため説明を省略する。
また、回避対象学習部33は、回避対象ではないことを表す識別情報と、回避しなくてもよい物体の画像(作業員が床面を汚さずに歩行することができるように床面上に敷かれた養生シート等)との関係を学習してもよい。
回避対象学習部33の学習の方式等は、位置姿勢情報学習部32と共通するため説明を省略する。
出力部34は、位置姿勢情報学習部32によって生成された学習済みモデルと回避対象学習部33によって生成された学習済みモデルとを出力する。
自律移動ロボット40は、位置姿勢推定部41、撮像部42、判定部43、経路生成部44、駆動部45、移動制御部46、通信部47を有する。
位置姿勢推定部41は、撮像画像取得部411、位置姿勢情報算出部412、記憶部413、位置姿勢情報出力部414を有する。
撮像画像取得部411は、建設現場内における何れかの位置姿勢において撮影された画像データを取得する。例えば、撮像画像取得部411は、撮像部42によって撮像された画像データを取得する。この画像データは、施工対象物の内部における何れかの位置姿勢から一人称視点で見たときの画像である。また、この画像データは、少なくとも一部に建設現場の画像が含まれていればよく、施工対象物の内部から撮影された画像または施工対象物の外部から施工対象物を撮影した画像を用いることができる。
位置姿勢推定部41は、撮像画像取得部411、位置姿勢情報算出部412、記憶部413、位置姿勢情報出力部414を有する。
撮像画像取得部411は、建設現場内における何れかの位置姿勢において撮影された画像データを取得する。例えば、撮像画像取得部411は、撮像部42によって撮像された画像データを取得する。この画像データは、施工対象物の内部における何れかの位置姿勢から一人称視点で見たときの画像である。また、この画像データは、少なくとも一部に建設現場の画像が含まれていればよく、施工対象物の内部から撮影された画像または施工対象物の外部から施工対象物を撮影した画像を用いることができる。
位置姿勢情報算出部412は、建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢と当該位置姿勢から一人称視点で見たときの画像との関係を学習した学習済みモデルを用いて、画像データに対応する位置姿勢情報を求める。このとき用いられる学習済みモデルは、学習装置30によって生成された学習済みモデルである。
記憶部413は、位置姿勢情報学習部32から出力された学習済みモデルと、回避対象学習部33から出力された学習済みモデルを記憶する。
位置姿勢情報出力部414は、位置姿勢情報算出部412によって得られた位置姿勢情報を出力する。
撮像部42は、周囲を撮影し、撮像データ(画像データ)を出力する。撮像部42は、例えば、カメラである。
判定部43は、回避対象を表す回避対象画像データと回避対象であるか否かを識別する識別情報との関係を学習した学習済みモデルを用いて、撮像画像取得部によって取得された画像に回避対象である物体が含まれているか否かを判定する。判定部43が用いる学習済みモデルは、回避対象学習部33によって生成された学習済みモデルである。
経路生成部44は、自律移動ロボット40が建設現場内を移動する経路を示す経路情報を生成する。この経路情報は、例えば、建設現場の状況管理をする対象の位置姿勢を経由するルートである。
経路生成部44は、取得された画像に、回避対象画像に対応する物体が含まれている場合には、当該を迂回する経路である迂回経路を生成する。この迂回経路は、回避対象物を回避した後、経路情報が示す経路に戻るような経路である。
判定部43は、回避対象を表す回避対象画像データと回避対象であるか否かを識別する識別情報との関係を学習した学習済みモデルを用いて、撮像画像取得部によって取得された画像に回避対象である物体が含まれているか否かを判定する。判定部43が用いる学習済みモデルは、回避対象学習部33によって生成された学習済みモデルである。
経路生成部44は、自律移動ロボット40が建設現場内を移動する経路を示す経路情報を生成する。この経路情報は、例えば、建設現場の状況管理をする対象の位置姿勢を経由するルートである。
経路生成部44は、取得された画像に、回避対象画像に対応する物体が含まれている場合には、当該を迂回する経路である迂回経路を生成する。この迂回経路は、回避対象物を回避した後、経路情報が示す経路に戻るような経路である。
駆動部45は、自律移動ロボット40の移動機構を駆動する。移動機構としては、自律移動ロボット40に取り付けられた車輪を回転駆動させることで、前後方向に移動させたり、操舵輪を操舵することで左右方向への走行方向を変える。
なお、自律移動ロボット40がドローンである場合、駆動部45は、ドローンに設けられたローターを回転駆動させたり、飛行方向を変更する。自律移動ロボット40は、無人航空機であればよく、ドローンの他にマルチコプターであってもよい。
なお、自律移動ロボット40がドローンである場合、駆動部45は、ドローンに設けられたローターを回転駆動させたり、飛行方向を変更する。自律移動ロボット40は、無人航空機であればよく、ドローンの他にマルチコプターであってもよい。
移動制御部46は、位置姿勢情報算出部412によって求められた位置姿勢情報が生成された迂回経路に沿うように移動する。
通信部47は、学習装置30や状況管理装置50と通信を行う。状況管理装置50に撮影された画像データと、当該画像データを撮影した位置姿勢情報とを送信する。また、通信部47は、これらの情報を送信する際に、画像データが撮像された日時を示す情報も送信することができる。
状況管理装置50は、自律移動ロボット40から送信された各種情報を記憶する。状況管理装置50に記憶された情報は、建設現場の管理者が利用する端末装置を利用することで、閲覧することができる。
上述の一人称視点画像データベース20、記憶部413、状況管理装置50に設けられた記憶部等については、記憶媒体、例えば、HDD(Hard Disk Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、RAM(Random Access read/write Memory)、ROM(Read Only Memory)、またはこれらの記憶媒体の任意の組み合わせによって構成することができ、また、例えば不揮発性メモリを用いることができる。
図2は、状況管理システム1の処理の流れを説明する図である。
三次元モデル画像生成装置10は、三次元モデルデータを用いて、施工対象物の内部側のいずれかの位置姿勢から一人称視点で見たときの画像を生成する。ここでは、位置姿勢を変えることで多数の画像を生成する。三次元モデル画像生成装置10は、生成された画像と、当該画像を生成した際の一人称視点の位置姿勢を示す位置姿勢情報とを画像情報として一人称視点画像データベース20に書き込む(ステップS10)。
また、ここでは回避対象画像データが所定の記憶領域に記憶される(ステップS11)。所定の記憶領域は、学習装置30の外部の記憶装置であってもよいし、状況管理装置50の記憶領域を用いるようにしてもよい。
学習装置30は、一人称視点で見たときの画像情報と回避対象画像データとを取得する(ステップS12)。そして、学習装置30は、位置姿勢情報学習部32によって画像情報を用いて学習済みモデルを生成し、回避対象学習部33によって回避対象画像データを用いて学習済みモデルを生成する(ステップS13)。これらの生成された学習済みモデルは、自律移動ロボット40の記憶部413に記憶される(ステップS14)。
三次元モデル画像生成装置10は、三次元モデルデータを用いて、施工対象物の内部側のいずれかの位置姿勢から一人称視点で見たときの画像を生成する。ここでは、位置姿勢を変えることで多数の画像を生成する。三次元モデル画像生成装置10は、生成された画像と、当該画像を生成した際の一人称視点の位置姿勢を示す位置姿勢情報とを画像情報として一人称視点画像データベース20に書き込む(ステップS10)。
また、ここでは回避対象画像データが所定の記憶領域に記憶される(ステップS11)。所定の記憶領域は、学習装置30の外部の記憶装置であってもよいし、状況管理装置50の記憶領域を用いるようにしてもよい。
学習装置30は、一人称視点で見たときの画像情報と回避対象画像データとを取得する(ステップS12)。そして、学習装置30は、位置姿勢情報学習部32によって画像情報を用いて学習済みモデルを生成し、回避対象学習部33によって回避対象画像データを用いて学習済みモデルを生成する(ステップS13)。これらの生成された学習済みモデルは、自律移動ロボット40の記憶部413に記憶される(ステップS14)。
自律移動ロボット40は、建設現場内に配置された後、撮像部42によって周囲を撮像する(ステップS15)。この撮影は、撮影タイミングが到来する毎に行われる。撮影タイミングは、一定時間毎(数秒毎、数分毎等)であってもよいし、一定の距離を移動したことを検出したタイミングであってもよいし、撮影する対象の地点に到達したタイミングであってもよい。
自律移動ロボット40は、位置姿勢情報学習部32によって生成された学習済みモデルを用いて(ステップS16)、撮像部42によって撮影された画像に対応する位置姿勢情報を得る(ステップS17)。自律移動ロボット40は、得られた位置姿勢情報が、予め定められた経路情報に沿うように駆動部45を駆動させる。また、自律移動ロボット40は、回避対象学習部33によって生成された学習済みモデルを用いて、撮像部42によって撮影された画像に回避対象があるか否かを判定し、回避対象がある場合には、回避経路を生成する(ステップS18)。
図3は、自律移動ロボット40の処理を説明するフローチャートである。
自律移動ロボット40は、建設現場の状況管理をする対象の位置姿勢を経由するルートを示す経路情報を経路生成部44によって生成し、その経路情報に沿って移動を開始する。そして自律移動ロボット40は、建設現場内において移動しつつ、撮像部42によって周囲を撮影し、画像データを得る(ステップS50)。自律移動ロボット40は、得られた画像データについて画像処理等を行うことで解析を行い(ステップS51)、学習済みモデルを用いて、位置姿勢情報を得る。ここで、位置姿勢情報算出部412は、得られた位置姿勢情報が、正しく認識できたか否かを判定する(ステップS52)。例えば、前回位置姿勢情報を算出した時刻から今回位置姿勢情報を算出した時刻までの時間と、前回得られた位置姿勢情報と今回得られた位置姿勢情報との間の距離と、から得られる速度が、自律移動ロボット40が移動する際の移動速度から一定以上超えている場合には、正しく認識されないと判断する。この場合、得られた位置姿勢情報が正しくないものとして採用しないようにすることができ、位置姿勢情報算出の精度が低下することを防止することができる。なお、ここでは、移動速度を基に判断するようにしたが、前回得られた位置姿勢情報と今回得られた位置姿勢情報との間の距離が一定以上の距離である場合には、正しく認識されないと判断するようにしてもよい。
一方、位置姿勢情報が正しく認識できた場合には、この位置姿勢情報の算出に用いた画像データに、回避対象である物体があるか否かを、回避対象学習部33によって得られた学習済みモデルを用いて認識する(ステップS54)。
自律移動ロボット40は、建設現場の状況管理をする対象の位置姿勢を経由するルートを示す経路情報を経路生成部44によって生成し、その経路情報に沿って移動を開始する。そして自律移動ロボット40は、建設現場内において移動しつつ、撮像部42によって周囲を撮影し、画像データを得る(ステップS50)。自律移動ロボット40は、得られた画像データについて画像処理等を行うことで解析を行い(ステップS51)、学習済みモデルを用いて、位置姿勢情報を得る。ここで、位置姿勢情報算出部412は、得られた位置姿勢情報が、正しく認識できたか否かを判定する(ステップS52)。例えば、前回位置姿勢情報を算出した時刻から今回位置姿勢情報を算出した時刻までの時間と、前回得られた位置姿勢情報と今回得られた位置姿勢情報との間の距離と、から得られる速度が、自律移動ロボット40が移動する際の移動速度から一定以上超えている場合には、正しく認識されないと判断する。この場合、得られた位置姿勢情報が正しくないものとして採用しないようにすることができ、位置姿勢情報算出の精度が低下することを防止することができる。なお、ここでは、移動速度を基に判断するようにしたが、前回得られた位置姿勢情報と今回得られた位置姿勢情報との間の距離が一定以上の距離である場合には、正しく認識されないと判断するようにしてもよい。
一方、位置姿勢情報が正しく認識できた場合には、この位置姿勢情報の算出に用いた画像データに、回避対象である物体があるか否かを、回避対象学習部33によって得られた学習済みモデルを用いて認識する(ステップS54)。
経路生成部44は、回避対象があるか否かの認識結果と経路情報とを基に、移動ルート(経路情報)を生成する。ここでは、回避対象がない場合には、ステップS52において認識された現在位置姿勢から建設現場の状況管理をする対象の位置姿勢まで移動するための経路情報を生成する(ステップS55)。経路情報を生成する場合、例えば、BIMやCAD等の三次元モデルデータを用い、自律移動ロボット40の周囲の環境(通路や壁、柱等)を基に、移動可能な経路を生成する。一方、回避対象がある場合、経路生成部44は、回避対象を回避しつつ建設現場の状況管理をする対象の位置姿勢まで移動するための経路情報を生成する。これにより、三次元モデルデータには存在しない作業員・資材・重機などの画像が、画像データに含まれていたとしても、回避対象として認識し、回避するような迂回ルートを生成し、迂回することができる。
自律移動ロボット40は、経路情報が生成されると、生成された経路情報に沿って移動するように駆動することで位置姿勢制御をする(ステップS56)。
自律移動ロボット40は、経路情報が生成されると、生成された経路情報に沿って移動するように駆動することで位置姿勢制御をする(ステップS56)。
自律移動ロボット40は、このようにして、建設現場の状況管理をする対象の位置姿勢を複数箇所通過した後、スタート位置姿勢に戻り、撮影された画像データと、当該画像データを撮影した位置姿勢情報とを状況管理装置50に送信する。ここでは、画像データを撮像した日時を表す日時データも一緒に送信する。これにより、状況管理装置50は、自律移動ロボット40から得られた画像データと位置姿勢情報と、画像データが撮影された日時とを対応付けて記憶することができる。
以上説明した実施形態によれば、近年導入が進んでいるBIMを効果的に用いて位置姿勢情報を学習させることで、特殊な装置を必要とせず、また、安価なカメラと計算機を用いるだけで、深層学習技術の活用により位置姿勢情報の取得と現場進捗管理を同時に達成することができる。これにより、自律移動ロボットなどの導入も容易となり、建設業の生産性向上に貢献できる。
また、本実施形態によれば、ロボットの移動などに必要な位置姿勢情報の取得、また進捗管理等に必要な位置姿勢情報が紐付けられた写真の取得が、軽量なシステムにより実現することができる。また、その結果をBIMに戻すことで、日々の出来形管理をすることが可能となり、より良い現場管理や、学習装置30の学習精度の向上に寄与させることが可能である。
また、従来において、LIDARやVisual SLAMは、シーケンシャルに位置姿勢を推定する手法であり、常に絶対的な位置姿勢を算出するものではない。また、いずれも建設現場の進捗管理(出来形管理)に用いることが行われているが、絶対的な自己位置姿勢推定と、進捗管理の両方を併せ持つ軽量なシステムとなっていない。
これに対し、本実施形態では、近年導入が進んでいるBIM(Building Information Modeling)やCADデータより一人称視点画像を生成し、深層学習技術により位置姿勢情報を学習させ、現場内において軽量なカメラ画像から自己位置姿勢を推定するとともに、位置姿勢情報の紐付いた画像を保存することで、進捗管理を容易とすることができる。また、自己位置姿勢の推定に必要な機器の重量の増大を抑えることができることから、自己位置姿勢の推定に必要な機材を移動ロボット等に搭載することが可能となる。
また、建設現場の状況は、日々変化するため、学習装置30における学習は、数日毎に実施することが望ましい。また、状況管理装置50に画像データが蓄積されることで、この画像データを基に出来形を管理し、また、三次元モデルデータに反映させることで、学習モデルを利用した位置姿勢情報の推定精度も向上していくことが期待できる。
なお、上述した位置姿勢推定部41は、自律移動ロボット40の内部に設けられた1つの機能として説明したが、自律移動ロボット40とは別の独立した装置として構成されるようにしてもよい。この場合、位置姿勢推定部41の機能を有する装置が、既存の自律移動ロボットに搭載することで、既存の自律移動ロボットであっても、上述の自律移動ロボット40として機能することができる。
上述した実施形態における学習装置30、位置姿勢推定部41をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1…状況管理システム、10…三次元モデル画像生成装置、20…一人称視点画像データベース、30…学習装置、31…画像情報取得部、32…位置姿勢情報学習部、33…回避対象学習部、34…出力部、40…自律移動ロボット、41…位置姿勢推定部、42…撮像部、43…判定部、44…経路生成部、45…駆動部、46…移動制御部、47…通信部、50…状況管理装置、411…撮像画像取得部、412…位置姿勢情報算出部、413…記憶部、414…位置姿勢情報出力部
Claims (6)
- 建設現場内における何れかの位置姿勢において撮影された画像データを取得する撮像画像取得部と、
前記建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢と当該位置姿勢から一人称視点で見たときの画像との関係を学習した学習済みモデルを用いて、前記画像データに対応する位置姿勢情報を求める位置姿勢情報算出部と、
を有する位置姿勢推定装置。 - 前記画像は、前記施工対象物の内部における何れかの位置姿勢から一人称視点で見たときの画像である
請求項1記載の位置姿勢推定装置。 - 建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢を表す位置姿勢情報を取得する位置姿勢情報取得部と、
一人称視点で前記三次元モデルデータにおいて前記位置姿勢から見たときの画像を取得する画像取得部と、
前記位置姿勢情報と前記画像との関係性を表す条件を学習する学習部と、
を有する学習装置。 - 請求項1または請求項2に記載の位置姿勢推定装置と、
回避対象を表す回避対象画像データと回避対象であるか否かを識別する識別情報との関係を学習した学習済みモデルを用いて、前記撮像画像取得部によって取得された画像に回避対象である物体が含まれているか否かを判定する判定部と、
前記取得された画像に、前記回避対象である物体が含まれている場合には、当該物体を迂回する経路である迂回経路を生成する経路生成部と、
前記位置姿勢情報算出部によって求められた位置姿勢情報が前記生成された迂回経路に沿うように移動する移動制御部と、
を有する移動ロボット。 - 撮像画像取得部が、建設現場内における何れかの位置姿勢において撮影された画像データを取得し、
位置姿勢情報算出部が、前記建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢と当該位置姿勢から一人称視点で見たときの画像との関係を学習した学習済みモデルを用いて、前記画像データに対応する位置姿勢情報を求める
位置姿勢推定方法。 - 位置姿勢情報取得部が、建設現場の施工対象物の三次元モデルデータにおいて当該建設現場のいずれかの位置姿勢を表す位置姿勢情報を取得し、
画像取得部が、一人称視点で前記三次元モデルデータにおいて前記位置姿勢から見たときの画像を取得し、
学習部が、前記位置姿勢情報と前記画像との関係性を表す条件を学習する
学習方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019044580A JP2020149186A (ja) | 2019-03-12 | 2019-03-12 | 位置姿勢推定装置、学習装置、移動ロボット、位置姿勢推定方法、学習方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019044580A JP2020149186A (ja) | 2019-03-12 | 2019-03-12 | 位置姿勢推定装置、学習装置、移動ロボット、位置姿勢推定方法、学習方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020149186A true JP2020149186A (ja) | 2020-09-17 |
Family
ID=72430109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019044580A Pending JP2020149186A (ja) | 2019-03-12 | 2019-03-12 | 位置姿勢推定装置、学習装置、移動ロボット、位置姿勢推定方法、学習方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020149186A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114029965A (zh) * | 2021-09-18 | 2022-02-11 | 中铁建设集团有限公司 | 一种施工现场辅助管理的旁站机器人的主动管理*** |
WO2023037773A1 (ja) * | 2021-09-09 | 2023-03-16 | 村田機械株式会社 | 走行車システム及び走行車 |
JP7274782B1 (ja) | 2021-12-10 | 2023-05-17 | 株式会社 Sai | 建屋内構造物認識システム及び建屋内構造物認識方法 |
-
2019
- 2019-03-12 JP JP2019044580A patent/JP2020149186A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023037773A1 (ja) * | 2021-09-09 | 2023-03-16 | 村田機械株式会社 | 走行車システム及び走行車 |
CN114029965A (zh) * | 2021-09-18 | 2022-02-11 | 中铁建设集团有限公司 | 一种施工现场辅助管理的旁站机器人的主动管理*** |
JP7274782B1 (ja) | 2021-12-10 | 2023-05-17 | 株式会社 Sai | 建屋内構造物認識システム及び建屋内構造物認識方法 |
JP2023086519A (ja) * | 2021-12-10 | 2023-06-22 | 株式会社 Sai | 建屋内構造物認識システム及び建屋内構造物認識方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10102429B2 (en) | Systems and methods for capturing images and annotating the captured images with information | |
US20230054914A1 (en) | Vehicle localization | |
JP6896077B2 (ja) | 車両自動パーキングシステム及び方法 | |
JP7204326B2 (ja) | 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム | |
TWI827649B (zh) | 用於vslam比例估計的設備、系統和方法 | |
KR101776622B1 (ko) | 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
US10347001B2 (en) | Localizing and mapping platform | |
JP2020507072A (ja) | 実時間オンライン自己運動推定を備えたレーザスキャナ | |
US20200042656A1 (en) | Systems and methods for persistent simulation | |
KR20210029586A (ko) | 이미지 내의 특징적 객체에 기반하여 슬램을 수행하는 방법 및 이를 구현하는 로봇과 클라우드 서버 | |
JP2020149186A (ja) | 位置姿勢推定装置、学習装置、移動ロボット、位置姿勢推定方法、学習方法 | |
CN111263960A (zh) | 更新用于自主驾驶的高清晰度地图的设备和方法 | |
CN110260866A (zh) | 一种基于视觉传感器的机器人定位与避障方法 | |
CN108459596A (zh) | 一种移动电子设备以及该移动电子设备中的方法 | |
EP4088884A1 (en) | Method of acquiring sensor data on a construction site, construction robot system, computer program product, and training method | |
CN108544494A (zh) | 一种基于惯性和视觉特征的定位装置、方法及机器人 | |
JP6725736B1 (ja) | 画像特定システムおよび画像特定方法 | |
CN114529585A (zh) | 基于深度视觉和惯性测量的移动设备自主定位方法 | |
US20230350418A1 (en) | Position determination by means of neural networks | |
US20230401748A1 (en) | Apparatus and methods to calibrate a stereo camera pair | |
Stowers et al. | Quadrotor Helicopter Flight Control Using Hough Transform and Depth Map from a Microsoft Kinect Sensor. | |
JP7226553B2 (ja) | 情報処理装置、データ生成方法、及びプログラム | |
CN109901589B (zh) | 移动机器人控制方法和装置 | |
WO2019202878A1 (en) | Recording medium, information processing apparatus, and information processing method | |
Zaslavskiy et al. | Method for automated data collection for 3d reconstruction |