JP2022157458A - 施工管理システム、データ処理装置、及び施工管理方法 - Google Patents

施工管理システム、データ処理装置、及び施工管理方法 Download PDF

Info

Publication number
JP2022157458A
JP2022157458A JP2021061691A JP2021061691A JP2022157458A JP 2022157458 A JP2022157458 A JP 2022157458A JP 2021061691 A JP2021061691 A JP 2021061691A JP 2021061691 A JP2021061691 A JP 2021061691A JP 2022157458 A JP2022157458 A JP 2022157458A
Authority
JP
Japan
Prior art keywords
data
construction
detection
construction site
work machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021061691A
Other languages
English (en)
Inventor
駿 川本
Shun Kawamoto
翼 蓮實
Tsubasa Hasumi
みなみ 杉村
Minami SUGIMURA
鯉 董
Li Dong
翔大 平間
Shota Hirama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Original Assignee
Komatsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd filed Critical Komatsu Ltd
Priority to JP2021061691A priority Critical patent/JP2022157458A/ja
Priority to US18/278,465 priority patent/US20240135469A1/en
Priority to AU2022248060A priority patent/AU2022248060A1/en
Priority to DE112022000560.2T priority patent/DE112022000560T5/de
Priority to CN202280013211.1A priority patent/CN116868223A/zh
Priority to PCT/JP2022/007307 priority patent/WO2022209437A1/ja
Publication of JP2022157458A publication Critical patent/JP2022157458A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Conveying And Assembling Of Building Elements In Situ (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】施工の進捗状況を確認すること。【解決手段】施工管理システムは、作業機械が稼働する施工現場の現況地形データを作成する現況地形データ作成部と、施工現場を検出する検出装置の検出データを取得する検出データ取得部と、検出データを現況地形データに反映する反映データを生成する反映部と、反映データを表示装置に出力する出力部と、を備える。【選択図】図1

Description

本開示は、施工管理システム、データ処理装置、及び施工管理方法に関する。
施工管理システムに係る技術分野において、特許文献1に開示されているような施工管理システムが知られている。
国際公開第2019/012993号
施工現場の施工効率の低下を抑制するためには、施工の進捗状況を適正に確認できることが好ましい。
本開示は、施工の進捗状況を確認することを目的とする。
本開示に従えば、作業機械が稼働する施工現場の現況地形データを作成する現況地形データ作成部と、施工現場を検出する検出装置の検出データを取得する検出データ取得部と、検出データを現況地形データに反映する反映データを生成する反映部と、反映データを表示装置に出力する出力部と、を備える、施工管理システムが提供される。
本開示によれば、施工の進捗状況を確認することができる。
図1は、実施形態に係る施工管理システムを示す模式図である。 図2は、実施形態に係る油圧ショベルを示す斜視図である。 図3は、実施形態に係るクローラダンプを示す斜視図である。 図4は、実施形態に係る施工管理システムを示す機能ブロック図である。 図5は、実施形態に係る施工管理方法を示すフローチャートである。 図6は、実施形態に係る現況地形データを示す図である。 図7は、実施形態に係る反映データを示す図である。 図8は、実施形態に係る反映データを示す図である。 図9は、実施形態に係る反映データを示す図である。 図10は、実施形態に係る反映データを示す図である。 図11は、実施形態に係る反映データを示す図である。 図12は、実施形態に係る反映データを示す図である。 図13は、実施形態に係るコンピュータシステムを示すブロック図である。
以下、本開示に係る実施形態について図面を参照しながら説明するが、本開示は実施形態に限定されない。以下で説明する実施形態の構成要素は適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。
[施工管理システム]
図1は、実施形態に係る施工管理システム1を示す模式図である。施工管理システム1は、施工現場2の施工を管理する。施工現場2において複数の作業機械20が稼働する。実施形態において、作業機械20は、油圧ショベル21、ブルドーザ22、及びクローラダンプ23を含む。なお、作業機械20は、ホイールローダを含んでもよい。また、施工現場2に人WMが存在する。人WMとして、施工現場2で作業する作業者が例示される。なお、人WMは、施工を管理する監督者でもよい。人WMは、見学者でもよい。
図1に示すように、施工管理システム1は、管理装置3と、サーバ4と、情報端末5と、検出装置9と、検出装置12とを備える。
管理装置3は、施工現場2に配置されるコンピュータシステムを含む。管理装置3は、走行装置6に支持される。管理装置3は、走行装置6により施工現場2を走行することができる。走行装置6として、高所作業車、トラック、及び走行ロボットが例示される。サーバ4は、コンピュータシステムを含むデータ処理装置である。サーバ4は、施工現場2に配置されてもよいし、施工現場2の遠隔地に配置されてもよい。情報端末5は、施工現場2の遠隔地13に配置されるコンピュータシステムである。情報端末5として、パーソナルコンピュータ又はスマートフォンが例示される。管理装置3とサーバ4と情報端末5とは、通信システム10を介して通信する。通信システム10として、インターネット(internet)、ローカルエリアネットワーク(LAN:Local Area Network)、携帯電話通信網、及び衛星通信網が例示される。
検出装置9は、施工現場2を検出する。検出装置9は、施工現場2の3次元データを取得する。検出装置9の検出対象として、施工現場2の地形及び施工現場2に存在する物体が例示される。物体は、可動体及び静止体の一方又は両方を含む。可動体として、作業機械20及び人WMが例示される。静止体として、木材又は資材が例示される。
検出装置9により取得される3次元データは、施工現場2の画像データを含む。検出装置9により取得される画像データは、動画データでもよいし静止画データでもよい。検出装置9として、ステレオカメラが例示される。なお、検出装置9は、単眼カメラと3次元計測装置とを含んでもよい。3次元計測装置として、レーザ光を射出することにより検出対象を検出するレーザセンサ(LIDAR:Light Detection and Ranging)が例示される。なお、3次元計測装置は、赤外光を射出することにより物体を検出する赤外線センサ又は電波を射出することにより物体を検出するレーダセンサ(RADAR:Radio Detection and Ranging)でもよい。
検出装置9は、飛行体8に搭載される。飛行体8として、ドローンのような無人航空機(UAV:Unmanned Aerial Vehicle)が例示される。検出装置9は、施工現場2の上方から施工現場2を検出する。
実施形態において、飛行体8と管理装置3とは、ケーブル7により接続される。検出装置9の検出データは、ケーブル7を介して管理装置3に送信される。管理装置3に送信された検出装置9の検出データは、通信システム10を介してサーバ4に送信される。
実施形態において、管理装置3は、電源又は発電機を含む。管理装置3は、ケーブル7を介して飛行体8に電力を供給することができる。
検出装置12は、施工現場2を検出する。検出装置9と同様、検出装置12は、施工現場2の3次元データを取得する。検出装置12により取得される3次元データは、施工現場2の画像データを含む。
検出装置12は、飛行体11に搭載される。検出装置12は、施工現場2の上方から施工現場2を検出する。検出装置12の検出データは、通信システム10を介してサーバ4に送信される。
飛行体11は、飛行体8よりも上空を飛行することができる。飛行体11は、飛行体8よりも広範囲を飛行することができる。検出装置12は、検出装置9よりも施工現場2の広範囲を検出することができる。実施形態において、検出装置12は、施工現場2の全体を検出する。検出装置9は、施工現場2の一部分を検出する。
[作業機械]
図2は、実施形態に係る油圧ショベル21を示す斜視図である。図2に示すように、油圧ショベル21は、走行体24と、走行体24に支持される旋回体25と、旋回体25に支持される作業機26と、作業機26を駆動する油圧シリンダ27とを備える。
走行体24は、一対の履帯を有する。油圧ショベル21は、走行体24により施工現場2を走行することができる。旋回体25は、走行体24に支持された状態で旋回する。作業機26は、旋回体25に連結されるブーム26Aと、ブーム26Aに連結されるアーム26Bと、アーム26Bに連結されるバケット26Cとを含む。油圧シリンダ27は、ブーム26Aを動作させるブームシリンダ27Aと、アーム26Bを動作させるアームシリンダ27Bと、バケット26Cを動作させるバケットシリンダ27Cとを含む。
油圧ショベル21は、動作する。油圧ショベル21の動作として、走行体24の走行動作、旋回体25の旋回動作、ブーム26Aの上げ動作及び下げ動作、アーム26Bの掘削動作及びダンプ動作、並びにバケット26Cの掘削動作及びダンプ動作が例示される。
図3は、実施形態に係るクローラダンプ23を示す斜視図である。図3に示すように、クローラダンプ23は、走行体28と、車体29と、ダンプボディ30とを有する。
走行体28は、一対の履帯を有する。クローラダンプ23は、走行体28により施工現場2を走行することができる。ダンプボディ30は、積荷が積み込まれる部材である。油圧ショベル21は、作業機26を用いてダンプボディ30に積荷を積み込むことができる。ダンプボディ30は、不図示のホイストシリンダにより上昇して、積荷を排出することができる。
クローラダンプ23は、動作する。クローラダンプ23の動作として、走行体28の走行動作、並びにダンプボディ30の下げ動作及びダンプ動作が例示される。
[サーバ]
図4は、実施形態に係る施工管理システム1を示す機能ブロック図である。図4に示すように、施工管理システム1は、飛行体8と、飛行体11と、施工現場2に配置された管理装置3と、サーバ4と、施工現場2の遠隔地13に配置された情報端末5とを有する。
飛行体8は、位置センサ14と、姿勢センサ15と、検出装置9とを有する。
位置センサ14は、飛行体8の位置を検出する。位置センサ14は、全地球航法衛星システム(GNSS)を利用して飛行体8の位置を検出する。位置センサ14は、GNSS受信機(GNSSセンサ)を含み、飛行体8のグローバル座標系の位置を検出する。姿勢センサ15は、飛行体8の姿勢を検出する。姿勢センサ15として、慣性計測装置(IMU:Inertial Measurement Unit)が例示される。
飛行体11は、位置センサ16と、姿勢センサ17と、検出装置12とを有する。
位置センサ16は、GNSS受信機を含み、飛行体11のグローバル座標系の位置を検出する。姿勢センサ17は、飛行体11の姿勢を検出する。姿勢センサ17として、慣性計測装置(IMU:Inertial Measurement Unit)が例示される。
サーバ4は、現況地形データ作成部41と、検出データ取得部42と、認識部43と、反映部44と、出力部45と、記憶部46とを有する。
現況地形データ作成部41は、作業機械20が稼働する施工現場2の現況地形を示す現況地形データを作成する。現況地形データは、施工現場2の現況地形を示す3次元地形データである。現況地形は、所定の施工が開始される前の基準地形を含む。
現況地形データ作成部41は、検出装置12の検出データに基づいて現況地形データを作成する。上述のように、検出装置12は、施工現場2の全体を検出する。現況地形データは、施工現場2の全体の現況地形を示す。
実施形態において、検出装置12は、第1の頻度で施工現場2を検出する。検出装置12は、例えば1日の始業前に1回だけ施工現場2を検出する。検出装置12は、施工現場2において所定の施工が開始される前の基準地形を示す現況地形を検出する。現況地形データ作成部41は、第1の頻度で現況地形データを作成する。現況地形データ作成部41により作成された現況地形データは、記憶部46に記憶される。記憶部46に記憶される現況地形データは、第1の頻度で更新される。
なお、検出装置12が施工現場2を検出するタイミングは、1日の始業前に限定されず、任意のタイミングでもよい。
検出データ取得部42は、作業機械20及び作業機械20の周辺の施工エリアを検出した検出装置9の検出データを取得する。
上述のように、検出装置9は、施工現場2の一部分を検出する。検出装置9により検出される施工現場2の一部分は、作業を実施する作業機械20を含む。検出装置9により検出される施工現場2の一部分は、作業を実施する作業機械20の周辺の施工エリアを含む。検出装置9により検出される施工エリアとして、作業機械20により施工が進行している施工エリアが例示される。
実施形態において、検出装置9は、第1の頻度よりも高い第2の頻度で施工現場2を検出する。検出装置9は、例えば一定期間だけ施工現場2を連続的に検出する。検出装置9は、例えば作業機械20の作業が実施されている期間だけ施工現場2を連続的に検出する。なお、検出装置9は、施工現場2を常時検出してもよい。検出データ取得部42は、第2の頻度で検出装置9の検出データを取得する。検出データ取得部42により取得される検出データは、現況地形データよりも高頻度で更新される。
認識部43は、検出データ取得部42により取得された検出データに基づいて、施工現場2の物体を認識する。上述のように、物体として、作業機械20及び人WMが例示される。
認識部43は、入力データをアルゴリズムにより解析して出力データを出力する人工知能(AI:Artificial Intelligence)を利用して物体を認識する。入力データは検出装置9により取得された施工現場2の画像データであり、出力データは物体である。
認識部43は、物体の特徴量を学習することにより生成された学習モデルを保有する。学習モデルは、作業機械20の特徴量を学習することにより生成された学習モデルと、人WMの特徴量を学習することにより生成された学習モデルとを含む。学習モデルの生成においては、物体を含む学習画像を教師データとして機械学習が実施されることにより、物体の特徴量を入力とし物体を出力する学習モデルが生成される。認識部43は、検出装置9により取得された施工現場2の画像データを学習モデルに入力して、物体を認識することができる。
反映部44は、検出データ取得部42により取得された検出データを現況地形データに反映した反映データを生成する。現況地形データは、検出装置12により第1の頻度で検出された施工現場2の全体の3次元地形データである。検出データは、検出装置9により第2の頻度で検出された施工現場2の一部分である施工エリアの3次元地形データを含む。検出データ取得部42により取得される検出データは、第2の頻度で順次更新される。反映部44は、検出データ取得部42により取得された検出データを現況地形データの一部分に第2の頻度で順次反映する。現況地形データの少なくとも一部は、検出データ取得部42により取得された検出データにより順次更新される。
検出データ取得部42により取得される検出データは、施工エリアの更新後の地形を示す更新地形データを含む。更新後の地形は、施工中又は施工後の最新地形を含む。更新地形データは、第2の頻度で更新される。反映部44は、検出データ取得部42により取得された更新地形データを、記憶部46に記憶されている現況地形データに反映する。
検出データ取得部42により取得される検出データは、施工現場2の物体を示す非地形データを含む。非地形データは、施工現場2の物体を示す3次元データである。非地形データは、第2の頻度で更新される。反映部44は、検出データ取得部42により取得された非地形データを、記憶部46に記憶されている現況地形データに反映する。
実施形態において、反映部44は、検出データ取得部42により取得された検出データから非地形データが除去された施工エリアの更新地形データを現況地形データに反映する。物体を示す非地形データは、認識部43により認識される。反映部44は、検出データから非地形データを除去して更新地形データを生成する。また、施工現場2に物体が存在する場合、反映部44は、物体が反映された反映データを生成する。
反映部44により生成される反映データは、施工エリアの更新地形データを含む。
反映部44により生成される反映データは、認識部43により認識された物体を含む。
反映部44により生成される反映データは、認識部43により認識された作業機械20の3次元モデルを含む。作業機械20の3次元モデルは、作業機械20のコンピュータグラフィックス(CG:Computer Graphics)を含む。
作業機械20の3次元モデルとは、作業機械20を表した3次元モデルであって、例えば走行体24、旋回体25、及び作業機26のような作業機械20を構成するパーツごとに構築される。作業機械20の3次元モデルは、記憶部46に予め記憶されている。
反映部44により生成される反映データは、物体の位置を示すシンボル画像を含む。シンボル画像は、物体の位置を強調する画像データである。反映部44は、認識部43の認識結果に基づいて、シンボル画像を生成する。
出力部45は、反映部44により生成された反映データを情報端末5に出力する。出力部45は、通信システム10を介して、反映データを情報端末5に送信する。
情報端末5は、入力装置51と表示装置52とを有する。
入力装置51は、遠隔地13に存在する管理者に操作される。入力装置51は、管理者の操作に基づいて、入力データを生成する。入力装置51として、タッチパネル、コンピュータ用キーボード、マウス、又は操作ボタンが例示される。なお、入力装置51は、光学センサを含む非接触型入力装置でもよいし、音声入力装置でもよい。
表示装置52は、表示データを表示する。遠隔地13の管理者は、表示装置52に表示された表示データを確認することができる。実施形態において、出力部45は、反映部44により生成された反映データを表示装置52に出力する。表示装置52は、表示データとして、反映部44により生成された反映データを表示する。表示装置52として、液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機ELディスプレイ(OELD:Organic Electroluminescence Display)のようなフラットパネルディスプレイが例示される。
[検出装置と3次元データとの関係]
上述のように、飛行体8には、位置センサ14及び姿勢センサ15が搭載されている。位置センサ14は、検出装置9の位置を検出することができる。姿勢センサ15は、検出装置9の姿勢を検出することができる。姿勢は、例えばロール角、ピッチ角、及びヨー角を含む。ヨー角は、飛行体8に設けられた2つのGNSSセンサの検出データに基づいて算出されてもよい。検出装置9は、施工現場2の3次元データを検出する。施工現場2の3次元データは、検出装置9と検出対象に規定される複数の検出点のそれぞれとの相対距離及び相対位置を含む。認識部43及び反映部44は、位置センサ14の検出データと、姿勢センサ15の検出データと、検出装置9の検出データとに基づいて、例えばグローバル座標系における検出対象の3次元データの位置を算出することができる。また、認識部43及び反映部44は、所定の座標変換を実施して、例えば施工現場2に規定されたローカル座標系における検出対象の3次元データの位置を算出することができる。検出装置9の検出対象は、更新後の地形及び物体を含む。
同様に、現況地形データ作成部41は、位置センサ16の検出データと、姿勢センサ17の検出データと、検出装置12の検出データとに基づいて、例えば施工現場2に規定されたローカル座標系における検出対象の3次元データの位置を算出することができる。検出装置12の検出対象は、現況地形を含む。
認識部43は、検出データ取得部42により取得された検出データに基づいて、物体の存否及び物体の位置を認識することができる。
例えば人WMの位置を認識する場合、認識部43は、検出装置9の単眼カメラで取得された2次元画像に基づいて人WMを認識する。また、認識部43は、施工現場2の3次元地形データを取得する。認識部43は、2次元画像に基づいて認識された人WMに基づいて、施工現場2における人WMの位置を認識することができる。例えば、ステレオカメラを構成する2つの単眼カメラで取得された2次元画像に基づいて認識された人WMを、三角測量の原理に基づいて画像処理を実施して、人WMの三次元の位置を算出し、施工現場2の3次元地形データに対応させることにより、施工現場2における人WMの位置を認識することができる。また、レーザセンサやレーダセンサの検出値を用いて2次元画像に基づいて認識された人WMの三次元の位置を算出し、、施工現場2の3次元地形データに対応させることにより、施工現場2における人WMの位置を認識してもよい。なお、認識部43は、施工現場2の3次元データから人WMの位置を認識してもよい。なお、認識部43は、人WMが所持している位置センサの検出データに基づいて、人WMの位置を認識してもよい。例えば人WMがスマートフォンを所持しており、スマートフォンにGNSSセンサが搭載されている場合、認識部43は、スマートフォンのGNSSセンサの検出データに基づいて、人WMの位置を認識することができる。なお、人WMが所持する位置センサは、ビーコン(Beacon)でもよい。なお、2次元画像に基づいて認識された人WMの2次元画像上の座標と、検出装置9の3次元の位置及び姿勢と、3次元地形データとから、施工現場2における人WMの位置を幾何学計算で推定してもよい。
また、認識部43は、検出データ取得部42により取得された検出データに基づいて、作業機械20の動作を認識することができる。油圧ショベル21は、走行体24、旋回体25、及び作業機26を動作させることができる。クローラダンプ23は、走行体28及びダンプボディ30を動作させることができる。反映部44は、作業機械20に同期して、3次元モデルを動かすことができる。
[施工管理方法]
図5は、実施形態に係る施工管理方法を示すフローチャートである。現況地形データ作成部41は、作業機械20が稼働する施工現場2の現況地形データを作成する(ステップS1)。
図6は、実施形態に係る現況地形データを示す図である。現況地形データは、施工現場2の全体の現況地形を示す3次元地形データである。現況地形データ作成部41は、検出装置12の検出データを取得する。現況地形データ作成部41は、検出装置12の検出データに基づいて、現況地形データを作成する。
現況地形データ作成部41で作成された現況地形データは、記憶部46に記憶される。出力部45は、現況地形データを情報端末5に送信することができる。表示装置52は、図6に示すような現況地形を表示することができる。
施工現場2において作業機械20の作業が開始されると、施工現場2の地形が変化する。飛行体8に搭載されている検出装置9は、施工現場2を検出する。検出装置9は、例えば作業を実施している作業機械20及び作業機械20の周辺の施工エリアを検出する。検出装置9の検出データは、ケーブル7を介して管理装置3に送信される。管理装置3は、検出装置9の検出データをサーバ4に送信する。検出データ取得部42は、作業機械20及び作業機械20の周辺の施工エリアを検出した検出装置9の検出データを取得する(ステップS2)。
認識部43は、検出データ取得部42により取得された検出データに基づいて、施工現場2に物体が存在するか否かを判定する。実施形態において、認識部43は、施工エリアに物体が存在するか否かを判定する(ステップS3)。
ステップS3において、施工エリアに物体が存在しないと判定された場合(ステップS3:No)、反映部44は、検出データ取得部42により取得された検出データを記憶部46に記憶されている現況地形データに反映して、反映データを生成する。検出データ取得部42により取得された検出データは、施工現場2の一部分を示す施工エリアの更新地形データを含む。反映部44は、更新地形データを現況地形データに反映させる(ステップS4)。
例えば油圧ショベル21により施工現場2の一部が掘削された場合、掘削箇所を含む検出データが更新地形データとして検出データ取得部42に取得される。更新地形データは、油圧ショベル21により掘削された掘削箇所を含む。反映部44は、現況地形データの一部と更新地形データとを合成する。反映部44は、現況地形データの一部に更新地形データを当てはめる。これにより、掘削箇所を含む更新地形データが反映された反映データが生成される。
ステップS3において、施工エリアに物体が存在すると判定された場合(ステップS3:Yes)、反映部44は、認識部43により認識された物体を示す非地形データを検出データから除去して更新地形データを生成する(ステップS5)。
更新地形データが生成された後、反映部44は、更新地形データを現況地形データに反映して反映データを生成する。また、物体が存在する場合、反映部44は、物体が反映された反映データを生成する(ステップS6)。
なお、反映部44は、物体が存在する場合でも、物体が反映されない反映データを生成してもよい。
出力部45は、ステップS4及びステップS6の少なくとも一方で生成された反映データを情報端末5に出力する。表示装置52は、出力部45から送信された反映データを表示する(ステップS7)。
図7は、実施形態に係る反映データを示す図である。図7は、施工エリアに物体が存在しない場合の反映データを示す。反映データは、施工エリアの画像データを含む。例えば施工エリアにおける施工が進行すると、図7に示すように、施工現場2の地形の少なくとも一部が変化する。図7に示す例においては、油圧ショベル21の掘削作業により施工エリアに掘削箇所が生成される。検出データ取得部42により取得される検出データは、施工エリアの更新地形データを含む。反映部44は、施工現場2の地形の変化をリアルタイムで現況地形に反映させる。反映部44は、更新地形データを現況地形データにリアルタイムに反映させる。図7に示すように、表示装置52は、掘削箇所が反映された反映データを表示することができる。遠隔地13の管理者は、表示装置52に表示された反映データを確認することにより、施工現場2の施工の進捗状況をリアルタイムに認識することができる。
図8は、実施形態に係る反映データを示す図である。図8は、施工エリアに物体として油圧ショベル21とクローラダンプ23と人WMとが存在する場合の反映データを示す。反映データは、現況地形データの一部に更新地形データを反映させた3次元地形データを含む。反映データは、認識部43により認識された作業機械20の3次元モデルを含む。図8に示す例において、作業機械20の3次元モデルは、油圧ショベル21の3次元モデル21D及びクローラダンプ23の3次元モデル23Dを含む。
作業機械20の3次元モデルを表示装置52に表示させる場合、認識部43は、検出データ取得部42により取得された検出装置12の検出データに基づいて、作業機械20の位置(3次元位置)及び姿勢を算出する。作業機械20の姿勢は、水平面に対する旋回体25の傾き及び走行体24に対する旋回体25の旋回角度を含む。また、作業機械20の姿勢は、作業機26の角度を含む。作業機26の角度は、ブーム26Aの角度、アーム26Bの角度、及びバケット26Cの角度を含む。検出装置12の検出データは、ステレオカメラにより取得された画像を含む。そのため、認識部43は、検出装置12の検出データに基づいて、作業機械20の3次元位置及び姿勢を算出することができる。反映部44は、記憶部46に記憶されている3次元モデルが、認識部43により算出された位置に配置され且つ認識部43により算出された姿勢になるように、3次元モデルを調整して、反映データを生成する。
上述のように、作業機械20の3次元モデルは、例えば、走行体24、旋回体25、及び作業機26のような作業機械20を構成するパーツごとに構築される。反映部44は、ブーム26Aの角度、アーム26Bの角度、バケット26Cの角度、及び旋回体25の旋回角度に基づいて、3次元モデルの対応する部分の角度を変更することによって、3次元モデルを調整する。
出力部45は、反映部44により生成された3次元モデルを含む反映データを表示装置52に出力する。
なお、作業機械20の旋回体25に2つのGNSSセンサが搭載されている場合、認識部43は、1つのGNSSセンサの検出データに基づいて、作業機械20の位置を算出してもよい。また、認識部43は、2つのGNSSセンサのそれぞれの検出データに基づいて、旋回体25の傾き及び旋回角度を算出してもよい。また、ブームシリンダ27A、アームシリンダ27B、及びバケットシリンダ27Cのそれぞれにストロークセンサが設けられている場合、認識部43は、ストロークセンサの検出データに基づいて、作業機26の角度を算出してもよい。
図9は、実施形態に係る反映データを示す図である。反映データは、物体の位置を示すシンボル画像を含む。図9に示す例において、反映データは、人WMの位置を示すシンボル画像31を含む。反映部44は、認識部43により認識された人WMの位置に基づいて、シンボル画像31を生成する。反映部44は、人WMとシンボル画像31とが重畳して表示されるように反映データを生成する。図9に示す例において、シンボル画像31は、人WMを囲むフレーム状(ボックス状)である。なお、シンボル画像31の形状は任意であり、人WMを強調できればよい。なお、シンボル画像31は、人WMに隣接して表示されてもよい。人WMがシンボル画像31により強調されることにより、遠隔地13の管理者は、人WMの存在を円滑に認識することができる。
図10は、実施形態に係る反映データを示す図である。図10に示す例において、反映データは、油圧ショベル21の位置を示すシンボル画像32を含む。反映部44は、認識部43により認識された油圧ショベル21の位置に基づいて、シンボル画像32を生成することができる。図10に示す例において、シンボル画像32は、3次元モデル21Dを囲むフレーム状(ボックス状)である。反映部44は、油圧ショベル21の3次元モデル21Dとシンボル画像32とが重畳して表示されるように反映データを生成する。なお、シンボル画像32の形状は任意であり、油圧ショベル21を強調できればよい。
図11は、実施形態に係る反映データを示す図である。図11に示す例において、反映データは、油圧ショベル21に同期して動く3次元モデル21Dを含む。上述のように、認識部43は、作業機械20の動作を認識することができる。反映部44は、認識部43により認識された油圧ショベル21の動作に基づいて、油圧ショベル21の動作に同期するように、表示装置52において3次元モデル21Dを動かすことができる。図11には、油圧ショベル21のブーム26Aの上げ動作に同期して、3次元モデル21Dのブームが上げ動作する例が示されている。同様に、反映部44は、認識部43により認識されたクローラダンプ23の動作に基づいて、クローラダンプ23の動作に同期するように、表示装置52において3次元モデル23Dを動かすことができる。
図12は、実施形態に係る反映データを示す図である。図12に示す例において、反映データは、人WMの位置を示すシンボル画像31と、油圧ショベル21の位置を示すシンボル画像32と、クローラダンプ23の位置を示すシンボル画像33とを含む。反映部44は、例えばクローラダンプ23の3次元モデル23Dとシンボル画像33とが重畳して表示されるように反映データを生成する。
反映部44は、施工エリアの施工が終了したか否かを判定する(ステップS8)。
ステップS8において施工が終了していないと判定された場合(ステップS8:No)、ステップS2からステップS7の処理が繰り返される。ステップS8において施工が終了したと判定された場合(ステップS8:Yes)、実施形態に係る施工管理方法が終了する。
[コンピュータシステム]
図13は、実施形態に係るコンピュータシステム1000を示すブロック図である。上述のサーバ4は、コンピュータシステム1000を含む。コンピュータシステム1000は、CPU(Central Processing Unit)のようなプロセッサ1001と、ROM(Read Only Memory)のような不揮発性メモリ及びRAM(Random Access Memory)のような揮発性メモリを含むメインメモリ1002と、ストレージ1003と、入出力回路を含むインターフェース1004とを有する。上述のサーバ4の機能は、コンピュータプログラムとしてストレージ1003に記憶されている。プロセッサ1001は、コンピュータプログラムをストレージ1003から読み出してメインメモリ1002に展開し、プログラムに従って上述の処理を実行する。なお、コンピュータプログラムは、ネットワークを介してコンピュータシステム1000に配信されてもよい。
コンピュータプログラム又はコンピュータシステム1000は、上述の実施形態に従って、作業機械20が稼働する施工現場2の現況地形データを記憶することと、施工現場2を検出する検出装置9の検出データを取得することと、検出データを現況地形データに反映する反映データを生成することと、反映データを表示装置52に表示することと、を実行することができる。
[効果]
以上説明したように、実施形態によれば、施工前の施工現場2の基準地形を示す現況地形データが作成される。施工中において、作業機械20及び作業機械20の周辺の施工エリアが検出装置9により検出される。現況地形データに検出データが反映された反映データが表示装置52に表示される。遠隔地13の管理者は、表示装置52を確認することにより、施工エリアの施工の進捗状況をリアルタイムで確認することができる。遠隔地13の管理者は、施工の進捗状況を遠隔監視することができる。
現況地形データに反映される検出データは、現況地形データよりも高頻度で更新される。そのため、遠隔地13の管理者は、施工エリアの最新状況を確認することができる。
現況地形データに反映される検出データは、施工エリアの更新地形データを含む。これにより、遠隔地13の管理者は、施工中又は施工後の施工エリアの最新地形を確認することができる。
現況地形データに反映される検出データは、施工現場2の物体を示す非地形データを含む。反映部44は、検出データ取得部42により取得された検出データから非地形データが除去された更新地形データを現況地形データに反映する。これにより、遠隔地13の管理者は、物体の影響が抑制された施工エリアの最新地形を確認することができる。
現況地形データに反映される検出データは、施工現場2の物体を示す非地形データを含む。これにより、遠隔地13の管理者は、施工現場の最新地形のみならず、施工現場2の物体の状況をリアルタイムで確認することができる。
表示装置52に表示される反映データは、認識部43により認識された物体を含む。表示装置52には、最新地形と物体とが区別された反映データが表示される。これにより、遠隔地13の管理者は、施工現場の最新地形と施工現場2の物体の状況との両方をリアルタイムで適正に確認することができる。
表示装置52に表示される反映データは、作業機械20の3次元モデルを含む。遠隔地13の管理者は、表示装置52に表示された3次元モデルを確認することにより、作業機械20の状況をリアルタイムで適正に確認することができる。
認識部43は、検出データ取得部42により取得された検出データに基づいて、作業機械20の動作を認識する。反映部44は、認識部43の認識結果に基づいて、作業機械20に同期して3次元モデルを動かすことができる。遠隔地13の管理者は、実際の作業機械20に同期して動く3次元モデルを確認することにより、作業機械20の状況をリアルタイムで適正に確認することができる。
認識部43は、検出データ取得部42により取得された検出データに基づいて、人WMを認識する。遠隔地13の管理者は、表示装置52に表示された人WMを確認することにより、人WMの状況をリアルタイムで適正に確認することができる。
表示装置52に表示される反映データは、物体の位置を示すシンボル画像を含む。遠隔地13の管理者は、表示装置52に表示されたシンボル画像を確認することにより、物体の位置を適正に確認することができる。
検出装置9は、飛行体8に搭載される。これにより、検出装置9は、作業機械20及び施工エリアを上空から一括して検出することができる。
[その他の実施形態]
上述の実施形態において、認識部43は、検出装置9の検出データに基づいて、作業機械20の位置を認識することとした。例えば作業機械20の位置を検出する位置センサが作業機械20に設けられ、認識部43は、位置センサの検出データに基づいて、作業機械20の位置を認識してもよい。
上述の実施形態において、認識部43は、検出装置9の検出データに基づいて、作業機械20の動作を認識することとした。例えば作業機械20の動作を検出する動作センサが作業機械20に設けられ、認識部43は、動作センサの検出データに基づいて、作業機械20の動作を認識してもよい。動作センサとして、例えば作業機26の動作を検出する角度センサ又は油圧シリンダ27の伸縮量を検出するストロークセンサが例示される。
上述の実施形態において、認識部43は、人工知能を利用せずに、例えばパターンマッチング法に基づいて物体を認識してもよい。認識部43は、人WMを示すテンプレートと施工現場2の画像データとを照合することにより、物体を認識することができる。
上述の実施形態において、検出装置9は、飛行体8に搭載されなくてもよい。検出装置9は、例えば作業機械20に搭載されてもよいし、施工現場2に存在する構造物に取り付けられてもよい。検出装置12についても同様である。
上述の実施形態において、現況地形データ作成部41、検出データ取得部42、認識部43、反映部44、出力部45、及び記憶部46のそれぞれが、別々のハードウエアにより構成されてもよい。例えば、現況地形データ作成部41の機能、検出データ取得部42の機能、認識部43の機能、反映部44の機能、出力部45の機能、及び記憶部46の機能の少なくとも一つが、管理装置3に設けられてもよいし、サーバ4とは別のサーバに設けられてもよい。
上述の実施形態において、管理装置3は、走行装置6に支持され、施工現場2を走行することができることとした。管理装置3は、作業機械20に搭載されてもよいし、施工現場2の所定の位置に設置されてもよい。
上述の実施形態において、検出装置12が施工現場2の全体を検出し、検出装置9が施工現場2の一部分を検出することとした。検出装置9が施工現場2の全体を検出してもよい。
上述の実施形態において、検出装置9の検出対象は、施工現場2の地形、作業機械20及び人WMに限られない。他の実施形態においては、検出装置9は、施工用の資材を検出するようにしてもよい。
上述の実施形態において、情報端末5は、施工現場2の遠隔地13に配置されなくてもよい。情報端末5は、例えば作業機械20に搭載されてもよい。また、情報端末5は省略されてもよい。施工の進捗状況が、作業機械20にモニタから出力されてもよい。モニタは、表示装置のみならず入力装置を備えてもよい。
上述の実施形態において、作業機械20は、油圧ショベル21、ブルドーザ22、及びクローラダンプ23を含むものに限られない。他の実施形態においては、作業機械20は、油圧ショベル21、ブルドーザ22、及びクローラダンプ23の一部を含むものであってよい。また、他の種類の作業機械を含むものであってもよい。
上述の実施形態において、全地球航法衛星システム(GNSS)を利用して飛行体8の位置を検出し、慣性計測装置を利用して飛行体8の姿勢を検出するものに限られない。他の実施形態においては、SLAM(Simultaneous Localization and Mapping)を利用して飛行体8の位置、及び姿勢を検出してもよい。同様にSLAMを利用して、飛行体11や作業機械20の位置、及び姿勢を検出してもよい。
1…施工管理システム、2…施工現場、3…管理装置、4…サーバ(データ処理装置)、5…情報端末、6…走行装置、7…ケーブル、8…飛行体、9…検出装置、10…通信システム、11…飛行体、12…検出装置、13…遠隔地、14…位置センサ、15…姿勢センサ、16…位置センサ、17…姿勢センサ、20…作業機械、21…油圧ショベル、21D…3次元モデル、22…ブルドーザ、23…クローラダンプ、23D…3次元モデル、24…走行体、25…旋回体、26…作業機、26A…ブーム、26B…アーム、26C…バケット、27…油圧シリンダ、27A…ブームシリンダ、27B…アームシリンダ、27C…バケットシリンダ、28…走行体、29…車体、30…ダンプボディ、31…シンボル画像、32…シンボル画像、33…シンボル画像、41…現況地形データ作成部、42…検出データ取得部、43…認識部、44…反映部、45…出力部、46…記憶部、51…入力装置、52…表示装置、1000…コンピュータシステム、1001…プロセッサ、1002…メインメモリ、1003…ストレージ、1004…インターフェース、WM…人。

Claims (20)

  1. 作業機械が稼働する施工現場の現況地形データを作成する現況地形データ作成部と、
    前記施工現場を検出する検出装置の検出データを取得する検出データ取得部と、
    前記検出データを前記現況地形データに反映する反映データを生成する反映部と、
    前記反映データを表示装置に出力する出力部と、を備える、
    施工管理システム。
  2. 前記検出データは、前記現況地形データよりも高頻度で更新される、
    請求項1に記載の施工管理システム。
  3. 前記検出データは、前記施工現場の更新地形データを含む、
    請求項1又は請求項2に記載の施工管理システム。
  4. 前記検出データは、前記施工現場の物体を示す非地形データを含み、
    前記反映部は、前記検出データから前記非地形データが除去された前記施工現場の更新地形データを前記現況地形データに反映する、
    請求項1又は請求項2に記載の施工管理システム。
  5. 前記検出データは、前記施工現場の物体を示す非地形データを含む、
    請求項1又は請求項2に記載の施工管理システム。
  6. 前記検出データに基づいて前記施工現場の物体を認識する認識部を備え、
    前記反映データは、前記認識部により認識された前記物体を含む、
    請求項1又は請求項2に記載の施工管理システム。
  7. 前記物体は、前記作業機械を含み、
    前記反映データは、前記作業機械の3次元モデルを含む、
    請求項6に記載の施工管理システム。
  8. 前記認識部は、前記作業機械の動作を認識し、
    前記反映部は、前記作業機械に同期して前記3次元モデルを動かす、
    請求項7に記載の施工管理システム。
  9. 前記物体は、人を含む、
    請求項6から請求項8のいずれか一項に記載の施工管理システム。
  10. 前記認識部は、前記物体の位置を認識し、
    前記反映データは、前記物体の位置を示すシンボル画像を含む、
    請求項6から請求項9のいずれか一項に記載の施工管理システム。
  11. 前記検出装置は、飛行体に搭載される、
    請求項1から請求項10のいずれか一項に記載の施工管理システム。
  12. 前記検出装置は、前記作業機械及び前記作業機械の周辺の施工エリアを検出する、
    請求項1から請求項11のいずれか一項に記載の施工管理システム。
  13. 作業機械が稼働する施工現場の現況地形データを作成する現況地形データ作成部と、
    前記施工現場を検出する検出装置の検出データを取得する検出データ取得部と、
    前記検出データを前記現況地形データに反映する反映データを生成する反映部と、
    前記反映データを表示装置に出力する出力部と、を備える、
    データ処理装置。
  14. 作業機械が稼働する施工現場の現況地形データを記憶することと、
    前記施工現場を検出する検出装置の検出データを取得することと、
    前記検出データを前記現況地形データに反映する反映データを生成することと、
    前記反映データを表示装置に表示することと、を含む、
    施工管理方法。
  15. 前記検出データは、前記現況地形データよりも高頻度で更新される、
    請求項14に記載の施工管理方法。
  16. 前記検出データは、前記施工現場の更新地形データを含む、
    請求項14又は請求項15に記載の施工管理方法。
  17. 前記検出データは、前記施工現場の物体を示す非地形データを含み、
    前記検出データから前記非地形データが除去された前記施工現場の更新地形データを前記現況地形データに反映する、
    請求項14又は請求項15に記載の施工管理方法。
  18. 前記検出データは、前記施工現場の物体を示す非地形データを含む、
    請求項14又は請求項15に記載の施工管理方法。
  19. 前記検出データに基づいて前記施工現場の物体を認識することと、を含み、
    前記反映データは、認識された前記物体を含む、
    請求項14又は請求項15に記載の施工管理方法。
  20. 前記物体は、前記作業機械を含み、
    前記反映データは、前記作業機械の3次元モデルを含む、
    請求項19に記載の施工管理方法。
JP2021061691A 2021-03-30 2021-03-31 施工管理システム、データ処理装置、及び施工管理方法 Pending JP2022157458A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2021061691A JP2022157458A (ja) 2021-03-31 2021-03-31 施工管理システム、データ処理装置、及び施工管理方法
US18/278,465 US20240135469A1 (en) 2021-03-30 2022-02-22 Construction management system, data processing device, and construction management method
AU2022248060A AU2022248060A1 (en) 2021-03-31 2022-02-22 Construction management system, data processing device, and construction management method
DE112022000560.2T DE112022000560T5 (de) 2021-03-31 2022-02-22 Bauverwaltungssystem, datenverarbeitungsvorrichtung und bauverwaltungsverfahren
CN202280013211.1A CN116868223A (zh) 2021-03-31 2022-02-22 施工管理***、数据处理装置、以及施工管理方法
PCT/JP2022/007307 WO2022209437A1 (ja) 2021-03-31 2022-02-22 施工管理システム、データ処理装置、及び施工管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021061691A JP2022157458A (ja) 2021-03-31 2021-03-31 施工管理システム、データ処理装置、及び施工管理方法

Publications (1)

Publication Number Publication Date
JP2022157458A true JP2022157458A (ja) 2022-10-14

Family

ID=83455898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021061691A Pending JP2022157458A (ja) 2021-03-30 2021-03-31 施工管理システム、データ処理装置、及び施工管理方法

Country Status (6)

Country Link
US (1) US20240135469A1 (ja)
JP (1) JP2022157458A (ja)
CN (1) CN116868223A (ja)
AU (1) AU2022248060A1 (ja)
DE (1) DE112022000560T5 (ja)
WO (1) WO2022209437A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3687850B2 (ja) * 2002-02-28 2005-08-24 株式会社間組 建設工事の精密施工支援システム及びこれを用いた精密施工法
JP7032308B2 (ja) * 2016-03-31 2022-03-08 住友重機械工業株式会社 建設機械用作業管理システム及び建設機械
JP6867132B2 (ja) * 2016-09-30 2021-04-28 株式会社小松製作所 作業機械の検出処理装置及び作業機械の検出処理方法
WO2019012993A1 (ja) 2017-07-14 2019-01-17 株式会社小松製作所 稼働情報送信装置、施工管理システム、稼働情報送信方法及びプログラム
JP7340996B2 (ja) * 2019-09-03 2023-09-08 日立建機株式会社 現場管理システム

Also Published As

Publication number Publication date
AU2022248060A1 (en) 2023-09-14
DE112022000560T5 (de) 2023-11-23
WO2022209437A1 (ja) 2022-10-06
US20240135469A1 (en) 2024-04-25
CN116868223A (zh) 2023-10-10

Similar Documents

Publication Publication Date Title
AU2018333191B2 (en) Display system, display method, and display apparatus
JP4671317B2 (ja) 地形形状計測装置およびガイダンス装置
US9142063B2 (en) Positioning system utilizing enhanced perception-based localization
US11120577B2 (en) Position measurement system, work machine, and position measurement method
JP6867132B2 (ja) 作業機械の検出処理装置及び作業機械の検出処理方法
JPH11211473A (ja) 地形形状計測装置
CN110741124B (zh) 用于工程机械的信息***
US20220170243A1 (en) Working machine
JP6887229B2 (ja) 施工管理システム
WO2022209437A1 (ja) 施工管理システム、データ処理装置、及び施工管理方法
WO2022209434A1 (ja) 施工管理システム、データ処理装置、及び施工管理方法
US20220316188A1 (en) Display system, remote operation system, and display method
WO2023106324A1 (ja) 表示システム及び表示方法
JP7107792B2 (ja) 建設機械
WO2023106323A1 (ja) 施工管理システム及び施工管理方法
WO2023106076A1 (ja) 表示システム及び表示方法
KR20240093869A (ko) 표시 시스템 및 표시 방법
KR20240090459A (ko) 시공 관리 시스템 및 시공 관리 방법
KR20190060127A (ko) 굴삭기 작업반경 표시 방법
KR20240095351A (ko) 표시 시스템 및 표시 방법
JP2023167539A (ja) 環境データ生成装置、環境データ生成方法、プログラム
JP2022186143A (ja) 環境データ生成装置、建設機械、環境データ生成方法、およびプログラム
KR100910203B1 (ko) 자율이동플랫폼 장치의 지형영상 출력장치, 이를 구비하는 자율이동플랫폼 장치 및 자율이동플랫폼 장치의 지형영상 출력방법
JP2023006464A (ja) 情報処理装置、情報処理装置の制御プログラム
JP2023046881A (ja) 物体認識装置、環境データ生成装置、モデル生成装置、物体認識方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240514