JP6717476B1 - 空間認識システム、空間認識装置、空間認識方法及びプログラム - Google Patents

空間認識システム、空間認識装置、空間認識方法及びプログラム Download PDF

Info

Publication number
JP6717476B1
JP6717476B1 JP2019096601A JP2019096601A JP6717476B1 JP 6717476 B1 JP6717476 B1 JP 6717476B1 JP 2019096601 A JP2019096601 A JP 2019096601A JP 2019096601 A JP2019096601 A JP 2019096601A JP 6717476 B1 JP6717476 B1 JP 6717476B1
Authority
JP
Japan
Prior art keywords
self
space
recognition device
unit
spatial data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019096601A
Other languages
English (en)
Other versions
JP2020190971A (ja
Inventor
幸治 金野
幸治 金野
啓太郎 平野
啓太郎 平野
幸男 平原
幸男 平原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CHIYODA SOKKI CO., LTD.
Informatix Inc
Original Assignee
CHIYODA SOKKI CO., LTD.
Informatix Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CHIYODA SOKKI CO., LTD., Informatix Inc filed Critical CHIYODA SOKKI CO., LTD.
Priority to JP2019096601A priority Critical patent/JP6717476B1/ja
Priority to PCT/JP2020/020628 priority patent/WO2020235694A1/ja
Priority to US17/613,339 priority patent/US20220301223A1/en
Application granted granted Critical
Publication of JP6717476B1 publication Critical patent/JP6717476B1/ja
Publication of JP2020190971A publication Critical patent/JP2020190971A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Information Transfer Between Computers (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】自己位置の推定精度や安定性を向上させることが可能な空間認識システム、空間認識装置、空間認識方法及びプログラムを提供する。【解決手段】空間認識装置100は、現実空間の3次元形状を認識して空間データを生成する空間認識部101と、現実空間における自己位置を推定する自己位置推定部103と、空間データと、他の空間認識装置が生成した空間データとを統合した統合空間データを生成する空間データ統合部105と、統合空間データに基づいて表現された自己位置を、他の空間認識装置に送信する自己位置共有部107と、を有する。【選択図】図3

Description

本発明は空間認識システム、空間認識装置、空間認識方法及びプログラムに関し、特に位置推定精度を向上させる技術に関する。
現実空間に存在する壁や障害物などを認識することにより特有の機能を発現する装置(以下、空間認識装置)が産業界で広く利用されるようになっている。例えば、トンネル、橋梁及びビル等の構造物の施工及び検査業務等においては、カメラやデプスセンサにより現実空間を認識する機能を有するHMD(Head Mounted Display)を装着した作業者が、透過型ディスプレイを介して壁や床等に映し出される図面等のオブジェクトを視認しながら、現実空間内を自在に動き回って作業を行っている例がある。(特許文献1参照)
このような空間認識装置は、現実空間内における自己の位置を正しく認識することにより、図面をはじめとする様々なオブジェクトを正しい位置に投影するなどの機能を発現することが可能となる。従来の空間認識装置は、GPS(Global Positioning System)などの衛星測位システム(GNSS:Global Navigation Satellite System)の利用や、現実空間内に置かれたマーカーの位置を基準とすることなどにより、自己の位置を推定していた。
また、特許文献2には、作業者のヘルメットに固定されたプリズムをトータルステーションが追尾することで作業者の視点位置を特定し、視点位置に応じた仮想映像を作業者のゴーグルに表示するシステムが開示されている。
特許第6438995号公報 特開2000−155855号公報
しかしながら、衛星測位システム等を利用する方式は、建物やトンネル内のような測位信号が遮断される場所では利用が困難であるという問題がある。また、マーカーを基準とする方式では、空間認識装置がマーカーから離れていくほど、現在位置の推定誤差が大きくなってしまうという問題がある。特許文献2のようにトータルステーションを基準とする方式は、マーカーを基準とする方式よりも誤差を比較的抑えやすいが、空間認識装置がトータルステーションの視界から外れてしまうと位置を認識できなくなるという問題がある。
また、従来の空間認識装置は、自己位置の推定に失敗し、いわゆるロストが発生したときに、例えば現実空間上へのコンテンツ投影といった自己位置が不可欠な処理に容易に支障をきたしてしまうという問題を有していた。
本発明はこのような問題点を解決するためになされたものであり、自己位置の推定精度や安定性を向上させることが可能な空間認識システム、空間認識装置、空間認識方法及びプログラムを提供することを目的とする。
本発明の一形態は、現実空間の3次元形状を認識して空間データを生成する空間認識部と、前記空間データに基づいて、前記現実空間における自己位置を推定する自己位置推定部と、前記空間データと、他の空間認識装置が生成した前記空間データと、を統合し、同一の原点を有する同一の座標系で表現された統合空間データを生成する空間データ統合部と、前記統合空間データに基づいて推定された前記現実空間における前記自己位置を、他の前記空間認識装置に送信する自己位置共有部と、を有し、前記自己位置共有部は、前記自己位置推定部が前記自己位置を推定できないとき、他の前記空間認識装置から前記自己位置を取得する空間認識装置である。
本発明の一形態は、第1の空間認識装置と、第2の空間認識装置と、を有し、前記第1の空間認識装置は、現実空間の3次元形状を認識して第1の空間データを生成する第1の空間認識部と、前記第1の空間データに基づいて、前記現実空間における第1の自己位置を推定する第1の自己位置推定部と、前記第1の空間データを前記第2の空間認識装置に送信する第1の空間データ統合部と、前記第1の自己位置を前記第2の空間認識装置に送信する第1の自己位置共有部と、を有し、前記第2の空間認識装置は、前記現実空間の3次元形状を認識して第2の空間データを生成する第2の空間認識部と、前記第2の空間データに基づいて、前記現実空間における第2の自己位置を推定する第2の自己位置推定部と、前記第1の空間データと前記第2の空間データとを統合し、同一の原点を有する同一の座標系で表現された統合空間データを生成する第2の空間データ統合部と、前記統合空間データに基づいて推定された前記現実空間における前記第2の自己位置を前記第1の空間認識装置に送信する第2の自己位置共有部と、を有し、前記第2の自己位置推定部が前記現実空間における前記自己位置を推定できないとき、前記第2の自己位置共有部が、前記第1の空間認識装置から前記第2の自己位置を取得する空間認識システムである。
本発明の一形態は、複数の空間認識装置と、サーバと、を有し、前記空間認識装置は、現実空間の3次元形状を認識して空間データを生成する空間認識部と、前記空間データに基づいて、前記現実空間における自己位置を推定する自己位置推定部と、を有し、前記サーバは、複数の前記空間認識装置が生成した前記空間データを統合し、同一の原点を有する同一の座標系で表現された統合空間データを生成する空間データ統合部と、前記統合空間データに基づいて推定された前記現実空間における前記空間認識装置の前記自己位置を、他の前記空間認識装置に送信する自己位置共有部と、を有し、前記自己位置共有部は、前記自己位置推定部が前記自己位置を推定できないとき、他の前記空間認識装置から前記自己位置を取得する空間認識システムである。
本発明の一形態は、第1の空間認識装置と、第2の空間認識装置と、を有し、前記第1の空間認識装置は、現実空間の3次元形状を認識して第1の空間データを生成する第1の空間認識部と、前記第1の空間データに基づいて、前記現実空間における第1の自己位置を推定する第1の自己位置推定部と、前記第1の空間データを前記第2の空間認識装置に送信する第1の空間データ統合部と、前記第1の自己位置を前記第2の空間認識装置に送信する第1の自己位置共有部と、を有し、前記第2の空間認識装置は、前記現実空間の3次元形状を認識して第2の空間データを生成する第2の空間認識部と、前記第2の空間データに基づいて、前記現実空間における第2の自己位置を推定する第2の自己位置推定部と、前記第1の空間データと前記第2の空間データとを統合し、同一の原点を有する同一の座標系で表現された統合空間データを生成する第2の空間データ統合部と、前記統合空間データに基づいて推定された前記現実空間における前記第2の自己位置を前記第1の空間認識装置に送信する第2の自己位置共有部と、を有し、前記第1の空間認識装置又は前記第2の空間認識装置は自己位置補正部をさらに有し、前記自己位置補正部は、トータルステーションにより測定された前記第1の空間認識装置又は前記第2の空間認識装置の位置情報に基づいて、前記第1の自己位置推定部又は前記第2の自己位置推定部が推定した前記第1の自己位置又は前記第2の自己位置を補正する空間認識システムである。
本発明の一形態は、前記第1の自己位置推定部は、ローカル座標を用いて前記自己位置を推定する上記空間認識システムである。
本発明の一形態は、空間認識装置が、現実空間の3次元形状を認識して空間データを生成する空間認識ステップと、前記空間データに基づいて、前記現実空間における自己位置を推定する自己位置推定ステップと、前記空間データと、他の前記空間認識装置が生成した前記空間データとを統合し、同一の原点を有する同一の座標系で表現された統合空間データを生成する空間データ統合ステップと、前記統合空間データに基づいて推定された前記現実空間における前記自己位置を、他の前記空間認識装置に送信する自己位置共有ステップと、を有し、前記自己位置共有ステップでは、前記自己位置推定部が前記自己位置を推定できないとき、他の前記空間認識装置から前記自己位置を取得する空間認識方法である。
本発明の一形態は、上記方法をコンピュータに実行させるためのプログラムである。
本発明により、自己位置の推定精度や安定性を向上させることが可能な空間認識システム、空間認識装置、空間認識方法及びプログラムを提供することができる。
実施の形態1にかかる空間認識システム1の構成を示すブロック図である。 実施の形態1にかかる空間認識装置100の外観の一例を示す図である。 実施の形態1にかかる空間認識装置100の機能を示すブロック図である。 実施の形態2にかかる空間認識システム1の構成を示すブロック図である。 実施の形態2にかかる空間認識システム1の機能を示すブロック図である。 実施の形態3にかかる空間認識装置100の外観の一例を示す図である。 実施の形態3にかかる空間認識システム1の構成を示すブロック図である。 実施の形態3にかかる空間認識システム1の機能を示すブロック図である。 自己位置補正部309による測定値の補正処理を説明する図である。
<実施の形態1>
本発明の実施の形態について、図面を用いて説明する。はじめに図1を用いて、本発明の実施の形態1にかかる空間認識システム1の構成について説明する。空間認識システム1は、複数の空間認識装置100(100a,100b,・・・)を含む。
図2は、実施の形態1にかかる空間認識装置100の外観の一例を示す図である。空間認識装置100は、典型的にはカメラ、デプスセンサ、ジャイロ、透過型ディスプレイ、処理ユニット及び通信ユニット等を有するHMD(Head Mounted Display)であり、例えばHololens(登録商標)等が含まれる。
カメラは、現実空間を連続的に撮影して画像データを取得する。空間認識装置100は、これらの画像データに基づいて、現実空間の3次元形状の認識(マッピング)と、空間認識装置100の位置及び姿勢の推定(自己位置推定)と、を行う(SLAM:Simultaneous Localization and Mapping)。SLAMは公知技術であるので、本稿ではSLAMの具体的なアルゴリズムについての説明は省略する。なお、空間認識装置100は、現実空間の深度情報を取得するデプスセンサや、空間認識装置100の傾きを検出するジャイロから得られる情報を用いて、SLAMの精度を上げることも可能である。
透過型ディスプレイは、ディスプレイの向こう側の現実空間を視認できるほど透過率の高いディスプレイであり、ディスプレイに映し出されるコンテンツを現実空間に重畳させてユーザに視認させることができる。
処理ユニットは、少なくともプロセッサとメモリとを含み、プロセッサがメモリに格納されたプログラムを実行することにより空間認識装置100特有の機能を実現する。通信ユニットは、外部の情報処理装置(サーバや他の空間認識装置100等)とのデータの送受信を実行する。
図3は、実施の形態1にかかる空間認識装置100の機能を示すブロック図である。空間認識装置100は、空間認識部101、自己位置推定部103、空間データ統合部105、自己位置共有部107を有する。
空間認識部101は、カメラ、デプスセンサ、ジャイロ等から得られる情報に基づいて(マッピング)を行う。マッピングの成果として、空間認識部101は3次元メッシュデータ又は3次元点群データ(以下、空間データともいう)を生成する。3次元メッシュデータは、現実空間の3次元形状を示す多数の小さな平面(メッシュ)の集合である。典型的には、各メッシュはその法線ベクトルで代表されるので、メッシュデータは法線ベクトルの集合でありうる。3次元点群データは、現実空間の3次元形状を示す多数の点の集合(点群)である。より具体的には、各点の3次元座標の集合である。
自己位置推定部103は、カメラ、デプスセンサ、ジャイロ等から得られる情報に基づいて空間認識装置100の位置及び姿勢の推定(自己位置推定)を行う。自己位置推定の成果として、自己位置推定部103は、典型的にはカメラ位置の座標と、空間認識装置100の傾きとを算出する。
空間データ統合部105は、現実空間内に存在する他の空間認識装置100と通信を行って、複数の空間認識装置100の空間データを統合する。一例として、現実空間内に空間認識装置100a及び空間認識装置100bが存在する場合を想定する。親機として振る舞う空間認識装置100aは、自己(空間認識装置100a)が認識した空間データSaを、子機として振る舞う空間認識装置100bに送信する。子機である空間認識装置100bは、空間認識装置100aが認識した空間データSaと、自己(空間認識装置100b)が認識した空間データSbとのパターンマッチングを行い、両者の空間データを統合した統合空間データSiを生成する。
空間データ同士のパターンマッチングについて説明する。空間データが3次元メッシュデータである場合、子機(空間認識装置100b)側の空間データ統合部105は、空間認識装置100a及び空間認識装置100bの双方のメッシュのうち、形状、傾き、大きさが一致しているもの(完全に一致するもののほか、差が所定のしきい値以内であるものも含む)を探索する。メッシュの形状、傾き、大きさが一致するとは、換言すれば、法線ベクトルの類似度が高いということである。一致するメッシュペアが発見されたならば、それらのメッシュペアをそれぞれ重ね合わせることによって2つのメッシュを結合させ、1つに統合された3次元メッシュデータを生成する。空間データが3次元点群データである場合も同様に、子機(空間認識装置100b)側の空間データ統合部105が、双方の空間データから類似度の高い点をそれぞれ選び出し、それらの点同士を重ね合わせることによって2つのメッシュを結合させ、1つに統合された3次元メッシュデータを生成する。
子機である空間認識装置100bの空間データ統合部105は、親機である空間認識装置100aの空間データ統合部105に、生成した統合空間データSiを送信する。これにより、空間認識装置100aと空間認識装置100bとの間で統合空間データSiが共有される。以降、空間認識装置100aと空間認識装置100bとは統合空間データSiを用いて自己の位置を認識する。すなわち、同じワールド座標を共有し、ワールド座標の原点からの相対座標として自己位置を表現する。
なお、ここでは子機が1台である例を示したが、本発明はこれに限定されず、子機は複数台であっても良い。この場合、子機それぞれにおいて上述の一連の処理が実行される。
自己位置共有部107は、現実空間内に存在する他の空間認識装置100に対し、所定の間隔で自己位置を送信する。例えば、現実空間内に空間認識装置100a及び空間認識装置100bが存在する場合、空間認識装置100aは、自己の位置(自己位置)Paを空間認識装置100bに対し送信し、空間認識装置100bはPaを一定期間保持する。同様に、空間認識装置100bは、自己の位置(自己位置)Pbを空間認識装置100aに対し送信し、空間認識装置100aはPbを一定期間保持する。ここで、自己位置Pa及びPbは、空間データ統合部105による空間データ統合処理の結果、同一の原点を有する同一の座標系で表現されたものとなっている。そのため、空間認識装置100a及び空間認識装置100bは、互いの存在位置を示す座標を共有することができる。
ところで、空間認識装置100は、SLAM処理が滞ることなどにより自己位置の推定に失敗し、一時的に自己位置を見失うことがある。これをロストという。ロストは空間認識装置100の位置推定精度を低下させる大きな要因である。そこで、ロストによる位置推定精度低下を抑制すべく、本実施の形態では、ロストが発生した場合に他の空間認識装置100から自己位置を教えてもらう仕組みを導入する。自己位置共有部107はロスト発生を検知すると、現実空間内に存在する他の空間認識装置100に対しロスト信号を送信する。ロスト信号を受信した当該他の空間認識装置100の自己位置共有部107は、ロストした空間認識装置100に対し、その存在位置を通知する。
例えば、現実空間内に空間認識装置100a及び空間認識装置100bが存在し、空間認識装置100aにおいてロストが発生した場合を想定する。空間認識装置100aの自己位置共有部107は、空間認識装置100bの自己位置共有部107に対しロスト信号を送信する。空間認識装置100bの自己位置共有部107は、空間認識装置100aから事前に共有されていた自己位置Paのうち最新のものを、空間認識装置100aの自己位置共有部107に対し送信する。空間認識装置100aの自己位置共有部107は、受信したPaを自己位置とみなす。これにより、空間認識装置100aは、例えばコンテンツの投影などの処理を、ロストが発生したとしても中断することなく実行し続けることが可能となる。
なお、自己位置Pa及びPbには、空間認識装置100の位置は勿論のこと、姿勢を示す情報も含めることができる。また、ここでは現実空間内に2台の空間認識装置100が存在する例を示したが、本発明はこれに限定されず、複数であれば何台でも良い。空間認識装置100の数が多ければ多いほど、空間認識装置100の位置推定の精度を安定させることができる。
本実施の形態によれば、現実空間内に存在する複数の空間認識装置100が空間データを統合したうえで自己位置を推定する。これにより、建物やトンネル内のような測位信号が遮断される場合や、ある空間認識装置100がマーカーから離れた場所に位置する場合であっても、高い精度で自己位置推定を行うことができる。例えば空間認識装置100bがマーカーから遠く離れており、単独では自己位置推定精度を維持できないような場合であっても、マーカーの近くに位置し高い精度での自己位置推定が可能な空間認識装置100aと空間データを統合することによって、空間認識装置100aと同等の精度で自己位置推定を行うことができる。
また、本実施の形態では、複数の空間認識装置100が自己位置を共有し、ロスト発生時には補完しあって自己位置を推定し続ける。これにより、従来よりも安定した自己位置推定を行うことが可能である。
<実施の形態2>
実施の形態1では、子機にあたる空間認識装置100が空間データ統合処理を行った。これに対し実施の形態2では、サーバ200が空間データ統合及びデータ共有処理を行う。
図4は、実施の形態2にかかる空間認識システム1の構成を示すブロック図である。空間認識システム1は、複数の空間認識装置100(100a,100b,・・・)と、サーバ200を含む。サーバ200は、少なくともプロセッサとメモリとを含み、プロセッサがメモリに格納されたプログラムを実行することにより所定の機能を実現する。
図5は、実施の形態2にかかる空間認識システム1の機能を示すブロック図である。空間認識装置100は、現実空間の3次元形状の認識(マッピング)を行う空間認識部201、位置及び姿勢の推定(自己位置推定)を行う自己位置推定部203を有する。サーバ200は、複数の空間認識装置100の空間データを統合する空間データ統合部205、空間認識装置100の存在位置を共有してロスト発生時のリカバリを行う自己位置共有部207を有する。空間認識部201、自己位置推定部203、空間データ統合部205及び自己位置共有部207の動作について、実施の形態1の空間認識部101、自己位置推定部103、空間データ統合部105及び自己位置共有部107との共通点については記述を省略しつつ説明する。
空間認識部201は、生成した空間データを、サーバ200の空間データ統合部205に送信する。サーバ200の空間データ統合部205は、複数の空間認識装置100から受信した空間データを統合して、統合空間データを生成する。また、統合空間データの原点Oiを決定し(典型的には任意の親機の原点を流用する)、各空間認識装置100の空間認識部201に送信する。空間認識部201は、統合空間データの原点Oiを自己の原点位置に設定する。これにより、各空間認識装置100の座標系が統一される。
自己位置推定部203は、自己位置を、所定の間隔でサーバ200の自己位置共有部207に送信する。また、ロストを検知した場合、ロスト信号をサーバ200の自己位置共有部207に送信する。サーバ200の自己位置共有部207は、ロスト信号を受信したなら、その空間認識装置100から直前に共有された自己位置を、自己位置推定部203に対して通知する。自己位置推定部203は、通知された自己位置を用いてコンテンツ投影などの処理を続行する。
本実施の形態では、比較的処理リソースに恵まれていることが多いサーバ200が空間データ統合及びデータ共有処理を行い、空間認識装置100における処理負荷を軽減することで、システム全体のスループットを向上させることができる。
<実施の形態3>
実施の形態1及び2によれば、複数の空間認識装置100を連携させることによって、従来であれば一部の空間認識装置100の自己位置推定精度や安定性が低下しうる状況であっても、それを抑制することができる。しかしながら、全ての空間認識装置100がマーカーから遠く離れるなどした場合には、誤差が蓄積し、システム全体の自己位置推定精度が低下する恐れがあった。そこで実施の形態3では、トータルステーション300を導入し、複数の空間認識装置100のうち1つを追尾して正確な位置を把握することにより、システム全体の自己位置推定精度を維持及び向上させる。
図6は、実施の形態3にかかる空間認識装置100の外観の一例を示す図である。本実施の形態では、空間認識装置100は、冶具111を介してヘルメット113に固定されている。また、プリズム115が冶具111に取り付けられている。冶具111、空間認識装置100、プリズム115の位置関係は固定的である必要がある。
図7は、実施の形態3にかかる空間認識システム1の構成を示すブロック図である。空間認識システム1は、複数の空間認識装置100(100a,100b,・・・)と、トータルステーション300とを含む。このうち少なくとも1つの空間認識装置100は、図6に示すようにプリズム115を連結している必要がある。以下、プリズム115を連結した空間認識装置100を空間認識装置100prとよぶ。
図8は、実施の形態3にかかる空間認識システム1の機能を示すブロック図である。空間認識装置100は、実施の形態1と同様の構成要素として、現実空間の3次元形状の認識(マッピング)を行う空間認識部101、SLAMにより位置及び姿勢の推定(自己位置推定)を行う自己位置推定部103、複数の空間認識装置100の空間データを統合する空間データ統合部105、複数の空間認識装置100で存在位置を共有してロスト発生時のリカバリを行う自己位置共有部107を有する。これらに加え、空間認識装置100prについては、トータルステーション300から得られる位置情報に基づいて自己位置をアップデートする自己位置補正部309を有しているものとする。トータルステーション300は、空間認識装置100prに連結されたプリズム115の位置を測定する測定部311を有する。以下、本実施の形態の特徴的な構成要素である測定部311及び自己位置補正部309の機能を中心に、実施の形態3の空間認識装置100特有の動作について説明する。
はじめに、キャリブレーションとして、空間認識装置100prが原点位置にあるときのプリズム115の位置を、トータルステーション300の測定部311により測定する。このときの測定値をトータルステーション300側で(0,0,0)と定義することにより、空間認識装置100prとトータルステーション300との座標系を一致させる。
以後、トータルステーション300の測定部311は、プリズム115の位置を随時測定する。測定部311は、測定値を空間認識装置100prの自己位置補正部309に送信する。測定値は測定部311から直接自己位置補正部309に送信されても良く、サーバ等を介して送信されても良い。自己位置補正部309は、測定部311から測定値を受信したならば、自己位置推定部103がSLAMにより算出した自己位置推定値をこの測定値で単に上書きしてしまっても良い。又は、SLAMにより算出された自己位置推定値をこの測定値を利用して補正しても良い。例えば、SLAMにより算出された自己位置推定値と、測定部311から受信した測定値と、の誤差が所定のしきい値を超えた場合に、当該誤差を打ち消す補正を自己位置推定値に対して施すことができる。
なお、これまでに説明した空間認識装置100はすべてワールド座標で自己位置を認識するものであった。これは空間認識装置100prや、実施の形態1及び2において説明した空間認識装置100でも同様である。いずれの空間認識装置100も、認識した現実世界内に定義した原点からの相対座標によって自己位置を認識している。
しかしながら、空間認識装置100の空間認識精度等に起因して、空間認識装置100が認識するワールド座標自体がずれを含んでいることがある。よって、ワールド座標を用いて自己位置を表現するかぎり、自己位置の推定精度には限界が生じる。上述のように、トータルステーションを使用することにより、空間認識装置100の移動量を比較的正確に測定することはできる。しかし、空間認識装置100におけるワールド座標系の原点の認識誤差を小さくすることはできない。
そこで、実施の形態3の変形例として、空間認識装置100prは、ローカル座標を用いて自己位置を推定することができる。トータルステーション300による追尾が可能な間は、空間認識装置100prはSLAMを使用せず、トータルステーション300から得られた移動量を用いてローカル座標を更新する。トータルステーション300がプリズム115を捕捉できなくなった時点で、空間認識装置100prはSLAMによる自己位置(ローカル座標)推定に切り替える。ここでローカル座標とは、換言すれば空間認識装置100prが現実空間に投影する図面等の座標系における自己位置である。ローカル座標を用いることにより、ワールド座標系原点の認識精度に依存することなく、誤差の少ない空間認識装置100の移動量に基づいて、高精度に自己位置を推定することができる。
他の空間認識装置100と自己位置を共有する際は、ローカル座標系原点とワールド座標系原点との既知のオフセットに基づいて、ローカル座標をワールド座標に変換してから共有すれば良い。
なお、自己位置補正部309は、空間認識装置100prとプリズム115とのオフセットを考慮して、測定部311から受信した測定値に補正を加えても良い。空間認識装置100prとプリズム115との相対的な位置関係がキャリブレーション時点と常に同じであれば補正の必要はないが、例えば頭部を傾けると、つまりキャリブレーション時と空間認識装置100prの姿勢が異なると、測定部311による測定値が実際の空間認識装置100prの位置と相違してしまう(図9参照)。自己位置補正部309は、ジャイロが検出する空間認識装置100prの傾きθを利用することで、この誤差を補正できる。
本実施の形態によれば、自己位置補正部309が、SLAMにより算出された自己位置推定値を、トータルステーション300による測定値により常に(又は所定の条件下で)補正するので、空間認識装置100prは常に高い精度で自己位置を認識することができる。そして、この空間認識装置100prを空間認識システム1に参加させ、他の空間認識装置100と空間データを統合させることで、システム全体の自己位置推定精度を向上させることが可能となる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述の実施の形態において示した各種処理手段のソフトウェア又はハードウェアによる実装方法はあくまで一例であり、他の手法で代替されても良い。例えば、実施の形態では同一の筐体内に実装することとした複数の処理手段を、複数の異なるハードウェアとして提供することができる。又は、実施の形態では異なるハードウェアに実装することとした複数の処理手段を、1つのハードウェアに実装することができる。また、任意の処理手段又は処理手段のうち一部の機能をクラウドコンピューティング、エッジコンピューティング、フォグコンピューティング等の技術により実現することとしても良い。
また、上述の実施の形態1乃至3に示した手法は、本発明の主旨を損なわない限り、任意に組み合わせて実施しうる。
また本発明を構成する各処理手段は、ハードウェアにより構成されるものであってもよく、任意の処理をCPUにコンピュータプログラムを実行させることにより実現するものであってもよい。また、コンピュータプログラムは、様々なタイプの一時的又は非一時的なコンピュータ可読媒体を用いて格納され、コンピュータに供給することができる。一時的なコンピュータ可読媒体は、例えば有線又は無線によりコンピュータに供給される電磁的な信号を含む。
1 空間認識システム
100(100a,100b,100pr) 空間認識装置
101 空間認識部
103 自己位置推定部
105 空間データ統合部
107 自己位置共有部
111 冶具
113 ヘルメット
115 プリズム
200 サーバ
201 空間認識部
203 自己位置推定部
205 空間データ統合部
207 自己位置共有部
300 トータルステーション
309 自己位置補正部
311 測定部

Claims (7)

  1. 現実空間の3次元形状を認識して空間データを生成する空間認識部と、
    前記空間データに基づいて、前記現実空間における自己位置を推定する自己位置推定部と、
    前記空間データと、他の空間認識装置が生成した前記空間データと、を統合し、同一の原点を有する同一の座標系で表現された統合空間データを生成する空間データ統合部と、
    前記統合空間データに基づいて推定された前記現実空間における前記自己位置を、他の前記空間認識装置に送信する自己位置共有部と、を有し、
    前記自己位置共有部は、前記自己位置推定部が前記自己位置を推定できないとき、他の前記空間認識装置から前記自己位置を取得する
    空間認識装置。
  2. 第1の空間認識装置と、第2の空間認識装置と、を有し、
    前記第1の空間認識装置は、
    現実空間の3次元形状を認識して第1の空間データを生成する第1の空間認識部と、
    前記第1の空間データに基づいて、前記現実空間における第1の自己位置を推定する第1の自己位置推定部と、
    前記第1の空間データを前記第2の空間認識装置に送信する第1の空間データ統合部と、
    前記第1の自己位置を前記第2の空間認識装置に送信する第1の自己位置共有部と、を有し、
    前記第2の空間認識装置は、
    前記現実空間の3次元形状を認識して第2の空間データを生成する第2の空間認識部と、
    前記第2の空間データに基づいて、前記現実空間における第2の自己位置を推定する第2の自己位置推定部と、
    前記第1の空間データと前記第2の空間データとを統合し、同一の原点を有する同一の座標系で表現された統合空間データを生成する第2の空間データ統合部と、
    前記統合空間データに基づいて推定された前記現実空間における前記第2の自己位置を前記第1の空間認識装置に送信する第2の自己位置共有部と、を有し、
    前記第2の自己位置推定部が前記現実空間における前記自己位置を推定できないとき、
    前記第2の自己位置共有部が、前記第1の空間認識装置から前記第2の自己位置を取得する
    空間認識システム。
  3. 複数の空間認識装置と、サーバと、を有し、
    前記空間認識装置は、
    現実空間の3次元形状を認識して空間データを生成する空間認識部と、
    前記空間データに基づいて、前記現実空間における自己位置を推定する自己位置推定部と、を有し、
    前記サーバは、
    複数の前記空間認識装置が生成した前記空間データを統合し、同一の原点を有する同一の座標系で表現された統合空間データを生成する空間データ統合部と、
    前記統合空間データに基づいて推定された前記現実空間における前記空間認識装置の前記自己位置を、他の前記空間認識装置に送信する自己位置共有部と、を有し、
    前記自己位置共有部は、前記自己位置推定部が前記自己位置を推定できないとき、他の前記空間認識装置から前記自己位置を取得する
    空間認識システム。
  4. 第1の空間認識装置と、第2の空間認識装置と、を有し、
    前記第1の空間認識装置は、
    現実空間の3次元形状を認識して第1の空間データを生成する第1の空間認識部と、
    前記第1の空間データに基づいて、前記現実空間における第1の自己位置を推定する第1の自己位置推定部と、
    前記第1の空間データを前記第2の空間認識装置に送信する第1の空間データ統合部と、
    前記第1の自己位置を前記第2の空間認識装置に送信する第1の自己位置共有部と、を有し、
    前記第2の空間認識装置は、
    前記現実空間の3次元形状を認識して第2の空間データを生成する第2の空間認識部と、
    前記第2の空間データに基づいて、前記現実空間における第2の自己位置を推定する第2の自己位置推定部と、
    前記第1の空間データと前記第2の空間データとを統合し、同一の原点を有する同一の座標系で表現された統合空間データを生成する第2の空間データ統合部と、
    前記統合空間データに基づいて推定された前記現実空間における前記第2の自己位置を前記第1の空間認識装置に送信する第2の自己位置共有部と、を有し、
    前記第1の空間認識装置又は前記第2の空間認識装置は自己位置補正部をさらに有し、
    前記自己位置補正部は、トータルステーションにより測定された前記第1の空間認識装置又は前記第2の空間認識装置の位置情報に基づいて、前記第1の自己位置推定部又は前記第2の自己位置推定部が推定した前記第1の自己位置又は前記第2の自己位置を補正する
    空間認識システム。
  5. 前記第1の自己位置推定部は、ローカル座標を用いて前記自己位置を推定する
    請求項2又は4記載の空間認識システム。
  6. 空間認識装置が、
    現実空間の3次元形状を認識して空間データを生成する空間認識ステップと、
    前記空間データに基づいて、前記現実空間における自己位置を推定する自己位置推定ステップと、
    前記空間データと、他の前記空間認識装置が生成した前記空間データとを統合し、同一の原点を有する同一の座標系で表現された統合空間データを生成する空間データ統合ステップと、
    前記統合空間データに基づいて推定された前記現実空間における前記自己位置を、他の前記空間認識装置に送信する自己位置共有ステップと、を有し、
    前記自己位置共有ステップでは、前記自己位置推定部が前記自己位置を推定できないとき、他の前記空間認識装置から前記自己位置を取得する
    空間認識方法。
  7. 請求項6記載の方法をコンピュータに実行させるためのプログラム。
JP2019096601A 2019-05-23 2019-05-23 空間認識システム、空間認識装置、空間認識方法及びプログラム Active JP6717476B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019096601A JP6717476B1 (ja) 2019-05-23 2019-05-23 空間認識システム、空間認識装置、空間認識方法及びプログラム
PCT/JP2020/020628 WO2020235694A1 (ja) 2019-05-23 2020-05-25 空間認識システム、空間認識装置、空間認識方法及びプログラム
US17/613,339 US20220301223A1 (en) 2019-05-23 2020-05-25 Spatial recognition system, spatial recognition device, spatial recognition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019096601A JP6717476B1 (ja) 2019-05-23 2019-05-23 空間認識システム、空間認識装置、空間認識方法及びプログラム

Publications (2)

Publication Number Publication Date
JP6717476B1 true JP6717476B1 (ja) 2020-07-01
JP2020190971A JP2020190971A (ja) 2020-11-26

Family

ID=71131641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019096601A Active JP6717476B1 (ja) 2019-05-23 2019-05-23 空間認識システム、空間認識装置、空間認識方法及びプログラム

Country Status (3)

Country Link
US (1) US20220301223A1 (ja)
JP (1) JP6717476B1 (ja)
WO (1) WO2020235694A1 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149712A (ja) * 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム
US10950050B2 (en) * 2017-04-19 2021-03-16 Oyanagi Construction Inc. Information processing device, information processing method, and program for planning and execution of work plan

Also Published As

Publication number Publication date
WO2020235694A1 (ja) 2020-11-26
US20220301223A1 (en) 2022-09-22
JP2020190971A (ja) 2020-11-26

Similar Documents

Publication Publication Date Title
US7782361B2 (en) Method and apparatus for measuring position and orientation
EP2957928B1 (en) Method for using partially occluded images for navigation and positioning
US8761439B1 (en) Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit
CN110458961B (zh) 基于增强现实的***
US20080319664A1 (en) Navigation aid
US8971576B2 (en) Information processing apparatus and processing method thereof
JP2016057108A (ja) 演算装置、演算システム、演算方法およびプログラム
JP2013187862A (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
US12008782B2 (en) Information processing apparatus, information processing method, and program
JP6044971B2 (ja) 推定方位角評価装置、移動体端末装置、推定方位角評価装置の制御プログラム、コンピュータ読み取り可能な記録媒体、推定方位角評価装置の制御方法、および測位装置
JP5282457B2 (ja) 救援ロボットシステム、救援方法及び救援ロボット
JP2016048221A (ja) 演算装置、演算方法、およびプログラム
US20160379365A1 (en) Camera calibration device, camera calibration method, and camera calibration program
JP2017036970A (ja) 情報処理装置、情報処理方法、プログラム
JP2022089269A (ja) キャリブレーション装置およびキャリブレーション方法
KR101402088B1 (ko) 위성항법 시스템과 비전 시스템 융합 기술 기반 이동체의 자기위치 측위방법 및 장치
CA2908754C (en) Navigation system with rapid gnss and inertial initialization
KR101183866B1 (ko) Gps/ins/영상at를 통합한 실시간 위치/자세 결정 장치 및 방법
US10388027B2 (en) Detection method, display apparatus, and detection system
JP6717476B1 (ja) 空間認識システム、空間認識装置、空間認識方法及びプログラム
JP6733927B1 (ja) 空間認識システム、空間認識装置、空間認識方法及びプログラム
JP2021051000A (ja) 角速度検出装置、画像表示装置、角速度検出方法、及びプログラム
JP2016138864A (ja) 測位装置、測位方法、コンピュータプログラム、及び記憶媒体
JP7207915B2 (ja) 投影システム、投影方法及びプログラム
US11410329B2 (en) Information processing device, method performed thereby, and non-transitory computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190527

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190527

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200601

R150 Certificate of patent or registration of utility model

Ref document number: 6717476

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250