JP2023092003A - 情報処理装置、情報処理プログラム及び情報処理方法 - Google Patents

情報処理装置、情報処理プログラム及び情報処理方法 Download PDF

Info

Publication number
JP2023092003A
JP2023092003A JP2021206944A JP2021206944A JP2023092003A JP 2023092003 A JP2023092003 A JP 2023092003A JP 2021206944 A JP2021206944 A JP 2021206944A JP 2021206944 A JP2021206944 A JP 2021206944A JP 2023092003 A JP2023092003 A JP 2023092003A
Authority
JP
Japan
Prior art keywords
map
information processing
dimensional trajectory
slave
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021206944A
Other languages
English (en)
Inventor
真也 金子
Shinya Kaneko
辰起 柏谷
Tatsuoki Kashiwatani
友己 小野
Tomomi Ono
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2021206944A priority Critical patent/JP2023092003A/ja
Priority to PCT/JP2022/040096 priority patent/WO2023119862A1/ja
Publication of JP2023092003A publication Critical patent/JP2023092003A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ユーザにとってより直感的にマップ同期を行う。【解決手段】情報処理装置は、第1のマップを生成し前記第1のマップ上の時系列的な自己位置を推定することにより前記第1の3次元軌跡を生成するマップ生成部と、スレーブとして振る舞う他の情報処理装置であるスレーブ装置の前記マップ生成部において生成された第2のマップ上の前記時系列的な自己位置を推定することにより生成された前記第2の3次元軌跡を取得するスレーブ軌跡取得部と、カメラが前記スレーブ装置を撮影して得た撮影画像上の前記スレーブ装置の時系列的な位置を示す2次元軌跡である観測2次元軌跡を生成する観測軌跡生成部と、前記第1の3次元軌跡、前記第2の3次元軌跡及び前記観測2次元軌跡から、前記第1のマップと前記第2のマップとを同期させた同期マップを生成するための変換パラメータを算出する変換パラメータ算出部と、を具備する。【選択図】図4

Description

本開示は、複数の情報処理装置において共通のARコンテンツのARオブジェクトを生成及び表示することが可能な情報処理装置、情報処理プログラム及び情報処理方法に関する。
複数ユーザがそれぞれ端末(スマートフォン等)を保持し、複数の端末がそれぞれの位置を共有し、共通のARコンテンツを複数の端末にそれぞれ表示することが可能な端末用のアプリケーションが知られている。
複数端末が同一のマップ上で互いの位置を共有するには、端末毎に自己位置推定の過程で作成されたマップ間の座標系変換を求める処理(マップ同期)が必要である。これによってARアプリ内で、違和感なく端末間で共通のARコンテンツを重畳することができるようになる。
一般的に、端末Aと端末B間のマップ同期は、(1)端末Aから画像データを端末B上に送信し、(2)端末B上のマップでその画像と共通視野を持つキーフレームを画像検索し、(3)特徴点対応関係からマップ上の位置を推定し座標系変換を求める、という処理で実現される。以上のアルゴリズムの特性により、マップ同期には端末間で「共通するシーン画像を撮影する」ことが一般的である。
国際公開第2021/106388号
しかしながら端末を使うユーザ観点では、マップにアクセスすることはできず、マップ内にどのような画像が保持され、マップ同期のための対応関係が求められる状態にあるか否かを知ることはできない。そのためARアプリケーションにおいても、「同じような方向を向ける」という非直感的な指示しかできないため、ユーザにとってはある程度の訓練が必要なやや困難な操作であり、これによってARコンテンツに対する没入感を妨げる可能性がある。言い換えれば、マップの初期化に失敗することが多く、かつユーザから見てなぜ失敗したのかが分かりにくい場合がある。
特許文献1は、マップデータに保存されたキーフレームとクエリ画像との対応関係から地図データを統合する枠組みを開示するが、複数人でのXR(AR、VR、MR等)について、ユーザインタフェースの観点でマップの初期化の問題点には言及していない。
以上のような事情に鑑み、ユーザにとってより直感的にマップ同期を行うことが可能な情報処理装置、情報処理プログラム及び情報処理方法を提供することにある。
本開示の一形態に係る情報処理装置は、
第1のマップを生成し前記第1のマップ上の時系列的な自己位置を推定することにより前記第1の3次元軌跡を生成するマップ生成部と、
スレーブとして振る舞う他の情報処理装置であるスレーブ装置の前記マップ生成部において生成された第2のマップ上の前記時系列的な自己位置を推定することにより生成された前記第2の3次元軌跡を取得するスレーブ軌跡取得部と、
カメラが前記スレーブ装置を撮影して得た撮影画像上の前記スレーブ装置の時系列的な位置を示す2次元軌跡である観測2次元軌跡を生成する観測軌跡生成部と、
前記第1の3次元軌跡、前記第2の3次元軌跡及び前記観測2次元軌跡から、前記第1のマップと前記第2のマップとを同期させた同期マップを生成するための変換パラメータを算出する変換パラメータ算出部と、
を具備する。
本実施形態では、直感的な同期操作として、同期したいスレーブ装置を撮影する。同期したい装置同士を向け合うという操作は非常に直感的であり、これによってユーザは没入感を失うことなく自然にARコンテンツ内を楽しむことができる。
前記変換パラメータ算出部は、
変換パラメータの候補値、前記第1の3次元軌跡及び前記第2の3次元軌跡に基づき、前記スレーブ装置の2次元軌跡を推定して推定2次元軌跡を生成し、
前記推定2次元軌跡が前記観測2次元軌跡に合致する様に前記変換パラメータの候補値を最適化することで前記変換パラメータを算出する。
本実施形態では、このマップ同期アルゴリズムにより、同期したいスレーブ装置を撮影することで複数装置のマップ同期を実現することができる。
前記変換パラメータ算出部は、
前記第1の3次元軌跡及び前記第2の3次元軌跡に基づき、前記第1のマップ上の前記スレーブ装置の前記時系列的な位置を算出し、
算出した前記第1のマップ上の前記スレーブ装置の前記時系列的な位置に基づき、前記変換パラメータの候補値を最適化する。
本実施形態では、このマップ同期アルゴリズムにより、同期したいスレーブ装置を撮影することで複数装置のマップ同期を実現することができる。
前記マップ生成部は、前記第1のマップを前記変換パラメータに基づき変換することで、前記同期マップを生成する。
前記変換パラメータを前記スレーブ装置に供給する変換パラメータ供給部をさらに有し、
前記スレーブ装置の前記マップ生成部は、前記第2のマップを前記変換パラメータに基づき変換することで、前記同期マップを生成する。
これにより、それぞれの装置は、同期座標系を基準とする同期マップに基づきARオブジェクトを生成すことができる。
情報処理装置は、
前記同期マップに基づきARオブジェクトを生成し、表示装置に表示するAR実行部
をさらに具備する。
これにより、別々の装置に、ARオブジェクトを違和感なく表示することができる。
マスタとして振る舞う前記情報処理装置の前記AR実行部と、前記スレーブ装置の前記AR実行部とは、共通のARコンテンツのARオブジェクトを生成及び表示してもよい。
これにより、別々の装置に、共通のARコンテンツを別の位置から見たARオブジェクトを、違和感なく表示することができる。言い換えれば、それぞれの装置がそれぞれの装置の位置から、特定のロケーションに存在する共通のARコンテンツを見たときに見えるものとしてのARオブジェクトを位置的な辻褄が合うように表示することができる。
情報処理装置は、
スレーブとして振る舞うとき、マスタとして振る舞う他の情報処理装置に、前記第2の3次元軌跡を供給するスレーブ軌跡供給部
をさらに具備してもよい。
情報処理装置は、
前記カメラをさらに具備し、
前記自己位置は、前記カメラの位置及び姿勢を含んでもよい。
本開示の一形態に係る情報処理方法は、
第1のマップを生成し前記第1のマップ上の時系列的な自己位置を推定することにより前記第1の3次元軌跡を生成し、
スレーブとして振る舞う他の情報処理装置であるスレーブ装置のマップ生成部において生成された第2のマップ上の前記時系列的な自己位置を推定することにより生成された前記第2の3次元軌跡を取得し、
カメラが前記スレーブ装置を撮影して得た撮影画像上の前記スレーブ装置の時系列的な位置を示す2次元軌跡である観測2次元軌跡を生成し、
前記第1の3次元軌跡、前記第2の3次元軌跡及び前記観測2次元軌跡から、前記第1のマップと前記第2のマップとを同期させた同期マップを生成するための変換パラメータを算出する。
本開示の一形態に係る情報処理プログラムは、
情報処理装置の制御回路を、
第1のマップを生成し前記第1のマップ上の時系列的な自己位置を推定することにより前記第1の3次元軌跡を生成するマップ生成部と、
スレーブとして振る舞う他の情報処理装置であるスレーブ装置の前記マップ生成部において生成された第2のマップ上の前記時系列的な自己位置を推定することにより生成された前記第2の3次元軌跡を取得するスレーブ軌跡取得部と、
カメラが前記スレーブ装置を撮影して得た撮影画像上の前記スレーブ装置の時系列的な位置を示す2次元軌跡である観測2次元軌跡を生成する観測軌跡生成部と、
前記第1の3次元軌跡、前記第2の3次元軌跡及び前記観測2次元軌跡から、前記第1のマップと前記第2のマップとを同期させた同期マップを生成するための変換パラメータを算出する変換パラメータ算出部
として動作させる。
本実施形態のコンセプトを示す。 マスタ装置及びスレーブ装置の機能的構成を示す。 マスタ装置及びスレーブ装置の動作フローを示す。 マップ同期のアルゴリズムを模式的に示す。 ARオブジェクトの表示を模式的に示す。
以下、図面を参照しながら、本開示の実施形態を説明する。
1.本実施形態の背景及びコンセプト
ARやVRなどのアプリケーションにおいて、CGをデバイスの位置や姿勢(デバイスの向き)に応じて違和感なく重畳するために、SLAM(Simultaneous Localization and Mapping)と呼ばれる自己位置推定技術が用いられる。典型的には、各端末個別にSLAMが動作し、CGをそれぞれのディスプレイに重畳する。一方で、5Gなどの通信性能の飛躍的な発展に伴い、複数の端末が互いの相対的な位置を共有し続けることが可能になってきている。それによって、例えばARにおいては同じARコンテンツ(例えば、ゲーム)を複数のユーザで一緒に体験できる。VRでは、物理的に離れたユーザ同士でもデジタル空間上で互いの位置関係を把握しながらインタラクションすることができる。
第1の例として、複数人でのAR体験においては、5G通信でリアルタイムに複数人が同じ場でARによるインタラクションを体験する。このとき、参加者同士の相対的な位置関係の把握が必要である。第2の例として、VRのコミュニティ化においては、VR内での仮想空間(メタバース)の参加者同士がアバタによる身体的なコミュニケーションを行う。このとき、物理的に離れたアバタ同士の相対的な位置関係の把握が必要である。第3の例として、ロボット-人/ロボット協調においては、人とロボットの自然なインタラクションやロボット同士の協調動作を実現する。このとき、異種デバイス間での位置及びマップの共有が必要である。
各端末が個別にSLAMを動作している場合、位置を記述するための座標系は端末ごとに定義されている。座標系が異なれば位置の記述の仕方も異なるため、複数端末が位置を共有するためには、各端末のマップ座標系の統一(マップ同期)が必要不可欠である。そのため、CoSLAM(複数端末での位置共有)ではアルゴリズム、ユーザインタフェース両方の観点でマップ同期をどのように実現するか、が非常に重要である。
ここで、第1に内部のアルゴリズムの観点から、第2にそれを実現するためのARアプリケーション上のユーザインタフェースの観点から、複数端末間のマップ同期を典型的にはどのように実現するかの詳細を述べる。
第1に、アルゴリズムの観点からマップ同期について説明する。状況としては、端末A及び端末Bそれぞれの内部で独立にSLAMが動作しており、別個のマップ(マップA、マップB)を作成している場合に、マップ同期、すなわち、それらのマップの座標系を合わせたい。マップとは複数の「過去のカメラ姿勢と、その際の画像上で抽出された特徴点群とその局所特徴量群、各特徴点の3次元位置の推定結果であるランドマーク群、画像検索用の画像特徴量」(これをキーフレームと呼ぶ)で構成される。端末同士は通信することが可能であり、データをやり取りすることが可能である。この操作は数式的には「マップAとマップB間の座標変換パラメータmAmBを求める操作」と見なすことができ、一般的に以下のようなアルゴリズムで実現される。
(1)端末Aは、画像データとその姿勢mAを端末Bに送信する(これをクエリ画像と呼ぶ)。端末Bは、送られてきたクエリ画像に対して、局所特徴点と特徴量、画像検索用の画像特徴量を抽出する。
(2)端末Bは、送られてきたクエリ画像とマップB内で共通視野を持つキーフレームを画像検索する。その際には画像特徴量の距離の近さに応じて候補を選択する。
(3)端末Bは、クエリ画像と画像検索候補キーフレームとの間で、局所特徴量に基づく特徴点マッチングを行う。この特徴点マッチングによって画像上の2次元特徴点位置と、マップB内の3次元ランドマークとの間の対応関係を求めることができるため、これらの辻褄を合わせるように、マップB内でのクエリ画像の位置関係mBを推定する。これはPnPアルゴリズムと呼ばれる。
(4)クエリ画像に対してマップA,B座標系それぞれでの姿勢を表記することができたので、ここからマップA,B間の座標変換パラメータmAmBを以下の式(1)で求めることができる。mAは、端末Aから送られてきたマップA座標系内でのクエリ画像のカメラ姿勢である。mBは、上の手順で求められたマップB座標系内でのカメラ姿勢である。
mAmBmA×(mB-1・・・(1)
以上のアルゴリズムの特性上、マップ同期には「端末間で共通視野を持つ画像」が必要不可欠である。複数端末間のインタラクションが重要なARアプリケーションのような実応用シーンでは、このアルゴリズムがうまく機能するようにユーザを誘導するユーザインタフェースが非常に重要になる。その際に没入感を妨げないような工夫が求められる。
第2に、ユーザインタフェースの観点からマップ同期について説明する。ARアプリケーションでは、端末間で共通視野を持つ画像を取得するようにユーザを誘導する工夫が重要である。しかしながら端末を使うユーザ観点では、マップにアクセスすることはできないため、マップ内にどのような画像が保持され、マップ同期のための対応関係が求められる状態にあるか否かを知ることはできない。そのためARアプリケーションにおいても、「同じような方向を向ける」等という非直感的な指示しかできないため、ユーザにとってはある程度の訓練が必要なやや困難な操作であり、これによってARコンテンツに対する没入感を妨げる可能性がある。例えば、任意の共通の物体を撮影するように指示することで、端末間で共通の画像を撮影しそれによってマップ間の同期を実現するアプリケーションが知られている。しかしながら、この操作はユーザ観点では非常に訓練が必要とし、直感的ではない。かつユーザは同期に向けたマップの内部状態を知ることもできないため、エラーをユーザに伝えるメッセージも説明が少なく非直感的なものとなる。
この様に、ユーザは、マップ同期のアルゴリズムを知らず、かつその内部状態を把握できない。マップ同期のためのユーザインタフェースが非直感的であった一番の理由として、ユーザにとって、「端末間で共通の物体にカメラを向ける」という指示と「マップ間同期を実現できる」という因果関係を認識することが困難であることが挙げられる。特にマップ間同期を成功させるためには、アルゴリズム由来の以下の注意事項を注意する必要がある。
(1)輝度変化が明瞭な画像を撮影しやすい明るい場所であること。(2)テクスチャのないシーン(白い壁など)を避けること。(3)テクスチャがあっても繰り返しパターン(床のタイル等)を避けること。(4)端末間で撮影された画像において、画面の大部分を占めるような形で共通範囲を持つこと。(5)マップにおける3次元ランドマーク推定を成功させるために、各端末は純回転以外の並進運動をすること。
主に(1)~(4)は2次元特徴点抽出の観点での注意事項であり、(5)は3次元ランドマーク推定の観点での注意事項である。このような暗黙的なルールを必要とするのはユーザインタフェース観点で非常に使い勝手が悪い。
本実施形態では、以上の非直感的なユーザインタフェースがマップ同期の従来アルゴリズムから由来していることに着目し、より直感的なユーザインタフェースとそれを実現するためのアルゴリズムを提案する。
図1は、本実施形態のコンセプトを示す。
典型的には、(A)に示す様に、端末間で共通視野を持つ画像を取得する手法は、VSLAMのアルゴリズム観点ではシンプルな実装である。しかしながら、ユーザ観点では、同じ方向を向けることとマップ同期することとの因果関係が不明瞭であり、また、マップ同期成功のために暗黙的な注意事項があり困難である。
これに対して、(B)に示す様に、本実施形態では、より直感的なユーザインタフェースとして「マップ同期したいユーザ間でお互い端末を向け合い、一方の端末が他方の端末を撮影する」という操作を提案する。「同期したい端末同士を向け合う」という指示は、マップ同期に対する因果関係が明瞭でユーザ観点で非常に分かりやすい。
加えてこの手法ではマップを使って間接的に同期をする必要がないため、上の(1)~(5)のような暗黙的な注意事項をユーザに強いる必要もなくなる。これらによってユーザは没入感を失うことなく、より自然にARコンテンツを楽しむことが期待できる。また、本マップ同期のユーザインタフェースは派生形がいくつも考えられる。例えば、お互いに端末を撮影する、相手端末の画面上に写ったQR(登録商標)コードを撮影する等である。要求精度やARアプリケーションの内容に応じて適宜変更することが可能である。
2.本実施形態の概要
図1の(B)に示す様に、本実施形態に係る情報処理装置10は、カメラ及びディスプレイを有するエンドユーザ用の端末(例えば、スマートフォン)である。或るユーザが使用する1つの情報処理装置10は、マスタとして振る舞い、マスタ装置10Aと称する。別のユーザが使用する同期対象である他の情報処理装置10は、スレーブとして振る舞い、スレーブ装置10Bと称する。情報処理装置10は、マスタ装置10A及びスレーブ装置10Bの何れとして振る舞うことも可能である。マスタ装置10Aとスレーブ装置10Bとは、インターネット等のネットワークを介して通信可能である。マスタ装置10Aは、スレーブ装置10Bを撮影し、その撮影画像上のスレーブ装置10Bの位置から、マスタ装置10Aとスレーブ装置10Bとのマップを同期する。
3.マスタ装置及びスレーブ装置の機能的構成
図2は、マスタ装置及びスレーブ装置の機能的構成を示す。
情報処理装置10は、ハードウェア構成として、制御回路100、カメラ131、ディスプレイ132、通信インタフェース133、フラッシュメモリ等の大容量の不揮発性の記憶媒体134を有する。制御回路100は、CPU、ROM及びRAMを有する。記憶媒体134はデータベース120A、120Bを記憶する。
情報処理装置10は、制御回路100においてROMに記録された情報処理プログラム(ARアプリケーション)をCPUがRAMにロードして実行することにより、SLAM部101A、101B(マップ生成部)、通信確立部102、結果判断部109A、109B及びAR実行部110として動作する。情報処理装置10は、マスタとして振る舞うとき、さらに、観測軌跡生成部103、スレーブ軌跡取得部104、変換パラメータ算出部106及び変換パラメータ供給部107として動作する。情報処理装置10は、スレーブとして振る舞うとき、さらに、スレーブ軌跡供給部105及び変換パラメータ取得部108として動作する。
4.マスタ装置及びスレーブ装置の動作フロー
図3は、マスタ装置及びスレーブ装置の動作フローを示す。
複数の情報処理装置10は、共通のARアプリケーションを立ち上げる(ステップS101)。複数の情報処理装置10の通信確立部102は、通信プロトコルを確立し、一方をマスタ装置10A、他方をスレーブ装置10Bとして同期対象のペアリングを確立する(ステップS102)。
一方、ARアプリケーションを立ち上げた(ステップS101)直後からバックグラウンドで、マスタ装置10A及びスレーブ装置10BのSLAM部101A,101B(マップ生成部)は、それぞれ、SLAMを初期化し(ステップS103)、独自の非同期マップを生成しながら非同期マップ上の時系列的な自己位置を推定することにより、3次元軌跡を生成し続ける(ステップS104)。具体的には、「自己位置」は、内蔵のカメラ131の位置及び姿勢を含む。
図4は、マップ同期のアルゴリズムを模式的に示す。
具体的には、マスタ装置10AのSLAM部101Aは、第1の座標系mAを基準とする第1のマップ121Aを独自に生成し、第1のマップ121A上の時系列的な自己位置を推定することにより、第1の3次元軌跡mAを生成する。第1の3次元軌跡mAは、時刻tの自己位置mAx(t)、時刻t+1の自己位置mAx(t+1)、時刻t+2の自己位置mAx(t+2)・・・を含む。マスタ装置10AのSLAM部101Aは、独自に生成した第1のマップ121Aと、第1のマップ121A上の第1の3次元軌跡mAとをデータベース120Aに記憶し続ける(ステップS104)。
一方、スレーブ装置10BのSLAM部101Bは、第2の座標系mBを基準とする第2のマップ121Bを独自に生成し、第2のマップ121B上の時系列的な自己位置を推定することにより、第2の3次元軌跡mBを生成する。第2の3次元軌跡mBは、時刻tの自己位置mBY(t)、時刻t+1の自己位置mBY(t+1)、時刻t+2の自己位置mBY(t+2)・・・を含む。スレーブ装置10BのSLAM部101Bは、独自に生成した第2のマップ121Bと、第2のマップ121B上の第2の3次元軌跡mBとをデータベース120Bに記憶し続ける(ステップS104)。
マスタ装置10Aの観測軌跡生成部103は、ユーザに、所定時間の間、正確なマップ同期のために並進運動をしながらカメラ131でスレーブ装置10Bを撮影するように、メッセージをディスプレイ132に表示する。
マスタ装置10Aのカメラ131は、所定時間の間、スレーブ装置10Bを撮影して撮影画像を得る。マスタ装置10Aの観測軌跡生成部103は、撮影画像上のスレーブ装置10Bの時系列的な位置を示す2次元軌跡である観測2次元軌跡pobsを生成する(ステップS105)。観測2次元軌跡pobsは、時刻tの撮影画像上のスレーブ装置10Bの観測2次元位置pobs(t)、時刻t+1の撮影画像上のスレーブ装置10Bの観測2次元位置pobs(t+1)、時刻t+2の撮影画像上のスレーブ装置10Bの観測2次元位置pobs(t+2)・・・を含む。その間、スレーブ装置10Bは待機する(ステップS106)。
その後、マスタ装置10Aのスレーブ軌跡取得部104は、スレーブ装置10Bに、第2の座標系mBを基準とする第2のマップ121B上の第2の3次元軌跡mBを送信するよう要求する(ステップS107)。
スレーブ装置10Bのスレーブ軌跡供給部105は、要求を受信すると(ステップS108)、第2の座標系mBを基準とする第2のマップ121B上の第2の3次元軌跡mBを、データベース120Bから読み出し、マスタ装置10Aに送信する(ステップS109)。
マスタ装置10Aのスレーブ軌跡取得部104は、スレーブ装置10Bから、第2の座標系mBを基準とする第2のマップ121B上の第2の3次元軌跡mBを受信する(ステップS110)。
マスタ装置10Aの変換パラメータ算出部106は、第1の3次元軌跡mA、第2の3次元軌跡mB及び観測2次元軌跡pobsから、第1のマップ121Aと第2のマップ121Bとを同期させた同期マップを生成するための変換パラメータmAmBを算出する(ステップS111)。詳細には、変換パラメータ算出部106は、同期した3点以上の時刻(t、t+1、t+2)の、第1の3次元軌跡mA、第2の3次元軌跡mB及び観測2次元軌跡pobsの各点から、変換パラメータmAmBを算出する。
言い換えれば、変換パラメータ算出部106は、同期した時刻tのマスタ装置10Aの自己位置mAx(t)、スレーブ装置10Bの自己位置mBY(t)及びスレーブ装置10Bの観測2次元位置pobs(t)の組と、同期した時刻(t+1)のマスタ装置10Aの自己位置mAx(t+1)、スレーブ装置10Bの自己位置mBY(t+1)及びスレーブ装置10Bの観測2次元位置pobs(t+1)の組と、同期した時刻(t+2)のマスタ装置10Aの自己位置mAx(t+2)、スレーブ装置10Bの自己位置mBY(t+2)及びスレーブ装置10Bの観測2次元位置pobs(t+2)の組とに基づき、変換パラメータmAmBを算出する。
具体的には、変換パラメータ算出部106は、変換パラメータmAmBの候補値、第1の3次元軌跡mA及び第2の3次元軌跡mBに基づき、スレーブ装置10Bの2次元軌跡を推定して推定2次元軌跡pABを生成する。推定2次元軌跡pABは、時刻tの撮影画像上のスレーブ装置10Bの推定2次元位置pAB(t)、時刻t+1の撮影画像上のスレーブ装置10Bの推定2次元位置pAB(t+1)、時刻t+2の撮影画像上のスレーブ装置10Bの推定2次元位置pAB(t+2)・・・を含む。そして、変換パラメータ算出部106は、推定2次元軌跡pAB(図4のドットを含む)が観測2次元軌跡pobs(図4のクロスマークを含む)に合致する(即ち、ずれを最小化する)様に変換パラメータmAmBの候補値を最適化することで、変換パラメータmAmBを算出する。
より具体的には、変換パラメータ算出部106は、第1の3次元軌跡mA及び第2の3次元軌跡mBに基づき、第1の座標系mAを基準とする第1のマップ121A上のスレーブ装置10Bの時系列的な位置を算出する。そして、変換パラメータ算出部106は、第1の座標系mAを基準とする第1のマップ121A上のスレーブ装置10Bの時系列的な位置に基づき、変換パラメータmAmBの候補値を最適化する。
ここで未知の値であるmAmBが正しい値であれば、pobs(t)とpAB(t)は合致するはずなので、これを合致させるようにmAmBの候補値を逐次的に調整していき、pobs(t)とpAB(t)の距離がある程度まで小さくなったところで、その時のmAmBの値を最終的な解とする。この解を求めるアプローチはPnPアルゴリズムとしてよく知られている方法に倣ったものである。ここでは簡単のため、「時刻tだけの位置を小さくする」ように述べるが、PnPアルゴリズムによると、実際にはこのペアが3点以上ないとmAmBの調整はできないとされている。従って、時刻t=n、n+1、n+2、…、Nのそれぞれでの「pobs(t)とpAB(t)の距離」を全て小さくすることが必要である。
以下、変換パラメータ算出部106の処理(ステップS111)をより詳細に説明する。
各時刻tにおけるマスタ装置10Aが得た時刻tの撮影画像上のスレーブ装置10Bの推定2次元位置pAB(t)は、以下の式(2)で求めることができる。
pAB(t)=Π(K(x(t)Py(t)))=Π(K(mATx(t))-1 mATmB(mBTy(t))[:3、4])・・・(2)
式(2)において、Kはマスタ装置10Aのカメラの内部パラメータ(3x3の行列)、Πは投影関数であり、以下の式(3)を表す。
Π([xyz]T)=(x/z,y/z)T・・・(3)
式(2)において、[:3、4]という演算は4x4行列から「上から3行、4列目の要素を取りだす」という操作に相当し、これは並進と回転成分で構成されるSE(3)行列から並進成分を取り出すことを意味する。観測した任意の時刻tにおいて、この推定結果pAB(t)が観測結果であるpobs(t)と合致するように、第1の座標系mAを基準とする第1のマップ121Aと第2の座標系mBを基準とする第2のマップ121Bとの間の変換パラメータmAmBを最適化したい。このため、目的関数Eは複数時刻(t、t+1、t+2)での投影誤差の和となり、以下の式(4)となる。
E(mATmB)=Σ(|pAB(t)-pobs(t)|)・・・(4)
式(4)は、以下の式(5)を意味する。
E(mATmB)=Σ|pobs(t)-Π(mATmB, mATx(t), mBTy(t))|・・・(5)
この最適化は3次元ランドマークと2次元画像位置の辻褄を合わせるように相対姿勢を求めるPnP問題と同様の定式化となる。PnP問題では解を求めるために3点以上の対応関係が必要であるように、本アルゴリズムの場合にもマップ間の変換パラメータmAmBの推定結果を一意に定めるためには、3点以上の時刻(t、t+1、t+2)での観測が必要となる。加えて、マスタ装置10A及び/又はスレーブ装置10Bは並進運動をしているため(ステップS105)、局所解に陥ることがない。
マスタ装置10AのSLAM部101Aは、独自に生成した第1の座標系mAを基準とする第1のマップ121Aを、変換パラメータ算出部106が算出(ステップS111)した変換パラメータmAmBに基づき変換することで、mA&Bを基準とする同期マップ122を生成しながら同期マップ122上の時系列的な自己位置を推定することにより、3次元軌跡を生成し続ける(ステップS112)。
マスタ装置10Aの変換パラメータ供給部107は、変換パラメータ算出部106が算出(ステップS111)した変換パラメータmAmBを、スレーブ装置10Bに供給する(ステップS113)。
スレーブ装置10Bの変換パラメータ取得部108は、マスタ装置10Aから変換パラメータmAmBを取得する(ステップS114)。
スレーブ装置10BのSLAM部101Bは、独自に生成した第2の座標系mBを基準とする第2のマップ121Bを、マスタ装置10Aから取得した変換パラメータmAmBに基づき変換することで、同期座標系mA&Bを基準とする同期マップ122を生成しながら同期マップ122上の時系列的な自己位置を推定することにより、3次元軌跡を生成し続ける(ステップS112)。
スレーブ装置10Bの結果判断部109Bは、SLAM部101Bが変換パラメータmAmBを用いて生成(ステップS112)した同期座標系mA&Bを基準とする同期マップ122の成功又は失敗を判断し、成功又は失敗を示す同期結果をマスタ装置10Aに送信する(ステップS115)。
マスタ装置10Aの結果判断部109Aは、同期結果をスレーブ装置10Bから受信する。結果判断部109Aは、SLAM部101Aが変換パラメータmAmBを用いて生成(ステップS112)した同期座標系mA&Bを基準とする同期マップ122の成功又は失敗を判断する(ステップS115)。
マスタ装置10Aの結果判断部109Aは、マスタ装置10A又はスレーブ装置10Bの少なくともいずれか一方が生成した同期座標系mA&Bを基準とする同期マップ122が失敗したと判断すると(ステップS116、NO)、通信確立(ステップS102)後の同期処理(ステップS105)をやり直すと判断する。
一方、マスタ装置10Aの結果判断部109Aは、マスタ装置10A又及びスレーブ装置10Bの両方が生成した同期座標系mA&Bが成功したと判断すると(ステップS116、YES)、同期処理を完了し、ARオブジェクトの表示を開始すると判断する。
マスタ装置10A及びスレーブ装置10BのAR実行部110は、同期座標系mA&Bを基準とする同期マップに基づきARオブジェクトを生成する。AR実行部110は、ARオブジェクトを、カメラ131が撮影した環境画像に対して重畳する様にディスプレイ132に表示する(ステップS117)。具体的には、マスタ装置10A及びスレーブ装置10BのAR実行部110は、共通のARコンテンツのARオブジェクトを生成及び表示する。例えば、マスタ装置10A及びスレーブ装置10BのAR実行部110は、共通のARコンテンツ(共通のキャラクター)のARオブジェクト(別の位置から見たときのオブジェクト)を生成及び表示する。
図5は、マスタ装置及びスレーブ装置が同期マップに基づきARオブジェクトを生成及び表示する様子を模式的に示す。
図5に示す様に、変換パラメータmAmBが分かれば、マスタ装置10A及びスレーブ装置10Bの相対位置が分かる。このため、別々の端末であるマスタ装置10A及びスレーブ装置10Bに、共通のARコンテンツを別の位置から見たARオブジェクトを、違和感なく表示することができる。言い換えれば、マスタ装置10Aはマスタ装置10Aの位置からスレーブ装置10Bはスレーブ装置10Bの位置から、特定のロケーションに存在する共通のARコンテンツを見たときに見えるものとしてのARオブジェクトを位置的な辻褄が合うように表示することができる。
5.変形例
画像上での位置追跡を実現するための方法、即ち、観測2次元軌跡pobsを生成する(ステップS105)方法としてはいくつかの設定とそれに対するアプローチが考えられる。このため、各アプローチに応じてユーザインタフェースを派生させることができる。以下にいくつかの方法を挙げる。
(1)RANSACによる端末位置の仮説選択
同期対象のスレーブ装置10Bを撮影した場合、スレーブ装置10Bだけでなくスレーブ装置10Bを持つユーザや背後の風景等が映り込むことが一般的である。そのような様々な要素が映り込んでいる中で端末の位置を認識し、追跡する必要がある。本アプローチでは画像から抽出した特徴点を追跡する中で、その中で端末位置の候補に最も近い仮説を選択する。具体的には選択した追跡結果候補それぞれに対して、後続のマップ間の座標変換を求め、各結果の評価値を比較し、最も妥当な候補を最終的な解として選択する(このような仮説選択手法はRANSACと呼ばれる)。この手法は設定として最も緩く計算量的に軽い反面、精度的に不安定になることが予測される。その場合には、マスタ装置10Aからスレーブ装置10Bで仮説選択するだけでなく、スレーブ装置10Bからマスタ装置10Aでの結果も考慮に入れて拘束条件とするというような方法が期待される。
(2)DNNによる端末位置追跡
1つ目のアプローチと同様に様々な要素が映り込んでいる中で端末の位置を認識するタスクにおいて、近年盛んに研究が行われている深層学習(Deep Neural Network; DNN)による認識結果を活用することが期待できる。物体認識の文脈で深層学習が圧倒的な精度を発揮していることから、同様に端末を認識するように学習することで正確な端末位置認識が期待できる。
(3)端末の発光パターンによる端末位置認識
一般的なスマートフォン端末では背面にライトが取り付けられていることが一般的である。そのようなライトの発光パターンを制御することで、端末位置を認識することが期待できる。
以上の(1)~(3)の例では、ユーザにほとんど特別な指示を出すことなくマップ同期を実現できることが期待されるが、実際に製品として実装した場合にロバスト性という観点ではアルゴリズム的にやや難易度が高いと考えられる。そこで変形例として、この設定を緩和することを考える。そのような場合のアルゴリズム例を(4)に記す。
(4)端末画面に表示したQR(登録商標)コード認識による位置認識
以上では主に同期対象の端末が背面を向けている状態で端末位置を認識することを考えていたが、その条件を緩和し同期対象の端末の画面上にQR(登録商標)コードを表示することを考える。これによってユーザへの指示要求がやや増える一方で、同期対象の端末の位置をQR(登録商標)コードによって正確に求めることができる。
6.結語
一般的に、端末Aと端末B間のマップ同期は、(1)端末Aから画像データを端末B上に送信し、(2)端末B上のマップでその画像と共通視野を持つキーフレームを画像検索し、(3)特徴点対応関係からマップ上の位置を推定し座標系変換を求める、という処理で実現される。以上のアルゴリズムの特性により、マップ同期には端末間で「共通するシーン画像を撮影する」ことが一般的である。このアルゴリズムの特性上、ユーザにとってやや非直感的な操作を必要とし、AR体験への没入感を妨げるという問題点があった。
これに対して、本実施形態では、複数端末でSLAMを行う際に、アルゴリズムの特性上、非直感的だった従来のマップ同期のための操作を改善し、より直感的なユーザインタフェースとそれを可能とするアルゴリズムを実現することが可能である。具体的には、本実施形態は、より直感的な同期操作として「同期したい装置を撮影する操作」を提案する。同期したい装置同士を向け合うという操作は非常に直感的であり、これによってユーザは没入感を失うことなく自然にARコンテンツ内を楽しむことができる。加えて、上記の典型的なアルゴリズムではこのようなマップ同期には対応できないため、これを可能とする新しい端末間のマップ同期アルゴリズムを提案する。
マップ同期に端末間で「共通するシーン画像を撮影する」場合、特にマップ間同期を成功させるためには、アルゴリズム由来の以下の注意事項を注意する必要がある。このような暗黙的なルールを必要とするのはユーザインタフェース観点で非常に使い勝手が悪い。
(1)輝度変化が明瞭な画像を撮影しやすい明るい場所であること。(2)テクスチャのないシーン(白い壁など)を避けること。(3)テクスチャがあっても繰り返しパターン(床のタイル等)を避けること。(4)端末間で撮影された画像において、画面の大部分を占めるような形で共通範囲を持つこと。(5)マップにおける3次元ランドマーク推定を成功させるために、各端末は純回転以外の並進運動をすること。
これに対して、本実施形態では、上記の注意事項は不要となる又は減る。即ち、(1)QR(登録商標)コードを認識するような変形例の場合にはマップ同期時には必ずしも要求しない。(2)及び(3)端末を直接認識するため、背景シーンに依存しない。端末を直接認識するため、背景シーンに依存しない。(4)アルゴリズムが異なるので共通視野の概念は存在しない。(5)三角測量をする必要がないため、厳密な並進運動を必要としない、ただし、ある程度の動きがあると挙動は安定する。
この様に、本実施形態では、直接、端末位置を観測しその結果から最適化を行うため、上記マップ同期方法でユーザが暗黙的に求められていた注意事項を軽減することが可能である。特にマップ同期に必要な共通シーンのテクスチャに大きく依存していた部分が、端末を直接認識することによって不要になり、マップ同期の難易度を大きく下げることができる。その他にも特徴点抽出が必ずしもマップ同期に必要でないことである程度明るさの影響を軽減することもできたり、3次元ランドマークが不要なことから三角測量が可能なほどの並進運動をする必要もなくなったりと障壁を下げることが可能である。マップの状態を考えることなく、とにかくユーザは同期したい端末を写すことに集中すればよい、という利点が本実施形態の大きなポイントである。
本開示は、以下の各構成を有してもよい。
(1)
第1のマップを生成し前記第1のマップ上の時系列的な自己位置を推定することにより前記第1の3次元軌跡を生成するマップ生成部と、
スレーブとして振る舞う他の情報処理装置であるスレーブ装置の前記マップ生成部において生成された第2のマップ上の前記時系列的な自己位置を推定することにより生成された前記第2の3次元軌跡を取得するスレーブ軌跡取得部と、
カメラが前記スレーブ装置を撮影して得た撮影画像上の前記スレーブ装置の時系列的な位置を示す2次元軌跡である観測2次元軌跡を生成する観測軌跡生成部と、
前記第1の3次元軌跡、前記第2の3次元軌跡及び前記観測2次元軌跡から、前記第1のマップと前記第2のマップとを同期させた同期マップを生成するための変換パラメータを算出する変換パラメータ算出部と、
を具備する情報処理装置。
(2)
上記(1)に記載の情報処理装置であって、
前記変換パラメータ算出部は、
変換パラメータの候補値、前記第1の3次元軌跡及び前記第2の3次元軌跡に基づき、前記スレーブ装置の2次元軌跡を推定して推定2次元軌跡を生成し、
前記推定2次元軌跡が前記観測2次元軌跡に合致する様に前記変換パラメータの候補値を最適化することで前記変換パラメータを算出する
情報処理装置。
(3)
上記(2)に記載の情報処理装置であって、
前記変換パラメータ算出部は、
前記第1の3次元軌跡及び前記第2の3次元軌跡に基づき、前記第1のマップ上の前記スレーブ装置の前記時系列的な位置を算出し、
算出した前記第1のマップ上の前記スレーブ装置の前記時系列的な位置に基づき、前記変換パラメータの候補値を最適化する
情報処理装置。
(4)
上記(1)乃至(3)の何れか一項に記載の情報処理装置であって、
前記マップ生成部は、前記第1のマップを前記変換パラメータに基づき変換することで、前記同期マップを生成する
情報処理装置。
(5)
上記(1)乃至(4)の何れか一項に記載の情報処理装置であって、
前記変換パラメータを前記スレーブ装置に供給する変換パラメータ供給部をさらに有し、
前記スレーブ装置の前記マップ生成部は、前記第2のマップを前記変換パラメータに基づき変換することで、前記同期マップを生成する
情報処理装置。
(6)
上記(1)乃至(5)の何れか一項に記載の情報処理装置であって、
前記同期マップに基づきARオブジェクトを生成し、表示装置に表示するAR実行部
をさらに具備する情報処理装置。
(7)
上記(6)に記載の情報処理装置であって、
マスタとして振る舞う前記情報処理装置の前記AR実行部と、前記スレーブ装置の前記AR実行部とは、共通のARコンテンツのARオブジェクトを生成及び表示する
情報処理装置。
(8)
上記(1)乃至(7)の何れか一項に記載の情報処理装置であって、
スレーブとして振る舞うとき、マスタとして振る舞う他の情報処理装置に、前記第2の3次元軌跡を供給するスレーブ軌跡供給部
をさらに具備する情報処理装置。
(9)
上記(1)乃至(8)の何れか一項に記載の情報処理装置であって、
前記カメラをさらに具備し、
前記自己位置は、前記カメラの位置及び姿勢を含む
情報処理装置。
(10)
第1のマップを生成し前記第1のマップ上の時系列的な自己位置を推定することにより前記第1の3次元軌跡を生成し、
スレーブとして振る舞う他の情報処理装置であるスレーブ装置のマップ生成部において生成された第2のマップ上の前記時系列的な自己位置を推定することにより生成された前記第2の3次元軌跡を取得し、
カメラが前記スレーブ装置を撮影して得た撮影画像上の前記スレーブ装置の時系列的な位置を示す2次元軌跡である観測2次元軌跡を生成し、
前記第1の3次元軌跡、前記第2の3次元軌跡及び前記観測2次元軌跡から、前記第1のマップと前記第2のマップとを同期させた同期マップを生成するための変換パラメータを算出する
情報処理方法。
(11)
情報処理装置の制御回路を、
第1のマップを生成し前記第1のマップ上の時系列的な自己位置を推定することにより前記第1の3次元軌跡を生成するマップ生成部と、
スレーブとして振る舞う他の情報処理装置であるスレーブ装置の前記マップ生成部において生成された第2のマップ上の前記時系列的な自己位置を推定することにより生成された前記第2の3次元軌跡を取得するスレーブ軌跡取得部と、
カメラが前記スレーブ装置を撮影して得た撮影画像上の前記スレーブ装置の時系列的な位置を示す2次元軌跡である観測2次元軌跡を生成する観測軌跡生成部と、
前記第1の3次元軌跡、前記第2の3次元軌跡及び前記観測2次元軌跡から、前記第1のマップと前記第2のマップとを同期させた同期マップを生成するための変換パラメータを算出する変換パラメータ算出部
として動作させる
情報処理プログラム。
(12)
情報処理装置の制御回路を、
第1のマップを生成し前記第1のマップ上の時系列的な自己位置を推定することにより前記第1の3次元軌跡を生成するマップ生成部と、
スレーブとして振る舞う他の情報処理装置であるスレーブ装置の前記マップ生成部において生成された第2のマップ上の前記時系列的な自己位置を推定することにより生成された前記第2の3次元軌跡を取得するスレーブ軌跡取得部と、
カメラが前記スレーブ装置を撮影して得た撮影画像上の前記スレーブ装置の時系列的な位置を示す2次元軌跡である観測2次元軌跡を生成する観測軌跡生成部と、
前記第1の3次元軌跡、前記第2の3次元軌跡及び前記観測2次元軌跡から、前記第1のマップと前記第2のマップとを同期させた同期マップを生成するための変換パラメータを算出する変換パラメータ算出部
として動作させる
情報処理プログラム
を記録した非一過性のコンピュータ読み取り可能な記録媒体。
本技術の各実施形態及び各変形例について上に説明したが、本技術は上述の実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
10 情報処理装置
100 制御回路
101A SLAM部
101B SLAM部
102 通信確立部
103 観測軌跡生成部
104 スレーブ軌跡取得部
105 スレーブ軌跡供給部
106 変換パラメータ算出部
107 変換パラメータ供給部
108 変換パラメータ取得部
109A 結果判断部
109B 結果判断部
10A マスタ装置
10B スレーブ装置
110 AR実行部
120A データベース
120B データベース
121A 第1のマップ
121B 第2のマップ
122 同期マップ
mA&B 同期座標系
mA 第1の座標系
mAmB 変換パラメータ
mB 第2の座標系

Claims (11)

  1. 第1のマップを生成し前記第1のマップ上の時系列的な自己位置を推定することにより前記第1の3次元軌跡を生成するマップ生成部と、
    スレーブとして振る舞う他の情報処理装置であるスレーブ装置の前記マップ生成部において生成された第2のマップ上の前記時系列的な自己位置を推定することにより生成された前記第2の3次元軌跡を取得するスレーブ軌跡取得部と、
    カメラが前記スレーブ装置を撮影して得た撮影画像上の前記スレーブ装置の時系列的な位置を示す2次元軌跡である観測2次元軌跡を生成する観測軌跡生成部と、
    前記第1の3次元軌跡、前記第2の3次元軌跡及び前記観測2次元軌跡から、前記第1のマップと前記第2のマップとを同期させた同期マップを生成するための変換パラメータを算出する変換パラメータ算出部と、
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記変換パラメータ算出部は、
    変換パラメータの候補値、前記第1の3次元軌跡及び前記第2の3次元軌跡に基づき、前記スレーブ装置の2次元軌跡を推定して推定2次元軌跡を生成し、
    前記推定2次元軌跡が前記観測2次元軌跡に合致する様に前記変換パラメータの候補値を最適化することで前記変換パラメータを算出する
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記変換パラメータ算出部は、
    前記第1の3次元軌跡及び前記第2の3次元軌跡に基づき、前記第1のマップ上の前記スレーブ装置の前記時系列的な位置を算出し、
    算出した前記第1のマップ上の前記スレーブ装置の前記時系列的な位置に基づき、前記変換パラメータの候補値を最適化する
    情報処理装置。
  4. 請求項1に記載の情報処理装置であって、
    前記マップ生成部は、前記第1のマップを前記変換パラメータに基づき変換することで、前記同期マップを生成する
    情報処理装置。
  5. 請求項1に記載の情報処理装置であって、
    前記変換パラメータを前記スレーブ装置に供給する変換パラメータ供給部をさらに有し、
    前記スレーブ装置の前記マップ生成部は、前記第2のマップを前記変換パラメータに基づき変換することで、前記同期マップを生成する
    情報処理装置。
  6. 請求項1に記載の情報処理装置であって、
    前記同期マップに基づきARオブジェクトを生成し、表示装置に表示するAR実行部
    をさらに具備する情報処理装置。
  7. 請求項6に記載の情報処理装置であって、
    マスタとして振る舞う前記情報処理装置の前記AR実行部と、前記スレーブ装置の前記AR実行部とは、共通のARコンテンツのARオブジェクトを生成及び表示する
    情報処理装置。
  8. 請求項1に記載の情報処理装置であって、
    スレーブとして振る舞うとき、マスタとして振る舞う他の情報処理装置に、前記第2の3次元軌跡を供給するスレーブ軌跡供給部
    をさらに具備する情報処理装置。
  9. 請求項1に記載の情報処理装置であって、
    前記カメラをさらに具備し、
    前記自己位置は、前記カメラの位置及び姿勢を含む
    情報処理装置。
  10. 第1のマップを生成し前記第1のマップ上の時系列的な自己位置を推定することにより前記第1の3次元軌跡を生成し、
    スレーブとして振る舞う他の情報処理装置であるスレーブ装置のマップ生成部において生成された第2のマップ上の前記時系列的な自己位置を推定することにより生成された前記第2の3次元軌跡を取得し、
    カメラが前記スレーブ装置を撮影して得た撮影画像上の前記スレーブ装置の時系列的な位置を示す2次元軌跡である観測2次元軌跡を生成し、
    前記第1の3次元軌跡、前記第2の3次元軌跡及び前記観測2次元軌跡から、前記第1のマップと前記第2のマップとを同期させた同期マップを生成するための変換パラメータを算出する
    情報処理方法。
  11. 情報処理装置の制御回路を、
    第1のマップを生成し前記第1のマップ上の時系列的な自己位置を推定することにより前記第1の3次元軌跡を生成するマップ生成部と、
    スレーブとして振る舞う他の情報処理装置であるスレーブ装置の前記マップ生成部において生成された第2のマップ上の前記時系列的な自己位置を推定することにより生成された前記第2の3次元軌跡を取得するスレーブ軌跡取得部と、
    カメラが前記スレーブ装置を撮影して得た撮影画像上の前記スレーブ装置の時系列的な位置を示す2次元軌跡である観測2次元軌跡を生成する観測軌跡生成部と、
    前記第1の3次元軌跡、前記第2の3次元軌跡及び前記観測2次元軌跡から、前記第1のマップと前記第2のマップとを同期させた同期マップを生成するための変換パラメータを算出する変換パラメータ算出部
    として動作させる
    情報処理プログラム。
JP2021206944A 2021-12-21 2021-12-21 情報処理装置、情報処理プログラム及び情報処理方法 Pending JP2023092003A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021206944A JP2023092003A (ja) 2021-12-21 2021-12-21 情報処理装置、情報処理プログラム及び情報処理方法
PCT/JP2022/040096 WO2023119862A1 (ja) 2021-12-21 2022-10-27 情報処理装置、情報処理プログラム及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021206944A JP2023092003A (ja) 2021-12-21 2021-12-21 情報処理装置、情報処理プログラム及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2023092003A true JP2023092003A (ja) 2023-07-03

Family

ID=86902019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021206944A Pending JP2023092003A (ja) 2021-12-21 2021-12-21 情報処理装置、情報処理プログラム及び情報処理方法

Country Status (2)

Country Link
JP (1) JP2023092003A (ja)
WO (1) WO2023119862A1 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021106388A1 (ja) 2019-11-29 2021-06-03 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
CN112762945A (zh) * 2021-01-14 2021-05-07 佳都新太科技股份有限公司 高精度地图全要素采集设备的信息同步方法、***及装置

Also Published As

Publication number Publication date
WO2023119862A1 (ja) 2023-06-29

Similar Documents

Publication Publication Date Title
US11257294B2 (en) Cross reality system supporting multiple device types
JP5743416B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US10386917B2 (en) Image processing device, object selection method and program
CN110264509A (zh) 确定图像捕捉设备的位姿的方法、装置及其存储介质
US11132845B2 (en) Real-world object recognition for computing device
EP4111425A1 (en) Cross reality system with fast localization
US10547974B1 (en) Relative spatial localization of mobile devices
JP6348741B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
CN113614784B (zh) 利用稀疏rgb-d slam和交互感知对对象进行检测、跟踪和三维建模
US10600206B2 (en) Tracking system and method thereof
JP2017187882A (ja) 画像処理に用いられるコンピュータープログラム
US10534426B2 (en) Interactive system, remote controller and operating method thereof
JP2020065229A (ja) 映像通信方法、映像通信装置及び映像通信プログラム
WO2018002698A1 (en) System and method for tracking using multiple slave servers and a master server
WO2020110359A1 (en) System and method for estimating pose of robot, robot, and storage medium
JP7379785B2 (ja) 3dツアーの比較表示システム及び方法
AU2013237211A1 (en) Generating navigation data
WO2023119862A1 (ja) 情報処理装置、情報処理プログラム及び情報処理方法
CN116486051B (zh) 一种多用户展示协同方法、装置、设备及存储介质
KR20210051002A (ko) 포즈 추정 방법 및 장치, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램
CN112581630B (zh) 一种用户交互方法和***
US11238658B2 (en) AR space image projecting system, AR space image projecting method, and user terminal
JP2019192145A (ja) 情報処理装置、情報処理方法及びプログラム
CN112750164A (zh) 轻量化定位模型的构建方法、定位方法、电子设备
JP2022011821A (ja) 情報処理装置、情報処理方法、移動ロボット