JP2024062512A - Information processing device, mobile device, system, control method, and program - Google Patents
Information processing device, mobile device, system, control method, and program Download PDFInfo
- Publication number
- JP2024062512A JP2024062512A JP2022170386A JP2022170386A JP2024062512A JP 2024062512 A JP2024062512 A JP 2024062512A JP 2022170386 A JP2022170386 A JP 2022170386A JP 2022170386 A JP2022170386 A JP 2022170386A JP 2024062512 A JP2024062512 A JP 2024062512A
- Authority
- JP
- Japan
- Prior art keywords
- map
- image
- information
- moving object
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000001514 detection method Methods 0.000 claims abstract description 117
- 230000005540 biological transmission Effects 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 18
- 238000010586 diagram Methods 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011410 subtraction method Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000011960 computer-aided design Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Image Analysis (AREA)
Abstract
【課題】安定して高精度な位置姿勢推定処理を実現するために、移動デバイスの位置合わせに用いるマップ中から移動物体を検出する。【解決手段】移動デバイスによって取得された少なくとも一つ以上の画像と当該画像の特徴情報とを含む第一マップを保持する第一マップ情報保持部と、固定カメラの画像を入力する画像入力部と、前記固定カメラの画像から移動物体を検出する移動物体検出部と、前記固定カメラの画像の特徴情報と前記第一マップに含まれる特徴情報との対応を検出するマップ対応検出部と、前記移動物体検出部と前記マップ対応検出部の検出結果を用いて、前記第一マップに含まれる特徴情報に対し、前記移動物体であるか否かを示す情報が付加された第二マップを生成するマップ更新部と、前記第二マップを保持する第二マップ情報保持部と、を備えることを特徴とする情報処理装置。【選択図】図1[Problem] To realize a stable and highly accurate position and orientation estimation process, a moving object is detected from a map used for positioning a moving device. [Solution] An information processing device comprising: a first map information storage unit that stores a first map including at least one image acquired by a moving device and feature information of the image, an image input unit that inputs an image from a fixed camera, a moving object detection unit that detects a moving object from the image from the fixed camera, a map correspondence detection unit that detects a correspondence between the feature information of the image from the fixed camera and feature information included in the first map, a map update unit that uses the detection results of the moving object detection unit and the map correspondence detection unit to generate a second map in which information indicating whether or not the object is a moving object is added to the feature information included in the first map, and a second map information storage unit that stores the second map. [Selected Figure] Figure 1
Description
本発明は、移動デバイスの位置合わせに用いるマップから移動物体を検出する技術に関する。 The present invention relates to a technology for detecting moving objects from a map used to align a moving device.
近年、設計・製造分野においてプロトタイプを用いた評価の期間短縮、費用削減が求められている。CAD(コンピュータ支援設計)システムで作成した設計(形状・デザイン)データを用いて、組み立てやすさやメンテナンス性の評価をするための複合現実感(MR:Mixed Reality)システムが導入されている。 In recent years, there has been a demand in the design and manufacturing fields to shorten the time and reduce costs required for evaluation using prototypes. Mixed reality (MR) systems have been introduced to evaluate ease of assembly and maintainability using design (shape and design) data created with CAD (computer-aided design) systems.
MRシステムの画像表示装置には、ビデオシースルー方式と光学シースルー方式とがある。ビデオシースルー方式の画像表示装置は、撮像装置によって撮影された現実空間の画像に、該撮像装置の位置及び姿勢に応じて生成された仮想空間(コンピュータグラフィクスにより描画された仮想物体や文字情報等)の画像を重畳描画した合成画像を表示する。光学シースルー方式の画像表示装置は、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成された仮想空間の画像を表示する。 Image display devices for MR systems are classified into video see-through and optical see-through types. Video see-through image display devices display a composite image in which an image of a virtual space (such as a virtual object or text information drawn by computer graphics) generated according to the position and orientation of the imaging device is superimposed on an image of real space captured by an imaging device. Optical see-through image display devices display an image of a virtual space generated according to the position and orientation of the observer's viewpoint on an optical see-through display worn on the observer's head.
MR技術において重要な課題の一つは、現実空間と仮想空間の間の位置合わせをいかに正確に行うかということである。そのために、現実空間におけるカメラの位置及び姿勢を正確かつリアルタイムに推定する必要がある。 One of the important issues in MR technology is how to accurately align the real space and the virtual space. To do this, it is necessary to estimate the position and orientation of the camera in the real space accurately and in real time.
その実現方法の一つに、カメラで撮影された画像を用いて現実空間のマップを構築し、そのマップに基づいてカメラの位置及び姿勢を求める方法がある。例えば、Visual
SLAM(Simultaneous Localization and Mapping)と呼ばれる手法がある(例えば、非特許文献1を参照)。この技術は、MRシステムだけでなく、ロボットや無人搬送車の自己位置推定などにも利用されている。
One method for achieving this is to construct a map of the real space using images captured by a camera, and to obtain the position and orientation of the camera based on the map.
There is a technique called Simultaneous Localization and Mapping (SLAM) (see, for example, Non-Patent Document 1). This technique is used not only in MR systems but also in self-location estimation of robots and automated guided vehicles.
Visual SLAMは、カメラで撮影された画像から現実空間におけるカメラの位置姿勢を求めると同時に、必要に応じてその画像からキーフレームの情報を抽出し、その情報を蓄積したマップを構築する手法である。キーフレームの情報には、画像と、その画像を撮影したカメラの位置姿勢、およびその画像から抽出された特徴点の3次元情報が含まれる。Visual SLAMによる方法では、実行時にマップを新たに作成した場合、実行の度に異なる基準座標系に基づいて位置姿勢推定がなされる。そのため、同じ環境においては、過去に作成されたマップを利用して処理を行い、一貫した基準座標系に基づく位置姿勢推定を行うことが望ましい。 Visual SLAM is a method for determining the position and orientation of a camera in real space from an image captured by the camera, while at the same time extracting keyframe information from the image as necessary and constructing a map that accumulates this information. Keyframe information includes the image, the position and orientation of the camera that captured the image, and 3D information of feature points extracted from the image. In a Visual SLAM method, if a new map is created during execution, position and orientation estimation is performed based on a different reference coordinate system each time it is executed. For this reason, in the same environment, it is desirable to perform processing using a map created in the past and perform position and orientation estimation based on a consistent reference coordinate system.
また、VisualSLAMにおいてはカメラで撮影した画像中に移動物体が含まれる場合、それらはカメラの動きとは異なる方向に動きベクトルを生じるため、カメラ位置姿勢推定の誤差の原因となる。そのため、より安定したカメラ位置姿勢の推定を行うためには、移動物体の影響を取り除くことが望ましい。 In addition, in VisualSLAM, if moving objects are included in an image captured by the camera, these will generate motion vectors in a direction different from the camera movement, which will cause errors in the estimation of the camera position and orientation. Therefore, to perform more stable estimation of the camera position and orientation, it is desirable to remove the influence of moving objects.
特許文献1では、マップと画像の対応点のうち、動きベクトルの異なる点を移動物体上の点であると判定し、マップから除去することでこれを実現している。
In
しかしながら従来の手法では、全ての対応点のうち移動物体上の対応点が占める割合が大きい場合には、静止物体上の点が除去されてしまう可能性がある。また、対応点が移動物体上にあっても、動きベクトルの違いが閾値以下の場合は静止物体上にあると判定されて除去されず、カメラ位置姿勢推定の精度が低下する可能性がある。 However, with conventional methods, if the proportion of corresponding points on moving objects is large among all corresponding points, there is a possibility that points on stationary objects will be removed. Furthermore, even if a corresponding point is on a moving object, if the difference in its motion vector is below a threshold, it is determined to be on a stationary object and will not be removed, which may result in reduced accuracy in estimating the camera position and orientation.
そこで本発明は、安定して高精度な位置姿勢推定処理を実現するために、移動デバイスの位置合わせに用いるマップ中から移動物体を検出することを目的とする。 The present invention aims to detect moving objects from a map used to align a moving device in order to achieve stable and highly accurate position and orientation estimation processing.
本発明の第一態様は、
移動デバイスによって取得された少なくとも一つ以上の画像と当該画像の特徴情報とを含む第一マップを保持する第一マップ情報保持部と、
固定カメラの画像を入力する画像入力部と、
前記固定カメラの画像から移動物体を検出する移動物体検出部と、
前記固定カメラの画像の特徴情報と前記第一マップに含まれる特徴情報との対応を検出するマップ対応検出部と、
前記移動物体検出部と前記マップ対応検出部の検出結果を用いて、前記第一マップに含まれる特徴情報に対し、前記移動物体であるか否かを示す情報が付加された第二マップを生成するマップ更新部と、
前記第二マップを保持する第二マップ情報保持部と、
を備えることを特徴とする情報処理装置である。
The first aspect of the present invention is
a first map information storage unit that stores a first map including at least one image captured by a mobile device and feature information of the image;
an image input unit for inputting an image from a fixed camera;
a moving object detection unit that detects a moving object from an image captured by the fixed camera;
a map correspondence detection unit that detects correspondence between feature information of an image of the fixed camera and feature information included in the first map;
a map update unit that uses detection results of the moving object detection unit and the map correspondence detection unit to generate a second map in which information indicating whether or not the object is a moving object is added to the feature information included in the first map; and
a second map information storage unit for storing the second map;
The information processing device is characterized by comprising:
本発明の第二態様は、
カメラによって撮影された画像から、当該画像と当該画像の特徴情報とを含む第一マップを生成する第一マップ生成部と、
前記第一マップを他の装置に送信する第一マップ送信部と、
前記他の装置から、前記第一マップに含まれる前記特徴情報に対し、移動物体であるか否かを示す情報が付加された第二マップを受信する第二マップ受信部と、
前記第二マップに含まれる特徴情報のうち、前記移動物体ではない物体の特徴情報に基づいて、前記移動デバイスの位置を推定する自己位置推定部と、
を備える移動デバイスである。
A second aspect of the present invention is
a first map generating unit that generates a first map including an image captured by a camera and feature information of the image;
a first map transmission unit configured to transmit the first map to another device;
a second map receiving unit that receives, from the other device, a second map in which information indicating whether or not the object is a moving object is added to the feature information included in the first map;
a self-location estimation unit that estimates a location of the moving device based on feature information of an object that is not the moving object among feature information included in the second map;
A mobile device comprising:
本発明の第三態様は、
移動デバイスと情報処理装置を含むシステムであって、
前記移動デバイスは、
前記移動デバイスと関連付けられたカメラによって撮影された画像から、当該画像と当該画像の特徴情報とを含む第一マップを生成する第一マップ生成部と、
前記移動デバイスの位置を推定する自己位置推定部と、
を備え、
前記情報処理装置は、
固定カメラの画像を入力する画像入力部と、
前記固定カメラの画像から移動物体を検出する移動物体検出部と、
を備え、
前記固定カメラの画像の特徴情報と前記第一マップに含まれる特徴情報との対応を検出するマップ対応検出部と、
前記移動物体検出部と前記マップ対応検出部の検出結果を用いて、前記第一マップに含まれる特徴情報に対し、前記移動物体であるか否かを示す情報を付加した第二マップを生成するマップ更新部と、
前記第二マップを保持する第二マップ情報保持部と、
のそれぞれが、前記移動デバイスと前記情報処理装置の少なくともいずれかに備えられており、
前記自己位置推定部は、前記第二マップに含まれる特徴情報のうち、前記移動物体ではない物体の特徴情報に基づいて、前記移動デバイスの位置を推定する、
ことを特徴とするシステムである。
A third aspect of the present invention is
A system including a mobile device and an information processing device,
The mobile device comprises:
a first map generating unit that generates a first map including an image captured by a camera associated with the mobile device and feature information of the image from the image;
A self-location estimation unit that estimates a location of the moving device;
Equipped with
The information processing device includes:
an image input unit for inputting an image from a fixed camera;
a moving object detection unit that detects a moving object from an image captured by the fixed camera;
Equipped with
a map correspondence detection unit that detects correspondence between feature information of an image of the fixed camera and feature information included in the first map;
a map update unit that generates a second map by adding information indicating whether the feature information is the moving object or not to the feature information included in the first map, using detection results of the moving object detection unit and the map correspondence detection unit; and
a second map information storage unit for storing the second map;
are provided in at least one of the mobile device and the information processing device,
The self-location estimation unit estimates a location of the moving device based on feature information of an object other than the moving object, among feature information included in the second map.
The system is characterized by the above.
本発明の第四態様は、
情報処理装置の制御方法であって、
移動デバイスによって取得された少なくとも一つ以上の画像と当該画像の特徴情報とを含む第一マップを保持する第一マップ情報保持ステップと、
固定カメラの画像から移動物体を検出する移動物体検出ステップと、
前記固定カメラの画像の特徴情報と前記第一マップに含まれる特徴情報との対応を検出するマップ対応検出ステップと、
前記移動物体検出ステップと前記マップ対応検出ステップの検出結果を用いて、前記第一マップに含まれる特徴情報に対し、前記移動物体であるか否かを示す情報が付加された第二マップを生成するマップ更新ステップと、
前記第二マップを保持する第二マップ情報保持ステップと、
を含むことを特徴とする制御方法である。
A fourth aspect of the present invention is
A method for controlling an information processing device, comprising:
a first map information storage step of storing a first map including at least one image captured by the mobile device and feature information of the image;
A moving object detection step of detecting a moving object from an image of a fixed camera;
a map correspondence detection step of detecting a correspondence between feature information of an image of the fixed camera and feature information included in the first map;
a map updating step of generating a second map in which information indicating whether or not the object is a moving object is added to the feature information included in the first map, using detection results of the moving object detection step and the map correspondence detection step;
a second map information storage step for storing the second map;
The control method includes:
本発明の第五態様は、
移動デバイスの制御方法であって、
カメラによって撮影された画像から、当該画像と当該画像の特徴情報とを含む第一マップを生成する第一マップ生成ステップと、
前記第一マップを他の装置に送信する第一マップ送信ステップと、
前記他の装置から、前記第一マップに含まれる前記特徴情報に対し、移動物体であるか否かを示す情報が付加された第二マップを受信する第二マップ受信ステップと、
前記第二マップに含まれる特徴情報のうち、前記移動物体ではない物体の特徴情報に基づいて、前記移動デバイスの位置を推定する自己位置推定ステップと、
を含むことを特徴とする制御方法である。
A fifth aspect of the present invention is
1. A method for controlling a mobile device, comprising:
a first map generating step of generating a first map including an image captured by the camera and feature information of the image;
a first map transmission step of transmitting the first map to another device;
a second map receiving step of receiving a second map from the other device in which information indicating whether or not the object is a moving object is added to the feature information included in the first map;
a self-location estimation step of estimating a location of the moving device based on feature information of an object other than the moving object among feature information included in the second map;
The control method includes:
本発明の第六態様は、
移動デバイスと情報処理装置を含むシステムの制御方法であって、
前記情報処理装置が、固定カメラの画像を入力する画像入力ステップと、
前記情報処理装置が、前記固定カメラの画像から移動物体を検出する移動物体検出ステップと、
前記移動デバイスが、前記移動デバイスと関連付けられたカメラによって撮影された画像から、当該画像と当該画像の特徴情報とを含む第一マップを生成する第一マップ生成ステップと、
前記移動デバイスと前記情報処理装置の少なくともいずれかが、前記固定カメラの画像の特徴情報と前記第一マップに含まれる特徴情報との対応を検出するマップ対応検出ステップと、
前記移動デバイスと前記情報処理装置の少なくともいずれかが、前記移動物体検出ステップと前記マップ対応検出ステップの検出結果を用いて、前記第一マップに含まれる特徴情報に対し、前記移動物体であるか否かを示す情報を付加した第二マップを生成するマップ更新ステップと、
前記移動デバイスと前記情報処理装置の少なくともいずれかが、前記第二マップを保持する第二マップ情報保持ステップと、
前記移動デバイスが、前記移動デバイスの位置を推定する自己位置推定部と、
を含むことを特徴とする制御方法である。
A sixth aspect of the present invention is
A method for controlling a system including a mobile device and an information processing device, comprising:
an image input step in which the information processing device inputs an image from a fixed camera;
a moving object detection step in which the information processing device detects a moving object from an image of the fixed camera;
a first map generation step in which the mobile device generates a first map from an image captured by a camera associated with the mobile device, the first map including the image and feature information of the image;
a map correspondence detection step in which at least one of the mobile device and the information processing device detects correspondence between feature information of the image of the fixed camera and feature information included in the first map;
a map update step in which at least one of the moving device and the information processing device generates a second map by adding information indicating whether or not the feature information is the moving object to the feature information included in the first map, using detection results of the moving object detection step and the map correspondence detection step; and
a second map information holding step in which at least one of the mobile device and the information processing device holds the second map;
The mobile device includes a self-location estimation unit that estimates a location of the mobile device;
The control method includes:
本発明によれば、移動デバイスの位置合わせに用いるマップ中から移動物体を検出でき、移動物体の影響を受けずに安定して高精度な位置姿勢の推定が可能となる。 According to the present invention, moving objects can be detected from a map used to align a moving device, enabling stable and highly accurate estimation of position and orientation without being affected by the moving objects.
以下、本発明に係る実施形態を、図面を参照して詳細に説明する。なお、以下の実施形態に記載する構成は代表例であり、本発明の範囲はそれらの具体的構成に必ずしも限定されない。 Embodiments of the present invention will be described in detail below with reference to the drawings. Note that the configurations described in the following embodiments are representative examples, and the scope of the present invention is not necessarily limited to those specific configurations.
<実施形態1>
図1は、本実施形態に係るシステムの構成例を示すブロック図である。図1に示す如く、本実施形態にかかるシステムは、情報処理装置1がカメラ100および移動デバイス2と接続された構成を有する。
<
1 is a block diagram showing an example of the configuration of a system according to this embodiment. As shown in FIG 1, the system according to this embodiment has a configuration in which an
情報処理装置1は、画像入力部101、第一マップ受信部102、第一マップ情報保持部108、マップ対応検出部103、移動物体検出部104、マップ更新部105、第二マップ情報保持部106、第二マップ送信部107を含む。
The
移動デバイス2は、現実空間中を移動可能であり、移動デバイス2に関連付けられたカメラ200によって撮影された映像を用いて構築した現実空間のマップに基づく自己位置姿勢推定を行うことができるデバイスである。移動デバイス2はカメラ200を内蔵していてもよくカメラ200と接続されていてもよい。移動デバイス2は、例えばカメラ付きのスマートフォンやHMD(Head Mounted Display)であってよく
、MR映像をユーザーに提示するために現実空間のマップに基づく自己位置姿勢推定を行いうる。また、移動デバイス2は、自律移動ロボットであってよく、ナビゲーションのために自己位置姿勢推定を行いうる。本実施形態では1つの移動デバイス2に対する処理について説明するが、本発明における情報処理装置1には複数の移動デバイス2が接続され、複数の移動デバイス2に対する処理が同時に行われてもよい。また、移動デバイス2と情報処理装置1は、同一のハードウェアで構成されていてもよい。
The
図2は、本実施形態におけるカメラ100、情報処理装置1、移動デバイス2が現実空間中に配置された様子を示す模式図である。本実施形態では、移動デバイス2は体験者の頭部に装着可能なビデオシースルー型のHMDとして説明する。机301および椅子302は現実空間中の物体であり、机301は移動しない物体、椅子302は移動する物体の例として説明する。
Figure 2 is a schematic diagram showing how the
本実施形態では、情報処理装置1に接続されたカメラ100は現実空間中に固定された単眼の固定カメラとして説明するが、多眼の固定カメラであってもよい。またカメラ100は輝度画像を取得するカメラとして説明するが、カラー画像や奥行画像、非可視光画像などを取得可能なカメラでもよい。本発明において、カメラ100のカメラパラメータや位置姿勢は、事前に校正されていなくてもよいが、事前に校正されていてもよい。
In this embodiment, the
移動デバイス2に接続されるカメラ200は、撮像手段が左目用と右目用に備わっているステレオカメラ構成として説明するが、カメラ200は単眼カメラであってもよいし、移動デバイス2に2つ以上のカメラが接続されてもよい。移動デバイス2において構築される現実空間のマップは、少なくともカメラ200によって撮像された画像を含むものとする。ただし、現実空間のマップ構築に、加速度センサ、角速度センサ、超音波センサ、磁気センサ、奥行画像センサ、レーザー距離センサなどの他のセンサや、現実空間中に配置したマーカーから得られた情報などを用いてもよい。
The
図3を用いて、情報処理装置1のハードウェア構成について説明する。同図において、31はCPUであり、装置全体を制御する。32はRAMであり、CPU31が各部を制御しながら処理を行う時に作業領域として用いられる。33はROMであり、制御プログラム、各種アプリケーションプログラム、データなどを記憶する。CPU31がROM33に記憶する制御プログラムをRAM32に展開して実行することにより、図1に示す各機能部が実現される。すなわち、CPU31が、画像入力部101、第一マップ受信部102、第一マップ情報保持部108、マップ対応検出部103、移動物体検出部104、マップ更新部105、第二マップ情報保持部106、第二マップ送信部107に相当する。また、入力I/F34は、カメラ100および第一マップ受信部102から情報処理装置1で処理可能な形式で入力信号として入力する。また、出力I/F35は、第二マップ送信部107から外部装置へ外部装置が処理可能な形式で出力信号として出力する。
The hardware configuration of the
上述したように、図1に示す情報処理装置1の各部の機能は、CPU31がプログラムを実行することで実現することができる。ただし、図1に示す各部のうち少なくとも一部が不図示の専用のハードウェアやGPUによって実行するようにしてもよい。この場合、専用のハードウェアやGPUは、CPU31の制御に基づいて動作する。
As described above, the functions of each unit of the
移動デバイス2も、図3に示す情報処理装置1と同様のハードウェア構成を有し、CPUがプログラムを実行することで、第一マップ生成部201、第一マップ送信部202、第二マップ受信部203、自己位置姿勢推定部204の機能が実現される。
The
本実施形態に係る情報処理装置1および移動デバイス2について説明する。
The
図1における画像入力部101は、カメラ100で撮影した現実空間の画像を取得し、マップ対応検出部103および移動物体検出部104に送出する。カメラ100は動画像を記録する装置であり、画像入力部101は、動画像のフレームごとに画像を入力する。
The
移動デバイス2は、カメラ200で撮影した現実空間の画像を取得し、第一マップ生成部201が、その画像の情報を含む現実空間の3次元情報を第一マップとして構築する。自己位置姿勢推定部204は、第一マップに基づいて、自己位置姿勢を推定する。自己位置姿勢の推定は、SLAMなどの既存の技術を用いて実現できるので詳細な説明は省略する。なお、移動デバイス2は、自己位置姿勢推定部204の代わりに、移動デバイス2の位置のみを推定する自己位置推定部を有していてもよい。第一マップ送信部202は、所定の送信タイミングで情報処理装置1の第一マップ受信部102に第一マップの情報を送信する。第二マップ受信部203は、情報処理装置1の第二マップ送信部107から送信された第二マップを受信する。自己位置姿勢推定部204は、第二マップの情報に基づいて自己位置姿勢を推定する。この際、自己位置姿勢推定部204は、第二マップにおいて移動物体であることを示すフラグが付加された特徴点は用いずに、自己位置姿勢の推定を行う。自己位置姿勢推定部204は、第一マップおよび第二マップのいずれに基づいて自己位置姿勢の推定が可能であるが、第二マップを用いることで移動物体の影響を除外した高精度な推定が可能となる。なお、本発明における移動デバイス2は上記に示した構成を有する必要はなく、情報処理装置1と第一マップの送信および第二マップの受信ができるデバイスであればよい。
The moving
本実施形態における第一マップは、複数のキーフレームの画像と、その画像から検出された特徴情報、および画像を撮影した時のカメラ位置姿勢を含む。本実施形態における特徴情報は、空間中の特徴点の3次元座標と、その特徴点に対応するキーフレームの画像座標である。ただし、本発明における特徴情報は特徴点に限らず、例えば特徴的なエッジや、特徴的な領域の情報などを含んでもよい。第一マップは、例えば非特許文献1に開示の方法で構築することができる。画像を撮影したときのカメラ位置姿勢は、上記複数のキーフレームの画像を用いた自己位置姿勢推定により取得可能である。また、第一マップは、姿勢センサの情報など、上記以外の情報を含んでもよい。
The first map in this embodiment includes images of multiple key frames, feature information detected from the images, and the camera position and orientation when the images were captured. The feature information in this embodiment is the three-dimensional coordinates of feature points in space and the image coordinates of the key frames corresponding to the feature points. However, the feature information in this invention is not limited to feature points, and may include, for example, information on characteristic edges and characteristic areas. The first map can be constructed, for example, by the method disclosed in
移動デバイス2が第一マップ受信部102に第一マップの情報を送信するタイミングは、例えば移動デバイス2がカメラ100の近傍(所定距離以内)にあると判定された時でもあり得る。移動デバイス2がカメラ100の近傍にあることは、例えば無線信号を用いて判定できる。また、第一マップの情報の送信タイミングは、移動デバイス2がカメラ200から新たにキーフレームの情報を得た時でもよい。また、第一マップの情報の送信タイミングは、受信した第二マップに対し、カメラ200から得た新たな情報を追加した時でもよい。この場合、移動デバイス2は、受信した第二マップに対し、カメラ200から得た新たな情報を追加したマップを再び第一マップの情報として情報処理装置1の第一マップ受信部102に送出する。
The timing for the
第一マップ受信部102は、移動デバイス2から第一マップの情報を受信し、第一マップ情報保持部108に保持し、マップ対応検出部103に通知する。その際、移動デバイス2の現在地を同時に受信して第一マップ情報保持部108に保持してもよい。
The first
マップ対応検出部103は、第一マップ情報保持部108に保持された第一マップと、画像入力部101から入力された画像との対応検出処理を行う。対応検出処理の具体例を、図4(a)、図4(b)を用いて説明する。
The map
図4(a)は第一マップの情報に含まれるキーフレームの画像を示した模式図である。ここでは、現実物体として机301および椅子302が観測されているものとして説明す
る。第一マップには、キーフレームの画像から検出された机301および椅子302の特徴点(図中の401乃至406)の画像中の座標(画像座標)と、各特徴点の3次元空間内の座標(3次元座標)の情報が含まれている。
4A is a schematic diagram showing an image of a key frame included in the information of the first map. Here, the explanation will be given assuming that a
図4(b)は画像入力部101から入力された画像を示した模式図である。第一マップ中のキーフレームと共通する現実物体として、机301および椅子302が観測されているものとする。
Figure 4 (b) is a schematic diagram showing an image input from the
対応検出処理では、まず、画像入力部101から入力されたカメラ100の画像から、特徴点が検出される(図中の411乃至416)。次に、検出された特徴点411乃至416を、第一マップに含まれるキーフレームの各特徴点401乃至406と比較することで、対応する特徴点のペアが取得される。ここでは、特徴点401乃至406それぞれの対応点として、特徴点411乃至416が得られたものとする。2つの画像間の対応点を検出する処理は、例えばSIFT特徴量(非特許文献3を参照)を用いて実施することができる。ただし、本発明におけるマップ対応検出部103の処理はこれに限らない。例えば、画像入力部101から入力された画像とキーフレームの画像それぞれに対して、画像を複数の物体の領域に区別するセグメンテーション処理を行い、各領域が同一の物体の領域であるか否かを判定し、対応領域を得てもよい。また、処理の際に、現実空間中に配置した人工的な指標の情報を用いてもよいし、現実物体の既知の3次元モデルを用いてもよい。
In the correspondence detection process, first, feature points are detected from the image of the
対応検出処理は、画像入力部101から入力されたカメラ100の画像と第一マップに含まれる全てのキーフレームとの間で行ってもよいし、入力されたカメラ100の画像と一部のキーフレームとの間で行ってもよい。または、予め第一マップに含まれるキーフレーム同士で対応検出処理を行っておき、画像入力部101から入力された画像と一部のキーフレームとの間で行った対応検出処理の結果と合わせることで全てのキーフレームとの対応を検出してもよい。
The correspondence detection process may be performed between the image of
以上の方法を用いて得られた対応検出処理の結果は、後述するマップ更新部105に送出される。
The results of the correspondence detection process obtained using the above method are sent to the
移動物体検出部104は、画像入力部101から入力された画像から移動物体を検出する処理を行い、その結果をマップ更新部105に送出する。移動物体を検出する処理は、画像入力部101から入力された画像を複数フレーム分用いることで実現できる。一例として、背景差分法が採用できる。背景差分法は、移動物体が写らないように撮影されたカメラ100の撮影画像(すなわち、背景画像)と画像入力部101から入力された画像とを比較し、画素の輝度差が閾値以上の画像領域を検出する。検出された画像領域には移動物体があり、それ以外の画像領域には移動しない物体があると考えることができるため、本実施形態では、検出された画像領域の情報を移動物体の検出結果としてマップ更新部105に送出する。ただし、本発明において移動物体を検出する方法はこれに限らない。例えば、画像から特徴点を検出し、画像入力部101から入力される動画像のフレーム間で特徴点を追跡することで、移動物体を検出してもよい。移動物体を検出するために、現実空間中に配置した人工的な指標を用いてもよいし、現実物体の3次元モデルを用いてもよい。
The moving
マップ更新部105は、マップ対応検出部103から送出された対応検出処理の結果と、移動物体検出部104から送出された移動物体の検出結果とを用いて、第一マップに含まれる情報のうち、移動物体に対応する情報を特定する。マップ更新部105は、さらに、特定した情報を用いて第二マップを生成し、第二マップ情報保持部106に保持する。
The
第二マップ生成の具体的な方法を、移動物体検出部104にて現実物体302が移動物体として検出された場合を例に説明する。マップ対応検出部103で検出された特徴点414乃至416は、移動物体(302)の画像領域中にあるため、マップ更新部105はこれらの特徴点414乃至416を移動物体に属する特徴点であると判定する。さらに、マップ対応検出部103の処理の結果から、特徴点414乃至416に対応する第一マップ中の特徴点は、それぞれ特徴点404乃至406であることが分かる。そのため、マップ更新部105は、特徴点404乃至406は移動物体の点であると特定できる。マップ更新部105は、この特定結果を用いて、第一マップにおける各特徴点に対して、移動物体であるか否かを示すフラグを対応情報として付加したものを第二マップとして生成し、第二マップ情報保持部106に保持する。第二マップは、各特徴点が移動物体と非移動物体のいずれであるかが判別可能なように構成されていればよい。したがって、第二マップ中の全ての特徴点に移動物体と非移動物体のいずれであるかを示すフラグが付加されていてもよいし、移動物体の特徴点のみにフラグが付加されていてもよいし、非移動物体の特徴点のみにフラグが付加されていてもよい。
A specific method for generating the second map will be described using an example in which the moving
このように生成された第二マップを移動デバイス2が利用することで、移動しない物体の特徴点のみを用いてカメラ位置姿勢を推定することができるようになるため、移動物体への頑健性と推定精度の向上が期待できる。
By using the second map generated in this way, the
さらに、第二マップの生成に際して、マップ更新部105は、新たに生成した第二マップを、過去に生成され、第二マップ情報保持部106に保持されている第二マップの情報と統合してもよい。マップの統合は、2つのマップに含まれるキーフレーム間の対応点を抽出することにより、各マップに含まれる3次元点の対応関係を見つけ出し、対応点を1つの点として統合する処理を含む。マップの統合は、また、これらの情報に基づいてキーフレーム同士の相対位置姿勢を推定する処理、言い換えると2つのマップの原点(基準座標系)を揃える処理を含む。過去のマップの情報を統合することでより多くの視点からのキーフレームの情報が得られるため、移動デバイス2におけるカメラ位置姿勢の安定化が期待できる。また、過去にカメラ位置姿勢の処理を行った時と同じ基準座標系に基づくカメラ位置姿勢を推定できる効果もある。これにより、例えばMR映像を生成する際、過去に現実空間中に配置したCGモデルがその後も同じ位置に存在し続けているかのような映像を生成することができるようになる。2つのマップを統合する具体的な方法は、例えば非特許文献2に開示されているように、マップ間の各キーフレームの対応を取得して、その相対位置姿勢を計算する方法がある。ただし、本発明におけるマップの統合方法はこれに限定しない。
Furthermore, when generating the second map, the
第二マップ送信部107は、第二マップ情報保持部106に保持された第二マップの情報を移動デバイス2に送出する。その際、第二マップ送信部107は、第二マップ全体ではなく、第二マップの情報のうち、移動デバイス2の現在地の近傍(所定距離以内)のマップ情報を選択して送信してもよい。移動デバイス2の現在地は、第一マップに含まれるキーフレームのカメラ位置姿勢から推定してもよいし、第一マップ情報保持部108にて、第一マップと共に移動デバイス2の現在地を保持している場合は、その情報を用いて推定してもよい。
The second
図5に示すフローチャートを参照して、情報処理装置1の処理の一例を説明する。
An example of the processing of the
ステップS501は、カメラ100で撮影された画像を情報処理装置1に取り込む処理であり、画像入力部101により処理される。
Step S501 is a process of importing an image captured by the
ステップS502は、ステップS501にて入力された画像から、背景差分法によって移動物体の領域を検出する処理である。ステップS502は、移動物体検出部104によ
り処理される。
Step S502 is a process of detecting a moving object region from the image input in step S501 by a background subtraction method. Step S502 is processed by the moving
ステップS503は、移動デバイス2から第一マップを受信したか否かを判定する処理であり、第一マップ受信部102により処理される。第一マップを受信していない場合はステップS501の処理に戻り、次のフレームを待機する。第一マップを受信した場合は、第一マップ受信部102はその情報を第一マップ情報保持部108に保持し、ステップS504の処理に進む。
Step S503 is a process for determining whether or not a first map has been received from the
ステップS504は、第一マップ情報保持部108に保持された第一マップ中のキーフレームに対し、ステップS501で取り込んだ画像と対応する特徴点の情報を取得する処理である。ステップS504は、マップ対応検出部103により処理される。
Step S504 is a process for obtaining information on feature points corresponding to the image captured in step S501 for key frames in the first map stored in the first map
ステップS505は、ステップS502で検出された移動物体の領域と、ステップS504で取得された対応する特徴点の情報を用いて、第一マップにおける特徴点のうち、移動物体に対応する点を特定する処理である。ステップS505は、マップ更新部105により処理される。
Step S505 is a process of identifying points in the first map that correspond to the moving object, among the feature points, by using the area of the moving object detected in step S502 and the information on the corresponding feature points acquired in step S504. Step S505 is processed by the
ステップS506は、ステップS505にて特定した移動物体に対応する点の情報を第一マップから除去することで第二マップを生成する処理である。生成した第二マップの情報は、第二マップ情報保持部106に保持される。ステップS506は、マップ更新部105により処理される。
Step S506 is a process of generating a second map by removing information about the points corresponding to the moving objects identified in step S505 from the first map. The information about the generated second map is stored in the second map
ステップS507は、第二マップ情報保持部106に保持された第二マップの情報を移動デバイス2に送信する処理である。ステップS507は、第二マップ送信部107により処理される。
Step S507 is a process of transmitting the second map information stored in the second map
ステップS508は情報処理装置1に処理終了の要求があるか否かを判定する処理である。処理終了の要求がない場合はステップS401に処理を戻して次フレームの入力を待機する。処理終了の要求がある場合は、処理を終了する。
Step S508 is a process for determining whether or not there is a request to end processing in the
<変形例1>
実施形態1において、マップ対応検出部103は、画像入力部101から入力された画像と第一マップの情報に含まれるキーフレームの画像との対応を求めている。この場合、キーフレームの画像を撮影した時刻と画像入力部101から入力された画像との撮影時刻に差異が生じる。それにより、例えばキーフレーム撮影時にはカメラ100とカメラ200の両方に写っていた物体が、画像入力部101から入力した時点のカメラ100には写っていなかった場合、キーフレームの画像中の移動物体を検出することができない。
<
In the first embodiment, the map
上記課題の対策として本変形例では、カメラ100の画像を撮影時刻と関連付けて、定期的に不図示の画像蓄積部に記録し、必要に応じて画像入力部101が画像蓄積部から画像を入力して用いる。
To address the above issue, in this modified example, images from the
本変形例では、第一マップ受信部102は、実施形態1に記載の情報に加えて、キーフレームの画像の撮影時刻も受信し、第一マップ情報保持部108に保持する。マップ対応検出部103、移動物体検出部104、マップ更新部105の各部は、キーフレームの画像の撮影時刻と最も近い時刻の画像を画像蓄積部から選択し、画像入力部101を通して入力して処理する。これにより、第一マップにおける各特徴点に対して、移動物体であるか否かを示すフラグをより正確に付与した第二マップを生成することができる。
In this modified example, the first
なお、キーフレームの画像の撮影時刻と最も近い時刻の画像を選択する必要はなく、キ
ーフレームの画像の撮影時刻に対応する撮影時刻を選択すればよい。キーフレームの画像の撮影時刻に対応する撮影時刻のその他の例として、キーフレームの画像の撮影時刻の差が閾値以内の撮影時刻を挙げられる。
It is not necessary to select an image with a shooting time closest to the shooting time of the key frame image, but it is sufficient to select a shooting time that corresponds to the shooting time of the key frame image. Another example of a shooting time that corresponds to the shooting time of the key frame image is a shooting time whose difference with the shooting time of the key frame image is within a threshold.
<変形例2>
本発明における情報処理装置1には、複数の移動デバイスが接続されていてもよく、その場合、実施形態1に記載の処理をそれぞれの移動デバイスに対して行われる。この際、第二マップ情報保持部106に保持される情報は、複数の移動デバイスに対する処理の間で共有されてもよい。例えば、実施形態1のマップ更新部105にて説明した、第二マップ情報保持部106に保持されている過去の第二マップの情報と統合する方法を用いることで、他の移動デバイスで得られた情報を活用したカメラ位置姿勢が可能となる。
<
A plurality of mobile devices may be connected to the
しかしながら、異なる性質を持つ移動デバイスで構築されたマップ情報を用いると、カメラ位置姿勢の性能を低下させる恐れもある。そこで、本変形例では、移動デバイスの性質に応じて第二マップ情報保持部106に複数のマップを保持し、同じ性質を有する移動デバイスのマップ情報を利用可能とする。
However, using map information constructed for mobile devices with different characteristics may degrade the performance of the camera position and orientation. Therefore, in this modified example, multiple maps are stored in the second map
本変形例では、第一マップ受信部102が第一マップを受信する際に、実施形態1に記載の情報に加えて、移動デバイス2の性質を示す機種情報を同時に受信し、第一マップと関連付けて機種情報を保持する。移動デバイス2の性質を示す機種情報は、例えば、カメラ200の解像度、焦点距離、歪み係数などのカメラパラメータ、および、移動デバイス2の機種を示す識別子の少なくともいずれかを含みうる。第二マップ情報保持部106では、その機種情報ごとに複数のマップを保持できるものとする。
In this modified example, when the first
マップ更新部105は、新たな第二マップの情報を第二マップ情報保持部106に保持されている第二マップの情報と統合する際、受信した機種情報に応じたマップを第二マップ情報保持部106から選択し、統合する。受信した機種情報に応じたマップとは、例えば、受信した機種情報と同一もしくは近しい性質を持つ機種情報に関連付けられた第二マップである。統合された第二マップは、第二マップ情報保持部106にて、機種情報に関連付けて保持される。
When integrating the information of the new second map with the information of the second map stored in the second map
これにより、例えば同一機種と他機種が同時に情報処理装置1に接続されている状況において、同一機種とのマップのみが統合された第二マップを生成することができる。
This makes it possible to generate a second map that integrates only maps with the same model, for example, in a situation where the same model and other models are simultaneously connected to the
<変形例3>
実施形態1では、移動物体検出部104にて移動物体を検出し、移動物体であるか否かを第一マップ中の各特徴点と対応付けている。本変形例では、移動物体ごとに第一マップ中の各特徴点と対応付ける。
<Modification 3>
In the first embodiment, the moving
本変形例における移動物体検出部104は、画像内で検出した複数の移動物体ごとに、それぞれ識別情報(例えば、固有の識別子など)を与える。移動物体検出部104は、その後、フレーム間での特徴点対応付けなどの手段を用いて物体を追跡し、同一の物体の画像領域には同一の識別情報を与え、マップ更新部105に送出する。これにより、マップ更新部105で生成する第二マップには、第一マップにおける各特徴点に対して、単に移動物体であるか否かを示すフラグだけでなく、移動物体の識別情報も付与することができる。
In this modified example, the moving
移動物体の識別情報が付与された第二マップが得られることで、同一の物体に属する特徴点群を取得することができるようになる(例えば、図4(a)において特徴点404乃至406が同一の物体に属していることがわかるようになる)。この効果を利用して、移
動デバイス2にてこれらの特徴点群の追跡を行うことで、カメラの位置姿勢推定だけでなく、移動物体の位置姿勢を追跡することが可能となる。
By obtaining the second map to which the identification information of the moving object is added, it becomes possible to obtain a group of feature points belonging to the same object (for example, it becomes clear that the feature points 404 to 406 in FIG. 4A belong to the same object). By utilizing this effect and tracking these groups of feature points in the moving
<実施形態2>
実施形態1で示したシステム構成は本発明に係るシステムの一例であり、情報処理装置1と移動デバイス2での処理の分担は適宜変更可能である。
<
The system configuration shown in the first embodiment is one example of the system according to the present invention, and the division of processing roles between the
図6は、本実施形態に係るシステムの構成例を示すブロック図である。図6に示す如く、本実施形態に係るシステムでは、移動デバイス2が、マップ対応検出部103、マップ更新部105、第一マップ情報保持部108、および第二マップ情報保持部106を備える。これらの各機能部は実施形態1で説明したので、詳しい説明は省略する。
Figure 6 is a block diagram showing an example of the configuration of a system according to this embodiment. As shown in Figure 6, in the system according to this embodiment, the
本実施形態では、情報処理装置1は、画像入力部101を介して取得したカメラ100の画像、および移動物体検出部104による移動物体の検出結果を移動デバイスに送信する。また、移動デバイス2の第一マップ生成部201は、カメラ200から取得される画像から第一マップを生成し、第一マップ情報保持部108に格納する。マップ対応検出部103は、第一マップ情報保持部108に保持された第一マップと、情報処理装置1から受信したカメラ100の画像との対応検出処理を行い、検出の結果をマップ更新部105に送出する。マップ更新部105は、マップ対応検出部103から送出された対応検出処理の結果と、移動物体検出部104から送出された移動物体の検出結果とを用いて、第一マップに含まれる情報のうち、移動物体に対応する情報を特定する。マップ更新部105は実施形態1と同様の処理により第二マップを生成して、第二マップ情報保持部106に格納する。
In this embodiment, the
本実施形態によれば、他の移動デバイスの情報から得られる第二マップは利用できないが、それ以外は実施形態1と同様の効果が得られる。また、本実施形態では、移動デバイス2での計算コストが上昇するが、マップの送受信が不要となる。マップはデータ量が大きいので通信データ量を削減できる。
According to this embodiment, the second map obtained from information on other mobile devices cannot be used, but otherwise the same effects as in
また、本実施形態とは異なる態様で情報処理装置1と移動デバイス2の間で処理の分担を行ってもよいし、一部の処理は更に他の装置によって実行するようにしても構わない。
In addition, processing may be shared between the
<その他の実施例>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Examples>
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.
<付記>
本開示は以下の構成および方法を含む。
[構成1]
移動デバイスによって取得された少なくとも一つ以上の画像と当該画像の特徴情報とを含む第一マップを保持する第一マップ情報保持部と、
固定カメラの画像を入力する画像入力部と、
前記固定カメラの画像から移動物体を検出する移動物体検出部と、
前記固定カメラの画像の特徴情報と前記第一マップに含まれる特徴情報との対応を検出するマップ対応検出部と、
前記移動物体検出部と前記マップ対応検出部の検出結果を用いて、前記第一マップに含まれる特徴情報に対し、前記移動物体であるか否かを示す情報が付加された第二マップを生成するマップ更新部と、
前記第二マップを保持する第二マップ情報保持部と、
を備えることを特徴とする情報処理装置。
[構成2]
前記第一マップ情報保持部に保持する前記第一マップを他の装置から受信するマップ受信部と、
前記第二マップ情報保持部に保持された前記第二マップのうち、少なくとも一部を前記移動デバイスに送信するマップ送信部と
を備えることを特徴とする構成1に記載の情報処理装置。
[構成3]
前記マップ送信部は、前記第二マップ情報保持部に保持された前記第二マップのうち、前記移動デバイスの現在地に対応する位置のマップ情報を選択して前記移動デバイスに送信する、
ことを特徴とする構成2に記載の情報処理装置。
[構成4]
前記マップ更新部は、生成した第二マップと、過去に生成され前記第二マップ情報保持部に保持された第二マップとを統合し、前記統合によって生成された第二マップを前記第二マップ情報保持部に保持する、
ことを特徴とする構成1から3のいずれか1項に記載の情報処理装置。
[構成5]
前記固定カメラの画像を撮影時刻と共に記録する画像蓄積部をさらに備え、
前記マップ対応検出部は、前記第一マップに含まれる画像の撮影時刻に対応する撮影時刻を有する固定カメラの画像を選択して対応を検出し、
前記移動物体検出部と前記マップ更新部は、前記選択された固定カメラの画像を用いての処理を行う、
ことを特徴とする構成1から4のいずれか1項に記載の情報処理装置。
[構成6]
前記第一マップ情報保持部は、前記第一マップに加えて、前記第一マップに含まれる前記画像を撮影したデバイスの性質を示す機種情報を保持し、
前記第二マップ情報保持部は、前記機種情報に応じて複数の第二マップを保持し、
前記マップ更新部は、生成した第二マップと、過去に生成され前記第二マップ情報保持部に保持された第二マップとを統合する際、前記機種情報に応じた第二マップを選択する、
ことを特徴とする構成4または5に記載の情報処理装置。
[構成7]
前記移動物体検出部は、さらに、検出した移動物体ごとに識別情報を生成し、前記画像入力部から入力される画像のフレーム間で前記移動物体の追跡を行い、
前記マップ更新部は、前記第一マップに含まれる空間中の特徴情報に対し、前記移動物体の識別情報を付加した第二マップを生成する、
ことを特徴とする構成1から6のいずれか1項に記載の情報処理装置。
[構成8]
カメラによって撮影された画像から、当該画像と当該画像の特徴情報とを含む第一マップを生成する第一マップ生成部と、
前記第一マップを他の装置に送信する第一マップ送信部と、
前記他の装置から、前記第一マップに含まれる前記特徴情報に対し、移動物体であるか否かを示す情報が付加された第二マップを受信する第二マップ受信部と、
前記第二マップに含まれる特徴情報のうち、前記移動物体ではない物体の特徴情報に基づいて、前記移動デバイスの位置を推定する自己位置推定部と、
を備える移動デバイス。
[構成9]
前記第一マップ送信部が前記第一マップを前記他の装置に送信するタイミングは、
前記移動デバイスが前記他の装置に関連付けられた固定カメラの所定距離以内にあると判定されたとき、
前記移動デバイスが前記カメラから新たなキーフレームの情報を得たとき、および、
前記移動デバイスが受信した前記第二マップに対して前記カメラから新たな情報を追加したとき、
の少なくともいずれかである、
ことを特徴とする構成8に記載の移動デバイス。
[構成10]
前記移動デバイスは、HMDである、
ことを特徴とする構成8または9に記載の移動デバイス。
[構成11]
構成1から7のいずれか1項に記載の情報処理装置と、
構成8から10のいずれか1項に記載の移動デバイスと、
を含むシステム。
[構成12]
移動デバイスと情報処理装置を含むシステムであって、
前記移動デバイスは、
前記移動デバイスと関連付けられたカメラによって撮影された画像から、当該画像と当該画像の特徴情報とを含む第一マップを生成する第一マップ生成部と、
前記移動デバイスの位置を推定する自己位置推定部と、
を備え、
前記情報処理装置は、
固定カメラの画像を入力する画像入力部と、
前記固定カメラの画像から移動物体を検出する移動物体検出部と、
を備え、
前記移動デバイスと前記情報処理装置の少なくともいずれかは、
前記固定カメラの画像の特徴情報と前記第一マップに含まれる特徴情報との対応を検出するマップ対応検出部と、
前記移動物体検出部と前記マップ対応検出部の検出結果を用いて、前記第一マップに含まれる特徴情報に対し、前記移動物体であるか否かを示す情報を付加した第二マップを生成するマップ更新部と、
前記第二マップを保持する第二マップ情報保持部と、
を備え、
前記自己位置推定部は、前記第二マップに含まれる特徴情報のうち、前記移動物体ではない物体の特徴情報に基づいて、前記移動デバイスの位置を推定する、
ことを特徴とするシステム。
[構成13]
情報処理装置の制御方法であって、
移動デバイスによって取得された少なくとも一つ以上の画像と当該画像の特徴情報とを含む第一マップを保持する第一マップ情報保持ステップと、
固定カメラの画像から移動物体を検出する移動物体検出ステップと、
前記固定カメラの画像の特徴情報と前記第一マップに含まれる特徴情報との対応を検出するマップ対応検出ステップと、
前記移動物体検出ステップと前記マップ対応検出ステップの検出結果を用いて、前記第一マップに含まれる特徴情報に対し、前記移動物体であるか否かを示す情報が付加された第二マップを生成するマップ更新ステップと、
前記第二マップを保持する第二マップ情報保持ステップと、
を含むことを特徴とする制御方法。
[構成14]
移動デバイスの制御方法であって、
カメラによって撮影された画像から、当該画像と当該画像の特徴情報とを含む第一マップを生成する第一マップ生成ステップと、
前記第一マップを他の装置に送信する第一マップ送信ステップと、
前記他の装置から、前記第一マップに含まれる前記特徴情報に対し、移動物体であるか否かを示す情報が付加された第二マップを受信する第二マップ受信ステップと、
前記第二マップに含まれる特徴情報のうち、前記移動物体ではない物体の特徴情報に基づいて、前記移動デバイスの位置を推定する自己位置推定ステップと、
を含むことを特徴とする制御方法。
[構成15]
移動デバイスと情報処理装置を含むシステムの制御方法であって、
前記情報処理装置が、固定カメラの画像を入力する画像入力ステップと、
前記情報処理装置が、前記固定カメラの画像から移動物体を検出する移動物体検出ステップと、
前記移動デバイスが、前記移動デバイスと関連付けられたカメラによって撮影された画像から、当該画像と当該画像の特徴情報とを含む第一マップを生成する第一マップ生成ステップと、
前記移動デバイスと前記情報処理装置の少なくともいずれかが、前記固定カメラの画像の特徴情報と前記第一マップに含まれる特徴情報との対応を検出するマップ対応検出ステップと、
前記移動デバイスと前記情報処理装置の少なくともいずれかが、前記移動物体検出ステップと前記マップ対応検出ステップの検出結果を用いて、前記第一マップに含まれる特徴情報に対し、前記移動物体であるか否かを示す情報を付加した第二マップを生成するマップ更新ステップと、
前記移動デバイスと前記情報処理装置の少なくともいずれかが、前記第二マップを保持する第二マップ情報保持ステップと、
前記移動デバイスが、前記移動デバイスの位置を推定する自己位置推定部と、
を含むことを特徴とする制御方法。
[構成16]
構成13から15のいずれか1項に記載の制御方法の各ステップをコンピュータに実行させるためのプログラム。
<Additional Notes>
The present disclosure includes the following configurations and methods.
[Configuration 1]
a first map information storage unit that stores a first map including at least one image captured by a mobile device and feature information of the image;
an image input unit for inputting an image from a fixed camera;
a moving object detection unit that detects a moving object from an image captured by the fixed camera;
a map correspondence detection unit that detects correspondence between feature information of an image of the fixed camera and feature information included in the first map;
a map update unit that uses detection results of the moving object detection unit and the map correspondence detection unit to generate a second map in which information indicating whether or not the object is a moving object is added to the feature information included in the first map; and
a second map information storage unit for storing the second map;
An information processing device comprising:
[Configuration 2]
a map receiving unit that receives the first map stored in the first map information storage unit from another device;
2. The information processing apparatus according to
[Configuration 3]
the map transmission unit selects map information of a position corresponding to a current location of the mobile device from the second map stored in the second map information storage unit and transmits the map information to the mobile device;
3. The information processing device according to
[Configuration 4]
the map update unit integrates the generated second map with a second map that was generated in the past and was stored in the second map information storage unit, and stores the second map generated by the integration in the second map information storage unit.
4. The information processing device according to any one of
[Configuration 5]
An image storage unit that records the image of the fixed camera together with the image capture time,
The map correspondence detection unit detects correspondence by selecting an image captured by a fixed camera having a shooting time corresponding to a shooting time of an image included in the first map;
the moving object detection unit and the map update unit perform processing using the image of the selected fixed camera;
5. The information processing device according to any one of
[Configuration 6]
the first map information storage unit stores, in addition to the first map, model information indicating a property of a device that captured the image included in the first map;
the second map information storage unit stores a plurality of second maps according to the model information,
the map update unit selects a second map corresponding to the model information when integrating the generated second map with a second map that was generated in the past and stored in the second map information storage unit.
6. The information processing device according to configuration 4 or 5.
[Configuration 7]
the moving object detection unit further generates identification information for each detected moving object, and tracks the moving object between frames of the image input from the image input unit;
the map update unit generates a second map by adding identification information of the moving object to feature information in the space included in the first map;
7. The information processing device according to any one of
[Configuration 8]
a first map generating unit that generates a first map including an image captured by a camera and feature information of the image;
a first map transmission unit configured to transmit the first map to another device;
a second map receiving unit that receives, from the other device, a second map in which information indicating whether or not the object is a moving object is added to the feature information included in the first map;
a self-location estimation unit that estimates a location of the moving device based on feature information of an object that is not the moving object among feature information included in the second map;
A mobile device comprising:
[Configuration 9]
The timing at which the first map transmission unit transmits the first map to the other device is
when it is determined that the mobile device is within a predetermined distance of a fixed camera associated with the other device;
When the mobile device receives a new key frame from the camera, and
when the mobile device adds new information from the camera to the second map received by the mobile device,
At least one of the following:
9. The mobile device of configuration 8.
[Configuration 10]
The moving device is an HMD.
10. The mobile device according to claim 8 or 9.
[Configuration 11]
An information processing device according to any one of
A mobile device according to any one of configurations 8 to 10;
A system including:
[Configuration 12]
A system including a mobile device and an information processing device,
The mobile device comprises:
a first map generating unit that generates a first map including an image captured by a camera associated with the mobile device and feature information of the image from the image;
A self-location estimation unit that estimates a location of the moving device;
Equipped with
The information processing device includes:
an image input unit for inputting an image from a fixed camera;
a moving object detection unit that detects a moving object from an image captured by the fixed camera;
Equipped with
At least one of the mobile device and the information processing device
a map correspondence detection unit that detects correspondence between feature information of an image of the fixed camera and feature information included in the first map;
a map update unit that generates a second map by adding information indicating whether the feature information is the moving object or not to the feature information included in the first map, using detection results of the moving object detection unit and the map correspondence detection unit; and
a second map information storage unit for storing the second map;
Equipped with
The self-location estimation unit estimates a location of the moving device based on feature information of an object other than the moving object, among feature information included in the second map.
A system characterized by:
[Configuration 13]
A method for controlling an information processing device, comprising:
a first map information storage step of storing a first map including at least one image captured by the mobile device and feature information of the image;
A moving object detection step of detecting a moving object from an image of a fixed camera;
a map correspondence detection step of detecting a correspondence between feature information of an image of the fixed camera and feature information included in the first map;
a map updating step of generating a second map in which information indicating whether or not the object is a moving object is added to the feature information included in the first map, using detection results of the moving object detection step and the map correspondence detection step;
a second map information retaining step of retaining the second map;
A control method comprising:
[Configuration 14]
1. A method for controlling a mobile device, comprising:
a first map generating step of generating a first map including an image captured by the camera and feature information of the image;
a first map transmission step of transmitting the first map to another device;
a second map receiving step of receiving a second map from the other device in which information indicating whether or not the object is a moving object is added to the feature information included in the first map;
a self-location estimation step of estimating a location of the moving device based on feature information of an object other than the moving object among feature information included in the second map;
A control method comprising:
[Configuration 15]
A method for controlling a system including a mobile device and an information processing device, comprising:
an image input step in which the information processing device inputs an image from a fixed camera;
a moving object detection step in which the information processing device detects a moving object from an image of the fixed camera;
a first map generation step in which the mobile device generates a first map from an image captured by a camera associated with the mobile device, the first map including the image and feature information of the image;
a map correspondence detection step in which at least one of the mobile device and the information processing device detects correspondence between feature information of the image of the fixed camera and feature information included in the first map;
a map update step in which at least one of the moving device and the information processing device generates a second map by adding information indicating whether or not the feature information is the moving object to the feature information included in the first map, using detection results of the moving object detection step and the map correspondence detection step; and
a second map information holding step in which at least one of the mobile device and the information processing device holds the second map;
The mobile device includes a self-location estimation unit that estimates a location of the mobile device;
A control method comprising:
[Configuration 16]
16. A program for causing a computer to execute each step of the control method according to any one of configurations 13 to 15.
1:情報処理装置、101:画像入力部、103:マップ対応検出部
104:移動物体検出部、105:マップ更新部
106:第二マップ情報保持部、108:第一マップ情報保持部
1: information processing device, 101: image input unit, 103: map correspondence detection unit, 104: moving object detection unit, 105: map update unit, 106: second map information storage unit, 108: first map information storage unit
Claims (16)
固定カメラの画像を入力する画像入力部と、
前記固定カメラの画像から移動物体を検出する移動物体検出部と、
前記固定カメラの画像の特徴情報と前記第一マップに含まれる特徴情報との対応を検出するマップ対応検出部と、
前記移動物体検出部と前記マップ対応検出部の検出結果を用いて、前記第一マップに含まれる特徴情報に対し、前記移動物体であるか否かを示す情報が付加された第二マップを生成するマップ更新部と、
前記第二マップを保持する第二マップ情報保持部と、
を備えることを特徴とする情報処理装置。 a first map information storage unit that stores a first map including at least one image captured by a mobile device and feature information of the image;
an image input unit for inputting an image from a fixed camera;
a moving object detection unit that detects a moving object from an image captured by the fixed camera;
a map correspondence detection unit that detects correspondence between feature information of an image of the fixed camera and feature information included in the first map;
a map update unit that uses detection results of the moving object detection unit and the map correspondence detection unit to generate a second map in which information indicating whether or not the object is a moving object is added to the feature information included in the first map; and
a second map information storage unit for storing the second map;
An information processing device comprising:
前記第二マップ情報保持部に保持された前記第二マップのうち、少なくとも一部を前記移動デバイスに送信するマップ送信部と
を備えることを特徴とする請求項1に記載の情報処理装置。 a map receiving unit that receives the first map stored in the first map information storage unit from another device;
The information processing apparatus according to claim 1 , further comprising: a map transmission unit configured to transmit at least a portion of the second map stored in the second map information storage unit to the mobile device.
ことを特徴とする請求項2に記載の情報処理装置。 the map transmission unit selects map information of a position corresponding to a current location of the mobile device from the second map stored in the second map information storage unit and transmits the map information to the mobile device;
3. The information processing apparatus according to claim 2.
ことを特徴とする請求項1に記載の情報処理装置。 the map update unit generates a new second map by integrating a second map generated using the first map with a second map that was generated in the past and stored in the second map information storage unit, and stores the new second map in the second map information storage unit.
2. The information processing apparatus according to claim 1,
前記マップ対応検出部は、前記第一マップに含まれる画像の撮影時刻に対応する撮影時刻を有する固定カメラの画像を選択して対応を検出し、
前記移動物体検出部と前記マップ更新部は、前記選択された固定カメラの画像を用いて処理を行う、
ことを特徴とする請求項1に記載の情報処理装置。 An image storage unit that records the image of the fixed camera in association with the image capturing time,
The map correspondence detection unit detects correspondence by selecting an image captured by a fixed camera having a shooting time corresponding to a shooting time of an image included in the first map;
the moving object detection unit and the map update unit perform processing using the image from the selected fixed camera.
2. The information processing apparatus according to claim 1,
前記第二マップ情報保持部は、前記機種情報に応じて複数の第二マップを保持し、
前記マップ更新部は、前記第一マップを用いて生成した第二マップと、過去に生成され前記第二マップ情報保持部に保持された第二マップとを統合する際、前記機種情報に応じた第二マップを選択する、
ことを特徴とする請求項4に記載の情報処理装置。 the first map information storage unit stores, in association with the first map, model information indicating a property of a device that captured the image included in the first map;
the second map information storage unit stores a plurality of second maps according to the model information,
the map update unit selects a second map corresponding to the model information when integrating a second map generated using the first map with a second map generated in the past and stored in the second map information storage unit.
5. The information processing apparatus according to claim 4.
前記マップ更新部は、前記第一マップに含まれる空間中の特徴情報に対し、前記移動物体の識別情報を付加した第二マップを生成する、
ことを特徴とする請求項1に記載の情報処理装置。 the moving object detection unit further generates identification information for each detected moving object, and tracks the moving object between frames of the image input from the image input unit;
the map update unit generates a second map by adding identification information of the moving object to feature information in the space included in the first map;
2. The information processing apparatus according to claim 1,
前記第一マップを他の装置に送信する第一マップ送信部と、
前記他の装置から、前記第一マップに含まれる前記特徴情報に対し、移動物体であるか否かを示す情報が付加された第二マップを受信する第二マップ受信部と、
前記第二マップに含まれる特徴情報のうち、前記移動物体ではない物体の特徴情報に基づいて、前記移動デバイスの位置を推定する自己位置推定部と、
を備える移動デバイス。 a first map generating unit that generates a first map including an image captured by a camera and feature information of the image;
a first map transmission unit configured to transmit the first map to another device;
a second map receiving unit that receives, from the other device, a second map in which information indicating whether or not the object is a moving object is added to the feature information included in the first map;
a self-location estimation unit that estimates a location of the moving device based on feature information of an object that is not the moving object among feature information included in the second map;
A mobile device comprising:
前記移動デバイスが前記他の装置に関連付けられた固定カメラの所定距離以内にあると判定されたとき、
前記移動デバイスが前記カメラから新たなキーフレームの情報を得たとき、および、
前記移動デバイスが受信した前記第二マップに対して前記カメラから新たな情報を追加したとき、
の少なくともいずれかである、
ことを特徴とする請求項8に記載の移動デバイス。 The timing at which the first map transmission unit transmits the first map to the other device is
when it is determined that the mobile device is within a predetermined distance of a fixed camera associated with the other device;
When the mobile device receives a new key frame from the camera, and
when the mobile device adds new information from the camera to the second map received by the mobile device,
At least one of the following:
The mobile device of claim 8 .
ことを特徴とする請求項8に記載の移動デバイス。 The moving device is an HMD.
The mobile device of claim 8 .
請求項8から10のいずれか1項に記載の移動デバイスと、
を含むシステム。 An information processing device according to any one of claims 1 to 7;
A mobile device according to any one of claims 8 to 10;
A system including:
前記移動デバイスは、
前記移動デバイスと関連付けられたカメラによって撮影された画像から、当該画像と当該画像の特徴情報とを含む第一マップを生成する第一マップ生成部と、
前記移動デバイスの位置を推定する自己位置推定部と、
を備え、
前記情報処理装置は、
固定カメラの画像を入力する画像入力部と、
前記固定カメラの画像から移動物体を検出する移動物体検出部と、
を備え、
前記固定カメラの画像の特徴情報と前記第一マップに含まれる特徴情報との対応を検出するマップ対応検出部と、
前記移動物体検出部と前記マップ対応検出部の検出結果を用いて、前記第一マップに含まれる特徴情報に対し、前記移動物体であるか否かを示す情報を付加した第二マップを生成するマップ更新部と、
前記第二マップを保持する第二マップ情報保持部と、
のそれぞれが、前記移動デバイスと前記情報処理装置の少なくともいずれかに備えられており、
前記自己位置推定部は、前記第二マップに含まれる特徴情報のうち、前記移動物体ではない物体の特徴情報に基づいて、前記移動デバイスの位置を推定する、
ことを特徴とするシステム。 A system including a mobile device and an information processing device,
The mobile device comprises:
a first map generating unit that generates a first map including an image captured by a camera associated with the mobile device and feature information of the image from the image;
A self-location estimation unit that estimates a location of the moving device;
Equipped with
The information processing device includes:
an image input unit for inputting an image from a fixed camera;
a moving object detection unit that detects a moving object from an image captured by the fixed camera;
Equipped with
a map correspondence detection unit that detects correspondence between feature information of an image of the fixed camera and feature information included in the first map;
a map update unit that uses detection results of the moving object detection unit and the map correspondence detection unit to generate a second map in which information indicating whether or not the object is a moving object is added to the feature information included in the first map; and
a second map information storage unit for storing the second map;
are provided in at least one of the mobile device and the information processing device,
The self-location estimation unit estimates a location of the moving device based on feature information of an object other than the moving object, among feature information included in the second map.
A system characterized by:
移動デバイスによって取得された少なくとも一つ以上の画像と当該画像の特徴情報とを
含む第一マップを保持する第一マップ情報保持ステップと、
固定カメラの画像から移動物体を検出する移動物体検出ステップと、
前記固定カメラの画像の特徴情報と前記第一マップに含まれる特徴情報との対応を検出するマップ対応検出ステップと、
前記移動物体検出ステップと前記マップ対応検出ステップの検出結果を用いて、前記第一マップに含まれる特徴情報に対し、前記移動物体であるか否かを示す情報が付加された第二マップを生成するマップ更新ステップと、
前記第二マップを保持する第二マップ情報保持ステップと、
を含むことを特徴とする制御方法。 A method for controlling an information processing device, comprising:
a first map information storage step of storing a first map including at least one image captured by the mobile device and feature information of the image;
A moving object detection step of detecting a moving object from an image of a fixed camera;
a map correspondence detection step of detecting a correspondence between feature information of an image of the fixed camera and feature information included in the first map;
a map updating step of generating a second map in which information indicating whether or not the object is a moving object is added to the feature information included in the first map, using detection results of the moving object detection step and the map correspondence detection step;
a second map information storage step for storing the second map;
A control method comprising:
カメラによって撮影された画像から、当該画像と当該画像の特徴情報とを含む第一マップを生成する第一マップ生成ステップと、
前記第一マップを他の装置に送信する第一マップ送信ステップと、
前記他の装置から、前記第一マップに含まれる前記特徴情報に対し、移動物体であるか否かを示す情報が付加された第二マップを受信する第二マップ受信ステップと、
前記第二マップに含まれる特徴情報のうち、前記移動物体ではない物体の特徴情報に基づいて、前記移動デバイスの位置を推定する自己位置推定ステップと、
を含むことを特徴とする制御方法。 1. A method for controlling a mobile device, comprising:
a first map generating step of generating a first map including an image captured by the camera and feature information of the image;
a first map transmission step of transmitting the first map to another device;
a second map receiving step of receiving a second map from the other device in which information indicating whether or not the object is a moving object is added to the feature information included in the first map;
a self-location estimation step of estimating a location of the moving device based on feature information of an object other than the moving object among feature information included in the second map;
A control method comprising:
前記情報処理装置が、固定カメラの画像を入力する画像入力ステップと、
前記情報処理装置が、前記固定カメラの画像から移動物体を検出する移動物体検出ステップと、
前記移動デバイスが、前記移動デバイスと関連付けられたカメラによって撮影された画像から、当該画像と当該画像の特徴情報とを含む第一マップを生成する第一マップ生成ステップと、
前記移動デバイスと前記情報処理装置の少なくともいずれかが、前記固定カメラの画像の特徴情報と前記第一マップに含まれる特徴情報との対応を検出するマップ対応検出ステップと、
前記移動デバイスと前記情報処理装置の少なくともいずれかが、前記移動物体検出ステップと前記マップ対応検出ステップの検出結果を用いて、前記第一マップに含まれる特徴情報に対し、前記移動物体であるか否かを示す情報を付加した第二マップを生成するマップ更新ステップと、
前記移動デバイスと前記情報処理装置の少なくともいずれかが、前記第二マップを保持する第二マップ情報保持ステップと、
前記移動デバイスが、前記移動デバイスの位置を推定する自己位置推定部と、
を含むことを特徴とする制御方法。 A method for controlling a system including a mobile device and an information processing device, comprising:
an image input step in which the information processing device inputs an image from a fixed camera;
a moving object detection step in which the information processing device detects a moving object from an image of the fixed camera;
a first map generation step in which the mobile device generates a first map from an image captured by a camera associated with the mobile device, the first map including the image and feature information of the image;
a map correspondence detection step in which at least one of the mobile device and the information processing device detects correspondence between feature information of the image of the fixed camera and feature information included in the first map;
a map update step in which at least one of the moving device and the information processing device generates a second map by adding information indicating whether or not the object is a moving object to the feature information included in the first map, using detection results of the moving object detection step and the map correspondence detection step; and
a second map information holding step in which at least one of the mobile device and the information processing device holds the second map;
The mobile device includes a self-location estimation unit that estimates a location of the mobile device;
A control method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022170386A JP2024062512A (en) | 2022-10-25 | 2022-10-25 | Information processing device, mobile device, system, control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022170386A JP2024062512A (en) | 2022-10-25 | 2022-10-25 | Information processing device, mobile device, system, control method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024062512A true JP2024062512A (en) | 2024-05-10 |
Family
ID=90971141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022170386A Pending JP2024062512A (en) | 2022-10-25 | 2022-10-25 | Information processing device, mobile device, system, control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024062512A (en) |
-
2022
- 2022-10-25 JP JP2022170386A patent/JP2024062512A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108028871B (en) | Label-free multi-user multi-object augmented reality on mobile devices | |
EP3251090B1 (en) | Occlusion handling for computer vision | |
US7825948B2 (en) | 3D video conferencing | |
CN113874870A (en) | Image-based localization | |
JP7059355B2 (en) | Equipment and methods for generating scene representations | |
JP5660648B2 (en) | Online reference generation and tracking in multi-user augmented reality | |
JP4757142B2 (en) | Imaging environment calibration method and information processing apparatus | |
US8928736B2 (en) | Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program | |
KR102198851B1 (en) | Method for generating three dimensional model data of an object | |
KR102398478B1 (en) | Feature data management for environment mapping on electronic devices | |
CN108449945A (en) | Information processing equipment, information processing method and program | |
JP2022132063A (en) | Method and device for pose determination of augmented reality providing device | |
CN110869978A (en) | Information processing apparatus, information processing method, and computer program | |
JP2021060868A (en) | Information processing apparatus, information processing method, and program | |
CN113474819A (en) | Information processing apparatus, information processing method, and program | |
CN110969706B (en) | Augmented reality device, image processing method, system and storage medium thereof | |
JP2017037426A (en) | Information processor, information processing method, and program | |
JP2014106642A (en) | Ar system using optical see-through type hmd | |
JP6388532B2 (en) | Image providing system and image providing method | |
JP2024062512A (en) | Information processing device, mobile device, system, control method, and program | |
JP7140710B2 (en) | Information terminal device and program | |
KR102298047B1 (en) | Method of recording digital contents and generating 3D images and apparatus using the same | |
Jóźków et al. | Combined matching of 2d and 3d kinect™ data to support indoor mapping and navigation | |
JP2021152764A (en) | Information processing device, information processing method, and program | |
US20220230342A1 (en) | Information processing apparatus that estimates object depth, method therefor, and storage medium holding program therefor |