JP2023037043A - Map data generation device and positioning device - Google Patents
Map data generation device and positioning device Download PDFInfo
- Publication number
- JP2023037043A JP2023037043A JP2020026021A JP2020026021A JP2023037043A JP 2023037043 A JP2023037043 A JP 2023037043A JP 2020026021 A JP2020026021 A JP 2020026021A JP 2020026021 A JP2020026021 A JP 2020026021A JP 2023037043 A JP2023037043 A JP 2023037043A
- Authority
- JP
- Japan
- Prior art keywords
- meaning
- map data
- image data
- region
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/12—Relief maps
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Mathematical Physics (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Navigation (AREA)
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、マップデータ生成装置及び測位装置に関する。 The present invention relates to a map data generation device and a positioning device.
特許文献1には、予め撮影することによって得られた地物の画像を含む参照画像及び該参照画像の各特徴点の位置情報が関連付けられたマップデータと、移動体のカメラによって撮影された現在画像とに基づき、移動体の現在位置を推定する技術が開示されている。 In Patent Document 1, a reference image including an image of a feature obtained by photographing in advance, map data in which position information of each feature point of the reference image is associated, and a current A technique for estimating the current position of a moving object based on images has been disclosed.
ここで、上記特許文献1に記載されたような測位技術において、マップデータに例えば植物等の季節により移り変わる情報が含まれている場合には、該植物等に係るマップデータから精度良く測位を行うことができないおそれがある。すなわち、例えば植物については冬場に樹木の葉が無くなり夏場に樹木に葉が生い茂る等、季節によって特徴点の出現する位置に差が生まれるため、該植物等に係るマップデータから精度良く測位を行うことができないおそれがある。 Here, in the positioning technology as described in Patent Document 1, when the map data includes information that changes with the seasons, such as plants, positioning is performed with high accuracy from the map data related to the plants. may not be possible. That is, for plants, for example, there are differences in the positions where feature points appear depending on the season, such as when the trees lose their leaves in the winter and when the trees grow thick with leaves in the summer. It may not be possible.
本発明は上記実情に鑑みてなされたものであり、マップデータを利用した測位精度を向上させることができるマップデータ生成装置及び測位装置に関する。 The present invention has been made in view of the above circumstances, and relates to a map data generation device and a positioning device capable of improving positioning accuracy using map data.
本発明の一態様に係るマップデータ生成装置は、端末において撮像された画像データを取得する取得部と、画像データについて、各領域に関する意味付けを行い、意味付けの結果に基づいて特徴点を検出しない領域を決定する意味付け部と、画像データにおける特徴点を検出しない領域以外の領域について、特徴点の特徴量と該特徴点に係る位置情報とが対応付けられたマップデータを生成するマップデータ生成部と、を備える。 A map data generation device according to an aspect of the present invention includes an acquisition unit that acquires image data captured by a terminal, assigns meaning to each region of the image data, and detects feature points based on the result of the assignment of meaning. Map data for generating map data in which the feature amount of the feature point and the position information related to the feature point are associated with each other for the area other than the area where the feature point is not detected in the image data. and a generator.
本発明の一態様に係るマップデータ生成装置では、撮像された画像データについて、各領域に関する意味付けの結果に基づき特徴点を検出しない領域が決定され、特徴点を検出しない領域以外の領域について、特徴点の特徴量と特徴点の位置情報とが対応付けられたマップデータが生成される。このように、意味付けの結果に基づき特徴点を検出しない領域、すなわちマップデータが生成されない領域が決定されることにより、例えば、植物等の、特徴点の出現する位置が変化する物体の領域について他の領域と区別し、特徴点の出現する位置が変化する物体の領域についてはマップデータが生成されない構成とすることができる。このことで、特徴点の出現する位置が変化しない(或いは変化が小さい)領域のみでマップデータを生成することが可能になり、マップデータを利用した測位精度を向上させることができる。 In the map data generation device according to one aspect of the present invention, for imaged image data, regions in which no feature points are detected are determined based on the result of assigning meaning to each region, and for regions other than the regions in which feature points are not detected, Map data is generated in which the feature quantity of the feature points and the position information of the feature points are associated with each other. In this way, an area in which feature points are not detected, that is, an area in which map data is not generated is determined based on the results of meaning assignment. Distinguishing from other areas, map data may not be generated for areas of the object where feature points appear at different positions. This makes it possible to generate map data only in areas where the positions where feature points appear do not change (or change little), and the positioning accuracy using map data can be improved.
本発明によれば、マップデータを利用した測位精度を向上させることができる。 According to the present invention, positioning accuracy using map data can be improved.
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。図面の説明において、同一又は同等の要素には同一符号を用い、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same reference numerals are used for the same or equivalent elements, and overlapping descriptions are omitted.
図1は、本実施形態に係る測位システム1の機能構成を示すブロック図である。図1に示す測位システム1は、通信端末50において撮像された測位用画像データに基づき測位を行う測位システムである。測位システム1は、例えば、通信端末50の位置に応じてAR(Augmented Reality)コンテンツを提供するサービスにおいて、通信端末50の測位を行うシステムである。以下では、測位システム1がARコンテンツを提供するサービスに係るシステムであるとして説明するが、測位システム1は他の用途に係るシステムであってもよい。測位システム1は、マップサーバ10(マップデータ生成装置)と、複数の通信端末50と、ステレオカメラ80(端末)と、を備えている。
FIG. 1 is a block diagram showing the functional configuration of a positioning system 1 according to this embodiment. A positioning system 1 shown in FIG. 1 is a positioning system that performs positioning based on positioning image data captured by a
通信端末50は、例えば無線通信が可能な端末であり、例えばスマートフォン、タブレット型端末、PC等である。通信端末50は、例えば実装されたアプリケーションをユーザが利用することによって、コンテンツサーバ(不図示)からARコンテンツの提供を受ける。通信端末50では、例えばアプリケーションが実行されると、実装されたカメラによる撮像(継続的な撮像)が開始される。そして、通信端末50は、撮像された画像データである測位用画像データをマップサーバ10に送信し、該測位用画像データに応じてマップサーバ10によって推定された測位結果を取得する。通信端末50は、マップサーバ10によって推定された測位結果、撮像された測位用画像データ、及び、通信端末50のカメラの情報(画角等)等に基づいて、コンテンツサーバ(不図示)からARコンテンツを含むコンテンツの提供を受ける。
The
ステレオカメラ80は、マップデータ100の生成に係る複数の画像データを取得し、該複数の画像データをマップサーバ10に送信するカメラである。ステレオカメラ80は、例えばマップデータ100を生成する対象の領域を複数の異なる方向から同時に撮像可能であってもよい。ステレオカメラ80は、画像データに係る位置情報(グローバル位置情報)を取得し、該位置情報を画像データに紐づけてマップサーバ10に送信する。画像データに係る位置情報とは、画像データを撮像した際に取得される位置情報であってもよいし、画像データの撮像とは無関係に継続的に取得される位置情報であってもよい。撮像とは無関係に位置情報が取得される場合であっても、例えば数秒周期等、長すぎない周期で継続的に位置情報が取得されることによって、各画像データの撮像タイミングと近い時刻のステレオカメラ80の位置情報を取得することができる。ステレオカメラ80は、例えばGPS(Global Positioning System)測位等を行うことによって、ステレオカメラ80のグローバル位置情報を取得し、該グローバル位置情報を画像データに係る位置情報としてもよい。なお、画像データに係る位置情報は、ユーザの入力等に応じて取得されるものであってもよい。以下ではステレオカメラがマップデータ100の生成に係る画像データを取得するとして説明するが、例えば通信端末50がマップデータ100の生成に係る画像データを取得してもよい。
The
マップサーバ10は、マップデータ生成機能(マップデータ生成装置としての機能)と、測位機能(測位装置としてのリローカライズ機能)とを有している。なお、マップサーバ10は、マップデータ生成装置としての機能のみを有していてもよいし、測位装置としての機能のみを有していてもよい。マップデータ生成機能とは、ステレオカメラ80において撮像された画像データに基づきマップデータ100を生成する機能である。測位機能とは、通信端末50において撮像された測位用画像データに基づき撮像時における通信端末50の位置情報を推定する機能である。以下、マップデータ生成機能及び測位機能について、それぞれの機能の実現に係る構成(機能ブロック)を説明する。
The
マップサーバ10は、マップデータ生成機能に係る機能構成として、取得部12と、意味付け部13と、マップデータ生成部14と、を備えている。
The
取得部12は、ステレオカメラ80において撮像された画像データを取得する。より詳細には、取得部12は、ステレオカメラ80において撮像された画像データと、該画像データに係る位置情報(グローバル位置情報)とを紐づけた情報をステレオカメラ80から取得する。
意味付け部13は、取得部12によって取得された各画像データについて、各領域に関する意味付けを行い、意味付けの結果に基づいて、マップデータ100の生成に関して特徴点を検出しない領域を決定する。特徴点とは、画像中において際立って検出される点であり、例えば他の領域と比べて輝度(強度)が大きい(又は小さい)点である。各領域に関する意味付けを行うとは、例えば、各領域がどのようなカテゴリに属する領域であるかを特定することをいう。意味付け部13は、例えばセマンテックセグメンテーションにより、画像データにおける各ピクセルの意味(周辺のピクセルの情報を考慮した意味)を推定し、該推定結果に基づいて各領域をカテゴライズ(意味付け)してもよい。
The
図2は、セマンテックセグメンテーションの実行イメージを示す図である。例えば図2(a)の上段に示される画像データに、複数の木々を含む植物P1の領域、建造物B1の領域、車C1の領域、道路R1の領域が含まれているとする。この場合、セマンテックセグメンテーションが実行されることにより、画像データ中の各ピクセルの意味が推定され、図2(a)の下段に示されるように、植物P1の領域である植物領域AR1、建造物B1の領域である建造物領域AR2、車C1の領域である車領域AR3、道路R1の領域である道路領域AR4が区別(分類)される。また、例えば図2(b)の上段に示される画像データに、複数の木々を含む植物P1の領域、建造物B1の領域、車C1の領域、道路R1の領域、自転車B2の領域が含まれているとする。この場合、セマンテックセグメンテーションが実行されることにより、画像データ中の各ピクセルの意味が推定され、図2(b)の下段に示されるように、植物P1の領域である植物領域AR1、建造物B1の領域である建造物領域AR2、車C1の領域である車領域AR3、道路R1の領域である道路領域AR4、自転車B2の領域である自転車領域AR5が区別(分類)される。また、例えば図2(c)の上段に示される画像データに、複数の木々を含む植物P1の領域、建造物B1の領域、道路R1の領域、歩道R2の領域、信号機S1の領域が含まれているとする。この場合、セマンテックセグメンテーションが実行されることにより、画像データ中の各ピクセルの意味が推定され、図2(c)の下段に示されるように、植物P1の領域である植物領域AR1、建造物B1の領域である建造物領域AR2、道路R1の領域である道路領域AR4、歩道R2の領域である歩道領域AR6、信号機S1の領域である信号機領域AR7が区別(分類)される。 FIG. 2 is a diagram showing an execution image of semantic segmentation. For example, assume that the image data shown in the upper part of FIG. 2A includes a plant P1 area including a plurality of trees, a building B1 area, a car C1 area, and a road R1 area. In this case, semantic segmentation is performed to estimate the meaning of each pixel in the image data. As shown in the lower part of FIG. A building area AR2 that is the area of B1, a vehicle area AR3 that is the area of the car C1, and a road area AR4 that is the area of the road R1 are distinguished (classified). Also, for example, the image data shown in the upper part of FIG. 2B includes the area of the plant P1 including a plurality of trees, the area of the building B1, the area of the car C1, the area of the road R1, and the area of the bicycle B2. Suppose you are In this case, semantic segmentation is performed to estimate the meaning of each pixel in the image data. As shown in the lower part of FIG. A building area AR2 that is the area of B1, a car area AR3 that is the area of the car C1, a road area AR4 that is the area of the road R1, and a bicycle area AR5 that is the area of the bicycle B2 are distinguished (classified). For example, the image data shown in the upper part of FIG. 2(c) includes a plant P1 area including a plurality of trees, a building B1 area, a road R1 area, a sidewalk R2 area, and a traffic light S1 area. Suppose you are In this case, semantic segmentation is performed to estimate the meaning of each pixel in the image data. As shown in the lower part of FIG. A building area AR2 that is the area of B1, a road area AR4 that is the area of road R1, a sidewalk area AR6 that is the area of sidewalk R2, and a traffic light area AR7 that is the area of traffic light S1 are distinguished (classified).
意味付け部13は、画像データにおける、時期に応じて態様の変化する領域について態様変化領域であるとする意味付けを行い、該態様変化領域を、特徴点を検出しない領域として決定する。態様変化領域とは、例えば季節の変化に応じて態様が変化する植物の領域であってもよいし、動作することによりリアルタイムに態様が変化する動的な物体の領域であってもよい。
The
意味付け部13は、態様変化領域である植物の領域について植物領域であるとする意味付けを行うと共に、該植物領域を、特徴点を検出しない領域として決定してもよい。ここでの植物とは、例えば葉を有した木々等であり、冬場に樹木の葉が無くなり夏場に樹木に葉が生い茂る等、季節によって特徴点の出現する位置に差が生じるものをいう。
The
意味付け部13はさらに、態様変化領域である動的な物体の領域について動的物体領域であるとする意味付けを行い、該動的物体領域を、特徴点を検出しない領域として決定してもよい。動的な物体とは、例えば人や車など動きのある物体である。なお、ここでの動的な物体には、例えば不動産(建物、立ち木等)であるものの風等の自然現象によってわずかに動くような物体は含まれない。例えば図2(b)に示される例では、画像データにおける車C1の領域である車領域AR3及び自転車B2の領域である自転車領域AR5が、動的物体領域とされる。このように、本実施形態では、意味付け部13が、植物領域及び動的物体領域について「特徴点を検出しない領域」に決定し、その他の領域について「特徴点を検出する領域」に決定する。
The
なお、意味付け部13は、セマンテックセグメンテーション以外の方法によって、画像データにおける各領域の意味付けを行ってもよい。例えば、意味付け部13は、画像認識を行うこと等により画像データに含まれる物体を特定し、各物体に係る領域の意味づけ(カテゴライズ)を行ってもよい。
Note that the
マップデータ生成部14は、画像データにおける特徴点を検出しない領域以外の領域(すなわち、上述した「特徴点を検出する領域」)について、特徴点を検出し、特徴点の特徴量と該特徴点に係る位置情報とが対応付けられた点群データであるマップデータ100(特徴点マップ,3Dポイントクラウド)を生成する。特徴点の特徴量とは、例えば輝度方向ベクトル等により示される情報である。特徴点に係る位置情報とは、取得部12によって取得された画像データに係る位置情報から特定される、特徴点に対応付けて設定される位置情報であり、画像データ中の特徴点が示す領域についての現実世界におけるグローバル位置情報である。なお、各特徴点に対する位置情報の対応付けは、従来から周知の方法によって行うことができる。
The map
マップデータ生成部14は、意味付け部13によって「特徴点を検出しない領域」であると決定された植物領域及び動的物体領域について、透明化又は黒塗りすることにより、特徴点の検出ができない状態としてもよい。この状態とした後に、マップデータ生成部14は、画像データにおける特徴点の検出及びマップデータ100の生成を行うことにより、「特徴点を検出しない領域」に係るマップデータ100が生成されることを防止する。なお、マップデータ生成部14は、「特徴点を検出しない領域」であると決定された植物領域及び動的物体領域の特徴点を検出しない方法であれば、その他の方法によって「特徴点を検出する領域」のみのマップデータ100を生成してもよい。マップデータ生成部14は、生成したマップデータ100を記憶部11に格納する。
The map
マップサーバ10は、測位機能(リローカライズ機能)に係る機能構成として、記憶部11と、取得部12と、意味付け部13と、測位部15と、を備えている。
The
記憶部11は、マップデータ生成部14によって生成されて格納されたマップデータ100を記憶する。上述したように、マップデータ100は、特徴点の特徴量と該特徴点に係る位置情報とが対応付けられた点群データである。記憶部11は、マップデータ100の特徴点に係る位置情報として3次元の位置情報を記憶している。記憶部11は、特徴点に係る3次元の位置情報として、例えば、特徴点の緯度・経度・高さを記憶している。記憶部11は、マップデータ100について位置情報に応じて一定の領域毎に分割した複数の分割マップデータを記憶していてもよい。各分割マップデータは、互いに境界付近の領域(グローバル位置情報)が重複していてもよいし、重複していなくてもよい。
The
取得部12は、通信端末50において撮像された画像データである測位用画像データを通信端末50から取得する。
The
意味付け部13は、取得部12によって取得された測位用画像データについて、各領域に関する意味付けを行い、意味付けの結果に基づいて、マップデータ100の生成に関して特徴点を検出しない領域を決定する。意味付けの方法、特徴点を検出しない領域の決定方法等については、上述したマップデータ生成機能における意味付け部13の処理と同様である。
The
測位部15は、記憶部11に記憶されているマップデータ100に基づいて通信端末50の測位を行う。測位部15は、測位用画像データにおける特徴点を検出しない領域(例えば、植物領域及び動的物体領域)以外の領域の特徴点と、マップデータ100の特徴点とのマッチングを行い、該マッチングの結果に基づいて通信端末50の位置(3次元のグローバル位置情報)を特定する。具体的には、測位部15は、上記マッチングを行うことにより測位用画像データに対応するマップデータ100の領域を特定し、特定した領域に係るマップデータ100の特徴点に対応付けられたグローバル位置情報に基づいて、測位用画像データの撮像位置(すなわち、撮像時における通信端末50のグローバル位置情報)を推定する。
The
次に、図3を参照して、マップサーバ10が実行するマップデータ生成処理について説明する。図3は、マップデータ生成処理を示すフローチャートである。
Next, map data generation processing executed by the
図3に示されるように、マップデータ生成処理では、まず、マップサーバ10がステレオカメラ80において撮像された画像データを取得する(ステップS1)。
As shown in FIG. 3, in the map data generation process, first, the
つづいて、マップサーバ10は、セマンテックセグメンテーションを実行することにより、画像データにおける各ピクセルの意味(周辺のピクセルの情報を考慮した意味)を推定し、該推定結果に基づいて各領域をカテゴライズ(意味付け)する(ステップS2)。具体的には、マップサーバ10は、植物領域及び動的物体領域について「特徴点を検出しない領域」に決定し、その他の領域について「特徴点を検出する領域」に決定する。
Subsequently, the
つづいて、マップサーバ10は、「特徴点を検出しない領域」であると決定された植物領域及び動的物体領域について、透明化又は黒塗りすることにより、特徴点の検出ができない状態とする(ステップS3)。
Subsequently, the
最後に、マップサーバ10は、画像データにおける特徴点を検出しない領域以外の領域(すなわち、上述した「特徴点を検出する領域」)について、特徴点を検出し、特徴点の特徴量と該特徴点に係る位置情報とが対応付けられた点群データであるマップデータ100(特徴点マップ,3Dポイントクラウド)を生成する(ステップS4)。以上がマップデータ生成処理である。
Finally, the
次に、図4を参照して、マップサーバ10が実行する測位処理について説明する。図4は、マップデータ100を利用した測位処理を示すフローチャートである。
Next, positioning processing executed by the
図4に示されるように、測位処理では、まず、マップサーバ10が通信端末50において撮像された測位用画像データを取得する(ステップS11)。
As shown in FIG. 4, in the positioning process, first, the
つづいて、マップサーバ10は、セマンテックセグメンテーションを実行することにより、画像データにおける各ピクセルの意味(周辺のピクセルの情報を考慮した意味)を推定し、該推定結果に基づいて各領域をカテゴライズ(意味付け)する(ステップS12)。具体的には、マップサーバ10は、植物領域及び動的物体領域について「特徴点を検出しない領域」に決定し、その他の領域について「特徴点を検出する領域」に決定する。
Subsequently, the
つづいて、マップサーバ10は、「特徴点を検出しない領域」であると決定された植物領域及び動的物体領域について、透明化又は黒塗りすることにより、特徴点の検出ができない状態とする(ステップS13)。
Subsequently, the
最後に、マップサーバ10は、測位用画像データにおける特徴点を検出しない領域(例えば、植物領域及び動的物体領域)以外の領域の特徴点と、マップデータ100の特徴点とのマッチングを行い、該マッチングの結果に基づいて通信端末50の位置(3次元のグローバル位置情報)を特定するリローカライズを行う(ステップS14)。以上が測位処理である。
Finally, the
次に、本実施形態に係るマップサーバ10の作用効果について説明する。
Next, the effects of the
マップサーバ10は、ステレオカメラ80において撮像された画像データを取得する取得部12と、画像データについて、各領域に関する意味付けを行い、意味付けの結果に基づいて特徴点を検出しない領域を決定する意味付け部13と、画像データにおける特徴点を検出しない領域以外の領域について、特徴点の特徴量と該特徴点に係る位置情報とが対応付けられたマップデータ100を生成するマップデータ生成部14と、を備える。
The
本実施形態に係るマップサーバ10では、撮像された画像データについて、各領域に関する意味付けの結果に基づき特徴点を検出しない領域が決定され、特徴点を検出しない領域以外の領域について、特徴点の特徴量と特徴点の位置情報とが対応付けられたマップデータ100が生成される。このように、意味付けの結果に基づき特徴点を検出しない領域、すなわちマップデータ100が生成されない領域が決定されることにより、例えば、植物等の、特徴点の出現する位置が変化する物体の領域について他の領域と区別し、特徴点の出現する位置が変化する物体の領域についてはマップデータ100が生成されない構成とすることができる。このことで、特徴点の出現する位置が変化しない(或いは変化が小さい)領域のみでマップデータ100を生成することが可能になり、マップデータ100を利用した測位精度を向上させることができる。
In the
意味付け部13は、画像データにおける、時期に応じて態様の変化する領域について態様変化領域であるとする意味付けを行い、該態様変化領域を、特徴点を検出しない領域として決定してもよい。
The meaning-giving
具体的には、意味付け部13は、画像データにおける植物の領域について植物領域であるとする意味付けを行い、該植物領域を、特徴点を検出しない領域として決定してもよい。このような構成によれば、冬場に樹木の葉が無くなり夏場に樹木に葉が生い茂る等、季節の移り変わりにより特徴点の出現する位置が変化する植物領域をマップデータ100が生成されない領域とすることができる。このことで、マップデータ100を利用した測位精度を更に向上させることができる。
Specifically, the
また、意味付け部13は、画像データにおける動的な物体の領域について動的物体領域であるとする意味付けを行い、該動的物体領域を、特徴点を検出しない領域として決定してもよい。これにより、一時的に存在する物体の領域をマップデータ100が生成されない領域とすることができる。このことで、マップデータ100を利用した測位精度を更に向上させることができる。
Further, the
意味付け部13は、セマンテックセグメンテーションにより、各領域に関する意味付けを行ってもよい。これにより、各領域に関する意味付けを高精度に行うことができる。
The
マップデータ生成部14は、画像データにおける特徴点を検出しない領域について、透明化又は黒塗りしてもよい。これにより、簡易な手法によって特徴点を検出しない領域について特徴点が検出されることを適切に防止することができる。
The map
マップサーバ10は、マップデータ100に基づいて、通信端末50の測位を行う測位部15を更に備え、取得部12は、通信端末50において撮像された測位用画像データを取得し、意味付け部13は、測位用画像データについて、各領域に関する意味付けを行い、意味付けの結果に基づいて特徴点を検出しない領域を決定し、測位部15は、測位用画像データにおける特徴点を検出しない領域以外の領域の特徴点と、マップデータ100の特徴点とのマッチングを行い、該マッチングの結果に基づいて通信端末50の位置を特定してもよい。このように、測位用画像データについても、意味付けの結果に基づき、マップデータ100との特徴点のマッチングが行われない領域が決定されることにより、例えば特徴点の出現する位置が変化しない(或いは変化が小さい)領域同士で特徴点のマッチングを行い、マップデータ100を利用した測位精度を向上させることができる。
The
最後に、マップサーバ10のハードウェア構成について、図5を参照して説明する。上述のマップサーバ10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
Finally, the hardware configuration of the
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。マップサーバ10のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
Note that in the following description, the term "apparatus" can be read as a circuit, device, unit, or the like. The hardware configuration of the
マップサーバ10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。
Each function of the
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、マップサーバ10の測位部15等の制御機能はプロセッサ1001で実現されてもよい。
The
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、マップサーバ10の測位部15等の制御機能は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
The
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
The
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。
The
通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
The
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
The
また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。
Devices such as the
また、マップサーバ10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。
The
以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。 Although the present embodiments have been described in detail above, it will be apparent to those skilled in the art that the present embodiments are not limited to the embodiments described herein. This embodiment can be implemented as modifications and changes without departing from the spirit and scope of the present invention defined by the description of the claims. Therefore, the description in this specification is for the purpose of illustration and explanation, and does not have any restrictive meaning with respect to the present embodiment.
本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broad-band)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-Wide Band)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。 Aspects/embodiments described herein support Long Term Evolution (LTE), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, Future Radio Access (FRA), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broad-band), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-Wide Band), Bluetooth®, other suitable systems and/or extended next generation systems based on these.
本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The procedures, sequences, flow charts, etc. of each aspect/embodiment described herein may be interchanged so long as there is no inconsistency. For example, the methods described herein present elements of the various steps in a sample order, and are not limited to the specific order presented.
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 Input/output information and the like may be stored in a specific location (for example, memory), or may be managed in a management table. Input/output information and the like may be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by one bit (0 or 1), by a true/false value (Boolean: true or false), or by numerical comparison (for example, a predetermined value).
本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect/embodiment described herein may be used alone, in combination, or switched between implementations. In addition, the notification of predetermined information (for example, notification of “being X”) is not limited to being performed explicitly, but may be performed implicitly (for example, not notifying the predetermined information). good too.
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language or otherwise, includes instructions, instruction sets, code, code segments, program code, programs, subprograms, and software modules. , applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Software, instructions, etc. may also be sent and received over a transmission medium. For example, the software can be used to access websites, servers, or other When transmitted from a remote source, these wired and/or wireless technologies are included within the definition of transmission media.
本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 Information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of
なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 The terms explained in this specification and/or terms necessary for understanding this specification may be replaced with terms having the same or similar meanings.
また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。 In addition, the information, parameters, etc. described in this specification may be represented by absolute values, may be represented by relative values from a predetermined value, or may be represented by corresponding other information. .
ユーザ端末は、当業者によって、移動通信端末、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、またはいくつかの他の適切な用語で呼ばれる場合もある。 User terminals are defined by those skilled in the art as mobile communication terminals, subscriber stations, mobile units, subscriber units, wireless units, remote units, mobile devices, wireless devices, wireless communication devices, remote devices, mobile subscriber stations, access terminals, It may also be called a mobile terminal, wireless terminal, remote terminal, handset, user agent, mobile client, client or some other suitable term.
本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。 As used herein, the terms "determining" and "determining" may encompass a wide variety of actions. "Determining", "determining" means, for example, calculating, computing, processing, deriving, investigating, looking up (e.g., in a table, database or other search in data structures), ascertaining as "judgement" or "decision". Also, "judgment" and "determination" are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (accessing) (for example, accessing data in memory) may include deeming that a "judgment" or "decision" has been made. In addition, "judgment" and "decision" are considered to be "judgment" and "decision" by resolving, selecting, choosing, establishing, comparing, etc. can contain. In other words, "judgment" and "decision" may include considering that some action is "judgment" and "decision".
本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used herein, the phrase "based on" does not mean "based only on," unless expressly specified otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."
「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 Wherever "include," "including," and variations thereof are used in the specification or claims, these terms are synonymous with the term "comprising." are intended to be inclusive. Furthermore, the term "or" as used in this specification or the claims is not intended to be an exclusive OR.
本明細書において、文脈または技術的に明らかに1つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。 In this specification, plural devices are also included unless the context or technicality clearly dictates that there is only one.
本開示の全体において、文脈から明らかに単数を示したものではなければ、複数のものを含むものとする。 Throughout this disclosure, the plural shall be included unless the context clearly indicates the singular.
10…マップサーバ(マップデータ生成装置)、12…取得部、13…意味付け部、14…マップデータ生成部、50…通信端末、80…ステレオカメラ(端末)、100…マップデータ。
DESCRIPTION OF
Claims (7)
前記画像データについて、各領域に関する意味付けを行い、意味付けの結果に基づいて特徴点を検出しない領域を決定する意味付け部と、
前記画像データにおける前記特徴点を検出しない領域以外の領域について、特徴点の特徴量と該特徴点に係る位置情報とが対応付けられたマップデータを生成するマップデータ生成部と、を備えるマップデータ生成装置。 an acquisition unit that acquires image data captured by a terminal;
a meaning assigning unit that assigns meaning to each region of the image data and determines regions in which feature points are not detected based on the result of the meaning assignment;
a map data generation unit that generates map data in which feature amounts of feature points and position information related to the feature points are associated with each other for areas other than the areas where the feature points are not detected in the image data. generator.
前記測位用画像データについて、各領域に関する意味付けを行い、意味付けの結果に基づいて特徴点を検出しない領域を決定する意味付け部と、
前記測位用画像データにおける前記特徴点を検出しない領域以外の領域の特徴点と、特徴点の特徴量と該特徴点に係る位置情報とが対応付けられたマップデータの特徴点とのマッチングを行い、該マッチングの結果に基づいて前記通信端末の測位を行う測位部と、を備える測位装置。 an acquisition unit that acquires positioning image data captured by a communication terminal;
a meaning assigning unit that assigns meaning to each region of the positioning image data, and determines regions in which feature points are not detected based on the result of the meaning assignment;
Matching is performed between a feature point in an area other than the area in which the feature point is not detected in the positioning image data and a feature point in map data in which the feature amount of the feature point and the position information related to the feature point are associated with each other. and a positioning unit that positions the communication terminal based on the matching result.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020026021A JP2023037043A (en) | 2020-02-19 | 2020-02-19 | Map data generation device and positioning device |
PCT/JP2021/005914 WO2021166954A1 (en) | 2020-02-19 | 2021-02-17 | Map data generation device and positioning device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020026021A JP2023037043A (en) | 2020-02-19 | 2020-02-19 | Map data generation device and positioning device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023037043A true JP2023037043A (en) | 2023-03-15 |
Family
ID=77391251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020026021A Pending JP2023037043A (en) | 2020-02-19 | 2020-02-19 | Map data generation device and positioning device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2023037043A (en) |
WO (1) | WO2021166954A1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7043755B2 (en) * | 2017-08-29 | 2022-03-30 | ソニーグループ株式会社 | Information processing equipment, information processing methods, programs, and mobiles |
US11531354B2 (en) * | 2017-12-05 | 2022-12-20 | Sony Corporation | Image processing apparatus and image processing method |
US10657388B2 (en) * | 2018-03-13 | 2020-05-19 | Honda Motor Co., Ltd. | Robust simultaneous localization and mapping via removal of dynamic traffic participants |
JP7074182B2 (en) * | 2018-03-14 | 2022-05-24 | 日本電気株式会社 | Area determination device, monitoring system, area determination method, and computer program |
-
2020
- 2020-02-19 JP JP2020026021A patent/JP2023037043A/en active Pending
-
2021
- 2021-02-17 WO PCT/JP2021/005914 patent/WO2021166954A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021166954A1 (en) | 2021-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6266016B2 (en) | Low power constant connection judgment for indoor and outdoor conditions | |
US9942720B2 (en) | Location determination, mapping, and data management through crowdsourcing | |
US10289940B2 (en) | Method and apparatus for providing classification of quality characteristics of images | |
JP6081616B2 (en) | Mobile device positioning | |
KR101457313B1 (en) | Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation | |
US20180240194A1 (en) | Visual analytics based vehicle insurance anti-fraud detection | |
US20130212094A1 (en) | Visual signatures for indoor positioning | |
US20140233800A1 (en) | Method of tracking object and electronic device supporting the same | |
US10489674B2 (en) | Information extraction using image data | |
JP2018536308A (en) | Enhanced indoor / outdoor detection using auxiliary information | |
CN103442436A (en) | Indoor positioning terminal, network, system and method | |
WO2016109428A1 (en) | Changing camera parameters based on wireless signal information | |
KR20140103046A (en) | Object Tracing Method and Electronic Device supporting the same | |
CN109916415A (en) | Road type determines method, apparatus, equipment and storage medium | |
US20210342601A1 (en) | Information processing system, method of information processing, and program | |
CN109345567A (en) | Movement locus of object recognition methods, device, equipment and storage medium | |
JP7134252B2 (en) | Map data generator | |
JP2023037043A (en) | Map data generation device and positioning device | |
CN113286262B (en) | Service providing method and apparatus, computer-readable storage medium, and electronic device | |
JP7198966B2 (en) | Positioning system | |
CN116709501A (en) | Service scene identification method, electronic equipment and storage medium | |
WO2020115945A1 (en) | Positioning system | |
Shahid et al. | Images based indoor positioning using AI and crowdsourcing | |
US20230354258A1 (en) | Data processing method and apparatus | |
CN118019102A (en) | Positioning method and terminal equipment |