JP6653507B2 - Information terminal, position estimation method, and position estimation program - Google Patents

Information terminal, position estimation method, and position estimation program Download PDF

Info

Publication number
JP6653507B2
JP6653507B2 JP2016056139A JP2016056139A JP6653507B2 JP 6653507 B2 JP6653507 B2 JP 6653507B2 JP 2016056139 A JP2016056139 A JP 2016056139A JP 2016056139 A JP2016056139 A JP 2016056139A JP 6653507 B2 JP6653507 B2 JP 6653507B2
Authority
JP
Japan
Prior art keywords
particles
information
area
unit
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016056139A
Other languages
Japanese (ja)
Other versions
JP2017173001A (en
Inventor
至寛 菅谷
至寛 菅谷
健人 外崎
健人 外崎
真一郎 大町
真一郎 大町
智 宮崎
智 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Original Assignee
Tohoku University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC filed Critical Tohoku University NUC
Priority to JP2016056139A priority Critical patent/JP6653507B2/en
Publication of JP2017173001A publication Critical patent/JP2017173001A/en
Application granted granted Critical
Publication of JP6653507B2 publication Critical patent/JP6653507B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Description

本発明は、移動した際の自装置の位置を推定する情報端末、位置推定方法、および位置推定プログラムに関する。   The present invention relates to an information terminal, a position estimation method, and a position estimation program for estimating the position of the own device when moving.

従来から、歩行者であるユーザを目的地まで案内する歩行者ナビゲーションシステムがスマートフォン等の情報端末に搭載され、広く利用されている。このような歩行者ナビゲーションシステムでは、GPS(Global Positioning System)から受信するGPS信号に含まれている位置情報により、情報端末の位置を測位し、地図データ上に表示させる。   2. Description of the Related Art Conventionally, a pedestrian navigation system for guiding a pedestrian user to a destination is mounted on an information terminal such as a smartphone and is widely used. In such a pedestrian navigation system, the position of the information terminal is measured based on position information included in a GPS signal received from a GPS (Global Positioning System), and is displayed on map data.

しかしながら、歩行者ナビゲーションシステムは、GPS信号を受信可能な場所においては、高精度に情報端末の位置を測位することができるが、例えば屋内などのGPS信号が受信できない場所では、情報端末の位置を正確に推定することができない。   However, the pedestrian navigation system can accurately determine the position of the information terminal in a place where the GPS signal can be received, but in a place where the GPS signal cannot be received, such as indoors, the position of the information terminal is determined. It cannot be estimated accurately.

そのため、最近では、様々な手法を用いて屋内での情報端末の位置を推定する方法が提案され、実用化されている。例えば、Wi−Fi(Wireless Fidelity)(登録商標、以下省略)のアクセスポイント、BLE(Bluetooth(登録商標) Low Energy)技術を用いたビーコン等の機器が屋内に設置されている場合には、これらを利用することにより、屋内であっても情報端末の位置を正確に推定することができる。   Therefore, recently, a method of estimating the position of an information terminal indoors using various techniques has been proposed and put into practical use. For example, when equipment such as a Wi-Fi (Wireless Fidelity) (registered trademark, hereinafter abbreviated) access point and a beacon using BLE (Bluetooth (registered trademark) Low Energy) technology are installed indoors, By using, it is possible to accurately estimate the position of the information terminal even indoors.

しかしながら、Wi−Fiアクセスポイント等の機器を屋内に設置して情報端末の位置推定に利用する場合には、事前にデータベースを構築しておく必要があることもあり、設置コストおよび管理コストがかかってしまう。また、Wi−Fiアクセスポイント等の機器をすべての屋内に設置することは非常に困難であるため、利用できる場所が制限されてしまう。   However, when a device such as a Wi-Fi access point is installed indoors and used for estimating the position of an information terminal, it is necessary to construct a database in advance, and installation and management costs are high. Would. Further, since it is very difficult to install a device such as a Wi-Fi access point in every room, available places are limited.

そこで、このような特別な機器を設置することなく、情報端末に搭載されている各種センサ等を用いて自装置の位置を推定する方法が提案されている(例えば、非特許文献1および非特許文献2参照)。   Therefore, there has been proposed a method of estimating the position of the own device using various sensors mounted on the information terminal without installing such special equipment (for example, Non-Patent Document 1 and Non-Patent Document 1). Reference 2).

W.Hang and Y.Han,"SmartPDR:Smartphone-Based Pedestrian Dead Reckoning for Indoor Localization," IEEE Sensor Journal,Vol.15,pp2906-2916,no.5,May 2015W. Hang and Y. Han, "SmartPDR: Smartphone-Based Pedestrian Dead Reckoning for Indoor Localization," IEEE Sensor Journal, Vol.15, pp2906-2916, no.5, May 2015. O.Woodman and R.Harle,"Pedestrian Localisation for Indoor Environments," in Proc.10th Int.Conf.UbiComp,2008,pp114-123.O. Woodman and R. Harle, "Pedestrian Localization for Indoor Environments," in Proc. 10th Int. Conf. UbiComp, 2008, pp114-123.

しかしながら、従来の方法では、縮尺および方位を示す情報を含む正確な地図データを用いることを前提としている。そのため、縮尺および方位が不明な不正確な地図データを用いた場合には、情報端末の位置を正確に推定することができないという問題点があった。   However, the conventional method is based on the assumption that accurate map data including information indicating the scale and the direction is used. Therefore, when inaccurate map data whose scale and orientation are unknown are used, there is a problem that the position of the information terminal cannot be accurately estimated.

そこで、本発明の目的は、上記従来の技術における問題点に鑑みてなされたものであって、縮尺および方位に関する情報を含まない地図データを用いた場合であっても、自装置の位置を正確に推定することが可能な情報端末、位置推定方法、および位置推定プログラムを提供することにある。   Therefore, an object of the present invention has been made in view of the above-described problems in the related art, and even when map data that does not include information on scale and azimuth is used, the position of the own device can be accurately determined. It is an object of the present invention to provide an information terminal, a position estimating method, and a position estimating program capable of estimating the position.

本発明に係る情報端末は、環境情報を取得し、センサ情報として出力するセンサと、ユーザが通行する領域である通路領域および該通路領域とは異なる非通路領域を含む複数の領域を有する地図データを表示する表示部と、ユーザの操作に応じた操作信号を出力する操作部と、前記地図データ上での自装置の位置を推定する位置推定部を有するとともに、前記推定された自装置の位置を示す表示を前記地図データに重畳させて前記表示部に表示させる制御部とを備え、前記位置推定部は、前記センサから出力された前記センサ情報に基づき、前記地図データ上での自装置の現在位置を推定するためのデッドレコニング情報を出力するデッドレコニング処理部と前記デッドレコニング情報に基づき、前記操作部を介して入力された前記地図データ上での位置の周囲に、前記地図データ上での位置を示す座標に関する情報、前記地図データの縮尺に関する情報、および方位に関する情報を少なくとも含む状態を有する複数の粒子を初期値として配置する粒子初期化部と、前記デッドレコニング情報に基づき、配置された前記複数の粒子が自装置の移動に応じて移動する位置を推定し、推定した前記位置に前記複数の粒子を移動させる予測計算部と、移動した前記複数の粒子のうち、前記非通路領域に移動した粒子を除外する尤度計算部と、前記尤度計算部の処理によって残った複数の粒子に基づき、自装置が移動した際の現在位置を推定する位置計算部と、前記尤度計算部の処理によって残った複数の粒子に基づき、前記初期値の複数の粒子と同数の粒子を、該粒子が有する前記状態に含まれる前記座標に関する情報が示す前記地図データ上での位置に再配置するリサンプリング部とを有し、前記予測計算部は、前記リサンプリング部によって再配置された複数の粒子を、次回の処理の初期値として用いるものである。 An information terminal according to the present invention obtains environmental information and outputs the sensor information as sensor data, and map data having a plurality of areas including a passage area which is an area through which a user passes and a non-passage area different from the passage area. And an operation unit that outputs an operation signal according to a user operation, and a position estimation unit that estimates the position of the own device on the map data, and the estimated position of the own device. And a control unit that superimposes a display indicating the map data on the map data and displays the map data on the display unit, wherein the position estimating unit is based on the sensor information output from the sensor, a dead reckoning unit for outputting a dead reckoning information for estimating the current position, based on said dead reckoning information, the map de input via the operating unit Around the position on the map, a plurality of particles having a state including at least information on coordinates indicating the position on the map data, information on the scale of the map data, and information on the azimuth as initial values. An initialization unit, based on the dead reckoning information, estimates a position where the plurality of arranged particles move according to the movement of the own device, and a prediction calculation unit that moves the plurality of particles to the estimated position. Of the plurality of particles that have moved, a likelihood calculation unit that excludes particles that have moved to the non-passage region, and a plurality of particles remaining by the processing of the likelihood calculation unit. A position calculation unit for estimating the current position, and a plurality of particles having the same number as the plurality of particles of the initial value, based on the plurality of particles remaining by the processing of the likelihood calculation unit, A resampling unit for relocating to a position on the map data indicated by the information on the included coordinates, wherein the prediction calculation unit processes the plurality of particles relocated by the resampling unit in a next process. Is used as the initial value of .

以上のように、本発明によれば、地図データの縮尺および方位に関する情報を取得し、取得した縮尺および方位の情報に基づき、自装置が移動する位置を推定するため、縮尺および方位に関する情報を含まない地図データを用いた場合であっても、自装置の位置を正確に推定することが可能になる。   As described above, according to the present invention, information on the scale and azimuth of the map data is obtained, and based on the obtained information on the scale and azimuth, the information on the scale and azimuth is estimated in order to estimate the position to which the own apparatus moves. Even when map data not included is used, it is possible to accurately estimate the position of the own device.

実施の形態1について説明するための概略図である。FIG. 2 is a schematic diagram for describing Embodiment 1; 実施の形態1に係る情報端末の構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of a configuration of the information terminal according to Embodiment 1. 図2の画像解析部の構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a configuration of an image analysis unit in FIG. 2. 図2の位置推定部の構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a configuration of a position estimating unit in FIG. 2. 図3のエッジ検出処理部で生成されるエッジ画像データについて説明するための概略図である。FIG. 4 is a schematic diagram for describing edge image data generated by an edge detection processing unit in FIG. 3. 図3の領域分割処理部で生成される領域分割画像データについて説明するための概略図である。FIG. 4 is a schematic diagram for describing region division image data generated by a region division processing unit in FIG. 3. 図3のラベリング処理部で行われるラベリング処理について説明するための概略図である。FIG. 4 is a schematic diagram for describing labeling processing performed by a labeling processing unit in FIG. 3. 図3の通路領域推定部で行われる通路領域推定処理の流れの一例を示すフローチャートである。4 is a flowchart illustrating an example of a flow of a passage area estimation process performed by a passage area estimation unit in FIG. 3. 図4の粒子初期化部で行われる粒子初期化処理について説明するための概略図である。FIG. 5 is a schematic diagram for describing a particle initialization process performed by a particle initialization unit in FIG. 4. 実施の形態1に係る位置推定処理について説明するための概略図である。FIG. 7 is a schematic diagram for describing a position estimation process according to the first embodiment.

実施の形態1.
以下、本発明の実施の形態1に係る情報端末について説明する。
本実施の形態1では、情報端末に設けられたカメラ等の撮像装置を用いて撮像して得られる画像データである地図データ、または予め取得した地図データを用い、この地図データ上における情報端末の現在位置を推定して情報端末に表示させる。
Embodiment 1 FIG.
Hereinafter, the information terminal according to Embodiment 1 of the present invention will be described.
In the first embodiment, map data, which is image data obtained by using an imaging device such as a camera provided in the information terminal, or map data obtained in advance, and the information terminal The current position is estimated and displayed on the information terminal.

概略的には、情報端末は、この情報端末に一般的に搭載されている各種センサの検出結果に基づき、地図データ上での自装置の現在位置を推定するための情報であるデッドレコニング情報(詳細は後述する)を出力する。
そして、情報端末は、このデッドレコニング情報と、ユーザによって入力された地図データ上での位置を示す情報とに基づき、地図データの縮尺および方位に関する情報を取得し、これらの情報とデッドレコニング情報とに基づき、情報端末が移動する位置を推定する。
Schematically, the information terminal performs dead reckoning information (information for estimating the current position of its own device on the map data, based on the detection results of various sensors generally mounted on the information terminal. The details will be described later).
Then, the information terminal obtains information on the scale and orientation of the map data based on the dead recording information and the information indicating the position on the map data input by the user, and obtains the information and the dead recording information. The position to which the information terminal moves is estimated based on.

図1は、本実施の形態1について説明するための概略図である。
図1に示すように、本実施の形態1では、例えばユーザが携帯する情報端末の撮像装置によって施設に設置されている図1(a)に示すような案内図等を撮像する。この場合、情報端末には、図1(b)に示すように、撮像によって得られた画像データである屋内地図データ上に、この情報端末の推定した現在位置(以下、「推定現在位置」と適宜称する)を重畳させて表示することができる。
なお、図1(b)に示す例では、推定した現在位置の履歴を残した状態で表示されているが、これに限らず、例えば現時点での推定現在位置のみを表示させるようにしてもよい。
FIG. 1 is a schematic diagram for explaining the first embodiment.
As shown in FIG. 1, in the first embodiment, for example, a guide map or the like as shown in FIG. 1A installed in a facility is captured by an imaging device of an information terminal carried by a user. In this case, as shown in FIG. 1B, the information terminal estimates the current position of the information terminal (hereinafter referred to as “estimated current position”) on indoor map data, which is image data obtained by imaging. (Referred to as appropriate) can be superimposed and displayed.
In the example shown in FIG. 1B, the history of the estimated current position is displayed, but the present invention is not limited to this. For example, only the estimated current position at the present time may be displayed. .

また、本実施の形態1においては、主に、複数の店舗が収容された施設内の様子を示す画像データを屋内地図データとして扱う。この屋内地図データは、例えば、施設内に設置された案内板等の屋内地図を撮像したものであり、このような施設において、各店舗と店舗の間に設けられた通路とを含むデータとする。   Further, in the first embodiment, mainly, image data indicating a state in a facility accommodating a plurality of stores is handled as indoor map data. The indoor map data is, for example, an image of an indoor map such as a guide board installed in the facility, and is data including a store and a passage provided between the stores in such a facility. .

[情報端末の構成]
図2は、本実施の形態1に係る情報端末1の構成の一例を示すブロック図である。
情報端末1は、例えば、携帯電話、スマートフォン、タブレット、PDA(Personal Digital Assistant)等の、各種情報の表示、再生および記録が可能であり、ユーザが移動する際に、共に移動可能な端末である。
図2に示すように、情報端末1は、画像データ取得部としての撮像部2、画像信号処理部3、表示部4、操作部5、加速度センサ6、地磁気センサ7、ジャイロセンサ8、記憶部9および制御部10を備えている。なお、図2に示す例では、本実施の形態1の特徴に関連する部分についてのみ図示し、それ以外の部分については、図示を省略する。
[Configuration of information terminal]
FIG. 2 is a block diagram showing an example of a configuration of the information terminal 1 according to the first embodiment.
The information terminal 1 is a terminal that can display, reproduce, and record various information, such as a mobile phone, a smartphone, a tablet, and a PDA (Personal Digital Assistant), and that can move together when the user moves. .
As shown in FIG. 2, the information terminal 1 includes an imaging unit 2 as an image data acquisition unit, an image signal processing unit 3, a display unit 4, an operation unit 5, an acceleration sensor 6, a geomagnetic sensor 7, a gyro sensor 8, and a storage unit. 9 and a control unit 10. In the example illustrated in FIG. 2, only a portion related to the features of the first embodiment is illustrated, and the other portions are not illustrated.

撮像部2は、例えばCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子に受光された光を撮像信号に変換し、サンプリングおよびノイズ除去等の処理を行うことによって撮像信号を出力する。
この例において、撮像部2は、被写体として施設内に設けられた屋内地図を撮像する。
The imaging unit 2 converts light received by an imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) image sensor into an imaging signal, and performs processing such as sampling and noise removal to perform imaging. Output a signal.
In this example, the imaging unit 2 captures an indoor map provided in a facility as a subject.

画像信号処理部3は、撮像信号に対してAGC(Auto Gain Control)処理、ホワイトバランス処理、γ(ガンマ)補正、色調補正、シャープネス補正等の信号処理を行うとともに、この撮像信号を、例えば輝度信号と色差信号とからなる画像データに変換する。   The image signal processing unit 3 performs signal processing such as AGC (Auto Gain Control) processing, white balance processing, γ (gamma) correction, color tone correction, and sharpness correction on the image pickup signal, and converts the image pickup signal into, for example, luminance. The image data is converted into image data including a signal and a color difference signal.

表示部4は、例えばLCD(Liquid Crystal Display)、有機EL(Electro Luminescence)等によって構成され、画像信号処理部3から供給された画像データを表示可能な形式に変換して表示する。表示部4としては、例えば、LCDまたは有機EL上にタッチセンサを有するタッチパネルが積層されたタッチパネルディスプレイを用いることができる。   The display unit 4 includes, for example, an LCD (Liquid Crystal Display), an organic EL (Electro Luminescence), or the like, and converts the image data supplied from the image signal processing unit 3 into a displayable format and displays it. As the display unit 4, for example, a touch panel display in which a touch panel having a touch sensor is stacked on an LCD or an organic EL can be used.

操作部5は、この情報端末1を操作するために用いられる各種の操作子が設けられ、各操作子に対する操作に応じた操作信号を出力する。操作部5には、例えば、電源のONおよびOFFを切り替える電源キー、撮影モードや再生モードといった情報端末1における動作モードを切り替えるモード切替キー等が設けられている。これらの各種キーは、例えば、情報端末1の筐体にハードウェアキーとして設けるようにしてもよいし、表示部4がタッチパネルディスプレイの場合には、各種キーがソフトウェアキーとして表示部4に表示されるようにしてもよい。   The operation unit 5 is provided with various operators used for operating the information terminal 1, and outputs an operation signal corresponding to an operation on each of the operators. The operation unit 5 is provided with, for example, a power key for switching power ON and OFF, a mode switching key for switching operation modes of the information terminal 1 such as a shooting mode and a reproduction mode, and the like. For example, these various keys may be provided as hardware keys on the housing of the information terminal 1, or when the display unit 4 is a touch panel display, the various keys are displayed on the display unit 4 as software keys. You may make it.

加速度センサ6、地磁気センサ7およびジャイロセンサ8は、情報端末1に入力される各種の環境情報を取得するためのセンサである。
加速度センサ6は、例えば、この情報端末1のローカル座標系(LCS;Local Coordinate System)における表示部4での表示画面の法線方向を示すz軸方向と、当該表示画面の横方向を示すx軸方向と、当該表示画面の縦方向を示すy軸方向との3方向の加速度を検出し、センサ情報として出力する。
地磁気センサ7は、ローカル座標系におけるx軸方向、y軸方向およびz軸方向の3方向の地磁気の強さを検出し、センサ情報として出力する。
ジャイロセンサ8は、ローカル座標系における角速度を検出し、センサ情報として出力する。
The acceleration sensor 6, the geomagnetic sensor 7, and the gyro sensor 8 are sensors for acquiring various types of environmental information input to the information terminal 1.
The acceleration sensor 6 is, for example, a z-axis direction indicating a normal direction of a display screen on the display unit 4 in a local coordinate system (LCS) of the information terminal 1 and an x indicating a horizontal direction of the display screen. The acceleration in three directions, that is, the axial direction and the y-axis direction indicating the vertical direction of the display screen, is detected and output as sensor information.
The geomagnetic sensor 7 detects the intensity of geomagnetism in three directions of the x-axis direction, the y-axis direction, and the z-axis direction in the local coordinate system, and outputs the same as sensor information.
The gyro sensor 8 detects an angular velocity in a local coordinate system and outputs the detected angular velocity as sensor information.

記憶部9は、例えばフラッシュメモリ、HDD(Hard Disc Drive)等で構成され、後述する制御部10の制御に基づき、撮像部2によって撮像された画像データ等を記憶する。なお、記憶部9としては、これに限らず、例えば外部に設けられたUSB(Universal Serial Bus)メモリ、SD(Secure Digital)メモリカード等のフラッシュメモリを用いることもできる。   The storage unit 9 is configured by, for example, a flash memory, an HDD (Hard Disc Drive), or the like, and stores image data and the like captured by the imaging unit 2 under the control of the control unit 10 described below. The storage unit 9 is not limited to this, and for example, a flash memory such as a USB (Universal Serial Bus) memory or an SD (Secure Digital) memory card provided externally can also be used.

制御部10は、図示しないRAM(Random Access Memory)をワークメモリとして用い、図示しないROM(Read Only Memory)に予め記憶されたプログラムに従い、この情報端末1の全体の動作を制御する。   The control unit 10 uses a RAM (Random Access Memory) not shown as a work memory and controls the overall operation of the information terminal 1 according to a program stored in a ROM (Read Only Memory) not shown.

また、制御部10は、画像解析部20および位置推定部30を備えている。
画像解析部20は、入力された画像データを構成する複数の画素のうち、画素の色を示す画素値が同等である画素によってブロックを形成する処理を行う。これにより、例えば屋内地図データを画像データとして用いた場合に、施設内の同一店舗および通路を示す領域がそれぞれ同一のブロックとして形成され、施設内の店舗および通路の位置関係を取得することができる。そして、本実施の形態1における画像解析部20は、これらのブロック化された領域から、ユーザが通行する領域である通路領域を推定し、推定した通路領域を示す通路情報を含む画像情報を生成する。
なお、「画素値が同等である」とは、比較する複数の画素における画素値が予め設定された範囲内である場合のことをいう。
Further, the control unit 10 includes an image analysis unit 20 and a position estimation unit 30.
The image analysis unit 20 performs a process of forming a block using pixels having the same pixel value indicating the color of the pixel among a plurality of pixels included in the input image data. Thus, for example, when indoor map data is used as image data, regions indicating the same store and passage in the facility are formed as the same block, and the positional relationship between the store and passage in the facility can be acquired. . Then, the image analysis unit 20 according to the first embodiment estimates a passage area, which is an area through which the user passes, from these blocked areas, and generates image information including passage information indicating the estimated passage area. I do.
Note that “pixel values are equivalent” means that pixel values of a plurality of pixels to be compared are within a preset range.

位置推定部30は、デッドレコニングおよび粒子フィルタを用いて、画像データ上での情報端末1の現在位置を推定する処理を行う。
デッドレコニングは、加速度センサ6、地磁気センサ7およびジャイロセンサ8などによって得られるセンサ情報に基づき、情報端末1の位置を推定する手法である。
粒子フィルタは、現在位置として推定された範囲内に、後述する算出方法を用いて得られる状態を有する、情報端末1の位置を推定するためのモデルとしての複数の粒子を配置し、配置されたそれぞれの粒子を情報端末1の移動に応じて移動させることによって、情報端末1の位置を推定する手法である。
The position estimating unit 30 performs a process of estimating the current position of the information terminal 1 on image data using dead reckoning and a particle filter.
Dead reckoning is a method of estimating the position of the information terminal 1 based on sensor information obtained by the acceleration sensor 6, the geomagnetic sensor 7, the gyro sensor 8, and the like.
The particle filter arranges and arranges a plurality of particles as a model for estimating the position of the information terminal 1 having a state obtained using a calculation method described later, within the range estimated as the current position. This is a method of estimating the position of the information terminal 1 by moving each particle according to the movement of the information terminal 1.

制御部10は、位置推定部30で推定された現在位置を示す表示を、画像信号処理部3から出力された画像データ上に重畳させ、得られた画像データを、画像信号処理部3を介して表示部4に表示させる。   The control unit 10 superimposes a display indicating the current position estimated by the position estimation unit 30 on the image data output from the image signal processing unit 3, and obtains the obtained image data via the image signal processing unit 3. To display on the display unit 4.

制御部10は、例えばマイクロコンピュータ、CPU(Central Processing Unit)などの演算装置上で実行されるソフトウェア、上述した画像解析部20および位置推定部30における処理を実現する回路デバイスなどのハードウェア等で構成される。   The control unit 10 includes, for example, software executed on an arithmetic device such as a microcomputer and a CPU (Central Processing Unit), and hardware such as a circuit device for realizing the processing in the image analysis unit 20 and the position estimation unit 30 described above. Be composed.

(画像解析部)
図3は、図2の画像解析部20の構成の一例を示すブロック図である。
図3に示すように、画像解析部20は、エッジ検出処理部21、領域分割処理部22、ラベリング処理部23および通路領域推定部24を備えている。なお、各部における処理の詳細については、後述する。
(Image analysis unit)
FIG. 3 is a block diagram illustrating an example of the configuration of the image analysis unit 20 in FIG.
As shown in FIG. 3, the image analysis unit 20 includes an edge detection processing unit 21, an area division processing unit 22, a labeling processing unit 23, and a passage area estimation unit 24. The details of the processing in each unit will be described later.

エッジ検出処理部21は、入力された画像データに対してエッジ検出処理を行い、画像データを構成する複数の画素のうち隣接する画素との間で画素値が大きく変化している部分、すなわち変化点を示すエッジを検出する。そして、エッジ検出処理部21は、検出されたエッジを画像化したエッジ画像データを生成して出力する。   The edge detection processing unit 21 performs an edge detection process on the input image data, and a portion where a pixel value greatly changes between adjacent pixels among a plurality of pixels constituting the image data, An edge indicating a point is detected. Then, the edge detection processing unit 21 generates and outputs edge image data obtained by imaging the detected edge.

領域分割処理部22は、入力された画像データに対して領域分割処理を行い、画像データ中の複数の画素で一つの領域を形成し、同一領域を構成する画素の画素値を共通の画素値に変換する。これにより、領域分割処理部22は、画像データを複数の領域に分割した領域分割画像データを生成して出力する。   The region division processing unit 22 performs a region division process on the input image data, forms one region with a plurality of pixels in the image data, and sets the pixel values of the pixels constituting the same region to a common pixel value. Convert to Thereby, the area division processing unit 22 generates and outputs area divided image data obtained by dividing the image data into a plurality of areas.

ラベリング処理部23は、エッジ画像データおよび領域分割画像データに基づき、領域分割画像データ中の各領域のうち同一領域とすべき複数の領域を統合し、この領域内の画素に対して同一のラベルを付与するラベリング処理を行う。そして、ラベリング処理部23は、同一のラベルが付与された複数の画素で形成される複数のラベリング領域を有するラベリング画像データを生成して出力する。
ここで、ラベルとは、1つのラベリング領域を形成する複数の画素が、互いに共通する領域であるラベリング領域を形成する画素であることを示す情報のことをいう。また、ラベリング画像データには、それぞれのラベリング領域に関するラベリング情報が含まれている。
The labeling processing unit 23 integrates, based on the edge image data and the region-divided image data, a plurality of regions that should be the same region among the regions in the region-divided image data, and assigns the same label to pixels in the region. Is performed. Then, the labeling processing unit 23 generates and outputs labeling image data having a plurality of labeling regions formed by a plurality of pixels to which the same label is assigned.
Here, the label refers to information indicating that a plurality of pixels forming one labeling area are pixels forming a labeling area which is a common area. Further, the labeling image data includes labeling information regarding each labeling area.

通路領域推定部24は、ラベリング処理部23から出力されたラベリング画像データに基づき、ラベリング画像データ中のラベリング領域の中から、通路領域を示すラベルを推定する通路領域推定処理を行う。そして、通路領域推定部24は、通路領域を示す通路情報を含む画像情報を出力する。   The passage area estimation unit 24 performs a passage area estimation process of estimating a label indicating the passage area from the labeling areas in the labeling image data based on the labeling image data output from the labeling processing unit 23. Then, the passage area estimation unit 24 outputs image information including passage information indicating the passage area.

(位置推定部)
図4は、図2の位置推定部30の構成の一例を示すブロック図である。
図4に示すように、位置推定部30は、デッドレコニングに対応するDR(Dead Reckoning)処理部31と、粒子フィルタに対応する粒子初期化部32、予測計算部33、尤度計算部34、リサンプリング部35および位置計算部36とを備えている。なお、各部における処理の詳細については、後述する。
(Position estimation unit)
FIG. 4 is a block diagram illustrating an example of the configuration of the position estimation unit 30 in FIG.
As shown in FIG. 4, the position estimation unit 30 includes a DR (Dead Reckoning) processing unit 31 corresponding to dead reckoning, a particle initialization unit 32 corresponding to a particle filter, a prediction calculation unit 33, a likelihood calculation unit 34, A resampling unit 35 and a position calculating unit 36 are provided. The details of the processing in each unit will be described later.

DR処理部31は、加速度センサ6、地磁気センサ7およびジャイロセンサ8などによって得られるセンサ情報に基づき、画像データ上での情報端末1の現在位置を推定するためのデッドレコニング情報(以下、「DR情報」と適宜称する)を取得するDR処理を行う。このDR処理部31においてDR処理を行う場合には、例えば、スマートPDR(Smartphone-Based Pedestrian Dead Reckoning)と称する手法を用いる。   The DR processing unit 31 performs dead reckoning information (hereinafter, referred to as “DR”) for estimating the current position of the information terminal 1 on image data based on sensor information obtained by the acceleration sensor 6, the geomagnetic sensor 7, the gyro sensor 8, and the like. Information processing) is performed. When performing the DR processing in the DR processing unit 31, for example, a method called Smart PDR (Smartphone-Based Pedestrian Dead Reckoning) is used.

スマートPDRは、情報端末1として例えばスマートフォンを用いた場合に、このスマートフォンに一般的に搭載されている機能および演算装置を用いて情報端末1の位置を推定する手法である。具体的には、スマートPDR処理では、スマートフォンに一般的に搭載されている加速度センサ6、地磁気センサ7およびジャイロセンサ8などを用いる。そして、スマートPDR処理では、これらの各種センサによって得られるセンサ情報に基づき、情報端末1を携帯するユーザの歩数を示すステップイベント回数、ユーザの進行方向、1ステップあたりの移動距離であるユーザの歩幅を検出または推定する。すなわち、スマートPDR処理では、情報端末1を携帯するユーザがどの方向にどれだけ移動したのかを示すDR情報を1歩毎に出力する。
なお、以下の説明では、「情報端末1(ユーザ)の移動」を「ステップイベント」と称し、例えば、「ユーザが1歩だけ歩いたことを検出する」ことを、「1ステップイベントを検出する」のように記載するものとする。
The smart PDR is a method of estimating the position of the information terminal 1 using a function and an arithmetic device generally mounted on the smartphone when, for example, a smartphone is used as the information terminal 1. Specifically, in the smart PDR process, an acceleration sensor 6, a geomagnetic sensor 7, a gyro sensor 8, and the like generally mounted on a smartphone are used. In the smart PDR process, based on sensor information obtained by these various sensors, the number of step events indicating the number of steps of the user carrying the information terminal 1, the user's traveling direction, and the user's step length, which is the distance traveled per step. Is detected or estimated. That is, in the smart PDR process, DR information indicating in which direction and how much the user carrying the information terminal 1 has moved is output for each step.
In the following description, “movement of the information terminal 1 (user)” is referred to as “step event”. For example, “detecting that the user has walked one step” is referred to as “detecting a one-step event”. ].

粒子初期化部32は、DR処理部31から出力されるDR情報に基づき、情報端末1の最初の位置を示す位置情報と、次に移動した際の位置を示す位置情報とを取得し、現在位置に対して配置すべき複数の粒子を初期化して配置する粒子初期化処理を行う。   The particle initialization unit 32 acquires the position information indicating the initial position of the information terminal 1 and the position information indicating the position when the information terminal 1 has moved next, based on the DR information output from the DR processing unit 31. A particle initialization process for initializing and arranging a plurality of particles to be arranged with respect to a position is performed.

予測計算部33は、DR処理部31から出力されるDR情報に基づき、1ステップイベントが検出される毎に、粒子初期化部32または後述するリサンプリング部35における処理によって配置されている複数の粒子が移動する位置を推定する予測計算処理を行う。そして、予測計算部33は、予測計算処理による推定結果に応じて配置されている複数の粒子を移動させる。   Based on the DR information output from the DR processing unit 31, the prediction calculation unit 33 performs a plurality of operations each time a one-step event is detected. A prediction calculation process for estimating the position where the particle moves is performed. Then, the prediction calculation unit 33 moves the plurality of arranged particles according to the estimation result obtained by the prediction calculation process.

尤度計算部34は、画像解析部20から出力された画像情報に含まれる通路情報に基づき、予測計算部33による予測計算処理の結果に応じて移動した複数の粒子の尤度を算出する尤度計算処理を行い、尤度の低い粒子、すなわち複数の粒子のうち適切に移動しなかった粒子を除外する。   The likelihood calculation unit 34 calculates the likelihood of a plurality of particles that have moved according to the result of the prediction calculation process performed by the prediction calculation unit 33, based on the path information included in the image information output from the image analysis unit 20. A particle calculation process is performed to exclude particles with low likelihood, that is, particles that did not move properly among a plurality of particles.

リサンプリング部35は、尤度計算部34での尤度計算処理によって残った複数の粒子の中から1つの粒子だけをランダムに選択し、選択した粒子を複製して再配置する処理を予め設定された回数だけ行うリサンプリング処理を行う。そして、リサンプリング部35は、複製された複数の粒子を予測計算部33に出力するとともに、リサンプリング処理で用いた、尤度計算処理によって残った複数の粒子を破棄する。   The resampling unit 35 presets a process of randomly selecting only one particle from a plurality of particles left by the likelihood calculation process in the likelihood calculation unit 34, and duplicating and rearranging the selected particle. A resampling process is performed for the set number of times. Then, the resampling unit 35 outputs the copied plurality of particles to the prediction calculation unit 33, and discards the plurality of particles remaining in the likelihood calculation process used in the resampling process.

位置計算部36は、尤度計算部34での尤度計算処理によって残った複数の粒子の位置および方位を含む状態を示す情報に基づき、情報端末1の推定現在位置を決定する。   The position calculation unit 36 determines the estimated current position of the information terminal 1 based on information indicating the state including the positions and orientations of the plurality of particles left by the likelihood calculation processing in the likelihood calculation unit 34.

なお、上述では、図2〜図4に示す情報端末1の各部がそれぞれハードウェアで構成されるように説明したが、これはこの例に限定されない。すなわち、情報端末1における画像信号処理部3、制御部10、画像解析部20および位置推定部30、ならびに、画像解析部20および位置推定部30が有する各部の全てまたは一部を、CPU上でプログラムを実行させることで構成することも可能である。
プログラムは、情報端末1が有する図示しないROMに予め記憶させておいてもよいし、SDメモリカードといった記録媒体に記録された状態で提供されてもよい。インターネットなどの通信ネットワークを介してプログラムを提供することもできる。提供されたプログラムは、情報端末1が有する図示されない記憶部9などに記憶され、CPUに読み込まれて実行される。
In the above description, each unit of the information terminal 1 shown in FIGS. 2 to 4 has been described as being configured by hardware, however, this is not limited to this example. That is, all or a part of the image signal processing unit 3, the control unit 10, the image analyzing unit 20, and the position estimating unit 30, and all or a part of the image analyzing unit 20 and the position estimating unit 30 in the information terminal 1 are executed on the CPU. It is also possible to configure by executing a program.
The program may be stored in a ROM (not shown) of the information terminal 1 in advance, or may be provided in a state recorded on a recording medium such as an SD memory card. The program can be provided via a communication network such as the Internet. The provided program is stored in, for example, a storage unit 9 (not shown) of the information terminal 1 and is read and executed by the CPU.

[情報端末における各種処理]
次に、画像解析部20の各部で行われる処理について説明する。
ここでは、エッジ検出処理部21におけるエッジ検出処理、領域分割処理部22における領域分割処理、ラベリング処理部23におけるラベリング処理、および通路領域推定部24における通路領域推定処理について説明する。
[Various processing in information terminals]
Next, processing performed by each unit of the image analysis unit 20 will be described.
Here, the edge detection processing in the edge detection processing unit 21, the area division processing in the area division processing unit 22, the labeling processing in the labeling processing unit 23, and the passage area estimation processing in the passage area estimation unit 24 will be described.

(エッジ検出処理)
エッジ検出処理を行う場合には、例えば、従来から知られているキャニー法を用いる。
キャニー法は、入力された画像データを平滑化した画像データに基づきDoG(Difference of Gaussian)画像データを生成し、このDoG画像に対して細線化処理を行う。そして、細線化処理が行われた画像データに対するヒステリシス閾値処理により、DoG画像データ中に残ったエッジ部分候補のうち、まとめられるものを1つに連結することによってエッジ画像データを生成するという手法である。これにより、エッジ部分の画素値が例えば「255」であり、それ以外の部分の画素値が例えば「0」であるエッジ画像データ、すなわちエッジ部分のみが白画素で構成され、それ以外の部分が黒画素で構成されたエッジ画像データを生成することができる。
(Edge detection processing)
When performing the edge detection processing, for example, a conventionally known Canny method is used.
The Canny method generates DoG (Difference of Gaussian) image data based on image data obtained by smoothing input image data, and performs thinning processing on the DoG image. Then, by performing a hysteresis threshold value process on the image data on which the thinning process has been performed, edge image data is generated by linking, to one, the edge portion candidates remaining in the DoG image data. is there. As a result, edge image data in which the pixel value of the edge portion is, for example, “255” and the pixel value of the other portion is, for example, “0”, that is, only the edge portion is formed of white pixels, and the other portion is Edge image data composed of black pixels can be generated.

なお、エッジ検出処理の方法は、上述したキャニー法を用いる場合に限られない。例えば、入力画像データからエッジを抽出することができれば、これ以外の方法を用いてもよい。   In addition, the method of the edge detection processing is not limited to the case where the above-described Canny method is used. For example, other methods may be used as long as edges can be extracted from the input image data.

図5は、図3のエッジ検出処理部21で生成されるエッジ画像データについて説明するための概略図である。
エッジ検出処理部21は、図5(a)に示す入力画像データに対してエッジ検出処理を行うことにより、図5(b)に示すエッジ画像データを生成する。このエッジ画像データにおいて、エッジとして検出された画素は、例えば画素値が「255」の白画素となる。また、それ以外の画素は、例えば画素値が「0」の黒画素となる。
FIG. 5 is a schematic diagram for describing edge image data generated by the edge detection processing unit 21 in FIG.
The edge detection processing section 21 generates edge image data shown in FIG. 5B by performing an edge detection process on the input image data shown in FIG. In the edge image data, a pixel detected as an edge is, for example, a white pixel having a pixel value of “255”. The other pixels are black pixels having a pixel value of “0”, for example.

(領域分割処理)
領域分割処理を行う場合には、例えば、従来から知られている平均値シフト法(Mean Shift法)を用いるが、これに限らず、入力画像データから複数の分割領域を形成することができれば、平均値シフト法以外の方法を用いてもよい。
(Area division processing)
When performing the area division processing, for example, a conventionally known mean shift method (Mean Shift method) is used. However, the present invention is not limited to this. If a plurality of division areas can be formed from input image data, A method other than the average shift method may be used.

図6は、図3の領域分割処理部22で生成される領域分割画像データについて説明するための概略図である。
領域分割処理部22は、図6(a)に示す入力画像データに対して領域分割処理を行うことにより、図6(b)に示すような、領域毎に同一の画素値を有する画素からなる複数の分割領域が形成された領域分割画像データを生成する。
FIG. 6 is a schematic diagram for explaining the area division image data generated by the area division processing unit 22 in FIG.
The area division processing unit 22 performs the area division processing on the input image data shown in FIG. 6A, and is made up of pixels having the same pixel value for each area as shown in FIG. Area division image data in which a plurality of division areas are formed is generated.

(ラベリング処理)
図7は、図3のラベリング処理部23で行われるラベリング処理について説明するための概略図である。
ラベリング処理は、エッジ画像データおよび領域分割画像データに基づき行われ、領域分割画像データ中の複数に分割されたそれぞれの領域において、同一の領域と判断された領域内の画素に対して同一のラベルを付与する。
(Labeling process)
FIG. 7 is a schematic diagram for explaining the labeling processing performed by the labeling processing unit 23 in FIG.
The labeling process is performed based on the edge image data and the region-divided image data. In each of the plurality of regions in the region-divided image data, the same label is assigned to pixels in the region determined to be the same region. Is given.

具体的には、ラベリング処理では、まず、領域分割画像データに対して左上の画素からラスタスキャンし、ラベルが付与されていない画素(以下、「注目画素」と適宜称する)の探索を行う。
次に、注目画素を検出した場合には、領域分割処理によって得られる画素値等の画素に関する情報に基づき、この注目画素の上下左右に隣接する4つの画素(以下、「4近傍画素」と適宜称する)を調査する。そして、調査した4近傍画素中に、注目画素の画素値と同一または近い画素値を有する対象画素が存在した場合には、この対象画素に付与されたラベルと同一のラベルを注目画素に付与する。
Specifically, in the labeling process, first, the area-divided image data is raster-scanned from the upper left pixel, and a search is made for a pixel to which no label is assigned (hereinafter, appropriately referred to as a “pixel of interest”).
Next, when a target pixel is detected, four pixels adjacent to the target pixel above, below, left, and right (hereinafter, referred to as “four neighboring pixels” as appropriate) based on information about the pixel such as a pixel value obtained by the region division processing. Investigate). Then, when a target pixel having the same or close to the pixel value of the target pixel exists in the four neighboring pixels examined, the same label as the label assigned to the target pixel is assigned to the target pixel. .

ここで、注目画素および対象画素の画素値が近いか否かは、例えば、2つの画素におけるRGB色空間上での各成分R(Red)、G(Green)およびB(Blue)の画素値の差分と、予め設定された距離dとを、以下の式(1)に基づいて比較することによって判断する。なお、式(1)における「i」および「k」は、画像データ中の画素の横方向の座標を示す。また、「j」および「l」は、縦方向の座標を示す。すなわち、例えばR(i,j)は、座標(i,j)の画素におけるR成分の画素値を示す。   Here, whether or not the pixel values of the target pixel and the target pixel are close is determined, for example, by determining the pixel values of the components R (Red), G (Green), and B (Blue) in the RGB color space of the two pixels. The determination is made by comparing the difference with a preset distance d based on the following equation (1). Note that “i” and “k” in Expression (1) indicate the horizontal coordinates of the pixels in the image data. “J” and “l” indicate vertical coordinates. That is, for example, R (i, j) indicates the pixel value of the R component in the pixel at the coordinates (i, j).

Figure 0006653507
Figure 0006653507

2つの画素におけるR、GおよびBの各成分の画素値の差分が式(1)を満足する場合には、注目画素および対象画素の色が同一または近いと判断し、対象画素に付与されたラベルと同一のラベルを注目画素に付与する。   When the difference between the pixel values of the R, G, and B components of the two pixels satisfies the expression (1), it is determined that the colors of the target pixel and the target pixel are the same or close, and the color is assigned to the target pixel. The same label as the label is assigned to the target pixel.

なお、注目画素に対する4近傍画素を調査する際には、エッジ画像データを参照し、エッジ画像中のエッジを形成しているエッジ画素の座標に対応する座標上の画素を、調査の対象から除外する。すなわち、注目画素に対する4近傍画素中にエッジ画素が含まれる場合、このエッジ画素の画素値については考慮しないようにする。これは、エッジ画素によって形成されたエッジが分割された各領域の境界を示すためである。   When examining the four neighboring pixels for the pixel of interest, reference is made to the edge image data, and pixels on coordinates corresponding to the coordinates of the edge pixels forming the edge in the edge image are excluded from the survey target. I do. That is, when an edge pixel is included in the four neighboring pixels with respect to the target pixel, the pixel value of the edge pixel is not considered. This is because the edge formed by the edge pixels indicates the boundary of each divided region.

このようにして領域分割画像データ中のすべての画素に対してラベルを付与することにより、図7(c)に示すように、分割されたラベリング領域毎に異なるラベルを付与することができる。
また、画素値が近い画素に対して同一のラベルを付与することにより、本来同一の領域とされるべきであるにもかかわらず分割されてしまっていた領域同士を、同一のラベリング領域とすることができる。
By assigning labels to all the pixels in the area-divided image data in this manner, different labels can be assigned to the divided labeling areas as shown in FIG. 7C.
In addition, by assigning the same label to pixels having similar pixel values, areas that have been divided even though they should be originally the same area can be set as the same labeling area. Can be.

(通路領域推定処理)
通路領域推定処理では、ラベリング処理によってラベルが付与されたそれぞれのラベリング領域のうち、どのラベリング領域が通路領域であるのかを推定する。
ここでは、通路領域推定処理について説明する前に、まず、施設内の通路がどのようなものであるのかについて説明する。
(Passage area estimation processing)
In the passage area estimation processing, it is estimated which of the labeling areas labeled by the labeling processing is the passage area.
Here, before describing the passage area estimation process, first, what the passage in the facility looks like will be described.

通常、複数の店舗が収容された施設においては、ユーザが店舗間を自由に行き来できるように通路が設けられている。そして、このような通路は、以下に示すような第1〜第3の特徴を有しているものと推定することができる。   Usually, in a facility where a plurality of stores are accommodated, a passage is provided so that a user can freely move between stores. Then, it can be estimated that such a passage has the following first to third features.

第1の特徴は、通路の「面積」である。
上述したように、通路は、ユーザが店舗間を自由に行き来できるようにするために設けられている。そのため、通路は、施設内の各店舗に必ず隣接するように設けられており、また、ほとんどの通路が連続した領域を形成している。従って、通路領域は、各店舗等の領域よりも大きいものと考えることができる。
The first feature is the "area" of the passage.
As described above, the passage is provided to allow the user to freely move between stores. Therefore, the passage is provided so as to be always adjacent to each store in the facility, and almost all the passages form a continuous area. Therefore, the passage area can be considered to be larger than the area of each store or the like.

第2の特徴は、施設内に設置された案内板における通路の「色」である。
通常の案内板では、施設内に複数の通路が設けられている場合でも、同一の色を用いて複数の通路を表示することが多い。そのため、例えば、案内板に基づく画像データ中に、面積の大きさの差が小さい2つの領域が存在している場合で、これら2つの領域の色の差が小さいときには、両方の領域がともに通路領域であると考えることができる。
The second feature is the “color” of the passage in the guide plate installed in the facility.
In a normal guide board, even when a plurality of passages are provided in a facility, the plurality of passages are often displayed using the same color. Therefore, for example, in a case where two areas having a small area difference exist in the image data based on the guide board, and when the color difference between these two areas is small, both areas are in the path. Area.

第3の特徴は、「通路を囲む矩形の面積」である。
第1の特徴でも説明したように、通路は、施設内の各店舗に必ず隣接するように設けられている。また、このような通路は、通常、施設全体に行き渡るように設けられている。そのため、通路領域全体を囲むような矩形を考えた場合、この面積は、店舗等のそれぞれの領域を囲むような矩形の面積よりも大きいものと考えることができる。
このとき設定される矩形は、通路領域の「最大横長さ」および「最大縦長さ」によって定義することができる。「最大横長さ」は、通路領域における画像座標系でのx軸方向の最大座標値および最小座標値の差によって得ることができる。また、「最大縦長さ」は、当該通路領域における画像座標系でのy軸方向の最大座標値および最小座標値の差によって得ることができる。なお、このように定義された矩形は、すべての辺において通路領域の一部と接するため、以下の説明では、「通路を囲む矩形」を「外接矩形」と適宜称するものとする。
A third feature is “a rectangular area surrounding the passage”.
As described in the first feature, the passage is provided so as to be always adjacent to each store in the facility. Further, such a passage is usually provided so as to reach the entire facility. Therefore, when considering a rectangle that surrounds the entire passage area, this area can be considered to be larger than the area of the rectangle that surrounds each area such as a store.
The rectangle set at this time can be defined by the “maximum horizontal length” and the “maximum vertical length” of the passage area. The “maximum horizontal length” can be obtained from the difference between the maximum coordinate value and the minimum coordinate value in the x-axis direction in the image coordinate system in the passage area. The “maximum vertical length” can be obtained from the difference between the maximum coordinate value and the minimum coordinate value in the y-axis direction in the image coordinate system in the passage area. In addition, since the rectangle defined as described above is in contact with a part of the passage area on all sides, in the following description, the “rectangle surrounding the passage” will be appropriately referred to as “circumscribed rectangle”.

そこで、本実施の形態1では、ラベルが付与された各ラベリング領域において、上述した第1〜第3の特徴を順次比較することにより、画像データ中の通路領域を推定する。   Therefore, in the first embodiment, the passage area in the image data is estimated by sequentially comparing the above-described first to third features in each of the labeling areas to which the labels are added.

図8は、図3の通路領域推定部24で行われる通路領域推定処理の流れの一例を示すフローチャートである。
まず、ステップS1において、通路領域推定部24は、領域毎にラベルが付与されたラベリング画像データから、面積が最大となる第1のラベリング領域Lと、この第1のラベリング領域Lの次に面積が大きい第2のラベリング領域Lを抽出する。
FIG. 8 is a flowchart illustrating an example of the flow of the passage area estimation process performed by the passage area estimation unit 24 in FIG.
First, in step S1, the passage area estimation unit 24, the labeling image data label is assigned to each region, a first labeling region L 1 which area is maximized, the first labeling region L 1 following area is extracted second labeling region L 2 large.

次に、通路領域推定部24は、第1のラベリング領域Lの面積を示す画素数と、第2のラベリング領域Lの面積を示す画素数に予め設定された係数αを乗じた値とを比較し、式(2)を満足するか否かを判断する(ステップS2)。ここでは、上述した第1の特徴についての判断を行う。なお、式(2)における「L」および「L」は、第1のラベリング領域Lおよび第2のラベリング領域Lの画素数を示す。また、係数αは、1より大きい値とする。 Next, the passage area estimation unit 24, the number of pixels of a first area of the labeling region L 1, and a value obtained by multiplying a coefficient which is previously set to the number of pixels α indicating the second area of the labeling region L 2 And it is determined whether or not Expression (2) is satisfied (step S2). Here, the above-described first feature is determined. Note that “L 1 ” and “L 2 ” in Expression (2) indicate the number of pixels in the first labeling area L 1 and the second labeling area L 2 . The coefficient α is a value larger than 1.

Figure 0006653507
Figure 0006653507

式(2)を満足すると判断した場合(ステップS2;Yes)、通路領域推定部24は、第1のラベリング領域Lが通路領域であると判断し、第1のラベリング領域Lが通路領域であることを示す通路情報を含む画像情報を出力する(ステップS3)。
一方、式(2)を満足しないと判断した場合(ステップS2;No)には、処理がステップS4に移行する。
If it is determined to satisfy equation (2) (Step S2; Yes), the passage area estimation unit 24, a first labeling region L 1 is determined to be the passage area, the first labeling region L 1 a passage area Is output (step S3).
On the other hand, when it is determined that Expression (2) is not satisfied (Step S2; No), the process proceeds to Step S4.

次に、通路領域推定部24は、第1のラベリング領域Lおよび第2のラベリング領域Lの色について、式(3)を満足するか否かを判断する(ステップS4)。ここでは、上述した第2の特徴についての判断を行う。なお、式(3)における「L」および「L」は、第1のラベリング領域Lおよび第2のラベリング領域L内のすべての画素における画素値の平均を示す。 Next, the passage area estimation unit 24, the first labeling region L 1 and the second color labeling region L 2, determines whether to satisfy Equation (3) (step S4). Here, the above-described second feature is determined. Note that “L 1 ” and “L 2 ” in Expression (3) indicate the average of the pixel values of all the pixels in the first labeling area L 1 and the second labeling area L 2 .

Figure 0006653507
Figure 0006653507

式(3)を満足すると判断した場合(ステップS4;Yes)、通路領域推定部24は、第1のラベリング領域Lおよび第2のラベリング領域Lが通路領域であると判断し、第1のラベリング領域Lおよび第2のラベリング領域Lが通路領域であることを示す通路情報を含む画像情報を出力する(ステップS5)。
一方、式(3)を満足しないと判断した場合(ステップS4;No)には、処理がステップS6に移行する。
If it is determined to satisfy the equation (3) (step S4; Yes), the passage area estimation unit 24, a first labeling region L 1 and the second labeling region L 2 is determined to be the passage area, the first labeling region L 1 and the second labeling region L 2 and outputs the image information including the path information indicating a path area of the (step S5).
On the other hand, when it is determined that Expression (3) is not satisfied (Step S4; No), the process proceeds to Step S6.

ステップS6において、通路領域推定部24は、第1のラベリング領域Lおよび第2のラベリング領域Lのそれぞれを囲む外接矩形の面積を示す画素数を比較し、式(4)を満足するか否かを判断する。ここでは、上述した第3の特徴についての判断を行う。なお、式(4)における「L」は、第1のラベリング領域Lを囲む外接矩形の領域における画素数を示す。また、「L」は、第2のラベリング領域Lを囲む外接矩形の領域における画素数を示す。 In step S6, whether the passage area estimation unit 24 compares the number of pixels indicating the area of the circumscribed rectangle surrounding the respective first labeling region L 1 and the second labeling region L 2, satisfying the formula (4) Determine whether or not. Here, the above-described third feature is determined. Note that “L 1 ” in Expression (4) indicates the number of pixels in a circumscribed rectangular area surrounding the first labeling area L 1 . “L 2 ” indicates the number of pixels in a circumscribed rectangular area surrounding the second labeling area L 2 .

Figure 0006653507
Figure 0006653507

式(4)を満足すると判断した場合(ステップS6;Yes)、通路領域推定部24は、第1のラベリング領域Lが通路領域であると判断し、第1のラベリング領域Lが通路領域であることを示す通路情報を含む画像情報を出力する(ステップS7)。
一方、式(4)を満足しないと判断した場合(ステップS6;No)、通路領域推定部24は、第2のラベリング領域Lが通路領域であると判断し、第2のラベリング領域Lが通路領域であることを示す通路情報を含む画像情報を出力する(ステップS8)。
If it is determined to satisfy the equation (4) (Step S6; Yes), the passage area estimation unit 24, a first labeling region L 1 is determined to be the passage area, the first labeling region L 1 a passage area Is output (step S7).
On the other hand, when it is determined not to satisfy the equation (4) (Step S6; No), the passage area estimation unit 24, the second labeling region L 2 is determined to be channel area, the second labeling region L 2 Is output as image information including path information indicating that the area is a path area (step S8).

次に、位置推定部30で行われる位置推定処理について説明する。
なお、ここでは、位置推定部30を構成する粒子初期化部32、予測計算部33、尤度計算部34、リサンプリング部35および位置計算部36のそれぞれで行われる処理を含む全体的な処理を総称して「位置推定処理」と称する。
Next, a position estimation process performed by the position estimation unit 30 will be described.
Here, the overall processing including the processing performed by each of the particle initialization unit 32, the prediction calculation unit 33, the likelihood calculation unit 34, the resampling unit 35, and the position calculation unit 36 included in the position estimation unit 30 Are collectively referred to as “position estimation processing”.

(粒子の状態)
まず、各部で行われる処理を説明する前に、位置推定処理を行う際に用いられる粒子について説明する。
位置推定部30では、上述したように粒子フィルタを用い、現在位置と推定された範囲内に複数の粒子を配置する。また、位置推定部30は、配置された複数の粒子を情報端末1の移動に応じて移動させることにより、移動後の現在位置を推定する。
(Particle state)
First, before describing the processing performed by each unit, the particles used when performing the position estimation processing will be described.
The position estimating unit 30 uses the particle filter as described above, and arranges a plurality of particles within the range estimated as the current position. Further, the position estimating unit 30 estimates the current position after the movement by moving the plurality of arranged particles in accordance with the movement of the information terminal 1.

DR処理部31におけるスマートPDR処理によってk番目のステップイベントが検出された場合、複数の粒子のそれぞれは、式(5)に示す状態sを有している。
なお、式(5)において、「x」および「y」は、画像座標系(ICS;Image Coordinate System)における粒子の位置である座標を示す。また、「mpp(meter per pixel)」は、1画素あたりのグローバル座標系(GCS;Global Coordinate System)における距離、すなわち画像データである屋内地図データの縮尺を示す。「θ」は、画像座標系におけるx軸方向をグローバル座標系に変換した際の方位を示す。
If k-th step event is detected by the smart PDR process in DR processor 31, each of the plurality of particles has a state s k shown in equation (5).
In Equation (5), “x k ” and “y k ” indicate coordinates that are the positions of particles in an image coordinate system (ICS). “Mppp k (meter per pixel)” indicates a distance in a global coordinate system (GCS) per pixel, that is, a scale of indoor map data that is image data. “Θ k ” indicates the azimuth when the x-axis direction in the image coordinate system is converted to the global coordinate system.

Figure 0006653507
Figure 0006653507

本実施の形態1では、式(5)のように示される粒子の状態に含まれる各種の情報を用いることにより、情報端末1の位置を推定する。   In the first embodiment, the position of the information terminal 1 is estimated by using various types of information included in the state of the particles represented by Expression (5).

次に、粒子初期化部32における粒子初期化処理、予測計算部33における予測計算処理、尤度計算部34における尤度計算処理、リサンプリング部35におけるリサンプリング処理、および位置計算部36における位置計算処理について説明する。   Next, a particle initialization process in the particle initialization unit 32, a prediction calculation process in the prediction calculation unit 33, a likelihood calculation process in the likelihood calculation unit 34, a resampling process in the resampling unit 35, and a position in the position calculation unit 36 The calculation process will be described.

(粒子初期化処理)
位置推定部30で行われる位置推定処理を最初に行う際には、屋内地図データ上での情報端末1の初期位置が不明である。そこで、この粒子初期化処理では、情報端末1の初期位置を推定し、この初期位置に対応する、予め設定された数の複数の粒子を配置するための処理を行う。
ここで、複数の粒子のうちi番目の粒子における初期状態s (i)は、上述した式(5)に基づき、式(6)のように示すことができる。なお、粒子の初期状態を示す各種の値に付された「(i)」は、その値がi番目の粒子のものであることを示す。
(Particle initialization processing)
When the position estimating process performed by the position estimating unit 30 is performed first, the initial position of the information terminal 1 on the indoor map data is unknown. Therefore, in the particle initialization process, the initial position of the information terminal 1 is estimated, and a process for arranging a predetermined number of particles corresponding to the initial position is performed.
Here, the initial state s 0 (i) of the i-th particle among the plurality of particles can be expressed as in Expression (6) based on Expression (5) described above. Note that “(i)” given to various values indicating the initial state of the particles indicates that the value is that of the i-th particle.

Figure 0006653507
Figure 0006653507

粒子初期化処理は、例えばユーザによって情報端末1の現在位置が指定されることによって行われる。具体的には、まず、ユーザが情報端末1の表示部4に表示された屋内地図データ上の2点をタップすることにより、情報端末1の現在位置が指定される。ここで、「タップ」とは、ユーザが指等を表示部4に接触させることをいう。   The particle initialization process is performed, for example, when the current position of the information terminal 1 is designated by a user. Specifically, first, the user taps two points on the indoor map data displayed on the display unit 4 of the information terminal 1, whereby the current position of the information terminal 1 is designated. Here, “tap” means that the user touches the display unit 4 with a finger or the like.

まず、本実施の形態1における位置推定を行う際には、情報端末1の表示部4に表示された屋内地図データ上の現在位置に対応する位置がユーザによってタップされる。その後、ユーザが任意の歩数だけ移動した際に、移動先の現在位置に対応する屋内地図データ上の位置がタップされる。   First, when performing position estimation in the first embodiment, the user taps a position corresponding to the current position on the indoor map data displayed on the display unit 4 of the information terminal 1. Thereafter, when the user moves by an arbitrary number of steps, the position on the indoor map data corresponding to the current position of the movement destination is tapped.

図9は、図4の粒子初期化部32で行われる粒子初期化処理について説明するための概略図である。
ユーザによってタップされた屋内地図データ上の2つ地点におけるそれぞれの座標は、図9のように示すことができるが、タップされた地点は、実際の地点からずれている可能性がある。そのため、n点目のタップの際に実際の地点に位置する確率Pは、このようなずれをガウス分布Nのエラーモデルとした場合に、式(7)に基づき算出することができる。なお、式(7)における「σtap」は、ガウス分布Nの分散を示す。
FIG. 9 is a schematic diagram for explaining the particle initialization processing performed by the particle initialization unit 32 of FIG.
The respective coordinates at two points on the indoor map data tapped by the user can be shown as in FIG. 9, but the tapped point may be shifted from the actual point. Therefore, the probability P of being located at the actual point at the time of tapping the n-th point can be calculated based on Expression (7) when such a deviation is used as an error model of the Gaussian distribution N. Note that “σ tap ” in Expression (7) indicates the variance of the Gaussian distribution N.

Figure 0006653507
Figure 0006653507

そして、タップされた2点間の距離ltapおよび方位θtapは、式(8)に基づき算出することができる。 Then, the distance l tap and the azimuth θ tap between the tapped two points can be calculated based on Expression (8).

Figure 0006653507
Figure 0006653507

一方、1点目をタップしてから2点目をタップするまでの間に、k´回のステップイベントが検出された場合、情報端末1がグローバル座標系におけるx軸方向およびy軸方向に移動した距離は、式(9)に基づき算出することができる。なお、式(9)における「l」は、s回目のステップにおける歩幅を示す。また、「h」は、s回目のステップにおける進行方向を示す。これらの値は、スマートPDR処理によって得られるDR情報に基づいて取得することができる。 On the other hand, if k ′ number of step events are detected between the tap of the first point and the tap of the second point, the information terminal 1 moves in the x-axis direction and the y-axis direction in the global coordinate system. The calculated distance can be calculated based on equation (9). It should be noted that, "l s" in the formula (9), show a stride in the s-th step. “H s ” indicates the traveling direction in the s-th step. These values can be obtained based on the DR information obtained by the smart PDR processing.

Figure 0006653507
Figure 0006653507

また、1点目をタップしてから2点目をタップするまでの間に、実際に情報端末1が移動した距離lmoveおよび方位θmoveは、式(9)を用いて式(10)に基づき算出することができる。なお、この距離lmoveおよび方位θmoveは、DR処理部31におけるスマートPDR処理によって算出される。 Further, the distance l move and the azimuth θ move that the information terminal 1 has actually moved from tapping the first point to tapping the second point can be calculated by using the equation (9) and the equation (10). It can be calculated on the basis of: The distance l move and the azimuth θ move are calculated by the smart PDR process in the DR processing unit 31.

Figure 0006653507
Figure 0006653507

従って、式(6)に示すi番目の粒子における初期状態sは、式(7)〜式(10)に基づき、式(11)のように算出することができる。これにより、初期位置での縮尺および方位に関する情報を取得することができる。
なお、式(11)において、i番目の粒子における初期状態の座標x (i)およびy (i)は、2点目にタップされた際の画像座標系での座標(xtap,2 ICS(i),ytap,2 ICS(i))に基づき算出される。この座標(xtap,2 ICS(i),ytap,2 ICS(i))は、2点目をタップした際の画像座標系での座標(xtap,2 ICS´,ytap,2 ICS´)の値に、式(7)を用いてノイズを付加することによって算出することができる。また、距離ltap (i)および方位θtap (i)は、式(7)によってノイズが付加された画像座標系でのタップ地点の座標(xtap,1 ICS(i),ytap,1 ICS(i))および(xtap,2 ICS(i),ytap,2 ICS(i))に基づき、式(8)を用いて算出することができる。
Thus, the initial state s k at the i-th particle shown in equation (6), based formula (7) to Formula (10) can be calculated by the equation (11). This makes it possible to obtain information on the scale and the azimuth at the initial position.
In equation (11), the coordinates x 0 (i) and y 0 (i ) of the i-th particle in the initial state are coordinates (x tap, 2 ) in the image coordinate system when the second point is tapped. ICS (i) , y tap, 2 ICS (i) ). The coordinates (x tap, 2 ICS (i) , y tap, 2 ICS (i) ) are the coordinates (x tap, 2 ICS ′, y tap, 2 ICS ) in the image coordinate system when the second point is tapped. The value can be calculated by adding noise to the value of ') using equation (7). The distance l tap (i) and the azimuth θ tap (i) are the coordinates (x tap, 1 ICS (i) , y tap, 1 ) of the tap point in the image coordinate system to which noise is added according to equation (7). ICS (i) ) and (x tap, 2 ICS (i) , y tap, 2 ICS (i) ), and can be calculated using equation (8).

Figure 0006653507
Figure 0006653507

粒子初期化処理では、このようにして得られる算出結果に基づき、初期状態の粒子を配置する。そして、粒子初期化処理では、式(11)による計算を複数回行うことによって複数の粒子の状態を算出し、算出結果に応じた位置に複数の粒子を配置する。このときの複数の粒子は、2点目にタップされた位置の周囲に配置されることになる。   In the particle initialization processing, particles in an initial state are arranged based on the calculation results obtained in this manner. Then, in the particle initialization processing, the state of a plurality of particles is calculated by performing the calculation according to Expression (11) a plurality of times, and the plurality of particles are arranged at positions corresponding to the calculation results. The plurality of particles at this time are arranged around the position tapped at the second point.

(予測計算処理)
予測計算処理は、情報端末1が移動した場合に、初期値として配置されている複数の粒子の移動先を推定する処理である。この処理は、例えばユーザが1歩歩く毎に行われる。
具体的には、予測計算部33は、スマートPDR処理によってステップイベントが検出されると、このスマートPDR処理によって得られるDR情報に基づき、ステップイベント後におけるそれぞれの粒子の状態を算出して推定する。そして、予測計算部33は、推定結果に応じた位置にそれぞれの粒子を配置する。
(Forecast calculation processing)
The prediction calculation process is a process of estimating a destination of a plurality of particles arranged as an initial value when the information terminal 1 moves. This process is performed, for example, every time the user walks one step.
Specifically, when a step event is detected by the smart PDR process, the prediction calculation unit 33 calculates and estimates the state of each particle after the step event based on the DR information obtained by the smart PDR process. . Then, the prediction calculation unit 33 arranges each particle at a position corresponding to the estimation result.

例えば、k回目のステップイベント後におけるi番目の粒子の状態は、式(12)で表すことができる。   For example, the state of the i-th particle after the k-th step event can be represented by Expression (12).

Figure 0006653507
Figure 0006653507

また、式(12)にける各値は、式(13)に基づき算出することができる。なお、式(13)において、縮尺mpp (i)および方位θ (i)には、ガウス分布Nをノイズとしてそれぞれの値に加算している。これにより、複数の粒子のそれぞれが、次に移動する際に、互いに異なる距離および方向に移動することになる。 Further, each value in the equation (12) can be calculated based on the equation (13). In equation (13), the Gaussian distribution N is added to each value as noise for the scale mpp k (i) and the azimuth θ k (i) . Accordingly, the next time each of the plurality of particles moves, they move at different distances and directions.

Figure 0006653507
Figure 0006653507

このようにして、予測計算処理では、すべての粒子に対する状態を算出し、算出結果に応じた位置に複数の粒子を移動させる。   In this way, in the prediction calculation processing, the state for all particles is calculated, and a plurality of particles are moved to positions according to the calculation results.

(尤度計算処理)
尤度計算処理は、予測計算処理の結果に応じて移動した粒子に対して尤度を設定するための処理である。
例えば、ユーザが施設内を移動する場合には、通常、通路を移動するので、ユーザが携帯している情報端末1も通路領域内を移動することになる。そのため、予測計算処理による推定結果に基づいて移動した複数の粒子のうち、屋内地図データ中の通路領域以外の非通路領域に移動したり、壁などの領域を通過したりする粒子は、推定結果として適切ではない。
そこで、この尤度計算処理では、画像解析部20によって得られた画像情報に含まれる通路情報に基づき、予測計算処理の推定結果に応じて移動した複数の粒子のうち、適切でない移動を行う粒子を除外する処理を行う。
(Likelihood calculation processing)
The likelihood calculation process is a process for setting a likelihood for a particle that has moved according to the result of the prediction calculation process.
For example, when a user moves in a facility, the user usually moves in a passage, so that the information terminal 1 carried by the user also moves in the passage area. Therefore, among the plurality of particles that have moved based on the estimation result obtained by the prediction calculation process, the particles that move to a non-passage area other than the passage area in the indoor map data or pass through an area such as a wall are the estimation results. Not as appropriate.
Therefore, in the likelihood calculation process, based on the path information included in the image information obtained by the image analysis unit 20, a particle that moves improperly among a plurality of particles that have moved according to the estimation result of the prediction calculation process Is performed.

粒子に対して尤度を設定する場合には、例えば、それぞれの粒子に対して重み付けを行う。情報端末1が通路領域から外れないと仮定した場合に、複数の粒子のうちi番目の粒子に対する重みw(i)は、式(14)で算出することができる。このような重み付けは、例えば、配置されている複数の粒子のそれぞれの座標情報と、通路領域の座標情報とを比較し、粒子が通路領域内に位置するか否かを判断することによって行われる。なお、式(14)における値「M」は、この処理によって除外されなかった粒子の数を示す。 When setting the likelihood for particles, for example, weighting is performed for each particle. Assuming that the information terminal 1 does not deviate from the passage area, the weight w (i) for the i-th particle among the plurality of particles can be calculated by Expression (14). Such weighting is performed, for example, by comparing the coordinate information of each of the plurality of arranged particles with the coordinate information of the passage area, and determining whether the particle is located in the passage area. . The value “M” in Expression (14) indicates the number of particles that have not been excluded by this processing.

Figure 0006653507
Figure 0006653507

このように、通路領域外に配置された粒子に対して値が「0」となる重みw(i)を付加することにより、適切でない動作をした粒子を、位置推定処理から除外することができる。 As described above, by adding the weight w (i) having a value of “0” to particles arranged outside the passage area, particles that have performed inappropriate operations can be excluded from the position estimation processing. .

なお、この例では、除外されなかった複数の粒子に対して付加される重みw(i)の値を一様としているが、これに限らず、例えば粒子毎に異なる値の重みw(i)を付加してもよい。具体的には、例えば、動きが実際の情報端末1の動きにより近い粒子に対して、他の粒子よりも値の大きい重みw(i)を付加する。これにより、位置推定の精度をより向上させることができる。 In this example, the value of the weight w (i) added to a plurality of particles that have not been excluded is made uniform. However, the present invention is not limited to this. For example, the weight w (i) of a different value for each particle May be added. Specifically, for example, a weight w (i) having a larger value than other particles is added to particles whose movement is closer to the actual movement of the information terminal 1. Thereby, the accuracy of position estimation can be further improved.

(リサンプリング処理)
リサンプリング処理は、尤度計算処理によって除外されなかった粒子に基づき、初期値として配置された複数の粒子と同数の粒子を再配置する処理である。
このリサンプリング処理では、まず、残った複数の粒子から1つの粒子だけを選択し、選択した粒子を複製する。そして、複製された粒子を、この粒子が有する状態に含まれる座標情報が示す屋内地図データ上での位置に再配置する。このとき、粒子の選択は、尤度分布に基づき行われ、例えば、それぞれに付加された重みw(i)の値が大きい粒子ほど、選択される可能性が高くなる。ただし、この例では、残った粒子に対する重みの値が一様であるため、選択される粒子はランダムとなる。
(Resampling process)
The resampling process is a process of rearranging the same number of particles as a plurality of particles arranged as initial values, based on particles not excluded by the likelihood calculation process.
In this resampling process, first, only one particle is selected from the plurality of remaining particles, and the selected particle is duplicated. Then, the copied particles are rearranged at the position on the indoor map data indicated by the coordinate information included in the state of the particles. At this time, the selection of the particle is performed based on the likelihood distribution. For example, a particle having a larger value of the weight w (i) added to each particle is more likely to be selected. However, in this example, since the weight values for the remaining particles are uniform, the selected particles are random.

次に、リサンプリング処理では、上述したような1つの粒子だけを選択するとともに、選択された粒子を複製して再配置する処理を、再配置された粒子の数が粒子初期化処理によって配置された粒子の数と同数となるまで繰り返す。これにより、残った粒子を利用して、最初に配置された粒子数と同数の粒子を得ることができる。そして、予め設定された数の粒子が再配置されると、複製に利用した、尤度計算処理によって残った粒子を破棄する。   Next, in the resampling process, the process of selecting only one particle as described above and duplicating and rearranging the selected particle is performed, and the number of rearranged particles is allocated by the particle initialization process. Repeat until the number is equal to the number of particles. This makes it possible to obtain the same number of particles as the number of initially arranged particles by using the remaining particles. When a predetermined number of particles are rearranged, the particles used for the duplication and remaining by the likelihood calculation processing are discarded.

このようにして得られた複数の粒子は、予測計算部33に対して出力され、次のステップイベントが発生した際の予測計算処理における粒子の初期値として用いられる。   The plurality of particles thus obtained are output to the prediction calculation unit 33 and used as initial values of the particles in the prediction calculation processing when the next step event occurs.

(位置計算処理)
位置計算処理は、情報端末1の推定現在位置を決定するための処理である。
この位置計算処理は、尤度計算処理によって残った複数の粒子の位置および方位を含む状態を示す情報に基づき、例えば配置されているそれぞれの粒子の平均または重心の位置および方位を推定現在位置として決定する。
(Position calculation processing)
The position calculation process is a process for determining the estimated current position of the information terminal 1.
This position calculation process is based on information indicating a state including the position and orientation of a plurality of particles left by the likelihood calculation process, and for example, the average or the position of the center of gravity of each of the arranged particles and the orientation and orientation as the estimated current position. decide.

[位置推定処理による動作]
図10は、実施の形態1に係る位置推定処理について説明するための概略図である。
まず、図10(a)に示すように、予測計算部33の予測計算処理により、実際の現在位置に対する現在位置の範囲Rが推定されているものとする。この場合には、図10(b)に示すように、範囲R内に複数の粒子sが配置されている。
[Operation by position estimation processing]
FIG. 10 is a schematic diagram for describing the position estimation processing according to Embodiment 1.
First, as shown in FIG. 10A, it is assumed that the prediction calculation process of the prediction calculation unit 33 has estimated the range R of the current position with respect to the actual current position. In this case, a plurality of particles s are arranged in the range R as shown in FIG.

次に、図10(c)に示すように、情報端末1を携帯しているユーザが移動する。このとき、スマートPDR処理によってステップイベントが検出される毎に、予測計算部33の予測計算処理により、配置されているそれぞれの粒子sの移動距離および方位が推定される。そして、図10(d)に示すように、それぞれの粒子sが推定結果に基づいて移動する。
次に、尤度計算部34における尤度計算処理により、それぞれの粒子sに対して尤度を設定し、図10(e)に示すように、適切でない動きによって移動した粒子sを除外する。この例では、通路間の壁に相当する領域を通過した粒子sが、適切でない動きを行ったと判断され、除外される。
Next, as shown in FIG. 10C, the user carrying the information terminal 1 moves. At this time, every time a step event is detected by the smart PDR process, the prediction calculation process of the prediction calculation unit 33 estimates the moving distance and the direction of each of the arranged particles s. Then, as shown in FIG. 10D, each particle s moves based on the estimation result.
Next, the likelihood is set for each particle s by the likelihood calculation processing in the likelihood calculation unit 34, and as shown in FIG. 10 (e), the particle s moved by an inappropriate motion is excluded. In this example, the particles s that have passed through the area corresponding to the wall between the passages are determined to have performed an inappropriate movement and are excluded.

最後に、リサンプリング部35におけるリサンプリング処理により、図10(f)に示すように、残ったすべての粒子sを利用して、粒子初期化処理によって配置された粒子の数と同数の複数の粒子sを再配置する。   Finally, by the resampling process in the resampling unit 35, as shown in FIG. 10F, a plurality of particles having the same number as the number of particles arranged by the particle initialization process are used by using all the remaining particles s. Rearrange the particles s.

以上のように、本実施の形態1に係る情報端末1は、環境情報を取得し、センサ情報として出力するセンサと、ユーザが通行する領域である通路領域および通路領域とは異なる非通路領域を含む複数の領域を有する地図データを表示する表示部4と、ユーザの操作に応じた操作信号を出力する操作部5と、地図データ上での自装置の位置を推定する位置推定部30を有するとともに、推定された自装置の位置を示す表示を地図データに重畳させて表示部4に表示させる制御部10とを備えている。また、位置推定部30は、センサから出力されたセンサ情報に基づき、地図データ上での自装置の現在位置を推定するためのDR情報を出力し、DR情報、および操作部5を介して入力された地図データ上での位置を示す情報に基づき、地図データの縮尺に関する情報および方位に関する情報を取得し、DR情報、縮尺に関する情報および方位に関する情報に基づき、自装置が移動する位置を推定する。   As described above, the information terminal 1 according to the first embodiment acquires the environmental information and outputs the sensor information as the sensor, the passage area that is the area where the user passes, and the non-passage area different from the passage area. A display unit 4 for displaying map data having a plurality of areas including a plurality of areas, an operation unit 5 for outputting an operation signal according to a user operation, and a position estimating unit 30 for estimating the position of the own device on the map data. And a control unit 10 for superimposing a display indicating the estimated position of the own device on the map data and displaying the map data on the display unit 4. Further, the position estimating unit 30 outputs DR information for estimating the current position of the own device on the map data based on the sensor information output from the sensor, and inputs the DR information and the DR information via the operation unit 5. Based on the information indicating the position on the map data, the information on the scale and the information on the direction of the map data are obtained, and the position to which the own device moves is estimated based on the DR information, the information on the scale and the information on the direction. .

このように、本実施の形態1では、各種センサからのセンサ情報に基づき得られるDR情報を用いて、地図データの縮尺および方位に関する情報を取得し、取得した縮尺および方位に関する情報に基づき、情報端末1の位置を推定する。そのため、縮尺および方位が不明な屋内地図データを用いて情報端末1の位置を推定する場合であっても、地図データの縮尺および方位に関する情報を取得することができ、情報端末1の位置を正確に推定することができる。   As described above, in the first embodiment, the information on the scale and the direction of the map data is obtained using the DR information obtained based on the sensor information from the various sensors, and the information is obtained based on the information on the obtained scale and the direction. The position of the terminal 1 is estimated. Therefore, even when the position of the information terminal 1 is estimated using indoor map data whose scale and orientation are unknown, information on the scale and orientation of the map data can be obtained, and the position of the information terminal 1 can be accurately determined. Can be estimated.

また、位置推定部30は、DR情報に基づき、操作部5を介して入力された地図データ上での位置の周囲に、座標に関する情報、縮尺に関する情報、および方位に関する情報を少なくとも含む状態を有する複数の粒子を初期値として配置する粒子初期化部32と、DR情報に基づき、配置された複数の粒子が自装置の移動に応じて移動する位置を推定して移動させる予測計算部33と、移動した複数の粒子のうち、非通路領域に移動した粒子を除外する尤度計算部34と、尤度計算部34の処理によって残った複数の粒子に基づき、現在位置を推定する位置計算部36と、尤度計算部34の処理によって残った複数の粒子に基づき、初期値の複数の粒子と同数の粒子を、粒子の状態に含まれる座標に関する情報が示す位置に再配置するリサンプリング部35とを有し、予測計算部33は、リサンプリング部35によって再配置された複数の粒子を次回の処理の初期値として用いている。   Further, the position estimating unit 30 has a state including at least information on coordinates, information on scale, and information on azimuth around a position on the map data input via the operation unit 5 based on the DR information. A particle initialization unit 32 that arranges a plurality of particles as initial values, a prediction calculation unit 33 that estimates and moves the position at which the arranged particles move according to the movement of the own device based on the DR information, A likelihood calculating unit 34 for excluding the particles that have moved to the non-passage region from the plurality of particles that have moved, and a position calculating unit 36 that estimates the current position based on the plurality of particles remaining by the processing of the likelihood calculating unit 34. Based on the plurality of particles left by the processing of the likelihood calculation unit 34, the same number of particles as the plurality of particles of the initial value are relocated to the position indicated by the information on the coordinates included in the state of the particle. And a ring portion 35, the prediction calculating unit 33 uses a plurality of particles which are rearranged by the re-sampling unit 35 as the initial value of the next process.

このように、本実施の形態1では、DR処理部31からのDR情報に基づき、縮尺および方位に関する情報を含む状態を有する複数の粒子を初期値として配置し、この複数の粒子に基づき、情報端末1の移動に応じて複数の粒子を移動させる。そのため、縮尺および方位が不明な屋内地図データを用いて情報端末1の位置を推定する場合であっても、情報端末1の位置を正確に推定することができる。   As described above, in the first embodiment, based on the DR information from the DR processing unit 31, a plurality of particles having a state including information regarding the scale and the orientation are arranged as initial values, and information is determined based on the plurality of particles. A plurality of particles are moved according to the movement of the terminal 1. Therefore, even when the position of the information terminal 1 is estimated using indoor map data whose scale and orientation are unknown, the position of the information terminal 1 can be accurately estimated.

さらに、本実施の形態1に係る情報端末1は、地図データとしての画像データを取得する画像データ取得部としての撮像部2と、画像データから通路領域を推定する画像解析部20とを備えている。また、画像解析部20は、画像データから、画像データ中のエッジを検出するエッジ検出処理部21と、画像データ中の画像を複数の領域に分割し、それぞれの領域を形成する画素の画素値を共通の画素値に変換した領域分割画像データを生成する領域分割処理部22と、エッジおよび領域分割画像データに基づき、領域分割画像データ中のそれぞれの領域のうち、同一領域とすべき複数の領域を統合し、統合された複数の領域を形成する画素に対して同一のラベルを付与し、同一のラベルが付与された複数の画素で形成された複数のラベリング領域を有するラベリング画像データを生成するラベリング処理部23と、ラベリング画像データに含まれる複数のラベリング領域からユーザが通行する領域である通路領域を推定し、通路領域を示す情報を含む画像情報を生成する通路領域推定部24とを有している。   Further, the information terminal 1 according to the first embodiment includes an imaging unit 2 as an image data acquisition unit that acquires image data as map data, and an image analysis unit 20 that estimates a passage area from the image data. I have. Further, the image analysis unit 20 includes an edge detection processing unit 21 that detects an edge in the image data from the image data, and a pixel value of a pixel that divides the image in the image data into a plurality of regions and forms each region. Is divided into a common pixel value, a region division processing unit 22 that generates region division image data, and a plurality of regions to be set to the same region among the respective regions in the region division image data based on the edge and the region division image data. Integrate the regions, assign the same label to the pixels forming the integrated plurality of regions, and generate labeling image data having a plurality of labeling regions formed by a plurality of pixels with the same label A plurality of labeling areas included in the labeling image data to estimate a passage area, which is an area through which the user passes, and indicate the passage area. And a passage area estimation part 24 generates image information including the information.

このように、本実施の形態1では、施設の案内板等を撮像して得られる画像データを地図データとして取得し、取得した画像データからエッジを検出するとともに、画像データ中の領域を分割した領域分割画像データを生成する。そして、エッジおよび領域分割画像データに基づきラベリング画像データを生成し、付与されたラベルが異なる領域同士の面積等の状態を比較し、通路領域を推定する。そのため、正確な地図データがない場合であっても、通路領域を容易に推定することができる。   As described above, in the first embodiment, image data obtained by imaging a guide board or the like of a facility is acquired as map data, edges are detected from the acquired image data, and a region in the image data is divided. Generate region-divided image data. Then, labeling image data is generated based on the edge and region division image data, and the states such as the areas of the regions having different assigned labels are compared to estimate the passage region. Therefore, even when there is no accurate map data, the passage area can be easily estimated.

以上、本実施の形態1について説明したが、本発明は、上述した実施の形態1に限定されるものではなく、本発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
本実施の形態1では、施設に設けられた案内板等の屋内地図を撮像して得られる画像データを屋内地図データとして取得した場合を例にとって説明したが、実施例としてはこの例に限られない。例えば、通路領域を推定する際に使用する屋内地図データは、予め取得した地図データを用いてもよい。このような地図データは、縮尺および方位を示す情報を含まない屋内地図データであってもよく、また、画像データでなくてもよい。
Although the first embodiment has been described above, the present invention is not limited to the above-described first embodiment, and various modifications and applications are possible without departing from the gist of the present invention.
In the first embodiment, a case has been described as an example where image data obtained by imaging an indoor map such as a guide board provided in a facility is acquired as indoor map data, but the embodiment is limited to this example. Absent. For example, as the indoor map data used when estimating the passage area, map data acquired in advance may be used. Such map data may be indoor map data that does not include information indicating a scale and an azimuth, and may not be image data.

また、本実施の形態1では、画像データ取得部として撮像部2を用いて地図データとしての画像データを取得するように説明したが、これに限らず、例えばインターネット等を介して地図データを取得してもよい。   In the first embodiment, the description has been given of acquiring image data as map data using the imaging unit 2 as the image data acquisition unit. However, the present invention is not limited to this, and map data is acquired via the Internet or the like. May be.

さらに、本実施の形態1では、位置推定部30で用いられるデッドレコニングとしてスマートPDRを適用したが、これに限らず、他のPDRを適用してもよい。また、本実施の形態1におけるDR情報に相当する情報を得られる方法であれば、Wi−Fiなどの他の方法を用いてもよい。   Further, in the first embodiment, the smart PDR is applied as dead reckoning used in the position estimating unit 30, but the present invention is not limited to this, and another PDR may be applied. Further, another method such as Wi-Fi may be used as long as information corresponding to the DR information in the first embodiment can be obtained.

さらにまた、本実施の形態1では、施設等の屋内における位置を推定する場合を例にとって説明したが、これに限らず、屋外、特にGPSによる位置情報を受信できない場所などにおいても、適用可能である。   Furthermore, in the first embodiment, the case of estimating the indoor position of a facility or the like has been described as an example. However, the present invention is not limited to this, and the present invention can be applied to an outdoor position, particularly a place where GPS positional information cannot be received. is there.

また、本実施の形態1では、地図データ上に情報端末1の現在位置を推定して表示する場合について説明したが、例えば、このように推定した位置の情報を用いて、情報端末1と共に移動するユーザを、指定された目的地まで案内するようにしてもよい。例えば、このような案内機能は、ユーザによって指定された目的地に情報端末1を案内するための案内機能部を制御部10に設けることによって実現可能である。   Also, in the first embodiment, the case where the current position of the information terminal 1 is estimated and displayed on the map data has been described. For example, the information terminal 1 is moved together with the information terminal 1 using the information of the position estimated in this manner. May be guided to a designated destination. For example, such a guidance function can be realized by providing the control unit 10 with a guidance function unit for guiding the information terminal 1 to a destination designated by the user.

この場合、制御部10の案内機能部は、推定された現在位置からユーザが操作部5を操作することによって入力された目的地までの経路を探索する。そして、制御部10は、探索の結果得られた経路を地図データ上に重畳して表示部4に表示させる。情報端末1と共に移動するユーザは、表示部4に表示された経路に沿って移動することにより、入力した目的地まで容易に移動することができる。なお、ユーザが経路に沿って移動する際には、例えば音声による案内を行ってもよい。このような音声による案内は、情報端末1にスピーカ等の音声出力部を設けることによって実現可能である。   In this case, the guidance function unit of the control unit 10 searches for a route from the estimated current position to the destination input by the user operating the operation unit 5. Then, the control unit 10 causes the display unit 4 to display the route obtained as a result of the search superimposed on the map data. The user who moves together with the information terminal 1 can easily move to the input destination by moving along the route displayed on the display unit 4. Note that when the user moves along the route, for example, guidance by voice may be performed. Such voice guidance can be realized by providing the information terminal 1 with a voice output unit such as a speaker.

1 情報端末、2 撮像部、3 画像信号処理部、4 表示部、5 操作部、6 加速度センサ、7 地磁気センサ、8 ジャイロセンサ、9 記憶部、10 制御部、20 画像解析部、21 エッジ検出処理部、22 領域分割処理部、23 ラベリング処理部、24 通路領域推定部、30 位置推定部、31 DR処理部、32 粒子初期化部、33 予測計算部、34 尤度計算部、35 リサンプリング部、36 位置計算部。   Reference Signs List 1 information terminal, 2 imaging unit, 3 image signal processing unit, 4 display unit, 5 operation unit, 6 acceleration sensor, 7 geomagnetic sensor, 8 gyro sensor, 9 storage unit, 10 control unit, 20 image analysis unit, 21 edge detection Processing section, 22 area division processing section, 23 labeling processing section, 24 passage area estimation section, 30 position estimation section, 31 DR processing section, 32 particle initialization section, 33 prediction calculation section, 34 likelihood calculation section, 35 resampling Part, 36 position calculation part.

Claims (14)

環境情報を取得し、センサ情報として出力するセンサと、
ユーザが通行する領域である通路領域および該通路領域とは異なる非通路領域を含む複数の領域を有する地図データを表示する表示部と、
ユーザの操作に応じた操作信号を出力する操作部と、
前記地図データ上での自装置の位置を推定する位置推定部を有するとともに、前記推定された自装置の位置を示す表示を前記地図データに重畳させて前記表示部に表示させる制御部と
を備え、
前記位置推定部は、
前記センサから出力された前記センサ情報に基づき、前記地図データ上での自装置の現在位置を推定するためのデッドレコニング情報を出力するデッドレコニング処理部と
前記デッドレコニング情報に基づき、前記操作部を介して入力された前記地図データ上での位置の周囲に、前記地図データ上での位置を示す座標に関する情報、前記地図データの縮尺に関する情報、および方位に関する情報を少なくとも含む状態を有する複数の粒子を初期値として配置する粒子初期化部と、
前記デッドレコニング情報に基づき、配置された前記複数の粒子が自装置の移動に応じて移動する位置を推定し、推定した前記位置に前記複数の粒子を移動させる予測計算部と、
移動した前記複数の粒子のうち、前記非通路領域に移動した粒子を除外する尤度計算部と、
前記尤度計算部の処理によって残った複数の粒子に基づき、自装置が移動した際の現在位置を推定する位置計算部と、
前記尤度計算部の処理によって残った複数の粒子に基づき、前記初期値の複数の粒子と同数の粒子を、該粒子が有する前記状態に含まれる前記座標に関する情報が示す前記地図データ上での位置に再配置するリサンプリング部と
を有し、
前記予測計算部は、
前記リサンプリング部によって再配置された複数の粒子を、次回の処理の初期値として用いる
ことを特徴とする情報端末。
A sensor that acquires environmental information and outputs it as sensor information;
A display unit that displays map data having a plurality of areas including a passage area that is an area through which the user passes and a non-passage area different from the passage area;
An operation unit that outputs an operation signal according to a user operation;
A control unit that has a position estimating unit that estimates the position of the own device on the map data, and displays on the display unit a display that indicates the estimated position of the own device on the map data. ,
The position estimating unit,
Based on the sensor information output from the sensor, a dead reckoning processing unit that outputs dead reckoning information for estimating the current position of the own device on the map data,
Based on the dead reckoning information, around a position on the map data input via the operation unit, information on coordinates indicating a position on the map data, information on a scale of the map data, and an orientation. A particle initialization unit that arranges a plurality of particles having a state including at least information on the initial value,
Based on the dead reckoning information, estimates the position where the plurality of arranged particles move in accordance with the movement of the own device, a prediction calculation unit that moves the plurality of particles to the estimated position,
Of the plurality of particles that have moved, a likelihood calculation unit that excludes particles that have moved to the non-passage region,
Based on a plurality of particles left by the processing of the likelihood calculation unit, a position calculation unit that estimates the current position when the own device has moved,
Based on the plurality of particles left by the processing of the likelihood calculation unit, the same number of particles as the plurality of particles of the initial value, on the map data indicated by the information on the coordinates included in the state of the particles. Resampling unit to relocate
Has,
The prediction calculation unit,
An information terminal, wherein a plurality of particles rearranged by the resampling unit are used as initial values for the next processing .
前記デッドレコニング処理部は、
前記センサ情報に基づき、自装置が移動したことを示すステップイベントを検出し、
前記ステップイベントが検出される毎に、前記ステップイベントの回数、前記ステップイベント毎の移動距離、および自装置の進行方向を前記デッドレコニング情報として出力し、
前記粒子初期化部は、
前記デッドレコニング情報と、前記操作部を介して入力された前記地図データ上での2点の座標情報とに基づき、初期値の前記複数の粒子のそれぞれにおける前記地図データ上での座標、縮尺および方位を算出し、
前記予測計算部は、
前記デッドレコニング情報と、配置されている前記複数の粒子の状態を示す情報とに基づき、前記複数の粒子を前記ステップイベント検出後に移動させる際の前記複数の粒子の座標、縮尺および方位を算出する
ことを特徴とする請求項に記載の情報端末。
The dead reckoning processing unit,
Based on the sensor information, detects a step event indicating that the own device has moved,
Each time the step event is detected, the number of step events, the travel distance for each step event, and the traveling direction of the own device is output as the dead reckoning information,
The particle initialization unit,
Based on the dead reckoning information and the coordinate information of the two points on the map data input via the operation unit, coordinates on the map data of each of the plurality of particles of initial values, scale, and Calculate the bearing,
The prediction calculation unit,
Based on the dead reckoning information and the information indicating the state of the plurality of arranged particles, calculate the coordinates, scale, and orientation of the plurality of particles when moving the plurality of particles after the detection of the step event. The information terminal according to claim 1 , wherein:
前記尤度計算部は、
前記通路領域の座標情報と、移動した前記複数の粒子の座標情報とに基づき、前記粒子が前記非通路領域に位置する場合に、前記粒子を除外する
ことを特徴とする請求項またはに記載の情報端末。
The likelihood calculation unit includes:
And coordinate information of the channel area, based on the coordinate information of the moved plurality of particles, if the particles are positioned in the non-passage area, to claim 1 or 2, characterized in that to exclude the particles Information terminal described.
前記リサンプリング部は、
前記尤度計算部の処理によって残った複数の粒子から1つの粒子をランダムに選択するとともに、選択された粒子を複製して再配置する処理を、再配置された粒子の数が前記初期値の複数の粒子と同数となるまで行い、
前記残った複数の粒子を破棄する
ことを特徴とする請求項のいずれか一項に記載の情報端末。
The resampling unit,
While randomly selecting one particle from the plurality of particles remaining by the processing of the likelihood calculation unit, the process of copying and rearranging the selected particle is performed, and the number of rearranged particles is equal to the initial value. Repeat until the same number of particles
The information terminal according to any one of claims 1 to 3 , wherein the plurality of remaining particles are discarded.
前記地図データとしての画像データを取得する画像データ取得部
をさらに備え、
前記制御部は、
前記画像データから通路領域を推定する画像解析部
をさらに有し、
前記画像解析部は、
前記画像データから、該画像データ中のエッジを検出するエッジ検出処理部と、
前記画像データ中の画像を複数の領域に分割し、それぞれの領域を形成する画素の画素値を共通の画素値に変換した領域分割画像データを生成する領域分割処理部と、
前記エッジおよび前記領域分割画像データに基づき、該領域分割画像データ中のそれぞれの領域のうち、同一領域とすべき複数の領域を統合し、統合された前記複数の領域を形成する画素に対して、画素値に応じて共通の領域を形成する画素であることを示す同一のラベルを付与し、前記同一のラベルが付与された複数の画素で形成された複数のラベリング領域を有するラベリング画像データを生成するラベリング処理部と、
前記ラベリング画像データに含まれる前記複数のラベリング領域から前記通路領域を推定し、該通路領域を示す情報を含む画像情報を生成する通路領域推定部と
を有する
ことを特徴とする請求項1〜のいずれか一項に記載の情報端末。
An image data acquisition unit that acquires image data as the map data is further provided,
The control unit includes:
Further comprising an image analysis unit for estimating a passage area from the image data,
The image analysis unit,
From the image data, an edge detection processing unit that detects an edge in the image data,
An area division processing unit that divides an image in the image data into a plurality of areas, and generates area division image data in which pixel values of pixels forming each area are converted to a common pixel value;
Based on the edge and the region-divided image data, among the respective regions in the region-divided image data, a plurality of regions that should be the same region are integrated, and a pixel forming the integrated plurality of regions is formed. The same label indicating that a pixel forms a common area according to the pixel value is assigned, and the labeling image data having a plurality of labeling areas formed by a plurality of pixels to which the same label is assigned is given. A labeling processing unit to generate;
Wherein estimating the channel region from the plurality of labeling regions included in the labeled image data, according to claim 1-4, characterized in that it comprises a passage area estimation unit that generates image information including information indicating the passage area An information terminal according to any one of the preceding claims.
前記通路領域推定部は、
前記ラベリング画像データに含まれる前記複数のラベリング領域のうち、面積が最大となる第1の領域と、面積が前記第1の領域に次いで大きい第2の領域とを抽出し、
抽出された前記第1の領域および前記第2の領域における面積と、画素値の平均値と、前記第1の領域および前記第2の領域のそれぞれを囲み、すべての辺において前記第1の領域または前記第2の領域の一部と接する外接矩形の面積とのうち少なくとも1つを比較した結果に基づき、前記第1の領域および前記第2の領域の少なくとも一方のラベリング領域を前記通路領域として推定する
ことを特徴とする請求項に記載の情報端末。
The passage area estimation unit,
Among the plurality of labeling regions included in the labeling image data, a first region having the largest area and a second region having the second largest area after the first region are extracted,
The extracted area in the first region and the second region, the average value of pixel values, the first region and the second region surrounding each of the first region and the second region, and the first region in all sides. Alternatively, based on a result of comparing at least one of the area of a circumscribed rectangle in contact with a part of the second region, at least one of the first region and the second region is labeled as the passage region. The information terminal according to claim 5 , wherein the information terminal is estimated.
前記通路領域推定部は、
前記第1の領域の面積を示す値が前記第2の領域の面積を示す値に予め設定された係数を乗算した値よりも大きい場合に、前記第1の領域を前記通路領域として推定する
ことを特徴とする請求項に記載の情報端末。
The passage area estimation unit,
When the value indicating the area of the first region is larger than a value obtained by multiplying a value indicating the area of the second region by a preset coefficient, the first region is estimated as the passage region. The information terminal according to claim 6 , wherein:
前記通路領域推定部は、
前記第1の領域の面積を示す値が前記第2の領域の面積を示す値に予め設定された係数を乗算した値以下であり、
前記第1の領域の画素値の平均値と、前記第2の領域の画素値の平均値との差分値が予め設定された値よりも小さい場合に、前記第1の領域および前記第2の領域を前記通路領域として推定する
ことを特徴とする請求項またはに記載の情報端末。
The passage area estimation unit,
A value indicating the area of the first region is equal to or less than a value obtained by multiplying a value indicating the area of the second region by a preset coefficient;
When the difference between the average value of the pixel values of the first area and the average value of the pixel values of the second area is smaller than a preset value, the first area and the second area information terminal according to claim 6 or 7, characterized in that for estimating the region as the channel region.
前記通路領域推定部は、
前記第1の領域の面積を示す値が前記第2の領域の面積を示す値に予め設定された係数を乗算した値以下であり、
前記第1の領域の画素値の平均値と、前記第2の領域の画素値の平均値との差分値が予め設定された値以上であり、
前記第1の領域を囲む外接矩形の面積を示す値が前記第2の領域を囲む外接矩形の面積を示す値よりも大きい場合に、前記第1の領域を前記通路領域として推定する
ことを特徴とする請求項のいずれか一項に記載の情報端末。
The passage area estimation unit,
A value indicating the area of the first region is equal to or less than a value obtained by multiplying a value indicating the area of the second region by a preset coefficient;
A difference value between the average value of the pixel values of the first area and the average value of the pixel values of the second area is equal to or greater than a preset value;
When the value indicating the area of the circumscribed rectangle surrounding the first area is larger than the value indicating the area of the circumscribed rectangle surrounding the second area, the first area is estimated as the passage area. The information terminal according to any one of claims 6 to 8 , wherein
前記通路領域推定部は、
前記第1の領域の面積を示す値が前記第2の領域の面積を示す値に予め設定された係数を乗算した値以下であり、
前記第1の領域の画素値の平均値と、前記第2の領域の画素値の平均値との差分値が予め設定された値以上であり、
前記第1の領域を囲む外接矩形の面積を示す値が前記第2の領域を囲む外接矩形の面積を示す値以下である場合に、前記第2の領域を前記通路領域として推定する
ことを特徴とする請求項のいずれか一項に記載の情報端末。
The passage area estimation unit,
A value indicating the area of the first region is equal to or less than a value obtained by multiplying a value indicating the area of the second region by a preset coefficient;
A difference value between the average value of the pixel values of the first area and the average value of the pixel values of the second area is equal to or greater than a preset value;
When the value indicating the area of the circumscribed rectangle surrounding the first area is equal to or less than the value indicating the area of the circumscribed rectangle surrounding the second area, the second area is estimated as the passage area. The information terminal according to any one of claims 6 to 8 , wherein
前記画像データ取得部は、
地図を撮像して得られる撮像信号に基づき、前記画像データを取得する撮像部である
ことを特徴とする請求項10のいずれか一項に記載の情報端末。
The image data acquisition unit,
The information terminal according to any one of claims 5 to 10 , wherein the information terminal is an imaging unit that acquires the image data based on an imaging signal obtained by imaging a map.
前記制御部は、
前記操作部を介して前記地図データ上での目的地が入力された場合に、現在地から入力された前記目的地までの経路を前記地図データ上に表示させ、自装置を前記目的地まで案内する案内機能を有する
ことを特徴とする請求項1〜11のいずれか一項に記載の情報端末。
The control unit includes:
When a destination on the map data is input via the operation unit, a route from the current location to the input destination is displayed on the map data, and the own device is guided to the destination. The information terminal according to any one of claims 1 to 11 , having a guidance function.
環境情報を取得するセンサからのセンサ情報に基づき、ユーザが通行する通路領域および該通路領域とは異なる非通路領域を含む複数の領域を有する地図データ上での自装置の現在位置を推定するためのデッドレコニング情報を出力するデッドレコニング処理ステップと、
前記デッドレコニング情報に基づき、ユーザの操作に応じて入力された前記地図データ上での位置の周囲に、前記地図データ上での位置を示す座標に関する情報、前記地図データの縮尺に関する情報、および方位に関する情報を少なくとも含む状態を有する複数の粒子を初期値として配置する粒子初期化ステップと、
配置した前記複数の粒子が自装置の移動に応じて移動する位置を前記デッドレコニング情報に基づき推定し、推定した前記位置に前記複数の粒子を移動させる予測計算ステップと、
移動した前記複数の粒子のうち、前記地図データに含まれる前記非通路領域に移動した粒子を除外する尤度計算ステップと、
前記尤度計算ステップの処理によって残った複数の粒子に基づき、自装置が移動した際の現在位置を推定する位置計算ステップと、
前記尤度計算ステップの処理によって残った複数の粒子に基づき、前記初期値の複数の粒子と同数の粒子を、該粒子が有する前記状態に含まれる前記座標に関する情報が示す前記地図データ上での位置に再配置するリサンプリングステップと
を有し、
前記予測計算ステップは、
前記リサンプリングステップの処理によって再配置された複数の粒子を、次回の処理の初期値として用いる
ことを特徴とする位置推定方法。
Based on sensor information from a sensor that acquires environmental information, to estimate a current position of the own device on map data including a plurality of areas including a passage area through which a user passes and a non-passage area different from the passage area Dead reckoning processing step of outputting dead reckoning information of
Based on the dead reckoning information, around a position on the map data input in response to a user operation, information on coordinates indicating a position on the map data, information on a scale of the map data, and an orientation. Particle initialization step of arranging a plurality of particles having a state including at least information on the initial value,
A prediction calculation step of estimating a position at which the arranged plurality of particles move in accordance with the movement of the own device based on the dead reckoning information, and moving the plurality of particles to the estimated position,
Among the plurality of particles that have moved, a likelihood calculation step of excluding particles that have moved to the non-passage area included in the map data,
Based on a plurality of particles left by the processing of the likelihood calculation step, a position calculation step of estimating the current position when the own device has moved ,
Based on the plurality of particles left by the processing of the likelihood calculation step, the same number of particles as the plurality of particles of the initial value, on the map data indicated by the information on the coordinates included in the state of the particles. A resampling step of relocating to a position,
The prediction calculation step includes:
A position estimating method, wherein a plurality of particles rearranged by the processing of the resampling step are used as initial values of the next processing.
コンピュータに、
環境情報を取得するセンサからのセンサ情報に基づき、ユーザが通行する通路領域および該通路領域とは異なる非通路領域を含む複数の領域を有する地図データ上での自装置の現在位置を推定するためのデッドレコニング情報を出力するデッドレコニング処理ステップと、
前記デッドレコニング情報に基づき、ユーザの操作に応じて入力された前記地図データ上での位置の周囲に、前記地図データ上での位置を示す座標に関する情報、前記地図データの縮尺に関する情報、および方位に関する情報を少なくとも含む状態を有する複数の粒子を初期値として配置する粒子初期化ステップと、
配置した前記複数の粒子が自装置の移動に応じて移動する位置を前記デッドレコニング情報に基づき推定し、推定した前記位置に前記複数の粒子を移動させる予測計算ステップと、
移動した前記複数の粒子のうち、前記地図データに含まれる前記非通路領域に移動した粒子を除外する尤度計算ステップと、
前記尤度計算ステップの処理によって残った複数の粒子に基づき、自装置が移動した際の現在位置を推定する位置計算ステップと、
前記尤度計算ステップの処理によって残った複数の粒子に基づき、前記初期値の複数の粒子と同数の粒子を、該粒子が有する前記状態に含まれる前記座標に関する情報が示す前記地図データ上での位置に再配置するリサンプリングステップと
前記リサンプリングステップの処理によって再配置された複数の粒子を、前記予測計算ステップにおける次回の処理の初期値として用いるステップと
を実行させることを特徴とする位置推定プログラム。
On the computer,
Based on sensor information from a sensor that acquires environmental information, to estimate a current position of the own device on map data including a plurality of areas including a passage area through which a user passes and a non-passage area different from the passage area Dead reckoning processing step of outputting dead reckoning information of
Based on the dead reckoning information, around a position on the map data input in response to a user operation, information on coordinates indicating a position on the map data, information on a scale of the map data, and an orientation. Particle initialization step of arranging a plurality of particles having a state including at least information on the initial value,
A prediction calculation step of estimating a position at which the arranged plurality of particles move in accordance with the movement of the own device based on the dead reckoning information, and moving the plurality of particles to the estimated position,
Among the plurality of particles that have moved, a likelihood calculation step of excluding particles that have moved to the non-passage area included in the map data,
Based on a plurality of particles left by the processing of the likelihood calculation step, a position calculation step of estimating the current position when the own device has moved ,
Based on the plurality of particles left by the processing of the likelihood calculation step, the same number of particles as the plurality of particles of the initial value, on the map data indicated by the information on the coordinates included in the state of the particles. Performing a resampling step of relocating to a position and a step of using the plurality of particles relocated by the processing of the resampling step as an initial value of the next processing in the prediction calculation step. program.
JP2016056139A 2016-03-18 2016-03-18 Information terminal, position estimation method, and position estimation program Expired - Fee Related JP6653507B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016056139A JP6653507B2 (en) 2016-03-18 2016-03-18 Information terminal, position estimation method, and position estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016056139A JP6653507B2 (en) 2016-03-18 2016-03-18 Information terminal, position estimation method, and position estimation program

Publications (2)

Publication Number Publication Date
JP2017173001A JP2017173001A (en) 2017-09-28
JP6653507B2 true JP6653507B2 (en) 2020-02-26

Family

ID=59973831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016056139A Expired - Fee Related JP6653507B2 (en) 2016-03-18 2016-03-18 Information terminal, position estimation method, and position estimation program

Country Status (1)

Country Link
JP (1) JP6653507B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111815011B (en) * 2019-04-10 2024-03-22 财付通支付科技有限公司 Message sending method, device, computer equipment and storage medium
CN112747744B (en) * 2020-12-22 2022-11-18 浙江大学 Vehicle positioning method combining dead reckoning and multi-lane road network map
CN114222240A (en) * 2021-10-29 2022-03-22 中国石油大学(华东) Multi-source fusion positioning method based on particle filtering
CN114710745B (en) * 2022-04-12 2023-04-18 电子科技大学 Indoor positioning method with Bluetooth and PDR information deeply fused

Also Published As

Publication number Publication date
JP2017173001A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
US11710322B2 (en) Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
US11127203B2 (en) Leveraging crowdsourced data for localization and mapping within an environment
KR101645613B1 (en) Pose estimation based on peripheral information
KR101749017B1 (en) Speed-up template matching using peripheral information
US9641814B2 (en) Crowd sourced vision and sensor-surveyed mapping
US9304970B2 (en) Extended fingerprint generation
US8154616B2 (en) Data processing apparatus and method, and recording medium
KR102022668B1 (en) Landmark positioning
JP6653507B2 (en) Information terminal, position estimation method, and position estimation program
US20100127883A1 (en) Positioning/Navigation System Using Identification Tag and Position/Navigation Method
JP6321570B2 (en) Indoor position information positioning system and indoor position information positioning method
JP2015055534A (en) Information processing apparatus, control program thereof, and control method thereof
TWI749532B (en) Positioning method and positioning device, electronic equipment and computer readable storage medium
CN107193820B (en) Position information acquisition method, device and equipment
US11700504B2 (en) Method and system for calibration of an indoor space
US9911190B1 (en) Method and computer program for generating a database for use in locating mobile devices based on imaging
US10157189B1 (en) Method and computer program for providing location data to mobile devices
Bacchewar et al. Literature Survey: Indoor Navigation Using Augmented Reality
Tonosaki et al. Indoor Localization by Map Matchin Using One Image of Information Board
Bacchewar et al. Indoor Navigation Using Augmented Reality
JP2019213061A (en) Information processing apparatus, method for controlling the same, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200121

R150 Certificate of patent or registration of utility model

Ref document number: 6653507

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees