JP2016164518A - Indoor positional information positioning system and indoor positional information positioning method - Google Patents

Indoor positional information positioning system and indoor positional information positioning method Download PDF

Info

Publication number
JP2016164518A
JP2016164518A JP2015044909A JP2015044909A JP2016164518A JP 2016164518 A JP2016164518 A JP 2016164518A JP 2015044909 A JP2015044909 A JP 2015044909A JP 2015044909 A JP2015044909 A JP 2015044909A JP 2016164518 A JP2016164518 A JP 2016164518A
Authority
JP
Japan
Prior art keywords
position information
image
user terminal
indoor
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015044909A
Other languages
Japanese (ja)
Other versions
JP6321570B2 (en
Inventor
敦 櫻井
Atsushi Sakurai
敦 櫻井
正巳 上野
Masami Ueno
正巳 上野
和幸 高屋
Kazuyuki Takaya
和幸 高屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015044909A priority Critical patent/JP6321570B2/en
Publication of JP2016164518A publication Critical patent/JP2016164518A/en
Application granted granted Critical
Publication of JP6321570B2 publication Critical patent/JP6321570B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To identify positional information of a terminal in a building requiring no additional equipment to install in the building nor special function to the terminal.SOLUTION: An input section 100 inputs pick-up images. A storage section 300 stores object images of ceilings in the building and positional information of respective points. An image matching section 202 collates the pick-up images with the object images to acquire a piece of image positional information corresponding to the object image matching with the pick-up image. A positional information calculation section 203 calculates a piece of positional information of a user terminal which is a piece of positional information of the user terminal when the pick-up image has been obtained from the image positional information.SELECTED DRAWING: Figure 1

Description

本発明は、屋内位置情報測位システム及び屋内位置情報測位方法に関する。   The present invention relates to an indoor position information positioning system and an indoor position information positioning method.

ユーザが現在地から目的地へ到達するための経路の案内や、ユーザの現在地の周辺情報の収集等のために、スマートフォン等の携帯端末の位置情報を特定する技術が知られている。携帯端末の位置情報を特定する方法としては、GPS(Global Positing System)を用いた方法が広く知られている。   2. Description of the Related Art A technique for identifying position information of a mobile terminal such as a smartphone is known in order to guide a route for a user to reach a destination from a current location, collect information around the user's current location, and the like. A method using GPS (Global Positing System) is widely known as a method for specifying position information of a mobile terminal.

ところが、GPSは屋内では使用できないため、屋内における位置情報の特定のためには別の方法を用いる必要がある。屋内における位置情報の特定方法としては、例えば、各地点に設置されたアンテナからの電波を受信し、距離による電波特性の変化から位置情報を特定する方法が知られている。   However, since GPS cannot be used indoors, it is necessary to use another method for specifying location information indoors. As a method for specifying indoor location information, for example, a method of receiving radio waves from an antenna installed at each point and specifying location information from changes in radio wave characteristics depending on distance is known.

上述のアンテナを用いた方法においては、精度を向上させるためには多数のアンテナが必要になるという問題がある。そこで、アンテナを搭載した移動体を移動させ、複数の地点からアンテナが発信した電波を受信することで、位置情報特定の精度を向上させる方法が知られている(例えば、特許文献1を参照)。   The above-described method using antennas has a problem that a large number of antennas are required to improve accuracy. Therefore, there is known a method for improving the accuracy of specifying position information by moving a mobile body equipped with an antenna and receiving radio waves transmitted from a plurality of points (see, for example, Patent Document 1). .

特開2011−80897号公報JP 2011-80897 A

しかしながら、従来技術においては、端末の位置情報の特定のために、建物内に新たな設備の設置をすることや、端末に特殊な機能を備えることが必要であるという課題があった。例えば、特許文献1に記載の方法では、アンテナを搭載した移動体及び移動体が移動するための広い場所が必要になり、設備を設置するために多大なコストが必要であるばかりか、建物の大きさ等の制約によっては実施することができない。さらに、ユーザが使用する携帯端末にも特殊な受信機能を備える必要があり、位置情報の提供を利用することができるユーザが限られてしまうという。   However, in the prior art, there is a problem that it is necessary to install new equipment in the building or to provide a special function for the terminal in order to specify the position information of the terminal. For example, in the method described in Patent Document 1, a moving body on which an antenna is mounted and a large place for moving the moving body are required, and not only a large cost is required to install equipment, It cannot be implemented due to size restrictions. Furthermore, it is necessary that the mobile terminal used by the user also has a special reception function, which limits the number of users who can use the provision of location information.

そこで、本発明の目的は、建物内に新たな設備の設置をすることなく、また、端末に特殊な機能を備えることなく屋内における端末の位置情報を特定することにある。   Accordingly, an object of the present invention is to specify location information of a terminal indoors without installing new equipment in the building and without providing a special function for the terminal.

本発明の屋内位置情報測位システムは、建物内の壁または天井の対象画像及び前記対象画像上の各地点における位置情報を記憶する記憶部と、ユーザ端末によって撮影された撮影画像の入力を行う入力部と、前記入力部に入力された前記撮影画像と、前記記憶部に記憶されている前記対象画像とのマッチングを行い、前記撮影画像にマッチする前記対象画像に対応する位置情報を画像位置情報として前記記憶部から取得する画像マッチング部と、前記画像位置情報及び前記ユーザ端末の撮影時の状態を示す撮影情報から、前記撮影画像を撮影した時の前記ユーザ端末の位置情報であるユーザ端末位置情報を算出する位置情報算出部と、前記ユーザ端末位置情報を表示する表示部と、を有することを特徴とする。   The indoor position information positioning system of the present invention includes a storage unit that stores a target image of a wall or ceiling in a building and position information at each point on the target image, and an input that inputs a captured image captured by a user terminal. A position information corresponding to the target image that matches the captured image is matched with the captured image input to the input unit and the target image stored in the storage unit. As a user terminal position which is the position information of the user terminal when the captured image is captured from the image matching unit acquired from the storage unit, and the image position information and the captured information indicating the state at the time of capturing of the user terminal It has a position information calculation part which calculates information, and a display part which displays the user terminal position information.

本発明の屋内位置情報測位方法は、ユーザ端末によって撮影された撮影画像の入力を行う入力工程と、前記入力工程で入力された前記撮影画像と、記憶部に記憶されている建物内の壁または天井の対象画像とのマッチングを行い、前記対象画像上の前記撮影画像がマッチした地点の位置情報を前記記憶部から取得し、画像位置情報として出力する画像マッチング工程と、前記画像位置情報から、前記撮影画像を撮影した時の前記ユーザ端末の位置情報であるユーザ端末位置情報を算出する位置情報算出工程と、を含んだことを特徴とする。   The indoor position information positioning method of the present invention includes an input step of inputting a captured image captured by a user terminal, the captured image input in the input step, and a wall in a building stored in a storage unit or Matching with the target image of the ceiling, obtaining the position information of the point where the photographed image on the target image matched from the storage unit, and outputting the image position information as the image position information, from the image position information, And a position information calculating step of calculating user terminal position information which is position information of the user terminal when the captured image is captured.

本発明によれば、建物内に新たな設備の設置をすることなく、また、端末に特殊な機能を備えることなく屋内における端末の位置情報を特定することができる。   ADVANTAGE OF THE INVENTION According to this invention, the location information of the terminal indoors can be specified, without installing new equipment in a building and providing a terminal with a special function.

図1は、実施形態1に係る屋内位置情報測位システムの構成の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of a configuration of an indoor position information positioning system according to the first embodiment. 図2は、実施形態1に係る屋内位置情報測位システムの構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a configuration of the indoor position information positioning system according to the first embodiment. 図3は、実施形態1に係るユーザ端末の一例を示す図である。FIG. 3 is a diagram illustrating an example of a user terminal according to the first embodiment. 図4は、実施形態1に係る屋内位置情報測位システムの対象画像の一例を示す図である。FIG. 4 is a diagram illustrating an example of a target image of the indoor position information positioning system according to the first embodiment. 図5は、実施形態1に係る屋内位置情報測位システムのユーザ端末位置情報算出方法の一例を示す図である。FIG. 5 is a diagram illustrating an example of a user terminal position information calculation method of the indoor position information positioning system according to the first embodiment. 図6は、実施形態1に係る屋内位置情報測位システムを利用する際の様子の一例を示す図である。FIG. 6 is a diagram illustrating an example of a state when using the indoor position information positioning system according to the first embodiment. 図7は、実施形態1に係る屋内位置情報測位システムを利用する際の様子の一例を示す図である。FIG. 7 is a diagram illustrating an example of a state when using the indoor position information positioning system according to the first embodiment. 図8は、実施形態1に係る屋内位置情報測位システムの表示部における表示の一例を示す図である。FIG. 8 is a diagram illustrating an example of display on the display unit of the indoor position information positioning system according to the first embodiment. 図9は、実施形態1に係る屋内位置情報測位システムの処理の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of processing of the indoor position information positioning system according to the first embodiment. 図10は、実施形態2に係る屋内位置情報測位システムの構成の一例を示すブロック図である。FIG. 10 is a block diagram illustrating an example of the configuration of the indoor position information positioning system according to the second embodiment. 図11は、実施形態2に係る屋内位置情報測位システムの撮影画像の一例を示す図である。FIG. 11 is a diagram illustrating an example of a captured image of the indoor position information positioning system according to the second embodiment. 図12は、実施形態2に係る屋内位置情報測位システムの表示部における表示の一例を示す図である。FIG. 12 is a diagram illustrating an example of display on the display unit of the indoor position information positioning system according to the second embodiment. 図13は、実施形態2に係る屋内位置情報測位システムの処理の一例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of processing of the indoor position information positioning system according to the second embodiment. 図14は、実施形態3に係る屋内位置情報測位システムの構成の一例を示すブロック図である。FIG. 14 is a block diagram illustrating an example of a configuration of an indoor position information positioning system according to the third embodiment. 図15は、実施形態3に係る屋内位置情報測位システムの処理の一例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of processing of the indoor position information positioning system according to the third embodiment. 図16は、屋内位置情報測位プログラムを実行するコンピュータの一例を示す図である。FIG. 16 is a diagram illustrating an example of a computer that executes an indoor position information positioning program.

以下に、本願に係る屋内位置情報測位システム及び屋内位置情報測位方法の実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態により本願に係る屋内位置情報測位システム及び屋内位置情報測位方法が限定されるものではない。   Hereinafter, embodiments of an indoor position information positioning system and an indoor position information positioning method according to the present application will be described in detail with reference to the drawings. In addition, the indoor position information positioning system and the indoor position information positioning method according to the present application are not limited by this embodiment.

[実施形態1に係る屋内位置情報測位システムの構成]
まず、図1を用いて、屋内位置情報測位システムの構成について説明する。図1は、実施形態1に係る屋内位置情報測位システムの構成の一例を示すブロック図である。図1に示すように、屋内位置情報測位システム1は、入力部100、計算処理部200、記憶部300及び表示部400を有する。
[Configuration of Indoor Position Information Positioning System According to Embodiment 1]
First, the configuration of the indoor position information positioning system will be described with reference to FIG. FIG. 1 is a block diagram illustrating an example of a configuration of an indoor position information positioning system according to the first embodiment. As illustrated in FIG. 1, the indoor position information positioning system 1 includes an input unit 100, a calculation processing unit 200, a storage unit 300, and a display unit 400.

また、屋内位置情報測位システム1は、図2に示すような構成としてもよい。図2は、実施形態1に係る屋内位置情報測位システムの構成の一例を示すブロック図である。図2の構成においては、入力部100及び表示部400を有する携帯通信端末であるユーザ端末10が、ネットワーク20を介して記憶部300及び計算処理部200を有するサーバ30と接続されている。ユーザ端末10の具体的な例としてはスマートフォン、ウェアラブルコンピュータ、通信機能を有するカメラ等が挙げられる。また、サーバ30は、各建物内に設けるようにしてもよいし、ネットワーク20をインターネットとして、クラウド上に設けるようにしてもよい。また、サーバに対して複数のユーザ端末が接続するようにしてもよい。   Moreover, the indoor position information positioning system 1 may be configured as shown in FIG. FIG. 2 is a block diagram illustrating an example of a configuration of the indoor position information positioning system according to the first embodiment. In the configuration of FIG. 2, a user terminal 10 that is a mobile communication terminal having an input unit 100 and a display unit 400 is connected to a server 30 having a storage unit 300 and a calculation processing unit 200 via a network 20. Specific examples of the user terminal 10 include a smartphone, a wearable computer, a camera having a communication function, and the like. The server 30 may be provided in each building, or may be provided on the cloud with the network 20 as the Internet. A plurality of user terminals may be connected to the server.

入力部100は、ユーザ端末によって撮影された撮影画像の入力を行う。図1に示すように、入力部100は、画像入力部101及び撮影情報入力部102を有する。画像入力部101は、ユーザ端末により撮影された撮影画像を入力する。また、撮影情報入力部102は、ユーザ端末の撮影時の状態を示す撮影情報撮影情報を入力する。撮影情報には、ユーザ端末の画角、画像撮影時の撮影角度、高さ、方位、加速度等が含まれる。   The input unit 100 inputs a captured image captured by the user terminal. As illustrated in FIG. 1, the input unit 100 includes an image input unit 101 and a shooting information input unit 102. The image input unit 101 inputs a captured image captured by the user terminal. Further, the shooting information input unit 102 inputs shooting information shooting information indicating a state at the time of shooting of the user terminal. The shooting information includes the angle of view of the user terminal, the shooting angle at the time of shooting the image, the height, the direction, the acceleration, and the like.

図3を用いてユーザ端末であるカメラで天井を撮影した際に取得される撮影情報について説明する。図3は、実施形態1に係るユーザ端末の一例を示す図である。図3に示すように、カメラの撮影角度θは、加速度センサ等により測定される撮影時のカメラの傾きによって決定される。また、カメラの画角θ2は、カメラのレンズまたはセンサ等によって決定される既定値である。そして、カメラの高さhは、撮影時の地面からの高さであり、カメラに備えられた高度計等により測定される。また、高度計等が備えられていない場合は、ユーザが撮影時のカメラの高さを入力するようにしてもよい。 Shooting information acquired when a ceiling is shot with a camera that is a user terminal will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of a user terminal according to the first embodiment. As shown in FIG. 3, the shooting angle θ 1 of the camera is determined by the tilt of the camera at the time of shooting measured by an acceleration sensor or the like. The angle of view θ 2 of the camera is a predetermined value determined by a camera lens or a sensor. The height h 1 of the camera is the height from the ground at the time of photographing is determined by altimeter provided in the camera. Further, when an altimeter or the like is not provided, the user may input the camera height at the time of shooting.

また、撮影時の方位をさらに取得するようにしてもよい。方位はカメラに備えられた方位センサから取得してもよいし、撮影画像の台形歪みの方向から算出するようにしてもよい。さらに、加速度センサを用いて撮影時の前後の加速度を取得するようにしてもよい。   Moreover, you may make it acquire the azimuth | direction at the time of imaging | photography. The azimuth may be acquired from an azimuth sensor provided in the camera, or may be calculated from the direction of trapezoidal distortion of the captured image. Further, an acceleration sensor may be used to acquire the acceleration before and after shooting.

なお、撮影情報の入力は測位の精度を向上させるためのものであり、屋内位置情報測位システム1は撮影情報入力部102を含まない構成であっても測位を行うことは可能である。また、ユーザ端末10は例えばカメラ付きスマートフォン等の、画像撮影機能及びデータ転送機能を備えた各種電子機器である。   Note that the input of shooting information is for improving the accuracy of positioning, and the indoor position information positioning system 1 can perform positioning even if it does not include the shooting information input unit 102. The user terminal 10 is various electronic devices having an image capturing function and a data transfer function, such as a smartphone with a camera.

図1に示すように、計算処理部200は、入力処理部201、画像マッチング部202及び位置情報算出部203を有する。入力処理部201は、入力部100から入力された各情報を認識し、画像マッチング部202及び位置情報算出部203へ転送する。例えば、入力処理部201は画像入力部101から入力された撮影画像は画像マッチング部202へ転送し、撮影情報入力部102から入力された撮影情報は位置情報算出部203へ転送する。   As illustrated in FIG. 1, the calculation processing unit 200 includes an input processing unit 201, an image matching unit 202, and a position information calculation unit 203. The input processing unit 201 recognizes each information input from the input unit 100 and transfers the information to the image matching unit 202 and the position information calculation unit 203. For example, the input processing unit 201 transfers the captured image input from the image input unit 101 to the image matching unit 202, and transfers the shooting information input from the shooting information input unit 102 to the position information calculation unit 203.

記憶部300は、建物内の壁または天井の対象画像及び対象画像上の各地点における位置情報を記憶する。画像マッチング部202は、入力部100に入力された撮影画像と、記憶部300に記憶されている対象画像とのマッチングを行い、撮影画像にマッチする対象画像の位置情報である画像位置情報を記憶部300から取得する。具体的には、画像マッチング部202は、記憶部300の天井情報データベース301を参照し、入力された撮影画像のマッチングを行い、撮影画像にマッチする対象画像の座標を天井情報データベース301から取得する。天井情報データベース301に記憶されている対象画像及び画像マッチング部202における撮影画像のマッチングについて、図4を用いて説明する。図4は、実施形態1に係る屋内位置情報測位システムの対象画像の一例を示す図である。   The storage unit 300 stores a target image of a wall or ceiling in a building and position information at each point on the target image. The image matching unit 202 performs matching between the captured image input to the input unit 100 and the target image stored in the storage unit 300, and stores image position information that is position information of the target image that matches the captured image. From the unit 300. Specifically, the image matching unit 202 refers to the ceiling information database 301 of the storage unit 300, performs matching of the input captured image, and acquires the coordinates of the target image that matches the captured image from the ceiling information database 301. . The matching of the target image stored in the ceiling information database 301 and the captured image in the image matching unit 202 will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a target image of the indoor position information positioning system according to the first embodiment.

また、天井の対象画像については、天井に文字や図形等を描き、パターンを作成することによって用意してもよいし、既存の状態のまま対象画像としてもよい。なお、天井に文字や図形を直接描かずに、天井に光を投影して文字や図形を対象画像として表示するようにしてもよい。   In addition, the ceiling target image may be prepared by drawing a character, a figure or the like on the ceiling and creating a pattern, or may be the target image in an existing state. Instead of directly drawing characters and figures on the ceiling, the characters and figures may be displayed as target images by projecting light onto the ceiling.

図4に示すように、天井情報データベース301には、天井の対象画像及び対象画像の各地点の座標が記憶されている。図4に示すように、画像マッチング部202は、矩形で表された撮影画像で対象画像内を検索する。そして、画像マッチング部202は、対象画像の一致した範囲の中心位置の座標(x2,y2)及び撮影範囲の各頂点を示す座標(x,y)、(x3,y3)、天井の高さz1等を画像位置情報として位置情報算出部203へ転送する。 As shown in FIG. 4, the ceiling information database 301 stores the target image of the ceiling and the coordinates of each point of the target image. As illustrated in FIG. 4, the image matching unit 202 searches the target image with a captured image represented by a rectangle. The image matching unit 202 then coordinates (x 2 , y 2 ) of the center position of the matched range of the target image and coordinates (x 1 , y 1 ), (x 3 , y 3 ) indicating each vertex of the shooting range. The ceiling height z1 and the like are transferred to the position information calculation unit 203 as image position information.

位置情報算出部203は、画像位置情報から、撮影画像を撮影した時のユーザ端末の位置情報であるユーザ端末位置情報を算出する。ユーザ端末位置情報の算出方法について、図5を用いて説明する。図5は、実施形態1に係る屋内位置情報測位システムのユーザ端末位置情報算出方法の一例を示す図である。   The position information calculation unit 203 calculates user terminal position information, which is position information of the user terminal when the captured image is captured, from the image position information. A method for calculating the user terminal position information will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of a user terminal position information calculation method of the indoor position information positioning system according to the first embodiment.

まず、位置情報算出部203は、ユーザ端末から天井へ引いた垂線と天井との交点の座標(X,Y,z)、撮影範囲の中心の座標(x2,y2,z)、撮影角度θを基に、式(1)を作成する。 First, the position information calculation unit 203 includes the coordinates (X, Y, z 1 ) of the intersection of the perpendicular drawn from the user terminal to the ceiling and the ceiling, the coordinates (x 2 , y 2 , z 1 ) of the center of the imaging range, Formula (1) is created based on the shooting angle θ 1 .

Figure 2016164518
Figure 2016164518

さらに、位置情報算出部203は、ユーザ端末から天井へ引いた垂線と天井との交点の座標(X,Y,z)、撮影範囲のカメラに近い頂点の座標(x3,y,z)、カメラと撮影範囲のカメラに近い頂点を結ぶ直線とのなす角θ2を基に、式(2)を作成する。 Further, the position information calculation unit 203 has coordinates (X, Y, z 1 ) of intersections between the vertical line drawn from the user terminal to the ceiling and the ceiling, and coordinates (x 3 , y 1 , z of the vertex close to the camera in the shooting range). 1 ) Formula (2) is created based on the angle θ 12 formed by the camera and a straight line connecting the vertices close to the camera in the shooting range.

Figure 2016164518
Figure 2016164518

そして、位置情報算出部203は、式(1)及び式(2)からユーザ端末の位置を示す(X,Y)を求め、表示部400へ転送する。また、この時、表示部400へは座標ではなく、例えば「西エリア」のような座標に対応する位置の呼称や、「南出口付近」のような付近にある設備等を示す文言を転送するようにしてもよい。また、(X,Y)を求めるための計算方法は上記のものに限られない。   Then, the position information calculation unit 203 obtains (X, Y) indicating the position of the user terminal from the formulas (1) and (2), and transfers it to the display unit 400. At this time, not the coordinates but the name of the position corresponding to the coordinates such as “West Area” or the words indicating the equipment in the vicinity such as “Near South Exit” are transferred to the display unit 400. You may do it. The calculation method for obtaining (X, Y) is not limited to the above.

図6は、実施形態1に係る屋内位置情報測位システムを利用する際の様子の一例を示す図である。図6の例では、ユーザ11aはユーザ12aの頭上の位置を撮影しており、ユーザ12aはユーザ11aの頭上の位置を撮影している。このように、ユーザの水平方向の位置と、撮影された天井の撮影画像の水平方向の位置は一致しないことが多いため、位置情報算出部203は天井の撮影画像の位置からユーザ端末の位置、即ちユーザの位置を算出する。   FIG. 6 is a diagram illustrating an example of a state when using the indoor position information positioning system according to the first embodiment. In the example of FIG. 6, the user 11a has photographed the position above the user 12a, and the user 12a has photographed the position above the user 11a. As described above, since the horizontal position of the user and the horizontal position of the photographed ceiling image are often not coincident, the position information calculation unit 203 determines the position of the user terminal from the position of the ceiling photographed image, That is, the position of the user is calculated.

また、記憶部300は、位置情報として階数を記憶し、画像マッチング部202は、画像位置情報に階数を含め、位置情報算出部203はユーザ端末位置情報に階数を含め、図7に示すように、表示部400は階数を表示するようにしてもよい。図7は、実施形態1に係る屋内位置情報測位システムを利用する際の様子の一例を示す図である。図7に示すように、ユーザ21a及びユーザ22aの端末の表示部400には、現在位置の階数として「2F」が表示されている。また、ユーザ23aは、ユーザ22aと水平方向の位置は同じであるが、階数が異なるため、ユーザ23aの端末の表示部400には現在位置の階数として「1F」が表示されている。   Further, the storage unit 300 stores the floor number as position information, the image matching unit 202 includes the floor number in the image position information, and the position information calculation unit 203 includes the floor number in the user terminal position information, as shown in FIG. The display unit 400 may display the floor number. FIG. 7 is a diagram illustrating an example of a state when using the indoor position information positioning system according to the first embodiment. As shown in FIG. 7, “2F” is displayed as the floor number of the current position on the display unit 400 of the terminal of the user 21a and the user 22a. The user 23a has the same position in the horizontal direction as the user 22a, but has a different floor number. Therefore, “1F” is displayed on the display unit 400 of the terminal of the user 23a as the floor number of the current position.

階数は、天井情報データベース301に対象画像と階数を対応付けて記憶しておき、画像マッチング部202で階数情報を取得するようにしてもよい。また、撮影情報に含まれるユーザ端末の高さから、階数を推定するようにしてもよい。   The floor number may be stored in the ceiling information database 301 in association with the target image and the floor number, and the image matching unit 202 may acquire the floor information. Further, the rank may be estimated from the height of the user terminal included in the shooting information.

さらに、表示部400は、ユーザ端末位置情報が示す位置の周辺の展示物に関する情報を表示する。図8に示すように、表示部400は、位置情報を表すだけでなく、位置情報に関連する情報を表示するようにしてもよい。図8は、実施形態1に係る屋内位置情報測位システムの表示部における表示の一例を示す図である。図8の例では、製品の展示会において、スマートフォンの画面に現在地付近の展示ブースの説明を表示した場合を示している。   Further, the display unit 400 displays information related to exhibits around the position indicated by the user terminal position information. As shown in FIG. 8, the display unit 400 may display not only the position information but also information related to the position information. FIG. 8 is a diagram illustrating an example of display on the display unit of the indoor position information positioning system according to the first embodiment. The example of FIG. 8 shows a case where an explanation of an exhibition booth near the current location is displayed on the screen of a smartphone at a product exhibition.

図8を用いて、現在地付近の展示ブースの説明を表示するための処理の一例を説明する。まず、記憶部300または外部の記憶装置等に位置情報、展示ブースの配置及び各展示ブースの展示内容等の情報を紐付けて周辺展示物情報データベースとして記憶しておく。そして、表示部400がユーザ端末位置情報を受け取ると、周辺展示物情報データベースを参照し、位置情報が属するエリアに配置されている展示ブース及び展示ブースの情報を取得し、表示する。図8の例では、表示部400は、ユーザ端末位置情報として「Aビル2F東エリア」を取得し、「Aビル2F東エリア」に配置されたA社及びB社のブースの展示内容の画像やテキスト等のデータを周辺展示物情報データベースから取得している。   An example of a process for displaying an explanation of an exhibition booth near the current location will be described with reference to FIG. First, information such as position information, arrangement of exhibition booths, and exhibition contents of each exhibition booth is linked to the storage unit 300 or an external storage device and stored as a peripheral exhibit information database. When the display unit 400 receives the user terminal position information, the display unit 400 refers to the peripheral exhibit information database and acquires and displays information on the exhibition booth and the exhibition booth arranged in the area to which the position information belongs. In the example of FIG. 8, the display unit 400 acquires “A building 2F east area” as user terminal position information, and images of exhibition contents of the booths of company A and company B arranged in “A building 2F east area”. And data such as text are obtained from the peripheral exhibit information database.

なお、屋内位置情報測位システム1の構成は図1及び図2に示すものに限られない。例えば、スマートフォン等の端末に入力部100、計算処理部200及び表示部400をアプリケーションとして備え、記憶部300のみ外部に設ける構成としてもよい。また、記憶部300の天井情報データベース301を端末に記憶させることで、全ての構成を端末に備えることも可能である。   The configuration of the indoor position information positioning system 1 is not limited to that shown in FIGS. For example, the input unit 100, the calculation processing unit 200, and the display unit 400 may be provided as applications in a terminal such as a smartphone, and only the storage unit 300 may be provided outside. In addition, by storing the ceiling information database 301 of the storage unit 300 in the terminal, it is possible to provide all the configurations in the terminal.

また、撮影情報に方位が含まれている場合は、位置情報算出部203は、ユーザ端末位置情報の算出に方位を利用する。具体的には、対象画像に特徴が少なく、複数の角度からの撮影で同じような撮影画像が得られる場合、どの方向から撮影しているかを方位によって決定したうえでユーザ端末位置情報を算出する。   When the shooting information includes an orientation, the position information calculation unit 203 uses the orientation for calculating the user terminal location information. Specifically, when the target image has few features and the same captured image can be obtained by shooting from a plurality of angles, the user terminal position information is calculated after determining from which direction the shooting is performed. .

さらに、撮影情報に撮影時前後の加速度が含まれている場合は、位置情報算出部203は、ユーザ端末位置情報の算出に加速度を利用する。具体的には、ユーザが移動しながら連続的に撮影画像を入力した場合に、前回画像位置情報を算出した地点から、加速度から求められる移動情報を基に、現在の大まかな地点を算出する。   Further, when the shooting information includes accelerations before and after shooting, the position information calculation unit 203 uses the acceleration for calculation of the user terminal position information. Specifically, when the user continuously inputs captured images while moving, the current rough point is calculated based on the movement information obtained from the acceleration from the point where the previous image position information was calculated.

上述のように、撮影情報として様々な情報を得ることができ、これらを適宜組み合わせて利用することで、ユーザ端末の位置を算出する処理を精度良く行うことができる。   As described above, various pieces of information can be obtained as shooting information, and by using these in appropriate combinations, the process of calculating the position of the user terminal can be performed with high accuracy.

[実施形態1に係る屋内位置情報測位システムの処理]
図9を用いて、屋内位置情報測位システム1の処理について説明する。図9は、実施形態1に係る屋内位置情報測位システムの処理の一例を示す図である。
[Processing of Indoor Position Information Positioning System According to Embodiment 1]
The process of the indoor position information positioning system 1 will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of processing of the indoor position information positioning system according to the first embodiment.

まず、図9に示すように、入力部100は撮影画像及び撮影情報を入力する(ステップS101)。例えば、撮影画像とは、ユーザ端末で撮影した天井の画像であり、撮影情報とはユーザ端末の画角及び撮影時の撮影角度である。   First, as shown in FIG. 9, the input unit 100 inputs a captured image and shooting information (step S101). For example, the photographed image is an image of a ceiling photographed by the user terminal, and the photographing information is the angle of view of the user terminal and the photographing angle at the time of photographing.

次に、入力処理部201は、入力された情報を認識し、各部へ処理に必要な情報を転送する(ステップS102)。具体的には、撮影画像は画像マッチング部202へ転送され、撮影情報は位置情報算出部203へ転送される。   Next, the input processing unit 201 recognizes the input information and transfers information necessary for processing to each unit (step S102). Specifically, the captured image is transferred to the image matching unit 202, and the shooting information is transferred to the position information calculation unit 203.

そして、画像マッチング部202は、撮影画像と天井情報データベース301の対象画像とのマッチングを行い、撮影画像の画像位置情報を算出する(ステップS103)。画像撮影位置は、例えば、撮影画像を矩形とした時の中心及び各頂点の座標によって表される。   Then, the image matching unit 202 performs matching between the captured image and the target image in the ceiling information database 301, and calculates image position information of the captured image (step S103). The image shooting position is represented by, for example, the coordinates of the center and each vertex when the shot image is rectangular.

位置情報算出部203は、画像位置情報及び撮影情報からユーザ端末位置情報を算出する(ステップS104)。ユーザ端末位置情報は、例えば、撮影情報に含まれるユーザ端末の画角及び撮影角度と、画像撮影位置を表す座標等から、三角比を用いた方法によって求められる。最後に、位置情報算出部203は、算出したユーザ端末位置情報を表示部400に出力する(ステップS105)。表示部400に出力されるユーザ端末位置情報は、ユーザ端末の位置を示す座標のみであってもよいし、座標に対応する建物内のエリアの名称等であってもよい。   The position information calculation unit 203 calculates user terminal position information from the image position information and the shooting information (step S104). The user terminal position information is obtained by, for example, a method using a trigonometric ratio from the angle of view and the shooting angle of the user terminal included in the shooting information and the coordinates representing the image shooting position. Finally, the position information calculation unit 203 outputs the calculated user terminal position information to the display unit 400 (step S105). The user terminal position information output to the display unit 400 may be only the coordinates indicating the position of the user terminal, or the name of an area in the building corresponding to the coordinates.

[実施形態1の効果]
実施形態1において、屋内位置情報測位システム1は、建物内の壁または天井の対象画像及び対象画像上の各地点における位置情報を天井情報データベース301に記憶する。そして、屋内位置情報測位システム1は、ユーザ端末によって撮影された撮影画像の入力を行い、入力部100に入力された撮影画像と、記憶部300に記憶されている対象画像とのマッチングを行い、撮影画像にマッチした対象画像の位置情報である画像位置情報を取得する。その後、屋内位置情報測位システム1は、画像位置情報から、撮影画像を撮影した時のユーザ端末の位置情報であるユーザ端末位置情報を算出する。
[Effect of Embodiment 1]
In the first embodiment, the indoor position information positioning system 1 stores a target image of a wall or ceiling in a building and position information at each point on the target image in the ceiling information database 301. Then, the indoor position information positioning system 1 inputs the captured image captured by the user terminal, matches the captured image input to the input unit 100 and the target image stored in the storage unit 300, Image position information that is position information of a target image that matches the captured image is acquired. Thereafter, the indoor position information positioning system 1 calculates user terminal position information, which is position information of the user terminal when the captured image is captured, from the image position information.

上記構成においては、アンテナ、移動体及び移動体が移動するための空間、または特殊な受信機能を有する端末等は不要である。よって、実施形態1によれば、建物内に新たな設備の設置をすることなく、また、ユーザ端末に特殊な機能を備えることなく屋内におけるユーザ端末の位置情報を特定することができる。   In the above configuration, an antenna, a moving body, a space for moving the moving body, a terminal having a special reception function, and the like are unnecessary. Therefore, according to the first embodiment, it is possible to specify the location information of the user terminal indoors without installing new equipment in the building and without providing the user terminal with a special function.

また、屋内位置情報測位システム1では、天井の対象画像については、天井を既存の状態から変化させる必要はなく、既存の天井の画像を対象画像として使用することで、さらに設置コストを低減することができる。また、天井のパターン等は、基本的に長期間変更とならないため、頻繁に天井情報データベース301を更新する必要がなく、ランニングコストを低減することができる。   Moreover, in the indoor positional information positioning system 1, it is not necessary to change the ceiling from the existing state for the ceiling target image, and the installation cost can be further reduced by using the existing ceiling image as the target image. Can do. Further, since the ceiling pattern and the like are basically not changed for a long period of time, it is not necessary to update the ceiling information database 301 frequently, and the running cost can be reduced.

また、屋内位置情報測位システム1では、位置情報として階数をさらに記憶し、入力された撮影画像と、記憶部300に記憶されている対象画像とのマッチングを行い、撮影画像にマッチする対象画像に対応する、階数を含む画像位置情報を記憶部300から取得する。そして、画像位置情報に含まれる階数を表示する取得する。このため、ユーザ端末が建物の何階にいるかを表示することができる。   The indoor position information positioning system 1 further stores the floor number as position information, matches the input captured image with the target image stored in the storage unit 300, and sets the target image to match the captured image. Corresponding image position information including the rank is acquired from the storage unit 300. And the floor number contained in image position information is displayed and acquired. For this reason, it is possible to display on which floor of the building the user terminal is located.

また、表示部400は、ユーザ端末位置情報が示す位置の周辺の展示物に関する情報を表示する。これにより、屋内における展示会等で周辺のブースの情報等をユーザが参照することができるようになる。   In addition, the display unit 400 displays information related to exhibits around the position indicated by the user terminal position information. As a result, the user can refer to information on surrounding booths at an indoor exhibition or the like.

また、入力部100及び表示部400を携帯通信端末に備え、画像マッチング部202、位置情報算出部203及び記憶部300をサーバに備える構成とすることで、処理部分を仮想化し、ユーザ端末の負担を低減することができるだけでなく、多数のユーザの情報をサーバで収集することができ、さらに、同一の建物内における複数のユーザの位置情報から混雑情報を算出し、表示することができる。   In addition, the input unit 100 and the display unit 400 are provided in the mobile communication terminal, and the image matching unit 202, the position information calculation unit 203, and the storage unit 300 are provided in the server, so that the processing part is virtualized and the burden on the user terminal In addition, the information of a large number of users can be collected by the server, and the congestion information can be calculated from the position information of a plurality of users in the same building and displayed.

[実施形態2に係る屋内位置情報測位システムの構成]
ところで、上記の実施形態1では、ユーザ端末の現在位置を算出して表示する場合について説明したが、本発明はこれに限定されるものではなく、ユーザ端末の現在位置に加えて、目的地と現在位置から目的地に至る経路情報も算出して表示するようにしてもよい。
[Configuration of Indoor Position Information Positioning System According to Embodiment 2]
By the way, in said Embodiment 1, although the case where the present position of a user terminal was calculated and displayed was demonstrated, this invention is not limited to this, In addition to the present position of a user terminal, destination and Route information from the current position to the destination may also be calculated and displayed.

そこで、以下の実施形態2の説明では、撮影画像に表示されている目的地を示す情報を取得し、現在位置から目的地までの経路を算出し、ユーザ端末の現在位置とともに現在地から目的地までの経路を表示する場合について説明する。   Therefore, in the following description of the second embodiment, information indicating the destination displayed in the captured image is acquired, a route from the current position to the destination is calculated, and the current position of the user terminal and the destination are reached. The case of displaying the route will be described.

図10を用いて、実施形態2に係る屋内位置情報測位システムの構成について説明する。図10は、実施形態2に係る屋内位置情報測位システムの構成の一例を示すブロック図である。実施形態2は、ユーザ端末の現在位置に加えて、目的地と現在位置から目的地に至る経路情報を算出し、表示する。   The configuration of the indoor position information positioning system according to the second embodiment will be described with reference to FIG. FIG. 10 is a block diagram illustrating an example of the configuration of the indoor position information positioning system according to the second embodiment. In the second embodiment, in addition to the current position of the user terminal, the destination and the route information from the current position to the destination are calculated and displayed.

なお、以降の実施形態の説明において、特に説明を行わない部分の構成及び処理については、実施形態1の構成及び処理と同様であるものとする。図10に示すように、屋内位置情報測位システム1は、実施形態1の構成に加えて経路情報算出部204を有する。実施形態2においては、建物として駅を例にあげて説明する。   In the following description of the embodiment, the configuration and processing of a part that is not particularly described is the same as the configuration and processing of the first embodiment. As illustrated in FIG. 10, the indoor position information positioning system 1 includes a route information calculation unit 204 in addition to the configuration of the first embodiment. In the second embodiment, a station will be described as an example of a building.

まず、入力処理部201は、入力された撮影画像から目的地を示す文字列等を抽出する。実施形態2において入力される撮影画像について、図11を用いて説明する。図11は、実施形態2に係る屋内位置情報測位システムの撮影画像の一例を示す図である。   First, the input processing unit 201 extracts a character string or the like indicating the destination from the input captured image. The captured image input in the second embodiment will be described with reference to FIG. FIG. 11 is a diagram illustrating an example of a captured image of the indoor position information positioning system according to the second embodiment.

図11に示すように、入力される画像には、天井150及び目的地を示す案内板151が表示されている。入力処理部201は、OCR(Optical Character Recognition)等により、撮影画像中に記載されている文字列を読み取り、案内板151が「5番ホーム」を示していることを認識する。若しくは、案内板151自体に「5番ホーム」に対応するパターンを持たせておき、画像マッチング部202でマッチングを行うことで「5番ホーム」を示す看板であることを認識するようにしてもよい。これにより、入力処理部201は5番ホームに対応する位置情報を目的地として経路情報算出部204に転送する。   As shown in FIG. 11, a ceiling 150 and a guide plate 151 indicating the destination are displayed in the input image. The input processing unit 201 reads a character string described in the captured image by OCR (Optical Character Recognition) or the like, and recognizes that the guide plate 151 indicates “5th home”. Alternatively, the guide plate 151 itself may have a pattern corresponding to “No. 5 home”, and the image matching unit 202 may perform matching to recognize the signboard indicating “No. 5 home”. Good. Thereby, the input processing unit 201 transfers the position information corresponding to the fifth home to the route information calculation unit 204 as the destination.

そして、図10に示す経路情報算出部204は、ユーザ端末の現在位置及び目的地の位置情報を取得する。ここで、記憶部300は、屋内の地図及び各地点間の経路を含む地図情報を経路情報データベース302としてさらに記憶している。そして、経路情報算出部204は、撮影画像に表示されている目的地を示す情報を取得し、経路情報データベース302を参照し、ユーザ端末位置情報が示す位置から目的地までの経路を算出し、ユーザ端末の現在位置とともに表示部400へ転送する。経路情報データベース302には屋内の地図及び各地点間の経路が記憶されているため、現在地及び目的地の位置情報から経路情報を検索することができる。   Then, the route information calculation unit 204 illustrated in FIG. 10 acquires the current position of the user terminal and the position information of the destination. Here, the storage unit 300 further stores map information including an indoor map and a route between points as a route information database 302. Then, the route information calculation unit 204 acquires information indicating the destination displayed in the captured image, refers to the route information database 302, calculates a route from the position indicated by the user terminal position information to the destination, It transfers to the display part 400 with the present position of a user terminal. Since the route information database 302 stores an indoor map and a route between points, the route information can be searched from position information of the current location and the destination.

また、実施形態2においても、実施形態1と同様に、図2に示すような構成としてもよい。この場合、サーバでは混雑情報を収集し、経路情報算出部204は、混雑していない経路を優先的に算出する。   Also in the second embodiment, as in the first embodiment, the configuration shown in FIG. In this case, the server collects congestion information, and the route information calculation unit 204 preferentially calculates routes that are not congested.

表示部400は図12に示すように、経路情報算出部204で算出された経路を表示する。図12は、実施形態2に係る屋内位置情報測位システムの表示部における表示の一例を示す図である。図12には、現在地から目的地に至るまでの経路が示されている。表示部400における経路の表示は、図12のように駅の構内地図とともに表示してもよいし、文字による説明を表示してもよい。   The display unit 400 displays the route calculated by the route information calculation unit 204, as shown in FIG. FIG. 12 is a diagram illustrating an example of display on the display unit of the indoor position information positioning system according to the second embodiment. FIG. 12 shows a route from the current location to the destination. The route display on the display unit 400 may be displayed together with the station premises map as shown in FIG.

図12の例では、位置情報算出部203により、現在地が「A駅南口」であることが算出され、入力処理部201によって目的地が「A駅5番ホーム」であることが認識されている。そして、経路情報算出部204は、現在地「A駅南口」、目的地「A駅5番ホーム」に対応する経路を経路情報データベース302から取得する。そして、表示部400は、現在地である「A駅南口」に対応する地点450及び目的地「A駅5番ホーム」に対応する地点452を地図上にプロットし、経路情報算出部204で取得した経路451を表示することで現在地から目的地までのナビゲーションを行う。   In the example of FIG. 12, the position information calculation unit 203 calculates that the current location is “A station south exit”, and the input processing unit 201 recognizes that the destination is “A station 5th platform”. . Then, the route information calculation unit 204 acquires a route corresponding to the current location “A station south exit” and the destination “A station 5th home” from the route information database 302. Then, the display unit 400 plots a point 450 corresponding to the current location “A station south exit” and a point 452 corresponding to the destination “A station 5th platform” on the map, and the route information calculation unit 204 acquires them. By displaying the route 451, navigation from the current location to the destination is performed.

[実施形態2に係る屋内位置情報測位システムの処理]
図13を用いて、屋内位置情報測位システム1の処理について説明する。図13は、実施形態2に係る屋内位置情報測位システムの処理の一例を示す図である。
[Processing of Indoor Position Information Positioning System According to Second Embodiment]
Processing of the indoor position information positioning system 1 will be described with reference to FIG. FIG. 13 is a diagram illustrating an example of processing of the indoor position information positioning system according to the second embodiment.

まず、図13に示すように、入力部100は撮影画像及び撮影情報を入力する(ステップS201)。例えば、撮影画像とは、ユーザ端末で撮影した天井の画像であり、撮影情報とはユーザ端末の画角及び撮影時の撮影角度である。入力処理部201は、入力された情報を認識し、各部へ処理に必要な情報を転送する(ステップS202)。具体的には、撮影画像は画像マッチング部202へ転送され、撮影情報は位置情報算出部203へ転送される。   First, as shown in FIG. 13, the input unit 100 inputs a photographed image and photographing information (step S201). For example, the photographed image is an image of a ceiling photographed by the user terminal, and the photographing information is the angle of view of the user terminal and the photographing angle at the time of photographing. The input processing unit 201 recognizes the input information and transfers information necessary for processing to each unit (step S202). Specifically, the captured image is transferred to the image matching unit 202, and the shooting information is transferred to the position information calculation unit 203.

そして、画像マッチング部202は、撮影画像と天井情報データベース301の対象画像とのマッチングを行い、撮影画像の画像位置情報を算出する(ステップS203)。画像撮影位置は、例えば、撮影画像を矩形とした時の中心及び各頂点の座標によって表される。位置情報算出部203は、画像位置情報及び撮影情報からユーザ端末位置情報を算出する(ステップS204)。ユーザ端末位置情報は、例えば、撮影情報に含まれるユーザ端末の画角及び撮影角度と、画像撮影位置を表す座標等から、三角比を用いた方法によって求められる。経路情報算出部204は、入力処理部201が撮影画像から取得した目的地を示す情報を取得し、ユーザ端末位置情報から目的地までの経路情報を取得し(ステップS205)、算出したユーザ端末位置情報及び目的地までの経路情報を表示部400に出力する(ステップS206)。表示部400は、例えば駅の地図と、地図上にプロットされた現在地及び目的地を表示し、さらに現在地及び目的地を結ぶ経路を表示する。   Then, the image matching unit 202 performs matching between the captured image and the target image in the ceiling information database 301, and calculates image position information of the captured image (step S203). The image shooting position is represented by, for example, the coordinates of the center and each vertex when the shot image is rectangular. The position information calculation unit 203 calculates user terminal position information from the image position information and the shooting information (step S204). The user terminal position information is obtained by, for example, a method using a trigonometric ratio from the angle of view and the shooting angle of the user terminal included in the shooting information and the coordinates representing the image shooting position. The route information calculation unit 204 acquires information indicating the destination acquired by the input processing unit 201 from the captured image, acquires route information from the user terminal position information to the destination (step S205), and calculates the calculated user terminal position. Information and route information to the destination are output to the display unit 400 (step S206). The display unit 400 displays, for example, a map of the station, a current location and a destination plotted on the map, and further displays a route connecting the current location and the destination.

[実施形態2の効果]
実施形態2において、記憶部300は、屋内の地図及び各地点間の経路を含む地図情報を経路情報データベース302としてさらに記憶し、経路情報算出部204は、撮影画像に表示されている目的地を示す情報を取得し、経路情報データベース302を参照し、ユーザ端末位置情報が示す位置から目的地までの経路を算出する。
[Effect of Embodiment 2]
In the second embodiment, the storage unit 300 further stores map information including an indoor map and a route between points as the route information database 302, and the route information calculation unit 204 displays the destination displayed in the captured image. The information shown is acquired, the route information database 302 is referred to, and the route from the position indicated by the user terminal position information to the destination is calculated.

これにより、従来GPSを用いた経路情報の利用ができなかった駅の構内において経路情報が利用できるようになる。また、駅の構内に設置されている案内版の画像から目的地を抽出することで、目的地の入力を省略することができる。また、混雑していない経路を優先して表示することによって、ユーザは目的地へスムーズに到達することができる。   As a result, the route information can be used on the premises of the station where the route information using the conventional GPS could not be used. Also, by inputting the destination from the image of the guidance version installed on the station premises, the input of the destination can be omitted. In addition, by displaying a route that is not congested with priority, the user can smoothly reach the destination.

[実施形態3に係る屋内位置情報測位システムの構成]
ところで、上記の実施形態1では、ユーザ端末によって撮影された撮影画像と撮影情報とを用いて、ユーザ端末位置情報を算出する場合を説明したが、本発明はこれに限定されるものではなく、建物内に入る前にGPSを利用して取得した位置情報等をさらに利用して、ユーザ端末位置情報を算出するようにしてもよい。
[Configuration of Indoor Position Information Positioning System According to Embodiment 3]
By the way, in said Embodiment 1, although the case where user terminal position information was calculated using the picked-up image and imaging | photography information image | photographed with the user terminal was demonstrated, this invention is not limited to this, The user terminal position information may be calculated by further using position information obtained using GPS before entering the building.

そこで、以下の実施形態3の説明では、建物内に入る前にGPSを利用して取得した屋外位置情報から、屋外位置情報に対応する入口が属するエリアを算出し、該エリアにおける対象画像を用いてマッチングを行い、ユーザ端末の位置を算出する場合について説明する。   Therefore, in the following description of Embodiment 3, the area to which the entrance corresponding to the outdoor position information belongs is calculated from the outdoor position information acquired using GPS before entering the building, and the target image in the area is used. A case where matching is performed and the position of the user terminal is calculated will be described.

図14を用いて、実施形態3に係る屋内位置情報測位システムの構成について説明する。図14は、実施形態3に係る屋内位置情報測位システムの構成の一例を示すブロック図である。実施形態3は、ユーザが建物内に入った入口からエリアを特定し、特定したエリアにおいてマッチングを行う。図14に示すように、屋内位置情報測位システム1は、実施形態1の構成に加えて位置情報入力部103、エリア算出部205及び屋内地図データベース303を有する。   The configuration of the indoor position information positioning system according to the third embodiment will be described with reference to FIG. FIG. 14 is a block diagram illustrating an example of a configuration of an indoor position information positioning system according to the third embodiment. In the third embodiment, an area is specified from an entrance where a user enters a building, and matching is performed in the specified area. As illustrated in FIG. 14, the indoor position information positioning system 1 includes a position information input unit 103, an area calculation unit 205, and an indoor map database 303 in addition to the configuration of the first embodiment.

まず、入力部100は、ユーザ端末が建物内に移動する前に屋外で取得した屋外位置情報をさらに入力する。具体的には、位置情報入力部103は、建物内に入る前にGPSを利用して取得した位置情報である屋外位置情報を入力する。そして、入力処理部201は、入力された屋外位置情報をエリア算出部205へ転送する。   First, the input unit 100 further inputs outdoor position information acquired outdoors before the user terminal moves into the building. Specifically, the position information input unit 103 inputs outdoor position information, which is position information acquired using GPS before entering the building. Then, the input processing unit 201 transfers the input outdoor position information to the area calculation unit 205.

記憶部300は、屋内を複数のエリアに分けた地図と、屋内の各入口近傍の屋外で取得される位置情報とを対応付けて屋内地図データベース303としてさらに記憶している。エリア算出部205は、屋内地図データベース303を参照し、建物内のエリアのうち、入力された屋外位置情報に対応する入口が属するエリアを算出する。画像マッチング部202は、エリア算出部205によって算出されたエリアにおける対象画像を用いてマッチングを行う。   The storage unit 300 further stores an indoor map database 303 by associating a map in which an indoor area is divided into a plurality of areas and position information acquired outdoors in the vicinity of each indoor entrance. The area calculation unit 205 refers to the indoor map database 303 and calculates an area to which an entrance corresponding to the input outdoor position information belongs among the areas in the building. The image matching unit 202 performs matching using the target image in the area calculated by the area calculation unit 205.

[実施形態3に係る屋内位置情報測位システムの処理]
図15を用いて、屋内位置情報測位システム1の処理について説明する。図15は、実施形態3に係る屋内位置情報測位システムの処理の一例を示す図である。
[Processing of Indoor Position Information Positioning System According to Third Embodiment]
The process of the indoor position information positioning system 1 will be described with reference to FIG. FIG. 15 is a diagram illustrating an example of processing of the indoor position information positioning system according to the third embodiment.

まず、図15に示すように、入力部100は撮影画像、撮影情報及び屋外位置情報を入力する(ステップS301)。例えば、撮影画像とは、ユーザ端末で撮影した天井の画像であり、撮影情報とはユーザ端末の画角及び撮影時の撮影角度であり、屋外情報とは建物内に入る前に最後にGPSによって取得した位置情報である。入力処理部201は、入力された情報を認識し、各部へ処理に必要な情報を転送する(ステップS302)。具体的には、撮影画像及び屋外位置情報は画像マッチング部202へ転送され、撮影情報は位置情報算出部203へ転送される。   First, as shown in FIG. 15, the input unit 100 inputs a photographed image, photographing information, and outdoor position information (step S301). For example, a photographed image is an image of a ceiling photographed by a user terminal, photographing information is a field angle of the user terminal and a photographing angle at the time of photographing, and outdoor information is finally obtained by GPS before entering the building. It is the acquired position information. The input processing unit 201 recognizes the input information and transfers information necessary for processing to each unit (step S302). Specifically, the captured image and the outdoor position information are transferred to the image matching unit 202, and the captured information is transferred to the position information calculation unit 203.

そして、エリア算出部205は、屋外位置情報を屋内地図データベース303と照合し、撮影が行われたエリアを算出する(ステップS303)。画像マッチング部202は、撮影画像と天井情報データベース301の算出されたエリア付近の対象画像とのマッチングを行い、撮影画像の画像位置情報を算出する(ステップS304)。画像撮影位置は、例えば、撮影画像を矩形とした時の中心及び各頂点の座標によって表される。位置情報算出部203は、画像位置情報及び撮影情報からユーザ端末位置情報を算出する(ステップS305)。ユーザ端末位置情報は、例えば、撮影情報に含まれるユーザ端末の画角及び撮影角度と、画像撮影位置を表す座標等から、三角比を用いた方法によって求められる。最後に、位置情報算出部203は、算出したユーザ端末位置情報を表示部400に出力する(ステップS306)。表示部400に出力されるユーザ端末位置情報は、ユーザ端末の位置を示す座標のみであってもよいし、座標に対応する建物内のエリアの名称等であってもよい。   Then, the area calculation unit 205 compares the outdoor position information with the indoor map database 303, and calculates the area where the image was taken (step S303). The image matching unit 202 performs matching between the captured image and a target image near the calculated area of the ceiling information database 301, and calculates image position information of the captured image (step S304). The image shooting position is represented by, for example, the coordinates of the center and each vertex when the shot image is rectangular. The position information calculation unit 203 calculates user terminal position information from the image position information and the shooting information (step S305). The user terminal position information is obtained by, for example, a method using a trigonometric ratio from the angle of view and the shooting angle of the user terminal included in the shooting information and the coordinates representing the image shooting position. Finally, the position information calculation unit 203 outputs the calculated user terminal position information to the display unit 400 (step S306). The user terminal position information output to the display unit 400 may be only the coordinates indicating the position of the user terminal, or the name of an area in the building corresponding to the coordinates.

[実施形態3の効果]
実施形態3において、入力部100は、ユーザ端末が建物内に移動する前に屋外で取得した屋外位置情報をさらに入力し、記憶部300は、屋内を複数のエリアに分けた地図と、屋内の各入口近傍の屋外で取得される位置情報とを対応付けて屋内地図データベース303としてさらに記憶し、エリア算出部205は屋内地図データベース303を参照し、建物内のエリアのうち、入力された屋外位置情報に対応する入口が属するエリアを算出し、画像マッチング部202は、エリア算出部205によって算出されたエリアにおける対象画像を用いてマッチングを行う。これにより、画像マッチング部202では、限定された範囲でのみマッチングを行えばよく、処理の負担を低減することができる。
[Effect of Embodiment 3]
In the third embodiment, the input unit 100 further inputs outdoor position information acquired outdoors before the user terminal moves into the building, and the storage unit 300 includes a map in which the indoor is divided into a plurality of areas, The location information acquired outdoors in the vicinity of each entrance is further associated and stored as the indoor map database 303, and the area calculation unit 205 refers to the indoor map database 303 and inputs the outdoor location input from the areas in the building. The area to which the entrance corresponding to the information belongs is calculated, and the image matching unit 202 performs matching using the target image in the area calculated by the area calculation unit 205. Thereby, the image matching unit 202 only needs to perform matching within a limited range, and the processing burden can be reduced.

[その他の実施形態]
なお、上記の実施形態において、入力部100はユーザ端末によって撮影された画像の入力を行うこととしたが、ユーザ端末によって撮影された動画を入力することとしてもよい。この場合、画像マッチング部202は、動画から抽出した抽出画像と、記憶部300に記憶されている対象画像とのマッチングを行い、抽出画像にマッチする対象画像に対応する位置情報を画像位置情報として記憶部300から取得する。これにより、例えば、画像マッチング部202は連続的に画像を取得しマッチングを行うことができる。その結果、屋内位置情報測位システム1はユーザ端末の位置を追い続けることができる。
[Other Embodiments]
In the above embodiment, the input unit 100 inputs an image captured by the user terminal, but may input a moving image captured by the user terminal. In this case, the image matching unit 202 performs matching between the extracted image extracted from the moving image and the target image stored in the storage unit 300, and uses position information corresponding to the target image that matches the extracted image as image position information. Obtained from the storage unit 300. Thereby, for example, the image matching unit 202 can acquire images continuously and perform matching. As a result, the indoor position information positioning system 1 can keep track of the position of the user terminal.

また、入力処理部201は、入力した動画から複数の抽出画像を抽出し、抽出画像を繋ぎ合わせ、広範囲の画像を生成し、画像マッチング部202部へ転送してもよい。この場合、画像マッチング部202は、広範囲の画像を用いてマッチングを行うことでマッチングの精度を向上させることができる。   The input processing unit 201 may extract a plurality of extracted images from the input moving image, connect the extracted images, generate a wide range of images, and transfer the images to the image matching unit 202. In this case, the image matching unit 202 can improve matching accuracy by performing matching using a wide range of images.

なお、動画を用いて広範囲な画像を生成することについて説明したが、入力処理部201は複数の画像を用いて広範囲な画像を生成することもできる。例えば、一枚の撮影画像でユーザ端末の位置を特定できなかった場合に、入力部100は周辺を撮影した画像をさらに入力する。そして、入力処理部201は入力された画像を繋ぎ合わせ、広範囲の画像を生成する。これにより、画像マッチング部202は、動画の入力を行うことなく広範囲の画像を用いてマッチングを行い、マッチングの精度を向上させることができる。   Note that generation of a wide range image using a moving image has been described, but the input processing unit 201 can also generate a wide range image using a plurality of images. For example, when the position of the user terminal cannot be specified with a single captured image, the input unit 100 further inputs an image of the periphery. The input processing unit 201 then joins the input images and generates a wide range of images. Accordingly, the image matching unit 202 can perform matching using a wide range of images without inputting a moving image, and can improve the matching accuracy.

[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[System configuration, etc.]
Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part of the distribution / integration is functionally or physically distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. Further, all or a part of each processing function performed in each device can be realized by a CPU and a program that is analyzed and executed by the CPU, or can be realized as hardware by wired logic.

また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。   Also, among the processes described in this embodiment, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above-described document and drawings can be arbitrarily changed unless otherwise specified.

[プログラム]
また、上記実施形態において説明した屋内位置情報測位システムが実行する処理について、コンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータが読み取り可能な記録媒体に記録して、この記録媒体に記録されプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。以下に、図1に示した屋内位置情報測位システムと同様の機能を実現するプログラムを実行するコンピュータの一例を説明する。
[program]
In addition, a program described in a language that can be executed by a computer can be created for the processing executed by the indoor position information positioning system described in the above embodiment. In this case, the same effect as the above-described embodiment can be obtained by the computer executing the program. Further, such a program may be recorded on a computer-readable recording medium, and the process similar to the above-described embodiment may be realized by recording the program on the recording medium and causing the computer to read and execute the program. Hereinafter, an example of a computer that executes a program that realizes the same function as the indoor position information positioning system illustrated in FIG. 1 will be described.

図16は、屋内位置情報測位プログラムを実行するコンピュータの一例を示す図である。図16に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。   FIG. 16 is a diagram illustrating an example of a computer that executes an indoor position information positioning program. As illustrated in FIG. 16, the computer 1000 includes, for example, a memory 1010, a CPU 1020, a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. These units are connected by a bus 1080.

メモリ1010は、図16に例示するように、ROM(Read Only Memory)1011及びRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図16に例示するように、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、図16に例示するように、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、図16に例示するように、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、図16に例示するように、例えばディスプレイ1130に接続される。   The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM (Random Access Memory) 1012 as illustrated in FIG. The ROM 1011 stores a boot program such as BIOS (Basic Input Output System). The hard disk drive interface 1030 is connected to the hard disk drive 1090 as illustrated in FIG. The disk drive interface 1040 is connected to the disk drive 1100 as illustrated in FIG. For example, a removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive 1100. The serial port interface 1050 is connected to a mouse 1110 and a keyboard 1120, for example, as illustrated in FIG. The video adapter 1060 is connected to a display 1130, for example, as illustrated in FIG.

ここで、図16に例示するように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記のプログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。   Here, as illustrated in FIG. 16, the hard disk drive 1090 stores, for example, an OS 1091, an application program 1092, a program module 1093, and program data 1094. That is, the above program is stored in, for example, the hard disk drive 1090 as a program module in which a command to be executed by the computer 1000 is described.

また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、実行する。   In addition, various data described in the above embodiment is stored as program data in, for example, the memory 1010 or the hard disk drive 1090. Then, the CPU 1020 reads the program module 1093 and the program data 1094 stored in the memory 1010 and the hard disk drive 1090 to the RAM 1012 as necessary, and executes them.

なお、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。   The program module 1093 and the program data 1094 related to the program are not limited to being stored in the hard disk drive 1090, but may be stored in, for example, a removable storage medium and read out by the CPU 1020 via the disk drive 1100 or the like. Good. Alternatively, the program module 1093 and the program data 1094 related to the program are stored in another computer connected via a network (LAN (Local Area Network), WAN (Wide Area Network), etc.), and via the network interface 1070. It may be read by the CPU 1020.

1 屋内位置情報測位システム
100 入力部
101 画像入力部
102 撮影情報入力部
103 位置情報入力部
200 計算処理部
201 入力処理部
202 画像マッチング部
203 位置情報算出部
204 経路情報算出部
205 エリア算出部
300 記憶部
301 天井情報データベース
302 経路情報データベース
303 屋内地図データベース
400 表示部
DESCRIPTION OF SYMBOLS 1 Indoor location information positioning system 100 Input part 101 Image input part 102 Image | photographing information input part 103 Position information input part 200 Calculation processing part 201 Input processing part 202 Image matching part 203 Position information calculation part 204 Path | route information calculation part 205 Area calculation part 300 Storage unit 301 Ceiling information database 302 Route information database 303 Indoor map database 400 Display unit

Claims (8)

建物内の壁または天井の対象画像及び前記対象画像上の各地点における位置情報を記憶する記憶部と、
ユーザ端末によって撮影された撮影画像の入力を行う入力部と、
前記入力部に入力された前記撮影画像と、前記記憶部に記憶されている前記対象画像とのマッチングを行い、前記撮影画像にマッチする前記対象画像に対応する位置情報を画像位置情報として前記記憶部から取得する画像マッチング部と、
前記画像位置情報及び前記ユーザ端末の撮影時の状態を示す撮影情報から、前記撮影画像を撮影した時の前記ユーザ端末の位置情報であるユーザ端末位置情報を算出する位置情報算出部と、
前記ユーザ端末位置情報を表示する表示部と、
を有することを特徴とする屋内位置情報測位システム。
A storage unit for storing a target image of a wall or ceiling in a building and position information at each point on the target image;
An input unit for inputting a photographed image photographed by the user terminal;
The captured image input to the input unit is matched with the target image stored in the storage unit, and position information corresponding to the target image that matches the captured image is stored as image position information. An image matching unit acquired from the unit;
A position information calculation unit that calculates user terminal position information, which is position information of the user terminal when the captured image is captured, from the image position information and shooting information indicating a state at the time of shooting of the user terminal;
A display unit for displaying the user terminal position information;
An indoor position information positioning system characterized by comprising:
前記入力部は、前記ユーザ端末の撮影時の撮影角度と、撮影時の高さと、画角と、を前記撮影情報として入力し、
前記位置情報算出部は、前記撮影情報に基づいて前記ユーザ端末位置情報を算出することを特徴とする請求項1に記載の屋内位置情報測位システム。
The input unit inputs a shooting angle at the time of shooting of the user terminal, a height at the time of shooting, and an angle of view as the shooting information,
The indoor position information positioning system according to claim 1, wherein the position information calculation unit calculates the user terminal position information based on the shooting information.
前記記憶部は、前記位置情報として階数をさらに記憶し、
前記画像マッチング部は、前記入力部に入力された前記撮影画像と、前記記憶部に記憶されている前記対象画像とのマッチングを行い、前記撮影画像にマッチする前記対象画像に対応する、前記階数を含む前記画像位置情報を前記記憶部から取得し、
前記表示部は、前記画像位置情報に含まれる階数を表示することを特徴とする請求項1または2に記載の屋内位置情報測位システム。
The storage unit further stores a floor number as the position information,
The image matching unit performs matching between the captured image input to the input unit and the target image stored in the storage unit, and corresponds to the target image that matches the captured image. The image position information including:
The indoor position information positioning system according to claim 1, wherein the display unit displays a floor number included in the image position information.
前記記憶部は、屋内の各地点の周辺の展示物に関する情報をさらに記憶し、
前記表示部は、前記ユーザ端末位置情報に対応する地点の前記周辺の展示物に関する情報を前記記憶部から取得し、表示することを特徴とする請求項1から3のいずれか1項に記載の屋内位置情報測位システム。
The storage unit further stores information about exhibits around each indoor point,
The said display part acquires the information regarding the said surrounding exhibit of the point corresponding to the said user terminal position information from the said memory | storage part, It displays, The any one of Claim 1 to 3 characterized by the above-mentioned. Indoor location information positioning system.
前記記憶部は、屋内の地図及び各地点間の経路を含む第一の屋内地図情報をさらに記憶し、
前記撮影画像に表示されている目的地を示す情報を取得し、前記第一の屋内地図情報を参照し、前記ユーザ端末位置情報が示す位置から前記目的地までの経路を算出する経路情報算出部をさらに有し、
前記表示部は、前記経路情報算出部が算出した前記経路を表示することを特徴とする請求項1から4のいずれか1項に記載の屋内位置情報測位システム。
The storage unit further stores first indoor map information including an indoor map and a route between points,
A route information calculation unit that acquires information indicating the destination displayed in the captured image, refers to the first indoor map information, and calculates a route from the position indicated by the user terminal position information to the destination Further comprising
The indoor position information positioning system according to any one of claims 1 to 4, wherein the display unit displays the route calculated by the route information calculation unit.
前記入力部は、前記ユーザ端末が建物内に移動する前に屋外で取得した屋外位置情報をさらに入力し、
前記記憶部は、屋内を複数のエリアに分けた地図と、屋内の各入口近傍の屋外で取得される位置情報とを対応付けて記憶する第二の屋内地図情報をさらに記憶し、
前記第二の屋内地図情報から、前記屋外位置情報に対応する入口が属するエリアを算出するエリア算出部をさらに有し、
前記画像マッチング部は、前記エリア算出部によって算出されたエリアにおける前記対象画像を用いてマッチングを行うことを特徴とする請求項1から5のいずれか1項に記載の屋内位置情報測位システム。
The input unit further inputs outdoor position information acquired outdoors before the user terminal moves into the building,
The storage unit further stores second indoor map information that associates and stores a map that divides an indoor area into a plurality of areas and position information that is acquired outdoors in the vicinity of each indoor entrance,
From the second indoor map information, further comprising an area calculation unit for calculating an area to which the entrance corresponding to the outdoor position information belongs,
The indoor position information positioning system according to any one of claims 1 to 5, wherein the image matching unit performs matching using the target image in the area calculated by the area calculating unit.
前記入力部は、前記ユーザ端末によって撮影された動画の入力を行い、
前記画像マッチング部は、前記動画から抽出した抽出画像と、前記記憶部に記憶されている前記対象画像とのマッチングを行い、前記抽出画像にマッチする前記対象画像に対応する位置情報を画像位置情報として前記記憶部から取得することを特徴とする請求項1から6のいずれか1項に記載の屋内位置情報測位システム。
The input unit inputs a video shot by the user terminal,
The image matching unit performs matching between the extracted image extracted from the moving image and the target image stored in the storage unit, and sets position information corresponding to the target image that matches the extracted image as image position information. The indoor position information positioning system according to any one of claims 1 to 6, wherein the indoor position information positioning system is acquired from the storage unit.
屋内位置情報測位システムで実行される屋内位置情報測位方法であって、
屋内位置情報測位システムが、建物内の壁または天井の対象画像及び前記対象画像上の各地点における位置情報を記憶する記憶部を有し、
ユーザ端末によって撮影された撮影画像の入力を行う入力工程と、
前記入力工程に入力された前記撮影画像と、前記記憶部に記憶されている前記対象画像とのマッチングを行い、前記撮影画像にマッチする前記対象画像に対応する位置情報を画像位置情報として前記記憶部から取得する画像マッチング工程と、
前記画像位置情報及び前記ユーザ端末の撮影時の状態を示す撮影情報から、前記撮影画像を撮影した時の前記ユーザ端末の位置情報であるユーザ端末位置情報を算出する位置情報算出工程と、
前記ユーザ端末位置情報を表示する表示工程と、
を含んだことを特徴とする屋内位置情報測位方法。
An indoor position information positioning method executed by an indoor position information positioning system,
The indoor position information positioning system has a storage unit that stores a target image of a wall or ceiling in a building and position information at each point on the target image,
An input step for inputting a photographed image photographed by the user terminal;
The captured image input in the input step is matched with the target image stored in the storage unit, and position information corresponding to the target image that matches the captured image is stored as image position information. Image matching process acquired from the department,
A position information calculation step of calculating user terminal position information, which is position information of the user terminal when the captured image is captured, from the image position information and shooting information indicating a state at the time of shooting of the user terminal;
A display step of displaying the user terminal position information;
An indoor location information positioning method characterized by including
JP2015044909A 2015-03-06 2015-03-06 Indoor position information positioning system and indoor position information positioning method Active JP6321570B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015044909A JP6321570B2 (en) 2015-03-06 2015-03-06 Indoor position information positioning system and indoor position information positioning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015044909A JP6321570B2 (en) 2015-03-06 2015-03-06 Indoor position information positioning system and indoor position information positioning method

Publications (2)

Publication Number Publication Date
JP2016164518A true JP2016164518A (en) 2016-09-08
JP6321570B2 JP6321570B2 (en) 2018-05-09

Family

ID=56876004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015044909A Active JP6321570B2 (en) 2015-03-06 2015-03-06 Indoor position information positioning system and indoor position information positioning method

Country Status (1)

Country Link
JP (1) JP6321570B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107131883A (en) * 2017-04-26 2017-09-05 中山大学 The full-automatic mobile terminal indoor locating system of view-based access control model
CN109520510A (en) * 2018-12-26 2019-03-26 安徽智恒信科技有限公司 A kind of indoor navigation method and system based on virtual reality technology
WO2019106847A1 (en) * 2017-12-01 2019-06-06 マクセル株式会社 Position information system using camera-captured image and camera-mounted information device used therein
CN110285799A (en) * 2019-01-17 2019-09-27 杭州志远科技有限公司 A kind of navigation system with three-dimensional visualization technique
JP2019200081A (en) * 2018-05-15 2019-11-21 日本電信電話株式会社 Positioning system, positioning method, and program
JP2020517124A (en) * 2016-10-26 2020-06-11 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited User location determination based on augmented reality
CN111750848A (en) * 2019-07-24 2020-10-09 广东小天才科技有限公司 Building positioning method and electronic equipment
WO2020234912A1 (en) * 2019-05-17 2020-11-26 三菱電機株式会社 Mobile device, position display method, and position display program
CN114061578A (en) * 2020-07-30 2022-02-18 南宁富桂精密工业有限公司 Indoor positioning path optimization method, electronic device and computer readable storage medium
JP2022531187A (en) * 2019-06-27 2022-07-06 浙江商▲湯▼科技▲開▼▲発▼有限公司 Positioning methods and devices, electronic devices and storage media

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11250393A (en) * 1998-03-05 1999-09-17 Ntt Data Corp Location dependent information presentation system
JP2013130491A (en) * 2011-12-22 2013-07-04 Hitachi Ltd Information processor and information processing method
JP2014038037A (en) * 2012-08-16 2014-02-27 Ricoh Co Ltd Location information management system and location estimation program
JP2014063300A (en) * 2012-09-20 2014-04-10 Casio Comput Co Ltd Character recognition device, character recognition processing method, and program
WO2014085733A1 (en) * 2012-11-30 2014-06-05 Qualcomm Incorporated Image-based indoor position determination

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11250393A (en) * 1998-03-05 1999-09-17 Ntt Data Corp Location dependent information presentation system
JP2013130491A (en) * 2011-12-22 2013-07-04 Hitachi Ltd Information processor and information processing method
JP2014038037A (en) * 2012-08-16 2014-02-27 Ricoh Co Ltd Location information management system and location estimation program
JP2014063300A (en) * 2012-09-20 2014-04-10 Casio Comput Co Ltd Character recognition device, character recognition processing method, and program
WO2014085733A1 (en) * 2012-11-30 2014-06-05 Qualcomm Incorporated Image-based indoor position determination

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020517124A (en) * 2016-10-26 2020-06-11 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited User location determination based on augmented reality
CN107131883A (en) * 2017-04-26 2017-09-05 中山大学 The full-automatic mobile terminal indoor locating system of view-based access control model
JPWO2019106847A1 (en) * 2017-12-01 2020-12-17 マクセル株式会社 A position information system that uses images taken by a camera, and an information device with a camera that uses it.
WO2019106847A1 (en) * 2017-12-01 2019-06-06 マクセル株式会社 Position information system using camera-captured image and camera-mounted information device used therein
JP7001711B2 (en) 2017-12-01 2022-01-20 マクセル株式会社 A position information system that uses images taken by a camera, and an information device with a camera that uses it.
JP2019200081A (en) * 2018-05-15 2019-11-21 日本電信電話株式会社 Positioning system, positioning method, and program
WO2019221077A1 (en) * 2018-05-15 2019-11-21 日本電信電話株式会社 Positioning system, positioning method, and program
CN109520510A (en) * 2018-12-26 2019-03-26 安徽智恒信科技有限公司 A kind of indoor navigation method and system based on virtual reality technology
CN110285799A (en) * 2019-01-17 2019-09-27 杭州志远科技有限公司 A kind of navigation system with three-dimensional visualization technique
WO2020234912A1 (en) * 2019-05-17 2020-11-26 三菱電機株式会社 Mobile device, position display method, and position display program
JPWO2020234912A1 (en) * 2019-05-17 2021-10-28 三菱電機株式会社 Portable device, position display method, and position display program
JP2022531187A (en) * 2019-06-27 2022-07-06 浙江商▲湯▼科技▲開▼▲発▼有限公司 Positioning methods and devices, electronic devices and storage media
JP7245363B2 (en) 2019-06-27 2023-03-23 浙江商▲湯▼科技▲開▼▲発▼有限公司 Positioning method and device, electronic equipment and storage medium
US12020463B2 (en) 2019-06-27 2024-06-25 Zhejiang Sensetime Technology Development Co., Ltd. Positioning method, electronic device and storage medium
CN111750848A (en) * 2019-07-24 2020-10-09 广东小天才科技有限公司 Building positioning method and electronic equipment
CN111750848B (en) * 2019-07-24 2024-03-19 广东小天才科技有限公司 Building positioning method and electronic equipment
CN114061578A (en) * 2020-07-30 2022-02-18 南宁富桂精密工业有限公司 Indoor positioning path optimization method, electronic device and computer readable storage medium

Also Published As

Publication number Publication date
JP6321570B2 (en) 2018-05-09

Similar Documents

Publication Publication Date Title
JP6321570B2 (en) Indoor position information positioning system and indoor position information positioning method
JP7480823B2 (en) Information processing device, information processing method, and program
CN108234927B (en) Video tracking method and system
TWI483215B (en) Augmenting image data based on related 3d point cloud data
US12039773B2 (en) Image display system, terminal, method, and program for determining a difference between a first image and a second image
EP3438925A1 (en) Information processing method and information processing device
US20130211718A1 (en) Apparatus and method for providing indoor navigation service
JP6896688B2 (en) Position calculation device, position calculation program, position calculation method, and content addition system
US10817747B2 (en) Homography through satellite image matching
US10107629B2 (en) Information processing system, information processing method, and non-transitory computer readable storage medium
US20170039450A1 (en) Identifying Entities to be Investigated Using Storefront Recognition
CN109996032B (en) Information display method and device, computer equipment and storage medium
US20150156416A1 (en) Systems and Methods for Updating Panoramic Images
CN110703805A (en) Method, device and equipment for planning three-dimensional object surveying and mapping route, unmanned aerial vehicle and medium
CN107193820B (en) Position information acquisition method, device and equipment
JP2019027799A (en) Positioning accuracy information calculation device and positioning accuracy information calculation method
KR20210015226A (en) Terminal devicem, service server and method for indoor positioning based on object detection
US9418284B1 (en) Method, system and computer program for locating mobile devices based on imaging
CN113610702B (en) Picture construction method and device, electronic equipment and storage medium
JP2017173001A (en) Information terminal, position estimation method, and position estimation program
CN107703954B (en) Target position surveying method and device for unmanned aerial vehicle and unmanned aerial vehicle
US20190073791A1 (en) Image display system, terminal, method, and program
CN109977784B (en) Method and device for acquiring information
JP2009238029A (en) Coordinate corresponding device, coordinate corresponding method, and program
CN107704579B (en) Road network-based crowdsourcing data processing method, device, equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180405

R150 Certificate of patent or registration of utility model

Ref document number: 6321570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150