JP2015005220A - Information display device and information display method - Google Patents

Information display device and information display method Download PDF

Info

Publication number
JP2015005220A
JP2015005220A JP2013131055A JP2013131055A JP2015005220A JP 2015005220 A JP2015005220 A JP 2015005220A JP 2013131055 A JP2013131055 A JP 2013131055A JP 2013131055 A JP2013131055 A JP 2013131055A JP 2015005220 A JP2015005220 A JP 2015005220A
Authority
JP
Japan
Prior art keywords
display device
information
information display
information storage
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013131055A
Other languages
Japanese (ja)
Inventor
啓水 奥間
Hiromi Okuma
啓水 奥間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013131055A priority Critical patent/JP2015005220A/en
Publication of JP2015005220A publication Critical patent/JP2015005220A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which: in virtual object display, when a featured area in a photographed image is obstructed by the cause such as persons and objects, or in an environment where the featured area is difficult to be detected from the photographed image due to a little change in color of the photographed image, the virtual object may not be normally displayed.SOLUTION: An information display device provides a sensor database using a GPS and direction sensor as a position database that is referred to by a virtual object display device, and a feature point database specifying a position from the feature points in a photographed image; and specifies the position of a subject by using the feature point database when the position can be specified from the feature points and by using the sensor database when the position cannot be specified, and displays a virtual object associated with the position overlapped on the subject.

Description

本発明は、例えば拡張現実表示システムなどの情報表示装置及び情報表示方法に関する。   The present invention relates to an information display device such as an augmented reality display system and an information display method.

近年において、AR(Augumented Reality:拡張現実)技術を用いたサービスが開発・提供されている。ARは主にカメラ等で撮影された現実空間の画像に対して仮想オブジェクトを重畳表示するものである。ARを提示するデバイスとしては、携帯端末や、HMD(Head‐mounted Display)等が利用される。このようなARを利用したサービスとして、頓智ドット株式会社が提供する「セカイカメラ」やオランダのSPRXmobile社が提供する「Layer」がある(「セカイカメラ」、「Layer」は各社の商標または登録商標である)。これらのサービスでは、GPS(Global Positioning System)で得られる位置情報を利用し、カメラで撮影している風景に関連付けられた情報が重畳して表示される。また、特定のパターン(マーカ)を認識し、AR表示するマーカを用いた技術や、撮像画像から特徴点を抽出し特徴点の情報から自己位置を推定することでAR表示を決定するマーカーレス技術も見られる。さらに、このようなマーカや特徴点が隠れることにより、パターンを正しく認識できなかった場合に撮像画像を画像処理することによってパターンを推定し、AR表示を行う技術がある。例えば、仮想オブジェクトを正しく表示できている時点の現実空間のマーカを含む撮像画像を登録しておき、マーカを正しく検出できなくなった場合に、登録した撮像画像と現在の撮像画像との間における画像の変化を取得し、変化に応じて仮想オブジェクトの表示様態を決定する技術がある(特許文献1)。   In recent years, services using AR (Augmented Reality) technology have been developed and provided. The AR is to superimpose and display a virtual object on an image of a real space photographed mainly by a camera or the like. As a device for presenting an AR, a mobile terminal, an HMD (Head-Mounted Display), or the like is used. As services using such AR, there are “Sekai Camera” provided by Tonchi Dot Co., Ltd. and “Layer” provided by SPRXmobile in the Netherlands (“Sekai Camera” and “Layer” are trademarks or registered trademarks of each company). Is). In these services, position information obtained by GPS (Global Positioning System) is used, and information associated with the scenery photographed by the camera is superimposed and displayed. Further, a technique using a marker for recognizing a specific pattern (marker) and AR display, or a markerless technique for determining AR display by extracting a feature point from a captured image and estimating a self-position from the feature point information. Can also be seen. Further, there is a technique for performing AR display by estimating a pattern by performing image processing on a captured image when such a marker or feature point is hidden and the pattern cannot be correctly recognized. For example, when a captured image including a marker in the real space at the time when the virtual object can be correctly displayed is registered and the marker cannot be detected correctly, an image between the registered captured image and the current captured image is displayed. There is a technique for acquiring a change in the virtual object and determining a display mode of a virtual object in accordance with the change (Patent Document 1).

特開2012−103789号公報JP 2012-103789 A

マーカや特徴点といったARを表示するために必要な特徴となるパターンが一部分だけ撮像画像に含まれている場合、画像処理による推定が可能であるが、このようなパターンが人物や物体によって撮像画像から完全に隠れてしまう場合、撮像画像から自己位置を推定することができない。さらに、撮像画像から特徴点を抽出する際にホワイトボードや白い壁など色の変化の少ない物体が撮像画像に含まれていると、特徴点を抽出できず自己位置を推定できない。そのためAR表示を正しく継続して表示できないという問題点があった。   When a captured image includes only a part of a pattern that is a feature necessary for displaying an AR, such as a marker or a feature point, it can be estimated by image processing. Such a pattern is captured by a person or an object. If it is completely hidden from the image, the self-position cannot be estimated from the captured image. Furthermore, if a feature point is extracted from a captured image and an object with little color change, such as a whiteboard or a white wall, is included in the captured image, the feature point cannot be extracted and the self-position cannot be estimated. For this reason, there is a problem that the AR display cannot be continuously displayed correctly.

本発明は、上記問題点に鑑みてなされたものであり、何らかの原因により特徴となる領域が隠れたりあるいは抽出できなかった場合においても、ARを表示し続けることが可能な情報表示装置及び情報表示方法を提供することを目的とする。   The present invention has been made in view of the above problems, and an information display device and an information display that can continue to display an AR even when a characteristic region is hidden or cannot be extracted for some reason It aims to provide a method.

本発明は、情報表示装置であって、
情報表示装置により撮影した画像データに基づく前記情報表示装置の位置を記憶する第1の情報記憶手段と、
位置検知手段により検知した位置を記憶する第2の情報記憶手段と、
被写体を撮影して画像データを取得する画像取得手段と、
前記画像取得手段により取得した画像データおよび前記第1の情報記憶手段に記憶された画像データに基づいて前記情報表示装置の位置を特定できる場合には前記第1の情報記憶手段を参照し、特定できない場合には前記第2の情報記憶手段を参照して前記情報表示装置の位置を特定する位置特定手段と、
前記位置特定手段により特定された位置に応じて、保持されている仮想オブジェクトを前記画像データに重畳して表示する表示手段とを有することを特徴とする。
The present invention is an information display device,
First information storage means for storing a position of the information display device based on image data photographed by the information display device;
Second information storage means for storing the position detected by the position detection means;
Image acquisition means for capturing an image of a subject and acquiring image data;
When the position of the information display device can be specified based on the image data acquired by the image acquisition unit and the image data stored in the first information storage unit, the first information storage unit is referred to and specified. If not, position specifying means for specifying the position of the information display device with reference to the second information storage means;
And display means for displaying the held virtual object superimposed on the image data in accordance with the position specified by the position specifying means.

撮像画像から特徴となる領域が取得できなくなった場合でも、撮影画像に関連付けた仮想オブジェクトを表示し続けることが可能となる。   Even when it becomes impossible to acquire a characteristic region from the captured image, it is possible to continue displaying the virtual object associated with the captured image.

仮想オブジェクト表示装置の機能構成を示すブロック図Block diagram showing the functional configuration of the virtual object display device 仮想オブジェクト表示装置のハードブロック図Hardware block diagram of virtual object display device 特徴点データベースの図Feature point database diagram センサデータベースの図Sensor database diagram 仮想オブジェクトデータベースの図Virtual object database diagram 実施例1におけるシステム全体のフローチャートFlowchart of the entire system in the first embodiment 特徴点データベース更新処理のフローチャートFeature point database update process flowchart センサデータベース更新処理のフローチャートFlow chart of sensor database update processing (A)3次元座標系における表示装置と仮想オブジェクトの図、(B)仮想オブジェクトの表示例の図(A) Diagram of display device and virtual object in three-dimensional coordinate system, (B) Diagram of display example of virtual object 実施形態2におけるシステム全体のフローチャートFlowchart of the entire system in the second embodiment 実施形態2におけるデータベース移行判定処理を示すフローチャートThe flowchart which shows the database transfer determination process in Embodiment 2.

以下、本発明を実施するための最良の形態について図面を用いて説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

[実施形態1]
図1は、本実施形態に係る情報表示装置、例えば仮想オブジェクト表示装置0100の機能構成を示すブロック図である。本実施形態の仮想オブジェクト表示装置0100は、撮像手段により取得された現実空間の画像から特徴点を検出し、検出した特徴点から自己位置を算出することにより仮想オブジェクトを現実画像に重畳して表示する手段を有する装置である。また、本実施形態の仮想オブジェクト表示装置0100は別の表示手段として、オブジェクト表示装置の位置情報とセンサにより取得した向き情報を用いて仮想オブジェクトを現実画像に重畳して表示する手段を有する。仮想オブジェクト表示装置は、ハードウェア資源として少なくとも、画像を撮影するカメラと、撮影した情報を処理するプロセッサと、撮影した画像と仮想オブジェクトとを重畳して表示するディスプレイとを有しており、その一例として、携帯端末やHMDなどが挙げられる。仮想オブジェクトは、現実空間の画像に重畳表示することによって、仮想オブジェクト表示装置0100を閲覧するユーザに対して情報を提供するものである。特徴点は、撮像画像から画像処理によって抽出される点であり、主に撮像画像内の物体の境目や角といった色の濃淡が大きく変化する点が特徴点として抽出される。特徴点の抽出方法についてはSIFT(Scale Invariant Feature Transform)などの技術が広く知られている。仮想オブジェクトを表示するためにマーカを用いた手法もあるが、マーカから特徴点を抽出できるため、本提案では特徴点を用いた手法の一種として説明する。
[Embodiment 1]
FIG. 1 is a block diagram showing a functional configuration of an information display apparatus according to this embodiment, for example, a virtual object display apparatus 0100. The virtual object display device 0100 of the present embodiment detects a feature point from an image in the real space acquired by the imaging unit, calculates a self position from the detected feature point, and superimposes and displays the virtual object on the real image. It is an apparatus which has a means to do. In addition, the virtual object display device 0100 according to this embodiment includes, as another display unit, a unit that superimposes and displays a virtual object on a real image using position information of the object display unit and orientation information acquired by a sensor. The virtual object display device has at least a camera that captures an image as a hardware resource, a processor that processes captured information, and a display that displays the captured image and the virtual object in a superimposed manner. As an example, a portable terminal, HMD, etc. are mentioned. The virtual object provides information to the user who views the virtual object display device 0100 by superimposing the virtual object on an image in the real space. A feature point is a point that is extracted from a captured image by image processing, and a point at which the color shading such as a boundary or a corner of an object in the captured image changes largely is extracted as a feature point. Techniques such as SIFT (Scale Invariant Feature Transform) are widely known as feature point extraction methods. Although there is a technique using a marker to display a virtual object, feature points can be extracted from the marker, so this proposal will be described as a kind of technique using feature points.

図1の仮想オブジェクト表示装置0100の各機能について詳細に説明する。カメラ0101は、現実空間の画像を撮影する撮像手段である。撮像画像は画像取得部0104に送出する。画像取得部0104は、カメラ0101により撮影された画像を画像データとして取得する。取得した画像データは、特徴点取得部0105に送出する。特徴点取得部0105は、撮影した画像データからSIFTなどの手法により特徴点を抽出し、特徴点を3次元座標に変換する処理を行う部分である。特徴点を3次元座標に変換する処理とは、例えば抽出した特徴点のそれぞれの3次元空間における相対的な位置を決定し、その相対位置と、その相対位置と大域的な位置との関係から、各特徴点の大域的な位置を決定する処理などである。大域的な位置とは、例えば経緯度および標高など、後述の仮想オブジェクト情報が一意に関連付けられた位置である。変換結果は特徴点データベース(すなわち特徴点情報記憶部)0109に送出する。センサ0102は、装置の方向すなわちカメラ0101の方向を検知するセンサを有しており、さらに位置を検知するGPSなどの位置センサを有していてもよい。センサ値取得部0106は、センサ0102から仮想オブジェクト表示装置0100の位置や向き情報を取得する。取得した情報は、センサデータベース(すなわちセンサ情報記憶部)0110に送出する。参照データベース決定部0107は、取得した特徴点の数に応じて特徴点データベース0109を参照するか、それともセンサデータベース0110を参照するかを決定する。参照データベース決定部0107はまた、参照先のデータベースの決定後、参照するデータベースから得られた撮影対象物の位置情報を仮想オブジェクト表示決定部0108に送出する。仮想オブジェクト表示決定部0108は、仮想オブジェクトデータベース0111を参照し、撮影対象物の位置情報に応じた仮想オブジェクトを表示部0103に重畳表示する。なお特徴点データベース0109を第1の情報記憶部、センサデータベース0110を第2の情報記憶部とよぶこともある。また撮影対象物の位置情報は、特徴点データベース0109を参照した場合にはその特徴点から特定することもできるが。センサデータベース0110を参照した場合には、仮想オブジェクト表示装置100の位置とカメラの方向とから撮影対象物の位置特定、少なくとも撮影範囲の特定を行うことができる。   Each function of the virtual object display device 0100 of FIG. 1 will be described in detail. The camera 0101 is an imaging unit that captures an image of the real space. The captured image is sent to the image acquisition unit 0104. The image acquisition unit 0104 acquires an image captured by the camera 0101 as image data. The acquired image data is sent to the feature point acquisition unit 0105. The feature point acquisition unit 0105 is a part that extracts feature points from captured image data using a technique such as SIFT and converts the feature points into three-dimensional coordinates. The process of converting feature points into three-dimensional coordinates is, for example, determining the relative position of each extracted feature point in the three-dimensional space, and determining the relative position and the relationship between the relative position and the global position. And a process for determining a global position of each feature point. The global position is a position uniquely associated with virtual object information, which will be described later, such as longitude and latitude. The conversion result is sent to a feature point database (ie, feature point information storage unit) 0109. The sensor 0102 includes a sensor that detects the direction of the apparatus, that is, the direction of the camera 0101, and may further include a position sensor such as a GPS that detects the position. The sensor value acquisition unit 0106 acquires position and orientation information of the virtual object display device 0100 from the sensor 0102. The acquired information is sent to a sensor database (that is, a sensor information storage unit) 0110. The reference database determination unit 0107 determines whether to refer to the feature point database 0109 or the sensor database 0110 according to the number of acquired feature points. The reference database determination unit 0107 also sends the position information of the photographing target obtained from the database to be referenced to the virtual object display determination unit 0108 after the determination of the reference destination database. The virtual object display determination unit 0108 refers to the virtual object database 0111 and displays a virtual object corresponding to the position information of the shooting target on the display unit 0103 in a superimposed manner. The feature point database 0109 may be referred to as a first information storage unit, and the sensor database 0110 may be referred to as a second information storage unit. In addition, when the feature point database 0109 is referred to, the position information of the photographing object can be specified from the feature point. When the sensor database 0110 is referred to, it is possible to specify the position of the shooting target, at least the shooting range, from the position of the virtual object display device 100 and the direction of the camera.

図2は、仮想オブジェクト表示装置0100のハードウェアブロック図である。仮想オブジェクト表示装置0100は、ディスプレイ0201、カメラ0101、CPU0202、センサ0102、ネットワークインタフェース0203、バッテリ0204、フラッシュメモリ0205、メインメモリ0206、グラフィックコントローラ0207、HDD0208を有する。各要素はシステムバス0209で接続される。フラッシュメモリ0205にはブートローダプログラム及び表示装置制御プログラムが格納されている。ブートローダプログラムはコールドスタート時などにシステムプログラムをメモリにロードするためのプログラムであるが、本発明との関わりは薄いため詳しい説明は割愛する。メインメモリ0206は揮発性メモリであり、高速アクセスが可能であるので、フラッシュメモリ0205に記憶されている情報や一時的に使用する情報はここに格納される。仮想オブジェクト表示装置0100の電源投入時には、CPU0202がブートローダプログラムを読み出して実行し、フラッシュメモリ0205に格納されている表示装置制御プログラムを取り出し、メインメモリ0206に格納する。そして、CPU0202がメインメモリ0206に格納されている表示装置制御プログラムを実行し、仮想オブジェクト表示装置0100の備える各機能を実行する。仮想オブジェクト表示装置0100はユーザに情報を提示する際にはディスプレイ0201に情報を表示する。グラフィックコントローラ0207はディスプレイ0201への表示を制御する。カメラ0101は、撮像画像をデジタル画像データに変換する。バッテリ0204は表示装置全体に電力を供給する。ネットワークインタフェース0203は、接続している機器間で情報の授受を行う。HDD0208は、情報の記憶や一時的な情報を格納する。   FIG. 2 is a hardware block diagram of the virtual object display device 0100. The virtual object display device 0100 includes a display 0201, a camera 0101, a CPU 0202, a sensor 0102, a network interface 0203, a battery 0204, a flash memory 0205, a main memory 0206, a graphic controller 0207, and an HDD 0208. Each element is connected by a system bus 0209. The flash memory 0205 stores a boot loader program and a display device control program. The boot loader program is a program for loading a system program into a memory at a cold start or the like, but a detailed description thereof is omitted because it is not related to the present invention. Since the main memory 0206 is a volatile memory and can be accessed at high speed, information stored in the flash memory 0205 and information used temporarily are stored here. When the virtual object display device 0100 is powered on, the CPU 0202 reads and executes the boot loader program, retrieves the display device control program stored in the flash memory 0205, and stores it in the main memory 0206. Then, the CPU 0202 executes a display device control program stored in the main memory 0206, and executes each function provided in the virtual object display device 0100. The virtual object display device 0100 displays information on the display 0201 when presenting information to the user. The graphic controller 0207 controls display on the display 0201. The camera 0101 converts the captured image into digital image data. A battery 0204 supplies power to the entire display device. A network interface 0203 transmits and receives information between connected devices. The HDD 0208 stores information and temporary information.

図3は、撮像画像から抽出した特徴点の位置を保持する特徴点データベース0109である。特徴点データベース0109は、HDD0208に保持される。図3に示すように、特徴点データベース0109は、特徴点の3次元座標位置301と特徴点から算出した仮想オブジェクト表示装置0100の位置情報302とを保持する。k番目に取得された特徴点の位置は(pkx,pky,pkz)、位置情報は(Px,Py,Pz,Pθ)として保持される。特徴点データベース0109の更新処理については図7に示している。   FIG. 3 is a feature point database 0109 that holds the positions of feature points extracted from the captured image. The feature point database 0109 is held in the HDD 0208. As shown in FIG. 3, the feature point database 0109 holds a three-dimensional coordinate position 301 of feature points and position information 302 of the virtual object display device 0100 calculated from the feature points. The position of the k-th acquired feature point is held as (pkx, pky, pkz), and the position information is held as (Px, Py, Pz, Pθ). The update processing of the feature point database 0109 is shown in FIG.

図4は、仮想オブジェクト表示装置0100の位置情報と向き情報とを保持するセンサデータベース0110である。センサデータベース0110は、HDD0208に保持される。仮想オブジェクト表示装置0100の位置情報は、GPSなどの位置検知ユニットで取得することができる。向きは、仮想オブジェクト表示装置0100のセンサ0102から取得できる。センサ0102は、例えば加速度センサや地磁気センサを含み、これらのセンサから取得される加速度や地磁気の方向に関する情報から表示装置の向きを算出する。なおセンサデータベース0110の位置情報401は位置(Sx,Sy,Sz)に加えて向き情報Sθを含むものとし、(Sx,Sy,Sz,Sθ)として保持される。センサデータベース0110の更新処理については図8に示している。   FIG. 4 shows a sensor database 0110 that holds position information and orientation information of the virtual object display device 0100. The sensor database 0110 is held in the HDD 0208. The position information of the virtual object display device 0100 can be acquired by a position detection unit such as GPS. The direction can be acquired from the sensor 0102 of the virtual object display device 0100. The sensor 0102 includes, for example, an acceleration sensor and a geomagnetic sensor, and calculates the orientation of the display device from information on acceleration and geomagnetic direction acquired from these sensors. The position information 401 in the sensor database 0110 includes orientation information Sθ in addition to the position (Sx, Sy, Sz), and is held as (Sx, Sy, Sz, Sθ). The update process of the sensor database 0110 is shown in FIG.

図5は、表示する仮想オブジェクトに関する情報を保持する仮想オブジェクトデータベース0111である。仮想オブジェクトデータベース0111は、HDD0208に保持される。図5に示すように、仮想オブジェクトデータベースは仮想オブジェクトのドキュメント名と当該ドキュメントの表示位置(dkx,dky,dkz)とを保持する仮想オブジェクト情報501と、後述する更新処理後の仮想オブジェクト表示装置0100の位置情報502とを含む。仮想オブジェクト情報に関しては、予め表示装置内部に保存しておいてよい。また、仮想オブジェクト表示システム実行中の任意のタイミングで追加・削除してもよい。   FIG. 5 shows a virtual object database 0111 that holds information about virtual objects to be displayed. The virtual object database 0111 is held in the HDD 0208. As shown in FIG. 5, the virtual object database includes virtual object information 501 that stores the document name of the virtual object and the display position (dkx, dky, dkz) of the document, and a virtual object display device 0100 after update processing described later. Position information 502. The virtual object information may be stored in advance in the display device. Moreover, you may add and delete at arbitrary timings during execution of the virtual object display system.

<仮想オブジェクト表示処理>
図6は、本実施形態のシステム全体の処理を示すフローチャートである。S0600で、HDD0208に保持された特徴点データベース0109(図3)の更新処理を行う。処理として、撮像画像から特徴点を抽出し、特徴点を3次元座標に変換し、結果を特徴点データベース0109に格納する。S0601で、センサデータベース0110(図4)の更新処理を行う。処理として、仮想オブジェクト表示装置0100のセンサ0102から取得した値から仮想オブジェクト表示装置0100の位置と向きとを計算し、センサデータベース0110を更新する。S0602で、抽出された特徴点が閾値より多いか判定する。ただしこれは特徴点全てが、直前に抽出した特徴点と対応付けできることを前提している。対応付けができない場合もあり得ることを考慮すれば、図7で詳述するS0600の処理において対応付けができた特徴点の数をS0602における判定の対象としてもよい。閾値は、たとえば位置決定のために8点アルゴリズム(後述)を用いる場合には、7とし、特徴点が8以上であるかを判定する。抽出された特徴点の数が閾値よりも多い場合、特徴点データベース0109(図3)を参照して仮想オブジェクトデータベース0111(図5)の位置情報502を更新する(S0603)。そうでない場合、センサデータベース0110(図4)を参照して仮想オブジェクトデータベース0111の位置情報502を更新する(S0604)。位置情報502の更新は、ステップS0603では以下の式(1)で示した4式を、ステップS0604では式(2)で示した4式を用いてそれぞれ行う。
Dx=kp・Px,
Dy=kp・Py,
Dz=kp・Pz,
Dθ=Pθ ... (1)

Dx=ks・Sx,
Dy=ks・Sy,
Dz=ks・Sz,
Dθ=Sθ ... (2)
<Virtual object display processing>
FIG. 6 is a flowchart showing processing of the entire system of this embodiment. In S0600, the feature point database 0109 (FIG. 3) stored in the HDD 0208 is updated. As processing, feature points are extracted from the captured image, the feature points are converted into three-dimensional coordinates, and the results are stored in the feature point database 0109. In S0601, update processing of the sensor database 0110 (FIG. 4) is performed. As processing, the position and orientation of the virtual object display device 0100 are calculated from the values acquired from the sensor 0102 of the virtual object display device 0100, and the sensor database 0110 is updated. In step S0602, it is determined whether the number of extracted feature points is greater than a threshold value. However, this assumes that all the feature points can be associated with the feature points extracted immediately before. In consideration of the possibility that the association may not be possible, the number of feature points that can be associated in the process of S0600 described in detail in FIG. 7 may be determined as the determination target in S0602. For example, when an 8-point algorithm (described later) is used for position determination, the threshold is set to 7, and it is determined whether the feature points are 8 or more. When the number of extracted feature points is larger than the threshold value, the position information 502 of the virtual object database 0111 (FIG. 5) is updated with reference to the feature point database 0109 (FIG. 3) (S0603). Otherwise, the position information 502 in the virtual object database 0111 is updated with reference to the sensor database 0110 (FIG. 4) (S0604). The position information 502 is updated using the four equations shown in the following equation (1) in step S0603 and the four equations shown in equation (2) in step S0604.
Dx = kp · Px,
Dy = kp · Py,
Dz = kp · Pz,
Dθ = Pθ (1)

Dx = ks · Sx,
Dy = ks · Sy,
Dz = ks · Sz,
Dθ = Sθ (2)

ここで係数kpは特徴点の座標系から仮想オブジェクトの表示座標系に変換するための定数である。また係数ksはセンサで得られた座標系から仮想オブジェクトの表示座標系に変換するための定数である。これらの値は予め設定しておく。   Here, the coefficient kp is a constant for converting from the coordinate system of the feature point to the display coordinate system of the virtual object. The coefficient ks is a constant for converting from the coordinate system obtained by the sensor to the display coordinate system of the virtual object. These values are set in advance.

S0605で、更新した仮想オブジェクトデータベース0111を基に、位置情報502により特定された被写体の位置に該当する仮想オブジェクトを、現在表示している画面に重畳して表示するAR表示処理を行う。例えば位置情報502により特定されるカメラの撮影位置と撮影方向とから撮影対象の範囲が特定される。その範囲に含まれる仮想オブジェクトの位置を仮想オブジェクト情報501から検索し、該当する仮想オブジェクトデータベース0111内の仮想オブジェクト情報501に記述されたファイル名を仮想オブジェクト表示座標系に配置する。仮想オブジェクトデータベース0111内の位置情報を用いてレンダリングすることで、表示部(0103)に重畳表示される。   In step S0605, based on the updated virtual object database 0111, an AR display process is performed in which a virtual object corresponding to the position of the subject specified by the position information 502 is superimposed on the currently displayed screen. For example, the range of the shooting target is specified from the shooting position and shooting direction of the camera specified by the position information 502. The position of the virtual object included in the range is searched from the virtual object information 501 and the file name described in the virtual object information 501 in the corresponding virtual object database 0111 is arranged in the virtual object display coordinate system. By rendering using the position information in the virtual object database 0111, it is displayed in a superimposed manner on the display unit (0103).

このように、特徴点データベース0109とセンサデータベース0110という2つのデータベースを常に更新することで、特徴点が取得できなくなった場合やGPSからの位置が取得できない場合など、一方のデータベースで特定される位置情報が利用できない場合あるいは信頼できない場合でも、別のデータベースを参照することで仮想オブジェクトの表示をし続けることができ、スムーズにAR表示方法を切替えることができる。   Thus, by constantly updating the two databases, the feature point database 0109 and the sensor database 0110, the position specified by one database, such as when the feature point cannot be acquired or the position from the GPS cannot be acquired. Even when information is unavailable or unreliable, the virtual object can be continuously displayed by referring to another database, and the AR display method can be switched smoothly.

<特徴点データベースの更新処理>
図7は、特徴点データベース0109の更新処理(図6のS0600)を示すフローチャートである。S0700で、仮想オブジェクト表示装置0100に内蔵するカメラ0101から撮像画像を画像取得部0104にて取得する。S0701で、取得した撮像画像から特徴点を抽出する。S0702で、現在の撮像画像で抽出された特徴点と前回登録された撮像画像で抽出された特徴点とを対応付ける処理を行う。対応する特徴点を求める方法の一例として、各特徴点周辺のピクセル値の差分の値が最小となる点を対応した特徴点として判定する方法がある。あるいは各特徴点周辺のピクセル間の相関演算をおこなって相関値のピークで判定する方法などもある。
<Feature point database update processing>
FIG. 7 is a flowchart showing the update processing of the feature point database 0109 (S0600 in FIG. 6). In S 0700, the image acquisition unit 0104 acquires a captured image from the camera 0101 built in the virtual object display device 0100. In S0701, feature points are extracted from the acquired captured image. In S0702, a process of associating the feature point extracted from the current captured image with the feature point extracted from the previously registered captured image is performed. As an example of a method for obtaining a corresponding feature point, there is a method of determining a point having a minimum difference between pixel values around each feature point as a corresponding feature point. Alternatively, there is a method of performing a correlation calculation between pixels around each feature point and determining with a peak of the correlation value.

S0703で、仮想オブジェクト表示装置0100の位置を算出する。表示装置の位置を求める手法として、8点アルゴリズムと呼ばれる手法がある。8点アルゴリズムは撮像画像上の特徴点8点を観測し、前回登録された撮像画像との特徴点の対応関係から表示装置の運動パラメータあるいは移動ベクトルを求める手法である。したがってこの手法であれば、対応付けできた特徴点が8以上あれば、算出した運動パラメータを用いて、現在の表示装置の位置と向き情報とを運動パラメータに従って更新する。   In S0703, the position of the virtual object display device 0100 is calculated. As a method for obtaining the position of the display device, there is a method called an 8-point algorithm. The 8-point algorithm is a method of observing 8 feature points on a captured image and obtaining a motion parameter or a movement vector of the display device from the correspondence relationship of the feature points with the previously registered captured image. Therefore, in this method, if there are 8 or more feature points that can be associated, the current position and orientation information of the display device is updated according to the motion parameters using the calculated motion parameters.

S0704で、抽出された特徴点を3次元座標に変換する処理を行う。S0702において算出した視差画像の対応点に対して三角測量の原理を用いることで各特徴点の距離情報を求めることができる。各特徴点の方向は画像から特定できるので、各特徴点の位置は表示装置の位置を原点とする極座標で示すことができ、これを大局的な3次元の直交座標系、たとえば経緯度および標高に変換することで特徴点を3次元座標に変換できる。S0705で、特徴点データベース0109の更新処理を行う。更新処理として、S0703とS0704で算出した値でデータベースを更新する。すなわち書き換える。S0706で、撮像画像を前回の画像としてHDD0208に保持しておく。保持した画像は次のフレームの処理で用いる。   In S0704, a process for converting the extracted feature points into three-dimensional coordinates is performed. The distance information of each feature point can be obtained by using the principle of triangulation with respect to the corresponding point of the parallax image calculated in S0702. Since the direction of each feature point can be specified from the image, the position of each feature point can be indicated by polar coordinates with the position of the display device as the origin, which is represented by a global three-dimensional orthogonal coordinate system such as longitude and latitude. The feature points can be converted into three-dimensional coordinates by converting to. In step S0705, the feature point database 0109 is updated. As the update process, the database is updated with the values calculated in S0703 and S0704. That is, rewrite. In S0706, the captured image is held in the HDD 0208 as the previous image. The stored image is used in the next frame processing.

なおS0702で所定数の特徴点の対応付けができなかった場合、あるいは、位置情報302に有効な位置情報が記録されていない場合には、たとえばS0703における表示装置の位置情報302の更新をセンサで検知したカメラの撮影方向およびGPSで検知した位置情報を用いて行うことで、S0704の特徴点の3次元座標化も可能である。   If a predetermined number of feature points cannot be associated in S0702, or if valid position information is not recorded in the position information 302, the sensor updates the position information 302 of the display device in S0703, for example. By using the detected shooting direction of the camera and the position information detected by GPS, the feature points in S0704 can be converted into three-dimensional coordinates.

<センサデータベースの更新処理>
図8は、センサデータベース0110の更新処理(図6のS0601)を示すフローチャートである。S0800で、仮想オブジェクト表示装置0100の位置を算出する。仮想オブジェクト表示装置0100の位置情報は、GPSなどを用いることで取得できる。S0801で、仮想オブジェクト表示装置0100の向きを算出する。算出は、表示装置に内蔵するセンサ0102からセンサ値取得部0106でセンサ値を取得することで実現する。仮想オブジェクト表示装置0100として、加速度センサや地磁気センサ、ジャイロセンサを用いて取得できる。これらのセンサから取得される加速度や地磁気の方向に関する情報から表示装置の向きをセンサ値取得部0106において算出する。S0802で、センサ値取得部0106で取得した値を用いてセンサデータベース0110の更新処理を行う。
<Sensor database update process>
FIG. 8 is a flowchart showing the update process of the sensor database 0110 (S0601 in FIG. 6). In S0800, the position of the virtual object display device 0100 is calculated. The position information of the virtual object display device 0100 can be acquired by using GPS or the like. In S0801, the orientation of the virtual object display device 0100 is calculated. The calculation is realized by acquiring the sensor value from the sensor 0102 built in the display device by the sensor value acquisition unit 0106. The virtual object display device 0100 can be acquired using an acceleration sensor, a geomagnetic sensor, or a gyro sensor. The sensor value acquisition unit 0106 calculates the orientation of the display device from the information about the acceleration and the direction of geomagnetism acquired from these sensors. In step S0802, the sensor database 0110 is updated using the value acquired by the sensor value acquisition unit 0106.

図9(A)は、3次元空間における仮想オブジェクト表示装置0100と仮想オブジェクトの配置を示した図である。ユーザが仮想オブジェクト表示装置0100を用いて仮想オブジェクトを閲覧している図を示している。仮想オブジェクト0901の位置は、仮想オブジェクトデータベースにおける仮想オブジェクト情報、すなわち位置(dx,dy,dz)及び当該位置に関連付けたファイルを用いる。ユーザが所有する仮想オブジェクト表示装置0100の位置は、仮想オブジェクトデータベース0111の変換後の位置情報(Dx,Dy,Dz,Dθ)を用いる。   FIG. 9A is a diagram showing the arrangement of the virtual object display device 0100 and the virtual objects in the three-dimensional space. The figure which the user is browsing the virtual object using the virtual object display apparatus 0100 is shown. As the position of the virtual object 0901, virtual object information in the virtual object database, that is, a position (dx, dy, dz) and a file associated with the position are used. For the position of the virtual object display device 0100 owned by the user, the converted position information (Dx, Dy, Dz, Dθ) of the virtual object database 0111 is used.

図9(B)は、仮想オブジェクトを撮像画像に重畳表示した場合を示した図である。ユーザは仮想オブジェクト表示装置0100の表示部0103において、撮像画像に重畳表示された仮想オブジェクト0901を閲覧することができる。   FIG. 9B is a diagram illustrating a case where a virtual object is superimposed and displayed on a captured image. The user can view the virtual object 0901 superimposed on the captured image on the display unit 0103 of the virtual object display device 0100.

本実施形態によれば、図6の手順はフレームが取得されるごとに実行される。たとえば動画を実時間で表示している場合には一定時間おきに定期的にフレームが取得されるため、図6の手順もフレームが取得されるごとに実行される。たとえば毎秒30フレームの画像がカメラから取得されるのであれば、図6の手順も毎秒30回実行される。その場合30分の1秒間でのフレーム内のオブジェクトの移動、すなわち特徴点の移動も小さな距離であると考えられるから、画像の連続性が保持される限り、特徴点データベースを用いた仮想オブジェクトの表示を行うことができる。ところが新たなシーンの撮影を開始したときや、障害物などで突然シーンが変化したときなどには、特徴点の対応付けが困難になると考えられ、その場合にはセンサデータベースを用いた仮想オブジェクトの表示が行われる。   According to the present embodiment, the procedure of FIG. 6 is executed every time a frame is acquired. For example, when a moving image is displayed in real time, frames are periodically acquired at regular intervals. Therefore, the procedure in FIG. 6 is also executed each time a frame is acquired. For example, if an image of 30 frames per second is acquired from the camera, the procedure of FIG. 6 is also executed 30 times per second. In that case, the movement of the object in the frame in 1/30 second, that is, the movement of the feature point is also considered to be a small distance. Display can be made. However, when shooting of a new scene is started or when the scene suddenly changes due to an obstacle, it is considered difficult to associate feature points. Display is performed.

このように本実施形態により、撮像画像内の特徴となる領域が人物や物体によって隠れてしまう場合であっても、表示方式を切替えることによって仮想オブジェクトを表示し続けることが可能となる。さらに、色の変化の少ない撮像画像のように特徴となる領域を検出しづらい環境であっても、仮想オブジェクトを表示し続けることが可能となる。また、複数の仮想オブジェクト表示方式を処理することによって、別の表示方式に切替える必要が生じた場合でも、スムーズに移行することができる。   As described above, according to the present embodiment, it is possible to continue to display the virtual object by switching the display method even when the region as the feature in the captured image is hidden by a person or an object. Furthermore, even in an environment where it is difficult to detect a characteristic region such as a captured image with little color change, it is possible to continue displaying virtual objects. In addition, by processing a plurality of virtual object display methods, even when it is necessary to switch to another display method, it is possible to smoothly shift.

[実施形態2]
撮像画像から特徴点を抽出するが、撮影する環境によっては抽出される特徴点が閾値付近の数しか取得できない場合がある。このような場合、特徴点を用いた仮想オブジェクト表示とセンサを用いた仮想オブジェクトの表示方式の切り替えが頻繁に起こる可能性がある。実施形態2では、2つの表示手法が頻繁に切り替わらないような処理の一例について示す。
[Embodiment 2]
Although feature points are extracted from the captured image, depending on the shooting environment, only the number of feature points to be extracted may be acquired in the vicinity of the threshold value. In such a case, there is a possibility that switching between the virtual object display using the feature points and the virtual object display method using the sensor frequently occurs. In the second embodiment, an example of processing in which the two display methods are not frequently switched will be described.

図10は、実施例2におけるシステム全体の処理のフローチャートである。S1000で、特徴点データベース更新処理を行う。処理は、実施形態1におけるS0600と同様である。S1001で、センサデータベース更新処理を行う。処理は、実施形態1におけるS0601と同様である。S1002で、変数FrameCountが0以上か判定する。変数FrameCountは、データベース移行判定(S1003)を行った回数を保持するものであり、データベース移行判定(S1003)の処理で使用する。初期値は0より小さい値、例えば−1である。変数FrameCountが0以上であるとS1003に分岐する。データベース移行判定(S1003)は、図11で詳細に説明する。一方変数FrameCountが0より小さいとS1004に分岐して、S1004で、特徴点の数が閾値より大きいか判定する。閾値は実施形態1と同じ値で良い。特徴点の数が閾値以下の場合、センサデータベース0110を参照して仮想オブジェクトデータベース0111を更新する(S1009)。特徴点の数が閾値より大きい場合、S1005で、前回のAR表示処理でセンサデータベース0110を使用していたか判定する。前回の処理でセンサデータベース0110を使用していない場合、特徴点データベース0109で仮想オブジェクトデータベース0111を更新する(S1008)。センサデータベース0110を使用していた場合、変数FrameCountに所定の値例えば30を代入し(S1006)、センサデータベース0110を参照して仮想オブジェクトデータベース0111を更新する(S1007)。   FIG. 10 is a flowchart of processing of the entire system in the second embodiment. In step S1000, feature point database update processing is performed. The processing is the same as S0600 in the first embodiment. In S1001, sensor database update processing is performed. The process is the same as S0601 in the first embodiment. In S1002, it is determined whether the variable FrameCount is 0 or more. The variable FrameCount holds the number of times the database migration determination (S1003) has been performed, and is used in the database migration determination (S1003) process. The initial value is a value smaller than 0, for example, -1. If the variable FrameCount is 0 or more, the process branches to S1003. The database migration determination (S1003) will be described in detail with reference to FIG. On the other hand, if the variable FrameCount is smaller than 0, the process branches to S1004, and it is determined in S1004 whether the number of feature points is larger than the threshold. The threshold value may be the same value as in the first embodiment. If the number of feature points is equal to or smaller than the threshold, the virtual object database 0111 is updated with reference to the sensor database 0110 (S1009). If the number of feature points is larger than the threshold value, it is determined in S1005 whether the sensor database 0110 has been used in the previous AR display process. When the sensor database 0110 is not used in the previous process, the virtual object database 0111 is updated with the feature point database 0109 (S1008). If the sensor database 0110 has been used, a predetermined value, for example, 30 is substituted into the variable FrameCount (S1006), and the virtual object database 0111 is updated with reference to the sensor database 0110 (S1007).

すなわち、センサデータベース0110から特徴点データベース0109に移行する場合、すぐに移行せず、S1006で設定したFrameCount分(ただし図10ではS1006でもセンサデータベースを用いるため、S1006で設定したFrameCount+1となる)だけ連続したフレームでセンサデータベースを用いて仮想オブジェクトデータベースの位置情報を更新する。その後に、特徴点の数を用いてデータベース移行判定を行う。本実施形態では、一例としてFrameCountに30を代入しているが、変更可能であり、この限りではない。S1007、S1008、S1009は、実施形態1のS0603、S0604と同様である。S1010で、AR表示処理を行う。   That is, when shifting from the sensor database 0110 to the feature point database 0109, the shift is not performed immediately, but only the frame count set in S1006 (however, since the sensor database is also used in S1006 in FIG. 10, the frame count + 1 set in S1006 is used). The position information of the virtual object database is updated using the sensor database in the frame. Thereafter, database migration determination is performed using the number of feature points. In the present embodiment, 30 is assigned to FrameCount as an example, but it can be changed and is not limited to this. S1007, S1008, and S1009 are the same as S0603 and S0604 of the first embodiment. In S1010, AR display processing is performed.

図11は、実施形態2におけるデータベース移行判定処理(S1003)を示すフローチャートである。S1100で、FrameCountの値を判定する。FrameCountが0より大きい場合、撮像画像の特徴点の数を特徴点総数に加え(S1105)、センサデータベース0110を参照して仮想オブジェクトデータベース0111を更新し(S1106)、FrameCountの値を1減じて更新する(S1107)。FrameCountが0になるまで処理が続くため、特徴点総数はFrameCount分の撮像画像における特徴点の総数となる。FrameCountが0以下の場合、移行判定を行う。移行判定では、特徴点総数を、S1006でFrameCountにセットした数、すなわちS1003のデータベース移行判定を行った回数で割り、その商の値と所定の閾値とを比較する(S1101)。閾値より大きい場合、特徴点データベース0109で仮想オブジェクトデータベース0111を更新し(S1102)、そうでない場合、センサデータベース0110を参照して仮想オブジェクトデータベース0111を更新する(S1103)。ここでS1101の閾値は、本実施形態の趣旨からいって、S1004の閾値と同じ値か、あるいはその値よりも大きい値が用いられる。またS1103では、S1005における判定のために、センサデータベースを使用した旨の情報を記録し、S1102ではセンサデータベースを使用していない旨の情報を記録する。最後にFrameCountを初期値たとえば−1に更新し(S1104)、処理を終了する。   FIG. 11 is a flowchart illustrating database migration determination processing (S1003) in the second embodiment. In S1100, the value of FrameCount is determined. If FrameCount is greater than 0, the number of feature points of the captured image is added to the total number of feature points (S1105), the virtual object database 0111 is updated with reference to the sensor database 0110 (S1106), and the value of FrameCount is updated by one. (S1107). Since the process continues until FrameCount becomes 0, the total number of feature points is the total number of feature points in the captured image for FrameCount. If FrameCount is 0 or less, a transition determination is performed. In the migration determination, the total number of feature points is divided by the number set in FrameCount in S1006, that is, the number of database migration determinations in S1003, and the quotient value is compared with a predetermined threshold value (S1101). If it is larger than the threshold, the virtual object database 0111 is updated in the feature point database 0109 (S1102), and if not, the virtual object database 0111 is updated by referring to the sensor database 0110 (S1103). Here, the threshold value of S1101 is the same value as the threshold value of S1004 or a value larger than the threshold value for the purpose of this embodiment. In S1103, information indicating that the sensor database is used is recorded for determination in S1005, and information indicating that the sensor database is not used is recorded in S1102. Finally, FrameCount is updated to an initial value, for example, −1 (S1104), and the process is terminated.

本実施形態により、いったんセンサデータベースを参照して仮想オブジェクトデータベースの位置情報を更新すると、FrameCountにセットした所定回数連続して(すなわちセットしたフレーム数続けて)センサデータベースを参照する。そしてその間に抽出した1フレームあたりの平均の特徴点数が特徴点データベースを用いるのに十分な数であるかをその後改めて判定する。そして十分な数の特徴点が抽出できていると推定できる場合に、特徴点データベースを参照した位置情報の更新に移行する。これにより、検出される特徴点の数が閾値付近を遷移する際の仮想オブジェクト表示方法の頻繁な切り替えを抑えることができる。   According to the present embodiment, once the position information of the virtual object database is updated by referring to the sensor database, the sensor database is referred to continuously for a predetermined number of times set to FrameCount (that is, continuously for the set number of frames). Then, it is determined again whether the average number of feature points per frame extracted during that time is sufficient to use the feature point database. When it can be estimated that a sufficient number of feature points have been extracted, the process shifts to updating the position information with reference to the feature point database. Thereby, frequent switching of the virtual object display method when the number of detected feature points transitions near the threshold can be suppressed.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (13)

情報表示装置であって、
被写体を撮影して画像データを取得する画像取得手段と、
撮影した画像データに基づく前記情報表示装置の位置を記憶する第1の情報記憶手段と、
位置検知手段により検知した位置を記憶する第2の情報記憶手段と、
前記画像取得手段により取得した画像データおよび前記第1の情報記憶手段に記憶された画像データに基づいて前記情報表示装置の位置を特定できる場合には前記第1の情報記憶手段を参照し、特定できない場合には前記第2の情報記憶手段を参照して前記情報表示装置の位置を特定する位置特定手段と、
前記位置特定手段により特定された位置に応じて、保持されている仮想オブジェクトを前記画像データに重畳して表示する表示手段と
を有することを特徴とする情報表示装置。
An information display device,
Image acquisition means for capturing an image of a subject and acquiring image data;
First information storage means for storing a position of the information display device based on photographed image data;
Second information storage means for storing the position detected by the position detection means;
When the position of the information display device can be specified based on the image data acquired by the image acquisition unit and the image data stored in the first information storage unit, the first information storage unit is referred to and specified. If not, position specifying means for specifying the position of the information display device with reference to the second information storage means;
An information display apparatus comprising: a display unit that displays a virtual object that is held in a superimposed manner on the image data according to the position specified by the position specifying unit.
前記画像取得手段により取得した画像データから特徴点を抽出する抽出手段を更に有し、
前記第1の情報記憶手段は、画像データから抽出した前記特徴点の位置と、当該特徴点に関連付けられた前記情報表示装置の位置とを記憶し、
前記位置特定手段は、前記抽出手段により抽出された特徴点および前記第1の情報記憶手段に記憶された特徴点に基づいて前記情報表示装置の位置を特定できる場合には前記第1の情報記憶手段を参照することを特徴とする請求項1に記載の情報表示装置。
Further comprising an extraction means for extracting feature points from the image data acquired by the image acquisition means;
The first information storage means stores the position of the feature point extracted from image data and the position of the information display device associated with the feature point,
When the position specifying unit can specify the position of the information display device based on the feature point extracted by the extracting unit and the feature point stored in the first information storage unit, the first information storage unit The information display apparatus according to claim 1, wherein means is referred to.
前記位置特定手段により前記第1の情報記憶手段を参照した場合には、前記抽出手段により抽出した特徴点と前記位置特定手段により特定した前記情報表示装置の位置とにより前記第1の情報記憶手段に記憶された位置を更新することを特徴とする請求項2に記載の情報表示装置。   When referring to the first information storage means by the position specifying means, the first information storage means is based on the feature points extracted by the extraction means and the position of the information display device specified by the position specifying means. The information display device according to claim 2, wherein the position stored in is updated. 前記位置特定手段による、前記特徴点および前記第1の情報記憶手段に記憶された特徴点に基づいて前記情報表示装置の位置を特定できるか否かの判定は、前記抽出手段により抽出した特徴点の数に基づいて行うことを特徴とする請求項2又は3に記載の情報表示装置。   Whether the position of the information display device can be specified based on the feature point and the feature point stored in the first information storage unit by the position specifying unit is determined by the feature point extracted by the extracting unit The information display device according to claim 2, wherein the information display device is performed based on the number of the information. 前記位置特定手段は、前記第1の情報記憶手段を参照する場合には、前記抽出手段により抽出した特徴点と、前記第1の情報記憶手段に記憶した特徴点とを対応付け、その対応関係に基づいて前記情報表示装置の移動ベクトルを求め、当該移動ベクトルにより前記情報表示装置の位置を更新することを特徴とする請求項2乃至4のいずれか一項に記載の情報表示装置。   When referring to the first information storage unit, the position specifying unit associates the feature point extracted by the extraction unit with the feature point stored in the first information storage unit, and the correspondence relationship 5. The information display device according to claim 2, wherein a movement vector of the information display device is obtained based on the information, and the position of the information display device is updated based on the movement vector. 前記位置特定手段は、前記第1の情報記憶手段を参照する場合には、前記抽出手段により抽出した特徴点と、前記第1の情報記憶手段に記憶した特徴点とを対応付け、その対応関係および前記情報表示装置の位置に基づいて、前記特徴点の3次元座標を算出して前記第1の情報記憶手段に特徴点の情報として記憶することを特徴とする請求項2乃至5のいずれか一項に記載の情報表示装置。   When referring to the first information storage unit, the position specifying unit associates the feature point extracted by the extraction unit with the feature point stored in the first information storage unit, and the correspondence relationship And calculating the three-dimensional coordinates of the feature points based on the position of the information display device and storing them as feature point information in the first information storage means. The information display device according to one item. 前記位置特定手段はさらに、前記第2の情報記憶手段をいったん参照した場合には、その後に所定回数連続して前記第2の情報記憶手段を参照し、その後で、前記画像取得手段により取得した画像データおよび前記第1の情報記憶手段に記憶された画像データに基づいて前記情報表示装置の位置を特定できる場合には前記第1の情報記憶手段を参照することを特徴とする請求項2乃至6のいずれか一項に記載の情報表示装置。   The position specifying means further refers to the second information storage means continuously for a predetermined number of times after referring to the second information storage means, and then acquired by the image acquisition means. 3. The first information storage unit is referred to when the position of the information display device can be specified based on image data and image data stored in the first information storage unit. The information display device according to any one of claims 6 to 7. 前記位置特定手段は、前記所定回数にわたり取得した画像データから抽出した特徴点の、1つの画像データあたりの数が閾値より大きい場合に、前記第1の情報記憶手段を参照することを特徴とする請求項7に記載の情報表示装置。   The position specifying means refers to the first information storage means when the number of feature points extracted from the image data acquired over the predetermined number of times per image data is larger than a threshold value. The information display device according to claim 7. 前記情報表示装置の位置は、前記情報表示装置の方向を示す情報を含むことを特徴とする請求項1乃至8のいずれか一項に記載の情報表示装置。   The information display device according to claim 1, wherein the position of the information display device includes information indicating a direction of the information display device. 前記画像取得手段は、定期的に画像データを取得し、前記位置特定手段による位置の特定及び更新と、前記表示手段による表示は、画像データの取得のつど行われることを特徴とする請求項1乃至9のいずれか一項に記載の情報表示装置。   2. The image acquisition unit periodically acquires image data, and position specification and update by the position specifying unit and display by the display unit are performed each time image data is acquired. The information display apparatus as described in any one of thru | or 9. 前記位置検知手段は、位置センサ、ジャイロセンサ、加速度センサおよび地磁気センサの少なくともいずれかを含むことを特徴とする請求項1乃至10のいずれか一項に記載の情報表示装置。   The information display device according to claim 1, wherein the position detection unit includes at least one of a position sensor, a gyro sensor, an acceleration sensor, and a geomagnetic sensor. 情報表示装置により撮影した画像データに基づく前記情報表示装置の位置を記憶する第1の情報記憶手段と、位置検知手段により検知した位置を記憶する第2の情報記憶手段とを有する情報表示装置による情報表示方法であって、
撮像手段により被写体を撮影して画像データを取得する画像取得工程と、
前記画像取得工程により取得した画像データおよび前記第1の情報記憶手段に記憶された画像データに基づいて前記情報表示装置の位置を特定できる場合には前記第1の情報記憶手段を参照し、特定できない場合には前記第2の情報記憶手段を参照して前記情報表示装置の位置を特定する位置特定工程と、
前記位置特定工程により特定された位置に応じて、保持されている仮想オブジェクトを前記画像データに重畳して表示手段により表示する表示工程と
を有することを特徴とする情報表示方法。
By an information display device having first information storage means for storing the position of the information display device based on image data photographed by the information display device, and second information storage means for storing the position detected by the position detection means An information display method,
An image acquisition step of acquiring an image data by photographing a subject with an imaging unit;
When the position of the information display device can be specified based on the image data acquired by the image acquisition step and the image data stored in the first information storage unit, the first information storage unit is referred to and specified. If not, a position specifying step of specifying the position of the information display device with reference to the second information storage means;
An information display method comprising: a display step of superimposing a held virtual object on the image data according to the position specified by the position specifying step and displaying the image by display means.
コンピュータを、
撮影した画像データに基づく前記コンピュータの位置を記憶する第1の情報記憶手段と、
位置検知手段により検知した位置を記憶する第2の情報記憶手段と、
被写体を撮影して画像データを取得する画像取得手段と、
前記画像取得手段により取得した画像データおよび前記第1の情報記憶手段に記憶された画像データに基づいて前記コンピュータの位置を特定できる場合には前記第1の情報記憶手段を参照し、特定できない場合には前記第2の情報記憶手段を参照して前記情報表示装置の位置を特定する位置特定手段と、
前記位置特定手段により特定された位置に応じて、保持されている仮想オブジェクトを前記画像データに重畳して表示する表示手段と
して機能させるためのプログラム。
Computer
First information storage means for storing a position of the computer based on photographed image data;
Second information storage means for storing the position detected by the position detection means;
Image acquisition means for capturing an image of a subject and acquiring image data;
When the position of the computer can be specified based on the image data acquired by the image acquisition means and the image data stored in the first information storage means, the first information storage means is referred to and cannot be specified The position specifying means for specifying the position of the information display device with reference to the second information storage means,
A program for causing a virtual object held to be displayed as a display unit superimposed on the image data in accordance with the position specified by the position specifying unit.
JP2013131055A 2013-06-21 2013-06-21 Information display device and information display method Pending JP2015005220A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013131055A JP2015005220A (en) 2013-06-21 2013-06-21 Information display device and information display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013131055A JP2015005220A (en) 2013-06-21 2013-06-21 Information display device and information display method

Publications (1)

Publication Number Publication Date
JP2015005220A true JP2015005220A (en) 2015-01-08

Family

ID=52301035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013131055A Pending JP2015005220A (en) 2013-06-21 2013-06-21 Information display device and information display method

Country Status (1)

Country Link
JP (1) JP2015005220A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101741150B1 (en) * 2016-12-28 2017-05-29 광운대학교 산학협력단 An imaging photographing device and an imaging photographing method using an video editing
WO2019013162A1 (en) * 2017-07-11 2019-01-17 キヤノン株式会社 Information processing device and information processing method
WO2019087658A1 (en) * 2017-11-01 2019-05-09 ソニー株式会社 Information processing device, information processing method, and program
KR20200035344A (en) * 2018-09-26 2020-04-03 애플 인크. Localization for mobile devices

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101741150B1 (en) * 2016-12-28 2017-05-29 광운대학교 산학협력단 An imaging photographing device and an imaging photographing method using an video editing
US11348323B2 (en) 2017-07-11 2022-05-31 Canon Kabushiki Kaisha Information processing apparatus for correcting three-dimensional map, information processing method for correcting three-dimensional map, and non-transitory computer-readable storage medium for correcting three-dimensional map
CN110869978B (en) * 2017-07-11 2023-04-11 佳能株式会社 Information processing apparatus, information processing method, and computer program
CN110869978A (en) * 2017-07-11 2020-03-06 佳能株式会社 Information processing apparatus, information processing method, and computer program
JP2019020778A (en) * 2017-07-11 2019-02-07 キヤノン株式会社 Information processing device and information processing method
WO2019013162A1 (en) * 2017-07-11 2019-01-17 キヤノン株式会社 Information processing device and information processing method
JPWO2019087658A1 (en) * 2017-11-01 2020-11-26 ソニー株式会社 Information processing equipment, information processing methods and programs
US11508084B2 (en) 2017-11-01 2022-11-22 Sony Corporation Information processing apparatus and information processing method for accurately estimating a self location
JP7147775B2 (en) 2017-11-01 2022-10-05 ソニーグループ株式会社 Information processing device, information processing method and program
WO2019087658A1 (en) * 2017-11-01 2019-05-09 ソニー株式会社 Information processing device, information processing method, and program
CN110954083A (en) * 2018-09-26 2020-04-03 苹果公司 Positioning of mobile devices
KR20200035344A (en) * 2018-09-26 2020-04-03 애플 인크. Localization for mobile devices
JP7013420B2 (en) 2018-09-26 2022-01-31 アップル インコーポレイテッド Location of mobile devices
JP2020077363A (en) * 2018-09-26 2020-05-21 アップル インコーポレイテッドApple Inc. Localization for mobile devices
KR102331122B1 (en) * 2018-09-26 2021-11-24 애플 인크. Localization for mobile devices
US11138472B2 (en) 2018-09-26 2021-10-05 Apple Inc. Localization for mobile devices
US11756229B2 (en) 2018-09-26 2023-09-12 Apple Inc. Localization for mobile devices
CN110954083B (en) * 2018-09-26 2023-11-24 苹果公司 Positioning of mobile devices

Similar Documents

Publication Publication Date Title
CN107990899B (en) Positioning method and system based on SLAM
US11195049B2 (en) Electronic device localization based on imagery
EP2915140B1 (en) Fast initialization for monocular visual slam
CN108028871B (en) Label-free multi-user multi-object augmented reality on mobile devices
US9674507B2 (en) Monocular visual SLAM with general and panorama camera movements
JP5838747B2 (en) Information processing apparatus, information processing method, and program
CN109461208B (en) Three-dimensional map processing method, device, medium and computing equipment
KR20180005168A (en) Privacy-sensitive query on the localization zone description file
US10838515B1 (en) Tracking using controller cameras
CN107038758B (en) Augmented reality three-dimensional registration method based on ORB operator
CN111862150A (en) Image tracking method and device, AR device and computer device
JP2015005220A (en) Information display device and information display method
US11978232B2 (en) Method for displaying three-dimensional augmented reality
CN110310325B (en) Virtual measurement method, electronic device and computer readable storage medium
JP6719945B2 (en) Information processing apparatus, information processing method, information processing system, and program
KR20210050997A (en) Method and apparatus for estimating pose, computer-readable storage medium and computer program for controlling the holder device
KR20190055632A (en) Object reconstruction apparatus using motion information and object reconstruction method using thereof
JP6172233B2 (en) Image processing apparatus, image processing method, and program
WO2020149149A1 (en) Information processing apparatus, information processing method, and program
KR20180133052A (en) Method for authoring augmented reality contents based on 360 degree image and video
KR20210051002A (en) Method and apparatus for estimating pose, computer-readable storage medium and computer program for controlling the holder device
JP2021184115A (en) Information processing device, information processing method and program
KR20210048798A (en) Method for determining pose of camera provided in user equipment and location calculation server performing method
JP7444292B2 (en) Detection system, detection method, and program
JP5991418B2 (en) Image processing apparatus, image processing method, and program