JP2015005220A - Information display device and information display method - Google Patents
Information display device and information display method Download PDFInfo
- Publication number
- JP2015005220A JP2015005220A JP2013131055A JP2013131055A JP2015005220A JP 2015005220 A JP2015005220 A JP 2015005220A JP 2013131055 A JP2013131055 A JP 2013131055A JP 2013131055 A JP2013131055 A JP 2013131055A JP 2015005220 A JP2015005220 A JP 2015005220A
- Authority
- JP
- Japan
- Prior art keywords
- display device
- information
- information display
- information storage
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、例えば拡張現実表示システムなどの情報表示装置及び情報表示方法に関する。 The present invention relates to an information display device such as an augmented reality display system and an information display method.
近年において、AR(Augumented Reality:拡張現実)技術を用いたサービスが開発・提供されている。ARは主にカメラ等で撮影された現実空間の画像に対して仮想オブジェクトを重畳表示するものである。ARを提示するデバイスとしては、携帯端末や、HMD(Head‐mounted Display)等が利用される。このようなARを利用したサービスとして、頓智ドット株式会社が提供する「セカイカメラ」やオランダのSPRXmobile社が提供する「Layer」がある(「セカイカメラ」、「Layer」は各社の商標または登録商標である)。これらのサービスでは、GPS(Global Positioning System)で得られる位置情報を利用し、カメラで撮影している風景に関連付けられた情報が重畳して表示される。また、特定のパターン(マーカ)を認識し、AR表示するマーカを用いた技術や、撮像画像から特徴点を抽出し特徴点の情報から自己位置を推定することでAR表示を決定するマーカーレス技術も見られる。さらに、このようなマーカや特徴点が隠れることにより、パターンを正しく認識できなかった場合に撮像画像を画像処理することによってパターンを推定し、AR表示を行う技術がある。例えば、仮想オブジェクトを正しく表示できている時点の現実空間のマーカを含む撮像画像を登録しておき、マーカを正しく検出できなくなった場合に、登録した撮像画像と現在の撮像画像との間における画像の変化を取得し、変化に応じて仮想オブジェクトの表示様態を決定する技術がある(特許文献1)。 In recent years, services using AR (Augmented Reality) technology have been developed and provided. The AR is to superimpose and display a virtual object on an image of a real space photographed mainly by a camera or the like. As a device for presenting an AR, a mobile terminal, an HMD (Head-Mounted Display), or the like is used. As services using such AR, there are “Sekai Camera” provided by Tonchi Dot Co., Ltd. and “Layer” provided by SPRXmobile in the Netherlands (“Sekai Camera” and “Layer” are trademarks or registered trademarks of each company). Is). In these services, position information obtained by GPS (Global Positioning System) is used, and information associated with the scenery photographed by the camera is superimposed and displayed. Further, a technique using a marker for recognizing a specific pattern (marker) and AR display, or a markerless technique for determining AR display by extracting a feature point from a captured image and estimating a self-position from the feature point information. Can also be seen. Further, there is a technique for performing AR display by estimating a pattern by performing image processing on a captured image when such a marker or feature point is hidden and the pattern cannot be correctly recognized. For example, when a captured image including a marker in the real space at the time when the virtual object can be correctly displayed is registered and the marker cannot be detected correctly, an image between the registered captured image and the current captured image is displayed. There is a technique for acquiring a change in the virtual object and determining a display mode of a virtual object in accordance with the change (Patent Document 1).
マーカや特徴点といったARを表示するために必要な特徴となるパターンが一部分だけ撮像画像に含まれている場合、画像処理による推定が可能であるが、このようなパターンが人物や物体によって撮像画像から完全に隠れてしまう場合、撮像画像から自己位置を推定することができない。さらに、撮像画像から特徴点を抽出する際にホワイトボードや白い壁など色の変化の少ない物体が撮像画像に含まれていると、特徴点を抽出できず自己位置を推定できない。そのためAR表示を正しく継続して表示できないという問題点があった。 When a captured image includes only a part of a pattern that is a feature necessary for displaying an AR, such as a marker or a feature point, it can be estimated by image processing. Such a pattern is captured by a person or an object. If it is completely hidden from the image, the self-position cannot be estimated from the captured image. Furthermore, if a feature point is extracted from a captured image and an object with little color change, such as a whiteboard or a white wall, is included in the captured image, the feature point cannot be extracted and the self-position cannot be estimated. For this reason, there is a problem that the AR display cannot be continuously displayed correctly.
本発明は、上記問題点に鑑みてなされたものであり、何らかの原因により特徴となる領域が隠れたりあるいは抽出できなかった場合においても、ARを表示し続けることが可能な情報表示装置及び情報表示方法を提供することを目的とする。 The present invention has been made in view of the above problems, and an information display device and an information display that can continue to display an AR even when a characteristic region is hidden or cannot be extracted for some reason It aims to provide a method.
本発明は、情報表示装置であって、
情報表示装置により撮影した画像データに基づく前記情報表示装置の位置を記憶する第1の情報記憶手段と、
位置検知手段により検知した位置を記憶する第2の情報記憶手段と、
被写体を撮影して画像データを取得する画像取得手段と、
前記画像取得手段により取得した画像データおよび前記第1の情報記憶手段に記憶された画像データに基づいて前記情報表示装置の位置を特定できる場合には前記第1の情報記憶手段を参照し、特定できない場合には前記第2の情報記憶手段を参照して前記情報表示装置の位置を特定する位置特定手段と、
前記位置特定手段により特定された位置に応じて、保持されている仮想オブジェクトを前記画像データに重畳して表示する表示手段とを有することを特徴とする。
The present invention is an information display device,
First information storage means for storing a position of the information display device based on image data photographed by the information display device;
Second information storage means for storing the position detected by the position detection means;
Image acquisition means for capturing an image of a subject and acquiring image data;
When the position of the information display device can be specified based on the image data acquired by the image acquisition unit and the image data stored in the first information storage unit, the first information storage unit is referred to and specified. If not, position specifying means for specifying the position of the information display device with reference to the second information storage means;
And display means for displaying the held virtual object superimposed on the image data in accordance with the position specified by the position specifying means.
撮像画像から特徴となる領域が取得できなくなった場合でも、撮影画像に関連付けた仮想オブジェクトを表示し続けることが可能となる。 Even when it becomes impossible to acquire a characteristic region from the captured image, it is possible to continue displaying the virtual object associated with the captured image.
以下、本発明を実施するための最良の形態について図面を用いて説明する。 The best mode for carrying out the present invention will be described below with reference to the drawings.
[実施形態1]
図1は、本実施形態に係る情報表示装置、例えば仮想オブジェクト表示装置0100の機能構成を示すブロック図である。本実施形態の仮想オブジェクト表示装置0100は、撮像手段により取得された現実空間の画像から特徴点を検出し、検出した特徴点から自己位置を算出することにより仮想オブジェクトを現実画像に重畳して表示する手段を有する装置である。また、本実施形態の仮想オブジェクト表示装置0100は別の表示手段として、オブジェクト表示装置の位置情報とセンサにより取得した向き情報を用いて仮想オブジェクトを現実画像に重畳して表示する手段を有する。仮想オブジェクト表示装置は、ハードウェア資源として少なくとも、画像を撮影するカメラと、撮影した情報を処理するプロセッサと、撮影した画像と仮想オブジェクトとを重畳して表示するディスプレイとを有しており、その一例として、携帯端末やHMDなどが挙げられる。仮想オブジェクトは、現実空間の画像に重畳表示することによって、仮想オブジェクト表示装置0100を閲覧するユーザに対して情報を提供するものである。特徴点は、撮像画像から画像処理によって抽出される点であり、主に撮像画像内の物体の境目や角といった色の濃淡が大きく変化する点が特徴点として抽出される。特徴点の抽出方法についてはSIFT(Scale Invariant Feature Transform)などの技術が広く知られている。仮想オブジェクトを表示するためにマーカを用いた手法もあるが、マーカから特徴点を抽出できるため、本提案では特徴点を用いた手法の一種として説明する。
[Embodiment 1]
FIG. 1 is a block diagram showing a functional configuration of an information display apparatus according to this embodiment, for example, a virtual
図1の仮想オブジェクト表示装置0100の各機能について詳細に説明する。カメラ0101は、現実空間の画像を撮影する撮像手段である。撮像画像は画像取得部0104に送出する。画像取得部0104は、カメラ0101により撮影された画像を画像データとして取得する。取得した画像データは、特徴点取得部0105に送出する。特徴点取得部0105は、撮影した画像データからSIFTなどの手法により特徴点を抽出し、特徴点を3次元座標に変換する処理を行う部分である。特徴点を3次元座標に変換する処理とは、例えば抽出した特徴点のそれぞれの3次元空間における相対的な位置を決定し、その相対位置と、その相対位置と大域的な位置との関係から、各特徴点の大域的な位置を決定する処理などである。大域的な位置とは、例えば経緯度および標高など、後述の仮想オブジェクト情報が一意に関連付けられた位置である。変換結果は特徴点データベース(すなわち特徴点情報記憶部)0109に送出する。センサ0102は、装置の方向すなわちカメラ0101の方向を検知するセンサを有しており、さらに位置を検知するGPSなどの位置センサを有していてもよい。センサ値取得部0106は、センサ0102から仮想オブジェクト表示装置0100の位置や向き情報を取得する。取得した情報は、センサデータベース(すなわちセンサ情報記憶部)0110に送出する。参照データベース決定部0107は、取得した特徴点の数に応じて特徴点データベース0109を参照するか、それともセンサデータベース0110を参照するかを決定する。参照データベース決定部0107はまた、参照先のデータベースの決定後、参照するデータベースから得られた撮影対象物の位置情報を仮想オブジェクト表示決定部0108に送出する。仮想オブジェクト表示決定部0108は、仮想オブジェクトデータベース0111を参照し、撮影対象物の位置情報に応じた仮想オブジェクトを表示部0103に重畳表示する。なお特徴点データベース0109を第1の情報記憶部、センサデータベース0110を第2の情報記憶部とよぶこともある。また撮影対象物の位置情報は、特徴点データベース0109を参照した場合にはその特徴点から特定することもできるが。センサデータベース0110を参照した場合には、仮想オブジェクト表示装置100の位置とカメラの方向とから撮影対象物の位置特定、少なくとも撮影範囲の特定を行うことができる。
Each function of the virtual
図2は、仮想オブジェクト表示装置0100のハードウェアブロック図である。仮想オブジェクト表示装置0100は、ディスプレイ0201、カメラ0101、CPU0202、センサ0102、ネットワークインタフェース0203、バッテリ0204、フラッシュメモリ0205、メインメモリ0206、グラフィックコントローラ0207、HDD0208を有する。各要素はシステムバス0209で接続される。フラッシュメモリ0205にはブートローダプログラム及び表示装置制御プログラムが格納されている。ブートローダプログラムはコールドスタート時などにシステムプログラムをメモリにロードするためのプログラムであるが、本発明との関わりは薄いため詳しい説明は割愛する。メインメモリ0206は揮発性メモリであり、高速アクセスが可能であるので、フラッシュメモリ0205に記憶されている情報や一時的に使用する情報はここに格納される。仮想オブジェクト表示装置0100の電源投入時には、CPU0202がブートローダプログラムを読み出して実行し、フラッシュメモリ0205に格納されている表示装置制御プログラムを取り出し、メインメモリ0206に格納する。そして、CPU0202がメインメモリ0206に格納されている表示装置制御プログラムを実行し、仮想オブジェクト表示装置0100の備える各機能を実行する。仮想オブジェクト表示装置0100はユーザに情報を提示する際にはディスプレイ0201に情報を表示する。グラフィックコントローラ0207はディスプレイ0201への表示を制御する。カメラ0101は、撮像画像をデジタル画像データに変換する。バッテリ0204は表示装置全体に電力を供給する。ネットワークインタフェース0203は、接続している機器間で情報の授受を行う。HDD0208は、情報の記憶や一時的な情報を格納する。
FIG. 2 is a hardware block diagram of the virtual
図3は、撮像画像から抽出した特徴点の位置を保持する特徴点データベース0109である。特徴点データベース0109は、HDD0208に保持される。図3に示すように、特徴点データベース0109は、特徴点の3次元座標位置301と特徴点から算出した仮想オブジェクト表示装置0100の位置情報302とを保持する。k番目に取得された特徴点の位置は(pkx,pky,pkz)、位置情報は(Px,Py,Pz,Pθ)として保持される。特徴点データベース0109の更新処理については図7に示している。
FIG. 3 is a
図4は、仮想オブジェクト表示装置0100の位置情報と向き情報とを保持するセンサデータベース0110である。センサデータベース0110は、HDD0208に保持される。仮想オブジェクト表示装置0100の位置情報は、GPSなどの位置検知ユニットで取得することができる。向きは、仮想オブジェクト表示装置0100のセンサ0102から取得できる。センサ0102は、例えば加速度センサや地磁気センサを含み、これらのセンサから取得される加速度や地磁気の方向に関する情報から表示装置の向きを算出する。なおセンサデータベース0110の位置情報401は位置(Sx,Sy,Sz)に加えて向き情報Sθを含むものとし、(Sx,Sy,Sz,Sθ)として保持される。センサデータベース0110の更新処理については図8に示している。
FIG. 4 shows a
図5は、表示する仮想オブジェクトに関する情報を保持する仮想オブジェクトデータベース0111である。仮想オブジェクトデータベース0111は、HDD0208に保持される。図5に示すように、仮想オブジェクトデータベースは仮想オブジェクトのドキュメント名と当該ドキュメントの表示位置(dkx,dky,dkz)とを保持する仮想オブジェクト情報501と、後述する更新処理後の仮想オブジェクト表示装置0100の位置情報502とを含む。仮想オブジェクト情報に関しては、予め表示装置内部に保存しておいてよい。また、仮想オブジェクト表示システム実行中の任意のタイミングで追加・削除してもよい。
FIG. 5 shows a
<仮想オブジェクト表示処理>
図6は、本実施形態のシステム全体の処理を示すフローチャートである。S0600で、HDD0208に保持された特徴点データベース0109(図3)の更新処理を行う。処理として、撮像画像から特徴点を抽出し、特徴点を3次元座標に変換し、結果を特徴点データベース0109に格納する。S0601で、センサデータベース0110(図4)の更新処理を行う。処理として、仮想オブジェクト表示装置0100のセンサ0102から取得した値から仮想オブジェクト表示装置0100の位置と向きとを計算し、センサデータベース0110を更新する。S0602で、抽出された特徴点が閾値より多いか判定する。ただしこれは特徴点全てが、直前に抽出した特徴点と対応付けできることを前提している。対応付けができない場合もあり得ることを考慮すれば、図7で詳述するS0600の処理において対応付けができた特徴点の数をS0602における判定の対象としてもよい。閾値は、たとえば位置決定のために8点アルゴリズム(後述)を用いる場合には、7とし、特徴点が8以上であるかを判定する。抽出された特徴点の数が閾値よりも多い場合、特徴点データベース0109(図3)を参照して仮想オブジェクトデータベース0111(図5)の位置情報502を更新する(S0603)。そうでない場合、センサデータベース0110(図4)を参照して仮想オブジェクトデータベース0111の位置情報502を更新する(S0604)。位置情報502の更新は、ステップS0603では以下の式(1)で示した4式を、ステップS0604では式(2)で示した4式を用いてそれぞれ行う。
Dx=kp・Px,
Dy=kp・Py,
Dz=kp・Pz,
Dθ=Pθ ... (1)
Dx=ks・Sx,
Dy=ks・Sy,
Dz=ks・Sz,
Dθ=Sθ ... (2)
<Virtual object display processing>
FIG. 6 is a flowchart showing processing of the entire system of this embodiment. In S0600, the feature point database 0109 (FIG. 3) stored in the
Dx = kp · Px,
Dy = kp · Py,
Dz = kp · Pz,
Dθ = Pθ (1)
Dx = ks · Sx,
Dy = ks · Sy,
Dz = ks · Sz,
Dθ = Sθ (2)
ここで係数kpは特徴点の座標系から仮想オブジェクトの表示座標系に変換するための定数である。また係数ksはセンサで得られた座標系から仮想オブジェクトの表示座標系に変換するための定数である。これらの値は予め設定しておく。 Here, the coefficient kp is a constant for converting from the coordinate system of the feature point to the display coordinate system of the virtual object. The coefficient ks is a constant for converting from the coordinate system obtained by the sensor to the display coordinate system of the virtual object. These values are set in advance.
S0605で、更新した仮想オブジェクトデータベース0111を基に、位置情報502により特定された被写体の位置に該当する仮想オブジェクトを、現在表示している画面に重畳して表示するAR表示処理を行う。例えば位置情報502により特定されるカメラの撮影位置と撮影方向とから撮影対象の範囲が特定される。その範囲に含まれる仮想オブジェクトの位置を仮想オブジェクト情報501から検索し、該当する仮想オブジェクトデータベース0111内の仮想オブジェクト情報501に記述されたファイル名を仮想オブジェクト表示座標系に配置する。仮想オブジェクトデータベース0111内の位置情報を用いてレンダリングすることで、表示部(0103)に重畳表示される。
In step S0605, based on the updated
このように、特徴点データベース0109とセンサデータベース0110という2つのデータベースを常に更新することで、特徴点が取得できなくなった場合やGPSからの位置が取得できない場合など、一方のデータベースで特定される位置情報が利用できない場合あるいは信頼できない場合でも、別のデータベースを参照することで仮想オブジェクトの表示をし続けることができ、スムーズにAR表示方法を切替えることができる。
Thus, by constantly updating the two databases, the
<特徴点データベースの更新処理>
図7は、特徴点データベース0109の更新処理(図6のS0600)を示すフローチャートである。S0700で、仮想オブジェクト表示装置0100に内蔵するカメラ0101から撮像画像を画像取得部0104にて取得する。S0701で、取得した撮像画像から特徴点を抽出する。S0702で、現在の撮像画像で抽出された特徴点と前回登録された撮像画像で抽出された特徴点とを対応付ける処理を行う。対応する特徴点を求める方法の一例として、各特徴点周辺のピクセル値の差分の値が最小となる点を対応した特徴点として判定する方法がある。あるいは各特徴点周辺のピクセル間の相関演算をおこなって相関値のピークで判定する方法などもある。
<Feature point database update processing>
FIG. 7 is a flowchart showing the update processing of the feature point database 0109 (S0600 in FIG. 6). In S 0700, the
S0703で、仮想オブジェクト表示装置0100の位置を算出する。表示装置の位置を求める手法として、8点アルゴリズムと呼ばれる手法がある。8点アルゴリズムは撮像画像上の特徴点8点を観測し、前回登録された撮像画像との特徴点の対応関係から表示装置の運動パラメータあるいは移動ベクトルを求める手法である。したがってこの手法であれば、対応付けできた特徴点が8以上あれば、算出した運動パラメータを用いて、現在の表示装置の位置と向き情報とを運動パラメータに従って更新する。
In S0703, the position of the virtual
S0704で、抽出された特徴点を3次元座標に変換する処理を行う。S0702において算出した視差画像の対応点に対して三角測量の原理を用いることで各特徴点の距離情報を求めることができる。各特徴点の方向は画像から特定できるので、各特徴点の位置は表示装置の位置を原点とする極座標で示すことができ、これを大局的な3次元の直交座標系、たとえば経緯度および標高に変換することで特徴点を3次元座標に変換できる。S0705で、特徴点データベース0109の更新処理を行う。更新処理として、S0703とS0704で算出した値でデータベースを更新する。すなわち書き換える。S0706で、撮像画像を前回の画像としてHDD0208に保持しておく。保持した画像は次のフレームの処理で用いる。
In S0704, a process for converting the extracted feature points into three-dimensional coordinates is performed. The distance information of each feature point can be obtained by using the principle of triangulation with respect to the corresponding point of the parallax image calculated in S0702. Since the direction of each feature point can be specified from the image, the position of each feature point can be indicated by polar coordinates with the position of the display device as the origin, which is represented by a global three-dimensional orthogonal coordinate system such as longitude and latitude. The feature points can be converted into three-dimensional coordinates by converting to. In step S0705, the
なおS0702で所定数の特徴点の対応付けができなかった場合、あるいは、位置情報302に有効な位置情報が記録されていない場合には、たとえばS0703における表示装置の位置情報302の更新をセンサで検知したカメラの撮影方向およびGPSで検知した位置情報を用いて行うことで、S0704の特徴点の3次元座標化も可能である。
If a predetermined number of feature points cannot be associated in S0702, or if valid position information is not recorded in the
<センサデータベースの更新処理>
図8は、センサデータベース0110の更新処理(図6のS0601)を示すフローチャートである。S0800で、仮想オブジェクト表示装置0100の位置を算出する。仮想オブジェクト表示装置0100の位置情報は、GPSなどを用いることで取得できる。S0801で、仮想オブジェクト表示装置0100の向きを算出する。算出は、表示装置に内蔵するセンサ0102からセンサ値取得部0106でセンサ値を取得することで実現する。仮想オブジェクト表示装置0100として、加速度センサや地磁気センサ、ジャイロセンサを用いて取得できる。これらのセンサから取得される加速度や地磁気の方向に関する情報から表示装置の向きをセンサ値取得部0106において算出する。S0802で、センサ値取得部0106で取得した値を用いてセンサデータベース0110の更新処理を行う。
<Sensor database update process>
FIG. 8 is a flowchart showing the update process of the sensor database 0110 (S0601 in FIG. 6). In S0800, the position of the virtual
図9(A)は、3次元空間における仮想オブジェクト表示装置0100と仮想オブジェクトの配置を示した図である。ユーザが仮想オブジェクト表示装置0100を用いて仮想オブジェクトを閲覧している図を示している。仮想オブジェクト0901の位置は、仮想オブジェクトデータベースにおける仮想オブジェクト情報、すなわち位置(dx,dy,dz)及び当該位置に関連付けたファイルを用いる。ユーザが所有する仮想オブジェクト表示装置0100の位置は、仮想オブジェクトデータベース0111の変換後の位置情報(Dx,Dy,Dz,Dθ)を用いる。
FIG. 9A is a diagram showing the arrangement of the virtual
図9(B)は、仮想オブジェクトを撮像画像に重畳表示した場合を示した図である。ユーザは仮想オブジェクト表示装置0100の表示部0103において、撮像画像に重畳表示された仮想オブジェクト0901を閲覧することができる。
FIG. 9B is a diagram illustrating a case where a virtual object is superimposed and displayed on a captured image. The user can view the
本実施形態によれば、図6の手順はフレームが取得されるごとに実行される。たとえば動画を実時間で表示している場合には一定時間おきに定期的にフレームが取得されるため、図6の手順もフレームが取得されるごとに実行される。たとえば毎秒30フレームの画像がカメラから取得されるのであれば、図6の手順も毎秒30回実行される。その場合30分の1秒間でのフレーム内のオブジェクトの移動、すなわち特徴点の移動も小さな距離であると考えられるから、画像の連続性が保持される限り、特徴点データベースを用いた仮想オブジェクトの表示を行うことができる。ところが新たなシーンの撮影を開始したときや、障害物などで突然シーンが変化したときなどには、特徴点の対応付けが困難になると考えられ、その場合にはセンサデータベースを用いた仮想オブジェクトの表示が行われる。 According to the present embodiment, the procedure of FIG. 6 is executed every time a frame is acquired. For example, when a moving image is displayed in real time, frames are periodically acquired at regular intervals. Therefore, the procedure in FIG. 6 is also executed each time a frame is acquired. For example, if an image of 30 frames per second is acquired from the camera, the procedure of FIG. 6 is also executed 30 times per second. In that case, the movement of the object in the frame in 1/30 second, that is, the movement of the feature point is also considered to be a small distance. Display can be made. However, when shooting of a new scene is started or when the scene suddenly changes due to an obstacle, it is considered difficult to associate feature points. Display is performed.
このように本実施形態により、撮像画像内の特徴となる領域が人物や物体によって隠れてしまう場合であっても、表示方式を切替えることによって仮想オブジェクトを表示し続けることが可能となる。さらに、色の変化の少ない撮像画像のように特徴となる領域を検出しづらい環境であっても、仮想オブジェクトを表示し続けることが可能となる。また、複数の仮想オブジェクト表示方式を処理することによって、別の表示方式に切替える必要が生じた場合でも、スムーズに移行することができる。 As described above, according to the present embodiment, it is possible to continue to display the virtual object by switching the display method even when the region as the feature in the captured image is hidden by a person or an object. Furthermore, even in an environment where it is difficult to detect a characteristic region such as a captured image with little color change, it is possible to continue displaying virtual objects. In addition, by processing a plurality of virtual object display methods, even when it is necessary to switch to another display method, it is possible to smoothly shift.
[実施形態2]
撮像画像から特徴点を抽出するが、撮影する環境によっては抽出される特徴点が閾値付近の数しか取得できない場合がある。このような場合、特徴点を用いた仮想オブジェクト表示とセンサを用いた仮想オブジェクトの表示方式の切り替えが頻繁に起こる可能性がある。実施形態2では、2つの表示手法が頻繁に切り替わらないような処理の一例について示す。
[Embodiment 2]
Although feature points are extracted from the captured image, depending on the shooting environment, only the number of feature points to be extracted may be acquired in the vicinity of the threshold value. In such a case, there is a possibility that switching between the virtual object display using the feature points and the virtual object display method using the sensor frequently occurs. In the second embodiment, an example of processing in which the two display methods are not frequently switched will be described.
図10は、実施例2におけるシステム全体の処理のフローチャートである。S1000で、特徴点データベース更新処理を行う。処理は、実施形態1におけるS0600と同様である。S1001で、センサデータベース更新処理を行う。処理は、実施形態1におけるS0601と同様である。S1002で、変数FrameCountが0以上か判定する。変数FrameCountは、データベース移行判定(S1003)を行った回数を保持するものであり、データベース移行判定(S1003)の処理で使用する。初期値は0より小さい値、例えば−1である。変数FrameCountが0以上であるとS1003に分岐する。データベース移行判定(S1003)は、図11で詳細に説明する。一方変数FrameCountが0より小さいとS1004に分岐して、S1004で、特徴点の数が閾値より大きいか判定する。閾値は実施形態1と同じ値で良い。特徴点の数が閾値以下の場合、センサデータベース0110を参照して仮想オブジェクトデータベース0111を更新する(S1009)。特徴点の数が閾値より大きい場合、S1005で、前回のAR表示処理でセンサデータベース0110を使用していたか判定する。前回の処理でセンサデータベース0110を使用していない場合、特徴点データベース0109で仮想オブジェクトデータベース0111を更新する(S1008)。センサデータベース0110を使用していた場合、変数FrameCountに所定の値例えば30を代入し(S1006)、センサデータベース0110を参照して仮想オブジェクトデータベース0111を更新する(S1007)。
FIG. 10 is a flowchart of processing of the entire system in the second embodiment. In step S1000, feature point database update processing is performed. The processing is the same as S0600 in the first embodiment. In S1001, sensor database update processing is performed. The process is the same as S0601 in the first embodiment. In S1002, it is determined whether the variable FrameCount is 0 or more. The variable FrameCount holds the number of times the database migration determination (S1003) has been performed, and is used in the database migration determination (S1003) process. The initial value is a value smaller than 0, for example, -1. If the variable FrameCount is 0 or more, the process branches to S1003. The database migration determination (S1003) will be described in detail with reference to FIG. On the other hand, if the variable FrameCount is smaller than 0, the process branches to S1004, and it is determined in S1004 whether the number of feature points is larger than the threshold. The threshold value may be the same value as in the first embodiment. If the number of feature points is equal to or smaller than the threshold, the
すなわち、センサデータベース0110から特徴点データベース0109に移行する場合、すぐに移行せず、S1006で設定したFrameCount分(ただし図10ではS1006でもセンサデータベースを用いるため、S1006で設定したFrameCount+1となる)だけ連続したフレームでセンサデータベースを用いて仮想オブジェクトデータベースの位置情報を更新する。その後に、特徴点の数を用いてデータベース移行判定を行う。本実施形態では、一例としてFrameCountに30を代入しているが、変更可能であり、この限りではない。S1007、S1008、S1009は、実施形態1のS0603、S0604と同様である。S1010で、AR表示処理を行う。
That is, when shifting from the
図11は、実施形態2におけるデータベース移行判定処理(S1003)を示すフローチャートである。S1100で、FrameCountの値を判定する。FrameCountが0より大きい場合、撮像画像の特徴点の数を特徴点総数に加え(S1105)、センサデータベース0110を参照して仮想オブジェクトデータベース0111を更新し(S1106)、FrameCountの値を1減じて更新する(S1107)。FrameCountが0になるまで処理が続くため、特徴点総数はFrameCount分の撮像画像における特徴点の総数となる。FrameCountが0以下の場合、移行判定を行う。移行判定では、特徴点総数を、S1006でFrameCountにセットした数、すなわちS1003のデータベース移行判定を行った回数で割り、その商の値と所定の閾値とを比較する(S1101)。閾値より大きい場合、特徴点データベース0109で仮想オブジェクトデータベース0111を更新し(S1102)、そうでない場合、センサデータベース0110を参照して仮想オブジェクトデータベース0111を更新する(S1103)。ここでS1101の閾値は、本実施形態の趣旨からいって、S1004の閾値と同じ値か、あるいはその値よりも大きい値が用いられる。またS1103では、S1005における判定のために、センサデータベースを使用した旨の情報を記録し、S1102ではセンサデータベースを使用していない旨の情報を記録する。最後にFrameCountを初期値たとえば−1に更新し(S1104)、処理を終了する。
FIG. 11 is a flowchart illustrating database migration determination processing (S1003) in the second embodiment. In S1100, the value of FrameCount is determined. If FrameCount is greater than 0, the number of feature points of the captured image is added to the total number of feature points (S1105), the
本実施形態により、いったんセンサデータベースを参照して仮想オブジェクトデータベースの位置情報を更新すると、FrameCountにセットした所定回数連続して(すなわちセットしたフレーム数続けて)センサデータベースを参照する。そしてその間に抽出した1フレームあたりの平均の特徴点数が特徴点データベースを用いるのに十分な数であるかをその後改めて判定する。そして十分な数の特徴点が抽出できていると推定できる場合に、特徴点データベースを参照した位置情報の更新に移行する。これにより、検出される特徴点の数が閾値付近を遷移する際の仮想オブジェクト表示方法の頻繁な切り替えを抑えることができる。 According to the present embodiment, once the position information of the virtual object database is updated by referring to the sensor database, the sensor database is referred to continuously for a predetermined number of times set to FrameCount (that is, continuously for the set number of frames). Then, it is determined again whether the average number of feature points per frame extracted during that time is sufficient to use the feature point database. When it can be estimated that a sufficient number of feature points have been extracted, the process shifts to updating the position information with reference to the feature point database. Thereby, frequent switching of the virtual object display method when the number of detected feature points transitions near the threshold can be suppressed.
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
Claims (13)
被写体を撮影して画像データを取得する画像取得手段と、
撮影した画像データに基づく前記情報表示装置の位置を記憶する第1の情報記憶手段と、
位置検知手段により検知した位置を記憶する第2の情報記憶手段と、
前記画像取得手段により取得した画像データおよび前記第1の情報記憶手段に記憶された画像データに基づいて前記情報表示装置の位置を特定できる場合には前記第1の情報記憶手段を参照し、特定できない場合には前記第2の情報記憶手段を参照して前記情報表示装置の位置を特定する位置特定手段と、
前記位置特定手段により特定された位置に応じて、保持されている仮想オブジェクトを前記画像データに重畳して表示する表示手段と
を有することを特徴とする情報表示装置。 An information display device,
Image acquisition means for capturing an image of a subject and acquiring image data;
First information storage means for storing a position of the information display device based on photographed image data;
Second information storage means for storing the position detected by the position detection means;
When the position of the information display device can be specified based on the image data acquired by the image acquisition unit and the image data stored in the first information storage unit, the first information storage unit is referred to and specified. If not, position specifying means for specifying the position of the information display device with reference to the second information storage means;
An information display apparatus comprising: a display unit that displays a virtual object that is held in a superimposed manner on the image data according to the position specified by the position specifying unit.
前記第1の情報記憶手段は、画像データから抽出した前記特徴点の位置と、当該特徴点に関連付けられた前記情報表示装置の位置とを記憶し、
前記位置特定手段は、前記抽出手段により抽出された特徴点および前記第1の情報記憶手段に記憶された特徴点に基づいて前記情報表示装置の位置を特定できる場合には前記第1の情報記憶手段を参照することを特徴とする請求項1に記載の情報表示装置。 Further comprising an extraction means for extracting feature points from the image data acquired by the image acquisition means;
The first information storage means stores the position of the feature point extracted from image data and the position of the information display device associated with the feature point,
When the position specifying unit can specify the position of the information display device based on the feature point extracted by the extracting unit and the feature point stored in the first information storage unit, the first information storage unit The information display apparatus according to claim 1, wherein means is referred to.
撮像手段により被写体を撮影して画像データを取得する画像取得工程と、
前記画像取得工程により取得した画像データおよび前記第1の情報記憶手段に記憶された画像データに基づいて前記情報表示装置の位置を特定できる場合には前記第1の情報記憶手段を参照し、特定できない場合には前記第2の情報記憶手段を参照して前記情報表示装置の位置を特定する位置特定工程と、
前記位置特定工程により特定された位置に応じて、保持されている仮想オブジェクトを前記画像データに重畳して表示手段により表示する表示工程と
を有することを特徴とする情報表示方法。 By an information display device having first information storage means for storing the position of the information display device based on image data photographed by the information display device, and second information storage means for storing the position detected by the position detection means An information display method,
An image acquisition step of acquiring an image data by photographing a subject with an imaging unit;
When the position of the information display device can be specified based on the image data acquired by the image acquisition step and the image data stored in the first information storage unit, the first information storage unit is referred to and specified. If not, a position specifying step of specifying the position of the information display device with reference to the second information storage means;
An information display method comprising: a display step of superimposing a held virtual object on the image data according to the position specified by the position specifying step and displaying the image by display means.
撮影した画像データに基づく前記コンピュータの位置を記憶する第1の情報記憶手段と、
位置検知手段により検知した位置を記憶する第2の情報記憶手段と、
被写体を撮影して画像データを取得する画像取得手段と、
前記画像取得手段により取得した画像データおよび前記第1の情報記憶手段に記憶された画像データに基づいて前記コンピュータの位置を特定できる場合には前記第1の情報記憶手段を参照し、特定できない場合には前記第2の情報記憶手段を参照して前記情報表示装置の位置を特定する位置特定手段と、
前記位置特定手段により特定された位置に応じて、保持されている仮想オブジェクトを前記画像データに重畳して表示する表示手段と
して機能させるためのプログラム。 Computer
First information storage means for storing a position of the computer based on photographed image data;
Second information storage means for storing the position detected by the position detection means;
Image acquisition means for capturing an image of a subject and acquiring image data;
When the position of the computer can be specified based on the image data acquired by the image acquisition means and the image data stored in the first information storage means, the first information storage means is referred to and cannot be specified The position specifying means for specifying the position of the information display device with reference to the second information storage means,
A program for causing a virtual object held to be displayed as a display unit superimposed on the image data in accordance with the position specified by the position specifying unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013131055A JP2015005220A (en) | 2013-06-21 | 2013-06-21 | Information display device and information display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013131055A JP2015005220A (en) | 2013-06-21 | 2013-06-21 | Information display device and information display method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015005220A true JP2015005220A (en) | 2015-01-08 |
Family
ID=52301035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013131055A Pending JP2015005220A (en) | 2013-06-21 | 2013-06-21 | Information display device and information display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015005220A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101741150B1 (en) * | 2016-12-28 | 2017-05-29 | 광운대학교 산학협력단 | An imaging photographing device and an imaging photographing method using an video editing |
WO2019013162A1 (en) * | 2017-07-11 | 2019-01-17 | キヤノン株式会社 | Information processing device and information processing method |
WO2019087658A1 (en) * | 2017-11-01 | 2019-05-09 | ソニー株式会社 | Information processing device, information processing method, and program |
KR20200035344A (en) * | 2018-09-26 | 2020-04-03 | 애플 인크. | Localization for mobile devices |
-
2013
- 2013-06-21 JP JP2013131055A patent/JP2015005220A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101741150B1 (en) * | 2016-12-28 | 2017-05-29 | 광운대학교 산학협력단 | An imaging photographing device and an imaging photographing method using an video editing |
US11348323B2 (en) | 2017-07-11 | 2022-05-31 | Canon Kabushiki Kaisha | Information processing apparatus for correcting three-dimensional map, information processing method for correcting three-dimensional map, and non-transitory computer-readable storage medium for correcting three-dimensional map |
CN110869978B (en) * | 2017-07-11 | 2023-04-11 | 佳能株式会社 | Information processing apparatus, information processing method, and computer program |
CN110869978A (en) * | 2017-07-11 | 2020-03-06 | 佳能株式会社 | Information processing apparatus, information processing method, and computer program |
JP2019020778A (en) * | 2017-07-11 | 2019-02-07 | キヤノン株式会社 | Information processing device and information processing method |
WO2019013162A1 (en) * | 2017-07-11 | 2019-01-17 | キヤノン株式会社 | Information processing device and information processing method |
JPWO2019087658A1 (en) * | 2017-11-01 | 2020-11-26 | ソニー株式会社 | Information processing equipment, information processing methods and programs |
US11508084B2 (en) | 2017-11-01 | 2022-11-22 | Sony Corporation | Information processing apparatus and information processing method for accurately estimating a self location |
JP7147775B2 (en) | 2017-11-01 | 2022-10-05 | ソニーグループ株式会社 | Information processing device, information processing method and program |
WO2019087658A1 (en) * | 2017-11-01 | 2019-05-09 | ソニー株式会社 | Information processing device, information processing method, and program |
CN110954083A (en) * | 2018-09-26 | 2020-04-03 | 苹果公司 | Positioning of mobile devices |
KR20200035344A (en) * | 2018-09-26 | 2020-04-03 | 애플 인크. | Localization for mobile devices |
JP7013420B2 (en) | 2018-09-26 | 2022-01-31 | アップル インコーポレイテッド | Location of mobile devices |
JP2020077363A (en) * | 2018-09-26 | 2020-05-21 | アップル インコーポレイテッドApple Inc. | Localization for mobile devices |
KR102331122B1 (en) * | 2018-09-26 | 2021-11-24 | 애플 인크. | Localization for mobile devices |
US11138472B2 (en) | 2018-09-26 | 2021-10-05 | Apple Inc. | Localization for mobile devices |
US11756229B2 (en) | 2018-09-26 | 2023-09-12 | Apple Inc. | Localization for mobile devices |
CN110954083B (en) * | 2018-09-26 | 2023-11-24 | 苹果公司 | Positioning of mobile devices |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107990899B (en) | Positioning method and system based on SLAM | |
US11195049B2 (en) | Electronic device localization based on imagery | |
EP2915140B1 (en) | Fast initialization for monocular visual slam | |
CN108028871B (en) | Label-free multi-user multi-object augmented reality on mobile devices | |
US9674507B2 (en) | Monocular visual SLAM with general and panorama camera movements | |
JP5838747B2 (en) | Information processing apparatus, information processing method, and program | |
CN109461208B (en) | Three-dimensional map processing method, device, medium and computing equipment | |
KR20180005168A (en) | Privacy-sensitive query on the localization zone description file | |
US10838515B1 (en) | Tracking using controller cameras | |
CN107038758B (en) | Augmented reality three-dimensional registration method based on ORB operator | |
CN111862150A (en) | Image tracking method and device, AR device and computer device | |
JP2015005220A (en) | Information display device and information display method | |
US11978232B2 (en) | Method for displaying three-dimensional augmented reality | |
CN110310325B (en) | Virtual measurement method, electronic device and computer readable storage medium | |
JP6719945B2 (en) | Information processing apparatus, information processing method, information processing system, and program | |
KR20210050997A (en) | Method and apparatus for estimating pose, computer-readable storage medium and computer program for controlling the holder device | |
KR20190055632A (en) | Object reconstruction apparatus using motion information and object reconstruction method using thereof | |
JP6172233B2 (en) | Image processing apparatus, image processing method, and program | |
WO2020149149A1 (en) | Information processing apparatus, information processing method, and program | |
KR20180133052A (en) | Method for authoring augmented reality contents based on 360 degree image and video | |
KR20210051002A (en) | Method and apparatus for estimating pose, computer-readable storage medium and computer program for controlling the holder device | |
JP2021184115A (en) | Information processing device, information processing method and program | |
KR20210048798A (en) | Method for determining pose of camera provided in user equipment and location calculation server performing method | |
JP7444292B2 (en) | Detection system, detection method, and program | |
JP5991418B2 (en) | Image processing apparatus, image processing method, and program |