JP2016115268A - 情報処理方法、情報処理プログラム、及び情報処理装置 - Google Patents

情報処理方法、情報処理プログラム、及び情報処理装置 Download PDF

Info

Publication number
JP2016115268A
JP2016115268A JP2014255356A JP2014255356A JP2016115268A JP 2016115268 A JP2016115268 A JP 2016115268A JP 2014255356 A JP2014255356 A JP 2014255356A JP 2014255356 A JP2014255356 A JP 2014255356A JP 2016115268 A JP2016115268 A JP 2016115268A
Authority
JP
Japan
Prior art keywords
reference object
information
marker
position information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014255356A
Other languages
English (en)
Other versions
JP6543924B2 (ja
Inventor
奨 古賀
Sho Koga
奨 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014255356A priority Critical patent/JP6543924B2/ja
Publication of JP2016115268A publication Critical patent/JP2016115268A/ja
Application granted granted Critical
Publication of JP6543924B2 publication Critical patent/JP6543924B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】処理負荷を軽減する。【解決手段】情報処理方法において、取得画像において第1の基準物の画像及び第2の基準物の画像を検出した場合、前記取得画像に基づき、前記第1の基準物及び前記第2の基準物が設置されている環境に関する環境情報を、前記第1の基準物及び前記第2の基準物のそれぞれについて生成し、前記取得画像における前記第1の基準物及び前記第2の基準物の位置情報に基づいて、前記第1の基準物及び前記第2の基準物間の相対位置情報を生成し、前記相対位置情報を生成した後の取得画像において、前記第1の基準物及び前記第2の基準物が検出不能となった場合に、前記第1の基準物に対応する前記環境情報と前記相対位置情報とを用いて、前記第2の基準物の位置情報を生成する、処理をコンピュータが実行する。【選択図】図6

Description

本発明は、情報処理方法、情報処理プログラム、及び情報処理装置に関する。
カメラ等の撮像部により撮像された画像の一部に画像等のコンテンツを重畳して表示させる拡張現実(Augmented Reality:AR)技術が知られている。AR技術では、撮像画像から認識されたARマーカ(基準物)に対する位置情報や識別情報(マーカID)に基づき、拡張空間に重畳して表示される画像データ(以下、必要に応じて「ARコンテンツ」という)等を配置する。
例えば、従来のAR表示では、テンプレートマッチング等により撮影画像にARマーカ形状が写っているかを認識し、認識したARマーカからマーカIDを読み取る。次に、マーカ領域の大きさや形状(歪み)から、マーカとカメラとの位置関係を推定し、推定した位置関係を用いて、ARコンテンツの配置(位置、向き等)を決定し、決定した配置でARコンテンツを画像に重畳表示している。
また、AR技術において、任意の場所にARコンテンツを関連付ける際に、ARマーカに基づいて、そのARマーカの位置から相対的な位置にコンテンツを表示する技術が知られている。また、認識中の識別子が特定の理由(例えば、識別子の認識を妨げる物体が識別子の前に出現したり、識別子がカメラ外にフレームアウトする等)により、ARマーカの認識が行えなくなる場合がある。このような場合に、そのARマーカの位置情報、形状情報等を追尾し、ARコンテンツの表示等の処理を継続される技術として、オブジェクトトラッキング技術が知られている。オブジェクトトラッキングとは、例えばARマーカの認識後に、そのARマーカを認識していなくても画像上の環境に対する特徴点情報(以下、「環境マップ」という)等に基づいて位置情報のトレースを可能とする技術である。
特開2012−174243号公報 特開2011−141828号公報 特開2011−95797号公報
しかしながら、例えばオブジェクトトラッキング技術をAR技術に適用する場合、複数のARマーカに対して、オブジェクトトラッキングを実現するための環境マップ(環境情報)を設定しておく必要がある。そのため、ARマーカの数が増えるとオブジェクトトラッキング時の処理負荷が高くなる。
一つの側面では、本発明は、処理負荷を軽減することを目的とする。
一つの態様では、情報処理方法は、取得画像において第1の基準物の画像及び第2の基準物の画像を検出した場合、前記取得画像に基づき、前記第1の基準物及び前記第2の基準物が設置されている環境に関する環境情報を、前記第1の基準物及び前記第2の基準物のそれぞれについて生成し、前記取得画像における前記第1の基準物及び前記第2の基準物の位置情報に基づいて、前記第1の基準物及び前記第2の基準物間の相対位置情報を生成し、前記相対位置情報を生成した後の取得画像において、前記第1の基準物及び前記第2の基準物が検出不能となった場合に、前記第1の基準物に対応する前記環境情報と前記相対位置情報とを用いて、前記第2の基準物の位置情報を生成する、処理をコンピュータが実行する。
一つの側面として、処理負荷を軽減することができる。
情報処理システムの概略構成の一例を示す図である。 端末装置の機能構成の一例を示す図である。 端末装置のハードウェア構成の一例を示す図である。 オーサリング時における情報処理の一例を示すフローチャートである。 環境マップ生成処理の一例を示すフローチャートである。 運用時における情報処理の一例を示すフローチャートである。 環境マップの一例を示す図である。 2つのマーカの環境マップを対応付けた例を示す図(その1)である。 2つのマーカの環境マップを対応付けた例を示す図(その1)である。 オブジェクトトラッキングの利用シーンの一例を示す図である。 複数マーカ認識における動作例を説明するための図である。 本実施形態によるオブジェクトトラッキング処理の一例を示す図である。 本実施形態におけるARコンテンツの表示例を示す図である。
以下、図面に基づいて実施形態を説明する。
<情報処理システムの概略構成例>
図1は、情報処理システムの概略構成の一例を示す図である。図1に示す情報処理システム10は、サーバ11と、情報処理装置の一例としての1又は複数の端末装置12−1〜12−n(以下、必要に応じて「端末装置12」と総称する)とを有する。サーバ11及び端末装置12は、例えば通信ネットワーク13によりデータの送受信が可能な状態で接続されている。
サーバ11は、基準物の一例としてのARマーカ、及びARマーカに対応付けて登録された各ARコンテンツ(ARオブジェクト)が管理されている。ここで、ARマーカとは、例えばARコンテンツ等の各種コンテンツ情報の内容や表示する位置等を指定するための標識となるもの(識別子)である。ARマーカは、例えば二次元コード等のように、所定の領域内に所定の模様や文字パターン等が形成された画像等であるが、これに限定されるものではない。
また、基準物の一例としては、ARマーカに限定されるものではなく、例えば壁掛け時計や絵画、壁紙、置物等の実物体(いわゆる自然マーカ)であってもよい。この場合、基準物の認識(検出)は、例えば実物体の形状や色、模様等に対応する特徴情報と、予め設定された基準物毎の特徴情報とを比較して、実物体を特定することで、その実物体に対応する識別情報(ID)を上述したマーカIDとして用いることができる。
ARコンテンツとは、例えば現実空間に対応する三次元の仮想空間上に配置された物体のモデルデータ等であり、例えば端末装置12で撮影された画像に重畳して表示される重畳用データ(オブジェクト情報)である。
また、ARコンテンツは、例えば撮影画像中に含まれるARマーカの大きさや形状(歪み)等から推定されるARマーカとカメラ等の撮像部との位置関係を用いて、ARマーカを基準とした相対座標(マーカ座標系)で設定された位置に表示される。また、ARコンテンツは、上述した位置関係を用いて、ARマーカの撮影方向に対応する向きで表示される。位置関係とは、ARマーカと撮影位置との距離及び撮影方向のうち少なくとも1つを含むが、これに限定されるものでない。マーカ座標系は、例えば三次元空間座標系(X,Y,Z)であるが、これに限定されるものはなく、二次元平面座標系(X,Y)でもよい。
本実施形態のARコンテンツは、マーカID等に対応付けられており、例えばテキスト、アイコン、アニメーション、マーク、模様、画像、映像等の様々な形態が含まれる。また、ARコンテンツは、表示出力されるものに限定されず、例えば音声等の情報であってもよい。
サーバ11は、例えば端末装置12におけるARコンテンツの設定処理(オーサリング処理)により、端末装置12から得られるARマーカに関する情報(例えば、マーカID、ARマーカの位置情報等)と、ARマーカの位置を基準とする相対位置に設定されたARコンテンツとを登録する。また、サーバ11は、端末装置12におけるオーサリング処理により、端末装置12からマーカIDに対応する1又は複数のARコンテンツの設定情報を取得した場合に、そのARコンテンツ情報(例えば、ARコンテンツID、座標値、回転角度、拡縮率、ARコンテンツ格納先情報(テクスチャパス)等)を登録して管理する。
また、サーバ11は、端末装置12から、ARコンテンツの取得要求等を受信した場合には、端末装置12から送信されたマーカIDに対応させて、予め登録されたARコンテンツに関する情報を抽出し、抽出した情報を端末装置12に送信する。
サーバ11は、例えばPersonal Computer(PC)等でもよいが、これに限定されるものではなく、例えば一以上の処理装置を有するクラウドコンピューティングにより構成されるクラウドサーバ等であってもよい。
端末装置12は、カメラ等の撮像部等により、実空間上にあるARマーカを撮影する。また、端末装置12は、カメラ等により撮影された画像又は通信ネットワーク13等を介して外部装置から得られる画像(以下、必要に応じて「取得画像」という)に含まれるARマーカから、対応する情報を認識する。また、端末装置12は、認識したARマーカに対してARオブジェクトの登録を行う。この登録情報は、サーバ11に送信され、サーバ11内で管理されてもよく、端末装置12内部で管理されていてもよい。
また、端末装置12は、撮影等により取得した画像にARマーカが含まれている場合に、そのARマーカを認識し、認識した結果として得られたマーカIDに対応付けられているARコンテンツ(オブジェクト)を取得し、取得したARコンテンツを、画像データに対してARマーカの表示位置(座標)を基準にした相対的な座標位置に重畳表示する。
なお、端末装置12は、認識中(検出中)のARマーカ(基準物)が特定の理由(例えば、ARマーカの認識を妨げる物体がARマーカの前に出現したり、ARマーカがカメラの画角外にフレームアウトする等)により、ARマーカの認識が行えなくなる場合がある。このような場合に、端末装置12は、そのARマーカの位置情報、形状情報等を追尾し、コンテンツの表示等の処理を継続されるオブジェクトトラッキングによるARコンテンツ表示を行う。
このとき、端末装置12は、複数のARマーカ認識時に、オブジェクトトラッキングによる処理負荷が高くなるため、ARマーカ毎に環境マップ(基準物が設置されている環境に関する情報(環境情報))を設定する場合に、同時認識するARマーカが増える毎に処理速度が低下する。また、負荷低減のために、オブジェクトトラッキング対象とする環境マップを減らした場合、ロストした(認識不能(検出不能)になった)ARマーカのトラッキングが不可能なケースがある。
そこで、端末装置12は、ARマーカを複数認識しているタイミングで、そのARマーカに対して環境マップが設定されているか否かの判定を行い、環境マップが両方に設定されている場合、環境マップの中心点(元々認識していたARマーカの中心座標)から、他のARマーカの相対位置及び相対形状を取得し、各々の環境マップにその情報を追加する。
また、端末装置12は、ARマーカの全てをロストした場合には、所定の条件(例えば、マーカID順等)で優先度が付けられた環境マップを1つ使用し、ロストしたARマーカ位置やARマーカ情報を推測する。また、端末装置12は、例えば、何れかのARマーカをロストした場合、認識中の他のARマーカの相対位置や相対形状に基づいて、相対位置や相対情報を推測する。
上述した手法を用いることで、背景画像の特徴点を使用せずにARマーカ(オブジェクト)をトラッキングすることができるため、処理の高速化が可能となる。なお、環境マップは、XMLファイル形式でもよく、バイナリ形式でもよいが、これらに限定されるものではない。
端末装置12は、例えばタブレット端末やスマートフォン、Personal Digital Assistants(PDA)、ノート型PC等であるが、これに限定されるものではなく、例えばゲーム機器、携帯電話等の通信端末であってもよい。
通信ネットワーク13は、例えばインターネットやLocal Area Network(LAN)等であるが、これに限定されるものではない。また、通信ネットワーク13は、有線でも無線でもよく、これらの組み合わせでもよい。
図1に示す情報処理システム10において、サーバ11と端末装置12とは1対nの構成となっているが、これに限定されるものではなく、例えば複数のサーバを有していてもよい。
<端末装置12の機能構成の一例>
次に、上述した端末装置12の機能構成例について、図を用いて説明する。図2は、端末装置の機能構成の一例を示す図である。端末装置12は、通信部21と、撮像部22と、記憶部23と、表示部24と、操作部25と、判定部26と、認識部27と、コンテンツ生成部28と、環境マップ生成部(環境情報生成部)29と、画面生成部30と、制御部31とを有する。
通信部21は、通信ネットワーク13を介してサーバ11や他の装置等との間でデータの送受信を行う。通信部21は、例えば撮像部22等を用いて撮影された画像に含まれるARマーカから、認識部27によるマーカ認識により認識されたマーカIDをサーバ11に送信する。通信部21は、送信したマーカIDに対応するARコンテンツ情報等を受信する。
また、通信部21は、例えばオーサリング処理において、取得画像に含まれるARマーカに対応付けて取得画像の所定の位置に重畳表示するARコンテンツ情報をサーバ11等に送信してもよい。取得画像は、撮像部22により撮影された画像でもよく、通信ネットワーク13を介して外部から取得した画像でもよい。
撮像部22は、静止画又は予め設定されたフレーム間隔で画像(動画像)を撮影する。撮像部22は、撮像した画像を制御部31へ出力したり、記憶部23に記憶させる。撮像部22は、例えばデジタルカメラ等であるが、これに限定されるものではない。
記憶部23は、本実施形態における情報処理(例えば、表示制御処理等)に必要な各種情報を記憶する。例えば、記憶部23は、制御部31による制御に基づき、各種情報を記憶する。記憶部23は、例えばARコンテンツ生成時の設定情報やARコンテンツ情報、環境マップ等を記憶する。また、記憶部23は、ARマーカ管理情報(現在認識しているマーカーのIDや位置等)の情報を一時的に記憶してもよい。
記憶部23に記憶される情報は、これに限定されるものではない。なお、これらの情報は、端末装置12が設定した情報だけでなく、サーバ11から取得した情報も含まれる。例えば、設定時の情報等は、サーバ11へ送信した後に削除されてもよい。
表示部24は、取得画像(例えば、撮像部22により撮影された画像や通信ネットワーク13を介して外部より取得した画像)等を表示する。表示部24は、表示される取得画像にARマーカが含まれている場合、そのARマーカに対応するARコンテンツ(重畳用の画像データ等)を所定の位置に重畳して表示する。また、表示部24は、画面生成部30により生成された重畳画像や、本実施形態における処理の開始や終了等をユーザが選択するためのボタン、その他各種の指示入力ボタン等を表示する。表示部24は、ディスプレイやモニタ等であるが、これに限定されるものではない。
操作部25は、ユーザ等からの操作内容を入力する。例えば、表示部24がタッチパネル等である場合、操作部25は、タッチパネル上のタッチ位置座標を取得する。また、操作部25は、タッチパネルによるマルチタッチインターフェースにより、シングルタップやダブルタップ、ロングタップ、スワイプ、フリック、ピンチイン、ピンチアウトといったユーザ操作を入力する。端末装置12がキーボードや操作ボタン等を有する場合には、操作部25は、ユーザが選択したキーボードや操作ボタンに対応する情報を入力する。
判定部26は、取得画像にARマーカが含まれるか否かを判定する。例えば、判定部26は、撮像部22により得られる撮影画像に対して画像認識を行い、予め設定された複数のARマーカ画像とのマッチングを行って画像中におけるARマーカの有無を判定する。
また、判定部26は、ARマーカ認識からオブジェクトトラッキング処理への切り替えの判定や、ユーザ入力に対するアプリケーションの起動や終了等を判定する。また、判定部26は、認識部27により認識したARマーカの領域の大きさや形状から画像の撮影位置を推測し、推測した画像撮影位置とARマーカの位置関係を示す情報を生成してもよい。位置関係を示す情報とは、例えばARマーカと撮影位置との距離及び方向のうち少なくとも1つであるが、これに限定されるものではない。判定部26における判定は、定期的、又は端末装置12の撮影位置が所定の距離以上移動した場合等の所定のタイミングで行う。
認識部27は、判定部26からの判定結果により、取得画像中に1又は複数のARマーカが存在すると判定された場合、各ARマーカに対応する識別情報(マーカID)を取得する。また、認識部27は、取得画像から認識(検出)していたARマーカが遮蔽物等の影響で認識不能(検出不能)となった場合(ロストした場合)に、環境マップを用いたオブジェクトトラッキング処理により認識不能となったARマーカの位置情報を取得する。
例えば、認識部27は、環境マップ生成部29により取得画像に含まれる2つのARマーカ(第1のARマーカ、第2のARマーカ)の環境マップを生成し、その後の取得画像において、第1及び第2のARマーカの両方が認識不能となった場合に、第1のARマーカに対する環境情報と環境マップから得られる相対位置情報とを用いて、第2のARマーカの位置情報を生成する。
また、認識部27は、例えば第1及び第2のARマーカの一方が認識不能となった場合に、認識可能(検出可能)な一方の基準物に対する環境情報と環境マップから得られる相対位置情報とを用いて、認識不能となった基準物の位置情報を生成する。
また、認識部27は、ARマーカが認識不能となった場合に、現在の取得画像より所定フレーム前まで認識済み(検出済み)であったか否かを判断し、認識済みであった場合に、そのARマーカの位置情報を取得する処理を行ってもよい。また、認識部27は、オブジェクトトラッキング処理における特徴点の抽出、特徴点のマッチング処理等を行う。また、認識部27は、オブジェクトトラッキング処理により得られる位置情報に基づいて、認識不能となったARマーカに対応するマーカIDを取得する。
なお、上述したARマーカの判定や認識では、ARマーカに限定されるものではなく、例えば取得画像に含まれる実物体(例えば、壁掛け時計や配管、絵画等)を基準物としてもよい。この場合、認識部27は、取得画像から実物体の特徴情報を抽出し、抽出した特徴情報と、予め登録された特徴情報とを比較し、同一又は類似度が所定値以上の特徴情報から物体を特定し、その物体に対応する識別情報を取得する。特徴情報とは、物体のエッジ情報や輝度情報等の特徴量に基づいて取得することができ、お互いの特徴情報がどの程度一致しているかに応じて物体を特定することができるが、これに限定されるものではない。
なお、上述した判定部26や認識部27では、例えば予めARマーカ又は物体の形状を規定したテンプレートを記憶部23に記憶しておき、そのテンプレートとマッチングを行うことでARマーカ又は物体を判定し、認識処理を行ってもよい。
コンテンツ生成部28は、表示部24に表示される取得画像に対してマーカIDに対応するARコンテンツ情報を抽出する。また、コンテンツ生成部28は、抽出したコンテンツ情報を用いて、ARマーカと取得画像を撮影したカメラ(例えば、撮像部22等)との位置関係から、画像に重畳するARコンテンツの配置(位置、向き、大きさ等)を決定する。
また、コンテンツ生成部28は、例えばオーサリング処理等において、ARコンテンツの位置情報、及びARコンテンツを形成する表示データと、マーカIDとを対応付けてARコンテンツ情報を生成する。例えば、コンテンツ生成部28は、ユーザが画面上で指定した点を、ARマーカの位置を基準とした座標系(マーカ座標系)に変換することで、その変換後の座標値をARマーカに基づく相対位置情報とすることができるが、これに限定されるものではない。コンテンツ生成部28は、生成したコンテンツ情報をマーカIDと対応付けて記憶部23に記憶してもよく、サーバ11に登録要求を行ってもよい。
更に、コンテンツ生成部28は、ARコンテンツの位置情報及びARコンテンツを形成する表示データと、ARマーカの識別情報とを対応付けて、ARコンテンツ情報を生成する。例えば、コンテンツ生成部は、ユーザが画面上で指定した点を、マーカ座標系に変換し、変換後の座標値を位置情報とする。
環境マップ生成部29は、判定部26による判定結果により、取得画像に1又は複数の複数のARマーカが存在すると判定された場合に、認識部27により認識された各ARマーカに環境マップ(環境情報)を生成する。また、環境マップ生成部29は、所定時間間隔で、環境マップを更新してもよい。また、環境マップ生成部29は、管理者等によるオーサリング処理のときに行ってもよく、オーサリング処理後の作業員等による運用時の撮影中に行ってもよい。
例えば、環境マップ生成部29は、取得画像において第1のARマーカの画像及び第2のARマーカの画像を検出した場合、取得画像に基づき、第1のARマーカ及び第2のARマーカが設置されている環境に関する環境マップを、第1のARマーカ及び第2のARマーカのそれぞれについて生成する。また、環境マップ生成部29は、例えば取得画像における第1のARマーカ及び第2のARマーカの位置情報に基づいて、第1のARマーカ及び第2のARマーカ間の相対位置情報を生成し、環境マップに保存する。なお、取得画像に3つ以上のARマーカの画像を検出した場合には、環境マップ生成部29は、各マーカ間における相対位置情報を生成する。
画面生成部30は、コンテンツ生成部28により生成されたARコンテンツを画像中の決定された位置に配置して重畳画像を生成する。画面生成部30は、重畳画像以外にも、例えば重畳前の撮影画像や設定画面等の様々な画像を表示するための画面を生成する。また、画面生成部30は、オーサリング処理において、ARマーカに対応付けるARコンテンツを選択するためのテンプレート情報を表示する画面を生成してもよく、文字情報を入力するための入力画面や編集画面を生成してもよい。
制御部31は、端末装置12が有する各構成における処理全体を制御する。制御部31は、撮像部22による画像撮影、表示部24による各種情報の画面表示、操作部25による各種入力情報の受け付け等の処理を行う。また、制御部31は、判定部26によるARマーカの有無の判定、認識部27によるARマーカ認識、コンテンツ生成部28によるコンテンツの生成等の処理を行う。
また、制御部31は、環境マップ生成部29による環境マップの生成、画面生成部30による重畳画像の生成等の処理を行う。制御部31における制御内容は、これに限定されるものではなく、例えばエラー処理等を行ってもよい。また、制御部31は、本実施形態における情報処理を実行するアプリケーションの起動や終了、エラー処理等を制御する。
<端末装置12のハードウェア構成例>
次に、端末装置12のハードウェア構成例について図を用いて説明する。図3は、端末装置のハードウェア構成の一例を示す図である。図3の例において、端末装置12は、マイクロフォン(以下、「マイク」という)41と、スピーカ42と、カメラ43と、表示部44と、操作部45と、センサ部46と、電力部47と、無線部48と、近距離通信部49と、補助記憶装置50と、主記憶装置51と、CPU52と、ドライブ装置53とを有し、これらはシステムバスBで相互に接続されている。
マイク41は、ユーザが発した音声や、その他の音を入力する。スピーカ42は、通話相手先の音声を出力したり、着信音等の音を出力する。マイク41及びスピーカ42は、例えば、通話機能等により通話相手と会話するとき等に用いることができるが、これに限定されるものではなく、音声による情報の入出力に用いることができる。
カメラ43は、例えば予め設定された画角内の実空間の画像(動画像、静止画像)を撮影する。カメラ43は、例えば上述した撮像部22の一例である。
表示部44は、ユーザに対してOperating System(OS)や各種アプリケーションで設定された画面(例えば、実空間にARオブジェクトが重畳された画像等)を表示する。また、表示部44は、タッチパネルディスプレイ等でもよく、その場合には表示部44は、入出力部としての機能を有する。
表示部44は、例えばLiquid Crystal Display(LCD)や有機Electro Luminescence(EL)等のディスプレイである。表示部44は、例えば上述した表示部24の一例である。
操作部45は、表示部44の画面に表示された操作ボタンや端末装置12の外部に設けられた操作ボタン等である。操作ボタンは、例えば電源ボタンや音量調整ボタンでもよく、所定の順番で配列された文字入力用の操作キー等でもよい。操作部45は、例えば上述した操作部25の一例である。
センサ部46は、端末装置12のある時点又は継続的な動作を検出する。例えば、センサ部46は、端末装置12の傾き角度、加速度、方向、位置等を検出するが、これに限定されるものではない。なお、センサ部46としては、例えば傾きセンサや加速度センサ、ジャイロセンサ、Global Positioning System(GPS、全地球測位網)等であるが、これに限定されるものではない。
電力部47は、端末装置12の各構成に対して電力を供給する。電力部47は、例えばバッテリ等の内部電源であるが、これに限定されるものではない。電力部47は、電力量を常時又は所定の時間間隔で検出し、電力量の残量等を監視することもできる。
無線部48は、例えばアンテナ等を用いて基地局からの無線信号(通信データ)を受信したり、アンテナを介して無線信号を基地局に送信する通信データの送受信部である。
近距離通信部49は、例えば赤外線通信やWi−Fi(登録商標)、Bluetooth(登録商標)等の通信手法を用いて、他の端末装置12等のコンピュータと近距離通信を行うことができる。上述した無線部48及び近距離通信部49は、他のコンピュータとのデータの送受信を可能とする通信インタフェースである。
補助記憶装置50は、例えばHard Disk Drive(HDD)やSolid State Drive(SSD)等のストレージ手段である。補助記憶装置50は、CPU52からの制御信号に基づき、本実施形態における実行プログラム(情報処理プログラム)や、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。補助記憶装置50は、CPU52からの制御信号等に基づいて、記憶された各情報から必要な情報を読み出したり、書き込むことができる。
主記憶装置51は、CPU52からの指示により補助記憶装置50から読み出された実行プログラム等を格納したり、プログラム実行中に得られる各種情報等を記憶する。主記憶装置51は、例えばRead Only Memory(ROM)やRandom Access Memory(RAM)等である。
CPU52は、OS等の制御プログラム、及び主記憶装置51に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することで、出力制御における各処理を実現する。
具体的には、CPU52は、例えば操作部45等から得られるプログラムの実行指示等に基づき、補助記憶装置50にインストールされたプログラムを実行させることにより、主記憶装置51上でプログラムに対応する処理を行う。例えば、CPU52は、情報処理プログラムを実行させることで、上述した撮像部22による実空間の撮像、表示部24による各種情報の画面表示、操作部25による各種入力情報の受け付け等の処理を行う。また、CPU52は、情報処理プログラムを実行させることで、判定部26によるARマーカの有無の判定、認識部27によるARマーカ認識、コンテンツ生成部28によるコンテンツの生成等の処理を行う。また、CPU52は、情報処理プログラムを実行させることで、環境マップ生成部29による環境マップの生成、画面生成部30による重畳画像の生成等の処理を行う。CPU52における処理内容は、上述した内容に限定されるものではない。CPU52により実行された内容は必要に応じて補助記憶装置50等に記憶される。
ドライブ装置53は、例えば記録媒体54等を着脱自在にセットすることができ、セットした記録媒体54に記録された各種情報を読み込んだり、所定の情報を記録媒体54に書き込むことができる。ドライブ装置53は、例えば媒体装填スロット等であるが、これに限定されるものではない。
記録媒体54は、上述したように実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。記録媒体54は、例えばフラッシュメモリ等の半導体メモリであってもよい。また、記録媒体54は、Universal Serial Bus(USB)メモリ等の可搬型記録媒体であってもよいが、これに限定されるものではない。
本実施形態では、上述したコンピュータ本体のハードウェア構成に実行プログラム(例えば、情報処理プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における情報処理(表示制御処理等)を実現することができる。また、上述した表示処理に対応する情報処理プログラムは、例えば装置上で常駐している状態であってもよく、起動指示により起動させてもよい。
次に、情報処理(表示制御処理)の一例について説明する。なお、本実施形態では、オーサリング時(設定時)の処理と、運用時の処理に大別して説明する。
<情報処理(表示制御処理)の一例:オーサング処理>
次に、本実施形態における情報処理(オーサング処理)の一例についてフローチャートを用いて説明する。図4は、オーサリング時における情報処理の一例を示すフローチャートである。図4の例において、端末装置12は、オーサリングプログラム等の対応するアプリケーションを起動し(S01)、例えば撮像部22等による撮影により実空間における画像(動画像でも静止画像でもよい)を取得する(S02)。なお、S02の処理で取得される画像は、端末装置12以外の装置から撮影された画像であってもよい。
次に、判定部26は、取得画像中のARマーカの有無を判定し、ARマーカを認識(検出)したか否かを判断する(S03)。ARマーカを認識した場合(S03において、YES)、そのARマーカの識別情報(マーカ)を認識し、ARマーカに既に対応付けられたARコンテンツがある場合には、そのARコンテンツを取得して画面に表示する(S04)。次に、コンテンツ生成部28は、ARコンテンツの追加、変更等の編集を開始するか否かを判断し(S05)、ユーザ指示等により開始する場合(S05において、YES)、編集を実施する(S06)。
次に、各ARマーカに対する環境マップ(環境情報)の生成を開始するか否かを判断し(S07)、環境マップの生成を開始する場合(S07において、YES)、環境マップ生成部29は、環境マップ生成処理を実行する(S08)。S07の処理では、例えば取得画像中に複数のARマーカが認識できている場合には、環境マップの生成を開始すると判断することができるが、判断基準はこれに限定されるものではない。
S07において、環境マップを生成しない場合(S07において、NO)、又はS08の処理後、編集を終了するか否かを判断し(S09)、編集を終了しない場合(S09において、NO)、S06の処理に戻る。また、編集を終了する場合(S09において、YES)、S03の処理においてARマーカを認識していない場合(S03において、NO)、又はS05の処理において編集を開始しない場合(S05において、NO)、アプリケーションを終了するか否かを判断する(S10)。
端末装置12は、アプリケーションを終了しない場合(S10において、NO)、S03の処理に戻る。また、アプリケーションを終了する場合(S10において、YES)、ARオーサリング処理のアプリケーションを終了して(S11)、処理を終了する。
<S08;環境マップ生成処理の一例>
次に、上述したS08における環境マップ生成処理の一例について、フローチャートを用いて説明する。図5は、環境マップ生成処理の一例を示すフローチャートである。図5の例において、環境マップ生成部29は、認識部27がARマーカを認識したか否かを判断し(S21)、ARマーカを認識した場合(S21において、YES)、第1視点の画像を取得する(S22)。次に、環境マップ生成部29は、第1視点と異なる視点の第2視点の画像を取得する(S23)。S22の処理において2視点の画像を取得する場合には、三角測量が可能な視点位置を取得する必要がある。また、S23の処理において、この2視点の画像の特徴点を対応付けることでオブジェクトトラッキング処理におけるロストしたARマーカの座標値が取得可能となる。
次に、環境マップ生成部29は、2視点の画像の特徴点の対応付けを行い(S24)、特徴点の対応付けが成功したか否かを判断する(S25)。対応付けが成功した場合(S25において、YES)、環境マップ生成部29は、2視点の画像から、特徴点の座標を取得する(S26)。次に、環境マップ生成部29は、特徴点の座標を環境マップに保存する(S27)。
また、S21の処理においてARマーカを認識していない場合(S21において、NO)、S25の処理において特徴点の対応付けが成功していない場合(S25において、NO)、又はS27の処理後、環境マップ生成部29は、環境マップ生成を終了するか否かを判断し(S28)、終了しない場合(S28において、NO)、S21の処理に戻る。また、環境マップ生成を終了する場合(S28において、YES)、環境マップ生成処理を終了する。
<情報処理(表示制御処理)の一例:運用処理>
次に、本実施形態における運用時の情報処理(表示制御処理)の一例についてフローチャートを用いて説明する。図6は、運用時における情報処理の一例を示すフローチャートである。図6の例において、端末装置12は、運用プログラム等の対応するアプリケーションを起動し(S31)、例えば撮像部22等による撮影により実空間における画像(動画像でも静止画像でもよい)を取得する(S32)。なお、S32の処理で取得される画像は、端末装置12以外の装置から撮影された画像であってもよい。
次に、判定部26は、取得した画像中からARマーカの有無を判定し、その判定結果からARマーカを認識したか否かを判断する(S33)。なお、S33の処理では、説明の便宜上、例えば取得画像から2つのARマーカを認識したか否かを判断しているが、これに限定されるものではなく、複数(3以上も含む)のARマーカを認識したか否かを判断してもよい。
ARマーカを認識した場合(S33において、YES)、認識部27は、マーカIDに対応付けられた情報を取得し(S34)、その情報の中に環境マップの設定があるか否かを判断する(S35)。なお、S34の処理において、取得する情報としては、例えばマーカIDに対応するARコンテンツ情報や環境マップ等であるが、これに限定されるものではない。
S35の処理において、環境マップの設定がある場合(S35において、YES)、環境マップ生成部29は、更新処理として、自マーカ(第1のARマーカ)と他マーカ(第2のARマーカ)との相対位置を取得して保存する(S36)。ここで、相対位置とは、例えば上述した相対距離ベクトル及び相対回転角度等であるが、これに限定されるものではなく、例えば相対形状等でもよい。
次に、画面生成部30は、S34の処理で得られたARコンテンツ情報からマーカIDに対応するARコンテンツをマーカIDに対する相対的な位置等に表示する(S37)。
また、S33の処理において、ARマーカが認識できなかった場合(S33において、NO)、現在の取得画像より所定フレーム(Nフレーム)前までにマーカ認識済み(マーカ検出済み)であったか否かを判断する(S38)。マーカ認識済みであったか否かとは、例えば現在の対象フレームからNフレーム前までの間に(過去に)、認識できたARマーカが存在したか否かに対応する。
マーカ認識済みである場合(S38において、YES)、認識部27は、そのARマーカに環境マップがあるか否かを判断する(S39)。環境マップがある場合(S39において、YES)、認識部27は、その環境マップと現在の取得画像との特徴点のマッチング(比較)を行う(S40)。
次に、認識部27は、S40のマッチング処理によるマッチ率(一致度)が予め設定された閾値以上か否かを判断し(S41)、閾値以上である場合(S41において、YES)、コンテンツ生成部28は、環境マップが設定されたマーカIDに対応するARコンテンツを生成し、表示部24に表示させる(S42)。
次に、端末装置12は、環境マップでトラッキングできたARマーカに他のARマーカの相対位置の設定があるか否かを判断する(S43)。設定がある場合(S43において、YES)、他のARマーカのARコンテンツを表示する(S44)。上述したS38〜S44の処理は、本実施形態におけるオブジェクトトラッキング処理の一例である。
S37の処理後、又はS44の処理後、アプリケーションを終了するか否かを判断する(S45)。なお、S45の処理は、上述したS38の処理においてNフレーム前までにARマーカ認識済みでない場合(S38において、NO)、S39の処理において環境マップがない場合(S39において、NO)、S41の処理においてマッチ率が閾値以上でない場合(S41において、NO)、又はS43の処理において相対位置の設定があった場合(S43において、NO)にも、次に実行される。
S45の処理において、終了しない場合(S45において、NO)、S33の処理に戻る。また、S45の処理において、アプリケーションを終了する場合、運用プログラム等の対応するアプリケーションを終了する(S46)。
<環境マップの一例>
図7は、環境マップの一例を示す図である。なお、以下の説明では、環境マップをXML形式で示しているが、これに限定されるものではない。また、説明の便宜上、左側には行番号を付している。
図7(A)は、ARマーカ間の相対情報がない場合の環境マップの一例を示しており、取得画像から1つのARマーカ(マーカID「1」)が認識されている例を示している。図7(A)において、(01)行目は、環境マップキーを示している。(02)行目は、環境マップを関連付けるマーカ情報キーを示している。(03)行目は、ARマーカIDを示している。(04)〜(08)行目は、ARマーカの中心座標(例えば、三次元座標)を示している。
(10)〜(22)行目は、環境マップの特徴点情報を示している。特徴点情報は、ARマーカを基準とした背景画像に含まれるエッジ情報や輝度差情報から得られる特徴点の情報であり、1又は複数存在する。(11)〜(15)行目には、特徴点1の特徴点情報(例えば、三次元座標)が示されている。このような特徴点情報が、複数(N)個、環境マップに保存される。
また、図7(B)は、ARマーカ間の相対情報がある場合の環境マップの一例を示しており、取得画像から複数のARマーカを認識している状態での環境マップを示している。図7(B)では、第1のARマーカ(マーカID「1」)と、第2のARマーカ(マーカID「2」)が認識されている例を示している。
図7(B)において、(13)〜(17)行目には、基本となる第1のARマーカの中心座標から第2のARマーカまでの相対距離ベクトルを示し、(18)〜(22)行目には、基本となる第1のARマーカに対する第2のARマーカの相対回転角度が保存されている。なお、保存する相対情報については、これに限定されるものではない。
上述した図5の環境マップ生成処理により、取得画像から認識される各ARマーカに対して図7(A)、(B)に示すような環境マップを生成する。また、環境マップは、所定時間間隔毎、又は撮影場所を所定距離以上移動する毎に更新されるため、例えば図7(A)に示す環境マップが、取得画像から判定されるARマーカの数等に応じて図7(B)に示す環境マップに更新される。
図8、図9は、2つのマーカの環境マップを対応付けた例を示す図(その1、その2)である。図8では、更新前の状態において、取得画像に含まれるARマーカが1つ(マーカID「1」)であるため、マーカID「1」に対する特徴点情報からなる環境マップが生成されている。また、図8では、更新後の状態において、取得画像に含まれるARマーカが2つ(マーカID「1」、「2」)であるため、マーカID「1」をベースとしてマーカID「2」を対応付けた場合の環境マップを生成する。この場合、図8の更新後の(05)〜(19)行目に示すように、マーカID「1」からマーカID「2」への相対距離ベクトル及び相対回転角度が保存される。
また、図9では、更新前の状態において、取得画像に含まれるARマーカが1つ(マーカID「2」)であるため、マーカID「2」に対する特徴点情報からなる環境マップが生成されている。また、図9では、更新後の状態において、取得画像に含まれるARマーカが2つ(マーカID「1」、「2」)であるため、マーカID「2」をベースとしてマーカID「1」を対応付けた場合の環境マップを生成する。この場合、図9の更新後の(05)〜(19)行目に示すように、マーカID「2」からマーカID「1」への相対距離ベクトル及び相対回転角度が保存される。
また、本実施形態において、環境マップ生成部29は、上述した環境マップの更新タイミングに対応させて、新規に特徴点情報を付加してもよい。例えば、図8の更新後の(22)〜(26)行目、又は図9の更新後の(22)〜(26)行目には、更新時の取得画像から得られた新たな特徴点情報(例えば、三次元座標)等が保存される。また、環境マップ生成部29は、追加だけでなく、現在の取得画像から取得することができない特徴点情報等を更新のタイミングで削除してもよい。
また、本実施形態では、例えば画面上に存在する3以上の各ARマーカ同士をそれぞれ対応付けて環境マップとして保存してもよい。上述した環境マップは、記憶部23に記憶してもよく、通信ネットワーク13を介してサーバ11等に記憶させてもよい。
<オブジェクトトラッキングの利用シーン例>
次に、オブジェクトトラッキングの利用シーン例について、図を用いて説明する。図10は、オブジェクトトラッキングの利用シーンの一例を示す図である。図10の例では、工場や施設等の実空間上に存在する物体60−1,60−2のうち、物体60−2に基準物の一例であるARマーカ61が設置されている。物体の例としては、例えば配管やバルブ、操作パネル、椅子、机、建物、車両、機械等であるが、これらに限定されるものではなく、実空間上に存在するあらゆる物体でもよい。また、物体そのものを基準物としてよい。
管理者等のユーザ62は、端末装置12を所持し、端末装置12から撮影して表示部24の画面63に表示された取得画像に対して、ARマーカ61が認識できた場合に、その認識したARマーカに対応付けられたARコンテンツを表示する。
このとき、例えば図10の画面63−1に示すように、ARマーカ61を一度認識できた状態で、そのARマーカが画面外に外れた場合や、図10の画面63−2に示すように、ARマーカ61を認識中に、画面内にARマーカ61を遮る遮蔽物(例えば、人物の手や移動物体等)64が出現した場合や照明の明暗の状態の変化があった場合には、ARマーカが認識できなくなり、対応するARコンテンツを表示することができない。そこで、上述したように、マーカ認識が途切れた場合において、本実施形態におけるオブジェクトトラッキングを実施することで、ARコンテンツの利用を継続させることが可能となる。
<複数マーカ認識における動作>
次に、複数マーカ認識における動作例について、図を用いて説明する。図11は、複数マーカ認識における動作例を説明するための図である。図11の例では、物体60−2に2つのARマーカ61−1,61−2が設置されている。また、図11の例では、ARマーカ61−1にマーカID「1」を設定し、ARマーカ61−2にID「2」を設定している。
例えば、オーサリング時の場合には、図11に示すように単一マーカに対して環境マップを生成する。また、運用時においても単一マーカに対して環境マップが更新される。図11の各画面63に示されている「×」印が画像から得られる特徴点情報である。特徴点情報は、実際には画面63に表示されていないが、例えば画面生成部30が特徴点情報を表示する処理を行ってもよい。特徴点情報は、例えばARマーカの背景画像から得られるエッジ情報や輝度差情報等に基づいて生成されるが、特徴点の数や位置については、図11の例に限定されるものではない。また、特徴点情報は、例えば三次元座標等で示すことができるが、これに限定されるものではない。
ここで、ユーザ62の使用する位置によっては、1画像から複数のARマーカが認識される場合がある。この場合、従来では認識した複数のARマーカのそれぞれに対する特徴点を生成して保存することになる。したがって、ARマーカをロストした場合のオブジェクトトラッキング処理において、処理する特徴点の数が多くなるため、処理負荷が高くなりARコンテンツの表示速度低下等の問題が生じる。
そこで、上述した本実施形態による環境マップの設定により、上記問題を解決する。本実施形態では、複数のARマーカが画像中に含まれる場合に、各ARマーカに、そのARマーカが設置されている環境に関する環境マップを生成する。また、お互いのARマーカ間における相対位置情報も環境マップに保存する。これにより、その後のARマーカの認識処理において、一方又は両方をロストした場合であっても環境マップを用いて容易にARマーカの位置を生成することができ、対応するARコンテンツを表示することができる。
図12は、本実施形態によるオブジェクトトラッキング処理の一例を示す図である。なお、図12の例では、環境マップの生成からオブジェクトトラッキング処理を行うまでの一連の流れを示している。
本実施形態では、まず環境マップの設定有無の判定を行う。例えば、図12(A)に示すように、認識中のARマーカ61−1,61−2に環境マップが設定されており、かつその環境マップの設定が認識中のマーカ同士で独立(それぞれのマーカIDに設定されていること)しているかを判定する。
次に、図12(B)に示すように、相対位置情報を環境マップに追加する。例えば、それぞれのARマーカ61−1,61−2からの相対位置情報(例えば、相対距離ベクトル等)を、それぞれのマーカIDの環境マップに追加又は内部的に保持する。なお、相対位置情報は、相対距離ベクトルに限定されるものではなく、例えば相対回転角度や相対形状情報(例えば、マーカID「1」をベースとした場合に、マーカID「2」のマーカ位置がどの座標でどの程度の大きさと傾きか等を示す情報)でもよい。
なお、相対位置情報や相対形状情報等は、必ずしも上述した手法に限定されるものではなく、例えば既存のマーカ認識エンジンから所定のタイミングで取得できるARマーカの中心座標情報等に基づいて、それぞれの相対的な位置関係等を補足できるようにしてもよい。
ここで、例えば図12(C)に示すように、認識中のARマーカ全てが遮蔽物64や照明等の影響により認識不能になった場合(ロストした場合)、任意の環境マップを1つ使用し、ロストしたARマーカの中心座標や相対形状等を取得する。なお、使用する環境マップは、例えばマーカID順等のように、予め設定された条件に基づいて使用されるが、使用条件については、マーカID順に限定されるものではなく、予めID毎に優先度が設定されている場合には、優先度順に使用される。
また、図12(D)に示すように、認識中のARマーカの片方のみをロストした場合には、認識中のARマーカ(認識可能なARマーカ)に関する環境マップをベースに、図12(B)において生成した相対位置情報等に基づいて、ロストしたARマーカの中心座標や相対形状等を取得する。これにより、本実施形態では、ARマーカをロストした場合に、最低1つのARマーカを認識できれば、そのARマーカに対応付けられた環境マップを用いて相対的に取得することができる。
<ARコンテンツの表示例>
図13は、本実施形態におけるARコンテンツの表示例を示す図である。図13(A)は、ARマーカ認識時のARコンテンツの表示例を示し、図13(B)は、オブジェクトトラッキング実施時におけるARコンテンツ表示例を示している。
例えば、図13(A)に示すように、マーカ認識時には、ARマーカ61−1,61−2のうち、ARマーカ61−1に対応付けられてARコンテンツ70−1,70−2が画像データとして、撮影画像に対して重畳表示されている。これらのARコンテンツ70−1,70−2は、それぞれ物体60に対する注意事項やメッセージ、操作手順等のテキスト情報であるが、これに限定されるものではなく、例えば動画や音声等でもよい。
ここで、図13(B)に示すように遮蔽物64によりARマーカ61−1をロストした場合(認識不能になった場合)、ARマーカ61−2に対応する環境マップを用いて、ARマーカ61−1の相対位置を取得し、取得した位置に対応させてARコンテンツ70−1,70−2を継続して表示させることができる。また、ARマーカ61−1,61−2の両方がロストした場合でも、一方の環境マップを用いて各ARマーカ61−1,61−2の位置を取得することができる。
なお、上述の処理は、例えば現在の取得画像より所定フレーム(Nフレーム)前までにマーカ認識済みであったか否かを判断し、所定フレーム前までマーカ認識済みであった場合に行ってもよい。これにより、ARマーカ61が遮蔽物64等により遮蔽されてから所定時間(所定フレーム数)の間だけ、ARコンテンツ70を表示させることができる。
上述したように、本実施形態によれば、処理負荷を軽減することができる。例えば、本実施形態では、基準物(ARマーカだけでなく実物体等も含む)毎に、基準物が設置されている環境に関する環境情報をそれぞれについて生成する。また、本実施形態では、第1の取得画像において第1の基準物及び第2の基準物が認識された場合、第1の取得画像における第1及び第2の基準物の位置情報に基づき、第1及び第2の基準物間の相対位置情報を生成し、環境情報に保存する。また、本実施形態では、第2の取得画像において第1及び第2の基準物の両方が認識不能(ロスト)となった場合、第1の基準物の環境情報と相対位置情報を用いて、第2の基準物の位置情報を生成する。
また、本実施形態では、第2の取得画像において複数の基準物のうちの第2の基準物が認識不能(ロスト)となった場合、第1の基準物の位置と相対位置情報を用いて、第2の基準物の位置情報を生成する。
なお、上述した相対位置情報等のリアルタイム算出の処理負荷は、従来のオブジェクトトラッキングやマーカ認識の処理負荷よりも遥かに小さい。したがって、複数のARマーカや物体に対して、オブジェクトトラッキング処理等を適用する際の処理負荷を軽減することができる。
以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、上述した実施例の一部又は全部を組み合わせることも可能である。
なお、以上の実施例に関し、更に以下の付記を開示する。
(付記1)
取得画像において第1の基準物の画像及び第2の基準物の画像を検出した場合、前記取得画像に基づき、前記第1の基準物及び前記第2の基準物が設置されている環境に関する環境情報を、前記第1の基準物及び前記第2の基準物のそれぞれについて生成し、
前記取得画像における前記第1の基準物及び前記第2の基準物の位置情報に基づいて、前記第1の基準物及び前記第2の基準物間の相対位置情報を生成し、
前記相対位置情報を生成した後の取得画像において、前記第1の基準物及び前記第2の基準物が検出不能となった場合に、前記第1の基準物に対応する前記環境情報と前記相対位置情報とを用いて、前記第2の基準物の位置情報を生成する、
処理をコンピュータが実行することを特徴とする情報処理方法。
(付記2)
取得画像において第1の基準物の画像及び第2の基準物の画像を検出した場合、前記取得画像に基づき、前記第1の基準物及び前記第2の基準物が設置されている環境に関する環境情報を、前記第1の基準物及び前記第2の基準物のそれぞれについて生成し、
前記取得画像における前記第1の基準物及び前記第2の基準物の位置情報に基づいて、前記第1の基準物及び前記第2の基準物間の相対位置情報を生成し、
前記相対位置情報を生成した後の取得画像において、前記第1の基準物及び前記第2の基準物の一方が検出不能となった場合に、検出可能な一方の基準物に対する前記環境情報と前記相対位置情報とを用いて、前記検出不能となった基準物の位置情報を生成する、
処理をコンピュータが実行することを特徴とする情報処理方法。
(付記3)
前記環境情報と前記相対位置情報とを用いて、前記取得画像の特徴点情報と前記環境情報に含まれる特徴点情報とを比較を行い、特徴点情報の一致率が閾値以上である場合に、前記相対位置情報に基づく前記基準物の位置情報を生成することを特徴とする付記1又は2に記載の情報処理方法。
(付記4)
前記検出不能となった基準物に対応付けられたコンテンツを画面に表示することを特徴とする付記1乃至3の何れか1項に記載の情報処理方法。
(付記5)
前記基準物が検出不能となった場合に、現在の取得画像より所定フレーム前まで検出済みであったか否かを判断し、
検出済みであった場合に前記相対位置情報に基づく前記基準物の位置情報を生成することを特徴とする付記1乃至4の何れか1項に記載の情報処理方法。
(付記6)
取得画像において第1の基準物の画像及び第2の基準物の画像を検出した場合、前記取得画像に基づき、前記第1の基準物及び前記第2の基準物が設置されている環境に関する環境情報を、前記第1の基準物及び前記第2の基準物のそれぞれについて生成し、
前記取得画像における前記第1の基準物及び前記第2の基準物の位置情報に基づいて、前記第1の基準物及び前記第2の基準物間の相対位置情報を生成し、
前記相対位置情報を生成した後の取得画像において、前記第1の基準物及び前記第2の基準物が検出不能となった場合に、前記第1の基準物に対応する前記環境情報と前記相対位置情報とを用いて、前記第2の基準物の位置情報を生成する、
処理をコンピュータに実行させる情報処理プログラム。
(付記7)
取得画像において第1の基準物の画像及び第2の基準物の画像を検出した場合、前記取得画像に基づき、前記第1の基準物及び前記第2の基準物が設置されている環境に関する環境情報を、前記第1の基準物及び前記第2の基準物のそれぞれについて生成し、
前記取得画像における前記第1の基準物及び前記第2の基準物の位置情報に基づいて、前記第1の基準物及び前記第2の基準物間の相対位置情報を生成し、
前記相対位置情報を生成した後の取得画像において、前記第1の基準物及び前記第2の基準物の一方が検出不能となった場合に、検出可能な一方の基準物に対する前記環境情報と前記相対位置情報とを用いて、前記検出不能となった基準物の位置情報を生成する、
処理をコンピュータに実行させる情報処理プログラム。
(付記8)
取得画像において第1の基準物の画像及び第2の基準物の画像を検出した場合、前記取得画像に基づき、前記第1の基準物及び前記第2の基準物が設置されている環境に関する環境情報を、前記第1の基準物及び前記第2の基準物のそれぞれについて生成し、前記取得画像における前記第1の基準物及び前記第2の基準物の位置情報に基づいて、前記第1の基準物及び前記第2の基準物間の相対位置情報を生成する環境情報生成部と、
前記相対位置情報を生成した後の取得画像において、前記第1の基準物及び前記第2の基準物が検出不能となった場合に、前記第1の基準物に対応する前記環境情報と前記相対位置情報とを用いて、前記第2の基準物の位置情報を生成する認識部とを有することを特徴とする情報処理装置。
(付記9)
取得画像において第1の基準物の画像及び第2の基準物の画像を検出した場合、前記取得画像に基づき、前記第1の基準物及び前記第2の基準物が設置されている環境に関する環境情報を、前記第1の基準物及び前記第2の基準物のそれぞれについて生成し、前記取得画像における前記第1の基準物及び前記第2の基準物の位置情報に基づいて、前記第1の基準物及び前記第2の基準物間の相対位置情報を生成する環境情報生成部と、
前記相対位置情報を生成した後の取得画像において、前記第1の基準物及び前記第2の基準物の一方が検出不能となった場合に、検出可能な一方の基準物に対する前記環境情報と前記相対位置情報とを用いて、前記検出不能となった基準物の位置情報を生成する認識部とを有することを特徴とする情報処理装置。
10 情報処理システム
11 サーバ
12 端末装置(情報処理装置)
13 通信ネットワーク
21 通信部
22 撮像部
23 記憶部
24 表示部
25 操作部
26 判定部
27 認識部
28 コンテンツ生成部
29 環境マップ生成部
30 画面生成部
31 制御部
41 マイク
42 スピーカ
43 カメラ
44 表示部
45 操作部
46 センサ部
47 電力部
48 無線部
49 近距離通信部
50 補助記憶装置
51 主記憶装置
52 CPU
53 ドライブ装置
54 記録媒体
60 物体
61 ARマーカ
62 ユーザ
63 画面
64 遮蔽物
70 ARコンテンツ

Claims (8)

  1. 取得画像において第1の基準物の画像及び第2の基準物の画像を検出した場合、前記取得画像に基づき、前記第1の基準物及び前記第2の基準物が設置されている環境に関する環境情報を、前記第1の基準物及び前記第2の基準物のそれぞれについて生成し、
    前記取得画像における前記第1の基準物及び前記第2の基準物の位置情報に基づいて、前記第1の基準物及び前記第2の基準物間の相対位置情報を生成し、
    前記相対位置情報を生成した後の取得画像において、前記第1の基準物及び前記第2の基準物が検出不能となった場合に、前記第1の基準物に対応する前記環境情報と前記相対位置情報とを用いて、前記第2の基準物の位置情報を生成する、
    処理をコンピュータが実行することを特徴とする情報処理方法。
  2. 取得画像において第1の基準物の画像及び第2の基準物の画像を検出した場合、前記取得画像に基づき、前記第1の基準物及び前記第2の基準物が設置されている環境に関する環境情報を、前記第1の基準物及び前記第2の基準物のそれぞれについて生成し、
    前記取得画像における前記第1の基準物及び前記第2の基準物の位置情報に基づいて、前記第1の基準物及び前記第2の基準物間の相対位置情報を生成し、
    前記相対位置情報を生成した後の取得画像において、前記第1の基準物及び前記第2の基準物の一方が検出不能となった場合に、検出可能な一方の基準物に対する前記環境情報と前記相対位置情報とを用いて、前記検出不能となった基準物の位置情報を生成する、
    処理をコンピュータが実行することを特徴とする情報処理方法。
  3. 前記環境情報と前記相対位置情報とを用いて、前記取得画像の特徴点情報と前記環境情報に含まれる特徴点情報とを比較を行い、特徴点情報の一致率が閾値以上である場合に、前記相対位置情報に基づく前記基準物の位置情報を生成することを特徴とする請求項1又は2に記載の情報処理方法。
  4. 前記検出不能となった基準物に対応付けられたコンテンツを画面に表示することを特徴とする請求項1乃至3の何れか1項に記載の情報処理方法。
  5. 取得画像において第1の基準物の画像及び第2の基準物の画像を検出した場合、前記取得画像に基づき、前記第1の基準物及び前記第2の基準物が設置されている環境に関する環境情報を、前記第1の基準物及び前記第2の基準物のそれぞれについて生成し、
    前記取得画像における前記第1の基準物及び前記第2の基準物の位置情報に基づいて、前記第1の基準物及び前記第2の基準物間の相対位置情報を生成し、
    前記相対位置情報を生成した後の取得画像において、前記第1の基準物及び前記第2の基準物が検出不能となった場合に、前記第1の基準物に対応する前記環境情報と前記相対位置情報とを用いて、前記第2の基準物の位置情報を生成する、
    処理をコンピュータに実行させる情報処理プログラム。
  6. 取得画像において第1の基準物の画像及び第2の基準物の画像を検出した場合、前記取得画像に基づき、前記第1の基準物及び前記第2の基準物が設置されている環境に関する環境情報を、前記第1の基準物及び前記第2の基準物のそれぞれについて生成し、
    前記取得画像における前記第1の基準物及び前記第2の基準物の位置情報に基づいて、前記第1の基準物及び前記第2の基準物間の相対位置情報を生成し、
    前記相対位置情報を生成した後の取得画像において、前記第1の基準物及び前記第2の基準物の一方が検出不能となった場合に、検出可能な一方の基準物に対する前記環境情報と前記相対位置情報とを用いて、前記検出不能となった基準物の位置情報を生成する、
    処理をコンピュータに実行させる情報処理プログラム。
  7. 取得画像において第1の基準物の画像及び第2の基準物の画像を検出した場合、前記取得画像に基づき、前記第1の基準物及び前記第2の基準物が設置されている環境に関する環境情報を、前記第1の基準物及び前記第2の基準物のそれぞれについて生成し、前記取得画像における前記第1の基準物及び前記第2の基準物の位置情報に基づいて、前記第1の基準物及び前記第2の基準物間の相対位置情報を生成する環境情報生成部と、
    前記相対位置情報を生成した後の取得画像において、前記第1の基準物及び前記第2の基準物が検出不能となった場合に、前記第1の基準物に対応する前記環境情報と前記相対位置情報とを用いて、前記第2の基準物の位置情報を生成する認識部とを有することを特徴とする情報処理装置。
  8. 取得画像において第1の基準物の画像及び第2の基準物の画像を検出した場合、前記取得画像に基づき、前記第1の基準物及び前記第2の基準物が設置されている環境に関する環境情報を、前記第1の基準物及び前記第2の基準物のそれぞれについて生成し、前記取得画像における前記第1の基準物及び前記第2の基準物の位置情報に基づいて、前記第1の基準物及び前記第2の基準物間の相対位置情報を生成する環境情報生成部と、
    前記相対位置情報を生成した後の取得画像において、前記第1の基準物及び前記第2の基準物の一方が検出不能となった場合に、検出可能な一方の基準物に対する前記環境情報と前記相対位置情報とを用いて、前記検出不能となった基準物の位置情報を生成する認識部とを有することを特徴とする情報処理装置。
JP2014255356A 2014-12-17 2014-12-17 情報処理方法、情報処理プログラム、及び情報処理装置 Active JP6543924B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014255356A JP6543924B2 (ja) 2014-12-17 2014-12-17 情報処理方法、情報処理プログラム、及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014255356A JP6543924B2 (ja) 2014-12-17 2014-12-17 情報処理方法、情報処理プログラム、及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2016115268A true JP2016115268A (ja) 2016-06-23
JP6543924B2 JP6543924B2 (ja) 2019-07-17

Family

ID=56141878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014255356A Active JP6543924B2 (ja) 2014-12-17 2014-12-17 情報処理方法、情報処理プログラム、及び情報処理装置

Country Status (1)

Country Link
JP (1) JP6543924B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180050913A (ko) * 2016-11-07 2018-05-16 (주) 인하씨엔티 가상 위치 매칭 방법
JP2018533121A (ja) * 2015-09-11 2018-11-08 スリーディーキューアール ゲーエムベーハー3DQR GmbH 現実シーンの写真に仮想画像を重ね合わせるための方法及び装置、並びに携帯デバイス
JP2020513604A (ja) * 2016-11-08 2020-05-14 スリーディーキューアール ゲーエムベーハー3DQR GmbH 現実シーンの複製物に仮想画像及び音声データを重ね合わせるための方法及び装置、並びに携帯デバイス
WO2021156977A1 (ja) * 2020-02-05 2021-08-12 マクセル株式会社 空間認識システム、空間認識方法、情報端末、およびサーバ装置
JP7443938B2 (ja) 2020-06-01 2024-03-06 コニカミノルタ株式会社 物品の認識方法、プログラム、および情報処理装置
JP7491770B2 (ja) 2020-08-06 2024-05-28 エヌ・ティ・ティ・コムウェア株式会社 端末装置、情報処理方法、およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008214832A (ja) * 2007-03-07 2008-09-18 Unitica Fibers Ltd 複合糸及び織編物
JP2013141049A (ja) * 2010-03-24 2013-07-18 Hitachi Ltd 世界座標系データベースを利用したサーバ及び端末

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008214832A (ja) * 2007-03-07 2008-09-18 Unitica Fibers Ltd 複合糸及び織編物
JP2013141049A (ja) * 2010-03-24 2013-07-18 Hitachi Ltd 世界座標系データベースを利用したサーバ及び端末

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018533121A (ja) * 2015-09-11 2018-11-08 スリーディーキューアール ゲーエムベーハー3DQR GmbH 現実シーンの写真に仮想画像を重ね合わせるための方法及び装置、並びに携帯デバイス
KR20180050913A (ko) * 2016-11-07 2018-05-16 (주) 인하씨엔티 가상 위치 매칭 방법
KR101976837B1 (ko) 2016-11-07 2019-05-09 (주)인하씨엔티 가상 위치 매칭 방법
JP2020513604A (ja) * 2016-11-08 2020-05-14 スリーディーキューアール ゲーエムベーハー3DQR GmbH 現実シーンの複製物に仮想画像及び音声データを重ね合わせるための方法及び装置、並びに携帯デバイス
JP7096569B2 (ja) 2016-11-08 2022-07-06 スリーディーキューアール ゲーエムベーハー 現実シーンの複製物に仮想画像及び音声データを重ね合わせるための方法及び装置、並びに携帯デバイス
WO2021156977A1 (ja) * 2020-02-05 2021-08-12 マクセル株式会社 空間認識システム、空間認識方法、情報端末、およびサーバ装置
JPWO2021156977A1 (ja) * 2020-02-05 2021-08-12
JP7502346B2 (ja) 2020-02-05 2024-06-18 マクセル株式会社 空間認識システム、情報端末、および空間認識方法
JP7443938B2 (ja) 2020-06-01 2024-03-06 コニカミノルタ株式会社 物品の認識方法、プログラム、および情報処理装置
JP7491770B2 (ja) 2020-08-06 2024-05-28 エヌ・ティ・ティ・コムウェア株式会社 端末装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JP6543924B2 (ja) 2019-07-17

Similar Documents

Publication Publication Date Title
US10430655B2 (en) Augmented reality information processing system and augmented reality display control method with space information conversion and display control features
JP6244954B2 (ja) 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
CN111417028B (zh) 信息处理方法、装置、存储介质及电子设备
US10319110B2 (en) Display control method and system
US10163266B2 (en) Terminal control method, image generating method, and terminal
JP6424601B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
JP6421670B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
JP6543924B2 (ja) 情報処理方法、情報処理プログラム、及び情報処理装置
US20160012612A1 (en) Display control method and system
JP6217437B2 (ja) 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
JP2014197317A (ja) 情報処理装置、情報処理方法および記録媒体
JP6524706B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
KR20130117303A (ko) 증강 현실 이미지를 디스플레이하기 위한 방법 및 그 전자 장치
CN113936699B (zh) 音频处理方法、装置、设备及存储介质
JP6481456B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
CN108965861B (zh) 定位摄像头的方法和装置、存储介质和智能交互设备
CN110213205B (zh) 验证方法、装置及设备
JP6413521B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
US8970483B2 (en) Method and apparatus for determining input
US20240203068A1 (en) Method and system for providing augmented reality object based on identification code

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190603

R150 Certificate of patent or registration of utility model

Ref document number: 6543924

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150