JP2013508795A - カメラ姿勢決定方法、及び実環境物体認識方法 - Google Patents

カメラ姿勢決定方法、及び実環境物体認識方法 Download PDF

Info

Publication number
JP2013508795A
JP2013508795A JP2012533553A JP2012533553A JP2013508795A JP 2013508795 A JP2013508795 A JP 2013508795A JP 2012533553 A JP2012533553 A JP 2012533553A JP 2012533553 A JP2012533553 A JP 2012533553A JP 2013508795 A JP2013508795 A JP 2013508795A
Authority
JP
Japan
Prior art keywords
image
virtual object
pose data
server
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012533553A
Other languages
English (en)
Inventor
マイヤー ペーター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metaio GmbH
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH filed Critical Metaio GmbH
Publication of JP2013508795A publication Critical patent/JP2013508795A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)
  • Studio Devices (AREA)

Abstract

【解決手段】実環境視像における仮想情報の表示方法であって、サーバ(2)のデータベース(3)において、地理的グローバル座標系(200)に関連したグローバルポジション及び方位を有する少なくとも1つの仮想オブジェクトを、前記仮想オブジェクトの前記グローバルポジション及び方位について与えられる決定を容認する第1ポーズデータ(PW10)と共に提供する工程と、モバイル機器(30)を用いて、少なくとも1つの実環境(40)の画像(50)を撮影し、前記画像が撮影された前記地理的グローバル座標系に関連したどの位置であり、どの方位であるかとの決定を容認する第2ポーズデータ(PW50)を提供する工程と、前記モバイル機器のディスプレイ(31)に前記画像(50)を表示する工程と、前記サーバ(2)のデータベース(3)内の仮想オブジェクト(10)にアクセスし、前記第1及び第2ポーズデータ(PW10,PW50)に基づいて、前記ディスプレイに示された前記画像(50)に前記仮想オブジェクト(10)を位置付ける工程と、前記仮想オブジェクト(10)を操作する、若しくは前記ディスプレイに表示された前記画像(50)内の対応する位置に位置付けることにより、別の仮想オブジェクト(11)を追加する工程と、前記画像(50)における位置付けに一致する修正第1ポーズデータ(PW10)と共に操作された前記仮想オブジェクト(10)、若しくは前記サーバ(2)のデータベース(3)内の前記画像(50)の位置付けに一致する第3ポーズデータと共に更なる仮想オブジェクト(11)を提供する工程と、を具備し、前記修正第1ポーズデータ及び前記第3ポーズデータが、前記操作された仮想オブジェクト若しくは前記更なる仮想オブジェクトの前記グローバルポジション及び方位について与えられる決定をそれぞれ容認している。
【選択図】図3

Description

本発明は、実環境に関連するカメラの姿勢を決定する方法、及び、カメラによって撮像された画像における実環境の物体を認識する方法に関する。また、本発明は、実環境の実物体に関連するカメラの姿勢を決定する方法、又は、実環境の物体を認識する方法を用いてカメラによって撮像された画像のデータと比較されることを目的とするデータモデルを提供する方法に関する。
拡張現実感(AR)は、仮想データを現実に重ね合わせる技術であり、従って、拡張現実感はデータと現実との関係を容易にする。従来、例えば、モバイルARシステムの使用は既に知られている。ここ数年、高性能モバイル装置(例えば、いわゆる「スマートフォン」)は、ARアプリケーションに適していることが判明された。一方、これらの装置は、比較的大きいカラー・ディスプレーと、設置されたカメラと、優れたプロセッサと、例えば方位センサやGPSなどの付加的なセンサとを備える。それに加えて、装置の位置は、無線ネットワーク経由で見積もられる。これまでに、ARを利用するモバイル装置に実施された様々なプロジェクトがあった。まず、装置の位置と方位を確かめるための特殊な光学式マークは、使用された。最近では、より多くの最新の装置のGPSシステムと方位センサシステムを利用するための様々なアプローチもある(非特許文献1、非特許文献2、非特許文献3、非特許文献4、非特許文献5、及び非特許文献6を参照する)。
しかしながら、不確かなセンサデータが原因で、レジストレーション、即ち、重ね合わせの精度は改善に値することは、注目すべきことである。この目的を達成するためのアプローチは、例えば、GPS、コンパス、及び、グラビテーション・センサの組み合わせから、光学的アプローチによって、カメラの初期姿勢を改善するハイブリッド・トラッキングの使用である。変動光条件に対する感受性を低減するために、画像データのいわゆる“ヒストグラム平坦化”は、よく用いられる。
カメラによって撮像された画像における実物体の物体認識、及び、実環境に関連するカメラ姿勢を決定するための光学トラッキングシステムの初期化は、従来知られている。しかしながら、時々、システムの信頼性は変動環境条件によって大きく変化する場合がある。これについて、カメラ姿勢はカメラの空間における位置と方位である。現実感は、例えば、データモデルのいかなる形で、その一例として、現実又は現実の一部の幾何学的性質を表現する3Dモデルの形で、存在することがある。
米国特許出願公開第2003/0025714号公報では、拡張現実感を用いて気象データを可視化するシステムを記述している。米国特許出願公開第2005/0231419A1号公報では、気象に依存しないセンサを用いて大気空間を監視するARシステムを記述している。
AR Wikitude. http://www.mobilizing.com/wikitude.php S. Feiner, B. Maclntyre, T. Hollerer, and A. Webster, "A touring machine: Prototyping 3d mobile augmented reality systems for exploring the urban environment", In Proceedings of the 1st International Symposium on Wearable Computers, pages 74-81, 1997. Sekai Camera. http://www.tonchidot.com/product-info.html Marko Heinrich, Bruce H. Thomas, Stefan Mueller, "AR Weather", Mixed and Augmented Reality, IEEE/ACM International Symposium on, pp.187-]188, 2008 7th IEEE/ACM International Symposium on Mixed and Augmented Reality, 2008. layar.com Magazine Machine Vision and Applications Publisher Springer Berlin/Heidelberg ISSN 0932-8092(Print) 1432-1769(Online) Issue Volume 17, Number 1/April 2006, pages 8-20
本発明は、実環境に関連するカメラの姿勢を決定する方法、及び、カメラによって撮像された画像における実環境の物体を認識する方法において、変化する環境条件に対するロバスト性を改善することを目的としている。
第1の実施態様に従って、本発明は、実環境に関連するカメラの姿勢を決定する方法に関し、前記方法は、
ステップ:カメラを用いて実環境の少なくとも一枚の画像を撮像し、前記画像は実物体の少なくとも一部を含んでおり、
ステップ:環境状況、例えば、前記画像を撮像するとき、の少なくとも1つのパラメータを決定し、
ステップ:前記カメラの姿勢に関する結論を得るために、前記実物体に関連する特徴と、前記実環境の前記画像に含まれている場合の前記実物体の対応する特徴との間の対応に関する情報を評価するトラッキング方法を実行し、及び
ステップ:前記少なくとも1つのパラメータに従って前記トラッキング方法を実行する、
を備える。
更なる実施態様に従って、本発明は、カメラによって撮像された画像における実環境の物体を認識する方法に関し、前記方法は、
ステップ:カメラを用いて実環境の少なくとも一枚の画像を撮像し、前記画像は実物体の少なくとも一部を含んでおり、
ステップ:前記画像における前記少なくとも一つの実物体の認識に関する情報を提供する画像認識方法を実行し、
ステップ:環境状況、例えば、前記画像を撮像するとき、の少なくとも1つのパラメータを決定し、及び
ステップ:前記少なくとも1つのパラメータに従って前記画像認識方法を実行する、
を備える。
特に、このようにして、現在の環境状況を認識すること、及び、システムを動的に構成することが可能である。マッチした構成によって、変化する環境条件についてのロバスト性が強化される。
本発明の一実施例に従って、情報の下記の項目の少なくとも一項又は数項を用いることによって、前記環境状況の前記少なくとも1つのパラメータの決定が行われる。前記項目は、一日の時期;一年の時期;気象、特に、雨、雲、日光(日射)及び霧;月の位置;積雪情報;樹木の葉;海抜高度;公共イベント、特に、強力な運動;交通状況;位置;ワールド座標系における方位;画像のヒストグラム;温度;メンテナンス・ステップである。前記環境状況の前記少なくとも1つのパラメータは、特に、1つ以上のこれらの条件又は状況に対して、特徴のあるものであることがある。
以上、典型的な方法で指摘したように、様々な環境条件は、よく、前述の物体認識方法と姿勢決定方法に重大な影響を与える。これらの条件が認識されるときに、状況に応じて反応を示すことが可能である。例えば、反応は、太陽の多くの位置に対して環境のデータモデルを作成すること、及び、雨天と晴天に対してもそれぞれそのようなことをすることもあり得る。特定の場所での認識又は初期化を行うことが求められる場合に、例えば、一日/一年の時期、及び、オンライン気象情報の問い合わせを経由して、適切なデータモデルを読み込んで利用することができる。この適切なデータモデルでは、日射のベクトルと計算された日射のベクトルとの間の角度が、できるだけ小さくなるようにする。一般的に、このようにして、少なくとも環境条件の一部を表現する、測定された、シミュレートされた、又は、決定された1つ以上のパラメータが存在する。それぞれ、物体認識及び姿勢決定用の認識又は初期化システムを構成する、この1つ以上のパラメータを決定する、又は、この1つ以上のパラメータに由来することができる。
本発明の一実施例において、前記トラッキング方法は、少なくとも、前記少なくとも1つのパラメータに基づいて初期化された1つの光学トラッキング方法を使用する。
例えば、カメラの姿勢は、1、2、3、4、5又は6自由度を有する前記トラッキング方法によって決定される。
本発明の一実施例において、前記トラッキング方法は、センサタイプの異なる、いくつかのトラッキングセンサを使用することができる。例えば、前記トラッキング方法は、前記少なくとも1つのパラメータに基づいて、少なくとも1つの前記トラッキングセンサを比較検討することを含む。
本発明の一実施例において、前記トラッキング方法は、前記少なくとも1つのパラメータに基づいて、一部の方法ステップの優先順位付けを含むこともできる。しかしながら、前記カメラによって撮像された前記画像のデータと比較されるデータモデルを使用する方法において、代替法、又は、それと組み合わせた形として、前記現在環境状況の前記少なくとも1つのパラメータを考慮して前記データモデルを選択することも可能である。更なる実施例では、前記実環境の前記画像において、前記データモデルの作成及び/又は使用に影響を与える、前記少なくとも1つのパラメータと共に、前記実物体の前記画像のデータと比較される、少なくとも1つのデータモデルが使用される。
例えば、前記少なくとも1つのパラメータは、前記データモデルの作成の種類、特に、いわゆる特徴検出器と記述子の作成に、影響を与える。更なる実施例では、データモデルは、前記少なくとも1つのパラメータ(環境状況)で記録される、又は、シミュレーションによって作成される、多くの個別モデルから、抽出されるようになっており、前記データモデルは、いくつかの環境状況の中に含まれている情報の項目の共通部分を含む。
本発明は、実環境の実物体に関連するカメラの姿勢を決定する方法、又は、実環境の物体を認識する方法において、カメラによって撮像される一枚の画像のデータに比較されることを目的とするデータモデルを提供するための方法にも関する。このような方法に基づいて、環境状況は確認又はシミュレートされ、また、前記環境状況の少なくとも1つのパラメータは決定される。更に、前記実物体の基本的な描写を含むデータモデルは作成され、様々な環境状況は設定又はシミュレートされ、また、異なる環境状況に対して、それぞれの少なくとも1つのパラメータに基づいて、それぞれのマッチしたデータモデルが提供される(例えば、状況の多くは予めシミュレートされたときに、これは、例えば、現在のパラメータに対する直接の反応として、又は、リザーブとして起こる。)。
一実施例によれば、前記基本的な描写は、環境の仮想3Dモデルである。
更なる実施例によれば、いくつかの異なる環境状況の中に含まれている情報の項目の共通部分を含むデータモデルは、作成される。
例えば、仮想情報は実環境の表示に統合されるときに、前記実環境に対して、仮想情報における統合された現実感の度合いを増加させるために、例えば、インターネット(“オンライン”)経由で検索される気象データは考えられ、また、このようにして関連付けを改善する。ここで考えられる処理用の様々な複雑性の度合いがある。例えば、気象状況に基づいて、固定照明モデル又は材料(例えば、テクスチャ)は、気象状況に割り当てられてマッチさせられる。気象データ(例えば、雲や日射などのデータ)及び/又は他のデータ(例えば、一日/一年の時期などのデータ)に基づいて、(例えば、当業者に知られているレイトレーシング方法を用いて、)シャドウキャスト又は光条件を計算することができる。
本発明の追加した有利な展開と実施例は、従属請求項に示される。
図1は実環境に対する典型的なシステムセットアップの概略配置の平面図を示しており、本発明に係る方法を実行するために、該システムセットアップを使用することができる。 図2は実環境に対する典型的なシステムセットアップの概略配置の側面図を示しており、本発明に係る方法を実行するために、該システムセットアップを使用することができる。 図3はカメラ姿勢を決定するため、又は物体を認識するためのデータモデルの図解例を示す。 図4は本発明の一実施例に係る方法の典型的なコースを示す。 図5は本発明の更なる実施例に係る方法の典型的なコースを示す。 図6は本発明の更なる実施例に係る方法の典型的なコースを示す。 図7は本発明の更なる実施例に係る方法の典型的なコースを示す。 図8は本発明の更なる実施例に係る方法の典型的なコースを示す。 図9は本発明の一実施例に係るデータ構造の典型的なセットアップを示す。 図10は本発明の一実施例に係る典型的なパラメータを示す。 図11は、本発明の一実施例に基づいて撮像された画像の差の典型的な近似値と可能な計算を示す。
以下、図面に示された図を用いて、本発明をより詳細に説明する。
図1は実環境に対する典型的なシステムセットアップの概略配置の平面図を示しており、本発明に係る方法を実行するために、該システムセットアップを使用することができる。特に、図1はシステムセットアップの様々な可能性を示す。これに関連して、図2は実環境に対する典型的なシステムセットアップの概略配置の側面図を示しており、本発明に係る方法を実行するために、該システムセットアップを使用することができる。
図1Aの図では、ユーザは、システムセットアップ20の一部であるディスプレー21を備えるヘッドマウント・ディスプレー・システム(“Head Mounted Display”、HMDと略される)を、ディスプレー装置として身に付ける。例えば、ディスプレー21は、一般的に知られている半透明データメガネ(“光学シースルー・ディスプレイー”)であってもよい。コンピュータ23によって提供される仮想情報を、ディスプレー21に溶け込ませることができる。そして、ユーザは、半透明データメガネ21を介して実世界40の視野で、溶け込まれた仮想情報(例えば、実世界に関連するPOIオブジェクト)で拡張された実世界40の物体を見る。このように、システムセットアップ20は、一般的に知られている拡張現実感(AR)システムの第1の実施例を構成する。
ディスプレー21は、追加センサ24(例えば、回転センサ)と、光学トラッキング用カメラ22を搭載するようにしても良い。ディスプレー21は半透明になり得る、又は、カメラ画像によってディスプレー21に現実感の画像が与えられるようにしても良い。半透明ディスプレー21のために、目25とディスプレー21との間のキャリブレーションが必要である。このことについては、先行技術に記録され、且つ、当業者に知られている様々なプロセスがある。実世界40におけるシステムセットアップ20の地理的な位置決定(例えば、経度と緯度に基づいて)をできる限り、レンダーリングするために、有利に、ディスプレー21の上に、又は、ユーザの身体のどこか、又は、同様にコンピュータ・ユニット23において、設置された位置センサ(例えば、GPSセンサ;GPS:全地球測位システム)もあるようにしても良い。半透明HMDでいわゆる光学シースルーモードにおいて表示が実行されるか、それとも、カメラとディスプレースクリーンでビデオ・シースルーモードにおいて表示が実行されるかは、何の関連性もない。基本的に、本発明は、ビデオ・シースルー・アプローチが、一台のカメラが、1つの眼につき、1つのビデオストリームを記録するための計二台のカメラを有利に使用するという立体表示に関連して使用されることができる。どんな状況でも、仮想3D情報の項目は、各眼について個別に計算されることができる。
基本的に、以下に説明する異なる一部のステップの処理は、ネットワーク経由で様々なコンピュータに配布されることができる。従って、クライアント/サーバー・アーキテクチャ、又は、単にクライアントベース・ソリューションは可能である(例えば、様々なデータモデル代替手段は、サーバーについて固定して提供される)。例えば、クライアントは、画像をサーバーに送信することが可能であり、そのサーバーは、受信した画像と環境状況のパラメータに基づいて、システムセットアップ(図1参照)の3D位置及び3D方位、又は、実世界に関連するそれの一部(以下、“姿勢”と称する)に関するクライアント・ステートメント、及び、ビジョン又は可視性の範囲に関するクライアント・ステートメントが利用できるようにする。環境状況に関するパラメータは、一部分においてクライアントによって決定され(例えば、位置)、また、一部分においてサーバーによって決定される(例えば、この位置に関する気象データ)ことができる。更に、クライアント又はサーバーは、いくつかの計算ユニットを備えるようにしても良く、そのいくつかの計算ユニットは、例えば、いくつかのCPU又は専用ハードウェア部品であり、また、例えば、一般的に知られている複数のFPGA、ASIC、GPU、又はDSPである。例えば、この位置での環境状況について生成された情報を相互に交換するいくつかのクライアントが存在するようにしても良く、又は、念のため、1つのクライアントは環境データを生成する。この情報交換はサーバー経由で行われることができるが、例えば、ブルートゥース又はWLAN経由での直接接続によって行われることもあり得る。
ARが実現可能となるために、空間におけるカメラの姿勢(位置及び方位)が必要である。これは様々な異なる方法で実現されることができる。例えば、単にGPSと電子コンパスを有する方位センサ(例えば、いくつかの最新携帯電話機に搭載されたように)を用いることにより、世界における姿勢を決定することができる。しかしながら、姿勢の不確実性は非常に高い。従って、例えば、光学的初期化とトラッキング、又は、光学的方法とGPS、方位センサとの組み合わせといった他の方法を使用することも可能である。WLAN位置決めは、同じに使用されることが可能であり、又は、RFID若しくは光学マーカーは、位置決めプロセスをサポートすることができる。以上に述べたように、ここでは、クライアント/サーバーベースのアプローチは同じに可能である。しかしながら、基本的に、本発明はARだけに使用されることに限定されない。例えば、物体認識を行い、そして、ウェブサイトをウェブブラウザー又はアプリケーションでスタートすることも可能である。しかしながら、画像を正確に写真サイト(例えば、画像を撮影した場所を示すこともできるフリッカー(Flickr))に置くために、少なくとも1つのパラメータと写真を使用することもできる。
本発明は、クライアントに対して情報表示を改善することができる。しかしながら、本発明は、リモート・シナリオに使用されることもできる。こうした状況の下では、例えば、制御室に居るメンテナンス専門家は、データネットワーク経由で送信されたクライアントの画像、及び、それに応じて処理された情報を、彼のディスプレースクリーン上に見る。そして、この専門家は、クライアントに指示を与える、又は、単に観察するということもあり得る。似ているシナリオにおいて、人は、本発明に基づいて表示されたインタラクティブな追加情報とともに、撮像された画像又はビデオ資料を見ることができ、また、可能なら、インタネットベース・アプリケーション”Google Streetview”と似ている資料を介してナビゲートすることができる。
それに加えて、本発明は、モニター、HMD、又は、ヘッド・アップ・ディスプレーを使用する、車両、航空機、又は船舶に、搭載される、又は、運ばれていくこともできる。
基本的に、本発明は、いわゆる注目点を溶け合わせることに使用されることができる。注目点(POI)は、様々な異なる形式の情報に対して、セットアップされることができる。以下、これらの例は与えられた。GPS情報を使用する場所の画像を表示することができる。インターネットから情報を自動的に抽出することができる。例えば、これは、格付けを与える、アドレス又はページを有する、会社又はレストランのウェブサイトであっても良い。ユーザは、テキスト、画像、又は3Dオブジェクトを特定の場所に置くことができ、また、他の人たちが同様にこれらを使用できるようにすることができる。例えば、ウィキペディアのような情報ページは、地理情報に関して検索されることができ、また、これらのページをPOIのようにアクセス可能にすることができる。POIは、モバイル機器のユーザの検索及びブラウジングの行動から自動的に生成されることができる。例えば、地下輸送機関若しくはバス・ステーション、病院、警察署、医師、不動産広告若しくはフィットネスクラブのような、注目する他の場所を示すことができる。
システムによってナビゲーション情報が表示可能となる(例えば、矢印)。
図2に図解されたように、現実感は、データモデルとしてのいかなる形で存在することができ、例えば、そのデータモデルは、本件において、実物体41の幾何学的特性を制限し、又は、3D点群における物体の点の特徴を保存する3Dモデル51である。従って、一般的に、このようなデータモデルは、現実感又は現実感の一部の幾何学的特性を表現することができる。このようなデータモデルは、カメラの姿勢を決定するためのトラッキング方法、又は、物体認識方法に利用されることができる。
例えば、このようなデータモデルを利用することにより、光学物体トラッキング方法は行われることができる。その際に、当業者に知られているように、データモデル、例えば、データモデル51は、カメラによって撮像され、実物体41を含む画像のデータに比較される。
カメラによって撮像された画像における実物体の物体認識、及び、実環境に関連するカメラ姿勢を決定するための光学トラッキングシステムの初期化は、従来知られている。特に、この場合に使用される方法は、実物体に関連する特徴と、実環境の画像に含まれている場合の実物体の対応する特徴との間の対応に関する情報を評価することにより、カメラの姿勢に関する結論を得る。
しかしながら、時々、システムの信頼性は変動環境条件によって大きく変化する。本発明によれば、現在の環境状況を認識し、システムを動的に構成することができる。マッチした構成によって、変化する環境条件に対するロバスト性は、強化される。
本発明の一実施態様に従って、下記のステップが実行される:
ステップ:カメラを用いて実環境の少なくとも一枚の画像を撮像し、撮像した画像は実物体の少なくとも一部を含んでおり、
ステップ:環境状況の少なくとも1つのパラメータを決定し、
ステップ:カメラの姿勢に関する結論を得るために、実物体に関連する特徴と、実環境の画像に含まれている場合の実物体の対応する特徴との間の対応に関する情報を評価するトラッキング方法を実行し、及び
ステップ:少なくとも1つのパラメータに従って、そのトラッキング方法を実行し、特に、少なくとも1つのパラメータに従って、対応をすでに見つける。
このようにして、現在の環境状況を認識し、システムを動的に構成することができる。マッチした構成によって、ロバスト性は、強化される。
例えば、トラッキング方法は、少なくとも1つのパラメータに応じて初期化される、少なくとも1つの光学トラッキング方法を使用する。カメラの姿勢は、例えば、1、2、3、4、5又は6自由度を有するトラッキング方法によって決定される。使用目的は、例えば、物体の認識(例えば、”in front of which object am I”という情報を得るために)、又は、6自由度を有する拡張現実感用光学トラッキングシステムの初期化である。6自由度を決定するために、従来知られている可能性は、2D−3D対応を生成すること、及び、生成した2D−3D対応を最適化方法に入力することに存する。例えば、深度カメラ(depth camera)、又は、深度情報を生成するための第2のカメラに加えて、記録装置が搭載された場合に、2D−3D対応を使用することも可能である。この対応を提供するために、画像から特徴を認識し、また、データモデルにおける特徴を検索することができる。検索のために、いわゆる特徴記述子(例えば、SURF又はSIFT)を使用することができる。ちなみに、SURFは、高速化ロバスト特徴(Speed Up Robust Features)の略であり、また、SIFTは、Scale Invariant Feature Transformの略である。しかしながら、データモデルの特徴及びデータモデルの記述子が、現在の画像における認識された特徴に比べて他の光条件に対して生成された場合に、これは正常に機能しないことが多い。
例えば、トラッキング方法は、センサタイプの異なる、いくつかのトラッキングセンサを使用する。そして、トラッキング方法では、いわゆるセンサーフュージョンにおいて、少なくとも1つのパラメータに応じて(例えば、悪い条件の場合に、増加した光学トラッキングの不確実性)、他のトラッキングセンサに対して、1つ以上のセンサの重み付けを達成することができる。トラッキング方法では、少なくとも1つのパラメータに応じて、方法の一部のステップの優先順位付けを達成することも可能である。例えば、良好な条件では最初に高速アプローチ(例えば、SURF)を使用し、また、悪い条件の場合に、よりロバストなアプローチ(例えば、SIFT)を最初に使用することができる。
異なる環境条件は、よく、方法と多くの特徴に重大な影響を与える。これらが認識されるときに、それ相応にこれらに反応を示すことが可能である。例えば、反応は、太陽の多くの位置に対して環境のモデルを作成すること、及び、雨天と晴天に対してもそれぞれそのようなことをすることもあり得る。特定の場所での認識又は初期化が行われた場合に、例えば、一日/一年の時期、及び、オンライン気象情報の問い合わせを経由して、適切なモデル(この適切なモデルでは、日射のベクトルと計算された日射のベクトルとの間の角度が、できるだけ小さくなるようにする。)を読み込んで利用することができる。このようにして、環境条件を表現するパラメータも、認識又は初期化システムを構成するパラメータもある。
環境状況の少なくとも1つのパラメータを決定するために、一実施例は、情報の下記の項目の少なくとも一項又は数項を使用する。これらの項目は、一日の時期;一年の時期;気象、特に、雨、雲、日光及び霧;月の位置;積雪情報;樹木の葉;海抜高度;公共イベント、特に、強力な運動;交通状況;位置;ワールド座標系における方位;画像のヒストグラム;温度;メンテナンス・ステップである。このようにして、環境状況の少なくとも1つのパラメータは、特に、1つ以上のこれらの条件又は状況に対して、特徴のあるものであっても良い。一実施例において、少なくとも1つのパラメータは、場所(だけ)ではなく、又は、場所(だけ)に対する特徴ではない。更なる実施例において、少なくとも1つのパラメータは、方位(だけ)ではなく、又は、方位(だけ)に対する特徴ではない。もう一つの実施例において、少なくとも1つのパラメータは、姿勢(だけ)ではなく、又は、姿勢(だけ)に対する特徴ではない。
本発明に係る更なる実施例及び可能性を以下のように説明する。
照明状況に関しては、月を考慮することも可能である。月夜に、特定の光学特徴を使用することができ、また、暗夜に、人工光源だけ(例えば、イルミネーションに照らされた広告)で正常に機能することができ、又は、全く、光学システムを使用しようとしないが、むしろ、例えば、GPSとコンパスだけを使用するようにする。雪が降った場合に(現在の気象、又はここ数日間の気象データベース、並びに、温度曲線、オンライン道路交通レポート、又はオンライン雪崩レポート)、環境は再び異なり、また、対応するモデルを読み込むこと、又は、光学トラッキングの動作を停止することは、有利である。
一年の時期に応じて、特定の領域では、樹木の葉に関しての結論を出すことができ、その上、異なるモデルを読み込むことができる。一年の時期に加えて、一年全体の気候条件は、計算に加えて考慮される。海抜高度は、この点について、同じに役割を果たすことができる。
基本的に、特定の環境状況に応じて異なるデータモデルを読み込むことだけでなく、複合モデル中に特定のモデル部分の優先順位付け(アルゴリズムにおける先、又は後での考慮)又は重み付け(結果への強い又は小さい影響)に影響を与えることもできる。複合モデルにおいて、個別のモデルデータ(例えば、点群の点)は、環境状況に関するデータで補完され、従って、モデルデータの部分をブレンドアウトする、変化させる、又は追加することができる。例えば、データモデルの特定の点は、環境状況“冬”の場合に、ブレンドアウトされる(即ち、考慮されない)のに対して、当該データモデルの特定の点は、環境状況“夏”の場合に、考慮される。この可能な実現用の可能なデータ構造は、図9に示される。データモデルは、特徴ごとに、環境状況を記述する1つのパラメータベクトルを含むことができ、記述子(例えば、SURF記述子)、及び、姿勢計算用最適化情報(例えば、地球の座標系(the earth7’s coordinate system)における3D位置)は分別よく特徴に使用されることができる。
カメラに撮像された画像の位置及び方位は、環境条件(局地気象や局地一日の時期など)を決定することにとって、極めて関連の深いこともよくある。しかしながら、例外は、世界中で起こる可能性がある認識プロセスであり(例えば、コカコーラ(登録商標)の瓶の認識)、また、この認識プロセスでは、クライアントが、位置に関係なく特定の環境特性 に反応することができる(例えば、モバイル装置に搭載された輝度センサ、又は、カメラ画像のヒストグラム)。ヒストグラム(画像に関する一種の統計資料)は、例えば、環境照明の一般的な特性を示唆することを可能にし、また、光学方法の使用をやめる、又は、光学方法を切り替えることができる。方法の切り替えは、例えば、コーナー特徴の代わりにエッジ特徴を使用するようにし、又は、SUFRの代わりに既知のSIFT方法を使用するようにする。又は、ユーザは、有効的に介入し、また、システムに認識用ヒントを提供することが求められる。
更に、メンテナンスを受ける物体の場合の環境に関する情報は、例えば、現在のメンテナンス・ステップ又はメンテナンス状態の知識から得られる。例えば、情報は、特定のステップに対して、モータは既に取り外されたかどうかである。
公共イベント又は交通状況の知識(経験から、又は、オンライン検索できる)は、特定の領域が常に動いている時に(例えば、大勢の人々、又は、移動する車両)、この特定の領域は信頼できる情報を提供することができないという旨のヒントを提供することができる。
更なる実施例は、環境状況の少なくとも1つのパラメータの距離測定の決定、及び、既知な環境状況についてのトラッキング方法の既知な理想パラメータから、カメラ姿勢を決定することにおける不確実性の計算を含む。一般的に、環境状況に関するいくつかのパラメータの一部を1つのベクトルの形で組み合わせることも可能であり、また、記録又は作成条件の対応するベクトルでデータモデルを生成することも可能である。現在の環境状況に提供されたデータモデルの質は、ベクトルの比較で結論付けられることができ、また、最小偏差を有するデータモデルはそれに応じて選択されることができ、及び/又は、認識の不確定性表現は差分から得られることができる。この点について、図10に一例を示しており、即ち、ベクトルは、一日の時期、雲の状況、及び一年の時期にそれぞれ対応する3つのフィールドを含む。省略記号は、特定の時点で撮像されたビューに関する環境状況を示す。図11は、近似の典型的な値、及び、ビューとビューの間の差分の可能な計算を示す。この点について、個別のパラメータは、データモデルに様々な程度まで影響を与えることがあるので、個別のパラメータの重み付けは可能である。
パラメータベクトルは、データモデルごとに、比較情報の項目ごと(例えば、SURF特徴)に、又は、データモデル内の特徴ごとに、格納されることができる。この点については、固定値だけでなく、この比較情報が適しているパラメータ範囲も格納されることができる。図8は、この追加情報の可能な使用を示す。例えば、ステップ6.1及びステップ6.2に説明されたように、パラメータベクトル距離に応じて、ソーティングによって、比較を加速させることができ、すると、所望の数のペアはより速く見つけることができる。別の方法として、現在の環境パラメータベクトルは、画像で見つけた全ての特徴の前に置かれることができ、そして、最近傍探索(NNS)で任意にサポートされるマッチング・アルゴリズムをスタートさせることができる。
本発明の一実施例では、少なくもと1つのパラメータは、モデルデータの上出来な検索に関する最低必要条件に影響を与え、特に、実物体に関連する多くの特徴、及び、整合性(少なくとも“マッチした”特徴の個数)に持ち込まれた実環境の画像における実物体の対応する特徴を決定する。認識及び初期化において、多くの場合に、表示された1つの量があり、その量は想定された全部の特徴の検索又は物体の検索を指摘する。例えば、少なくとも10個の特徴を再び見つける、又は検索する必要がある。モデル・プレゼントが環境にうまく適合する場合に、その量は、例えば増加しても良い(例えば、20個の特徴を再び見つける必要がある)。このようにして、良好な条件では、いわゆる“誤検知”(物体の誤認識、即ち、システムによって行われた物体の想定された認識は、しかしながら、間違っていることが判明する。)(例えば、結果的に、精度が強化される)であり、しかしながら、一方、悪い条件の場合に、可能な初期化チャンスは省かれない。
更なる実施例において、環境状況の少なくとも1つのパラメータは、データモデルの作成及び/又は使用に影響を与える。特に、少なくとも1つのパラメータは、データモデルの作成の種類、例えば、特徴の検出と特徴記述子の作成に、影響を与える。特に、異なる特徴エクストラクタと記述子が存在する。良好な環境条件では、例えば、高速方法(例えば、FASTエクストラクタ+高速記述子)が選択され、しかし一方、より複雑な方法(例えば、SIFT)は、困難な条件の場合に使用される。
もう一つの実施例では、データモデルは多くの個別モデルから抽出される、データモデルはいくつかの環境状況の中に含まれている情報の共通部分を含む。図7のフローチャートはこのプロセスの典型的な具現化を示す。ステップ30.0では、読み込まれた様々な既存データモデル、又は、先にシミュレーションによって生成されたデータモデルがある。その後(ステップ31.0では)、モデル間のマッチングが行われる。そうすることで、いくつかの比較データが頻繁に検索されるのに対して、そのほかの比較データは、一回でも検索されない可能性がある。検索の頻度はバッファリングされることができる。任意のステップ32.0では、例えば、特徴はデータモデルの共通座標系における特徴の位置によって大きく変化する場合に、外れ値は除去されることができる。データモデルは、基本的に、異なる方法(例えば、SURF、SIFT、任意のエッジモデル、エリアモデル、又は、色を考慮するモデル)で生成される、異種比較情報で構成されることができることに留意する。その後、頻繁に検索される比較情報(ステップ31.0)は、新しいマップを形成するように、組み合わせられる。そうすることで、比較情報の上限、例えば、空間におけるボリュームごとに、任意的に決定されることができる。そして、最も強い比較情報に応じて、ソーティングが行われる。この点については、重み付け演算により、非常にロバストだけで遅い方法が好ましいということが抑制される。その後、マップは、さらに使用するために、格納されることができる。
もう一つの実施例では、それぞれが方法を行う(特に、いくつかのクライアント、例えば、いくつかのモバイル装置)、いくつかの部分的なシステムがあり、また、部分的なシステムの各自は、それ自身でトラッキング状況を計算するわけではなく、むしろ、完成した状況情報は全ての部分的なシステムに利用され、有利に、完成した認識又は初期化モデルも、これらの部分的なシステムに利用される。
例えば、部分的なシステムは、連続的に、状況に関する情報をサーバー又はピアツーピアプロセスに提供する。ピアツーピアプロセスは、いくつかのモバイル装置間に行われる(例えば、サーバーは10番の装置と通信し、13番の装置と17番の装置は10番の装置に隣接しており、そして、10番の装置はこれらの装置に直接に情報を求める。)。さもなければ、情報をサーバーに提供する個別の装置があり、また、ユーザは自分の特定の装置のため、サーバーから情報を得る。
もう一つの実施例では、カメラ姿勢を決定することは、画像に含まれている少なくとも1つの実物体に対して深度情報を計算するために使用され、そして、深度情報は溶け合わせるために使用され、また、ディスプレー装置において、実環境に重ね合わさった仮想情報が、オクルードされる実物体によって、ビューにオクルードされる場合に、実物体をオクルードするためのオクルージョン・モデルがある。
本発明のもう一つの実施態様は、実物体に関連するカメラの姿勢を決定する方法、又は、実環境の物体を認識する方法において、カメラによって撮像される一枚の画像に比較されることを目的とするデータモデル、及びそのデータモデルのデータをそれぞれ作成するための方法に関する。この実施態様では、環境状況は決定又はシミュレートされ、環境状況の少なくともパラメータは決定され、実物体の基本的な記述子を含むデータモデルは作成され、様々な環境状況はプリセット又はシミュレートされ、また、それぞれの少なくとも1つのパラメータに基づいて、それぞれのマッチしたデータモデルが異なる環境状況に利用される。例えば、状況の多くは予めシミュレートされたときに、これは現在のパラメータに対する直接の反応として、又は、リザーブとして起こる。このようにして、大きな支出で異なる状況のいくつかのモデルを提供する代わりに、ニュートラル・モデルを提供するというアイデアがあり、また、環境影響のシミュレーションによって、かなり少ない支出で、同じものを動的に(又は予め)マッチさせるようにする。
例えば、基本的な記述子は、環境の仮想3Dモデルである。例えば、都市の3Dモデルを有することは考えられる。既知のいわゆる3Dレンダリング技術によって、太陽の現在の経路、及び、これによって生じた環境のモデルを計算するという試みは、今すぐにできる。
例えば、3Dモデルは、環境状況に特有の性質から以前に解放され、また、それに加えられるテクスチャを有する。情報が収集されている間に、同じに、シャドウが記録されることができることが多い。当業者に知られている方法を用いて、シャドウを除去するという試みを行うことができる。
一実施例において、3Dモデルは、異なる光状況で画像面に投影される。
有利に、いくつか(できるだけ多く)の異なる環境状況の中に含まれている情報の共通部分を含むデータモデルは、作成される。(記録又はシミュレーションによって)、多種多様な異なる環境モデルを生成すること、及び、認識/初期化に利用される特徴をそこから抽出することも考えられる。できるだけ多くの異なるモデルにおける現れる、特定の特徴(例えば、特定のSURF特徴)に関する環境モデルを分析し、それから、特にロバストな特徴をできるだけ多くの状況に正常に機能するモデルに詰め込むことができる。図7に関連する以上のステートメントについても申し述べる。
1つの実施例は、SLAM方法と現在の環境状況の確認を組み合わせ、また、作成されたデータモデルは、環境状況に関する情報と一緒に格納される。いわゆる”自己位置と環境地図の同時推定(simultaneous localization and mapping;SLAM)”において、カメラが動いている間に、ステレオカメラを用いる場合に、又は、似ている3Dアプローチ(例えば、深度カメラ)を直接に使用する場合に、環境のマップ(データモデル)は生成され(例えば、SURF特徴と世界におけるその3D位置のマップ)、また、カメラの姿勢は決定される。現在の環境条件に関するデータ又はパラメータは、さらに記録された場合に(上述したように)、これらのデータは、多種多様な異なる環境条件に対して、世界のこれまで以上に完成したモデルセットを生成するのに、使用されることができる。例えば、システムは、包括的なデータが既に利用できる特定の場所でのスタートに使用されることができ、そして、この基礎から進むことができる。それから、システムは特定の条件に対する新しい範囲を学習し、また、将来はこれらに基づいてスタートすることもできる。
以下、他の図に関連して、図4〜図8に示されたフローチャートによって、本発明の実施態様及び実施例をより詳細に説明する。
まず、図4は、モデルデータの使用に関する、本発明に係る方法の一実施例に関し、ステップ1.0では、基本的に、環境状況に関する1以上のパラメータを備えるパラメータベクトルは、記録される(例えば、中央サーバー経由で気象状況を問合せ、日/場所の時期/時間を介して太陽の位置を計算する)。ステップ2.0では、記録位置を含むパラメータベクトルは、サーバーに送信され、この位置のためのトラッキングモデルを検索する。この位置用の可能なモデルから、ステップ4.0で選択された、パラメータベクトルにおける明視距離を有するモデルがある。その後、ステップ5.0では、対応するモデルは読み込まれる。ステップ6.0では、特定のアプリケーションによって、カメラの画像における物体認識、又は、カメラの姿勢決定用のトラッキング初期化は行われる。
図5において、ユーザデータからデータモデルを作成するのに役立つ、典型的な方法は行われる。ステップ7.0では、使用中に新しいモデルデータを“学習”する(自己位置と環境地図の同時推定)。ステップ8.0では、パラメータベクトルと新しいマップ(データモデル)は、サーバーに送信される。ステップ9.0では、データの任意の絞り込み(いわゆる“バンドル調整”)があり、また、パラメータベクトル及び位置とともに、新しいデータは格納される。ステップ10.0では、モデルにおけるギャップは補完される(例えば、未知領域の新範囲、又は、新しいパラメータベクトルを有する新範囲)。ステップ5.0では、もう一人のクライアントは、ステップ7.0〜ステップ10.0によって説明されたように、以前に他のユーザによってサーバーに送信された、対応するデータモデルを読み込むことができる。他のクライアントの代わりに、データモデルを作成した同じユーザ又は同じ装置は、それぞれ、例えば後で時間内に、データモデルを読み込むことも可能である。
図3は、カメラ姿勢を決定する方法又は物体認識方法のために、どのようにしてデータモデルは作成されることを概略的に示す。実物体(図2の物体41参照)の基本的な記述を含むニュートラル・モデル60から、スタートすることがえきる。その後、様々な環境状況はセット又はシミュレートされる(例えば、上方からの日射)。異なる環境状況に対して、各自の少なくとも1つのパラメータに応じて、各自のマッチしたデータモデルは提供され、例えば、図3のマッチしたデータモデル61と62は、それぞれ、環境状況に応じてキャストシャドウを考慮する。有利に、更に、データモデル61と62から、作成した比較データのコレクション(例えば、特徴点群)で構成される、ややコンパクトな形を有するデータモデルを直接に作成することは可能である。データモデル62は、生成されたデータモデルの現実感との近さは追加策によって更に強化されることができることを典型的な方法で示す。従って、シャドウキャストによる、環境の追加既知物体のオクルージョンによっても、モデル62の機能は損なわれない。むしろ、例えば、現在の雨レーダー画像のクエリーによって、現在の雲状況を組み込むこともできる。
図6は本発明のもう一つの実施例に係る方法の典型的なコースを示す。ステップ20.0では、実環境のデータは記録され(具体的に、又は、ステップ7.0のように)、また、そうすることで、環境状況のパラメータベクトルは有利に記録される。具体的な記録について、記録は有利にHDR(いわゆる“ハイダイナミックレンジ”)に行われる。ステップ21.0では、特定のパラメータに対して、データモデルをできる限りニュートラライズする(例えば、シャドウの除去、輝度の正規化など)。ステップ22.0では、環境条件のスペクトルのために、パラメータベクトルは生成される。それに加えて、ステップ23.0では、シミュレーション(例えば、レイトレーシング方法)によって、対応するデータモデルを生成することができる。ステップ24.0では、図4によって、提供はステップ4.0のためになされる。
現実感の程度を増加させて関連付けを改善するために、有利にオンラインで気象データを問い合わせることができる。この点については、処理のために考えられる程度の異なる複雑さがある。気象状況に基づいて(例えば、グーグル気象サービス“mostly cloudy”、“isolated storms”、“isolated rain”に応じて)、割り当てられた固定照明モデル又は材料(例えば、テクスチャ)は、気象状況にマッチさせられる。しかしながら、複雑さで最も高い程度では、雲量の近似モデルを動的に作成し、また、そこから、シャドウキャストを計算するとともに、詳細な光条件(図3参照)を任意的に計算するために、現在の雲又は雨、衛星又はレーダー画像を使用することもできる。上述したように、これは、所在地固有(location-specific)の方法でクライアントがデータを利用できるようにするサーバーによって実施されることができる。距離の認識は霧、雨、又は靄による可視性の決定である。これは、自動的に(文献“From video image e.g. Automatic Fog detection and Estimation of Visibility Distance through use of an Onboard Camera”, magazine machine Vision and Applications, publisher Springer Berlin/Heidelberg ISSN 0932-8092 (Print) 1432-1769 (Online), Volume 17, number 1/April 2006, pages 8-20を参照する)達成され、又は、現在の気象データを用いて問い合わせられることができる。
他の既知技術に加えて、最も簡単な技術的実現は、OpenGLにおいて霧調整をセットすることである。更に、位置、日付、及び一日の時期に基づいて、太陽及び月の位置をそれぞれ計算することができ、また、光源を調整するために、計算した太陽及び月の位置を使用することもできる。これは、特に、仮想物体(例えば、POI)の位置のより良い決定を提供することによりユーザを支援する、シャドウ(図3参照)に効く。シャドウは、事前に計算したテクスチャ(有利に、透明度値を有する)であっても良く、そのテクスチャは、太陽又は月の位置に応じて、太陽もしくは月とPOIとの間の直線がグランド・プレーンと交差する(もし、交差しない場合に、例外となる。)ようになっている、グランド・プレーンの上のPOIの下に置かれる。太陽又は月が現れた場合に、太陽は計算用に使用される。
従来知られているように、シャドウも動的に計算されることができる。これは、有利に、POIの相互の影付け(mutual shadowing)を備えるようにしても良い。環境の3Dモデル(例えば、実物体をオクルードするためのオクルージョン・モデル63の形で;いわゆる“オクルージョン・ジオメトリ”)が存在する場合に、更に、これは、シャドウ状況の現実的計算(realistic calculation)に利用されることができ、例えば、POI(図3参照)の上でシャドウを付ける。溶け合わせたマター(matter)の現実度は、POIの環境の画像によってマテリアルを強化することにより、更に増加する。いわゆる環境マップの使用は、当業者に知られている。
カメラのパラメータ(位置及び方位)に応じてデータモデルの質を強化するために、もう1つ重要なステップを講じることができる。オクルージョン・モデル(いわゆる“オクルージョン・ジオメトリ”)を読み込むことにより、比較データがカメラにとって見えるか、又は、比較データがカメラにとって見えなくなるか(例えば、ほかの建物の後に)を決定することができる。深度モデルは、SLAMアルゴリズム、ステレオカメラ、又は、ToFカメラ(time-of-flight camera)によって、動的に配置されることができ、又は、動的に生成されることができる。その場合には、1セットの比較データ当たり、深度情報の1つの項目は、(例えば、SIFT特徴)、十分である。更なるステップでは、カメラパラメータは、近い範囲での重ね合わせを修正するために(これは、連続的に行われる必要がない)、生成される。これらは、例えば、SLAMメカニズムによって、動的に生成されることが可能であり、又は、装置名に応じてサーバーから検索されることが可能であり、又は、プログラムに置かれることができる。
システムのハードウェア能力に応じて、全てのものを表示し、計算することができる。システムのハードウェアが弱い場合に、正確なマテリアル・サーフェスの計算は、サーバーの一部で行われることもでき、又は、全体の画像は、サーバーの一部で計算されることができる。強いシステムの場合に、最新GPU(グラフィックス・プロセッシング・ユニット)は、仕事の大部分を引き受けることができる。この目的を達成するために、当業者に知られている、多数の可能性がある。
実環境に関連するカメラの位置及び方位を決定することにより、画像に含まれている少なくとも1つの実物体に対する深度情報を計算することができ、また、深度情報は溶け合わせるために使用されることができ、更に、ディスプレー装置において、仮想情報の場合に、実物体をオクルードするためのオクルージョン・モデルは、オクルードされる実物体によって、ビューにオクルードされる。

Claims (16)

  1. 実環境視像における仮想情報の表示方法であって、
    サーバ(2)のデータベース(3)において、地理的グローバル座標系(200)に関連したグローバルポジション及び方位を有する少なくとも1つの仮想オブジェクトを、前記仮想オブジェクトの前記グローバルポジション及び方位について与えられる決定を容認する第1ポーズデータ(PW10)と共に提供する工程と、
    モバイル機器(30)を用いて、少なくとも1つの実環境(40)の画像(50)を撮影し、前記画像が撮影された前記地理的グローバル座標系に関連したどの位置であり、どの方位であるかとの決定を容認する第2ポーズデータ(PW50)を提供する工程と、
    前記モバイル機器のディスプレイ(31)に前記画像(50)を表示する工程と、
    前記サーバ(2)のデータベース(3)内の仮想オブジェクト(10)にアクセスし、前記第1及び第2ポーズデータ(PW10,PW50)に基づいて、前記ディスプレイに示された前記画像(50)に前記仮想オブジェクト(10)を位置付ける工程と、
    前記仮想オブジェクト(10)を操作する、若しくは前記ディスプレイに表示された前記画像(50)内の対応する位置に位置付けることにより、別の仮想オブジェクト(11)を追加する工程と、
    前記画像(50)における位置付けに一致する修正第1ポーズデータ(PW10)と共に操作された前記仮想オブジェクト(10)、若しくは前記サーバ(2)のデータベース(3)内の前記画像(50)の位置付けに一致する第3ポーズデータと共に更なる仮想オブジェクト(11)を提供する工程と、を具備し、
    前記修正第1ポーズデータ及び前記第3ポーズデータが、前記操作された仮想オブジェクト若しくは前記更なる仮想オブジェクトの前記グローバルポジション及び方位について与えられる決定をそれぞれ容認していることを特徴とする実環境視像における仮想情報の表示方法。
  2. 前記画像(50)は、前記第2ポーズデータ(PW50)と共に前記サーバ上に提供される請求項1に記載の方法。
  3. 実環境視像における仮想情報の表示方法であって、
    サーバ(2)のデータベース(3)において、地理的グローバル座標系(200)に関連したグローバルポジション及び方位を有する少なくとも1つの仮想オブジェクトを、前記仮想オブジェクトのグローバルポジション及び方位について与えられる決定を容認する第1ポーズデータ(PW10)と共に提供する工程と、
    データグラス(20)を用いて、そのデータグラスが位置付けされた前記地理的グローバル座標系(200)に関連したどのポジションでありどの方位であるかという決定を容認する第2ポーズデータと共に、実環境(40)の少なくとも1つの視像(70)を提供する工程と、
    前記サーバ(2)のデータベース(3)内の仮想オブジェクト(10)にアクセスし、前記第1及び第2ポーズデータに基づいて、前記視像の中に前記仮想オブジェクト(10)を位置付けする工程と、
    前記仮想オブジェクト(10)を操作する、若しくは前記視像内の対応する位置に位置付けることにより、更なる仮想オブジェクト(11)を追加する工程と、
    前記視像(70)における位置付けに一致する修正第1ポーズデータ(PW10)と共に操作された前記仮想オブジェクト(10)、若しくは前記サーバ(2)のデータベース(3)における前記視像(70)の位置付けに関連した第3ポーズデータと共に更なる仮想オブジェクト(11)を提供する工程とを具備し、
    前記修正第1ポーズデータ及び第3ポーズデータが、前記操作された仮想オブジェクト若しくは前記更なる仮想オブジェクトの前記グローバルポジション及び方位について与えられる決定をそれぞれ容認していることを特徴とする実環境視像における仮想情報の表示方法。
  4. 前記モバイル機器(30)若しくは前記データグラス(20)は、前記第2ポーズデータを発生させるための手段(24,34)を具備する、又は該手段に連結されている請求項1乃至3のいずれか1項に記載の方法。
  5. 前記ポーズデータ(PW10,PW50)は、位置及び方位について、それぞれ三次元的な値を含む請求項1乃至4のいずれか1項に記載の方法。
  6. 前記実環境の前記画像(50)の方位は、地球表面(201)とは無関係に定義される請求項1乃至5のいずれか1項に記載の方法。
  7. 前記サーバ(2)の記録場所は、実環境のそれぞれの画像(50)の中、若しくは実環境のそれぞれの視像(70)の中に記録し、それぞれの仮想オブジェクトの仮想オブジェクト(10)は、ポーズデータが設けられている請求項1乃至6のいずれか1項に記載の方法。
  8. カメラによって撮影された、前記地理的グローバル座標系(200)に関する位置及び方向について与えられる決定を容認するポーズデータと共に、実環境の参照視像を伴って、参照データベース(4)を提供する工程と、
    少なくとも1つの前記参照視像に含まれる現実オブジェクトの少なくとも一部分と共に前記画像に示される、少なくとも1の現実オブジェクト(41,42)を比較し、前記少なくとも1つの参照視像のポーズデータと、前記画像の第2ポーズデータ(PW50)とのマッチング工程と、
    前記整合の結果として、前記少なくとも1つの参照視像のポーズデータの少なくとも一部分に基づいて、前記第2ポーズデータ(PW50)の少なくとも一部分を修正する工程とを更に具備する請求項1乃至7のいずれか1項に記載の方法。
  9. 更に、前記画像に位置付けられる前記仮想オブジェクト(10)の第1ポーズデータ(PW10)の少なくとも一部分が、前記少なくとも1つの参照視像のポーズデータと、前記第2ポーズデータとのマッチングの結果として、修正される請求項8に記載の方法。
  10. 前記サーバ(2)のデータベース(3)において、前記第2ポーズデータ(PW50)と共に、前記実環境の少なくとも1つの画像(50)を提供する工程と、
    前記サーバ(2)上の前記実環境の画像(50)にアクセスし、前記画像を表示するためのクライアント装置(1)に伝送する工程と、
    前記仮想オブジェクト(10)を操作、若しくは前記クライアント装置上に表示される前記実環境の画像内の対応する位置に位置付けることにより、更なる仮想オブジェクト(11)を追加する工程と、
    前記クライアント装置に表示された前記画像における位置付けに一致する修正第1ポーズデータ(PW10)と共に、操作された前記仮想オブジェクト(10)、若しくは前記サーバ(2)のデータベース(3)において、前記クライアント装置に表示された前記画像の位置付けに関連した第3ポーズデータと共に、更なる前記仮想オブジェクト(11)を提供する工程とを更に具備し、
    前記修正第1ポーズデータ及び第3ポーズデータは、前記操作された若しくは更なる仮想オブジェクトの全地球位置及び方向について与えられる決定をそれぞれ容認している請求項1乃至9のいずれか1項に記載の方法。
  11. 前記サーバ(2)上の前記実環境の画像(50)にアクセスし、前記画像を見るための第2クライアント装置に前記画像を伝送する工程と、
    前記第2クライアント装置の前記画像の前記視像に示されている前記実環境の中にある前記グローバルポジションの仮想オブジェクトを表示している前記第2クライアント装置の前記画像の前記視像と共にサーバに備え付けられる仮想オブジェクト(10)にアクセスする工程とを更に具備する請求項10に記載の方法。
  12. 前記モバイル機器のディスプレイにマップビュー(80)を提供する工程と、前記実環境の少なくとも1つの画像を撮影している視像方向を選択するために、ユーザに対して選択を提供する工程とを更に具備する請求項1乃至11のいずれか1項に記載の方法。
  13. 前記実環境の画像の中及び前記モバイル機器のディスプレイに備え付けられるマップビュー(80)の中に、少なくとも1つの仮想オブジェクト(10)を認識する工程と、
    前記画像の決定された位置及び備え付けられた前記マップビュー(80)における前記少なくとも1つの仮想オブジェクト(10)の位置から前記実環境の画像(50)の方向を決定する工程とを具備する請求項1乃至12のいずれか1項に記載の方法。
  14. 前記サーバ(2)に対するネットワーク接続の不具合が起こった場合、サーバ上に記憶されるためのデータは、前記モバイル機器上にバッファされ、前記ネットワーク接続が再び使用可能になるとすぐに、前記サーバに伝送される請求項1乃至13のいずれか1項に記載の方法。
  15. 前記ユーザは、実環境の領域における、シーンの収束を検索でき、該シーンは、近接に若しくは地図上にソートされ、又は拡張現実を用いたリストの選考のために、ユーザに都合のいいように作り出される請求項1乃至14のいずれか1項に記載の方法。
  16. 前記画像若しくは前記仮想情報は、一意的に同定特性を有し、且つ既にクライアント若しくは前記モバイル機器上に存在する画像若しくは仮想情報は、もはや前記サーバからダウンロードされなく、ローカルデータストレージから読み込まれる請求項1乃至15のいずれか1項に記載の方法。
JP2012533553A 2009-10-19 2010-09-16 カメラ姿勢決定方法、及び実環境物体認識方法 Pending JP2013508795A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102009049849.4 2009-10-19
DE102009049849.4A DE102009049849B4 (de) 2009-10-19 2009-10-19 Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
PCT/EP2010/063589 WO2011047924A1 (de) 2009-10-19 2010-09-16 Verfahren zur bestimmung der pose einer kamera und zur erkennung eines objekts einer realen umgebung

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014223180A Division JP5980295B2 (ja) 2009-10-19 2014-10-31 カメラ姿勢決定方法、及び実環境物体認識方法

Publications (1)

Publication Number Publication Date
JP2013508795A true JP2013508795A (ja) 2013-03-07

Family

ID=42667910

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2012533534A Pending JP2013508794A (ja) 2009-10-19 2010-05-28 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法
JP2012533553A Pending JP2013508795A (ja) 2009-10-19 2010-09-16 カメラ姿勢決定方法、及び実環境物体認識方法
JP2014161137A Active JP5905540B2 (ja) 2009-10-19 2014-08-07 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法
JP2014223180A Active JP5980295B2 (ja) 2009-10-19 2014-10-31 カメラ姿勢決定方法、及び実環境物体認識方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2012533534A Pending JP2013508794A (ja) 2009-10-19 2010-05-28 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2014161137A Active JP5905540B2 (ja) 2009-10-19 2014-08-07 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法
JP2014223180A Active JP5980295B2 (ja) 2009-10-19 2014-10-31 カメラ姿勢決定方法、及び実環境物体認識方法

Country Status (6)

Country Link
US (7) US8942418B2 (ja)
EP (4) EP3547256B1 (ja)
JP (4) JP2013508794A (ja)
CN (3) CN102612704B (ja)
DE (1) DE102009049849B4 (ja)
WO (2) WO2011047888A1 (ja)

Families Citing this family (149)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7146260B2 (en) 2001-04-24 2006-12-05 Medius, Inc. Method and apparatus for dynamic configuration of multiprocessor system
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
DE102009049849B4 (de) 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
KR101487944B1 (ko) 2010-02-24 2015-01-30 아이피플렉 홀딩스 코포레이션 시각 장애인들을 지원하는 증강 현실 파노라마
WO2012061549A2 (en) * 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US8977629B2 (en) * 2011-05-24 2015-03-10 Ebay Inc. Image-based popularity prediction
US20120314031A1 (en) * 2011-06-07 2012-12-13 Microsoft Corporation Invariant features for computer vision
WO2013029674A1 (en) * 2011-08-31 2013-03-07 Metaio Gmbh Method of matching image features with reference features
TWI489859B (zh) * 2011-11-01 2015-06-21 Inst Information Industry 影像形變方法及其電腦程式產品
US9536251B2 (en) * 2011-11-15 2017-01-03 Excalibur Ip, Llc Providing advertisements in an augmented reality environment
US9600744B2 (en) 2012-04-24 2017-03-21 Stmicroelectronics S.R.L. Adaptive interest rate control for visual search
CN102694963B (zh) * 2012-04-27 2014-09-17 南京航空航天大学 一种获取无阴影目标图像的方法
JP5727969B2 (ja) * 2012-06-15 2015-06-03 株式会社東芝 位置推定装置、方法、及びプログラム
CN103673990B (zh) * 2012-09-13 2016-04-06 北京同步科技有限公司 获取摄像机姿态数据的装置及其方法
CN103674011B (zh) * 2012-09-19 2017-07-25 联想(北京)有限公司 即时定位与地图构建设备、***与方法
US9237340B2 (en) * 2012-10-10 2016-01-12 Texas Instruments Incorporated Camera pose estimation
CN102928201B (zh) * 2012-10-24 2014-12-17 北京控制工程研究所 一种动态的月面成像敏感器的目标模拟***
US20140140573A1 (en) * 2012-11-21 2014-05-22 Gravity Jack, Inc. Pose Tracking through Analysis of an Image Pyramid
US20140168264A1 (en) 2012-12-19 2014-06-19 Lockheed Martin Corporation System, method and computer program product for real-time alignment of an augmented reality device
JP5670416B2 (ja) * 2012-12-28 2015-02-18 ファナック株式会社 ロボットシステム表示装置
EP2763077B1 (en) * 2013-01-30 2023-11-15 Nokia Technologies Oy Method and apparatus for sensor aided extraction of spatio-temporal features
US9058683B2 (en) 2013-02-21 2015-06-16 Qualcomm Incorporated Automatic image rectification for visual search
US9495389B2 (en) 2013-03-15 2016-11-15 Qualcomm Incorporated Client-server based dynamic search
US9426451B2 (en) 2013-03-15 2016-08-23 Digimarc Corporation Cooperative photography
KR102131477B1 (ko) * 2013-05-02 2020-07-07 퀄컴 인코포레이티드 컴퓨터 비전 애플리케이션 초기화를 용이하게 하는 방법들
DE102013009288B4 (de) * 2013-06-04 2016-02-04 Testo Ag 3D-Aufnahmevorrichtung, Verfahren zur Erstellung eines 3D-Bildes und Verfahren zur Einrichtung einer 3D-Aufnahmevorrichtung
CN103327246B (zh) * 2013-06-07 2016-08-24 腾讯科技(深圳)有限公司 一种多媒体拍摄处理方法、装置及智能终端
US10262462B2 (en) * 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
WO2015012659A1 (en) * 2013-07-26 2015-01-29 Samsung Electronics Co., Ltd. Two way local feature matching to improve visual search accuracy
US8860818B1 (en) 2013-07-31 2014-10-14 Apple Inc. Method for dynamically calibrating rotation offset in a camera system
US9646384B2 (en) 2013-09-11 2017-05-09 Google Technology Holdings LLC 3D feature descriptors with camera pose information
US8958663B1 (en) * 2013-09-24 2015-02-17 Zazzle Inc. Automated imaging of customizable products
DE102013016247A1 (de) 2013-10-01 2014-06-26 Daimler Ag Verfahren und Vorrichtung zur augmentierten Darstellung
JP6329642B2 (ja) 2013-12-10 2018-05-23 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd センサ融合
CN110120072B (zh) 2013-12-19 2023-05-09 苹果公司 用于跟踪移动设备的方法和***
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9529199B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US20150206173A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Eye imaging in head worn computing
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9615742B2 (en) 2014-01-21 2017-04-11 Osterhout Group, Inc. Eye imaging in head worn computing
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US20150241964A1 (en) 2014-02-11 2015-08-27 Osterhout Group, Inc. Eye imaging in head worn computing
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
CN104881860B (zh) 2014-02-28 2019-01-08 国际商业机器公司 基于照片进行定位的方法和装置
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9400939B2 (en) 2014-04-13 2016-07-26 International Business Machines Corporation System and method for relating corresponding points in images with different viewing angles
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9280832B2 (en) * 2014-05-08 2016-03-08 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform
US9761008B2 (en) 2014-05-08 2017-09-12 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform
KR101613418B1 (ko) * 2014-05-29 2016-04-21 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 마커부 자세 및 위치 산출방법
DE102014008152A1 (de) 2014-05-30 2014-10-23 Daimler Ag Verfahren und Vorrichtung zur augmentierten Darstellung mindstens einer Zusatzinformation in mindestens einem Bild einer Umgebung
EP3926589A1 (en) 2014-06-03 2021-12-22 Apple Inc. Method and system for presenting a digital information related to a real object
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
WO2016019390A1 (en) * 2014-08-01 2016-02-04 Locuslabs Ip Image-based object location system and process
CN114675671A (zh) 2014-09-05 2022-06-28 深圳市大疆创新科技有限公司 多传感器环境地图构建
WO2016033796A1 (en) 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Context-based flight mode selection
JP6181300B2 (ja) 2014-09-05 2017-08-16 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機の速度を制御するシステム
WO2016050290A1 (en) 2014-10-01 2016-04-07 Metaio Gmbh Method and system for determining at least one property related to at least part of a real environment
US9746913B2 (en) 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
CN107004275B (zh) 2014-11-21 2020-09-29 苹果公司 确定实物至少一部分的3d重构件空间坐标的方法和***
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
US20180176483A1 (en) 2014-12-29 2018-06-21 Metaio Gmbh Method and sytem for generating at least one image of a real environment
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US10142596B2 (en) 2015-02-27 2018-11-27 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus of secured interactive remote maintenance assist
JP6524713B2 (ja) * 2015-03-02 2019-06-05 セイコーエプソン株式会社 画像処理装置、表示装置、及び、画像処理装置の制御方法
US10168785B2 (en) * 2015-03-03 2019-01-01 Nvidia Corporation Multi-sensor based user interface
US9984301B2 (en) * 2015-04-20 2018-05-29 Qualcomm Incorporated Non-matching feature-based visual motion estimation for pose determination
CN104764452A (zh) * 2015-04-23 2015-07-08 北京理工大学 一种基于惯性和光学跟踪***的混合位姿跟踪方法
KR101910484B1 (ko) * 2015-06-26 2018-10-22 코그넥스코오포레이션 3차원(3d) 비전 검사를 위한 방법
KR101835434B1 (ko) 2015-07-08 2018-03-09 고려대학교 산학협력단 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
US9928648B2 (en) 2015-11-09 2018-03-27 Microsoft Technology Licensing, Llc Object path identification for navigating objects in scene-aware device environments
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US10424072B2 (en) 2016-03-01 2019-09-24 Samsung Electronics Co., Ltd. Leveraging multi cues for fine-grained object classification
US10096158B2 (en) * 2016-03-24 2018-10-09 Ford Global Technologies, Llc Method and system for virtual sensor data generation with depth ground truth annotation
DE102016109628A1 (de) * 2016-05-25 2017-11-30 Deutsche Telekom Ag Verfahren zum Bestimmen der Position und/oder Orientierung einer mobilen elektronischen Einrichtung mit Hilfe einer digitalen Wärmebildkamera
US10579860B2 (en) 2016-06-06 2020-03-03 Samsung Electronics Co., Ltd. Learning model for salient facial region detection
US10788888B2 (en) * 2016-06-07 2020-09-29 Koninklijke Kpn N.V. Capturing and rendering information involving a virtual environment
CN106210450B (zh) * 2016-07-20 2019-01-11 罗轶 一种多通道多视角大数据视频剪辑方法
US10739142B2 (en) 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor
CN107967710B (zh) * 2016-10-20 2021-05-25 株式会社理光 一种三维物体描述方法及装置
US20180190033A1 (en) * 2016-12-30 2018-07-05 Facebook, Inc. Systems and methods for providing augmented reality effects and three-dimensional mapping associated with interior spaces
JP6760114B2 (ja) 2017-01-31 2020-09-23 富士通株式会社 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
CN107145525B (zh) * 2017-04-14 2020-10-16 北京星选科技有限公司 用于确认搜索场景的数据处理方法、搜索方法及相应装置
US10740613B1 (en) 2017-04-20 2020-08-11 Digimarc Corporation Hybrid feature point/watermark-based augmented reality
CN106996777B (zh) * 2017-04-21 2019-02-12 合肥井松自动化科技有限公司 一种基于地面图像纹理的视觉导航方法
US9965960B1 (en) * 2017-08-07 2018-05-08 Lyft, Inc. Facilitating transportation services by generating a directional indicator between a requester and a transportation vehicle
US20210134049A1 (en) * 2017-08-08 2021-05-06 Sony Corporation Image processing apparatus and method
EP3704563A4 (en) * 2017-10-31 2021-08-04 Outward, Inc. MIXED PHYSICAL AND VIRTUAL REALITIES
DE102017222534B3 (de) 2017-12-12 2019-06-13 Volkswagen Aktiengesellschaft Verfahren, computerlesbares Speichermedium mit Instruktionen, Vorrichtung und System zum Einmessen einer Augmented-Reality-Brille in einem Fahrzeug, für das Verfahren geeignetes Fahrzeug und für das Verfahren geeignete Augmented-Reality-Brille
JP7149707B2 (ja) 2018-01-15 2022-10-07 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム、並びに、運転制御システム
US10508913B2 (en) * 2018-02-08 2019-12-17 Raytheon Company Environment recording system using virtual or augmented reality
EP3750028B1 (en) 2018-02-09 2022-10-19 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
US11393251B2 (en) 2018-02-09 2022-07-19 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
EP3750029A1 (en) 2018-02-09 2020-12-16 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters using a neural network
US10549186B2 (en) * 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
CN109345589A (zh) * 2018-09-11 2019-02-15 百度在线网络技术(北京)有限公司 基于自动驾驶车辆的位置检测方法、装置、设备及介质
US10943401B2 (en) 2019-02-01 2021-03-09 International Business Machines Corporation Active visual recognition in mobile augmented reality
EP3973512A1 (en) 2019-05-22 2022-03-30 PCMS Holdings, Inc. Method for rendering of augmented reality content in combination with external display
CN110175579A (zh) * 2019-05-29 2019-08-27 北京百度网讯科技有限公司 姿态确定方法、场景图像的展示方法、装置、设备及介质
US11676422B2 (en) 2019-06-05 2023-06-13 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US10828576B1 (en) 2019-07-29 2020-11-10 Universal City Studios Llc Motion exaggerating virtual reality ride systems and methods
GB2586831A (en) * 2019-09-05 2021-03-10 Wolf In Motion Ltd Three-Dimensional Content Generation using real-time video compositing
US11023730B1 (en) 2020-01-02 2021-06-01 International Business Machines Corporation Fine-grained visual recognition in mobile augmented reality
DE102020112300A1 (de) 2020-05-06 2021-11-11 Audi Aktiengesellschaft 6 Degree of Freedom (6DOF) Tracking von mobilen Head Mounted Displays (HMD)
CN111666434B (zh) * 2020-05-26 2021-11-02 武汉大学 基于深度全局特征的街景图片检索方法
CN111583420B (zh) * 2020-05-27 2021-11-12 上海松鼠课堂人工智能科技有限公司 基于增强现实模式的智能学习***和方法
US11688142B2 (en) 2020-11-23 2023-06-27 International Business Machines Corporation Automatic multi-dimensional model generation and tracking in an augmented reality environment
DE102021205834A1 (de) * 2021-06-09 2022-12-15 Continental Automotive Technologies GmbH Cloudgestütztes 3D Rendering für ein Egofahrzeug
CN115493512B (zh) * 2022-08-10 2023-06-13 思看科技(杭州)股份有限公司 数据处理方法、三维扫描***、电子装置和存储介质
CN117102856B (zh) * 2023-10-23 2024-02-13 浙江大学 一种大型舱体双平台五自由度位姿识别与调整方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06230115A (ja) * 1993-02-01 1994-08-19 Toyota Motor Corp 車間距離検出装置
JP2005141655A (ja) * 2003-11-10 2005-06-02 Olympus Corp 3次元モデリング装置及び3次元モデリング方法
JP2008116373A (ja) * 2006-11-06 2008-05-22 Canon Inc 位置姿勢計測方法及び装置
WO2008080606A1 (de) * 2006-12-29 2008-07-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, verfahren und computerprogramm zum bestimmen einer position basierend auf einem kamerabild

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4700307A (en) * 1983-07-11 1987-10-13 General Dynamics Corp./Convair Division Feature navigation system and method
JP3244850B2 (ja) * 1993-03-22 2002-01-07 三菱重工業株式会社 ナンバープレート読み取り装置
JP3486613B2 (ja) * 2001-03-06 2004-01-13 キヤノン株式会社 画像処理装置およびその方法並びにプログラム、記憶媒体
US6903752B2 (en) 2001-07-16 2005-06-07 Information Decision Technologies, Llc Method to view unseen atmospheric phenomenon using augmented reality
DE10145608B4 (de) * 2001-09-15 2006-01-26 Eads Deutschland Gmbh Modellbasierte Objektklassifikation und Zielerkennung
US7203384B2 (en) 2003-02-24 2007-04-10 Electronic Scripting Products, Inc. Implement for optically inferring information from a planar jotting surface
JP4743818B2 (ja) 2003-04-04 2011-08-10 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータプログラム
US7706601B2 (en) * 2003-08-29 2010-04-27 Nec Corporation Object posture estimation/correlation system using weight information
US7110100B2 (en) 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
US7268956B2 (en) 2003-11-24 2007-09-11 Electronic Scripting Products, Inc. Solid catadioptric lens with two viewpoints
US7038846B2 (en) 2003-11-24 2006-05-02 Electronic Scripting Products, Inc. Solid catadioptric lens with a single viewpoint
EP1544795B1 (de) 2003-12-16 2007-10-10 Siemens Aktiengesellschaft Verfahren und Gerät zur Identifikation eines Objektes in einem Kamerabild
US7088440B2 (en) 2003-12-22 2006-08-08 Electronic Scripting Products, Inc. Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US7729515B2 (en) 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US7826641B2 (en) 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7023536B2 (en) 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
US7161664B2 (en) 2004-04-13 2007-01-09 Electronic Scripting Products, Inc. Apparatus and method for optical determination of intermediate distances
US7129887B2 (en) 2004-04-15 2006-10-31 Lockheed Martin Ms2 Augmented reality traffic control center
JP2005326275A (ja) * 2004-05-14 2005-11-24 Canon Inc 情報処理方法および装置
US7113270B2 (en) 2004-06-18 2006-09-26 Electronics Scripting Products, Inc. Determination of an orientation parameter of an elongate object with a scan beam apparatus
US20060120568A1 (en) * 2004-12-06 2006-06-08 Mcconville Patrick J System and method for tracking individuals
JP4613617B2 (ja) 2005-01-07 2011-01-19 ソニー株式会社 画像処理システム、学習装置および方法、並びにプログラム
WO2007011306A2 (en) * 2005-07-20 2007-01-25 Bracco Imaging S.P.A. A method of and apparatus for mapping a virtual model of an object to the object
JP4914019B2 (ja) 2005-04-06 2012-04-11 キヤノン株式会社 位置姿勢計測方法及び装置
US8160400B2 (en) * 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
US8942483B2 (en) * 2009-09-14 2015-01-27 Trimble Navigation Limited Image-based georeferencing
DE102005061952B4 (de) 2005-12-23 2008-09-11 Metaio Gmbh Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System
DE102006005044B4 (de) 2006-02-03 2011-01-27 Metaio Gmbh Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung
DE202006020299U1 (de) * 2006-05-16 2008-04-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. 3D-Vermessungsanordnung
CN100587518C (zh) * 2006-07-20 2010-02-03 中国科学院自动化研究所 遥感影像高精度控制点自动选择方法
JP4789745B2 (ja) 2006-08-11 2011-10-12 キヤノン株式会社 画像処理装置および方法
EP1906339B1 (en) * 2006-09-01 2016-01-13 Harman Becker Automotive Systems GmbH Method for recognizing an object in an image and image recognition device
CN100456300C (zh) 2006-10-27 2009-01-28 北京航空航天大学 基于二维草图的三维模型检索方法
US8174568B2 (en) * 2006-12-01 2012-05-08 Sri International Unified framework for precise vision-aided navigation
WO2009031155A2 (en) 2007-09-06 2009-03-12 Yeda Research And Development Co. Ltd. Modelization of objects in images
JP4636064B2 (ja) * 2007-09-18 2011-02-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
WO2009047335A1 (en) * 2007-10-12 2009-04-16 Mvtec Software Gmbh Computer vision cad models
US20090185746A1 (en) * 2008-01-22 2009-07-23 The University Of Western Australia Image recognition
KR100951890B1 (ko) * 2008-01-25 2010-04-12 성균관대학교산학협력단 상황 모니터링을 적용한 실시간 물체 인식 및 자세 추정 방법
CN101285686B (zh) 2008-05-29 2010-11-10 中国农业大学 一种农业机械导航分级定位的方法和***
US8144947B2 (en) * 2008-06-27 2012-03-27 Palo Alto Research Center Incorporated System and method for finding a picture image in an image collection using localized two-dimensional visual fingerprints
US8180107B2 (en) 2009-02-13 2012-05-15 Sri International Active coordinated tracking for multi-camera systems
DE102009049849B4 (de) 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
US9594956B2 (en) * 2010-05-10 2017-03-14 Park Assist Llc. Method and system for managing a parking lot based on intelligent imaging
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
WO2013029674A1 (en) 2011-08-31 2013-03-07 Metaio Gmbh Method of matching image features with reference features
CN103959307B (zh) 2011-08-31 2017-10-24 Metaio有限公司 从灰度图像中检测和描述特征的方法
KR101329111B1 (ko) 2012-05-02 2013-11-14 한국과학기술연구원 실내 네비게이션 시스템 및 방법
US10477356B2 (en) 2012-07-31 2019-11-12 Ariel-University Research And Development Company Ltd. Navigation method and device
US8970709B2 (en) 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty
US9140555B1 (en) 2014-03-14 2015-09-22 Google Inc. Navigation using sensor fusion
US10395116B2 (en) 2015-10-29 2019-08-27 Hand Held Products, Inc. Dynamically created and updated indoor positioning map

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06230115A (ja) * 1993-02-01 1994-08-19 Toyota Motor Corp 車間距離検出装置
JP2005141655A (ja) * 2003-11-10 2005-06-02 Olympus Corp 3次元モデリング装置及び3次元モデリング方法
JP2008116373A (ja) * 2006-11-06 2008-05-22 Canon Inc 位置姿勢計測方法及び装置
WO2008080606A1 (de) * 2006-12-29 2008-07-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, verfahren und computerprogramm zum bestimmen einer position basierend auf einem kamerabild

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200800584005; 薄 充孝: 'ランドマークデータベースに基づく静止画像からのカメラ位置・姿勢推定' 日本バーチャルリアリティ学会論文誌 第13巻 第2号, 20080630, p.161-170, 特定非営利活動法人日本バーチャルリアリティ学会 *
JPN6013036002; 薄 充孝: 'ランドマークデータベースに基づく静止画像からのカメラ位置・姿勢推定' 日本バーチャルリアリティ学会論文誌 第13巻 第2号, 20080630, p.161-170, 特定非営利活動法人日本バーチャルリアリティ学会 *

Also Published As

Publication number Publication date
DE102009049849A1 (de) 2011-04-21
US20120237085A1 (en) 2012-09-20
EP3550516A1 (de) 2019-10-09
JP2013508794A (ja) 2013-03-07
EP2491530B1 (de) 2019-06-26
JP2015084229A (ja) 2015-04-30
US10229511B2 (en) 2019-03-12
CN102612704A (zh) 2012-07-25
JP5905540B2 (ja) 2016-04-20
DE102009049849B4 (de) 2020-09-24
US20140321708A1 (en) 2014-10-30
US8837779B2 (en) 2014-09-16
US20120219188A1 (en) 2012-08-30
US20150092987A1 (en) 2015-04-02
EP2491529B1 (en) 2019-06-26
US20180357786A1 (en) 2018-12-13
CN102667855A (zh) 2012-09-12
US10650546B2 (en) 2020-05-12
US20160189384A1 (en) 2016-06-30
JP5980295B2 (ja) 2016-08-31
EP3547256B1 (en) 2021-05-19
CN106650723A (zh) 2017-05-10
EP3550516B1 (de) 2022-11-23
CN102612704B (zh) 2017-03-22
US10580162B2 (en) 2020-03-03
JP2014241155A (ja) 2014-12-25
WO2011047888A1 (en) 2011-04-28
US9218665B2 (en) 2015-12-22
US20190172220A1 (en) 2019-06-06
EP2491530A1 (de) 2012-08-29
US10062169B2 (en) 2018-08-28
EP2491529A1 (en) 2012-08-29
WO2011047924A1 (de) 2011-04-28
EP3547256A1 (en) 2019-10-02
US8942418B2 (en) 2015-01-27

Similar Documents

Publication Publication Date Title
JP5980295B2 (ja) カメラ姿勢決定方法、及び実環境物体認識方法
CN104731337B (zh) 用于在真实环境中表示虚拟信息的方法
JP5582548B2 (ja) 実環境視像における仮想情報の表示方法
US9256983B2 (en) On demand image overlay
EP3044726B1 (en) Landmark identification from point cloud generated from geographic imagery data
US20140002439A1 (en) Alternate Viewpoint Image Enhancement
US10089762B2 (en) Methods for navigating through a set of images
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
CN110906949A (zh) 用于导航的计算机实施方法、导航***和车辆
US12008740B2 (en) Feature matching using features extracted from perspective corrected image
JP2013196616A (ja) 情報端末装置、情報処理方法
JP2022509582A (ja) 連携仮想インターフェース
Höllerer et al. “Anywhere augmentation”: Towards mobile augmented reality in unprepared environments
CN113920263A (zh) 地图构建方法、装置、设备及存储介质
JP2013149029A (ja) 情報処理装置、情報処理方法
EP3007136B1 (en) Apparatus and method for generating an augmented reality representation of an acquired image
US10878278B1 (en) Geo-localization based on remotely sensed visual features
US20220375175A1 (en) System For Improving The Precision and Accuracy of Augmented Reality
CN112348885B (zh) 视觉特征库的构建方法、视觉定位方法、装置和存储介质
Cagalaban et al. Projective illumination technique in unprepared environments for augmented reality applications

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130723

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131010

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20131018

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131121

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20131128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140701