JP2015513235A - 反対向きのカメラを用いてデバイスの場所を特定するためのシステムおよび方法 - Google Patents

反対向きのカメラを用いてデバイスの場所を特定するためのシステムおよび方法 Download PDF

Info

Publication number
JP2015513235A
JP2015513235A JP2014554773A JP2014554773A JP2015513235A JP 2015513235 A JP2015513235 A JP 2015513235A JP 2014554773 A JP2014554773 A JP 2014554773A JP 2014554773 A JP2014554773 A JP 2014554773A JP 2015513235 A JP2015513235 A JP 2015513235A
Authority
JP
Japan
Prior art keywords
image
identifying
facing camera
code
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014554773A
Other languages
English (en)
Other versions
JP2015513235A5 (ja
JP6151278B2 (ja
Inventor
フイ・チャオ
サウミトラ・エム・ダス
サメーラ・ポドゥリ
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2015513235A publication Critical patent/JP2015513235A/ja
Publication of JP2015513235A5 publication Critical patent/JP2015513235A5/ja
Application granted granted Critical
Publication of JP6151278B2 publication Critical patent/JP6151278B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Navigation (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

反対向きのカメラを用いてデバイスの場所を特定するためのシステムおよび方法が開示される。一実施形態では、その方法は、デバイスの前向きカメラおよび後向きカメラを起動するステップと、前向きカメラおよび後向きカメラを用いて第1の向きから第1の画像対を取り込むステップであって、第1の画像対は第1の前方画像および第1の後方画像を含む、取り込むステップと、デバイスが第2の向きに回転されるのを監視するステップと、前向きカメラおよび後向きカメラを用いて第2の向きから第2の画像対を取り込むステップであって、第2の画像対は第2の前方画像および第2の後方画像を含む、取り込むステップと、第1の画像対および第2の画像対を用いてデバイスの場所を特定するステップとを含む。

Description

関連出願
これは、2012年1月27日に出願の非仮特許出願第13/360,372号に対する優先権を主張するPCT出願であり、参照によりその全体が本明細書に援用される。
本開示は、デバイス位置決めの分野に関する。詳細には、本開示は、反対向きのカメラを用いてデバイスの場所を特定するためのシステムおよび方法に関する。
視覚探索の分野では、ランドマークを視覚に基づいて照合することが広く研究され、適用されてきた。たとえば、屋内現場の場合、屋内現場周囲の画像を収集することができる。画像ごとに、スケール不変特徴変換(SIFT)特徴を計算し、データベース(DB)に記憶することができる。DB内の各画像は関連する場所情報を有する。この情報は、現場マップ上の場所またはエリアにマッピングすることができる。現場において取り込まれた問合せ画像を、特徴照合に基づいて、DB内の画像と再び比較することができる。したがって、その場所を特定し、マッピングすることができる。しかしながら、従来の方法は、2つのカメラを備えている最新のデバイスを利用していない。
したがって、反対向きのカメラを用いてデバイスの場所を特定するシステムおよび方法が必要とされている。
本開示は、反対向きのカメラを用いてデバイスの場所を特定することに関する。本開示の実施形態によれば、デバイスの場所を特定するための方法が、デバイスの前向きカメラおよび後向きカメラを起動するステップと、前向きカメラおよび後向きカメラを用いて、第1の向きから第1の画像対を取り込むステップであって、第1の画像対は第1の前方画像および第1の後方画像を含む、取り込むステップと、デバイスが第2の向きに回転されるのを監視するステップと、前向きカメラおよび後向きカメラを用いて、第2の向きから第2の画像対を取り込むステップであって、第2の画像対は第2の前方画像および第2の後方画像を含む、取り込むステップと、第1の画像対および第2の画像対を用いてデバイスの場所を特定するステップとを含む。
デバイスの前向きカメラおよび後向きカメラを起動する方法は、ジェスチャを用いてデバイスの前向きカメラおよび後向きカメラを起動するステップを含み、ジェスチャはデバイスの1つまたは複数のユーザ定義による動きを適用することを含む。第1の画像対を取り込む方法は、第1の画像対を同時に取り込むステップ、または第1の画像対を所定の期間内に取り込むステップを含む。その方法は、加速度計、ジャイロスコープおよび磁力計のうちの少なくとも1つを用いて、第1の向きおよび第2の向きの情報を特定するステップをさらに含む。
デバイスの場所を特定する方法は、第1の前方画像および第1の後方画像に関連付けられる場所を結ぶ第1の線を特定するステップと、第2の前方画像および第2の後方画像に関連付けられる場所を結ぶ第2の線を特定するステップと、第1の線および第2の線の近似的な交差点を特定するステップと、近似的な交差点をデバイスの推定場所として識別するステップとを含む。第1の前方画像および第1の後方画像を結ぶことに関連付けられる第1の線の場所を特定する方法は、第1の前方画像をデータベース内の画像と比較するステップであって、データベースは現場の複数の場所の画像特徴を記憶する、比較するステップと、第1の前方画像の近似的な場所を識別するステップと、第1の後方画像をデータベース内の画像と比較するステップと、第1の後方画像の近似的な場所を識別するステップと、第1の前方画像の近似的な場所および第1の後方画像の近似的な場所を用いて第1の線を特定するステップとを含む。第1の前方画像をデータベース内の画像と比較する方法は、デバイスの第1の向きに基づいてデータベースから第1の1組の画像を選択するステップであって、第1の1組の画像は前向きカメラの視野内の領域をカバーする、選択するステップと、第1の前方画像を第1の1組の画像と比較するステップとを含む。第1の後方画像をデータベース内の画像と比較する方法は、第1の前方画像の近似的な場所に基づいて、データベースから第2の1組の画像を選択するステップであって、第2の1組の画像は第1の前方画像の近似的な場所の反対側の領域をカバーする、選択するステップと、第1の後方画像を第2の1組の画像と比較するステップとを含む。
第2の前方画像および第2の後方画像に関連付けられる場所を結ぶ第2の線を特定する方法は、第2の前方画像をデータベース内の画像と比較するステップであって、データベースは現場の複数の場所の画像特徴を記憶する、比較するステップと、第2の前方画像の近似的な場所を識別するステップと、第2の後方画像をデータベース内の画像と比較するステップと、第2の後方画像の近似的な場所を識別するステップと、第2の前方画像の近似的な場所および第2の後方画像の近似的な場所を用いて第2の線を特定するステップとを含む。その方法は、推定場所を位置決めエンジンに送るステップと、位置決めエンジンにおいて、推定場所を用いてデバイスの最終場所を特定するステップとをさらに含む。
別の実施形態では、デバイスの場所を特定するためのコンピュータプログラム製品が、1つまたは複数のコンピュータシステムによって実行されるコンピュータプログラムを記憶する非一時的媒体を有する。コンピュータプログラム製品は、デバイスの前向きカメラおよび後向きカメラを起動するためのコードと、前向きカメラおよび後向きカメラを用いて、第1の向きから第1の画像対を取り込むためのコードであって、第1の画像対は第1の前方画像および第1の後方画像を含む、取り込むためのコードと、デバイスが第2の向きに移動されるのを監視するためのコードと、前向きカメラおよび後向きカメラを用いて、第2の向きから第2の画像対を取り込むためのコードであって、第2の画像対は第2の前方画像および第2の後方画像を含む、取り込むためのコードと、第1の画像対および第2の画像対を用いてデバイスの場所を特定するためのコードとを含む。
さらに別の実施形態では、デバイスが、1つまたは複数のプロセッサと、1つまたは複数のプロセッサとともに機能するデュアルカメラ支援モジュールと、デバイスの場所を記憶するように構成されるメモリとを含む。デュアルカメラ支援モジュールは、デバイスの前向きカメラおよび後向きカメラを起動するためのロジックと、前向きカメラおよび後向きカメラを用いて、デバイスの第1の向きから第1の画像対を取り込むためのロジックであって、第1の画像対は第1の前方画像および第1の後方画像を含む、取り込むためのロジックと、デバイスが第2の向きに移動されるのを監視するためのロジックと、前向きカメラおよび後向きカメラを用いて、第2の向きから第2の画像対を取り込むためのロジックであって、第2の画像対は第2の前方画像および第2の後方画像を含む、取り込むためのロジックと、第1の画像対および第2の画像対を用いてデバイスの場所を特定するためのロジックとを含む。
さらに別の実施形態では、デバイスの場所を特定するためのシステムが、1つまたは複数のプロセッサと、1つまたは複数のプロセッサとともに機能するように構成されるデュアルカメラ支援モジュールと、デバイスの場所を記憶するように構成されるメモリとを含む。デュアルカメラ支援モジュールは、デバイスの前向きカメラおよび後向きカメラを起動するための手段と、前向きカメラおよび後向きカメラを用いて、第1の向きから第1の画像対を取り込むための手段であって、第1の画像対は第1の前方画像および第1の後方画像を含む、取り込むための手段と、デバイスが第2の向きに移動されるのを監視するための手段と、前向きカメラおよび後向きカメラを用いて、第2の向きから第2の画像対を取り込むための手段であって、第2の画像対は第2の前方画像および第2の後方画像を含む、取り込むための手段と、第1の画像対および第2の画像対を用いてデバイスの場所を特定するための手段とを含む。
さらに別の実施形態では、デバイスの場所を特定するための方法は、前向きカメラおよび後向きカメラを用いてデバイスの第1の向きから取り込まれた第1の画像対を受信するステップであって、第1の画像対は第1の前方画像および第1の後方画像を含む、受信するステップと、前向きカメラおよび後向きカメラを用いてデバイスの第2の向きから取り込まれた第2の画像対を受信するステップであって、第2の画像対は第2の前方画像および第2の後方画像を含む、受信するステップと、第1の画像対および第2の画像対を用いてデバイスの場所を特定するステップとを含む。
さらに別の実施形態では、デバイスの場所を特定するためのコンピュータプログラム製品が、1つまたは複数のコンピュータシステムによって実行されるコンピュータプログラムを記憶する非一時的媒体を含む。コンピュータプログラム製品はさらに、前向きカメラおよび後向きカメラを用いてデバイスの第1の向きから取り込まれた第1の画像対を受信するためのコードであって、第1の画像対は第1の前方画像および第1の後方画像を含む、受信するためのコードと、前向きカメラおよび後向きカメラを用いてデバイスの第2の向きから取り込まれた第2の画像対を受信するためのコードであって、第2の画像対は第2の前方画像および第2の後方画像を含む、受信するためのコードと、第1の画像対および第2の画像対を用いてデバイスの場所を特定するためのコードとを含む。
さらに別の実施形態では、サーバが、1つまたは複数のプロセッサと、1つまたは複数のプロセッサとともに機能するように構成されるデュアルカメラ位置決めモジュールと、デバイスの場所を記憶するように構成されるメモリとを含む。デュアルカメラ位置決めモジュールは、前向きカメラおよび後向きカメラを用いてデバイスの第1の向きから取り込まれた第1の画像対を受信するためのロジックであって、第1の画像対は第1の前方画像および第1の後方画像を含む、受信するためのロジックと、前向きカメラおよび後向きカメラを用いてデバイスの第2の向きから取り込まれた第2の画像対を受信するためのロジックであって、第2の画像対は第2の前方画像および第2の後方画像を含む、受信するためのロジックと、第1の画像対および第2の画像対を用いてデバイスの場所を特定するためのロジックとを含む。
さらに別の実施形態では、デバイスの場所を特定するためのシステムが、1つまたは複数のプロセッサと、1つまたは複数のプロセッサとともに機能するように構成されるデュアルカメラ位置決めモジュールと、デバイスの場所を記憶するように構成されるメモリとを含む。デュアルカメラ位置決めモジュールは、前向きカメラおよび後向きカメラを用いてデバイスの第1の向きから取り込まれた第1の画像対を受信するための手段であって、第1の画像対は第1の前方画像および第1の後方画像を含む、受信するための手段と、前向きカメラおよび後向きカメラを用いてデバイスの第2の向きから取り込まれた第2の画像対を受信するための手段であって、第2の画像対は第2の前方画像および第2の後方画像を含む、受信するための手段と、第1の画像対および第2の画像対を用いてデバイスの場所を特定するための手段とを含む。
本開示の上述の特徴および利点、ならびに本開示の追加の特徴および利点は、以下の図面とともに本開示の実施形態の詳細な説明を読めば、より明確に理解できよう。
本開示の幾つかの態様による、デバイスの向きを規定する例示的な方法を示す図である。 本開示の幾つかの態様による、反対向きのカメラを用いてデバイスの位置を特定する方法を示す図である。 本開示の幾つかの態様による、反対向きのカメラを用いてデバイスの位置を特定する方法を示す図である。 本開示の幾つかの態様による、反対向きのカメラを用いてデバイスの位置を特定する方法を示す図である。 本開示の幾つかの態様による、反対向きのカメラを用いてデバイスの位置を特定する方法を示す図である。 本開示の幾つかの態様による、反対向きのカメラを用いる例示的な応用形態を示す図である。 本開示の幾つかの態様による、図3において取り込まれた画像の例示的な表示を示す図である。 本開示の幾つかの態様による、デバイスの位置を特定するための装置のブロック図である。 本開示の幾つかの態様による、デバイスの位置を特定するためのサーバのブロック図である。 本開示の幾つかの態様による、図5のデュアルカメラ支援モジュールによって実施される例示的な流れ図である。 本開示の幾つかの態様による、図5のデュアルカメラ支援モジュールによって実施される例示的な流れ図である。 本開示の幾つかの態様による、図5のデュアルカメラ支援モジュールによって実施される例示的な流れ図である。 本開示の実施形態による、視覚探索機能の例示的な実施態様を示す図である。 本開示の実施形態による、視覚探索機能の例示的な実施態様を示す図である。
反対向きのカメラを用いてデバイスの場所を特定する実施形態が開示される。以下の説明は、いかなる当業者でも本開示を実施し、使用することができるようにするために提示される。特定の実施形態および応用形態の説明は、例としてのみ提供される。本明細書において説明される例の様々な変更および組合せが当業者には容易に明らかになり、本明細書で規定された一般原理は、本開示の趣旨および範囲から逸脱することなく、他の例および応用形態に適用することができる。したがって、本開示は、説明および図示される例に限定されるものではなく、本明細書において開示される原理および特徴に一致する最も広い範囲を与えられるべきである。
前方カメラおよび後方カメラ(前向きカメラおよび後向きカメラとも呼ばれる)を備えた新しいデバイスによれば、現場の反対側のシーンからの2つの画像を取り込むことができる。さらに、デバイス上の1つまたは複数のセンサから、これらの画像のそれぞれの向き(方位角および仰角)を入手することができる。本開示は、取り込まれ、向きデータでタグ付けされた2組以上のデュアルビュー画像に基づいて、デバイスの位置を特定するために適用することができるシステムおよび方法を記述する。その方法は、画像対の取り込まれ方を考えると、それらの画像対が互いに反対向きであることを利用する。デバイスの向きデータおよび取り込まれた画像を用いて、視覚探索を最適化することができる。
図1は、本開示の幾つかの態様による、デバイスの向きを表す例示的な方法を示す。図1に示される例では、デバイス102の向きは、X軸、Y軸およびZ軸を有するデカルト座標を基準にして表すことができる。幾つかの手法において、デバイス内の特定の基準点を原点として用いることができる。原点は、テキスト記述を用いて定義することができるか、または表示画面の中心のような数学的に固有の点とすることができる。極座標系および球面座標系のような、他の座標系を用いて、デバイス102の向きを表すこともできることに留意されたい。本開示の実施形態によれば、デバイス102の向きは特定の軸に近似的に位置合わせすることができる。たとえば、直立位置(矢印104によって示される)にあるデバイス102は、Y軸に近似的に位置合わせすることができ、X-Z面に対して近似的に垂直にすることができる。矢印106によって示される、デバイス102の回転は、デバイスの直立位置を実質的に維持することができる。
幾つかの実施形態では、ユーザが坂にいるか、または一連の階段にいるとき、デバイス102の向きを表すY軸は坂に対して近似的に垂直とすることができ、デバイス102の向きを表すX-Z面は坂に対して近似的に平行とすることができる。
本開示の実施形態によれば、限定はしないが、加速度計、ジャイロスコープ、および磁力計を含む種々のタイプのセンサを用いて、デバイスの運動および回転を検出することができる。加速度計は、直線運動を検出する際により良好に機能することができ、ジャイロスコープは、回転を検出する際により良好に機能することができ、磁力計は、デバイスの向きを検出する際により良好に機能することができる。本開示の態様によれば、2つ以上のそのようなセンサの組合せを用いて、デバイスの動き、回転、および向きを検出することができる。
本開示の実施形態によれば、加速度計は、デバイスの加速を測定するデバイスである。加速度計は、加速度計の基準系にある試験質量が受ける重みに関連付けられる加速度を測定する。たとえば、速度が変化しない場合であっても、質量は重みを有するので、加速度計は、質量が静止している場合でも値を測定する。加速度計は、質量の単位当たりの重み、すなわち重力またはg力としても知られる量を測定する。言い換えれば、重みを測定することによって、加速度計は、それ自体に対する自由落下基準系(慣性基準系)の加速度を測定する。1つの手法では、多軸加速度計を用いて、適当な加速度(またはg力)の大きさおよび方向を、ベクトル量として検出することができる。さらに、多軸加速度計を用いて、重みの方向が変化するにつれて、向きを検知することができ、重みがg力、またはg力の変化、振動、および衝撃を生成するにつれて、加速度を調整することができる。別の手法では、微小機械加工された加速度計を用いて、デバイスの位置、動きおよび向きを検出することができる。
本開示の実施形態によれば、ジャイロスコープを用いて、角運動量の保存の原理に基づいて、デバイスの回転および向きを測定する。加速度計または磁力計を用いて、ジャイロスコープの初期基準を確立することができる。初期基準が確立された後に、ジャイロスコープは、振動による影響、またはデバイス周辺の電気器具によって生成される電磁場による影響をあまり受けないので、デバイスの回転を検出する際に、加速度計または磁力計よりも正確である可能性がある。機械式ジャイロスコープは、その回転軸が任意の向きをとることができるスピニングホイールまたはディスクとすることができる。この向きは、ジャイロスコープの高速スピンに関連付けられる大きい角運動量がない場合よりも、所与の外部トルクに応じた変化がはるかに少ない。デバイスをジンバルに取り付けることによって外部トルクが最小限に抑えられるので、デバイスが取り付けられるプラットホームの任意の運動に関係なく、その向きはほぼ固定されたままである。他の手法では、たとえば電子マイクロチップパッケージ微小電気機械システム(MEMS)ジャイロスコープデバイス、固体リングレーザ、光ファイバジャイロスコープおよび量子ジャイロスコープなどの、他の動作原理に基づくジャイロスコープを用いることもできる。
本開示の実施形態によれば、磁力計を用いて、デバイス周辺の磁場の強度または方向を検出することによって、向きを測定することができる。種々のタイプの磁力計を用いることができる。たとえば、スカラ磁力計は、自らが受ける磁場の総合強度を測定し、ベクトル磁力計は、デバイスの空間的な向きに対して、特定の方向の磁場の成分を測定する。別の手法では、固体ホール効果磁力計を用いることができる。ホール効果磁力計は、かけられる磁場に比例する電圧を生成し、極性を検知するように構成することができる。
図2a〜図2dは、本開示の幾つかの態様による、反対向きのカメラを用いてデバイスの位置を特定する方法を示す。図2aにおいて、デバイス102が、軸X、YおよびZに対して向きを定められる。そのデバイスは、第1の前方画像204aおよび第1の後方画像204bを取り込む。Aは第1の前方画像204a上の点であり、Bは第1の後方画像204b上の点である。点Aと点Bとを結ぶ線がデバイス102を通り抜ける。図2bにおいて、デバイス102は面X-Zに対して角度θだけ回転する。その後、デバイス102は第2の前方画像206aおよび第2の後方画像206bを取り込む。Cは第2の前方画像206a上の点であり、Dは第2の後方画像206b上の点である。点Cと点Dとを結ぶ線がデバイス102を通り抜ける。より良好な結果を得るために、デバイス102は、ある距離において複数のシーンを取り込むことができ、それらのシーンは他の物体または人々によって遮られないことが好ましいことに留意されたい。
図2cは、図2aおよび図2bの合成図を示す。図2cに示されるように、線ABは第1の前方画像204aと第1の後方画像204bとを結び、線CDは第2の前方画像206aと第2の後方画像206bとを結ぶ。小点208によって示される線ABとCDとの交差点は、第1の前方画像204aおよび第1の後方画像204bを含む第1の画像対と、第2の前方画像206aおよび第2の後方画像206bを含む第2の画像対とを取り込むデバイス102の場所を表す。実際には、線ABおよびCDはいずれも厳密には交差しない場合があり、本方法は、画像を取り込む際のデバイス102の意図しない動き、および第1の画像対を取り込むときと、第2の画像対を取り込むときとの間の回転を考慮に入れて、近似的な交差点を計算することに留意されたい。
本開示の実施形態によれば、視覚に基づく照合を適用することによって、各画像内のシーンの場所を探索し、マップ上で特定することができる。その後、取り込まれた画像の場所を用いて、デバイスの場所(ユーザの場所とも呼ばれる)が、各画像対の位置の中心を結ぶ線ABおよびCDに沿っていると推測することができる。その後、図2cに示されるように、デバイスの位置を、マップ上の2本の線の交差点または断面として特定することができる。
図2dは、本開示の幾つかの態様による、反対向きのカメラを用いてデバイスの位置を特定する別の方法を示す。2つの画像対を取り込む方法は、第1の前方画像204aおよび第1の後方画像204bを含む第1の画像対と、第2の前方画像206aおよび第2の後方画像206bを含む第2の画像対とを生成する、図2a〜図2cにおいて示される例に類似する。この例では、各画像対を結ぶ2本の線から導出される交差点を特定する代わりに、その方法は、第1の前方画像204aおよび第1の後方画像204bを含む第1の画像対を結ぶことによって形成される第1の1組の面212と、第2の前方画像206aおよび第2の後方画像206bを含む第2の画像対を結ぶことによって形成される第2の1組の面214とを特定する。その後、第1の1組の面212および第2の1組の面214の交差部216を用いて、デバイス102の場所を特定することができる。図2dに示される例では、交差部216は、第1の前方画像204aおよび第1の後方画像204bの異なる領域、および第2の前方画像206aおよび第2の後方画像206bの異なる領域における特徴点から外挿できることに留意されたい。他の実施態様では、交差部216は、第1の前方画像204aおよび第1の後方画像204bの1つまたは複数の部分領域、および第2の前方画像206aおよび第2の後方画像206bの1つまたは複数の部分領域内の特徴点から外挿することができる。1つまたは複数の部分領域は、SIFTで照合された特徴点を用いて特定されたキーポイントに基づいて画像照合プロセス中に入手することができる。
図2a〜図2dに示されるように、デバイスの場所を特定する方法が説明される。前方カメラおよび後方カメラによって、その方法は、パイプライン化された画像取込システムを用いて、第1の画像対を同時に、または所定の期間内に取り込む。これらの画像は、カメラからある距離における景色とすることができ、かつ他の物体または人々によって遮られない、その現場のシーンを取り込むことができる。視覚に基づく探索を適用するとき、各画像内のシーンの場所を識別し、マップ上で特定することができる。デバイス(カメラとも呼ばれる)および/またはユーザの場所は、第1の画像対の2つの位置の中心を結ぶ線(2Dマップ)または面(3Dマップ)に沿っていると推測することができる。次に、デバイスは垂直軸に対して回転され、反対向きのシーンの第2の対を取り込む。再び、ユーザの場所は、第2の画像対の2つの位置の中心を結ぶ線に沿っていると推測することができる。その後、カメラおよび/またはユーザの位置をマップ上の2本の線の交差点または断面として特定することができる。
図3は、本開示の幾つかの態様による、反対向きのカメラを用いる例示的な応用形態を示す。この例では、ユーザは迷子になっている場合があり、スタジアム302内の自分の座席を見つけるのに支援を必要とする場合がある。そのために、ユーザは、モバイルデバイスを用いて、図2a〜図2dにおいて説明された方法を適用することができる。この例示的な応用形態では、モバイルデバイスは、ユーザの現在の位置から、第1の画像対、すなわち、304aおよび304bを取り込むように構成することができる。次に、ユーザはモバイルデバイスを回転させ、ユーザの現在の位置から、第2の画像対、すなわち、306aおよび306bを撮影する。2つの画像対は、データベース内のスタジアムの既知の画像と比較される。その比較から、各画像対の場所が特定される。2つの画像対の場所に基づいて、2つの画像対を結ぶ線308および310が特定される。最後に、線308および310の近似的な交差点312を、モバイルデバイスの場所として特定することができる。モバイルデバイスの場所が識別された後に、その情報を用いて、スタジアム内の自分の座席を見つけるためのユーザへの指示を生成する。
図4は、本開示の幾つかの態様による、図3において取り込まれた画像の例示的な表示を示す図である。図4に示される例では、モバイルデバイス402によって取り込まれた第1の前方画像404aおよび第1の後方画像404bを含む、第1の画像対が第1のディスプレイに示される。第1のディスプレイは、モバイルデバイスの前方カメラおよび後方カメラによってそれぞれ取り込まれた前方視認画像404aおよび後方視認画像404bの両方を示す。幾つかの実施態様では、そのデバイスは、第2の画像対を取り込む前に、第1の画像対を検証するためにユーザに質問するように構成することができる。幾つかの他の実施態様では、そのデバイスは、取り込まれた画像の品質を改善できる場合には、または所定の期間後に、取り込まれた画像とデータベース内の画像との間に満足のいく一致が見られない場合には、ユーザに第1の画像対を再び取り込むように要求するように構成することができる。同様に、モバイルデバイス402によって取り込まれた第2の前方画像406aおよび第2の後方画像406bを含む第2の画像対が第2のディスプレイに示される。第2のディスプレイは、モバイルデバイスの前方カメラおよび後方カメラによってそれぞれ取り込まれた前方視認画像406aおよび後方視認画像406bの両方を示す。幾つかの実施態様では、そのデバイスは、第2の画像対を検証するために、ユーザに質問するように構成することができる。幾つかの他の実施態様では、そのデバイスは、取り込まれた画像の品質を改善できる場合には、または所定の期間後に、取り込まれた画像とデータベース内の画像との間に満足のいく一致が見られない場合には、ユーザに第2の画像対を再び取り込むように要求するように構成することができる。
図5aは、本開示の幾つかの態様による、モバイルデバイスの位置を特定するための装置のブロック図を示す。図5aに示されるように、アンテナ502は、基地局から変調信号を受信し、受信信号をモデム504の復調器(DEMOD)部分に与える。復調器は、受信信号を処理し(たとえば、調整し、デジタル化し)、入力サンプルを得る。復調器はさらに、入力サンプルに対して直交周波数分割多重(OFDM)復調を実行し、すべてのサブキャリア用の周波数領域受信シンボルを与える。RXデータプロセッサ506は、周波数領域受信シンボルを処理し(たとえば、シンボルをデマッピングし、デインターリーブし、復号化し)、モバイルデバイスのコントローラ/プロセッサ508に復号化されたデータを与える。
コントローラ/プロセッサ508は、ワイヤレスネットワークを介してサーバと通信するためにモバイルデバイスを制御するように構成することができる。TXデータプロセッサ510はシグナリングシンボル、データシンボル、およびパイロットシンボルを生成し、これらのシンボルはモデム504の変調器(MOD)によって処理し、アンテナ502を介して基地局に送信することができる。さらに、コントローラ/プロセッサ508は、モバイルデバイスにおける様々な処理ユニットの動作を指示する。メモリ512は、モバイルデバイス用のプログラムコードおよびデータを記憶するように構成することができる。画像取込モジュール516は、前方カメラ518(前向きカメラとも呼ばれる)および後方カメラ520(後向きカメラとも呼ばれる)を含む。前方カメラ518および後方カメラ520は、複数組の2枚画像を取り込むように構成することができる。センサ522は、加速度計524、ジャイロスコープ526および磁力計528を含む。加速度計524、ジャイロスコープ526および/または磁力計528は、モバイルデバイスの向きを特定するように構成することができる。デュアルカメラ支援モジュール514は、複数組の2枚画像を用いて、モバイルデバイスの場所を特定する方法を実施するように構成することができる。
図5bは、本開示の幾つかの態様による、デバイスの位置を特定するためのサーバのブロック図である。図5bに示される例では、サーバ530は、1つまたは複数のプロセッサ532と、ネットワークインターフェース534と、データベース536と、デュアルカメラ位置決めモジュール538と、メモリ540とを含む。1つまたは複数のプロセッサ532は、サーバ530の動作を制御するように構成することができる。ネットワークインターフェース534は、ネットワーク(図示せず)と通信するように構成することができ、ネットワークは他のサーバ、コンピュータおよびモバイルデバイスと通信するように構成される場合がある。データベース536は、種々の現場、ランドマーク、マップおよび他のユーザ定義情報の画像を記憶するように構成することができる。デュアルカメラ位置決めモジュール538は、複数組の2枚画像を用いて、デバイスの場所を特定する方法を実施するように構成することができる。たとえば、デュアルカメラ位置決めモジュール538は、図6b、図6cおよび図7a、図7bにおいて説明される方法を実施するように構成することができる。さらに、デュアルカメラ位置決めモジュール538は、図2a〜図2dおよび図6aにおいて説明される方法を実行するためにデバイスを制御するように構成することができる。メモリ540は、サーバ530のためのプログラムコードおよびデータを記憶するように構成することができる。
本開示の実施形態によれば、データベースは空間的に編成することができる。カメラに埋め込まれたセンサを用いて、画像ごとに、カメラの向きを特定することができる。データベースを探索する際に、本方法は最初に、カメラの向きの近隣内の画像を探索することに焦点を合わせることができる。別の手法では、その探索は、前方カメラまたは後方カメラのいずれかで取り込まれた画像のための特徴を照合することに焦点を合わせ、初期探索結果を用いて、データベースの後続の探索を支援することができる。さらに別の手法では、データベースの探索を、GPS、A-GPSまたはスカイフック式のWiFiポジショニングから得られた近似的な場所情報を用いることによって支援することができる。さらに、前方カメラによって取り込まれた画像が場所(x,y)における画像A1と照合される場合には、A1の反対側の付近にある画像を調べて、後方カメラによって取り込まれた画像との一致を探索し、逆も同様である。画像A1から、カメラと画像A1内に示されるランドマークとの間の距離を推定することができ、後方カメラによって取り込まれた画像の一致を見つけるために、この情報を用いて、データベース内の残りの画像の探索をさらに支援することができることに留意されたい。上記の種々の方法を適用して、データベース内の画像を探索する効率を改善することができる。
本発明の実施形態によれば、ユーザは1つまたは複数の所定のジェスチャを用いて、モバイルデバイスの場所を特定するためにデュアルカメラ支援モジュールをトリガすることができる。たとえば、ユーザは、場所に基づくアプリケーションの実行中に、カメラを真上に持ち上げて、デュアルカメラ支援モジュールを起動することができる。カメラを持ち上げることによって、ファインダが遮られるのを回避できるようになることに留意されたい。別の例の場合、ユーザはカメラを前後に3回振ってデュアルカメラ支援モジュールを起動することができる。デュアルカメラ支援モジュールが起動された後に、先に図2〜図4に関連して説明されたように、カメラの位置を特定することができる。
カメラの位置が特定された後に、デバイス内にあるか、または遠隔した場所に存在するサーバ内にある位置決めエンジンと通信できることに留意されたい。その後、その位置は、位置決めエンジンの実施態様に基づいて、さらなる測定値として粒子フィルタまたはカルマンフィルタに統合することができるか、または個々の位置とすることができる。1つの手法では、カメラモジュールから位置決めエンジンにメッセージを渡すことができ、位置決めエンジンはそのメッセージにデュアルカメラ位置とタグ付けし、その位置は位置決めエンジンによって高精度の位置として取り扱うことができる。
図6aは、本開示の幾つかの態様による、図5aのデュアルカメラ支援モジュールによって実施される例示的な流れ図を示す。図6aに示される例示的な実施態様では、ブロック602において、そのモジュールはデバイスの前向きカメラおよび後向きカメラを起動する。ブロック604において、そのモジュールは、デバイスの前向きカメラおよび後向きカメラを用いて第1の向きから第1の画像対を取り込み、第1の画像対は第1の前方画像および第1の後方画像を含む。ブロック606において、そのモジュールは、デバイスが第2の向きに回転されるのを監視する。ブロック608において、そのモジュールは、前向きカメラおよび後向きカメラを用いて第2の向きから第2の画像対を取り込み、第2の画像対は第2の前方画像および第2の後方画像を含む。ブロック610において、そのモジュールは、第1の画像対および第2の画像対を用いて、そのデバイスの場所を特定する。
デュアルカメラ支援モジュールはジェスチャを用いて前向きカメラおよび後向きカメラを起動するように構成され、ジェスチャは、デバイスの1つまたは複数のユーザ定義による動きを適用することを含むことができることに留意されたい。第1の画像対および第2の画像対は、同時に、および所定の期間内に取り込むことができる。デバイスの第1の向きおよび第2の向きに関する情報は、加速度計、ジャイロスコープおよび磁力計のうちの少なくとも1つを用いて求めることができる。
本開示の実施形態によれば、ブロック610は図6bに示されるように、ブロック612〜618によって実施することができる。ブロック612において、デュアルカメラ支援モジュールは、第1の前方画像および第1の後方画像に関連付けられる場所を結ぶ第1の線を特定する。第1の前方画像に関連付けられる場所の例は、図2aに示されるように、第1の前方画像204aの点Aの場所および第1の後方画像204bの点Bの場所とすることができる。ブロック614において、そのモジュールは、第2の前方画像および第2の後方画像に関連付けられる場所を結ぶ第2の線を特定する。第2の前方画像に関連付けられる場所の例は、図2bに示されるように、第2の前方画像206aの点Cの場所および第2の後方画像206bの点Dの場所とすることができる。ブロック616において、そのモジュールは第1の線と第2の線との近似的な交差点を求める。ブロック618において、そのモジュールは、近似的な交差点をデバイスの推定場所として識別する。
本開示の実施形態によれば、図6cに示されるように、ブロック612はブロック620〜636によって実施することができる。第1の前方画像および第1の後方画像に関連付けられる場所を結ぶ第1の線を特定するために、ブロック620において、そのモジュールは、第1の前方画像を、ある現場の複数の場所の画像特徴を記憶するデータベース内の画像と比較するように構成することができる。ブロック622において、そのモジュールは第1の前方画像の近似的な場所を識別する。ブロック624において、そのモジュールは、第1の後方画像をデータベース内の画像と比較する。ブロック626において、そのモジュールは第1の後方画像の近似的な場所を識別する。ブロック628において、そのモジュールは、第1の前方画像の近似的な場所および第1の後方画像の近似的な場所を用いて第1の線を特定する。
1つの手法では、ブロック620はブロック630およびブロック632を含むことができ、ブロック624はブロック634およびブロック636を含むことができる。第1の前方画像をデータベース内の画像と比較するために、ブロック630において、そのモジュールは、デバイスの第1の向きに基づいてデータベースから第1の1組の画像を選択し、第1の1組の画像は前向きカメラの視野内の領域をカバーする。ブロック632において、そのモジュールは第1の前方画像を第1の1組の画像と比較する。同様に、第1の後方画像をデータベース内の画像と比較するために、ブロック634において、そのモジュールは、第1の前方画像の近似的な場所に基づいてデータベースから第2の1組の画像を選択し、第2の1組の画像は第1の前方画像の近似的な場所の反対側の領域をカバーする。ブロック636において、その方法は第1の後方画像を第2の1組の画像と比較する。
第2の前方画像および第2の後方画像を結ぶ第2の線を特定するために、デュアルカメラ支援モジュールは、第2の前方画像を、ある現場の複数の場所の画像特徴を記憶するデータベース内の画像と比較し、第2の前方画像の近似的な場所を識別し、第2の後方画像をデータベース内の画像と比較し、第2の後方画像の近似的な場所を識別し、第2の前方画像の近似的な場所および第2の後方画像の近似的な場所を用いて第2の線を特定する。
本開示の実施形態によれば、問合せ画像をデータベース内の画像と比較するために、問合せ画像から局所特徴(記述子とも呼ばれる)が抽出される。1組の局所特徴を用いて、問合せ画像とデータベース画像との間の類似性を評価する。モバイルアプリケーションにとって有用であるように、個々の特徴は、対応するデータベース画像と比べて異なる視点から、および異なる照明でユーザが問合せ写真を撮影するときに直面する幾何学的ひずみおよび測光ひずみに対してロバストである必要がある。次に、問合せ特徴が、データベースに記憶された画像の特徴と照合される。これは、特別なインデックス構造を使用し、一致する特徴を含む画像のリストに迅速にアクセスできるようにすることによって成し遂げることができる。それらの画像が問合せ画像と共通である特徴の数に基づいて、類似である可能性がある画像のショートリストが、データベースから選択される。最後に、データベースにおいて最も類似している一致画像に対して、幾何学的検証ステップが適用される。幾何学的検証は、問合せ画像の特徴と、データベースの候補画像の特徴との間にコヒーレントな空間パターンを見つけて、一致が正しいことを確実にする。
先に論じられたように、ある現場の数がモバイルデバイスによって取り込まれた後に、それらの画像は、視覚探索プロセスの一部として、データベース内の画像と比較される。図7aおよび図7bは、本開示の実施形態による、視覚探索機能の例示的な実施態様を示す。本開示において説明されるシステムおよび方法は、図7aおよび図7bに示されるクライアントおよびサーバ環境において実施することができる。
図7aに示されるように、本システムは、モバイルデバイス702(たとえば、デュアルカメラを備えているモバイル電話)、視覚探索サーバ704、およびワイヤレスネットワーク706を含む。モバイルデバイス702は、画像取込モジュール703、画像符号化モジュール705、ならびに処理および表示結果モジュール707を含む。視覚探索サーバ704は、復号化モジュール711、記述子抽出モジュール713、記述子照合モジュール715、探索結果モジュール717、およびデータベース719を含む。モバイルデバイス702、ワイヤレスネットワーク706、および視覚探索サーバ704の構成要素は、図7aの流れ図に示されるように通信可能に結合される。モバイルデバイス702は、問合せ画像を分析し、局所画像特徴(記述子)を抽出し、特徴データを送信する。検索方法は、送信された特徴を、探索を実行するための問合せとして用いて視覚探索サーバ704において実行される。
図7bに示される例では、本システムは、モバイルデバイス722(モバイル電話として示される)、視覚探索サーバ724、およびワイヤレスネットワーク726を含む。モバイルデバイス722は、画像取込モジュール723、記述子抽出モジュール725、記述子符号化モジュール727、記述子照合モジュール729、判断分岐731、処理および表示結果モジュール733、ならびにローカルデータベース(D/B)またはキャッシュ735を含む。視覚探索サーバ724は、記述子復号化モジュール741、記述子照合モジュール743、探索結果モジュール745、およびデータベース747を含む。モバイルデバイス722、ワイヤレスネットワーク726、および視覚探索サーバ724の構成要素は、図7bの流れ図に示されるように通信可能に結合される。モバイルデバイス722は、データベースのキャッシュを維持し、画像照合を局所的に実行する。一致が見つからない場合、モバイルデバイス722は、視覚探索サーバ724に問合せ要求を送る。このようにして、モバイルデバイス722は、ネットワークを介して送信されるデータ量をさらに低減する。
図7aおよび図7bの各場合において、検索フレームワークは、厳密なモバイルシステム要件に適応させることができる。モバイルデバイス上の処理は、迅速であり、かつ電力消費量の点で経済的である必要がある。ネットワークを介して送信されるデータのサイズは、ネットワーク待ち時間を最小化し、したがって最良のユーザ体験を提供するために、できる限り小さくする必要がある。検索に使用される方法は、潜在的に非常に大きいデータベースに拡張可能であり、少ない待ち時間で正確な結果をもたらすことができる必要がある。さらに、本検索システムは、様々な距離、視野角、および照明条件を含む広範囲の条件のもとで、または部分的な遮断またはモーションブラーが存在するなかで、取り込まれる物体を確実に認識できるようにするためにロバストであることが必要な場合がある。他の実施形態では、システム全体がモバイルデバイス上に存在することができ、視覚探索サーバおよび視覚探索サーバ内に存在するデータベースの機能はモバイルデバイスにおいて実施することできる。たとえば、ある現場のデータベースをモバイルデバイスにダウンロードすることができ、図7aにおいて説明された視覚探索サーバ704によって実行される機能、または図7bにおいて説明された視覚探索サーバ724によって実行される機能は、モバイルデバイスにおいて実施することができる。
特徴抽出プロセスは、画像内の顕著な特徴点を識別する。ロバストな画像照合のために、そのような特徴点は、透視変換(スケール変化、回転、および並進など)および照明変動のもとで再現可能である必要がある。スケール不変性を達成するために、特徴点は、画像ピラミッドを使用して複数のスケールにおいて計算することができる。回転不変性を達成するために、各特徴点周囲のパッチは、支配的な勾配の方向に向けられる。各経路内の勾配は、それらの勾配を照明変化に対してロバストにするためにさらに正規化される。
異なる特徴点検出器は、再現性および複雑さにおいて異なるトレードオフを与えることに留意されたい。たとえば、SIFTによって生成されるガウス差分(DoG)点は、計算するのに時間がかかる可能性があるが、高い再現性を有することができ、一方、コーナー検出器手法は、高速である可能性があるが、再現性が低い。再現性と複雑さとの間の良好なトレードオフを達成することができる種々の手法の中には、積分画像を用いて高速化されたヘッシアンブロブ(Hessian-blob)検出器がある。VGA画像に対してこの手法を用いるとき、特徴点検出は、幾つかの現在のモバイル電話では約1秒未満で実行することができる。
特徴点検出の後に、そのような点の周囲の小さい画像パッチを用いて、「視覚ワード」記述子が計算される。特徴記述子を計算する際の1つの課題は、特徴記述子を、画像または小さな1組の画像の特徴を示すほど極めて特徴的にすることである。ほとんどすべての画像で発生する記述子(たとえば、テキスト文書における単語「および」に相当するもの)は、検索にとって有用でないであろう。
一実施態様では、記述子を計算するプロセスは、次のように記述される。
・パッチは、空間的に局在化する幾つか(たとえば5〜9)のビンに分割される。
・その後、各空間ビンにおける結合(dx,dy)勾配ヒストグラムが計算される。CHoGヒストグラムビニングは、キーポイントの周囲で抽出されたパッチに関して観測される勾配統計データにおける典型的なスキューを利用する。
・各空間ビンからの勾配のヒストグラムは量子化され、記述子の一部として記憶される。
画像の特徴を抽出するための上記の実施態様では、種々のスケールにおける特徴点(たとえば、コーナー、ブロブ)が抽出される。種々のスケールにおけるパッチは、最も支配的な勾配に沿って向けられる。記述子は、カノニカルに向けられ、正規化されたパッチを使用して計算される。パッチは、局在化した空間ビンに分割され、特徴点の局在化誤差に対してロバスト性を与える。各空間ビンにおける勾配の分布は、パッチのコンパクトな記述を得るために直接圧縮される。
ヒストグラムを使用することにより、画像特徴間の不一致の程度を評価するために、KL発散などの情報距離指標を利用できるようになる。また、ヒストグラムによれば、簡単に、かつ実効的に符号化できるようになる。幾つかの例では、各パッチを圧縮されたヒストグラムベースの記述子に変換するのに、50ビット〜60ビットしか必要としない場合がある。
局所画像特徴を送信または記憶するモバイル視覚探索システムは、複数組の特徴および特徴場所情報を効率的に符号化する(および/または多重化する)ことが必要な場合がある。また、特徴場所情報は、幾何学的検証のために用いられるとき、符号化されることが必要とされる場合もある。照合精度に関して、1つの手法では、通常、数百個の局所特徴が用いられる。そのような特徴は、通常、空間的に高い相関を有する。特徴位置情報の符号化は、最初にその情報を2Dヒストグラムに量子化し、その後、空間的相関を利用するコンテキストベースの算術符号化技法を使用することによって成し遂げることができる。この技法は、特徴場所情報の十分高い精度の表現をもたらしながら、約5ビット/特徴符号化レートを達成することができる。
最初に特徴場所ヒストグラムを送信し、その後、その場所がヒストグラムを復号化する際に現れる順序で特徴を送信することによって、局所特徴およびその対応する場所一式の符号化を達成することができる。たとえば、ブロック(x,y)が3つの特徴を含むことをヒストグラムが示す場合には、符号器は、3つの対応する記述子のコードをビットストリームにおいて順次に出力することができる。
画像の大規模データベース内の画像の特徴にインデックスを付け、照合するために、開示される実施形態は、問合せ画像と一致する可能性が高いデータベース候補のショートリストを返すデータ構造を使用する。ショートリストは、正しい一致が含まれる限り、誤判定を含む場合がある。その後、データベース全体ではなく、候補のショートリストのみに関して、より時間のかかるペアワイズ比較を実行することができる。
画像データベース内の局所特徴にインデックスを付けるために、種々のデータ構造を利用することができる。1つの手法は、最良ビン優先(best-bin-first)方策によるSIFT記述子の近似最近傍(ANN)探索を使用することである。さらに、バッグ・オブ・フィーチャーズ(BoF:Bag of Features)モデルを使用することができる。BoFコードブックは、記述子のトレーニングセットのk-平均クラスタリングによって構成される。問合せ中に、BoFコードブックに関連付けられる逆ファイルインデックスを用いることによって、データベース画像のスコアリングを実行することができる。大きいコードブックを生成するために、階層型のk-平均クラスタリングを利用して、語彙ツリー(VT)を生成することができる。局所性鋭敏型ハッシュ(LSH)などの他の探索技法および従来のツリーベースの手法の改善形態を用いることもできる。
特徴照合後に、幾何学的検証が実行される。この段階において、問合せ画像およびデータベース画像の特徴の場所情報を用いて、特徴一致が2つの画像間の視点の変化と矛盾しないことを確認する。問合せ画像とデータベース画像との間の幾何学的変換は、回帰技法を使用して推定される。この変換は、通常、3D幾何学モデル、ホモグラフィモデル、またはアフィンモデルを組み込む基本行列によって表される。
段落[0068]〜[0070]、図3、図5a、図6a〜図6cおよびその対応する説明は、デバイスの前向きカメラおよび後向きカメラを起動するための手段と、デバイスの前向きカメラおよび後向きカメラを用いて第1の向きから第1の画像対を取り込むための手段と、デバイスが第2の向きに移動されるのを監視するための手段と、前向きカメラおよび後向きカメラを用いて第2の向きから第2の画像対を取り込むための手段と、および第1の画像対および第2の画像対を用いてデバイスの場所を特定するための手段とを提供することに留意されたい。段落[0068]〜[0070]、図2a〜図2d、図5a、図6a〜図6cおよびその対応する説明は、第1の前方画像および第1の後方画像に関連付けられる場所を結ぶ第1の線を特定するための手段と、第2の前方画像および第2の後方画像に関連付けられる場所を結ぶ第2の線を特定するための手段と、第1の線および第2の線の近似的な交差点を特定するための手段と、近似的な交差点をデバイスの推定場所として識別するための手段とを提供する。段落[0068]〜[0070]、図2a〜図2d、図5a、図6a〜図6c、図7a〜図7bおよびその対応する説明は、第1の前方画像をデータベース内の画像と比較するための手段と、第1の前方画像の近似的な場所を識別するための手段と、第1の後方画像をデータベース内の画像と比較するための手段と、第1の後方画像の近似的な場所を識別するための手段と、第1の前方画像の近似的な場所および第1の後方画像の近似的な場所を用いて第1の線を特定するための手段とを提供する。段落[0068]〜[0070]、図2a〜図2d、図4、図5a、図6a〜図6cおよびその対応する説明は、デバイスの第1の向きに基づいてデータベースから第1の1組の画像を選択するための手段と、第1の前方画像を第1の1組の画像と比較するための手段と、第1の前方画像の近似的な場所に基づいてデータベースから第2の1組の画像を選択するための手段と、第1の後方画像と第2の1組の画像とを比較するための手段を提供する。段落[0068]〜[0070]、図2a〜図2d、図5a、図6a〜図6c、図7a〜図7bおよびその対応する説明は、第2の前方画像をデータベース内の画像と比較するための手段であって、データベースは、ある現場の複数の場所の画像特徴を記憶する、比較するための手段と、第2の前方画像の近似的な場所を識別するための手段と、第2の後方画像をデータベース内の画像と比較するための手段と、第2の後方画像の近似的な場所を識別するための手段と、第2の前方画像の近似的な場所および第2の後方画像の近似的な場所を用いて第2の線を特定するための手段とを提供する。段落[0068]〜[0070]、図4、図5b、図6a〜図6c、図7a〜図7bおよびその対応する説明は、前向きカメラおよび後向きカメラを用いてデバイスの第1の向きから取り込まれた第1の画像対を受信するための手段と、前向きカメラおよび後向きカメラを用いてデバイスの第2の向きから取り込まれた第2の画像対を受信するための手段と、第1の画像対および第2の画像対を用いてデバイスの場所を特定するための手段とを提供することに留意されたい。
本明細書において説明される方法およびモバイルデバイスは、応用形態に応じて種々の手段によって実施することができる。たとえば、これらの方法は、ハードウェア、ファームウェア、ソフトウェア、またはそれらの組合せで実施することができる。ハードウェアの実施態様の場合、処理ユニットは、本明細書で説明される機能を実行するように設計された、1つもしくは複数の特定用途向け集積回路(ASIC)、デジタルシグナルプロセッサ(DSP)、デジタルシグナルプロセシングデバイス(DSPD)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子デバイス、他の電子ユニット、またはそれらの組合せにおいて実現することができる。本明細書において、「制御論理回路」という用語は、ソフトウェア、ハードウェア、ファームウェア、またはそれらの組合せによって実現されるロジックを包含する。
ファームウェアおよび/またはソフトウェアの実施態様の場合、それらの方法は、本明細書において説明される機能を実行するモジュール(たとえば、手順、関数など)によって実施することができる。命令を有形に具現する任意の機械可読媒体を、本明細書において説明される方法を実施する際に用いることができる。たとえば、ソフトウェアコードは、メモリに記憶し、処理ユニットによって実行することができる。メモリは、処理ユニット内に実装することができるか、または処理ユニットの外部に実装することができる。本明細書において用いられるときに、「メモリ」という用語は、長期、短期、揮発性、不揮発性、または他の記憶デバイスのいずれかのタイプを指しており、任意の特定のタイプのメモリもしくはメモリの数には限定されず、またはメモリが格納される媒体のタイプに関して限定されない。
ファームウェアおよび/またはソフトウェアにおいて実施する場合には、それらの機能は、コンピュータ可読媒体上に1つまたは複数の命令またはコードとして記憶することができる。複数の例が、データ構造によって符号化されたコンピュータ可読媒体およびコンピュータプログラムによって符号化されたコンピュータ可読媒体を含む。コンピュータ可読媒体は製品の形をとることができる。コンピュータ可読媒体は、物理的なコンピュータ記憶媒体を含む。記憶媒体は、コンピュータによってアクセスすることができる任意の入手可能な媒体とすることができる。例であって、限定はしないが、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD-ROMもしくは他の光学ディスク記憶装置、磁気ディスク記憶装置もしくは他の磁気記憶デバイス、または、所望のプログラムコードを命令もしくはデータ構造の形式で記憶するために用いることができ、コンピュータによってアクセスすることができる他の任意の媒体を含むことができ、ディスク(disk)およびディスク(disc)は、本明細書で用いられるときに、コンパクトディスク(CD)、レーザーディスク(登録商標)、光ディスク、デジタル多用途ディスク(DVD)、フロッピー(登録商標)ディスクおよびブルーレイディスクを含み、ディスク(disk)は通常データを磁気的に再生し、一方、ディスク(disc)はレーザを用いてデータを光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含まれる場合がある。
コンピュータ可読媒体に記憶するのに加えて、命令および/またはデータは、通信装置に含まれる伝送媒体上の信号として与えることができる。たとえば、通信装置は、命令およびデータを示す信号を有する送受信機を含むことができる。命令およびデータは、1つまたは複数のプロセッサに特許請求の範囲で概説される機能を実施させるように構成される。すなわち、通信装置は、開示される機能を実行するための情報を示す信号を有する伝送媒体を含む。一度目に、通信装置内に含まれる伝送媒体は、開示される機能を実行するための情報の第1の部分を含むことができ、一方、二度目に、通信装置内に含まれる伝送媒体は、開示される機能を実行するための情報の第2の部分を含むことができる。
本開示は、ワイヤレスワイドエリアネットワーク(WWAN)、ワイヤレスローカルエリアネットワーク(WLAN)、ワイヤレスパーソナルエリアネットワーク(WPAN)などの、種々のワイヤレス通信ネットワークとともに実現することができる。「ネットワーク」および「システム」という用語は、しばしば互換的に使用される。「位置」および「場所」という用語は、しばしば互換的に使用される。WWANは、符号分割多元接続(CDMA)ネットワーク、時分割多元接続(TDMA)ネットワーク、周波数分割多元接続(FDMA)ネットワーク、直交周波数分割多元接続(OFDMA)ネットワーク、シングルキャリア周波数分割多元接続(SC-FDMA)ネットワーク、ロングタームエボリューション(LTE:Long Term Evolution)ネットワーク、WiMAX(IEEE802.16)ネットワークなどとすることができる。CDMAネットワークは、cdma2000、広帯域CDMA(W-CDMA)などの1つまたは複数の無線アクセス技術(RAT)を実施することができる。cdma2000は、IS-95規格、IS-2000規格、およびIS-856規格を含む。TDMAネットワークは、移動通信のためのグローバルシステム(GSM(登録商標):Global System for Mobile Communications)、デジタル先進移動電話システム(D-AMPS:Digital Advanced Mobile Phone System)、または何らかの他のRATを実施することができる。GSM(登録商標)およびW-CDMAは、「第3世代パートナーシッププロジェクト」(3GPP)という名称の組織からの文書に記述される。cdma2000は、「第3世代パートナーシッププロジェクト2」(3GPP2)という名称の組織からの文書に記述される。3GPPおよび3GPP2の文書は公的に入手可能である。WLANは、IEEE802.11xネットワークとすることができ、WPANはBluetooth(登録商標)ネットワーク、IEEE802.15x、または何らかの他のタイプのネットワークとすることができる。また、本技法は、WWAN、WLAN、および/またはWPANの任意の組合せとともに実施することができる。
移動局は、セルラー通信デバイスまたは他のワイヤレス通信デバイス、パーソナル通信システム(PCS)デバイス、パーソナルナビゲーションデバイス(PND)、個人情報マネージャ(PIM)、携帯情報端末(PDA)、ラップトップ、あるいはワイヤレス通信および/またはナビゲーション信号を受信することができる他の適切なモバイルデバイスなどのデバイスを指している。また、「移動局」という用語は、そのデバイスまたはパーソナルナビゲーションデバイス(PND)において衛星信号受信が行われるか、アシスタンスデータ受信が行われるか、および/または位置関連処理が行われるかにかかわらず、短距離ワイヤレス接続、赤外線接続、有線接続または他の接続などの、PNDと通信するデバイスを含むことも意図する。また、「移動局」は、そのデバイスにおいて、サーバにおいて、またはネットワークに関連付けられる別のデバイスにおいて、衛星信号受信が行われるか、アシスタンスデータ受信が行われるか、および/または位置関連処理が行われるかにかかわらず、インターネット、Wi-Fi、または他のネットワークなどを介してサーバとの通信が可能である、ワイヤレス通信デバイス、コンピュータ、ラップトップなどを含むすべてのデバイスを含むことを意図する。上記の任意の動作可能な組合せも「移動局」と見なされる。
何かが「最適化される」、「必要とされる」という指摘または他の指摘は、最適化されるシステム、または「必要とされる」要素が存在するシステムのみに本開示が適用されること(または他の指摘に起因する他の制限)を示すものではない。これらの指摘は、特定の説明された実施態様のみを指している。当然、多くの実施態様が可能である。本技法は、開発中であるか今後開発されるプロトコルを含む、本明細書で論じられるプロトコル以外のプロトコルとともに使用することができる。
同じ基本的な根底をなす機構および方法を依然として使用しながら、開示される実施形態の多くの可能な変更および組合せを使用できることを、当業者は認識されよう。上記の説明は、説明の目的で、特定の実施形態を参照しながら記述されてきた。しかしながら、上記の例示的な論述は網羅することを意図するものではなく、または本開示を開示された厳密な形態に限定することを意図するものではない。多くの変更および変形が、上記の教示に鑑みて可能である。本開示の原理および実際の応用形態を説明するために、また、意図される特定の用途に合わせて種々の変更を加えて、本開示および種々の実施形態を他の当業者が最善の形で利用できるように、それらの実施形態が選択され、説明された。
502 アンテナ
504 モデム
506 RXデータプロセッサ
508 コントローラ/プロセッサ
510 TXデータプロセッサ
512 メモリ
514 デュアルカメラ支援モジュール
516 画像取込モジュール
518 前方カメラ、前向きカメラ
520 後方カメラ、後向きカメラ
522 センサ
524 加速度計
526 ジャイロスコープ
528 磁力計
530 サーバ
532 プロセッサ
534 ネットワークインターフェース
536 データベース
538 デュアルカメラ位置決めモジュール
540 メモリ

Claims (43)

  1. デバイスの場所を特定するための方法であって、
    前記デバイスの前向きカメラおよび後向きカメラを起動するステップと、
    前記前向きカメラおよび前記後向きカメラを用いて第1の向きから第1の画像対を取り込むステップであって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、取り込むステップと、
    前記デバイスが第2の向きに回転されるのを監視するステップと、
    前記前向きカメラおよび前記後向きカメラを用いて前記第2の向きから第2の画像対を取り込むステップであって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、取り込むステップと、
    前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するステップとを含む、方法。
  2. 前記デバイスの前向きカメラおよび後向きカメラを起動するステップは、
    前記デバイスの前記前向きカメラおよび前記後向きカメラをジェスチャで起動するステップを含み、前記ジェスチャは前記デバイスの1つまたは複数のユーザ定義による動きを適用することを含む、請求項1に記載の方法。
  3. 第1の画像対を取り込むステップは、
    前記第1の画像対を同時に取り込むステップを含む、請求項1に記載の方法。
  4. 第1の画像対を取り込むステップは、
    前記第1の画像対を所定の期間内に取り込むステップをさらに含む、請求項1に記載の方法。
  5. 加速度計、ジャイロスコープおよび磁力計のうちの少なくとも1つを用いて前記第1の向きおよび前記第2の向きの情報を求めるステップをさらに含む、請求項1に記載の方法。
  6. 前記デバイスの場所を特定するステップは、
    前記第1の前方画像および前記第1の後方画像に関連付けられる場所を結ぶ第1の線を特定するステップと、
    前記第2の前方画像および前記第2の後方画像に関連付けられる場所を結ぶ第2の線を特定するステップと、
    前記第1の線および前記第2の線の近似的な交差点を求めるステップと、
    前記近似的な交差点を前記デバイスの推定場所として識別するステップとを含む、請求項1に記載の方法。
  7. 第1の線を特定するステップは、
    前記第1の前方画像をデータベース内の画像と比較するステップであって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するステップと、
    前記第1の前方画像の近似的な場所を識別するステップと、
    前記第1の後方画像を前記データベース内の前記画像と比較するステップと、
    前記第1の後方画像の近似的な場所を識別するステップと、
    前記第1の前方画像の前記近似的な場所および前記第1の後方画像の前記近似的な場所を用いて前記第1の線を特定するステップとを含む、請求項6に記載の方法。
  8. 前記第1の前方画像を比較するステップは、
    前記デバイスの前記第1の向きに基づいて前記データベースから第1の1組の画像を選択するステップであって、前記第1の1組の画像は前記前向きカメラの視野内の領域をカバーする、選択するステップと、
    前記第1の前方画像を前記第1の1組の画像と比較するステップとを含む、請求項7に記載の方法。
  9. 前記第1の後方画像を比較するステップは、
    前記第1の前方画像の前記近似的な場所に基づいて前記データベースから第2の1組の画像を選択するステップであって、前記第2の1組の画像は前記第1の前方画像の前記近似的な場所の反対側の領域をカバーする、選択するステップと、
    前記第1の後方画像を前記第2の1組の画像と比較するステップとを含む、請求項7に記載の方法。
  10. 第2の線を特定するステップは、
    前記第2の前方画像をデータベース内の画像と比較するステップであって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するステップと、
    前記第2の前方画像の近似的な場所を識別するステップと、
    前記第2の後方画像を前記データベース内の前記画像と比較するステップと、
    前記第2の後方画像の近似的な場所を識別するステップと、
    前記第2の前方画像の前記近似的な場所および前記第2の後方画像の前記近似的な場所を用いて前記第2の線を特定するステップとを含む、請求項6に記載の方法。
  11. 前記推定場所を位置決めエンジンに送るステップと、
    前記位置決めエンジンにおいて、前記推定場所を用いて前記デバイスの最終的な場所を特定するステップとをさらに含む、請求項6に記載の方法。
  12. 1つまたは複数のコンピュータシステムによって実行され、デバイスの場所を特定するためのコンピュータプログラムであって、
    前記デバイスの前向きカメラおよび後向きカメラを起動するためのコードと、
    前記前向きカメラおよび前記後向きカメラを用いて第1の向きから第1の画像対を取り込むためのコードであって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、取り込むためのコードと、
    前記デバイスが第2の向きに移動されるのを監視するためのコードと、
    前記前向きカメラおよび前記後向きカメラを用いて前記第2の向きから第2の画像対を取り込むためのコードであって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、取り込むためのコードと、
    前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するためのコードとを含む、コンピュータプログラム。
  13. 前記デバイスの前向きカメラおよび後向きカメラを起動するためのコードは、
    ジェスチャで前記デバイスの前記前向きカメラおよび前記後向きカメラを起動するためのコードを含み、前記ジェスチャは前記デバイスの1つまたは複数のユーザ定義による動きを適用することを含む、請求項12に記載のコンピュータプログラム。
  14. 第1の画像対を取り込むためのコードは、
    前記第1の画像対を同時に取り込むためのコードを含む、請求項12に記載のコンピュータプログラム。
  15. 第1の画像対を取り込むためのコードは、
    前記第1の画像対を所定の期間内に取り込むためのコードをさらに含む、請求項12に記載のコンピュータプログラム。
  16. 加速度計、ジャイロスコープおよび磁力計のうちの少なくとも1つを用いて前記第1の向きおよび前記第2の向きの情報を求めるためのコードをさらに含む、請求項12に記載のコンピュータプログラム。
  17. 前記デバイスの場所を特定するためのコードは、
    前記第1の前方画像および前記第1の後方画像に関連付けられる場所を結ぶ第1の線を特定するためのコードと、
    前記第2の前方画像および前記第2の後方画像に関連付けられる場所を結ぶ第2の線を特定するためのコードと、
    前記第1の線および前記第2の線の近似的な交差点を求めるためのコードと、
    前記近似的な交差点を前記デバイスの推定場所として識別するためのコードとを含む、請求項12に記載のコンピュータプログラム。
  18. 第1の線を特定するためのコードは、
    前記第1の前方画像をデータベース内の画像と比較するためのコードであって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するためのコードと、
    前記第1の前方画像の近似的な場所を識別するためのコードと、
    前記第1の後方画像を前記データベース内の前記画像と比較するためのコードと、
    前記第1の後方画像の近似的な場所を識別するためのコードと、
    前記第1の前方画像の前記近似的な場所および前記第1の後方画像の前記近似的な場所を用いて前記第1の線を特定するためのコードとを含む、請求項17に記載のコンピュータプログラム。
  19. 前記第1の前方画像を比較するためのコードは、
    前記デバイスの前記第1の向きに基づいて前記データベースから第1の1組の画像を選択するためのコードであって、前記第1の1組の画像は前記前向きカメラの視野内に領域をカバーする、選択するためのコードと、
    前記第1の前方画像を前記第1の1組の画像と比較するためのコードとを含む、請求項18に記載のコンピュータプログラム。
  20. 前記第1の後方画像を比較するためのコードは、
    前記第1の前方画像の前記近似的な場所に基づいて前記データベースから第2の1組の画像を選択するためのコードであって、前記第2の1組の画像は前記第1の前方画像の前記近似的な場所の反対側の領域をカバーする、選択するためのコードと、
    前記第1の後方画像を前記第2の1組の画像と比較するためのコードとを含む、請求項18に記載のコンピュータプログラム。
  21. 第2の線を特定するためのコードは、
    前記第2の前方画像をデータベース内の画像と比較するためのコードであって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するためのコードと、
    前記第2の前方画像の近似的な場所を識別するためのコードと、
    前記第2の後方画像を前記データベース内の前記画像と比較するためのコードと、
    前記第2の後方画像の近似的な場所を識別するためのコードと、
    前記第2の前方画像の前記近似的な場所および第2の後方画像の前記近似的な場所を用いて前記第2の線を特定するためのコードとを含む、請求項17に記載のコンピュータプログラム。
  22. 前記推定場所を位置決めエンジンに送るためのコードと、
    前記位置決めエンジンにおいて、前記推定場所を用いて、前記デバイスの最終的な場所を特定するためのコードとをさらに含む、請求項17に記載のコンピュータプログラム。
  23. 1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサとともに機能するデュアルカメラ支援モジュールであって、
    デバイスの前向きカメラおよび後向きカメラを起動するためのロジックと、
    前記前向きカメラおよび前記後向きカメラを用いて前記デバイスの第1の向きから第1の画像対を取り込むためのロジックであって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、取り込むためのロジックと、
    前記デバイスが第2の向きに移動されるのを監視するためのロジックと、
    前記前向きカメラおよび前記後向きカメラを用いて前記第2の向きから第2の画像対を取り込むためのロジックであって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、取り込むためのロジックと、
    前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するためのロジックとを含む、デュアルカメラ支援モジュールと、
    前記デバイスの前記場所を記憶するように構成されるメモリとを備える、デバイス。
  24. 前記デバイスの前向きカメラおよび後向きカメラを起動するためのロジックは、
    前記デバイスの前記前向きカメラおよび前記後向きカメラをジェスチャで起動するステップを含み、前記ジェスチャは前記デバイスの1つまたは複数のユーザ定義による動きを適用することを含む、請求項23に記載のデバイス。
  25. 第1の画像対を取り込むためのロジックは、
    前記第1の画像対を同時に取り込むためのロジックを含む、請求項23に記載のデバイス。
  26. 第1の画像対を取り込むためのロジックは、
    前記第1の画像対を所定の期間内に取り込むためのロジックをさらに含む、請求項23に記載のデバイス。
  27. 加速度計、ジャイロスコープおよび磁力計のうちの少なくとも1つを用いて前記第1の向きおよび前記第2の向きの情報を求めるためのロジックをさらに含む、請求項23に記載のデバイス。
  28. 前記デバイスの場所を特定するためのロジックは、
    前記第1の前方画像および前記第1の後方画像に関連付けられる場所を結ぶ第1の線を特定するためのロジックと、
    前記第2の前方画像および前記第2の後方画像に関連付けられる場所を結ぶ第2の線を特定するためのロジックと、
    前記第1の線および前記第2の線の近似的な交差点を特定するためのロジックと、
    前記近似的な交差点を前記デバイスの推定場所として識別するためのロジックとを含む、請求項23に記載のデバイス。
  29. 前記第1の線を特定するためのロジックは、
    前記第1の前方画像をデータベース内の画像と比較するためのロジックであって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するためのロジックと、
    前記第1の前方画像の近似的な場所を識別するためのロジックと、
    前記第1の後方画像を前記データベース内の前記画像と比較するためのロジックと、
    前記第1の後方画像の近似的な場所を識別するためのロジックと、
    前記第1の前方画像の前記近似的な場所および前記第1の後方画像の前記近似的な場所を用いて前記第1の線を特定するためのロジックとを含む、請求項28に記載のデバイス。
  30. 前記第1の前方画像を比較するためのロジックは、
    前記デバイスの前記第1の向きに基づいて前記データベースから第1の1組の画像を選択するためのロジックであって、前記第1の1組の画像は前記前向きカメラの視野内の領域をカバーする、選択するためのロジックと、
    前記第1の前方画像を前記第1の1組の画像と比較するためのロジックとを含む、請求項29に記載のデバイス。
  31. 前記第1の後方画像を比較するためのロジックは、
    前記第1の前方画像の前記近似的な場所に基づいて前記データベースから第2の1組の画像を選択するためのロジックであって、前記第2の1組の画像は前記第1の前方画像の前記近似的な場所の反対側の領域をカバーする、選択するためのロジックと、
    前記第1の後方画像を前記第2の1組の画像と比較するためのロジックとを含む、請求項29に記載のデバイス。
  32. 第2の線を特定するためのロジックは、
    前記第2の前方画像をデータベース内の画像と比較するためのロジックであって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するためのロジックと、
    前記第2の前方画像の近似的な場所を識別するためのロジックと、
    前記第2の後方画像を前記データベース内の前記画像と比較するためのロジックと、
    前記第2の後方画像の近似的な場所を識別するためのロジックと、
    前記第2の前方画像の前記近似的な場所および前記第2の後方画像の前記近似的な場所を用いて前記第2の線を特定するためのロジックとを含む、請求項28に記載のデバイス。
  33. 前記推定場所を位置決めエンジンに送るためのロジックと、
    前記位置決めエンジンにおいて、前記推定場所を用いて、前記デバイスの最終的な場所を特定するためのロジックとをさらに含む、請求項28に記載のデバイス。
  34. デバイスの場所を特定するためのシステムであって、
    1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサとともに機能するデュアルカメラ支援モジュールであって、
    前記デバイスの前向きカメラおよび後向きカメラを起動するための手段と、
    前記前向きカメラおよび前記後向きカメラを用いて第1の向きから第1の画像対を取り込むための手段であって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、取り込むための手段と、
    前記デバイスが第2の向きに移動されるのを監視するための手段と、
    前記前向きカメラおよび前記後向きカメラを用いて前記第2の向きから第2の画像対を取り込むための手段であって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、取り込むための手段と、
    前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するための手段とを含む、デュアルカメラ支援モジュールと、
    前記デバイスの前記場所を記憶するように構成されるメモリとを備える、システム。
  35. 前記デバイスの場所を特定するための手段は、
    前記第1の前方画像および前記第1の後方画像に関連付けられる場所を結ぶ第1の線を特定するための手段と、
    前記第2の前方画像および前記第2の後方画像に関連付けられる場所を結ぶ第2の線を特定するための手段と、
    前記第1の線および前記第2の線の近似的な交差点を特定するための手段と、
    前記近似的な交差点を前記デバイスの推定場所として識別するための手段とを備える、請求項34に記載のシステム。
  36. 第1の線を特定するための手段は、
    前記第1の前方画像をデータベース内の画像と比較するための手段であって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するための手段と、
    前記第1の前方画像の近似的な場所を識別するための手段と、
    前記第1の後方画像を前記データベース内の前記画像と比較するための手段と、
    前記第1の後方画像の近似的な場所を識別するための手段と、
    前記第1の前方画像の前記近似的な場所および前記第1の後方画像の前記近似的な場所を用いて、前記第1の線を特定するための手段とを備える、請求項35に記載のシステム。
  37. 前記第1の前方画像を比較するための手段は、
    前記デバイスの前記第1の向きに基づいて前記データベースから第1の1組の画像を選択するための手段であって、前記第1の1組の画像は前記前向きカメラの視野内の領域をカバーする、選択するための手段と、
    前記第1の前方画像を前記第1の1組の画像と比較するための手段とを備える、請求項36に記載のシステム。
  38. 前記第1の後方画像を比較するための手段は、
    前記第1の前方画像の前記近似的な場所に基づいて前記データベースから第2の1組の画像を選択するための手段であって、前記第2の1組の画像は前記第1の前方画像の前記近似的な場所の反対側の領域をカバーする、選択するための手段と、
    前記第1の後方画像を前記第2の1組の画像と比較するための手段とを備える、請求項36に記載のシステム。
  39. 第2の線を特定するための手段は、
    前記第2の前方画像をデータベース内の画像と比較するための手段であって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するための手段と、
    前記第2の前方画像の近似的な場所を識別するための手段と、
    前記第2の後方画像を前記データベース内の前記画像と比較するための手段と、
    前記第2の後方画像の近似的な場所を識別するための手段と、
    前記第2の前方画像の前記近似的な場所および前記第2の後方画像の前記近似的な場所を用いて前記第2の線を特定するための手段とを備える、請求項35に記載のシステム。
  40. デバイスの場所を特定するための方法であって、
    前向きカメラおよび後向きカメラを用いて前記デバイスの第1の向きから取り込まれた第1の画像対を受信するステップであって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、受信するステップと、
    前記前向きカメラおよび前記後向きカメラを用いて前記デバイスの第2の向きから取り込まれた第2の画像対を受信するステップであって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、受信するステップと、
    前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するステップとを含む、方法。
  41. 1つまたは複数のコンピュータシステムによって実行され、デバイスの場所を特定するためのコンピュータプログラムであって、
    前向きカメラおよび後向きカメラを用いて前記デバイスの第1の向きから取り込まれた第1の画像対を受信するためのコードであって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、受信するためのコードと、
    前記前向きカメラおよび前記後向きカメラを用いて前記デバイスの第2の向きから取り込まれた第2の画像対を受信するためのコードであって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、受信するためのコードと、
    前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するためのコードとを含む、コンピュータプログラム。
  42. 1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサとともに機能するように構成されるデュアルカメラ位置決めモジュールであって、
    前向きカメラおよび後向きカメラを用いてデバイスの第1の向きから取り込まれた第1の画像対を受信するためのロジックであって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、受信するためのロジックと、
    前記前向きカメラおよび前記後向きカメラを用いて前記デバイスの第2の向きから取り込まれた第2の画像対を受信するためのロジックであって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、受信するためのロジックと、
    前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するためのロジックとを含む、デュアルカメラ位置決めモジュールと、
    前記デバイスの前記場所を記憶するように構成されるメモリとを備える、サーバ。
  43. デバイスの場所を特定するためのシステムであって、
    1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサとともに機能するように構成されるデュアルカメラ位置決めモジュールであって、
    前向きカメラおよび後向きカメラを用いて前記デバイスの第1の向きから取り込まれた第1の画像対を受信するための手段であって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、受信するための手段と、
    前記前向きカメラおよび前記後向きカメラを用いて前記デバイスの第2の向きから取り込まれた第2の画像対を受信するための手段であって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、受信するための手段と、
    前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するための手段とを含む、デュアルカメラ位置決めモジュールと、
    前記デバイスの前記場所を記憶するように構成されるメモリとを備える、システム。
JP2014554773A 2012-01-27 2013-01-22 反対向きのカメラを用いてデバイスの場所を特定するためのシステムおよび方法 Expired - Fee Related JP6151278B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/360,372 2012-01-27
US13/360,372 US9986208B2 (en) 2012-01-27 2012-01-27 System and method for determining location of a device using opposing cameras
PCT/US2013/022527 WO2013112461A1 (en) 2012-01-27 2013-01-22 System and method for determining location of a device using opposing cameras

Publications (3)

Publication Number Publication Date
JP2015513235A true JP2015513235A (ja) 2015-04-30
JP2015513235A5 JP2015513235A5 (ja) 2016-03-10
JP6151278B2 JP6151278B2 (ja) 2017-06-21

Family

ID=47624428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014554773A Expired - Fee Related JP6151278B2 (ja) 2012-01-27 2013-01-22 反対向きのカメラを用いてデバイスの場所を特定するためのシステムおよび方法

Country Status (7)

Country Link
US (2) US9986208B2 (ja)
EP (1) EP2807453B1 (ja)
JP (1) JP6151278B2 (ja)
KR (1) KR20140121861A (ja)
CN (1) CN104067091B (ja)
IN (1) IN2014MN01545A (ja)
WO (1) WO2013112461A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018185182A (ja) * 2017-04-25 2018-11-22 東京電力ホールディングス株式会社 位置特定装置

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10015449B2 (en) 2013-10-11 2018-07-03 Stmicroelectronics, Inc. Method and apparatus for managing provisioning of an imaging system
US9986208B2 (en) 2012-01-27 2018-05-29 Qualcomm Incorporated System and method for determining location of a device using opposing cameras
WO2013115202A1 (ja) * 2012-01-30 2013-08-08 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
CN103364774A (zh) * 2012-04-02 2013-10-23 深圳富泰宏精密工业有限公司 基于WiFi直连的邻近设备定位***及方法
WO2013162585A1 (en) * 2012-04-26 2013-10-31 Intel Corporation Multiple lenses in a mobile device
CN103630130A (zh) * 2012-08-23 2014-03-12 环达电脑(上海)有限公司 基于位基服务的导航***及其导航显示方法
US9074892B2 (en) * 2013-03-15 2015-07-07 Ian Michael Fink System and method of determining a position of a remote object
US9589189B2 (en) * 2013-05-23 2017-03-07 Cellco Partnership Device for mapping physical world with virtual information
US10670402B2 (en) * 2013-11-01 2020-06-02 Invensense, Inc. Systems and methods for optical sensor navigation
US20150138314A1 (en) * 2013-11-20 2015-05-21 Google Inc. Generating Panoramic Images
CN104936283B (zh) * 2014-03-21 2018-12-25 中国电信股份有限公司 室内定位方法、服务器和***
US9684831B2 (en) * 2015-02-18 2017-06-20 Qualcomm Incorporated Adaptive edge-like feature selection during object detection
DE102015007624A1 (de) * 2015-06-16 2016-12-22 Liebherr-Components Biberach Gmbh Verfahren zum Montieren von elektrischen Schaltanlagen sowie Montagehilfsvorrichtung zum Erleichtern der Montage solcher Schaltanlagen
US10088318B2 (en) * 2015-08-27 2018-10-02 Qualcomm Incorporated Cradle rotation insensitive inertial navigation
US9349414B1 (en) * 2015-09-18 2016-05-24 Odile Aimee Furment System and method for simultaneous capture of two video streams
CN105282440B (zh) * 2015-09-29 2018-11-09 联想(北京)有限公司 一种图像处理方法及电子设备
CN105352484B (zh) * 2015-10-12 2017-03-01 北京林业大学 一种地面摄影单像解析计算的方法
US9789403B1 (en) 2016-06-14 2017-10-17 Odile Aimee Furment System for interactive image based game
US10996060B2 (en) 2016-08-26 2021-05-04 William Marsh Rice University Camera-based positioning system using learning
US9813150B1 (en) * 2016-09-23 2017-11-07 Qualcomm Incorporated Controllable selection of light-capture devices
JP7133554B2 (ja) 2016-12-07 2022-09-08 マジック アイ インコーポレイテッド 焦点調整可能な画像センサを含む距離センサ
US10663298B2 (en) * 2017-06-25 2020-05-26 Invensense, Inc. Method and apparatus for characterizing platform motion
US10740612B2 (en) * 2017-07-20 2020-08-11 International Business Machines Corporation Location determination
EP3692501A4 (en) * 2017-10-08 2021-07-07 Magik Eye Inc. CALIBRATION OF A SENSOR SYSTEM INCLUDING MULTIPLE MOBILE SENSORS
KR20200054326A (ko) 2017-10-08 2020-05-19 매직 아이 인코포레이티드 경도 그리드 패턴을 사용한 거리 측정
WO2019182871A1 (en) 2018-03-20 2019-09-26 Magik Eye Inc. Adjusting camera exposure for three-dimensional depth sensing and two-dimensional imaging
WO2019182881A1 (en) 2018-03-20 2019-09-26 Magik Eye Inc. Distance measurement using projection patterns of varying densities
CN112513565B (zh) 2018-06-06 2023-02-10 魔眼公司 使用高密度投影图案的距离测量
WO2020033169A1 (en) 2018-08-07 2020-02-13 Magik Eye Inc. Baffles for three-dimensional sensors having spherical fields of view
WO2020150131A1 (en) 2019-01-20 2020-07-23 Magik Eye Inc. Three-dimensional sensor including bandpass filter having multiple passbands
US11474209B2 (en) 2019-03-25 2022-10-18 Magik Eye Inc. Distance measurement using high density projection patterns
WO2020231747A1 (en) 2019-05-12 2020-11-19 Magik Eye Inc. Mapping three-dimensional depth map data onto two-dimensional images
US11320537B2 (en) 2019-12-01 2022-05-03 Magik Eye Inc. Enhancing triangulation-based three-dimensional distance measurements with time of flight information
CN114830190A (zh) 2019-12-29 2022-07-29 魔眼公司 将三维坐标与二维特征点相关联
JP2023510738A (ja) 2020-01-05 2023-03-15 マジック アイ インコーポレイテッド 3次元カメラの座標系を2次元カメラの入射位置に移動させる方法
CN117036663B (zh) * 2022-04-18 2024-07-09 荣耀终端有限公司 视觉定位方法、设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5699444A (en) * 1995-03-31 1997-12-16 Synthonics Incorporated Methods and apparatus for using image data to determine camera location and orientation
US5870136A (en) * 1997-12-05 1999-02-09 The University Of North Carolina At Chapel Hill Dynamic generation of imperceptible structured light for tracking and acquisition of three dimensional scene geometry and surface characteristics in interactive three dimensional computer graphics applications
JP2003111128A (ja) * 2001-09-28 2003-04-11 J-Phone East Co Ltd 現在位置特定方法、現在位置情報提供方法、移動経路案内方法、位置情報管理システム及び情報通信端末
JP2004191339A (ja) * 2002-12-13 2004-07-08 Sharp Corp 位置情報検索方法、位置情報検索装置、位置情報検索端末、及び、位置情報検索システム
JP2008502206A (ja) * 2004-06-04 2008-01-24 エレクトロニック アーツ インコーポレイテッド デュアル・カメラ入力を用いたセンサ

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5259037A (en) * 1991-02-07 1993-11-02 Hughes Training, Inc. Automated video imagery database generation using photogrammetry
US7508444B1 (en) * 1998-01-22 2009-03-24 Eastman Kodak Company Electronic camera with quick view and quick erase features
US6895126B2 (en) * 2000-10-06 2005-05-17 Enrico Di Bernardo System and method for creating, storing, and utilizing composite images of a geographic location
US6990219B2 (en) * 2000-12-15 2006-01-24 Nippon Telegraph And Telephone Corporation Image capturing method and apparatus and fingerprint collation method and apparatus
US7619683B2 (en) 2003-08-29 2009-11-17 Aptina Imaging Corporation Apparatus including a dual camera module and method of using the same
WO2006035476A1 (ja) 2004-09-27 2006-04-06 Mitsubishi Denki Kabushiki Kaisha 位置特定サーバ及び移動体端末
US20070024701A1 (en) * 2005-04-07 2007-02-01 Prechtl Eric F Stereoscopic wide field of view imaging system
US7860276B2 (en) 2005-12-08 2010-12-28 Topcon Corporation Image processing device and method
JP4764305B2 (ja) * 2006-10-02 2011-08-31 株式会社東芝 立体画像生成装置、方法およびプログラム
JP2009145061A (ja) * 2007-12-11 2009-07-02 Mitsubishi Electric Corp 位置計測装置
JP4831434B2 (ja) * 2007-12-27 2011-12-07 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集プログラム、並びに自車位置認識装置及びナビゲーション装置
WO2010022129A1 (en) * 2008-08-20 2010-02-25 Xcard Holdings Llc Secure smart card system
US8483715B2 (en) 2009-03-26 2013-07-09 Yahoo! Inc. Computer based location identification using images
US8509488B1 (en) * 2010-02-24 2013-08-13 Qualcomm Incorporated Image-aided positioning and navigation system
US8384770B2 (en) * 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US9031809B1 (en) * 2010-07-14 2015-05-12 Sri International Method and apparatus for generating three-dimensional pose using multi-modal sensor fusion
US9392102B2 (en) * 2011-08-23 2016-07-12 Samsung Electronics Co., Ltd. Apparatus and method for providing panoramic view during video telephony and video messaging
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
WO2013029674A1 (en) 2011-08-31 2013-03-07 Metaio Gmbh Method of matching image features with reference features
WO2013029675A1 (en) 2011-08-31 2013-03-07 Metaio Gmbh Method for estimating a camera motion and for determining a three-dimensional model of a real environment
US9986208B2 (en) 2012-01-27 2018-05-29 Qualcomm Incorporated System and method for determining location of a device using opposing cameras

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5699444A (en) * 1995-03-31 1997-12-16 Synthonics Incorporated Methods and apparatus for using image data to determine camera location and orientation
US5870136A (en) * 1997-12-05 1999-02-09 The University Of North Carolina At Chapel Hill Dynamic generation of imperceptible structured light for tracking and acquisition of three dimensional scene geometry and surface characteristics in interactive three dimensional computer graphics applications
JP2003111128A (ja) * 2001-09-28 2003-04-11 J-Phone East Co Ltd 現在位置特定方法、現在位置情報提供方法、移動経路案内方法、位置情報管理システム及び情報通信端末
JP2004191339A (ja) * 2002-12-13 2004-07-08 Sharp Corp 位置情報検索方法、位置情報検索装置、位置情報検索端末、及び、位置情報検索システム
JP2008502206A (ja) * 2004-06-04 2008-01-24 エレクトロニック アーツ インコーポレイテッド デュアル・カメラ入力を用いたセンサ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018185182A (ja) * 2017-04-25 2018-11-22 東京電力ホールディングス株式会社 位置特定装置

Also Published As

Publication number Publication date
IN2014MN01545A (ja) 2015-05-08
EP2807453B1 (en) 2017-03-15
EP2807453A1 (en) 2014-12-03
CN104067091B (zh) 2017-02-22
CN104067091A (zh) 2014-09-24
US9986208B2 (en) 2018-05-29
WO2013112461A1 (en) 2013-08-01
US20130194428A1 (en) 2013-08-01
US20140354822A1 (en) 2014-12-04
KR20140121861A (ko) 2014-10-16
JP6151278B2 (ja) 2017-06-21

Similar Documents

Publication Publication Date Title
JP6151278B2 (ja) 反対向きのカメラを用いてデバイスの場所を特定するためのシステムおよび方法
US9031283B2 (en) Sensor-aided wide-area localization on mobile devices
EP3100210B1 (en) Dynamically updating a feature database that contains features corresponding to a known target object
CN105009120B (zh) 基于客户端-服务器的动态搜索
Chen et al. City-scale landmark identification on mobile devices
JP5946924B2 (ja) シーン構造ベース自己姿勢推定
JP5660648B2 (ja) マルチユーザ拡張現実におけるオンライン参照生成および追跡
US9400941B2 (en) Method of matching image features with reference features
US20150371440A1 (en) Zero-baseline 3d map initialization
JP2014533867A (ja) 3次元物体の追跡
US20150098616A1 (en) Object recognition and map generation with environment references
US11276201B1 (en) Localizing an augmented reality device
TW201142749A (en) Orientation determination of a mobile station using side and top view images
US20150095360A1 (en) Multiview pruning of feature database for object recognition system
JP6393000B2 (ja) 3dマップに関する仮説的ラインマッピングおよび検証
Koh Smart navigation system-mobile navigation client development

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170524

R150 Certificate of patent or registration of utility model

Ref document number: 6151278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees