JP2016500169A - アノテーション方法および装置 - Google Patents
アノテーション方法および装置 Download PDFInfo
- Publication number
- JP2016500169A JP2016500169A JP2015534916A JP2015534916A JP2016500169A JP 2016500169 A JP2016500169 A JP 2016500169A JP 2015534916 A JP2015534916 A JP 2015534916A JP 2015534916 A JP2015534916 A JP 2015534916A JP 2016500169 A JP2016500169 A JP 2016500169A
- Authority
- JP
- Japan
- Prior art keywords
- data
- plenoptic
- captured
- program code
- light field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/21—Intermediate information storage
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
− プレノプティック(plenoptic)キャプチャデバイスでライトフィールド(light field)を表わすデータをキャプチャするステップと;
− キャプチャされたデータを対応する基準データとマッチングするためのプログラムコードを実行するステップと;
− 前記基準データの一要素と結びつけられたアノテーションをリトリーブするためのプログラムコードを実行するステップと;
− 前記キャプチャされたデータから生成され少なくとも1つのアノテーションを含むビューをレンダリングするためのプログラムコードを実行するステップと;
を含む方法を介して達成される。
シーンに対応するデータをキャプチャしアノテートするための装置であって、
− ライトフィールドを表わすデータをキャプチャするためのプレノプティックカメラと;
− プロセッサと;
− ディスプレイと;
− プログラムコードであって、前記プログラムコードが実行された時に、前記プロセッサに、前記カメラでキャプチャされたデータの一要素に結びつけられたアノテーションをリトリーブさせるための、および、キャプチャされたデータから生成され、少なくとも1つのアノテーションを含むビューを前記ディスプレイ上にレンダリングするための、プログラムコードと;
を含む装置を介して達成される。
− プロセッサと;
− ストアと;
− プログラムコードであって、前記プログラムコードが実行された時に前記プロセッサに、ライトフィールドを表わすデータを受信させ、前記データを前記ストア内の一つの基準データとマッチングさせ、前記基準データと結びつけられたアノテーションを決定させ、そして遠隔デバイスに対して前記アノテーションを送信させるための、プログラムコードと;
を含む装置をも提供する。
− ライトフィールドを表わすデータをデバイスから受信すること;
− プレノプティックフォーマットでモデルおよび/または複数の基準データをリトリーブすること;
− ユーザーデバイスから受信したデータを、前記モデルの一部分と、または複数の基準データの中の1つとそれぞれ、マッチングすること;
− モデル結びつけられた、または複数の基準データの中の1つとそれぞれ結びつけられたアノテーションを決定すること;
− デバイスに対して、受信データに対応する、アノテーション、アノテートされた画像またはアノテートされたデータを送ること。
一実施形態において、サーバー5のストレージ50内で、ライトフィールドを表わす既知でかつ前にキャプチャされた基準データセットのコレクション、例えばプレノプティックカメラで前にキャプチャされたかまたは3Dモデルからコンバートされた基準データのコレクションが入手可能である。この場合、適切なレジストレーションが可能になる前に、マッチングデータは基準データのセットから認識されなければならない。マッチング基準データとのレジストレーションが行われるのは、その後でしかない。
ステップ100:アノテートすべきライトフィールドがユーザーデバイス4内でプレノプティックカメラ41によりキャプチャされるか、または、ライトフィールドデータの任意の考えられるソースからリトリーブされる。キャプチャされたプレノプティックライトフィールドの2D投影がユーザーデバイス4の2Dディスプレイ40上に表示されてよいが、データは好ましくは、ライトフィールドデータとして、すなわち各サブ画像上の入射光線の方向についての情報を失なうことなく記憶される。
ステップ101:基準データをキャプチャするために使用されるプレノプティックカメラが、アノテートすべきライトフィールドデータをキャプチャするために使用されるプレノプティックカメラと同じタイプのものでない場合には、プロセスは、いずれか一方のデータを他方のデータのフォーマットにコンバートまたはリサンプリングするステップ101を含んでいてよい。例えば異なるプレノプティックカメラが、各サブ画像内に異なる数のピクセルを有するライトフィールドデータを生成するかまたは、異なる方法でライトフィールドをサンプリングしてもよい。このコンバージョンは、ユーザーデバイス4および/または遠隔サーバー5内で行うことができてよい。
ステップ102:キャプチャされたデータ内のローカルフィーチャの検出。以下で記述するように、例えば、DPF(depth plenoptic feature:深さプレノプティックフィーチャ)アルゴリズムにしたがうことによってか、またはライトフィールド内に含まれる視差情報(disparity information)を使用することによってか、あるいは、エピポーラボリューム(epipolar volume)でライトフィールドを表現することによって、検出を行うことができる。他の検出方法および他のタイプのローカルフィーチャを使用してもよい。使用されるローカルフィーチャのタイプおよび検出方法は、シーン、場所、ユーザーの選択などによって左右される可能性がある。
ステップ103:キャプチャデータ内で検出されたこれらのローカルフィーチャの記述。先行ステップの間に検出されたローカルフィーチャのタイプに応じて、例えば、以下で説明するように、バイナリーベクトル、またはエピポーラボリュームでの視差またはローカルフィーチャ点の記述によりうまく適応させられた他の記述子(descriptor)などを含め、異なるタイプの記述子を使用できると考えられる。ローカルフィーチャの検出および記述は、有利には、サーバー5にこれらの短かい記述を送ることしか必要としないユーザーデバイス4内の好適なソフトウェアモジュールによって行われる。完全なライトフィールドデータをサーバー5に送ることも同様に可能であり、サーバー5はそしてローカルフィーチャを検出し記述するが、この結果として、利用可能な帯域幅の使用効率は低くなると考えられる。
ステップ104:記述されたローカルフィーチャに基づく、キャプチャされたデータの認識。これは様々な方法で行うことができる。一実施形態においては、ローカルフィーチャを量子化し(ステップ1040)、その後この量子化されたフィーチャを用いて、ステップ1041の間に、同じ(またはほぼ同じ)量子化されたフィーチャセットを有する基準データを検索することができる。基準データは、ユーザーデバイスからおよび/または遠隔サーバー5内の遠隔ストレージ50からリトリーブされてよい。基準データのプレフィルタリングは、さまざまなフィルタリングクリテリア(criteria)、例えば衛星または地上(terrestrial)位置特定システムから予め決定されたユーザーデバイス4の場所、シーンから受信した信号、ユーザーの選択などに基づいて行われてよい。基準データは2D画像、3Dモデルまたは好ましくはライトフィールドを表わすデータを含む場合がある。このステップは、サーバー5内の好適なプログラムコードによって実行されてよいが、基準データの数が過度に多くなければ、ユーザーデバイス4内でのローカル認識も可能である。
量子化ステップ1040は、既知の基準の数が増大した場合に、システムをより容易にスケーリングできるようにする。
ステップ106:キャプチャされたデータ中の検出されたローカルフィーチャと、先のステップ中に識別された基準データ中のローカルフィーチャとのマッチング。基準データ中のローカルフィーチャは、コレクション50が構築された時点で、先行する段階において、検出され記述される。このステップは、サーバー5内で好適なプログラムコードによって実行されてよいが、ユーザーデバイス4内で実行してもよい。
ステップ107:キャプチャデータから検出されたローカルフィーチャを、マッチングする基準データへとマッピングする、幾何学的変換(transformation)を見つける。このステップは、「レジストレーション」と呼ばれる。変換には、ローテーションを用いたキャプチャされたデータのワーピング(warping)、スケーリング、トランスレーションまたはホモグラフィが含まれる。複数の基準画像が利用可能である場合には、このステップは、レジストレーションの質が最良である基準データの決定を含んでいてよい。レジストレーションは、ユーザーデバイス4内、遠隔サーバー5内または、部分的にユーザーデバイス内と遠隔サーバー内において行われてよい。
一実施形態において、レジストレーションプロセスの結果は、また、「拡張レイヤー(augmented layer)」として表示されるべき情報との関係におけるシーンをキャプチャするユーザーデバイス4の全位置をも示す。カメラの位置および配向は、6つのパラメータ、すなわち位置について3つ、その配向について3つのパラメータによって識別されてよい。このステップは、サーバー5内で好適なプログラムコードにより実行されてよいが、ユーザーデバイス4内で実行されてもよい。
ステップ108:コレクション50内の基準データと結びつけられた少なくとも1つのアノテーション、ならびにこのアノテーションが結びつけられるべき画像の位置またはフィーチャをリトリーブする。
ステップ109:ステップ108中にリトリーブされたアノテーションのうちの少なくとも1つを伴うキャプチャデータに基づいて、2Dまたは3D画像などのビューを、ユーザーデバイス4のディスプレー40上にレンダリングする。
上述の方法Aは、異なるライトフィールドを表わす基準データのコレクション、および最も高い精度または信頼度で基準データとマッチする基準データを、ローカルフィーチャに基づいて決定するプロセスに依存している。
ステップ100:アノテートすべきライトフィールドを表わすデータをキャプチャまたはリトリーブする。
ステップ101:必要な場合、データをリサンプリングする。
ステップ102〜103:ライトフィールドを表わすキャプチャされたデータ内のローカルフィーチャを検出し記述する。
ステップ110:検出されたローカルフィーチャを、例えばデータベース50内に記憶されたモデルなどのグローバルモデル1101のローカルフィーチャとマッチングする。このマッチングは、フィーチャを合わせてビニング(binning)して検索を加速させることによって、スピードアップすることができる。先行する情報1102(GPS情報、ユーザー入力など)に基づいて、枝刈り(pruning)ステップ1100を実施して、マッチングをスピードアップしてもよい。このとき、マッチングは、これらの先行情報に対応するローカルフィーチャのサブセットについてのみ行われる。局所性鋭敏型ハッシュ法(locality sensitive hashing)を使用してもよく、その場合、ハッシュ関数セットがフィーチャー記述子について計算されて、異なるハッシュ値に基づいてクラスタを作り出す。ハッシュ関数のセットは、記述子空間内で互いに近接している2つの記述子が同じハッシュ値を生成するような形で選択される。
ステップ111:グローバルモデル内でローカルフィーチャをマッチさせた状態でキャプチャデータ内において検出されたローカルフィーチャを投影する幾何学的変換を計算する。これはレジストレーションステップである。このステップの出力は、カメラ41のポーズ推定であり、こうして、キャプチャデータをキャプチャするカメラがモデル座標系との関係においてどこにあるかがわかるようになる。
ステップ108:次にアノテーションがリトリーブされる。アノテーションは通常、位置依存性(position−dependent)であり、それ自体、モデル座標系の内でレジストレーション(registered)されている。
ステップ109:アノテーション付き画像がレンダリングされる。
ここで、グローバルモデルを用いたグローバルレジストレーションに基づくさらなるレジストレーション方法について記述する。先行の方法Bと同様、この方法は、所定のシーンの既知のグローバルモデルが利用可能である場合に使用できる。例えば、都市の場合、我々は、我々が所与の都市内にいるという先験情報(a−priori information)を有し、したがってすでに利用可能であるその都市の3Dモデルをロードすることができる。レジストレーションプロセスは、モデル座標系との関係における、ライトフィールドデータをキャプチャしたカメラの位置を送出する。
ステップ152:ステップ152の間に、ユーザーが現在おかれているシーンまたは環境のグローバルモデルが、例えばプレノプティックセンサー2を含むユーザーのスマートフォンまたはタブレットまたはナビゲーションシステムなどのユーザーデバイス4のメモリー内にロードされる。ストレージ50からロードされるモデルは、例えばGPSを用いて決定されるユーザーの場所、ユーザーの選択、シーンの自動解析、他の先験的に既知の情報などにより左右され得る。
ステップ100:アノテートすべきライトフィールドが、ユーザーデバイス4のカメラ41でキャプチャされる。キャプチャされたプレノプティックライトフィールドの2D投影は、ユーザーデバイス4の2Dディスプレイ40上に表示されてもよいが、データは好ましくは、ライトフィールドデータとして、すなわち各ピクセル上の入射光線の方向についてその情報を失なうことなく記憶される。
ステップ101:プロセスは、例えばモデルが異なるフォーマットを有する場合、マッチングおよび認識プロセスを容易にするかまたは迅速化するため、キャプチャデされたータをコンバートまたはリサンプリングする追加のステップを含んでいてよい。例えば、異なるプレノプティックカメラが、各サブ画像内に異なる数のピクセルを有するデータを生成するかまたは、異なる方法でライトフィールドをサンプリングしてよい。このコンバージョンは、ユーザーデバイス4内または遠隔サーバー5内で行うことができる。
ステップ150:初期位置は、例えばGPS、ユーザーが入力した情報、または他の類似の先行情報に基づいて推定されてよい。
ステップ151:キャプチャされたデータは、モデルとの関係においてレジストレーションされる。アウトプットでは、モデルとの関係におけるカメラの位置についての完全な6つの自由度がある。モデルがユーザーデバイス4内にロードされた場合には、レジストレーションはこのデバイス内のプロセッサにより行われ得る。
ステップ108:計算されたデバイス4の位置の周りの場所あるいはこの位置から見えるはずのものと結びつけられた1組のアノテーションが、モデルからリトリーブされる。
ステップ109:先行ステップ中にリトリーブされたアノテーションのうちの少なくとも1つを伴うキャプチャされたデータに基づいて、2Dまたは3D画像などのビューが、ユーザーデバイス4のディスプレイ40上にレンダリングされる。
1.ユーザーデバイスの位置の初期推定値を獲得/計算する。これは、例えばプレノプティックカメラを含むスマートフォンの場合、スマートフォンGPS、加速度計ならびにデバイスの位置および配向を計算するためのコンパスを使用することによって行うことができる。この初期設定値を現在の設定値として設定する。
2.入力されたプレノプティックサンプルのモデル内への投影を計算する。目的関数を用いて、投影誤差を計算する(ステップ1510)。
3.誤差および目的関数を所与として、次のカメラ位置推定値を計算し(ステップ1511)、それを現在の推定値として設定する。
4.誤差が特定の閾値より大きい場合、ステップ2に戻り、それ以外の場合にはステップ5に進む。
5.現在の推定値が、ユーザーデバイスの最適化された位置であり、モデルとの関係におけるデバイスの実際の位置に対応する。
方法AおよびBは両方共、真に情報提供的(informative)であるデータ、すなわちそのエントロピーが空間の他のエリアに比べて高いものであるデータの、特定的なそれゆえローカルなフィーチャのみにレジストレーション空間を削減することを目指している。その上、2つのローカルフィーチャ間の相互情報すなわち相対的エントロピーは、2つのローカルフィーチャが2つの異なるエリアを表わしている場合それらが互いから容易に差別化され得るように低いものであることを目指している。これらのフィーチャの最後の所望される特性は、同じシーンの2つのビューを所与として、これら2つのビューの間の変換がいかなるものであろうと(幾何変換、露光変化(exposure changes)など)同じフィーチャを検出することができるということにある。
一実施形態において、キャプチャデータのレジストレーションに使用されるローカルフィーチャには、平面のインターセクション(intersection)が含まれる。
一実施形態において、キャプチャされたプレノプティックライトフィールドの識別に使用されるローカルフィーチャは、ライトフィールド内に含まれている視差情報を使用する。
一実施形態においては、意味のある安定したローカルフィーチャ点を検出するために、エピポーラボリュームそしてより具体的にはこれらの体積内のエピポーラ線と呼ばれる線が使用される。エピポーラ線は、ハリスアフィンフィーチャ領域検出器(Harris affine feature region detecor)などの他のフィーチャの検出器と組合わせることができる。エピポーラボリューム形態としてプレノプティックライトフィールドサンプルを表現することは、プレノプティックボリュームの多くの解析を簡略化し迅速化することから、極めて興味深い。エピポーラボリュームは、2つの画像間のカメラの動きが単に水平方向並進である場合に、画像を合わせてスタッキング(stacking)することによって作り出される。これらのボリュームを解析することで、以下の結論が得られる。すなわち、これらのボリューム上に存在する線は、単一の物理的点を表わし得る。したがってこの線の傾斜はまた、この点の深さを定義する。
(例えば図5のステップ103における)ローカルフィーチャの記述は、バイナリー形態で行うことができるだろう。2つのフィーチャを合わせて比較してそれらが類似しているか否かを見るためにハミング距離を使用することが可能であるため、各フィーチャの記述子サイズが著しく縮小されるのみならず、比較もスピードアップする。実際、ハミング距離は、一度に複数のバイトについて距離を計算する専用のベクトル命令を用いて、効率良く計算可能である。
1.各比較点ペアについて、第1の比較点におけるレンダリングされるグレースケールピクセル値が、他方の点におけるものよりも小さいか否かを決定する。
2.比較が真である場合には、バイナリーの「1」が、(当初は空である)記述子に追加され、そうでなければ、バイナリーの「0」が追加される。
3.該手順を各比較点について反復し、バイナリーストリング記述子を作り出す。
上述の方法のうちのいずれか1つでのレジストレーションの後、レジストレーションされた基準シーンに対して相対的なユーザーデバイス4内のプレノプティックカメラ41の位置および配向がわかる。キャプチャされたデータに対応する基準データも同様にわかり、基準データベース内で、データの種々の要素またはフィーチャについてのアノテーションセットと結びつけられる。アノテーションは、テキスト、画像、ビデオ、音声、既存のフィーチャの操作または強調、3Dオブジェクトなどで構成されていてよい。これらは、アノテートされるべきシーンおよびビューのコンテキストに左右される。
プレノプティック空間内の1シーンのキャプチャは、拡張現実レンダリングに関する新たな可能性の扉を聞く。実際、プレノプティックカメラ内でセンサーをヒットする光線の位置および方向は、他のフィーチャの中で、深さ情報のリトリーブ、画像のキャプチャ後の再度の焦点合せ、あるいはユーザーの視点の変更を可能にするので、シーンレンダリングをさらに良くしてユーザーに新しい経験を提供するためにこの情報を活用することができる。以下の段落では、考えられるいくつかの進歩したレンダリング能力について記述する。
4 ユーザーデバイス
5 サーバー
6 ネットワーク
20 マイクロレンズ
21 画像センサー
40 ディスプレイ
41 プレノプティックカメラ
50 ストレージ
51 プロセッサ
210 ピクセル
400 プロセッサ
401 通信モジュール
Claims (24)
- − デバイス(4)内のプレノプティックカメラ(41)でライトフィールドを表わすデータをキャプチャするステップ(100)と;
− キャプチャされたデータを基準データとマッチングするためのプログラムコードを実行するステップ(101)と;
− 前記基準データの一要素と結びつけられたアノテーションをリトリーブするためのプログラムコードを実行するステップ(102)と;
− キャプチャされたデータから生成され少なくとも1つのアノテーションを含むビューをレンダリングするためのプログラムコードを実行するステップ(103)と;
を含む、アノテーション方法。 - 前記基準データが基準ライトフィールドを定義づけする、請求項1に記載の方法。
- 前記基準データを前記シーンの3Dモデルから生成するステップを含む、請求項2に記載の方法。
- 前記マッチングステップが、異なるライトビューを表わす複数の基準データピースの中の1つのデータピースと前記キャプチャされたデータをマッチングすることを含む、請求項2に記載の方法。
- 前記キャプチャされたデータ内のローカルフィーチャを検出するステップ(102)を含む、請求項1〜4のいずれか一つに記載の方法。
- 前記ローカルフィーチャ検出ステップ(102)には、第1の深さにあるピクセルが異なる深さにあるピクセルと既定の関係を有しているエリアを検出することが含まれる、請求項5に記載の方法。
- 前記ローカルフィーチャ検出ステップ(102)には、キャプチャされたデータ内の視差を検出することが含まれる、請求項5に記載の方法。
- 前記ローカルフィーチャ検出ステップ(102)には、エピポーラボリュームまたは線を計算することが含まれる、請求項5に記載の方法。
- 前記ローカルフィーチャを記述するステップ(1011)を含む、請求項5〜8のいずれか一つに記載の方法。
- 前記ローカルフィーチャが、バイナリー形態の記述子で記述される、請求項9に記載の方法。
- 前記記述子間のハミング距離を計算するステップを含む、請求項10に記載の方法。
- 前記キャプチャされたデータ内の前記ローカルフィーチャと前記基準データ内のローカルフィーチャとをマッチングするステップ(106)を含む、請求項5〜11のいずれか一つに記載の方法。
- 前記ローカルフィーチャを用いて、前記基準データと前記プレノプティックデータをレジストレーションするステップ(107)を含む、請求項5〜12のいずれか一つに記載の方法。
- シーンのタイプを検出し、前記シーンタイプに応じて前記キャプチャされたデータ内で検出すべきローカルフィーチャのタイプを決定するステップを含む、請求項5〜13のいずれか一つに記載の方法。
- 前記デバイス(4)の位置、ユーザーにより行われた選択または受信した信号に応じて、前記マッチングに先立ち、1つのまたは限定された数の基準データピースを選択するステップを含む、請求項13〜14のいずれか一つに記載の方法。
- 前記基準データが1シーンのグローバルモデルを含む、請求項1〜14のいずれか一つに記載の方法。
- 前記基準データ上への前記キャプチャされたデータの投影誤差を表わす費用関数を最小化するステップ(1510)を含む、請求項16に記載の方法。
- ビューをレンダリングする前記ステップ(109)が、キャプチャされたデータ由来の2Dビューをレンダリングすることと該2Dビュー上にアノテーションを重ね合わせることとを含む、請求項1〜17のいずれか一つに記載の方法。
- キャプチャされたデータ由来の2Dビューをレンダリングする前記ステップ(109)が、シーンの残りの要素がぼやけた状態にされているのに対して、アノテートされたオブジェクトまたはアノテートされた画像のフィーチャの焦点が合うようになる形で、アノテートされたオブジェクトまたはアノテートされた画像のフィーチャを表示することを含む、請求項17に記載の方法。
- シーンに対応するデータをキャプチャしアノテートするための装置(4)であって、
− ライトフィールドを表わすデータをキャプチャする(100)ためのプレノプティックカメラ(41)と;
− プロセッサ(400)と;
− ディスプレイ(40)と;
− プログラムコードであって、前記プログラムコードが実行された時に、前記プロセッサに、前記カメラでキャプチャされたデータの一要素に結びつけられたアノテーションをリトリーブさせるための、および、前記キャプチャされたデータから生成され、少なくとも1つのアノテーションを含むビューを前記ディスプレイ(40)上にレンダリングするための、プログラムコードと;
を含む装置。 - 前記プログラムコードはさらに、前記プログラムコードが実行された時に、キャプチャされたデータ内に存在するローカルフィーチャを前記プロセッサ(400)に検出させるために配置されている、請求項20に記載の装置。
- 前記プログラムコードはさらに、検出された各ローカルフィーチャをバイナリーベクトルで記述するために配置されている、請求項20に記載の装置。
- 前記装置に請求項1〜19のいずれか一つに記載の方法を実行させるための有形装置可読媒体を含む、コンピュータプログラム製品。
- アノテーションを決定するための装置(5)であって、
− プロセッサ(51)と;
− ストア(50)と;
− プログラムコードであって、前記プログラムコードが実行された時に、前記プロセッサに、ライトフィールドを表わすデータを受信させ、前記データを前記ストア内の一つの基準データとマッチさせ、前記基準データと結びつけられたアノテーションを決定させ、そして遠隔デバイス(4)に対して前記アノテーションを送信させるための、プログラムコードと;
を含む装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2012/069806 WO2014053194A1 (en) | 2012-10-05 | 2012-10-05 | Annotation method and apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016500169A true JP2016500169A (ja) | 2016-01-07 |
Family
ID=47008601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015534916A Pending JP2016500169A (ja) | 2012-10-05 | 2012-10-05 | アノテーション方法および装置 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP2904605A1 (ja) |
JP (1) | JP2016500169A (ja) |
KR (1) | KR20150082195A (ja) |
CN (1) | CN104798128A (ja) |
WO (1) | WO2014053194A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017518532A (ja) * | 2014-05-30 | 2017-07-06 | マジック リープ, インコーポレイテッド | 仮想および拡張現実のためのアドレス可能焦点を伴う自由形状光学システムを用いて立体視を表示する方法およびシステム |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3089749A1 (en) | 2014-01-31 | 2015-08-06 | Magic Leap, Inc. | Multi-focal display system and method |
CN106461955B (zh) | 2014-01-31 | 2019-08-13 | 奇跃公司 | 显示增强现实的方法 |
EP4235252A1 (en) | 2014-05-30 | 2023-08-30 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual augmented reality |
JP6261085B2 (ja) * | 2014-12-16 | 2018-01-17 | 日本電信電話株式会社 | 画像解析装置及びコンピュータプログラム |
KR102399473B1 (ko) | 2015-01-26 | 2022-05-17 | 매직 립, 인코포레이티드 | 개선된 회절 그레이팅 구조들을 갖는 가상 및 증강 현실 시스템들 및 방법들 |
EP3176732A1 (en) * | 2015-12-02 | 2017-06-07 | Thomson Licensing | Method for generating a fingerprint for a light field image capture, computer readable storage medium and apparatus configured to generate a fingerprint for a light field image capture |
US11067797B2 (en) | 2016-04-07 | 2021-07-20 | Magic Leap, Inc. | Systems and methods for augmented reality |
US10614613B2 (en) | 2017-07-28 | 2020-04-07 | Nvidia Corporation | Reducing noise during rendering by performing parallel path space filtering utilizing hashing |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1246080A2 (en) * | 2001-03-26 | 2002-10-02 | Ecole Polytechnique Fédérale de Lausanne (EPFL) | Automated annotation of a view |
WO2005114476A1 (en) * | 2004-05-13 | 2005-12-01 | Nevengineering, Inc. | Mobile image-based information retrieval system |
WO2010120901A1 (en) * | 2009-04-14 | 2010-10-21 | Qualcomm Incorporated | Systems and methods for image recognition using mobile devices |
WO2012084362A1 (en) * | 2010-12-21 | 2012-06-28 | Ecole polytechnique fédérale de Lausanne (EPFL) | Computerized method and device for annotating at least one feature of an image of a view |
JP2012177773A (ja) * | 2011-02-25 | 2012-09-13 | Toshiba Corp | 光学素子、固体撮像装置、携帯情報端末、および表示装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4543147B2 (ja) * | 2004-07-26 | 2010-09-15 | ジーイーオー セミコンダクター インコーポレイテッド | パノラマビジョンシステム及び方法 |
US7706603B2 (en) * | 2005-04-19 | 2010-04-27 | Siemens Corporation | Fast object detection for augmented reality systems |
EP2405404A2 (en) * | 2010-07-09 | 2012-01-11 | Kabushiki Kaisha Toshiba | Display device, image data generating device, image data generating program, and display method |
CN102436660A (zh) * | 2011-11-08 | 2012-05-02 | 北京新岸线网络技术有限公司 | 3d相机图像自动校正方法及装置 |
CN102800103B (zh) * | 2012-06-18 | 2015-02-18 | 清华大学 | 基于多视角的深度相机的无标记动作捕捉方法及装置 |
-
2012
- 2012-10-05 KR KR1020157008529A patent/KR20150082195A/ko not_active Application Discontinuation
- 2012-10-05 CN CN201280076225.4A patent/CN104798128A/zh active Pending
- 2012-10-05 EP EP12770122.5A patent/EP2904605A1/en not_active Withdrawn
- 2012-10-05 WO PCT/EP2012/069806 patent/WO2014053194A1/en active Application Filing
- 2012-10-05 JP JP2015534916A patent/JP2016500169A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1246080A2 (en) * | 2001-03-26 | 2002-10-02 | Ecole Polytechnique Fédérale de Lausanne (EPFL) | Automated annotation of a view |
WO2005114476A1 (en) * | 2004-05-13 | 2005-12-01 | Nevengineering, Inc. | Mobile image-based information retrieval system |
WO2010120901A1 (en) * | 2009-04-14 | 2010-10-21 | Qualcomm Incorporated | Systems and methods for image recognition using mobile devices |
WO2012084362A1 (en) * | 2010-12-21 | 2012-06-28 | Ecole polytechnique fédérale de Lausanne (EPFL) | Computerized method and device for annotating at least one feature of an image of a view |
JP2012177773A (ja) * | 2011-02-25 | 2012-09-13 | Toshiba Corp | 光学素子、固体撮像装置、携帯情報端末、および表示装置 |
Non-Patent Citations (1)
Title |
---|
JPN6016018945; 茂木達哉, 外1名: '"全周動画像に対する注釈情報付加モデルと実装"' 映像情報メディア学会技術報告 第29巻, 第8号, 20050203, p.121-125, (社)映像情報メディア学会 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017518532A (ja) * | 2014-05-30 | 2017-07-06 | マジック リープ, インコーポレイテッド | 仮想および拡張現実のためのアドレス可能焦点を伴う自由形状光学システムを用いて立体視を表示する方法およびシステム |
Also Published As
Publication number | Publication date |
---|---|
EP2904605A1 (en) | 2015-08-12 |
CN104798128A (zh) | 2015-07-22 |
KR20150082195A (ko) | 2015-07-15 |
WO2014053194A1 (en) | 2014-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9237263B2 (en) | Annotation method and apparatus | |
US11887247B2 (en) | Visual localization | |
US10977818B2 (en) | Machine learning based model localization system | |
JP2016500169A (ja) | アノテーション方法および装置 | |
Chen et al. | City-scale landmark identification on mobile devices | |
Mastin et al. | Automatic registration of LIDAR and optical images of urban scenes | |
US20140181630A1 (en) | Method and apparatus for adding annotations to an image | |
US9237330B2 (en) | Forming a stereoscopic video | |
CN105009120B (zh) | 基于客户端-服务器的动态搜索 | |
US20130095920A1 (en) | Generating free viewpoint video using stereo imaging | |
US20150146032A1 (en) | Light field processing method | |
EP2806645B1 (en) | Image enhancement using a multi-dimensional model | |
JP2016537901A (ja) | ライトフィールド処理方法 | |
JP2014525089A (ja) | 3次元特徴シミュレーション | |
JP2014525089A5 (ja) | ||
EP2936442A1 (en) | Method and apparatus for adding annotations to a plenoptic light field | |
US10089418B2 (en) | Structure model segmentation from a three dimensional surface | |
Bulbul et al. | Social media based 3D visual popularity | |
Koch et al. | Comparison of monocular depth estimation methods using geometrically relevant metrics on the IBims-1 dataset | |
US11657568B2 (en) | Methods and systems for augmented reality tracking based on volumetric feature descriptor data | |
Baker et al. | Localization and tracking of stationary users for augmented reality | |
CN114972599A (zh) | 一种对场景进行虚拟化的方法 | |
Dong et al. | Utilizing internet photos for indoor mapping and localization-opportunities and challenges | |
Hwang et al. | 3D modeling and accuracy assessment-a case study of photosynth | |
WO2023164084A1 (en) | Systems and methods for generating dimensionally coherent training data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20160212 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160531 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160823 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20161027 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170207 |