JP2016511850A - プレノプティックライトフィールドに対しアノテーションを付加するための方法および装置 - Google Patents
プレノプティックライトフィールドに対しアノテーションを付加するための方法および装置 Download PDFInfo
- Publication number
- JP2016511850A JP2016511850A JP2015548228A JP2015548228A JP2016511850A JP 2016511850 A JP2016511850 A JP 2016511850A JP 2015548228 A JP2015548228 A JP 2015548228A JP 2015548228 A JP2015548228 A JP 2015548228A JP 2016511850 A JP2016511850 A JP 2016511850A
- Authority
- JP
- Japan
- Prior art keywords
- annotation
- plenoptic
- view
- data
- rendering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/21—Indexing scheme for image data processing or generation, in general involving computational photography
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
拡張現実アプリケーションが公知である。このような情報は、例えば山や居住地についての名称、人物の名前、建物の歴史的情報および例えばレストランのメニューなどの広告といった商業的情報が含み得る。このようなシステムの一例が、欧州特許第1246080号明細書および欧州特許出願公開第2207113号明細書の中に記載されている。
− プレノプティックキャプチャデバイスを用いてライトフィールドを表わすデータをリトリーブするステップと;
− キャプチャしたデータと対応する基準データとをマッチングするためにプログラムコードを実行するステップと;
− 前記基準データの一要素に結びつけられたプレノプティックフォーマットのアノテーションをリトリーブするためにプログラムコードを実行するステップと;
− 前記キャプチャされたデータおよび前記アノテーションからアノテート済みデータをプレノプティックフォーマットで生成するためにプログラムコードを実行するステップと;
を含む方法によって達成される。
− ライトフィールドを表わすデータをキャプチャするためのプレノプティックキャプチャデバイスと;
− プロセッサーと;
− ディスプレイと;
− プログラムコードが実行された時点で、前記プレノプティックキャプチャデバイスを用いてキャプチャされたデータの一要素と結びつけられたプレノプティックフォーマットの少なくとも1つのアノテーションを前記プロセッサにリトリーブさせるための、および、キャプチャされたデータから生成され前記少なくとも1つのアノテーションを含むビューを前記ディスプレイ上にレンダリングするための前記プログラムコードと;
を含む装置によって達成される。
− プロセッサと;
− 記憶装置(store)と;
− プログラムコードが実行された時点で前記プロセッサにライトフィールドを表わすデータを受信させ、前記データを1つの基準データとマッチさせ、前記基準データと結びつけられたプレノプティックフォーマットの前記記憶装置からのアノテーションを決定させ、かつプレノプティックフォーマットの前記アノテーションかまたはプレノプティックフォーマットのアノテート済み画像に対応するデータのいずれかをリモートデバイスに対して送信させるための前記プログラムコードと;
を含む装置をも提供する。
− ビューワを用いてプレノプティックフォーマットの前記基準画像を提示するステップと;
− アノテーションを選択するステップと;
− 前記ビューワを用いて、前記アノテーションのための位置を選択し、かつ前記アノテーションを見ることのできる1つまたは複数の方向を選択するステップと;
− メモリー内で、前記アノテーションおよび前記プレノプティックフォーマットの基準画像と前記位置および前記方向とを結びつけるステップと;
を含む方法にも関する。
プレノプティックフォーマットの基準画像の場合、オフラインプロセスは例えば以下のステップを含んでいてよい:
1.プレノプティックフォーマットの基準データをデバイス4から受けとり、ライトフィールドを表現するステップ;
2.例えばプレノプティックビューワを用いて、プレノプティック基準画像のレンダリングされたビューを提示するステップ;
3.プレノプティックアノテーションを選択するステップ;
4.レンダリングされたビュー内のアノテーションのための位置および配向を選択するステップ;
5.アノテーションの1つまたは複数のライトフィールドパラメータを選択するステップ;
6.(任意)1つのアクションをアノテーションに帰属させる(attributing)ステップ;
7.メモリー内で基準画像光線を、その位置および配向に基づいてアノテーション光線と結びつけるステップ。
1.プレノプティックフォーマットのデータをデバイス4から受信し、ライトフィールドを表現すること;
2.前に記憶されたモデル(基準画像)および/または複数の基準データをデータベース50からリトリーブすること;
3.ユーザーデバイスから受信したデータを、基準画像の一部と、または複数の基準画像のうちの1つとそれぞれ、マッチングすること;
4.マッチした基準画像と結びつけられたアノテーションを決定すること、
5.デバイス4に対して、プレノプティックフォーマットのアノテーションまたはプレノプティックフォーマットのアノテート済み画像を送信すること。
1.場合によっては結びつけられたアクションと共に、プレノプティックフォーマットのアノテーションデータをサーバー5から受信すること;
2.キャプチャされたプレノプティックライトフィールドに対して、受信したアノテーションデータを適用すること;
3.アノテート済みライトフィールドをユーザー可視ビューにレンダリングすること;
4.ユーザーインタラクションを解釈し、結びつけられたアノテーションアクションを実行すること。
1.建物のプレノプティックキャプチャが、プレノプティックアノテーションオーサリングシステムにアップロードされる。
2.キャプチャされたプレノプティック画像から2Dビューがレンダリングされ、ユーザーに提示される。
3.ユーザーは、アノテーションタイプリストからテキストアノテーションタイプを選択し、自らのテキストを入力し、テキストアノテーションを、レンダリングされた2Dビュー上にドラッグする。
4.ユーザーは、レンダリングされた2Dビューの視点またはアノテーションの位置および配向を移動させて、アノテーションが正にユーザーの望むように見えるようにすることができる。
5.ユーザーは、現在のレンダリングされた視点についてテキストの色を設定する。
6.ユーザーは、レンダリングされたプレノプティック画像の視点を別の位置まで移動させる。
7.ユーザーは、この他の視点について別の値にテキストの色を設定する。
8.プレノプティックアノテーションモデルがセーブされ、アノテーションプロセスのオンラインフェーズのために使用できる状態になる。
1.デフォルト値に当初設定された視点設定値に基づいて、2Dビューがユーザーに対してレンダリングされる。
2.テキストオブジェクトから仮想視点まで光線を追跡することにより、テキストアノテーションのプレノプティックバージョンが生成される。これにより、各々一意的識別子により記述される1組の光線が創出される。この光線セットがテキストを記述する。これらの光線は、メモリー内で基準プレノプティック画像に適用されなければならない修正に対応するアレイにより表現される。この場合、アレイは、アノテーション光線とマッチングされる光線がとらなければならない波長の値を含む。
3.アノテーションは当初、オーサリングツール内で予め定義されたデフォルト位置にある。アノテーション光線は、基準プレノプティック画像光線と組合わされる。基準画像の光線とアノテーションの間のこれらの関係は、光線の一意的識別子を使用することにより、将来の使用のために記憶される。
4.ユーザーが、例えばコンピュータのマウスポインタを用いてアノテーションの配向を移動/変更するにつれて、アノテーションの異なる光線が、キャプチャされたプレノプティック画像の他の光線と組合わされ、各位置または配向修正について新しい2Dビューが生成される。これは、ユーザーのマウスポインタがプレノプティック空間内に投影されるので可能となる。このとき、ポインタの移動が、2Dのレンダリングされたビューに対応する仮想平面に平行な平面内でアノテーションに対し適用される。アノテーションが移動させられるにつれて、基準画像とアノテーションの間の光線の関係は、アノテーションの位置または配向の変更にしたがって変更され更新される。
5.ユーザーが、現在の視点についてテキスト用の色を選択した時点で、アノテーションアレイの波長値は選択された色と整合するように変更される。
6.新しい視点が選択され、新しいテキストの色が選択された時点で、この新しいレンダリングされたビューを生成するために使用される光線に対応するアノテーションアレイの波長値は変更される。第1の視点と第2の視点の中間の波長値は、標準のまたは特別な補間方法を用いて補間される。
7.ユーザーがモデルをセーブした時点で、プレノプティックアノテーションアレイは、アップロードされたプレノプティック基準モデルと共にセーブされ、オンラインフェーズ内で使用可能となる。
先に説明した通り、アノテーションプロセス全体におけるオンラインフェーズは、プレノプティック画像をキャプチャするユーザーが、その画像がアノテートされることを望む場合に発生する。
1.図8のステップ100でリトリーブされたオンラインプレノプティック画像光線上に基準プレノプティック画像光線を投影するための変換を発見する;
2.オフラインフェーズ内で定義された基準プレノプティック画像の各々のリトリーブされたアノテーションについて:
1.オフラインフェーズ内で定義されたアノテーションアレイを読取ることにより、アノテーションにしたがって、基準プレノプティック画像のどの光線を修正しなければならないかを識別し選択する。
2.項目(1)で識別された光線をオンラインプレノプティック画像上に投影する。これにより、基準プレノプティック画像の選択された光線とキャプチャプレノプティック画像由来の光線の間の対応関係が作り出される。
3.項目(2)で選択されたキャプチャプレノプティック画像の各光線について、プレノプティックアノテーションアレイ内に定義された通りに光線に対し変換を適用する。アレイはルックアップテーブルとして使用され、そこではステップ(1)および(2)の選択プロセスによって識別可能である光線および変換のパラメータ(例えば波長、方向、...)がルックアップキーとして使用される。
プレノプティックフォーマットでのアノテーションの提供およびアノテーションと同じ空間内でプレノプティック画像をアノテートするプロセスは、拡張現実のための新たな利用分野をもたらす。
上述の方法のさまざまなオペレーションは、オペレーションを実施できる任意の好適な手段、例えばさまざまなハードウェアおよび/またはソフトウェアコンポーネント(単複)、回路、および/またはモジュール(単複)によって実施されてよい。概して、本出願中に記載のいずれのオペレーションも、オペレーションを実施できる対応する機能的手段によって実施されてよい。さまざまな手段、論理ブロックおよびモジュールが、回路、特定用途向け集積回路(ASIC)または汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ信号(FPGA)または他のプログラマブル論理デバイス(PLD)、離散的ゲートまたはトランジスタ論理、離散的ハードウェアコンポーネントまたは本明細書中に記載の機能を実施するように設計されたそれらの任意の組合せを含めた(ただしこれらに限定されない)、さまざまなハードウェアおよび/またはソフトウェアコンポーネント(単複)および/またはモジュール(単複)を含んでいてよい。汎用プロセッサは、マイクロプロセッサであってよいが、代替的には、プロセッサは任意の市販のプロセッサ、コントローラ、マイクロコントローラまたは状態機械であってよい。プロセッサはまた、計算デバイスの組合せ、例えばDSPとマイクロプロセッサ、複数のマイクロプロセッサ、DSPコアと併わせた1つ以上のマイクロプロセッサ、または他の任意のこのような構成の組合せとして実装されてもよい。サーバーは、単一のマシンとして、一組のマシンとして、仮想サーバーとして、あるいはクラウドサーバーとして実装されてよい。
4 ユーザーデバイス
5 サーバー
6 インターネット
20 マイクロレンズ
21 センサー
40 ディスプレイ
41 プレノプティックキャプチャデバイス
50 ストレージ
51 プロセッサ
60、62 オブジェクト
61、63、64 アノテーション
210 ピクセル
400 マイクロプロセッサ
401 通信モジュール
402 再焦点合せモジュール
Claims (28)
- − プレノプティックキャプチャデバイス(4)を用いてライトフィールドを表わすデータをリトリーブするステップ(100)と;
− 対応する基準データと、リトリーブされたデータとをマッチングするためにプログラムコードを実行するステップ(101)と;
− 前記基準データの一要素に結びつけられたプレノプティックフォーマットの少なくとも1つのアノテーション(61、63、64)をリトリーブするためにプログラムコードを実行するステップ(102)と;
− 前記リトリーブされたデータおよび前記アノテーションからプレノプティックフォーマットでアノテート済みのデータを生成するためにプログラムコードを実行するステップ(103)と;
を含む方法。 - − ビューイング方向を選択するステップ(105)と;
− 前記ビューイング方向からの前記アノテート済みデータに対応するビューをレンダリングするステップ(107)と;
をさらに含み、前記アノテーション(61)の表現が前記ビューイング方向によって左右される、請求項1に記載の方法。 - − 第1のビューイング方向からの前記アノテート済みデータに対応する第1のビューをレンダリングするステップ(104)と;
− 第2のビューイング方向を選択するステップ(105)と;
− 前記第2のビューイング方向からの前記アノテート済みデータに対応する第2のビューをレンダリングするステップ(107)と;
をさらに含み、前記アノテーション(61、61’)の表現が前記第1のビューと前記第2のビューの間で変更される、請求項1に記載の方法。 - − 第1のアノテーション(61)を第1のロケーションおよび第1の方向と結びつけるステップと;
− 第2のアノテーション(64)を前記第1のロケーションおよび第2の方向と結びつけるステップと;
− 前記アノテート済みデータに対応するビューをレンダリングするステップと;
− 第1または第2のビューイング方向の間で選択を行なうステップ(105)と;
− 第1のビューイング方向が選択された場合、前記第1のアノテーションを含むものの前記第2のアノテーションは含まないビューをレンダリングするか、または、第2のビューイング方向が選択された場合、前記第2のアノテーションを含むものの前記第1のアノテーションは含まないビューをレンダリングするステップと;
をさらに含む、請求項1〜3のいずれか一つに記載の方法。 - − プレノプティックフォーマットの基準データおよび第1のビューイング方向に対応する第1のビューをレンダリングするステップと;
− 前記第1のビュー内の1要素に対しアノテーションを結びつけるステップと;
− プレノプティックフォーマットの前記基準データおよび第2のビューイング方向に対応する第2のビューをレンダリングするステップと;
− 前記第2のビュー内の前記要素に対してアノテーションを結びつけるステップと;
− 前記第1および前記第2のビューイング方向の間の中間ビュー内で前記要素のアノテーションを補間するステップと;
をさらに含む、請求項1〜4のいずれか一つに記載の方法。 - 前記第1、第2および中間ビューからプレノプティックフォーマットのアノテーションを計算するステップをさらに含む、請求項5に記載の方法。
- − 前記アノテート済みデータおよび第1のフォーカス距離に対応する第1のビューをレンダリングするステップ(104)と;
− フォーカス距離を修正するステップ(106)と;
− 前記アノテート済みデータおよび修正済みフォーカス距離に対応する第2のビューをレンダリングするステップ(107)と;
をさらに含み、前記アノテーション(61)の表現が、前記第1のビューと前記第2のビューの間で変更される、請求項1〜6のいずれか一つに記載の方法。 - − 第1のアノテーション(61)を第1のロケーションおよび第1の深度と結びつけるステップと;
− 第2のアノテーション(63)を前記第1のロケーションおよび第2の深度と結びつけるステップと;
− 前記アノテート済みデータに対応する第1のビューをレンダリングするステップ(104)と;
− 第1または第2のフォーカス距離の間で選択を行なうステップ(106)と;
− 第1のフォーカス距離が選択された場合、前記第1のアノテーション(61)を含むものの前記第2のアノテーション(63)は含まない第2のビューをレンダリングするか、または、第2のフォーカス距離が選択された場合、前記第2のアノテーションを含むものの前記第1のアノテーションは含まないビューをレンダリングするステップ(107)と;
をさらに含む、請求項7に記載の方法。 - 前記アノテーションの少なくとも1つが、座標に添付され特定の方向に結びつけられた音声である、請求項1〜8のいずれか一つに記載の方法。
- 前記アノテーションの少なくとも1つがビデオである、請求項1〜9のいずれか一つに記載の方法。
- アノテーションの少なくとも1つが、プレノプティック空間内の特定のロケーションにおいて光線の方向を改変するためのフィルターとして作用している、請求項1〜10のいずれか一つに記載の方法。
- 1つの前記アノテーションが光線の方向を修正する、請求項11に記載の方法。
- 1つの前記アノテーションが、オブジェクトの表面またはテクスチャの特性を修正する、請求項12に記載の方法。
- 前記アノテーションがプレノプティック空間の異なる点における光線の方向または光線の方向の修正を定義するアレイによって定義される、請求項1〜13のいずれか一つに記載の方法。
- レンダリングには、アノテーションがリトリーブされたライトフィールドの一要素によって閉塞されている場合、またはアノテーションがリトリーブされたライトフィールドの一要素を閉塞している場合を、前記要素に対応する光線の方向から決定される前記要素の深度に応じて決定することが含まれる、請求項2〜14のいずれか一つに記載の方法。
- レンダリングには、プレノプティックフォーマットの1つのアノテーションをリトリーブすること、およびこのアノテーションをリトリーブされたライトフィールドのストリーム中の複数の連続するリトリーブされたライトフィールドに対し適用することが含まれる、請求項2〜15のいずれか一つに記載の方法。
- レンダリングには、リトリーブされたデータに対応する光線とアノテーションの光線とをマージすることが含まれる、請求項2〜16のいずれか一つに記載の方法。
- シーンに対応するデータをキャプチャしアノテートするための装置であって、
− ライトフィールドを表わすデータをキャプチャするためのプレノプティックキャプチャデバイス(41)と;
− プロセッサー(400)と;
− ディスプレイ(40)と;
− プログラムコードが実行された時点で、前記プレノプティックキャプチャデバイス(41)を用いてキャプチャされたデータの一要素と結びつけられたプレノプティックフォーマットの少なくとも1つのアノテーション(61、63、64)を前記プロセッサにリトリーブさせ、キャプチャデータから生成され前記少なくとも1つのアノテーションを含むビューを前記ディスプレイ(40)上にレンダリングするための前記プログラムコードと;
を含む装置(4)。 - 前記プログラムコードがさらに、ユーザーが前記ビューを再度焦点合せできるようにしかつ選択されたフォーカス距離に応じて前記アノテーションの提示を変更するための再焦点合せモジュール(402)を含んでいる、請求項18に記載の装置。
- 前記プログラムコードがさらに、ユーザーが前記レンダリングのために使用される視点を変更できるようにしかつ選択された視点に応じて前記アノテーションの提示を変更するための視点選択モジュール(403)を含む、請求項18または19に記載の装置。
- アノテーションを決定するための装置(5)であって:
− プロセッサ(51)と;
− 記憶装置(50)と;
− プログラムコードが実行された時点で前記プロセッサに、ライトフィールドを表わすデータを受信させ、前記データを1つの基準データとマッチさせ、前記記憶装置から前記基準データと結びつけられたプレノプティックフォーマットのアノテーション(61、63、64)を決定させ、かつプレノプティックフォーマットの前記アノテーションかまたはプレノプティックフォーマットのアノテート済み画像のいずれかをリモートデバイス(4)に対して送信させるための前記プログラムコードと;
を含む装置。 - 前記プログラムコードには、プレノプティックフォーマットのアノテーションを付加し、それらを前記基準データ内の位置および視角と結びつけるためのモジュール(510)がさらに含まれる、請求項21に記載の装置。
- プレノプティック空間の異なる点において光線方向または光線方向の修正のアレイとしてアノテーションを記憶するメモリーをさらに含む、請求項22に記載の装置。
- プレノプティックフォーマットの基準画像に対しアノテーションを添付するための方法であって、
− ビューワを用いてプレノプティックフォーマットの前記基準画像を提示するステップ(150)と;
− アノテーションを選択するステップ(151)と;
− 前記ビューワを用いて、前記アノテーションのための位置を選択し(152)、かつ前記アノテーションを見ることのできる1つまたは複数の方向を選択する(153)ステップと;
− メモリー内で、プレノプティックフォーマットの前記アノテーションおよび前記基準画像と前記位置および前記方向とを結びつけるステップ(154)と;
を含む方法。 - 複数のアノテーションを単一の位置、ただし複数の異なる方向を持つものと結びつけるステップを含む、請求項24に記載の方法。
- − プレノプティックフォーマットの基準データおよび第1のビューイング方向に対応する第1のビューをレンダリングするステップと;
− 前記第1のビュー内の一要素に第1のアノテーションを結びつけるステップと;
− プレノプティックフォーマットの前記基準データおよび第2のビューイング方向に対応する第2のビューをレンダリングするステップと;
− 前記第1のアノテーションとは異なる第2のアノテーションを前記第2のビュー内の前記要素に結びつけるステップと;
をさらに含む、請求項24または25に記載の方法。 - − プレノプティックフォーマットの基準データおよび第1のビューイング方向に対応する第1のビューをレンダリングするステップと;
− 前記第1のビュー内の一要素にアノテーションを結びつけるステップと;
− プレノプティックフォーマットの前記基準データおよび第2のビューイング方向に対応する第2のビューをレンダリングするステップと;
− 前記第2のビュー内の前記要素にアノテーションを結びつけるステップと;
− 前記第1のビューイング方向と前記第2のビューイング方向の間の中間ビュー内で前記要素のアノテーションを補間するステップと;
をさらに含む、請求項24〜26のいずれか一つに記載の方法。 - プレノプティックフォーマットの基準画像にアノテーションを添付するための装置であって、
− プロセッサと;
− 前記プロセッサに、ビューワを用いてプレノプティックフォーマットの前記基準画像を提示させ(150);ユーザーがアノテーションを選択できるようにさせ(151)かつ前記アノテーションのための位置を選択できるようにさせ(152)、さらに前記アノテーションを見ることのできる一または複数の方向を選択できるようにさせる(153)ためのプログラムコードと;
− 前記アノテーション、前記位置および前記方向を記憶するメモリーと;
を含む装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2012/076643 WO2014094874A1 (en) | 2012-12-21 | 2012-12-21 | Method and apparatus for adding annotations to a plenoptic light field |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016511850A true JP2016511850A (ja) | 2016-04-21 |
Family
ID=47553021
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015548228A Pending JP2016511850A (ja) | 2012-12-21 | 2012-12-21 | プレノプティックライトフィールドに対しアノテーションを付加するための方法および装置 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP2936442A1 (ja) |
JP (1) | JP2016511850A (ja) |
KR (1) | KR20150106879A (ja) |
CN (1) | CN104969264A (ja) |
WO (1) | WO2014094874A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019179382A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社スクウェア・エニックス | 情報処理プログラム、情報処理方法及び情報処理システム |
WO2022138327A1 (ja) * | 2020-12-25 | 2022-06-30 | 時男 後藤 | 三次元アノテーション描写システム |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3059949A1 (en) | 2015-02-23 | 2016-08-24 | Thomson Licensing | Method and apparatus for generating lens-related metadata |
US10921896B2 (en) | 2015-03-16 | 2021-02-16 | Facebook Technologies, Llc | Device interaction in augmented reality |
EP3099077B1 (en) * | 2015-05-29 | 2020-07-15 | InterDigital CE Patent Holdings | Method for displaying a content from 4d light field data |
EP3151534A1 (en) | 2015-09-29 | 2017-04-05 | Thomson Licensing | Method of refocusing images captured by a plenoptic camera and audio based refocusing image system |
KR102577447B1 (ko) | 2018-11-02 | 2023-09-13 | 한국전자통신연구원 | 플렌옵틱 데이터 저장 시스템 및 그것의 동작 방법 |
US11182872B2 (en) | 2018-11-02 | 2021-11-23 | Electronics And Telecommunications Research Institute | Plenoptic data storage system and operating method thereof |
US10565773B1 (en) | 2019-01-15 | 2020-02-18 | Nokia Technologies Oy | Efficient light field video streaming |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002098548A (ja) * | 2000-09-22 | 2002-04-05 | Casio Comput Co Ltd | ガイド情報送信装置及び記録媒体 |
JP2006255021A (ja) * | 2005-03-15 | 2006-09-28 | Toshiba Corp | 画像表示装置及び画像表示方法 |
US20120127203A1 (en) * | 2010-11-18 | 2012-05-24 | Canon Kabushiki Kaisha | Mixed reality display |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6009188A (en) | 1996-02-16 | 1999-12-28 | Microsoft Corporation | Method and system for digital plenoptic imaging |
US8432414B2 (en) | 1997-09-05 | 2013-04-30 | Ecole Polytechnique Federale De Lausanne | Automated annotation of a view |
US20100309226A1 (en) * | 2007-05-08 | 2010-12-09 | Eidgenossische Technische Hochschule Zurich | Method and system for image-based information retrieval |
-
2012
- 2012-12-21 WO PCT/EP2012/076643 patent/WO2014094874A1/en active Application Filing
- 2012-12-21 KR KR1020157016284A patent/KR20150106879A/ko not_active Application Discontinuation
- 2012-12-21 CN CN201280077894.3A patent/CN104969264A/zh active Pending
- 2012-12-21 JP JP2015548228A patent/JP2016511850A/ja active Pending
- 2012-12-21 EP EP12813361.8A patent/EP2936442A1/en not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002098548A (ja) * | 2000-09-22 | 2002-04-05 | Casio Comput Co Ltd | ガイド情報送信装置及び記録媒体 |
JP2006255021A (ja) * | 2005-03-15 | 2006-09-28 | Toshiba Corp | 画像表示装置及び画像表示方法 |
US20120127203A1 (en) * | 2010-11-18 | 2012-05-24 | Canon Kabushiki Kaisha | Mixed reality display |
Non-Patent Citations (1)
Title |
---|
小田島 太郎 ほか 2名: "拡張現実感技術を用いた屋外型ウェアラブル注釈提示システム", 画像電子学会誌 第32巻 第6号, vol. 第32巻, JPN6016027829, 25 November 2003 (2003-11-25), JP, ISSN: 0003362937 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019179382A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社スクウェア・エニックス | 情報処理プログラム、情報処理方法及び情報処理システム |
JP7209474B2 (ja) | 2018-03-30 | 2023-01-20 | 株式会社スクウェア・エニックス | 情報処理プログラム、情報処理方法及び情報処理システム |
WO2022138327A1 (ja) * | 2020-12-25 | 2022-06-30 | 時男 後藤 | 三次元アノテーション描写システム |
Also Published As
Publication number | Publication date |
---|---|
KR20150106879A (ko) | 2015-09-22 |
WO2014094874A1 (en) | 2014-06-26 |
EP2936442A1 (en) | 2015-10-28 |
CN104969264A (zh) | 2015-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20140181630A1 (en) | Method and apparatus for adding annotations to an image | |
US11663785B2 (en) | Augmented and virtual reality | |
US10755485B2 (en) | Augmented reality product preview | |
JP2016511850A (ja) | プレノプティックライトフィールドに対しアノテーションを付加するための方法および装置 | |
US9704295B2 (en) | Construction of synthetic augmented reality environment | |
KR101667345B1 (ko) | 스트리트 레벨 이미지들 간의 전환을 나타내는 시스템 및 방법 | |
EP2732436B1 (en) | Simulating three-dimensional features | |
US10547822B2 (en) | Image processing apparatus and method to generate high-definition viewpoint interpolation image | |
US20110273466A1 (en) | View-dependent rendering system with intuitive mixed reality | |
TW202013149A (zh) | 擴增實境的影像展示方法、裝置及設備 | |
US20130321396A1 (en) | Multi-input free viewpoint video processing pipeline | |
US20140282220A1 (en) | Presenting object models in augmented reality images | |
US20080246759A1 (en) | Automatic Scene Modeling for the 3D Camera and 3D Video | |
KR20070086037A (ko) | 장면 간 전환 방법 | |
JP2008520052A5 (ja) | ||
JP2016537901A (ja) | ライトフィールド処理方法 | |
JP2016500169A (ja) | アノテーション方法および装置 | |
US20110242271A1 (en) | Synthesizing Panoramic Three-Dimensional Images | |
JP6621565B2 (ja) | 表示制御装置、表示制御方法、及びプログラム | |
KR102443049B1 (ko) | 전자 장치 및 그 동작 방법 | |
US11044464B2 (en) | Dynamic content modification of image and video based multi-view interactive digital media representations | |
JP4379594B2 (ja) | 追体験空間生成装置 | |
Hamadouche | Augmented reality X-ray vision on optical see-through head mounted displays | |
CN115244494A (zh) | 用于处理扫描对象的***和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20160212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160726 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20161003 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170321 |