JP6302540B2 - 支援3dディスプレイアダプテーション - Google Patents
支援3dディスプレイアダプテーション Download PDFInfo
- Publication number
- JP6302540B2 JP6302540B2 JP2016506318A JP2016506318A JP6302540B2 JP 6302540 B2 JP6302540 B2 JP 6302540B2 JP 2016506318 A JP2016506318 A JP 2016506318A JP 2016506318 A JP2016506318 A JP 2016506318A JP 6302540 B2 JP6302540 B2 JP 6302540B2
- Authority
- JP
- Japan
- Prior art keywords
- qve
- display
- value
- depth
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000006978 adaptation Effects 0.000 title claims description 18
- 238000013507 mapping Methods 0.000 claims description 85
- 238000000034 method Methods 0.000 claims description 49
- 238000012360 testing method Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 description 31
- 238000012545 processing Methods 0.000 description 10
- 239000011521 glass Substances 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011143 downstream manufacturing Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/327—Calibration thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Description
(i)アナグリフ:2枚のカラーフィルタ(通常は、片眼が赤、もう片眼がシアン)を通して光をフィルタリングすることによって左眼/右眼の分離を行う。
(ii)直線偏光:(通常)垂直方向の直線偏光子を通して左眼をフィルタリングするとともに、水平方向の直線偏光子を通して右眼用画像をフィルタリングすることによって、プロジェクタで分離を行う。
(iii)円偏光:(通常)左回り円偏光板を通して左眼用画像をフィルタリングするとともに、右回り円偏光板を通して右眼用画像をフィルタリングすることによって、プロジェクタで分離を行う。
(iv)シャッターメガネ:左画像および右画像を時間的に多重化することによって分離を行う。
(v)スペクトル分離:左眼および右眼が、それぞれ、赤、緑および青のスペクトルの相補的な部分を受け取るように、左眼および右眼をスペクトル的にフィルタリングすることによって、プロジェクタで分離を行う。
本明細書に記載の実施形態例は、立体ディスプレイおよび多視点ディスプレイ上に立体画像を表示するための支援3Dディスプレイアダプテーション技術に関する。3Dディスプレイは、その特定の3Dディスプレイ上における視聴体験メトリックを入力視差または深度データの関数として表す、視聴体験クオリティー(QVE)マッピングによって特徴付けられる。「視覚ボケ」のメトリックに基づくQVEマッピング関数の例を示す。基準ディスプレイ用の入力深度データから生成される基準深度データおよび、入力深度データと基準ディスプレイQVEマッピングを用いて生成されるQVEデータとの間の入出力関係を表すアーティストマッピング関数(artist's mapping function)の表現が与えられると、復号化器は基準深度データを再構築して、ターゲットディスプレイについての逆QVEマッピングを適用し、それにより、元々のアーティストの意図を損なうこと無く、そのターゲットディスプレイ用の出力深度データを生成し得る。
立体コンテンツを制作および表示する場合、オリジナル版は、典型的に、特定のターゲットディスプレイサイズおよび視聴距離に合わせて最適化され、そして画像データおよび深度または視差データを含むビットストリームを用いて送信される。例えば、スポーツ生中継は、家庭用3DHDTVに送信するために最適化されたり、劇場版は、3D映画館プロジェクタ用に最適化されたりし得る。本明細書中において、用語「視差(disparity)」は、立体画像の左視点におけるオブジェクトの位置と、右視点におけるそれとの距離差を指す。立体映像処理において、視差は、典型的には、一方の視点(例えば、左画像)におけるある画像部分を他方の視点(例えば、右画像)で視聴した時の水平方向のズレ(例えば、左方向または右方向)を表す。例えば、左画像において水平位置hLおよび右画像において水平位置hRに位置する点は、hL−hR画素分の視差を有するものとして示され得る。
図4Aは、ある実施形態における3Dディスプレイ用の支援ディスプレイアダプテーション処理の一例を示している。オリジナルコンテンツ405は、オリジナルターゲットディスプレイ(例えば、映写機)をターゲットにした、オリジナル版用に作成された画像および深度または視差データを含む。対象となる多くの場合においては、異なる種類のディスプレイをターゲットとする別の版(release)を生成するために、このコンテンツを処理し直す必要がある。
いくつかの実施形態においては、コンテンツ作成段階410において、単一の基準ディスプレイ540を用いて異なるターゲットディスプレイ上の視聴条件をエミュレートするために、QVEマッピング関数408のファミリーが用いられ得る。ある実施形態において、図5は、3Dディスプレイエミュレーションの処理例を示す。処理ステップ420および430がここではディスプレイエミュレーション520の単一ステップに統合し得ることを除いて、処理500は処理400Aと同様である。
本発明の実施形態は、コンピュータシステム、電子回路および構成要素で構成されたシステム、マイクロコントローラ、フィールドプログラマブルゲートアレイ(FPGA)または他のコンフィギュラブルまたはプログラマブルロジックデバイス(PLD)、離散時間またはデジタル信号プロセッサ(DSP)、特定用途向けIC(ASIC)などの集積回路(IC)デバイス、および/または、このようなシステム、デバイスまたは構成要素を1つ以上含む装置を用いて実施され得る。このコンピュータおよび/またはICは、本明細書に記載のような支援3Dディスプレイアダプテーションに関する命令を行い、制御し、または実行し得る。このコンピュータおよび/またはICは、本明細書に記載の支援3Dディスプレイアダプテーションに関する様々なパラメータまたは値のいずれをも演算し得る。支援3Dディスプレイアダプテーションの実施形態は、ハードウェア、ソフトウェア、ファームウェアおよびそれらの様々な組み合わせで実施され得る。
支援3Dディスプレイアダプテーションに関する実施形態例を上述した。本明細書中において、各実装毎に異なり得る多数の詳細事項に言及しながら本発明の実施形態を説明した。従って、本発明が何たるか、また、本出願人が本発明であると意図するものを示す唯一且つ排他的な指標は、本願が特許になった際の請求の範囲(今後出されるあらゆる訂正を含む、特許となった特定の請求項)である。当該請求項に含まれる用語に対して本明細書中に明示したあらゆる定義が、請求項内で使用される当該用語の意味を決定するものとする。よって、請求項において明示されていない限定事項、要素、性質、特徴、利点または属性は、その請求項の範囲をいかなる意味においても限定すべきではない。従って、本明細書および図面は、限定するものではなく、例示的であるとみなされるものである。
Claims (18)
- 視聴体験クオリティー(QVE)マッピングを用いて3Dディスプレイを特徴付ける方法であって、
前記3Dディスプレイ上に表示する立体画像についての、ある深度範囲の入力深度値の各値またはある視差範囲の入力視差値の各値に対して、前記3Dディスプレイ用の出力QVE値を生成する工程と、
前記出力QVE値に応じて前記3Dディスプレイ用の深度データを生成する工程と、
前記入力深度値または入力視差値と前記生成される出力QVE値との間の視聴体験クオリティー(QVE)マッピングを生成する工程と、を包含し、
前記視聴体験クオリティーは視覚的ボケの度合いを含む、方法。 - 基準3Dディスプレイ上に表示する立体画像についての、ある深度範囲の入力深度値の各値またはある視差範囲の入力視差値の各値に対して、前記基準3Dディスプレイ用の出力基準QVE値を生成する工程と、
前記入力深度値または入力視差値と前記生成される出力基準QVE値との間の基準QVEマッピングを生成する工程とを包含する、請求項1に記載の方法。 - 前記出力QVE値を生成する工程は、
前記3Dディスプレイ上に表示する立体画像についての前記入力深度または視差を有するテスト立体画像を前記3Dディスプレイ上に表示する工程(210)と、
前記表示された画像をカメラで撮影して、2D撮影画像を生成する工程(215)と、
前記2D撮影画像を分析して、前記入力深度または視差に対応する前記出力QVE値を生成する工程(220)とを包含する、請求項1または2に記載の方法。 - 前記テスト立体画像は、正弦波関数の1つ以上の2D表現を含む、請求項3に記載の方法。
- 前記2D撮影画像を分析する工程は、
前記テスト立体画像の視点に応じてボケフィルタを用いてボケた画像の組を生成する工程であって、前記ボケた画像の組の各ボケた画像は異なるボケパラメータを用いて生成される工程と、
画像比較基準に従って、前記2D撮影画像を前記ボケた画像の組のうちの1つ以上のボケた画像と比較して、1つ以上の差分メトリックを決定する工程と、
前記決定された1つ以上の差分メトリックに応じて、前記出力QVE値を生成する工程とを包含する、請求項3に記載の方法。 - 前記ボケフィルタはガウスフィルタを含み、前記ボケパラメータは前記ガウスフィルタの標準偏差を含み、前記出力QVE値は、その出力および前記2D撮影画像間の差分メトリックが最小となる前記ガウスフィルタの標準偏差の関数である、請求項5に記載の方法。
- 支援3Dディスプレイアダプテーションの方法であって、
立体画像のオリジナル入力深度データ(407)を受信する工程と、
基準深度マップデータ(414)を生成する工程であって、前記基準深度マップデータは、前記オリジナル入力深度データ(407)および深度範囲変換関数(416)に応じて生成される工程と、
前記基準深度マップデータ(414)および基準ディスプレイQVEマッピング(412)に応じて視聴体験クオリティー(QVE)データ(424)を生成する工程であって、前記基準ディスプレイQVEマッピングは、基準ディスプレイについて決定された、入力深度または視差値と出力QVE値との間の入出力関係を表している工程と、
前記QVEデータ(424)に応じてターゲットディスプレイ深度データ(432)を生成する工程と、を包含する方法。 - 前記QVEデータ(424)を受信器に送信する工程をさらに包含する、請求項7に記載の方法。
- 前記基準深度データ(414)および前記基準ディスプレイQVEマッピング(412)の表現を受信器に送信する工程をさらに包含する、請求項7に記載の方法。
- 前記オリジナル入力深度データ(407)、前記基準ディスプレイQVEマッピング(412)の表現、および、前記深度範囲変換関数(416)の表現を受信器に送信する工程をさらに包含する、請求項7に記載の方法。
- 復号化器における支援3Dディスプレイアダプテーションの方法であって、
オリジナル入力深度データ(407)およびアーティストマッピング関数(422)の表現を前記復号化器において受信する工程であって、前記アーティストマッピング関数は、前記オリジナル入力深度データと基準ディスプレイに対して符号化器によって生成されるQVEデータ(424)との間の入出力関係を表している工程と、
前記アーティストマッピング関数を前記オリジナル入力深度データに適用して、復号化されたQVEデータを生成する工程と、
ターゲットディスプレイについての逆QVEマッピング(428)を前記復号化されたQVEデータに適用して、前記ターゲットディスプレイ用のターゲット深度データ(432)を生成する工程であって、前記ターゲットディスプレイについての前記逆QVEマッピングは、前記ターゲットディスプレイに対して決定された、入力QVE値と出力深度値との間の入出力関係を表している工程と、を包含する方法。 - 復号化器における支援3Dディスプレイアダプテーションの方法であって、
請求項8に記載の方法に従って符号化器によって生成されたQVEデータ(424)を前記復号化器で受信する工程と、
ターゲットディスプレイについての逆QVEマッピング(428)を前記QVEデータに適用して、前記ターゲットディスプレイ用のターゲット深度データを生成する工程であって、前記ターゲットディスプレイについての前記逆QVEマッピングは、前記ターゲットディスプレイに対して決定された、入力QVE値と出力深度値との間の入出力関係を表している工程と、を包含する方法。 - 復号化器における支援3Dディスプレイアダプテーションの方法であって、
基準深度データ(414)および基準ディスプレイQVEマッピング(412)の表現を前記復号化器で受信する工程であって、前記基準ディスプレイQVEマッピングは、基準ディスプレイに対して決定された、入力深度または視差データと出力QVE値との間の入出力関係を表している工程と、
前記基準ディスプレイQVEマッピングを前記基準深度データ(414)に適用して、復号化されたQVEデータを生成する工程と、
ターゲットディスプレイについての逆QVEマッピング(428)を前記復号化されたQVEデータに適用して、前記ターゲットディスプレイ用のターゲット深度データを生成する工程であって、前記ターゲットディスプレイについての前記逆QVEマッピングは、前記ターゲットディスプレイに対して決定された、入力QVE値と出力深度値との間の入出力関係を表している工程と、を包含する方法。 - 復号化器における支援3Dディスプレイアダプテーションの方法であって、
オリジナル入力深度データ(407)、深度範囲変換関数および基準ディスプレイQVEマッピング(412)の表現を前記復号化器で受信する工程であって、前記基準ディスプレイQVEマッピングは、基準ディスプレイに対して決定された、入力深度または視差データと出力QVE値との間の入出力関係を表している工程と、
前記深度範囲変換関数を前記オリジナル入力深度データに適用して、基準深度データ(414)を生成する工程と、
前記基準ディスプレイQVEマッピングを前記基準深度データ(414)に適用して、復号化されたQVEデータを生成する工程と、
ターゲットディスプレイについての逆QVEマッピング(428)を前記復号化されたQVEデータに適用して、前記ターゲットディスプレイ用のターゲット深度データを生成する工程であって、前記ターゲットディスプレイについての前記逆QVEマッピングは、前記ターゲットディスプレイに対して決定された、入力QVE値と出力深度値との間の入出力関係を表している工程と、を包含する方法。 - 3Dディスプレイエミュレーションの方法であって、
立体画像のオリジナル入力深度データ(407)を受信する工程と、
基準深度マップデータ(414)を生成する工程であって、前記基準深度マップデータは、前記オリジナル入力深度データ(407)および深度範囲変換関数(416)に応じて生成される工程と、
前記基準深度マップデータ(414)および基準ディスプレイQVEマッピング(412)に応じて視聴体験クオリティー(QVE)データ(424)を生成する工程であって、前記基準ディスプレイQVEマッピングは、基準ディスプレイについて決定された、入力深度または視差データと出力QVE値との間の入出力関係を表している工程と、
エミュレートするターゲットディスプレイを選択する工程と、
前記エミュレートするターゲットディスプレイについての逆QVEマッピング(428)を前記QVEデータ(424)に適用して、前記エミュレートするターゲットディスプレイ用のターゲット深度データを生成する工程であって、前記エミュレートするターゲットディスプレイについての前記逆QVEマッピングは、前記エミュレートするターゲットディスプレイに対して決定された、入力QVE値と出力深度値との間の入出力関係を表している工程と、を包含する方法。 - プロセッサを備え、請求項1から15のいずれかに記載の方法を行うように構成された装置。
- 請求項1から15のいずれかに記載の方法を実行するためのコンピュータ実行可能命令を格納した非一時的なコンピュータ可読記憶媒体。
- 視聴体験クオリティー(QVE)マッピングを用いて3Dディスプレイを特徴付ける方法であって、
前記3Dディスプレイ上に表示する立体画像についての、ある深度範囲の入力深度値の各値またはある視差範囲の入力視差値の各値に対して、前記3Dディスプレイ用の出力QVE値を生成する工程と、
前記出力QVE値に応じて前記3Dディスプレイ用の深度データを生成する工程とを包含し、
前記視聴体験クオリティー(QVE)マッピングは、前記入力深度値または前記入力視差値と前記出力QVE値との間の入出力関係を表しており、
前記出力QVE値を生成する工程は、
前記入力深度または視差を有するテスト立体画像を前記3Dディスプレイ上に表示する工程(210)と、
前記表示された画像をカメラで撮影して、2D撮影画像を生成する工程(215)と、
前記2D撮影画像を分析して、前記入力深度または視差に対応する前記出力QVE値を生成する工程(220)とを包含し、
前記2D撮影画像を分析する工程は、
前記テスト立体画像の視点に応じてボケフィルタを用いてボケた画像の組を生成する工程であって、前記ボケた画像の組の各ボケた画像は異なるボケパラメータを用いて生成される工程と、
画像比較基準に従って、前記2D撮影画像を前記ボケた画像の組のうちの1つ以上のボケた画像と比較して、1つ以上の差分メトリックを決定する工程と、
前記決定された1つ以上の差分メトリックに応じて、前記出力QVE値を生成する工程とを包含する、方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361807672P | 2013-04-02 | 2013-04-02 | |
US61/807,672 | 2013-04-02 | ||
PCT/US2014/030588 WO2014165316A1 (en) | 2013-04-02 | 2014-03-17 | Guided 3d display adaptation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016521041A JP2016521041A (ja) | 2016-07-14 |
JP6302540B2 true JP6302540B2 (ja) | 2018-03-28 |
Family
ID=50729789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016506318A Active JP6302540B2 (ja) | 2013-04-02 | 2014-03-17 | 支援3dディスプレイアダプテーション |
Country Status (8)
Country | Link |
---|---|
US (1) | US10063845B2 (ja) |
EP (1) | EP2982106B1 (ja) |
JP (1) | JP6302540B2 (ja) |
KR (1) | KR101724309B1 (ja) |
CN (1) | CN105103544B (ja) |
HK (1) | HK1216694A1 (ja) |
TW (1) | TWI547142B (ja) |
WO (1) | WO2014165316A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150103162A1 (en) * | 2013-10-14 | 2015-04-16 | Etron Technology, Inc. | System of quickly generating a relationship table of distance to disparity of a camera and related method thereof |
KR20200004840A (ko) * | 2017-05-15 | 2020-01-14 | 아우스터, 인크. | 파노라마 lidar 결과의 컬러 보강 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2857133A1 (fr) | 2003-07-03 | 2005-01-07 | Thomson Licensing Sa | Procede de generation de flou |
EP2332340B1 (en) | 2008-10-10 | 2015-12-23 | Koninklijke Philips N.V. | A method of processing parallax information comprised in a signal |
JP4737573B2 (ja) | 2009-02-05 | 2011-08-03 | 富士フイルム株式会社 | 3次元画像出力装置及び方法 |
US8629899B2 (en) | 2009-08-06 | 2014-01-14 | Qualcomm Incorporated | Transforming video data in accordance with human visual system feedback metrics |
JP5444955B2 (ja) | 2009-08-31 | 2014-03-19 | ソニー株式会社 | 立体画像表示システム、視差変換装置、視差変換方法およびプログラム |
WO2011081646A1 (en) | 2009-12-15 | 2011-07-07 | Thomson Licensing | Stereo-image quality and disparity/depth indications |
US20110169818A1 (en) | 2010-01-13 | 2011-07-14 | Sharp Laboratories Of America, Inc. | Reducing viewing discomfort |
WO2011133496A2 (en) * | 2010-04-21 | 2011-10-27 | Samir Hulyalkar | System, method and apparatus for generation, transmission and display of 3d content |
JP4875762B2 (ja) | 2010-05-26 | 2012-02-15 | シャープ株式会社 | 画像処理装置、画像表示装置および画像撮像装置 |
US9406132B2 (en) | 2010-07-16 | 2016-08-02 | Qualcomm Incorporated | Vision-based quality metric for three dimensional video |
WO2012050089A1 (ja) * | 2010-10-12 | 2012-04-19 | 株式会社Jvcケンウッド | 奥行き信号生成装置、擬似立体画像信号生成装置、奥行き信号生成方法、擬似立体画像信号生成方法、奥行き信号生成プログラム、擬似立体画像信号生成プログラム |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US8836796B2 (en) * | 2010-11-23 | 2014-09-16 | Dolby Laboratories Licensing Corporation | Method and system for display characterization or calibration using a camera device |
KR101727899B1 (ko) | 2010-11-26 | 2017-04-18 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
US8274552B2 (en) * | 2010-12-27 | 2012-09-25 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
US9407904B2 (en) * | 2013-05-01 | 2016-08-02 | Legend3D, Inc. | Method for creating 3D virtual reality from 2D images |
US8654181B2 (en) | 2011-03-28 | 2014-02-18 | Avid Technology, Inc. | Methods for detecting, visualizing, and correcting the perceived depth of a multicamera image sequence |
WO2012156518A2 (en) | 2011-05-17 | 2012-11-22 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Methods and device for processing digital stereo image content |
CN103597839B (zh) * | 2011-05-31 | 2017-10-20 | 杜比实验室特许公司 | 视频压缩方法、视频重构方法和***、及编码器 |
US20140111627A1 (en) * | 2011-06-20 | 2014-04-24 | Panasonic Corporation | Multi-viewpoint image generation device and multi-viewpoint image generation method |
US8855472B2 (en) | 2011-07-26 | 2014-10-07 | Panasonic Corporation | Video editing apparatus, video editing method, program, and integrated circuit |
US9560334B2 (en) * | 2011-09-08 | 2017-01-31 | Qualcomm Incorporated | Methods and apparatus for improved cropping of a stereoscopic image pair |
US20130258044A1 (en) * | 2012-03-30 | 2013-10-03 | Zetta Research And Development Llc - Forc Series | Multi-lens camera |
US9600888B2 (en) * | 2012-09-14 | 2017-03-21 | Sony Corporation | Image processing device, image processing method, and program |
US9547937B2 (en) * | 2012-11-30 | 2017-01-17 | Legend3D, Inc. | Three-dimensional annotation system and method |
US9436358B2 (en) * | 2013-03-07 | 2016-09-06 | Cyberlink Corp. | Systems and methods for editing three-dimensional video |
US9438878B2 (en) * | 2013-05-01 | 2016-09-06 | Legend3D, Inc. | Method of converting 2D video to 3D video using 3D object models |
TWI530156B (zh) * | 2014-01-10 | 2016-04-11 | 友達光電股份有限公司 | 立體顯示方法 |
-
2014
- 2014-02-19 TW TW103105463A patent/TWI547142B/zh active
- 2014-03-17 US US14/781,560 patent/US10063845B2/en active Active
- 2014-03-17 CN CN201480019109.8A patent/CN105103544B/zh active Active
- 2014-03-17 JP JP2016506318A patent/JP6302540B2/ja active Active
- 2014-03-17 EP EP14724215.0A patent/EP2982106B1/en active Active
- 2014-03-17 WO PCT/US2014/030588 patent/WO2014165316A1/en active Application Filing
- 2014-03-17 KR KR1020157027050A patent/KR101724309B1/ko active IP Right Grant
-
2016
- 2016-04-21 HK HK16104608.8A patent/HK1216694A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
TW201448565A (zh) | 2014-12-16 |
US20160065949A1 (en) | 2016-03-03 |
HK1216694A1 (zh) | 2016-11-25 |
TWI547142B (zh) | 2016-08-21 |
KR101724309B1 (ko) | 2017-04-07 |
EP2982106A1 (en) | 2016-02-10 |
EP2982106B1 (en) | 2019-06-19 |
WO2014165316A1 (en) | 2014-10-09 |
KR20150126640A (ko) | 2015-11-12 |
CN105103544B (zh) | 2017-05-10 |
US10063845B2 (en) | 2018-08-28 |
CN105103544A (zh) | 2015-11-25 |
JP2016521041A (ja) | 2016-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101863767B1 (ko) | 의사-3d 인위적 원근법 및 장치 | |
US9445072B2 (en) | Synthesizing views based on image domain warping | |
US8711204B2 (en) | Stereoscopic editing for video production, post-production and display adaptation | |
US10095953B2 (en) | Depth modification for display applications | |
JP5905610B2 (ja) | 3d視覚的ダイナミックレンジ符号化 | |
US20120188334A1 (en) | Generating 3D stereoscopic content from monoscopic video content | |
US20120120192A1 (en) | Hierarchical hole-filling for depth-based view synthesis in ftv and 3d video | |
Daly et al. | Perceptual issues in stereoscopic signal processing | |
US9654759B2 (en) | Metadata for depth filtering | |
Winkler et al. | Stereo/multiview picture quality: Overview and recent advances | |
EP2569950A1 (en) | Comfort noise and film grain processing for 3 dimensional video | |
JP6148154B2 (ja) | 画像処理装置及び画像処理プログラム | |
JP6302540B2 (ja) | 支援3dディスプレイアダプテーション | |
JP2014042238A (ja) | 3dビジュアルコンテントのデプスベースイメージスケーリング用の装置及び方法 | |
JPWO2013069171A1 (ja) | 画像処理装置、及び画像処理方法 | |
CN107767412A (zh) | 一种图像处理方法及装置 | |
RU2632404C2 (ru) | Данные сигнализации глубины | |
KR20130026370A (ko) | 깊이 추정 데이터 생성 장치, 깊이 추정 데이터 생성 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체 및, 의사 입체 화상 표시 장치 | |
Xu | Capturing and post-processing of stereoscopic 3D content for improved quality of experience | |
JP2021514138A (ja) | 3dディスプレイのためのオーバースキャン | |
Ohm et al. | Signal Composition, Rendering and Presentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170829 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180302 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6302540 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |