JP5566385B2 - 洗練された奥行きマップ - Google Patents

洗練された奥行きマップ Download PDF

Info

Publication number
JP5566385B2
JP5566385B2 JP2011523793A JP2011523793A JP5566385B2 JP 5566385 B2 JP5566385 B2 JP 5566385B2 JP 2011523793 A JP2011523793 A JP 2011523793A JP 2011523793 A JP2011523793 A JP 2011523793A JP 5566385 B2 JP5566385 B2 JP 5566385B2
Authority
JP
Japan
Prior art keywords
depth information
picture
reference picture
target
modified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011523793A
Other languages
English (en)
Other versions
JP2012500564A5 (ja
JP2012500564A (ja
Inventor
ティアン,ドン
パンディット,パーヴィン,ビバス
イン,ペン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2012500564A publication Critical patent/JP2012500564A/ja
Publication of JP2012500564A5 publication Critical patent/JP2012500564A5/ja
Application granted granted Critical
Publication of JP5566385B2 publication Critical patent/JP5566385B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

関連出願への相互参照
本願は、2008年8月20日に出願された、「洗練された奥行きマップ」という名称の米国仮出願第61/189,552号の利益を主張する。その内容はここに参照によってあらゆる目的においてその全体において組み込まれる。
技術分野
符号化システムに関する諸実装が記載される。さまざまな具体的な実装は洗練された奥行きマップに関する。
マルチビュー・ビデオ符号化が、自由視点および三次元(3D)ビデオ・アプリケーション、家庭エンターテインメントならびに監視を含む幅広い多様な用途に役立つキー技術であることは広く認識されるに至っている。奥行きデータは一般にビュー合成のために不可欠である。
そうしたマルチビュー・アプリケーションでは、関連するビデオおよび奥行きデータの量は典型的には膨大になる。よって、独立した複数のビューのサイマルキャストを実行する現行のビデオ符号化ソリューションの符号化効率を改善する助けになる枠組みに対する、少なくとも要望が存在する。
マルチビュー・ビデオ源は、同じシーンの複数のビューを含む。結果として、典型的には複数のビュー画像の間には高度の相関が存在する。したがって、時間的冗長性に加えてビューの冗長性を活用できる。ビュー冗長性は、たとえば、異なるビューを横断したビュー予測を実行するために活用できる。
実際的なあるシナリオでは、3DVシステムが一部のビューをエンコードしてもよく、他のビューはビュー合成を使って再構成されることになる。より高い品質が要求される場合には、スキップされたビューについての残差信号が送られてもよい。さらに、合成されたピクチャーは、その後のピクチャーをエンコードするための基準〔レファレンス〕のはたらきをすることができる。
ある一般的な側面によれば、ピクチャーの集合におけるあるピクチャーについての奥行き情報がアクセスされる。そのピクチャーについての修正された奥行き情報がアクセスされる。奥行き情報と修正された奥行き情報との間の差を特徴付ける洗練(a refinement)が決定される。該洗練および奥行き情報が、ピクチャーの集合のうちの一つまたは複数のピクチャーを処理する際に使うために提供される。
もう一つの一般的な側面によれば、ピクチャーの集合におけるあるピクチャーについての奥行き情報がアクセスされる。そのピクチャーについての奥行き情報とそのピクチャーについての修正された奥行き情報との間の差を特徴付ける洗練(a refinement)がアクセスされる。そのピクチャーについての修正された奥行き情報が決定される。その修正された奥行き情報を使って、ピクチャーの集合のうちの一つまたは複数のピクチャーが処理される。
一つまたは複数の実装の詳細が付属の図面および以下の記述において記載される。一つの個別的な仕方で記載されていたとしても、諸実装はさまざまな仕方で構成され、あるいは具現されうることは明らかなはずである。たとえば、ある実装は、方法として実行されてもよいし、あるいは一組の動作を実行するよう構成された装置または一組の動作を実行するための命令を記憶する装置のような装置として具現されてもよいし、信号として具現されてもよい。他の側面および特徴は、付属の図面および請求項との関連で考慮される以下の詳細な説明から明白となるであろう。
エンコーダのある実装の図である。 デコーダのある実装の図である。 ビデオ送信システムのある実装の図である。 ビデオ受信システムのある実装の図である。 ビデオ処理装置のある実装の図である。 マルチビュー・ビデオを奥行き情報とともに送信および受信するためのシステムのある実装の図である。 奥行きをもつ3つの入力ビュー(K=3)から9個の出力ビュー(N=9)を生成するための枠組みのある実装の図である。 仮想基準ビューを生成するために洗練された奥行きマップを使う例を示す図である。 エンコード・プロセスのある実装の図である。 図9のステップ920および図12のステップ1210をさらに例解する図である。 洗練された奥行きマップを使って仮想基準ビューを生成するもう一つの例を示す図である。 エンコード・プロセスの実装の図である。 デコード・プロセスの実装の図である。 エンコード・プロセスの実装の図である。 デコード・プロセスの実装の図である。 エンコード・プロセスの実装の図である。 デコード・プロセスの実装の図である。 デコード・プロセスの実装の図である。
本願の原理に概括的に関係し、また少なくとも一つの実装に関係して、いくつかの状況では、後続ビューが、ビュー1を該後続ビューの位置に歪める〔変形する〕ことによって、ビュー1を基準として使用してもよいことは理解されるものとする。そのような歪めは一般に、基準ビュー1の奥行きを要求/使用する。後続ビューの予測符号化において大きな残差が生じることがありうるので、よりよい符号化結果を得るためにビュー1の奥行きを洗練しうる。そのようなプロセスは、二つの奥行きマップ(DM: depth map)を生じ、両方の奥行きマップが送られてもよいし、あるいは本願のさまざまな実装において説明されるように、一つの奥行きマップおよび一つの洗練が送られてもよい。
一つの奥行きマップは符号化のために好適で、もとの奥行きマップはデコーダにおけるレンダリング(観察者のための仮想ビューの合成)のために好適である。符号化用奥行きマップは、たとえば(符号化/復号のための)追加的な基準ビューを生成するために使われる。レンダリング用奥行きマップは、たとえば、ユーザーのための追加的なビューを生成するために使われる。これら二つの目的は異なる品質尺度をもちうる。たとえば、奥行きマップは、符号化のためには好適であっても、見るには主観的に粗末なビューを生じることがありうる。しかしながら、二つの奥行きマップを送ることは高価である。
少なくとも一つの実装では、我々は、完全な第二の奥行きマップの代わりに洗練を送ることを提案する。我々はまた、コストを考えることによって、前記洗練について逐次反復する方法をも提供する。我々はまた、ある所与の基準に対し、歪められる先の各位置(ビュー)について可能な諸洗練をももつ。我々はまた、ピクセル、パーティション、マクロブロック、スライス、フレームなどまたはそれらの一つまたは複数の組み合わせ(たとえばフレーム+マクロブロック)ごとに信号伝達/洗練を行うこともできる。
基準ビューを歪めることのできる方法としては、ビューの奥行きを使う前方歪め(forward warping)と、あるいはビューの奥行きを歪めてその歪められた奥行きを過去を見る(look back)(逆行歪めする)ために使って、歪められた基準ビューにおける所与の位置に属する(対応する)基準ビューのピクセルを得る逆行歪め(reverse warping)とがある。
洗練はいくつかの仕方で符号化できる。たとえば、第三の成分としてである。この場合、これは他の洗練を使って予測的にエンコードされてもよい。あるいは、シーケンス中の別の画像または別のビューとしてであってもよい。
奥行き画像は、エンコーダおよびデコーダの制御外にある外部手段によって得られてもよく、レンダリング目的のために送信される。しかしながら、たった今述べたように、レンダリング目的のための奥行き画像は、符号化目的のためには効率的でないことがありうる。さらに、発明者は、奥行き画像の二つのバージョンが独立して符号化および伝送されるのは最適なソリューションでないと判断した。
少なくとも一つの実装において、我々は、洗練された奥行きマップを使うための枠組みを提案する。一つのそのような枠組みにおいて、我々は、もとの奥行き画像を修正するために使うことのできる奥行き画像の洗練信号を送信することを提案する。ある実装では、もとの奥行き画像はレンダリング目的のために使用され、修正された奥行き画像は符号化のために使用される。もとの奥行き画像の洗練は符号化効率を改善する。少なくとも一つの実装では、我々は、もとの奥行きマップの洗練を、マルチプル・ビュー・プラス奥行きシーケンス(multiple view plus depth sequence)とともに伝送することを提案する。これは圧縮効率を利することができる。
少なくとも一つの開示される実装によって取り組まれる一つの問題は、洗練された奥行きマップを使った効率的な複数ビュー符号化(multiple-view coding)である。複数ビュー・ビデオ・シーケンス(multiple-view video sequence)は、異なる視点から同じシーンを捉える二つ以上のビデオ・シーケンスのセットである。
少なくとも一つの実装はまた、品質スケーラブルな符号化にも適用できる。品質スケーラブルな符号化においては、追加的な奥行き洗練を受信することによって、符号化される/合成されるビューについてのよりよい品質を達成できる。
少なくとも一つの実装では、我々は、奥行き画像に対する洗練を使って3Dビデオの符号化効率を改善する問題に取り組むことを提案する。記載される技法が複数ビュー符号化に限定されないことを注意しておくべきである。たとえば、本願の原理は奥行きマップ・エンコードに適用されることができることを理解しておくものとする。すなわち、奥行きマップを洗練し、その洗練を、別のビューにおいて奥行きマップを予測エンコードするために使うことができる。エンコードは、たとえば、洗練された奥行きマップを「別のビュー」の位置まで歪めて、歪められたマップを、この「別のビュー」についてのもとの奥行きマップを予測エンコードするために基準として使うことを含む。
「奥行き情報(depth information)」が、奥行きに関するさまざまな種類の情報を指す一般的な用語であることを注意しておく。一つの型の奥行き情報は、「奥行きマップ(depth map)」である。これは一般に、ピクセルごとの奥行き画像をいう。他の型の奥行き情報としては、たとえば、符号化された各ピクセルについてではなく符号化された各ブロックについて単一の奥行き値を使うことが含まれる。さらに、奥行き情報は、ピクチャー全体について、あるいはたとえば前景オブジェクトに焦点を当てることによって画像全体よりも少ない部分について与えられてもよい。
本稿で記載される一つまたは複数の実装が二つの奥行きマップに関わる一方、本願の原理はこれのみに限定されるものではなく、よって、他の実装は他の数の奥行きマップに関わっていてもよいことは理解しておくものとする。たとえば、本稿で与えられる本願の原理の教示に鑑みると、他の実装は、第一および第二の奥行きマップに加えて、たとえば第三の奥行きマップ、第四の奥行きマップなどの一つまたは複数に関わってもよい。二つを超える追加的な奥行きマップの他の使用は、本願の原理の精神を維持しつつ、当業者によって容易に判別されうる。
図1は、本願の原理のある実施形態に基づく、本願の原理が適用されうる例示的なビデオ・エンコーダ100を示している。エンコーダ100は、変換器110の入力と信号通信で接続されている出力をもつ組み合わせ器105を含む。変換器110の出力は量子化器115の入力と信号通信で接続されている。量子化器115の出力は、エントロピー符号化器120の入力および逆量子化器125の入力と信号通信で接続されている。逆量子化器125の出力は逆変換器130の入力と信号通信で接続されている。逆変換器130の出力は、組み合わせ器135の第一の非反転入力と信号通信で接続されている。組み合わせ器135の出力は、イントラ予測器145の入力およびブロック解除フィルタ150の入力と信号通信で接続されている。ブロック解除フィルタ150の第一の出力は、(時間的予測用)基準ピクチャー・ストア155の入力および(ビュー間予測用)基準ピクチャー・ストア160の第一の入力と信号通信で接続されている。基準ピクチャー・ストア155の出力は、動き補償器175の第一の入力および動き推定器180の第一の入力と信号通信で接続されている。動き推定器180の出力は動き補償器175の第二の入力と信号通信で接続されている。基準ピクチャー・ストア160の出力は視差推定器170の第一の入力および視差補償器165の第一の入力と信号通信で接続されている。視差推定器170の出力は視差補償器165の第二の入力と信号通信で接続されている。
ブロック解除フィルタ150の第二の出力は(仮想ピクチャー生成用)基準ピクチャー・ストア171の入力と信号通信で接続されている。基準ピクチャー・ストア171の第一の出力はビュー合成器172の第一の入力および仮想基準ビュー・コントローラおよび奥行き洗練器173の第一の入力と信号通信で接続されている。仮想基準ビュー・コントローラ173の第一の出力はビュー合成器172の第二の入力と信号通信で接続されている。
エントロピー・デコーダ120の出力、仮想基準ビュー・コントローラ173の第二の出力、モード決定モジュール195の第一の出力およびビュー選択器102の第一の出力はそれぞれ、ビットストリームを出力するためのエンコーダ100の出力として利用可能である。仮想基準ビュー・コントローラおよび奥行き洗練器173の第二の入力は、インバンドまたはアウトオブバンドの奥行き信号を受け取るためのエンコーダ100の入力として利用可能である。スイッチ188の第一の入力(ビューiのピクチャー・データのため)および第二の入力(ビューjのピクチャー・データのため)はそれぞれ、エンコーダ100への各入力として利用可能である。(合成されたビューを与えるための)ビュー合成器172の出力は、基準ピクチャー・ストア160の第二の入力と信号通信で接続されている。ビュー選択器102の第二の出力は、どの入力(たとえばビューi、ビューjのためのピクチャー・データまたは合成されたビュー)がスイッチ188に与えられるかを決定する。スイッチ188の出力は、組み合わせ器105の非反転入力、動き補償器175の第三の入力、動き推定器180の第二の入力および視差推定器170の第二の入力と信号通信で接続されている。イントラ予測器145の出力は、スイッチ185の第一の入力と信号通信で接続されている。視差補償器165の出力は、スイッチ185の第二の入力と信号通信で接続されている。動き補償器175の出力は、スイッチ185の第三の入力と信号通信で接続されている。モード決定モジュール195の出力は、どの入力がスイッチ185に与えられるかを決定する。スイッチ185の出力は、組み合わせ器135の第二の非反転入力および組み合わせ器105の反転入力と信号通信で接続されている。
図1の諸部分、たとえばブロック110、115および120などは、個別にまたはまとめて、エンコーダ、エンコード・ユニットまたはアクセス・ユニットと称されてもよい。同様に、たとえばブロック125、130、135および150は、個別にまたはまとめて、デコーダまたはデコード・ユニットと称されてもよい。
図2は、本願の原理のある実施形態に基づく、本願の原理が適用されうる例示的なビデオ・デコーダ200を示している。デコーダ200は、逆量子化器210の入力に信号通信で接続されている出力をもつエントロピー・デコーダ205を含む。逆量子化器の出力は、逆変換器215の入力と信号通信で接続されている。逆変換器215の出力は、組み合わせ器220の第一の非反転入力と信号通信で接続されている。組み合わせ器220の出力はブロック解除フィルタ225の入力およびイントラ予測器230の入力と信号通信で接続されている。ブロック解除フィルタ225の第一の出力は(時間的予測用)基準ピクチャー・ストア240の入力、(ビュー間予測用)基準ピクチャー・ストア245の第一の入力および(仮想ピクチャー生成用)基準ピクチャー・ストア272の入力と信号通信で接続されている。基準ピクチャー・ストア240の出力は、動き補償器235の第一の入力と信号通信で接続されている。基準ピクチャー・ストア245の出力は、視差補償器250の第一の入力と信号通信で接続されている。
ビットストリーム受領器201の出力は、ビットストリーム・パーサ202の入力と信号通信で接続されている。ビットストリーム・パーサ202の第一の出力(残差ビットストリームを与えるため)は、エントロピー・デコーダ205の入力と信号通信で接続されている。ビットストリーム・パーサ202の第二の出力(どの入力がスイッチ255によって選択されるかを制御するための制御シンタックスを与えるため)はモード選択器222の入力と信号通信で接続されている。ビットストリーム・パーサ202の第三の出力(動きベクトルを与えるため)は、動き補償器235の第二の入力と信号通信で接続されている。ビットストリーム・パーサ202の第四の出力(視差ベクトルおよび/または照明オフセットを与えるため)は視差補償器250の第二の入力と信号通信で接続されている。ビットストリーム・パーサ202の第五の出力(仮想基準ビュー・コントロールおよび奥行き洗練情報を与えるため)は、仮想基準ビュー・コントローラおよび奥行き洗練器288の第一の入力と信号通信で接続されている。仮想基準ビュー・コントローラおよび奥行き洗練器288の出力は、ビュー合成器271の第一の入力と信号通信で接続されている。ビュー合成器271の出力は、基準ピクチャー・ストア245の第二の入力と信号通信で接続されている。基準ピクチャー・ストア272の出力は、ビュー合成器271の第二の入力と信号通信で接続されている。照明オフセット(illumination offset)は任意的な入力であり、実装に依存して使われても使われなくてもよいことは理解しておくべきである。
スイッチ255の出力は、組み合わせ器220の第二の非反転入力と信号通信で接続されている。スイッチ255の第一の入力は、視差補償器250の出力と信号通信で接続されている。スイッチ255の第二の入力は、動き補償器235の出力と信号通信で接続されている。スイッチ255の第三の入力は、イントラ予測器230の出力と信号通信で接続されている。モード・モジュール222の出力は、どの入力がスイッチ255によって選択されるかを制御するためにスイッチ255と信号通信で接続されている。ブロック解除フィルタ225の出力はデコーダの出力として利用可能である。仮想基準コントローラおよび奥行き洗練器288の第二の入力は、インバンドまたはアウトオブバンドの奥行き信号を受領するために、デコーダ200の入力として利用可能である。
図2の諸部分、たとえばビットストリーム・パーサ202および特定のデータもしくは情報へのアクセスを提供する他の任意のブロックは、個別にまたはまとめて、アクセス・ユニットと称されてもよい。同様に、たとえばブロック205、210、215、220および225は、個別にまたはまとめて、デコーダまたはデコード・ユニットと称されてもよい。
図3は、本願の原理のある実装に基づく、本願の原理が適用されうる例示的なビデオ送信システム300を示している。ビデオ送信システム300はたとえば、衛星、ケーブル、電話線または地上波放送などといった多様な媒体のうち任意のものを使って信号を送信するためのヘッドエンドまたは送信システムであってもよい。送信は、インターネットまたは他の何らかのネットワーク上で提供されてもよい。
ビデオ送信システム300は、奥行きとともにビュー間スキップ・モード(inter-view skip mode)を使ってエンコードされたビデオ・コンテンツを生成および送達することができる。これは、奥行き情報または受信機側で奥行き情報を合成するために使われることのできる情報を含むエンコードされた信号(単数または複数)を生成することによって達成される。受信機側はたとえばデコーダを有していてもよい。
ビデオ送信システム300は、エンコーダ310およびエンコードされた信号を送信できる送信機320を含む。エンコーダ310はビデオ情報を受領し、奥行きとともにビュー間スキップ・モードを使ってエンコードされた信号(単数または複数)を生成する。エンコーダ310はたとえば上で詳述したエンコーダ300であってもよい。エンコーダ310は、たとえばさまざまな情報を受領し、組み立てて記憶または伝送のための構造化されたフォーマットにするための組み立て〔アセンブリー〕ユニットを含むサブモジュールを含んでいてもよい。さまざまな情報はたとえば、符号化されたまたは符号化されていないビデオ、符号化されたまたは符号化されていない奥行き情報および符号化されたまたは符号化されていない、たとえば動きベクトル、符号化モード・インジケータおよびシンタックス要素といった要素を含んでいてもよい。
送信機320はたとえば、エンコードされたピクチャーおよび/またはそれに関係する情報を表す一つまたは複数のビットストリームを有するプログラム信号を送信するよう適応されていてもよい。典型的な送信機は、たとえば、誤り訂正符号化を提供すること、信号中のデータをインターリーブすること、信号中のエネルギーをランダム化することおよび信号を一つまたは複数の搬送波上に変調することのうちの一つまたは複数といった機能を実行する。送信機は、アンテナ(図示せず)を含んでいてもよいし、あるいはアンテナとのインターフェースをもっていてもよい。したがって、送信機320の実装は、変調器を含んでいてもよいし、あるいは変調器に限定されてもよい。
図4は、本願の原理のある実施形態に基づく、本願の原理が適用されうる例示的なビデオ受信システム400を示している。ビデオ受信システム400は、衛星、ケーブル、電話線または地上波放送などといった多様な媒体を通じて信号を受信するよう構成されていてもよい。信号はインターネットまたは他の何らかのネットワークを通じて受信されてもよい。
ビデオ受信システム400は、たとえば、携帯電話、コンピュータ、セットトップボックス、テレビジョンまたはエンコードされたビデオを受信して例えばデコードされたビデオをユーザーへの表示のためにまたは記憶のために提供する他の装置であってもよい。よって、ビデオ受信システム400はその出力を、たとえば、テレビジョンの画面、コンピュータ・モニタ、コンピュータ(記憶、処理もしくは表示のために)または他の何らかの記憶、処理もしくは表示装置に提供してもよい。
ビデオ受信システム400は、ビデオ情報を含むビデオ・コンテンツを受信および処理することができる。ビデオ受信システム400は、たとえば本願の実装において記述される信号のようなエンコードされた信号を受信できる受信器410と、受信した信号をデコードできるデコーダ420とを含む。
受信器410はたとえば、エンコードされたピクチャーを表す複数のビットストリームを有するプログラム信号を受信するよう適応されていてもよい。典型的な受信器は、たとえば、変調されエンコードされたデータ信号を受信する、一つもしくは複数の搬送波からデータ信号を復調する、信号中のエネルギーをランダム化解除する、信号中のデータをインターリーブ解除するおよび信号を誤り訂正復号するのうちの一つまたは複数といった機能を実行する。受信器410は、アンテナ(図示せず)を含んでいてもよいし、あるいはアンテナとのインターフェースをもっていてもよい。受信器410の実装は、復調器を含んでいてもよいし、あるいは復調器に限定されてもよい。
デコーダ420は、ビデオ情報および奥行き情報を含むビデオ信号を出力する。デコーダ420はたとえば、上で詳述したデコーダ400であってもよい。
図5は、本願の原理のある実施形態に基づく、本願の原理が適用されうる例示的なビデオ処理装置500を示している。ビデオ処理装置500はたとえば、セットトップボックスまたはエンコードされたビデオを受信してたとえばデコードされたビデオをユーザーへの表示のためまたは記憶のために提供する他の装置であってもよい。このように、ビデオ処理装置500はその出力をテレビジョン、コンピュータ・モニタまたはコンピュータもしくは他の処理装置に提供してもよい。
ビデオ処理装置500は、フロントエンド(FE: front-end)装置505およびデコーダ510を含む。フロントエンド装置505はたとえば、エンコードされたピクチャーを表す複数のビットストリームを有するプログラム信号を受信し、前記複数のビットストリームからデコードするための一つまたは複数のビットストリームを選択するよう適応された受信機であってもよい。典型的な受信機は、たとえば、変調されエンコードされたデータ信号を受信する、データ信号を復調する、データ信号の一つまたは複数のエンコード(たとえばチャネル符号化および/またはソース符号化)をデコードする、および/またはデータ信号を誤り訂正するのうちの一つまたは複数といった機能を実行する。フロントエンド装置505はたとえばアンテナ(図示せず)からプログラム信号を受信してもよい。フロントエンド装置505は受信したデータ信号をデコーダ510に与える。
デコーダ510はデータ信号520を受け取る。データ信号520はたとえば、一つまたは複数の、先進ビデオ符号化(AVC: Advanced Video Coding)、スケーラブル・ビデオ符号化(SVC: Scalable Video Coding)またはマルチビュー・ビデオ符号化(MVC: Multi-view Video Coding)互換のストリームを含みうる。
AVCとは、より特定的には、既存の国際標準化機関/国際電気標準会議(ISO/IEC)動画像専門家グループ4(MPEG-4)パート10の先進ビデオ符号化(AVC)規格/国際電気通信連合・電気通信部門(ITU-T)H.264勧告(以下では「H.264/MPEG-4 AVC規格」または「AVC規格」もしくは単に「AVC」のようなその変形)をいう。
MVCとは、より特定的には、AVC規格のマルチビュー・ビデオ符号化(MVC: multi-view video coding)拡張(付属書H)をいう。
SVCとは、より特定的には、AVC規格のスケーラブル・ビデオ符号化(SVC: scalable video coding)拡張(付属書G)をいう。これはH.264/MPEG-4 AVC、SVC拡張(「SVC拡張」または単に「SVC」)と称される。
デコーダ510は、受信された信号520の全部または一部をデコードし、出力としてデコードされたビデオ信号530を与える。デコードされたビデオ530は選択器550に与えられる。装置500はまた、ユーザー入力570を受領するユーザー・インターフェース560をも含む。ユーザー・インターフェース560は、ユーザー入力570に基づく、ピクチャー選択信号580を選択器550に与える。ピクチャー選択信号580およびユーザー入力570は、利用可能なデコードされたデータの複数のピクチャー、シーケンス、スケーラブル・バージョン、ビューまたは他の選択肢のうちのどれを表示させることをユーザーが望んでいるかを示す。選択器550は、選択されたピクチャー(単数または複数)を出力590として与える。選択器550は、デコードされたビデオ530におけるピクチャーのどれを出力590として提供するために選択するかを選択するために、ピクチャー選択情報580を使う。
さまざまな実装において、選択器550はユーザー・インターフェース560を含み、他の実装においては、別個のインターフェース機能が実行されることなく選択器550が直接ユーザー入力570を受領するので、ユーザー・インターフェース560は設けられない。選択器550はたとえば、ソフトウェアにおいて実装されてもよいし、あるいは集積回路として実装されてもよい。ある実装では、選択器550はデコーダ510に組み込まれ、別の実装ではデコーダ510、選択器550およびユーザー・インターフェース560がみな統合される。
ある応用では、フロントエンド505はさまざまなテレビジョン・ショーの放送を受信し、一つを処理のために選択する。一つのショーの選択は、視聴したいチャネルのユーザー入力に基づく。フロントエンド装置505へのユーザー入力は図5には示されていないが、フロントエンド装置505はユーザー入力570を受領する。フロントエンド505は放送を受領し、放送スペクトルの関連する部分を復調し、復調されたショーの外側のエンコードがあればそれをデコードすることによって所望されるショーを処理する。フロントエンド505はデコードされたショーをデコーダ510に与える。デコーダ510は装置560および550を含む統合されたユニットである。デコーダ510はこのようにユーザー入力を受領する。該ユーザー入力は、ショーにおいて視聴することが所望されるビューの、ユーザー供給される指示である。デコーダ510は選択されたビューを、また他のビューからの必要とされる基準ピクチャーがあればそれも、デコードし、デコードされたビュー590をテレビジョン(図示せず)上での表示のために提供する。
上記の応用を続けると、ユーザーは表示されるビューを切り換えることを所望することがありうる。すると、ユーザーは新しい入力をデコーダ510に提供しうる。ユーザーから「ビュー変更」を受領したのち、デコーダ510は古いビューおよび新しいビューの両方を、また古いビューと新しいビューとの間にあるビューがあればそれも、デコードする。すなわち、デコーダ510は、古いビューを撮影するカメラと新しいビューを撮影するカメラとの間に物理的に位置されるカメラから撮影されたビューがあればそれをデコードする。フロントエンド装置505は古いビュー、新しいビューおよび中間のビューを同定する情報をも受領する。そのような情報は、たとえば、ビューの位置についての情報をもつコントローラ(図5には示さず)またはデコーダ510によって提供されてもよい。他の実装は、コントローラが統合されたフロントエンド装置を使用してもよい。
デコーダ510は、それらのデコードされたビューのすべてを出力590として提供する。ポストプロセッサ(図5には示さず)は、古いビューから新しいビューへのなめらかな遷移を提供するようビューどうしの間で補間し、この遷移をユーザーに対して表示する。新しいビューに遷移したのち、ポストプロセッサはデコーダ510およびフロントエンド装置505に(図示しない一つまたは複数の通信リンクを通じて)新しいビューだけが必要とされることを通知する。その後は、デコーダ510は新しいビューだけを出力590として提供する。
システム500は、画像のシーケンスの複数のビューを受領し、表示のために単一のビューを呈示し、さまざまなビューの間でなめらかな仕方で切り換えるために使用されてもよい。なめらかな仕方は、別のビューに移るためにビュー間で補間することを含んでもよい。さらに、システム500はユーザーに、オブジェクトまたはシーンを回転させる、あるいはオブジェクトまたはシーンの三次元表現を見ることを許容してもよい。たとえばオブジェクトの回転は、ビューからビューへと移り、ビュー間のなめらかな遷移を得るためまたは単に三次元表現を得るためにビュー間の補間をすることに対応しうる。すなわち、ユーザーは補間されたビューを、表示されるべき「ビュー」として、「選択」しうる。
本願の原理およびそれが適用されうる環境の記述に戻ると、本願の原理が有利に3Dビデオ(3DV)に適用されうることを理解しておくべきである。3Dビデオは、複数ビュー・ビデオおよび奥行き情報のための符号化された表現を含み、受信機における高品質の3Dレンダリングの生成を目標とする新たな枠組みである。これは、裸眼多視点表示をもつ3D視覚体験を可能にする。
図6は、本願の原理のある実施形態に基づく、本願の原理が適用されうる、奥行き情報とともにマルチビュー・ビデオを送信および受信するための例示的なシステム600を示している。図6では、ビデオ・データは実線で示され、奥行きデータは破線で示され、メタデータは点線で示される。システム600は、これに限られないが、たとえば、自由視点テレビジョン・システムであってもよい。送信機側610において、システム600は、複数のソースからそれぞれ一つまたは複数のビデオ、奥行きおよびメタデータを受領するための複数の入力をもつ三次元(3D)コンテンツ生成器620を含む。そのようなソースは、これに限られないが、ステレオカメラ611、奥行きカメラ612、マルチカメラ・セットアップ613および二次元/三次元(2D/3D)変換プロセス614を含んでいてもよい。一つまたは複数のネットワーク630が、ビデオ、奥行きならびにマルチビュー・ビデオ符号化(MVC)およびデジタルビデオ放送(DVB: digital video broadcasting)に関係するメタデータのうちの一つまたは複数を送信するために使われてもよい。
受信機側640において、奥行き画像ベースのレンダラー650は、奥行き画像ベースのレンダリングを実行して、信号をさまざまな型の表示に投影する。奥行き画像ベースのレンダラー650は、表示配位情報およびユーザー選好を受領することができる。奥行き画像ベースのレンダラー650の出力は、2Dディスプレイ661、Mビュー3Dディスプレイ662および/またはヘッドトラッキング式ステレオ・ディスプレイ663のうちの一つまたは複数に与えられてもよい。
送信されるべきデータの量を減らすために、カメラ(V1,V2,…,V9)の密な配列は間引かれてもよく、カメラの疎な集合だけが実際にシーンを取り込む。図7は、本願の原理のある実施形態に基づく、本願の原理が適用されうる、3つの入力ビュー(K=3)および奥行きから9個の出力ビュー(N=9)を生成するための例示的な枠組み700を示している。枠組み700は、複数ビューの出力をサポートする裸眼立体視3Dディスプレイ710と、第一の奥行き画像ベースのレンダラー(depth image-based renderer)720と、第二の奥行き画像ベースのレンダラー730と、デコードされたデータのためのバッファ740とを含む。デコードされたデータは、マルチプル・ビュー・プラス奥行き(MVD: Multiple View plus Depth)として知られる表現である。9個のカメラはV1ないしV9で表されている。三つの入力ビューについての対応する奥行きマップはD1、D5およびD9で表されている。取り込まれるカメラ位置(たとえばPos1、Pos2、Pos3)の間の任意の仮想カメラ位置は、図7に示されるように、利用可能な奥行きマップ(D1、D5、D9)を使って生成できる。図7で見て取れるように、データを取り込むために使われる実際のカメラ(V1、V5およびV9)の間の基線は大きくてもよい。結果として、これらのカメラの間の相関は著しく低減し、符号化効率は時間的相関だけに依拠することになるので、これらのカメラの符号化効率は損なわれることがありうる。さらに、図7に示されるように、ビュー2、3、4、6、7および8は符号化においてはスキップされている。一方では、欠けているビューを再構成するため、デコーダはビュー1、5および9ならびにその奥行き画像を使用する。ビュー5についての奥行き画像が欠けているビューをレンダリングするために取得されることに注意されたい。他方では、ビュー1およびビュー9をビュー5に基づいてエンコードするために、ビュー5についての異なる奥行き画像が同定されうる。こうして、ビュー5についての二つの異なる奥行き画像が符号化されることになる。少なくとも一つの実装においては、我々は、他のビューを符号化するために、もとの奥行き画像に対する洗練を符号化することを提案する。
さらに、少なくとも一つの実装において、単にある種のビューの符号化をスキップする代わりに、エンコーダは、レンダリング品質を高めるために、選択されたピクチャーまたはビュー(すなわち、図7におけるビュー2、3、4、6、7および8)についての残差信号を送ることができる。
第一の実施形態および該実施形態の変形では、もとの奥行き画像は最良のレンダリング品質を目標とする。もとの奥行き画像は、DIBRに基づく3Dディスプレイによって利用されるよう、受信機側に送達される。もとの奥行きマップのエンコードおよび送信のためにはいかなるマルチビュー・ビデオ符号化枠組みが使用されることもできる。たとえば、開発中のMPEG-CパートIIIまたは3DVである。
符号化された奥行き画像がマルチビュー・ビデオ・エンコーダおよびデコーダにおいてアクセス可能であるとすると、合成されたビューを現在ビューを予測するための基準として使用することが可能である。もとの奥行き画像がマルチビュー・ビデオ信号の符号化のために最適化されていないことを考え、我々は、合成された基準ビューと現在ビューとの間の予測誤差を最小化するよう、奥行き画像に対する修正を信号伝達することを提案する。ある実施形態では、基準として使用される各ビューについて一つの奥行き洗練を信号伝達することが提案される。図8は、本願の原理のある実施形態に基づく、仮想基準ビューを生成するために洗練された奥行きマップを使う例800を示している。図8では、VRxyは、ビューxの洗練された奥行きを使ってビューxからビューyに合成された仮想基準(virtual reference)を表す。図8に示される一つの例では、ビュー0のほか、ビュー2が追加的な基準ビュー、仮想ビュー2を有し、この仮想ビュー2は、ビュー0の洗練された奥行きマップを使ってビュー0から合成されている。他方、ビュー0の同じ洗練された奥行きマップを使って、仮想ビュー1が、ビュー1のための追加的な基準として生成される。この実施形態では、奥行きマップ洗練は基準ビューに関連付けられている。図8では、ビュー0、2、4および6の各ビューは、一つの関連付けられた洗練された奥行きマップをもち、一方、ビュー1、3および5は関連付けられた洗練された奥行きマップをもたない。
エンコード効率を改善するために、図9および図10に示されるように奥行きマップを洗練するための逐次反復式の方法を使うことが提案される。
図9は、本願の原理のある実施形態に基づく、フレームをエンコードする例示的な方法900を示している。ステップ901では、ビューiにおいて符号化されるべきフレームがアクセスされる。ステップ902では、基準ピクチャー・リストが構築される。ステップ903では、歪められた基準ビューを構築し、基準ピクチャー・リスト中に追加するために、各基準ビューjに対してループが実行される。よって、ループが終わっていない場合、ステップ908はステップ910ではなくステップ904に制御を渡しうることを理解しておくべきである。ステップ904において、基準ビューjについて洗練された奥行きマップがあるか否かが判定される。もしあれば、制御はステップ906に渡される。もしそうでなければ、制御はステップ905に渡される。
ステップ906において、奥行きマップは、符号化目的のための再構成された奥行きマップに設定される。ステップ907において、基準ビューがビューiの位置に歪められる。ステップ908では、歪められた基準ビューが基準ピクチャー・リストに追加される。ステップ910では、フレームは、増強された(augmented)基準ピクチャー・バッファを用いてエンコードされる。ステップ915では、現在ビューが基準ビューであるか否かが判定される。もしそうであれば、制御はステップ917に渡される。そうでなければ、制御はステップ930に渡される。
ステップ917において、エンコードされた奥行きマップ(レンダリング目的用)がアクセスされる。ステップ920において、コール1000(すなわち、図10の方法1000へのコール)がなされる。これは、このフレームのための洗練された奥行きマップ(ビュー符号化目的用)を、予測されるべき別のビューとともに、入力パラメータとして取得することを含む。ステップ922では、洗練された奥行きマップが利用可能であるか否かが判定される。もしそうであれば、制御はステップ923に渡される。そうでなければ、制御はステップ930に渡される。
ステップ923では、奥行きマップ洗練、つまり奥行きマップの二つのバージョンからの差が見出される。ステップ925では、該奥行きマップ洗練がエンコードされる。
ステップ930では、エンコードされたフレームおよびもし存在すれば(すなわち利用可能であれば)奥行き洗練がビットストリームに書き込まれる。
ステップ905では、奥行きマップはレンダリング目的用のエンコードされた奥行きマップに設定される。
ある実施形態ではステップ925がたとえば、前記洗練を、以前の洗練を基準として使って予測的にエンコードすることを含んでいてもよいことを理解しておくべきである。
ある実施形態ではステップ925がたとえば、ピクチャーについての階層構造のより多くのレベルのうちの一つにおける別個の情報を含む洗練を含んでもよいことをさらに理解しておくべきである。階層構造はピクセル・レベル、パーティション・レベル、マクロブロック・レベル、スライス・レベルおよびピクチャー・レベルの二つ以上を含んでいてもよい。さらに、ある実施形態では、洗練は、該洗練によって表される各ピクセルについて別個の値を含んでいる。さらに、ある実施形態では、洗練は、該洗練によって表される各マクロブロックについての別個の値を含む。ここで、所与のマクロブロックについての別個の値は該所与のマクロブロック内の各ピクセルに適用される。
ある実施形態ではピクチャーについての奥行き情報、ピクチャーについての修正された奥行き情報および洗練のうちの一つまたは複数が、ピクチャーの一部のみに適用されることも理解しておくべきである。
図10は、本源の原理のある実施形態に基づく奥行きマップを洗練するための例示的な方法1000を示している。方法1000は、図9の方法900のステップ920および図12の方法1200のステップ1210の一つの例示的な実装であると考えてもよい。ステップ1010では、現在ビューを基準として使う目標ビューが入力パラメータとして取られる。ステップ1015では、CodingCostPrev〔前の符号化コスト〕が無限大の値に設定される。ステップ1020では、DepthMapCurr〔現在奥行きマップ〕がもとの奥行きマップとして設定される。ステップ1025では、DepthMapCurrを使って目標ビューの位置における仮想ビューを生成するために、ビュー合成が実行される。ステップ1030では、仮想ビューを基準として使うときの符号化コストCodingCostCurr〔現在符号化コスト〕が推定される。ステップ1035では、Abs(CodingCostPrev−CodingCostCurr)<ThresholdPredefined〔あらかじめ定義された閾値〕であるまたはCodingCostCurr<ThresholdCodingCost〔符号化コスト閾値〕であるまたはCodingCostが発散するかどうかが判定される。(上記の3つの条件のうちの任意のものに関して)もしそうであれば、制御はステップ1036に渡される。そうでなければ、制御はステップ1045に渡される。
ステップ1036において、CodingCostが発散するか否かが判定される。もしそうであれば、制御はステップ1037に渡される。そうでなければ、制御はステップ1040に渡される。
ステップ1037では、奥行きマップの洗練が失敗したことが確認され、呼び出し元(caller)(すなわち、図9の方法900のステップ920)に戻る。
ステップ1045では、DepthMapPrev〔前の奥行きマップ〕がDepthMapCurrとして設定される。ステップ1050では、DepthMapPrevに基づいて奥行き推定が実行され、DepthMapCurrが得られる。ステップ1055では、CodingCostPrevがCodingCostCurrに設定される。
ステップ1040では、洗練された奥行きマップが設定され、呼び出し元(すなわち、方法900のステップ920)に返される。
こうして、方法1000においては、符号化コストの変化が閾値以内にはいるまたは符号化コストがThresholdCodingCostより小さくなるまでまたは符号化コストが発散すると見出されるまで、奥行き推定、ビュー合成および符号化コスト推定が繰り返される。奥行き推定およびビュー合成は複雑なので、これは時間のかかる手順である。
奥行き洗練の符号化については、いくつかのソリューションが選択できる。一例では、奥行きマップの修正は、AVCのような既存のビデオ符号化規格を使って符号化できる。別の例では、奥行き洗練を第三のビデオ成分として扱って、ビデオ信号と一緒に符号化することができる。別の例では、マルチビュー奥行き洗練を符号化するために、MVCを使うことができる。
別の実施形態では、奥行き信号はスケーラブルに符号化されることができ、よって、異なる目的のために異なる動作点(operating point)を抽出できる。一例として、ビュー合成だけが必要とされる場合、(より低品質の奥行きマップに対応する)より低い動作点が抽出されうる。そうでなく、ビュー合成および仮想基準ビュー生成の両方が必要とされる場合、(より高品質の奥行きマップに対応する)より高い動作点が抽出されうる。
図17は、本願の原理のある実施形態に基づく、フレームをデコードする例示的な方法1700を示している。方法1700は、たとえば、図9の方法900を使ってエンコードされたフレームをデコードするために実行されてもよい。
ステップ1701において、エンコードされたフレームiおよび可能性としては奥行き洗練を含むビットストリームが読まれる。ステップ1702では、基準ピクチャー・リストが構築される。ステップ1703では、歪められた基準ビューを構築して基準ピクチャー・リスト中に追加するために各基準ビューjに対してループが実行される。よって、ループが終わっていない場合、ステップ1708はステップ1720ではなくステップ1704に制御を渡しうることを理解しておくべきである。ステップ1704において、基準ビューjについて洗練された奥行きマップがあるか否かが判定される。もしあれば、制御はステップ1706に渡される。もしそうでなければ、制御はステップ1705に渡される。
ステップ1706において、奥行きマップは、符号化目的用の再構成された洗練された奥行きマップに設定される。ステップ1707において、基準ビューがビューiの位置に歪められる。ステップ1708では、歪められた基準ビューが基準ピクチャー・リストに追加される。ステップ1720では、フレームは、増強された(augmented)基準ピクチャー・バッファを用いてデコードされる。ステップ1725では、フレーム中のすべてのスライスがデコードされたのち、デコードされたフレームが出力バッファ中に入れられる。ステップ1730では、現在ビューが基準ビューであるか否かが判定される。もしそうであれば、制御はステップ1740に渡される。そうでなければ、方法は終了される。
ステップ1740において、デコードされた奥行きマップ(レンダリング目的用)がアクセスされる。ステップ1750において、奥行きマップ洗練がデコードされる。ステップ1760では、関連付けられた奥行きマップが洗練される。
ステップ1705では、奥行きマップはレンダリング目的用のエンコードされた奥行きマップに設定される。
ある実施形態ではステップ1750がたとえば、前記洗練を、以前の洗練を基準として使って予測的にエンコードすることを含んでいてもよいことを理解しておくべきである。
ある実施形態ではピクチャーについての奥行き情報、ピクチャーについての修正された奥行き情報および洗練のうちの一つまたは複数が、ピクチャーの一部のみに適用されることも理解しておくべきである。
図16および図18にそれぞれ対応する以下の方法1600および1800はそれぞれ方法900および1700に類似しているが、ステップ1610および1820が(対応する910および1720に対して)本願の原理のある実施形態に基づいて修正されている。
図16は、本願の原理のある実施形態に基づく、現在のビューの洗練された奥行きを使ってスライスをエンコードする例示的な方法1600を示している。ステップ1601において、ビューiにおいて符号化されるべきフレームがアクセスされる。ステップ1602では、基準ピクチャー・リストが構築される。ステップ1603では、歪められた基準ビューを構築して基準ピクチャー・リスト中に追加するために各基準ビューjに対してループが実行される。よって、ループが終わっていない場合、ステップ1608はステップ1610ではなくステップ1604に制御を渡しうることを理解しておくべきである。ステップ1604において、基準ビューjについて洗練された奥行きマップがあるか否かが判定される。もしあれば、制御はステップ1606に渡される。そうでなければ、制御はステップ1605に渡される。
ステップ1606において、奥行きマップは、符号化目的用の再構成された奥行きマップに設定される。ステップ1607において、基準位置ビューjからの奥行きマップがビューiの位置に歪められる。ステップ1608では、ビューiとビューjとの間の、諸ブロックの諸ピクセルについての対応が得られる。ステップ1610では、その対応がレート・ひずみ〔ディストーション〕最適化(rate distortion optimization)に有利な場合にはそのフレームの全ブロックがその対応に基づいてエンコードされ、そうでない場合にはそのフレームの全ブロックが通常の仕方で(たとえば、特定の規格、勧告および/またはその他に従って)エンコードされる。ステップ1615では、現在ビューが基準ビューであるか否かが判定される。もしそうであれば、制御はステップ1617に渡される。そうでなければ、制御はステップ1630に渡される。
ステップ1617において、エンコードされた奥行きマップ(レンダリング目的用)がアクセスされる。ステップ1620において、このフレームのための洗練された奥行きマップ(ビュー符号化目的用)が、予測されるべき別のビューとともに、入力パラメータとして取得される。ステップ1622では、洗練された奥行きマップが利用可能であるか否かが判定される。もしそうであれば、制御はステップ1623に渡される。そうでなければ、制御はステップ1630に渡される。
ステップ1623において、奥行きマップ洗練、つまり奥行きマップの二つのバージョンからの差が見出される。ステップ1625では、奥行きマップ洗練がエンコードされる。
ステップ1630では、エンコードされたフレームおよびもし存在すれば(すなわち利用可能であれば)奥行き洗練がビットストリームに書き込まれる。
ステップ1605では、奥行きマップがレンダリング目的用のエンコードされた奥行きマップに設定される。
図18は、本願の原理のある実施形態に基づく、フレームをデコードする例示的な方法1800を示している。ステップ1801において、エンコードされたフレームiおよび可能性としては奥行き洗練を含むビットストリームが読まれる。ステップ1802では、基準ピクチャー・リストが構築される。ステップ1803では、歪められた基準ビューを構築して基準ピクチャー・リスト中に追加するために各基準ビューjに対してループが実行される。よって、ループが終わっていない場合、ステップ1808はステップ1820ではなくステップ1804に制御を渡しうることを理解しておくべきである。ステップ1804において、基準ビューjについて洗練された奥行きマップがあるか否かが判定される。もしあれば、制御はステップ1806に渡される。そうでなければ、制御はステップ1805に渡される。
ステップ1806において、奥行きマップは、符号化目的用の再構成された洗練された奥行きマップに設定される。ステップ1807において、基準位置ビューjからの奥行きマップがビューiの位置に歪められる。ステップ1808では、ビューiとビューjとの間のピクセルまたはブロックについての対応が得られる。ステップ1820では、該対応が信号伝達されている場合には該対応に基づいて現在フレームの全ブロックがデコードされ、そうでない場合には全ブロックが通常の仕方で(たとえば特定の規格、勧告および/またはその他に従って)デコードされる。ステップ1825では、フレーム中のすべてのスライスがデコードされたのち、デコードされたフレームが出力バッファ中に入れられる。ステップ1830では、現在ビューが基準ビューであるか否かが判定される。もしそうであれば、制御はステップ1840に渡される。そうでなければ、方法は終了される。
ステップ1840において、デコードされた奥行きマップ(レンダリング目的用)がアクセスされる。ステップ1850において、奥行きマップ洗練がデコードされる。ステップ1860では、関連付けられた奥行きマップが洗練される。
ステップ1805では、奥行きマップはレンダリング目的用のエンコードされた奥行きマップに設定される。
第二の実施形態および該第二の実施形態の変形では、同じ基準ビューが異なるビューを予測するために異なる位置に歪められたとき、同じ基準ビューについての二つ以上の奥行き洗練を信号伝達することが提案される。この場合、奥行きマップ洗練は、符号化されるべきビューに関連付けられ、参照インデックスによって同定される。図11は、本願の原理のある実施形態に基づく、洗練された奥行きマップを使って仮想基準ビューを生成するもう一つの例1100を示している。図11において、RDxyは、ビューyを予測するための合成されたビューVRxyを生成するためのビューxの洗練された奥行きマップ(refined depth map)を表す。VRxyは、ビューxの洗練された奥行きを使ってビューxからビューyに合成された仮想基準を表す。図11に示される一つの例では、ビュー2はビュー0に起源をもつ一つの洗練された奥行きと関連付けられており、一方、ビュー1はそれぞれビュー0およびビュー2に起源をもつ二つの洗練された奥行きマップに関連付けられている。すなわち、ビュー0の奥行きは二つの洗練されたバージョンをもつ。この実施形態は、実施例1に比べて奥行きマップ洗練を達成するより多くの柔軟性を提供し、よって符号化効率を利する。
図12は、本願の原理のある実施形態に基づく、洗練された奥行きマップに基づいて生成された追加的な基準ビューを用いてPまたはBスライスをエンコードする例示的な方法1200を示している。ステップ1205において、各基準ビューについて、レンダリング目的用の奥行きマップがアクセスされる。ステップ1210において、各基準ビューについて、コール1000がなされる。これは、このフレームのための洗練された奥行きマップ(ビュー符号化目的用)を、符号化されるべきビューとともに、入力パラメータとして取得することを含む。ステップ1215では、各基準ビューについて、奥行きマップ洗練、つまり奥行きマップの二つのバージョンからの差が見出される。ステップ1220では、どのビューが、ビデオ・ビューの予測符号化用の洗練された奥行きを送るかに関して決定がなされる。ステップ1225では、選択されたビューについての奥行きマップ洗練が符号化される。ステップ1227では、再構成された洗練された奥行きマップが取得される。ステップ1228では、再構成された洗練された奥行きマップを使って基準ビューが現在ビューに歪められる。ステップ1230では、増強された基準ピクチャー・バッファを使ってビューが符号化される。ステップ1235では、各基準ビューについて奥行き洗練を含むエンコードされたフレームがビットストリームに書き込まれる。
ある実施形態ではステップ1225がたとえば、前記洗練を、以前の洗練を基準として使って予測エンコードすることを含んでいてもよいことは理解しておくべきである。
ある実施形態ではステップ1225はたとえば、ピクチャーについての階層構造のより多くのレベルのうちの一つにおける別個の情報を含む洗練を含んでもよいことをさらに理解しておくべきである。階層構造はピクセル・レベル、パーティション・レベル、マクロブロック・レベル、スライス・レベルおよびピクチャー・レベルの二つ以上を含んでいてもよい。さらに、ある実施形態では、洗練は、該洗練によって表される各ピクセルについて別個の値を含んでいる。さらに、ある実施形態では、洗練は、該洗練によって表される各マクロブロックについての別個の値を含む。ここで、所与のマクロブロックについての別個の値は該所与のマクロブロック内の各ピクセルに適用される。
ある実施形態ではピクチャーについての奥行き情報、ピクチャーについての修正された奥行き情報および洗練のうちの一つまたは複数が、ピクチャーの一部のみに適用されることも理解しておくべきである。
図12の方法1200のステップ1215に関して、符号化コストを各基準ビューについての奥行きマップを洗練するための基準として取ることを提案する。圧縮の観点からは、洗練された奥行きマップのすべてが現在ビューの符号化を利することはできないかもしれず、よって、ある基準ビューの洗練されたビットマップが有用であり送信されるべきであるかどうかの判定がなされる。選択された基準ビューについて、我々は、対応する仮想基準を、基準バッファの前部に置くことを提案する。すなわちより低い参照インデックスを割り当てるのである。あるいはまた、これは、これに限られないが、たとえばシーケンス・パラメータ・セットまたはピクチャー・パラメータ・セットを含む別のより高いレベルにおいて信号伝達されることができる。ある実装では、上記の基準は、これに限られないが、次のうちの一つまたは複数を含んでいてもよい:(1)コスト関数が最後のコスト関数よりもある閾値量より大きく低くなっていない;(2)コスト関数がある閾値を下回っていない;および(3)コスト関数が上がっていないまたはある閾値回数より多く上がっていないまたはある閾値量もしくは閾値割合より多く上がっていない。
図13は、本願の原理のある実施形態に基づく、洗練された奥行きマップから生成される仮想基準ビューによって予測されうるPまたはBスライスをデコードする例示的な方法1300を示す。ステップ1305において、各基準ビューについてフレームおよび可能性としては奥行き洗練を含むビットストリームが読まれる。ステップ1310において、各基準ビューについて、奥行きマップ洗練がもし利用可能であればデコードされる。ステップ1312において、奥行き洗練を含む各基準ビューについて、デコードされた奥行きマップ(レンダリング目的用)がアクセスされる。ステップ1314において、各基準ビューについて、洗練された奥行きが、デコードされた奥行きマップおよびその洗練に基づいて得られる。ステップ1315において、デコードされた基準ビューが洗練された奥行きを使って歪められて仮想基準を生成する。ステップ1320において、それらの仮想基準が基準ピクチャー・バッファに入れられる。ステップ1325において、フレーム(またはフレーム中のスライス)が、増強された基準ピクチャー・バッファを使ってデコードされる。ステップ1330において、フレーム中のすべてのスライスがデコードされたのち、デコードされたフレームが出力バッファ中に入れられる。
ある実施形態ではステップ1310がたとえば、前記洗練を、以前の洗練を基準として使って予測エンコードすることを含んでいてもよいことは理解しておくべきである。
ある実施形態ではピクチャーについての奥行き情報、ピクチャーについての修正された奥行き情報および洗練のうちの一つまたは複数が、ピクチャーの一部のみに適用されることも理解しておくべきである。
第三の実施形態および該第三の実施形態の変形では、奥行き情報の洗練および奥行き情報の信号伝達を、さまざまな異なるレベルのうちの一つまたは複数において実行することが提案される。そのようなレベルは、たとえば、ピクセル、パーティション、マクロブロック、スライス、ピクチャー、フィールドおよびフレームを含んでいてもよい。したがって、奥行き情報の洗練がピクチャー全体(たとえばフィールドまたはフレーム)について同時に実行されてもよいが、ピクチャー全体よりも少ない部分についても(または代替的にそのような部分について)実行されてもよい。
多くの実装において、奥行き情報の洗練を生成する、可能性としてはいくつかの反復工程のそれぞれにおいて異なる洗練を生成するために、既知の技法が使われる。そのような技法は、ピクチャーについての奥行きマップ全体についての洗練を生成するために使われてもよい。同様に、そのような技法は、ピクチャー全体より少ない部分に関係する奥行き情報についての洗練を生成するために使用され、あるいは外挿されてもよい。そのような技法はたとえば、フラットな領域または高度な奥行き不連続性のある領域などといった特定の領域に奥行き洗練の焦点を当ててもよい。
第三の実施形態の一つの変形は次のようなものである。ビュー間スキップ・モード(interview skip mode)がマルチビュー・ビデオ符号化(MVC)について提案された。何らかの暗黙的な仕方によって、各ブロックについて単一の奥行き値が導出される。たとえば、ブロックの奥行きを、左上ピクセルの奥行きとして設定することが提案された。次いで、カメラ・パラメータおよび奥行き情報に基づく3D投影手順が、近隣ビューからの対応するブロックを同定する。対応するブロックが現在ブロックに十分な程度似ていたら、ビュー間スキップ・モードがビットストリームにおいて信号伝達され、現在ブロックはさらなるエンコードについてはスキップされる。
しかしながら、ブロックについての奥行きの固定的な暗黙的導出は常に効率的とは限らないことがありうる。この実施形態では、ある導出された奥行き値に対する洗練が向上されたオプションとして送信されることが提案される。奥行き洗練の信号伝達は、階層的な仕方で設計されることができ、たとえば、これに限られないがたとえばスライス;マクロブロック(16×16);またはサブブロック(16×8、8×16、8×8、8×4、4×8または4×4)を含む異なる複数のレベルにおいて現れることができる。少なくとも一つの実装では、シンタックス要素depthfが奥行き洗練を示す。より具体的には、depthfは選択された奥行き洗練を直接的に(たとえば図9および図10参照)またさらには奥行き洗練の予測と選択された奥行き洗練との間の差を示すことができる。
他の実装では、所与の部分(たとえば現在のマクロブロック)についての奥行き洗練が、第一の部分(たとえばピクチャーまたはスライスの最初のマクロブロック)についての奥行き洗練からの差分として信号伝達される。こうして、マクロブロックの系列についての奥行き洗練が、たとえ絶対値では比較的大きくても、小さな範囲内であれば、第一の洗練が信号伝達された後は、その系列についての残りの奥行き洗練を送信するために少数のビットが割り当てられる必要があるだけである。
さまざまな実装はまた、奥行き洗練を予測するために一つまたは複数の近隣者(neighbor)をも使う。近隣者はたとえば、(i)時間的に近隣の(neighboring)ピクチャー、(ii)空間的に近隣のマクロブロックおよび(iii)同じまたは異なる時点からの近隣のビューの全部または一部を含んでいてもよい。
奥行き洗練をもつビュー間スキップ・モードは、少なくとも一つの実装では、シンタックスにおけるdepth_skip_flagによって信号伝達される。
図14は、本願の原理のある実施形態に基づく、現在ビューの洗練された奥行きを使ってスライスをエンコードするための例示的な方法1400を示している。ステップ1404では、アンカーおよび非アンカー・ピクチャー基準がSPS拡張において設定される。ステップ1408では、ビュー数が変数Nによって表され、変数iおよびjが0に初期化される。ステップ1410において、iがNより小さいか否かが判定される。もしそうであれば、制御はステップ1412に渡される。そうでなければ、制御はステップ1432に渡される。
ステップ1412では、jがビューiにおけるピクチャー数より小さいか否かが判定される。もしそうであれば、制御はステップ1414に渡される。そうでなければ、制御はステップ1438に渡される。
ステップ1414では、現在マクロブロックのエンコードが開始される。ステップ1416では、マクロブロック・モードが検査される。ステップ1418では、奥行きスキップ・マクロブロック・モードが検査され、奥行き洗練depthfが選択される。ステップ1420では、奥行きスキップが最良モードであるか否かが判定される。もしそうであれば、制御はステップ1422に渡される。そうでなければ、制御はステップ1440に渡される。
ステップ1422では、depth_skip_flagが1に設定され、depthfが符号化される。
ステップ1424では、現在のマクロブロックがエンコードされる。ステップ1426では、すべてのマクロブロックがエンコードされたか否かが判定される。もしそうであれば、制御はステップ1428に渡される。そうでなければ、制御はステップ1414に返される。
ステップ1428では、変数jがインクリメントされる。ステップ1430では、frame_numおよびピクチャー順カウント(POC: picture order count)がインクリメントされる。
ステップ1438では、変数iがインクリメントされ、frame_numおよびPOCがリセットされる。
ステップ1440では、depth_skip_flagが0に設定される。
ステップ1432では、シーケンス・パラメータ・セット(SPS: sequence parameter set)、ピクチャー・パラメータ・セット(PPS: picture parameter set)およびビュー・パラメータ・セット(VPS: view parameter set)をインバンドで信号伝達するか否かが決定される。もしそうであれば、制御はステップ1434に渡される。そうでなければ、制御はステップ1442に渡される。
ステップ1434では、SPS、PPSおよびVPSがインバンドで信号伝達される。ステップ1436では、ビットストリームはファイルに書き込まれるまたはネットワークを通じてストリーミングされる。
ステップ1442では、SPS、PPSおよびVPSがアウトオブバンドで信号伝達される。
図15は、本願の原理のある実施形態に基づく、現在ビューの洗練された奥行きを使ってスライスを復号するための例示的な方法1500を示している。ステップ1504では、view_idが、SPS、PPS、VPS、スライス・ヘッダまたはネットワーク抽象化層(NAL: network abstraction layer)ユニット・ヘッダからパースされる。ステップ1506では、他のSPSパラメータがパースされる。ステップ1508では、現在のピクチャーがデコードを必要とするか否かが判定される。もしそうであれば、制御はステップ1510に渡される。そうでなければ、制御はステップ1530に渡される。
ステップ1510では、POC(curr)〔現在のPOC〕がPOC(prev)〔前のPOC〕に等しいか否かが判定される。もしそうであれば、制御はステップ1512に渡される。そうでなければ、制御はステップ1514に渡される。
ステップ1512では、view_numが0に等しく設定される。
ステップ1514では、ビュー符号化順を決定するためにview_id情報が高いレベルでインデックス付けされ、view_numがインクリメントされる。
ステップ1516では、スライス・ヘッダがパースされる。ステップ1518では、マクロブロック・レベル・データ、depth_skip_flagおよびdepthfがパースされる。ステップ1520では、depth_skip_flagが1に等しいか否かが判定される。もしそうであれば、制御はステップ1522に渡される。そうでなければ、制御はステップ1532に渡される。
ステップ1522では、depthfが奥行き値を洗練し、奥行きスキップ・モード(depth skip mode)でマクロブロックをデコードするために使用される。
ステップ1524では、すべてのマクロブロックが済んだ(デコードされている)か否かが判定される。もしそうであれば、制御はステップ1526に渡される。そうでなければ、制御はステップ1518に返される。
ステップ1526では、現在のピクチャーがデコードされたピクチャー・バッファ(decoded picture buffer)中に挿入される。ステップ1528では、すべてのピクチャーがデコードされたか否かが判定される。もしそうであれば、本方法は終了される。そうでなければ、制御はステップ1516に返される。
ステップ1530では、次のピクチャーが取得される。
ステップ1532では、現在のマクロブロックが(ステップ1522の奥行きスキップ・モード以外の)他のモードを使ってデコードされる。
明細書における本願の原理の「一つの実施形態」または「ある実施形態」または「一つの実装」または「他の実装」ならびにこれらの他の変形への言及は、その実施形態との関連で記載されている特定の特徴、構造、特性などが本願の原理の少なくとも一つの実施形態に含まれることを意味する。よって、本明細書を通じた随所に現れる「一つの実施形態では」または「ある実施形態では」または「一つの実装では」または「ある実装では」といった句の出現は、必ずしもみな同じ実施形態を指すのではない。
たとえば「A/B」や「Aおよび/またはB」や「AおよびBのうちの少なくとも一つ」という場合における、「/」や「および/または」や「少なくとも一つ」という用語の使用は、最初に挙げられたオプション(A)のみの選択、または二番目に挙げられたオプション(B)のみの選択、または両方のオプション(AおよびB)の選択を包含することが意図されていることは理解しておくべきである。さらなる例として、「A、Bおよび/またはC」や「A、BおよびCのうちの少なくとも一つ」の場合において、そのような表現は、最初に挙げられたオプション(A)のみの選択、または二番目に挙げられたオプション(B)のみの選択、または三番目に挙げられたオプション(C)のみの選択、または最初および二番目に挙げられたオプション(AおよびB)のみの選択、または最初および三番目に挙げられたオプション(AおよびC)のみの選択、または二番目および三番目に挙げられたオプション(BおよびC)のみの選択、または三つすべてのオプション(AおよびBおよびC)の選択を包含することが意図されている。当技術分野および関連する技術分野の当業者には容易に明白となるように、このことは列挙される項目がいくつの場合についても拡張できる。
諸実装は、情報の信号伝達を、これに限られないがインバンド情報、アウトオブバンド情報、データストリーム・データ、暗黙的信号伝達(implicit signaling)および明示的信号伝達(explicit signaling)を含む多様な技法を使って行いうる。インバンド情報および明示的信号伝達は、さまざまな実装および/または規格について、スライス・ヘッダ、SEIメッセージ、他の高レベル・シンタックスおよび非高レベルのシンタックスを含みうる。したがって、本稿に記載される諸実装は特定のコンテキストにおいて記載されていることもあるが、そのような記載は決して、そのような実装またはコンテキストに本願の特徴および概念を限定するものと解釈すべきではない。
本稿に記載される実装および特徴は、MPEG-4 AVC規格またはMPEG-4 AVC規格のMVC拡張またはMPEG-4 AVC規格のSVC拡張のコンテキストにおいて使用されうる。しかしながら、これらの実装および特徴は、他の規格および/または勧告(既存のまたは将来の)のコンテキストにおいて、あるいは規格および/または勧告に関わらないコンテキストにおいて使用されてもよい。
本稿において記載される諸実装は、たとえば方法またはプロセス、装置、ソフトウェア・プログラム、データ・ストリームまたは信号において実装されうる。たとえ単一の形の実装のコンテキストでのみ論じられていたとしても(たとえば方法としてのみ論じられていたとしても)、論じられる特徴の実装は他の形(たとえば装置またはプログラム)で実装されてもよい。装置はたとえば、適切なハードウェア、ソフトウェアおよびファームウェアにおいて実装されうる。方法は、たとえば、プロセッサなどのような装置において実装されてもよい。プロセッサは、処理装置一般をいい、たとえばコンピュータ、マイクロプロセッサ、集積回路またはプログラム可能な論理デバイスを含む。プロセッサはまた、たとえばコンピュータ、携帯電話、ポータブル/パーソナル・デジタル・アシスタント(「PDA」)およびエンドユーザー間での情報の通信を容易にする他の装置といった通信装置をも含む。
本稿で記載されるさまざまなプロセスおよび特徴の実装は、データのエンコードおよびデコードに関連する多様な異なる設備またはアプリケーションにおいて具現されうる。そのような設備の例は、エンコーダ、デコーダ、デコーダからの出力を処理するポストプロセッサ、エンコーダへの入力を与えるプリプロセッサ、ビデオ・コーダ、ビデオ・デコーダ、ビデオ・コーデック、ウェブ・サーバー、セットトップボックス、ラップトップ、パーソナル・コンピュータ、携帯電話、PDAおよび他の通信装置を含む。明らかなはずだが、設備はモバイルであってもよく、さらにはモバイルな乗物に組み込まれていてもよい。
さらに、方法はプロセッサによって実行される命令によって実装されてもよく、そのような命令(および/または実装によって生成されるデータ値)はプロセッサ可読な媒体上に記憶されてもよい。プロセッサ可読な媒体とは、たとえば、集積回路、ソフトウェア担体または他の記憶装置といったものであり、他の記憶装置はたとえばハードディスク、コンパクト・ディスケット、ランダム・アクセス・メモリ(「RAM」)または読み出し専用メモリ(「ROM」)といったものである。命令は、プロセッサ可読媒体上に有形的に具現されたアプリケーション・プログラムをなしていてもよい。命令は、たとえば、ハードウェア、ファームウェア、ソフトウェアまたは組み合わせの形であってもよい。命令は、たとえば、オペレーティング・システム、別個のアプリケーションまたは両者の組み合わせにおいて見出されてもよい。したがって、プロセッサは、たとえば、プロセスを実行するよう構成された装置およびプロセスを実行するための命令を有する(記憶デバイスのような)プロセッサ可読媒体を含む装置として特徴付けられてもよい。さらに、プロセッサ可読媒体は、命令に加えてまたは命令の代わりに、実装によって生成されるデータ値を記憶してもよい。
当業者には明らかなように、諸実装は、たとえば記憶または送信されうる情報を担持するようフォーマットされた多様な信号を生成しうる。情報は、たとえば、方法を実行するための命令または記載される実装の一つによって生成されるデータを含みうる。たとえば、信号は、記載された実施形態のシンタックスを書くまたは読むための規則をデータとして担持するよう、あるいは記載された実施形態によって書かれる実際のシンタックス値をデータとして担持するようフォーマットされてもよい。そのような信号は、たとえば、(たとえばスペクトルの電波周波数部分を使う)電磁波としてまたはベースバンド信号としてフォーマットされてもよい。フォーマットすることは、たとえば、データ・ストリームをエンコードし、エンコードされたデータ・ストリームを用いて搬送波〔キャリア〕を変調することを含んでいてもよい。信号が担持する情報はたとえばアナログまたはデジタル情報であってもよい。信号は、既知のように、多様な異なる有線または無線のリンクを通じて伝送されうる。信号はプロセッサ可読媒体上に記憶されてもよい。
いくつかの実装を記載してきたが、さまざまな修正をなしうることは理解されるであろう。たとえば、異なる実装の要素が組み合わされ、補足され、修正され、または除去されて他の実装を創り出してもよい。さらに、当業者は、他の構造およびプロセスが開示されたものに代用されてもよく、結果として得られる実装は、開示された実装に比べ、少なくとも実質的に同じ機能(単数または複数)を少なくとも実質的に同じ仕方で実行して少なくとも実質的に同じ結果を達成することを理解するであろう。したがって、これらおよび他の実装は、本願によって考慮されており、付属の請求項の範囲内である。
いくつかの態様を記載しておく。
〔態様1〕
ピクチャーの集合におけるあるピクチャーについての奥行き情報にアクセスする段階と;
当該ピクチャーについての修正された奥行き情報にアクセスする段階と;
前記奥行き情報と前記修正された奥行き情報との間の差を特徴付ける洗練を決定する段階と;
前記洗練および前記奥行き情報を、前記ピクチャーの集合のうちの一つまたは複数のピクチャーを処理する際に使うために提供する段階とを含む、
方法。
〔態様2〕
態様1記載の方法であって、
前記ピクチャーの集合が基準ビューからの基準ピクチャーおよび第二のビューからの目標ピクチャーを含み、前記基準ピクチャーは前記目標ピクチャーをエンコードする際に基準として使うものであり、前記基準ビューはある基準位置におけるものであり、前記第二のビューは前記基準位置とは異なる第二の位置におけるものであり、
当該ピクチャーは前記基準ピクチャーであり、
前記洗練および奥行き情報は、前記集合中のピクチャーをエンコードもしくはデコードするまたはさらなるピクチャーをレンダリングすることのうちの少なくとも一つにおいて使うために提供される、
方法。
〔態様3〕
前記修正された奥行き情報に基づいて前記目標ピクチャーをエンコードする段階と;
エンコードされた目標ピクチャーを、前記洗練および前記奥行き情報とともに提供する段階とをさらに含む、
態様2記載の方法。
〔態様4〕
態様3記載の方法であって、前記修正された奥行き情報に基づいて前記目標ピクチャーをエンコードする段階が:
前記基準位置からの前記修正された奥行き情報を前記第二の位置に歪める段階と;
歪められた奥行き情報に基づいて、前記基準ピクチャー中のピクセルと前記目標ピクチャー中のピクセルとの間の対応を決定する段階と;
前記対応に基づいて、前記目標ピクチャーをエンコードする段階とを含む、
方法。
〔態様5〕
態様3記載の方法であって、前記修正された奥行き情報に基づいて前記目標ピクチャーをエンコードする段階が:
前記基準位置からの、前記修正された奥行き情報に基づく前記基準ピクチャーを、前記第二の位置に歪める段階と;
歪められた基準ピクチャーに基づいて前記目標ピクチャーをエンコードする段階とを含む、
方法。
〔態様6〕
態様3記載の方法であって、
前記基準ピクチャーについての奥行き情報を修正して前記修正された奥行き情報を生成する段階をさらに含み、該修正は、前記目標ピクチャーをエンコードするための、レートおよびディストーションを組み合わせるコスト関数を低下させるようなされる、方法。
〔態様7〕
態様6記載の方法であって、前記コスト関数が:
前記洗練をエンコードするためのレート;
前記奥行き情報ではなく前記修正された奥行き情報を使うことで導かれる、前記基準ピクチャーの歪めに基づく、前記目標ピクチャーをエンコードするためのレート;または
前記奥行き情報ではなく前記修正された奥行き情報を使うことで導かれる、前記基準ピクチャーの歪めに基づく、前記目標ピクチャーをエンコードするためのディストーション
のうちの一つまたは複数を取り入れる、方法。
〔態様8〕
態様6記載の方法であって、前記奥行き情報を修正する段階が、各反復工程における前記コスト関数が一つまたは複数の基準条件を満たす限り、前記奥行き情報を逐次反復的に修正することを含む、方法。
〔態様9〕
態様8記載の方法であって、前記一つまたは複数の基準条件が:
前記コスト関数が最後のコスト関数よりもある閾値量より大きく下がっていない;
前記コスト関数がある閾値を下回っていない;および
前記コスト関数が上がっていないまたはある閾値回数より多く上がっていないまたはある閾値量もしくは閾値割合より大きく上がっていない、
のうちの一つまたは複数を含む、方法。
〔態様10〕
当該ピクチャーについて前記奥行き情報を修正して前記修正された奥行き情報を生成する段階をさらに含む、態様1記載の方法。
〔態様11〕
前記洗練を提供することが、前記洗練をエンコードしてエンコードされた洗練を提供することを含む、態様1記載の方法。
〔態様12〕
前記洗練をエンコードすることが、前記洗練を以前の洗練を基準として使って予測エンコードすることを含む、態様11記載の方法。
〔態様13〕
前記洗練を決定することが、前記洗練を、前記奥行き情報と前記修正された奥行き情報との間の差に等しく設定することを含む、態様1記載の方法。
〔態様14〕
前記ピクチャーが、前記奥行き情報を含む奥行きマップである、態様1記載の方法。
〔態様15〕
態様2記載の方法であって、前記ピクチャーの集合が、第三のビューからのさらなる目標ピクチャーを含み、前記基準ピクチャーは前記さらなる目標ピクチャーをエンコードする際の基準としても使うものであり、前記第三のビューは前記基準位置および前記第二の位置とは異なるある第三の位置におけるものであり、当該方法はさらに:
当該ピクチャーについて第三ビューの修正された奥行き情報にアクセスする段階と;
奥行き情報と第三ビューの修正された奥行き情報との間の差を特徴付ける第三ビューの洗練を決定する段階と;
該第三ビューの洗練および前記奥行き情報を、前記ピクチャーの集合のうちの一つまたは複数のピクチャーを処理する際に使うために提供する段階とを含む、
方法。
〔態様16〕
態様15記載の方法であって:
前記第三ビューの修正された奥行き情報に基づいて前記さらなる目標ピクチャーをエンコードする段階と
エンコードされたさらなる目標ピクチャーを、前記第三ビューの洗練および前記奥行き情報とともに提供する段階とをさらに含む、
方法。
〔態様17〕
態様16記載の方法であって、前記第三ビューの修正された奥行き情報に基づいて前記さらなる目標ピクチャーをエンコードする段階が:
前記基準位置からの、前記第三ビューの修正された奥行き情報に基づく前記基準ピクチャーを、前記第三の位置に歪める段階と;
第三ビューの歪められた基準ピクチャーに基づいて前記さらなる目標ピクチャーをエンコードする段階とを含む、
方法。
〔態様18〕
前記洗練が、当該ピクチャーについての階層構造の複数のレベルのうちの一つにおいて別個の情報を含み、前記階層構造がピクセル・レベル、パーティション・レベル、マクロブロック・レベル、スライス・レベルおよびピクチャー・レベルを含む、態様1記載の方法。
〔態様19〕
前記洗練が、該洗練によって表される各ピクセルについて別個の値を含む、態様18記載の方法。
〔態様20〕
前記洗練が、該洗練によって表される各マクロブロックについて別個の値を含み、所与のマクロブロックについての前記別個の値が該所与のマクロブロック内の各ピクセルに適用される、態様18記載の方法。
〔態様21〕
当該ピクチャーについての前記奥行き情報、当該ピクチャーについての前記修正された奥行き情報および前記洗練が当該ピクチャーの一部分にのみ適用される、態様1記載の方法。
〔態様22〕
ピクチャーの集合におけるあるピクチャーについての奥行き情報にアクセスする手段と;
当該ピクチャーについての修正された奥行き情報にアクセスする手段と;
前記奥行き情報と前記修正された奥行き情報との間の差を特徴付ける洗練を決定する手段と;
前記洗練および前記奥行き情報を、前記ピクチャーの集合のうちの一つまたは複数のピクチャーを処理する際に使うために提供する手段とを含む、
装置。
〔態様23〕
命令を記憶したプロセッサ可読媒体であって、前記命令はプロセッサに少なくとも:
ピクチャーの集合におけるあるピクチャーについての奥行き情報にアクセスする段階と;
当該ピクチャーについての修正された奥行き情報にアクセスする段階と;
前記奥行き情報と前記修正された奥行き情報との間の差を特徴付ける洗練を決定する段階と;
前記洗練および前記奥行き情報を、前記ピクチャーの集合のうちの一つまたは複数のピクチャーを処理する際に使うために提供する段階とを含む、
を実行させる、プロセッサ可読媒体。
〔態様24〕
プロセッサを有する装置であって、前記プロセッサは少なくとも:
ピクチャーの集合におけるあるピクチャーについての奥行き情報にアクセスする段階と;
当該ピクチャーについての修正された奥行き情報にアクセスする段階と;
前記奥行き情報と前記修正された奥行き情報との間の差を特徴付ける洗練を決定する段階と;
前記洗練および前記奥行き情報を、前記ピクチャーの集合のうちの一つまたは複数のピクチャーを処理する際に使うために提供する段階とを含む、
を実行するよう構成されている、装置。
〔態様25〕
ピクチャーの集合におけるあるピクチャーについての奥行き情報および該ピクチャーについての修正された奥行き情報にアクセスするアクセス・ユニットと;
前記奥行き情報と前記修正された奥行き情報との間の差を特徴付ける洗練を決定し、前記洗練および前記奥行き情報を、前記ピクチャーの集合のうちの一つまたは複数のピクチャーを処理する際に使うために提供する奥行き洗練器とを有する、
装置。
〔態様26〕
ビデオ・エンコーダとして実装される、態様25記載の装置。
〔態様27〕
ピクチャーの集合におけるあるピクチャーについての奥行き情報および該ピクチャーについての修正された奥行き情報にアクセスするアクセス・ユニットと;
前記奥行き情報と前記修正された奥行き情報との間の差を特徴付ける洗練を決定し、前記洗練および前記奥行き情報を、前記ピクチャーの集合のうちの一つまたは複数のピクチャーを処理する際に使うために提供する奥行き洗練器と;
前記洗練および前記奥行き情報を含む信号を変調する変調器とを有する、
装置。
〔態様28〕
ピクチャーの集合におけるあるピクチャーについての奥行き情報にアクセスする段階と;
当該ピクチャーについての前記奥行き情報と当該ピクチャーについての修正された奥行き情報との間の差を特徴付ける洗練にアクセスする段階と;
当該ピクチャーについての前記修正された奥行き情報を決定する段階と;
前記修正された奥行き情報を使って、前記ピクチャーの集合のうちの一つまたは複数のピクチャーを処理する段階とを含む、
方法。
〔態様29〕
態様28記載の方法であって:
前記ピクチャーの集合が基準ビューからの基準ピクチャーおよび第二のビューからの目標ピクチャーを含み、前記基準ピクチャーは前記目標ピクチャーをデコードする際に基準として使うものであり、前記基準ビューはある基準位置におけるものであり、前記第二のビューは前記基準位置とは異なる第二の位置におけるものであり、
当該ピクチャーは前記基準ピクチャーであり、
前記奥行き情報および前記修正された奥行き情報は、前記集合中のピクチャーをデコードするまたはさらなるピクチャーをレンダリングすることのうちの少なくとも一つにおいて使われる、
方法。
〔態様30〕
態様29記載の方法であって:
前記目標ピクチャーのエンコードにアクセスする段階と;
アクセスされた前記目標ピクチャーのエンコードを、前記修正された奥行き情報に基づいてデコードする段階と;
前記デコードされた目標ピクチャーを処理または表示のために提供する段階とを含む、
方法。
〔態様31〕
態様30記載の方法であって、アクセスされた前記目標ピクチャーのエンコードを前記修正された奥行き情報に基づいてデコードする段階が:
デコードされた基準ピクチャーにアクセスする段階と;
前記修正された奥行き情報を前記基準位置から前記第二の位置に歪める段階と;
歪められた修正された奥行き情報に基づいて、前記デコードされた基準ピクチャー中のピクセルと前記目標ピクチャー中のピクセル位置との間の対応を決定する段階と;
前記対応に基づいて、アクセスされた前記目標ピクチャーのエンコードをデコードする段階とを含む、
方法。
〔態様32〕
態様30記載の方法であって、アクセスされた前記目標ピクチャーのエンコードを前記修正された奥行き情報に基づいてデコードする段階が:
デコードされた基準ピクチャーにアクセスする段階と;
前記基準位置からの、前記修正された奥行き情報に基づく前記デコードされた基準ピクチャーを、前記第二の位置に歪める段階と;
歪められた基準ピクチャーに基づいて、アクセスされた前記目標ピクチャーのエンコードをデコードする段階とを含む、
方法。
〔態様33〕
態様32記載の方法であって、前記修正された奥行き情報は、前記奥行き情報に比べ、前記目標ピクチャーをエンコードするための、レートおよびディストーションを組み合わせるコスト関数を低下させる、方法。
〔態様34〕
態様33記載の方法であって、前記コスト関数が:
前記洗練をエンコードするためのレート;
前記奥行き情報ではなく前記修正された奥行き情報を使うことで導かれる、前記基準ピクチャーの歪めに基づく、前記目標ピクチャーをエンコードするためのレート;または
前記奥行き情報ではなく前記修正された奥行き情報を使うことで導かれる、前記基準ピクチャーの歪めに基づく、前記目標ピクチャーをエンコードするためのディストーション
のうちの一つまたは複数を取り入れる、方法。
〔態様35〕
態様28記載の方法であって、前記アクセスされた洗練がエンコードされた洗練を含む、態様28記載の方法。
〔態様36〕
前記エンコードされた洗練が、先行する洗練を基準として使って予測エンコードされたものである、態様35記載の方法。
〔態様37〕
前記アクセスされた洗練が、前記奥行き情報と前記修正された奥行き情報との間の差に等しい、態様28記載の方法。
〔態様38〕
前記ピクチャーが、前記奥行き情報を含む奥行きマップである、態様28記載の方法。
〔態様39〕
態様28記載の方法であって、前記ピクチャーの集合が、第三のビューからのさらなる目標ピクチャーを含み、前記基準ピクチャーは前記さらなる目標ピクチャーをエンコードする際の基準としても使われたものであり、前記第三のビューは前記基準位置および前記第二の位置とは異なるある第三の位置におけるものであり、当該方法はさらに:
前記奥行き情報と第三ビューの修正された奥行き情報との間の差を特徴付ける第三ビューの洗練にアクセスする段階と;
当該ピクチャーについての前記第三ビューの修正された奥行き情報を決定する段階と;
前記第三ビューの修正された奥行き情報を使って、前記ピクチャーの集合のうちの一つまたは複数のピクチャーを処理する段階とを含む、
方法。
〔態様40〕
態様39記載の方法であって:
前記第三ビューの修正された奥行き情報に基づいて前記さらなる目標ピクチャーをデコードする段階と
デコードされたさらなる目標ピクチャーを、処理または表示のために提供する段階とをさらに含む、
方法。
〔態様41〕
態様40記載の方法であって、前記第三ビューの修正された奥行き情報に基づいて前記さらなる目標ピクチャーをデコードする段階が:
前記基準位置からの、前記第三ビューの修正された奥行き情報に基づく前記基準ピクチャーを、前記第三の位置に歪める段階と;
第三ビューの歪められた基準ピクチャーに基づいて前記さらなる目標ピクチャーをデコードする段階とを含む、
方法。
〔態様42〕
前記洗練が、当該ピクチャーについての階層構造の複数のレベルのうちの一つにおいて別個の情報を含み、前記階層構造がピクセル・レベル、パーティション・レベル、マクロブロック・レベル、スライス・レベルおよびピクチャー・レベルを含む、態様28記載の方法。
〔態様43〕
前記洗練が、該洗練によって表される各ピクセルについて別個の値を含む、態様42記載の方法。
〔態様44〕
前記洗練が、該洗練によって表される各マクロブロックについて別個の値を含み、所与のマクロブロックについての前記別個の値が該所与のマクロブロック内の各ピクセルに適用される、態様42記載の方法。
〔態様45〕
当該ピクチャーについての前記奥行き情報、当該ピクチャーについての前記修正された奥行き情報および前記洗練が当該ピクチャーの一部分にのみ適用される、態様28記載の方法。
〔態様46〕
前記基準ピクチャーおよび前記奥行き情報を使って仮想ビューからピクチャーをレンダリングする段階をさらに含む、
態様28記載の方法。
〔態様47〕
ピクチャーの集合におけるあるピクチャーについての奥行き情報にアクセスする手段と;
当該ピクチャーについての前記奥行き情報と当該ピクチャーについての修正された奥行き情報との間の差を特徴付ける洗練にアクセスする手段と;
当該ピクチャーについての前記修正された奥行き情報を決定する手段と;
前記修正された奥行き情報を使って、前記ピクチャーの集合のうちの一つまたは複数のピクチャーを処理する手段とを有する、
装置。
〔態様48〕
命令を記憶したプロセッサ可読媒体であって、前記命令はプロセッサに少なくとも:
ピクチャーの集合におけるあるピクチャーについての奥行き情報にアクセスする段階と;
当該ピクチャーについての前記奥行き情報と当該ピクチャーについての修正された奥行き情報との間の差を特徴付ける洗練にアクセスする段階と;
当該ピクチャーについての前記修正された奥行き情報を決定する段階と;
前記修正された奥行き情報を使って、前記ピクチャーの集合のうちの一つまたは複数のピクチャーを処理する段階とを実行させる、
プロセッサ可読媒体。
〔態様49〕
プロセッサを有する装置であって、前記プロセッサは少なくとも:
ピクチャーの集合におけるあるピクチャーについての奥行き情報にアクセスする段階と;
当該ピクチャーについての前記奥行き情報と当該ピクチャーについての修正された奥行き情報との間の差を特徴付ける洗練にアクセスする段階と;
当該ピクチャーについての前記修正された奥行き情報を決定する段階と;
前記修正された奥行き情報を使って、前記ピクチャーの集合のうちの一つまたは複数のピクチャーを処理する段階とを実行するよう構成されている、
装置。
〔態様50〕
ピクチャーの集合におけるあるピクチャーについての奥行き情報および当該ピクチャーについての前記奥行き情報と当該ピクチャーについての修正された奥行き情報との間の差を特徴付ける洗練にアクセスするアクセス・ユニットと;
当該ピクチャーについての前記修正された奥行き情報を決定し、前記修正された奥行き情報を使って、前記ピクチャーの集合のうちの一つまたは複数のピクチャーを処理する奥行き洗練器とを有する、
装置。
〔態様51〕
ビデオ・エンコーダおよびビデオ・デコーダの少なくとも一つにおいて実装されている、態様50記載の装置。
〔態様52〕
ピクチャーの集合についての符号化されたビデオ情報、前記ピクチャーの集合におけるあるピクチャーについての奥行き情報および当該ピクチャーについての前記奥行き情報と当該ピクチャーについての修正された奥行き情報との間の差を特徴付ける洗練を含む信号を受領および復調する復調器と;
ピクチャーの集合におけるあるピクチャーについての奥行き情報および当該ピクチャーについての前記奥行き情報と当該ピクチャーについての修正された奥行き情報との間の差を特徴付ける洗練にアクセスするアクセス・ユニットと;
当該ピクチャーについての前記修正された奥行き情報を決定し、前記修正された奥行き情報を使って、前記ピクチャーの集合のうちの一つまたは複数のピクチャーを処理する奥行き洗練器とを有する、
装置。
〔態様53〕
情報を含むようフォーマットされたビデオ信号であって、前記ビデオ信号は:
あるピクチャーについての奥行き情報と該ピクチャーについての修正された奥行き情報との間の差を特徴付ける洗練を含む奥行き洗練部分を含む、
信号。
〔態様54〕
あるピクチャーについての奥行き情報と該ピクチャーについての修正された奥行き情報との間の差を特徴付ける洗練を含む奥行き洗練部分を含む、ビデオ信号構造。
〔態様55〕
あるピクチャーについての奥行き情報と該ピクチャーについての修正された奥行き情報との間の差を特徴付ける洗練を含む奥行き洗練部分を含む、ビデオ信号構造を記憶したプロセッサ可読媒体。
〔態様56〕
当該プロセッサ可読媒体上に記憶された前記ビデオ信号構造がさらに:
前記ピクチャーのエンコードを含むピクチャー部分を含む、
態様55記載のプロセッサ可読媒体。
〔態様57〕
当該プロセッサ可読媒体上に記憶された前記ビデオ信号構造がさらに:
前記ピクチャーについての前記奥行き情報を含む奥行き情報部分を含み、前記奥行き情報と前記洗練が一緒になって前記ピクチャーについての前記修正された奥行き情報の決定を許容する、
態様55記載のプロセッサ可読媒体。
〔態様58〕
前記ビデオ信号構造中の前記奥行き情報が、前記ピクチャーに基づいて、ユーザーによる視聴のための一つまたは複数の追加的なピクチャーをレンダリングするために有用であり、
前記ビデオ信号構造中の前記洗練および前記奥行き情報に基づく前記修正された奥行き情報が、前記ピクチャーのエンコードをデコードするために有用である、
態様57記載のプロセッサ可読媒体。

Claims (34)

  1. ピクチャーの集合における基準ピクチャーについての奥行き情報にアクセスする段階であって、前記ピクチャーの集合が前記基準ピクチャーおよび目標ピクチャーを含み、前記基準ピクチャーは基準位置における基準ビューからのものであり、前記目標ピクチャーは前記基準位置とは異なる目標位置における目標ビューからのものである、段階と;
    前記奥行き情報をエンコードしてエンコードされた奥行き情報を生成する段階と;
    前記基準ピクチャーについての修正された奥行き情報にアクセスする段階であって、前記修正された奥行き情報は、前記奥行き情報および前記エンコードされた奥行き情報とは異なり、前記奥行き情報に比べて、前記目標ピクチャーをエンコードするためのコスト関数を低下させる、段階と;
    前記奥行き情報と前記修正された奥行き情報との間の差を特徴付ける洗練を決定する段階と;
    前記修正された奥行き情報に基づいて、前記基準ピクチャーを前記基準位置から前記目標位置に歪める段階と;
    前記歪められた基準ピクチャーに基づいて、前記目標ピクチャーをエンコードする段階と;
    前記エンコードされた目標ピクチャーを、前記洗練および前記エンコードされた奥行き情報とともに提供する段階
    とを含む、
    方法。
  2. 前記目標ピクチャーをエンコードする段階が、前記歪められた基準ピクチャーを基準として使って前記目標ピクチャーを予測エンコードすることを含む、請求項1記載の方法。
  3. 前記エンコードされた奥行き情報が、表示のために、前記基準ピクチャーに基づいて新しいピクチャーをレンダリングするために与えられる、請求項1記載の方法。
  4. 前記コスト関数が、前記奥行き情報ではなく前記修正された奥行き情報を使うことで導かれる、前記基準ピクチャーの歪めに基づく、前記目標ピクチャーをエンコードするためのレートを取り入れる、請求項1記載の方法。
  5. 請求項1記載の方法であって、前記基準ピクチャーを歪める段階が:
    前記基準位置からの前記修正された奥行き情報を前記目標位置に歪める段階と;
    歪められた修正された奥行き情報に基づいて、前記基準ピクチャー中のピクセルと前記歪められた基準ピクチャー中の位置との間の対応を決定する段階と;
    前記対応に基づいて、前記歪められた基準ピクチャーを決定する段階とを含む、
    方法。
  6. 請求項1記載の方法であって、前記基準ピクチャーを歪める段階が:
    前記修正された奥行き情報を歪めることなく、直接的に前記修正された奥行き情報を使って前記基準ピクチャーを前記基準位置から前記目標位置に歪めることを含む、
    方法。
  7. 請求項1記載の方法であって、
    前記基準ピクチャーについての奥行き情報を修正して前記修正された奥行き情報を生成する段階をさらに含み、該修正は、前記目標ピクチャーをエンコードするための、レートおよびディストーションを組み合わせるコスト関数を低下させるようなされる、方法。
  8. 請求項7記載の方法であって、前記コスト関数が:
    前記洗練をエンコードするためのレート;
    前記奥行き情報ではなく前記修正された奥行き情報を使うことで導かれる、前記基準ピクチャーの歪めに基づく、前記目標ピクチャーをエンコードするためのレート;または
    前記奥行き情報ではなく前記修正された奥行き情報を使うことで導かれる、前記基準ピクチャーの歪めに基づく、前記目標ピクチャーをエンコードするためのディストーション
    のうちの一つまたは複数を取り入れる、方法。
  9. 請求項7記載の方法であって、前記奥行き情報を修正する段階が、各反復工程における前記コスト関数が一つまたは複数の基準条件を満たす限り、前記奥行き情報を逐次反復的に修正することを含む、方法。
  10. 請求項9記載の方法であって、前記一つまたは複数の基準条件が:
    前記コスト関数が最後のコスト関数よりもある閾値量より大きく下がっていない;
    前記コスト関数がある閾値を下回っていない;および
    前記コスト関数が前記逐次反復的な修正の間に上がっていないまたはある閾値回数より多く上がっていないまたは前記逐次反復的な修正の間にある閾値量もしくは閾値割合より大きく上がっていない、
    のうちの一つまたは複数を含む、方法。
  11. 前記基準ピクチャーについて前記奥行き情報を修正して前記修正された奥行き情報を生成する段階をさらに含む、請求項1記載の方法。
  12. 前記洗練が、該洗練によって表される各ピクセルについて別個の値を含む、請求項1記載の方法。
  13. 前記洗練が、該洗練によって表される各マクロブロックについて別個の値を含み、所与のマクロブロックについての前記別個の値が該所与のマクロブロック内の各ピクセルに適用される、請求項1記載の方法。
  14. 当該ピクチャーについての前記奥行き情報、当該ピクチャーについての前記修正された奥行き情報および前記洗練が当該ピクチャーの一部分にのみ適用される、請求項1記載の方法。
  15. ピクチャーの集合における基準ピクチャーについての奥行き情報にアクセスする手段であって、前記ピクチャーの集合が前記基準ピクチャーおよび目標ピクチャーを含み、前記基準ピクチャーは基準位置における基準ビューからのものであり、前記目標ピクチャーは前記基準位置とは異なる目標位置における目標ビューからのものである、手段と;
    前記奥行き情報をエンコードしてエンコードされた奥行き情報を生成する手段と;
    前記基準ピクチャーについての修正された奥行き情報にアクセスする手段であって、前記修正された奥行き情報は、前記奥行き情報および前記エンコードされた奥行き情報とは異なり、前記奥行き情報に比べて、前記目標ピクチャーをエンコードするためのコスト関数を低下させる、手段と;
    前記奥行き情報と前記修正された奥行き情報との間の差を特徴付ける洗練を決定する手段と;
    前記修正された奥行き情報に基づいて、前記基準ピクチャーを前記基準位置から前記目標位置に歪める手段と;
    前記歪められた基準ピクチャーに基づいて、前記目標ピクチャーをエンコードする手段と;
    前記エンコードされた目標ピクチャーを、前記洗練および前記エンコードされた奥行き情報とともに提供する手段とを含む、
    装置。
  16. 命令を記憶したプロセッサ可読媒体であって、前記命令はプロセッサに少なくとも:
    ピクチャーの集合における基準ピクチャーについての奥行き情報にアクセスする段階であって、前記ピクチャーの集合が前記基準ピクチャーおよび目標ピクチャーを含み、前記基準ピクチャーは基準位置における基準ビューからのものであり、前記目標ピクチャーは前記基準位置とは異なる目標位置における目標ビューからのものである、段階と;
    前記奥行き情報をエンコードしてエンコードされた奥行き情報を生成する段階と;
    前記基準ピクチャーについての修正された奥行き情報にアクセスする段階であって、前記修正された奥行き情報は、前記奥行き情報および前記エンコードされた奥行き情報とは異なり、前記奥行き情報に比べて、前記目標ピクチャーをエンコードするためのコスト関数を低下させる、段階と;
    前記奥行き情報と前記修正された奥行き情報との間の差を特徴付ける洗練を決定する段階と;
    前記修正された奥行き情報に基づいて、前記基準ピクチャーを前記基準位置から前記目標位置に歪める段階と;
    前記歪められた基準ピクチャーに基づいて、前記目標ピクチャーをエンコードする段階と;
    前記エンコードされた目標ピクチャーを、前記洗練および前記奥行き情報とともに提供する段階とを実行させる、プロセッサ可読媒体。
  17. ピクチャーの集合における基準ピクチャーについての奥行き情報にアクセスし、前記基準ピクチャーについての修正された奥行き情報にアクセスするアクセス・ユニットであって、前記ピクチャーの集合が前記基準ピクチャーおよび目標ピクチャーを含み、前記基準ピクチャーは基準位置における基準ビューからのものであり、前記目標ピクチャーは前記基準位置とは異なる目標位置からの目標ビューからのものであり、前記修正された奥行き情報は、前記奥行き情報とは異なり、前記奥行き情報に比べて、前記目標ピクチャーをエンコードするためのコスト関数を低下させる、アクセス・ユニットと;
    前記奥行き情報をエンコードしてエンコードされた奥行き情報を生成するエンコーダであって、エンコードされた奥行き情報は前記修正された奥行き情報とは異なる、エンコーダと;
    (i)前記奥行き情報と前記修正された奥行き情報との間の差を特徴付ける洗練を決定し、
    (ii)前記修正された奥行き情報に基づいて、前記基準ピクチャーを前記基準位置から前記目標位置に歪め、
    (iii)前記歪められた基準ピクチャーに基づいて、前記目標ピクチャーをエンコードし、
    (iv)前記エンコードされた目標ピクチャーを、前記洗練および前記エンコードされた奥行き情報とともに提供する奥行き洗練器とを有する、
    装置。
  18. ビデオ・エンコーダとして実装される、請求項17記載の装置。
  19. エンコードされた目標ピクチャーにアクセスする段階と;
    デコードされた基準ピクチャーにアクセスする段階であって、前記基準ピクチャーは基準位置における基準ビューからのものであり、前記目標ピクチャーは前記基準位置とは異なる目標位置における目標ビューからのものである、段階と;
    前記基準ピクチャーについての奥行き情報にアクセスする段階であって、前記奥行き情報は前記基準ピクチャーの少なくとも一部についての奥行きマップを含む、段階と;
    前記基準ピクチャーについての前記奥行き情報と前記基準ピクチャーについての修正された奥行き情報との間の差を特徴付ける洗練にアクセスする段階であって、前記修正された奥行き情報は、前記基準ピクチャーの少なくとも前記一部についての代替的な奥行きマップを含み、前記修正された奥行き情報は前記奥行き情報に比べて、前記目標ピクチャーをエンコードするためのコスト関数を低下させる、段階と;
    前記基準ピクチャーについての前記修正された奥行き情報を決定する段階と;
    前記修正された奥行き情報に基づいて、前記デコードされた基準ピクチャーを前記基準位置から前記目標位置に歪めて第一の歪められたデコードされた基準ピクチャーを生成する段階と;
    前記第一の歪められたデコードされた基準ピクチャーに基づいて、前記目標ピクチャーをデコードしてデコードされた目標ピクチャーを生成する段階と;
    前記奥行き情報に基づいて、前記デコードされた基準ピクチャーを前記基準位置から前記基準位置とは異なる位置に歪めて、ユーザーに対する表示のための第二の歪められたデコードされた基準ピクチャーを生成する段階とを含む、
    方法。
  20. 前記目標ピクチャーをデコードする段階が、前記第一の歪められたデコードされた基準ピクチャーを基準として使って前記目標ピクチャーを予測デコードすることを含む、請求項19記載の方法。
  21. 前記奥行き情報が、表示のために、前記基準ピクチャーに基づいて新しいピクチャーをレンダリングするために与えられる、請求項19記載の方法。
  22. 前記コスト関数が、前記奥行き情報ではなく前記修正された奥行き情報を使うことで導かれる、前記基準ピクチャーの歪めに基づく、前記目標ピクチャーをエンコードするためのレートを取り入れる、請求項19記載の方法。
  23. 請求項19記載の方法であって、前記修正された奥行き情報に基づいて前記デコードされた基準ピクチャーを歪める段階が:
    前記修正された奥行き情報を前記基準位置から前記第二の位置に歪める段階と;
    歪められた修正された奥行き情報に基づいて、前記デコードされた基準ピクチャー中のピクセルと前記第一の歪められたデコードされた基準ピクチャー中の位置との間の対応を決定する段階と;
    前記対応に基づいて、前記第一の歪められたデコードされた基準ピクチャーを決定する段階とを含む、
    方法。
  24. 請求項19記載の方法であって、前記修正された奥行き情報に基づいて前記デコードされた基準ピクチャーを歪める段階が:
    前記修正された奥行き情報を歪めることなく、直接的に前記修正された奥行き情報を使って前記デコードされた基準ピクチャーを前記基準位置から前記目標位置に歪める段階を含む、
    方法。
  25. 請求項24記載の方法であって、コスト関数がレートおよびディストーションを組み合わせる、方法。
  26. 請求項25記載の方法であって、前記コスト関数が:
    前記洗練をエンコードするためのレート;
    前記奥行き情報ではなく前記修正された奥行き情報を使うことで導かれる、前記基準ピクチャーの歪めに基づく、前記目標ピクチャーをエンコードするためのレート;または
    前記奥行き情報ではなく前記修正された奥行き情報を使うことで導かれる、前記基準ピクチャーの歪めに基づく、前記目標ピクチャーをエンコードするためのディストーション
    のうちの一つまたは複数を取り入れる、方法。
  27. 前記洗練が、該洗練によって表される各ピクセルについて別個の値を含む、請求項19記載の方法。
  28. 前記洗練が、該洗練によって表される各マクロブロックについて別個の値を含み、所与のマクロブロックについての前記別個の値が該所与のマクロブロック内の各ピクセルに適用される、請求項19記載の方法。
  29. 前記基準ピクチャーについての前記奥行き情報、前記基準ピクチャーについての前記修正された奥行き情報および前記洗練が、前記基準ピクチャーの一部分にのみ適用される、請求項19記載の方法。
  30. 前記基準ピクチャーおよび前記奥行き情報を使って仮想ビューからピクチャーをレンダリングする段階をさらに含む、
    請求項19記載の方法。
  31. エンコードされた目標ピクチャーにアクセスする手段と;
    デコードされた基準ピクチャーにアクセスする手段であって、前記基準ピクチャーは基準位置における基準ビューからのものであり、前記目標ピクチャーは前記基準位置とは異なる目標位置における目標ビューからのものである、手段と;
    前記基準ピクチャーについての奥行き情報にアクセスする手段であって、前記奥行き情報は前記基準ピクチャーの少なくとも一部についての奥行きマップを含む、手段と;
    前記基準ピクチャーについての前記奥行き情報と前記基準ピクチャーについての修正された奥行き情報との間の差を特徴付ける洗練にアクセスする手段であって、前記修正された奥行き情報は前記基準ピクチャーの少なくとも前記一部についての代替的な奥行きマップを含み、前記修正された奥行き情報は前記奥行き情報に比べて、前記目標ピクチャーをエンコードするためのコスト関数を低下させる、手段と;
    前記基準ピクチャーについての前記修正された奥行き情報を決定する手段と;
    前記修正された奥行き情報に基づいて、前記デコードされた基準ピクチャーを前記基準位置から前記目標位置に歪めて第一の歪められたデコードされた基準ピクチャーを生成する手段と;
    前記第一の歪められたデコードされた基準ピクチャーに基づいて、前記目標ピクチャーをデコードしてデコードされた目標ピクチャーを生成する手段と;
    前記奥行き情報に基づいて、前記デコードされた基準ピクチャーを前記基準位置から前記基準位置とは異なる位置に歪めて、ユーザーに対する表示のための第二の歪められたデコードされた基準ピクチャーを生成する手段とを有する、
    装置。
  32. 命令を記憶したプロセッサ可読媒体であって、前記命令はプロセッサに少なくとも:
    エンコードされた目標ピクチャーにアクセスする段階と;
    デコードされた基準ピクチャーにアクセスする段階であって、前記基準ピクチャーは基準位置における基準ビューからのものであり、前記目標ピクチャーは前記基準位置とは異なる目標位置における目標ビューからのものである、段階と;
    前記基準ピクチャーについての奥行き情報にアクセスする段階であって、前記奥行き情報は前記基準ピクチャーの少なくとも一部についての奥行きマップを含む、段階と;
    前記基準ピクチャーについての前記奥行き情報と前記基準ピクチャーについての修正された奥行き情報との間の差を特徴付ける洗練にアクセスする段階であって、前記修正された奥行き情報は前記基準ピクチャーの少なくとも前記一部についての代替的な奥行きマップを含み、前記修正された奥行き情報は前記奥行き情報に比べて、前記目標ピクチャーをエンコードするためのコスト関数を低下させる、段階と;
    前記基準ピクチャーについての前記修正された奥行き情報を決定する段階と;
    前記修正された奥行き情報に基づいて、前記デコードされた基準ピクチャーを前記基準位置から前記目標位置に歪めて第一の歪められたデコードされた基準ピクチャーを生成する段階と;
    前記第一の歪められたデコードされた基準ピクチャーに基づいて、前記目標ピクチャーをデコードしてデコードされた目標ピクチャーを生成する段階と;
    前記奥行き情報に基づいて、前記デコードされた基準ピクチャーを前記基準位置から前記基準位置とは異なる位置に歪めて、ユーザーに対する表示のための第二の歪められたデコードされた基準ピクチャーを生成する段階とを実行させる、
    プロセッサ可読媒体。
  33. (i)エンコードされた目標ピクチャーにアクセスし、
    (ii)デコードされた基準ピクチャーにアクセスし、ここで、前記基準ピクチャーは基準位置における基準ビューからのものであり、前記目標ピクチャーは前記基準位置とは異なる目標位置における目標ビューからのものであり、
    (iii)前記基準ピクチャーについての奥行き情報にアクセスし、ここで、前記奥行き情報は、前記基準ピクチャーの少なくとも一部についての奥行きマップを含み、
    (iv)前記基準ピクチャーについての前記奥行き情報と前記基準ピクチャーについての修正された奥行き情報との間の差を特徴付ける洗練にアクセスし、ここで、前記修正された奥行き情報は前記基準ピクチャーの少なくとも前記一部についての代替的な奥行きマップを含み、前記修正された奥行き情報は前記奥行き情報に比べて、前記目標ピクチャーをエンコードするためのコスト関数を低下させる、アクセス・ユニットと;
    (i)前記基準ピクチャーについての前記修正された奥行き情報を決定し、
    (ii)前記修正された奥行き情報に基づいて、前記デコードされた基準ピクチャーを前記参照位置から前記目標位置に歪めて第一の歪められたデコードされた基準ピクチャーを生成し、
    (iii)前記第一の歪められたデコードされた基準ピクチャーに基づいて、前記目標ピクチャーをデコードしてデコードされた目標ピクチャーを生成し、
    (iv)前記奥行き情報に基づいて、前記デコードされた基準ピクチャーを前記基準位置から前記基準位置とは異なる位置に歪めて、ユーザーに対する表示のための第二の歪められたデコードされた基準ピクチャーを生成する奥行き洗練器とを有する、
    装置。
  34. ビデオ・エンコーダおよびビデオ・デコーダの少なくとも一つにおいて実装されている、請求項33記載の装置。
JP2011523793A 2008-08-20 2009-08-06 洗練された奥行きマップ Active JP5566385B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US18955208P 2008-08-20 2008-08-20
US61/189,552 2008-08-20
PCT/US2009/004555 WO2010021666A1 (en) 2008-08-20 2009-08-06 Refined depth map

Publications (3)

Publication Number Publication Date
JP2012500564A JP2012500564A (ja) 2012-01-05
JP2012500564A5 JP2012500564A5 (ja) 2012-09-20
JP5566385B2 true JP5566385B2 (ja) 2014-08-06

Family

ID=41217611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011523793A Active JP5566385B2 (ja) 2008-08-20 2009-08-06 洗練された奥行きマップ

Country Status (7)

Country Link
US (1) US9179153B2 (ja)
EP (1) EP2329653B1 (ja)
JP (1) JP5566385B2 (ja)
KR (1) KR101663819B1 (ja)
CN (1) CN102124742B (ja)
BR (1) BRPI0916963A2 (ja)
WO (1) WO2010021666A1 (ja)

Families Citing this family (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
WO2009131703A2 (en) * 2008-04-25 2009-10-29 Thomson Licensing Coding of depth signal
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP4336447A1 (en) 2008-05-20 2024-03-13 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
CN102124742B (zh) 2008-08-20 2013-09-11 汤姆逊许可公司 精制深度图
US8913105B2 (en) 2009-01-07 2014-12-16 Thomson Licensing Joint depth estimation
WO2010093350A1 (en) * 2009-02-13 2010-08-19 Thomson Licensing Depth map coding using video information
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US9426441B2 (en) 2010-03-08 2016-08-23 Dolby Laboratories Licensing Corporation Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning
JP5848754B2 (ja) 2010-05-12 2016-01-27 ペリカン イメージング コーポレイション 撮像装置アレイおよびアレイカメラのためのアーキテクチャ
EP2636222A1 (en) * 2010-11-04 2013-09-11 Koninklijke Philips Electronics N.V. Generation of depth indication maps
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP5617624B2 (ja) * 2010-12-28 2014-11-05 ソニー株式会社 立体画像表示装置
CA2827621C (en) 2011-03-18 2019-02-26 Sony Corporation Image processing apparatus and image processing method
JPWO2012128069A1 (ja) 2011-03-18 2014-07-24 ソニー株式会社 画像処理装置および画像処理方法
US9519994B2 (en) * 2011-04-15 2016-12-13 Dolby Laboratories Licensing Corporation Systems and methods for rendering 3D image independent of display size and viewing distance
EP2708019B1 (en) 2011-05-11 2019-10-16 FotoNation Limited Systems and methods for transmitting and receiving array camera image data
WO2012177063A2 (ko) * 2011-06-24 2012-12-27 엘지전자 주식회사 스킵 모드 부호화 복호화 방법 및 장치
US9363535B2 (en) 2011-07-22 2016-06-07 Qualcomm Incorporated Coding motion depth maps with depth range variation
MX358407B (es) 2011-08-31 2018-08-20 Sony Corp Dispositivo de codificacion, metodo de codificacion, dispositivo de descodificacion y metodo de descodificacion.
US20130070060A1 (en) 2011-09-19 2013-03-21 Pelican Imaging Corporation Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion
IN2014CN02708A (ja) 2011-09-28 2015-08-07 Pelican Imaging Corp
US9374571B2 (en) * 2011-10-11 2016-06-21 Panasonic Intellectual Property Management Co., Ltd. Image processing device, imaging device, and image processing method
EP3462742A1 (en) * 2011-11-11 2019-04-03 GE Video Compression, LLC Multi-view coding with exploitation of renderable portions
WO2013068548A2 (en) 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Efficient multi-view coding using depth-map estimate for a dependent view
CN110139108B (zh) 2011-11-11 2023-07-18 Ge视频压缩有限责任公司 用于将多视点信号编码到多视点数据流中的装置及方法
EP2777256B1 (en) 2011-11-11 2017-03-29 GE Video Compression, LLC Multi-view coding with effective handling of renderable portions
EP3739886A1 (en) 2011-11-18 2020-11-18 GE Video Compression, LLC Multi-view coding with efficient residual handling
CN103139569B (zh) * 2011-11-23 2016-08-10 华为技术有限公司 多视点视频的编码、解码方法、装置和编解码器
US9661310B2 (en) * 2011-11-28 2017-05-23 ArcSoft Hanzhou Co., Ltd. Image depth recovering method and stereo image fetching device thereof
TW201328318A (zh) * 2011-12-28 2013-07-01 Ind Tech Res Inst 一種利用內容驅動電路模型修正3d影像的系統與方法
WO2013115562A1 (ko) * 2012-01-30 2013-08-08 삼성전자 주식회사 시점변환을 위한 예측구조에 기초한 다시점 비디오 부호화 방법 및 그 장치, 시점변환을 위한 예측구조에 기초한 다시점 비디오 복호화 방법 및 그 장치
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
WO2013148308A1 (en) * 2012-03-28 2013-10-03 Intel Corporation Systems, methods, and computer program products for low-latency warping of a depth map
US10491913B2 (en) * 2012-04-24 2019-11-26 Telefonaktiebolaget L M Ericsson (Publ) Identifying a parameter set for decoding a multi-layer video representation
CN102710949B (zh) * 2012-05-11 2014-06-04 宁波大学 一种基于视觉感知的立体视频编码方法
JP2015534734A (ja) 2012-06-28 2015-12-03 ペリカン イメージング コーポレイション 欠陥のあるカメラアレイ、光学アレイ、およびセンサを検出するためのシステムおよび方法
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
WO2014010584A1 (ja) * 2012-07-09 2014-01-16 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
SG11201500910RA (en) 2012-08-21 2015-03-30 Pelican Imaging Corp Systems and methods for parallax detection and correction in images captured using array cameras
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
KR20140034400A (ko) * 2012-09-11 2014-03-20 삼성전자주식회사 시점간 상관성을 이용한 영상 처리 방법 및 장치
CN104662910B (zh) * 2012-09-21 2018-04-10 寰发股份有限公司 3d视频编码中的虚拟深度值的方法和装置
US20140092281A1 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating Images from Light Fields Utilizing Virtual Viewpoints
KR102445274B1 (ko) 2012-10-01 2022-09-20 지이 비디오 컴프레션, 엘엘씨 향상 레이어에서 변환 계수 블록들의 서브블록-기반 코딩을 이용한 스케일러블 비디오 코딩
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
EP2973476A4 (en) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9483845B2 (en) * 2013-04-26 2016-11-01 Nvidia Corporation Extending prediction modes and performance of video codecs
WO2015007159A1 (en) * 2013-07-15 2015-01-22 Mediatek Singapore Pte. Ltd. Method of disparity derived depth coding in 3d video coding
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9185276B2 (en) 2013-11-07 2015-11-10 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
JP6307152B2 (ja) * 2014-03-20 2018-04-04 日本電信電話株式会社 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム
US9930340B2 (en) * 2014-06-20 2018-03-27 Qualcomm Incorporated Systems and methods for selectively performing a bitstream conformance check
EP3467776A1 (en) 2014-09-29 2019-04-10 Fotonation Cayman Limited Systems and methods for dynamic calibration of array cameras
US20160110097A1 (en) * 2014-10-16 2016-04-21 Lg Electronics Inc. Display device and method of controlling therefor
CN105721852B (zh) * 2014-11-24 2018-12-14 奥多比公司 用于确定深度细化图像捕获指令的方法、存储设备和***
US10991144B2 (en) * 2016-07-29 2021-04-27 Sony Corporation Image processing apparatus and image processing method
US10536708B2 (en) * 2017-09-21 2020-01-14 Intel Corporation Efficient frame loss recovery and reconstruction in dyadic hierarchy based coding
US10484667B2 (en) * 2017-10-31 2019-11-19 Sony Corporation Generating 3D depth map using parallax
GB2571306A (en) * 2018-02-23 2019-08-28 Sony Interactive Entertainment Europe Ltd Video recording and playback systems and methods
TWI665461B (zh) 2018-05-04 2019-07-11 財團法人工業技術研究院 雷射定位系統及使用此系統之位置量測方法
WO2019217264A1 (en) * 2018-05-07 2019-11-14 Zermatt Technologies Llc Dynamic foveated compression
US11836885B2 (en) 2018-05-07 2023-12-05 Apple Inc. Dynamic foveated pipeline
WO2019217262A1 (en) * 2018-05-07 2019-11-14 Zermatt Technologies Llc Dynamic foveated rendering
US10549186B2 (en) 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
TWI701423B (zh) * 2019-07-01 2020-08-11 東元電機股份有限公司 反射貼紙輔助定位系統
MX2022003020A (es) 2019-09-17 2022-06-14 Boston Polarimetrics Inc Sistemas y metodos para modelado de superficie usando se?ales de polarizacion.
CA3157197A1 (en) 2019-10-07 2021-04-15 Boston Polarimetrics, Inc. Systems and methods for surface normals sensing with polarization
KR102558903B1 (ko) 2019-11-30 2023-07-24 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템 및 방법
US20220377302A1 (en) * 2019-12-20 2022-11-24 Interdigital Vc Holdings France A method and apparatus for coding and decoding volumetric video with view-driven specularity
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4849224A (en) * 1987-11-12 1989-07-18 Theratech Inc. Device for administering an active agent to the skin or mucosa
JPH0489638A (ja) 1990-07-26 1992-03-23 Matsushita Electric Ind Co Ltd 光学ヘッド
JP3104439B2 (ja) * 1992-11-13 2000-10-30 ソニー株式会社 高能率符号化及び/又は復号化装置
US5614952A (en) 1994-10-11 1997-03-25 Hitachi America, Ltd. Digital video decoder for decoding digital high definition and/or digital standard definition television signals
JP3679426B2 (ja) 1993-03-15 2005-08-03 マサチューセッツ・インスティチュート・オブ・テクノロジー 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム
JP3778960B2 (ja) 1994-06-29 2006-05-24 株式会社東芝 動画像符号化方法及び装置
US6064393A (en) * 1995-08-04 2000-05-16 Microsoft Corporation Method for measuring the fidelity of warped image layer approximations in a real-time graphics rendering pipeline
US5864342A (en) * 1995-08-04 1999-01-26 Microsoft Corporation Method and system for rendering graphical objects to image chunks
JP3231618B2 (ja) 1996-04-23 2001-11-26 日本電気株式会社 3次元画像符号化復号方式
JPH10178639A (ja) 1996-12-19 1998-06-30 Matsushita Electric Ind Co Ltd 画像コーデック部および画像データ符号化方法
EP0928460B1 (en) 1997-07-29 2003-01-29 Philips Electronics N.V. Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system
US6348918B1 (en) * 1998-03-20 2002-02-19 Microsoft Corporation Stereo reconstruction employing a layered approach
US6320978B1 (en) 1998-03-20 2001-11-20 Microsoft Corporation Stereo reconstruction employing a layered approach and layer refinement techniques
US6188730B1 (en) 1998-03-23 2001-02-13 Internatonal Business Machines Corporation Highly programmable chrominance filter for 4:2:2 to 4:2:0 conversion during MPEG2 video encoding
JP3776595B2 (ja) * 1998-07-03 2006-05-17 日本放送協会 多視点画像の圧縮符号化装置および伸長復号化装置
JP2000078611A (ja) 1998-08-31 2000-03-14 Toshiba Corp 立体映像受信装置及び立体映像システム
JP3593466B2 (ja) 1999-01-21 2004-11-24 日本電信電話株式会社 仮想視点画像生成方法およびその装置
JP2000231985A (ja) 1999-02-12 2000-08-22 Denso Corp 有機el素子
US6504872B1 (en) 2000-07-28 2003-01-07 Zenith Electronics Corporation Down-conversion decoder for interlaced video
JP2002058031A (ja) 2000-08-08 2002-02-22 Nippon Telegr & Teleph Corp <Ntt> 画像符号化方法及び装置、並びに、画像復号化方法及び装置
FI109633B (fi) 2001-01-24 2002-09-13 Gamecluster Ltd Oy Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi
US6940538B2 (en) * 2001-08-29 2005-09-06 Sony Corporation Extracting a depth map from known camera and model tracking data
JP3736493B2 (ja) * 2002-04-17 2006-01-18 Jfeスチール株式会社 インペラーによる溶銑の攪拌流速制御方法
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
JP4490261B2 (ja) 2002-06-11 2010-06-23 ノキア コーポレイション イントラ符号化に基づく空間予測
US7289674B2 (en) 2002-06-11 2007-10-30 Nokia Corporation Spatial prediction based intra coding
US7006709B2 (en) * 2002-06-15 2006-02-28 Microsoft Corporation System and method deghosting mosaics using multiperspective plane sweep
US20030235338A1 (en) 2002-06-19 2003-12-25 Meetrix Corporation Transmission of independently compressed video objects over internet protocol
KR20060105409A (ko) 2005-04-01 2006-10-11 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
WO2005013623A1 (en) 2003-08-05 2005-02-10 Koninklijke Philips Electronics N.V. Multi-view image generation
ATE372563T1 (de) * 2003-09-30 2007-09-15 Koninkl Philips Electronics Nv Bildwiedergabe mit interaktiver bewegungsparallaxe
EP1542167A1 (en) * 2003-12-09 2005-06-15 Koninklijke Philips Electronics N.V. Computer graphics processor and method for rendering 3D scenes on a 3D image display screen
US7292257B2 (en) 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
US7561620B2 (en) 2004-08-03 2009-07-14 Microsoft Corporation System and process for compressing and decompressing multiple, layered, video streams employing spatial and temporal encoding
US7671894B2 (en) 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US7728878B2 (en) * 2004-12-17 2010-06-01 Mitsubishi Electric Research Labortories, Inc. Method and system for processing multiview videos for view synthesis using side information
CN101292538B (zh) 2005-10-19 2012-11-28 汤姆森特许公司 使用可缩放的视频编码的多视图视频编码
KR100667830B1 (ko) * 2005-11-05 2007-01-11 삼성전자주식회사 다시점 동영상을 부호화하는 방법 및 장치
KR100747598B1 (ko) 2005-12-09 2007-08-08 한국전자통신연구원 디지털방송 기반의 3차원 입체영상 송수신 시스템 및 그방법
US20070171987A1 (en) 2006-01-20 2007-07-26 Nokia Corporation Method for optical flow field estimation using adaptive Filting
JP4605715B2 (ja) 2006-06-14 2011-01-05 Kddi株式会社 多視点画像圧縮符号化方法、装置及びプログラム
TWI344792B (en) 2006-07-12 2011-07-01 Lg Electronics Inc A method and apparatus for processing a signal
CN100415002C (zh) 2006-08-11 2008-08-27 宁波大学 多模式多视点视频信号编码压缩方法
CA2663672C (en) 2006-09-20 2014-08-12 Nippon Telegraph And Telephone Corporation Image encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
CN101166271B (zh) 2006-10-16 2010-12-08 华为技术有限公司 一种多视点视频编码中的视点差补偿方法
US20080095238A1 (en) 2006-10-18 2008-04-24 Apple Inc. Scalable video coding with filtering of lower layers
US8593506B2 (en) * 2007-03-15 2013-11-26 Yissum Research Development Company Of The Hebrew University Of Jerusalem Method and system for forming a panoramic image of a scene having minimal aspect distortion
WO2009023044A2 (en) 2007-04-24 2009-02-19 21 Ct, Inc. Method and system for fast dense stereoscopic ranging
EP2149262A4 (en) 2007-04-25 2010-09-01 Lg Electronics Inc METHOD AND DEVICE FOR DECODING / CODING A VIDEO SIGNAL
GB0708676D0 (en) * 2007-05-04 2007-06-13 Imec Inter Uni Micro Electr A Method for real-time/on-line performing of multi view multimedia applications
KR101450670B1 (ko) 2007-06-11 2014-10-15 삼성전자 주식회사 블록 기반의 양안식 영상 포맷 생성 방법과 장치 및 양안식영상 복원 방법과 장치
US8345751B2 (en) 2007-06-26 2013-01-01 Koninklijke Philips Electronics N.V. Method and system for encoding a 3D video signal, enclosed 3D video signal, method and system for decoder for a 3D video signal
US8351685B2 (en) 2007-11-16 2013-01-08 Gwangju Institute Of Science And Technology Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
KR20090055803A (ko) 2007-11-29 2009-06-03 광주과학기술원 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
WO2009131703A2 (en) 2008-04-25 2009-10-29 Thomson Licensing Coding of depth signal
CN102124742B (zh) 2008-08-20 2013-09-11 汤姆逊许可公司 精制深度图
WO2010021664A1 (en) 2008-08-20 2010-02-25 Thomson Licensing Depth coding
KR101468267B1 (ko) 2008-10-02 2014-12-15 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출
US8913105B2 (en) * 2009-01-07 2014-12-16 Thomson Licensing Joint depth estimation
US20100188476A1 (en) 2009-01-29 2010-07-29 Optical Fusion Inc. Image Quality of Video Conferences

Also Published As

Publication number Publication date
US9179153B2 (en) 2015-11-03
JP2012500564A (ja) 2012-01-05
KR101663819B1 (ko) 2016-10-10
BRPI0916963A2 (pt) 2015-11-24
US20110142138A1 (en) 2011-06-16
CN102124742A (zh) 2011-07-13
EP2329653A1 (en) 2011-06-08
WO2010021666A1 (en) 2010-02-25
KR20110057162A (ko) 2011-05-31
EP2329653B1 (en) 2014-10-29
CN102124742B (zh) 2013-09-11

Similar Documents

Publication Publication Date Title
JP5566385B2 (ja) 洗練された奥行きマップ
US8532410B2 (en) Multi-view video coding with disparity estimation based on depth information
KR101653724B1 (ko) 가상 레퍼런스 뷰
US20110038418A1 (en) Code of depth signal
KR102329126B1 (ko) 인터 레이어 비디오의 복호화 및 부호화를 위한 머지 후보 리스트 구성 방법 및 장치
US20100284466A1 (en) Video and depth coding
JP2017523682A (ja) インターレイヤビデオ符号化/復号のためのデプス映像の予測モード伝送方法及びその装置
KR20130116832A (ko) 트리 구조의 부호화 단위에 기초한 다시점 비디오 부호화 방법 및 그 장치, 트리 구조의 부호화 단위에 기초한 다시점 비디오 복호화 방법 및 그 장치
KR102199461B1 (ko) 적응적 휘도 보상을 위한 인터 레이어 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
CN115668935A (zh) 基于卷绕运动补偿的图像编码/解码方法和设备及存储比特流的记录介质
JP2017505037A (ja) デプス符号化方法及びその装置、デプス復号化方法及びその装置
CN115023954A (zh) 用于控制环路滤波的图像编码装置和方法
WO2010021664A1 (en) Depth coding
CN115699755A (zh) 基于卷绕运动补偿的图像编码/解码方法和装置及存储比特流的记录介质
CN115088262A (zh) 用于发信号通知图像信息的方法和装置
CN115152214A (zh) 基于画面划分的图像编码装置和方法
CN115152238A (zh) 基于滤波的图像编码装置和方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120802

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130528

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130729

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140617

R150 Certificate of patent or registration of utility model

Ref document number: 5566385

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250