JP7445601B2 - 奥行きの符号化及び復号化方法及び装置 - Google Patents

奥行きの符号化及び復号化方法及び装置 Download PDF

Info

Publication number
JP7445601B2
JP7445601B2 JP2020555057A JP2020555057A JP7445601B2 JP 7445601 B2 JP7445601 B2 JP 7445601B2 JP 2020555057 A JP2020555057 A JP 2020555057A JP 2020555057 A JP2020555057 A JP 2020555057A JP 7445601 B2 JP7445601 B2 JP 7445601B2
Authority
JP
Japan
Prior art keywords
pixels
parameters
image
depth
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020555057A
Other languages
English (en)
Other versions
JPWO2019199714A5 (ja
JP2021521678A (ja
Inventor
フリュールー,ジュリアン
ドレ,ルノー
タピ,ティエリー
チュードル,フランク
Original Assignee
インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル ヴイシー ホールディングス, インコーポレイテッド filed Critical インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Publication of JP2021521678A publication Critical patent/JP2021521678A/ja
Publication of JPWO2019199714A5 publication Critical patent/JPWO2019199714A5/ja
Application granted granted Critical
Publication of JP7445601B2 publication Critical patent/JP7445601B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

1.技術分野
本開示は、3次元(3D)シーン及びボリュメトリックビデオコンテンツの領域に関する。本開示はまた、3Dシーンの奥行きを表すデータの符号化及び/又はフォーマット設定、例えばモバイル機器又はヘッドマウントディスプレイ等のエンドユーザー機器上でのボリュメトリックコンテンツのレンダリングの関連で理解される。
2.背景
本節は、以下に記述及び/又は権利請求する本開示の各種態様に関連し得る当分野の各種態様を読者に紹介することを意図している。ここでの議論は、本発明の各種態様の理解を容易にすべく読者に背景情報を提供するのに役立つと思われる。従って、以下の記述は従来技術の紹介としてではなく上記の観点から読まれたい。
近年、利用可能な広視野コンテンツ(最大360°)が成長している。このようなコンテンツは潜在的に、ヘッドマウントディスプレイ、スマート眼鏡、PC画面、タブレット、スマートフォン等の没入型ディスプレイ装置でコンテンツを見ているユーザーが全体を視認することができない。これは、ユーザーは所与の瞬間ではコンテンツの一部しか見ていないことを意味する。しかし、ユーザーは典型的に、頭部の移動、マウスの移動、タッチスクリーン、音声等の各種手段によりコンテンツ内をナビゲートすることができる。このようなコンテンツを符号化及び復号化することが典型的に望ましい。
360°フラットビデオとも呼ばれる没入型ビデオにより、ユーザーは静止視点周辺での頭部の回転により自身の周囲全体を見ることができる。回転では3度の自由度(3DoF)しか体感できない。たとえ3DoFビデオが、例えばヘッドマウントディスプレイ装置(HMD)を用いる第1の全方向ビデオ体感には充分であったとしても、例えば視差を体感することにより更なる自由度を期待する視聴者は3DoFビデオに対して直ちにフラストレーションを感じる場合がある。また、ユーザーは頭部を回転させるだけでなく必ず頭部を3方向に移動させるが、この移動は3DoFビデオ体感では再現されないため3DoFは眩暈を引き起こす恐れがある。
広視野コンテンツは特に、3次元コンピュータグラフィック仮想シーン(3DCGIシーン)、点群又は没入型ビデオであってもよい。このような没入型ビデオの設計に多くの用語、例えば仮想現実(VR)(360)、パノラマ、4πステラジアン、没入型、全方向又は広視野が用いられる場合がある。
ボリュメトリックビデオ(6度の自由度(6DoF)としても知られる)は3DoFビデオの代替方式である。6DoFビデオを視聴する場合、ユーザーは頭部の回転に加え、視聴対象コンテンツ内で頭部及び体も移動させることができ、視差及び空間的広がりも体感することができる。そのようなビデオは、没入感及びシーンの奥行きの知覚を向上させると共に頭部が移動する間に一貫した視覚的フィードバックを提供することにより眩暈を防止する。コンテンツは、注目シーンの色及び奥行きの同時記録を可能にする専用センサにより作成される。写真測量技術と組み合わせたカラーカメラのリグの使用がそのような記録を実行する一般的な方法である。
3DoFビデオがテクスチャ画像(例:緯度/経度投影マッピング又は正距円筒投影マッピングにより符号化された球面ビュー)のマッピング解除から得られる画像のシーケンスを含むのに対し、6DoFビデオフレームにはいくつかの観点からの情報が埋め込まれている。これらは時系列の3次元撮像から得られる点群と見なすことができる。2種類のボリュメトリックビデオが視聴条件に依存すると考えてよい。第1のもの(すなわち完全な6DoF)はビデオコンテンツ内で完全な自由なナビゲーションを可能にするのに対し、第2のもの(別名3DoF+)はユーザーの視聴空間を限られた範囲に限定して頭部の移動及び視差感を制約する。この第2のものは、着席した視聴者の自由なナビゲーションと受動的な視聴条件との間の有益なトレードオフである。
3DoFビデオは、選択された投影マッピング(例:立方体投影マッピング、正四角錐投影マッピング又は正距円筒投影マッピング)に従い生成された矩形カラー画像のシーケンスとしてストリームに符号化できる。当該符号化は、標準画像及びビデオ処理標準を利用する利点がある。3DoF+及び6DoFビデオは、点群の色付き点の奥行きを符号化するために追加的なデータを必要とする。ストリーム内のシーンを符号化する場合のボリュメトリックシーンのその種のレンダリング(すなわち3DoF又はボリュメトリックレンダリング)は先験的に知られていない。これまで、ストリームはある種の、又は別のレンダリング用に符号化される。直ちに符号化されて3DoFビデオ又はボリュメトリックビデオ(3DoF+又は6DoF)として復号化できるボリュメトリックシーンを表すデータを担持可能なストリーム、及び関連付けられた方法並びに装置は存在しない。
ボリュメトリックビデオの特定のケース以外に、3Dシーン又はボリュメトリックコンテンツの奥行き情報の符号化及び復号化は、特に符号化したい奥行き値の範囲が大きく且つ符号化に利用可能なビット奥行きが充分な量の符号化値を提供しない場合に問題になり得る。
3.概要
本明細書における「ある実施形態」、「一実施形態」、「例示的な一実施形態」、「特定の実施形態」への言及は、記述する実施形態が特定の特性、構造、又は特徴を含んでいてよいことを示すが、全ての実施形態が必ずしも特定の特性、構造、又は特徴を含んでいる訳ではない。更に、このような語句は必ずしも同一実施形態を指す訳ではない。更に、特定の特性、構造、又は特徴が一実施形態との関連で記述されている場合、明示的に記述されているか否かに依らず、そのような特性、構造、又は特徴を他の実施形態と共に実現することは当業者の知識の範囲内であることを言明するものである。
本開示は3Dシーンの奥行きを表すデータを符号化する方法に関し、本方法は、
-所定の符号化ビット奥行きが許容する符号化値の個数よりも多い個数の量子化済み奥行き値を得るべく当該データを量子化することと、
-当該データを含む画像の第1のピクセルの各ブロックに対して、第1のピクセルの各ブロックに含まれる量子化済み奥行き値の各範囲を表す候補量子化パラメータの第1の集合を、第1の集合が符号化値の個数に従い決定されるように決定することと、
-量子化パラメータの第2の集合を複数の第1の集合の和集合の部分集合として、第2の集合が当該画像の第1のピクセルの複数のブロックに共通の候補量子化パラメータを含むように、且つ第2の集合の1個以上の量子化パラメータが当該画像の第1のピクセルの各ブロックに関連付けられるように決定することと、
-量子化パラメータの第2の集合を符号化することと、
-量子化パラメータの第2の集合に従い量子化済み奥行き値を符号化することを含んでいる。
本開示は、3Dシーンの奥行きを表すデータを符号化すべく構成された装置に関し、本装置は、
-所定の符号化ビット奥行きが許容する符号化値の個数よりも多い個数の量子化済み奥行き値を取得するためのデータを量子化し、
-データを含む画像の第1のピクセルの各ブロックに対して、第1のピクセルの各ブロックに含まれる量子化済み奥行き値の各範囲を表す候補量子化パラメータの第1の集合を、第1の集合が符号化値の個数に従い決定されるように決定し、
-量子化パラメータの第2の集合を複数の第1の集合の和集合の部分集合として、第2の集合が当該画像の第1のピクセルの複数のブロックに共通の候補量子化パラメータを含むよう、且つ第2の集合の1個以上の量子化パラメータが当該画像の第1のピクセルの各ブロックに関連付けられるように決定し、
-量子化パラメータの第2の集合を符号化し、
-量子化パラメータの第2の集合に従い量子化済み奥行き値を符号化すべく構成された少なくとも1個のプロセッサに関連付けられたメモリを含んでいる。
本開示は3Dシーンを表すデータを符号化すべく構成された装置に関し、本装置は、
-所定の符号化ビット奥行きが許容する符号化値の個数よりも多い個数の量子化済み奥行き値を取得するためのデータを量子化すべく構成された量子化器と、
-データを含む画像の第1のピクセルの各ブロックに対して、第1のピクセルの各ブロックに含まれる量子化済み奥行き値の各範囲を表す候補量子化パラメータの第1の集合を、第1の集合が符号化値の個数に従い決定されるように決定すべく構成された決定器と、
-量子化パラメータの第2の集合を複数の第1の集合の和集合の部分集合として、第2の集合が当該画像の第1のピクセルの複数のブロックに共通の候補量子化パラメータを含むよう、且つ第2の集合の1個以上の量子化パラメータが当該画像の第1のピクセルの各ブロックに関連付けられるように決定すべく構成された決定器と、
-量子化パラメータの第2の集合を符号化すべく構成されたエンコーダと、
-量子化パラメータの第2の集合に従い量子化済み奥行き値を符号化すべく構成されたエンコーダを含んでいる。
本開示は3Dシーンを表すデータを符号化すべく構成された装置に関し、本装置は、
-所定の符号化ビット奥行きが許容する符号化値の個数よりも多い個数の量子化済み奥行き値を取得するためのデータを量子化する手段と、
-データを含む画像の第1のピクセルの各ブロックに対して、第1のピクセルの各ブロックに含まれる量子化済み奥行き値の各範囲を表す候補量子化パラメータの第1の集合を、第1の集合が符号化値の個数に従い決定されるように決定する手段と、
-量子化パラメータの第2の集合を複数の第1の集合の和集合の部分集合として、第2の集合が当該画像の第1のピクセルの複数のブロックに共通の候補量子化パラメータを含むよう、且つ第2の集合の1個以上の量子化パラメータが当該画像の第1のピクセルの各ブロックに関連付けられるように決定する手段と、
-量子化パラメータの第2の集合を符号化する手段と、
-量子化パラメータの第2の集合に従い量子化済み奥行き値を符号化する手段を含んでいる。
特定の特徴によれば、量子化パラメータの第2の集合にマッピングする識別子のリストが更に符号化され、量子化パラメータの第2の集合が識別子のリストに従い符号化されている。
特定の特徴によれば、識別子のリストは、各々が第2の集合の1個の量子化パラメータにマッピングされた複数の第1の識別子及び各々が複数の第1の識別子にマッピングされた複数の第2の識別子を含み、量子化パラメータの第2の集合は、当該画像の第1のピクセルのブロックの個数に対応する個数の第2のピクセルを含むイメージを符号化することにより符号化されていて、各第2のピクセルは、
・単一の量子化パラメータが第1のピクセルのブロックに関連付けられている場合に、各第2のピクセルに対応する第1のピクセルのブロックに関連付けられた量子化パラメータを識別するリストの第1の識別子、又は
・複数の量子化パラメータが第1のピクセルのブロックに関連付けられている場合に、各第2のピクセルに対応する第1のピクセルのブロックに関連付けられた量子化パラメータを識別するリストの第2の識別子を含んでいる。
別の具体的な特徴によれば、奥行き及び人間の視覚を考慮した量子化誤差を有する量子化関数に従いデータが量子化されている場合、奥行きが深いほど量子化誤差が大きい。
更なる具体的な特徴によれば、第1のピクセルの各ブロックに含まれる量子化済み奥行き値を符号化すべく符号化値の個数が第1のピクセルの各ブロックに割り当てられ、符号化値の個数の第1の部分が第1のピクセルの各ブロックに含まれる量子化済み奥行き値の各範囲の符号化に割り当てられていて、符号化された量子化済み奥行き値の2個の範囲が、符号化値の個数の第2の部分により分離されていて、第2の部分は量子化済み奥行き値の符号化には使用されない。
更なる具体的な特徴によれば、画像は時間的に連続した画像の集団の一部であり、量子化パラメータの第2の集合は時間的に連続した画像の集団の各画像に共通である。
本開示は3Dシーンの奥行きを表すデータを復号化する方法に関し、本方法は、
-量子化パラメータの集合を、当該集合の1個以上の量子化パラメータが画像の第1のピクセルの各ブロックに関連付けられていて、当該集合の量子化パラメータの少なくとも一部が画像の第1のピクセルの複数のブロックに共通である状態で復号化することと、
-画像の第1のピクセルに含まれる量子化済み奥行き値を、復号化された量子化済み奥行き値の個数が所定の符号化ビット奥行きが許容する符号化値の個数よりも多い状態で、第1のピクセルの各ブロックに関連付けられた1個以上の量子化パラメータに従い復号化することを含んでいる。
本開示は、3Dシーンの奥行きを表すデータを復号化すべく構成された装置に関し、本装置は、
-量子化パラメータの集合を、当該集合の1個以上の量子化パラメータが画像の第1のピクセルの各ブロックに関連付けられていて、当該集合の量子化パラメータの少なくとも一部が画像の第1のピクセルの複数のブロックに共通である状態で復号化し、
-画像の第1のピクセルに含まれる量子化済み奥行き値を、復号化された量子化済み奥行き値の個数が所定の符号化ビット奥行きが許容する符号化値の個数よりも多い状態で、第1のピクセルの各ブロックに関連付けられた1個以上の量子化パラメータに従い復号化すべく構成された少なくとも1個のプロセッサに関連付けられたメモリを含んでいる。
本開示は3Dシーンの奥行きを表すデータを復号化すべく構成された装置に関し、本装置は、
-量子化パラメータの集合を、当該集合の1個以上の量子化パラメータが画像の第1のピクセルの各ブロックに関連付けられていて、当該集合の量子化パラメータの少なくとも一部が画像の第1のピクセルの複数のブロックに共通である状態で復号化するデコーダと、
-画像の第1のピクセルに含まれる量子化済み奥行き値を、復号化された量子化済み奥行き値の個数が所定の符号化ビット奥行きが許容する符号化値の個数よりも多い状態で、第1のピクセルの各ブロックに関連付けられた1個以上の量子化パラメータに従い復号化するデコーダを含んでいる。
本開示は3Dシーンの奥行きを表すデータを復号化すべく構成された装置に関し、本装置は、
-量子化パラメータの集合を、当該集合の1個以上の量子化パラメータが画像の第1のピクセルの各ブロックに関連付けられていて、当該集合の量子化パラメータの少なくとも一部が画像の第1のピクセルの複数のブロックに共通である状態で復号化する手段と、
-画像の第1のピクセルに含まれる量子化済み奥行き値を、復号化された量子化済み奥行き値の個数が所定の符号化ビット奥行きが許容する符号化値の個数よりも多い状態で、第1のピクセルの各ブロックに関連付けられた1個以上の量子化パラメータに従い復号化する手段を含んでいる。
特定の特徴によれば、量子化パラメータの集合にマッピングする識別子のリストが更に符号化され、量子化パラメータの集合が識別子のリストに従い符号化されている。
具体的な特徴によれば、識別子のリストは、各々が当該集合の1個の量子化パラメータにマッピングされた第1の識別子及び各々が複数の第1の識別子にマッピングされた第2の識別子を含み、量子化パラメータの集合は画像の第1のピクセルのブロックの個数に対応する個数の第2のピクセルを含むイメージから復号化されていて、各第2のピクセルは、
・単一の量子化パラメータが第1のピクセルのブロックに関連付けられている場合、各第2のピクセルに対応する第1のピクセルのブロックに関連付けられた量子化パラメータを識別するリストの第1の識別子、又は
・複数の量子化パラメータが第1のピクセルのブロックに関連付けられている場合、各第2のピクセルに対応する第1のピクセルのブロックに関連付けられた量子化パラメータを識別するリストの第2の識別子を含んでいる。
別の特徴によれば、データは奥行き及び人間の視覚を考慮した量子化誤差を有する量子化関数に従い復号化された量子化済み奥行き値から取得され、奥行きが深いほど量子化誤差が大きい。
更なる特徴によれば、画像は時間的に連続した画像の集団の一部であり、量子化パラメータの集合は時間的に連続した画像の集団の各画像に共通である。
本開示はまた、3Dシーンの奥行きを表すデータを担持するビットストリームに関し、当該データは、第1の構文要素に、画像のピクセルのブロックに関連付けられた量子化パラメータを表すデータを含み、第2の構文要素に、量子化パラメータに従い符号化された量子化済み奥行き値を表すデータを含んでいる。
本開示はまた、当該プログラムがコンピュータにより実行された際に3Dシーンの奥行きを表すデータを符号化又は復号化する方法のステップを実行するプログラムコード命令を含むコンピュータプログラム製品に関する。
本開示はまた、3Dシーンの奥行きを表すデータを符号化又は復号化する少なくとも上述の方法をプロセッサに実行させる命令を保存している(非一時的)プロセッサ可読媒体に関する。
4.図面のリスト
添付の図面を参照しながら以下の記述を精査することにより本開示に対する理解が深まり、他の具体的な特徴及び利点に想到されよう。
本原理の非限定的な一実施形態による、3次元(3D)シーンを表す画像を示す。 本原理の非限定的な一実施形態による、図1の3Dシーンの被写体の3次元(3D)モデル及び当該3Dモデルに対応する点群の複数の点を示す。 本原理の非限定的な一実施形態による、図1の3Dシーンの複数の点のテクスチャ情報を含む画像を示す。 本原理の非限定的な一実施形態による、図1の3Dシーンの複数の点の奥行き情報を含む画像を示す。 本原理の更なる非限定的な一実施形態による、図1の3Dシーンの複数の点の奥行き情報を含む画像を示す。 本原理の非限定的な一実施形態による、同時に3DoFレンダリング互換及び3DoF+レンダリング互換である形式で3Dシーンを表すデータの符号化、送信及び復号化の一例を示す。 本原理の非限定的な一実施形態による、図4又は5の画像の奥行き情報の量子化に用いる量子化関数の例を示す。 本原理の非限定的な一実施形態による、図4又は5の画像の奥行き情報の量子化に用いる量子化関数の例を示す。 本原理の非限定的な一実施形態による、図4又は5の画像の奥行き情報の量子化に用いる量子化関数の例を示す。 本原理の非限定的な一実施形態による、人間の視力の概念を示す。 本原理の非限定的な一実施形態による、図4又は5の画像から量子化パラメータを決定する処理の一例を示す。 本原理の非限定的な一実施形態による、図4又は5の画像に関連付けられた量子化パラメータを表す情報を含む画像の一例を示す。 本原理の非限定的な一実施形態による、図4又は5の画像に関連付けられた量子化パラメータに識別子をマッピングする表の一例を示す。 本原理の非限定的な一実施形態による、図4又は5の画像のピクセルの単一ブロックから複数の量子化パラメータを決定する処理の一例を示す。 本原理の二つの非限定的な一実施形態による、図1の3Dシーンの量子化済み奥行き値を符号化する方法の複数の例を示す。 本原理の非限定的な一実施形態による、図1の3Dシーンの奥行きを表す情報及びデータを担持するビットストリームの構文の一例を示す。 本原理の非限定的な一実施形態による、図9、12、13、16及び/又は21に関して記述する方法又は処理を実装すべく構成可能な装置のアーキテクチャの一例を示す。 本原理の非限定的な一実施形態による、図1の3Dシーンの奥行きを表すデータを符号化する、例えば図15の装置に実装された方法の一例を示す。 本原理の非限定的な一実施形態による、図1の3Dシーンの奥行きを表すデータを復号化する、例えば図15の装置に実装された方法の一例を示す。
5.実施形態の詳細な説明
以下に、同一参照符号を用いて同一要素を示している図面を参照しながら主題について記述する。以下の記述において、主題を完全に理解いただけるよう説明目的で多くの具体的な詳細事項を開示している。しかし、具体的な詳細事項が無くても主題の実施形態を実施できることは明白であろう。
以下の記述において本開示の原理を示す。従って当業者には、本明細書に明示的に記述又は図示されなくても、開示する原理を実施する各種の構成に想到し得ることが認識されよう。
本開示の非限定的な実施形態によれば、3Dシーンの奥行き情報(奥行きをマップとも呼ばれる)を含む1個以上の画像をコンテナ及び/又はビットストリームに符号化する方法及び装置を開示する。3Dシーンの奥行き(又は奥行きマップ)の画像をストリームから復号化する方法及び装置も開示する。奥行き情報/奥行きマップの1個以上の画像を符号化ビットストリームの構文の複数の例も開示する。
非限定的な態様によれば、本原理は、3Dシーンの奥行き(没入型ビデオとも呼ばれるボリュメトリックコンテンツ又は標準的な3Dコンテンツにより表することができる)を表すデータをコンテナ及び/又はビットストリームに符号化する方法(及びそのために構成された装置)の第1の特定の実施形態に関して記述する。
上述の目的を達成すべく、3Dシーンの奥行きを表すデータ(例:3Dシーンの要素、例えば点に関連付けられた浮動小数点値として表された距離又は奥行き値)が、所定の符号化ビット奥行きが許容する符号化値の個数よりも多い個数の量子化済み奥行き値に量子化される。例えば、8ビットの符号化ビット奥行では256(2)個の値を有する符号化が可能である一方、量子化済み奥行き値の個数は例えば16384(214)又は65536の(216)に等しくてよい。ビット奥行きを符号化している10ビットは1024(210の)値を有する符号化を許す。より多い個数の値で奥行きデータを量子化することで、全範囲にわたり小さいままである量子化ステップにより、広い範囲(例:奥行き又は距離が0~50メートル又は0~100メートルの範囲或いは更に広い範囲)の奥行きデータの量子化が可能になり、特にシーンのビューの点に近い被写体(例:前景被写体)における量子化誤差を最小限に抑えられる。
奥行きを表すデータを含む画像はピクセルのブロック(例:8×8又は16×16ピクセルのブロック)に分割され、ピクセルの各ブロックに対して候補量子化パラメータの第1の集合が決定される。候補量子化パラメータは、ブロックのピクセルに関連付けられた量子化値の範囲を表す量子化値に対応する(当該量子化値は画像のピクセルに保存されている奥行きデータを量子化することにより得られる)。候補量子化パラメータの第1の集合は、考慮するブロック(例:当該ブロックの場合1024個の値)の符号化値の個数を考慮して決定され、候補量子化パラメータは例えば符号化値の個数の制限内で量子化済み奥行き値の範囲を表す開始値として使用できる基準量子化値に対応する。
量子化パラメータの第2の集合は、複数の第1の集合の和集合の部分集合として決定され、すなわち第2の集合は、画像のピクセルの全てのブロックに対して決定される候補量子化パラメータの一部を含んでいる。第2の集合は、画像全体のピクセルの全てのブロックの量子化済み奥行き値の全範囲を表現可能にする最小個数の候補量子化パラメータを検索することにより、すなわちピクセルのいくつかのブロックに共通の候補量子化パラメータが存在する場合にこれらを検索することにより決定される。
量子化パラメータの第2の集合は例えばファイル内に符号化される。
量子化済み奥行き値は次いで、第2の集合の量子化パラメータに従い符号化される。
第1のピクセルのブロックに関連付けられた量子化パラメータに従い量子化済み奥行き値を符号化することで、量子化済み奥行き値の符号化に利用可能なより多くの符号化値が得られ、所定の符号化ビット奥行きが許容する符号化値の集合を各ブロックの量子化済み奥行き値の符号化に利用できる(例:画像全体の符号化に利用可能な1024個の符号化値ではなく、画像の各ブロックに利用可能な1024個の符号化値)。
1個の画像はピクセルのアレイに対応し、属性(例:奥行き情報及び/又はテクスチャ情報)が画像のピクセルに関連付けられている。
3Dシーンの奥行きを表すデータの対応する復号化方法(及びそのために構成された装置)も本原理の非限定的な態様に関して記述する。
図1に、いくつかの表面表現を含む3次元(3D)シーン10を表す画像を示す。シーンは任意の適当な技術を用いて得ていてよい。例えば、コンピュータグラフィックインターフェース(CGI)ツールを用いて生成されていてよい。色及び奥行き画像取得装置により得られていてよい。このような場合、取得装置(例:カメラ)から見えない被写体の1個以上の部分が図1に関して記述するようなシーンに表れない場合がある。図1に示すシーン例は室内の人物と物体を含んでいる。3Dシーン10は、図1における所定の視点に従い表されている。当該視点は例えば、ユーザーが3Dシーンを観察し得る視野空間の一部であってよい。一変型例によれば、利用可能な3Dシーンのコンテンツ(奥行き及び/又はテクスチャ情報)は、図1の所定の視点から視認可能なシーン(例:点)の要素だけに対応する。
図2に、被写体20の3次元(3D)モデル及び3Dモデル20に対応する点群21の複数の点を示す。3Dモデル20及び点群21は例えば、3Dシーン10の被写体、例えば人物の頭部の可能な3D表現に対応していてよい。モデル20は3Dメッシュ表現であってよく、点群21の点はメッシュの頂点であってよい。点群21の点はまた、メッシュの表面上に分散した点であってよい。モデル20はまた、点群21を平滑化したバージョンとして表すことができ、モデル20の表面は点群21の点を平滑化することにより形成されている。モデル20はボクセル又はスプライン等、多くの異なる表現で表すことができる。図2は、点群が3D被写体の表面表現により画定できること、及び3D被写体の表面表現が点群から生成できることを示している。本明細書で用いるように、3D被写体の点を(3Dシーンの拡張点により)画像に投影することは、当該3D被写体の任意の画像表現を投影して被写体を形成することと等価である。
点群は、各点が自身の座標(例:3次元座標XYZ、又は所与の視点からの奥行き/距離)及び成分とも呼ばれる1個以上の属性を有するベクトル型の構造と見なすことができる。成分の一例は、各種の色空間内で表される色成分、例えばRGB(赤、緑及び青)又はYUV(Yは輝度成分、UVは二つの色度成分)である。点群は、所与の視点、又は視点の範囲から見た被写体の表現である。点群は多くの仕方、例えば
・カメラのリグから撮影され、任意選択的に奥行き能動検出装置により補足された実被写体の撮像から、
・モデリングツールの仮想カメラのリグにより撮影された仮想/合成被写体の撮像から、
・実及び仮想被写体の混合から取得されてよい。
3Dシーンのボリュメトリック部分は例えば、点群21のような1個又は複数の点群により表することができる。
図3に、本原理の非限定的な一実施形態による、3Dシーン10の点のテクスチャ情報(例:RGBデータ又はYUVデータ)を含む画像30の一例を示す。
画像30は、第1の視点から視認可能な3Dシーンの要素(点)のテクスチャ情報を含む第1の部分301及び1個以上の第2の部分302を含んでいる。第1の部分301のテクスチャ情報は例えば正距円筒投影マッピングにより取得でき、正距円筒投影マッピングは球面投影マッピングの一例である。図3の例において、第2の部分は第1の部分301の左右の境界に配置されているが、第2の部分は異なる仕方で配置されていてよい。第2の部分302は、第1の視点から視認可能な部分と相補的な3Dシーンの部分のテクスチャ情報を含んでいる。第2の部分は、第1の視点から視認可能な点(第1の部分に保存されているテクスチャ)を3Dシーンから除去して、残りの点を同じ第1の視点に従い投影することにより得られる。後者の処理を反復的に繰り返して毎回3Dシーンの隠れた部分を得ることができる。一変型例によれば、第2の部分は、第1の視点から視認可能な点(第1の部分に保存されているテクスチャ)を3Dシーンから除去して、残りの点を第1の視点とは異なる視点に従い、例えば第1の視点に中心を有する視野空間の1個以上の第2の視点から投影することにより得られる。
第1の部分301は、(3Dシーンの第1の部分に対応する)第1の大きなテクスチャパッチと見なすことができ、第2の部分302は(第1の部分と相補的な3Dシーンの第2の部分に対応する)より小さいテクスチャパッチを含んでいる。
図4に、本原理の非限定的な一実施形態による、3Dシーン10の点の奥行き情報を含む画像40の一例を示す。画像40は、テクスチャ画像30に対応する奥行き画像とみなすことができる。
画像40は、第1の視点から視認可能な3Dシーンの要素(点)の奥行き情報を含む第1の部分401及び1個以上の第2の部分402を含んでいる。画像40は、画像30と同様に取得されてよいが、画像30のテクスチャ情報ではなく3Dシーンの複数の点に関連付けられた奥行き情報を含んでいる。
第1の部分401は(3Dシーンの第1の部分に対応する)第1の大きな奥行きパッチとみなすことができ、第2の部分402は(第1の部分と相補的な3Dシーンの第2の部分に対応する)より小さいテクスチャパッチを含んでいる。
3Dシーンの3DoFレンダリングの場合、1個の視点、例えば第1の視点だけを考慮する。ユーザーは第1の視点周辺で3個の自由度で頭部を回転させて3Dシーンの様々な部分を見ることができるが、ユーザーは第1の視点を移動させることはできない。符号化すべきシーンの点は当該第1の視点から視認可能な点であり、3DoFレンダリングのためにテクスチャ情報だけを符号化/復号化すればよい。ユーザーは第1の視点を移動させでもアクセスできないため、第1の視点から視認できないシーンの点を符号化する必要がない。
6DoFレンダリングに関して、ユーザーはシーンのどこにでも視点を移動させることができる。この場合、自身の視点を移動できるユーザーは全ての点に基本的にアクセス可能であるため、ビットストリームのシーンの全ての点(奥行き及びテクスチャ)を符号化することが重要である。符号化段階で、ユーザーがどの視点から3Dシーン10を観察するかを先験的に知る手段は無い。
3DoF+レンダリングに関して、ユーザーは視点周辺の限られた空間内、例えば第1の視点周辺で視点を移動させることができる。例えば、ユーザーは第1の視点に中心を有する空間視野内で自身の視点を移動させることができる。これは視差を体感可能にする。第1の視点により視認可能な3Dシーンを表すデータ(すなわち第1の部分301及び401)を含む、視野空間の任意の点から視認可能なシーンの部分を表すデータはストリーム内に符号化される。視野空間の大きさ及び形状は例えば、符号化ステップで決定及び画定されてビットストリーム内に符号化される。デコーダは当該情報をビットストリームから取得し、レンダラは取得された情報により画定された空間に視野空間を限定する。別の例によれば、レンダラはハードウェア制約に応じて、例えばユーザーの動きを検出するセンサの能力に関して視野空間を決定する。このような場合、符号化フェーズにおいて、レンダラの視野空間内の一点から視認可能な一点がビットストリームに符号化されていない場合、当該点はレンダリングされない。更なる例によれば、3Dシーンの全ての点を表すデータ(例:テクスチャ及び/又はジオメトリ)は、レンダリング視野空間を考慮することなくストリームに符号化される。ストリームのサイズを最適化すべく、シーンの点の部分集合、例えばレンダリング視野空間に従い視認可能な点の部分集合だけを符号化してもよい。
図5に、本原理の非限定的な一実施形態による、例えば3Dシーンが単一の視点から得られる場合において3Dシーン10の点の奥行き情報を含む画像50の一例を示す。画像50は第1のピクセルのアレイに対応し、各第1のピクセルは奥行きを表すデータを含んでいる。画像50は奥行きマップとも呼ばれる場合がある。データは例えば、各第1のピクセル毎に、画像50の視点(又は画像50が投影により得られる場合は投影中心)までの径方向距離zを示す浮動小数点値に対応する。奥行きデータは、例えばシーンのCGI部分について、1個以上の奥行きセンサにより取得されても、又は先験的に知られていてもよい。画像50に含まれる奥行き範囲[zmin,zmax]、すなわちシーンの最小奥行き値Zminと最大奥行き値zmaxとの間に含まれる奥行き値の範囲は大きく、例えば0~100メートルであってよい。奥行きデータを図5にグレーの影付きで表し、ピクセル(又は点)が暗いほど視点に近い。
画像50は、GOP(画像集団)と呼ばれるシーンの時間的に連続した画像の集団の一部であってよい。GOPは例えば、異なる種類の画像、例えばI画像(すなわち内部符号化画像)、P画像(すなわち予測符号化画像)、及び708までの「B」画像(すなわち双方向予測符号画像)を含んでいてよい。画像間に符号化関係が存在する。例えば、I画像を参照することによりP画像を符号化することができ、B画像はI及びP画像の参照を用いて符号化することができる。GOPは期間内画像集団の一部であってよく、すなわち2個のI画像間に含まれる一連の画像であって、第1のI画像が前記期間内画像集団に属していて期間内画像集団の開始を指すのに対し、(一時的に)第2のI画像が前記期間内画像集団ではなく後述の期間内画像集団に属する。
I画像は、他の全ての画像とは独立に符号化される画像である。各期間内画像集団はこの種の画像から(復号化順に)始まる。
P画像は、先に復号化された画像に対する運動補償された差分情報を含んでいる。MPEG-1、H.262/MPEG-2等の圧縮標準において、各P画像は1個の画像だけを参照することができ、当該画像は表示順及び復号化順にP画像に先行しなければならず、且つI又はP画像でなければならない。これらの制約はH.264/M PEG-4AVC及びHEVC等のより新しい標準では生じない。
B画像には、先に復号化された画像に対する運動補償された差分情報を含んでいる。MPEG-1及びH.262/MPEG-2等の標準において、各B画像は2個の画像すなわち表示順でB画像に先行するもの及びこれに後続するものだけを参照することができ、且つ全ての参照画像はI又はP画像でなければならない。これらの制約は、H.264/MPEG-4AVC及びHEVC等のより新しい標準では生じない。
画像30及び40も画像50と同様にGOPの各部分であってよい。
図6に、3Dシーンを表すデータを、同じく3DoF及び3DoF+レンダリングと互換性を有する形式で符号化、送信及び復号化する非限定的な例を示す。
3Dシーン60の画像(又は3Dシーンの一連の画像)がエンコーダ61によりストリーム62に符号化される。ストリーム62は、3DoFレンダリングの3Dシーンを表すデータ(例:画像30の第1の部分のデータ)を担持する構文の第1の要素、及び3DoF+レンダリングの3Dシーンを表すデータ(例:画像30及び画像40の第2の部分のデータ)を担持する構文の少なくとも第2の要素を含んでいる。
エンコーダ61は例えば以下のようにエンコーダに準拠している。
・JPEG、仕様ISO/CEI 10918-1 UIT-T勧告T.81、https://www.itu.int/rec/T-REC-T.81/en、
・MPEG-4AVC又はh264とも称するAVC。UIT-TH.264及びISO/CEI MPEG-4 Part10(ISO/CEI 14496-10)http://www.itu.int/rec/T-REC-H.264/en,HEVC(仕様をITUウェブサイト、T勧告、Hシリーズ、h265、http://www.itu.int/rec/T-REC-H .265-201612-i/enで見ることができる)
・3D-HEVC(HEVCの拡張であって仕様をITUウェブサイト、T勧告、Hシリーズ、h265、http://www.itu.int/rec/T-REC-H.265-201612-l/en annex G and Iで見ることができる)、
・Googleが開発してVP9、又は
・Alliance for Open Mediaが開発したAV1(AOMedia Video 1)。
デコーダ63がソースからストリーム62を取得する。例えば、ソースは、
-ローカルメモリ、例えばビデオメモリ又はRAM(ランダムアクセスメモリ(Random Access Memory))、フラッシュメモリ、ROM(読出し専用メモリ(Read Only Memory))、ハードディスク、
-ストレージインターフェース、例えば大容量ストレージ、RAM、フラッシュメモリ、ROM、光ディスク又は磁気サポートとのインターフェース、
-通信インターフェース、例えば有線インターフェース(例:バスインターフェース、ワイドエリアネットワークインターフェース、ローカルエリアネットワークインターフェース)又は無線インターフェース(IEEE802.11インターフェース又はBluetooth(登録商標)インターフェース)、
-ユーザーがデータを入力できるようにするグラフィカルユーザーインターフェース等のユーザーインターフェースを含む集合に属している。
デコーダ63は、3DoFレンダリング64の場合ストリーム62の構文の第1の要素を復号化する。3DoF+レンダリング65の場合、デコーダはストリーム62の構文の第1の要素及び構文の第2の要素を復号化する。
デコーダ63は、エンコーダ61に準拠しており、例えば
・JPEG、
・AVC、
・HEVC、
・3D-HEVC(HEVCの拡張);
・VP9、又は
・AV1
等のデコーダに準拠している。
図7A、7B及び7Cに、本原理の非限定的な一実施形態による、画像40及び/又は50の奥行きデータの量子化に用いることができる量子化関数の複数の例を示す。
図7Aに、画像40及び/又は50の第1のピクセルに保存されている奥行きを表すデータの量子化に用いる量子化関数71の第1の例を示す。横軸は(zmin=0~zmax=50メートルの範囲の浮動小数点値で表された)奥行きを表し、縦軸は(0~65536の範囲の)量子化済み奥行き値を表す。量子化関数71q’(z)は例えば次式のような奥行きzのアフィン変換であり、
ここにDは符号化ビット奥行きを表し、Dは、小さい量子化ステップを可能にする充分に量子化済み奥行き値を得るべく例えば図7Aの例では16に等しく、これは特に視点に近い被写体に対して良好な画質で奥行きを表すのに必要である。別の例によれば、Dは32に設定されていてよい。
そのような量子化関数71により、奥行きzに依らず量子化誤差は同じである。例えば、10ビット符号化(3Dシーンの奥行き全体、例えば50メートルにわたり量子化済み奥行きの符号化に1024個の値が利用可能)の場合、誤差は特に前景被写体に対して5cmであり、視認可能なアーチファクトを生成することができる。12ビットの符号化の場合、誤差は0.8mmである。量子化誤差は、e=(zmax-zmin)/2であってよい。
図7Bに、画像40及び/又は50の第1のピクセルに保存されている奥行きを表すデータの量子化に用いる量子化関数72の第2の例を示す。横軸は(Zmin=0.1~zmax=50メートルの範囲の浮動小数点値で表された)奥行きを表し、縦軸は(0~65536の範囲の)量子化済み奥行き値を表す。量子化関数72q(z)は、例えば次式のような奥行き1/zの逆アフィン変換である。
ここにDは符号化ビット奥行きを表し、Dは小さい量子化ステップを可能にする充分に量子化済み奥行き値を得るべく例えば図7Bの例では16に等しく、これは特に視点から遠く離れた被写体に対して良好な画質で奥行きを表すのに必要である。別の例によれば、Dは32に設定されていてよい。
そのような量子化関数72により、量子化誤差は奥行きの小さい値では最小であるが、奥行きの値が大きければ極めて大きい。例えば、10ビット符号化(3Dシーンの奥行き全体、例えば50メートルにわたり量子化済み奥行きの符号化に1024個の値が利用可能)の場合、誤差は特にzmaxで24メートルであるため、背景被写体に視認可能なアーチファクトが生成される恐れがある。12ビットの符号化の場合、誤差は38cmである。量子化誤差は、e=z・(zmax-zmin)/(2・Zmin・Zmax)であってよい。
量子化関数71、72は知覚的に不整合である、すなわち人間の視力を考慮していない。図7Cに、画像40及び/又は50の第1のピクセルに保存されている奥行きを表すデータの量子化に用いる、量子化関数73が知覚的に整合している量子化関数73の第3の例を示す。
量子化関数の知覚的整合性を説明すべく次式のような量子化誤差関数を導く。
後者の量が、所与の奥行きzで所与の量子化関数qに対して1に等しい定量化デルタが生じた場合に生起する奥行きの変化量を表す。誤差関数は基本的に、(典型的に圧縮アーチファクトに起因する)誤りのある量子化された入力奥行きから得られた場合の奥行き値の変化の仕方を理解する一助となる。
また、図8に示す人間の視力の概念を導入する。後者は人間の目81が3D空間内で2個の異なる点85、86を区別できる最小の角度
を表す。当該角度82から、特定の距離z83で人間の目が識別できる2点85、86間の最小知覚可能距離δ(z)84を計算することができる。
知覚的整合性を表すパラメータαは次式で定義できる。
知覚的に整合する量子化スキームqは、考慮する奥行きに依らず最小の認知可能な距離に関して量子化
の誤差が一定であることを保証しなければならない。換言すれば次式が得られる。
これはqでもqでもない場合である。対照的に、qα(z)により定義される量子化関数73は知覚的に整合している。
上述の量子化関数73は、以下の逆再帰的なシーケンスzi+1=(1+α)z(但しz=zmin)及び関連付けられた逆関数zα(q)zmin(1+a)を示唆する。更に、次式が成立することは明らかである。
これは奥行きzに依らず(誤差は奥行きに関して線形である)関連付けられた量子化誤差が知覚的に整合していることを保証する。
にもかかわらず、量子化関数73は量子化関数71、72と同様に、HEVCエンコーダ等の従来型ビデオエンコーダが課す符号化ビット奥行き(典型的に8又は10ビット或いは12ビット)制約を満たさない。図7Cに見られるように、5000個を超える、すなわち212個を超える値量子化済み奥行き値がZmin=0~zmax=50メートルの範囲に含まれる奥行き範囲のために必要とされる。
図9に、本原理の非限定的な一実施形態による、画像40又は50から量子化パラメータを決定する処理の一例を示す。
第1の動作90において、奥行きを表すデータ(画像40、50の各第1のピクセルに関連付けられた(又は保存されている)奥行き値)を含む画像40(又は50)が、第1のピクセルの複数のブロック、例えば第1のピクセルのブロックのアレイを形成する8×8又は16×16個の第1のピクセルのブロックに分割される。画像40(又は50)は任意選択的に画像901の集団の一部であってよい。量子化関数71、72又は73等の同じ量子化関数が画像40、すなわち画像40の全てのブロックに適用される。画像40がGOP901の一部である場合、同じ量子化関数が第1のピクセルの同じ複数のブロック内のGOPの各画像(GOPの各画像が同様に分割されている)に適用される。図5の処理を、当該処理が単一の画像40(又は50)、例えば画像の右上ブロックに実行された場合は1ブロックを参照して記述し、同じ処理が各ブロックに同様に適用される。画像40がGOP901の一部である場合、図5の処理を、GOP901の各画像の全ての右上ブロックの和集合を表す1個の時空間ブロック902を参照して記述する。ブロック902は、GOP901の各画像の全ての右上ブロックの全ての量子化済み奥行き値を含んでいる。画像40の第1のピクセルの各ブロックは、当該ブロックが属する行番号「i」及び列番号「j」で表すことができる。ブロック902が表す第1のピクセルの複数のブロックは各画像の同じ行及び列番号を有している。
第2の動作91において、量子化関数73が画像40の右上ブロック(又はGOP901の全ての画像の各右上ブロック)の奥行きデータに適用される。奥行きデータは、範囲912の限界に対応する最小奥行き値Zmin及び最大奥行き値Zmaxを有する奥行き値912の範囲で表される。量子化関数73を範囲912に適用することで量子化済み奥行き値911の範囲が取得可能になる。
第3の動作92において、量子化された値911の範囲が解析されて一意なブロック毎の量子化器であって量子化済み奥行き値の範囲911を表す量子化パラメータに対応する量子化器を決定する。この目的を達成すべく、範囲911に対して候補量子化パラメータの集合が決定される。候補量子化パラメータの集合は、量子化済み奥行き値911の範囲を表す基準として使用できる複数の量子化済み奥行き値を含んでいる。候補量子化パラメータqi,jは、範囲[qi,j,qi,j+N-1]第1のピクセルの考慮するブロックに対して以前に識別されている量子化済み奥行き値の範囲911をカバーするような量子化スケールの特別な値であり、Nは画像40又は50(或いはGOP901の画像)の奥行きデータの符号化に用いたエンコーダのビット奥行きが許容する符号化値の個数に対応する。一例として、ビット奥行きは10ビット、N=210=1024である。例えば、量子化済み奥行き値の範囲911が[3990,4700]であり、Zmin=3990且つzmax=4700とする。1024に等しいN921用の値を考慮すると、候補量子化パラメータの集合922は値の範囲[3676,4699]に対応し、3676=Zmax-Nである。画像40(又はGOP901)の第1のピクセルの各ブロックに対し同じ処理を反復して画像40(又はGOP901)の各ブロックの候補量子化パラメータの第1の集合を取得する。
第4の動作93において、候補量子化パラメータの第1の集合の部分集合に対応する量子化パラメータの第2の集合が決定される。この目的を達成すべく、候補量子化パラメータの第1の集合内で、第1のピクセルの全てのブロック、すなわち量子化済み奥行き値の全範囲を表すために使用できる候補量子化パラメータの最小個数が決定される。この第2の集合は例えば、貪欲なアルゴリズムを適用して画像全体40(又はGOP901全体)の最適にサイズ設定された第2の集合を得ることにより取得できる。貪欲なアルゴリズムは各段階で局所的に最適な選択を反復的に行う。一変型例によれば、第2の集合は遺伝的アルゴリズム又は進化的アルゴリズム或いは粒子スウォームアルゴリズムにより得られる。得られた量子化パラメータの第2の集合は例えば、図10に関して記述する画像100に保存することができる。
図10に、本原理の非限定的な一実施形態による、画像40又は50(或いは画像40又は50を含むGOP)に関連付けられた量子化パラメータを表す情報を含む画像100の一例を示す。
画像100は、行及び列に配置された第2のピクセルのマトリクスに対応する。画像100の列数は、画像40の一行に含まれる第1のピクセルの個数をブロックの大きさで除算した値に対応し、行数は画像40の一列に含まれる第1のピクセルの個数をブロックの大きさで除算した値に対応する。例えば、画像40の大きさが4096×2160個の第1のピクセルであり、1ブロックの大きさが8×8個の第1のピクセルである場合、画像100の列数は512、行数は270である。第2のピクセルの個数は従って512×270である。画像100の各第2のピクセルは、画像40又は50(或いはGOP901)の第1のピクセルの対応ブロックに関連付けられている。例えば、左上の第2のピクセル10000は画像40又は50の第1のピクセル左上ブロックに関連付けられていて、当該左上第2のピクセルの参照番号10000の番号00は当該左上第2のピクセルが属する行及び列番号に対応する。第2のピクセルは参照番号10000~100mnで識別でき、それらの番号は第2のピクセルが関連付けられている第1のピクセルのブロックの番号(画像40又は50の第1のピクセルのブロックのアレイの行及び列)に対応する。各第2のピクセルは、前記各第2のピクセルが関連付けられている第1のピクセルのブロックの量子化済み奥行き値の範囲を表すべく動作93で決定された量子化パラメータを受信する。第2のいくつかのピクセルが同じ量子化パラメータ受信するため(第1のピクセルの少なくとも空間的に隣接するブロックが共通(同一)の第2の量子化パラメータを共有するため)、画像100を符号化する場合の当該画像100の圧縮効率は高い。
符号化された画像100を送信する際のビットレートを低下させるべく、第2の集合の量子化パラメータに識別子をマッピングして、量子化パラメータではなく当該識別子を第2のピクセルに保存する。画像40又は50の第1のピクセルのブロックに含まれる量子化済み奥行き値の全範囲を表すのに数10個の量子化パラメータで充分であることが分かっている。この特定の実施形態によれば、画像100は第2のピクセル毎に1個の識別子を含んでいてよく、画像100の1個の第2のピクセルが画像40又は50の第1のピクセルの1個のブロックに関連付けられている(又は対応する)ため、当該画像は識別子を第1のピクセルのブロックにマッピング可能にする。識別子と量子化パラメータとのマッピングは例えば、図11に関して記述する表110のようにLUT(参照表)に保存することができる。
図11に、本原理の非限定的な一実施形態による、画像40又は50に関連付けられた量子化パラメータに識別子をマッピングする表110の一例を示す。
表110は、第2の集合の量子化パラメータの値にマッピングする識別子「Id」のリストを含み、1個の識別子は表の第1の部分111の1個の量子化パラメータにマッピングしており、1個の識別子は表112の第2の部分における複数の量子化パラメータにマッピングしている。識別子「Id」は例えば8ビットに符号化することができ、Idが整数値0~255をなす。
一変型例によれば、表110を送信する際のビットレートを低下させるべく、第2の部分112の1個の識別子に関連付けられた複数の量子化パラメータの値を、当該量子化パラメータ値がマッピングする第1の部分111の識別子で代替する。例えば、識別子128は第1の部分識別子1、7、0及び0にマッピングするが、これはId128で識別される量子化パラメータが値1200及び5010であることを意味し、1200は第1の部分111の識別子「1」により識別され、5010は識別子「7」により識別されることを意味する。第2の部分112は、識別子110のリスト又は表の第1の部分111を指す。当該変型例によれば、識別子がマッピングする値は例えば32ビットに符号化されていてよい。
第1の実施形態においては、第1の部分の大きさはエンコーダ及びデコーダが共有する固定値に設定される。例えば表110の大きさの半分である。図11の例において、0~127の識別子を表110の第1の部分に使用し、128~255の識別子を表110の第2の部分に用いる。第1と第2の部分の比は異なっていてよく、表110に保存されている値を適切に復号化すべく第1及び第2の部分をデコーダが検索できるよう当該比率が既知である前提で、第1の部分では例えば識別子の60%又は80%であってよい。
別の実施形態において、第1の部分の大きさは、シーン及び図9のステップ92の結果に依存する変数である。例えば、1個の画像集団(又は1個の期間内画像集団)にわたり、モーダル奥行き解析が上述のように実行されるが、表110の第1の部分の識別子の個数は当該GOPにわたり発見された単一モードの個数に1を加えた値である。モードの総数(単一と組み合わせの合計)が表110の大きさ(例:256個の値)を超える場合、知的な選択を実行して、例えば、更に256個の代表的又はより近いモードを維持することができる。次いで第1の部分の大きさが、当該GOPにわたり維持された単一モードの個数に1を加えた値に設定される。この大きさの値は、表100に関連付けられたメタデータに追加された情報であり、従ってデコーダは第1の部分の大きさを検索して表l10に保存された値を適切に復号化することができる。
図12に、本原理の非限定的な一実施形態による、画像40又は50のピクセルの単一ブロックに対して複数の量子化パラメータを決定する処理の一例を示す。
当該処理は図9に関して記述するものと同様であるが、量子化済み奥行き値の量子化スケールで隣接しない複数の範囲を含む第1のピクセルのブロックに適用される。このケースが出現するのは、第1のピクセルの1個のブロックでカバーされるシーンのコンテンツが異なる奥行きに位置するシーンの複数の被写体又は複数の被写体の一部を含む場合である。GOPを考慮する場合、GOP中に運動が生じる場合に当該ケースが出現し得る。このような場合、第1のピクセルの考慮する1ブロックの量子化済み奥行き値全体を表すのに1個の単一定量化パラメータでは充分でない。
第1の動作120は、図9の第1の動作90、すなわち画像40(又はGOPの画像)の第1のピクセルの複数のブロックへの分割に対応する。図12の例によれば、第1のピクセル1204の特定のブロックを考慮する。ブロック1204はいくつかの領域1201、1202及び1203を含み、各領域は3Dシーン10の被写体の一部に対応し、被写体1201~1203の各部間の奥行きにギャップがある状態で各部分は異なる奥行きにある。
第2の動作121は、図9の第2の動作91、すなわち画像40又は複数画像のGOPに、特に図12の例のブロック1204に同じ量子化関数(例:量子化関数71、72又は73)を適用することに対応する。奥行き1211、1212及び1213の3個の範囲の各々がブロック1204の各領域1201、1202及び1203の奥行き値/データに対応する。これら3個の範囲は隣接しておらず、これらの範囲の間に距離のギャップが存在すること、すなわち範囲1211の下限と範囲1212の上限との間にギャップがあり、更に範囲1212の上限と範囲1213の下限の間に更なるギャップがあることを意味する。これらの奥行きの範囲に量子化関数を適用することで量子化済み奥行き値の3個の対応する範囲が、奥行き値の各範囲1211、1212及び1213毎に1個ずつ、量子化済み奥行き値の範囲のペア間にギャップがある状態で取得可能になる。
第3の動作122は、図9の第3の動作92及び第4の動作93、すなわち量子化パラメータの決定に対応する。同じ処理が適用されるが、符号化値の個数Nの一部だけが量子化済み奥行き値の各範囲用のエンコーダのビット奥行きが許容する。例えば、候補量子化パラメータの集合の決定に用いる符号化値の個数は、ブロック内で検出された奥行き値の範囲の個数でNを除算した値、すなわち図12の例では3である。M(i,j)個の量化子
の組み合わせが第1のピクセルの各ブロックに関連付けられている。その場合、量子化パラメータ(量子化器とも呼ばれる)の定義が図9と比較して僅かに修正される。これは、関連する量子化済み奥行き値の範囲を範囲
がカバーするような量子化されたスケールの値となる。この後者の範囲
は例えば奥行きモードと呼ばれ、
がモードの長さである。エンコーダN=2の動的特性は各モード間で調和的に共有され、量化子毎の動的特性は新たな量化子が必要となる都度、すなわち1ブロック内で奥行き値の新たな範囲が検出される都度低下する。図12の例において、候補量子化パラメータの3個の範囲1221、1222及び1223を、量子化済み奥行き値の各範囲毎に1個決定することができる。第1の範囲1221は[979,1319] に、第2の範囲1222は[2809,3149]に、第3の範囲1223は[4359,4699]に等しくてよい、候補量子化パラメータの第1の集合の部分集合に対応する量子化パラメータの第2の集合が次いで図9に関して記述する第4の動作93と同様に決定することができる。
量子化パラメータの例示的な個数(単一の奥行き範囲を含む単一モードブロック及び複数の奥行き範囲を含むマルチモードブロックのケースを含む)は、3Dシーン10の例において、40に近い(すなわち表110の第1の部分111に対応する128よりも低い)のに対し、マルチモードブロック(すなわち複数の奥行き範囲を有するブロック)に関与している量子化パラメータの異なる組み合わせの個数は例えば30に近い(同時に表110の第2の部分112に対応する128よりも低い)。更に、マルチモードブロックの場合、関与する量子化パラメータM(i,j)の個数は各ブロックで3を超えることは稀である。
各ブロックの異なるモード(すなわち単一モードびマルチモード)を保存して参照するコンパクトな方法は、各要素が32ビットに符号化されている256個の要素(すなわち識別子)を有する図11の量子化表110を考慮することにより達成できる。表内での位置に応じて、各要素は異なる仕方で(要素が第1の部分111又は第2の部分112のいずれに属するかに応じて)解釈できる。表の前半部分111(位置1~127、0は空ブロックのために予約済である)に属する場合、関連付けられた値は32ビットの整数と解釈すべきであり、その値が量子化パラメータ値である。表の後半部分112(位置128~255に対する)に属する場合、32ビットは最大4個の8ビット整数の組み合わせであって各整数が0~127の間に含まれていて表の前半部分の対応する要素を指していると解釈すべきである。表の当該第2の部分112は最大4個の量子化器の組み合わせを暗黙的に符号化して、対応する表位置が量子化マップ(すなわち画像100)により参照されてマルチモードブロックを記述する。量子化マップ100は、0~255(量子化表の大きさ)に含まれる値だけを含み、要素マップ毎に8ビット(すなわち第2のピクセル)により符号化することができる。
マルチモードブロックの場合、ブロック上の関与する量子化器の個数M(i,j)は、量子化マップ111で対応する値の32ビットに埋め込まれた4×8ビットの整数における非ゼロ値の個数を数えることにより推定することができる。後者の個数に応じて、各々の関連付けられたモード(単一モード及びマルチモード)の長さを直接導くことができる。
図13に、本原理の非限定的な一実施形態による、画像40又は50の量子化済み奥行き値を符号化する方法の複数の例を示す。
第1の動作130において、図12の動作120と同様に、量子化関数71、72又は73等の量子化関数を用いて1ブロックの奥行き範囲が量子化される。量子化済み奥行き値の得られた範囲は、二つの異なる方法、すなわち動作131、132を伴う第1の方法A、及び動作133、134を伴う第2の方法Bに従い符号化することができる。
方法Aに関して、量子化パラメータは、図12の動作122に関して記述したものと同様の動作131で決定される。画像100及び関連付けられた表110が上述のように生成される。
動作132において、画像40の奥行き値の量子化を実行することができる。そのために、(i,j)に位置するブロックの量子化パラメータ
が決定される。量子化パラメータの当該第2の集合を画像100及び関連付けられた表110により暗黙的に記述する。量子化すべき所与の奥行きzに対して、
を次式のような量子化パラメータと呼ぶ。
従って量子化済み奥行きを次式で表すことができる。
動作132に対応する図13の部分に見られるように、後者の量子化関数は、各奥行き範囲の量子化パラメータを考慮して、各奥行き範囲の量子化に用いる量子化関数qαの「部分毎の」連結に対応する。しかし、奥行き符号化値は各ブロックに完全な符号化動的特性Nを使用可能にする一方、動作132のような単純な連結ではいくつかの問題が生じ得る。実際、各部分1322、1323内にある場合、qαの特性はビデオ符号化アーチファクトに対する良好な堅牢性を保証するが、各々の連結部分の限界ではあてはまらない。例えば、部分1323の下限に対応する部分1322の上限1321のレベルにおいて、符号化アーチファクトは、量子化された値をある奥行きモード1322から別の1323に(又は逆向きに)切り替えて復号化側に望ましくない視覚的影響を及ぼす場合がある。例えば、部分1323の下限における復号化された量子化済み奥行き値の誤差が1ならば、量子化関数で逆関数の部分1323ではなく逆量子化関数の部分1322の使用、又はその逆を導く場合がある。
方法Aの問題を解決すべく方法Bを実行することができる。動作133において量子化パラメータが決定される。符号化値の個数Nを全ての範囲が共有する(図12の動作122で説明したようにNを範囲の個数で除算する)のではなく、符号化値の一部が予約済であり、当該部分は例えばDMZと呼ばれる。当該部分は、関連付けられた量子化パラメータによる符号化に当該部分の値を使用できないという意味で予約済である。例えば、符号化値の個数Nの6.25%、すなわちN=1024の場合64個の値が予約済である。このような変更は奥行きモード長の計算方法に影響を及ぼす。後者はこれまで
で表されたが、現在は
のように計算する必要がある。従ってこの安全地帯の導入は一方で、奥行き範囲毎に(すなわち量子化パラメータ毎に)割り当てられた符号化値の個数を若干減らすが、他方で各々の符号化された奥行きモード間の限界又は最前線での良好な堅牢さを保証する。この変更により、ブロック毎の量子化関数は僅かに調整されて最終的に次式で表すことができる。
及び
上述のブロック毎の量子化関数の結果を動作134に示す。縦軸に、各奥行きモード(又は各奥行き範囲)に関連付けられた量子化パラメータに従い符号化された量子化済み奥行き値を示す。動作134から明らかに分かるように、符号化値のDMZのいくつかの部分が量子化済み奥行き値の符号化に使用されておらず、これらの部分は奥行きモード(奥行き範囲)の限度に位置する。符号化された量子化済み奥行き値を復号化する際に、復号化値がDMZ部分に含まれる場合、当該値は単に廃棄されるためアーチファクトの生成が回避される。
図14に、データがパケット方式の送信プロトコルを介して送信される場合における、3Dシーンの奥行きを表すデータを担持するストリームの構文の一実施形態の非限定的な一例を示す。図14はビデオストリームの例示的な構造14を示している。構造は、ストリームを構文の独立要素に組織するコンテナからなる。構造は、ストリームの全ての構文要素に共通なデータの集合であるヘッダ部分141を含んでいてよい。例えば、ヘッダ部分は、構文要素の各々の性質及び役割を記述した構文要素に関するメタデータを含んでいる。ヘッダ部分はまた、画像40、50の符号化に用いる視点の座標及び画像の大きさと解像度に関する情報を含んでいてよい。構造は、構文142の第1の要素を含むペイロード及び構文143の少なくとも1個の第2の要素を含んでいる。第1の構文要素142は、量子化パラメータを表すデータ、例えば画像100及び任意選択的に表110を含んでいる。
1個以上の第2の構文要素143はジオメトリ情報、すなわち奥行き情報を含んでいる。1個以上の第2の構文要素143は例えば、量子化パラメータに従い符号化された量子化済み奥行き値を含んでいる。
一変型例によれば、1個以上の追加的な第2の構文要素143は画像30のテクスチャを表すデータを含んでいる。
更なる任意選択的変型例によれば、ストリームは更に、以下のパラメータのうち少なくとも1個を、例えばメタデータの形式で含んでいる。
-DMZ値、
-量子化関数の計算に必要なパラメータ、例えばα及びZmin
-エンコーダビット奥行きが許容する符号化値の個数N。
以下のパラメータ又は少なくともその一部(例:量子化関数のDMZ値又はパラメータ)はGOP毎に一回送信することができる。一変型例によれば、これらのパラメータはデコーダに保存されて送信されない。
説明目的のため、ISOBMFFファイル形式標準の関連で、テクスチャパッチ、ジオメトリパッチ及びメタデータは典型的に、テクスチャデータ及びジオメトリデータ自体がmdat型の媒体データボックスに埋め込まれているmoov型のボックス内のISOBMFFトラックで参照される。
復号化側では、上述のメタデータの集合が取り出されて、受信された奥行きアトラスの各ブロックの非量子化に使用された。より厳密には、各ブロック(i,j)に対して、必要とされる量子化パラメータ(量化子とも呼ばれる)の集合
が量子化表110から導かれ、関連付けられたモード長
と共にマッピングする(N=2)。qを非量子化したい量子化済み奥行きとする。k,0≦k<M(i,j)が、
を満たすことに注意されたい。
(先に定義したように
)。
を関連付けられた量子化器とすると、画像40又は50の第1のピクセル(i,j)に関連付けられた奥行き値zを次式により非量子化することができる。
αは量子化関数qαの逆関数である。
後者の例は、DMZを実装した方法に対応する。DMZを実装していない方法の場合、DMZ=0として同一の式が成り立つ。
図15に、図9、12、13、16及び/又は17との関連で記述する方法を実装すべく構成可能な装置15のアーキテクチャの一例を示す。装置15は、図6のエンコーダ61又はデコーダ63となるよう構成可能である。
装置15は、データ及びアドレスバス151により紐付けられた以下の要素を含む。
-例えばDSP(デジタル信号プロセッサ(Digital Signal Processor))であるマイクロプロセッサ152(又はCPU)、
-ROM(読出し専用メモリ(Read Only Memory))153、
-RAM(ランダムアクセスメモリ(Random Access Memory))154、
-ストレージインターフェース155、
-送信するデータをアプリケーションから受信するためのI/Oインターフェース156、及び
-電源、例えば電池。
一例によれば、電源は装置の外部にある。上述の各メモリにおいて、本明細書で用いる用語「レジスタ」は、小容量(数ビット)の領域又は極めて大きい領域(例:プログラム全体又は受信或いは復号化された大量のデータ)に対応していてよい。ROM153は少なくとも1個のプログラム及び複数のパラメータを含んでいる。ROM153は、本原理に従い技術を実行するためのアルゴリズム及び命令を保存することができる。CPU152はスイッチ投入時にRAM内のプログラムをアップロードして対応する命令を実行する。
RAM154はレジスタ内に、装置15のスイッチ投入後にCPU152により実行されてアップロードされるプログラムを含み、入力データをレジスタ内に、本方法の異なる状態の中間のデータをレジスタ内に、及び本方法の実行に用いる他の変数をレジスタ内に含んでいる。
本明細書に記述する実装方式は例えば、方法又は処理、装置、コンピュータプログラム製品、データストリーム、又は信号において行うことができる。(例:方法又は装置としてのみ議論された)単一の実装方式との関連で議論するに過ぎない場合であっても、議論する特徴の実装方式は他の方式(例:プログラム)に実装することができる。装置は例えば、適当なハードウェア、ソフトウェア、及びファームウェアに実装することができる。本方法は例えば一般に処理装置と呼ばれる例えばコンピュータ、マイクロプロセッサ、集積回路、又はプログラム可能論理素子を含むプロセッサ等の装置に実装することができる。プロセッサはまた、通信機器、例えばコンピュータ、携帯電話、ポータブル/パーソナル携帯情報機器(「PDA」)、及びエンドユーザー同士の情報通信を容易にする他の装置を含んでいる。
図6の符号化又はエンコーダ61の一例によれば、3次元シーンの奥行きデータをソースから取得する。例えば、ソースは以下を含む集合に属する。
-ローカルメモリ、例えばビデオメモリ又はRAM(ランダムアクセスメモリ(Random Access Memory))、フラッシュメモリ、ROM(読出し専用メモリ(Read Only Memory))、ハードディスク、
-ストレージインターフェース、例えば大容量ストレージ、RAM、フラッシュメモリ、ROM、光ディスク又は磁気サポートとのインターフェース、
-通信インターフェース、例えば有線インターフェース(例:バスインターフェース、ワイドエリアネットワークインターフェース、ローカルエリアネットワークインターフェース)又は無線インターフェース(IEEE802.11インターフェース又はBluetooth(登録商標)インターフェース)、
-ユーザーがデータを入力できるようにするグラフィカルユーザーインターフェース等のユーザーインターフェースを含む集合に属している。
図6の復号化又はデコーダ63の複数の例によれば、ストリームが宛先へ送られ、具体的には、宛先は以下を含む集合に属する。
-ローカルメモリ(153又は154)、例えばビデオメモリ又はRAM、フラッシュメモリ、ハードディスク、
-ストレージインターフェース(155)、例えば大容量ストレージ、RAM、フラッシュメモリ、ROM、光ディスク又は磁気サポートとのインターフェース、及び
-通信インターフェース(156)、例えば有線インターフェース(例えばバスインターフェース(例:USB(ユニバーサルシリアルバス(Universal Serial Bus)))、ワイドエリアネットワークインターフェース、ローカルエリアネットワークインターフェース、HDMI(登録商標)(高解像度マルチメディアインターフェース(High Definition Multimedia Interface))インターフェース)又は無線インターフェース(IEEE802.11インターフェース、WiFi(登録商標)又はBluetooth(登録商標)インターフェース)。
符号化又はエンコーダの複数の例によれば、3Dシーンの奥行きを表すデータを含むビットストリームが宛先へ送られる。一例として、ビットストリームはローカル又はリモートなメモリ、例えばビデオメモリ又はRAM、ハードディスクに保存される。一変型例において、ビットストリームはストレージインターフェース、例えば大容量ストレージ、フラッシュメモリ、ROM、光ディスク又は磁気サポートとのインターフェースへ送られる、及び/又は通信インターフェース、例えばポイントツーポイントリンク、通信バス、ポイントツーマルチポイントリンク又はブロードキャストネットワークとのインターフェースを介して送信される。
図6の復号化又はデコーダ或いはレンダラ63によれば、ソースからビットストリームが取得される。例示的に、ビットストリームはローカルメモリ、例えばビデオメモリ、RAM、ROM、フラッシュメモリ又はハードディスクから読み込まれる。一変型例において、ビットストリームはストレージインターフェース、例えば大容量ストレージ、RAM、ROM、フラッシュメモリ、光ディスク又は磁気サポートとのインターフェースから、及び/又は通信インターフェース、例えばポイントツーポイントリンク、通信バス、ポイントツーマルチポイントリンク又はブロードキャストネットワークとのインターフェースから受信される。
複数の例によれば、装置15は図9、12、13、16及び/又は17との関連で記述する方法を実装すべく構成されていて、以下を含む組に属する。
-モバイル機器、
-通信機器、
-ゲーム機器、
-タブレット(タブレットコンピュータ)、
-ラップトップ、
-静止画カメラ、
-ビデオカメラ、
-符号化チップ、
-サーバ(例:ブロードキャストサーバ、ビデオオンデマンドサーバ又はウェブサーバ)。
図16に、本原理の非限定的な一実施形態による、3Dシーン、例えば3Dシーン10の奥行きを表すデータを符号化する方法を示す。本方法は例えば、エンコーダ61及び/又は装置15に実装することができる。装置15の異なるパラメータを更新することができる。3Dシーンは例えばソースから取得でき、3Dシーンの空間内で1個以上の視点を決定することができ、投影マッピングに関連付けられた複数のパラメータを初期化することができる。
第1の動作161において、奥行きを表すデータ(例:画像40又は50の視点と当該視点から視認可能な3Dシーンの複数の点との間の距離)が量子化されて、多数の量子化済み奥行き値を生成する。奥行きの範囲及び量子化関数に応じて、量子化済み奥行き値の個数は多く、例えば5000超、50000以上であってよい。量子化済み奥行き値の個数はいずれにせよ、奥行きデータの符号化に用いたエンコーダのビット符号化ビット奥行きが許容する符号化値の個数Nよりも多いか又は大幅に多い。一例として、符号化値の個数は256個の値(ビット奥行きが8ビット)に等しいか又は1024(ビット奥行きが10ビット)に等しい。奥行きデータの量子化に用いる量子化関数は任意選択的に、奥行き及び人間の視覚を考慮した量子化誤差を有する機能であってよく、奥行きが深いほど量子化誤差が大きい。
第2の動作162において、3Dシーンの奥行きデータ、又は(例えば所定の視点に従う)3Dシーンの奥行きデータの少なくとも一部を含む画像40又は50の第1のピクセルの各ブロックに対して候補量子化パラメータの第1の集合が決定される。候補量子化パラメータは、量子化済み奥行き値のある範囲の量子化済み奥行き値を符号化する基準値として使用できる値であり、当該範囲はその下限及び上限Zmin及びZmaxにより画定される。第1の集合は、基準値として使用できる全ての可能な値を含んでいる。量子化済み奥行き値の範囲の候補量子化パラメータは例えば、当該範囲の値を符号化する際の開始又は初期値に対応していてよい。第1の集合は符号化値の個数Nに応じて決定され、すなわち候補量子化パラメータの値に等しい下限及び候補量子化パラメータの前記値に等しい上限+(N-1)により画定される範囲が、前記候補量子化パラメータが表す量子化済み奥行きの範囲をカバーする。
第3の動作163において、量子化パラメータの第2の集合を動作162で得られた第1の集合の部分集合として決定する。量子化パラメータの第2の集合は、画像40又は50の全てのブロックの量子化済み奥行き値の全範囲を表すために使用可能な量子化パラメータの最小個数を含んでいる。候補量子化パラメータの選択は、第1の集合同士の共通集合に基づいていてよく、選択される候補量子化パラメータの個数を最小化する。第2の集合の少なくとも一部の同じ量子化パラメータを、第1のピクセルのいくつかのブロックに関連付けて用いてもよく、すなわち量子化済み奥行き値の複数の異なる範囲を表していてよい。
第4の動作164において、量子化パラメータの第2の集合が、例えば画像40又は50の第1のピクセルの1個のブロックに各々関連付けられている第2のピクセルを含む画像の形式で符号化され、各第2のピクセルは、第1のピクセルの関連付けられたブロックに含まれる量子化済み奥行き値の1個以上の範囲を符号化する際の基準として用いる1個以上の量子化パラメータを含んでいる。一変型例によれば、第2の集合の量子化パラメータは各々一意な識別子により識別され、各第2のピクセルは第1のピクセルの対応するブロックに関連付けられた1個以上の識別子を識別する1個以上の量子化パラメータを含んでいる。当該変型例によれば、識別子のリストを量子化パラメータにマッピングする表もまた符号化される。更なる変型例によれば、当該表は、各々が単一の量子化パラメータにマッピングする第1の識別子の第1のリスト及び各々が複数の第1の識別子にマッピングする第2の識別子の第2のリストを含んでいる。量子化パラメータの第2の集合は有利な特徴として、例えばデフレート圧縮アルゴリズム、又は連長符号化アルゴリズムにより無損失符号化される。表110もまた、有利な特徴として無損失符号化されている。
第5の動作165において、画像40又は50の第1のピクセルの各ブロックの量子化済み奥行き値が、量子化パラメータの第2の集合に従い符号化される。換言すれば、各ブロックの量子化済み奥行き値の各範囲が、第2の集合における自身の関連付けられた量子化パラメータに従い符号化される。量子化済み奥行き値は例えば、符号化されるか、又は所定のフォーマットに従い、例えばHEVC/H265:「ITU-T H.265 TELECOMMUNICATION STANDARDIZATION SECTOR OF ITU (10/2014), SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS, Infrastructure of audiovisual services - Coding of moving video, High efficiency video coding, Recommendation ITU-T H.265」に従い、又はAV1に従いコンテナ又はファイルのトラックにフォーマット化される。コンテナは例えばISOBMFF(ISO Base Media File Format, ISO/IEC 14496-12-MPEG-4 Part 12)ファイルに対応する。
一変型例によれば、画像40又は50は画像集団(GOP)の一部であり、GOPの奥行きデータの符号化は同じ第2の集合に従い実行される。当該変型例によれば、第2の集合は、GOP毎に一回だけ送信されればよい。
更なる変型例によれば、本方法は、符号化された第2の集合及び符号化された量子化済み奥行き値を含むビットストリームの送信を含んでいる。
図17に、本原理の非限定的な実施形態による、3Dシーン、例えば3Dシーン10の奥行きを表すデータを復号化する方法を示す。本方法は例えば、デコーダ63及び/又は装置15に実装されていてよい。
第1の動作171において、量子化パラメータの集合が、例えば受信されたビットストリームから復号化される。当該集合の1個以上の量子化パラメータが画像40又は50の第1のピクセルの各ブロックに関連付けられていて、当該集合の量子化パラメータの少なくとも一部が画像40又は50の第1のピクセルの複数のブロックに共通である。
第2の動作172において、画像40又は50の第1のピクセルに関連付けられた量子化済み奥行き値は、第1のピクセルの各ブロックに関連付けられた1個以上の量子化パラメータにより符号化される。復号化された量子化済み奥行き値の個数は、量子化済み奥行きの符号化に用いたエンコーダの符号化ビット奥行きが許容する符号化値の個数Nよりも多い。
当然ながら、本開示は上述の実施形態に限定されない。
特に、本開示は、3Dシーンの奥行きを表す符号化/復号化データ用の方法及び装置に限定されず、符号化されたデータを含むビットストリームを生成する方法、及び当該方法を実行する任意の装置、特に少なくとも1個のCPU及び/又は少なくとも1個のGPUを含む任意の装置に拡張される。
本開示はまた、ビットストリームの復号化されたデータからレンダリングされた画像を表示する方法(及びそのために構成された装置)にも関する。
本開示はまた、ビットストリームを送信及び/又は受信する方法(及びそのために構成された装置)にも関する。
本明細書に記述する実装方式は例えば、方法又は処理、装置、コンピュータプログラム製品、データストリーム、又は信号に実装することができる。単一形式の実装方式だけに関して議論(例えば方法又は装置としてのみ議論)された場合であっても、議論された特徴の実装方式は他の形式(例:プログラム)で実装することができる。ある装置は例えば、適当なハードウェア、ソフトウェア、及びファームウェアに実装することができる。本方法は例えば、一般に処理装置を指す、例えばコンピュータ、マイクロプロセッサ、集積回路、又はプログラム可能論理装置を含プロセッサ等の装置で実行することができる。プロセッサはまた、通信機器、例えばスマートフォン、タブレット、コンピュータ、携帯電話、携帯情報端末(「PDA」)、及びエンドユーザー同士で情報の通信を可能にする他の装置を含んでいる。
明細書に記述する各種の処理及び特徴の実装は、様々の異なる機材又はアプリケーション、特に、例えばデータ符号化、データ復号化、ビュー生成、テクスチャ処理、画像及び関連テクスチャ情報及び/又は奥行き情報の他の処理に関連付けられた機材又はアプリケーションにおいて実施することができる。そのような機材の例として、エンコーダ、デコーダ、デコーダからの出力を処理するポストプロセッサ、エンコーダへの入力を提供するプリプロセッサ、ビデオコーダー、ビデオデコーダ、ビデオコーデック、ウェブサーバ、セットトップボックス、ラップトップ、パーソナルコンピュータ、携帯電話、PDA、及び他の通信機器が含まれる。明らかなように、当該機材はモバイル機器であって、移動する乗り物にも取り付け可能である。
また、本方法はプロセッサが実行する命令により実行されてよく、そのような命令(及び/又は実装方式により生成されたデータ値)はプロセッサ可読媒体、例えば集積回路、ソフトウェア担持波又は、例えばハードディスク、コンパクトディスケット(「CD」)、光ディスク(例えば、デジタル多用途ディスク又はデジタルビデオディスクと呼ばれることが多いDVD等)、ランダムアクセスメモリ(Random Access Memory)(「RAM」)、又は読出し専用メモリ(Read Only Memory)(「ROM」)等の他の記憶装置に保存することができる。命令は、プロセッサ可読媒体に明示的に実装されたアプリケーションプログラムの形式をなしていてよい。命令は例えば、ハードウェア、ファームウェア、ソフトウェア、又はこれらを組み合わせたものであってよい。命令は、例えばオペレーティングシステム、別個のアプリケーション、又はこれら二つの組み合わせに見られる。従って、プロセッサは例えば、処理を実行すべく構成された装置と、処理を実行する命令を有するプロセッサ可読媒体(記憶装置等)を含む装置の両方として特徴付けることができる。更に、プロセッサ可読媒体は、命令に加え、又は命令に代えて、ある実装方式により生成されたデータ値を保存することができる。
当業者には明らかになるように、複数の実装方式により、例えば保存又は送信可能な情報を担持すべくフォーマット設定される様々な信号を生成できる。情報は例えば、ある方法を実行する命令、又は記述された実装方式の一つにより生成されたデータを含んでいてよい。例えば、記述した実施形態の構文を読み書きする規則をデータとして担持すべく、又は記述する実施形態に書かれた実際の構文値をデータとして担持すべく信号がフォーマット設定されていてよい。そのような信号は例えば、電磁波(例:スペクトルの無線周波数部分を用いて)として、又はベースバンド信号としてフォーマット設定されていてよい。フォーマット設定は例えば、データストリームを符号化して、符号化されたデータストリームと共に担持波を変調することを含んでいてよい。信号が担持する情報は例えば、アナログ又はデジタル情報であってよい。信号は公知のように各種の異なる有線又は無線リンクを介して送信することができる。信号はプロセッサ可読媒体に保存することができる。
多くの実装方式について記述したきた。にもかかわらず、各種の変更を加え得ることが理解されよう。例えば、異なる実装方式の要素を組み合わせ、補完、変更、又は除外して他の実装方式を生成することができる。また、当業者には、他の構造及び処理を開示したもので代替してよく、結果的に得られる実装方式が、実質的に同じ機能を実質的に同じ方式で実行して、開示した実装方式と少なくとも実質的に同じ結果が実現されることを理解されよう。従って、これら及び他の実装方式が本出願により考察される。

Claims (28)

  1. 3Dシーンの奥行きを表すデータを符号化する方法であって、
    所定の符号化ビット奥行きが許容する符号化値の個数よりも多い個数の量子化済み奥行き値の第1の範囲内で前記データを量子化することと、
    前記データを含む画像の第1のピクセルの各ブロックに対して、候補パラメータの第1の集合を決定することであって、候補パラメータは、符号化値の個数の制限内で量子化済み奥行き値の範囲を表す開始値であり、量子化済み奥行き値が前記範囲に含まれる、ことと、
    パラメータの第2の集合を複数の前記第1の集合の和集合の部分集合として、前記第2の集合が前記画像の第1のピクセルの複数のブロックに共通の候補パラメータを含むように、且つ前記第2の集合の1個以上のパラメータが前記画像の第1のピクセルの各ブロックに関連付けられるように決定することと、
    前記パラメータの第2の集合を符号化することと、
    前記パラメータの第2の集合に従い前記量子化済み奥行き値を符号化することと、を含む方法。
  2. 前記パラメータの第2の集合にマッピングする識別子のリストが更に符号化され、前記パラメータの第2の集合が前記識別子のリストに従い符号化されている、請求項1に記載の方法。
  3. 前記識別子のリストが、各々が前記第2の集合の1個のパラメータにマッピングされた複数の第1の識別子と、各々が複数の前記第1の識別子にマッピングされた複数の第2の識別子とを含み、前記パラメータの第2の集合が、前記画像の第1のピクセルのブロックの個数に対応する個数の第2のピクセルを含むイメージを符号化することにより符号化されていて、各第2のピクセルが、
    単一のパラメータが前記第1のピクセルのブロックに関連付けられている場合に、前記各第2のピクセルに対応する前記第1のピクセルのブロックに関連付けられた前記パラメータを識別する前記リストの第1の識別子、又は
    複数のパラメータが前記第1のピクセルのブロックに関連付けられている場合に、前記各第2のピクセルに対応する前記第1のピクセルのブロックに関連付けられた前記パラメータを識別する前記リストの第2の識別子を含んでいる、請求項2に記載の方法。
  4. 前記リストが、前記リスト内の第1の識別子の個数を示す値に関連付けられている、請求項3に記載の方法。
  5. 前記データが、奥行き及び人間の視覚を考慮した量子化誤差を有する量子化関数に従い量子化され、奥行きが深いほど量子化誤差が大きい、請求項1~4のいずれか1項に記載の方法。
  6. 前記符号化値の個数が、前記第1のピクセルの各ブロックに含まれる前記量子化済み奥行き値を符号化すべく前記第1のピクセルの各ブロックに割り当てられていて、前記符号化値の個数の第1の部分が、前記第1のピクセルの各ブロックに含まれる量子化済み奥行き値の各範囲の符号化に割り当てられていて、符号化された量子化済み奥行き値の2個の範囲が前記符号化値の個数の第2の部分により分離されていて、前記第2の部分が量子化済み奥行き値の符号化に使用されない、請求項1~5のいずれか1項に記載の方法。
  7. 前記画像が時間的に連続した画像の集団の一部であり、前記パラメータの第2の集合が、前記時間的に連続した画像の集団の各画像に共通である、請求項1~6のいずれか1項に記載の方法。
  8. 3Dシーンの奥行きを表すデータを復号化する方法であって、
    パラメータの集合を、前記集合の1個以上のパラメータが画像の第1のピクセルの各ブロックに関連付けられていて、前記集合の前記パラメータの少なくとも一部が前記画像の第1のピクセルの複数のブロックに共通である状態で復号化し、パラメータは、符号化値の個数の制限内で量子化済み奥行き値の範囲を表す開始値である、こと、
    前記画像の前記第1のピクセルに含まれる量子化済み奥行き値を、復号化された量子化済み奥行き値の個数が所定の符号化ビット奥行きが許容する符号化値の個数よりも多い状態で、前記第1のピクセルの各ブロックに関連付けられた前記1個以上のパラメータに従い復号化すること、を含む方法。
  9. 前記パラメータの集合にマッピングする識別子のリストが更に復号化され、前記パラメータの集合が前記識別子のリストに従い復号化されている、請求項8に記載の方法。
  10. 前記識別子のリストが、各々が前記集合の1個のパラメータにマッピングされた第1の識別子及び各々が複数の前記第1の識別子にマッピングされた第2の識別子を含み、前記パラメータの集合が、前記画像の第1のピクセルのブロックの個数に対応する個数の第2のピクセルを含むイメージから復号化されていて、各第2のピクセルが、
    単一のパラメータが前記第1のピクセルのブロックに関連付けられている場合、前記各第2のピクセルに対応する前記第1のピクセルのブロックに関連付けられた前記パラメータを識別する前記リストの第1の識別子、又は
    複数のパラメータが前記第1のピクセルのブロックに関連付けられている場合、前記各第2のピクセルに対応する前記第1のピクセルのブロックに関連付けられた前記パラメータを識別する前記リストの第2の識別子を含んでいる、請求項9に記載の方法
  11. 前記リストが、前記リスト内の第1の識別子の個数を示す値に関連付けられている、請求項10に記載の方法。
  12. 前記データが、奥行き及び人間の視覚を考慮した量子化誤差を有する量子化関数に従い前記復号化された量子化済み奥行き値から取得され、奥行きが深いほど量子化誤差が大きい、請求項8~11のいずれか1項に記載の方法。
  13. 前記画像が、時間的に連続した画像の集団の一部であり、前記パラメータの集合が前記時間的に連続した画像の集団の各画像に共通である、請求項8~12のいずれか1項に記載の方法。
  14. 請求項1~7のいずれか1項に記載の方法をプロセッサに実行させる命令を保存している、非一時的プロセッサ可読媒体。
  15. 請求項8~13のいずれか1項に記載の方法をプロセッサに実行させる命令を保存している、非一時的プロセッサ可読媒体。
  16. 3Dシーンの奥行きを表すデータを符号化すべく構成された装置であって、
    所定の符号化ビット奥行きが許容する符号化値の個数よりも多い個数の量子化済み奥行き値の第1の範囲内で前記データを量子化することと、

    前記データを含む画像の第1のピクセルの各ブロックに対して、候補パラメータの第1の集合を決定することであって、候補パラメータは、符号化値の個数の制限内で量子化済み奥行き値の範囲を表す開始値であり、量子化済み奥行き値が前記範囲に含まれる、ことと、
    パラメータの第2の集合を複数の前記第1の集合の和集合の部分集合として、前記第2の集合が前記画像の第1のピクセルの複数のブロックに共通の候補パラメータを含むように、且つ前記第2の集合の1個以上のパラメータが前記画像の第1のピクセルの各ブロックに関連付けられるように決定することと、
    前記パラメータの第2の集合を符号化することと、
    前記パラメータの第2の集合に従い前記量子化済み奥行き値を符号化することと、
    を行うように構成された少なくとも1個のプロセッサに関連付けられたメモリを含む装置。
  17. 前記パラメータの第2の集合にマッピングする識別子のリストが更に符号化され、前記パラメータの第2の集合が前記識別子のリストに従い符号化されている、請求項16に記載の装置。
  18. 前記識別子のリストが、各々が前記第2の集合の1個のパラメータにマッピングされた複数の第1の識別子と、各々が複数の前記第1の識別子にマッピングされた複数の第2の識別子とを含み、前記パラメータの第2の集合が、前記画像の第1のピクセルのブロックの個数に対応する個数の第2のピクセルを含むイメージを符号化することにより符号化されていて、各第2のピクセルが、
    単一のパラメータが前記第1のピクセルのブロックに関連付けられている場合に、前記各第2のピクセルに対応する前記第1のピクセルのブロックに関連付けられた前記パラメータを識別する前記リストの第1の識別子、又は
    複数のパラメータが第1のピクセルの前記ブロックに関連付けられている場合に、前記各第2のピクセルに対応する前記第1のピクセルのブロックに関連付けられた前記パラメータを識別する前記リストの第2の識別子を含んでいる、請求項17に記載の装置。
  19. 前記リストが、前記リスト内の第1の識別子の個数を示す値に関連付けられている、請求項18に記載の装置。
  20. 前記データが、奥行き及び人間の視覚を考慮した量子化誤差を有する量子化関数に従い量子化され、奥行きが深いほど量子化誤差が大きい、請求項16~19のいずれか1項に記載の装置。
  21. 前記符号化値の個数が、前記第1のピクセルの各ブロックに含まれる前記量子化済み奥行き値を符号化すべく前記第1のピクセルの各ブロックに割り当てられていて、前記符号化値の個数の第1の部分が、前記第1のピクセルの各ブロックに含まれる量子化済み奥行き値の各範囲の符号化に割り当てられていて、符号化された量子化済み奥行き値の2個の範囲が前記符号化値の個数の第2の部分により分離されていて、前記第2の部分が量子化済み奥行き値の符号化に使用されない、請求項16~20のいずれか1項に記載の装置。
  22. 前記画像が時間的に連続した画像の集団の一部であり、前記パラメータの第2の集合が、前記時間的に連続した画像の集団の各画像に共通である、請求項16~21のいずれか1項に記載の装置。
  23. 3Dシーンの奥行きを表すデータを復号化すべく構成された装置であって、
    パラメータの集合を、前記集合の1個以上のパラメータが画像の第1のピクセルの各ブロックに関連付けられていて、前記集合の前記パラメータの少なくとも一部が前記画像の第1のピクセルの複数のブロックに共通である状態で復号化することであって、パラメータは、符号化値の個数の制限内で量子化済み奥行き値の範囲を表す開始値である、ことと、
    前記画像の前記第1のピクセルに含まれる量子化済み奥行き値を、復号化された量子化済み奥行き値の個数が所定の符号化ビット奥行きが許容する符号化値の個数よりも多い状態で、前記第1のピクセルの各ブロックに関連付けられた前記1個以上のパラメータに従い復号化することと、
    を行うように構成された少なくとも1個のプロセッサに関連付けられたメモリを含む装置。
  24. 前記パラメータの集合にマッピングする識別子のリストが更に復号化され、前記パラメータの集合が前記識別子のリストに従い復号化されている、請求項23に記載の装置。
  25. 前記識別子のリストが、各々が前記集合の1個のパラメータにマッピングされた第1の識別子及び各々が複数の前記第1の識別子にマッピングされた第2の識別子を含み、前記パラメータの集合が、前記画像の第1のピクセルのブロックの個数に対応する個数の第2のピクセルを含むイメージから復号化されていて、各第2のピクセルは、
    単一のパラメータが前記第1のピクセルのブロックに関連付けられている場合、前記各第2のピクセルに対応する前記第1のピクセルのブロックに関連付けられた前記パラメータを識別する前記リストの第1の識別子、又は
    複数のパラメータが前記第1のピクセルのブロックに関連付けられている場合、前記各第2のピクセルに対応する前記第1のピクセルのブロックに関連付けられた前記パラメータを識別する前記リストの第2の識別子を含んでいる、請求項24に記載の装置。
  26. 前記リストが、前記リスト内の第1の識別子の個数を示す値に関連付けられている、請求項25に記載の装置。
  27. 前記データが、奥行き及び人間の視覚を考慮した量子化誤差を有する量子化関数に従い復号化された量子化済み奥行き値から取得され、奥行きが深いほど量子化誤差が大きい、請求項22~26のいずれか1項に記載の装置。
  28. 前記画像が時間的に連続した画像の集団の一部であり、前記パラメータの集合が、前記時間的に連続した画像の集団の各画像に共通である、請求項22~27のいずれか1項に記載の装置。
JP2020555057A 2018-04-13 2019-04-09 奥行きの符号化及び復号化方法及び装置 Active JP7445601B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18305462.6A EP3554074A1 (en) 2018-04-13 2018-04-13 Methods and apparatus for depth encoding and decoding
EP18305462.6 2018-04-13
PCT/US2019/026433 WO2019199714A1 (en) 2018-04-13 2019-04-09 Methods and apparatus for depth encoding and decoding

Publications (3)

Publication Number Publication Date
JP2021521678A JP2021521678A (ja) 2021-08-26
JPWO2019199714A5 JPWO2019199714A5 (ja) 2022-04-18
JP7445601B2 true JP7445601B2 (ja) 2024-03-07

Family

ID=62046829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020555057A Active JP7445601B2 (ja) 2018-04-13 2019-04-09 奥行きの符号化及び復号化方法及び装置

Country Status (5)

Country Link
US (1) US11671596B2 (ja)
EP (2) EP3554074A1 (ja)
JP (1) JP7445601B2 (ja)
CN (1) CN112219398B (ja)
WO (1) WO2019199714A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7320352B2 (ja) * 2016-12-28 2023-08-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置
WO2020072842A1 (en) * 2018-10-05 2020-04-09 Interdigital Vc Holdings, Inc. Methods and apparatus for depth encoding and decoding
US11956478B2 (en) * 2019-01-09 2024-04-09 Tencent America LLC Method and apparatus for point cloud chunking for improved patch packing and coding efficiency
EP3713237A1 (en) * 2019-03-20 2020-09-23 InterDigital VC Holdings, Inc. A method and apparatus for depth encoding and decoding
CN113785590A (zh) * 2019-05-10 2021-12-10 松下电器(美国)知识产权公司 三维数据编码方法、三维数据解码方法、三维数据编码装置及三维数据解码装置
WO2021045536A1 (en) 2019-09-04 2021-03-11 Wilus Institute Of Standards And Technology Inc. Video encoding and decoding acceleration utilizing imu sensor data for cloud virtual reality
EP4014497A4 (en) 2019-09-14 2022-11-30 ByteDance Inc. QUANTIZE PARAMETER FOR CHROMINANCE UNBLOCKING FILTERING
WO2021072177A1 (en) 2019-10-09 2021-04-15 Bytedance Inc. Cross-component adaptive loop filtering in video coding
CN114586370B (zh) 2019-10-14 2024-01-23 字节跳动有限公司 在视频编解码中使用色度量化参数的方法、装置及介质
WO2021118977A1 (en) 2019-12-09 2021-06-17 Bytedance Inc. Using quantization groups in video coding
CN114902657A (zh) 2019-12-31 2022-08-12 字节跳动有限公司 视频编解码中的自适应颜色变换
GB2605965A (en) * 2021-04-16 2022-10-26 Canon Kk Methods and devices for improving storage and transmission of uncompressed data while using a standard format
CN113747155B (zh) * 2021-09-06 2022-08-19 中国电信股份有限公司 特征量化方法和装置、编码器、通信***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130022111A1 (en) 2011-07-22 2013-01-24 Qualcomm Incorporated Coding motion depth maps with depth range variation
US20160337665A1 (en) 2014-10-08 2016-11-17 Lg Electronics Inc. Method and device for processing camera parameter in 3d video coding
JP2018514145A (ja) 2015-04-06 2018-05-31 ドルビー ラボラトリーズ ライセンシング コーポレイション ハイダイナミックレンジ映像符号化における、ループ内ブロックベース画像再構成

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1591963B1 (en) * 2004-04-29 2008-07-09 Mitsubishi Electric Information Technology Centre Europe B.V. Adaptive quantisation of a depth map
KR101642965B1 (ko) 2009-12-21 2016-07-26 삼성전자주식회사 비트 심도 감소를 이용한 깊이 영상 처리 장치 및 방법
RU2571511C2 (ru) 2011-07-22 2015-12-20 Квэлкомм Инкорпорейтед Кодирование карт глубин движения с изменением диапазона глубины
US20130069968A1 (en) * 2011-09-16 2013-03-21 Qualcomm Mems Technologies, Inc. Methods and apparatus for hybrid halftoning of an image
EP2974310B1 (en) * 2013-03-13 2019-01-02 Huawei Technologies Co., Ltd. Method for sub-range based coding a depth lookup table
WO2014168642A1 (en) 2013-04-12 2014-10-16 Intel Corportation Simplified depth coding with modified intra-coding for 3d video coding
AU2013206815A1 (en) * 2013-07-11 2015-03-05 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding video data
US9510002B2 (en) * 2013-09-09 2016-11-29 Apple Inc. Chroma quantization in video coding
WO2017203930A1 (en) * 2016-05-27 2017-11-30 Sharp Kabushiki Kaisha Systems and methods for varying quantization parameters
US11019339B2 (en) * 2017-07-12 2021-05-25 Futurewei Technologies, Inc. Fractional quantization parameter offset in video compression
KR102432486B1 (ko) * 2017-11-22 2022-08-12 삼성전자주식회사 비디오 복호화 장치 및 이를 포함하는 컴퓨팅 시스템 및 비디오 복호화 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130022111A1 (en) 2011-07-22 2013-01-24 Qualcomm Incorporated Coding motion depth maps with depth range variation
JP2014526192A (ja) 2011-07-22 2014-10-02 クゥアルコム・インコーポレイテッド 深度範囲の変動を伴う動き深度マップのコーディング
US20160337665A1 (en) 2014-10-08 2016-11-17 Lg Electronics Inc. Method and device for processing camera parameter in 3d video coding
JP2017508371A (ja) 2014-10-08 2017-03-23 エルジー エレクトロニクス インコーポレイティド 3dビデオコーディングにおけるカメラパラメータ処理方法および装置
JP2018514145A (ja) 2015-04-06 2018-05-31 ドルビー ラボラトリーズ ライセンシング コーポレイション ハイダイナミックレンジ映像符号化における、ループ内ブロックベース画像再構成

Also Published As

Publication number Publication date
US20210385454A1 (en) 2021-12-09
EP3554074A1 (en) 2019-10-16
JP2021521678A (ja) 2021-08-26
US11671596B2 (en) 2023-06-06
CN112219398B (zh) 2023-12-05
CN112219398A (zh) 2021-01-12
EP3777154A1 (en) 2021-02-17
WO2019199714A1 (en) 2019-10-17

Similar Documents

Publication Publication Date Title
JP7445601B2 (ja) 奥行きの符号化及び復号化方法及び装置
US20210029187A1 (en) Point cloud data transmission apparatus, point cloud data transmission method, point cloud data reception apparatus and point cloud data reception method
CN111279705B (zh) 用于编码和解码体积视频的方法、设备和流
US11647177B2 (en) Method, apparatus and stream for volumetric video format
EP3821610B1 (en) Methods and apparatus for volumetric video transport
KR20220069086A (ko) 볼류메트릭 비디오를 인코딩, 송신 및 디코딩하기 위한 방법 및 장치
US11910054B2 (en) Method and apparatus for decoding a 3D video
WO2019191202A1 (en) Method, apparatus and stream for volumetric video format
US20220167015A1 (en) A method and apparatus for encoding and decoding volumetric video
WO2020072842A1 (en) Methods and apparatus for depth encoding and decoding
KR20230078685A (ko) 다중평면 이미지 기반 볼류메트릭 비디오의 깊이를 시그널링하기 위한 방법 및 장치
CN113785591A (zh) 用于深度编码和解码的方法和装置
KR20220054430A (ko) 볼류메트릭 비디오 콘텐츠를 전달하기 위한 방법 및 장치들
US20240193857A1 (en) Volumetric video with long-term patch entity memory
US20230224501A1 (en) Different atlas packings for volumetric video
RU2809180C2 (ru) Способ и аппаратура для кодирования и декодирования глубины
US20230032599A1 (en) Methods and apparatuses for encoding, decoding and rendering 6dof content from 3dof+ composed elements
KR20210110275A (ko) 복호화 장치 및 그 동작방법, 및 ai 업 스케일 장치 및 그 동작방법
CN114731424A (zh) 用于对体积视频进行编码、传输和解码的方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220405

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230517

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240226

R150 Certificate of patent or registration of utility model

Ref document number: 7445601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150