JP2024514116A - パレット予測子生成およびシグナリング - Google Patents

パレット予測子生成およびシグナリング Download PDF

Info

Publication number
JP2024514116A
JP2024514116A JP2023561216A JP2023561216A JP2024514116A JP 2024514116 A JP2024514116 A JP 2024514116A JP 2023561216 A JP2023561216 A JP 2023561216A JP 2023561216 A JP2023561216 A JP 2023561216A JP 2024514116 A JP2024514116 A JP 2024514116A
Authority
JP
Japan
Prior art keywords
palette
block
current
video
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023561216A
Other languages
English (en)
Inventor
シャオジョン・シュ
シン・ジャオ
シャン・リュウ
Original Assignee
テンセント・アメリカ・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・アメリカ・エルエルシー filed Critical テンセント・アメリカ・エルエルシー
Publication of JP2024514116A publication Critical patent/JP2024514116A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • H04N19/433Hardware specially adapted for motion estimation or compensation characterised by techniques for memory access
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本開示は、一般に、ビデオコーディングに関し、特に、画素値のパレットに基づくイントラ予測モードにおけるビデオブロックのためのパレット予測ブロックの生成およびシグナリングに関する方法およびシステムに関する。いくつかの例示的な実装形態では、現在のビデオブロックを予測するためのパレットの少なくとも一部は、パレットイントラ予測モードの下で予測された少なくとも1つの近傍ブロックから継承される。現在のビデオブロックのパレットの継承部分のサイズは、少なくとも1つの近傍ブロックに対応するパレットの任意のマージを実施する前に決定される。

Description

関連出願の相互参照
本出願は、2022年7月20日に出願された米国非仮特許出願第17/869,268号に基づき、その優先権の利益を主張し、これは、2022年1月14日に出願された「Palette Predictor Generation and Signaling」と題する米国仮特許出願第63/299,665号に基づき、その優先権の利益を主張し、これらの先行特許出願は、その全体が参照により本明細書に組み込まれる。
本開示は、一般に、ビデオコーディングに関し、特に、画素値のパレットに基づくイントラ予測モードにおけるビデオブロックのためのパレット予測ブロックの生成およびシグナリングに関する方法およびシステムに関する。
本明細書で提供される背景技術の説明は、本開示の文脈を一般的に提示することを目的としている。本発明者らの研究は、その研究がこの背景技術の項に記載されている限りにおいて、またそれ以外の本出願の出願時に先行技術として認められない可能性のある説明の態様と共に、本開示に対する先行技術としては明示的にも暗示的にも認められない。
ビデオコーディングおよびデコーディングは、動き補償を伴うインターピクチャ予測を使用して実施され得る。非圧縮デジタルビデオは、一連のピクチャを含むことができ、各ピクチャは、例えば、1920×1080の輝度サンプルおよび関連するフルサンプリングまたはサブサンプリングされた色差サンプルの空間次元を有する。一連のピクチャは、例えば、毎秒60ピクチャまたは毎秒60フレームの固定または可変のピクチャレート(あるいはフレームレートとも呼ばれる)を有し得る。非圧縮ビデオは、ストリーミングまたはデータ処理のための特定のビットレート要件を有する。例えば、1920×1080の画素解像度、60フレーム/秒のフレームレート、および色チャネルあたり画素あたり8ビットで4:2:0のクロマサブサンプリングを有するビデオは、1.5Gbit/sに近い帯域幅を必要とする。1時間分のそのようなビデオは、600GByteを超える記憶空間を必要とする。
ビデオコーディングおよびデコーディングの1つの目的は、圧縮による非圧縮入力ビデオ信号の冗長性の低減であり得る。圧縮は、前述の帯域幅および/または記憶空間要件を、場合によっては2桁以上低減させるのに役立ち得る。可逆圧縮と非可逆圧縮の両方、ならびにそれらの組合せが、採用され得る。可逆圧縮とは、原信号の正確なコピーを、デコーディングプロセスを介して圧縮された原信号から再構築され得る技法を指す。非可逆圧縮とは、元のビデオ情報がコーディング時に完全に保持されず、デコーディング時に完全に復元できないコーディング/デコーディングプロセスを指す。非可逆圧縮を使用するとき、再構築された信号は原信号と同一ではない可能性があるが、原信号と再構築された信号との間の歪みは、多少の情報損失はあっても、再構築された信号を意図された用途に役立てるのに十分なほど小さくなる。ビデオの場合、非可逆圧縮が多くの用途で広く採用されている。耐容できる歪みの量は、用途に依存する。例えば、特定の消費者ビデオストリーミング用途のユーザは、映画やテレビ放送用途のユーザよりも高い歪みを容認し得る。特定のコーディングアルゴリズムによって達成可能な圧縮比が、様々な歪み耐性を反映するように選択または調整され得る。すなわち、一般に、歪み耐性が高いほど、高い損失および高い圧縮比をもたらすコーディングアルゴリズムが可能になる。
ビデオエンコーダおよびデコーダは、例えば、動き補償、フーリエ変換、量子化、およびエントロピーコーディングを含む、いくつかの広範なカテゴリおよびステップからの技法を利用し得る。
ビデオコーデック技術は、イントラコーディングとして知られる技法を含み得る。イントラコーディングでは、サンプル値は、以前に再構築された参照ピクチャからのサンプルまたは他のデータを参照することなく表される。一部のビデオコーデックでは、ピクチャがサンプルのブロックに空間的に細分される。サンプルのすべてのブロックがイントラモードでコーディングされる場合、そのピクチャをイントラピクチャと呼び得る。イントラピクチャおよび独立したデコーダリフレッシュピクチャなどのそれらの派生ピクチャは、デコーダ状態をリセットするために使用され、したがって、コーディングされたビデオビットストリームおよびビデオセッション内の最初のピクチャとして、または静止画像として使用され得る。次いで、イントラ予測後のブロックのサンプルに周波数領域への変換を施すことができ、そのように生成された変換係数をエントロピーコーディングの前に量子化し得る。イントラ予測は、変換前領域におけるサンプル値を最小化する技法を表す。場合によっては、変換後のDC値が小さいほど、かつAC係数が小さいほど、エントロピーコーディング後のブロックを表すために所与の量子化ステップのサイズにおいて必要とされるビットは少なくなる。
例えば、MPEG-2生成コーディング技術から知られているような従来のイントラコーディングは、イントラ予測を使用しない。しかしながら、いくつかの新規のビデオ圧縮技術は、例えば、空間的近傍のエンコーディングおよび/またはデコーディング時に取得され、イントラコーディングまたはイントラデコーディングされているデータのブロックにデコーディング順序で先行する、周囲のサンプルデータおよび/またはメタデータに基づいて、ブロックのコーディング/デコーディングを試みる技法を含む。そのような技法は、以後「イントラ予測」技法と呼ばれる。少なくともいくつかの場合において、イントラ予測は、再構築中の現在のピクチャのみからの参照データを使用し、他の参照ピクチャからの参照データは使用しないことに留意されたい。
イントラ予測には、多くの異なる形態があり得る。そのような技法のうちの2つ以上が所与のビデオコーディング技術において利用可能であるとき、使用される技法を、イントラ予測モードと呼び得る。1つまたは複数のイントラ予測モードが、特定のコーデックで提供され得る。特定の場合には、モードは、サブモードを有することができ、かつ/または様々なパラメータに関連付けられていてもよく、モード/サブモード情報およびビデオのブロックのイントラコーディングパラメータは、個々にコーディングされるか、またはまとめてモードのコードワードに含められ得る。所与のモード、サブモード、および/またはパラメータの組合せに、どのコードワードを使用するかは、イントラ予測を介したコーディング効率向上に影響を与える可能性があり、そのため、コードワードをビットストリームに変換するために使用されるエントロピーコーディング技術も影響を与える可能性がある。
イントラ予測の特定のモードは、H.264で導入され、H.265において改良され、共同探索モデル(JEM)、多用途ビデオコーディング(VVC)、およびベンチマークセット(BMS)などの新規のコーディング技術においてさらに改良された。一般に、イントラ予測では、利用可能になった近傍サンプル値を使用して予測子ブロックを形成することができる。例えば、特定の方向および/または線に沿った特定の近傍サンプルセットの利用可能な値が、予測子ブロックにコピーされ得る。使用中の方向への参照は、ビットストリームでコーディングされ得るか、またはそれ自体が予測されてもよい。
図1Aを参照すると、右下に示されているのは、(H.265で指定される35個のイントラモードのうちの33個の角度モードに対応する)H.265の33個の可能なイントラ予測子方向で指定される9つの予測子方向のサブセットである。矢印が収束する点(101)は、予測されているサンプルを表す。矢印は、101にあるサンプルを予測するために近傍サンプルがそこから使用される方向を表す。例えば、矢印(102)は、サンプル(101)が水平方向から45度の角度で右上に1つまたは複数の近傍サンプルから予測されることを示す。同様に、矢印(103)は、サンプル(101)が水平方向から22.5度の角度でサンプル(101)の左下に1つまたは複数の近傍サンプルから予測されることを示す。
さらに図1Aを参照すると、左上には、(太い破線によって示された)4×4サンプルの正方形ブロック(104)が示されている。正方形ブロック(104)は、16個のサンプルを含み、各々、「S」、Y次元のその位置(例えば、行インデックス)、およびX次元のその位置(例えば、列インデックス)でラベル付けされている。例えば、サンプルS21は、Y次元の(上から)2番目のサンプルであり、X次元の(左から)1番目のサンプルである。同様に、サンプルS44は、ブロック(104)内のY次元とX次元の両方の4番目のサンプルである。ブロックはサイズが4×4サンプルなので、S44は右下にある。同様の番号付け方式に従う例示的な参照サンプルが、さらに示されている。参照サンプルは、ブロック(104)に対してR、そのY位置(例えば、行インデックス)、およびX位置(列インデックス)でラベル付けされている。H.264とH.265の両方で、再構築中のブロックに隣接的に近傍する予測サンプルが使用される。
ブロック104のイントラピクチャ予測は、シグナリングされた予測方向に従って近傍サンプルから参照サンプル値をコピーすることから開始し得る。例えば、コーディングされたビデオビットストリームは、このブロック104について、矢印(102)の予測方向を示すシグナリングを含む、すなわち、サンプルは、1つまたは複数の予測サンプルから右上へ、水平方向から45度の角度で予測されると仮定する。そのような場合、サンプルS41、S32、S23、およびS14が同じ参照サンプルR05から予測される。次いで、サンプルS44が参照サンプルR08から予測される。
特定の場合には、参照サンプルを計算するために、特に方向が45度によって均等に割り切れないとき、複数の参照サンプルの値は、例えば補間によって組み合わされてもよい。
可能な方向の数は、ビデオコーディング技術が発展し続けるにつれて増加してきた。H.264(2003年)では、例えば、9つの異なる方向がイントラ予測に利用可能である。これは、H.265(2013年)では33まで増加し、JEM/VVC/BMSは、本開示の時点で、最大65の方向をサポートし得る。最も適切なイントラ予測方向を識別するために役立つ実験研究が行われており、エントロピーコーディングの特定の技法を使用して、方向についての特定のビットペナルティを受け入れて、それらの最も適切な方向が少数のビットでエンコーディングされ得る。さらに、方向自体を、デコーディングされた近傍ブロックのイントラ予測で使用された近傍する方向から予測し得る場合もある。
図1Bは、時間の経過と共に発展した様々なエンコーディング技術における増加する予測方向の数を例示するために、JEMによる65個のイントラ予測方向を示す概略図(180)を示す。
コーディングされたビデオビットストリームにおけるイントラ予測方向を表すビットの予測方向へのマッピングのための方法は、ビデオコーディング技術によって異なる可能性があり、例えば、予測方向対イントラ予測モードの単純な直接マッピングから、コードワード、最確モードを含む複雑な適応方式、および同様の技法に及ぶことができる。しかしながら、すべての場合において、特定の他の方向よりもビデオコンテンツで発生する可能性が統計的に低いイントロ予測の特定の方向が存在し得る。ビデオ圧縮の目的は冗長性の低減であるため、うまく設計されたビデオコーディング技術においては、それらのより可能性の低い方向は、より可能性の高い方向よりも多くのビット数で表され得る。
インターピクチャ予測、またはインター予測は、動き補償に基づいていてもよい。動き補償では、以前に再構築されたピクチャまたはその一部(参照ピクチャ)からのサンプルデータが、動きベクトル(以後、MV)によって示される方向に空間的にシフトされた後、新規に再構築されたピクチャまたはピクチャ部分(例えば、ブロック)の予測に使用され得る。場合によっては、参照ピクチャは、現在再構築中のピクチャと同じであり得る。MVは、2つの次元XおよびY、または3つの次元を有してもよく、第3の次元は、(時間次元と類似した)使用中の参照ピクチャの指示である。
いくつかのビデオ圧縮技法では、サンプルデータの特定のエリアに適用可能な現在のMVが、他のMVから、例えば再構築中のエリアに空間的に隣接し、デコーディング順序で現在のMVに先行する、サンプルデータの他のエリアに関連する他のMVから予測され得る。そうすることにより、相関するMVの冗長性の除去に依拠することによってMVをコーディングするために必要とされる全体のデータ量を大幅に削減することができ、それによって圧縮効率が増加する。MV予測が効果的に機能することができるのは、例えば、(自然なビデオとして知られている)カメラから導出された入力ビデオ信号をコーディングするとき、単一のMVが適用可能なエリアよりも大きいエリアは、ビデオシーケンスにおいて同様の方向に移動する統計的尤度があり、したがって、場合によっては、近傍するエリアのMVから導出された同様の動きベクトルを使用して予測し得るからである。その結果として、所与のエリアの実際のMVが周囲のMVから予測されたMVと同様または同一になる。そのようなMVはさらに、エントロピーコーディング後に、MVが近傍するMVから予測されるのではなく直接コーディングされた場合に使用されることになるビット数よりも少ないビット数で表され得る。場合によっては、MV予測は、原信号(すなわち、サンプルストリーム)から導出された信号(すなわち、MV)の可逆圧縮の一例であり得る。他の場合には、MV予測自体は、例えばいくつかの周囲のMVから予測子を計算するときの丸め誤差のために、非可逆であり得る。
様々なMV予測メカニズムが、H.265/HEVC(ITU-T勧告H.265、「High Efficiency Video Coding」、2016年12月)に記載されている。H.265が指定する多くのMV予測メカニズムのうち、以下で説明するのは、以後「空間マージ」と呼ぶ技法である。
具体的には、図2を参照すると、現在のブロック(201)は、動き検索プロセス中にエンコーダによって、空間的にシフトされた同じサイズの前のブロックから予測可能であると検出されたサンプルを含む。直接そのMVをコーディングする代わりに、MVは、A0、A1、およびB0、B1、B2(それぞれ、202~206)と表記された5つの周囲のサンプルのいずれか1つに関連付けられたMVを使用して、1つまたは複数の参照ピクチャに関連付けられたメタデータから、例えば、(デコーディング順序で)最新の参照ピクチャから導出され得る。H.265では、MV予測は、近傍するブロックが使用しているのと同じ参照ピクチャからの予測子を使用し得る。
本開示は、一般に、ビデオコーディングに関し、特に、画素値のパレットに基づくイントラ予測モードにおけるビデオブロックのためのパレット予測ブロックの生成およびシグナリングに関する方法およびシステムに関する。
例示的な実装形態では、ビデオストリーム内の現在のビデオブロックのイントラ予測子ブロックを生成するための方法を開示する。現在のビデオブロックは、パレットモードでイントラコーディングされ得る。本方法は、ビデオストリームから、現在のビデオブロックが、少なくとも1つの近傍ビデオブロックに対応する少なくとも1つの参照パレットに基づいてコーディングされていると決定することと、少なくとも1つの参照パレットの任意のマージを実施する前に、現在のビデオブロックに関連付けられた、現在のパレットの継承部分のサイズであるcacheNを決定することであって、cacheNが、整数である、決定することと、cacheNおよび少なくとも1つの参照パレットに基づいて、現在のパレットの継承部分を導出することと、ビデオストリームから、現在のビデオブロックの要素についてパレットインデックスを現在のパレットに抽出することと、少なくともパレットインデックスおよび現在のパレットに基づいて現在のビデオブロックの予測子ブロックを生成することと、を含む。
上記の実装形態では、cacheNを決定することは、少なくとも1つの参照パレットに対応する少なくとも1つのパレットサイズに基づいて、現在のパレットの継承部分のサイズを決定することを含み得る。
上記の実装形態のいずれか1つでは、cacheNを決定することは、現在のビデオブロックの第1の近傍ビデオブロックの第1のパレットサイズを決定することと、現在のビデオブロックの第2の近傍ビデオブロックの第2のパレットサイズを決定することと、第1のパレットサイズおよび第2のパレットサイズに基づいて、cacheNを決定することと、を含んでもよい。
上記の実装形態のいずれか1つでは、第1の近傍ビデオブロックおよび第2の近傍ビデオブロックは、それぞれ現在のビデオブロックの直近の上側および左側のビデオブロックを含んでもよい。第1のパレットサイズおよび第2のパレットサイズに基づいてcacheNを決定することは、現在のパレットの継承部分のサイズを、第1のパレットサイズおよび第2のパレットサイズの大きい方に、Nを増加する、または、第1のパレットサイズおよび第2のパレットサイズの小さい方に、Nを増加する、または、所定の最大継承パレットサイズと、第1のパレットサイズおよび第2のパレットサイズの大きい方に、Nを増加したものと、のうちの小さい方、または、所定の最大継承パレットサイズと、第1のパレットサイズおよび第2のパレットサイズの小さい方に、増加したものと、のうちの小さい方、として決定することを含む。シンボルNは、所定のパレットサイズ増分を示し、Nは、0以上、8以下の整数である。
上記の実装形態のいずれか1つでは、cacheNを決定することは、少なくとも1つの参照パレットとは無関係に現在のパレットの継承部分のパレットサイズを割り当てることを含んでもよく、パレットサイズは、0以上、8以下の整数である。
上記の実装形態のいずれか1つでは、パレットサイズは、ビデオストリーム内のシンタックス要素で予め決定されても、またはシグナリングされてもよい。
上記の実装形態のいずれか1つでは、シンタックス要素は、現在のビデオブロックに関連付けられたビデオパラメータセット、シーケンスパラメータセット、ピクチャパラメータセット、適応パラメータセット、フレームヘッダ、スライスヘッダ、ピクチャヘッダ、タイルヘッダ、またはコーディングツリーユニットヘッダのうちの1つの構成要素を含んでもよい。
上記の実装形態のいずれか1つでは、cacheNは、現在のビデオブロックまたは少なくとも1つの近傍ビデオブロックのコーディング情報項目から導出されてもよい。
上記の実装形態のいずれか1つでは、コーディングされた情報項目は、現在のビデオブロックまたは少なくとも1つの近傍ビデオブロックに関連付けられたブロックサイズまたは予測モードのうちの少なくとも1つを含んでもよい。
上記の実装形態のいずれか1つでは、cacheNは、少なくとも1つの近傍ビデオブロックと関連付けられた少なくとも1つの参照パレット内の反復パレットエントリの数として導出され得る。
上記の実装形態のいずれか1つでは、少なくとも1つの近傍ビデオブロックは、M個の近傍ビデオブロックを含んでもよく、M個の近傍ビデオブロックのうちの少なくともK個の共通パレットエントリIの数が、cacheNとして決定され、Mは、2以上の整数であり、Kは、M以下の整数である。
上記の実装形態のいずれか1つでは、少なくとも1つの参照パレットに対応する少なくとも1つの近傍ビデオブロックは、現在のビデオブロックの3つ以上の近傍ビデオブロックから選択されてもよい。
上記の実装形態のいずれか1つでは、3つ以上の近傍ビデオブロックは、現在のビデオブロックに隣接していない少なくとも1つのブロックを含んでもよい。
上記の実装形態のいずれか1つでは、少なくとも1つの近傍ビデオブロックは、パレットモードでイントラコーディングされた近傍ビデオブロックの第1のセットを決定するために、3つ以上の近傍ビデオブロックを所定の走査順序で走査することによって、3つ以上の近傍ビデオブロックから選択されてもよく、近傍するビデオブロックの第1のセットのキャッシュされたパレットのセットが、少なくとも1つの参照パレットを決定または導出するために使用されてもよい。
上記の実装形態のいずれか1つでは、本方法は、少なくとも1つの参照パレットを、S個の固有のパレットエントリを有するキャッシュされたパレットにマージすること、をさらに含んでもよい。
上記の実装形態のいずれか1つでは、S>cacheNであるとき、本方法は、cacheN個のパレットエントリを有する現在のパレットの継承部分を生成するために、所定の走査順序に従って、キャッシュされたパレットから最初のcacheN個のパレットエントリを選択すること、cacheN個のパレットエントリを有する現在のパレットの継承部分を生成するために、所定の走査順序に従って、キャッシュされたパレットから最後のcacheN個のパレットエントリを選択すること、cacheN個のパレットエントリを有する現在のパレットの継承部分を生成するために、所定の走査順序に従って、少なくとも1つの参照パレットから重複パレットエントリを選択し、必要に応じて、キャッシュされたパレットから最初の非重複パレットエントリをさらに選択すること、あるいは、cacheN個のパレットエントリを有する現在のパレットの継承部分を生成するために、所定の走査順序に従って、少なくとも1つの参照パレットから重複パレットエントリを選択し、必要に応じて、キャッシュされたパレットから最後の非重複パレットエントリをさらに選択すること、のうちの1つをさらに含んでもよい。
上記の実装形態のいずれか1つでは、S<(cacheN)であるとき、本方法は、キャッシュされたパレットを使用して現在のパレットの継承部分の最初のS個のパレットエントリを充填することと、キャッシュされたパレットから(cacheN-S)個のターゲットパレットエントリを決定することと、修正されたターゲットパレットエントリを生成するために、(cacheN-S)個のターゲットパレットエントリの各々をオフセットすることと、修正されたターゲットパレットエントリを、現在のパレットの継承部分の最後の(cacheN-S)個のエントリに含めることと、をさらに含んでもよい。
上記の実装形態のいずれか1つでは、S<cacheNであるとき、本方法は、キャッシュされたパレットを使用して現在のパレットの継承部分の最初のS個のパレットエントリを充填することと、現在のパレットの継承部分の最後の(cacheN-S)個のパレットエントリを、パレットエントリリストからの最初の(cacheN-S)個のパレットエントリで充填することと、をさらに含んでもよい。
上記の実装形態のいずれか1つでは、パレットエントリリストは、シーケンスパラメータセット、ピクチャパラメータセット、適応パラメータセット、フレームヘッダ、スライスヘッダ、ピクチャヘッダ、タイルヘッダ、またはコーディングツリーユニットヘッダのうちの1つで、ビデオストリーム内でシグナリングされてもよい。
本開示の態様はまた、上記の方法の実装形態のいずれかを実行するように構成された回路を含むビデオエンコーディングまたはデコーディングデバイスまたは装置を提供する。
本開示の態様では、ビデオデコーディングおよび/またはエンコーディングのためにコンピュータによって実行されるときにビデオデコーディングおよび/またはエンコーディングのための方法をコンピュータに実施させる命令を記憶する非一時的コンピュータ可読媒体も提供する。
開示された主題のさらなる特徴、性質、および様々な利点は、以下の詳細な説明および添付の図面からより明らかになるであろう。
イントラ予測指向性モードの例示的なサブセットの概略図である。 例示的なイントラ予測方向を示す図である。 一例における現在のブロックおよび動きベクトル予測のためのその周囲の空間マージ候補を示す概略図である。 例示的な実施形態による、通信システム(300)の簡略化されたブロック図の概略図である。 例示的な実施形態による、通信システム(400)の簡略化されたブロック図の概略図である。 例示的な実施形態による、ビデオデコーダの簡略化されたブロック図の概略図である。 例示的な実施形態による、ビデオエンコーダの簡略化されたブロック図の概略図である。 別の例示的な実施形態による、ビデオエンコーダのブロック図である。 別の例示的な実施形態による、ビデオデコーダのブロック図である。 本開示の例示的な実施形態による、コーディングブロック分割の方式を示す図である。 本開示の例示的な実施形態による、コーディングブロック分割の別の方式を示す図である。 本開示の例示的な実施形態による、コーディングブロック分割の別の方式を示す図である。 例示的な分割方式による、ベースブロックのコーディングブロックへの例示的な分割を示す図である。 例示的な三分割方式を示す図である。 例示的な四分木二分木コーディングブロック分割方式を示す図である。 本開示の例示的な実施形態による、コーディングブロックを複数の変換ブロックに分割するための方式および変換ブロックのコーディング順序を示す図である。 本開示の例示的な実施形態による、コーディングブロックを複数の変換ブロックに分割するための別の方式および変換ブロックのコーディング順序を示す図である。 本開示の例示的な実施形態による、コーディングブロックを複数の変換ブロックに分割するための別の方式を示す図である。 パレットイントラ予測モードの下で予測されたコーディングブロックのためのコーディングパレットエントリの走査順序の例を示す図である。 本開示の例示的実施形態による、方法のフローチャートを示す図である。 本開示の例示的な実施形態による、コンピュータシステムの概略図である。
本明細書および特許請求の範囲全体を通して、用語は、明示的に記載される意味を超えて文脈内で示唆または暗示される微妙な意味を有する場合がある。本明細書で使用される「一実施形態では」または「いくつかの実施形態では」という語句は、必ずしも同じ実施形態を指すものではなく、本明細書で使用される「別の実施形態では」または「他の実施形態では」という語句は、必ずしも異なる実施形態を指すものではない。同様に、本明細書で使用される「一実装形態では」または「いくつかの実装形態では」という語句は、必ずしも同じ実装形態を指すものではなく、本明細書で使用される「別の実装形態では」または「他の実装形態では」という語句は、必ずしも異なる実装形態を指すものではない。例えば、特許請求される主題は、例示的な実施形態/実装形態の全部または一部の組合せを含むことを意図している。
一般に、専門用語は、文脈における使用法から少なくとも部分的に理解される場合がある。例えば、本明細書で使用される「および」、「または」、または「および/または」などの用語は、そのような用語が使用される文脈に少なくとも部分的に依存する場合がある様々な意味を含んでもよい。典型的には、A、B、またはCなどのリストを関連付けるために使用される場合の「または」は、ここでは包括的な意味で使用されるA、B、およびC、ならびにここでは排他的な意味で使用されるA、B、またはCを意味することを意図している。加えて、本明細書で使用される「1つまたは複数」または「少なくとも1つ」という用語は、文脈に少なくとも部分的に依存して、単数の意味で任意の特徴、構造、もしくは特性を記述するために使用されてもよく、または複数の意味で特徴、構造、もしくは特性の組合せを記述するために使用されてもよい。同様に、「a」、「an」、または「the」などの用語もやはり、文脈に少なくとも部分的に依存して、単数形の使用法を伝えるか、または複数形の使用法を伝えると理解されてもよい。加えて、「に基づいて」または「によって決定される」という用語は、必ずしも排他的な要因のセットを伝えることを意図していないと理解されてもよく、代わりに、やはり文脈に少なくとも部分的に依存して、必ずしも明示的に記述されていないさらなる要因の存在を可能にする場合もある。図3は、本開示の一実施形態による、通信システム(300)の簡略化されたブロック図を示している。通信システム(300)は、例えば、ネットワーク(350)を介して互いに通信し得る複数の端末デバイスを含む。例えば、通信システム(300)は、ネットワーク(350)を介して相互接続された端末デバイス(310)および(320)の第1のペアを含む。図3の例では、端末デバイス(310)および(320)の第1のペアは、データの単方向送信を実施し得る。例えば、端末デバイス(310)は、ネットワーク(350)を介して他方の端末デバイス(320)に送信するための(例えば、端末デバイス(310)によって取り込まれたビデオピクチャのストリームの)ビデオデータをコーディングし得る。エンコーディングされたビデオデータは、1つまたは複数のコーディングされたビデオビットストリームの形式で送信され得る。端末デバイス(320)は、ネットワーク(350)からコーディングされたビデオデータを受信し、コーディングされたビデオデータをデコーディングしてビデオピクチャを復元し、復元されたビデオデータに従ってビデオピクチャを表示し得る。単方向データ送信は、メディアサービング用途などで実施されてもよい。
別の例では、通信システム(300)は、例えば、ビデオ会議用途の間に実施され得るコーディングされたビデオデータの双方向送信を実施する端末デバイス(330)および(340)の第2のペアを含む。データの双方向送信のために、一例では、端末デバイス(330)および(340)の各端末デバイスは、ネットワーク(350)を介して端末デバイス(330)および(340)の他方の端末デバイスに送信するための(例えば、その端末デバイスによって取り込まれたビデオピクチャのストリームの)ビデオデータをコーディングし得る。端末デバイス(330)および(340)の各端末デバイスはまた、端末デバイス(330)および(340)の他方の端末デバイスによって送信されたコーディングされたビデオデータを受信し、コーディングされたビデオデータをデコーディングしてビデオピクチャを復元し、復元されたビデオデータに従ってアクセス可能なディスプレイデバイスでビデオピクチャを表示し得る。
図3の例では、端末デバイス(310)、(320)、(330)、および(340)は、サーバ、パーソナルコンピュータ、およびスマートフォンとして実装されてもよいが、本開示の基礎となる原理の適用はそのように限定されなくてもよい。本開示の実施形態は、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、メディアプレーヤ、ウェアラブルコンピュータ、専用のビデオ会議機器などにおいて実装され得る。ネットワーク(350)は、例えば有線(有線接続)および/または無線通信ネットワークを含む、端末デバイス(310)、(320)、(330)、および(340)間でコーディングされたビデオデータを伝達する任意の数またはタイプのネットワークを表す。通信ネットワーク(350)9は、回線交換チャネル、パケット交換チャネル、および/または他のタイプのチャネルでデータを交換してもよい。代表的なネットワークには、電気通信ネットワーク、ローカルエリアネットワーク、ワイドエリアネットワーク、および/またはインターネットが含まれる。本説明の目的のために、ネットワーク(350)のアーキテクチャおよびトポロジーは、本明細書で明確に説明されない限り、本開示の動作にとって重要でない可能性がある。
図4は、開示された主題についての用途用の一例として、ビデオストリーミング環境内のビデオエンコーダおよびビデオデコーダの配置を示している。開示された主題は、例えば、ビデオ会議、デジタルテレビ放送、ゲーム、仮想現実、CD、DVD、メモリスティックなどを含むデジタル媒体上の圧縮ビデオの記憶などを含む、他のビデオ用途に等しく適用可能であってもよい。
ビデオストリーミングシステムは、例えば、圧縮されていないビデオピクチャまたは画像のストリーム(402)を作成するためのビデオソース(401)、例えば、デジタルカメラを含み得るビデオキャプチャサブシステム(413)を含んでもよい。一例では、ビデオピクチャのストリーム(402)は、ビデオソース401のデジタルカメラによって記録されたサンプルを含む。エンコーディングされたビデオデータ(404)(またはコーディングされたビデオビットストリーム)と比較したときに多いデータ量を強調するために太い線として示されたビデオピクチャのストリーム(402)は、ビデオソース(401)に結合されたビデオエンコーダ(403)を含む電子デバイス(420)によって処理され得る。ビデオエンコーダ(403)は、以下でより詳細に記載されるように、開示された主題の態様を可能にするかまたは実装するために、ハードウェア、ソフトウェア、またはそれらの組合せを含み得る。エンコーディングされたビデオデータ(404)(またはエンコーディングされたビデオビットストリーム(404))は、非圧縮ビデオピクチャのストリーム(402)と比較したときの低データ量を強調するために細線で示されており、将来の使用のためにストリーミングサーバ(405)に、または下流のビデオデバイス(図示せず)に直接記憶され得る。図4のクライアントサブシステム(406)および(408)などの1つまたは複数のストリーミングクライアントサブシステムは、ストリーミングサーバ(405)にアクセスして、エンコーディングされたビデオデータ(404)のコピー(407)および(409)を取り出し得る。クライアントサブシステム(406)は、例えば、電子デバイス(430)内のビデオデコーダ(410)を含み得る。ビデオデコーダ(410)は、エンコーディングされたビデオデータの入力コピー(407)をデコーディングし、圧縮されず、ディスプレイ(412)(例えば、表示画面)または他のレンダリングデバイス(図示せず)上にレンダリングされ得る、ビデオピクチャの出力ストリーム(411)を作成する。ビデオデコーダ410は、本開示に記載される様々な機能の一部または全部を実施するように構成され得る。いくつかのストリーミングシステムでは、エンコーディングされたビデオデータ(404)、(407)、および(409)(例えば、ビデオビットストリーム)は、特定のビデオコーディング/圧縮規格に従ってエンコーディングされ得る。それらの規格の例には、ITU-T勧告H.265が含まれる。一例では、開発中のビデオコーディング規格は、多用途ビデオコーディング(VVC)として非公式に知られている。開示された主題は、VVC、および他のビデオコーディング規格の文脈で使用されてもよい。
電子デバイス(420)および(430)は、他の構成要素(図示せず)を含み得ることに留意されたい。例えば、電子デバイス(420)は、ビデオデコーダ(図示せず)を含み、電子デバイス(430)もビデオエンコーダ(図示せず)を含み得る。
図5は、以下の本開示の任意の実施形態によるビデオデコーダ(510)のブロック図を示している。ビデオデコーダ(510)は、電子デバイス(530)に含まれ得る。電子デバイス(530)は、受信機(531)(例えば、受信回路)を含み得る。ビデオデコーダ(510)は、図4の例のビデオデコーダ(410)の代わりに使用され得る。
受信機(531)は、ビデオデコーダ(510)によってデコーディングされるべき1つまたは複数のコーディングされたビデオシーケンスを受信し得る。同じまたは別の実施形態では、一度に1つのコーディングされたビデオシーケンスをデコーディングすることができ、各コーディングされたビデオシーケンスのデコーディングは、他のコーディングされたビデオシーケンスから独立している。各ビデオシーケンスは、複数のビデオフレームまたはビデオ画像に関連付けられ得る。コーディングされたビデオシーケンスはチャネル(501)から受信され、チャネル(501)は、エンコーディングされたビデオデータを記憶する記憶デバイスへのハードウェア/ソフトウェアリンク、またはエンコーディングされたビデオデータを送信するストリーミングソースであり得る。受信機(531)は、エンコーディングされたビデオデータを、それぞれの処理回路(図示せず)に転送され得る、コーディングされたオーディオデータおよび/または補助データストリームなどの他のデータと共に受信し得る。受信機(531)は、コーディングされたビデオシーケンスを他のデータから分離し得る。ネットワークジッタに対抗するために、バッファメモリ(515)が、受信機(531)とエントロピーデコーダ/パーサ(520)(以後、「パーサ(520)」)との間に配置されてもよい。特定の用途では、バッファメモリ(515)は、ビデオデコーダ(510)の一部として実装され得る。他の用途では、バッファメモリ(515)は、ビデオデコーダ(510)から分離されて外部にあり得る(図示せず)。さらに他の用途では、例えば、ネットワークジッタに対抗するためにビデオデコーダ(510)の外部にバッファメモリ(図示せず)があってもよく、例えば、再生タイミングを処理するためにビデオデコーダ(510)の内部に別の追加のバッファメモリ(515)があってもよい。受信機(531)が十分な帯域幅および可制御性の記憶/転送デバイスから、またはアイソシンクロナスネットワークからデータを受信しているとき、バッファメモリ(515)は不要な場合があり、または小さくすることができる。インターネットなどのベストエフォートパケットネットワークで使用するために、十分なサイズのバッファメモリ(515)が必要とされる場合があり、そのサイズは比較的大きくなり得る。そのようなバッファメモリは、適応サイズで実装されてもよく、ビデオデコーダ(510)の外部のオペレーティングシステムまたは同様の要素(図示せず)に少なくとも部分的に実装されてもよい。
ビデオデコーダ(510)は、コーディングされたビデオシーケンスからシンボル(521)を再構築するためにパーサ(520)を含み得る。それらのシンボルのカテゴリは、ビデオデコーダ(510)の動作を管理するために使用される情報と、図5に示すように、潜在的に、電子デバイス(530)の不可欠な部分である場合もそうでない場合もあるが、電子デバイス(530)に結合され得るディスプレイ(512)(例えば、表示画面)などのレンダリングデバイスを制御するための情報と、を含む。レンダリングデバイスのための制御情報は、補足拡張情報(SEIメッセージ)またはビデオユーザビリティ情報(VUI)のパラメータセットフラグメント(図示せず)の形式であってもよい。パーサ(520)は、パーサ(520)によって受信されるコーディングされたビデオシーケンスを構文解析/エントロピーデコーディングし得る。コーディングされたビデオシーケンスのエントロピーコーディングは、ビデオコーディング技術または規格に従ったものとすることができ、可変長コーディング、ハフマンコーディング、文脈依存性ありまたはなしの算術コーディングなどを含む様々な原理に従うことができる。パーサ(520)は、コーディングされたビデオシーケンスから、サブグループに対応する少なくとも1つのパラメータに基づいて、ビデオデコーダ内の画素のサブグループのうちの少なくとも1つのサブグループパラメータのセットを抽出し得る。サブグループには、ピクチャグループ(GOP)、ピクチャ、タイル、スライス、マクロブロック、コーディングユニット(CU)、ブロック、変換ユニット(TU)、予測ユニット(PU)などを含めることができる。パーサ(520)はまた、コーディングされたビデオシーケンスから、変換係数(例えば、フーリエ変換係数)、量子化パラメータ値、動きベクトルなどの情報も抽出し得る。
パーサ(520)は、シンボル(521)を作成するために、バッファメモリ(515)から受け取ったビデオシーケンスに対してエントロピーデコーディング/構文解析動作を実施し得る。
シンボル(521)の再構築は、コーディングされたビデオピクチャまたはその部分のタイプ(インターピクチャおよびイントラピクチャ、インターブロックおよびイントラブロックなど)、ならびに他の要因に応じて、複数の異なる処理ユニットまたは機能ユニットを含み得る。含まれるユニットおよびユニットがどのように含まれるかは、パーサ(520)によってコーディングされたビデオシーケンスから構文解析されたサブグループ制御情報によって制御され得る。パーサ(520)と、以下の複数の処理ユニットまたは機能ユニットとの間のそのようなサブグループ制御情報の流れは、簡潔にするために図示されていない。
すでに述べられた機能ブロック以外に、ビデオデコーダ(510)は、以下で説明されるように、概念的にいくつかの機能ユニットに細分することができる。商業的制約の下で動作する実際の実装形態では、これらの機能ユニットの多くは互いに密接に相互作用し、少なくとも部分的に、互いに統合され得る。しかしながら、開示された主題の様々な機能を明確に記載する目的で、以下の開示において機能ユニットへの概念的細分化が採用される。
第1のユニットは、スケーラ/逆変換ユニット(551)を含んでもよい。スケーラ/逆変換ユニット(551)は、量子化変換係数、ならびにどのタイプの逆変換を使用するかを示す情報、ブロックサイズ、量子化係数/パラメータ、量子化スケーリング行列などを含む制御情報を、パーサ(520)からシンボル(521)として受信し得る。スケーラ/逆変換ユニット(551)は、アグリゲータ(555)に入力され得るサンプル値を含むブロックを出力することができる。
場合によっては、スケーラ/逆変換(551)の出力サンプルは、イントラコーディングされたブロック、すなわち、以前に再構築されたピクチャからの予測情報を使用しないが、現在のピクチャの以前に再構築された部分からの予測情報を使用することができるブロックに関係する場合がある。そのような予測情報は、イントラピクチャ予測ユニット(552)によって提供され得る。場合によっては、イントラピクチャ予測ユニット(552)は、すでに再構築され、現在のピクチャバッファ(558)に記憶されている周囲のブロックの情報を使用して、再構築中のブロックと同じサイズおよび形状のブロックを生成してもよい。現在のピクチャバッファ(558)は、例えば、部分的に再構築された現在のピクチャおよび/または完全に再構築された現在のピクチャをバッファリングする。アグリゲータ(555)は、いくつかの実装形態では、サンプルごとに、イントラ予測ユニット(552)が生成した予測情報を、スケーラ/逆変換ユニット(551)によって提供される出力サンプル情報に追加し得る。
他の場合には、スケーラ/逆変換ユニット(551)の出力サンプルは、インターコーディングされ、潜在的に動き補償されたブロックに関連し得る。そのような場合、動き補償予測ユニット(553)は、参照ピクチャメモリ(557)にアクセスして、インターピクチャ予測に使用されるサンプルをフェッチし得る。ブロックに関連するシンボル(521)に従ってフェッチされたサンプルを動き補償した後、これらのサンプルを、出力サンプル情報を生成するために、アグリゲータ(555)によってスケーラ/逆変換ユニット(551)の出力に追加し得る(ユニット551の出力は、残差サンプルまたは残差信号と呼ばれ得る)。動き補償予測ユニット(553)がそこから予測サンプルをフェッチする参照ピクチャメモリ(557)内のアドレスは、例えば、X成分、Y成分(シフト)、および参照ピクチャ成分(時間)を有し得るシンボル(521)の形式で動き補償予測ユニット(553)に利用可能な、動きベクトルによって制御され得る。動き補償はまた、サブサンプルの正確な動きベクトルが使用されているときに参照ピクチャメモリ(557)からフェッチされたサンプル値の補間を含んでもよく、また、動きベクトル予測メカニズムなどに関連付けられてもよい。
アグリゲータ(555)の出力サンプルは、ループフィルタユニット(556)において様々なループフィルタリング技法を受けることができる。ビデオ圧縮技術は、(コーディングされたビデオビットストリームとも呼ばれる)コーディングされたビデオシーケンスに含まれるパラメータによって制御され、パーサ(520)からのシンボル(521)としてループフィルタユニット(556)に利用可能にされるインループフィルタ技術を含むことができるが、コーディングされたピクチャまたはコーディングされたビデオシーケンスの(デコーディング順序で)前の部分のデコーディング中に取得されたメタ情報に応答するだけでなく、以前に再構築およびループフィルタリングされたサンプル値に応答することもできる。以下でさらに詳細に説明するように、いくつかのタイプのループフィルタが、様々な順序でループフィルタユニット556の一部として含まれ得る。
ループフィルタユニット(556)の出力は、レンダリングデバイス(512)に出力されるだけでなく、将来のインターピクチャ予測で使用するために参照ピクチャメモリ(557)に記憶され得るサンプルストリームであり得る。
特定のコーディングされたピクチャは、完全に再構築されると、将来のインターピクチャ予測のための参照ピクチャとして使用され得る。例えば、現在のピクチャに対応するコーディングされたピクチャが完全に再構築され、コーディングされたピクチャが(例えば、パーサ(520)によって)参照ピクチャとして識別されると、現在のピクチャバッファ(558)は、参照ピクチャメモリ(557)の一部になることができ、新規の現在のピクチャバッファを、後続のコーディングされたピクチャの再構築を開始する前に再配置してもよい。
ビデオデコーダ(510)は、例えばITU-T勧告H.265などの規格で採用された所定のビデオ圧縮技術に従ってデコーディング動作を実施し得る。コーディングされたビデオシーケンスは、コーディングされたビデオシーケンスがビデオ圧縮技術または規格のシンタックスと、ビデオ圧縮技術または規格に文書化されたプロファイルとの両方に忠実であるという意味において、使用されているビデオ圧縮技術または規格によって指定されたシンタックスに準拠し得る。具体的には、プロファイルは、ビデオ圧縮技術または規格において使用可能なすべてのツールから、そのプロファイルの下で使用することができる唯一のツールとして特定のツールを選択し得る。規格に準拠するために、コーディングされたビデオシーケンスの複雑さが、ビデオ圧縮技術または規格のレベルによって定義される範囲内にあり得る。場合によっては、レベルは、最大ピクチャサイズ、最大フレームレート、最大再構築サンプルレート(例えば毎秒メガサンプルで測定される)、最大参照ピクチャサイズなどを制限する。レベルによって設定される制限は、場合によっては、仮想参照デコーダ(HRD)の仕様、およびコーディングされたビデオシーケンス内でシグナリングされるHRDバッファ管理用のメタデータによってさらに制限され得る。
いくつかの例示的な実施形態では、受信機(531)は、エンコーディングされたビデオと共に追加の(冗長な)データを受信し得る。追加のデータは、コーディングされたビデオシーケンスの一部として含まれてもよい。追加のデータは、ビデオデコーダ(510)によって、データを適切にデコーディングするために、かつ/または元のビデオデータをより正確に再構築するために使用され得る。追加のデータは、例えば、時間、空間、または信号ノイズ比(SNR)の拡張層、冗長スライス、冗長ピクチャ、順方向誤り訂正コードなどの形式であり得る。
図6は、本開示の例示的な実施形態によるビデオエンコーダ(603)のブロック図を示している。ビデオエンコーダ(603)は、電子デバイス(620)に含まれ得る。電子デバイス(620)は、送信機(640)(例えば、送信回路)をさらに含み得る。ビデオエンコーダ(603)は、図4の例のビデオエンコーダ(403)の代わりに使用され得る。
ビデオエンコーダ(603)は、ビデオエンコーダ(603)によってコーディングされるべきビデオ画像を取り込み得るビデオソース(601)(図6の例では電子デバイス(620)の一部ではない)からビデオサンプルを受信し得る。別の例では、ビデオソース(601)は、電子デバイス(620)の一部分として実装されてもよい。
ビデオソース(601)は、任意の適切なビット深度(例えば、8ビット、10ビット、12ビット、…)、任意の色空間(例えば、BT.601 YCrCb、RGB、XYZ…)、および任意の適切なサンプリング構造(例えば、YCrCb 4:2:0、YCrCb 4:4:4)であり得るデジタルビデオサンプルストリームの形式で、ビデオエンコーダ(603)によってコーディングされるべきソースビデオシーケンスを提供し得る。メディアサービングシステムでは、ビデオソース(601)は、以前に準備されたビデオを記憶することが可能な記憶デバイスであり得る。ビデオ会議システムでは、ビデオソース(601)は、ビデオシーケンスとしてローカル画像情報を取り込むカメラであってもよい。ビデオデータは、順番に見たときに動きを与える複数の個々のピクチャまたは画像として提供され得る。ピクチャ自体は、画素の空間配列として編成されてもよく、各画素は、使用されているサンプリング構造、色空間などに応じて、1つまたは複数のサンプルを含み得る。当業者であれば、画素とサンプルとの間の関係を容易に理解することができる。以下、サンプルに着目して説明する。
いくつかの例示的な実施形態によれば、ビデオエンコーダ(603)は、リアルタイムで、または用途によって必要とされる他の任意の時間制約の下で、ソースビデオシーケンスのピクチャをコーディングされたビデオシーケンス(643)にコーディングおよび圧縮し得る。適切なコーディング速度を強制することが、コントローラ(650)の1つの機能を構成する。いくつかの実施形態では、コントローラ(650)は、以下で説明されるように、他の機能ユニットに機能的に結合され、他の機能ユニットを制御し得る。簡潔にするために、結合は図示されていない。コントローラ(650)によって設定されるパラメータには、レート制御関連のパラメータ(ピクチャスキップ、量子化器、レート歪み最適化技法のラムダ値など)、ピクチャサイズ、ピクチャグループ(GOP)レイアウト、最大動きベクトル検索範囲などが含まれ得る。コントローラ(650)は、特定のシステム設計に最適化されたビデオエンコーダ(603)に関する他の適切な機能を有するように構成され得る。
いくつかの例示的な実施形態では、ビデオエンコーダ(603)は、コーディングループで動作するように構成されてもよい。過度に簡略化した説明として、一例では、コーディングループは、ソースコーダ(630)(例えば、コーディングされるべき入力ピクチャと参照ピクチャとに基づいて、シンボルストリームなどのシンボルを生成することに関与する)と、ビデオエンコーダ(603)に組み込まれた(ローカル)デコーダ(633)と、を含み得る。デコーダ(633)は、組み込まれたデコーダ633がエントロピーコーディングなしでソースコーダ630によってコーディングされたビデオストリームを処理するとしても、シンボルを再構築して、(リモート)デコーダが作成することになるのと同様の方法でサンプルデータを作成する(開示された主題で考慮されるビデオ圧縮技術では、シンボルとコーディングされたビデオビットストリームとの間の任意の圧縮が可逆であり得るため)。再構築されたサンプルストリーム(サンプルデータ)は、参照ピクチャメモリ(634)に入力される。シンボルストリームのデコーディングは、デコーダの位置(ローカルまたはリモート)に関係なくビットイグザクトな結果をもたらすため、参照ピクチャメモリ(634)の内容も、ローカルエンコーダとリモートエンコーダとの間でビットイグザクトである。言い換えれば、エンコーダの予測部分は、デコーディング中に予測を使用するときにデコーダが「見る」のと全く同じサンプル値を参照ピクチャサンプルとして「見る」。参照ピクチャ同期性のこの基本原理(および、例えばチャネル誤差が原因で同期性を維持することができない場合に結果として生じるドリフト)は、コーディング品質を向上させるために使用される。
「ローカル」デコーダ(633)の動作は、図5と併せて上記で詳細にすでに説明されている、ビデオデコーダ(510)などの「リモート」デコーダの動作と同じであり得る。図5も簡単に参照すると、しかしながら、シンボルが利用可能であり、エントロピーコーダ(645)およびパーサ(520)によるコーディングされたビデオシーケンスへのシンボルのエンコーディング/デコーディングが可逆であり得るため、バッファメモリ(515)およびパーサ(520)を含むビデオデコーダ(510)のエントロピーデコーディング部分は、エンコーダ内のローカルデコーダ(633)においては完全に実装されない場合がある。
この時点で言えることは、デコーダ内にのみ存在し得る構文解析/エントロピーデコーディングを除く任意のデコーダ技術もまた必然的に、対応するエンコーダにおいて、実質的に同一の機能形式で存在する必要があり得るということである。このため、開示された主題はデコーダ動作に焦点を当てる場合があり、この動作はエンコーダのデコーディング部分と同様である。よって、エンコーダ技術の説明は、包括的に説明されるデコーダ技術の逆であるので、省略され得る。特定の領域または態様においてのみ、エンコーダのより詳細な説明が以下に提供される。
動作中、いくつかの例示的な実装形態では、ソースコーダ(630)は、「参照ピクチャ」として指定されたビデオシーケンスからの1つまたは複数の以前にコーディングされたピクチャを参照して予測的に入力ピクチャをコーディングする、動き補償予測コーディングを実施してもよい。このようにして、コーディングエンジン(632)は、入力ピクチャの画素ブロックと、入力ピクチャへの予測参照として選択され得る参照ピクチャの画素ブロックとの間の色チャネルの差(または残差)をコーディングする。「残差」という用語およびその形容詞形「残差の」は、互換的に使用されてもよい。
ローカルビデオデコーダ(633)は、ソースコーダ(630)によって作成されたシンボルに基づいて、参照ピクチャとして指定され得るピクチャのコーディングされたビデオデータをデコーディングし得る。コーディングエンジン(632)の動作は、有利には、非可逆プロセスであってもよい。コーディングされたビデオデータが、(図6には示されていない)ビデオデコーダでデコーディングされ得るとき、再構築されたビデオシーケンスは、いくつかの誤差を伴うソースビデオシーケンスのレプリカで通常あり得る。ローカルビデオデコーダ(633)は、参照ピクチャに対してビデオデコーダによって実施され得るデコーディングプロセスを複製し、再構築された参照ピクチャが参照ピクチャキャッシュ(634)に記憶されるようにし得る。このようにして、ビデオエンコーダ(603)は、(送信誤差なしで)遠端(リモート)ビデオデコーダによって取得される再構築された参照ピクチャと共通の内容を有する再構築された参照ピクチャのコピーをローカルに記憶し得る。
予測子(635)は、コーディングエンジン(632)のための予測検索を実施し得る。すなわち、コーディングされる新規のピクチャの場合、予測子(635)は、新しいピクチャのための適切な予測参照として役立ち得る、(候補参照画素ブロックとしての)サンプルデータまたは参照ピクチャ動きベクトル、ブロック形状などの特定のメタデータを求めて、参照ピクチャメモリ(634)を検索し得る。予測子(635)は、適切な予測参照を見つけるために、画素ブロックごとにサンプルブロックに対して動作し得る。場合によっては、予測子(635)によって取得された検索結果によって決定されるように、入力ピクチャは、参照ピクチャメモリ(634)に格納された複数の参照ピクチャから引き出された予測参照を有し得る。
コントローラ(650)は、例えば、ビデオデータをエンコーディングするために使用されるパラメータおよびサブグループパラメータの設定を含む、ソースコーダ(630)のコーディング動作を管理してもよい。
すべての前述の機能ユニットの出力は、エントロピーコーダ(645)内でエントロピーコーディングを受け得る。エントロピーコーダ(645)は、ハフマンコーディング、可変長コーディング、算術コーディングなどといった技術に従ったシンボルの可逆圧縮により、様々な機能ユニットによって生成されたシンボルをコーディングされたビデオシーケンスに変換する。
送信機(640)は、エントロピーコーダ(645)によって作成されたコーディングされたビデオシーケンスをバッファリングして、通信チャネル(660)を介した送信の準備をすることができ、通信チャネル(660)は、エンコーディングされたビデオデータを記憶する記憶デバイスへのハードウェア/ソフトウェアリンクであってもよい。送信機(640)は、ビデオコーダ(603)からのコーディングされたビデオデータを、送信される他のデータ、例えば、コーディングされたオーディオデータおよび/または補助データストリーム(ソースは図示せず)とマージし得る。
コントローラ(650)は、ビデオエンコーダ(603)の動作を管理し得る。コーディング中、コントローラ(650)は、各コーディングされたピクチャに特定のコーディングされたピクチャタイプを割り当てることができ、これは、それぞれのピクチャに適用され得るコーディング技法に影響を及ぼす場合がある。例えば、ピクチャは、しばしば、以下のピクチャタイプのうちの1つとして割り当てられてもよい。
イントラピクチャ(Iピクチャ)は、予測のソースとしてシーケンス内のいかなる他のピクチャも使用せずにコーディングされ、デコーディングされ得るピクチャであり得る。いくつかのビデオコーデックは、例えば、独立デコーダリフレッシュ(「IDR」)ピクチャを含む、異なるタイプのイントラピクチャを可能にする。当業者は、Iピクチャのそれらの変形形態、ならびにそれらのそれぞれの用途および特徴を認識している。
予測ピクチャ(Pピクチャ)は、各ブロックのサンプル値を予測するために、多くとも1つの動きベクトルおよび参照インデックスを使用するイントラ予測またはインター予測を使用して、コーディングされ、デコーディングされ得るピクチャであり得る。
双方向予測ピクチャ(Bピクチャ)は、各ブロックのサンプル値を予測するために、多くとも2つの動きベクトルおよび参照インデックスを使用するイントラ予測またはインター予測を使用して、コーディングされ、デコーディングされ得るピクチャであり得る。同様に、複数の予測ピクチャは、単一ブロックの再構築のために3つ以上の参照ピクチャおよび関連するメタデータを使用し得る。
ソースピクチャは、一般に、複数のサンプルコーディングブロック(例えば、各々4×4、8×8、4×8、または16×16サンプルのブロック)に空間的に細分され、ブロックごとにコーディングされ得る。ブロックは、ブロックのそれぞれのピクチャに適用されたコーディング割り当てによって決定されるように、他の(すでにコーディングされた)ブロックを参照して予測的にコーディングされてもよい。例えば、Iピクチャのブロックは、非予測的にコーディングされてもよく、または同じピクチャのすでにコーディングされたブロックを参照して予測的にコーディングされてもよい(空間予測またはイントラ予測)。Pピクチャの画素ブロックは、1つの以前にコーディングされた参照ピクチャを参照して、空間予測を介して、または時間予測を介して、予測的にコーディングされてもよい。Bピクチャのブロックは、1つまたは2つの以前にコーディングされた参照ピクチャを参照して、空間予測を介して、または時間予測を介して、予測的にコーディングされてもよい。ソースピクチャまたは中間処理されたピクチャは、他の目的で他のタイプのブロックに細分されてもよい。コーディングブロックおよび他のタイプのブロックの分割は、以下でさらに詳細に説明するように、同じ方法に従ってもよく、従わなくてもよい。
ビデオエンコーダ(603)は、ITU-T Rec.H.265などの所定のビデオコーディング技術または規格に従ってコーディング動作を実施し得る。その動作において、ビデオエンコーダ(603)は、入力ビデオシーケンスにおける時間および空間の冗長性を利用する予測コーディング動作を含む、様々な圧縮動作を実施し得る。したがって、コーディングされたビデオデータは、使用されているビデオコーディング技術または規格によって指定されたシンタックスに準拠し得る。
いくつかの例示的な実施形態では、送信機(640)は、エンコーディングされたビデオと共に追加のデータを送信し得る。ソースコーダ(630)は、コーディングされたビデオシーケンスの一部としてそのようなデータを含み得る。追加のデータは、時間/空間/SNR拡張層、冗長なピクチャおよびスライスなどの他の形式の冗長データ、SEIメッセージ、VUIパラメータセットフラグメントなどを含んでもよい。
ビデオは、複数のソースピクチャ(ビデオピクチャ)として時系列に取り込まれ得る。イントラピクチャ予測(しばしばイントラ予測と略される)は、所与のピクチャにおける空間相関を利用し、インターピクチャ予測は、ピクチャ間の時間または他の相関を利用する。例えば、現在のピクチャと呼ばれる、エンコーディング/デコーディング中の特定のピクチャがブロックに分割され得る。現在のピクチャ内のブロックは、ビデオ内の以前にコーディングされたまだバッファリングされている参照ピクチャ内の参照ブロックと同様であるとき、動きベクトルと呼ばれるベクトルによってコーディングされ得る。動きベクトルは、参照ピクチャ内の参照ブロックを指し示し、複数の参照ピクチャが使用されている場合、参照ピクチャを識別する第3の次元を有し得る。
いくつかの例示的な実施形態では、双予測技法がインターピクチャ予測に使用され得る。そのような双予測技法によれば、第1の参照ピクチャおよび第2の参照ピクチャなどの2つの参照ピクチャが使用され、これらは両方ともビデオ内の現在のピクチャをデコーディング順序で進める(ただし、表示順序では、それぞれ過去または未来にあり得る)。現在のピクチャ内のブロックは、第1の参照ピクチャ内の第1の参照ブロックを指す第1の動きベクトル、および第2の参照ピクチャ内の第2の参照ブロックを指す第2の動きベクトルによってコーディングされ得る。ブロックは、第1の参照ブロックと第2の参照ブロックの組合せによって協調して予測され得る。
さらに、マージモード技法が、インターピクチャ予測においてコーディング効率を改善するために使用されてもよい。
本開示のいくつかの例示的な実施形態によれば、インターピクチャ予測およびイントラピクチャ予測などの予測は、ブロック単位で実施される。例えば、ビデオピクチャのシーケンス内のピクチャは、圧縮のためにコーディングツリーユニット(CTU)に分割され、ピクチャ内のCTUは、64×64画素、32×32画素、または16×16画素などの同じサイズを有し得る。一般に、CTUは、3つの並列のコーディングツリーブロック(CTB)、すなわち、1つのルマCTBおよび2つのクロマCTBを含み得る。各CTUは、1つまたは複数のコーディングユニット(CU)に再帰的に四分木分割され得る。例えば、64×64画素のCTUは、64×64画素の1つのCU、または32×32画素の4つのCUに分割されてもよい。32×32ブロックのうちの1つまたは複数の各々は、16×16画素の4つのCUにさらに分割され得る。いくつかの例示的な実施形態では、各CUは、インター予測タイプやイントラ予測タイプなどの様々な予測タイプの中からそのCUの予測タイプを決定するためにエンコーディング中に分析され得る。CUは、時間的および/または空間的予測可能性に応じて、1つまたは複数の予測ユニット(PU)に分割され得る。一般に、各PUは、1つのルマ予測ブロック(PB)および2つのクロマPBを含む。一実施形態では、コーディング(エンコーディング/デコーディング)における予測動作は、予測ブロックの単位で実施される。CUのPU(または異なる色チャネルのPB)への分割は、様々な空間パターンで実施され得る。ルマPBまたはクロマPBは、例えば、8×8画素、16×16画素、8×16画素、16×8画素などといった、サンプルの値(例えば、ルマ値)の行列を含み得る。
図7は、本開示の別の例示的な実施形態によるビデオエンコーダ(703)の図を示す。ビデオエンコーダ(703)は、ビデオピクチャのシーケンス内の現在のビデオピクチャ内のサンプル値の処理ブロック(例えば、予測ブロック)を受信し、処理ブロックをコーディングされたビデオシーケンスの一部であるコーディングされたピクチャにエンコーディングするように構成される。例示的なビデオエンコーダ(703)は、図4の例のビデオエンコーダ(403)の代わりに使用され得る。
例えば、ビデオエンコーダ(703)は、8×8サンプルの予測ブロックなどの処理ブロックについてのサンプル値の行列を受信する。次いでビデオエンコーダ(703)は、例えば、レート歪み最適化(RDO)を使用して、処理ブロックがそれを使用して最良にコーディングされるのは、イントラモードか、インターモードか、それとも双予測モードかを決定する。処理ブロックがイントラモードでコーディングされると決定された場合、ビデオエンコーダ(703)は、イントラ予測技法を使用して処理ブロックをコーディングされたピクチャにエンコーディングし、処理ブロックがインターモードまたは双予測モードでコーディングされると決定されたとき、ビデオエンコーダ(703)は、それぞれインター予測技法または双予測技法を使用して、処理ブロックをコーディングされたピクチャにエンコーディングし得る。いくつかの例示的な実施形態では、インターピクチャ予測のサブモードとして、動きベクトルが予測子の外側のコーディングされた動きベクトル成分の恩恵を受けずに1つまたは複数の動きベクトル予測子から導出されるマージモードが使用され得る。いくつかの他の例示的な実施形態では、対象ブロックに適用可能な動きベクトル成分が存在し得る。したがって、ビデオエンコーダ(703)は、処理ブロックの予測モードを決定するために、モード決定モジュールなど、図7に明示的に示されていない構成要素を含んでもよい。
図7の例では、ビデオエンコーダ(703)は、図7の例示的な配置に示されたように互いに結合されたインターエンコーダ(730)、イントラエンコーダ(722)、残差計算器(723)、スイッチ(726)、残差エンコーダ(724)、汎用コントローラ(721)、およびエントロピーエンコーダ(725)を含む。
インターエンコーダ(730)は、現在のブロック(例えば、処理ブロック)のサンプルを受信し、そのブロックを参照ピクチャ内の1つまたは複数の参照ブロック(例えば、表示順序で前のピクチャ内および後のピクチャ内のブロック)と比較し、インター予測情報(例えば、インターエンコーディング技法による冗長情報、動きベクトル、マージモード情報の記述)を生成し、任意の適切な技法を使用してインター予測情報に基づいてインター予測結果(例えば、予測されたブロック)を計算するように構成される。いくつかの例では、参照ピクチャは、(以下でさらに詳細に説明するように、図7の残差デコーダ728として示されている)図6の例示的なエンコーダ620に組み込まれたデコーディングユニット633を使用して、エンコーディングされたビデオ情報に基づいてデコーディングされた、デコーディングされた参照ピクチャである。
イントラエンコーダ(722)は、現在のブロック(例えば、処理ブロック)のサンプルを受信し、そのブロックを同じピクチャ内のすでにコーディングされたブロックと比較し、変換後の量子化係数を生成し、場合によってはイントラ予測情報(例えば、1つまたは複数のイントラエンコーディング技法によるイントラ予測方向情報)も生成するように構成される。イントラエンコーダ(722)は、イントラ予測情報および同じピクチャ内の参照ブロックに基づいて、イントラ予測結果(例えば、予測ブロック)を計算し得る。
汎用コントローラ(721)は、汎用制御データを決定し、汎用制御データに基づいてビデオエンコーダ(703)の他の構成要素を制御するように構成されてもよい。一例では、汎用コントローラ(721)は、ブロックの予測モードを決定し、予測モードに基づいて制御信号をスイッチ(726)に提供する。例えば、予測モードがイントラモードである場合、汎用コントローラ(721)は、スイッチ(726)を制御して、残差計算器(723)が使用するためのイントラモード結果を選択させ、エントロピーエンコーダ(725)を制御して、イントラ予測情報を選択させてそのイントラ予測情報をビットストリームに含めさせ、ブロックの予測モードがインターモードであるとき、汎用コントローラ(721)は、スイッチ(726)を制御して、残差計算器(723)が使用するためのインター予測結果を選択させ、エントロピーエンコーダ(725)を制御して、インター予測情報を選択させてそのインター予測情報をビットストリームに含めさせる。
残差計算器(723)は、受信したブロックと、イントラエンコーダ(722)またはインターエンコーダ(730)から選択されたブロックについての予測結果との間の差(残差データ)を計算するように構成されてもよい。残差エンコーダ(724)は、残差データをエンコーディングして変換係数を生成するように構成され得る。例えば、残差エンコーダ(724)は、残差データを空間領域から周波数領域に変換して変換係数を生成するように構成され得る。次いで、変換係数は、量子化変換係数を取得するために量子化処理を受ける。様々な例示的な実施形態において、ビデオエンコーダ(703)は、残差デコーダ(728)も含む。残差デコーダ(728)は、逆変換を実施し、デコーディングされた残差データを生成するように構成される。デコーディングされた残差データは、イントラエンコーダ(722)およびインターエンコーダ(730)によって適切に使用され得る。例えば、インターエンコーダ(730)は、デコーディングされた残差データおよびインター予測情報に基づいてデコーディングされたブロックを生成することができ、イントラエンコーダ(722)は、デコーディングされた残差データおよびイントラ予測情報に基づいてデコーディングされたブロックを生成することができる。デコーディングされたブロックは、デコーディングされたピクチャを生成するために適切に処理され、デコーディングされたピクチャは、メモリ回路(図示せず)にバッファリングされ、参照ピクチャとして使用され得る。
エントロピーエンコーダ(725)は、ビットストリームをエンコーディングされたブロックを含むようにフォーマットし、エントロピーコーディングを実施するように構成され得る。エントロピーエンコーダ(725)は、ビットストリームに様々な情報を含めるように構成される。例えば、エントロピーエンコーダ(725)は、汎用制御データ、選択された予測情報(例えば、イントラ予測情報やインター予測情報)、残差情報、および他の適切な情報をビットストリームに含めるように構成され得る。インターモードまたは双予測モードのいずれかのマージサブモードでブロックをコーディングするとき、残差情報は存在しなくてもよい。
図8は、本開示の別の実施形態による例示的なビデオデコーダ(810)の図を示す。ビデオデコーダ(810)は、コーディングされたビデオシーケンスの一部であるコーディングされたピクチャを受信し、コーディングされたピクチャをデコーディングして再構築されたピクチャを生成するように構成される。一例では、ビデオデコーダ(810)は、図4の例のビデオデコーダ(410)の代わりに使用され得る。
図8の例では、ビデオデコーダ(810)は、図8の例示的な配置に示されたように、互いに結合されたエントロピーデコーダ(871)、インターデコーダ(880)、残差デコーダ(873)、再構築モジュール(874)、およびイントラデコーダ(872)を含む。
エントロピーデコーダ(871)は、コーディングされたピクチャから、コーディングされたピクチャが構成されるシンタックス要素を表す特定のシンボルを再構築するように構成し得る。そのようなシンボルは、例えば、ブロックがコーディングされているモード(例えば、イントラモード、インターモード、双予測モード、マージサブモードまたは別のサブモード)、イントラデコーダ(872)またはインターデコーダ(880)によって予測に使用される特定のサンプルまたはメタデータを識別することができる予測情報(例えば、イントラ予測情報やインター予測情報)、例えば、量子化変換係数の形式の残差情報などを含み得る。一例では、予測モードがインター予測モードまたは双予測モードであるとき、インター予測情報がインターデコーダ(880)に提供され、予測タイプがイントラ予測タイプであるとき、イントラ予測情報がイントラデコーダ(872)に提供される。残差情報は、逆量子化を受けることができ、残差デコーダ(873)に提供される。
インターデコーダ(880)は、インター予測情報を受信し、インター予測情報に基づいてインター予測結果を生成するように構成されてもよい。
イントラデコーダ(872)は、イントラ予測情報を受信し、イントラ予測情報に基づいて予測結果を生成するように構成されてもよい。
残差デコーダ(873)は、逆量子化を実施して逆量子化変換係数を抽出し、逆量子化変換係数を処理して、残差を周波数領域から空間領域に変換するように構成されてもよい。残差デコーダ(873)はまた、(量子化器パラメータ(QP)を含めるために)特定の制御情報を利用することができ、その情報は、エントロピーデコーダ(871)によって提供されてもよい(これは小さいデータ量の制御情報のみであり得るので、データパスは示されていない)。
再構築モジュール(874)は、空間領域において、残差デコーダ(873)による出力としての残差と、(場合によって、インター予測モジュールまたはイントラ予測モジュールによる出力としての)予測結果を組み合わせて、再構築されたビデオの一部としての再構築されたピクチャの一部を形成する再構築されたブロックを形成するように構成され得る。視覚的品質を改善するために、デブロッキング動作などの他の適切な動作が実施されてもよいことに留意されたい。
ビデオエンコーダ(403)、(603)、および(703)、ならびにビデオデコーダ(410)、(510)、および(810)は、任意の適切な技法を使用して実装し得ることに留意されたい。いくつかの例示的な実施形態では、ビデオエンコーダ(403)、(603)、および(703)、ならびにビデオデコーダ(410)、(510)、および(810)は、1つまたは複数の集積回路を使用して実装され得る。別の実施形態では、ビデオエンコーダ(403)、(603)、および(603)、ならびにビデオデコーダ(410)、(510)、および(810)は、ソフトウェア命令を実行する1つまたは複数のプロセッサを使用して実装され得る。
コーディングおよびデコーディングのためのブロック分割に目を向けると、一般的な分割は、ベースブロックから開始することができ、事前定義されたルールセット、特定のパターン、分割ツリー、または任意の分割構造もしくは方式に従い得る。分割は、階層的かつ再帰的であってもよい。以下に記載される例示的な分割手順もしくは他の手順、またはそれらの組合せのいずれかに従ってベースブロックを分離または分割した後に、分割またはコーディングブロックの最終セットが取得されてもよい。これらの分割の各々は、分割階層内の様々な分割レベルのうちの1つにあってもよく、様々な形状の分割であってもよい。分割の各々は、コーディングブロック(CB)と呼ばれる場合がある。以下にさらに記載される様々な例示的な分割実装形態では、結果として得られる各CBは、許容されるサイズおよび分割レベルのいずれかのCBであってもよい。そのような分割は、そのためのいくつかの基本的なコーディング/デコーディング決定が行われ得、コーディング/デコーディングパラメータが最適化され、決定され、エンコーディングされたビデオビットストリームにおいてシグナリングされ得るユニットを形成し得るので、コーディングブロックと呼ばれる。最終分割における最高または最深のレベルは、コーディングブロック分割ツリー構造の深度を表す。コーディングブロックは、ルマコーディングブロックまたはクロマコーディングブロックであってもよい。各色のCBツリー構造は、コーディングブロックツリー(CBT)と呼ばれる場合がある。
すべての色チャネルのコーディングブロックは、まとめてコーディングユニット(CU)と呼ばれる場合がある。すべての色チャネルの階層構造は、まとめてコーディングツリーユニット(CTU)と呼ばれる場合がある。CTU内の様々な色チャネルの分割パターンまたは分割構造は、同じであってもなくてもよい。
いくつかの実装形態では、ルマチャネルおよびクロマチャネルに使用される分割ツリー方式または構造は、同じである必要はなくてもよい。言い換えれば、ルマチャネルおよびクロマチャネルは、別々のコーディングツリー構造またはパターンを有してもよい。さらに、ルマチャネルおよびクロマチャネルが同じコーディング分割ツリー構造を使用するか、異なるコーディング分割ツリー構造を使用するか、および使用されるべき実際のコーディング分割ツリー構造は、コーディングされているスライスがPスライスか、Bスライスか、Iスライスかに依存する場合がある。例えば、Iスライスの場合、クロマチャネルおよびルマチャネルは、別々のコーディング分割ツリー構造またはコーディング分割ツリー構造モードを有してもよいが、PスライスまたはBスライスの場合、ルマチャネルおよびクロマチャネルは、同じコーディング分割ツリー方式を共有してもよい。別々のコーディング分割ツリー構造またはモードが適用されるとき、ルマチャネルは、1つのコーディング分割ツリー構造によってCBに分割されてもよく、クロマチャネルは、別のコーディング分割ツリー構造によってクロマCBに分割されてもよい。
いくつかの例示的な実装形態では、所定の分割パターンがベースブロックに適用されてもよい。図9に示すように、例示的な4方向分割ツリーは、第1の事前定義されたレベル(例えば、ベースブロックサイズとして、64×64ブロックレベルまたは他のサイズ)から開始してもよく、ベースブロックは、事前定義された最下位レベル(例えば、4×4レベル)まで階層的に分割されてもよい。例えば、ベースブロックは、902、904、906、および908によって示された4つの事前定義された分割オプションまたはパターンに従うことができ、Rとして指定された分割は、図9に示された同じ分割オプションが最下位レベル(例えば、4×4レベル)まで下位スケールで繰り返され得るという点で、再帰分割が可能である。いくつかの実装形態では、図9の分割方式に追加の制限が加えられてもよい。図9の実装形態では、長方形分割(例えば、1:2/2:1の長方形分割)は、許容され得るが、再帰的であることは許容され得ず、一方、正方形分割は再帰的であることが許容される。必要に応じて、再帰による図9の後に続く分割により、コーディングブロックの最終セットが生成される。ルートノードまたはルートブロックからの分割深度を示すために、コーディングツリー深度がさらに定義されてもよい。例えば、64×64ブロックのルートノードまたはルートブロックに対するコーディングツリー深度は0に設定されてもよく、ルートブロックが図9に従ってさらに1回分割された後、コーディングツリー深度は1だけ増加する。64×64のベースブロックから4×4の最小分割までの最大または最深のレベルは、上記の方式では(レベル0から開始して)4である。そのような分割方式が、色チャネルのうちの1つまたは複数に適用されてもよい。各色チャネルは、図9の方式に従って独立して分割されてもよい(例えば、各階層レベルにおける色チャネルの各々に対して、事前定義されたパターンの中の分割パターンまたはオプションが独立して決定されてもよい)。あるいは、2つ以上の色チャネルが図9の同じ階層パターンツリーを共有してもよい(例えば、各階層レベルにおける2つ以上の色チャネルに対して、事前定義されたパターンの中の同じ分割パターンまたはオプションが選択されてもよい)。
図10は、再帰分割が分割ツリーを形成することを可能にする別の例示的な事前定義された分割パターンを示す。図10に示すように、例示的な10通りの分割構造またはパターンが事前定義されてもよい。ルートブロックは、事前定義されたレベルから(例えば、128×128レベルまたは64×64レベルのベースブロックから)開始し得る。図10の例示的な分割構造は、様々な2:1/1:2および4:1/1:4の長方形分割を含む。図10の2列目の1002、1004、1006、および1008で示される3つのサブ分割を有する分割タイプは、「T型」分割と呼ばれ得る。「T型」分割1002、1004、1006、および1008は、左T型、上T型、右T型、および下T型と呼ばれる場合がある。いくつかの例示的な実装形態では、図10の長方形分割のどれもこれ以上細分されることは可能でない。ルートノードまたはルートブロックからの分割深度を示すために、コーディングツリー深度がさらに定義されてもよい。例えば、128×128ブロックのルートノードまたはルートブロックに対するコーディングツリー深度は0に設定されてもよく、ルートブロックが図10に従ってさらに1回分割された後、コーディングツリー深度は1だけ増加する。いくつかの実装形態では、1010のすべて正方形分割のみが、図10のパターンの後に続く分割ツリーの次のレベルへの再帰分割を可能とすることができる。言い換えれば、再帰分割は、T型パターン1002、1004、1006、および1008内の正方形分割では可能でない場合がある。必要に応じて、再帰による図10の後に続く分割手順により、コーディングブロックの最終セットが生成される。そのような方式が、色チャネルのうちの1つまたは複数に適用されてもよい。いくつかの実装形態では、8×8レベル未満の分割の使用に、より多くの柔軟性が加えられてもよい。例えば、場合によっては、2×2のクロマインター予測が使用されてもよい。
コーディングブロック分割についてのいくつかの他の例示的な実装形態では、ベースブロックまたは中間ブロックを四分木分割に分割するために四分木構造が使用されてもよい。そのような四分木分割は、任意の正方形分割に階層的かつ再帰的に適用されてもよい。ベースブロックまたは中間ブロックまたは分割がさらに四分木分割されるか否かは、ベースブロックまたは中間ブロック/分割の様々なローカル特性に適合してもよい。ピクチャ境界における四分木分割が、さらに適合してもよい。例えば、サイズがピクチャ境界に収まるまでブロックが四分木分割を続けるように、ピクチャ境界で暗黙の四分木分割が実施されてもよい。
いくつかの他の例示的な実装形態では、ベースブロックからの階層二分割が使用されてもよい。そのような方式の場合、ベースブロックまたは中間レベルブロックは、2つの分割に分割されてもよい。二分割は、水平または垂直のいずれかであってもよい。例えば、水平二分割は、ベースブロックまたは中間ブロックを等しい左右の分割に分割し得る。同様に、垂直二分割は、ベースブロックまたは中間ブロックを等しい上下の分割に分割し得る。そのような二分割は、階層的かつ再帰的であってもよい。二分割方式を続けるべきか否か、および方式がさらに続く場合、水平二分割が使用されるべきか、垂直二分割が使用されるべきかは、ベースブロックまたは中間ブロックの各々において決定されてもよい。いくつかの実装形態では、さらなる分割は、(一方または両方の次元の)事前定義された最低分割サイズで停止してもよい。あるいは、ベースブロックから事前定義された分割レベルまたは深度に達すると、さらなる分割を停止してもよい。いくつかの実装形態では、分割のアスペクト比は制限されてもよい。例えば、分割のアスペクト比は、1:4よりも小さく(または4:1よりも大きく)なくてもよい。そのため、4:1の垂直対水平アスペクト比を有する垂直ストリップ分割は、各々が2:1の垂直対水平アスペクト比を有する上下の分割に垂直にさらに二分割され得るのみである。
さらにいくつかの他の例では、図13に示すように、ベースブロックまたは任意の中間ブロックを分割するために三分割方式が使用され得る。三元パターンは、図13の1302に示すように垂直に、または図13の1304に示すように水平に実装されてもよい。図13の例示的な分割比は、垂直または水平のいずれかで1:2:1として示されているが、他の比が事前定義されてもよい。いくつかの実装形態では、2つ以上の異なる比が事前定義されてもよい。そのような三分割方式が1つの連続する分割内のブロック中心に位置するオブジェクトを取り込むことが可能であるが、四分木および二分木が常にブロック中心に沿って分割しており、したがってオブジェクトを別々の分割に分割するという点で、そのような三分割方式は四分木または二分割構造を補完するために使用されてもよい。いくつかの実装形態では、例示的な三分木の分割の幅および高さは、さらなる変換を回避するために常に2の累乗である。
上記の分割方式は、異なる分割レベルで任意の方法で組み合わされ得る。一例として、上述された四分木および二分割方式は、ベースブロックを四分木-二分木(QTBT)構造に分割するために組み合わされてもよい。そのような方式では、ベースブロックまたは中間ブロック/分割は、指定された場合、事前定義された条件のセットに従う、四分木分割または二分割のいずれかであってもよい。特定の例が、図14に示されている。図14の例では、ベースブロックは、1402、1404、1406、および1408によって示すように、最初に4つの分割に四分木分割される。その後、結果として得られた分割の各々は、(1408などの)4つのさらなる分割に四分木分割されるか、または次のレベルで(例えば、両方とも対称である1402もしくは1406などの水平もしくは垂直のいずれかの)2つのさらなる分割に二分割されるか、または(1404などの)分割されないかのいずれかである。二分割または四分木分割は、1410の全体的な例示的な分割パターンおよび1420の対応するツリー構造/表現によって示すように、正方形分割に対して再帰的に可能にされてもよく、実線は四分木分割を表し、破線は二分割を表す。二分割が水平か垂直かを示すために、二分割ノード(非リーフバイナリ分割)ごとにフラグが使用されてもよい。例えば、1410の分割構造と一致する1420に示すように、フラグ「0」は水平二分割を表すことができ、フラグ「1」は垂直二分割を表すことができる。四分木分割の分割の場合、四分木分割は常にブロックまたは分割を水平と垂直の両方に分割して等しいサイズの4つのサブブロック/分割を生成するので、分割タイプを示す必要はない。いくつかの実装形態では、フラグ「1」は水平二分割を表すことができ、フラグ「0」は垂直二分割を表すことができる。
QTBTのいくつかの例示的実装形態では、四分木および二分割ルールセットは、以下の事前定義されたパラメータおよびそれらと関連付けられた対応する関数によって表され得る。
-CTU size:四分木のルートノードサイズ(ベースブロックのサイズ)
-MinQTSize:最小許容四分木リーフノードサイズ
-MaxBTSize:最大許容二分木ルートノードサイズ
-MaxBTDepth:最大許容二分木深度
-MinBTSize:最小許容二分木リーフノードサイズ
QTBT分割構造のいくつかの例示的な実装形態では、CTU sizeは、(例示的なクロマサブサンプリングが考慮され使用されるときに)クロマサンプルの2つの対応する64×64ブロックを有する128×128ルマサンプルとして設定されてもよく、MinQTSizeは16×16として設定されてもよく、MaxBTSizeは64×64として設定されてもよく、(幅と高さの両方について)MinBTSizeは4×4として設定されてもよく、MaxBTDepthは4として設定されてもよい。四分木分割は、四分木リーフノードを生成するために、最初にCTUに適用されてもよい。四分木リーフノードは、16×16のその最小許容サイズ(すなわち、MinQTSize)から128×128(すなわち、CTU size)までのサイズを有し得る。ノードが128×128である場合、サイズがMaxBTSize(すなわち、64×64)を超えるので、二分木によって最初に分割されることはない。そうでない場合、MaxBTSizeを超えないノードは、二分木によって分割される可能性がある。図14の例では、ベースブロックは、128×128である。ベースブロックは、事前定義されたルールセットに従って、四分木分割のみが可能である。ベースブロックは、0の分割深度を有する。結果として得られた4つの分割の各々は、MaxBTSizeを超えない64×64であり、レベル1でさらに四分木分割または二分木分割されてもよい。プロセスは続く。二分木深度がMaxBTDepth(すなわち、4)に達すると、それ以上の分割は考慮されなくてもよい。二分木ノードの幅がMinBTSize(すなわち、4)に等しいとき、それ以上の水平分割は考慮されなくてもよい。同様に、二分木ノードの高さがMinBTSizeに等しいとき、それ以上の垂直分割は考慮されない。
いくつかの例示的な実装形態では、上記のQTBT方式は、ルマおよびクロマが同じQTBT構造または別々のQTBT構造を有するための柔軟性をサポートするように構成されてもよい。例えば、PスライスおよびBスライスの場合、1つのCTU内のルマCTBおよびクロマCTBは同じQTBT構造を共有することができる。しかしながら、Iスライスの場合、ルマCTBはQTBT構造によってCBに分割されてもよく、クロマCTBは別のQTBT構造によってクロマCBに分割されてもよい。これは、CUがIスライス内の異なる色チャネルを参照するために使用されてもよく、例えば、Iスライスが、ルマ成分のコーディングブロックまたは2つのクロマ成分のコーディングブロックから構成されてもよく、PスライスまたはBスライス内のCUが、3つの色成分すべてのコーディングブロックから構成されてもよいことを意味する。
いくつかの他の実装形態では、QTBT方式は、上述された三元方式で補完されてもよい。そのような実装形態は、マルチタイプツリー(MTT)構造と呼ばれる場合がある。例えば、ノードの二分割に加えて、図13の三分割パターンのうちの1つが選択されてもよい。いくつかの実装形態では、正方形ノードのみが三分割を受け得る。三分割が水平であるか垂直であるかを示すために、追加のフラグが使用されてもよい。
QTBT実装形態および三分割によって補完されたQTBT実装形態などの2レベルツリーまたはマルチレベルツリーの設計は、主に複雑性の低減によって動機付けられてもよい。理論的には、ツリーをトラバースする複雑性はTDであり、ここで、Tは分割タイプの数を表し、Dはツリーの深度である。深度(D)を低減しながらマルチタイプ(T)を使用することによって、トレードオフが行われてもよい。
いくつかの実装形態では、CBはさらに分割されてもよい。例えば、CBは、コーディングプロセスおよびデコーディングプロセス中のイントラフレーム予測またはインターフレーム予測を目的として、複数の予測ブロック(PB)にさらに分割され得る。言い換えれば、CBは異なるサブ分割にさらに分割されてもよく、そこで個々の予測決定/構成が行われてもよい。並行して、CBは、ビデオデータの変換または逆変換が実施されるレベルを記述する目的で、複数の変換ブロック(TB)にさらに分割されてもよい。CBのPBおよびTBへの分割方式は、同じである場合もそうでない場合もある。例えば、各分割方式は、例えば、ビデオデータの様々な特性に基づいて独自の手順を使用して実施され得る。PBおよびTBの分割方式は、いくつかの例示的な実装形態では独立していてもよい。PBおよびTBの分割方式および境界は、いくつかの他の例示的な実装形態では相関されていてもよい。いくつかの実装形態では、例えば、TBは、PB分割後に分割されてもよく、特に、各PBは、コーディングブロックの分割の後に続いて決定された後、次いで1つまたは複数のTBにさらに分割されてもよい。例えば、いくつかの実装形態では、PBは、1つ、2つ、4つ、または他の数のTBに分割され得る。
いくつかの実装形態では、ベースブロックをコーディングブロックに分割し、さらに予測ブロックおよび/または変換ブロックに分割するために、ルマチャネルおよびクロマチャネルは異なって処理されてもよい。例えば、いくつかの実装形態では、コーディングブロックの予測ブロックおよび/または変換ブロックへの分割は、ルマチャネルに対して許容されてもよいが、コーディングブロックの予測ブロックおよび/または変換ブロックへのそのような分割は、クロマチャネルに対して許容されない場合がある。そのような実装形態では、したがって、ルマブロックの変換および/または予測は、コーディングブロックレベルでのみ実施され得る。別の例では、ルマチャネルおよびクロマチャネルの最小変換ブロックサイズが異なっていてもよく、例えば、ルマチャネルのコーディングブロックは、クロマチャネルよりも小さい変換ブロックおよび/または予測ブロックに分割されることが許容され得る。さらに別の例では、コーディングブロックの変換ブロックおよび/または予測ブロックへの分割の最大深度がルマチャネルとクロマチャネルとの間で異なっていてもよく、例えば、ルマチャネルのコーディングブロックは、クロマチャネルよりも深い変換ブロックおよび/または予測ブロックに分割されることが許容され得る。具体例として、ルマコーディングブロックは、最大2レベルだけ下がる再帰分割によって表すことができる複数のサイズの変換ブロックに分割されてもよく、正方形、2:1/1:2、および4:1/1:4などの変換ブロック形状、ならびに4×4から64×64の変換ブロックサイズが許容され得る。しかしながら、クロマブロックの場合、ルマブロックに指定された可能な最大の変換ブロックのみが許容されてもよい。
コーディングブロックをPBに分割するためのいくつかの例示的な実装形態では、PB分割の深度、形状、および/または他の特性は、PBがイントラコーディングされるかインターコーディングされるかに依存してもよい。
コーディングブロック(または予測ブロック)の変換ブロックへの分割は、四分木分割および事前定義されたパターン分割を含むがそれらに限定されない様々な例示的な方式で、再帰的または非再帰的に、コーディングブロックまたは予測ブロックの境界での変換ブロックをさらに考慮して実施されてもよい。一般に、結果として得られた変換ブロックは、異なる分割レベルにあってもよく、同じサイズでなくてもよく、形状が正方形である必要がなくてもよい(例えば、それらはいくつかの許容されたサイズおよびアスペクト比を有する長方形であり得る)。さらなる例は、図15、図16、および図17に関連して以下でさらに詳細に説明される。
しかしながら、いくつかの他の実装形態では、上記の分割方式のいずれかを介して取得されたCBは、予測および/または変換のための基本または最小のコーディングブロックとして使用されてもよい。言い換えれば、インター予測/イントラ予測を実施する目的で、かつ/または変換の目的で、これ以上の分割は実施されない。例えば、上記のQTBT方式から取得されたCBは、予測を実施するための単位としてそのまま使用されてもよい。具体的には、そのようなQTBT構造は、複数の分割タイプの概念を取り除く、すなわち、CU、PU、およびTUの分離を取り除き、上述したように、CU/CB分割形状についてのさらなる柔軟性をサポートする。そのようなQTBTブロック構造では、CU/CBは、正方形または長方形のいずれかの形状を有することができる。そのようなQTBTのリーフノードは、これ以上の分割なしに予測および変換処理のための単位として使用される。これは、CU、PU、およびTUがそのような例示的なQTBTコーディングブロック構造において同じブロックサイズを有することを意味する。
上記の様々なCB分割方式、ならびにPBおよび/またはTBへのCBのさらなる分割(PB/TB分割なしを含む)は、任意の方法で組み合わされ得る。以下の特定の実装形態は、非限定的な例として提供される。
コーディングブロックおよび変換ブロックの分割の具体的で例示的な実装形態が、以下に記載される。そのような例示的な実装形態では、ベースブロックは、再帰的四分木分割、または(図9および図10の分割パターンなどの)上述された事前定義された分割パターンを使用して、コーディングブロックに分割されてもよい。各レベルにおいて、特定の分割のさらなる四分木分割を続けるべきか否かが、ローカルビデオデータ特性によって決定されてもよい。結果として得られたCBは、様々な四分木分割レベルにあり、様々なサイズのCBであってもよい。ピクチャエリアをインターピクチャ(時間)予測を使用してコーディングするか、イントラピクチャ(空間)予測を使用してコーディングするかの決定は、CBレベル(または、すべての3色チャネルの場合CUレベル)で行われてもよい。各CBは、事前定義されたPB分割タイプに従って、1つ、2つ、4つ、または他の数のPBにさらに分割されてもよい。1つのPB内部で、同じ予測プロセスが適用されてもよく、関連情報はPBベースでデコーダに送信されてもよい。PB分割タイプに基づいて予測プロセスを適用することによって残差ブロックを取得した後、CBは、CB用のコーディングツリーと同様の別の四分木構造に従ってTBに分割することができる。この特定の実装形態では、CBまたはTBは、正方形に限定されなくてもよい。さらにこの特定の例では、PBは、インター予測では正方形または長方形であってもよく、イントラ予測では正方形のみであってもよい。コーディングブロックは、例えば、4つの正方形のTBに分割されてもよい。各TBは、(四分木分割を使用して)再帰的に、残差四分木(RQT)と呼ばれるより小さいTBにさらに分割されてもよい。
ベースブロックをCB、PB、および/またはTBに分割するための別の例示的な実装形態が、以下でさらに記載される。例えば、図9または図10に示すタイプなどの複数の分割ユニットタイプを使用するのではなく、二分割および三分割のセグメント化構造(例えば、QTBTまたは上述された三分割によるQTBT)を使用するネストされたマルチタイプツリーを有する四分木が使用されてもよい。CB、PB、およびTBの分離(すなわち、CBのPBおよび/またはTBへの分割、ならびにPBのTBへの分割)は、そのようなCBがさらなる分割を必要とする場合に、最大変換長には大きすぎるサイズを有するCBに必要なときを除き、断念されてもよい。この例示的な分割方式は、予測および変換が両方ともこれ以上の分割なしにCBレベルで実施され得るように、CB分割形状についてのさらなる柔軟性をサポートするように設計されてもよい。そのようなコーディングツリー構造では、CBは、正方形または長方形のいずれかの形状を有することができる。具体的には、コーディングツリーブロック(CTB)が最初に四分木構造によって分割されてもよい。次いで、四分木リーフノードが、ネストされたマルチタイプツリー構造によってさらに分割されてもよい。二分割または三分割を使用するネストされたマルチタイプツリー構造の一例が、図11に示されている。具体的には、図11の例示的なマルチタイプツリー構造は、垂直二分割(SPLIT_BT_VER)(1102)、水平二分割(SPLIT_BT_HOR)(1104)、垂直三分割(SPLIT_TT_VER)(1106)、および水平三分割(SPLIT_TT_HOR)(1108)と呼ばれる4つの分割タイプを含む。次いで、CBはマルチタイプツリーのリーフに対応する。この例示的な実装形態では、CBが最大変換長に対して大きすぎない限り、このセグメント化は、これ以上の分割なしに予測と変換の両方の処理に使用される。これは、ほとんどの場合、CB、PB、およびTBが、ネストされたマルチタイプツリーコーディングブロック構造を有する四分木において同じブロックサイズを有することを意味する。例外は、サポートされる最大変換長がCBの色成分の幅または高さよりも小さいときに発生する。いくつかの実装形態では、二分割または三分割に加えて、図11のネストされたパターンは、四分木分割をさらに含んでもよい。
1つのベースブロックに対する(四分木分割、二分割、および三分割のオプションを含む)ブロック分割のネストされたマルチタイプツリーコーディングブロック構造を有する四分木についての1つの具体例が図12に示されている。より詳細には、図12は、ベースブロック1200が4つの正方形分割1202、1204、1206、および1208に四分木分割されることを示す。さらなる分割のために図11のマルチタイプツリー構造および四分木をさらに使用する決定は、四分木分割された分割の各々について行われる。図12の例では、分割1204は、これ以上分割されない。分割1202および分割1208は、別の四分木分割を各々採用する。分割1202では、第2のレベルの四分木分割された左上、右上、左下、および右下の分割は、それぞれ、四分木、図11の水平二分割1104、非分割、および図11の水平三分割1108の第3のレベルの分割を採用する。分割1208は別の四分木分割を採用し、第2のレベルの四分木分割された左上、右上、左下、および右下の分割は、それぞれ、図11の垂直三分割1106、非分割、非分割、および図11の水平二分割1104の第3のレベルの分割を採用する。1208の第3のレベルの左上分割のサブ分割のうちの2つは、それぞれ、図11の水平二分割1104および水平三分割1108に従ってさらに分割される。分割1206は、図11の垂直二分割1102の後に続く、2つの分割への第2のレベルの分割パターンを採用し、2つの分割は図11の水平三分割1108および垂直二分割1102に従って第3のレベルでさらに分割される。図11の水平二分割1104に従って、それらのうちの1つに第4のレベルの分割がさらに適用される。
上記の具体例では、最大ルマ変換サイズは64×64であってもよく、サポートされる最大クロマ変換サイズは、ルマとは異なる、例えば、32×32であり得る。図12の上記の例示的なCBが、一般に、より小さいPBおよび/またはTBにこれ以上分割されない場合でも、ルマコーディングブロックまたはクロマコーディングブロックの幅または高さが最大変換幅または最大変換高さよりも大きいとき、ルマコーディングブロックまたはクロマコーディングブロックは、水平方向および/または垂直方向の変換サイズ制限を満たすように、その方向に自動的に分割されてもよい。
上記のベースブロックのCBへの分割についての具体例では、上述されたように、コーディングツリー方式は、ルマおよびクロマが別々のブロックツリー構造を有するための能力をサポートし得る。例えば、PスライスおよびBスライスの場合、1つのCTU内のルマCTBおよびクロマCTBは、同じコーディングツリー構造を共有し得る。Iスライスの場合、例えば、ルマおよびクロマは、別々のコーディングブロックツリー構造を有してもよい。別々のブロックツリー構造が適用されるとき、ルマCTBは、1つのコーディングツリー構造によってルマCBに分割されてもよく、クロマCTBは、別のコーディングツリー構造によってクロマCBに分割される。これは、Iスライス内のCUがルマ成分のコーディングブロックまたは2つのクロマ成分のコーディングブロックから構成されてもよく、PスライスまたはBスライス内のCUが、ビデオがモノクロでない限り、3つの色成分すべてのコーディングブロックから常に構成されることを意味する。
コーディングブロックが複数の変換ブロックにさらに分割されるとき、その中の変換ブロックは、様々な順序または走査方法に従ってビットストリーム内で順序付けされてもよい。コーディングブロックまたは予測ブロックを変換ブロックに分割するための例示的な実装形態、および変換ブロックのコーディング順序が、以下でさらに詳細に記載される。いくつかの例示的な実装形態では、上述されたように、変換分割は、例えば、4×4から64×64までの範囲の変換ブロックサイズを有する、複数の形状、例えば、1:1(正方形)、1:2/2:1、および1:4/4:1の変換ブロックをサポートしてもよい。いくつかの実装形態では、コーディングブロックが64×64よりも小さいか等しい場合、変換ブロック分割は、クロマブロックの場合、変換ブロックサイズがコーディングブロックサイズと同一であるように、ルマ成分にのみ適用されてもよい。そうではなく、コーディングブロックの幅または高さが64よりも大きい場合、ルマコーディングブロックとクロマコーディングブロックの両方は、それぞれ、min(W,64)×min(H,64)およびmin(W,32)×min(H,32)の倍数の変換ブロックに暗黙的に分割されてもよい。
変換ブロック分割のいくつかの例示的な実装形態では、イントラコーディングされたブロックとインターコーディングされたブロックの両方について、コーディングブロックが、事前定義された数のレベル(例えば、2レベル)までの分割深度を有する複数の変換ブロックにさらに分割され得る。変換ブロックの分割深度およびサイズは、関連してもよい。いくつかの例示的な実装形態の場合、現在の深度の変換サイズから次の深度の変換サイズへのマッピングが以下で表1に示されている。
表1の例示的なマッピングに基づいて、1:1正方形ブロックの場合、次のレベルの変換分割は、4つの1:1正方形サブ変換ブロックを作成し得る。変換分割は、例えば、4×4で停止してもよい。したがって、4×4の現在の深度の変換サイズは、次の深度の4×4の同じサイズに対応する。表1の例では、1:2/2:1非正方形ブロックの場合、次のレベルの変換分割は2つの1:1正方形サブ変換ブロックを作成し得るが、1:4/4:1非正方形ブロックの場合、次のレベルの変換分割は2つの1:2/2:1サブ変換ブロックを作成し得る。
いくつかの例示的な実装形態では、イントラコーディングされたブロックのルマ成分に対して、変換ブロック分割に関してさらなる制限が適用され得る。例えば、変換分割のレベルごとに、すべてのサブ変換ブロックは、等しいサイズを有するように制限されてもよい。例えば、32×16のコーディングブロックの場合、レベル1の変換分割は、2つの16×16のサブ変換ブロックを作成し、レベル2の変換分割は、8つの8×8のサブ変換ブロックを作成する。言い換えれば、変換ユニットを等しいサイズに保つために、すべての第1のレベルのサブブロックに第2のレベルの分割が適用されなければならない。表1に従ってイントラコーディングされた正方形ブロックに対する変換ブロック分割の一例が、矢印によって示されたコーディング順序と共に図15に示されている。具体的には、1502は、正方形コーディングブロックを示す。表1による4つの等しいサイズの変換ブロックへの第1のレベルの分割が、矢印によって示されたコーディング順序と共に1504に示されている。表1によるすべての第1のレベルの等しいサイズのブロックの16個の等しいサイズの変換ブロックへの第2のレベルの分割が、矢印によって示されたコーディング順序と共に1506に示されている。
いくつかの例示的な実装形態では、インターコーディングされたブロックのルマ成分に対して、イントラコーディングに対する上記の制限が適用されない場合がある。例えば、第1のレベルの変換分割の後に、サブ変換ブロックのいずれか1つが、もう1つのレベルでさらに独立して分割され得る。したがって、結果として得られた変換ブロックは、同じサイズのブロックであっても、なくてもよい。インターコーディングされたブロックのそれらのコーディング順序による変換ロックへの例示的な分割が、図16に示されている。図16の例では、インターコーディングされたブロック1602は、表1に従って2つのレベルで変換ブロックに分割される。第1のレベルで、インターコーディングされたブロックは、等しいサイズの4つの変換ブロックに分割される。次いで、4つの変換ブロックのうちの(それらのすべてではない)1つのみが4つのサブ変換ブロックにさらに分割され、1604によって示すように、2つの異なるサイズを有する合計7つの変換ブロックがもたらされる。これらの7つの変換ブロックの例示的なコーディング順序が、図16の1604に矢印によって示されている。
いくつかの例示的な実装形態では、クロマ成分の場合、変換ブロックに対する何らかのさらなる制限が適用されてもよい。例えば、クロマ成分の場合、変換ブロックサイズは、コーディングブロックサイズと同じ大きさであり得るが、事前定義されたサイズ、例えば、8×8よりも小さくすることはできない。
いくつかの他の例示的な実装形態では、幅(W)または高さ(H)のいずれかが64よりも大きいコーディングブロックの場合、ルマコーディングブロックとクロマコーディングブロックの両方は、それぞれ、min(W,64)×min(H,64)およびmin(W,32)×min(H,32)の倍数の変換ユニットに暗黙的に分割されてもよい。ここで、本開示では、「min(a,b)」は、aとbとの間で小さい方の値を返すことができる。
図17は、コーディングブロックまたは予測ブロックを変換ブロックに分割するための別の代替の例示的な方式をさらに示す。図17に示すように、再帰変換分割を使用する代わりに、コーディングブロックの変換タイプに従って、事前定義された分割タイプのセットがコーディングブロックに適用されてもよい。図17に示す特定の例では、6つの例示的な分割タイプのうちの1つが、コーディングブロックを様々な数の変換ブロックに分割するために適用されてもよい。変換ブロック分割を生成するそのような方式は、コーディングブロックまたは予測ブロックのいずれかに適用されてもよい。
より詳細には、図17の分割方式は、任意の所与の変換タイプ(変換タイプは、例えば、ADSTなどのプライマリ変換のタイプを指す)に対して最大6つの例示的な分割タイプを提供する。この方式では、すべてのコーディングブロックまたは予測ブロックは、例えば、レート歪みコストに基づいて変換分割タイプが割り当てられてもよい。一例では、コーディングブロックまたは予測ブロックに割り当てられる変換分割タイプは、コーディングブロックまたは予測ブロックの変換タイプに基づいて決定されてもよい。図17に例示された6つの変換分割タイプによって示すように、特定の変換分割タイプが、変換ブロックの分割サイズおよびパターンに対応し得る。様々な変換タイプと様々な変換分割タイプとの間の対応関係が、事前定義されてもよい。一例が以下に示されており、大文字のラベルは、レート歪みコストに基づいてコーディングブロックまたは予測ブロックに割り当てられ得る変換分割タイプを示している。
・PARTITION_NONE:ブロックサイズに等しい変換サイズを割り当てる。
・PARTITION_SPLIT:ブロックサイズの1/2の幅およびブロックサイズの1/2の高さの変換サイズを割り当てる。
・PARTITION_HORZ:ブロックサイズと同じ幅およびブロックサイズの1/2の高さの変換サイズを割り当てる。
・PARTITION_VERT:ブロックサイズの1/2の幅およびブロックサイズと同じ高さの変換サイズを割り当てる。
・PARTITION_HORZ4:ブロックサイズと同じ幅およびブロックサイズの1/4の高さの変換サイズを割り当てる。
・PARTITION_VERT4:ブロックサイズの1/4の幅およびブロックサイズと同じ高さの変換サイズを割り当てる。
上記の例では、図17に示す変換分割タイプは、分割された変換ブロックについての均一な変換サイズをすべて含む。これは限定ではなく単なる例である。いくつかの他の実装形態では、特定の分割タイプ(またはパターン)における分割された変換ブロックに混合変換ブロックサイズが使用されてもよい。
画素形式で上記の分割方式のいずれかから取得されたPB(または、予測ブロックにさらに分割されていないときは、PBとも呼ばれるCB)は、イントラ予測またはインター予測のいずれかを介してコーディングされる個々のブロックになり得る。現在のPBのインター予測のために、予測子ブロックは、対応する動きベクトルに関連付けられた1つまたは複数の参照フレーム内の再構築されたブロックから生成され得る。現在のPBのイントラ予測のために、予測子ブロックの画素値は、現在のPBの近傍ビデオサンプルの再構築されたバージョンに基づいて、代わりに生成されてもよい。インター予測またはイントラ予測のいずれかの状況では、現在のPBと予測子ブロックとの間の残差は、エンコーディングプロセス中に取得され、コーディングされる。次いで、残差ブロックは、そのまま変換されるか、またはエンコーディングプロセス中に、小さいTB単位で周波数空間に変換されてもよい。次いで、変換係数は、量子化され、エントロピーコーディングされ得る。その後、コーディングされた変換係数は、コーディングされたビットストリームに含まれ得る。デコーダまたはエンコーダにおける現在のブロックの再構築は、それに対応して、残差をデコーディングし、デコーディングされた残差および再構築された予測子ブロックを組み合わせることに基づく。エンコーダにおける再構築プロセスのために、上述したように、現在のブロックの量子化残差は、エントロピーコーディングおよびデコーディングを経る必要なく、再構築されるように向けられる。
イントラ予測のために、様々な例示的なモードが、特定の実装形態においてサポートされ得る。例えば、近傍サンプルに基づくイントラ予測は、指向性であっても、または無指向性であってもよい。指向性イントラ予測モードの例は、上記の図1Aおよび図1Bに関連して説明した。例えば、現在のPBの各画素は、前のセル方向に沿った現在のPBの直近の上側の行または直近の左側の行のいずれかの再構築サンプルによって予測されてもよい。いくつかの他の実装形態では、指向性イントラ予測モードはまた、現在のPBの直近の上側のサンプルおよび直近の左側のサンプルを超える近傍サンプルを含んでもよい。特定の例では、特定の方向に沿った現在のブロックの第2または第3の上側または左側の近傍するラインのうちの1つまたは複数からのサンプルは、現在のコーディングブロックの各画素を予測し、対応するイントラ予測子ブロックを形成するために使用されてもよい。
無指向性イントラ予測は、勾配、サンプルの空間補正、ならびに輝度および/または色差平面のコヒーレンスを考慮して、様々な例示的な形態で実施されてもよい。例えば、無指向性イントラ予測モードは、DC、Paeth、Smooth、Smooth Vertical、Smooth Horizontal、Recursive-based-filtering(モード0~4)、およびChroma-from-luma(CfL)予測モードを含み得るが、これらに限定されない。いくつかの例示的な実装形態では、無指向性イントラ予測は、特定のタイプの画像に対して特に呼び出されてもよく、特に効率的なモードをさらに含んでもよい。例えば、(一般的な動きコンテンツではなく)画面コンテンツの場合、イントラブロックコピー(IBC)モードおよびパレットモードが呼び出されてもよい。BCモードは、特に、現在のフレーム内のパターン(テキストパターンなど)を繰り返すために達成され得るコーディング利得を利用する。BCモードは、例えば、動きベクトルベースのインター予測と同様のメカニズムを使用してイントラ予測を実施してもよい。一方、パレットイントラ予測モード(簡略化のために「パレットモード」とも呼ばれる)は、画面コンテンツのいくつかのコーディングブロックにおいて比較的小さい画素値の結果として達成され得るコーディング利得を利用する。
したがって、特に、パレットイントラ予測モードは、限られた数の画素値(または色値)を使用して現在のPBの予測子ブロックを生成するために呼び出され得る。例えば、PB内の画素の各々は、パレット内のエントリのセットのうちの1つによって予測されてもよい。パレットは、限られた数の画素値を含み得る。これらの値は、パレット内でインデックス付けされてもよく、PBの各画素は、画素の予測としてパレット内のインデックスを参照してもよい。パレット内の値もしくはエントリの数、またはパレットのサイズが制限されるため、インデックスは、少数のビットによって表される。したがって、パレットモードにおける各画素の予測は、コーディングするために全範囲画素値よりも少ないビット数を要する。
例えば、パレットのサイズは、8に制限されてもよい。したがって、パレットへのインデックスは、3ビットでコーディングされ得る。したがって、現在のPBの画素ごとの予測は、フルカラー深度(例えば、8ビット)ではなく3ビットをとる。パレットイントラ予測モードのビット単位の費用またはコストは、予測子ブロックと、ビットストリームでパレットを送信する際のオーバーヘッドとの両方を含む。パレットサイズが特定のサイズに制限されている限り、ブロックサイズが大きいほどコストが低下する。したがって、パレットモードは、大きいブロックサイズの大きいPBに対して有意なコーディング利得を提供し得るが、コーディング効率の観点からのその利益は、小さいブロックサイズのPBに対して減少し得る。したがって、いくつかの例示的な実装形態では、パレットモードは、閾値ブロックサイズよりも小さいサイズのPBに対して許可されない場合がある。例えば、パレットモードは、8×8のしきい値ブロックサイズ以上のブロックサイズを有するPBに対してのみ許可され得る。
パレットモードのいくつかの例示的な実装形態では、パレット予測モードの下でイントラコーディングされるPBは、小さい変換ブロックにさらに分割することが許可されない場合がある。言い換えれば、パレットモードにおけるイントラ予測は、変換ブロック(変換ブロックにさらに分割されるべきではないため、予測ブロックでもある)に対してのみ実施され得る。したがって、大きい変換ブロックを回避するために、いくつかの例示的な実装形態ではPBサイズの上限も指定され得る。例えば、パレットモードは、コーディングブロックの幅と高さの両方が閾値、例えば64以下であるときにのみ適用され得る。
パレットモードは、コーディングブロックのルマおよびクロマに別々に適用され得る。いくつかの例示的な実装形態では、パレットモードを適用するか否かは、ルマとクロマとの間で独立して決定されてもよい。したがって、ルマ予測ブロックとクロマ予測ブロックの両方からなる予測ユニットの場合、パレットモードを適用するか否かの決定は、ルマ予測ブロックとクロマ予測ブロックとに対して独立して行われ得る。例えば、ルマチャネルの場合、パレット内の各エントリは、スカラ値であり得るが、クロマチャネルの場合、口蓋内の各エントリは2次元タプルであり得る。いくつかの他の例示的な実装形態では、ルマ平面およびクロマ平面にパレットモードを適用するか否かは、それらがパレットモードの下ですべて予測されるか、またはそれらのいずれも予測されないかのいずれかで結び付けられる。パレットモードで使用されるパレットは、代替的に色パレットと呼ばれる場合がある。色という用語は、ルマ、またはクロマの1つを表し得る。
上述したように、色パレット予測子の使用は、ブロックを少数の固有色(または色値)で近似し得るときに有益であり、これにより、サイズの小さい色パレットを構築して効率的な予測を提供し得る。上述または暗示されたように、現在のイントラコーディングブロックを予測するためのパレットモードでは、エンコーダによって生成されたビットストリーム構造は、例えば、現在のコーディングブロックの予測ブロックとしての色パレット内の色のインデックスで満たされた2D配列の形式で、色パレットを表す配列および構造マップを含み得る。いくつかの実装形態では、色パレットのサイズは、2~8(1~3ビットのカラーインデックスに対応)に制限され得る。エンコーダは、結果として生じるレート歪みコストを最適化し、コーディング利得を最大化するために、異なるサイズのパレット、およびパレット内の異なる色値を探索し得る。
いくつかの例示的な実装形態では、そのようなパレットモードは、現在のPBがDC予測モード下でイントラコーディングされるべきであるときに、現在のPBをコーディングするために利用可能であり得る。言い換えれば、シグナリングの観点から、パレットイントラ予測モードは、DCイントラ予測モードの配下のサブモードと見なしてもよい。したがって、現在のブロックがパレットモード下で潜在的に予測されるか否かは、DCイントラ予測のためのビットストリームシンタックス要素(例えば、DCイントラ予測フラグ)によって最初に示され得る。「0」(あるいは、「1」)のDCイントラ予測フラグは、現在のコーディングブロックが、DC予測も、色パレットに基づいた予測もされないことを示し、「1」(あるいは、「0」)のDCイントラ予測フラグは、現在のコーディングブロックが、DC予測されるか、または色パレットに基づいて予測されるかのいずれかであることを示し得る。後者の状況では、現在のブロックが、DC予測されるか、色パレットによって予測されるかを示すために、追加のシンタックス要素またはフラグが、ビットストリームに含まれ得る。そのような追加のシンタックス要素またはフラグは、後者の状況では存在しなくてもよい。いくつかの他の代替的な実装形態では、現在のブロックがパレットモード下で予測されるか否かをシグナリングするために、DC予測モードフラグとは独立したおよび/または並列なフラットが使用されてもよい。
現在のブロックがパレットモード下で予測されるとき、使用されている色パレット(例えば、パレットサイズおよびパレットエントリ)と関連付けられた追加情報が明示的に含まれてもよく、あるいはビットストリームから導出可能であってもよい。いくつかの状況では、現在のコーディングブロックに使用されている色パレットは、自己完結型であり、ビットストリーム内の他の以前のコーディングブロックから独立していてもよい。いくつかの他の状況では、現在のコーディングブロックおよびこれらの近傍ブロックが、同一の色画素値分布を有し得、したがってそれらの色パレット内の1つまたは複数のエントリを共有し得るので、現コーディングブロックに使用されているパレットは、特に現コーディングブロックがパレットイントラコーディングモード下で予測される以前のコーディングブロックと高度に相関する状況では、他の以前のコーディングブロックに依存する場合がある。そのような状況では、現在のコーディングブロックの色パレットの一部または全体は、近傍ブロックパレットのエントリのパレットエントリを含む場合がある。近傍ブロックパレットは、参照パレットと呼ばれる場合がある。近傍ブロックパレットは、現在のコーディングブロックの再構築のためのエンコーディングおよびデコーディングプロセス中に利用可能であり、キャッシュ内に維持され得るので、キャッシュ/キャッシュされたパレット、または単一の集合的なキャッシュ/キャッシュされたパレットとも呼ばれる場合がある。キャッシュされたパレットに基づく現在のコーディングブロックの色パレットの一部または全体は、現在の色パレットの継承部分と呼ばれる場合がある。したがって、色パレットのこの継承部分のコーディングは、近傍するパレットに基づき得る。
コーディング利得は、近傍パレットに基づいて色パレットの継承部分をコーディングするときに達成され得る。もしあれば、継承部分以外の現在のコーディングブロックの残りのパレットエントリは、ビットストリーム内で明示的にシグナリングされ得る。現在の色パレットの継承部分のサイズ(すなわち、現在の色パレットの固有の部分におけるエントリの数)は、導出されても、明示的にシグナリングされてもよい。
このように、いくつかの例示的な実装形態では、パレットモードが有効になっているときにビットストリーム内で上記の色パレット情報を提供するために、(1)パレットモードが現在のコーディングブロックに適用されるべきか否かを示す、has_palette_yと呼ばれる第1のフラグ(上述したように、例えば、DCモードフラグがシグナリングされ、適用された後で)と、(2)パレットサイズを指定する、palette_size_y_minus_2と呼ばれるシンタックス要素と、(3)少なくとも1つの色インデックスが近傍パレットから継承されるか否かを示す、use_palette_color_cache_yと呼ばれる第2のフラグであって、エンコーディングまたはデコーディングプロセス中にパレットキャッシュ内に編成され維持され得る、第2のフラグと、を含むがこれに限定されないいくつかのシンタックス要素をシグナリングし得る。継承されたパレットエントリの数がシグナリングされたパレットサイズ未満である場合、残りの色インデックスは明示的にシグナリングされ得る。いくつかの例示的な実装形態では、2つのクロマ色成分は、has_palette_uvおよびpalette_size_uv_minus_2シンタックス要素(2つのクロマ成分の両方が、継承されたパレットエントリを含むか含まないかのいずれかであり、継承されたパレットエントリを使用するとき、同じ数の継承されたパレットエントリを含むことを意味する)を共有し得るが、現在のクロマブロックの予測に使用されるパレット内の色インデックスは、CbおよびCr成分のために別々にシグナリングされ得る。3色成分のシグナリングパレットのためのこれらの例示的なシンタックスを以下に示す。
上記の例示的なシンタックステーブルでは、関数get_palette_cache()が呼び出され、それは、パレットキャッシュのサイズを返し、近傍ブロックの色パレットからパレットキャッシュを構築する。上述したように、パレットキャッシュは、近傍するブロックによって使用されるパレットから導出または維持されるパレットを指す。近傍する色パレットの一意のエントリの数を表し、現在のコーディングブロックの継承されたパレットエントリの一部のサイズに関連するパレットキャッシュのサイズを取得するために、近傍ブロックのパレットは、それらのエントリが重複排除された状態で取り出される必要がある。したがって、この機能は、例えば、上側および左側のブロックから利用可能なパレット色をソートし、次いで重複エントリを除去することと同等であり得る。加えて、現在のブロックのパレットエントリが、すべて決定および/または構文解析された後、それらは、近傍するパレットエントリが昇順に配置されると仮定していくつかの計算が行われるため、昇順にソートされ、後のブロックのためのget_palette_cache()で実施される計算を容易にするためにキャッシュされる必要がある。
get_palette_cache()関数の例を以下に詳述する。この例は、get_palette_cache()関数が、重複のない昇順ですべての近傍パレットエントリを含むパレットキャッシュを生成するための複雑な計算を含み得ることを示している。このプロセスは、上側および左側の近傍ブロックなどの近傍ブロックからのパレットエントリをマージすると見なされる場合がある。
get_palette_cache(plane){Type
aboveN=0
if((MiRow*MI_SIZE)%64){
aboveN=PaletteSizes[plane][MiRow-1][MiCol]

leftN=0
if(AvailL){
leftN=PaletteSizes[plane][MiRow][MiCol-1]

aboveIdx=0
leftIdx=0
n=0
while(aboveIdx<aboveN&&leftIdx<leftN){
aboveC=PaletteColors[plane][MiRow-1][MiCol][aboveIdx]
leftC=PaletteColors[plane][MiRow][MiCol-1][leftIdx]
if(leftC<aboveC){
if(n==0||leftC!=PaletteCache[n-1]){
PaletteCache[n]=leftC
n++

leftIdx++
}else{
if(n==0||aboveC!=PaletteCache[n-1]){
PaletteCache[n]=aboveC
n++

aboveIdx++
if(leftC==aboveC){
leftIdx++



while(aboveIdx<aboveN){
val=PaletteColors[plane][MiRow-1][MiCol][aboveIdx]
aboveIdx++
if(n==0||val!=PaletteCache[n-1]){
PaletteCache[n]=val
n++


while(leftIdx<leftN){
val=PaletteColors[plane][MiRow][MiCol-1][leftIdx]
leftIdx++
if(n==0||val!=PaletteCache[n-1]){
PaletteCache[n]=val
n++


return n
現在のコーディングブロックの色パレットが確立されると(継承されたパレットエントリおよび近傍パレットで使用されない明示的にシグナリングされたパレットエントリを含む)、それは、現在のコーディングブロックを予測するための基礎として使用され得る。パレットモード下で予測されたコーディングブロック内の画素ごとに、選択されたパレットインデックスは、図18に示すように、例えば対角走査順序でシグナリングされ、コーディングされ得る。図18の様々な陰影は、様々なパレットインデックス(またはパレット値)に対応する。走査は、左上から始まり右下で終わる対角方向に進み得る。コーディングブロックの対角線に沿ったすべてのパレットインデックスが選択されて、コーディングされた後、走査は次の対角線の右上のサンプルに移動する。いくつかの例示的な実装形態では、現在のパレットコーディングブロックの第1のインデックスは、color_index_map_yと呼ばれる別個のシンタックス要素を使用して最初にコーディングされてもよく、残りのインデックスは、例えば、エントロピーコーディングのためのコンテキストとしてそれらの上側、左側、および左上の近傍インデックスを使用してコーディングされてもよい。パレットモード予測子ブロックのパレットインデックスをシグナリングするための関連シンタックスを以下に示す。
したがって、上記の例示的な実装形態では、デコーダの観点から、get_palett_cache()関数またはその同等物が、呼び出され、パレットキャッシュのサイズを決定するために実行される必要があり得る。パレットキャッシュのサイズは、現在のコーディングブロックに関する色パレットの継承部分のサイズも表し得るcacheNと呼ばれる場合がある。パレットモードでのget_palett_cache()関数の実行は、パレットキャッシュ内の近傍ブロックのパレットエントリを構文解析し、再構築するための複雑な計算を含み得る。cacheNがなければ、現在のコーディングブロックのパレットモードパラメータの構文解析を進めることができない。
ビデオブロックのデコーディングプロセスは、一般に、複数の態様を含む。第1の態様では、デコーディングプロセスは、様々なシンタックス要素データ要素を抽出するために、ビットストリームを構文解析しなければならない。第2の態様では、デコーディングプロセスは、コーディングされた情報を抽出し、コーディングされた情報、およびビットストリームから抽出された様々なシンタックス要素に基づいて、エンコーディングされたビデオブロックを再構築し得る。パレットイントラ予測モードでエンコーディングされた現在のコーディングブロックをデコーディングするプロセスでは、現在のコーディングブロックの色パレットの他のパラメータを取得するために、パラメータcacheNは、ビットストリームの構文解析を進めるために、最初に取得される必要がある。
上記の実装形態によれば、get_palette_cache()関数は、ビットストリームの構文解析と、近傍コーディングブロックの再構築との両方を含むため(近傍ブロックのパレットエントリを実際に決定し、重複するパレットエントリを識別することによってこれらのエントリをマージする必要があるため)、現在のコーディングブロックの構文解析は、近傍コーディングブロックの構文解析プロセスを待つ必要があるだけでなく、近傍コーディングブロックの再構築プロセスの少なくとも一部が完了するまで待つ必要もある。
いくつかの状況では、ならびに、デコーディングプロセス中の並列処理および現在のコーディングブロックの再構築速度を改善するために、近傍ブロックの再構築プロセスの完了を待つことなく(例えば、近傍するブロックパレットエントリを処理してマージする前に)、ビットストリーム内の現在のコーディングブロックの構文解析プロセスは、近傍ブロックが構文解析されるとすぐに開始することが望ましい場合がある。
そのような目的のために、また本開示のいくつかの他の例示的な実装形態では、パレットモードにおけるエンコーディングおよびデコーディング方式は、近傍コーディングブロックの構文解析ステップを超えてキャッシュされたパレットcacheNのサイズを決定することに関連する複雑さが低減または回避され得るように設計され得る。例えば、パラメータcacheNは、近傍ブロックのパレットエントリのマージプロセスを実施する必要なく決定されてもよい。したがって、デコーダは、近傍コーディングブロックが構文解析されるとすぐに、ビットストリームから現在のコーディングブロックのパレットモードに関連する情報の構文解析を開始し得る。したがって、ビットストリームからの現在のコーディングブロックの構文解析は、近傍コーディングブロックのさらなる再構築と並列に実施され得る。現在のコーディングブロック情報がビットストリームから構文解析されると、現在のコーディングブロックの再構築に必要とされ得る近傍コーディングブロックに関連付けられた他の情報は、近傍コーディングブロックの並列再構築プロセスから利用可能になり得る。
いくつかの例示的な実装形態では、現在のコーディングブロックに関する色パレットの継承部分のサイズであるcachNの導出は、コンテンツ(またはパレットエントリ値)ではなく、現在のコーディングブロックの近傍ブロックのパレットサイズに基づいてもよい。例えば、現在のコーディングブロックの2つの近傍ブロック(直近の上側および左側の近傍ブロックなど)を使用して、cacheNパラメータを導出してもよい。上側および左側の近傍ブロックのパレットサイズは、paletteA(上)、およびpaletteL(左)として表され得る。そのようなパレットサイズパラメータは、近傍ブロックの構文解析プロセス中に取得されてもよく、または近傍ブロックのビットストリーム内で明示的にシグナリングされてもよい(したがって、ビットストリーム構文解析のみによって抽出され得る)。次に、これらの近傍ブロックの両方のパレットエントリを知らずに、現在のコーディングブロックを構文解析する前に、cacheNは、paletteAおよび/またはパレットの関数として導出され得る。このようにして、パレットパラメータの構文解析は、近傍ブロックパレットエントリが抽出され、マージされ、重複排除されるまで待つ必要なく、開始し得る。cacheNと、paletteAと、パレットBとの間の関数関係の例は、
Max(paletteA,paletteL)+N(Nは、整数であり、Nの値の例は、限定しないが、0、1、2、3、4、5、6、7、8、...が含まれる)、
Min(paletteA,paletteL)+N(Nは、整数であり、Nの値の例は、限定しないが、0、1、2、3、4、5、6、7、8、...が含まれる)、
Min(Max(paletteA,paletteL)+N、T)(Nは、整数であり、Nの値の例は、限定しないが、0、1、2、3、4、5、6、7、8、...が含まれ、Tは、1つのブロックで許容されるパレットの所与の最大数である)、または、
Min(Min(paletteA,paletteL)+N、T)(Nは整数であり、Nの値の例は、限定しないが、0、1、2、3、4、5、6、7、8、...が含まれ、Tは、1つのブロックで許容されるパレットの所与の最大数である)、
を含んでもよいが、これらに限定されない。
色パレットの最大許容サイズを表すTの値は、継承部分と非継承部分との両方を含む色パレット全体のサイズに適用されてもよい。
いくつかの他の例示的な実装形態において、cacheNの値は、固定サイズとして導出されてもよい。固定サイズの例には、0、1、2、3、4、5、6、7、8、....が含むが、これらに限定されない。このような固定cacheNは、予め決定されてもよい。あるいは、cacheNの値は、ビットストリームでシグナリングされてもよい。例えば、cacheNの値は、限定しないが、シーケンスパラメータセット(SPS)、ビデオパラメータセット(VPS)、ピクチャパラメータセット(PPS)、適応パラメータセット(APS)、フレームヘッダ、スライスヘッダ、ピクチャヘッダ、タイルヘッダ、またはコーディングツリーユニット(CTU)ヘッダの一部としてシグナリングされることを含む、高レベルシンタックスでシグナリングされてもよい。
いくつかの例示的な実装形態では、cacheNの値は、現在のコーディングブロックの、または近傍ブロックのブロックサイズ、予測モードなどを含むがこれらに限定されない、いくつかのすでにコーディングされた情報によって導出されてもよい。例えば、(大きい色パレットサイズでもコーディング効率の改善が達成され得るように)大きいcacheN値が、大きい現在のコーディングブロックサイズおよび/または近傍ブロックに関するより大きいブロックサイズに対して導出されてもよく、別の例では、近傍ブロックがイントラブロックコピーモードでコーディングされる場合、小さいcacheNが使用されてもよい。
いくつかの例示的な実装形態では、cacheNのサイズは、近傍ブロック内の反復パレットエントリの数によって導出され得る。具体的には、近傍ブロック内の同じ反復パレットエントリが現在のコーディングブロックに頻繁に現れる可能性があり、現在のコーディングブロックの色パレット内のこれらのエントリを継承するだけで、最も高いコーディング利得を達成する可能性がある。このように、継承された特許のサイズであるcacheNは、近傍ブロック内の反復パレットエントリの数として設定され得る。近傍ブロックは、直近の上側および左側のブロックを含み得る。いくつかの例示的な実装形態では、近傍ブロックは、他の非直近の上側/左側のブロックに拡張されてもよい。例えば、近傍ブロックの中の反復パレットエントリの数は、ビットストリーム内でシグナリングされてもよく、したがって、構文解析によってのみ取得されてもよい。
例えば、2つの近傍ブロック(例えば、直近の上側のブロックおよび左側のブロック)がキャッシュされたパレットを導出するために使用されるとき、2つの近傍ブロックの両方で使用されるパレットエントリの数が、cacheNの値を導出するために使用されてもよい。言い換えれば、2つの近傍ブロックの両方で使用されるパレットエントリの数は、cacheNとして使用されてもよい。
別のさらに一般的な例では、M(Mは整数)個の近傍ブロックが、キャッシュされたパレットを導出するために使用されるとき、少なくともK個の近傍ブロックで使用されるパレットエントリの数が、cacheNの値を導出するために使用される。Kの値の例には、1、2、3、4、5、...、Mが含まれるが、これらに限定されない。例えば、上記のように、Mは、2であってもよく、Kは、2であってもよい。別の例では、Mは、3以上であってもよく、Kは、1~Mまでの任意の数であってもよい。
上記の実装形態のいずれにおいても、3つ以上の近傍ブロックを使用して、cachNパラメータを導出し得る。近傍するロックのいくつかは、例えば、現在のコーディングブロックの非直近(または非隣接)の近傍ブロックを含み得る。現在のコーディングブロックの色パレットの継承部分を決定するために、複数の近傍ブロックに依拠すべきであるとき、上述のM個の近傍ブロックは、パレットモードでエンコーディングされたM個の近傍ブロックに遭遇するまで、現在のコーディングブロックのすべての近傍ブロックを走査することによって識別され得る(すべての近隣ブロックがパレットモードでエンコーディングされるわけではないことに留意されたい、なぜなら、それらは他のイントラ予測モードまたはインター予測モードでもエンコーディングされ得るからである)。走査の順序は事前定義されてもよい。
上記の方法に基づいて、近傍ブロックからの色パレットのパレットエントリがマージされて、重複排除された後、実際のパレットサイズを知らずに、現在のブロックの変数cacheNは導出され、遅延なしに現在のコーディングブロックのパレットおよび他の情報の構文解析を可能にする。近傍ボックパレットエントリのそのようなマージおよび重複排除後のパレットキャッシュの実際のサイズは、導出cacheNとは異なり得る。これが起こると、エンコーダおよびデコーダが、マージされて重複排除されたパレットキャッシュからパレットエントリを選択して、現在のコーディングブロックのための色パレットの継承部分としてパレットエントリのcacheNの数を形成するために、ルールのセットが実装され得る。
いくつかの例示的な実装形態では、Sと呼ばれるパレットキャッシュ内のマージされたパレットエントリのサイズがcacheNより大きい場合、パレットキャッシュからパレットエントリを選択するために以下のルールを使用してもよい。
例えば、第1のcacheN個のエントリは、パレットキャッシュから選択されてもよい。そのような選択は、近傍パレットエントリのマージリスト内の所定の走査順序に従って実施され得る。そのような実装形態では、マージリストまたはパレットキャッシュにおいて、近傍パレットのパレットエントリはまた、所定の方法で順序付けられ得る。
別の例では、最後のcacheNエントリが、パレットキャッシュから選択されてもよい。そのような選択は、近傍パレットエントリのマージリスト内の所定の走査順序に従って実施され得る。そのような実装形態では、マージリストまたはパレットキャッシュにおいて、近傍パレットのパレットエントリはまた、所定の方法で順序付けられ得る。
別の例では、両方の近傍ブロック(例えば、左上の近傍ブロック、または他の近傍ブロック)からの重複パレットエントリが、最初にマージリストから選択されるべきである。エントリの走査は、左から右へ、であっても、または現在のコーディングブロックのためのパレットの継承部分に関する重複パレットエントリを選択するために、マージされたパレットエントリリストからの任意の他の所定の走査順序であってもよい。これに対応して、重複エントリは、左から右に、マージされたエントリリストに配置され得る。そのような走査は、特に重複エントリの数がcacheNよりも大きいとき、現在のコーディングブロックのためのパレットの継承部分にどの重複エントリが含まれるかを決定する。その後、現在のブロックのための色パレットの継承部分に関するエントリのcacheN数を形成するためにさらに多くのエントリが必要な場合、例えば、現在のブロックのための色パレットの継承された部分に関するエントリのcacheN数が満たされるまで、マージリスト内の最初のいくつかのエントリを選択し得る。
さらに別の例では、近傍ブロック(例えば、左上の近傍のブロック、または他の隣のブロック)からの重複エントリは、最初にマージリストから選択されるべきである。エントリの走査は、左から右へ、であっても、または現在のコーディングブロックのためのパレットの継承部分に関する重複パレットエントリを選択するために、マージされたパレットエントリリストからの任意の他の所定の走査順序であってもよい。これに対応して、重複エントリは、左から右に、マージされたエントリリストに配置され得る。そのような走査は、特に重複エントリの数がcacheNよりも大きいとき、現在のコーディングブロックのためのパレットの継承部分にどの重複エントリが含まれるかを決定する。その後、現在のブロックのための色パレットの継承部分に関するエントリのcacheN数を形成するためにさらに多くのエントリが必要な場合、例えば、現在のブロックのための色パレットの継承部分に関するエントリのcacheN数が満たされるまで、マージリストの最後のいくつかのエントリを選択し得る。
一方、いくつかの他の例示的な実装形態では、マージされたパレットエントリのサイズSがcacheNよりも小さい場合、パレットキャッシュ内のパレットエントリが現在のコーディングブロックのための色パレットの継承部分におけるエントリのcacheN数を充填するために十分ではなく、追加のパレットエントリが必要であることを示し、そのような追加のパレットエントリを選択するために、以下のルールが使用されてもよい。
例えば、必要とされる追加エントリごとに、色画素オフセット値が決定され、パレットキャッシュ内の既存エントリの1つ(または現在のコーディングブロックのための色パレットの継承部分)に追加されてもよい。オフセット値は、正または負のいずれであってもよい。選択した既存のパレットエントリは、例えば、(1)マージリスト内の最大エントリ、(2)マージリスト内の最小エントリ、または(3)マージリスト内の最も頻繁に使用されるエントリであってもよい。異なる追加されたエントリのオフセット値は、同じであっても、異なってもよい。オフセット値は、例えば、パレットキャッシュ内、または現在のコーディングブロックのための色パレットの継承部分内で、既存のパレットエントリから外挿されても、または補間されてもよい。
別の例では、所定のパレットエントリ値のセットが、現在のコーディングブロックのための色パレットの追加のパレットエントリとして使用されてもよい。これらの事前定義されたパレットエントリ値は、シーケンス、ピクチャ、フレーム、スライス、スーパーブロック、および他のレベルなどの高レベルシンタックスとしてビットストリームでシグナリングされ得る。最大cachN個のエントリである、現在のコーディングブロックのための色パレットの継承部分を充填するために使用される値のcacheN-Sは、シグナリングされるように、または他の方法で指定されるように、第1の所定のエントリから始まって所定のパレットエントリのセットの順序で必要に応じて取得され得る。
図19は、パレットモードでのイントラ予測のために、上記の実装形態の基礎となる原理に従う例示的な方法のフローチャート1900を示している。例示的なデコーディング方法のフローはS1901で開始する。S1910では、ビデオストリームから、少なくとも1つの近傍ビデオブロックに対応する少なくとも1つの参照パレットに基づいて、現在のビデオブロックがコーディングされていると決定される。S1920では、少なくとも1つの参照パレットの任意のマージを実施する前に、現在のビデオブロックに関連付けられた現在のパレットの継承部分のサイズcacheNが決定され、cacheNは、整数である。S1930では、現在のパレットの継承部分は、cacheNおよび少なくとも1つの参照パレットに基づいて導出される。S1940では、現在のビデオブロックの要素について現在のパレットへのパレットインデックスが、ビデオストリームから抽出される。S1950では、現在のビデオブロックの予測子ブロックは、少なくともパレットインデックスおよび現在のパレットに基づいて生成される。例示的な方法は、S1999で停止する。
本開示の実施形態および実装形態では、所望により、任意のステップおよび/または動作は、任意の量または順序で組み合わされるか、または配置されてもよい。ステップおよび/または動作のうちの2つ以上が、並列に実施されてもよい。本開示の実施形態および実装形態は、別々に使用されてもよく、任意の順序で組み合わされてもよい。さらに、方法(または実施形態)の各々、エンコーダ、およびデコーダは、処理回路(例えば、1つもしくは複数のプロセッサ、または1つもしくは複数の集積回路)によって実装されてもよい。一例では、1つまたは複数のプロセッサは、非一時的コンピュータ可読媒体に記憶されたプログラムを実行する。本開示の実施形態は、ルマブロックまたはクロマブロックに適用されてもよい。ブロックという用語は、予測ブロック、コーディングブロック、またはコーディングユニット、すなわちCUとして解釈されてもよい。ここでのブロックという用語はまた、変換ブロックを指すために使用されてもよい。以下の項目では、ブロックサイズと言うとき、それは、ブロックの幅もしくは高さ、または幅および高さの最大値、または幅および高さの最小値、またはエリアのサイズ(幅*高さ)、またはブロックのアスペクト比(幅:高さ、もしくは高さ:幅)のいずれかを指すことができる。
上述された技法は、コンピュータ可読命令を使用するコンピュータソフトウェアとして実装され、1つまたは複数のコンピュータ可読媒体に物理的に記憶することができる。例えば、図20は、開示の主題の特定の実施形態の実装に適したコンピュータシステム(2000)を示している。
コンピュータソフトウェアは、1つまたは複数のコンピュータ中央処理装置(CPU)、グラフィック処理装置(GPU)などによって直接的に、または解釈、マイクロコードの実行などを通して実行され得る命令を含むコードを作成するために、アセンブリ、コンパイル、リンキング、または同様のメカニズムを受け得る任意の適切なマシンコードまたはコンピュータ言語を使用してコーディングされ得る。
命令は、例えば、パーソナルコンピュータ、タブレットコンピュータ、サーバ、スマートフォン、ゲームデバイス、モノのインターネットデバイスなどを含む様々なタイプのコンピュータまたはコンピュータの構成要素上で実行され得る。
コンピュータシステム(2000)について図20に示す構成要素は、本質的に例示的なものであり、本開示の実施形態を実装するコンピュータソフトウェアの使用または機能の範囲に関する限定を示唆することを意図するものではない。構成要素の構成は、コンピュータシステム(2000)の例示的な実施形態に示されている構成要素のいずれか1つまたは組合せに関する依存関係または要件を有すると解釈されるべきではない。
コンピュータシステム(2000)は、特定のヒューマンインターフェース入力デバイスを含み得る。そのようなヒューマンインターフェース入力デバイスは、例えば、触覚入力(例えば、キーストローク、スワイプ、データグローブの動き)、オーディオ入力(例えば、声、拍手)、視覚入力(例えば、ジェスチャ)、嗅覚入力(図示せず)を介した、1人以上の人間のユーザによる入力に応答し得る。ヒューマンインターフェースデバイスは、オーディオ(音声、音楽、環境音など)、画像(走査画像、写真画像は静止画像カメラから取得など)、ビデオ(2次元ビデオ、立体ビデオを含む3次元ビデオなど)など、必ずしも人間による意識的な入力に直接関連しない特定の媒体を取り込むために使用されてもよい。
入力ヒューマンインターフェースデバイスは、キーボード(2001)、マウス(2002)、トラックパッド(2003)、タッチスクリーン(2010)、データグローブ(図示せず)、ジョイスティック(2005)、マイクロフォン(2006)、スキャナ(2007)、カメラ(2008)のうちの1つまたは複数(図示された各々のうちの1つのみ)を含み得る。
コンピュータシステム(2000)はまた、特定のヒューマンインターフェース出力デバイスを含み得る。そのようなヒューマンインターフェース出力デバイスは、例えば、触覚出力、音、光、および匂い/味によって1人または複数の人間ユーザの感覚を刺激し得る。そのようなヒューマンインターフェース出力デバイスは、触覚出力デバイス(例えば、タッチスクリーン(2010)、データグローブ(図示せず)、またはジョイスティック(2005)による触覚フィードバック、ただし、入力デバイスとして機能しない触覚フィードバックデバイスもあり得る)、オーディオ出力デバイス(例えば、スピーカ(2009)、ヘッドホン(図示せず))、視覚出力デバイス(例えば、各々タッチスクリーン入力機能ありまたはなしの、各々触覚フィードバック機能ありまたはなしの、CRTスクリーン、LCDスクリーン、プラズマスクリーン、OLEDスクリーンを含むスクリーン(2010)など、それらの一部は、二次元視覚出力、または立体画像出力、仮想現実眼鏡(図示せず)、ホログラフィックディスプレイおよびスモークタンク(図示せず)などの手段による四次元以上の出力が可能であり得る)、ならびにプリンタ(図示せず)を含み得る。
コンピュータシステム(2000)はまた、人間がアクセス可能な記憶デバイスおよびそれらの関連媒体、例えば、CD/DVDなどの媒体(2021)を有するCD/DVD ROM/RW(2020)を含む光学媒体、サムドライブ(2022)、リムーバブルハードドライブまたはソリッドステートドライブ(2023)、テープやフロッピーディスクなどのレガシー磁気媒体(図示せず)、セキュリティドングルなどの専用ROM/ASIC/PLDベースのデバイス(図示せず)なども含んでもよい。
当業者はまた、本開示の主題に関連して使用される「コンピュータ可読媒体」という用語が、伝送媒体、搬送波、または他の一時的な信号を包含しないことを理解するべきである。
コンピュータシステム(2000)はまた、1つまたは複数の通信ネットワーク(2055)へのインターフェース(2054)を含んでもよい。ネットワークは、例えば、無線、有線、光とすることができる。ネットワークはさらに、ローカル、ワイドエリア、メトロポリタン、車両用および産業用、リアルタイム、遅延耐性などであり得る。ネットワークの例は、Ethernetなどのローカルエリアネットワーク、無線LAN、GSM、3G、4G、5G、LTEなどを含むセルラネットワーク、ケーブルテレビ、衛星テレビおよび地上波テレビを含むテレビの有線または無線広域デジタルネットワーク、CAN busを含む車両用および産業用などを含む。特定のネットワークは通常、特定の汎用データポートまたは周辺バス(2049)(例えば、コンピュータシステム(2000)のUSBポート)に接続された外部ネットワークインターフェースアダプタを必要とし、他のものは一般に、以下に説明するように、システムバスに接続することによってコンピュータシステム(2000)のコアに統合される(例えば、PCコンピュータシステムに対するイーサネットインターフェース、またはスマートフォンコンピュータシステムに対するセルラネットワークインターフェース)。これらのネットワークのいずれかを使用して、コンピュータシステム(2000)は他のエンティティと通信することができる。そのような通信は、例えば、ローカルまたは広域デジタルネットワークを使用する他のコンピュータシステムに対して、一方向の受信のみ(例えば、地上波放送テレビ)、一方向の送信のみ(例えば、特定のCANbusデバイスへのCANbus)、または双方向とすることができる。特定のプロトコルおよびプロトコルスタックは、上述したように、それらのネットワークおよびネットワークインターフェースの各々で使用され得る。
前述のヒューマンインターフェースデバイス、人間がアクセス可能な記憶デバイス、およびネットワークインターフェースを、コンピュータシステム(2000)のコア(2040)に取り付けることができる。
コア(2040)は、1つまたは複数の中央処理装置(CPU)(2041)、グラフィックス処理装置(GPU)(2042)、フィールドプログラマブルゲートエリア(FPGA)(2043)の形の専用プログラマブル処理装置、特定のタスク用のハードウェアアクセラレータ(2044)、グラフィックスアダプタ(2050)などを含むことができる。これらのデバイスは、読み出し専用メモリ(ROM)(2045)、ランダムアクセスメモリ(2046)、内部非ユーザアクセス可能ハードドライブ、SSDなどの内部大容量ストレージ(2047)と共に、システムバス(2048)を介して接続され得る。一部のコンピュータシステムでは、システムバス(2048)は、追加のCPU、GPUなどによる拡張を可能にするために、1つまたは複数の物理プラグの形でアクセス可能とすることができる。周辺デバイスを、コアのシステムバス(2048)に直接、または周辺バス(2049)を介して取り付けることができる。一例では、スクリーン(2010)をグラフィックスアダプタ(2050)に接続することができる。周辺バス用のアーキテクチャには、PCI、USBなどが含まれる。
CPU(2041)、GPU(2042)、FPGA(2043)、およびアクセラレータ(2044)は、組み合わさって前述のコンピュータコードを構成することができる特定の命令を実行することができる。そのコンピュータコードは、ROM(2045)またはRAM(2046)に記憶され得る。また、一時データはRAM(2046)に記憶されることもでき、永続データは、例えば内部大容量ストレージ(2047)に記憶されることができる。メモリデバイスのいずれかへの高速記憶および検索を、1つまたは複数のCPU(2041)、GPU(2042)、大容量ストレージ(2047)、ROM(2045)、RAM(2046)などと密接に関連付けることができるキャッシュメモリの使用によって可能にすることができる。
コンピュータ可読媒体は、様々なコンピュータ実装動作を実施するためのコンピュータコードを有してもよい。媒体およびコンピュータコードは、本開示の目的のために特別に設計および構築されたものであってもよく、またはコンピュータソフトウェア技術の当業者に周知で利用可能な種類のものであってもよい。
非限定的な例として、アーキテクチャを有するコンピュータシステム(2000)、特にコア(2040)は、(CPU、GPU、FPGA、アクセラレータなどを含む)(1つまたは複数の)プロセッサが、1つまたは複数の有形のコンピュータ可読媒体において具体化されたソフトウェアを実行した結果として機能を提供し得る。そのようなコンピュータ可読媒体は、上述のようなユーザアクセス可能な大容量ストレージ、ならびにコア内部大容量ストレージ(2047)やROM(2045)などの非一時的な性質のものであるコア(2040)の特定のストレージと関連付けられた媒体とすることができる。本開示の様々な実施形態を実装するソフトウェアを、そのようなデバイスに格納し、コア(2040)によって実行することができる。コンピュータ可読媒体は、特定の必要性に応じて、1つまたは複数のメモリデバイスまたはチップを含み得る。ソフトウェアは、コア(2040)、具体的にはその中の(CPU、GPU、FPGAなどを含む)プロセッサに、RAM(2046)に記憶されたデータ構造を定義すること、およびソフトウェアによって定義されたプロセスに従ってそのようなデータ構造を変更することを含む、本明細書に記載される特定のプロセスまたは特定のプロセスの特定の部分を実行させることができる。追加的に、または代替的に、コンピュータシステムは、回路(例えば、アクセラレータ(2044))にハードワイヤードまたはその他の方法で具現化されたロジックの結果として機能性を提供することができ、それは、本明細書に記載した特定のプロセスまたは特定のプロセスの特定の部分を実行するために、ソフトウェアの代わりに、またはソフトウェアと共に動作し得る。必要に応じて、ソフトウェアへの言及はロジックを包含することができ、その逆も同様である。コンピュータ可読媒体への言及は、必要に応じて、実行のためのソフトウェアを記憶する回路(集積回路(IC)など)、実行のための論理を具現化する回路、またはその両方を包含し得る。本開示は、ハードウェアとソフトウェアとの任意の適切な組合せを包含する。
本開示はいくつかの例示的な実施形態を説明してきたが、本開示の範囲内に含まれる変更形態、置換形態、および様々な代替形態の同等物がある。よって、当業者は、本明細書に明示的に図示または記載されていないが、本開示の原理を具現化する、したがって本開示の趣旨および範囲内にある多数のシステムおよび方法を考案することができることが理解されよう。
付記A:頭字語
JEM:共同探索モデル
VVC:多用途ビデオコーディング
BMS:ベンチマークセット
MV:動きベクトル
HEVC:高効率ビデオコーディング
SEI:補足拡張情報
VUI:ビデオユーザビリティ情報
GOP:ピクチャグループ
TU:変換ユニット
PU:予測ユニット
CTU:コーディングツリーユニット
CTB:コーディングツリーブロック
PB:予測ブロック
HRD:仮想参照デコーダ
SNR:信号対雑音比
CPU:中央処理装置
GPU:グラフィックス処理装置
CRT:陰極線管
LCD:液晶ディスプレイ
OLED:有機発光ダイオード
CD:コンパクトディスク
DVD:デジタルビデオディスク
ROM:読み出し専用メモリ
RAM:ランダムアクセスメモリ
ASIC:特定用途向け集積回路
PLD:プログラマブル論理デバイス
LAN:ローカルエリアネットワーク
GSM:グローバル移動体通信システム
LTE:ロングタームエボリューション
CANBus:コントローラエリアネットワークバス
USB:ユニバーサルシリアルバス
PCI:周辺構成要素相互接続
FPGA:フィールドプログラマブルゲートエリア
SSD:ソリッドステートドライブ
IC:集積回路
HDR:ハイダイナミックレンジ
SDR:標準ダイナミックレンジ
JVET:共同ビデオ探索チーム
MPM:最確モード
WAIP:広角イントラ予測
CU:コーディングユニット
PU:予測ユニット
TU:変換ユニット
CTU:コーディングツリーユニット
PDPC:位置依存予測組合せ
ISP:イントラサブ分割
SPS:シーケンスパラメータセット
PPS:ピクチャパラメータセット
APS:適応パラメータセット
VPS:ビデオパラメータセット
DPS:デコーディングパラメータセット
ALF:適応ループフィルタ
SAO:サンプル適応オフセット
CC-ALF:交差成分適応ループフィルタ
CDEF:制約方向性強調フィルタ
CCSO:交差成分サンプルオフセット
LSO:ローカルサンプルオフセット
LR:ループ復元フィルタ
AV1:AOMedia Video 1
AV2:AOMedia Video 2
CfL:ルマからのクロマ
SDT:半分離ツリー
SDP:半分離分割
SST:半分離ツリー
SB:スーパーブロック
IBC(またはIntraBC):イントラブロックコピー
CDF:累積密度関数
SCC:スクリーンコンテンツコーディング
GBI:一般化双予測
BCW:CUレベル重みによる双予測
CIIP:結合されたイントラ-インター予測
POC:ピクチャ順序カウント
RPS:参照ピクチャセット
DPB:デコーディングされたピクチャバッファ
101 サンプル、102 矢印、103 矢印、104 正方形ブロック、201 現在のブロック、300 通信システム、310 端末デバイス、320 端末デバイス、330 端末デバイス、340 端末デバイス、350 ネットワーク、400 通信システム、401 ビデオソース、402 ビデオピクチャまたは画像のストリーム、403 ビデオエンコーダ、404 ビデオデータ、405 ストリーミングサーバ、406 クライアントサブシステム、407 コピー、408 クライアントサブシステム、409 コピー、410 ビデオデコーダ、411 ビデオピクチャの出力ストリーム、412 ディスプレイ、413 ビデオキャプチャサブシステム、420 電子デバイス、430 電子デバイス、501 チャネル、510 ビデオデコーダ、512 ディスプレイ、515 バッファメモリ、520 エントロピーデコーダ/パーサ、521 シンボル、530 電子デバイス、531 受信機、551 スケーラ/逆変換ユニット、552 イントラピクチャ予測ユニット、553 動き補償予測ユニット、555 アグリゲータ、556 ループフィルタユニット、557 参照ピクチャメモリ、558 現在のピクチャバッファ、603 ビデオエンコーダ、620 電子デバイス、630 ソースコーダ、632 コーディングエンジン、633 ローカルビデオデコーダ、634 参照ピクチャメモリ、635 予測子、640 送信機、643 コーディングされたビデオシーケンス、645 エントロピーコーダ、650 コントローラ、660 通信チャネル、703 ビデオエンコーダ、721 汎用コントローラ、722 イントラエンコーダ、723 残差計算器、724 残差エンコーダ、725 エントロピーエンコーダ、726 スイッチ、728 残差デコーダ、730 インターエンコーダ、810 ビデオデコーダ、871 エントロピーデコーダ、872 イントラデコーダ、873 残差デコーダ、874 再構築モジュール、880 インターデコーダ、1002 T型パーティション、1004 T型パーティション、1006 T型パーティション、1008 T型パーティション、1010 正方形パーティション、1102 垂直二分割(SPLIT_BT_VER)、1104 水平二分割(SPLIT_BT_HOR)、1106 垂直三分割(SPLIT_TT_VER)、1108 水平三分割(SPLIT_TT_HOR)、1200 ベースブロック、1202 正方形パーティション、1204 正方形パーティション、1206 正方形パーティション、1208 正方形パーティション、1402 パーティション、1404 パーティション、1406 パーティション、1408 パーティション、2000 コンピュータシステム、2001 キーボード、2002 マウス、2003 トラックパッド、2005 ジョイスティック、2006 マイクロフォン、2007 スキャナ、2008 カメラ、2009 スピーカ、2010 タッチスクリーン、2020 CD/DVD ROM/RW、2021 CD/DVD、2022 サムドライブ、2023 リムーバブルハードドライブまたはソリッドステートドライブ、2040 コア、2041 中央処理装置(CPU)、2042 グラフィックス処理装置(GPU)、2043 フィールドプログラマブルゲートエリア(FPGA)、2044 特定のタスク用のハードウェアアクセラレータ、2045 読み出し専用メモリ(ROM)、2046 ランダムアクセスメモリ(RAM)、2047 内部大容量ストレージ、2048 システムバス、2049 汎用データポートまたは周辺バス、2050 グラフィックスアダプタ、2054 インターフェース、2055 1つまたは複数の通信ネットワーク、R05 参照サンプル、R08 参照サンプル、S14 サンプル、S21 サンプル、S23 サンプル、S32 サンプル、S44 サンプル
場合によっては、スケーラ/逆変換ユニット(551)の出力サンプルは、イントラコーディングされたブロック、すなわち、以前に再構築されたピクチャからの予測情報を使用しないが、現在のピクチャの以前に再構築された部分からの予測情報を使用することができるブロックに関係する場合がある。そのような予測情報は、イントラピクチャ予測ユニット(552)によって提供され得る。場合によっては、イントラピクチャ予測ユニット(552)は、すでに再構築され、現在のピクチャバッファ(558)に記憶されている周囲のブロックの情報を使用して、再構築中のブロックと同じサイズおよび形状のブロックを生成してもよい。現在のピクチャバッファ(558)は、例えば、部分的に再構築された現在のピクチャおよび/または完全に再構築された現在のピクチャをバッファリングする。アグリゲータ(555)は、いくつかの実装形態では、サンプルごとに、イントラ予測ユニット(552)が生成した予測情報を、スケーラ/逆変換ユニット(551)によって提供される出力サンプル情報に追加し得る。

Claims (20)

  1. ビデオストリーム内の現在のビデオブロックのイントラ予測子ブロックを生成するための方法であって、前記現在のビデオブロックが、パレットモードでイントラコーディングされ、前記方法が、
    前記ビデオストリームから、前記現在のビデオブロックが少なくとも1つの近傍ビデオブロックに対応する少なくとも1つの参照パレットに基づいてコーディングされていると決定するステップと、
    前記少なくとも1つの参照パレットの任意のマージを実施する前に、前記現在のビデオブロックに関連付けられた、現在のパレットの継承部分のサイズであるcacheNを決定するステップであって、cacheNが、整数である、ステップと、
    cacheNおよび前記少なくとも1つの参照パレットに基づいて、前記現在のパレットの前記継承部分を導出するステップと、
    前記ビデオストリームから、前記現在のビデオブロックの要素についてパレットインデックスを前記現在のパレットに抽出するステップと、
    少なくとも前記パレットインデックスおよび前記現在のパレットに基づいて前記現在のビデオブロックの前記予測子ブロックを生成するステップとを含む、方法。
  2. cacheNを決定するステップが、前記少なくとも1つの参照パレットに対応する少なくとも1つのパレットサイズに基づいて、前記現在のパレットの前記継承部分の前記サイズを決定するステップを含む、請求項1に記載の方法。
  3. cacheNを決定するステップが、
    前記現在のビデオブロックの第1の近傍ビデオブロックの第1のパレットサイズを決定するステップと、
    前記現在のビデオブロックの第2の近傍ビデオブロックの第2のパレットサイズを決定するステップと、
    前記第1のパレットサイズおよび前記第2のパレットサイズに基づいて、cacheNを決定するステップとを含む、請求項2に記載の方法。
  4. 前記第1の近傍ビデオブロックおよび前記第2の近傍ビデオブロックが、それぞれ前記現在のビデオブロックの直近の上側および左側のビデオブロックを含み、
    前記第1のパレットサイズおよび前記第2のパレットサイズに基づいてcacheNを決定するステップが、前記現在のパレットの前記継承部分の前記サイズを、
    前記第1のパレットサイズおよび前記第2のパレットサイズの大きい方に、Nを増加する、または、
    前記第1のパレットサイズおよび前記第2のパレットサイズの小さい方に、Nを増加する、または、
    所定の最大継承パレットサイズと、前記第1のパレットサイズおよび前記第2のパレットサイズの大きい方に、Nを増加したものと、のうちの小さい方、または、
    前記所定の最大継承パレットサイズと、前記第1のパレットサイズおよび前記第2のパレットサイズの小さい方に、Nを増加したものと、のうちの小さい方、として決定するステップを含み、
    Nが、所定のパレットサイズ増分を示し、Nが、0以上、8以下の整数である、請求項3に記載の方法。
  5. cacheNを決定するステップが、前記少なくとも1つの参照パレットとは無関係に前記現在のパレットの前記継承部分のパレットサイズを割り当てるステップを含み、前記パレットサイズが、0以上、8以下の整数である、請求項1から4のいずれか一項に記載の方法。
  6. 前記パレットサイズが、前記ビデオストリーム内のシンタックス要素で予め決定されるか、またはシグナリングされる、請求項5に記載の方法。
  7. 前記シンタックス要素が、前記現在のビデオブロックに関連付けられたビデオパラメータセット、シーケンスパラメータセット、ピクチャパラメータセット、適応パラメータセット、フレームヘッダ、スライスヘッダ、ピクチャヘッダ、タイルヘッダ、またはコーディングツリーユニットヘッダのうちの1つの構成要素を備える、請求項6に記載の方法。
  8. cacheNが、前記現在のビデオブロックまたは前記少なくとも1つの近傍ビデオブロックのコーディング情報項目から導出される、請求項1から4のいずれか一項に記載の方法。
  9. 前記コーディングされた情報項目が、前記現在のビデオブロックまたは前記少なくとも1つの近傍ビデオブロックに関連付けられたブロックサイズまたは予測モードのうちの少なくとも1つを含む、請求項8に記載の方法。
  10. cacheNが、前記少なくとも1つの近傍ビデオブロックと関連付けられた前記少なくとも1つの参照パレット内の反復パレットエントリの数として導出される、請求項1から4のいずれか一項に記載の方法。
  11. 前記少なくとも1つの近傍ビデオブロックが、M個の近傍ビデオブロックを含み、M個の近傍ビデオブロックのうちの少なくともK個の共通パレットエントリIの数が、cacheNとして決定され、Mが、2以上の整数であり、Kは、M以下の整数である、請求項10に記載の方法。
  12. 前記少なくとも1つの参照パレットに対応する前記少なくとも1つの近傍ビデオブロックが、前記現在のビデオブロックの3つ以上の近傍ビデオブロックから選択される、請求項1から4のいずれか一項に記載の方法。
  13. 前記3つ以上の近傍ビデオブロックが、前記現在のビデオブロックに隣接していない少なくとも1つのブロックを含む、請求項12に記載の方法。
  14. 前記少なくとも1つの近傍ビデオブロックが、前記パレットモードでイントラコーディングされた近傍ビデオブロックの第1のセットを決定するために、前記3つ以上の近傍ビデオブロックを所定の走査順序で走査することによって、前記3つ以上の近傍ビデオブロックから選択され、
    前記近傍ビデオブロックの前記第1のセットのキャッシュされたパレットのセットが、前記少なくとも1つの参照パレットを決定または導出するために使用される、
    請求項12に記載の方法。
  15. 前記少なくとも1つの参照パレットを、S個の固有のパレットエントリを有するキャッシュされたパレットにマージするステップをさらに含む、請求項1から4のいずれか一項に記載の方法。
  16. S>cacheNであるとき、前記方法が、
    cacheN個のパレットエントリを有する前記現在のパレットの前記継承部分を生成するために、所定の走査順序に従って、前記キャッシュされたパレットから最初のcacheN個のパレットエントリを選択するステップ、
    cacheN個のパレットエントリを有する前記現在のパレットの前記継承部分を生成するために、所定の走査順序に従って、前記キャッシュされたパレットから最後のキャッシュcacheN個のパレットエントリを選択するステップ、
    キャッシュN個のパレットエントリを有する前記現在のパレットの前記継承部分を生成するために、所定の走査順序に従って、前記少なくとも1つの参照パレットから重複パレットエントリを選択し、必要に応じて、前記キャッシュされたパレットから最初の非重複パレットエントリをさらに選択するステップ、あるいは、
    cacheN個のパレットエントリを有する前記現在のパレットの前記継承部分を生成するために、所定の走査順序に従って、前記少なくとも1つの参照パレットから重複パレットエントリを選択し、必要に応じて、前記キャッシュされたパレットから最後の非重複パレットエントリをさらに選択するステップ、のうちの1つをさらに含む、請求項15に記載の方法。
  17. S<(cacheN)であるとき、前記方法が、
    前記キャッシュされたパレットを使用して前記現在のパレットの前記継承部分の最初のS個のパレットエントリを充填するステップと、
    前記キャッシュされたパレットから(cacheN-S)個のターゲットパレットエントリを決定するステップと、
    修正されたターゲットパレットエントリを生成するために、前記(cacheN-S)個のターゲットパレットエントリの各々をオフセットするステップと、
    前記修正されたターゲットパレットエントリを、前記現在のパレットの前記継承部分の最後の(cacheN-S)個のエントリに含めるステップとをさらに含む、請求項15に記載の方法。
  18. S<cacheNであるとき、前記方法が、
    前記キャッシュされたパレットを使用して前記現在のパレットの前記継承部分の最初のS個のパレットエントリを充填するステップと、
    前記現在のパレットの前記継承部分の最後の(cacheN-S)個のパレットエントリを、パレットエントリリストからの最初の(cacheN-S)個のパレットエントリで充填するステップとをさらに含む、請求項15に記載の方法。
  19. 前記パレットエントリリストが、シーケンスパラメータセット、ピクチャパラメータセット、適応パラメータセット、フレームヘッダ、スライスヘッダ、ピクチャヘッダ、タイルヘッダ、またはコーディングツリーユニットヘッダのうちの1つで、前記ビデオストリーム内でシグナリングされる、請求項18に記載の方法。
  20. コンピュータ命令を格納するためのメモリと、前記メモリと通信するプロセッサと、を備えるビデオデバイスであって、前記コンピュータ命令が、前記ビデオデバイスに、
    ビデオストリームから、現在のビデオブロックが少なくとも1つの近傍ビデオブロックに対応する少なくとも1つの参照パレットに基づいてコーディングされていると決定することと、
    前記少なくとも1つの参照パレットの任意のマージを実施する前に、前記現在のビデオブロックに関連付けられた、現在のパレットの継承部分のサイズであるcacheNを決定することと、
    cacheNおよび前記少なくとも1つの参照パレットに基づいて、前記現在のパレットの前記継承部分を導出することと、
    前記ビデオストリームから、前記現在のビデオブロックの要素についてパレットインデックスを前記現在のパレットに抽出することと、
    少なくとも前記パレットインデックスおよび前記現在のパレットに基づいて前記現在のビデオブロックの予測子ブロックを生成することとを実行させるように構成される、ビデオデバイス。
JP2023561216A 2022-01-14 2022-07-26 パレット予測子生成およびシグナリング Pending JP2024514116A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202263299665P 2022-01-14 2022-01-14
US63/299,665 2022-01-14
US17/869,268 2022-07-20
US17/869,268 US20230231991A1 (en) 2022-01-14 2022-07-20 Palette Predictor Generation and Signaling
PCT/US2022/038347 WO2023136864A1 (en) 2022-01-14 2022-07-26 Palette predictor generation and signaling

Publications (1)

Publication Number Publication Date
JP2024514116A true JP2024514116A (ja) 2024-03-28

Family

ID=87161491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023561216A Pending JP2024514116A (ja) 2022-01-14 2022-07-26 パレット予測子生成およびシグナリング

Country Status (5)

Country Link
US (1) US20230231991A1 (ja)
JP (1) JP2024514116A (ja)
KR (1) KR20230158621A (ja)
CN (1) CN117203965A (ja)
WO (1) WO2023136864A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3117608B1 (en) * 2014-03-14 2021-05-12 HFI Innovation Inc. Method for palette management
CA2942737A1 (en) * 2014-03-17 2015-09-24 Nokia Technologies Oy Method and technical equipment for video encoding and decoding
US9654806B2 (en) * 2014-03-26 2017-05-16 Qualcomm Incorporated Determining palette size, palette entries and filtering of palette coded blocks in video coding
US10291940B2 (en) * 2014-05-23 2019-05-14 Qualcomm Incorporated Coding runs with escape in palette-based video coding
CN107211149A (zh) * 2015-02-05 2017-09-26 联发科技股份有限公司 调色板语法的解码操作装置与方法

Also Published As

Publication number Publication date
KR20230158621A (ko) 2023-11-20
CN117203965A (zh) 2023-12-08
WO2023136864A8 (en) 2023-09-07
US20230231991A1 (en) 2023-07-20
WO2023136864A1 (en) 2023-07-20

Similar Documents

Publication Publication Date Title
KR102647830B1 (ko) 비디오 코딩을 위한 방법 및 장치
JP2022516846A (ja) アフィン線形加重イントラ予測モードのための簡易シグナリング方法
JP7407800B2 (ja) 最確モードの導出のための方法、装置及びコンピュータプログラム
JP7343668B2 (ja) Vvcにおける色変換のための方法及び機器
JP7297918B2 (ja) ビデオ符号化のための色変換
JP7271675B2 (ja) ビデオ復号の方法および装置、並びにプログラム
JP2024019734A (ja) ビデオコーディングのための方法および装置
JP2023553922A (ja) 動きベクトル差の改善されたシグナリングのための方法および装置
JP7512422B2 (ja) 複数基準線イントラ予測と変換分割との間の調和した設計
JP2023553996A (ja) 成分間変換係数レベル復元におけるオフセットの導出
JP2024513066A (ja) 動きベクトル差の適応解像度を調整するための方式
KR20230133351A (ko) 모션 벡터 차이의 적응형 해상도와 모션 벡터-관련파라미터들의 시그널링/도출 사이의 상호의존
JP2023546962A (ja) 成分間のブロック終了フラグの符号化
JP2023525216A (ja) ビデオ情報を処理するための方法及びコンピュータプログラム
JP2023517329A (ja) ビデオコーディングのための方法および装置
JP2022520855A (ja) Qt/bt/ttサイズの改善されたヘッダシンタックス
JP7439344B2 (ja) ビデオデコーディングのための方法、デバイス、およびコンピュータプログラム
JP2024514116A (ja) パレット予測子生成およびシグナリング
JP7512430B2 (ja) ゼロ残差フラグコーディング
JP7490299B2 (ja) スキップ変換フラグ符号化
JP2024506169A (ja) ジョイント動きベクトル差分コーディング
JP2024509606A (ja) 単一参照動きベクトル差分のための適応解像度
JP2023553997A (ja) 複合インターイントラ予測モードのための適応変換
KR20230159603A (ko) 다중 예측 모드에 기반한 교차 채널 예측
KR20230136646A (ko) 모션 벡터 후보들을 리파인하기 위한 방법들 및 디바이스들

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231004

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231004