JP7367237B2 - ビデオ符号化用の予測依存残差スケーリングのための方法およびデバイス - Google Patents

ビデオ符号化用の予測依存残差スケーリングのための方法およびデバイス Download PDF

Info

Publication number
JP7367237B2
JP7367237B2 JP2022580391A JP2022580391A JP7367237B2 JP 7367237 B2 JP7367237 B2 JP 7367237B2 JP 2022580391 A JP2022580391 A JP 2022580391A JP 2022580391 A JP2022580391 A JP 2022580391A JP 7367237 B2 JP7367237 B2 JP 7367237B2
Authority
JP
Japan
Prior art keywords
samples
luminance
prediction
domain
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022580391A
Other languages
English (en)
Other versions
JP2023529753A (ja
Inventor
シュウ,シャオユウ
チェン,イウェン
マ,ツンチュアン
ジュ,ホンジェン
チェン,ウェイ
ワン,シャンリン
ユ,ビン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Publication of JP2023529753A publication Critical patent/JP2023529753A/ja
Priority to JP2023176011A priority Critical patent/JP2024020201A/ja
Application granted granted Critical
Publication of JP7367237B2 publication Critical patent/JP7367237B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

関連出願の相互参照
本出願は、2020年6月24日出願の米国仮特許出願番号第63/043,569号に記載されている利益を主張する。前述の出願の全開示は、あらゆる目的のためにその全体が参照により本明細書に組み込まれる。
本発明は、一般に、ビデオ符号化および圧縮に関する。より詳細には、本発明は、符号化ユニットに対して予測依存残差スケーリング(prediction dependent residual scaling,PDRS)を使用してビデオ符号化を実行するためのシステムおよび方法に関する。
このセクションは、本開示に関連する背景情報を提供する。このセクションに含まれる情報は、必ずしも先行技術と解釈されるべきではない。
ビデオデータを圧縮するために、様々なビデオ符号化技術のうちのいずれかを使用することができる。ビデオ符号化は、1つまたは複数のビデオ符号化規格に従って実行することができる。いくつかの例示的なビデオ符号化規格は、多用途ビデオ符号化(Versatile Video Coding,VVC)、共同探索テストモデル(joint exploration model,JEM)符号化、高効率ビデオ符号化(H.265/HEVC)、アドバンストビデオ符号化(H.264/AVC)、および動画エキスパートグループ(MPEG)符号化を含む。
ビデオ符号化は、一般に、ビデオ画像またはシーケンスに固有の冗長性を利用する予測方法(例えば、インター予測、イントラ予測など)を利用する。ビデオ符号化技術の目的の1つは、ビデオ品質の低下を回避または最小化しながら、ビデオデータをより低いビットレートを使用する形式に圧縮することである。
このセクションは、本開示の一般的な概要を提供し、その全範囲またはその特徴のすべての包括的な開示ではない。
本出願の第1の態様によれば、彩度スケーリングを伴う輝度マッピング(luma mapping with chroma scaling,LMCS)のフレームワークの下で、結合インターイントラ予測(combined inter and intra prediction,CIIP)モードによって符号化された符号化ユニット(CU)の輝度成分の、マッピングされたドメインにおける複数の予測サンプルが取得され、CUの輝度成分の、マッピングされたドメインにおける複数の残差サンプルが取得され、マッピングされたドメインにおける複数の予測サンプルが、マッピングされたドメインにおける複数の残差サンプルに加算されて、輝度成分の、マッピングされたドメインにおける複数の再構成サンプルが得られ、輝度成分の複数の再構成サンプルが、事前定義された複数の逆マッピングスケーリング係数に基づいて、マッピングされたドメインから元のドメインに変換される。
本出願の第2の態様によれば、ビデオ復号のための方法が提供される。この方法は、彩度スケーリングを伴う輝度マッピング(LMCS)のフレームワーク下で、結合インターイントラ予測(CIIP)モードによって符号化された、符号化ユニット(CU)の輝度成分の、マッピングされたドメインにおける複数の予測サンプルを取得することと、CUの輝度成分の、マッピングされたドメインにおける複数の残差サンプルを取得することと、マッピングされたドメインにおける複数の予測サンプルを、マッピングされたドメインにおける複数の残差サンプルに加算し、輝度成分の、マッピングされたドメインにおける複数の再構成されたサンプルを得ることと、事前定義された複数の逆マッピングスケーリング係数に基づいて、輝度成分の複数の再構成されたサンプルを、マッピングされたドメインから元のドメインに変換することと、を含む。
一実施態様では、CUの輝度成分の、マッピングされたドメインにおける複数の予測サンプルを取得することは、CUの時間参照ピクチャからCUの輝度成分の、元のドメインにおける複数のインター予測サンプルを導出することと、事前定義された符号化ビット深度、および事前定義された順方向マッピング精度内にある事前定義された複数の順方向マッピングスケーリング係数に基づいて、輝度成分の複数のインター予測サンプルを、元のドメインからマッピングされたドメインに変換することと、を含む。
一実施態様では、事前定義された符号化ビット深度、および事前定義された順方向マッピング精度内にある事前定義された複数の順方向マッピングスケーリング係数に基づいて、輝度成分の複数のインター予測サンプルを、元のドメインからマッピングされたドメインに変換することは、事前定義された複数の順方向マッピングスケーリング係数を使用して、クリッピング操作なしで、輝度成分の複数のインター予測サンプルを、元のドメインからマッピングされたドメインに変換することと、を含む。
一実施態様では、事前定義された順方向マッピング精度が11ビットである。
本出願の第の態様によれば、コンピューティングデバイスは、1つまたは複数のプロセッサと、メモリと、メモリに格納された複数のプログラムとを含む。プログラムは、1つまたは複数のプロセッサによって実行されると、コンピューティングデバイスに、本出願の第1の態様または第2の態様で上述したような操作を実行させる。
本出願の第の態様によれば、非一時的コンピュータ可読記憶媒体は、1つまたは複数のプロセッサを有するコンピューティングデバイスによって実行される複数のプログラムを格納する。プログラムは、1つまたは複数のプロセッサによって実行されると、コンピューティングデバイスに、本出願の第1の態様または第2の態様で上述したような操作を実行させる。
以下、本開示の例示的な非限定的な実施形態のセットを、添付の図面と併せて説明する。構造、方法、または機能の変形は、本明細書に提示された例に基づいて当業者によって実施されてもよく、そのような変形はすべて本開示の範囲内に含まれる。矛盾が存在しない場合、異なる実施形態の教示は、互いに組み合わせることができるが、必ずしも組み合わせる必要はない。
多くのビデオ符号化規格と共に使用され得る、例示的なブロックベースのハイブリッドビデオエンコーダを示すブロック図である。 多くのビデオ符号化規格と共に使用され得る、例示的なビデオデコーダを示すブロック図である。 多くのビデオ符号化規格と併せて使用され得る、マルチタイプツリー構造におけるブロック分割の図である。 LMCSを適用した復号処理を示すフローチャートである。 双方向オプティカルフロー(Bi-Directional Optical Flow,BDOF)処理の図である。 デコーダ側動きベクトル微調整(Decoder-side Motion Vector Refinement,DMVR)、BDOF、およびCIIPのすべてが有効にされている場合のLMCSにおける彩度残差スケーリングのワークフローを示すフローチャートである。 予測依存残差スケーリング(PDRS)手順のステップを示すフローチャートである。 LMCS処理においてPDRS手順が適用される場合の復号処理のワークフローを示すフローチャートである。 スケーリング係数を導出するために、予測サンプルのみを使用することによって生じる、残差マッピング誤差を示す図である。 彩度サンプル再構成手順のステップを示すフローチャートである。 第2の彩度サンプル再構成手順のステップを示すフローチャートである。 DMVR、BDOF、およびCIIPが彩度スケーリングのための輝度予測サンプルを生成するために適用されない、第2の彩度サンプル再構成手順の一例における、LMCS復号処理のワークフローを示すフローチャートである。 彩度スケーリングのための輝度予測サンプルを生成するために初期単一予測信号が適用される、第2の彩度サンプル再構成手順の第2の例における、LMCS復号処理のワークフローを示すフローチャートである。 彩度残差サンプル再構成手順のステップを示すフローチャートである。 彩度残差サンプル再構成手順の1つまたは複数の実施形態における、LMCS復号処理のワークフローを示すフローチャートである。 彩度残差サンプル再構成手順の他の一実施形態における、LMCS復号処理のワークフローを示すフローチャートである。 第2の彩度残差サンプル再構成手順のステップを示すフローチャートである。 非クリッピング彩度残差スケーリング係数導出手順のステップを示すフローチャートである。 非クリッピング彩度残差スケーリング係数導出手順の一例に関与する領域の図である。 非クリッピング彩度サンプル復号手順のステップを示すフローチャートである。 非クリッピング彩度サンプル復号手順の1または複数の実施形態のステップを示すフローチャートである。 非クリッピング彩度サンプル復号手順の1つまたは複数の実施形態のステップを示すフローチャートである。 本開示の第1の態様のステップを示すフローチャートである。 本開示の第1の態様の1つまたは複数の実施形態のステップを示すフローチャートである。 本開示の第1の態様の1つまたは複数の実施形態のステップを示すフローチャートである。 本開示の第1の態様の1つまたは複数の実施形態のステップを示すフローチャートである。 本開示のいくつかの実装形態による、ビデオ符号化のための例示的な装置を例示するブロック図である。
本開示で使用される用語は、本開示を限定するためではなく、特定の例を示すためのものである。本開示および添付の特許請求の範囲で使用される単数形「a」、「an」および「the」は、他の意味が文脈に明確に含まれない限り、複数形も指す。本明細書で使用される「および/または(and/or)」という用語は、1つまたは複数の関連する列挙された項目の任意のまたはすべての可能な組み合わせを指すことを理解されたい。
本明細書では、「第1」、「第2」、「第3」などの用語を使用して様々な情報を説明することができるが、情報はこれらの用語によって限定されるべきではないことを理解されたい。これらの用語は、情報のあるカテゴリを別のカテゴリと区別するためにのみ使用される。例えば、本開示の範囲から逸脱することなく、第1の情報を第2の情報と呼ぶことができる。同様に、第2の情報を第1の情報と呼ぶこともできる。本明細書で使用される場合、「場合(if)」という用語は、文脈に応じて、「時(when)」または「際(upon)」または「~に応答して(in response to)」を意味すると理解され得る。
本明細書を通して、単数または複数の「一実施形態」、「実施形態」、「別の実施形態」などへの言及は、実施形態に関連して説明される1つまたは複数の特定の特徴、構造、または特性が、本開示の少なくとも1つの実施形態に含まれることを意味する。したがって、本明細書全体の様々な場所における単数または複数の「一実施形態では」または「実施形態では」、「別の実施形態では」などの句の出現は、必ずしもすべてが同じ実施形態を指すとは限らない。さらに、1つまたは複数の実施形態における特定の特徴、構造、または特性は、任意の適切な方法で組み合わせることができる。
HEVC規格の最初のバージョンは2013年10月に完成され、これは、前世代のビデオ符号化規格H.264/MPEG AVCと比較して、約50%のビットレート節約または同等の知覚品質を提供する。HEVC規格は、その先行規格よりも大幅な符号化改善を提供するが、HEVCの上に追加の符号化ツールを用いることで、優れた符号化効率を達成できる証拠がある。それに基づいて、VCEGおよびMPEGの両方は、将来のビデオ符号化の標準化のための新しい符号化技術の探索作業を開始した。符号化効率を大幅に向上する可能性がある高度技術の重要研究を開始するために、ITU-T VECGおよびISO/IEC MPEGによって2015年10月に1つの共同ビデオ探索チーム(Joint Video Exploration Team,JVET)が形成された。共同探索モデル(JEM)と呼ばれる1つの参照ソフトウェアは、HEVCテストモデル(HM)の上にいくつかの追加の符号化ツールを統合することにより、JVETによって維持された。
2017年10月、HEVCを超える能力を有するビデオ圧縮に関する提案(CfP)、ITU-TおよびISO/IECにより共同で募集された。2018年4月に、23回のCfP応答が受け取られ、10回のJVET会議で評価したところ、HEVCを約40%上回る圧縮効率の増加が実証された。このような評価結果に基づき、JVETは、新世代動画像符号化規格である多用途ビデオ符号化(VVC)の開発プロジェクトを新たに立ち上げた。同じ月に、VVC試験モデル(VVC test model,VTM)と呼ばれる1つの参照ソフトウェアが、VVC規格の参照実装を実証するために確立された。
ビデオ符号化で利用される予測方法は、通常、ビデオデータに固有の冗長性を低減または除去するために空間(フレーム内)予測および/または時間(フレーム間)予測を実行することを含み、概して、ブロックベースのビデオ符号化に関連付けられる。HEVCと同様に、VVCはブロックベースのハイブリッドビデオ符号化フレームワークに基づいて構築されている。
ブロックベースのビデオ符号化では、入力ビデオ信号はブロックごとに処理される。各ブロックについて、空間予測および/または時間予測を実行することができる。現在のVVC設計などのより新しいビデオ符号化規格では、ブロックは、四分木だけでなく二分木および/または三分木も含む、マルチタイプツリー構造に基づいてさらに分割することができる。これは、変化する局所的特性のより良好な適応を可能にする。
空間予測(「イントラ予測」としても知られる)は、現在のブロックを予測するために、同じビデオピクチャ/スライス内の既に符号化された隣接ブロック(参照サンプルと呼ばれる)のサンプルからの画素を使用する。空間予測は、ビデオ信号に固有の空間的冗長性を低減する。
復号処理の間、ビデオビットストリームは最初にエントロピー復号ユニットにおいてエントロピー復号される。符号化モードおよび予測情報は、予測ブロックを形成するために、空間予測ユニット(イントラ符号化された場合)または時間予測ユニット(インター符号化された場合)のいずれかに送信される。残差変換係数は、残差ブロックを再構成するために、逆量子化ユニットおよび逆変換ユニットに送られる。そして、予測ブロックと残差ブロックとが加算される。再構成されたブロックは、参照ピクチャストア内に格納される前に、ループ内フィルタリングをさらに通過してもよい。その後、参照ピクチャストア内の再構成されたビデオは、ディスプレイデバイスを駆動するために送出されるとともに、将来のビデオブロックを予測するために使用される。
現在のVVC設計などのより新しいビデオ符号化規格では、彩度スケーリングを伴う輝度マッピング(LMCS)の符号化ツールは、ループ内フィルタリングの前に適用され得る。LMCSは、符号化効率を改善するために入力信号のダイナミックレンジを調整することを目的とする。
しかしながら、LMCSの現在の設計では、輝度成分のインター予測サンプルのマッピング精度は、内部符号化深度のダイナミックレンジを超える可能性がある。
概念的には、背景技術のセクションで前述したものを含む、多くのビデオ符号化規格が類似している。例えば、実質的にすべてのビデオ符号化規格はブロックベースの処理を使用し、ビデオ圧縮を達成するために同様のビデオ符号化ブロック図を共有する。
図1は、多くのビデオ符号化規格と共に使用され得る、例示的なブロックベースのハイブリッドビデオエンコーダ100のブロック図を示す。エンコーダ100では、ビデオフレームが複数のビデオブロックに分割されて処理される。所与のビデオブロックごとに、インター予測手法またはイントラ予測手法のいずれかに基づいて、予測が形成される。インター予測では、以前に再構成されたフレームからの画素に基づいて、動き推定および動き補償によって、1つまたは複数の予測子が形成される。イントラ予測では、現在のフレーム内の再構成された画素に基づいて予測子が形成される。モード決定により、現在のブロックを予測するために最良の予測子を選択することができる。
現在のビデオブロックとその予測子との間の差を表す予測残差は、変換回路102に送信される。変換係数はその後、エントロピー低減のために変換回路102から量子化回路104へ送信される。量子化された係数は、その後、圧縮ビデオビットストリームを生成するためにエントロピー符号化回路106に供給される。図1に示すように、ビデオブロック分割情報、動きベクトル、参照ピクチャインデックス、およびイントラ予測モードなどのインター予測回路および/またはイントラ予測回路112からの予測関連情報110も、エントロピー符号化回路106を介して供給され、圧縮ビデオビットストリーム114に保存される。
エンコーダ100では、予測の目的で画素を再構成するために、デコーダ関連の回路も必要とされる。まず、予測残差が逆量子化回路116および逆変換回路118によって再構成される。この再構成された予測残差は、現在のビデオブロックのフィルタリングされていない再構成画素を生成するために、ブロック予測子120と組み合わされる。
時間予測(「インター予測」または「動き補償予測」とも呼ばれる)は、現在のビデオブロックを予測するために、既に符号化されたビデオピクチャからの再構成画素を使用する。時間予測は、ビデオ信号に固有の時間的冗長性を低減する。所与のCUの時間予測信号は、通常、現在のCUとその時間基準との間の動きの量および方向を示す、1つまたは複数の動きベクトル(MV)によってシグナリングされる。また、複数の参照ピクチャがサポートされている場合、1つの参照ピクチャインデックスがさらに送信され、これは、参照ピクチャストア内のどの参照ピクチャから時間予測信号が来るかを識別するために使用される。
空間および/または時間予測が実行された後、エンコーダ100内のイントラ/インターモード決定回路121は、例えばレート歪み最適化方法に基づいて、最良の予測モードを選択する。次に、ブロック予測子120は、現在のビデオブロックから減算される。そして、得られた予測残差は、変換回路102および量子化回路104を使用して逆相関される。得られた量子化残差係数は、逆量子化回路116によって逆量子化され、逆変換回路118によって逆変換されて再構成残差が形成され、次いで、これが予測ブロックに加算されてCUの再構成信号が形成される。再構成されたCUがピクチャバッファ117の参照ピクチャストアに入れられ、将来のビデオブロックを符号化するために使用される前に、再構成されたCUにデブロッキングフィルタ、サンプル適応オフセット(sample adaptive offset,SAO)、および/または適応ループ内フィルタ(adaptive in-loop filter,ALF)などの、さらなるループ内フィルタリング115を適用することができる。出力ビデオビットストリーム114を形成するために、符号化モード(インターまたはイントラ)、予測モード情報、動き情報、および量子化残差係数はすべて、ビットストリームを形成するためにさらに圧縮およびパックされるようにエントロピー符号化ユニット106に送信される。
例えば、デブロッキングフィルタは、AVC、HEVC、ならびにVVCの現在のバージョンで利用可能である。HEVCでは、符号化効率をさらに向上させるために、SAO(sample adaptive offset)と呼ばれる追加のループ内フィルタが定義されている。VVC規格の現在のバージョンでは、ALF(適応ループフィルタ)と呼ばれるさらに別のループ内フィルタが積極的に研究されており、最終規格に含まれる可能性が高い。
これらのループ内フィルタ操作は任意である。これらの操作を実行することは、符号化効率および視覚的品質を改善するのに役立つ。それらはまた、計算複雑性を軽減するためにエンコーダ100が提供する決定として、オフにされてもよい。
イントラ予測は、通常、フィルタ処理されていない再構成された画素に基づいているが、インター予測は、フィルタ処理された再構成された画素に基づいており、これらのフィルタオプションがエンコーダ100によってオンにされていることに留意されたい。
図2は、多くのビデオ符号化規格と共に使用され得る例示的なビデオデコーダ200を示すブロック図である。このデコーダ200は、図1のエンコーダ100に存在する再構成関連セクションと同様である。デコーダ200(図2)において、入力ビデオビットストリーム201は、量子化された係数レベルおよび予測関連情報を導出するために、エントロピー復号202を介して最初に復号される。次いで、量子化された係数レベルは、逆量子化204および逆変換206を介して処理され、再構成された予測残差を取得する。イントラ/インターモード選択器212に実装されたブロック予測子メカニズムは、復号された予測情報に基づいて、イントラ予測208または動き補償210のいずれかを実行するように構成される。フィルタリングされていない再構成画素のセットは、加算器214を使用して、逆変換206からの再構成された予測残差とブロック予測子メカニズムによって生成された予測出力とを合計することによって得られる。
再構成されたブロックは、参照ピクチャストアとして機能するピクチャバッファ213に格納される前に、ループ内フィルタ209をさらに通過することができる。ピクチャバッファ213内の再構成されたビデオは、その後、ディスプレイデバイスを駆動するために送出されることができるとともに、将来のビデオブロックを予測するために使用されることができる。ループ内フィルタ209がオンになっている状況では、これらの再構成された画素に対してフィルタ操作が実行され、最終的な再構成されたビデオ出力222を導出する。
HEVCのようなビデオ符号化規格では、ブロックは、四分木に基づいて分割されてもよい。現在のVVCなどのより新しいビデオ符号化規格では、より多くの分割方法が採用され、1つの符号化ツリーユニット(CTU)をCUに分割して、四分木、二分木、または三分木に基づく、様々なローカル特性に適応させることができる。CU、予測ユニット(PU)、および変換ユニット(TU)の分離は、現在のVVCのほとんどの符号化モードには存在せず、各CUは、さらなる分割なしで予測と変換の両方のための基本ユニットとして常に使用される。しかしながら、イントラサブ分割符号化モードなどのいくつかの特定の符号化モードでは、各CUは依然として複数のTUを含むことができる。マルチタイプツリー構造では、1つのCTUが最初に四分木構造によって分割される。次に、各四分木リーフノードは、二分木構造および三分木構造によってさらに分割することができる。
図3は、現在のVVCで採用されている5つの分割タイプ、すなわち、四分割301、水平二分割302、垂直二分割303、水平三分割304、および垂直値分割305を示す。マルチタイプツリー構造が利用される状況では、1つのCTUが最初に四分木構造によって分割される。次に、各四分木リーフノードは、二分木構造および三分木構造によってさらに分割することができる。
図3の例示的なブロック分割301,302,303,304または305のうちの1つまたは複数を使用して、図1に示す構成を使用して空間予測および/または時間予測を実行することができる。空間予測(または「イントラ予測」)は、同じビデオピクチャ/スライス内の符号化済みの隣接ブロック(参照サンプルと呼ばれる)のサンプルからの画素を使用して、現在のビデオブロックを予測する。空間予測は、ビデオ信号に固有の空間的冗長性を低減する。
現在のVVCなどの新しいビデオ符号化規格では、新しい符号化ツールである彩度スケーリングを伴う輝度マッピング(LMCS)が追加されている。ループフィルタ(例えば、デブロッキングフィルタ、SAO、およびALF)の前に適用される1つの新しい符号化ツールとして、LMCSが追加される。
一般に、LMCSは2つの主要なモジュールを有する。第1には、適応区分線形モデルに基づく輝度成分のループ内マッピング、そして、第2には、輝度依存性彩度残差スケーリングである。
図4は、LMCSを適用した修正復号処理を示す。図4では、特定のブロックは、マッピングされたドメインで実行される復号モジュールを表し、エントロピー復号401、逆量子化402、逆変換403、輝度イントラ予測404、および輝度サンプル再構成405(すなわち、輝度予測サンプルY’predと輝度残差サンプルY’resとを加算して、再構成された輝度サンプルY’reconを生成する)を含む。特定の他のブロックは、元の(すなわち、マッピングされていない)ドメインで実行される復号モジュールを示し、動き補償予測409、彩度イントラ予測412、彩度サンプル再構成413(すなわち、彩度予測サンプルCpredと彩度残差サンプルCresとを加算して、再構成された彩度サンプルCreconを生成する)、およびループ内フィルタ処理407(デブロッキング、SAO、およびALFを包含する)を含む。ブロックのさらなるグループは、輝度サンプルの順方向マッピング410および逆(または逆方向)マッピング406、ならびに彩度残差スケーリング411を含む、LMCSによって導入された新しい操作モジュールを表す。また、図4に示すように、復号されたピクチャバッファ(DPB)408(輝度用)および415(彩度用)に格納されているすべての参照ピクチャは、元のドメインにある。
LMCSのループ内マッピングは、符号化効率を改善するために入力信号のダイナミックレンジを調整することを目的とする。既存のLMCS設計における輝度サンプルのループ内マッピングは、2つのマッピング関数、1つの順方向マッピング関数FwdMap、および1つの対応する逆マッピング関数InvMapに基づいて構築される。順方向マッピング関数は、16個の等しいサイズの断片を有する1つの区分線形モデルを使用してエンコーダからデコーダにシグナリングされる。逆マッピング関数は、順方向マッピング関数から直接導出することができ、したがってシグナリングされる必要はない。
輝度マッピングモデルのパラメータは、スライスレベルでシグナリングされる。輝度マッピングモデルが現在のスライスに対してシグナリングされるべきかどうかを示すために、存在フラグが最初にシグナリングされる。輝度マッピングモデルが現在のスライスに存在する場合、対応する区分線形モデルパラメータがさらにシグナリングされる。区分線形モデルに基づいて、入力信号のダイナミックレンジは、元のドメインで等しいサイズを有する16個のセグメントに分割され、各セグメントは対応するセグメントにマッピングされる。元のドメインにおける所与のセグメントについて、マッピングされたドメインにおけるその対応するセグメントは、同じまたは異なるサイズを有し得る。マッピングされたドメインにおける各セグメントのサイズは、そのセグメントのコードワード数(すなわち、マッピングされたサンプル値)によって示される。元のドメインにおける各セグメントについて、マッピングされたドメインにおける対応するセグメント内のコードワードの数に基づいて、線形マッピングパラメータを導出することができる。例えば、入力が10ビット深度であるとき、元のドメインにおける16個のセグメントの各々は64個の画素値を有し、マッピングされたドメインにおけるセグメントの各々もそれに割り当てられた64個のコードワードを有する場合、それは単純な一対一マッピング(すなわち、各サンプル値を変更しないマッピング)を示す。マッピングされたドメインにおける各セグメントのシグナリングされたコードワード数は、スケーリング係数を計算し、そのセグメントに応じてマッピング関数を調整するために使用される。さらに、スライスレベルでは、別のLMCS制御フラグがシグナリングされ、スライスのLMCSを有効/無効にする。
各セグメントについて、対応する区分線形モデルは、この段落の直後のボックスに記載されているように定義される。

i番目のセグメント(i=0...15)の場合、対応する区分線形モデルは、2つの入力ピボット点InputPivot[i]およびInputPivot[i+1]、ならびに、2つの出力(マッピング)ピボット点MappedPivot[i]およびMappedPivot[i+1]、によって定義される。さらに、10ビットの入力ビデオを想定すると、InputPivot[i]およびMappedPivot[i]の値(i=0...15)は、以下のように計算される。
1.変数OrgCW=64を設定する。
2.i=0:16の場合、InputPivot[i]=i*OrgCW
3.i=0:16の場合、MappedPivot[i]は以下のように計算される。
MappedPivot[0]=0;
(i=0;i<16;i++)の場合
MappedPivot[i+1]=MappedPivot[i]+SignaledCW[i]
ここで、SignaledCW[i]は、第iのセグメントについてのコードワードのシグナリングされた数である。
図4に示すように、LMCS処理中に2つの異なるドメインで動作する必要がある。インター予測モード(「インターCU」)を介して符号化された各CUについて、その動き補償予測は、元のドメインで実行される。しかしながら、輝度成分(すなわち、輝度予測サンプルと輝度残差サンプルとの加算)の再構成はマッピングされたドメインで実行されるため、動き補償輝度予測Ypredは、Y’predが画素再構成405に使用される前に、順方向マッピング関数410すなわちY’pred=FwdMap(Ypred)を介して、元のドメインからマッピングされたドメインにおける値Y’predにマッピングされる必要がある。一方、イントラ予測モード(「イントラCU」)を介して符号化された各CUについて、Y’predが画素再構成405に使用される前に、マッピングされたドメインでイントラ予測404が実行されることを考える(図4に示す)と、予測サンプルのマッピングは必要ではない。最後に、再構成された輝度サンプルY’reconを生成した後、逆方向マッピング関数406を適用して、再構成された輝度サンプルY’reconを元のドメインの値Yreconに変換してから、輝度DPB 408に進む、すなわち、Yrecon=InvMap(Y’recon)である。インターCUにのみ適用される必要がある予測サンプルの順方向マッピング410とは異なり、再構成されたサンプルの逆方向マッピング406は、インターCUとイントラCUの両方に適用される必要がある。
要約すると、デコーダ側では、現在のLMCSのループ内輝度マッピングは、輝度予測サンプルYpredが必要に応じてマッピングされたドメインに最初に変換されるように行われる。Y’pred=FwdMap(Ypred)。次に、マッピングされた予測サンプルがデコードされた輝度残差に加算され、マッピングされたドメインの再構成された輝度サンプルを形成する。Y’recon=Y’pred+Y’res。最後に、逆マッピングを適用して、再構成された輝度サンプルY’reconを元のドメインに変換する。Yrecon=InvMap(Y’recon)。エンコーダ側では、輝度残差はマッピングされたドメインで符号化されるため、マッピングされた輝度の元のサンプルとマッピングされた輝度の予測サンプルとの間の差として生成される。Y’res=FwdMap(Yorg)-FwdMap(Ypred)。
LMCSの第2のステップである輝度依存彩度残差スケーリングは、ループ内マッピングが輝度信号に適用されるときに、輝度信号とその対応する彩度信号との間の量子化精度の相互作用を補償するように設計される。彩度残差スケーリングが有効であるか無効であるかは、スライスヘッダでも通知される。輝度マッピングが有効にされており、現在のスライスに対して輝度成分および彩度成分の並列木分割が無効にされている場合、輝度依存彩度残差スケーリングが適用されるかどうかを示すために、追加のフラグがシグナリングされる。輝度マッピングが使用されない場合、または現在のスライスに対して並列木分割が有効にされている場合、輝度依存彩度残差スケーリングは常に無効にされる。さらに、4つ以下の彩度サンプルを含むCUについて、彩度残差スケーリングは常に無効にされる。
イントラCUおよびインターCUの両方について、彩度残差をスケーリングするために使用されるスケーリングパラメータは、対応するマッピングされた輝度予測サンプルの平均に依存する。スケーリングパラメータは、この段落の直後のボックスに記載されているように導出される。

avg’を、マッピングされたドメインにおける輝度予測サンプルの平均として表す。スケーリングパラメータCScaleInvは、以下のステップに従って計算される。
1.マッピングされたドメインでavg’が属する区分線形モデルのセグメントインデックスY1dxを見つける。ここで、Y1dxは、0から15の範囲の整数値を有する。
2.CScaleInv=cScaleInv[Y1dx]、式中、cScaleInv[i]、i=0...15は、予め計算された16個のルックアップテーブル(LUT)である。
イントラ予測はLMCSのマッピングされたドメインで実行されるため、イントラ、結合インターイントラ予測(CIIP)、またはイントラ・ブロック・コピー(IBC)モードとして符号化されたCUの場合、avg’は、輝度予測サンプルの平均として計算される。そうでない場合、avg’は、順方向マッピングされたインター予測輝度サンプルの平均として計算される。
図4はまた、輝度依存彩度残差スケーリングについての輝度予測サンプルの平均の計算を示す。インターCUの場合、順方向マッピングされた輝度予測Y’predは、スケーリングされた彩度残差CresScaleと共に彩度残差スケーリング411に供給されて、彩度残差Cresが導出され、これは、再構成された彩度値Creconを導出するために、彩度予測Cpredと共に彩度再構成413に供給される。イントラCUの場合、イントラ予測404は、既にマッピングされたドメインにあるY’predを生成し、それは、インターCUの場合と同様の方法で彩度残差スケーリング411に供給される。
サンプルベースで実行される輝度マッピングとは異なり、CScaleInvは、彩度CU全体に対して固定される。CScaleInvが与えられると、この段落の直後のボックスに記載されているように、彩度残差スケーリングが適用される。

エンコーダ側:
Figure 0007367237000001
デコーダ側:
Figure 0007367237000002
ここで、CResScaleおよびCResは、それぞれ、元のおよびスケーリングされた彩度残差サンプル値を表す。
現在のVVCなどの新しいビデオ符号化規格では、新しい符号化ツールが導入されており、新しい符号化ツールのいくつかの例は、双方向オプティカルフロー(Bi-Directional Optical Flow,BDOF)、デコーダ側動きベクトル微調整(Decoder-side Motion Vector Refinement,DMVR)、結合インターイントラ予測(Combined Inter and Intra Prediction,CIIP)、アフィンモード、およびアフィンモード用のオプティカルフローによる予測微調整(Prediction Refinement with Optical Flow,PROF)である。
現在のVVCでは、双方向オプティカルフロー(BDOF)を適用して、双方向予測符号化ブロックの予測サンプルを補正する。
図5は、BDOF処理の説明図である。BDOFは、双予測が使用される場合にブロックベースの動き補償予測の上で実行されるサンプルに関する動きの微調整である。各4×4サブブロック501の動き微調整
Figure 0007367237000003
は、サブブロックの周りの1つの6×6ウインドウΩ
Figure 0007367237000004
内にBDOFが適用された後の参照ピクチャリスト0(L0)と参照ピクチャリスト1(L1)の予測サンプル、502と503との間の差を最小化することによって計算される。
具体的には、この段落の直後のボックスに記載されているように、動き微調整
Figure 0007367237000005
の値が導出される。

Figure 0007367237000006
ここで、
Figure 0007367237000007
はフロア関数であり、clip3(min,max,x)は、[min,max]の範囲内の任意の値xをクリッピングする関数である。記号>>は、ビット単位の右シフト操作を表す。記号<<は、ビット単位の左シフト操作を表す。
Figure 0007367237000008
は、不規則な局所的な動きに起因する伝播された誤差を防止するための動き補正閾値であり、これは1<<max(5,bitDepth-7)に等しく、ここで、bitDepthは内部ビット深度である。さらに、
Figure 0007367237000009
である。
すぐ上のボックス内の値
Figure 0007367237000010
Figure 0007367237000011
Figure 0007367237000012
Figure 0007367237000013
および
Figure 0007367237000014
は、この段落の直後のボックスに記載されているようにさらに計算される。

Figure 0007367237000015
ここで、
Figure 0007367237000016
すぐ上のボックス内の値
Figure 0007367237000017
は、中間高精度(すなわち、16ビット)で生成されるリスト
Figure 0007367237000018
Figure 0007367237000019
内の予測信号の座標
Figure 0007367237000020
におけるサンプル値である。値
Figure 0007367237000021
および
Figure 0007367237000022
は、その2つの隣接するサンプル間の差を直接計算することによって得られる、サンプルの水平勾配および垂直勾配である。値
Figure 0007367237000023
および
Figure 0007367237000024
は、この段落の直後のボックスに記載されているように計算される。

Figure 0007367237000025
上述の動き微調整
の値を導出するためのボックスに記載されているように、式(1)に従って導出された動き微調整に基づき、この段落の直後のボックスに示されるように、オプティカルフローモデルに基づいて動き軌跡に沿ってL0/L1予測サンプルを補間することによって、CUの最終的な双予測サンプルが計算される。

ここで、
および
は、双予測のためにL0およびL1予測信号を結合するために適用される右シフト値およびオフセット値であり、それぞれ
および
に等しい。
上述したビット深度制御方法に基づいて、BDOF処理全体の中間パラメータの最大ビット深度は32ビットを超えず、乗算への最大入力は15ビット以内であることが保証され、すなわち、BDOF実装には15ビット乗算器があれば十分である
DMVRは、バイラテラルマッチング予測を使用することによってさらに補正することができる2つの初期シグナリングされたMVを有するマージブロックに使用される双予測技術である。
具体的には、DMVRでは、バイラテラルマッチングは、2つの異なる参照ピクチャ内の現在のCUの動き軌跡に沿った2つのブロック間の最良一致を見つけることによって、現在のCUの動き情報を導出するために使用される。マッチング処理に用いられるコスト関数は、行サブサンプリングされたSAD(差分絶対値和)である。マッチング処理が行われた後、補正されたMVは予測段階で動き補償に使用され、後続のピクチャの時間的動きベクトル予測および未補正のMVは、現在のCUの動きベクトルとその空間的近傍の動きベクトルとの間の動きベクトル予測に使用される。
連続的な動き軌跡の仮定の下では、2つの参照ブロックを指す動きベクトルMV0およびMV1は、現在のピクチャと2つの参照ピクチャとの間の時間距離、すなわちTD0およびTD1に比例するものとする。特殊なケースとして、現在のピクチャが2つの参照ピクチャの間に時間的にあり、現在のピクチャから2つの参照ピクチャまでの時間的距離が同じである場合、バイラテラルマッチングはミラーベースの双方向MVになる。
現在のVVCでは、ハイブリッドビデオ符号化方式でインター予測方法およびイントラ予測方法が使用され、各PUは、時間ドメインまたは空間ドメインのいずれかで相関を利用するためにインター予測またはイントラ予測を選択することしかできないが、両方ではない。しかしながら、以前の文献で指摘されたように、インター予測ブロックおよびイントラ予測ブロックによって生成された残差信号は、互いに非常に異なる特性を提示する可能性がある。したがって、2種類の予測を効率的に組み合わせることができれば、予測残差のエネルギーを削減して符号化効率を向上させるために、もう一つのより正確な予測が期待できる。さらに、自然なビデオコンテンツでは、動くオブジェクトの動きが複雑になる可能性がある。例えば、古いコンテンツ(例えば、以前に符号化されたピクチャに含まれるオブジェクト)と新たなコンテンツ(例えば、以前に符号化されたピクチャにおいて除外されるオブジェクト)の両方を含む領域が存在する可能性がある。そのようなシナリオでは、インター予測もイントラ予測も現在のブロックの1つの正確な予測を提供することができない。
予測効率をさらに向上させるために、マージモードで符号化された1つのCUのイントラ予測とインター予測とを組み合わせた、結合インターイントラ予測(CIIP)が、VVC規格で採用されている。具体的には、各マージCUについて、現在のCUに対してCIIPが有効にされているかどうかを示すために、1つの追加のフラグがシグナリングされる。フラグが1に等しい場合、CIIPは、輝度および彩度成分のイントラ予測サンプルを生成するために平面モードのみを適用する。さらに、等しい重み(すなわち、0.5)が、CIIP CUの最終予測サンプルとして、インター予測サンプルおよびイントラ予測サンプルを平均するために適用される。
VVCはまた、動き補償予測のためのアフィンモードをサポートする。HEVCでは、動き補償予測には並進する動きモデルのみが適用される。現実世界では、ズームイン/ズームアウト、回転、遠近の動き、および他の不規則な動きなど、多くの種類の動きがある。VVCでは、インター符号化ブロックごとに1つのフラグをシグナリングすることによって、アフィン動き補償予測が適用され、並進する動きまたはアフィン動きモデルがインター予測に適用されるかどうかを示す。現在のVVC設計では、4パラメータアフィンモードおよび6パラメータアフィンモードを含む2つのアフィンモードが、1つのアフィン符号化ブロックに対してサポートされている。
4パラメータアフィンモデルは、次のパラメータを有する。水平方向および垂直方向の各々の並進する動きのための2つのパラメータ、ズームの動きのための1つのパラメータ、および両方向の回転する動きのための1つのパラメータである。水平ズームパラメータは垂直ズームパラメータと等しい。水平回転パラメータは垂直回転パラメータと等しい。動きベクトルおよびアフィンパラメータのより良好な適応を達成するために、VVCにおいて、それらのアフィンパラメータは、現在のブロックの左上隅および右上隅に位置する、2つのMV(制御点動きベクトル(CPMV)とも呼ばれる)に変換される。ブロックのアフィン動きフィールドは、2つの制御点MV(V、V)によって記述される。
制御点の動きベクトルに基づいて、1つのアフィン符号化ブロックの動きフィールド(v、v)が、この段落の直後のボックスに記載されているように計算される。

6パラメータアフィンモードは、次のパラメータを有する。水平方向および垂直方向の各々の並進する動きための2つのパラメータ、ズームの動きのための1つのパラメータおよび水平方向の回転する動きのための1つのパラメータ、ズームの動きのための1つのパラメータおよび垂直方向の回転する動きのための1つのパラメータである。6パラメータアフィン動きモデルは、3つのCPMVにおいて3つのMVで符号化される。
1つの6パラメータアフィンブロックの3つの制御点は、ブロックの左上、右上、および左下隅に位置する。左上制御点の動きは並進する動きに関連し、右上制御点の動きは水平方向の回転およびズームの動きに関連し、左下制御点の動きは垂直方向の回転およびズームの動きに関連する。4パラメータアフィン動きモデルと比較して、6パラメータアフィン動きモードの水平方向の回転およびズームの動きは、垂直方向のそれらの動きと同じではない場合がある。
(V,V,V)が現在のブロックの左上、右上、および左下隅のMVであると仮定すると、各サブブロック(v、v)の動きベクトルは、この段落の直後のボックスに記載されているように、制御点で3つのMVを使用して導出される。

Figure 0007367237000033
アフィン動き補償精度を向上させるために、オプティカルフローによる予測微調整(PROF)が、現在のVVCにおいて現在研究され、それは、オプティカルフローモデルに基づいてサブブロックベースのアフィン動き補償を補正する。具体的には、サブブロックベースのアフィン動き補償を行った後、1つのアフィンブロックの輝度予測サンプルは、オプティカルフロー方程式に基づいて導出された1つのサンプル微調整値によって修正される。詳細には、PROFの操作は、以下の4つのステップにまとめることができる。
ステップ1において、サブブロックベースのアフィン動き補償が実行され、4パラメータアフィンモデルについては上記の式(6)において、および6パラメータアフィンモデルについては上記の式(7)において、導出されたサブブロックMVを使用して、サブブロック予測
Figure 0007367237000034
を生成する。
ステップ2において、各予測サンプルの空間勾配
Figure 0007367237000035
および
Figure 0007367237000036
は、この段落の直後のボックスに記載されているように計算される。

Figure 0007367237000037
さらにステップ2において、勾配を計算するために、予測サンプルの1つの追加の行/列が1つのサブブロックの各側で生成される必要がある。メモリ帯域幅および複雑さを低減するために、拡張された境界上のサンプルは、追加の補間処理を回避するために、参照ピクチャ内の最も近い整数画素位置からコピーされる。
ステップ3では、輝度予測微調整値は、この段落の直後のボックスに記載されているように計算される。

Figure 0007367237000038
ここで、
Figure 0007367237000039
は、サンプル位置
Figure 0007367237000040
について計算され
Figure 0007367237000041
と記述された画素MVと、画素
Figure 0007367237000042
が位置するサブブロックのサブブロックMVとの差である。
さらに、現在のPROF設計では、元の予測サンプルに予測微調整を加えた後、この段落の直後のボックスに記載されているように、補正された予測サンプルの値を15ビット以内にクリッピングするために、第4のステップとして一回のクリッピング操作が実行される。

Figure 0007367237000043
ここで、
Figure 0007367237000044
および
Figure 0007367237000045
は、それぞれ位置
Figure 0007367237000046
における元のおよび補正された予測サンプルである。
アフィンモデルパラメータおよびサブブロック中心に対する画素位置は、サブブロックごとに変更されないので、
Figure 0007367237000047
を第1のサブブロックについて計算し、同じCU内の他のサブブロックについて再利用することができる。サンプル位置
Figure 0007367237000048
からサンプルが属するサブブロックの中心までの水平および垂直オフセットを
Figure 0007367237000049
および
Figure 0007367237000050
とすると、この段落の直後のボックスに記載されているように
Figure 0007367237000051
を導出することができる。

Figure 0007367237000052
上記のアフィンサブブロックMV導出式(6)および(7)に基づいて、MV差

は、この段落の直後のボックスに記載されているように導出することができる。

4パラメータアフィンモデルの場合、
Figure 0007367237000054
6パラメータアフィンモデルの場合、
Figure 0007367237000055

ここで、
Figure 0007367237000056
Figure 0007367237000057
Figure 0007367237000058
は現在の符号化ブロックの左上、右上および左下の制御点MVであり、
Figure 0007367237000059
および
Figure 0007367237000060
はブロックの幅および高さである。既存のPROF設計では、MV差
Figure 0007367237000061
および
Figure 0007367237000062
は常に、1/32 pelの精度で導出される。
現在のLMCS設計によれば、彩度残差サンプルは、それらの対応する輝度予測サンプルに基づいてスケーリングされる。より新しい符号化ツールがインターCUに対して有効にされると、このインターCU内のLMCSを介して彩度残差サンプルをスケーリングするために使用される輝度予測サンプルは、これらのより新しい符号化ツールの十字適用した最後に取得される。
図6は、DMVR、BDOF、およびCIIPのすべてが有効にされている場合のLMCSにおける彩度残差スケーリングのワークフローを示すフローチャートである。輝度L0予測値601および輝度L1予測値602からの出力は、DMVR 603およびBDOF 604に順次供給され、得られた輝度インター予測値621は、輝度イントラ予測605からの輝度イントラ予測値622と共に平均606に供給されて平均輝度予測値623を生成し、これは、彩度残差608と共に彩度残差スケーリング607に供給され、その結果、彩度残差スケーリング607、彩度予測610、および彩度再構成609が協働して、最終結果を生成することができる。
現在のLMCS設計は、ビデオ復号処理に3つの課題を提示する。第1に、異なるドメイン間のマッピング(異なるドメインマッピング)は、追加の計算複雑性およびオンチップメモリを必要とする。第2に、輝度および彩度スケーリング係数の導出が、異なる輝度予測値を使用するという事実は、追加の複雑さをもたらす。第3に、LMCSとより新しい符号化ツールとの間の相互作用は、復号処理に遅延、すなわちLMCSに関連する遅延問題を導入する。
第1に、現在のLMCS設計では、元のドメインの再構成されたサンプルとマッピングされたドメインの両方が、様々な復号モジュールで使用される。結果として、これらのサンプルは、異なる復号モジュール間で1つのドメインから別のドメインに変換される必要があることが多く、これは、より高い計算複雑性およびより多くのオンチップメモリの両方を招く可能性がある。
具体的には、イントラモード、CIIPモード、およびIBCモードの場合、1つの現在のCUの隣接の再構成されたドメインからのマッピングされたドメイン参照サンプルが、予測サンプルを生成するために使用される。しかし、インターモードの場合、動き補償予測は、参照として時間参照ピクチャの元のドメイン再構成サンプルを使用して実行される。DPBに格納された再構成サンプルも、元のドメインにある。図4に示すように、異なる予測モードの下での再構成されたサンプルのそのような混合表現は、追加の順方向および逆輝度マッピング操作を招く。
例えば、インターCUの場合、輝度再構成操作(すなわち、予測サンプルと残差サンプルとを一緒に加算すること)は、マッピングされたドメインで実行されるため、元のドメインで生成されたインター予測輝度サンプルは、それらが輝度サンプル再構成に使用される前にマッピングされたドメインに変換される必要がある。別の例では、イントラCUとインターCUの両方について、逆(または逆方向)マッピングが常に適用されて、再構成された輝度サンプルがマッピングされたドメインから元のドメインに変換された後、DPBに格納される。そのような設計は、追加の順方向/逆マッピング操作に起因して計算複雑性を増大させるだけでなく、再構成されたサンプルの複数のバージョンを維持するために、より多くのオンチップメモリを必要とする。
上記の説明に基づいて、いくつかのLMCS設計では、輝度マッピングおよび輝度依存彩度残差スケーリングが、それぞれ輝度成分および彩度成分を符号化するために実行される。実際のハードウェア実装形態では、順方向および逆(または逆方向)マッピング関数FwdMapおよびInvMapは、ルックアップテーブル(LUT)を使用して、またはオンザフライで計算されて実装することができる。LUTベースの解決策が使用される場合、関数FwdMap、InvMap、およびcScaleInvからの可能な出力要素は、事前に計算され、LUTとして事前に格納されることができ、その後、現在のスライス内のすべてのCUの輝度マッピングおよび彩度残差スケーリング操作に使用することができる。入力ビデオが10ビットであると仮定すると、FwdMapおよびInvMapの各LUTには210=1024個の要素があり、LUTの各要素は10ビットを有する。したがって、順方向および逆輝度マッピングのLUTの合計記憶容量は、2*1024*10=20480ビット=2560バイトに等しい。一方、彩度スケーリングパラメータCScaleInvを導出するためには、エンコーダおよびデコーダにおいて16エントリのLUTテーブルcScaleInvが維持される必要があり、各彩度スケーリングパラメータは32ビットで格納される。これに対応して、LUT cScaleInvを格納するために使用されるメモリサイズは、16*32=512ビット=64バイトに等しい。2560と64との間の差は、順方向および逆(逆方向)マッピング操作によって必要とされる追加のオンチップメモリのスケールを示す。
さらに、現在のVVCなどの新しいビデオ符号化規格では、イントラ予測とデブロッキングフィルタの両方が、上記の隣接ブロックの再構成されたサンプルを使用する。したがって、現在のピクチャ/スライスの幅における再構成サンプルの1つの余分な行は、ビデオ符号化において「ラインバッファ」としても知られる、バッファ内に維持される必要がある。ラインバッファ内の再構成されたサンプルは、1つのCTU内の第1の行に位置するCUのイントラ予測およびデブロッキング操作のための基準として、少なくとも使用される。既存のLMCS設計によれば、イントラ予測およびデブロッキングフィルタは、異なるドメインの再構成されたサンプルを使用する。したがって、元のドメイン再構成サンプルとマッピングされたドメイン再構成サンプルの両方を格納するために追加のオンチップメモリが必要になり、これはラインバッファのサイズをほぼ2倍にする可能性がある。
ライン・バッファ・サイズを増加させることに加えて、ライン・バッファ・サイズの2倍化を回避するための別の実装形態選択は、オンザフライでドメインマッピング操作を実行することである。しかしながら、これは無視できない計算複雑性の増加の犠牲を伴う。
したがって、LMCSの現在の設計は、異なるドメイン間の必要なマッピングのために、追加の計算複雑性およびオンチップメモリを必要とする。
第2に、提案された適応輝度残差スケーリングでは、輝度成分と彩度成分の両方が、それらの予測残差に対してスケーリング操作を有する。LMCSの現在の設計における輝度および彩度スケーリング係数導出方法の両方は、対応するスケーリング係数を導出するために輝度予測サンプル値を使用するが、それらの対応する操作の間には違いがある。
輝度残差スケーリングの場合、スケーリング係数は、各輝度残差サンプルがそれ自体のスケーリング係数を有することを可能にすることによって、サンプルごとに導出される。しかしながら、彩度残差スケーリングの場合、スケーリング係数はCU全体に対して固定され、すなわち、CU内のすべての彩度残差サンプルは、マッピングされた輝度予測サンプルの平均に基づいて計算される同じスケーリング係数を共有する。
また、2つの異なるLUTが、輝度残差および彩度残差のスケーリング係数を計算するために使用される。具体的には、輝度LUTへの入力は、元の輝度予測サンプル値のマッピングモデルセグメントインデックスであり、彩度LUTへの入力は、マッピングされた輝度予測サンプルの平均値のマッピング・モデル・セグメント・インデックスである。いくつかの例では、輝度予測サンプルをマッピングされたドメインにマッピングする必要なしに、1つのLUTを使用して輝度残差と彩度残差の両方をスケーリングすることが可能になる。
このような違いは、符号化処理に余分な複雑さをもたらし、輝度および彩度スケーリング係数導出に対する調和された手法が望ましい。したがって、1つの統一された設計を達成するために、輝度残差および彩度残差のスケーリング方法を調和させるためのいくつかの方法を提案することができる。
第3に、「輝度依存彩度残差スケーリング」に関して上述したように、現在のLMCS設計に従って、彩度残差サンプルは、それらの対応する輝度予測サンプルに基づいてスケーリングされる。これは、CUのすべての輝度予測サンプルが完全に生成されるまで、1つのLMCS CUの彩度残差サンプルを再構成することができないことを意味する。また、上述したように、インター予測の効率を高めるために、DMVR、BDOF、およびCIIPを適用することができる。図6に示すように、LMCSの現在の設計の彩度残差スケーリングについて、DMVR、BDOF、およびCIIPの3つのモジュールすべてなどの新しい符号化ツールを順次呼び出して、彩度残差のスケーリング係数を判定するために使用される輝度予測サンプルを生成することができる。3つのモジュールの高い計算複雑性を考えると、LMCSの彩度残差スケーリングを実行する前にそれらの成功完了まで待つことは、彩度サンプルの復号のために、深刻な遅延を引き起こす可能性がある。アフィンCUの場合、各アフィンCUがPROF処理を実行し、続いてLMCSを実行することができるため、PROF処理は遅延問題も有する可能性があり、これは彩度サンプルの復号の遅延問題も引き起こす可能性がある。
さらに、LMCSの現在の設計では、彩度残差スケーリング係数導出処理中に不要なクリッピング操作が実行され、計算の複雑さおよびオンチップメモリの余分な要件がさらに増加する。
本開示は、LMCSの現在の設計によって提示されるこれらの課題を解決または緩和することを目的とし、より詳細には、本開示は、符号化利得を維持しながらハードウェアコーデック実装のためのLMCSの複雑性を低減することができる方式を論じている。
マッピング操作によって予測/再構成サンプルを変換する既存のLMCSフレームワークを使用する代わりに、予測依存残差スケーリング(PDRS)と呼ばれる1つの新しい方法が提案され、サンプルマッピングなしで予測残差を直接スケーリングする。提案された方法は、LMCSと同様の効果および符号化効率を達成することができるが、実装複雑性ははるかに低い。
PDRS手順では、図7に示すように、輝度残差サンプルを復号するための輝度予測サンプルを取得し(701)、輝度予測サンプルを使用してスケーリング係数を導出し(702)、スケーリング係数を使用して輝度残差サンプルをスケーリングし(703)、輝度予測サンプルとスケーリングされた輝度残差サンプルとを加算することによって再構成された輝度サンプルを計算する(704)。
いくつかの例では、LMCSの実装複雑性を低減するために、適応輝度残差スケーリング方法が提案される。具体的には、輝度予測残差を計算する前に予測/再構成された輝度サンプルをマッピングされたドメインに直接変換する既存のLMCS方法とは異なり、PDRS手順の提案された方法では、輝度予測残差サンプルは、マッピング操作なしで元のドメインにおける通常の予測処理と同じ方法で導出され、続いて輝度予測残差に対するスケーリング操作が行われる。輝度予測残差のスケーリングは、対応する輝度予測サンプル値および区分線形モデルに依存する。結果として、現在のLMCS設計における順方向および逆輝度マッピング操作は完全に削除することができ、復号処理中に関与するすべての予測サンプルおよび再構成サンプルは、元のサンプルドメインに維持される。上記の特徴に基づいて、提案された方法は予測依存残差スケーリングと呼ばれる。さらに、彩度残差スケーリング導出の遅延を改善するために、彩度残差サンプルのスケーリングパラメータを計算するために使用される輝度予測サンプルの生成から、DMVR、BDOF、およびCIIP操作を、完全にまたは部分的に除外するためのいくつかの方法が提案され得る。
図8は、LMCS処理においてPDRS手順を適用した場合の復号処理のワークフローを示すフローチャートである。これは、異なるドメイン間のマッピングの必要性の排除を示している。ここで、残差復号モジュール(例えば、エントロピー復号801、逆量子化802および逆変換803)を除いて、他のすべての復号モジュール(イントラ予測804,809,812およびインター予測816、再構成806および813、ならびにすべてのループ内フィルタ807および814を含む)は元のドメインで動作している。具体的には、輝度サンプルを再構成するために、PDRS手順で提案された方法は、輝度予測残差サンプルYresを元の振幅レベルに逆スケーリングし、次にそれらを輝度予測サンプルYpredに加算するだけでよい。
PDRS手順により、既存のLMCS設計における順方向および逆輝度サンプルマッピング操作が完全に除去される。これは、計算複雑性を節約/低減するだけでなく、LMCSパラメータを節約するための潜在的な記憶容量サイズも低減する。例えば、LUTベースの解決策が輝度マッピングを実施するために使用される場合、2つのマッピングLUT FwdMap[]およびInvMap[](約2560バイト)を格納するために以前に使用された記憶容量は、提案された方法ではもはや必要とされない。さらに、元のドメインとマッピングされたドメインの両方に再構成輝度サンプルを格納する必要がある既存の輝度マッピング方法とは異なり、PDRS手順の提案された方法は、元のドメインのみですべての予測サンプルおよび再構成サンプルを生成し維持する。これに対応して、既存の輝度マッピングと比較して、PDRS手順における提案された方法は、イントラ予測およびデブロッキングのために再構成されたサンプルを格納するために使用されるラインバッファのサイズを、半分だけ効率的に削減することができる。
PDRS手順の1つまたは複数の実施形態によれば、輝度予測サンプルおよび輝度残差サンプルは、輝度予測ブロックおよびその関連残差ブロック内の1つの同一位置からのものである。
PDRS手順の1つまたは複数の実施形態によれば、輝度予測サンプルを使用してスケーリング係数を導出するステップは、可能な輝度予測サンプル値の全範囲を複数の輝度予測サンプルセグメントに分割するステップと、事前定義された区分線形モデルに基づいて複数の輝度予測サンプルセグメントの各々について1つのスケーリング係数を計算するステップと、複数の輝度予測サンプルセグメントのスケーリング係数に基づいて輝度予測サンプルのスケーリング係数を判定するステップとを含む。
一例では、複数の輝度予測サンプルセグメントのスケーリング係数に基づいて輝度予測サンプルのスケーリング係数を判定するステップは、輝度予測サンプルを複数の輝度予測サンプルセグメントのうちの1つのセグメントに割り当てるステップと、輝度予測サンプルのスケーリング係数を割り当てられた輝度予測サンプルセグメントのスケーリング係数として計算するステップと、を含む。
この例では、複数の輝度予測サンプルセグメントは、事前定義された16個のLUTテーブルscaleForward内の16個のセグメントを含み、複数の輝度予測サンプルセグメントの各々について1つのスケーリング係数を計算するための事前定義された区分線形モデルは、事前定義されたLUTテーブルscaleForward内の16個のセグメントに対応する16個の値を含む。
操作精度を維持するために、輝度残差サンプルをスケーリング/逆スケーリングするために使用されるスケーリングパラメータは、それらの対応する同じ場所に配置された輝度予測サンプルに基づいて判定されてもよい。一例では、Predを1つの輝度予測サンプルの値とすると、その対応する残差サンプルのスケーリング係数は、以下のステップを介して計算される。
同じ例では、スケーリング係数(例えば、輝度残差スケーリング係数Scale)は、この段落の直後のボックスで記載されているように、割り当てられた輝度予測サンプルセグメントに基づいて計算される。

Scale=scaleForward[Idx
ここで、Yは、スケーリング係数が計算されている輝度残差値であり、Scaleは、スケーリング係数であり、scaleForward[i](i=0...15)は、事前定義された16個のLUTテーブルであり、Idxは、輝度予測サンプルドメイン値に割り当てられたセグメントのセグメントインデックスである。
scaleForward[i](i=0...15)は、以下のように事前計算される。
scaleForward[i]=(OrgCW<<SCALE_FP_PREC)/SignaledCW[i]
ここで、OrgCWおよびSignaledCW[i]は、元のドメインおよびマッピングされたドメインにおけるi番目のセグメントのコードワードの数であり、SCALE_FP_PRECは、スケーリング係数の精度である。
同じ例では、輝度スケーリング係数Scaleが与えられると、この段落の直後のボックスに記載されているように、輝度残差サンプルスケーリング方法を適用することができる。
この例の背後にある動機は、現在のLMCSにおける順方向マッピングが、1つの区分線形モデルに基づいていることである。元の輝度サンプルと輝度予測サンプルの両方が同じ断片(すなわち、2つのピボット点InputPivot[i]およびInputPivot[i+1]によって定義される同じセグメント)に位置する場合、元の輝度サンプルと予測輝度サンプルの2つの順方向マッピング関数は、全く同じになる。これに対応して、Y’res=FwdMap(Yorg)-FwdMap(Ypred)=FwdMap(Yorg-Ypred)==FwdMap(Yres)となる。この式の両側に逆マッピングを適用することにより、対応するデコーダ側再構成操作は、以下のように表すことができる。Yrecon=Ypred+InvMap(Y’res)。
言い換えれば、元の輝度サンプルと輝度予測サンプルの両方が同じ断片に位置する状況では、LMCSにおける輝度マッピング方法は、例えば、図8に示すように、この可能な実装形態で実施されるように、復号処理における1つの残差スケーリング操作によって達成することができる。

エンコーダ側:
Figure 0007367237000063
デコーダ側:
Figure 0007367237000064
このような結論は、元の輝度サンプルと輝度予測サンプルの両方が2つのピボット点InputPivot[i]およびInputPivot[i+1]によって定義される同じセグメントに位置するという仮定に基づいて導出されるが、この例のこの可能な実装形態は、元の輝度サンプルと輝度予測サンプルが区分線形モデルの異なるセグメントに位置する場合であっても、VVCにおける既存の輝度マッピング操作の単純化および/または近似として依然として使用することができる。実験結果は、そのような単純化および/または近似が、符号化性能にほとんど影響を及ぼさないことを示している。
繰り返しになるが、この例は、元の輝度サンプル値と予測された輝度サンプル値の両方が区分線形モードの同じセグメントに位置するという仮定に基づいている。この場合、元の輝度サンプルおよび予測輝度サンプルに適用される順方向/逆マッピング関数は同じである。したがって、単に輝度予測サンプルに依存して、対応する残差スケーリング係数を計算することが安全である。
しかしながら、CUの予測サンプルが十分に正確でない場合(例えば、参照サンプルから遠く離れているサンプルは通常はあまり正確に予測されない、イントラ予測されたCUの場合)、予測サンプルおよび元のサンプルは、区分線形モデルの異なるセグメントに位置することが多い。この場合、予測サンプル値に基づいて導出されたスケーリング係数は、元の(すなわち、マッピングされていない)ドメインにおける残差サンプルとマッピングされたドメインにおける残差サンプルとの間の元のマッピング関係を反映する際に、信頼できない可能性がある。
図9は、スケーリング係数を導出するために、予測サンプルのみを用いることで生じる残差マッピング誤差を示す図である。図9において、塗りつぶされた三角形の点は、区分線形関数における異なるセグメントのピボット制御点を表し、塗りつぶされた円形の点は、元のサンプル値および予測されたサンプル値を表す。YorgおよびYpredは、元の(すなわち、マッピングされていない)ドメインにおける元のサンプルおよび予測されたサンプルである。Y’orgおよびY’predは、それぞれYorgおよびYpredのマッピングされたサンプルである。YresおよびY’resは、VVCにおける既存のサンプルベースの輝度マッピング方法が適用される場合の元のドメインおよびマッピングされたドメインにおける対応する残差である。Y’resScaleは、提案された輝度残差スケーリング方式に基づいて導出されるマッピングされた残差サンプルである。図9に示すように、元のサンプルと予測サンプルとが区分線形モデルの同じセグメント内にないため、予測サンプルに基づいて導出されたスケーリング係数は、マッピングされたドメイン(すなわち、Y’res)内の元の残差を近似するスケーリングされた残差(すなわち、Y’resScale)を生成するのに十分に正確ではない可能性がある。
第2の例では、元の輝度サンプル値と予測された輝度サンプル値の両方が、区分線形モードの同じセグメントに位置するという仮定は必要ではない。
この第2の例では、残差スケーリング係数の精度を向上させるために、輝度予測サンプルが位置する区分線形モデルのセグメントから直接スケーリング係数を導出する代わりに、スケーリング係数は、N個(Nは正の整数)の隣接するセグメントのスケーリング係数の平均として計算される。
この第2の例では、複数の輝度予測サンプルセグメントのスケーリング係数に基づいて輝度予測サンプルのスケーリング係数を判定するステップは、輝度予測サンプルを複数の輝度予測サンプルセグメントのうちの1つのセグメントに割り当てるステップと、輝度予測サンプルのスケーリング係数を、割り当てられた輝度予測サンプルセグメントに隣接するいくつかの輝度予測サンプルセグメントのスケーリング係数の平均として計算するステップと、を含む。
より具体的には、この第2の例の1つの可能な実装形態では、スケーリング係数は、以下のステップで説明するように、割り当てられた輝度予測サンプルセグメントに基づいて計算され得る。例えば、デコーダ側では、輝度予測サンプルPredおよび輝度残差
Figure 0007367237000065
が与えられると、逆スケーリング
Figure 0007367237000066
に適用されるスケーリング係数は以下のように計算される。
1)元のドメインでPredが属する区分線形モデルの対応するセグメントインデックスIdxを見つけるか、または取得する。
2)
Figure 0007367237000067
≧0
の場合、輝度残差スケーリング係数は、以下のように計算される。
Figure 0007367237000068

3)そうでない場合(すなわち、
Figure 0007367237000069
輝度残差スケーリング係数は、以下のように計算される。
Figure 0007367237000070
ここで、scaleForward[i](i=0...15)は、事前定義された16個のLUTであり、次のように計算される。
scaleForward[i]=(OrgCW<<SCALE_FP_PREC)/SignaledCW[i]
ここで、OrgCWおよびSignaledCW[i]は、それぞれ元のドメインおよびマッピングされたドメインにおけるi番目のセグメントのコードワードの数であり、SCALE_FP_PRECはスケーリング係数の精度である。
上記の実装形態と他の点では同一であるこの第2の例の第2の可能な実装形態では、スケーリング係数は、この段落の直後のボックスに記載されているように、割り当てられた輝度予測サンプルセグメントに基づいて計算することができる。

1)元のドメインでPredが属する区分線形モデルの対応するセグメントインデックスIdxを見つけるか、または取得する。
2)輝度残差スケーリング係数は、以下のように計算される。
Figure 0007367237000071
ここで、scaleForwardは前の例と同じままであり、Mは[0、(N-1)]の範囲の整数である。Mの一例の値は、(N-1)/2である。Mの別の例示的な値は、N/2であってもよい。
この第2の例の上記の2つの可能な実装形態は、割り当てられたセグメントに基づくN個の輝度予測サンプルドメイン値セグメントの選択においてのみ異なる。
1つの彩度サンプル再構成手順では、図10に示すように、入力位置において輝度残差サンプルと彩度残差サンプルの両方を復号するために輝度予測サンプル値が取得され(1001)、次に、輝度残差サンプルに関連付けられた輝度予測サンプルが取得され(1002)、次に、彩度残差サンプルに関連付けられた彩度予測サンプルが取得され(1003)、輝度予測サンプルを使用して、輝度残差サンプルの第1のスケーリング係数および彩度残差サンプルの第2のスケーリング係数を導出し(1004)、第1のスケーリング係数を使用して、輝度残差サンプルをスケーリングし(1005)、第2のスケーリング係数を使用して、彩度残差サンプルをスケーリングし(1006)、再構成された輝度サンプルは、彩度予測サンプルとスケーリングされた彩度残差サンプルとを加算することによって計算され(1007)、再構成された彩度サンプルは、彩度予測サンプルとスケーリングされた彩度残差サンプルとを加算することによって計算される(1008)。
彩度サンプル再構成手順は、より統一された設計を達成するように、輝度残差および彩度残差のスケーリング方法を調和させることを目的とする。
彩度サンプル再構成手順の1つまたは複数の実施形態によれば、輝度予測サンプル値は、入力位置を含む符号化ユニット(CU)内のすべての輝度予測サンプルの平均である。これらの実施形態では、彩度スケーリング導出方法は、輝度残差のスケーリング係数を計算するために使用され、より具体的には、各輝度残差サンプルに対して1つのスケーリング係数を別々に導出する代わりに、輝度予測サンプルの平均に基づいて計算される1つの共有スケーリング係数が、CU全体の輝度残差サンプルをスケーリングするために使用される。
彩度サンプル再構成手順の別の実施形態によれば、輝度予測サンプル値は、入力位置を含む符号化ユニット(CU)から細分された事前定義されたサブブロック内のすべての輝度予測サンプルの平均である。この実施形態では、輝度残差および彩度残差の両方のスケーリング係数を導出するために、サブブロックベースの方法を提案することができる。具体的には、1つのCUは、まず、複数のM×N個のサブブロックに等しく分割される。各サブブロックについて、すべてまたは部分的な輝度予測サンプルが使用され、サブブロックの輝度および彩度の両方の残差をスケーリングするために使用される、対応するスケーリング係数を導出する。第1の方法と比較して、第2の方法は、サブブロックの外側にある相関の低い輝度予測サンプルが、サブブロックのスケーリング係数の計算から除外されるため、推定されたスケーリング係数の空間精度を改善することができる。一方、第2の方法はまた、サブブロックの輝度予測が終了した後に、すなわち、CU全体の輝度予測サンプルの完全な生成を待つことなく直ちに、1つのサブブロック内の輝度残差および彩度残差のスケーリングが開始され得ることを考慮すると、輝度および彩度残差再構成の遅延を低減することができる。
彩度サンプル再構成手順の第3の実施形態によれば、輝度予測サンプルドメイン値は、同じ場所に配置された輝度予測サンプルを含む。この実施形態では、輝度残差スケーリング方法は、彩度残差をスケーリングするように拡張され、各彩度残差サンプルの異なるスケーリング係数は、その同じ場所に配置された輝度予測サンプル値に基づいて導出される。
彩度サンプル再構成手順の上記の実施形態では、彩度残差のスケーリングを行うために、輝度スケーリング係数の計算に使用されるのと同じLUTを使用することが提案される。一例では、彩度残差のCUレベルのスケーリング係数Scaleを導出するために、以下に従うことができる。
1)avgとして示される、CU内の輝度予測サンプル(元のドメインで表される)の平均を計算する。
2)avgが属する区分線形モデルの対応するセグメントインデックスIdxを見つけるか、または取得する。
3)Scaleの値を以下のように計算する。
Scale=scaleForward[Idx
ここで、scaleForward[i](i=0...15)は、1つの事前定義された16個のLUTであり、これは次のように計算される。
scaleForward[i]=(OrgCW<<SCALE_FP_PREC)/SignaledCW[i]
ここで、OrgCWおよびSignaledCW[i]は、それぞれ元のドメインおよびマッピングされたドメインにおけるi番目のセグメントのコードワードの数であり、SCALE_FP_PRECはスケーリング係数の精度である。
上記の例は、現在のCUの各サブブロックごとに彩度残差のスケーリング係数が導出される場合に、容易に拡張することができる。その場合、上記の第1のステップでは、avgYはサブブロックの元のドメインにおける輝度予測サンプルの平均として計算されるが、ステップ2およびステップ3は同じままである。
第2の彩度サンプル再構成手順では、図11に示すように、符号化ユニット(CU)のための輝度予測処理中にいくつかの事前定義された中間輝度予測段階をスキップすることによって複数の輝度予測サンプルが取得され(1101)、取得された複数の輝度予測サンプルを使用して、CU内の彩度残差サンプルのためのスケーリング係数を導出し(1102)、スケーリング係数を使用して、CU内の彩度残差サンプルをスケーリングし(1103)、再構成された彩度サンプルは、CU内の彩度予測サンプルおよびスケーリングされた彩度残差サンプルを加算することによって計算される(1104)。
第2の彩度サンプル再構成手順の1つまたは複数の実施形態によれば、事前定義された中間輝度予測段階は、デコーダ側動きベクトル導出(DMVR)、双方向オプティカルフロー(BDOF)、および結合インターイントラ予測(CIIP)の1つまたは複数の双予測モジュールを含む。これらの実施形態では、遅延問題を解決するために、DMVR、BDOF/PROF、CIIPイントラ/インター結合処理の前に導出されたインター予測サンプルを使用して、彩度残差のスケーリング係数を導出する。
図12は、DMVR、BDOF、およびCIIPが彩度スケーリングのための輝度予測サンプルを生成するために適用されない、第2の彩度サンプル再構成手順のこの実施形態の一例における、LMCS復号処理のワークフローを示すフローチャートである。ここで、DMVR 1203、BDOF 1204および/またはCIIPの輝度イントラ予測部1205が完全に終了するのを待つ代わりに、初期L0およびL1の輝度予測1201および1202に基づく、予測サンプル1221および1222が利用可能になるとすぐに、彩度残差スケーリング処理1208を開始することができる。
図12では、DMVR 1203、BDOF 1204、および/またはCIIP 1205の前に、初期L0およびL1の予測サンプル1221および1222を組み合わせるために、元の平均化操作1206に加えて、1つの追加の平均化操作1211が必要である。
複雑さを低減するために、第2の彩度サンプル再構成手順のこの実施形態の第2の例では、初期L0予測サンプルが常に使用され、彩度残差のためのスケーリング係数を導出することができる。
図13は、初期単一予測信号が彩度スケーリングのための輝度予測サンプルを生成するために適用される、第2の彩度サンプル再構成手順のこの実施形態の第2の例における、LMCS復号処理のワークフローを示すフローチャートである。元の平均化操作1306に加えて追加の平均化操作は必要ない。初期L0の予測サンプル1321は、DMVR 1303、BDOF 1304、および/またはCIIP 1305の前の彩度残差のスケーリング係数を導出するために使用される。
第2の彩度サンプル再構成手順のこの実施形態の第3の例では、彩度残差スケーリング係数を導出するために使用される輝度予測サンプルとして、1つの初期予測信号(L0またはL1)が適応的に選択される。この例の1つの可能な実装形態では、初期予測信号(L0またはL1)の間で、その参照ピクチャが現在のピクチャよりも小さいピクチャ順序カウント(POC)距離を有するものが、彩度残差スケーリング係数を導出するために選択される。
第2の彩度サンプル再構成手順の別の実施形態では、彩度残差スケーリング係数を判定するために使用されるインター予測サンプルを生成するためにCIIPを有効にしながら、DMVR、BDOF/PROFのみを無効にすることが提案される。具体的には、この方法では、DMVRおよびBDOF/PROFの前に導出されたインター予測サンプルが最初に平均化される。次に、CIIPのイントラ予測サンプルと組み合わされる。最後に、結合された予測サンプルは、彩度残差スケーリング係数を決定するための予測サンプルとして使用される。
第2の彩度サンプル再構成手順のさらに別の実施形態では、彩度残差スケーリング係数を判定するために使用される予測サンプルを生成するために、DMVRおよびCIIPを保持しながら、BDOF/PROFのみを無効にすることが提案される。
第2の彩度サンプル再構成手順のさらに別の実施形態では、彩度残差スケーリング係数を判定するために使用される輝度予測サンプルを導出する際に、DMVRを無効にしながら、BDOF/PROFおよびCIIPを保持することが提案される。
さらに、第2の彩度サンプル再構成手順の上記の実施形態における方法は、彩度予測残差スケーリングの遅延を低減するように設計されているので示されているが、それらの方法は、輝度予測残差スケーリングの遅延を低減するためにも使用できること、に言及する価値がある。例えば、「予測依存残差スケーリングに基づく輝度マッピング」のセクションで説明したPDRS方法にも、すべての方法を適用することができる。
既存のDMVR設計によれば、計算複雑性を軽減するために、DMVR動き微調整に使用される予測サンプルは、デフォルトの8タップ補間の代わりに2タップバイリニアフィルタを使用して生成される。補正された動きが判定された後、現在のCUの最終予測サンプルを生成するためにデフォルトの8タップフィルタが適用される。したがって、DMVRによって生じる彩度残差復号遅延を低減するために、バイリニアフィルタによって生成された輝度予測サンプル(現在のCUが双予測される場合、L0およびL1予測サンプルの平均)を使用して、彩度残差のスケーリング係数を判定することが提案される。
1つの彩度残差サンプル再構成手順によれば、図14に示すように、1つまたは複数の輝度予測サンプル値が、デコーダ側動きベクトル導出(DMVR)のバイリニアフィルタの出力から選択され(1401)、1つまたは複数の選択された輝度予測サンプル値が、入力ビデオの元の符号化ビット深度と同じビット深度を有する別の1つまたは複数の輝度予測サンプル値に調整され(1402)、入力ビデオの元の符号化ビット深度と同じビット深度を有する輝度予測サンプル値を使用して、1つまたは複数の彩度残差サンプルを復号するためのスケーリング係数を導出し(1403)、スケーリング係数を使用して、1つまたは複数の彩度残差サンプルをスケーリングし(1404)、1つまたは複数の彩度残差サンプルが、1つまたは複数のスケーリングされた彩度残差サンプルとそれらの対応する彩度予測サンプルとを加算することによって再構成される(1405)。
彩度残差サンプル再構成手順の1つまたは複数の実施形態では、DMVRのバイリニアフィルタの出力から1つまたは複数の輝度予測サンプル値を選択するステップは、DMVRのバイリニアフィルタの出力からL0およびL1の輝度予測サンプルを選択するステップを含む。
図15は、彩度残差サンプル再構成手順のそのような一実施形態におけるLMCS復号処理のワークフローを示すフローチャートである。DMVR 1503のバイリニアフィルタ1512成分の出力からのL0およびL1予測サンプル1521および1522は、1つまたは複数の彩度残差サンプルを復号するための彩度残差スケーリング1507で使用されるべき彩度残差スケーリング入力1523を導出するために、平均1511に供給される。
これらの実施形態では、ビットコード深度の問題がある。DMVRによって使用される内部記憶容量サイズを節約するために、DMVRのバイリニアフィルタによって生成される中間L0およびL1予測サンプルは、10ビット精度である。これは、14ビットに等しい通常の双予測の即時予測サンプルの表現ビット深度とは異なる。したがって、バイリニアフィルタから出力された中間予測サンプルは、その異なる精度のために、彩度残差スケーリング係数を判定するために直接適用することができない。
この問題に対処するために、最初に、DMVR中間ビット深度を通常の動き補償補間に使用される中間ビット深度と整合させる、すなわち、ビット深度を10ビットから14ビットに増加させることが提案される。その後、通常の双予測信号を生成するために適用される既存の平均処理を再利用して、彩度残差スケーリング係数を判定するための対応する予測サンプルを生成することができる。
これらの実施形態の一例では、1つまたは複数の選択された輝度予測サンプル値を、入力ビデオの元の符号化ビット深度と同じビット深度を有する別の1つまたは複数の輝度予測サンプル値に調整することは、左シフトにより、DMVRのバイリニアフィルタの出力からのL0およびL1輝度予測サンプルの内部ビット深度を14ビットに増加させることと、14ビットシフトされたL0およびL1輝度予測サンプル値を平均することによって14ビット平均輝度予測サンプル値を取得することと、右シフトにより、14ビット平均輝度予測サンプル値の内部ビット深度を入力ビデオの元の符号化ビット深度に変更することによって、14ビット平均輝度予測サンプル値を変換することと、を含む。
より具体的には、この例では、彩度スケーリング係数は、この段落の直後のボックスに記載されたステップによって判定される。

1)内部ビット深度整合。次のように示されるように、バイリニアフィルタによって生成されたL0およびL1の予測サンプルの内部ビット深度を、10ビットから14ビットに増加させる。
Figure 0007367237000072
ここで、
Figure 0007367237000073
および
Figure 0007367237000074
はバイリニアフィルタから出力された予測サンプルであり、
Figure 0007367237000075
および
Figure 0007367237000076
はビット深度整合後のスケーリングされた予測サンプルである。
Figure 0007367237000077
は、以下の平均操作によって生じる予測サンプルのシフトされたダイナミックレンジを補償するために使用される定数である。
2)L0およびL1のスケーリングされた予測サンプルの平均。彩度残差スケーリング係数を判定するために使用される最終的な輝度サンプルは、以下のように2つのスケーリングされた輝度予測サンプルを平均することによって計算される。
Figure 0007367237000078
ここで、ビット深度は、入力ビデオの符号化ビット深度である。
彩度残差サンプル再構成手順の他の実施形態では、DMVRのバイリニアフィルタの出力から1つまたは複数の輝度予測サンプル値を選択し、入力ビデオの元の符号化ビット深度と同じビット深度を有する別の1つまたは複数の輝度予測サンプル値に1つまたは複数の選択された輝度予測サンプル値を調整するステップは、DMVRのバイリニアフィルタの出力からL0およびL1の輝度予測サンプルのうちの1つの輝度予測サンプルを選択するステップと、シフトによって選択された1つの輝度予測値の内部ビット深度を入力ビデオの元の符号化ビット深度に変更することによって1つの選択された輝度予測サンプルを調整するステップと、入力ビデオの元の符号化ビット深度と同じビット深度を有する輝度予測サンプルとして調整された輝度予測サンプルを使用するステップと、を含む。
図16は、彩度残差サンプル再構成手順のそのような他の一実施形態における、LMCS復号処理のワークフローを示すフローチャートである。DMVR 1603のバイリニアフィルタ1612成分の出力からのL0予測サンプル1621は、1つまたは複数の彩度残差サンプルを復号するための彩度残差スケーリング1607で使用される。この実施形態では、初期単一予測サンプル(すなわち、L0予測サンプル)を直接使用して、彩度残差のスケーリング係数を導出することが提案される。
彩度残差サンプル再構成手順の1つのそのような他の実施形態の一例では、現在のCUが双予測されると仮定すると、彩度スケーリング係数は、この段落の直後のボックスに記載されたように、バイリニアフィルタから出力された輝度サンプルを入力ビデオの元の符号化ビット深度にシフトすることによって判定される。

ビット深度が10以下である場合、
Figure 0007367237000079
そうでない場合、
Figure 0007367237000080
最後に、輝度予測サンプルを生成する代わりに、参照サンプル(すなわち、外部参照ピクチャから取り出される整数位置のサンプル)を直接使用して、彩度残差のスケーリング係数を判定することが提案される。1つまたは複数の実施形態において、彩度残差スケーリング係数を判定するために、L0およびL1における参照サンプルの平均を使用することが提案される。別の実施形態では、彩度残差スケーリング係数を計算するために、一方向(例えば、リストL0)の参照サンプルのみに提案することができる。
第2の彩度残差サンプル再構成手順によれば、図17に示すように、1つまたは複数の輝度参照サンプル値が参照ピクチャから選択され(1701)、1つまたは複数の選択された輝度参照サンプル値が輝度サンプル値に変換され(1702)、変換された輝度サンプルを使用してスケーリング係数を導出し(1703)、スケーリング係数を使用して1つまたは複数の彩度残差サンプルをスケーリングし(1704)、1つまたは複数の彩度残差サンプルが、1つまたは複数のスケーリングされた彩度残差サンプルとそれらの対応する彩度予測サンプルとを加算することによって再構成される(1705)。
第2の彩度残差サンプル再構成手順の1つまたは複数の実施形態では、参照ピクチャから1つまたは複数の輝度参照サンプル値を選択し、1つまたは複数の選択された輝度参照サンプル値を輝度サンプル値に変換するステップは、L0およびL1参照ピクチャからL0およびL1の両方の輝度参照サンプル値を取得するステップと、変換された輝度サンプル値としてL0およびL1の輝度参照サンプル値を平均するステップと、を含む。
第2の彩度残差サンプル再構成手順の他の実施形態では、参照ピクチャから1つまたは複数の輝度参照サンプルを選択し、1つまたは複数の選択された輝度参照サンプルを輝度サンプル値に変換するステップは、L0およびL1参照ピクチャからのL0およびL1輝度参照サンプル値の中から1つの輝度参照サンプル値を選択するステップと、1つの選択された輝度参照サンプル値を変換された輝度サンプル値として使用するステップと、を含む。
既存のLMCS設計によれば、現在のCUが位置する64x64領域に隣接する再構成輝度サンプルは、領域内のCUの彩度残差スケーリング係数を計算するために使用される。さらに、1つのクリッピング操作、すなわちClip 1()は、再構成された輝度隣接サンプルを、平均が計算される前に、内部ビット深度のダイナミックレンジ([0,(1<<bitDepth)-1]の範囲内にクリッピングするために適用される。
具体的には、本方法は、まず、現在のCUが属する対応する64x64領域の、64個の左隣接輝度サンプルおよび64個の上隣接輝度サンプル、をフェッチする。次いで、左および上の隣接サンプルの平均、すなわちavgYを計算し、LMCS区分線形モデル内のavgYのセグメントインデックスY1dxを見つける。最後に、彩度残差CScaleInv=cScaleInv[Y1dx]を導出する。
具体的には、現在のVVC草案では、対応する平均輝度をどのように導出するかは以下のように説明され、クリッピング操作Clip 1()は、目立つフォントサイズで示されるように適用されている。
変数varScaleの導出には、以下の順序付きステップが適用される。
変数invAvgLumaは、以下のように導出される。
-配列recLuma[i](i=0(2*sizeY-1))、および変数cntは、以下のように導出される。
-変数cntは0に等しく設定される。
-availLがTRUEに等しい場合、配列recLuma[i](i=0..sizeY-1は、currPic[xCuCb-1][Min(yCuCb+i,pic_height_in_luma_samples-1)](i=0..sizeY-1)に等しく設定され、cntはsizeYに等しく設定される。
-availTがTRUEに等しい場合、配列recLuma[cnt+i](i=0..sizeY-1)は、currPic[Min(xCuCb+i,pic_width_in_luma_samples-1)][yCuCb-1](i=0..sizeY-1)に等しく設定され、cntは(cnt+sizeY)に等しく設定される。
-変数invAvgLumaは、以下のように導出される。
-cntが0より大きい場合、以下が適用される。
Figure 0007367237000081
-そうでない場合(cntは0に等しい)、以下が適用される。
invAvgLuma=1<<(BitDepth-1)
上記の説明では、sizeYは64である。recLuma[i]は、上および左の隣接する輝度サンプルの再構成サンプルである。invAvgLumaは、計算された輝度平均である。
しかしながら、再構成処理では、1つのCUの残差サンプルに予測サンプルを加算した後、結果のサンプル値は、内部ビット深度のダイナミックレンジに既にクリッピングされている。これは、現在の64x64領域の周りのすべての隣接する再構成輝度サンプルが、内部ビット深度の範囲内にあることが保証されることを意味する。したがって、それらの平均、すなわちavgYもこの範囲を超えることはできない。その結果、既存のクリッピング(すなわち、Clip 1())は、対応する彩度残差スケーリング係数を計算する必要がない。LMCS設計の複雑さおよびメモリ要件をさらに低減するために、隣接する再構成された輝度サンプルの平均を計算するときから、クリッピング操作を除去し、彩度残差スケーリング係数を導出することが提案される。
図18は、非クリッピング彩度残差スケーリング係数導出手順のステップを示すフローチャートである。図18では、CUが位置する第2の所定の領域に隣接する第1の所定の領域からの複数の再構成された輝度サンプルが、CUの復号中に選択され(1801)、複数の再構成された輝度サンプルの平均が計算され(1802)、複数の再構成された輝度サンプルの平均が、CUを復号するための彩度残差スケーリング係数を導出する際に、クリッピングなしで直接使用される(1803)。
非クリッピング彩度残差スケーリング係数導出手順の1つまたは複数の実施形態では、複数の再構成輝度サンプルの平均は、複数の再構成輝度サンプルの算術平均である。
非クリッピング彩度残差スケーリング係数導出手順の1つまたは複数の実施形態では、CUを復号するための彩度残差スケーリング係数を導出する際に、複数の再構成された輝度サンプルの平均をクリッピングなしで直接使用するステップは、事前定義された区分線形モデルにおける平均のセグメントインデックスを識別するステップと、セグメントの線形モデルの勾配に基づいてCUを復号するためのクロム残差スケーリング係数を導出するステップと、を含む。
非クリッピング彩度残差スケーリング係数導出手順の1つまたは複数の実施形態では、第1の所定の領域内の輝度予測サンプルおよび輝度残差サンプルを生成するステップと、輝度残差サンプルを輝度予測サンプルに加算するステップと、加算された輝度サンプルを符号化ビット深度のダイナミックレンジにクリッピングするステップと、によって、第1の所定の領域内の複数の再構成輝度サンプルが生成される。
非クリッピング彩度残差スケーリング係数導出手順の1つまたは複数の実施形態では、複数の再構成輝度サンプルは、複数の順方向マッピングされたインター輝度再構成サンプルである。
非クリッピング彩度残差スケーリング係数導出手順の1つまたは複数の実施形態において、第2の所定の領域は、CUが位置する64×64の領域である。
一例では、図19に示すように、第1の所定の領域は、第2の所定の領域1904の真上の1x64の領域1902内の上部隣接サンプルを含み得る。これに代え、あるいはこれに加えて、第1の所定の領域は、第2の所定の領域1904のすぐ左の64x1の領域1903内の左の近隣サンプルを含み得る。
既存のLMCS設計によれば、元のドメインとマッピングされたドメインの両方の再構成されたサンプルは、異なるモードで符号化されたCUに使用される。これに対応して、2つのドメイン間で予測および再構成輝度サンプルを変換するために、複数のLMCS変換が現在の符号化/復号処理に関与する。
具体的には、イントラモード、CIIPモード、およびIBCモードの場合、イントラ予測サンプルを生成するために使用される1つの現在のCUの隣接する再構成ドメインからの参照サンプルは、マッピングされたドメイン内に維持される。対照的に、CIIPモードおよびすべてのインターモードでは、時間参照ピクチャから生成される動き補償予測サンプルは、元のドメインにある。輝度再構成操作はマッピングされたドメインで実行されるため、輝度成分のそれらのインター予測サンプルは、残差サンプルと加算される前にマッピングされたドメインに変換される必要がある。一方、イントラおよびインターモードの両方について、逆マッピングは、マッピングされたドメインから元のドメインに変換された、再構成された輝度サンプルに常に適用される。
さらに、クリッピング操作、すなわちClip 1()は、インター予測サンプルを、マッピングされたドメインに変換された後に、内部ビット深度のダイナミックレンジ(すなわち、[0,(1<<bitDepth)-1]の範囲内にクリッピングするために適用される。一方、イントラおよびインターモードの両方について、再構成された輝度サンプルが元のドメインに変換された後、同じクリッピング操作が再構成された輝度サンプルにも適用される。
しかしながら、既存のLMCS設計に基づいて、順方向LMCSから得られるサンプルが常に内部ビット深度のダイナミックレンジ内にあることを保証するビットストリーム制約が一つある。これは、インターCUのマッピングされた輝度予測サンプルが、そのようなダイナミックレンジを超えることができないことを意味する。したがって、インターモードのマッピングされた輝度予測サンプルに適用される既存のクリッピング操作は、冗長である。一例として、インターモードおよびCIIPモードのインター予測サンプルの順方向変換後に、クリッピング操作を除去することが提案され得る。別の例では、再構成された輝度サンプルをマッピングされたドメインから元のドメインに変換するときに、逆LMCSマッピング処理からクリッピング操作を除去することが提案され得る。
より具体的には、現在のVVC草案では、輝度サンプルの逆マッピング処理は以下のように説明され、式(1242)のクリッピング操作Clip 1()は、目立つフォントサイズで示されるように適用されている。
8.8.2.2 輝度サンプルの逆マッピング処理
この処理への入力は、輝度サンプルlumaSampleである。
この処理の出力は、修正された輝度サンプルinvLumaSampleである。
invLumaSampleの値は以下のように導出される。
-輝度サンプルlumaSampleを含むスライスのslice_lmcs_enabled_flagが1に等しい場合、以下の順序付きステップが適用される。
1.変数idxYInvは、lumaSampleを入力として、idxYInvを出力として、条項8.8.2.3で指定されているように、輝度サンプルの区分関数インデックス処理の識別を呼び出すことによって導出される。
2.変数invSampleは以下のように導出される。
Figure 0007367237000082
3.逆マッピングされた輝度サンプルinvLumaSampleは、以下のように導出される。
Figure 0007367237000083
-そうでない場合、invLumaSampleはlumaSampleと等しく設定される。
さらに、現在のVVC草案では、結合マージおよびイントラ予測のための重み付きサンプル予測処理は、以下のように説明され、ここでは、目立つフォントサイズで示されるように、クリッピング操作Clip 1()が適用されている。
8.5.6.7 結合マージおよびイントラ予測のための重み付きサンプル予測処理
この処理への入力は以下の通りである。
-現在のピクチャの左上輝度サンプルに対して、現在の輝度符号化ブロックの左上サンプルを指定する輝度位置(xCb、yCb)
-現在の符号化ブロックの幅cbWidth、
-現在の符号化ブロックの高さcbHeight
-2つの(cbWidth)x(cbHeight)配列predSamplesInterおよびpredSamplesIntra
-色成分インデックスを指定する変数cIdx
この処理の出力は、予測サンプル値の(cbWidth)×(cbHeight)配列predSamplesCombである。
変数scallFactは以下のように導出される。
Figure 0007367237000084
隣接する輝度位置(xNbA、yNbA)および(xNbB、yNbB)は、それぞれ、(xCb-1,yCb-1+(cbHeight<<scallFactY))および(xCb-1+(cbWidth<<scallFactX)、yCb-1)に、等しく設定される。
XがAまたはBのいずれかに置き換えられる場合、変数availableXおよびisIntraCodedNeighbourXは、以下のように導出される。
-条項6.4.4で指定された隣接ブロック可用性の導出処理では、(xCb、yCb)に等しく設定された位置(xCurr、yCurr)、(xNbX、yNbX)に等しく設定された隣接位置(xNbY、yNbY)、FALSEに等しく設定されたcheckPredModeY、および0に等しく設定されたcIdx、が入力として呼び出され、出力はavailableXに割り当てられる。
-変数isIntraCodedNeighbourXは、以下のように導出される。
-availableXがTRUEに等しく、CuPredMode[0][xNbX][yNbX]がMODE_INTRAに等しい場合、isIntraCodedNeighbourXはTRUEに等しく設定される。
-そうでない場合、isIntraCodedNeighbourXは、FALSEと等しく設定される。
重みwは以下のように導出される。
-isIntraCodedNeighbourAとisIntraCodedNeighbourBの両方がTRUEに等しい場合、wは3に等しく設定される。
-そうでない場合、isIntraCodedNeighbourAとisIntraCodedNeighbourBの両方がFALSEに等しい場合、wは1に等しく設定される。
-そうでない場合、wは2に等しく設定される。
cIdxが0に等しく、slice_lmcs_enabled_flagが1に等しい場合、x=0..cbWidth-1およびy=0..cbHeight-1を有するpredSamplesInter[x][y]は、以下のように修正される。
Figure 0007367237000085
x=0..cbWidth-1およびy=0..cbHeight-1を有する予測サンプルpredSamplesComb[x][y]は、以下のように導出される。
Figure 0007367237000086
さらに、現在のVVC草案では、輝度サンプルのマッピング処理を用いたピクチャ再構成は以下のように説明され、クリッピング操作Clip 1()は、目立つフォントサイズで示されるように適用されている。
8.7.5.2 輝度サンプルのマッピング処理によるピクチャ再構成
この処理への入力は以下の通りである。
-現在のピクチャの左上サンプルに対する、現在のブロックの左上サンプルの位置(xCurr、yCurr)、
-ブロック幅を規定する変数nCurrSw
-ブロック高さを指定する変数nCurrSh
-現在のブロックの輝度予測サンプルを指定する(nCurrSw)x(nCurrSh)配列predSamples
-現在のブロックの輝度残差サンプルを指定する(nCurrSw)x(nCurrSh)配列resSamples
この処理の出力は、再構成された輝度ピクチャサンプルアレイrecSamplesである。
マッピングされた予測輝度サンプルpredMapSamplesの(nCurrSw)×(nCurrSh)配列は、以下のように導出される。
-以下の条件のうちの1つが真である場合、predMapSamples[i][j]は、i=0..nCurrSw-1、j=0..nCurrSh-1に対してpredSamples[i][j]と等しく設定される。
-CuPredMode[0][xCurr][yCurr]はMODE_INTRAと等しい。
-CuPredMode[0][xCurr][yCurr]は、MODE_IBCと等しい。
-CuPredMode[0][xCurr][yCurr]は、MODE_PLTと等しい。
-CuPredMode[0][xCurr][yCurr]はMODE_INTERに等しく、ciip_flag[xCurr][yCurr]は1に等しい。
-そうでない場合(CuPredMode[0][xCurr][yCurr]がMODE_INTERに等しく、ciip_flag[xCurr][yCurr]が0に等しい)、以下が適用される。
Figure 0007367237000087
ここで、i=0..nCurrSw-1、j=0..nCurrSh-1)
再構成された輝度ピクチャサンプルrecSamplesは、以下のように導出される。
Figure 0007367237000088

ここで、i=0..nCurrSw-1,j=0..nCurrSh-1
これらの冗長なクリッピング操作は、既存のLMCS設計における計算複雑性およびオンチップメモリの余分な要件を招く。LMCS設計の複雑さおよびメモリ要件をさらに低減するために、これらの冗長なクリッピング操作を除去することが提案される。
非クリッピング彩度サンプル復号手順によれば、図20に示すように、彩度スケーリングを伴う輝度マッピング(LMCS)フレームワークの下で、インターモードまたは結合インターイントラ予測(CIIP)モードによって符号化された符号化ユニット(CU)の復号中に、輝度成分の複数の再構成されたサンプルが、マッピングされたドメイン内で取得され(2001)、輝度成分の複数の再構成されたサンプルをマッピングされたドメインから元のドメインに変換することにより、輝度成分の複数の変換されたサンプルが元のドメイン内で取得され(2002)、CUの彩度サンプルを復号するための彩度スケーリング係数を導出する際に、元のドメインにおける複数の変換された輝度成分のサンプルが、クリッピングなしで、で使用される(2003)。
非クリッピング彩度サンプル復号手順の1つまたは複数の実施形態では、図21に示すように、CUがインターモードによって符号化される場合、マッピングされたドメインにおける輝度成分の複数の再構成されたサンプルを取得するステップは、元のドメインにおける輝度成分の複数のインター予測サンプルを計算するステップ(2101)と、マッピングされたドメインにおける輝度成分の複数の変換されたインター予測サンプルを取得するために、輝度成分の複数のインター予測サンプルを元のドメインからマッピングされたドメインに、クリッピングなしで、変換するステップ(2102)と、
マッピングされたドメインにおける輝度成分の複数の変換されたインター予測サンプルを、マッピングされたドメインにおける輝度成分の複数の残差サンプルに加算し、その結果、マッピングされたドメインにおける輝度成分の複数の再構成されたサンプルが得られるステップ(2103)と、を含む。
非クリッピング彩度サンプル復号手順の他の1つまたは複数の実施形態では、図22に示すように、CUがCIIPモードによって符号化される場合、マッピングされたドメインにおける輝度成分の複数の再構成されたサンプルを取得するステップは、元のドメインにおける輝度成分の複数のインター予測サンプルを計算するステップ(2201)と、マッピングされたドメインにおける輝度成分の複数の変換されたインター予測サンプルを取得するために、輝度成分の複数のインター予測サンプルを元のドメインからマッピングされたドメインに、クリッピングなしで、変換するステップ(2202)と、マッピングされたドメインにおける輝度成分の複数のイントラ予測サンプルを計算するステップ(2203)と、複数の変換されたインター予測サンプルと複数のイントラ予測サンプルとの加重平均によって、マッピングされたドメインにおける輝度成分の予測サンプルを導出するステップ(2204)と、
マッピングされたドメインにおける輝度成分の導出された予測サンプルを、マッピングされたドメインにおける輝度成分の複数の残差サンプルに加算し、その結果、マッピングされたドメインにおける輝度成分の複数の再構築されたサンプルが得られるステップ(2205)と、を含む。
現在のLMCSが有効にされると、順方向および逆方向輝度マッピングは、11ビットの精度で定義された1つのLUTテーブルを使用して実行される。例えば、順方向輝度マッピングを例にとると、現在の順方向マッピングスケーリング係数は、以下のように定義される。
ScaleCoeff[i]=(lmcsCW[i]*(1<<11)+(1<<(Log 2(OrgCW)-1)))>>(Log 2(OrgCW))
ここで、lmcsCWは、マッピングされた輝度ドメインの1つのセグメントの長さであり、OrgCWは、1<<(BitDepth-4)に等しい元の輝度ドメインの1つのセグメントの長さである。
しかしながら、11ビットのこのような精度は、16ビット未満の内部符号化ビット深度にのみ十分であることが分かった。内部符号化ビット深度が16ビットである場合、Log 2(OrgCW)の値は12となる。そのような場合、11ビット精度の向上は、スケーリング係数導出をサポートするのに十分ではない。これにより、現在のビットストリーム適合性が適用された場合、すなわち、マッピングされた輝度ドメインにおけるセグメントの長さの合計が(1<<BitDepth)-1以下である場合でも、順方向輝度マッピング後のマッピングされた予測輝度サンプル値は、内部符号化ビット深度のダイナミックレンジを超えることになり得る。
このような考察に基づいて、2つの解決策が提案される。
1つの解決策では、インターモードおよびCIIPモードのマッピングされた輝度予測サンプルに、常にクリッピング操作を適用することが提案される。その上、現在のビットストリーム適合性を除去することができる。
この解決策の下で、結合マージおよびイントラ予測のための重み付きサンプル予測処理は以下のようになる。現在のVVC草案における同じ手順の仕様と比較して、マッピングされた輝度予測サンプルがクリッピング値を含むように、クリッピング操作Clip 1()が式(1028 a)に常に適用される。
8.5.6.7 結合マージおよびイントラ予測のための重み付きサンプル予測処理
この処理への入力は以下の通りである。
cIdxが0に等しく、slice_lmcs_enabled_flagが1に等しい場合、x=0..cbWidth-1およびy=0..cbHeight-1を有するpredSamplesInter[x][y]は、以下のように修正される。
Figure 0007367237000089
x=0..cbWidth-1およびy=0..cbHeight-1を有する予測サンプルpredSamplesComb[x][y]は、以下のように導出される。
Figure 0007367237000090
この解決策の下でも、輝度サンプルのマッピング処理を用いたピクチャ再構成は以下のようになる。現在のVVC草案における同じ手順の仕様と比較して、マッピングされた輝度予測サンプルがクリッピング値を含むように、クリッピング操作Clip 1()が追加される。
8.7.5.2 輝度サンプルのマッピング処理によるピクチャ再構成
この処理への入力は以下の通りである。
-現在のピクチャの左上サンプルに対する、現在のブロックの左上サンプルの位置(xCurr、yCurr)、
-ブロック幅を規定する変数nCurrSw
-ブロック高さを指定する変数nCurrSh
-現在のブロックの輝度予測サンプルを指定する(nCurrSw)x(nCurrSh)配列predSamples
-現在のブロックの輝度残差サンプルを指定する(nCurrSw)x(nCurrSh)配列resSamples
この処理の出力は、再構成された輝度ピクチャサンプルアレイrecSamplesである。
マッピングされた予測輝度サンプルpredMapSamplesの(nCurrSw)×(nCurrSh)配列は、以下のように導出される。
-以下の条件のうちの1つが真である場合、predMapSamples[i][j]は、i=0..nCurrSw-1、j=0..nCurrSh-1に対してpredSamples[i][j]と等しく設定される。
-CuPredMode[0][xCurr][yCurr]はMODE_INTRAと等しい。
-CuPredMode[0][xCurr][yCurr]は、MODE_IBCと等しい。
-CuPredMode[0][xCurr][yCurr]は、MODE_PLTと等しい。
-CuPredMode[0][xCurr][yCurr]はMODE_INTERに等しく、ciip_flag[xCurr][yCurr]は1に等しい。
-そうでない場合(CuPredMode[0][xCurr][yCurr]がMODE_INTERに等しく、ciip_flag[xCurr][yCurr]が0に等しい)、以下が適用される。
Figure 0007367237000091
ここで、i=0..nCurrSw-1、j=0..nCurrSh-1)
再構成された輝度ピクチャサンプルrecSamplesは、以下のように導出される。
Figure 0007367237000092
ここで、i=0..nCurrSw-1,j=0..nCurrSh-1
第2の解決策では、LMCSのスケーリング係数導出の精度を11ビット(Mビットと表記)を超えるように増加させることが提案される。
この第2の解決策の下では、順方向輝度マッピングは以下のようになる。
ScaleCoeff[i]=(lmcsCW[i]*(1<<M)+(1<<(Log 2(OrgCW)-1)))>>(Log 2(OrgCW))
idxY=predSamples[i][j]>>Log2(OrgCW)
predMapSamples[i][j]=LmcsPivot[idxY]+
(ScaleCoeff[idxY]*(predSamples[i][j]-InputPivot[idxY])+(1<<(M-1)))>>M(1219)
with i=0..nCurrSw-1,j=0..nCurrSh-1
第2の解決策の一実施形態では、順方向および逆輝度マッピングの両方のスケーリング係数導出の精度を高めることが提案される。第2の解決策の別の実施形態では、順方向輝度マッピングのスケーリング係数導出の精度のみを高めることが提案される。
上記の2つの解決策のいずれかが適用される場合、インターモードおよびCIIPモードのマッピングされた輝度予測サンプルに適用される現在のクリッピング操作も安全に除去することができる。
本開示の第1の態様によれば、図23に示すように、LMCSフレームワークの下でインターモードまたはCIIPモードによって符号化されたCUの輝度成分の、マッピングされたドメインにおける複数の予測サンプルが取得され(2301)、CUの輝度成分の、マッピングされたドメインにおける複数の残差サンプルがビットストリームから受信され(2302)、マッピングされたドメインにおける複数の予測サンプルが、マッピングされたドメインにおける複数の残差サンプルに加算され、その結果、輝度成分の、マッピングされたドメインにおける複数の再構成サンプルが得られ(2303)、輝度成分の複数の再構成サンプルが、事前定義された複数の逆マッピングスケーリング係数に基づいて、マッピングされたドメインから元のドメインに変換される(2304)。
本開示の第一の態様の1つまたは複数の実施形態では、図24に例示されるように、CUはインターモードによって符号化され、CUの輝度成分の、マッピングされたドメインにおける複数の予測サンプルを取得することは、CUの時間参照ピクチャからCUの輝度成分の、元のドメインにおける複数のインター予測サンプルを導出すること(2401)と、その後、事前定義された符号化ビット深度、および事前定義された順方向マッピング精度内にある事前定義された複数の順方向マッピングスケーリング係数に基づいて、輝度成分の複数のインター予測サンプルを、元のドメインからマッピングされたドメインに変換すること(2402)と、を含む。
本開示の第一の態様の他の1つまたは複数の実施形態では、図25に例示されるように、CUはCIIPモードによって符号化され、CUの輝度成分の、マッピングされたドメインにおける複数の予測サンプルを取得することは、CUの時間参照ピクチャからCUの輝度成分の、元のドメインにおける複数のインター予測サンプルを導出すること(2501)と、事前定義された符号化ビット深度、および事前定義された順方向マッピング精度内にある事前定義された複数の順方向マッピングスケーリング係数に基づいて、輝度成分の複数のインター予測サンプルを、元のドメインからマッピングされたドメインに変換すること(2502)と、CUの輝度成分の、マッピングされたドメインにおける複数のイントラ予測サンプルを計算すること(2503)と、変換された複数のインター予測サンプルおよび複数のイントラ予測サンプルの加重平均として、マッピングされたドメインにおけるCUの輝度成分の予測サンプルを導出すること(2504)と、を含む。
一例では、図26に示すように、事前定義された符号化ビット深度、および事前定義された順方向マッピング精度内にある事前定義された複数の順方向マッピングスケーリング係数に基づいて、輝度成分の複数のインター予測サンプルを、元のドメインからマッピングされたドメインに変換することは、事前定義された複数の順方向マッピングスケーリング係数を使用して、輝度成分の複数のインター予測サンプルを、元のドメインからマッピングされたドメインに変換すること(2601)と、事前定義された符号化ビット深度、および事前定義された順方向マッピング精度に基づいて、クリッピング操作が必要であるかどうかを判定すること(2602)と、クリッピング操作が必要であるという判定に応答して、マッピングされたドメインにおける輝度成分の複数のインター予測サンプルを、事前定義された符号化ビット深度にクリッピングすること(2603)と、クリッピング操作が必要ではないという判定に応答して、輝度成分の複数のインター予測サンプルのクリッピングをバイパスすること(2604)と、を含む。
1つまたは複数の場合において、クリッピング操作が必要であるかどうか判定することは、事前定義された符号化ビット深度が事前定義された順方向マッピング精度よりも大きい場合に、クリッピング操作が必要であると判定することを含む。
1つまたは複数の場合において、クリッピング操作が必要であるかどうか判定することは、事前定義された符号化ビット深度が事前定義された順方向マッピング精度よりも小さい場合に、クリッピング操作が必要ではないと判定することを含む。
1つまたは複数の例では、クリッピング操作が必要であるかどうかを判定することは、事前定義された符号化ビット深度および事前定義された順方向マッピング精度に関係なく、クリッピング操作が必要であると判定することを含む。
1つまたは複数の例では、クリッピング操作が必要かどうかを判定することは、事前定義された符号化ビット深度および事前定義された順方向マッピング精度に関係なく、クリッピング操作が必要ではないと判定することを含む。
1つまたは複数の例では、事前定義された順方向マッピング精度は15ビットである。
1つまたは複数の例では、事前定義された順方向マッピング精度は11ビットである。
図27は、本開示のいくつかの実装形態にしたがうビデオ符号化のための装置を例示するブロック図である。装置2700は、携帯電話、タブレットコンピュータ、デジタル放送端末、タブレットデバイス、または携帯情報端末などの端末であってもよい。
図27に示すように、装置2700は、以下の構成要素、処理構成要素2702、メモリ2704、電源構成要素2706、マルチメディア構成要素2708、オーディオ構成要素2710、入力/出力(I/O)インターフェース2712、センサ構成要素2714、および通信構成要素2716、のうちの1つまたは複数を含み得る。
処理構成要素2702は、通常、表示、通話、データ通信、カメラ操作および記録操作に関連する操作など、装置2700の全体的な操作を制御する。処理構成要素2702は、上記の方法のステップの全部または一部を完了するために命令を実行するための1つまたは複数のプロセッサ2720を含むことができる。さらに、処理構成要素2702は、処理構成要素2702と他の構成要素との間の相互作用を容易にするために、1つまたは複数のモジュールを含むことができる。例えば、処理構成要素2702は、マルチメディア構成要素2708と処理構成要素2702との間の対話を容易にするために、マルチメディアモジュールを含むことができる。
メモリ2704は、装置2700の操作をサポートするために、異なるタイプのデータを格納するように構成される。そのようなデータの例は、装置2700上で動作する任意のアプリケーションまたは方法のための命令、連絡先データ、電話帳データ、メッセージ、写真、ビデオなどを含む。メモリ2704は、任意のタイプの一時的または非一時的記憶媒体またはそれらの組み合わせを含むことができ、メモリ2704は、スタティックランダムアクセスメモリ(SRAM)、電気的消去可能プログラマブル読み出し専用メモリ(EEPROM)、消去可能プログラマブル読み出し専用メモリ(EPROM)、プログラマブル読み出し専用メモリ(PROM)、読み出し専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスクまたはコンパクトディスクであってもよい。非一時的記憶媒体は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、フラッシュメモリ、ハイブリッドドライブまたはソリッドステートハイブリッドドライブ(SSHD)、読み出し専用メモリ(ROM)、コンパクトディスク読み出し専用メモリ(CD-ROM)、磁気テープ、フロッピー(登録商標)ディスクなどであってもよい。
電源構成要素2706は、装置2700の異なる構成要素に電力を供給する。電源構成要素2706は、電源管理システム、1つまたは複数の電源、および装置2700のための電力の生成、管理、および分配に関連する他の構成要素を含むことができる。
マルチメディア構成要素2708は、装置2700とユーザとの間の出力インターフェースを提供する画面を含む。いくつかの例では、画面は、液晶ディスプレイ(LCD)およびタッチパネル(TP)を含むことができる。画面がタッチパネルを含む場合、画面は、ユーザからの入力信号を受信するタッチスクリーンとして実装されてもよい。タッチパネルは、タッチパネル上のタッチ、スライド、およびジェスチャを検知するための1つまたは複数のタッチセンサを含むことができる。タッチセンサは、タッチまたはスライド操作の境界を感知するだけでなく、タッチまたはスライド操作に関連する持続時間および圧力を検出することもできる。いくつかの例では、マルチメディア構成要素2708は、フロントカメラおよび/またはリアカメラを含むことができる。装置2700が撮影モードまたはビデオモードなどの操作モードにあるとき、フロントカメラおよび/またはリアカメラは外部マルチメディアデータを受信することができる。
オーディオ構成要素2710は、オーディオ信号を出力および/または入力するように構成される。例えば、オーディオ構成要素2710は、マイクロフォン(MIC)を含む。装置2700が通話モード、録音モード、および音声認識モードなどの動作モードにあるとき、マイクロフォンは外部オーディオ信号を受信するように構成される。受信されたオーディオ信号は、メモリ2704にさらに格納されてもよく、または通信構成要素2716を介して送信されてもよい。いくつかの例では、オーディオ構成要素2710は、オーディオ信号を出力するためのスピーカをさらに含む。
I/Oインターフェース2712は、処理構成要素2702と周辺インターフェースモジュールとの間のインターフェースを提供する。上記の周辺インターフェースモジュールは、キーボード、クリックホイール、ボタンなどであってもよい。これらのボタンは、ホームボタン、音量ボタン、開始ボタン、およびロックボタンを含むことができるが、これらに限定されない。
センサ構成要素2714は、装置2700の異なる態様で状態評価を提供するための1つまたは複数のセンサを含む。例えば、センサ構成要素2714は、装置2700のオン/オフ状態および構成要素の相対位置を検出することができる。例えば、構成要素は、装置2700のディスプレイおよびキーパッドである。センサ構成要素2714はまた、装置2700または装置2700の構成要素の位置変化、装置2700上のユーザの接触の有無、装置2700の向きまたは加速/減速、および装置2700の温度変化を検出することができる。センサ構成要素2714は、物理的な接触なしに近くの物体の存在を検出するように構成された近接センサを含むことができる。センサ構成要素2714は、撮像用途に使用されるCMOSまたはCCDイメージセンサなどの光学センサをさらに含むことができる。いくつかの例では、センサ構成要素2714は、加速度センサ、ジャイロスコープセンサ、磁気センサ、圧力センサ、または温度センサをさらに含むことができる。
通信構成要素2716は、装置2700と他のデバイスとの間の有線または無線通信を容易にするように構成される。装置2700は、WiFi、4G、またはそれらの組み合わせなどの通信規格に基づいて無線ネットワークにアクセスすることができる。一例では、通信構成要素2716は、放送チャネルを介して外部の放送管理システムから放送信号または放送関連情報を受信する。一例では、通信構成要素2716は、短距離通信を促進するための近距離無線通信(NFC)モジュールをさらに含んでもよい。例えば、NFCモジュールは、無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(BT)技術、および他の技術に基づいて実装されてもよい。
一例では、装置2700は、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサ、または上記の方法を実行する他の電子素子のうちの1つまたは複数によって実装されてもよい。
1つまたは複数の例では、記載された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組み合わせで実施され得る。ソフトウェアで実装される場合、機能は、コンピュータ可読媒体に記憶されるか、または1つまたは複数の命令またはコードとしてコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行されてもよい。コンピュータ可読媒体は、データ記憶媒体などの有形媒体に対応するコンピュータ可読記憶媒体、または、例えば通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体、を含むことができる。このようにして、コンピュータ可読媒体は、一般に、(1)非一時的である有形のコンピュータ可読記憶媒体、または(2)信号または搬送波などの通信媒体、に対応することができる。データ記憶媒体は、本出願に記載された実装形態を実装するための命令、コード、および/またはデータ構造を取り出すために、1つもしくは複数のコンピュータ、または、1つもしくは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であってもよい。コンピュータプログラム製品は、コンピュータ可読媒体を含むことができる。
さらに、上記の方法は、装置2700を使用して実施することができる。本開示は、特定用途向け集積回路、プログラマブル論理アレイ、および他のハードウェアデバイスなどの専用ハードウェア実装を含むことができる。ハードウェア実装は、本明細書に記載の方法のうちの1つまたは複数を実装するように構成することができる。様々な実装形態の装置およびシステムを含むことができる例は、様々な電子およびコンピューティングシステムを広く含むことができる。本明細書に記載された1つまたは複数の例は、モジュール間およびモジュールを介して、または特定用途向け集積回路の一部として、通信することができる関連する制御およびデータ信号を有する2つ以上の特定の相互接続されたハードウェアモジュールまたはデバイスを使用して機能を実装することができる。したがって、開示された装置またはシステムは、ソフトウェア、ファームウェア、およびハードウェアの実装形態を包含し得る。「モジュール(module)」、「サブモジュール(sub-module)」、「回路(circuit)」、「サブ回路sub-circuit」、「回路(circuitry)」、「サブ回路(sub-circuitry)」、「ユニット(unit)」、または「サブユニット(sub-unit)」という用語は、1つまたは複数のプロセッサによって実行することができるコードまたは命令を記憶するメモリ(共有、専用、またはグループ)を含むことができる。本明細書で言及されるモジュールは、格納されたコードまたは命令の有無にかかわらず、1つまたは複数の回路を含むことができる。モジュールまたは回路は、接続された1つまたは複数の構成要素を含むことができる。
本発明の他の実施形態は、本明細書の考察および本明細書に開示される本発明の実施から当業者には明らかであろう。本出願は、本発明の一般的な原理に従い、当技術分野における既知のまたは慣習的な実施に含まれるような本開示からの逸脱を含む、本発明の任意の変形、使用、または適合を網羅することを意図している。本明細書および実施例は、例示としてのみ考慮されることが意図され、本発明の真の範囲および精神は、以下の特許請求の範囲によって示される。
本発明は、上記で説明され、添付の図面に示された正確な例に限定されず、その範囲から逸脱することなく様々な修正および変更を行うことができることが理解されよう。本発明の範囲は、添付の特許請求の範囲によってのみ限定されることが意図されている。

Claims (6)

  1. 彩度スケーリングを伴う輝度マッピング(LMCS)のフレームワーク下で、結合インターイントラ予測(CIIP)モードによって符号化された、符号化ユニット(CU)の輝度成分の、マッピングされたドメインにおける複数の予測サンプルを取得することと、
    前記CUの前記輝度成分の、前記マッピングされたドメインにおける複数の残差サンプルを取得することと、
    前記マッピングされたドメインにおける前記複数の予測サンプルを、前記マッピングされたドメインにおける前記複数の残差サンプルに加算し、前記輝度成分の、前記マッピングされたドメインにおける複数の再構成されたサンプルを得ることと、
    事前定義された複数の逆マッピングスケーリング係数に基づいて、前記輝度成分の前記複数の再構成されたサンプルを、前記マッピングされたドメインから元のドメインに変換することと、
    を含み、
    前記CUの前記輝度成分の、前記マッピングされたドメインにおける前記複数の予測サンプルを取得することは、
    前記CUの時間参照ピクチャから前記CUの前記輝度成分の、前記元のドメインにおける複数のインター予測サンプルを導出することと、
    事前定義された符号化ビット深度、および事前定義された順方向マッピング精度内にある事前定義された複数の順方向マッピングスケーリング係数に基づいて、前記輝度成分の前記複数のインター予測サンプルを、前記元のドメインから前記マッピングされたドメインに変換することと、
    前記CUの前記輝度成分の、前記マッピングされたドメインにおける複数のイントラ予測サンプルを計算することと、
    前記マッピングされたドメインにおける前記CUの前記輝度成分の前記予測サンプルを、前記変換された複数のインター予測サンプルおよび前記複数のイントラ予測サンプルの加重平均として導出することと、
    を含む、
    ビデオ復号のための方法。
  2. 前記事前定義された符号化ビット深度、および前記事前定義された順方向マッピング精度内にある前記事前定義された複数の順方向マッピングスケーリング係数に基づいて、前記輝度成分の前記複数のインター予測サンプルを、前記元のドメインから前記マッピングされたドメインに変換することは、
    前記事前定義された複数の順方向マッピングスケーリング係数を使用して、前記輝度成分の前記複数のインター予測サンプルを、前記元のドメインから前記マッピングされたドメインに変換することと、
    前記輝度成分の、前記マッピングされたドメインにおける前記複数のインター予測サンプルを、前記事前定義された符号化ビット深度のダイナミックレンジにクリッピングすることと、
    を含む、請求項に記載の方法。
  3. 前記事前定義された順方向マッピング精度が11ビットである、請求項に記載の方法。
  4. コンピューティングデバイスであって、
    1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサに結合された非一時的記憶装置と、
    前記1つまたは複数のプロセッサによって実行されると、前記コンピューティングデバイスに請求項1からのいずれか一項に記載の方法を実行させる、前記非一時的記憶装置に格納された複数のプログラムと、
    を含む、コンピューティングデバイス。
  5. 1つまたは複数のプロセッサを有するコンピューティングデバイスによって実行される複数のプログラムを格納する非一時的コンピュータ可読記憶媒体であって、前記複数のプログラムは、前記1つまたは複数のプロセッサによって実行されると、前記コンピューティングデバイスに請求項1からのいずれか一項に記載の方法を実行させる、非一時的コンピュータ可読記憶媒体。
  6. プロセッサによって実行されると、請求項1からのいずれか一項に記載の方法を実行する命令を有するコンピュータ読み取り可能な媒体に記憶されたコンピュータプログラム。
JP2022580391A 2020-06-24 2021-06-24 ビデオ符号化用の予測依存残差スケーリングのための方法およびデバイス Active JP7367237B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023176011A JP2024020201A (ja) 2020-06-24 2023-10-11 ビデオ符号化用の予測依存残差スケーリングのための方法およびデバイス

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063043569P 2020-06-24 2020-06-24
US63/043,569 2020-06-24
PCT/US2021/039003 WO2021263057A1 (en) 2020-06-24 2021-06-24 Methods and devices for prediction dependent residual scaling for video coding

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023176011A Division JP2024020201A (ja) 2020-06-24 2023-10-11 ビデオ符号化用の予測依存残差スケーリングのための方法およびデバイス

Publications (2)

Publication Number Publication Date
JP2023529753A JP2023529753A (ja) 2023-07-11
JP7367237B2 true JP7367237B2 (ja) 2023-10-23

Family

ID=79281882

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022580391A Active JP7367237B2 (ja) 2020-06-24 2021-06-24 ビデオ符号化用の予測依存残差スケーリングのための方法およびデバイス
JP2023176011A Pending JP2024020201A (ja) 2020-06-24 2023-10-11 ビデオ符号化用の予測依存残差スケーリングのための方法およびデバイス

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023176011A Pending JP2024020201A (ja) 2020-06-24 2023-10-11 ビデオ符号化用の予測依存残差スケーリングのための方法およびデバイス

Country Status (7)

Country Link
US (1) US20230126175A1 (ja)
EP (1) EP4173289A4 (ja)
JP (2) JP7367237B2 (ja)
KR (2) KR102663465B1 (ja)
CN (2) CN115997382A (ja)
MX (1) MX2023000018A (ja)
WO (1) WO2021263057A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102663465B1 (ko) * 2020-06-24 2024-05-03 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 비디오 코딩을 위한 예측 종속 잔차 스케일링을 위한 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019006300A1 (en) 2017-06-29 2019-01-03 Dolby Laboratories Licensing Corporation INTEGRATED IMAGE REMODELING AND VIDEO CODING
WO2020257785A1 (en) 2019-06-20 2020-12-24 Beijing Dajia Internet Information Technology Co., Ltd. Methods and devices for prediction dependent residual scaling for video coding
WO2020256400A1 (ko) 2019-06-17 2020-12-24 엘지전자 주식회사 루마 맵핑 및 크로마 스케일링 기반 비디오 또는 영상 코딩

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201611253D0 (en) * 2016-06-29 2016-08-10 Dolby Laboratories Licensing Corp Efficient Histogram-based luma look matching
US20190082138A1 (en) * 2017-09-11 2019-03-14 Apple Inc. Inverse tone-mapping to a virtual display
JP7180079B2 (ja) * 2018-02-28 2022-11-30 セイコーエプソン株式会社 回路装置及び電子機器
US11303912B2 (en) * 2018-04-18 2022-04-12 Qualcomm Incorporated Decoded picture buffer management and dynamic range adjustment
CN117560487A (zh) * 2018-09-12 2024-02-13 Lg电子株式会社 解码设备、编码设备及发送图像的数据的设备
CN111418206B (zh) * 2018-10-05 2023-12-01 Lg电子株式会社 使用mpm列表的基于帧内预测的视频编码方法及其装置
US10951898B2 (en) * 2018-10-11 2021-03-16 Lg Electronics Inc. Image decoding method and device using residual information in image coding system
US11516512B2 (en) * 2019-03-04 2022-11-29 Alibaba Group Holding Limited Method and system for processing video content
US11425379B2 (en) * 2019-05-31 2022-08-23 Hfi Innovation Inc. Method and apparatus of latency reduction for chroma residue scaling
CN117278748A (zh) * 2019-07-05 2023-12-22 Lg电子株式会社 图像解码和编码方法、存储介质及数据的发送方法
KR102663465B1 (ko) * 2020-06-24 2024-05-03 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 비디오 코딩을 위한 예측 종속 잔차 스케일링을 위한 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019006300A1 (en) 2017-06-29 2019-01-03 Dolby Laboratories Licensing Corporation INTEGRATED IMAGE REMODELING AND VIDEO CODING
WO2020256400A1 (ko) 2019-06-17 2020-12-24 엘지전자 주식회사 루마 맵핑 및 크로마 스케일링 기반 비디오 또는 영상 코딩
WO2020257785A1 (en) 2019-06-20 2020-12-24 Beijing Dajia Internet Information Technology Co., Ltd. Methods and devices for prediction dependent residual scaling for video coding

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Kiyofumi Abe, and Tadamasa Toma,Issue of simplified luma mapping of LMCS,Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-P0254-v1,16th Meeting: Geneva, CH,2019年10月,pp.1-5
Taoran Lu, et al.,AHG16: Simplification of Reshaper Implementation,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0220,14th Meeting: Geneva, CH,2019年03月,pp.1-9
Taoran Lu, et al.,CE12: Mapping functions (test CE12-1 and CE12-2),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-M0427-v2,13th Meeting: Marrakech, MA,2019年01月,pp.1-15

Also Published As

Publication number Publication date
CN115997382A (zh) 2023-04-21
KR102663465B1 (ko) 2024-05-03
WO2021263057A1 (en) 2021-12-30
EP4173289A4 (en) 2023-12-27
JP2024020201A (ja) 2024-02-14
KR20240066299A (ko) 2024-05-14
JP2023529753A (ja) 2023-07-11
KR20230019218A (ko) 2023-02-07
CN116708802A (zh) 2023-09-05
EP4173289A1 (en) 2023-05-03
MX2023000018A (es) 2023-04-04
US20230126175A1 (en) 2023-04-27

Similar Documents

Publication Publication Date Title
US20220116616A1 (en) Methods and devices for prediction dependent residual scaling for video coding
US20220124347A1 (en) Lossless coding modes for video coding
CN113647102A (zh) 用于在视频编解码中用信号发送合并模式的方法和装置
US20240137516A1 (en) Methods and devices for prediction dependent residual scaling for video coding
WO2021030502A1 (en) Methods and apparatuses for adaptive motion vector resolution in video coding
JP2024020201A (ja) ビデオ符号化用の予測依存残差スケーリングのための方法およびデバイス
JP2024038198A (ja) ビデオ符号化方法、コンピューティング装置、プログラム、及びビットストリームを格納する方法
JP2024099798A (ja) ビデオ符号化のための方法、コンピューティングデバイス、非一時的コンピュータ可読記憶媒体、コンピュータプログラム、および、ビットストリームを格納する方法
JP2024099724A (ja) ビデオ復号のための方法、コンピューティングデバイス、非一時的コンピュータ可読記憶媒体、コンピュータプログラム、および、ビデオ復号方法によって復号するビットストリームを格納する方法
KR102686450B1 (ko) 비디오 코딩을 위한 예측 의존적 잔차 스케일링을 위한 방법들 및 디바이스들
CN116193125B (zh) 用于针对视频编解码的预测相关残差缩放的方法和设备
CN114342390B (zh) 用于仿射运动补偿的预测细化的方法和装置
US20240098300A1 (en) Method and apparatus for implicitly indicating motion vector predictor precision
KR20240112991A (ko) 비디오 코딩을 위한 예측 의존적 잔차 스케일링을 위한 방법들 및 디바이스들
WO2024039910A1 (en) Method and apparatus for adaptive motion compensated filtering
WO2021062283A1 (en) Methods and apparatuses for decoder-side motion vector refinement in video coding
WO2021021698A1 (en) Methods and apparatuses for decoder-side motion vector refinement in video coding

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230217

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231011

R150 Certificate of patent or registration of utility model

Ref document number: 7367237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150