JP2023544046A - 高ビット深度ビデオコーディングのためのライスパラメータ値の適応的な導出 - Google Patents

高ビット深度ビデオコーディングのためのライスパラメータ値の適応的な導出 Download PDF

Info

Publication number
JP2023544046A
JP2023544046A JP2023520220A JP2023520220A JP2023544046A JP 2023544046 A JP2023544046 A JP 2023544046A JP 2023520220 A JP2023520220 A JP 2023520220A JP 2023520220 A JP2023520220 A JP 2023520220A JP 2023544046 A JP2023544046 A JP 2023544046A
Authority
JP
Japan
Prior art keywords
value
locsumabs
shift
video
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023520220A
Other languages
English (en)
Inventor
ルオン・ファム・ヴァン
ドミトロ・ルサノフスキー
マルタ・カルチェヴィチ
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2023544046A publication Critical patent/JP2023544046A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビデオデータを2値化するための例示的なデバイスは、ビデオデータを記憶するように構成されたメモリと、回路において実装され、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算することと、locSumAbs値からシフト値を導出することと、シフト値を使用してlocSumAbs値を正規化することと、正規化locSumAbs値を使用してライスパラメータを決定することと、ライスパラメータを使用して現在の係数を2値化または逆2値化することとを行うように構成された1つまたは複数のプロセッサとを含む。このように、これらの技法は、コンテキスト適応型バイナリ算術コーディング(CABAC)を実行するとともに高ビット深度データを2値化するときに、より適切なライスパラメータ値選択を可能にし得る。

Description

本出願は、2021年10月5日に出願された米国特許出願第17/494,418号、ならびに2020年10月6日に出願された米国仮特許出願第63/088,010号、および2020年10月12日に出願された米国仮特許出願第63/090,615号の優先権を主張し、それらの出願の各々の内容全体は、参照により本明細書に組み込まれる。2021年10月5日に出願された米国特許出願第17/494,418号は、2020年10月6日に出願された米国仮特許出願第63/088,010号、および2020年10月12日に出願された米国仮特許出願第63/090,615号の利益を主張する。
本開示は、ビデオ符号化およびビデオ復号を含むビデオコーディングに関する。
デジタルビデオ能力は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダー、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲーミングデバイス、ビデオゲームコンソール、セルラーまたは衛星ラジオ電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG-2、MPEG-4、ITU-T H.263、ITU-T H.264/MPEG-4、Part 10、アドバンストビデオコーディング(AVC)、ITU-T H.265/高効率ビデオコーディング(HEVC)によって定義された規格、およびそのような規格の拡張に記載されている技法などの、ビデオコーディング技法を実装する。ビデオデバイスは、そのようなビデオコーディング技法を実装することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、および/または記憶し得る。
ビデオコーディング技法は、ビデオシーケンスに固有の冗長性を低減または除去するために、空間(イントラピクチャ)予測および/または時間(インターピクチャ)予測を含む。ブロックベースのビデオコーディングの場合、ビデオスライス(たとえば、ビデオピクチャまたはビデオピクチャの一部分)は、ビデオブロックに区分されてもよく、ビデオブロックは、コーディングツリーユニット(CTU)、コーディングユニット(CU)および/またはコーディングノードと呼ばれることもある。ピクチャのイントラコーディングされた(I)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間予測を使用して符号化される。ピクチャのインターコーディングされた(PまたはB)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間予測または他の参照ピクチャ中の参照サンプルに対する時間予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
一般に、本開示は、高ビット深度ビデオコーディングにおける通常残差コーディング(RRC:regular residual coding)のためのライスパラメータ値を適応的に導出するための技法について説明する。具体的には、これらの技法は、一般に、計算された絶対値の局所和(locSumAbs値)からシフト値を導出することと、シフト値を使用してlocSumAbs値を正規化することと、正規化locSumAbs値からライスパラメータを導出することとを含む。これらの技法は、ITU-T H.266/多用途ビデオコーディング(VVC)または他のビデオコーディング規格の拡張に組み込まれ得る。
一例では、ビデオデータを2値化する方法は、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算するステップと、locSumAbs値からシフト値を導出するステップと、シフト値を使用してlocSumAbs値を正規化して、正規化locSumAbs値を生成するステップと、正規化locSumAbs値を使用してライスパラメータを決定するステップと、ライスパラメータを使用して現在の係数を2値化または逆2値化するステップとを含む。
別の例では、ビデオデータを2値化するためのデバイスは、ビデオデータを記憶するように構成されたメモリと、回路において実装され、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算することと、locSumAbs値からシフト値を導出することと、シフト値を使用してlocSumAbs値を正規化して、正規化locSumAbs値を生成することと、正規化locSumAbs値を使用してライスパラメータを決定することと、ライスパラメータを使用して現在の係数を2値化または逆2値化することとを行うように構成された1つまたは複数のプロセッサとを含む。
別の例では、コンピュータ可読記憶媒体は命令を記憶しており、命令は、実行されると、プロセッサに、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算することと、locSumAbs値からシフト値を導出することと、シフト値を使用してlocSumAbs値を正規化して、正規化locSumAbs値を生成することと、正規化locSumAbs値を使用してライスパラメータを決定することと、ライスパラメータを使用して現在の係数を2値化または逆2値化することとを行わせる。
別の例では、ビデオデータを2値化するためのデバイスは、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算するための手段と、locSumAbs値からシフト値を導出するための手段と、シフト値を使用してlocSumAbs値を正規化して、正規化locSumAbs値を生成するための手段と、正規化locSumAbs値を使用してライスパラメータを決定するための手段と、ライスパラメータを使用して現在の係数を2値化または逆2値化するための手段とを含む。
1つまたは複数の例の詳細が、添付の図面および以下の説明に記載される。他の特徴、目的、および利点は、説明、図面、および特許請求の範囲から明らかになるであろう。
本開示の技法を実行し得る例示的なビデオ符号化および復号システムを示すブロック図である。 例示的な4分木2分木(QTBT)構造を示す概念図である。 対応するコーディングツリーユニット(CTU)を示す概念図である。 本開示の技法を実行し得る例示的なビデオエンコーダを示すブロック図である。 本開示の技法を実行し得る例示的なビデオデコーダを示すブロック図である。 現在の係数に対する隣接する絶対値の局所和(localSumAbs)を計算するときに使用され得る、隣接する係数の例示的なセットを示す概念図である。 本開示の技法による、現在のブロックを符号化するための例示的な方法を示すフローチャートである。 本開示の技法による、現在のブロックを復号するための例示的な方法を示すフローチャートである。 本開示の技法による、ビデオデータを2値化する例示的な方法を示すフローチャートである。 本開示の技法による、ビデオデータを逆2値化する例示的な方法を示すフローチャートである。
ビデオコーディング規格は、ITU-T H.261、ISO/IEC MPEG-1 Visual、ITU-T H.262またはISO/IEC MPEG-2 Visual、ITU-T H.263、ISO/IEC MPEG-4 Visual、およびそのスケーラブルビデオコーディング(SVC)拡張とマルチビュービデオコーディング(MVC)拡張とを含むITU-T H.264(ISO/IEC MPEG-4 AVCとしても知られている)を含む。高効率ビデオコーディング(HEVC)は、ITU-Tビデオコーディングエキスパートグループ(VCEG:Video Coding Experts Group)およびISO/IECモーションピクチャエキスパートグループ(MPEG:Motion Picture Experts Group)のジョイントコラボレーションチームオンビデオコーディング(JCT-VC:Joint Collaboration Team on Video Coding)によって2013年4月に確定された。
MPEGおよびITU-T研究グループ16のVCEGによって形成された共同チームであるジョイントビデオエキスパートチーム(JVET:Joint Video Experts Team)は、最近では、多用途ビデオコーディング(VVC)として知られることになる新しいビデオコーディング規格に取り組んでいる。VVCの主目的は、既存のHEVC規格に勝る圧縮性能の著しい改善をもたらし、より高品質のビデオサービスならびに360°全方向没入型マルチメディアおよび高ダイナミックレンジ(HDR)ビデオなどの新興のアプリケーションの展開を支援することである。VVC規格の開発は2020年に完了した。VVCの草案は、phenix.it-sudparis.eu/jvet/doc_end_user/documents/19_Teleconference/wg11/JVET-S2001-v17.zipにおいて見出され得る。
本開示は、VVC仕様の1つの例示的な草案において、8ビット深度または10ビット深度のビデオソースを符号化するためにライスパラメータが広範囲にわたってテストされてきたことを認識している。例示的な設計では、ライスパラメータ値は、locSumAbsの値に依存し、クリッピングによって0から3の範囲に限定される。入力ビデオのビット深度が増加するとき、拡大された精度が有効にされるか、または量子化パラメータが非常に低く設定され、係数の範囲、したがって、locSumAbs値が大幅に増大し得る。そのような場合、VVCの例示的な草案における許容ライスパラメータ値のいくつかの範囲は十分ではない。この制限は、高ビット深度コーディングを使用するとき、VVCおよび他のビデオコーディング規格におけるコーディング性能低下を引き起こすことがある。したがって、本開示は、たとえば、高ビット深度ビデオコーディングのための、それによってライスパラメータ範囲が増大し得る技法について説明する。
図1は、本開示の技法を実行し得る例示的なビデオ符号化および復号システム100を示すブロック図である。本開示の技法は、一般に、ビデオデータをコーディング(符号化および/または復号)することを対象とする。一般に、ビデオデータは、ビデオを処理するための任意のデータを含む。したがって、ビデオデータは、未加工のコーディングされていないビデオ、符号化されたビデオ、復号された(たとえば、再構成された)ビデオ、およびシグナリングデータなどのビデオメタデータを含み得る。
図1に示すように、システム100は、この例では、宛先デバイス116によって復号および表示されるべき、符号化されたビデオデータを提供するソースデバイス102を含む。具体的には、ソースデバイス102は、コンピュータ可読媒体110を介して宛先デバイス116にビデオデータを提供する。ソースデバイス102および宛先デバイス116は、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、モバイルデバイス、タブレットコンピュータ、セットトップボックス、スマートフォンなどの電話ハンドセット、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲーミングコンソール、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスのいずれかを備えてもよい。場合によっては、ソースデバイス102および宛先デバイス116は、ワイヤレス通信用に装備されることがあり、したがって、ワイヤレス通信デバイスと呼ばれることがある。
図1の例では、ソースデバイス102は、ビデオソース104、メモリ106、ビデオエンコーダ200、および出力インターフェース108を含む。宛先デバイス116は、入力インターフェース122、ビデオデコーダ300、メモリ120、およびディスプレイデバイス118を含む。本開示によれば、ソースデバイス102のビデオエンコーダ200および宛先デバイス116のビデオデコーダ300は、高ビット深度ビデオコーディングのためのライスパラメータを適応的に導出するための技法を適用するように構成され得る。したがって、ソースデバイス102はビデオ符号化デバイスの一例を表し、宛先デバイス116はビデオ復号デバイスの一例を表す。他の例では、ソースデバイスおよび宛先デバイスは、他の構成要素または構成を含み得る。たとえば、ソースデバイス102は、外部カメラなどの外部ビデオソースからビデオデータを受信し得る。同様に、宛先デバイス116は、一体型ディスプレイデバイスを含むのではなく、外部ディスプレイデバイスとインターフェースし得る。
図1に示すようなシステム100は一例にすぎない。一般に、任意のデジタルビデオ符号化および/または復号デバイスは、高ビット深度ビデオコーディングのためのライスパラメータを適応的に導出するための技法を実行し得る。ソースデバイス102および宛先デバイス116は、ソースデバイス102が宛先デバイス116に送信するためのコーディングされたビデオデータを生成するようなコーディングデバイスの例にすぎない。本開示は、データのコーディング(符号化および/または復号)を実行するデバイスを「コーディング」デバイスと呼ぶ。したがって、ビデオエンコーダ200およびビデオデコーダ300は、コーディングデバイス、具体的には、それぞれ、ビデオエンコーダおよびビデオデコーダの例を表す。いくつかの例では、ソースデバイス102および宛先デバイス116は、ソースデバイス102および宛先デバイス116の各々がビデオ符号化および復号構成要素を含むように実質的に対称的な方法で動作し得る。したがって、システム100は、たとえば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、またはビデオテレフォニーのための、ソースデバイス102と宛先デバイス116との間の一方向または双方向のビデオ送信をサポートし得る。
一般に、ビデオソース104は、ビデオデータ(すなわち、未加工のコーディングされていないビデオデータ)のソースを表し、ビデオデータの連続した一連のピクチャ(「フレーム」とも呼ばれる)をビデオエンコーダ200に提供し、ビデオエンコーダ200は、ピクチャのためのデータを符号化する。ソースデバイス102のビデオソース104は、ビデオカメラ、以前にキャプチャされた未加工ビデオを含むビデオアーカイブ、および/またはビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェースなどの、ビデオキャプチャデバイスを含み得る。さらなる代替として、ビデオソース104は、ソースビデオとしてのコンピュータグラフィックスベースのデータ、またはライブビデオとアーカイブされたビデオとコンピュータ生成されたビデオとの組合せを生成し得る。各場合において、ビデオエンコーダ200は、キャプチャされた、事前にキャプチャされた、またはコンピュータ生成されたビデオデータを符号化する。ビデオエンコーダ200は、受信された順序(「表示順序」と呼ばれることがある)からコーディング用のコーディング順序にピクチャを並べ替え得る。ビデオエンコーダ200は、符号化されたビデオデータを含むビットストリームを生成し得る。次いで、ソースデバイス102は、たとえば、宛先デバイス116の入力インターフェース122による受信および/または取出しのために、符号化されたビデオデータを出力インターフェース108を介してコンピュータ可読媒体110上に出力し得る。
ソースデバイス102のメモリ106および宛先デバイス116のメモリ120は、汎用メモリを表す。いくつかの例では、メモリ106、120は、未加工ビデオデータ、たとえば、ビデオソース104からの未加工ビデオと、ビデオデコーダ300からの未加工の復号されたビデオデータとを記憶し得る。追加または代替として、メモリ106、120は、たとえば、それぞれ、ビデオエンコーダ200およびビデオデコーダ300によって実行可能なソフトウェア命令を記憶し得る。メモリ106およびメモリ120は、この例ではビデオエンコーダ200およびビデオデコーダ300とは別々に示されているが、ビデオエンコーダ200およびビデオデコーダ300は、機能的に同様のまたは等価な目的で内部メモリも含み得ることを理解されたい。さらに、メモリ106、120は、符号化されたビデオデータ、たとえば、ビデオエンコーダ200からの出力およびビデオデコーダ300への入力を記憶し得る。いくつかの例では、メモリ106、120の一部は、たとえば、未加工の、復号された、および/または符号化されたビデオデータを記憶するための、1つまたは複数のビデオバッファとして割り振られ得る。
コンピュータ可読媒体110は、符号化されたビデオデータをソースデバイス102から宛先デバイス116にトランスポートすることが可能な任意のタイプの媒体またはデバイスを表し得る。一例では、コンピュータ可読媒体110は、たとえば、無線周波数ネットワークまたはコンピュータベースのネットワークを介して、ソースデバイス102が符号化されたビデオデータを宛先デバイス116にリアルタイムで直接送信することを可能にする通信媒体を表す。ワイヤレス通信プロトコルなどの通信規格に従って、出力インターフェース108が符号化されたビデオデータを含む送信信号を変調し得、入力インターフェース122が受信された送信信号を復調し得る。通信媒体は、無線周波数(RF)スペクトルまたは1つもしくは複数の物理伝送線路などの、任意のワイヤレスまたはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなどの、パケットベースネットワークの一部を形成し得る。通信媒体は、ルータ、スイッチ、基地局、またはソースデバイス102から宛先デバイス116への通信を容易にするために有用であり得る任意の他の機器を含み得る。
いくつかの例では、ソースデバイス102は、符号化されたデータを出力インターフェース108から記憶デバイス112に出力し得る。同様に、宛先デバイス116は、入力インターフェース122を介して、記憶デバイス112からの符号化されたデータにアクセスし得る。記憶デバイス112は、ハードドライブ、ブルーレイディスク、DVD、CD-ROM、フラッシュメモリ、揮発性もしくは不揮発性メモリ、または符号化されたビデオデータを記憶するための任意の他の好適なデジタル記憶媒体などの、様々な分散されたまたはローカルでアクセスされるデータ記憶媒体のいずれかを含み得る。
いくつかの例では、ソースデバイス102は、符号化されたビデオデータを、ソースデバイス102によって生成された符号化されたビデオデータを記憶し得るファイルサーバ114または別の中間記憶デバイスに出力し得る。宛先デバイス116は、ストリーミングまたはダウンロードを介して、ファイルサーバ114からの記憶されたビデオデータにアクセスし得る。
ファイルサーバ114は、符号化されたビデオデータを記憶し、その符号化されたビデオデータを宛先デバイス116に送信することが可能な任意のタイプのサーバデバイスであり得る。ファイルサーバ114は、(たとえば、ウェブサイト用の)ウェブサーバ、(ファイル転送プロトコル(FTP)または単方向トランスポートを介したファイル配信(FLUTE:File Delivery over Unidirectional Transport)プロトコルなどの)ファイル転送プロトコルサービスを提供するように構成されたサーバ、コンテンツ配信ネットワーク(CDN)デバイス、ハイパーテキスト転送プロトコル(HTTP)サーバ、マルチメディアブロードキャストマルチキャストサービス(MBMS)もしくは拡張MBMS(eMBMS)サーバ、および/またはネットワークアタッチトストレージ(NAS)デバイスを表し得る。ファイルサーバ114は、追加または代替として、動的適応ストリーミングオーバーHTTP(DASH:Dynamic Adaptive Streaming over HTTP)、HTTPライブストリーミング(HLS:HTTP Live Streaming)、リアルタイムストリーミングプロトコル(RTSP:Real Time Streaming Protocol)、HTTP動的ストリーミング(HTTP Dynamic Streaming)などの1つまたは複数のHTTPストリーミングプロトコルを実装し得る。
宛先デバイス116は、インターネット接続を含む任意の標準的なデータ接続を通じて、ファイルサーバ114からの符号化されたビデオデータにアクセスし得る。これは、ワイヤレスチャネル(たとえば、Wi-Fi接続)、ワイヤード接続(たとえば、デジタル加入者回線(DSL)、ケーブルモデムなど)、またはファイルサーバ114上に記憶された符号化されたビデオデータにアクセスするのに適した両方の組合せを含み得る。入力インターフェース122は、ファイルサーバ114からメディアデータを取り出すかもしくは受信するための上記で説明した様々なプロトコルまたはメディアデータを取り出すための他のそのようなプロトコルのうちのいずれか1つまたは複数に従って動作するように構成され得る。
出力インターフェース108および入力インターフェース122は、ワイヤレス送信機/受信機、モデム、ワイヤードネットワーキング構成要素(たとえば、イーサネットカード)、様々なIEEE802.11規格のいずれかに従って動作するワイヤレス通信構成要素、または他の物理的構成要素を表し得る。出力インターフェース108および入力インターフェース122がワイヤレス構成要素を備える例では、出力インターフェース108および入力インターフェース122は、4G、4G-LTE(ロングタームエボリューション)、LTEアドバンスト、5Gなどのセルラー通信規格に従って、符号化されたビデオデータなどのデータを転送するように構成され得る。出力インターフェース108がワイヤレス送信機を備えるいくつかの例では、出力インターフェース108および入力インターフェース122は、IEEE802.11仕様、IEEE802.15仕様(たとえば、ZigBee(商標))、Bluetooth(商標)規格などの他のワイヤレス規格に従って、符号化されたビデオデータなどのデータを転送するように構成され得る。いくつかの例では、ソースデバイス102および/または宛先デバイス116は、それぞれのシステムオンチップ(SoC)デバイスを含み得る。たとえば、ソースデバイス102は、ビデオエンコーダ200および/または出力インターフェース108に起因する機能を実行するためのSoCデバイスを含み得、宛先デバイス116は、ビデオデコーダ300および/または入力インターフェース122に起因する機能を実行するためのSoCデバイスを含み得る。
本開示の技法は、オーバージエアテレビジョンブロードキャスト、ケーブルテレビジョン送信、衛星テレビジョン送信、動的適応ストリーミングオーバーHTTP(DASH)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体上に記憶されたデジタルビデオの復号、または他の適用例などの、様々なマルチメディア適用例のいずれかをサポートするビデオコーディングに適用され得る。
宛先デバイス116の入力インターフェース122は、コンピュータ可読媒体110(たとえば、通信媒体、記憶デバイス112、ファイルサーバ114など)から、符号化されたビデオビットストリームを受信する。符号化されたビデオビットストリームは、ビデオブロックまたは他のコーディングされたユニット(たとえば、スライス、ピクチャ、ピクチャグループ、シーケンスなど)の特性および/または処理を記述する値を有するシンタックス要素などの、ビデオエンコーダ200によって定義され、ビデオデコーダ300によっても使用されるシグナリング情報を含み得る。ディスプレイデバイス118は、復号されたビデオデータの復号されたピクチャをユーザに表示する。ディスプレイデバイス118は、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなどの、様々なディスプレイデバイスのいずれかを表し得る。
図1には示されていないが、いくつかの例では、ビデオエンコーダ200およびビデオデコーダ300は各々、オーディオエンコーダおよび/またはオーディオデコーダと統合されることがあり、共通のデータストリーム中のオーディオとビデオの両方を含む多重化されたストリームを処理するために、適切なMUX-DEMUXユニット、または他のハードウェアおよび/もしくはソフトウェアを含み得る。適用可能な場合、MUX-DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
ビデオエンコーダ200およびビデオデコーダ300は各々、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアまたはそれらの任意の組合せなどの、様々な好適なエンコーダおよび/またはデコーダ回路のいずれかとして実装され得る。技法が部分的にソフトウェアにおいて実装されるとき、デバイスは、好適な非一時的コンピュータ可読媒体にソフトウェア用の命令を記憶し、本開示の技法を実行するために1つまたは複数のプロセッサを使用してハードウェアにおいて命令を実行し得る。ビデオエンコーダ200およびビデオデコーダ300の各々は、1つまたは複数のエンコーダまたはデコーダに含まれることがあり、それらのいずれも、それぞれのデバイスにおいて複合エンコーダ/デコーダ(CODEC)の一部として統合されることがある。ビデオエンコーダ200および/またはビデオデコーダ300を含むデバイスは、集積回路、マイクロプロセッサ、および/またはセルラー電話などのワイヤレス通信デバイスを備え得る。
ビデオエンコーダ200およびビデオデコーダ300は、高効率ビデオコーディング(HEVC)とも呼ばれるITU-T H.265などのビデオコーディング規格、またはマルチビューおよび/もしくはスケーラブルビデオコーディング拡張などのその拡張に従って動作し得る。代替として、ビデオエンコーダ200およびビデオデコーダ300は、多用途ビデオコーディング(VVC)などの、他のプロプライエタリ規格または業界規格に従って動作し得る。VVC規格の草案は、Brossらの「Versatile Video Coding (Draft 9)」、ITU-T SG 16 WP 3およびISO/IEC JTC 1/SC 29/WG 11のJoint Video Experts Team(JVET)、第18回会議、4月15日~24日、JVET-R2001-v8(以下では「VVC Draft 9」)に記載されている。しかしながら、本開示の技法は、いかなる特定のコーディング規格にも限定されない。
一般に、ビデオエンコーダ200およびビデオデコーダ300は、ピクチャのブロックベースのコーディングを実行し得る。「ブロック」という用語は、一般に、処理される(たとえば、符号化および/または復号プロセスにおいて符号化される、復号される、または他の方法で使用される)べきデータを含む構造を指す。たとえば、ブロックは、ルミナンスおよび/またはクロミナンスデータのサンプルの2次元行列を含み得る。一般に、ビデオエンコーダ200およびビデオデコーダ300は、YUV(たとえば、Y、Cb、Cr)フォーマットで表されるビデオデータをコーディングし得る。すなわち、ピクチャのサンプルのための赤、緑、および青(RGB)データをコーディングするのではなく、ビデオエンコーダ200およびビデオデコーダ300は、ルミナンス成分およびクロミナンス成分をコーディングし得、クロミナンス成分は、赤色相と青色相の両方のクロミナンス成分を含み得る。いくつかの例では、ビデオエンコーダ200が、符号化に先立って、受信されたRGBフォーマットされたデータをYUV表現にコンバートし、ビデオデコーダ300が、YUV表現をRGBフォーマットにコンバートする。代替として、前処理ユニットおよび後処理ユニット(図示せず)が、これらのコンバージョンを実行し得る。
本開示は、一般に、ピクチャのデータを符号化または復号するプロセスを含めるように、ピクチャのコーディング(たとえば、符号化および復号)に言及することがある。同様に、本開示は、ブロックのためのデータを符号化または復号するプロセスを含めるように、ピクチャのブロックのコーディング、たとえば、予測および/または残差コーディングに言及することがある。符号化されたビデオビットストリームは、一般に、コーディング決定(たとえば、コーディングモード)およびブロックへのピクチャの区分を表すシンタックス要素のための一連の値を含む。したがって、ピクチャまたはブロックをコーディングすることへの言及は、一般に、ピクチャまたはブロックを形成するシンタックス要素のためのコーディング値として理解されるべきである。
HEVCは、コーディングユニット(CU)、予測ユニット(PU)、および変換ユニット(TU)を含む、様々なブロックを定義する。HEVCによれば、(ビデオエンコーダ200などの)ビデオコーダは、4分木構造に従ってコーディングツリーユニット(CTU)をCUに区分する。すなわち、ビデオコーダは、CTUおよびCUを4個の等しい重複しない正方形に区分し、4分木の各ノードは、0個または4個のいずれかの子ノードを有する。子ノードがないノードは「リーフノード」と呼ばれることがあり、そのようなリーフノードのCUは、1つもしくは複数のPUおよび/または1つもしくは複数のTUを含み得る。ビデオコーダはPUおよびTUをさらに区分し得る。たとえば、HEVCでは、残差4分木(RQT)はTUの区分を表す。HEVCでは、PUはインター予測データを表し、TUは残差データを表す。イントラ予測されるCUは、イントラモード指示などのイントラ予測情報を含む。
別の例として、ビデオエンコーダ200およびビデオデコーダ300は、VVCに従って動作するように構成され得る。VVCによれば、(ビデオエンコーダ200などの)ビデオコーダは、ピクチャを複数のコーディングツリーユニット(CTU)に区分する。ビデオエンコーダ200は、4分木2分木(QTBT)構造またはマルチタイプツリー(MTT)構造などのツリー構造に従ってCTUを区分し得る。QTBT構造は、HEVCのCU、PU、およびTUの間の区別などの、複数の区分タイプの概念を排除する。QTBT構造は、2つのレベル、すなわち、4分木区分に従って区分された第1のレベルおよび2分木区分に従って区分された第2のレベルを含む。QTBT構造のルートノードは、CTUに対応する。2分木のリーフノードは、コーディングユニット(CU)に対応する。
MTT区分構造では、ブロックは、4分木(QT)区分、2分木(BT)区分、および1つまたは複数のタイプの3分木(TT:triple tree)(3分木(TT:ternary tree)とも呼ばれる)区分を使用して区分され得る。3分木(triple tree)または3分木(ternary tree)区分は、ブロックが3つのサブブロックに分割される区分である。いくつかの例では、3分木(triple tree)または3分木(ternary tree)区分は、中心を通って元のブロックを分割することなく、ブロックを3つのサブブロックに分割する。MTTにおける区分タイプ(たとえば、QT、BT、およびTT)は対称または非対称であり得る。
いくつかの例では、ビデオエンコーダ200およびビデオデコーダ300は、ルミナンス成分およびクロミナンス成分の各々を表すために単一のQTBTまたはMTT構造を使用し得るが、他の例では、ビデオエンコーダ200およびビデオデコーダ300は、ルミナンス成分のための1つのQTBT/MTT構造および両方のクロミナンス成分のための別のQTBT/MTT構造(またはそれぞれのクロミナンス成分のための2つのQTBT/MTT構造)などの、2つ以上のQTBTまたはMTT構造を使用し得る。
ビデオエンコーダ200およびビデオデコーダ300は、HEVCごとの4分木区分、QTBT区分、MTT区分、または他の区分構造を使用するように構成され得る。説明のために、本開示の技法の記載はQTBT区分に関して提示される。しかしながら、本開示の技法はまた、4分木区分、または他のタイプの区分も使用するように構成されたビデオコーダに適用され得ることを理解されたい。
いくつかの例では、CTUは、ルーマサンプルのコーディングツリーブロック(CTB)、3つのサンプルアレイを有するピクチャのクロマサンプルの2つの対応するCTB、またはモノクロームピクチャもしくはサンプルをコーディングするために使用される3つの別個の色平面およびシンタックス構造を使用してコーディングされたピクチャのサンプルのCTBを含む。CTBは、CTBへの成分の分割が区分であるような、何らかの値のNに対するサンプルのN×Nブロックであり得る。成分は、4:2:0、4:2:2、もしくは4:4:4色フォーマットのピクチャの3つのアレイ(ルーマおよび2つのクロマ)のうちの1つからのアレイもしくはそのアレイの単一のサンプル、またはモノクロームフォーマットのピクチャのアレイもしくはそのアレイの単一のサンプルであり得る。いくつかの例では、コーディングブロックは、コーディングブロックへのCTBの分割が区分であるような、何らかの値のMおよびNに対するサンプルのM×Nブロックである。
ブロック(たとえば、CTUまたはCU)は、ピクチャにおいて様々な方法でグループ化され得る。一例として、ブリックは、ピクチャにおける特定のタイル内のCTU行の長方形領域を指すことがある。タイルは、ピクチャにおける特定のタイル列および特定のタイル行内のCTUの長方形領域であり得る。タイル列は、ピクチャの高さに等しい高さおよび(たとえば、ピクチャパラメータセットなどにおいて)シンタックス要素によって指定される幅を有する、CTUの長方形領域を指す。タイル行は、(たとえば、ピクチャパラメータセットなどにおいて)シンタックス要素によって指定される高さおよびピクチャの幅に等しい幅を有する、CTUの長方形領域を指す。
いくつかの例では、タイルは複数のブリックに区分されてもよく、ブリックの各々はタイル内の1つまたは複数のCTU行を含んでもよい。複数のブリックに区分されないタイルも、ブリックと呼ばれることがある。しかしながら、タイルの真のサブセットであるブリックは、タイルと呼ばれないことがある。
ピクチャの中のブリックは、スライスにおいても並べられ得る。スライスは、単一のネットワークアブストラクションレイヤ(NAL)ユニットに独占的に含まれ得る、ピクチャの整数個のブリックであり得る。いくつかの例では、スライスは、ある数の完全なタイル、または、1つのタイルの完全なブリックの連続的なシーケンスのみ、のいずれかを含む。
本開示は、垂直次元および水平次元に換算して(CUまたは他のビデオブロックなどの)ブロックのサンプル次元を指すために、互換的に「N×N」および「NかけるN(N by N)」、たとえば、16×16サンプルまたは16かける16(16 by 16)サンプルを使用し得る。一般に、16×16 CUは、垂直方向に16個のサンプル(y=16)および水平方向に16個のサンプル(x=16)を有する。同様に、N×N CUは、一般に、垂直方向にN個のサンプルおよび水平方向にN個のサンプルを有し、ここで、Nは負ではない整数値を表す。CUの中のサンプルは、行および列において並べられ得る。さらに、CUは、必ずしも水平方向に垂直方向と同じ数のサンプルを有する必要があるとは限らない。たとえば、CUはN×Mサンプルを備えてもよく、ここで、Mは必ずしもNに等しいとは限らない。
ビデオエンコーダ200は、予測および/または残差情報、ならびに他の情報を表すCUのためのビデオデータを符号化する。予測情報は、CUのための予測ブロックを形成するためにCUがどのように予測されることになるかを示す。残差情報は、一般に、符号化に先立つCUのサンプルと予測ブロックのサンプルとの間のサンプルごとの差分を表す。
CUを予測するために、ビデオエンコーダ200は、一般に、インター予測またはイントラ予測を通じてCUのための予測ブロックを形成し得る。インター予測は、一般に、以前にコーディングされたピクチャのデータからCUを予測することを指すが、イントラ予測は、一般に、同じピクチャの以前にコーディングされたデータからCUを予測することを指す。インター予測を実行するために、ビデオエンコーダ200は、1つまたは複数の動きベクトルを使用して予測ブロックを生成し得る。ビデオエンコーダ200は、一般に、たとえば、CUと参照ブロックとの間の差分に関してCUと厳密に一致する参照ブロックを識別するために、動き探索を実行し得る。ビデオエンコーダ200は、参照ブロックが現在のCUと厳密に一致するかどうかを決定するために、絶対差分和(SAD)、2乗差分和(SSD)、平均絶対差(MAD)、平均2乗差(MSD)、または他のそのような差分計算を使用して差分メトリックを計算し得る。いくつかの例では、ビデオエンコーダ200は、単方向予測または双方向予測を使用して現在のCUを予測し得る。
VVCのいくつかの例は、インター予測モードと見なされ得るアフィン動き補償モードも提供する。アフィン動き補償モードでは、ビデオエンコーダ200は、ズームインもしくはズームアウト、回転、遠近運動、または他の不規則な運動タイプなどの、非並進運動を表す2つ以上の動きベクトルを決定し得る。
イントラ予測を実行するために、ビデオエンコーダ200は、イントラ予測モードを選択して予測ブロックを生成し得る。VVCのいくつかの例は、様々な方向モードを含む67個のイントラ予測モード、ならびに平面モードおよびDCモードを提供する。一般に、ビデオエンコーダ200は、そこから現在のブロックのサンプルを予測するための現在のブロック(たとえば、CUのブロック)に対する隣接サンプルを記述するイントラ予測モードを選択する。そのようなサンプルは、一般に、ビデオエンコーダ200がラスタ走査順序で(左から右に、上から下に)CTUおよびCUをコーディングすると仮定すると、現在のブロックと同じピクチャ中の現在のブロックの上方、上方および左側、または左側にあり得る。
ビデオエンコーダ200は、現在のブロックのための予測モードを表すデータを符号化する。たとえば、インター予測モードの場合、ビデオエンコーダ200は、様々な利用可能なインター予測モードのうちのどれが使用されるか、ならびに対応するモードについての動き情報を表すデータを符号化し得る。単方向または双方向インター予測の場合、たとえば、ビデオエンコーダ200は、高度動きベクトル予測(AMVP)またはマージモードを使用して動きベクトルを符号化し得る。ビデオエンコーダ200は、アフィン動き補償モードのための動きベクトルを符号化するために類似のモードを使用し得る。
ブロックのイントラ予測またはインター予測などの予測に続いて、ビデオエンコーダ200はブロックのための残差データを計算し得る。残差ブロックなどの残差データは、ブロックと、対応する予測モードを使用して形成されたそのブロックのための予測ブロックとの間のサンプルごとの差分を表す。ビデオエンコーダ200は、サンプル領域ではなく変換領域において変換データを生成するために、1つまたは複数の変換を残差ブロックに適用し得る。たとえば、ビデオエンコーダ200は、離散コサイン変換(DCT)、整数変換、ウェーブレット変換、または概念的に類似の変換を残差ビデオデータに適用し得る。加えて、ビデオエンコーダ200は、第1の変換に続いて、モード依存型分離不可能二次変換(MDNSST:mode-dependent non-separable secondary transform)、信号依存変換、カルーネンレーベ変換(KLT:Karhunen-Loeve transform)などの二次変換を適用し得る。ビデオエンコーダ200は、1つまたは複数の変換の適用に続いて、変換係数を生成する。
上述のように、変換係数を生成するための任意の変換に続いて、ビデオエンコーダ200は、変換係数の量子化を実行し得る。量子化は一般に、変換係数を表すために使用されるデータの量をできるだけ低減するために変換係数が量子化され、さらなる圧縮を実現するプロセスを指す。量子化プロセスを実行することによって、ビデオエンコーダ200は、変換係数の一部または全部に関連付けられたビット深度を低減し得る。たとえば、ビデオエンコーダ200は、量子化の間にnビット値をmビット値に切り捨ててもよく、ここで、nはmよりも大きい。いくつかの例では、量子化を実行するために、ビデオエンコーダ200は、量子化されるべき値のビット単位の右シフトを実行してもよい。
量子化に続いて、ビデオエンコーダ200は、変換係数を走査し、量子化された変換係数を含む2次元行列から1次元ベクトルを生成し得る。走査は、より高いエネルギー(したがって、より低い周波数)の変換係数をベクトルの前方に置き、より低いエネルギー(したがって、より高い周波数)の変換係数をベクトルの後方に置くように設計され得る。いくつかの例では、ビデオエンコーダ200は、シリアル化ベクトルを生成し、次いで、ベクトルの量子化された変換係数をエントロピー符号化するために、量子化された変換係数を走査するための事前定義された走査順序を利用し得る。他の例では、ビデオエンコーダ200は適応走査を実行し得る。量子化された変換係数を走査して1次元ベクトルを形成した後、ビデオエンコーダ200は、たとえば、コンテキスト適応型バイナリ算術コーディング(CABAC)に従って、1次元ベクトルをエントロピー符号化し得る。ビデオエンコーダ200はまた、ビデオデータを復号する際にビデオデコーダ300によって使用するための符号化されたビデオデータに関連付けられたメタデータを記述するシンタックス要素のための値をエントロピー符号化し得る。
CABACを実行するために、ビデオエンコーダ200は最初に、符号化されるべき値を、すなわち、「ビン」とも呼ばれるバイナリ値のストリングを形成することによって、2値化し得る。ビデオエンコーダ200は、送信されるべきシンボル、たとえば、ビンの各々に、コンテキストモデル内のコンテキストを割り当て得る。コンテキストは、たとえば、シンボルの隣接値が0値化されているか否かに関係し得る。確率決定は、シンボルに割り当てられたコンテキストに基づき得る。
変換係数コーディングの場合、ビデオエンコーダ200およびビデオデコーダ300は、変換係数のレベル値を表すシンタックス要素の値をコーディングし得る。いくつかの例では、そのようなシンタックス要素は、有意係数フラグ(変換係数レベルの絶対値が0よりも大きいかどうかを示す)、大なり1フラグ(変換係数レベルの絶対値が1よりも大きいかどうかを示す)、大なり2フラグ(変換係数レベルの絶対値が2よりも大きいかどうかを示す)、および変換係数レベルが2よりも大きい絶対値を有する場合の変換係数の実際値を表す残存レベル値を含む。ビデオエンコーダ200およびビデオデコーダ300は、ゴロムライスコードおよび決定されたライスパラメータを使用して、残存レベル値を2値化し得る。
ビデオエンコーダ200およびビデオデコーダ300は、現在の変換係数の周りの近傍にある他の変換係数の値を使用して、現在の変換係数に対するライスパラメータを決定し得る。すなわち、ビデオエンコーダ200およびビデオデコーダ300は、現在の変換係数に隣接する変換係数、すなわち、近傍にある変換係数に従って、ライスパラメータを決定し得る。たとえば、ビデオエンコーダ200およびビデオデコーダ300は、現在の変換係数のすぐ右、現在の変換係数の2つ右、現在の変換係数の右下、現在の変換係数のすぐ下、および現在の変換係数の2つ下の変換係数の値に従って、ライスパラメータを決定し得る。ビデオエンコーダ200およびビデオデコーダ300は、これらの変換係数の絶対値の値の和を計算し得、ここで、そのような和は、「絶対値の局所和」または「locSumAbs」値と呼ばれることがある。
本開示の技法によれば、locSumAbs値を使用してルックアップテーブルにおいてライスパラメータについてのルックアップを直ちに実行するのではなく、ビデオエンコーダ200およびビデオデコーダ300は、locSumAbs値からシフト値を導出し、シフト値を使用してlocSumAbs値を正規化し得る。たとえば、シフト値は、それによってlocSumAbs値のビット単位の右シフトを実行すべき、ビット数を表し得る。次いで、ビデオエンコーダ200およびビデオデコーダ300は、正規化locSumAbs値を使用してルックアップテーブルにおいてライスパラメータについてのルックアップを実行し得る。次いで、ビデオエンコーダ200およびビデオデコーダ300は、決定されたライスパラメータを使用して現在の変換係数を2値化(または逆2値化)し得る。
ビデオエンコーダ200は、たとえば、ピクチャヘッダ、ブロックヘッダ、スライスヘッダ、または、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、もしくはビデオパラメータセット(VPS)などの他のシンタックスデータにおいて、ビデオデコーダ300へのブロックベースのシンタックスデータ、ピクチャベースのシンタックスデータ、およびシーケンスベースのシンタックスデータなどのシンタックスデータをさらに生成し得る。ビデオデコーダ300は、そのようなシンタックスデータを同様に復号して、対応するビデオデータをどのように復号するかを決定し得る。
このように、ビデオエンコーダ200は、符号化されたビデオデータ、たとえば、ブロック(たとえば、CU)へのピクチャの区分ならびにブロックについての予測および/または残差情報を記述するシンタックス要素を含むビットストリームを生成し得る。最終的に、ビデオデコーダ300は、ビットストリームを受信し、符号化されたビデオデータを復号し得る。
一般に、ビデオデコーダ300は、ビデオエンコーダ200によって実行されるプロセスとは逆のプロセスを実行して、ビットストリームの符号化されたビデオデータを復号する。たとえば、ビデオデコーダ300は、ビデオエンコーダ200のCABAC符号化プロセスとは逆であるが実質的に同様の方法で、CABACを使用してビットストリームのシンタックス要素のための値を復号し得る。シンタックス要素は、ピクチャをCTUに区分するための区分情報、およびQTBT構造などの対応する区分構造に従った各CTUの区分を定義して、CTUのCUを定義し得る。シンタックス要素は、ビデオデータのブロック(たとえば、CU)についての予測および残差情報をさらに定義し得る。
残差情報は、たとえば、量子化された変換係数によって表され得る。ビデオデコーダ300は、ブロックのための残差ブロックを再生するために、ブロックの量子化された変換係数を逆量子化し、逆変換し得る。ビデオデコーダ300は、ブロックのための予測ブロックを形成するために、シグナリングされた予測モード(イントラ予測またはインター予測)および関連する予測情報(たとえば、インター予測についての動き情報)を使用する。次いで、ビデオデコーダ300は、元のブロックを再生するために、予測ブロックおよび残差ブロックを(サンプルごとに)合成し得る。ビデオデコーダ300は、ブロックの境界に沿って視覚的アーティファクトを低減するためのデブロッキングプロセスを実行するなどの、追加の処理を実行し得る。
本開示は、一般に、シンタックス要素などの特定の情報を「シグナリング」することに言及することがある。「シグナリング」という用語は、一般に、シンタックス要素および/または符号化されたビデオデータを復号するために使用される他のデータのための値の通信を指すことがある。すなわち、ビデオエンコーダ200は、ビットストリーム中でシンタックス要素のための値をシグナリングし得る。一般に、シグナリングは、ビットストリーム中で値を生成することを指す。上述のように、ソースデバイス102は、実質的にリアルタイムで、または、宛先デバイス116によって後で取り出すためにシンタックス要素を記憶デバイス112に記憶するときに行われ得るなど、リアルタイムではなく、ビットストリームを宛先デバイス116にトランスポートし得る。
本開示の技法によれば、ビデオエンコーダ200およびビデオデコーダ300などのビデオコーダは、従来のVVCと比較して改善された方法でライスパラメータ導出を実行するように構成され得る。すなわち、ビデオエンコーダ200およびビデオデコーダ300は、ビデオデータの様々な入力ビット深度においてライスパラメータを導出するように構成され得る。これらの技法は、コーディング設計の圧縮効率を改善し得る。
一例では、ビデオエンコーダ200およびビデオデコーダ300は、ライスパラメータを導出するために使用される前にビット深度増加または変換係数の動的範囲を取り扱うために、localSumbAbs(locSumAbsと同じであり得る)をスケーリングおよび/または正規化し得る。たとえば、そのようなスケーリングおよび/または正規化は、以下で示されているように、VVC仕様の式1517に影響を及ぼし得る。スケーリング係数の量は、入力ビット深度、事前定義された演算ビット深度、たとえば、10、または変換係数の局所的アクティビティ、ブロックサイズに依存し得るか、またはビデオエンコーダ200は、シンタックス要素の値をビットストリームにおいてシグナリングし得る。次いで、ビデオエンコーダ200およびビデオデコーダ300は、たとえば、VVCにおけるlocalSumAbsの現在のクリッピングを使用して、localSumAbsを一定の範囲にクリップし得る。次いで、ビデオエンコーダ200およびビデオデコーダ300は、事前定義されたルックアップテーブル、たとえば、VVCにおける現行のルックアップテーブル、Table 128を使用してライスパラメータを導出するために、正規化されクリップされたlocalSumAbsを使用し得る。提案された設計の第1のステップにおいてlocalSumAbsが正規化されると、ビデオエンコーダ200およびビデオデコーダ300は、事前定義されたTableから、たとえば、VVCのTable 128からライスパラメータを導出し得る。最後に、ビデオエンコーダ200およびビデオデコーダ300は、オフセットを加えることによってlocalSumAbsの値を修正して、ライスパラメータ範囲の動的範囲を拡大し得る。
ビデオエンコーダ200およびビデオデコーダ300は、以下のようにVVC仕様の修正されたバージョンに従って構成されてもよく、ここで、追加されたテキストは「[added: "added text"]」を使用して示される。
9.3.3.2 abs_remainder[ ]およびdec_abs_level[ ]のためのライスパラメータ導出プロセス
このプロセスへの入力は、ベースレベルbaseLevel、色成分インデックスcIdx、現在のピクチャの左上サンプルに対する現在の変換ブロックの左上サンプルを指定するルーマロケーション( x0, y0 )、現在の係数走査ロケーション( xC, yC )、変換ブロック幅の二進対数log2TbWidth、および変換ブロック高さの二進対数log2TbHeightである。
このプロセスの出力は、ライスパラメータcRiceParamである。
成分インデックスcIdxおよび左上ルーマロケーション( x0, y0 )を有する変換ブロックのアレイAbsLevel[ x ][ y ]が与えられると、変数locSumAbsは以下の擬似コードプロセスによって指定されているように導出される。
locSumAbs = 0
if( xC < ( 1 << log2TbWidth ) - 1 ) {
locSumAbs += AbsLevel[ xC + 1 ][ yC ]
if( xC < ( 1 << log2TbWidth ) - 2 )
locSumAbs += AbsLevel[ xC + 2 ][ yC ]
if( yC < ( 1 << log2TbHeight ) - 1 )
locSumAbs += AbsLevel[ xC + 1 ][ yC + 1 ] (1517)
}
if( yC < ( 1 << log2TbHeight ) - 1 ) {
locSumAbs += AbsLevel[ xC ][ yC + 1 ]
if( yC < ( 1 << log2TbHeight ) - 2 )
locSumAbs += AbsLevel[ xC ][ yC + 2 ]
}
[added: "shift = (Bitdepth - b) > 0 ? Floor(Log2(a*(Bitdepth - b))) : 0
localSumAbs = (shift == 0) ? localSumAbs : (localSumAbs + (1 << (shift -1) )) >> shift"]
locSumAbs = Clip3( 0, 31, locSumAbs - baseLevel * 5 )
変数locSumAbsが与えられると、ライスパラメータcRiceParamはTable 128において指定されているように導出される。
次いで、cRiceParamは以下のように精錬される。
[added: "cRiceParam = cRiceParam + c"]
いくつかの例では、上記の変数a、b、およびcは以下のように定義され得る。一例では、変数「b」は演算ビット深度を指定し、たとえば10に等しく設定されてもよく、変数「a」は整数値、たとえば4、または2の累乗の別の値に等しく設定されてもよく、変数「c」は算出されたシフト値に等しく設定されるか、またはシフト値から導出されてもよい。演算子「<<」および「>>」は、ビット単位の左シフト演算および右シフト演算を表し、「A ? B : C」演算子は、Aが真である場合、値Bが返されるが、Aが偽である場合、値Cが返されることを示す。
別の例では、localSumAbsは、それがしきい値よりも大きいかまたはそれに等しいとき、スケーリング/正規化され得る。この場合、VVCの関係するライスパラメータ導出セクションは、それに応じて以下のように変更され得る(ここで、「[added: "added text"]」は、VVCへの追加を意味する)。
9.3.3.2 abs_remainder[ ]およびdec_abs_level[ ]のためのライスパラメータ導出プロセス
このプロセスへの入力は、ベースレベルbaseLevel、色成分インデックスcIdx、現在のピクチャの左上サンプルに対する現在の変換ブロックの左上サンプルを指定するルーマロケーション( x0, y0 )、現在の係数走査ロケーション( xC, yC )、変換ブロック幅の二進対数log2TbWidth、および変換ブロック高さの二進対数log2TbHeightである。
このプロセスの出力は、ライスパラメータcRiceParamである。
成分インデックスcIdxおよび左上ルーマロケーション( x0, y0 )を有する変換ブロックのアレイAbsLevel[ x ][ y ]が与えられると、変数locSumAbsは以下の擬似コードプロセスによって指定されているように導出される。
locSumAbs = 0
if( xC < ( 1 << log2TbWidth ) - 1 ) {
locSumAbs += AbsLevel[ xC + 1 ][ yC ]
if( xC < ( 1 << log2TbWidth ) - 2 )
locSumAbs += AbsLevel[ xC + 2 ][ yC ]
if( yC < ( 1 << log2TbHeight ) - 1 )
locSumAbs += AbsLevel[ xC + 1 ][ yC + 1 ] (1517)
}
if( yC < ( 1 << log2TbHeight ) - 1 ) {
locSumAbs += AbsLevel[ xC ][ yC + 1 ]
if( yC < ( 1 << log2TbHeight ) - 2 )
locSumAbs += AbsLevel[ xC ][ yC + 2 ]
}
[added: "shift = ((Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0
localSumAbs = (shift == 0) ? localSumAbs : (localSumAbs + (1 << (shift -1) )) >> shift"]
locSumAbs = Clip3( 0, 31, locSumAbs - baseLevel * 5 )
変数locSumAbsが与えられると、ライスパラメータcRiceParamはTable 128において指定されているように導出される。
次いで、cRiceParamは以下のように精錬される。
[added: "cRiceParam = cRiceParam + c"]
この例では、Tは事前定義されたしきい値である。一例では、Tは32に等しく設定されてもよい。いくつかの例では、変数a、b、およびcの値は、ビットストリームを通じてシグナリングされ得るか、あるいは、ビット深度、局所統計量、たとえば、現在のブロック内の変換係数値の最小/最大もしくは平均、復号された変換、ブロックサイズ、またはビットストリームにおいてシグナリングされたシンタックス要素に応じて設定されるかまたはそれらから導出され得る。
別の例では、ビデオエンコーダ200およびビデオデコーダ300は、たとえば、以下のように再度localSumAbs値を正規化し得る(ここで、「[added: "added text"]」は、VVCへの追加を意味する)。
9.3.3.2 abs_remainder[ ]およびdec_abs_level[ ]のためのライスパラメータ導出プロセス
このプロセスへの入力は、ベースレベルbaseLevel、色成分インデックスcIdx、現在のピクチャの左上サンプルに対する現在の変換ブロックの左上サンプルを指定するルーマロケーション( x0, y0 )、現在の係数走査ロケーション( xC, yC )、変換ブロック幅の二進対数log2TbWidth、および変換ブロック高さの二進対数log2TbHeightである。
このプロセスの出力は、ライスパラメータcRiceParamである。
成分インデックスcIdxおよび左上ルーマロケーション( x0, y0 )を有する変換ブロックのアレイAbsLevel[ x ][ y ]が与えられると、変数locSumAbsは以下の擬似コードプロセスによって指定されているように導出される。
locSumAbs = 0
if( xC < ( 1 << log2TbWidth ) - 1 ) {
locSumAbs += AbsLevel[ xC + 1 ][ yC ]
if( xC < ( 1 << log2TbWidth ) - 2 )
locSumAbs += AbsLevel[ xC + 2 ][ yC ]
if( yC < ( 1 << log2TbHeight ) - 1 )
locSumAbs += AbsLevel[ xC + 1 ][ yC + 1 ] (1517)
}
if( yC < ( 1 << log2TbHeight ) - 1 ) {
locSumAbs += AbsLevel[ xC ][ yC + 1 ]
if( yC < ( 1 << log2TbHeight ) - 2 )
locSumAbs += AbsLevel[ xC ][ yC + 2 ]
}
[added: "shift = ((Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0
localSumAbs = (shift == 0) ? localSumAbs : (localSumAbs + (1 << (shift -1) )) >> shift
shift1 = ((Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0
localSumAbs = (shift1 == 0) ? localSumAbs : (localSumAbs + (1 << (shift1 -1) )) >> shift1"]
locSumAbs = Clip3( 0, 31, locSumAbs - baseLevel * 5 )
変数locSumAbsが与えられると、ライスパラメータcRiceParamはTable 128において指定されているように導出される。
次いで、cRiceParamは以下のように精錬される。
[added: "cRiceParam = cRiceParam + c"]
上記の例では、ビデオエンコーダ200およびビデオデコーダ300は、(shift + shift1)に等しいcの値を設定し得る。
別の例では、ビデオエンコーダ200およびビデオデコーダ300は、locSumAbsの大きさおよび入力ビット深度に依存する係数によって、locSumAbs値を正規化し得る。この場合、ビデオエンコーダ200およびビデオデコーダ300は、たとえば、以下のように変更された、(VVC Draft 10の対応する部分に対する)関係するライスパラメータを導出するための修正された技法を使用し得、ここで、[added: "added text"]は、VVC Draft 10に対する追加を表す。
9.3.3.2 abs_remainder[ ]およびdec_abs_level[ ]のためのライスパラメータ導出プロセス
このプロセスへの入力は、ベースレベルbaseLevel、色成分インデックスcIdx、現在のピクチャの左上サンプルに対する現在の変換ブロックの左上サンプルを指定するルーマロケーション( x0, y0 )、現在の係数走査ロケーション( xC, yC )、変換ブロック幅の二進対数log2TbWidth、および変換ブロック高さの二進対数log2TbHeightである。
このプロセスの出力は、ライスパラメータcRiceParamである。
成分インデックスcIdxおよび左上ルーマロケーション( x0, y0 )を有する変換ブロックのアレイAbsLevel[ x ][ y ]が与えられると、変数locSumAbsは以下の擬似コードプロセスによって指定されているように導出される。
locSumAbs = 0
if( xC < ( 1 << log2TbWidth ) - 1 ) {
locSumAbs += AbsLevel[ xC + 1 ][ yC ]
if( xC < ( 1 << log2TbWidth ) - 2 )
locSumAbs += AbsLevel[ xC + 2 ][ yC ]
if( yC < ( 1 << log2TbHeight ) - 1 )
locSumAbs += AbsLevel[ xC + 1 ][ yC + 1 ] (1517)
}
if( yC < ( 1 << log2TbHeight ) - 1 ) {
locSumAbs += AbsLevel[ xC ][ yC + 1 ]
if( yC < ( 1 << log2TbHeight ) - 2 )
locSumAbs += AbsLevel[ xC ][ yC + 2 ]
}
[added: "変数shiftおよびlocSumAbsは以下のように導出される
shift = (locSumAbs * scl) >= T ? FloorLog2((locSumAbs * scl) >> N) : 0
locSumAbs = locSumAbs >> shift
次いで、変数locSumAbsは以下のように更新される"]
locSumAbs = Clip3( 0, 31, locSumAbs - baseLevel * 5 )
変数locSumAbsが与えられると、ライスパラメータcRiceParamはTable 128において指定されているように導出される。
次いで、cRiceParamは以下のように精錬される。
[added: "cRiceParam = cRiceParam + shift"]
上記の例によるいくつかの例では、ビデオエンコーダ200およびビデオデコーダ300は、ビットストリームのビット深度に従って、しきい値T、scl、およびNの値を決定してもよい。代替として、ビデオエンコーダ200およびビデオデコーダ300は、T、scl、およびNの事前定義された値を使用してもよい。代替として、ビデオエンコーダ200は、(たとえば、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、適応パラメータセット(APS)、またはスライスヘッダを使用して)シーケンス、ピクチャ、またはスライスレベルでT、scl、およびNの値をシグナリングしてもよく、ビデオデコーダ300は、シグナリングされたデータからT、scl、およびNの値を決定してもよい。
一例では、sclは以下のように定義されてもよい。
Scl = floorLog2(bitdepth - 10)
さらに、Tは8に等しく設定されてもよく、Nは3に等しく設定されてもよい。
図2Aおよび図2Bは、例示的な4分木2分木(QTBT)構造130および対応するコーディングツリーユニット(CTU)132を示す概念図である。実線は4分木分割を表し、点線は2分木分割を示す。2分木の各分割(すなわち、非リーフ)ノードでは、どの分割タイプ(すなわち、水平または垂直)が使用されるかを示すために1つのフラグがシグナリングされ、ここで、この例では、0が水平分割を示し、1が垂直分割を示す。4分木分割の場合、4分木ノードがブロックをサイズが等しい4つのサブブロックに水平にかつ垂直に分割するので、分割タイプを示す必要はない。したがって、ビデオエンコーダ200は、QTBT構造130の領域木レベル(すなわち、実線)のための(分割情報などの)シンタックス要素およびQTBT構造130の予測木レベル(すなわち、破線)のための(分割情報などの)シンタックス要素を符号化し得、ビデオデコーダ300は、それらのシンタックス要素を復号し得る。ビデオエンコーダ200は、QTBT構造130の末端リーフノードによって表されるCUのための、予測データおよび変換データなどのビデオデータを符号化し得、ビデオデコーダ300は、そのビデオデータを復号し得る。
一般に、図2BのCTU132は、第1のレベルおよび第2のレベルでQTBT構造130のノードに対応するブロックのサイズを定義するパラメータに関連付けられ得る。これらのパラメータは、CTUサイズ(サンプル中のCTU132のサイズを表す)、最小4分木サイズ(MinQTSize、最小の許容される4分木リーフノードサイズを表す)、最大2分木サイズ(MaxBTSize、最大の許容される2分木ルートノードサイズを表す)、最大2分木深度(MaxBTDepth、最大の許容される2分木深度を表す)、および最小2分木サイズ(MinBTSize、最小の許容される2分木リーフノードサイズを表す)を含み得る。
CTUに対応するQTBT構造のルートノードは、QTBT構造の第1のレベルで4個の子ノードを有することがあり、子ノードの各々は、4分木区分に従って区分されることがある。すなわち、第1のレベルのノードは、(子ノードを有しない)リーフノードであるか、4個の子ノードを有するかのいずれかである。QTBT構造130の例は、分岐のための実線を有する親ノードと子ノードとを含むようなノードを表す。第1のレベルのノードが最大の許容される2分木ルートノードサイズ(MaxBTSize)よりも大きくない場合、これらのノードはそれぞれの2分木によってさらに区分され得る。1つのノードの2分木分割は、分割の結果として生じるノードが最小の許容される2分木リーフノードサイズ(MinBTSize)または最大の許容される2分木深度(MaxBTDepth)に達するまで繰り返され得る。QTBT構造130の例は、分岐のための破線を有するようなノードを表す。2分木リーフノードはコーディングユニット(CU)と呼ばれ、コーディングユニット(CU)は、これ以上の区分なしで、予測(たとえば、イントラピクチャ予測またはインターピクチャ予測)および変換のために使用される。上記で説明したように、CUは「ビデオブロック」または「ブロック」と呼ばれることもある。
QTBT区分構造の一例では、CTUサイズは128×128(ルーマサンプルおよび2つの対応する64×64クロマサンプル)として設定され、MinQTSizeは16×16として設定され、MaxBTSizeは64×64として設定され、(幅と高さの両方についての)MinBTSizeは4として設定され、MaxBTDepthは4として設定される。4分木リーフノードを生成するために、4分木区分がまずCTUに適用される。4分木リーフノードは、16×16(すなわち、MinQTSize)から128×128(すなわち、CTUサイズ)までのサイズを有し得る。4分木リーフノードが128×128である場合、サイズがMaxBTSize(すなわち、この例では64×64)を超えるので、4分木リーフノードは2分木によってさらに分割されない。それ以外の場合、4分木リーフノードは2分木によってさらに区分され得る。したがって、4分木リーフノードは2分木のルートノードでもあり、0としての2分木深度を有する。2分木深度がMaxBTDepth(この例では4)に達するとき、さらなる分割は許可されない。MinBTSize(この例では4)に等しい幅を有する2分木ノードは、その2分木ノードに対してさらなる垂直分割(すなわち、幅の分割)が許可されないことを示唆する。同様に、MinBTSizeに等しい高さを有する2分木ノードは、その2分木ノードに対してさらなる水平分割(すなわち、高さの分割)が許可されないことを示唆する。上述のように、2分木のリーフノードはCUと呼ばれ、さらなる区分なしで予測および変換に従ってさらに処理される。
図3は、本開示の技法を実行し得る例示的なビデオエンコーダ200を示すブロック図である。図3は説明のために提供され、本開示において広く例示および説明するような技法の限定と見なされるべきではない。説明のために、本開示は、ITU-T H.265/HEVCビデオコーディング規格および開発中のVVCビデオコーディング規格などのビデオコーディング規格の文脈でビデオエンコーダ200について説明する。しかしながら、本開示の技法は、これらのビデオコーディング規格に限定されず、概して他のビデオ符号化および復号規格に適用可能である。
図3の例では、ビデオエンコーダ200は、ビデオデータメモリ230、モード選択ユニット202、残差生成ユニット204、変換処理ユニット206、量子化ユニット208、逆量子化ユニット210、逆変換処理ユニット212、再構成ユニット214、フィルタユニット216、復号ピクチャバッファ(DPB)218、およびエントロピー符号化ユニット220を含む。ビデオデータメモリ230、モード選択ユニット202、残差生成ユニット204、変換処理ユニット206、量子化ユニット208、逆量子化ユニット210、逆変換処理ユニット212、再構成ユニット214、フィルタユニット216、DPB218、およびエントロピー符号化ユニット220のいずれかまたはすべては、1つもしくは複数のプロセッサにおいてまたは処理回路において実装され得る。たとえば、ビデオエンコーダ200のユニットは、ハードウェア回路の一部としての1つもしくは複数の回路もしくは論理要素として、またはプロセッサ、ASIC、もしくはFPGAの一部として実装され得る。さらに、ビデオエンコーダ200は、これらおよび他の機能を実行するための追加または代替のプロセッサまたは処理回路を含み得る。
ビデオデータメモリ230は、ビデオエンコーダ200の構成要素によって符号化されるべきビデオデータを記憶し得る。ビデオエンコーダ200は、たとえば、ビデオソース104(図1)から、ビデオデータメモリ230に記憶されたビデオデータを受信し得る。DPB218は、ビデオエンコーダ200による後続のビデオデータの予測において使用するための参照ビデオデータを記憶する参照ピクチャメモリとして働き得る。ビデオデータメモリ230およびDPB218は、同期DRAM(SDRAM)を含むダイナミックランダムアクセスメモリ(DRAM)、磁気抵抗RAM(MRAM)、抵抗RAM(RRAM)、または他のタイプのメモリデバイスなどの、様々なメモリデバイスのいずれかによって形成され得る。ビデオデータメモリ230およびDPB218は、同じメモリデバイスまたは別個のメモリデバイスによって提供され得る。様々な例では、ビデオデータメモリ230は、図示のように、ビデオエンコーダ200の他の構成要素とともにオンチップであってもよく、またはそれらの構成要素に対してオフチップであってもよい。
本開示では、ビデオデータメモリ230への言及は、そのようなものとして特に説明されていない限り、ビデオエンコーダ200の内部のメモリ、または、そのようなものとして特に説明されていない限り、ビデオエンコーダ200の外部のメモリに限定されるものとして解釈されるべきではない。むしろ、ビデオデータメモリ230への言及は、符号化するためにビデオエンコーダ200が受信するビデオデータ(たとえば、符号化されるべき現在のブロックのためのビデオデータ)を記憶する参照メモリとして理解されるべきである。図1のメモリ106はまた、ビデオエンコーダ200の様々なユニットからの出力の一時的な記憶を提供し得る。
図3の様々なユニットは、ビデオエンコーダ200によって実行される動作を理解することを助けるために図示されている。ユニットは、固定機能回路、プログラマブル回路、またはそれらの組合せとして実装され得る。固定機能回路は、特定の機能を提供する回路を指し、実行され得る動作に対してプリセットされる。プログラマブル回路は、様々なタスクを実行するようにプログラムされ得る回路を指し、実行され得る動作において柔軟な機能を提供する。たとえば、プログラマブル回路は、ソフトウェアまたはファームウェアの命令によって定義された方法でプログラマブル回路を動作させるソフトウェアまたはファームウェアを実行し得る。固定機能回路は(たとえば、パラメータを受信するまたはパラメータを出力するための)ソフトウェア命令を実行し得るが、固定機能回路が実行する動作のタイプは概して不変である。いくつかの例では、1つまたは複数のユニットは異なる回路ブロック(固定機能またはプログラマブル)であってもよく、いくつかの例では、1つまたは複数のユニットは集積回路であってもよい。
ビデオエンコーダ200は、算術論理ユニット(ALU)、初等関数ユニット(EFU)、デジタル回路、アナログ回路、および/またはプログラマブル回路から形成されたプログラマブルコアを含み得る。ビデオエンコーダ200の動作がプログラマブル回路によって実行されるソフトウェアを使用して実行される例では、メモリ106(図1)が、ビデオエンコーダ200が受信および実行するソフトウェアの命令(たとえば、オブジェクトコード)を記憶してもよく、またはビデオエンコーダ200内の別のメモリ(図示せず)が、そのような命令を記憶してもよい。
ビデオデータメモリ230は、受信されたビデオデータを記憶するように構成される。ビデオエンコーダ200は、ビデオデータメモリ230からビデオデータのピクチャを取り出し、ビデオデータを残差生成ユニット204およびモード選択ユニット202に提供し得る。ビデオデータメモリ230中のビデオデータは、符号化されるべき未加工ビデオデータであり得る。
モード選択ユニット202は、動き推定ユニット222、動き補償ユニット224、およびイントラ予測ユニット226を含む。モード選択ユニット202は、他の予測モードに従ってビデオ予測を実行するための追加の機能ユニットを含み得る。例として、モード選択ユニット202は、パレットユニット、(動き推定ユニット222および/または動き補償ユニット224の一部であり得る)イントラブロックコピーユニット、アフィンユニット、線形モデル(LM)ユニットなどを含み得る。
モード選択ユニット202は、一般に、符号化パラメータの組合せおよびそのような組合せに対する結果として生じるレートひずみ値をテストするために複数の符号化パスを協調させる。符号化パラメータは、CUへのCTUの区分、CUのための予測モード、CUの残差データのための変換タイプ、CUの残差データのための量子化パラメータなどを含み得る。モード選択ユニット202は、その他のテストされた組合せよりも良いレートひずみ値を有する符号化パラメータの組合せを最終的に選択し得る。
ビデオエンコーダ200は、ビデオデータメモリ230から取り出されたピクチャを一連のCTUに区分し、スライス内に1つまたは複数のCTUをカプセル化し得る。モード選択ユニット202は、上記で説明したHEVCのQTBT構造または4分木構造などのツリー構造に従ってピクチャのCTUを区分し得る。上記で説明したように、ビデオエンコーダ200は、ツリー構造に従ってCTUを区分することから1つまたは複数のCUを形成し得る。そのようなCUは、一般に、「ビデオブロック」または「ブロック」と呼ばれることもある。
一般に、モード選択ユニット202はまた、現在のブロック(たとえば、現在のCU、またはHEVCでは、PUおよびTUの重複する部分)のための予測ブロックを生成するために、その構成要素(たとえば、動き推定ユニット222、動き補償ユニット224、およびイントラ予測ユニット226)を制御する。現在のブロックのインター予測の場合、動き推定ユニット222は、1つまたは複数の参照ピクチャ(たとえば、DPB218に記憶された1つまたは複数の以前にコーディングされたピクチャ)中の1つまたは複数の厳密に一致する参照ブロックを識別するために動き探索を実行し得る。具体的には、動き推定ユニット222は、たとえば、絶対差分和(SAD)、2乗差分和(SSD)、平均絶対差(MAD)、平均2乗差(MSD)などに従って、潜在的な参照ブロックが現在のブロックにどのくらい類似しているかを表す値を計算し得る。動き推定ユニット222は、一般に、現在のブロックと考慮されている参照ブロックとの間のサンプルごとの差分を使用してこれらの計算を実行し得る。動き推定ユニット222は、現在のブロックに最も厳密に一致する参照ブロックを示す、これらの計算の結果として生じる最も低い値を有する参照ブロックを識別し得る。
動き推定ユニット222は、現在のピクチャ中の現在のブロックの位置に対する参照ピクチャ中の参照ブロックの位置を定義する1つまたは複数の動きベクトル(MV)を形成し得る。次いで、動き推定ユニット222は動きベクトルを動き補償ユニット224に提供し得る。たとえば、単方向インター予測の場合、動き推定ユニット222は単一の動きベクトルを提供し得るが、双方向インター予測の場合、動き推定ユニット222は2つの動きベクトルを提供し得る。次いで、動き補償ユニット224は、動きベクトルを使用して予測ブロックを生成し得る。たとえば、動き補償ユニット224は、動きベクトルを使用して参照ブロックのデータを取り出し得る。別の例として、動きベクトルがフラクショナルサンプル精度を有する場合、動き補償ユニット224は、1つまたは複数の補間フィルタに従って予測ブロックのための値を補間し得る。さらに、双方向インター予測の場合、動き補償ユニット224は、それぞれの動きベクトルによって識別された2つの参照ブロックのためのデータを取り出し、たとえば、サンプルごとの平均化または重み付けされた平均化によって、取り出されたデータを合成し得る。
別の例として、イントラ予測またはイントラ予測コーディングの場合、イントラ予測ユニット226は、現在のブロックに隣接するサンプルから予測ブロックを生成し得る。たとえば、方向モードの場合、イントラ予測ユニット226は、一般に、隣接サンプルの値を数学的に合成し、これらの計算された値を現在のブロックにわたる定義された方向にポピュレートして、予測ブロックを生成し得る。別の例として、DCモードの場合、イントラ予測ユニット226は、現在のブロックに対する隣接サンプルの平均を計算し、予測ブロックのサンプルごとにこの結果として生じる平均を含めるべき予測ブロックを生成し得る。
モード選択ユニット202は、予測ブロックを残差生成ユニット204に提供する。残差生成ユニット204は、ビデオデータメモリ230から現在のブロックの未加工のコーディングされていないバージョンを受信し、モード選択ユニット202から予測ブロックを受信する。残差生成ユニット204は、現在のブロックと予測ブロックとの間のサンプルごとの差分を計算する。結果として生じるサンプルごとの差分は、現在のブロックのための残差ブロックを定義する。いくつかの例では、残差生成ユニット204はまた、残差差分パルスコード変調(RDPCM)を使用して残差ブロックを生成するために、残差ブロック中のサンプル値の間の差分を決定し得る。いくつかの例では、残差生成ユニット204は、バイナリ減算を実行する1つまたは複数の減算器回路を使用して形成され得る。
モード選択ユニット202がCUをPUに区分する例では、各PUはルーマ予測ユニットおよび対応するクロマ予測ユニットに関連付けられ得る。ビデオエンコーダ200およびビデオデコーダ300は、様々なサイズを有するPUをサポートし得る。上記で示したように、CUのサイズは、CUのルーマコーディングブロックのサイズを指すことがあり、PUのサイズは、PUのルーマ予測ユニットのサイズを指すことがある。特定のCUのサイズが2N×2Nであると仮定すると、ビデオエンコーダ200は、イントラ予測に対して2N×2NまたはN×NのPUサイズ、およびインター予測に対して2N×2N、2N×N、N×2N、N×N、または類似の、対称のPUサイズをサポートし得る。ビデオエンコーダ200およびビデオデコーダ300はまた、インター予測に対して2N×nU、2N×nD、nL×2N、およびnR×2NのPUサイズのための非対称区分をサポートし得る。
モード選択ユニット202がCUをPUにさらに区分しない例では、各PUはルーマコーディングブロックおよび対応するクロマコーディングブロックに関連付けられ得る。上記のように、CUのサイズは、CUのルーマコーディングブロックのサイズを指すことがある。ビデオエンコーダ200およびビデオデコーダ300は、2N×2N、2N×N、またはN×2NのCUサイズをサポートし得る。
いくつかの例として、イントラブロックコピーモードコーディング、アフィンモードコーディング、および線形モデル(LM)モードコーディングなどの他のビデオコーディング技法の場合、モード選択ユニット202は、コーディング技法に関連付けられたそれぞれのユニットを介して、符号化されている現在のブロックのための予測ブロックを生成する。パレットモードコーディングなどのいくつかの例では、モード選択ユニット202は、予測ブロックを生成しなくてもよく、代わりに、選択されたパレットに基づいてブロックを再構成する方法を示すシンタックス要素を生成してもよい。そのようなモードでは、モード選択ユニット202は、符号化されるべきこれらのシンタックス要素をエントロピー符号化ユニット220に提供し得る。
上記で説明したように、残差生成ユニット204は、現在のブロックおよび対応する予測ブロックのためのビデオデータを受信する。次いで、残差生成ユニット204は現在のブロックのための残差ブロックを生成する。残差ブロックを生成するために、残差生成ユニット204は予測ブロックと現在のブロックとの間のサンプルごとの差分を計算する。
変換処理ユニット206は、変換係数のブロック(本明細書では「変換係数ブロック」と呼ばれる)を生成するために、1つまたは複数の変換を残差ブロックに適用する。変換処理ユニット206は、変換係数ブロックを形成するために、様々な変換を残差ブロックに適用し得る。たとえば、変換処理ユニット206は、離散コサイン変換(DCT)、方向変換、カルーネンレーベ変換(KLT)、または概念的に類似の変換を残差ブロックに適用し得る。いくつかの例では、変換処理ユニット206は、複数の変換、たとえば、回転変換などの、一次変換および二次変換を残差ブロックに対して実行し得る。いくつかの例では、変換処理ユニット206は、変換を残差ブロックに適用しない。
量子化ユニット208は、変換係数ブロック中で変換係数を量子化して、量子化された変換係数ブロックを生成し得る。量子化ユニット208は、現在のブロックに関連付けられた量子化パラメータ(QP)値に従って変換係数ブロックの変換係数を量子化し得る。ビデオエンコーダ200は(たとえば、モード選択ユニット202を介して)、CUに関連付けられたQP値を調整することによって、現在のブロックに関連付けられた変換係数ブロックに適用される量子化の程度を調整し得る。量子化は情報の損失をもたらすことがあり、したがって、量子化された変換係数は変換処理ユニット206によって生成された元の変換係数よりも低い精度を有することがある。
逆量子化ユニット210および逆変換処理ユニット212は、それぞれ、逆量子化および逆変換を量子化された変換係数ブロックに適用して、変換係数ブロックから残差ブロックを再構成し得る。再構成ユニット214は、再構成された残差ブロックおよびモード選択ユニット202によって生成された予測ブロックに基づいて、(ある程度のひずみを伴う可能性があるが)現在のブロックに対応する再構成されたブロックを生成し得る。たとえば、再構成ユニット214は、再構成された残差ブロックのサンプルをモード選択ユニット202によって生成された予測ブロックからの対応するサンプルに加えて、再構成されたブロックを生成し得る。
フィルタユニット216は、再構成されたブロックに対して1つまたは複数のフィルタ動作を実行し得る。たとえば、フィルタユニット216は、CUの端部に沿ってブロッキネスアーティファクトを低減するためにデブロッキング動作を実行し得る。フィルタユニット216の動作は、いくつかの例では、スキップされ得る。
ビデオエンコーダ200は、再構成されたブロックをDPB218に記憶する。たとえば、フィルタユニット216の動作が必要とされない例では、再構成ユニット214が再構成されたブロックをDPB218に記憶し得る。フィルタユニット216の動作が必要とされる例では、フィルタユニット216がフィルタ処理され再構成されたブロックをDPB218に記憶し得る。動き推定ユニット222および動き補償ユニット224は、後で符号化されるピクチャのブロックをインター予測するために、再構成された(かつ場合によってはフィルタリングされた)ブロックから形成された参照ピクチャをDPB218から取り出し得る。加えて、イントラ予測ユニット226は、現在のピクチャ中の他のブロックをイントラ予測するために、現在のピクチャのDPB218中の再構成されたブロックを使用し得る。
一般に、エントロピー符号化ユニット220は、ビデオエンコーダ200の他の機能構成要素から受信されたシンタックス要素をエントロピー符号化し得る。たとえば、エントロピー符号化ユニット220は、量子化ユニット208からの量子化された変換係数ブロックをエントロピー符号化し得る。別の例として、エントロピー符号化ユニット220は、モード選択ユニット202からの予測シンタックス要素(たとえば、インター予測のための動き情報またはイントラ予測のためのイントラモード情報)をエントロピー符号化し得る。エントロピー符号化ユニット220は、ビデオデータの別の例であるシンタックス要素に対して1つまたは複数のエントロピー符号化動作を実行して、エントロピー符号化されたデータを生成し得る。たとえば、エントロピー符号化ユニット220は、コンテキスト適応型可変長コーディング(CAVLC)動作、CABAC動作、可変対可変(V2V)長コーディング動作、シンタックスベースのコンテキスト適応型バイナリ算術コーディング(SBAC)動作、確率間隔区分エントロピー(PIPE)コーディング動作、指数ゴロム符号化動作、または別のタイプのエントロピー符号化動作をデータに対して実行し得る。いくつかの例では、エントロピー符号化ユニット220は、シンタックス要素がエントロピー符号化されないバイパスモードで動作し得る。
本開示の技法によれば、エントロピー符号化ユニット220は、ライスパラメータを使用して、現在の量子化された変換係数の残存レベル値の絶対値を2値化するように構成され得る。エントロピー符号化ユニット220は、現在の量子化された変換係数に隣接する変換係数の絶対値の局所和(locSumAbs)を決定することによって、ライスパラメータを最初に決定し得る。そのような隣接する変換係数は、以下の図5の例に示されるものであり得る。すなわち、隣接する変換係数は、右に隣接する変換係数、2つ右に隣接する変換係数、右下に隣接する変換係数、下に隣接する変換係数、および2つ下に隣接する変換係数を含み得る。
locSumAbs値を計算した後、エントロピー符号化ユニット220は、locSumAbs値からシフト値を導出し得る。たとえば、エントロピー符号化ユニット220は、「shift = ((Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0」に従ってシフト値を計算し得る。この例では、Bitdepthはビデオデータのビット深度を表し、aは値2の整数乗であり、bは演算ビット深度を表し、Tはしきい値を表す。
シフト値を決定した後、エントロピー符号化ユニット220は、シフト値を使用して、計算されたlocSumAbs値を正規化し得る。たとえば、エントロピー符号化ユニット220は、「localSumAbs = (shift == 0) ? localSumAbs : (localSumAbs + (1 << (shift -1) )) >> shift」に従ってlocSumAbs値を正規化し得る。この例では、「<<」および「>>」は、ビット単位の左シフト演算子および右シフト演算子を表す。上記の両方の例では、「A ? B : C」関数は、Aが真である場合、値Bが返されるが、Aが偽である場合、値Cが返されることを示す。エントロピー符号化ユニット220はまた、「locSumAbs = Clip3( 0, 31, locSumAbs - baseLevel * 5 )」に従って正規化locSumAbs値をクリップし得る。
正規化locSumAbs値を計算した後、エントロピー符号化ユニット220は、ライスパラメータ(たとえば、cRiceParam)を決定するために、正規化locSumAbs値を入力として使用してルックアップテーブルにおいてルックアップを実行し得る。ルックアップテーブルは、VVCの現行のものと同じであってもよく、以下にTable 1(表1)として複製され得る。エントロピー符号化ユニット220は、決定されたライスパラメータを使用して現在の変換係数の絶対余り値を2値化し、次いで、2値化された絶対余り値をエントロピー符号化し得る。
ビデオエンコーダ200は、スライスまたはピクチャのブロックを再構成するために必要とされるエントロピー符号化されたシンタックス要素を含むビットストリームを出力し得る。具体的には、エントロピー符号化ユニット220がビットストリームを出力し得る。
上記で説明した動作は、ブロックに関して説明されている。そのような説明は、ルーマコーディングブロックおよび/またはクロマコーディングブロックのための動作であるものとして理解されるべきである。上記で説明したように、いくつかの例では、ルーマコーディングブロックおよびクロマコーディングブロックは、CUのルーマ成分およびクロマ成分である。いくつかの例では、ルーマコーディングブロックおよびクロマコーディングブロックは、PUのルーマ成分およびクロマ成分である。
いくつかの例では、ルーマコーディングブロックに関して実行される動作は、クロマコーディングブロックのために繰り返される必要はない。一例として、ルーマコーディングブロックのための動きベクトル(MV)および参照ピクチャを識別するための動作は、クロマコーディングブロックのためのMVおよび参照ピクチャを識別するために繰り返される必要はない。むしろ、ルーマコーディングブロックのためのMVはクロマコーディングブロックのためのMVを決定するためにスケーリングされてもよく、参照ピクチャは同じであってもよい。別の例として、イントラ予測プロセスは、ルーマコーディングブロックおよびクロマコーディングブロックについて同じであってもよい。
このように、ビデオエンコーダ200は、ビデオデータを2値化するためのデバイスであって、ビデオデータを記憶するように構成されたメモリと、回路において実装され、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算することと、locSumAbs値からシフト値を導出することと、シフト値を使用してlocSumAbs値を正規化することと、正規化locSumAbs値を使用してライスパラメータを決定することと、ライスパラメータを使用して現在の係数を2値化または逆2値化することとを行うように構成された1つまたは複数のプロセッサとを含むデバイスの一例を表す。
図4は、本開示の技法を実行し得る例示的なビデオデコーダ300を示すブロック図である。図4は説明のために提供され、本開示において広く例示および説明するような技法を限定するものではない。説明のために、本開示は、VVC、およびHEVC(ITU-T H.265)の技法によるビデオデコーダ300について説明する。しかしながら、本開示の技法は、他のビデオコーディング規格に従って構成されたビデオコーディングデバイスによって実行され得る。
図4の例では、ビデオデコーダ300は、コード化ピクチャバッファ(CPB)メモリ320、エントロピー復号ユニット302、予測処理ユニット304、逆量子化ユニット306、逆変換処理ユニット308、再構成ユニット310、フィルタユニット312、および復号ピクチャバッファ(DPB)314を含む。CPBメモリ320、エントロピー復号ユニット302、予測処理ユニット304、逆量子化ユニット306、逆変換処理ユニット308、再構成ユニット310、フィルタユニット312、およびDPB314のいずれかまたはすべては、1つもしくは複数のプロセッサにおいてまたは処理回路において実装され得る。たとえば、ビデオデコーダ300のユニットは、ハードウェア回路の一部としての1つもしくは複数の回路もしくは論理要素として、またはプロセッサ、ASIC、もしくはFPGAの一部として実装され得る。さらに、ビデオデコーダ300は、これらおよび他の機能を実行するための追加または代替のプロセッサまたは処理回路を含み得る。
予測処理ユニット304は、動き補償ユニット316およびイントラ予測ユニット318を含む。予測処理ユニット304は、他の予測モードに従って予測を実行するための追加のユニットを含み得る。例として、予測処理ユニット304は、パレットユニット、(動き補償ユニット316の一部を形成し得る)イントラブロックコピーユニット、アフィンユニット、線形モデル(LM)ユニットなどを含み得る。他の例では、ビデオデコーダ300は、より多数の、より少数の、または異なる機能構成要素を含み得る。
CPBメモリ320は、ビデオデコーダ300の構成要素によって復号されるべき、符号化されたビデオビットストリームなどのビデオデータを記憶し得る。CPBメモリ320に記憶されたビデオデータは、たとえば、コンピュータ可読媒体110(図1)から取得され得る。CPBメモリ320は、符号化されたビデオビットストリームからの符号化されたビデオデータ(たとえば、シンタックス要素)を記憶するCPBを含み得る。また、CPBメモリ320は、ビデオデコーダ300の様々なユニットからの出力を表す一時的なデータなどの、コーディングされたピクチャのシンタックス要素以外のビデオデータを記憶し得る。DPB314は、一般に、符号化されたビデオビットストリームの後続のデータまたはピクチャを復号するときにビデオデコーダ300が参照ビデオデータとして出力および/または使用し得る、復号されたピクチャを記憶する。CPBメモリ320およびDPB314は、同期DRAM(SDRAM)を含むダイナミックランダムアクセスメモリ(DRAM)、磁気抵抗RAM(MRAM)、抵抗RAM(RRAM)、または他のタイプのメモリデバイスなどの、様々なメモリデバイスのいずれかによって形成され得る。CPUメモリ320およびDPB314は、同じメモリデバイスまたは別個のメモリデバイスによって提供され得る。様々な例では、CPBメモリ320は、ビデオデコーダ300の他の構成要素とともにオンチップであってもよく、またはそれらの構成要素に対してオフチップであってもよい。
追加または代替として、いくつかの例では、ビデオデコーダ300は、メモリ120(図1)からコーディングされたビデオデータを取り出し得る。すなわち、メモリ120は、CPBメモリ320に関して上記で説明したようなデータを記憶し得る。同様に、メモリ120は、ビデオデコーダ300の機能の一部または全部がビデオデコーダ300の処理回路によって実行されるべきソフトウェアにおいて実装されるとき、ビデオデコーダ300によって実行されるべき命令を記憶し得る。
図4に示す様々なユニットは、ビデオデコーダ300によって実行される動作を理解することを助けるために図示されている。ユニットは、固定機能回路、プログラマブル回路、またはそれらの組合せとして実装され得る。図3と同様に、固定機能回路は、特定の機能を提供する回路を指し、実行され得る動作に対してプリセットされる。プログラマブル回路は、様々なタスクを実行するようにプログラムされ得る回路を指し、実行され得る動作において柔軟な機能を提供する。たとえば、プログラマブル回路は、ソフトウェアまたはファームウェアの命令によって定義された方法でプログラマブル回路を動作させるソフトウェアまたはファームウェアを実行し得る。固定機能回路は(たとえば、パラメータを受信するまたはパラメータを出力するための)ソフトウェア命令を実行し得るが、固定機能回路が実行する動作のタイプは概して不変である。いくつかの例では、1つまたは複数のユニットは異なる回路ブロック(固定機能またはプログラマブル)であってもよく、いくつかの例では、1つまたは複数のユニットは集積回路であってもよい。
ビデオデコーダ300は、ALU、EFU、デジタル回路、アナログ回路、および/またはプログラマブル回路から形成されたプログラマブルコアを含み得る。ビデオデコーダ300の動作がプログラマブル回路上で実行されるソフトウェアによって実行される例では、オンチップメモリまたはオフチップメモリが、ビデオデコーダ300が受信および実行するソフトウェアの命令(たとえば、オブジェクトコード)を記憶し得る。
エントロピー復号ユニット302は、CPBから符号化されたビデオデータを受信し、ビデオデータをエントロピー復号して、シンタックス要素を再生し得る。予測処理ユニット304、逆量子化ユニット306、逆変換処理ユニット308、再構成ユニット310、およびフィルタユニット312は、ビットストリームから抽出されたシンタックス要素に基づいて、復号されたビデオデータを生成し得る。
一般に、ビデオデコーダ300は、ブロックごとにピクチャを再構成する。ビデオデコーダ300は、各ブロックに対して個別に再構成動作を実行し得る(ここで、現在再構成されている、すなわち、復号されているブロックは「現在のブロック」と呼ばれることがある)。
エントロピー復号ユニット302は、量子化された変換係数ブロックの量子化された変換係数、ならびに量子化パラメータ(QP)および/または変換モード指示などの変換情報を定義するシンタックス要素をエントロピー復号し得る。本開示の技法によれば、エントロピー復号ユニット302は、ライスパラメータを使用して、現在の量子化された変換係数の残存レベル値の絶対値をエントロピー復号し、次いで、逆2値化するように構成され得る。
エントロピー復号ユニット302は、現在の量子化された変換係数に隣接する変換係数の絶対値の局所和(locSumAbs)を決定することによって、ライスパラメータを最初に決定し得る。そのような隣接する変換係数は、以下の図5の例に示されるものであり得る。すなわち、隣接する変換係数は、右に隣接する変換係数、2つ右に隣接する変換係数、右下に隣接する変換係数、下に隣接する変換係数、および2つ下に隣接する変換係数を含み得る。
locSumAbs値を計算した後、エントロピー復号ユニット302は、locSumAbs値からシフト値を導出し得る。たとえば、エントロピー復号ユニット302は、「shift = ((Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0」に従ってシフト値を計算し得る。この例では、Bitdepthはビデオデータのビット深度を表し、aは値2の整数乗であり、bは演算ビット深度を表し、Tはしきい値を表す。
シフト値を決定した後、エントロピー復号ユニット302は、シフト値を使用して、計算されたlocSumAbs値を正規化し得る。たとえば、エントロピー復号ユニット302は、「localSumAbs = (shift == 0) ? localSumAbs : (localSumAbs + (1 << (shift -1) )) >> shift」に従ってlocSumAbs値を正規化し得る。この例では、「<<」および「>>」は、ビット単位の左シフト演算子および右シフト演算子を表す。上記の両方の例では、「A ? B : C」関数は、Aが真である場合、値Bが返されるが、Aが偽である場合、値Cが返されることを示す。エントロピー復号ユニット302はまた、「locSumAbs = Clip3( 0, 31, locSumAbs - baseLevel * 5 )」に従って正規化locSumAbs値をクリップし得る。
正規化locSumAbs値を計算した後、エントロピー復号ユニット302は、ライスパラメータ(たとえば、cRiceParam)を決定するために、正規化locSumAbs値を入力として使用してルックアップテーブルにおいてルックアップを実行し得る。ルックアップテーブルは、VVCの現行のものと同じであってもよく、以下にTable 1(表1)として複製され得る。エントロピー復号ユニット302は、決定されたライスパラメータを使用して現在の変換係数の絶対余り値を逆2値化し得る。
逆量子化ユニット306は、量子化の程度と、同様に、逆量子化ユニット306が適用すべき逆量子化の程度とを決定するために、量子化された変換係数ブロックに関連付けられたQPを使用し得る。逆量子化ユニット306は、たとえば、量子化された変換係数を逆量子化するために、ビット単位の左シフト演算を実行し得る。逆量子化ユニット306は、それによって、変換係数を含む変換係数ブロックを形成し得る。
逆量子化ユニット306が変換係数ブロックを形成した後、逆変換処理ユニット308は、現在のブロックに関連付けられた残差ブロックを生成するために、1つまたは複数の逆変換を変換係数ブロックに適用し得る。たとえば、逆変換処理ユニット308は、逆DCT、逆整数変換、逆カルーネンレーベ変換(KLT)、逆回転変換、逆方向変換、または別の逆変換を変換係数ブロックに適用し得る。
さらに、予測処理ユニット304は、エントロピー復号ユニット302によってエントロピー復号された予測情報シンタックス要素に従って予測ブロックを生成する。たとえば、現在のブロックがインター予測されることを予測情報シンタックス要素が示す場合、動き補償ユニット316は予測ブロックを生成し得る。この場合、予測情報シンタックス要素は、そこから参照ブロックを取り出すべきDPB314中の参照ピクチャ、ならびに現在のピクチャ中の現在のブロックの場所に対する参照ピクチャ中の参照ブロックの場所を識別する動きベクトルを示し得る。動き補償ユニット316は、一般に、動き補償ユニット224(図3)に関して説明した方法と実質的に同様の方法でインター予測プロセスを実行し得る。
別の例として、現在のブロックがイントラ予測されることを予測情報シンタックス要素が示す場合、イントラ予測ユニット318は、予測情報シンタックス要素によって示されたイントラ予測モードに従って予測ブロックを生成し得る。やはり、イントラ予測ユニット318は、一般に、イントラ予測ユニット226(図3)に関して説明した方法と実質的に同様の方法でイントラ予測プロセスを実行し得る。イントラ予測ユニット318は、DPB314から現在のブロックに対する隣接サンプルのデータを取り出し得る。
再構成ユニット310は、予測ブロックおよび残差ブロックを使用して現在のブロックを再構成し得る。たとえば、再構成ユニット310は、残差ブロックのサンプルを予測ブロックの対応するサンプルに加えて、現在のブロックを再構成し得る。
フィルタユニット312は、再構成されたブロックに対して1つまたは複数のフィルタ動作を実行し得る。たとえば、フィルタユニット312は、再構成されたブロックの端部に沿ってブロッキネスアーティファクトを低減するためにデブロッキング動作を実行し得る。フィルタユニット312の動作は、必ずしもすべての例において実行されるとは限らない。
ビデオデコーダ300は、再構成されたブロックをDPB314に記憶し得る。たとえば、フィルタユニット312の動作が実行されない例では、再構成ユニット310が再構成されたブロックをDPB314に記憶し得る。フィルタユニット312の動作が実行される例では、フィルタユニット312が精錬されフィルタ処理され再構成されたブロックをDPB314に記憶し得る。上記で説明したように、DPB314は、イントラ予測のための現在のピクチャおよび後続の動き補償のための以前に復号されたピクチャのサンプルなどの参照情報を予測処理ユニット304に提供し得る。さらに、ビデオデコーダ300は、図1のディスプレイデバイス118などのディスプレイデバイス上に後で提示するために、DPB314からの復号されたピクチャを出力し得る。
このように、ビデオデコーダ300は、ビデオデータを2値化するためのデバイスであって、ビデオデータを記憶するように構成されたメモリと、回路において実装され、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算することと、locSumAbs値からシフト値を導出することと、シフト値を使用してlocSumAbs値を正規化することと、正規化locSumAbs値を使用してライスパラメータを決定することと、ライスパラメータを使用して現在の係数を2値化または逆2値化することとを行うように構成された1つまたは複数のプロセッサとを含むデバイスの一例を表す。
図5は、現在の係数に対する隣接する絶対値の局所和(localSumAbs)を計算するときに使用され得る、隣接する係数の例示的なセットを示す概念図である。ビデオエンコーダ200およびビデオデコーダ300は、ライスパラメータを決定するために、現在の係数に対する隣接する絶対値の局所和を使用し得る。たとえば、VVCでは、通常残差コーディング(RRC)用のライスパラメータは、テンプレート内の隣接する変換係数の係数値を考慮したルックアップテーブルを使用して導出される。隣接する係数のテンプレートは、図5に提示されている。
最初に、ビデオエンコーダ200およびビデオデコーダ300は、テンプレート内の5つの利用可能な隣接する係数の絶対和であるlocSumAbsを計算し得る。次いで、ビデオエンコーダ200およびビデオデコーダ300は、以下のようにlocSumAbsを正規化し得る(減算およびクリップ)。
locSumAbs = Clip3( 0, 31, locSumAbs - baseLevel * 5 )
ビデオエンコーダ200およびビデオデコーダ300は、以下のTable 1(表1)のルックアップテーブルを使用してライスパラメータ値(たとえば、cRiceParam)を導出し得る。
図6は、本開示の技法による、現在のブロックを符号化するための例示的な方法を示すフローチャートである。現在のブロックは現在のCUを含み得る。ビデオエンコーダ200(図1および図3)に関して説明するが、他のデバイスが図6の方法と同様の方法を実行するように構成され得ることを理解されたい。
この例では、ビデオエンコーダ200は最初に、現在のブロックを予測する(350)。たとえば、ビデオエンコーダ200は、現在のブロックのための予測ブロックを形成し得る。次いで、ビデオエンコーダ200は、現在のブロックのための残差ブロックを計算し得る(352)。残差ブロックを計算するために、ビデオエンコーダ200は、元のコーディングされていないブロックと現在のブロックのための予測ブロックとの間の差分を計算し得る。次いで、ビデオエンコーダ200は、残差ブロックの係数を変換および量子化し得る(354)。次に、ビデオエンコーダ200は、残差ブロックの量子化された変換係数を走査し得る(356)。走査の間、または走査に続いて、ビデオエンコーダ200は、係数をエントロピー符号化し得る(358)。たとえば、ビデオエンコーダ200は、CAVLCまたはCABACを使用して、係数を符号化し得る。次いで、ビデオエンコーダ200は、ブロックのエントロピー符号化されたデータを出力し得る(360)。
図7は、本開示の技法による、現在のブロックを復号するための例示的な方法を示すフローチャートである。現在のブロックは現在のCUを含み得る。ビデオデコーダ300(図1および図4)に関して説明するが、他のデバイスが図7の方法と同様の方法を実行するように構成され得ることを理解されたい。
ビデオデコーダ300は、エントロピー符号化された予測情報および現在のブロックに対応する残差ブロックの係数のエントロピー符号化されたデータなどの、現在のブロックのためのエントロピー符号化されたデータを受信し得る(370)。ビデオデコーダ300は、現在のブロックのための予測情報を決定するために、および残差ブロックの係数を再生するために、エントロピー符号化されたデータをエントロピー復号し得る(372)。ビデオデコーダ300は、現在のブロックのための予測ブロックを計算するために、たとえば、現在のブロックのための予測情報によって示されるようなイントラ予測モードまたはインター予測モードを使用して、現在のブロックを予測し得る(374)。次いで、ビデオデコーダ300は、量子化された変換係数のブロックを作成するために、再生された係数を逆走査し得る(376)。次いで、ビデオデコーダ300は、量子化された変換係数を逆量子化および逆変換して、残差ブロックを生成し得る(378)。ビデオデコーダ300は、予測ブロックおよび残差ブロックを合成することによって、現在のブロックを最終的に復号し得る(380)。
図8は、本開示の技法による、ビデオデータを2値化する例示的な方法を示すフローチャートである。図8の方法は、図1および図3のビデオエンコーダ200に関して説明される。他の例では、他のデバイスは、これらのまたは同様の技法を実行するように構成され得る。さらに、図8の方法は、一般に、図6のステップ358の一部分に対応し得る。
最初に、ビデオエンコーダ200は現在の変換係数を受信し得る。現在の変換係数は、2よりも大きい絶対値を有し得る。ビデオエンコーダ200は、現在の係数に隣接する係数から現在の係数に対する絶対値の局所和(locSumAbs値)を計算し得る(380)。たとえば、ビデオエンコーダ200は、図5の例に示すように、変換係数の絶対値を、現在の変換係数のすぐ右、現在の変換係数の2つ右、現在の変換係数の右下、現在の変換係数のすぐ下、および現在の変換係数の2つ下に加え得る。
次いで、ビデオエンコーダ200は、locSumAbs値から現在の係数に対するシフト値を計算し得る(382)。たとえば、ビデオエンコーダ200は、式「shift = ((Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0」に従ってシフト値を計算し得る。別の例として、ビデオエンコーダ200は、式「shift = ((Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0」および「shift1 = (Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0」に従って2つのシフト値、shiftおよびshift1を計算し得る。また別の例として、ビデオエンコーダ200は、式「shift = (locSumAbs * scl) >= T ? FloorLog2((locSumAbs * scl) >> N) : 0」に従ってシフト値を計算し得る。
次いで、ビデオエンコーダ200は、シフト値を使用してlocSumAbs値を正規化し得る(384)。たとえば、ビデオエンコーダ200は、「localSumAbs = (shift == 0) ? localSumAbs : (localSumAbs + (1 << (shift -1) )) >> shift」に従ってlocSumAbs値を正規化し得る。別の例として、2つのシフト値(shiftおよびshift1)が使用される場合、ビデオエンコーダ200は、「localSumAbs = (shift == 0) ? localSumAbs : (localSumAbs + (1 << (shift -1) )) >> shift」および「localSumAbs = (shift1 == 0) ? localSumAbs : (localSumAbs + (1 << (shift1 -1) )) >> shift1」に従ってlocSumAbsを正規化し得る。また別の例として、ビデオエンコーダ200は、「locSumAbs = locSumAbs >> shift」に従ってlocSumAbsを正規化し得る。
次いで、ビデオエンコーダ200は、正規化locSumAbs値からライスパラメータを決定し得る(386)。たとえば、ビデオエンコーダ200は、上記のTable 1(表1)を使用してライスパラメータを決定し得る。
次いで、ビデオエンコーダ200は、決定されたライスパラメータを使用して変換係数を2値化し得る(388)。最後に、ビデオエンコーダ200は、2値化された変換係数をエントロピー符号化し得る(390)。
このように、図8の方法は、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算するステップと、locSumAbs値からシフト値を導出するステップと、シフト値を使用してlocSumAbs値を正規化するステップと、正規化locSumAbs値を使用してライスパラメータを決定するステップと、ライスパラメータを使用して現在の係数を2値化または逆2値化するステップとを含む方法の一例を表す。
図9は、本開示の技法による、ビデオデータを逆2値化する例示的な方法を示すフローチャートである。
最初に、ビデオデコーダ300は、現在の変換係数の2値化された、エントロピー符号化されたデータを受信し得る。具体的には、ビデオデコーダ300は、有意フラグ、大なり1フラグ、および変換係数が2よりも大きい値を有することを示す大なり2フラグを含む、エントロピー符号化された変換係数のシンタックス要素をエントロピー復号し得る。したがって、ビデオデコーダ300は、変換係数の余り値が復号されるべきであると決定し得る。したがって、ビデオデコーダ300は最初に、2値化された変換係数(すなわち、2値化された変換係数の余り値)をエントロピー復号し得る(400)。
次いで、ビデオデコーダ300は、現在の係数に隣接する係数から現在の係数に対する絶対値の局所和(locSumAbs値)を計算し得る(402)。たとえば、ビデオデコーダ300は、図5の例に示すように、変換係数の絶対値を、現在の変換係数のすぐ右、現在の変換係数の2つ右、現在の変換係数の右下、現在の変換係数のすぐ下、および現在の変換係数の2つ下に加え得る。
次いで、ビデオデコーダ300は、locSumAbs値から現在の係数に対するシフト値を計算し得る(404)。たとえば、ビデオデコーダ300は、式「shift = ((Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0」に従ってシフト値を計算し得る。別の例として、ビデオデコーダ300は、式「shift = ((Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0」および「shift1 = (Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0」に従って2つのシフト値、shiftおよびshift1を計算し得る。また別の例として、ビデオデコーダ300は、式「shift = (locSumAbs * scl) >= T ? FloorLog2((locSumAbs * scl) >> N) : 0」に従ってシフト値を計算し得る。
次いで、ビデオデコーダ300は、シフト値を使用してlocSumAbs値を正規化し得る(406)。たとえば、ビデオデコーダ300は、「localSumAbs = (shift == 0) ? localSumAbs : (localSumAbs + (1 << (shift -1) )) >> shift」に従ってlocSumAbs値を正規化し得る。別の例として、2つのシフト値(shiftおよびshift1)が使用される場合、ビデオデコーダ300は、「localSumAbs = (shift == 0) ? localSumAbs : (localSumAbs + (1 << (shift -1) )) >> shift」および「localSumAbs = (shift1 == 0) ? localSumAbs : (localSumAbs + (1 << (shift1 -1) )) >> shift1」に従ってlocSumAbsを正規化し得る。また別の例として、ビデオデコーダ300は、「locSumAbs = locSumAbs >> shift」に従ってlocSumAbsを正規化し得る。
次いで、ビデオデコーダ300は、正規化locSumAbs値からライスパラメータを決定し得る(408)。たとえば、ビデオデコーダ300は、上記のTable 1(表1)を使用してライスパラメータを決定し得る。次いで、ビデオデコーダ300は、決定されたライスパラメータを使用して変換係数(具体的には、余り値)を逆2値化し得る(410)。
このように、図9の方法は、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算するステップと、locSumAbs値からシフト値を導出するステップと、シフト値を使用してlocSumAbs値を正規化するステップと、正規化locSumAbs値を使用してライスパラメータを決定するステップと、ライスパラメータを使用して現在の係数を2値化または逆2値化するステップとを含む方法の一例を表す。
以下の条項は、本開示のいくつかの例示的な技法を要約する。
条項1: ビデオデータを復号する方法であって、本開示の技法のいずれかに従ってライスパラメータを導出するステップと、ライスパラメータを使用してビデオデータを復号するステップとを含む方法。
条項2: ライスパラメータを導出するステップが、現在の係数に隣接する係数の絶対値の局所和を決定するステップと、スケーリング値を使用して絶対値の局所和をスケーリングするステップとを含む、条項1の方法。
条項3: 入力ビット深度、事前定義された演算ビット深度、変換係数の局所的アクティビティ、ブロックサイズ、またはビデオデータを含むビットストリームにおいてシグナリングされたシンタックス要素のうちの1つまたは複数に従ってスケーリング値を決定するステップをさらに含む、条項2の方法。
条項4: 絶対値の局所和をクリップするステップをさらに含む、条項2および3のいずれかの方法。
条項5: 絶対値の局所和を正規化するステップをさらに含む、条項2~4のいずれかの方法。
条項6: ライスパラメータを導出するステップが、以下の表
に従って絶対値の局所和(locSumAbs)からライスパラメータ(cRiceParam)を導出するステップを含む、条項2~5のいずれかの方法。
条項7: 絶対値の局所和を決定するステップが、localSumAbs = (shift == 0) ? localSumAbs : (localSumAbs + (1 << (shift -1) )) >> shiftを計算するステップを含む、条項2~6のいずれかの方法。
条項8: shiftの値をshift = (Bitdepth - b) > 0 ? Floor(Log2(a*(Bitdepth - b))) : 0として計算するステップをさらに含む、条項7の方法。
条項9: Bitdepthがビデオデータのビット深度を指定し、bが演算ビット深度を指定し、aが2の整数値乗に等しく設定され、cが算出されたシフト値に従って設定される、条項8の方法。
条項10: shiftの値をshift = (Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0として計算するステップをさらに含む、条項7の方法。
条項11: Tが事前定義されたしきい値である、条項10の方法。
条項12: 絶対値の局所和を決定するステップが、localSumAbs = (shift == 0) ? localSumAbs : (localSumAbs + (1 << (shift -1) )) >> shift、およびlocalSumAbs = (shift1 == 0) ? localSumAbs : (localSumAbs + (1 << (shift1 -1) )) >> shift1を計算するステップを含む、条項2~6のいずれかの方法。
条項13: shiftおよびshift1の値をshift = (Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0、およびshift1 = (Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0として計算するステップをさらに含む、条項15の方法。
条項14: Tがしきい値であり、Bitdepthがビデオデータのビット深度を指定し、bが演算ビット深度を指定し、aが2の整数値乗に等しく設定される、条項13の方法。
条項15: 絶対値の局所和を決定するステップが、shift = (locSumAbs * scl) >= T ? FloorLog2((locSumAbs * scl) >> N) : 0、locSumAbs = locSumAbs >> shift、locSumAbs = Clip3( 0, 31, locSumAbs - baseLevel * 5 )を計算するステップを含む、条項2~6のいずれかの方法。
条項16: Tがしきい値であり、sclがスケーリング値であり、Nがビット数である、条項15の方法。
条項17: ビデオデータを含むビットストリームのビット深度に従って、T、scl、およびNのうちの1つまたは複数に対する値を決定するステップをさらに含む、条項16の方法。
条項18: ビデオデータを含むビットストリームの中のシグナリングされたデータから、T、scl、およびNのうちの1つまたは複数に対する値を決定するステップをさらに含む、条項16の方法。
条項19: シグナリングされたデータが、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、適応パラメータセット(APS)、またはスライスヘッダのうちの1つまたは複数のデータを含む、条項18の方法。
条項20: Tに対する8の値、Nに対する3の値、およびscl = floorLog2(bitdepth - 10)を決定するステップをさらに含み、bitdepthが、ビデオデータを含むビットストリームのビット深度を表す値を有する、条項16の方法。
条項21: T、scl、およびNのうちの1つまたは複数に対する所定の値を決定するステップをさらに含む、条項16の方法。
条項22: localSumAbsの値を使用して一時ライスパラメータ値を導出し、次いで、ライスパラメータを一時ライスパラメータ値と変数cの和として計算するステップをさらに含む、条項7~20のいずれかの方法。
条項23: cの値をshiftの値に等しいものとして決定するステップをさらに含む、条項21の方法。
条項24: shiftの値からcの値を導出するステップをさらに含む、条項21の方法。
条項25: ビデオデータを復号する前にビデオデータを符号化するステップをさらに含む、条項1~23のいずれかの方法。
条項26: ビデオデータを復号するためのデバイスであって、条項1~25のいずれかの方法を実行するように構成された1つまたは複数の手段を備えるデバイス。
条項27: 1つまたは複数の手段が、回路において実装された1つまたは複数のプロセッサを備える、条項26のデバイス。
条項28: 復号されたビデオデータを表示するように構成されたディスプレイをさらに備える、条項26のデバイス。
条項29: デバイスが、カメラ、コンピュータ、モバイルデバイス、ブロードキャスト受信機デバイス、またはセットトップボックスのうちの1つまたは複数を備える、条項26のデバイス。
条項30: ビデオデータを記憶するように構成されたメモリをさらに備える、条項26のデバイス。
条項31: 実行されると、プロセッサに条項1~25のいずれかの方法を実行させる命令を記憶したコンピュータ可読記憶媒体。
条項32: ビデオデータを2値化する方法であって、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算するステップと、locSumAbs値からシフト値を導出するステップと、シフト値を使用してlocSumAbs値を正規化するステップと、正規化locSumAbs値を使用してライスパラメータを決定するステップと、ライスパラメータを使用して現在の係数を2値化または逆2値化するステップとを含む方法。
条項33: ライスパラメータを使用して現在の係数をコンテキスト適応型バイナリ算術コーディング(CABAC)符号化または復号するステップをさらに含む、条項32の方法。
条項34: locSumAbs値を正規化するステップが、シフト値を使用してlocSumAbs値をビット単位で右シフトするステップを含む、条項32の方法。
条項35: 正規化locSumAbs値をクリップするステップをさらに含む、条項32の方法。
条項36: ライスパラメータを決定するステップが、ルックアップテーブルに従って正規化locSumAbs値からライスパラメータを導出するステップを含む、条項32の方法。
条項37: ルックアップテーブルが
を含み、ライスパラメータがcRiceParamを含む、条項36の方法。
条項38: locSumAbs値を計算するステップおよびlocSumAbs値を正規化するステップが、localSumAbs値を(shift == 0) ? localSumAbs : (localSumAbs + (1 << (shift -1) )) >> shiftに等しいものとして計算するステップを含む、条項32の方法。
条項39: shiftの値を導出するステップが、shiftの値をshift = (Bitdepth - b) > 0 ? Floor(Log2(a*(Bitdepth - b))) : 0として計算するステップを含む、条項38の方法。
条項40: Bitdepthがビデオデータのビット深度を指定し、bが演算ビット深度を指定し、aが2の整数値乗に等しく設定され、cが算出されたシフト値に従って設定される、条項39の方法。
条項41: シフト値を導出するステップが、shiftの値をshift = ((Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0として計算するステップを含む、条項38の方法。
条項42: Tが事前定義されたしきい値である、条項41の方法。
条項43: シフト値を導出するステップが、入力ビット深度、事前定義された演算ビット深度、変換係数の局所的アクティビティ、ブロックサイズ、またはビデオデータを含むビットストリームにおいてシグナリングされたシンタックス要素のうちの1つまたは複数に従ってシフト値を導出するステップをさらに含む、条項32の方法。
条項44: locSumAbs値を計算するステップおよびlocSumAbs値を正規化するステップが、localSumAbs = (shift == 0) ? localSumAbs : (localSumAbs + (1 << (shift -1) )) >> shift、およびlocalSumAbs = (shift1 == 0) ? localSumAbs : (localSumAbs + (1 << (shift1 -1) )) >> shift1を計算するステップを含む、条項32の方法。
条項45: シフト値を導出するステップが、shiftおよびshift1の値をshift = ((Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0、およびshift1 = ((Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0として計算するステップを含む、条項44の方法。
条項46: Tがしきい値であり、Bitdepthがビデオデータのビット深度を指定し、bが演算ビット深度を指定し、aが2の整数値乗に等しく設定される、条項45の方法。
条項47: locSumAbs値を計算するステップ、シフト値を導出するステップ、およびlocSumAbs値を正規化するステップが、shift = (locSumAbs * scl) >= T ? FloorLog2((locSumAbs * scl) >> N) : 0、locSumAbs = locSumAbs >> shift、locSumAbs = Clip3( 0, 31, locSumAbs - baseLevel * 5 )を計算するステップを含む、条項32の方法。
条項48: Tがしきい値であり、sclがスケーリング値であり、Nがビット数である、条項47の方法。
条項49: ビデオデータを含むビットストリームのビット深度に従って、T、scl、およびNのうちの1つまたは複数に対する値を決定するステップをさらに含む、条項48の方法。
条項50: ビデオデータを含むビットストリームの中のシグナリングされたデータから、T、scl、およびNのうちの1つまたは複数に対する値を決定するステップをさらに含む、条項48の方法。
条項51: シグナリングされたデータが、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、適応パラメータセット(APS)、またはスライスヘッダのうちの1つまたは複数のデータを含む、条項50の方法。
条項52: Tに対する8の値、Nに対する3の値、およびscl = floorLog2(bitdepth - 10)を決定するステップをさらに含み、bitdepthが、ビデオデータを含むビットストリームのビット深度を表す値を有する、条項48の方法。
条項53: T、scl、およびNのうちの1つまたは複数に対する所定の値を決定するステップをさらに含む、条項48の方法。
条項54: localSumAbs値を使用して一時ライスパラメータ値を導出するステップをさらに含み、ライスパラメータを決定するステップが、ライスパラメータを一時ライスパラメータ値と変数cの和として計算するステップを含む、条項32の方法。
条項55: cの値をシフト値に等しいものとして決定するステップをさらに含む、条項54の方法。
条項56: シフト値からcの値を導出するステップをさらに含む、条項54の方法。
条項57: ビデオデータを符号化または復号するステップをさらに含む、条項32の方法。
条項58: ビデオデータを2値化するためのデバイスであって、ビデオデータを記憶するように構成されたメモリと、回路において実装され、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算することと、locSumAbs値からシフト値を導出することと、シフト値を使用してlocSumAbs値を正規化することと、正規化locSumAbs値を使用してライスパラメータを決定することと、ライスパラメータを使用して現在の係数を2値化または逆2値化することとを行うように構成された1つまたは複数のプロセッサとを備えるデバイス。
条項59: 1つまたは複数のプロセッサが、現在の係数をコンテキスト適応型バイナリ算術コーディング(CABAC)符号化または復号するように構成される、条項58のデバイス。
条項60: locSumAbs値を正規化するために、1つまたは複数のプロセッサが、シフト値を使用してlocSumAbs値をビット単位で右シフトするように構成される、条項58のデバイス。
条項61: 1つまたは複数のプロセッサが、正規化locSumAbs値をクリップするようにさらに構成される、条項58のデバイス。
条項62: ライスパラメータを決定するために、1つまたは複数のプロセッサが、ルックアップテーブルに従って正規化locSumAbs値からライスパラメータを導出するように構成される、条項58のデバイス。
条項63: ルックアップテーブルが
を含み、ライスパラメータがcRiceParamを含む、条項62のデバイス。
条項64: 復号されたビデオデータを表示するように構成されたディスプレイをさらに備える、条項58のデバイス。
条項65: デバイスが、カメラ、コンピュータ、モバイルデバイス、ブロードキャスト受信機デバイス、またはセットトップボックスのうちの1つまたは複数を備える、条項58のデバイス。
条項66: 命令を記憶したコンピュータ可読記憶媒体であって、命令が、実行されると、プロセッサに、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算することと、locSumAbs値からシフト値を導出することと、シフト値を使用してlocSumAbs値を正規化することと、正規化locSumAbs値を使用してライスパラメータを決定することと、ライスパラメータを使用して現在の係数を2値化または逆2値化することとを行わせる、コンピュータ可読記憶媒体。
条項67: プロセッサに現在の係数をコンテキスト適応型バイナリ算術コーディング(CABAC)符号化または復号させる命令をさらに含む、条項66のコンピュータ可読記憶媒体。
条項68: プロセッサにlocSumAbs値を正規化させる命令が、プロセッサにシフト値を使用してlocSumAbs値をビット単位で右シフトさせる命令を含む、条項66のコンピュータ可読記憶媒体。
条項69: プロセッサに正規化locSumAbs値をクリップさせる命令をさらに含む、条項66のコンピュータ可読記憶媒体。
条項70: プロセッサにライスパラメータを決定させる命令が、プロセッサにルックアップテーブルに従って正規化locSumAbs値からライスパラメータを導出させる命令を含む、条項66のコンピュータ可読記憶媒体。
条項71: ルックアップテーブルが
を含み、ライスパラメータがcRiceParamを含む、条項70のコンピュータ可読記憶媒体。
条項72: ビデオデータを2値化するためのデバイスであって、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算するための手段と、locSumAbs値からシフト値を導出するための手段と、シフト値を使用してlocSumAbs値を正規化するための手段と、正規化locSumAbs値を使用してライスパラメータを決定するための手段と、ライスパラメータを使用して現在の係数を2値化または逆2値化するための手段とを備えるデバイス。
条項73: 現在の係数をコンテキスト適応型バイナリ算術コーディング(CABAC)符号化または復号するための手段をさらに備える、条項72のデバイス。
条項74: locSumAbs値を正規化するための手段が、シフト値を使用してlocSumAbs値をビット単位で右シフトするための手段を備える、条項72のデバイス。
条項75: 正規化locSumAbs値をクリップするための手段をさらに備える、条項72のデバイス。
条項76: ライスパラメータを決定するための手段が、ルックアップテーブルに従って正規化locSumAbs値からライスパラメータを導出するための手段を備える、条項72のデバイス。
条項77: ルックアップテーブルが
を含み、ライスパラメータがcRiceParamを含む、条項76のデバイス。
条項78: ビデオデータを2値化する方法であって、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算するステップと、locSumAbs値からシフト値を導出するステップと、シフト値を使用してlocSumAbs値を正規化するステップと、正規化locSumAbs値を使用してライスパラメータを決定するステップと、ライスパラメータを使用して現在の係数を2値化または逆2値化するステップとを含む方法。
条項79: 現在の係数をコンテキスト適応型バイナリ算術コーディング(CABAC)符号化または復号するステップをさらに含む、条項78の方法。
条項80: locSumAbs値を正規化するステップが、シフト値を使用してlocSumAbs値ビット単位で右シフトするステップを含む、条項78および79のいずれかの方法。
条項81: 正規化locSumAbs値をクリップするステップをさらに含む、条項78~80のいずれかの方法。
条項82: ライスパラメータを決定するステップが、ルックアップテーブルに従って正規化locSumAbs値からライスパラメータを導出するステップを含む、条項78~81のいずれかの方法。
条項83: ルックアップテーブルが
を含み、ライスパラメータがcRiceParamを含む、条項82の方法。
条項84: locSumAbs値を計算するステップおよびlocSumAbs値を正規化するステップが、localSumAbs値を(shift == 0) ? localSumAbs : (localSumAbs + (1 << (shift -1) )) >> shiftに等しいものとして計算するステップを含む、条項78~83のいずれかの方法。
条項85: shiftの値を導出するステップが、shiftの値をshift = (Bitdepth - b) > 0 ? Floor(Log2(a*(Bitdepth - b))) : 0として計算するステップを含む、条項84の方法。
条項86: Bitdepthがビデオデータのビット深度を指定し、bが演算ビット深度を指定し、aが2の整数値乗に等しく設定され、cが算出されたシフト値に従って設定される、条項85の方法。
条項87: シフト値を導出するステップが、shiftの値をshift = ((Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0として計算するステップを含む、条項84~86のいずれかの方法。
条項88: Tが事前定義されたしきい値である、条項87の方法。
条項89: シフト値を導出するステップが、入力ビット深度、事前定義された演算ビット深度、変換係数の局所的アクティビティ、ブロックサイズ、またはビデオデータを含むビットストリームにおいてシグナリングされたシンタックス要素のうちの1つまたは複数に従ってシフト値を導出するステップをさらに含む、条項78~88のいずれかの方法。
条項90: locSumAbs値を計算するステップおよびlocSumAbs値を正規化するステップが、localSumAbs = (shift == 0) ? localSumAbs : (localSumAbs + (1 << (shift -1) )) >> shift、およびlocalSumAbs = (shift1 == 0) ? localSumAbs : (localSumAbs + (1 << (shift1 -1) )) >> shift1を計算するステップを含む、条項78~88のいずれかの方法。
条項91: シフト値を導出するステップが、shiftおよびshift1の値をshift = ((Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0、およびshift1 = ((Bitdepth - b) > 0) && (localSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0として計算するステップを含む、条項90の方法。
条項92: Tがしきい値であり、Bitdepthがビデオデータのビット深度を指定し、bが演算ビット深度を指定し、aが2の整数値乗に等しく設定される、条項91の方法。
条項93: locSumAbs値を計算するステップ、シフト値を導出するステップ、およびlocSumAbs値を正規化するステップが、shift = (locSumAbs * scl) >= T ? FloorLog2((locSumAbs * scl) >> N) : 0、locSumAbs = locSumAbs >> shift、locSumAbs = Clip3( 0, 31, locSumAbs - baseLevel * 5 )を計算するステップを含む、条項78~92のいずれかの方法。
条項94: Tがしきい値であり、sclがスケーリング値であり、Nがビット数である、条項93の方法。
条項95: ビデオデータを含むビットストリームのビット深度に従って、T、scl、およびNのうちの1つまたは複数に対する値を決定するステップをさらに含む、条項94の方法。
条項96: ビデオデータを含むビットストリームの中のシグナリングされたデータから、T、scl、およびNのうちの1つまたは複数に対する値を決定するステップをさらに含む、条項94の方法。
条項97: シグナリングされたデータが、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、適応パラメータセット(APS)、またはスライスヘッダのうちの1つまたは複数のデータを含む、条項96の方法。
条項98: Tに対する8の値、Nに対する3の値、およびscl = floorLog2(bitdepth - 10)を決定するステップをさらに含み、bitdepthが、ビデオデータを含むビットストリームのビット深度を表す値を有する、条項94の方法。
条項99: T、scl、およびNのうちの1つまたは複数に対する所定の値を決定するステップをさらに含む、条項94の方法。
条項100: localSumAbs値を使用して一時ライスパラメータ値を導出するステップをさらに含み、ライスパラメータを決定するステップが、ライスパラメータを一時ライスパラメータ値と変数cの和として計算するステップを含む、条項78~99のいずれかの方法。
条項101: cの値をシフト値に等しいものとして決定するステップをさらに含む、条項54の方法。
条項102: シフト値からcの値を導出するステップをさらに含む、条項54の方法。
条項103: ビデオデータを符号化または復号するステップをさらに含む、条項78~102のいずれかの方法。
条項104: ビデオデータを2値化するためのデバイスであって、ビデオデータを記憶するように構成されたメモリと、回路において実装され、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算することと、locSumAbs値からシフト値を導出することと、シフト値を使用してlocSumAbs値を正規化することと、正規化locSumAbs値を使用してライスパラメータを決定することと、ライスパラメータを使用して現在の係数を2値化または逆2値化することとを行うように構成された1つまたは複数のプロセッサとを備えるデバイス。
条項105: 1つまたは複数のプロセッサが、現在の係数をコンテキスト適応型バイナリ算術コーディング(CABAC)符号化または復号するように構成される、条項104のデバイス。
条項106: locSumAbs値を正規化するために、1つまたは複数のプロセッサが、シフト値を使用してlocSumAbs値をビット単位で右シフトするように構成される、条項104および105のいずれかのデバイス。
条項107: 1つまたは複数のプロセッサが、正規化locSumAbs値をクリップするようにさらに構成される、条項104~106のいずれかのデバイス。
条項108: ライスパラメータを決定するために、1つまたは複数のプロセッサが、ルックアップテーブルに従って正規化locSumAbs値からライスパラメータを導出するように構成される、条項104~107のいずれかのデバイス。
条項109: ルックアップテーブルが
を含み、ライスパラメータがcRiceParamを含む、条項108のデバイス。
条項110: 復号されたビデオデータを表示するように構成されたディスプレイをさらに備える、条項104~109のいずれかのデバイス。
条項111: デバイスが、カメラ、コンピュータ、モバイルデバイス、ブロードキャスト受信機デバイス、またはセットトップボックスのうちの1つまたは複数を備える、条項104~110のいずれかのデバイス。
条項112: 命令を記憶したコンピュータ可読記憶媒体であって、命令が、実行されると、プロセッサに、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算することと、locSumAbs値からシフト値を導出することと、シフト値を使用してlocSumAbs値を正規化することと、正規化locSumAbs値を使用してライスパラメータを決定することと、ライスパラメータを使用して現在の係数を2値化または逆2値化することとを行わせる、コンピュータ可読記憶媒体。
条項113: プロセッサに現在の係数をコンテキスト適応型バイナリ算術コーディング(CABAC)符号化または復号させる命令をさらに含む、条項112のコンピュータ可読記憶媒体。
条項114: プロセッサにlocSumAbs値を正規化させる命令が、プロセッサにシフト値を使用してlocSumAbs値をビット単位で右シフトさせる命令を含む、条項112および113のいずれかのコンピュータ可読記憶媒体。
条項115: プロセッサに正規化locSumAbs値をクリップさせる命令をさらに含む、条項112~114のいずれかのコンピュータ可読記憶媒体。
条項116: プロセッサにライスパラメータを決定させる命令が、プロセッサにルックアップテーブルに従って正規化locSumAbs値からライスパラメータを導出させる命令を含む、条項112~115のいずれかのコンピュータ可読記憶媒体。
条項117: ルックアップテーブルが
を含み、ライスパラメータがcRiceParamを含む、条項116のコンピュータ可読記憶媒体。
条項118: ビデオデータを2値化するためのデバイスであって、ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算するための手段と、locSumAbs値からシフト値を導出するための手段と、シフト値を使用してlocSumAbs値を正規化するための手段と、正規化locSumAbs値を使用してライスパラメータを決定するための手段と、ライスパラメータを使用してビデオデータ2値化または逆2値化するための手段とを備えるデバイス。
条項119: 現在の係数をコンテキスト適応型バイナリ算術コーディング(CABAC)符号化または復号するための手段をさらに備える、条項118のデバイス。
条項120: locSumAbs値を正規化するための手段が、シフト値を使用してlocSumAbs値をビット単位で右シフトするための手段を備える、条項118および119のいずれかのデバイス。
条項121: 正規化locSumAbs値をクリップするための手段をさらに備える、条項118~120のいずれかのデバイス。
条項122: ライスパラメータを決定するための手段が、ルックアップテーブルに従って正規化locSumAbs値からライスパラメータを導出するための手段を備える、条項118~121のいずれかのデバイス。
条項123: ルックアップテーブルが
を含み、ライスパラメータがcRiceParamを含む、条項122のデバイス。
例に応じて、本明細書で説明する技法のいずれかのいくつかの行為またはイベントが、異なるシーケンスで実行される場合があり、追加され、統合され、または完全に除外されてもよい(たとえば、説明したすべての行為またはイベントが技法の実践にとって必要であるとは限らない)ことを認識されたい。さらに、いくつかの例では、行為またはイベントは、連続的にではなく、たとえば、マルチスレッド処理、割込み処理、または複数のプロセッサを通じて、同時に実行されてもよい。
1つまたは複数の例では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せにおいて実装され得る。ソフトウェアにおいて実装される場合、機能は、1つまたは複数の命令またはコードとして、コンピュータ可読媒体上に記憶されるか、またはコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体などの有形媒体に対応するコンピュータ可読記憶媒体、または、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体を含み得る。このように、コンピュータ可読媒体は一般に、(1)非一時的である有形コンピュータ可読記憶媒体、または(2)信号もしくは搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明する技法の実装のための命令、コードおよび/またはデータ構造を取り出すために1つもしくは複数のコンピュータまたは1つもしくは複数のプロセッサによってアクセスされ得る、任意の利用可能な媒体であり得る。コンピュータプログラム製品は、コンピュータ可読媒体を含み得る。
限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD-ROMもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気記憶デバイス、フラッシュメモリ、または、命令もしくはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用してウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は媒体の定義に含まれる。しかしながら、コンピュータ可読記憶媒体およびデータ記憶媒体が、接続、搬送波、信号、または他の一時的媒体を含まず、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピーディスク(disk)およびブルーレイディスク(disc)を含み、ディスク(disk)は通常、データを磁気的に再生し、ディスク(disc)は、レーザーを用いてデータを光学的に再生する。上記の組合せも、コンピュータ可読媒体の範囲内に含まれるべきである。
命令は、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または他の等価な集積論理回路もしくはディスクリート論理回路などの、1つまたは複数のプロセッサによって実行され得る。したがって、本明細書で使用する「プロセッサ」および「処理回路」という用語は、上記の構造、または本明細書で説明する技法の実装に適した任意の他の構造のいずれかを指すことがある。加えて、いくつかの態様では、本明細書で説明する機能は、符号化および復号のために構成された専用のハードウェアモジュールおよび/もしくはソフトウェアモジュール内で提供されてもよく、または複合コーデックに組み込まれてもよい。また、技法は、1つまたは複数の回路または論理要素において完全に実装され得る。
本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。開示した技法を実行するように構成されたデバイスの機能的態様を強調するために、様々な構成要素、モジュール、またはユニットについて本開示で説明したが、それらは必ずしも異なるハードウェアユニットによる実現を必要とするとは限らない。むしろ、上記で説明したように、様々なユニットは、コーデックハードウェアユニットにおいて組み合わされてもよく、または好適なソフトウェアおよび/もしくはファームウェアとともに、上記で説明したような1つもしくは複数のプロセッサを含む、相互動作可能なハードウェアユニットの集合によって提供されてもよい。
様々な例について説明してきた。これらおよび他の例は、以下の特許請求の範囲内に入る。
100 ビデオ符号化および復号システム、システム
102 ソースデバイス
104 ビデオソース
106 メモリ
108 出力インターフェース
110 コンピュータ可読媒体
112 記憶デバイス
114 ファイルサーバ
116 宛先デバイス
118 ディスプレイデバイス
120 メモリ
122 入力インターフェース
130 4分木2分木(QTBT)構造、QTBT構造
132 コーディングツリーユニット(CTU)、CTU
200 ビデオエンコーダ
202 モード選択ユニット
204 残差生成ユニット
206 変換処理ユニット
208 量子化ユニット
210 逆量子化ユニット
212 逆変換処理ユニット
214 再構成ユニット
216 フィルタユニット
218 復号ピクチャバッファ(DPB)、DPB
220 エントロピー符号化ユニット
222 動き推定ユニット
224 動き補償ユニット
226 イントラ予測ユニット
230 ビデオデータメモリ
300 ビデオデコーダ
302 エントロピー復号ユニット
304 予測処理ユニット
306 逆量子化ユニット
308 逆変換処理ユニット
310 再構成ユニット
312 フィルタユニット
314 復号ピクチャバッファ(DPB)、DPB
316 動き補償ユニット
318 イントラ予測ユニット
320 コード化ピクチャバッファ(CPB)メモリ、CPBメモリ

Claims (35)

  1. ビデオデータを2値化する方法であって、
    ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算するステップと、
    前記locSumAbs値からシフト値を導出するステップと、
    前記シフト値を使用して前記locSumAbs値を正規化して、正規化locSumAbs値を生成するステップと、
    前記正規化locSumAbs値を使用してライスパラメータを決定するステップと、
    前記ライスパラメータを使用して前記現在の係数を2値化または逆2値化するステップと
    を含む方法。
  2. 前記現在の係数をコンテキスト適応型バイナリ算術コーディング(CABAC)符号化またはCABAC復号するステップをさらに含む、請求項1に記載の方法。
  3. 前記locSumAbs値を正規化するステップが、前記シフト値を使用して前記locSumAbs値をビット単位で右シフトして、前記正規化locSumAbs値を生成するステップを含む、請求項1に記載の方法。
  4. 前記正規化locSumAbs値をクリップするステップをさらに含む、請求項1に記載の方法。
  5. 前記ライスパラメータを決定するステップが、ルックアップテーブルに従って前記正規化locSumAbs値から前記ライスパラメータを導出するステップを含む、請求項1に記載の方法。
  6. 前記ルックアップテーブルが
    を含み、前記ライスパラメータがcRiceParamを含み、前記方法が、cRiceParam = cRiceParam + cに従って前記ライスパラメータを更新するステップをさらに含み、cが前記シフト値に基づく、請求項6に記載の方法。
  7. 前記locSumAbs値を計算するステップおよび前記locSumAbs値を正規化するステップが、前記locSumAbs値を(shift == 0) ? locSumAbs : (locSumAbs + (1 << (shift -1) )) >> shiftに等しいものとして計算するステップを含む、請求項1に記載の方法。
  8. 前記シフト値を導出するステップが、前記シフト値をshift = (Bitdepth - b) > 0 ? Floor(Log2(a*(Bitdepth - b))) : 0として計算するステップを含む、請求項7に記載の方法。
  9. Bitdepthが前記ビデオデータのビット深度を指定し、bが演算ビット深度を指定し、aが2の整数値乗に等しく設定され、cが前記シフト値に基づく、請求項8に記載の方法。
  10. 前記シフト値を導出するステップが、(Bitdepth - b) > 0) && (locSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0を使用して前記シフト値を計算するステップを含む、請求項8に記載の方法。
  11. Tが事前定義されたしきい値である、請求項10に記載の方法。
  12. 前記シフト値を導出するステップが、入力ビット深度、事前定義された演算ビット深度、変換係数の局所的アクティビティ、ブロックサイズ、または前記ビデオデータを含むビットストリームにおいてシグナリングされたシンタックス要素のうちの1つまたは複数に従って前記シフト値を導出するステップをさらに含む、請求項1に記載の方法。
  13. 前記locSumAbs値を計算するステップおよび前記locSumAbs値を正規化するステップが、
    locSumAbs = (shift == 0) ? locSumAbs : (locSumAbs + (1 << (shift -1) )) >> shift、および
    locSumAbs = (shift1 == 0) ? locSumAbs : (locSumAbs + (1 << (shift1 -1) )) >> shift1
    を計算するステップを含む、請求項1に記載の方法。
  14. 前記シフト値を導出するステップが、shiftおよびshift1の値を
    shift = ((Bitdepth - b) > 0) && (locSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0、および
    shift1 = ((Bitdepth - b) > 0) && (locSumAbs - baseLevel * 5) >= T ? Floor(Log2(a*(Bitdepth - b))) : 0
    として計算するステップを含む、請求項13に記載の方法。
  15. Tがしきい値であり、baseLevelが前記現在の係数に対する元の値を表し、Bitdepthが前記ビデオデータのビット深度を指定し、bが演算ビット深度を指定し、aが2の整数値乗に等しく設定される、請求項14に記載の方法。
  16. 前記locSumAbs値を計算するステップ、前記シフト値を導出するステップ、および前記locSumAbs値を正規化するステップが、
    shift = (locSumAbs * scl) >= T ? FloorLog2((locSumAbs * scl) >> N) : 0、
    locSumAbs = locSumAbs >> shift、
    locSumAbs = Clip3( 0, 31, locSumAbs - baseLevel * 5 )
    を計算するステップを含む、請求項1に記載の方法。
  17. Tがしきい値であり、sclがスケーリング値であり、Nがビット数である、請求項16に記載の方法。
  18. 前記ビデオデータを含むビットストリームのビット深度に従って、T、scl、およびNのうちの1つまたは複数に対する値を決定するステップをさらに含む、請求項17に記載の方法。
  19. 前記ビデオデータを含むビットストリームの中のシグナリングされたデータから、T、scl、およびNのうちの1つまたは複数に対する値を決定するステップをさらに含む、請求項17に記載の方法。
  20. 前記シグナリングされたデータが、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、適応パラメータセット(APS)、またはスライスヘッダのうちの1つまたは複数のデータを含む、請求項19に記載の方法。
  21. Tに対する8の値、Nに対する3の値、およびscl = floorLog2(bitdepth - 10)を決定するステップをさらに含み、bitdepthが、前記ビデオデータを含むビットストリームのビット深度を表す値を有する、請求項17に記載の方法。
  22. T、scl、およびNのうちの1つまたは複数に対する所定の値を決定するステップをさらに含む、請求項17に記載の方法。
  23. 前記locSumAbs値を使用して一時ライスパラメータ値を導出するステップをさらに含み、前記ライスパラメータを決定するステップが、前記ライスパラメータを前記一時ライスパラメータ値と変数cの和として計算するステップを含む、請求項1に記載の方法。
  24. cの値を前記シフト値に等しいものとして決定するステップをさらに含む、請求項23に記載の方法。
  25. 前記シフト値からcの値を導出するステップをさらに含む、請求項23に記載の方法。
  26. ビデオデータを2値化するためのデバイスであって、
    ビデオデータを記憶するように構成されたメモリと、
    回路において実装され、
    ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算することと、
    前記locSumAbs値からシフト値を導出することと、
    前記シフト値を使用して前記locSumAbs値を正規化して、正規化locSumAbs値を生成することと、
    前記正規化locSumAbs値を使用してライスパラメータを決定することと、
    前記ライスパラメータを使用して前記現在の係数を2値化または逆2値化することと
    を行うように構成された1つまたは複数のプロセッサとを備えるデバイス。
  27. 前記1つまたは複数のプロセッサが、前記現在の係数をコンテキスト適応型バイナリ算術コーディング(CABAC)符号化または復号するように構成される、請求項26に記載のデバイス。
  28. 前記locSumAbs値を正規化するために、前記1つまたは複数のプロセッサが、前記シフト値を使用して前記locSumAbs値をビット単位で右シフトするように構成される、請求項26に記載のデバイス。
  29. 前記1つまたは複数のプロセッサが、前記正規化locSumAbs値をクリップするようにさらに構成される、請求項26に記載のデバイス。
  30. 前記ライスパラメータを決定するために、前記1つまたは複数のプロセッサが、ルックアップテーブルに従って前記正規化locSumAbs値から前記ライスパラメータを導出するように構成される、請求項26に記載のデバイス。
  31. 前記ルックアップテーブルが
    を含み、前記ライスパラメータがcRiceParamを含み、前記1つまたは複数のプロセッサが、cRiceParam = cRiceParam + cに従って前記ライスパラメータを更新するようにさらに構成され、cが前記シフト値に基づく、請求項30に記載のデバイス。
  32. 前記ビデオデータを表示するように構成されたディスプレイをさらに備える、請求項26に記載のデバイス。
  33. 前記デバイスが、カメラ、コンピュータ、モバイルデバイス、ブロードキャスト受信機デバイス、またはセットトップボックスのうちの1つまたは複数を備える、請求項26に記載のデバイス。
  34. 命令を記憶したコンピュータ可読記憶媒体であって、前記命令が、実行されると、プロセッサに、
    ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算することと、
    前記locSumAbs値からシフト値を導出することと、
    前記シフト値を使用して前記locSumAbs値を正規化して、正規化locSumAbs値を生成することと、
    前記正規化locSumAbs値を使用してライスパラメータを決定することと、
    前記ライスパラメータを使用して前記現在の係数を2値化または逆2値化することと
    を行わせる、コンピュータ可読記憶媒体。
  35. ビデオデータを復号するためのデバイスであって、
    ビデオデータの現在のブロックの現在の係数に隣接する係数の絶対値の局所和(locSumAbs値)を計算するための手段と、
    前記locSumAbs値からシフト値を導出するための手段と、
    前記シフト値を使用して前記locSumAbs値を正規化して、正規化locSumAbs値を生成するための手段と、
    前記正規化locSumAbs値を使用してライスパラメータを決定するための手段と、
    前記ライスパラメータを使用して前記ビデオデータを復号するための手段と
    を備えるデバイス。
JP2023520220A 2020-10-06 2021-10-06 高ビット深度ビデオコーディングのためのライスパラメータ値の適応的な導出 Pending JP2023544046A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US202063088010P 2020-10-06 2020-10-06
US63/088,010 2020-10-06
US202063090615P 2020-10-12 2020-10-12
US63/090,615 2020-10-12
US17/494,418 2021-10-05
US17/494,418 US11722672B2 (en) 2020-10-06 2021-10-05 Adaptively deriving rice parameter values for high bit-depth video coding
PCT/US2021/053770 WO2022076557A1 (en) 2020-10-06 2021-10-06 Adaptively deriving rice parameter values for high bit-depth video coding

Publications (1)

Publication Number Publication Date
JP2023544046A true JP2023544046A (ja) 2023-10-19

Family

ID=80931854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023520220A Pending JP2023544046A (ja) 2020-10-06 2021-10-06 高ビット深度ビデオコーディングのためのライスパラメータ値の適応的な導出

Country Status (7)

Country Link
US (2) US11722672B2 (ja)
EP (1) EP4226613A1 (ja)
JP (1) JP2023544046A (ja)
KR (1) KR20230081706A (ja)
CN (1) CN116325738A (ja)
BR (1) BR112023005535A2 (ja)
WO (1) WO2022076557A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11985307B2 (en) * 2021-04-09 2024-05-14 Qualcomm Incorporated Deriving a rice parameter for coding high bit depth video data

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HUE063990T2 (hu) 2011-06-16 2024-02-28 Ge Video Compression Llc Módváltást támogató entrópia kódolás
GB2513110A (en) 2013-04-08 2014-10-22 Sony Corp Data encoding and decoding
US9936200B2 (en) * 2013-04-12 2018-04-03 Qualcomm Incorporated Rice parameter update for coefficient level coding in video coding process
EP3262839B1 (en) * 2015-04-08 2021-06-16 HFI Innovation Inc. Methods for palette mode context coding and binarization in video coding
US10616604B2 (en) 2015-09-01 2020-04-07 Qualcomm Incorporated Coefficient level coding in video coding
WO2017059787A1 (en) * 2015-10-05 2017-04-13 Mediatek Inc. Method and apparatus of palette index map coding for screen content coding
US11336918B2 (en) 2018-09-05 2022-05-17 Qualcomm Incorporated Regular coded bin reduction for coefficient coding
CN112118456B (zh) * 2019-06-20 2022-03-25 腾讯美国有限责任公司 莱斯参数选择方法、装置、计算机设备及存储介质
US11184642B2 (en) 2019-08-02 2021-11-23 Mediatek Inc. Methods and apparatus for simplification of coding residual blocks
KR20220038121A (ko) * 2019-08-23 2022-03-25 엘지전자 주식회사 비디오/영상 코딩 시스템에서 라이스 파라미터 도출 방법 및 장치
WO2021123250A1 (en) * 2019-12-20 2021-06-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decoder, encoder and method for supporting adaptive dependent quantization of transform coefficient levels

Also Published As

Publication number Publication date
WO2022076557A1 (en) 2022-04-14
US20230421769A1 (en) 2023-12-28
EP4226613A1 (en) 2023-08-16
KR20230081706A (ko) 2023-06-07
BR112023005535A2 (pt) 2023-04-25
CN116325738A (zh) 2023-06-23
US20220109844A1 (en) 2022-04-07
US11722672B2 (en) 2023-08-08

Similar Documents

Publication Publication Date Title
US11381819B2 (en) Chroma delta quantization parameter (QP) in video coding
US20190246122A1 (en) Palette coding for video coding
US11095916B2 (en) Wraparound motion compensation in video coding
JP2022539316A (ja) ビデオコーディングにおける簡略化されたイントラクロマモードコーディング
US20210235124A1 (en) Decoded picture buffer (dpb) parameter signaling for video coding
US20210058620A1 (en) Chroma quantization parameter (qp) derivation for video coding
US11277611B2 (en) Delta quantization parameter (QP) signaling in palette mode
US11418787B2 (en) Chroma delta QP in video coding
US20210092406A1 (en) Inter-layer reference picture signaling in video coding
JP2023554264A (ja) 高ビット深度ビデオコーディング用のriceパラメータ導出のための低複雑度履歴の使用
US11706425B2 (en) Multiple transform set signaling for video coding
US11457229B2 (en) LFNST signaling for chroma based on chroma transform skip
US11729381B2 (en) Deblocking filter parameter signaling
US20230421769A1 (en) Adaptively deriving rice parameter values for high bit-depth video coding
US11683489B2 (en) Monochrome palette mode for video coding
US11973983B2 (en) Signaling coding scheme for residual values in transform skip for video coding
US11412264B2 (en) Parameter set signaling for video coding
JP2024500654A (ja) ビデオコーディングにおける複数の色成分に対する符号予測