JP2022531564A - ビデオコーディング方法及びシステム - Google Patents

ビデオコーディング方法及びシステム Download PDF

Info

Publication number
JP2022531564A
JP2022531564A JP2021563217A JP2021563217A JP2022531564A JP 2022531564 A JP2022531564 A JP 2022531564A JP 2021563217 A JP2021563217 A JP 2021563217A JP 2021563217 A JP2021563217 A JP 2021563217A JP 2022531564 A JP2022531564 A JP 2022531564A
Authority
JP
Japan
Prior art keywords
reference line
adjacent
line
filter
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021563217A
Other languages
English (en)
Other versions
JP7250169B2 (ja
Inventor
ジャオ,リアン
ジャオ,シン
リィウ,シャン
Original Assignee
テンセント・アメリカ・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・アメリカ・エルエルシー filed Critical テンセント・アメリカ・エルエルシー
Publication of JP2022531564A publication Critical patent/JP2022531564A/ja
Application granted granted Critical
Publication of JP7250169B2 publication Critical patent/JP7250169B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビデオデコーディング方法であって、ビデオ信号の複数のコーディングフレームを含むビットストリームを取得し、複数のコーディングフレームのそれぞれを複数のスーパーブロックにデコーディングし、複数のスーパーブロックのそれぞれを複数の残差ブロックにデコーディングし、各コーディングフレームに含まれる参照サンプル及びマルチ参照ラインイントラ予測(MRLP)フラグに基づいて、複数の残差ブロックのそれぞれのコーディングブロック(CB)を復元し、複数の参照ラインは上側の参照ライン及び左側の参照ラインに区画され、1つの上側の参照ライン及び1つの左側の参照ラインを選択してイントラ予測に使用し、復元された複数の残差ブロックのそれぞれのCBをフレームバッファに記憶することでビデオ信号の各フレームを再構築し、再構築されたフレームを連続して出力し、ビデオ信号を復元することを含む。

Description

本出願は、ビデオコーディング技術の分野に関し、且つ、具体的には、マルチ参照ラインイントラ予測を利用するビデオコーディングの方法及びシステムに関する。
本出願は、2020年10月22日に提出された米国仮特許出願第17/077,872号について優先権を主張し、且つ、当該米国仮特許出願は、2020年1月23日にて提出された米国仮出願第62/964,992号について優先権を主張するものであり、上記の各出願の全内容は、援用により組み込まれている。
Ameliaビデオ1(AV1)は、インターネットを介したビデオ伝送用に設計されたオープンビデオコーディングフォーマットである。これは、半導体企業、ビデオオンデマンドプロバイダー、ビデオコンテンツプロデューサー、ソフトウェア開発会社、及びWebブラウザーベンダーを含む、2015年に設立されたコンソーシアムである(Alliance for Open Media、AOMedia)によってVP9の後継として開発された。VP9のコードベースに基づいて構築されたAV1には、追加の技術が組み込まれており、その追加の技術の幾つかはこれらの実験形式で開発された。AV1リファレンスコーデックの最初のバージョン0.1.0は、2016年4月7日にリリースされた。Allianceは、2018年3月28日にAV1ビットストリーム仕様とともに、リファレンスであるソフトウェアベースのエンコーダ及びデコーダをリリースした。2018年6月25日に、当該仕様の検証バージョン1.0.0がリリースされた。2019年1月8日に、当該仕様のエラッタ1を含む検証バージョン1.0.0がリリースされた。AV1ビットストリーム仕様には、リファレンスビデオコーデックが含まれている。
ITU-T VCEG(Q6/16)及びISO/IEC MPEG(JTC 1/SC 29/WG 11)は、2013年(バージョン1)、2014年(バージョン2)、2015(バージョン3)、及び2016(バージョン4)にH.265/HEVC(高効率ビデオコーディング)(High Efficiency Video Coding、(HEVC))標準をリリースした。2015年、これらの2つの標準化団体は共同でJVET(Joint Video Exploration Team)を結成し、HEVCを超えた次のビデオコーディング標準の開発の可能性を探した。2017年10月、HEVCを超えた能力を持つビデオ圧縮に関する共同提案募集(Capability beyond HEVC、CfP)をリリースした。2018年2月15日までに、スタンダードダイナミックレンジ(standard dynamic range、SDR)で合計22のCfP応答、ハイダイナミックレンジ(high dynamic range、HDR)で12のCfP応答、及び、360のビデオカテゴリで12のCfP応答がそれぞれ提出された。2018年4月1日、受信したすべてのCfP応答は、122 MPEG/10thJVET会議で評価された。この会議の結果、JVETはHEVCを超えた次世代のビデオコーディングの標準化プロセスを正式に開始した。新しい標準は多用途ビデオコーディング(Versatile Video Coding、VVC)と名付けられ、JVETは共同ビデオ専門家チームと改名された。
両方のビデオコーディング標準のビデオコーディングスキームでは、マルチ参照ラインイントラ予測(Multiple Reference Line Prediction、MRLP)を使用する。MRLPの結果はラインバッファに記憶される。ラインバッファは、画像/ビデオ処理回路用の典型的で主要なオンチップメモリ設計アーキテクチャである。ラインバッファは通常、非常に大きなオンチップ回路領域を占めるため、効率的なアーキテクチャ設計を通じてハードウェアコストを削減することは非常に重要である。MRLPについて、一つよりも多い(たとえば、四つの)参照ラインを使用してイントラ予測を行う場合があり、ラインバッファサイズを増加させ、大量のオンチップ回路領域が必要になる。
開示された方法及びシステムは、上記の1つ又は複数の問題及び他の問題を解決することを目的としている。
本開示の一態様は、ビデオデコーディング方法を含む。当該方法は、ビデオ信号の複数のコーディングフレームを含むビットストリームを取得し、複数のコーディングフレームのそれぞれを複数のスーパーブロックにデコーディングし、複数のスーパーブロックのそれぞれを複数の残差ブロックにデコーディングし、各コーディングフレームに含まれる参照サンプル及びマルチ参照ラインイントラ予測(MRLP)フラグに基づいて、複数の残差ブロックのそれぞれのコーディングブロック(Coded Block、CB)を復元し、複数の参照ラインは上側の参照ライン及び左側の参照ラインに区画され、1つの上側の参照ライン及び1つの左側の参照ラインを選択してイントラ予測に使用し、復元された複数の残差ブロックのそれぞれのCBをフレームバッファに記憶することでビデオ信号の各フレームを再構築し、再構築されたフレームを連続して出力して、ビデオ信号を復元する、ことを含む。
本開示の他の態様は、ビデオコーディング方法を含む。当該方法は、ビデオ入力の現在のフレームを取得し、ネストされたマルチタイプツリーコーディングブロック構造に応じて、取得された現在のフレームをスーパーブロックのシーケンスに分割し、各スーパーブロック複数のコーディングブロック(CB)に分割し、マルチ参照ラインイントラ予測(MRLP)を使用して各CBの残差ブロックを取得し、イントラ予測のために選択された参照ラインの参照サンプル及びMRLPフラグをラインバッファに記憶し、複数の参照ラインは上側の参照ライン及び左側の参照ラインに区画され、ラインバッファのサイズを最小化するように、1つの上側の参照ライン及び1つの左側参照ラインを選択してイントラ予測に使用し、現在のフレームの各CBの残差ブロックを使用して現在のフレームをコーディングすることで、各CBのコーディングされた残差ブロック含むビットストリームを生成することを含む。
当業者は、本開示の明細書、特許請求の範囲、及び図面に従って、本開示の他の態様を理解することができる。
本開示の幾つかの実施形態を組み込んだ動作環境を示す。 本開示の実施形態と一致する電子機器を示す。 本開示の実施形態と一致するコンピュータシステムを示す。 本開示の実施形態と一致するビデオエンコーダを示す。 本開示の実施形態と一致するビデオデコーダを示す。 本開示の実施形態と一致する例示的なビデオコーディング方法を示す。 本開示の実施形態と一致する例示的なビデオデコーディング方法を示す。 本開示の実施形態と一致する四つのマルチタイプツリーパーティションモードを示す。 本開示の実施形態と一致する例示的なコーディングツリー構造における分割パーティション情報の信号で送るメカニズムを示す。 本開示の実施形態と一致する例示的なコーディングツリー構造を示す。 本開示の実施形態と一致する他の例示的なコーディングツリー構造を示す。 本開示の実施形態と一致する他の例示的なコーディングツリー構造を示す。 本開示の実施形態と一致するイントラ予測モードの8つの公称角度を示す。 本開示の実施形態と一致するPAETHモードの上方、左側及び左上の位置を示す。 本開示の実施形態と一致する再帰的イントラフィルタリングモードの例を示す。 本開示の実施形態と一致する4つの参照ラインの例を示す。 本開示の実施形態と一致する上側の参照ライン及び左側の参照ラインの例を示す。 本開示の実施形態と一致するイントラ予測のために上側の参照ライン0及び左側の参照ライン0を選択する例を示す。 本開示の実施形態と一致するイントラ予測のために上側の参照ライン0及び左側の参照ライン1を選択する例を示す。 本開示の実施形態と一致するイントラ予測のために上側の参照ライン0及び左側の参照ライン2を選択する例を示す。 本開示の実施形態と一致するイントラ予測のために上側の参照ライン0及び左側の参照ライン3を選択する例を示す。 本開示の実施形態と一致する角度イントラ予測の方向で、非隣接上側参照ラインの参照サンプルの整数位置を隣接上側参照ラインに向かって投影する例を示す。
以下、図面を参照しながら本発明の実施形態における技術的解決策について説明する。可能な限り、全ての図面において同じ符号を使用して同じ又は類似する部分を示す。明らかに、説明された実施形態は、本発明の実施形態の全てではなく、一部である。本発明における実施形態に基づいて、当業者が創造的な労力をしない前提で得られる他の実施形態は、本開示の保護する範囲に属する。本開示で使用される特定の用語は、以下において最初に説明される。
多用途ビデオコーディング(Versatile Video Coding):VVCは、ジョイントビデオエクスプロレーションチーム(Joint Video Exploration Team、JVET)によって開発されたHEVC(ITU-T H.265とも呼ばれる)を引き継ぐビデオデコーディング標準である。VVCは、そのような標準の従来の世代の圧縮能力を著しく超えた圧縮能力を有するビデオコーディング技術を規定し、拡大された応用範囲での効果的な使用は非常に多用途である。VVC標準は参照により本明細書に組み込まれている。
AOMedia Video 1(AOMedia Video 1、AV1):AV1は、AOMedia(Alliance for Open Media)によって開発された、インターネットを介したビデオ伝送のためのオープンソースビデオコーディング標準である。AV1標準は参照により本明細書に組み込まれている。
許可されたイントラ予測モード(Allowed intra prediction mode、AIPM):隣接ブロックのイントラ予測モードから導出された現在のブロックのイントラ予測に使用されることができるモードを有する1つのモードセットとして定義される。
許可されないイントラ予測モード(Disallowed intra prediction mode、DIPM):信号で示されることができないか、又は現在のブロックのイントラ予測に使用されることができないか、又は隣接ブロックのイントラ予測モードから導出されるモードを有する1つのモードセットとして定義される。
CfL(Chroma From Luma)は、輝度と色情報の相関性を利用して、同一のコーディングブロックの輝度コンポーネントの参照サンプルに基づいて彩度コンポーネントに対してイントラ予測を実行する。
マルチ参照ラインイントラ予測(MRLP)は、イントラ予測において、最も近い参照ラインだけでなく、現在のコーディングブロックから離れた複数の参照ラインも使用する。
コーディングツリーユニット(Coding Tree Unit、CTU)は、HEVC及びVVC標準のさまざまなビデオコーディングスキームの基本的な処理ユニットである。ビデオフレームは複数のCTUに分割され、各CTUは、さらに、効果的なビデオコーディングのために様々なより小さなユニット又はブロックに分割される。AVI標準のビデオコーディングスキームでは、CTUに相当する構造をスーパーブロックと呼ぶ。
コンテキストベース適応2値算術コーディング(Context-based Adaptive Binary Arithmetic Coding、CABAC)は、さまざまなビデオコーディング標準で使用されるエントロピーコーディングの形式の一つである。
多用途ビデオコーディングテストモデル(Versatile video coding Test Model、VTM):VTMは、VVCアルゴリズムとテストプロセスのエンコーダ側の説明を提供する。
BD-Rate(Bjontegaard delta rate、BDR又はBDレート):BDRは、ビデオ信号の同じピーク信号対雑音比(peak signal-to-noise ratio、PSNR)のビットレートの変化を測定することにより、コーディング効率を評価する方法である。
図1は、本開示の幾つかの実施形態を組み込んだ動作環境100を示している。図1に示すように、動作環境100はビデオ機能を持つ様々な装置を含み得る。例えば、動作環境100は、端末デバイス102、カメラデバイス104、及び、モノのインターネット(internet of things、IoT)デバイス106を含み得る。他のタイプのデバイスも含んでもよい。
動作環境100は、サーバ122、ヒューマンビジョンアプリケーション124、マシンビジョンアプリケーション126、及び、様々なデバイスをサーバ122に接続する通信リンク140をさらに含み得る。ユーザ130は、さまざまなデバイスの1つ又は複数を使用、アクセス、又は、制御することができる。
端末デバイス102は、パーソナルデジタルアシスタント(personal digital assistant、PDA)、携帯電話、スマートフォン、統合メッセージングデバイス(integrated messaging device、IMD)、タブレットコンピュータ、ノートブックコンピュータ、デスクトップコンピュータ、及び、他のコンピューティングデバイスなどの任意のユーザ端末を含むことができる。カメラデバイス104は、デジタルカメラ、ビデオカメラ、セキュリティカメラ、車載カメラ、及びステレオカメラなどのような任意の画像、又はビデオキャプチャデバイスを含むことができる。IoTデバイス106は、デジタルドアベル、自律駆動センサー、デジタル音声アシスタント、スマートスピーカー、スマートアプライアンス、及び、産業用又は商用のIoTシステムなどのカメラ機能を備える任意のタイプのIoTデバイスを含むことができる。様々な装置102、104、及び106のいずれも、移動している個人によって携帯される際に、移動又は静止可能であり得る。また、自動車、トラック、タクシー、バス、電車、船、飛行機、自転車、オートバイを含む乗り物、又は同様の適切な乗り物の一部とするか、前記乗り物内に位置することができる。
図2は、様々な装置102、104、及び/又は、106のいずれかを実現するための電子機器を示している。図2に示すように、電子機器200は、ハードウェアプロセッサー202、メモリ204、カードリーダ206、ディスプレイ208、キーボード210、無線周波数(radio-frequency、RF)インターフェース212、ベースバンド214、アンテナ216、エンコーダ222、デコーダ224、カメラ226、スピーカ232、及びマイク234などを含み得る。図2に示す構成要素は例示であり、幾つかの構成要素は省略され得る。そして、他の構成要素が追加され得る。
プロセッサー202は、電子機器200を制御するために提供され得る。プロセッサー202は、他の構成要素との間でデータを送受信するために、1つ又は複数のバス又は他の電気接続を介して、他の構成要素に接続され得る。プロセッサー202は、1つ又は複数の処理コア、例えば、4コアプロセッサー又は8コアプロセッサーを含み得る。プロセッサー202は、デジタル信号処理(digital signal processing、DSP)、フィールドプログラマブルゲートアレイ(field-programmable gate array、FPGA)、特定用途向け集積回路(application specific integrated circuit、ASIC)、及び、プログラマブルロジックアレイ(programmable logic array、PLA)のうち少なくとも1つのハードウェア形式を使用して実現され得る。プロセッサー202は、また、メインプロセッサー及びコプロセッサーを含み得る。メインプロセッサーは、中央処理ユニット(central processing unit、CPU)であり得る。コプロセッサーは、表示画面が表示する必要のあるコンテンツのレンダリング及び描画を担当するように配置されたグラフィックス処理ユニット(graphics processing unit、GPU)であり得る。いくつかの実施形態では、プロセッサー202は、人工知能(artificial intelligence、AI)プロセッサーをさらに含み得る。AIプロセッサーは、機械学習に関連するコンピューティング操作を処理するように配置されている。
メモリ204は、高速ランダムアクセスメモリ及び不揮発性メモリ、例えば、1つ又は複数のディスク記憶デバイス又はフラッシュ記憶デバイスなどの、1つ又は複数のコンピュータ可読記憶媒体を含むことができる。メモリ204は、画像データ及び音声データの形式でデータを格納することができ、プロセッサー202の命令も格納することができる。カードリーダ206は、スマートカードインターフェース、通信カードインターフェース(例えば、ニアフィールド通信(NFC)カード)、又は、ユーザ情報を提供しユーザ130の認証及び許可のための認証情報を提供するのに適する加入者識別モジュール(subscriber identifier module、SIM)カードインターフェース、又は、他のカードインターフェースなどの任意のタイプのポータブルカードインターフェースを含む。
また、ディスプレイ208は、画像又はビデオを表示するのに適する任意の適切なディスプレイ技術であり得る。例えば、ディスプレイ208は、液晶ディスプレイ(liquid crystal display、LCD)スクリーン、有機発光ダイオード(organic light-emitting diode、OLED)スクリーンなどを含み得る、タッチスクリーンであり得る。キーボード210は、ユーザ130による情報を入力するための物理又は仮想キーボードを含み得る。また、他のタイプの入力/出力デバイスを含み得る。スピーカ232及びマイクロフォン234は、電子機器200の音声を入出力するために使用される。
RFインターフェース212(アンテナ216と共に)は、RF信号を送受信するためのRF回路を含み得る。RFインターフェース212は、電気信号を送信用の電磁信号に変換するか、又は受信した電磁信号を受信用の電気信号に変換することができる。RFインターフェース212は、少なくとも1つの無線通信プロトコルにより他の電子機器と通信することができる。無線通信プロトコルは、メトロポリタンエリアネットワーク、様々な世代の移動通信ネットワーク(2G、3G、4G、及び5G)、無線ローカルエリアネットワーク(local area network、LAN)、及び/又は、wifi(wireless fidelity)ネットワークを含み得る。いくつかの実施形態では、RFインターフェース212は、また、近距離無線通信(near field communication、NFC)に関連する回路を含み得る。ベースバンド214は、RFインターフェース212との間の信号を処理するための回路を含み得る。
また、カメラ226は、画像又はビデオを収集するように配置された任意のタイプのイメージング又はビデオキャプチャデバイスを含むことができる。電子機器200がユーザ130によって携帯される携帯デバイスである場合、カメラ226は、前面カメラ及び背面カメラを含み得る。当該前面カメラは、当該電子機器のフロントパネルに配置することができ、背面カメラは、電子機器の背面に配置することができる。いくつかの実施形態では、少なくとも2つの背面カメラが存在し、各背面カメラは、メインカメラ、被写界深度カメラ、広角カメラ、及び望遠カメラのいずれかであり、メインカメラと被写界深度カメラを融合させることで背景ぼけ機能を実現し、メインカメラと広角カメラを融合させることでパノラマ撮影及びバーチャルリアリティ(VR)撮影機能、又は、他の融合撮影機能を実現する。いくつかの実施形態では、カメラ226は、フラッシュをさらに含み得る。
エンコーダ222及びデコーダ224は、電子機器のコーデック回路システムと呼ばれてよく、オーディオ及び/又はビデオデータのコーディング及びデコーディングを実行するのに適するか、又は、プロセッサー202によって実行されるコーディング及びデコーディングを支援するのに適する。
図2に示す電子機器200は、無線通信システムの移動端末又はユーザ機器の構造と同様な構造を含み得る。しかしながら、コーディング及びデコーディング、あるいはビデオ又は画像のコーディング又はデコーディングを必要とし得る任意の電子機器又はデバイスを含み得る。
図1に戻って、電子機器200(すなわち、様々なデバイス102、104、及び/又は、106のうちのいずれか1つ又は複数)は、様々なデータ(例えば、オーディオデータ、環境/動作データ、画像データ、及び/又は、ビデオデータ)をキャプチャ又は収集し、通信リンク140を介して、データをサーバ122に送信することができる。電子機器200は、データをサーバ122に送信する前に、データを処理又は前処理するか、又は、未処理のデータをサーバ122に送信することができる。
通信リンク140は、任意の適切なタイプの通信ネットワークを含んでよく、無線携帯電話ネットワーク、無線ローカルエリアネットワーク(wireless local area network、WLAN)、ブルートゥース(登録商標)パーソナルエリアネットワーク、イーサネットローカルエリアネットワーク、トークンリングローカルエリアネットワーク、ワイドエリアネットワーク、及び、インターネットを含むが、これらに限定されない有線又は無線ネットワークの任意の組み合わせを含み得る。通信リンク140は、また、音声/データ通信のためのプライベート又はパブリッククラウドコンピューティングプラットフォームを含み得る。インターネット又は他のタイプのネットワークを含む場合に、インターネットへの接続には、長距離無線接続、短距離無線接続、及び、さまざまな電話回線、ケーブル回線、電力線、及び、同様の通信経路を含む有線接続が含まれる場合がある。
サーバ122は、サーバクラスタ内に配置された、又は、異なる場所に分散された任意のタイプのサーバーコンピュータシステム又は複数のコンピュータシステムを含むことができる。サーバ122は、また、クラウドコンピューティングプラットフォーム上のクラウドサーバーを含み得る。図3は、サーバ122の幾つかの態様を実現する例示的なコンピュータシステムを示している。
図3に示すように、コンピュータシステム300は、プロセッサー302、記憶媒体304、モニタ306、通信モジュール308、データベース310、及び周辺機器312を含むことができる。特定のデバイスは省略されてよく、他のデバイスが含まれ得る。
プロセッサー302は、任意の適切な1つ又は複数のプロセッサーを含み得る。さらに、プロセッサー302は、マルチスレッド又は並列処理のための複数のコアを含むことができる。記憶媒体304は、読み取り専用メモリ(Read-only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、フラッシュメモリモジュール、消去可能及び書き換え可能メモリ、ならびに、大容量記憶装置(例えば、CD-ROM、Uディスク、及びハードディスク)などのメモリモジュールを含み得る。記憶媒体304は、プロセッサー302によって実行される際に、様々な処理を実現するためのコンピュータプログラムを記憶することができる。
また、周辺機器312は、キーボードや、マウスのようなI/Oデバイスを含み得る。通信モジュール308は、通信ネットワークを介して接続を確立するためのネットワークデバイスを含み得る。データベース310は、特定のデータを格納するため、及び、格納されたデータに対して特定の操作(例えば、データベース検索)を実行するための1つ又は複数のデータベースを含むことができる。
図2に戻って、エンコーダ222は、イントラモードコーディングの方法を実現するエンコーダであってもよい。この場合、電子機器200は、また、イントラモードコーディングの方法を実現すると見なされ得る。すなわち、エンコーダ122は、電子機器200内のハードウェア回路として実現され得るか、又は電子機器200によってソフトウェアプログラムとして実現され得るか、又はハードウェア回路とソフトウェアプログラムの組み合わせとして実現され得る。図4は、本開示に開示された実施形態と一致する例示的なビデオエンコーダを示している。
図4に示すように、ビデオエンコーダ400は、ブロック分割ユニット410、減算ユニット420、予測ユニット430、変換/量子化ユニット440、逆量子化/逆変換ユニット450、加算ユニット460、インループフィルタ470、及びエントロピーエンコーダ480を含む。入力ビデオをエンコーダ400に入力し、応答として、エンコーダ400はビットストリームを出力する。
入力ビデオは、複数のピクチャフレームを含む。各ピクチャフレームは、ブロック分割ユニット410によってスーパーブロック又はコーディングツリーユニット(coding tree unit、CTU)に分割される。3つのサンプルアレイを有するピクチャフレームについて、スーパーブロック又はCTUは、輝度サンプルのN×Nブロックと、彩度サンプルの対応する2つのN×Nブロックを含む。ブロック分割ユニット410は、また、様々な局所特性に適応するために、コーディングツリーとして示されるバイナリ及びターナリ分割構造を使用するネストされたマルチタイプツリーを使用することによって、CTUをコーディングユニット(CU)に、さらに分割する。ピクチャ間(時間的)又はピクチャ内(空間的)予測を使用してピクチャ領域をコーディングする決定は、リーフCUレベルで行われる。予測プロセスがリーフCUに適用されて残差ブロックを取得し、変換が残差ブロックに適用され、CUごとに関連情報を対応するデコーダに送信される。予測プロセスを適用して残差ブロックを取得した後、リーフCUは、変換の有無にかかわらず残差コーディングのために、別のツリー構造によって変換ユニット(TU)に分割される。
予測ユニット430は、イントラ予測、インター予測、及び、インター予測とイントラ予測の組み合わせをサポートする。イントラ予測は、イントラモードコーディングとも呼ばれる。自然なビデオで提示される任意のエッジ方向をキャプチャするために、予測ユニット430は、平面(表面フィッティング)イントラ予測モード及びDC(フラット)イントラ予測モードに加えて、65個の方向(又は角度)イントラ予測モードをサポートする。予測ユニット430は、さらに、動きベクトル、参照ピクチャインデックス、及び参照ピクチャリスト使用インデックス、ならびにビデオコーディング特徴に必要な追加情報を含む動きパラメータに基づくインター予測サンプル生成をサポートする。予測ユニット430は、さらに、スキップモードをサポートし、当該スキップモードにおいて、スキップモードでコーディングされたCUが1つのPUに関連付けられ、有意な残差係数、コーディングされた動きベクトルデルタ、又は参照ピクチャインデックスを持たない。予測ユニット430は、さらに、マージモードをサポートし、当該マージモードにおいて、隣接するCUから、空間的及び時間的候補ならびに追加のスケジュールを含む現在のCUの動きパラメータを取得する。マージモードは、スキップモードだけでなく、任意のインター予測CUに適用できる。予測ユニット430は、また、動きパラメータを明示的に送信することでマージモードの代替をサポートし、各CUごとに、動きベクトル、各参照ピクチャリストに対応する参照ピクチャインデックスと参照ピクチャリスト使用フラグ、及び他の必要な情報が明示的に信号で送る。
減算ユニット420は、CUとPUとの間の差(又は残差)を変換/量子化ユニット440に出力する。
変換/量子化ユニット440は、最大64×64サイズの大きなブロックサイズの変換をサポートする。サイズが64に等しい変換ブロックについて、高周波数変換係数がゼロにされ、低周波数係数のみが保持される。スキップモードで大きなブロックを変換する場合、変換/量子化ユニット440は、値をゼロにすることなく、ブロック全体を使用する。変換/量子化ユニット440は、また、コア変換のための複数の変換選択(multiple transform selection、MTS)をサポートする。MTSを制御するために、変換/量子化ユニット440は、それぞれ、シーケンスパラメータセット(SPS)レベルでの別個の有効化フラグを、イントラ予測及びインター予測に使用する。MTSがSPSレベルで有効になっている場合、CUレベルフラグを信号で送ってMTSを適用するかどうかを指示する。変換/量子化ユニット440は、また、低周波分離不可能変換(low-frequency non-separable transform、LFNST)及びサブブロック変換(sub-block transform、SBT)などの、VVC及びAVIドラフト標準に記載されている他の変換特徴をサポートする。
また、変換/量子化ユニット440は、最大63個の量子化パラメータ(quantization parameter、QP)をサポートする。変換/量子化ユニット440は、また、SPSで輝度から彩度へのマッピング関係を信号で送ることによって、柔軟な輝度から彩度へのQPマッピングをサポートする。変換/量子化ユニット440は、また、輝度成分及び彩度成分のデルタQP値をそれぞれ信号で送ることができる、CUレベルQP適応をサポートする。変換/量子化ユニット440は、また、依存量子化のようなVVC及びAVI標準で説明されている他の量子化特徴をサポートする。
変換/量子化ユニット440は、また、TUレベルフラグで指示される彩度残差の共同コーディングをサポートする。
コンテキストベース適応2値算術コーディング(Context-based Adaptive Binary Arithmetic Coding、CABAC)は、エントロピーコーディングアルゴリズムとして説明できる。エントロピーエンコーダ480は、変換/量子化ユニット440によって出力された構文要素をコーディングするためのCABACコーディングエンジンを含む。CABACコーディングエンジンは、Golomb-Riceコーディングアルゴリズムのような算術コーディングアルゴリズムをサポートする。エントロピーエンコーダ480は、変換ブロック及び変換スキップブロックのための別個の残差コーディング構造をサポートする。エントロピーエンコーダ480は、重複しない係数グループ(CG又はサブブロック)を使用することによってコーディングブロックの変換係数をコーディングし、各CGは、可変サイズのコーディングブロックの変換係数を含む。係数グループのサイズは、チャネルタイプに関係なく、変換ブロックサイズのみに基づいて選択される。CGのサイズには、1×16、2×8、8×2、2×4、4×2、及び16×1を含んでもよい。各コーディングブロック内のCGと各CG内の変換係数は、事前に定義されたスキャン順序に従ってコーディングされる。
変換ユニット内の各コーディングブロックは複数のサブブロックに分割され、各サブブロックは複数のピクセルに分割される。複数のサブブロックは、4×4又は2×2サブブロックを含む。
算術コーディングアルゴリズムでは、ローカル近傍で以前にコーディングブされた情報に応じて、構文要素ごとに、ローカル近傍の構文要素の部分的に再構築された絶対レベルに応じて、確率モデルを動的に選択する。
逆量子化/逆変換ユニット450は、変換/量子化ユニット440によって実行される量子化処理及び変換処理を逆にし、出力を加算ユニット460に供給して、ピクチャフレームを再構築する。加算ユニット460は、また、予測ユニット430の出力を別の入力とする。再構築されたピクチャは、インループフィルタ470によってフィルタリングされる。インループフィルタ470は、デブロッキングフィルタ、サンプル適応オフセット(sample adaptive offset、SAO)フィルタ、及び、適応ループフィルタ(adaptive loop filter、ALF)を含み、これらは、この順序でカスケードされる。インループフィルタ470の出力は、予測ユニット430に入力される。
図5は、本開示の実施形態と一致するビデオデコーダを示す。図5に示すように、ビデオデコーダ500は、エントロピーデコーダ510、逆変換/逆量子化ユニット520、加算ユニット530、予測ユニット540、インループフィルタ550、及びフレームバッファ560を含む。図4に示されるビデオエンコーダ400から出力された入力ビットストリームはビデオデコーダ500に入力され、それに応答して、ビデオデコーダ500はビデオ信号を出力する。入力ビットストリームは、ビデオデコーダ500に入力される前に、通信ネットワークを介して送信され得る。
ビデオデコーダ500は、ピクチャフレームを再構築するために、入力ビットストリームに対してビデオデコーディング処理を実行する。ビデオデコーディング処理は、ビデオエンコーダ400によって実行されるビデオコーディング処理を逆にする処理である。具体的に、エントロピーデコーダ510は、エントロピーエンコーダ480によってコーディングされたビットストリームをデコーディングする。逆変換/逆量子化ユニット520は、変換/量子化ユニット440によって実行される変換/量子化の処理を逆にして、残差ブロックを復元する。加算ユニット530は、残差ブロックと予測ユニット540によって予測された予測ブロックとの合計を計算して、コーディングブロックを復元する。インループフィルタ550は、復元されたコーディングブロックを平滑化する。最後に、コーディングブロックは、画像フレームを再構築するためにフレームバッファ560に格納される。
同時に、予測ユニット540は、デコーディングされたコーディングブロック及び入力ビットストリームにおける様々なフラグを入力として予測ブロックを生成する。
本開示は、ビデオコーディング方法を提供する。図6は、本開示の実施形態と一致する例示的なビデオコーディング方法のフローチャートを示している。図6に示すように、ビデオコーディング方法は、ビデオ入力の現在のフレームを取得することを含む(S610)。現在のフレームは、ネストされたマルチタイプツリーコーディングブロック構造に従って、スーパーブロック又はコーディングツリーユニット(CTU)のシーケンスに分割でき、各スーパーブロック又はCTUは、コーディングブロック(CB)に、さらに分割できる(S620で)。
HEVC標準とVVC標準の両方のビデオコーディングスキームでは、ビデオフレームは一連のCTUに分割される。HEVC標準のビデオコーディングスキームでは、コーディングツリーとして示される四分木構造を使用してCTUをCUに分割し、さまざまなローカル特性に適応する。ピクチャ間(時間的)又はピクチャ内(空間的)予測を使用してピクチャ領域をコーディングするかどうかの決定は、CUレベルで行われる。PUパーティションタイプに応じて、さらに、各CUを、1つ、2つ、又は4つのPUに分割できる。1つのPU内で、同じ予測プロセスが適用され、PUごとに関連情報をデコーダに送信する。PUパーティションタイプに基づいて予測プロセスを適用して残差ブロックを取得した後、CUのコーディングツリーのような別の四分木構造に応じて、CUをTUに分割できる。HEVC構造の重要な特徴の1つは、CU、PU、及びTUを含む複数のパーティションの概念があることである。
VVC標準のビデオエンコーディングスキームでは、2元及び3元パーティション分割構造を使用するネストされたマルチタイプツリーを備えた四分木が、複数の分割ユニットタイプの概念を置き換える。つまり、サイズが最大変換長に対して大きすぎるCUに必要であり、CU、PU、及びTUの概念の分離を削除し、CU分割形状の柔軟性をサポートする。コーディングツリー構造では、CUは正方形又は長方形のいずれかの形状を有することができる。CTUは、最初に4分木(別名四分木)構造によって分割される。次に、4元ツリーリーフノードをマルチタイプツリー構造で、さらに分割できる。図8に示すように、マルチタイプツリー構造には、垂直2元パーティション(SPLIT_BT_VER)、水平2元パーティション(SPLIT_TT_VER)、垂直三元パーティション(SPLIT TT VER)、及び、水平三元パーティション(SPLIT_TT_HOR)の4つの分割タイプがある。マルチタイプツリーリーフノードは、CUと呼ばれ、CUが最大変換長に対して大きすぎない限り、この分割は、それ以上分割せずに予測と変換処理に使用される。これは、ほとんどの場合、CU、PU、及びTUが、ネストされたマルチタイプツリーコーディングブロック構造を持つ、クアッドツリーで同じブロックサイズを持つことを意味する。例外は、サポートされている最大変換長がCUのカラーコンポーネントの幅又は高さよりも小さい場合に発生する。
図9は、本開示の実施形態と一致する例示的なコーディングツリー構造における分割パーティション情報の信号送信メカニズムを示している。CTUは、4元ツリーのルートとして見なされ、最初に4元ツリー構造によって分割される。次に、マルチタイプツリー構造によって、各4元ツリーリーフノードを(それを許可するのに十分な大きさの場合)さらに分割する。マルチタイプツリー構造では、第1のフラグ(mtt_split_cu_flag)を信号で送って、ノードがさらに分割するかどうかを示す。ノードがさらに分割されると、第2のフラグ(mtt_split_cu_vertical_flag)を信号で送って、パーティション方向を示し、次に、第3のフラグ(mtt_split_cu_binary_flag)を信号で送って、パーティションが2元パーティションであるか3元パーティションであるかを示す。mtt_split_cu_vertical_flag及びmtt_split_cu_binary_flagの値に基づいて、Error!であると、参照ソースで示されるように導出されたCUのマルチタイプツリーパーティションモード(MttSplitMode)が見つからない。
Figure 2022531564000002
図10は、本開示の実施形態と一致する例示的なコーディングツリー構造を示している。図10に示すように、CTUは、四分木及びネストされたマルチタイプツリーコーディングブロック構造を有する複数のCUに分割され得る。太字のブロックエッジは四分木分割を表し、残りのエッジはマルチタイプツリー分割を表す。ネストされたマルチタイプツリー分割を持つ四分木は、CUを含むコンテンツ適応型コーディングツリー構造を提供する。CUのサイズは、CTUと同じであってもよいし、輝度サンプルの単位で4×4と小さくなってもよい。4:2:0彩度フォーマットの場合、最大彩度CBサイズは64×64で、最小彩度CBサイズは2×2である。
VVC標準のビデオコーディングスキームでは、サポートされる最大輝度変換サイズは64×64で、サポートされる最大彩度変換サイズは32×32である。CBの幅又は高さが最大変換幅又は最大高さよりも大きい場合、CBは、水平方向及び/又は垂直方向に自動的にパーティションされ、その方向の変換サイズ制限に適合される。
VVC標準(例えば、VTM7)のビデオコーディングスキームでは、コーディングツリースキームは、輝度と彩度が個別のブロックツリー構造を持つ機能をサポートする。現在、PスライスとBスライスの場合、一つのCTUにおける輝度コーディングツリーブロック(Coding Tree Block、CTB)と彩度のCTBは、同じコーディングツリー構造を共有する必要がある。ただし、Iスライスの場合、輝度と彩度は個別のブロックツリー構造を持つことができる。個別のブロックツリーモードが適用される場合、1つのコーディングツリー構造によって輝度CTBをCUに分割し、別のコーディングツリー構造によって彩度CTBを彩度CUに分割する。つまり、IスライスのCUは、輝度コンポーネントのコーディングブロック又は2つの彩度コンポーネントのコーディングブロックを含み得る。P又はBスライスのCUは、ビデオがモノクロではない限り、常に3つのカラーコンポーネントすべてのコーディングブロックを含む。
同様に、VP9標準のビデオコーディングスキームでは、ビデオフレームは一連のCTUに区画される。図11に示すように、4ウェイパーティションツリーを使用してCTUを64×64レベルから4×4レベルに分割し、ブロック8×8に対するいくつかの追加の制限がある。Rとして指定されたパーティションは、再帰的として言及され、同じパーティションツリーが最低の4x4レベルに到達するまで、より低いスケールで繰り返される。
同様に、AVI標準のビデオコーディングスキームでは、ビデオフレームは一連のスーパーブロックに区画される。図12に示すように、図12を参照すると、パーティションツリーは10ウェイ構造に拡張されている。同時に、最大サイズ(VP9/AV 1の用語ではスーパーブロックと呼ばれる)が128×128から始まるように拡大される。これには、VP9標準のビデオコーディングスキームに存在しなかった4:1/1:4の長方形の分割が含まれることに留意されたい。長方形の分割をさらに細かく分割することはできない。コーディングブロックサイズに加えて、コーディングツリーの深さは、ルートノードからのパーティション割の深さを示すために定義される。具体的には、ルートノードのコーディングツリーの深さ(128x128など)が0に設定され、ツリーブロックがさらに1回分割された後、コーディングツリーの深さが1だけ増加する。
固定の変換ユニットサイズを適用する代わりに、輝度コーディングブロックを複数のサイズの変換ユニットに分割でき、複数のサイズの変換ユニットは、最大2レベル下がる再帰分割で表すことができる。拡張コーディングブロック分割を合併するために、4×4から64×64までの正方形、2:1/1:2、及び4:1/1:4の変換サイズをサポートする。彩度ブロックの場合、可能な最大の変換ユニットのみが許可される。
図6に戻って、S630において、現在のフレームをCBのシーケンスに分割した後に、マルチ参照ラインイントラ予測(MRLP)を使用して各CBの残差ブロックを取得し、イントラ予測のために選択された参照ラインの参照サンプル及びMRLPフラグをラインバッファに記憶する。
ブロックごとに、隣接ブロックの複数の参照ラインに基づいて、イントラ予測モードを導出する。複数の参照ラインのそれぞれに対して、AV1標準に基づくビデオコーディングスキームで定義されたすべての利用可能なイントラ予測モードのサブセットを決定する。すべての利用可能なイントラ予測モードのサブセットは、許可されたイントラ予測モード(allowed intra prediction mode、AIPM)セットとも呼ばれる。複数の参照ラインのそれぞれは、インデックス番号で識別される。インデックス番号はゼロ以上の整数である。
AV1標準に基づくビデオコーディングスキームでは、利用可能なイントラ予測モードの数は62であり、56個の角度イントラ予測モード、5つのスムーズモード、及び輝度モードからの1つの彩度モードを含む。複数の参照ラインがイントラ予測に適用され、複数の参照ラインにすべてのイントラ予測モードを含む場合に、ビデオコーディングの複雑さはかなり大きくなる。複数の参照ラインには、インデックス番号がゼロに等しい隣接参照ラインと、ゼロよりも大きいインデックス番号を持つ1つ又は複数の非隣接参照ラインが含まれる。ビデオコーディングの複雑さを軽減するために、参照ラインごとに許可されるイントラ予測モードの数を制限する必要がある。
MRLPには、特定の制限が適用され得る。狭いブロックについて、MRLPを無効にすることができる。狭いブロックは、幅W、高さHを有し、且つ、abs(logW-logH)>1である。小さなブロックについて、MRLPを無効にすることができる。小さなブロックのサイズは8×8以下である。その他の制限も適用される場合がある。
本開示の実施形態では、ビデオコーディング方法でMRLPを使用してコーディング効率及び圧縮性能を向上させる。コーディング効率と圧縮性能に基づいて、複数の参照ラインのそれぞれに対して決定された対応するイントラ予測モードは、様々なビデオコーディング標準のビデオコーディングスキームで定義されたすべての利用可能なイントラ予測モードのサブセットである。当該サブセットはAIPMセットとも呼ばれる。AIPMセットに含まれるイントラ予測モードは、ビデオコーディングデバイス(例えば、図4に示されるビデオエンコーダ400)によって信号で送られる。AIPMセットに含まれるイントラ予測モードの数は、対応するビデオコーディングスキームで定義された利用可能なすべてのイントラ予測モードの数よりも少ないため、少ないビットにより、AIPMセットに含まれるイントラ予測モードを信号で送る。また、イントラ予測モードに加えて、インター予測モードでブロックごとにシンボルレベル(symbol level)を予測し得る。
残差ブロックを取得した後に、残差ブロックに対して変換及び量子化を行う。残差ブロックは現在のCBと予測CBとの差である。
AV1標準のビデオコーディングスキームでのイントラ予測モードは、56個の角度(又は方向)イントラ予測モード、5つの非角度のスムーズイントラ予測モード、1つの彩度のみのイントラ予測モード、及び、その他のイントラ予測モードを含む。8つの方向(又は角度)モードは、45~207度の角度に対応する。方向テクスチャの多くの種類の空間冗長性を活用するために、方向イントラ予測モードは、より細かい粒度を持つ角度セットに拡張される。図13は、本開示の実施形態と一致するイントラ予測モードの8つの公称角度を示している。図13に示すように、8つの方向モードの角度をわずかに変更して公称角度とし、これらの8つの公称角度は公称イントラ角度とも呼ばれ、90°、180°、45°、135°、113°、157°、203°、及び673に対応するV_PRED、H_PRED、D45_PRED、D135_PRED、D113_PRED、D157_PRED、D203_PRED、及びD67_PREDと名付けられる。各公称角度は7つのより細かい角度に拡張される。従って、合計56個の方向角(イントラ角度又は予測角度とも呼ばれる)が定義されている。各予測角度は、公称イントラ角度と角度デルタで表される。当該角度デルタは、-3~3で、3度のステップサイズを乗算する。一般的な方法で方向イントラ予測モードを実現するために、56個の方向イントラ予測モードはすべて、各ピクセルを参照サブピクセル位置に投影し、2タップバイリニアフィルタによって参照ピクセルを補間する、統合された方向予測子を使用して実現される。
イントラ予測モードは、DCモード、PAETHモード、SMOOTHモード、SMOOTH_Vモード、及びSMOOTH_Hモードの5つの非方向スムーズイントラ予測モードをさらに含む。DCモードの場合、左側と上部の隣接サンプルの平均値が、予測されるブロックの予測子として使用される。PAETHモードの場合、最初に頂部、左、左上の参照サンプルを取得し、次に(頂部+左-左上)に最も近い値が予測されるピクセルの予測子として設定される。図14は、本開示の実施形態と一致するPAETHモードの頂部、左、及び左上の位置を示している。SMOOTHモード、SMOOTH_Vモード、及びSMOOTH_Hモードの場合、垂直方向又は水平方向における2次補間、又は、両方向における平均値を使用してブロックを予測する。
エッジ上の参照との減衰する空間相関をキャプチャするために、フィルタイントラ(FILTER INTRA)モードが、輝度ブロック用に設計されている。5つのフィルタイントラモードが定義されている。5つのフィルタイントラモードのそれぞれは、4×2パッチのピクセルと7つの隣接するピクセル間の相関を反映する、8つの7タップフィルタのセットによって表される。つまり、7タップフィルタの重み係数は位置に依存する。図15は、本開示の実施形態と一致する再帰的イントラフィルタリングモードの例を示している。図15に示すように、8×8ブロックが8つの4×2パッチにパーティションされる。図15において、これらのパッチは、B0、B1、B2、B3、B4、B5、B6、及びB7によって示されている。パッチごとに、R0~R7で示される7つの隣接するネイバーを使用して、現在のパッチのピクセルを予測する。パッチB0の場合、隣接するすべてのネイバーはすでに再構築されている。ただし、他のパッチの場合、隣接するすべてのネイバーが再構築されるわけではない。隣接するネイバーの予測値が参照として使用される。たとえば、パッチB7のすべての隣接するネイバーが再構築されるわけではないため、代わりに、隣接するネイバー(つまり、B5とB6)の予測サンプルを使用する。
輝度からの彩度(Chroma from Luma、CfL)は、彩度ピクセルを、一致する再構築された輝度ピクセルの線形関数としてモデリングできる彩度のみのイントラ予測子である。CfL予測は次のように表される。
Figure 2022531564000003
ACは輝度成分のAC寄与を示し、αは線形モデルのパラメータを示し、DCは彩度成分のDC寄与を示す。具体的には、再構築された輝度ピクセルを彩度解像度にサブサンプリングし、次に、平均値を差し引いて、AC寄与を形成する。AC寄与から彩度AC成分を近似するために、デコーダがスケーリングパラメーターを計算する代わりに、CfLは、元の彩度ピクセルに基づいてパラメータαを決定し、ビットストリームにそれらを信号で送る。この方法は、デコーダの複雑さを軽減し、より正確な予測が可能になる。彩度成分のDC寄与に関しては、イントラDCモードを使用して計算され、当該イントラDCモードは、ほとんどの彩度コンテンツに十分であり、成熟した高速実現を備える。
MRLPは、複数の参照ラインを使用してイントラ予測を行い、図4に示すビデオエンコーダ400は、イントラ予測子を生成するために、どの参照ラインを使用するかを決定し、信号で送る。イントラ予測モードの前に、参照ラインのインデックス番号を信号で送り、非ゼロ参照ラインのインデックス番号を信号で送る場合には、最も可能性の高いモード(most probable mode、MPM)又は同等モードのみが許可される。図16は、本開示の実施形態と一致する4つの参照ラインの例を示す。図16に示すように、4つの参照ラインの例を示しており、各参照ラインは、6つのセグメント、すなわち、セグメントAからF、及び、左上の参照サンプルを含む。また、それぞれセグメントBとEからの最も近いサンプルでセグメントAとFをパディングしている。
図16に示すように、参照ラインのインデックス番号は、参照ラインが現在のブロックから離れるにつれて順次増加する。現在のブロックに直接的に隣接する参照ラインは隣接参照ラインと呼ばれ、ゼロに等しいインデックス番号を有し、図16の参照ライン0である。ゼロよりも大きいインデックス番号を有する参照ラインは非隣接参照ラインと呼ばれる。
図6に戻って、S640において、現在のフレームの各CBの残差ブロックを使用して現在のフレームをコーディングすることで、各CBのコーディングされた残差ブロックを含むビットストリームを生成する。各CBにMRLPを使用して得られた残差ブロックを変換し、及び量子化を行う。大きなブロックのサイズの変換は最大64×64のサイズを含む。サイズが64に等しい変換ブロックについて、高周波数の変換係数がゼロにされるため、低周波数の係数のみが保持される。変換スキップモードで大きなブロックを変換する場合、値をゼロにすることなくブロック全体を使用する。また、コア変換は複数の変換選択(MTS)をサポートする。MTSを制御するために、シーケンスパラメータセット(SPS)レベルで個別の有効化フラグをイントラ予測及びインター予測に使用する。SPSレベルでMTSを有効化する場合に、CUレベルフラグを信号で送信してMTSが適用されたかどうかを示す。他の変換特徴、例えば、低周波数非分離変換(LFNST)及びサブブロック変換(SBT)をサポートしてもよい。
また、変換及び量子化処理は最大63個の量子化パラメータ(QP)をサポートする。SPSにおける輝度から彩度へのマッピング関係を信号で送信し、柔軟な輝度から彩度QPへのマッピングもサポートする。CUレベルのQP適応をサポートし得、輝度成分及び彩度成分のデルタQP値を別々に信号で送信することができる。依存性量子化のような他の量子化特徴をサポートしてもよい。
変換及び量子化された残差ブロックはエントロピーコーディングされる。エントロピーコーディングアルゴリズムは、コンテキストベースの適応バイナリ算術コーディング(CABAC)であり得る。CABACコーディングエンジンは、変換及び量子化処理によって出力される構文要素をコーディングするために用いられる。CABACコーディングエンジンは、Golomb-Riceコーディングアルゴリズムのような算術コーディングアルゴリズムをサポートする。変換ブロックと変換スキップブロックに使用される個別の残差コーディング構造をサポートし得る。コーディングブロックの変換係数は、重複しない係数グループ(CG又はサブブロック)を使用してコーディングすることができ、各CGは、可変サイズのコーディングブロックの変換係数を含む。係数グループのサイズは変換ブロックのサイズのみに基づいて選択され、変換ブロックのサイズはチャネルタイプに関係しない。CGのサイズは、1×16、2×8、8×2、2×4、4×2、及び16×1を含み得る。定義されたスキャン順序に従って、各コーディングブロックの内部のCG及び各CG内の変換係数をコーディングする。
また、各CBのエントロピーコーディングされた残差ブロックを含むビットストリームを生成する。エントロピーコーディングの結果として、各CBのエントロピーコーディングされた残差ブロックを含むビットストリームを生成する。ビットストリームを送信及び/又は記憶することができる。ビデオデコーダは、本開示と一致するビデオコーディング方法に対応するビデオデコーディング方法を実行することでオリジナルビデオを復元することができる。
従って、本開示はビデオコーディング方法を提供する。当該方法は、イントラ予測において複数の参照ラインを選択し、マルチ参照ラインイントラ予測のために選択された参照ラインの参照サンプルの値を確定する。選択された参照ラインの参照サンプルの値をラインバッファに記憶する。参照ラインの選択、及び参照サンプル値の確定は、ラインバッファのサイズを縮小するように最適化される。従って、ラインバッファ専用のオンチップ回路面積が削減され、ハードウェアコストが節約される。
本開示の実施形態と一致するエンコーダ及びデコーダの実施形態は、非一時的なコンピュータ読み取り可能な記憶媒体に記憶されたプログラム命令を実行する処理回路システム(例えば、1つ又は複数のプロセッサー、或いは、1つ又は複数の集積回路)により実現されてもよい。
図17は、本開示の実施形態と一致する上側の参照ライン及び左側の参照ラインの例を示している。図17に示すように、複数の参照ラインは、さらに、上側の参照ライン及び左側の参照ラインにパーティションされる。上側の参照ラインは白でマークされ、セグメントB、C、及びDにおける参照サンプルは上側の参照ラインに含まれる。左側の参照ラインは灰色でマークされており、セグメントAにおける参照サンプルは左側の参照ラインに含まれる。
スーパーブロックの1行目が現在のCBの内部にある、即ち、現在のCBがスーパーブロックの頂部境界にある場合、隣接上側参照ライン(上側の参照ライン0とも呼ばれる)の参照サンプルは、現在のCBのイントラ予測に使用され、非隣接上側参照ラインの参照サンプルは、現在のCBのイントラ予測から除外される。一方、隣接左側参照ライン及び非隣接左側参照ラインの参照サンプルの両方は、現在のCBのイントラ予測に使用され得る。スーパーブロックの1行目が現在のCB内部にあるかどうかに関係なく、同様な方法で参照ラインのインデックス番号を信号で送信する。また、参照ラインのインデックス番号を信号で送信するためのコンテキストは、スーパーブロックの1行目が現在のCBの内部にあるかどうかによって異なる。
一実施形態では、スーパーブロックの1行目が現在のCBの内部にある場合に、隣接上側参照ラインと様々な左側の参照ラインとの組み合わせは、現在のCBのイントラ予測に用いられる様々な参照サンプルを形成し得る。当該組み合わせは、イントラ予測のために選択された参照ラインの第2のインデックス番号により信号で送信される。図18ないし図21は、本開示の実施形態と一致する上側の参照ライン0、及び、異なる左側の参照ラインを選択してイントラ予測に使用する例を示している。一例では、図18において隣接上側参照ラインと隣接左側参照ラインの組み合わせを対角テクスチャパターンでマークする。別の例では、図19において、隣接上側参照ラインと左側の参照ライン1の組み合わせを対角テクスチャパターンでマークする。別の例では、図20において、隣接上側参照ラインと左側の参照ライン2の組み合わせを対角テクスチャパターンでマークする。別の例では、図21において、隣接上側参照ラインと左側の参照ライン3の組み合わせを対角テクスチャパターンでマークする。
上側の参照ライン又は左側の参照ラインのいずれかに参照サンプルが存在しない場合に、上側の参照ライン及び左側の参照ラインの両方に対して、同じ参照サンプルパディング処理を使用する。
平滑フィルタは、イントラ予測のために選択された参照ラインの参照サンプルをフィルタリングするために用いられる。イントラ予測のために選択された異なる参照ラインに対して、参照サンプルの異なる平滑フィルタを使用する。一例において、イントラ予測のために選択された左側の参照ラインが非隣接左側参照ラインである場合、イントラ予測のために選択された隣接上側参照ライン及び非隣接左側参照の両方に対して、平滑フィルタを無効にする。別の例において、イントラ予測のために選択された左側の参照ラインが隣接左側参照ラインである場合、イントラ予測のために選択された隣接左側参照のみに対して平滑フィルタを無効にする。
一実施形態では、スーパーブロックの1行目が現在のCBの内部にあり、且つ、第rの非隣接参照ラインがイントラ予測に使用されていることを示す参照ラインインデックスrを信号で送信する場合に、通常のMRLPスキームと同様に、第rの列から左側からの参照サンプルを選択し、1つの単一の値で上側からの参照サンプルをパディングする。
一実施形態では、スーパーブロックの1行目が現在のCBの内部にある場合に、第2のインデックス番号rを持つ1つの非隣接上側参照ライン、及び、同じ第2のインデックス番号rを持つ1つ非隣接左側参照ラインを選択して、イントラ予測に使用する。また、第2のインデックス番号rを持つ非隣接上側参照ラインの参照サンプルは、単一の値に設置される。一例において、隣接上側参照ライン又は隣接左側参照ラインから参照サンプルの値を選択することで単一の値を確定する。別の例において、1<<(BitDepth-1)又は(1<<(BitDepth-1))-1を選択することで単一の値を確定し、その中で、BitDepthは参照サンプルをコーディングするためのビット数である。
一実施形態では、CTUの1行目が現在のCBの内部にある場合に、第2のインデックス番号rを持つ1つの非隣接上側参照ライン、及び、同じ第2のインデックス番号rを持つ1つ非隣接左側参照ラインを選択して、イントラ予測に使用する。また、角度イントラ予測の方向で隣接上側参照ラインの参照サンプルの位置を第2のインデックス番号rを持つ非隣接上側参照ラインに投影することで、第2のインデックス番号rを持つ非隣接上側参照ラインの参照サンプルの値を確定する。
角度イントラ予測の方向で、隣接上側参照ラインの参照サンプルの位置を第2のインデックス番号rを持つ非隣接上側参照ラインに投影することで、第2のインデックス番号rを持つ非隣接上側参照ラインの参照サンプルの値を確定することは、以下の処理によって行われ得る。まず、角度イントラ予測の方向で、第2のインデックス番号rを持つ上側の参照ラインの参照サンプルの整数位置から隣接上側参照ラインに向かって平行線を描画する。図22に示すように、平行線は隣接上側参照ラインの参照サンプルの分数位置で隣接上側参照ラインと交差する。次に、隣接上側参照ラインの参照サンプルの分数位置での値に補間フィルタリング処理を適用して、第2のインデックス番号rを持つ非隣接上側参照ラインの参照サンプルの値を導出する。補間フィルタリング処理で使用される補間フィルタは、2タップフィルタ、4タップフィルタ、又は6タップフィルタであり得る。補間フィルタは負のフィルタ係数を含み得る。代わりに、補間フィルタは、4タップの三次フィルタ、4タップの離散コサイン変換補間フィルタ(discrete cosine transform interpolation filter、DCT-IF)、又は2タップのバイリニアフィルタであり得る。
他の実施形態では、平行線が隣接上側参照ラインの参照サンプルの分数位置で隣接上側参照ラインと交差した後、分数位置に最も近い整数位置を使用して、隣接上側参照ラインの参照サンプルを選択して、イントラ予測に使用する。
本開示の様々な実施形態では、ビデオコーディング方法は、イントラ予測において複数の参照ラインを選択し、マルチ参照ラインイントラ予測のために選択された参照ラインの参照サンプルの値を確定する。選択された参照ラインの参照サンプルの値をラインバッファに記憶する。参照ラインの選択、及び、参照サンプル値の確定は、ラインバッファのサイズを縮小するように最適化される。従って、ラインバッファ専用のオンチップ回路面積が削減され、ハードウェアコストが節約される。
本開示は、さらに、ビデオデコーディング方法を提供する。図7は、本開示の実施形態と一致する例示的なビデオデコーディング方法を示している。図7に示すように、ビデオ入力の複数のコーディングフレームを含むビットストリームを取得する(S710)。ビットストリームは、図6に示されるビデオコーディング方法を実行するビデオコーディングシステムによって生成され得る。
S720において、複数のコーディングフレームのそれぞれを複数のスーパーブロックにデコーディングし、複数のスーパーブロックのそれぞれを複数の残差ブロックにデコーディングする。ビットストリームは、複数のスーパーブロックの境界及び複数のスーパーブロックのそれぞれに含まれる複数のブロックの境界を示す、ヘッダ情報を含む。複数の残差ブロックのそれぞれは、エントロピーコーディングされ得る。エントロピーデコーディング処理と、それに続く逆変換及び逆量子化処理を実行して、複数の残差ブロックのそれぞれを取得することができる。エントロピーデコーディング処理と逆変換、及び逆量子化処理は、図6に示されるビデオコーディング方法のS640で実行されるエントロピーコーディング処理と変換、及び量子化処理を逆転させる。
S730において、各コーディングフレームに含まれる参照サンプル及びMRLPフラグに基づいて、複数の残差ブロックのそれぞれのコーディングブロックを復元する。具体的には、図6に示されるビデオコーディング方法のS630で確定された各コーディングフレームに含まれる参照サンプル及びMRLPフラグに基づいて、MRLP処理を逆転させることにより、対応する残差ブロックに応じてCBをデコーディングする。
そして、復元された複数のスーパーブロックのそれぞれにおける複数の残差ブロックのそれぞれのCBをフレームバッファに記憶して、ビデオ信号の各フレームを再構築する(S740)。当該処理は、図に示されるビデオコーディング方法のS620を逆転させることにより、複数のCBをスーパーブロックに組み立て、複数のスーパーブロックをビデオ信号のフレームに組み立てる。
最後に、組み立てられたフレームを連続して出力してビデオ信号を復元する(S750)。当該処理は、図6に示されるビデオコーディング方法のS610を逆転させる。
本開示の実施形態では、ビデオコーディング方法、及び、対応するビデオデコーディング方法は、イントラ予測において複数の参照ラインを選択し、マルチ参照ラインイントラ予測のために選択された参照ラインの参照サンプルの値を確定する。選択された参照ラインの参照サンプルの値をラインバッファに記憶する。参照ラインの選択、及び、参照サンプル値の確定は、ラインバッファのサイズを縮小するように最適化される。従って、ラインバッファ専用のオンチップ回路面積が削減され、ハードウェアコストが節約される。
本開示の原理及び実施形態が、明細書における具体的な実施形態を使用して説明されたが、実施形態の説明は、ただ本開示の方法及び趣旨を理解することに寄与する。且つ、当業者であれば、本開示の思想に基づいて、具体な実施形態及びアプリケーションの範囲を修正することができる。要するに、明細書は、本開示の限定として解釈されるべきではない。

Claims (20)

  1. ビデオデコーディング方法であって、
    ビデオ信号の複数のコーディングフレームを含むビットストリームを取得するステップと、
    前記複数のコーディングフレームのそれぞれを複数のスーパーブロックスーパーブロックにデコーディングし、前記複数のスーパーブロックのそれぞれを複数の残差ブロックにデコーディングするステップと、
    各コーディングフレームに含まれる参照サンプル及びマルチ参照ラインイントラ予測(MRLP)フラグに基づいて、前記複数の残差ブロックのそれぞれのコーディングブロック(CB)を復元するステップであり、複数の参照ラインは上側の参照ライン及び左側の参照ラインに区画され、1つの上側の参照ライン及び1つの左側の参照ラインを選択してイントラ予測に使用する、ステップと、
    復元された前記複数の残差ブロックのそれぞれのCBをフレームバッファに記憶することで前記ビデオ信号の各フレームを再構築するステップと、
    再構築されたフレームを連続して出力して、前記ビデオ信号を復元するステップと、
    を含む、方法。
  2. スーパーブロックの各行は、第1のインデックス番号で識別され、前記第1のインデックス番号は上から順番に増加し、
    前記上側の参照ライン及び前記左側の参照ラインの各々は第2のインデックス番号で識別され、前記第2のインデックス番号は、現在のCBから離れる方向に向かって順番に増加し、
    前記現在のCBに直隣接する上側の参照ラインは隣接上側参照ラインと呼ばれ、他の上側の参照ラインは非隣接上側参照ラインと呼ばれ、
    前記現在のCBに直隣接する左側の参照ラインは隣接左側参照ラインと呼ばれ、他の左側の参照ラインは非隣接左側参照ラインと呼ばれる、
    請求項1に記載の方法。
  3. 1つの上側の参照ライン及び1つの左側の参照ラインを選択してイントラ予測に使用するステップは、
    前記スーパーブロックの1行目が前記現在のCBの内部にある場合、前記隣接上側参照ライン及び前記左側の参照ラインうちの1つの左側の参照ラインを選択してイントラ予測に使用するステップ、
    を含む、請求項2に記載の方法。
  4. 前記上側の参照ライン又は前記左側の参照ラインのいずれかに参照サンプルが存在しない場合、前記上側の参照ライン及び前記左側の参照ラインに対して同じ参照サンプルパディング処理を使用する、
    請求項1に記載の方法。
  5. イントラ予測のために選択された異なる参照ラインに対して前記参照サンプルに用いられる異なる平滑フィルタを使用する、
    請求項2乃至4のいずれか一項に記載の方法。
  6. イントラ予測のために選択された左側の参照ラインが非隣接左側参照ラインである場合、イントラ予測のために選択された隣接上側参照ライン及び前記非隣接左側参照ラインの両方に対して前記平滑フィルタを無効にすることにより、前記平滑フィルタを確定する、
    請求項5に記載の方法。
  7. イントラ予測のために選択された左側の参照ラインが隣接左側参照ラインである場合、イントラ予測のために選択された前記隣接左側参照ラインのみに対して前記平滑フィルタを無効にすることにより、前記平滑フィルタを確定する、
    請求項5に記載の方法。
  8. 1つの上側の参照ライン及び1つの左側参照ラインを選択してイントラ予測に使用するステップは、
    前記スーパーブロックの1行目が前記現在のCBの内部にある場合、第2のインデックス番号rを持つ1つの非隣接上側参照ライン、及び、同じ第2のインデックス番号rを持つ1つの非隣接左側参照ラインを選択して、イントラ予測に使用するステップと、
    前記第2のインデックス番号rを持つ前記非隣接上側参照ラインの参照サンプルを単一の値に設置するステップと、
    を含む、請求項2に記載の方法。
  9. 前記隣接上側参照ライン、又は、前記隣接左側参照ラインから参照サンプルの値を選択することにより、前記単一の値を確定する、
    請求項8に記載の方法。
  10. Figure 2022531564000004
    又は
    Figure 2022531564000005
    を選択することにより、前記単一の値を確定し、
    前記BitDepthは、参照サンプルをコーディングするためのビット数である、
    請求項8に記載の方法。
  11. 1つの上側の参照ライン及び1つの左側参照ラインを選択してイントラ予測に使用するステップは、
    前記スーパーブロックの1行目が前記現在のCBの内部にある場合、第2のインデックス番号rを持つ1つの非隣接上側参照ライン、及び、同じ第2のインデックス番号rを持つ1つの非隣接左側参照ラインを選択して、イントラ予測に使用するステップと、
    角度イントラ予測の方向で前記隣接上側参照ラインの参照サンプルの位置を前記第2のインデックス番号rを持つ前記非隣接上側参照ラインに投影することで、前記第2のインデックス番号rを持つ前記非隣接上側参照ラインの参照サンプルの値を確定するステップと、
    を含む、請求項2に記載の方法。
  12. 角度イントラ予測の方向で前記隣接上側参照ラインの参照サンプルの位置を前記第2のインデックス番号rを持つ前記非隣接上側参照ラインに投影することで前記第2のインデックス番号rを持つ前記非隣接上側参照ラインの参照サンプルの値を確定するステップは、
    前記角度イントラ予測の方向で前記第2のインデックス番号rを持つ上側の参照ラインの参照サンプルの整数位置から前記隣接上側参照ラインに向かって平行線を描画するステップと、
    前記隣接上側参照ラインの参照サンプルの分数位置で前記隣接上側参照ラインと交差するステップと、
    前記隣接上側参照ラインの参照サンプルの前記分数位置での値に補間フィルタリング処理を適用して、前記第2のインデックス番号rを持つ前記非隣接上側参照ラインの参照サンプルの値を導出するステップと、
    により、実行されており、
    前記補間フィルタリング処理において使用される補間フィルタは、2タップフィルタ、4タップフィルタ、又は、6タップフィルタであり、
    前記補間フィルタは、負のフィルタ係数を含み、
    前記補間フィルタは、4タップの3次フィルタ、4タップの離散コサイン変換補間フィルタ(DCT-IF)、又は、2タップのバイリニアフィルタである、
    請求項11に記載の方法。
  13. 角度イントラ予測の方向で前記隣接上側参照ラインの参照サンプルの位置を前記第2のインデックス番号rを持つ前記非隣接上側参照ラインに投影することで前記第2のインデックス番号rを持つ前記非隣接上側参照ラインの参照サンプルの値を確定するステップは、
    前記角度イントラ予測の方向で前記第2のインデックス番号rを持つ上側の参照ラインの参照サンプルの整数位置から前記隣接上側参照ラインに向かって平行線を描画するステップと、
    前記隣接上側参照ラインの参照サンプルの分数位置で前記隣接上側参照ラインと交差するステップと、
    前記隣接上側参照ラインの参照サンプルの前記分数位置に最も近い整数位置での値に補間フィルタリング処理を適用して、前記第2のインデックス番号rを持つ前記非隣接上側参照ラインの参照サンプルの値を導出するステップと、
    により、実行されており、
    前記補間フィルタリング処理において使用される補間フィルタは、2タップフィルタ、4タップフィルタ、又は、6タップフィルタであり、
    前記補間フィルタは、負のフィルタ係数を含み、
    前記補間フィルタは、4タップの3次フィルタ、4タップの離散コサイン変換補間フィルタ(DCT-IF)、又は、2タップのバイリニアフィルタである、
    請求項11に記載の方法。
  14. ビデオコーディング方法であって、
    ビデオ入力の現在のフレームを取得するステップと、
    ネストされたマルチタイプツリーコーディングブロック構造に応じて、取得された現在のフレームをスーパーブロックのシーケンスに分割し、各スーパーブロックを複数のコーディングブロック(CB)に分割するステップと、
    マルチ参照ラインイントラ予測(MRLP)を使用して各CBの残差ブロックを取得し、イントラ予測のために選択された参照ラインの参照サンプル及びMRLPフラグをラインバッファに記憶し、複数の参照ラインが上側の参照ライン及び左側の参照ラインに区画され、前記ラインバッファのサイズを最小化するように、1つの上側の参照ライン及び1つの左側参照ラインを選択してイントラ予測に使用する、ステップと、
    前記現在のフレームの各CBの残差ブロックを使用して前記現在のフレームをコーディングすることにより、各CBのコーディングされた残差ブロックを含むビットストリームを生成するステップと、
    を含む、方法。
  15. スーパーブロックの各行は第1のインデックス番号で識別され、前記第1のインデックス番号は、上から順番に増加し、
    前記上側の参照ライン及び前記左側の参照ラインの各々は第2のインデックス番号で識別され、前記第2のインデックス番号は、現在のCBから離れる方向に向かって順番に増加し、
    前記現在のCBに直隣接する上側の参照ラインは隣接上側参照ラインと呼ばれ、他の上側の参照ラインは非隣接上側参照ラインと呼ばれ、
    前記現在のCBに直隣接する左側の参照ラインは隣接左側参照ラインと呼ばれ、他の左側の参照ラインは非隣接左側参照ラインと呼ばれる、
    請求項14に記載の方法。
  16. 1つの上側の参照ライン及び1つの左側参照ラインを選択してイントラ予測に使用するステップは、
    前記スーパーブロックの1行目が前記現在のCBの内部にある場合、前記隣接上側参照ライン及び前記左側の参照ラインうちの1つの左側の参照ラインを選択してイントラ予測に使用するステップ、
    を含む、請求項15に記載の方法。
  17. 前記上側の参照ライン又は前記左側の参照ラインのいずれかに参照サンプルが存在しない場合、前記上側の参照ライン及び前記左側の参照ラインに対して同じ参照サンプルパディング処理を使用する、
    請求項15に記載の方法。
  18. イントラ予測のために選択された異なる参照ラインに対して前記参照サンプルに用いられる異なる平滑フィルタを使用する、
    請求項15乃至17のいずれか一項に記載の方法。
  19. イントラ予測のために選択された左側の参照ラインが非隣接左側参照ラインである場合、イントラ予測のために選択された隣接上側参照ライン及び前記非隣接左側参照ラインの両方に対して前記平滑フィルタを無効にすることにより、前記平滑フィルタを確定する、
    請求項18に記載の方法。
  20. イントラ予測のために選択された左側の参照ラインが隣接左側参照ラインである場合、イントラ予測のために選択された前記隣接左側参照ラインのみに対して前記平滑フィルタを無効にすることにより、前記平滑フィルタを確定する、
    請求項18に記載の方法。
JP2021563217A 2020-01-23 2021-01-13 ビデオコーディング方法及びシステム Active JP7250169B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202062964992P 2020-01-23 2020-01-23
US62/964,992 2020-01-23
US17/077,872 US11558605B2 (en) 2020-01-23 2020-10-22 Video coding method and system based on multiple reference line intra prediction
US17/077,872 2020-10-22
PCT/US2021/013330 WO2021150409A1 (en) 2020-01-23 2021-01-13 Video coding method and system

Publications (2)

Publication Number Publication Date
JP2022531564A true JP2022531564A (ja) 2022-07-07
JP7250169B2 JP7250169B2 (ja) 2023-03-31

Family

ID=76970409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021563217A Active JP7250169B2 (ja) 2020-01-23 2021-01-13 ビデオコーディング方法及びシステム

Country Status (6)

Country Link
US (2) US11558605B2 (ja)
EP (1) EP4094435A4 (ja)
JP (1) JP7250169B2 (ja)
KR (1) KR20210145823A (ja)
CN (1) CN113728632A (ja)
WO (1) WO2021150409A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024022146A1 (en) * 2022-07-27 2024-02-01 Mediatek Inc. Using mulitple reference lines for prediction
WO2024022144A1 (en) * 2022-07-29 2024-02-01 Mediatek Inc. Intra prediction based on multiple reference lines

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180146211A1 (en) * 2016-06-08 2018-05-24 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction
WO2019155451A1 (en) * 2018-02-12 2019-08-15 Tencent America LLC Method and apparatus for multiple line intra prediction in video compression
WO2019194950A2 (en) * 2018-04-02 2019-10-10 Tencent America Llc. Method and apparatus for video coding
US20190335199A1 (en) * 2018-04-30 2019-10-31 Google Llc Intra-prediction for smooth blocks in image/video

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9451254B2 (en) 2013-07-19 2016-09-20 Qualcomm Incorporated Disabling intra prediction filtering
WO2017190288A1 (en) * 2016-05-04 2017-11-09 Microsoft Technology Licensing, Llc Intra-picture prediction using non-adjacent reference lines of sample values
CN114363630B (zh) 2016-06-24 2024-06-14 株式会社Kt 视频编码方法、视频解码方法以及装置
US10742975B2 (en) * 2017-05-09 2020-08-11 Futurewei Technologies, Inc. Intra-prediction with multiple reference lines
WO2019184834A1 (en) 2018-03-28 2019-10-03 Fg Innovation Ip Company Limited Device and method for coding video data in multiple reference line prediction
US11159806B2 (en) * 2018-06-28 2021-10-26 Qualcomm Incorporated Position dependent intra prediction combination with multiple reference lines for intra prediction
KR20230104769A (ko) * 2018-08-24 2023-07-10 삼성전자주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2020111785A1 (ko) * 2018-11-27 2020-06-04 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020130629A1 (ko) * 2018-12-18 2020-06-25 엘지전자 주식회사 다중 참조 라인 인트라 예측에 기반한 영상 코딩 방법 및 그 장치
US11277616B2 (en) * 2019-06-20 2022-03-15 Qualcomm Incorporated DC intra mode prediction in video coding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180146211A1 (en) * 2016-06-08 2018-05-24 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction
WO2019155451A1 (en) * 2018-02-12 2019-08-15 Tencent America LLC Method and apparatus for multiple line intra prediction in video compression
WO2019194950A2 (en) * 2018-04-02 2019-10-10 Tencent America Llc. Method and apparatus for video coding
US20190335199A1 (en) * 2018-04-30 2019-10-31 Google Llc Intra-prediction for smooth blocks in image/video

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS, HEIKO SCHWARZ, DETLEV MARPE, AND THOMAS WIEGAND: "CE3: Multiple reference line intra prediction (Test 5.4.1, 5.4.2, 5.4.3 and 5.4.4)", OINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-K0051-v1, JPN6022045265, July 2018 (2018-07-01), pages 1 - 8, ISSN: 0004911169 *
LIANG ZHAO, XIN ZHAO, XIANG LI, AND SHAN LIU: "Further investigations on multi-line intra prediction", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-J0065-v2, JPN6022045263, April 2018 (2018-04-01), pages 1 - 3, ISSN: 0004911168 *

Also Published As

Publication number Publication date
US20230037509A1 (en) 2023-02-09
EP4094435A4 (en) 2023-04-26
CN113728632A (zh) 2021-11-30
WO2021150409A1 (en) 2021-07-29
KR20210145823A (ko) 2021-12-02
EP4094435A1 (en) 2022-11-30
US20210235071A1 (en) 2021-07-29
JP7250169B2 (ja) 2023-03-31
US11558605B2 (en) 2023-01-17

Similar Documents

Publication Publication Date Title
KR102431537B1 (ko) 루마 및 크로마 성분에 대한 ibc 전용 버퍼 및 디폴트 값 리프레싱을 사용하는 인코더, 디코더 및 대응하는 방법들
KR102148466B1 (ko) 스킵 모드를 이용한 영상 복호화 방법 및 이러한 방법을 사용하는 장치
EP4322531A2 (en) An encoder, a decoder and corresponding methods harmonizing matrix-based intra prediction and secoundary core selection
CN111684809A (zh) 基于变换的图像编码方法和用于该方法的装置
JP7346601B2 (ja) Mpmリストを構成する方法、クロマブロックのイントラ予測モードを取得する方法、および装置
EP3881549B1 (en) Method and apparatus of mode- and size-dependent block-level restrictions
US20230037509A1 (en) Video coding method and system
US11930211B2 (en) Method and system for intra mode coding
EP4346212A2 (en) Video picture decoding and encoding method and apparatus
CN113785565B (zh) 视频编解码的方法和***
CN116800984A (zh) 编解码方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R150 Certificate of patent or registration of utility model

Ref document number: 7250169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150