JP5792382B2 - ビデオコーディングにおける最後の有意変換係数のスキャン順序での位置の導出 - Google Patents

ビデオコーディングにおける最後の有意変換係数のスキャン順序での位置の導出 Download PDF

Info

Publication number
JP5792382B2
JP5792382B2 JP2014519021A JP2014519021A JP5792382B2 JP 5792382 B2 JP5792382 B2 JP 5792382B2 JP 2014519021 A JP2014519021 A JP 2014519021A JP 2014519021 A JP2014519021 A JP 2014519021A JP 5792382 B2 JP5792382 B2 JP 5792382B2
Authority
JP
Japan
Prior art keywords
block
scan
variable
sub
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014519021A
Other languages
English (en)
Other versions
JP2014521249A (ja
Inventor
ソル・ロジャルス、ジョエル
ジョシ、ラジャン・ラクスマン
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2014521249A publication Critical patent/JP2014521249A/ja
Application granted granted Critical
Publication of JP5792382B2 publication Critical patent/JP5792382B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

関連出願
関連出願の相互参照
本出願は、その内容全体が参照により本明細書に組み込まれる、2011年6月28日に出願された米国仮出願第61/502,269号、2011年6月30日に出願された米国仮出願第61/503,529号、2011年10月24日に出願された米国仮出願第61/550,775号、および2011年10月24日に出願された米国仮出願第61/550,784号の利益を主張する。
本開示は、ビデオデータを符号化および復号するための技法に関する。より詳細には、本開示は、ビデオデータ中の情報を表す有意変換係数の位置をシグナリングすることに関する。
デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、セルラー電話または衛星無線電話、ビデオ遠隔会議デバイスなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、デジタルビデオ情報をより効率的に送信および受信するために、MPEG−2、MPEG−4、ITU−T H.263またはITU−T H.264/MPEG−4、Part10、Advanced Video Coding(AVC)によって定義された規格、およびそのような規格の拡張に記載されているビデオ圧縮技法など、ビデオ圧縮技法を実装する。
ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減または除去するために空間的予測および/または時間的予測を実行する。ブロックベースのビデオコーディングの場合、ビデオフレームまたはスライスはブロックに区分され得る。各ブロックはさらに区分され得る。イントラコード化(I)フレームまたはスライス中のブロックは、隣接ブロックに対する空間的予測を使用して符号化される。インターコード化(PまたはB)フレームまたはスライス中のブロックは、同じフレームまたはスライス中の隣接ブロックに対する空間的予測、あるいは他の参照フレームに対する時間的予測を使用し得る。
本開示は、一般に、ビデオコーディング中に変換係数のブロック中の最後の有意係数(LSC:last significant coefficient)の位置をシグナリングするための技法に関する。たとえば、本技法は、変換係数のブロックのLSCのブロックベースLSCインジケータを受信するビデオデコーダを提供する。ブロックベースLSCインジケータは、ブロックがスキャン順序に従ってスキャンされるとき、LSCの座標を示す。ビデオデコーダは、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換する。スキャンベースLSCインジケータは、スキャン順序に従ってLSCの順序位置を示す。次いで、ビデオデコーダは、有意性マップを復号するためにスキャンベースLSCインジケータを使用し得る。
一例では、本開示では、ビデオデータを復号するための方法について説明する。本方法は、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換することを備える。ブロックベースLSCインジケータは、スキャン順序に従って変換係数のブロックの最後の有意係数の座標を示す。スキャンベースLSCインジケータは、スキャン順序に従ってLSCの順序位置を示す。本方法はまた、スキャンベースLSCインジケータに基づいて、ブロックのための有意性マップを復号することを備える。
別の例では、本開示では、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換するように構成される1つまたは複数のプロセッサを備えるビデオ復号デバイスについて説明する。ブロックベースLSCインジケータは、スキャン順序に従って変換係数のブロックの最後の有意係数の座標を示す。スキャンベースLSCインジケータは、スキャン順序に従ってLSCの順序位置を示す。1つまたは複数のプロセッサはまた、スキャンベースLSCインジケータに基づいて、ブロックのための有意性マップを復号するように構成される。
別の例では、本開示では、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換するための手段を備えるビデオ復号デバイスについて説明する。ブロックベースLSCインジケータは、スキャン順序に従って変換係数のブロックの最後の有意係数の座標を示す。スキャンベースLSCインジケータは、スキャン順序に従ってLSCの順序位置を示す。本ビデオ復号デバイスはまた、スキャンベースLSCインジケータに基づいて、ブロックのための有意性マップを復号するための手段を備える。
別の例では、本開示では、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換するように1つまたは複数のプロセッサを構成する命令を記憶したコンピュータ可読記憶媒体を備えるコンピュータプログラム製品について説明する。ブロックベースLSCインジケータは、スキャン順序に従って変換係数のブロックの最後の有意係数の座標を示す。スキャンベースLSCインジケータは、スキャン順序に従ってLSCの順序位置を示す。命令はまた、スキャンベースLSCインジケータに基づいて、ブロックのための有意性マップを復号するように1つまたは複数のプロセッサを構成する。
本開示の1つまたは複数の態様の詳細を添付の図面および以下の説明に記載する。本開示で説明する技法の他の特徴、目的、および利点は、これらの説明および図面、ならびに特許請求の範囲から明らかになろう。
例示的なビデオコーディングシステムを示すブロック図。 例示的な変換係数ブロックを示す概念図。 例示的なスキャン順序を示す概念図。 図2の変換係数ブロックのための例示的な有意性マップの2次元表現を示す概念図。 ビデオエンコーダの例示的な構成を示すブロック図。 ビデオデコーダの例示的な構成を示すブロック図。 ビデオエンコーダによって実行される例示的な動作を示すフローチャート。 変換係数ブロックを復号する例示的な動作を示すフローチャート。 ブロックベース最後の有意係数(LSC)インジケータをスキャンベースLSCインジケータに変換する例示的な非反復動作を示すフローチャート。 ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換する別の例示的な非反復動作を示すフローチャート。 ブロックベースLSCインジケータを、マップデータ構造がアクセスされるスキャンベースLSCインジケータに変換する例示的な動作を示すフローチャート。 ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換する例示的な反復動作を示すフローチャート。 最後の有意変換係数を示す変換係数ブロックの概念図。
添付の図面は例を示している。添付の図面中の参照番号によって示される要素は、以下の説明における同様の参照番号によって示される要素に対応する。本開示では、序数語(たとえば、「第1の」、「第2の」、「第3の」など)で始まる名前を有する要素は、必ずしもそれらの要素が特定の順序を有することを暗示するとは限らない。そうではなく、そのような序数語は、同じまたは同様のタイプの異なる要素を指すのに使用されるにすぎない。
以下で説明するように、ビデオエンコーダは変換係数ブロックを生成し得る。変換係数ブロックの各々は、変換係数の2次元アレイであり得る。ビデオエンコーダが変換係数ブロックを生成した後、ビデオエンコーダは、スキャン順序に従って変換係数ブロックの最後の有意係数(LSC)を識別し得る。言い換えれば、変換係数ブロックの変換係数がスキャン順序に従って順序付けられるとき、変換係数ブロックのLSCは最後の非ゼロ変換係数である。スキャン順序は、変換係数ブロックのDC変換係数(すなわち、左上変換係数)で開始し得る。
ビデオエンコーダは、スキャン順序に従ってLSCの順序位置を示すスキャンベースLSCインジケータを出力し得る。言い換えれば、ビデオエンコーダは、変換係数がスキャン順序に従って順序付けられるとき、LSCがn番目の変換係数であることを示すスキャンベースLSCインジケータを出力し得る。
いくつかの従来のビデオエンコーダでは、ビデオエンコーダは、変換係数ブロック上で一連のコーディングパスを実行し得る。コーディングパスの各々の間に、ビデオエンコーダは、スキャン順序に従って変換係数ブロックの変換係数を処理し得る。コーディングパスの各々の間に、ビデオエンコーダは、変換係数に関する情報を符号化する。
コーディングパスのうちの1つの間に、ビデオエンコーダは有意性マップを生成する。有意性マップは、変換係数ブロック中の変換係数が有意(すなわち、非ゼロ)であるかどうかを示す一連の有意性フラグを含む。有意性マップを生成するために、ビデオエンコーダは、スキャン順序に従って変換係数の各々を処理し得る。ビデオエンコーダが変換係数を処理するとき、ビデオエンコーダは、変換係数の順序位置がスキャン順序に従ってLSCの順序位置の前に発生するかどうかを判断し得る。そうである場合、ビデオエンコーダは、変換係数の有意性フラグを生成し得る。変換係数の値が非ゼロである場合、有意性フラグは「1」の値を有し得る。変換係数の値がゼロに等しい場合、有意性フラグは「0」の値を有し得る。しかしながら、変換係数の順序位置がスキャン順序に従ってLSCの順序位置の前に発生しない場合、ビデオエンコーダは、変換係数の有意性フラグを生成しない。
ビデオデコーダは、スキャンベースLSCインジケータと変換係数ブロックの有意性マップとを受信し得る。ビデオデコーダは、次いで、スキャンベースLSCインジケータに基づいて、有意性マップが変換係数ブロックの特定の変換係数の有意性フラグを含むかどうかを判断し得る。ビデオエンコーダが変換係数の有意性フラグを生成しない場合、ビデオデコーダは、変換係数が有意でないと推論し得る。
いくつかの事例では、ビデオエンコーダは、LSCの変換係数ブロック内の座標を示すブロックベースLSCインジケータを生成し得る。ビデオエンコーダは、次いで、ブロックベースLSCインジケータをCABAC符号化し得る。x座標とy座標との間の統計的関係のために、LSCの順序位置に関してLSCの位置を示すよりも、ブロックベースLSCインジケータを使用してLSCの位置を示すほうが、必要なビットが少なくて済み得る。
さらに、いくつかの事例では、ビデオエンコーダが有意性マップを生成するためのスキャン順序を使用するときよりも、ビデオエンコーダが有意性マップを生成するためのスキャン順序の逆を使用するときのほうが、有意性マップを表すためのビットが少なくて済み得る。しかしながら、ビデオエンコーダがブロックベースLSCインジケータを生成する場合、およびビデオエンコーダが有意性マップを生成するために逆スキャン順序を使用する場合、ビデオデコーダは、ブロックベースLSCインジケータに基づいて、変換係数の順序位置が変換係数ブロックのLSCの順序位置の前に発生するかどうかを判断することができないことがある。したがって、ビデオデコーダは、ブロックベースLSCインジケータに基づいて、有意性マップが特定の変換係数の有意性フラグを含むかどうかを判断することができないことがある。
この問題に対処するために、ビデオデコーダは、本開示の技法に従って、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換する変換演算を実行し得る。スキャンベースLSCインジケータは、スキャン順序に従ってLSCの順序位置を示し得る。ビデオデコーダは、次いで、スキャンベースLSCインジケータに基づいて、ブロックのための有意性マップを復号し得る。
本明細書で説明するように、ビデオデコーダは、ブロックベースLSCインジケータをスキャンベースLSCインジケータに様々な方法で変換し得る。たとえば、ビデオデコーダは、ブロックベースLSCインジケータからスキャンベースLSCインジケータを導出するために非反復アルゴリズムを実行し得る。別の例では、ビデオデコーダは、ブロックベースLSCインジケータをスキャンベースLSCインジケータにマッピングするデータ構造にアクセスすることに少なくとも部分的によって、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換し得る。さらに別の例では、ビデオデコーダは、ブロックベースLSCインジケータの座標を有する位置に達するまで、スキャン順序に従って変換係数ブロック中の位置中をスキャンするループ動作を実行し得る。この例では、ビデオデコーダは、座標を有する位置より前の変換係数ブロックの位置ごとにスキャンベースLSCインジケータを増分し得る。
図1は、本開示で説明する技法を利用し得る例示的なビデオコーディングシステム10を示すブロック図である。本開示では、「ビデオコーディング」という用語は、ビデオ符号化およびビデオ復号を指すことがある。図1に示すように、ビデオコーディングシステム10は、ソースデバイス12と宛先デバイス14とを含む。ソースデバイス12は符号化ビデオデータを生成する。宛先デバイス14は、符号化ビデオデータを後で復号し得る。ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、携帯電話、電話ハンドセット、「スマート」パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミングデバイス、またはビデオデータを符号化および復号することが可能なタイプのコンピューティングデバイスを含む、広範囲にわたるデバイスのいずれかを備え得る。
宛先デバイス14は、チャネル16を介して符号化ビデオデータを受信し得る。チャネル16は、ソースデバイス12から宛先デバイス14に符号化ビデオデータを移動させることが可能な媒体またはデバイスを備え得る。一例では、チャネル16は、ソースデバイス12が、符号化ビデオデータを宛先デバイス14に直接リアルタイムで送信することを可能にする通信媒体を備え得る。ソースデバイス12または別のデバイスは、ワイヤレス通信プロトコルなどの通信規格に従って符号化ビデオデータを変調し得る。通信媒体は、無線周波数(RF)スペクトルあるいは1つまたは複数の物理伝送線路など、任意のワイヤレスまたはワイヤード通信媒体を備え得る。チャネル16は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。チャネル16は、ソースデバイス12から宛先デバイス14への符号化ビデオデータの通信を可能にするのに有用であり得るルータ、スイッチ、基地局、または任意の他の機器を含み得る。
いくつかの例では、ソースデバイス12および宛先デバイス14は、ワイヤレス通信のために装備され得る。ただし、本開示の技法は、必ずしもワイヤレス適用例または設定に限定されるとは限らない。そうではなく、本技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、たとえばインターネットを介したストリーミングビデオ送信、データ記憶媒体に記憶するためのデジタルビデオの符号化、データ記憶媒体に記憶されたデジタルビデオの復号、または他の適用例など、様々なマルチメディア適用例のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、ソースデバイス12および宛先デバイス14は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、および/またはビデオテレフォニーなどの適用例をサポートするために、一方向または双方向のビデオ送信をサポートするように構成され得る。
さらに、いくつかの例では、ソースデバイス12は、符号化ビデオデータをストレージシステム34に出力し得る。同様に、宛先デバイス14は、ストレージシステム34に記憶された符号化ビデオデータにアクセスし得る。様々な例では、ストレージシステム34は、様々な分散型またはローカルアクセス型データ記憶媒体を含み得る。データ記憶媒体の例示的なタイプとしては、限定はしないが、ハードドライブ、ブルーレイ(登録商標)ディスク、DVD、CD−ROM、固体メモリユニット、揮発性もしくは不揮発性メモリ、または符号化ビデオデータの記憶に適した他のデジタル記憶媒体がある。
いくつかの例では、ストレージシステム34は、ソースデバイス12によって生成された符号化ビデオを保持し得るファイルサーバまたは別の中間ストレージデバイスを備え得る。宛先デバイス14は、ストリーミングまたはダウンロードを介してストレージシステム34から、記憶されたビデオデータにアクセスし得る。ファイルサーバは、符号化ビデオデータを記憶すること、およびその符号化ビデオデータを宛先デバイス14に送信することが可能な任意のタイプのサーバであり得る。例示的なファイルサーバとしては、(たとえば、ウェブサイトのための)ウェブサーバ、FTPサーバ、ネットワーク接続ストレージ(NAS:network attached storage)デバイス、またはローカルディスクドライブがある。宛先デバイス14は、インターネット接続を含む、任意の標準のデータ接続を介して符号化ビデオデータにアクセスし得る。これは、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適であるワイヤレスチャネル(たとえば、Wi−Fi接続)、ワイヤード接続(たとえば、DSL、ケーブルモデムなど)、または両方の組合せを含み得る。ストレージシステム34からの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、または両方の組合せであり得る。
図1の例では、ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、出力インターフェース22とを含む。いくつかの例では、出力インターフェース22は、変調器/復調器(モデム)および/または送信機も含み得る。ビデオソース18は、ビデオエンコーダ20にビデオデータを与える。様々な例では、ビデオソース18は、ビデオデータを与えるための様々なタイプのデバイスおよび/またはシステムを備え得る。たとえば、ビデオソース18は、ビデオカメラなどのビデオキャプチャデバイスを備え得る。別の例では、ビデオソース18は、前にキャプチャされたビデオを包含するビデオアーカイブを備え得る。さらに別の例では、ビデオソース18は、ビデオコンテンツプロバイダからビデオを受信するビデオフィードインターフェースを備え得る。さらに別の例では、ビデオソース18は、コンピュータグラフィックスデータを生成するためのコンピュータグラフィックスシステムを備え得る。
以下で詳細に説明するように、ビデオエンコーダ20は、ビデオソース18によって与えられたビデオデータを符号化し得る。いくつかの例では、ソースデバイス12は、出力インターフェース22を介して宛先デバイス14に符号化ビデオデータを直接送信し得る。さらに、いくつかの例では、ストレージシステム34は、宛先デバイス14または他のデバイスによる後のアクセスのために符号化ビデオデータを記憶し得る。
本開示では、概して、ビデオエンコーダ20が、ある情報をビデオデコーダ30などの別のデバイスに「シグナリング」することに言及し得る。ただし、ビデオエンコーダ20は、いくつかのシンタックス要素をビデオデータの様々な符号化部分に関連付けることによって情報をシグナリングし得ることを理解されたい。すなわち、ビデオエンコーダ20は、いくつかのシンタックス要素をビデオデータの様々な符号化部分のヘッダに記憶することによってデータを「シグナリング」し得る。いくつかの場合には、そのようなシンタックス要素は、ビデオデコーダ30によって受信および復号される前に、符号化および記憶(たとえば、ストレージシステム34に記憶)され得る。したがって、「シグナリング」という用語は、概して、圧縮ビデオデータを復号するのに使用されるシンタックスまたは他のデータの通信を指すことがある。そのような通信は、リアルタイムにまたはほぼリアルタイムに行われ得る。代替的に、そのような通信は、符号化時に媒体にシンタックス要素を記憶するときに行われるなど、ある時間期間にわたって行われ得、次いで、そのシンタックス要素は、この媒体に記憶された後の任意の時間に復号デバイスによって取り出され得る。
図1の例では、宛先デバイス14は、入力インターフェース28と、ビデオデコーダ30と、ディスプレイデバイス32とを含む。いくつかの例では、入力インターフェース28は、受信機および/またはモデムを含み得る。宛先デバイス14の入力インターフェース28は、チャネル16および/またはストレージシステム34から符号化ビデオデータを受信する。ビデオデコーダ30は、入力インターフェース28によって受信された符号化ビデオデータを復号する。宛先デバイス14は、ディスプレイデバイス32上に表示するための復号ビデオデータをレンダリングし得る。
ディスプレイデバイス32は、宛先デバイス14と一体化され得るかまたはその外部にあり得る。いくつかの例では、宛先デバイス14は、一体型ディスプレイデバイスを含み、外部ディスプレイデバイスとインターフェースするようにも構成され得る。様々な例では、ディスプレイデバイス32は、様々なタイプのディスプレイデバイスを備え得る。たとえば、ディスプレイデバイス32は、液晶ディスプレイ(LCD:liquid crystal display)、プラズマディスプレイ、有機発光ダイオード(OLED:organic light emitting diode)ディスプレイ、または別のタイプのディスプレイデバイスを備え得る。
図1には示されていないが、いくつかの態様では、ビデオエンコーダ20およびビデオデコーダ30は、それぞれオーディオエンコーダおよびオーディオデコーダと統合され得、また、共通のデータストリームまたは別個のデータストリーム中のオーディオとビデオの両方の符号化を処理するための適切なMUX−DEMUXユニット、または他のハードウェアおよびソフトウェアを含み得る。適用可能な場合、いくつかの例では、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
ビデオエンコーダ20およびビデオデコーダ30はそれぞれ、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP:digital signal processor)、特定用途向け集積回路(ASIC:application specific integrated circuit)、フィールドプログラマブルゲートアレイ(FPGA:field programmable gate array)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアまたはそれらの任意の組合せなど、様々な好適な回路のいずれかとして実装され得る。本技法が部分的にソフトウェアで実装されるとき、デバイスは、好適な非一時的コンピュータ可読媒体にソフトウェアの命令を記憶し、1つまたは複数のプロセッサを使用してその命令をハードウェアで実行して、本開示の技法を実行し得る。ビデオエンコーダ20およびビデオデコーダ30の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれ得、そのいずれも、それぞれのデバイスにおいて複合エンコーダ/デコーダ(コーデック)の一部として統合され得る。
ビデオエンコーダ20およびビデオデコーダ30は、現在開発中の高効率ビデオコーディング(HEVC)規格など、ビデオ圧縮規格に従って動作し得、HEVCテストモデル(HM)に準拠し得る。代替的に、ビデオエンコーダ20およびビデオデコーダ30は、代替的にMPEG−4,Part 10,Advanced Video Coding(AVC)と呼ばれるITU−T H.264規格など、他のプロプライエタリ規格または業界規格、あるいはそのような規格の拡張に従って動作し得る。規格に対する例示的な拡張としては、H.264/AVC規格に対するスケーラブルビデオコーディング(SVC:scalable video coding)拡張およびマルチビュービデオコーディング(MVC:Multiview Video Coding)拡張がある。本開示の技法は、いかなる特定のコーディング規格にも限定されない。ビデオ圧縮規格の他の例としては、MPEG−2およびITU−T H.263がある。
上記で手短に説明したように、ビデオエンコーダ20はビデオデータを符号化する。ビデオデータは、1つまたは複数のピクチャシーケンスを備え得る。ピクチャの各々は静止画像である。いくつかの事例では、ピクチャは「フレーム」と呼ばれることがある。ビデオエンコーダ20がビデオデータを符号化するとき、ビデオエンコーダ20はビットストリームを生成し得る。ビットストリームは、コード化ピクチャおよび関連データの表現を形成する一連のビットを含む。コード化ピクチャとは、ピクチャのコード化表現である。
ビットストリームを生成するために、ビデオエンコーダ20は、ビデオデータ中の一連のピクチャに対して符号化演算を実行し得る。ビデオエンコーダ20が一連のピクチャに対して符号化演算を実行すると、ビデオエンコーダ20は、一連のコード化ピクチャと関連データとを生成し得る。さらに、ビデオエンコーダ20は、0個以上の一連のピクチャに適用可能なパラメータを包含するシーケンスパラメータセットを生成し得る。さらに、ビデオエンコーダ20は、全体として0個以上のピクチャに適用可能なパラメータを包含するピクチャパラメータセット(PPS:picture parameter set)を生成し得る。いくつかの例では、ビデオエンコーダ20は、適応パラメータセット(APS:adaptation parameter set)を生成し得る。APSは、0個以上のピクチャに適用可能なパラメータを全体として記憶し得る。
コード化ピクチャを生成するために、ビデオエンコーダ20は、ピクチャを1つまたは複数の等しいサイズのビデオブロックに区分し得る。ビデオブロックの各々はツリーブロックに関連付けられ得る。ビデオブロックは、ビデオデータの2次元(2D)ブロックであり得る(たとえば、サンプル)。いくつかの事例では、ツリーブロックは、最大コーディングユニット(LCU:largest coding unit)と呼ばれることもある。HEVCのツリーブロックは、H.264/AVCなど、従来の規格のマクロブロックに広い意味で類似し得る。ただし、ツリーブロックは、必ずしも特定のサイズに限定されるとは限らず、1つまたは複数のコーディングユニット(CU:coding unit)を含み得る。
いくつかの例では、ビデオエンコーダ20は、ピクチャを複数のスライスに区分し得る。スライスの各々は整数個のCUを含み得る。いくつかの事例では、スライスは整数個のツリーブロックを備える。他の例では、スライスの境界はツリーブロック内にあり得る。スライスの境界がツリーブロック内にある場合、スライスは微細粒スライス(fine granular slice)と呼ばれることがある。いくつかの例では、ビデオエンコーダ20は、スライスのバイト単位のサイズに従って、または、スライス中のツリーブロックの数に従って、スライスを符号化し得る。
ピクチャに対して符号化演算を実行することの一部として、ビデオエンコーダ20は、ピクチャの各スライスに対して符号化演算を実行し得る。スライスに対する符号化演算は、スライスに関連する符号化データを生成し得る。スライスに関連する符号化データは、「コード化スライス」と呼ばれることがある。コード化スライスは、スライスヘッダとスライスデータとを含み得る。スライスデータは、一連の連続するコーディングユニットをコーディング順序で含み得る。スライスヘッダは、スライスの第1のまたはすべてのツリーブロックに関するデータ要素を含み得る。
スライスについてのコード化スライスデータを生成するために、ビデオエンコーダ20は、スライス中の各ツリーブロックに対して符号化演算を実行し得る。ビデオエンコーダ20がツリーブロックに対して符号化演算を実行すると、ビデオエンコーダ20はコード化ツリーブロックを生成し得る。コード化ツリーブロックは、ツリーブロックの符号化バージョンを表すデータを備え得る。
コード化ツリーブロックを生成するために、ビデオエンコーダ20は、ツリーブロックのビデオブロックに対して4分木区分を再帰的に実行して、ビデオブロックを漸進的により小さいビデオブロックに分割し得る。より小さいビデオブロックの各々は異なるCUに関連付けられ得る。たとえば、ビデオエンコーダ20は、ツリーブロックのビデオブロックを4つの等しいサイズのサブブロックに区分し、サブブロックのうち1つまたは複数を、4つの等しいサイズのサブサブブロックに区分し、以下同様に行い得る。ビットストリーム中の1つまたは複数のシンタックス要素は、ビデオエンコーダ20がツリーブロックのビデオブロックを区分し得る最大回数を示し得る。シンタックス要素はまた、最小コーディングユニット(SCU:smallest coding unit)を示し得る。CUのビデオブロックは形状が矩形であり得る。
ビデオエンコーダ20は、ツリーブロック中の各非区分化CUに対して符号化演算を実行し得る。非区分化CUに対して符号化演算を実行することの一部として、ビデオエンコーダ20は、CUのための1つまたは複数の予測ユニット(PU:prediction unit)を生成し得る。CUのPUの各々は、CUのビデオブロック内の異なるビデオブロックに関連付けられ得る。ビデオエンコーダ20は、イントラ予測またはインター予測を使用して、CUのPUについての予測データを生成し得る。ビデオエンコーダ20がイントラ予測を使用してPUについての予測データを生成するとき、ビデオエンコーダ20は、PUを包含するピクチャの復号サンプルからPUについての予測データを導出する。ビデオエンコーダ20がインター予測を使用してPUについての予測データを生成するとき、ビデオエンコーダ20は、CUを包含するピクチャとは異なる参照ピクチャの復号値からPUについての予測データを導出する。PUについての予測データは、予測ビデオブロックと様々なシンタックス要素とを含み得る。
ビデオエンコーダ20がCUについての予測データを生成した後、ビデオエンコーダ20はCUについての残差データを生成し得る。CUについての残差データは、CUのPUのための予測ビデオブロック中のサンプルと、CUの元のビデオブロック中のサンプルとの間の差異を示し得る。
ツリーブロックの各非区分CUは、1つまたは複数の変換ユニット(TU:transform unit)を有し得る。CUの各TUは、CUの残差データの異なる部分に関連付けられ得る。ビデオエンコーダ20は、CUの各TUに対して変換演算を実行し得る。ビデオエンコーダ20がTUに対して変換演算を実行すると、ビデオエンコーダ20は、TUに関連する残差データに変換を適用することに少なくとも部分的によって変換係数ブロックを生成し得る。変換係数ブロックは、変換係数の2D行列であり得る。図2は、例示的な変換係数ブロックを示す概念図である。
ビデオエンコーダ20は、変換係数ブロック中の変換係数を量子化し得る。量子化は、概して、変換係数を表すために使用されるデータの量をできるだけ低減するために変換係数ブロック中の変換係数を量子化し、さらに圧縮するプロセスを指す。量子化は、変換係数の一部または全部に関連するビット深度を低減し得る。たとえば、量子化中にnビット値がmビット値に切り捨てられ得、nはmよりも大きい。
変換係数ブロックを量子化した後に、ビデオエンコーダ20は、変換係数ブロックに関連するシンタックス要素のセットを生成し得る。ビデオエンコーダ20は、次いで、これらのシンタックス要素の一部に対してコンテキスト適応型バイナリ算術コーディング(CABAC:Context Adaptive Binary Arithmetic Coding)演算を実行し得る。他の例では、ビデオエンコーダ20は、シンタックス要素に対して他のエントロピーコーディング演算を実行し得る。たとえば、ビデオエンコーダ20は、変換係数ブロックに関連するシンタックス要素に対して、コンテキスト適応型可変長コーディング(CAVLC:context adaptive variable length coding)演算、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC:syntax-based context-adaptive binary arithmetic coding)演算、確率間隔区分エントロピー(PIPE:Probability Interval Partitioning Entropy)コーディング演算、または別のタイプのエントロピー符号化演算を実行し得る。ビデオエンコーダ20はまた、ビデオデータに関連する他のシンタックス要素に対してCABAC演算を実行し得る。
ビデオエンコーダ20が変換係数ブロックに関連するシンタックス要素を生成し、CABAC演算を実行した後、ビデオエンコーダ20は、ビデオデータのためのビットストリーム中に得られたデータを含め得る。ビットストリームは、コード化ピクチャおよび関連データの表現を形成する一連のビットを含み得る。
ビットストリームは、一連のネットワークアブストラクションレイヤ(NAL:network abstraction layer)ユニットを備え得る。NALユニットの各々は、NALユニット中のデータのタイプの指示と、データを包含するバイトとを包含するシンタックス構造であり得る。たとえば、NALユニットは、PPS、APS、コード化スライス、補足エンハンスメント情報、アクセスユニットデリミタ、フィラーデータ、または別のタイプのデータを表すデータを含み得る。NALユニットのデータは、エミュレーション防止ビットが点在しているローバイトシーケンスペイロード(RBSP:raw byte sequence payload)の形態であり得る。RBSPは、NALユニット内にカプセル化される整数個のバイトを包含するシンタックス構造であり得る。
ビデオエンコーダ20が変換係数ブロックに対してエントロピー符号化演算を実行するとき、ビデオエンコーダ20は、変換係数ブロック中に少なくとも1つの有意(すなわち、非ゼロ)変換係数があるかどうかを判断し得る。変換係数ブロック中に少なくとも1つの有意変換係数がある場合、ビデオエンコーダ20は、変換係数ブロックが少なくとも1つの有意変換係数を含むことを示すようにコード化ブロックフラグ(CBF:coded block flag)を更新し得る。変換係数ブロック中に有意変換係数がない場合、ビデオエンコーダ20は、変換係数ブロックがいかなる有意変換係数も含まないことを示すようにCBFを更新し得る。
変換係数ブロック中に少なくとも1つの有意係数がある場合、ビデオエンコーダ20は、スキャン順序に従って変換係数ブロックの最後の有意係数(LSC:last significant coefficient)を識別し得る。変換係数ブロックのLSCは、変換係数ブロックの変換係数がスキャン順序に従って順序付けられたときに最後に発生する非ゼロ変換係数である。スキャン順序は正スキャン順序であり得る。言い換えれば、スキャン順序は、変換係数ブロックのDC変換係数で開始し得る。DC変換係数は、変換係数ブロックの左上隅で発生する。対照的に、逆(reverse)または逆(inverse)スキャン順序は、変換係数ブロックの右下の変換係数で開始する。
ビデオエンコーダ20は、様々なスキャン順序に従って変換係数ブロックのLSCを識別し得る。たとえば、ビデオエンコーダ20は、ジグザグスキャン順序、水平スキャン順序、垂直スキャン順序、対角スキャン順序、またはサブブロックスキャン順序に従ってLSCを識別し得る。いくつかの例では、変換係数ブロックがイントラ予測CUに関連付けられる場合、ビデオエンコーダ20は、CUに関連するイントラ予測モードに基づいてスキャン順序を選択し得る。さらに、いくつかの例では、ビデオエンコーダ20は、コーディング効率および/または主観的画質を最適化するために、スキャン順序の間で適応的に切り替わり得る。
図3は、例示的なスキャン順序を示す概念図である。図3のパート(a)は、例示的なジグザグスキャン順序を示している。図3のパート(b)は、例示的な水平スキャン順序を示している。図3のパート(c)は、例示的な垂直スキャン順序を示している。図3のパート(d)は、例示的な逆対角スキャン順序を示している。
図3のパート(e)は、例示的な対角サブブロックスキャン順序を示している。サブブロックスキャン順序では、ビデオエンコーダ20は、大きい変換係数ブロックをサブブロックに分割し得る。図3の例では、サブブロックは破線矩形として示されている。サブブロックの各々について、ビデオエンコーダ20は、特定の順序でサブブロックの変換係数を処理し得る。図3の例では、ビデオエンコーダ20は、上/右対角順序で左上のサブブロック中の変換係数をスキャンし、次いで、上/右対角順序で左下のサブブロック中の変換係数をスキャンし、次いで、上/右対角順序で右上のサブブロック中の変換係数をスキャンし、最後に、上/右対角順序で右下のサブブロック中の変換係数をスキャンする。
他の例では、ビデオエンコーダ20は、変換係数ブロックを4×4サブブロック(または他のサブブロックサイズ)に区分し得る。この例では、ビデオエンコーダ20は、次いで、スキャン順序に従って4×4変換係数ブロックの各々を処理し得る。
LSCを識別した後に、ビデオエンコーダ20は、ブロックベースLSCインジケータを生成し得る。ブロックベースLSCインジケータはLSCの座標を指定する。たとえば、変換係数ブロックが8×8であり、スキャン順序が水平スキャン順序であり、変換係数ブロックの変換係数がそのスキャン順序に従って順序付けられるとき、LSCが10番目の位置で発生するとビデオエンコーダ20が判断する場合、ビデオエンコーダ20は、座標(1,1)を指定するブロックベースLSCインジケータを生成し得る。
ビデオエンコーダ20は、ブロックベースLSCインジケータに対してCABAC符号化演算を実行し得る。いくつかの事例では、エントロピー符号化演算は、ブロックベースLSCインジケータのx座標とy座標との間の統計的関係を活用することが可能であり得るので、ブロックベースLSCインジケータに対してCABAC符号化演算を実行することは、対応するスキャンベースLSCインジケータに対してCABAC符号化演算を実行することよりも効率的であり得る。ビデオエンコーダ20は、符号化ビットストリームにブロックベースLSCインジケータのCABAC符号化バージョンを追加し得る。
LSCを識別した後に、ビデオエンコーダ20は、変換係数ブロックに関連するシンタックス要素を生成し、符号化するために、変換係数ブロックに対して1つまたは複数のコーディングパスを実行し得る。変換係数ブロックに関連するシンタックス要素は、変換係数ブロックのための有意性マップと変換係数についてのレベル情報とを含む。
コーディングパスの各々の中で、ビデオエンコーダ20は、逆スキャン順序に従って変換係数ブロックの変換係数中をスキャンし得る。逆スキャン順序は、LSCを識別するために使用されたスキャン順序の逆であり得る。たとえば、ビデオエンコーダ20が正対角スキャン順序に従ってLSCを識別した場合、逆スキャン順は逆対角スキャン順序であり得る。
第1のコーディングパス中に処理された各変換係数について、ビデオエンコーダ20は、変換係数の順序位置がLSCの順序位置の前に発生するかどうかを判断し得る。変換係数の順序位置がLSCの順序位置の前に発生する場合、ビデオエンコーダ20は、その変換係数が有意であるかどうかを示すシンタックス要素(すなわち、有意性フラグ)を生成し、CABAC符号化し得る。変換係数が非ゼロである場合、変換係数は「有意」であり得る。変換係数がLSCの順序位置の前に発生しない場合、ビデオエンコーダ20は、その変換係数のための有意性フラグを生成せず、CABAC符号化しない。このようにして、ビデオエンコーダ20は、変換係数ブロックのための有意性マップを生成し、CABAC符号化し得る。有意性マップを生成し、CABAC符号化した後に、ビデオエンコーダ20は、ビットストリーム中に有意性マップのCABAC符号化バージョンを含め得る。
いくつかの事例では、LSCの位置と有意性マップのコンテンツとの間に統計的関係があり得る。したがって、ビデオエンコーダ20は、有意性マップの有意性フラグをCABAC符号化する際に使用するための1つまたは複数のコンテキストモデルを選択するためにLSCの位置を使用し得る。
第2のコーディングパス中に処理された各変換係数について、ビデオエンコーダ20は、変換係数が有意であるかどうかを判断し得る。変換係数が有意である場合、ビデオエンコーダ20は、その変換係数の絶対値が1よりも大きいかどうかを示すシンタックス要素(すなわち、1よりも大きいレベルフラグ)を生成し、CABAC符号化し得る。変換係数が有意でない場合、ビデオエンコーダ20は、その変換係数のための1よりも大きいレベルフラグを生成せず、CABAC符号化しない。1よりも大きいレベルフラグを生成し、CABAC符号化した後に、ビデオエンコーダ20は、ビットストリーム中に1よりも大きいレベルフラグのCABAC符号化バージョンを含め得る。
第3のコーディングパス中に、ビデオエンコーダ20は、変換係数の絶対値が2よりも大きいかどうかを示すシンタックス要素(すなわち、2よりも大きいレベルフラグ)を生成し、CABAC符号化し得る。2よりも大きいレベルフラグを生成し、CABAC符号化した後に、ビデオエンコーダ20は、ビットストリーム中に2よりも大きいレベルフラグのCABAC符号化バージョンを含め得る。
第4のコーディングパス中に処理された各変換係数について、ビデオエンコーダ20は、変換係数が有意であるかどうかを判断し得る。変換係数が有意である場合、ビデオエンコーダ20は、変換係数が正であるのか負であるのかを示すシンタックス要素(すなわち、符号フラグ)を生成し得る。変換係数が有意でない場合、ビデオエンコーダ20は、その変換係数のための符号フラグを生成しない。符号フラグを生成した後に、ビデオエンコーダ20は、ビットストリーム中に符号フラグを含め得る。
第5のコーディングパス中に処理された各変換係数について、ビデオエンコーダ20は、変換係数が有意であるかどうかを判断し得る。変換係数が有意である場合、ビデオエンコーダ20は、係数の剰余値(すなわち、レベル剰余要素)を生成し得る。ビデオエンコーダ20は、次いで、剰余値に対応するゴロムライスコードを識別し得る。変換係数のためのゴロムライスコードを識別した後に、ビデオエンコーダ20は、ビットストリーム中にゴロムライスコードを含め得る。変換係数が有意でない場合、ビデオエンコーダ20は、その変換係数のためのレベル剰余要素を生成しない。
変換係数の絶対値(すなわち、レベル)が第2の、第3の、第4の、および第5のコーディングパスによって生成されたシンタックス要素から導出され得るので、これらのシンタックス要素は、変換係数ブロックのレベル情報を構成し得る。
ビデオデコーダ30がビットストリームを受信すると、ビデオデコーダ30は、ビデオエンコーダ20によって実行された符号化演算とは概して逆の復号演算を実行し得る。たとえば、ビデオデコーダ30は、ピクチャの各スライスに対して復号演算を実行し得る。ビデオデコーダ30がピクチャのスライスに対して復号演算を実行するとき、ビデオデコーダ30は、スライス中のツリーブロックに対して復号演算を実行し得る。ビデオデコーダ30がツリーブロックに対する復号演算を完了すると、ビデオデコーダ30は、ツリーブロックに関連するビデオブロック中のサンプルの復号が済んでいる。ビデオデコーダ30がスライスの各ツリーブロックのためのサンプルの復号が済んだとき、ビデオデコーダ30は、スライスのためのサンプルの再構成が済んでいる。
ビデオデコーダ30がツリーブロックに対して復号演算を実行すると、ビデオデコーダ30は、ツリーブロック内の各非区分CUに対して復号演算を実行し得る。上記で説明したように、非区分CUは1つまたは複数のTUに区分され得る。TUの各々は、1つまたは複数の変換係数ブロックに関連付けられる。本開示では、TUは、TUに関連する変換係数ブロックが1つまたは複数の有意変換係数を含む場合、「有意TU」である。
ビデオデコーダ30が、非区分CUに対して復号演算を実行すると、ビデオデコーダ30は、CUの有意TUに関連する変換係数ブロックについての符号化レベル情報と、CUの有意TUに関連する変換係数ブロックの符号化有意性マップと、CUの有意TUに関連する変換係数ブロックの符号化ブロックベースLSCインジケータとを受信し得る。
ビデオエンコーダ20は、スキャン順序に従ってLSCの順序位置の後に発生する変換係数の有意性フラグを生成しないので、ビデオデコーダ30がLSCの順序位置を判断することが可能になるまで、ビデオデコーダ30は、どの変換係数が有意性フラグを有するかを判断することができないことがある。さらに、ビデオエンコーダ20は、非有意係数の1よりも大きいレベルフラグ、2よりも大きいレベルフラグ、符号フラグ、またはレベル残余要素を生成しないので、ビデオデコーダ30が有意性マップを判断することが可能になるまで、ビデオデコーダは、どの変換係数が1よりも大きいレベルフラグ、2よりも大きいレベルフラグ、符号フラグ、またはレベル残余要素を有するかを判断することができないことがある。
したがって、ビデオデコーダ30は、最初に、ブロックベースLSCインジケータをCABAC復号し得る。さらに、ビデオデコーダ30は、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換し得る。ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換した後に、ビデオデコーダ30は、スキャンベースLSCインジケータに基づいて、変換係数ブロックの有意性マップを復号し得る。ビデオデコーダ30は、次いで、変換係数ブロックのレベル情報を復号するために有意性マップを使用し得る。
スキャンベースLSCインジケータは、スキャン順序に従ってLSCの順序位置を示す。LSCの順序位置は、スキャン順序に従って変換係数ブロックをスキャンすることによって形成される一連の変換係数中のLSCの相対位置であり得る。たとえば、変換係数ブロックは、8つの変換係数×8つの変換係数であり得、ブロックベースLSCインジケータは座標(1,1)を指定し得る。この例では、座標(1,1)における変換係数は、変換係数が水平スキャン順序に従って順序付けられるとき、10番目の変換係数であり得る。したがって、この例では、ビデオデコーダ30は、10番目の位置を示すスキャンベースLSCインジケータを生成し得る。
本開示の技法によれば、ビデオデコーダ30は、ブロックベースLSCインジケータをスキャンベースLSCインジケータに効率的に変換し得る。ビデオデコーダ30は、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換するために様々な演算を実行し得る。たとえば、ビデオデコーダ30は、ブロックベースLSCインジケータによって指定された変換座標からスキャンベースLSCインジケータを導出する非反復アルゴリズムを実行し得る。別の例では、ビデオデコーダ30は、ブロックベースLSCインジケータの変換座標をスキャンベースLSCインジケータにマッピングするデータ構造を記憶し得る。この例では、ビデオデコーダ30は、スキャンベースLSCインジケータを生成するために、このデータ構造にアクセスし得る。
ビデオデコーダ30がブロックベースLSCインジケータをスキャンベースLSCインジケータにどのように変換し得るかのさらに別の例では、ビデオデコーダ30は、ループ演算を実行することによって、スキャンベースLSCインジケータを生成し得る。この例では、インジケータは、所与の変換係数ブロックの現在の変換係数を示し得る。ループ演算の各反復中に、ビデオデコーダ30は、現在の変換係数が、ブロックベースLSCインジケータによって指定された座標を有するかどうかを判断し得る。有しない場合、ビデオデコーダ30は、スキャンベースLSCインジケータを増分し、スキャン順序に従って次の変換係数を示すようにインジケータを更新し得る。したがって、この例では、ビデオデコーダ30は、その座標を有する位置に達するまで、スキャン順序に従って所与の変換係数ブロック中の位置中をスキャンするループ演算を実行し、その座標を有する位置より前の所与の変換係数ブロックの位置ごとにスキャンベースLSCインジケータを増分し得る。この例では、スキャン順序は、所与の変換係数がサブブロックに分割されるサブブロックスキャン順序であり得る。ビデオデコーダ30は、サブブロックの1つ中の変換係数の各々中をスキャンし、その後、サブブロックの次の1つ中の変換係数の各々中をスキャンし得る。
いくつかの例では、ビデオデコーダ30は、異なるスキャン順序に基づいて異なる変換演算を使用し得る。言い換えれば、ビデオデコーダ30は、スキャン順序に基づいて変換演算を選択し、選択された変換演算を使用してブロックベースLSCインジケータをスキャンベースLSCインジケータに変換し得る。たとえば、ビデオデコーダ30は、スキャン順序が逆水平スキャン順序であるとき、上記の非反復アルゴリズムを使用し得、ビデオデコーダ30は、スキャン順序が逆対角スキャン順序であるとき、上記のマッピングデータ構造を使用することができる。
別の例では、ビデオデコーダ30は、変換演算の組合せを使用し得る。この例では、ビデオデコーダ30は、変換係数ブロックをサブブロックに分割し得る。ビデオデコーダ30は、サブブロックの座標と、サブブロック内のブロックベースLSCインジケータの座標とを識別するために非反復アルゴリズムを使用し得る。ビデオデコーダ30は、次いで、サブブロックのスキャン順序と、サブブロック内の最後の有意変換係数のスキャン順序とを判断するために別のアルゴリズムを使用し得る。このようにして、ビデオデコーダ30は、スキャンベースLSCインジケータを判断し得る。
図5は、本開示の技法を実装するように構成されるビデオエンコーダ20の例示的な構成を示すブロック図である。図5は、説明のために提供されるものであり、本開示で広く例示し説明する技法を限定するものと見なすべきではない。説明のために、本開示では、HEVCコーディングのコンテキストでビデオエンコーダ20について説明する。ただし、本開示の技法は、他のコーディング規格または方法に適用可能であり得る。
図5の例では、ビデオエンコーダ20は複数の機能構成要素を含む。ビデオエンコーダ20の機能構成要素は、モード選択モジュール40と、動き推定モジュール42と、動き補償モジュール44と、イントラ予測モジュール46と、残差生成モジュール50と、変換モジュール52と、量子化モジュール54と、CABACモジュール56と、逆量子化モジュール58と、逆変換モジュール60と、再構成モジュール62と、復号ピクチャバッファ64とを含む。他の例では、ビデオエンコーダ20は、より多いか、より少ないか、または異なる機能構成要素を含み得る。たとえば、ビデオエンコーダ20は、再構成されたビデオからブロッキネスアーティファクトを除去するために再構成モジュール62の出力をフィルタリングするためのデブロッキングフィルタモジュールを含み得る。さらに、動き推定モジュール42と動き補償モジュール44とは、高度に統合され得るが、図5の例では、説明のために別個に表されている。
ビデオエンコーダ20はビデオデータを受信し得る。様々な例では、ビデオエンコーダ20は、様々なソースからビデオデータを受信し得る。たとえば、ビデオエンコーダ20は、ビデオソース18(図1)または別のソースからビデオデータを受信し得る。ビデオデータは、一連のピクチャを表し得る。ビデオデータを符号化するために、ビデオエンコーダ20は、各一連のピクチャに対して符号化演算を実行し得る。
一連のピクチャに対して符号化演算を実行することの一部として、ビデオエンコーダ20は、一連のピクチャ内の各ピクチャに対して符号化演算を実行し得る。ピクチャに対して符号化演算を実行することの一部として、ビデオエンコーダ20は、ピクチャ中の各スライスに対して符号化演算を実行し得る。スライスに対して符号化演算を実行することの一部として、ビデオエンコーダ20は、スライス中の各ツリーブロックに対して符号化演算を実行し得る。
ツリーブロックに対して符号化演算を実行することの一部として、ビデオエンコーダ20は、ツリーブロックのビデオブロックを1つまたは複数のビデオブロックに区分し得る。ビデオブロックの各々は異なるCUに関連付けられ得る。いくつかの例では、CUのビデオブロックのサイズは、8×8ピクセルから、最大64×64ピクセル以上のツリーブロックのビデオブロックのサイズまで及び得る。本開示では、「N×N(NxN)」および「N×N(N by N)」は、垂直寸法および水平寸法に関するビデオブロックのピクセル寸法、たとえば、16×16(16x16)ピクセルまたは16×16(16 by 16)ピクセルを指すために互換的に使用され得る。概して、16×16ブロックは、垂直方向に16ピクセルを有し(y=16)、水平方向に16ピクセルを有する(x=16)。同様に、N×Nブロックは、概して、垂直方向にNピクセルを有し、水平方向にNピクセルを有し、ただし、Nは非負整数値を表す。変換係数ブロックの次元を示すために同様の表記法が使用され得る。
ツリーブロックに対して符号化演算を実行することの一部として、ビデオエンコーダ20は、ツリーブロックのための階層4分木データ構造を生成し得る。たとえば、ツリーブロックは、4分木データ構造のルートノードに対応し得る。ビデオエンコーダ20が、ツリーブロックのビデオブロックを4つのサブブロックに区分する場合、ルートノードは、4分木データ構造中に4つの子ノードを有する。子ノードは、サブブロックに関連するCUに対応する。ビデオエンコーダ20が、サブブロックのうちの1つを4つのサブサブブロックに区分する場合、そのサブブロックに関連するCUに対応するノードは4つの子ノードを有し、4つの子ノードは、そのサブサブブロックに関連するCUに対応し得る。
4分木データ構造の各ノードは、対応するCUについてのシンタックスデータを与え得る。たとえば、4分木中のノードは、ノードに対応するCUのビデオブロックが4つのサブブロックに区分(すなわち、分割)されるかどうかを示す分割フラグを含み得る。CUのシンタックス要素は、再帰的に定義され得、CUのビデオブロックがサブCUに分割されるかどうかに依存し得る。ビデオブロックが区分されていないCUは、4分木データ構造におけるリーフノードに対応し得る。4分木データ構造におけるリーフノードは、「コーディングノード」と呼ばれることがある。ツリーブロックの符号化バージョンを表すデータは、ツリーブロックのための4分木データ構造に基づくデータを含み得る。
ビデオエンコーダ20は、ツリーブロックの各非区分化CUに対して符号化演算を実行し得る。ビデオエンコーダ20が非区分化CUに対して符号化演算を実行するとき、ビデオエンコーダ20は、非区分化CUの符号化バージョンを表すデータを生成する。
CUに対して符号化演算を実行することの一部として、動き推定モジュール42および動き補償モジュール44は、CUの各PUに対してインター予測を実行する。言い換えると、動き推定モジュール42および動き補償モジュール44は、CUを包含するピクチャ以外の参照ピクチャの復号サンプルに基づいて、CUの各PUについての予測データを生成し得る。インター予測は時間圧縮を与え得る。
ビデオエンコーダ20およびビデオデコーダ30は様々なPUサイズをサポートし得る。特定のCUのサイズが2N×2Nであると仮定すると、ビデオエンコーダ20およびビデオデコーダ30は、2N×2N、N×N、2N×N、またはN×2NのPUサイズをサポートし得る。ビデオエンコーダ20およびビデオデコーダ30は、2N×nU、2N×nD、nL×2N、およびnR×2NというPUサイズのための非対称区分もサポートし得る。いくつかの例では、ビデオエンコーダ20は、CUのビデオブロックの辺と直角を成さない境界に沿ってCUのビデオブロックをCUのPUの間で区分し得る。
動き推定モジュール42は、CUの各PUに関して動き推定演算を実行し得る。動き推定モジュール42がPUに関して動き推定演算を実行すると、動き推定モジュール42は、PUの1つまたは複数の動きベクトルを生成する。たとえば、スライスは、Iスライス、Pスライス、またはBスライスであり得る。動き推定モジュール42および動き補償モジュール44は、CUがIスライス中にあるのか、Pスライス中にあるのか、Bスライス中にあるのかに応じて、CUのPUに対して異なる演算を実行し得る。Iスライス中では、すべてのPU(したがって、CUのすべてのPU)がイントラ予測される。したがって、PUがIスライス中にある場合、動き推定モジュール42および動き推定モジュール44は、PUに対してインター予測を実行しない。
PUがPスライス中にある場合、PUを包含するピクチャは、「リスト0」と呼ばれる参照ピクチャのリストに関連付けられる。リスト0中の参照ピクチャの各々は、復号順序で後続ピクチャのインター予測のために使用され得るサンプルを包含する。動き推定モジュール42が、Pスライス中のPUに関して動き推定演算を実行するとき、動き推定モジュール42は、PUのための参照サンプルを求めて、リスト0中の参照ピクチャを探索する。PUの参照サンプルは、PUのピクセル値に最もぴったり対応するピクセル値のセットであり得る。動き推定モジュール42は、参照ピクチャ中のピクセル値のセットがPUのピクセル値にどのくらいぴったり対応するかを判断するために、様々なメトリックを使用し得る。たとえば、動き推定モジュール42は、絶対値差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of square difference)、または他の差分メトリックによって、参照ピクチャ中のピクセル値のセットがPUのピクセル値にどのくらいぴったり対応するかを判断し得る。
Pスライス中のCUのPUの参照サンプルを識別した後に、動き推定モジュール42は、参照サンプルを包含する、リスト0中の参照ピクチャを示す参照インデックスと、PUと参照サンプルとの間の空間変位を示す動きベクトルとを生成し得る。様々な例では、動き推定モジュール42は、動きベクトルを様々な精度で生成し得る。たとえば、動き推定モジュール42は、1/4ピクセル精度、1/8ピクセル精度、または他の分数ピクセル精度で動きベクトルを生成し得る。動き推定モジュール42は、参照インデックスと動きベクトルとをCABACモジュール56と動き補償モジュール44とに出力し得る。動き補償モジュール44は、参照インデックスとCUのPUの動きベクトルとを使用して、PUの参照サンプルを識別し、取り出し得る。動き補償モジュール44は次いで、PUの参照サンプルのピクセル値を使用して、CUについての予測データを生成し得る。
PUがBスライス中にある場合、PUを包含するピクチャは、「リスト0」および「リスト1」と呼ばれる参照ピクチャの2つのリストに関連付けられ得る。リスト0中の参照ピクチャの各々は、復号順序で後続ピクチャのインター予測のために使用され得るサンプルを包含する。リスト1中の参照ピクチャは、復号順序ではピクチャの前だが、プレゼンテーション順序ではピクチャの後に発生し得る。いくつかの例では、Bスライスを包含するピクチャは、リスト0とリスト1の組合せである、リストの組合せに関連付けられ得る。
さらに、CUがBスライス中にある場合、動き推定モジュール42は、CUのPUのための単方向予測または双方向予測を実行し得る。動き推定モジュール42が、PUのための単方向予測を実行するとき、動き推定モジュール42は、PUのための参照サンプルを求めてリスト0またはリスト1の参照ピクチャを探索し得る。動き推定モジュール42は、次いで、参照サンプルを包含する、リスト0またはリスト1中の参照ピクチャを示す参照インデックスと、PUと参照サンプルとの間の空間変位を示す動きベクトルとを生成し得る。動き推定モジュール42は、参照インデックスとCUのPUの動きベクトルとをCABACモジュール56と動き補償モジュール44とに出力し得る。動き補償モジュール44は、参照インデックスとCUのPUの動きベクトルとを使用して、PUの参照サンプルを識別し、取り出し得る。動き補償モジュール44は、次いで、PUの参照サンプルのピクセル値を使用して、CUのPUのための予測ビデオブロックを生成し得る。
動き推定モジュール42が、PUのための双方向予測を実行するとき、動き推定モジュール42は、PUのための参照サンプルを求めてリスト0中の参照ピクチャを探索し得、また、PUのための別の参照サンプルを求めてリスト1中の参照ピクチャを探索し得る。動き推定モジュール42は、次いで、参照サンプルを示す参照インデックスと、参照サンプルとPUとの間の空間変位を示す動きベクトルとを生成し得る。動き推定モジュール42は、参照インデックスと動きベクトルとをCABACモジュール56と動き補償モジュール44とに出力し得る。動き補償モジュール44は、参照インデックスと動きベクトルとを使用して、PUの参照サンプルを識別し、取り出し得る。動き補償モジュール44は、次いで、CUのPUの参照サンプル中のピクセル値から、CUのPUの予測ビデオブロックのピクセル値を補間し得る。
CUに対して符号化演算を実行することの一部として、イントラ予測モジュール46は、CUのPUに対してイントラ予測を実行し得る。言い換えれば、イントラ予測モジュール46は、CUと同じスライス中の復号ピクセル値に基づいて、CUのPUについての予測データを生成し得る。イントラ予測は空間圧縮を与え得る。
PUに対してイントラ予測を実行するために、イントラ予測モジュール46は、複数のイントラ予測モードを使用して、PUについての予測データの複数のセットを生成し得る。イントラ予測モジュール46が、イントラ予測モードを使用して、PUについての予測データのセットを生成するとき、イントラ予測モジュール46は、イントラ予測モードに関連する方向および/または勾配で、PUのビデオブロックを超えて隣接PUからピクセル値を展開し得る。PU、CU、およびツリーブロックのための左から右、上から下の符号化順序を仮定すると、隣接PUは、PUの上、右上、左上、または左にあり得る。イントラ予測モジュール46は、PUのサイズに応じて、様々な数のイントラ予測モード、たとえば、33個の方向性イントラ予測モードを使用し得る。
イントラ予測モジュール46は、PUについての予測データのセットのうちの1つを選択し得る。様々な例では、イントラ予測モジュール46は、PUについての予測データのセットを様々な方法で選択し得る。たとえば、イントラ予測モジュール46は、予測データのセットのためのひずみおよびビットレートの比較に基づき、ひずみレートが最も低い予測データのセットを選択することによって、PUについての予測データのセットを選択し得る。
モード選択ユニット40は、CUのPUについての、動き補償モジュール44によって生成された予測データのセット、またはCUのPUについての、イントラ予測ユニット46によって生成された予測データのセットの中から、CUのPUについての予測データを選択し得る。いくつかの例では、モード選択ユニット40は、予測データのセットのエラー(すなわち、ひずみ)とビットレートとに基づいて、CUのPUについての予測データを選択する。
モード選択ユニット40がCUのPUについての予測データを選択した後、残差生成モジュール50は、CUの元のビデオブロックのピクセル値から、CUのPUの選択された予測データの予測ビデオブロックのピクセル値を減算することによって、CUについての残差データを生成し得る。CUの残差データは、CU中のビデオブロックの異なるピクセル成分に対応する2D残差ブロックを含み得る。たとえば、残差データは、CUの予測ビデオブロック中のルミナンス構成要素と、CUの元のビデオブロック中のピクセルのルミナンス構成要素との間の差に対応する残差ビデオブロックを含み得る。さらに、CUの残差データは、CUのPUの予測ビデオブロック中のピクセルのクロミナンス構成要素と、CUの元のビデオブロック中のピクセルのクロミナンス構成要素との間の差に対応する残差ビデオブロックを含み得る。
上記で説明したように、CUは1つまたは複数のTUを有し得る。CUの各TUは、CUの残差データ内の異なるビデオブロックに対応し得る。CUのTUに関連するビデオブロックのサイズは、CUのPUのビデオブロックのサイズに基づくことも、基づかないこともある。いくつかの例では、CUの残差データは、「残差4分木」(RQT:residual quad tree)として知られる4分木構造を使用してより小さいビデオブロックに再分割され得る。TUは、RQTのリーフノードに対応し得る。
変換モジュール52は、TUに対応する残差ビデオブロックに変換を適用することによって、CUのTUごとに変換係数ブロックを生成し得る。変換係数ブロックの各々は、変換係数の2D行列であり得る。様々な例では、変換モジュール52は、TUに対応する残差ビデオブロックに様々な変換を適用し得る。たとえば、変換モジュールは、離散コサイン変換(DCT:discrete cosine transform)、方向変換、または概念的に同様の変換を適用し得る。変換モジュール52が、TUのための変換係数ブロックを生成した後、量子化モジュール54は、変換係数ブロック中の変換係数を量子化し得る。
CABACモジュール56は、量子化モジュール54から変換係数ブロックを受信し得る。CABACモジュール56が変換係数ブロックを受信すると、CABACモジュール56は、変換係数ブロックのための有意性マップとブロックベースLSCインジケータとを生成し得る。ブロックベースLSCインジケータは、変換係数ブロックの最後の有意変換係数の変換係数ブロック中の座標を示し得る。CABACモジュール56はまた、変換係数ブロックについてのレベル情報を生成し得る。上記で説明したように、変換係数ブロックについてのレベル情報は、一連の1よりも大きいレベルフラグと、一連の2よりも大きいレベルフラグと、一連の符号フラグと、一連のレベル残余要素とを含み得る。
CABACモジュール56は、有意性マップと、ブロックベースLSCインジケータと、1よりも大きいレベルフラグと、2よりも大きいレベルフラグとに対してCABAC符号化演算を実行し得る。さらに、CABACモジュール56は、動きベクトルまたは動きベクトル差分情報などの他のシンタックス要素と、ビデオデコーダ30においてビデオデータを復号する際に有用な様々な他のシンタックス要素のいずれかとに対してCABAC符号化演算を実行し得る。
逆量子化モジュール58および逆変換モジュール60は、変換係数ブロックに、それぞれ、逆量子化および逆変換を適用して、変換係数ブロックから残差ビデオブロックを再構成し得る。再構成モジュール62は、動き補償モジュール44またはイントラ予測モジュール46によって生成された1つまたは複数の予測ビデオブロックのピクセル値に、再構成された残差ビデオブロックを追加して、復号ピクチャバッファ64に記憶するための再構成ビデオブロックを生成し得る。動き推定モジュール42および動き補償モジュール44は、再構成されたビデオブロックを包含する参照ピクチャを使用して、後続ピクチャのCUに対してイントラ予測またはインター予測を実行し得る。
図6は、ビデオデコーダ30の例示的構成を示すブロック図である。図6は、説明のために提供されるものであり、本開示で広く例示し説明する技法を限定するものではない。説明のために、本開示では、HEVCコーディングのコンテキストでビデオデコーダ30について説明する。ただし、本開示の技法は、他のコーディング規格または方法に適用可能であり得る。
図6の例では、ビデオデコーダ30は、複数の機能構成要素を包含する。ビデオデコーダ30の機能構成要素は、パースモジュール70と、動き補償モジュール72と、イントラ予測モジュール74と、逆量子化モジュール76と、逆変換モジュール78と、再構成モジュール80と、復号ピクチャバッファ82とを包含する。いくつかの例では、ビデオデコーダ30は、図5のビデオエンコーダ20に関して説明した符号化パスとは概して逆の復号パスを実行し得る。他の例では、ビデオデコーダ30は、より多いか、より少ないか、または異なる機能構成要素を含み得る。たとえば、ビデオデコーダ30は、再構成されたビデオからブロッキネスアーティファクトを除去するために再構成モジュール80の出力をフィルタリングするためのデブロッキングフィルタを含み得る。
ビデオデコーダ30は、符号化ビデオデータを備えるビットストリームを受信し得る。ビットストリームは複数のシンタックス要素を含み得る。ビデオデコーダ30がビットストリームを受信すると、パースモジュール70は、そのビットストリームに対してパース演算を実行し得る。ビットストリームに対してパース演算を実行した結果、パースモジュール70は、ビットストリームからシンタックス要素を抽出し得る。パース演算を実行することの一部として、パースモジュール70は、ビットストリーム中の様々なCABAC符号化シンタックス要素をCABAC復号し得る。動き補償モジュール72と、イントラ予測モジュール74と、逆量子化モジュール76と、逆変換モジュール78とは、ビットストリームから抽出されたシンタックス要素に基づいて復号ビデオデータを生成する再構成演算を実行し得る。
ビットストリームは、変換係数ブロックのブロックベースLSCインジケータと、変換係数ブロックの有意性マップと、変換係数ブロックについてのレベル情報とを表すデータを含み得る。パース演算を実行することの一部として、パースモジュール70はブロックベースLSCインジケータをCABAC復号し得る。パースモジュール70は、次いで、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換し得る。スキャン順序は、符号化ビットストリーム中でシグナリングされ得るか、あるいは1つまたは複数のシンタックス要素またはパラメータからパースモジュール70によって推論され得る。
ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換した後に、パースモジュール70は、ビットストリームから有意性マップをパースするためにスキャンベースLSCインジケータを使用し得る。たとえば、パースモジュール70は、スキャンベースLSCインジケータに基づいて、変換係数ブロックの有意性マップが変換係数の有意性フラグを含むかどうかを判断し得る。さらに、いくつかの例では、パースモジュール70は、スキャンベースLSCインジケータに基づいてコンテキストモデルを選択し得る。パースモジュール70は、有意性マップを復号するCABAC復号演算中に、選択されたコンテキストモデルを使用し得る。パースモジュール70は、ビットストリームから変換係数ブロックのレベル情報をパースするために有意性マップを使用し得る。
ブロックベースLSCインジケータをスキャンベースLSCインジケータに効率的な方法で変換することが望ましいことがある。本開示の技法によれば、パースモジュール70は、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換するために様々な演算を実行し得る。たとえば、パースモジュール70は、ブロックベースLSCインジケータによって指定された座標からスキャンベースLSCインジケータを導出する非反復アルゴリズムを実行し得る。以下で詳細に説明する図9および図10は、ブロックベースLSCインジケータによって指定された座標からスキャンベースLSCインジケータを導出し得る例示的な非反復アルゴリズムのフローチャートである。別の例では、パースモジュール70は、座標をスキャンベースLSCインジケータにマッピングするデータ構造を記憶し得る。この例では、パースモジュール70は、スキャンベースLSCインジケータを生成するために、このデータ構造にアクセスし得る。以下で詳細に説明する図11は、ビデオデコーダ30が、ブロックベースLSCインジケータをスキャンベースLSCインジケータにマッピングするデータ構造にアクセスすることに少なくとも部分的によって、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換する例示的な動作を示す。さらに別の例では、パースモジュール70は、ブロックベースLSCインジケータによって指定された座標を有する変換係数に達するまで、正スキャン順序に従って変換係数ブロック中の位置中をスキャンするループ動作を実行することによって、スキャンベースLSCインジケータを生成し得る。以下で詳細に説明する図12は、ビデオデコーダ30が、そのようなループ動作を実行することによってブロックベースLSCインジケータをスキャンベースLSCインジケータに変換する例示的な反復動作を示す。
いくつかの例では、パースモジュール70は、異なるスキャン順序に基づいて異なる変換演算を使用し得る。たとえば、パースモジュール70は、スキャン順序が垂直スキャン順序であるとき、上記の非反復アルゴリズムを使用し得、パースモジュール70は、スキャン順序がジグザグスキャン順序であるとき、上記のマッピングデータ構造を使用し得る。
パースモジュール70が変換係数ブロックを復号した後、逆量子化モジュール76は、変換係数ブロックを逆量子化(inverse quantize)、すなわち、逆量子化(de-quantize)し得る。逆量子化モジュール76は、HEVCのために提案された、またはH.264復号規格によって定義された逆量子化プロセスと同様の方法で変換係数ブロックを逆量子化し得る。逆量子化モジュール76は、量子化の程度を判断し、同様に、逆量子化モジュール76が適用すべき逆量子化の程度を判断するために、変換係数ブロックのCUのためにビデオエンコーダ20によって計算された量子化パラメータQPYを使用し得る。
逆量子化モジュール76が変換係数ブロックを逆量子化した後、逆変換モジュール78は、変換係数ブロックに関連するTUのための残差ビデオブロックを生成し得る。逆変換モジュール78は、変換係数ブロックに逆変換を適用することに少なくとも部分的によって、TUのための残差ビデオブロックを生成し得る。たとえば、逆変換モジュール78は、変換係数ブロックに、逆DCT、逆整数変換、逆カルーネンレーベ変換(KLT:Karhunen-Loeve transform)、逆回転変換、逆方向変換、または別の逆変換を適用し得る。いくつかの例では、逆変換モジュール78は、ビデオエンコーダ20からのシグナリングに基づいて、変換係数ブロックに適用すべき逆変換を判断し得る。そのような例では、逆変換モジュール78は、変換係数ブロックに関連するツリーブロックのための4分木のルートノードにおいてシグナリングされた変換に基づいて逆変換を判断し得る。他の例では、逆変換モジュール78は、ブロックサイズ、コーディングモードなど、1つまたは複数のコーディング特性から逆変換を推論し得る。いくつかの例では、逆変換モジュール78はカスケード逆変換を適用し得る。
動き補償モジュール72は、動き補償を実行して、CUのPUについての予測データを生成し得る。いくつかの例では、動き補償モジュール72は、補間フィルタに基づいて補間を実行することによって、PUについての予測データを改善し得る。サブピクセル精度での動き補償のために使用されるべき補間フィルタの識別子は、シンタックス要素中に含まれ得る。動き補償モジュール72は、PUの予測データの生成中にビデオエンコーダ20によって使用される同じ補間フィルタを使用して、参照ブロックのサブ整数サンプルの補間値を計算し得る。動き補償モジュール72は、受信したシンタックス情報に従って、ビデオエンコーダ20によって使用された補間フィルタを判断し、その補間フィルタを使用して予測データを生成し得る。
動き補償モジュール72およびイントラ予測モジュール74は、HEVCの例では、(たとえば、4分木によって与えられる)シンタックス情報の一部を使用して、符号化ビデオシーケンスの(1つまたは複数の)フレームを符号化するために使用されるツリーブロックのサイズと、符号化ビデオシーケンスのフレームの各CUのビデオブロックがどのように分割されるか(および、同様に、サブブロックがどのように分割されるか)を記述する分割情報と、各PUがどのように符号化されるかを示すモード(たとえば、イントラ予測またはインター予測、およびイントラ予測の場合はイントラ予測符号化モード)と、各インター予測CUについての1つまたは複数の参照フレーム(および/またはそれらの参照フレームの識別子を包含する参照リスト)と、符号化ビデオシーケンスを復号するための他の情報とを判断し得る。
再構成モジュール80は、CUの残差ビデオブロックを、動き補償モジュール72またはイントラ予測モジュール74によって生成されたCUのPUの対応する予測ビデオブロックと組み合わせて、復号ビデオブロックを形成する。いくつかの例では、ビデオデコーダ30は、復号ビデオからブロッキネスアーティファクトを取り除くために復号ビデオブロックをフィルタリングするためにデブロッキングフィルタを適用し得る。復号ピクチャバッファ82は復号ビデオブロックを記憶する。復号ピクチャバッファ82は、その後の動き補償のための参照ピクチャを与え得、また、図1のディスプレイデバイス32などのディスプレイデバイス上での提示のためのピクチャを記憶し得る。
図7は、ビデオエンコーダ20によって実行される例示的な動作100を示すフローチャートである。CABACモジュール56が動作100を開始した後、ビデオエンコーダ20は、スキャン順序に従って変換係数ブロックのLSCを識別する(102)。ビデオエンコーダ20が変換係数ブロックのLSCを識別した後、ビデオエンコーダ20は、変換係数ブロックの識別されたLSCの座標を示すブロックベースLSCインジケータを生成する(104)。
ブロックベースLSCインジケータを生成した後に、ビデオエンコーダ20は、ブロックベースLSCインジケータに対してCABAC符号化演算を実行する(106)。様々な例では、ビデオエンコーダ20は、ブロックベースLSCインジケータに対してCABAC符号化演算を様々な方法で実行し得る。たとえば、いくつかの例では、ビデオエンコーダ20は、最初に、ブロックベースLSCインジケータの各座標をバイナリコードに変換し得る。言い換えれば、ビデオエンコーダ20は、ブロックベースLSCインジケータの座標を「2値化」し得る。座標を2値化した後に、ビデオエンコーダ20は、ブロックベースLSCインジケータのy座標を表すバイナリコードを符号化するためのコンテキストモデルを選択し得る。いくつかの事例では、ビデオエンコーダ20は、ブロックベースLSCインジケータのx座標に基づいて、y座標を表すバイナリコードを符号化するためのコンテキストモデルを選択し得る。ビデオエンコーダ20は、y座標を表すバイナリコードの1つまたは複数のビンを符号化するとき、選択されたコンテキストモデルを使用し得る。同様に、ビデオエンコーダ20は、ブロックベースLSCインジケータのy座標に基づいて、ブロックベースLSCインジケータのx座標を表すバイナリコードを符号化するためのコンテキストモデルを選択し得る。ビデオエンコーダ20は、x座標を表すバイナリコードの1つまたは複数のビンを符号化するとき、選択されたコンテキストモデルを使用し得る。
ブロックベースLSCインジケータのx座標とy座標との間に統計的関係があり得る。たとえば、有意変換係数は、変換係数ブロックのDC変換係数の周りに集まる傾向がある。したがって、x座標がDC変換係数に比較的近接している場合、y座標もDC変換係数に比較的近接している可能性があり、その逆も同様である。x座標に基づいてy座標のためのコンテキストモデルを選択することによって、ビデオエンコーダ20は、y座標のためのコンテキストモデルをより正確に選択するためにこの統計的関係を活用することが可能であり得る。同様に、y座標に基づいてx座標のためのコンテキストモデルを選択することによって、ビデオエンコーダ20は、x座標のためのコンテキストモデルをより正確に選択するためにこの統計的関係を活用することが可能であり得る。
いくつかの例では、ビデオエンコーダ20は、x座標およびy座標のためのシンボルのエントロピー符号化演算をインターリーブし得る。たとえば、ビデオエンコーダ20は、最初に、x座標の第1のシンボルに対してエントロピー符号化演算を実行し得る。ビデオエンコーダ20がx座標を単項数として表すと仮定すると、x座標の第1のシンボルは、x座標が0である場合は0になり、そうでない場合は1になる。x座標の第1のシンボルを符号化した後に、ビデオエンコーダ20は、y座標の第1のシンボルに対してエントロピー符号化演算を実行し得る。ビデオエンコーダ20は、x座標の第1のシンボルの値に応じて、y座標の第1のシンボルを符号化するために異なるコンテキストを使用し得る。次いで、x座標が0よりも大きい場合、ビデオエンコーダ20は、x座標の第2のシンボルに対してエントロピー符号化演算を実行し得る。ビデオエンコーダ20は、y座標の第1のシンボルの値に応じて、x座標の第2のシンボルを符号化するために異なるコンテキストを使用し得る。ビデオエンコーダ20がx座標およびy座標のシンボルの各々を符号化するまで、ビデオエンコーダ20は、x座標およびy座標のシンボルの符号化を継続し得る。
いくつかの例では、ビデオエンコーダ20は、スキャン順序を使用して変換係数ブロックから別の2D変換係数ブロックに変換係数をマッピングし得る。たとえば、他の2D変換係数ブロックは、8つの位置の幅であり得る。この例では、ビデオエンコーダ20は、スキャン順序によって判断された変換係数ブロックの第1の8つの変換係数を他の2D変換係数ブロックの第1の行にマッピングし、スキャン順序によって判断された変換係数ブロックの第2の8つの変換係数を他の2D変換係数ブロックの第2の行にマッピングし、以下同様に行い得る。この例では、ビデオエンコーダ20は、次いで、スキャン順序に従って他の2D変換係数ブロックの最後の有意変換係数を識別し、他の2Dブロックの最後の有意変換係数を示すブロックベースLSCインジケータを生成し得る。この例では、より低い行番号と変換係数が有意である確率との間に統計的関係が存在し得る。たとえば、変換係数が有意である確率は、高い行番号でよりも、低い行番号でより高くなり得る。ビデオエンコーダ20は、ブロックベースLSCインジケータに対してエントロピー符号化演算を実行するとき、この統計的関係を活用し得る。たとえば、ビデオエンコーダ20は、最初に、y座標に対してエントロピー符号化演算を実行し、次いで、x座標に対してエントロピー符号化演算を実行し得る。ビデオエンコーダ20がx座標に対してエントロピー符号化演算を実行するとき、ビデオエンコーダ20は、y座標に基づいてコンテキストモデルを選択し得る。
さらに、ビデオエンコーダ20は、変換係数ブロックのための有意性マップを生成する(108)。いくつかの例では、ビデオエンコーダ20は、有意性マップを生成し、並行して変換係数ブロックのLSCを識別し得る。
様々な例では、ビデオエンコーダ20は、様々な方法で有意性マップを生成し得る。たとえば、ビデオエンコーダ20は、逆スキャン順序に従って変換係数の各々を処理するコーディングパスを実行し得る。逆スキャン順序は、LSCを識別するために使用されたスキャン順序の逆であり得る。他の例では、ビデオエンコーダ20は、LSCを識別するためにビデオエンコーダ20が使用するのと同じスキャン順序を使用して、変換係数ブロックのための有意性マップを生成し得る。コーディングパス中に処理された各変換係数について、スキャン順序による変換係数の順序位置がスキャン順序によるLSCの順序位置の前にある場合、ビデオエンコーダ20は、変換係数の有意性フラグを生成し、CABAC符号化し得る。
別の例では、ビデオエンコーダ20は、有意性マップとして働く2Dブロックを生成し得る。この例では、ビデオエンコーダ20は変換係数ブロック中をスキャンし得る。ビデオエンコーダ20が変換係数ブロック中をスキャンするとき、ビデオエンコーダ20は、変換係数ブロックの対応する変換係数が有意であるのかまたは有意でないのかを2D有意性マップ中で示し得る。
さらに、ビデオエンコーダ20は、有意性マップに対してCABAC符号化演算を実行する(110)。いくつかの例では、ビデオエンコーダ20は、ステップ108および110をインターリーブし得る。たとえば、ビデオエンコーダ20は、第1の変換係数の有意性フラグを生成し得る。ビデオエンコーダ20は、次いで、第1の変換係数の有意性フラグに対してCABAC符号化演算を実行し得る。第1の変換係数の有意性フラグに対してCABAC符号化演算を実行した後に、ビデオエンコーダ20は、第2の変換係数の有意性フラグを生成し、次いで、第2の変換係数の有意性フラグに対してCABAC符号化演算を実行し、以下同様に行い得る。
ビデオエンコーダ20は、有意性マップに対してCABAC符号化演算を様々な方法で実行し得る。たとえば、ビデオエンコーダ20は、変換係数ブロックのLSCに基づいてコンテキストモデルを選択し得る。LSCの位置と有意性マップの(逆スキャン順序で)次の有意性フラグの値との間に統計的関係があり得る。たとえば、ビデオエンコーダ20が逆スキャン順序を使用して有意性マップを生成し、変換係数ブロックのLSCが変換係数ブロックのDC変換係数から比較的離れている場合、次の有意性フラグが1である確率は、変換係数ブロックのLSCが変換係数ブロックのDC変換係数に比較的近い場合よりも比較的大きい。変換係数ブロックのLSCに基づいてコンテキストモデルを選択することによって、ビデオエンコーダ20は、有意性マップを符号化するためのコンテキストモデルをより正確に選択するために、この統計的関係を活用することが可能であり得る。有意性マップのためのコンテキストモデルを選択した後に、ビデオエンコーダ20は、有意性マップの1つまたは複数の有意性フラグをCABAC符号化するためにコンテキストモデルを使用し得る。有意性マップに対するCABAC符号化演算中に、ビデオエンコーダ20は、有意性マップの後続の有意性フラグをCABAC符号化するために1つまたは複数の他のコンテキストモデルを使用し得る。
他の例では、ビデオエンコーダ20は、LSCと有意性マップとの間の統計的関係を他の方法で活用し得る。たとえば、ビデオエンコーダ20は、LSCの順序位置が所与のしきい値よりも大きい場合は、コンテキストの1つのセットを使用して有意性マップをCABAC符号化し、LSCの順序位置が所与のしきい値よりも大くない場合は、コンテキストの別のセットを使用して有意性マップを符号化し得る。異なるコンテキストをこのようにして使用することはコーディング効率を改善し得る。
別の例では、ビデオエンコーダ20は、変換係数をグループ化することによってLSCと有意性マップとの間の統計的関係を活用し得る。たとえば、この例では、ビデオエンコーダ20は、3つの変換係数を一緒にグループ化し、得られたグループを単一の変換係数として符号化し得る。したがって、ビデオエンコーダ20は、一度に3つの変換係数を符号化し得る。グループ中の3つすべての変換係数が0である場合、ビデオエンコーダ20は、3つの変換係数を0として符号化し得る。そうでない場合、ビデオエンコーダ20は、1フラグと、3つの対応する変換係数のうちのどれが有意であるかを示すフラグとを生成し得る。
いくつかの事例では、変換係数ブロックの有意変換係数のすべては、変換係数ブロックの左上隅の小さい領域内に位置し得る。たとえば、変換係数ブロックの有意変換係数のすべては、変換係数ブロックの左上隅の4x4領域内に位置し得る。そのような場合、ブロックベースLSCインジケータを使用するよりもスキャンベースLSCインジケータを使用したほうが変換係数ブロックのLSCを示すために必要なビットが少なくて済み得る。したがって、いくつかの例では、有意変換係数のすべてが領域内にあるとき、ビデオエンコーダ20は、ブロックベースLSCインジケータの代わりにスキャンベースLSCインジケータを生成し得る。そのような例では、変換係数ブロックが領域外に1つまたは複数の有意変換係数を含む場合、ビデオエンコーダ20はブロックベースLSCインジケータを生成し得る。さらに、いくつかのそのような例では、ビデオエンコーダ20は、LSCがブロックベースLSCインジケータを使用して示されるのか、スキャンベースLSCインジケータを使用して示されるのかを示すために、ビットストリーム中にフラグを含め得る。
さらに、ビデオエンコーダ20は、変換係数ブロック中の変換係数についてのレベル情報を生成する(112)。上記で説明したように、変換係数についてのレベル情報は、1よりも大きいレベルフラグと、2よりも大きいレベルフラグと、符号フラグと、レベル残余要素とを含み得る。
さらに、ビデオエンコーダ20は、変換係数についてのレベル情報のうちの少なくともいくつかに対してCABAC符号化演算を実行する(114)。いくつかの例では、ビデオエンコーダ20は、ステップ112および114をインターリーブし得る。たとえば、ビデオエンコーダ20は、1よりも大きいレベルフラグと、2よりも大きいレベルフラグと、符号フラグと、レベル残余要素とに対して別個のコーディングパスを実行し得る。1よりも大きいレベルフラグのためのコーディングパス中に、ビデオエンコーダ20は、第1の変換係数の1よりも大きいレベルフラグを生成し、CABAC符号化し、次の変換係数の1よりも大きいレベルフラグを生成し、CABAC符号化し、以下同様に行い得る。同様に、2よりも大きいレベルフラグのためのコーディングパス中に、ビデオエンコーダ20は、第1の変換係数の2よりも大きいレベルフラグを生成し、CABAC符号化し、次の変換係数の2よりも大きいレベルフラグを生成し、CABAC符号化し、以下同様に行い得る。符号フラグのためのコーディングパス中に、ビデオエンコーダ20は、第1の変換係数の符号フラグを生成し、次の変換係数の符号フラグを生成し、以下同様に行い得る。この例では、ビデオエンコーダ20は符号フラグをCABAC符号化しない。レベル残余要素のためのコーディングパス中に、ビデオエンコーダ20は、レベル残余要素を生成し、第1の変換係数のための対応するゴロムライスコードを識別し、レベル残余要素を生成し、次の変換係数のための対応するゴロムライスコードを識別し、以下同様に行い得る。この例では、変換係数フラグが有意でない場合、ビデオエンコーダ20は、その変換係数のための1よりも大きいレベルフラグ、2よりも大きいレベルフラグ、符号フラグ、またはレベル残余要素を生成しないことがある。
いくつかの例では、ビデオエンコーダ20が変換係数のレベル情報を2値化するとき、2値化レベル情報の第1のビンは、変換係数が有意であるかどうかを示し得る。したがって、そのような例では、ステップ108において有意性マップを生成することは、ステップ112においてレベル情報を生成することの一部であり得、ステップ110において有意性マップをCABAC符号化することは、ステップ114においてレベル情報をCABAC符号化することの一部であり得る。
図8は、変換係数ブロックを復号する例示的な動作130を示すフローチャートである。ビデオデコーダ30が動作130を開始した後、ビデオデコーダ30は、TUに関連する変換係数ブロックのブロックベースLSCインジケータと、変換係数ブロックのための有意性マップと、変換係数ブロックについてのレベル情報とを表すデータを備えるビットストリームを受信する(132)。ビットストリームは他の符号化ビデオデータを備え得る。
ブロックベースLSCインジケータを表すデータを受信した後に、ビデオデコーダ30は、符号化ブロックベースLSCインジケータを復号するためにCABAC復号演算を実行する(134)。したがって、CABAC復号演算を実行することによって、ビデオデコーダ30は、符号化ビデオデータのビットストリームから、変換係数のブロックのLSCのブロックベースLSCインジケータを受信し得る。
ビデオデコーダ30が、CABAC復号演算を実行してブロックベースLSCインジケータを復号した後、ビデオデコーダ30は、変換演算を選択する(135)。いくつかの例では、ビデオデコーダ30は、スキャン順序に基づいて変換演算を選択し得る。ビデオデコーダ30は、次いで、選択された変換演算を使用して、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換する(136)。様々な例では、ビデオデコーダ30は、ブロックベースLSCインジケータをスキャンベースLSCインジケータに様々な方法で変換し得る。たとえば、ビデオデコーダ30は、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換するために、図9〜図12に示す例示的な動作を使用し得る。他の例では、ビデオデコーダ30は、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換するために、図9〜図12の例示的な動作のうちの1つまたは複数の組合せを実行し得る。さらに、さらに他の例では、ビデオデコーダ30は、ブロックベースLSCインジケータを復号した後に変換演算を選択しない。むしろ、いくつかのそのような例では、ビデオデコーダ30は単に、1つの特定の変換演算を実行するように構成され得る。
その後、ビデオデコーダ30は、スキャンベースLSCインジケータを使用して、変換係数ブロックの有意性マップを復号する(138)。ビデオデコーダ30は、スキャンベースLSCインジケータを使用して、有意性マップを様々な方法で復号し得る。
たとえば、ビデオエンコーダ20は、コーディング順序でLSCの後に発生する変換係数の有意性フラグを符号化しないことがある。したがって、有意性マップ中の有意性フラグの数は、変換係数ブロックの間で異なることがある。有意性フラグの数が異なることがあるので、ビデオデコーダ30は、変換係数ブロックのサイズに基づいて、何個の有意性フラグが変換係数ブロックの有意性マップ中にあるかを判断することができないことがある。したがって、ビデオデコーダ30が有意性マップを復号するとき、ビデオデコーダ30は、ビットストリームからの有意性マップの有意性フラグのすべてをビデオデコーダ30がパースしたかどうかを判断することができる必要があり得る。したがって、ビットストリームからパースされた有意性フラグの数がLSCの順序位置(すなわち、スキャンベースLSCインジケータによって示された位置)に等しくなるまで、ビデオデコーダ30は、ビットストリームからの有意性フラグのパースを継続し得る。このようにして、ビデオデコーダ30は、スキャンベースLSCインジケータを使用して、有意性マップが変換係数ブロックの変換係数の有意性フラグを含むかどうかを判断し得る。
別の例では、スキャンベースLSCインジケータは、復号されるべき有意変換係数を示すビンの数を示し得る。さらに、上記で説明したように、スキャン順序でLSCより前に発生する変換係数の数と、有意性マップのビンが1または0である確率との間に統計的関係があり得る。スキャンベースLSCインジケータは、スキャン順序でLSCより前に発生する変換係数の数を示す。したがって、ビデオデコーダ30は、スキャンベースLSCインジケータに基づいて、複数の利用可能なコンテキストモデルの中からコンテキストモデルを選択し得る。ビデオデコーダ30は、次いで、有意性マップの1つまたは複数のビンを復号するために選択されたコンテキストモデルを使用し得る。有意性マップに対するCABAC復号演算中に、ビデオデコーダ30は、1つまたは複数の他のコンテキストモデルに切り替え得る。
いくつかの例では、変換係数ブロックは複数のサブブロックを含み得る。ビデオデコーダ30は、スキャンベースLSCインジケータに基づいて、複数のサブブロックの中から最後の有意サブブロックを識別し、最後の有意サブブロックはLSCを含み得る。さらに、ビデオデコーダ30は、最後の有意サブブロックと、サブブロックのうち、最後の有意サブブロックで開始する第1の逆スキャン順序に従って最後の有意サブブロックの前に発生するサブブロックとを処理する第1のコーディングパスを実行し得る。第1のコーディングパス中に処理されたサブブロックの各々について、ビデオデコーダ30は、第2の逆スキャン順序に従ってサブブロック中の変換係数を処理する第2のコーディングパスを実行し得る。第2の逆スキャン順序は、第1の逆スキャン順序と同じであるか、またはそれとは異なり得る。第2のコーディングパス中に処理された各変換係数について、ビデオデコーダ30は、スキャンベースLSCインジケータに基づいて、有意性マップが変換係数の有意性フラグを含むかどうかを判断し得る。
ビデオデコーダ30が、変換係数ブロックのための有意性マップを復号した後、ビデオデコーダ30は、変換係数ブロックのレベル情報に対して復号演算を実行する(140)。たとえば、変換係数ブロックのレベル情報は、1よりも大きいレベルフラグと、2よりも大きいレベルフラグと、符号フラグと、レベル残余要素とを含み得る。1よりも大きいレベルフラグと2よりも大きいレベルフラグとはCABAC符号化され得、レベル残余要素はゴロムライスコードとして符号化され得る。この例では、ビデオデコーダ30は、1よりも大きいレベルフラグと2よりも大きいレベルフラグとを復号するためにCABAC復号演算を実行し得、ゴロムライスコードをレベル残余要素に変換し戻し得る。
さらに、ビデオデコーダ30は、有意性マップと、スキャンベースLSCインジケータと、変換係数ブロックの変換係数レベル情報とを使用して、変換係数ブロックについてのレベル情報から変換係数ブロックを再構成する(142)。いくつかの例では、ビデオデコーダ30は、ステップ140および142をインターリーブし得る。たとえば、ビデオデコーダ30は、2次元アレイで変換係数を記憶し得る。この例では、ビデオデコーダ30がステップ140においてレベル情報を復号するとき、ビデオデコーダ30は、アレイ中の変換係数を追加または調整し得る。
上記で説明したように、変換係数ブロックについてのレベル情報は、一連の1よりも大きいレベルフラグと、一連の2よりも大きいレベルフラグと、一連の符号フラグと、一連のレベル残余要素とを備え得る。いくつかの例では、一連の1よりも大きいレベルフラグと、一連の2よりも大きいレベルフラグと、符号フラグと、レベル残余要素とは、変換係数ブロック内の非有意変換係数に関するエントリを含まない。したがって、一連の1よりも大きいレベルフラグと、一連の2よりも大きいレベルフラグと、符号フラグと、レベル残余要素とは、1よりも大きいレベルフラグと、2よりも大きいレベルフラグと、符号フラグと、レベル残余要素とに対応する変換係数ブロックの位置を示す情報を含まないことがある。したがって、ビデオデコーダ30は、1よりも大きいレベルフラグと、2よりも大きいレベルフラグと、符号フラグと、レベル残余要素とに対応する変換係数ブロック内の位置を判断するために有意性マップを使用し得る。この例では、ビデオデコーダ30は、次いで、変換係数ブロックを再構成するために、1よりも大きいレベルフラグと、2よりも大きいレベルのフラグと、符号フラグと、レベル残余要素とを使用し得る。
上記で説明したように、いくつかの例では、変換係数の2値化レベル情報の第1のビンは、変換係数が有意であるかどうかを示し得る。したがって、有意性マップは、変換係数の2値化レベル情報に統合され得る。そのような例では、ステップ138において有意性マップに対してエントロピー復号演算を実行することは、ステップ140においてレベル情報に対してCABAC復号演算を実行することの一部であり得る。
図9は、変換係数ブロックのブロックベースLSCインジケータを変換係数ブロックのスキャンベースLSCインジケータに変換するための例示的な非反復動作150を示すフローチャートである。図9の例では、動作150は、スキャン順序がジグザグスキャン順序であると仮定する。ビデオデコーダ30が動作150を開始した後、ビデオデコーダ30は、(対角数変数の値を判断する(152)。ビデオデコーダ30は、ブロックベースLSCインジケータのy座標とブロックベースLSCインジケータのx座標とを加算することによって、対角数変数の値を判断し得る。
次に、ビデオデコーダ30は、対角数変数が変換係数ブロックのブロック幅よりも大きいかどうかを判断する(154)。対角数が変換係数ブロックのブロック幅よりも大きい場合(154の「はい」)、ビデオデコーダ30は、スキャンベースLSCインジケータの初期値を計算する(156)。ビデオデコーダ30は、スキャンベースLSCインジケータの初期値を次のように計算し得る。ScanPositionLast=DiagNum*(DiagNum+1))>>1。式中、「ScanPositionLast」はスキャンベースLSCインジケータであり、「DiagNum」は対角数変数を表し、「>>」は右シフト演算を表す。
次に、ビデオデコーダ30は、対角数変数が奇数であるかどうかを判断する(158)。いくつかの例では、ビデオデコーダ30は、対角数変数が奇数であるかどうかを次のように判断する。(DiagNum%2)==1。対角数変数が奇数である場合(158の「はい」)、ビデオデコーダ30は、ブロックベースLSCインジケータのy座標に基づいてスキャンベースLSCインジケータを再計算する(160)。たとえば、ビデオデコーダ30は、スキャンベースLSCインジケータの初期値にブロックベースLSCインジケータのy座標を加算することによってスキャンベースLSCインジケータを再計算し得る。そうではなく、対角数変数が奇数でない場合(158の「いいえ」)、ビデオデコーダ30は、ブロックベースLSCインジケータのx座標に基づいてスキャンベースLSCインジケータを再計算する(162)。たとえば、ビデオデコーダ30は、スキャンベースLSCインジケータの初期値にブロックベースLSCインジケータのx座標を加算することによってスキャンベースLSCインジケータを再計算し得る。
対角数がブロック幅よりも大きくない場合(154の「いいえ」)、ビデオデコーダ30は、一時変数の値を計算する(164)。ビデオデコーダ30は、一時変数の値を次のように計算し得る。(BlockWidth−1)<<1)−DiagNum。式中、「BlockWidth」は変換係数ブロックの幅を示し、「<<」は左シフト演算を表す。一時値を計算した後に、ビデオデコーダ30は、スキャンベースLSCインジケータの初期値を計算する(166)。ビデオデコーダ30は、スキャンベースLSCインジケータの初期値を次のように計算し得る。MaxNumCoeffM1−((T*(T+1))>>1)。式中、「MaxNumCoeffM1」は、変換係数ブロック中の変換係数の最大数であり、「T」は一時変数である。
ビデオデコーダ30は、次いで、一時変数が奇数であるかどうかを判断する(168)。一時変数が奇数である場合(168の「はい」)、ビデオデコーダ30は、ブロックベースLSCインジケータのy座標に基づいてスキャンベースLSCインジケータを再計算する(170)。たとえば、ビデオデコーダ30は、スキャンベースLSCインジケータを次のように再計算し得る。ScanPositionLast=ScanPositionLast−BlockWidth+1+PositionLastY。式中、「ScanPositionLast」はスキャンベースLSCインジケータであり、「BlockWidth」は変換係数ブロックの幅であり、「PositionLastY」はブロックベースLSCインジケータのy座標である。
そうではなく、一時変数が奇数でない場合(168の「いいえ」)、ビデオデコーダ30は、ブロックベースLSCインジケータのx座標に基づいてスキャンベースLSCインジケータを再計算する(172)。たとえば、ビデオデコーダ30は、スキャンベースLSCインジケータを次のように再計算し得る。ScanPositionLast=ScanPositionLast−BlockWidth+1+PositionLastX。式中、「ScanPositionLast」はスキャンベースLSCインジケータであり、「BlockWidth」は変換係数ブロックの幅であり、「PositionLastX」はブロックベースLSCインジケータのx座標である。
以下の擬似コードは、ブロックベースLSCインジケータによって指定された座標からスキャンベースLSCインジケータを導出する、図9の例による非反復アルゴリズムを表す。
Figure 0005792382
この擬似コードでは、「PositionLastY」および「PositionLastX」は、最後変換係数によって示されたx座標およびy座標であり(DC成分が座標(0,0)にあると仮定する)、「BlockWidth」はブロックの幅であり、<<は左シフト演算であり、>>は右シフト演算であり、%は係数演算であり、「MaxNumCoeffM1」は、変換係数ブロックが有し得る変換係数の最大数(すなわち、BlockWidth*BlockHeight−1)である。
以下の擬似コードは、上記の擬似コードと同様であるが、右上から左下への対角スキャンが使用されるときにブロックベースLSCインジケータをスキャンベースLSCインジケータに変換する。
Figure 0005792382
以下の擬似コードは、上記の擬似コードと同様であるが、左下から右上への対角スキャンが使用されるときにブロックベースLSCインジケータをスキャンベースLSCインジケータに変換する。
Figure 0005792382
図10は、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換する別の例示的な非反復動作200を示すフローチャートである。図10の例では、ビデオデコーダ30は、1−Dアレイでメモリに変換係数ブロックを記憶し得る。この1−Dアレイでは、変換係数ブロックの最上行中の変換係数の後に次の下位行中の変換係数が続き、その後に、次の下位行に関連する変換係数が続き、以下同様である。ビデオデコーダ30が動作200を開始した後、ビデオデコーダ30は、ブロックベースLSCインジケータによって示された座標に関連付けられる1−Dアレイ中の位置を示す値にスキャンベースLSCインジケータを設定する(202)。ビデオデコーダ30は、ブロックベースLSCインジケータによって指定されたy座標に変換係数ブロックの幅を乗算し、次いで、ブロックベースLSCインジケータによって指定されたx座標を加算することによって、1−Dアレイ中の位置を判断し得る。スキャン順序が水平スキャン順序である場合、ビデオデコーダ30は、スキャンベースLSCインジケータを取得するためにいかなるさらなる処理も実行する必要がないことがある。
次に、ビデオデコーダ30は、スキャン順序がジグザグスキャン順序であるかどうかを判断する(204)。スキャン順序がジグザグスキャン順序であると判断したことに応答して(204の「はい」)、ビデオデコーダ30は、ブロックベースLSCインジケータのy座標(「uiPosLastY」)とブロックベースLSCインジケータのx座標(「uiPosLastX」)との和として対角数(「uID」)を計算する(206)。次いで、ビデオデコーダ30は、対角数変が変換係数ブロックの幅(「uiWidth」)よりも小さいかどうかを判断する(208)。対角数が変換係数ブロックの幅よりも小さいと判断したことに応答して(208の「はい」)、ビデオデコーダ30は、対角数に基づいてスキャンベースLSCインジケータ(「uiScanPosLast」)の値を計算する(210)。たとえば、ビデオデコーダ30は、スキャンベースLSCインジケータの初期値を次のように計算し得る。uiScanPosLast=uiD*(uiD+1))>>1。上式で、「uiScanPosLast」はスキャンベースLSCインジケータであり、「uiD」は対角数である。この例では、対角数が偶数である場合、ビデオデコーダ30は、次いで、スキャンベースLSCインジケータの初期値にブロックベースLSCインジケータのy座標を加算することによって、スキャンベースLSCインジケータの最終値を計算し得る。対角数が奇数である場合、ビデオデコーダ30は、スキャンベースLSCインジケータの初期値にブロックベースLSCインジケータのx座標を加算することによって、スキャンベースLSCインジケータの最終値を計算し得る。
そうでない場合、位置識別子が変換係数ブロックの幅よりも小さくないと判断することに応答して(208の「いいえ」)、ビデオデコーダ30は、一時的値(「uiDI」)を計算する(212)。ビデオデコーダ30は、一時値を次のように計算し得る。uiDI=((uiWidth−1)<<1)−uiD。上式で、「uiDI」は一時値であり、「uiWidth」は変換係数ブロックの幅であり、「uiD」は対角数である。一時値を計算した後に、ビデオデコーダ30は、一時値に基づいてスキャンベースLSCインジケータを計算する(214)。ビデオデコーダ30は、スキャンベースLSCインジケータの初期値を次のように計算し得る。uiScanPosLast=uiMaxNumCoeffM1−(uiDI*(uiDI+1)>>1)。上式で、「uiScanPosLast」はスキャンベースLSCインジケータであり、「uiMaxNumCoeffM1」は変換係数ブロックが有し得る変換係数の最大数であり、「uiDI」は一時値である。一時値が偶数である場合、ビデオデコーダ30は、スキャンベースLSCインジケータの初期値からuiWidth−1−uiPosLastYを減算することによってスキャンベースLSCインジケータの最終値を計算し得、上式で、「uiWidth」は変換係数ブロックの幅であり、「uiPosLastY」はブロックベースLSCインジケータのy座標である。一時値が奇数である場合、ビデオデコーダ30は、スキャンベースLSCインジケータの初期値から(uiWidth−1−uiPosLastX)を減算することによってスキャンベースLSCインジケータの最終値を計算し得、上式で、「uiWidth」は変換係数ブロックの幅であり、「uiPosLastX」はブロックベースLSCインジケータのx座標である。
スキャン順序がジグザグスキャン順序でないと判断したことに応答して(204の「いいえ」)、ビデオデコーダ30は、スキャン順序が垂直スキャン順序であるかどうかを判断する(216)。スキャン順序が垂直スキャン順序であると判断したことに応答して(216の「はい」)、ビデオデコーダ30は、ブロックベースLSCインジケータと変換係数ブロックのサイズとからスキャンベースLSCインジケータを計算する(218)。たとえば、ビデオデコーダ30は、スキャンベースLSCインジケータをuiScanPosLast=uiPosLastY+(uiPosLastX<<uiLog2BlockSizeとして計算し得、上式で、uiScanPosLastはスキャンベースLSCインジケータであり、uiPosLastYはブロックベースLSCインジケータのy座標であり、uiPosLastXはブロックベースLSCインジケータのx座標であり、「uiLog2BlockSize」は変換係数ブロックのサイズの、底を2とする対数である。
以下のコードは、スキャン順序が図10の例による水平スキャン順序、垂直スキャン順序、またはジグザグスキャン順序であるときにブロックベースLSCインジケータをスキャンベースLSCインジケータに変換するための例示的なアルゴリズムを表す。変換係数ブロックのメモリ中のストレージが行型であると仮定する。
Figure 0005792382
ビデオデコーダ30は、(上記で説明したジグザグスキャンではなく)対角スキャン順序に関して同様の動作を実行し得る。そのような動作では、ビデオデコーダ30は、ステップ214におけるスキャンベースLSCインジケータをuiScanPosLast=uiMaxNumCoeffM1−(uiDI*(uiDI+1)>>1)−uiWidth+1+uiPosLastXとして計算し得、上式で、「uiScanPosLast」はスキャンベースLSCインジケータであり、「uiMaxNumCoeffM1」は、変換係数ブロック中の変換係数の最大数であり、「uiDI」は一時値であり、「uiWidth」は変換係数ブロックの幅であり、「uiPosLastX」はブロックベースLSCインジケータのx座標である。以下のコードは、スキャン順序が対角スキャン順序であるときにブロックベースLSCインジケータをスキャンベースLSCインジケータに変換するための例示的なアルゴリズムを表す。
Figure 0005792382
図11は、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換する別の例示的な動作250を示すフローチャートである。図11の例に示すように、ビデオデコーダ30は、ルックアップテーブルを記憶する(252)。ルックアップテーブルは、スキャン順序に従ってブロックベースLSCインジケータをスキャンベースLSCインジケータにマッピングする。たとえば、スキャン順序がジグザグスキャン順序である場合、ルックアップテーブルは、座標(1,1)をスキャンベースLSCインジケータ「6」にマッピングするエントリを含み得る。いくつかの例では、ビデオデコーダ30は、異なるスキャン順序のための、および異なる変換係数ブロックサイズのための異なるルックアップテーブルを記憶し得る。
ビデオデコーダ30がルックアップテーブルを記憶した後、ビデオデコーダ30は、ブロックベースLSCインジケータを受信する(254)。ブロックベースLSCインジケータを受信した後に、ビデオデコーダ30は、ルックアップテーブルにアクセスして、ブロックベースLSCインジケータに対応するスキャンベースLSCインジケータを取り出す(256)。いくつかの例では、ビデオデコーダ30は、ブロックベースLSCインジケータのx座標とy座標とに基づいて単一の値を生成する。たとえば、ビデオデコーダ30は、y座標に変換係数ブロックの幅を乗算し、次いで、x座標を加算することによって単一の値を生成し得る。そのような例では、ビデオデコーダ30は、ルックアップテーブルからスキャンベースLSCインジケータを取り出すために、インデックスとして単一の値を使用し得る。
ビデオデコーダ30は、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換するために追加の演算を使用し得る。たとえば、ビデオデコーダ30は、変換係数がサブブロック対角スキャン順序でスキャンされるとき、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換するために、以下の擬似コードを使用し得る。このサブブロック対角スキャン順序では、ビデオデコーダ30は、右上から左下への対角順序でサブブロックを処理し、右上から左下への対角順序でサブブロックの各々の内で変換係数をスキャンする。
Figure 0005792382
上記の擬似コードでは、「uiWidth」は変換係数ブロックの幅を示し、「uiPosLastX」はブロックベースLSCインジケータのx座標を示し、「uiPosLastY」はブロックベースLSCインジケータのy座標を示し、「uiScanPosLast」はスキャンベースLSCインジケータを示す。「sX」は、最後の有意変換係数を包含するサブブロックの左上の変換係数のx座標を示す。「sY」は、最後の有意変換係数を包含するサブブロックの左上の変換係数のy座標を示す。上記の擬似コードは、最初に、最後の有意変換係数を包含するサブブロックのスキャン順序(「uiScanPosLast」)を判断する演算を実行し、次いで、サブブロック内の最後の有意変換係数のスキャン順序を判断する演算を実行するので、上記の擬似コードは、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換する演算の組合せを表し得る。
図12は、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換する例示的な反復動作300を示すフローチャートである。ビデオデコーダ30が動作300を開始した後、ビデオデコーダ30は、スキャン順序に従って変換係数ブロックのLSCを示すブロックベースLSCインジケータを受信する(302)。ビデオデコーダ30は、次いで、スキャン順序に従って変換係数ブロックの第1の位置を示すように位置インジケータを設定する(304)。いくつかの例では、位置指示は、現在の変換係数の水平のx位置を示す第1の値と、現在の変換係数の垂直のy位置を示す第2の値とを含み得る。たとえば、スキャン順序がDC構成要素で開始する場合、ビデオデコーダ30は、座標(0,0)の位置を示すように位置インジケータを設定し得る。さらに、ビデオデコーダ30は、スキャンベースLSCインジケータをゼロに初期化する(306)。
ビデオデコーダ30は、次いで、スキャン順序に従って位置インジケータによって示された位置を前進させる(308)。たとえば、スキャン順序が水平スキャン順序であり、位置インジケータが位置(3,4)を現在示す場合、ビデオデコーダ30は、位置インジケータが位置(3,5)を示すように、位置インジケータによって示された位置を前進させ得る。ビデオデコーダ30は、次いで、スキャンベースLSCインジケータを増分する(310)。
ビデオデコーダ30は、次いで、位置インジケータによって示された位置がブロックベースLSCインジケータによって示された位置と同じであるかどうかを判断する(312)。言い換えれば、ビデオデコーダ30は、示された位置が一致するかどうかを判断し得る。位置インジケータによって示された位置がブロックベースLSCインジケータによって示された位置と同じである場合、スキャンベースLSCインジケータはLSCの位置を示す。位置インジケータによって示された位置がブロックベースLSCインジケータによって示された位置でない場合(312の「いいえ」)、ビデオデコーダ30は、前進させた位置インジケータを用いて動作308〜312を繰り返す。位置インジケータによって示された位置がブロックベースLSCインジケータによって示された位置である場合(312の「はい」)、ビデオデコーダ30は、動作300を終了する。
以下の擬似コードは、ブロックベースLSCインジケータをスキャンベースLSCインジケータに変換する代替反復演算を表し得る。この擬似コードでは、ビデオデコーダ30は、対応するブロックベース位置がLSCインジケータによって示された位置であるかどうかを判断するために各スキャン位置を検査する。現在のスキャン位置(「uiBlkPosLast」)がブロックベースLSCインジケータ(「uiBlkPos」)に等しくなるとき、ビデオデコーダ30は位置の検査を停止する。
Figure 0005792382
図13は、最後の有意変換係数を示す変換係数ブロック350の概念図である。図13の例では、各円は、変換係数ブロック350中の異なる変換係数を表す。図13の黒い円は有意変換係数に対応し、白い円は非有意変換係数に対応する。変換係数352は、対角スキャン順序による変換係数ブロック350の最後の有意変換係数である。図13は、対角スキャン順序を、円を通る矢印として表す。変換係数ブロック350の最上行が行0であり、最左列が列0であると仮定すると、変換係数352のブロックベースLSCインジケータは座標(2,1)を示す。変換係数352のスキャンベースLSCインジケータは数「7」であり得る。
実施形態によっては、本明細書で説明した方法のうちいずれかの、いくつかの作用またはイベントは、異なる順序で実行され得、追加、マージ、または完全に除外され得る(たとえば、すべての説明した作用またはイベントが、方法の実施のために必要であるとは限らない)ことを認識されたい。さらに、いくつかの実施形態では、行為またはイベントは、連続してではなくむしろ、同時に、たとえば、マルチスレッド処理、割込み処理、または複数のプロセッサを通して実行され得る。
本明細書で開示した方法、システム、および装置と関連して説明した様々な例示的論理ブロック、モジュール、回路、およびアルゴリズムステップは、電子ハードウェア、プロセッサによって実行されるコンピュータソフトウェア、または両方の組合せとして実装され得ることを、当業者は認識されよう。ハードウェアとソフトウェアのこの互換性を明確に示すために、様々な例示的な構成要素、ブロック、モジュール、回路、およびステップについて、上記では概してそれらの機能に関して説明した。そのような機能をハードウェアとして実装するか、ソフトウェアとして実装するかは、特定の適用例および全体的なシステムに課せられた設計制約に依存する。当業者は、説明した機能を特定の適用例ごとに様々な方法で実装し得るが、そのような実装の決定は、本発明の範囲からの逸脱を生じるものと解釈すべきではない。
さらに、本明細書で開示する実施形態は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)またはその他のプログラマブル論理デバイス、個別ゲートまたはトランジスタ論理、個別ハードウェア構成要素などの電子デバイスまたは回路、あるいは本明細書で説明した機能を実行するように設計されたそれらの任意の組合せを用いて実装または実行され得る。汎用プロセッサはマイクロプロセッサであり得るが、代替として、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、または状態機械であり得る。プロセッサはまた、コンピューティングデバイスの組合せ、たとえば、DSPとマイクロプロセッサとの組合せ、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、あるいは任意の他のそのような構成として実装され得る。
本明細書で開示する実施形態に関して説明した方法またはアルゴリズムのステップは、直接ハードウェアで実施され得るか、プロセッサによって実行されるソフトウェアモジュールで実施され得るか、またはその2つの組合せで実施され得る。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、リムーバブルディスク、CD−ROM、または当技術分野で知られている任意の他の形態の記憶媒体中に常駐し得る。例示的な記憶媒体は、プロセッサがその記憶媒体から情報を読み取り、その記憶媒体に情報を書き込み得るようにプロセッサに結合される。代替として、記憶媒体はプロセッサに一体化され得る。プロセッサおよび記憶媒体はASIC中に常駐し得る。ASICはユーザ端末内に常駐し得る。代替として、プロセッサおよび記憶媒体は、ユーザ端末中に個別構成要素として常駐し得る。
様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内に入る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオデータを復号するための方法であって、
ブロックベース最後の有意係数(LSC)インジケータをスキャンベースLSCインジケータに変換することと、ここで、前記ブロックベースLSCインジケータは、スキャン順序に従って変換係数のブロックの最後の有意係数の座標を示し、前記スキャンベースLSCインジケータは、前記スキャン順序に従って前記LSCの順序位置を示す、
前記スキャンベースLSCインジケータに基づいて、前記ブロックのための有意性マップを復号することと
を備える、方法。
[C2]
前記スキャン順序は、前記ブロックのDC成分から開始する、
[C1]に記載の方法。
[C3]
前記ブロックベースLSCインジケータを前記スキャンベースLSCインジケータに変換することは、前記ブロックベースLSCインジケータから前記スキャンベースLSCインジケータを導出する非反復アルゴリズムを実行することを備える、
[C1]に記載の方法。
[C4]
前記ブロックベースLSCインジケータを前記スキャンベースLSCインジケータに変換することは、ブロックベースLSCインジケータをスキャンベースLSCインジケータにマッピングするデータ構造にアクセスすることを備える、
[C1]に記載の方法。
[C5]
前記ブロックベースLSCインジケータを前記スキャンベースLSCインジケータに変換することは、
前記座標を有する位置に達するまで前記スキャン順序に従って前記ブロック中の位置中をスキャンするループ演算を実行することと、
前記座標を有する前記位置より前の前記ブロックの位置ごとに前記スキャンベースLSCインジケータを増分することと
を備える、[C1]に記載の方法。
[C6]
前記有意性マップを復号することは、前記有意性マップが前記変換係数の有意性フラグを含むかどうかを判断するために前記スキャンベースLSCインジケータを使用することを備える、
[C1]に記載の方法。
[C7]
前記方法は、有意性マップのコンテキスト適応型バイナリ算術コーディング(CABAC)バージョンを受信することをさらに備え、
前記有意性マップを復号するために前記スキャンベースLSCインジケータを使用することは、
前記スキャンベースLSCインジケータに基づいてコンテキストモデルを選択することと、
前記有意性マップを復号するCABAC復号演算中に前記コンテキストモデルを使用することと
を備え、
前記方法は、
前記ブロックについてのレベル情報の符号化バージョンを受信することと、
前記レベル情報を復号するために前記有意性マップを使用することと
をさらに備える、[C6]に記載の方法。
[C8]
前記ブロックのイントラ予測モードを判断することと、
前記ブロックの前記イントラ予測モードに基づいて前記スキャン順序を判断することと、
前記スキャン順序に従って前記レベル情報を前記ブロックにマッピングすることと、
逆量子化ブロックを生成するために前記ブロック中の変換係数に対して逆量子化演算を実行することと、
残差データを生成するために前記逆量子化ブロックに対して逆変換演算を実行することと、
予測データを生成するイントラ予測演算を実行することと、
再構成ブロックを生成するために、前記残差データと前記予測データとを使用する再構成演算を実行することと
をさらに備え、前記再構成ブロックは、前記ビデオデータのピクチャの一部分である、
[C7]に記載の方法。
[C9]
前記スキャン順序は、サブブロックベーススキャン順序、対角スキャン順序、水平スキャン順序、垂直スキャン順序、またはジグザグスキャン順序である、
[C1]に記載の方法。
[C10]
前記方法は、前記スキャン順序に基づいて前記ブロックベースLSCインジケータを前記スキャンベースインジケータに変換するための変換演算を選択することをさらに備え、
前記ブロックベースLSCインジケータを前記スキャンベースLSCインジケータに変換することは、前記ブロックベースLSCインジケータを前記スキャンベースLSCインジケータに変換するために前記選択された変換演算を使用することを備える、
[C1]に記載の方法。
[C11]
前記ブロックは、複数のサブブロックを含み、
前記有意性マップを復号することは、
前記スキャンベースLSCインジケータに基づいて、前記複数のサブブロックの中から最後の有意サブブロックを識別することと、ここで、前記最後の有意サブブロックは、前記LSCを含む、
前記最後の有意サブブロックと、前記サブブロックのうち、前記最後の有意サブブロックで開始する第1の逆スキャン順序に従って前記最後の有意サブブロックの前に発生するサブブロックとを処理する第1のコーディングパスを実行することと
を備え、
前記第1のコーディングパス中に処理された前記サブブロックの各々について、第2の逆スキャン順序に従って前記サブブロック中の変換係数を処理する第2のコーディングパスを実行し、
前記第2のコーディングパス中に処理された各変換係数について、前記スキャンベースLSCインジケータに基づいて、前記有意性マップが前記変換係数の有意性フラグを含むかどうかを判断する、
[C1]に記載の方法。
[C12]
1つまたは複数のプロセッサを備えたビデオ復号デバイスであって、
ブロックベース最後の有意係数(LSC)インジケータをスキャンベースLSCインジケータに変換することと、ここで、前記ブロックベースLSCインジケータは、スキャン順序に従って変換係数のブロックの最後の有意係数の座標を示し、前記スキャンベースLSCインジケータは、前記スキャン順序に従って前記LSCの順序位置を示す、
前記スキャンベースLSCインジケータに基づいて、前記ブロックのための有意性マップを復号することと
を行うように構成される、ビデオ復号デバイス。
[C13]
前記スキャン順序は、前記ブロックのDC成分から開始する、
[C12]に記載のビデオ復号デバイス。
[C14]
前記1つまたは複数のプロセッサは、前記ブロックベースLSCインジケータから前記スキャンベースLSCインジケータを導出する非反復アルゴリズムを実行するように構成される、
[C12]に記載のビデオ復号デバイス。
[C15]
前記1つまたは複数のプロセッサは、ブロックベースLSCインジケータをスキャンベースLSCインジケータにマッピングするデータ構造にアクセスするようにさらに構成される、
[C12]に記載のビデオ復号デバイス。
[C16]
前記1つまたは複数のプロセッサは、
前記座標を有する位置に達するまで前記スキャン順序に従って前記ブロック中の位置中をスキャンするループ演算を実行することと、
前記座標を有する前記位置より前の前記ブロックの位置ごとに前記スキャンベースLSCインジケータを増分することと
を行うようにさらに構成される、[C12]に記載のビデオ復号デバイス。
[C17]
前記1つまたは複数のプロセッサは、前記有意性マップが前記変換係数の有意性フラグを含むかどうかを判断するために前記スキャンベースLSCインジケータを使用するように構成される、
[C12]に記載のビデオ復号デバイス。
[C18]
前記1つまたは複数のプロセッサは、有意性マップのコンテキスト適応型バイナリ算術コーディング(CABAC)バージョンを受信することと、
前記スキャンベースLSCインジケータに基づいてコンテキストモデルを選択すること、および
前記有意性マップを復号するCABAC演算中に前記コンテキストモデルを使用すること
を行うことに少なくとも部分的によって前記有意性マップを復号するために前記スキャンベースLSCインジケータを使用することと
を行うように構成され、
前記1つまたは複数のプロセッサは、
前記ブロックについてのレベル情報の符号化バージョンを受信することと、
前記レベル情報を復号するために前記有意性マップを使用することと
を行うようにさらに構成される、[C17]に記載のビデオ復号デバイス。
[C19]
前記1つまたは複数のプロセッサは、
前記ブロックのイントラ予測モードを判断することと、
前記ブロックの前記イントラ予測モードに基づいて前記スキャン順序を判断することと、
前記スキャン順序に従って前記レベル情報を前記ブロックにマッピングすることと、
逆量子化ブロックを生成するために前記ブロック中の変換係数に対して逆量子化演算を実行することと、
残差データを生成するために前記逆量子化ブロックに対して逆変換演算を実行することと、
予測データを生成するイントラ予測演算を実行することと、
再構成ブロックを生成するために、前記残差データと前記予測データとを使用する再構成演算を実行することと、
を行うようにさらに構成され、前記再構成ブロックは、前記ビデオデータのフレームの一部分である、
[C18]に記載のビデオ復号デバイス。
[C20]
前記スキャン順序は、対角スキャン順序、水平スキャン順序、垂直スキャン順序、またはジグザグスキャン順序である、
[C12]に記載のビデオ復号デバイス。
[C21]
前記1つまたは複数のプロセッサは、前記スキャン順序に基づいて変換演算を選択することと、前記ブロックベースLSCインジケータを前記スキャンベースLSCインジケータに変換するために前記選択された変換演算を使用することとを行うようにさらに構成される、
[C12]に記載のビデオ復号デバイス。
[C22]
前記ブロックは、複数のサブブロックを含み、
前記1つまたは複数のプロセッサは、
前記スキャンベースLSCインジケータに基づいて、前記複数のサブブロックの中から最後の有意サブブロックを識別することと、ここで、前記最後の有意サブブロックは、前記LSCを含む、
前記最後の有意サブブロックと、前記サブブロックのうち、前記最後の有意サブブロックで開始する第1の逆スキャン順序に従って前記最後の有意サブブロックの前に発生するサブブロックとを処理する第1のコーディングパスを実行することと
を行うことに少なくとも部分的によって前記有意性マップを復号するように構成され、
前記1つまたは複数のプロセッサは、前記第1のコーディングパス中に処理された前記サブブロックの各々について、前記1つまたは複数のプロセッサが、第2の逆スキャン順序に従って前記サブブロック中の変換係数を処理する第2のコーディングパスを実行するように構成され、
前記1つまたは複数のプロセッサは、前記第2のコーディングパス中に処理された各変換係数について、前記1つまたは複数のプロセッサが、前記スキャンベースLSCインジケータに基づいて、前記有意性マップが前記変換係数の有意性フラグを含むかどうかを判断するように構成される、
[C12]に記載のビデオ復号デバイス。
[C23]
ブロックベース最後の有意係数(LSC)インジケータをスキャンベースLSCインジケータに変換するための手段と、ここで、前記ブロックベースLSCインジケータは、スキャン順序に従って変換係数のブロックの最後の有意係数の座標を示し、前記スキャンベースLSCインジケータは、前記スキャン順序に従って前記LSCの順序位置を示す、
前記スキャンベースLSCインジケータに基づいて、前記ブロックのための有意性マップを復号するための手段と
を備える、ビデオ復号デバイス。
[C24]
前記スキャンベースLSCインジケータに基づいてコンテキストモデルを選択するための手段と、
前記有意性マップを復号するコンテキスト適応型バイナリ算術コーディング(CABAC)復号演算中に前記コンテキストモデルを使用するための手段と、
前記ブロックについての符号化されたレベル情報を受信するための手段と、
前記レベル情報を復号するために前記有意性マップを使用するための手段と
を備える、[C23]に記載の復号デバイス。
[C25]
前記ブロックベースLSCインジケータから前記スキャンベースLSCインジケータを導出する非反復アルゴリズムを実行するための手段を備える、
[C23]に記載の復号デバイス。
[C26]
ブロックベースLSCインジケータをスキャンベースLSCインジケータにマッピングするデータ構造にアクセスするための手段を備える、
[C23]に記載の復号デバイス。
[C27]
前記座標を有する位置に達するまで前記スキャン順序に従って変換係数の前記ブロック中の位置中をスキャンするループ演算を実行するための手段と、
前記座標を有する前記位置より前の変換係数の前記ブロックの位置ごとに前記スキャンベースLSCインジケータを増分するための手段と
を備える、[C23]に記載の復号デバイス。
[C28]
前記ブロックが複数のサブブロックを含み、
前記有意性マップを復号するための前記手段は、
前記スキャンベースLSCインジケータに基づいて、前記複数のサブブロックの中から最後の有意サブブロックを識別するための手段と、ここで、前記最後の有意サブブロックが前記LSCを含む、
前記最後の有意サブブロックと、前記サブブロックのうち、前記最後の有意サブブロックで開始する第1の逆スキャン順序に従って前記最後の有意サブブロックの前に発生するサブブロックとを処理する第1のコーディングパスを実行するための手段と
を備え、
前記第1のコーディングパス中に処理された前記サブブロックの各々について、前記有意性マップを復号するための前記手段は、第2の逆スキャン順序に従って前記サブブロック中の変換係数を処理する第2のコーディングパスを実行し、
前記第2のコーディングパス中に処理された各変換係数について、前記有意性マップを復号するための前記手段は、前記スキャンベースLSCインジケータに基づいて、前記有意性マップが前記変換係数の有意性フラグを含むかどうかを判断する、
[C23]に記載の復号デバイス。
[C29]
ブロックベース最後の有意係数(LSC)インジケータをスキャンベースLSCインジケータに変換することと、ここで、前記ブロックベースLSCインジケータは、スキャン順序に従って変換係数のブロックの最後の有意係数の座標を示し、前記スキャンベースLSCインジケータは、前記スキャン順序に従って前記LSCの順序位置を示す、
前記スキャンベースLSCインジケータに基づいて、前記ブロックのための有意性マップを復号することと
を行うように1つまたは複数のプロセッサを構成する命令をその上に有するコンピュータ可読記憶媒体を備える、コンピュータプログラム製品。
[C30]
前記命令は、
前記スキャンベースLSCインジケータに基づいてコンテキストモデルを選択することと、
前記有意性マップを復号するコンテキスト適応型バイナリ算術コーディング(CABAC)復号演算中に前記コンテキストモデルを使用することと、
前記レベル情報を復号するために前記有意性マップを使用することと
を行うように前記1つまたは複数のプロセッサを構成する、
[C29]に記載のコンピュータプログラム製品。
[C31]
前記命令は、前記ブロックベースLSCインジケータから前記スキャンベースLSCインジケータを導出する非反復アルゴリズムを実行するように前記1つまたは複数のプロセッサを構成する、
[C29]に記載のコンピュータプログラム製品。
[C32]
前記命令は、ブロックベースLSCインジケータをスキャンベースLSCインジケータにマッピングするデータ構造にアクセスするように前記1つまたは複数のプロセッサを構成する、
[C29]に記載のコンピュータプログラム製品。
[C33]
前記命令は、
前記座標を有する位置に達するまで前記スキャン順序に従って前記ブロック中の位置中をスキャンするループ演算を実行することと、
前記座標を有する前記位置より前の前記ブロックの位置ごとに前記スキャンベースLSCインジケータを増分することと
を行うように前記1つまたは複数のプロセッサを構成する、[C29]に記載のコンピュータプログラム製品。
[C34]
前記変換係数ブロックは、複数のサブブロックを含み、
前記命令は、
前記スキャンベースLSCインジケータに基づいて、前記複数のサブブロックの中から最後の有意サブブロックを識別することと、ここで、前記最後の有意サブブロックが前記LSCを含む、
前記最後の有意サブブロックと、前記サブブロックのうち、前記最後の有意サブブロックで開始する第1の逆スキャン順序に従って前記最後の有意サブブロックの前に発生するサブブロックとを処理する第1のコーディングパスを実行することと
を行うように前記1つまたは複数のプロセッサを構成し、
前記命令は、前記第1のコーディングパス中に処理された前記サブブロックの各々について、前記1つまたは複数のプロセッサが、第2の逆スキャン順序に従って前記サブブロック中の変換係数を処理する第2のコーディングパスを実行するように前記1つまたは複数のプロセッサを構成し、
前記命令は、前記第2のコーディングパス中に処理された各変換係数について、前記1つまたは複数のプロセッサが、前記スキャンベースLSCインジケータに基づいて、前記有意性マップが前記変換係数の有意性フラグを含むかどうかを判断するように前記1つまたは複数のプロセッサを構成する、
[C29]に記載のコンピュータプログラム製品。

Claims (18)

  1. ビデオデータを復号するための方法であって、
    ブロックベース最後の有意係数(LSC)インジケータからスキャンベースLSCインジケータを導出することと、ここで、前記ブロックベースLSCインジケータは、変数係数のブロックをサブブロックスキャン順序に従ってスキャンする場合に得られる、前記変換係数のブロックの最後の有意係数の座標を示し、前記変換係数のブロックは、複数のサブブロックに区分され、前記スキャンベースLSCインジケータは、前記サブブロックスキャン順序に従って前記LSCの順序位置を示前記スキャンベースLSCインジケータを導出することは、
    前記最後の有意係数を含むサブブロックの前記サブブロックスキャン順序において位置を判断することと、ここで、前記最後の有意係数を含む前記サブブロックは、前記複数のサブブロックのうちの1つである、
    前記最後の有意係数を含む前記サブブロック内で前記最後の有意係数の前記サブブロックスキャン順序において位置を判断することと
    を備える、
    前記スキャンベースLSCインジケータに基づいて、前記変換係数のブロックのための有意性マップを復号することと
    を備える、方法。
  2. 前記サブブロックスキャン順序は、前記変換係数のブロックのDC成分から開始する、請求項1に記載の方法。
  3. 前記有意性マップを復号することは、前記有意性マップが前記変換係数の有意性フラグを含むかどうかを判断するために前記スキャンベースLSCインジケータを使用することを備える、請求項1に記載の方法。
  4. 記有意性マップを復号するために前記スキャンベースLSCインジケータを使用することは、
    前記スキャンベースLSCインジケータに基づいてコンテキストモデルを選択することと、
    前記有意性マップを復号するCABAC復号演算中に前記コンテキストモデルを使用することと
    を備え、
    前記方法は、
    前記変換係数のブロックについてのレベル情報の符号化バージョンを受信することと、
    前記レベル情報を復号するために前記有意性マップを使用することとをさらに備える、請求項3に記載の方法。
  5. 前記サブブロックスキャン順序に従って前記レベル情報を前記変換係数のブロックにマッピングすることと、
    逆量子化ブロックを生成するために前記変換係数のブロック中の変換係数に対して逆量子化演算を実行することと、
    残差データを生成するために前記逆量子化ブロックに対して逆変換演算を実行することと、
    予測データを生成するイントラ予測演算を実行することと、
    再構成ブロックを生成するために、前記残差データと前記予測データとを使用する再構成演算を実行することと
    をさらに備え、前記再構成ブロックは、前記ビデオデータのピクチャの一部分である、請求項4に記載の方法。
  6. 変換係数のブロックを記憶するように構成されたメモリと、
    前記メモリと通信する1つまたは複数のプロセッサと
    を備え、前記1つまたは複数のプロセッサは、
    ブロックベース最後の有意係数(LSC)インジケータからスキャンベースLSCインジケータを導出することと、ここで、前記ブロックベースLSCインジケータは、前記変数係数のブロックをサブブロックスキャン順序に従ってスキャンする場合に得られる、前記変換係数のブロックの最後の有意係数の座標を示し、前記変換係数のブロックは、複数のサブブロックに区分され、前記スキャンベースLSCインジケータは、前記サブブロックスキャン順序に従って前記LSCの順序位置を示ここで、前記スキャンベースLSCインジケータを導出するために、前記1つまたは複数のプロセッサは、
    前記最後の有意係数を含むサブブロックの前記サブブロックスキャン順序において位置を判断することと、ここで、前記最後の有意係数を含む前記サブブロックは、前記複数のサブブロックのうちの1つである、
    前記最後の有意係数を含む前記サブブロック内で前記最後の有意係数の前記サブブロックスキャン順序において位置を判断することと
    を行う、
    前記スキャンベースLSCインジケータに基づいて、前記変換係数のブロックのための有意性マップを復号することとを行うように構成される、ビデオ復号デバイス。
  7. 前記サブブロックスキャン順序は、前記変換係数のブロックのDC成分から開始する、請求項に記載のビデオ復号デバイス。
  8. 前記1つまたは複数のプロセッサは、前記有意性マップが前記変換係数の有意性フラグを含むかどうかを判断するために前記スキャンベースLSCインジケータを使用するように構成される、請求項に記載のビデオ復号デバイス。
  9. 前記有意性マップを復号するために前記スキャンベースLSCインジケータを使用するように、前記1つまたは複数のプロセッサは、
    前記スキャンベースLSCインジケータに基づいてコンテキストモデルを選択すること、および
    前記有意性マップを復号するCABAC演算中に前記コンテキストモデルを使用すること
    を行
    前記1つまたは複数のプロセッサは、
    前記変換係数のブロックについてのレベル情報の符号化バージョンを受信することと、
    前記レベル情報を復号するために前記有意性マップを使用することとを行うようにさらに構成される、請求項に記載のビデオ復号デバイス。
  10. 前記1つまたは複数のプロセッサは、
    前記サブブロックスキャン順序に従って前記レベル情報を前記変換係数のブロックにマッピングすることと、
    逆量子化ブロックを生成するために前記変換係数のブロック中の変換係数に対して逆量子化演算を実行することと、
    残差データを生成するために前記逆量子化ブロックに対して逆変換演算を実行することと、
    予測データを生成するイントラ予測演算を実行することと、
    再構成ブロックを生成するために、前記残差データと前記予測データとを使用する再構成演算を実行することと、
    を行うようにさらに構成され、前記再構成ブロックは、ビデオデータのフレームの一部分である、請求項に記載のビデオ復号デバイス。
  11. ブロックベース最後の有意係数(LSC)インジケータからスキャンベースLSCインジケータを導出するための手段と、ここで、前記ブロックベースLSCインジケータは、変数係数のブロックをサブブロックスキャン順序に従ってスキャンする場合に得られる、前記変換係数のブロックの最後の有意係数の座標を示し、前記変換係数のブロックは、複数のサブブロックに区分され、前記スキャンベースLSCインジケータは、前記サブブロックスキャン順序に従って前記LSCの順序位置を示前記スキャンベースLSCインジケータを導出することは、
    前記最後の有意係数を含むサブブロックの前記サブブロックスキャン順序において位置を判断することと、ここで、前記最後の有意係数を含む前記サブブロックは、前記複数のサブブロックのうちの1つである、
    前記最後の有意係数を含む前記サブブロック内で前記最後の有意係数の前記サブブロックスキャン順序において位置を判断することと
    を備える、
    前記スキャンベースLSCインジケータに基づいて、前記変換係数のブロックのための有意性マップを復号するための手段とを備える、ビデオ復号デバイス。
  12. 前記スキャンベースLSCインジケータに基づいてコンテキストモデルを選択するための手段と、
    前記有意性マップを復号するコンテキスト適応型バイナリ算術コーディング(CABAC)復号演算中に前記コンテキストモデルを使用するための手段と、
    前記変換係数のブロックについての符号化されたレベル情報を受信するための手段と、
    前記レベル情報を復号するために前記有意性マップを使用するための手段とを備える、請求項11に記載の復号デバイス。
  13. ブロックベース最後の有意係数(LSC)インジケータからスキャンベースLSCインジケータを導出することと、ここで、前記ブロックベースLSCインジケータは、変数係数のブロックをサブブロックスキャン順序に従ってスキャンする場合に得られる、前記変換係数のブロックの最後の有意係数の座標を示し、前記変換係数のブロックは、複数のサブブロックに区分され、前記スキャンベースLSCインジケータは、前記サブブロックスキャン順序に従って前記LSCの順序位置を示前記スキャンベースLSCインジケータを導出するために、1つまたは複数のプロセッサは、
    前記最後の有意係数を含むサブブロックの前記サブブロックスキャン順序において位置を判断することと、ここで、前記最後の有意係数を含む前記サブブロックは、前記複数のサブブロックのうちの1つである、
    前記最後の有意係数を含む前記サブブロック内で前記最後の有意係数の前記サブブロックスキャン順序において位置を判断することと
    を行う、
    前記スキャンベースLSCインジケータに基づいて、前記変換係数のブロックのための有意性マップを復号することとを行うように前記1つまたは複数のプロセッサを構成する命令を備える、コンピュータプログラム。
  14. 前記命令は、
    前記スキャンベースLSCインジケータに基づいてコンテキストモデルを選択することと、
    前記有意性マップを復号するコンテキスト適応型バイナリ算術コーディング(CABAC)復号演算中に前記コンテキストモデルを使用することと、
    レベル情報を復号するために前記有意性マップを使用することとを行うように前記1つまたは複数のプロセッサを構成する、請求項13に記載のコンピュータプログラム。
  15. サブブロック幅は、uiWidth>>2に等しく、ここで、uiWidthは前記変換係数ブロックの幅であり、「>>」は右シフト演算を表す、
    スキャン位置変数の第1の値は、0に等しく、
    前記スキャンベースLSCインジケータを導出することは、
    uiPosLastX>>2を判断することによって、前記最後の有意係数を含む前記サブブロックの左上の変換係数のx座標を判断することと、ここで、uiPosLastXは、前記ブロックベースLSCインジケータのx座標である、
    uiPosLastY>>2を判断することによって、前記最後の有意係数を含む前記サブブロックの前記左上の変換係数のy座標を判断することと、ここで、uiPosLastXは、前記ブロックベースLSCインジケータのy座標である、
    前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記y座標と前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記x座標とを加算することによって第1の変数の値を判断することと、
    前記第1の変数の前記値が前記サブブロック幅よりも小さい場合、前記スキャンベースインジケータの前記第1の値にsX+((uiDs*(uiDs+1))>>1)を加えたものに等しいと、前記スキャン位置変数の第2の値を判断することと、ここで、sXは、前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記x座標であり、uiDsは前記第1の変数である、
    前記第1の変数の前記値が前記サブブロック幅より小さくない場合、
    ((sWidth−1)<<1)−uiDsに等しいと、第2の変数の値を判断することと、ここで、sWidthは前記サブブロック幅であり、「<<」は左シフト演算を表す、
    前記スキャン位置変数の前記第1の値にsWidth*(sWidth−1)−(uiDI*(uiDI+1)>>1)+sXを加えたものに等しいと、前記スキャン位置変数の前記第2の値を判断することと、ここで、uiDIは前記第2の変数である、
    前記ブロックベースLSCインジケータの前記x座標からsX<<2を減じたものに等しいと、x座標変数の値を判断することと、
    前記ブロックベースLSCインジケータの前記y座標からsY<<2を減じたものに等しいと、y座標変数の値を判断することと、ここで、sYは、前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記y座標である、
    前記スキャン位置変数の前記第2の値<<4に等しいと、前記スキャン位置変数の第3の値を判断することと、
    前記x座標変数に前記y座標変数を加えたものの値として、第3の変数の値を判断することと、
    前記第3の変数の前記値が4より小さい場合、前記スキャン位置変数の前記第3の値にuiPosLastX+((uiD*(uiD+1))>>1)を加えたものとして、前記スキャンベースLSCインジケータを判断することと、ここで、uiPosLastXは、前記x座標変数であり、uiDは、前記第3の変数である、
    前記第3の変数の前記値が4より小さくない場合、
    6−uiDとして、第4の変数の値を判断することと、
    前記スキャン位置変数の前記第3の値に12−(uiDI*(uiDI+1)>>1)+uiPosLastXを加えたものとして、前記スキャンベースのLSCインジケータを判断することと、ここで、uiDIは前記第4の変数である、
    を備える、請求項1に記載の方法。
  16. サブブロック幅は、uiWidth>>2に等しく、ここで、uiWidthは前記変換係数ブロックの幅であり、「>>」は右シフト演算を表す、
    スキャン位置変数の第1の値は、0に等しく、
    前記スキャンベースLSCインジケータを導出するとき、前記1つまたは複数のプロセッサが、
    uiPosLastX>>2を判断することによって、前記最後の有意係数を含む前記サブブロックの左上の変換係数のx座標を判断することと、ここで、uiPosLastXは、前記ブロックベースLSCインジケータのx座標である、
    uiPosLastY>>2を判断することによって、前記最後の有意係数を含む前記サブブロックの前記左上の変換係数のy座標を判断することと、ここで、uiPosLastXは、前記ブロックベースLSCインジケータのy座標である、
    前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記y座標と前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記x座標とを加算することによって第1の変数の値を判断することと、
    前記第1の変数の前記値が前記サブブロック幅よりも小さい場合、前記スキャンベースインジケータの前記第1の値にsX+((uiDs*(uiDs+1))>>1)を加えたものに等しいと、前記スキャン位置変数の第2の値を判断することと、ここで、sXは、前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記x座標であり、uiDsは前記第1の変数である、
    前記第1の変数の前記値が前記サブブロック幅より小さくない場合、
    ((sWidth−1)<<1)−uiDsに等しいと、第2の変数の値を判断することと、ここで、sWidthは前記サブブロック幅であり、「<<」は左シフト演算を表す、
    前記スキャン位置変数の前記第1の値にsWidth*(sWidth−1)−(uiDI*(uiDI+1)>>1)+sXを加えたものに等しいと、前記スキャン位置変数の前記第2の値を判断することと、ここで、uiDIは前記第2の変数である、
    前記ブロックベースLSCインジケータの前記x座標からsX<<2を減じたものに等しいと、x座標変数の値を判断することと、
    前記ブロックベースLSCインジケータの前記y座標からsY<<2を減じたものに等しいと、y座標変数の値を判断することと、ここで、sYは、前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記y座標である、
    前記スキャン位置変数の前記第2の値<<4に等しいと、前記スキャン位置変数の第3の値を判断することと、
    前記x座標変数に前記y座標変数を加えたものの値として、第3の変数の値を判断することと、
    前記第3の変数の前記値が4より小さい場合、前記スキャン位置変数の前記第3の値にuiPosLastX+((uiD*(uiD+1))>>1)を加えたものとして、前記スキャンベースLSCインジケータを判断することと、ここで、uiPosLastXは、前記x座標変数であり、uiDは、前記第3の変数である、
    前記第3の変数の前記値が4より小さくない場合、
    6−uiDとして、第4の変数の値を判断することと、
    前記スキャン位置変数の前記第3の値に12−(uiDI*(uiDI+1)>>1)+uiPosLastXを加えたものとして、前記スキャンベースのLSCインジケータを判断することと、ここで、uiDIは前記第4の変数である、
    を行うように、前記1つまたは複数のプロセッサは構成される、請求項6に記載のビデオ復号デバイス。
  17. サブブロック幅は、uiWidth>>2に等しく、ここで、uiWidthは前記変換係数ブロックの幅であり、「>>」は右シフト演算を表す、
    スキャン位置変数の第1の値は、0に等しく、
    前記スキャンベースLSCインジケータを導出することは、
    uiPosLastX>>2を判断することによって、前記最後の有意係数を含む前記サブブロックの左上の変換係数のx座標を判断することと、ここで、uiPosLastXは、前記ブロックベースLSCインジケータのx座標である、
    uiPosLastY>>2を判断することによって、前記最後の有意係数を含む前記サブブロックの前記左上の変換係数のy座標を判断することと、ここで、uiPosLastXは、前記ブロックベースLSCインジケータのy座標である、
    前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記y座標と前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記x座標とを加算することによって第1の変数の値を判断することと、
    前記第1の変数の前記値が前記サブブロック幅よりも小さい場合、前記スキャンベースインジケータの前記第1の値にsX+((uiDs*(uiDs+1))>>1)を加えたものに等しいと、前記スキャン位置変数の第2の値を判断することと、ここで、sXは、前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記x座標であり、uiDsは前記第1の変数である、
    前記第1の変数の前記値が前記サブブロック幅より小さくない場合、
    ((sWidth−1)<<1)−uiDsに等しいと、第2の変数の値を判断することと、ここで、sWidthは前記サブブロック幅であり、「<<」は左シフト演算を表す、
    前記スキャン位置変数の前記第1の値にsWidth*(sWidth−1)−(uiDI*(uiDI+1)>>1)+sXを加えたものに等しいと、前記スキャン位置変数の前記第2の値を判断することと、ここで、uiDIは前記第2の変数である、
    前記ブロックベースLSCインジケータの前記x座標からsX<<2を減じたものに等しいと、x座標変数の値を判断することと、
    前記ブロックベースLSCインジケータの前記y座標からsY<<2を減じたものに等しいと、y座標変数の値を判断することと、ここで、sYは、前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記y座標である、
    前記スキャン位置変数の前記第2の値<<4に等しいと、前記スキャン位置変数の第3の値を判断することと、
    前記x座標変数に前記y座標変数を加えたものの値として、第3の変数の値を判断することと、
    前記第3の変数の前記値が4より小さい場合、前記スキャン位置変数の前記第3の値にuiPosLastX+((uiD*(uiD+1))>>1)を加えたものとして、前記スキャンベースLSCインジケータを判断することと、ここで、uiPosLastXは、前記x座標変数であり、uiDは、前記第3の変数である、
    前記第3の変数の前記値が4より小さくない場合、
    6−uiDとして、第4の変数の値を判断することと、
    前記スキャン位置変数の前記第3の値に12−(uiDI*(uiDI+1)>>1)+uiPosLastXを加えたものとして、前記スキャンベースのLSCインジケータを判断することと、ここで、uiDIは前記第4の変数である、
    を備える、請求項11に記載のビデオ復号デバイス。
  18. サブブロック幅は、uiWidth>>2に等しく、ここで、uiWidthは前記変換係数ブロックの幅であり、「>>」は右シフト演算を表す、
    スキャン位置変数の第1の値は、0に等しく、
    前記スキャンベースLSCインジケータを導出するとき、前記1つまたは複数のプロセッサが、
    uiPosLastX>>2を判断することによって、前記最後の有意係数を含む前記サブブロックの左上の変換係数のx座標を判断することと、ここで、uiPosLastXは、前記ブロックベースLSCインジケータのx座標である、
    uiPosLastY>>2を判断することによって、前記最後の有意係数を含む前記サブブロックの前記左上の変換係数のy座標を判断することと、ここで、uiPosLastXは、前記ブロックベースLSCインジケータのy座標である、
    前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記y座標と前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記x座標とを加算することによって第1の変数の値を判断することと、
    前記第1の変数の前記値が前記サブブロック幅よりも小さい場合、前記スキャンベースインジケータの前記第1の値にsX+((uiDs*(uiDs+1))>>1)を加えたものに等しいと、前記スキャン位置変数の第2の値を判断することと、ここで、sXは、前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記x座標であり、uiDsは前記第1の変数である、
    前記第1の変数の前記値が前記サブブロック幅より小さくない場合、
    ((sWidth−1)<<1)−uiDsに等しいと、第2の変数の値を判断することと、ここで、sWidthは前記サブブロック幅であり、「<<」は左シフト演算を表す、
    前記スキャン位置変数の前記第1の値にsWidth*(sWidth−1)−(uiDI*(uiDI+1)>>1)+sXを加えたものに等しいと、前記スキャン位置変数の前記第2の値を判断することと、ここで、uiDIは前記第2の変数である、
    前記ブロックベースLSCインジケータの前記x座標からsX<<2を減じたものに等しいと、x座標変数の値を判断することと、
    前記ブロックベースLSCインジケータの前記y座標からsY<<2を減じたものに等しいと、y座標変数の値を判断することと、ここで、sYは、前記最後の有意係数を含む前記サブブロックの前記左上の変換係数の前記y座標である、
    前記スキャン位置変数の前記第2の値<<4に等しいと、前記スキャン位置変数の第3の値を判断することと、
    前記x座標変数に前記y座標変数を加えたものの値として、第3の変数の値を判断することと、
    前記第3の変数の前記値が4より小さい場合、前記スキャン位置変数の前記第3の値にuiPosLastX+((uiD*(uiD+1))>>1)を加えたものとして、前記スキャンベースLSCインジケータを判断することと、ここで、uiPosLastXは、前記x座標変数であり、uiDは、前記第3の変数である、
    前記第3の変数の前記値が4より小さくない場合、
    6−uiDとして、第4の変数の値を判断することと、
    前記スキャン位置変数の前記第3の値に12−(uiDI*(uiDI+1)>>1)+uiPosLastXを加えたものとして、前記スキャンベースのLSCインジケータを判断することと、ここで、uiDIは前記第4の変数である、
    を行うように、前記命令が前記1つまたは複数のプロセッサを構成する、請求項13に記載のコンピュータプログラム。
JP2014519021A 2011-06-28 2012-06-28 ビデオコーディングにおける最後の有意変換係数のスキャン順序での位置の導出 Active JP5792382B2 (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US201161502269P 2011-06-28 2011-06-28
US61/502,269 2011-06-28
US201161503529P 2011-06-30 2011-06-30
US61/503,529 2011-06-30
US201161550784P 2011-10-24 2011-10-24
US201161550775P 2011-10-24 2011-10-24
US61/550,775 2011-10-24
US61/550,784 2011-10-24
US13/534,306 2012-06-27
US13/534,306 US9167253B2 (en) 2011-06-28 2012-06-27 Derivation of the position in scan order of the last significant transform coefficient in video coding
PCT/US2012/044633 WO2013003584A1 (en) 2011-06-28 2012-06-28 Derivation of the position in scan order of the last significant transform coefficient in video coding

Publications (2)

Publication Number Publication Date
JP2014521249A JP2014521249A (ja) 2014-08-25
JP5792382B2 true JP5792382B2 (ja) 2015-10-14

Family

ID=47390665

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014519020A Expired - Fee Related JP5792381B2 (ja) 2011-06-28 2012-06-28 最後の有意変換係数のコーディング
JP2014519021A Active JP5792382B2 (ja) 2011-06-28 2012-06-28 ビデオコーディングにおける最後の有意変換係数のスキャン順序での位置の導出

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014519020A Expired - Fee Related JP5792381B2 (ja) 2011-06-28 2012-06-28 最後の有意変換係数のコーディング

Country Status (9)

Country Link
US (2) US9491469B2 (ja)
EP (2) EP2727346A1 (ja)
JP (2) JP5792381B2 (ja)
KR (2) KR101650635B1 (ja)
CN (1) CN103621086B (ja)
BR (1) BR112013032702A2 (ja)
CA (1) CA2840618C (ja)
RU (1) RU2576590C2 (ja)
WO (2) WO2013003581A1 (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9497472B2 (en) 2010-11-16 2016-11-15 Qualcomm Incorporated Parallel context calculation in video coding
US8976861B2 (en) 2010-12-03 2015-03-10 Qualcomm Incorporated Separately coding the position of a last significant coefficient of a video block in video coding
US9042440B2 (en) 2010-12-03 2015-05-26 Qualcomm Incorporated Coding the position of a last significant coefficient within a video block based on a scanning order for the block in video coding
US20120163456A1 (en) 2010-12-22 2012-06-28 Qualcomm Incorporated Using a most probable scanning order to efficiently code scanning order information for a video block in video coding
US20120230418A1 (en) 2011-03-08 2012-09-13 Qualcomm Incorporated Coding of transform coefficients for video coding
US9106913B2 (en) 2011-03-08 2015-08-11 Qualcomm Incorporated Coding of transform coefficients for video coding
US9491469B2 (en) 2011-06-28 2016-11-08 Qualcomm Incorporated Coding of last significant transform coefficient
BR112014014120A2 (pt) * 2011-12-20 2017-06-13 Motorola Mobility Llc método e aparelho para codificação de unidade de transformação eficiente
US9491463B2 (en) 2012-04-14 2016-11-08 Qualcomm Incorporated Group flag in transform coefficient coding for video coding
US9313498B2 (en) 2012-04-16 2016-04-12 Qualcomm Incorporated Sign hiding techniques for quantized transform coefficients in video coding
US9774856B1 (en) 2012-07-02 2017-09-26 Google Inc. Adaptive stochastic entropy coding
US9509998B1 (en) 2013-04-04 2016-11-29 Google Inc. Conditional predictive multi-symbol run-length coding
GB2513111A (en) 2013-04-08 2014-10-22 Sony Corp Data encoding and decoding
US9445132B2 (en) 2013-09-09 2016-09-13 Qualcomm Incorporated Two level last significant coefficient (LSC) position coding
US9215464B2 (en) * 2013-09-19 2015-12-15 Blackberry Limited Coding position data for the last non-zero transform coefficient in a coefficient group
US9392288B2 (en) * 2013-10-17 2016-07-12 Google Inc. Video coding using scatter-based scan tables
KR102250088B1 (ko) * 2013-10-24 2021-05-10 삼성전자주식회사 비디오 스트림을 복호화하는 방법 및 장치
US9912968B2 (en) * 2014-01-24 2018-03-06 Mediatek Inc. Decoding apparatus capable of controlling repetition number of scan procedure based on at least one syntax element decoding result and related method
CN106105227B (zh) * 2014-03-16 2019-12-24 Vid拓展公司 用于无损视频译码的信令的方法和设备
US20150312568A1 (en) * 2014-03-17 2015-10-29 Nokia Technologies Oy Method and technical equipment for video encoding and decoding
CN104410863B (zh) * 2014-12-11 2017-07-11 上海兆芯集成电路有限公司 图像处理器以及图像处理方法
CN106331720B (zh) * 2015-06-17 2020-03-27 福州瑞芯微电子股份有限公司 一种视频解码相关信息存储方法和装置
US10531102B2 (en) * 2015-09-10 2020-01-07 Samsung Electronics Co., Ltd. Encoding device, decoding device, and encoding and decoding method thereof
KR102644185B1 (ko) * 2015-09-30 2024-03-06 엘지전자 주식회사 비디오 코딩 시스템에서 레지듀얼 신호 코딩 방법 및 장치
CN112954352A (zh) 2015-11-24 2021-06-11 三星电子株式会社 视频解码方法和视频编码方法
US10958989B2 (en) * 2016-02-25 2021-03-23 Synamedia Limited Framework for embedding data in encoded video
US10542294B2 (en) 2016-03-16 2020-01-21 Mediatek Inc. Method and apparatus of video data processing with restricted block size in video coding
US10630985B2 (en) 2016-05-27 2020-04-21 Samsung Electronics Co., Ltd. Method for scanning coding blocks inside a video frame by video codecs
EP3270594A1 (en) * 2016-07-15 2018-01-17 Thomson Licensing Method and apparatus for advanced cabac context adaptation for last coefficient coding
EP3522532A4 (en) * 2016-11-01 2019-08-07 Samsung Electronics Co., Ltd. CODING METHOD AND DEVICE THEREFOR, AND DECODING METHOD AND DEVICE THEREFOR
MX2019012294A (es) * 2017-04-13 2020-01-27 Lg Electronics Inc Metodo de codificacion/decodificacion de imagenes y dispositivo para el mismo.
US11805256B2 (en) * 2017-07-31 2023-10-31 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium storing bitstream
GB2570711B (en) * 2018-02-05 2023-04-05 Sony Corp Data encoding and decoding
EP3818705A1 (en) * 2018-07-02 2021-05-12 InterDigital VC Holdings, Inc. Context-based binary arithmetic encoding and decoding
CN108965333B (zh) * 2018-08-30 2021-02-19 北京锐安科技有限公司 一种数据压缩、解压缩方法、***及电子设备
CN110891180B (zh) * 2018-09-10 2023-11-17 华为技术有限公司 视频解码方法及视频解码器
KR102669450B1 (ko) * 2018-12-11 2024-05-28 에스케이하이닉스 주식회사 저장 장치 및 그 동작 방법
KR102595372B1 (ko) * 2018-12-17 2023-10-27 엘지전자 주식회사 고주파 제로잉을 기반으로 변환 계수 스캔 순서를 결정하는 방법 및 장치
HRP20231091T1 (hr) * 2019-03-12 2023-12-22 Lg Electronics Inc. Kodiranje slike temeljeno na transformaciji
MY189399A (en) 2019-03-21 2022-02-09 Samsung Electronics Co Ltd Method and device for encoding video having block size set for each block shape, and method and device for decoding video
US11962757B2 (en) 2019-03-23 2024-04-16 Lg Electronics Inc. Residual signal encoding/decoding method and apparatus employing intra sub-partitions (ISP), and method for transmitting bitstream
CN113711600B (zh) * 2019-04-26 2024-06-21 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法和解码方法
EP3987809A4 (en) * 2019-06-24 2023-02-22 Alibaba Group Holding Limited RESIDUAL TRANSFORM SKIP ENCODING OF VIDEO DATA
US11418790B2 (en) * 2019-06-28 2022-08-16 Qualcomm Incorporated Arithmetic coding with selective adaptation for video coding
WO2021032145A1 (en) * 2019-08-20 2021-02-25 Beijing Bytedance Network Technology Co., Ltd. Residual coding for transform skipped blocks
WO2021036979A1 (en) * 2019-08-24 2021-03-04 Beijing Bytedance Network Technology Co., Ltd. Residual coefficients coding
CN110708552B (zh) * 2019-08-27 2021-12-31 杭州海康威视数字技术股份有限公司 解码方法、编码方法及装置
JP7441638B2 (ja) 2019-12-06 2024-03-01 日本放送協会 符号化装置、復号装置、及びプログラム

Family Cites Families (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1679903A (en) 1928-01-12 1928-08-07 Chase Appliance Corp Anticreeping device for railway rails
US5295203A (en) 1992-03-26 1994-03-15 General Instrument Corporation Method and apparatus for vector coding of video transform coefficients
JPH06205388A (ja) 1992-12-28 1994-07-22 Canon Inc 画像符号化装置
EP0607484B1 (en) 1993-01-20 1998-09-09 Samsung Electronics Co. Ltd. Method and device for encoding and decoding image data
EP1802129A3 (en) 1995-03-15 2008-10-22 Kabushiki Kaisha Toshiba Moving picture coding and/or decoding systems
US5838825A (en) 1996-01-17 1998-11-17 Matsushita Electric Industrial Co., Ltd. Apparatus for decompressing image data which has been compressed using a linear transform
US5818877A (en) 1996-03-14 1998-10-06 The Regents Of The University Of California Method for reducing storage requirements for grouped data values
US6301304B1 (en) 1998-06-17 2001-10-09 Lsi Logic Corporation Architecture and method for inverse quantization of discrete cosine transform coefficients in MPEG decoders
US6553147B2 (en) 1998-10-05 2003-04-22 Sarnoff Corporation Apparatus and method for data partitioning to improving error resilience
CN1767649A (zh) 1998-11-04 2006-05-03 三菱电机株式会社 图象解码装置和图象解码方法
EP1041826A1 (en) 1999-04-01 2000-10-04 Lucent Technologies Inc. Apparatus for coding data and apparatus for decoding block transform coefficients
US6775414B1 (en) 1999-11-19 2004-08-10 Ati International Srl Variable-length code decoder
US6680974B1 (en) 1999-12-02 2004-01-20 Lucent Technologies Inc. Methods and apparatus for context selection of block transform coefficients
US6650707B2 (en) 2001-03-02 2003-11-18 Industrial Technology Research Institute Transcoding apparatus and method
US20020122483A1 (en) 2001-03-02 2002-09-05 Matsushita Electric Industrial Co., Ltd. Encoding circuit and method
WO2002078355A1 (en) 2001-03-23 2002-10-03 Nokia Corporation Variable length coding
US7113646B2 (en) 2001-06-29 2006-09-26 Equator Technologies, Inc. Decoding of predicted AC coefficient without division
US6856701B2 (en) 2001-09-14 2005-02-15 Nokia Corporation Method and system for context-based adaptive binary arithmetic coding
JP3764457B2 (ja) 2001-11-16 2006-04-05 株式会社エヌ・ティ・ティ・ドコモ 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、及びプログラム
US7190840B2 (en) 2002-01-07 2007-03-13 Hewlett-Packard Development Company, L.P. Transform coefficient compression using multiple scans
JP3866580B2 (ja) 2002-01-30 2007-01-10 日本電信電話株式会社 画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
US7099387B2 (en) 2002-03-22 2006-08-29 Realnetorks, Inc. Context-adaptive VLC video transform coefficients encoding/decoding methods and apparatuses
JP4090862B2 (ja) 2002-04-26 2008-05-28 松下電器産業株式会社 可変長符号化方法および可変長復号化方法
DE50305419D1 (de) 2002-05-02 2006-11-30 Fraunhofer Ges Forschung Kodierung und Dekodierung von Transformationskoeffizienten in Bild- oder Videokodierern
US7376280B2 (en) 2002-07-14 2008-05-20 Apple Inc Video encoding and decoding
US7483575B2 (en) 2002-10-25 2009-01-27 Sony Corporation Picture encoding apparatus and method, program and recording medium
US6646578B1 (en) 2002-11-22 2003-11-11 Ub Video Inc. Context adaptive variable length decoding system and method
CN1816828A (zh) 2003-06-30 2006-08-09 皇家飞利浦电子股份有限公司 将信号编码成位流的方法
US20050036549A1 (en) 2003-08-12 2005-02-17 Yong He Method and apparatus for selection of scanning mode in dual pass encoding
US7688894B2 (en) * 2003-09-07 2010-03-30 Microsoft Corporation Scan patterns for interlaced video content
US7379608B2 (en) 2003-12-04 2008-05-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung, E.V. Arithmetic coding for transforming video and picture data units
US7599435B2 (en) 2004-01-30 2009-10-06 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Video frame encoding and decoding
US7522774B2 (en) 2004-03-10 2009-04-21 Sindhara Supermedia, Inc. Methods and apparatuses for compressing digital image data
US7505043B2 (en) * 2004-08-30 2009-03-17 Qualcomm Incorporated Cache efficient rasterization of graphics data
US20060078049A1 (en) 2004-10-13 2006-04-13 Nokia Corporation Method and system for entropy coding/decoding of a video bit stream for fine granularity scalability
JP4271134B2 (ja) 2004-12-10 2009-06-03 株式会社東芝 可変長符号化デコーダおよびデコード方法
NO322043B1 (no) 2004-12-30 2006-08-07 Tandberg Telecom As Fremgangsmate for forenklet entropikoding
US8311119B2 (en) 2004-12-31 2012-11-13 Microsoft Corporation Adaptive coefficient scan order
US7609904B2 (en) 2005-01-12 2009-10-27 Nec Laboratories America, Inc. Transform coding system and method
JP2006211304A (ja) 2005-01-28 2006-08-10 Matsushita Electric Ind Co Ltd 映像符号化装置、映像復号化装置、映像符号化方法、映像復号化方法、映像符号化プログラムおよび映像復号化プログラム
US20060227865A1 (en) 2005-03-29 2006-10-12 Bhaskar Sherigar Unified architecture for inverse scanning for plurality of scanning scheme
EP1768415A1 (en) 2005-09-27 2007-03-28 Matsushita Electric Industrial Co., Ltd. Adaptive scan order of DCT coefficients and its signaling
US8726940B2 (en) 2005-05-13 2014-05-20 Westcast, Inc. Fuel equalization system
US8599925B2 (en) 2005-08-12 2013-12-03 Microsoft Corporation Efficient coding and decoding of transform blocks
US20070071331A1 (en) 2005-09-24 2007-03-29 Xiteng Liu Image compression by economical quaternary reaching method
WO2007043583A1 (ja) 2005-10-11 2007-04-19 Matsushita Electric Industrial Co., Ltd. 画像符号化装置、画像復号化装置及びこれらの方法
EP1958453B1 (en) 2005-11-30 2017-08-09 Koninklijke Philips N.V. Encoding method and apparatus applying coefficient reordering
US20090067503A1 (en) 2006-01-07 2009-03-12 Electronics And Telecommunications Research Institute Method and apparatus for video data encoding and decoding
US7884742B2 (en) 2006-06-08 2011-02-08 Nvidia Corporation System and method for efficient compression of digital data
US8275045B2 (en) 2006-07-12 2012-09-25 Qualcomm Incorporated Video compression using adaptive variable length codes
US8942292B2 (en) 2006-10-13 2015-01-27 Qualcomm Incorporated Efficient significant coefficients coding in scalable video codecs
US8098735B2 (en) 2006-12-21 2012-01-17 Lsi Corporation Efficient 8×8 CABAC residual block decode
US7369066B1 (en) 2006-12-21 2008-05-06 Lsi Logic Corporation Efficient 8×8 CABAC residual block transcode system
JP4745445B2 (ja) 2006-12-27 2011-08-10 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 変換係数ブロックを符号化するための装置と方法
CN101606391B (zh) 2007-01-18 2012-02-08 弗劳恩霍夫应用研究促进协会 质量可缩放视频数据流
KR101356733B1 (ko) 2007-03-07 2014-02-05 삼성전자주식회사 컨텍스트 기반 적응적 이진 산술 부호화, 복호화 방법 및장치
EP2120461B1 (en) 2007-03-14 2011-07-06 Nippon Telegraph and Telephone Corporation Code quantity estimating method and device, their program, and recording medium
US7813567B2 (en) 2007-04-26 2010-10-12 Texas Instruments Incorporated Method of CABAC significance MAP decoding suitable for use on VLIW data processors
US7885473B2 (en) 2007-04-26 2011-02-08 Texas Instruments Incorporated Method of CABAC coefficient magnitude and sign decoding suitable for use on VLIW data processors
US8571104B2 (en) 2007-06-15 2013-10-29 Qualcomm, Incorporated Adaptive coefficient scanning in video coding
US8619853B2 (en) 2007-06-15 2013-12-31 Qualcomm Incorporated Separable directional transforms
US7535387B1 (en) 2007-09-10 2009-05-19 Xilinx, Inc. Methods and systems for implementing context adaptive binary arithmetic coding
US8204327B2 (en) 2007-10-01 2012-06-19 Cisco Technology, Inc. Context adaptive hybrid variable length coding
US20090273796A1 (en) 2008-04-30 2009-11-05 Kodak Graphic Communications Canada Company Peeling imaged media from a substrate
KR101394153B1 (ko) 2007-12-11 2014-05-16 삼성전자주식회사 양자화 방법 및 장치, 역양자화 방법 및 장치
US8891615B2 (en) 2008-01-08 2014-11-18 Qualcomm Incorporated Quantization based on rate-distortion modeling for CABAC coders
US9008171B2 (en) 2008-01-08 2015-04-14 Qualcomm Incorporated Two pass quantization for CABAC coders
US8977064B2 (en) 2008-02-13 2015-03-10 Qualcomm Incorporated Rotational transcoding for JPEG or other coding standards
KR101375668B1 (ko) 2008-03-17 2014-03-18 삼성전자주식회사 변환 계수의 부호화, 복호화 방법 및 장치
US8179974B2 (en) 2008-05-02 2012-05-15 Microsoft Corporation Multi-level representation of reordered transform coefficients
EP2154894A1 (en) 2008-08-15 2010-02-17 Thomson Licensing Video coding with coding of the locations of significant coefficients in a block of coefficients
US8406307B2 (en) 2008-08-22 2013-03-26 Microsoft Corporation Entropy coding/decoding of hierarchically organized data
US7932843B2 (en) 2008-10-17 2011-04-26 Texas Instruments Incorporated Parallel CABAC decoding for video decompression
EP2182732A1 (en) 2008-10-28 2010-05-05 Panasonic Corporation Switching between scans in image coding
AU2009324014A1 (en) 2008-12-03 2011-06-23 Nokia Corporation Switching between DCT coefficient coding modes
US8004431B2 (en) 2008-12-09 2011-08-23 Qualcomm Incorporated Fast parsing of variable-to-fixed-length codes
US20110249755A1 (en) 2008-12-16 2011-10-13 Youji Shibahara Moving image coding method, moving image decoding method, moving image coding apparatus, moving image decoding apparatus, program, and integrated circuit
WO2010087809A1 (en) 2009-01-27 2010-08-05 Thomson Licensing Methods and apparatus for transform selection in video encoding and decoding
JP5004986B2 (ja) 2009-03-19 2012-08-22 キヤノン株式会社 スキャン変換装置及び画像符号化装置、並びにそれらの制御方法
JP5302769B2 (ja) 2009-05-14 2013-10-02 キヤノン株式会社 スキャン変換装置及び画像符号化装置及びそれらの制御方法
US9100648B2 (en) 2009-06-07 2015-08-04 Lg Electronics Inc. Method and apparatus for decoding a video signal
KR20100136890A (ko) 2009-06-19 2010-12-29 삼성전자주식회사 컨텍스트 기반의 산술 부호화 장치 및 방법과 산술 복호화 장치 및 방법
WO2011002914A1 (en) 2009-06-30 2011-01-06 Massachusetts Institute Of Technology System and method for providing high throughput entropy coding using syntax element partitioning
JP4650592B1 (ja) 2009-07-17 2011-03-16 日本電気株式会社 ウェーブレット変換符号化/復号方法および装置
US8619866B2 (en) 2009-10-02 2013-12-31 Texas Instruments Incorporated Reducing memory bandwidth for processing digital image data
US8477845B2 (en) 2009-10-16 2013-07-02 Futurewei Technologies, Inc. Predictive adaptive scan ordering for video coding
KR101457894B1 (ko) 2009-10-28 2014-11-05 삼성전자주식회사 영상 부호화 방법 및 장치, 복호화 방법 및 장치
KR20110045949A (ko) 2009-10-28 2011-05-04 삼성전자주식회사 회전 변환을 이용한 영상 부호화, 복호화 방법 및 장치
TW201119407A (en) 2009-11-19 2011-06-01 Thomson Licensing Method for coding and method for reconstruction of a block of an image
EP2524506B1 (en) 2010-01-15 2018-03-07 Thomson Licensing DTV Video coding using compressive sensing
US8588536B2 (en) 2010-02-22 2013-11-19 Texas Instruments Incorporated Guaranteed-rate tiled image data compression
US20110243220A1 (en) 2010-04-05 2011-10-06 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image and method and apparatus for decoding image using adaptive coefficient scan order
US8929440B2 (en) 2010-04-09 2015-01-06 Sony Corporation QP adaptive coefficients scanning and application
LT3435674T (lt) * 2010-04-13 2023-09-25 Ge Video Compression, Llc Reikšmingumo schemų ir transformacijos koeficientų blokų kodavimas
HUE057125T2 (hu) 2010-04-23 2022-05-28 M&K Holdings Inc Berendezés kép dekódolására
US9661338B2 (en) 2010-07-09 2017-05-23 Qualcomm Incorporated Coding syntax elements for adaptive scans of transform coefficients for video coding
LT3104617T (lt) 2010-07-09 2017-12-11 Samsung Electronics Co., Ltd. Transformacijos koeficientų entropinio dekodavimo būdas
US20120027081A1 (en) 2010-07-30 2012-02-02 Cisco Technology Inc. Method, system, and computer readable medium for implementing run-level coding
US9154801B2 (en) 2010-09-30 2015-10-06 Texas Instruments Incorporated Method and apparatus for diagonal scan and simplified coding of transform coefficients
KR101874945B1 (ko) 2010-10-14 2018-07-06 톰슨 라이센싱 향상된 엔트로피 인코딩 및 디코딩을 위한 방법 및 장치
US8976861B2 (en) 2010-12-03 2015-03-10 Qualcomm Incorporated Separately coding the position of a last significant coefficient of a video block in video coding
US9042440B2 (en) 2010-12-03 2015-05-26 Qualcomm Incorporated Coding the position of a last significant coefficient within a video block based on a scanning order for the block in video coding
US20120163472A1 (en) 2010-12-22 2012-06-28 Qualcomm Incorporated Efficiently coding scanning order information for a video block in video coding
US20120163456A1 (en) 2010-12-22 2012-06-28 Qualcomm Incorporated Using a most probable scanning order to efficiently code scanning order information for a video block in video coding
SG191869A1 (en) * 2011-01-07 2013-08-30 Agency Science Tech & Res Method and an apparatus for coding an image
US8687904B2 (en) 2011-01-14 2014-04-01 Panasonic Corporation Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus which include arithmetic coding or arithmetic decoding
US8891617B2 (en) * 2011-01-18 2014-11-18 Google Inc. Method and system for processing video data
US20120207400A1 (en) 2011-02-10 2012-08-16 Hisao Sasai Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US8861599B2 (en) 2011-03-08 2014-10-14 Sony Corporation Context reduction for last transform position coding
US9106913B2 (en) 2011-03-08 2015-08-11 Qualcomm Incorporated Coding of transform coefficients for video coding
US20120230418A1 (en) 2011-03-08 2012-09-13 Qualcomm Incorporated Coding of transform coefficients for video coding
CN102685503B (zh) 2011-03-10 2014-06-25 华为技术有限公司 变换系数的编码方法、变换系数的解码方法,和装置
US8861593B2 (en) 2011-03-15 2014-10-14 Sony Corporation Context adaptation within video coding modules
US8446301B2 (en) * 2011-04-15 2013-05-21 Research In Motion Limited Methods and devices for coding and decoding the position of the last significant coefficient
US9491469B2 (en) 2011-06-28 2016-11-08 Qualcomm Incorporated Coding of last significant transform coefficient
US9392301B2 (en) 2011-07-01 2016-07-12 Qualcomm Incorporated Context adaptive entropy coding for non-square blocks in video coding
CN107302369B (zh) 2012-01-20 2020-06-09 Ge视频压缩有限责任公司 从数据流解码具有变换系数级别的多个变换系数的装置

Also Published As

Publication number Publication date
EP2727343A1 (en) 2014-05-07
RU2014102578A (ru) 2015-08-10
JP2014523704A (ja) 2014-09-11
WO2013003581A1 (en) 2013-01-03
EP2727346A1 (en) 2014-05-07
WO2013003584A1 (en) 2013-01-03
US9167253B2 (en) 2015-10-20
CN103621086A (zh) 2014-03-05
KR101650635B1 (ko) 2016-08-23
CN103636213A (zh) 2014-03-12
KR20140028129A (ko) 2014-03-07
US20130003834A1 (en) 2013-01-03
KR20140029533A (ko) 2014-03-10
CA2840618C (en) 2017-09-05
KR101617968B1 (ko) 2016-05-03
JP2014521249A (ja) 2014-08-25
BR112013032702A2 (pt) 2017-01-24
US20130003835A1 (en) 2013-01-03
CN103621086B (zh) 2017-08-11
RU2576590C2 (ru) 2016-03-10
US9491469B2 (en) 2016-11-08
JP5792381B2 (ja) 2015-10-14
EP2727343B1 (en) 2016-12-14
CA2840618A1 (en) 2013-01-03

Similar Documents

Publication Publication Date Title
JP5792382B2 (ja) ビデオコーディングにおける最後の有意変換係数のスキャン順序での位置の導出
JP6022586B2 (ja) ビデオコーディングのための隣接するビデオユニットの利用可能性の検出
JP5893747B2 (ja) コード化スライスnalユニット中のセグメントのパディング
JP6162150B2 (ja) ビデオコーディング用の残差4分木(rqt)コーディング
JP6067776B2 (ja) ビデオデータをコンテキスト適応型コーディングすること
JP5868995B2 (ja) ビデオ符号化におけるビデオブロックの最後尾有意係数の位置の個別符号化
JP5774780B2 (ja) ビデオコーディングにおけるイントラ予測のための境界画素のパディング
JP5932049B2 (ja) ビデオコード化のデブロッキングフィルタリングのための境界強度値の決定
JP5770311B2 (ja) ビデオコーディングにおけるサブスライス
JP6081499B2 (ja) 変換係数コーディングのためのコンテキスト導出における走査ベーススライディングウィンドウ
JP5955955B2 (ja) リーフレベルコード化単位のサブセットについての変換係数のシンタックス要素の信号伝達
TW201813386A (zh) 用於視訊寫碼之樹型寫碼
JP6553181B2 (ja) パレットモードコーディングのための方法
CN112514386B (zh) 网格编解码量化系数编解码
JP2016076963A (ja) ビデオコーディングにおける並列コンテキスト計算
CN111183647B (zh) 用于解码视频数据的方法、装置和计算机可读媒体
CN116016915B (zh) 变换与系数信令的方法和装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150805

R150 Certificate of patent or registration of utility model

Ref document number: 5792382

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250