JP2014514814A - ビデオコーディングにおける単予測ネイバーに基づく双予測マージモード - Google Patents

ビデオコーディングにおける単予測ネイバーに基づく双予測マージモード Download PDF

Info

Publication number
JP2014514814A
JP2014514814A JP2014501085A JP2014501085A JP2014514814A JP 2014514814 A JP2014514814 A JP 2014514814A JP 2014501085 A JP2014501085 A JP 2014501085A JP 2014501085 A JP2014501085 A JP 2014501085A JP 2014514814 A JP2014514814 A JP 2014514814A
Authority
JP
Japan
Prior art keywords
video
different
merge mode
uni
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014501085A
Other languages
English (en)
Other versions
JP5897698B2 (ja
Inventor
ジェン、ユンフェイ
チエン、ウェイ−ジュン
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2014514814A publication Critical patent/JP2014514814A/ja
Application granted granted Critical
Publication of JP5897698B2 publication Critical patent/JP5897698B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本開示では、双予測ビデオブロックが動き情報を2つの異なる隣接ブロックから継承し、2つの異なる隣接ブロックがそれぞれ単予測モードで符号化された双予測マージモードについて説明する。双予測コーディングは、ビデオコーディングにおける圧縮を達成する能力を改善し得る。説明する双予測マージモードは、ビデオブロックについての双予測動き情報を定義するために2つの別個の単予測ネイバーが使用されることを可能にすることによって、マージモードコーディングのコンテキストにおいて使用され得る双予測候補の数を増加させ得る。

Description

本出願は、各々の内容全体が参照により本明細書に組み込まれる、2011年3月21日に出願された米国仮出願第61/454,862号、および2011年6月29日に出願された米国仮出願第61/502,703号の利益を主張する。
本開示は、ビデオデータを圧縮するために使用されるビデオコーディング技法に関し、より詳細には、ビデオ圧縮において使用されるビデオコーディングモードに関する。
デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレス電話ハンドセットなどのワイヤレス通信デバイス、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、デジタルカメラ、デジタル記録デバイス、ビデオゲームデバイス、ビデオゲーム機、パーソナルマルチメディアプレーヤなどを含む、広範囲にわたるデバイスに組み込まれ得る。そのようなビデオデバイスは、ビデオデータを圧縮するために、MPEG−2、MPEG−4、またはITU−T H.264/MPEG−4,Part10,アドバンストビデオコーディング(AVC:Advanced Video Coding)に記載されているビデオ圧縮技法などのビデオ圧縮技法を実装し得る。ビデオ圧縮技法では、ビデオシーケンスに固有の冗長性を低減または除去するために空間的および/または時間的予測を実行する。MPEGとITU−Tとのコラボレーションである「Joint Collaborative Team−Video Coding」(JCTVC)によって開発されている高効率ビデオコーディング(HEVC:High Efficiency Video Coding)規格など、新しいビデオ規格が出現し、発展し続けている。新生HEVC規格は、H.265と呼ばれることがある。
これらおよび他のビデオコーディング規格および技法は、ブロックベースのビデオコーディングを使用する。ブロックベースのビデオコーディング技法は、ビデオフレームのビデオデータ(またはそれの一部分)をビデオブロックに分割し、次いで予測ブロックベースの圧縮技法を使用してビデオブロックを符号化する。ビデオブロックは、さらにビデオブロック区分に分割され得る。ビデオブロック(またはそれらの区分)は、コーディングユニット(CU)と呼ばれることがあり、1つまたは複数のビデオ固有の符号化技法ならびに一般的なデータ圧縮技法を使用して符号化され得る。ビデオブロックをコーディングするために、異なるモードが選択され、使用され得る。
新生HEVC規格では、最大コード化ユニット(LCU)が4分木区分方式(quadtree partitioning scheme)に従ってますます小さいCUに分割され得る。CUは、いわゆる予測ユニット(PU)に基づいて予測され得、PUは、複数のPUが所与のCUを予測するために使用され得るように、CUのサイズに対応するパーティションサイズ、またはCUのサイズよりも小さいパーティションサイズを有することができる。
CUを符号化するために、異なるモードが使用され得る。たとえば、ビデオフレーム内の空間的冗長性を活用するために、同じフレームまたはスライス内の予測データに基づいてCUをコーディングするために異なるイントラコーディングモードが使用され得る。代替的に、ビデオシーケンスのフレーム上の時間的冗長性を活用するために、別のフレームまたはスライスからの予測データに基づいてCUをコーディングするためにインターコーディングモードが使用され得る。予測コーディングが選択されたモードに従って実行された後、次いで、離散コサイン変換(DCT)、整数変換などの変換コーディングが実行され得る。HEVCの場合、変換コーディングは変換ユニット(TU)に対して行われ得、TUはまた、HEVC規格において変動する変換サイズを有することができる。また、変換係数の量子化、量子化変換係数の走査、およびエントロピーコーディングが実行され得る。ビデオデータをどのように復号すべきかをデコーダに知らせるために、たとえば、ビデオスライスヘッダまたはビデオブロックヘッダ中で、シンタックス情報が、符号化ビデオデータとともにシグナリングされる。特に、シンタックス情報は、異なるビデオブロックのビデオコーディングにおいて使用されたモードを識別し得る。
マージモードは、ビデオ圧縮において使用される特定のインターコーディングモードである。マージモードの場合、隣接ビデオブロックの動きベクトルは、コーディングされている現在のビデオブロックのために継承される。場合によっては、マージモードは、現在のビデオブロックに、あらかじめ定義されたネイバーの動きベクトルを継承させ、他の場合には、現在のビデオブロックがそれの動きベクトルをそこから継承する特定のネイバー(たとえば、上部、上部右側、左側、左側下部、または時間的に隣接するフレームからのコロケート)を識別するために、インデックス値が使用され得る。
本開示では、双予測マージモード(bi-predictive merge mode)でコーディングされたビデオブロックがそれの動き情報を2つの異なる隣接ブロックから継承し、2つの異なる隣接ブロックがそれぞれ単予測モードで符号化された双予測マージモードについて説明する。双予測コーディングは、圧縮を達成する能力を改善するか、または所与の圧縮レベルにおけるビデオ品質を改善し得る。しかしながら、場合によっては、双予測モードで符号化されたネイバーがまったくなく(またはほとんどなく)、それにより、マージモード符号化に関して双予測が利用不可能に(または制限付きに)なることがある。説明する双予測マージモードは、ビデオブロックについての双予測動き情報を定義するために2つの別個の単予測ネイバーが使用されることを可能にすることによって、マージモードコーディングのコンテキストにおいて使用され得る双予測候補の数を増加させ得る。
一例では、本開示では、ビデオデータを復号する方法について説明する。本方法は、現在のビデオブロックのための1つまたは複数のシンタックス要素を受信することであって、現在のビデオブロックが双予測マージモードに従って符号化される、受信することと、1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することとを備える。本方法はまた、双予測マージモードに従って現在のビデオブロックを復号するために、2つの異なる隣接ビデオブロックの動き情報を使用することを備える。
別の例では、本開示では、ビデオデータを符号化する方法について説明する。本方法は、現在のビデオブロックを符号化するための双予測マージモードを選択することと、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、双予測マージモードに従って現在のビデオブロックを符号化するために、2つの異なる隣接ビデオブロックの動き情報を使用することと、ビデオデコーダに対して2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成することとを備える。
別の例では、本開示では、ビデオデータを復号するビデオ復号デバイスについて説明する。本ビデオ復号デバイスは、現在のビデオブロックのための1つまたは複数のシンタックス要素を受信することであって、現在のビデオブロックが双予測マージモードに従って符号化される、受信することと、1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することとを行うように構成されたビデオデコーダを備える。ビデオデコーダは、双予測マージモードに従って現在のビデオブロックを復号するために、2つの異なる隣接ビデオブロックの動き情報を使用するように構成される。
別の例では、本開示では、現在のビデオブロックを符号化するための双予測マージモードを選択することと、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、双予測マージモードに従って現在のビデオブロックを符号化するために、2つの異なる隣接ビデオブロックの動き情報を使用することと、ビデオデコーダに対して2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成することとを行うように構成されたビデオエンコーダを備えるビデオ符号化デバイスについて説明する。
別の例では、本開示では、ビデオデータを復号するためのデバイスであって、デバイスは、現在のビデオブロックのための1つまたは複数のシンタックス要素を受信するための手段であって、現在のビデオブロックが双予測マージモードに従って符号化される、受信するための手段と、1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別するための手段と、双予測マージモードに従って現在のビデオブロックを復号するために、2つの異なる隣接ビデオブロックの動き情報を使用するための手段とを備えるデバイスについて説明する。
別の例では、本開示では、ビデオデータを符号化するためのデバイスであって、デバイスは、現在のビデオブロックを符号化するための双予測マージモードを選択するための手段と、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別するための手段と、双予測マージモードに従って現在のビデオブロックを符号化するために、2つの異なる隣接ビデオブロックの動き情報を使用するための手段と、ビデオデコーダに対して2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成するための手段とを備えるデバイスについて説明する。
本開示で説明する技法は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。たとえば、様々な技法が、1つまたは複数のプロセッサによって実装または実行され得る。本明細書で使用するプロセッサは、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタル信号プロセッサ(DSP)、または他の等価の集積回路またはディスクリート論理回路を指すことがある。ソフトウェアは、1つまたは複数のプロセッサによって実行され得る。本技法を実行する命令を備えるソフトウェアは、最初にコンピュータ可読媒体に記憶され得、プロセッサによってロードされ得、実行され得る。
したがって、本開示はまた、プロセッサに、本開示で説明するいずれかの技法を実行させるための命令を備えるコンピュータ可読記憶媒体を企図する。場合によっては、コンピュータ可読記憶媒体はコンピュータプログラム記憶製品の一部を形成し得、コンピュータプログラム記憶製品は、製造業者に販売され、および/またはデバイス中で使用され得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得、場合によってはパッケージング材料をも含み得る。
特に、本開示ではまた、実行されると、プロセッサにビデオデータを復号させる命令を備えるコンピュータ可読媒体であって、命令は、プロセッサに、現在のビデオブロックのための1つまたは複数のシンタックス要素を受信することであって、現在のビデオブロックが双予測マージモードに従って符号化される、受信することと、1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、双予測マージモードに従って現在のビデオブロックを復号するために、2つの異なる隣接ビデオブロックの動き情報を使用することとを行わせる、コンピュータ可読媒体について説明する。
さらに別の例では、本開示では、実行されると、プロセッサにビデオデータを符号化させる命令を備えるコンピュータ可読媒体であって、命令は、プロセッサに、現在のビデオブロックを符号化するための双予測マージモードを選択することと、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、双予測マージモードに従って現在のビデオブロックを符号化するために、2つの異なる隣接ビデオブロックの動き情報を使用することと、ビデオデコーダに対して2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成することとを行わせる、コンピュータ可読媒体について説明する。
本開示の1つまたは複数の態様の詳細を添付の図面および以下の説明に記載する。本開示で説明する技法の他の特徴、目的、および利点は、これらの説明および図面、ならびに特許請求の範囲から明らかになろう。
本開示の技法のうちの1つまたは複数を実装し得る1つの例示的なビデオ符号化および復号システムを示すブロック図。 本開示の技法に一致する、コーディングユニット(CU)の4分木区分を示す概念図。 本開示の技法に一致する、CUと予測ユニット(PU)と変換ユニット(TU)との間のいくつかの可能な関係を示す概念図。 本開示の技法を実装し得るビデオエンコーダを示すブロック図。 本開示の1つまたは複数の例に一致するエンコーダの例示的な予測ユニットを示すブロック図。 本開示の技法を実装し得るビデオデコーダを示すブロック図。 現在のビデオブロックが、本開示に一致する、双予測マージモードで1つまたは複数の異なる隣接ビデオブロックの情報を使用し得るような、現在のビデオブロックに対する異なる隣接ビデオブロックのロケーションを示す概念図。 本開示に一致する技法を示すフロー図。 本開示に一致する技法を示すフロー図。
詳細な説明
たいていのビデオコーディングシステムでは、データ圧縮を達成するために、ビデオシーケンス中の時間的冗長性を低減するために動き推定および動き補償が使用される。この場合、動きベクトルは、コーディングされている現在のビデオブロックの値を予測するために使用され得る、たとえば、別のビデオフレームまたはスライスからビデオデータの予測ブロックを識別するように生成され得る。予測ビデオブロックの値が、現在のビデオブロックの値から減算されて、残差(residual)データのブロックが生成される。動きベクトルは、残差データとともにエンコーダからデコーダに通信される。デコーダは、(動きベクトルに基づいて)同じ予測ブロックを配置し得、残差データを予測ブロックのデータと組み合わせることによって符号化されたビデオブロックを再構成することができる。ビデオ圧縮をさらに改善するために、変換およびエントロピーコーディングなどの多くの他の圧縮技法も使用され得る。
動き推定プロセスは、通常エンコーダにおいて行われる。デコーダが、所与のビデオブロックを符号化するために使用された同じ予測ブロックを識別することができるように、(動きベクトル、動きベクトルインデックス、予測方向、または他の情報などの)動き情報が符号化され得、エンコーダからデコーダに送信され得る。多くの異なる符号化モードが、2つの異なるフレーム間の様々なタイプの時間的予測、または所与のフレーム内の様々なタイプの空間的予測を可能にするために使用され得る。
いわゆるマージモードの場合、隣接ビデオブロックの動き情報は、コーディングされている現在のビデオブロックのために継承される。この場合、動きベクトル自体は、マージモードでコーディングされたビデオブロックのために送信されない。そうではなく、現在のビデオブロックがそれの動きベクトル(および場合によっては、他の動き情報)をそこから継承するネイバーを識別するために、インデックス値が使用され得る。たとえば、動き情報は、上部ネイバー、右側上部ネイバー、左側ネイバー、左側下部ネイバー、または時間的に隣接するフレームからのコロケート時間ネイバー(co-located temporal neighbor)から継承され得る。
たいていのマージモードの場合、ネイバーが単予測モードで符号化された場合、現在のビデオブロックは1つの動きベクトルを継承する。ネイバーが双予測モードで符号化された場合、現在のビデオブロックは2つの動きベクトルを継承する。そのような例では、マージモードでコーディングされているブロックは、それのネイバーの動き情報によって限定される。単予測および双予測は、単方向(P)予測および双方向(B)予測と呼ばれることがあるが、現代のビデオコーディング規格の場合、双予測は予測データの2つの異なるリストに基づくだけであり、方向が要求されないので、「方向」という用語は、一般的に間違い(misplaced)である。言い換えれば、双予測のための2つの異なるリスト中のデータは、前のフレームまたは後続のフレームから来ることがあり、それぞれ、前のフレームと後続のフレームの両方から双方向である必要はない。このために、本開示は、単方向予測および双方向予測という用語ではなく、単予測および双予測という用語を使用する。
双予測コーディングは、圧縮を達成する能力を改善するか、または所与の圧縮レベルにおけるビデオ品質を改善し得る。しかしながら、場合によっては、双予測モードで符号化されたネイバーがまったくなく(またはほとんどなく)、それにより、マージモード符号化における双予測が利用不可能に(または制限付きに)なることがある。たとえば、従来のマージモードの場合、隣接ブロックのいずれにも双予測モードがない場合、現在のブロックは、双予測から生じ得る利益を活用する機会を失うことがある。
本開示では、双予測マージモードを、マージモード技法への拡張または追加として説明する。より詳細には、本開示では、2つの異なる隣接ブロックから動き情報を継承する双予測マージモードであって、2つの異なる隣接ブロックがそれぞれ単予測モードで符号化された、双予測マージモードについて説明する。説明する双予測マージモードは、マージモードコーディングのコンテキストにおいて使用され得る双予測候補の数を増加させ得る。
図1は、本開示の技法を実装し得る例示的なビデオ符号化および復号システム10を示すブロック図である。図1に示すように、システム10は、通信チャネル15を介して符号化ビデオを宛先デバイス16に送信するソースデバイス12を含む。ソースデバイス12および宛先デバイス16は、広範囲にわたるデバイスのいずれかを備え得る。場合によっては、ソースデバイス12および宛先デバイス16は、いわゆるセルラー無線電話または衛星無線電話などのワイヤレス通信デバイスハンドセットを備え得る。ただし、概して双予測マージモードでのビデオブロックの符号化および復号に適用される本開示の技法は、ビデオ符号化および/または復号能力を含む非ワイヤレスデバイスに適用され得る。ソースデバイス12および宛先デバイス16は、本明細書で説明する技法をサポートすることができるコーディングデバイスの例にすぎない。
図1の例では、ソースデバイス12は、ビデオソース20と、ビデオエンコーダ22と、変調器/復調器(モデム)23と、送信機24とを含み得る。宛先デバイス16は、受信機26と、モデム27と、ビデオデコーダ28と、ディスプレイデバイス30とを含み得る。本開示によれば、ソースデバイス12のビデオエンコーダ22は、双予測マージモードに従って1つまたは複数のビデオブロックを符号化するように構成され得る。双予測マージモードの場合、ビデオブロックがそれの動き情報を2つの異なる隣接ブロックから継承し、2つの異なる隣接ブロックがそれぞれ単予測モードで符号化されている。単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別するために、シンタックス要素がビデオエンコーダ22において生成され得る。このようにして、ビデオデコーダは、シンタックス要素によって識別された2つの異なる隣接ビデオブロックの動き情報に基づいて、双予測ビデオブロックを再構成することができる。
より詳細には、ビデオエンコーダ22は、現在のビデオブロックを符号化するための双予測マージモードを選択し得、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別し得る。ビデオエンコーダ22は、双予測マージモードに従って現在のビデオブロックを符号化するために2つの異なる隣接ビデオブロックの動き情報を使用し得、ビデオデコーダに対して2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成し得る。
ビデオソース20は、ビデオカメラ、前にキャプチャされたビデオを含んでいるビデオアーカイブ、ビデオコンテンツプロバイダからのビデオフィード、またはビデオの別のソースなど、ビデオキャプチャデバイスを備え得る。さらなる代替として、ビデオソース20は、ソースビデオとしてのコンピュータグラフィックスベースのデータ、またはライブビデオとアーカイブビデオとコンピュータ生成ビデオとの組合せを生成し得る。場合によっては、ビデオソース20がビデオカメラである場合、ソースデバイス12および宛先デバイス16は、いわゆるカメラフォンまたはビデオフォンを形成し得る。各場合において、キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータ生成ビデオは、ビデオエンコーダ22によって符号化され得る。
ビデオデータがビデオエンコーダ22によって符号化されると、符号化されたビデオ情報は、次いで、たとえば、符号分割多元接続(CDMA)、直交周波数分割多重化(OFDM)あるいは他の通信規格または技法などの通信規格に従ってモデム23によって変調され得る。次いで、符号化および変調されたデータは、送信機24を介して宛先デバイス16に送信され得る。モデム23は、信号変調のために設計された様々なミキサ、フィルタ、増幅器または他のコンポーネントを含み得る。送信機24は、増幅器、フィルタ、および1つまたは複数のアンテナを含む、データを送信するために設計された回路を含み得る。宛先デバイス16の受信機26はチャネル15を介して情報を受信し、モデム27はその情報を復調する。
ビデオデコーダ28によって実行されるビデオ復号プロセスは、ビデオエンコーダ22によって実行される符号化技法とは逆の(reciprocal)技法を含み得る。特に、ビデオデコーダ28は、現在のビデオブロックのための1つまたは複数のシンタックス要素を受信することであって、現在のビデオブロックが双予測マージモードに従って符号化される、受信することと、1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することとを行い得る。ビデオデコーダは、双予測マージモードに従って現在のビデオブロックを復号するために、2つの異なる隣接ビデオブロックの動き情報を使用し得る。
通信チャネル15は、無線周波数(RF)スペクトルまたは1つまたは複数の物理伝送線路など、任意のワイヤレスまたはワイヤード通信媒体、あるいはワイヤレス媒体とワイヤード媒体との任意の組合せを備え得る。通信チャネル15は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信チャネル15は、一般に、ビデオデータをソースデバイス12から宛先デバイス16に送信するのに好適な任意の通信媒体、または様々な通信媒体の集合体を表す。この場合も、図1は例にすぎず、本開示の技法は、符号化デバイスと復号デバイスとの間のデータ通信を必ずしも含むとは限らないビデオコーディング設定(たとえば、ビデオ符号化またはビデオ復号)に適用され得る。他の例では、データがローカルメモリから取り出されること、ネットワークを介してストリーミングされることなどが行われ得る。
場合によっては、ビデオエンコーダ22およびビデオデコーダ28は、新生HEVC規格などのビデオ圧縮規格に実質的に従って動作し得る。しかしながら、本開示の技法はまた、いくつかの古い規格、あるいは新しいまたは新生の規格を含む、様々な他のビデオコーディング規格のコンテキストにおいて適用され得る。図1には示されていないが、場合によっては、ビデオエンコーダ22およびビデオデコーダ28は、それぞれオーディオエンコーダおよびデコーダと統合され得、共通のデータストリームまたは別個のデータストリーム中のオーディオとビデオの両方の符号化を処理するために、適切なMUX−DEMUXユニット、または他のハードウェアおよびソフトウェアを含み得る。適用可能な場合、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
ビデオエンコーダ22およびビデオデコーダ28はそれぞれ、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェア、あるいはそれらの組合せとして実装され得る。ビデオエンコーダ22およびビデオデコーダ28の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれ得、そのいずれも複合エンコーダ/デコーダ(コーデック)の一部としてそれぞれのモバイルデバイス、加入者デバイス、ブロードキャストデバイス、サーバなどに統合され得る。本開示では、コーダという用語はエンコーダ、デコーダ、またはコーデックを指し、コーダ、エンコーダ、デコーダ、およびコーデックという用語はすべて、本開示に一致するビデオデータのコーディング(符号化および/または復号)のために設計された特定の機械を指す。
場合によっては、デバイス12、16は、実質的に対称的に動作し得る。たとえば、デバイス12、16の各々は、ビデオ符号化コンポーネントとビデオ復号コンポーネントとを含み得る。したがって、システム10は、たとえば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、またはビデオテレフォニーのためのビデオデバイス12とビデオデバイス16との間の一方向または双方向のビデオ送信をサポートし得る。
符号化プロセス中に、ビデオエンコーダ22は、いくつかのコーディング技法または演算(operations)を実行し得る。概して、ビデオエンコーダ22は、HEVC規格に一致するビデオデータのブロック上で動作する。HEVCに従って、ビデオブロックは、コーディングユニット(CU)と呼ばれ、多くのCUは、個々のビデオフレーム(または、スライスなど、ビデオの他の単独で定義されたユニット)内に存在する。フレーム、スライス、フレームの部分、ピクチャグループ、または他のデータ構造は、複数のCUを含むビデオ情報のユニットとして定義され得る。CUは、HEVC規格に従って変動するサイズを有し得、ビットストリームは、最大コーディングユニット(LCU)をCUの最大サイズとして定義し得る。双予測マージモードは、LCU、CU、または場合によっては他のタイプのビデオブロックを符号化するために使用され得る。HEVC規格では、LCUが4分木区分方式に従ってますます小さいCUに分割され得、その方式において定義されている様々なCUは、さらに、いわゆる予測ユニット(PU)に区分され得る。LCU、CU、およびPUは、すべて、本開示の意味内のビデオブロックである。
ビデオエンコーダ22は、コーディングされているビデオブロック(たとえば、LCU内のCUのPU)が、予測ブロックを識別するために1つまたは複数の予測候補と比較される、予測コーディングを実行し得る。予測コーディングのこのプロセスは、イントラ(その場合、予測データは、同じビデオフレームまたはスライス内の近隣イントラデータに基づいて生成される)、またはインター(その場合、予測データは、前または後続のフレームまたはスライス中のビデオデータに基づいて生成される)であり得る。多くの異なるコーディングモードがサポートされ得、ビデオエンコーダ22は、望ましいビデオコーディングモードを選択し得る。本開示によれば、少なくともいくつかのビデオブロックは、本明細書で説明する双予測マージモードを使用してコーディングされ得る。
予測ブロックを生成した後に、コーディングされている現在のビデオブロックと予測ブロックとの間の差は残差ブロックとしてコーディングされ、予測ブロックを識別するために(インターコーディングの場合は動きベクトル、またはイントラコーディングの場合は予測モードなどの)予測シンタックスが使用される。その上、本明細書で説明する双予測マージモードの場合、予測シンタックス(たとえば、シンタックス要素)は、ビデオデコーダに対して2つの異なる隣接ビデオブロックを識別し得る。したがって、デコーダは、シンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別し得、双予測マージモードに従って現在のビデオブロックを復号するために2つの異なる隣接ビデオブロックの動き情報を使用することができる。
残差ブロックは、変換され得、量子化され得る。変換技法は、DCTプロセスまたは概念的に同様のプロセス、整数変換、ウェーブレット変換、または他のタイプの変換を備え得る。DCTプロセスでは、一例として、変換プロセスは、ピクセル値(たとえば、残差ピクセル値)のセットを、周波数領域におけるピクセル値のエネルギーを表し得る変換係数に変換する。HEVC規格は、CUごとに異なり得る変換ユニット(TU)に従う変換を可能にする。TUは、一般に、区分されたLCUについて定義された所与のCU内のPUのサイズに基づいてサイズ決定されるが、常にそうであるとは限らない。TUは、一般にPUと同じサイズであるかまたはPUよりも小さい。
量子化は、変換係数に適用され得、概して、所与の変換係数に関連するビット数を制限するプロセスを必要とする。より詳細には、量子化は、LCUレベルで定義される量子化パラメータ(QP)に従って適用され得る。したがって、同じレベルの量子化が、LCU内のCUの異なるPUに関連するTU中のすべての変換係数に適用され得る。ただし、QP自体をシグナリングするのではなく、前のLCUの変化に対するQPの変化を示すために、QPの変化(すなわち、デルタ)がLCUとともにシグナリングされ得る。
変換および量子化の後に、量子化および変換された残差ビデオブロックに対してエントロピーコーディングが実行され得る。また、シンタックス要素がエントロピーコード化ビットストリーム中に含まれ得る。概して、エントロピーコーディングは、量子化変換係数のシーケンスおよび/または他のシンタックス情報をまとめて圧縮する、1つまたは複数のプロセスを備える。2次元ビデオブロックから係数の1つまたは複数のシリアル化1次元ベクトルを定義するために、量子化変換係数に対して走査技法が実行され得る。走査された係数は次いで、たとえば、コンテンツ適応型可変長コーディング(CAVLC:content adaptive variable length coding)、コンテキスト適応型バイナリ算術コーディング(CABAC:context adaptive binary arithmetic coding)、または別のエントロピーコーディングプロセスによって、任意のシンタックス情報とともにエントロピーコーディングされる。
符号化プロセスの一部として、符号化されたビデオブロックは、後続のビデオブロックの後続の予測ベースコーディングのために使用されるビデオデータを生成するために復号され得る。これは、しばしば、符号化プロセスの復号ループと呼ばれ、概して、デコーダデバイスによって実行される復号を模倣する(mimics)。エンコーダまたはデコーダの復号ループでは、ビデオ品質を改善し、たとえば、ピクセル境界を平滑化し(smooth)、場合によっては、復号されたビデオからアーティファクトを除去するために、フィルタ処理技法が使用され得る。このフィルタ処理はループ内またはループ後(post-loop)であり得る。ループ内フィルタ処理の場合、コーディングループ中で再構成ビデオデータのフィルタ処理が行われ、これは、フィルタ処理されたデータが、後続の画像データの予測において後で使用するためにエンコーダまたはデコーダによって記憶されることを意味する。対照的に、ループ後フィルタ処理の場合、コーディングループの外で再構成ビデオデータのフィルタ処理が行われ、これは、データのフィルタ処理されていないバージョンが、後続の画像データの予測において後で使用するためにエンコーダまたはデコーダによって記憶されることを意味する。ループフィルタ処理は、しばしば、ビデオブロック境界に現れるブロッキネスアーティファクト(blockiness artifacts)を除去するために、一般に、隣接するビデオブロックの境界上にまたはその近くにあるピクセルにフィルタ処理を適用する別のデブロックフィルタ処理プロセスに続く。
前のコーディング規格と比較して、新生HEVC規格は、ビデオブロックについての新しい用語およびブロックサイズを導入している。特に、HEVCは、4分木区分方式に従って区分され得るコーディングユニット(CU)を指す。「LCU」は、所与の状況においてサポートされる最大サイズのコーディングユニット(たとえば、「最大コーディングユニット」)を指す。LCUサイズは、それ自体が、ビットストリームの一部として、たとえば、シーケンスレベルシンタックスとしてシグナリングされ得る。LCUは、より小さいCUに区分され得る。CUは、予測のために予測ユニット(PU)に区分され得る。PUは、正方形または矩形形状を有し得る。変換は、新生HEVC規格において固定されていないが、所与のCUと同じサイズであるか、または場合によってはより小さくなり得る変換ユニット(TU)サイズに応じて定義される。所与のCUについての残差データは、TU中で通信され得る。シンタックス要素は、LCUレベル、CUレベル、PUレベルおよびTUレベルにおいて定義され得る。
HEVC規格に従ってビデオブロックを示すために、図2は、深さ64×64のLCUを概念的に示しており、次いで、LCUは、4分木区分方式に従ってより小さいCUに区分される。「分割フラグ」と呼ばれる要素が、所与のCU自体がさらに4つのCUに再分割される(sub-divided)かどうかを示すためのCUレベルシンタックスとして含まれ得る。図2では、CU0はLCUを備え得、CU1〜CU4はLCUのサブCUを備え得る。双予測マージモードシンタックス要素は、本開示で説明するように、CUレベル(または場合によっては、LCUがより小さいCUに分割されていない場合、LCUレベル)で定義され得る。また、いくつかの例では、双予測マージモードは、CUのPUのためにサポートされ得る。
図3に、新生HEVC規格または他の規格に一致し得る、CUとPUとTUとの間の1つの可能な関係をさらに示す。しかしながら、他の関係も可能であり、図3は、1つの可能な例として示されるにすぎない。この場合、LCUの所与のCUは、それ自体が、図3に示すPUなどのPUに区分され得る。所与のCUについてのPUタイプは、CUレベルシンタックスとしてシグナリングされ得る。図3に示すように、所与のCUについて、対称タイプPUおよび非対称タイプPUが定義され得る。その上、4つの対称タイプPUおよび非対称タイプPUの各々について、2つの異なるTU構造が定義され得る。したがって、TUサイズをシグナリングするために、1ビットシンタックス要素(TUサイズフラグ)が使用され得、1ビットシンタックス要素はまた、PUタイプ(対称または非対称)に依存し得る。所与のCUが非0変換係数を含むかどうか(たとえば、TUが存在するかどうかを)を示すために、コード化ブロックパターン(CBP)がLCUについて定義され得る。
他の例では、TUは、図3に示すものとは異なって定義され得る。たとえば、CUに対応する残差サンプルは、「残差4分木」(RQT:residual quad tree)として知られる4分木構造を使用して、より小さいユニットに再分割され得る。RQTのリーフノードは、変換ユニット(TU)と呼ばれることがある。場合によっては、TUは、4分木構造に従ってCUについて定義され得るが、TUは、必ずしも所与のCUについて定義されたPUに依存するとは限らないことがある。予測のために使用されるPUは、どのCUのTUとも別々に定義され得る。CU、TU、およびPUについての多くの様々なタイプの区分方式が可能である。
図4は、本開示に一致するビデオエンコーダ50を示すブロック図である。ビデオエンコーダ50は、デバイス20のビデオエンコーダ22、または異なるデバイスのビデオエンコーダに対応し得る。図4に示すように、ビデオエンコーダ50は、予測符号化ユニット32と、4分木パーティションユニット31と、加算器48および51と、メモリ34とを含む。ビデオエンコーダ50はまた、変換ユニット38および量子化ユニット40、ならびに逆量子化ユニット42および逆変換ユニット44を含む。ビデオエンコーダ50はまた、エントロピーコーディングユニット46とフィルタユニット47とを含み、フィルタユニット47は、デブロックフィルタと、ループ後フィルタおよび/またはループ内フィルタとを含み得る。符号化の方法を定義する符号化ビデオデータおよびシンタックス情報は、エントロピー符号化ユニット46に通信され得、エントロピー符号化ユニット46はビットストリームに対してエントロピー符号化を実行する。
図4に示すように、予測符号化ユニット32は、ビデオブロックの符号化において複数の異なるコーディングモード35をサポートし得る。モード35は、異なるビデオフレーム(またはスライス)から予測データを定義するインターコーディングモードを含み得る。インターコーディングモードは双予測であり得、これは、予測データの2つの異なるリスト(たとえば、リスト0およびリスト1)(ならびに一般に2つの異なる動きベクトル)が、予測データを識別するために使用されることを意味する。インターコーディングモードは、代替的に単予測であり得、これは、予測データの1つのリスト(たとえば、リスト0)(および一般に1つの動きベクトル)が、予測データを識別するために使用されることを意味する。補間、オフセットまたは他の技法が、予測データの生成と併せて実行され得る。別のフレーム(またはスライス)のコロケートブロックに関連する動き情報を継承する、いわゆるSKIPモードおよびDIRECTモードもサポートされ得る。SKIPモードブロックは残差情報を含まないが、DIRECTモードブロックは残差情報を含む。
さらに、モード35は、コーディングされているビデオフレーム(またはスライス)と同じビデオフレーム内のデータに基づいて予測データを定義するインターコーディングモードを含み得る。イントラコーディングモードは、同じフレーム内の特定の方向におけるデータに基づいて予測データを定義する指向性モード、ならびに近隣データの平均または重み付き平均に基づいて予測データを定義するDCおよび/または平面モードを含み得る。予測符号化ユニット32は、レートひずみ分析、あるいはブロックサイズ、テクスチャまたは他の特性などのブロックの何らかの特性に基づいてなど、何らかの基準に基づいて所与のブロックのためのモードを選択し得る。
本開示によれば、予測符号化ユニット32は双予測マージモード35Xをサポートする。双予測マージモード35Xの場合、コーディングされているビデオブロックが、動き情報を2つの異なる隣接ブロックから継承し、2つの異なる隣接ブロックは、それぞれ単予測モードで符号化されている。したがって、ビデオブロックは、2つの異なる隣接ビデオブロックから来る2つの異なる動きベクトルを用いてコーディングされる。この場合、予測符号化ユニット32は、双予測マージモードが所与のブロックのために使用されたという指示を出力し、現在の双予測ブロックについての動き情報をまとめて定義する2つの異なる単予測ネイバーを識別するシンタックス要素を出力する。双予測マージモードに関連する予測ブロックを(場合によっては重み係数を使用して)組み合わせて1つの双予測ブロックを形成し得、双予測ブロックは、双予測マージモードでコーディングされたブロックに関連する残差データを定義するために、コーディングされているブロックから(加算器48を介して)減算され得る。
動き情報は、2つの異なる隣接ビデオブロックに関連する2つの異なる単予測動きベクトルを備え得る。これらの2つの異なる単予測動きベクトルは、現在のビデオブロックの2つの双予測動きベクトルとして使用され得る。動き情報は、2つの異なる単予測動きベクトルに関連する2つの参照インデックス値をさらに備え得、参照インデックス値は、2つの異なる単予測動きベクトルに関連する予測データの1つまたは複数のリストを識別する。この場合も、残差データは、コーディングされているブロックと、予測において使用される双予測マージブロックをまとめて定義する2つの異なる単予測動きベクトルによって定義された予測データとの間の差として生成され得る。
HEVCの場合、コーディングされている現在のビデオブロックは、4分木区分方式に従ってLCUに対して定義された、いわゆるCUを備え得る。この場合、4分木パーティションユニット31は、4分木区分方式を定義するLCUシンタックスデータを生成し得、予測符号化ユニット32は、双予測マージモードを定義するCUについてのモード情報を生成し得、(2つの単予測ネイバーを識別する)1つまたは複数のシンタックス要素は、CUについてのモード情報中に含まれる。
説明する双予測マージモードは、マージモードコーディングのコンテキストにおいて使用され得る双予測候補の数を増加させ得る。たとえば、ネイバーのいずれも双予測モードでコーディングされない場合、説明する双予測マージモードは、双予測が、現在のビデオブロックを予測する際に2つのネイバーの動き情報を組み合わせることによって活用されることを可能にし得る。また、1つまたは複数のネイバーが双予測モードでコーディングされた場合でも、説明する双予測マージモードに従って2つの単方向ネイバーを組み合わせることは、いくつかの状況ではコーディング利得をさらに与え得る。
概して、符号化プロセス中に、ビデオエンコーダ50は、入力ビデオデータを受信する。予測符号化ユニット32は、ビデオブロック(たとえば、CUおよびPU)に対して予測コーディング技法を実行する。4分木パーティションユニット31は、図2および図3に関して上記で説明したHEVC区分に従ってLCUをより小さいCUとPUとに分け得る。インターコーディングの場合、予測符号化ユニット32は、予測ブロックを定義するために、CUまたはPUを、1つまたは複数のビデオ参照フレームまたはスライス(たとえば、参照データの1つまたは複数の「リスト」)中の様々な予測候補と比較する。イントラコーディングの場合、予測符号化ユニット32は、同じビデオフレームまたはスライス内の近隣データに基づいて予測ブロックを生成する。予測符号化ユニット32は予測ブロックを出力し、加算器48は、残差ブロックを生成するために、コーディングされているCUまたはPUから予測ブロックを減算する。この場合も、少なくともいくつかのビデオブロックは、本明細書で説明する双予測マージモードを使用してコーディングされ得る。
図5に、ビデオエンコーダ50の予測符号化ユニット32の一例をより詳細に示す。予測符号化ユニット32は、双予測マージモード35Xを可能性として含むモード35から所望のモードを選択するモード選択ユニット75を含み得る。インターコーディングの場合、予測符号化ユニット32は、予測データを指す1つまたは複数の動きベクトルを識別し、動きベクトルに基づいて予測ブロックを生成する、動き推定(ME)ユニット76と動き補償(MC)ユニット77とを備え得る。一般に、動き推定は、動きを推定する、1つまたは複数の動きベクトルを生成するプロセスと考えられる。たとえば、動きベクトルは、現在のフレーム内のコーディングされている現在のブロックに対する予測フレーム内の予測ブロックの変位(displacement)を示し得る。双予測マージモード35Xの場合、双方向予測を作成するために、2つのネイバーの2つの単方向動きベクトルが組み合わせられる。
動き補償は、一般に、動き推定によって決定された動きベクトルに基づいて(1つまたは複数の)予測ブロックをフェッチまたは生成するプロセスと考えられる。場合によっては、インターコーディングの場合の動き補償は、サブピクセル解像度への補間を含み得、それにより、動き推定プロセスがビデオブロックの動きをそのようなサブピクセル解像度まで推定することを可能にする。2つのブロックの重み付けされた組合せも(双予測の場合)使用され得る。
イントラコーディングの場合、予測符号化ユニット32は、イントラ予測ユニット78を備え得る。この場合、予測データは、(たとえば、コーディングされているビデオブロックに隣接する)現在のビデオブロック内のデータに基づいて生成され得る。同じく、イントラコーディングモードは、同じフレーム内の特定の方向におけるデータに基づいて予測データを定義する指向性モード、ならびに近隣データの平均または重み付き平均に基づいて予測データを定義するDCおよび/または平面モードを含み得る。
レートひずみ(R−D)ユニット79は、異なるモードでのビデオブロック(たとえば、CUまたはPU)のコーディング結果を比較し得る。さらに、R−Dユニット79は、補間、オフセット、量子化パラメータ、またはコーディングレートに影響を及ぼすことがある他のファクタに対する調整など、他のタイプのパラメータ調整を可能にし得る。モード選択ユニット75は、ビデオブロックのためのモード選択を行うために、コーディングレート(すなわち、ブロックに必要なコーディングビット)と、(たとえば、元のブロックに対するコード化ブロックのビデオ品質を表す)ひずみとに関してコーディング結果を分析することができる。このようにして、R−Dユニット79は、モード選択ユニット75が、異なるビデオブロックのための所望のモードを選択することを可能にするために、異なるモードの結果の分析を提供する。本開示に従って、双予測マージモード35Xは、R−Dユニット79が、たとえば、コーディング利得またはコーディング効率により、双予測マージモード35Xを所与のビデオブロックのための所望のモードとして識別したとき選択され得る。
再び図4を参照すると、予測符号化ユニット32が予測ブロックを出力した後、および、加算器48が、残差ピクセル値の残差ブロックを生成するために、コーディングされているビデオブロックから予測ブロックを減算した後に、変換ユニット38が残差ブロックに変換を適用する。変換は、離散コサイン変換(DCT)、あるいはITU H.264規格またはHEVC規格によって定義された変換など、概念的に同様の変換を備え得る。変換を実行するために、いわゆる「バタフライ」構造が定義され得るか、または行列ベースの乗算も使用され得る。いくつかの例では、HEVC規格に従って、変換のサイズは、たとえば、所与のLCUに関して行われる区分のレベルに応じて、異なるCUに対して変動し得る。変換ユニット(TU)は、変換ユニット38によって適用される変換サイズを設定するために定義され得る。ウェーブレット変換、整数変換、サブバンド変換または他のタイプの変換も使用され得る。いずれの場合も、変換ユニットは、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、概して、残差情報をピクセル領域から周波数領域に変換し得る。
次いで、量子化ユニット40が、ビットレートをさらに低減するために残差変換係数を量子化する。量子化ユニット40は、たとえば、係数の各々をコーディングするために使用されるビット数を制限し得る。特に、量子化ユニット40は、(ΔQPを、前のLCUのQPまたは何らかの他の知られているQPと組み合わせることなどによって)適用すべき量子化レベルを定義するために、LCUについて定義されたΔQPを適用し得る。残差サンプルに対して量子化が実行された後に、エントロピーコーディングユニット46は、データを走査し得、エントロピー符号化し得る。
CAVLCは、エントロピーコーディングユニット46によってベクトル化ベースで適用され得る、ITU H.264規格と新生HEVC規格とによってサポートされるエントロピーコーディング技法の1つのタイプである。CAVLCは、係数および/またはシンタックス要素のシリアル化「ラン(runs)」を効果的に圧縮するように可変長コーディング(VLC)テーブルを使用する。CABACは、エントロピーコーディングユニット46によってベクトル化ベースで適用され得る、ITU H.264規格またはHEVC規格によってサポートされる別のタイプのエントロピーコーディング技法である。CABACは、2値化、コンテキストモデル選択、およびバイナリ算術コーディングを含むいくつかの段を必要とし得る。この場合、エントロピーコーディングユニット46は、CABACに従って係数およびシンタックス要素をコーディングする。多くの他のタイプのエントロピーコーディング技法も存在し、新しいエントロピーコーディング技法が将来出現する可能性がある。本開示は、いかなる特定のエントロピーコーディング技法にも限定されない。
エントロピー符号化ユニット46によるエントロピーコーディングの後に、符号化ビデオは、別のデバイスに送信され得るか、あるいは後で送信するかまたは取り出すためにアーカイブされ得る。符号化ビデオは、エントロピーコード化ベクトルと、(双予測マージモードの場合に2つのネイバーを定義するシンタックス情報を含む)様々なシンタックス情報とを備え得る。そのような情報は、復号プロセスを適切に構成するためにデコーダによって使用され得る。逆量子化ユニット42および逆変換ユニット44が、それぞれ逆量子化および逆変換を適用して、ピクセル領域において残差ブロックを再構成する。加算器51は、再構成された残差ブロックを、予測符号化ユニット32によって生成された予測ブロックに加算して、メモリ34に記憶するための再構成されたビデオブロックを生成する。しかしながら、そのような記憶より前に、フィルタユニット47は、ビデオ品質を改善するためにビデオブロックにフィルタ処理を適用し得る。フィルタユニット47によって適用されるフィルタ処理は、アーティファクトを低減し得、ピクセル境界を平滑化し得る。さらに、フィルタ処理は、コーディングされているビデオブロックへの緊密な(close)一致を備える予測ビデオブロックを生成することによって、圧縮を改善し得る。
本開示によれば、2つの異なる隣接ブロックから動き情報を継承する双予測マージモード35Xがサポートされ、2つの異なる隣接ブロックは、それぞれ単予測モードで符号化されている。説明する双予測マージモード35Xは、マージモードコーディングのコンテキストにおいて使用され得る双予測候補の数を増加させ得る。したがって、R−Dユニット79(図5)は、他のモードに対して相対的な、このモードによって達成されるコーディング利得のために、双予測マージモード35Xを最も望ましいコーディングモードとして識別し得る。そのような場合、モード選択ユニット75は、1つのビデオブロックをコーディングするために双予測マージモード35Xを選択し得る。
図6は、本明細書で説明する方法で符号化されたビデオシーケンスを復号するビデオデコーダ60の一例を示すブロック図である。本開示の技法は、いくつかの例ではビデオデコーダ60によって実行され得る。特に、ビデオデコーダ60は、現在のビデオブロックのための1つまたは複数のシンタックス要素を受信することであって、現在のビデオブロックが双予測マージモードに従って符号化される、受信することと、1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することとを行う。次いで、ビデオデコーダ60は、双予測マージモードに従って現在のビデオブロックを復号するために、2つの異なる隣接ビデオブロックの動き情報を使用する。
ビデオデコーダ60において受信されるビデオシーケンスは、画像フレームの符号化されたセット、フレームスライスのセット、一般にコード化されたピクチャグループ(GOP:group of pictures)を備え得、または符号化されたLCU(または他のビデオブロック)と、そのようなLCUをどのように復号すべきかを定義するシンタックス情報とを含むビデオ情報の多種多様なユニットを備え得る。LCUを復号するプロセスは、本明細書で説明する双予測マージモードであり得るコーディングモードの指示を復号することを含み得る。
ビデオデコーダ60は、図2のエントロピー符号化ユニット46によって実行される符号化の相互復号機能を実行するエントロピー復号ユニット52を含む。特に、エントロピー復号ユニット52は、CAVLCまたはCABAC復号、あるいはビデオエンコーダ50によって使用された他のタイプのエントロピー復号を実行し得る。ビデオデコーダ60はまた、予測復号ユニット54と、逆量子化ユニット56と、逆変換ユニット58と、メモリ62と、加算器64とを含む。特に、ビデオエンコーダ50と同様に、ビデオデコーダ60は、予測復号ユニット54とフィルタユニット57とを含む。ビデオデコーダ60の予測復号ユニット54は、動き補償ユニット86を含み得、動き補償ユニット86は、インターコード化ブロックを復号し、場合によっては、動き補償プロセスにおけるサブピクセル補間のための1つまたは複数の補間フィルタを含む。予測復号ユニット54はまた、イントラモードを復号するためのイントラ予測ユニットを含み得る。予測復号ユニット54は、双予測マージモード55Xを含む複数のモード35をサポートし得る。フィルタユニット57は、加算器64の出力をフィルタ処理し得、ループフィルタ処理において適用されるフィルタ係数を定義するために、エントロピー復号されたフィルタ情報を受信し得る。
符号化されたビデオデータを受信すると、エントロピー復号ユニット52は、(図4のエンコーダ50の)エントロピー符号化ユニット46によって実行される符号化とは逆の復号を実行する。デコーダにおいて、エントロピー復号ユニット52は、LCUと、LCUに関連する対応する区分とを判断するためにビットストリームをパースする(parses)。いくつかの例では、LCU、またはLCUのCUは、使用されたコーディングモードを定義し得、これらのコーディングモードは双予測マージモードを含み得る。したがって、エントロピー復号ユニット52は、シンタックス情報を、双予測マージモードを識別する予測ユニットに転送し得る。この場合、シンタックス情報は、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別する1つまたは複数のシンタックス要素を含み得る。この場合、予測復号ユニット54のMCユニット86は、双予測マージモードに従って現在のビデオブロックを復号するために、2つの異なる隣接ビデオブロックの動き情報を使用し得る。すなわち、MCユニット86は、2つの異なる隣接ビデオブロックの動き情報によって識別された予測データをフェッチし得、現在のビデオブロックを双予測マージモードで復号する際にこの予測データのいくつかの組合せを使用し得る。
図7は、双予測マージモードのために考慮され得る5つの異なるネイバーの一例を示す概念図である。この例では、双予測マージモードのために、上部(T)ネイバー、上部右側(TR)ネイバー、左側(L)ネイバー、下部左側(BL)ネイバー、および別のビデオフレームからのコロケート時間(Temp)ネイバーが考慮され得る。もちろん、他のネイバー(空間的または時間的)も、動き情報のマージモード継承のために使用され得る。
同じく、マージモードの場合、現在のビデオブロックは、隣接候補ブロックのすべての動き情報を継承し得る。それは、現在のブロックが、選択された隣接ブロックと同じ動きベクトル、同じ参照フレーム、および同じ予測モード(単予測または双予測)を有することになることを意味する。選択された隣接ブロックは、符号化ビットストリームの一部としてシグナリングされ得るが、デコーダが、選択された隣接ブロックから動き情報を取得することができるので、動き情報はシグナリングされる必要はない。
本開示に従って、動き情報を2つの異なる隣接ブロックから継承する双予測マージモードがサポートされ、2つの異なる隣接ブロックは、それぞれ単予測モードで符号化されている。説明する双予測マージモードは、マージモードのコンテキストにおいて使用され得る双予測候補の数を増加させ得る。1つのネイバーをシグナリングするのではなく、双予測マージモードは、2つの異なるネイバーをシグナリングし得る。双予測マージモードは、それらの組合せを含むように単に候補隣接ブロックを増加させることによって、従来のマージモードへの拡張であり得るか、または従来のマージモードに対して完全に別個のモードであり得る。
図1に示した空間的および時間的候補隣接ブロックを仮定すると、説明する双予測マージモードは、少なくとも2つのシナリオにおいて動作し得る。第1のシナリオでは、すべての隣接する候補隣接ブロックが単予測モードでコーディングされる。この場合、候補ブロックのうちのいずれか2つが選択され得、両方の選択された候補からの動き情報は、双予測を達成するために組み合わせられ得る。たとえば、図1に示した隣接ブロックが、次の情報に従ってコーディングされると仮定する。
L: uni-pred, L0, refIdx = 0
T: uni-pred, L1, refIdx = 0
TR: uni-pred, L0, refIdx = 1
BL: uni-pred, L0, refIdx = 0
Temp: uni-pred, L1, refIdx = 1
この場合、5つの候補のうちのいずれか2つについての10個の組合せがある。L0は予測データの第1のリストを指し、L1は予測データの第2のリストを指す。refIdxは、それぞれのリスト中の特定のピクチャへのインデックスを備え得る。ビデオエンコーダは、(たとえば、符号化レートおよびひずみに関して)最良の組合せを選択することができ、2つの選択された隣接ブロックを識別するシンタックス情報を送ることができる。デコーダは、シンタックス情報を復号し、選択された隣接ブロックから動き情報を取得することができる。
第2のシナリオでは、候補隣接ブロックのうちの少なくとも1つが双予測モードでコーディングされ得る。この場合、双予測マージモード候補を取得するために単予測隣接ブロックのうちのいずれか2つを(組合せで)考慮することができる。しかしながら、任意の双予測ブロックを、双予測マージ候補として考慮するために単体で使用することもできる。たとえば、図1に示した隣接ブロックが、次の情報に従ってコーディングされると仮定する。
L: bi-pred, L0, refIdx = 0, L1, refIdx =0
T: uni-pred, L1, refIdx = 0
TR: uni-pred, L0, refIdx = 1
BL: uni-pred, L0, refIdx = 0
Temp: bi-pred, L0, refIdx=0, L1, refIdx = 1
この場合も、L0は、予測データの第1のリストを指す値を備え得、L1は、予測データの第2のリストを指す値を備え得、refIdxは、それぞれのリスト中の特定のピクチャへのインデックスを定義する値であり得る。この第2の例では、5つの候補のうちの2つがすでに双予測モードであるので、これらは、双予測マージモードのために単体で考慮され得る。さらに、3つの残りの単予測候補の異なる組合せが考慮され得る。したがって、この場合、5つの双予測モードの可能性があることになる。
1. L
2. Temp
3. T + TR
4. T + BL
5. TR + BL
この第2の例では、エンコーダは、(たとえば、符号化レートおよびひずみに関して)これらの5つの候補から最良のネイバー(またはネイバーの組合せ)を選択することができ、どの個々のネイバーまたはネイバーの組合せがマージモードで使用されたかを識別するシンタックス情報を送ることができる。デコーダは、シンタックス情報を復号し得、(1つまたは複数の)選択された隣接ブロックから動き情報を取得することができる。
図7の例では、5つの候補が示されている。しかしながら、また、追加の候補が、図7の候補と同じエリア、または他のエリアのいずれかにおいて考慮され得る。場合によっては、いくつかの上部(T)候補、いくつかの上部左側(TL)候補、いくつかの左側(L)候補、いくつかの下部左側(BL)候補、およびいくつかの時間(T)候補があり得る。場合によっては、現在のブロックのサイズは候補のサイズとは異なり得、その場合、現在のブロックの上部エッジまたは左側エッジは、隣接するいくつかの候補であり得る。他の場合には、本開示で説明する双予測マージモードのために、現在のビデオブロックからなお一層の距離にある候補が考慮され得る。多くの異なる候補を使用する多くの異なるシナリオが、本開示に従って可能である。したがって、図7は、現在のビデオブロックに対する5つの隣接候補を示す一例にすぎない。
図8は、本開示に一致する復号技法を示すフロー図である。図8について図6のビデオデコーダ60の観点から説明するが、他のデバイスでも同様の技法を実行し得る。図8に示すように、ビデオデコーダ60は、LCUについてのシンタックス要素とLCU内のCUについてのシンタックス要素とを含むLCUを受信する(801)。特に、エントロピー復号ユニット52はLCUを含むビットストリームを受信し得、シンタックス要素を識別するためにビットストリームをパースし得、シンタックス要素は予測復号ユニット54に転送され得る。したがって、予測復号ユニット54は、シンタックス要素に基づいてCUのモードを復号することができる。他の例では、モードは、CUレベルではなくPUレベルにおいて定義され得る。
モードを判断する際に、予測復号ユニット54は、双予測マージモードでコーディングされたCUを識別する(803)。どのCUも双予測マージモードでコーディングされない場合(803「いいえ」)、そのCUはそれのモードに従って復号される(804)。たとえば、多くの異なるイントラモードと多くの異なるインターモードとがサポートされ得る。いずれかのCUが双予測マージモードでコーディングされた場合(803「はい」)、このCUは双予測である。しかしながら、双予測のためのそれの動きベクトルは、本明細書で説明するように2つの単方向ネイバーから来る。この場合、予測復号ユニット54のMCユニット86は、CUシンタックス要素に基づいてCUに対して2つの異なる単予測ネイバーを識別し(805)、双予測CUを復号するために単予測ネイバーの動き情報を使用する。
図9は、本開示に一致する符号化技法を示すフロー図である。図9の技法について図4のビデオエンコーダ50の観点から説明するが、他のデバイスでも同様の技法を実行し得る。図9に示すように、予測符号化ユニット32は、CUのための双予測マージモードを選択する。たとえば、予測符号化ユニット32(図5参照)は、複数の可能なモード35に基づいてCUのための双予測マージモード35Xを選択するモード選択ユニット75を含み得る。R−Dユニット75は、様々なインターモードについてMEユニット76とMCユニット77とによってコーディングの結果を分析することによって、ならびにイントラモードについてイントラ予測ユニット78によってコーディングの結果を分析することによって、異なるモードに関連するコーディングレートおよび品質またはひずみのレベルを識別し得る。このようにして、モード選択ユニット75は、所与の状況について最良のモードを識別し得る。
予測符号化ユニット32がCUのための双予測マージモード35Xを選択すると、予測ユニットは、単予測モードでコーディングされた2つの異なる隣接ブロックを識別する(902)。単予測モードでコーディングされた2つの異なる隣接ブロックを識別するこのプロセスは、上記で説明した方法と同様の方法で、MEユニット76によって実行され得る。たとえば、MEユニット76およびMCユニット77は、異なる単方向ネイバーから動き情報の異なる組合せのコーディング結果を生成し得、これらの結果は、そのような異なる組合せに関連するコーディングレートおよび品質またはひずみを判断するためにR−Dユニット75によって分析され得る。最終的に、R−Dユニット75は、単予測ネイバーのどの双予測マージモード組合せが最良のコーディング結果を生じるかを判断することができる。
したがって、予測符号化ユニット32は、CUを双予測として符号化するために2つの単予測ネイバーの最良の組合せの動き情報を使用する(903)。もちろん、双予測ネイバーも考慮され、場合によっては、レートひずみ結果が2つの単予測ネイバーを使用するよりも良好な場合にマージモードコーディングのために使用され得る。予測ユニット32(たとえば、MEユニット76またはMCユニット77)は、CUの双予測マージモードコーディングのために使用される2つの異なる単予測ネイバーを識別するために、CUのための1つまたは複数のシンタックス要素を生成する。シンタックス要素は、たとえば、図7に概念的に示したように、左側(L)ネイバー、下部左側(BL)ネイバー、(T)上部ネイバー、上部右側(TR)ネイバー、またはコロケート時間(T)ネイバーなど、CUのネイバーのうちの2つを識別するインデックス値を備え得る。しかしながら、シンタックス要素のための多くの他のシグナリング方式も使用され得る。
本開示の技法は、ワイヤレスハンドセット、および集積回路(IC)またはICのセット(すなわち、チップセット)を含む、多種多様なデバイスまたは装置において実現され得る。機能的態様を強調するために与えられた任意のコンポーネント、モジュールまたはユニットについて説明したが、異なるハードウェアユニットによる実現を必ずしも必要とするとは限らない。
したがって、本明細書で説明する技法は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。モジュールまたはコンポーネントとして説明する任意の機能は、集積論理デバイスに一緒に、または個別であるが相互運用可能な論理デバイスとして別々に実装され得る。ソフトウェアで実装する場合、これらの技法は、実行されると、上記で説明した方法の1つまたは複数を実行する命令を備えるコンピュータ可読媒体によって、少なくとも部分的に実現され得る。コンピュータ可読データ記憶媒体は、パッケージング材料を含むことがあるコンピュータプログラム製品の一部を形成し得る。
コンピュータ可読媒体は、同期ダイナミックランダムアクセスメモリ(SDRAM)などのランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、電気消去可能プログラマブル読取り専用メモリ(EEPROM)、フラッシュメモリ、磁気または光学データ記憶媒体などの有形コンピュータ可読記憶媒体を備え得る。本技法は、追加または代替として、命令またはデータ構造の形態でコードを搬送または通信し、コンピュータによってアクセスされ、読み取られ、および/または実行され得るコンピュータ可読通信媒体によって少なくとも部分的に実現され得る。
命令は、1つまたは複数のデジタル信号プロセッサ(DSP)などの1つまたは複数のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路またはディスクリート論理回路によって実行され得る。本明細書で使用する「プロセッサ」という用語は、前述の構造、または本明細書で説明した技法の実装に好適な他の構造のいずれかを指し得る。さらに、いくつかの態様では、本明細書で説明した機能は、符号化および復号のために構成された専用のソフトウェアモジュールまたはハードウェアモジュール内に提供され得、あるいは複合ビデオエンコーダ・デコーダ(コーデック)に組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素中に十分に実装され得る。
本開示の様々な態様について説明した。これらおよび他の態様は以下の特許請求の範囲内に入る。
本開示の様々な態様について説明した。これらおよび他の態様は以下の特許請求の範囲内に入る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]ビデオデータを復号する方法であって、前記方法は、
現在のビデオブロックのための1つまたは複数のシンタックス要素を受信することであって、前記現在のビデオブロックが双予測マージモードに従って符号化される、受信することと、
前記1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
前記双予測マージモードに従って現在のビデオブロックを復号するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと
を備える、方法。
[2]前記動き情報が、前記2つの異なる隣接ビデオブロックに関連する2つの異なる単予測動きベクトルを備える、[1]に記載の方法。
[3]前記動き情報が、前記2つの異なる単予測動きベクトルに関連する少なくとも2つの値をさらに備え、前記値が、前記2つの異なる単予測動きベクトルに関連する予測データの1つまたは複数のリストを識別する、[2]に記載の方法。
[4]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)を備え、前記CUが、4分木区分方式に従って最大コーディングユニット(LCU)に対して定義され、前記方法は、
前記4分木区分方式を定義するLCUシンタックスデータを受信することと、
前記双予測マージモードを定義する前記CUについてのモード情報を受信することであって、前記1つまたは複数のシンタックス要素が前記CUについての前記モード情報中に含まれる、モード情報を受信することと
をさらに備える、[1]に記載の方法。
[5]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)の予測ユニット(PU)を備える、[1]に記載の方法。
[6]ビデオデータを符号化する方法であって、前記方法が、
現在のビデオブロックを符号化するための双予測マージモードを選択することと、
単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
前記双予測マージモードに従って前記現在のビデオブロックを符号化するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと、
ビデオデコーダに対して前記2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成することと
を備える、方法。
[7]前記動き情報が、前記2つの異なる隣接ビデオブロックに関連する2つの異なる単予測動きベクトルを備える、[6]に記載の方法。
[8]前記動き情報が、前記2つの異なる単予測動きベクトルに関連する少なくとも2つの値をさらに備え、前記値が、前記2つの異なる単予測動きベクトルに関連する予測データの1つまたは複数のリストを識別する、[7]に記載の方法。
[9]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)を備え、前記方法が、
4分木区分方式に従って最大コーディングユニット(LCU)に対する前記CUを定義することと、
前記4分木区分方式を定義するLCUシンタックスデータを生成することと、
前記双予測マージモードを定義する前記CUについてのモード情報を生成することであって、前記1つまたは複数のシンタックス要素が前記CUについての前記モード情報中に含まれる、モード情報を生成することと
をさらに備える、[6]に記載の方法。
[10]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)の予測ユニット(PU)を備える、[6]に記載の方法。
[11]ビデオデータを復号するビデオ復号デバイスであって、前記ビデオ復号デバイスは、
現在のビデオブロックのための1つまたは複数のシンタックス要素を受信することであって、前記現在のビデオブロックが双予測マージモードに従って符号化される、受信することと、
前記1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
前記双予測マージモードに従って現在のビデオブロックを復号するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと
を行うように構成されたビデオデコーダを備える、ビデオ復号デバイス。
[12]前記ビデオデコーダが、
前記1つまたは複数のシンタックス要素を受信し、復号するように構成されたエントロピー復号ユニットと、
前記2つの異なる隣接ビデオブロックを識別することと、前記現在のビデオブロックを復号するために前記2つの異なる隣接ビデオブロックの前記動き情報を使用することとを行うように構成された予測ユニットと
を含む、[11]に記載のビデオ復号デバイス。
[13]前記動き情報が、前記2つの異なる隣接ビデオブロックに関連する2つの異なる単予測動きベクトルを備える、[11]に記載のビデオ復号デバイス。
[14]前記動き情報が、前記2つの異なる単予測動きベクトルに関連する少なくとも2つの値をさらに備え、前記値が、前記2つの異なる単予測動きベクトルに関連する予測データの1つまたは複数のリストを識別する、[13]に記載のビデオ復号デバイス。
[15]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)を備え、前記CUが、4分木区分方式に従って最大コーディングユニット(LCU)に対して定義され、前記デコーダが、
前記4分木区分方式を定義するLCUシンタックスデータを受信することと、
前記双予測マージモードを定義する前記CUについてのモード情報を受信することであって、前記1つまたは複数のシンタックス要素が前記CUについての前記モード情報中に含まれる、モード情報を受信することと
を行う、[11]に記載のビデオ復号デバイス。
[16]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)の予測ユニット(PU)を備える、[11]に記載のビデオ復号デバイス。
[17]前記ビデオ復号デバイスが、
集積回路と、
マイクロプロセッサと、
ビデオエンコーダを含むワイヤレス通信デバイスと
のうちの1つまたは複数を備える、[11]に記載のビデオ復号デバイス。
[18]現在のビデオブロックを符号化するための双予測マージモードを選択することと、
単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
前記双予測マージモードに従って前記現在のビデオブロックを符号化するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと、
ビデオデコーダに対して前記2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成することと
を行うように構成されたビデオエンコード
を備える、ビデオ符号化デバイス。
[19]前記動き情報が、前記2つの異なる隣接ビデオブロックに関連する2つの異なる単予測動きベクトルを備える、[18]に記載のビデオ符号化デバイス。
[20]前記動き情報が、前記2つの異なる単予測動きベクトルに関連する少なくとも2つの値をさらに備え、前記値が、前記2つの異なる単予測動きベクトルに関連する予測データの1つまたは複数のリストを識別する、[19]に記載のビデオ符号化デバイス。
[21]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)を備え、前記ビデオエンコーダは、
4分木区分方式に従って最大コーディングユニット(LCU)に対する前記CUを定義することと、前記4分木区分方式を定義するLCUシンタックスデータを生成することとを行うように構成された4分木区分ユニットと、
前記双予測マージモードを定義する前記CUについてのモード情報を生成することであって、前記1つまたは複数のシンタックス要素が前記CUについての前記モード情報中に含まれる、モード情報を生成することを行うように構成された予測ユニットと
を含む、[18]に記載のビデオ符号化デバイス。
[22]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)の予測ユニット(PU)を備える、[18]に記載のビデオ符号化デバイス。
[23]前記ビデオ符号化デバイスが、
集積回路と、
マイクロプロセッサと、
ビデオエンコーダを含むワイヤレス通信デバイスと
のうちの1つまたは複数を備える、[18]に記載のビデオ符号化デバイス。
[24]ビデオデータを復号するためのデバイスであって、前記デバイスが、
現在のビデオブロックのための1つまたは複数のシンタックス要素を受信するための手段であって、前記現在のビデオブロックが双予測マージモードに従って符号化される、受信するための手段と、
前記1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別するための手段と、
前記双予測マージモードに従って現在のビデオブロックを復号するために、前記2つの異なる隣接ビデオブロックの動き情報を使用するための手段と
を備える、デバイス。
[25]ビデオデータを符号化するためのデバイスであって、前記デバイスが、
現在のビデオブロックを符号化するための双予測マージモードを選択するための手段と、
単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別するための手段と、
前記双予測マージモードに従って前記現在のビデオブロックを符号化するために、前記2つの異なる隣接ビデオブロックの動き情報を使用するための手段と、
ビデオデコーダに対して前記2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成するための手段と
を備える、デバイス。
[26]実行されると、プロセッサにビデオデータを復号させる命令を備えるコンピュータ可読媒体であって、前記命令は、前記プロセッサに、
現在のビデオブロックのための1つまたは複数のシンタックス要素を受信するとき、ここにおいて前記現在のビデオブロックが双予測マージモードに従って符号化される、受信するとき、
前記1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
前記双予測マージモードに従って現在のビデオブロックを復号するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと
を行わせる、コンピュータ可読媒体。
[27]実行されると、プロセッサにビデオデータを符号化させる命令を備えるコンピュータ可読媒体であって、前記命令は、前記プロセッサに、
現在のビデオブロックを符号化するための双予測マージモードを選択することと、
単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
前記双予測マージモードに従って前記現在のビデオブロックを符号化するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと、
ビデオデコーダに対して前記2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成することと
を行わせる、コンピュータ可読媒体。
本開示の様々な態様について説明した。これらおよび他の態様は以下の特許請求の範囲内に入る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]ビデオデータを復号する方法であって、前記方法は、
現在のビデオブロックのための1つまたは複数のシンタックス要素を受信することであって、前記現在のビデオブロックが双予測マージモードに従って符号化される、受信することと、
前記1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
前記双予測マージモードに従って現在のビデオブロックを復号するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと
を備える、方法。
[2]前記動き情報が、前記2つの異なる隣接ビデオブロックに関連する2つの異なる単予測動きベクトルを備える、[1]に記載の方法。
[3]前記動き情報が、前記2つの異なる単予測動きベクトルに関連する少なくとも2つの値をさらに備え、前記値が、前記2つの異なる単予測動きベクトルに関連する予測データの1つまたは複数のリストを識別する、[2]に記載の方法。
[4]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)を備え、前記CUが、4分木区分方式に従って最大コーディングユニット(LCU)に対して定義され、前記方法は、
前記4分木区分方式を定義するLCUシンタックスデータを受信することと、
前記双予測マージモードを定義する前記CUについてのモード情報を受信することであって、前記1つまたは複数のシンタックス要素が前記CUについての前記モード情報中に含まれる、モード情報を受信することと
をさらに備える、[1]に記載の方法。
[5]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)の予測ユニット(PU)を備える、[1]に記載の方法。
[6]ビデオデータを符号化する方法であって、前記方法が、
現在のビデオブロックを符号化するための双予測マージモードを選択することと、
単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
前記双予測マージモードに従って前記現在のビデオブロックを符号化するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと、
ビデオデコーダに対して前記2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成することと
を備える、方法。
[7]前記動き情報が、前記2つの異なる隣接ビデオブロックに関連する2つの異なる単予測動きベクトルを備える、[6]に記載の方法。
[8]前記動き情報が、前記2つの異なる単予測動きベクトルに関連する少なくとも2つの値をさらに備え、前記値が、前記2つの異なる単予測動きベクトルに関連する予測データの1つまたは複数のリストを識別する、[7]に記載の方法。
[9]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)を備え、前記方法が、
4分木区分方式に従って最大コーディングユニット(LCU)に対する前記CUを定義することと、
前記4分木区分方式を定義するLCUシンタックスデータを生成することと、
前記双予測マージモードを定義する前記CUについてのモード情報を生成することであって、前記1つまたは複数のシンタックス要素が前記CUについての前記モード情報中に含まれる、モード情報を生成することと
をさらに備える、[6]に記載の方法。
[10]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)の予測ユニット(PU)を備える、[6]に記載の方法。
[11]ビデオデータを復号するビデオ復号デバイスであって、前記ビデオ復号デバイスは、
現在のビデオブロックのための1つまたは複数のシンタックス要素を受信することであって、前記現在のビデオブロックが双予測マージモードに従って符号化される、受信することと、
前記1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
前記双予測マージモードに従って現在のビデオブロックを復号するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと
を行うように構成されたビデオデコーダを備える、ビデオ復号デバイス。
[12]前記ビデオデコーダが、
前記1つまたは複数のシンタックス要素を受信し、復号するように構成されたエントロピー復号ユニットと、
前記2つの異なる隣接ビデオブロックを識別することと、前記現在のビデオブロックを復号するために前記2つの異なる隣接ビデオブロックの前記動き情報を使用することとを行うように構成された予測ユニットと
を含む、[11]に記載のビデオ復号デバイス。
[13]前記動き情報が、前記2つの異なる隣接ビデオブロックに関連する2つの異なる単予測動きベクトルを備える、[11]に記載のビデオ復号デバイス。
[14]前記動き情報が、前記2つの異なる単予測動きベクトルに関連する少なくとも2つの値をさらに備え、前記値が、前記2つの異なる単予測動きベクトルに関連する予測データの1つまたは複数のリストを識別する、[13]に記載のビデオ復号デバイス。
[15]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)を備え、前記CUが、4分木区分方式に従って最大コーディングユニット(LCU)に対して定義され、前記デコーダが、
前記4分木区分方式を定義するLCUシンタックスデータを受信することと、
前記双予測マージモードを定義する前記CUについてのモード情報を受信することであって、前記1つまたは複数のシンタックス要素が前記CUについての前記モード情報中に含まれる、モード情報を受信することと
を行う、[11]に記載のビデオ復号デバイス。
[16]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)の予測ユニット(PU)を備える、[11]に記載のビデオ復号デバイス。
[17]前記ビデオ復号デバイスが、
集積回路と、
マイクロプロセッサと、
ビデオエンコーダを含むワイヤレス通信デバイスと
のうちの1つまたは複数を備える、[11]に記載のビデオ復号デバイス。
[18]現在のビデオブロックを符号化するための双予測マージモードを選択することと、
単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
前記双予測マージモードに従って前記現在のビデオブロックを符号化するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと、
ビデオデコーダに対して前記2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成することと
を行うように構成されたビデオエンコー
を備える、ビデオ符号化デバイス。
[19]前記動き情報が、前記2つの異なる隣接ビデオブロックに関連する2つの異なる単予測動きベクトルを備える、[18]に記載のビデオ符号化デバイス。
[20]前記動き情報が、前記2つの異なる単予測動きベクトルに関連する少なくとも2つの値をさらに備え、前記値が、前記2つの異なる単予測動きベクトルに関連する予測データの1つまたは複数のリストを識別する、[19]に記載のビデオ符号化デバイス。
[21]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)を備え、前記ビデオエンコーダは、
4分木区分方式に従って最大コーディングユニット(LCU)に対する前記CUを定義することと、前記4分木区分方式を定義するLCUシンタックスデータを生成することとを行うように構成された4分木区分ユニットと、
前記双予測マージモードを定義する前記CUについてのモード情報を生成することであって、前記1つまたは複数のシンタックス要素が前記CUについての前記モード情報中に含まれる、モード情報を生成することを行うように構成された予測ユニットと
を含む、[18]に記載のビデオ符号化デバイス。
[22]前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)の予測ユニット(PU)を備える、[18]に記載のビデオ符号化デバイス。
[23]前記ビデオ符号化デバイスが、
集積回路と、
マイクロプロセッサと、
ビデオエンコーダを含むワイヤレス通信デバイスと
のうちの1つまたは複数を備える、[18]に記載のビデオ符号化デバイス。
[24]ビデオデータを復号するためのデバイスであって、前記デバイスが、
現在のビデオブロックのための1つまたは複数のシンタックス要素を受信するための手段であって、前記現在のビデオブロックが双予測マージモードに従って符号化される、受信するための手段と、
前記1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別するための手段と、
前記双予測マージモードに従って現在のビデオブロックを復号するために、前記2つの異なる隣接ビデオブロックの動き情報を使用するための手段と
を備える、デバイス。
[25]ビデオデータを符号化するためのデバイスであって、前記デバイスが、
現在のビデオブロックを符号化するための双予測マージモードを選択するための手段と、
単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別するための手段と、
前記双予測マージモードに従って前記現在のビデオブロックを符号化するために、前記2つの異なる隣接ビデオブロックの動き情報を使用するための手段と、
ビデオデコーダに対して前記2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成するための手段と
を備える、デバイス。
[26]実行されると、プロセッサにビデオデータを復号させる命令を備えるコンピュータ可読媒体であって、前記命令は、前記プロセッサに、
現在のビデオブロックのための1つまたは複数のシンタックス要素を受信することと、ここにおいて前記現在のビデオブロックが双予測マージモードに従って符号化される、受信することと
前記1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
前記双予測マージモードに従って現在のビデオブロックを復号するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと
を行わせる、コンピュータ可読媒体。
[27]実行されると、プロセッサにビデオデータを符号化させる命令を備えるコンピュータ可読媒体であって、前記命令は、前記プロセッサに、
現在のビデオブロックを符号化するための双予測マージモードを選択することと、
単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
前記双予測マージモードに従って前記現在のビデオブロックを符号化するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと、
ビデオデコーダに対して前記2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成することと
を行わせる、コンピュータ可読媒体。

Claims (27)

  1. ビデオデータを復号する方法であって、前記方法は、
    現在のビデオブロックのための1つまたは複数のシンタックス要素を受信することであって、前記現在のビデオブロックが双予測マージモードに従って符号化される、受信することと、
    前記1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
    前記双予測マージモードに従って現在のビデオブロックを復号するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと
    を備える、方法。
  2. 前記動き情報が、前記2つの異なる隣接ビデオブロックに関連する2つの異なる単予測動きベクトルを備える、請求項1に記載の方法。
  3. 前記動き情報が、前記2つの異なる単予測動きベクトルに関連する少なくとも2つの値をさらに備え、前記値が、前記2つの異なる単予測動きベクトルに関連する予測データの1つまたは複数のリストを識別する、請求項2に記載の方法。
  4. 前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)を備え、前記CUが、4分木区分方式に従って最大コーディングユニット(LCU)に対して定義され、前記方法は、
    前記4分木区分方式を定義するLCUシンタックスデータを受信することと、
    前記双予測マージモードを定義する前記CUについてのモード情報を受信することであって、前記1つまたは複数のシンタックス要素が前記CUについての前記モード情報中に含まれる、モード情報を受信することと
    をさらに備える、請求項1に記載の方法。
  5. 前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)の予測ユニット(PU)を備える、請求項1に記載の方法。
  6. ビデオデータを符号化する方法であって、前記方法が、
    現在のビデオブロックを符号化するための双予測マージモードを選択することと、
    単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
    前記双予測マージモードに従って前記現在のビデオブロックを符号化するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと、
    ビデオデコーダに対して前記2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成することと
    を備える、方法。
  7. 前記動き情報が、前記2つの異なる隣接ビデオブロックに関連する2つの異なる単予測動きベクトルを備える、請求項6に記載の方法。
  8. 前記動き情報が、前記2つの異なる単予測動きベクトルに関連する少なくとも2つの値をさらに備え、前記値が、前記2つの異なる単予測動きベクトルに関連する予測データの1つまたは複数のリストを識別する、請求項7に記載の方法。
  9. 前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)を備え、前記方法が、
    4分木区分方式に従って最大コーディングユニット(LCU)に対する前記CUを定義することと、
    前記4分木区分方式を定義するLCUシンタックスデータを生成することと、
    前記双予測マージモードを定義する前記CUについてのモード情報を生成することであって、前記1つまたは複数のシンタックス要素が前記CUについての前記モード情報中に含まれる、モード情報を生成することと
    をさらに備える、請求項6に記載の方法。
  10. 前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)の予測ユニット(PU)を備える、請求項6に記載の方法。
  11. ビデオデータを復号するビデオ復号デバイスであって、前記ビデオ復号デバイスは、
    現在のビデオブロックのための1つまたは複数のシンタックス要素を受信することであって、前記現在のビデオブロックが双予測マージモードに従って符号化される、受信することと、
    前記1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
    前記双予測マージモードに従って現在のビデオブロックを復号するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと
    を行うように構成されたビデオデコーダを備える、ビデオ復号デバイス。
  12. 前記ビデオデコーダが、
    前記1つまたは複数のシンタックス要素を受信し、復号するように構成されたエントロピー復号ユニットと、
    前記2つの異なる隣接ビデオブロックを識別することと、前記現在のビデオブロックを復号するために前記2つの異なる隣接ビデオブロックの前記動き情報を使用することとを行うように構成された予測ユニットと
    を含む、請求項11に記載のビデオ復号デバイス。
  13. 前記動き情報が、前記2つの異なる隣接ビデオブロックに関連する2つの異なる単予測動きベクトルを備える、請求項11に記載のビデオ復号デバイス。
  14. 前記動き情報が、前記2つの異なる単予測動きベクトルに関連する少なくとも2つの値をさらに備え、前記値が、前記2つの異なる単予測動きベクトルに関連する予測データの1つまたは複数のリストを識別する、請求項13に記載のビデオ復号デバイス。
  15. 前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)を備え、前記CUが、4分木区分方式に従って最大コーディングユニット(LCU)に対して定義され、前記デコーダが、
    前記4分木区分方式を定義するLCUシンタックスデータを受信することと、
    前記双予測マージモードを定義する前記CUについてのモード情報を受信することであって、前記1つまたは複数のシンタックス要素が前記CUについての前記モード情報中に含まれる、モード情報を受信することと
    を行う、請求項11に記載のビデオ復号デバイス。
  16. 前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)の予測ユニット(PU)を備える、請求項11に記載のビデオ復号デバイス。
  17. 前記ビデオ復号デバイスが、
    集積回路と、
    マイクロプロセッサと、
    ビデオエンコーダを含むワイヤレス通信デバイスと
    のうちの1つまたは複数を備える、請求項11に記載のビデオ復号デバイス。
  18. 現在のビデオブロックを符号化するための双予測マージモードを選択することと、
    単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
    前記双予測マージモードに従って前記現在のビデオブロックを符号化するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと、
    ビデオデコーダに対して前記2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成することと
    を行うように構成されたビデオエンコード
    を備える、ビデオ符号化デバイス。
  19. 前記動き情報が、前記2つの異なる隣接ビデオブロックに関連する2つの異なる単予測動きベクトルを備える、請求項18に記載のビデオ符号化デバイス。
  20. 前記動き情報が、前記2つの異なる単予測動きベクトルに関連する少なくとも2つの値をさらに備え、前記値が、前記2つの異なる単予測動きベクトルに関連する予測データの1つまたは複数のリストを識別する、請求項19に記載のビデオ符号化デバイス。
  21. 前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)を備え、前記ビデオエンコーダは、
    4分木区分方式に従って最大コーディングユニット(LCU)に対する前記CUを定義することと、前記4分木区分方式を定義するLCUシンタックスデータを生成することとを行うように構成された4分木区分ユニットと、
    前記双予測マージモードを定義する前記CUについてのモード情報を生成することであって、前記1つまたは複数のシンタックス要素が前記CUについての前記モード情報中に含まれる、モード情報を生成することを行うように構成された予測ユニットと
    を含む、請求項18に記載のビデオ符号化デバイス。
  22. 前記現在のビデオブロックが、高効率ビデオコーディング(HEVC)規格に従って定義されたコーディングユニット(CU)の予測ユニット(PU)を備える、請求項18に記載のビデオ符号化デバイス。
  23. 前記ビデオ符号化デバイスが、
    集積回路と、
    マイクロプロセッサと、
    ビデオエンコーダを含むワイヤレス通信デバイスと
    のうちの1つまたは複数を備える、請求項18に記載のビデオ符号化デバイス。
  24. ビデオデータを復号するためのデバイスであって、前記デバイスが、
    現在のビデオブロックのための1つまたは複数のシンタックス要素を受信するための手段であって、前記現在のビデオブロックが双予測マージモードに従って符号化される、受信するための手段と、
    前記1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別するための手段と、
    前記双予測マージモードに従って現在のビデオブロックを復号するために、前記2つの異なる隣接ビデオブロックの動き情報を使用するための手段と
    を備える、デバイス。
  25. ビデオデータを符号化するためのデバイスであって、前記デバイスが、
    現在のビデオブロックを符号化するための双予測マージモードを選択するための手段と、
    単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別するための手段と、
    前記双予測マージモードに従って前記現在のビデオブロックを符号化するために、前記2つの異なる隣接ビデオブロックの動き情報を使用するための手段と、
    ビデオデコーダに対して前記2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成するための手段と
    を備える、デバイス。
  26. 実行されると、プロセッサにビデオデータを復号させる命令を備えるコンピュータ可読媒体であって、前記命令は、前記プロセッサに、
    現在のビデオブロックのための1つまたは複数のシンタックス要素を受信するとき、ここにおいて前記現在のビデオブロックが双予測マージモードに従って符号化される、受信するとき、
    前記1つまたは複数のシンタックス要素に基づいて、単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
    前記双予測マージモードに従って現在のビデオブロックを復号するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと
    を行わせる、コンピュータ可読媒体。
  27. 実行されると、プロセッサにビデオデータを符号化させる命令を備えるコンピュータ可読媒体であって、前記命令は、前記プロセッサに、
    現在のビデオブロックを符号化するための双予測マージモードを選択することと、
    単予測モードでコーディングされた2つの異なる隣接ビデオブロックを識別することと、
    前記双予測マージモードに従って前記現在のビデオブロックを符号化するために、前記2つの異なる隣接ビデオブロックの動き情報を使用することと、
    ビデオデコーダに対して前記2つの異なる隣接ビデオブロックを識別するために1つまたは複数のシンタックス要素を生成することと
    を行わせる、コンピュータ可読媒体。
JP2014501085A 2011-03-21 2012-02-29 ビデオコーディングにおける単予測ネイバーに基づく双予測マージモード Active JP5897698B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201161454862P 2011-03-21 2011-03-21
US61/454,862 2011-03-21
US201161502703P 2011-06-29 2011-06-29
US61/502,703 2011-06-29
US13/336,799 US9648334B2 (en) 2011-03-21 2011-12-23 Bi-predictive merge mode based on uni-predictive neighbors in video coding
US13/336,799 2011-12-23
PCT/US2012/027136 WO2012128903A1 (en) 2011-03-21 2012-02-29 Bi-predictive merge mode based on uni-predictive neighbors in video coding

Publications (2)

Publication Number Publication Date
JP2014514814A true JP2014514814A (ja) 2014-06-19
JP5897698B2 JP5897698B2 (ja) 2016-03-30

Family

ID=46877348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014501085A Active JP5897698B2 (ja) 2011-03-21 2012-02-29 ビデオコーディングにおける単予測ネイバーに基づく双予測マージモード

Country Status (20)

Country Link
US (1) US9648334B2 (ja)
EP (1) EP2689582B1 (ja)
JP (1) JP5897698B2 (ja)
KR (1) KR101667836B1 (ja)
CN (1) CN103460695B (ja)
AU (1) AU2012231675B2 (ja)
BR (1) BR112013024187B1 (ja)
DK (1) DK2689582T3 (ja)
ES (1) ES2711449T3 (ja)
HU (1) HUE042481T2 (ja)
IL (1) IL228117A (ja)
MX (1) MX2013010766A (ja)
MY (1) MY167046A (ja)
PL (1) PL2689582T3 (ja)
PT (1) PT2689582T (ja)
RU (1) RU2547240C1 (ja)
SG (1) SG192954A1 (ja)
SI (1) SI2689582T1 (ja)
WO (1) WO2012128903A1 (ja)
ZA (1) ZA201307789B (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9560373B2 (en) 2011-05-31 2017-01-31 Sun Patent Trust Image coding method and apparatus with candidate motion vectors
US9609356B2 (en) 2011-05-31 2017-03-28 Sun Patent Trust Moving picture coding method and apparatus with candidate motion vectors
US9615107B2 (en) 2011-05-27 2017-04-04 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US9723322B2 (en) 2011-05-27 2017-08-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
US9826249B2 (en) 2011-05-24 2017-11-21 Velos Media, Llc Decoding method and apparatuses with candidate motion vectors
US9872036B2 (en) 2011-04-12 2018-01-16 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US10129561B2 (en) 2011-08-03 2018-11-13 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
US10887585B2 (en) 2011-06-30 2021-01-05 Sun Patent Trust Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
US11218708B2 (en) 2011-10-19 2022-01-04 Sun Patent Trust Picture decoding method for decoding using a merging candidate selected from a first merging candidate derived using a first derivation process and a second merging candidate derived using a second derivation process

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107071490B (zh) * 2010-11-04 2020-07-14 Ge视频压缩有限责任公司 解码装置和方法、编码装置和方法、存储和传输图像方法
JP5807621B2 (ja) * 2011-06-30 2015-11-10 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法、画像符号化プログラム、送信装置、送信方法および送信プログラム
WO2013005966A2 (ko) 2011-07-01 2013-01-10 한국전자통신연구원 비디오 부호화 방법 및 복호화 방법과 이를 이용한 장치
KR20130004173A (ko) 2011-07-01 2013-01-09 한국항공대학교산학협력단 비디오 부호화 방법 및 복호화 방법과 이를 이용한 장치
KR20140057683A (ko) * 2011-08-29 2014-05-13 주식회사 아이벡스피티홀딩스 머지 모드에서 영상 부호화 방법
US10499063B2 (en) * 2011-09-16 2019-12-03 Hfi Innovation Inc. Method and apparatus for prediction mode and partition mode syntax coding for coding units in HEVC
EP2774360B1 (en) * 2011-11-04 2017-08-02 Huawei Technologies Co., Ltd. Differential pulse code modulation intra prediction for high efficiency video coding
US8693551B2 (en) 2011-11-16 2014-04-08 Vanguard Software Solutions, Inc. Optimal angular intra prediction for block-based video coding
KR20130055773A (ko) * 2011-11-21 2013-05-29 한국전자통신연구원 부호화 방법 및 장치
JP5846132B2 (ja) * 2012-01-18 2016-01-20 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
JP5846133B2 (ja) * 2012-01-18 2016-01-20 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム
EP2806638A1 (en) * 2012-01-19 2014-11-26 Sony Corporation Image processing device and method
KR101418096B1 (ko) * 2012-01-20 2014-07-16 에스케이 텔레콤주식회사 가중치예측을 이용한 영상 부호화/복호화 방법 및 장치
US20130195188A1 (en) * 2012-01-26 2013-08-01 Panasonic Corporation Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US9106922B2 (en) 2012-12-19 2015-08-11 Vanguard Software Solutions, Inc. Motion estimation engine for video encoding
KR102018316B1 (ko) 2013-02-28 2019-09-05 삼성전자 주식회사 무선 통신 시스템에서 간섭 측정을 위한 제어정보의 전송 방법 및 장치
CN107113424B (zh) 2014-11-18 2019-11-22 联发科技股份有限公司 以帧间预测模式编码的块的视频编码和解码方法
US10291932B2 (en) * 2015-03-06 2019-05-14 Qualcomm Incorporated Method and apparatus for low complexity quarter pel generation in motion search
US11146794B2 (en) * 2015-07-27 2021-10-12 Mediatek Inc. Method of system for video coding using intra block copy mode
KR102270228B1 (ko) 2016-07-12 2021-06-28 한국전자통신연구원 영상 부호화/복호화 방법 및 이를 위한 기록 매체
US11638027B2 (en) 2016-08-08 2023-04-25 Hfi Innovation, Inc. Pattern-based motion vector derivation for video coding
KR101986819B1 (ko) 2016-11-11 2019-06-07 (주)지아이건설 보강구조물 및 그 시공방법
CN107124638B (zh) * 2017-05-18 2020-05-12 京东方科技集团股份有限公司 数据传输方法、装置及***
CN108933941A (zh) * 2017-05-26 2018-12-04 富士通株式会社 图像编码方法和装置以及图像解码方法和装置
US10282827B2 (en) * 2017-08-10 2019-05-07 Wipro Limited Method and system for removal of rain streak distortion from a video
US11470346B2 (en) * 2018-05-09 2022-10-11 Sharp Kabushiki Kaisha Systems and methods for performing motion vector prediction using a derived set of motion vectors
CN110677668B (zh) 2018-07-01 2022-06-21 北京字节跳动网络技术有限公司 空间运动压缩
CN110677650B (zh) * 2018-07-01 2023-06-09 北京字节跳动网络技术有限公司 降低非相邻Merge设计的复杂度
CA3112373A1 (en) 2018-11-20 2020-05-28 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods for merge mode
AR118250A1 (es) 2019-03-08 2021-09-22 Jvckenwood Corp Dispositivos, métodos y programas de codificación y decodificación de imágenes en movimiento
WO2020216294A1 (zh) 2019-04-25 2020-10-29 华为技术有限公司 图像预测方法、装置和计算机可读存储介质
US11445174B2 (en) * 2019-05-06 2022-09-13 Tencent America LLC Method and apparatus for video coding
WO2021040572A1 (en) * 2019-08-30 2021-03-04 Huawei Technologies Co., Ltd. Method and apparatus of high-level signaling for non-rectangular partitioning modes

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012046637A1 (ja) * 2010-10-06 2012-04-12 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
WO2012140821A1 (ja) * 2011-04-12 2012-10-18 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および動画像符号化復号化装置
WO2012160803A1 (ja) * 2011-05-24 2012-11-29 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置
WO2012173415A2 (ko) * 2011-06-14 2012-12-20 삼성전자 주식회사 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치
WO2013001803A1 (ja) * 2011-06-30 2013-01-03 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法および画像復号プログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0171145B1 (ko) 1995-03-20 1999-03-20 배순훈 이미지 부호화 시스템용 움직임 보상 장치
GB9519923D0 (en) * 1995-09-29 1995-11-29 Philips Electronics Nv Motion estimation for predictive image coding
JP2003199111A (ja) 2001-12-27 2003-07-11 Matsushita Electric Ind Co Ltd 予測装置、符号化装置、逆予測装置、復号装置、及び、演算装置
JP4114859B2 (ja) 2002-01-09 2008-07-09 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
PT3525467T (pt) 2002-04-19 2021-04-08 Panasonic Ip Corp America Método e aparelho de descodificação de fluxo de bits
US7020200B2 (en) 2002-08-13 2006-03-28 Lsi Logic Corporation System and method for direct motion vector prediction in bi-predictive video frames and fields
US7469070B2 (en) 2004-02-09 2008-12-23 Lsi Corporation Method for selection of contexts for arithmetic coding of reference picture and motion vector residual bitstream syntax elements
JP2007043651A (ja) 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
TW200806040A (en) 2006-01-05 2008-01-16 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
JP4999854B2 (ja) 2006-09-20 2012-08-15 日本電信電話株式会社 画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
US8571104B2 (en) 2007-06-15 2013-10-29 Qualcomm, Incorporated Adaptive coefficient scanning in video coding
WO2010086018A1 (en) * 2009-01-29 2010-08-05 Telefonaktiebolaget L M Ericsson (Publ) Method and apparatus for efficient hardware motion estimation
KR101452859B1 (ko) 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
US8526495B2 (en) * 2010-11-22 2013-09-03 Mediatek Singapore Pte. Ltd. Apparatus and method of constrained partition size for high efficiency video coding
US9924188B2 (en) * 2011-01-07 2018-03-20 Lg Electronics Inc. Method for encoding and decoding image information to determine reference index in skip mode or merge mode and device using same
WO2012097376A1 (en) * 2011-01-14 2012-07-19 General Instrument Corporation Spatial block merge mode
TW201246943A (en) * 2011-01-26 2012-11-16 Panasonic Corp Video image encoding method, video image encoding device, video image decoding method, video image decoding device, and video image encoding and decoding device
JP5358746B2 (ja) * 2011-03-03 2013-12-04 パナソニック株式会社 動画像符号化方法、動画像符号化装置及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012046637A1 (ja) * 2010-10-06 2012-04-12 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
WO2012140821A1 (ja) * 2011-04-12 2012-10-18 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および動画像符号化復号化装置
WO2012160803A1 (ja) * 2011-05-24 2012-11-29 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置
WO2012173415A2 (ko) * 2011-06-14 2012-12-20 삼성전자 주식회사 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치
WO2013001803A1 (ja) * 2011-06-30 2013-01-03 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法および画像復号プログラム

Non-Patent Citations (10)

* Cited by examiner, † Cited by third party
Title
CSNC201318017725; Zheng,Y.,et al: 'Extended Motion Vector Prediction for Bi predictive Mode[online]' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC , 20110311, <URL:http://phenix.it-sudparis.eu/jct/doc_end_use *
CSNC201318017850; Zheng,Y. et al: 'Unified Motion Vector Predictor Selection for Merge and AMVP[online]' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC , 20110311, <URL:http://phenix.it-sudparis.eu/jct/doc_end_use *
CSNC201318017854; Zheng,Y.,et al: 'On Temporal Candidate of Merge and AMVP[online]' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTV , 20110319, <URL:http://phenix.it-sudparis.eu/jct/doc_end_use *
JPN6012024749; Hideki Takehara et al.: 'Bi-derivative merge candidate' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F372, 201107, pp.1-5, 6th Meeting: Torino, IT *
JPN6012064442; Jianle Chen and Tammy Lee: 'MVP index parsing with fixed number of candidates' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F402_r1, 201107, pp.1-17, 6th Meeting: Torino, IT *
JPN6014033905; Toshiyasu Sugio and Takahiro Nishi: 'Parsing Robustness for Merge/AMVP' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F470_r4, 201107, pp.1-15, 6th Meeting: Torino, IT *
JPN6014039669; Zheng,Y. et al: 'Unified Motion Vector Predictor Selection for Merge and AMVP[online]' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC , 20110311, <URL:http://phenix.it-sudparis.eu/jct/doc_end_use *
JPN6014039671; Zheng,Y.,et al: 'Extended Motion Vector Prediction for Bi predictive Mode[online]' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC , 20110311, <URL:http://phenix.it-sudparis.eu/jct/doc_end_use *
JPN6014039673; Zheng,Y.,et al: 'On Temporal Candidate of Merge and AMVP[online]' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTV , 20110319, <URL:http://phenix.it-sudparis.eu/jct/doc_end_use *
JPN6016003406; Yunfei Zheng et al.: 'Extended Motion Vector Prediction for Bi predictive Mode' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC_E343, 20110311, pp.1-4, 5th Meeting: Geneva *

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10536712B2 (en) 2011-04-12 2020-01-14 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US11356694B2 (en) 2011-04-12 2022-06-07 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US10178404B2 (en) 2011-04-12 2019-01-08 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US10609406B2 (en) 2011-04-12 2020-03-31 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US11917186B2 (en) 2011-04-12 2024-02-27 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US11012705B2 (en) 2011-04-12 2021-05-18 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US10382774B2 (en) 2011-04-12 2019-08-13 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US9872036B2 (en) 2011-04-12 2018-01-16 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US11228784B2 (en) 2011-05-24 2022-01-18 Velos Media, Llc Decoding method and apparatuses with candidate motion vectors
US10484708B2 (en) 2011-05-24 2019-11-19 Velos Media, Llc Decoding method and apparatuses with candidate motion vectors
US9826249B2 (en) 2011-05-24 2017-11-21 Velos Media, Llc Decoding method and apparatuses with candidate motion vectors
US10129564B2 (en) 2011-05-24 2018-11-13 Velos Media, LCC Decoding method and apparatuses with candidate motion vectors
US11076170B2 (en) 2011-05-27 2021-07-27 Sun Patent Trust Coding method and apparatus with candidate motion vectors
US11979582B2 (en) 2011-05-27 2024-05-07 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US9883199B2 (en) 2011-05-27 2018-01-30 Sun Patent Trust Coding method and apparatus with candidate motion vectors
US10212450B2 (en) 2011-05-27 2019-02-19 Sun Patent Trust Coding method and apparatus with candidate motion vectors
US11570444B2 (en) 2011-05-27 2023-01-31 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US9838695B2 (en) 2011-05-27 2017-12-05 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US10200714B2 (en) 2011-05-27 2019-02-05 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
US11895324B2 (en) 2011-05-27 2024-02-06 Sun Patent Trust Coding method and apparatus with candidate motion vectors
US10721474B2 (en) 2011-05-27 2020-07-21 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US10034001B2 (en) 2011-05-27 2018-07-24 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US10595023B2 (en) 2011-05-27 2020-03-17 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US9723322B2 (en) 2011-05-27 2017-08-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
US11115664B2 (en) 2011-05-27 2021-09-07 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US9615107B2 (en) 2011-05-27 2017-04-04 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US10708598B2 (en) 2011-05-27 2020-07-07 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US11575930B2 (en) 2011-05-27 2023-02-07 Sun Patent Trust Coding method and apparatus with candidate motion vectors
US10645413B2 (en) 2011-05-31 2020-05-05 Sun Patent Trust Derivation method and apparatuses with candidate motion vectors
US11949903B2 (en) 2011-05-31 2024-04-02 Sun Patent Trust Image decoding method and image decoding apparatus using candidate motion vectors
US11917192B2 (en) 2011-05-31 2024-02-27 Sun Patent Trust Derivation method and apparatuses with candidate motion vectors
US11057639B2 (en) 2011-05-31 2021-07-06 Sun Patent Trust Derivation method and apparatuses with candidate motion vectors
US10652573B2 (en) 2011-05-31 2020-05-12 Sun Patent Trust Video encoding method, video encoding device, video decoding method, video decoding device, and video encoding/decoding device
US9560373B2 (en) 2011-05-31 2017-01-31 Sun Patent Trust Image coding method and apparatus with candidate motion vectors
US9609356B2 (en) 2011-05-31 2017-03-28 Sun Patent Trust Moving picture coding method and apparatus with candidate motion vectors
US9900613B2 (en) 2011-05-31 2018-02-20 Sun Patent Trust Image coding and decoding system using candidate motion vectors
US10412404B2 (en) 2011-05-31 2019-09-10 Velos Media, Llc Image decoding method and image decoding apparatus using candidate motion vectors
US11368710B2 (en) 2011-05-31 2022-06-21 Velos Media, Llc Image decoding method and image decoding apparatus using candidate motion vectors
US11509928B2 (en) 2011-05-31 2022-11-22 Sun Patent Trust Derivation method and apparatuses with candidate motion vectors
US10951911B2 (en) 2011-05-31 2021-03-16 Velos Media, Llc Image decoding method and image decoding apparatus using candidate motion vectors
US9819961B2 (en) 2011-05-31 2017-11-14 Sun Patent Trust Decoding method and apparatuses with candidate motion vectors
US10887585B2 (en) 2011-06-30 2021-01-05 Sun Patent Trust Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
US11553202B2 (en) 2011-08-03 2023-01-10 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
US10129561B2 (en) 2011-08-03 2018-11-13 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
US10284872B2 (en) 2011-08-03 2019-05-07 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
US10440387B2 (en) 2011-08-03 2019-10-08 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
US11979598B2 (en) 2011-08-03 2024-05-07 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
US11647208B2 (en) 2011-10-19 2023-05-09 Sun Patent Trust Picture coding method, picture coding apparatus, picture decoding method, and picture decoding apparatus
US11218708B2 (en) 2011-10-19 2022-01-04 Sun Patent Trust Picture decoding method for decoding using a merging candidate selected from a first merging candidate derived using a first derivation process and a second merging candidate derived using a second derivation process

Also Published As

Publication number Publication date
HUE042481T2 (hu) 2019-06-28
CN103460695B (zh) 2016-12-14
AU2012231675B2 (en) 2015-04-02
ES2711449T3 (es) 2019-05-03
BR112013024187B1 (pt) 2022-02-01
RU2013146788A (ru) 2015-04-27
IL228117A (en) 2017-09-28
SG192954A1 (en) 2013-09-30
RU2547240C1 (ru) 2015-04-10
DK2689582T3 (en) 2019-02-25
PT2689582T (pt) 2019-02-21
SI2689582T1 (sl) 2019-03-29
KR20130135362A (ko) 2013-12-10
MX2013010766A (es) 2013-10-17
US20120243609A1 (en) 2012-09-27
KR101667836B1 (ko) 2016-10-19
US9648334B2 (en) 2017-05-09
ZA201307789B (en) 2018-12-19
IL228117A0 (en) 2013-12-31
CN103460695A (zh) 2013-12-18
JP5897698B2 (ja) 2016-03-30
PL2689582T3 (pl) 2019-05-31
EP2689582B1 (en) 2018-11-14
AU2012231675A1 (en) 2013-10-10
EP2689582A1 (en) 2014-01-29
WO2012128903A1 (en) 2012-09-27
MY167046A (en) 2018-08-02
BR112013024187A2 (pt) 2016-12-13

Similar Documents

Publication Publication Date Title
JP5897698B2 (ja) ビデオコーディングにおける単予測ネイバーに基づく双予測マージモード
JP5844392B2 (ja) ビデオコード化における双方向予測インターモードのための動きベクトル予測子(mvp)
US9906790B2 (en) Deblock filtering using pixel distance
JP5792319B2 (ja) ビデオデータのブロック係数のモード依存型スキャニング
EP2380351B1 (en) Combined scheme for interpolation filtering, in-loop filtering and post-loop filtering in video coding
EP2732629B1 (en) Signaling picture size in video coding
US20110249754A1 (en) Variable length coding of coded block pattern (cbp) in video compression
US8665959B2 (en) Block and partition signaling techniques for video coding
JP5813783B2 (ja) 1次元スイッチ式フィルタと1次元適応フィルタとの組合せを使用したビデオフィルタリング
CN107258081B (zh) 对使用非正方形分割编码视频数据的优化
CA2830242C (en) Bi-predictive merge mode based on uni-predictive neighbors in video coding

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160302

R150 Certificate of patent or registration of utility model

Ref document number: 5897698

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250