JPWO2019246092A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2019246092A5
JPWO2019246092A5 JP2020570430A JP2020570430A JPWO2019246092A5 JP WO2019246092 A5 JPWO2019246092 A5 JP WO2019246092A5 JP 2020570430 A JP2020570430 A JP 2020570430A JP 2020570430 A JP2020570430 A JP 2020570430A JP WO2019246092 A5 JPWO2019246092 A5 JP WO2019246092A5
Authority
JP
Japan
Prior art keywords
motion vector
list
sub
prediction
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020570430A
Other languages
English (en)
Other versions
JP7379391B2 (ja
JP2021527999A (ja
Publication date
Priority claimed from US16/443,113 external-priority patent/US20190387247A1/en
Application filed filed Critical
Publication of JP2021527999A publication Critical patent/JP2021527999A/ja
Publication of JPWO2019246092A5 publication Critical patent/JPWO2019246092A5/ja
Application granted granted Critical
Publication of JP7379391B2 publication Critical patent/JP7379391B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

[0193] 様々な例を説明した。これらの例および他の例は、以下の特許請求の範囲の適用範囲内にある。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオデータを復号する方法であって、
符号化されたビデオデータを受信することと、
前記符号化されたビデオデータからサブ予測ユニット動きフラグをパースすることと、 前記サブ予測ユニット動きフラグがアクティブであると決定したことに応答して、サブ予測ユニットレベル動き予測候補のリストを導出することと、
前記サブ予測ユニット動きフラグがアクティブでないと決定したことに応答して、予測ユニットレベル動き予測候補のリストを導出することと、
サブ予測ユニットレベル動き予測候補の前記リストまたは予測ユニットレベル動き予測候補の前記リストのいずれかから動きベクトル予測子を選択することと、
前記選択された動きベクトル予測子を使用して、前記符号化されたビデオデータを復号することと、
を備える、方法。
[C2]
前記符号化されたビデオデータは、現在ブロックを含み、サブ予測ユニットレベル動き予測候補の前記リストおよび予測ユニットレベル動き予測候補の前記リストは、前記現在ブロックの隣接ブロックから導出される、C1に記載の方法。
[C3]
前記隣接ブロックは、現在ピクチャ中の前記現在ブロックの空間隣接物、または前にコーディングされたピクチャ中の前記現在ブロックの時間隣接物である、C2に記載の方法。
[C4]
サブ予測ユニットレベル動き予測候補の前記リストまたは予測ユニットレベル動き予測候補の前記リストは、前記隣接ブロックにおける動き予測発生に基づいて少なくとも部分的に順序付けられる、C2に記載の方法。
[C5]
予測ユニット中のピクセルは、第1の動きベクトル情報を共有し、サブ予測ユニット中のピクセルは、第2の動きベクトル情報を共有し、前記第1の動きベクトル情報または前記第2のベクトル情報は、前記選択された動きベクトル予測子から決定される、C1に記載の方法。
[C6]
前記予測ユニットレベル動きベクトル候補リストは、空間隣接候補および時間隣接候補のうちの少なくとも1つを含む、C1に記載の方法。
[C7]
サブ予測ユニットレベル動き予測候補の前記リストは、アフィン動きベクトル予測、代替時間動きベクトル予測(ATMVP)、空間時間動きベクトル予測(STMVP)、平面動きベクトル予測、およびパターンマッチ動きベクトル導出(PMVD)のうちの少なくとも1つを含む、C1に記載の方法。
[C8]
前記サブ予測ユニット動きフラグがアクティブであると決定したことに応答して、マージング候補インデックスを導出することをさらに備え、ここにおいて、前記マージング候補インデックスは、選択されるべき前記動きベクトル予測子を指定する、
C1に記載の方法。
[C9]
ビデオデータを復号するための装置であって、
受信された符号化されたビデオデータを記憶するためのメモリと、
プロセッサと、
を備え、前記プロセッサは、
前記符号化されたビデオデータからサブ予測ユニット動きフラグをパースすることと、
前記サブ予測ユニット動きフラグがアクティブであると決定したことに応答して、サブ予測ユニットレベル動き予測候補のリストを導出することと、
前記サブ予測ユニット動きフラグがアクティブでないと決定したことに応答して、予測ユニットレベル動き予測候補のリストを導出することと、
サブ予測ユニットレベル動き予測候補の前記リストまたは予測ユニットレベル動き予測候補の前記リストのいずれかから動きベクトル予測子を選択することと、
前記選択された動きベクトル予測子を使用して、前記符号化されたビデオデータを復号することと、
を行うように構成されている、装置。
[C10]
前記符号化されたビデオデータは、現在ブロックを含み、サブ予測ユニットレベル動き予測候補の前記リストおよび予測ユニットレベル動き予測候補の前記リストは、前記現在ブロックの隣接ブロックから導出される、C9に記載の装置。
[C11]
前記隣接ブロックは、現在ピクチャ中の前記現在ブロックの空間隣接物、または前にコーディングされたピクチャ中の前記現在ブロックの時間隣接物である、C10に記載の装置。
[C12]
サブ予測ユニットレベル動き予測候補の前記リストまたは予測ユニットレベル動き予測候補の前記リストは、前記隣接ブロックにおける動き予測発生に基づいて少なくとも部分的に順序付けられる、C10に記載の装置。
[C13]
予測ユニット中のピクセルは、第1の動きベクトル情報を共有し、サブ予測ユニット中のピクセルは、第2の動きベクトル情報を共有し、前記第1の動きベクトル情報または前記第2のベクトル情報は、前記選択された動きベクトル予測子から決定される、C9に記載の装置。
[C14]
前記予測ユニットレベル動きベクトル候補リストは、空間隣接候補および時間隣接候補のうちの少なくとも1つを含む、C9に記載の装置。
[C15]
サブ予測ユニットレベル動き予測候補の前記リストは、アフィン動きベクトル予測、代替時間動きベクトル予測(ATMVP)、空間時間動きベクトル予測(STMVP)、平面動きベクトル予測、およびパターンマッチ動きベクトル導出(PMVD)のうちの少なくとも1つを含む、C9に記載の装置。
[C16]
前記プロセッサは、
前記サブ予測ユニット動きフラグがアクティブであると決定したことに応答して、マージング候補インデックスを導出するようにさらに構成され、ここにおいて、前記マージング候補インデックスは、選択されるべき前記動きベクトル予測子を指定する、
C9に記載の装置。
[C17]
ビデオデータを復号するための装置であって、
受信された符号化されたビデオデータを記憶するためのメモリ手段と、
プロセッサ手段と、
を備え、前記プロセッサ手段は、
前記符号化されたビデオデータからサブ予測ユニット動きフラグをパースすることと、
前記サブ予測ユニット動きフラグがアクティブであると決定したことに応答して、サブ予測ユニットレベル動き予測候補のリストを導出することと、
前記サブ予測ユニット動きフラグがアクティブでないと決定したことに応答して、予測ユニットレベル動き予測候補のリストを導出することと、
サブ予測ユニットレベル動き予測候補の前記リストまたは予測ユニットレベル動き予測候補の前記リストのいずれかから動きベクトル予測子を選択することと、
前記選択された動きベクトル予測子を使用して、前記符号化されたビデオデータを復号することと、
を行うように構成されている、装置。
[C18]
前記符号化されたビデオデータは、現在ブロックを含み、サブ予測ユニットレベル動き予測候補の前記リストおよび予測ユニットレベル動き予測候補の前記リストは、前記現在ブロックの隣接ブロックから導出される、C17に記載の装置。
[C19]
前記隣接ブロックは、現在ピクチャ中の前記現在ブロックの空間隣接物、または前にコーディングされたピクチャ中の前記現在ブロックの時間隣接物である、C18に記載の装置。
[C20]
サブ予測ユニットレベル動き予測候補の前記リストまたは予測ユニットレベル動き予測候補の前記リストは、前記隣接ブロックにおける動き予測発生に基づいて少なくとも部分的に順序付けられる、C18に記載の装置。
[C21]
予測ユニット中のピクセルは、第1の動きベクトル情報を共有し、サブ予測ユニット中のピクセルは、第2の動きベクトル情報を共有し、前記第1の動きベクトル情報または前記第2のベクトル情報は、前記選択された動きベクトル予測子から決定される、C17に記載の装置。
[C22]
前記予測ユニットレベル動きベクトル候補リストは、空間隣接候補および時間隣接候補のうちの少なくとも1つを含む、C17に記載の装置。
[C23]
サブ予測ユニットレベル動き予測候補の前記リストは、アフィン動きベクトル予測、代替時間動きベクトル予測(ATMVP)、空間時間動きベクトル予測(STMVP)、平面動きベクトル予測、およびパターンマッチ動きベクトル導出(PMVD)のうちの少なくとも1つを含む、C17に記載の装置。
[C24]
前記プロセッサ手段は、
前記サブ予測ユニット動きフラグがアクティブであると決定したことに応答して、マージング候補インデックスを導出するようにさらに構成され、ここにおいて、前記マージング候補インデックスは、選択されるべき前記動きベクトル予測子を指定する、
C17に記載の装置。
[C25]
実行されたときに、
符号化されたビデオデータを受信することと、
前記符号化されたビデオデータからサブ予測ユニット動きフラグをパースすることと、
前記サブ予測ユニット動きフラグがアクティブであると決定したことに応答して、サブ予測ユニットレベル動き予測候補のリストを導出することと、
前記サブ予測ユニット動きフラグがアクティブでないと決定したことに応答して、予測ユニットレベル動き予測候補のリストを導出することと、
サブ予測ユニットレベル動き予測候補の前記リストまたは予測ユニットレベル動き予測候補の前記リストのいずれかから動きベクトル予測子を選択することと、
前記選択された動きベクトル予測子を使用して、前記符号化されたビデオデータを復号することと、
を備える方法を、1つまたは複数のプロセッサに実行させる命令を記憶した、非一時的コンピュータ可読記憶媒体。
[C26]
前記符号化されたビデオデータは、現在ブロックを含み、サブ予測ユニットレベル動き予測候補の前記リストおよび予測ユニットレベル動き予測候補の前記リストは、前記現在ブロックの隣接ブロックから導出される、C25に記載の媒体。
[C27]
前記隣接ブロックは、現在ピクチャ中の前記現在ブロックの空間隣接物、または前にコーディングされたピクチャ中の前記現在ブロックの時間隣接物である、C26に記載の媒体。
[C28]
サブ予測ユニットレベル動き予測候補の前記リストまたは予測ユニットレベル動き予測候補の前記リストは、前記隣接ブロックにおける動き予測発生に基づいて少なくとも部分的に順序付けられる、C26に記載の媒体。
[C29]
予測ユニット中のピクセルは、第1の動きベクトル情報を共有し、サブ予測ユニット中のピクセルは、第2の動きベクトル情報を共有し、前記第1の動きベクトル情報または前記第2のベクトル情報は、前記選択された動きベクトル予測子から決定され、
前記予測ユニットレベル動きベクトル候補リストは、空間隣接候補および時間隣接候補のうちの少なくとも1つを含み、
サブ予測ユニットレベル動き予測候補の前記リストは、アフィン動きベクトル予測、代替時間動きベクトル予測(ATMVP)、空間時間動きベクトル予測(STMVP)、平面動きベクトル予測、およびパターンマッチ動きベクトル導出(PMVD)のうちの少なくとも1つを含む、C25に記載の媒体。
[C30]
前記方法は、
前記サブ予測ユニット動きフラグがアクティブであると決定したことに応答して、マージング候補インデックスを導出することをさらに備え、ここにおいて、前記マージング候補インデックスは、選択されるべき前記動きベクトル予測子を指定する、
C25に記載の媒体。

Claims (15)

  1. ビデオデータを復号する方法であって、
    符号化されたビデオデータを受信することと、前記符号化されたビデオデータは、現在ブロックを含み、
    前記現在ブロックについて、前記符号化されたビデオデータからブロックレベルシンタックス要素をパースすることと、ここにおいて、前記ブロックレベルシンタックス要素は、サブ予測ユニット動きフラグであり、
    前記サブ予測ユニット動きフラグがアクティブであると決定したことに応答して、前記現在ブロックについて、サブ予測ユニットレベル動きベクトル予測候補のリストを導出すること、および、サブ予測ユニットレベル動きベクトル予測候補の前記リストから、前記現在ブロックについての動きベクトル予測子を選択すること、と、
    前記サブ予測ユニット動きフラグがアクティブでないと決定したことに応答して、前記現在ブロックについて、予測ユニットレベル動きベクトル予測候補のリストを導出すること、および、サブ予測ユニットレベル動きベクトル予測候補の前記リストから、前記現在ブロックについての動きベクトル予測子を選択すること、と
    前記選択された動きベクトル予測子を使用して、前記現在ブロックを復号することを含む前記符号化されたビデオデータを復号することと、
    を備え、
    ここにおいて、予測ユニットレベル動きベクトル予測候補の前記リストは、サブ予測ユニットレベル動き予測候補の前記リストとは異なる、
    方法。
  2. ブ予測ユニットレベル動きベクトル予測候補の前記リストおよび予測ユニットレベル動きベクトル予測候補の前記リストは、前記現在ブロックの隣接ブロックから導出される、請求項1に記載の方法。
  3. 前記隣接ブロックは、現在ピクチャ中の前記現在ブロックの空間隣接物、または前にコーディングされたピクチャ中の前記現在ブロックの時間隣接物である、請求項2に記載の方法。
  4. サブ予測ユニットレベル動きベクトル予測候補の前記リストまたは予測ユニットレベル動きベクトル予測候補の前記リストは、前記隣接ブロックにおける動きベクトル測に基づいて少なくとも部分的に順序付けられる、請求項2に記載の方法。
  5. 予測ユニット中のピクセルは、第1の動きベクトル情報を共有し、サブ予測ユニット中のピクセルは、第2の動きベクトル情報を共有し、前記第1の動きベクトル情報または前記第2の動きベクトル情報は、前記選択された動きベクトル予測子から決定される、請求項1に記載の方法。
  6. 前記予測ユニットレベル動きベクトル候補リストは、空間隣接候補および時間隣接候補のうちの少なくとも1つを含む、請求項1に記載の方法。
  7. サブ予測ユニットレベル動きベクトル予測候補の前記リストは、アフィン動きベクトル予測、代替時間動きベクトル予測(ATMVP)、空間時間動きベクトル予測(STMVP)、平面動きベクトル予測、およびパターンマッチ動きベクトル導出(PMVD)のうちの少なくとも1つを含む、請求項1に記載の方法。
  8. 前記サブ予測ユニット動きフラグがアクティブであると決定したことに応答して、マージング候補インデックスを導出することをさらに備え、ここにおいて、前記マージング候補インデックスは、選択されるべき前記動きベクトル予測子を指定する、
    請求項1に記載の方法。
  9. ビデオデータを復号するための装置であって、
    受信された符号化されたビデオデータを記憶するためのメモリと、前記受信された符号化されたビデオデータは、現在ブロックを含む、
    プロセッサと、
    を備え、前記プロセッサは、
    前記現在ブロックについて、前記符号化されたビデオデータからブロックレベルシンタックス要素をパースすることと、ここにおいて、前記ブロックレベルシンタックス要素はサブ予測ユニット動きフラグである、
    前記サブ予測ユニット動きフラグがアクティブであると決定したことに応答して、前記現在ブロックについて、サブ予測ユニットレベル動きベクトル予測候補のリストを導出すること、および、サブ予測ユニットレベル動きベクトル予測候補の前記リストから、前記現在ブロックについての動きベクトル予測子を選択すること、と、
    前記サブ予測ユニット動きフラグがアクティブでないと決定したことに応答して、前記現在ブロックについて、予測ユニットレベル動きベクトル予測候補のリストを導出すること、および、予測ユニットレベル動きベクトル予測候補の前記リストから、前記現在ブロックについての動きベクトル予測子を選択すること、と、
    前記選択された動きベクトル予測子を使用して、前記現在ブロックを復号することを含む前記符号化されたビデオデータを復号することと、
    を行うように構成され、
    ここにおいて、予測ユニットレベル動きベクトル予測候補の前記リストは、サブ予測ユニットレベル動きベクトル予測候補の前記リストとは異なる、
    装置。
  10. ブ予測ユニットレベル動きベクトル予測候補の前記リストおよび予測ユニットレベル動きベクトル予測候補の前記リストは、前記現在ブロックの隣接ブロックから導出される、請求項9に記載の装置。
  11. 前記隣接ブロックは、現在ピクチャ中の前記現在ブロックの空間隣接物、または前にコーディングされたピクチャ中の前記現在ブロックの時間隣接物である、請求項10に記載の装置。
  12. サブ予測ユニットレベル動きベクトル予測候補の前記リストまたは予測ユニットレベル動きベクトル予測候補の前記リストは、前記隣接ブロックにおける動きベクトル測に基づいて少なくとも部分的に順序付けられる、請求項10に記載の装置。
  13. 予測ユニット中のピクセルは、第1の動きベクトル情報を共有し、サブ予測ユニット中のピクセルは、第2の動きベクトル情報を共有し、前記第1の動きベクトル情報または前記第2のベクトル情報は、前記選択された動きベクトル予測子から決定される、請求項9に記載の装置。
  14. 前記予測ユニットレベル動きベクトル候補リストは、空間隣接候補および時間隣接候補のうちの少なくとも1つを含む、請求項9に記載の装置。
  15. 1つまたは複数のプロセッサによって実行されたときに、請求項1~8のいずれか一項に記載の方法を、前記1つまたは複数のプロセッサに実行させる命令を記憶した、非一時的コンピュータ可読記憶媒体。
JP2020570430A 2018-06-19 2019-06-18 シグナリングサブ予測ユニット動きベクトル予測子 Active JP7379391B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862687052P 2018-06-19 2018-06-19
US62/687,052 2018-06-19
US16/443,113 US20190387247A1 (en) 2018-06-19 2019-06-17 Signaling sub-prediction unit motion vector predictor
US16/443,113 2019-06-17
PCT/US2019/037722 WO2019246092A1 (en) 2018-06-19 2019-06-18 Signaling sub-prediction unit motion vector predictor

Publications (3)

Publication Number Publication Date
JP2021527999A JP2021527999A (ja) 2021-10-14
JPWO2019246092A5 true JPWO2019246092A5 (ja) 2022-05-26
JP7379391B2 JP7379391B2 (ja) 2023-11-14

Family

ID=68839373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020570430A Active JP7379391B2 (ja) 2018-06-19 2019-06-18 シグナリングサブ予測ユニット動きベクトル予測子

Country Status (11)

Country Link
US (1) US20190387247A1 (ja)
EP (1) EP3811622A1 (ja)
JP (1) JP7379391B2 (ja)
KR (1) KR20210020908A (ja)
AR (1) AR115568A1 (ja)
AU (1) AU2019288269B2 (ja)
BR (1) BR112020025982A2 (ja)
MX (1) MX2020013843A (ja)
PH (1) PH12020551952A1 (ja)
SG (1) SG11202011223WA (ja)
WO (1) WO2019246092A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116347099A (zh) * 2018-06-19 2023-06-27 北京字节跳动网络技术有限公司 没有运动矢量预测截断的选择的运动矢量差精度
EP3806472A4 (en) * 2018-06-30 2021-04-14 Guangdong Oppo Mobile Telecommunications Corp., Ltd. METHOD AND DEVICE FOR INTERPRDICTION BASED ON MERGING MODE
EP4362468A3 (en) * 2018-07-02 2024-06-26 Huawei Technologies Co., Ltd. Motion vector prediction method and device, and codec
CN116546213A (zh) 2018-09-19 2023-08-04 北京字节跳动网络技术有限公司 具有自适应运动矢量分辨率的仿射模式的语法重用
WO2020086317A1 (en) * 2018-10-23 2020-04-30 Tencent America Llc. Method and apparatus for video coding
KR20210121021A (ko) 2019-01-31 2021-10-07 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 어파인 모드 적응적 움직임 벡터 해상도 코딩 문맥
US11375222B2 (en) * 2019-09-22 2022-06-28 Tencent America LLC Method and device for video encoding and decoding with interpolation filter flag being consistent with MMVD distances

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3263960B2 (ja) * 1991-10-22 2002-03-11 ソニー株式会社 動きベクトル符号器および復号器
JP6616773B2 (ja) * 2014-01-03 2019-12-04 ユニバーシティ−インダストリー コーオペレイション グループ オブ キョンヒ ユニバーシティ サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置
US10070130B2 (en) * 2015-01-30 2018-09-04 Qualcomm Incorporated Flexible partitioning of prediction units
US10560718B2 (en) * 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
JP7048503B2 (ja) * 2016-09-27 2022-04-05 シャープ株式会社 復号装置、符号化装置、復号方法、および、符号化方法

Similar Documents

Publication Publication Date Title
JP2019515587A5 (ja)
US11889058B2 (en) Picture encoding/decoding method and related apparatus
JP2020536443A5 (ja)
JP2018512810A5 (ja)
JP2019526988A5 (ja)
JP2016530784A5 (ja)
JPWO2020113052A5 (ja)
JP2019519982A5 (ja)
JP2017508345A5 (ja)
JP2024001175A5 (ja)
JP2020503799A5 (ja)
JP2019505143A5 (ja)
JP2018513612A5 (ja)
CA2823880C (en) Predictive encoding method, predictive encoding device, and predictive encoding program of motion vector, and, predictive decoding method, predictive decoding device, and predictive decoding program of motion vector
JP2019508971A5 (ja)
JP2015507417A5 (ja)
JP2017535175A5 (ja)
JPWO2020076705A5 (ja)
JP2018524906A5 (ja)
RU2012113724A (ru) Способ кодирования и способ декодирования видео, устройства для них, программы для них, а также носители хранения данных, которые сохраняют программы
JP2016507966A5 (ja)
JP2016511975A5 (ja)
JPWO2020113051A5 (ja)
JP2015507883A5 (ja)
JP2015532552A5 (ja)