JP2021502038A - Subblock motion derivation and decoder side motion vector refinement for merge mode - Google Patents

Subblock motion derivation and decoder side motion vector refinement for merge mode Download PDF

Info

Publication number
JP2021502038A
JP2021502038A JP2020543735A JP2020543735A JP2021502038A JP 2021502038 A JP2021502038 A JP 2021502038A JP 2020543735 A JP2020543735 A JP 2020543735A JP 2020543735 A JP2020543735 A JP 2020543735A JP 2021502038 A JP2021502038 A JP 2021502038A
Authority
JP
Japan
Prior art keywords
collated
picture
neighboring
block
neighbor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020543735A
Other languages
Japanese (ja)
Other versions
JP2021502038A5 (en
JP7382332B2 (en
Inventor
シャオユ・シュ
ユウェン・ヘ
ヤン・イェ
Original Assignee
ヴィド スケール インコーポレイテッド
ヴィド スケール インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴィド スケール インコーポレイテッド, ヴィド スケール インコーポレイテッド filed Critical ヴィド スケール インコーポレイテッド
Publication of JP2021502038A publication Critical patent/JP2021502038A/en
Publication of JP2021502038A5 publication Critical patent/JP2021502038A5/ja
Priority to JP2023189419A priority Critical patent/JP2024010171A/en
Application granted granted Critical
Publication of JP7382332B2 publication Critical patent/JP7382332B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

マージモード用のサブブロック動き導出および動きベクトル精緻化のためのシステム、方法、および手段が、本明細書において開示され得る。ビデオデータは、符号化(例えば、エンコードおよび/またはデコード)され得る。ビデオデータの現在のスライスについてのコロケートしたピクチャが、識別され得る。現在のスライスは、1つまたは複数の符号化ユニット(CU)を含み得る。現在のCUに対して、1つまたは複数の近隣CUが、識別され得る。近隣CU(例えば、各近隣CU)は、参照ピクチャに対応し得る。(例えば、1つの)近隣CUは、参照ピクチャとコロケートしたピクチャとに基づいて、候補近隣CUとするために、選択され得る。動きベクトル(MV)(例えば、コロケートしたMV)は、候補近隣CUのMV(例えば、参照MV)に基づいて、コロケートしたピクチャから識別され得る。現在のCUは、コロケートしたMVを使用して、符号化(例えば、エンコードおよび/またはデコード)され得る。Systems, methods, and means for subblock motion derivation and motion vector refinement for merge modes may be disclosed herein. The video data can be encoded (eg, encoded and / or decoded). A collated picture of the current slice of video data can be identified. The current slice may contain one or more coding units (CUs). One or more neighboring CUs may be identified relative to the current CU. Neighboring CUs (eg, each Neighboring CU) may correspond to a reference picture. A neighboring CU (eg, one) may be selected to be a candidate neighboring CU based on the reference picture and the collated picture. The motion vector (MV) (eg, the collated MV) can be identified from the collated picture based on the MV of the candidate neighbor CU (eg, the reference MV). Current CUs can be encoded (eg, encoded and / or decoded) using a collated MV.

Description

本発明は、マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化に関する。 The present invention relates to subblock motion derivation for merge mode and decoder side motion vector refinement.

関連出願の相互参照
本出願は、それらの内容が参照によって本明細書に組み込まれる、2017年11月1日に出願された米国特許仮出願第62/580184号、2018年1月29日に出願された米国特許仮出願第62/623001号、2018年5月31日に出願された米国特許仮出願第62/678576号、および2018年6月27日に出願された米国特許仮出願第62/690661号に基づく利益を主張する。
Mutual Reference of Related Applications This application is filed on US Patent Provisional Application No. 62/580184, January 29, 2018, filed November 1, 2017, the contents of which are incorporated herein by reference. US Patent Provisional Application No. 62/623001 filed, US Patent Provisional Application No. 62/678576 filed on May 31, 2018, and US Patent Provisional Application No. 62 / filed on June 27, 2018. Claim profits under No. 690661.

デジタルビデオ信号を圧縮して、例えば、そのような信号のために必要とされるストレージおよび/または送信帯域幅を低減させるために、ビデオ符号化システムが使用され得る。ビデオ符号化システムは、ブロックベースの、ウェーブレットベースの、および/またはオブジェクトベースのシステムを含み得る。ブロックベースのハイブリッドビデオ符号化システムが展開され得る。 Video coding systems can be used to compress digital video signals, for example, to reduce the storage and / or transmit bandwidth required for such signals. Video coding systems can include block-based, wavelet-based, and / or object-based systems. A block-based hybrid video coding system can be deployed.

マージモード用のサブブロック動き導出および動きベクトル精緻化のためのシステム、方法、および手段が、本明細書において開示される。 Systems, methods, and means for subblock motion derivation and motion vector refinement for merge modes are disclosed herein.

マージモード用のサブブロック動き導出および動きベクトル精緻化のためのシステム、方法、および手段が、本明細書において開示され得る。ビデオデータは、符号化(例えば、エンコードおよび/またはデコード)され得る。ビデオデータの現在のスライスについてのコロケートした(collocated)ピクチャが識別され得る。コロケートしたピクチャは、例えば、スライスヘッダ内の、コロケートしたピクチャインジケーションに基づいて識別され得る。現在のスライスは、1つまたは複数の符号化ユニット(CU:Coding Unit)を含み得る。現在のCUに対して、1つまたは複数の近隣CU(neighboring CU)が識別され得る。近隣CU(例えば、各近隣CU)は、参照ピクチャに対応し得る。(例えば、1つの)近隣CUは、近隣CUの参照ピクチャと、コロケートした(Collocated:同一位置にある)ピクチャとに基づいて、候補近隣CUとするために、選択され得る。動きベクトル(MV:Motion Vector)(例えば、コロケートしたMV)が、候補近隣CUのMV(例えば、参照MV:reference MV)に基づいて、コロケートしたピクチャから識別され得る。コロケートしたMV(collocated MV:同一位置にあるMV)は、時間的MVであり得、参照MVは、空間的MVであり得る。現在のCUは、コロケートしたMVを使用して、符号化(例えば、エンコードおよび/またはデコード)され得る。 Systems, methods, and means for subblock motion derivation and motion vector refinement for merge modes may be disclosed herein. The video data can be encoded (eg, encoded and / or decoded). A collapsed picture of the current slice of video data can be identified. The collated picture can be identified, for example, based on the collated picture indication in the slice header. The current slice may include one or more coding units (CUs). One or more neighboring CUs (neighboring CUs) may be identified with respect to the current CU. Neighboring CUs (eg, each Neighboring CU) may correspond to a reference picture. A (eg, one) Neighbor CU may be selected to be a candidate Neighbor CU based on a reference picture of the Neighbor CU and a Collocated picture. A motion vector (MV) (eg, a collated MV) can be identified from the collated picture based on the MV (eg, reference MV) of the candidate neighbor CU. The collocated MV (collocated MV) can be a temporal MV and the reference MV can be a spatial MV. Current CUs can be encoded (eg, encoded and / or decoded) using a collated MV.

近隣CUの参照ピクチャとコロケートしたピクチャとの間のそれぞれの時間的差分に基づいて、候補近隣CUとするために、近隣CUが選択され得る。例えば、参照ピクチャ(例えば、各参照ピクチャ)は、ピクチャ順序カウント(POC:Picture Order Count)と関連付けられ得、コロケートしたピクチャからのPOC差が最も小さい近隣CUが選択され得る。選択された近隣CUは、コロケートしたピクチャと同じ参照ピクチャを有し得る。コロケートしたピクチャと同じ参照ピクチャを有する近隣CUは、他の近隣CUについてのさらなる検討なしに選択され得る。 Neighboring CUs may be selected to be candidate Neighboring CUs based on their respective temporal differences between the referenced picture of the Neighboring CU and the collated picture. For example, a reference picture (eg, each reference picture) can be associated with a picture order count (POC), and the neighbor CU with the smallest POC difference from the collated picture can be selected. The selected neighboring CU may have the same reference picture as the collated picture. Neighboring CUs with the same reference picture as the collated picture can be selected without further consideration of other neighboring CUs.

例えば、候補近隣CUの参照ピクチャが、コロケートしたピクチャと同じでない場合、参照MVに対して時間的スケーリングが実行され得る。例えば、参照MVは、スケーリング係数(Scaling factor)で乗算され得る。スケーリング係数は、候補近隣CUの参照ピクチャとコロケートしたピクチャとの間の時間的差分に基づき得る。 For example, if the reference picture of the candidate neighbor CU is not the same as the collated picture, time scaling can be performed on the reference MV. For example, the reference MV can be multiplied by a scaling factor. The scaling factor may be based on the temporal difference between the referenced picture of the candidate neighbor CU and the collated picture.

コロケートしたピクチャは、1つまたは複数のコロケートしたブロック(Collocated blocks:同一位置にあるブロック)を含み得る。コロケートしたブロックのうちの1つまたは複数は、有効な(valid)コロケートしたブロックであり得る。有効なコロケートしたブロックは、連続的(contiguous)であり得、有効なコロケートしたブロック領域を形成し得る。領域は、例えば、現在のスライスに基づいて、識別され得る。コロケートしたMVは、有効なこともまたは有効でないこともある、第1のコロケートしたブロックと関連付けられ得る。第1のコロケートしたブロックが有効でない場合、有効な第2のコロケートしたブロックが選択され得る。第1のコロケートしたブロックからのコロケートしたMVは、第2のコロケートしたブロックと関連付けられた第2のコロケートしたMVで置き換えられ得る。第2のコロケートしたMVは、現在のCUを符号化(例えば、エンコードおよび/またはデコード)するために使用され得る。第2のコロケートしたブロックは、例えば、第1のコロケートしたブロックまでの距離が最も小さい第2のコロケートしたブロックに基づいて、選択され得る。例えば、第2のコロケートしたブロックは、第1のコロケートしたブロックに最も近い有効なブロックであり得る。 A collocated picture can include one or more collocated blocks (collocated blocks). One or more of the collocated blocks can be valid collocated blocks. A valid collated block can be continuous and can form a valid collated block region. Regions can be identified, for example, based on the current slice. The collated MV can be associated with a first collated block, which may or may not be valid. If the first collated block is not valid, a valid second collated block may be selected. The collated MV from the first collated block can be replaced by a second colocated MV associated with the second colocated block. The second collated MV can be used to encode (eg, encode and / or decode) the current CU. The second coagulated block may be selected, for example, based on the second coagulated block having the shortest distance to the first coagulated block. For example, the second colocated block can be the closest valid block to the first coagulated block.

現在のCUは、1つまたは複数のサブブロックに細分化され得る。サブブロック(例えば、各サブブロック)は、参照MVに対応し得る。サブブロックのための参照MVに基づいて、サブブロック(例えば、各サブブロック)について、コロケートしたピクチャから、コロケートしたMVが識別され得る。現在のCUの時間的レイヤに基づいて、サブブロックのサイズが決定され得る。 The current CU can be subdivided into one or more subblocks. Subblocks (eg, each subblock) may correspond to a reference MV. For a subblock (eg, each subblock), the collated MV can be identified from the collated picture based on the reference MV for the subblock. The size of the subblock can be determined based on the time layer of the current CU.

例示的な通信システムを例示するシステム図である。It is a system diagram which illustrates an exemplary communication system. 図1Aの通信システム内で使用され得る、例示的な無線送受信ユニット(WTRU)を示すシステム図である。FIG. 5 is a system diagram illustrating an exemplary wireless transmitter / receiver unit (WTRU) that can be used within the communication system of FIG. 1A. 図1Aの通信システム内で使用され得る、例示的な無線アクセスネットワーク(RAN)およびコアネットワーク(CN)示すシステム図である。FIG. 5 is a system diagram illustrating an exemplary radio access network (RAN) and core network (CN) that can be used within the communication system of FIG. 1A. 図1Aの通信システム内で使用され得る、さらなる例示的なRANおよびCNを示すシステム図である。FIG. 5 is a system diagram showing further exemplary RANs and CNs that can be used within the communication system of FIG. 1A. ブロックベースのビデオエンコーダの例示的な図である。FIG. 6 is an exemplary diagram of a block-based video encoder. ビデオデコーダの例示的なブロック図である。It is an exemplary block diagram of a video decoder. 例示的な空間的マージ候補を示す図である。It is a figure which shows an exemplary spatial merge candidate. 高度化された時間的動きベクトル予測の例を示す図である。It is a figure which shows the example of the advanced temporal motion vector prediction. 空間的−時間的動きベクトル予測の例を示す図である。It is a figure which shows the example of the spatial-temporal motion vector prediction. 通常のマージモードについての例示的なデコーダサイド動きベクトル精緻化(DMVR)を示す図である。FIG. 5 shows an exemplary decoder-side motion vector refinement (DMVR) for a normal merge mode. ATMVP/STMVP導出粒度を適応的に決定するとき、高度化された時間的動きベクトル予測/空間的−時間的動きベクトル予測ブロックサイズ統計が0にリセットされる、ピクチャの例示的リフレッシングを示す図である。In the diagram showing exemplary refreshing of a picture, the advanced temporal motion vector prediction / spatial-temporal motion vector prediction block size statistics are reset to 0 when the ATMVP / STMVP derivation granularity is adaptively determined. is there. DMVR早期打ち切りが適用されるときの、マージモードについての例示的な動き補償のフローチャートである。FIG. 6 is a flow chart of exemplary motion compensation for merge mode when DMVR early stopping is applied. 2つの予測信号の平均が中間ビット深度において算出される、例示的な双予測を示す図である。It is a figure which shows an exemplary bi-prediction in which the average of two prediction signals is calculated at an intermediate bit depth. ATMVPのためのコロケートしたブロック導出の例を示す図である。It is a figure which shows the example of the collaged block derivation for ATMVP. ATMVPのコロケートしたブロックの非制限アクセスを示す図である。It is a figure which shows the unrestricted access of the collaged block of ATMVP. ATMVP符号化ユニットについてのコロケートしたブロックを導出するための制限された領域を示す図である。It is a figure which shows the limited area for deriving the collaged block about the ATMVP coding unit. ATMVPのためのコロケートしたブロック導出の例を示す図である。It is a figure which shows the example of the collaged block derivation for ATMVP. コロケートしたピクチャを使用して、現在のブロックのためのMVを導出する例を示す図である。It is a figure which shows the example which derives the MV for the current block using a collaged picture.

より詳細な理解は、添付の図面と併せて、例として与えられる以下の説明から得られ得る。 A more detailed understanding can be obtained from the following description given as an example, along with the accompanying drawings.

図1Aは、1つまたは複数の開示される例が実施され得る、例示的な通信システム100を例示する図である。通信システム100は、音声、データ、ビデオ、メッセージング、放送などのコンテンツを複数の無線ユーザに提供する、多元接続システムであり得る。通信システム100は、複数の無線ユーザが、無線帯域幅を含むシステムリソースの共用を通して、そのようなコンテンツにアクセスすることを可能にし得る。例えば、通信システム100は、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、周波数分割多元接続(FDMA)、直交FDMA(OFDMA)、シングルキャリアFDMA(SC−FDMA)、ゼロテールユニークワードDFT拡散OFDM(ZT UW DTS−s OFDM)、ユニークワードOFDM(UW−OFDM)、リソースブロックフィルタードOFDM、およびフィルタバンクマルチキャリア(FBMC)など、1つまたは複数のチャネルアクセス方法を利用し得る。 FIG. 1A is a diagram illustrating an exemplary communication system 100 in which one or more disclosed examples may be implemented. The communication system 100 can be a multiple access system that provides content such as voice, data, video, messaging, and broadcasting to a plurality of wireless users. Communication system 100 may allow a plurality of wireless users to access such content through sharing of system resources, including wireless bandwidth. For example, the communication system 100 includes code division multiple access (CDMA), time division multiple connection (TDMA), frequency division multiple connection (FDMA), orthogonal FDMA (OFDMA), single carrier FDMA (SC-FDMA), and zero tail unique word. One or more channel access methods may be utilized, such as DFT Diffuse OFDM (ZT UW DTS-s OFDM), Unique Word OFDM (UW-OFDM), Resource Block Filtered OFDM, and Filter Bank Multicarrier (FBMC).

図1Aに示されるように、通信システム100は、無線送受信ユニット(WTRU)102a、102b、102c、102dと、RAN104/113と、CN106/115と、公衆交換電話網(PSTN)108と、インターネット110と、他のネットワーク112とを含み得るが、開示される例は、任意の数のWTRU、基地局、ネットワーク、および/またはネットワーク要素を企図し得ることが理解されよう。WTRU102a、102b、102c、102dの各々は、無線環境において動作および/または通信するように構成された任意のタイプのデバイスであり得る。例として、それのどれもが、「局」および/または「STA」と呼ばれることがある、WTRU102a、102b、102c、102dは、無線信号を送信および/または受信するように構成され得、ユーザ機器(UE)、移動局、固定または移動加入者ユニット、サブスクリクションベースのユニット、ページャ、セルラ電話、パーソナルデジタルアシスタント(PDA)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、無線センサ、ホットスポットまたはMi−Fiデバイス、モノノインターネット(IoT)デバイス、ウォッチまたは他のウェアラブル、ヘッドマウントディスプレイ(HMD)、乗物、ドローン、医療用デバイスおよびアプリケーション(例えば、遠隔手術)、工業用デバイスおよびアプリケーション(例えば、工業用および/または自動化された処理チェーン状況において動作するロボットおよび/または他の無線デバイス)、家電デバイス、ならびに商業用および/または工業用無線ネットワーク上において動作するデバイスなどを含み得る。WTRU102a、102b、102c、102dのいずれも、交換可能に、UEと呼ばれることがある。 As shown in FIG. 1A, the communication system 100 includes wireless transmission / reception units (WTRU) 102a, 102b, 102c, 102d, RAN104 / 113, CN106 / 115, public switched telephone network (PSTN) 108, and the Internet 110. And while other networks 112 may be included, it will be appreciated that the disclosed examples may contemplate any number of WTRUs, base stations, networks, and / or network elements. Each of the WTRU 102a, 102b, 102c, 102d can be any type of device configured to operate and / or communicate in a wireless environment. By way of example, all of them may be referred to as "stations" and / or "STAs", WTRU102a, 102b, 102c, 102d may be configured to transmit and / or receive radio signals, user equipment. (UE), mobile stations, fixed or mobile subscriber units, subscription-based units, pagers, cellular phones, personal digital assistants (PDAs), smartphones, laptops, netbooks, personal computers, wireless sensors, hotspots or Mi-Fi devices, Internet of Things (IoT) devices, watches or other wearables, head-mounted displays (HMDs), vehicles, drones, medical devices and applications (eg remote surgery), industrial devices and applications (eg industrial) It may include robots and / or other wireless devices that operate in a commercial and / or automated processing chain situation), wearable devices, and devices that operate on commercial and / or industrial wireless networks. Any of WTRU102a, 102b, 102c, 102d may be interchangeably referred to as a UE.

通信システム100は、基地局114aおよび/または基地局114bも含み得る。基地局114a、114bの各々は、CN106/115、インターネット110、および/または他のネットワーク112など、1つまたは複数の通信ネットワークへのアクセスを容易にするために、WTRU102a、102b、102c、102dのうちの少なくとも1つと無線でインターフェースをとるように構成された任意のタイプのデバイスであり得る。例として、基地局114a、114bは、基地送受信機局(BTS)、ノードB、eノードB、ホームノードB、ホームeノードB、gNB、NRノードB、サイトコントローラ、アクセスポイント(AP)、および無線ルータなどであり得る。基地局114a、114bは、各々が単一の要素として描かれているが、基地局114a、114bは、任意の数の相互接続された基地局および/またはネットワーク要素を含み得ることが理解されよう。 Communication system 100 may also include base station 114a and / or base station 114b. Each of the base stations 114a, 114b of WTRU102a, 102b, 102c, 102d to facilitate access to one or more communication networks, such as CN106 / 115, Internet 110, and / or other networks 112. It can be any type of device configured to interface wirelessly with at least one of them. As an example, base stations 114a, 114b include base transmitter / receiver station (BTS), node B, e-node B, home node B, home e-node B, gNB, NR node B, site controller, access point (AP), and It can be a wireless router or the like. Although base stations 114a, 114b are each depicted as a single element, it will be appreciated that base stations 114a, 114b may include any number of interconnected base stations and / or network elements. ..

基地局114aは、RAN104/113の一部であり得、RAN104/113は、他の基地局、および/または基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC)、中継ノードなどのネットワーク要素(図示されず)も含み得る。基地局114aおよび/または基地局114bは、セル(図示されず)と呼ばれることがある、1つまたは複数のキャリア周波数上において、無線信号を送信および/または受信するように構成され得る。これらの周波数は、免許要スペクトル、免許不要スペクトル、または免許要スペクトルと免許不要スペクトルとの組み合わせの中にあり得る。セルは、相対的に固定され得る、または時間とともに変化し得る特定の地理的エリアに、無線サービス用のカバレージを提供し得る。セルは、さらに、セルセクタに分割され得る。例えば、基地局114aと関連付けられたセルは、3つのセクタに分割され得る。したがって、例においては、基地局114aは、送受信機を3つ、すなわち、セルの各セクタに対して1つずつ含み得る。例においては、基地局114aは、多入力多出力(MIMO)技術を利用し得、セルの各セクタに対して複数の送受信機を利用し得る。例えば、所望の空間方向において信号を送信および/または受信するために、ビームフォーミングが使用され得る。 Base station 114a can be part of RAN104 / 113, where RAN104 / 113 is another base station and / or network elements such as base station controller (BSC), wireless network controller (RNC), relay node, etc. Not) can also be included. Base station 114a and / or base station 114b may be configured to transmit and / or receive radio signals over one or more carrier frequencies, sometimes referred to as cells (not shown). These frequencies can be in the licensed spectrum, the unlicensed spectrum, or a combination of the licensed spectrum and the unlicensed spectrum. The cell may provide coverage for wireless services in a particular geographic area that may be relatively fixed or change over time. The cell can be further divided into cell sectors. For example, the cell associated with base station 114a can be divided into three sectors. Thus, in the example, base station 114a may include three transmitters and receivers, one for each sector of the cell. In the example, base station 114a may utilize multi-input multi-output (MIMO) technology and may utilize multiple transmitters and receivers for each sector of the cell. For example, beamforming can be used to transmit and / or receive signals in the desired spatial direction.

基地局114a、114bは、エアインターフェース116上において、WTRU102a、102b、102c、102dのうちの1つまたは複数と通信し得、エアインターフェース116は、任意の適切な無線通信リンク(例えば、無線周波(RF)、マイクロ波、センチメートル波、マイクロメートル波、赤外線(IR)、紫外線(UV)、可視光など)であり得る。エアインターフェース116は、任意の適切な無線アクセス技術(RAT)を使用して確立され得る。 Base stations 114a, 114b may communicate with one or more of WTRU102a, 102b, 102c, 102d on the air interface 116, and the air interface 116 may communicate with any suitable radio communication link (eg, radio frequency (eg, radio frequency). RF), microwave, centimeter wave, microwave, infrared (IR), radio frequency (UV), visible light, etc.). The air interface 116 can be established using any suitable radio access technology (RAT).

より具体的には、上で言及されたように、通信システム100は、多元接続システムであり得、CDMA、TDMA、FDMA、OFDMA、およびSC−FDMAなど、1つまたは複数のチャネルアクセス方式を利用し得る。例えば、RAN104/113内の基地局114aと、WTRU102a、102b、102cは、広帯域CDMA(WCDMA)を使用して、エアインターフェース115/116/117を確立し得る、ユニバーサル移動体通信システム(UMTS)地上無線アクセス(UTRA)などの無線技術を実施し得る。WCDMAは、高速パケットアクセス(HSPA)および/または進化型HSPA(HSPA+)などの通信プロトコルを含み得る。HSPAは、高速ダウンリンク(DL)パケットアクセス(HSDPA)、および/または高速アップリンク(UL)パケットアクセス(HSUPA)を含み得る。 More specifically, as mentioned above, the communication system 100 can be a multiple access system and utilizes one or more channel access schemes such as CDMA, TDMA, FDMA, OFDMA, and SC-FDMA. Can be done. For example, base stations 114a in RAN104 / 113 and WTRU102a, 102b, 102c can establish air interfaces 115/116/117 using wideband CDMA (WCDMA), UMTS terrestrial communication system (UMTS). Wireless technologies such as wireless access (UTRA) can be implemented. WCDMA may include communication protocols such as High Speed Packet Access (HSPA) and / or Evolved HSPA (HSPA +). High Speed Downlink (DL) Packet Access (HSDPA) and / or High Speed Uplink (UL) Packet Access (HSUPA) may be included.

例においては、基地局114aと、WTRU102a、102b、102cは、ロングタームエボリューション(LTE)、および/またはLTEアドバンスト(LTE−A)、および/またはLTEアドバンストプロ(LTE−A Pro)を使用して、エアインターフェース116を確立し得る、進化型UMTS地上無線アクセス(E−UTRA)などの無線技術を実施し得る。 In the example, base stations 114a and WTRU102a, 102b, 102c use Long Term Evolution (LTE) and / or LTE Advanced (LTE-A) and / or LTE Advanced Pro (LTE-A Pro). , Radio technologies such as advanced UMTS terrestrial radio access (E-UTRA) that can establish the air interface 116 can be implemented.

例においては、基地局114aと、WTRU102a、102b、102cは、ニューラジオ(NR)を使用して、エアインターフェース116を確立し得る、NR無線アクセスなどの無線技術を実施し得る。 In an example, base station 114a and WTRU102a, 102b, 102c may use a new radio (NR) to implement radio technology such as NR radio access that can establish an air interface 116.

例においては、基地局114aと、WTRU102a、102b、102cは、複数の無線アクセス技術を実施し得る。例えば、基地局114aと、WTRU102a、102b、102cは、例えば、デュアルコネクティビティ(DC)原理を使用して、LTE無線アクセスと、NR無線アクセスとを一緒に実施し得る。したがって、WTRU102a、102b、102cによって利用されるエアインターフェースは、複数のタイプの無線アクセス技術、ならびに/または複数のタイプの基地局(例えば、eNBおよびgNB)に/から送信される送信によって特徴付けられ得る。 In an example, base station 114a and WTRU102a, 102b, 102c may implement multiple radio access techniques. For example, base station 114a and WTRU102a, 102b, 102c may perform LTE radio access and NR radio access together, for example, using the dual connectivity (DC) principle. Thus, the air interface utilized by WTRU102a, 102b, 102c is characterized by multiple types of radio access technology and / or transmissions transmitted to / from multiple types of base stations (eg, eNBs and gNBs). obtain.

例においては、基地局114aと、WTRU102a、102b、102cは、IEEE802.11(すなわち、ワイヤレスフィデリティ(WiFi))、IEEE802.16(すなわち、マイクロ波アクセス用世界的相互運用性(WiMAX))、CDMA2000、CDMA2000 1X、CDMA2000 EV−DO、暫定標準2000(IS−2000)、暫定標準95(IS−95)、暫定標準856(IS−856)、移動体通信用グローバルシステム(GSM)、GSMエボリューション用高速データレート(EDGE)、およびGSM EDGE(GERAN)などの無線技術を実施し得る。 In an example, base stations 114a and WTRU102a, 102b, 102c are IEEE 802.11 (ie, Wireless Fidelity (WiFi)), 802.16 (ie, Global Interoperability for Microwave Access (WiMAX)), CDMA2000. , CDMA2000 1X, CDMA2000 EV-DO, Provisional Standard 2000 (IS-2000), Provisional Standard 95 (IS-95), Provisional Standard 856 (IS-856), Global System for Mobile Communications (GSM), High Speed for GSM Evolution Radio technologies such as Data Rate (EDGE) and GSM EDGE (GERAN) can be implemented.

図1Aにおける基地局114bは、例えば、無線ルータ、ホームノードB、ホームeノードB、またはアクセスポイントであり得、事業所、自宅、乗物、キャンパス、産業用施設、(例えば、ドローンによって使用される)エアコリドー(air corridor)、および車道など、局所化されたエリアにおける無線接続性を容易にするために、任意の適切なRATを利用し得る。例においては、基地局114bと、WTRU102c、102dは、IEEE802.11などの無線技術を実施して、無線ローカルエリアネットワーク(WLAN)を確立し得る。例においては、基地局114bと、WTRU102c、102dは、IEEE802.15などの無線技術を実施して、無線パーソナルエリアネットワーク(WPAN)を確立し得る。例においては、基地局114bと、WTRU102c、102dは、セルラベースのRAT(例えば、WCDMA、CDMA2000、GSM、LTE、LTE−A、LTE−A Pro、NRなど)を利用して、ピコセルまたはフェムトセルを確立し得る。図1Aに示されるように、基地局114bは、インターネット110への直接的な接続を有することがある。したがって、基地局114bは、CN106/115を介してインターネット110にアクセスする必要がないことがある。 Base station 114b in FIG. 1A can be, for example, a wireless router, home node B, home e-node B, or access point and is used by businesses, homes, vehicles, campuses, industrial facilities (eg, drones). Any suitable RAT may be utilized to facilitate wireless connectivity in localized areas such as air corridors, and roadways. In an example, base stations 114b and WTRU102c, 102d may implement wireless technology such as IEEE 802.11 to establish a wireless local area network (WLAN). In an example, base stations 114b and WTRU102c, 102d may implement a radio technology such as IEEE802.15 to establish a radio personal area network (WPAN). In the example, the base stations 114b and WTRU102c, 102d utilize a cellular-based RAT (eg, WCDMA, CDMA2000, GSM, LTE, LTE-A, LTE-A Pro, NR, etc.) to make a picocell or femtocell. Can be established. As shown in FIG. 1A, base station 114b may have a direct connection to the Internet 110. Therefore, the base station 114b may not need to access the Internet 110 via CN106 / 115.

RAN104/113は、CN106/115と通信し得、CN106/115は、音声、データ、アプリケーション、および/またはボイスオーバインターネットプロトコル(VoIP)サービスを、WTRU102a、102b、102c、102dのうちの1つまたは複数に提供するように構成された任意のタイプのネットワークであり得る。データは、異なるスループット要件、遅延要件、エラー耐性要件、信頼性要件、データスループット要件、およびモビリティ要件など、様々なサービス品質(QoS)要件を有し得る。CN106/115は、呼制御、ビリングサービス、モバイルロケーションベースのサービス、プリペイド発呼、インターネット接続性、ビデオ配信などを提供し得、および/またはユーザ認証など、高レベルセキュリティ機能を実行し得る。図1Aには示されていないが、RAN104/113および/またはCN106/115は、RAN104/113と同じRATまたは異なるRATを利用する他のRANと直接的または間接的通信を行い得ることが理解されよう。例えば、NR無線技術を利用していることがあるRAN104/113に接続されていることに加えて、CN106/115は、GSM、UMTS、CDMA2000、WiMAX、E−UTRA、またはWiFi無線技術を利用する別のRAN(図示されず)とも通信し得る。 The RAN 104/113 may communicate with the CN 106/115, which may provide voice, data, applications, and / or voice over Internet Protocol (VoIP) services to one of WTRU102a, 102b, 102c, 102d or It can be any type of network configured to provide multiple. Data can have different quality of service (QoS) requirements, such as different throughput requirements, latency requirements, error tolerance requirements, reliability requirements, data throughput requirements, and mobility requirements. The CN106 / 115 may provide call control, billing services, mobile location-based services, prepaid calling, internet connectivity, video delivery, etc., and / or may perform high level security features such as user authentication. Although not shown in FIG. 1A, it is understood that RAN104 / 113 and / or CN106 / 115 may communicate directly or indirectly with other RANs utilizing the same RAT as RAN104 / 113 or different RATs. Yeah. For example, in addition to being connected to RAN104 / 113, which may utilize NR radio technology, CN106 / 115 utilizes GSM, UMTS, CDMA2000, WiMAX, E-UTRA, or WiFi radio technology. It can also communicate with another RAN (not shown).

CN106/115は、WTRU102a、102b、102c、102dが、PSTN108、インターネット110、および/または他のネットワーク112にアクセスするためのゲートウェイとしての役割も果たし得る。PSTN108は、基本電話サービス(POTS)を提供する、回線交換電話網を含み得る。インターネット110は、TCP/IPインターネットプロトコルスイート内の伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、および/またはインターネットプロトコル(IP)など、共通の通信プロトコルを使用する、相互接続されたコンピュータネットワークおよびデバイスからなる地球規模のシステムを含み得る。ネットワーク112は、他のサービスプロバイダによって所有および/または運営される、有線および/または無線通信ネットワークを含み得る。例えば、ネットワーク112は、RAN104/113と同じRATまたは異なるRATを利用し得る1つまたは複数のRANに接続された、別のCNを含み得る。 CN106 / 115 may also serve as a gateway for WTRU102a, 102b, 102c, 102d to access PSTN108, the Internet 110, and / or other networks 112. PSTN108 may include a circuit-switched telephone network that provides basic telephone services (POTS). The Internet 110 is an interconnected computer that uses common communication protocols such as Transmission Control Protocol (TCP), User Datagram Protocol (UDP), and / or Internet Protocol (IP) within the TCP / IP Internet Protocol Suite. It may include a global system consisting of networks and devices. Network 112 may include wired and / or wireless communication networks owned and / or operated by other service providers. For example, network 112 may include another CN connected to one or more RANs that may utilize the same RAT as RAN 104/113 or different RATs.

通信システム100内のWTRU102a、102b、102c、102dのうちのいくつかまたはすべては、マルチモード機能を含み得る(例えば、WTRU102a、102b、102c、102dは、異なる無線リンク上において、異なる無線ネットワークと通信するための、複数の送受信機を含み得る)。例えば、図1Aに示されるWTRU102cは、セルラベースの無線技術を利用し得る基地局114aと通信するように、またIEEE802無線技術を利用し得る基地局114bと通信するように構成され得る。 Some or all of the WTRU 102a, 102b, 102c, 102d in the communication system 100 may include multimode functionality (eg, WTRU 102a, 102b, 102c, 102d communicate with different wireless networks on different wireless links. Can include multiple transmitters / receivers). For example, the WTRU102c shown in FIG. 1A may be configured to communicate with base station 114a, which may utilize cellular-based radio technology, and to communicate with base station 114b, which may utilize IEEE802 radio technology.

図1Bは、例示的なWTRU102を例示するシステム図である。図1Bに示されるように、WTRU102は、とりわけ、プロセッサ118、送受信機120、送信/受信要素122、スピーカ/マイクロフォン124、キーパッド126、ディスプレイ/タッチパッド128、非リムーバブルメモリ130、リムーバブルメモリ132、電源134、全地球測位システム(GPS)チップセット136、および/または他の周辺機器138を含み得る。WTRU102は、上記の要素の任意のサブコンビネーションを含み得ることができることが理解されよう。 FIG. 1B is a system diagram illustrating an exemplary WTRU102. As shown in FIG. 1B, the WTRU 102 includes, among other things, a processor 118, a transmitter / receiver 120, a transmit / receive element 122, a speaker / microphone 124, a keypad 126, a display / touchpad 128, a non-removable memory 130, a removable memory 132, It may include a power supply 134, a global positioning system (GPS) chipset 136, and / or other peripherals 138. It will be appreciated that WTRU102 may include any subcombination of the above elements.

プロセッサ118は、汎用プロセッサ、専用プロセッサ、従来型プロセッサ、デジタル信号プロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、他の任意のタイプの集積回路(IC)、および状態機械などであり得る。プロセッサ118は、信号符号化、データ処理、電力制御、入力/出力処理、および/またはWTRU102が無線環境において動作することを可能にする他の任意の機能性を実行し得る。プロセッサ118は、送受信機120に結合され得、送受信機120は、送信/受信要素122に結合され得る。図1Bは、プロセッサ118と送受信機120を別個の構成要素として描いているが、プロセッサ118と送受信機120は、電子パッケージまたはチップ内に一緒に統合され得ることが理解されよう。 The processor 118 is a general purpose processor, a dedicated processor, a conventional processor, a digital signal processor (DSP), a plurality of microprocessors, one or more microprocessors working with a DSP core, a controller, a microcontroller, and an application specific integrated circuit (SP). It can be an ASIC), a field programmable gate array (FPGA) circuit, any other type of integrated circuit (IC), and a state machine. Processor 118 may perform signal coding, data processing, power control, input / output processing, and / or any other functionality that allows the WTRU 102 to operate in a wireless environment. The processor 118 may be coupled to the transmitter / receiver 120, and the transmitter / receiver 120 may be coupled to the transmit / receive element 122. Although FIG. 1B depicts the processor 118 and the transmitter / receiver 120 as separate components, it will be appreciated that the processor 118 and the transmitter / receiver 120 can be integrated together in an electronic package or chip.

送信/受信要素122は、エアインターフェース116上において、基地局(例えば、基地局114a)に信号を送信し、または基地局から信号を受信するように構成され得る。例えば、例においては、送信/受信要素122は、RF信号を送信および/または受信するように構成されたアンテナであり得る。例においては、送信/受信要素122は、例えば、IR、UV、または可視光信号を送信および/または受信するように構成された放射器/検出器であり得る。例においては、送信/受信要素122は、RF信号および光信号の両方を送信および/または受信するように構成され得る。送信/受信要素122は、無線信号の任意の組み合わせを送信および/または受信するように構成され得ることが理解されよう。 The transmit / receive element 122 may be configured to transmit or receive a signal from a base station (eg, base station 114a) on the air interface 116. For example, in the example, the transmit / receive element 122 may be an antenna configured to transmit and / or receive RF signals. In an example, the transmit / receive element 122 may be, for example, a radiator / detector configured to transmit and / or receive an IR, UV, or visible light signal. In an example, the transmit / receive element 122 may be configured to transmit and / or receive both RF and optical signals. It will be appreciated that the transmit / receive element 122 may be configured to transmit and / or receive any combination of radio signals.

図1Bにおいては、送信/受信要素122は単一の要素として描かれているが、WTRU102は、任意の数の送信/受信要素122を含み得る。より具体的には、WTRU102は、MIMO技術を利用し得る。したがって例においては、WTRU102は、エアインターフェース116上において無線信号を送信および受信するための2つ以上の送信/受信要素122(例えば、複数のアンテナ)を含み得る。 In FIG. 1B, the transmit / receive element 122 is depicted as a single element, but the WTRU 102 may include any number of transmit / receive elements 122. More specifically, WTRU102 may utilize MIMO technology. Thus, in an example, the WTRU 102 may include two or more transmit / receive elements 122 (eg, a plurality of antennas) for transmitting and receiving radio signals on the air interface 116.

送受信機120は、送信/受信要素122によって送信されることになる信号を変調し、送信/受信要素122によって受信された信号を復調するように構成され得る。上で言及されたように、WTRU102は、マルチモード機能を有し得る。したがって、送受信機120は、WTRU102が、例えば、NRおよびIEEE802.11など、複数のRATを介して通信することを可能にするための、複数の送受信機を含み得る。 The transmitter / receiver 120 may be configured to modulate the signal that will be transmitted by the transmit / receive element 122 and demodulate the signal received by the transmit / receive element 122. As mentioned above, the WTRU 102 may have multi-mode functionality. Therefore, the transmitter / receiver 120 may include a plurality of transmitters / receivers to allow the WTRU 102 to communicate via the plurality of RATs, for example, NR and 802.11.

WTRU102のプロセッサ118は、スピーカ/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128(例えば、液晶表示(LCD)ディスプレイユニットもしくは有機発光ダイオード(OLED)ディスプレイユニット)に結合され得、それらからユーザ入力データを受信し得る。プロセッサ118は、また、スピーカ/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128にユーザデータを出力し得る。加えて、プロセッサ118は、非リムーバブルメモリ130および/またはリムーバブルメモリ132など、任意のタイプの適切なメモリから情報を入手し得、それらにデータを記憶し得る。非リムーバブルメモリ130は、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、ハードディスク、または他の任意のタイプのメモリ記憶デバイスを含み得る。リムーバブルメモリ132は、加入者識別モジュール(SIM)カード、メモリスティック、およびセキュアデジタル(SD)メモリカードなどを含み得る。例においては、プロセッサ118は、サーバまたはホームコンピュータ(図示されず)上などに配置された、WTRU102上に物理的に配置されていないメモリから情報を入手し得、それらにデータを記憶し得る。 The processor 118 of the WTRU 102 can be coupled to a speaker / microphone 124, a keypad 126, and / or a display / touchpad 128 (eg, a liquid crystal display (LCD) display unit or an organic light emitting diode (OLED) display unit) from them. Can receive user input data. Processor 118 may also output user data to the speaker / microphone 124, keypad 126, and / or display / touchpad 128. In addition, processor 118 may obtain information from any type of suitable memory, such as non-removable memory 130 and / or removable memory 132, and store data in them. The non-removable memory 130 may include random access memory (RAM), read-only memory (ROM), hard disk, or any other type of memory storage device. The removable memory 132 may include a subscriber identification module (SIM) card, a memory stick, a secure digital (SD) memory card, and the like. In an example, processor 118 may obtain information from memory that is not physically located on WTRU 102, such as on a server or home computer (not shown), and may store data in them.

プロセッサ118は、電源134から電力を受け取り得、WTRU102内の他の構成要素に電力を分配するように、および/またはそれらへの電力を制御するように構成され得る。電源134は、WTRU102に給電するための任意の適切なデバイスであり得る。例えば、電源134は、1つまたは複数の乾電池(例えば、ニッケル−カドミウム(NiCd)、ニッケル−亜鉛(NiZn)、ニッケル水素(NiMH)、リチウム−イオン(Li−ion)など)、太陽電池、および燃料電池などを含み得る。 Processor 118 may be configured to receive power from power supply 134 and to distribute and / or control power to other components within WTRU 102. The power supply 134 can be any suitable device for powering the WTRU 102. For example, the power supply 134 may be one or more dry batteries (eg, nickel-cadmium (NiCd), nickel-zinc (NiZn), nickel-metal hydride (NiMH), lithium-ion (Li-ion), etc.), solar cells, and It may include fuel cells and the like.

プロセッサ118は、GPSチップセット136にも結合され得、GPSチップセット136は、WTRU102の現在ロケーションに関するロケーション情報(例えば、経度および緯度)を提供するように構成され得る。GPSチップセット136からの情報に加えて、またはそれの代わりに、WTRU102は、基地局(例えば、基地局114a、114b)からエアインターフェース116上においてロケーション情報を受信し得、および/または2つ以上の近くの基地局から受信されている信号のタイミングに基づいて、自らのロケーションを決定し得る。WTRU102は、任意の適切なロケーション決定方法を用いて、ロケーション情報を獲得し得ることが理解されよう。 Processor 118 may also be coupled to GPS chipset 136, which GPS chipset 136 may be configured to provide location information (eg, longitude and latitude) regarding the current location of WTRU102. In addition to, or instead of, the information from the GPS chipset 136, the WTRU 102 may receive location information from a base station (eg, base stations 114a, 114b) on the air interface 116 and / or more than one. It may determine its location based on the timing of signals received from base stations near. It will be appreciated that WTRU102 can acquire location information using any suitable location determination method.

プロセッサ118は、さらに他の周辺機器138に結合され得、他の周辺機器138は、追加の特徴、機能性、および/または有線もしくは無線接続性を提供する、1つまたは複数のソフトウェアモジュールおよび/またはハードウェアモジュールを含み得る。例えば、周辺機器138は、加速度計、eコンパス、衛星送受信機、(写真および/またはビデオ用の)デジタルカメラ、ユニバーサルシリアルバス(USB)ポート、バイブレーションデバイス、テレビ送受信機、ハンズフリーヘッドセット、Bluetooth(登録商標)モジュール、周波数変調(FM)ラジオユニット、デジタル音楽プレーヤ、メディアプレーヤ、ビデオゲームプレーヤモジュール、インターネットブラウザ、仮想現実および/または拡張現実(VR/AR)デバイス、ならびにアクティビティトラッカなどを含み得る。周辺機器138は、1つまたは複数のセンサを含み得、センサは、ジャイロスコープ、加速度計、ホール効果センサ、磁力計、方位センサ、近接センサ、温度センサ、時間センサ、ジオロケーションセンサ、高度計、光センサ、タッチセンサ、気圧計、ジェスチャセンサ、バイオメトリックセンサ、および/または湿度センサのうちの1つまたは複数であり得る。 Processor 118 may be further coupled to another peripheral device 138, which provides additional features, functionality, and / or wired or wireless connectivity with one or more software modules and /. Or it may include a hardware module. For example, peripherals 138 include accelerometers, e-compasses, satellite transmitters and receivers, digital cameras (for photos and / or video), universal serial bus (USB) ports, vibration devices, television transmitters and receivers, hands-free headsets, Bluetooth. May include ™ modules, frequency modulation (FM) radio units, digital music players, media players, video game player modules, internet browsers, virtual reality and / or augmented reality (VR / AR) devices, and activity trackers. .. Peripheral device 138 may include one or more sensors, the sensors being a gyroscope, an accelerometer, a hall effect sensor, a magnetic field sensor, an orientation sensor, a proximity sensor, a temperature sensor, a time sensor, a geolocation sensor, an altitude meter, an optical meter. It can be one or more of sensors, touch sensors, barometers, gesture sensors, biometric sensors, and / or humidity sensors.

WTRU102は、(例えば、(例えば、送信用の)ULと(例えば、受信用の)ダウンリンクの両方のための特定のサブフレームと関連付けられた)信号のいくつかまたはすべての送信および受信が、並列および/または同時であり得る、全二重無線を含み得る。全二重無線は、ハードウェア(例えば、チョーク)を介して、またはプロセッサ(例えば、別個のプロセッサ(図示されず)もしくはプロセッサ118)を介する信号処理を介して、自己干渉を低減させ、および/または実質的に除去するために、干渉管理ユニット139を含み得る。例においては、WTRU102は、(例えば、(例えば、送信用の)ULまたは(例えば、受信用の)ダウンリンクのどちらかのための特定のサブフレームと関連付けられた)信号のいくつかまたはすべての送信および受信のための、半二重無線を含み得る。 The WTRU102 transmits and receives some or all of the signal (eg, associated with a particular subframe for both UL (eg, for transmission) and downlink (eg, for reception)). It can include full-duplex radio, which can be parallel and / or simultaneous. Full-duplex radio reduces self-interference via signal processing via hardware (eg, choke) or through a processor (eg, separate processor (not shown) or processor 118), and / Alternatively, an interference management unit 139 may be included for substantial removal. In the example, WTRU102 is some or all of the signal (eg, associated with a particular subframe for either UL (eg, for transmission) or downlink (eg, for reception)). It may include half-duplex radios for transmission and reception.

図1Cは、例示的なRAN104およびCN106を例示するシステム図である。上で言及されたように、RAN104は、E−UTRA無線技術を利用して、エアインターフェース116上において、WTRU102a、102b、102cと通信し得る。RAN104は、CN106とも通信し得る。 FIG. 1C is a system diagram illustrating exemplary RAN 104 and CN 106. As mentioned above, the RAN 104 may utilize E-UTRA radio technology to communicate with the WTRU 102a, 102b, 102c over the air interface 116. The RAN 104 can also communicate with the CN 106.

RAN104は、eノードB160a、160b、160cを含み得るが、RAN104は、任意の数のeノードBを含み得ることが理解されよう。eノードB160a、160b、160cは、各々が、エアインターフェース116上においてWTRU102a、102b、102cと通信するための、1つまたは複数の送受信機を含み得る。例においては、eノードB160a、160b、160cは、MIMO技術を実施し得る。したがって、eノードB160aは、例えば、複数のアンテナを使用して、WTRU102aに無線信号を送信し、および/またはWTRU102aから無線信号を受信し得る。 It will be appreciated that the RAN 104 may include the e-nodes B160a, 160b, 160c, while the RAN 104 may include any number of e-nodes B. Each of the e-nodes B160a, 160b, 160c may include one or more transmitters / receivers for communicating with WTRU102a, 102b, 102c on the air interface 116. In the example, the e-nodes B160a, 160b, 160c may implement MIMO technology. Thus, the e-node B160a may, for example, use a plurality of antennas to transmit a radio signal to the WTRU102a and / or receive a radio signal from the WTRU102a.

eノードB160a、160b、160cの各々は、特定のセル(図示されず)と関連付けられ得、無線リソース管理決定、ハンドオーバ決定、ならびにULおよび/またはDLにおけるユーザのスケジューリングなどを処理するように構成され得る。図1Cに示されるように、eノードB160a、160b、160cは、X2インターフェース上において、互いに通信し得る。 Each of the e-nodes B160a, 160b, 160c can be associated with a particular cell (not shown) and is configured to handle radio resource management decisions, handover decisions, and user scheduling in UL and / or DL. obtain. As shown in FIG. 1C, the e-nodes B160a, 160b, 160c can communicate with each other on the X2 interface.

図1Cに示されるCN106は、モビリティ管理エンティティ(MME)162と、サービングゲートウェイ(SGW)164と、パケットデータネットワーク(PDN)ゲートウェイ(またはPGW)166とを含み得、上記の要素の各々はCN106の部分として描かれているが、これらの要素のうちのいずれも、CNオペレータとは異なるエンティティによって所有および/または運営され得ることが理解されよう。 The CN106 shown in FIG. 1C may include a mobility management entity (MME) 162, a serving gateway (SGW) 164, and a packet data network (PDN) gateway (or PGW) 166, each of which is a CN106. Although depicted as part, it will be appreciated that any of these elements may be owned and / or operated by a different entity than the CN operator.

MME162は、S1インターフェースを介して、RAN104内のeノードB160a、160b、160cの各々に接続され得、制御ノードとしての役割を果たし得る。例えば、MME162は、WTRU102a、102b、102cのユーザを認証すること、ベアラアクティブ化/非アクティブ化、およびWTRU102a、102b、102cの初期アタッチ中に特定のサービングゲートウェイを選択することなどを担い得る。MME162は、RAN104と、GSMおよび/またはWCDMAなどの他の無線技術を利用する他のRAN(図示されず)との間における交換のためのコントロールプレーン機能を提供し得る。 The MME 162 can be connected to each of the e-nodes B160a, 160b, 160c in the RAN 104 via the S1 interface, and can serve as a control node. For example, the MME 162 may be responsible for authenticating users of WTRU 102a, 102b, 102c, activating / deactivating bearers, and selecting a particular serving gateway during the initial attachment of WTRU 102a, 102b, 102c. The MME 162 may provide control plane functionality for exchange between the RAN 104 and other RANs (not shown) that utilize other radio technologies such as GSM and / or WCDMA.

SGW164は、S1インターフェースを介して、RAN104内のeノードB160a、160b、160cの各々に接続され得る。SGW164は、一般に、ユーザデータパケットをWTRU102a、102b、102cに/からルーティングおよび転送し得る。SGW164は、eノードB間ハンドオーバ中にユーザプレーンをアンカリングすること、DLデータがWTRU102a、102b、102cに利用可能なときにページングをトリガすること、ならびにWTRU102a、102b、102cのコンテキストを管理および記憶することなど、他の機能を実行し得る。 The SGW 164 may be connected to each of the e-nodes B160a, 160b, 160c in the RAN 104 via the S1 interface. The SGW 164 can generally route and forward user data packets to / from WTRU102a, 102b, 102c. The SGW 164 anchors the user plane during e-node B handover, triggers paging when DL data is available to WTRU102a, 102b, 102c, and manages and stores the context of WTRU102a, 102b, 102c. Other functions can be performed, such as doing.

SGW164は、PGW166に接続され得、PGW166は、インターネット110など、パケット交換ネットワークへのアクセスをWTRU102a、102b、102cに提供して、WTRU102a、102b、102cとIP対応デバイスとの間の通信を容易にし得る。 The SGW 164 may be connected to the PGW 166, which provides access to packet-switched networks such as the Internet 110 to the WTRU 102a, 102b, 102c to facilitate communication between the WTRU 102a, 102b, 102c and IP-enabled devices. obtain.

CN106は、他のネットワークとの通信を容易にし得る。例えば、CN106は、PSTN108など、回線交換ネットワークへのアクセスをWTRU102a、102b、102cに提供して、WTRU102a、102b、102cと従来の固定電話回線通信デバイスとの間の通信を容易にし得る。例えば、CN106は、CN106とPSTN108との間のインターフェースとしての役割を果たすIPゲートウェイ(例えば、IPマルチメディアサブシステム(IMS)サーバ)を含み得、またはそれと通信し得る。加えて、CN106は、他のネットワーク112へのアクセスをWTRU102a、102b、102cに提供し得、他のネットワーク112は、他のサービスプロバイダによって所有および/または運営される他の有線および/または無線ネットワークを含み得る。 CN106 may facilitate communication with other networks. For example, the CN106 may provide access to a circuit-switched network, such as PSTN108, to WTRU102a, 102b, 102c to facilitate communication between WTRU102a, 102b, 102c and conventional fixed-line telephone line communication devices. For example, the CN 106 may include or communicate with an IP gateway (eg, an IP Multimedia Subsystem (IMS) server) that serves as an interface between the CN 106 and the PSTN 108. In addition, CN106 may provide access to other networks 112 to WTRU102a, 102b, 102c, which is another wired and / or wireless network owned and / or operated by another service provider. May include.

図1A〜図1Dにおいては、WTRUは、無線端末として説明されるが、ある例においては、そのような端末は、通信ネットワークとの有線通信インターフェースを(例えば、一時的または永続的に)使用し得ることが企図されている。 In FIGS. 1A-1D, WTRUs are described as wireless terminals, but in some examples such terminals use a wired communication interface with a communication network (eg, temporarily or permanently). It is intended to get.

例においては、他のネットワーク112は、WLANであり得る。 In the example, the other network 112 can be a WLAN.

インフラストラクチャ基本サービスセット(BSS)モードにあるWLANは、BSSのためのアクセスポイント(AP)と、APと関連付けられた1つまたは複数の局(STA)とを有し得る。APは、トラフィックをBSS内および/またはBSS外に搬送する、ディストリビューションシステム(DS)または別のタイプの有線/無線ネットワークへのアクセスまたはインターフェースを有し得る。BSS外部から発信されたSTAへのトラフィックは、APを通して到着し得、STAに配送され得る。STAからBSS外部の送信先に発信されたトラフィックは、それぞれの送信先に配送されるように、APに送信され得る。BSS内のSTA間のトラフィックは、APを通して送信され得、例えば、送信元STAは、トラフィックをAPに送信し得、APは、トラフィックを送信先STAに配送し得る。BSS内のSTA間のトラフィックは、ピアツーピアトラフィックと見なされ得、および/またはピアツーピアトラフィックと呼ばれることがある。ピアツーピアトラフィックは、直接リンクセットアップ(DLS)を用いて、送信元STAと送信先STAとの間で(例えば、直接的に)送信され得る。例においては、DLSは、802.11e DLSまたは802.11zトンネルDLS(TDLS)を使用し得る。独立BSS(IBSS)モードを使用するWLANは、APを有さないことがあり、IBSS内の、またはIBSSを使用するSTA(例えば、STAのすべて)は、互いに直接的に通信し得る。IBSSモードの通信は、本明細書においては、ときに「アドホック」モードの通信と呼ばれることがある。 A WLAN in Infrastructure Basic Services Set (BSS) mode may have an access point (AP) for the BSS and one or more stations (STA) associated with the AP. The AP may have access or interface to a distribution system (DS) or another type of wired / wireless network that transports traffic within and / or out of the BSS. Traffic to the STA originating from outside the BSS can arrive through the AP and be delivered to the STA. Traffic originating from the STA to destinations outside the BSS can be sent to the AP so that it is delivered to each destination. Traffic between STAs within the BSS can be transmitted through the AP, for example, the source STA can send the traffic to the AP, and the AP can deliver the traffic to the destination STA. Traffic between STAs within the BSS can be considered peer-to-peer traffic and / or is sometimes referred to as peer-to-peer traffic. Peer-to-peer traffic can be transmitted (eg, directly) between a source STA and a destination STA using a direct link setup (DLS). In the example, the DLS can use an 802.11e DLS or an 802.11z tunnel DLS (TDLS). WLANs that use independent BSS (IBSS) mode may not have an AP, and STAs within the IBSS or using the IBSS (eg, all of the STAs) may communicate directly with each other. Communication in IBSS mode is sometimes referred to herein as communication in "ad hoc" mode.

802.11acインフラストラクチャモードの動作または類似したモードの動作を使用するとき、APは、プライマリチャネルなどの固定されたチャネル上において、ビーコンを送信し得る。プライマリチャネルは、固定された幅(例えば、20MHz幅帯域幅)、またはシグナリングを介して動的に設定された幅であり得る。プライマリチャネルは、BSSの動作チャネルであり得、APとの接続を確立するために、STAによって使用され得る。例においては、例えば、802.11システムにおいては、キャリアセンス多重アクセス/衝突回避(CSMA/CA)が実施され得る。CSMA/CAの場合、APを含むSTA(例えば、あらゆるSTA)は、プライマリチャネルをセンスし得る。プライマリチャネルが、特定のSTAによって、センス/検出され、および/またはビジーであると決定された場合、特定のSTAはバックオフし得る。与えられたBSS内においては、任意の与えられた時間に、1つのSTA(例えば、ただ1つの局)が、送信し得る。 When using 802.11ac infrastructure mode operation or similar mode operation, the AP may transmit beacons on a fixed channel, such as the primary channel. The primary channel can be a fixed width (eg, 20 MHz wide bandwidth) or a dynamically set width via signaling. The primary channel can be the operating channel of the BSS and can be used by the STA to establish a connection with the AP. In an example, carrier sense multiple access / collision avoidance (CSMA / CA) can be performed, for example, in an 802.11 system. In the case of CSMA / CA, the STA containing the AP (eg, any STA) may sense the primary channel. If the primary channel is determined by a particular STA to be sensed / detected and / or busy, then the particular STA may back off. Within a given BSS, one STA (eg, only one station) may transmit at any given time.

高スループット(HT)STAは、例えば、プライマリ20MHzチャネルを隣接または非隣接20MHzチャネルと組み合わせて、40MHz幅のチャネルを形成することを介して、通信のために40MHz幅チャネルを使用し得る。 High Throughput (HT) STAs may use 40 MHz wide channels for communication, for example, by combining primary 20 MHz channels with adjacent or non-adjacent 20 MHz channels to form 40 MHz wide channels.

超高スループット(VHT)STAは、20MHz、40MHz、80MHz、および/または160MHz幅チャネルをサポートし得る。40MHzおよび/または80MHzチャネルは、連続する20MHzチャネルを組み合わせることによって形成され得る。160MHzチャネルは、8つの連続する20MHzチャネルを組み合わせることによって形成され得、または2つの非連続な80MHzチャネルを組み合わせることによって形成され得、これは、80+80構成と呼ばれることがある。80+80構成の場合、データは、チャネルエンコーディングの後、データを2つのストリームに分割し得るセグメントパーサを通過させ得る。各ストリームに対して別々に、逆高速フーリエ変換(IFFT)処理および時間領域処理が、行われ得る。ストリームは、2つの80MHzチャネル上にマッピングされ得、データは、送信STAによって送信され得る。受信STAの受信機においては、80+80構成のための上で説明された動作が、逆転され得、組み合わされたデータは、媒体アクセス制御(MAC)に送信され得る。 Ultra High Throughput (VHT) STAs may support 20 MHz, 40 MHz, 80 MHz, and / or 160 MHz wide channels. The 40 MHz and / or 80 MHz channels can be formed by combining consecutive 20 MHz channels. A 160 MHz channel can be formed by combining eight consecutive 20 MHz channels, or by combining two discontinuous 80 MHz channels, which is sometimes referred to as an 80 + 80 configuration. For the 80 + 80 configuration, the data can be passed through a segment parser that can split the data into two streams after channel encoding. Inverse Fast Fourier Transform (IFFT) processing and time domain processing can be performed separately for each stream. Streams can be mapped on two 80 MHz channels and data can be transmitted by transmit STAs. In the receiver of the receiving STA, the operations described above for the 80 + 80 configuration can be reversed and the combined data can be transmitted to medium access control (MAC).

1GHz未満モードの動作は、802.11afおよび802.11ahによってサポートされる。チャネル動作帯域幅およびキャリアは、802.11nおよび802.11acにおいて使用されるそれらと比べて、802.11afおよび802.11ahにおいては低減させられる。802.11afは、TVホワイトスペース(TVWS)スペクトルにおいて、5MHz、10MHz、および20MHz帯域幅をサポートし、802.11ahは、非TVWSスペクトルを使用して、1MHz、2MHz、4MHz、8MHz、および16MHz帯域幅をサポートする。例に従うと、802.11ahは、マクロカバレージエリアにおけるMTCデバイスなど、メータタイプ制御/マシンタイプコミュニケーションをサポートし得る。MTCデバイスは、一定の機能を、例えば、一定の帯域幅および/または限られた帯域幅のサポート(例えば、それらのサポートだけ)を含む限られた機能を有し得る。MTCデバイスは、(例えば、非常に長いバッテリ寿命を維持するために)閾値を上回るバッテリ寿命を有するバッテリを含み得る。 Operation in less than 1 GHz mode is supported by 802.11af and 802.11ah. Channel operating bandwidth and carriers are reduced at 802.11af and 802.11ah compared to those used at 802.11n and 802.11ac. 802.11af supports 5MHz, 10MHz, and 20MHz bandwidths in the TV white space (TVWS) spectrum, and 802.1ah uses non-TVWS spectra to band 1MHz, 2MHz, 4MHz, 8MHz, and 16MHz. Supports width. According to an example, 802.11ah may support meter type control / machine type communication such as MTC devices in the macro coverage area. The MTC device may have certain functions, eg, limited functionality including constant bandwidth and / or limited bandwidth support (eg, only those support). MTC devices may include batteries having a battery life above a threshold (eg, to maintain a very long battery life).

802.11n、802.11ac、802.11af、および802.11ahなど、複数のチャネルおよびチャネル帯域幅をサポートし得る、WLANシステムは、プライマリチャネルとして指定され得るチャネルを含む。プライマリチャネルは、BSS内のすべてのSTAによってサポートされる最大の共通動作帯域幅に等しい帯域幅を有し得る。プライマリチャネルの帯域幅は、BSS内において動作するすべてのSTAの中の、最小帯域幅動作モードをサポートするSTAによって設定および/または制限され得る。802.11ahの例においては、BSS内のAPおよび他のSTAが、2MHz、4MHz、8MHz、16MHz、および/または他のチャネル帯域幅動作モードをサポートする場合であっても、1MHzモードをサポートする(例えば、それだけをサポートする)STA(例えば、MTCタイプデバイス)のために、プライマリチャネルは、1MHz幅であり得る。キャリアセンシングおよび/またはネットワークアロケーションベクトル(NAV)設定は、プライマリチャネルのステータスに依存し得る。例えば、(1MHz動作モードだけをサポートする)STAが、APに送信しているせいで、プライマリチャネルがビジーである場合、周波数バンドの大部分が、アイドルのままであり、利用可能であり得るとしても、利用可能な周波数バンド全体がビジーと見なされ得る。 WLAN systems that can support multiple channels and channel bandwidths, such as 802.11n, 802.11ac, 802.11af, and 802.11ah, include channels that can be designated as primary channels. The primary channel may have a bandwidth equal to the maximum common operating bandwidth supported by all STAs in the BSS. The bandwidth of the primary channel can be set and / or limited by the STAs that support the minimum bandwidth operating mode of all STAs operating within the BSS. In the example of 802.11ah, the AP and other STAs in the BSS support 1MHz mode even if they support 2MHz, 4MHz, 8MHz, 16MHz, and / or other channel bandwidth operating modes. For STAs (eg, MTC type devices that only support it), the primary channel can be 1 MHz wide. Carrier sensing and / or network allocation vector (NAV) settings can depend on the status of the primary channel. For example, if the STA (supporting only 1MHz operating mode) is transmitting to the AP and the primary channel is busy, then most of the frequency band remains idle and may be available. Even the entire available frequency band can be considered busy.

米国においては、802.11ahによって使用され得る利用可能な周波数バンドは、902MHzから928MHzである。韓国においては、利用可能な周波数バンドは、917.5MHzから923.5MHzである。日本においては、利用可能な周波数バンドは、916.5MHzから927.5MHzである。802.11ahのために利用可能な合計帯域幅は、国の規則に応じて、6MHzから26MHzである。 In the United States, the available frequency bands that can be used by 802.11ah are 902 MHz to 928 MHz. In South Korea, the available frequency bands are 917.5 MHz to 923.5 MHz. In Japan, the available frequency bands are 916.5 MHz to 927.5 MHz. The total bandwidth available for 802.11ah is 6MHz to 26MHz, depending on national regulations.

図1Dは、例示的なRAN113およびCN115を示すシステム図である。上で言及されたように、RAN113は、NR無線技術を利用して、エアインターフェース116上において、WTRU102a、102b、102cと通信し得る。RAN113は、CN115とも通信し得る。 FIG. 1D is a system diagram showing exemplary RAN113 and CN115. As mentioned above, the RAN 113 may utilize NR radio technology to communicate with the WTRU102a, 102b, 102c on the air interface 116. The RAN 113 can also communicate with the CN 115.

RAN113は、gNB180a、180b、180cを含むことができるが、RAN113は、任意の数のgNBを含み得ることが理解されよう。gNB180a、180b、180cは、各々が、エアインターフェース116上においてWTRU102a、102b、102cと通信するための、1つまたは複数の送受信機を含み得る。例においては、gNB180a、180b、180cは、MIMO技術を実施し得る。例えば、gNB180a、108bは、ビームフォーミングを利用して、gNB180a、180b、180cに信号を送信し、および/またはgNB180a、180b、180cから信号を受信し得る。したがって、gNB180aは、例えば、複数のアンテナを使用して、WTRU102aに無線信号を送信し、および/またはWTRU102aから無線信号を受信し得る。例においては、gNB180a、180b、180cは、キャリアアグリゲーション技術を実施し得る。例えば、gNB180aは、WTRU102aに複数のコンポーネントキャリアを送信し得る(図示されず)。これらのコンポーネントキャリアのサブセットは、免許不要スペクトル上にあり得るが、残りのコンポーネントキャリアは、免許要スペクトル上にあり得る。例においては、gNB180a、180b、180cは、多地点協調(CoMP)技術を実施し得る。例えば、WTRU102aは、gNB180aとgNB180b(および/またはgNB180c)から調整された送信を受信し得る。 It will be appreciated that RAN113 may contain gNB180a, 180b, 180c, but RAN113 may contain any number of gNBs. Each of the gNB 180a, 180b, 180c may include one or more transmitters / receivers for communicating with the WTRU 102a, 102b, 102c on the air interface 116. In the example, gNB180a, 180b, 180c can perform MIMO techniques. For example, gNB180a, 108b may utilize beamforming to transmit signals to gNB180a, 180b, 180c and / or receive signals from gNB180a, 180b, 180c. Thus, the gNB 180a may use, for example, multiple antennas to transmit radio signals to and / or receive radio signals from WTRU102a. In the example, gNB180a, 180b, 180c can carry out carrier aggregation techniques. For example, the gNB 180a may transmit multiple component carriers to the WTRU102a (not shown). A subset of these component carriers can be on the unlicensed spectrum, while the remaining component carriers can be on the licensed spectrum. In the example, gNB180a, 180b, 180c can perform multipoint coordination (CoMP) techniques. For example, WTRU102a may receive tuned transmissions from gNB180a and gNB180b (and / or gNB180c).

WTRU102a、102b、102cは、スケーラブルなヌメロロジ(numerology)と関連付けられた送信を使用して、gNB180a、180b、180cと通信し得る。例えば、OFDMシンボル間隔、および/またはOFDMサブキャリア間隔は、異なる送信、異なるセル、および/または無線送信スペクトルの異なる部分ごとに様々であり得る。WTRU102a、102b、102cは、(例えば、様々な数のOFDMシンボルを含む、および/または様々な長さの絶対時間だけ持続する)様々なまたはスケーラブルな長さのサブフレームまたは送信時間間隔(TTI)を使用して、gNB180a、180b、180cと通信し得る。 WTRU102a, 102b, 102c may communicate with gNB180a, 180b, 180c using transmissions associated with scalable numerology. For example, OFDM symbol spacing and / or OFDM subcarrier spacing can vary for different transmissions, different cells, and / or different parts of the radio transmission spectrum. WTRU102a, 102b, 102c are subframes or transmit time intervals (TTIs) of various or scalable lengths (eg, containing various numbers of OFDM symbols and / or lasting for absolute time of various lengths). Can be used to communicate with gNB180a, 180b, 180c.

gNB180a、180b、180cは、スタンドアロン構成および/または非スタンドアロン構成で、WTRU102a、102b、102cと通信するように構成され得る。スタンドアロン構成においては、WTRU102a、102b、102cは、(例えば、eノードB160a、160b、160cなどの)他のRANにアクセスすることもなしに、gNB180a、180b、180cと通信し得る。スタンドアロン構成においては、WTRU102a、102b、102cは、gNB180a、180b、180cのうちの1つまたは複数を、モビリティアンカポイントとして利用し得る。スタンドアロン構成においては、WTRU102a、102b、102cは、免許不要バンド内において信号を使用して、gNB180a、180b、180cと通信し得る。非スタンドアロン構成においては、WTRU102a、102b、102cは、eノードB160a、160b、160cなどの別のRANとも通信し/別のRANにも接続しながら、gNB180a、180b、180cと通信し/gNB180a、180b、180cに接続し得る。例えば、WTRU102a、102b、102cは、DC原理を実施して、1つまたは複数のgNB180a、180b、180c、および1つまたは複数のeノードB160a、160b、160cと実質的に同時に通信し得る。非スタンドアロン構成においては、eノードB160a、160b、160cは、WTRU102a、102b、102cのためのモビリティアンカとしての役割を果たし得、gNB180a、180b、180cは、WTRU102a、102b、102cにサービスするための追加のカバレージおよび/またはスループットを提供し得る。 The gNB 180a, 180b, 180c may be configured to communicate with WTRU102a, 102b, 102c in stand-alone and / or non-standalone configurations. In a stand-alone configuration, WTRU102a, 102b, 102c can communicate with gNB180a, 180b, 180c without having access to other RANs (eg, e-nodes B160a, 160b, 160c, etc.). In a stand-alone configuration, the WTRU 102a, 102b, 102c may utilize one or more of the gNB 180a, 180b, 180c as mobility anchor points. In a stand-alone configuration, WTRU102a, 102b, 102c may use signals within the unlicensed band to communicate with gNB180a, 180b, 180c. In a non-standalone configuration, WTRU102a, 102b, 102c communicates with gNB180a, 180b, 180c / gNB180a, 180b while also communicating with another RAN such as enodes B160a, 160b, 160c / connecting to another RAN. , Can be connected to 180c. For example, WTRU102a, 102b, 102c can practice the DC principle to communicate with one or more gNB180a, 180b, 180c, and one or more e-nodes B160a, 160b, 160c substantially simultaneously. In a non-standalone configuration, the e-nodes B160a, 160b, 160c can serve as mobility anchors for WTRU102a, 102b, 102c and the gNB180a, 180b, 180c are additions to service WTRU102a, 102b, 102c. Coverage and / or throughput can be provided.

gNB180a、180b、180cの各々は、特定のセル(図示されず)と関連付けられ得、無線リソース管理決定、ハンドオーバ決定、ULおよび/またはDLにおけるユーザのスケジューリング、ネットワークスライシングのサポート、デュアルコネクティビティ、NRとE−UTRAとの間のインターワーキング、ユーザプレーンデータのユーザプレーン機能(UPF)184a、184bへのルーティング、ならびにコントロールプレーン情報のアクセスおよびモビリティ管理機能(AMF)182a、182bへのルーティングなどを処理するように構成され得る。図1Dに示されるように、gNB180a、180b、180cは、Xnインターフェース上において、互いに通信し得る。 Each of the gNB 180a, 180b, 180c can be associated with a particular cell (not shown) with radio resource management decisions, handover decisions, user scheduling in UL and / or DL, network slicing support, dual connectivity, NR and It handles interworking with E-UTRA, routing user plane data to user plane functions (UPF) 184a, 184b, and accessing control plane information and routing to mobility management functions (AMF) 182a, 182b. Can be configured as As shown in FIG. 1D, the gNB 180a, 180b, 180c can communicate with each other on the Xn interface.

図1Dに示されるCN115は、少なくとも1つのAMF182a、182bと、少なくとも1つのUPF184a、184bと、少なくとも1つのセッション管理機能(SMF)183a、183bと、おそらくは、データネットワーク(DN)185a、185bとを含み得る。上記の要素の各々は、CN115の部分として描かれているが、これらの要素のうちのいずれも、CNオペレータとは異なるエンティティによって所有および/または運営され得ることが理解されよう。 The CN115 shown in FIG. 1D includes at least one AMF182a, 182b, at least one UPF184a, 184b, at least one session management function (SMF) 183a, 183b, and possibly a data network (DN) 185a, 185b. Can include. Although each of the above elements is depicted as part of CN115, it will be appreciated that any of these elements may be owned and / or operated by a different entity than the CN operator.

AMF182a、182bは、N2インターフェースを介して、RAN113内のgNB180a、180b、180cのうちの1つまたは複数に接続され得、制御ノードとしての役割を果たし得る。例えば、AMF182a、182bは、WTRU102a、102b、102cのユーザを認証すること、ネットワークスライシングのサポート(例えば、異なる要件を有する異なるPDUセッションの処理)、特定のSMF183a、183bを選択すること、レジストレーションエリアの管理、NASシグナリングの終了、およびモビリティ管理などを担い得る。ネットワークスライシングは、WTRU102a、102b、102cによって利用されるサービスのタイプに基づいて、WTRU102a、102b、102cに対するCNサポートをカスタマイズするために、AMF182a、182bによって使用され得る。例えば、超高信頼低遅延(URLLC)アクセスに依存するサービス、高速大容量モバイルブロードバンド(eMBB)アクセスに依存するサービス、および/またはマシンタイプコミュニケーション(MTC)アクセスのためのサービスなど、異なる使用事例のために、異なるネットワークスライスが、確立され得る。AMF162は、RAN113と、LTE、LTE−A、LTE−A Pro、および/またはWiFiのような非3GPPアクセス技術など、他の無線技術を利用する他のRAN(図示されず)との間の交換のためのコントロールプレーン機能を提供し得る。 The AMF 182a, 182b can be connected to one or more of the gNB 180a, 180b, 180c in the RAN 113 via the N2 interface and can serve as a control node. For example, AMF182a, 182b can authenticate users of WTRU102a, 102b, 102c, support network slicing (eg, handle different PDU sessions with different requirements), select specific SMF183a, 183b, registration area. Can be responsible for managing NAS signaling, and managing mobility. Network slicing can be used by AMF182a, 182b to customize CN support for WTRU102a, 102b, 102c based on the type of service utilized by WTRU102a, 102b, 102c. Different use cases, such as services that rely on ultra-reliable low latency (URLLC) access, services that rely on high-speed, high-capacity mobile broadband (eMBB) access, and / or services for machine-type communication (MTC) access. Because of this, different network slices can be established. AMF162 is an exchange between RAN113 and other RANs (not shown) that utilize other radio technologies such as LTE, LTE-A, LTE-A Pro, and / or non-3GPP access technologies such as WiFi. May provide control plane functionality for.

SMF183a、183bは、N11インターフェースを介して、CN115内のAMF182a、182bに接続され得る。SMF183a、183bは、N4インターフェースを介して、CN115内のUPF184a、184bにも接続され得る。SMF183a、183bは、UPF184a、184bを選択および制御し、UPF184a、184bを通したトラフィックのルーティングを構成し得る。SMF183a、183bは、UE IPアドレスの管理および割り当てを行うこと、PDUセッションを管理すること、ポリシ実施およびQoSを制御すること、ならびにダウンリンクデータ通知を提供することなど、他の機能を実行し得る。PDUセッションタイプは、IPベース、非IPベース、およびイーサネットベースなどであり得る。 The SMF183a, 183b can be connected to the AMF182a, 182b in the CN115 via the N11 interface. The SMF183a, 183b can also be connected to the UPF184a, 184b in the CN115 via the N4 interface. The SMF 183a, 183b may select and control the UPF 184a, 184b and configure the routing of traffic through the UPF 184a, 184b. SMF183a, 183b may perform other functions such as managing and assigning UE IP addresses, managing PDU sessions, controlling policy enforcement and QoS, and providing downlink data notification. .. The PDU session type can be IP-based, non-IP-based, Ethernet-based, and so on.

UPF184a、184bは、N3インターフェースを介して、RAN113内のgNB180a、180b、180cのうちの1つまたは複数に接続され得、それらは、インターネット110など、パケット交換ネットワークへのアクセスをWTRU102a、102b、102cに提供して、WTRU102a、102b、102cとIP対応デバイスとの間の通信を容易にし得る。UPF184a、184bは、パケットをルーティングおよび転送すること、ユーザプレーンポリシを実施すること、マルチホーミングPDUセッションをサポートすること、ユーザプレーンQoSを処理すること、ダウンリンクパケットをバッファすること、ならびにモビリティアンカリングを提供することなど、他の機能を実行し得る。 The UPF 184a, 184b may be connected to one or more of the gNB 180a, 180b, 180c in the RAN 113 via the N3 interface, which may provide access to packet-switched networks such as the Internet 110, WTRU102a, 102b, 102c Can be provided to facilitate communication between WTRU102a, 102b, 102c and IP-enabled devices. UPF184a, 184b can route and forward packets, perform user plane policies, support multihoming PDU sessions, process user plane QoS, buffer downlink packets, and perform mobility anchoring. It may perform other functions, such as providing.

CN115は、他のネットワークとの通信を容易にし得る。例えば、CN115は、CN115とPSTN108との間のインターフェースとしての役割を果たすIPゲートウェイ(例えば、IPマルチメディアサブシステム(IMS)サーバ)を含み得、またはそれと通信し得る。加えて、CN115は、他のネットワーク112へのアクセスをWTRU102a、102b、102cに提供し得、他のネットワーク112は、他のサービスプロバイダによって所有および/または運営される他の有線および/または無線ネットワークを含み得る。例においては、WTRU102a、102b、102cは、UPF184a、184bへのN3インターフェース、およびUPF184a、184bとDN185a、185bとの間のN6インターフェースを介して、UPF184a、184bを通して、ローカルデータネットワーク(DN)185a、185bに接続され得る。 The CN115 may facilitate communication with other networks. For example, the CN 115 may include or communicate with an IP gateway (eg, an IP Multimedia Subsystem (IMS) server) that acts as an interface between the CN 115 and the PSTN 108. In addition, CN115 may provide access to other networks 112 to WTRU102a, 102b, 102c, which is another wired and / or wireless network owned and / or operated by another service provider. May include. In the example, WTRU102a, 102b, 102c pass through UPF184a, 184b via the N3 interface to UPF184a, 184b and the N6 interface between UPF184a, 184b and DN185a, 185b, and through the local data network (DN) 185a, Can be connected to 185b.

図1A〜図1D、および図1A〜図1Dについての対応する説明に鑑みて、WTRU102a〜d、基地局114a〜b、eノードB160a〜c、MME162、SGW164、PGW166、gNB180a〜c、AMF182a〜b、UPF184a〜b、SMF183a〜b、DN185a〜b、および/または本明細書において説明される他の任意のデバイスのうちの1つまたは複数に関する、本明細書において説明される機能の1つもしくは複数またはすべては、1つまたは複数のエミュレーションデバイス(図示されず)によって実行され得る。エミュレーションデバイスは、本明細書において説明される機能の1つもしくは複数またはすべてをエミュレートするように構成された、1つまたは複数のデバイスであり得る。例えば、エミュレーションデバイスは、他のデバイスをテストするために、ならびに/またはネットワークおよび/もしくはWTRU機能をシミュレートするために、使用され得る。 WTRU102a-d, base stations 114a-b, e-nodes B160a-c, MME162, SGW164, PGW166, gNB180a-c, AMF182a-b in view of the corresponding description of FIGS. 1A-1D and 1A-1D. , UPF184a-b, SMF183a-b, DN185a-b, and / or one or more of the features described herein with respect to one or more of any other device described herein. Or all can be performed by one or more emulation devices (not shown). The emulation device can be one or more devices configured to emulate one or more or all of the features described herein. For example, emulation devices can be used to test other devices and / or to simulate network and / or WTRU functionality.

エミュレーションデバイスは、実験室環境において、および/またはオペレータネットワーク環境において、他のデバイスの1つまたは複数のテストを実施するように設計され得る。例えば、1つまたは複数のエミュレーションデバイスは、通信ネットワーク内の他のデバイスをテストするために、有線および/または無線通信ネットワークの一部として、完全または部分的に実施および/または展開されながら、1つもしくは複数またはすべての機能を実行し得る。1つまたは複数のエミュレーションデバイスは、有線および/または無線通信ネットワークの一部として、一時的に実施/展開されながら、1つもしくは複数またはすべての機能を実行し得る。エミュレーションデバイスは、テストの目的で、別のデバイスに直接的に結合され得、および/またはオーバザエア無線通信を使用して、テストを実行し得る。 The emulation device can be designed to perform one or more tests of the other device in a laboratory environment and / or in an operator network environment. For example, one or more emulation devices may be fully or partially implemented and / or deployed as part of a wired and / or wireless communication network to test other devices in the communication network. It may perform one or more or all functions. One or more emulation devices may perform one or more or all of the functions while being temporarily performed / deployed as part of a wired and / or wireless communication network. The emulation device can be directly coupled to another device for testing purposes and / or can perform the test using over-the-air wireless communication.

1つまたは複数のエミュレーションデバイスは、有線および/または無線通信ネットワークの一部として実施/展開されずに、すべての機能を含む1つまたは複数の機能を実行し得る。例えば、エミュレーションデバイスは、1つまたは複数の構成要素のテストを実施するために、テスト実験室ならびに/または展開されていない(例えば、テスト)有線および/もしくは無線通信ネットワークにおける、テストシナリオにおいて利用され得る。1つまたは複数のエミュレーションデバイスは、テスト機器であり得る。データを送信および/または受信するために、直接RF結合、および/または(例えば、1つもしくは複数のアンテナを含み得る)RF回路を介した無線通信が、エミュレーションデバイスによって使用され得る。 One or more emulation devices may perform one or more functions, including all functions, without being implemented / deployed as part of a wired and / or wireless communication network. For example, emulation devices are used in test scenarios in test laboratories and / or undeployed (eg, test) wired and / or wireless communication networks to perform testing of one or more components. obtain. The one or more emulation devices can be test instruments. Direct RF coupling and / or wireless communication via an RF circuit (which may include, for example, one or more antennas) may be used by the emulation device to transmit and / or receive data.

ブロックベースのハイブリッドビデオ符号化フレームワークが、提供され得る。図2は、例示的なブロックベースのハイブリッドビデオエンコーディングフレームワークのブロック図を与える。入力ビデオ信号2は、ブロックごとに処理され得る。ブロックサイズ(例えば、符号化ユニット(CU)など、拡張されたブロックサイズ)は、高解像度(例えば、1080pおよびそれ以上)ビデオ信号を圧縮し得る。例えば、CUは、64×64ピクセルを含み得る。CUは、予測ユニット(PU)に区分化され得、それらに対して、別個の予測が使用され得る。(例えば、各)入力ビデオブロック(例えば、MBおよび/またはCU)に対して、空間的予測60および/または時間的予測62が実行され得る。空間的予測(例えば、イントラ予測)は、現在のビデオブロックを予測するために、ビデオピクチャ/スライス内の符号化された近隣ブロックのサンプル(例えば、参照サンプル)からのピクセルを使用し得る。空間的予測は、例えば、ビデオ信号に内在し得る、空間的冗長性を低減させ得る。時間的予測(インター予測および/または動き補償された予測)は、例えば、現在のビデオブロックを予測するために、符号化されたビデオピクチャからの再構成されたピクセルを使用し得る。時間的予測は、例えば、ビデオ信号に内在し得る、時間的冗長性を低減させ得る。ビデオブロックについての時間的予測信号は、1つまたは複数の動きベクトル(MV)によってシグナリングされ得る。MVは、現在のブロックと現在のブロックの参照ブロックとの間の動きの量および/または方向を示し得る。(例えば、各)ビデオブロックに対して、複数の参照ピクチャが、サポートされる場合、ビデオブロックの参照ピクチャインデックスが、送信され得る。時間的予測信号が、参照ピクチャストア64内のどの参照ピクチャから由来するかを識別するために、参照インデックスが、使用され得る。空間的および/または時間的予測の後、エンコーダ内のモード決定ブロック80は、例えばレート−歪み最適化に基づいて、予測モード(例えば、最良の予測モード)を決定し得る。予測ブロックが、16において、現在のビデオブロックから減算され得る。予測残差が、変換4および/または量子化6を使用して、脱相関され得る。量子化された残差係数は、例えば、再構成された残差を形成するために、10において、逆量子化され、および/または12において、逆変換され得る。再構成された残差は、例えば、再構成されたビデオブロックを形成するために、26において、予測ブロックに加算され得る。再構成されたビデオブロックが、参照ピクチャストア64内に置かれる前、および/またはビデオブロック(例えば、将来のビデオブロック)を符号化するために使用される前に、66において、インループフィルタ(例えば、デブロッキングフィルタおよび/または適応ループフィルタ)が、再構成されたビデオブロックに対して適用され得る。出力ビデオビットストリーム20を形成するために、符号化モード(例えば、インターもしくはイントラ)、予測モード情報、動き情報、および/または量子化された残差係数が(例えば、すべて)、エントロピ符号化ユニット8に送信されて、例えば、圧縮および/またはパッキングされ、ビットストリームを形成し得る。 A block-based hybrid video coding framework may be provided. FIG. 2 gives a block diagram of an exemplary block-based hybrid video encoding framework. The input video signal 2 can be processed block by block. The block size (eg, extended block size, such as a coding unit (CU)) can compress high resolution (eg 1080p and above) video signals. For example, the CU may include 64 x 64 pixels. CUs can be segmented into prediction units (PUs), for which separate predictions can be used. Spatial predictions 60 and / or temporal predictions 62 may be performed on (eg, each) input video block (eg, MB and / or CU). Spatial predictions (eg, intra-prediction) may use pixels from a sample of encoded neighbor blocks (eg, reference samples) in a video picture / slice to predict the current video block. Spatial prediction can reduce, for example, the spatial redundancy that may be inherent in the video signal. Temporal prediction (inter-prediction and / or motion-compensated prediction) can use reconstructed pixels from an encoded video picture, for example, to predict the current video block. Temporal prediction can reduce, for example, the temporal redundancy that may be inherent in the video signal. The temporal prediction signal for the video block can be signaled by one or more motion vectors (MVs). The MV may indicate the amount and / or direction of movement between the current block and the reference block of the current block. If multiple reference pictures are supported for each (eg, each) video block, the reference picture index of the video block may be transmitted. A reference index can be used to identify from which reference picture in the reference picture store 64 the temporal prediction signal comes from. After spatial and / or temporal prediction, the mode determination block 80 in the encoder may determine the prediction mode (eg, the best prediction mode) based, for example, rate-distortion optimization. The predictive block can be subtracted from the current video block at 16. Predicted residuals can be decorrelated using transformation 4 and / or quantization 6. The quantized residual coefficient can be dequantized at 10 and / or inverse transformed at 12, for example, to form a reconstructed residual. The reconstructed residuals can be added to the prediction block at 26, for example to form the reconstructed video block. In 66, before the reconstructed video block is placed in the reference picture store 64 and / or used to encode the video block (eg, future video block), the in-loop filter ( For example, a deblocking filter and / or an adaptive loop filter) may be applied to the reconstructed video block. Entropy coding units with coding modes (eg, inter or intra), prediction mode information, motion information, and / or quantized residual coefficients (eg, all) to form the output videobitstream 20. Can be transmitted to 8 and, for example, compressed and / or packed to form a bitstream.

図3は、例示的なブロックベースのビデオデコーダのブロック図を示している。ビデオビットストリーム202は、エントロピデコーディングユニット208において、アンパッキングされ(例えば最初にアンパッキングされ)、および/またはエントロピデコードされ得る。予測ブロックを形成するために、符号化モードおよび予測情報が、(例えばイントラ符号化の場合は)空間的予測ユニット260に、および/または(例えば、インター符号化の場合は)時間的予測ユニット262に送信され得る。例えば、残差ブロックを再構成するために、残差変換係数が、逆量子化ユニット210および/または逆変換ユニット212に送信され得る。予測ブロックと残差ブロックは、226において、一緒に加算され得る。例えば、再構成されたブロックが、参照ピクチャストア264内に記憶される前に、再構成されたブロックは、インループフィルタリングを通過し得る。参照ピクチャストア内の再構成されたビデオは、表示デバイスを駆動するために送信され得、および/またはビデオブロック(例えば将来のビデオブロック)を予測するために使用され得る。 FIG. 3 shows a block diagram of an exemplary block-based video decoder. The video bitstream 202 may be unpacked (eg, unpacked first) and / or entropidecoded in the entropy decoding unit 208. To form the prediction block, the coding mode and prediction information are sent to the spatial prediction unit 260 (for example, for intra-coding) and / or for the temporal prediction unit 262 (for example, for inter-coding). Can be sent to. For example, the residual conversion factor may be transmitted to the inverse quantization unit 210 and / or the inverse conversion unit 212 to reconstruct the residual block. The prediction block and the residual block can be added together at 226. For example, the reconstructed block may pass in-loop filtering before the reconstructed block is stored in the reference picture store 264. The reconstructed video in the reference picture store can be transmitted to drive the display device and / or used to predict video blocks (eg future video blocks).

動き補償された予測においては、(例えば、各)インター符号化されたブロックについて、例えば、エンコーダおよび/またはデコーダによって同期させられ得る、対応する参照ピクチャ内の対応する一致ブロックを追跡するために、動き情報(例えば動きベクトル(MV)および参照ピクチャインデックス)が使用され得る。インターブロックの動き情報を符号化するために、2つのモード(例えば、マージモードおよび非マージモード)が使用され得る。ブロックが、非マージモードによって符号化される場合、MVは、MV予測子を使用して、符号化(例えば、差分的にに符号化)され得る。MVとMV予測子との間の差分が、デコーダに送信され得る。マージモードによって符号化される(例えば、各)ブロックについては、ブロックの動き情報は、空間的および/または時間的近隣ブロックから導出され得る。例えば、利用可能な候補から近隣ブロック(例えば、最良の近隣ブロック)を選択するために、競合ベースのスキームが適用され得る。デコーダにおいて、動き情報(例えば、同じ動き情報)を再確立するために、候補(例えば、最良の候補)のインデックス(例えばインデックスだけ)が送信され得る。 In motion-compensated prediction, for each (eg, each) intercoded block, for example, to track the corresponding matching block in the corresponding reference picture that can be synchronized by the encoder and / or decoder. Motion information (eg, motion vector (MV) and reference picture index) can be used. Two modes (eg, merged mode and non-merged mode) can be used to encode the motion information of the interblock. If the block is encoded in unmerged mode, the MV can be encoded (eg, differentially encoded) using the MV predictor. The difference between the MV and the MV predictor can be transmitted to the decoder. For blocks encoded by merge mode (eg, each), block motion information can be derived from spatial and / or temporal neighbor blocks. For example, a competition-based scheme may be applied to select neighboring blocks (eg, the best neighboring blocks) from the available candidates. In the decoder, indexes (eg, only indexes) of candidates (eg, best candidates) may be transmitted to reestablish motion information (eg, the same motion information).

マージモードが実行され得る。マージモードにおける候補(例えば、候補のセット)は、1つまたは複数の空間的近隣候補と、例えば、時間的近隣候補と、1つまたは複数の生成された候補とから構成され得る。図4は、空間的候補の例示的な位置を示している。マージ候補のリストを構成するために、空間的候補が、チェックされ、および/または例えば、A1、B1、B0、A0、およびB2の順番で、リストに追加され得る。空間的位置に配置されたブロックが、イントラ符号化されており、および/または現在のスライスの境界の外にある場合、ブロックは、利用不可能とし得る。空間的候補の冗長性を低減させるために、冗長なエントリ(例えば、候補が既存の候補と同じ動き情報を有するエントリ)は、リストから排除され得る。有効な空間的候補を含めた後、時間的動きベクトル予測(TMVP)によって、同一場所に配置された(co−located)参照ピクチャ内の同一場所に配置されたブロックの動き情報から、時間的候補が、生成され得る。マージ候補リストのサイズ(例えば、N)が設定され得る。例えば、Nは、5とし得る。(例えば、空間的および時間的候補を含む)マージ候補の数が、Nよりも大きい場合、最初のN−1個の空間的候補、および/または時間的候補が、リスト内に保たれ得る。例えば、最初のN−1個の空間的候補(例えば、それだけ)と、時間的候補が、リスト内に保たれ得る。マージ候補の数がNよりも小さい場合は、例えば、マージ候補の数がNに達するまで、1つまたは複数の候補(例えば、組み合わされた候補と、ゼロ候補)が、候補リストに追加され得る。 Merge mode can be performed. Candidates in merge mode (eg, a set of candidates) can consist of one or more spatial neighbor candidates, such as temporal neighbor candidates, and one or more generated candidates. FIG. 4 shows exemplary locations of spatial candidates. Spatial candidates may be checked and / or added to the list, for example, in the order A1, B1, B0, A0, and B2, to form a list of merge candidates. A block may be unavailable if the spatially located block is intra-encoded and / or is outside the boundaries of the current slice. To reduce the redundancy of spatial candidates, redundant entries (eg, entries in which the candidate has the same motion information as existing candidates) can be excluded from the list. After including valid spatial candidates, temporal motion vector prediction (TMVP) is a temporal candidate from the motion information of blocks placed at the same location in a co-located reference picture. Can be generated. The size of the merge candidate list (eg, N) can be set. For example, N can be 5. If the number of merge candidates (including, for example, spatial and temporal candidates) is greater than N, the first N-1 spatial and / or temporal candidates may be kept in the list. For example, the first N-1 spatial candidates (eg, that much) and temporal candidates can be kept in the list. If the number of merge candidates is less than N, for example, one or more candidates (eg, combined candidates and zero candidates) may be added to the candidate list until the number of merge candidates reaches N. ..

マージ候補リスト内に、1つまたは複数の候補が含められ得る。例えば、マージ候補リスト内に、図4に示されるような5つの空間的候補と、TMVP候補とが含められ得る。マージモード用の動き導出の1つまたは複数の態様は、例えば、サブブロックベースの動き導出と、デコーダサイド動きベクトル精緻化とを含むように、変更され得る。 One or more candidates may be included in the merge candidate list. For example, the merge candidate list may include five spatial candidates as shown in FIG. 4 and TMVP candidates. One or more aspects of motion derivation for merge modes may be modified to include, for example, subblock-based motion derivation and decoder-side motion vector refinement.

マージモード用のサブブロックベースの動き導出が実行され得る。(例えば、各)マージブロックは、(例えば、各)予測方向についての動きパラメータのセット(例えば、動きベクトルおよび参照ピクチャインデックス)を含み得る。マージ候補リスト内に、サブブロックレベルにおける動き情報の導出を可能にし得る、1つまたは複数(例えば、2つ)のマージ候補が含められ得る。マージ候補リスト内に、サブブロックレベルの動き情報を有するマージ候補を含めることは、マージ候補リストの最大サイズ(例えば、N)を、例えば、5から7に、増加させることによって、達成され得る。候補のうちの1つまたは複数が選択されたとき、エンコーダ/デコーダは、CU(例えば、現在のCU)を4×4のサブブロックに分割し得、(例えば、各)サブブロックのための動き情報を導出し得る。高度化された時間的動きベクトル予測(ATMVP)が使用され得る。例えば、ATMVPは、CUをサブブロック(例えば、4×4のサブブロック)に分割し得る。ATMVPは、TMVPの上に構築され得、CUが、現在のピクチャの時間的近隣ピクチャ(例えば、コロケートした参照ピクチャ)に属する複数の小さいブロックから、CUのサブブロックの動き情報を獲得することを可能にし得る。空間的−時間的動きベクトル予測(STMVP)においては、サブブロックの動きパラメータは、時間的な近隣者(temporal neighbors:間的に隣接するもの)の動きベクトルを空間的な近隣者(spatial neighbors:空間的に隣接するもの)の動きベクトルと平均することによって、(例えば、再帰的recursivelyに)導出され得る。 Subblock-based motion derivation for merge mode can be performed. Each (eg, each) merge block may include a set of motion parameters (eg, motion vector and reference picture index) for (eg, each) prediction direction. The merge candidate list may include one or more (eg, two) merge candidates that may allow the derivation of motion information at the subblock level. Including merge candidates with sub-block level motion information within the merge candidate list can be achieved by increasing the maximum size of the merge candidate list (eg, N), for example, from 5 to 7. When one or more of the candidates are selected, the encoder / decoder may divide the CU (eg, the current CU) into 4x4 subblocks and move for the (eg, each) subblock. Information can be derived. Advanced temporal motion vector prediction (ATMVP) can be used. For example, ATMVP may divide the CU into subblocks (eg, 4x4 subblocks). The ATMVP can be built on top of the TMVP, allowing the CU to acquire motion information for subblocks of the CU from multiple smaller blocks belonging to a temporally neighboring picture of the current picture (eg, a collated reference picture). It can be possible. In spatial-temporal motion vector prediction (STMVP), the motion parameters of the subblocks are the motion vectors of the temporal neighbors (spatial neighbors). It can be derived (eg recursively recursively) by averaging with the motion vector of (spatial adjacency).

高度化された時間的動きベクトル予測が実行され得る。ATMVPにおいては、ブロックが、ブロック内のサブブロックについての複数の動き情報(例えば、動きベクトルおよび/または参照インデックス)を、現在のピクチャの時間的近隣ピクチャの複数のより小さいブロックから導出することを可能にし得る。例えば、ATMVPは、以下のように、ブロックのサブブロックの動き情報を導出し得る。時間的参照ピクチャ内において、現在のブロックの対応するブロック(例えば同一位置にあるブロック:Collocated blocks, コロケートしたブロック)が識別され得る。選択された時間的参照ピクチャは、コロケートしたピクチャ(Collocated picture:同一位置にあるピクチャ)であり得る。現在のブロックは、サブブロックに分割され得、(例えば、各)サブブロックの動き情報は、図5に示されるように、コロケートしたピクチャ内の対応する小さいブロックから導出され得る。 Advanced temporal motion vector predictions can be performed. In ATMVP, a block derives multiple motion information (eg, motion vector and / or reference index) about a subblock within the block from multiple smaller blocks of temporal neighbor pictures of the current picture. It can be possible. For example, ATMVP can derive motion information of subblocks of a block as follows. Within the temporal reference picture, the corresponding blocks of the current block (eg, colocated blocks: Collocated blocks) can be identified. The selected temporal reference picture can be a Collocated picture. The current block can be divided into sub-blocks, and the motion information of the (eg, each) sub-block can be derived from the corresponding small block in the collated picture, as shown in FIG.

コロケートしたブロックおよび/またはコロケートしたピクチャは、現在のブロックの空間的近隣ブロックの動き情報によって、識別され得る。マージ候補リスト内の利用可能な候補(例えば、第1の利用可能な候補)が検討され得る。図5は、検討されるマージ候補リスト内の利用可能な候補の例を示している。ブロックAは、例えば、マージ候補リストのスキャニング順序に基づいて、ブロック(例えば、現在のブロック)の利用可能な(例えば、第1の利用可能な)マージ候補として、識別され得る。コロケートしたピクチャおよび/またはコロケートしたブロックを識別するために、ブロックAの動きベクトル(例えば、対応する動きベクトル)(例えば、MVA)、および/またはブロックAの参照インデックスが、使用され得る。コロケートしたピクチャ内のコロケートしたブロックのロケーションは、ブロックAの動きベクトル(例えば、MVA)を現在のブロックの座標に加算することによって、決定され得る。 The collated block and / or the collated picture can be identified by the motion information of the spatially neighboring blocks of the current block. The available candidates in the merge candidate list (eg, the first available candidate) may be considered. FIG. 5 shows an example of available candidates in the list of merge candidates to be considered. Block A can be identified as an available (eg, first available) merge candidate for a block (eg, the current block), eg, based on the scanning order of the merge candidate list. A motion vector of block A (eg, the corresponding motion vector) (eg, MVA), and / or a reference index of block A can be used to identify the collated picture and / or the collated block. The location of the collated block in the collated picture can be determined by adding the motion vector of block A (eg, MVA) to the coordinates of the current block.

ブロック(例えば、現在のブロック)内の(例えば、各)サブブロックについて、サブブロックの動き情報を導出するために、コロケートしたブロック内の(例えば、図5において矢印によって示されるような)サブブロックの対応する小さいブロックの動き情報が、使用され得る。例えば、コロケートしたブロック内の(例えば、各)小さいブロックの動き情報が識別された後、小さいブロックの動き情報は、例えば、時間的動きベクトルスケーリングが適用され得る、時間的動きベクトル予測(TMVP)と同じ方法で、現在のブロック内の対応するサブブロックの動きベクトルおよび/または参照インデックスに変換され得る。 For a (eg, each) subblock within a block (eg, the current block), a subblock within a collated block (eg, as indicated by an arrow in FIG. 5) to derive motion information for the subblock. The motion information of the corresponding small block of can be used. For example, after the motion information of a small block (eg, each) within a collated block is identified, the motion information of the small block can be applied, for example, with temporal motion vector scaling, temporal motion vector prediction (TMVP). Can be converted to the motion vector and / or reference index of the corresponding subblock in the current block in the same way as.

空間的−時間的動きベクトル予測(STMVP)が実行され得る。STMVPにおいては、(例えば、1つの)符号化ブロック内のサブブロックの動き情報が、再帰的な方式で導出され得る。図6は、STMVPの例を示している。例えば、現在のブロックは、1つまたは複数(例えば、4つ)のサブブロック、例えば、A、B、C、Dを含み得る。現在のブロックに対する空間的近隣者(空間的に隣接するもの)である近隣の小さいブロックには、それぞれ、a、b、c、dというラベルが付けられ得る。サブブロックAについての動き導出は、ブロックAの空間的近隣者(例えば、2つの空間的近隣者)を識別することから開始し得る。ブロックAの近隣者(例えば、第1の近隣者)は、上方近隣者cであり得る。小さいブロックcが、利用可能でない、またはイントラ符号化されていない場合、現在のブロックの上方の近隣の小さいブロックが、例えば、順番に、(例えば、左から右に)チェックされ得る。サブブロックAの近隣者(例えば、第2の近隣者)は、左方近隣者bであり得る。小さいブロックbが、利用可能でない、またはイントラ符号化されていない場合、現在のブロックの左方の近隣の小さいブロックが、例えば、順番に、(例えば、上から下に)チェックされ得る。空間的近隣者の動き情報を取得した後、サブブロックAの時間的近隣者の動き情報が、TMVPに類似した(例えば、同じ)方式で、獲得され得る。利用可能な空間的および/または時間的近隣者(隣接するもの)(例えば、最大で3つ)の動き情報(例えば、すべての動き情報)は、平均され、および/またはサブブロックAの動き情報として使用され得る。例えば、現在のビデオブロック内のサブブロック(例えば、すべての他のサブブロック)の動き情報を導出するために、ラスタスキャン順序に基づいて、STMVPが繰り返され得る。 Spatial-temporal motion vector prediction (STMVP) can be performed. In STMVP, motion information of subblocks in a (eg, one) coded block can be derived in a recursive manner. FIG. 6 shows an example of STMVP. For example, the current block may include one or more (eg, 4) subblocks, eg, A, B, C, D. Small blocks in the neighborhood that are spatial neighbors (spatial adjacencies) to the current block may be labeled a, b, c, d, respectively. Motion derivation for subblock A can begin by identifying the spatial neighbors of block A (eg, two spatial neighbors). The neighbor of block A (eg, the first neighbor) can be the upper neighbor c. If the small block c is not available or intra-encoded, then nearby small blocks above the current block may be checked, eg, in order (eg, from left to right). The neighbor of subblock A (eg, the second neighbor) can be the left neighbor b. If the small block b is not available or intra-encoded, the small blocks to the left of the current block may be checked, eg, in order (eg, top to bottom). After acquiring the spatial neighbor movement information, the temporal neighbor movement information in subblock A can be acquired in a manner similar (eg, same) to TMVP. The available spatial and / or temporal neighbors (adjacent) (eg, up to 3) motion information (eg, all motion information) are averaged and / or subblock A motion information. Can be used as. For example, STMVP can be repeated based on the raster scan order to derive motion information for subblocks (eg, all other subblocks) within the current video block.

通常のマージ候補についてのデコーダサイド動きベクトル精緻化が実行され得る。マージモードの場合、選択されたマージ候補が双予測される(bi-predicted)とき、例えば、候補の参照リストL0およびL1と関連付けられた2つのMVを使用する2つの予測ブロックを平均することによって、現在のCUの予測信号が形成され得る。空間的/時間的近隣者(隣接するもの)の動きパラメータは、不正確なことがあり、現在のCUの真の動きを表さないことがある。双予測される通常のマージ候補のMVを精緻化するために、デコーダサイド動きベクトル精緻化(DMVR)が、適用され得る。例えば、従来のマージ候補(例えば、空間的マージ候補および/またはTMVPマージ候補)が、選択されるとき、例えば、それぞれ、参照リストL0およびL1からの動きベクトルに基づいて、平均として、双予測テンプレートが、生成(例えば、最初に生成)され得る。例えば、加重された予測が有効化されるとき、平均は、加重平均であり得る。本明細書において説明されるように、双予測テンプレートを使用して、初期MVの周りで、DMVRによって、テンプレートマッチングに基づいた局所的動き精緻化が実行され得る。 Decoder-side motion vector refinement for normal merge candidates can be performed. In merge mode, when the selected merge candidates are bi-predicted, for example, by averaging two predictive blocks that use the two MVs associated with the candidate reference lists L0 and L1. , The prediction signal of the current CU can be formed. Spatial / temporal neighbor (adjacent) movement parameters may be inaccurate and may not represent the true movement of the current CU. Decoder-side motion vector refinement (DMVR) can be applied to refine the MV of the bi-predicted normal merge candidates. For example, when traditional merge candidates (eg, spatial merge candidates and / or TMVP merge candidates) are selected, for example, as a bi-prediction template, on average, based on motion vectors from reference lists L0 and L1, respectively. Can be generated (eg, generated first). For example, when a weighted prediction is activated, the average can be a weighted average. As described herein, a bi-prediction template can be used to perform local motion refinement based on template matching by DMVR around the initial MV.

図7は、DMVRにおいて適用され得る、例示的な動き精緻化を示している。DMVRは、例えば、以下のように、通常のマージ候補のMVを精緻化し得る。図7に示されるように、マージ候補のL0およびL1内の初期MV(例えば、MV0およびMV1)を使用して、予測ブロック(例えば、2つの予測ブロック)を平均することによって、双予測テンプレートが、生成され得る。(例えば、各)参照リスト(例えば、L0またはL1)について、テンプレートマッチングベースの動き探索が、初期MVの周りの局所的領域において、実行され得る。リスト内の初期MVの周りの、対応する参照リストの(例えば、各)動きベクトル(例えば、MV0またはMV1)について、双予測テンプレートと、動きベクトルを使用する対応する予測ブロックとの間のコスト値(例えば、差分絶対値の和(SAD))が、測定され得る。予測方向について、予測方向におけるテンプレートコストを最小化するMVは、通常のマージ候補の参照リスト内の最後のMVと見なされ得る。予測方向について、(例えば、1の整数サンプルオフセットを有する)初期MVを取り囲む1つまたは複数(例えば、8つ)の近隣MVが、動き精緻化の間に、検討され得る。現在のCUの最後の双予測信号を生成するために、精緻化されたMV(例えば、図7に示されるような、MV0’およびMV1’などの、2つの精緻化されたMV)が、使用され得る。 FIG. 7 shows exemplary motion refinement that can be applied in DMVR. The DMVR can refine the MV of a normal merge candidate, for example, as follows. As shown in FIG. 7, bi-prediction by averaging predictive blocks (eg, two predictive blocks) using the initial MVs (eg, MV 0 and MV 1 ) within L0 and L1 of the merge candidates. Templates can be generated. For each (eg, each) reference list (eg, L0 or L1), a template matching-based motion search can be performed in the local area around the initial MV. For the corresponding reference list (eg, each) motion vector (eg, MV 0 or MV 1 ) around the initial MV in the list, between the bi-prediction template and the corresponding predictive block that uses the motion vector. The cost value (eg, sum of absolute differences (SAD)) can be measured. For the prediction direction, the MV that minimizes the template cost in the prediction direction can be considered as the last MV in the normal merge candidate reference list. For the prediction direction, one or more (eg, eight) neighboring MVs surrounding the initial MV (eg, having an integer sample offset of 1) may be considered during motion refinement. To produce the final bi-prediction signal of the current CU, refined MV (e.g., as shown in Figure 7, such as MV 0 'and MV 1', the two refined MV) is , Can be used.

本明細書において説明されるように、サブブロックベースの動き導出(例えば、ATMVPおよびSTMVP)、ならびに/またはDMVRは、例えば、導出された動きベクトルの粒度および/または正確性を改善することによって、マージモードの効率を高め得る。 As described herein, subblock-based motion derivations (eg, ATMVP and STMVP), and / or DMVR, for example, by improving the grain size and / or accuracy of the derived motion vector. The efficiency of merge mode can be increased.

ATMVPおよび/またはSTMVPについて、例えば、4×4ブロックの粒度に基づいて、現在のCUの動きパラメータが導出され得る。例えば、現在のCUの動き情報(例えば、すべての動き情報)を生成するために、動き導出が繰り返され得る。時間的参照ピクチャから、参照サンプルが獲得され得る。エンコーダ/デコーダは、メモリアクセスを、参照ピクチャ内部の1つまたは複数の(例えば、異なる)領域に切り換え得る。 For ATMVP and / or STMVP, the motion parameters of the current CU can be derived, for example, based on the particle size of 4x4 blocks. For example, motion derivation can be repeated to generate motion information for the current CU (eg, all motion information). Reference samples can be obtained from temporal reference pictures. The encoder / decoder may switch memory access to one or more (eg, different) areas inside the reference picture.

ATMVPおよび/またはSTMVPにおいて、粒度(例えば、4×4ブロックサイズ)が、適用され得、1つまたは複数のピクチャ内のATMVP/STMVP符号化されたCUの動きパラメータを導出するために、使用され得る。異なるピクチャ内のビデオブロックの動きは、異なる特徴を示し得る。例えば、現在のピクチャと現在のピクチャの参照ピクチャとの間の相関に基づいて、1つまたは複数のピクチャ(例えば、ランダムアクセス構成の高い時間的レイヤにおけるピクチャ)内のビデオブロックは、安定した動きを示し得る。1つまたは複数のピクチャ(例えば、ランダムアクセス構成の低い時間的レイヤにおけるピクチャ)内のビデオブロックの動きは、不安定なことがある。ATMVP/STMVP符号化されたCUの動きパラメータを導出するための粒度レベルは、例えば、異なるピクチャに応じて、調整され得る。 In ATMVP and / or STMVP, particle size (eg, 4x4 block size) can be applied and used to derive ATMVP / STMVP-encoded CU motion parameters in one or more pictures. obtain. The movement of video blocks within different pictures can exhibit different characteristics. For example, a video block in one or more pictures (eg, a picture in a high temporal layer of a random access configuration) based on the correlation between the current picture and the reference picture of the current picture will move steadily. Can be shown. The movement of video blocks within one or more pictures (eg, pictures in the lower temporal layer of a random access configuration) can be unstable. The particle size level for deriving the ATMVP / STMVP encoded CU motion parameters can be adjusted, for example, according to different pictures.

例えば、現在のCUの空間的/時間的近隣者(隣接するもの)の動きを使用することによって引き起こされる、動きの不正確さを補償するために、DMVRが使用され得る。DMVRは、通常のマージモードによって符号化されたCUに対して、有効化され得る。通常のマージ候補によって提供される動きパラメータが、正確であるとき、DMVRによって達成される改善は、無視可能であり得る。例えば、DMVRは、スキップされ得る。 For example, DMVR can be used to compensate for motion inaccuracies caused by using the spatial / temporal neighbor (adjacent) motion of the current CU. DMVR can be enabled for CUs encoded by normal merge mode. The improvements achieved by DMVR can be negligible when the motion parameters provided by regular merge candidates are accurate. For example, DMVR can be skipped.

シグナリングは、ATMVP符号化されたCUおよび/またはSTMVP符号化されたCUの動きパラメータを算出するための導出粒度(例えば、サブブロックサイズ)のピクチャ/スライスレベル変化をサポートし得る。現在のピクチャについてのATMVPおよび/またはSTMVPの動き導出のための最適な粒度が、決定され得る。 Signaling may support picture / slice level variation of derived particle size (eg, subblock size) for calculating motion parameters of ATMVP-encoded CU and / or STMVP-encoded CU. Optimal grain size for ATMVP and / or STMVP motion derivation for the current picture can be determined.

DMVRベースのマージモードの動き導出のために、早期打ち切りが実行され得る。通常のマージモードにおいて、DMVRが適用され得る。2つ以上の予測信号(例えば、2つの予測信号)が、通常のマージ候補から生成され得る。例えば、DMVRをスキップするかどうかを決定するために、予測信号間の類似性が測定され得る。 Early stopping may be performed for DMVR-based merge mode motion derivation. DMVR can be applied in normal merge mode. Two or more prediction signals (eg, two prediction signals) can be generated from ordinary merge candidates. For example, similarity between predictive signals can be measured to determine whether to skip DMVR.

中間ビット深度における局所的な動き精緻化が行われ得る。DMVRの動き精緻化は、入力ビット深度において実行され得る。いくつかのビットシフトおよび丸め演算(例えば、不必要なビットシフトおよび丸め演算)が、DMVRから取り除かれ得る。 Local motion refinement at intermediate bit depths can be performed. Motion refinement of the DMVR can be performed at the input bit depth. Some bit shift and rounding operations (eg, unnecessary bit shift and rounding operations) can be removed from the DMVR.

ATMVPおよびSTMVPに基づいたサブブロックベースの動き導出が、実行され得る。ATMVPおよび/またはSTMVPについて、動き導出は、固定された粒度において実行され得る。粒度は、シンタックス要素シンタックスlog2_sub_pu_tmvp_sizeとして、シーケンスパラメータセット(SPS)に収めてシグナリングされ得る。同じ導出粒度が、ATMVPおよびSTMVPに適用され得、シーケンス内のピクチャ内のATMVP/STMVP符号化されたCUの動きパラメータを算出するために、使用され得る。 Subblock-based motion derivation based on ATMVP and STMVP can be performed. For ATMVP and / or STMVP, motion derivation can be performed at a fixed particle size. The particle size can be signaled in a sequence parameter set (SPS) as a syntax element syntax log2_sub_pu_tmbp_size. The same derivation granularity can be applied to ATMVP and STMVP and can be used to calculate the motion parameters of ATMVP / STMVP encoded CU in the pictures in the sequence.

ATMVPおよび/またはSTMVPによって生成された動き場は、異なる特徴を提供し得る。本明細書において説明されるように、STMVP符号化されたCUのサブブロックの動きパラメータは、ラスタスキャン順序に基づいて、CU内部の(例えば、各)サブブロックの空間的および/または時間的近隣者の動き情報を平均することによって、再帰的に導出され得る。ATMVP符号化されたCUの動きパラメータは、CU内のサブブロックの時間的近隣者から導出され得る。STMVPは、安定した動きをもたらし得、CU内部のサブブロックの動きパラメータは、一貫性があり得る。ATMVPおよびSTMVPのための動きパラメータを導出するために、異なる粒度が使用され得る。 The motion field generated by ATMVP and / or STMVP can provide different characteristics. As described herein, the motion parameters of the STMVP-encoded CU subblocks are spatial and / or temporal neighbors of the CU internal (eg, each) subblock based on the raster scan order. It can be derived recursively by averaging the movement information of the person. ATMVP-encoded CU motion parameters can be derived from the temporal neighbors of the subblocks within the CU. The STMVP can provide stable movement and the movement parameters of the subblocks inside the CU can be consistent. Different granularities can be used to derive motion parameters for ATMVP and STMVP.

ATMVPおよび/またはSTMVPは、例えば、現在のブロックの動きパラメータを算出するために、参照ピクチャ内の時間的近隣者の動きパラメータを使用し得る。現在のブロックと、参照ピクチャ内の現在のブロックのコロケートしたブロックとの間に、小さい動きが存在するとき、ATMVPおよび/またはSTMVPは、動き推定(例えば、信頼できる動き推定)を提供し得る。現在のブロックとコロケートしたブロックとの間に小さい動きを有するブロック(例えば、ランダムアクセス(RA)構成の最も高い時間的レイヤ内のブロック)について、ATMVPおよび/またはSTMVPによって生成されるサブブロック動きパラメータは、同様であり得る。コロケートしたブロックから大きい動きを示すビデオブロック(例えば、RA構成の最も低い時間的レイヤ内のブロック)について、(例えば、各)サブブロックについてのATMVPおよび/またはSTMVPによって算出される動きパラメータは、サブブロックの空間的近隣サブブロックのそれから逸脱し得る。動き導出は、小さいサブブロック上において実行され得る。例えば、現在の符号化ユニット(CU)は、1つまたは複数のサブブロックに細分化され得、サブブロック(例えば、各サブブロック)は、MV(例えば、参照MV)に対応する。MV(例えば、コロケートしたMV)は、サブブロック(例えば、各サブブロック)についてのコロケートしたピクチャから、そのサブブロックについての参照MVに基づいて、識別され得る。動きパラメータは、1つまたは複数の(例えば、異なる〉ピクチャから、ATMVP/STMVP符号化されたCUについての1つまたは複数の(例えば、異なる)粒度で、導出され得る。ATMVPおよび/またはSTMVPについての導出粒度(例えば、サブブロックのサイズ)は、例えば、ピクチャ/スライスレベルで、選択(例えば、適応的に選択)され得る。例えば、サブブロックのサイズは、現在のCUの時間的レイヤに基づいて、決定され得る。 The ATMVP and / or STMVP may use the temporal neighbor motion parameters in the reference picture, for example, to calculate the motion parameters of the current block. The ATMVP and / or STMVP may provide motion estimation (eg, reliable motion estimation) when there is a small motion between the current block and the collated block of the current block in the reference picture. Subblock motion parameters generated by ATMVP and / or STMVP for blocks that have small motion between the current block and the collated block (eg, the block in the highest temporal layer of a random access (RA) configuration). Can be similar. For a video block showing large motion from a collated block (eg, a block in the lowest temporal layer of RA configuration), the motion parameters calculated by ATMVP and / or STMVP for each (eg, each) subblock are sub. It can deviate from that of the block's spatial neighbor subblock. Motion derivation can be performed on small subblocks. For example, the current coding unit (CU) can be subdivided into one or more subblocks, where the subblocks (eg, each subblock) correspond to a MV (eg, a reference MV). A MV (eg, a collated MV) can be identified from a collated picture of a subblock (eg, each subblock) based on a reference MV for that subblock. Motion parameters can be derived from one or more (eg, different> pictures, with one or more (eg, different) particle sizes for ATMVP / STMVP-encoded CU. For ATMVP and / or STMVP. Derived particle size (eg, subblock size) can be selected (eg, adaptively selected), eg, at the picture / slice level. For example, the size of the subblock is based on the time layer of the current CU. Can be determined.

ピクチャ/スライスレベルで適応的に選択されたATMVP/STMVP導出粒度のシグナリングが、実行され得る。1つまたは複数(例えば、2つ)の粒度フラグが、SPSに収めてシグナリングされ得る。例えば、ATMVPおよび/またはSTMVPの導出粒度が、それぞれ、スライスレベルで調整し得るかどうかを示すために、a slice_atmvp_granularity_enabled_flag、および/またはa slice_stmvp_granularity_enabled_flagが、SPSに収めてシグナリングされ得る。
値(例えば、1)は、対応するATMVP/STMVPベースの導出粒度が、スライスレベルでシグナリングされることを示し得る。値(例えば、0)は、対応するATMVP/STMVP導出粒度が、スライスレベルでシグナリングされないこと、また例えば、現在のSPSを参照するスライスのために使用され得る、対応するATMVP/STMVPベースの導出粒度を指定するために、シンタックス要素(sps_log2_subblk_atmvp_size、またはsps_log2_subblk_stmvp_size)が、SPSに収めてシグナリングされることを示し得る。表1は、SPSに収めてシグナリングされ得る、例示的なシンタックス要素を例示している。表1におけるシンタックス要素は、ビデオパラメータセット(VPS)および/またはピクチャパラメータセット(PPS)など、他の高レベルシンタックス構造において、使用され得る。
Signaling of ATMVP / STMVP derivation granularity adaptively selected at the picture / slice level can be performed. One or more (eg, two) particle size flags may be signaled in the SPS. For example, to indicate whether the derivation granularity of ATMVP and / or STMVP can be adjusted at the slice level, a slice_atmvp_granularity_enable_flag, and / or a slice_stmbp_granularity_enable_flag, which can be signaled to SP.
A value (eg, 1) may indicate that the corresponding ATMVP / STMVP-based derivation granularity is signaled at the slice level. A value (eg, 0) indicates that the corresponding ATMVP / STMVP derivation particle size is not signaled at the slice level, and the corresponding ATMVP / STMVP-based derivation particle size can be used, for example, for slices that reference the current SPS. It can be shown that the syntax element (sps_log2_subblk_atmbp_size, or sps_log2_subblk_stmvp_size) is signaled in the SPS to specify. Table 1 illustrates exemplary syntax elements that can be signaled in SPS. The syntax elements in Table 1 can be used in other high-level syntax structures such as video parameter sets (VPS) and / or picture parameter sets (PPS).

Figure 2021502038
Figure 2021502038

パラメータslice_atmvp_granularity_enabled_flagは、SPSを参照するスライスのスライスセグメントヘッダ内における、シンタックス要素slice_log2_subblk_atmvp_sizeの存在または非存在を指定し得る。例えば、1の値は、シンタックス要素slice_log2_subblk_atmvp_sizeが、存在することを示し得、0の値は、シンタックス要素slice_log2_subblk_atmvp_sizeが、SPSを参照するスライスのスライスセグメントヘッダに存在しないことを示し得る。 The parameter slice_atmvr_granularity_enable_flag may specify the presence or absence of the syntax element slice_log2_subblk_atmvp_size in the slice segment header of the slice that references the SPS. For example, a value of 1 may indicate that the syntax element slice_log2_subblk_atmvp_size is present, and a value of 0 may indicate that the syntax element slice_log2_subblk_atmblp_size is not present in the slice segment header of the slice that references the SPS.

パラメータsps_log2_subblk_atmvp_sizeは、SPSを参照するスライスについての高度化された時間的動きベクトル予測のための動きパラメータを導出するために使用され得る、サブブロックサイズの値を指定し得る。 The parameter sps_log2_subblk_atmblp_size can specify a subblock size value that can be used to derive motion parameters for advanced temporal motion vector predictions for slices that reference the SPS.

パラメータslice_stmvp_granularity_enabled_flagは、SPSを参照するスライスのスライスセグメントヘッダ内における、シンタックス要素slice_log2_subblk_stmvp_sizeの存在または非存在を指定し得る。例えば、1の値は、シンタックス要素slice_log2_subblk_stmvp_sizeが、存在することを示し得、0の値は、シンタックス要素slice_log2_subblk_stmvp_sizeが、SPSを参照するスライスのスライスセグメントヘッダに存在しないことを示し得る。 The parameter slice_stmbbp_granularity_enable_flag may specify the presence or absence of the syntax element slice_log2_subblk_stmbbp_size in the slice segment header of the slice that references the SPS. For example, a value of 1 may indicate the presence of the syntax element slice_log2_subblk_stmblp_size, and a value of 0 may indicate that the syntax element slice_log2_subblk_stmblp_size is absent in the slice segment header of the slice that references the SPS.

パラメータsps_log2_subblk_stmvp_sizeは、SPSを参照するスライスについての空間的−時間的動きベクトル予測のための動きパラメータを導出するために使用され得る、サブブロックサイズの値を指定し得る。 The parameter sps_log2_subblk_stmblp_size can specify a subblock size value that can be used to derive motion parameters for spatial-temporal motion vector predictions for slices that reference the SPS.

表1においては、シンタックス要素sps_log2_subblk_atmvp_size、およびsps_log2_subblk_stmvp_sizeは、指定(例えば、1回指定)され得、ビデオシーケンスに対して適用され得る。1つまたは複数の(例えば、異なる)時間的レベルにおけるピクチャに対して、sps_log2_subblk_atmvp_size、およびsps_log2_subblk_stmvp_sizeの1つまたは複数の(例えば、異なる)値が、指定され得る。SPSを参照する現在のピクチャについて、現在のピクチャが属する時間的レベルに応じて、sps_log2_subblk_atmvp_size、およびsps_log2_subblk_stmvp_sizeの値が、決定および/または適用され得る。シンタックス要素sps_log2_subblk_atmvp_size、およびsps_log2_subblk_stmvp_sizeは、正方形の形をしたサブブロックユニットに適用され得る。サブブロックユニットは、長方形であり得る。例えば、サブブロックユニットが長方形である場合、ATMVPおよび/またはSTMVPのためのサブブロック幅および高さが指定され得る。 In Table 1, the syntax elements sps_log2_subblk_atmvp_size and sps_log2_subblk_stmvp_size can be specified (eg, once) and can be applied to a video sequence. One or more (eg, different) values of sps_log2_subblk_atmblp_size and sps_log2_subblk_stmvp_size may be specified for the picture at one or more (eg, different) temporal levels. For the current picture that references the SPS, the values of sps_log2_subblk_atmvp_size and sps_log2_subblk_stmvp_size may be determined and / or applied, depending on the time level to which the current picture belongs. The syntax elements sps_log2_subblk_atmbp_size, and sps_log2_subblk_stmvp_size can be applied to a square-shaped subblock unit. The subblock unit can be rectangular. For example, if the subblock unit is rectangular, the subblock width and height for ATMVP and / or STMVP can be specified.

ATMVP/STMVPベースの導出粒度のスライスレベル適応が、有効化され得る。例えば、SPS内のslice_atmvp_granularity_enabled_flag、および/またはslice_stmvp_granularity_enabled_flagは、シンタックス要素の存在を示す値(例えば、1)に設定され得る。シンタックス要素は、スライスについてのATMVP/STMVPベースの動き導出の対応する粒度レベルを指定するために、SPSを参照する(例えば、各)スライスのスライスセグメントヘッダに収めてシグナリングされ得る。例えば、表2は、スライスセグメントヘッダに収めてシグナリングされ得る、例示的なシンタックス要素を例示している。 ATMVP / STMVP-based derived granularity slice-level adaptations can be enabled. For example, the slice_atmbp_granularity_enable_flag and / or the slice_stmvp_granularity_enable_flag in the SPS can be set to a value indicating the presence of a syntax element (eg, 1). The syntax element can be signaled in the slice segment header of the slice that references the SPS (eg, each) to specify the corresponding particle size level of ATMVP / STMVP-based motion derivation for the slice. For example, Table 2 illustrates exemplary syntax elements that can be signaled in slice segment headers.

Figure 2021502038
Figure 2021502038

パラメータslice_log2_subblk_atmvp_sizeは、現在のスライスについての高度化された時間的動きベクトル予測のための動きパラメータを導出するために使用され得る、サブブロックサイズの値を指定し得る。 The parameter slice_log2_subblk_atmvp_size can specify a subblock size value that can be used to derive motion parameters for advanced temporal motion vector predictions for the current slice.

パラメータslice_log2_subblk_stmvp_sizeは、現在のスライスについての空間的−時間的動きベクトル予測のための動きパラメータを導出するために使用され得る、サブブロックサイズの値を指定し得る。 The parameter slice_log2_subblk_smbbp_size can specify a subblock size value that can be used to derive motion parameters for spatial-temporal motion vector predictions for the current slice.

表1および表2に示されるように、ATMVPベースおよび/またはSTMVPベースの動き導出のサブブロック粒度を(例えば、別々に)制御するために、シンタックス要素の1つまたは複数(例えば、2つ)のセットが、使用され得る。ATMVPベースおよび/またはSTMVPベースの動き導出のサブブロック粒度は、例えば、ATMVPおよび/またはSTMVPによって導出された動きパラメータの特徴(例えば、動きの規則性)が異なるとき、別々に制御され得る。例えば、シーケンスレベルおよびスライスレベルで、ATMVPおよび/またはSTMVPの導出粒度を(例えば、共同で)制御するために、シンタックス要素slice_atmvp_stmvp_granularity_enabled_flagおよびsps_log2_subblk_atmvp_stmvp_sizeのセットは、SPSに収めて、またslice_log2_subblk_atmvp_stmvp_sizeは、スライスセグメントヘッダに収めて、シグナリングされ得る。表3および表4は、例えば、ATMVPおよびSTMVPベースの導出粒度のサブブロック粒度が、(例えば、共同で)調整されるときの、SPSおよびスライスセグメントヘッダにおける例示的なシンタックス変化を示している。 As shown in Tables 1 and 2, one or more (eg, two) syntax elements are used to control (eg, separately) the subblock granularity of ATMVP-based and / or STMVP-based motion derivation. ) Set can be used. The subblock particle size of ATMVP-based and / or STMVP-based motion derivation can be controlled separately, for example, when the characteristics of the motion parameters derived by ATMVP and / or STMVP (eg, regularity of motion) are different. For example, in order to control the derivation granularity of ATMVP and / or STMVP at the sequence level and the slice level (for example, jointly), the syntax elements slice_atmvp_stmvp_granularity_enable_flag and sps_log2_subblk_attmvp_stmvsvspis_spis_s It can be signaled by putting it in the header. Tables 3 and 4 show exemplary syntax changes in SPS and slice segment headers, for example, when the subblock granularity of ATMVP and STMVP based derived granularity is adjusted (eg jointly). ..

Figure 2021502038
Figure 2021502038

パラメータslice_atmvp_stmvp_granularity_enabled_flagは、SPSを参照するスライスのスライスセグメントヘッダ内における、シンタックス要素slice_log2_subblk_atmvp_stmvp_sizeの存在または非存在を指定し得る。例えば、1の値は、シンタックス要素slice_log2_subblk_atmvp_stmvp_sizeが存在することを示し得、0の値は、シンタックス要素slice_log2_subblk_atmvp_stmvp_sizeが、SPSを参照するスライスのスライスセグメントヘッダに存在しないことを示し得る。 The parameter slice_atmvp_stmvp_granularity_enable_flag may specify the presence or absence of the syntax element slice_log2_subblk_atmvp_stmvp_size in the slice segment header of the slice that references the SPS. For example, a value of 1 may indicate the presence of the syntax element slice_log2_subblk_atmvp_stmvp_size, and a value of 0 may indicate that the syntax element slice_log2_subblk_atmvp_stmvp_size may be present in the slice header of the slice that refers to the SPS.

パラメータsps_log2_subblk_atmvp_stmvp_sizeは、SPSを参照するスライスについてのATMVPおよび/またはSTMVPのための動きパラメータを導出するために使用され得る、サブブロックサイズの値を指定し得る。 The parameter sps_log2_subblk_atmblp_stmvp_size may specify a subblock size value that can be used to derive motion parameters for ATMVP and / or STMVP for slices that reference SPS.

Figure 2021502038
Figure 2021502038

パラメータslice_log2_subblk_atmvp_stmvp_sizeは、現在のスライスについての高度化された時間的動きベクトル予測および/または空間的−時間的動きベクトル予測のための動きパラメータを導出するために使用され得る、サブブロックサイズの値を指定し得る。 The parameter slice_log2_subblk_atmblp_stmvp_size specifies a subblock size value that can be used to derive motion parameters for advanced temporal motion vector prediction and / or spatial-temporal motion vector prediction for the current slice. Can be.

ピクチャ/スライスレベルにおけるATMVP/STMVPベースの動き導出のサブブロック粒度が、決定され得る。 The subblock granularity of ATMVP / STMVP-based motion derivation at the picture / slice level can be determined.

ピクチャ/スライスについてのATMVP/STMVPベースの動き導出の粒度レベルは、例えば、ピクチャ/スライスの時間的レイヤに基づいて、決定され得る。本明細書において説明されるように、同じビデオシーケンス内のピクチャ間に相関が与えられた場合、ATMVP/STMVP導出粒度は、例えば、同じ時間的レイヤ内の、ピクチャ/スライスの近隣ピクチャのそれと類似し得る。例えば、RAの最も高い時間的レイヤ内のピクチャについて、ATMVP/STMVPベースの動き推定は、大きいブロック区画をもたらし得る。粒度値は、(例えば、より大きい値に)調整され得る。RAの最も低い時間的レイヤ内のピクチャについて、ATMVPおよび/またはSTMVPによって導出された動きパラメータは、あまり正確でないことがある。例えば、現在のピクチャにおいて、ATMVP/STMVPベースの動き導出のために使用され得る、サブブロック粒度を算出するために、先に符号化されたピクチャからATMVPおよび/またはSTMVPによって符号化されるCUの平均サイズが、同じ時間的レイヤにおいて、使用され得る。例えば、現在のピクチャは、第kの時間的レイヤ内の第iのピクチャであり得る。ATMVPおよび/またはSTMVPによって符号化され得る、M個のCUが、現在のピクチャ内に存在し得る。M個のCUが、s0、s1、...、sM-1のサイズである場合、現在のピクチャ内のATMVP/STMVP符号化されるCUの平均サイズ、例えば、σkは、 The particle size level of ATMVP / STMVP-based motion derivation for pictures / slices can be determined, for example, based on the time layer of pictures / slices. As described herein, when correlations are given between pictures in the same video sequence, the ATMVP / STMVP derivation particle size is, for example, similar to that of neighboring pictures of pictures / slices in the same temporal layer. Can be done. For example, for pictures within the highest temporal layer of RA, ATMVP / STMVP-based motion estimation can result in large block compartments. The particle size value can be adjusted (eg, to a larger value). For pictures in the lowest temporal layer of RA, the motion parameters derived by ATMVP and / or STMVP may not be very accurate. For example, in a current picture, a CU encoded by ATMVP and / or STMVP from a previously encoded picture to calculate subblock granularity that can be used for ATMVP / STMVP-based motion derivation. The average size can be used in the same temporal layer. For example, the current picture can be the i-th picture in the k-th temporal layer. There can be M CUs in the current picture that can be encoded by ATMVP and / or STMVP. M CUs are s 0 , s 1 , ... .. .. , S M-1 , the average size of ATMVP / STMVP encoded CU in the current picture, eg σ k, is

Figure 2021502038
Figure 2021502038

のように算出され得る。 Can be calculated as

式(1)に基づいて、第kの時間的レイヤ内の第(i+1)のピクチャを符号化するとき、ATMVP/STMVPベースの動き導出の対応するサブブロックサイズ Corresponding subblock size of ATMVP / STMVP-based motion derivation when encoding the (i + 1) th picture in the kth temporal layer based on equation (1).

Figure 2021502038
Figure 2021502038

は、 Is

Figure 2021502038
Figure 2021502038

によって決定され得る。 Can be determined by.

RA構成のために、並列エンコーディングがサポートされ得る。並列エンコーディングが有効化されるとき、全長のシーケンスは、例えば、より短い持続時間(例えば、約1秒)のシーケンス再生にわたり得る、複数の独立したランダムアクセスセグメント(RAS)に分割され得、(例えば、各)ビデオセグメントは、別々にエンコードされ得る。近隣RASは、独立であり得る。(例えば、シーケンス全体をフレーム順にエンコードする)順次符号化の結果は、並列エンコーディングと同じであり得る。(例えば、並列エンコーディングに加えて)適応的サブブロック粒度導出が、適用されるとき、ピクチャは、例えば、先行するRASからのピクチャのATMVP/STMVPブロックサイズ情報を使用することを回避し得る。例えば、RAS内の最初のインターピクチャをエンコードするとき、(例えば、4×4サブブロックを使用する)1つまたは複数(例えば、すべて)の時間的レイヤについて、σkの値は、0にリセットされ得る。図8は、並列エンコーディングが有効化されるときに、ATMVP/STMVPブロックサイズ統計が0にリセットされ得る、リフレッシングピクチャの位置を示すための(例えば、イントラ期間が8に等しい)例を例示している。図8において、破線および/または実線によって囲まれたブロックは、それぞれ、イントラピクチャおよびインターピクチャを表し得、パターンブロックは、リフレッシングピクチャを表し得る。ひとたび算出されると、 Parallel encoding may be supported for RA configurations. When parallel encoding is enabled, the full-length sequence can be split into multiple independent random access segments (RAS), which can span, for example, shorter duration (eg, about 1 second) sequence playback (eg, about 1 second). , Each) video segment can be encoded separately. Neighboring RAS can be independent. The result of sequential encoding (eg, encoding the entire sequence in frame order) can be the same as parallel encoding. When adaptive subblock particle size derivation is applied (eg, in addition to parallel encoding), the picture can avoid using, for example, the ATMVP / STMVP block size information of the picture from the preceding RAS. For example, when encoding the first interpicture in the RAS, the value of σ k is reset to 0 for one or more (eg, all) temporal layers (eg, using 4x4 subblocks). Can be done. FIG. 8 illustrates an example to indicate the position of a refreshing picture (eg, the intra period is equal to 8) where the ATMVP / STMVP block size statistics can be reset to 0 when parallel encoding is enabled. There is. In FIG. 8, the blocks enclosed by the dashed and / or solid lines may represent intra-pictures and inter-pictures, respectively, and the pattern blocks may represent refreshing pictures. Once calculated,

Figure 2021502038
Figure 2021502038

値のlog2()は、例えば、表1および表2におけるシンタックスに従って、スライスヘッダに収めて、ビットストリームで送信され得る。 The value log2 () can be stored in a slice header and transmitted as a bitstream, for example, according to the syntax in Tables 1 and 2.

例においては、ATMVP/STMVPベースの動き導出のために使用されるサブブロックサイズは、エンコーダにおいて決定され、デコーダに送信され得る。例においては、ATMVP/STMVPベースの動き導出のために使用されるサブブロックサイズは、デコーダにおいて決定され得る。サブブロック粒度の適応的な決定は、デコーダサイド技術として使用され得る。例えば、(例えば、式(1)に示されるような)ATMVP/STMVPブロックサイズ統計は、エンコーディングおよび/またはデコーディングの間、維持され得、例えば、エンコーダおよびデコーダが、例えば、式(1)および(2)を使用して、ピクチャ/スライスのATMVP/STMVPベースの動き導出のために、それぞれのサブブロックサイズを決定するときに、エンコーダとデコーダとを同期させるために、使用され得る。例えば、エンコーディングおよびデコーディングの間、ATMVP/STMVPブロックサイズ統計が、維持される場合、 In the example, the subblock size used for ATMVP / STMVP based motion derivation can be determined by the encoder and transmitted to the decoder. In the example, the subblock size used for ATMVP / STMVP based motion derivation can be determined in the decoder. Adaptive determination of subblock granularity can be used as a decoder side technique. For example, ATMVP / STMVP block size statistics (eg, as shown in equation (1)) can be maintained during encoding and / or decoding, eg, encoders and decoders, eg, equation (1) and (2) can be used to synchronize the encoder and decoder when determining the size of each subblock for ATMVP / STMVP-based motion derivation of pictures / slices. For example, if ATMVP / STMVP block size statistics are maintained during encoding and decoding.

Figure 2021502038
Figure 2021502038

の値は、送信されないことがある。 The value of may not be sent.

予測ブロックの類似性に基づいたDMVRの早期打ち切りが、実行され得る。通常のマージ候補(例えば、空間的候補および/またはTMVP候補)を使用して符号化されたCUに対して、DMVRが、実行され得る。通常のマージ候補によって提供された動きパラメータが正確であるとき、符号化損失なしに、DMVRがスキップされ得る。通常のマージ候補が、現在のCUについての正確な動き推定を提供することができるかどうかを決定するために、2つの予測ブロックの間の平均差が、例えば、 Early stopping of DMVR based on predictive block similarity can be performed. DMVR can be performed on CUs encoded using conventional merge candidates (eg, spatial candidates and / or TMVP candidates). DMVR can be skipped without coding loss when the motion parameters provided by normal merge candidates are accurate. To determine if a normal merge candidate can provide an accurate motion estimate for the current CU, the mean difference between the two predictive blocks is, for example,

Figure 2021502038
Figure 2021502038

と算出され得、ここで、I(0)(x,y)およびI(1)(x,y)は、マージ候補の動き情報を使用して生成された、L0およびL1動き補償されたブロックの、座標(x,y)におけるサンプル値であり得、BおよびNは、それぞれ、サンプル座標の集合、および現在のCU内において定義されるサンプルの数であり得、Dは、歪み測定(例えば、誤差の平方和(SSE)、差分絶対値の和(SAD)、および/または変換された差分絶対値の和(SATD))であり得る。式(3)が与えられた場合、例えば、2つの予測信号の間の差分測定値が、最大でも事前定義されたしきい値である(例えば、Diff≦Dthresである)場合、DMVRは、スキップされ得る。2つの予測信号の間の差分測定値が、事前定義されたしきい値よりも大きい場合、マージ候補によって生成された予測信号は、あまり相関がないことがあり、DMVRが適用され得る。図9は、早期打ち切りがDMVRに適用された後の、例示的な動き補償を例示している。 Where I (0) (x, y) and I (1) (x, y) are L0 and L1 motion-compensated blocks generated using the motion information of the merge candidates. Can be sample values in coordinates (x, y), B and N can be a set of sample coordinates, respectively, and the number of samples defined in the current CU, where D is a strain measurement (eg, for example). , The sum of squares of error (SSE), the sum of absolute differences (SAD), and / or the sum of converted absolute sums of differences (SATD)). Given equation (3), for example, if the difference measurement between the two prediction signals is at most a predefined threshold (eg, Diff ≤ D thres ), the DMVR will Can be skipped. If the difference measurement between the two prediction signals is greater than the predefined thresholds, the prediction signals generated by the merge candidates may be less correlated and DMVR may be applied. FIG. 9 illustrates exemplary motion compensation after early termination has been applied to DMVR.

サブCUレベルの動き導出は、例えば、予測類似性に基づいて、無効化(例えば、適応的に無効化)され(disabled)得る。DMVRが実行される前に、マージ候補のMVを使用する1つまたは複数(例えば、2つ)の予測信号が、利用可能であり得る。DMVRが無効化されるべきかどうかを決定するために、予測信号が使用され得る。 Sub-CU level motion derivations can be disabled (eg, adaptively disabled), for example, based on predictive similarity. Before the DMVR is performed, one or more (eg, two) predictive signals using the merge candidate MV may be available. Predictive signals can be used to determine if DMVR should be disabled.

DMVRのための高精度予測が実行され得る。双予測ブロックの予測信号は、例えば、入力ビット深度の精度で、L0およびL1からの予測信号を平均することによって、生成され得る。MVが、分数サンプル位置をポイントする(指す:point)場合、例えば、補間を使用して、(例えば、補間操作のために、入力ビット深度よりも高くなり得る)中間精度において、予測信号が、獲得され得る。中間精度信号は、平均演算の前に、入力ビット深度に丸められ得る。平均演算への入力信号は、例えば、生成された双予測信号に丸め誤差を導入し得る、より低い精度にシフトさせられ得る。例えば、ブロックのために分数MVが使用される場合、入力ビット深度における2つの予測信号は、中間精度で平均され得る。MVが分数サンプル位置に対応する場合、補間フィルタリングは、中間値を入力ビット深度に丸めないことがあり、中間値を高い精度(例えば、中間ビット深度)に保ち得る。2つのMVの一方が、整数動きである(例えば、対応する予測が、補間を適用せずに生成される)ケースにおいては、対応する予測の精度は、平均化が適用される前に、中間ビット深度まで増加させられ得る。例えば、2つの予測信号の精度は、同じであり得る。図10は、2つの中間予測信号を高い精度で平均するときの、例示的な双予測を例示しており、ここで、 High-precision predictions for DMVR can be performed. The prediction signal of the bi-prediction block can be generated, for example, by averaging the prediction signals from L0 and L1 with accuracy of input bit depth. If the MV points to a fractional sample position, for example, using interpolation, at intermediate precision (eg, which can be higher than the input bit depth due to the interpolation operation), the prediction signal Can be acquired. The intermediate precision signal can be rounded to the input bit depth before the averaging operation. The input signal to the averaging operation can be shifted to a lower precision, for example, which can introduce a rounding error into the generated bipredictive signal. For example, if a fractional MV is used for the block, the two prediction signals at the input bit depth can be averaged with intermediate precision. If the MV corresponds to a fractional sample position, interpolation filtering may not round the intermediate value to the input bit depth, which can keep the intermediate value highly accurate (eg, intermediate bit depth). In the case where one of the two MVs is an integer motion (eg, the corresponding prediction is generated without applying interpolation), the accuracy of the corresponding prediction is intermediate before the averaging is applied. Can be increased to bit depth. For example, the accuracy of the two prediction signals can be the same. FIG. 10 illustrates an exemplary bi-prediction when averaging two intermediate prediction signals with high accuracy, where

Figure 2021502038
Figure 2021502038

および and

Figure 2021502038
Figure 2021502038

は、中間ビット深度(例えば、14ビット)において、リストL0およびL1から獲得された、2つの予測信号のことであり得、BitDepthは、入力ビデオのビット深度を示し得る。 Can be two predictive signals obtained from lists L0 and L1 at an intermediate bit depth (eg, 14 bits), and BitDepth can indicate the bit depth of the input video.

DMVRにおいては、DMVRベースの動き探索のために使用され得る、双予測信号(例えば、I(0)(x,y)およびI(1)(x,y))は、入力信号ビット深度の精度で定義され得る。入力信号ビット深度は、例えば、(例えば、入力信号が8ビットである場合は)8ビット、または(例えば、入力信号が10ビットである場合は)10ビットであり得る。予測信号は、例えば、動き精緻化の前に、低い精度に変換され得る。歪みコストを測定するときに、丸め誤差が導入されることがある。予測信号の中間ビット深度から入力ビット深度への変換は、1つまたは複数の丸め演算および/またはクリッピング操作を含み得る。DMVRベースの動き精緻化は、高いビット深度で生成され得る予測信号(例えば、図10における中間ビット深度における In DMVR, bipredictive signals (eg, I (0) (x, y) and I (1) (x, y)) that can be used for DMVR-based motion exploration are the accuracy of the input signal bit depth. Can be defined in. The input signal bit depth can be, for example, 8 bits (eg, if the input signal is 8 bits), or 10 bits (eg, if the input signal is 10 bits). The prediction signal can be converted to low accuracy, for example, before motion refinement. Rounding errors may be introduced when measuring strain costs. The conversion of the predicted signal from intermediate bit depth to input bit depth may include one or more rounding operations and / or clipping operations. DMVR-based motion refinement can generate predictive signals at high bit depths (eg, at intermediate bit depths in FIG. 10).

Figure 2021502038
Figure 2021502038

および and

Figure 2021502038
Figure 2021502038

)を使用して、実行され得る。式(3)における2つの予測ブロックの間の対応する歪みは、以下のように、高い精度で算出され得、 ) Can be executed. The corresponding strain between the two prediction blocks in equation (3) can be calculated with high accuracy as follows:

Figure 2021502038
Figure 2021502038

ここで、 here,

Figure 2021502038
Figure 2021502038

および and

Figure 2021502038
Figure 2021502038

は、それぞれ、L0およびL1から生成された予測ブロックの、座標(x,y)における、高精度サンプルであり得る。Diffhは、中間ビット深度において算出された、対応する歪み測定値を表し得る。増加させられたビット深度のせいで、DMVRを早期に打ち切るために使用され得るしきい値(例えば、歪み測定値しきい値)は、しきい値が予測信号と同じビット深度で定義されるように、調整され得る。L1ノルム歪み(例えば、SAD)が使用される場合、歪みしきい値を入力ビット深度から中間ビット深度に調整するために、以下の式が使用され得る。 Can be a high-precision sample in coordinates (x, y) of the prediction blocks generated from L0 and L1, respectively. Diff h may represent the corresponding strain measurement calculated at intermediate bit depth. Due to the increased bit depth, the thresholds that can be used to terminate DMVR early (eg, strain measurement thresholds) are such that the threshold is defined at the same bit depth as the predicted signal. Can be adjusted. When L1 norm distortion (eg, SAD) is used, the following equation can be used to adjust the distortion threshold from the input bit depth to the intermediate bit depth.

Figure 2021502038
Figure 2021502038

高度化された時間的動きベクトル予測(ATMVP)が、導出され得る。ATMVPのために、コロケートしたピクチャおよびコロケートしたブロックが、選択され得る。空間的近隣CUからの動きベクトルが、候補リスト(例えば、潜在的な候補近隣CUのリスト)に追加され得る。例えば、近隣CUが利用可能であり、近隣CUのMVが、既存の候補リスト内の1つまたは複数のMVと異なる場合、空間的近隣CUからの動きベクトルが追加され得る。例えば、図4に示されるように、近隣ブロックからのMVは、A1、B1、B0、A0の順番で、追加され得る。利用可能な空間的候補の数は、N0で表し得る。ATMVPは、N0個のMVを使用して、導出され得る。 Advanced temporal motion vector prediction (ATMVP) can be derived. Colocated pictures and collated blocks may be selected for ATMVP. Motion vectors from spatial neighbor CUs can be added to the candidate list (eg, a list of potential candidate neighbor CUs). For example, if a neighboring CU is available and the MV of the neighboring CU is different from one or more MVs in the existing candidate list, motion vectors from the spatial neighboring CU may be added. For example, as shown in FIG. 4, MVs from neighboring blocks can be added in the order of A 1 , B 1 , B 0 , A 0 . The number of available spatial candidates can be represented by N 0 . ATMVP can be derived using N 0 MVs.

0は、0よりも大きくし得る。N0が、0よりも大きい場合、コロケートしたピクチャ、および/または動きを取得するためのオフセットを決定するために、MV(例えば、第1の利用可能なMV)が、使用され得る。図5に示されるように、第1の利用可能なMVは、近隣CU Aからのものであり得る。ATMVPのためのコロケートしたピクチャは、CU AからのMVと関連付けられた参照ピクチャであり得る。動き場を取得するためのオフセットは、MVから導出され得る。N0は、0に等しくし得る。N0が、0に等しい場合、コロケートしたピクチャは、スライスヘッダでシグナリングされたコロケートしたピクチャに設定され得、動き場を取得するためのオフセットは、0に設定され得る。 N 0 can be greater than 0. If N 0 is greater than 0 , then an MV (eg, the first available MV) can be used to determine the offset to obtain the collated picture and / or motion. As shown in FIG. 5, the first available MV can be from a neighboring CU A. The collated picture for ATMVP can be a reference picture associated with the MV from CU A. The offset for acquiring the motion field can be derived from the MV. N 0 can be equal to 0. If N 0 is equal to 0, the collated picture can be set to the collated picture signaled in the slice header, and the offset to get the motion field can be set to 0.

例えば、複数の参照ピクチャが使用される場合、異なるCUのATMVP導出のためのコロケートしたピクチャは異なり得る。例えば、複数の参照ピクチャが使用される場合、コロケートしたピクチャの決定は、それらの近隣CUに依存し得るので、異なるCUのATMVP導出のためのコロケートしたピクチャは、異なり得る。現在のピクチャのデコーディングについて、ATMVPのためのコロケートしたピクチャは、固定されないことがあり、ATMVPは、複数の参照ピクチャの動き場を参照し得る。現在のピクチャのデコーディングのためのコロケートしたピクチャは、例えば、スライスヘッダにおいてシグナリングされ得る、(例えば、1つの)参照ピクチャに設定され得る。コロケートしたピクチャは、識別され得る。近隣CU Aの参照ピクチャは、コロケートしたピクチャと異なり得る。CU Aの参照ピクチャは、RAと表し得、コロケートしたピクチャは、Rcolと表し得、現在のピクチャは、Pと表し得る。ピクチャxのPOCを示すために、POC(x)が、使用され得る。式(6)で算出されるように、CU AのMVは、例えば、オフセット位置についての予測を獲得するために、ピクチャRAからコロケートしたピクチャにスケーリングされ得る。 For example, when multiple reference pictures are used, the collated pictures for ATMVP derivation of different CUs can be different. For example, if multiple reference pictures are used, the collated pictures for ATMVP derivation of different CUs can be different, as the determination of the collated pictures can depend on their neighboring CUs. With respect to the decoding of the current picture, the collated picture for the ATMVP may not be fixed and the ATMVP may refer to the motion field of the plurality of reference pictures. The collated picture for decoding the current picture can be set to, for example, a reference picture (eg, one) that can be signaled in the slice header. Colocated pictures can be identified. The reference picture of the neighboring CU A can be different from the collated picture. The reference picture of CU A can be represented as RA , the collated picture can be represented as R col, and the current picture can be represented as P. POC (x) can be used to indicate the POC of picture x. As calculated by equation (6), the MV of CU A can be scaled from picture RA to a collated picture, for example, to obtain a prediction about the offset position.

MVcol=MV(A)×(POC(Rcol)−POC(P))/(POC(RA)−POC(P)) (6)
スケーリングされたMVcolは、例えば、コロケートしたピクチャRcolにおける動き場を取得するために、オフセットとして使用され得る。式(6)におけるスケーリングは、ピクチャの時間的距離に基づき得る。例えば、空間的CUからの第1の利用可能なMVが、スケーリングのために選択され得る。スケーリング誤差を最小化し得るMVが、選択され得る。例えば、スケーリング誤差を最小化するために、1つまたは複数(例えば、2つ)の方向(例えば、リストL0、リストL1)のN0個のMVから、スケーリングされるMV(例えば、最良のMV)が、選択され得る。例えば、近隣ブロックのうちの(例えば、各)近隣ブロック(例えば、近隣CU)は、対応する参照ピクチャを有し得る。近隣ブロックの参照ピクチャとコロケートしたピクチャとの間の差分に基づいて、候補近隣ブロック(例えば、候補近隣CU)とするために、近隣ブロックが、選択され得る。候補近隣ブロックとするために選択された近隣ブロックは、それの参照ピクチャとコロケートしたピクチャとの間に、最小の時間的距離を有し得る。例えば、参照ピクチャ(例えば、各参照ピクチャ)およびコロケートしたピクチャは、ピクチャ順序カウント(POC)を有し得、参照ピクチャのPOCとコロケートしたピクチャのPOCとの間の(例えば、最小の差分を有する)差分に基づいて、候補近隣ブロックが、選択され得る。MV(例えば、コロケートしたMV)は、参照ピクチャからのMV(例えば、参照MV)に基づいて、コロケートしたピクチャから識別され得る。近隣CUは、コロケートしたピクチャと同じ参照ピクチャを有し得、参照ピクチャとコロケートしたピクチャが同じであると決定されたとき、(例えば、他の近隣CUの検討なしに)近隣CUが、選択され得る。参照ピクチャからのMVは、空間的MVであり得、コロケートしたピクチャからのMVは、時間的MVであり得る。
MV col = MV (A) × (POC (R col ) -POC (P)) / (POC ( RA ) -POC (P)) (6)
The scaled MV col can be used as an offset, for example, to obtain the motion field in the collated picture R col . The scaling in equation (6) can be based on the temporal distance of the picture. For example, the first available MV from the spatial CU may be selected for scaling. An MV that can minimize the scaling error can be selected. For example, MVs scaled from N 0 MVs in one or more (eg, two) directions (eg, List L0, List L1) to minimize scaling errors (eg, best MVs). ) Can be selected. For example, a neighboring block (eg, each) of neighboring blocks (eg, neighboring CU) may have a corresponding reference picture. Neighboring blocks may be selected to be candidate neighborhood blocks (eg, candidate neighborhood CU) based on the difference between the referenced picture of the neighbor block and the collated picture. The neighborhood block selected to be a candidate neighborhood block may have a minimum temporal distance between its reference picture and the collated picture. For example, a reference picture (eg, each reference picture) and a collated picture can have a picture order count (POC) and have a (eg, minimal difference) between the POC of the reference picture and the POC of the collated picture. ) Candidate neighborhood blocks can be selected based on the difference. The MV (eg, the collated MV) can be identified from the collated picture based on the MV from the reference picture (eg, the reference MV). Neighboring CUs may have the same reference picture as the collated picture, and when it is determined that the referenced picture and the collated picture are the same, the neighboring CU is selected (eg, without consideration of other neighboring CUs). obtain. The MV from the reference picture can be a spatial MV and the MV from the collated picture can be a temporal MV.

例えば、参照ピクチャが、コロケートしたピクチャと同じでない場合、参照ピクチャからのMVは、スケーリングされ得る。例えば、参照ピクチャからのMVは、スケーリング係数で乗算され得る。スケーリング係数は、参照ピクチャとコロケートしたピクチャとの間の時間的差分に基づき得る。スケーリング係数は、((POC(Rcol)−POC(P))/(POC(RA)−POC(P))と定義され得る。スケーリング係数は、スケーリングなしを表す値(例えば、1)を有し得る。スケーリングなしを表す値を有するスケーリング係数は、RAとRcolが同じピクチャであることを示し得る。スケーリング誤差は、以下の方法のうちの1つまたは複数で、測定され得る。例えば、スケーリング誤差は、式(7)において提供されるように、および/または式(8)において提供されるように、測定され得る。与えられたMVについてのスケール係数と、スケーリングなしを表すスケール係数値との間の差分絶対値は、例えば、式(7)において提供されるように、測定され得る。 For example, if the reference picture is not the same as the collated picture, the MV from the reference picture can be scaled. For example, the MV from the reference picture can be multiplied by a scaling factor. The scaling factor can be based on the temporal difference between the referenced picture and the collated picture. The scaling factor can be defined as ((POC (R col ) -POC (P)) / (POC ( RA ) -POC (P)). The scaling factor can be a value representing no scaling (eg, 1). A scaling factor having a value representing no scaling can indicate that RA and R col are the same picture. Scaling error can be measured by one or more of the following methods. For example, the scaling error can be measured as provided in equation (7) and / or as provided in equation (8). A scale factor for a given MV and a scale representing no scaling. The absolute difference between the coefficient values can be measured, for example, as provided in equation (7).

ScaleError=abs((POC(Rcol)−POC(RA))/(POC(RA)−POC(P)) (7)
与えられたMVの参照ピクチャと、コロケートしたピクチャとの間の差分絶対値は、例えば、式(8)において提供されるように、測定され得る。
ScaleError = abs ((POC (R col ) -POC ( RA )) / (POC ( RA ) -POC (P)) (7)
The absolute difference between a given MV reference picture and the collated picture can be measured, for example, as provided in equation (8).

ScaleError=abs((POC(Rcol)−POC(RA))) (8)
最良MV探索は、打ち切られ得る。例えば、スケーリングされるMV候補の探索中に、あるMVについて、ScaleErrorが0に等しい場合、探索は打ち切り(例えば、早期に打ち切り)得る。
ScaleError = abs ((POC (R col ) -POC ( RA ))) (8)
The best MV search can be terminated. For example, during a search for scaled MV candidates, if the ScaleError is equal to 0 for a given MV, the search can be terminated (eg, terminated early).

ATMVP導出のためのコロケートしたピクチャの動き場を一致させるために、近隣MVが使用され得る。近隣MVは、例えば、MVスケーリングによって引き起こされる精度損失を最小化することによって、選択され得る。これは、スケーリングされたMVの精度を改善し得る。参照ブロック内における有効な動き情報の存在は、コロケートしたピクチャ内における選択された近隣MVによって、示され得る。例えば、参照ブロックが、(例えば、1つの)イントラブロックであるとき、例えば、参照ブロックと関連付けられた動き情報が存在しないので、ATMVPは、利用不可能と見なされ得る。 Neighboring MVs can be used to match the motion fields of the collated pictures for ATMVP derivation. Neighboring MVs can be selected, for example, by minimizing the accuracy loss caused by MV scaling. This can improve the accuracy of the scaled MV. The presence of valid motion information within the reference block may be indicated by the selected neighbor MV within the collated picture. For example, when the reference block is an intra-block (eg, one), the ATMVP can be considered unavailable, for example, because there is no motion information associated with the reference block.

コロケートしたピクチャ内のそれぞれのインター符号化されたブロックをポイントする近隣MVから、最良の近隣MVが選択され得る。MVスケーリング誤差は、最小化され得る。例えば、(例えば、式(7)および(8)に示されるように)最良の近隣MVを決定するときに、選択された近隣MVが、コロケートしたピクチャ内の(例えば、1つの)インター符号化されたブロックをポイントすることを保証するために、制限が、課され得る。最良の近隣MVの選択は、式(9)において提供されるように、定式化され得る。 The best neighbor MV may be selected from the neighbor MVs pointing to each intercoded block in the collated picture. The MV scaling error can be minimized. For example, when determining the best neighbor MV (eg, as shown in equations (7) and (8)), the selected neighbor MV is intercoded (eg, one) in the collated picture. Limitations may be imposed to ensure that points are made to the block. The selection of the best neighbor MV can be formulated as provided in equation (9).

Figure 2021502038
Figure 2021502038

(x,y)は、現在のCUの中心位置であり得る。ColPic(x,y)は、コロケートしたピクチャ内部の位置(x,y)におけるブロックを示し得る。inter()は、入力ブロックがインターブロックであるかどうかを示し得る、インジケータ関数を表し得る。Sは、利用可能な空間的近隣ブロックの集合を示し得、例えば、S={A1,B1,B0,A0}である。ScaleErrorは、式(7)および(8)で算出されるような、MVスケーリング誤差を示し得る。 (X, y) can be the center position of the current CU. ColPic (x, y) can indicate a block at a position (x, y) inside the collated picture. inter () can represent an indicator function that can indicate whether the input block is an interblock. S can represent a set of available spatial neighbor blocks, for example S = {A 1 , B 1 , B 0 , A 0 }. ScaleError can exhibit MV scaling error as calculated by equations (7) and (8).

Figure 2021502038
Figure 2021502038

は、近隣ブロックNのスケーリングされた動きベクトルであり得る。N*は、例えば、ATMVPに基づいて、現在のCUの動き場を導出するために、それのMVが使用される、選択された空間的近隣者を表し得る。例においては、現在のブロックは、スケーリング誤差を増大させる(例えば、ScaleError(A)<ScaleError(B)<ScaleError(C))、3つの空間的近隣者A、B、Cを有し得る。 Can be a scaled motion vector of neighboring blocks N. N * may represent the selected spatial neighbor in which the MV of the current CU is used to derive the motion field of the current CU, for example, based on the ATMVP. In an example, the current block may have three spatial neighbors A, B, C that increase the scaling error (eg, ScaleError (A) <ScaleError (B) <ScaleError (C)).

Figure 2021502038
Figure 2021502038

が、偽である場合(例えば、スケーリングの後、ブロックAの動きが、コロケートしたピクチャ内のイントラ符号化された参照ブロックを識別した場合)、コロケートしたピクチャ内の参照ブロックを識別するために、(例えば、それのスケーリング誤差が2番目に小さい)ブロックBの動きが、使用され得る。Bのスケーリングされた動きが、イントラ符号化された参照ブロックを識別する場合、コロケートしたピクチャ内の参照ブロックを識別するために、ブロックCの動きが、使用され得る。 Is false (for example, after scaling, if the movement of block A identifies an intra-encoded reference block in the collated picture), to identify the reference block in the collated picture. The movement of block B (eg, it has the second smallest scaling error) can be used. If the scaled movement of B identifies the intra-encoded reference block, then the movement of block C may be used to identify the reference block in the collated picture.

例えば、式(7)に示されるような、MVスケーリング誤差は、例えば、式(9)に示されるような、最良の近隣ブロックを識別するための基準として、使用され得る。コロケートしたピクチャからコロケートしたブロックを選択するために、最良の近隣ブロックの動きが、使用され得る。例えば、式(7)に示されるような、MVスケーリング誤差の算出は、例えば、2つの減算、1つの除算、および1つの絶対値演算を含み得る。除算は、(例えば、LUTに基づいた)乗算および/または右シフトによって実施され得る。ATMVPのためのコロケートしたブロックを決定するために、現在のCUの最良の空間的近隣ブロックが、選択され得る。コロケートしたピクチャは、スライスおよび/またはピクチャレベルで、シグナリングされ得る。コロケートしたピクチャは、ATMVP導出のために、使用され得る。既存のマージ候補のMVは、(例えば、図4に示されるような、A1、B1、B0、A0の)順番で、検査され得る。コロケートしたピクチャからコロケートしたブロックを取得するために、コロケートしたピクチャと関連付けられ、インター予測によって符号化された(例えば、1つの)ブロックを識別する、第1のマージ候補のMVが、選択され得る。例えば、そのような候補が存在しない場合、ゼロ動きが選択され得る。例えば、選択されたMVが、インター符号化された(例えば、1つの)コロケートしたブロックをポイントする場合、ATMVPは、有効化され得る。例えば、選択されたMVが、イントラ符号化された(例えば、1つの)コロケートしたブロックをポイントする場合、ATMVPは、無効化(disabled)され得る。図11は、本明細書において説明されるような、コロケートしたブロック導出を例示する例示的なフローチャートを示している。 For example, the MV scaling error, as shown in equation (7), can be used, for example, as a criterion for identifying the best neighbor block, as shown in equation (9). The best neighboring block movements can be used to select the collated block from the collated picture. For example, the calculation of the MV scaling error, as shown in equation (7), may include, for example, two subtractions, one division, and one absolute value operation. Division can be performed by multiplication (eg, based on LUT) and / or right shift. The best spatial neighborhood block of the current CU may be selected to determine the collated block for ATMVP. Colocated pictures can be signaled at the slice and / or picture level. The collated picture can be used for ATMVP derivation. Existing merge candidate MVs can be inspected in order (eg, A 1 , B 1 , B 0 , A 0 , as shown in FIG. 4). In order to obtain the collated blocks from the collated picture, a first merge candidate MV that is associated with the collated picture and identifies the (eg, one) block encoded by the interprediction may be selected. .. For example, if no such candidate exists, zero movement may be selected. For example, if the selected MV points to an intercoded (eg, one) colocated block, the ATMVP can be activated. For example, if the selected MV points to an intra-encoded (eg, one) colocated block, the ATMVP can be disabled. FIG. 11 shows an exemplary flow chart exemplifying a collated block derivation as described herein.

既存のマージ候補のMVは、順番に検査され得る。例えば、図4を参照すると、順番は、A1、B1、B0、A0であり得る。コロケートしたピクチャからコロケートしたブロックを取得するために、コロケートしたピクチャと関連付けられた第1のマージ候補のMVが、選択され得る。ATMVPは、コロケートしたブロックの符号化モードに基づいて、有効化され得る。例えば、コロケートしたブロックがイントラ符号化されている場合、例えば、コロケートしたブロックは、動き情報を提供しないことがあるので、ATMVPは無効化され得る。例えば、マージ候補のうちのどれも、コロケートしたピクチャと関連付けられない場合、ATMVPは無効化され得る。チェックの早期打ち切りが、行われ得る。例えば、コロケートしたピクチャと関連付けられた第1のマージ候補が見つけられると直ちに、チェックは打ち切られ得る。図14は、マージ候補のチェックを使用する、ATMVPのためのコロケートしたブロック導出を例示するフローチャートを示している。 Existing merge candidate MVs can be inspected in sequence. For example, referring to FIG. 4, the order may be A 1 , B 1 , B 0 , A 0 . A first merge candidate MV associated with the collated picture may be selected to obtain the collated block from the collated picture. ATMVP can be enabled based on the coding mode of the collated block. For example, if the collated block is intra-encoded, for example, the collated block may not provide motion information, so the ATMVP can be disabled. For example, ATMVP can be disabled if none of the merge candidates is associated with a collated picture. Early stopping of checks can occur. For example, the check can be discontinued as soon as the first merge candidate associated with the collated picture is found. FIG. 14 shows a flowchart illustrating a collated block derivation for an ATMVP using a merge candidate check.

コロケートしたピクチャ内のコロケートしたブロックを取得するために、ゼロ動きが使用され得る。ATMVPを有効化すべきかどうかを決定するために、コロケートしたピクチャ内において現在のCUと同じ位置に配置されたブロックがチェックされ得る。例えば、ブロックがインター符号化されている場合、ATMVPは、有効化され得る。例えば、ブロックがイントラ符号化されている場合、ATMVPは、無効化され得る。 Zero motion can be used to get the collated blocks in the collated picture. Blocks co-located with the current CU in the collated picture may be checked to determine if ATMVP should be enabled. For example, ATMVP can be enabled if the block is intercoded. For example, ATMVP can be invalidated if the block is intra-encoded.

ATMVPのためのコロケートしたブロックを取得するためのエリアは、制限され得る。異なるATMVPブロックについてのATMVP導出のためのコロケートしたピクチャは、(例えば、1つの)参照ピクチャに制限され得る。対応するコロケートしたブロックは、近隣ブロックの選択されたマージ候補のMVによって、示され得る。対応するコロケートしたブロックは、互いに離れていることがある。エンコーダまたはデコーダは、コロケートしたピクチャ内の異なる領域の動き(例えば、MVおよび/または参照ピクチャインデックス)へのアクセスを、(例えば、頻繁に)切り換え得る。図12は、ATMVPのためのコロケートしたブロックの制限されないアクセスの例を示している。図12に示されるように、現在のCTU内に1つまたは複数(例えば、3つ)のATMVP CUが、存在し得、CU(例えば、各CU)は、例えば、図12において異なる色によって示されるように、動きオフセット(例えば、異なる動きオフセット)を使用する。オフセットは、例えば、図12において破線ブロックによって示されるような、コロケートしたピクチャ内の対応するコロケートしたブロックを見つけるために、使用され得る。コロケートしたブロックは、例えば、異なる値を有する動きオフセットのせいで、コロケートしたピクチャの異なる領域内に見つけられ得る。 The area for acquiring colocated blocks for ATMVP can be limited. Colocated pictures for ATMVP derivation for different ATMVP blocks can be limited to (eg, one) reference pictures. The corresponding collated block may be indicated by the MV of the selected merge candidate of the neighboring block. Corresponding colocated blocks may be separated from each other. The encoder or decoder may (eg, frequently) switch access to movements in different regions within the collated picture (eg, MV and / or reference picture index). FIG. 12 shows an example of unrestricted access to a collated block for ATMVP. As shown in FIG. 12, there may be one or more (eg, 3) ATMVP CUs in the current CTU, and the CUs (eg, each CU) are shown, for example, by different colors in FIG. Use motion offsets (eg, different motion offsets) so that The offset can be used, for example, to find the corresponding collated block in the collated picture, as shown by the dashed block in FIG. Colocated blocks can be found in different areas of the collated picture, for example due to motion offsets with different values.

ATMVP CU(例えば、各ATMVP CU)のコロケートしたブロックは、(例えば、1つの)制限された範囲内で、導出され得る。図13は、ATMVPのためのコロケートしたブロックを導出するために、制限された領域を適用する例を示している。図13は、図12と同じコロケートしたピクチャおよびCTUを示し得る。図13に示されるように、現在のCUの位置が与えられると、コロケートしたピクチャ内の制限されたエリア(例えば、領域)が、決定され得る。例えば、制限されたエリアは、現在のスライスに基づいて、決定され得る。現在のCUのATMVP導出のために使用されるコロケートしたブロックの位置は、エリア内にあり得る。エリア内のコロケートしたブロックは、有効なコロケートしたブロックであり得る。エリア内にない近隣ブロック(例えば、候補近隣ブロック)からのMVは、有効なコロケートしたブロックからのMVで置き換えられ得る。例えば、図13に示されるように、B1およびB2の最初のコロケートしたブロック(例えば、ColB1およびColB2)は、制限されたエリア内部にあり得る。最初のコロケートしたブロックColB1およびColB2は、B1およびB2のATMVP導出のために使用され得る。B0の最初のコロケートしたブロック(例えば、ColB0)は、制限されたエリア外部にあるので、(例えば、1つの)コロケートしたブロック(例えば、ColB0’)は、制限されたエリアの最も近い境界に向かってColB0の位置をクリップ(clip)することによって、生成され得る。例えば、ColB0’は、ColB0に最も近い有効なブロックであり得る。ColB0’の位置は、コロケートしたピクチャ内において現在のブロックと同じロケーションに配置されたブロックとして、設定され得る(例えば、B0の動きは、ゼロに設定され得る)。CUを符号化(例えば、エンコードおよび/またはデコード)するために、(例えば、ColB0からのMVの代わりに)ColB0’からのMVが、使用され得る。例えば、ColB0が境界の外にあるとき、ATMVPは無効化され得る。 Colocated blocks of ATMVP CUs (eg, each ATMVP CU) can be derived within a limited range (eg, one). FIG. 13 shows an example of applying a restricted area to derive a collated block for ATMVP. FIG. 13 may show the same collated pictures and CTUs as in FIG. Given the current position of the CU, as shown in FIG. 13, a restricted area (eg, a region) within the collated picture can be determined. For example, the restricted area can be determined based on the current slice. The location of the collated blocks used for the ATMVP derivation of the current CU can be within the area. A collated block within an area can be a valid colocated block. MVs from neighboring blocks that are not in the area (eg, candidate neighboring blocks) can be replaced by MVs from valid colocated blocks. For example, as shown in FIG. 13, the first collated blocks of B1 and B2 (eg, ColB1 and ColB2) can be inside the restricted area. The first collated blocks ColB1 and ColB2 can be used for ATMVP derivation of B1 and B2. Since the first collated block of B0 (eg, ColB0) is outside the restricted area, the (eg, one) collated block (eg, ColB0') heads towards the closest boundary of the restricted area. It can be generated by clipping the position of ColB0. For example, ColB0'can be the closest valid block to ColB0. The position of ColB0'can be set as a block located at the same location as the current block in the collated picture (eg, the movement of B0 can be set to zero). MVs from ColB0'(eg, instead of MVs from ColB0) can be used to encode (eg, encode and / or decode) the CU. For example, ATMVP can be disabled when ColB0 is outside the boundaries.

ATMVPのコロケートしたブロック導出のための制限されたエリアのサイズが、決定され得る。例えば、(例えば、1つの)ビデオシーケンス内の、ATMVPによって符号化されるCU(例えば、すべてのCU)に、(例えば、1つの)固定されたエリアが適用され得る。現在のCTU(例えば、現在のCUを含むCTU)の(例えば、1つの)ATMVP CUのコロケートしたブロックの導出は、コロケートしたピクチャ内部の同じエリアのコロケートしたCTU内にあるように、制限され得る。例えば、現在のCTUと同じロケーションに位置付けられた、コロケートしたピクチャ内のCTU内のコロケートしたブロック(例えば、それだけ)が、導出され得る。(例えば、1つの)CUのTMVPプロセスのためのコロケートしたブロックの導出は、現在のCTU内および4×4ブロックの(例えば、1つの)列内にあるように、制限され得る。CTUは、W×H(例えば、幅×高さ)のサンプルを含み得る。TMVPのコロケートしたブロックを導出する領域は、(W+4)×Hであり得る。ATMVPおよびTMVP両方のコロケートしたブロックを導出するために、同じ制限されたエリアのサイズ(例えば、現在のCTUプラス4×4ブロックの(例えば、1つの)列)が、使用され得る。制限されたエリアのサイズは、選択され、エンコーダからデコーダにシグナリングされ得る。シンタックス要素は、シーケンスおよび/もしくはピクチャ、またはスライスレベルで、追加され得る。様々なアプリケーション要件のために、異なるプロファイルおよび/またはレベルが、定義され得る。例えば、シンタックス要素は、シーケンスパラメータセット(SPS)および/もしくはピクチャパラメータセット(PPS)に収めてシグナリングされ得、またはスライスヘッダに収めてシグナリングされ得る。 The size of the restricted area for the ATMVP collated block derivation can be determined. For example, a fixed area (eg, one) can be applied to an ATMVP-encoded CU (eg, all CUs) in a (eg, one) video sequence. Derivation of a (eg, one) ATMVP CU coagulated block of the current CTU (eg, a CTU containing the current CU) can be restricted to be within a coagulated CTU in the same area inside the colocated picture. .. For example, a collated block (eg, that much) in a CTU in a collated picture, located at the same location as the current CTU, can be derived. Derivation of collated blocks for the TMVP process of a (eg, one) CU can be limited to within the current CTU and within a (eg, one) column of 4x4 blocks. The CTU may include W × H (eg, width × height) samples. The region for deriving the collated block of TMVP can be (W + 4) × H. The same restricted area size (eg, a row of current CTU plus 4x4 blocks (eg, one)) can be used to derive both ATMVP and TMVP coagulated blocks. The size of the restricted area can be selected and signaled from the encoder to the decoder. Syntax elements can be added at the sequence and / or picture, or slice level. Different profiles and / or levels can be defined for different application requirements. For example, syntax elements can be signaled in sequence parameter sets (SPS) and / or picture parameter sets (PPS), or in slice headers.

ATMVPのためのコロケートしたブロックの選択と、コロケートしたブロック導出のためのエリアの制限は、組み合わせられ得る。例えば、図14に示されるように、コロケートしたブロックは、1つまたは複数のマージ候補の特徴に基づいて、選択され得る。既存のマージ候補のMVは、(例えば、図4に示されるような、A1、B1、B0、A0の)順番で、検査され得る。コロケートしたピクチャからコロケートしたブロックを取得するために、コロケートしたピクチャと関連付けられた第1のマージ候補のMVが選択され得る。例えば、コロケートしたブロックが、イントラ符号化されている場合、またはマージ候補のどれも、コロケートしたピクチャと関連付けられない場合、ATMVPは、無効化され得る。有効なマージ候補が見つけられ得る。例えば、有効なマージ候補は、A1であり得る。A1に対応するコロケートしたピクチャ内のコロケートしたブロックは、ColA1と表され得る。ColA1は、制限された範囲の境界の外にあり得る。ColA1が、制限された範囲の境界の外にある場合、ColA1は、制限されたエリアの最も近い境界にクリップバック(clip back)され、コロケートしたピクチャ内における、現在のブロックと同じロケーションに配置されたブロックに設定され得(例えば、A1の動きは、ゼロに設定され得)、および/またはATMVPは、無効(disabled)としてマークされ得る。 The selection of collated blocks for ATMVP and the limitation of the area for deriving the collated blocks can be combined. For example, as shown in FIG. 14, the collated blocks may be selected based on the characteristics of one or more merge candidates. Existing merge candidate MVs can be inspected in order (eg, A 1 , B 1 , B 0 , A 0 , as shown in FIG. 4). A first merge candidate MV associated with the collated picture may be selected to obtain the collated block from the collated picture. For example, ATMVP can be invalidated if the collated block is intra-encoded, or if none of the merge candidates are associated with the collated picture. A valid merge candidate can be found. For example, a valid merge candidate can be A 1 . The collated block in the collated picture corresponding to A 1 can be represented as ColA 1 . ColA 1 can be outside the bounds of a restricted range. If ColA 1 is outside the bounds of the restricted area, ColA 1 will be clip-backed to the closest boundary of the restricted area and will be in the same location as the current block in the collated picture. It can be set to the placed block (eg, the movement of A 1 can be set to zero), and / or ATMVP can be marked as disabled.

図15は、コロケートしたピクチャを使用して、現在のブロックのためのMVを導出する例を示している。現在のピクチャのためのコロケートしたピクチャは、例えば、スライスヘッダに収めて、シグナリングされ得る。コロケートしたピクチャは、現在のピクチャ上においてATMVPを実行する際に、使用され得る。例えば、現在のピクチャ内の現在のブロックの近隣ブロックのための参照ピクチャは、コロケートしたピクチャと比較され得る。コロケートしたピクチャまでの時間的距離が最も小さい近隣ブロックの参照ピクチャに基づいて、近隣ブロックが選択され得る。時間的距離は、POC差であり得る。近隣ブロックの参照ピクチャは、コロケートしたピクチャと同じであり得る。コロケートしたピクチャからのMVを決定するために、選択された近隣ブロックのための参照ピクチャからのMVが使用され得る。現在のブロックを符号化するために、コロケートしたピクチャからのMVが使用され得る。例えば、選択された近隣ブロックの参照ピクチャが、コロケートしたピクチャと同じでない場合、コロケートしたピクチャからのMVは、スケーリングされ得る。 FIG. 15 shows an example of deriving the MV for the current block using a collated picture. The collated picture for the current picture can be signaled, for example, in a slice header. The collated picture can be used when running ATMVP on the current picture. For example, a reference picture for a block next to the current block in the current picture can be compared to a collated picture. Neighboring blocks may be selected based on the reference picture of the neighboring block with the shortest temporal distance to the collated picture. The temporal distance can be a POC difference. The reference picture of the neighboring block can be the same as the collated picture. To determine the MV from the collated picture, the MV from the reference picture for the selected neighboring block can be used. An MV from a collated picture can be used to encode the current block. For example, if the referenced picture in the selected neighboring block is not the same as the collated picture, the MV from the colocated picture can be scaled.

上では、特徴および要素が特定の組み合わせで説明されたが、各特徴または要素は、単独で使用され得、または他の特徴および要素との任意の組み合わせで使用され得ることを当業者は理解されよう。加えて、本明細書において説明された方法は、コンピュータまたはプロセッサによって実行される、コンピュータ可読媒体内に含まれる、コンピュータプログラム、ソフトウェア、またはファームウェアで実施され得る。コンピュータ可読媒体の例は、(有線または無線接続上において送信される)電子信号、およびコンピュータ可読記憶媒体を含む。コンピュータ可読記憶媒体の例は、限定されることなく、リードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、内蔵ハードディスクおよびリムーバブルディスクなどの磁気媒体、光磁気媒体、ならびにCD−ROMディスクおよびデジタル多用途ディスク(DVD)などの光媒体を含む。WTRU、UE、端末、基地局、RNC、または任意のホストコンピュータにおいて使用される、無線周波数送受信機を実施するために、ソフトウェアと関連付けられたプロセッサが使用され得る。 Although features and elements have been described above in specific combinations, one of ordinary skill in the art will appreciate that each feature or element can be used alone or in any combination with other features and elements. Let's do it. In addition, the methods described herein can be performed with computer programs, software, or firmware contained within a computer-readable medium, performed by a computer or processor. Examples of computer-readable media include electronic signals (transmitted over a wired or wireless connection) and computer-readable storage media. Examples of computer-readable storage media are, but are not limited to, read-only memory (ROM), random access memory (RAM), registers, cache memory, semiconductor memory devices, magnetic media such as internal hard disks and removable disks, and optomagnetic media. , And optical media such as CD-ROM discs and digital multipurpose discs (DVDs). A processor associated with the software may be used to implement the radio frequency transmitter / receiver used in the WTRU, UE, terminal, base station, RNC, or any host computer.

Claims (22)

ビデオデータを符号化する方法であって、
前記ビデオデータの現在のスライスについてのコロケートしたピクチャを識別するステップであって、前記現在のスライスは、複数の符号化ユニット(CU)を含む、ステップと、
前記複数のCUのうちの現在のCUについて、複数の近隣CUを識別するステップであって、前記近隣CUの各々は、参照ピクチャに対応する、ステップと、
前記近隣CUの少なくとも1つの参照ピクチャと、前記現在のスライスについての前記コロケートしたピクチャとに基づいて、候補近隣CUとするために、前記複数の近隣CUのうちの1つを選択するステップと、
前記候補近隣CUの参照MVに基づいて、前記コロケートしたピクチャから、コロケートした動きベクトル(MV)を識別するステップと、
前記コロケートしたMVに基づいて、前記現在のCUを符号化するステップと
を備える方法。
A method of encoding video data
A step of identifying a collated picture of a current slice of video data, wherein the current slice comprises a plurality of coding units (CUs).
A step of identifying a plurality of neighboring CUs with respect to the current CU of the plurality of CUs, wherein each of the neighboring CUs corresponds to a reference picture.
A step of selecting one of the plurality of neighboring CUs to be a candidate neighboring CU based on at least one reference picture of the neighboring CU and the collated picture of the current slice.
A step of identifying a collated motion vector (MV) from the collated picture based on the reference MV of the candidate neighbor CU.
A method comprising the step of encoding the current CU based on the collated MV.
前記複数の近隣CUのうちの近隣CUが、前記近隣CUの前記参照ピクチャと前記コロケートしたピクチャとの間のそれぞれの時間的差分に基づいて、前記候補近隣CUとするために選択される請求項1に記載の方法。 A claim in which a neighboring CU among the plurality of neighboring CUs is selected to be the candidate neighboring CU based on the time difference between the reference picture and the collated picture of the neighboring CU. The method according to 1. 各参照ピクチャは、ピクチャ順序カウント(POC)と関連付けられ、前記近隣CUは、前記複数の近隣CUの中で、前記コロケートしたピクチャからのPOC差が最も小さい前記近隣CUに基づいて、前記候補近隣CUとするために選択される請求項2に記載の方法。 Each reference picture is associated with a picture order count (POC), where the neighbor CU is the candidate neighbor based on the neighbor CU with the smallest POC difference from the collated picture among the plurality of neighbor CUs. The method according to claim 2, which is selected to be a CU. 前記候補近隣CUは、前記コロケートしたピクチャと同じ参照ピクチャを有することに基づいて選択される請求項1に記載の方法。 The method of claim 1, wherein the candidate neighborhood CU is selected based on having the same reference picture as the collated picture. 前記コロケートしたピクチャと同じ参照ピクチャを有する近隣CUを識別したとき、前記近隣CUは、さらなる近隣CUを検討せずに、前記候補近隣CUとして選択される請求項4に記載の方法。 The method of claim 4, wherein when a neighboring CU having the same reference picture as the collated picture is identified, the neighboring CU is selected as the candidate neighboring CU without considering further neighboring CUs. 前記参照MVは、空間的MVであり、前記コロケートしたMVは、時間的MVである請求項1に記載の方法。 The method of claim 1, wherein the reference MV is a spatial MV and the collated MV is a temporal MV. 前記コロケートしたピクチャは、スライスヘッダ内のコロケートしたピクチャインジケーションに基づいて識別される請求項1に記載の方法。 The method of claim 1, wherein the collated picture is identified based on the collated picture indication in the slice header. 前記候補近隣CUの前記参照ピクチャが、前記コロケートしたピクチャと同じでない条件で、前記参照MVに対して時間的スケーリングを実行するステップをさらに含む請求項1に記載の方法。 The method of claim 1, further comprising performing temporal scaling on the reference MV under conditions where the reference picture of the candidate neighborhood CU is not the same as the collated picture. 時間的スケーリングを実行するステップは、前記参照MVをスケーリング係数で乗算するステップを含み、前記スケーリング係数は、前記候補近隣CUの前記参照ピクチャと前記コロケートしたピクチャとの間の時間的差分に基づく請求項8に記載の方法。 The step of performing temporal scaling includes multiplying the reference MV by a scaling factor, the scaling factor being a claim based on the time difference between the reference picture and the collated picture of the candidate neighbor CU. Item 8. The method according to Item 8. 前記コロケートしたMVは、前記コロケートしたピクチャ内の複数のコロケートしたブロックのうちの第1のコロケートしたブロックと関連付けられ、前記方法は、
前記現在のスライスに基づいて、前記コロケートしたピクチャの有効なコロケートしたブロック領域を識別するステップと、
前記コロケートしたブロックが前記領域内に配置されていないで条件で、前記領域内に配置された第2のコロケートしたブロックを選択するステップと、
前記コロケートしたMVを、前記第2のコロケートしたブロックと関連付けられた第2のコロケートしたMVで置き換えるステップと
をさらに含む請求項1に記載の方法。
The collated MV is associated with a first collated block of a plurality of collated blocks in the collated picture, the method said.
A step of identifying a valid collated block area of the collated picture based on the current slice.
A step of selecting a second coagulated block arranged in the area, provided that the coagulated block is not arranged in the area.
The method of claim 1, further comprising replacing the coagulated MV with a second coagulated MV associated with the second coagulated block.
前記第2のコロケートしたブロックは、前記第1のコロケートしたブロックまでの距離が最も小さいことに基づいて選択される請求項10に記載の方法。 10. The method of claim 10, wherein the second coagulated block is selected based on the smallest distance to the first coagulated block. プロセッサであって、
ビデオデータの現在のスライスについてのコロケートしたピクチャを識別し、前記現在のスライスは、複数の符号化ユニット(CU)を含んでおり、
前記複数のCUのうちの現在のCUについて、複数の近隣CUを識別し、前記近隣CUの各々は、参照ピクチャに対応しており、
前記近隣CUの少なくとも1つの参照ピクチャと、前記現在のスライスについての前記コロケートしたピクチャとに基づいて、候補近隣CUとするために、前記複数の近隣CUのうちの1つを選択し、
前記候補近隣CUの参照MVに基づいて、前記コロケートしたピクチャから、コロケートした動きベクトル(MV)を識別し、
前記コロケートしたMVに基づいて、前記現在のCUを符号化する
ように構成されたプロセッサ
を備えた無線送受信ユニット(WTRU)。
It ’s a processor,
Identifying a collated picture of the current slice of video data, said current slice contains multiple coding units (CUs).
For the current CU of the plurality of CUs, a plurality of neighboring CUs are identified, and each of the neighboring CUs corresponds to a reference picture.
Based on at least one reference picture of the neighboring CU and the collated picture of the current slice, one of the plurality of neighboring CUs is selected to be a candidate neighboring CU.
A collated motion vector (MV) is identified from the collated picture based on the reference MV of the candidate neighbor CU.
A radio transmit / receive unit (WTRU) with a processor configured to encode the current CU based on the collated MV.
前記プロセッサは、前記近隣CUの前記参照ピクチャと前記コロケートしたピクチャとの間のそれぞれの時間的差分に基づいて、前記候補近隣CUとするために、前記複数の近隣CUのうちの近隣CUを選択するように構成された請求項12に記載のWTRU。 The processor selects a neighboring CU among the plurality of neighboring CUs to be the candidate neighboring CU based on the respective time difference between the reference picture and the collated picture of the neighboring CU. WTRU according to claim 12, which is configured to do so. 各参照ピクチャは、ピクチャ順序カウント(POC)と関連付けられ、前記プロセッサは、POC差が最も小さい前記近隣CUに基づいて、前記候補近隣CUとするために、近隣CUを選択するように構成された請求項13に記載のWTRU。 Each reference picture is associated with a picture order count (POC), and the processor is configured to select a neighbor CU to be the candidate neighbor CU based on the neighbor CU with the smallest POC difference. WTRU according to claim 13. 前記プロセッサは、前記コロケートしたピクチャと同じ参照ピクチャを有する前記近隣CUに基づいて、前記候補近隣CUを選択するように構成された請求項12に記載のWTRU。 WTRU of claim 12, wherein the processor is configured to select the candidate neighbor CU based on the neighbor CU having the same reference picture as the collated picture. 前記コロケートしたピクチャと同じ参照ピクチャを有する近隣CUを識別したとき、前記プロセッサは、さらなる近隣CUを検討せずに、前記近隣CUを前記候補近隣CUとして選択するように構成された請求項15に記載のWTRU。 15. Claim 15 configured the processor to select a Neighbor CU as a Candidate Neighbor CU without considering further Neighbor CUs when identifying a Neighbor CU having the same reference picture as the collated picture. The described WTRU. 前記参照MVは、空間的MVであり、前記コロケートしたMVは、時間的MVである請求項12に記載のWTRU。 WTRU according to claim 12, wherein the reference MV is a spatial MV and the collated MV is a temporal MV. 前記プロセッサは、スライスヘッダ内のコロケートしたピクチャインジケーションに基づいて、コロケートしたピクチャを識別するように構成された請求項12に記載のWTRU。 WTRU according to claim 12, wherein the processor is configured to identify a collated picture based on a collated picture indication in a slice header. 前記プロセッサは、前記候補近隣CUの前記参照ピクチャが、前記コロケートしたピクチャと同じでない条件で、前記参照MVに対して時間的スケーリングを実行するようにさらに構成された請求項12に記載のWTRU。 12. The WTRU of claim 12, wherein the processor is further configured to perform temporal scaling on the reference MV, provided that the reference picture of the candidate neighbor CU is not the same as the collated picture. 時間的スケーリングを実行するステップは、前記参照MVをスケーリング係数で乗算するステップを含み、前記スケーリング係数は、前記候補近隣CUの前記参照ピクチャと前記コロケートしたピクチャとの間の時間的差分に基づく請求項7に記載の方法。 The step of performing temporal scaling includes multiplying the reference MV by a scaling factor, the scaling factor being a claim based on the time difference between the reference picture and the collated picture of the candidate neighbor CU. Item 7. The method according to Item 7. 前記プロセッサは、
前記現在のCUを1つまたは複数のサブブロックに細分化し、各サブブロックは、参照MVに対応しており、
前記サブブロックについての前記参照MVに基づいて、各サブブロックについて、前記コロケートしたピクチャからコロケートしたMVを識別する
ようにさらに構成された請求項12に記載のWTRU。
The processor
The current CU is subdivided into one or more subblocks, each subblock corresponding to a reference MV.
WTRU of claim 12, further configured for each subblock to identify the collated MV from the collated picture, based on the reference MV for the subblock.
前記プロセッサは、前記現在のCUの時間的レイヤに基づいて、前記サブブロックのサイズを決定するようにさらに構成された請求項12に記載のWTRU。 12. The WTRU of claim 12, wherein the processor is further configured to determine the size of the subblock based on the temporal layer of the current CU.
JP2020543735A 2017-11-01 2018-11-01 Subblock motion derivation and decoder side motion vector refinement for merge mode Active JP7382332B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023189419A JP2024010171A (en) 2017-11-01 2023-11-06 Sub-block motion derivation and decoder-side motion vector refinement for merge mode

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201762580184P 2017-11-01 2017-11-01
US62/580,184 2017-11-01
US201862623001P 2018-01-29 2018-01-29
US62/623,001 2018-01-29
US201862678576P 2018-05-31 2018-05-31
US62/678,576 2018-05-31
US201862690661P 2018-06-27 2018-06-27
US62/690,661 2018-06-27
PCT/US2018/058719 WO2019089933A1 (en) 2017-11-01 2018-11-01 Sub-block motion derivation and decoder-side motion vector refinement for merge mode

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023189419A Division JP2024010171A (en) 2017-11-01 2023-11-06 Sub-block motion derivation and decoder-side motion vector refinement for merge mode

Publications (3)

Publication Number Publication Date
JP2021502038A true JP2021502038A (en) 2021-01-21
JP2021502038A5 JP2021502038A5 (en) 2021-12-09
JP7382332B2 JP7382332B2 (en) 2023-11-16

Family

ID=64557134

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020543735A Active JP7382332B2 (en) 2017-11-01 2018-11-01 Subblock motion derivation and decoder side motion vector refinement for merge mode
JP2023189419A Pending JP2024010171A (en) 2017-11-01 2023-11-06 Sub-block motion derivation and decoder-side motion vector refinement for merge mode

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023189419A Pending JP2024010171A (en) 2017-11-01 2023-11-06 Sub-block motion derivation and decoder-side motion vector refinement for merge mode

Country Status (9)

Country Link
US (2) US11558633B2 (en)
EP (1) EP3704856A1 (en)
JP (2) JP7382332B2 (en)
KR (1) KR20200095463A (en)
CN (1) CN111480341A (en)
CA (1) CA3081335A1 (en)
SG (1) SG11202003925XA (en)
WO (1) WO2019089933A1 (en)
ZA (1) ZA202002074B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022532670A (en) * 2019-05-17 2022-07-15 華為技術有限公司 Inter-prediction method and equipment
JP2022533354A (en) * 2019-05-15 2022-07-22 華為技術有限公司 Encoders, decoders and corresponding methods
US12022107B2 (en) 2021-09-24 2024-06-25 Huawei Technologies Co., Ltd. Handling of decoder-side motion vector refinement (DMVR) coding tool for reference picture resampling in video coding

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190108506A (en) * 2018-03-14 2019-09-24 한국전자통신연구원 Method and apparatus for encoding/decoding image and recording medium for storing bitstream
EP4362468A3 (en) * 2018-07-02 2024-06-26 Huawei Technologies Co., Ltd. Motion vector prediction method and device, and codec
US11539958B2 (en) 2018-07-17 2022-12-27 Lg Electronics Inc. Method for predicting subblock-based temporal motion vector and apparatus therefor
US11297330B2 (en) 2018-09-22 2022-04-05 Lg Electronics Inc. Method and apparatus for processing video signal based on inter prediction
WO2020084556A1 (en) * 2018-10-24 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Sub-block motion candidate list in video coding
CN113170172A (en) * 2018-11-21 2021-07-23 瑞典爱立信有限公司 Video picture coding method with subblock merging simplification and related device
EP4325849A3 (en) 2018-11-22 2024-04-17 Beijing Bytedance Network Technology Co., Ltd. Coordination method for sub-block based inter prediction
US11146810B2 (en) 2018-11-27 2021-10-12 Qualcomm Incorporated Decoder-side motion vector refinement
WO2020140243A1 (en) 2019-01-03 2020-07-09 北京大学 Video image processing method and apparatus
CN112514384A (en) 2019-01-28 2021-03-16 株式会社 Xris Video signal encoding/decoding method and apparatus thereof
WO2020185506A1 (en) * 2019-03-08 2020-09-17 Beijing Dajia Internet Information Technology Co., Ltd. Bi-directional optical flow and decoder-side motion vector refinement for video coding
JP7471328B2 (en) * 2019-06-21 2024-04-19 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Encoders, decoders, and corresponding methods
CN114208184A (en) * 2019-08-13 2022-03-18 北京字节跳动网络技术有限公司 Motion accuracy in sub-block based inter prediction
US11223840B2 (en) * 2019-08-19 2022-01-11 Tencent America LLC Method and apparatus for video coding
US11647215B2 (en) 2019-09-12 2023-05-09 Alibaba Group Holding Limited Method and apparatus for signaling video coding information
US11641475B2 (en) 2019-09-12 2023-05-02 Alibaba Group Holding Limited Method and apparatus for encoding or decoding video
BR112022004553A2 (en) * 2019-09-13 2022-06-07 Beijing Bytedance Network Tech Co Ltd Video data processing method, apparatus for processing video data, computer-readable non-transient storage and recording media
WO2021052504A1 (en) 2019-09-22 2021-03-25 Beijing Bytedance Network Technology Co., Ltd. Scaling method for sub-block based inter prediction
US20220201315A1 (en) * 2020-12-22 2022-06-23 Qualcomm Incorporated Multi-pass decoder-side motion vector refinement
US20230388529A1 (en) * 2022-05-24 2023-11-30 Tencent America LLC Method and apparatus for temporal interpolated prediction in video bitstream

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014520477A (en) * 2011-09-09 2014-08-21 ケィティ、コーポレーション Temporal prediction motion vector induction method and apparatus using such method
US20150085929A1 (en) * 2013-09-26 2015-03-26 Qualcomm Incorporated Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc
US20160219278A1 (en) * 2015-01-26 2016-07-28 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100566420C (en) * 2002-07-15 2009-12-02 株式会社日立制作所 coding method of dynamic image
US20100316129A1 (en) * 2009-03-27 2010-12-16 Vixs Systems, Inc. Scaled motion search section with downscaling filter and method for use therewith
CN106028030B (en) * 2011-03-08 2017-12-19 Jvc 建伍株式会社 Moving image decoding device and moving picture decoding method
CN103563386A (en) * 2011-05-31 2014-02-05 Jvc建伍株式会社 Moving image encoding device, moving image encoding method and moving image encoding program, as well as moving image decoding device, moving image decoding method and moving image decoding program
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
GB2495990A (en) * 2011-10-28 2013-05-01 Canon Kk Motion compensated image coding with omission of coding mode cost calculation for a motion predictor in a set.
US9762904B2 (en) * 2011-12-22 2017-09-12 Qualcomm Incorporated Performing motion vector prediction for video coding
BR122020017172B1 (en) * 2012-01-19 2022-11-29 Electronics And Telecommunications Research Institute IMAGE DECODING DEVICE
US20130258052A1 (en) * 2012-03-28 2013-10-03 Qualcomm Incorporated Inter-view residual prediction in 3d video coding
EP3588958A1 (en) * 2012-08-29 2020-01-01 Vid Scale, Inc. Method and apparatus of motion vector prediction for scalable video coding
WO2014165555A1 (en) * 2013-04-02 2014-10-09 Vid Scale, Inc. Enhanced temporal motion vector prediction for scalable video coding
US9288507B2 (en) * 2013-06-21 2016-03-15 Qualcomm Incorporated More accurate advanced residual prediction (ARP) for texture coding
GB2534136A (en) * 2015-01-12 2016-07-20 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
US10057574B2 (en) * 2015-02-11 2018-08-21 Qualcomm Incorporated Coding tree unit (CTU) level adaptive loop filter (ALF)
US20180249176A1 (en) * 2015-03-11 2018-08-30 Lg Electronics Inc. Method and apparatus for encoding and decoding video signal
US10250904B2 (en) * 2015-05-05 2019-04-02 Avago Technologies International Sales Pte. Limited Apparatus and method for overlapped motion compensation for video coding
US10187653B2 (en) * 2015-05-18 2019-01-22 Avago Technologies International Sales Pte. Limited Motor vector prediction using co-located prediction units
TWI816224B (en) * 2015-06-08 2023-09-21 美商Vid衡器股份有限公司 Method and device for video decoding or encoding
US10271064B2 (en) * 2015-06-11 2019-04-23 Qualcomm Incorporated Sub-prediction unit motion vector prediction using spatial and/or temporal motion information
US10462457B2 (en) * 2016-01-29 2019-10-29 Google Llc Dynamic reference motion vector coding mode
US10560718B2 (en) * 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
WO2018016823A1 (en) * 2016-07-18 2018-01-25 한국전자통신연구원 Image encoding/decoding method and device, and recording medium in which bitstream is stored
US20190182505A1 (en) * 2016-08-12 2019-06-13 Mediatek Inc. Methods and apparatuses of predictor-based partition in video processing system
US10721489B2 (en) * 2016-09-06 2020-07-21 Qualcomm Incorporated Geometry-based priority for the construction of candidate lists
US10812791B2 (en) * 2016-09-16 2020-10-20 Qualcomm Incorporated Offset vector identification of temporal motion vector predictor
US10616582B2 (en) * 2016-09-30 2020-04-07 Qualcomm Incorporated Memory and bandwidth reduction of stored data in image/video coding
KR102435500B1 (en) * 2016-10-06 2022-08-23 세종대학교산학협력단 A method of decoding a video signal and an apparatus having the same
US10785477B2 (en) * 2016-10-06 2020-09-22 Lg Electronics Inc. Method for processing video on basis of inter prediction mode and apparatus therefor
US10291928B2 (en) * 2017-01-10 2019-05-14 Blackberry Limited Methods and devices for inter-prediction using motion vectors for video coding

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014520477A (en) * 2011-09-09 2014-08-21 ケィティ、コーポレーション Temporal prediction motion vector induction method and apparatus using such method
US20150085929A1 (en) * 2013-09-26 2015-03-26 Qualcomm Incorporated Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc
JP2016537839A (en) * 2013-09-26 2016-12-01 クゥアルコム・インコーポレイテッドQualcomm Incorporated Sub prediction unit (PU) based temporal motion vector prediction in HEVC and sub PU design in 3D-HEVC
US20160219278A1 (en) * 2015-01-26 2016-07-28 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
WO2016123081A1 (en) * 2015-01-26 2016-08-04 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
JP2018506908A (en) * 2015-01-26 2018-03-08 クゥアルコム・インコーポレイテッドQualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022533354A (en) * 2019-05-15 2022-07-22 華為技術有限公司 Encoders, decoders and corresponding methods
JP7359873B2 (en) 2019-05-15 2023-10-11 華為技術有限公司 Encoders, decoders and corresponding methods
JP2022532670A (en) * 2019-05-17 2022-07-15 華為技術有限公司 Inter-prediction method and equipment
JP7318007B2 (en) 2019-05-17 2023-07-31 華為技術有限公司 Inter-prediction method and apparatus
US12022107B2 (en) 2021-09-24 2024-06-25 Huawei Technologies Co., Ltd. Handling of decoder-side motion vector refinement (DMVR) coding tool for reference picture resampling in video coding

Also Published As

Publication number Publication date
ZA202002074B (en) 2023-10-25
KR20200095463A (en) 2020-08-10
US20210185338A1 (en) 2021-06-17
EP3704856A1 (en) 2020-09-09
SG11202003925XA (en) 2020-05-28
WO2019089933A1 (en) 2019-05-09
CA3081335A1 (en) 2019-05-09
US20230156215A1 (en) 2023-05-18
US11558633B2 (en) 2023-01-17
JP2024010171A (en) 2024-01-23
CN111480341A (en) 2020-07-31
JP7382332B2 (en) 2023-11-16

Similar Documents

Publication Publication Date Title
JP7382332B2 (en) Subblock motion derivation and decoder side motion vector refinement for merge mode
JP7448600B2 (en) Motion compensated bi-prediction based on local illumination compensation
CN111345041B (en) Method and apparatus for decoding and encoding video data
JP7398442B2 (en) Bi-prediction for video coding
JP7168593B2 (en) Motion-compensated prediction based on bidirectional optical flow
CN113615186B (en) Symmetric motion vector difference coding
JP2021520710A (en) Bidirectional optical flow method with simplified gradient derivation
CN111316649A (en) Overlapped block motion compensation
JP2021502019A (en) Multi-type tree coding
JP2021529462A (en) Selection of adaptive control points for video coding based on affine motion model
CN113228634A (en) Combined intra and inter prediction
JP2022525401A (en) Symmetric merge mode motion vector coding
JP2022516091A (en) History-based motion vector prediction
CN113016186A (en) Affine motion estimation for affine model based video coding
CN111630855B (en) Motion compensated bi-directional prediction based on local illumination compensation

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200618

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231106

R150 Certificate of patent or registration of utility model

Ref document number: 7382332

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150