KR20220006120A - 비디오 코딩에서의 참조 픽처 리샘플링을 위한 디코더 측 모션 벡터 개선(dmvr) 코딩 툴의 핸들링 - Google Patents

비디오 코딩에서의 참조 픽처 리샘플링을 위한 디코더 측 모션 벡터 개선(dmvr) 코딩 툴의 핸들링 Download PDF

Info

Publication number
KR20220006120A
KR20220006120A KR1020217040822A KR20217040822A KR20220006120A KR 20220006120 A KR20220006120 A KR 20220006120A KR 1020217040822 A KR1020217040822 A KR 1020217040822A KR 20217040822 A KR20217040822 A KR 20217040822A KR 20220006120 A KR20220006120 A KR 20220006120A
Authority
KR
South Korea
Prior art keywords
video
picture
dmvr
resolution
current
Prior art date
Application number
KR1020217040822A
Other languages
English (en)
Inventor
장러 천
프뉴 헨드리
예-쿠이 왕
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20220006120A publication Critical patent/KR20220006120A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

디코딩 방법은, 비디오 디코더에 의해, 디코딩되는 현재 픽처의 해상도가 현재 픽처와 연관된 참조 픽처 리스트에 의해 식별된 참조 픽처들의 해상도와 동일한지 여부를 결정하는 단계; 비디오 디코더에 의해, 현재 픽처의 해상도가 참조 픽처들 각각의 해상도와 동일한 것으로 결정될 때 현재 픽처의 현재 블록에 대해 디코더 측 모션 벡터 개선(DMVR)을 인에이블하는 단계; 비디오 디코더에 의해, 현재 픽처의 해상도가 참조 픽처들 중 어느 하나의 해상도와 상이한 것으로 결정될 때 현재 픽처의 현재 블록에 대해 DMVR을 디세이블하는 단계; 및 비디오 디코더에 의해, 현재 블록에 대해 DMVR 플래그가 인에이블될 때 DMVR을 사용하여 현재 블록에 대응하는 모션 벡터들을 개선하는 단계를 포함한다.

Description

비디오 코딩에서의 참조 픽처 리샘플링을 위한 디코더 측 모션 벡터 개선(DMVR) 코딩 툴의 핸들링
본 특허출원은 Jianle Chen 등에 의해 "Handling of Decoder-Side Motion Vector Refinement (DMVR) Coding Tool for Reference Picture Resampling in Video Coding"이라는 명칭으로 2019년 5월 15일자 출원된 미국 가특허출원 제62/848,410호를 우선권으로 주장하며, 이 가특허출원은 이로써 인용에 의해 포함된다.
일반적으로, 본 개시내용은 비디오 코딩에서의 디코더 측 모션 벡터 개선(DMVR: decoder-side motion vector refinement)을 지원하기 위한 기술들을 설명한다. 보다 구체적으로, 본 개시내용은 참조 픽처 리샘플링(reference picture resampling)을 위한 DMVR을 허용하지만, 현재 및 참조 픽처들의 공간 해상도가 상이할 때는 블록 또는 샘플들에 대해 DMVR이 디세이블(disable)될 수 있게 한다.
비교적 짧은 비디오라도 묘사하는 데 필요한 비디오 데이터의 양은 상당할 수 있으며, 이는 데이터가 스트리밍(stream)되거나 아니면 제한된 대역폭 용량을 갖는 통신 네트워크를 통해 전달되어야 할 때 어려움들을 야기할 수 있다. 따라서 비디오 데이터는 일반적으로 현대의 통신 네트워크들을 통해 전달되기 전에 압축된다. 메모리 자원들이 제한될 수 있기 때문에 비디오가 저장 디바이스에 저장될 때 비디오의 크기가 또한 문제가 될 수 있다. 비디오 압축 디바이스들은 종종 소스(source)에서 소프트웨어 및/또는 하드웨어를 사용하여 전송 또는 저장 전에 비디오 데이터를 코딩함으로써, 디지털 비디오 이미지들을 표현하는 데 필요한 데이터의 양을 감소시킨다. 압축된 데이터는 다음에, 비디오 데이터를 디코딩하는 비디오 압축 해제 디바이스에 의해 목적지에서 수신된다. 제한된 네트워크 자원들을 이용하여 그리고 더 높은 비디오 품질에 대한 요구들이 계속 증가함에 따라, 이미지 품질을 거의 또는 전혀 희생하지 않고 압축비를 개선하는 개선된 압축 및 압축 해제 기술들이 바람직하다.
제1 양상은 비디오 디코더(video decoder)에 의해 구현되는, 코딩된 비디오 비트스트림(coded video bitstream)을 디코딩하는 방법에 관한 것이다. 이 방법은, 비디오 디코더에 의해, 디코딩되는 현재 픽처의 해상도가 현재 픽처와 연관된 참조 픽처 리스트에 의해 식별된 참조 픽처들의 해상도와 동일한지 여부를 결정하는 단계; 비디오 디코더에 의해, 현재 픽처의 해상도가 참조 픽처들 각각의 해상도와 동일한 것으로 결정될 때 현재 픽처의 현재 블록에 대해 디코더 측 모션 벡터 개선(DMVR)을 인에이블(enable)하는 단계; 비디오 디코더에 의해, 현재 픽처의 해상도가 참조 픽처들 중 어느 하나의 해상도와 상이한 것으로 결정될 때 현재 픽처의 현재 블록에 대해 DMVR을 디세이블하는 단계; 및 비디오 디코더에 의해, 현재 블록에 대해 DMVR이 인에이블될 때 DMVR을 사용하여 현재 블록에 대응하는 모션 벡터들을 개선(refine)하는 단계를 포함한다.
이 방법은, 참조 픽처 리샘플링(RPR: reference picture resampling)이 인에이블될 때 전체 CVS에 대해 DMVR을 디세이블해야 하는 것이 아니라, 현재 픽처의 공간 해상도가 참조 픽처들의 공간 해상도와 상이할 때 DMVR이 선택적으로 디세이블될 수 있게 하는 기술들을 제공한다. 이런 식으로 DMVR을 선택적으로 디세이블하는 능력을 가짐으로써, 코딩 효율이 향상될 수 있다. 따라서 인코더(encoder)와 디코더 모두에서 프로세서, 메모리 및/또는 네트워크 자원들의 사용이 감소될 수 있다. 따라서 비디오 코딩에서의 코더/디코더(일명 "코덱(codec)")는 현재 코덱들에 비해 개선된다. 실질적인 문제로서, 개선된 비디오 코딩 프로세스는 비디오들이 전송되고, 수신되고 그리고/또는 보여질 때 사용자에게 더 나은 사용자 경험을 제공한다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은, DMVR을 인에이블하는 단계가 DMVR 플래그(flag)를 제1 값으로 설정하는 단계를 포함하는 것을 제공하며, DMVR을 디세이블하는 단계는 DMVR 플래그를 제2 값으로 설정하는 단계를 포함한다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은, 양방향 인터 예측(inter prediction) 모드에 따라 참조 픽처 리스트들에 기초하여 현재 픽처에 대한 참조 픽처들을 생성하는 단계를 제공한다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은, 각각의 픽처의 해상도가 복수의 픽처들과 연관된 참조 픽처들의 해상도와 상이한지 아니면 동일한지에 따라, 픽처들 내의 블록들에 대해 DMVR을 선택적으로 인에이블하는 단계와 디세이블하는 단계 모두를 제공한다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은, DMVR이 디세이블될 때 현재 픽처를 포함하는 전체 코딩된 비디오 시퀀스(CVS: coded video sequence)에 대해 참조 픽처 리샘플링(RPR)을 인에이블하는 단계를 제공한다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은, 코딩된 비디오 비트스트림의 파라미터 세트에 현재 픽처의 해상도가 배치되는 것을 제공하며, 여기서 현재 픽처의 슬라이스(slice)로부터 현재 블록이 획득된다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은 현재 블록을 사용하여 생성된 이미지를 전자 디바이스의 디스플레이 상에 디스플레이하는 단계를 제공한다.
제2 양상은 비디오 인코더에 의해 구현되는 비디오 비트스트림을 인코딩하는 방법에 관한 것이다. 이 방법은, 비디오 인코더에 의해, 인코딩되는 현재 픽처의 해상도가 현재 픽처와 연관된 참조 픽처 리스트에서 식별된 참조 픽처들의 해상도와 동일한지 여부를 결정하는 단계; 비디오 인코더에 의해, 현재 픽처의 해상도가 참조 픽처들 각각의 해상도와 동일한 것으로 결정될 때 현재 픽처의 현재 블록에 대해 디코더 측 모션 벡터 개선(DMVR)을 인에이블하는 단계; 비디오 인코더에 의해, 현재 픽처의 해상도가 참조 픽처들 중 어느 하나의 해상도와 상이한 것으로 결정될 때 현재 픽처의 현재 블록에 대해 DMVR을 디세이블하는 단계; 및 비디오 인코더에 의해, 현재 블록에 대해 DMVR이 인에이블될 때 DMVR을 사용하여 현재 블록에 대응하는 모션 벡터들을 개선하는 단계를 포함한다.
이 방법은, 참조 픽처 리샘플링(RPR)이 인에이블될 때 전체 CVS에 대해 DMVR을 디세이블해야 하는 것이 아니라, 현재 픽처의 공간 해상도가 참조 픽처들의 공간 해상도와 상이할 때 DMVR이 선택적으로 디세이블될 수 있게 하는 기술들을 제공한다. 이런 식으로 DMVR을 선택적으로 디세이블하는 능력을 가짐으로써, 코딩 효율이 향상될 수 있다. 따라서 인코더와 디코더 모두에서 프로세서, 메모리 및/또는 네트워크 자원들의 사용이 감소될 수 있다. 따라서 비디오 코딩에서의 코더/디코더(일명 "코덱")는 현재 코덱들에 비해 개선된다. 실질적인 문제로서, 개선된 비디오 코딩 프로세스는 비디오들이 전송되고, 수신되고 그리고/또는 보여질 때 사용자에게 더 나은 사용자 경험을 제공한다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은 비디오 인코더에 의해, 참조 픽처들에 기초하여 현재 픽처에 대한 모션 벡터들을 결정하는 단계; 비디오 인코더에 의해, 모션 벡터들에 기초하여 현재 픽처를 인코딩하는 단계; 및 비디오 인코더에 의해, 가상의(hypothetical) 기준 디코더를 사용하여 현재 픽처를 디코딩하는 단계를 제공한다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은, DMVR을 인에이블하는 단계가 DMVR 플래그를 제1 값으로 설정하는 단계를 포함하는 것을 제공하며, DMVR을 디세이블하는 단계는 DMVR 플래그를 제2 값으로 설정하는 단계를 포함한다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은, 양방향 인터 예측 모드에 따라 참조 픽처 리스트들에 기초하여 현재 픽처에 대한 참조 픽처들을 생성하는 단계를 제공한다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은, 각각의 픽처의 해상도가 복수의 픽처들과 연관된 참조 픽처들의 해상도와 상이한지 아니면 동일한지에 따라, 픽처들 내의 블록들에 대해 DMVR을 선택적으로 인에이블하는 단계와 디세이블하는 단계 모두를 제공한다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은, DMVR이 디세이블되는 경우에도 현재 픽처를 포함하는 전체 코딩된 비디오 시퀀스(CVS)에 대해 참조 픽처 리샘플링(RPR)을 인에이블하는 단계를 제공한다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은 현재 블록을 포함하는 비디오 비트스트림을 비디오 디코더를 향해 전송하는 단계를 제공한다.
제3 양상은 디코딩 디바이스에 관한 것이다. 디코딩 디바이스는 코딩된 비디오 비트스트림을 수신하도록 구성된 수신기; 수신기에 결합된 메모리 ― 메모리는 명령들을 저장함 ―; 및 메모리에 결합된 프로세서를 포함하며, 프로세서는 디코딩 디바이스로 하여금: 디코딩되는 현재 픽처의 해상도가 현재 픽처와 연관된 참조 픽처 리스트에 의해 식별된 참조 픽처들의 해상도와 동일한지 여부를 결정하게 하고; 현재 픽처의 해상도가 참조 픽처들 각각의 해상도와 동일한 것으로 결정될 때 현재 픽처의 현재 블록에 대해 디코더 측 모션 벡터 개선(DMVR)을 인에이블하게 하고; 현재 픽처의 해상도가 참조 픽처들 중 어느 하나의 해상도와 상이한 것으로 결정될 때 현재 픽처의 현재 블록에 대해 DMVR을 디세이블하게 하고; 그리고 현재 블록에 대해 DMVR이 인에이블될 때 DMVR을 사용하여 현재 블록에 대응하는 모션 벡터들을 개선하도록 하게 명령들을 실행하도록 구성된다.
디코딩 디바이스는, 참조 픽처 리샘플링(RPR)이 인에이블될 때 전체 CVS에 대해 DMVR을 디세이블해야 하는 것이 아니라, 현재 픽처의 공간 해상도가 참조 픽처들의 공간 해상도와 상이할 때 DMVR이 선택적으로 디세이블될 수 있게 하는 기술들을 제공한다. 이런 식으로 DMVR을 선택적으로 디세이블하는 능력을 가짐으로써, 코딩 효율이 향상될 수 있다. 따라서 인코더와 디코더 모두에서 프로세서, 메모리 및/또는 네트워크 자원들의 사용이 감소될 수 있다. 따라서 비디오 코딩에서의 코더/디코더(일명 "코덱")는 현재 코덱들에 비해 개선된다. 실질적인 문제로서, 개선된 비디오 코딩 프로세스는 비디오들이 전송되고, 수신되고 그리고/또는 보여질 때 사용자에게 더 나은 사용자 경험을 제공한다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은, DMVR이 디세이블될 때 현재 픽처를 포함하는 전체 코딩된 비디오 시퀀스(CV)에 대해 참조 픽처 리샘플링(RPR)이 인에이블되는 것을 제공한다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은 현재 블록에 기초하여 생성된 이미지를 디스플레이하도록 구성된 디스플레이를 제공한다.
제4 양상은 인코딩 디바이스에 관한 것이다. 인코딩 디바이스는 명령들을 포함하는 메모리; 메모리에 결합된 프로세서 ― 프로세서는 인코딩 디바이스로 하여금: 인코딩되는 현재 픽처의 해상도가 현재 픽처와 연관된 참조 픽처 리스트에서 식별된 참조 픽처들의 해상도와 동일한지 여부를 결정하게 하고; 현재 픽처의 해상도가 참조 픽처들 각각의 해상도와 동일한 것으로 결정될 때 현재 픽처의 현재 블록에 대해 디코더 측 모션 벡터 개선(DMVR)을 인에이블하게 하고; 현재 픽처의 해상도가 참조 픽처들 중 어느 하나의 해상도와 상이한 것으로 결정될 때 현재 픽처의 현재 블록에 대해 DMVR을 디세이블하게 하고; 그리고 현재 블록에 대해 DMVR이 인에이블될 때 DMVR을 사용하여 현재 블록에 대응하는 모션 벡터들을 개선하도록 하게 명령들을 구현함 ―; 및 프로세서에 결합된 전송기를 포함하며, 전송기는 현재 블록을 포함하는 비디오 비트스트림을 비디오 디코더를 향해 전송하도록 구성된다.
인코딩 디바이스는, 참조 픽처 리샘플링(RPR)이 인에이블될 때 전체 CVS에 대해 DMVR을 디세이블해야 하는 것이 아니라, 현재 픽처의 공간 해상도가 참조 픽처들의 공간 해상도와 상이할 때 DMVR이 선택적으로 디세이블될 수 있게 하는 기술들을 제공한다. 이런 식으로 DMVR을 선택적으로 디세이블하는 능력을 가짐으로써, 코딩 효율이 향상될 수 있다. 따라서 인코더와 디코더 모두에서 프로세서, 메모리 및/또는 네트워크 자원들의 사용이 감소될 수 있다. 따라서 비디오 코딩에서의 코더/디코더(일명 "코덱")는 현재 코덱들에 비해 개선된다. 실질적인 문제로서, 개선된 비디오 코딩 프로세스는 비디오들이 전송되고, 수신되고 그리고/또는 보여질 때 사용자에게 더 나은 사용자 경험을 제공한다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은, DMVR이 디세이블되는 경우에도 현재 픽처를 포함하는 전체 코딩된 비디오 시퀀스(CV)에 대해 참조 픽처 리샘플링(RPR)이 인에이블되는 것을 제공한다.
선택적으로, 이전의 양상들 중 임의의 양상에서, 양상의 다른 구현은, 전송기가 비트스트림을 비디오 디코더를 향해 전송하기 전에 메모리가 비디오 비트스트림을 저장하는 것을 제공한다.
제5 양상은 코딩 장치에 관한 것이다. 코딩 장치는, 인코딩할 픽처를 수신하도록 또는 디코딩할 비트스트림 수신하도록 구성된 수신기; 수신기에 결합된 전송기 ― 전송기는 비트스트림을 디코더에 전송하도록 또는 디코딩된 이미지를 디스플레이로 전송하도록 구성됨 ―; 수신기 또는 전송기 중 적어도 하나에 결합된 메모리 ― 메모리는 명령들을 저장하도록 구성됨 ―; 및 메모리에 결합된 프로세서를 포함하며, 프로세서는 메모리에 저장된 명령들을 실행하여 본 명세서에 개시된 방법들 중 임의의 방법을 수행하도록 구성된다.
코딩 장치는, 참조 픽처 리샘플링(RPR)이 인에이블될 때 전체 CVS에 대해 DMVR을 디세이블해야 하는 것이 아니라, 현재 픽처의 공간 해상도가 참조 픽처들의 공간 해상도와 상이할 때 DMVR이 선택적으로 디세이블될 수 있게 하는 기술들을 제공한다. 이런 식으로 DMVR을 선택적으로 디세이블하는 능력을 가짐으로써, 코딩 효율이 향상될 수 있다. 따라서 인코더와 디코더 모두에서 프로세서, 메모리 및/또는 네트워크 자원들의 사용이 감소될 수 있다. 따라서 비디오 코딩에서의 코더/디코더(일명 "코덱")는 현재 코덱들에 비해 개선된다. 실질적인 문제로서, 개선된 비디오 코딩 프로세스는 비디오들이 전송되고, 수신되고 그리고/또는 보여질 때 사용자에게 더 나은 사용자 경험을 제공한다.
제6 양상은 시스템에 관한 것이다. 이 시스템은 인코더; 및 인코더와 통신하는 디코더를 포함하며, 인코더 또는 디코더는 본 명세서에 개시된 디코딩 디바이스, 인코딩 디바이스 또는 코딩 장치를 포함한다.
이 시스템은, 참조 픽처 리샘플링(RPR)이 인에이블될 때 전체 CVS에 대해 DMVR을 디세이블해야 하는 것이 아니라, 현재 픽처의 공간 해상도가 참조 픽처들의 공간 해상도와 상이할 때 DMVR이 선택적으로 디세이블될 수 있게 하는 기술들을 제공한다. 이런 식으로 DMVR을 선택적으로 디세이블하는 능력을 가짐으로써, 코딩 효율이 향상될 수 있다. 따라서 인코더와 디코더 모두에서 프로세서, 메모리 및/또는 네트워크 자원들의 사용이 감소될 수 있다. 따라서 비디오 코딩에서의 코더/디코더(일명 "코덱")는 현재 코덱들에 비해 개선된다. 실질적인 문제로서, 개선된 비디오 코딩 프로세스는 비디오들이 전송되고, 수신되고 그리고/또는 보여질 때 사용자에게 더 나은 사용자 경험을 제공한다.
본 개시내용의 보다 완벽한 이해를 위해, 이제 첨부 도면들 및 상세한 설명과 관련하여 제시되는 다음의 간단한 설명에 대해 참조가 이루어지며, 여기서 유사한 참조 번호들은 유사한 부분들을 나타낸다.
도 1은 비디오 코딩 기술들을 이용할 수 있는 예시적인 코딩 시스템을 예시하는 블록도이다.
도 2는 비디오 코딩 기술들을 구현할 수 있는 예시적인 비디오 인코더를 예시하는 블록도이다.
도 3은 비디오 코딩 기술들을 구현할 수 있는 비디오 디코더의 일례를 예시하는 블록도이다.
도 4는 디코딩 순서 및 제시 순서에서 리딩(leading) 픽처들 및 트레일링(trailing) 픽처들에 대한 IRAP 픽처 사이의 관계의 표현이다.
도 5는 공간 확장성(scalability)을 위한 다중 계층 코딩의 일례를 예시한다.
도 6은 단방향 인터 예측의 일례를 예시하는 개략도이다.
도 7은 양방향 인터 예측의 일례를 예시하는 개략도이다.
도 8은 비디오 비트스트림을 예시한다.
도 9는 픽처에 대한 파티셔닝 기술을 예시한다.
도 10은 코딩된 비디오 비트스트림을 디코딩하는 방법의 일 실시예이다.
도 11은 코딩된 비디오 비트스트림을 인코딩하는 방법의 일 실시예이다.
도 12는 비디오 코딩 디바이스의 개략도이다.
도 13은 코딩하기 위한 수단의 일 실시예의 개략도이다.
하나 이상의 실시예들의 예시적인 구현이 아래에서 제공되지만, 개시된 시스템들 및/또는 방법들은 현재 알려져 있든 또는 존재하든, 임의의 수의 기술들을 사용하여 구현될 수 있다고 처음에 이해되어야 한다. 본 개시내용은 본 명세서에서 예시되고 설명되는 예시적인 설계들 및 구현들을 포함하여, 아래에서 예시되는 예시적인 구현들, 도면들 및 기술들로 결코 제한되지 않아야 하지만, 첨부된 청구항들의 범위 내에서 이들의 등가물들의 전체 범위와 함께 수정될 수 있다.
본 명세서에서 사용되는 바와 같이, 해상도는 비디오 파일의 픽셀들의 수를 설명한다. 즉, 해상도는 픽셀 단위로 측정된 투사된 이미지의 폭 및 높이이다. 예를 들어, 비디오는 1280(수평 픽셀들) × 720(수직 픽셀들)의 해상도를 가질 수도 있다. 이는 대개 간단히 1280×720으로 표기되거나 720p로 축약된다. DMVR은 예측된 블록에 대한 모션 또는 모션 벡터들을 개선하는 데 사용되는 프로세스, 알고리즘 또는 코딩 툴이다. DMVR은 양방향 템플릿 매칭 프로세스를 사용하여 양방향 예측을 위해 발견된 2개의 모션 벡터들에 기반하여 모션 벡터가 발견될 수 있게 한다. DMVR에서, 2개의 모션 벡터들 각각으로 생성된 예측 코딩 유닛들의 가중된 조합이 발견될 수 있고, 2개의 모션 벡터들은 이들을 조합된 예측 코딩 유닛을 가장 잘 가리키는 새로운 모션 벡터들로 대체함으로써 개선될 수 있다. RPR 특징은 해상도 변화 위치에서 픽처의 인트라 코딩(intra-coding)의 필요성 없이 비트스트림의 중간에서 코딩된 픽처들의 공간 해상도를 변경하는 능력이다.
도 1은 본 명세서에서 설명되는 바와 같은 비디오 코딩 기술을 이용할 수 있는 예시적인 코딩 시스템(10)을 예시하는 블록도이다. 도 1에 도시된 바와 같이, 코딩 시스템(10)은 목적지 디바이스(14)에 의해 나중에 디코딩될 인코딩된 비디오 데이터를 제공하는 소스 디바이스(12)를 포함한다. 특히, 소스 디바이스(12)는 컴퓨터 판독 가능 매체(16)를 통해 목적지 디바이스(14)에 비디오 데이터를 제공할 수 있다. 소스 디바이스(12) 및 목적지 디바이스(14)는 데스크톱 컴퓨터(desktop computer)들, 노트북(notebook)(예컨대, 랩톱(laptop)) 컴퓨터들, 태블릿(tablet) 컴퓨터들, 셋톱 박스(set-top box)들, 전화 핸드셋(handset)들, 이를테면 소위 "스마트(smart)" 폰(phone)들, 소위 "스마트" 패드(pad)들, 텔레비전(television)들, 카메라(camera)들, 디스플레이 디바이스들, 디지털 미디어 플레이어(digital media player)들, 비디오 게임 콘솔(gaming console)들, 비디오 스트리밍(streaming) 디바이스들 등을 포함하는 광범위한 디바이스들 중 임의의 디바이스를 포함할 수 있다. 일부 경우들에, 소스 디바이스(12) 및 목적지 디바이스(14)는 무선 통신을 위해 장착될 수 있다.
목적지 디바이스(14)는 디코딩될 인코딩된 비디오 데이터를 컴퓨터 판독 가능 매체(16)를 통해 수신할 수 있다. 컴퓨터 판독 가능 매체(16)는 인코딩된 비디오 데이터를 소스 디바이스(12)에서 목적지 디바이스(14)로 이동시킬 수 있는 임의의 타입의 매체 또는 디바이스를 포함할 수 있다. 일례로, 컴퓨터 판독 가능 매체(16)는 소스 디바이스(12)가 인코딩된 비디오 데이터를 목적지 디바이스(14)에 실시간으로 직접 전송할 수 있게 하는 통신 매체를 포함할 수 있다. 인코딩된 비디오 데이터는 무선 통신 프로토콜(protocol)과 같은 통신 표준에 따라 변조되어 목적지 디바이스(14)로 전송될 수 있다. 통신 매체는 무선 주파수(RF: radio frequency) 스펙트럼 또는 하나 이상의 물리적 전송 라인들과 같은 임의의 무선 또는 유선 통신 매체를 포함할 수 있다. 통신 매체는 패킷 기반 네트워크, 이를테면 근거리 네트워크, 광역 네트워크, 또는 인터넷과 같은 글로벌 네트워크의 일부를 형성할 수 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 소스 디바이스(12)로부터 목적지 디바이스(14)로의 통신을 가능하게 하는 데 유용할 수 있는 임의의 다른 장비를 포함할 수 있다.
일부 예들에서, 인코딩된 데이터는 출력 인터페이스(22)로부터 저장 디바이스에 출력될 수 있다. 유사하게, 인코딩된 데이터는 저장 디바이스로부터 입력 인터페이스에 의해 액세스될 수 있다. 저장 디바이스는 하드 드라이브, 블루레이 디스크들, 디지털 비디오 디스크(DVD: digital video disk)들, 콤팩트 디스크 판독 전용 메모리(CD-ROM: Compact Disc Read-Only Memory)들, 플래시 메모리, 휘발성 또는 비휘발성 메모리, 또는 인코딩된 비디오 데이터를 저장하기 위한 임의의 다른 적절한 디지털 저장 매체들과 같은 다양한 분산 또는 로컬 액세스 데이터 저장 매체들 중 임의의 매체를 포함할 수 있다. 추가 예에서, 저장 디바이스는 소스 디바이스(12)에 의해 생성된 인코딩된 비디오를 저장할 수 있는 파일 서버 또는 다른 중간 저장 디바이스에 대응할 수 있다. 목적지 디바이스(14)는 스트리밍 또는 다운로드를 통해 저장 디바이스로부터 저장된 비디오 데이터에 액세스할 수 있다. 파일 서버는 인코딩된 비디오 데이터를 저장하고 그 인코딩된 비디오 데이터를 목적지 디바이스(14)로 전송할 수 있는 임의의 타입의 서버일 수 있다. 예시적인 파일 서버들은 (예컨대, 웹 사이트용) 웹 서버, 파일 전송 프로토콜(FTP: file transfer protocol) 서버, 네트워크 부착 저장 장치(NAS: network attached storage) 디바이스들 또는 로컬 디스크 드라이브를 포함한다. 목적지 디바이스(14)는 인터넷 접속을 포함하는 임의의 표준 데이터 접속을 통해, 인코딩된 비디오 데이터에 액세스할 수 있다. 이것은 파일 서버 상에 저장된 인코딩된 비디오 데이터에 액세스하는 데 적합한 무선 채널(예컨대, Wi-Fi 접속), 유선 접속(예컨대, 디지털 가입자 회선(DSL: digital subscriber line), 케이블 모뎀 등), 또는 이 둘의 조합을 포함할 수 있다. 저장 디바이스로부터 인코딩된 비디오 데이터의 전송은 스트리밍 전송, 다운로드 전송 또는 이들의 조합일 수 있다.
본 개시내용의 기술들은 반드시 무선 애플리케이션들 또는 설정들에 한정되는 것은 아니다. 기술들은 공중파 텔레비전 방송들, 케이블 텔레비전 전송들, 위성 텔레비전 전송들, 인터넷 스트리밍 비디오 전송들, 이를테면 HTTP를 통한 동적 적응 스트리밍(DASH: dynamic adaptive streaming over HTTP), 데이터 저장 매체에 인코딩된 디지털 비디오, 데이터 저장 매체에 저장된 디지털 비디오의 디코딩, 또는 다른 애플리케이션들과 같은 다양한 멀티미디어 애플리케이션들 중 임의의 멀티미디어 애플리케이션의 지원 하에 비디오 코딩에 적용될 수 있다. 일부 예들에서, 코딩 시스템(10)은 단방향 또는 양방향 비디오 전송을 지원하여 비디오 스트리밍, 비디오 재생, 비디오 방송 및/또는 비디오 전화와 같은 애플리케이션들을 지원하도록 구성될 수 있다.
도 1의 예에서, 소스 디바이스(12)는 비디오 소스(18), 비디오 인코더(20) 및 출력 인터페이스(22)를 포함한다. 목적지 디바이스(14)는 입력 인터페이스(28), 비디오 디코더(30) 및 디스플레이 디바이스(32)를 포함한다. 본 개시내용에 따르면, 소스 디바이스(12)의 비디오 인코더(20)는 및/또는 목적지 디바이스(14)의 비디오 디코더(30)는 비디오 코딩을 위한 기술들을 적용하도록 구성될 수 있다. 다른 예들에서, 소스 디바이스 및 목적지 디바이스는 다른 컴포넌트들 또는 배열들을 포함할 수 있다. 예를 들어, 소스 디바이스(12)는 외부 카메라와 같은 외부 비디오 소스로부터 비디오 데이터를 수신할 수 있다. 마찬가지로, 목적지 디바이스(14)는 통합 디스플레이 디바이스를 포함하는 대신 외부 디스플레이 디바이스와 인터페이스할 수 있다.
도 1의 예시된 코딩 시스템(10)은 단지 일례일 뿐이다. 비디오 코딩을 위한 기술들은 임의의 디지털 비디오 인코딩 및/또는 디코딩 디바이스에 의해 수행될 수 있다. 본 개시내용의 기술들은 일반적으로 비디오 코딩 디바이스에 의해 수행되지만, 그 기술들은 통상적으로 "코덱(CODEC)"으로 지칭되는 비디오 인코더/디코더에 의해서도 또한 수행될 수 있다. 더욱이, 본 개시내용의 기술들은 또한 비디오 전처리기에 의해 수행될 수 있다. 비디오 인코더 및/또는 디코더는 그래픽 처리 유닛(GPU: graphics processing unit) 또는 유사한 디바이스일 수 있다.
소스 디바이스(12) 및 목적지 디바이스(14)는 목적지 디바이스(14)로의 전송을 위해 소스 디바이스(12)가 코딩된 비디오 데이터를 생성하는 그러한 코딩 디바이스들의 예들일 뿐이다. 일부 예들에서, 소스 디바이스(12) 및 목적지 디바이스(14)는, 소스 디바이스(12) 및 목적지 디바이스(14) 각각이 비디오 인코딩 및 디코딩 컴포넌트들을 포함하도록 실질적으로 대칭 방식으로 동작할 수 있다. 그러므로 코딩 시스템(10)은 예컨대, 비디오 스트리밍, 비디오 재생, 비디오 방송 또는 비디오 전화를 위해 비디오 디바이스들(12, 14) 간의 단방향 또는 양방향 비디오 전송을 지원할 수 있다.
소스 디바이스(12)의 비디오 소스(18)는 비디오 캡처(capture) 디바이스, 이를테면 비디오 카메라, 이전에 캡처된 비디오를 포함하는 비디오 아카이브(archive), 및/또는 비디오 콘텐츠 제공자로부터 비디오를 수신하기 위한 비디오 피드 인터페이스(video feed interface)를 포함할 수 있다. 추가 대안으로서, 비디오 소스(18)는 소스 비디오로서, 또는 라이브 비디오, 아카이브 비디오 및 컴퓨터 생성 비디오의 조합으로서 컴퓨터 그래픽 기반 데이터를 생성할 수 있다.
일부 경우들에는, 비디오 소스(18)가 비디오 카메라인 경우, 소스 디바이스(12) 및 목적지 디바이스(14)는 소위 카메라폰들 또는 비디오폰들을 형성할 수 있다. 그러나 위에서 언급한 바와 같이, 본 개시내용에서 설명되는 기술들은 일반적으로 비디오 코딩에 적용 가능할 수 있고, 무선 및/또는 유선 애플리케이션들에 적용될 수 있다. 각각의 경우에, 캡처되거나, 사전 캡처되거나 또는 컴퓨터 생성된 비디오는 비디오 인코더(20)에 의해 인코딩될 수 있다. 인코딩된 비디오 정보는 다음에, 출력 인터페이스(22)에 의해 컴퓨터 판독 가능 매체(16)로 출력될 수 있다.
컴퓨터 판독 가능 매체(16)는 무선 방송 또는 유선 네트워크 전송과 같은 과도 매체, 또는 하드 디스크, 플래시 드라이브, 콤팩트 디스크, 디지털 비디오 디스크, 블루레이 디스크 또는 다른 컴퓨터 판독 가능 매체 등과 같은 저장 매체(즉, 비-일시적 저장 매체)를 포함할 수 있다. 일부 예들에서, (도시되지 않은) 네트워크 서버는 소스 디바이스(12)로부터 인코딩된 비디오 데이터를 수신하고 인코딩된 비디오 데이터를 예컨대, 네트워크 전송을 통해 목적지 디바이스(14)에 제공할 수 있다. 유사하게, 디스크 스탬핑 설비(disc stamping facility)와 같은 매체 생산 설비의 컴퓨팅 디바이스는 소스 디바이스(12)로부터 인코딩된 비디오 데이터를 수신하고 인코딩된 비디오 데이터를 포함하는 디스크를 생성할 수 있다. 따라서 컴퓨터 판독 가능 매체(16)는 다양한 예들에서 다양한 형태들의 하나 이상의 컴퓨터 판독 가능 매체들을 포함하는 것으로 이해될 수 있다.
목적지 디바이스(14)의 입력 인터페이스(28)는 컴퓨터 판독 가능 매체(16)로부터 정보를 수신한다. 컴퓨터 판독 가능 매체(16)의 정보는 비디오 인코더(20)에 의해 정의된 신택스(syntax) 정보를 포함할 수 있는데, 신택스 정보는 비디오 디코더(30)에 의해서도 또한 사용되며, 블록들 및 다른 코딩된 유닛들, 예컨대 픽처들의 그룹(GOP: group of pictures)의 특징들 및/또는 처리를 설명하는 신택스 엘리먼트(element)들을 포함한다. 디스플레이 디바이스(32)는 디코딩된 비디오 데이터를 사용자에게 디스플레이하고, 음극선관(CRT: cathode ray tube), 액정 디스플레이(LCD: liquid crystal display), 플라즈마 디스플레이, 유기 발광 다이오드(OLED: organic light emitting diode) 디스플레이 또는 다른 타입의 디스플레이 디바이스와 같은 다양한 디스플레이 디바이스들 중 임의의 디스플레이 디바이스를 포함할 수 있다.
비디오 인코더(20) 및 비디오 디코더(30)는 현재 개발 중인 고효율 비디오 코딩(HEVC: High Efficiency Video Coding) 표준과 같은 비디오 코딩 표준에 따라 동작할 수 있으며, HEVC 시험 모델(HM: HEVC Test Model)을 준수할 수 있다. 대안으로, 비디오 인코더(20) 및 비디오 디코더(30)는 다른 독점적 또는 산업 표준들, 이를테면 대안으로, 동화상 전문가 그룹(MPEG: Moving Picture Expert Group)-4 Part 10, 고급 비디오 코딩(AVC: Advanced Video Coding)으로 지칭되는 국제 전기통신 연합 전기통신 표준화 부문(ITU-T: International Telecommunications Union Telecommunication Standardization Sector) H.264 표준, H.265/HEVC, 또는 이러한 표준들의 확장들에 따라 동작할 수 있다. 그러나 본 개시내용의 기술들은 임의의 특정 코딩 표준으로 제한되지는 않는다. 비디오 코딩 표준들의 다른 예들은 MPEG-2 및 ITU-T H.263을 포함한다. 도 1에 도시되진 않지만, 일부 양상들에서, 비디오 인코더(20) 및 비디오 디코더(30)는 각각 오디오 인코더 및 디코더와 통합될 수 있고, 오디오와 비디오 모두의 인코딩을 공통 데이터 스트림 또는 개별 데이터 스트림으로 처리하도록 적절한 멀티플렉서-디멀티플렉서(MUX-DEMUX: multiplexer-demultiplexer) 유닛들, 또는 다른 하드웨어 및 소프트웨어를 포함할 수 있다. 적용 가능하다면, MUX-DEMUX 유닛들은 ITU H.223 멀티플렉서 프로토콜, 또는 사용자 데이터그램 프로토콜(UDP: user datagram protocol)과 같은 다른 프로토콜들을 준수할 수 있다.
비디오 인코더(20) 및 비디오 디코더(30)는 각각, 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서(DSP: digital signal processor)들, 주문형 집적 회로(ASIC: application specific integrated circuit)들, 필드 프로그래밍 가능 게이트 어레이(FPGA: field programmable gate array)들, 이산 로직, 소프트웨어, 하드웨어, 펌웨어, 또는 이들의 임의의 조합들과 같은 다양한 적합한 인코더 회로 중 임의의 회로로서 구현될 수 있다. 기술들이 부분적으로는 소프트웨어에서 구현될 때, 디바이스는 소프트웨어에 대한 명령들을 적절한 비-일시적 컴퓨터 판독 가능 매체에 저장하고, 본 개시내용의 기술들을 수행하도록 하나 이상의 프로세서들을 사용하여 하드웨어에서 명령들을 실행할 수 있다. 비디오 인코더(20) 및 비디오 디코더(30)는 각각 하나 이상의 인코더들 또는 디코더들에 포함될 수 있으며, 이들 중 어느 하나는 개개의 디바이스에서 조합된 인코더/디코더(CODEC)의 일부로서 통합될 수 있다. 비디오 인코더(20) 및/또는 비디오 디코더(30)를 포함하는 디바이스는 집적 회로, 마이크로프로세서 및/또는 무선 통신 디바이스, 이를테면 셀룰러 전화를 포함할 수 있다.
도 2는 비디오 코딩 기술들을 구현할 수 있는 비디오 인코더(20)의 일례를 예시하는 블록도이다. 비디오 인코더(20)는 비디오 슬라이스들 내의 비디오 블록들의 인트라 코딩 및 인터 코딩(inter-coding)을 수행할 수 있다. 인트라 코딩은 공간 예측에 의존하여, 주어진 비디오 프레임 또는 픽처 내에서 비디오의 공간 중복성을 줄이거나 제거한다. 인터 코딩은 시간 예측에 의존하여 비디오 시퀀스의 인접한 프레임들 또는 픽처들 내에서 비디오의 시간 중복성을 줄이거나 제거한다. 인트라 모드(I 모드)는 여러 공간 기반 코딩 모드들 중 임의의 모드를 의미할 수 있다. 단방향 예측(일명, uni 예측)(P 모드) 또는 양방향 예측(일명, bi 예측)(B 모드)과 같은 인터 모드들은 여러 시간 기반 코딩 모드들 중 임의의 모드를 의미할 수 있다.
도 2에 도시된 바와 같이, 비디오 인코더(20)는 인코딩될 비디오 프레임 내의 현재 비디오 블록을 수신한다. 도 2의 예에서, 비디오 인코더(20)는 모드 선택 유닛(40), 참조 프레임 메모리(64), 합산기(50), 변환 처리 유닛(52), 양자화 유닛(54) 및 엔트로피(entropy) 코딩 유닛(56)을 포함한다. 모드 선택 유닛(40)은 차례로, 모션 보상 유닛(44), 모션 추정 유닛(42), 인트라 예측(일명, intra 예측) 유닛(46) 및 분할 유닛(48)을 포함한다. 비디오 블록 복원을 위해, 비디오 인코더(20)는 또한 역양자화 유닛(58), 역변환 유닛(60) 및 합산기(62)를 포함한다. (도 2에 도시되지 않은) 블록 분리(deblocking) 필터(filter)가 또한 포함되어, 복원된 비디오로부터 블록화 아티팩트(blockiness artifact)들을 제거하도록 블록 경계들을 필터링할 수 있다. 원한다면, 블록 분리 필터는 통상적으로 합산기(62)의 출력을 필터링할 것이다. 블록 분리 필터에 추가하여 추가 필터들(루프(loop) 내 또는 루프 뒤)이 또한 사용될 수 있다. 간결함을 위해 이러한 필터들은 도시되지 않지만, 원한다면 (루프 내 필터로서) 합산기(50)의 출력을 필터링할 수 있다.
인코딩 프로세스 동안, 비디오 인코더(20)는 코딩될 비디오 프레임 또는 슬라이스를 수신한다. 프레임 또는 슬라이스는 다수의 비디오 블록들로 분할될 수 있다. 모션 추정 유닛(42) 및 모션 보상 유닛(44)은 하나 이상의 참조 프레임들에서 하나 이상의 블록들에 대해 수신된 비디오 블록의 인터 예측 코딩을 수행하여 시간 예측을 제공한다. 인트라 예측 유닛(46)은 대안으로, 코딩될 블록과 동일한 프레임 또는 슬라이스에서 하나 이상의 이웃 블록들에 대해 수신된 비디오 블록의 인트라 예측 코딩을 수행하여 공간 예측을 제공할 수 있다. 비디오 인코더(20)는 예컨대, 비디오 데이터의 각각의 블록에 대해 적절한 코딩 모드를 선택하기 위해 다수의 코딩 패스(coding pass)들을 수행할 수 있다.
더욱이, 분할 유닛(48)은 이전 코딩 패스들에서의 이전 분할 방식들의 평가에 기초하여, 비디오 데이터의 블록을 서브블록들로 분할할 수 있다. 예를 들어, 분할 유닛(48)은 초기에 프레임 또는 슬라이스를 최대 코딩 유닛(LCU: largest coding unit)들로 분할하고, LCU들 각각을 레이트 왜곡(rate-distortion) 분석(예컨대, 레이트 왜곡 최적화)에 기초하여 하위 코딩 유닛(하위 CU: sub-coding unit)들로 분할할 수 있다. 모드 선택 유닛(40)은 추가로, LCU를 하위 CU들로 분할하는 것을 지시하는 사분 트리(quad-tree) 데이터 구조를 생성할 수 있다. 사분 트리의 리프 노드(leaf-node) CU들은 하나 이상의 예측 유닛(PU: prediction unit)들 및 하나 이상의 변환 유닛(TU: transform unit)들을 포함할 수 있다.
본 개시내용은 HEVC와 관련하여 CU, PU 또는 TU, 또는 다른 표준들과 관련하여 유사한 데이터 구조들(예컨대, H.264/AVC에서의 매크로블록들 및 그 서브블록) 중 임의의 것을 지칭하기 위해 "블록"이라는 용어를 사용한다. CU는 코딩 노드, 코딩 노드와 연관된 TU들 및 PU들을 포함한다. CU의 크기는 코딩 노드의 크기에 대응하며 모양이 정사각형이다. CU의 크기는 8×8 픽셀들 내지 최대 64×64 픽셀들 이상을 갖는 트리 블록의 크기의 범위일 수 있다. 각각의 CU는 하나 이상의 PU들 및 하나 이상의 TU들을 포함할 수 있다. CU와 연관된 신택스 데이터는 예를 들어, CU를 하나 이상의 PU들로 분할하는 것을 설명할 수 있다. 모드들을 분할하는 것은 CU가 스킵(skip)인지 또는 직접 모드 인코딩되는지, 인트라 예측 모드 인코딩되는지 또는 인터 예측(일명 inter 예측) 모드 인코딩되는지 간에 서로 다를 수 있다. PU들은 정사각형이 아닌 모양으로 분할될 수 있다. CU와 연관된 신택스 데이터는 또한, 예를 들어 사분 트리에 따라 CU를 하나 이상의 TU들로 분할하는 것을 설명할 수 있다. TU는 모양이 정사각형이거나 정사각형이 아닐(예컨대, 직사각형일) 수 있다.
모드 선택 유닛(40)은 예컨대, 오류 결과들에 기초하여 인트라 또는 인터 코딩 모드들 중 하나를 선택할 수 있고, 결과적인 인트라 또는 인터 코딩된 블록을 합산기(50)에 제공하여 잔차 블록 데이터를 생성하고 합산기(62)에 제공하여, 인코딩된 블록을 참조 프레임으로서 사용하기 위해 복원한다. 모드 선택 유닛(40)은 또한 모션 벡터들, 인트라 모드 지시자들, 분할 정보 및 다른 그러한 신택스 정보와 같은 신택스 엘리먼트들을 엔트로피 코딩 유닛(56)에 제공한다.
모션 추정 유닛(42) 및 모션 보상 유닛(44)은 고도로 집적될 수 있지만, 개념을 위해 별도로 예시된다. 모션 추정 유닛(42)에 의해 수행되는 모션 추정은 비디오 블록들에 대한 모션을 추정하는 모션 벡터들을 생성하는 프로세스이다. 예를 들어, 모션 벡터는 현재 프레임 내에서 코딩되고 있는 현재 블록(또는 다른 코딩된 유닛)에 대해 참조 프레임 내의 예측 블록(또는 다른 코딩된 유닛)에 대한 현재 비디오 프레임 또는 픽처 내의 비디오 블록의 PU의 변위를 나타낼 수 있다. 예측 블록은 절대 차의 합(SAD: sum of absolute difference), 제곱 차의 합(SSD: sum of square difference) 또는 다른 차이 메트릭(metric)들에 의해 결정될 수 있는 픽셀 차이 측면에서, 코딩될 블록과 밀접하게 매칭(match)하는 것으로 확인된 블록이다. 일부 예들에서, 비디오 인코더(20)는 참조 프레임 메모리(64)에 저장된 참조 픽처들의 정수 미만(sub-integer) 픽셀 포지션들에 대한 값들을 계산할 수 있다. 예를 들어, 비디오 인코더(20)는 참조 픽처의 1/4 픽셀 포지션들, 1/8 픽셀 포지션들, 또는 다른 부분 픽셀 포지션들의 값들을 보간할 수 있다. 따라서 모션 추정 유닛(42)은 전체 픽셀 포지션들 및 부분 픽셀 포지션들에 대한 모션 탐색을 수행하고 부분 픽셀 정밀도로 모션 벡터를 출력할 수 있다.
모션 추정 유닛(42)은 참조 픽처의 예측 블록의 포지션과 PU의 포지션을 비교함으로써, 인터 코딩된 슬라이스에서 비디오 블록의 PU에 대한 모션 벡터를 계산한다. 참조 픽처는 제1 참조 픽처 리스트(리스트 0) 또는 제2 참조 픽처 리스트(리스트 1)로부터 선택될 수 있으며, 이들 각각은 참조 프레임 메모리(64)에 저장된 하나 이상의 참조 픽처들을 식별한다. 모션 추정 유닛(42)은 계산된 모션 벡터를 엔트로피 인코딩 유닛(56) 및 모션 보상 유닛(44)에 송신한다.
모션 보상 유닛(44)에 의해 수행되는 모션 보상은 모션 추정 유닛(42)에 의해 결정된 모션 벡터에 기초하여 예측 블록을 페치(fetch) 또는 생성하는 것을 수반할 수 있다. 또한, 모션 추정 유닛(42)과 모션 보상 유닛(44)은 일부 예들에서는 기능적으로 통합될 수 있다. 현재 비디오 블록의 PU에 대한 모션 벡터를 수신하면, 모션 보상 유닛(44)은 참조 픽처 리스트들 중 하나에서 모션 벡터가 가리키는 예측 블록의 위치를 찾을 수 있다. 합산기(50)는 코딩되고 있는 현재 비디오 블록의 픽셀 값들에서 예측 블록의 픽셀 값들을 감산함으로써 잔차 비디오 블록을 형성하여, 아래에서 논의되는 바와 같이 픽셀 차 값들을 형성한다. 일반적으로, 모션 추정 유닛(42)은 루마(luma) 성분들에 대한 모션 추정을 수행하고, 모션 보상 유닛(44)은 크로마(chroma) 성분들과 루마 성분들 모두에 대해 루마 성분들에 기초하여 계산된 모션 벡터들을 사용한다. 모드 선택 유닛(40)은 또한 비디오 슬라이스의 비디오 블록들을 디코딩할 때 비디오 디코더(30)에 의한 사용을 위해 비디오 블록들 및 비디오 슬라이스와 연관된 신택스 엘리먼트들을 생성할 수 있다.
앞서 설명한 바와 같이, 모션 추정 유닛(42) 및 모션 보상 유닛(44)에 의해 수행되는 인터 예측에 대한 대안으로서, 인트라 예측 유닛(46)은 현재 블록을 인트라 예측할 수 있다. 특히, 인트라 예측 유닛(46)은 현재 블록을 인코딩하기 위해 사용할 인트라 예측 모드를 결정할 수 있다. 일부 예들에서, 인트라 예측 유닛(46)은 예컨대, 개별 인코딩 패스들 동안 다양한 인트라 예측 모드들을 사용하여 현재 블록을 인코딩할 수 있고, 인트라 예측 유닛(46)(또는 일부 예들에서는 모드 선택 유닛(40))은 시험된 모드들로부터 사용할 적절한 인트라 예측 모드를 선택할 수 있다.
예를 들어, 인트라 예측 유닛(46)은 다양한 시험된 인트라 예측 모드들에 대한 레이트 왜곡 분석을 사용하여 레이트 왜곡 값들을 계산하고, 시험된 모드들 중 가장 양호한 레이트 왜곡 특징들을 갖는 인트라 예측 모드를 선택할 수 있다. 레이트 왜곡 분석은 일반적으로 인코딩된 블록과 인코딩된 블록을 생성하기 위해 인코딩된 원래의 인코딩되지 않은 블록 간의 왜곡(또는 오류)의 양뿐만 아니라, 인코딩된 블록을 생성하는 데 사용되는 비트 레이트(bitrate)(즉, 비트들의 수)를 결정한다. 인트라 예측 유닛(46)은 어떤 인트라 예측 모드가 블록에 대해 최상의 레이트 왜곡 값을 나타내는지를 결정하기 위해 다양한 인코딩된 블록들에 대한 왜곡들 및 레이트들로부터 비율들을 계산할 수 있다.
추가로, 인트라 예측 유닛(46)은 깊이 모델링 모드(DMM: depth modeling mode)를 사용하여 깊이 맵(depth map)의 깊이 블록들을 코딩하도록 구성될 수 있다. 모드 선택 유닛(40)은 예컨대, 레이트 왜곡 최적화(RDO: rate-distortion optimization)를 사용하여, 이용 가능한 DMM 모드가 인트라 예측 모드 및 다른 DMM 모드들보다 더 나은 코딩 결과들을 생성하는지 여부를 결정할 수 있다. 깊이 맵에 대응하는 텍스처 이미지(texture image)에 대한 데이터가 참조 프레임 메모리(64)에 저장될 수 있다. 모션 추정 유닛(42) 및 모션 보상 유닛(44)은 또한 깊이 맵의 깊이 블록들을 인터 예측하도록 구성될 수 있다.
블록에 대해 인트라 예측 모드(예컨대, DMM 모드들 중 하나 또는 종래의 인트라 예측 모드)를 선택한 후, 인트라 예측 유닛(46)은 블록에 대해 선택된 인트라 예측 모드를 지시하는 정보를 엔트로피 코딩 유닛(56)에 제공할 수 있다. 엔트로피 코딩 유닛(56)은 선택된 인트라 예측 모드를 지시하는 정보를 인코딩할 수 있다. 비디오 인코더(20)는 복수의 인트라 예측 모드 인덱스(index) 표들 및 복수의 수정된 인트라 예측 모드 인덱스 표들(코드워드(codeword) 매핑 표들로도 또한 지칭됨)을 포함할 수 있는 전송된 비트스트림 구성 데이터에, 다양한 블록들에 대한 인코딩 컨텍스트들의 정의들, 및 컨텍스트들 각각에 사용할 가장 가능성이 높은 인트라 예측 모드, 인트라 예측 모드 인덱스 표 및 수정된 인트라 예측 모드 인덱스 표의 표시들을 포함할 수 있다.
비디오 인코더(20)는 코딩되고 있는 원래의 비디오 블록에서 모드 선택 유닛(40)으로부터의 예측 데이터를 감산함으로써 잔차 비디오 블록을 형성한다. 합산기(50)는 이 감산 연산을 수행하는 컴포넌트 또는 컴포넌트들을 나타낸다.
변환 처리 유닛(52)은 이산 코사인 변환(DCT: discrete cosine transform) 또는 개념적으로 유사한 변환과 같은 변환을 잔차 블록에 적용하여, 잔차 변환 계수 값들을 포함하는 비디오 블록을 생성한다. 변환 처리 유닛(52)은 DCT와 개념적으로 유사한 다른 변환들을 수행할 수 있다. 웨이블릿(wavelet) 변환들, 정수 변환들, 부대역 변환들 또는 다른 타입들의 변환들도 또한 사용될 수 있다.
변환 처리 유닛(52)은 잔차 블록에 변환을 적용하여, 잔차 변환 계수들의 블록을 생성한다. 변환은 잔차 정보를 픽셀 값 도메인에서 주파수 도메인과 같은 변환 도메인으로 변환할 수 있다. 변환 처리 유닛(52)은 결과적인 변환 계수들을 양자화 유닛(54)으로 송신할 수 있다. 양자화 유닛(54)은 변환 계수를 양자화하여 비트 레이트를 더 감소시킨다. 양자화 프로세스는 계수들 중 일부 또는 전부와 연관된 비트 깊이를 감소시킬 수 있다. 양자화의 정도는 양자화 파라미터를 조정함으로써 수정될 수 있다. 일부 예들에서, 양자화 유닛(54)은 다음에, 양자화된 변환 계수들을 포함하는 매트릭스(matrix)의 스캔(scan)을 수행할 수 있다. 대안으로, 엔트로피 인코딩 유닛(56)은 스캔을 수행할 수 있다.
양자화 다음에, 엔트로피 코딩 유닛(56)은 양자화된 변환 계수들을 엔트로피 코딩한다. 예를 들어, 엔트로피 코딩 유닛(56)은 컨텍스트 적응적 가변 길이 코딩(CAVLC: context adaptive variable length coding), 컨텍스트 적응적 이진 산술 코딩(CABAC: context adaptive binary arithmetic coding), 신택스 기반 컨텍스트 적응적 이진 산술 코딩(SBAC: syntax-based context-adaptive binary arithmetic coding), 확률 간격 분할 엔트로피(PIPE: probability interval partitioning entropy) 코딩 또는 다른 엔트로피 코딩 기술을 수행할 수 있다. 컨텍스트 기반 엔트로피 코딩의 경우, 컨텍스트는 이웃 블록들을 기반으로 할 수 있다. 엔트로피 코딩 유닛(56)에 의한 엔트로피 코딩 후에, 인코딩된 비트스트림은 다른 디바이스(예컨대, 비디오 디코더(30))로 전송되거나 이후의 전송 또는 검색을 위해 보관될 수 있다.
역양자화 유닛(58) 및 역변환 유닛(60)은 각각 역양자화 및 역변환을 적용하여, 픽셀 도메인의 잔차 블록을 예컨대, 참조 블록으로서 나중에 사용하기 위해 복원한다. 모션 보상 유닛(44)은 참조 프레임 메모리(64)의 프레임들 중 하나의 프레임의 예측 블록에 잔차 블록을 추가함으로써 참조 블록을 계산할 수 있다. 모션 보상 유닛(44)은 또한 하나 이상의 보간 필터들을 복원된 잔차 블록에 적용하여, 모션 추정에 사용할 정수 미만 픽셀 값들을 계산할 수 있다. 합산기(62)는 모션 보상 유닛(44)에 의해 생성된 모션 보상된 예측 블록에 복원된 잔차 블록을 추가하여, 참조 프레임 메모리(64)에 저장할 복원된 비디오 블록을 생성한다. 복원된 비디오 블록은 후속 비디오 프레임에서 블록을 인터 코딩하기 위한 참조 블록으로서 모션 추정 유닛(42) 및 모션 보상 유닛(44)에 의해 사용될 수 있다.
도 3은 비디오 코딩 기술들을 구현할 수 있는 비디오 디코더(30)의 일례를 예시하는 블록도이다. 도 3의 예에서, 비디오 디코더(30)는 엔트로피 디코딩 유닛(70), 모션 보상 유닛(72), 인트라 예측 유닛(74), 역양자화 유닛(76), 역변환 유닛(78), 참조 프레임 메모리(82) 및 합산기(80)를 포함한다. 비디오 디코더(30)는 일부 예들에서, 비디오 인코더(20)(도 2)에 대해 설명된 인코딩 패스에 일반적으로 상반하는 디코딩 패스를 수행할 수 있다. 모션 보상 유닛(72)은 엔트로피 디코딩 유닛(70)으로부터 수신된 모션 벡터들에 기초하여 예측 데이터를 생성할 수 있는 한편, 인트라 예측 유닛(74)은 엔트로피 디코딩 유닛(70)으로부터 수신된 인트라 예측 모드 지시자들에 기초하여 예측 데이터를 생성할 수 있다.
디코딩 프로세스 중에, 비디오 디코더(30)는 인코딩된 비디오 슬라이스의 비디오 블록들 및 연관된 신택스 엘리먼트들을 나타내는 인코딩된 비디오 비트스트림을 비디오 인코더(20)로부터 수신한다. 비디오 디코더(30)의 엔트로피 디코딩 유닛(70)은 비트스트림을 엔트로피 디코딩하여, 양자화된 계수들, 모션 벡터들 또는 인트라 예측 모드 지시자들 및 다른 신택스 엘리먼트들을 생성한다. 엔트로피 디코딩 유닛(70)은 모션 벡터들 및 다른 신택스 엘리먼트들을 모션 보상 유닛(72)으로 전달한다. 비디오 디코더(30)는 비디오 슬라이스 레벨 및/또는 비디오 블록 레벨에서 신택스 엘리먼트들을 수신할 수 있다.
비디오 슬라이스가 인트라 코딩된(I) 슬라이스로서 코딩될 때, 인트라 예측 유닛(74)은 현재 프레임 또는 픽처의 이전에 디코딩된 블록들로부터 시그널링(signal)된 인트라 예측 모드 및 데이터에 기초하여 현재 비디오 슬라이스의 비디오 블록에 대한 예측 데이터를 생성할 수 있다. 비디오 프레임이 인터 코딩된(예컨대, B, P 또는 GPB) 슬라이스로서 코딩될 때, 모션 보상 유닛(72)은 엔트로피 디코딩 유닛(70)으로부터 수신된 모션 벡터들 및 다른 신택스 엘리먼트들에 기초하여 현재 비디오 슬라이스의 비디오 블록에 대한 예측 블록들을 생성한다. 예측 블록들은 참조 픽처 리스트들 중 하나의 리스트 내의 참조 픽처들 중 하나로부터 생성될 수 있다. 비디오 디코더(30)는 참조 프레임 메모리(82)에 저장된 참조 픽처들을 기초로 디폴트 구성 기술들을 사용하여 참조 프레임 리스트인 리스트 0 및 리스트 1을 구성할 수 있다.
모션 보상 유닛(72)은 모션 벡터들 및 다른 신택스 엘리먼트들을 파싱(parse)함으로써 현재 비디오 슬라이스의 비디오 블록에 대한 예측 정보를 결정하고, 디코딩되고 있는 현재 비디오 블록에 대한 예측 블록을 생성하는 데 예측 정보를 사용한다. 예를 들어, 모션 보상 유닛(72)은 수신된 신택스 엘리먼트들 중 일부를 사용하여, 비디오 슬라이스의 비디오 블록들을 코딩하는 데 사용되는 예측 모드(예컨대, 인트라 또는 인터 예측), 인터 예측 슬라이스 타입(예컨대, B 슬라이스, P 슬라이스 또는 GPB 슬라이스), 슬라이스에 대한 참조 픽처 리스트들 중 하나 이상에 대한 구성 정보, 슬라이스의 각각의 인터 코딩된 비디오 블록에 대한 모션 벡터들, 슬라이스의 각각의 인터 코딩된 비디오 블록에 대한 인터 예측 상태, 및 현재 비디오 슬라이스의 비디오 블록들을 디코딩하기 위한 다른 정보를 결정한다.
모션 보상 유닛(72)은 또한 보간 필터들에 기초하여 보간을 수행할 수 있다. 모션 보상 유닛(72)은 비디오 블록들의 인코딩 동안 비디오 인코더(20)에 의해 사용되는 보간 필터들을 사용하여 참조 블록들의 정수 미만 픽셀들에 대한 보간된 값들을 계산할 수 있다. 이 경우, 모션 보상 유닛(72)은 수신된 신택스 엘리먼트들로부터 비디오 인코더(20)에 의해 사용된 보간 필터들을 결정하고 보간 필터들을 사용하여 예측 블록들을 생성할 수 있다.
깊이 맵에 대응하는 텍스처 이미지에 대한 데이터가 참조 프레임 메모리(82)에 저장될 수 있다. 모션 보상 유닛(72)은 또한 깊이 맵의 깊이 블록들을 인터 예측하도록 구성될 수 있다.
일 실시예에서, 비디오 디코더(30)는 사용자 인터페이스(UI: user interface)(84)를 포함한다. 사용자 인터페이스(84)는 비디오 디코더(30)의 사용자(예컨대, 네트워크 관리자)로부터 입력을 수신하도록 구성된다. 사용자 인터페이스(84)를 통해, 사용자는 비디오 디코더(30)에 대한 설정들을 관리하거나 변경할 수 있다. 예를 들어, 사용자는 사용자의 선호도에 따라 비디오 디코더(30)의 구성 및/또는 동작을 제어하기 위해 파라미터(예컨대, 플래그)에 대한 값을 입력하거나 다른 방식으로 제공할 수 있다. 사용자 인터페이스(84)는 예를 들어, 사용자가 그래픽 아이콘들, 드롭-다운 메뉴들, 체크 박스들 등을 통해 비디오 디코더(30)와 상호 작용할 수 있게 하는 그래픽 사용자 인터페이스(GUI: graphical user interface)일 수 있다. 일부 경우들에서, 사용자 인터페이스(84)는 키보드, 마우스 또는 다른 주변 디바이스를 통해 사용자로부터 정보를 수신할 수 있다. 일 실시예에서, 사용자는 스마트폰, 태블릿 디바이스, 비디오 디코더(30)로부터 원격으로 위치된 개인용 컴퓨터 등을 통해 사용자 인터페이스(84)에 액세스할 수 있다. 본 명세서에서 사용되는 바와 같이, 사용자 인터페이스(84)는 외부 입력 또는 외부 수단으로 지칭될 수 있다.
상기 내용을 염두에 두고, 비디오 압축 기술들은 공간(인트라 픽처) 예측 및/또는 시간(인터 픽처) 예측을 수행하여 비디오 시퀀스들에 고유한 중복성을 감소시키거나 제거한다. 블록 기반 비디오 코딩의 경우, 비디오 슬라이스(즉, 비디오 픽처 또는 비디오 픽처의 일부)는 비디오 블록들로 분할될 수 있으며, 비디오 블록들은 트리 블록들, 코딩 트리 블록(CTB: coding tree block)들, 코딩 트리 유닛(CTU: coding tree unit)들, 코딩 유닛(CU: coding unit)들 및/또는 코딩 노드로도 또한 지칭될 수 있다. 픽처의 인트라 코딩된(I) 슬라이스의 비디오 블록들은 동일한 픽처의 이웃 블록들의 참조 샘플들에 대한 공간 예측을 사용하여 인코딩된다. 픽처의 인터 코딩된(P 또는 B) 슬라이스의 비디오 블록들은 동일한 픽처의 이웃 블록들의 참조 샘플들에 대한 공간 예측 또는 다른 참조 픽처들의 참조 샘플들에 대한 시간 예측을 사용할 수 있다. 픽처들은 프레임들로 지칭될 수 있고, 참조 픽처들은 참조 프레임들로 지칭될 수 있다.
공간 또는 시간 예측은 코딩될 블록에 대한 예측 블록을 야기한다. 잔차 데이터는 코딩될 원래 블록과 예측 블록 간의 픽셀 차이들을 나타낸다. 인터 코딩된 블록은 예측 블록을 형성하는 참조 샘플들의 블록을 가리키는 모션 벡터, 및 코딩된 블록과 예측 블록 간의 차이를 지시하는 잔차 데이터에 따라 인코딩된다. 인트라 코딩된 블록은 인트라 코딩 모드 및 잔차 데이터에 따라 인코딩된다. 추가 압축을 위해, 잔차 데이터는 픽셀 도메인에서 변환 도메인으로 변환되어, 잔차 변환 계수들이 될 수 있으며, 잔차 변환 계수들은 다음에 양자화될 수 있다. 초기에 2차원 어레이로 배열된 양자화된 변환 계수들은 변환 계수들의 1차원 벡터를 생성하기 위해 스캔될 수 있으며, 엔트로피 코딩이 적용되어 훨씬 더 많은 압축을 달성할 수 있다.
이미지 및 비디오 압축은 다양한 코딩 표준들로 이어지는 빠른 성장을 경험해 왔다. 이러한 비디오 코딩 표준들은 ITU-T H.261, ISO/IEC(International Organization for Standardization/International Electrotechnical Commission) MPEG-1 Part 2, ITU-T H.262 또는 ISO/IEC MPEG-2 Part 2, ITU-T H.263, ISO/IEC MPEG-4 Part 2, ITU-T H.264 또는 ISO/IEC MPEG-4 Part 10으로도 또한 알려진 고급 비디오 코딩(AVC: Advanced Video Coding), 및 ITU-T H.265 또는 MPEG-H Part 2로도 또한 알려진 고효율 비디오 코딩(HEVC: High Efficiency Video Coding)을 포함한다. AVC는 스케일러블 비디오 코딩(SVC: Scalable Video Coding), 다시점 비디오 코딩(MVC: Multiview Video Coding) 및 다시점 비디오 코딩 + 깊이(MVC+D: Multiview Video Coding plus Depth) 및 3D AVC(3D-AVC)와 같은 확장들을 포함한다. HEVC는 스케일러블 HEVC(SHVC: Scalable HEVC), 다시점 HEVC(MV-HEVC: Multiview HEVC) 및 3D HEVC(3D-HEVC)와 같은 확장들을 포함한다.
ITU-T 및 ISO/IEC의 공동 비디오 전문가 팀(JVET: joint video experts team)에 의해 개발되고 있는, 다용도 비디오 코딩(VVC: Versatile Video Coding)으로 명명된 새로운 비디오 코딩 표준이 또한 존재한다. VVC 표준은 여러 규격 초안들을 갖지만, 특히 VVC의 하나의 규격 초안(WD: Working Draft), 즉 B. Bross, J. Chen 및 S. Liu의 "Versatile Video Coding (Draft 5)"(JVET-N1001-v3, 2019년 3월 27일 제13차 JVET 회의(VVC 초안 5))은 그 전체가 인용에 의해 본 명세서에 포함된다.
본 명세서에 개시된 기술들의 설명은 ITU-T 및 ISO/IEC의 공동 비디오 전문가 팀(JVET)에 의해 개발 중인 비디오 코딩 표준 다용도 비디오 코딩(VVC)에 기반한다. 그러나 이 기술들은 다른 비디오 코덱 규격들에도 또한 적용된다.
도 4는 디코딩 순서(408) 및 제시 순서(410)에서 리딩 픽처들(404) 및 트레일링 픽처들(406)에 대한 인트라 랜덤 액세스 포인트(IRAP: intra random access point) 픽처(402) 사이의 관계의 표현(400)이다. 일 실시예에서, IRAP 픽처(402)는 클린 랜덤 액세스(CRA: clean random access) 픽처로 또는 랜덤 액세스 디코딩 가능 리딩(RADL: random access decodable leading) 픽처를 갖는 순간 디코더 리프레시(IDR: instantaneous decoder refresh) 픽처로 지칭된다. HEVC에서, IDR 픽처들, CRA 픽처들 및 브로큰 링크 액세스(BLA: Broken Link Access) 픽처들은 모두 IRAP 픽처들(402)로 간주된다. VVC의 경우, 2018년 10월의 제12차 JVET 회의 동안, IRAP 픽처들로서 IDR 및 CRA 픽처들 모두를 갖는 것이 합의되었다. 일 실시예에서, 브로큰 링크 액세스(BLA) 및 점진적 디코더 리프레시(GDR: Gradual Decoder Refresh) 픽처들은 또한 IRAP 픽처들로 간주될 수 있다. 코딩된 비디오 시퀀스에 대한 디코딩 프로세스는 항상 IRAP에서 시작된다.
도 4에 도시된 바와 같이, 리딩 픽처들(404)(예컨대, 픽처 2 및 픽처 3)은 디코딩 순서(408)에서 IRAP 픽처(402)를 뒤따르지만, 제시 순서(410)에서는 IRAP 픽처(402)에 선행한다. 트레일링 픽처(406)는 디코딩 순서(408)와 제시 순서(410) 모두에서 IRAP 픽처(402)를 뒤따른다. 도 4에는 2개의 리딩 픽처들(404) 및 하나의 트레일링 픽처(406)가 도시되지만, 당해 기술분야에서 통상의 지식을 가진 자들은 실제 응용들에서 디코딩 순서(408) 및 제시 순서(410)에 더 많은 또는 더 적은 리딩 픽처들(404) 및/또는 트레일링 픽처들(406)이 존재할 수 있음을 인식할 것이다.
도 4의 리딩 픽처들(404)은 2개의 타입들, 즉 랜덤 액세스 스킵 리딩(RASL: random access skipped leading) 및 RADL로 분할되었다. IRAP 픽처(402)(예컨대, 픽처 1)로 디코딩이 시작될 때, RADL 픽처(예컨대, 픽처 3)는 적절하게 디코딩될 수 있지만; RASL 픽처(예컨대, 픽처 2)는 적절하게 디코딩될 수 없다. 따라서 RASL 픽처는 폐기된다. RADL 픽처와 RASL 픽처 간의 구별을 고려하여, IRAP 픽처(402)와 연관된 리딩 픽처(404)의 타입은 효율적이고 적절한 코딩을 위해 RADL 또는 RASL로서 식별되어야 한다. HEVC에서, RASL 및 RADL 픽처들이 존재할 때, 동일한 IRAP 픽처(402)와 연관되는 RASL 및 RADL 픽처들에 대해, 제시 순서(410)에서 RASL 픽처들이 RADL 픽처들에 선행할 것이 제한된다.
IRAP 픽처(402)는 다음의 두 가지 중요한 기능들/이점들을 제공한다. 첫째로, IRAP 픽처(402)의 존재는 디코딩 프로세스가 그 픽처로부터 시작할 수 있음을 지시한다. 이러한 기능은, IRAP 픽처(402)가 해당 포지션에 존재하는 한, 디코딩 프로세스가 반드시 비트스트림의 시작이 아닌 비트스트림의 해당 포지션에서 시작하는 랜덤 액세스 특징을 허용한다. 둘째로, IRAP 픽처(402)의 존재는, RASL 픽처들을 제외한 IRAP 픽처(402)에서 시작하는 코딩된 픽처가 이전 픽처들에 대한 어떠한 참조도 없이 코딩되도록 디코딩 프로세스를 리프레시한다. 결과적으로, 비트스트림에 IRAP 픽처(402)가 존재하게 하는 것은, IRAP 픽처(402) 이전의 코딩된 픽처들의 디코딩 동안 발생할 수 있는 임의의 에러가 IRAP 픽처(402) 및 디코딩 순서(408)에서 IRAP 픽처(402)에 뒤따르는 그러한 픽처들로 전파하는 것을 중단시킬 것이다.
IRAP 픽처들(402)은 중요한 기능들을 제공하지만, 이들은 압축 효율에 대한 패널티(penalty)를 동반한다. IRAP 픽처(402)의 존재는 비트 레이트의 급증을 야기한다. 압축 효율에 대한 이러한 패널티는 2개의 이유들에 기인한다. 첫째로, IRAP 픽처(402)가 인트라 예측된 픽처이기 때문에, 픽처 자체는 인터 예측된 픽처들인 다른 픽처들(예컨대, 리딩 픽처들(404), 트레일링 픽처들(406))과 비교할 때 표현하는 데 비교적 더 많은 비트들을 필요로 할 것이다. 둘째로, IRAP 픽처(402)의 존재가 시간적 예측을 깨뜨리기 때문에(이는 디코더가 디코딩 프로세스를 리프레시하기 때문인데, 여기서 이를 위한 디코딩 프로세스의 동작들 중 하나는 디코딩된 픽처 버퍼(DPB: decoded picture buffer)에서 이전의 참조 픽처들을 제거하는 것임), 디코딩 순서(408)에서 IRAP 픽처(402)를 뒤따르는 픽처들이 이들의 인터 예측 코딩에 더 적은 참조 픽처들을 가지므로 IRAP 픽처(402)는 그러한 픽처들의 코딩을 덜 효율적이게 한다(즉, 표현하는 데 더 많은 비트들을 필요로 함).
IRAP 픽처들(402)로 고려되는 픽처 타입들 중에서, HEVC의 IDR 픽처는 다른 픽처 타입들과 비교할 때 상이한 시그널링 및 도출을 갖는다. 차이들 중 일부는 다음과 같다.
IDR 픽처의 픽처 순서 카운트(POC: picture order count) 값의 시그널링 및 도출을 위해, POC의 최상위 비트(MSB: most significant bit) 부분은 이전 키 픽처로부터 도출되는 것이 아니라 단순히 0과 동일하게 설정된다.
참조 픽처 관리에 필요한 시그널링 정보의 경우, IDR 픽처의 슬라이스 헤더는 참조 픽처 관리를 보조하기 위해 시그널링될 필요가 있는 정보를 포함하지 않는다. 다른 픽처 타입들(즉, CRA, 트레일링, 시간적 하위 계층 액세스(TSA: temporal sub-layer access) 등)의 경우, 아래에서 설명되는 참조 픽처 세트(RPS: reference picture set) 및 다른 형태들의 유사한 정보(예컨대, 참조 픽처 리스트들)와 같은 정보가 참조 픽처 마킹 프로세스(즉, 참조를 위해 사용되거나 참조를 위해 사용되지 않는 참조 픽처들의 상태를 디코딩된 픽처 버퍼(DPB)에서 결정하는 프로세스)에 필요하다. 그러나 IDR 픽처의 경우, 그러한 정보는 시그널링될 필요가 없는데, 이는 디코딩 프로세스가 단순히 DPB 내의 모든 참조 픽처들을 참조를 위해 사용되지 않음으로 마킹할 것임을 IDR의 존재가 지시하기 때문이다.
HEVC 및 VVC에서, IRAP 픽처들(402) 및 리딩 픽처들(404)은 각각 단일 네트워크 추상화 계층(NAL: network abstraction layer) 유닛 내에 포함될 수 있다. 한 세트의 NAL 유닛들이 액세스 유닛으로 지칭될 수 있다. IRAP 픽처들(402) 및 리딩 픽처들(404)에는 이러한 픽처들이 시스템 레벨 애플리케이션들에 의해 용이하게 식별될 수 있도록 상이한 NAL 유닛 타입들이 주어진다. 예를 들어, 비디오 스플라이서(splicer)는 코딩된 비트스트림 내의 신택스 엘리먼트의 너무 많은 세부사항을 이해할 필요 없이 코딩된 픽처 타입들을 이해할 필요가 있는데, 특히 트레일링 픽처들(406)로부터 RASL 및 RADL 픽처들을 결정하는 것을 포함하여, 비-IRAP 픽처들로부터 IRAP 픽처들(402)을 식별하고 리딩 픽처들(404)을 식별할 필요가 있다. 트레일링 픽처들(406)은, IRAP 픽처(402)와 연관되고 제시 순서(410)에서 IRAP 픽처(402)를 따르는 그러한 픽처들이다. 픽처는 디코딩 순서(408)에서 특정 IRAP 픽처(402)에 후속하고 디코딩 순서(408)에서 임의의 다른 IRAP 픽처(402)에 선행할 수 있다. 이를 위해, IRAP 픽처들(402) 및 리딩 픽처들(404)에 이들 자체의 NAL 유닛 타입을 제공하는 것은 그러한 애플리케이션들을 돕는다.
HEVC의 경우, IRAP 픽처들에 대한 NAL 유닛 타입들은 다음을 포함한다:
리딩 픽처를 갖는 BLA(BLA_W_LP): 디코딩 순서에서 하나 이상의 리딩 픽처들이 뒤따를 수 있는 브로큰 링크 액세스(BLA) 픽처의 NAL 유닛.
RADL을 갖는 BLA(BLA_W_RADL): 디코딩 순서에서 하나 이상의 RADL 픽처들이 뒤따를 수 있지만 RASL 픽처는 없는 BLA 픽처의 NAL 유닛.
리딩 픽처가 없는 BLA(BLA_N_LP): 디코딩 순서에서 리딩 픽처가 뒤따르지 않는 BLA 픽처의 NAL 유닛.
RADL을 갖는 IDR(IDR_W_RADL): 디코딩 순서에서 하나 이상의 RADL 픽처들이 뒤따를 수 있지만 RASL 픽처는 없는 IDR 픽처의 NAL 유닛.
리딩 픽처가 없는 IDR(IDR_N_LP): 디코딩 순서에서 리딩 픽처가 뒤따르지 않는 IDR 픽처의 NAL 유닛.
CRA: 리딩 픽처들(즉, RASL 픽처들 또는 RADL 픽처들 또는 이들 모두)이 뒤따를 수 있는 클린 랜덤 액세스(CRA) 픽처의 NAL 유닛.
RADL: RADL 픽처의 NAL 유닛.
RASL: RASL 픽처의 NAL 유닛.
VVC의 경우, IRAP 픽처들(402) 및 리딩 픽처들(404)에 대한 NAL 유닛 타입은 다음과 같다:
RADL을 갖는 IDR(IDR_W_RADL): 디코딩 순서에서 하나 이상의 RADL 픽처들이 뒤따를 수 있지만 RASL 픽처는 없는 IDR 픽처의 NAL 유닛.
리딩 픽처가 없는 IDR(IDR_N_LP): 디코딩 순서에서 리딩 픽처가 뒤따르지 않는 IDR 픽처의 NAL 유닛.
CRA: 리딩 픽처들(즉, RASL 픽처들 또는 RADL 픽처들 또는 이들 모두)이 뒤따를 수 있는 클린 랜덤 액세스(CRA) 픽처의 NAL 유닛.
RADL: RADL 픽처의 NAL 유닛.
RASL: RASL 픽처의 NAL 유닛.
참조 픽처 리샘플링(RPR) 특징은 해상도 변화 위치에서 픽처의 인트라 코딩의 필요성 없이 비트스트림의 중간에서 코딩된 픽처들의 공간 해상도를 변경하는 능력이다. 이를 가능하게 하기 위해, 픽처는 인터 예측 목적으로, 공간 해상도가 현재 픽처의 공간 해상도와는 다른 하나 이상의 참조 픽처들을 참조하는 것이 가능할 필요가 있다. 결과적으로, 현재 픽처의 인코딩 및 디코딩을 위해 이러한 참조 픽처 또는 그 일부의 리샘플링이 필요하다. 따라서 명칭이 RPR이다. 이 특징은 또한 적응적 해상도 변화(ARC: adaptive resolution change) 또는 다른 명칭들로 지칭될 수 있다. 다음을 포함하여 RPR 특징으로부터 이익을 얻을 사용 사례들 또는 응용 시나리오들이 있다.
비디오 전화 및 회의에서의 레이트 적응. 이는 코딩된 비디오를 변화하는 네트워크 조건들에 적응시키기 위한 것이다. 네트워크 조건들이 악화되어 이용 가능한 대역폭이 더 낮아지면, 인코더는 더 작은 해상도의 픽처들을 인코딩함으로써 이에 적응할 수 있다.
다자간 비디오 회의에서의 활성 발언자 변경. 다자간 비디오 회의의 경우, 활성 발언자에 대한 비디오 크기가 나머지 회의 참가자들에 대한 비디오 크기보다 더 크거나 더 넓은 것이 일반적이다. 활성 발언자가 변경될 때, 각각의 참가자에 대한 픽처 해상도가 또한 조정될 필요가 있을 수 있다. 활성 발언자의 변경이 빈번하게 발생할 때, ARC 특징들을 가질 필요성이 더 중요해진다.
스트리밍의 빠른 시작. 스트리밍 애플리케이션의 경우, 애플리케이션이 픽처들을 디스플레이하기 시작하기 전에 특정 길이의 디코딩된 픽처까지 버퍼링하는 것이 일반적이다. 더 작은 해상도로 비트스트림을 시작하는 것은 애플리케이션이 더 빨리 디스플레이하기 시작하기에 충분한 픽처들을 버퍼에 가질 수 있게 할 것이다.
스트리밍에서의 적응적 스트림 스위칭. HTTP를 통한 동적 적응 스트리밍(DASH: Dynamic Adaptive Streaming over HTTP) 규격은 @mediaStreamStructureId라는 명칭의 특징을 포함한다. 이 특징은 비-디코딩 가능 리딩 픽처들, 예컨대 HEVC에서 연관된 RASL 픽처들을 갖는 CRA 픽처들을 갖는 개방형 GOP 랜덤 액세스 포인트들에서 상이한 표현들 간에 스위칭을 가능하게 한다. 동일한 비디오의 2개의 상이한 표현들이 상이한 비트 레이트들을 갖지만 동일한 공간 해상도를 갖는 한편, 이러한 표현들이 동일한 값의 @mediaStreamStructureId를 가질 때, 연관된 RASL 픽처들을 갖는 CRA 픽처에서의 2개의 표현들 간의 스위칭이 수행될 수 있고, CRA 픽처들에서의 스위칭과 연관된 RASL 픽처들은 용인 가능한 품질로 디코딩될 수 있고, 그에 따라 심리스(seamless) 스위칭을 가능하게 할 수 있다. ARC의 경우, @mediaStreamStructureId 피처는 또한 상이한 공간 해상도들을 갖는 DASH 표현들 간에 스위칭하는 데 사용 가능할 것이다.
다양한 방법들은 RPR/ARC를 지원하기 위한 기본 기술들, 이를테면 픽처 해상도들의 리스트들의 시그널링, DPB에서의 참조 픽처들의 리샘플링의 일부 제약들 등을 가능하게 한다. 더욱이, 제네바에서 열린 제14차 JVET 회의 동안, RPR을 지원하기 위해 VVC에 적용되어야 하는 제약들을 제안하는 여러 입력 기여들이 있었다. 제안된 제약들은 다음을 포함한다.
현재 픽처가 현재 픽처와 상이한 해상도를 갖는 참조 픽처들을 참조할 때, 현재 픽처 내의 블록들의 코딩을 위해 일부 툴들은 디세이블될 것이다. 툴들은 다음을 포함한다.
시간적 모션 벡터 예측(TMVP: temporal motion vector prediction) 및 고급 TMVP(ATMVP: advanced TMVP). 이는 JVET-N0118에 의해 제안되었다.
디코더 측 모션 벡터 개선(DMVR). 이는 JVET-N0279에 의해 제안되었다.
양방향 광학 흐름(BIO: bi-directional optical flow). 이는 JVET-N0279에 의해 제안되었다.
현재 픽처와 상이한 해상도를 갖는 참조 픽처로부터의 블록의 양방향 예측은 허용되지 않는다. 이는 JVET-N0118에 의해 제안되었다.
모션 보상을 위해, 샘플 필터링은 단 한 번만 적용되어야 하는데, 즉 더 미세한 픽셀 해상도(예컨대, 1/4 픽셀 해상도)에 도달하기 위한 리샘플링 및 보간이 필요하다면, 2개의 필터들이 조합되어 한 번만 적용될 필요가 있다. 이는 JVET-N0118에 의해 제안되었다.
비디오 코딩에서의 확장성은 대개 다중 계층 코딩 기술들을 사용함으로써 지원된다. 다중 계층 비트스트림은 기본 계층(BL: base layer) 및 하나 이상의 강화 계층(EL: enhancement layer)들을 포함한다. 확장성들의 예는 공간 확장성, 품질/신호대 잡음비(SNR: signal-to-noise ratio) 확장성, 다시점 확장성 등을 포함한다. (1) 참조 픽처를 사용하지 않고, 즉 인트라 예측을 사용하지 않고; (2) 동일한 계층에 있는 참조 픽처들을 참조함으로써, 즉 인터 예측을 사용함으로써; 또는 (3) 다른 계층(들)에 있는 참조 픽처들을 참조함으로써, 즉 계층 간 예측을 사용함으로써, 픽처 또는 픽처의 일부가 코딩될 수 있다. 현재 픽처의 계층 간 예측을 위해 사용되는 참조 픽처는 계층 간 참조 픽처(ILRP: inter-layer reference picture)로 지칭된다.
도 5는 공간 확장성(500)을 위한 다중 계층 코딩의 일례를 예시한다. 계층 N의 픽처들(502)은 계층 N+1의 픽처들(504)과 상이한 해상도(예컨대, 더 낮은 해상도)를 갖는다. 일 실시예에서, 위에서 설명된 바와 같이, 계층 N은 기본 계층인 것으로 간주되고 계층 N+1은 강화 계층인 것으로 간주된다. 계층 N의 픽처들(502) 및 계층 N+1의 픽처들(504)은 (실선 화살표로 도시된 바와 같이) 인터 예측을 사용하여 코딩될 수 있다. 픽처들(502)은 또한 (파선 화살표로 도시된 바와 같이) 계층 간 예측을 사용하여 코딩될 수 있다.
RPR과 관련하여, 참조 픽처는 하위 계층으로부터 참조 픽처를 선택함으로써 또는 하위 계층 참조 픽처에 기반하여 상위 계층 참조 픽처를 생성하기 위해 계층 간 예측을 사용함으로써 리샘플링될 수 있다.
이전의 H.26x 비디오 코딩군들은 단일 계층 코딩을 위한 프로파일(들)과 별개의 프로파일(들)에서의 확장성에 대한 지원을 제공하였다. 스케일러블 비디오 코딩(SVC)은 공간적, 시간적 및 품질 확장성들에 대한 지원을 제공하는 AVC/H.264의 스케일러블 확장이다. SVC의 경우, 하위 계층으로부터의 콜로케이트(collocate)된 블록을 사용하여 EL 매크로블록(MB: macroblock)이 예측되는지 여부를 지시하도록 EL 픽처들의 각각의 MB에서 플래그가 시그널링된다. 콜로케이트된 블록으로부터의 예측은 텍스처, 모션 벡터들 및/또는 코딩 모드들을 포함할 수 있다. SVC의 구현들은 이들의 설계에서 수정되지 않은 H.264/AVC 구현들을 직접적으로 재사용할 수 없다. SVC EL 매크로블록 신택스 및 디코딩 프로세스는 H.264/AVC 신택스 및 디코딩 프로세스와 상이하다.
스케일러블 HEVC(SHVC)는 공간 및 품질 확장성들에 대한 지원을 제공하는 HEVC/H.265 표준의 확장이고, 다시점 HEVC(MV-HEVC)는 다시점 확장성에 대한 지원을 제공하는 HEVC/H.265의 확장이며, 3D HEVC(3D-HEVC)는 MV-HEVC보다 더 진보되고 더 효율적인 3차원(3D: three dimensional) 비디오 코딩에 대한 지원들을 제공하는 HEVC/H.264의 확장이다. 시간적 확장성은 단일 계층 HEVC 코덱의 통합 부분으로서 포함된다는 점을 주목한다. HEVC의 다중 계층 확장의 설계는, 계층 간 예측에 사용되는 디코딩된 픽처들이 오직 동일한 액세스 유닛(AU: access unit)으로부터만 나오고 장기 참조 픽처(LTRP: long-term reference picture)들로서 취급되며, 이러한 픽처들에 현재 계층의 다른 시간적 참조 픽처들과 함께 참조 픽처 리스트(들) 내의 참조 인덱스들이 할당되는 아이디어를 이용한다. 참조 픽처 리스트(들) 내의 계층 간 참조 픽처(들)를 참조하도록 참조 인덱스의 값을 설정함으로써 예측 유닛(PU) 레벨에서 계층 간 예측(ILP: inter-layer prediction)이 달성된다.
특히, 참조 픽처 리샘플링 및 공간 확장성 특징들 모두가 참조 픽처 또는 그 일부의 리샘플링을 요구한다. 참조 픽처 리샘플링은 픽처 레벨 또는 코딩 블록 레벨에서 실현될 수 있다. 그러나 RPR이 코딩 특징으로 지칭될 때, 이는 단일 계층 코딩을 위한 특징이다. 그럼에도 불구하고, 코덱 설계 관점에서, 단일 계층 코딩의 RPR 특징 및 다중 계층 코딩을 위한 공간 확장성 특징 모두에 대해 동일한 리샘플링 필터를 사용하는 것이 가능하거나 심지어 바람직하다.
JVET-N0279는 RPR에 대해 DMVR을 디세이블하는 것을 제안했다. 보다 정확하게, 이는 RPR이 인에이블될 때 전체 코딩된 비디오 시퀀스(CVS)에 대한 DMVR의 사용을 디세이블하는 것을 제안했다. RPR 특징이 인에이블되는 경우에도, 많은 경우들에 현재 픽처는 상이한 해상도를 갖는 참조 픽처를 참조하지 않는다는 것이 관찰된다. 따라서 전체 CVS에 대해 DMVR을 디세이블하는 것은 불필요하게 제한되고 코딩 효율을 손상시킬 수 있다.
본 명세서에서는 RPR이 인에이블될 때 전체 CVS에 대해 DMVR을 디세이블해야 하는 것이 아니라, 현재 픽처의 공간 해상도가 참조 픽처들의 공간 해상도와 상이할 때 DMVR이 선택적으로 디세이블될 수 있게 하는 기술들이 개시된다. 이런 식으로 DMVR을 선택적으로 디세이블하는 능력을 가짐으로써, 코딩 효율이 향상될 수 있다. 따라서 인코더와 디코더 모두에서 프로세서, 메모리 및/또는 네트워크 자원들의 사용이 감소될 수 있다. 따라서 비디오 코딩에서의 코더/디코더(일명 "코덱")는 현재 코덱들에 비해 개선된다. 실질적인 문제로서, 개선된 비디오 코딩 프로세스는 비디오들이 전송되고, 수신되고 그리고/또는 보여질 때 사용자에게 더 나은 사용자 경험을 제공한다.
도 6은 단방향 인터 예측(600)의 일례를 예시하는 개략도이다. 픽처를 파티셔닝할 때 생성된 인코딩 및/또는 디코딩된 블록들에 대한 모션 벡터들을 결정하기 위해 단방향 인터 예측(600)이 이용될 수 있다.
단방향 인터 예측(600)은 현재 프레임(610)에서 현재 블록(611)을 예측하기 위해 참조 블록(631)을 갖는 참조 프레임(630)을 이용한다. 참조 프레임(630)은 도시된 바와 같이 시간상 (예컨대, 후속 참조 프레임으로서) 현재 프레임(610) 뒤에 포지셔닝될 수 있지만, 또한 일부 예들에서는 현재 프레임(610) 앞에 시간상 (예컨대, 선행 참조 프레임으로서) 포지셔닝될 수 있다. 현재 프레임(610)은 특정 시점에 인코딩/디코딩되는 예시적인 프레임/픽처이다. 현재 프레임(610)은 참조 프레임(630)의 참조 블록(631)의 객체와 매칭하는 현재 블록(611)의 객체를 포함한다. 참조 프레임(630)은 현재 프레임(610)을 인코딩하기 위한 기준으로서 이용되는 프레임이고, 참조 블록(631)은 현재 프레임(610)의 현재 블록(611)에 또한 포함된 객체를 포함하는 참조 프레임(630)의 블록이다.
현재 블록(611)은 코딩 프로세스의 특정된 포인트에서 인코딩/디코딩되고 있는 임의의 코딩 유닛이다. 현재 블록(611)은 전체 파티셔닝된 블록일 수 있거나, 아핀(affine) 인터 예측 모드를 이용할 때 서브블록일 수 있다. 현재 프레임(610)은 어떤 시간 거리(TD: temporal distance)(633)만큼 참조 프레임(630)으로부터 분리된다. TD(633)는 비디오 시퀀스에서 현재 프레임(610)과 참조 프레임(630) 사이의 시간의 양을 지시하며, 프레임들의 단위로 측정될 수 있다. 현재 블록(611)에 대한 예측 정보는 프레임들 사이의 방향 및 시간 거리를 지시하는 참조 인덱스에 의해 참조 프레임(630) 및/또는 참조 블록(631)을 참조할 수 있다. TD(633)에 의해 표현된 시간 기간에 걸쳐, 현재 블록(611)의 객체는 현재 프레임(610)의 포지션으로부터 참조 프레임(630)의 다른 포지션(예컨대, 참조 블록(631)의 포지션)으로 이동한다. 예를 들어, 객체는 시간에 걸친 객체의 이동 방향인 모션 궤적(613)을 따라 이동할 수 있다. 모션 벡터(635)는 TD(633)에 걸친 모션 궤적(613)을 따르는 객체의 이동의 방향 및 크기를 설명한다. 이에 따라, 인코딩된 모션 벡터(635), 참조 블록(631), 및 현재 블록(611)과 참조 블록(631) 간의 차이를 포함하는 잔차는 현재 블록(611)을 재구성하고 현재 프레임(610)에 현재 블록(611)을 포지셔닝하기에 충분한 정보를 제공한다.
도 7은 양방향 인터 예측(700)의 일례를 예시하는 개략도이다. 픽처를 파티셔닝할 때 생성된 인코딩 및/또는 디코딩된 블록들에 대한 모션 벡터들을 결정하기 위해 양방향 인터 예측(700)이 이용될 수 있다.
양방향 인터 예측(700)은 단방향 인터 예측(600)과 유사하지만, 한 쌍의 참조 프레임들을 이용하여 현재 프레임(710)에서 현재 블록(711)을 예측한다. 그러므로 현재 프레임(710) 및 현재 블록(711)은 각각 현재 프레임(610) 및 현재 블록(611)과 실질적으로 유사하다. 현재 프레임(710)은 시간상, 비디오 시퀀스에서 현재 프레임(710) 이전에 발생하는 선행 참조 프레임(720)과 비디오 시퀀스에서 현재 프레임(710) 이후에 발생하는 후속 참조 프레임(730) 사이에 포지셔닝된다. 선행 참조 프레임(720) 및 후속 참조 프레임(730)은 다른 경우에는 참조 프레임(630)과 실질적으로 유사하다.
현재 블록(711)은 선행 참조 프레임(720)의 선행 참조 블록(721) 및 후속 참조 프레임(730)의 후속 참조 블록(731)에 매칭된다. 이러한 매치는 비디오 시퀀스의 과정에 걸쳐, 객체가 모션 궤적(713)을 따라 그리고 현재 블록(711)을 통해 선행 참조 블록(721)의 포지션으로부터 후속 참조 블록(731)의 포지션으로 이동함을 지시한다. 현재 프레임(710)은 어떤 선행 시간 거리(TD0)(723)만큼 선행 참조 프레임(720)으로부터 분리되고, 어떤 후속 시간 거리(TD1)(733)만큼 후속 참조 프레임(730)으로부터 분리된다. TD0(723)은 비디오 시퀀스에서 선행 참조 프레임(720)과 현재 프레임(710) 사이의 시간량을 프레임 단위로 지시한다. TD1(733)은 비디오 시퀀스에서 현재 프레임(710)과 후속 참조 프레임(730) 사이의 시간량을 프레임 단위로 지시한다. 그러므로 객체는 TD0(723)에 의해 지시된 시간 기간에 걸쳐 모션 궤적(713)을 따라 선행 참조 블록(721)으로부터 현재 블록(711)으로 이동한다. 객체는 또한 TD1(733)에 의해 지시된 시간 기간에 걸쳐 모션 궤적(713)을 따라 현재 블록(711)으로부터 후속 참조 블록(731)으로 이동한다. 현재 블록(711)에 대한 예측 정보는 프레임들 사이의 방향 및 시간 거리를 지시하는 한 쌍의 참조 인덱스들에 의해 선행 참조 프레임(720) 및/또는 선행 참조 블록(721) 및 후속 참조 프레임(730) 및/또는 후속 참조 블록(731)을 참조할 수 있다.
선행 모션 벡터(MV0)(725)는 (예컨대, 선행 참조 프레임(720)과 현재 프레임(710) 사이의) TD0(723)에 걸친 모션 궤적(713)을 따르는 객체의 이동의 방향 및 크기를 설명한다. 후속 모션 벡터(MV1)(735)는 (예컨대, 현재 프레임(710)과 후속 참조 프레임(730) 사이의) TD1(733)에 걸친 모션 궤적(713)을 따르는 객체의 이동의 방향 및 크기를 설명한다. 이에 따라, 양방향 인터 예측(700)에서, 현재 블록(711)은 선행 참조 블록(721) 및/또는 후속 참조 블록(731), MV0(725) 및 MV1(735)을 이용함으로써 코딩 및 재구성될 수 있다.
일 실시예에서, 인터 예측 및/또는 양방향 인터 예측은 블록 단위 대신에 샘플 단위(예컨대, 픽셀 단위)로 실행될 수 있다. 즉, 선행 참조 블록(721) 및/또는 후속 참조 블록(731)의 각각의 샘플을 가리키는 모션 벡터가 현재 블록(711)의 각각의 샘플에 대해 결정될 수 있다. 이러한 실시예들에서, 도 7에 도시된 모션 벡터(725) 및 모션 벡터(735)는 현재 블록(711), 선행 참조 블록(721) 및 후속 참조 블록(731)에서의 복수의 샘플들에 대응하는 복수의 모션 벡터들을 표현한다.
병합 모드 및 고급 모션 벡터 예측(AMVP: advanced motion vector prediction) 모드 모두에서, 후보 리스트 결정 패턴에 의해 정의된 순서로 후보 모션 벡터들을 후보 리스트에 추가함으로써 후보 리스트가 생성된다. 이러한 후보 모션 벡터들은 단방향 인터 예측(600), 양방향 인터 예측(700), 또는 이들의 조합들에 따른 모션 벡터들을 포함할 수 있다. 구체적으로, 이웃 블록들에 대해 그러한 블록들이 인코딩될 때 모션 벡터들이 생성된다. 그러한 모션 벡터들은 현재 블록에 대한 후보 리스트에 추가되고, 현재 블록에 대한 모션 벡터가 후보 리스트로부터 선택된다. 이어서, 모션 벡터는 후보 리스트에서 선택된 모션 벡터의 인덱스로서 시그널링될 수 있다. 디코더는 인코더와 동일한 프로세스를 사용하여 후보 리스트를 구성할 수 있고, 시그널링된 인덱스에 기초하여 후보 리스트로부터 선택된 모션 벡터를 결정할 수 있다. 그러므로 후보 모션 벡터들은, 이러한 이웃 블록들이 인코딩될 때 어느 접근 방식이 사용되는지에 따라, 단방향 인터 예측(600) 및/또는 양방향 인터 예측(700)에 따라 생성된 모션 벡터들을 포함한다.
도 8은 비디오 비트스트림(800)을 예시한다. 본 명세서에서 사용되는 바와 같이, 비디오 비트스트림(800)은 또한 코딩된 비디오 비트스트림, 비트스트림 또는 이들의 변형들로 지칭될 수 있다. 도 8에 도시된 바와 같이, 비트스트림(800)은 시퀀스 파라미터 세트(SPS: sequence parameter set)(802), 픽처 파라미터 세트(PPS: picture parameter set)(804), 슬라이스 헤더(806) 및 이미지 데이터(808)를 포함한다.
SPS(802)는 픽처들의 시퀀스(SOP: sequence of pictures)의 모든 픽처들에 공통인 데이터를 포함한다. 이에 반해, PPS(804)는 전체 픽처에 공통인 데이터를 포함한다. 슬라이스 헤더(806)는 예를 들어, 슬라이스 타입, 참조 픽처들 중 어느 것이 사용될지 등과 같은 현재 슬라이스에 관한 정보를 포함한다. SPS(802) 및 PPS(804)는 일반적으로 파라미터 세트로 지칭될 수 있다. SPS(802), PPS(804) 및 슬라이스 헤더(806)는 네트워크 추상화 계층(NAL) 유닛들의 타입들이다. NAL 유닛은 뒤따르는 데이터(예컨대, 코딩된 비디오 데이터)의 타입의 지시를 포함하는 신택스 구조이다. NAL 유닛들은 비디오 코딩 계층(VCL: video coding layer) 및 비-VCL NAL 유닛들로 분류된다. VCL NAL 유닛들은 비디오 픽처들 내의 샘플들의 값들을 표현하는 데이터를 포함하고, 비-VCL NAL 유닛들은 파라미터 세트들(많은 수의 VCL NAL 유닛들에 적용될 수 있는 중요한 헤더 데이터)과 같은 임의의 연관된 추가 정보 및 보조 강화 정보(디코딩된 비디오 신호의 사용성을 향상시킬 수 있지만 비디오 픽처들 내의 샘플들의 값들을 디코딩하는 데 필요하지 않은 타이밍 정보 및 다른 보조 데이터)를 포함한다. 당해 기술분야에서 통상의 지식을 가진 자들은 비트스트림(800)이 실제 응용들에서 다른 파라미터들 및 정보를 포함할 수 있다고 인식할 것이다.
도 8의 이미지 데이터(808)는 인코딩 또는 디코딩되는 이미지들 또는 비디오와 연관된 데이터를 포함한다. 이미지 데이터(808)는 단순히 비트스트림(800)에서 전달되는 페이로드 또는 데이터로 지칭될 수 있다. 일 실시예에서, 이미지 데이터(808)는 복수의 픽처들(810)을 포함하는 CVS(814)(또는 CLVS)를 포함한다. CVS(814)는 비디오 비트스트림(800) 내의 모든 각각의 코딩된 계층 비디오 시퀀스(CLVS: coded layer video sequence)에 대한 코딩된 비디오 시퀀스이다. 특히, CVS와 CLVS는 비디오 비트스트림(800)이 단일 계층을 포함할 때 동일하다. CVS와 CLVS는 비디오 비트스트림(800)이 다수의 계층들을 포함할 때만 상이하다.
각각의 픽처(810)의 슬라이스는 그 자체의 VCL NAL 유닛(812) 내에 포함될 수 있다. CVS(814) 내의 VCL NAL 유닛들(812)의 세트는 액세스 유닛으로 지칭될 수 있다.
도 9는 픽처(910)에 대한 파티셔닝 기술(900)을 예시한다. 픽처(910)는 도 8의 픽처들(810) 중 임의의 픽처와 유사할 수 있다. 도시된 바와 같이, 픽처(910)는 복수의 슬라이스들(912)로 파티셔닝될 수 있다. 슬라이스는 동일한 프레임 내의 임의의 다른 영역과 별개로 인코딩되는 프레임(예컨대, 픽처)의 공간적으로 별개의 영역이다. 도 9에 3개의 슬라이스들(912)이 도시되지만, 실제 응용들에서는 더 많은 또는 더 적은 슬라이스들이 사용될 수 있다. 각각의 슬라이스(912)는 복수의 블록들(914)로 파티셔닝될 수 있다. 도 9의 블록들(914)은 도 7의 현재 블록(711), 선행 참조 블록(721) 및 후속 참조 블록(731)과 유사할 수 있다. 블록(914)은 CU를 나타낼 수 있다. 도 9에는 4개의 블록들(914)이 도시되어 있지만, 실제 응용들에서는 더 많은 또는 더 적은 블록들이 사용될 수 있다.
각각의 블록(914)은 복수의 샘플들(916)(예컨대, 픽셀들)로 파티셔닝될 수 있다. 일 실시예에서, 각각의 블록(914)의 크기는 루마 샘플들에서 측정된다. 도 9에는 16개의 샘플들(916)이 도시되지만, 실제 응용들에서는 더 많은 또는 더 적은 샘플들이 사용될 수 있다.
도 10은 비디오 디코더(예컨대, 비디오 디코더(30))에 의해 구현되는, 코딩된 비디오 비트스트림을 디코딩하는 방법(1000)의 일 실시예이다. 이 방법(1000)은 디코딩된 비트스트림이 비디오 인코더(예컨대, 비디오 인코더(20))로부터 직접 또는 간접적으로 수신된 후에 수행될 수 있다. 이 방법(1000)은 RPR이 인에이블될 때 전체 CVS에 대해 DMVR을 디세이블해야 하는 것이 아니라, 현재 픽처의 공간 해상도가 참조 픽처들의 공간 해상도와 상이할 때 DMVR이 선택적으로 디세이블될 수 있게 함으로써 디코딩 프로세스를 개선한다. 이런 식으로 DMVR을 선택적으로 디세이블하는 능력을 가짐으로써, 코딩 효율이 향상될 수 있다. 따라서 실질적인 문제로서, 코덱의 성능이 개선되고, 이는 더 양호한 사용자 경험으로 이어진다.
블록(1002)에서, 비디오 디코더는 디코딩되는 현재 픽처의 해상도가 참조 픽처 리스트에 의해 식별된 참조 픽처들의 해상도와 동일한지 여부를 결정한다. 일 실시예에서, 비디오 디코더는 코딩된 비디오 비트스트림(예컨대, 비트스트림(800))을 수신한다. 코딩된 비디오 비트스트림은 참조 픽처 리스트들을 포함하고, 현재 픽처의 해상도를 지시하며, 양방향 인터 예측 모드를 지시한다. 일 실시예에서, 참조 픽처 리스트 구조는 참조 픽처 리스트들을 포함한다. 일 실시예에서, 참조 픽처 리스트들은 양방향 인터 예측을 위해 사용된다. 일 실시예에서, 현재 픽처의 해상도는 코딩된 비디오 비트스트림의 파라미터 세트에 배치된다. 일 실시예에서, 참조 픽처들의 해상도는 현재 픽처에 기반하여 도출되거나, 현재 픽처의 해상도에 기반하여 추론되거나, 비트스트림으로부터 파싱되거나, 아니면 획득된다. 일 실시예에서, 현재 픽처에 대한 참조 픽처들은 양방향 인터 예측 모드에 따라 참조 픽처 리스트들에 기초하여 생성된다.
블록(1004)에서, 비디오 디코더는 현재 픽처의 해상도가 참조 픽처들 각각의 해상도와 동일한 것으로 결정될 때, 현재 픽처의 현재 블록에 대해 DMVR을 인에이블한다. 일 실시예에서, 비디오 디코더는 DMVR 플래그를 제1 값(예컨대, 참, 1 등)으로 설정함으로써 DMVR을 인에이블한다. 일 실시예에서, DMVR은 DMVR이 인에이블되는 경우에도 선택적인 프로세스이다. 즉, DMVR이 인에이블되는 경우에도 DMVR이 수행될 필요가 없다.
블록(1006)에서, 비디오 디코더는 현재 픽처의 해상도가 참조 픽처들 중 어느 하나의 해상도와 상이할 때 현재 픽처의 현재 블록에 대해 DMVR을 디세이블한다. 일 실시예에서, 비디오 디코더는 DMVR 플래그를 제2 값(예컨대, 거짓, 0)으로 설정함으로써 DMVR을 디세이블한다.
블록(1008)에서, 비디오 디코더는 DMVR 플래그가 제1 값으로 설정될 때 현재 블록에 대응하는 모션 벡터들을 개선한다. 일 실시예에서, 이 방법(1000)은, 현재 픽처의 해상도가 참조 픽처들의 해상도와 상이한지 또는 동일한지에 따라 현재 픽처 내의 다른 블록들에 대해 DMVR을 선택적으로 인에이블 및 디세이블하는 단계를 더 포함한다.
일 실시예에서, 이 방법은 DMVR이 디세이블되는 경우에도 현재 픽처를 포함하는 전체 코딩된 비디오 시퀀스(CVS)에 대해 참조 픽처 리샘플링(RPR)을 인에이블하는 단계를 더 포함한다.
일 실시예에서, 현재 블록은 현재 픽처의 슬라이스로부터 획득된다. 일 실시예에서, 현재 픽처는 복수의 슬라이스들을 포함하고, 현재 블록은 복수의 슬라이스들로부터의 슬라이스로부터 획득된다.
일 실시예에서, 현재 픽처에 기반하여 생성된 이미지가 전자 디바이스(예컨대, 스마트폰, 태블릿, 랩톱, 개인용 컴퓨터 등)의 사용자에 대해 디스플레이된다.
도 11은 비디오 인코더(예컨대, 비디오 인코더(20))에 의해 구현된 비디오 비트스트림을 인코딩하는 방법(1100)의 일 실시예이다. 이 방법(1100)은 (예컨대, 비디오로부터의) 픽처가 비디오 비트스트림으로 인코딩된 다음 비디오 디코더(예컨대, 비디오 디코더(30))를 향해 전송될 때 수행될 수 있다. 이 방법(1100)은 RPR이 인에이블될 때 전체 CVS에 대해 DMVR을 디세이블해야 하는 것이 아니라, 현재 픽처의 공간 해상도가 참조 픽처들의 공간 해상도와 상이할 때 DMVR이 선택적으로 디세이블될 수 있게 함으로써 인코딩 프로세스를 개선한다. 이런 식으로 DMVR을 선택적으로 디세이블하는 능력을 가짐으로써, 코딩 효율이 향상될 수 있다. 따라서 실질적인 문제로서, 코덱의 성능이 개선되고, 이는 더 양호한 사용자 경험으로 이어진다.
블록(1102)에서, 비디오 인코더는 인코딩되는 현재 픽처의 해상도가 참조 픽처 리스트에 의해 식별된 참조 픽처들의 해상도와 동일한지 여부를 결정한다. 일 실시예에서, 참조 픽처 리스트 구조는 참조 픽처 리스트들을 포함한다. 일 실시예에서, 참조 픽처 리스트들은 양방향 인터 예측을 위해 사용된다. 일 실시예에서, 현재 픽처의 해상도는 비디오 비트스트림의 파라미터 세트로 인코딩된다. 일 실시예에서, 현재 픽처에 대한 참조 픽처들은 양방향 인터 예측 모드에 따라 참조 픽처 리스트들에 기초하여 생성된다.
블록(1104)에서, 비디오 인코더는 현재 픽처의 해상도가 참조 픽처들 각각의 해상도와 동일한 것으로 결정될 때, 현재 픽처의 현재 블록에 대해 DMVR을 인에이블한다. 일 실시예에서, 비디오 인코더는 DMVR 플래그를 제1 값(예컨대, 참, 1 등)으로 설정함으로써 DMVR을 인에이블한다. 일 실시예에서, DMVR은 DMVR이 인에이블되는 경우에도 선택적인 프로세스이다. 즉, DMVR이 인에이블되는 경우에도 DMVR이 수행될 필요가 없다.
일 실시예에서, 이 방법은 참조 픽처들에 기초하여 현재 픽처에 대한 모션 벡터들을 결정하는 단계, 모션 벡터들에 기초하여 현재 픽처를 인코딩하는 단계, 및 가상의 기준 디코더(HRD: hypothetical reference decoder)를 사용하여 현재 픽처를 디코딩하는 단계를 포함한다.
블록(1106)에서, 비디오 인코더는 현재 픽처의 해상도가 참조 픽처들 중 어느 하나의 해상도와 상이할 때 현재 픽처의 현재 블록에 대해 DMVR을 디세이블한다. 일 실시예에서, 비디오 인코더는 DMVR 플래그를 제2 값(예컨대, 거짓, 0)으로 설정함으로써 DMVR을 디세이블한다.
블록(1108)에서, 비디오 인코더는 DMVR 플래그가 제1 값으로 설정될 때 현재 블록에 대응하는 모션 벡터들을 개선한다. 일 실시예에서, 이 방법(1100)은, 현재 픽처의 해상도가 참조 픽처들의 해상도와 상이한지 또는 동일한지에 따라 현재 픽처 내의 다른 블록들에 대해 DMVR을 선택적으로 인에이블 및 디세이블하는 단계를 더 포함한다.
일 실시예에서, 이 방법은 DMVR이 디세이블되는 경우에도 현재 픽처를 포함하는 전체 코딩된 비디오 시퀀스(CVS)에 대해 참조 픽처 리샘플링(RPR)을 인에이블하는 단계를 더 포함한다.
일 실시예에서, 현재 블록은 현재 픽처의 슬라이스로부터 획득된다. 일 실시예에서, 현재 픽처는 복수의 슬라이스들을 포함하고, 현재 블록은 복수의 슬라이스들로부터의 슬라이스로부터 획득된다.
일 실시예에서, 비디오 인코더는 현재 블록을 포함하는 비디오 비트스트림을 생성하고 비디오 비트스트림을 비디오 디코더를 향해 전송한다. 일 실시예에서, 비디오 인코더는 비디오 디코더를 향한 전송을 위해 비디오 비트스트림을 저장한다.
일 실시예에서, 비디오 비트스트림을 디코딩하기 위한 방법이 개시된다. 비디오 비트스트림은 적어도 하나의 픽처를 포함한다. 각각의 픽처는 복수의 슬라이스들을 포함한다. 복수의 슬라이스들의 각각의 슬라이스는 복수의 코딩 블록들 및 복수의 참조 픽처 리스트들을 포함한다. 복수의 참조 픽처 리스트들의 각각의 참조 픽처 리스트는 슬라이스 내의 코딩 블록들의 인터 예측을 위해 사용될 수 있는 복수의 참조 픽처들을 포함한다.
이 방법은, 현재 픽처의 해상도 정보를 획득하기 위해 파라미터 세트를 파싱하는 단계; 현재 픽처에서 현재 슬라이스의 2개의 참조 픽처 리스트들을 획득하는 단계; 현재 슬라이스에서 현재 코딩 블록을 디코딩하기 위한 참조 픽처를 결정하는 단계; 참조 픽처의 해상도를 결정하는 단계; 현재 픽처 및 참조 픽처의 해상도들에 기초하여 현재 코딩 블록의 디코딩에 대해 디코더 측 모션 벡터 개선(DMVR)이 사용되는지 또는 인에이블되는지를 결정하는 단계; 및 현재 코딩 블록을 디코딩하는 단계를 포함한다.
일 실시예에서, 현재 픽처 및 참조 픽처의 해상도들이 상이할 때는 현재 코딩 블록의 디코딩에 대해 DMVR이 사용되지 않거나 디세이블된다.
일 실시예에서, 비디오 비트스트림을 디코딩하기 위한 방법이 개시된다. 비디오 비트스트림은 적어도 하나의 픽처를 포함한다. 각각의 픽처는 복수의 슬라이스들을 포함한다. 복수의 슬라이스들의 각각의 슬라이스는 복수의 신택스 엘리먼트들을 포함하는 헤더와 연관된다. 복수의 슬라이스들의 각각의 슬라이스는 복수의 코딩 블록들 및 복수의 참조 픽처 리스트들을 포함한다. 복수의 참조 픽처 리스트들의 각각의 참조 픽처 리스트는 현재 슬라이스 내의 코딩 블록들의 인터 예측을 위해 사용될 수 있는 복수의 참조 픽처들을 포함한다.
이 방법은, 현재 코딩된 비디오 시퀀스에서 픽처들의 디코딩에 대해 디코더 측 모션 벡터 개선(DMVR) 코딩 툴/기술이 사용될 수 있는지 여부를 특정하는 플래그를 획득하기 위해 파라미터 세트를 파싱하는 단계; 현재 픽처에서 현재 슬라이스를 획득하는 단계; 및 현재 코딩된 비디오 시퀀스에서 픽처들의 디코딩에 대해 디코더 측 모션 벡터 개선(DMVR) 코딩 툴/기술이 사용될 수 있는지 여부를 특정하는 플래그의 값이 DMVR이 사용될 수 있음을 특정할 때, 현재 슬라이스 내의 코딩 블록들의 디코딩에 DMVR 코딩 툴이 사용될 수 있는지 여부를 특정하는 플래그를 획득하기 위해 현재 슬라이스와 연관된 슬라이스 헤더를 파싱하는 단계를 포함한다.
일 실시예에서, 현재 슬라이스 내의 코딩 블록들의 디코딩에 DMVR 코딩 툴이 사용될 수 있는지 여부를 특정하는 플래그의 값이 현재 슬라이스의 디코딩에 코딩 툴이 사용되지 않을 수 있음을 특정할 때, 현재 코딩 블록의 디코딩에 대해 DMVR 코딩 툴이 사용되지 않거나 디세이블된다.
일 실시예에서, 현재 슬라이스 내의 코딩 블록들의 디코딩에 DMVR 코딩 툴이 사용될 수 있는지 여부를 특정하는 플래그의 값은, 존재하지 않을 때, 현재 코딩된 비디오 시퀀스에서 픽처들의 디코딩에 디코더 측 모션 벡터 개선(DMVR) 코딩 툴/기술이 사용될 수 있는지 여부를 특정하는 플래그의 값과 동일한 것으로 추론된다.
일 실시예에서, 비디오 비트스트림을 인코딩하기 위한 방법이 개시된다. 비디오 비트스트림은 적어도 하나의 픽처를 포함한다. 각각의 픽처는 복수의 슬라이스들을 포함한다. 복수의 슬라이스들의 각각의 슬라이스는 복수의 신택스 엘리먼트들을 포함하는 헤더와 연관된다. 복수의 슬라이스들의 각각의 슬라이스는 복수의 코딩 블록들 및 복수의 참조 픽처 리스트들을 포함한다. 복수의 참조 픽처 리스트들의 각각의 참조 픽처 리스트는 현재 슬라이스 내의 코딩 블록들의 인터 예측을 위해 사용될 수 있는 복수의 참조 픽처들을 포함한다.
이 방법은, 현재 코딩된 비디오 시퀀스에서 픽처들의 인코딩에 대해 디코더 측 모션 벡터 개선(DMVR) 코딩 툴/기술이 사용될 수 있는지 여부를 결정하는 단계; 각각의 픽처 비트스트림의 해상도 정보를 획득하기 위해 파라미터 세트를 파싱하는 단계; 현재 픽처에서 현재 슬라이스의 2개의 참조 픽처 리스트들을 획득하는 단계; 현재 슬라이스의 코딩 블록들의 디코딩에 사용될 수 있는 활성 참조 픽처들을 획득하기 위해 현재 슬라이스의 참조 픽처 리스트들을 파싱하는 단계; 다음의 조건들: 현재 코딩된 비디오 시퀀스에서 픽처들의 인코딩에 DMVR 코딩 툴이 사용되지 않을 수 있음; 및 참조 픽처 중 적어도 하나 및 현재 픽처의 해상도들이 상이함 중 적어도 하나가 충족된다면, 현재 슬라이스 내의 코딩 블록들의 인코딩에 DMVR 코딩 툴이 사용되지 않을 수 있음을 제한하는 단계를 포함한다.
비디오 비트스트림을 디코딩하기 위한 방법이 개시된다. 비디오 비트스트림은 적어도 하나의 픽처를 포함한다. 각각의 픽처는 복수의 슬라이스들을 포함한다. 복수의 슬라이스들의 각각의 슬라이스는 복수의 신택스 엘리먼트들을 포함하는 헤더와 연관된다. 복수의 슬라이스들의 각각의 슬라이스는 복수의 코딩 블록들 및 복수의 참조 픽처 리스트들을 포함한다. 복수의 참조 픽처 리스트들의 각각의 참조 픽처 리스트는 현재 슬라이스 내의 코딩 블록들의 인터 예측을 위해 사용될 수 있는 복수의 참조 픽처들을 포함한다.
이 방법은, 현재 코딩된 비디오 시퀀스에서 픽처들의 디코딩에 대해 디코더 측 모션 벡터 개선(DMVR) 코딩 툴/기술이 사용될 수 있는지 여부를 특정하는 플래그를 획득하기 위해 파라미터 세트를 파싱하는 단계; 및 파라미터 세트를 참조하는 픽처들의 디코딩에 대해 디코더 측 모션 벡터 개선(DMVR) 코딩 툴/기술이 사용될 수 있는지 여부를 특정하는 플래그를 획득하기 위해 파라미터 세트를 파싱하는 단계를 포함하며, 파라미터 세트는 픽처 파라미터 세트(PPS)이다.
일 실시예에서, PPS를 참조하는 픽처들의 디코딩에 DMVR 코딩 툴이 사용될 수 있는지 여부를 특정하는 플래그의 값이 코딩 툴이 사용되지 않을 수 있음을 특정할 때, 현재 코딩 블록의 DMVR 코딩 툴이 사용되지 않거나 디세이블된다.
일 실시예에서, 비디오 비트스트림을 인코딩하기 위한 방법이 개시된다. 비디오 비트스트림은 적어도 하나의 픽처를 포함한다. 각각의 픽처는 복수의 슬라이스들을 포함한다. 복수의 슬라이스들의 각각의 슬라이스는 복수의 신택스 엘리먼트들을 포함하는 헤더와 연관된다. 복수의 슬라이스들의 각각의 슬라이스는 복수의 코딩 블록들 및 복수의 참조 픽처 리스트들을 포함한다. 복수의 참조 픽처 리스트들의 각각의 참조 픽처 리스트는 현재 슬라이스 내의 코딩 블록들의 인터 예측을 위해 사용될 수 있는 복수의 참조 픽처들을 포함한다.
이 방법은, 현재 코딩된 비디오 시퀀스에서 픽처들의 인코딩에 대해 디코더 측 모션 벡터 개선(DMVR) 코딩 툴/기술이 사용될 수 있는지 여부를 결정하는 단계; 현재 PPS를 참조할 때 픽처들의 인코딩에 대해 디코더 측 모션 벡터 개선(DMVR) 코딩 툴/기술이 사용될 수 있는지 여부를 결정하는 단계; 및 현재 코딩된 시퀀스에서 픽처들의 인코딩에 DMVR 코딩 툴이 사용되지 않을 수 있는 경우, 현재 PPS를 참조할 때 픽처들의 인코딩에 DMVR 코딩 툴이 사용되지 않을 수 있음을 제한하는 단계를 포함한다.
다음의 신택스 및 시맨틱(semantic)들이 본 명세서에 개시된 실시예들을 구현하는 데 이용될 수 있다. 다음의 설명은 최신 VVC 초안 규격인 기본 텍스트에 대한 것이다. 즉, 델타(delta)만이 설명되는 한편, 아래에서 언급되지 않는 기본 텍스트의 텍스트는 그대로 적용된다. 기본 텍스트에 대해 추가된 텍스트는 굵게 도시되고, 제거된 텍스트는 기울임꼴로 도시된다.
다음과 같이 참조 픽처 리스트 구성 프로세스를 업데이트한다.
참조 픽처 리스트들 RefPicList[ 0 ] 및 RefPicList[ 1 ]은 다음과 같이 구성된다:
Figure pct00001
DMVR이 사용되는지 여부를 결정하는 플래그의 도출.
인터 예측 모드에서 코딩된 코딩 유닛들에 대한 디코딩 프로세스는 다음 순서의 단계들을 포함한다.
1. 변수 dmvrFlag는 0과 같게 설정된다.
2. 현재 코딩 유닛의 모션 벡터 컴포넌트들 및 참조 인덱스들은 다음과 같이 도출된다.
MergeTriangleFlag[ xCb ][ yCb ], inter_affine_flag[ xCb ][ yCb ] 및 merge_subblock_flag[ xCb ][ yCb ]가 모두 0과 같다면, 다음이 적용된다:
조항 8.5.2.1에 특정된 바와 같은 모션 벡터 컴포넌트들 및 참조 인덱스들에 대한 도출 프로세스는 입력들로서 루마 코딩 블록 위치( xCb, yCb ), 루마 코딩 블록 폭(cbWidth) 및 루마 코딩 블록 높이(cbHeight)를, 그리고 출력들로서 루마 모션 벡터들(mvL0[ 0 ][ 0 ], mvL1[ 0 ][ 0 ]), 참조 인덱스들(refIdxL0, refIdxL1) 및 예측 리스트 이용 플래그들(predFlagL0[ 0 ][ 0 ], predFlagL1[ 0 ][ 0 ]), 그리고 양방향 예측 가중치 인덱스(bcwIdx)를 이용하여 호출된다.
다음 조건들 모두가 참일 때, dmvrFlag는 1과 같게 설정된다:
sps_dmvr_enabled_flag는 1과 같다
general_merge_flag[ xCb ][ yCb ]는 1과 같다
predFlagL0[ 0 ][ 0 ]과 predFlagL1[ 0 ][ 0 ] 둘 다 1과 같다
mmvd_flag[ xCb ][ yCb ]는 0과 같다
DiffPicOrderCnt( currPic, RefPicList[ 0 ][ refIdxL0 ])은 DiffPicOrderCnt( RefPicList[ 1 ][ refIdxL1 ], currPic )과 같다
BcwIdx[ xCb ][ yCb ]는 0과 같다
luma_weight_l0_flag[ refIdxL0 ]과 luma_weight_l1_flag[ refIdxL1 ] 둘 다 0과 같다
cbWidth는 8 이상이다
cbHeight는 8 이상이다
cbHeight*cbWidth는 128 이상이다
RefPicSameSizeFlag[ 0 ][ refIdxL0 ]은 1과 같다
RefPicSameSizeFlag[ 1 ][ refIdxL1 ]은 1과 같다.
시퀀스 파라미터 세트 신택스 및 시맨틱들이 제공된다.
Figure pct00002
1과 같은 sps_dmvr_enabled_flag는 디코더 모션 벡터 개선 기반 인터 양방향 예측이 인에이블됨을 특정한다. 0과 같은 sps_dmvr_enabled_flag는 디코더 모션 벡터 개선 기반 인터 양방향 예측이 디세이블됨을 특정한다.
슬라이스 헤더 신택스 및 시맨틱들이 제공된다.
Figure pct00003
0과 같은 slice_dmvr_enabled_flag는 현재 슬라이스에 대해 디코더 모션 벡터 개선 기반 인터 양방향 예측이 디세이블됨을 특정한다. 1과 같은 slice_dmvr_enabled_flag는 현재 슬라이스에 대해 디코더 모션 벡터 개선 기반 인터 양방향 예측이 인에이블됨을 특정한다. slice_dmvr_enabled_flag의 값은, 존재하지 않는 경우, sps_dmvr_enabled_flag와 같은 것으로 추론된다.
DMVR이 사용되는지 여부를 결정하는 플래그의 도출.
인터 예측 모드에서 코딩된 코딩 유닛들에 대한 디코딩 프로세스는 다음 순서의 단계들을 포함한다:
1. 변수 dmvrFlag는 0과 같게 설정된다.
2. 현재 코딩 유닛의 모션 벡터 컴포넌트들 및 참조 인덱스들은 다음과 같이 도출된다:
MergeTriangleFlag[ xCb ][ yCb ], inter_affine_flag[ xCb ][ yCb ] 및 merge_subblock_flag[ xCb ][ yCb ]가 모두 0과 같다면, 다음이 적용된다:
조항 8.5.2.1에 특정된 바와 같은 모션 벡터 컴포넌트들 및 참조 인덱스들에 대한 도출 프로세스는 입력들로서 루마 코딩 블록 위치( xCb, yCb ), 루마 코딩 블록 폭(cbWidth) 및 루마 코딩 블록 높이(cbHeight)를, 그리고 출력들로서 루마 모션 벡터들(mvL0[ 0 ][ 0 ], mvL1[ 0 ][ 0 ]), 참조 인덱스들(refIdxL0, refIdxL1) 및 예측 리스트 이용 플래그들(predFlagL0[ 0 ][ 0 ], predFlagL1[ 0 ][ 0 ]), 그리고 양방향 예측 가중치 인덱스(bcwIdx)를 이용하여 호출된다.
다음 조건들 모두가 참일 때, dmvrFlag는 1과 같게 설정된다:
sps_dmvr_enabled_flag는 1과 같다
slice_dmvr_enabled_flag는 1과 같다
general_merge_flag[ xCb ][ yCb ]는 1과 같다
predFlagL0[ 0 ][ 0 ]과 predFlagL1[ 0 ][ 0 ] 둘 다 1과 같다
mmvd_flag[ xCb ][ yCb ]는 0과 같다
DiffPicOrderCnt( currPic, RefPicList[ 0 ][ refIdxL0 ])은 DiffPicOrderCnt( RefPicList[ 1 ][ refIdxL1 ], currPic )과 같다
BcwIdx[ xCb ][ yCb ]는 0과 같다
luma_weight_l0_flag[ refIdxL0 ]과 luma_weight_l1_flag[ refIdxL1 ] 둘 다 0과 같다
cbWidth는 8 이상이다
cbHeight는 8 이상이다
cbHeight*cbWidth는 128 이상이다
시퀀스 파라미터 세트 신택스 및 시맨틱들이 제공된다.
Figure pct00004
1과 같은 sps_dmvr_enabled_flag는 디코더 모션 벡터 개선 기반 인터 양방향 예측이 인에이블됨을 특정한다. 0과 같은 sps_dmvr_enabled_flag는 디코더 모션 벡터 개선 기반 인터 양방향 예측이 디세이블됨을 특정한다.
픽처 파라미터 세트 신택스 및 시맨틱들이 제공된다.
Figure pct00005
0과 같은 pps_dmvr_enabled_flag는 PPS를 참조하는 픽처들에 대해 디코더 모션 벡터 개선 기반 인터 양방향 예측이 디세이블됨을 지정한다. 1과 같은 pps_dmvr_enabled_flag는 PPS를 참조하는 픽처들에 대해 디코더 모션 벡터 개선 기반 인터 양방향 예측이 인에이블됨을 지정한다.
sps_dmvr_enabled_flag의 값이 0과 같을 때 pps_dmvr_enabled_flag의 값이 0과 같을 것이라는 것이 비트스트림 적합성 요건이다.
DMVR이 사용되는지 여부를 결정하는 플래그의 도출.
인터 예측 모드에서 코딩된 코딩 유닛들에 대한 디코딩 프로세스는 다음 순서의 단계들로 이루어진다:
변수 dmvrFlag는 0과 같게 설정된다.
현재 코딩 유닛의 모션 벡터 컴포넌트들 및 참조 인덱스들은 다음과 같이 도출된다:
MergeTriangleFlag[ xCb ][ yCb ], inter_affine_flag[ xCb ][ yCb ] 및 merge_subblock_flag[ xCb ][ yCb ]가 모두 0과 같다면, 다음이 적용된다:
조항 8.5.2.1에 특정된 바와 같은 모션 벡터 컴포넌트들 및 참조 인덱스들에 대한 도출 프로세스는 입력들로서 루마 코딩 블록 위치(xCb, yCb), 루마 코딩 블록 폭(cbWidth) 및 루마 코딩 블록 높이(cbHeight)를, 그리고 출력들로서 루마 모션 벡터들(mvL0[ 0 ][ 0 ], mvL1[ 0 ][ 0 ]), 참조 인덱스들(refIdxL0, refIdxL1) 및 예측 리스트 이용 플래그들(predFlagL0[ 0 ][ 0 ], predFlagL1[ 0 ][ 0 ]), 그리고 양방향 예측 가중치 인덱스(bcwIdx)를 이용하여 호출된다.
다음 조건들 모두가 참일 때, dmvrFlag는 1과 같게 설정된다:
sps_dmvr_enabled_flag는 1과 같다
pps_dmvr_enabled_flag는 1과 같다
general_merge_flag[ xCb ][ yCb ]는 1과 같다
predFlagL0[ 0 ][ 0 ]과 predFlagL1[ 0 ][ 0 ] 둘 다 1과 같다
mmvd_flag[ xCb ][ yCb ]는 0과 같다
DiffPicOrderCnt( currPic, RefPicList[ 0 ][ refIdxL0 ])은 DiffPicOrderCnt( RefPicList[ 1 ][ refIdxL1 ], currPic )과 같다
BcwIdx[ xCb ][ yCb ]는 0과 같다
luma_weight_l0_flag[ refIdxL0 ]과 luma_weight_l1_flag[ refIdxL1 ] 둘 다 0과 같다
cbWidth는 8 이상이다
cbHeight는 8 이상이다
cbHeight*cbWidth는 128 이상이다
도 12는 본 개시내용의 일 실시예에 따른 비디오 코딩 디바이스(1200)(예컨대, 비디오 인코더(20) 또는 비디오 디코더(30))의 개략도이다. 비디오 코딩 디바이스(1200)는 본 명세서에서 설명되는 바와 같이 개시된 실시예들을 구현하기에 적합하다. 비디오 코딩 디바이스(1200)는 데이터를 수신하기 위한 진입 포트들(1210) 및 수신기 유닛들(RX)(1220); 데이터를 처리하기 위한 프로세서, 로직 유닛 또는 중앙 처리 유닛(CPU: central processing unit)(1230); 데이터를 전송하기 위한 전송기 유닛들(Tx)(1240) 및 진출 포트들(1250); 그리고 데이터를 저장하기 위한 메모리(1260)를 포함한다. 비디오 코딩 디바이스(1200)는 또한 광 또는 전기 신호들의 진출 또는 진입을 위한 진입 포트들(1210), 수신기 유닛들(1220), 전송기 유닛들(1240) 및 진출 포트들(1250)에 결합된 광-전기(OE: optical-to-electrical) 컴포넌트들 및 전기-광(EO: electrical-to-optical) 컴포넌트들을 포함할 수 있다.
프로세서(1230)는 하드웨어 및 소프트웨어에 의해 구현된다. 프로세서(1230)는 하나 이상의 CPU 칩(chip)들, (예컨대, 멀티 코어 프로세서(multi-core processor)로서) 코어들, 필드 프로그래밍 가능 게이트 어레이(FPGA: field-programmable gate array)들, 주문형 집적 회로(ASIC: application specific integrated circuit)들 및 디지털 신호 프로세서(DSP: digital signal processor)들로서 구현될 수 있다. 프로세서(1230)는 진입 포트들(1210), 수신기 유닛들(1220), 전송기 유닛들(1240), 진출 포트들(1250) 및 메모리(1260)와 통신한다. 프로세서(1230)는 코딩 모듈(1270)을 포함한다. 코딩 모듈(1270)은 위에서 설명한 개시된 실시예들을 구현한다. 예컨대, 코딩 모듈(1270)은 프로세스들을 구현하거나, 다양한 코덱 기능을 준비 또는 제공한다. 따라서 코딩 모듈(1270)의 포함은 비디오 코딩 디바이스(1200)의 기능에 실질적인 개선을 제공하고 비디오 코딩 디바이스(1200)의 다른 상태로의 변환에 영향을 미친다. 대안으로, 코딩 모듈(1270)은 메모리(1260)에 저장되어 프로세서(1230)에 의해 실행되는 명령들로서 구현될 수 있다.
비디오 코딩 디바이스(1200)는 또한, 사용자에게 그리고 사용자로부터 데이터를 전달하기 위한 입력 및/또는 출력(I/O) 디바이스들(1280)을 포함할 수 있다. I/O 디바이스들(1280)은 비디오 데이터를 디스플레이하기 위한 디스플레이, 오디오 데이터를 출력하기 위한 스피커들 등과 같은 출력 디바이스들을 포함할 수 있다. I/O 디바이스들(1280)은 또한 키보드, 마우스, 트랙볼 등과 같은 입력 디바이스들, 및/또는 이러한 출력 디바이스와 상호 작용하기 위한 대응하는 인터페이스들을 포함할 수 있다.
메모리(1260)는 하나 이상의 디스크들, 테이프 드라이브들, 고체 상태 드라이브들을 포함하며, 프로그램들이 실행을 위해 선택될 때 그러한 프로그램들을 저장하기 위한, 그리고 프로그램 실행 중에 판독되는 명령들 및 데이터를 저장하기 위한 오버플로우 데이터 저장 디바이스로서 사용될 수 있다. 메모리(1260)는 휘발성 및/또는 비휘발성일 수 있으며, 판독 전용 메모리(ROM: read-only memory), 랜덤 액세스 메모리(RAM: random access memory), 3원 내용 주소화 메모리(TCAM: ternary content-addressable memory) 및/또는 정적 랜덤 액세스 메모리(SRAM: static random-access memory)일 수 있다.
도 13은 코딩하기 위한 수단(1300)의 일 실시예의 개략도이다. 일 실시예에서, 코딩하기 위한 수단(1300)은 비디오 코딩 디바이스(1302)(예컨대, 비디오 인코더(20) 또는 비디오 디코더(30))에서 구현된다. 비디오 코딩 디바이스(1302)는 수신 수단(1301)을 포함한다. 수신 수단(1301)은 인코딩할 픽처를 수신하도록 또는 디코딩할 비트스트림 수신하도록 구성된다. 비디오 코딩 디바이스(1302)는 수신 수단(1301)에 결합된 전송 수단(1307)을 포함한다. 전송 수단(1307)은 비트스트림을 디코더로 전송하도록 또는 디코딩된 이미지를 디스플레이 수단(예컨대, I/O 디바이스들(1280) 중 하나)에 전송하도록 구성된다.
비디오 코딩 디바이스(1302)는 저장 수단(1303)을 포함한다. 저장 수단(1303)은 수신 수단(1301) 또는 전송 수단(1307) 중 적어도 하나에 결합된다. 저장 수단(1303)은 명령들을 저장하도록 구성된다. 비디오 코딩 디바이스(1302)는 또한 처리 수단(1305)을 포함한다. 처리 수단(1305)은 저장 수단(1303)에 결합된다. 처리 수단(1305)은 저장 수단(1303)에 저장된 명령들을 실행하여, 본 명세서에 개시된 방법들을 수행하도록 구성된다.
본 명세서에서 제시된 예시적인 방법들의 단계들이 반드시 설명된 순서로 수행될 필요는 없다고 또한 이해되어야 하며, 그러한 방법들의 단계들의 순서는 단지 예시인 것으로 이해되어야 한다. 마찬가지로, 본 개시내용의 다양한 실시예들과 일치하는 방법들에서, 추가 단계들이 그러한 방법들에 포함될 수 있고, 특정 단계들이 생략 또는 조합될 수 있다.
본 개시내용에서 여러 실시예들이 제공되었지만, 개시된 시스템들 및 방법들은 본 개시내용의 사상 또는 범위를 벗어나지 않으면서 많은 다른 특정 형태들로 구현될 수도 있다고 이해되어야 한다. 본 예들은 제한이 아닌 예시로서 고려되어야 하며, 그 의도는 본 명세서에서 주어진 세부사항들로 제한되지 않아야 한다. 예를 들어, 다양한 엘리먼트들 또는 컴포넌트들이 다른 시스템으로 조합 또는 통합될 수 있거나, 일부 특징들이 생략될 수 있거나 구현되지 않을 수 있다.
추가로, 다양한 실시예들에서 개별적인 또는 분리된 것으로 설명되고 예시된 기술들, 시스템들, 서브시스템들 및 방법들은 본 개시내용의 범위를 벗어나지 않으면서 다른 시스템들, 모듈들, 기술들 또는 방법과 조합 또는 통합될 수 있다. 서로 통신하거나 서로 결합되거나 직접 결합되는 것으로 도시 또는 논의된 다른 아이템들 간접적으로 결합되거나 전기적으로든, 기계적으로든 또는 다른 방식으로든, 어떤 인터페이스, 디바이스 또는 중간 컴포넌트를 통해 통신할 수 있다. 변화들, 대체들 및 변경들의 다른 예들이 당해 기술분야에서 통상의 지식을 가진 자에 의해 확인 가능하며, 본 명세서에 개시된 사상 및 범위를 벗어나지 않으면서 이루어질 수 있다.

Claims (24)

  1. 비디오 디코더(video decoder)에 의해 구현되는 디코딩 방법으로서,
    상기 비디오 디코더에 의해, 디코딩되는 현재 픽처(picture)의 해상도가 상기 현재 픽처와 연관된 참조 픽처 리스트에 의해 식별된 참조 픽처들의 해상도와 동일한지 여부를 결정하는 단계;
    상기 현재 픽처의 해상도가 상기 참조 픽처들 각각의 해상도와 동일한 것으로 결정될 때, 상기 비디오 디코더에 의해 상기 현재 픽처의 현재 블록에 대해 디코더 측 모션 벡터 개선(DMVR: decoder-side motion vector refinement)을 인에이블(enable)하는 단계;
    상기 비디오 디코더에 의해, 상기 현재 픽처의 해상도가 상기 참조 픽처들 중 어느 하나의 해상도와 상이한 것으로 결정될 때 상기 현재 픽처의 현재 블록에 대해 상기 DMVR을 디세이블하는 단계; 및
    상기 비디오 디코더에 의해, 상기 현재 블록에 대해 상기 DMVR이 인에이블될 때 상기 DMVR을 사용하여 상기 현재 블록에 대응하는 모션 벡터들을 개선(refine)하는 단계를 포함하는,
    비디오 디코더에 의해 구현되는 디코딩 방법.
  2. 제1항에 있어서,
    상기 DMVR을 인에이블하는 단계는 DMVR 플래그를 제1 값으로 설정하는 단계를 포함하고,
    상기 DMVR을 디세이블하는 단계는 상기 DMVR 플래그를 제2 값으로 설정하는 단계를 포함하는,
    비디오 디코더에 의해 구현되는 디코딩 방법.
  3. 제1항 또는 제2항에 있어서,
    양방향 인터 예측(inter prediction) 모드에 따라 참조 픽처 리스트들에 기초하여 상기 현재 픽처에 대한 참조 픽처들을 생성하는 단계를 더 포함하는,
    비디오 디코더에 의해 구현되는 디코딩 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    각각의 픽처의 해상도가 복수의 픽처들과 연관된 참조 픽처들의 해상도와 상이한지 아니면 동일한지에 따라, 상기 픽처들 내의 블록들에 대해 상기 DMVR을 선택적으로 인에이블하는 단계와 디세이블하는 단계 모두를 더 포함하는,
    비디오 디코더에 의해 구현되는 디코딩 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 DMVR이 디세이블될 때 상기 현재 픽처를 포함하는 전체 코딩된 비디오 시퀀스(CVS: coded video sequence)에 대해 참조 픽처 리샘플링(RPR: reference picture resampling)을 인에이블하는 단계를 더 포함하는,
    비디오 디코더에 의해 구현되는 디코딩 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    코딩된 비디오 비트스트림(bitstream)의 파라미터 세트에 상기 현재 픽처의 해상도가 배치되며,
    상기 현재 픽처의 슬라이스(slice)로부터 상기 현재 블록이 획득되는,
    비디오 디코더에 의해 구현되는 디코딩 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 현재 블록을 사용하여 생성된 이미지를 전자 디바이스의 디스플레이 상에 디스플레이하는 단계를 더 포함하는,
    비디오 디코더에 의해 구현되는 디코딩 방법.
  8. 비디오 인코더(encoder)에 의해 구현되는, 비디오 비트스트림을 인코딩하는 방법으로서,
    상기 비디오 인코더에 의해, 인코딩되는 현재 픽처의 해상도가 상기 현재 픽처와 연관된 참조 픽처 리스트에서 식별된 참조 픽처들의 해상도와 동일한지 여부를 결정하는 단계;
    상기 현재 픽처의 해상도가 상기 참조 픽처들 각각의 해상도와 동일한 것으로 결정될 때, 상기 비디오 인코더에 의해 상기 현재 픽처의 현재 블록에 대해 디코더 측 모션 벡터 개선(DMVR)을 인에이블하는 단계;
    상기 비디오 인코더에 의해, 상기 현재 픽처의 해상도가 상기 참조 픽처들 중 어느 하나의 해상도와 상이한 것으로 결정될 때 상기 현재 픽처의 현재 블록에 대해 상기 DMVR을 디세이블하는 단계; 및
    상기 비디오 인코더에 의해, 상기 현재 블록에 대해 상기 DMVR이 인에이블될 때 상기 DMVR을 사용하여 상기 현재 블록에 대응하는 모션 벡터들을 개선하는 단계를 포함하는,
    비디오 인코더에 의해 구현되는, 비디오 비트스트림을 인코딩하는 방법.
  9. 제8항에 있어서,
    상기 방법은,
    상기 비디오 인코더에 의해, 상기 참조 픽처들에 기초하여 상기 현재 픽처에 대한 모션 벡터들을 결정하는 단계;
    상기 비디오 인코더에 의해, 상기 모션 벡터들에 기초하여 상기 현재 픽처를 인코딩하는 단계; 및
    상기 비디오 인코더에 의해, 가상의(hypothetical) 기준 디코더를 사용하여 상기 현재 픽처를 디코딩하는 단계를 더 포함하는,
    비디오 인코더에 의해 구현되는, 비디오 비트스트림을 인코딩하는 방법.
  10. 제8항 또는 제9항에 있어서,
    상기 DMVR을 인에이블하는 단계는 DMVR 플래그를 제1 값으로 설정하는 단계를 포함하고,
    상기 DMVR을 디세이블하는 단계는 상기 DMVR 플래그를 제2 값으로 설정하는 단계를 포함하는,
    비디오 인코더에 의해 구현되는, 비디오 비트스트림을 인코딩하는 방법.
  11. 제8항 내지 제10항 중 어느 한 항에 있어서,
    양방향 인터 예측 모드에 따라 참조 픽처 리스트들에 기초하여 상기 현재 픽처에 대한 참조 픽처들을 생성하는 단계를 더 포함하는,
    비디오 인코더에 의해 구현되는, 비디오 비트스트림을 인코딩하는 방법.
  12. 제8항 내지 제11항 중 어느 한 항에 있어서,
    각각의 픽처의 해상도가 복수의 픽처들과 연관된 참조 픽처들의 해상도와 상이한지 아니면 동일한지에 따라, 상기 픽처들 내의 블록들에 대해 상기 DMVR을 선택적으로 인에이블하는 단계와 디세이블하는 단계 모두를 더 포함하는,
    비디오 인코더에 의해 구현되는, 비디오 비트스트림을 인코딩하는 방법.
  13. 제8항 내지 제12항 중 어느 한 항에 있어서,
    상기 DMVR이 디세이블되는 경우에도 상기 현재 픽처를 포함하는 전체 코딩된 비디오 시퀀스(CVS)에 대해 참조 픽처 리샘플링(RPR)을 인에이블하는 단계를 더 포함하는,
    비디오 인코더에 의해 구현되는, 비디오 비트스트림을 인코딩하는 방법.
  14. 제8항 내지 제13항 중 어느 한 항에 있어서,
    상기 현재 블록을 포함하는 비디오 비트스트림을 비디오 디코더를 향해 전송하는 단계를 더 포함하는,
    비디오 인코더에 의해 구현되는, 비디오 비트스트림을 인코딩하는 방법.
  15. 디코딩 디바이스로서,
    코딩된 비디오 비트스트림을 수신하도록 구성된 수신기;
    상기 수신기에 결합된 메모리 ― 상기 메모리는 명령들을 저장함 ―; 및
    상기 메모리에 결합된 프로세서를 포함하며,
    상기 프로세서는 상기 디코딩 디바이스로 하여금:
    디코딩되는 현재 픽처의 해상도가 상기 현재 픽처와 연관된 참조 픽처 리스트에 의해 식별된 참조 픽처들의 해상도와 동일한지 여부를 결정하게 하고;
    상기 현재 픽처의 해상도가 상기 참조 픽처들 각각의 해상도와 동일한 것으로 결정될 때, 상기 현재 픽처의 현재 블록에 대해 디코더 측 모션 벡터 개선(DMVR)을 인에이블하게 하고;
    상기 현재 픽처의 해상도가 상기 참조 픽처들 중 어느 하나의 해상도와 상이한 것으로 결정될 때 상기 현재 픽처의 현재 블록에 대해 상기 DMVR을 디세이블하게 하고; 그리고
    상기 현재 블록에 대해 상기 DMVR이 인에이블될 때 상기 DMVR을 사용하여 상기 현재 블록에 대응하는 모션 벡터들을 개선하도록 하게
    상기 명령들을 실행하도록 구성되는,
    디코딩 디바이스.
  16. 제15항에 있어서,
    상기 DMVR이 디세이블될 때 상기 현재 픽처를 포함하는 전체 코딩된 비디오 시퀀스(CVS)에 대해 참조 픽처 리샘플링(RPR)이 인에이블되는,
    디코딩 디바이스.
  17. 제15항 또는 제16항에 있어서,
    상기 현재 블록에 기초하여 생성된 이미지를 디스플레이하도록 구성된 디스플레이를 더 포함하는,
    디코딩 디바이스.
  18. 인코딩 디바이스로서,
    명령들을 포함하는 메모리;
    상기 메모리에 결합된 프로세서 ― 상기 프로세서는 상기 인코딩 디바이스로 하여금:
    인코딩되는 현재 픽처의 해상도가 현재 블록과 연관된 참조 픽처 리스트에서 식별된 참조 픽처들의 해상도와 동일한지 여부를 결정하게 하고;
    상기 현재 픽처의 해상도가 상기 참조 픽처들 각각의 해상도와 동일한 것으로 결정될 때, 상기 현재 픽처의 현재 블록에 대해 디코더 측 모션 벡터 개선(DMVR)을 인에이블하게 하고;
    상기 현재 픽처의 해상도가 상기 참조 픽처들 중 어느 하나의 해상도와 상이한 것으로 결정될 때 상기 현재 픽처의 현재 블록에 대해 상기 DMVR을 디세이블하게 하고; 그리고
    상기 현재 블록에 대해 상기 DMVR 플래그가 인에이블될 때 상기 DMVR을 사용하여 상기 현재 블록에 대응하는 모션 벡터들을 개선하도록 하게 상기 명령들을 구현하도록 구성됨 ―; 및
    상기 프로세서에 결합된 전송기를 포함하며,
    상기 전송기는 상기 현재 블록을 포함하는 비디오 비트스트림을 비디오 디코더를 향해 전송하도록 구성되는,
    인코딩 디바이스.
  19. 제18항에 있어서,
    상기 DMVR이 디세이블되는 경우에도 상기 현재 픽처를 포함하는 전체 코딩된 비디오 시퀀스(CVS)에 대해 참조 픽처 리샘플링(RPR)이 인에이블되는,
    인코딩 디바이스.
  20. 제18항 또는 제19항에 있어서,
    상기 전송기가 상기 비트스트림을 상기 비디오 디코더를 향해 전송하기 전에 상기 메모리가 상기 비디오 비트스트림을 저장하는,
    인코딩 디바이스.
  21. 코딩 장치로서,
    인코딩할 픽처를 수신하도록 또는 디코딩할 비트스트림을 수신하도록 구성된 수신기;
    상기 수신기에 결합된 전송기 ― 상기 전송기는 상기 비트스트림을 디코더에 전송하도록 또는 디코딩된 이미지를 디스플레이로 전송하도록 구성됨 ―;
    상기 수신기 또는 상기 전송기 중 적어도 하나에 결합된 메모리 ― 상기 메모리는 명령들을 저장하도록 구성됨 ―; 및
    상기 메모리에 결합된 프로세서를 포함하며,
    상기 프로세서는 상기 메모리에 저장된 명령들을 실행하여 제1항 내지 제7항 중 어느 한 항 및 제8항 내지 제14항 중 어느 한 항의 방법을 수행하도록 구성되는,
    코딩 장치.
  22. 제20항에 있어서,
    이미지를 디스플레이하도록 구성된 디스플레이를 더 포함하는,
    코딩 장치.
  23. 시스템으로서,
    인코더; 및
    상기 인코더와 통신하는 디코더를 포함하며,
    상기 인코더 또는 상기 디코더는 제15항 내지 제22항 중 어느 한 항의 디코딩 디바이스, 인코딩 디바이스 또는 코딩 장치를 포함하는,
    시스템.
  24. 코딩하기 위한 수단으로서,
    인코딩할 픽처를 수신하도록 또는 디코딩할 비트스트림을 수신하도록 구성된 수신 수단;
    상기 수신 수단에 결합된 전송 수단 ― 상기 전송 수단은 상기 비트스트림을 디코딩 수단에 전송하도록 또는 디코딩된 이미지를 디스플레이 수단으로 전송하도록 구성됨 ―;
    상기 수신 수단 또는 상기 전송 수단 중 적어도 하나에 결합된 저장 수단 ― 상기 저장 수단은 명령들을 저장하도록 구성됨 ―; 및
    상기 저장 수단에 결합된 처리 수단을 포함하며,
    상기 처리 수단은 상기 저장 수단에 저장된 명령들을 실행하여 제1항 내지 제7항 중 어느 한 항 및 제8항 내지 제14항 중 어느 한 항의 방법을 수행하도록 구성되는,
    코딩하기 위한 수단.
KR1020217040822A 2019-05-15 2020-05-14 비디오 코딩에서의 참조 픽처 리샘플링을 위한 디코더 측 모션 벡터 개선(dmvr) 코딩 툴의 핸들링 KR20220006120A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962848410P 2019-05-15 2019-05-15
US62/848,410 2019-05-15
PCT/US2020/032930 WO2020232269A1 (en) 2019-05-15 2020-05-14 Handling of decoder-side motion vector refinement (dmvr) coding tool for reference picture resampling in video coding

Publications (1)

Publication Number Publication Date
KR20220006120A true KR20220006120A (ko) 2022-01-14

Family

ID=73289822

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217040822A KR20220006120A (ko) 2019-05-15 2020-05-14 비디오 코딩에서의 참조 픽처 리샘플링을 위한 디코더 측 모션 벡터 개선(dmvr) 코딩 툴의 핸들링

Country Status (9)

Country Link
US (1) US12022107B2 (ko)
EP (2) EP4221224A1 (ko)
JP (2) JP7359873B2 (ko)
KR (1) KR20220006120A (ko)
CN (2) CN113826399A (ko)
ES (1) ES2946163T3 (ko)
FI (1) FI3963888T3 (ko)
MX (1) MX2021013978A (ko)
WO (1) WO2020232269A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024080778A1 (ko) * 2022-10-12 2024-04-18 엘지전자 주식회사 적응적으로 해상도를 변경하는 영상 부호화/복호화 방법, 장치, 및 비트스트림을 전송하는 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2968830T3 (es) * 2019-06-04 2024-05-14 Huawei Tech Co Ltd Intercodificación en codificación de vídeo con soporte de múltiples capas
WO2020254335A1 (en) * 2019-06-20 2020-12-24 Interdigital Vc Holdings France, Sas Lossless mode for versatile video coding
CN114342405A (zh) * 2019-06-24 2022-04-12 Lg电子株式会社 图像解码方法和用于该图像解码方法的装置
US20240155114A1 (en) * 2021-02-26 2024-05-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Video coding concept allowing for limitation of drift
US20230199211A1 (en) * 2021-12-16 2023-06-22 Qualcomm Incorporated Interaction between reference picture resampling and template-based inter prediction techniques in video coding

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110176611A1 (en) * 2010-01-15 2011-07-21 Yu-Wen Huang Methods for decoder-side motion vector derivation
US9998735B2 (en) * 2013-04-01 2018-06-12 Qualcomm Incorporated Inter-layer reference picture restriction for high level syntax-only scalable video coding
US9674533B2 (en) 2013-04-05 2017-06-06 Qualcomm Incorporated Picture alignments in multi-layer video coding
US10142638B2 (en) 2013-10-11 2018-11-27 Electronics And Telecommunications Research Institute Method for encoding/decoding image and device using same
WO2015192991A1 (en) 2014-06-18 2015-12-23 Telefonaktiebolaget L M Ericsson (Publ) Random access in a video bitstream
CN108293131B (zh) * 2015-11-20 2021-08-31 联发科技股份有限公司 基于优先级运动矢量预测子推导的方法及装置
EP3449630B1 (en) * 2016-05-28 2024-07-10 Mediatek Inc. Method and apparatus of current picture referencing for video coding
US10477237B2 (en) * 2017-06-28 2019-11-12 Futurewei Technologies, Inc. Decoder side motion vector refinement in video coding
US11558633B2 (en) 2017-11-01 2023-01-17 Vid Scale, Inc. Sub-block motion derivation and decoder-side motion vector refinement for merge mode
US11750832B2 (en) 2017-11-02 2023-09-05 Hfi Innovation Inc. Method and apparatus for video coding
CN117692630A (zh) 2019-05-11 2024-03-12 北京字节跳动网络技术有限公司 视频处理中编解码工具的选择性使用
CA3146230A1 (en) * 2019-07-08 2020-10-22 Huawei Technologies Co., Ltd. Handling of multiple picture size and conformance windows for reference picture resampling in video coding

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024080778A1 (ko) * 2022-10-12 2024-04-18 엘지전자 주식회사 적응적으로 해상도를 변경하는 영상 부호화/복호화 방법, 장치, 및 비트스트림을 전송하는 방법

Also Published As

Publication number Publication date
US12022107B2 (en) 2024-06-25
CN115314708A (zh) 2022-11-08
WO2020232269A1 (en) 2020-11-19
US20220046271A1 (en) 2022-02-10
JP2022533354A (ja) 2022-07-22
ES2946163T3 (es) 2023-07-13
JP7359873B2 (ja) 2023-10-11
JP2023179582A (ja) 2023-12-19
EP4221224A1 (en) 2023-08-02
MX2021013978A (es) 2022-04-01
EP3963888A1 (en) 2022-03-09
FI3963888T3 (fi) 2023-06-19
CN115314708B (zh) 2023-05-12
EP3963888B1 (en) 2023-05-03
CN113826399A (zh) 2021-12-21
EP3963888A4 (en) 2022-07-20

Similar Documents

Publication Publication Date Title
US12022107B2 (en) Handling of decoder-side motion vector refinement (DMVR) coding tool for reference picture resampling in video coding
KR102628896B1 (ko) 비디오 코딩에서 참조 픽처 리샘플링을 위한 양방향 광 흐름(bio) 코딩 도구의 취급
CN113924781A (zh) 视频译码中的逐步解码刷新
US20220094954A1 (en) Inter Coding in Video Coding with the Support of Multiple Layers
JP2024023680A (ja) ビデオ・コーディングにおける新しいコーディングされたビデオ・シーケンスを開始するピクチャのための前のピクチャの出力
RU2820215C2 (ru) Обработка инструмента кодирования двунаправленного оптического потока (bio) для передискретизации опорного изображения при кодировании видео

Legal Events

Date Code Title Description
A201 Request for examination