KR102228298B1 - 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말 - Google Patents

비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말 Download PDF

Info

Publication number
KR102228298B1
KR102228298B1 KR1020197010627A KR20197010627A KR102228298B1 KR 102228298 B1 KR102228298 B1 KR 102228298B1 KR 1020197010627 A KR1020197010627 A KR 1020197010627A KR 20197010627 A KR20197010627 A KR 20197010627A KR 102228298 B1 KR102228298 B1 KR 102228298B1
Authority
KR
South Korea
Prior art keywords
motion vector
motion
image block
predicted
current image
Prior art date
Application number
KR1020197010627A
Other languages
English (en)
Other versions
KR20190049849A (ko
Inventor
지청 안
수 천
지안후아 젱
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Priority to KR1020217007230A priority Critical patent/KR102343668B1/ko
Publication of KR20190049849A publication Critical patent/KR20190049849A/ko
Application granted granted Critical
Publication of KR102228298B1 publication Critical patent/KR102228298B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/533Motion estimation using multistep search, e.g. 2D-log search or one-at-a-time search [OTS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말이 제공된다. 비디오 디코딩 방법은, 비트스트림으로부터, 후보 예측 모션 정보 리스트 내에서 현재 이미지 블록의 예측 모션 정보의 인덱스를 획득하는 단계 - 여기서, 상기 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함하고, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 상기 현재 이미지 블록의 인접 블록의 모션 정보임 -; 상기 인덱스에 기반하여 상기 후보 예측 모션 정보 리스트를 질의하고 탐색된 후보 예측 모션 정보를 상기 예측 모션 정보로서 사용하는 단계; 상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하고, 상기 비트스트림으로부터 상기 모션 벡터 차이를 획득하는 단계; 및 상기 현재 이미지 블록의 모션 벡터를 획득하기 위해 상기 대응관계에 기반하여 상기 모션 벡터 예측값 및 대응하는 모션 벡터 차이를 부가하는 단계를 포함한다. 이러한 방식으로, 현재 이미지 블록의 모션 벡터가 상대적으로 정확하게 복구되어서, 출력 비디오는 동일한 비트레이트의 경우 상대적으로 높은 품질을 갖게 된다.

Description

비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말
본 발명은 비디오 인코딩 및 디코딩 분야에 관한 것이고, 특히, 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말에 관한 것이다.
비디오 인코딩 압축의 기본 원칙은 중복성(redundancy)을 최대한 제거하기 위해, 공간 도메인, 시간 도메인, 및 코드 워드 간의 상관 관계를 사용하는 것이다. 블록 기반 하이브리드 비디오 인코딩 프레임워크는 비디오 인코딩 압축이 인트라 예측, 인터 예측, 변환, 양자화, 엔트로피 인코딩 등의 단계를 수행함으로써 구현되는 비교적 보편적인 방법이다. MPEG(Moving Picture Experts Group) 및 고효율 비디오 코딩 (HEVC) 표준은 모두 블록 기반 하이브리드 비디오 인코딩 프레임워크를 사용한다.
인터 예측 동안, 각 이미지 블록의 모션 정보가, 모션 보상(motion compensation) 과정을 이용하여 이미지 블록의 예측 블록을 생성하기 위해 결정될 필요가 있다. 모션 정보는 기준 이미지 정보 및 모션 벡터를 포함한다.
현재 이미지 블록의 모션 정보가 결정될 때, 일반적으로 사용되는 방법은 통합 모드(merge mode), 비-통합 모드(non-merge mode) 등을 포함한다. 다음 단계는 통합 모드에 포함될 수 있다.
1. 후보 모션 정보 리스트를 구성한다. 여기서 리스트 내의 후보 모션 정보는 현재 이미지 블록의 인접 블록의 모션 정보를 공간 또는 시간으로 환산하여 감산함으로써 획득된다.
2. 후보 모션 정보 리스트로부터 하나의 모션 정보를 선택하고, 리스트 내의 모션 정보의 인덱스를 전송하고, 모션 정보의 인덱스를 이용하여 현재 이미지 블록의 모든 모션 정보를 구체화한다.
통합 모드의 모션 벡터는 인접 블록의 모션 벡터를 완전히 복제함으로써 획득되고, 결과적으로 현재 이미지 블록의 모션 벡터는 충분히 정확하지 않다.
그러나, 비-통합 모드에서, 현재 이미지 블록의 모션 정보는 다음의 단계들을 수행함으로써 결정될 수 있다.
1. 기준 이미지 정보를 전송한다. 여기서 기준 이미지 정보는 단방향/양방향 예측 정보, 하나 또는 두 개의 기준 이미지 리스트, 및 각각 하나 또는 두 개의 기준 이미지 리스트에 대응하는 하나 또는 두 개의 기준 이미지 인덱스를 포함한다
2. 후보 모션 벡터 예측값 리스트를 구성한다. 여기서 상기 리스트 내의 후보 모션 벡터 예측값은 현재 이미지 블록의 인접 블록의 모션 정보를 이용하여 추론을 통해 획득된다.
3. 후보 모션 벡터 예측값 리스트로부터 모션 벡터 예측값을 선택하고, 상기 리스트 내의 모션 벡터 예측값의 인덱스를 전달하고, 모션 벡터 예측값의 인덱스를 이용하여 현재 이미지 블록의 모션 벡터 예측값을 구체화한다.
4. 모션 벡터 차이차이를 전달하고, 현재 이미지 블록의 모션 벡터를 획득하기 위해 모션 벡터 차이 및 모션 벡터 예측값을 부가한다.
비-통합 모드에서, 기준 이미지 정보, 모션 벡터 예측값의 인덱스, 및 대응하는 모션 벡터 차이가 전달될 필요가 있으므로, 모션 정보가 보다 정확하다. 그러나, 비교적 많은 양의 정보가 전달되어서, 결과적으로 비트레이트가 비교적 높다.
본 발명의 실시예는, 동일한 비디오 품질의 경우 전송될 필요가 있는 정보를 감소시키기 위한, 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말을 제공하여, 특정 전송 비트를 절약할 수 있다.
본 발명의 실시예의 제1 측면은 비디오 디코딩 방법을 개시한다. 상기 비디오 디코딩 방법은, 비트스트림으로부터, 후보 예측 모션 정보 리스트 내에서 현재 이미지 블록의 예측 모션 정보의 인덱스를 획득하는 단계 - 여기서, 상기 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함하고, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 상기 현재 이미지 블록의 인접 블록의 모션 정보임 -; 상기 인덱스에 기반하여 상기 후보 예측 모션 정보 리스트를 질의하고 탐색된 후보 예측 모션 정보를 상기 예측 모션 정보로서 사용하는 단계; 상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하고, 상기 비트스트림으로부터 상기 모션 벡터 차이를 획득하는 단계; 및 상기 현재 이미지 블록의 모션 벡터를 획득하기 위해 상기 대응관계에 기반하여 상기 모션 벡터 예측값 및 대응하는 모션 벡터 차이를 부가하는 단계를 포함한다.
본 구현에서, 현재 이미지 블록의 모션 벡터 예측값은 모션 벡터 차이를 이용하여 교정되므로, 재구성을 통해 획득된 현재 이미지 블록의 모션 벡터가 보다 정확해진다. 게다가, 모션 벡터 차이와 모션 벡터 예측값 사이의 대응관계에 기반하여, 모션 벡터 차이가 보다 효과적으로 결정됨으로써, 전송 비트를 절약할 수 있다.
선택적 구현에서, 상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하는 것은, 상기 기준 이미지 정보에 기반하여 상기 현재 이미지 블록의 예측 모드를 결정하는 단계 - 여기서 상기 예측 모드는 단방향 예측 또는 양방향 예측을 포함함 -; 상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 단계; 및 상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 상기 대응관계를 결정하는 단계를 포함한다. 본 구현에서, 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응 관계가 결정되고, 그 후 모션 벡터 예측값은 모션 벡터 예측값에 대응하는 모션 벡터 차이를 이용하여 교정됨으로써, 재구성을 통해 획득된 현재 이미지 블록의 모션 벡터가 더 정확하게 된다.
선택적 구현에서, 상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 단계는, 상기 예측 모드가 상기 단방향 예측이면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 단계; 또는 상기 예측 모드가 상기 양방향 예측이고, 상기 기준 이미지 정보가 기준 이미지의 화면 순서 카운트를 포함하면, 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하는 단계; 또는 상기 예측 모드가 상기 양방향 예측이면, 상기 현재 이미지 블록의 상기 비트스트림과, 상기 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보, 그리고 현재 이미지 블록의 비트스트림 중 적어도 하나로부터 상기 모션 벡터 차이의 수량을 획득하는 단계를 포함한다.
본 구현의 유익한 효과는 다음과 같다. 현재 이미지 블록의 모션 벡터 예측값은 모션 벡터 차이를 이용하여 교정되므로, 재구성을 통해 획득된 현재 이미지 블록의 모션 벡터가 보다 정확해진다.
선택적 구현에서, 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하는 단계는, 상기 현재 이미지 블록의 제1 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많고, 상기 현재 이미지 블록의 제2 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 상기 화면 순서 카운트보다 적으면, 두 개의 모션 벡터 차이가 있는 것으로 결정하는 단계; 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많거나, 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 적으면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 단계를 포함한다.
본 구현의 유익한 효과는 다음과 같다. 현재 이미지 블록의 모션 벡터 예측값은 모션 벡터 차이를 이용하여 교정되므로, 재구성을 통해 획득된 현재 이미지 블록의 모션 벡터가 보다 정확해진다.
선택적 구현에서, 상기 예측 모드가 상기 양방향 예측이면, 상기 예측 모션 정보는 두 개의 모션 벡터 예측값 - 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 - 을 포함하고, 상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 상기 대응관계를 결정하는 단계는, 두 개의 모션 벡터 차이가 있다면, 상기 두 개의 모션 벡터 차이를 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 개별적으로 사용하는 단계; 또는 하나의 모션 벡터 차이가 있다면, 상기 모션 벡터 차이를 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 각각의 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하거나, 또는 상기 비트스트림으로부터, 상기 모션 벡터 차이가 상기 제1 모션 벡터 예측값에 대응함을 지시하거나 또는 상기 모션 벡터 차이가 상기 제2 모션 벡터 예측값에 대응함을 지시하는 정보를 획득하는 단계, 그리고 획득된 정보에 기초하여 모션 벡터 차이와 모션 벡터 예측값 사이의 대응관계를 결정하는 단계를 포함한다.
본 구현의 유익한 효과는 다음과 같다. 현재 이미지 블록의 모션 벡터 예측값은 모션 벡터 차이를 이용하여 교정되므로, 재구성을 통해 획득된 현재 이미지 블록의 모션 벡터가 보다 정확해진다. 게다가, 모션 벡터 차이와 모션 벡터 예측값 사이의 대응 관계에 기반하여, 모션 벡터 차이가 보다 효과적으로 결정됨으로써, 전송 비트가 절약 될 수 있다.
선택적 구현에서, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은, 상기 비트스트림의, 상기 슬라이스-레이어 헤더 정보, 상기 이미지-레이어 헤더 정보, 및 상기 시퀀스-레이어 헤더 정보 중 적어도 하나로부터 획득된다.
본 구현의 유익한 효과는 다음과 같다. 현재 이미지 블록의 모션 벡터 예측값이 모션 벡터 차이를 이용하여 교정되므로, 재구성을 통해 획득된 현재 이미지 블록의 모션 벡터가 보다 정확해진다.
선택적 구현에서, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은, 통합 모드 내에서의 모션 정보 리스트 내의 모션 정보의 수량보다 적다.
본 구현의 유익한 효과는 다음과 같다. 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량이 계산 복잡성을 감소시키도록 제어되어서, 디코딩 속도를 증가시킨다.
선택적 구현에서, 현재 이미지 블록은 비트스트림에 대응하는 현재 재구성될 이미지 블록의 임의의 예측 단위이다. 본 구현의 유익한 효과는 다음과 같다. 현재 이미지 블록의 모션 벡터 예측값이 모션 벡터 차이를 이용하여 교정되므로, 재구성을 통해 획득된 현재 이미지 블록의 모션 벡터가 보다 정확해진다. 게다가, 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응 관계에 기반하여, 모션 벡터 차이가 보다 효과적으로 결정됨으로써, 전송 비트를 절약 할 수 있다.
본 발명의 실시예의 제2 측면은 비디오 디코딩 단말을 개시한다. 상기 비디오 디코딩 단말은 프로세서 및 메모리를 포함한다. 상기 프로세서는 다음 동작 - 비트스트림으로부터, 후보 예측 모션 정보 리스트 내에서 현재 이미지 블록의 예측 모션 정보의 인덱스를 획득하는 동작 - 여기서, 상기 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함하고, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 상기 현재 이미지 블록의 인접 블록의 모션 정보임 -; 상기 인덱스에 기반하여 상기 후보 예측 모션 정보 리스트를 질의하고 탐색된 후보 예측 모션 정보를 상기 예측 모션 정보로서 사용하는 동작; 상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하고, 상기 비트스트림으로부터 상기 모션 벡터 차이를 획득하는 동작; 및 상기 현재 이미지 블록의 모션 벡터를 획득하기 위해 상기 대응관계에 기반하여 상기 모션 벡터 예측값 및 대응하는 모션 벡터 차이를 부가하는 동작 - 을 수행하도록 구성된다.
선택적 구현에서, 프로세서가 상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하는 것은, 상기 기준 이미지 정보에 기반하여 상기 현재 이미지 블록의 예측 모드를 결정하는 동작 - 여기서 상기 예측 모드는 단방향 예측 또는 양방향 예측을 포함함 -; 상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 동작; 및 상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 상기 대응관계를 결정하는 동작을 포함한다.
선택적 구현에서, 상기 프로세서가 상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 것은, 상기 예측 모드가 상기 단방향 예측이면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 동작; 또는 상기 예측 모드가 상기 양방향 예측이고, 상기 기준 이미지 정보가 기준 이미지의 화면 순서 카운트를 포함하면, 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하는 동작; 또는 상기 예측 모드가 상기 양방향 예측이면, 상기 현재 이미지 블록의 상기 비트스트림과, 상기 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보, 그리고 현재 이미지 블록의 비트스트림 중 적어도 하나로부터 상기 모션 벡터 차이의 수량을 획득하는 동작을 포함한다.
선택적 구현에서, 프로세서가 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하는 것은, 상기 현재 이미지 블록의 제1 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많고, 상기 현재 이미지 블록의 제2 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 상기 화면 순서 카운트보다 적으면, 두 개의 모션 벡터 차이가 있는 것으로 결정하는 동작; 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많거나, 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 적으면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 동작을 포함한다.
선택적 구현에서, 상기 예측 모드가 상기 양방향 예측이면, 상기 예측 모션 정보는 두 개의 모션 벡터 예측값 - 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 - 을 포함하고, 프로세서가 상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 상기 대응관계를 결정하는 것은, 두 개의 모션 벡터 차이가 있다면, 상기 두 개의 모션 벡터 차이를 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 개별적으로 사용하는 동작; 또는 하나의 모션 벡터 차이가 있다면, 상기 모션 벡터 차이를 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 각각의 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하거나, 또는 상기 비트스트림으로부터, 상기 모션 벡터 차이가 상기 제1 모션 벡터 예측값에 대응함을 지시하거나 또는 상기 모션 벡터 차이가 상기 제2 모션 벡터 예측값에 대응함을 지시하는 정보를 획득하는 동작, 그리고 획득된 정보에 기초하여 모션 벡터 차이와 모션 벡터 예측값 사이의 대응관계를 결정하는 동작을 포함한다.
선택적 구현에서, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은, 상기 비트스트림의, 상기 슬라이스-레이어 헤더 정보, 상기 이미지-레이어 헤더 정보, 및 상기 시퀀스-레이어 헤더 정보 중 적어도 하나로부터 획득된다.
선택적 구현에서, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은, 통합 모드 내에서의 모션 정보 리스트 내의 모션 정보의 수량보다 적다.
선택적 구현에서, 상기 현재 이미지 블록은 상기 비트스트림에 대응하는 현재 재구성될 이미지 블록의 임의의 예측 단위이다.
본 발명의 실시예의 제3 측면은 비디오 디코딩 단말을 제공한다. 상기 비디오 디코딩 단말은, 비트스트림으로부터, 후보 예측 모션 정보 리스트 내의 현재 이미지 블록의 예측 모션 정보의 인덱스를 획득하도록 구성된 제1 획득 유닛 - 여기서 상기 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함하고, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 상기 현재 이미지 블록의 인접 블록의 모션 정보임 -; 상기 인덱스에 기반하여 상기 후보 예측 모션 정보 리스트를 질의하고 탐색된 후보 예측 모션 정보를 상기 예측 모션 정보로서 사용하도록 구성된 질의 유닛; 상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하도록 구성된 결정 유닛; 상기 비트스트림으로부터 상기 모션 벡터 차이를 획득하도록 구성된 제2 획득 유닛; 및 상기 현재 이미지 블록의 모션 벡터를 획득하기 위해 상기 대응관계에 기반하여 상기 모션 벡터 예측값 및 대응하는 모션 벡터 차이를 부가하도록 구성된 연산 유닛을 포함한다.
선택적 구현에서, 상기 결정 유닛은, 상기 기준 이미지 정보에 기반하여 상기 현재 이미지 블록의 예측 모드를 결정하도록 구성된 제1 결정 서브유닛 - 여기서 상기 예측 모드는 단방향 예측 또는 양방향 예측을 포함함 -; 상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하도록 구성된 제2 결정 서브유닛; 및 상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 상기 대응관계를 결정하도록 구성된 제3 결정 서브유닛을 포함한다.
선택적 구현에서, 상기 제2 결정 서브유닛은 구체적으로, 상기 예측 모드가 상기 단방향 예측이면, 하나의 모션 벡터 차이가 있는 것으로 결정하거나; 또는 상기 예측 모드가 상기 양방향 예측이고, 상기 기준 이미지 정보가 기준 이미지의 화면 순서 카운트를 포함하면, 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하거나; 또는 상기 예측 모드가 상기 양방향 예측이면, 상기 현재 이미지 블록의 상기 비트스트림과, 상기 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로부터 상기 모션 벡터 차이의 수량을 획득하도록 구성된다.
선택적 구현에서, 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정할 때, 상기 제2 결정 서브유닛은 구체적으로, 상기 현재 이미지 블록의 제1 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많고, 상기 현재 이미지 블록의 제2 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 상기 화면 순서 카운트보다 적으면, 두 개의 모션 벡터 차이가 있는 것으로 결정하는 단계; 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많거나, 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 적으면, 하나의 모션 벡터 차이가 있는 것으로 결정하도록 구성된다.
선택적 구현에서, 상기 예측 모드가 상기 양방향 예측이면, 상기 예측 모션 정보는 두 개의 모션 벡터 예측값 - 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 - 을 포함하고, 상기 제3 결정 서브유닛은 구체적으로, 두 개의 모션 벡터 차이가 있다면, 상기 두 개의 모션 벡터 차이를 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 개별적으로 사용하거나, 또는 하나의 모션 벡터 차이가 있다면, 상기 모션 벡터 차이를 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 각각의 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하거나, 또는 상기 비트스트림으로부터, 상기 모션 벡터 차이가 상기 제1 모션 벡터 예측값에 대응함을 지시하거나 또는 상기 모션 벡터 차이가 상기 제2 모션 벡터 예측값에 대응함을 지시하는 정보를 획득하고 상기 획득된 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 대응관계를 결정하도록 구성된다.
선택적 구현에서, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은, 상기 비트스트림의, 상기 슬라이스-레이어 헤더 정보, 상기 이미지-레이어 헤더 정보, 및 상기 시퀀스-레이어 헤더 정보 중 적어도 하나로부터 획득된다.
선택적 구현에서, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은, 통합 모드 내에서의 모션 정보 리스트 내의 모션 정보의 수량보다 적다.
선택적 구현에서, 상기 현재 이미지 블록은 상기 비트스트림에 대응하는 현재 재구성될 이미지 블록의 임의의 예측 단위이다. 본 발명의 실시예의 제4 측면은 비디오 인코딩 방법을 제공한다. 상기 비디오 인코딩 방법은, 현재 이미지 블록의 후보 예측 모션 정보 리스트를 구성하는 단계 - 여기서 상기 후보 예측 모션 정보 리스트는 후보 예측 모션 정보를 포함하고, 상기 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 상기 현재 이미지 블록의 인접 블록의 모션 정보를 포함함 -; 모션 추정 동안 획득되는, 상기 현재 이미지 블록의 모션 벡터에 기반하여, 상기 후보 예측 모션 정보 리스트로부터, 하나의 후보 예측 모션 정보를 상기 현재 이미지 블록의 예측 모션 정보로서 선택하고, 상기 후보 예측 모션 정보 리스트 내의 선택된 후보 예측 모션 정보의 인덱스를 결정하는 단계 - 여기서 상기 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함함 -; 상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하는 단계; 상기 대응관계 및 상기 모션 벡터에 기반하여, 상기 모션 벡터 예측값에 대응하는 모션 벡터 차이를 획득하는 단계; 및 상기 인덱스 및 상기 모션 벡터 차이를 비트스트림으로 인코딩하는 단계를 포함한다.
선택적 구현에서, 상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하는 단계는, 상기 기준 이미지 정보에 기반하여 상기 현재 이미지 블록의 예측 모드를 결정하는 단계 - 여기서 상기 예측 모드는 단방향 예측 또는 양방향 예측을 포함함 -; 상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 단계; 및 상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 상기 대응관계를 결정하는 단계를 포함한다.
선택적 구현에서, 상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 단계는, 상기 예측 모드가 상기 단방향 예측이면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 단계; 또는 상기 예측 모드가 상기 양방향 예측이고, 상기 기준 이미지 정보가 상기 현재 이미지 블록의 기준 이미지의 화면 순서 카운트를 포함하면, 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하는 단계; 또는 상기 예측 모드가 상기 양방향 예측이면, 모션 벡터 차이의 미리 설정된 수량을, 상기 현재 이미지 블록의 상기 비트스트림과, 상기 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로 인코딩하는 단계를 포함한다.
선택적 구현에서, 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하는 단계는, 상기 현재 이미지 블록의 제1 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많고, 상기 현재 이미지 블록의 제2 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 상기 화면 순서 카운트보다 적으면, 두 개의 모션 벡터 차이가 있는 것으로 결정하거나, 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많거나 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 적으면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 단계를 포함한다.
선택적 구현에서, 상기 예측 모드가 상기 양방향 예측이면, 상기 예측 모션 정보는 두 개의 모션 벡터 예측값 - 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 - 을 포함하고, 상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 대응관계를 결정하는 단계는, 두 개의 모션 벡터 차이가 있다면, 상기 두 개의 모션 벡터 차이를 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 개별적으로 사용하는 단계; 또는 하나의 모션 벡터 차이가 있다면, 상기 모션 벡터 차이를 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 각각의 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하거나, 또는 미리 설정된 대응관계에 기반하여, 각각의 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값과 상기 모션 벡터 차이 사이의 대응관계를 결정하고, 상기 미리 설정된 대응관계를 상기 비트스트림으로 인코딩하는 단계를 포함한다.
선택적 구현에서, 상기 방법은, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량을 상기 비트스트림의, 상기 슬라이스-레이어 헤더 정보, 상기 이미지-레이어 헤더 정보, 및 상기 시퀀스-레이어 헤더 정보 중 적어도 하나로 인코딩하는 단계를 포함한다.
선택적 구현에서, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은, 통합 모드 내에서의 모션 정보 리스트 내의 모션 정보의 수량보다 적다.
선택적 구현에서, 상기 현재 이미지 블록은 상기 비트스트림에 대응하는 현재 재구성될 이미지 블록의 임의의 예측 단위이다.
본 발명의 실시예의 제5 측면은 프로세서 및 메모리를 포함하는 비디오 인코딩 단말을 개시한다. 상기 프로세서는 다음 동작 - 현재 이미지 블록의 후보 예측 모션 정보 리스트를 구성하는 동작 - 여기서 상기 후보 예측 모션 정보 리스트는 후보 예측 모션 정보를 포함하고, 상기 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 상기 현재 이미지 블록의 인접 블록의 모션 정보를 포함함 -; 모션 추정 동안 획득되는, 상기 현재 이미지 블록의 모션 벡터에 기반하여, 상기 후보 예측 모션 정보 리스트로부터, 하나의 후보 예측 모션 정보를 상기 현재 이미지 블록의 예측 모션 정보로서 선택하고, 상기 후보 예측 모션 정보 리스트 내의 선택된 후보 예측 모션 정보의 인덱스를 결정하는 동작 - 여기서 상기 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함함 -; 상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하는 동작; 상기 대응관계 및 상기 모션 벡터에 기반하여, 상기 모션 벡터 예측값에 대응하는 모션 벡터 차이를 획득하는 동작; 및 상기 인덱스 및 상기 모션 벡터 차이를 비트스트림으로 인코딩하는 동작을 수행하도록 구성된다.
선택적 구현에서, 프로세서가 상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하는 것은, 상기 기준 이미지 정보에 기반하여 상기 현재 이미지 블록의 예측 모드를 결정하는 동작 - 여기서 상기 예측 모드는 단방향 예측 또는 양방향 예측을 포함함 -; 상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 동작; 및 상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 상기 대응관계를 결정하는 동작을 포함한다.
선택적 구현에서, 프로세서가 상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 것은, 상기 예측 모드가 상기 단방향 예측이면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 동작; 또는 상기 예측 모드가 상기 양방향 예측이고, 상기 기준 이미지 정보가 상기 현재 이미지 블록의 기준 이미지의 화면 순서 카운트를 포함하면, 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하는 동작; 또는 상기 예측 모드가 상기 양방향 예측이면, 모션 벡터 차이의 미리 설정된 수량을, 상기 현재 이미지 블록의 상기 비트스트림과, 상기 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로 인코딩하는 동작을 포함한다.
선택적 구현에서, 프로세서가 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하는 것은, 상기 현재 이미지 블록의 제1 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많고, 상기 현재 이미지 블록의 제2 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 상기 화면 순서 카운트보다 적으면, 두 개의 모션 벡터 차이가 있는 것으로 결정하거나, 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많거나 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 적으면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 동작을 포함한다.선택적 구현에서, 상기 예측 모드가 상기 양방향 예측이면, 상기 예측 모션 정보는 두 개의 모션 벡터 예측값 - 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 - 을 포함하고, 프로세서가 상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 대응관계를 결정하는 것은, 두 개의 모션 벡터 차이가 있다면, 상기 두 개의 모션 벡터 차이를 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 개별적으로 사용하는 동작; 또는 하나의 모션 벡터 차이가 있다면, 상기 모션 벡터 차이를 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 각각의 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하거나, 또는 미리 설정된 대응관계에 기반하여, 각각의 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값과 상기 모션 벡터 차이 사이의 대응관계를 결정하고, 상기 미리 설정된 대응관계를 상기 비트스트림으로 인코딩하는 동작을 포함한다.
선택적 구현에서, 상기 방법은, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량을 상기 비트스트림의, 상기 슬라이스-레이어 헤더 정보, 상기 이미지-레이어 헤더 정보, 및 상기 시퀀스-레이어 헤더 정보 중 적어도 하나로 인코딩하는 단계를 포함한다.
선택적 구현에서, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은, 통합 모드 내에서의 모션 정보 리스트 내의 모션 정보의 수량보다 적다.
선택적 구현에서, 상기 현재 이미지 블록은 상기 비트스트림에 대응하는 현재 재구성될 이미지 블록의 임의의 예측 단위이다.
본 발명의 실시예의 제6 측면은 비디오 인코딩 단말을 제공한다. 상기 비디오 인코딩 단말은, 현재 이미지 블록의 후보 예측 모션 정보 리스트를 구성하도록 구성된 리스트 구성 유닛 - 여기서 상기 후보 예측 모션 정보 리스트는 후보 예측 모션 정보를 포함하고, 상기 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 상기 현재 이미지 블록의 인접 블록의 모션 정보를 포함함 -; 모션 추정 동안 획득되는, 상기 현재 이미지 블록의 모션 벡터에 기반하여, 상기 후보 예측 모션 정보 리스트로부터, 하나의 후보 예측 모션 정보를 상기 현재 이미지 블록의 예측 모션 정보로서 선택하도록 구성된 선택 유닛 - 여기서 상기 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함함 -; 상기 후보 예측 모션 정보 리스트 내의 선택된 후보 예측 모션 정보의 인덱스를 결정하도록 구성된 제1 결정 유닛; 상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하도록 구성된 제2 결정 유닛; 상기 대응관계 및 상기 모션 벡터에 기반하여, 상기 모션 벡터 예측값에 대응하는 모션 벡터 차이를 획득하도록 구성된 획득 유닛; 및 상기 인덱스 및 상기 모션 벡터 차이를 비트스트림으로 인코딩하도록 구성된 제1 인코딩 유닛을 포함한다.
선택적 구현에서 상기 제2 결정 유닛은, 상기 기준 이미지 정보에 기반하여 상기 현재 이미지 블록의 예측 모드를 결정하도록 구성된 제1 결정 서브유닛 - 여기서 상기 예측 모드는 단방향 예측 또는 양방향 예측을 포함함 -; 상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하도록 구성된 제2 결정 서브유닛; 및 상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 상기 대응관계를 결정하도록 구성된 제3 결정 서브유닛을 포함한다.
선택적 구현에서, 상기 제2 결정 서브유닛은 구체적으로, 상기 예측 모드가 상기 단방향 예측이면, 하나의 모션 벡터 차이가 있는 것으로 결정하거나; 또는 상기 예측 모드가 상기 양방향 예측이고, 상기 기준 이미지 정보가 상기 현재 이미지 블록의 기준 이미지의 화면 순서 카운트를 포함하면, 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하거나; 또는 상기 예측 모드가 상기 양방향 예측이면, 모션 벡터 차이의 미리 결정된 수량을, 상기 현재 이미지 블록의 상기 비트스트림과, 상기 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로 인코딩하도록 구성된다.
선택적 구현에서, 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정할 때, 상기 제2 결정 서브유닛은 구체적으로, 상기 현재 이미지 블록의 제1 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많고, 상기 현재 이미지 블록의 제2 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 상기 화면 순서 카운트보다 적으면, 두 개의 모션 벡터 차이가 있는 것으로 결정하거나, 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많거나 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 적으면, 하나의 모션 벡터 차이가 있는 것으로 결정하도록 구성된다.
선택적 구현에서, 상기 예측 모드가 상기 양방향 예측이면, 상기 예측 모션 정보는 두 개의 모션 벡터 예측값 - 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 - 을 포함하고, 상기 제3 결정 서브유닛은 구체적으로, 두 개의 모션 벡터 차이가 있다면, 상기 두 개의 모션 벡터 차이를 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 개별적으로 사용하거나; 또는 하나의 모션 벡터 차이가 있다면, 상기 모션 벡터 차이를 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 각각의 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하거나, 또는 미리 설정된 대응관계에 기반하여, 각각의 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값과 상기 모션 벡터 차이 사이의 대응관계를 결정하고, 상기 미리 설정된 대응관계를 상기 비트스트림으로 인코딩하도록 구성된다.
선택적 구현에서, 상기 단말은 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량을 상기 비트스트림의, 상기 슬라이스-레이어 헤더 정보, 상기 이미지-레이어 헤더 정보, 및 상기 시퀀스-레이어 헤더 정보 중 적어도 하나로 인코딩하도록 구성된 제2 인코딩 유닛을 더 포함한다.
선택적 구현에서, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은, 통합 모드 내에서의 모션 정보 리스트 내의 모션 정보의 수량보다 적다.
선택적 구현에서, 상기 현재 이미지 블록은 상기 비트스트림에 대응하는 현재 재구성될 이미지 블록의 임의의 예측 단위이다. 본 발명의 실시예의 제7 측면은, 제1 측면 및 제4 측면에서 사용되는 컴퓨터 소프트웨어 명령을 저장하도록 구성된 컴퓨터 저장 매체를 개시한다. 여기서 컴퓨터 소프트웨어 명령은 앞서 설명한 양상을 실행하기 위해 설계된 프로그램을 포함한다. 명심해야 할 것은, 본 발명의 실시예의 제2 측면 내지 제7 측면의 기술적 해결 방안이 본 발명의 실시예의 제1 측면의 기술적 해결 방안과 일치하고, 얻어지는 유익한 효과가 유사하다는 것이다. 세부 사항은 여기에서 다시 설명되지 않는다.
앞서 설명한 기술적 해결책으로부터, 본 발명의 실시예는 다음과 같은 이점을 갖는다는 것을 알 수 있다. 본 발명의 실시예에서, 인접 블록의 기준 이미지 정보가 획득되고 현재 이미지의 기준 이미지 정보로서 사용된다. 모션 벡터에 대해, 인접 블록의 모션 벡터는 현재 이미지 블록의 모션 벡터를 예측하기 위해 사용되고, 모션 벡터 차이가 모션 벡터 예측값을 교정하기 위해 전달됨으로써, 상대적으로 높은 정확도의 모션 벡터가 달성된다. 게다가, 모션 벡터 차이는 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계에 기반하여 더욱 효과적으로 결정되어서, 전송 비트를 절약할 수 있다. 본 발명의 실시예의 구현은 동일한 비디오 품질의 경우 전달될 필요가 있는 정보를 감소시킬 수 있음을 알 수 있고, 따라서 특정한 전송 비트를 절약 할 수 있다.
본 발명의 실시예의 기술적 해결책을 보다 명확하게 설명하기 위해, 실시예를 설명하기 위해 요구되는 첨부 도면을 간단히 설명한다. 명백하게, 다음 설명의 첨부 도면은 본 발명의 일부 실시예를 도시할 뿐이고, 당업자는 창조적인 노력없이 이들 첨부 도면으로부터 다른 도면을 도출할 수 있다.
도 1은 본 발명의 일 실시예에 개시된 비디오 디코딩 방법의 개략적인 흐름도이다;
도 2는 본 발명의 일 실시예에 개시된 비디오 디코딩 단말의 개략적인 구조도이다; 도 3은 본 발명의 일 실시예에 개시된 또 다른 비디오 디코딩 단말의 개략적인 구조도이다; 도 4는 본 발명의 일 실시예에 개시된 비디오 인코딩 방법의 개략적인 흐름도이다;
도 5는 본 발명의 일 실시예에 개시된 비디오 인코딩 단말의 개략적인 구조도이다;
도 6은 본 발명의 일 실시예에 개시된 또 다른 비디오 인코딩 단말의 개략적인 구조도이다;
도 7은 본 발명의 일 실시예에 개시된 비디오 인코딩/디코딩 장치 또는 전자 장비의 개략적인 구조도이다; 그리고
도 8은 본 발명의 일 실시예에 개시된 비디오 인코딩/디코딩 시스템의 개략적인 구조도이다.
본 발명의 목적, 기술적 해결방안, 및 장점을 보다 명확하게 하기 위해, 아래에서는 첨부 도면을 참조하여 본 발명을 더욱 상세하게 설명한다. 명백하게, 설명 된 실시예는 본 발명의 모든 실시예가 아닌 일부이다. 창의적인 노력 없이 본 발명의 실시예에 기반하여 당업자에 의해 획득된 다른 모든 실시예도 본 발명의 보호 범위 내로 되어야 한다.
본 발명의 명세서, 청구범위, 및 첨부 도면에서, "제1", "제2" 등의 용어는 서로 다른 객체들을 구별하기 위해 의도되었고, 특정한 순서를 지시하지는 않는다. 게다가, "포함하다" 및 "가진다"라는 용어와, 이들의 임의의 다른 변형은 비-배타적인 포함을 커버하도록 의도된다. 예를 들어, 일련의 단계 또는 유닛을 포함하는 프로세스, 방법, 시스템, 제품, 또는 장치는 열거된 단계 또는 유닛으로 한정되지 않고, 선택적으로 목록에 없는 단계 또는 유닛을 더 포함하거나, 또는 프로세스, 방법, 또는 장치의 또 달리 내재된 단계 또는 유닛을 더 포함한다.
본 발명의 실시예는 동일한 비디오 품질의 경우에서 전달될 필요가 있는 정보를 줄이기 위한, 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말을 제공하여, 특정 전송 비트를 절약할 수 있다. 세부사항은 아래에서 개별적으로 설명된다.
도 1은 본 발명의 일 실시예에 개시된 비디오 디코딩 방법의 개략적인 흐름도이다. 도 1에 도시된 비디오 디코딩 방법은 다음 단계를 포함할 수 있다.
101. 비트스트림으로부터, 후보 예측 모션 정보 리스트 내에서 현재 이미지 블록의 예측 모션 정보의 인덱스를 획득한다.
본 발명의 본 실시예에서, 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함하고, 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 현재 이미지 블록의 인접 블록의 모션 정보이다.
본 발명의 본 실시예에서, 현재 이미지 블록은 비트스트림에 대응하는 현재 재구성될 이미지 블록의 임의의 예측 단위일 수 있다. 본 발명의 일부 실시예에서, 현재 이미지 블록은 대안적으로 비트스트림에 대응하는 현재 재구성될 이미지 블록의 임의의 변환 단위 또는 디코딩 단위일 수 있다. 이는 한정되지 않는다.
후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은 비트스트림의 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로부터 획득될 수 있다.
또한, 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은 통합 모드(merge mode) 내에서의 모션 정보 리스트 내의 모션 정보의 수량보다 적다. 통합 모드는 고효율 비디오 코딩(High Efficiency Video Coding, HEVC) 표준의 인터 예측 방법(inter prediction method)이다. 통합 모드에서, 현재 이미지 블록의 인접 블록의 하나의 모션 정보는 현재 이미지 블록의 모션 정보를 구체화하기 위해 모션 정보 리스트로부터 직접 선택되고, 모션 정보 리스트 내에는 상대적으로 많은 수량의 모션 정보가 있다. 그러나, 본 발명의 본 실시예에서, 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은 통합 모드 내에서의 모션 정보 리스트 내의 모션 정보의 수량보다 적기 때문에, 계산 복잡도가 감소될 수 있다.
102. 인덱스에 기반하여 후보 예측 모션 정보 리스트를 질의하고, 탐색된 후보 예측 모션 정보를 예측 모션 정보로서 사용한다.
통상적으로, 인접 이미지 블록의 기준 이미지 정보가 완전히 동일한 반면에, 인접 이미지 블록들의 모션 벡터는 보통 약간 서로 다를 확률이 높다. 따라서, 본 발명의 실시예에서는 탐색된 후보 예측 모션 정보가 예측 모션 정보로서 사용되고, 모션 벡터 차이(motion vector difference)가 또한, 현재 이미지 블록의 상대적으로 정확한 모션 벡터를 획득하기 위해, 예측 모션 정보에 포함된 모션 벡터 예측값을 교정하도록 획득된다.
103. 예측 모션 정보에 기반하여, 모션 벡터 차이와 모션 벡터 예측값 사이의 대응관계를 결정하고, 비트스트림으로부터 모션 벡터 차이를 획득한다.
선택적 구현에서, 모션 벡터 차이와 모션 벡터 예측값 사이의 대응관계는 다음과 같은 방식으로 예측 모션 정보에 기반하여 결정될 수 있다.
기준 이미지 정보에 기반하여 현재 이미지 블록의 예측 모드를 결정하는 단계 - 여기서 예측 모드는 단방향 예측 또는 양방향 예측을 포함함 -;
예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 단계; 및
모션 벡터 차이의 수량 및 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하는 단계.
모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하는 단계의 구현에서, 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 단계는 아래 방식 -
상기 예측 모드가 상기 단방향 예측이면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 방식; 또는
상기 예측 모드가 양방향 예측이고, 기준 이미지 정보가 기준 이미지의 화면 순서 카운트를 포함하면, 현재 이미지 블록의 기준 이미지의 화면 순서 카운트에 기반하여 모션 벡터 차이의 수량을 결정하는 방식; 또는
현재 이미지 블록의 제1 기준 이미지의 화면 순서 카운트가 현재 이미지 블록의 화면 순서 카운트보다 많고, 현재 이미지 블록의 제2 기준 이미지의 화면 순서 카운트가 현재 이미지 블록의 화면 순서 카운트보다 적으면, 두 개의 모션 벡터 차이가 있는 것으로 결정하는 방식; 또는 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 현재 이미지 블록의 화면 순서 카운트보다 많거나, 또는 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 현재 이미지 블록의 화면 순서 카운트보다 적으면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 방식; 또는
예측 모드가 상기 양방향 예측이면, 현재 이미지 블록의 비트스트림과, 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로부터 모션 벡터 차이의 수량을 획득하는 방식 -
으로 구현될 수 있다.
모션 벡터 차이의 수량이 획득된 후에, 예측 모드가 양방향 예측이면, 예측 모션 정보는 2개의 모션 벡터 예측값들을 포함하는데, 이는: 제1 모션 벡터 예측값과 제2 모션 예측값이고, 모션 벡터 차이와 모션 벡터 예측값 사이의 대응관계는 아래 방식:
삭제
두 개의 모션 벡터 차이가 있다면, 두 개의 모션 벡터 차이를 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 개별적으로 사용하는 방식; 또는
하나의 모션 벡터 차이가 있다면, 모션 벡터 차이를 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 모션 벡터 차이를 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 모션 벡터 차이를 각각의 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하거나, 또는 비트스트림으로부터, 모션 벡터 차이가 제1 모션 벡터 예측값에 대응함을 지시하거나 또는 모션 벡터 차이가 제2 모션 벡터 예측값에 대응함을 지시하는 정보를 획득하고, 획득된 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하는 방식 -
으로 구현될 수 있다.
명심해야할 것은, 실행 가능한 구현에서, 모션 벡터 차이는 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 각각에 대응하는 모션 벡터 차이로서 사용된다는 것이다. 다시 말해, 모션 벡터 차이가 재사용된다. 이는 모션 벡터 차이를 인코딩하기 위한 소모를 절약하고 효율성을 향상시킨다.
104. 현재의 이미지 블록의 모션 벡터를 획득하기 위해, 대응관계에 기반하여 모션 벡터 예측값 및 대응하는 모션 벡터 차이를 부가한다.
본 발명의 본 실시예에서, 모션 벡터 예측값 및 대응하는 모션 벡터 차이가 부가됨으로써, 모션 벡터 예측값의 오프셋이 교정될 수 있고, 현재 이미지 블록의 모션 벡터가 비교적 정확하게 복원될 수 있다.
도 1에서 설명된 비디오 디코딩 방법에 따르면, 현재 이미지 블록의 모션 벡터가 상대적으로 정확하게 복원될 수 있음이 습득될 수 있고, 그러므로 출력 비디오는 동일한 비트레이트의 경우 상대적으로 높은 품질을 가진다.
도 2는 본 발명의 일 실시예에 따른 비디오 디코딩 단말의 개략적인 구조도이다. 도 2에 도시 된 바와 같이, 단말은 프로세서(201) 및 메모리(202)를 포함한다. 메모리(202)는 데이터 처리를 수행하기 위해 프로세서(201)에 의해 요구되는 캐시(cache)를 저장하도록 구성될 수 있고, 데이터 처리를 수행하기 위해 프로세서(201)에 의해 호출되는 데이터를 제공하고, 획득되는 결과 데이터를 위한 저장 공간을 제공하도록 또한 구성될 수 있다.
본 발명의 본 실시예에서, 프로세서(201)는 메모리(202)에 저장된 프로그램 코드를 호출하여 다음의 동작 -
비트스트림으로부터, 후보 예측 모션 정보 리스트 내에서 현재 이미지 블록의 예측 모션 정보의 인덱스를 획득하는 동작 - 여기서, 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함하고, 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 현재 이미지 블록의 인접 블록의 모션 정보임 -;
인덱스에 기반하여 후보 예측 모션 정보 리스트를 질의하고 탐색된 후보 예측 모션 정보를 예측 모션 정보로서 사용하는 동작;
예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하고, 비트스트림으로부터 모션 벡터 차이를 획득하는 동작; 및
현재 이미지 블록의 모션 벡터를 획득하기 위해 대응관계에 기반하여 모션 벡터 예측값 및 대응하는 모션 벡터 차이를 부가하는 동작 -
을 수행하도록 구성된다.
도 2에서 설명된 비디오 디코딩 단말에 따르면, 현재 이미지 블록의 모션 벡터는 상대적으로 정확하게 복원될 수 있으므로 동일한 비트레이트의 경우 출력 비디오는 상대적으로 높은 품질을 가진다.
도 3은 본 발명의 일 실시예에 따른 또 다른 비디오 디코딩 단말의 개략적인 구조도이다. 도 3에 도시 된 바와 같이, 단말은,
비트스트림으로부터, 후보 예측 모션 정보 리스트 내의 현재 이미지 블록의 예측 모션 정보의 인덱스를 획득하도록 구성된 제1 획득 유닛(301) - 여기서 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함하고, 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 현재 이미지 블록의 인접 블록의 모션 정보임 -;
인덱스에 기반하여 후보 예측 모션 정보 리스트를 질의하고 탐색된 후보 예측 모션 정보를 예측 모션 정보로서 사용하도록 구성된 질의 유닛(302);
예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하도록 구성된 결정 유닛(303);
비트스트림으로부터 모션 벡터 차이를 획득하도록 구성된 제2 획득 유닛(304); 및
현재 이미지 블록의 모션 벡터를 획득하기 위해 대응관계에 기반하여 모션 벡터 예측값 및 대응하는 모션 벡터 차이를 부가하도록 구성된 연산 유닛(305)
를 포함할 수 있다.
도 3에서 설명된 비디오 디코딩 단말에 따르면, 현재 이미지 블록의 모션 벡터는 상대적으로 정확하게 복원될 수 있으므로, 동일한 비트레이트의 경우 출력 비디오는 상대적으로 높은 품질을 가진다.
도 4는 본 발명의 일 실시예에 따른 비디오 인코딩 방법의 개략적인 흐름도이다. 도 4에 도시된 비디오 인코딩 방법은, 다음의 단계를 포함할 수 있다.
401. 현재 이미지 블록의 후보 예측 모션 정보 리스트를 구성하고, 여기서 후보 예측 모션 정보 리스트 내에 포함된 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 현재 이미지 블록의 인접 블록의 모션 정보이다.
본 발명의 본 실시예에서, 현재 이미지 블록은 비트스트림에 대응하는 현재 인코딩될 이미지 블록의 임의의 예측 단위이다. 본 발명의 일부 실시예에서, 현재 이미지 블록은 대안적으로 비트스트림에 대응하는 현재 인코딩될 이미지 블록의 임의의 변환 단위 또는 디코딩 단위일 수 있다. 이는 한정되지 않는다.
선택적 구현에서, 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로 인코딩될 수 있다.
또한, 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은 통합 모드 내에서의 모션 정보 리스트 내의 모션 정보의 수량보다 적다. 통합 모드는 고효율 비디오 코딩(High Efficiency Video Coding, HEVC) 표준의 인터 예측 방법이다. 통합 모드에서, 현재 이미지 블록의 인접 블록의 하나의 모션 정보는 현재 이미지 블록의 모션 정보를 구체화하기 위해 모션 정보 리스트로부터 직접 선택되고, 모션 정보 리스트 내에는 상대적으로 많은 수량의 모션 정보가 있다. 그러나, 본 발명의 본 실시예에서, 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은 통합 모드 내에서의 모션 정보 리스트 내의 모션 정보의 수량보다 적기 때문에, 계산 복잡도가 감소될 수 있다.
402. 모션 추정 동안 획득되는, 현재 이미지 블록의 모션 벡터에 기반하여, 후보 예측 모션 정보 리스트로부터, 하나의 후보 예측 모션 정보를 현재 이미지 블록의 예측 모션 정보로서 선택하고, 후보 예측 모션 정보 리스트 내의 선택된 후보 예측 모션 정보의 인덱스를 결정하고, 여기서 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함한다.
본 발명의 본 실시예에서, 모션 추정이 인접 블록의 모션 정보를 이용하여 현재 이미지 블록에 대해 수행된다. 선택적 구현에서, 복수의 모션 벡터의 위치는 모션 추정 동안 획득되고, 최소의 레이트-디스토션 코스트(rate-distortion cost)를 갖는 모션 벡터가 현재 이미지 블록의 모션 벡터로서 선택된다.
실행 가능한 구현에서, 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보는 트래버스(traverse)되고, 각각의 후보 예측 모션 정보는, 최소의 레이트-디스토션 코스트를 갖는 하나의 후보 예측 모션 정보를 현재 이미지 블록의 예측 모션 정보로서 선택하기 위해, 레이트-디스토션 코스트를 계산하기 위해 현재 이미지 블록의 예측 모션 정보로서 사용된다.
403. 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정한다.
본 발명의 본 실시예에서, 모션 벡터 차이와 모션 벡터 예측값 사이의 대응관계는 아래 방식 -
기준 이미지 정보에 기반하여 현재 이미지 블록의 예측 모드를 결정하는 단계 - 여기서 예측 모드는 단방향 예측 또는 양방향 예측을 포함함 -;
예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 단계; 및
모션 벡터 차이의 수량 및 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하는 단계 -
으로 결정될 수 있다.
예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 것은 다음 방식 -
예측 모드가 단방향 예측이면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 단계; 또는
예측 모드가 양방향 예측이고, 기준 이미지 정보가 현재 이미지 블록의 기준 이미지의 화면 순서 카운트를 포함하면, 현재 이미지 블록의 기준 이미지의 화면 순서 카운트에 기반하여 모션 벡터 차이의 수량을 결정하는 단계; 또는
현재 이미지 블록의 제1 기준 이미지의 화면 순서 카운트가 현재 이미지 블록의 화면 순서 카운트보다 많고, 현재 이미지 블록의 제2 기준 이미지의 화면 순서 카운트가 현재 이미지 블록의 화면 순서 카운트보다 적으면, 두 개의 모션 벡터 차이가 있는 것으로 결정하거나, 또는 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 현재 이미지 블록의 화면 순서 카운트보다 많거나 또는 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 현재 이미지 블록의 화면 순서 카운트보다 적으면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 단계; 또는
예측 모드가 양방향 예측이면, 모션 벡터 차이의 미리 설정된 수량을, 현재 이미지 블록의 비트스트림과, 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로 인코딩하는 단계 -
으로 구현될 수 있다.
모션 벡터 차이의 수량이 결정된 후, 모션 벡터 차이와 모션 벡터 예측값 사이의 대응관계는 아래 방식 -
두 개의 모션 벡터 차이가 있다면, 두 개의 모션 벡터 차이를 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 개별적으로 사용하는 단계; 또는
하나의 모션 벡터 차이가 있다면, 모션 벡터 차이를 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 모션 벡터 차이를 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 모션 벡터 차이를 각각의 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하거나, 또는 미리 설정된 대응관계에 기반하여, 각각의 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값과 모션 벡터 차이 사이의 대응관계를 결정하고, 미리 설정된 대응관계를 비트스트림으로 인코딩하는 단계 -
으로 결정될 수 있다.
명심해야할 것은, 실행 가능한 구현에서, 모션 벡터 차이는 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 각각에 대응하는 모션 벡터 차이로서 사용된다는 것이다. 다시 말해, 모션 벡터 차이가 재사용된다. 이는 모션 벡터 차이를 인코딩하기 위한 소모를 절약하고 효율성을 향상시킨다.
404. 대응관계 및 모션 벡터에 기반하여, 모션 벡터 예측값에 대응하는 모션 벡터 차이를 획득한다.
현재 이미지 블록의 모션 벡터는 402 단계에서 결정되므로, 모션 벡터 예측값에 대응하는 모션 벡터 차이는 현재 이미지 블록의 모션 벡터로부터 모션 벡터 예측값을 차감하여 획득될 수 있다.
405. 인덱스 및 모션 벡터 차이를 비트스트림으로 인코딩한다.
도 4에서 설명한 비디오 인코딩 방법에 따르면, 인덱스와 모션 벡터 차이만이 비트스트림 내에서 전송될 필요가 있고, 현재 이미지 블록의 모션 정보는 디코딩 측에서 복원될 수 있음이 습득될 수 있어서, 특정한 비트레이트가 동일한 비디오 품질의 경우 상기 방법을 사용함으로써 절약될 수 있다.
도 5는 본 발명의 일 실시예에 개시된 비디오 인코딩 단말의 개략적인 구조도이다. 도 5에 도시된 바와 같이, 단말 장치는 프로세서(501) 및 메모리(502)를 포함한다. 메모리(502)는 데이터 처리를 수행하기 위해 프로세서(501)에 의해 요구되는 캐시를 저장하도록 구성될 수 있고, 획득된 결과 데이터를 위한 저장 공간을 제공하도록 또한 구성될 수 있다.
본 발명의 본 실시예에서, 프로세서(501)는 메모리(502)에 저장된 프로그램 코드를 호출함으로써 다음 동작 -
현재 이미지 블록의 후보 예측 모션 정보 리스트를 구성하는 동작 - 여기서 후보 예측 모션 정보 리스트 내에 포함된 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 현재 이미지 블록의 인접 블록의 모션 정보임 -;
모션 추정 동안 획득되는, 현재 이미지 블록의 모션 벡터에 기반하여, 후보 예측 모션 정보 리스트로부터, 하나의 후보 예측 모션 정보를 현재 이미지 블록의 예측 모션 정보로서 선택하고, 후보 예측 모션 정보 리스트 내의 선택된 후보 예측 모션 정보의 인덱스를 결정하는 동작 - 여기서 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함함 -;
예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하는 동작;
대응관계 및 모션 벡터에 기반하여, 모션 벡터 예측값에 대응하는 모션 벡터 차이를 획득하는 동작; 및
인덱스 및 모션 벡터 차이를 비트스트림으로 인코딩하는 동작 -
을 수행하도록 구성된다.
도 5에서 설명된 비디오 인코딩 장치에 따르면, 인덱스와 모션 벡터 차이 만이 비트스트림으로 전송될 필요가 있고, 현재 이미지 블록의 모션 정보는 디코딩 측에서 복구될 수 있음이 습득될 수 있으므로, 따라서, 특정한 비트레이트가 동일한 비디오 품질의 경우 상기 단말을 사용함으로써 절약될 수 있다.
도 6은 본 발명의 일 실시예에 따른 또 다른 비디오 인코딩 장치의 개략적인 구조도이다. 도 6에 도시된 바와 같이, 상기 단말은,
현재 이미지 블록의 후보 예측 모션 정보 리스트를 구성하도록 구성된 리스트 구성 유닛(601) - 여기서 후보 예측 모션 정보 리스트 내에 포함된 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 현재 이미지 블록의 인접 블록의 모션 정보임 -;
모션 추정 동안 획득되는, 현재 이미지 블록의 모션 벡터에 기반하여, 후보 예측 모션 정보 리스트로부터, 하나의 후보 예측 모션 정보를 현재 이미지 블록의 예측 모션 정보로서 선택하도록 구성된 선택 유닛(602) - 여기서 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함함 -;
후보 예측 모션 정보 리스트 내의 선택된 후보 모션 예측 정보의 인덱스를 결정하도록 구성된 제1 결정 유닛(603);
예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하도록 구성된 제2 결정 유닛(604);
대응관계 및 모션 벡터에 기반하여, 모션 벡터 예측값에 대응하는 모션 벡터 차이를 획득하도록 구성된 획득 유닛(605); 및
인덱스 및 모션 벡터 차이를 비트스트림으로 인코딩하도록 구성된 제1 인코딩 유닛(606)
을 포함할 수 있다.
도 6에서 설명된 비디오 인코딩 장치에 따르면, 인덱스와 모션 벡터 차이 만이 비트스트림으로 전송될 필요가 있고, 현재 이미지 블록의 모션 정보는 디코딩 측에서 복구될 수 있음이 습득될 수 있으므로, 따라서, 특정한 비트레이트가 동일한 비디오 품질의 경우 상기 단말을 사용함으로써 절약될 수 있다.
도 7은 본 발명의 일 실시예에 개시된 비디오 인코딩/디코딩 장치 또는 전자 장치(50)의 개략적인 구조도이다. 상기 장치 또는 전자 장치는 본 발명의 실시예에서 코덱에 통합될 수 있다. 세부사항은 아래에서 설명된다.
전자 장치(50)는, 예를 들어 무선 통신 시스템의 이동 단말 또는 사용자 장비일 수 있다. 명심해야할 것은, 본 발명의 실시예들은 비디오 이미지를 인코딩 및 디코딩, 또는 인코딩, 또는 디코딩할 필요가 있는 임의의 전자 장치 또는 장치 상에 구현될 수 있다는 것이다.
상기 장치(50)는 장치를 보호하기 위해 사용되는, 장치 내에 통합되는 하우징(30)을 포함할 수 있다. 상기 장치(50)는 액정 디스플레이 형태의 디스플레이(32)를 더 포함할 수 있다. 본 발명의 다른 실시예에서, 디스플레이는 이미지 또는 비디오를 디스플레이 하기에 적합한 임의의 적절한 디스플레이일 수 있다. 상기 장치(50)는 키패드(34)를 더 포함할 수 있다. 본 발명의 다른 실시예에서, 임의의 적절한 데이터 또는 사용자 인터페이스 메커니즘이 사용될 수 있다. 예를 들어, 사용자 인터페이스가 가상 키보드로서 구현되거나, 또는 데이터 입력 시스템이 터치 감지 디스플레이의 일부로서 구현될 수 있다. 상기 장치는 마이크로폰(36) 또는 임의의 적절한 오디오 입력을 포함할 수 있으며, 오디오 입력은 디지털 또는 아날로그 신호 입력일 수 있다. 상기 장치(50)는 다음의 오디오 출력 장치를 더 포함할 수 있다. 본 발명의 본 실시예에서 오디오 출력 장치는 이어폰(38), 스피커, 아날로그 오디오 출력 연결, 또는 디지털 오디오 출력 연결 중 임의의 것일 수 있다. 상기 장치(50)는 또한 배터리(40)를 포함할 수 있다. 본 발명의 다른 실시예에서, 장치는 태양 전지, 연료 전지, 또는 클록 발생기와 같은 임의의 적절한 이동 에너지 장치에 의해 전력 공급될 수 있다. 상기 장치는 다른 장치와 단거리의 가시선 통신을 위해 사용되는 적외선 포트(42)를 더 포함할 수 있다. 다른 실시예에서, 상기 장치(50)는 블루투스 무선 접속 또는 USB 유선 접속과 같은 임의의 적절한 단거리 통신 솔루션을 더 포함할 수 있다.
상기 장치(50)는 제어기(56) 또는 상기 장치(50)를 제어하도록 구성된 프로세서를 포함할 수 있다. 제어기(56)는 메모리(58)에 연결될 수 있다. 본 발명의 본 실시예의 메모리는 이미지 데이터 또는 오디오 데이터를 저장하고 및/또는 제어기(56) 상에서 구현되는 명령을 저장할 수 있다. 제어기(56)는 오디오 및/또는 비디오 데이터 인코딩 및 디코딩을 구현하거나, 또는 제어기(56)에 의해 구현되는 보조 인코딩 및 디코딩에 적합한 코덱 회로(54)에 추가로 연결될 수 있다.
상기 장치(50)는 사용자 정보를 제공하도록 구성되고, 네트워크 인증 및 사용자 인증에 사용되는 인증 정보를 제공하기에 적합한 UICC 및 UICC 판독기와 같은 스마트 카드(46)의 카드 판독기(48)를 더 포함할 수 있다.
상기 장치(50)는 무선 인터페이스 회로(52)를 더 포함할 수 있다. 무선 인터페이스 회로는 제어기에 접속되며, 예를 들어 셀룰러 통신 네트워크, 무선 통신 시스템, 또는 무선 근거리 네트워크와의 통신에 사용되는 무선 통신 신호를 생성하는 데 적합하다. 상기 장치(50)는 안테나(44)를 더 포함할 수 있다. 안테나는 무선 인터페이스 회로(52)에 연결되고, 무선 인터페이스 회로(52)에서 생성된 무선 주파수 신호를 또 다른 장치(또는 복수의 장치)에게 송신하고, 또 다른 장치(또는 복수의 장치)로부터 무선 주파수 신호를 수신하도록 구성된다.
본 발명의 일부 실시예에서, 상기 장치(50)는 단일 프레임을 기록 또는 검출할 수 있는 카메라를 포함하고, 코덱(54) 또는 제어기는 이들 단일 프레임을 수신하여 처리한다. 본 발명의 일부 실시예에서, 상기 장치는 전송 및/또는 저장 전에 처리될 비디오 이미지 데이터를 또 다른 장치로부터 수신할 수 있다. 본 발명의 일부 실시예에서, 상기 장치(50)는 이미지를 인코딩/디코딩하기 위해, 무선 또는 유선 연결을 통해 이미지를 수신할 수 있다.
본 발명의 실시예에서, 코덱(54)은 도 1에서 설명된 비디오 디코딩 방법 또는 도 4에서 설명된 비디오 인코딩 방법을 수행하도록 구성될 수 있다.
도 8은 본 발명의 일 실시예에서 개시된 비디오 인코딩/디코딩 시스템의 개략적인 구조도이다. 도 8에 도시된 바와 같이, 비디오 인코딩/디코딩 시스템(10)은 출발지 장치(12) 및 목적지 장치(14)를 포함한다. 출발지 장치(12)는 인코딩된 비디오 데이터를 생성한다. 따라서, 출발지 장치(12)는 비디오 인코딩 장치 또는 비디오 인코딩 장비로 지칭될 수 있다. 목적지 장치(14)는 출발지 장치(12)에 의해 생성된 인코딩된 비디오 데이터를 디코딩할 수 있다. 따라서, 목적지 장치(14)는 비디오 디코딩 장치 또는 비디오 디코딩 장비로 지칭될 수 있다. 출발지 장치(12) 및 목적지 장치(14)는 비디오 인코딩/디코딩 장치 또는 비디오 인코딩/디코딩 장비의 인스턴스일 수 있다. 출발지 장치(12) 및 목적지 장치(14)는 데스크탑 컴퓨터, 모바일 컴퓨팅 장치, 노트북(예를 들어, 랩톱) 컴퓨터, 태블릿 컴퓨터, 셋톱 박스, 스마트폰과 같은 휴대용 컴퓨터, 텔레비전, 카메라, 디스플레이 장치, 디지털 미디어 플레이어, 비디오 게임 콘솔, 차량용 컴퓨터 등을 포함하는 넓은 범위의 장치들을 포함할 수 있다.
목적지 장치(14)는 출발지 장치(12)로부터 채널(16)을 통해 인코딩된 비디오 데이터를 수신할 수 있다. 채널(16)은 출발지 장치(12)로부터 목적지 장치(14)로 인코딩된 비디오 데이터를 이동시킬 수 있는 하나 이상의 매체 및/또는 장치를 포함할 수 있다. 하나의 인스턴스에서, 채널(16)은 출발지 장치(12)가 인코딩된 비디오 데이터를 목적지 장치(14)에게 실시간으로 직접 전송할 수 있게 하는 하나 이상의 통신 매체를 포함할 수 있다. 본 인스턴스에서, 출발지 장치(12)는 통신 표준(예를 들어, 무선 통신 프로토콜)에 따라 인코딩된 비디오 데이터를 변조할 수 있고, 변조 된 비디오 데이터를 목적지 장치(14)에게 전송할 수 있다. 하나 이상의 통신 매체는 무선 및/또는 유선 통신 매체, 예를 들어 무선 주파수(RF) 스펙트럼 또는 하나 이상의 물리 전송선을 포함할 수 있다. 하나 이상의 통신 매체는 패킷 기반 네트워크(근거리 통신망, 광역 통신망, 또는 세계적 네트워크(예를 들어, 인터넷)과 같은)의 일부를 구성할 수 있다. 하나 이상의 통신 매체는 라우터, 스위치, 기지국, 또는 출발지 장치(12)와 목적지 장치(14) 간의 통신을 향상시키는 다른 장치를 포함할 수 있다.
다른 인스턴스에서, 채널(16)은 출발지 장치(12)에 의해 생성된 인코딩된 비디오 데이터를 저장하는 저장 매체를 포함할 수 있다. 본 인스턴스에서, 목적지 장치(14)는 디스크 액세스 또는 카드 액세스를 통해 저장 매체에 액세스할 수 있다. 저장 매체는 블루-레이, DVD, CD-ROM, 플래시 메모리, 또는 인코딩된 비디오 데이터를 저장하도록 구성된 다른 적절한 디지털 저장 매체와 같은 복수의 지역한정으로 액세스 가능한 데이터 저장 매체를 포함할 수 있다.
다른 인스턴스에서, 채널(16)은 출발지 장치(12)에 의해 생성된 인코딩된 비디오 데이터를 저장하는 파일 서버 또는 다른 중간 저장 장치를 포함할 수 있다. 본 인스턴스에서, 목적지 장치(14)는 스트리밍 전송 또는 다운로드를 통해, 파일 서버 또는 다른 중간 저장 장치에 저장된 인코딩된 비디오 데이터에 액세스할 수 있다. 파일 서버는 인코딩된 비디오 데이터를 저장할 수 있고 인코딩된 비디오 데이터를 목적지 장치(14)에게 전송할 수 있는 유형의 서버일 수 있다. 본 인스턴스에서 파일 서버는 웹 서버(예를 들어, 웹 사이트에 사용됨), 파일 전송 프로토콜(File Transfer Protocol, FTP) 서버, 네트워크 결합 스토리지(Network Attached Storage, NAS) 장치, 및 로컬 디스크 드라이브를 포함한다.
목적지 장치(14)는 표준 데이터 접속(예를 들어, 인터넷 접속)을 통해 인코딩된 비디오 데이터에 액세스할 수 있다. 데이터 연결의 인스턴스 유형은, 파일 서버에 저장된 인코딩된 비디오 데이터에 액세스하는 데 적합한 무선 채널(예를 들어, Wi-Fi 연결) 또는 유선 연결(예를 들어, DSL 또는 케이블 모뎀) 또는 이들의 조합을 포함한다. 인코딩된 비디오 데이터는 스트리밍 전송, 다운로드 전송, 또는 이들의 조합을 통해 파일 서버로부터 전송될 수 있다.
본 발명의 기술은 무선 애플리케이션 시나리오로 한정되지 않는다. 예를 들어, 상기 기술은, 공중파 TV 방송, 또는 무선 텔레비전 전송, 또는 위성 텔레비전 전송, 또는 스트리밍 비디오 전송(예를 들어, 인터넷을 통한 전송), 또는 데이터 저장 매체에 저장된 비디오 데이터의 인코딩, 또는 데이터 저장 매체에 저장된 비디오 데이터의 디코딩, 또는 또 다른 애플리케이션을 지원하는 복수의 멀티미디어 애플리케이션에서의 비디오 인코딩 및 디코딩에 적용될 수 있다. 일부 인스턴스에서, 비디오 인코딩/디코딩 시스템(10)은 스트리밍 비디오 전송, 비디오 플레이, 비디오 방송 및/또는 비디오 호출, 및 다른 애플리케이션을 지원하기 위해, 단방향 또는 양방향 비디오 전송을 지원하도록 구성될 수 있다.
도 8의 인스턴스에서, 출발지 장치(12)는 비디오 소스(18), 비디오 인코더(20), 및 출력 인터페이스(22)를 포함한다. 일부 인스턴스에서, 출력 인터페이스(22)는 변조기/복조기(모뎀) 및/또는 송신기를 포함할 수 있다. 비디오 소스(18)는 비디오 캡처 장치(예를 들어, 비디오 카메라), 이전에 캡처된 비디오 데이터를 포함하는 비디오 아카이브, 비디오 컨텐츠 제공자로부터 비디오 데이터를 수신하도록 구성된 비디오 입력 인터페이스, 및/또는 비디오 데이터를 생성하도록 구성된 컴퓨터 그래픽 시스템, 또는 앞서 설명한 비디오 데이터 소스의 조합을 포함할 수 있다.
비디오 인코더(20)는 비디오 소스(18)로부터의 비디오 데이터를 인코딩할 수 있다. 일부 인스턴스에서, 출발지 장치(12)는 출력 인터페이스(22)를 사용하여 인코딩된 비디오 데이터를 목적지 장치(14)에게 직접 전송한다. 인코딩된 비디오 데이터는 대안적으로 저장 매체 또는 파일 서버 상에 저장될 수 있어서, 목적지 장치(14)가 나중에 인코딩된 비디오 데이터에 액세스하여 인코딩된 비디오 데이터를 디코딩 및/또는 재생할 수 있다.
도 8의 인스턴스에서, 목적지 장치(14)는 입력 인터페이스(28), 비디오 디코더(30), 및 디스플레이 장치(32)를 포함한다. 일부 인스턴스에서, 입력 인터페이스(28)는 수신기 및/또는 모뎀을 포함한다. 입력 인터페이스(28)는 채널(16)을 통해 인코딩된 비디오 데이터를 수신할 수 있다. 디스플레이 장치(32)는 목적지 장치(14)와 통합되거나 목적지 장치(14) 외부에 있을 수 있다. 디스플레이 장치(32)는 일반적으로 디코딩된 비디오 데이터를 디스플레이한다. 디스플레이 장치(32)는 액정 디스플레이(LCD), 플라즈마 디스플레이, 유기 발광 다이오드(OLED) 디스플레이 또는 다른 유형의 디스플레이 장치와 같은 복수 유형의 디스플레이 장치를 포함할 수 있다.
비디오 인코더(20) 및 비디오 디코더(30)는 비디오 압축 표준(예를 들어, 고효율 비디오 코딩 H.265 표준)에 따른 동작을 수행할 수 있고, HEVC 테스트 모델(HM)을 따를 수 있다. H.265 표준의 텍스트 설명 ITU-TH.265(V3)(04/2015)는 2015년 4월 29일에 릴리스되며 http://handle.itu.int/11.1002/1000/12455에서 다운로드할 수 있고, 이 문서의 모든 내용이 전체 참조로 포함된다.
대안적으로, 비디오 인코더(20) 및 비디오 디코더(30)는 다른 소유권(proprietary) 또는 산업 표준에 따라 동작을 수행할 수 있다. 표준은, 스케일러블 비디오 코딩/디코딩(Scalable Video Coding/Decoding, SVC) 및 다중뷰 비디오 코딩/디코딩(Multiview Video Coding/Decoding, MVC)과 같은 확장 기능을 포함하는, ITU-TH.261, ISO/IECMPEG-1Visual, ITU-TH.262 또는 ISO/IECMPEG-2Visual, ITU-TH.263, ISO/IECMPEG-4Visual, 및 ITU-TH.264(ISO/IEC MPEG-4 AVC라고도 함)를 포함한다. 명심해야 할 것은, 본 발명의 기술은 임의의 특정한 인코딩/디코딩 표준 또는 기술에 한정되지 않는다는 것이다.
게다가, 도 8은 단지 인스턴스이며, 본 발명의 기술은 인코딩 장치 및 디코딩 장치 사이의 임의의 데이터 통신을 필수적으로 포함하지 않는 비디오 인코딩/디코딩 응용(예를 들어, 편측(single-side) 비디오 인코딩 또는 편측 비디오 디코딩)에 적용될 수 있다. 다른 인스턴스에서, 로컬 메모리로부터 데이터가 검색되고, 상기 데이터는 네트워크를 사용하여 스트리밍을 통해 전송되거나 또는 데이터는 유사한 방식으로 동작된다. 인코딩 장치는 데이터를 인코딩하고 메모리에 데이터를 저장할 수 있고 및/또는 디코딩 장치는 메모리로부터 데이터를 검색하고 데이터를 디코딩할 수 있다. 많은 인스턴스에서, 서로 통신하지 않고 메모리로 데이터를 인코딩하거나, 및/또는 메모리로부터 데이터를 검색하고 데이터를 디코딩하는 복수의 장치는 인코딩 및 디코딩을 수행한다.
비디오 인코더(20) 및 비디오 디코더(30)는 각각, 예를 들어, 하나 이상의 마이크로 프로세서, 디지털 신호 프로세서(digital signal processor, DSP), 주문형 반도체(application-specific circuit, ASIC), 필드 프로그래머블 게이트 어레이(field programmable gate array, FPGA), 이산 로직 회로, 하드웨어, 또는 이들의 임의의 조합인 임의의 복수의 적절한 회로로서 구현될 수 있다. 본 기술이 소프트웨어를 사용하여 부분적으로 또는 완전히 구현되면, 상기 장치는 적절한 비-일시적 컴퓨터 판독가능 저장 매체에 소프트웨어의 명령을 저장할 수 있고, 하나 이상의 프로세서는 본 발명의 기술을 실행하기 위해 하드웨어 내에서 명령을 실행하도록 사용될 수 있다. 앞서 설명한 항목(하드웨어, 소프트웨어, 하드웨어 및 소프트웨어의 조합 등을 포함) 중 임의의 하나는 하나 이상의 프로세서로서 간주될 수 있다. 비디오 인코더(20) 및 비디오 디코더(30) 각각은 하나 이상의 인코더 또는 디코더에 포함될 수 있으며, 각각 다른 장치의 조합된 인코더/디코더(코덱(CODEC))의 일부로서 통합될 수 있다.
본 발명은 일반적으로, 비디오 인코더(20)가 신호를 사용하여 다른 장치(예를 들어, 비디오 디코더(30))에게 정보를 "시그널링"하는 것을 지시할 수 있다. 상기 표현 "시그널링"은 일반적으로 구문적 요소(syntactic element)를 지시할 수 있고 및/또는 인코딩된 비디오 데이터의 전송을 지시할 수 있다. 전송은 실시간으로 또는 대략 실시간으로 발생할 수 있다. 대안적으로, 상기 통신은 구문적 요소가, 인코딩 동안, 인코딩된 후에 획득된 이진 데이터를 사용함으로써 컴퓨터 판독가능 저장 매체에 저장될 때, 예를 들어 시간 기간(time span)에 걸쳐 발생할 수 있다. 디코딩 장치는 구문적 요소가 매체에 저장된 후 언제든지 구문적 요소를 검색할 수 있다.
명심해야 할 것은, 장치 분할은 단지 논리적인 기능 분할이고, 대응하는 기능이 구현될 수 있는 한, 본 발명은 앞서 설명한 분할로 한정되지 않는다는 것이다. 게다가, 기능 유닛의 구체적인 명칭은 유닛을 서로 구별하기 위해 제공되는 것일 뿐이고, 본 발명의 보호 범위를 한정하려 의도되지 않았다.
게다가, 당업자는 방법 실시예의 모든 단계 또는 일부가 관련 하드웨어를 지시하는 프로그램에 의해 구현될 수 있다는 것을 이해할 수 있다. 프로그램은 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 저장 매체는 읽기 전용 메모리, 자기 디스크, 광학 디스크 등을 포함할 수 있다.
앞선 설명은 단지 본 발명의 특정 실시예에 불과하고, 본 발명의 보호 범위를 한정하려 의도되지 않았다. 본 발명의 실시예들에 개시된 기술 범위 내에서 당업자에 의해 용이하게 밝혀지는 임의의 변형 또는 대체도 본 발명의 보호 범위 내로 되어야 한다. 따라서, 본 발명의 보호 범위는 청구 범위의 보호 범위로 된다.

Claims (32)

  1. 비디오 디코딩 방법으로서,
    비트스트림으로부터, 후보 예측 모션 정보 리스트 내에서 현재 이미지 블록의 예측 모션 정보의 인덱스를 획득하는 단계 - 여기서, 상기 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함하고, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 상기 현재 이미지 블록의 인접 블록의 모션 정보임 -;
    상기 인덱스에 기반하여 상기 후보 예측 모션 정보 리스트를 질의하고 탐색된 후보 예측 모션 정보를 상기 예측 모션 정보로서 사용하는 단계;
    상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하고, 상기 비트스트림으로부터 상기 모션 벡터 차이를 획득하는 단계; 및
    상기 현재 이미지 블록의 모션 벡터를 획득하기 위해 상기 대응관계에 기반하여 대응하는 모션 벡터 차이를 사용함으로써 상기 모션 벡터 예측값을 교정하는 단계
    를 포함하고,
    상기 현재 이미지 블록의 예측 모드가 양방향 예측이면, 상기 예측 모션 정보는 두 개의 모션 벡터 예측값 - 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 - 을 포함하고,
    상기 모션 벡터 차이는 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 의해 재사용되는, 비디오 디코딩 방법.
  2. 제1항에 있어서,
    상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하는 것은,
    상기 기준 이미지 정보에 기반하여 상기 현재 이미지 블록의 상기 예측 모드를 결정하는 단계 - 여기서 상기 예측 모드는 단방향 예측 또는 양방향 예측을 포함함 -;
    상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 단계; 및
    상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 상기 대응관계를 결정하는 단계
    를 포함하는, 비디오 디코딩 방법.
  3. 제2항에 있어서,
    상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 단계는,
    상기 예측 모드가 상기 단방향 예측이면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 단계; 또는
    상기 예측 모드가 상기 양방향 예측이고, 상기 기준 이미지 정보가 기준 이미지의 화면 순서 카운트를 포함하면, 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하는 단계; 또는
    상기 예측 모드가 상기 양방향 예측이면, 상기 현재 이미지 블록의 상기 비트스트림과, 상기 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로부터 상기 모션 벡터 차이의 수량을 획득하는 단계
    를 포함하는, 비디오 디코딩 방법.
  4. 제3항에 있어서,
    상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하는 단계는,
    상기 현재 이미지 블록의 제1 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많고, 상기 현재 이미지 블록의 제2 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 상기 화면 순서 카운트보다 적으면, 두 개의 모션 벡터 차이가 있는 것으로 결정하는 단계; 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많거나, 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 적으면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 단계
    를 포함하는, 비디오 디코딩 방법.
  5. 제2항에 있어서,
    상기 예측 모드가 상기 양방향 예측이면, 상기 예측 모션 정보는 두 개의 모션 벡터 예측값 - 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 - 을 포함하고, 상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 상기 대응관계를 결정하는 단계는,
    두 개의 모션 벡터 차이가 있다면, 상기 두 개의 모션 벡터 차이를 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 개별적으로 사용하는 단계; 또는
    하나의 모션 벡터 차이가 있다면, 상기 모션 벡터 차이를 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 각각의 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하거나, 또는 상기 비트스트림으로부터, 상기 모션 벡터 차이가 상기 제1 모션 벡터 예측값에 대응함을 지시하거나 또는 상기 모션 벡터 차이가 상기 제2 모션 벡터 예측값에 대응함을 지시하는 정보를 획득하고, 상기 획득된 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 대응관계를 결정하는 단계
    를 포함하는, 비디오 디코딩 방법.
  6. 제1항에 있어서,
    상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은, 상기 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로부터 획득되는, 비디오 디코딩 방법.
  7. 제1항에 있어서,
    상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은, 통합 모드 내에서의 모션 정보 리스트 내의 모션 정보의 수량보다 적은, 비디오 디코딩 방법.
  8. 제1항에 있어서,
    상기 현재 이미지 블록은 상기 비트스트림에 대응하는 현재 재구성될 이미지 블록의 임의의 예측 단위인, 비디오 디코딩 방법.
  9. 비디오 디코딩 단말로서,
    비트스트림으로부터, 후보 예측 모션 정보 리스트 내의 현재 이미지 블록의 예측 모션 정보의 인덱스를 획득하도록 구성된 제1 획득 유닛 - 여기서 상기 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함하고, 상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 상기 현재 이미지 블록의 인접 블록의 모션 정보임 -;
    상기 인덱스에 기반하여 상기 후보 예측 모션 정보 리스트를 질의하고 탐색된 후보 예측 모션 정보를 상기 예측 모션 정보로서 사용하도록 구성된 질의 유닛;
    상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하도록 구성된 결정 유닛;
    상기 비트스트림으로부터 상기 모션 벡터 차이를 획득하도록 구성된 제2 획득 유닛; 및
    상기 현재 이미지 블록의 모션 벡터를 획득하기 위해 상기 대응관계에 기반하여 대응하는 모션 벡터 차이를 사용함으로써 상기 모션 벡터 예측값을 교정하도록 구성된 연산 유닛
    을 포함하고,
    상기 현재 이미지 블록의 예측 모드가 양방향 예측이면, 상기 예측 모션 정보는 두 개의 모션 벡터 예측값 - 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 - 을 포함하고,
    상기 모션 벡터 차이는 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 의해 재사용되는, 비디오 디코딩 단말.
  10. 제9항에 있어서,
    상기 결정 유닛은,
    상기 기준 이미지 정보에 기반하여 상기 현재 이미지 블록의 상기 예측 모드를 결정하도록 구성된 제1 결정 서브유닛 - 여기서 상기 예측 모드는 단방향 예측 또는 양방향 예측을 포함함 -;
    상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하도록 구성된 제2 결정 서브유닛; 및
    상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 상기 대응관계를 결정하도록 구성된 제3 결정 서브유닛
    을 포함하는, 비디오 디코딩 단말.
  11. 제10항에 있어서,
    상기 제2 결정 서브유닛은 구체적으로,
    상기 예측 모드가 상기 단방향 예측이면, 하나의 모션 벡터 차이가 있는 것으로 결정하거나; 또는
    상기 예측 모드가 상기 양방향 예측이고, 상기 기준 이미지 정보가 기준 이미지의 화면 순서 카운트를 포함하면, 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하거나; 또는
    상기 예측 모드가 상기 양방향 예측이면, 상기 현재 이미지 블록의 상기 비트스트림과, 상기 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로부터 상기 모션 벡터 차이의 수량을 획득하도록 구성된, 비디오 디코딩 단말.
  12. 제11항에 있어서,
    상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정할 때, 상기 제2 결정 서브유닛은 구체적으로,
    상기 현재 이미지 블록의 제1 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많고, 상기 현재 이미지 블록의 제2 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 상기 화면 순서 카운트보다 적으면, 두 개의 모션 벡터 차이가 있는 것으로 결정하는 단계; 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많거나, 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 적으면, 하나의 모션 벡터 차이가 있는 것으로 결정하도록 구성된, 비디오 디코딩 단말.
  13. 제10항에 있어서,
    상기 예측 모드가 상기 양방향 예측이면, 상기 예측 모션 정보는 두 개의 모션 벡터 예측값 - 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 - 을 포함하고, 상기 제3 결정 서브유닛은 구체적으로,
    두 개의 모션 벡터 차이가 있다면, 상기 두 개의 모션 벡터 차이를 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 개별적으로 사용하거나, 또는
    하나의 모션 벡터 차이가 있다면, 상기 모션 벡터 차이를 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 각각의 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하거나, 또는 상기 비트스트림으로부터, 상기 모션 벡터 차이가 상기 제1 모션 벡터 예측값에 대응함을 지시하거나 또는 상기 모션 벡터 차이가 상기 제2 모션 벡터 예측값에 대응함을 지시하는 정보를 획득하고 상기 획득된 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 대응관계를 결정하도록 구성된, 비디오 디코딩 단말.
  14. 제9항에 있어서,
    상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은, 상기 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로부터 획득되는, 비디오 디코딩 단말.
  15. 제9항에 있어서,
    상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은, 통합 모드 내에서의 모션 정보 리스트 내의 모션 정보의 수량보다 적은, 비디오 디코딩 단말.
  16. 제9항에 있어서,
    상기 현재 이미지 블록은 상기 비트스트림에 대응하는 현재 재구성될 이미지 블록의 임의의 예측 단위인, 비디오 디코딩 단말.
  17. 비디오 인코딩 방법으로서,
    현재 이미지 블록의 후보 예측 모션 정보 리스트를 구성하는 단계 - 여기서 상기 후보 예측 모션 정보 리스트는 후보 예측 모션 정보를 포함하고, 상기 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 상기 현재 이미지 블록의 인접 블록의 모션 정보를 포함함 -;
    모션 추정 동안 획득되는, 상기 현재 이미지 블록의 모션 벡터에 기반하여, 상기 후보 예측 모션 정보 리스트로부터, 하나의 후보 예측 모션 정보를 상기 현재 이미지 블록의 예측 모션 정보로서 선택하고, 상기 후보 예측 모션 정보 리스트 내의 선택된 후보 예측 모션 정보의 인덱스를 결정하는 단계 - 여기서 상기 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함함 -;
    상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하는 단계;
    상기 대응관계 및 상기 모션 벡터에 기반하여, 상기 모션 벡터 예측값에 대응하는 모션 벡터 차이를 획득하는 단계; 및
    상기 인덱스 및 상기 모션 벡터 차이를 비트스트림으로 인코딩하는 단계
    를 포함하고,
    상기 현재 이미지 블록의 예측 모드가 양방향 예측이면, 상기 예측 모션 정보는 두 개의 모션 벡터 예측값 - 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 - 을 포함하고,
    상기 모션 벡터 차이는 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 의해 재사용되는, 비디오 인코딩 방법.
  18. 제17항에 있어서,
    상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하는 단계는,
    상기 기준 이미지 정보에 기반하여 상기 현재 이미지 블록의 상기 예측 모드를 결정하는 단계 - 여기서 상기 예측 모드는 단방향 예측 또는 양방향 예측을 포함함 -;
    상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 단계; 및
    상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 상기 대응관계를 결정하는 단계
    를 포함하는, 비디오 인코딩 방법.
  19. 제18항에 있어서,
    상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하는 단계는,
    상기 예측 모드가 상기 단방향 예측이면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 단계; 또는
    상기 예측 모드가 상기 양방향 예측이고, 상기 기준 이미지 정보가 상기 현재 이미지 블록의 기준 이미지의 화면 순서 카운트를 포함하면, 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하는 단계; 또는
    상기 예측 모드가 상기 양방향 예측이면, 모션 벡터 차이의 미리 설정된 수량을, 상기 현재 이미지 블록의 상기 비트스트림과, 상기 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로 인코딩하는 단계
    를 포함하는, 비디오 인코딩 방법.
  20. 제19항에 있어서,
    상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하는 단계는,
    상기 현재 이미지 블록의 제1 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많고, 상기 현재 이미지 블록의 제2 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 상기 화면 순서 카운트보다 적으면, 두 개의 모션 벡터 차이가 있는 것으로 결정하거나, 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많거나 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 적으면, 하나의 모션 벡터 차이가 있는 것으로 결정하는 단계
    를 포함하는, 비디오 인코딩 방법.
  21. 제18항에 있어서,
    상기 예측 모드가 상기 양방향 예측이면, 상기 예측 모션 정보는 두 개의 모션 벡터 예측값 - 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 - 을 포함하고, 상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 대응관계를 결정하는 단계는,
    두 개의 모션 벡터 차이가 있다면, 상기 두 개의 모션 벡터 차이를 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 개별적으로 사용하는 단계; 또는
    하나의 모션 벡터 차이가 있다면, 상기 모션 벡터 차이를 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 각각의 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하거나, 또는 미리 설정된 대응관계에 기반하여, 각각의 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값과 상기 모션 벡터 차이 사이의 대응관계를 결정하고, 상기 미리 설정된 대응관계를 상기 비트스트림으로 인코딩하는 단계
    를 포함하는, 비디오 인코딩 방법.
  22. 제17항에 있어서,
    상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량을 상기 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로 인코딩하는 단계
    를 포함하는 비디오 인코딩 방법.
  23. 제17항에 있어서,
    상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은, 통합 모드 내에서의 모션 정보 리스트 내의 모션 정보의 수량보다 적은, 비디오 인코딩 방법.
  24. 제17항에 있어서,
    상기 현재 이미지 블록은 상기 비트스트림에 대응하는 현재 재구성될 이미지 블록의 임의의 예측 단위인, 비디오 인코딩 방법.
  25. 비디오 인코딩 단말로서,
    현재 이미지 블록의 후보 예측 모션 정보 리스트를 구성하도록 구성된 리스트 구성 유닛 - 여기서 상기 후보 예측 모션 정보 리스트는 후보 예측 모션 정보를 포함하고, 상기 후보 예측 모션 정보는 시간 영역 또는 공간 영역에서의 상기 현재 이미지 블록의 인접 블록의 모션 정보를 포함함 -;
    모션 추정 동안 획득되는, 상기 현재 이미지 블록의 모션 벡터에 기반하여, 상기 후보 예측 모션 정보 리스트로부터, 하나의 후보 예측 모션 정보를 상기 현재 이미지 블록의 예측 모션 정보로서 선택하도록 구성된 선택 유닛 - 여기서 상기 예측 모션 정보는 기준 이미지 정보 및 모션 벡터 예측값을 포함함 -;
    상기 후보 예측 모션 정보 리스트 내의 선택된 후보 예측 모션 정보의 인덱스를 결정하도록 구성된 제1 결정 유닛;
    상기 예측 모션 정보에 기반하여 모션 벡터 차이 및 모션 벡터 예측값 사이의 대응관계를 결정하도록 구성된 제2 결정 유닛;
    상기 대응관계 및 상기 모션 벡터에 기반하여, 상기 모션 벡터 예측값에 대응하는 모션 벡터 차이를 획득하도록 구성된 획득 유닛; 및
    상기 인덱스 및 상기 모션 벡터 차이를 비트스트림으로 인코딩하도록 구성된 제1 인코딩 유닛
    을 포함하고,
    상기 현재 이미지 블록의 예측 모드가 양방향 예측이면, 상기 예측 모션 정보는 두 개의 모션 벡터 예측값 - 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 - 을 포함하고,
    상기 모션 벡터 차이는 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 의해 재사용되는, 비디오 인코딩 단말.
  26. 제25항에 있어서,
    상기 제2 결정 유닛은,
    상기 기준 이미지 정보에 기반하여 상기 현재 이미지 블록의 예측 모드를 결정하도록 구성된 제1 결정 서브유닛 - 여기서 상기 예측 모드는 단방향 예측 또는 양방향 예측을 포함함 -;
    상기 예측 모드에 기반하여 모션 벡터 차이의 수량을 결정하도록 구성된 제2 결정 서브유닛; 및
    상기 모션 벡터 차이의 수량 및 상기 예측 모션 정보에 기반하여 상기 모션 벡터 차이 및 상기 모션 벡터 예측값 사이의 상기 대응관계를 결정하도록 구성된 제3 결정 서브유닛
    을 포함하는, 비디오 인코딩 단말.
  27. 제26항에 있어서,
    상기 제2 결정 서브유닛은 구체적으로,
    상기 예측 모드가 상기 단방향 예측이면, 하나의 모션 벡터 차이가 있는 것으로 결정하거나; 또는
    상기 예측 모드가 상기 양방향 예측이고, 상기 기준 이미지 정보가 상기 현재 이미지 블록의 기준 이미지의 화면 순서 카운트를 포함하면, 상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정하거나; 또는
    상기 예측 모드가 상기 양방향 예측이면, 모션 벡터 차이의 미리 결정된 수량을, 상기 현재 이미지 블록의 상기 비트스트림과, 상기 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로 인코딩하도록 구성된, 비디오 인코딩 단말.
  28. 제27항에 있어서,
    상기 현재 이미지 블록의 상기 기준 이미지의 상기 화면 순서 카운트에 기반하여 상기 모션 벡터 차이의 수량을 결정할 때, 상기 제2 결정 서브유닛은 구체적으로,
    상기 현재 이미지 블록의 제1 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많고, 상기 현재 이미지 블록의 제2 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 상기 화면 순서 카운트보다 적으면, 두 개의 모션 벡터 차이가 있는 것으로 결정하거나, 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 많거나 또는 상기 현재 이미지 블록의 각 기준 이미지의 화면 순서 카운트가 상기 현재 이미지 블록의 화면 순서 카운트보다 적으면, 하나의 모션 벡터 차이가 있는 것으로 결정하도록 구성된, 비디오 인코딩 단말.
  29. 제26항에 있어서,
    상기 예측 모드가 상기 양방향 예측이면, 상기 예측 모션 정보는 두 개의 모션 벡터 예측값 - 제1 모션 벡터 예측값 및 제2 모션 벡터 예측값 - 을 포함하고, 상기 제3 결정 서브유닛은 구체적으로,
    두 개의 모션 벡터 차이가 있다면, 상기 두 개의 모션 벡터 차이를 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 개별적으로 사용하거나; 또는
    하나의 모션 벡터 차이가 있다면, 상기 모션 벡터 차이를 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하고 상기 제1 모션 벡터 예측값에 대응하는 모션 벡터 차이를 0으로 설정하거나, 또는 상기 모션 벡터 차이를 각각의 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값에 대응하는 모션 벡터 차이로서 사용하거나, 또는 미리 설정된 대응관계에 기반하여, 각각의 상기 제1 모션 벡터 예측값 및 상기 제2 모션 벡터 예측값과 상기 모션 벡터 차이 사이의 대응관계를 결정하고, 상기 미리 설정된 대응관계를 상기 비트스트림으로 인코딩하도록 구성된, 비디오 인코딩 단말.
  30. 제25항에 있어서,
    상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량을 상기 비트스트림의, 슬라이스-레이어 헤더 정보, 이미지-레이어 헤더 정보, 및 시퀀스-레이어 헤더 정보 중 적어도 하나로 인코딩하도록 구성된 제2 인코딩 유닛
    을 더 포함하는 비디오 인코딩 단말.
  31. 제25항에 있어서,
    상기 후보 예측 모션 정보 리스트 내의 후보 예측 모션 정보의 수량은, 통합 모드 내에서의 모션 정보 리스트 내의 모션 정보의 수량보다 적은, 비디오 인코딩 단말.
  32. 제25항에 있어서,
    상기 현재 이미지 블록은 상기 비트스트림에 대응하는 현재 재구성될 이미지 블록의 임의의 예측 단위인, 비디오 인코딩 단말.
KR1020197010627A 2016-09-30 2016-09-30 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말 KR102228298B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020217007230A KR102343668B1 (ko) 2016-09-30 2016-09-30 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2016/101081 WO2018058526A1 (zh) 2016-09-30 2016-09-30 视频编码方法、解码方法及终端

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020217007230A Division KR102343668B1 (ko) 2016-09-30 2016-09-30 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말

Publications (2)

Publication Number Publication Date
KR20190049849A KR20190049849A (ko) 2019-05-09
KR102228298B1 true KR102228298B1 (ko) 2021-03-15

Family

ID=61762362

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020197010627A KR102228298B1 (ko) 2016-09-30 2016-09-30 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말
KR1020227033306A KR102563706B1 (ko) 2016-09-30 2016-09-30 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말
KR1020217007230A KR102343668B1 (ko) 2016-09-30 2016-09-30 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말
KR1020217042007A KR102448635B1 (ko) 2016-09-30 2016-09-30 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말

Family Applications After (3)

Application Number Title Priority Date Filing Date
KR1020227033306A KR102563706B1 (ko) 2016-09-30 2016-09-30 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말
KR1020217007230A KR102343668B1 (ko) 2016-09-30 2016-09-30 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말
KR1020217042007A KR102448635B1 (ko) 2016-09-30 2016-09-30 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말

Country Status (9)

Country Link
US (3) US10841589B2 (ko)
EP (2) EP3968633A1 (ko)
JP (1) JP6881788B2 (ko)
KR (4) KR102228298B1 (ko)
CN (2) CN109691098A (ko)
ES (1) ES2886431T3 (ko)
MX (1) MX2019003553A (ko)
PT (1) PT3509297T (ko)
WO (1) WO2018058526A1 (ko)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102228298B1 (ko) * 2016-09-30 2021-03-15 후아웨이 테크놀러지 컴퍼니 리미티드 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말
CN110662064B (zh) 2018-06-29 2022-06-14 北京字节跳动网络技术有限公司 Lut中的运动候选的检查顺序
CN110662059B (zh) 2018-06-29 2021-04-20 北京字节跳动网络技术有限公司 使用查找表存储先前编码的运动信息并用其编码后续块的方法和装置
EP3794825A1 (en) 2018-06-29 2021-03-24 Beijing Bytedance Network Technology Co. Ltd. Update of look up table: fifo, constrained fifo
CN110662054B (zh) 2018-06-29 2023-01-06 北京字节跳动网络技术有限公司 用于视频处理的方法、装置、计算机可读存储介质
CN114466197A (zh) 2018-06-29 2022-05-10 北京字节跳动网络技术有限公司 用于查找表更新的编码的运动信息的选择
CN110662053B (zh) 2018-06-29 2022-03-25 北京字节跳动网络技术有限公司 使用查找表的视频处理方法、装置和存储介质
CA3105330C (en) 2018-06-29 2023-12-05 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and amvp
WO2020003283A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Conditions for updating luts
TWI734133B (zh) 2018-07-02 2021-07-21 大陸商北京字節跳動網絡技術有限公司 更新查找表的規則
CN117241039A (zh) 2018-08-28 2023-12-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
EP3840386A4 (en) 2018-09-04 2021-09-22 Huawei Technologies Co., Ltd. METHOD AND DEVICE FOR DETERMINING A REFERENCE FRAME FOR BIDIRECTIONAL INTER-FRAME PREDICTION
TW202025760A (zh) 2018-09-12 2020-07-01 大陸商北京字節跳動網絡技術有限公司 要檢查多少個hmvp候選
CN111263166B (zh) * 2018-11-30 2022-10-11 华为技术有限公司 一种视频图像预测方法及装置
WO2020108168A1 (zh) * 2018-11-30 2020-06-04 华为技术有限公司 一种视频图像预测方法及装置
WO2020138958A1 (ko) 2018-12-27 2020-07-02 에스케이텔레콤 주식회사 양방향 예측 방법 및 영상 복호화 장치
KR20200081201A (ko) * 2018-12-27 2020-07-07 에스케이텔레콤 주식회사 양방향 예측 방법 및 영상 복호화 장치
CN111357288B (zh) * 2019-01-03 2021-08-31 深圳市大疆创新科技有限公司 视频图像处理方法与装置
WO2020140243A1 (zh) 2019-01-03 2020-07-09 北京大学 视频图像处理方法与装置
JP7275286B2 (ja) 2019-01-10 2023-05-17 北京字節跳動網絡技術有限公司 Lut更新の起動
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147773A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Inserting order of motion candidates in lut
WO2020192611A1 (en) 2019-03-22 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Interaction between merge list construction and other tools
CN114080814A (zh) * 2019-06-13 2022-02-22 Lg电子株式会社 基于运动矢量预测的图像/视频编码方法和装置
CA3143556A1 (en) 2019-06-14 2020-12-17 Lg Electronics Inc. Method and device for image coding using motion vector differences
JP7036893B2 (ja) 2020-12-14 2022-03-15 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 映像符号化方法、映像復号方法、および端末
WO2023085704A1 (ko) * 2021-11-09 2023-05-19 삼성전자 주식회사 비디오 복호화 방법, 비디오 복호화 장치, 비디오 부호화 방법, 및 비디오 부호화 장치

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101137065A (zh) * 2006-09-01 2008-03-05 华为技术有限公司 图像编码方法、解码方法、编码器、解码器、编解码方法及编解码器
RU2012140740A (ru) * 2010-04-01 2014-05-10 Сони Корпорейшн Устройство и способ обработки изображения
KR20120016991A (ko) * 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
US20130128983A1 (en) * 2010-12-27 2013-05-23 Toshiyasu Sugio Image coding method and image decoding method
SI3554079T1 (sl) * 2011-01-07 2023-01-31 Lg Electronics Inc. Postopek za kodiranje video informacij, postopek za dekodiranje video informacij in dekodirna naprava za dekodiranje video informacij
KR101484171B1 (ko) 2011-01-21 2015-01-23 에스케이 텔레콤주식회사 예측 움직임벡터 색인부호화에 기반한 움직임정보 생성/복원 장치 및 방법, 및 그것을 이용한 영상 부호화/복호화 장치 및 방법
CN103563386A (zh) * 2011-05-31 2014-02-05 Jvc建伍株式会社 动图像编码装置、动图像编码方法及动图像编码程序、以及动图像解码装置、动图像解码方法及动图像解码程序
US9300975B2 (en) 2011-09-11 2016-03-29 Texas Instruments Incorporated Concurrent access shared buffer in a video encoder
US9736489B2 (en) * 2011-09-17 2017-08-15 Qualcomm Incorporated Motion vector determination for video coding
KR102014332B1 (ko) * 2011-10-21 2019-08-26 노키아 테크놀로지스 오와이 비디오 코딩 방법 및 장치
JP5485969B2 (ja) * 2011-11-07 2014-05-07 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
TWI580264B (zh) * 2011-11-10 2017-04-21 Sony Corp Image processing apparatus and method
JP2013132046A (ja) * 2011-11-21 2013-07-04 Jvc Kenwood Corp 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法、及び受信プログラム
WO2013108689A1 (ja) * 2012-01-19 2013-07-25 ソニー株式会社 画像処理装置および方法
US9503720B2 (en) * 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US9699450B2 (en) * 2012-10-04 2017-07-04 Qualcomm Incorporated Inter-view predicted motion vector for 3D video
US9967592B2 (en) * 2014-01-11 2018-05-08 Qualcomm Incorporated Block-based advanced residual prediction for 3D video coding
WO2015149698A1 (en) * 2014-04-01 2015-10-08 Mediatek Inc. Method of motion information coding
US10412407B2 (en) * 2015-11-05 2019-09-10 Mediatek Inc. Method and apparatus of inter prediction using average motion vector for video coding
US11356693B2 (en) * 2016-09-29 2022-06-07 Qualcomm Incorporated Motion vector coding for video coding
KR102228298B1 (ko) * 2016-09-30 2021-03-15 후아웨이 테크놀러지 컴퍼니 리미티드 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Jian-Liang Lin ET AL., Motion Vector Coding in the HEVC Standard, IEEE JOURNAL OF SELECTED TOPICS IN SIGNAL PROCESSING, VOL. 7, NO. 6, 2013.07.03.*
Yoshinori Suzuki ET AL., Non-CE9: Bi-prediction for low delay coding, Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 7th Meeting: Geneva, CH, 2011.11.08., Document: JCTVC-G305.*

Also Published As

Publication number Publication date
KR102563706B1 (ko) 2023-08-03
PT3509297T (pt) 2021-08-10
EP3509297A1 (en) 2019-07-10
US20210021836A1 (en) 2021-01-21
KR20210030505A (ko) 2021-03-17
BR112019006146A2 (pt) 2019-06-18
KR20210158425A (ko) 2021-12-30
US10841589B2 (en) 2020-11-17
KR20220133336A (ko) 2022-10-04
ES2886431T3 (es) 2021-12-20
KR102448635B1 (ko) 2022-09-27
CN109691098A (zh) 2019-04-26
US20190230363A1 (en) 2019-07-25
WO2018058526A1 (zh) 2018-04-05
EP3509297B1 (en) 2021-06-23
MX2019003553A (es) 2019-08-12
KR102343668B1 (ko) 2021-12-24
US20230276055A1 (en) 2023-08-31
EP3509297A4 (en) 2019-07-10
JP2019533347A (ja) 2019-11-14
KR20190049849A (ko) 2019-05-09
EP3968633A1 (en) 2022-03-16
US11558623B2 (en) 2023-01-17
CN112218073A (zh) 2021-01-12
JP6881788B2 (ja) 2021-06-02

Similar Documents

Publication Publication Date Title
KR102228298B1 (ko) 비디오 인코딩 방법, 비디오 디코딩 방법, 및 단말
US11039144B2 (en) Method and apparatus for image coding and decoding through inter-prediction
US20200296422A1 (en) Image encoding and decoding method, apparatus, and system, and storage medium
US20190313126A1 (en) Coding and Decoding Methods and Apparatuses Based on Template Matching
US11503317B2 (en) Picture encoding and decoding method and apparatus for video sequence
JP7388610B2 (ja) 映像符号化方法、映像復号方法、および端末
JP2020127233A (ja) インター予測を介する画像符号化および復号のための方法および装置
BR112019006146B1 (pt) Método de codificação de vídeo, método de decodificação de vídeo, e terminal

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant