KR20160095098A - 병렬 모션 추정 영역들에 대한 스케일러블 구현 - Google Patents

병렬 모션 추정 영역들에 대한 스케일러블 구현 Download PDF

Info

Publication number
KR20160095098A
KR20160095098A KR1020167018062A KR20167018062A KR20160095098A KR 20160095098 A KR20160095098 A KR 20160095098A KR 1020167018062 A KR1020167018062 A KR 1020167018062A KR 20167018062 A KR20167018062 A KR 20167018062A KR 20160095098 A KR20160095098 A KR 20160095098A
Authority
KR
South Korea
Prior art keywords
motion vector
candidate
candidates
vector candidates
motion
Prior art date
Application number
KR1020167018062A
Other languages
English (en)
Inventor
재홍 전
인석 정
하리하란 가네쉬 랄구디
샹린 왕
마르타 카르체비츠
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20160095098A publication Critical patent/KR20160095098A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 개시의 일부 양태들에 따라 구성된 비디오 코딩 디바이스는 복수의 모션 벡터 후보들을 저장하도록 구성된 메모리를 포함한다. 각각의 모션 벡터 후보는 병렬 모션 추정 영역 (motion estimation region: MER) 에서 파티셔닝된 복수의 예측 유닛들 (PUs) 중 적어도 하나에 대응할 수 있다. 비디오 코딩 디바이스는 또한 메모리와 통신하는 프로세서를 포함한다. 프로세서는 병합 후보 리스트에 포함시킬 복수의 모션 벡터 후보들의 서브세트를 선택하도록 구성된다. 그 선택은 각 모션 벡터 후보의 우선순위 레벨에 기초할 수 있다. 프로세서는 또한 선택된 모션 벡터 후보들을 포함하도록 병합 후보 리스트를 생성하도록 구성될 수 있다.

Description

병렬 모션 추정 영역들에 대한 스케일러블 구현{SCALABLE IMPLEMENTATION FOR PARALLEL MOTION ESTIMATION REGIONS}
본 개시는 일반적으로 비디오 정보를 인코딩 및 디코딩하기 위한 기법들에 관한 것으며, 특히 스케일러블 비디오 코딩에 관한 것이다.
디지털 비디오 능력들은 디지털 텔레비전들, 디지털 직접 브로드캐스트 시스템들, 무선 브로드캐스트 시스템들, 개인 정보 단말기들 (PDA들), 랩톱 또는 데스크톱 컴퓨터들, 태블릿 컴퓨터들, e-북 리더들, 디지털 카메라들, 디지털 레코딩 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 디바이스들, 비디오 게임 콘솔들, 셀룰러 또는 위성 무선 전화기들, 이른바 "스마트 폰들", 비디오 원격회의 디바이스들, 비디오 스트리밍 디바이스들 등을 포함한 넓은 범위의 디바이스들에 통합될 수 있다. 디지털 비디오 디바이스들은 MPEG-2, MPEG-4, ITU-T H.263 또는 ITU-T H.264/MPEG-4, 파트 10, 진보된 비디오 코딩 (Advanced Video Coding, AVC) 에 의해 규정된 표준들, 및 이러한 표준들의 확장본들에 기재된 것들과 같은 비디오 압축 기법들을 구현하여, 디지털 비디오 정보를 더 효율적으로 송신 및 수신한다.
비디오 압축 기법들은 공간적 (인트라-화상) 예측 및/또는 시간적 (인터-화상) 예측을 수행하여 비디오 시퀀스들에 내재하는 리던던시를 감소시키거나 또는 제거한다. 블록 기반 비디오 코딩의 경우, 비디오 슬라이스가 비디오 블록들로 파티셔닝될 수도 있고, 이러한 비디오 블록들은 트리블록들, 코딩 유닛들 (coding unit, CU) 들 및/또는 코딩 노드들이라고 또한 지칭될 수도 있다. 화상의 인트라 코딩된 (intra-coded; I) 슬라이스에서의 비디오 블록들은 동일한 화상의 이웃 블록들에서의 참조 샘플들에 관한 공간적 예측을 이용하여 인코딩된다. 화상의 인터 코딩된 (inter-coded; P 또는 B) 슬라이스에서의 비디오 블록들은 동일한 화상의 이웃 블록들에서의 참조 샘플들에 관한 공간적 예측 또는 다른 참조 화상들에서의 참조 샘플들에 관한 시간적 예측을 이용할 수도 있다. 화상들은 프레임들이라고 지칭될 수도 있고, 참조 화상들은 참조 프레임들이라고 지칭될 수도 있다.
공간적 또는 시간적 예측은 코딩될 블록에 대한 예측 블록을 야기한다. 레지듀얼 데이터는 코딩될 오리지날 블록과 예측 블록 사이의 화소 차이들을 나타낸다. 인터 코딩된 블록이 예측 블록을 형성하는 참조 샘플들의 블록을 가리키는 모션 벡터에 따라 인코딩되고, 레지듀얼 데이터는 코딩된 블록 및 예측 블록 사이의 차이를 나타낸다. 인트라 코딩된 블록이 인트라 코딩 모드 및 레지듀얼 데이터에 따라 인코딩된다. 추가 압축을 위해, 레지듀얼 데이터는 화소 도메인으로부터 변환 도메인으로 변환될 수도 있으며, 결과적으로 레지듀얼 변환 계수들 을 야기하며, 그 계수들은 그 다음에 양자화될 수도 있다. 처음에는 2차원 어레이로 배열된 양자화된 변환 계수들은 변환 계수들의 1차원 벡터를 생성하기 위하여 스캐닝될 수도 있고, 엔트로피 코딩이 훨씬 더 많은 압축을 달성하기 위해 적용될 수도 있다.
본 개시의 일부 양태들에 따라 구성된 비디오 코딩 디바이스는 복수의 모션 벡터 후보들을 저장하도록 구성된 메모리를 포함한다. 각각의 모션 벡터 후보는 병렬 모션 추정 영역 (motion estimation region: MER) 에서 파티셔닝된 복수의 예측 유닛들 (PUs) 중 적어도 하나에 대응할 수 있다. 비디오 코딩 디바이스는 또한 메모리와 통신하는 프로세서를 포함한다. 프로세서는 병합 후보 리스트에 포함시킬 복수의 모션 벡터 후보들의 서브세트를 선택하도록 구성된다. 그 선택은 각 모션 벡터 후보의 우선순위 레벨에 기초할 수 있다. 프로세서는 또한 복수의 모션 벡터 후보들의 선택된 서브세트를 포함하도록 병합 후보 리스트를 생성하도록 구성될 수 있다.
다른 실시형태에서, 비디오 데이터를 디코딩하는 방법은 인코딩된 비디오 비트 스트림으로부터 추출된 신택스 엘리먼트들을 수신하는 단계, 병합 후보 리스트에 포함시킬 모션 벡터 후보들을 선택하는 단계, 및 병합 후보 리스트를 생성하는 단계를 포함한다. 신택스 엘리먼트들은 복수의 모션 벡터 후보들과 연관된 정보를 포함할 수 있다. 각 모션 벡터 후보는 병렬 모션 추정 영역 (motion estimation region: MER) 에서 파티셔닝된 복수의 예측 유닛들 (PUs) 중 적어도 하나에 대응할 수 있다. 병합 후보 리스트를 선택하는 것은 병합 후보 리스트에 포함시킬 복수의 모션 벡터 후보들의 서브세트를 선택하는 것을 포함한다. 선택은 복수의 모션 벡터 후보들 각각의 우선순위 레벨에 기초할 수 있다. 병합 후보 리스트는 복수의 모션 벡터 후보들의 선택된 서브세트를 포함하도록 생성된다.
다른 실시형태에서, 비디오 데이터를 인코딩하는 방법은 복수의 모션 벡터 후보들과 연관된 정보를 결정하는 단계로서, 복수의 모션 벡터 후보들 각각은 병렬 모션 추정 영역 (motion estimation region: MER) 에서 파티셔닝된 복수의 예측 유닛들 (PUs) 중 적어도 하나에 대응하고, 복수의 모션 벡터 후보들 각각은 이용가능한 모션 데이터를 포함하는, 상기 정보를 결정하는 단계; 병합 후보 리스트에 포함시킬 복수의 모션 벡터 후보들의 서브세트를 선택하는 단계로서, 선택은 복수의 모션 벡터 후보들 각각의 우선순위 레벨에 기초하는, 상기 서브세트를 선택하는 단계; 및 복수의 모션 벡터 후보들의 선택된 서브세트를 포함하도록 병합 후보 리스트를 생성하는 단계를 포함한다.
다른 실시형태에서, 비디오 코딩 장치는 복수의 모션 벡터 후보들과 연관된 정보를 결정하는 수단으로서, 복수의 모션 벡터 후보들 각각은 병렬 모션 추정 영역 (motion estimation region: MER) 에서 파티셔닝된 복수의 예측 유닛들 (PUs) 중 적어도 하나에 대응하고, 복수의 모션 벡터 후보들 각각은 이용가능한 모션 데이터를 포함하는, 상기 정보를 결정하는 수단; 병합 후보 리스트에 포함시킬 복수의 모션 벡터 후보들의 서브세트를 선택하는 수단으로서, 선택은 복수의 모션 벡터 후보들 각각의 우선순위 레벨에 기초하는, 상기 서브세트를 선택하는 수단; 및 복수의 모션 벡터 후보들의 선택된 서브세트를 포함하도록 병합 후보 리스트를 생성하는 수단을 포함한다.
다른 실시형태에서, 비일시적 컴퓨터 판독가능 매체는 저장된 코드를 포함하며, 코드는 실행될 때 장치로 하여금: 복수의 모션 벡터 후보들과 연관된 정보를 수신하게 하는 것으로서, 복수의 모션 벡터 후보들 각각은 병렬 모션 추정 영역 (motion estimation region: MER) 에서 파티셔닝된 복수의 예측 유닛들 (PUs) 중 적어도 하나에 대응하고, 복수의 모션 벡터 후보들 각각은 이용가능한 모션 데이터를 포함하는, 상기 정보를 수신하게 하고; 병합 후보 리스트에 포함시킬 복수의 모션 벡터 후보들의 서브세트를 선택하게 하는 것으로서, 선택은 복수의 모션 벡터 후보들 각각의 우선순위 레벨에 기초하는, 상기 서브세트를 선택하게 하며; 및 복수의 모션 벡터 후보들의 선택된 서브세트를 포함하도록 병합 후보 리스트를 생성하게 한다.
하나 이상의 예들의 상세들이 이하의 설명 및 첨부하는 도면에서 진술된다. 다른 특징들, 목적들 및 이점들은 상세할 설명 및 도면으로부터, 및 청구범위로부터 명백할 것이다.
도 1 은 예시의 비디오 코딩 시스템을 도시하는 블록도이다.
도 2 는 비디오 인코더의 예시의 구성을 도시하는 블록도이다.
도 3 은 비디오 디코더의 예시의 구성을 도시하는 블록도이다.
도 4 는 코딩 유닛들 (CUs) 로의 최대 코딩 유닛 (LCU) 의 분해의 예를 도시한다.
도 5a 내지 도 5d 는 예측 유닛들 (PUs) 로의 CU 의 분해의 예들을 도시한다.
도 6 은 예시의 모션 벡터 (MV) 후보 위치들을 도시하는 블록도이다.
도 7a 내지 도 7c 는 일부 PU 들에 대한 MV 후보 위치들을 보여주는 예시의 CU 분해를 도시한다.
도 8a 내지 도 8c 는 일부 PU 들에 대한 MV 후보 위치들을 보여주는 다른 예시의 CU 분해를 도시한다.
도 9a 내지 도 9c 는 일부 PU 들에 대한 MV 후보 위치들을 보여주는 다른 예시의 CU 분해를 도시한다.
도 10a 내지 도 10c 는 일부 PU 들에 대한 MV 후보 위치들을 보여주는 다른 예시의 CU 분해를 도시한다.
도 11a 내지 도 11c 는 일부 PU 들에 대한 MV 후보 위치들을 보여주는 다른 예시의 CU 분해를 도시한다.
도 12 는 CU 에서 파티셔닝된 임의의 PU 에 대응하는 각 MV 후보를 보여주는 32x32 CU 의 예를 도시한다.
도 13 은 MER 에서 파티셔닝된 임의의 PU 에 대응하는 각각의 시간적 또는 외부의 공간적 MV 후보를 보여주는 32x32 모션 추정 영역 (MER) 의 예를 도시한다.
도 14 는 MER 에서 파티셔닝된 임의의 PU 에 대응하는 각각의 시간적 또는 외부의 공간적 MV 후보의 예시의 가중된 빈도를 보여주는 32x32 MER 의 예를 도시한다.
도 15 는 MER 에서 파티셔닝된 임의의 PU 에 대응하는 각각의 시간적 또는 외부의 공간적 MV 후보의 예시의 우선순위 레벨을 보여주는 32x32 MER 의 예를 도시한다.
도 16 은 병합 후보 리스트에의 포함을 위해 넌-리던던트 상태에 기초하여 MV 후보들을 선택하는 예시의 프로세스를 도시하는 플로우챠트이다.
도 17 은 병합 후보 리스트에의 포함을 위해 우선순위 레벨에 기초하여 MV 후보들을 선택하는 예시의 프로세스를 도시하는 플로우챠트이다.
현재의 HEVC 병합 모드 설계는 고도로 순차적이며 상이한 코딩 유닛들 (CUs) 내의 이웃 예측 유닛들 (PUs) 사이의 종속성을 도입한다. HEVC 병합 모드 설계의 순차적 특성은 파이프라이닝된 아키텍쳐에 대한 인코더측상의 모션 추정 (ME) 에 대한 곤란성을 생성할 수 있으며, 여기서 모션 벡터들은 다수의 PU 들에 대해 병렬로 추정될 수도 있을 것이다. 병렬 모션 추정은 스루풋 또는 구현 비용의 고려들로 인해 필요할 수 있다. 그러나, 병렬 모션 추정은 또한 상당한 코딩 효율 손실을 초래할 수 있다. 그 손실은 병렬 MER 내의 주어진 PU, 예를 들어 32x32 병렬 MER 내의 8x8 PU 에 대해, 그것의 이웃 모션 데이터의 모두가 병렬 프로세싱의 결과로서 병합 후보 리스트에의 포함을 위해 이용가능한 것은 아닐 수도 있기 때문에 발생될 수 있다.
상이한 PU 들에 대한 모션 추정이 병렬로 행해지는 영역은 또한 모션 추정 영역 (MER) 으로서 칭해진다. HEVC 는 병렬 병합 모드를 시그널링하기 위해 하이 레벨 신택스 엘리먼트를 허용한다. 병렬 병합 모드에서, LCU 는 다수의 MER 들로 분할될 수도 있다. 이 경우에, 상이한 MER 들에 속하는 이들 외부의 이웃하는 모션 벡터들 (MV) 만이 MER 내의 PU 에 대한 병합 후보 리스트에 포함되는 것이 허용된다. 여기에 기술된 바와 같은, 병합 후보 리스트에의 포함을 위한 MV 후보들의 향상된 선택은 코딩 효율을 향상시키고 계산 복잡성을 감소시킬 수 있다.
비디오 코딩 표준들은, 스케일러블 비디오 코딩 (SVC) 및 멀티뷰 비디오 코딩 (MVC) 확장들을 포함하여, ITU-T H.261, ISO/IEC MPEG-1 비쥬얼, ITU-T H.262 또는 ISO/IEC MPEG-2 비쥬얼, ITU-T H.263, ISO/IEC MPEG-4 비쥬얼 및 ITU-T H.264 (또한 ISO/IEC MPEG-4 AVC 로서 알려짐) 을 포함한다. 또한, 새로운 비디오 코딩 표준, 즉 고효율 비디오 코딩 (HEVC) 이 ITU-T 비디오 코딩 전문가 그룹 (VCEG) 및 ISO/IEC 동화상 전문가 그룹 (MPEG) 의 비디오 코딩에 관한 조인트 콜라보레이션 팀 (JCT-VC) 에 의해 개발되고 있다. "HEVC 워킹 드래프트 6" 으로서 지칭되는 HEVC 표준의 드래프트가 http://phenix.int-evry.fr/jct/doc_end_user/documents/8_San%20Jose/wg11/JCTVC-H1003-v6.zip 에서 다운로드가능하다. HEVC 워킹 드래프트 6 에 대한 전체 인용은 문서 JCTVC-H1003, Bross et al., "High efficiency video coding (HEVC) Text Specification Draft 6", ITU-T SG16 WP3 와 ISO/IEC JTC1/SC29/WG11 의 JCT-VC (Joint Collaborative Team on Video Coding), 7차 회의: 2011년 11월 21일-2011년 11월 30일, 스위스, 제네바이다. HEVC 표준의 다른 나중의 드래프트가 2012년 6월 7일 현재, http://wg11.sc29.org/jct/doc_end_user/current_document.php?id=5885/JCTVC-I1003-v2 로부터 이용가능하다. "HEVC 워킹 드래프트 7" 로서 지칭되는, HEVC 표준의 다른 나중의 드래프트가 2012년 6월 7일 현재, http://phenix.it-sudparis.eu/jct/doc_end_user/documents/9_Geneva/wg11/JCTVC-I1003-v3.zip 으로부터 다운로드가능하다. HEVC 워킹 드래프트 7 에 대한 전체 인용은 문서 HCTVC-I1003, Bross et al., "High efficiency video coding (HEVC) Text Specification Draft 7", ITU-T SG16 WP3 와 ISO/IEC JTC1/SC29/WG11 의 JCT-VC (Joint Collaborative Team on Video Coding), 9차 회의: 2012년 4월 27일-2012년 5월 7일, 스위스, 제네바이다. HEVC WD8 (working draft 8) 로서 지칭되는, HEVC 표준의 다른 나중의 드래프트가 http://phenix.int-evry.fr/jct/doc_end_user/documents/10_Stockholm/wg11/JCTVC-J1003-v8.zip 으로부터 이용가능하다. 이들 참조 문헌들의 각각은 그의 전체가 참조로 병합된다.
신규한 시스템들, 장치들, 및 방법들의 여러 양태들은 첨부하는 도면들을 참조하여 이하에 더욱 완전하게 기술된다. 이러한 개시는 그러나 다수의 상이한 형태들로 구현될 수도 있고, 본 개시 전체에 걸쳐 제시된 임의의 특정의 구조 또는 기능에 제한되는 것으로서 해석되지 않아야 한다. 오히려, 이들 양태들은 본 개시가 철저하고 완전하도록 제공되고, 본 기술에서의 통상의 지식을 가진자들에게 본 개시의 범위를 완전히 전달할 것이다. 여기의 교시들에 기초하여, 통상의 기술자는 본 개시의 범위가 본 발명의 임의의 다른 양태와 독립적으로, 또는 그것과 결합되어 구현되는지 여부에 관계없이 여기에 개시된 신규한 시스템들, 장치들, 및 방법들의 임의의 양태를 커버하도록 의도된다는 것을 인정해야 한다. 예를 들어, 여기에 진술된 임의의 수의 양태들을 사용하여 장치가 구현될 수도 있거나 방법이 실시될 수도 있다. 또한, 본 발명의 범위는 여기에 진술된 발명의 여러 양태들에 더하거나 그러한 양태들 이외의 다른 구조, 기능, 또는 구조 및 기능을 사용하여 실시되는 그러한 장치 또는 방버을 커버하도록 의도된다. 여기에 개시된 임의의 양태는 청구항의 하나 이상의 엘리먼트들에 의해 구현될 수도 있다는 것이 이해되어야 한다.
특정의 양태들이 여기에 기술되지만, 이들 양태들에 대한 다수의 변경들 및 치환들은 본 개시의 범위 내에 있다. 바람직한 양태들의 일부 이익들 및 이점들이 언급되지만, 본 개시의 범위는 특정의 이익들, 사용들, 또는 목적들에 제한되는 것으로 의도되지 않는다.
오히려, 본 개시의 양태들은, 그의 일부가 특정의 양태들의 다음의 설명에서 그리고 도면들에서 예시로써 도시되는, 예를 들어 상이한 무선 기술들, 시스템 구성들, 네트워크들 및 송신 프로토콜들과 함께 사용될 수도 있는 상이한 비디오 필터들 및 비디오 코더들에 널리 적용가능한 것으로 의도된다. 상세한 설명 및 도면들은 제한이라기 보다는 본 개시에 대해 단지 설명적이고, 본 개시의 범위는 첨부된 청구범위 및 이들의 등가물들에 의해 정의된다.
비디오 코딩 시스템
도 1 은 본 개시에서 기술된 기법들을 이용할 수도 있는 예시의 비디오 코딩 시스템 (10) 을 도시하는 블록도이다. 이러한 개시에서, 용어 "비디오 코딩" 은 비디오 인코딩 및 비디오 디코딩을 지칭할 수도 있다. 도 1 에 도시된 바와 같이, 비디오 코딩 시스템 (10) 은 소스 디바이스 (12) 및 목적지 디바이스 (14) 를 포함한다. 소스 디바이스 (12) 는 목적지 디바이스 (14) 로 인코딩된 비디오 데이터를 제공한다. 목적지 디바이스 (14) 는 인코딩된 비디오 데이터를 나중에 디코딩할 수도 있다. 소스 디바이스 (12) 와 목적지 디바이스 (14) 는 데스크톱 컴퓨터들, 노트북 (즉, 랩톱) 컴퓨터들, 태블릿 컴퓨터들, 셋톱 박스들, 이동 전화들, 전화 핸드셋들, "스마트" 패드들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스들, 또는 비디오 데이터를 인코딩 및 디코딩할 수 있는 컴퓨팅 디바이스들의 타입들을 포함한 임의의 다양한 범위의 디바이스들을 포함할 수도 있다.
목적지 디바이스 (14) 는 통신 채널 (16) 를 통해 인코딩된 비디오 데이터를 수신할 수도 있다. 통신 채널 (16) 은 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로 인코딩된 비디오 데이터를 이동시킬 수 있는 매체 또는 디바이스를 포함할 수도 있다. 하나의 예에서, 통신 채널 (16) 은 소스 디바이스 (12) 가 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로 직접 실시간으로 송신하는 것을 가능하게 하는 통신 매체를 포함할 수도 있다. 소스 디바이스 (12) 또는 다른 디바이스는 인코딩된 비디오 데이터를 무선 통신 프로토콜과 같은 통신 표준에 따라 변조할 수도 있다. 통신 매체는 임의의 무선 또는 유선 통신 매체, 이를테면 무선 빈도 (RF) 스펙트럼 또는 하나 이상의 물리적 송신 라인들을 포함할 수도 있다. 통신 채널 (16) 은 패킷 기반 네트워크, 이를테면 로컬 영역 네트워크, 광역 네트워크, 또는 인터넷과 같은 글로벌 네트워크의 일부를 형성할 수도 있다. 통신 채널 (16) 은 라우터들, 스위치들, 기지국들, 또는 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로의 인코딩된 비디오 데이터의 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다.
일부 예들에서, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 무선 통신을 위해 구비될 수도 있다. 그러나, 본 개시의 기법들은 무선 애플리케이션들 또는 설정 (setting) 들로 반드시 제한되는 것은 아니다. 오히려, 그 기법들은, 임의의 다양한 멀티미디어 애플리케이션들, 이를테면 OTA (over-the-air) 텔레비전 브로드캐스트들, 케이블 텔레비전 송신들, 위성 텔레비전 송신들, 예를 들어 인터넷을 통한 스트리밍 비디오 송신들, 데이터 저장 매체상의 저장을 위한 디지털 비디오의 인코딩, 데이터 저장 매체상에 저장된 디지털 비디오의 디코딩, 또는 다른 애플리케이션들을 지원하는 비디오 코딩에 적용될 수도 있다. 몇몇 예들에서, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 비디오 스트리밍, 비디오 플레이백, 비디오 브로드캐스팅, 및/또는 화상 통화와 같은 애플리케이션들을 지원하기 위해 단방향 또는 양방향 비디오 송신을 지원하도록 구성될 수도 있다.
또한, 일부 예들에서, 소스 디바이스 (12) 는 인코딩된 비디오 데이터를 저장 시스템 (34) 으로 출력할 수도 있다. 유사하게, 목적지 디바이스 (14) 는 저장 시스템 (34) 상에 저장된 인코딩된 비디오 데이터를 액세스할 수도 있다. 여러 예들에서, 저장 시스템 (34) 은 여러 분포되거나 국부적으로 액세스되는 데이터 저장 매체들을 포함할 수도 있다. 데이터 저장 매체들의 예시의 타입들은 하드 드라이브들, 블루 레이 디스크들, DVD들, CD-ROM들, 솔리드 스테이트 메모리 유닛들, 휘발성 또는 비휘발성 메모리, 또는 인코딩된 비디오 데이터를 저장하기 위해 적합한 다른 디지털 저장 매체들을 포함하지만 이들에 제한되지 않는다.
일부 예들에서, 저장 시스템 (34) 은 소스 디바이스 (12) 에 의해 생성된 인코딩된 비디오를 유지할 수도 있는 파일 서버 또는 다른 중간 저장 디바이스를 포함할 수도 있다. 목적지 디바이스 (14) 는 스트리밍 또는 다운로드를 통해 저장 시스템 (34) 으로부터 저장된 비디오 데이터에 액세스할 수도 있다. 파일 서버는 인코딩된 비디오 데이터를 저장하고 그 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로 송신할 수 있는 임의의 타입의 서버일 수도 있다. 예의 파일 서버들은 웹 서버 (예컨대, 웹사이트용), FTP 서버, 네트워크 부속 스토리지 (network attached storage; NAS) 디바이스들, 또는 로컬 디스크 드라이브를 포함한다. 목적지 디바이스 (14) 는 인터넷 접속을 포함하여, 임의의 표준 데이터 접속을 통해 인코딩된 비디오 데이터에 액세스할 수도 있다. 이것은 파일 서버 상에 저장된 인코딩된 비디오 데이터에 액세스하기에 적합한 무선 채널 (예컨대, Wi-Fi 접속), 유선 접속 (예컨대, 디지털 가입자 라인 (DSL), 케이블 모뎀 등), 또는 양쪽 모두의 조합을 포함할 수도 있다. 저장 시스템 (34) 으로부터의 인코딩된 비디오 데이터의 송신은 스트리밍 송신, 다운로드 송신, 또는 양쪽 모두의 조합일 수도 있다.
도 1의 예에서, 소스 디바이스 (12) 는 비디오 소스 (18), 비디오 인코더 (20), 및 출력 인터페이스 (22) 를 포함한다. 일부 예들에서, 출력 인터페이스 (22) 는 또한 변조기 및/또는 송신기를 포함할 수도 있다. 비디오 소스 (18) 는 비디오 인코더 (20) 로 비디오 데이터를 제공한다. 여러 예들에서, 비디오 소스 (18) 는 비디오 데이터를 제공하기 위한 여러 타입들의 디바이스들 및/또는 시스템들을 포함할 수도 있다. 예를 들어, 비디오 소스 (18) 는 비디오 카메라와 같은 비디오 캡쳐 디바이스를 포함할 수도 있다. 다른 예에서, 비디오 소스 (18) 는 이전에 캡쳐된 비디오를 포함하는 비디오 아카이브를 포함할 수도 있다. 또 다른 예에서, 비디오 소스 (18) 는 비디오 컨텐츠 제공자로부터 비디오를 수신하는 비디오 피드 인터페이스를 포함할 수도 있다. 또 다른 예에서, 비디오 소스 (18) 는 컴퓨터 그래픽 데이터를 생성하는 컴퓨터 그래픽 시스템을 포함할 수도 있다.
이하에 상세히 기술되는 바와 같이, 비디오 인코더 (20) 는 비디오 소스 (18) 에 의해 제공된 비디오 데이터를 인코딩할 수도 있다. 일부 예들에서, 소스 디바이스 (12) 는 출력 인터페이스 (22) 를 통해 목적지 디바이스 (14) 로 직접 인코딩된 비디오 데이터를 송신할 수도 있다. 게다가, 일부 예들에서, 저장 시스템 (34) 은 목적지 디바이스 (14) 또는 다른 디바이스들에 의한 나중의 액세스를 위해 인코딩된 비디오 데이터를 저장할 수도 있다.
본 개시는 일반적으로 비디오 디코더 (30) 와 같은 다른 디바이스로 소정의 정보를 "시그널링하는" 비디오 인코더 (20) 를 참조할 수도 있다. 그러나, 비디오 인코더 (20) 가 비디오 데이터의 여러 인코딩된 부분들과 소정의 신택스 엘리먼트들을 연관시킴으로써 정보를 시그널링할 수도 있다는 것이 이해되어야 한다. 즉, 비디오 인코더 (20) 는 비디오 데이터의 여러 인코딩된 부분들의 헤더들에 소정의 신택스 엘리먼트들을 저장함으로써 데이터를 "시그널링"할 수도 있다. 일부 경우들에서, 그러한 신택스 엘리먼트들은 비디오 디코더 (30) 에 의해 수신 및 디코딩되기 전에 인코딩 및 저장 (예를 들어, 저장 시스템 (34) 에 저장) 될 수도 있다. 따라서, 용어 "시그널링" 은 일반적으로 압축된 비디오 데이터를 디코딩하기 위해 사용되는 신택스 또는 다른 데이터의 통신을 지칭할 수도 있다. 그러한 통신은 실시간 또는 근 실시간으로 발생할 수도 있다. 대안적으로, 그러한 통신은 시간의 스팬 (span) 을 통해 발생할 수도 있으며, 예를 들어 인코딩 시에 매체에 신택스 엘리먼트들을 저장할 때 발생할 수도 있을 것이고, 그것은 그 후 이러한 매체에 저장된 후 임의의 시간에 디코딩 디바이스에 의해 취출될 수도 있다.
도 1 의 예에서, 목적지 디바이스 (14) 는 입력 인터페이스 (28), 비디오 디코더 (30), 및 디스플레이 디바이스 (32) 를 포함한다. 일부 예들에서, 입력 인터페이스 (28) 는 수신기 및/또는 모뎀을 포함할 수도 있다. 목적지 디바이스 (14) 의 입력 인터페이스 (28) 는 통신 채널 (16) 및/또는 저장 시스템 (34) 으로부터 인코딩된 비디오 데이터를 수신한다. 비디오 디코더 (30) 는 입력 인터페이스 (28) 에 의해 수신된 인코딩된 비디오 데이터를 디코딩한다. 목적지 디바이스 (14) 는 디스플레이 디바이스 (32) 상의 디스플레이를 위해 인코딩된 비디오 데이터를 렌더링할 수도 있다.
디스플레이 디바이스 (32) 는 목적지 디바이스 (14) 와 통합될 수도 있거나, 목적지 디바이스 (14) 의 외부에 있을 수도 있다. 일부 예들에서, 목적지 디바이스 (14) 는 통합된 디스플레이 디바이스를 포함하고, 또한 외부 디스플레이 디바이스와 인터페이싱하도록 구성될 수도 있다. 여러 예들에서, 디스플레이 디바이스 (32) 는 여러 타입들의 디스플레이 디바이스들을 포함할 수도 있다. 예를 들어, 디스플레이 디바이스 (32) 는 액정 디스플레이 (LCD), 플라즈마 디스플레이, 유기 발광 다이오드 (OLED) 디스플레이, 또는 다른 유형의 디스플레이 디바이스를 포함할 수도 있다.
도 1 에 도시되지 않지만, 일부 양태들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 각각 오디오 인코더 및 디코더와 통합될 수도 있고, 공통의 데이터 스트림 또는 별개의 데이터 스트림들에서 오디오 및 비디오 양자의 인코딩을 핸들링하기 위해 적절한 MUX-DEMUX 유닛들, 또는 다른 하드웨어 및 소프트웨어를 포함할 수도 있다. 적용가능한 경우, 일부 예들에서, MUX-DEMUX 유닛들은 ITU H.223 멀티플렉서 프로토콜, 또는 사용자 데이터그램 프로토콜 (UDP) 과 같은 다른 프로토콜들에 따를 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 임의의 다양한 적합한 회로, 이를테면 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSP들), 주문형 집적회로들 (ASIC들), 필드 프로그램가능 게이트 어레이들 (FPGA들), 이산 로직 회로, 소프트웨어, 하드웨어, 펌웨어 또는 그것들의 임의의 조합들로서 구현될 수도 있다. 기법들이 부분적으로 소프트웨어로 구현되는 경우, 디바이스는 적합한 비일시적인 컴퓨터 판독가능 매체에 소프트웨어를 위한 명령들을 저장하고 본 개시의 기법들을 수행하기 위해 하나 이상의 프로세서들을 사용하여 하드웨어로 그 명령들을 실행할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 인코더들 또는 디코더들에 포함될 수도 있고, 그들 중 어느 것은 각각의 디바이스에서 결합된 인코더/디코더 (코덱) 의 부분으로서 통합될 수도 있다.
비디오 인코더 (20) 와 비디오 인코더 (30) 는 현재 개발 중에 있는 고효율 비디오 코딩 (HEVC) 표준과 같은 비디오 압축 표준에 따라 동작할 수도 있고, HEVC 테스트 모델 (HM) 에 따를 수도 있다. 대안적으로, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 MPEG-4, 파트 10, 진보된 비디오 코딩 (AVC) 으로서 대안적으로 지칭되는 ITU-T H.264 표준과 같은 다른 사유의 또는 산업 표준들, 또는 그러한 표준들의 확장들에 따라 동작할 수도 있다. 표준들에 대한 예시의 확장들은 H.264/AVC 표준에 대한 스케일러블 비디오 코딩 (SVC) 및 멀티뷰 비디오 코딩 (MVC) 확장들을 포함한다. 비디오 압축 표준들의 다른 예들은 MPEG-2 및 ITU-T H.263 을 포함한다. 본 개시의 기법들은 임의의 특정의 코딩 표준에 제한되지 않는다.
위에서 간단히 언급한 바와 같이, 비디오 인코더 (20) 는 비디오 데이터를 인코딩한다. 비디오 데이터는 화상들의 하나 이상의 시퀀스들을 포함할 수도 있다. 화상들 각각은 스틸 이미지이다. 일부 예들에서, 화상은 "프레임" 으로서 지칭될 수도 있다. 비디오 인코더 (20) 가 비디오 데이터를 인코딩하는 경우, 비디오 인코더 (20) 는 비트스트림을 생성할 수도 있다. 비트스트림은 코딩된 화상들 및 연관된 데이터의 표현을 형성하는 비트들의 시퀀스를 포함한다. 코딩된 화상은 화상의 코딩된 표현이다.
비트스트림을 생성하기 위해, 비디오 인코더 (20) 는 비디오 데이터 내의 화상들의 시퀀스들에 대한 인코딩 동작을 수행할 수도 있다. 비디오 인코더 (20) 가 화상들의 시퀀스에 대한 인코딩 동작을 수행하는 경우, 비디오 인코더 (20) 는 코딩된 화상들 및 연관된 데이터의 시리즈를 생성할 수도 있다. 또, 비디오 인코더 (20) 는 화상들의 시퀀스에 적용가능한 파라미터들을 포함하는 시퀀스 파라미터 세트를 생성할 수도 있다. 더욱이, 비디오 인코더 (20) 는 전체로서 화상들에 적용가능한 파라미터들을 포함하는 화상 파라미터 세트들 (PPSs) 을 생성할 수도 있다. 일부 예들에서, 비디오 인코더 (20) 는 적응 파라미터 세트들 (APSs) 을 생성할 수도 있다. APS 는 전체로서 화상에 적용가능한 파라미터들을 포함할 수도 있다.
코딩된 화상을 생성하기 위해, 비디오 인코더 (20) 는 (때때로 "블록" 으로서 지칭되는) 하나 이상의 트리블록들로 화상을 파티셔닝할 수도 있다. 트리블록은 비디오 데이터의 2차원 (2D) 블록이다. 일부 예들에서, 트리블록은 또한 최대 코딩 유닛 (LCU) 으로서 지칭될 수도 있다. HEVC 의 트리블록들은 H.264/AVC 와 같은 이전의 표준들의 매크로블록들과 대략 유사할 수도 있다. 그러나, 트리블록은 특정의 사이즈에 반드시 제한되지는 않고, 하나 이상의 코딩 유닛들 (CUs) 을 포함할 수도 있다.
일부 예들에서, 비디오 인코더 (20) 는 화상을 복수의 슬라이스들로 파티셔닝할 수도 있다. 슬라이스들 각각은 정수 개수의 CU 들을 포함할 수도 있다. 일부 예들에서, 슬라이스는 정수 개수의 트리블록들을 포함한다. 다른 예들에서, 슬라이스의 경계는 트리블록 내에 있을 수도 있다. 일부 예들에서, 비디오 인코더 (20) 는 슬라이스들의 바이트 단위의 사이즈에 따라 또는 슬라이스들의 트리블록들의 수에 따라 슬라이스들을 인코딩할 수도 있다.
화상에 대한 인코딩 동작을 수행하는 부분으로서, 비디오 인코더 (20) 는 화상의 각 슬라이스에 대한 인코딩 동작들을 수행할 수도 있다. 슬라이스에 대한 인코딩 동작은 슬라이스와 연관된 인코딩된 데이터를 생성할 수도 있다. 슬라이스와 연관된 인코딩된 데이터는 "코딩된 슬라이스" 로 지칭될 수도 있다. 코딩된 슬라이스는 슬라이스 헤더 및 슬라이스 데이터를 포함할 수도 있다. 슬라이스 데이터는 코딩 순서에서 연속적인 코딩 유닛들의 시리즈를 포함할 수도 있다. 슬라이스 헤더는 슬라이스의 첫번째 또는 모든 트리블록들에 속하는 데이터 엘리먼트들을 포함할 수도 있다.
슬라이스에 대한 코딩된 슬라이스 데이터를 생성하기 위해, 비디오 인코더 (20) 는 슬라이스에서의 각 트리블록에 대한 인코딩 동작들을 수행할 수도 있다. 비디오 인코더 (20) 가 트리블록에 대한 인코딩 동작을 수행하는 경우, 비디오 인코더 (20) 는 코딩된 트리블록을 생성할 수도 있다. 코딩된 트리블록은 트리블록의 인코딩된 버전을 표현하는 데이터를 포함할 수도 있다.
코딩된 트리블록을 생성하기 위해, 비디오 인코더 (20) 는 점진적으로 더 작은 CU 들로 트리블록을 분할하기 위해 트리블록에 대해 쿼드트리 (quadtree) 파티셔닝을 재귀적으로 수행할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 트리블록을 4 개의 동일 크기 서브 CU 들로 파티셔닝하고, 서브 CU 들의 하나 이상을 4 개의 동일 크기 서브 서브 CU 들로 파티셔닝하는 등을 할 수도 있다. 비트스트림 내의 하나 이상의 신택스 엘리먼트들은 비디오 인코더 (20) 가 트리블록을 파티셔닝할 수도 있는 최대 횟수를 나타낼 수도 있다.
비디오 인코더 (20) 는 트리블록에서의 각각의 파티셔닝되지 않은 CU 에 대해 인코딩 동작들을 수행할 수도 있다. 파티셔닝되지 않은 CU 에 대해 인코딩 동작을 수행하는 것의 부분으로서, 비디오 인코더 (20) 는 그 CU 에 대한 예측 데이터를 생성할 수도 있다. 비디오 인코더 (20) 는 그 CU 에 대한 예측 데이터를 생성하기 위해 인트라 예측 또는 인터 예측을 사용할 수도 있다. 비디오 인코더 (20) 가 그 CU 에 대한 예측 데이터를 생성하기 위해 인트라 예측을 사용하는 경우, 비디오 인코더 (20) 는 그 CU 를 포함하는 화상의 디코딩된 샘플들로부터 그 CU 에 대한 예측 데이터를 도출한다. 비디오 인코더 (20) 가 그 CU 에 대한 예측 데이터를 생성하기 위해 인터 예측을 사용하는 경우, 비디오 인코더 (20) 는 그 CU 를 포함하는 화상 이외의 참조 화상들의 디코딩된 값들로부터 그 CU 에 대한 예측 데이터를 도출한다.
비디오 인코더 (20) 가 CU 에 대한 예측 데이터를 생성한 후, 비디오 인코더 (20) 는 CU 에 대한 레지듀얼 데이터를 계산할 수도 있다. CU 에 대한 레지듀얼 데이터는 CU 에 대한 예측 데이터 내의 화소 값들과 CU 의 오리지날 화소값들 사이의 차이들을 나타낼 수도 있다.
트리블록의 각 파티셔닝되지 않은 CU 는 하나 이상의 변환 유닛들 (TUs) 을 가질 수도 있다. CU 의 각 TU 는 CU 의 레지듀얼 데이터의 상이한 부분과 연관될 수도 있다. 비디오 인코더 (20) 는 CU 의 각 TU 에 대한 변환 동작을 수행할 수도 있다. 비디오 인코더 (20) 가 TU 에 대한 변환 동작을 수행하는 경우, 비디오 인코더 (20) 는 TU 와 연관된 레지듀얼 데이터에 변환을 적용함으로써 적어도 부분적으로 계수 블록을 생성할 수도 있다.
비디오 인코더 (20) 는 계수 블록 내의 계수들을 양자화하고 그 계수 블록에 대한 엔트로피 인코딩 동작을 수행할 수도 있다. 비디오 인코더 (20) 가 계수 블록에 대한 엔트로피 인코딩을 수행한 후, 비디오 인코더 (20) 는 비디오 데이터에 대한 비트스트림에 엔트로피 인코딩된 계수 블록을 표현하는 데이터를 포함시킬 수도 있다. 그 비트스트림은 코딩된 화상들의 표현 및 연관된 데이터를 형성하는 비트들의 시퀀스일 수도 있다.
비디오 디코더 (30) 가 인코딩된 비트스트림을 수신하는 경우, 비디오 디코더 (30) 는 비디오 인코더 (20) 에 의해 수행된 인코딩 동작에 대해 일반적으로 역인 디코딩 동작을 수행한다. 예를 들어, 비디오 디코더 (30) 는 화상의 각 슬라이스에 대해 디코딩 동작을 수행할 수도 있다. 비디오 디코더 (30) 가 화상의 슬라이스에 대해 디코딩 동작을 수행하는 경우, 비디오 디코더 (30) 는 슬라이스 내의 트리블록들에 대해 디코딩 동작들을 수행할 수도 있다. 비디오 디코더 (30) 가 트리블록에 대해 디코딩 동작을 완료하는 경우, 비디오 디코더 (30) 는 트리블록에 대한 화소 값들을 디코딩했다. 비디오 디코더 (30) 가 슬라이스의 각 트리블록에 대한 화소 값들을 디코딩했을 때, 비디오 디코더 (30) 는 슬라이스에 대한 화소 값들을 재구성했다.
병합 모드는 이웃하는 비디오 블록의 (모션 벡터들, 참조 프레임 인덱스들, 예측 방향들, 또는 다른 정보와 같은) 모션 정보가 코딩되고 있는 현재의 비디오 블록에 대해 인계되는 하나 이상의 비디오 코딩 모드들을 지칭한다. 인덱스 값은 현재의 비디오 블록이 그의 모션 정보를 인계받는 후보 이웃들의 리스트 (예를 들어, 현재의 블록, 또는 (아래에 더욱 상세히 논의되는 바와 같은 시간적 모션 벡터 예측자, 또는 TMVP 와 같은) 일시적으로 인접한 프레임으로부터의 동일 장소에 배치된 블록에 대한 상측, 우상측, 좌측, 좌하측 블록) 를 식별하기 위해 사용될 수도 있다. 이들 후보들은 때때로 병합 후보 리스트로서 지칭되는 리스트에 저장될 수도 있다. 병합 후보 리스트는 초기에 미리 결정된 사이즈를 가질 수 있다. 그러나, 리스트 사이즈는 프루닝 (pruning) (예를 들어, 리던던트를 제거하는 것 또는 리스트 엔트리들을 반복하는 것) 의 결과로서 또는 트렁케이션 (truncation) (예를 들어, 비디오가 특정의 병합 후보 리스트 사이즈를 사용하여 코딩되는 경우) 에 의해 감소될 수도 있다. 리스트 사이즈가 감소되고 후보들이 삭제됨에 따라 (또는 더 많은 후보들이 TMVP 전에 삽입되는 상황들에서), TMVP 는 리스트로부터 제거될 수도 있거나, 일부 경우들에서 리스트에 추가되지 않을 수도 있다. 그러나, 이하에 더 상세히 기술된 것들과 같은 여러 기법들은 병합 모드가 병렬 모션 추정 영역에 대해 수행되는 경우 병합 후보 리스트를 생성하기 위해 이용될 수도 있다. 예를 들어, 이들 기법들은 도 2 에 도시된 병합/MVP 리스트 생성 모듈 (121) 에 의해 수행될 수도 있다. 그러한 기법들의 실시형태들은 도 4 내지 도 17 에 대해 이하에 더 상세히 기술된다.
스킵 모드는 병합 모드 (또는 병합 모드와 유사한 모드) 의 하나의 타입을 포함할 수도 있다. 스킵 모드에 의해, 모션 정보는 인계되지만, 레지듀얼 정보는 코딩되지 않는다. 레지듀얼 정보는 일반적으로 코딩될 블록과 모션 정보가 그로부터 인계되는 블록 사이의 화소 차이들을 나타내는 화소 차이 정보를 지칭할 수도 있다. 다이렉트 모드는 병합 모드 (또는 병합 모드와 유사한 모드) 의 다른 타입일 수도 있다. 다이렉트 모드는 모션 정보가 인계된다는 점에서 스킵 모드와 유사할 수도 있지만, 다이렉트 모드에 의해, 비디오 블록은 레지듀얼 정보를 포함하도록 코딩된다. 어구 "병합 모드" 는 스킵 모드, 다이렉트 모드 또는 병합 모드로 불릴 수도 있는 이들 모드들 중 임의의 모드를 지칭하기 위해 여기서 사용된다.
이웃하는 비디오 블록의 모션 벡터가 현재의 비디오 블록의 코딩에서 사용되는 다른 케이스는 소위 모션 벡터 예측 또는 진보된 모션 벡터 예측 (advanced motion vector prediction: AMVP) 이다. 이들 경우들에서, 모션 벡터들의 예측적 코딩은 모션 벡터를 통신하기 위해 필요한 데이터의 양을 감소시키기 위해 적용된다. 예를 들어, 모션 벡터 자체를 인코딩 및 통신하기 보다, 비디오 인코더 (20) 는 알려진 (또는 알려지는 것이 가능한) 모션 벡터에 대한 모션 벡터 차이 (motion vector difference: MVD) 를 인코딩 및 통신한다. H.264/AVC 에서, 현재의 모션 벡터를 정의하기 위해 MVD 와 함께 사용될 수도 있는 알려진 모션 벡터는 이웃하는 블록들과 연관된 모션 벡터들의 메디안 (median) 으로서 도출되는 소위 모션 벡터 예측자 (MVP) 에 의해 정의될 수 있다. 그러나, 적응적 모션 벡터 예측 (AMVP) 와 같은 더 진보된 MVP 기법들은 비디오 인코더 (20) 가 MVP 를 그로부터 정의할 이웃을 선택하는 것을 허용할 수도 있다. 이리하여, 병합 모드의 사용은 코딩될 블록과 다른 블록 사이의 화소 차이들을 나타내는 레지듀얼 정보를 갖거나 갖지 않는, 현재의 블록을 코딩하기 위해 다른 블록으로부터의 모션 정보의 사용을 지칭할 수도 있다. AMVP 의 사용은 코딩될 블록의 실제의 MV 와 MVP 사이의 차이들을 나타내는 MVD 값의 사용과 함께, 다른 블록으로부터의 모션 벡터 정보의 사용을 지칭할 수도 있다. 모션 벡터 정보를 획득하기 위한 후보 블록의 선택을 위한 기법들은 병합 모드 및 AMVP 에 대해 동일하거나 유사할 수도 있다. 일반적인 배경으로서, 대부분의 비디오 코딩 시스템들에서, 모션 추정 및 모션 보상은 데이터 압축을 달성하기 위해 비디오 시퀀스 내의 시간적 리던던시를 감소시키기 위해 사용된다. 이러한 경우에, 예를 들어 코딩되고 있는 현재의 비디오 블록의 값들을 예측하기 위해 사용될 수 있는 다른 비디오 프레임 또는 슬라이스로부터 비디오 데이터의 예측 블록을 식별하기 위해 모션 벡터가 생성될 수 있다. 예측 비디오 블록의 값들은 레지듀얼 데이터의 블록을 생성하기 위해 현재의 비디오 블록의 값들로부터 감산된다. 모션 벡터는 레지듀얼 데이터와 함께, 비디오 인코더 (20) 로부터 비디오 디코더 (30) 로 통신된다. 비디오 디코더 (30) 는 (모션 벡터에 기초하여) 동일한 예측 블록을 로케이팅하고 예측 블록의 데이터와 레지듀얼 데이터를 결합함으로써 인코딩된 비디오 블록을 재구성할 수 있다. 비디오 압축을 더욱 향상시키기 위해 변환들 및 엔트로피 코딩과 같은 다수의 다른 압축 기법들이 또한 사용될 수 있다.
비디오 인코더 (20) 는 보통 모션 추정 프로세스를 수행한다. 비디오 인코더 (20) 는 비디오 디코더 (30) 가 주어진 비디오 블록을 인코딩하기 위해 사용된 예측 블록을 식별할 수 있도록 비디오 디코더 (30) 로 (모션 벡터들, 모션 벡터 인덱스들, 예측 방향들, 또는 다른 정보와 같은) 모션 정보를 송신할 수도 있다.
AMVP 는 MVP 에 대한 후보들로서 공간적 및 시간적 방향들에서 수개의 이웃하는 블록들을 포함함으로써 모션 벡터 후보 세트를 구축하는 것을 제안해왔다. 이러한 경우에, 비디오 인코더 (20) 는 (예를 들어, 소위 레이트-왜곡 코스트 분석을 사용하여) 인코딩 레이트 및 왜곡의 분석에 기초하여 후보 세트로부터 가장 정확한 예측자를 선택한다. 비디오 인코더 (20) 는 또한 비디오 디코더 (30) 에게 MVP 를 어디에 로케이팅할지를 알리기 위해 비디오 디코더 (30) 에게 모션 벡터 예측자 인덱스 (mvp_idx) 를 시그널링할 수도 있다. 비디오 인코더 (20) 는 또한 MVD 를 시그널링할 수도 있다. 비디오 디코더 (30) 는 모션 벡터를 재구성하기 위해 (모션 벡터 예측자 인덱스에 의해 정의된) MVP 와 MVD 를 결합할 수도 있다. (비디오 인코더 (20) 처럼) 비디오 디코더 (30) 는 여러 기준들에 기초하여 그 인덱스가 적용되는 후보 MVP 들의 세트를 정의할 수도 있다.
비디오 인코더
도 2 는 비디오 인코더 (20) 의 예시의 구성을 도시하는 블록도이다. 도 2 는 설명의 목적으로 제공되고 본 개시에서 폭넓게 예시되고 설명된 바와 같은 기법들의 제한이 아니다. 설명의 목적으로, 본 개시는 HEVC 코딩의 맥락에서 비디오 인코더 (20) 를 설명한다. 그러나, 본 개시물의 기법들은 다른 코딩 표준들 또는 방법들에 적용가능할 수도 있다.
도 2 의 예에서, 비디오 인코더 (20) 는 복수의 기능적 컴포넌트들을 포함한다. 비디오 인코더 (20) 의 기능적 컴포넌트들은 예측 모듈 (100), 레지듀얼 생성 모듈 (102), 변환 모듈 (104), 양자화 모듈 (106), 역 양자화 모듈 (108), 역 변환 모듈 (110), 재구성 모듈 (112), 디코딩된 화상 버퍼 (114), 엔트로피 인코딩 모듈 (116) 및 파티셔닝 모듈 (118) 을 포함한다. 예측 모듈 (100) 은 병합/MVP 리스트 생성 모듈 (121), 모션 추정 모듈 (122), 모션 보상 모듈 (124), 및 인트라 예측 모듈 (126) 을 포함한다. 병합/MVP 리스트 생성 모듈 (121) 은 MV 후보 리스트를 생성할 수도 있다. 예를 들어, 적어도 MER 에서 파티셔닝된 복수의 PU 들에 대응하는 복수의 MV 후보들에 대해, 병합/MVP 리스트 생성 모듈 (121) 은 도 4 내지 도 17 에 대해 이하에 더욱 상세히 기술되는 바와 같이, 병합 후보 리스트에 포함시킬 복수의 MV 후보들의 서브세트를 선택하고, 복수의 모션 벡터 후보들의 그 선택된 서브세트를 포함하도록 병합 후보 리스트를 생성할 수도 있다.
다른 예들에서, 비디오 인코더 (20) 는 더 많은, 더 적은, 또는 상이한 기능적 컴포넌트들을 포함할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 재구성된 비디오로부터 블록키니스 (blockiness) 아티팩트들을 제거하기 위해 재구성 모듈 (112) 의 출력을 필터링하는 디블록킹 필터를 포함할 수도 있다. 더욱이, 병합/MVP 리스트 생성 모듈 (121), 모션 추정 모듈 (122), 및 모션 보상 모듈 (124) 은 고도로 집적될 수도 있지만, 설명읨 목적으로 별개로 도 2 의 예에서 표현된다.
비디오 인코더 (20) 는 비디오 데이터를 수신할 수도 있다. 여러 예들에서, 비디오 인코더 (20) 는 여러 소스들로부터 비디오 데이터를 수신할 수도 있다. 예를 들어 비디오 인코더 (20) 는 비디오 소스 (18) (도 3) 또는 다른 소스로부터 비디오 데이터를 수신할 수도 있다. 비디오 데이터는 화상들의 시퀀스들을 표현할 수도 있다. 화상들은 텍스쳐 뷰 및 깊이 뷰들을 포함할 수도 있다. 비디오 데이터를 인코딩하기 위해, 비디오 인코더 (20) 는 화상들의 각 시퀀스에 대해 인코딩 동작을 수행할 수도 있다. 화상들의 시퀀스에 대한 인코딩 동작을 수행하는 것의 부분으로서, 비디오 인코더 (20) 는 화상들의 시퀀스 내의 각 화상에 대한 인코딩 동작을 수행할 수도 있다. 화상에 대한 인코딩 동작을 수행하는 것의 부분으로서, 비디오 인코더 (20) 는 화상 내의 각 슬라이스에 대한 인코딩 동작을 수행할 수도 있다. 비디오 인코더 (20) 가 슬라이스에 대해 인코딩 동작을 수행하는 경우, 비디오 인코더 (20) 는 코딩된 슬라이스를 생성한다. 코딩된 슬라이스는 그것의 인코딩된 폼의 슬라이스이다. 코딩된 슬라이스는 슬라이스 헤더 및 슬라이스 데이터를 포함할 수도 있다. 슬라이스 헤더는 슬라이스와 연관된 신택스 엘리먼트들을 포함할 수도 있다.
슬라이스에 대해 인코딩 동작을 수행하는 것의 부분으로서, 비디오 인코더 (20) 는 슬라이스에서의 트리블록들에 대해 인코딩 동작을 수행할 수도 있다. 비디오 인코더 (20) 가 트리블록에 대해 인코딩 동작을 수행하는 경우, 비디오 인코더 (20) 는 코딩된 트리블록을 생성할 수도 있다. 코딩된 트리블록은 트리블록의 인코딩된 버전을 나타내는 데이터를 포함할 수도 있다. 즉, 코딩된 트리블록은 그것의 인코딩된 형태의 트리블록일 수도 있다.
트리블록에 대해 인코딩 동작을 수행하는 것의 부분으로서, 파티셔닝 모듈 (118) 은 트리블록을 점진적으로 더 작은 CU 들로 분할하기 위해 트리블록에 대해 쿼드트리 파티셔닝을 수행할 수도 있다. 예를 들어, 파티셔닝 모듈 (118) 은 트리블록을 4 개의 동일 사이즈 서브 CU 들로 파티셔닝하고, 서브 CU 들의 하나 이상을 4 개의 동일 사이즈 서브 서브 CU 들로 파티셔닝할 수도 있는 등등이다.
CU 들의 사이즈들은 8x8 화소들로부터 64x64 화소들 이상의 최대값을 갖는 트리블록의 사이즈까지의 범위에 있을 수도 있다. 본 개시에서, "NxN" 및 "N 바이 N" 은 수직 및 수평 차원들이 면에서, 예를 들어 16x16 화소들 또는 16 바이 16 화소들로 비디오 블록의 화소 차원들을 지칭하기 위해 교화가능하게 사용될 수도 있다. 일반적으로, 16x16 블록은 수직 방향으로 16 화소들 (y=16) 및 수평 방향으로 16 화소들 (x=16) 을 가질 것이다. 마찬가지로, NxN 블록은 일반적으로 수직 방향으로 N 개의 화소들 및 수평 방향으로 N 개의 화소들을 가지며, 여기서 N 은 음이 아닌 정수 값을 나타낸다.
트리블록에 대해 인코딩 동작을 수행하는 것의 부분으로서, 파티셔닝 모듈 (118) 은 트리블록에 대해 계층적 쿼드트리 데이터 구조를 생성할 수도 있다. 예를 들어, 트리블록은 쿼드트리 데이터 구조의 루트 (root) 노드에 대응할 수도 있다. 파티셔닝 모듈 (118) 이 트리블록을 4 개의 서브 CU 들로 파티셔닝하는 경우, 루트 노드는 쿼드트리 데이터 구조에 4 개의 차일드 노드들을 갖는다. 차일드 노드들 각각은 서브 CU 들 중 하나에 대응한다. 파티셔닝 모듈 (118) 이 서브 CU 들 중 하나를 4 개의 서브 서브 CU 들로 파티셔닝하는 경우, 그 서브 CU 에 대응하는 노드는, 각각이 서브 서브 CU 들 중 하나에 대응하는 4 개의 차일드 노드들을 가질 수도 있다.
쿼드트리 데이터 구조의 각 노드는 대응하는 CU 에 대해 신택스 데이터를 제공할 수도 있다. 예를 들어, 쿼드트리 내의 노드는 그 노드에 대응하는 CU 가 4 개의 서브 CU 들로 파티셔닝 (예를 들어, 분할) 되는지 여부를 나타내는 분할 플래그를 포함할 수도 있다. CU 에 대한 신택스 엘리먼트들은 재귀적으로 정의될 수도 있고, CU 가 서브 CU 들로 분할되는지 여부에 의존할 수도 있다. 파티셔닝되지 않는 CU 는 쿼드트리 데이터 구조에서 리프 (leaf) 노드에 대응할 수도 있다. 쿼드트리 데이터 구조에서의 리프 노드는 "코딩 노드" 로서 지칭될 수도 있다. 코딩된 트리블록은 대응하는 트리블록에 대한 쿼드트리 데이터 구조에 기초한 데이터를 포함할 수도 있다. 코딩된 트리블록은 그것의 인코딩된 형태의 트리블록이다. 코딩된 트리블록은 코딩된 트리블록이 그것의 인코딩된 형태의 트리블록인 경우의 트리블록에 대응한다.
비디오 인코더 (20) 는 트리블록의 각각의 파티셔닝되지 않은 CU 에 대해 인코딩 동작들을 수행할 수도 있다. 비디오 인코더 (20) 가 파티셔닝되지 않은 CU 에 대해 인코딩 동작을 수행하는 경우, 비디오 인코더 (20) 는 그 파티셔닝되지 않은 CU 의 인코딩된 버전을 표현하는 데이터를 생성한다.
CU 에 대한 인코딩 동작을 수행하는 것의 부분으로서, 모션 추정 모듈 (122) 및 모션 보상 모듈 (124) 은 CU 에 대한 인터 예측을 수행할 수도 있다. 즉, 모션 추정 모듈 (122) 및 모션 보상 모듈 (124) 은 CU 를 포함하는 화상 이외의 참조 화상들의 디코딩된 샘플들에 기초하여 CU 에 대한 예측 데이터를 생성할 수도 있다. 인터 예측은 시간적 압축을 제공할 수도 있다.
CU 에 대한 인터 예측을 수행하기 위해, 모션 추정 모듈 (122) 은 그 CU 를 하나 이상의 예측 유닛들 (PUs) 로 파티셔닝할 수도 있다. 비디오 인코더 (20) 와 비디오 디코더 (30) 는 다양한 PU 사이즈들을 지원할 수도 있다. 특정 CU의 사이즈가 2Nx2N이라고 가정하면, 비디오 인코더 (20) 와 비디오 디코더 (30) 는 2Nx2N 또는 NxN의 PU 사이즈들과, 2Nx2N, 2NxN, Nx2N, NxN, 2NxnU, nLx2N, nRx2N 등의 대칭적 PU 사이즈들에서의 인터 예측을 지원할 수도 있다. 비디오 인코더 (20) 와 비디오 디코더 (30) 는 또한 2NxnU, 2NxnD, nLx2N, 및 nRx2N 의 PU 사이즈들에 대해 비대칭적 파티셔닝을 지원할 수도 있다. 일부 예들에서, 모션 추정 모듈 (122) 은 CU 를 그 CU 의 직각의 변들을 충족하지 않는 경계를 따라 PU 들로 파티셔닝할 수도 있다.
모션 추정 모듈 (122) 은 CU 의 각 PU 에 대한 모션 추정 동작을 수행할 수도 있다. 모션 추정 모듈 (122) 이 PU 에 대한 모션 추정 동작을 수행하는 경우, 모션 추정 모듈 (122) 은 그 PU 에 대한 하나 이상의 모션 벡터들을 생성할 수도 있다. 예를 들어, 슬라이스들은 I 슬라이스들, P 슬라이스들, 또는 B 슬라이스들일 수도 있다. 모션 추정 모듈 (122) 및 모션 보상 모듈 (124) 은 CU 가 I 슬라이스, P 슬라이스, 또는 B 슬라이스에 있는지 여부에 따라 CU 의 PU 에 대한 상이한 동작들을 수행할 수도 있다. I 슬라이스에서, 모든 CU 들은 인트라 예측된다. 이리하여, CU 가 I 슬라이스에 있는 경우, 모션 추정 모듈 (122) 및 모션 보상 모듈 (124) 은 CU 에 대한 인터 예측을 수행하지 않는다.
CU 가 P 슬라이스에 있는 경우, CU 를 포함하는 화상은 "리스트 0" 으로서 지칭되는 참조 화상들의 리스트와 연관된다. 리스트 0 내의 참조 화상들 각각은 디코딩 순서에서 후속하는 화상들의 인터 예측을 위해 사용될 수도 있는 샘플들을 포함한다. 모션 추정 모듈 (122) 이 P 슬라이스 내의 PU 에 대한 모션 추정 동작을 수행하는 경우, 모션 추정 모듈 (122) 은 그 PU 에 대한 참조 샘플을 위해 리스트 0 내의 참조 화상들을 검색한다. PU 의 참조 샘플은 PU 의 화소들 값들에 가장 근접하게 대응하는 화소 값들의 세트일 수도 있다. 모션 추정 모듈 (122) 은 참조 화상 내의 화소 값들의 세트가 PU 의 화소 값들에 얼마나 근접하게 대응하는지를 결정하기 위해 다양한 메트릭들을 사용할 수도 있다. 예를 들어, 모션 추정 모듈 (122) 은 절대 차이의 합 (SAD), 제곱 차이의 합 (SSD), 또는 다른 차이 메트릭들에 의해 참조 화상 내의 화소 값들의 세트가 PU 의 화소 값들에 얼마나 근접하게 대응하는지를 결정할 수도 있다.
P 슬라이스 내의 CU 의 PU 의 참조 샘플을 식별한 후, 모션 추정 모듈 (122) 은 참조 샘플을 포함하는 리스트 0 내의 참조 화상을 나타내는 참조 인덱스 및 PU 와 참조 샘플 사이의 공간적 변위를 나타내는 모션 벡터를 생성할 수도 있다. 여러 예들에서, 모션 추정 모듈 (122) 은 다양한 정밀도들로 모션 벡터들을 생성할 수도 있다. 예를 들어, 모션 추정 모듈 (122) 은 1/4 화소 정밀도, 1/8 화소 정밀도, 또는 다른 분수 화소 정밀도로 모션 벡터들을 생성할 수도 있다. 모션 추정 모듈 (122) 은 엔트로피 인코딩 모듈 (116) 및 모션 보상 모듈 (124) 로 PU 에 대한 모션 정보를 출력할 수도 있다. PU 에 대한 모션 정보는 PU 의 모션 벡터 및 참조 인덱스를 포함할 수도 있다. 모션 보상 모듈 (124) 은 PU 들의 참조 샘플들을 식별 및 취출하기 위해 CU 의 PU 들의 모션 정보를 사용할 수도 있다. 모션 보상 모듈 (124) 은 그 후 CU 에 대한 예측 데이터를 생성하기 위해 PU 들의 참조 샘플들의 화소 값들을 사용할 수도 있다.
CU 가 B 슬라이스에 있는 경우, CU 를 포함하는 화상은 "리스트 0" 및 "리스트 1" 로서 지칭되는 참조 화상들의 2 개의 리스트들과 연관될 수도 있다. 리스트 0 내의 참조 화상들 각각은 디코딩 순서에서 후속하는 화상들의 인터 예측을 위해 사용될 수도 있는 샘플들을 포함한다. 리스트 1 내의 참조 화상들은 디코딩 순서에서 화상의 이전에 그러나 제시 (presentation) 순서에서 화상의 이후에 발생한다. 일부 예들에서, B 슬라이스를 포함하는 화상은 리스트 0 및 리스트 1 의 결합인 리스트 결합과 연관될 수도 있다.
더욱이, CU 가 B 슬라이스에 있다면, 모션 추정 모듈 (122) 은 CU 의 PU 들에 대해 단방향 예측 또는 양방향 예측을 수행할 수도 있다. 모션 추정 모듈 (122) 이 PU에 대한 단방향 예측을 수행하는 경우, 모션 추정 모듈 (122) 은 PU 에 대한 참조 샘플에 대해 리스트 1 의 참조 화상들을 검색할 수도 있다. 모션 추정 모듈 (122) 은 그 후 참조 샘플을 포함하는 리스트 1 내의 참조 화상을 나타내는 참조 인덱스 및 PU 와 참조 샘플 사이의 공간적 변위를 나타내는 모션 벡터를 생성할 수도 있다. 모션 추정 모듈 (122) 은 엔트로피 인코딩 모듈 (116) 및 모션 보상 모듈 (124) 로 CU 의 PU 들에 대한 모션 정보를 출력할 수도 있다. PU 에 대한 모션 정보는 참조 인덱스, 예측 방향 표시자, 및 PU 의 모션 벡터를 포함할 수도 있다. 예측 방향 표시자는 참조 인덱스가 리스트 0 또는 리스트 1 내의 참조 화상을 표시하는지 여부를 표시할 수도 있다. 모션 보상 모듈 (124) 은 PU 들의 참조 샘플들을 식별 및 취출하기 위해 CU 의 PU 들의 모션 정보를 사용할 수도 있다. 모션 보상 모듈 (124) 은 그 후 CU 에 대한 예측 데이터를 생성하기 위해 PU 들의 참조 샘플들의 화소값들을 사용할 수도 있다.
모션 추정 모듈 (122) 이 PU 에 대해 양방향 예측을 수행하는 경우, 모션 추정 모듈 (122) 은 그 PU에 대한 참조 샘플에 대해 리스트 0 에서의 참조 화상들을 검색할 수도 있고, 또한 그 PU에 대한 다른 참조 샘플에 대해 리스트 1 에서의 참조 화상들을 검색할 수도 있다. 모션 추정 모듈 (122) 은 그 후 참조 샘플들을 나타내는 참조 인덱스들 및 참조 샘플들과 PU 사이의 공간적 변위들을 나타내는 모션 벡트들을 생성할 수도 있다. 모션 추정 모듈 (122) 은 엔트로피 인코딩 모듈 (116) 및 모션 보상 모듈 (124) 로 PU 의 모션 정보를 출력할 수도 있다. PU 에 대한 모션 정보는 PU 의 모션 벡터들 및 참조 인덱스들을 포함할 수도 있다. 모션 보상 모듈 (124) 은 PU 들의 참조 샘플들을 식별 및 취출하기 위해 모션 정보를 사용할 수도 있다. 모션 보상 모듈 (124) 은 그 후 CU 의 PU 들의 참조 샘플들에서의 화소 값들로부터 CU 의 예측 데이터의 화소 값들을 보간할 수도 있다.
일부 예들에서, 모션 추정 모듈 (122) 은 엔트로피 인코딩 모듈 (116) 로 PU 에 대한 모션 정보의 풀 세트를 출력하지 않는다. 오히려, 모션 추정 모듈 (122) 은 다른 PU 의 모션 정보를 참조하여 PU 의 모션 정보를 시그널링할 수도 있다. 예를 들어, 모션 추정 모듈 (122) 은 PU 의 모션 정보가 이웃하는 PU 의 모션 정보와 충분히 유사하다고 결정할 수도 있다. 이러한 예에서, 모션 추정 모듈 (122) 은, CU 에 대한 쿼드트리 노드에서, 비디오 디코더 (30) 에게 PU 가 이웃하는 PU 와 동일한 모션 정보를 갖는다는 것을 나타내는 값을 표시할 수도 있다. 다른 예에서, 모션 추정 모듈 (122) 은, CU 와 연관된 쿼드트리 노드에서, 이웃하는 PU 및 모션 벡터 차이 (MVD) 를 식별할 수도 있다. 모션 벡터 차이는 PU 의 모션 벡터와 표시된 이웃하는 PU 의 모션 벡터 사이의 차이를 나타낸다. 비디오 디코더 (30) 는 표시된 이웃하는 PU 의 모션 벡터 및 모션 벡터 차이를 사용하여 PU 의 모션 벡터를 예측할 수도 있다.
CU 에 대해 인코딩 동작을 수행하는 것의 부분으로서, 인트라 예측 모듈 (126) 은 CU 에 대해 인트라 예측을 수행할 수도 있다. 즉, 인트라 예측 모듈 (126) 은 다른 CU 들의 디코딩된 화소 값들에 기초하여 CU 에 대한 예측 데이터를 생성할 수도 있다. 인트라 예측은 공간적 압축을 제공할 수도 있다.
CU 에 대해 인트라 예측을 수행하기 위해, 인트라 예측 모듈 (126) 은 CU 에 대한 예측 데이터의 다수의 세트들을 생성하기 위해 다수의 인트라 예측 모드들을 사용할 수도 있다. 인트라 예측 모듈 (126) 이 CU 에 대한 예측 데이터의 세트를 생성하기 위해 인트라 예측 모드를 사용하는 경우, 인트라 예측 모듈 (126) 은 인트라 예측 모드와 연관된 방향 및/또는 기울기로 CU 를 가로질러 이웃하는 CU 들로부터 화소 값들을 확장할 수도 있다. 이웃하는 CU 들은 CU 들 및 트리블록들에 대해 좌측에서 우측으로, 상측에서 하측으로의 인코딩 순서를 가정하여, CU 의 상측, 우상측, 좌상측, 또는 좌측에 있을 수도 있다. 인트라 예측 모듈 (126) 은 CU 의 사이즈에 따라, 여러 가지 수들의 인트라 예측 모드들, 예를 들어 33 개의 방향성 인트라 예측 모드들을 사용할 수도 있다.
인트라 예측 모듈 (126) 은 CU 에 대한 예측 데이터의 세트들 중 하나를 선택할 수도 있다. 여러 예들에서, 인트라 예측 모듈 (126) 은 여러 방식들로 CU 에 대한 예측 데이터의 세트를 선택할 수도 있다. 예를 들어, 인트라 예측 모듈 (126) 은 예측 데이터의 세트들에 대해 왜곡 레이트들을 계산하고 최저 왜곡 레이트를 갖는 예측 데이터의 세트를 선택함으로써 CU 에 대한 예측 데이터의 세트를 선택할 수도 있다.
예측 모듈 (100) 은 CU 에 대한 모션 보상 모듈 (124) 에 의해 생성된 예측 데이터 또는 CU 에 대한 인트라 예측 모듈 (126) 에 의해 생성된 예측 데이터 중에서 CU 에 대한 예측 데이터를 선택할 수도 있다. 일부 예들에서, 예측 모듈 (100) 은 예측 데이터의 세트들에서의 에러 (예를 들어, 왜곡) 에 기초하여 CU 에 대한 예측 데이터를 선택한다.
예측 모듈 (100) 이 CU 에 대한 예측 데이터를 선택한 후, 레지듀얼 생성 모듈 (102) 은 CU 의 화소 값들로부터 CU 의 선택된 예측 데이터를 감산함으로써 CU 에 대한 레지듀얼 데이터를 생성할 수도 있다. CU 의 레지듀얼 데이터는 CU 내의 화소들의 상이한 화소 컴포넌트들에 대응하는 2D 레지듀얼 블록들을 포함할 수도 있다. 예를 들어, 레지듀얼 데이터는 CU 의 예측 데이터에서의 화소들의 루미넌스 컴포넌트들과 CU 의 오리지날 화소들에서의 화소들의 루미넌스 컴포넌트들 사이의 차이들에 대응하는 레지듀얼 블록을 포함할 수도 있다. 또, CU 의 레지듀얼 데이터는 CU 의 예측 데이터에서의 화소들의 크로미넌스 컴포넌트들과 CU 의 오리지날 화소들의 크로미넌스 컴포넌트들 사이의 차이들에 대응하는 레지듀얼 블록들을 포함할 수도 있다.
CU 는 하나 이상의 변환 유닛들 (TUs) 을 가질 수도 있다. CU 의 각각의 TU 는 CU 의 레지듀얼 데이터의 상이한 부분에 대응할 수도 있다. CU 의 TU 들의 사이즈들은 CU 의 PU 들의 사이즈들에 기초할 수도 있거나 기초하지 않을 수도 있다. 일부 예들에서, CU 는 "레지듀얼 쿼드 트리" (RQT) 로서 알려진 쿼드트리 구조를 사용하여 더 작은 유닛들로 서브 분할될 수도 있다. TU 들은 RQT 의 노드들에 대응할 수도 있다.
변환 모듈 (104) 은 파티셔닝되지 않은 TU 에 대응하는 레지듀얼 데이터에 변환을 적용함으로써 CU 의 각각의 파티셔닝되지 않은 TU 에 대한 하나 이상의 계수 블록들을 생성할 수도 있다. 계수 블록들 각각은 계수들의 2D 매트릭스일 수도 있다. 여러 예들에서, 변환 모듈 (104) 은 TU 에 대응하는 레지듀얼 데이터에 여러 변환들을 적용할 수도 있다. 예를 들어, 변환 모듈은 이산 코사인 변환 (DCT), 방향성 변화, 또는 개념적으로 유사한 변환을 적용할 수도 있다.
변환 모듈 (104) 이 TU 에 대한 계수 블록을 생성한 후, 양자화 모듈 (106) 은 그 계수 블록 내의 계수들을 양자화할 수도 있다. 양자화는 일반적으로 계수 블록 내의 계수들이 계수들을 나타내기 위해 사용되는 데이터의 양을 감소시키기 위해 양자화되어 추가의 압축을 제공하는 프로세스를 지칭한다. 양자화는 계수들의 일부 또는 전부와 연관된 비트 깊이를 감소시킬 수도 있다. 예를 들어, n-비트 값은 양자화 동안 m-비트 값으로 라운드 다운될 수도 있으며, 여기서 n 은 m 보다 크다.
역 양자화 모듈 (108) 및 역 변환 모듈 (110) 은 계수 블록으로부터 레지듀얼 데이터를 재구성하기 위해 각각 계수 블록에 대해 역양자화 및 역변환을 적용할 수도 있다. 재구성 모듈 (112) 은 디코딩된 화상 버퍼 (114) 에의 저장을 위해 재구성된 비디오 블록을 생성하기 위해 모션 보상 모듈 (124) 또는 인트라 예측 모듈 (126) 에 의해 생성된 예측 데이터에 재구성될 레지듀얼 데이터를 가산할 수도 있다. 모션 추정 모듈 (122) 및 모션 보상 모듈 (124) 은 후속하는 화상들의 CU 들에 대해 인터 예측을 수행하기 위해 재구성된 비디오 블록을 포함하는 참조 화상을 사용할 수도 있다. 또, 인트라 예측 모듈 (126) 은 인트라 예측을 수행하기 위해 현재의 화상의 CU 들의 재구성된 화소 값들을 사용할 수도 있다.
엔트로피 인코딩 모듈 (116) 은 비디오 인코더 (20) 의 다른 기능적 컴포넌트들로부터 데이터를 수신할 수도 있다. 예를 들어, 엔트로피 인코딩 모듈 (116) 은 양자화 모듈 (106) 로부터 계수 블록들을 수신할 수도 있고, 예측 모듈 (100) 로부터 신택스 엘리먼트들을 수신할 수도 있다.
엔트로피 인코딩 모듈 (116) 이 데이터를 수신하는 경우, 엔트로피 인코딩 모듈 (116) 은 엔트로피 인코딩된 데이터를 생성하기 위해 하나 이상의 엔트로피 인코딩 동작들을 수행할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 콘텍스트 적응형 가변 길이 코딩 (CAVLC) 동작, 콘텍스트 적응형 이진 산술 코딩 (CABAC) 동작, 신택스 기반 콘텍스트 적용형 이진 산술 코딩 (SBAC) 동작, 확률 구간 파티셔닝 엔트로피 (PIPE) 코딩 동작, 또는 데이터에 대한 다른 타입의 엔트리피 인코딩 동작을 수행할 수도 있다.
CABAC 를 수행하기 위해, 엔트로피 인코딩 모듈 (116) 은 송신될 심볼에 콘텍스트 모델 내의 콘텍스트를 할당할 수도 있다. 콘텍스트는 예를 들어 심볼의 이웃하는 값들이 넌-제로인지 아니지 여부와 관련할 수도 있다. CAVLC 를 수행하기 위해, 엔트로피 인코딩 모듈 (116) 은 송신될 심볼에 대한 가변 길이 코드를 선택할 수도 있다. VLC 에서의 코드워드들은 상대적으로 짧은 코드들은 더 개연성있는 심볼들에 대응하는 반면, 상대적으로 긴 코드들은 덜 개연성 있는 심볼들에 대응하도록 구성될 수도 있다. 이러한 방식으로, VLC 의 사용은 송신될 각 심볼에 대해 동일 길이 코드워드들을 사용하는 것을 통해 비트 절약들을 달성할 수도 있다. 개연성 결정은 심볼에 할당된 콘텍스트에 기초할 수도 있다.
엔트로피 인코딩 모듈 (116) 은 비트스트림을 출력할 수도 있다. 비트스트림은 코딩된 화상들의 표현 및 연관된 데이터를 형성하는 비트들의 시퀀스일 수도 있다. 비트스트림은 네트워크 추상화 계층 (NAL) 유닛들의 시퀀스를 포함할 수도 있다. NAL 유닛들 각각은 NAL 유닛 내의 데이터의 타입의 표시를 포함하는 신택스 구조 및 그 데이터를 포함하는 바이트들일 수도 있다. 예를 들어, NAL 유닛은 PPS 를 나타내는 데이터, APS, 코딩된 슬라이스, 보충 강화 정보, 액세스 유닛 구획 문자, 필터 데이터, 또는 다른 타입의 데이터를 포함할 수도 있다. NAL 유닛의 데이터는 에뮬레이션 방지 비트들이 사이사이에 배치된 미가공 바이트 시퀀스 페이로드 (RBSP) 의 형태일 수도 있다. RBSP 는 NAL 유닛 내에 캡슐화되는 정수 개수의 바이트들을 포함하는 신택스 구조일 수도 있다.
엔트로피 인코딩 모듈 (116) 은 NAL 유닛들의 시리즈를 포함하는 비트스트림을 출력한다. 상술된 바와 같이, NAL 유닛들 각각은 NAL 유닛 내의 데이터의 타입의 표시를 포함하는 신택스 구조 및 그 데이터를 포함하는 바이트들일 수도 있다. 비트스트림 내의 각각의 코딩된 슬라이스 NAL 유닛은 코딩된 슬라이스를 포함한다. 코딩된 슬라이스는 코딩된 슬라이스 헤더 및 슬라이스 데이터를 포함한다. 슬라이스 데이터는 코딩된 트리블록들을 포함할 수도 있다. 코딩된 트리블록들은 하나 이상의 코딩된 CU 들을 포함할 수도 있다. 각 코딩된 CU 는 하나 이상의 엔트로피 인코딩된 계수 블록들을 포함할 수도 있다.
비디오 디코더
도 3 은 비디오 디코더 (30) 의 예시의 구성을 도시하는 블록도이다. 도 3 은 설명의 목적으로 제공되고 본 개시에서 폭넓게 예시되고 설명된 바와 같은 기법들로 제한하고 있지는 않다. 설명의 목적으로, 본 개시물은 HEVC 코딩의 맥락에서 비디오 디코더 (30) 를 설명한다. 그러나, 본 개시물의 기법들은 다른 코딩 표준들 또는 방법들에 적용가능할 수도 있다.
도 3 의 예에서, 비디오 디코더 (30) 는 복수의 기능적 컴포넌트들을 포함한다. 비디오 디코더 (30) 의 기능적 컴포넌트들은 엔트로피 디코딩 모듈 (150), 예측 모듈 (152), 역 양자화 모듈 (154), 역 변환 모듈 (156), 재구성 모듈 (158), 및 디코딩된 화상 버퍼 (160) 를 구비한다. 예측 모듈 (152) 은 병합/MVP 리스트 생성 모듈 (161), 모션 보상 모듈 (162) 및 인트라 예측 모듈 (164) 을 포함한다. 병합/MVP 리스트 생성 모듈 (161) 은 MV 후보 리스트들을 생성할 수도 있다. 일부 예들에서, 비디오 디코더 (30) 는 도 2 의 비디오 인코더 (20) 에 대해 기술된 인코딩 패스에 대해 일반적으로 역인 디코딩 패스를 수행할 수도 있다. 다른 예들에서, 비디오 디코더 (30) 는 더 많은, 더 적은, 또는 상이한 기능적 컴포넌트들을 포함할 수도 있다. 예를 들어, 비디오 디코더 (30) 는 재구성된 비디오로부터 블록키니스 아티팩트들을 제거하기 위해 재구성 모듈 (158) 의 출력을 필터링하는 디블록킹 필터를 포함할 수도 있다.
비디오 디코더 (30) 는 인코딩된 비디오 데이터를 포함하는 비트스트림을 수신할 수도 있다. 비디오 디코더 (30) 가 비트스트림을 수신하는 경우, 엔트로피 디코딩 모듈 (150) 은 비트스트림에 대해 파싱 동작을 수행한다. 비트스트림에 대한 파싱 동작을 수행하는 것의 결과로서, 엔트로피 디코딩 모듈 (150) 은 엔트로피 디코딩된 신택스 엘리먼트들을 생성할 수도 있다. 엔트로피 디코딩된 신택스 엘리먼트들은 엔트로피 디코딩된 계수 블록들을 포함할 수도 있다. 예측 모듈 (152), 역 양자화 모듈 (154), 역 변환 모듈 (156), 및 재구성 모듈 (158) 은 디코딩된 비디오 데이터를 생성하기 위해 신택스 엘리먼트들을 사용하는 디코딩 동작을 수행할 수도 있다.
상술된 바와 같이, 비트스트림은 NAL 유닛들의 시리즈를 포함할 수도 있다. 비트스트림의 NAL 유닛들은 시퀀스 파라미터 세트 NAL 유닛들, 화상 파라미터 세트 NAL 유닛들, SEI NAL 유닛들 등을 포함할 수도 있다. 비트스트림에 대해 파싱 동작을 수행하는 것의 부분으로서, 엔트로피 디코딩 모듈 (150) 은 시퀀스 파라미터 세트 NAL 유닛들로부터 시퀀스 파리미터 세트들을, 화상 파라미터 세트 NAL 유닛들로부터 화상 파라미터 세트들을, SEI NAL 유닛들로부터 SEI 데이터 등등을 추출하고 엔트로피 디코딩하는 파싱 동작들을 수행할 수도 있다. 시퀀스 파라미터 세트는 제로 이상의 전체 코딩된 비디오 시퀀스들에 적용되는 신택스 엘리먼트들을 포함하는 신택스 구조이다. 화상 파라미터 세트는 제로 이상의 전체 코딩된 화상들에 적용되는 신택스 엘리먼트들을 포함하는 신택스 구조이다. 주어진 화상과 연관된 화상 파라미터 세트는 그 주어진 화상과 연관된 시퀀스 파라미터 세트를 식별하는 신택스 엘리먼트를 포함할 수도 있다.
또한, 비트스트림의 NAL 유닛들은 코딩된 슬라이스 NAL 유닛들을 포함할 수도 있다. 비트스트림에 대해 파싱 동작을 수행하는 것의 부분으로서, 엔트로피 디코딩 모듈 (150) 은 코딩된 슬라이스 NAL 유닛들로부터 코딩된 슬라이스들을 추출 및 엔트로피 디코딩하는 파싱 동작들을 수행할 수도 있다. 코딩된 슬라이스들 각각은 슬라이스 헤더 및 슬라이스 데이터를 포함할 수도 있다. 슬라이스 헤더는 슬라이스에 속하는 신택스 엘리먼트들을 포함할 수도 있다. 슬라이스 헤더 내의 신택스 엘리먼트들은 슬라이스를 포함하는 화상과 연관된 화상 파라미터 세트를 식별하는 신택스 엘리먼트를 포함할 수도 있다. 엔트로피 디코딩 모듈 (150) 은 슬라이스 헤더를 복원하기 위해 코딩된 슬라이스 헤더에 대해 CAVLC 디코딩 동작과 같은 엔트로피 디코딩 동작을 수행할 수도 있다.
코딩된 슬라이스 NAL 유닛들로부터 슬라이스 데이터를 추출한 후, 엔트로피 디코딩 모듈 (150) 은 슬라이스 데이터로부터 코딩된 트리블록들을 추출할 수도 있다. 엔트로피 디코딩 모듈 (150) 은 그 후 코딩된 트리블록들로부터 코딩된 CU 들을 추출할 수도 있다. 엔트로피 디코딩 모듈 (150) 은 코딩된 CU 들로부터 신택스 엘리먼트들을 추출하는 파싱 동작들을 수행할 수도 있다. 추출된 신택스 엘리먼트들은 엔트로피 인코딩된 계수 블록들을 포함할 수도 있다. 엔트로피 디코딩 모듈 (150) 은 그 후 그 신택스 엘리먼트들에 대해 엔트로피 디코딩 동작들을 수행할 수도 있다. 예를 들어, 엔트로피 디코딩 모듈 (150) 은 계수 블록들에 대해 CABAC 동작들을 수행할 수도 있다.
엔트로피 디코딩 모듈 (150) 이 데이터의 세트에 대한 엔트로피 디코딩 동작을 수행하는 경우, 엔트로피 디코딩 모듈 (150) 은 콘텍스트 모델을 선택할 수도 있다. 엔트로피 디코딩 모듈 (150) 이 CABAC 을 사용하는 예들에서, 콘텍스트 모델은 특정의 빈들의 확률들을 나타낼 수도 있다. 엔트로피 디코딩 모듈 (150) 이 CAVLC 을 사용하는 예들에서, 콘텍스트 모델은 코드워드들과 대응하는 데이터 사이의 맵핑을 나타낼 수도 있다. 엔트로피 디코딩 모듈 (150) 그 후 데이터의 세트에 대한 엔트로피 디코딩 동작을 수행하기 위해 선택된 콘텍스트 모델을 사용할 수도 있다.
엔트로피 디코딩 모듈 (150) 이 파티셔닝되지 않은 CU 에 대해 파싱 동작을 수행한 후, 비디오 디코더 (30) 는 그 파티셔닝되지 않은 CU 에 대한 디코딩 동작을 수행할 수도 있다. 파티셔닝되지 않은 CU 에 대해 디코딩 동작을 수행하기 위해, 비디오 디코더 (30) 는, CU 의 레지듀얼 쿼드트리의 각 레벨에서, CU 의 각 TU 에 대해 디코딩 동작을 수행할 수도 있다. CU 의 각 TU 에 대한 디코딩 동작을 수행함으로써, 비디오 디코더 (30) 는 CU 의 레지듀얼 데이터를 재구성할 수도 있다.
파티셔닝되지 않은 TU 에 대해 디코딩 동작을 수행하는 것의 부분으로서, 역 양자화 모듈 (154) 은 TU 과 연관된 계수 블록들을 역 양자화, 즉 탈양자화할 수도 있다. 역 양자화 모듈 (154) 은 HEVC 를 위해 제안되거나 H.264 디코딩 표준에 의해 정의된 역양자화 프로세스들과 유사한 방식으로 계수 블록들을 역양자화할 수도 있다. 역 양자화 모듈 (154) 은 양자화의 정도, 및 마찬가지로 적용할 역 양자화 모듈 (154) 에 대한 역양자화의 정도를 결정하기 위해 계수 블록의 CU 에 대해 비디오 인코더 (20) 에 의해 계산된 양자화 파라미터 (QPY) 를 사용할 수도 있다.
역 양자화 모듈 (154) 이 계수 블록을 역양자화한 후, 역 변환 모듈 (156) 은 계수 블록과 연관된 TU 에 대해 레지듀얼 데이터를 생성할 수도 있다. 역 변환 모듈 (156) 은 계수 블록에 역변환을 적용함으로써 적어도 부분적으로 TU 에 대해 레지듀얼 데이터를 생성할 수도 있다. 예를 들어, 역 변환 모듈 (156) 은 계수 블록에 역 DCT, 역 정수 변환, 역 카루넨-뢰베 변환 (KLT), 역회전 변환, 역방향 변환, 또는 다른 역변환을 적용할 수도 있다. 일부 예들에서, 역 변환 모듈 (156) 은 비디오 인코더 (20) 로부터의 시그널링에 기초하여 계수 블록에 적용할 역변환을 결정할 수도 있다. 그러한 예들에서, 역 변환 모듈 (156) 은 계수 블록과 연관된 트리블록에 대한 쿼드트리의 루트 노드에서의 시그널링된 변환에 기초하여 역 변환을 결정할 수도 있다. 하나의 예들에서, 역 변환 모듈 (156) 은 블록 사이즈, 코딩 모드 등과 같은 하나 이상의 코딩 특징들로부터 역 변환을 추론할 수도 있다. 일부 예들에서, 역 변환 모듈 (156) 은 캐스캐이드된 역 변환을 적용할 수도 있다.
CU 가 인터 예측을 사용하여 인코딩된 경우, 모션 보상 모듈 (162) 은 CU 에 대한 예측 데이터를 생성하기 위해 모션 보상을 수행할 수도 있다. 모션 보상 모듈 (162) 은 PU 들에 대해 참조 샘플들을 식별하기 위해 CU 의 PU 들에 대한 모션 정보를 사용할 수도 있다. PU 에 대한 모션 정보는 모션 벡터, 참조 화상 인덱스, 및 예측 방향을 포함할 수도 있다. 모션 보상 모듈 (162) 은 그 후 CU 에 대한 예측 데이터를 생성하기 위해 PU 들에 대한 참조 샘플들을 사용할 수도 있다.
일부 예들에서, 모션 보상 모듈 (162) 은 보간 필터들에 기초하여 보간을 수행함으로써 CU 에 대한 예측 데이터를 정제할 수도 있다. 서브 화소 정밀도를 갖는 모션 보상을 위해 사용될 보간 필터들에 대한 식별자들은 신택스 엘리먼트들 내에 포함될 수도 있다. 모션 보상 모듈 (162) 은 참조 블록의 서브 정수 화소들에 대한 보간된 값들을 계산하기 위해 CU 의 예측 데이터의 생성 동안 비디오 인코더 (20) 에 의해 사용된 동일한 보간 필터들을 사용할 수도 있다. 모션 보상 모듈 (162) 은 수신된 신택스 정보에 따라 비디오 인코더 (20) 에 의해 사용된 보간 필터들을 결정하고 예측 데이터를 생성하기 위해 보간 필터들을 사용할 수도 있다.
CU 가 인트라 예측을 사용하여 인코딩되는 경우, 인트라 예측 모듈 (164) 은 그 CU 에 대한 예측 데이터를 생성하기 위해 인트라 예측을 수행할 수도 있다. 예를 들어, 인트라 예측 모듈 (164) 은 비트스트림 내의 신택스 엘리먼트들에 기초하여 CU 에 대한 인트라 예측 모드를 결정할 수도 있다. 인트라 예측 모듈 (164) 은 그 후 이웃하는 CU 들의 화소 값들에 기초하여 CU 에 대한 예측 데이터 (예를 들어, 예측된 화소 값들) 를 생성하기 위해 인트라 예측 모드를 사용할 수도 있다.
재구성 모듈 (158) 은 CU 에 대한 화소 값들을 재구성하기 위해 CU 의 레지듀얼 데이터 및 CU 에 대한 예측 데이터를 사용할 수도 있다. 일부 예들에서, 비디오 디코더 (30) 는 슬라이스 또는 화상의 재구성된 화소 값들 필터로부터 블록키니스 아티팩트들을 제거하기 위해 디블록킹 필터를 적용할 수도 있다. 디코딩된 화상 버퍼 (160) 는 비디오 데이터의 화상들에 대한 디코딩된 화소 값들을 저장할 수도 있다. 디코딩된 화상 버퍼 (160) 는 후속적인 모션 보상, 인트라 예측, 및 도 3 의 디스플레이 디바이스 (34) 와 같은 디스플레이 디바이스상의 제시를 위해 참조 화상들을 제공할 수도 있다. 실시형태에 따라, 여기에 기술된 방법들 중 임의의 방법의 소정의 액션들 및 이벤트들은 상이한 시퀀스로 수행될 수도 있고, 추가, 병합, 또는 함께 생략될 수도 있다 (예를 들어, 모든 기술된 액션들 또는 이벤트들이 방법의 실시를 위해 필요한 것은 아니다). 게다가, 소정의 실시형태들에서, 액션들 또는 이벤트들은 예를 들어 순차적이라기 보다 멀티 스레디드 프로세싱, 인터럽트 프로세싱, 또는 다수의 프로세서들을 통해 동시적으로 수행될 수도 있다.
병합 모션 벡터 (MV) 후보들
상술된 바와 같이, 여러 실시형태들에서, CU 들의 사이즈들은 8x8 화소들로부터 64x64 화소들 이상의 최대값을 갖는 트리블록의 사이즈까지의 범위에 있을 수도 있다. 도 4 는 코딩 유닛들 (CUs) 로 파티셔닝된 최대 코딩 유닛 (LCU) (400) 의 예를 보여준다. 예를 들어, LCU (400) 는 각각 사이즈 32x32 화소들의 CU 블록들 (4i 및 4h) 로 파티셔닝될 수 있다. 유사하게, 32x32 CU 블록은 4 개의 16x16 CU 블록들로 파티셔닝될 수 있다. 예를 들어, CU 들 (4a, 4b, 4c, 4j, 4k, 4l 및 4m) 은 각각 16x16 CU 에 대응할 수 있다. 유사하게, 16x16 CU 블록은 4 개의 8x8 화소 CU 블록들로 파티셔닝될 수 있다. 예를 들어, CU 들 (4d, 4e, 4f, 및 4g) 은 각각 8x8 CU 에 대응할 수 있다.
도 5a 내지 도 5d 는 상이한 예측 유닛들 (PUs) 으로 파티셔닝된 CU 의 예들을 도시한다. 특히, CU (500) 은 수개의 상이한 PU 들로 파티셔닝될 수 있다. 예를 들어, 도 5a 에 도시된 바와 같이, 2Nx2N CU (500) 는 단일의 2Nx2N PU 로 파티셔닝될 수 있다. 또, 도 5b 에 도시된 바와 같이, 2Nx2N CU (500) 는 또한 2 개의 2NxN PU 들, 좌측 2NxN PU (5a) 및 우측 2NxN PU (5b) 로 파티셔닝될 수 있다. 또, 도 5c 에 도시된 바와 같이, 2Nx2N CU (500) 는 또한 2 개의 Nx2N PU 들, 상측 Nx2N PU (5c) 및 하측 Nx2N PU (5d) 로 파티셔닝될 수 있다. 또, 도 5d 에 도시된 바와 같이, 2Nx2N CU (500) 는 또한 4 개의 NxN PU 들, 좌상측 NxN PU (5e), 우상측 NxN PU (5f), 좌하측 NxN PU (5g), 및 우하측 NxN PU (5h) 로 파티셔닝될 수 있다.
상술된 바와 같이, 소정의 코딩 모드들 동안, 모션 벡터 후보들의 리스트가 생성될 수도 있고, 모션 벡터들 중 하나 이상이 현재의 비디오 블록의 값을 결정하기 위해 사용될 수도 있다. 도 6 에 도시된 바와 같이, 모션 벡터 후보들은 하나 이상의 공간적으로 이웃하는 비디오 블록들 (예를 들어, 좌하측 (BL 640), 좌측 (L 630), 좌상측 (TL 620), 상측 (T 650), 및 우상측 (TR 660)) 뿐아니라 하나의 시간적으로 이웃하는 동일 장소에 배치된 비디오 블록 (예를 들어, 시간적 모션 벡터 예측자, 또는 TMVP (T 670)) 으로부터의 모션 벡터 정보를 포함할 수도 있다. 이들 공간적으로 이웃하는 비디오 블록들 (620, 630, 640, 650, 및 660) 및 TMVP (670) 는 도 6 에 도시된다. 일부 실시형태들에서, 현재의 비디오 블록 (610) (예를 들어, 코딩되고 있는 비디오 블록) 은 선택된 이웃 비디오 블록의 모션 정보 (예를 들어, 모션 벡터들) 를 인계 받거나 다르게는 사용할 수도 있다. 예를 들어, 도 6 에 도시된 바와 같이, (비디오 인코더 (20) 와 같은) 비디오 인코더는 병합 모드에서 코딩된 비디오 블록 (610) 에 대한 모션 벡터 자체를 시그널링하지 않는다. 오히려, 인덱스 값 (예를 들어, 인덱스 값들 0 내지 4) 이 현재의 비디오 블록 (610) 이 그것의 모션 벡터 및 모션 정보를 인계 받는 이웃하는 비디오 블록들 (예를 들어, 좌하측 이웃 (640), 좌측 이웃 (630), 좌상측 이웃 (620), 상측 이웃 (650), 또는 우상측 이웃 (660)) 을 식별하기 위해 사용될 수도 있다.
일부 실시형태들에서, (병합 MV 후보 리스트 또는 MV 후보 리스트로서도 불리는) 병합 후보 리스트는 5 개의 엔트리들 및 병합 후보 리스트에 추가된 최대 4 개의 공간적 모션 벡터 후보들을 가질 수 있다 (다른 실시형태들에서 이지만, 후보 리스트는 5 개보다 많거나 적은 엔트리들을 가지며 병합 후보 리스트에 추가된 4 객보다 많거나 적은 공간적 후보들을 가질 수도 있다). 병합 후보 리스트 내의 5 개의 엔트리들에 대한 인덱스 값들은 0 에서 시작하고 4 에서 끝난다. 병합 후보들은 예를 들어 HEVC 에서 정의된 바와 같은 공간적 후보들, 및 다른 타입들의 후보들을 포함할 수도 있다. 각각의 공간적 MV 는 현재의 비디오 블록 (예를 들어, 블록 (610)) 에 대해 임의의 공간적으로 이웃하는 비디오 블록 (예를 들어, 블록들 (620, 630, 640, 650, 660)) 과 동일하거나 그것으로부터 도출될 수 있다. 일부 실시형태들에서, 일부 병합 후보들이 이용가능하지 않는 경우, (또는 그들이 MV 후보 리스트로부터 프루닝되거나 다르게는 제거되는 경우), 다른 후보들이 선택될 수 있다.
주어진 CU 에 대응하는 MV 후보들의 결정
병렬 모션 추정에서, 모션 추정은 CU 내의 다수의 PU 들에 대해 또는 LCU 내의 다수의 CU 들에 대해 스킵 모드, 병합 모드, 및 규칙적 또는 정규의 인트라-예측 모드에 대해 병렬로 수행될 수 있다. 병렬 모션 추정에 의해, CU 내의 PU 들에 대한 모션 추정은 CU 내지 CU 사이의 모션 추정이 순차적인 동안 병렬로 행해질 수 있다.
도 7a 내지 도 7c 는 PU 들로 파티셔닝되고 일부 PU 들에 대한 MV 후보 위치들을 보여주는 예시의 CU 을 도시한다. 특히, 예로서, 도 7a 내지 도 7c 는 32x32 CU (700) 을 도시한다. CU (700) 에 대해 여기서 기술된 방법들은, 다른 것들 중에서, 64x64 CU, 16x16 CU, 및 8x8 CU 를 포함하는, 다른 사이즈들의 CU 들 내에서 파티셔닝된 PU 들에 대한 MV 후보 위치들을 결정하는데 적용가능하다.
도 7a 에 도시된 바와 같이, 32x32 CU (700) 내에서 파티셔닝될 수 있는 최대 PU 는 사이즈 32x32 를 갖는 PU (7a) 이다. PU (7a) 에 대응하는 MV 후보들이 생성될 수도 있다. 예를 들어, PU (7a) 에 대응하는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (7b), 상측 MV 후보 (7c), 우상측 MV 후보 (7d), 좌측 MV 후보 (7e), 및 시간적 MV 후보 (7f) 를 포함한다. 이러한 예에서, MV 후보들 각각은 좌상측 MV 후보 (7b), 상측 MV 후보 (7c), 우상측 MV 후보 (7d), 및 좌측 MV 후보 (7e) 를 포함하여 4x4 사이즈를 갖는다. 다른 실시형태들에서, MV 후보들은 다양한 사이즈들을 가질 수 있다.
도 7b 에 도시된 바와 같이, CU (700) 는 각각 사이즈 32x16 을 갖는 좌측 PU (7g) 및 우측 PU (7h) 로 파티셔닝될 수 있다. PU (7g) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (7i), 상측 MV 후보 (7j), 우상측 MV 후보 (7k), 좌측 MV 후보 (7n), 및 시간적 MV 후보 (7o) 를 포함한다. PU (7h) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (7j), 상측 MV 후보 (7l), 우상측 MV 후보 (7m), 좌측 MV 후보 (7g), 및 시간적 MV 후보 (7p) 를 포함한다. 단일의 MV 후보는 하나 보다 많은 PU 에 대해 MV 후보로서 작용할 수 있다. 예를 들어, MV 후보 (7j) 는 PU (7g) 에 대해 상측 MV 후보인 반면, MV 후보 (7j) 는 또한 PU (7h) 에 대해 좌상측 MV 후보이다.
도 7c 에 도시된 바와 같이, CU (700) 는 각각 사이즈 16x32 을 갖는 상측 PU (7q) 및 하측 PU (7r) 로 파티셔닝될 수 있다. PU (7q) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (7s), 상측 MV 후보 (7t), 우상측 MV 후보 (7u), 좌측 MV 후보 (7v), 좌하측 MV 후보 (7x), 및 시간적 MV 후보 (7y) 를 포함한다. PU (7r) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (7v), 상측 MV 후보 (7w), 좌측 MV 후보 (7z), 및 시간적 MV 후보 (7ab) 를 포함한다. 이전 처럼, 단일의 MV 후보는 하나 보다 많은 PU 에 대해 MV 후보로서 작용할 수 있다. 예를 들어, MV 후보 (7v) 는 PU (7q) 에 대해 좌측 MV 후보인 반면, MV 후보 (7v) 는 또한 PU (7r) 에 대해 좌상측 MV 후보이다.
이러한 예에서, 32x32 의 사이즈를 갖는 CU (700) 는 4 개의 더 작은 비중첩 16x16 CU 들로 파티셔닝될 수 있다. 예를 들어, CU (700) 는 도 8 내지 도 15 에 도시된 바와 같이, 좌상측 16x16 CU (710), 우상측 16x16 CU (720), 좌하측 16x16 CU (730), 및 우하측 16x16 CU (740) 으로 파티셔닝될 수 있다.
도 8a 내지 도 8c 는 PU 들로 파티셔닝하고 일부 PU 들에 대한 MV 후보 위치들을 보여주는 예시의 CU 를 도시한다. 특히, 예로서, 도 8a 내지 도 8c 는 좌상측 16x16 CU (710) 을 도시한다.
도 8a 에 도시된 바와 같이, 16x16 CU (710) 내에서 파티셔닝될 수 있는 최대 PU 는 사이즈 16x16 을 갖는 PU (8a) 이다. PU (8a) 에 대응하는 MV 후보들이 생성될 수도 있다. 예를 들어, PU (8a) 에 대응하는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (8b), 상측 MV 후보 (8c), 우상측 MV 후보 (8d), 좌측 MV 후보 (8e), 좌하측 MV 후보 (8f), 및 시간적 MV 후보 (8g) 를 포함한다. 이러한 예에서, MV 후보들 각각은 좌상측 MV 후보 (8b), 상측 MV 후보 (8c), 우상측 MV 후보 (8d), 좌측 MV 후보 (8e), 및 좌하측 MV 후보 (8f) 를 포함하여 4x4 사이즈를 갖는다. 다른 실시형태들에서, MV 후보들은 상이한 사이즈들을 가질 수 있다.
도 8b 에 도시된 바와 같이, CU (700) 는 각각 사이즈 16x8 을 갖는 좌측 PU (8h) 및 우측 PU (8i) 로 파티셔닝될 수 있다. PU (8h) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (8j), 상측 MV 후보 (8k), 우상측 MV 후보 (8l), 좌측 MV 후보 (8n), 좌하측 MV 후보 (8p), 및 시간적 MV 후보 (8q) 를 포함한다. 모든 공간적 MV 후보가 대응하는 PU 의 경계에 직접 인접하는 것은 필요하지 않다. 예를 들어, PU (8h) 에 대한 우상측 MV 후보 (8l) 가 PU (8h) 의 경계에 직접 인접하지 않더라도, 후보 (8l) 는 여전히 PU (8h) 에 대해 공간적 MV 후보로서 작용할 수도 있다. PU (8i) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (8k), 상측 MV 후보 (8l), 우상측 MV 후보 (8m), 좌측 MV 후보 (8o), 및 시간적 MV 후보 (8r) 를 포함한다. 단일의 MV 후보는 하나 보다 많은 PU 에 대해 MV 후보로서 작용할 수 있다. 예를 들어, MV 후보 (8k) 는 PU (8h) 에 대해 상측 MV 후보인 반면, MV 후보 (8k) 는 또한 PU (8i) 에 대해 좌상측 MV 후보이다.
도 8c 에 도시된 바와 같이, CU (710) 는 각각 사이즈 8x16 을 갖는 상측 PU (8s) 및 하측 PU (8t) 로 파티셔닝될 수 있다. PU (8s) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (8u), 상측 MV 후보 (8v), 우상측 MV 후보 (8w), 좌측 MV 후보 (8x), 좌하측 MV 후보 (8z), 및 시간적 MV 후보 (8ab) 를 포함한다. PU (8t) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (8x), 상측 MV 후보 (8y), 좌측 MV 후보 (8ac), 좌하측 MV 후보 (8ad), 및 시간적 MV 후보 (8ae) 를 포함한다. 이전 처럼, 단일의 MV 후보는 하나 보다 많은 PU 에 대해 MV 후보로서 작용할 수 있다. 예를 들어, MV 후보 (8x) 는 PU (8s) 에 대해 좌측 MV 후보인 반면, MV 후보 (8x) 는 또한 PU (8t) 에 대해 좌상측 MV 후보이다.
도 9a 내지 도 9c 는 PU 들로 파티셔닝하고 일부 PU 들에 대한 MV 후보 위치들을 보여주는 예시의 CU 를 도시한다. 특히, 예로서, 도 9a 내지 도 9c 는 우상측 16x16 CU (720) 을 도시한다.
도 9a 에 도시된 바와 같이, 16x16 CU (720) 내에서 파티셔닝될 수 있는 최대 PU 는 사이즈 16x16 을 갖는 PU (9a) 이다. PU (9a) 에 대응하는 MV 후보들이 생성될 수도 있다. 예를 들어, PU (9a) 에 대응하는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (9b), 상측 MV 후보 (9d), 우상측 MV 후보 (9e), 좌측 MV 후보 (9f), 및 시간적 MV 후보 (9g) 를 포함한다. 이러한 예에서, MV 후보들 각각은 좌상측 MV 후보 (9b), 상측 MV 후보 (9d), 우상측 MV 후보 (9e), 및 좌측 MV 후보 (9f) 를 포함하여 4x4 사이즈를 갖는다. 다른 실시형태들에서, MV 후보들은 상이한 사이즈들을 가질 수 있다.
도 9b 에 도시된 바와 같이, CU (720) 는 각각 사이즈 16x8 을 갖는 좌측 PU (9h) 및 우측 PU (9i) 로 파티셔닝될 수 있다. PU (9h) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (9j), 상측 MV 후보 (9k), 우상측 MV 후보 (9l), 좌측 MV 후보 (9n), 및 시간적 MV 후보 (9p) 를 포함한다. PU (9i) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (9k), 상측 MV 후보 (9l), 우상측 MV 후보 (9m), 좌측 MV 후보 (9o), 및 시간적 MV 후보 (9q) 를 포함한다. 단일의 MV 후보는 하나 보다 많은 PU 에 대해 MV 후보로서 작용할 수 있다. 예를 들어, MV 후보 (9k) 는 PU (9h) 에 대해 상측 MV 후보인 반면, MV 후보 (9k) 는 또한 PU (9i) 에 대해 좌상측 MV 후보이다.
도 9c 에 도시된 바와 같이, CU (720) 는 각각 사이즈 8x16 을 갖는 상측 PU (9r) 및 하측 PU (9s) 로 파티셔닝될 수 있다. PU (9r) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (9t), 상측 MV 후보 (9u), 우상측 MV 후보 (9v), 좌측 MV 후보 (9w), 좌하측 MV 후보 (9y), 및 시간적 MV 후보 (9z) 를 포함한다. PU (9s) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (9w), 상측 MV 후보 (9x), 좌측 MV 후보 (9ab), 및 시간적 MV 후보 (9ac) 를 포함한다. 이전 처럼, 단일의 MV 후보는 하나 보다 많은 PU 에 대해 MV 후보로서 작용할 수 있다. 예를 들어, MV 후보 (9w) 는 PU (9r) 에 대해 좌측 MV 후보인 반면, MV 후보 (9w) 는 또한 PU (9s) 에 대해 좌상측 MV 후보이다.
도 10a 내지 도 10c 는 PU 들로 파티셔닝하고 일부 PU 들에 대한 MV 후보 위치들을 보여주는 예시의 CU 를 도시한다. 특히, 예로서, 도 10a 내지 도 10c 는 좌하측 16x16 CU (730) 을 도시한다.
도 10a 에 도시된 바와 같이, 16x16 CU (730) 내에서 파티셔닝될 수 있는 최대 PU 는 사이즈 16x16 을 갖는 PU (10a) 이다. PU (10a) 에 대응하는 MV 후보들이 생성될 수도 있다. 예를 들어, PU (10a) 에 대응하는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (10b), 상측 MV 후보 (10c), 우상측 MV 후보 (10d), 좌측 MV 후보 (10e), 및 시간적 MV 후보 (10f) 를 포함한다. 이러한 예에서, MV 후보들 각각은 좌상측 MV 후보 (10b), 상측 MV 후보 (10c), 우상측 MV 후보 (10d), 및 좌측 MV 후보 (10e) 를 포함하여 4x4 사이즈를 갖는다. 다른 실시형태들에서, MV 후보들은 상이한 사이즈들을 가질 수 있다.
도 10b 에 도시된 바와 같이, CU (730) 는 각각 사이즈 16x8 을 갖는 좌측 PU (10g) 및 우측 PU (10h) 로 파티셔닝될 수 있다. PU (10g) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (10i), 상측 MV 후보 (10j), 우상측 MV 후보 (10k), 좌측 MV 후보 (10n), 및 시간적 MV 후보 (10o) 를 포함한다. PU (10h) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (10j), 상측 MV 후보 (10l), 우상측 MV 후보 (10m), 좌측 MV 후보 (10g), 및 시간적 MV 후보 (10p) 를 포함한다. 단일의 MV 후보는 하나 보다 많은 PU 에 대해 MV 후보로서 작용할 수 있다. 예를 들어, MV 후보 (10j) 는 PU (10g) 에 대해 상측 MV 후보인 반면, MV 후보 (10j) 는 또한 PU (10h) 에 대해 좌상측 MV 후보이다.
도 10c 에 도시된 바와 같이, CU (730) 는 각각 사이즈 8x16 을 갖는 상측 PU (10q) 및 하측 PU (10r) 로 파티셔닝될 수 있다. PU (10q) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (10s), 상측 MV 후보 (10t), 우상측 MV 후보 (10u), 좌측 MV 후보 (10v), 좌하측 MV 후보 (10x), 및 시간적 MV 후보 (10y) 를 포함한다. PU (10r) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (10v), 상측 MV 후보 (10w), 좌측 MV 후보 (10z), 및 시간적 MV 후보 (10ab) 를 포함한다. 이전 처럼, 단일의 MV 후보는 하나 보다 많은 PU 에 대해 MV 후보로서 작용할 수 있다. 예를 들어, MV 후보 (10v) 는 PU (10q) 에 대해 좌측 MV 후보인 반면, MV 후보 (10v) 는 또한 PU (10r) 에 대해 좌상측 MV 후보이다.
도 11a 내지 도 11c 는 PU 들로 파티셔닝하고 일부 PU 들에 대한 MV 후보 위치들을 보여주는 예시의 CU 를 도시한다. 특히, 예로서, 도 11a 내지 도 11c 는 우하측 16x16 CU (740) 을 도시한다.
도 11a 에 도시된 바와 같이, 16x16 CU (740) 내에서 파티셔닝될 수 있는 최대 PU 는 사이즈 16x16 을 갖는 PU (11a) 이다. PU (11a) 에 대응하는 MV 후보들이 생성될 수도 있다. 예를 들어, PU (11a) 에 대응하는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (11b), 상측 MV 후보 (11c), 좌측 MV 후보 (11d), 및 시간적 MV 후보 (11e) 를 포함한다. 이러한 예에서, MV 후보들 각각은 좌상측 MV 후보 (11b), 상측 MV 후보 (11c), 및 좌측 MV 후보 (11d) 를 포함하여 4x4 사이즈를 갖는다. 다른 실시형태들에서, MV 후보들은 상이한 사이즈들을 가질 수 있다.
도 11b 에 도시된 바와 같이, CU (740) 는 각각 사이즈 16x8 을 갖는 좌측 PU (11f) 및 우측 PU (11g) 로 파티셔닝될 수 있다. PU (11f) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (11h), 상측 MV 후보 (11i), 우상측 MV 후보 (11j), 좌측 MV 후보 (11l), 및 시간적 MV 후보 (11m) 를 포함한다. PU (11g) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (11i), 상측 MV 후보 (11k), 및 시간적 MV 후보 (11n) 를 포함한다. 단일의 MV 후보는 하나 보다 많은 PU 에 대해 MV 후보로서 작용할 수 있다. 예를 들어, MV 후보 (11i) 는 PU (11f) 에 대해 상측 MV 후보인 반면, MV 후보 (11i) 는 또한 PU (11g) 에 대해 좌상측 MV 후보이다.
도 11c 에 도시된 바와 같이, CU (740) 는 각각 사이즈 8x16 을 갖는 상측 PU (11o) 및 하측 PU (11p) 로 파티셔닝될 수 있다. PU (11o) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (11q), 상측 MV 후보 (11r), 좌측 MV 후보 (11s), 좌하측 MV 후보 (11u), 및 시간적 MV 후보 (11v) 를 포함한다. PU (11p) 에 대응하는 생성될 수도 있는 MV 후보들은 공간적 후보들 좌상측 MV 후보 (11s), 상측 MV 후보 (11t), 좌측 MV 후보 (11w), 및 시간적 MV 후보 (11x) 를 포함한다. 이전 처럼, 단일의 MV 후보는 하나 보다 많은 PU 에 대해 MV 후보로서 작용할 수 있다. 예를 들어, MV 후보 (11s) 는 PU (11o) 에 대해 좌측 MV 후보인 반면, MV 후보 (11s) 는 또한 PU (11p) 에 대해 좌상측 MV 후보이다.
도 12 는 CU (700) 뿐아니라 CU 들 (710, 720, 730, 및 740) 에서 파티셔닝된 임의의 PU 에 대응하는 각 MV 후보를 보여주는 32x32 CU (700) 의 예를 도시한다. 예를 들어, 도 12 는 다음의 PU 들에 대응하는 MV 후보들을 포함한다: 32x32 PU (7a), 32x16 PU (7g), 32x16 PU (7h), 16x32 PU (7q), 16x32 PU (7r), 16x16 PU (8a), 16x8 PU (8h), 16x8 PU (8i), 8x16 PU (8s), 8x16 PU (8t), 16x16 PU (9a), 16x8 PU (9h), 16x8 PU (9i), 8x16 PU (9r), 8x16 PU (9s), 16x16 PU (10a), 16x8 PU (10g), 16x8 PU (10h), 8x16 PU (10q), 8x16 PU (10r), 16x16 PU (11a), 16x8 PU (11f), 16x8 PU (11g), 8x16 PU (11o), 및 8x16 PU (11p). 특히, 도 12 는 CU (700) 의 외부에 위치되는 13 개의 공간적 MV 후보들 (E1-E13), CU (700) 의 내부에 위치되는 24 개의 공간적 MV 후보들 (I1-I24), 및 6 개의 시간적 MV 후보들 (T1-T6) 을 도시한다. 13 개의 외부의 공간적 MV 후보들 (E1-E13), 24 개의 내부의 공간적 MV 후보들 (I1-I24), 및 6 개의 시간적 MV 후보들 (T1-T6) 은 CU (700) 내의 PU 들에 대한 MV 후보들에 대응한다. 다수의 예들에서, MV 후보들은 하나 보다 많은 PU 에 대응한다. 예를 들어, 외부의 공간 MV 후보 (E1) 은 6 개의 PU 들에 대응한다: 32x32 PU (7a) 의 좌상측 MV 후보 (7b), 32x16 PU (7g) 의 좌상측 MV 후보 (7i), 16x32 PU (7q) 의 좌상측 MV 후보 (7s), 16x16 PU (8a) 의 좌상측 MV 후보 (8b), 16x8 PU (8h) 의 좌상측 MV 후보 (8j), 및 8x16 PU (8s) 의 좌상측 MV 후보 (8u).
MER 내의 PU 들에 대응하는 MV 후보들의 선택
도 13 은 구현된 MER 을 갖는 32x32 CU (700) 의 예를 도시한다. 예를 들어, 32x32 CU 블록 (700) 에 대응하는 32x32 MER 영역이 구현될 수 있다. 다른 실시형태들에서, MER 의 사이즈는 LCU 사이즈와 동일하거나 상이할 수 있다. 구현된 MER 에 의해, MER 의 외부의 공간적 MV 후보들 뿐아니라 동일 장소에 배치된 시간적 MV 후보들은 병합 후보 리스트에의 포함을 위해 고려된다. 예를 들어, MER 의 외부에 위치되는 13 개의 공간적 MV 후보들 (E1-E13) 뿐아니라 6 개의 시간적 MV 후보들 (T1-T6) 이 병합 후보 리스트에의 포함을 위해 고려될 것이다. 따라서, 이러한 실시형태에서, 병합 후보 리스트에의 포함을 위해 고려된 병합 모션 벡터 후보들의 총수는 19 이다.
일부 실시형태들에서, 본 개시의 일부 양태들에 따라 구성된, 도 1 및 도 2 의 비디오 인코더 (20) 와 같은 비디오 코딩 디바이스는 복수의 모션 벡터 후보들을 저장하도록 구성된 메모리를 포함한다. 복수의 모션 벡터 후보들은 초기 리스트 사이즈를 갖는 초기 리스트를 포함할 수 있다. 예를 들어, MER 의 외부에 위치되는 13 개의 공간적 MV 후보들 (E1-E13) 뿐아니라 6 개의 시간적 MV 후보들 (T1-T6) 을 포함하는 초기 리스트는 19 의 초기 리스트 사이즈를 가질 수 있다. 19 개의 모션 벡터 후보들 각각은 MER 에서 파티셔닝된 복수의 예측 유닛들 (PUs) 중 적어도 하나에 대응한다. 예를 들어, 19 개의 모션 벡터 후보들 각각은 다음의 PU 들 중 적어도 하나에 대응한다: 32x32 PU (7a), 32x16 PU (7g), 32x16 PU (7h), 16x32 PU (7q), 16x32 PU (7r), 16x16 PU (8a), 16x8 PU (8h), 16x8 PU (8i), 8x16 PU (8s), 8x16 PU (8t), 16x16 PU (9a), 16x8 PU (9h), 16x8 PU (9i), 8x16 PU (9r), 8x16 PU (9s), 16x16 PU (10a), 16x8 PU (10g), 16x8 PU (10h), 8x16 PU (10q), 8x16 PU (10r), 16x16 PU (11a), 16x8 PU (11f), 16x8 PU (11g), 8x16 PU (11o), 및 8x16 PU (11p). 단지 19 개의 모션 벡터 후보들 (E1-E13 및 T1-T6) 만의 선택은 도 12 에 도시된 모든 43 개의 모션 벡터 후보들의 선택에 비해 전체 계산 코스트를 감소시킬 수 있다.
비디오 코딩 디바이스는 또한 메모리와 통신하는 프로세서를 포함할 수 있다. 프로세서는 초기 리스트 사이즈보다 작은 리스트 사이즈를 갖는 병합 후보 리스트에 포함시킬 복수의 모션 벡터 후보들 (E1-E13 및 T1-T6) 중 하나 이상을 선택하도록 구성될 수 있다. 그 리스트 사이즈 및 초기 리스트 사이즈는 임의의 수들일 수 있다. 예를 들어, 초기 리스트 사이즈는 19 일 수 있고, 리스트 사이즈는 1, 4, 5, 6, 8 및 10 을 포함하여 1 과 10 사이의 임의의 수일 수 있다.
선택은 각 모션 벡터 후보의 우선순위 레벨에 기초할 수 있다. 일 실시형태에서, 복수의 모션 벡터 후보들 (E1-E13 및 T1-T6) 각각의 우선순위 레벨은 모션 벡터 후보가 MER 에서 파티셔닝된 복수의 PU 들 중 임의의 것에 대응하는 빈도에 기초할 수 있고, 더 높은 빈도는 더 높은 우선순위 레벨에 대응한다. 예를 들어, 실시형태에 따르면, 외부의 공간 MV 후보 (E1) 는 7 개의 PU 들에 대응하는 E1 들에 기초한 7 의 빈도를 가질 수 있다: 32x32 PU (7a) 의 좌상측 MV 후보 (7b), 32x16 PU (7g) 의 좌상측 MV 후보 (7i), 16x32 PU (7q) 의 좌상측 MV 후보 (7s), 16x16 PU (8a) 의 좌상측 MV 후보 (8b), 16x8 PU (8h) 의 좌상측 MV 후보 (8j), 8x16 PU (8s) 의 좌상측 MV 후보 (8u), 및 PU (8a) 의 좌상측 쿼드런트에서 파티셔닝된 (도시되지 않은) 8x8 PU 의 좌상측 후보. 프로세서는 또한 선택된 모션 벡터 후보들을 포함하도록 병합 후보 리스트를 생성하도록 구성될 수 있다.
도 13 에 도시된 19 개의 MV 후보들은 주어진 MER 내부에서 상이한 CU 및 PU 파니션들에 대해 병합 모드 코스트들을 도출하는데 있어서 그들의 기여의 면에서 반드시 동일하게 중요한 것은 아니다. 예를 들어, 일부 MV 후보들은 상이한 CU 들 또는 PU 들의 후보 로케이션 중첩에 기인하여 다른 것들보다 더 높은 빈도를 가질 수 있다. 주어진 MER 에 대한 MV 후보의 빈도는 일반적으로 정적이다.
실시형태에서, MV 후보들의 빈도에 기초하여, 우선순위 또는 가중 팩터는 각 후보에 할당될 수도 있다. 더 높은 빈도를 갖는 MV 후보들의 경우, 더 높은 우선순위 또는 가중 팩터가 할당될 수도 있다. 우선순위 또는 가중 팩터에 기초하여, 트레이드오프가 병합 후보 리스트에서 지원되는 병합 후보들의 수와 코딩 성능 사이에 획득될 수 있다. 예를 들어, 일부 실시형태들에서, 19 개의 MV 후보들 중 10 개만이 그들의 우선순위들에 기초하여 고려되는 경우, 성능 저하가 모든 19 개의 MV 병합 후보들을 고려하는 것에 비해 0.5% 미만일 수 있다는 것이 발견된다. 유사하게, 19 개의 MV 후보들 중 5 개만이 그들의 우선순위들에 기초하여 고려되는 경우, 모든 19 개의 MV 병합 후보들을 고려하는 것에 비해 2% 미만의 성능 저하가 별견되었다.
도 14 는 MER 내에서 파티셔닝된 임의의 PU 에 대응하는 각각의 시간적 또는 외부의 공간적 MV 후보의 예시의 가중된 빈도를 보여주는 32x32 MER 의 예를 도시한다. 상술된 바와 같이, 복수의 모션 벡터 후보들 (E1-E13 및 T1-T6) 각각의 우선순위 레벨은 모션 벡터 후보가 MER 에서 파티셔닝된 복수의 PU 들 중 임의의 것에 대응하는 빈도에 적어도 부분적으로 기초할 수 있고, 더 높은 빈도는 더 높은 우선순위 레벨에 대응한다. 또, 복수의 모션 벡터 후보들 (E1-E13 및 T1-T6) 각각의 우선순위 레벨은 또한 복수의 PU 들 각각에 대한 가중 팩터에 기초할 수 있다. 예를 들어, 가중 팩터는 모션 벡터 후보가 대응하는 각각의 PU 의 사이즈에 의존할 수 있고, 더 큰 사이즈 PU 는 더 큰 가중 팩터를 수신한다. 이에 따라, MV 후보가 더 큰 PU 에 대해 병합 후보로서 작용하는 경우, 그것은 더 작은 PU 에 대해서만 사용되는 후보보다 더 높은 가중을 수신할 수 있을 것이다.
일부 실시형태들에서, 복수의 PU 들 각각에 대한 가중 팩터는 각각의 PU 의 사이즈에 직접 비례할 수 있다. 예를 들어, 고려된 최소 PU 사이즈가 8x8 이라고 가정하면, PU 는 PU 내의 각각의 8x8 영역에 대해 1 의 가중 팩터를 가질 수 있다. 따라서, 32x32 PU 는 16 개의 8x8 영역들을 포함하고, 16 의 가중 팩터를 가질 것이다. 마찬가지로, 16x32 PU 는 8 의 가중 팩터를 가질 수 있고, 32x16 PU 는 8 의 가중 팩터를 가질 수 있고, 16x16 PU 는 4 의 가중 팩터를 가질 수 있고, 8x16 PU 는 2 의 가중 팩터를 가질 수 있고, 16x8 PU 는 2 의 가중 팩터를 가질 수 있고, 8x8 PU 는 1 의 가중 팩터를 가질 수 있다.
도 14 의 넘버링된 정사각형들은 MV 후보들 (E1-E13 및 T1-T6) 에 대응한다. 따라서, 예를 들어, 41 의 가중된 우선순위 레벨을 갖는 좌상측 MV 후보는 E1 에 대응한다. 이러한 실시형태에서의 41 의 E1 의 가중된 우선순위 레벨은 다음과 같이 계산될 수 있다: 32x32 PU (7a) 의 좌상측 MV 후보 (7b) 는 16 의 가중 팩터를 가지고, 32x16 PU (7g) 의 좌상측 MV 후보 (7i) 는 8 의 가중 팩터를 가지고, 16x32 PU (7q) 의 좌상측 MV 후보 (7s) 는 8 의 가중 팩터를 가지고, 16x16 PU (8a) 의 좌상측 MV 후보 (8b) 는 4 의 가중 팩터를 가지고, 16x8 PU (8h) 의 좌상측 MV 후보 (8j) 는 2 의 가중 팩터를 가지고, 8x16 PU (8s) 의 좌상측 MV 후보 (8u) 는 2 의 가중 팩터를 가지고, PU (8a) 의 좌상측 쿼드런트에서 파티셔닝된 (도시되지 않은) 8x8 PU 의 좌상측 후보는 1 의 가중 팩터를 가지며 - 16 + 8 + 8 + 4 + 2 + 2 + 1 은 41 이다. 각각의 다른 MV 후보의 가중된 우선순위는 유사하게 계산될 수 있다. 예를 들어, 일 실시형태에 따르면, 32x32 MER 에 대응하는 MV 후보들의 가중된 우선순위는 다음과 같다: E1 은 41 의 가중된 우선순위를 갖는다; E2 은 8 의 가중된 우선순위를 갖는다; E3 은 35 의 가중된 우선순위를 갖는다; E4 은 23 의 가중된 우선순위를 갖는다; E5 은 46 의 가중된 우선순위를 갖는다; E6 은 41 의 가중된 우선순위를 갖는다; E7 은 6 의 가중된 우선순위를 갖는다; E8 은 3 의 가중된 우선순위를 갖는다; E9 은 32 의 가중된 우선순위를 갖는다; E10 은 17 의 가중된 우선순위를 갖는다; E11 은 6 의 가중된 우선순위를 갖는다; E12 은 3 의 가중된 우선순위를 갖는다; E13 은 41 의 가중된 우선순위를 갖는다; T1 은 1 의 가중된 우선순위를 갖는다; T2 은 4 의 가중된 우선순위를 갖는다; T3 은 3 의 가중된 우선순위를 갖는다; T4 은 24 의 가중된 우선순위를 갖는다; T5 은 60 의 가중된 우선순위를 갖는다; T6 은 14 의 가중된 우선순위를 갖는다.
각각의 MV 후보의 가중된 우선순위 레벨에 기초하여, 각각의 MV 후보는 우선순위의 순서로 랭킹될 수 있다. 도 15 는 MER 에서 파티셔닝된 임의의 PU 에 대응하는 각각의 시간적 또는 외부의 공간적 MV 후보의 예시의 우선순위 레벨 랭킹을 보여주는 32x32 MER 의 예를 도시한다. 특히, 도 15 는 가중된 우선순위 레벨의 역순으로 각각의 MV 후보에 할당된 인덱스 값을 도시한다. 따라서, T5 가 60 의 최고의 가중된 우선순위를 갖기 때문에, 그것은 최고의 우선순위를 가지며, 인덱스 0 을 갖는다. 예를 들어, 프로세서가 병합 후보 리스트에 단일의 MV 후보만을 포함하도록 구성되는 경우 (예를 들어, 리스트 사이즈는 1 인 경우), 그것은 MV 후보 (T5) 를 포함할 것이다. 가중된 우선순위의 순서에서 T5 에 후속하는 것은 E5, E13, E6, E1, E3, E9, T4, E4, E10, T6, E2, E7, E11, T2, T3, E8, E12, 및 T1 이다. 유사하게, 프로세서가 병합 후보 리스트에 5 개의 MV 후보들을 포함하도록 구성되는 경우 (예를 들어, 리스트 사이즈는 5 인 경우), 그것은 MV 후보들 (T5, E5, E13, E6, 및 E1) 을 포함할 수 있을 것이다.
우선순위 레벨에 기초한 MV 후보들의 선택의 이점은 가중된 빈도 값들을 포함하는 빈도 값들 및 도출된 우선순위 레벨들이 인트라/인터 블록 및 PU 사이즈와 같은 이웃하는 PU 들의 상태와 독립적일 수 있다는 것이다. 따라서, 예를 들어, 우선순위 리스트는 모든 LCU 에 대해 반드시 재생성될 필요는 없다.
다른 실시형태들에서, MV 후보의 우선순위 레벨은 위치 가중 팩터에 의존할 수 있다. 위치 가중 팩터는 대응하는 PU 에 대한 공간적 MV 후보의 상대적인 위치에 의존할 수 있다. 예를 들어, MV 후보에 대한 가중 팩터는 후보가 PU 에 대해 좌측 후보, 우측 후보, 상측 후보 등인지 여부에 의존할 수 있을 것이다. PU 에 대한 상이한 후보들은 PU 에 대한 후보들의 상대적인 로케이션에 기초하여 선택되는 상이한 기회들을 가질 수도 있다. 예를 들어, PU 에 대한 좌측 위치 후보에 대응하는 공간적 MV 후보는 PU 에 대한 좌상측 위치 MV 후보보다 더 높은 위치 가중 팩터를 가질 수 있다.
도 16 은 병합 후보 리스트에의 포함을 위해 비중복적 상태에 기초하여 MV 후보들을 선택하는 프로세스 (800) 의 실시형태를 도시하고, 각각 도 2 또는 도 3 의 병합/MVP 리스트 생성 모듈 (121 또는 161) 에 의해 수행될 수 있는 플로우챠트이다. 프로세스 (800) 는 단독으로 또는 우선순위 레벨, 빈도, 및 가중된 빈도에 기초하여 MV 후보들의 선택을 포함하는, 여기의 다른 곳에서 기술된 임의의 다른 선택 프로세스에 추가하거나 결합하여 적용될 수 있다. 예를 들어, 프로세스 (800) 는 블록 (810) 에서 시작한다. 블록 (820) 에서, 병렬 MER 에서 파티셔닝된 PU 들에 대응하는 MV 후보들DL 식별된다. 32x32 MER 의 경우, 예를 들어, 19 개의 MV 후보들이 식별된다. 프로세스 (800) 는 그 후 블록 (830) 으로 계속되고, 임의의 특정의 MV 후보가 중복적인지 여부를 결정한다. 예를 들어, MV 후보가 후보 PU 내에 포함되는 경우, 프로세서는 MV 후보가 후보 PU 의 상태에 기초하여 중복적이라고 결정하도록 구성될 수 있다. 특히, 예를 들어, 프로세서는 후보 PU 가 인트라 모드에서 코딩되는 경우 MV 후보가 중복적이라고 결정하도록 구성될 수 있다. 또, 프로세서는 MV 후보가 하나 이상의 MV 후보들의 다른 것의 모션 정보와 동일한 모션 정보를 포함하는 경우 MV 후보가 중복적이라고 결정하도록 구성될 수 있다. 또한, 프로세서는 MV 후보가 제로 모션 벡터를 갖는 경우 MV 후보가 중복적이라고 결정하도록 구성될 수 있다. 프로세스 (800) 는 그 후 블록 (840) 으로 계속되고, 병합 후보 리스트로부터 중복적인 것으로 발견된 MV 후보들을 배제시킨다. 블록 (850) 에서, 프로세스 (800) 는 모든 MV 후보들이 식별되었는지 여부를 체크한다. 그렇지 않은 경우, 프로세스 (800) 는 블록 (830) 으로 다시 루핑한다. 그러한 경우에는, 프로세스 (800) 는 블록 (860) 으로 계속되며, 병합 후보 리스트에의 포함을 위해 배제되지 않은 하나 이상의 MV 후보들을 선택한다. 프로세스 (800) 는 블록 (870) 에서 종료한다.
도 17 은 병합 후보 리스트에의 포함을 위해 우선순위 레벨에 기초하여 MV 후보들을 선택하는 프로세스 (900) 의 실시형태를 도시하고, 각각 도 2 또는 도 3 의 병합/MVP 리스트 생성 모듈 (121 또는 161) 에 의해 수행될 수 있는 플로우챠트이다. 프로세스 (900) 는 단독으로 또는 여기의 다른 곳에서 기술된 임의의 다른 선택 프로세스에 추가하거나 결합하여 적용될 수 있다. 예를 들어, 프로세스 (900) 는 블록 (910) 에서 시작한다. 블록 (920) 에서, 병렬 MER 에서 파티셔닝된 PU 들에 대응하는 MV 후보들이 식별된다. 32x32 MER 의 경우, 예를 들어, 19 개의 MV 후보들이 식별된다. 프로세스 (900) 는 블록 (930) 으로 계속되고, MV 후보가 MER 에서 파티셔닝된 PU 들 중 임의의 것에 대응하는 빈도 (f) 를 결정한다. 프로세스 (900) 는 블록 (940) 으로 진행하고, 빈도 (f) 에 부분적으로 기초하여 MV 후보의 우선순위 레벨을 결정한다. 예를 들어, MV 후보의 우선순위 레벨이 빈도 (f) 에만 기초하는 실시형태에서, 외부의 공간 MV 후보 (E1) 는 7 개의 PU 들에 대응하는 E1 들에 기초하여 7 의 빈도 (f) 를 가질 수 있다: 32x32 PU (7a) 의 좌상측 MV 후보 (7b), 32x16 PU (7g) 의 좌상측 MV 후보 (7i), 16x32 PU (7q) 의 좌상측 MV 후보 (7s), 16x16 PU (8a) 의 좌상측 MV 후보 (8b), 16x8 PU (8h) 의 좌상측 MV 후보 (8j), 8x16 PU (8s) 의 좌상측 MV 후보 (8u), 및 PU (8a) 의 좌상측 쿼드런트에서 파티셔닝된 (도시되지 않은) 8x8 PU 의 좌상측 후보. 대안적으로, MV 후보의 우선순위 레벨이 또한 가중 팩터에 의존하는 실시형태에서, MV 후보 (E1) 는 다음과 같이 계산된 41 의 우선순위 레벨을 가질 수 있다: 32x32 PU (7a) 의 좌상측 MV 후보 (7b) 는 16 의 가중 팩터를 가지고, 32x16 PU (7g) 의 좌상측 MV 후보 (7i) 는 8 의 가중 팩터를 가지고, 16x32 PU (7q) 의 좌상측 MV 후보 (7s) 는 8 의 가중 팩터를 가지고, 16x16 PU (8a) 의 좌상측 MV 후보 (8b) 는 4 의 가중 팩터를 가지고, 16x8 PU (8h) 의 좌상측 MV 후보 (8j) 는 2 의 가중 팩터를 가지고, 8x16 PU (8s) 의 좌상측 MV 후보 (8u) 는 2 의 가중 팩터를 가지고, PU (8a) 의 좌상측 쿼드런트에서 파티셔닝된 (도시되지 않은) 8x8 PU 의 좌상측 후보는 1 의 가중 팩터를 가지며 - 16 + 8 + 8 + 4 + 2 + 2 + 1 은 41 이다. 임의의 다른 가중 팩터는 또한 블록 (940) 에서 적용될 수 있다. 프로세스 (900) 는 블록 (960) 으로 진행하고, 모든 MV 후보들이 식별되었는지 여부를 결정한다. 그렇지 않은 경우, 프로세스 (900) 는 블록 (930) 으로 다시 루핑한다. 그러한 경우에는, 프로세스 (900) 는 블록 (970) 으로 계속되며, MV 후보의 우선순위 레벨에 기초하여 병합 후보 리스트에의 포함을 위한 MV 후보들을 선택한다. 프로세스 (900) 는 블록 (980) 에서 종료한다.
상술된 모든 기법들은 또한 병합 후보 리스트에의 포함을 위해 MV 후보들을 선택하는 것에 적용될 수도 있다. 또한, 본 개시의 일부 기법들 및 예들은 32x32 CU 의 예에 대해 기술된다. 여기에 기술된 모든 기법들은 여러 개수의 행들 및 열들의 더 많거나 더 적은 화소들을 포함하는 CU 블록들을 갖는 예들에 적용될 수 있다.
예시에 따라, 여기에 기술된 기법들의 임의의 것의 소정의 액션들 또는 이벤트들은 상이한 시퀀스로 수행될 수 있고, 추가, 병합, 또는 함께 생략될 수도 있다 (예를 들어, 모든 기술된 액션들 또는 이벤트들이 기법들의 실시를 위해 필요한 것은 아니다). 게다가, 소정의 예들에서, 액션들 또는 이벤트들은 순차적이라기 보다, 예를 들어, 멀티-스레디드 프로세싱, 인터럽트 프로세싱, 또는 다수의 프로세서들을 통해 동시에 수행될 수도 있다.
하나 이상의 예들에서, 기술된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 그것들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현된다면, 그 기능들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독가능 매체상에 저장되거나 그것을 통해 송신되고, 하드웨어 기반 프로세싱 유닛에 의해 실행될 수도 있다. 컴퓨터 판독가능 매체들은 데이터 저장 매체들과 같은 유형의 매체에 대응하는 컴퓨터 판독가능 저장 매체들, 또는 예를 들어 통신 프로토콜에 따라 한 장소에서 다른 장소로 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하는 통신 매체들을 포함할 수도 있다. 이러한 방식으로, 컴퓨터 판독가능 매체들은 일반적으로 (1) 비일시적인 유형의 컴퓨터 판독가능 저장 매체들 또는 (2) 신호 또는 반송파와 같은 통신 매체에 대응할 수도 있다. 데이터 저장 매체들은 본 개시에서 기술된 기법들의 구현을 위해 명령들, 코드 및/또는 데이터 구조들을 취출하기 위해 하나 이상의 컴퓨터들 또는 하나 이상의 프로세서들에 의해 액세스될 수 있는 임의의 이용가능한 매체들일 수도 있다. 컴퓨터 프로그램 제품은 컴퓨터 판독가능 매체를 포함할 수도 있다.
비제한적인 예로, 그러한 컴퓨터 판독가능 매체들은 RAM, ROM, EEPROM, CD-ROM 또는 다른 광 디스크 스토리지, 자기 디스크 스토리지 또는 다른 자기 저장 디바이스들, 플래시 메모리 또는 컴퓨터에 의해 액세스될 수 있고, 소망의 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 저장하는데 사용될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한 임의의 연결은 컴퓨터 판독가능 매체로 적절히 지칭된다. 예를 들어, 명령들이 동축 케이블, 광섬유 케이블, 트위스티드 페어, 디지털 가입자 라인 (DSL), 또는 적외선, 라디오, 및 마이크로파와 같은 무선 기술들을 사용하여 웹사이트, 서버, 또는 다른 원격 소스로부터 송신되는 경우, 동축 케이블, 광섬유 케이블, 트위스티드 페어, DSL, 또는 적외선, 라디오, 및 마이크로파와 같은 무선 기술은 매체의 정의에 포함된다. 그러나, 컴퓨터 판독가능 저장 매체들 및 데이터 저장 매체들은 연결들, 반송파들, 신호들, 도는 다른 일시적인 매체들을 포함하지 않고, 대신에 비일시적인 유형의 저장 매체들로 지향된다. 디스크 (disk 및 disc) 는 본원에서 사용되는 바와 같이, 콤팩트 디스크 (compact disc, CD), 레이저 디스크, 광 디스크, 디지털 다용도 디스크 (DVD), 플로피 디스크 (floppy disk) 및 블루레이 디스크를 포함하는데, disk들은 보통 데이터를 자기적으로 재생하지만, disc들은 레이저들로써 광학적으로 데이터를 재생한다. 상기한 것들의 조합들은 또한 컴퓨터 판독가능 매체들의 범위 내에 포함되어야 한다.
명령들은 하나 이상의 프로세서들, 이를테면 하나 이상의 디지털 신호 프로세서들 (DSP들), 범용 마이크로프로세서들, 주문형 집적회로들 (ASIC들), 필드 프로그램가능 로직 어레이들 (FPGA들), 또는 다른 동등한 집적된 또는 개별 로직 회로에 의해 실행될 수도 있다. 따라서, 본원에서 사용되는 바와 같은 "프로세서"라는 용어는 상기의 구조 또는 본원에서 설명된 기법들의 구현에 적합한 임의의 다른 구조 중 임의의 것을 나타낼 수도 있다. 덧붙여서, 일부 양태들에서, 본원에서 설명된 기능성은 인코딩 및 디코딩을 위해 구성되는, 또는 결합형 코덱 (codec) 으로 통합되는 전용 하드웨어 및/또는 소프트웨어 모듈들 내에 제공될 수도 있다. 또한, 본 기법들은 하나 이상의 회로들 또는 로직 엘리먼트들 내에 완전히 구현될 수 있다.
본 개시물의 기법들은 무선 핸드셋, 집적회로 (IC) 또는 IC들의 세트 (예컨대, 칩 셋) 를 포함하는 매우 다양한 디바이스들 또는 장치들로 구현될 수도 있다. 다양한 컴포넌트들, 모듈들, 또는 유닛들은 개시된 기법들을 수행하도록 구성된 디바이스들의 기능적 양태들을 강조하기 위해 본 개시물에서 설명되지만, 상이한 하드웨어 유닛들에 의한 실현을 반드시 요구하지는 않는다. 대신에, 위에서 설명된 바와 같이, 다양한 유닛들은 코덱 하드웨어 유닛에 결합되거나 또는 적합한 소프트웨어 및/또는 펌웨어와 함께, 위에서 설명된 바와 같은 하나 이상의 프로세서들을 포함하는, 상호운용적 하드웨어 유닛들의 컬렉션에 의해 제공될 수도 있다.
다양한 예들이 설명되어 있다. 이들 및 다른 예들은 다음의 청구항들의 범위 내에 있다.

Claims (30)

  1. 비디오 데이터를 코딩하도록 구성된 장치로서,
    복수의 모션 벡터 후보들을 저장하도록 구성된 메모리로서, 상기 복수의 모션 벡터 후보들 각각은 병렬 모션 추정 영역 (motion estimation region: MER) 에서 파티셔닝된 복수의 예측 유닛들 (PUs) 중 적어도 하나에 대응하고, 상기 복수의 모션 벡터 후보들 각각은 이용가능한 모션 데이터를 포함하는, 상기 메모리; 및
    상기 메모리와 통신하는 프로세서를 포함하고,
    상기 프로세서는,
    병합 후보 리스트에 포함시킬 상기 복수의 모션 벡터 후보들의 서브세트를 선택하는 것으로서, 선택은 상기 복수의 모션 벡터 후보들 각각의 우선순위 레벨에 기초하는, 상기 서브세트를 선택하고; 및
    상기 복수의 모션 벡터 후보들의 상기 선택된 서브세트를 포함하도록 상기 병합 후보 리스트를 생성하도록 구성된, 비디오 데이터를 코딩하도록 구성된 장치.
  2. 제 1 항에 있어서,
    상기 복수의 모션 벡터 후보들 각각의 상기 우선순위 레벨은 모션 벡터 후보가 상기 MER 에서 파티셔닝된 상기 복수의 PU 들 중 임의의 것에 대응하는 빈도에 기초하고, 더 높은 빈도는 더 높은 우선순위 레벨에 대응하는, 비디오 데이터를 코딩하도록 구성된 장치.
  3. 제 2 항에 있어서,
    상기 복수의 모션 벡터 후보들 각각의 상기 우선순위 레벨은 또한 상기 복수의 PU 들 각각에 대한 가중 팩터에 기초하며, 상기 가중 팩터는 각 PU 의 사이즈에 의존하고, 더 큰 사이즈는 더 큰 가중 팩터에 대응하는, 비디오 데이터를 코딩하도록 구성된 장치.
  4. 제 3 항에 있어서,
    상기 복수의 PU 들 각각의 상기 가중 팩터는 각 PU 의 사이즈에 직접 비례하는, 비디오 데이터를 코딩하도록 구성된 장치.
  5. 제 2 항에 있어서,
    상기 복수의 모션 벡터 후보들 각각은 공간적 모션 벡터 후보 및 시간적 모션 벡터 후보 중 하나를 포함하고,
    각각의 공간적 모션 벡터 후보의 위치는 상기 MER 의 외부에 로케이팅되는, 비디오 데이터를 코딩하도록 구성된 장치.
  6. 제 5 항에 있어서,
    각각의 공간적 모션 벡터 후보의 상기 우선순위 레벨은 또한 대응하는 PU 에 대한 상기 공간적 모션 벡터 후보의 상대적 위치에 의존하는 위치 가중 팩터에 기초하는, 비디오 데이터를 코딩하도록 구성된 장치.
  7. 제 6 항에 있어서,
    PU 에 대한 좌측 위치 후보에 대응하는 공간 모션 벡터 후보는 PU 에 대한 좌상측 위치 후보보다 더 높은 위치 가중 팩터를 갖는, 비디오 데이터를 코딩하도록 구성된 장치.
  8. 제 1 항에 있어서,
    상기 프로세서는 또한,
    상기 복수의 모션 벡터 후보들 각각에 대해, 상기 모션 벡터 후보가 상기 복수의 모션 벡터 후보들의 다른 것에 대해 중복적인지 여부를 결정하고; 및
    상기 병합 후보 리스트로부터 중복적인 모션 벡터 후보들을 배제시키도록 구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  9. 제 8 항에 있어서,
    상기 프로세서는 또한 상기 모션 벡터 후보가 모션 중복 체킹에 기초하여 중복적인지 여부를 결정하도록 구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  10. 제 8 항에 있어서,
    상기 모션 벡터 후보는 후보 PU 내에 포함되고;
    상기 프로세서는 또한 상기 모션 벡터 후보가 상기 후보 PU 의 상태에 기초하여 중복적이라고 결정하도록 구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  11. 제 8 항에 있어서,
    상기 프로세서는 또한 상기 모션 벡터 후보가 상기 복수의 모션 벡터 후보들의 상기 선택된 서브세트의 다른 것의 모션 정보와 동일한 모션 정보를 갖는 경우, 상기 모션 벡터 후보가 중복적이라고 결정하도록 구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  12. 제 1 항에 있어서,
    상기 장치는 인코더를 포함하는, 비디오 데이터를 코딩하도록 구성된 장치.
  13. 제 1 항에 있어서,
    상기 장치는 디코더를 포함하는, 비디오 데이터를 코딩하도록 구성된 장치.
  14. 제 1 항에 있어서,
    상기 장치는 상기 메모리 및 상기 프로세서를 포함하는 디지털 텔레비젼, 디지털 직접 브로드캐스트 시스템, 무선 브로드캐스트 시스템, 개인 정보 단말기 (PDA), 랩톱 또는 데스크톱 컴퓨터, 디지털 카메라, 디지털 레코딩 디바이스, 디지털 미디어 플레이어, 비디오 게이밍 디바이스, 비디오 게임 콘솔, 셀룰러 또는 위성 무선 전화기, 및 비디오 원격회의 디바이스 중 적어도 하나를 더 포함하는, 비디오 데이터를 코딩하도록 구성된 장치.
  15. 비디오 데이터를 인코딩하는 방법으로서,
    복수의 모션 벡터 후보들과 연관된 정보를 결정하는 단계로서, 상기 복수의 모션 벡터 후보들 각각은 병렬 모션 추정 영역 (motion estimation region: MER) 에서 파티셔닝된 복수의 예측 유닛들 (PUs) 중 적어도 하나에 대응하고, 상기 복수의 모션 벡터 후보들 각각은 이용가능한 모션 데이터를 포함하는, 상기 정보를 결정하는 단계;
    병합 후보 리스트에 포함시킬 상기 복수의 모션 벡터 후보들의 서브세트를 선택하는 단계로서, 선택은 상기 복수의 모션 벡터 후보들 각각의 우선순위 레벨에 기초하는, 상기 서브세트를 선택하는 단계; 및
    상기 복수의 모션 벡터 후보들의 상기 선택된 서브세트를 포함하도록 상기 병합 후보 리스트를 생성하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  16. 제 15 항에 있어서,
    상기 복수의 모션 벡터 후보들 각각의 상기 우선순위 레벨은 모션 벡터 후보가 상기 MER 에서 파티셔닝된 상기 복수의 PU 들 중 임의의 것에 대응하는 빈도에 기초하고, 더 높은 빈도는 더 높은 우선순위 레벨에 대응하는, 비디오 데이터를 인코딩하는 방법.
  17. 제 16 항에 있어서,
    상기 복수의 모션 벡터 후보들 각각의 상기 우선순위 레벨은 또한 상기 복수의 PU 들 각각에 대한 가중 팩터에 기초하며, 상기 가중 팩터는 각 PU 의 사이즈에 의존하고, 더 큰 사이즈는 더 큰 가중 팩터에 대응하는, 비디오 데이터를 인코딩하는 방법.
  18. 제 17 항에 있어서,
    상기 복수의 PU 들 각각의 상기 가중 팩터는 각 PU 의 사이즈에 직접 비례하는, 비디오 데이터를 인코딩하는 방법.
  19. 제 16 항에 있어서,
    상기 복수의 모션 벡터 후보들 각각은 공간적 모션 벡터 후보 및 시간적 모션 벡터 후보 중 하나를 포함하고,
    각각의 공간적 모션 벡터 후보의 위치는 상기 MER 의 외부에 로케이팅되는, 비디오 데이터를 인코딩하는 방법.
  20. 제 19 항에 있어서,
    각각의 공간적 모션 벡터 후보의 상기 우선순위 레벨은 또한 대응하는 PU 에 대한 상기 공간적 모션 벡터 후보의 상대적 위치에 의존하는 위치 가중 팩터에 기초하는, 비디오 데이터를 인코딩하는 방법.
  21. 제 20 항에 있어서,
    PU 에 대한 좌측 위치 후보에 대응하는 공간 모션 벡터 후보는 PU 에 대한 좌상측 위치 후보보다 더 높은 위치 가중 팩터를 갖는, 비디오 데이터를 인코딩하는 방법.
  22. 제 15 항에 있어서,
    상기 복수의 모션 벡터 후보들 각각에 대해, 상기 모션 벡터 후보가 상기 복수의 모션 벡터 후보들의 다른 것에 대해 중복적인지 여부를 결정하는 단계; 및
    상기 병합 후보 리스트로부터 중복적인 모션 벡터 후보들을 배제시키는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
  23. 제 22 항에 있어서,
    상기 모션 벡터 후보가 중복적인지 여부를 결정하는 단계는 모션 중복 체킹에 기초하는, 비디오 데이터를 인코딩하는 방법.
  24. 제 22 항에 있어서,
    상기 모션 벡터 후보는 후보 PU 내에 포함되고;
    상기 모션 벡터 후보가 중복적인지 여부를 결정하는 단계는 상기 후보 PU 의 상태에 기초하는, 비디오 데이터를 인코딩하는 방법.
  25. 제 24 항에 있어서,
    상기 모션 벡터 후보는 상기 후보 PU 가 인트라 모드에서 코딩되는 경우 중복적인 것으로 결정되는, 비디오 데이터를 인코딩하는 방법.
  26. 제 22 항에 있어서,
    상기 모션 벡터 후보가 상기 복수의 모션 벡터 후보들의 상기 선택된 서브세트의 다른 것의 모션 정보와 동일한 모션 정보를 갖는 경우, 상기 모션 벡터 후보가 중복적이라고 결정되는, 비디오 데이터를 인코딩하는 방법.
  27. 비디오 코딩 장치로서,
    복수의 모션 벡터 후보들과 연관된 정보를 결정하는 수단으로서, 상기 복수의 모션 벡터 후보들 각각은 병렬 모션 추정 영역 (motion estimation region: MER) 에서 파티셔닝된 복수의 예측 유닛들 (PUs) 중 적어도 하나에 대응하고, 상기 복수의 모션 벡터 후보들 각각은 이용가능한 모션 데이터를 포함하는, 상기 정보를 결정하는 수단;
    병합 후보 리스트에 포함시킬 상기 복수의 모션 벡터 후보들의 서브세트를 선택하는 수단으로서, 선택은 상기 복수의 모션 벡터 후보들 각각의 우선순위 레벨에 기초하는, 상기 서브세트를 선택하는 수단; 및
    상기 복수의 모션 벡터 후보들의 상기 선택된 서브세트를 포함하도록 상기 병합 후보 리스트를 생성하는 수단을 포함하는, 비디오 코딩 장치.
  28. 제 27 항에 있어서,
    상기 복수의 모션 벡터 후보들 각각의 상기 우선순위 레벨은 모션 벡터 후보가 상기 MER 에서 파티셔닝된 상기 복수의 PU 들 중 임의의 것에 대응하는 빈도에 기초하고, 더 높은 빈도는 더 높은 우선순위 레벨에 대응하는, 비디오 코딩 장치.
  29. 코드를 저장한 비일시적 컴퓨터 판독가능 매체로서,
    상기 코드는, 실행될 때, 장치로 하여금:
    복수의 모션 벡터 후보들과 연관된 정보를 수신하게 하는 것으로서, 상기 복수의 모션 벡터 후보들 각각은 병렬 모션 추정 영역 (motion estimation region: MER) 에서 파티셔닝된 복수의 예측 유닛들 (PUs) 중 적어도 하나에 대응하고, 상기 복수의 모션 벡터 후보들 각각은 이용가능한 모션 데이터를 포함하는, 상기 정보를 수신하게 하고;
    병합 후보 리스트에 포함시킬 상기 복수의 모션 벡터 후보들의 서브세트를 선택하게 하는 것으로서, 선택은 상기 복수의 모션 벡터 후보들 각각의 우선순위 레벨에 기초하는, 상기 서브세트를 선택하게 하며; 및
    상기 복수의 모션 벡터 후보들의 상기 선택된 서브세트를 포함하도록 상기 병합 후보 리스트를 생성하게 하는, 비일시적 컴퓨터 판독가능 매체.
  30. 제 29 항에 있어서,
    상기 복수의 모션 벡터 후보들 각각의 상기 우선순위 레벨은 모션 벡터 후보가 상기 MER 에서 파티셔닝된 상기 복수의 PU 들 중 임의의 것에 대응하는 빈도에 기초하고, 더 높은 빈도는 더 높은 우선순위 레벨에 대응하는, 비일시적 컴퓨터 판독가능 매체.
KR1020167018062A 2013-12-06 2014-11-14 병렬 모션 추정 영역들에 대한 스케일러블 구현 KR20160095098A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/099,800 2013-12-06
US14/099,800 US9432685B2 (en) 2013-12-06 2013-12-06 Scalable implementation for parallel motion estimation regions
PCT/US2014/065757 WO2015084567A1 (en) 2013-12-06 2014-11-14 Scalable implementation for parallel motion estimation regions

Publications (1)

Publication Number Publication Date
KR20160095098A true KR20160095098A (ko) 2016-08-10

Family

ID=52469891

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167018062A KR20160095098A (ko) 2013-12-06 2014-11-14 병렬 모션 추정 영역들에 대한 스케일러블 구현

Country Status (7)

Country Link
US (1) US9432685B2 (ko)
EP (1) EP3078197A1 (ko)
JP (1) JP6426184B2 (ko)
KR (1) KR20160095098A (ko)
CN (1) CN105814895A (ko)
BR (1) BR112016012826A2 (ko)
WO (1) WO2015084567A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019164031A1 (ko) * 2018-02-22 2019-08-29 엘지전자 주식회사 영상 코딩 시스템에서 블록 분할 구조에 따른 영상 디코딩 방법 및 장치

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107197272B (zh) 2011-08-29 2019-12-06 苗太平洋控股有限公司 以合并模式对图像编码的方法
KR102278501B1 (ko) 2011-10-18 2021-07-16 엘지전자 주식회사 인트라 예측 방법 및 그 장치
EP3085085A4 (en) * 2014-01-29 2017-11-08 MediaTek Inc. Method and apparatus for adaptive motion vector precision
US9854261B2 (en) * 2015-01-06 2017-12-26 Microsoft Technology Licensing, Llc. Detecting markers in an encoded video signal
CN108293131B (zh) 2015-11-20 2021-08-31 联发科技股份有限公司 基于优先级运动矢量预测子推导的方法及装置
CN105763600B (zh) * 2016-01-29 2019-06-18 华南理工大学 一种Cache支持的粒通信***及其粒通信方法
US10560718B2 (en) * 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
US10721489B2 (en) * 2016-09-06 2020-07-21 Qualcomm Incorporated Geometry-based priority for the construction of candidate lists
CN107820038A (zh) * 2017-06-06 2018-03-20 深圳市维海德技术股份有限公司 视频传输方法、视频接收设备及图像采集设备
WO2020009960A1 (en) * 2018-07-02 2020-01-09 Futurewei Technologies, Inc. Method and apparatus for motion vector prediction
US10511852B1 (en) * 2018-07-13 2019-12-17 Tencent America LLC Method and apparatus for video coding
US10735763B2 (en) * 2018-07-27 2020-08-04 Tencent America LLC Method and apparatus for motion vector prediction using spatial and temporal combination
WO2020044253A1 (en) 2018-08-28 2020-03-05 Beijing Bytedance Network Technology Co., Ltd. Redundancy removal of partitioning methods
CN114205593B (zh) * 2018-09-14 2022-07-08 北京达佳互联信息技术有限公司 用于视频编码的方法和装置及用于视频解码的方法和装置
MX2021003247A (es) * 2018-09-22 2021-05-12 Lg Electronics Inc Metodo y aparato para procesar se?ales de video usando inter prediccion.
CN110944184B (zh) * 2018-09-25 2022-05-31 华为技术有限公司 视频解码方法及视频解码器
CN111010571B (zh) 2018-10-08 2023-05-16 北京字节跳动网络技术有限公司 组合仿射Merge候选的生成和使用
CN110832869B (zh) * 2019-01-02 2023-04-14 深圳市大疆创新科技有限公司 用于视频编码或解码的运动信息获取方法与装置
WO2020192726A1 (en) 2019-03-27 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. History-based motion vector prediction
KR20220016839A (ko) 2019-06-04 2022-02-10 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 기하학적 분할 모드 코딩을 갖는 모션 후보 리스트
EP3963890A4 (en) 2019-06-04 2022-11-02 Beijing Bytedance Network Technology Co., Ltd. BUILDING A LIST OF MOVEMENT CANDIDATES USING NEIGHBOR BLOCK INFORMATION
EP3967040A4 (en) 2019-06-06 2022-11-30 Beijing Bytedance Network Technology Co., Ltd. CONSTRUCTION OF MOTION CANDIDATE LISTS FOR VIDEO ENCODING
EP3984215A4 (en) 2019-07-14 2022-08-24 Beijing Bytedance Network Technology Co., Ltd. TRANSFORM BLOCK SIZE RESTRICTION IN VIDEO CODING
WO2021057996A1 (en) 2019-09-28 2021-04-01 Beijing Bytedance Network Technology Co., Ltd. Geometric partitioning mode in video coding

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112012019560B1 (pt) 2010-02-05 2021-08-24 Telefonaktiebolaget Lm Ericsson Método para gerenciar candidatos a vetor de movimento predito, e, aparelhos de codificação e de decodificação de vídeo
KR101752418B1 (ko) * 2010-04-09 2017-06-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US9124898B2 (en) * 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
US8824558B2 (en) * 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US8711940B2 (en) * 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
KR102390352B1 (ko) * 2011-01-07 2022-04-25 엘지전자 주식회사 영상 정보 부호화 방법 및 복호화 방법과 이를 이용한 장치
US9143795B2 (en) * 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
US9866859B2 (en) 2011-06-14 2018-01-09 Texas Instruments Incorporated Inter-prediction candidate index coding independent of inter-prediction candidate list construction in video coding
KR20140004209A (ko) 2011-06-15 2014-01-10 미디어텍 인크. 3d 비디오 코딩에서의 텍스처 이미지 압축 방법 및 장치
CN103621090B (zh) 2011-06-24 2017-09-15 寰发股份有限公司 移除运动向量预测子中冗余的方法与装置
CN107105267B (zh) * 2011-09-23 2020-09-04 株式会社Kt 解码视频信号的方法
AU2012325419B2 (en) 2011-10-19 2015-11-05 Hfi Innovation Inc. Method and apparatus for derivation of motion vector predictor candidate set
US9143802B2 (en) * 2011-10-31 2015-09-22 Qualcomm Incorporated Fragmented parameter set for video coding
EP2942961A1 (en) * 2011-11-23 2015-11-11 HUMAX Holdings Co., Ltd. Methods for encoding/decoding of video using common merging candidate set of asymmetric partitions
JP2013121167A (ja) * 2011-12-09 2013-06-17 Jvc Kenwood Corp 画像符号化装置、画像符号化方法及び画像符号化プログラム
US9729873B2 (en) * 2012-01-24 2017-08-08 Qualcomm Incorporated Video coding using parallel motion estimation
US9338451B2 (en) * 2012-04-12 2016-05-10 Qualcomm Incorporated Common spatial candidate blocks for parallel motion estimation
US9800869B2 (en) * 2012-06-15 2017-10-24 Google Technology Holdings LLC Method and apparatus for efficient slice header processing

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019164031A1 (ko) * 2018-02-22 2019-08-29 엘지전자 주식회사 영상 코딩 시스템에서 블록 분할 구조에 따른 영상 디코딩 방법 및 장치
US11233996B2 (en) 2018-02-22 2022-01-25 Lg Electronics Inc. Image decoding method and apparatus according to block division structure in image coding system
US11627319B2 (en) 2018-02-22 2023-04-11 Lg Electronics Inc. Image decoding method and apparatus according to block division structure in image coding system

Also Published As

Publication number Publication date
EP3078197A1 (en) 2016-10-12
JP2017504243A (ja) 2017-02-02
CN105814895A (zh) 2016-07-27
US20150163506A1 (en) 2015-06-11
BR112016012826A2 (pt) 2017-08-08
JP6426184B2 (ja) 2018-11-21
US9432685B2 (en) 2016-08-30
WO2015084567A1 (en) 2015-06-11

Similar Documents

Publication Publication Date Title
JP6426184B2 (ja) 並列動き推定領域のためのスケーラブル実装形態
KR102295418B1 (ko) 인트라 블록 카피 병합 모드 및 이용가능하지 않는 ibc 참조 영역의 패딩
EP2756674B1 (en) Motion vector determination for video coding
KR102447297B1 (ko) 통합된 인트라 블록 복사 및 인터 예측
EP3849182B1 (en) Restriction of prediction units in b slices to uni-directional inter prediction
KR101626690B1 (ko) 부가적인 병합 후보들의 생성
US9426463B2 (en) Restriction of prediction units in B slices to uni-directional inter prediction
JP2021507639A (ja) ピクチャブロックの動き情報を予測するための方法および装置、エンコーダ、ならびにデコーダ
US9491458B2 (en) Scalable video coding prediction with non-causal information
US20130188715A1 (en) Device and methods for merge list reordering in video coding
KR20150105372A (ko) 향상 계층에서의 모션 예측을 위한 적응된 모션 벡터 후보 리스트들을 발생시키는 스케일러블 hevc 디바이스 및 방법
WO2013155266A1 (en) Inter-layer mode derivation for prediction in scalable video coding
KR20140131525A (ko) 병렬 모션 추정 범위 사이즈의 묵시적 도출
KR20210047948A (ko) 모션 벡터 취득 방법, 디바이스, 컴퓨터 장비 및 저장 매체

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid