KR20200051831A - 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법 - Google Patents

비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법 Download PDF

Info

Publication number
KR20200051831A
KR20200051831A KR1020207012648A KR20207012648A KR20200051831A KR 20200051831 A KR20200051831 A KR 20200051831A KR 1020207012648 A KR1020207012648 A KR 1020207012648A KR 20207012648 A KR20207012648 A KR 20207012648A KR 20200051831 A KR20200051831 A KR 20200051831A
Authority
KR
South Korea
Prior art keywords
component
prediction
cross
residual
parameter
Prior art date
Application number
KR1020207012648A
Other languages
English (en)
Inventor
한 후앙
카이 장
시앙구오 장
Original Assignee
미디어텍 싱가폴 피티이. 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/CN2014/089716 external-priority patent/WO2016065538A1/en
Priority claimed from PCT/CN2015/071440 external-priority patent/WO2016115733A1/en
Application filed by 미디어텍 싱가폴 피티이. 엘티디. filed Critical 미디어텍 싱가폴 피티이. 엘티디.
Publication of KR20200051831A publication Critical patent/KR20200051831A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

2개 이상의 컴포넌트를 포함하는 비디오 데이터에 대한 크로스-컴포넌트 잔차 예측 방법이 개시된다. 현재 블록의 제1 컴포넌트 및 제2 컴포넌트에 대한 제1 예측 데이터 및 제2 예측 데이터를 각각 수신한다. 크로스-컴포넌트 함수의 하나 이상의 파라미터는 제1 예측 데이터 및 제2 예측 데이터에 기초하여 유도된다. 크로스-컴포넌트 함수는 제1 컴포넌트를 크로스-컴포넌트 함수의 입력으로 하고 제2 컴포넌트를 크로스-컴포넌트 함수의 출력으로 하여 제1 컴포넌트 및 제2 컴포넌트에 관련된다. 제1 컴포넌트의 제1 재구성된 잔차를 크로스-컴포넌트 함수의 입력으로 하여 크로스-컴포넌트 함수를 사용하여 제2 컴포넌트의 제2 잔차에 대한 잔차 예측자를 유도한다. 제2 컴포넌트의 제2 잔차들과 잔차 예측자 간의 예측된 차이를 인코딩 또는 디코딩한다.

Description

비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법 {METHOD OF GUIDED CROSS-COMPONENT PREDICTION FOR VIDEO CODING}
본 발명은 2014년 10월 28일자 출원된 PCT 특허 출원 일련 번호 PCT/CN2014/089716호 및 2015년 1월 23일자 출원된 PCT 특허 출원 일련 번호 PCT/CN2015/071440호에 대한 우선권을 주장한다. 상기 PCT 특허 출원들은 본원에 참고로 그 전체가 병합된다.
본 발명은 비디오 코딩에 관한 것이다. 특히, 본 발명은 코딩 효율을 향상시키기 위해 크로스-컴포넌트 잔차 예측과 관련된 코딩 기술에 관한 것이다.
모션 보상 인터-프레임 코딩은 MPEG-1/2/4 및 H.261/H.263/H.264/AVC와 같은 다양한 코딩 표준에서 널리 채택되고 있다. 모션-보상 인터-프레임 코딩은 압축된 비디오를 위해 비트레이트를 효과적으로 줄일 수 있지만, 높은 모션 또는 장면 변경이 있는 영역을 압축하기 위해 인트라 코딩이 필요하다. 또한, 인트라 코딩은 초기 화상을 프로세싱하거나, 또는 랜덤 액세스 또는 에러 전파의 완화를 위해 주기적으로 I- 화상 또는 I- 블록을 삽입하는데 사용된다. 인트라 예측은 화상 내 또는 화상 영역 내의 공간 상관 관계를 활용한다. 실제로, 화상 또는 화상 영역을 블록으로 분할하여, 블록 단위로 인트라 예측을 행한다. 현재 블록에 대한 인트라 예측은 프로세싱된 이웃 블록의 픽셀에 의존할 수 있다. 예를 들어, 화상 또는 화상 영역 내의 블록들이 먼저 좌측으로부터 우측으로 그리고 나서 상단에서 바닥으로 행별로 프로세싱되면, 현재 블록의 상단의 이웃하는 블록 및 좌측의 이웃하는 블록은 현재 블록의 픽셀에 대한 인트라 예측을 형성하는데 사용될 수 있다. 프로세싱된 이웃하는 블록 내의 임의의 픽셀은 현재 블록의 픽셀의 인트라 예측자(predictor)로 사용될 수 있지만, 매우 자주 상단 및 좌측의 현재 블록 경계에 인접한 이웃하는 블록들의 픽셀만이 사용된다.
인트라 예측자는 일반적으로 스무스한 영역(smooth area)(DC 모드), 수직 라인 또는 에지, 수평 라인 또는 에지 및 대각선 라인 또는 에지와 같은 화상의 공간적 특징을 활용하도록 설계된다. 또한, 휘도(루마)와 색차(크로마) 컴포넌트 간에 크로스-컴포넌트 상관 관계가 종종 존재한다. 따라서, 크로스-컴포넌트 예측은 식 (1)에 도시된 바와 같이, 루마 샘플들의 선형 조합에 의해 크로마 샘플들을 추정한다,
PC=α·PL+β. (1)
여기서 PC 및 PL은 각각 크로마 샘플 및 루마 샘플을 나타내고, α 및 β는 2개의 파라미터이다.
고효율 비디오 코딩(HEVC)의 개발 중에, 동일 위치에 있는 재구성된 루마 블록에 기초한 크로마 인트라 예측 방법이 개시되었다(Chen 등, "재구성된 루마 샘플에 의한 크로마 인트라 예측", ITU-T SG16 WP3 및 ISO/IEC JTC1/SC29/WG1 비디오 코딩 공동 협력팀(JCT-VC) 3차 회의: 광저우, CN, 2010년 10월 7일-15일, 문서: JCTVC-C206). 크로마 인트라 예측의 타입은 LM 예측으로 지칭된다. 주요 개념은 재구성된 루마 픽셀을 사용하여 해당 크로마 픽셀의 예측자를 생성하는 것이다. 도 1a 및 도 1b는 예측 절차를 설명한다. 먼저, 도 1a의 동일 위치에 있는 루마 블록의 이웃하는 재구성된 픽셀 및 도 1b의 크로마 블록의 이웃하는 재구성된 픽셀은 블록들 간의 상관 파라미터를 유도하는데 사용된다. 그런 다음, 식 (2)에 나타난 바와 같이, 크로마 블록의 예측된 픽셀들(즉, PredC[x, y])은 루마 블록의 파라미터들 및 재구성된 픽셀들(즉, RecL[x, y])을 사용하여 생성된다,
PredC[x, y] =α·RecL[x, y] + β. (2)
파라미터 유도에서, 현재의 루마 블록의 제1 위의 재구성된 픽셀 행 및 제2 좌측의 재구성된 픽셀 열이 사용된다. 루마 블록의 특정 행과 열은 크로마 컴포넌트의 4:2:0 샘플링 포맷을 매칭시키기 위해 사용된다.
고효율 비디오 코딩(HEVC) 표준 개발과 함께, HEVC의 확장 개발이 시작되었다. HEVC 확장에는 4:2:2 및 4:4:4와 같이 비-4:2:0 컬러 포맷을 대상으로 하는 범위 확장(RExt)과, 샘플당 12, 14 및 16 비트와 같은 더 높은 비트-심도 비디오가 포함된다. RExt를 위해 개발된 코딩 도구는 특히 높은 비트-심도의 여러 컬러 컴포넌트의 코딩 효율을 향상시키는 인터-컴포넌트 예측이다. 인터-컴포넌트 예측은 여러 컬러 컴포넌트 간의 중복성(redundancy)을 활용하여 그에 따라 코딩 효율을 향상시킬 수 있다. RExt를 위해 개발되고 있는 인터-컴포넌트 예측의 한 형태는 JCTVC-N0266에서 Pu 등에 의해 개시된 인터-컴포넌트 잔차 예측(IRP)이다("비-RCE1: 인터 컬러 컴포넌트 잔차 예측", ITU-T SG 16 WP 3 및 ISO/IEC JTC 1/SC 29/WG 11의 비디오 코딩 공동 협력팀(JCT-VC), 14차 회의: 비엔나, AT, 2013년 7월 25일-8월 2일 문서: JCTVC-N0266).
인터-컴포넌트 잔차 예측에서, 크로마 잔차는 인코더 측에서 다음과 같이 예측된다.
rC'(x, y) = rC(x, y) - (α×rL(x, y)). (3)
식 (3)에서, rC(x, y)는 위치(x, y)에서의 최종 크로마 재구성된 잔차 샘플을 나타내고, rC'(x, y)는 위치(x, y)에서의 비트-스트림으로부터의 재구성된 크로마 잔차 샘플을 나타내고, rL(x, y)는 위치(x, y)에서 루마 컴포넌트의 재구성된 잔차 샘플을 나타내고, α는 스케일링 파라미터(알파 파라미터 또는 스케일링 인자라고도 함)이다. 스케일링 파라미터(α)는 인코더 측에서 계산되어 시그널링된다. 디코더 측에서, 파라미터는 비트 스트림으로부터 복구되고, 최종 크로마 재구성된 잔차 샘플은 식 (4)에 따라 유도된다:
rC(x, y) =rC'(x, y) + (α×rL(x, y)). (4)
YUV 포맷이 인터-컴포넌트 잔차 예측 유도를 설명하는 예로서 사용되었지만, 임의의 다른 컬러 포맷도 사용될 수 있다. 예를 들어, RGB 포맷을 사용할 수 있다. R 컴포넌트가 먼저 인코딩되면, R 컴포넌트는 상기 예에서 루마 컴포넌트와 동일한 방식으로 처리된다. 유사하게, G 컴포넌트가 먼저 인코딩되면, G 컴포넌트는 루마 컴포넌트와 동일한 방식으로 처리된다.
현재 HEVC-RExt에서의 IRP에 대한 예시적인 디코딩 프로세스가 도 2에 현재 유닛(CU)의 변환 유닛(TU들)에 대해 도시된다. 현재 CU의 모든 TU들의 디코딩된 계수는 여러 컴포넌트에 대해 제공된다. 제1 컴포넌트(예를 들어, Y 컴포넌트)에 대해, 디코딩된 변환 계수는 역변환되어(블록(210)), 제1 컬러 컴포넌트의 인트라/인터 코딩된 잔차를 복구한다. 그 다음, 인터/인트라 코딩된 제1 컬러 컴포넌트는 제1 컴포넌트 인터/인트라 보상(220)에 의해 프로세싱되어 최종 재구성된 제1 컴포넌트를 생성한다. 제1 컴포넌트 인터/인트라 보상(220)을 위해 필요한 인터/인트라 참조 샘플은 버퍼 또는 메모리로부터 제공된다. 도 2에서, 이는 인터/인트라 보상이 재구성된 잔차로부터 제1 컴포넌트를 재구성하는데 사용되도록 제1 컬러 컴포넌트가 인터/인트라 코딩된다는 것을 의미한다. 제2 컬러 컴포넌트에 대해, 디코딩된 변환 계수는 인터-컴포넌트 코딩된 제2 컴포넌트를 복구하기 위해 제2 컴포넌트 디코딩 프로세스(블록(212))를 사용하여 디코딩된다. 제2 컴포넌트는 제1 컴포넌트 잔차에 기초하여 예측된 인터-컴포넌트 잔차이므로, 제2 컴포넌트에 대한 인터-컴포넌트 예측(블록(222))은 블록(210) 및 블록(212)으로부터의 출력에 기초하여 제2 컴포넌트 잔차를 재구성하는데 사용된다. 전술한 바와 같이, 인터-컴포넌트 잔차 예측은 스케일링 파라미터를 코딩할 필요가 있다. 따라서, 제1 컬러 컴포넌트와 제2 컬러 컴포넌트 사이의 디코딩된 알파 파라미터가 블록(222)에 제공된다. 블록(222)으로부터의 출력은 제2 컴포넌트의 인터/인트라 예측 잔차에 대응한다. 따라서, 제2 컴포넌트 인터/인트라 보상(블록(232))은 최종 제2 컴포넌트를 재구성하는데 사용된다. 제3 컴포넌트에 대해, 유사한 프로세싱이 최종 제3 컴포넌트를 재구성하기 위해 사용될 수 있다(즉, 블록(214, 224 및 234)). 디코딩 프로세스에 따르면, 인코딩 프로세스를 용이하게 유도할 수 있다.
인터-컴포넌트 잔차 예측과 관련된 코딩 효율을 더 향상시키는 기술을 개발하는 것이 바람직하다.
2개 이상의 컴포넌트를 포함하는 비디오 데이터에 대한 크로스-컴포넌트 잔차 예측 방법이 개시된다. 본 발명에 따르면, 현재 블록의 제1 컴포넌트 및 제2 컴포넌트에 대한 제1 예측 데이터 및 제2 예측 데이터를 각각 수신한다. 크로스-컴포넌트 함수의 하나 이상의 파라미터는 제1 예측 데이터 및 제2 예측 데이터에 기초하여 유도된다. 크로스-컴포넌트 함수는 제1 컴포넌트를 크로스-컴포넌트 함수의 입력으로 하고 제2 컴포넌트를 크로스-컴포넌트 함수의 출력으로 하여 제1 컴포넌트 및 제2 컴포넌트에 관련된다. 제1 컴포넌트의 제1 재구성된 잔차를 크로스-컴포넌트 함수의 입력으로 하여 크로스-컴포넌트 함수를 사용하여 제2 컴포넌트의 제2 잔차에 대한 잔차 예측자를 유도하고, 제2 컴포넌트의 제2 잔차는 원래의 제2 컴포넌트와 제2 예측 데이터 간의 제2 차이에 대응한다. 제2 컴포넌트의 제2 잔차들과 잔차 예측자 간의 예측된 차이를 인코딩 또는 디코딩한다.
제1 예측 데이터 및 제2 예측 데이터는 제1 컴포넌트 및 제2 컴포넌트 각각에 대한 현재 블록의 모션 보상 예측 블록, 재구성된 이웃 샘플, 또는 재구성된 이웃 잔차에 대응할 수 있다. 제1 컴포넌트 및 제2 컴포넌트에 대한 현재 블록의 모션 보상 예측 블록은 제1 컴포넌트 및 제2 컴포넌트 각각에 대한 현재 블록의 인터, 인터-뷰 또는 인트라 블록 카피 예측자에 대응한다. 비디오 데이터는 YUV, YCrCb 또는 RGB에 대응하는 3개의 컴포넌트를 가질 수 있고, 제1 컴포넌트 및 제2 컴포넌트는 3개의 컴포넌트로부터 선택된다. 예를 들어, 3개의 컴포넌트가 YUV 또는 YCrCb에 대응하는 경우, 제1 컴포넌트는 Y에 대응할 수 있고, 제2 컴포넌트는 UV 또는 CrCb로부터 선택된 하나의 크로마 컴포넌트에 대응할 수 있다. 다른 예에서, 제1 컴포넌트는 UV 또는 CrCb로부터 선택된 제1 크로마 컴포넌트에 대응할 수 있고, 제2 컴포넌트는 각각 UV 또는 CrCb로부터 선택된 제2 크로마 컴포넌트에 대응한다.
크로스-컴포넌트 함수는 알파 파라미터 또는 알파 파라미터 및 베타 파라미터 모두를 포함하는 선형 함수에 대응할 수 있고, 알파 파라미터는 제1 컴포넌트와 곱하는 스케일링 항에 대응하고 베타 파라미터는 오프셋 항에 대응한다. 파라미터는 제1 예측 데이터를 크로스-컴포넌트 함수의 입력으로 하고 제2 예측 데이터를 크로스-컴포넌트 함수의 출력으로 하여 크로스-컴포넌트 함수에 기초한 최소 자승 절차(least square procedure)를 사용하여 결정될 수 있다. 제1 예측 데이터 및 제2 예측 데이터는 제1 컴포넌트 및 제2 컴포넌트 각각에 대한 현재 블록의 모션 보상 예측 블록, 재구성된 이웃 샘플, 또는 재구성된 이웃 잔차에 대응할 수 있다.
본 발명의 일 태양은 제1 컴포넌트와 제2 컴포넌트 간의 상이한 공간 해상도의 문제를 다룬다. 제1 컴포넌트가 제2 컴포넌트보다 더 미세한 공간 해상도를 갖는다면, 제1 예측 데이터는 제2 컴포넌트의 동일한 공간 해상도로 서브샘플링될 수 있다. 예를 들어, 제1 컴포넌트는 N개의 제1 샘플들을 갖고, 제2 컴포넌트는 N>M인 M개의 제2 샘플들을 갖는다. 제1 예측 데이터 및 제2 예측 데이터가 제1 컴포넌트 및 제2 컴포넌트 각각에 대한 현재 블록의 재구성된 이웃 샘플 또는 재구성된 이웃 잔차에 대응하면, M이 N/2와 동일하다면 제1 컴포넌트에 대한 현재 블록의 2개의 재구성된 이웃 샘플들 또는 재구성된 이웃 잔차들마다의 평균값은 알파 파라미터, 베타 파라미터 또는 알파 파라미터 및 베타 파라미터 모두를 유도하는데 사용될 수 있다. 제1 예측 데이터 및 제2 예측 데이터가 제1 컴포넌트 및 제2 컴포넌트 각각에 대한 현재 블록의 모션 보상 예측 블록의 예측된 샘플들에 대응하면, M이 N/2와 동일하다면 제1 컴포넌트에 대한 현재 블록의 모션 보상 예측 블록의 2개의 수직-이웃 예측된 샘플들마다의 평균값은 파라미터를 유도하는데 사용될 수 있다. 제1 예측 데이터 및 제2 예측 데이터가 제1 컴포넌트 및 제2 컴포넌트 각각에 대한 현재 블록의 모션 보상 예측 블록의 예측된 샘플들에 대응하면, M이 N/4와 동일하다면 제1 컴포넌트에 대한 현재 블록의 모션 보상 예측 블록의 4-샘플 클러스터마다의 레프트-업 및 레프트-다운 샘플들의 평균값은 파라미터를 유도하는데 사용될 수 있다.
파라미터 유도를 위해, 제1 예측 데이터 및 제2 예측 데이터는 각각 제1 컴포넌트 및 제2 컴포넌트에 대한 현재 블록의 서브샘플링되거나 또는 필터링된 모션 보상 예측 블록에 대응할 수 있다. 파라미터들은 각각의 PU(예측 유닛) 또는 CU(코딩 유닛)에 대해 결정되고 전송될 수 있다. 파라미터들은 각각의 인트라 코딩된 CU의 각 TU(변환 유닛), 및 각각의 인터 또는 인트라 블록 카피 코딩된 CU의 각 PU 또는 CU에 대해 결정되고 전송될 수 있다. 크로스-컴포넌트 잔차 예측은 각각의 인트라 코딩된 CU의 각각의 TU에 적용되고, 각각의 인터, 인터-뷰 또는 인트라 블록 카피 코딩된 CU의 각각의 PU 또는 CU에 적용될 수 있다. 크로스-컴포넌트 잔차 예측을 적용할지 여부를 표시하기 위한 모드 플래그가 각각의 인트라 코딩된 CU마다 TU 레벨에서, 그리고 각각의 인터, 인터-뷰 또는 인트라 블록 카피 코딩된 CU마다 PU 또는 CU 레벨에서 시그널링될 수 있다.
제1 컴포넌트가 제2 컴포넌트보다 높은 공간 해상도를 갖는 경우, 파라미터 유도를 위해 언급된 서브샘플링 기술은 또한 제2 컴포넌트의 제2 잔차에 대한 잔차 예측자를 유도하는데 적용될 수도 있다. 예를 들어, 제1 컴포넌트의 제1 재구성된 잔차는 N개의 제1 샘플로 이루어지고, 제2 컴포넌트의 제2 잔차는 N/4와 동일한 M개의 제2 샘플로 이루어질 때, 제1 컴포넌트의 제1 재구성된 잔차의 4-샘플 클러스터마다의 레프트-업 및 레프트-다운 샘플들의 평균값이 잔차 예측자로 사용될 수 있다. 4-샘플 클러스터마다의 평균값, 제1 컴포넌트의 제1 재구성된 잔차의 4-샘플 클러스터마다의 2개의 수평 이웃 샘플 또는 4-샘플 클러스터마다의 코너 샘플의 평균값이 잔차 예측자로 사용될 수도 있다.
도 1a는 고효율 비디오 코딩(HEVC) 범위 확장(RExt)에 따라 재구성된 루마 픽셀에 기초한 크로마 인트라 예측의 유도의 예를 도시한다.
도 1b는 고효율 비디오 코딩(HEVC) 범위 확장(RExt)에 따라 예측될 대응하는 크로마 블록과 관련된 이웃하는 크로마 픽셀 및 크로마 픽셀의 예를 도시한다.
도 2는 현재 유닛(CU)의 변환 유닛(TU들)에 대한 고효율 비디오 코딩(HEVC) 범위 확장(RExt)에서의 IRP(인터-컴포넌트 잔차 예측)에 대한 디코딩 프로세스의 예를 도시한다.
도 3은 본 발명에 따른 가이드된 크로스-컴포넌트 잔차 예측의 예시적인 시스템 구조를 도시한다.
도 4는 본 발명의 실시예에 따라 재구성된 이웃하는 샘플들에 기초한 파라미터 유도를 위한 예시적인 시스템 구조를 도시한다.
도 5는 본 발명의 일 실시예에 따른 재구성된 예측 샘플들의 4-샘플 클러스터마다의 레프트-업 및 레프트-다운 샘플들의 평균값에 기초한 파라미터 유도를 위한 예시적인 시스템 구조를 도시한다.
도 6a는 본 발명의 일 실시예에 따른 재구성된 예측 샘플들의 4-샘플 클러스터마다의 코너 샘플에 기초한 파라미터 유도를 위한 예시적인 시스템 구조를 도시한다.
도 6b는 본 발명의 일 실시예에 따른 재구성된 예측 샘플들의 4-샘플 클러스터마다의 2개의 수평 샘플들의 평균값에 기초한 파라미터 유도를 위한 예시적인 시스템 구조를 도시한다.
도 6c는 본 발명의 일 실시예에 따른 재구성된 예측 샘플들의 4-샘플 클러스터마다의 평균값에 기초한 파라미터 유도를 위한 예시적인 시스템 구조를 도시한다.
도 7은 본 발명의 일 실시예를 포함하는 가이드된 크로스-컴포넌트 잔차 예측에 대한 예시적인 흐름도를 도시한다.
다음의 설명은 본 발명을 실행하는 최선의 방법에 관한 것이다. 이 설명은 본 발명의 일반적인 원리를 설명하기 위한 것이며, 제한적인 의미로 해석되어서는 안 된다. 본 발명의 범위는 첨부된 청구범위를 참조함으로써 가장 잘 결정된다.
전술한 바와 같이, JCTVC-C206에 개시된 바와 같은 인터-컴포넌트 예측은 인트라 크로마 코딩으로 제한된다. 또한, 파라미터 유도는 루마 및 크로마 블록의 재구성된 이웃 샘플에 기초한다. 한편, JCTVC-N0266은 인트라 및 인터 코딩된 블록들에 대한 인터-컴포넌트 잔차 예측을 개시하고, 알파 파라미터는 항상 인코더 측에서 유도되어 비디오 스트림으로 전송된다. HEVC 표준에 따르면, 알파 파라미터가 전송되고, 디코더 측에서 파라미터를 유도할 필요가 없다. 또한 HEVC 표준은 4:4:4 포맷의 비디오 데이터에 대해 IRP를 채택한다. 그러나, IRP는 또한 4:2:0 포맷과 같은 다른 포맷의 비디오 데이터에 대해 코딩 효율을 향상시킬 수 있다. IRP가 4:2:0 포맷으로 확장되면, 루마와 현재 크로마 샘플 간의 대응관계를 결정하는 방법, 파라미터 유도 및 예측자 생성과 관련된 문제는 아직 해결되어야 한다. 따라서, 본 출원에는 IRP 코딩 효율을 향상시키는 다양한 기술이 개시된다.
종래의 IRP 프로세스는 TU(즉, 변환 유닛) 레벨에서 파라미터 유도 및 예측자 생성을 포함하지만, IRP는 CU(즉, 코딩 유닛) 또는 PU(즉, 예측 유닛)에도 적용될 수 있고, IRP는 이 모드 및 파라미터 전송을 시그널링하기 위해 생성된 오버 헤드가 작기 때문에 더 효과적이다. 또한, HEVC에 의해 채택된 IRP는 재구성된 루마 잔차만을 이용하여 현재의 크로마 잔차를 예측한다. 그러나, 재구성된 비-제1 크로마 잔차를 이용하여 현재의 크로마 잔차를 예측하는 것도 가능하다. 전술한 바와 같이, 기존의 LM 모드는 유연하지 않으며, 상기 방법은 크로마 픽셀이 4:2:0 샘플링 포맷에 대응하지 않을 때 효율적이지 않으며, LM 모드는 동일 위치에 있는 재구성된 루마 블록을 예측자로 사용하는 인트라 크롬 예측을 지칭한다.
따라서, 본 발명에 기초한 실시예들은 상이한 크로마 샘플링 포맷들을 적응적으로 지원하는 유연한 LM-기반 크로마 인트라 예측을 제공한다. 도 3은 본 발명에 따른 인터-컴포넌트 잔차 예측의 기본 구조를 도시한다. 예측 데이터(310)는 파라미터 추정기(320)에서 파라미터 세트를 유도하는데 사용된다. 그 후 파라미터는 현재 블록의 크로스 컴포넌트 예측자(330)에 사용된다. 본 개시에서, 용어 인터-컴포넌트 및 크로스-컴포넌트는 상호 교환적으로 사용된다. 도 3의 코딩 구조에 따르면, 예측 데이터는 현재 블록의 코딩을 위한 가이드로서 사용되며, 예측 데이터는 종래 예측 코딩에 의해 사용되는 예측 블록에 대응할 수 있다. 예를 들어, 예측 데이터는 인터 코딩의 참조 블록(즉, 모션 보상 예측 블록)에 대응할 수 있다. 그러나, 다른 예측 데이터가 또한 사용될 수 있다. 본 발명에 따른 시스템은 가이드된 인터-컴포넌트 예측으로 지칭된다.
선형 함수가 두 컴포넌트(PX 및 PZ) 사이의 관계를 모델링하는데 사용될 수 있다고 상정하는데, 즉 관계식은 식 (5)로 표현될 수 있다,
PX = α·PZ + β. (5)
예측 신호(PredX 및 PredZ) 및 재구성된 신호(RecoX 및 RecoZ) 둘 모두에 대한 것이다. 즉, 다음과 같은 관계가 유지된다:
PredX = α·PredZ + β, (6) 및
RecoX = α·RecoZ + β. (7)
따라서, 컴포넌트(X)에 대한 재구성된 신호와 예측 신호 간의 차이는 식 (6) 및 (7)의 예측 및 재구성된 신호를 대체함으로써 식 (8)에 따라 결정될 수 있다:
RecoX-PredX = α·(RecoX-PredX), 즉, ResiX = α·ResiZ, (8)
여기서, ResiX는 컴포넌트(X)에 대한 잔차 신호이고, ResiZ는 컴포넌트(Z)에 대한 잔차 신호이다. 따라서, 컴포넌트(Z)에 대한 잔차 신호의 함수(즉, f(ResiZ))를 사용하여 컴포넌트(X)에 대한 잔차를 예측하면, 함수는 f(ResiZ) = α·ResiZ 로 표현될 수 있다.
일 실시예에서, 코딩될 컴포넌트(X)의 잔차는 다음과 같이 계산될 수 있다:
ResiX' = ResiX - f(ResiZ), (9)
여기서 컴포넌트(X)에 대한 잔차 신호(즉, ResiX)는 원 신호(즉, OrigX)와 예측 신호(즉, PredX) 간의 차이에 대응하고, ResiZ는 컴포넌트(Z)에 대한 재구성된 잔차 신호이다. ResiX는 식 (10)에 도시된 바와 같이 유도된다:
ResiX = OrigX - PredX. (10)
디코더 측에서, 컴포넌트(X)에 대한 재구성된 신호는 PredX + ResiX' + f(ResiZ)에 따라 계산된다. 컴포넌트(Z)는 인코더 측 또는 디코더 측에서 각각 컴포넌트(X)보다 먼저 코딩 또는 디코딩된다. 함수(f)는 PredX 및 PredZ를 분석함으로써 유도될 수 있고, 여기서 PredX 및 PredZ는 컴포넌트(X) 및 컴포넌트(Z) 각각에 대한 예측 신호이다.
다른 실시예에서, 최소 자승 절차는 PredX = α·PredZ + β에 따라 평균 제곱 오차를 최소화함으로써 파라미터를 추정하는데 사용될 수 있다.
서브샘플링된 예측 블록은 파라미터 추정에 사용될 수 있다. 예를 들어, 예측 데이터는 YUV 4:2:0 포맷의 루마 컴포넌트에 대응할 수 있고, 현재 컴포넌트는 크로마 컴포넌트에 대응할 수 있다. 이 경우, 서브샘플링은 루마 예측 신호에 적용될 수 있다. 그러나 서브샘플링은 2개의 컴포넌트가 동일한 공간 해상도를 갖는 경우에도 적용될 수 있다. 이러한 경우, 서브샘플은 파라미터를 추정하기 위해 필요한 계산을 줄일 수 있다.
파라미터 추정은 또한 필터링된 모션 보상 예측 블록에 대응하는 예측 신호에 기초할 수도 있다. 필터는 스무스 필터일 수 있다.
일 실시예에서, 컴포넌트(Z)가 컴포넌트(X)보다 높은 해상도를 가질 때, 서브샘플링된 컴포넌트(Z)가 파라미터 추정에 사용될 수 있다.
다른 실시예에서, 플래그가 인터-컴포넌트 잔차 예측이 적용되는지 여부를 나타내기 위해 코딩될 수 있다. 예를 들어, 플래그는 CTU(코딩 트리 유닛), LCU(최대 코딩 유닛), CU(코딩 유닛) 레벨, PU(예측 유닛) 레벨, sub-PU 또는 TU(변환 유닛) 레벨에서 시그널링된다. 플래그는 각각의 예측된 인터-컴포넌트마다 개별적으로 코딩될 수 있거나 또는 하나의 플래그만이 모든 예측된 인터-컴포넌트간에 코딩될 수 있다. 또 다른 실시예에서, 플래그는 컴포넌트(Z)의 잔차 신호가 유효할 때, 즉 컴포넌트(Z)의 적어도 하나의 0이 아닌 잔차인 경우에만 코딩된다. 또 다른 실시예에서, 플래그는 병합 모드(merge mode)로부터 상속된다(inherited). 현재 블록이 병합 모드로 코딩될 때, 플래그는 플래그가 명시적으로 코딩되지 않도록 병합 후보를 기초로 하여 유도된다.
인터-컴포넌트 잔차 예측을 적용할지 여부를 나타내는 플래그는 모션 벡터(MV), 변이 벡터(DV) 또는 인트라 블록 카피(IntraBC) 변위 벡터(BV)에 의해 참조되는 참조 블록으로부터 상속될 수도 있다. 현재 블록의 탑-레프트 샘플의 위치를 (x, y)로 하고, 현재 블록의 폭 및 높이를 W 및 H로 하고, 모션 벡터 또는 변위 벡터를 (u, v)로 하면, 참조 블록은 (x+u, y+v) 또는 (x+W/2+u, y+H/2+v)에 위치된다.
크로마 컴포넌트에 대한 양자화 파라미터(QP)는 크로마 인터-컴포넌트 잔차 예측이 적용될 때 N만큼 증가될 수 있다. N은 0, 1, 2, 3 또는 임의의 다른 사전 정의된 정수일 수 있다. N은 또한 SPS(시퀀스 파라미터 세트), PPS(화상 파라미터 세트), VPS(비디오 파라미터 세트), APS(애플리케이션 파라미터 세트) 또는 슬라이스 헤더 등에서 코딩될 수 있다.
상술된 가이드된 크로스-컴포넌트 잔차 예측은 CTU(코딩 트리 유닛), LCU(최대 코딩 유닛), CU(코딩 유닛) 레벨, PU(예측 유닛) 레벨 또는 TU(변환 유닛) 레벨에 적용될 수 있다.
가이드된 인터-컴포넌트 잔차 예측을 적용할지 여부를 나타내는 플래그는 이에 따라 CTU, LCU, CU, PU, sub-PU 또는 TU 레벨에서 시그널링될 수 있다. 또한, 가이드된 인터-컴포넌트 잔차 예측을 적용할지 여부를 나타내는 플래그는 CU 레벨에서 시그널링될 수 있다. 그러나, 가이드된 인터-컴포넌트 잔차 예측은 또한 PU, TU 또는 sub-PU 레벨에서 적용될 수도 있다.
컴포넌트(X) 및 컴포넌트(Z)는 모든 컬러 공간에서 선택될 수 있다. 컬러 공간은 (Y, U, V), (Y, Cb, Cr), (R, G, B) 또는 다른 컬러 공간에 대응할 수 있다. 예를 들어, X는 Cb에 대응할 수 있고, Z는 Y에 대응할 수 있다. 다른 예에서, X는 Cr에 대응할 수 있고, Z는 Y에 대응할 수 있다. 또 다른 예에서, X는 Y에 대응할 수 있고, Z는 Cb에 대응할 수 있다. 또 다른 예에서, X는 Y에 대응할 수 있고, Z는 Cr에 대응할 수 있다. 또 다른 예에서, X는 Y에 대응할 수 있고, Z는 Cb 및 Cr에 대응할 수 있다.
가이드된 인터-컴포넌트 잔차 예측 방법은 YUV444, YUV420, YUV422, RGB, BGR 등과 같은 상이한 비디오 포맷에 적용될 수 있다.
식 (1)에 도시된 바와 같은 특정 선형 모델이 예시되어 있지만, 다른 선형 모델이 또한 적용될 수도 있다. 동일 위치에 있는 블록의 재구성된 이웃 샘플 외에, 재구성된 예측 블록은 또한 파라미터 추정에 사용될 수도 있다. 예를 들어, 재구성된 예측 블록은 인터 코딩, 인터-뷰 코딩 또는 IntraBC 코딩의 참조 블록에 대응할 수 있고, 여기서 재구성된 예측 블록은 인터 코딩에서 대응하는 모션 벡터, 인터-뷰 코딩에서 변위 벡터 또는 IntraBC 코딩에서 블록 벡터에 따라 위치된 모션 보상 블록을 나타낸다.
파라미터를 추정하기 위한 예로서 최소 자승 기반 방법이 사용되었지만, 다른 파라미터 추정 방법을 대신 사용할 수도 있다.
일 실시예에서, rC(x, y) = rC'(x, y) + (α·r(x, y) + β)에 따라 인터-컴포넌트 잔차 예측자를 유도하기 위해 알파 파라미터뿐만 아니라 베타(또한 즉 오프셋 또는 β) 파라미터도 사용되고, 여기서 r(x, y)는 재구성된 잔차 루마 컴포넌트, rL(x, y) 또는 다른 크로마 컴포넌트의 재구성된 잔차 블록에 대응할 수 있다.
파라미터(β)는 인터-컴포넌트 잔차 예측이 이용될 때 비트스트림으로 전송될 수 있다. 파라미터(β)는 인터-컴포넌트 잔차 예측이 이용될 때 하나 이상의 추가 플래그를 사용하여 비트스트림으로 전송될 수 있다.
다른 실시예에서, 요구된 파라미터는 재구성된 이웃 샘플, 이웃 샘플의 재구성된 잔차 또는 현재 블록의 예측된 샘플로부터 유도될 수 있다.
예를 들어, 파라미터들은 (α, β) = f(RNL, RNCb), (α, β) = f(RNL, RNCr), 또는 (α, β) = f(RNCb, RNCr)에 따라 재구성된 이웃 샘플들 또는 현재 블록의 이웃 샘플들의 재구성된 잔차들을 사용하여 디코더 측에서 유도될 수 있고, 여기서 RNL은 재구성된 루마 이웃 샘플들 또는 루마 이웃 샘플들의 재구성된 잔차들일 수 있고, RNCb는 이웃하는 재구성된 제1 크로마-컴포넌트 샘플들 또는 제1 크로마-컴포넌트 샘플들의 이웃하는 재구성된 잔차들일 수 있고, RNCr은 이웃하는 재구성된 제2 크로마-컴포넌트 샘플들 또는 제2 크로마-컴포넌트 샘플들의 이웃하는 재구성된 잔차들일 수 있다. 도 4는 본 발명의 일 실시예에 따른 파라미터 유도의 일 예를 도시하며, (α, β)는 블록(440)에서 Y 컴포넌트(410) 및 Cr 컴포넌트(430)의 잔차에 기초하여 유도되고, (α, β)는 블록(450)에서 Y 컴포넌트(410) 및 Cb 컴포넌트(420)의 잔차에 기초하여 유도된다.
다른 예에서, 파라미터들은 (α, β) = f(RPL, RPCb), (α, β) = f(RPL, RPCr), 또는 (α, β) = f(RPCb, RPCr)에 따라 현재 블록의 예측된 픽셀에 의해 디코더에서 유도될 수 있고, 여기서 RPL은 예측된 루마 블록의 샘플에 대응하고, RPCb는 예측된 Cb 블록의 샘플에 대응하고, RPCr은 예측된 Cr 블록의 샘플에 대응한다. 도 5는 본 발명의 일 실시예에 따른 파라미터 유도(530)의 예를 도시하며, 여기서 (α, β)는 블록(510)의 예측된 Y 컴포넌트 및 블록(520)의 예측된 C(Cr 또는 Cb) 컴포넌트에 기초하여 유도된다.
다른 예에서, 가이드된 인터-컴포넌트 잔차 예측은 비-4:4:4 비디오 신호에 적용된다. 루마 컴포넌트는 파라미터 유도 및 예측자 생성을 위한 크로마 컴포넌트와 동일한 해상도를 갖도록 다운 샘플링된다.
예를 들어, M(M<N)개의 대응하는 크로마 샘플을 갖는 N개의 루마 샘플이 있는 경우, 파라미터 유도를 위한 M개의 루마 샘플을 선택하거나 또는 생성하기 위해 하나의 다운 샘플링 동작이 수행된다.
파라미터 유도 프로세스의 다른 예에서, N개의 루마 샘플은 동일 위치에 있는 루마 블록의 N개의 재구성된 이웃하는 루마 샘플에 대응하고, M(M<N)개의 크로마 샘플은 현재의 크로마 블록의 M개의 재구성된 이웃하는 크로마 샘플에 대응한다. 하나의 다운 샘플링 동작은 파라미터 유도를 위해 M개의 루마 샘플을 선택하거나 또는 생성하는데 사용될 수 있다.
파라미터 유도 프로세스의 또 다른 예에서, N개의 루마 이웃 샘플들을 다운 샘플링하여 N/2와 동일한 M개의 샘플들을 생성하는 동안, 2개의 루마 이웃 샘플들마다의 평균값들이 선택된다. 도 4의 예는 N개의 루마 이웃 샘플들을 다운 샘플링하여 N/2와 동일한 M개의 샘플들을 생성하는 경우에 해당한다.
파라미터 유도 프로세스의 또 다른 예에서, N/2와 동일한 M개의 샘플을 생성하기 위해 N개의 예측된 루마 샘플을 다운 샘플링하는 동안, 2개의 수직 이웃 루마 샘플들마다의 평균값들이 선택된다.
파라미터 유도 프로세스의 또 다른 예에서, N/4와 동일한 M개의 샘플을 생성하기 위해 N개의 예측된 루마 샘플을 다운 샘플링하는 동안, 모든 4-샘플 클러스터(540)의 레프트-업 및 레프트-다운 샘플의 평균값들이 선택된다. 도 5의 예는 4-샘플 클러스터의 레프트-업 및 레프트-다운 샘플의 평균을 사용함으로써 N/4와 동일한 M개의 샘플을 생성하기 위해 N개의 예측된 루마 샘플을 다운 샘플링하는 경우에 해당한다.
다른 예에서, 현재 크로마 블록에 대해 M(M<N)개의 생성될 예측 샘플들만이 있고 참조 블록에 대해 총 N개의 루마 샘플들이 존재할 때, 예측자 생성을 위해 M개의 루마 샘플을 선택하거나 또는 생성하기 위해 하나의 다운 샘플링 동작이 수행될 수 있다.
본 발명의 또 다른 실시예에서, 파라미터 유도 프로세스 또는 예측자 생성 프로세스에 대해, M개의 샘플을 생성하기 위해 N개의 루마 샘플을 다운 샘플링하는 것은 4-포인트-평균, 코너-포인트 선택, 또는 수평 평균에 기초할 수 있다. 도 6a 내지 도 6c는 이 실시예에 따른 예를 도시한다. 도 6a에 도시된 바와 같이, 다운 샘플링 프로세스는 루마 블록(610)의 모든 4-샘플 클러스터의 레프트-업 코너 샘플을 선택하여 크로마 블록(620)으로서 원하는 해상도를 생성한다. 도 6b는 크로마 블록(640)으로서 원하는 해상도를 생성하기 위해 선택된 샘플로서 루마 블록(630)의 모든 4-샘플 클러스터의 2개의 상부 수평 샘플의 평균을 사용하는 예를 도시한다. 도 6c는 선택된 샘플로서 루마 블록(650)의 모든 4-샘플 클러스터의 4-포인트 평균을 사용하여 크로마 블록(660)으로서 원하는 해상도를 생성하는 예를 도시한다.
파라미터 유도 프로세스 및 예측자 생성 프로세스는 동일한 다운 샘플링 프로세스를 사용할 수 있다.
또 다른 실시예에서, 파라미터 추정 및 인터-컴포넌트 잔차 예측은 PU(예측 유닛) 또는 CU(코딩 유닛) 레벨에서 현재 크로마 블록에 적용된다. 예를 들어, 인터, 인터-뷰 또는 인트라 블록 카피 코딩된 CU의 각 PU 또는 각 CU가 있다.
예를 들어, 인터-컴포넌트 잔차 예측 모드 플래그는 PU 또는 CU 레벨로 전송된다. 다른 예에서, 이용된 파라미터는 PU 또는 CU 레벨로 전송된다. 식 rC(x, y) = rC'(x, y) + (α × r(x, y) + β)에 대한 잔차 보상 프로세스는 PU 또는 CU의 모든 (x, y) 위치에 대해 수행될 수 있다.
다른 예에서, 인트라 CU에 대한 잔차 예측은 여전히 TU 레벨에서 수행될 수 있다. 그러나, 잔차 예측은 인터 CU 또는 인트라 블록 카피 CU에 대해 CU 또는 PU 레벨에서 수행된다.
또 다른 예에서, 인트라 CU에 대한 모드 플래그 시그널링은 여전히 TU 레벨에서 수행된다. 그러나, 모드 플래그 시그널링은 인터 또는 인트라 블록 카피 CU에 대해 CU 또는 PU 레벨에서 수행된다.
크로스-컴포넌트 잔차 예측이 인에이블링되는지 여부를 나타내기 위해 VPS(비디오 파라미터 세트), SPS(시퀀스 파라미터 세트), PPS(화상 파라미터 세트), APS(애플리케이션 파라미터 세트) 또는 슬라이스 헤더에 하나 이상의 구문 요소가 사용될 수 있다.
도 7은 본 발명의 일 실시예를 포함하는 가이드된 크로스-컴포넌트 잔차 예측에 대한 예시적인 흐름도를 도시한다. 시스템은 단계(710)에서 현재 블록의 제1 컴포넌트 및 제2 컴포넌트에 대한 제1 예측 데이터 및 제2 예측 데이터를 각각 수신한다. 제1 예측 데이터 및 제2 예측 데이터는 버퍼의 컴퓨터 메모리(RAM 또는 DRAM)와 같은 저장 장치로부터 검색될 수 있다. 제1 컴포넌트의 재구성된 잔차는 또한 프로세싱 유닛 또는 디지털 신호와 같은 프로세서로부터 수신될 수 있다. 제1 예측 데이터 및 제2 예측 데이터에 기초하여, 단계(720)에서 크로스-컴포넌트 함수의 하나 이상의 파라미터가 결정된다. 크로스-컴포넌트 함수는 제1 컴포넌트를 크로스-컴포넌트 함수의 입력으로 하고 제2 컴포넌트를 크로스-컴포넌트 함수의 출력으로 하여 제1 컴포넌트 및 제2 컴포넌트와 관련된다. 잔차 예측자는 단계(730)에서 제1 컴포넌트의 제1 재구성된 잔차를 크로스-컴포넌트 함수의 입력으로 하여 크로스-컴포넌트 함수를 사용하여 제2 컴포넌트의 제2 잔차에 대해 유도된다. 제2 컴포넌트의 제2 잔차는 원래의 제2 컴포넌트와 제2 예측 데이터 간의 제2 차이에 대응한다. 그 다음, 단계(740)에서, 제2 컴포넌트의 제2 잔차와 잔차 예측자 간의 예측된 차이가 인코딩 또는 디코딩된다.
위에서 도시된 흐름도는 본 발명의 실시예를 포함하는 비디오 인코더 및 디코더에 대한 가이드된 인터-컴포넌트 잔차 예측의 예를 설명하기 위한 것이다. 당업자는 본 발명의 사상을 벗어나지 않는다면 각 단계를 변경하고, 단계를 재배열하고, 단계를 분할하고, 또는 단계를 조합하여 본 발명을 실시할 수 있다.
상기 설명은 당업자가 특정 애플리케이션 및 그 요구 사항의 맥락에서 제공된 바와 같이 본 발명을 실시할 수 있도록 제시된다. 설명된 실시예들에 대한 다양한 수정들이 당업자에게 명백할 것이며, 본 명세서에서 정의된 일반적인 원리들은 다른 실시예들에 적용될 수 있다. 따라서, 본 발명은 도시되고 설명된 특정 실시예들에 한정되도록 의도되지 않고, 본 명세서에서 개시된 원리들 및 신규한 특징들과 일치하는 가장 넓은 범위에 따른다. 상기 상세한 설명에서, 본 발명의 완전한 이해를 제공하기 위해 다양한 특정 세부 사항이 도시된다. 그럼에도 불구하고, 당업자는 본 발명이 실시될 수 있음을 이해할 것이다.
전술한 바와 같은 본 발명의 실시예는 다양한 하드웨어, 소프트웨어 코드, 또는 이들의 조합으로 구현될 수 있다. 예를 들어, 본 발명의 실시예는 본 명세서에서 설명된 프로세싱을 수행하기 위해 비디오 압축 소프트웨어에 통합된 비디오 압축 칩 또는 프로그램 코드에 통합된 회로일 수 있다. 본 발명의 일 실시예는 본 명세서에서 설명된 프로세싱을 수행하기 위해 디지털 신호 프로세서(DSP) 상에서 실행되는 프로그램 코드일 수도 있다. 본 발명은 또한 컴퓨터 프로세서, 디지털 신호 프로세서, 마이크로 프로세서, 또는 필드 프로그래머블 게이트 어레이(FPGA)에 의해 수행되는 다수의 기능을 포함할 수도 있다. 이러한 프로세서는 본 발명에 의해 구체화된 특정 방법을 정의하는 기계 판독 가능 소프트웨어 코드 또는 펌웨어 코드를 실행함으로써, 본 발명에 따른 특정 작업을 수행하도록 구성될 수 있다. 소프트웨어 코드 또는 펌웨어 코드는 상이한 프로그래밍 언어 및 상이한 포맷 또는 스타일로 개발될 수 있다. 소프트웨어 코드는 다른 타겟 플랫폼을 위해 컴파일될 수도 있다. 그러나, 본 발명에 따른 작업을 수행하기 위한 소프트웨어 코드의 다른 코드 포맷, 스타일 및 언어 및 다른 코드 구성 수단이 본 발명의 사상 및 범위를 벗어나지 않을 것이다.
본 발명은 그 사상 또는 본질적인 특성을 벗어나지 않는다면 다른 특정 형태로 구현될 수 있다. 설명된 예들은 모든 면에서 단지 예시적인 것으로서 제한적이지 않은 것으로 고려되어야 한다. 따라서, 본 발명의 범위는 전술한 설명보다는 첨부된 청구 범위에 의해 지시된다. 청구범위와 균등한 의미 및 범위 내에 있는 모든 변경은 그 범위 내에 포함되어야 한다.
310: 예측 데이터
320: 파라미터 추정기
330: 크로스 컴포넌트 예측자

Claims (17)

  1. 2개 이상의 컬러 컴포넌트들을 포함하는 비디오 데이터에 대한 크로스-컴포넌트 잔차 예측 방법에 있어서,
    현재 블록의 제1 컴포넌트 및 제2 컴포넌트 각각에 대한 제1 예측 데이터 및 제2 예측 데이터를 수신하는 단계 - 상기 제1 컴포넌트 및 상기 제2 컴포넌트 각각은 상기 2개 이상의 컬러 컴포넌트들 중 하나의 상이한 컬러 컴포넌트에 대응하고, 상기 제1 예측 데이터는 상기 제1 컴포넌트에 대한 상기 현재 블록의 모션 보상 예측 블록을 포함하며, 상기 제2 예측 데이터는 상기 제2 컴포넌트에 대한 상기 현재 블록의 모션 보상 예측 블록을 포함함 - ;
    상기 제1 예측 데이터 및 상기 제2 예측 데이터를 포함하는 파라미터 추정 함수에 기초하여, 상기 제1 컴포넌트를 크로스-컴포넌트 함수의 입력으로 하고 상기 제2 컴포넌트를 크로스-컴포넌트 함수의 출력으로 하여, 상기 제1 컴포넌트 및 상기 제2 컴포넌트에 관련된 상기 크로스-컴포넌트 함수의 하나 이상의 파라미터들을 결정하는 단계;
    상기 크로스-컴포넌트 함수를 상기 결정된 하나 이상의 파라미터들과 함께 사용하여 상기 제2 컴포넌트의 제2 잔차에 대한 잔차 예측자를 유도하는 단계 - 상기 제1 컴포넌트의 제1 재구성된 잔차는 상기 크로스-컴포넌트 함수의 입력으로 사용되고, 상기 제2 컴포넌트의 제2 잔차는 원래의 제2 컴포넌트와 상기 제2 예측 데이터 간의 제2 차이에 대응함 - ; 및
    상기 제2 컴포넌트의 제2 잔차와 상기 잔차 예측자 간의 예측된 차이를 인코딩 또는 디코딩하는 단계
    를 포함하고,
    상기 제1 컴포넌트가 상기 제2 컴포넌트보다 높은 공간 해상도를 갖는 경우, 상기 제1 컴포넌트의 제1 재구성된 잔차는, 상기 제2 컴포넌트의 제2 잔차에 대한 상기 잔차 예측자를 유도하기 위해, 상기 제2 컴포넌트의 공간 해상도를 매칭시키도록 상기 크로스-컴포넌트 함수를 적용하기 전에 서브샘플링되고,
    상기 제1 컴포넌트의 제1 재구성된 잔차는 N개의 제1 샘플로 이루어지고, 상기 제2 컴포넌트의 제2 잔차는 N/4와 동일한 M개의 제2 샘플로 이루어지며, 상기 제1 컴포넌트의 제1 재구성된 잔차의 4-샘플 클러스터마다의 평균값 또는 4-샘플 클러스터마다의 코너 샘플이 상기 잔차 예측자에 대하여 사용되는 것인 크로스-컴포넌트 잔차 예측 방법.
  2. 제1항에 있어서, 상기 제1 컴포넌트 및 상기 제2 컴포넌트에 대한 상기 현재 블록의 상기 모션 보상 예측 블록은, 상기 제1 컴포넌트 및 상기 제2 컴포넌트 각각에 대한 상기 현재 블록의 인터(Inter), 인터-뷰(Inter-view) 또는 인트라(Intra) 블록 카피(Block Copy) 예측자들에 대응하는 것인 크로스-컴포넌트 잔차 예측 방법.
  3. 제1항에 있어서, 상기 비디오 데이터는 YUV, YCrCb 또는 RGB에 대응하는 3개의 컬러 컴포넌트들을 가지며, 상기 제1 컴포넌트 및 상기 제2 컴포넌트는 상기 3개의 컬러 컴포넌트들로부터 선택되는 것인 크로스-컴포넌트 잔차 예측 방법.
  4. 제3항에 있어서, 상기 3개의 컬러 컴포넌트들이 YUV 또는 YCrCb에 대응하는 경우, 상기 제1 컴포넌트는 Y에 대응하고, 상기 제2 컴포넌트는 UV 또는 CrCb로부터 선택된 하나의 크로마 컴포넌트에 대응하거나, 또는 상기 제1 컴포넌트는 UV 또는 CrCb로부터 선택된 제1 크로마 컴포넌트에 대응하고, 상기 제2 컴포넌트는 UV 또는 CrCb로부터 선택된 제2 크로마 컴포넌트에 각각 대응하는 것인 크로스-컴포넌트 잔차 예측 방법.
  5. 제1항에 있어서, 상기 크로스-컴포넌트 함수는 알파 파라미터, 또는 알파 파라미터 및 베타 파라미터 모두를 포함하는 선형 함수이고, 상기 알파 파라미터는 상기 제1 컴포넌트와 곱해지는 스케일링 항에 대응하고, 상기 베타 파라미터는 오프셋 항에 대응하는 것인 크로스-컴포넌트 잔차 예측 방법.
  6. 제5항에 있어서, 상기 알파 파라미터, 상기 베타 파라미터, 또는 상기 알파 파라미터 및 상기 베타 파라미터 모두는, 상기 제1 예측 데이터를 상기 크로스-컴포넌트 함수의 입력으로 하고 상기 제2 예측 데이터를 크로스-컴포넌트 함수의 출력으로 하여, 상기 크로스-컴포넌트 함수에 기초한 최소 자승 절차(least square procedure)를 사용하여 결정되는 것인 크로스-컴포넌트 잔차 예측 방법.
  7. 제5항에 있어서, 상기 제1 컴포넌트가 상기 제2 컴포넌트보다 높은 공간 해상도를 갖는 경우, 상기 제1 예측 데이터는 상기 제2 컴포넌트와 동일한 공간 해상도로 서브샘플링되는 것인 크로스-컴포넌트 잔차 예측 방법.
  8. 제5항에 있어서, 상기 제1 예측 데이터 및 상기 제2 예측 데이터는 상기 제1 컴포넌트 및 상기 제2 컴포넌트 각각에 대한 상기 현재 블록의 상기 모션 보상 예측 블록의 예측된 샘플들에 대응하고, 상기 제1 예측 데이터는 N개의 제1 샘플들로 이루어지고, 상기 제2 예측 데이터는 N/2와 동일한 M개의 제2 샘플들로 이루어지고, 상기 제1 컴포넌트에 대한 상기 현재 블록의 상기 모션 보상 예측 블록의 2개의 수직-이웃 예측된 샘플들마다의 평균값은, 상기 알파 파라미터, 상기 베타 파라미터, 또는 상기 알파 파라미터 및 상기 베타 파라미터 모두를 유도하는데 사용되는 것인 크로스-컴포넌트 잔차 예측 방법.
  9. 제5항에 있어서, 상기 제1 예측 데이터 및 상기 제2 예측 데이터는, 상기 제1 컴포넌트 및 상기 제2 컴포넌트 각각에 대한 상기 현재 블록의 상기 모션 보상 예측 블록의 예측된 샘플들에 대응하고, 상기 제1 예측 데이터는 N개의 제1 샘플들로 이루어지고, 상기 제2 예측 데이터는 N/4와 동일한 M개의 제2 샘플들로 이루어지고, 상기 제1 컴포넌트에 대한 상기 현재 블록의 상기 모션 보상 예측 블록의 4-샘플 클러스터마다의 레프트-업(left-up) 및 레프트-다운(left-down) 샘플들의 평균값은, 상기 알파 파라미터, 상기 베타 파라미터, 또는 상기 알파 파라미터 및 상기 베타 파라미터 모두를 유도하는데 사용되는 것인 크로스-컴포넌트 잔차 예측 방법.
  10. 제5항에 있어서, 상기 제1 예측 데이터 및 상기 제2 예측 데이터는, 상기 제1 컴포넌트 및 상기 제2 컴포넌트 각각에 대한 상기 현재 블록의 서브샘플링되거나 또는 필터링된 모션 보상 예측 블록에 대응하는 것인 크로스-컴포넌트 잔차 예측 방법.
  11. 제5항에 있어서, 상기 알파 파라미터, 상기 베타 파라미터, 또는 상기 알파 파라미터 및 상기 베타 파라미터 모두는 각각의 TU(transform unit; 변환 유닛), 각각의 PU(prediction unit; 예측 유닛) 또는 CU(coding unit; 코딩 유닛)마다 결정되는 것인 크로스-컴포넌트 잔차 예측 방법.
  12. 제5항에 있어서, 상기 크로스-컴포넌트 잔차 예측은, 각각의 인트라 코딩된 CU(코딩 유닛)의 각각의 TU(변환 유닛)에 적용되고, 각각의 인터, 인터-뷰 또는 인트라 블록 카피 코딩된 CU에서 각각의 PU(예측 유닛) 또는 각각의 CU에 적용되는 것인 크로스-컴포넌트 잔차 예측 방법.
  13. 제5항에 있어서, 상기 크로스-컴포넌트 잔차 예측을 적용할지 여부를 표시하기 위한 모드 플래그는, 각각의 인트라 코딩된 CU(코딩 유닛)마다 TU(변환 유닛) 레벨에서, 그리고 각각의 인터, 인터-뷰 또는 인트라 블록 카피 코딩된 CU마다 PU(예측 유닛) 또는 CU 레벨에서 시그널링되는 것인 크로스-컴포넌트 잔차 예측 방법.
  14. 제1항에 있어서, 상기 크로스-컴포넌트 잔차 예측은 CTU(coding tree unit; 코딩 트리 유닛), LCU(largest coding unit; 최대 코딩 유닛), CU(코딩 유닛) 레벨, PU(예측 유닛) 레벨, 또는 TU(변환 유닛) 레벨에서 적용되는 것인 크로스-컴포넌트 잔차 예측 방법.
  15. 제1항에 있어서, 상기 크로스-컴포넌트 잔차 예측이 적용되는지 여부를 나타내기 위해 플래그가 사용되고, 상기 플래그는, CTU(코딩 트리 유닛), LCU(최대 코딩 유닛), CU(코딩 유닛) 레벨, PU(예측 유닛) 레벨, sub-PU 또는 TU(변환 유닛) 레벨에서 시그널링되는 것인 크로스-컴포넌트 잔차 예측 방법.
  16. 제1항에 있어서, 상기 크로스-컴포넌트 잔차 예측이 적용되는지 여부에 따라 상기 제2 컴포넌트의 제2 잔차를 코딩하도록 QP(quantization parameter; 양자화 파라미터)가 선택되는 것인 크로스-컴포넌트 잔차 예측 방법.
  17. 제1항에 있어서, 상기 크로스-컴포넌트 잔차 예측이 인에이블링되는지 여부를 나타내기 위해 VPS(video parameter set; 비디오 파라미터 세트), SPS(sequence parameter set; 시퀀스 파라미터 세트), PPS(picture parameter set; 화상 파라미터 세트), APS(application parameter set; 애플리케이션 파라미터 세트) 또는 슬라이스 헤더에 하나 이상의 구문 요소가 사용되는 것인 크로스-컴포넌트 잔차 예측 방법.
KR1020207012648A 2014-10-28 2015-10-19 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법 KR20200051831A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CNPCT/CN2014/089716 2014-10-28
PCT/CN2014/089716 WO2016065538A1 (en) 2014-10-28 2014-10-28 Guided cross-component prediction
CNPCT/CN2015/071440 2015-01-23
PCT/CN2015/071440 WO2016115733A1 (en) 2015-01-23 2015-01-23 Improvements for inter-component residual prediction
PCT/CN2015/092168 WO2016066028A1 (en) 2014-10-28 2015-10-19 Method of guided cross-component prediction for video coding

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020177013692A Division KR20170071594A (ko) 2014-10-28 2015-10-19 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법

Publications (1)

Publication Number Publication Date
KR20200051831A true KR20200051831A (ko) 2020-05-13

Family

ID=55856586

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020207012648A KR20200051831A (ko) 2014-10-28 2015-10-19 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법
KR1020177013692A KR20170071594A (ko) 2014-10-28 2015-10-19 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020177013692A KR20170071594A (ko) 2014-10-28 2015-10-19 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법

Country Status (7)

Country Link
US (1) US20170244975A1 (ko)
EP (1) EP3198874A4 (ko)
KR (2) KR20200051831A (ko)
CN (1) CN107079166A (ko)
CA (1) CA2964324C (ko)
SG (1) SG11201703014RA (ko)
WO (1) WO2016066028A1 (ko)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10419757B2 (en) * 2016-08-31 2019-09-17 Qualcomm Incorporated Cross-component filter
EP3386198A1 (en) * 2017-04-07 2018-10-10 Thomson Licensing Method and device for predictive picture encoding and decoding
GB2567249A (en) * 2017-10-09 2019-04-10 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
WO2019135636A1 (ko) * 2018-01-05 2019-07-11 에스케이텔레콤 주식회사 Ycbcr간의 상관 관계를 이용한 영상 부호화/복호화 방법 및 장치
KR20190083956A (ko) * 2018-01-05 2019-07-15 에스케이텔레콤 주식회사 YCbCr간의 상관 관계를 이용한 영상 부호화/복호화 방법 및 장치
GB2571313B (en) 2018-02-23 2022-09-21 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
GB2571312B (en) * 2018-02-23 2020-05-27 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
JP2021523586A (ja) * 2018-03-25 2021-09-02 ビー1、インスティテュート、オブ、イメージ、テクノロジー、インコーポレイテッドB1 Institute Of Image Technology, Inc. 映像符号化/復号化方法及び装置
WO2019194511A1 (ko) * 2018-04-01 2019-10-10 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US10448025B1 (en) * 2018-05-11 2019-10-15 Tencent America LLC Method and apparatus for video coding
WO2019221465A1 (ko) * 2018-05-14 2019-11-21 인텔렉추얼디스커버리 주식회사 영상 복호화 방법/장치, 영상 부호화 방법/장치 및 비트스트림을 저장한 기록 매체
CN117294852A (zh) 2018-07-15 2023-12-26 北京字节跳动网络技术有限公司 跨分量编解码顺序导出
GB2590844B (en) * 2018-08-17 2023-05-03 Beijing Bytedance Network Tech Co Ltd Simplified cross component prediction
WO2020041306A1 (en) * 2018-08-21 2020-02-27 Futurewei Technologies, Inc. Intra prediction method and device
CN110858903B (zh) * 2018-08-22 2022-07-12 华为技术有限公司 色度块预测方法及装置
TWI820212B (zh) 2018-09-12 2023-11-01 大陸商北京字節跳動網絡技術有限公司 單行交叉分量線性模型預測模式
CN112313950B (zh) * 2018-09-21 2023-06-02 Oppo广东移动通信有限公司 视频图像分量的预测方法、装置及计算机存储介质
WO2020076036A1 (ko) 2018-10-07 2020-04-16 주식회사 윌러스표준기술연구소 복수개의 참조 라인을 위한 mpm 구성 방법을 이용한 비디오 신호 처리 방법 및 장치
WO2020073864A1 (en) * 2018-10-08 2020-04-16 Huawei Technologies Co., Ltd. Intra prediction method and device
CN112840645B (zh) 2018-10-10 2023-12-12 寰发股份有限公司 视频编码***中组合多个预测子用于块预测的方法及装置
KR20230162148A (ko) 2018-10-12 2023-11-28 삼성전자주식회사 교차성분 선형 모델을 이용한 비디오 신호 처리 방법 및 장치
CN113039791B (zh) 2018-11-06 2024-02-23 北京字节跳动网络技术有限公司 帧内预测的参数推导中的复杂度降低
CN118200544A (zh) * 2018-11-23 2024-06-14 英迪股份有限公司 图像解码方法、图像编码方法和传输图像的比特流的方法
CN113170122B (zh) 2018-12-01 2023-06-27 北京字节跳动网络技术有限公司 帧内预测的参数推导
EP3871415A4 (en) 2018-12-07 2022-04-13 Beijing Bytedance Network Technology Co., Ltd. CONTEXT-BASED INTRAPREDICTION
CN113287311B (zh) 2018-12-22 2024-03-12 北京字节跳动网络技术有限公司 两步交叉分量预测模式的指示
WO2020149616A1 (ko) * 2019-01-14 2020-07-23 엘지전자 주식회사 영상 코딩 시스템에서 cclm 예측 기반 영상 디코딩 방법 및 그 장치
AU2020226565C1 (en) 2019-02-22 2024-01-11 Beijing Bytedance Network Technology Co., Ltd. Neighbouring sample selection for intra prediction
KR102472756B1 (ko) 2019-02-24 2022-12-01 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 인트라 예측을 위한 파라미터 유도
JP2022523925A (ja) 2019-03-04 2022-04-27 アリババ グループ ホウルディング リミテッド 映像コンテンツを処理するための方法及びシステム
KR102639936B1 (ko) 2019-03-08 2024-02-22 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 처리에서 모델-기반 변형에 대한 제약들
CN117880494A (zh) 2019-03-24 2024-04-12 北京字节跳动网络技术有限公司 用于帧内预测的参数推导的条件
WO2020192084A1 (zh) * 2019-03-25 2020-10-01 Oppo广东移动通信有限公司 图像预测方法、编码器、解码器以及存储介质
CN116320472A (zh) * 2019-03-25 2023-06-23 Oppo广东移动通信有限公司 图像预测方法、编码器、解码器以及存储介质
CN117425015A (zh) * 2019-04-09 2024-01-19 北京达佳互联信息技术有限公司 用于视频编码的方法、装置和存储介质
CA3135968C (en) 2019-04-18 2024-05-14 Beijing Bytedance Network Technology Co., Ltd. Restriction on applicability of cross component mode
JP7317991B2 (ja) * 2019-04-23 2023-07-31 北京字節跳動網絡技術有限公司 クロスコンポーネント依存性を低減するための方法
WO2020224629A1 (en) 2019-05-08 2020-11-12 Beijing Bytedance Network Technology Co., Ltd. Conditions for applicability of cross-component coding
CN113812161B (zh) * 2019-05-14 2024-02-06 北京字节跳动网络技术有限公司 视频编解码中的缩放方法
JP7418478B2 (ja) 2019-06-22 2024-01-19 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのためのシンタックス要素
CN117395396A (zh) 2019-07-07 2024-01-12 北京字节跳动网络技术有限公司 色度残差缩放的信令通知
US11399199B2 (en) * 2019-08-05 2022-07-26 Qualcomm Incorporated Chroma intra prediction units for video coding
EP3994886A4 (en) * 2019-08-06 2022-12-28 Beijing Bytedance Network Technology Co., Ltd. VIDEO ZONE PARTITION ACCORDING TO COLOR FORMAT
EP4008109A4 (en) 2019-09-02 2022-09-14 Beijing Bytedance Network Technology Co., Ltd. ENCODING MODE DETERMINATION BASED ON COLOR FORMAT
US11451834B2 (en) 2019-09-16 2022-09-20 Tencent America LLC Method and apparatus for cross-component filtering
CN114902666A (zh) 2019-10-28 2022-08-12 Lg电子株式会社 使用自适应颜色变换的图像编码/解码方法和装置以及发送比特流的方法
WO2021083259A1 (en) 2019-10-29 2021-05-06 Beijing Bytedance Network Technology Co., Ltd. Signaling of cross-component adaptive loop filter
JP7393550B2 (ja) 2019-12-11 2023-12-06 北京字節跳動網絡技術有限公司 クロス成分適応ループフィルタリングのためのサンプルパディング
WO2021136498A1 (en) * 2019-12-31 2021-07-08 Beijing Bytedance Network Technology Co., Ltd. Multiple reference line chroma prediction
US11516469B2 (en) 2020-03-02 2022-11-29 Tencent America LLC Loop filter block flexible partitioning
CN112514401A (zh) * 2020-04-09 2021-03-16 北京大学 环路滤波的方法与装置
WO2022002007A1 (en) 2020-06-30 2022-01-06 Beijing Bytedance Network Technology Co., Ltd. Boundary location for adaptive loop filtering
CN116671105A (zh) * 2020-10-28 2023-08-29 北京达佳互联信息技术有限公司 具有虚拟边界的跨分量样点自适应偏移中的色度编解码增强
WO2024007825A1 (en) * 2022-07-07 2024-01-11 Mediatek Inc. Method and apparatus of explicit mode blending in video coding systems
WO2024109618A1 (en) * 2022-11-21 2024-05-30 Mediatek Inc. Method and apparatus of inheriting cross-component models with cross-component information propagation in video coding system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100657919B1 (ko) * 2004-12-13 2006-12-14 삼성전자주식회사 화상 데이터의 공간상 예측 장치 및 방법과 그를 이용한부호화 장치 및 방법, 화상 데이터의 공간상 예측 보상장치 및 방법과 그를 이용한 복호화 장치 및 방법
KR100772873B1 (ko) * 2006-01-12 2007-11-02 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
KR101362757B1 (ko) * 2007-06-11 2014-02-14 삼성전자주식회사 인터 컬러 보상을 이용한 영상의 부호화 방법 및 장치,복호화 방법 및 장치
US9948938B2 (en) * 2011-07-21 2018-04-17 Texas Instruments Incorporated Methods and systems for chroma residual data prediction
CN103096051B (zh) * 2011-11-04 2017-04-12 华为技术有限公司 一种图像块信号分量采样点的帧内解码方法和装置
CN103918269B (zh) * 2012-01-04 2017-08-01 联发科技(新加坡)私人有限公司 色度帧内预测方法及装置
CN103957410B (zh) * 2013-12-30 2017-04-19 南京邮电大学 一种基于残差频域复杂度的i帧码率控制方法

Also Published As

Publication number Publication date
EP3198874A1 (en) 2017-08-02
CN107079166A (zh) 2017-08-18
KR20170071594A (ko) 2017-06-23
CA2964324C (en) 2020-01-21
EP3198874A4 (en) 2018-04-04
SG11201703014RA (en) 2017-05-30
WO2016066028A1 (en) 2016-05-06
US20170244975A1 (en) 2017-08-24
CA2964324A1 (en) 2016-05-06

Similar Documents

Publication Publication Date Title
CA2964324C (en) Method of guided cross-component prediction for video coding
JP6701270B2 (ja) 符号化装置、復号方法、符号化方法、復号方法、及びプログラム
US9565446B2 (en) Apparatus for encoding a moving picture
KR102008592B1 (ko) 비디오 코딩에서의 인트라 블록 복사를 위한 디블로킹 방법
WO2017084577A1 (en) Method and apparatus for intra prediction mode using intra prediction filter in video and image compression
WO2020228578A1 (en) Method and apparatus of luma most probable mode list derivation for video coding
EP3007447A1 (en) Method for improving intra-prediction of diagonal mode in video coding
KR20130030294A (ko) 영역 기반의 적응 루프 필터링의 방법 및 장치
US20190238838A1 (en) Devices and methods for video coding
JP7321365B2 (ja) クロマデブロックフィルタリングの量子化パラメータ
CN113228638B (zh) 在区块分割中条件式编码或解码视频区块的方法和装置
KR20210006306A (ko) 인터 예측을 이용하여 비디오를 부호화 및 복호화하는 방법 및 장치
CN110832854B (zh) 利用插值进行帧内预测的方法和装置
US11277621B2 (en) Devices and methods for video coding
CN117354511A (zh) 一种帧内预测方法、装置及解码器和编码器
CN110741642A (zh) 使用拟合平面和多个基准参考样本,以及多个次级参考样本进行定向帧内预测的装置和方法
US11785242B2 (en) Video processing methods and apparatuses of determining motion vectors for storage in video coding systems
WO2019206115A1 (en) Method and apparatus for restricted linear model parameter derivation in video coding
US20240179324A1 (en) Method and apparatus for video coding using an improved in-loop filter
JP2023086397A (ja) イントラ予測装置、復号装置、及びプログラム

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application