KR20210110796A - 화상 디코딩 방법, 디코더 및 컴퓨터 저장 매체 - Google Patents

화상 디코딩 방법, 디코더 및 컴퓨터 저장 매체 Download PDF

Info

Publication number
KR20210110796A
KR20210110796A KR1020217016139A KR20217016139A KR20210110796A KR 20210110796 A KR20210110796 A KR 20210110796A KR 1020217016139 A KR1020217016139 A KR 1020217016139A KR 20217016139 A KR20217016139 A KR 20217016139A KR 20210110796 A KR20210110796 A KR 20210110796A
Authority
KR
South Korea
Prior art keywords
picture
decoding
bit stream
control identifier
current video
Prior art date
Application number
KR1020217016139A
Other languages
English (en)
Inventor
솨이 완
옌줘 마
쥔옌 훠
Original Assignee
광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 filed Critical 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드
Publication of KR20210110796A publication Critical patent/KR20210110796A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 출원의 실시예는 화상 디코딩 방법, 디코더 및 컴퓨터 저장 매체를 개시한다. 상기 화상 디코딩 방법은 현재 비디오 화상에 대응하는 비트 스트림을 획득하는 것과, 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득하는 것과, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우에 프리셋 크로스 디코딩 기능을 무효시키는 것 - 프리셋 크로스 디코딩 기능은 화상 컴포넌트 사이의 의존성을 기반으로 디코딩 처리를 수행하는 데에 사용됨 - 을 포함한다.

Description

화상 디코딩 방법, 디코더 및 컴퓨터 저장 매체
본 출원의 실시예는 비디오 화상의 코딩 기술 분야에 관한 것으로, 보다 구체적으로 화상 디코딩 방법, 디코더 및 컴퓨터 저장 매체에 관한 것이다.
차세대 비디오 코딩 표준 H.266 또는 다용도 비디오 코딩(versatile video coding, VVC)는 컴포넌트 사이에 의존성이 존재하는 것을 허용한다. 따라서, CCLM(cross-component linear model prediction) 및 DM(direct mode)을 통해 휘도값(luma value)에서 채도값(chroma value)에 대한 예측 또는 채도값 사이의 예측을 실현할 수 있다.
CCLM 등과 같은 크로스 컴포넌트 의존성 코딩 모드(즉, 인코딩/디코딩)는 코딩 효율을 향상시킬 수 있지만, 빠른 처리 또는 고급 병렬 처리를 필요하는 시나리오에 대하여, 크로스 컴포넌트 의존성 코딩 모드는 병렬 코딩에 효과적으로 사용할 수 없으며, 복잡성이 높다는 단점이 있다.
본 출원의 실시예는 화상 디코딩 방법, 디코더 및 컴퓨터 저장 매체를 제공하고, 빠른 처리 또는 고급 병렬 처리를 필요하는 시나리오에서 병렬 코딩을 실현할 수 있고, 코딩의 복잡성을 낮출 수 있다.
본 출원의 실시예에 따른 기술적 해결책은 다음과 같다.
본 출원의 실시예에 따른 화상 디코딩 방법은,
현재 비디오 화상에 대응하는 비트 스트림을 획득하는 것과,
비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득하는 것과,
제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우에 프리셋 크로스 디코딩 기능을 무효시키는 것 - 프리셋 크로스 디코딩 기능은 화상 컴포넌트 사이의 의존성을 기반으로 디코딩 처리를 수행하는 데에 사용됨 - 을 포함한다.
본 출원의 실시예는 화상 디코딩 방법, 디코더 및 컴퓨터 저장 매체를 제공한다. 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 획득하고, 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득하며, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우에 프리셋 크로스 디코딩 기능을 무효시킨다. 프리셋 크로스 디코딩 기능은 화상 컴포넌트 사이의 의존성을 기반으로 디코딩 처리를 수행하는 데에 사용된다. 즉, 본 출원의 실시예에 있어서, 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 분석하여 화상 컴포넌트 사이에 의존성이 존재하는 것을 허용하는지 여부를 확정하는 데에 사용되는 비트 스트림 내의 제어 식별자를 획득할 수 있다. 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우, 즉 화상 컴포넌트 사이에 의존성이 존재하는 것을 허용하지 않는 경우, 디코더는 프리셋 크로스 디코딩 기능을 무효시킬 필요가 있으며, 즉 디코더는 화상 컴포넌트 사이의 의존성을 기반으로 현재 비디오 화상을 복호화하지 않는다. 따라서 빠른 처리 또는 고급 병렬 처리를 필요하는 시나리오에서 병렬 코딩을 실현할 수 있고, 코딩의 복잡성을 낮출 수 있다. 동시에 이러한 시나리오에서, 코딩 유닛(coding unit, CU) 계층에서 디코딩은 화상 컴포넌트 사이의 의존성을 기반으로 하지 않는 것을 나타내는 비트를 생략함으로써, 이 시나리오에서의 코딩 효율을 향상시킬 수 있다.
도 1은 비디오 인코딩 시스템의 구조를 나타내는 도면이다.
도 2는 비디오 디코딩 시스템의 구조를 나타내는 도면이다.
도 3은 본 출원의 실시예에 따른 화상 디코딩 방법의 제 1 흐름도이다.
도 4는 본 출원의 실시예에 따른 화상 디코딩 방법의 제 2 흐름도이다.
도 5는 본 출원의 실시예에 따른 화상 디코딩 방법의 제 3 흐름도이다.
도 6은 본 출원의 실시예에 따른 화상 디코딩 방법의 제 4 흐름도이다.
도 7은 본 출원의 실시예에 따른 화상 디코딩 방법의 제 5 흐름도이다.
도 8은 본 출원의 실시예에 따른 디코더의 제 1 구조도이다.
도 9는 본 출원의 실시예에 따른 디코더의 제 2 구조도이다.
이하, 본 출원의 실시예의 도면을 참조하여 본 출원의 실시예의 기술적 방안을 명확하고 완전하게 설명한다. 본 명세서에 기재된 구체적인 실시예는 관련 출원을 설명하는 데에 사용되며, 본 출원을 한정하고자 하는 것은 아님을 이해할 수 있다. 또한, 쉽게 설명하기 위하여, 관련 출원의 관련된 부분만을 도면에 도시한다.
비디오를 부호화하는 것은 각 화상을 부호화하는 것이다. 마찬가지로, 비디오 인코딩 및 압축에 의해 획득된 비디오 비트 스트림을 복호화하는 것은 각 화상의 비트 스트림을 복호화하는 것이다. 거의 모든 비디오 화상 인코딩의 국제 표준에서, 1 프레임의 화상을 부호화하는 경우, 1 프레임의 화상을 여러 개의 블록, 즉 M×M 픽셀의 서브 화상으로 분할할 필요가 있으며, 각 블록은 코딩 유닛(coding unit, CU)이라고 하며, CU를 기본 코딩 유닛으로 하여 서브 화상을 한 블록씩 부호화한다. M의 값은 보통 4, 8, 16, 32, 64이다. 따라서, 하나의 비디오 화상 시퀀스를 부호화하는 것은 각 화상의 각 코딩 유닛, 즉 각 코딩 유닛을 순차적으로 부호화하는 것이며, 하나의 비디오 화상 시퀀스의 비트 스트림을 복호화하는 것은 각 화상의 각 코딩 유닛을 순차적으로 복호화하는 것이며, 마지막으로 비디오 화상 시퀀스 전체를 재구성한다.
비디오 화상에 있어서, 일반적으로 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트로 코딩 블록을 나타낸다. 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트는 각각 휘도 컴포넌트, 청색 색도 컴포넌트 및 적색 색도 컴포넌트이다. 구체적으로, 휘도 컴포넌트는 일반적으로 기호 Y로 나타내고, 청색 색도 컴포넌트는 일반적으로 기호 Cb로 나타내며, 적색 색도 컴포넌트는 일반적으로 기호 Cr로 나타낸다.
본 출원의 실시예에 있어서, 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트는 각각 컴포넌트 Y, 청색 색도 컴포넌트 Cb 및 적색 색도 컴포넌트 Cr이다. 예를 들어, 제 1 화상 컴포넌트는 휘도 컴포넌트 Y일 수 있고, 제 2 화상 컴포넌트는 적색 색도 컴포넌트 Cr일 수 있으며, 제 3 화상 컴포넌트는 청색 색도 컴포넌트 Cb일 수 있으며, 본 출원의 실시예는 이것에 대하여 구체적으로 한정하지 않는다.
H. 266에 있어서, 코딩 성능 및 코딩 효율을 향상시키기 위하여, 크로스 컴포넌트 예측(cross-component prediction, CCP)을 확장 및 개선하였다. H. 266에 있어서, CCLM은 제 1 화상 컴포넌트에서 제 2 화상 컴포넌트로, 제 1 화상 컴포넌트에서 제 3 화상 컴포넌트로, 및 제 2 화상 컴포넌트와 제 3 화상 컴포넌트 사이의 예측을 실현하였다. 다시 말하면, CCLM 예측 모드는 휘도 컴포넌트를 통해 색도 컴포넌트를 예측하는 방법(즉, 제 1 화상 컴포넌트를 통해 제 2 화상 컴포넌트를 예측하거나 또는 제 1 화상 컴포넌트를 통해 제 3 화상 컴포넌트를 예측하는 방법)을 포함할 뿐만 아니라, 두 색도 컴포넌트 사이의 예측 방법(제 2 화상 컴포넌트와 제 3 화상 컴포넌트 사이의 예측 방법)도 포함한다. 본 출원의 실시예에 있어서, 제 2 화상 컴포넌트와 제 3 화상 컴포넌트 사이의 예측 방법은 Cb 컴포넌트를 통해 Cr 컴포넌트를 예측할 수 있으며, Cr 컴포넌트를 통해 Cb 컴포넌트를 예측할 수도 있다.
비디오 코딩 표준에서 크로스 컴포넌트 의존성의 존재를 허용하는 CCLM 및 DM 등 기술에 대하여, 3D 비디오 및 포인트 클라우드 등 미래의 미디어 코딩은 이러한 도구에 관련될 수 있다. 이러한 기술에서, 휘도 컴포넌트를 사용하여 색도 컴포넌트, 코딩 모드 및 잔차 등 정보를 예측할 수 있고, 또한 색도 컴포넌트 사이의 예측도 가능하기 때문에, 코딩 효율을 대폭 향상시킬 수 있다. 그러나 크로스 컴포넌트 의존성은 병렬 코딩에 도전을 가져온다. 즉, 일부 시나리오에서, 코딩 과정의 복잡성을 낮추기 위하여, 휘도 컴포넌트와 색도 컴포넌트 사이 및 서로 다른 색도 컴포넌트 사이, 또는 서로 다른 색상 컴포넌트 사이의 의존성을 사용하지 않을 필요가 있다.
본 출원의 실시예는 비트 스트림에 서로 다른 화상 컴포넌트 사이의 크로스 코딩을 허용하는지 여부를 나타내는 제어 식별자를 추가함으로써, CCLM이나 DM 등 기술의 인에이블링 제어를 수행할 있으며, 코덱이 병렬 코딩에 효과적으로 사용될 수 있도록 하며, 코딩 복잡성이 높다는 단점을 극복할 수 있다. 도 1은 비디오 인코딩 시스템의 구조를 나타내는 도면이다. 도 1에 도시된 바와 같이, 비디오 인코딩 시스템(200)은 변환 및 양자화 유닛(201), 인트라 추정 유닛(202), 인트라 예측 유닛(203), 모션 보상 유닛(204), 모션 추정 유닛(205), 역변환 및 역양자화 유닛(206), 필터 제어 분석 유닛(207), 필터링 유닛(208), 엔트로피 코딩 유닛(209) 및 현재 비디오 화상 버퍼 유닛(210) 등을 포함한다. 필터링 유닛(208)은 디블로킹 필터링(deblocking filtering) 및 샘플 적응 오프셋(sample adaptive offset, SAO) 필터링을 실현할 수 있으며, 엔트로피 코딩 유닛(209)은 헤더 정보 인코딩 및 CABAC(context-based adaptive binary arithmetic coding)를 실현할 수 있다.
입력된 원본 비디오 신호에 대하여, 예비 분할을 통해 코딩 트리 유닛(coding tree unit, CTU)를 얻을 수 있으며, 하나의 CTU에 대하여 콘텐츠 적응 분할을 수행하여 CU를 얻을 수 있다. CU는 일반적으로 하나 이상의 코딩 블록(coding block, CB)을 포함한다. 그 다음에 인트라 예측(intra prediction) 또는 인터 예측(inter prediction)을 통해 획득된 잔차 픽셀 정보에 대하여, 변환 및 양자화 유닛(201)을 통해 코딩 블록을 변환하며, 잔차 정보를 픽셀 도메인에서 변환 도메인으로 변환하고, 비트 레이트를 더 낮추기 위하여 얻어진 변환 계수를 양자화하는 것을 포함한다. 인트라 추정 유닛(202) 및 인트라 예측 유닛(203)은 비디오 코딩 블록에 대하여 인트라 예측을 수행하는 데에 사용된다. 구체적으로 설명하면, 인트라 추정 유닛(202) 및 인트라 예측 유닛(203)은 비디오 코딩 블록을 부호화하는 데에 사용되는 인트라 예측 모드를 확정하는 데에 사용된다. 모션 보상 유닛(204) 및 모션 추정 유닛(205)은 시간 예측 정보를 제공하기 위하여 하나 이상의 참조 프레임 내의 하나 이상의 블록에 대한 수신된 비디오 코딩 블록의 인터 예측 코딩(inter-predictive coding)을 실행하는 데에 사용된다. 모션 추정 유닛(205)에 의해 수행되는 모션 추정은 모션 벡터를 생성하는 프로세스이며, 모션 벡터는 코딩 블록의 움직임을 추정할 수 있다. 모션 보상 유닛(204)은 모션 추정 유닛(205)에 의해 확정된 모션 벡터를 기반으로 모션 보상을 수행하는 데에 사용된다. 인트라 예측 모드를 확정한 다음에, 인트라 예측 유닛(203)은 또한 선택된 인트라 예측 데이터를 엔트로피 코딩 유닛(209)에 제공하는 데에 사용되며, 모션 추정 유닛(205)은 계산된 모션 벡터 데이터를 엔트로피 코딩 유닛(209)으로 전송하는 데에 사용된다. 역변환 및 역양자화 유닛(206)은 코딩 블록을 재구성하는 데에 사용된다. 잔차 블록은 픽셀 영역에서 재구성되고, 재구성된 잔차 블록의 블록화 아티팩트(blockiness artifacts)는 필터 제어 분석 유닛(207) 및 필터링 유닛(208)을 통해 제거되고, 그리고 재구성된 잔차 블록은 현재 비디오 화상 버퍼 유닛(210)의 프레임 내의 하나의 예측 블록에 추가되어 재구성된 비디오 코딩 블록을 생성하는 데에 사용된다. 엔트로피 코딩 유닛(209)은 다양한 인코딩 파라미터 및 양자화된 변환 계수를 부호화하는 데에 사용된다. CABAC를 기반으로 하는 인코딩 알고리즘에서 컨텍스트는 인접한 코딩 블록을 기반으로 할 수 있으며, 엔트로피 코딩 유닛(209)을 사용하여 확정된 인트라 예측 모드를 나타내는 정보를 부호화하여 비디오 신호의 비트 스트림을 출력할 수 있다. 현재 비디오 화상 버퍼 유닛(210)은 예측 참조를 위해 재구성된 코딩 블록을 저장하는 데에 사용된다. 비디오 화상의 인코딩이 진행됨에 따라, 새로운 재구성된 코딩 블록이 지속적으로 생성되고, 이러한 재구성된 코딩 블록은 모두 현재의 비디오 화상 버퍼 유닛(210)에 저장된다.
도 2는 비디오 디코딩 시스템의 구조를 나타내는 도면이다. 도 2에 도시된 바와 같이, 비디오 디코딩 시스템(300)은 엔트로피 디코딩 유닛(301), 역변환 및 역양자화 유닛(302), 인트라 예측 유닛(303), 모션 보상 유닛(304), 필터링 유닛(305) 및 현재 비디오 화상 버퍼 유닛(306) 등을 포함한다. 엔트로피 디코딩 유닛(301)은 헤더 정보 디코딩 및 CABAC를 실현할 수 있고, 필터링 유닛(305)은 디블로킹 필터링(debocking filtering) 및 SAO 필터링을 실현할 수 있다. 입력된 비디오 신호는 부호화된 후에(도 2에 도시된 바와 같다) 비디오 신호의 비트 스트림을 출력한다. 비트 스트림은 비디오 디코딩 시스템(300)에 입력된다. 우선, 엔트로피 디코딩 유닛(301)을 통해 복호화된 변환 계수를 획득한다. 복호화된 변환 계수는 역변환 및 역양자화 유닛(302)에 의해 처리되어 픽셀 영역에서 잔차 블록을 생성한다. 인트라 예측 유닛(303)은 확정된 인트라 예측 모드 및 현재 프레임 또는 화상의 이전 복호화된 블록(previous decoded block)으로부터의 데이터를 기반으로 현재 코딩 블록(current coding block)의 예측 데이터를 생성하는 데에 사용될 수 있다. 모션 보상 유닛(304)은 움직임 벡터 및 기타 관련 문법 요소를 분석함으로써 코딩 블록의 예측 정보를 확정하는 데에 사용되며, 또한 예측 정보를 사용하여 복호화되고 있는 코딩 블록의 예측 블록을 생성한다. 역변환 및 역양자화 유닛(302)으로부터의 잔차 블록과 인트라 예측 유닛(303) 또는 모션 보상 유닛(304)에 의해 생성된 대응하는 예측 블록을 합계하여 복호화된 비디오 블록을 형성한다. 복호화된 비디오 신호의 블록화 아티팩트(blockiness artifacts)는 필터링 유닛(305)을 통해 제거되고, 비디오 품질을 향상시킬 수 있다. 다음으로, 복호화된 비디오 블록은 현재 비디오 화상 버퍼 유닛(306)에 저장된다. 현재 비디오 화상 버퍼 유닛(306)은 후속 인트라 예측 또는 움직임 보상에 사용되는 참조 화상을 저장하는 데에 사용되며, 동시에 비디오 신호를 출력하는 데도 사용되며, 즉 복원된 원본 비디오 신호를 획득한다.
이하, 본 출원의 실시예의 도면을 참조하면서 본 출원의 실시예의 기술적 방안을 명확하고 완전하게 설명한다.
하나의 실시예에 있어서, 본 출원의 실시예는 화상 디코딩 방법을 제공한다. 도 3은 본 출원의 실시예에 따른 화상 디코딩 방법의 제 1 흐름도이다. 도 3에 도시된 바와 같이, 본 출원의 실시예에 있어서, 디코더에 의해 실행되는 화상 디코딩 방법은 아래 단계를 포함할 수 있다.
단계 101, 현재 비디오 화상에 대응하는 비트 스트림을 획득한다.
본 출원의 실시예에 있어서, 디코더는 먼저 현재 비디오 화상에 대응하는 비트 스트림을 획득할 수 있다.
또한, 본 출원의 실시예에 있어서, 비트 레이트는 데이터 레이트이며, 비디오 파일이 단위 시간 내에 사용하는 데이터 트래픽(data traffic)을 의미하며, 비디오 인코딩에 있어서 화면 품질 관리의 중요한 부분이다.
설명하여야만 하는 것은, 본 출원의 실시예에 있어서, 인코더는 현재 비디오 화상을 부호화한 후에 대응하는 비트 스트림을 생성하여 저장 또는 전송할 수 있다. 따라서, 디코더는 현재 비디오 화상을 복호화할 때, 먼저 현재 비디오 화상에 대응하는 비트 스트림을 수신할 수 있다.
단계 102, 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득한다.
본 출원의 실시예에 있어서, 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 획득한 후에 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득할 수 있다.
설명하여야만 하는 것은, 본 출원의 실시예에 있어서, 제어 식별자는 현재 비디오 화상에 대응하는 서로 다른 화상 컴포넌트 사이의 관계를 나타내는 데에 사용될 수 있다. 구체적으로, 본 출원의 실시예에 있어서, 현재 비디오 화상에 대응하는 서로 다른 화상 컴포넌트 사이의 관계는 서로 의존할 수 있고 서로 독립적일 수도 있다.
또한, 인코더는 현재 비디오 화상을 부호화할 때에 현재 비디오 화상 내의 서로 다른 화상 컴포넌트 사이의 관계에 따라 제어 식별자를 확정할 수 있다. 예를 들어, 인코더가 현재 비디오 화상을 부호화하는 과정에서 서로 다른 화상 컴포넌트 사이의 의존성을 사용하지 않는 경우, 즉 휘도 컴포넌트와 채도 컴포넌트 사이 및 서로 다른 채도 컴포넌트 사이의 의존성을 사용하지 않는 경우, 인코더는 비트 스트림 내의 제어 식별자를 0으로 확정한다. 인코더가 현재 비디오 화상을 부호화하는 과정에서 서로 다른 화상 컴포넌트 사이의 의존성을 사용하는 경우, 즉 휘도 컴포넌트와 채도 컴포넌트 사이 및 서로 다른 채도 컴포넌트 사이의 의존성을 사용하는 경우, 인코더는 비트 스트림 내의 제어 식별자를 1로 확정한다.
마찬가지로, 디코더가 현재 비디오 화상에 대응하는 비트 스트림을 분석할 때, 분석에 의해 획득된 비트 스트림 내의 제어 식별자가 1인 경우, 디코더는 비디오 화상을 복호화하는 과정에서 서로 다른 화상 컴포넌트 사이의 의존성을 사용할 필요가 있다고 판단하며, 즉 휘도 컴포넌트와 채도 컴포넌트 사이 및 서로 다른 채도 컴포넌트 사이의 의존성을 사용할 필요가 있다. 분석에 의해 획득된 비트 스트림 내의 제어 식별자가 0인 경우, 디코더는 비디오 화상을 복호화하는 과정에서 서로 다른 화상 컴포넌트 사이의 의존성을 사용할 필요가 없다고 판단하며, 즉 휘도 컴포넌트와 채도 컴포넌트 사이 및 서로 다른 채도 컴포넌트 사이의 의존성을 사용할 필요가 없다.
설명하여야만 하는 것은, 본 출원의 실시예에 있어서, 현재 비디오 이미지 화상에 대응하는 서로 다른 화상 컴포넌트는 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트, 즉 Y, Cb 및 Cr, 3개의 화상 컴포넌트를 포함할 수 있다. 따라서, 디코더가 제어 식별자에 의해 현재 비디오 화상에 대응하는 서로 다른 화상 컴포넌트 사이의 관계를 나타내는 경우, 제어 식별자에 의해 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트 사이의 상호 의존 관계 또는 상호 독립 관계를 나타낼 수 있으며, 제어 식별자에 의해 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트 중 적어도 2개의 화상 컴포넌트 사이의 상호 의존 관계 또는 상호 독립 관계를 나타낼 수도 있다. 또한, 본 출원의 실시예에 있어서, 디코더가 현재 비디오 화상에 대응하는 비트 스트림을 분석한 후에, 분석 후에 획득한 제어 식별자는 비트 스트림 내의 시퀀스 파라미터 세트(sequence parameter set, SPS), 화상 파라미터 세트(picture parameter set, PPS), 보충 확장 정보(supplemental enhancement information, SEI), 코딩 트리 유닛 및 코딩 유닛 중 하나 또는 복수 개에 위치할 수 있다.
H.264/AVC 비디오 코딩 표준에서, 시스템 프레임 워크 전체는 2개의 계층으로 분할되며, 네트워크 추상화 계층(network abstraction layer, NAL) 및 비디오 코딩 계층(video coding layer, VCL)을 포함한다. VCL은 비디오 데이터의 내용을 효과적으로 나타내는 것을 담당하고, NAL은 데이터가 다양한 채널 및 저장 매체에서의 전송에 적합하도록, 데이터의 포맷과 헤더 정보를 제공하는 것을 담당한다.
또한 H.264 표준 프로토콜은 다양한 서로 다른 NAL 유닛 타입을 규정하고, 서로 다른 NAL 유닛은 서로 다른 데이터를 저장한다. H.264 비트 스트림의 첫 번째 NAL 유닛은 SPS이고, H.264 비트 스트림의 두 번째 NAL 유닛은 PPS이며, H.264 비트 스트림의 세 번째 NAL 유닛은 즉시 디코딩 리프레시(instantaneous decoding refresh, IDR)이다.
설명하여야만 하는 것은, 본 출원의 실시예에 있어서, SPS 및 PPS를 제외하고, 비디오 화상에 대응하는 각 프레임 데이터는 NAL 유닛이다.
또한, 본 출원의 실시예에 있어서, SPS 정보는 매우 중요하며, SPS 내의 데이터를 잃거나 또는 오류가 발생하면, 디코딩이 실패할 가능성이 있다. 구체적으로, SPS는 iOS의 VideoToolBox 등 플랫폼의 비디오 처리 프레임 워크에서 일반적으로 디코더 인스턴스의 초기화 정보로 사용된다.
설명하여야만 하는 것은, 본 출원의 실시예에 있어서, 한 그룹의 부호화된 비디오 시퀀스의 글로벌 매개 변수가 SPS에 저장된다. 부호화된 비디오 시퀀스는 원래 비디오의 각 화상의 픽셀 데이터가 부호화된 후에 구성된 시퀀스를 가리킨다. 각 화상의 부호화된 데이터가 의존하는 파라미터는 PPS에 저장된다.
또한, SPS 및 PPS의 NAL 유닛은 일반적으로 비트 스트림 전체의 시작 부분에 위치한다. 그러나 일부 특수한 상황에서, 예를 들면, 디코더가 비트 스트림의 중간에서 디코딩을 시작하여야 하거나 또는 인코더가 인코딩 과정에서 비트 스트림의 파라미터(화상 해상도 등)를 변경하는 경우, 상기 두가지 구조가 비트 스트림의 중앙에 위치하는 경우도 있다.
단계 103, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우에 프리셋 크로스 디코딩 기능을 무효시킨다. 프리셋 크로스 디코딩 기능은 화상 컴포넌트 사이의 의존성을 기반으로 디코딩 처리를 수행하는 데에 사용된다.
본 출원의 실시예에 있어서, 디코더가 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득한 후에, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우, 디코더는 프리셋 크로스 디코딩 기능을 무효시킨다
설명하여야만 하는 것은, 본 출원의 실시예에 있어서, 프리셋 크로스 디코딩 기능은 화상 컴포넌트 사이의 의존성에 따라 디코딩 처리를 수행하는 데에 사용된다. 즉, 디코더가 현재 비디오 화상을 복호화할 때, 프리셋 크로스 디코딩 기능은 컴포넌트 사이의 의존성을 허용한다. 즉, 디코더는 CCLM 또는 DM을 통해 현재 비디오 화상을 복호화할 수 있다.
또한, 본 출원의 실시예에 있어서, 디코더는 분석에 의해 비트 스트림 내의 제어 식별자를 획득한 후에, 제어 식별자에 대응하는 디코딩 방식을 확정할 수 있다. 구체적으로, 제어 식별자에 대응하는 디코딩 방식은 화상 컴포넌트의 독립 디코딩 또는 화상 컴포넌트의 크로스 디코딩이다.
설명하여야만 하는 것은, 본 출원의 실시예에 있어서, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 독립 디코딩인 경우, 디코더는 서로 다른 화상 컴포넌트 사의의 의존성을 사용하여 복호화할 수 없으며, 즉 디코더는 한가지 화상 컴포넌트에 따라 독립적인 디코딩 처리를 수행하여야 한다. 예를 들어, 디코더의 분석에 의해 획득된 비트 스트림 내의 제어 식별자가 0인 경우, 인코더가 현재 비디오 화상을 부호화할 때에 휘도 컴포넌트와 색도 컴포넌트 사이 및 서로 다른 색도 컴포넌트 사이의 의존성을 사용하지 않는 것으로 간주할 수 있으며, 따라서 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 독립 디코딩인 경우, 디코더도 휘도 컴포넌트와 색도 컴포넌트 사이 및 서로 다른 색도 컴포넌트 사이의 의존성을 사용하지 않고 현재 비디오 화상을 복호화한다.
설명하여야만 하는 것은, 본 출원의 실시예에 있어서, 디코더가 제어 식별자에 의해 현재 비디오 화상에 대응하는 서로 다른 화상 컴포넌트 사이의 관계를 나타내는 경우, 제어 식별자에 의해 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트 사이의 상호 의존 관계 또는 상호 독립 관계를 나타낼 수 있으며, 제어 식별자에 의해 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트 중 적어도 2개의 화상 컴포넌트 사이의 상호 의존 관계 또는 상호 독립 관계를 나타낼 수도 있다. 따라서, 제어 식별자에 대응하는 디코딩 방식은 3개의 화상 컴포넌트 사이의 화상 컴포넌트 독립 디코딩 및 3개의 화상 컴포넌트 사이의 화상 컴포넌트 크로스 디코딩을 포함할 수 있으며, 임의의 2개의 화상 컴포넌트 사이의 화상 컴포넌트 독립 디코딩 및 임의의 2개의 화상 컴포넌트 사이의 화상 컴포넌트 크로스 디코딩을 포함할 수도 있다. 예를 들어, 제어 식별자가 Y, Cb 및 Cr 이 세가지 화상 컴포넌트 사이의 관계를 나타내는 경우, 비트 스트림 내의 제어 식별자가 1인 경우, 인코더가 현재 비디오 화상을 부호화할 때에 휘도 컴포넌트와 색도 컴포넌트 사이 및 서로 다른 색도 컴포넌트 사이의 의존성을 사용한다고 간주할 수 있으며, 따라서 디코더는 Y, Cb 및 Cr 이 세가지 화상 컴포넌트 사이의 의존성을 사용할 수 있다. 제어 식별자가 Cb와 Cr 이 두가지 화상 컴포넌트 사이의 관계를 나타내는 경우, 비트 스트림 내의 제어 식별자가 0인 경우, 인코더가 현재 비디오 화상을 부호화할 때에 서로 다른 채도 컴포넌트 사이의 의존성을 사용하지 않는 것으로 간주할 수 있으며, 따라서 디코더는 Cb와 Cr 이 두가지 화상 컴포넌트 사이의 의존성을 사용하지 않지만, Y와 Cb 이 두가지 컴포넌트 사이의 의존성 및 Y와 Cr 이 두가지 컴포넌트 사이의 의존성을 사용한다.
본 출원의 실시예에 있어서, 또한, 도 4는 본 출원의 실시예에 따른 화상 디코딩 방법의 제 2 흐름도이다. 도 4에 도시된 바와 같이, 디코더는 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득한 후에, 즉 단계 102 후에, 디코더에 의해 실행되는 화상 디코딩 방법은 아래 단계를 더 포함할 수 있다.
단계 104, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 크로스 디코딩인 경우에 프리셋 크로스 디코딩 기능을 유효시킨다.
본 출원의 실시예에 있어서, 디코더가 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득한 후에 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 크로스 디코딩인 경우, 디코더는 프리셋 크로스 디코딩 기능을 유효시킬 수 있다.
설명하여야만 하는 것은, 본 출원의 실시예에 있어서, 디코더가 비트 스트림을 분석하여 제어 식별자를 획득한 후에, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 크로스 디코딩인 경우, 디코더는 서로 다른 화상 컴포넌트 사이의 의존성을 사용하여 복호화할 수 있으며, 즉 CCLM 또는 DM 등 방식을 통해 현재 비디오 화상을 복호화할 수 있다. 예를 들어, 디코더의 분석에 의해 획득된 비트 스트림 내의 제어 식별자가 1인 경우, 인코더가 현재 비디오 화상을 부호화할 때 휘도 컴포넌트와 채도 컴포넌트 사이 및 서로 다른 채도 컴포넌트 사이의 의존성을 사용한다고 간주할 수 있으며, 따라서 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 크로스 디코딩이라고 확정할 수 있으며, 디코더는 휘도 컴포넌트와 채도 컴포넌트 사이 및 서로 다른 채도 컴포넌트 사이의 의존성을 사용하여 현재 비디오 화상을 디코딩한다.
본 출원의 실시예에 있어서, 또한, 도 5는 본 출원의 실시예에 따른 화상 디코딩 방법의 제 3 흐름도이다. 도 5에 도시된 바와 같이, 디코더는 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득한 후에, 즉 단계 102 후에, 디코더에 의해 실행되는 화상 디코딩 방법은 아래 단계를 더 포함할 수 있다.
단계 105, 제어 식별자에 대응하는 디코딩 방식이 DM 금지인 경우, DM은 무효된다.
본 출원의 실시예에 있어서, 디코더가 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득한 후에, 제어 식별자에 대응하는 디코딩 방식이 DM 금지인 경우, 디코더는 DM을 무효시킬 수 있다.
설명하여야만 하는 것은, 본 출원의 실시예에 있어서, 비트 스트림 내의 제어 식별자는 DM 기술을 "사용함" 또는 "사용하지 않음"을 나타낼 수 있다. 구체적으로, 제어 식별자에 대응하는 디코딩 방식이 DM 금지인 경우, 디코더는 현재 비디오 화상을 복호화할 때 DM을 무효시킬 필요가 있다. 제어 식별자에 대응하는 디코딩 방식이 DM 허용인 경우, 디코더는 현재 비디오 화상을 복호화할 때에 DM을 유효시킬 필요가 있다.
또한, 본 출원의 실시예에 있어서, 비트 스트림 내의 제어 식별자는 화상 컴포넌트 사이의 의존성을 기반으로 하는 어떤 기술이나 표현 방법을 "사용함" 또는 "사용하지 않음"을 나타낼 수 있다. 즉, 본 출원의 실시예에 있어서, 비트 스트림 내의 제어 식별자는 DM 기술의 사용을 제어하는 데에 사용되는 도구일 뿐만 아니라, 화상 컴포넌트 사이의 의존성을 기반으로 하는 다른 기술의 사용을 제어하는 데에 사용되는 도구이며, 본 출원은 구체적으로 한정하지 않는다.
본 출원에 따른 화상 디코딩 방법에 있어서, 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 획득하고, 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득하며, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우에 프리셋 크로스 디코딩 기능을 무효시킨다. 프리셋 크로스 디코딩 기능은 화상 컴포넌트 사이의 의존성을 기반으로 디코딩 처리를 수행하는 데에 사용된다. 즉, 본 출원의 실시예에 있어서, 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 분석하여 화상 컴포넌트 사이에 의존성이 존재하는 것을 허용하는지 여부를 확정하는 데에 사용되는 비트 스트림 내의 제어 식별자를 획득할 수 있다. 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우, 즉 화상 컴포넌트 사이에 의존성이 존재하는 것을 허용하지 않는 경우, 디코더는 프리셋 크로스 디코딩 기능을 무효시킬 필요가 있으며, 즉 디코더는 화상 컴포넌트 사이의 의존성을 기반으로 현재 비디오 화상을 복호화하지 않는다. 따라서 빠른 처리 또는 고급 병렬 처리를 필요하는 시나리오에서 병렬 코딩을 실현할 수 있고, 코딩의 복잡성을 낮출 수 있다. 동시에 이러한 시나리오에서, 코딩 유닛(coding unit, CU) 계층에서 디코딩은 화상 컴포넌트 사이의 의존성을 기반으로 하지 않는 것을 나타내는 비트를 생략함으로써, 이 시나리오에서의 코딩 효율을 향상시킬 수 있다.
상술한 실시예에 따라, 본 출원의 다른 실시예에 있어서, 단계 101 ~ 단계 103의 화상 컴포넌트는 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트를 포함할 수 있다. 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트는 각각 휘도 컴포넌트 Y, 청색 색도 컴포넌트 Cb 및 적색 색도 컴포넌트 Cr이다. 예를 들어, 제 1 화상 컴포넌트는 휘도 컴포넌트 Y일 수 있고, 제 2 화상 컴포넌트는 적색 색도 컴포넌트 Cr일 수 있으며, 제 3 화상 컴포넌트는 청색 색도 컴포넌트 Cb일 수 있으며, 본 출원의 실시예는 이것에 대하여 구체적으로 한정하지 않는다.
본 출원의 실시예에 있어서, 또한, 도 6은 본 출원의 실시예에 따른 화상 디코딩 방법의 제 4 흐름도이다. 도 6에 도시된 바와 같이, 상술한 단계 101 ~ 단계 105에 기재된 방법에 관하여, 디코더는 비트 스트림을 분석하여 현재비디오 화상에 대응하는 제어 식별자를 획득하는 것은 아래 내용을 포함할 수 있다.
단계 201, 비트 스트림을 분석한 다음에, 비트 스트림 내의 SPS에서 제어 식별자를 획득한다.
본 출원의 실시예에 있어서, 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 획득한 다음에 비트 스트림을 분석하여 비트 스트림 내의 SPS에서 현재 비디오 화상에 대응하는 제어 식별자를 획득할 수 있다.
설명하여야만 하는 것은, 본 출원의 실시예에 있어서, 디코더가 현재 비디오 화상에 대응하는 비트 스트림을 분석한 다음에, 분석에 의해 획득된 제어 식별자는 SPS에 위치할 수 있다. 구체적으로, 1그룹의 부호화된 비디오 시퀀스의 글로벌 매개 변수가 SPS에 저장되기 때문에, 디코더가 비트 스트림 내의 SPS에서 제어 식별자를 획득하는 경우, 제어 식별자는 현재 비디오 화상의 모든 화상 프레임에 작용할 수 있다.
또한, 본 출원의 실시예에 있어서, 디코더가 SPS에서 제어 식별자를 획득하는 경우, 디코더는 제어 식별자에 따라 현재 비디오 화상의 모든 화상 프레임을 복호화할 수 있다. 예를 들어, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 크로스 디코딩인 경우, 디코더는 프리셋 크로스 디코딩 기능을 유효시켜, 서로 다른 화상 컴포넌트 사이의 의존성을 사용하여 모든 화상 프레임을 복호화할 수 있으며, 즉 CCLM 또는 DM을 통해 모든 화상 프레임을 복호화할 수 있다.
단계 202, 비트 스트림을 분석한 다음에, 비트 스트림 내의 PPS에서 제어 식별자를 획득한다.
본 출원의 실시예에 있어서, 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 획득한 다음에 비트 스트림을 분석하여 비트 스트림 내의 PPS에서 현재 비디오 화상에 대응하는 제어 식별자를 획득할 수 있다.
설명하여야만 하는 것은, 본 출원의 실시예에 있어서, 디코더가 현재 비디오 화상에 대응하는 비트 스트림을 분석한 다음에, 분석에 의해 획득된 제어 식별자는 PPS에 위치할 수 있다. 구체적으로, PPS는 1프레임 화상의 부호화된 데이터가 의존하는 파라미터를 저장하기 때문에, 디코더가 비트 스트림 내의 PPS에서 제어 식별자를 획득하는 경우, 제어 식별자는 현재 비디오 화상에 있어서의 PPS에 대응하는 1프레임의 화상에 작용할 수 있다.
또한, 본 출원의 실시예에 있어서, 디코더가 PPS에서 제어 식별자를 획득하는 경우, 디코더는 제어 식별자에 따라 현재 비디오 화상에 있어서의 PPS에 대응하는 1프레임의 화상을 복호화할 수 있다. 예를 들어, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 크로스 디코딩인 경우, 디코더는 프리셋 크로스 디코딩 기능을 유효시켜 서로 다른 화상 컴포넌트 사이의 의존성을 사용하여 현재 비디오 화상에 있어서의 PPS에 대응하는 1 프레임의 이미지를 복호화할 수 있으며, 즉 CCLM 또는 DM을 통해 현재 비디오 화상에 있어서의 PPS에 대응하는 1 프레임의 화상을 복호화할 수 있다.
단계 203, 비트 스트림을 분석한 다음에 비트 스트림 내의 SEI에서 제어 식별자를 획득한다.
본 출원의 실시예에 있어서, 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 획득한 다음에 비트 스트림을 분석하여 비트 스트림 내의 SEI에서 현재 비디오 화상에 대응하는 제어 식별자를 획득할 수 있다.
설명하여야만 하는 것은, 본 출원의 실시예에 있어서, 디코더가 현재의 비디오 화상에 대응하는 비트 스트림을 분석한 다음에, 분석에 의해 획득 된 제어 식별자는 SEI에 위치할 수 있다. 구체적으로, SEI는 디코딩 과정에서 보조적인 역할을 발휘하고, 비트 스트림에 비디오 정보를 추가하는 데에 사용되기 때문에, 디코더가 비트 스트림 내의 SEI에서 제어 식별자를 획득하는 경우, 제어 식별자는 현재 비디오 화상에 있어서의 SEI에 대응하는 화상 정보에 작용할 수 있다.
또한, 본 출원의 실시예에 있어서, 분석에 의해 획득된 제어 식별자는 비트 스트림 내의 SPS, PPS, SEI, 코딩 트리 유닛 및 코딩 유닛 중 하나 또는 복수 개에 위치할 수 있다. 따라서, 디코더는 현재 비디오 화상을 처리할 때, 비트 스트림 내의 제어 식별자의 구체적인 위치에 따라 대응하는 비디오 화상 정보에 대하여 적응성 디코딩 처리를 수행할 수 있다.
본 출원에 따른 화상 디코딩 방법에 있어서, 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 획득하고, 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득하며, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우에 프리셋 크로스 디코딩 기능을 무효시킨다. 프리셋 크로스 디코딩 기능은 화상 컴포넌트 사이의 의존성을 기반으로 디코딩 처리를 수행하는 데에 사용된다. 즉, 본 출원의 실시예에 있어서, 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 분석하여 화상 컴포넌트 사이에 의존성이 존재하는 것을 허용하는지 여부를 확정하는 데에 사용되는 비트 스트림 내의 제어 식별자를 획득할 수 있다. 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우, 즉 화상 컴포넌트 사이에 의존성이 존재하는 것을 허용하지 않는 경우, 디코더는 프리셋 크로스 디코딩 기능을 무효시킬 필요가 있으며, 즉 디코더는 화상 컴포넌트 사이의 의존성을 기반으로 현재 비디오 화상을 복호화하지 않는다. 따라서 빠른 처리 또는 고급 병렬 처리를 필요하는 시나리오에서 병렬 코딩을 실현할 수 있고, 코딩의 복잡성을 낮출 수 있다.
상술한 실시예에 따라, 또 다른 실시예에 있어서, 또한, 도 7은 본 출원의 실시예에 따른 화상 디코딩 방법의 제 5 흐름도이다. 도 7에 도시된 바와 같이, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 크로스 디코딩인 경우, 디코더가 프리셋 크로스 디코딩 기능을 유효시킨 다음에, 즉, 단계 104 후에, 디코더에 의해 실행되는 화상 디코딩 방법은 아래 단계를 포함할 수 있다.
단계 106, DM에 따라 현재 비디오 화상을 디코딩한다.
본 출원의 실시예에 있어서, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 크로스 디코딩인 경우, 디코더는 프리셋 크로스 디코딩 기능을 유효시킨 다음에 DM에 따라 현재 비디오 화상을 복호화할 수 있다.
또한, 본 출원의 실시예에 있어서, DM 방법은 휘도 컴포넌트에서 채도 컴포넌트로의 예측을 실현하는 경우, 휘도 컴포넌트와 채도 컴포넌트 사이, 서로 다른 채도 컴포넌트 사이의 중복을 줄이기 위해, H. 266/VVC 초기 테스트 모델(Joint Exploration Model, JEM) 또는 VVC 테스트 모델(VVC Test model, VTM)에서 예측 모드의 컴포넌트 사이의 대체 표시 방식을 사용한다.
본 출원의 실시예에 있어서, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 크로스 디코딩인 경우, 디코더가 프리셋 크로스 디코딩 기능을 유효시킨 다음에, 즉, 단계 104 후에, 디코더는 CCLM 또는 DM에 따라 현재 비디오 화상을 복호화할 수 있을 뿐만 아니라, 화상 컴포넌트 사이의 의존성을 기반으로 하는 임의의 기술을 이용하여 현재 비디오 화상을 복호화할 수 있으며, 본 출원은 구체적으로 한정하지 않는다.
본 출원에 따른 화상 디코딩 방법에 있어서, 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 획득하고, 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득하며, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우에 프리셋 크로스 디코딩 기능을 무효시킨다. 프리셋 크로스 디코딩 기능은 화상 컴포넌트 사이의 의존성을 기반으로 디코딩 처리를 수행하는 데에 사용된다. 즉, 본 출원의 실시예에 있어서, 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 분석하여 화상 컴포넌트 사이에 의존성이 존재하는 것을 허용하는지 여부를 확정하는 데에 사용되는 비트 스트림 내의 제어 식별자를 획득할 수 있다. 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우, 즉 화상 컴포넌트 사이에 의존성이 존재하는 것을 허용하지 않는 경우, 디코더는 프리셋 크로스 디코딩 기능을 무효시킬 필요가 있으며, 즉 디코더는 화상 컴포넌트 사이의 의존성을 기반으로 현재 비디오 화상을 복호화하지 않는다. 따라서 빠른 처리 또는 고급 병렬 처리를 필요하는 시나리오에서 병렬 코딩을 실현할 수 있고, 코딩의 복잡성을 낮출 수 있다.
상술한 실시예를 기반으로, 본 출원의 또 다른 실시예에 있어서, 도 8은 본 출원의 실시예에 따른 디코더의 제 1 구조도이다. 도 8에 도시된 바와 같이, 본 출원의 실시예에 따른 디코더(100)는 획득 부분(101), 분석 부분(102), 무효화 부분(103), 유효화 부분(104) 및 디코딩 부분(105)을 포함한다.
획득 부분(101)은 현재 비디오 화상에 대응하는 비트 스트림을 획득하는 데에 사용된다.
분석 부분(102)은 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득하는 데에 사용된다.
무효화 부분(103)은 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우에 프리셋 크로스 디코딩 기능을 무효시키는 데에 사용되며, 프리셋 크로스 디코딩 기능은 화상 컴포넌트 사이의 의존성을 기반으로 디코딩 처리를 수행하는 데에 사용된다.
또한, 본 출원의 실시예에 있어서, 유효화 부분(104)은 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득한 후에 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 크로스 디코딩인 경우, 프리셋 크로스 디코딩 기능을 유효시키는 데에 사용된다.
또한, 본 출원의 실시예에 있어서, 화상 컴포넌트는 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트 중 적어도 2개를 포함한다.
또한, 본 출원의 실시예에 있어서, 디코딩 부분(105)은 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 크로스 디코딩인 경우, 프리셋 크로스 디코딩 기능을 유효시킨 다음에 DM에 따라 현재 비디오 화상을 복호화하는 데에 사용된다.
또한, 본 출원의 실시예에 있어서, 무효화 부분(103)은 또한 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득한 후에, 제어 식별자에 대응하는 디코딩 방식이 DM 금지인 경우, DM을 무효시키는 데에 사용된다.
또한, 본 출원의 실시예에 있어서, 분석 부분(102)은 구체적으로 비트 스트림을 분석한 다음에 비트 스트림 내의 SPS에서 제어 식별자를 획득하는 데에 사용된다.
또한, 본 출원의 실시예에 있어서, 분석 부분(102)은 또한 구체적으로 비트 스트림을 분석한 다음에 비트 스트림 내의 PPS에서 제어 식별자를 획득하는 데에 사용된다.
또한, 본 출원의 실시예에 있어서, 분석 부분(102)은 또한 구체적으로 비트 스트림을 분석한 다음에 비트 스트림 내의 SEI에서 제어 식별자를 획득하는 데에 사용된다.
도 9는 본 출원의 실시예에 따른 디코더의 제 2 구조도이다. 도 9에 도시된 바와 같이, 본 출원의 실시예에 따른 디코더(100)는 프로세서(106), 프로세서(106)에 의해 수행될 수 있는 명령어를 저장하는 메모리(107), 통신 인터페이스(108), 프로세서(106), 메모리(107) 및 통신 인터페이스(108)를 연결하는 데에 사용되는 버스(109)을 더 포함한다.
본 출원의 실시예에 있어서, 프로세서(106)는 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 디지털 신호 프로세서(Digital Signal Processor, DSP), 디지털 신호 처리 장치(Digital Signal Processing Device, DSPD), 프로그래머블 로직 디바이스(Programmable Logic Device, PLD), 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA), 중앙 처리 장치(Central Processing Unit, CPU), 컨트롤러, 마이크로 컨트롤러 및 마이크로 프로세서 중 적어도 하나일 수 있다. 서로 다른 장치에 대하여, 서로 다른 전자 장치를 사용하여 상기 프로세서의 기능을 실현할 수 있으며, 본 출원의 실시예는 구체적으로 한정하지 않음을 이해할 수 있다. 장치(1)는 또한 메모리(107)를 더 포함할 수 있으며, 메모리(107)는 프로세서(106)에 연결될 수 있다. 메모리(107)는 실행 가능한 프로그램 코드를 저장하는 데에 사용되고, 프로그램 코드는 컴퓨터 조작 명령을 포함한다. 메모리(107)는 고속 랜덤 액세스 메모리(RAM)를 포함할 수 있으며, 비 일시적인 메모리, 예를 들어, 적어도 2개의 디스크 메모리를 포함할 수도 있다.
본 출원의 실시예에 있어서, 버스(109)는 통신 인터페이스(108), 프로세서(106) 및 메모리(107)를 연결하는 데에 사용되며, 이러한 장치 사이의 상호 통신을 실현하는 데에 사용된다.
본 출원의 실시예에 있어서, 메모리(107)는 명령어 및 데이터를 저장하는 데에 사용된다.
또한, 본 출원의 실시예에 있어서, 프로세서(106)는 현재 비디오 화상에 대응하는 비트 스트림을 획득하고, 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득하며, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우에 프리셋 크로스 디코딩 기능을 무효시키는 데에 사용된다. 프리셋 크로스 디코딩 기능은 화상 컴포넌트 사이의 의존성을 기반으로 디코딩 처리를 수행하는 데에 사용된다.
실제 응용에서, 메모리(107)는 랜덤 액세스 메모리(Random-Access Memory, RAM) 등 휘발성 메모리일 수 있거나, 또는 읽기 전용 메모리(Read-Only Memory, ROM), 플래시 메모리(flash memory), 하드 디스크 드라이브(Hard Disk Drive, HDD) 또는 솔리드 스테이트 드라이브(Solid-State Drive, SSD) 등 비 휘발성 메모리일 수 있거나, 또는 상기 메모리의 조합일 수 있으며, 프로세서(106)에 명령어 및 데이터를 제공하는 데에 사용된다.
또한, 본 실시예의 각 기능 유닛은 하나의 처리 유닛에 통합될 수 있고, 각 유닛이 단독으로 물리적으로 존재할 수도 있으며, 2개 이상의 유닛이 하나의 유닛으로 통합될 수도 있다. 상기 통합된 유닛은 하드웨어 또는 소프트웨어 기능 유닛 형태로 구현될 수 있다.
통합된 유닛이 소프트웨어 기능 유닛 형태로 구현되어 별도의 제품으로 판매되거나 사용되는 경우, 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 이러한 이해를 기초로 하여 본 발명의 기술적 방안의 본질, 혹은 기술 분야에 기여하는 부분 또는 기술적 방안의 전부 또는 일부를 소프트웨어 제품의 형태로 구현될 수 있다. 해당 컴퓨터 소프트웨어 제품은 하나의 저장 매체에 저장되며, 컴퓨터 장치(개인용 컴퓨터, 서버 또는 네트워크 장치일 수 있음) 또는 프로세서가 본 발명의 각 실시예에 따른 방법의 전부 또는 일부를 실행할 수 있도록 하는 다수의 명령어를 포함한다. 전술한 저장 매체는 USB, 외장 하드, 읽기 전용 기억 장치(Read-Only Memory, ROM), 랜덤 액세스 메모리(Random Access Memory, RAM), 디스크 또는 광 디스크 등과 같은 프로그램 코드를 저장할 수 있는 매체를 포함한다.
본 출원의 실시예에 따른 디코더에 따르면, 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 획득하고, 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득하며, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우에 프리셋 크로스 디코딩 기능을 무효시킨다. 프리셋 크로스 디코딩 기능은 화상 컴포넌트 사이의 의존성을 기반으로 디코딩 처리를 수행하는 데에 사용된다. 즉, 본 출원의 실시예에 있어서, 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 분석하여 화상 컴포넌트 사이에 의존성이 존재하는 것을 허용하는지 여부를 확정하는 데에 사용되는 비트 스트림 내의 제어 식별자를 획득할 수 있다. 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우, 즉 화상 컴포넌트 사이에 의존성이 존재하는 것을 허용하지 않는 경우, 디코더는 프리셋 크로스 디코딩 기능을 무효시킬 필요가 있으며, 즉 디코더는 화상 컴포넌트 사이의 의존성을 기반으로 현재 비디오 화상을 복호화하지 않는다. 따라서 빠른 처리 또는 고급 병렬 처리를 필요하는 시나리오에서 병렬 코딩을 실현할 수 있고, 코딩의 복잡성을 낮출 수 있다. 동시에 이러한 시나리오에서, 코딩 유닛(coding unit, CU) 계층에서 디코딩은 화상 컴포넌트 사이의 의존성을 기반으로 하지 않는 것을 나타내는 비트를 생략함으로써, 이 시나리오에서의 코딩 효율을 향상시킬 수 있다.
본 출원의 실시예는 프로그램을 저장하는 데에 사용되는 컴퓨터 판독 가능한 저장 매체를 제공한다. 프로그램이 프로세서에 의해 실행될 때에 상술한 화상 디코딩 방법을 실현한다.
구체적으로, 본 실시예에 따른 화상 디코딩 방법에 대응하는 프로그램 명령은 광 디스크, 하드 디스크 및 USB 플래시 디스크 등 저장 매체에 저장될 수 있다. 저장 매체 내의 화상 디코딩 방법에 대응하는 프로그램 명령이 전자 장치에 판독되어 실행되면, 현재 비디오 화상에 대응하는 비트 스트림을 획득하고, 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득하며, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우에 프리셋 크로스 디코딩 기능을 무효시킨다. 프리셋 크로스 디코딩 기능은 화상 컴포넌트 사이의 의존성을 기반으로 디코딩 처리를 수행하는 데에 사용된다.
당업자라면 본 출원의 실시예는 방법, 시스템 또는 컴퓨터 프로그램 제품을 제공할 수 있음을 이해할 수 있다. 따라서, 본 출원은 하드웨어 실시예, 소프트웨어 실시예 또는 소프트웨어와 하드웨어를 결합한 실시예를 채용할 수 있다. 또한, 본 출원은 하나 이상의 컴퓨터 사용 가능한 프로그램 코드를 포함하는 컴퓨터 사용 가능한 저장 매체(자기 기억 장치, 광 메모리 등을 포함하지만, 이에 한정되지 않음)에 저장된 컴퓨터 프로그램 제품 형태를 채용할 수 있다.
본 발명은 본 발명의 실시예에 따른 방법, 장치(시스템) 및 컴퓨터 프로그램 제품의 흐름도 및/또는 블록도를 참조하여 설명한다. 흐름도의 각 흐름 및/또는 블록도의 각 블록, 흐름도의 흐름 및/또는 블록도의 블록의 조합은 컴퓨터 프로그램 명령에 의해 실현될 수 있음을 이해하기 바란다. 이러한 컴퓨터 프로그램 명령은 범용 컴퓨터, 전용 컴퓨터, 임베디드 프로세서, 또는 다른 프로그램 가능한 데이터 처리 장치의 프로세서에 제공되어 기계를 형성할 수 있으며, 컴퓨터 또는 다른 프로그램 가능한 데이터 처리 장치의 프로세서에서 명령을 실행함으로써, 흐름도의 하나이상의 흐름 및/또는 블록도의 하나 이상의 블록에 의해 지정되는 기능을 실현하기 위한 디바이스를 생성할 수 있다.
이러한 컴퓨터 프로그램 명령은 컴퓨터 또는 기타 프로그램 가능한 데이터 처리 장치가 특정 방식으로 작동하도록 지시할 수 있는 컴퓨터 판독 가능 메모리에 저장될 수 있으며, 따라서 컴퓨터 판독 가능 메모리에 저장된 명령은 명령 장치를 포함하는 제품을 생성할 수 있으며, 명령 장치는 흐름도의 하나이상의 흐름 및/또는 블록도의 하나 이상의 블록에 의해 지정되는 기능을 실현한다.
이러한 컴퓨터 프로그램 명령은 컴퓨터 또는 다른 프로그램 가능한 데이터 처리 장치에 로드될 수 있으며, 따라서 컴퓨터 또는 다른 프로그램 가능한 데이터 처리 장치에서 일련의 프로세스 단계를 수행하여 컴퓨터에 의해 실행되는 처리를 생성할 수 있으며, 그 결과, 컴퓨터 또는 다른 프로그램 가능한 데이터 처리 장치에서 실행되는 명령은 흐름도의 하나 이상의 흐름 및/또는 블록도의 하나 이상의 블록에 의해 지정되는 기능을 실현하기 위한 단계를 제공한다.
상술한 것은 단지 본 출원의 바람직한 실시예일 뿐이며, 본 출원의 보호 범위를 한정하는 데에 사용되지 않는다.
산업상 이용 가능성
본 출원의 실시예는 화상 디코딩 방법, 디코더 및 컴퓨터 저장 매체를 제공한다. 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 획득하고, 비트 스트림을 분석하여 현재 비디오 화상에 대응하는 제어 식별자를 획득하며, 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우에 프리셋 크로스 디코딩 기능을 무효시킨다. 프리셋 크로스 디코딩 기능은 화상 컴포넌트 사이의 의존성을 기반으로 디코딩 처리를 수행하는 데에 사용된다. 즉, 본 출원의 실시예에 있어서, 디코더는 현재 비디오 화상에 대응하는 비트 스트림을 분석하여 화상 컴포넌트 사이에 의존성이 존재하는 것을 허용하는지 여부를 확정하는 데에 사용되는 비트 스트림 내의 제어 식별자를 획득할 수 있다. 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우, 즉 화상 컴포넌트 사이에 의존성이 존재하는 것을 허용하지 않는 경우, 디코더는 프리셋 크로스 디코딩 기능을 무효시킬 필요가 있으며, 즉 디코더는 화상 컴포넌트 사이의 의존성을 기반으로 현재 비디오 화상을 복호화하지 않는다. 따라서 빠른 처리 또는 고급 병렬 처리를 필요하는 시나리오에서 병렬 코딩을 실현할 수 있고, 코딩의 복잡성을 낮출 수 있다. 동시에 이러한 시나리오에서, 코딩 유닛(coding unit, CU) 계층에서 디코딩은 화상 컴포넌트 사이의 의존성을 기반으로 하지 않는 것을 나타내는 비트를 생략함으로써, 이 시나리오에서의 코딩 효율을 향상시킬 수 있다.

Claims (18)

  1. 화상 디코딩 방법으로서,
    현재 비디오 화상에 대응하는 비트 스트림을 획득하는 것과,
    상기 비트 스트림을 분석하여 상기 현재 비디오 화상에 대응하는 제어 식별자를 획득하는 것과,
    상기 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우에 프리셋 크로스 디코딩 기능을 무효시키는 것 - 상기 프리셋 크로스 디코딩 기능은 화상 컴포넌트 사이의 의존성을 기반으로 디코딩 처리를 수행하는 데에 사용됨 - 을 포함하는 것을 특징으로 하는 화상 디코딩 방법.
  2. 제1항에 있어서,
    상기 비트 스트림을 분석하여 상기 현재 비디오 화상에 대응하는 제어 식별자를 획득한 후에, 상기 방법은,
    상기 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 크로스 디코딩인 경우에 상기 프리셋 크로스 디코딩 기능을 유효시키는 것을 더 포함하는 것을 특징으로 하는 방법.
  3. 제1항에 있어서,
    상기 화상 컴포넌트는 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트 중 적어도 2개를 포함하는 것을 특징으로 하는 방법.
  4. 제2항에 있어서,
    상기 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 크로스 디코딩인 경우에 상기 프리셋 크로스 디코딩 기능을 유효시킨 후에, 상기 방법은,
    DM(direct mode)에 따라 상기 현재 비디오 화상을 디코딩하는 것을 더 포함하는 것을 특징으로 하는 방법.
  5. 제1항에 있어서,
    상기 비트 스트림을 분석하여 상기 현재 비디오 화상에 대응하는 제어 식별자를 획득한 후에, 상기 방법은,
    상기 제어 식별자에 대응하는 디코딩 방식이 DM 금지인 경우, DM은 무효되는 것을 더 포함하는 것을 특징으로 하는 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 비트 스트림을 분석하여 상기 현재 비디오 화상에 대응하는 제어 식별자를 획득하는 것은,
    상기 비트 스트림을 분석한 다음에, 상기 비트 스트림 내의 시퀀스 파라미터 세트(SPS)에서 상기 제어 식별자를 획득하는 것을 포함하는 것을 특징으로 하는 방법.
  7. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 비트 스트림을 분석하여 상기 현재 비디오 화상에 대응하는 제어 식별자를 획득하는 것은,
    상기 비트 스트림을 분석한 다음에, 상기 비트 스트림 내의 화상 파라미터 세트(PPS)에서 상기 제어 식별자를 획득하는 것을 포함하는 것을 특징으로 하는 방법.
  8. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 비트 스트림을 분석하여 상기 현재 비디오 화상에 대응하는 제어 식별자를 획득하는 것은,
    상기 비트 스트림을 분석한 다음에, 상기 비트 스트림 내의 보충 확장 정보(SEI)에서 상기 제어 식별자를 획득하는 것을 포함하는 것을 특징으로 하는 방법.
  9. 디코더로서,
    획득 부분, 분석 부분 및 무효화 부분을 포함하고,
    상기 획득 부분은 현재 비디오 화상에 대응하는 비트 스트림을 획득하는 데에 사용되고,
    상기 분석 부분은 상기 비트 스트림을 분석하여 상기 현재 비디오 화상에 대응하는 제어 식별자를 획득하는 데에 사용되고,
    상기 무효화 부분은 상기 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트 독립 디코딩인 경우에 프리셋 크로스 디코딩 기능을 무효시키는 데에 사용되며, 상기 프리셋 크로스 디코딩 기능은 화상 컴포넌트 사이의 의존성을 기반으로 디코딩 처리를 수행하는 데에 사용되는 것을 특징으로 하는 디코더.
  10. 제9항에 있어서,
    상기 디코더는 유효화 부분을 더 포함하고,
    상기 유효화 부분은 상기 비트 스트림을 분석하여 상기 현재 비디오 화상에 대응하는 제어 식별자를 획득한 후에 상기 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 크로스 디코딩인 경우, 상기 프리셋 크로스 디코딩 기능을 유효시키는 데에 사용되는 것을 특징으로 하는 디코더.
  11. 제9항에 있어서,
    상기 화상 컴포넌트는 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트 중 적어도 2개를 포함하는 것을 특징으로 하는 디코더.
  12. 제10항에 있어서,
    상기 디코더는 디코딩 부분을 더 포함하고,
    상기 디코딩 부분은 상기 제어 식별자에 대응하는 디코딩 방식이 화상 컴포넌트의 크로스 디코딩인 경우, 상기 프리셋 크로스 디코딩 기능을 유효시킨 다음에 DM에 따라 상기 현재 비디오 화상을 복호화하는 데에 사용되는 것을 특징으로 하는 디코더.
  13. 제9항에 있어서,
    상기 무효화 부분은 또한 상기 비트 스트림을 분석하여 상기 현재 비디오 화상에 대응하는 제어 식별자를 획득한 후에, 상기 제어 식별자에 대응하는 디코딩 방식이 DM 금지인 경우, DM을 무효시키는 데에 사용되는 것을 특징으로 하는 디코더.
  14. 제9항 내지 제13항 중 어느 한 항에 있어서,
    상기 분석 부분은 구체적으로 상기 비트 스트림을 분석한 다음에 상기 비트 스트림 내의 SPS에서 상기 제어 식별자를 획득하는 데에 사용되는 것을 특징으로 하는 디코더.
  15. 제9항 내지 제13항 중 어느 한 항에 있어서,
    상기 분석 부분은 또한 구체적으로 상기 비트 스트림을 분석한 다음에 상기 비트 스트림 내의 PPS에서 상기 제어 식별자를 획득하는 데에 사용되는 것을 특징으로 하는 디코더.
  16. 제9항 내지 제13항 중 어느 한 항에 있어서,
    상기 분석 부분은 또한 구체적으로 상기 비트 스트림을 분석한 다음에 상기 비트 스트림 내의 SEI에서 상기 제어 식별자를 획득하는 데에 사용되는 것을 특징으로 하는 디코더.
  17. 디코더로서,
    프로세서, 상기 프로세서에 의해 수행될 수 있는 명령어를 저장하는 메모리, 통신 인터페이스, 상기 프로세서, 상기 메모리 및 상기 통신 인터페이스를 연결하는 데에 사용되는 버스를 포함하고, 상기 명령어가 상기 프로세서에 의해 실행되면, 제1항 내지 제8항 중 어느 한 항에 기재된 방법을 실현하는 것을 특징으로 하는 디코더.
  18. 디코더에 적용되는 컴퓨터 판독 가능한 저장 매체로서,
    상기 컴퓨터 판독 가능한 저장 매체는 프로그램을 저장하는 데에 사용되고, 상기 프로그램이 프로세서에 의해 실행되면, 제1항 내지 제8항 중 어느 한 항에 기재된 방법을 실현하는 것을 특징으로 하는 컴퓨터 판독 가능한 저장 매체.
KR1020217016139A 2019-01-10 2019-03-14 화상 디코딩 방법, 디코더 및 컴퓨터 저장 매체 KR20210110796A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962790795P 2019-01-10 2019-01-10
US62/790,795 2019-01-10
PCT/CN2019/078195 WO2020143114A1 (zh) 2019-01-10 2019-03-14 图像解码方法、解码器及计算机存储介质

Publications (1)

Publication Number Publication Date
KR20210110796A true KR20210110796A (ko) 2021-09-09

Family

ID=71521835

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217016139A KR20210110796A (ko) 2019-01-10 2019-03-14 화상 디코딩 방법, 디코더 및 컴퓨터 저장 매체

Country Status (12)

Country Link
US (3) US11272186B2 (ko)
EP (1) EP3843388A4 (ko)
JP (3) JP7431827B2 (ko)
KR (1) KR20210110796A (ko)
CN (3) CN115941944A (ko)
AU (1) AU2019420838A1 (ko)
CA (1) CA3121922C (ko)
IL (1) IL283477A (ko)
MX (1) MX2021006450A (ko)
SG (1) SG11202105839RA (ko)
WO (1) WO2020143114A1 (ko)
ZA (1) ZA202103762B (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210141683A (ko) * 2019-03-25 2021-11-23 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 이미지 요소의 예측 방법, 인코더, 디코더 및 컴퓨터 저장 매체
WO2023097694A1 (zh) * 2021-12-03 2023-06-08 Oppo广东移动通信有限公司 解码方法、编码方法、解码器以及编码器

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4410989B2 (ja) 2002-12-12 2010-02-10 キヤノン株式会社 画像処理装置及び画像復号処理装置
EP2228995A3 (en) * 2005-09-20 2012-07-25 Mitsubishi Electric Corporation Image encoding method and image decoding method, image encoder and image decoder, and image encoded bit stream and recording medium
KR100763196B1 (ko) 2005-10-19 2007-10-04 삼성전자주식회사 어떤 계층의 플래그를 계층간의 연관성을 이용하여부호화하는 방법, 상기 부호화된 플래그를 복호화하는방법, 및 장치
JP5026092B2 (ja) * 2007-01-12 2012-09-12 三菱電機株式会社 動画像復号装置および動画像復号方法
JP2009017472A (ja) * 2007-07-09 2009-01-22 Renesas Technology Corp 画像復号装置および画像復号方法
CN103096051B (zh) * 2011-11-04 2017-04-12 华为技术有限公司 一种图像块信号分量采样点的帧内解码方法和装置
CN103220508B (zh) * 2012-01-20 2014-06-11 华为技术有限公司 编解码方法和装置
GB2498982B (en) * 2012-02-01 2014-04-16 Canon Kk Method and device for encoding or decoding an image
DK2984837T3 (en) * 2013-04-08 2018-04-30 Ge Video Compression Llc Inter-component prediction
JP2014209757A (ja) * 2014-06-12 2014-11-06 インテル コーポレイション クロスチャネル残差予測
US10623747B2 (en) * 2014-06-20 2020-04-14 Hfi Innovation Inc. Method of palette predictor signaling for video coding
RU2690439C2 (ru) * 2014-06-20 2019-06-03 Сони Корпорейшн Устройство и способ кодирования изображений и устройство и способ декодирования изображений
US20150382016A1 (en) * 2014-06-27 2015-12-31 Mitsubishi Electric Research Laboratories, Inc. Method for Processing Multi-Component Video and Images
US10536695B2 (en) * 2015-09-09 2020-01-14 Qualcomm Incorporated Colour remapping information supplemental enhancement information message processing
US10554974B2 (en) * 2017-01-13 2020-02-04 Mediatek Inc. Method and apparatus enabling adaptive multiple transform for chroma transport blocks using control flags

Also Published As

Publication number Publication date
EP3843388A1 (en) 2021-06-30
US20210274191A1 (en) 2021-09-02
CA3121922A1 (en) 2020-07-16
CN113055671A (zh) 2021-06-29
CN115941944A (zh) 2023-04-07
US11272186B2 (en) 2022-03-08
US20230403400A1 (en) 2023-12-14
ZA202103762B (en) 2022-08-31
US11785225B2 (en) 2023-10-10
JP2022516694A (ja) 2022-03-02
CN112640449A (zh) 2021-04-09
US20220124348A1 (en) 2022-04-21
WO2020143114A1 (zh) 2020-07-16
JP2024045388A (ja) 2024-04-02
CA3121922C (en) 2023-10-03
JP2024045387A (ja) 2024-04-02
AU2019420838A1 (en) 2021-06-17
JP7431827B2 (ja) 2024-02-15
EP3843388A4 (en) 2021-12-22
IL283477A (en) 2021-07-29
SG11202105839RA (en) 2021-07-29
CN113055671B (zh) 2022-09-02
MX2021006450A (es) 2021-07-02

Similar Documents

Publication Publication Date Title
CN113168718B (zh) 视频解码方法、装置和存储介质
US10063857B2 (en) Chroma quantization parameter extension
TWI634782B (zh) 可適性色彩空間轉換寫碼
US20180278958A1 (en) Transform coding of video data
KR20200125740A (ko) 비디오 코딩을 위한 방법 및 장치
JP2019525679A (ja) クロス成分フィルタ
KR20200125687A (ko) 디코더 측 mv 도출 및 리파인먼트를 위한 개선
GB2531004A (en) Residual colour transform signalled at sequence level for specific coding modes
US20230403400A1 (en) Method for picture decoding, method for picture encoding, decoder, and encoder
TW201436526A (zh) 用於緩衝資訊以簡化視訊剪接的句法及語意
WO2021004153A1 (zh) 图像预测方法、编码器、解码器以及存储介质
WO2015053680A1 (en) Layer switching in video coding
US9998739B2 (en) Optimization for encoding video data using non-square partitions
KR20200140364A (ko) 단순화된 최고 확률 모드 목록 생성 방식
CN108141601B (zh) 对图片序列进行编码和解码的方法、设备和可读介质
JP2023508665A (ja) ビデオコーディングにおける復号パラメータセット
CN115336280A (zh) 用于视频编解码中的高级语法的方法和设备
JP2024028598A (ja) コンテンツ適応セグメント化予測
CN117041602A (zh) 用于对视频信号进行编码的方法、计算设备和存储介质
WO2015052938A1 (en) Highest temporal sub-layer list
WO2015057685A1 (en) Systems and methods for separately defining dependencies for sub-layer based inter-layer prediction
RU2784440C1 (ru) Способ декодирования изображений, декодер и компьютерный носитель данных
CN117221604A (zh) 用于视频编解码中的高级语法的方法和设备
WO2020258001A1 (zh) 亮度分量预测方法、编码器、解码器以及存储介质
JP2022548914A (ja) デブロッキング操作の高度制御

Legal Events

Date Code Title Description
A201 Request for examination