KR102094222B1 - 참조 영상 인코딩 방법, 참조 영상 디코딩 방법, 참조 영상 인코딩 디바이스 및 참조 영상 디코딩 디바이스 - Google Patents

참조 영상 인코딩 방법, 참조 영상 디코딩 방법, 참조 영상 인코딩 디바이스 및 참조 영상 디코딩 디바이스 Download PDF

Info

Publication number
KR102094222B1
KR102094222B1 KR1020187001858A KR20187001858A KR102094222B1 KR 102094222 B1 KR102094222 B1 KR 102094222B1 KR 1020187001858 A KR1020187001858 A KR 1020187001858A KR 20187001858 A KR20187001858 A KR 20187001858A KR 102094222 B1 KR102094222 B1 KR 102094222B1
Authority
KR
South Korea
Prior art keywords
reference image
region
delete delete
image
local
Prior art date
Application number
KR1020187001858A
Other languages
English (en)
Other versions
KR20180019215A (ko
Inventor
펑 우
팡동 천
허우창 리
줘이 뤼
하이타오 양
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
중국과학기술대학
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드, 중국과학기술대학 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20180019215A publication Critical patent/KR20180019215A/ko
Application granted granted Critical
Publication of KR102094222B1 publication Critical patent/KR102094222B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 참조 영상 인코딩 방법을 제공하며, 상기 방법은, 시퀀스를 인코딩하여 제1 및 제2 참조 영상의 복원 영상을 획득하는 단계; 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상을 업데이트하는 데 적합한지의 여부를 결정하는 단계; 상기 제1 참조 영상이 업데이트되었는지의 여부를 결정하는 단계; 상기 제1 참조 영상이 업데이트되지 않고 상기 제2 참조 영상이 상기 제1 참조 영상을 업데이트하는 데 적합한 것으로 결정된 경우, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하는 단계; 및 비트스트림으로 컴파일하는 단계를 포함한다.

Description

참조 영상 인코딩 방법, 참조 영상 디코딩 방법, 참조 영상 인코딩 디바이스 및 참조 영상 디코딩 디바이스
본 발명은 비디오 영상 처리 분야에 관한 것으로, 더욱 상세하게 말하자면, 참조 영상 인코딩 방법, 참조 영상 디코딩 방법, 참조 영상 인코딩 디바이스 및 참조 영상 디코딩 디바이스에 관한 것이다.
인터넷 기술의 급속한 발전과 점점 더 풍부해지는 사람들의 물질적 및 영적 문화는 인터넷에서 비디오에 대한 애플리케이션 요구 사항 증가, 특히 고화질(high-definition) 비디오의 애플리케이션 요구 사항을 동반한다. 그러나 고화질 비디오의 데이터 양은 매우 크고, 제한된 대역폭으로 인터넷에서 고화질 비디오를 전송하기 위해서는 문제점 즉, 고화질 비디오 압축 코딩 문제점이 먼저 해결되어야 한다. 국제적으로, 현재 비디오 코딩 표준을 수립하는 것을 전문으로 하는 두 개의 국제기구, 즉, 국제 표준화기구 International Organization for Standardization, "ISO")/국제 전기 기술위원회(International Electrotechnical Commission, "IEC ")의 동영상 전문가 그룹(Moving Picture Experts Group, "MPEG"), 및 국제 전기 통신 연합-전기 통신 표준화 부문(International Telecommunication Union-Telecommunication Standardization Sector, ITU-T")의 비디오 코딩 전문가 그룹(Video Coding Experts Group, "VCEG")이 있다. 1986년에 설립된 MPEG은 멀티미디어 분야에서 관련 표준을 공식화하는 데 전문이며, 관련 표준은 주로 스토리지(storage), 방송 텔레비전, 인터넷 또는 무선 네트워크에서의 스트리밍 미디어 등에 적용된다. ITU-T는 주로 실시간 비디오 통신 분야에 맞춰진 비디오 코딩 표준을 공식화한다. 예를 들어, 비디오 코딩 표준은 영상 통화(video call), 영상 회의(video conference) 등에 적용된다.
지난 수십 년 동안 다양한 응용 프로그램에 맞춰진 비디오 코딩 표준이 성공적으로 국제적으로 공식화되었으며, 주로 비디오 컴팩트 디스크(Video Compact Disc, "VCD")에 사용되는 MPEG-1 표준, 디지털 비디오 디스크(Digital Video Disc, "DVD")와 디지털 비디오 방송(Digital Video Broadcasting, "DVB") 에 사용되는 MPEG-2 표준, 영상 회의에 사용되는 H.261 표준 및 H.263 표준, H.264 표준, 임의 형태의 객체의 인코딩을 허용하는 MPEG-4 표준 및 최신 고효율 비디오 코딩(High Efficiency Video Coding, "HEVC") 표준을 포함한다.
비디오 시퀀스의 이웃(neighboring) 영상들 사이에는 긴밀한 시간 상관관계가 존재한다. 그러므로 영상 시퀀스의 각각의 영상 프레임은 서로 겹치지 않는 몇 개의 코드 블록으로 분할될 수 있으며, 코드 블록에서 모든 화소의 움직임(motion)이 동일한 것으로 고려된다. 움직임 벡터가 코드 블록에 의해 할당된다. 프레임간 예측이 현재 인코딩된 영상의 현재 코드 블록에 대해 수행되는 경우, 복원된 인코딩된 영상이 참조 영상으로 사용되며, 현재 코드 블록에 대해 참조 영상의 특정 탐색(search) 영역에서 움직임 탐색이 수행되어, 현재 코드 블록과의 매칭(matching) 기준을 만족하는 블록 즉, 매칭 블록을 찾는다. 현재 코드 블록과 참조 영상에서의 매칭 블록의 공간적 위치 사이의 상대적인 오프셋이 움직임 벡터(Motion Vector, MV)이며, 움직임 벡터를 획득하는 프로세스가 움직임 추정(Motion Estimation, ME)이라고 명명된다. 비디오에 대해 압축 코딩을 수행하는 경우, 참조 영상 정보, 움직임 벡터 정보, 그리고 매칭 블록의 복원 화소 값과 현재 블록의 원래 화소 값 사이의 차이(difference)(잔차(residual))가 인코딩된 다음에 디코더 측으로 전달된다. 디코더 측은 디코딩된 참조 영상으로부터 움직임 벡터가 가리키는 위치의 블록을 찾고 블록에 잔차를 더한 후 현재 블록을 복원한다. 비디오 전송에서 비트량을 크게 감소시키기 위해, 프레임간 중복성(Inter-frame redundancy)이 움직임 추정에 의해 비디오 시퀀스로부터 제거될 수 있다.
장면의 상호 블로킹(mutual blocking of sceneries), 새로운 컨텐츠의 입력, 장면 전환(scene change) 및 카메라 움직임과 같은 문제로 인해, 현재 블록의 인접한 영상으로부터 현재 블록에 대한 매칭 블록이 발견되지 않을 수 있다. 따라서 멀티 참조 영상 코드 기술이 도입되어, 인코딩 성능을 크게 향상시킨다. 현재 인코딩된 영상의 현재 코드 블록의 경우, 현재 영상 이전에 인코딩된 k 개의 참조 영상 각각에 대해 움직임 탐색이 수행될 수 있다.
최근 공식화된 국제 비디오 코딩 표준 즉, HEVC 표준에, 단기 참조 영상(short-term reference image) 및 장기 참조 영상(long-term reference image)인 두 가지 유형의 참조 영상이 있다. 단기 참조 영상은 일반적으로 현재 영상과 상대적으로 가까운 복원 인코딩된 영상(reconstructed encoded image)이며, 단기 참조 영상과 현재 영상은 유사한 시너리(scenery)를 갖는다. 장기 참조 영상은 일반적으로 현재 영상으로부터 상대적으로 먼 복원 인코딩된 영상이다. 참조 영상은 참조 영상 리스트를 이용하여 관리된다. 현재 코드 블록의 매칭 블록이 탐색되는 경우, 참조 영상 리스트의 제1 참조 영상을 시작으로 가장 작은 매칭 오차를 갖는 움직임 벡터가 특정 탐색 영역으로부터 찾아지며, 참조 영상 리스트의 모든 참조 영상들에서 움직임 탐색이 완전히 수행될 때까지 다음 참조 영상에서 움직임 탐색을 계속한다. 그 뒤에, 현재 코드 블록의 최적 움직임 벡터 및 사용된 참조 영상이 결정된다.
종래 기술에서, 압축 코딩 효율을 향상시키기 위해 단기 참조 영상과 장기 참조 영상 이외에, 배경 참조 영상(background reference image)이 추가로 도입된다. 즉, 비디오 시퀀스가 여러 비디오 세그먼트로 분할되고, 각각의 비디오 세그먼트가 완전히 인코딩되며, 비디오 세그먼트의 복원된 영상이, 비디오 세그먼트의 다음 비디오 세그먼트에서 각각의 영상에 대한 프레임간 예측(inter-frame prediction) 동안에 사용되는 참조 영상으로서, 배경 영상을 생성하는데 사용된다. 따라서, 프레임간 예측 효율이 향상되어, 비디오 시퀀스의 코딩 압축 효율을 향상시킨다.
그러나 관련 기술에서, 각각의 비디오 세그먼트에서 인코딩된/디코딩된 영상의 공통 특성이 참조 영상을 획득하기 위해 인코더 측 및 디코더 측에서 모두 분석되어야 한다. 그 결과, 디코더 측의 복잡성 및 전력 소비가 증가된다. 다르게는, 인코더 측에서 생성된 참조 영상이 추가적으로 디코더 측으로 전송되어야 하며, 이에 따라 비트스트림의 비트 레이트가 급격히 상승하여 전송 지연이 발생한다.
본 발명은 디코더 측의 연산 복잡성을 증가시키지 않고 코딩 압축 효율이 향상되고, 단지 작은 지시 정보(indication information)만 전송되거나 지시 정보가 전송되지 않으며, 이에 따라 전송 지연이 방지되도록, 후속 참조 영상(subsequent reference image)의 로컬 정보를 사용하는 것에 의해 배경 참조 영상을 업데이트하기 위해, 참조 영상 인코딩 방법, 참조 영상 디코딩 방법, 참조 영상 인코딩 디바이스 및 참조 영상 디코딩 디바이스를 제공한다.
제1 측면에 따르면, 참조 영상 디코딩 방법이 제공되며, 상기 디코딩 방법은,
비트스트림을 파싱(parsing)하여 제1 참조 영상의 복원 영상(reconstructed image)과 제2 참조 영상의 복원 영상을 획득하는 단계; 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계; 및 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되는 경우, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하는 단계를 포함하고, 상기 제1 참조 영상은 상기 제2 참조 영상 전에 디코딩되고, 상기 로컬 영역의 크기는 상기 제2 참조 영상의 크기보다 작거나 같다.
제1 측면을 참조하여 제1 측면의 제1 가능한 구현에서, 상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는, 상기 비트스트림을 파싱하여 플래그를 획득하는 단계; 및 상기 플래그가 제1 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 플래그가 제2 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계를 포함하며, 상기 제1 값은 상기 제2 값과 상이하다.
제1 측면을 참조하여 제1 측면의 제2 가능한 구현에서, 상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는, 상기 비트스트림을 파싱하여 코딩(coding) 정보를 획득하는 단계; 및 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계를 포함한다.
제1 측면의 제2 가능한 구현을 참조하여 제1 측면의 제3 가능한 구현에서, 상기 디코딩 방법은 코딩 정보를 결정하는 단계를 더 포함하고, 상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 양자화 파라미터 오프셋 값을 포함하고,
이에 상응하여(correspondingly), 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계를 포함한다.
제1 측면의 제3 가능한 구현을 참조하여 제1 측면의 제4 가능한 구현에서, 상기 제1 값 범위는 10보다 크거나 같고 20보다 작다.
제1 측면의 제2 가능한 구현을 참조하여 제1 측면의 제5 가능한 구현에서, 상기 디코딩 방법은 코딩 정보를 결정하는 단계를 더 포함하고, 상기 코딩 정보는 상기 제2 참조 영상에서의 로컬 영역의 양자화 단계의 스케일 팩터(scale factor)를 포함하고,
이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계를 포함한다.
제1 측면의 제5 가능한 구현을 참조하여 제1 측면의 제6 가능한 구현에서, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하는 것은, 상기 양자화 단계의 스케일 팩터가 0.5보다 크거나 같고 1보다 작은 경우 또는 상기 스케일 팩터가 1.5보다 작거나 같고 1보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하는 단계를 포함한다.
제1 측면 또는 제1 측면의 제1 내지 제6 가능한 구현 중 어느 하나를 참조하여 제1 측면의 제7 가능한 구현에서, 상기 제1 참조 영상의 대응 영역은, 상기 제1 참조 영역에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이다.
제1 측면 또는 제1 측면의 제1 내지 제6 가능한 구현 중 어느 하나를 참조하여 제1 측면의 제8 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 로컬 영역의 위치 좌표와 상기 제1 참조 영상의 관련 영역의 위치 좌표 사이의 공간 오프셋(spatial offsets)을 더 포함하고, 상기 공간 오프셋은 횡방향 오프셋(lateral offset) 및 종방향 오프셋(longitudinal offset)을 포함하며,
이에 상응하여 상기 디코딩 방법은, 상기 제2 참조 영상의 로컬 영역의 위치 좌표 및 상기 공간 오프셋에 따라 상기 제1 참조 영상의 관련 영역의 위치를 결정하는 단계를 더 포함한다.
제1 측면 또는 제1 측면의 제1 내지 제8 가능한 구현 중 어느 하나를 참조하여 제1 측면의 제9 가능한 구현에서, 상기 디코딩 방법은 화소 값 대체 후의 상기 제1 참조 영상의 대응 영역 또는 관련 영역과 이웃 영역(neighboring area) 사이의 경계에서 필터링을 수행하는 단계를 더 포함한다.
제1 측면 또는 제1 측면의 제1 내지 제9 가능한 구현 중 어느 하나를 참조하여 제1 측면의 제10 가능한 구현에서, 상기 제1 참조 영상은 상기 비트스트림을 파싱하는 것에 의해 획득된 복원 영상의 제1 프레임이다.
제1 측면 또는 제1 측면의 제1 내지 제9 가능한 구현 중 어느 하나를 참조하여 제1 측면의 제11 가능한 구현에서, 상기 제1 참조 영상은 상기 비트스트림을 파싱하는 것에 의해 획득된 랜덤 액세스 포인트 영상이다.
제1 측면 또는 제1 측면의 제1 내지 제11 가능한 구현 중 어느 하나를 참조하여 제1 측면의 제12 가능한 구현에서, 상기 제2 참조 영상의 상기 로컬 영역은 최대 코딩 유닛, 코딩 유닛, 코딩 유닛 그룹 또는 미리 설정된 크기의 영상 영역 중 하나이다.
제1 측면을 참조하여 제1 측면의 제13 가능한 구현에서, 상기 비트스트림을 파싱하여 제1 참조 영상의 복원 영상을 획득하는 것은, 상기 비트스트림을 파싱하여 상기 제1 참조 영상의 특정 픽처 순서 카운트(particular picture order count)를 획득하고, 상기 특정 픽처 순서 카운트를 가지는 상기 제1 참조 영상의 복원 영상을 획득하는 단계를 포함한다.
제1 측면 또는 제1 측면의 제13 가능한 구현을 참조하여 제1 측면의 제14 가능한 구현에서, 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 것은, 상기 비트스트림을 파싱하여 상기 제2 참조 영상의 특정 픽처 순서 카운트를 획득하고, 상기 제2 참조 영상의 특정 픽처 순서 카운트를 가지는 상기 제2 참조 영상의 복원 영상을 획득하는 단계를 포함하고, 상기 제2 참조 영상의 상기 특정 픽처 순서 카운트는 상기 제2 참조 영상을 사용하여 업데이트된 상기 제1 참조 영상의 특정 픽처 순서 카운트와 연관된다.
제2 측면에 따르면, 참조 영상 디코딩 방법이 제공되며, 상기 디코딩 방법은, 비트스트림을 파싱하여 제1 참조 영상의 복원 영상과 제2 참조 영상의 복원 영상을 획득하는 단계; 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계; 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되었는지의 여부를 결정하는 단계; 및 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정된 경우, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하는 단계를 포함하고, 상기 제1 참조 영상은 상기 제2 참조 영상 전에 디코딩되고, 상기 로컬 영역의 크기는 상기 제2 참조 영상의 크기보다 작거나 같다.
제2 측면을 참조하여 제2 측면의 제1 가능한 구현에서, 상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는, 상기 비트스트림을 파싱하여 플래그를 획득하는 단계; 및 상기 플래그가 제1 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하거나, 상기 플래그가 제2 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함하며, 상기 제1 값은 상기 제2 값과 상이하다.
제2 측면을 참조하여 제2 측면의 제2 가능한 구현에서, 상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는, 상기 비트스트림을 파싱하여 코딩 정보를 획득하는 단계; 및 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계를 포함한다.
제2 측면의 제2 가능한 구현을 참조하여 제2 측면의 제3 가능한 구현에서, 상기 디코딩 방법은, 상기 코딩 정보를 결정하는 단계를 더 포함하고, 상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 포함하고, 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합을 포함하며,
이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는, 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합이 제1 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
제2 측면의 제2 가능한 구현을 참조하여 제2 측면의 제4 가능한 구현에서, 상기 디코딩 방법은, 상기 코딩 정보를 결정하는 단계를 더 포함하고, 상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 포함하고, 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값을 포함하며,
이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는, 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값이 제2 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
제2 측면의 제2 가능한 구현을 참조하여 제2 측면의 제5 가능한 구현에서, 상기 디코딩 방법은, 상기 코딩 정보를 결정하는 단계를 더 포함하고, 상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 양자화 파라미터 오프셋 값을 포함하고,
이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하거나, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
제2 측면의 제5 가능한 구현을 참조하여 제2 측면의 제6 가능한 구현에서, 상기 제1 값 범위는 10보다 크거나 같고 20보다 작다.
제2 측면의 제2 가능한 구현을 참조하여 제2 측면의 제7 가능한 구현에서, 상기 디코딩 방법은, 상기 코딩 정보를 결정하는 단계를 더 포함하고, 상기 코딩 정보는 상기 제2 참조 영상에서의 로컬 영역의 양자화 단계의 스케일 팩터를 포함하고,
이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하거나, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않는 것으로 결정하는 단계를 포함한다.
제2 측면의 제7 가능한 구현을 참조하여 제2 측면의 제8 가능한 구현에서, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하는 것은, 상기 양자화 단계의 스케일 팩터가 0.5보다 크거나 같고 1보다 작은 경우 또는 상기 스케일 팩터가 1.5보다 작거나 같고 1보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하는 단계를 포함한다.
제2 측면의 제2 가능한 구현을 참조하여 제2 측면의 제9 가능한 구현에서, 상기 디코딩 방법은, 상기 코딩 정보를 결정하는 단계를 더 포함하고, 상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 포함하고, 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값을 포함하고,
이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는, 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값이 모두 제3 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않는 것으로 결정하는 단계를 포함한다.
제2 측면의 제2 가능한 구현을 참조하여 제2 측면의 제10 가능한 구현에서, 상기 디코딩 방법은, 상기 코딩 정보를 결정하는 단계를 더 포함하고, 상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 포함하고, 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값과, 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값을 포함하고,
이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는, 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값이, 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않는 것으로 결정하는 단계를 포함한다.
제2 측면 또는 제2 측면의 제1 내지 제10 가능한 구현 중 어느 하나를 참조하여 제2 측면의 제11 가능한 구현에서, 상기 제1 참조 영상의 대응 영역은, 상기 제1 참조 영역에 있으며 상기 제2 참조 영상에서의 로컬 영역과 동일한 위치 좌표를 가지는 영역이다.
제2 측면 또는 제2 측면의 제1 내지 제10 가능한 구현 중 어느 하나를 참조하여 제2 측면의 제12 가능한 구현에서, 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이 업데이트되는 경우, 상기 제1 참조 영상의 영역이 순차적으로 미리 설정된 순서대로 탐색되고, 상기 제1 참조 영상의 대응 영역은 순서대로 업데이트되지 않은 제1 영역이며, 그렇지 않은 경우, 상기 제1 참조 영상의 대응 영역은 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이다.
제2 측면 또는 제2 측면의 제1 내지 제10 가능한 구현 중 어느 하나를 참조하여 제2 측면의 제13 가능한 구현에서, 상기 비트스트림을 파싱하여 참조 영상 업뎅트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는, 상기 로컬 영역의 위치 좌표와 상기 제1 참조 영상의 관련 영역의 위치 좌표 사이의 공간 오프셋을 획득하는 단계를 더 포함하고, 상기 공간 오프셋은 횡방향 오프셋과 종방향 오프셋을 포함하며,
상기 디코딩 방법은, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상에서의 로컬 영역의 화소 값으로 대체하는 단계 이전에, 상기 제2 참조 영상의 로컬 영역의 위치 좌표 및 상기 공간 오프셋에 따라 상기 제1 참조 영상의 관련 영역의 위치를 결정하는 단계를 더 포함한다.
제2 측면 또는 제2 측면의 제1 내지 제13 가능한 구현 중 어느 하나를 참조하여 제2 측면의 제14 가능한 구현에서, 상기 디코딩 방법은, 화소 값 대체 후의 상기 제1 참조 영상의 대응 영역 또는 관련 영역과 이웃 영역 사이의 경계에서 필터링을 수행하는 단계를 더 포함한다.
제2 측면 또는 제2 측면의 제1 내지 제14 가능한 구현 중 어느 하나를 참조하여 제2 측면의 제15 가능한 구현에서, 상기 디코딩 방법은, 상기 제1 참조 영상은 상기 비트스트림을 파싱하는 것에 의해 획득된 복원 영상의 제1 프레임인 것을 더 포함한다.
제2 측면 또는 제2 측면의 제1 내지 제14 가능한 구현 중 어느 하나를 참조하여 제2 측면의 제16 가능한 구현에서, 상기 디코딩 방법은, 상기 제1 참조 영상은 상기 비트스트림을 파싱하는 것에 의해 획득된 랜덤 액세스 포인트 영상인 것을 더 포함한다.
제2 측면 또는 제2 측면의 제1 내지 제16 가능한 구현 중 어느 하나를 참조하여 제2 측면의 제17 가능한 구현에서, 상기 디코딩 방법은, 상기 제2 참조 영상에서의 상기 로컬 영역은 최대 코딩 유닛, 코딩 유닛, 코딩 유닛 그룹 또는 미리 설정된 크기의 영상 영역 중 하나인 것을 더 포함한다.
제2 측면을 참조하여 제2 측면의 제18 가능한 구현에서, 상기 비트스트림을 파싱하여 제1 참조 영상의 복원 영상을 획득하는 것은, 상기 비트스트림을 파싱하여 상기 제1 참조 영상의 특정 픽처 순서 카운트를 획득하고, 상기 특정 픽처 순서 카운트를 가지는 상기 제1 참조 영상의 복원 영상을 획득하는 단계를 포함한다.
제2 측면 또는 제2 측면의 제19 가능한 구현을 참조하여 제2 측면의 제18 가능한 구현에서, 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 것은, 상기 비트스트림을 파싱하여 상기 제2 참조 영상의 특정 픽처 순서 카운트를 획득하고, 상기 제2 참조 영상의 특정 픽처 순서 카운트를 가지는 상기 제2 참조 영상의 복원 영상을 획득하는 단계를 포함하고, 상기 제2 참조 영상의 상기 특정 픽처 순서 카운트는 상기 제2 참조 영상을 사용하여 업데이트된 상기 제1 참조 영상의 특정 픽처 순서 카운트와 연관된다.
제3 측면에 따르면, 참조 영상 인코딩 방법이 제공되며, 상기 인코딩 방법은 인코딩될 시퀀스(to-be-encoded sequence)를 인코딩하여 제1 참조 영상의 복원 영상을 획득하고, 제2 참조 영상을 인코딩하여 상기 제2 참조 영상의 복원 영상을 획득하는 단계; 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계; 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되었는지의 여부를 결정하는 단계; 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않고 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정된 경우, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하는 단계; 및 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용된 참조 영상 업데이트 정보를 비트스트림으로 컴파일(compile)하는 단계를 포함하고, 상기 제1 참조 영상은 상기 제2 참조 영상 전에 인코딩되고, 상기 로컬 영역의 크기는 상기 제2 참조 영상의 크기보다 작거나 같다.
제3 측면을 참조하여 제3 측면의 제1 가능한 구현에서, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는,
상기 제2 참조 영상의 인코딩될 영상에 있으며 상기 로컬 영역과 동일한 위치 좌표를 가지는 제1 영역과, 상기 제2 참조 영상의 이전 프레임의 인코딩될 영상에 있으며 상기 로컬 영역과 동일한 위치 좌표를 가지는 제2 영역을 획득하는 단계; 상기 제1 영역과 상기 제2 영역의 모든 화소의 평균 제곱 오차를 계산하는 단계; 및 상기 평균 제곱 오차가 제4 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
제3 측면을 참조하여 제3 측면의 제2 가능한 구현에서, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는,
상기 로컬 영역의 인코딩될 영상을 획득하여 프레임간 예측을 수행하고 상기 로컬 영역의 예측 영상을 획득하는 단계; 상기 로컬 영역의 인코딩될 영상과 상기 로컬 영역의 예측 영상에서의 모든 화소의 횡축 예측 차이(lateral axis prediction differences)의 절대값과 종축 예측 차이(longitudinal axis prediction differences)의 절대값의 평균값을 계산하는 단계; 및 상기 평균값이 제5 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
제3 측면을 참조하여 제3 측면의 제4 가능한 구현에서, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는,
상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 획득하는 단계 - 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합을 포함함 -; 및 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합이 제6 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
제3 측면을 참조하여 제3 측면의 제5 가능한 구현에서, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는,
상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 획득하는 단계 - 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값을 포함함 -; 및 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값이 제7 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
제3 측면을 참조하여 제3 측면의 제6 가능한 구현에서, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는,
상기 제2 참조 영상의 로컬 영역을 인코딩하기 위한 비트의 수량과 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 영역을 인코딩하기 위한 비트의 수량을 카운트하는 단계; 및 상기 제2 참조 영상의 로컬 영역을 인코딩하기 위한 비트의 수량이 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 영역을 인코딩하기 위한 비트의 수량보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
제3 측면을 참조하여 제3 측면의 제7 가능한 구현에서, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는,
상기 제2 참조 영상의 로컬 영역을 인코딩하기 위한 비트의 수량과 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 프레임에서의 영역을 인코딩하기 위한 비트의 평균 수량을 카운트하는 단계; 및 상기 제2 참조 영상의 로컬 영역을 인코딩하는 비트의 수량이 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 프레임에서의 영역을 인코딩하기 위한 비트의 평균 수량보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
제3 측면을 참조하여 제3 측면의 제8 가능한 구현에서, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는,
상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 획득하는 단계 - 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값을 포함함 -; 및 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값이 모두 제8 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
제3 측면을 참조하여 제3 측면의 제9 가능한 구현에서, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는,
상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 획득하는 단계 - 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값과, 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값을 포함함 -; 및 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값이, 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
제3 측면을 참조하여 제3 측면의 제10 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하기 위한 플래그를 포함하고,
이에 상응하여, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용된 참조 영상 업데이트 정보를 비트스트림으로 컴파일하는 단계는, 상기 플래그의 값을 상기 비트스트림으로 컴파일하는 단계를 포함하고, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우 상기 플래그는 제1 값이거나, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 경우 상기 플래그는 제2 값이며, 상기 제1 값은 상기 제2 값과 상이한다.
제3 측면을 참조하여 제3 측면의 제11 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 제2 참조 영상의 로컬 영역의 양자화 파라미터 오프셋 값을 포함하고,
이에 상응하여, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용된 참조 영상 업데이트 정보를 비트스트림으로 컴파일하는 단계는, 상기 양자화 파라미터 오프셋 값을 상기 비트스트림으로 컴파일하는 단계를 포함하고, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우 상기 양자화 파라미터 오프셋 값의 절대값이 제3 값 범위에 속하거나, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 경우 상기 양자화 파라미터 오프셋 값의 절대값이 제3 값 범위에 속하지 않는다.
제3 측면의 제11 가능한 구현을 참조하여 제3 측면의 제12 가능한 구현에서, 상기 제3 값 범위는 10보다 크거나 같고 20보다 작다.
제3 측면을 참조하여 제3 측면의 제13 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 제2 참조 영상에서의 로컬 영역의 양자화 단계의 스케일 팩터를 포함하고,
이에 상응하여, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용된 참조 영상 업데이트 정보를 비트스트림으로 컴파일하는 단계는, 상기 양자화 단계의 스케일 팩터를 상기 비트스트림으로 컴파일하는 단계를 포함하고, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우 상기 양자화 단계의 스케일 팩터가 제4 값 범위에 속하거나, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 경우 상기 양자화 단계의 스케일 팩터가 제4 값 범위에 속하지 않는다.
제3 측면의 제13 가능한 구현을 참조하여 제3 측면의 제14 가능한 구현에서, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우, 상기 양자화 단계의 스케일 팩터가 0,5보다 크거나 같고 1보다 작거나, 상기 스케일 팩터가 1.5보다 작거나 같고 1보다 큰 것을 포함한다.
제3 측면을 참조하여 제3 측면의 제15 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 포함하고, 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합을 포함하며,
이에 상응하여, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용된 참조 영상 업데이트 정보를 비트스트림으로 컴파일하는 단계는, 상기 변환 계수 정보를 상기 비트스트림으로 컴파일하는 단계; 및 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합이 제9 임계값보다 크고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계를 포함한다.
제3 측면을 참조하여 제3 측면의 제16 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 포함하고, 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값을 포함하며,
이에 상응하여, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용된 참조 영상 업데이트 정보를 비트스트림으로 컴파일하는 단계는, 상기 변환 계수 정보를 상기 비트스트림으로 컴파일하는 단계; 및 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값이 제10 임계값보다 크고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계를 포함한다.
제3 측면을 참조하여 제3 측면의 제17 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 포함하고, 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값을 포함하며,
이에 상응하여, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용된 참조 영상 업데이트 정보를 비트스트림으로 컴파일하는 단계는, 상기 움직임 벡터 정보를 상기 비트스트림으로 컴파일하는 단계; 및 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값이 모두 제11 임계값보다 작고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계를 포함한다.
제3 측면을 참조하여 제3 측면의 제18 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 포함하고, 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값과, 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값을 포함하며,
이에 상응하여, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용된 참조 영상 업데이트 정보를 비트스트림으로 컴파일하는 단계는, 상기 움직임 벡터 정보를 상기 비트스트림으로 컴파일하는 단계; 및 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값이, 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값보다 작고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계를 포함한다.
제3 측면을 참조하여 제3 측면의 제19 가능한 구현에서, 상기 인코딩될 시퀀스를 인코딩하여 상기 제2 참조 영상의 복원 영상을 획득하는 것은, 고정 양자화 파라미터를 사용하여 상기 제2 참조 영상의 인코딩될 영상을 인코딩하는 단계를 포함하고, 제1 양자화 파라미터가 상기 로컬 영역을 위해 사용되고, 제2 양자화 파라미터는 상기 로컬 영역이 아닌 영역을 위해 사용된다.
제3 측면의 제19 가능한 구현을 참조하여 제3 측면의 제20 가능한 구현에서, 상기 인코딩 방법은, 상기 제2 양자화 파라미터가 0보다 크거나 같고 10보다 작은 경우 상기 제1 양자화 파라미터는 상기 제2 양자화 파라미터이고, 상기 제2 양자화 파라미터가 10보다 크거나 같고 37보다 작은 경우 상기 제1 양자화 파라미터는 상기 제2 양자화 파라미터 마이너스 5이며, 상기 제2 양자화 파라미터가 37보다 크거나 같고 51보다 작은 경우, 상기 제1 양자화 파라미터는 상기 제2 양자화 파라미터 마이너스 10인 것을 더 포함한다.
제3 측면을 참조하여 제3 측면의 제21 가능한 구현에서, 상기 인코딩될 시퀀스를 인코딩하여 상기 제2 참조 영상의 복원 영상을 획득하는 것은, 적응(adaptive) 양자화 파라미터를 사용하여 상기 제2 참조 영상의 인코딩될 영상을 인코딩하는 단계를 포함하고, 양자화 파라미터가 텍스쳐(texture) 정보 또는 움직임 정보 중 적어도 하나에 따라 상기 로컬 영역과, 상기 로컬 영역이 아닌 영역을 위해 결정되며, 프레임 레벨 양자화 파라미터가 사용되거나, 양자화 파라미터가 인코더에 의해 특정된 비트 레이트 할당 정책 또는 품질 제어 정책에 따라 설정되고 결정된다.
제3 측면 또는 제3 측면의 제1 내지 제21 가능한 구현을 참조하여 제3 측면의 제22 가능한 구현에서, 상기 제1 참조 영상의 대응 영역은, 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이다.
제3 측면 또는 제3 측면의 제1 내지 제21 가능한 구현을 참조하여 제3 측면의 제23 가능한 구현에서, 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이 업데이트되는 경우, 상기 제1 참조 영상의 영역이 순차적으로 미리 설정된 순서대로 탐색되고, 상기 제1 참조 영상의 대응 영역은 순서대로 업데이트되지 않는 제1 영역이고, 그렇지 않은 경우, 상기 제1 참조 영상의 대응 영역은 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이다.
제3 측면 또는 제3 측면의 제1 내지 제21 가능한 구현을 참조하여 제3 측면의 제24 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 로컬 영역의 위치 좌표와 상기 제1 참조 영상의 관련 영역의 위치 좌표 사이의 공간 오프셋을 더 포함하고, 상기 공간 오프셋은 횡방향 오프셋 및 종방향 오프셋을 포함하며,
이에 상응하여, 상기 인코딩 방법은, 상기 공간 오프셋을 상기 비트스트림으로 컴파일하는 단계를 더 포함한다.
제3 측면 또는 제3 측면의 제1 내지 제24 가능한 구현을 참조하여 제3 측면의 제25 가능한 구현에서, 상기 인코딩 방법은, 화소 값 대체 후의 상기 제1 참조 영상의 대응 영역 또는 관련 영역과 이웃 영역 사이의 경계에서 필터링을 수행하는 단계를 더 포함한다.
제3 측면 또는 제3 측면의 제1 내지 제25 가능한 구현을 참조하여 제3 측면의 제26 가능한 구현에서, 상기 인코딩 방법은, 상기 제1 참조 영상은 상기 인코딩될 시퀀스를 인코딩하는 것에 의해 획득된 복원 영상의 제1 프레임인 것을 더 포함한다.
제3 측면 또는 제3 측면의 제1 내지 제25 가능한 구현을 참조하여 제3 측면의 제27 가능한 구현에서, 상기 인코딩 방법은, 상기 제1 참조 영상은 상기 인코딩될 시퀀스를 인코딩하는 것에 의해 획득된 랜덤 액세스 포인트 영상인 것을 더 포함한다.
제3 측면 또는 제3 측면의 제1 내지 제27 가능한 구현을 참조하여 제3 측면의 제28 가능한 구현에서, 상기 인코딩 방법은, 상기 제2 참조 영상의 상기 로컬 영역은 최대 코딩 유닛, 코딩 유닛, 코딩 유닛 그룹 또는 미리 설정된 크기의 영상 영역 중 하나인 것을 더 포함한다.
제3 측면을 참조하여 제3 측면의 제29 가능한 구현에서, 상기 인코딩될 시퀀스를 인코딩하여 제1 참조 영상의 복원 영상을 획득하는 것은, 상기 인코딩될 시퀀스를 검출하는 단계; 상기 제1 참조 영상이 장면 전환 영상(scene switchover image)인지를 결정하는 단계; 상기 제1 참조 영상의 특정 픽처 순서 카운트를 결정하는 단계; 및 상기 제1 참조 영상의 인코딩될 영상이 인코드된 후에 상기 특정 픽처 순서 카운트를 상기 비트스트림으로 컴파일하는 단계를 포함한다.
제3 측면을 참조하여 제3 측면의 제30 가능한 구현에서, 상기 인코딩될 시퀀스를 인코딩하여 제2 참조 영상의 복원 영상을 획득하는 것은, 상기 제2 참조 영상을 사용하여 업데이트된 상기 제1 참조 영상의 특정 픽처 순서 카운트를 결정하는 단계; 및 상기 제2 참조 영상의 인코딩될 영상이 인코딩 되기 전 또는 후에 상기 특정 픽처 순서 카운트 또는 상기 특정 픽처 순서 카운트에 연관된 수를 비트스트림으로 컴파일하는 단계를 포함한다.
제4 측면에 따르면, 참조 영상 디코딩 디바이스가 제공되며, 상기 디코딩 디바이스는, 비트스트림을 파싱하여 제1 참조 영상의 복원 영상과 제2 참조 영상의 복원 영상을 획득하도록 구성된 제1 디코딩 모듈; 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하도록 구성된 제2 디코딩 모듈; 및 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되는 경우, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하도록 구성된 제3 디코딩 모듈을 포함하고, 상기 제1 참조 영상은 상기 제2 참조 영상 전에 디코딩되고, 상기 로컬 영역의 크기는 상기 제2 참조 영상의 크기보다 작거나 같ㄷ다.
제4 측면을 참조하여 제4 측면의 제1 가능한 구현에서, 상기 제2 디코딩 모듈은 구체적으로, 상기 비트스트림을 파싱하여 플래그를 획득하고; 그리고 상기 플래그가 제1 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 플래그가 제2 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하도록 구성되며, 상기 제1 값은 상기 제2 값과 상이한다.
제4 측면을 참조하여 제4 측면의 제2 가능한 구현에서, 상기 제2 디코딩 모듈은 구체적으로, 상기 비트스트림을 파싱하여 코딩 정보를 획득하고; 그리고 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하도록 구성된다.
제4 측면의 제2 가능한 구현을 참조하여 제4 측면의 제3 가능한 구현에서, 상기 방법은 코딩 정보를 결정하는 단계를 더 포함하고, 상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 양자화 파라미터 오프셋 값을 포함하고, 이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하도록 구성된다.
제4 측면의 제3 가능한 구현을 참조하여 제4 측면의 제4 가능한 구현에서, 상기 방법은 상기 제1 값 범위는 10보다 크거나 같고 20보다 작은 것을 더 포함한다.
제4 측면의 제2 가능한 구현을 참조하여 제4 측면의 제5 가능한 구현에서, 상기 방법은 코디 정보를 결정하는 단계를 더 포함하고, 상기 코딩 정보는 상기 제2 참조 영상에서의 로컬 영역의 양자화 단계의 스케일 팩터를 포함하고, 이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하도록 구성된다.
제4 측면의 제5 가능한 구현을 참조하여 제4 측면의 제6 가능한 구현에서, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하는 것은, 상기 양자화 단계의 스케일 팩터가 0.5보다 크거나 같고 1보다 작은 경우 또는 상기 스케일 팩터가 1.5보다 작거나 같고 1보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하는 것을 포함한다.
제4 측면 또는 제4 측면의 제1 내지 제6 가능한 구현을 참조하여 제4 측면의 제7 가능한 구현에서, 상기 제1 참조 영상의 대응 영역은, 상기 제1 참조 영역에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이다.
제4 측면 또는 제4 측면의 제1 내지 제6 가능한 구현을 참조하여 제4 측면의 제8 가능한 구현에서, 상기 제2 디코딩 모듈은 추가로 구체적으로, 상기 로컬 영역의 위치 좌표와 상기 제1 참조 영상의 관련 영역의 위치 좌표 사이의 공간 오프셋을 획득하고; 그리고 상기 제3 디코딩 모듈이 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하기 이전에, 상기 제2 참조 영상의 로컬 영역의 위치 좌표 및 상기 공간 오프셋에 따라 상기 제1 참조 영상의 관련 영역의 위치를 결정하도록 구성되고, 상기 공간 오프셋은 횡방향 오프셋 및 종방향 오프셋을 포함한다.
제4 측면 또는 제4 측면의 제1 내지 제8 가능한 구현을 참조하여 제4 측면의 제9 가능한 구현에서, 상기 디코딩 디바이스는, 제4 디코딩 모듈을 더 포함하고, 상기 제4 디코딩 모듈은 구체적으로, 화소 값 대체 후의 상기 제1 참조 영상의 대응 영역 또는 관련 영역과 이웃 영역 사이의 경계에서 필터링을 수행하도록 구성된다.
제4 측면 또는 제4 측면의 제1 내지 제9 가능한 구현을 참조하여 제4 측면의 제10 가능한 구현에서, 상기 제1 참조 영상은 상기 비트스트림을 파싱하는 것에 의해 획득된 복원 영상의 제1 프레임이다.
제4 측면 또는 제4 측면의 제1 내지 제9 가능한 구현을 참조하여 제4 측면의 제11 가능한 구현에서, 상기 제1 참조 영상은 상기 비트스트림을 파싱하는 것에 의해 획득된 랜덤 액세스 포인트 영상이다.
제4 측면 또는 제4 측면의 제1 내지 제11 가능한 구현을 참조하여 제4 측면의 제12 가능한 구현에서, 상기 제2 참조 영상의 상기 로컬 영역은 최대 코딩 유닛, 코딩 유닛, 코딩 유닛 그룹 또는 미리 설정된 크기의 영상 영역 중 하나이다.
제4 측면을 참조하여 제4 측면의 제13 가능한 구현에서, 상기 제1 디코딩 모듈은 추가로 구체적으로, 상기 비트스트림을 파싱하여 상기 제1 참조 영상의 특정 픽처 순서 카운트를 획득하도록 구성된다.
제4 측면 또는 제4 측면의 제13 가능한 구현을 참조하여 제4 측면의 제14 가능한 구현에서, 상기 제1 디코딩 모듈은 추가로 구체적으로, 상기 비트스트림을 파싱하여 상기 제2 참조 영상의 특정 픽처 순서 카운트를 획득하도록 구성되고, 상기 제2 참조 영상의 상기 특정 픽처 순서 카운트는 상기 제2 참조 영상을 사용하여 업데이트된 상기 제1 참조 영상의 특정 픽처 순서 카운트와 연관된다.
제5 측면에 따르면 참조 영상 디코딩 디바이스가 제공되며, 상기 디코딩 디바이스는, 비트스트림을 파싱하여 제1 참조 영상의 복원 영상과 제2 참조 영상의 복원 영상을 획득하도록 구성된 제1 디코딩 모듈; 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하도록 구성된 제2 디코딩 모듈; 및 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되었는지의 여부를 결정하고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정된 경우, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하도록 구성된 제3 디코딩 모듈을 포함하며, 상기 제1 참조 영상은 상기 제2 참조 영상 전에 디코딩되고, 상기 로컬 영역의 크기는 상기 제2 참조 영상의 크기보다 작거나 같다.
제5 측면을 참조하여 제5 측면의 제1 가능한 구현에서, 상기 제2 디코딩 모듈은 구체적으로, 상기 비트스트림을 파싱하여 플래그를 획득하고; 그리고 상기 플래그가 제1 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하거나, 상기 플래그가 제2 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성되며, 상기 제1 값은 상기 제2 값과 상이하다.
제5 측면을 참조하여 제5 측면의 제2 가능한 구현에서, 상기 제2 디코딩 모듈은 구체적으로, 상기 비트스트림을 파싱하여 코딩 정보를 획득하고; 그리고 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하도록 구성된다.
제5 측면의 제2 가능한 구현을 참조하여 제5 측면의 제3 가능한 구현에서, 상기 방법은 코딩 정보를 결정하는 단계를 더 포함하고, 상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 포함하고, 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합을 포함하며,
이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합이 제1 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
제5 측면의 제2 가능한 구현을 참조하여 제5 측면의 제4 가능한 구현에서, 상기 방법은 코딩 정보를 결정하는 단계를 더 포함하고, 상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 포함하고, 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값을 포함하며,
이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값이 제2 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
제5 측면의 제2 가능한 구현을 참조하여 제5 측면의 제5 가능한 구현에서, 상기 방법은 코딩 정보를 결정하는 단계를 더 포함하고, 상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 양자화 파라미터 오프셋 값을 포함하고,
이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하거나, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
제5 측면의 제5 가능한 구현을 참조하여 제5 측면의 제6 가능한 구현에서, 상기 방법은 상기 제1 값 범위는 10보다 크거나 같고 20보다 작은 것을 더 포함한다.
제5 측면의 제2 가능한 구현을 참조하여 제5 측면의 제7 가능한 구현에서, 상기 방법은 코딩 정보를 결정하는 단계를 더 포함하고, 상기 코딩 정보는 상기 제2 참조 영상에서의 로컬 영역의 양자화 단계의 스케일 팩터를 포함하고,
이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하거나, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않는 것으로 결정하도록 구성된다.
제5 측면의 제7 가능한 구현을 참조하여 제5 측면의 제8 가능한 구현에서, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하는 것은, 상기 양자화 단계의 스케일 팩터가 0.5보다 크거나 같고 1보다 작은 경우 또는 상기 스케일 팩터가 1.5보다 작거나 같고 1보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하는 것을 포함한다.
제5 측면의 제2 가능한 구현을 참조하여 제5 측면의 제9 가능한 구현에서, 상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 포함하고, 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값을 포함하고,
이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값이 모두 제3 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않는 것으로 결정하도록 구성된다.
제5 측면의 제2 가능한 구현을 참조하여 제5 측면의 제10 가능한 구현에서, 상기 방법은 코딩 정보를 결정하는 단계를 더 포함하고, 상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 포함하고, 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값과, 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값을 포함하고,
이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값이, 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않는 것으로 결정하도록 구성된다.
제5 측면 또는 제5 측면의 제1 내지 제10 가능한 구현을 참조하여 제5 측면의 제11 가능한 구현에서, 상기 제1 참조 영상의 대응 영역은, 상기 제1 참조 영역에 있으며 상기 제2 참조 영상에서의 로컬 영역과 동일한 위치 좌표를 가지는 영역이다.
제5 측면 또는 제5 측면의 제1 내지 제10 가능한 구현을 참조하여 제5 측면의 제12 가능한 구현에서, 상기 제2 디코딩 모듈은 추가로 구체적으로, 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이 업데이트되는 경우, 상기 제1 참조 영상의 영역을 순차적으로 미리 설정된 순서대로 탐색하도록 구성되고, 상기 제1 참조 영상의 대응 영역은 순서대로 업데이트되지 않은 제1 영역이며, 그렇지 않으면 상기 제1 참조 영상의 대응 영역은 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이다.
제5 측면 또는 제5 측면의 제1 내지 제10 가능한 구현을 참조하여 제5 측면의 제13 가능한 구현에서, 상기 제2 디코딩 모듈은 추가로 구체적으로, 상기 로컬 영역의 위치 좌표와 상기 제1 참조 영상의 관련 영역의 위치 좌표 사이의 공간 오프셋을 획득하고; 그리고 상기 제3 디코딩 모듈이 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상에서의 로컬 영역의 화소 값으로 대체하기 이전에, 상기 제2 참조 영상의 로컬 영역의 위치 좌표 및 상기 공간 오프셋에 따라 상기 제1 참조 영상의 관련 영역의 위치를 결정하도록 구성되고, 상기 공간 오프셋은 횡방향 오프셋과 종방향 오프셋을 포함한다.
제5 측면 또는 제5 측면의 제1 내지 제10 가능한 구현을 참조하여 제5 측면의 제14 가능한 구현에서, 상기 디코딩 디바이스는 제4 디코딩 모듈을 더 포함하고, 상기 제4 디코딩 모듈은 구체적으로, 화소 값 대체 후의 상기 제1 참조 영상의 대응 영역 또는 관련 영역과 이웃 영역 사이의 경계에서 필터링을 수행하도록 구성된다.
제5 측면 또는 제5 측면의 제1 내지 제14 가능한 구현을 참조하여 제5 측면의 제15 가능한 구현에서, 상기 디코딩 디바이스는 상기 제1 참조 영상이 상기 비트스트림을 파싱하는 것에 의해 획득된 복원 영상의 제1 프레임인 것을 더 포함한다.
제5 측면 또는 제5 측면의 제1 내지 제14 가능한 구현을 참조하여 제5 측면의 제16 가능한 구현에서, 상기 디코딩 디바이스는 상기 제1 참조 영상이 상기 비트스트림을 파싱하는 것에 의해 획득된 랜덤 액세스 포인트 영상인 것을 더 포함한다.
제5 측면 또는 제5 측면의 제1 내지 제16 가능한 구현을 참조하여 제5 측면의 제17 가능한 구현에서, 상기 디코딩 디바이스는, 상기 제2 참조 영상에서의 상기 로컬 영역이 최대 코딩 유닛, 코딩 유닛, 코딩 유닛 그룹 또는 미리 설정된 크기의 영상 영역 중 하나인 것을 더 포함한다.
제5 측면을 참조하여 제5 측면의 제18 가능한 구현에서, 상기 제1 디코딩 모듈은 추가로 구체적으로, 상기 비트스트림을 파싱하여 상기 제1 참조 영상의 특정 픽처 순서 카운트를 획득하도록 구성된다.
제5 측면 또는 제5 측면의 제17 가능한 구현을 참조하여 제5 측면의 제19 가능한 구현에서, 상기 제1 디코딩 모듈은 추가로 구체적으로, 상기 비트스트림을 파싱하여 상기 제2 참조 영상의 특정 픽처 순서 카운트를 획득하도록 구성되고, 상기 제2 참조 영상의 상기 특정 픽처 순서 카운트는 상기 제2 참조 영상을 사용하여 업데이트된 상기 제1 참조 영상의 특정 픽처 순서 카운트와 연관된다.
제6 측면에 따르면, 참조 영상 인코딩 디바이스가 제공되며, 상기 인코딩 디바이스는, 인코딩될 시퀀스를 인코딩하여 제1 참조 영상의 복원 영상을 획득하고, 제2 참조 영상을 인코딩하여 상기 제2 참조 영상의 복원 영상을 획득하도록 구성된 제1 인코딩 모듈; 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하도록 구성된 제2 인코딩 모듈; 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되었는지의 여부를 결정하고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않고, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정된 경우, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하도록 구성된 제3 인코딩 모듈; 및 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용된 참조 영상 업데이트 정보를 비트스트림으로 컴파일하도록 구성된 제4 인코딩 모듈을 포함하고, 상기 제1 참조 영상은 상기 제2 참조 영상 전에 인코딩되고, 상기 로컬 영역의 크기는 상기 제2 참조 영상의 크기보다 작거나 같다.
제6 측면을 참조하여 제6 측면의 제1 가능한 구현에서, 상기 제2 인코딩 모듈은 구체적으로, 상기 제2 참조 영상의 인코딩될 영상에 있으며 상기 로컬 영역과 동일한 위치 좌표를 가지는 제1 영역과, 상기 제2 참조 영상의 이전 프레임의 인코딩될 영상에 있으며 상기 로컬 영역과 동일한 위치 좌표를 가지는 제2 영역을 획득하고; 상기 제1 영역과 상기 제2 영역의 모든 화소의 평균 제곱 오차를 계산하며; 그리고 상기 평균 제곱 오차가 제4 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
제6 측면을 참조하여 제6 측면의 제2 가능한 구현에서, 상기 제2 인코딩 모듈은 구체적으로, 상기 로컬 영역의 인코딩될 영상을 획득하여 프레임간 예측을 수행하고 상기 로컬 영역의 예측 영상을 획득하고; 상기 로컬 영역의 인코딩될 영상과 상기 로컬 영역의 예측 영상에서의 모든 화소의 횡축 예측 차이의 절대값과 종축 예측 차이의 절대값의 평균값을 계산하며; 그리고 상기 평균값이 제5 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
제6 측면을 참조하여 제6 측면의 제4 가능한 구현에서, 상기 제2 인코딩 모듈은 구체적으로, 상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 획득하고 - 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합을 포함함 -; 그리고 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합이 제6 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
제6 측면을 참조하여 제6 측면의 제5 가능한 구현에서, 상기 제2 인코딩 모듈은 구체적으로, 상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 획득하고 - 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값을 포함함 -; 그리고 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값이 제7 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
제6 측면을 참조하여 제6 측면의 제6 가능한 구현에서, 상기 제2 인코딩 모듈은 구체적으로, 상기 제2 참조 영상의 로컬 영역을 인코딩하기 위한 비트의 수량과 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 영역을 인코딩하기 위한 비트의 수량을 카운트하고; 그리고 상기 제2 참조 영상의 로컬 영역을 인코딩하기 위한 비트의 수량이 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 영역을 인코딩하기 위한 비트의 수량보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
제6 측면을 참조하여 제6 측면의 제7 가능한 구현에서, 상기 제2 인코딩 모듈은 구체적으로, 상기 제2 참조 영상의 로컬 영역을 인코딩하기 위한 비트의 수량과 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 프레임에서의 영역을 인코딩하기 위한 비트의 평균 수량을 카운트하고; 그리고 상기 제2 참조 영상의 로컬 영역을 인코딩하는 비트의 수량이 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 프레임에서의 영역을 인코딩하기 위한 비트의 평균 수량보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
제6 측면을 참조하여 제6 측면의 제8 가능한 구현에서, 상기 제2 인코딩 모듈은 구체적으로, 상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 획득하고 - 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값을 포함함 -; 그리고 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값이 모두 제8 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
제6 측면을 참조하여 제6 측면의 제9 가능한 구현에서, 상기 제2 인코딩 모듈은 구체적으로, 상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 획득하고 - 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값과, 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값을 포함함 -; 그리고 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값이, 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
제6 측면을 참조하여 제6 측면의 제10 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하기 위한 플래그를 포함하고, 이에 상응하여, 상기 제4 인코딩 모듈은 구체적으로, 상기 플래그의 값을 상기 비트스트림으로 컴파일하도록 구성되고,
상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우 상기 플래그는 제1 값이거나, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 경우 상기 플래그는 제2 값이며, 상기 제1 값은 상기 제2 값과 상이하다.
제6 측면을 참조하여 제6 측면의 제11 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 제2 참조 영상의 로컬 영역의 양자화 파라미터 오프셋 값을 포함하고,
이에 상응하여, 상기 4 인코딩 모듈은 구체적으로, 상기 양자화 파라미터 오프셋 값을 상기 비트스트림으로 컴파일하도록 구성되고, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우 상기 양자화 파라미터 오프셋 값의 절대값이 제3 값 범위에 속하거나, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 경우 상기 양자화 파라미터 오프셋 값의 절대값이 제3 값 범위에 속하지 않는다.
제6 측면의 제11 가능한 구현을 참조하여 제6 측면의 제12 가능한 구현에서, 상기 제3 값 범위는 10보다 크거나 같고 20보다 작다.
제6 측면을 참조하여 제6 측면의 제13 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 제2 참조 영상에서의 로컬 영역의 양자화 단계의 스케일 팩터를 포함하고,
이에 상응하여, 상기 제4 인코딩 모듈은 구체적으로, 상기 양자화 단계의 스케일 팩터를 상기 비트스트림으로 컴파일하도록 구성되고, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우 상기 양자화 단계의 스케일 팩터가 제4 값 범위에 속하거나, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 경우 상기 양자화 단계의 스케일 팩터가 제4 값 범위에 속하지 않는다.
제6 측면의 제13 가능한 구현을 참조하여 제6 측면의 제14 가능한 구현에서, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우, 상기 양자화 단계의 스케일 팩터가 0,5보다 크거나 같고 1보다 작거나, 상기 스케일 팩터가 1.5보다 작거나 같고 1보다 큰 것을 포함하는 것을 더 포함한다.
제6 측면을 참조하여 제6 측면의 제15 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 포함하고, 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합을 포함하며,
이에 상응하여, 상기 제4 인코딩 모듈은 구체적으로, 상기 변환 계수 정보를 상기 비트스트림으로 컴파일하고; 그리고 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합이 제9 임계값보다 크고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하도록 구성된다.
제6 측면을 참조하여 제6 측면의 제16 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 포함하고, 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값을 포함하며,
이에 상응하여, 상기 제4 인코딩 모듈은 구체적으로, 상기 변환 계수 정보를 상기 비트스트림으로 컴파일하고; 그리고 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값이 제10 임계값보다 크고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하도록 구성된다.
제6 측면을 참조하여 제6 측면의 제17 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 포함하고, 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값을 포함하며,
이에 상응하여, 상기 제4 인코딩 모듈은 구체적으로, 상기 움직임 벡터 정보를 상기 비트스트림으로 컴파일하고; 그리고 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값이 모두 제11 임계값보다 작고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하도록 구성된다.
제6 측면을 참조하여 제6 측면의 제18 가능한 구현에서, 상기 참조 영상 업데이트 정보는 상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 포함하고, 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값과, 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값을 포함하며,
이에 상응하여, 상기 제4 인코딩 모듈은 구체적으로, 상기 움직임 벡터 정보를 상기 비트스트림으로 컴파일하고; 그리고 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값이, 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값보다 작고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하도록 구성된다.
제6 측면을 참조하여 제6 측면의 제19 가능한 구현에서, 상기 제1 인코딩 모듈은 구체적으로, 고정 양자화 파라미터를 사용하여 상기 제2 참조 영상의 인코딩될 영상을 인코딩하도록 구성되고, 제1 양자화 파라미터가 상기 로컬 영역을 위해 사용되고, 제2 양자화 파라미터는 상기 로컬 영역이 아닌 영역을 위해 사용된다.
제6 측면의 제19 가능한 구현을 참조하여 제6 측면의 제20 가능한 구현에서, 상기 방법은, 상기 제2 양자화 파라미터가 0보다 크거나 같고 10보다 작은 경우 상기 제1 양자화 파라미터는 상기 제2 양자화 파라미터이고, 상기 제2 양자화 파라미터가 10보다 크거나 같고 37보다 작은 경우 상기 제1 양자화 파라미터는 상기 제2 양자화 파라미터 마이너스 5이며, 상기 제2 양자화 파라미터가 37보다 크거나 같고 51보다 작은 경우 상기 제1 양자화 파라미터는 상기 제2 양자화 파라미터 마이너스 10인 것을 포함한다.
제6 측면을 참조하여 제6 측면의 제21 가능한 구현에서, 상기 제1 인코딩 모듈은 구체적으로, 적응 양자화 파라미터를 사용하여 상기 제2 참조 영상의 인코딩될 영상을 인코딩하도록 구성되고, 양자화 파라미터가 텍스쳐 정보 또는 움직임 정보 중 적어도 하나에 따라 상기 로컬 영역과, 상기 로컬 영역이 아닌 영역을 위해 결정되며, 프레임 레벨 양자화 파라미터가 사용되거나, 양자화 파라미터가 인코더에 의해 특정된 비트 레이트 할당 정책 또는 품질 제어 정책에 따라 설정되고 결정된다.
제6 측면 또는 제6 측면의 제1 내지 제21 가능한 구현을 참조하여 제6 측면의 제22 가능한 구현에서, 상기 인코딩 디바이스는, 상기 제1 참조 영상의 대응 영역이, 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역인 것을 더 포함한다.
제6 측면 또는 제6 측면의 제1 내지 제21 가능한 구현을 참조하여 제6 측면의 제23 가능한 구현에서, 상기 제2 인코딩 모듈은 추가로 구체적으로, 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이 업데이트되는 경우, 상기 제1 참조 영상의 영역을 순차적으로 미리 설정된 순서대로 탐색하도록 구성되고, 상기 제1 참조 영상의 대응 영역은 순서대로 업데이트되지 않는 제1 영역이고, 그렇지 않으면 상기 제1 참조 영상의 대응 영역은 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이다.
제6 측면 또는 제6 측면의 제1 내지 제21 가능한 구현을 참조하여 제6 측면의 제24 가능한 구현에서, 상기 인코딩 디바이스는, 상기 참조 영상 업데이트 정보가 상기 로컬 영역의 위치 좌표와 상기 제1 참조 영상의 관련 영역의 위치 좌표 사이의 공간 오프셋을 더 포함하고, 상기 공간 오프셋은 횡방향 오프셋 및 종방향 오프셋을 포함하는 것을 더 포함하며, 이에 상응하여, 상기 제2 인코딩 모듈은 추가로 구체적으로, 상기 공간 오프셋을 상기 비트스트림으로 컴파일하도록 구성된다.
제6 측면 또는 제6 측면의 제1 내지 제24 가능한 구현을 참조하여 제6 측면의 제25 가능한 구현에서, 상기 인코딩 디바이스는, 제5 인코딩 모듈을 더 포함하고, 상기 제5 인코딩 모듈은 추가로 구체적으로, 화소 값 대체 후의 상기 제1 참조 영상의 대응 영역 또는 관련 영역과 이웃 영역 사이의 경계에서 필터링을 수행하도록 구성된다.
제6 측면 또는 제6 측면의 제1 내지 제25 가능한 구현을 참조하여 제6 측면의 제26 가능한 구현에서, 상기 인코딩 디바이스는, 상기 제1 참조 영상이 상기 인코딩될 시퀀스를 인코딩하는 것에 의해 획득된 복원 영상의 제1 프레임인 것을 더 포함한다.
제6 측면 또는 제6 측면의 제1 내지 제25 가능한 구현을 참조하여 제6 측면의 제27 가능한 구현에서, 상기 인코딩 디바이스는, 상기 제1 참조 영상이 상기 인코딩될 시퀀스를 인코딩하는 것에 의해 획득된 랜덤 액세스 포인트 영상인 것을 더 포함한다.
제6 측면 또는 제6 측면의 제1 내지 제27 가능한 구현을 참조하여 제6 측면의 제28 가능한 구현에서, 상기 인코딩 디바이스는, 상기 제2 참조 영상의 상기 로컬 영역이 최대 코딩 유닛, 코딩 유닛, 코딩 유닛 그룹 또는 미리 설정된 크기의 영상 영역 중 하나인 것을 더 포함한다.
제6 측면을 참조하여 제6 측면의 제29 가능한 구현에서, 상기 인코딩 디바이스는, 제6 인코딩 모듈을 더 포함하고, 상기 제6 인코딩 모듈은 구체적으로, 상기 인코딩될 시퀀스를 검출하고; 상기 제1 참조 영상이 장면 전환 영상인지를 결정하며; 상기 제1 참조 영상의 특정 픽처 순서 카운트를 결정하고; 그리고 상기 제1 참조 영상의 인코딩될 영상이 인코드된 후에 상기 특정 픽처 순서 카운트를 상기 비트스트림으로 컴파일하도록 구성된다.
제6 측면을 참조하여 제6 측면의 제30 가능한 구현에서, 상기 제1 인코딩 모듈은 추가로 구체적으로, 상기 제2 참조 영상을 사용하여 업데이트된 상기 제1 참조 영상의 특정 픽처 순서 카운트를 결정하고; 그리고 상기 제2 참조 영상의 인코딩될 영상이 인코딩 되기 전 또는 후에 상기 특정 픽처 순서 카운트 또는 상기 특정 픽처 순서 카운트에 연관된 수를 비트스트림으로 컴파일하도록 구성된다.
전술한 기술적 해결 방안을 토대로, 본 발명의 실시 예에서의 참조 영상 인코딩 방법, 참조 영상 디코딩 방법, 참조 영상 인코딩 디바이스 및 참조 영상 디코딩 디바이스에 따라, 배경 참조 영상, 즉, 제1 참조 영상이 후속 인코딩된 참조 영상을 사용하여 국부적으로 업데이트된다. 따라서, 인코딩 및 디코딩 처리에 있어서, 배경 참조 영상의 업데이트 정보가 전송을 위해 후속 참조 영상에 배분되어, 디코더 측에서 복원된 영상을 분석하는 것에 의해 발생되는 복잡성의 증가를 방지하고, 또한 배경 참조 영상의 전송에 의해 발생되는 비트스트림의 비트 레이트의 급격한 증가에 의해 야기되는 전송 지연을 방지한다.
본 발명의 실시 예에서의 기술적 해결 방안을 보다 명확하게 설명하기 위해, 이하에서는 실시 예를 설명하기 위해 요구되는 첨부 도면을 간략하게 설명한다. 명백하게, 이하의 설명에서 첨부 도면은 단지 본 발명의 일부 실시 예를 보여주며, 본 발명의 기술 분야에서 통상의 지식을 가진자는 창조적인 노력 없이도 이들 도면으로부터 다른 도면을 유추할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 참조 영상 디코딩 방법의 개략적인 흐름도이다.
도 2는 본 발명의 일 실시 예에 따른 필터링 방법의 수직 경계에서의 필터링을 도시한 개략도이다.
도 3은 본 발명의 일 실시 예에 따른 필터링 방법의 수평 경계에서의 필터링을 도시한 개략도이다.
도 4는 본 발명의 일 실시 예에 따른 참조 영상 디코딩 방법의 다른 개략적인 흐름도이다.
도 5는 본 발명의 일 실시 예에 따른 해당 지역을 탐색하는 방법의 탐색 순서의 개략도이다.
도 6은 본 발명의 일 실시 예에 따른 참조 영상 인코딩 방법의 개략적인 흐름도이다.
도 7은 본 발명의 다른 실시 예에 따른 참조 영상 인코딩 방법의 개략적인 흐름도이다.
도 8은 본 발명의 다른 실시 예에 따른 참조 영상 인코딩 방법의 다른 개략적인 흐름도이다.
도 9는 본 발명의 다른 실시 예에 따른 참조 영상 디코딩 방법의 개략적인 흐름도이다.
도 10은 본 발명의 일 실시 예에 따른 참조 영상 디코딩 장치의 개략적인 블록도이다.
도 11은 본 발명의 일 실시 예에 따른 참조 영상 디코딩 장치의 다른 개략적인 블록도이다.
도 12는 본 발명의 실시 예에 따른 참조 영상 인코딩 장치의 개략적인 블록도이다.
도 13은 본 발명의 다른 실시 예에 따른 참조 영상 인코딩 장치의 개략적인 블록도이다.
도 14는 본 발명의 다른 실시 예에 따른 참조 영상 인코딩 장치의 다른 개략적인 블록도이다.
도 15는 본 발명의 다른 실시 예에 따른 참조 영상 디코딩 장치의 개략적인 블록도이다.
도 16은 본 발명의 또 다른 실시 예에 따른 참조 영상 인코딩 장치의 개략적인 블록도이다.
도 17은 본 발명의 또 다른 실시 예에 따른 참조 영상 인코딩 장치의 개략적인 블록도이다.
도 18은 본 발명의 또 다른 실시 예에 따른 참조 영상 인코딩 장치의 다른 개략적인 블록도이다.
이하, 본 발명의 실시 예의 첨부 도면을 참조하여 본 발명의 실시 예에서의 기술적 해결 방안을 명확하게 설명한다. 명백하게, 설명된 실시 예는 본 발명의 일부 실시 예에 불과하며 전부는 아니다. 창의적인 노력없이 본 발명의 실시 예에 기초하여 당업자에 의해 획득된 다른 모든 실시 예는 본 발명의 보호 범위 내에 있다.
도 1은 본 발명의 일 실시 예에 따른 참조 영상 디코딩 방법(1000)의 개략적인 흐름도이다. 도 1에 도시된 방법은 디코딩 디바이스 예를 들어, 디코더에 의해 수행될 수 있다. 구체적으로, 도 1에 도시된 바와 같이, 방법(1000)은 다음의 단계들을 포함한다.
S1100 : 비트스트림을 파싱하여, 제1 참조 영상의 복원 영상(reconstructed image) 및 제2 참조 영상의 복원 영상을 획득하며, 여기서 제1 참조 영상은 제2 참조 영상 전에 디코딩된다.
S1200 : 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정한다. 로컬 영역의 크기는 제2 참조 영상의 크기보다 작거나 같다.
S1300 : 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되는 경우, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체한다.
구체적으로는, 디코딩 디바이스는 비트스트림을 파싱하여 제1 참조 영상 및 제2 참조 영상을 획득하며, 인코더 측에 대응하여, 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전 또는 그때 또는 후에, 참조 영상 업데이트 정보를 파싱하고, 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하며, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되면, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체한다. 본 발명에서 제2 참조 영상은 시간 영역에서 제1 참조 영상의 뒤에 위치하는 참조 영상들의 총칭이며, 제2 참조 영상의 수량은 상이한 요구 사항에 따라 달라진다. 이것은 본 발명에서 한정되지 않는다.
따라서, 본 발명의 실시 예에서의 참조 영상 디코딩 방법에 따르면, 디코딩 디바이스는 화소 복사 방식으로 후속하는 참조 영상의 업데이트 정보를 이용하여 제1 참조 영상을 국소적으로 업데이트한다. 따라서, 제1 참조 영상을 사용함으로써 압축 효율이 향상되면서 디코딩 복잡성이 감소되며, 비트 레이트의 급격한 증가에 의해 야기되는 지연도 방지된다.
본 발명의 실시 예에서, 제2 참조 영상의 로컬 영역은 최대 코딩 유닛(largest coding unit, LCU), 코딩 유닛(coding unit, CU), 코딩 유닛 그룹(CU group), 또는 미리 설정된 크기의 영상 영역 중 하나 일 수 있음을 이해해야 한다. 이것은 본 발명에 한정되지 않는다.
본 발명의 실시 예에서, 제1 참조 영상은 제2 참조 영상 전에 디코딩된 영상이고, 제1 참조 영상이 위치된 비디오 세그먼트에서의 후속 영상의 참조 영상으로서 사용된다는 것을 이해해야 한다. 제1 참조 영상은 비트스트림을 파싱하여 획득된 복원 영상의 제1 프레임일 수 있고, 또는 비트스트림을 파싱하여 획득된 랜덤 액세스 포인트 영상일 수도 있다. 이것은 본 발명에 한정되지 않는다.
본 발명의 본 실시 예에서, 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 비트스트림이 파싱되어 참조 영상 업데이트 정보가 획득되는 것은, 인코더 측의 코딩 방식(scheme)에 대응하여, 비트스트림의 참조 영상 업데이트 정보의 위치가, 제2 참조 영상의 코딩 정보 전 또는 사이 또는 후에 있을 수 있음을 의미하며, 참조 영상 업데이트 정보는 제2 참조 영상의 코딩 정보의 일부로서 비트스트림에 존재할 수 있음을 이해해야 한다. 이것은 본 발명에 한정되지 않는다.
단계(S1200)에서 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 것의 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 상기 참조 영상 업데이트 정보를 결정하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는,
상기 비트스트림을 파싱하여 플래그를 획득하는 단계; 및 상기 플래그가 제1 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 플래그가 제2 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계를 포함하며, 상기 제1 값은 상기 제2 값과 상이하다.
바람직하게, 특정 구현은, 비트스트림으로부터 현재 디코딩될 프레임의 각 영역의 참조 영상 업데이트 플래그를 판독하는 것이며, 여기서 1은 영역이 제1 참조 영상을 업데이트하는 데 사용됨을 나타내고 0은 그 영역은 제1 참조 영상을 업데이트하는 데 사용되지 않음을 나타낸다.
제2 실현가능한 구현에서, 상기 참조 영상 업데이트 정보를 결정하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는,
상기 비트스트림을 파싱하여 코딩 정보를 획득하는 단계; 및 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계를 포함한다.
상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 양자화 파라미터 오프셋 값을 포함하고, 이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계를 포함한다.
바람직하게, 구체적인 구현은, 비트스트림으로부터 현재 디코딩될 프레임 내의 각 영역의 양자화 파라미터 오프셋 값(
Figure 112018006656714-pct00001
)을 판독하고, 상기 양자화 파라미터 오프셋의 절대값의 범위에 따라, 영역이 제1 참조 영상을 업데이트하는데 사용되는지의 여부를 결정하는 것이며,
Figure 112018006656714-pct00002
이면 영역은 제1 참조 영상을 업데이트하는데 사용되거나,
Figure 112018006656714-pct00003
이면 영역은 제1 참조 영상을 업데이트하는데 사용되지 않는다.
본 발명의 본 실시 예에서, 바람직한 값이 양자화 파라미터 오프셋 값으로서 제공되지만, 본 발명에서 양자화 파라미터 오프셋 값의 값이 한정되지 않는다는 것을 이해해야 한다.
제3 실현가능한 구현에서, 상기 참조 영상 업데이트 정보를 결정하고, 상기 참조 영상 업데이트 정보에 따라, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 사용되는지의 여부를 결정하는 단계는,
비트스트림을 파싱하여 코딩 정보를 획득하고, 코딩 정보 및 미리 설정된 규칙에 따라, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 상기 대응 영역 또는 관련 영역을 업데이트하는데 사용되는지의 여부를 결정하는 단계를 포함한다.
상기 코딩 정보는 상기 제2 참조 영상에서의 로컬 영역의 양자화 단계의 스케일 팩터(scale factor)를 포함하고, 이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계를 포함한다.
바람직하게, 특정 구현은 비트스트림으로부터 스케일 팩터를 판독하여 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 사용되는지의 여부를 결정하는 것이다.
스케일 팩터 F의 계산식은 다음 (1)에 표시되며, 스케일 팩터 F는 0.5 내지 1.5 의 값 범위에 속한다.
Figure 112018006656714-pct00004
영역의 양자화 단계의 계산식은 다음 (2)에 표시된다.
Figure 112018006656714-pct00005
스케일 팩터 F가 1인 경우, 영역은 제1 참조 영상을 업데이트하는데 사용되지 않으며, 그렇지 않으면, 영역이 제1 참조 영상을 업데이트하는 데 사용된다.
본 발명의 실시 예에서, 바람직한 값이 스케일 팩터의 값에 대해 제공되지만, 스케일 팩터의 값은 본 발명에서 한정되지 않는다는 것을 이해해야 한다.
단계(S1200)에서, 참조 영상 업데이트 정보에 따라, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 사용되는지의 여부가 결정된다. 제1 참조 영상에서 대응 영역 또는 관련 영역을 결정하는 것의 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 제1 참조 영상의 대응 영역은 제1 참조 영상에 있고 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 갖는 영역이다.
제2 실현가능한 구현에서, 상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는, 상기 로컬 영역의 위치 좌표와 상기 제1 참조 영상의 관련 영역의 위치 좌표 사이의 공간 오프셋(spatial offsets)을 획득하는 단계 - 상기 공간 오프셋은 횡방향 오프셋(lateral offset) 및 종방향 오프셋(longitudinal offset)을 포함함-; 및 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하는 단계 이전에, 상기 제2 참조 영상의 로컬 영역의 위치 좌표 및 상기 공간 오프셋에 따라 상기 제1 참조 영상의 관련 영역의 위치를 결정하는 단계를 더 포함한다.
바람직하게, 특정 구현은, 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 영역에 대해, 비트스트림으로부터(cMVx, cMVy)를 판독하고,(cMVx, cMVy) 및 영역의 위치(Curx, Cury) 그리고 식 (3)에 따라, 영역의 것이며 제1 참조 영상에 있는 업데이트 위치를 획득하는 것이다.
Figure 112018006656714-pct00006
선택적으로, 단계(S1300) 후에, 즉 참조 영상 업데이트 정보에 따라, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 사용되는 것으로 결정되는 경우, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체하고, 상기 방법은 다음을 더 포함한다.
S1400 : 화소 값 대체 후의 제1 참조 영상의 대응 영역 또는 관련 영역과 이웃 영역 사이의 경계에서 필터링을 수행한다.
바람직하게, 특정 구현은 다음과 같다.
제1 단계: 업데이트 영역과 업데이트 영역의 우측의 이웃 영역 사이의 수직 경계 부근의 화소에 대해 필터링 처리를 수행한다. 도 2에 도시된 바와 같이, P는 업데이트 영역을 나타내고, Q는 업데이트 영역의 우측 이웃 영역을 나타내며, 화소 pcol, j 및 qi , row이 적색 박스에 있으며, 여기서, i = 0, 1, 2는 각각 3개의 화소 즉, 수직 경계에 가장 근접하고 P 및 Q의 각각의 행에 있는 필터링될 화소들을 나타내고, 필터링될 화소의 값은 식 (4)를 사용한 계산을 통해 획득되며, 화소의 첨자에서의 행 좌표 열은 식에서 생략된다.
Figure 112018006656714-pct00007
제2 단계: 업데이트 영역과 업데이트 영역 왼쪽의 인접 영역 사이의 수직 경계 부근의 화소에 대해 필터링 처리를 수행한다. 처리 방법은 제1 단계와 동일하다.
제3 단계 : 업데이트 영역과 그 위의 이웃 영역 사이의 수평 경계 부근의 화소에 대하여 필터링 처리를 수행한다. 도 3에 도시된 바와 같이, P는 업데이트 영역을 나타내고, Q는 업데이트 영역 위의 인접 영역을 나타내며, 적색 박스에 화소 pcol,j 및 qcol,j가 있고, 여기서 j = 0, 1 및 2는 각각 3개의 화소 즉, 수평 경계에 가장 근접하고 P 및 Q의 각각의 열에 있는 필터링될 화소를 나타내며, 필터링될 화소의 값은 식 (4)를 사용하여 계산을 통해 획득되며, 화소의 첨자에 있는 열 좌표는 식에서 생략된다.
제4 단계 : 업데이트 영역과 그 아래의 이웃 영역 사이의 수평 경계 부근의 화소에 대하여 필터링 처리를 수행한다. 처리 방법은 제1 단계와 동일하다.
도 4는 본 발명의 일 실시 예에 따른 참조 영상 디코딩 방법의 개략적인 흐름도이다. 도 4에 도시된 방법은, 디코딩 디바이스, 예를 들어, 디코더에 의해 수행될 수 있다. 구체적으로는, 도 4에 도시된 바와 같이, 방법(2000)은 다음 단계들을 포함한다.
S2100 : 비트스트림을 파싱하여 제1 참조 영상의 복원 영상 및 제2 참조 영상의 복원 영상을 획득하며, 제1 참조 영상은 제2 참조 영상 전에 디코딩된다.
S2200 : 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 이전에, 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정한다.
S2300 : 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되었는지의 여부를 결정하며, 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않고, 참조 영상 업데이트 정보에 따라, 제2 참조 영상의 로컬 영역이 대응 영역 또는 관련을 업데이트하는 데 적합한 것으로 결정된 경우, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체한다.
구체적으로는, 디코딩 디바이스는 비트스트림을 파싱하여 제1 참조 영상 및 제2 참조 영상을 획득하며, 인코더 측에 대응하여, 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전 또는 그때 또는 후에, 참조 영상 업데이트 정보를 파싱하고, 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하며, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되면, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체한다.
따라서, 본 발명의 실시 예에서의 참조 영상 디코딩 방법에 따르면, 디코딩 디바이스는 화소 복사 방식으로 후속하는 참조 영상의 업데이트 정보를 이용하여 제1 참조 영상을 국소적으로 업데이트한다. 따라서, 제1 참조 영상을 사용함으로써 압축 효율이 향상되면서 디코딩 복잡성이 감소되며, 비트 레이트의 급격한 증가에 의해 야기되는 지연도 방지된다.
본 발명의 실시 예에서, 제2 참조 영상의 로컬 영역은 최대 코딩 유닛(LCU), 코딩 유닛(CU), 코딩 유닛 그룹(CU group), 또는 미리 설정된 크기의 영상 영역 중 하나 일 수 있음을 이해해야 하며, 이것은 본 발명에 한정되지 않는다.
본 발명의 실시 예에서, 제1 참조 영상은 제2 참조 영상 전에 디코딩된 영상이고, 제1 참조 영상이 위치된 비디오 세그먼트에서 후속 영상의 참조 영상으로서 사용된다는 것을 이해해야 한다. 제1 참조 영상은 비트스트림을 파싱하는 것에 의해 획득된 복원 영상의 제1 프레임일 수도 있고, 비트스트림을 파싱하는 것에 의해 획득된 랜덤 액세스 포인트 영상일 수도 있다. 이것은 본 발명에 한정되지 않는다.
본 발명의 실시 예에서, 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 비트스트림이 파싱되어 참조 영상 업데이트 정보가 획득되는 것은, 인코더 측의 코딩 방식에 대응하여, 비트스트림의 참조 영상 업데이트 정보의 위치가, 제2 참조 영상의 코딩 정보 전 또는 사이 또는 후에 있을 수 있음을 의미하며, 참조 영상 업데이트 정보는 제2 참조 영상의 코딩 정보의 일부로서 비트스트림에 존재할 수 있음을 이해해야 한다. 이것은 본 발명에 한정되지 않는다.
단계(S2200)에서 상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 것의 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는,
상기 비트스트림을 파싱하여 플래그를 획득하는 단계; 및 상기 플래그가 제1 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하거나, 상기 플래그가 제2 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함하며, 상기 제1 값은 상기 제2 값과 상이하다.
바람직하게, 특정 구현은 비트스트림으로부터 현재 디코딩될 프레임에서의 각각의 영역의 참조 영상 업데이트 플래그를 판독하는 것이며, 1은 영역이 제1 참조 영상을 업데이트하는 데 적합함을 나타내며, 0은 영역이 제1 참조 영상을 업데이트하는 데 적합하지 않음을 나타낸다.
제2 실현가능한 구현에서, 상기 참조 영상 업데이트 정보를 결정하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는,
상기 비트스트림을 파싱하여 코딩 정보를 획득하고, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계를 포함한다.
상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 포함하고, 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합을 포함하며,
이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는, 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합이 제1 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
바람직하게, 구체적인 구현은, 다음의 조건(5)을 만족시키는 영역을 획득하기 위해, 비트스트림으로부터 양자화 후의 현재 프레임에서의 각 영역의 변환 계수를 판독하는 것이다.
Figure 112018006656714-pct00008
조건(5)을 만족하면, 영역이 제1 참조 영상의 업데이트에 적합한 것으로 결정되고, 그렇지 않으면, 영역이 제1 참조 영상을 업데이트하는데 적합하지 않은 것으로 결정된다.
제3 실현가능한 구현에서, 상기 참조 영상 업데이트 정보를 결정하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는,
상기 비트스트림을 파싱하여 코딩 정보를 획득하고, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계를 포함한다.
상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 포함하고, 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값을 포함하며, 이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는, 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값이 제2 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
바람직하게, 구체적인 구현은, 다음의 조건(6)을 만족시키는 영역을 획득하기 위해, 비트스트림으로부터 양자화 후의 현재 프레임의 각 영역의 변환 계수를 판독하는 것이다. numBlock은 현재 프레임에 포함된 영역의 수량을 나타낸다.
Figure 112018006656714-pct00009
조건(6)이 만족되면, 영역은 제1 참조 영상을 업데이트하는 데 적합한 것으로 결정되고, 그렇지 않으면, 영역이 제1 참조 영상을 업데이트하는데 적합하지 않은 것으로 결정된다.
제4 실현가능한 구현에서, 상기 참조 영상 업데이트 정보를 결정하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는,
상기 비트스트림을 파싱하여 코딩 정보를 획득하고, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계를 포함한다.
상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 양자화 파라미터 오프셋 값을 포함하고, 이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하거나, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
바람직하게, 구체적인 구현은, 비트스트림으로부터 현재 디코딩될 프레임 내의 각 영역의 양자화 파라미터 오프셋 값(
Figure 112018006656714-pct00010
)을 판독하고, 양자화 파라미터 오프셋의 절대값의 범위에 따라, 영역이 제1 참조 영상을 업데이트하는데 적합한지의 여부를 결정하는 것이며,
Figure 112018006656714-pct00011
이면 영역은 제1 참조 영상을 업데이트하는데 적합하거나,
Figure 112018006656714-pct00012
이면 영역은 제1 참조 영상을 업데이트하는데 적합하지 않다.
본 발명의 실시 예에서, 바람직한 값이 양자화 파라미터 오프셋 값으로서 제공되지만, 본 발명에서 양자화 파라미터 오프셋 값의 값이 한정되지 않는다는 것을 이해해야 한다.
제5 실현가능한 구현에서, 상기 참조 영상 업데이트 정보를 결정하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는,
상기 비트스트림을 파싱하여 코딩 정보를 획득하고, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계를 포함한다.
상기 코딩 정보는 상기 제2 참조 영상에서의 로컬 영역의 양자화 단계의 스케일 팩터를 포함하고, 이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하거나, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않는 것으로 결정하는 단계를 포함한다.
바람직하게, 특정 구현은 비트스트림으로부터 스케일 팩터를 판독하여 제2 참조 영상 내의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 적합한지의 여부를 결정하는 것이다.
스케일 팩터 F의 계산식은 다음(7)에 표시되며, 스케일 팩터 F는 0.5 내지 1.5의 범위에 속한다.
Figure 112018006656714-pct00013
영역의 양자화 단계의 계산식은 다음 (8)에 표시된다.
Figure 112018006656714-pct00014
스케일 팩터 F가 1인 경우, 영역은 제1 참조 영상을 업데이트하는 데 적합하지 않으며, 그렇지 않으면 영역은 제1 참조 영상을 업데이트하는 데 적합하다.
본 발명의 실시 예에서, 바람직한 값이 스케일 팩터의 값에 대해 제공되지만, 스케일 팩터의 값은 본 발명에서 한정되지 않는다는 것을 이해해야 한다.
제6 실현가능한 구현에서, 상기 참조 영상 업데이트 정보를 결정하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는,
상기 비트스트림을 파싱하여 코딩 정보를 획득하고, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계를 포함한다.
상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 포함하고, 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값을 포함하고, 이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는, 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값이 모두 제3 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않는 것으로 결정하는 단계를 포함한다.
바람직하게, 특정 구현은 다음 조건(9)을 만족하는 영역을 획득하는 것이다.
Figure 112018006656714-pct00015
식(9)에서, M은 현재 영역에 포함되는 코드 블록의 수량을 나타내고, MVx 및 MVy는 각각 각 코드 블록의 횡방향 움직임 벡터 및 종방향 움직임 벡터를 나타낸다. 현재 영역에서의 모든 코드 블록의 횡방향 움직임 벡터의 절대값의 평균값과 현재 영역에서의 모든 코드 블록의 종방향 움직임 벡터의 절대값의 평균값이 계산된다. 두 평균값이 임계 값(Threshold3)과 별도로 비교된다. 조건(9)가 만족되면 영역은 제1 참조 영상을 업데이트하는데 적합한 것으로 결정되고, 그렇지 않으면, 영역은 제1 참조 영상을 업데이트하는데 적합하지 않은 것으로 결정된다.
제7 실현가능한 구현에서, 상기 참조 영상 업데이트 정보를 결정하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계는, 상기 비트스트림을 파싱하여 코딩 정보를 획득하고, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 단계를 포함한다.
상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값과, 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값을 포함하고,
이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는, 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값이, 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않는 것으로 결정하는 단계를 포함한다.
바람직하게, 특정 구현은 다음 조건(10)을 만족하는 영역을 획득하는 것이다.
Figure 112018006656714-pct00016
식(10)에서, M은 현재 영역에 포함되는 코드 블록의 수량을 나타내고, N은 이전 인코딩된 프레임/이전 디코딩된 프레임에 포함된 코드 블록의 수량을 나타내고, MVx 및 MVy는 각각 각 코드 블록의 횡방향 움직임 벡터 및 종방향 움직임 벡터를 나타낸다. 조건(10)이 만족되면 영역은 제1 참조 영상을 업데이트하는 데 적합한 것으로 결정되고; 그렇지 않으면, 영역이 제1 참조 영상을 업데이트하는 데 적합하지 않은 것으로 결정된다. 이전 디코딩된 프레임은 시간 영역에서 제2 참조 영상 전에 위치된 이웃하는 디코딩된 프레임이거나, 이웃하는 디코딩된 프레임을 포함하는 다수의 연속적인 디코딩된 프레임이라는 유의해야 한다.
단계(S2200)에서, 참조 영상 업데이트 정보에 따라, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부가 결정된다. 제1 참조 영상의 대응 영역 또는 관련 영역을 결정하는 것의 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 제1 참조 영상의 대응 영역은 제1 참조 영상에 있고 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 갖는 영역이다.
제2 실현가능한 구현에서, 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이 업데이트되는 경우, 상기 제1 참조 영상의 영역이 순차적으로 미리 설정된 순서대로 탐색되고, 상기 제1 참조 영상의 대응 영역은 순서대로 업데이트되지 않은 제1 영역이며, 그렇지 않은 경우, 상기 제1 참조 영상의 대응 영역은 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이다.
바람직하게, 특정 구현은, 제1 참조 영상에 있고 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 갖는 영역이 업데이트되었는지의 여부를 결정하는 것이다. 영역이 업데이트되지 않으면, 제1 참조 영상의 대응 영역은 제1 참조 영상에 있고 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 갖는 영역이고; 그렇지 않으면, 업데이트되지 않은 영역 위치들이 미리 설정된 탐색 단계에 따라 상기 위치에 이웃하는 영역에서 탐색되며, 제1 참조 영상의 대응 영역은 업데이트되지 않은 영역 위치이다.
바람직하게, 미리 설정된 탐색 단계의 특정 구현이 도 5에 도시된다. 중앙 영역 0은 현재 위치 영역을 나타낸다. 현재 위치 영역에 가장 가까운 영역의 원이 먼저 1 내지 8의 순서로 탐색되고, 그 다음에 현재 위치 영역에 가장 가까운 두 번째 원의 원이 1 내지 16의 순서로 탐색되고, 이를 기본으로 외측 확대가 업데이트되지 않은 영역이 발견될 때까지 수행된다.
제3 실현가능한 구현에서, 상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는, 상기 로컬 영역의 위치 좌표와 상기 제1 참조 영상의 관련 영역의 위치 좌표 사이의 공간 오프셋을 획득하는 단계 - 상기 공간 오프셋은 횡방향 오프셋과 종방향 오프셋을 포함함 - ; 및 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상에서의 로컬 영역의 화소 값으로 대체하는 단계 이전에, 상기 제2 참조 영상의 로컬 영역의 위치 좌표 및 상기 공간 오프셋에 따라 상기 제1 참조 영상의 관련 영역의 위치를 결정하는 단계를 더 포함한다.
바람직하게, 특정 구현은, 제1 참조 영역의 대응 영역 또는 관련 영역을 업데이트하는데 사용된 영역에 대해, 비트스트림으로부터(cMVx, cMVy)를 판독하고,(cMVx, cMVy) 및 상기 영역의 위치(Curx, Cury) 및 식(11)에 따라, 영역의 것이고 제1 참조 영상에 있는 업데이트 위치를 획득하는 것이다.
Figure 112018006656714-pct00017
선택적으로, 단계(S2300) 후에, 즉 참조 영상 업데이트 정보에 따라, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 사용되는 것으로 결정되는 경우, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체하며, 상기 방법은 다음을 더 포함한다.
S2400 : 화소 값 대체 후의 제1 참조 영상의 대응 영역 또는 관련 영역과 이웃 영역과의 경계에서 필터링을 수행한다.
바람직하게, 구체적인 구현은 S1400과 동일하다.
종래 기술과 비교할 때 본 발명의 본 실시 예의 유리한 효과를 더 잘 증명하기 위해, 본 발명의 본 실시 예에서의 방법이 인코딩에 사용되는 경우의 인코딩 성능과, 종래 기술의 방법이 인코딩에 사용되는 경우의 인코딩 성능을 테스트하고 비교하며, 그 결과가 표 1에 표시된다.
Figure 112018006656714-pct00018
표 1로부터, 본 발명의 본 실시 예에서의 참조 영상 디코딩 방법에 의하면, 종래 기술과 비교하여, 비트 레이트의 8%가 여전히 감소될 수 있으며, 디코더 측의 복잡도가 증가되지 않고 참조 영상의 전체 프레임이 전송되지 않음을 알 수 있다.
따라서, 본 발명의 본 실시 예에서의 참조 영상 디코딩 방법에 따르면, 디코딩 디바이스는 화소 복사 방식으로 후속하는 참조 영상의 업데이트 정보를 이용하여 제1 참조 영상을 국소적으로 업데이트한다. 따라서, 제1 참조 영상을 사용함으로써 압축 효율이 향상되면서 디코딩 복잡성이 감소되며, 비트 레이트의 급격한 증가에 의해 야기되는 지연도 방지된다.
도 6은 본 발명의 일 실시 예에 따른 참조 영상 인코딩 방법의 개략적인 흐름도이다. 인코더 측의 관련 동작은 디코더 측의 동작과 본질적으로 동일하다는 점에 유의해야 한다. 반복을 피하기 위해, 상세한 설명은 여기서 다시 설명하지 않는다. 도 6에 도시된 방법은, 인코딩 디바이스, 예를 들어 인코더에 의해 수행될 수 있다. 구체적으로는, 도 6을 참조하면, 방법(3000)은 다음 단계들을 포함한다.
S3100 : 인코딩될 시퀀스를 인코딩하여 제1 참조 영상의 복원 영상을 획득하고, 제2 참조 영상을 인코딩하여 제2 참조 영상의 복원 영상을 획득하며, 제1 참조 영상은 제2 참조 영상 전에 인코딩된다.
S3200: 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하고, 로컬 영역의 크기는 제2 참조 영상의 크기보다 작거나 같다.
S3300 : 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되었는지의 여부를 결정하고; 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않고 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정되면, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체한다.
S3400 : 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는데 사용되는 참조 영상 업데이트 정보를 비트스트림으로 컴파일한다.
구체적으로는, 인코딩 디바이스는, 인코딩될 시퀀스를 인코딩하여 제1 참조 영상의 복원 영상을 획득하고, 제2 참조 영상을 인코딩하여 제2 참조 영상의 복원 영상을 획득하며, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하고, 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되었는지의 여부를 결정하며, 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않고, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정된 경우, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체하며, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용된 참조 영상 업데이트 정보를 비트스트림으로 컴파일한다.
따라서, 본 발명의 본 실시 예에서의 참조 영상 인코딩 방법에 따르면, 인코딩 디바이스는 화소 복사 방식으로 후속하는 참조 영상의 업데이트 정보를 이용하여 제1 참조 영상을 국소적으로 업데이트한다. 따라서, 제1 참조 영상을 사용함으로써 압축 효율이 향상되면서 디코딩 복잡성이 감소되며, 비트 레이트의 급격한 증가에 의해 야기되는 지연도 방지된다.
본 발명의 실시 예에서, 제2 참조 영상의 로컬 영역은 최대 코딩 유닛(LCU), 코딩 유닛(coding unit, CU), 코딩 유닛 그룹(CU group), 또는 미리 설정된 크기의 영상 영역 중 하나일 수 있다. 이것은 본 발명에 한정되지 않는다.
본 발명의 실시 예에서, 제1 참조 영상은 제2 참조 영상 전에 인코딩된 영상이고, 제1 참조 영상이 위치된 비디오 세그먼트에서의 후속 영상의 참조 영상으로서 사용된다는 것을 이해해야 한다. 제1 참조 영상은 인코딩될 시퀀스를 인코딩하여 획득된 복원 영상의 제1 프레임일 수 있고, 또는 인코딩될 시퀀스를 인코딩하여 획득된 랜덤 액세스 포인트 영상일 수도 있다. 이것은 본 발명에 한정되지 않는다.
본 발명의 본 실시 예에서, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 사용되는지를 결정하는데 사용되는 참조 영상 업데이트 정보가 비트스트림으로 컴파일되는 것은, 참조 영상 업데이트 정보가 비트스트림으로 컴파일되는 위치가 제2 참조 영상의 코딩 정보 이전, 사이 또는 이후에 있을 수 있고, 참조 영상 업데이트 정보가 제2 참조 영상의 코딩 정보의 일부로서 비트스트림에 존재할 수 있음을 의미한다는 것을 이해해야 한다. 이것은 본 발명에 한정되지 않는다.
단계(S3200)에서, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 것의 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 상기 방법은,
상기 제2 참조 영상의 인코딩될 영상에 있으며 상기 로컬 영역과 동일한 위치 좌표를 가지는 제1 영역과, 상기 제2 참조 영상의 이전 프레임의 인코딩될 영상에 있으며 상기 로컬 영역과 동일한 위치 좌표를 가지는 제2 영역을 획득하는 단계; 상기 제1 영역과 상기 제2 영역의 모든 화소의 평균 제곱 오차를 계산하는 단계; 및 상기 평균 제곱 오차가 제4 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
바람직하게, 특정 구현은 다음과 같다.
제1 단계: 인코딩될 프레임 Fi, 즉 제2 참조 영상 및 이전 프레임 Fi -1의 원래 영상을 획득한다.
제2 단계: 현재 인코딩될 프레임에서의 각각의 영역에 대해, 영역과 이전 프레임에서 있으면 동일한 위치를 가지는 영역에서의 모든 화소의 원래 화소 값의 평균 제곱 에러(Mean Square Error, MSE)를 계산한다.
제3 단계: 다음 조건(12)을 만족하는 영역을 획득하며, Threshold1은 미리 설정된 임계 값이고, Flagupdated는 참조 프레임 cRefi -1의 각각의 영역, 즉 제1 참조 영상이 업데이트되었는지의 여부를 나타내는 플래그이며, 1은 영역이 업데이트되었음을 나타내고, 0은 영역이 업데이트되지 않음을 나타내며, cRefi -1은 현재 인코딩될 프레임 Fi 이전의 인코딩된 프레임의 복원 화소 값을 사용하여 국부적으로 업데이트되는 참조 프레임이다.
Figure 112018006656714-pct00019
조건(12)을 만족하면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 적합하고, 그렇지 않으면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 적합하지 않다.
제2 실현가능한 구현에서, 상기 방법은,
상기 로컬 영역의 인코딩될 영상을 획득하여 프레임간 예측을 수행하고 상기 로컬 영역의 예측 영상을 획득하는 단계;
상기 로컬 영역의 인코딩될 영상과 상기 로컬 영역의 예측 영상에서의 모든 화소의 횡축 예측 차이(lateral axis prediction differences)의 절대값과 종축 예측 차이(longitudinal axis prediction differences)의 절대값의 평균값을 계산하는 단계; 및
상기 평균값이 제5 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
바람직하게, 특정 구현은 다음과 같다.
제1 단계 : 현재 인코딩될 프레임 Fi, 즉 제2 참조 영상을 예측하며, Fi 는 cRefi-1, 즉 제1 참조 영상을 Fi의 참조 프레임으로 사용하여 프레임간 예측을 수행할 수 있고, 또는 다른 단기 참조 프레임을 사용하여 프레임간 예측을 수행할 수 있으며, cRefi -1은 Fi, 즉, 제1 참조 영상의 이전의 인코딩된 프레임의 복원 화소 값을 사용하여 국부적으로 업데이트된 참조 프레임이며, Fi의 각 화소의 예측 값(Px, Py)과 원래의 화소 값(Ox, Oy) 사이의 차이, 즉 예측 오차를 획득한다.
제2 단계 : 다음 조건(13)을 만족하는 영역을 얻는다.
Figure 112018006656714-pct00020
식(13)에서, N은 영역에서의 화소의 수량이다. 영역에서의 모든 화소의 예측 오차의 평균값이 계산되어 임계 값(Threshold5)과 비교된다. 조건(13)을 만족하면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 적합하며, 그렇지 않으면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 적합하지 않다.
제3 실현가능한 구현에서, 상기 방법은,
상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 획득하는 단계 - 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합을 포함함 -; 및 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합이 제6 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
바람직하게, 특정 구현은 다음과 같다.
제1 단계: 현재 인코딩될 프레임 Fi, 즉 제2 참조 영상에 대해 예측 코딩을 수행하며, 여기서 Fi는 cRefi -1, 즉 제1 참조 영상을 Fi의 참조 프레임으로 사용하여 프레임간 예측을 수행할 수 있으며, 또는 다른 단기 참조 프레임을 사용하여 프레임간 예측을 수행할 수 있으며, cRefi-1은 Fi 이전의 인코딩된 프레임의 복원 화소 값을 사용하여 국부적으로 업데이트되는 참조 프레임이다.
제2 단계 : 현재 프레임의 각각의 영역의 양자화 후 코딩 정보와 변환 계수를 획득하고, 코딩 정보와 변환 계수에 대한 엔트로피 코딩(entropy coding)을 수행하고, 코딩 정보와 변환 계수를 비트스트림에 기록하며, 코딩 정보는 영역 내의 각각의 코드 블록의 코딩 모드 등을 포함한다.
제3 단계: 조건(14)을 만족하는 영역을 획득한다.
Figure 112018006656714-pct00021
조건(14)을 만족하면, 영상은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하며, 그렇지 않으면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않다.
제4 실현가능한 구현에서, 상기 방법은,
상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 획득하는 단계 - 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값을 포함함 -; 및 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값이 제7 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
바람직하게, 특정 구현은 다음과 같다.
제1 단계: 현재 인코딩될 프레임 Fi, 즉 제2 참조 영상에 대해 예측 코딩을 수행하며, 여기서 Fi는 cRefi -1, 즉 제1 참조 영상을 Fi의 참조 프레임으로 사용하여 프레임간 예측을 수행할 수 있으며, 또는 다른 단기 참조 프레임을 사용하여 프레임간 예측을 수행할 수 있으며, cRefi -1은 Fi 이전의 인코딩된 프레임의 복원 화소 값을 사용하여 국부적으로 업데이트되는 참조 프레임이다.
제2 단계 : 현재 프레임의 각각의 영역의 양자화 후 코딩 정보와 변환 계수를 획득하고, 코딩 정보와 변환 계수에 대한 엔트로피 코딩을 수행하고, 코딩 정보와 변환 계수를 비트스트림에 기록하며, 코딩 정보는 영역 내의 각각의 코드 블록의 코딩 모드 등을 포함한다.
제3 단계: 다음 조건(15)을 만족하는 영역을 획득하며, numBlock은 현재 프레임에 포함되는 영역의 수량을 나타낸다.
Figure 112018006656714-pct00022
조건(15)을 만족하면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하고; 그렇지 않으면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않다.
제5 실현가능한 구현에서, 상기 방법은,
상기 제2 참조 영상의 로컬 영역을 인코딩하기 위한 비트의 수량과 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 영역을 인코딩하기 위한 비트의 수량을 카운트하는 단계; 및 상기 제2 참조 영상의 로컬 영역을 인코딩하기 위한 비트의 수량이 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 영역을 인코딩하기 위한 비트의 수량보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
제6 실현가능한 구현에서, 상기 방법은,
상기 제2 참조 영상의 로컬 영역을 인코딩하기 위한 비트의 수량과 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 프레임에서의 영역을 인코딩하기 위한 비트의 평균 수량을 카운트하는 단계; 및 상기 제2 참조 영상의 로컬 영역을 인코딩하는 비트의 수량이 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 프레임에서의 영역을 인코딩하기 위한 비트의 평균 수량보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
제7 실현가능한 구현에서, 상기 방법은,
상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 획득하는 단계 - 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값을 포함함 -; 및 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값이 모두 제8 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
바람직하게, 특정 구현은 다음과 같다.
제1 단계: 현재 인코딩될 프레임 Fi, 즉 제2 참조 영상에 대해 예측 코딩을 수행하며, 여기서 Fi는 cRefi -1, 즉 제1 참조 영상을 Fi의 참조 프레임으로 사용하여 프레임간 예측을 수행할 수 있으며, 또는 다른 단기 참조 프레임을 사용하여 프레임간 예측을 수행할 수 있으며, cRefi -1은 Fi 이전의 인코딩된 프레임의 복원 화소 값을 사용하여 국부적으로 업데이트되는 참조 프레임이다.
제2 단계 : 현재 프레임의 각각의 영역의 양자화 후 코딩 정보와 변환 계수를 획득하고, 코딩 정보와 변환 계수에 대한 엔트로피 코딩을 수행하고, 코딩 정보와 변환 계수를 비트스트림에 기록하며, 코딩 정보는 영역에서의 각각의 코드 블록의 코딩 모드 등을 포함한다.
제3 단계: 다음 조건(16)을 만족하는 영역을 획득한다.
Figure 112018006656714-pct00023
식(16)에서, M은 현재 영역에 포함되는 코드 블록의 수량을 나타내고, MVx 및 MVy는 각각, 각각의 코드 블록의 횡방향 움직임 벡터 및 종방향 움직임 벡터를 나타낸다. 현재 영역에서의 모든 코드 블록의 횡방향 움직임 벡터의 절대값의 평균값과 현재 영역에서의 모든 코드 블록의 종방향 움직임 벡터의 절대값의 평균값이 계산된다. 두 개의 평균값이 임계 값(Threshold8)과 개별적으로 비교된다. 조건(16)을 만족하면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하며, 그렇지 않으면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않다.
제8 실현가능한 구현에서, 상기 방법은,
상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 획득하는 단계 - 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값과, 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값을 포함함 -; 및
상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값이, 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하는 단계를 포함한다.
바람직하게, 특정 구현은 다음과 같다.
제1 단계: 현재 인코딩될 프레임 Fi, 즉 제2 참조 영상에 대해 예측 코딩을 수행하며, 여기서 Fi는 cRefi -1, 즉 제1 참조 영상을 Fi의 참조 프레임으로 사용하여 프레임간 예측을 수행할 수 있으며, 또는 다른 단기 참조 프레임을 사용하여 프레임간 예측을 수행할 수 있으며, cRefi -1은 Fi 이전의 인코딩된 프레임의 복원 화소 값을 사용하여 국부적으로 업데이트되는 참조 프레임이다.
제2 단계 : 현재 프레임의 각각의 영역의 양자화 후 코딩 정보와 변환 계수를 획득하고, 코딩 정보와 변환 계수에 대한 엔트로피 코딩을 수행하고, 코딩 정보와 변환 계수를 비트스트림에 기록하며, 코딩 정보는 영역에서의 각각의 코드 블록의 코딩 모드 등을 포함한다.
제3 단계: 다음 조건(17)을 만족하는 영역을 획득한다.
Figure 112018006656714-pct00024
식(17)에서, M은 현재의 영역에 포함되는 코드 블록의 수량을 나타내고, N은 이전 인코딩된 프레임/이전 디코딩된 프레임에 포함된 코드 블록의 수량을 나타내며, MVx 및 MVy는 각각, 각각의 코드 블록의 횡방향 움직임 벡터 및 종방향 움직임 벡터를 나타낸다. 조건(17)을 만족하면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하며, 그렇지 않으면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않다.
단계(S3400)에서, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용되는 참조 영상 업데이트 정보가 비트스트림으로 컴파일된다. 참조 영상 업데이트 정보를 비트스트림으로 컴파일하는 것의 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 상기 방법은,
상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우 상기 플래그는 제1 값이거나, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 경우 상기 플래그는 제2 값이며, 상기 제1 값은 상기 제2 값과 상이하며,
상기 플래그의 값을 상기 비트스트림으로 컴파일하는 단계를 포함한다.
바람직하게, 특정 구현은 다음과 같다.
제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우 플래그가 1로 설정되고 비트스트림으로 컴파일되고; 그렇지 않은 경우 플래그는 0으로 설정되고 비트스트림으로 컴파일된다.
제2 실현가능한 구현에서, 상기 방법은,
상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우 상기 양자화 파라미터 오프셋 값의 절대값이 제3 값 범위에 속하거나, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 경우 상기 양자화 파라미터 오프셋 값의 절대값이 제3 값 범위에 속하지 않으며,
상기 양자화 파라미터 오프셋 값을 상기 비트스트림으로 컴파일하는 단계를 포함한다.
바람직하게, 특정 구현은 다음과 같다.
현재 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용된 로컬 영역이면, 영역의 QP(QParea)와 프레임 레벨 QP(QPSlice) 사이의 차이(
Figure 112018006656714-pct00025
)가 영역의 텍스쳐 특성(textural characteristics) 특성에 따라 설정된다. 본 실시 예에서, 영역의 텍스쳐 특성을 측정하기 위하여 영역에서의 화소의 휘도 값의 분산을 사용하는 방법이 사용된다. 예를 들면, 식(18)에서,
Figure 112018006656714-pct00026
는 현재 인코딩될 프레임에서의 모든 영역의 화소의 휘도값의 분산의 평균값에 대한 업데이트 영역에서의 화소의 휘도 값의 분산의 비율을 사용한 계산을 통해 획득되며,
Figure 112018006656714-pct00027
이다. 식에서, xi,n은 번호가 n인 영역의 화소 i의 휘도 값을 나타내고,
Figure 112018006656714-pct00028
은 번호가 n인 영역에서의 모든 화소의 휘도 값의 평균값을 나타내고, N은 현재 프레임의 영역의 수량을 나타낸다.
Figure 112018006656714-pct00029
본 실시 예에서, 분산을 사용하여 텍스쳐 특성을 측정하는 방법이 사용되거나, 다른 방법이 측정을 위해 사용될 수 있음을 이해할 수 있다. 또한,
Figure 112018006656714-pct00030
는 텍스쳐 특성 이외의 움직임 특성과 같은 다른 특성에 따라 설정될 수 있다.
양자화 파라미터 오프셋 값
Figure 112018006656714-pct00031
은 코딩 정보로서 비트스트림으로 컴파일된다.
본 발명의 본 실시 예에서, 바람직한 값이 양자화 파라미터 오프셋의 값으로서 제공되지만, 양자화 파라미터의 값 또는 양자화 파라미터 오프셋의 값은 본 발명에서 한정되지 않는다는 것을 이해해야 한다.
제3 실현가능한 구현에서 상기 방법은,
상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우 상기 양자화 단계의 스케일 팩터가 제4 값 범위에 속하거나, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 경우 상기 양자화 단계의 스케일 팩터가 제4 값 범위에 속하지 않으며,
상기 양자화 단계의 스케일 팩터를 상기 비트스트림으로 컴파일하는 단계를 포함한다.
바람직하게, 특정 구현은 다음과 같다.
제2 참조 영상의 로컬 영역을 이용하여 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 경우, 인코더 측은 적응적으로 양자화 스텝(Quantization Step, Qstep)을 조정하고, 양자화 스텝의 스케일 팩터를 인코딩하고, 양자화 스텝의 스케일 팩터를 디코더 측에 전송한다. 영역의 양자화 단계의 스케일 팩터 F는 1과 동일하지 않다.
스케일 팩터 F의 계산식은 다음 (19)에 표시되며, 스케일 팩터 F는 0.5 내지 1.5의 값 범위에 속한다.
Figure 112018006656714-pct00032
영역의 양자화 스텝의 계산식은 다음 (20)에 표시된다.
Figure 112018006656714-pct00033
양자화 스텝의 스케일 팩터 F는 코딩 정보로서 비트스트림으로 컴파일된다.
본 발명의 실시 예에서, 바람직한 값이 스케일 팩터의 값에 대해 제공되지만, 스케일 팩터의 값은 본 발명에서 한정되지 않는다는 것을 이해해야 한다.
제4 실현가능한 구현에서 상기 방법은,
상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합이 제9 임계값보다 크고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계; 및 상기 변환 계수 정보를 상기 비트스트림으로 컴파일하는 단계를 포함한다.
바람직하게, 특정 구현은 디코더 측에 대응하고 다시 반복되지 않으며, 변환 계수 정보는 코딩 정보로서 비트스트림로 컴파일된다.
제5 실현가능한 구현에서 상기 방법은,
상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값이 제10 임계값보다 크고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계; 및 상기 변환 계수 정보를 상기 비트스트림으로 컴파일하는 단계를 포함한다.
바람직하게, 특정 구현은 디코더 측에 대응하고 다시 반복되지 않으며, 변환 계수 정보는 코딩 정보로서 비트스트림로 컴파일된다.
제6 실현가능한 구현에서 상기 방법은,
상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값이 모두 제11 임계값보다 작고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계; 및 상기 움직임 벡터 정보를 상기 비트스트림으로 컴파일하는 단계를 포함한다.
바람직하게, 특정 구현은 디코더 측에 대응하고 다시 반복되지 않으며, 움직임 벡터 정보는 코딩 정보로서 비트스트림로 컴파일된다.
제7 실현가능한 구현에서 상기 방법은,
상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값이, 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값보다 작고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계; 및 상기 움직임 벡터 정보를 상기 비트스트림으로 컴파일하는 단계를 포함한다.
바람직하게, 특정 구현은 디코더 측에 대응하고 다시 반복되지 않으며, 움직임 벡터 정보는 코딩 정보로서 비트스트림로 컴파일된다.
단계(S3100)에서 인코딩될 시퀀스를 인코딩하여 제2 참조 영상의 복원 영상을 획득하는 것의 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 상기 방법은, 고정 양자화 파라미터를 사용하여 상기 제2 참조 영상의 인코딩될 영상을 인코딩하는 단계를 포함하고, 제1 양자화 파라미터가 상기 로컬 영역을 위해 사용되고, 제2 양자화 파라미터는 상기 로컬 영역이 아닌 영역을 위해 사용된다.
바람직하게 특정 구현은 다음과 같다.
다음 식(21)을 사용한 계산을 통해 획득된 양자화 파라미터(Quantization Parameter, QP)를 사용한 변환 후에 양자화가 변환 계수에 대해 수행되며, QPSlice는 프레임 레벨 QP이고, 업데이트 영역이 로컬 영역이며, 비업데이트(non-update) 영역은 다른 영역이다. 표 2는 QPSlice와 ΔQP 사이의 대응 관계를 보여준다.
Figure 112018006656714-pct00034
Figure 112018006656714-pct00035
프레임 레벨 QP-ΔQP는 로컬 영역의 양자화 파라미터로서 사용되고, 프레임 레벨 QP는 다른 영역의 양자화 파라미터로서 사용된다.
본 발명의 실시 예에서 바람직한 값이 양자화 파라미터의 값으로서 제공되지만, 본 발명에서 양자화 파라미터의 값이 한정되지 않는다는 것을 이해해야 한다.
제2 실현가능한 구현에서, 상기 방법은 적응(adaptive) 양자화 파라미터를 사용하여 상기 제2 참조 영상의 인코딩될 영상을 인코딩하는 단계를 포함하고, 양자화 파라미터가 텍스쳐(texture) 정보 또는 움직임 정보 중 적어도 하나에 따라 상기 로컬 영역과, 상기 로컬 영역이 아닌 영역을 위해 결정되며, 프레임 레벨 양자화 파라미터가 사용되거나, 양자화 파라미터가 인코더에 의해 특정된 비트 레이트 할당 정책 또는 품질 제어 정책에 따라 설정되고 결정된다.
바람직하게 특정 구현은 다음과 같다.
현재 영역이 로컬 영역이 아니면, 현재 영역의 QP(QParea)는 프레임 레벨 QP로 설정되거나, 현재 영역의
Figure 112018006656714-pct00036
가 인코더에 의해 특정된 비트 레이트 할당 정책 또는 품질 제어 정책에 따라 설정될 수 있다.
Figure 112018006656714-pct00037
의 절대값의 값 범위가 식 (22)에 표시되며, 업데이트 영역은 로컬 영역이고, 비업데이트 영역은 다른 영역이다.
Figure 112018006656714-pct00038
식(22)의 양자화 파라미터는 제2 참조 영상에서의 각각의 영역의 양자화 파라미터로서 사용된다.
본 발명의 실시 예에서 바람직한 값이 양자화 파라미터의 값으로서 제공되지만, 본 발명에서는 양자화 파라미터의 값이 한정되지 않는다는 것을 이해해야 한다.
단계 S3200에서, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부가 결정된다. 제1 참조 영상의 대응 영역 또는 관련 영역을 결정하는 것의 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 제1 참조 영상의 대응 영역은 제1 참조 영상에 있고 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 갖는 영역이다.
제2 실현가능한 구현에서, 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이 업데이트되는 경우, 상기 제1 참조 영상의 영역이 순차적으로 미리 설정된 순서대로 탐색되고, 상기 제1 참조 영상의 대응 영역은 순서대로 업데이트되지 않는 제1 영역이고, 그렇지 않은 경우, 상기 제1 참조 영상의 대응 영역은 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이다.
바람직하게, 특정 구현은 디코더 측에 대응하고 다시 반복되지 않는다.
제3 실현가능한 구현에서, 참조 영상 업데이트 정보는 로컬 영역의 위치 좌표와 제1 참조 영상의 로컬 영역의 위치 좌표 사이의 공간 오프셋을 더 포함하고, 공간 오프셋은 횡방향 오프셋과 종방향 오프셋을 포함한다. 제1 참조 영상의 관련 영역의 위치는 제2 참조 영상의 로컬 영역의 위치 좌표와 공간 오프셋에 따라 결정된다. 구현은 또한, 상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계가, 상기 로컬 영역의 위치 좌표와 상기 제1 참조 영상의 관련 영역의 위치 좌표 사이의 공간 오프셋을 획득하는 단계; 및 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하는 단계 이전에, 상기 제2 참조 영상의 로컬 영역의 위치 좌표 및 상기 공간 오프셋에 따라 상기 제1 참조 영상의 관련 영역의 위치를 결정하는 단계를 포함하는 것으로 표현될 수 있다.
바람직하게, 특정 구현은 디코더 측에 대응하고, 다시 반복되지 않는다.
선택적으로, S3400 후에, 즉 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용되는 참조 영상 업데이트 정보를 비트스트림으로 컴파일하며, 상기 방법은 다음을 더 포함한다.
S3500 : 화소 값 대체 후의 제1 참조 영상의 대응 영역 또는 관련 영역과 이웃 영역과 사이의 경계에서 필터링을 수행한다.
바람직하게, 구체적인 구현은 S1400과 동일하다.
따라서, 본 발명의 실시 예에서의 참조 영상 디코딩 방법에 따르면, 디코딩 디바이스는 화소 복사 방식으로 후속하는 참조 영상의 업데이트 정보를 이용하여 제1 참조 영상을 국소적으로 업데이트한다. 따라서, 제1 참조 영상을 사용함으로써 압축 효율이 향상되면서 디코딩 복잡성이 감소되며, 비트 레이트의 급격한 증가에 의해 야기되는 지연도 방지된다.
도 7은 본 발명의 일 실시 예에 따른 참조 영상 인코딩 방법의 개략적인 흐름도이다. 도 7에 도시된 방법은, 인코딩 디바이스, 예를 들어 인코더에 의해 수행될 수 있다. 구체적으로는, 도 7에서, 방법(4000)은 다음 단계들을 포함한다.
S4100 : 인코딩될 시퀀스를 검출한다.
S4200 : 현재 인코딩될 영상이 장면 전환 영상인지를 결정한다.
S4300 : 현재 인코딩될 영상을 인코딩하고, 인코딩될 영상의 복원 영상을 인코딩하기 전 또는 후에, 특정 픽처 순서 카운트를 비트스트림으로 컴파일한다.
바람직하게, 도 8에 도시된 바와 같이, S4300은 다음을 포함한다.
S4301 : 현재 인코딩될 영상의 특정 픽처 순서 카운트를 결정하고, 인코딩될 영상이 장면 전환 영상인 경우, 현재 인코딩될 영상에 대하여 순차적으로 픽처 순서 카운트를 할당하며, 그렇지 않은 경우, 현재 인코딩될 영상의 업데이트 범위 내의 장면 전환 영상의 픽처 순서 카운트와 동일하거나 관련된 픽처 순서 카운트를 현재 인코딩될 영상에 할당한다.
S4302 : 방법(3000)에서의 방법에 따라 현재 인코딩될 영상을 인코딩한다.
S4303 : 현재 인코딩될 영상이 장면 전환 영상이 아닌 경우, 방법(3000)의 방법에 따라, 현재 인코딩될 영상에 대응하는 장면 전환 영상에 대응하는 참조 영상을 업데이트한다.
S4304 : 인코딩될 영상의 복원 영상이 인코딩되기 전 또는 후에 특정 픽처 순서 카운트를 비트스트림으로 컴파일한다.
장면 전환 영상은 방법(3000)의 제1 참조 영상에 대응하는 인코딩될 영상이거나, 또는 동일 비디오 세그먼트에서 다른 비디오 프레임과의 참조 관계를 가지는 제1 프레임 또는 랜덤 액세스 영상 등일 수 있음을 이해할 수 있다. 이것은 본 발명에 한정되지 않는다.
인코딩될 시퀀스에서, 하나 이상의 장면 전환 영상 또는 랜덤 액세스 영상이 존재할 수 있음을 이해할 수 있을 것이다. 이것은 본 발명에 한정되지 않는다.
도 9는 본 발명의 일 실시 예에 따른 참조 영상 디코딩 방법의 개략적인 흐름도이다. 도 9에 도시된 방법은, 디코딩 디바이스, 예를 들어, 디코더에 의해 수행될 수 있다. 구체적으로, 도 9에 도시된 바와 같이, 방법(5000)은 다음의 단계를 포함한다.
S5100 : 현재 디코딩될 영상이 장면 전환 영상인지의 여부를 결정한다.
S5200 : 인코더 측에 대응하여, 디코딩될 영상의 복원 영상이 디코딩되기 전 또는 후에, 비트스트림을 파싱하여 현재 디코딩될 프레임/화상의 특정 픽처 순서 카운트를 획득한다.
S5300 : 비트스트림을 파싱하여 디코딩될 영상의 복원 영상을 획득한다.
S5400 : 현재 디코딩될 영상이 장면 전환 영상이 아닌 경우, 특정 픽처 순서 카운트에 따라 대응 장면 전환 영상을 결정한다.
S5500 : 현재 디코딩될 영상이 장면 전환 영상이 아닌 경우, 방법(1000) 또는 방법(2000)에 따라 특정 픽처 순서 카운트에 따라 결정된 대응 장면 전환 영상에 대응하는 참조 영상을 업데이트한다.
장면 전환 영상은 방법(1000)의 제1 참조 영상에 대응하는 디코딩될 영상 또는 방법(2000)의 제1 참조 영상에 대응하는 디코딩될 영상이거나, 또는 동일 비디오 세그먼트에서 다른 비디오 프레임과의 참조 관계를 가지는 제1 프레임 또는 랜덤 액세스 영상 등일 수 있음을 이해할 수 있다. 이것은 본 발명에 한정되지 않는다.
디코딩될 시퀀스에서, 하나 이상의 장면 전환 영상 또는 랜덤 액세스 영상이 있을 수 있음을 이해할 수 있다. 이것은 본 발명에 한정되지 않는다.
도 10은 본 발명의 일 실시 예에 따른 참조 영상 디코딩 장치의 개략적인 블록도이다. 도 10에 도시된 바와 같이, 디코딩 디바이스(10)는,
비트스트림을 파싱하여 제1 참조 영상의 복원 영상과 제2 참조 영상의 복원 영상을 획득하도록 구성된 제1 디코딩 모듈(11); 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 참조 영상 업데이트 정보를 획득하고, 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하도록 구성된 제2 디코딩 모듈(12); 및 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되는 경우, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체하도록 구성된 제3 디코딩 모듈(23)을 포함하고, 제1 참조 영상은 제2 참조 영상 전에 디코딩되고, 로컬 영역의 크기는 제2 참조 영상의 크기보다 작거나 같다.
구체적으로, 디코딩 디바이스는 비트스트림을 파싱하여 제1 참조 영상 및 제2 참조 영상을 획득하며, 인코더 측에 대응하여, 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전 또는 그때 또는 후에, 참조 영상 업데이트 정보를 파싱하고, 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하며, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되면, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체한다.
따라서, 본 발명의 실시 예에서의 참조 영상 디코딩 장치에 따르면, 디코딩 디바이스는 화소 복사 방식으로 후속하는 참조 영상의 업데이트 정보를 이용하여 제1 참조 영상을 국소적으로 업데이트한다. 따라서, 제1 참조 영상을 사용함으로써 압축 효율이 향상되면서 디코딩 복잡성이 감소되며, 비트 레이트의 급격한 증가에 의해 야기되는 지연도 방지된다.
본 발명의 실시 예에서, 제2 참조 영상의 로컬 영역은 최대 코딩 유닛(LCU), 코딩 유닛(CU), 코딩 유닛 그룹(CU group), 또는 미리 설정된 크기의 영상 영역 중 하나일 수 있음을 이해해야 하며, 이것은 본 발명에 한정되지 않는다.
본 발명의 실시 예에서, 제1 참조 영상은 제2 참조 영상 전에 디코딩된 영상이고, 제1 참조 영상이 위치된 비디오 세그먼트에서의 후속 영상의 참조 영상으로서 사용되는 것을 이해해야 한다. 제1 참조 영상은 비트스트림을 파싱하여 획득된 복원 영상의 제1 프레임일 수도 있고, 비트스트림을 파싱하여 획득된 랜덤 액세스 포인트 영상일 수도 있다. 이것은 본 발명에 한정되지 않는다.
본 발명의 본 실시 예에서, 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 비트스트림이 파싱되어 참조 영상 업데이트 정보가 획득되는 것은, 인코더 측의 코딩 방식에 대응하여, 비트스트림의 참조 영상 업데이트 정보의 위치가, 제2 참조 영상의 코딩 정보 전 또는 사이 또는 후에 있을 수 있음을 의미하며, 참조 영상 업데이트 정보는 제2 참조 영상의 코딩 정보의 일부로서 비트스트림에 존재할 수 있음을 이해해야 한다. 이것은 본 발명에 한정되지 않는다.
제2 디코딩 모듈(12)이, 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하도록 구성되는 것의 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 제2 디코딩 모듈은 구체적으로,
상기 비트스트림을 파싱하여 플래그를 획득하고; 그리고 상기 플래그가 제1 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 플래그가 제2 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하도록 구성되며, 상기 제1 값은 상기 제2 값과 상이하다.
바람직하게, 특정 구현은 비트스트림으로부터 현재 디코딩될 프레임의 각 영역의 참조 영상 업데이트 플래그를 판독하는 것이며, 여기서 1은 영역이 제1 참조 영상을 업데이트하는 데 사용됨을 나타내고 0은 그 영역은 제1 참조 영상을 업데이트하는 데 사용되지 않는다.
제2 실현가능한 구현에서, 제2 디코딩 모듈은 구체적으로,
상기 비트스트림을 파싱하여 코딩 정보를 획득하고; 그리고 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하도록 구성된다.
상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 양자화 파라미터 오프셋 값을 포함하고, 이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하도록 구성된다.
바람직하게, 구체적인 구현은, 비트스트림으로부터 현재 디코딩될 프레임 내의 각 영역의 양자화 파라미터 오프셋 값(
Figure 112018006656714-pct00039
)을 판독하고, 상기 양자화 파라미터 오프셋의 절대값의 범위에 따라, 영역이 제1 참조 영상을 업데이트하는데 사용되는지의 여부를 결정하는 것이며,
Figure 112018006656714-pct00040
이면 영역은 제1 참조 영상을 업데이트하는데 사용되거나,
Figure 112018006656714-pct00041
이면 영역은 제1 참조 영상을 업데이트하는데 사용되지 않는다.
본 발명의 본 실시 예에서, 바람직한 값이 양자화 파라미터 오프셋 값으로서 제공되지만, 본 발명에서 양자화 파라미터 오프셋 값의 값이 한정되지 않는다는 것을 이해해야 한다.
제3 실현가능한 구현에서, 제2 디코딩 모듈은 구체적으로,
상기 비트스트림을 파싱하여 코딩 정보를 획득하고; 그리고 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하도록 구성된다.
상기 코딩 정보는 상기 제2 참조 영상에서의 로컬 영역의 양자화 단계의 스케일 팩터를 포함하고, 이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하도록 구성된다.
바람직하게, 특정 구현은 비트스트림으로부터 스케일 팩터를 판독하여 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 사용되는지의 여부를 결정하는 것이다.
스케일 팩터 F의 계산식은 다음 (23)에 표시되며, 스케일 팩터 F는 0.5 내지 1.5 의 값 범위에 속한다.
Figure 112018006656714-pct00042
영역의 양자화 단계의 계산식은 다음 (24)에 표시된다.
Figure 112018006656714-pct00043
스케일 팩터 F가 1인 경우, 영역은 제1 참조 영상을 업데이트하는데 사용되지 않으며, 그렇지 않으면, 영역이 제1 참조 영상을 업데이트하는 데 사용된다.
본 발명의 실시 예에서, 바람직한 값이 스케일 팩터의 값에 대해 제공되지만, 스케일 팩터의 값은 본 발명에서 한정되지 않는다는 것을 이해해야 한다.
제2 디코딩 모듈(12)은 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하도록 구성된다. 제1 참조 영상의 대응 영역 또는 관련 영역을 결정하는 것의 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 제1 참조 영상의 대응 영역은 제1 참조 영상에 있고 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 갖는 영역이다.
제2 실현가능한 구현에서, 상기 제2 디코딩 모듈은 추가로 구체적으로, 상기 로컬 영역의 위치 좌표와 상기 제1 참조 영상의 관련 영역의 위치 좌표 사이의 공간 오프셋을 획득하고; 그리고 상기 제3 디코딩 모듈이 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하기 이전에, 상기 제2 참조 영상의 로컬 영역의 위치 좌표 및 상기 공간 오프셋에 따라 상기 제1 참조 영상의 관련 영역의 위치를 결정하도록 구성되고, 상기 공간 오프셋은 횡방향 오프셋 및 종방향 오프셋을 포함한다.
바람직하게, 특정 구현은, 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 영역에 대해, 비트스트림으로부터(cMVx, cMVy)를 판독하고,(cMVx, cMVy) 및 영역의 위치(Curx, Cury) 그리고 식 (25)에 따라, 영역의 것이며 제1 참조 영상에 있는 업데이트 위치를 획득하는 것이다.
Figure 112018006656714-pct00044
선택적으로, 제3 디코딩 모듈(13)이 참조 영상 업데이트 정보에 따라, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 사용되는 것으로 결정되는 경우, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체하도록 구성된 후에, 상기 디코딩 디바이스는, 화소 값 대체 후의 제1 참조 영상의 대응 영역 또는 관련 영역과 이웃 영역 사이의 경계에서 필터링을 수행하도록 구성된 제4 디코딩 모듈(14)을 더 포함한다.
바람직하게, 특정 구현은 다음과 같다.
제1 단계: 업데이트 영역과 업데이트 영역의 우측의 이웃 영역 사이의 수직 경계 부근의 화소에 대해 필터링 처리를 수행한다. 도 2에 도시된 바와 같이, P는 업데이트 영역을 나타내고, Q는 업데이트 영역의 우측 이웃 영역을 나타내며, 화소 pcol, j 및 qi , row이 적색 박스에 있으며, 여기서, i = 0, 1, 2는 각각 3개의 화소 즉, 수직 경계에 가장 근접하고 P 및 Q의 각각의 행에 있는 필터링될 화소들을 나타내고, 필터링될 화소의 값은 식 (26)을 사용한 계산을 통해 획득되며, 화소의 첨자에서의 행 좌표 열은 식에서 생략된다.
Figure 112018006656714-pct00045
제2 단계: 업데이트 영역과 업데이트 영역 왼쪽의 인접 영역 사이의 수직 경계 부근의 화소에 대해 필터링 처리를 수행한다. 처리 방법은 제1 단계와 동일하다.
제3 단계 : 업데이트 영역과 그 위의 이웃 영역 사이의 수평 경계 부근의 화소에 대하여 필터링 처리를 수행한다. 도 3에 도시된 바와 같이, P는 업데이트 영역을 나타내고, Q는 업데이트 영역 위의 인접 영역을 나타내며, 적색 박스에 화소 pcol,j 및 qcol,j가 있고, 여기서 j = 0, 1 및 2는 각각 3개의 화소 즉, 수평 경계에 가장 근접하고 P 및 Q의 각각의 열에 있는 필터링될 화소를 나타내며, 필터링될 화소의 값은 식 (26)를 사용하여 계산을 통해 획득되며, 화소의 첨자에 있는 열 좌표는 식에서 생략된다.
제4 단계 : 업데이트 영역과 그 아래의 이웃 영역 사이의 수평 경계 부근의 화소에 대하여 필터링 처리를 수행한다. 처리 방법은 제1 단계와 동일하다.
도 11은 본 발명의 일 실시 예에 따른 참조 영상 디코딩 장치의 개략적인 블록도이다. 도 11에 도시된 바와 같이, 디코딩 디바이스(20)는,
비트스트림을 파싱하여 제1 참조 영상의 복원 영상과 제2 참조 영상의 복원 영상을 획득하도록 구성된 제1 디코딩 모듈(21); 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 참조 영상 업데이트 정보를 획득하고, 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하도록 구성된 제2 디코딩 모듈(22); 및 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되었는지의 여부를 결정하고, 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않고, 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정된 경우, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체하도록 구성된 제3 디코딩 모듈(23)을 포함하며, 제1 참조 영상은 상기 제2 참조 영상 전에 디코딩되고, 로컬 영역의 크기는 제2 참조 영상의 크기보다 작거나 같다.
구체적으로는, 디코딩 디바이스는 비트스트림을 파싱하여 제1 참조 영상 및 제2 참조 영상을 획득하며, 인코더 측에 대응하여, 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전 또는 그때 또는 후에, 참조 영상 업데이트 정보를 파싱하고, 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하며, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되면, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체한다.
따라서, 본 발명의 실시 예에서의 참조 영상 디코딩 방법에 따르면, 디코딩 디바이스는 화소 복사 방식으로 후속하는 참조 영상의 업데이트 정보를 이용하여 제1 참조 영상을 국소적으로 업데이트한다. 따라서, 제1 참조 영상을 사용함으로써 압축 효율이 향상되면서 디코딩 복잡성이 감소되며, 비트 레이트의 급격한 증가에 의해 야기되는 지연도 방지된다.
본 발명의 실시 예에서, 제2 참조 영상의 로컬 영역은 최대 코딩 유닛(LCU), 코딩 유닛(CU), 코딩 유닛 그룹(CU group), 또는 미리 설정된 크기의 영상 영역 중 하나 일 수 있음을 이해해야 하며, 이것은 본 발명에 한정되지 않는다.
본 발명의 실시 예에서, 제1 참조 영상은 제2 참조 영상 전에 디코딩된 영상이고, 제1 참조 영상이 위치된 비디오 세그먼트에서 후속 영상의 참조 영상으로서 사용된다는 것을 이해해야 한다. 제1 참조 영상은 비트스트림을 파싱하는 것에 의해 획득된 복원 영상의 제1 프레임일 수도 있고, 비트스트림을 파싱하는 것에 의해 획득된 랜덤 액세스 포인트 영상일 수도 있다. 이것은 본 발명에 한정되지 않는다.
본 발명의 실시 예에서, 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 비트스트림이 파싱되어 참조 영상 업데이트 정보가 획득되는 것은, 인코더 측의 코딩 방식에 대응하여, 비트스트림의 참조 영상 업데이트 정보의 위치가, 제2 참조 영상의 코딩 정보 전 또는 사이 또는 후에 있을 수 있음을 의미하며, 참조 영상 업데이트 정보는 제2 참조 영상의 코딩 정보의 일부로서 비트스트림에 존재할 수 있음을 이해해야 한다. 이것은 본 발명에 한정되지 않는다.
제2 디코딩 모듈(12)이 상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하도록 구성되는 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 제2 디코딩 모듈은 구체적으로, 상기 비트스트림을 파싱하여 플래그를 획득하고; 그리고 상기 플래그가 제1 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하거나, 상기 플래그가 제2 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성되며, 상기 제1 값은 상기 제2 값과 상이하다.
바람직하게, 특정 구현은 비트스트림으로부터 현재 디코딩될 프레임에서의 각각의 영역의 참조 영상 업데이트 플래그를 판독하는 것이며, 1은 영역이 제1 참조 영상을 업데이트하는 데 적합함을 나타내며, 0은 영역이 제1 참조 영상을 업데이트하는 데 적합하지 않음을 나타낸다.
제2 실현가능한 구현에서, 상기 제2 디코딩 모듈은 구체적으로, 상기 비트스트림을 파싱하여 코딩 정보를 획득하고; 그리고 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하도록 구성된다.
상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 포함하고, 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합을 포함하며, 이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합이 제1 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
바람직하게, 구체적인 구현은, 다음의 조건(27)을 만족시키는 영역을 획득하기 위해, 비트스트림으로부터 양자화 후의 현재 프레임에서의 각 영역의 변환 계수를 판독하는 것이다.
Figure 112018006656714-pct00046
조건(27)을 만족하면, 영역이 제1 참조 영상의 업데이트에 적합한 것으로 결정되고, 그렇지 않으면, 영역이 제1 참조 영상을 업데이트하는데 적합하지 않은 것으로 결정된다.
제3 실현가능한 구현에서, 상기 제2 디코딩 모듈은 구체적으로, 상기 비트스트림을 파싱하여 코딩 정보를 획득하고; 그리고 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하도록 구성된다.
상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 포함하고, 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값을 포함하며, 이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값이 제2 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
바람직하게, 구체적인 구현은, 다음의 조건(28)을 만족시키는 영역을 획득하기 위해, 비트스트림으로부터 양자화 후의 현재 프레임의 각 영역의 변환 계수를 판독하는 것이다. numBlock은 현재 프레임에 포함된 영역의 수량을 나타낸다.
Figure 112018006656714-pct00047
조건(28)이 만족되면, 영역은 제1 참조 영상을 업데이트하는 데 적합한 것으로 결정되고, 그렇지 않으면, 영역이 제1 참조 영상을 업데이트하는데 적합하지 않은 것으로 결정된다.
제4 실현가능한 구현에서, 상기 제2 디코딩 모듈은 구체적으로, 상기 비트스트림을 파싱하여 코딩 정보를 획득하고; 그리고 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하도록 구성된다.
상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 양자화 파라미터 오프셋 값을 포함하고, 이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하거나, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
바람직하게, 구체적인 구현은, 비트스트림으로부터 현재 디코딩될 프레임 내의 각 영역의 양자화 파라미터 오프셋 값(
Figure 112018006656714-pct00048
)을 판독하고, 양자화 파라미터 오프셋의 절대값의 범위에 따라, 영역이 제1 참조 영상을 업데이트하는데 적합한지의 여부를 결정하는 것이며,
Figure 112018006656714-pct00049
이면 영역은 제1 참조 영상을 업데이트하는데 적합하거나,
Figure 112018006656714-pct00050
이면 영역은 제1 참조 영상을 업데이트하는데 적합하지 않다.
본 발명의 실시 예에서, 바람직한 값이 양자화 파라미터 오프셋 값으로서 제공되지만, 본 발명에서 양자화 파라미터 오프셋 값의 값이 한정되지 않는다는 것을 이해해야 한다.
제5 실현가능한 구현에서, 상기 제2 디코딩 모듈은 구체적으로, 상기 비트스트림을 파싱하여 코딩 정보를 획득하고; 그리고 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하도록 구성된다.
상기 코딩 정보는 상기 제2 참조 영상에서의 로컬 영역의 양자화 단계의 스케일 팩터를 포함하고, 이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하거나, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않는 것으로 결정하도록 구성된다.
바람직하게, 특정 구현은 비트스트림으로부터 스케일 팩터를 판독하여 제2 참조 영상 내의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 적합한지의 여부를 결정하는 것이다.
스케일 팩터 F의 계산식은 다음(29)에 표시되며, 스케일 팩터 F는 0.5 내지 1.5의 범위에 속한다.
Figure 112018006656714-pct00051
영역의 양자화 단계의 계산식은 다음 (30)에 표시된다.
Figure 112018006656714-pct00052
스케일 팩터 F가 1인 경우, 영역은 제1 참조 영상을 업데이트하는 데 적합하지 않으며, 그렇지 않으면 영역은 제1 참조 영상을 업데이트하는 데 적합하다.
본 발명의 실시 예에서, 바람직한 값이 스케일 팩터의 값에 대해 제공되지만, 스케일 팩터의 값은 본 발명에서 한정되지 않는다는 것을 이해해야 한다.
제6 실현가능한 구현에서, 상기 제2 디코딩 모듈은 구체적으로, 상기 비트스트림을 파싱하여 코딩 정보를 획득하고; 그리고 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하도록 구성된다.
상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 포함하고, 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값을 포함하고, 이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값이 모두 제3 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않는 것으로 결정하도록 구성된다.
바람직하게, 특정 구현은 다음 조건(31)을 만족하는 영역을 획득하는 것이다.
Figure 112018006656714-pct00053
식(31)에서, M은 현재 영역에 포함되는 코드 블록의 수량을 나타내고, MVx 및 MVy는 각각 각 코드 블록의 횡방향 움직임 벡터 및 종방향 움직임 벡터를 나타낸다. 현재 영역에서의 모든 코드 블록의 횡방향 움직임 벡터의 절대값의 평균값과 현재 영역에서의 모든 코드 블록의 종방향 움직임 벡터의 절대값의 평균값이 계산된다. 두 평균값이 임계 값(Threshold11)과 별도로 비교된다. 조건(31)이 만족되면 영역은 제1 참조 영상을 업데이트하는데 적합한 것으로 결정되고, 그렇지 않으면, 영역은 제1 참조 영상을 업데이트하는데 적합하지 않은 것으로 결정된다.
제7 실현가능한 구현에서, 상기 제2 디코딩 모듈은 구체적으로, 상기 비트스트림을 파싱하여 코딩 정보를 획득하고; 그리고 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하도록 구성된다.
상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 포함하고, 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값과, 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값을 포함하고,
이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로, 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값이, 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 디코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않는 것으로 결정하도록 구성된다.
바람직하게, 특정 구현은 다음 조건(32)을 만족하는 영역을 획득하는 것이다.
Figure 112018006656714-pct00054
식(32)에서, M은 현재 영역에 포함되는 코드 블록의 수량을 나타내고, N은 이전 인코딩된 프레임/이전 디코딩된 프레임에 포함된 코드 블록의 수량을 나타내고, MVx 및 MVy는 각각 각 코드 블록의 횡방향 움직임 벡터 및 종방향 움직임 벡터를 나타낸다. 조건(32)이 만족되면 영역은 제1 참조 영상을 업데이트하는 데 적합한 것으로 결정되고; 그렇지 않으면, 영역이 제1 참조 영상을 업데이트하는 데 적합하지 않은 것으로 결정된다.
제2 디코딩 모듈(22)은 참조 영상 업데이트 정보에 따라, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하도록 구성된다. 제1 참조 영상의 대응 영역 또는 관련 영역을 결정하는 것의 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 제1 참조 영상의 대응 영역은 제1 참조 영상에 있고 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 갖는 영역이다.
제2 실현가능한 구현에서, 제2 디코딩 모듈은 추가로 구체적으로, 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이 업데이트되는 경우, 상기 제1 참조 영상의 영역을 순차적으로 미리 설정된 순서대로 탐색하도록 구성되고, 상기 제1 참조 영상의 대응 영역은 순서대로 업데이트되지 않은 제1 영역이며, 그렇지 않으면 상기 제1 참조 영상의 대응 영역은 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이다.
바람직하게, 특정 구현은, 제1 참조 영상에 있고 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 갖는 영역이 업데이트되었는지의 여부를 결정하는 것이다. 영역이 업데이트되지 않으면, 제1 참조 영상의 대응 영역은 제1 참조 영상에 있고 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 갖는 영역이고; 그렇지 않으면, 업데이트되지 않은 영역 위치들이 미리 설정된 탐색 단계에 따라 상기 위치에 이웃하는 영역에서 탐색되며, 제1 참조 영상의 대응 영역은 업데이트되지 않은 영역 위치이다.
바람직하게, 미리 설정된 탐색 단계의 특정 구현이 도 5에 도시된다. 중앙 영역 0은 현재 위치 영역을 나타낸다. 현재 위치 영역에 가장 가까운 영역의 원이 먼저 1 내지 8의 순서로 탐색되고, 그 다음에 현재 위치 영역에 가장 가까운 두 번째 원의 원이 1 내지 16의 순서로 탐색되고, 이를 기본으로 외측 확대가 업데이트되지 않은 영역이 발견될 때까지 수행된다.
제3 실현가능한 구현에서, 제2 디코딩 모듈은 추가로 구체적으로, 상기 로컬 영역의 위치 좌표와 상기 제1 참조 영상의 관련 영역의 위치 좌표 사이의 공간 오프셋을 획득하고; 그리고 상기 제3 디코딩 모듈이 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상에서의 로컬 영역의 화소 값으로 대체하기 이전에, 상기 제2 참조 영상의 로컬 영역의 위치 좌표 및 상기 공간 오프셋에 따라 상기 제1 참조 영상의 관련 영역의 위치를 결정하도록 구성되고, 상기 공간 오프셋은 횡방향 오프셋과 종방향 오프셋을 포함한다.
바람직하게, 특정 구현은, 제1 참조 영역의 대응 영역 또는 관련 영역을 업데이트하는데 사용된 영역에 대해, 비트스트림으로부터(cMVx, cMVy)를 판독하고,(cMVx, cMVy) 및 상기 영역의 위치(Curx, Cury) 및 식(33)에 따라, 영역의 것이고 제1 참조 영상에 있는 업데이트 위치를 획득하는 것이다.
Figure 112018006656714-pct00055
선택적으로, 제3 디코딩 모듈(23)이 참조 영상 업데이트 정보에 따라, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 사용되는 것으로 결정되는 경우, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체하도록 구성된 후, 상기 디코딩 디바이스는, 화소 값 대체 후의 제1 참조 영상의 대응 영역 또는 관련 영역과 이웃 영역과의 경계에서 필터링을 수행하도록 구성된 제4 디코딩 모듈(24)을 더 포함한다.
바람직하게, 구체적인 구현은 제4 디코딩 모듈(14)과 동일하다.
따라서, 본 발명의 본 실시 예에서의 참조 영상 디코딩 장치에 따르면, 디코딩 디바이스는 화소 복사 방식으로 후속하는 참조 영상의 업데이트 정보를 이용하여 제1 참조 영상을 국소적으로 업데이트한다. 따라서, 제1 참조 영상을 사용함으로써 압축 효율이 향상되면서 디코딩 복잡성이 감소되며, 비트 레이트의 급격한 증가에 의해 야기되는 지연도 방지된다.
도 12는 본 발명의 일 실시 예에 따른 참조 영상 인코딩 장치의 개략적인 블록도이다. 인코더 측의 관련 동작은 디코더 측의 동작과 본질적으로 동일하다는 점에 유의해야 한다. 반복을 피하기 위해, 상세한 설명은 여기서 다시 설명하지 않는다. 도 12에 도시된 바와 같이, 인코딩 디바이스(30)는,
인코딩될 시퀀스를 인코딩하여 제1 참조 영상의 복원 영상을 획득하고, 제2 참조 영상을 인코딩하여 제2 참조 영상의 복원 영상을 획득하도록 구성된 제1 인코딩 모듈(31);
제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하도록 구성된 제2 인코딩 모듈(32);
제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되었는지의 여부를 결정하고, 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않고, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정된 경우, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체하도록 구성된 제3 인코딩 모듈(33); 및
제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용된 참조 영상 업데이트 정보를 비트스트림으로 컴파일하도록 구성된 제4 인코딩 모듈(33)을 포함하고, 제1 참조 영상은 제2 참조 영상 전에 인코딩되고, 로컬 영역의 크기는 제2 참조 영상의 크기보다 작거나 같다.
구체적으로는, 인코딩 디바이스는, 인코딩될 시퀀스를 인코딩하여 제1 참조 영상의 복원 영상을 획득하고, 제2 참조 영상을 인코딩하여 제2 참조 영상의 복원 영상을 획득하며, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하고, 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되었는지의 여부를 결정하며, 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않고, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정된 경우, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체하며, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용된 참조 영상 업데이트 정보를 비트스트림으로 컴파일한다.
따라서, 본 발명의 본 실시 예에서의 참조 영상 인코딩 장치에 따르면, 인코딩 디바이스는 화소 복사 방식으로 후속하는 참조 영상의 업데이트 정보를 이용하여 제1 참조 영상을 국소적으로 업데이트한다. 따라서, 제1 참조 영상을 사용함으로써 압축 효율이 향상되면서 디코딩 복잡성이 감소되며, 비트 레이트의 급격한 증가에 의해 야기되는 지연도 방지된다.
본 발명의 실시 예에서, 제2 참조 영상의 로컬 영역은 최대 코딩 유닛(LCU), 코딩 유닛(coding unit, CU), 코딩 유닛 그룹(CU group), 또는 미리 설정된 크기의 영상 영역 중 하나일 수 있다. 이것은 본 발명에 한정되지 않는다.
본 발명의 실시 예에서, 제1 참조 영상은 제2 참조 영상 전에 인코딩된 영상이고, 제1 참조 영상이 위치된 비디오 세그먼트에서의 후속 영상의 참조 영상으로서 사용된다는 것을 이해해야 한다. 제1 참조 영상은 인코딩될 시퀀스를 인코딩하여 획득된 복원 영상의 제1 프레임일 수 있고, 또는 인코딩될 시퀀스를 인코딩하여 획득된 랜덤 액세스 포인트 영상일 수도 있다. 이것은 본 발명에 한정되지 않는다.
본 발명의 본 실시 예에서, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 사용되는지를 결정하는데 사용되는 참조 영상 업데이트 정보가 비트스트림으로 컴파일되는 것은, 참조 영상 업데이트 정보가 비트스트림으로 컴파일되는 위치가 제2 참조 영상의 코딩 정보 이전, 사이 또는 이후에 있을 수 있고, 참조 영상 업데이트 정보가 제2 참조 영상의 코딩 정보의 일부로서 비트스트림에 존재할 수 있음을 의미한다는 것을 이해해야 한다. 이것은 본 발명에 한정되지 않는다.
제2 인코딩 모듈(32)이 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하는 것의 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 제2 인코딩 모듈은 구체적으로,
상기 제2 참조 영상의 인코딩될 영상에 있으며 상기 로컬 영역과 동일한 위치 좌표를 가지는 제1 영역과, 상기 제2 참조 영상의 이전 프레임의 인코딩될 영상에 있으며 상기 로컬 영역과 동일한 위치 좌표를 가지는 제2 영역을 획득하고; 상기 제1 영역과 상기 제2 영역의 모든 화소의 평균 제곱 오차를 계산하며; 그리고 상기 평균 제곱 오차가 제4 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
바람직하게, 특정 구현은 다음과 같다.
제1 단계: 인코딩될 프레임 Fi, 즉 제2 참조 영상 및 이전 프레임 Fi -1의 원래 영상을 획득한다.
제2 단계: 현재 인코딩될 프레임에서의 각각의 영역에 대해, 영역과 이전 프레임에서 있으면 동일한 위치를 가지는 영역에서의 모든 화소의 원래 화소 값의 평균 제곱 에러(Mean Square Error, MSE)를 계산한다.
제3 단계: 다음 조건(34)을 만족하는 영역을 획득하며, Threshold1은 미리 설정된 임계 값이고, Flagupdated는 참조 프레임 cRefi -1의 각각의 영역, 즉 제1 참조 영상이 업데이트되었는지의 여부를 나타내는 플래그이며, 1은 영역이 업데이트되었음을 나타내고, 0은 영역이 업데이트되지 않음을 나타내며, cRefi -1은 현재 인코딩될 프레임 Fi 이전의 인코딩된 프레임의 복원 화소 값을 사용하여 국부적으로 업데이트되는 참조 프레임이다.
Figure 112018006656714-pct00056
조건(34)을 만족하면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 적합하고, 그렇지 않으면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 적합하지 않다.
제2 실현가능한 구현에서, 제2 인코딩 모듈은 구체적으로, 상기 로컬 영역의 인코딩될 영상을 획득하여 프레임간 예측을 수행하고 상기 로컬 영역의 예측 영상을 획득하고; 상기 로컬 영역의 인코딩될 영상과 상기 로컬 영역의 예측 영상에서의 모든 화소의 횡축 예측 차이의 절대값과 종축 예측 차이의 절대값의 평균값을 계산하며; 그리고 상기 평균값이 제5 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
바람직하게, 특정 구현은 다음과 같다.
제1 단계 : 현재 인코딩될 프레임 Fi, 즉 제2 참조 영상을 예측하며, Fi 는 cRefi-1, 즉 제1 참조 영상을 Fi의 참조 프레임으로 사용하여 프레임간 예측을 수행할 수 있고, 또는 다른 단기 참조 프레임을 사용하여 프레임간 예측을 수행할 수 있으며, cRefi -1은 Fi, 즉, 제1 참조 영상의 이전의 인코딩된 프레임의 복원 화소 값을 사용하여 국부적으로 업데이트된 참조 프레임이며, Fi의 각 화소의 예측 값(Px, Py)과 원래의 화소 값(Ox, Oy) 사이의 차이, 즉 예측 오차를 획득한다.
제2 단계 : 다음 조건(35)을 만족하는 영역을 얻는다.
Figure 112018006656714-pct00057
식(35)에서, N은 영역에서의 화소의 수량이다. 영역에서의 모든 화소의 예측 오차의 평균값이 계산되어 임계 값(Threshold2)과 비교된다. 조건(35)을 만족하면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 적합하며, 그렇지 않으면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는데 적합하지 않다.
제3 실현가능한 구현에서, 제2 인코딩 모듈은 구체적으로,
상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 획득하고 - 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합을 포함함 -; 그리고 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합이 제6 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
바람직하게, 특정 구현은 다음과 같다.
제1 단계: 현재 인코딩될 프레임 Fi, 즉 제2 참조 영상에 대해 예측 코딩을 수행하며, 여기서 Fi는 cRefi -1, 즉 제1 참조 영상을 Fi의 참조 프레임으로 사용하여 프레임간 예측을 수행할 수 있으며, 또는 다른 단기 참조 프레임을 사용하여 프레임간 예측을 수행할 수 있으며, cRefi -1은 Fi 이전의 인코딩된 프레임의 복원 화소 값을 사용하여 국부적으로 업데이트되는 참조 프레임이다.
제2 단계 : 현재 프레임의 각각의 영역의 양자화 후 코딩 정보와 변환 계수를 획득하고, 코딩 정보와 변환 계수에 대한 엔트로피 코딩을 수행하고, 코딩 정보와 변환 계수를 비트스트림에 기록하며, 코딩 정보는 영역 내의 각각의 코드 블록의 코딩 모드 등을 포함한다.
제3 단계: 조건(36)을 만족하는 영역을 획득한다.
Figure 112018006656714-pct00058
조건(36)을 만족하면, 영상은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하며, 그렇지 않으면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않다.
제4 실현가능한 구현에서, 제2 인코딩 모듈은 구체적으로,
상기 제2 참조 영상의 로컬 영역의 변환 계수 정보를 획득하고 - 상기 변환 계수 정보는 상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값을 포함함 -; 그리고
상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값이 제7 임계값보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
바람직하게, 특정 구현은 다음과 같다.
제1 단계: 현재 인코딩될 프레임 Fi, 즉 제2 참조 영상에 대해 예측 코딩을 수행하며, 여기서 Fi는 cRefi -1, 즉 제1 참조 영상을 Fi의 참조 프레임으로 사용하여 프레임간 예측을 수행할 수 있으며, 또는 다른 단기 참조 프레임을 사용하여 프레임간 예측을 수행할 수 있으며, cRefi -1은 Fi 이전의 인코딩된 프레임의 복원 화소 값을 사용하여 국부적으로 업데이트되는 참조 프레임이다.
제2 단계 : 현재 프레임의 각각의 영역의 양자화 후 코딩 정보와 변환 계수를 획득하고, 코딩 정보와 변환 계수에 대한 엔트로피 코딩을 수행하고, 코딩 정보와 변환 계수를 비트스트림에 기록하며, 코딩 정보는 영역 내의 각각의 코드 블록의 코딩 모드 등을 포함한다.
제3 단계: 다음 조건(37)을 만족하는 영역을 획득한다.
Figure 112018006656714-pct00059
조건(37)을 만족하면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하기에 적합하고; 그렇지 않으면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하기에 적합하지 않다.
제5 실현가능한 구현에서, 제2 인코딩 모듈은 구체적으로,
상기 제2 참조 영상의 로컬 영역을 인코딩하기 위한 비트의 수량과 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 영역을 인코딩하기 위한 비트의 수량을 카운트하고; 그리고 상기 제2 참조 영상의 로컬 영역을 인코딩하기 위한 비트의 수량이 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 영역을 인코딩하기 위한 비트의 수량보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
제6 실현가능한 구현에서, 제2 인코딩 모듈은 구체적으로,
상기 제2 참조 영상의 로컬 영역을 인코딩하기 위한 비트의 수량과 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 프레임에서의 영역을 인코딩하기 위한 비트의 평균 수량을 카운트하고; 그리고 상기 제2 참조 영상의 로컬 영역을 인코딩하는 비트의 수량이 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 이전 인코딩된 프레임에서의 영역을 인코딩하기 위한 비트의 평균 수량보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
제8 실현가능한 구현에서, 제2 인코딩 모듈은 구체적으로,
상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 획득하고 - 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값을 포함함 -; 그리고 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값이 모두 제8 임계값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
바람직하게, 특정 구현은 다음과 같다.
제1 단계: 현재 인코딩될 프레임 Fi, 즉 제2 참조 영상에 대해 예측 코딩을 수행하며, 여기서 Fi는 cRefi -1, 즉 제1 참조 영상을 Fi의 참조 프레임으로 사용하여 프레임간 예측을 수행할 수 있으며, 또는 다른 단기 참조 프레임을 사용하여 프레임간 예측을 수행할 수 있으며, cRefi -1은 Fi 이전의 인코딩된 프레임의 복원 화소 값을 사용하여 국부적으로 업데이트되는 참조 프레임이다.
제2 단계 : 현재 프레임의 각각의 영역의 양자화 후 코딩 정보와 변환 계수를 획득하고, 코딩 정보와 변환 계수에 대한 엔트로피 코딩을 수행하고, 코딩 정보와 변환 계수를 비트스트림에 기록하며, 코딩 정보는 영역에서의 각각의 코드 블록의 코딩 모드 등을 포함한다.
제3 단계: 다음 조건(38)을 만족하는 영역을 획득한다.
Figure 112018006656714-pct00060
식(38)에서, M은 현재 영역에 포함되는 코드 블록의 수량을 나타내고, MVx 및 MVy는 각각, 각각의 코드 블록의 횡방향 움직임 벡터 및 종방향 움직임 벡터를 나타낸다. 현재 영역에서의 모든 코드 블록의 횡방향 움직임 벡터의 절대값의 평균값과 현재 영역에서의 모든 코드 블록의 종방향 움직임 벡터의 절대값의 평균값이 계산된다. 두 개의 평균값이 임계 값(Threshold16)과 개별적으로 비교된다. 조건(38)을 만족하면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하며, 그렇지 않으면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않다.
제8 실현가능한 구현에서, 제2 인코딩 모듈은 구체적으로,
상기 제2 참조 영상의 로컬 영역의 움직임 벡터 정보를 획득하고 - 상기 움직임 벡터 정보는 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값과, 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값을 포함함 -; 그리고 상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값이, 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값보다 작은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정하고, 그렇지 않으면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않은 것으로 결정하도록 구성된다.
바람직하게, 특정 구현은 다음과 같다.
제1 단계: 현재 인코딩될 프레임 Fi, 즉 제2 참조 영상에 대해 예측 코딩을 수행하며, 여기서 Fi는 cRefi -1, 즉 제1 참조 영상을 Fi의 참조 프레임으로 사용하여 프레임간 예측을 수행할 수 있으며, 또는 다른 단기 참조 프레임을 사용하여 프레임간 예측을 수행할 수 있으며, cRefi -1은 Fi 이전의 인코딩된 프레임의 복원 화소 값을 사용하여 국부적으로 업데이트되는 참조 프레임이다.
제2 단계 : 현재 프레임의 각각의 영역의 양자화 후 코딩 정보와 변환 계수를 획득하고, 코딩 정보와 변환 계수에 대한 엔트로피 코딩을 수행하고, 코딩 정보와 변환 계수를 비트스트림에 기록하며, 코딩 정보는 영역에서의 각각의 코드 블록의 코딩 모드 등을 포함한다.
제3 단계: 다음 조건(39)을 만족하는 영역을 획득한다.
Figure 112018006656714-pct00061
식(39)에서, M은 현재의 영역에 포함되는 코드 블록의 수량을 나타내고, N은 이전 인코딩된 프레임/이전 디코딩된 프레임에 포함된 코드 블록의 수량을 나타내며, MVx 및 MVy는 각각, 각각의 코드 블록의 횡방향 움직임 벡터 및 종방향 움직임 벡터를 나타낸다. 조건(39)을 만족하면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하며; 그렇지 않으면, 영역은 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합하지 않다.
제4 인코딩 모듈(34)은 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용되는 참조 영상 업데이트 정보를 비트스트림으로 컴파일하도록 구성된다. 참조 영상 업데이트 정보를 비트스트림으로 컴파일하는 것의 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 제4 인코딩 모듈은 구체적으로,
상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우 상기 플래그는 제1 값이거나, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 경우 상기 플래그는 제2 값이며, 상기 제1 값은 상기 제2 값과 상이하며, 상기 플래그의 값을 상기 비트스트림으로 컴파일하도록 구성된다.
바람직하게, 특정 구현은 다음과 같다.
제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우 플래그가 1로 설정되고 비트스트림으로 컴파일되고; 그렇지 않은 경우 플래그는 0으로 설정되고 비트스트림으로 컴파일된다.
제2 실현가능한 구현에서, 제4 인코딩 모듈은 구체적으로,
상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우 상기 양자화 파라미터 오프셋 값의 절대값이 제3 값 범위에 속하거나, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 경우 상기 양자화 파라미터 오프셋 값의 절대값이 제3 값 범위에 속하지 않으며, 상기 양자화 파라미터 오프셋 값을 상기 비트스트림으로 컴파일하도록 구성된다.
바람직하게, 특정 구현은 다음과 같다.
현재 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용된 로컬 영역이면, 영역의 QP(QParea)와 프레임 레벨 QP(QPSlice) 사이의 차이(
Figure 112018006656714-pct00062
)가 영역의 텍스쳐 특성(textural characteristics) 특성에 따라 설정된다. 본 실시 예에서, 영역의 텍스쳐 특성을 측정하기 위하여 영역에서의 화소의 휘도 값의 분산을 사용하는 방법이 사용된다. 예를 들면, 식(40)에서,
Figure 112018006656714-pct00063
는 현재 인코딩될 프레임에서의 모든 영역의 화소의 휘도값의 분산의 평균값에 대한 업데이트 영역에서의 화소의 휘도 값의 분산의 비율을 사용한 계산을 통해 획득되며,
Figure 112018006656714-pct00064
이다. 식에서, xi,n은 번호가 n인 영역의 화소 i의 휘도 값을 나타내고,
Figure 112018006656714-pct00065
은 번호가 n인 영역에서의 모든 화소의 휘도 값의 평균값을 나타내고, N은 현재 프레임의 영역의 수량을 나타낸다.
Figure 112018006656714-pct00066
본 실시 예에서, 분산을 사용하여 텍스쳐 특성을 측정하는 방법이 사용되거나, 다른 방법이 측정을 위해 사용될 수 있음을 이해할 수 있다. 또한,
Figure 112018006656714-pct00067
는 텍스쳐 특성 이외의 움직임 특성과 같은 다른 특성에 따라 설정될 수 있다.
양자화 파라미터 오프셋 값
Figure 112018006656714-pct00068
은 코딩 정보로서 비트스트림으로 컴파일된다.
본 발명의 본 실시 예에서, 바람직한 값이 양자화 파라미터 오프셋으로서 제공되지만, 양자화 파라미터의 값은 본 발명에서 한정되지 않는다는 것을 이해해야 한다.
제3 실현가능한 구현에서, 제4 인코딩 모듈은 구체적으로,
상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 경우 상기 양자화 단계의 스케일 팩터가 제4 값 범위에 속하거나, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 경우 상기 양자화 단계의 스케일 팩터가 제4 값 범위에 속하지 않으며, 상기 양자화 단계의 스케일 팩터를 상기 비트스트림으로 컴파일하도록 구성된다.
바람직하게, 특정 구현은 다음과 같다.
제2 참조 영상의 로컬 영역을 이용하여 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 경우, 인코더 측은 적응적으로 양자화 스텝(Quantization Step, Qstep)을 조정하고, 양자화 스텝의 스케일 팩터를 인코딩하고, 양자화 스텝의 스케일 팩터를 디코더 측에 전송한다. 영역의 양자화 단계의 스케일 팩터 F는 1과 동일하지 않다.
스케일 팩터 F의 계산식은 다음 (41)에 표시되며, 스케일 팩터 F는 0.5 내지 1.5의 값 범위에 속한다.
Figure 112018006656714-pct00069
영역의 양자화 스텝의 계산식은 다음 (42)에 표시된다.
Figure 112018006656714-pct00070
양자화 스텝의 스케일 팩터 F는 코딩 정보로서 비트스트림으로 컴파일된다.
본 발명의 실시 예에서, 바람직한 값이 스케일 팩터의 값에 대해 제공되지만, 스케일 팩터의 값은 본 발명에서 한정되지 않는다는 것을 이해해야 한다.
제4 실현가능한 구현에서, 제4 인코딩 모듈은 구체적으로,
상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 합이 제9 임계값보다 크고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하며; 그리고 상기 변환 계수 정보를 상기 비트스트림으로 컴파일하도록 구성된다.
바람직하게, 특정 구현은 디코더 측에 대응하고 다시 반복되지 않으며, 변환 계수 정보는 코딩 정보로서 비트스트림로 컴파일된다.
제5 실현가능한 구현에서, 제4 인코딩 모듈은 구체적으로,
상기 로컬 영역의 커버리지 내 변환 계수의 절대값의 평균값이 제10 임계값보다 크고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하며; 그리고 상기 변환 계수 정보를 상기 비트스트림으로 컴파일하도록 구성된다.
바람직하게, 특정 구현은 디코더 측에 대응하고 다시 반복되지 않으며, 변환 계수 정보는 코딩 정보로서 비트스트림로 컴파일된다.
제6 실현가능한 구현에서, 제4 인코딩 모듈은 구체적으로,
상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 평균값과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 평균값이 모두 제11 임계값보다 작고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하고; 그리고 상기 움직임 벡터 정보를 상기 비트스트림으로 컴파일하도록 구성된다.
바람직하게, 특정 구현은 디코더 측에 대응하고 다시 반복되지 않으며, 움직임 벡터 정보는 코딩 정보로서 비트스트림로 컴파일된다.
제7 실현가능한 구현에서, 제4 인코딩 모듈은 구체적으로,
상기 로컬 영역에서의 횡방향 움직임 벡터의 절대값의 합과 상기 로컬 영역에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값이, 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 횡방향 움직임 벡터의 절대값의 합과 상기 제2 참조 영상의 이전 인코딩된 프레임에서의 종방향 움직임 벡터의 절대값의 합의 합의 평균값보다 작고, 상기 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않은 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하며; 그리고 상기 움직임 벡터 정보를 상기 비트스트림으로 컴파일하도록 구성된다.
바람직하게, 특정 구현은 디코더 측에 대응하고 다시 반복되지 않으며, 움직임 벡터 정보는 코딩 정보로서 비트스트림로 컴파일된다.
제1 인코딩 모듈(31)이 인코딩될 시퀀스를 인코딩하여 제2 참조 영상의 복원 영상을 획득하도록 구성되는 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 제1 인코딩 모듈은 구체적으로, 고정 양자화 파라미터를 사용하여 상기 제2 참조 영상의 인코딩될 영상을 인코딩하도록 구성되고, 제1 양자화 파라미터가 상기 로컬 영역을 위해 사용되고, 제2 양자화 파라미터는 상기 로컬 영역이 아닌 영역을 위해 사용된다.
바람직하게 특정 구현은 다음과 같다.
다음 식(43)을 사용한 계산을 통해 획득된 양자화 파라미터(Quantization Parameter, QP)를 사용한 변환 후에 양자화가 변환 계수에 대해 수행되며, QPSlice는 프레임 레벨 QP이고, 업데이트 영역이 로컬 영역이며, 비업데이트(non-update) 영역은 다른 영역이다. 표 3은 QPSlice와 ΔQP 사이의 대응 관계를 보여준다.
Figure 112018006656714-pct00071
Figure 112018006656714-pct00072
프레임 레벨 QP-ΔQP는 로컬 영역의 양자화 파라미터로서 사용되고, 프레임 레벨 QP는 다른 영역의 양자화 파라미터로서 사용된다.
본 발명의 실시 예에서 바람직한 값이 양자화 파라미터의 값으로서 제공되지만, 본 발명에서 양자화 파라미터의 값이 한정되지 않는다는 것을 이해해야 한다.
제2 실현가능한 구현에서, 제1 인코딩 모듈은 구체적으로, 적응 양자화 파라미터를 사용하여 상기 제2 참조 영상의 인코딩될 영상을 인코딩하도록 구성되고, 양자화 파라미터가 텍스쳐 정보 또는 움직임 정보 중 적어도 하나에 따라 상기 로컬 영역과, 상기 로컬 영역이 아닌 영역을 위해 결정되며, 프레임 레벨 양자화 파라미터가 사용되거나, 양자화 파라미터가 인코더에 의해 특정된 비트 레이트 할당 정책 또는 품질 제어 정책에 따라 설정되고 결정된다.
바람직하게 특정 구현은 다음과 같다.
현재 영역이 로컬 영역이 아니면, 현재 영역의 QP(QParea)는 프레임 레벨 QP로 설정되거나, 현재 영역의
Figure 112018006656714-pct00073
가 인코더에 의해 특정된 비트 레이트 할당 정책 또는 품질 제어 정책에 따라 설정될 수 있다.
Figure 112018006656714-pct00074
의 절대값의 값 범위가 식 (44)에 표시되며, 업데이트 영역은 로컬 영역이고, 비업데이트 영역은 다른 영역이다.
Figure 112018006656714-pct00075
식(44)의 양자화 파라미터는 제2 참조 영상에서의 각각의 영역의 양자화 파라미터로서 사용된다.
본 발명의 실시 예에서 바람직한 값이 양자화 파라미터의 값으로서 제공되지만, 본 발명에서는 양자화 파라미터의 값이 한정되지 않는다는 것을 이해해야 한다.
제2 인코딩 모듈(32)은 구체적으로, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하도록 구성된다. 제1 참조 영상의 대응 영역 또는 관련 영역을 결정하는 것의 구현은 다음을 포함한다.
제1 실현가능한 구현에서, 제1 참조 영상의 대응 영역은 제1 참조 영상에 있고 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 갖는 영역이다.
제2 실현가능한 구현에서, 제2 인코딩 모듈은 구체적으로, 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이 업데이트되는 경우, 상기 제1 참조 영상의 영역을 순차적으로 미리 설정된 순서대로 탐색하도록 구성되고, 상기 제1 참조 영상의 대응 영역은 순서대로 업데이트되지 않는 제1 영역이고, 그렇지 않으면, 상기 제1 참조 영상의 대응 영역은 상기 제1 참조 영상에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역이다.
바람직하게, 특정 구현은 디코더 측에 대응하고 다시 반복되지 않는다.
제3 실현가능한 구현에서, 제2 디코딩 모듈은 추가로 구체적으로, 로컬 영역의 위치 좌표와 제1 참조 영상의 로컬 영역의 위치 좌표 사이의 공간 오프셋을 획득하고, 그리고 제3 디코딩 모듈이 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하기 이전에, 상기 제2 참조 영상의 로컬 영역의 위치 좌표 및 상기 공간 오프셋에 따라 상기 제1 참조 영상의 관련 영역의 위치를 결정하도록 구성되고, 상기 공간 오프셋은 횡방향 오프셋 및 종방향 오프셋을 포함한다.
바람직하게, 특정 구현은 디코더 측에 대응하고, 다시 반복되지 않는다.
선택적으로, 제4 인코딩 모듈(34)이 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용되는 참조 영상 업데이트 정보를 비트스트림으로 컴파일하도록 구성되는 후에, 인코딩 디바이스는, 화소 값 대체 후의 제1 참조 영상의 대응 영역 또는 관련 영역과 이웃 영역과 사이의 경계에서 필터링을 수행하도록 구성된 제5 인코딩 모듈(35)을 더 포함한다.
바람직하게, 구체적인 구현은 제4 인코딩 모듈(14)과 동일하다.
따라서, 본 발명의 실시 예에서의 참조 영상 디코딩 장치에 따르면, 디코딩 디바이스는 화소 복사 방식으로 후속하는 참조 영상의 업데이트 정보를 이용하여 제1 참조 영상을 국소적으로 업데이트한다. 따라서, 제1 참조 영상을 사용함으로써 압축 효율이 향상되면서 디코딩 복잡성이 감소되며, 비트 레이트의 급격한 증가에 의해 야기되는 지연도 방지된다.
도 13은 본 발명의 일 실시 예에 따른 참조 영상 인코딩 장치의 개략적인 블록도이다. 도 13에 도시된 바와 같이, 인코딩 디바이스(40)는,
인코딩될 시퀀스를 검출하도록 구성된 1 인코딩 모듈(41); 현재 인코딩될 영상이 장면 전환 영상인지를 결정하도록 구성된 제2 인코딩 모듈(42); 및 현재 인코딩될 영상을 인코딩하고, 인코딩될 영상의 복원 영상을 인코딩하기 전 또는 후에, 특정 픽처 순서 카운트를 비트스트림으로 컴파일하도록 구성된 제3 인코딩 모듈(43)을 포함한다.
바람직하게, 도 14에 도시된 바와 같이, 제3 인코딩 모듈(43)은,
현재 인코딩될 영상의 특정 픽처 순서 카운트를 결정하고, 인코딩될 영상이 장면 전환 영상인 경우, 현재 인코딩될 영상에 대하여 순차적으로 픽처 순서 카운트를 할당하며, 그렇지 않은 경우, 현재 인코딩될 영상의 업데이트 범위 내의 장면 전환 영상의 픽처 순서 카운트와 동일하거나 관련된 픽처 순서 카운트를 현재 인코딩될 영상에 할당하도록 구성된 제1 인코딩 모듈(431); 디바이스(30)를 사용하여 현재 인코딩될 영상을 인코딩하는 제2 인코딩 모듈(432); 현재 인코딩될 영상이 장면 전환 영상이 아닌 경우, 디바이스(30)를 사용하여, 현재 인코딩될 영상에 대응하는 장면 전환 영상에 대응하는 참조 영상을 업데이트하도록 구성된 제3 인코딩 모듈(433); 및 인코딩될 영상의 복원 영상이 인코딩되기 전 또는 후에 특정 픽처 순서 카운트를 비트스트림으로 컴파일하도록 구성된 제4 인코딩 모듈(434)을 포함한다.
장면 전환 영상은 디바이스(30)의 제1 참조 영상에 대응하는 인코딩될 영상이거나, 또는 동일 비디오 세그먼트에서 다른 비디오 프레임과의 참조 관계를 가지는 제1 프레임 또는 랜덤 액세스 영상 등일 수 있음을 이해할 수 있다. 이것은 본 발명에 한정되지 않는다.
인코딩될 시퀀스에서, 하나 이상의 장면 전환 영상 또는 랜덤 액세스 영상이 존재할 수 있음을 이해할 수 있을 것이다. 이것은 본 발명에 한정되지 않는다.
도 15는 본 발명의 일 실시 예에 따른 참조 영상 디코딩 장치의 개략적인 블록도이다. 도 15에 도시된 바와 같이, 디코딩 디바이스(50)는,
현재 디코딩될 영상이 장면 전환 영상인지의 여부를 결정하도록 구성된 제1 디코딩 모듈(51); 인코더 측에 대응하여, 디코딩될 영상의 복원 영상이 디코딩되기 전 또는 후에, 비트스트림을 파싱하여 현재 디코딩될 프레임의 특정 픽처 순서 카운트를 획득하도록 구성된 제2 디코딩 모듈(52); 비트스트림을 파싱하여 디코딩될 영상의 복원 영상을 획득하도록 구성된 제3 디코딩 모듈(53); 현재 디코딩될 영상이 장면 전환 영상이 아닌 경우, 특정 픽처 순서 카운트에 따라 대응 장면 전환 영상을 결정하도록 구성된 제4 디코딩 모듈(54); 및 현재 디코딩될 영상이 장면 전환 영상이 아닌 경우, 디바이스(10 또는 20)를 사용하여 특정 픽처 순서 카운트에 따라 결정된 대응 장면 전환 영상에 대응하는 참조 영상을 업데이트하도록 구성된 제5 디코딩 모듈(55)을 포함한다.
장면 전환 영상은 디바이스(10)의 제1 참조 영상에 대응하는 디코딩될 영상 또는 디바이스(20)의 제1 참조 영상에 대응하는 디코딩될 영상이거나, 또는 동일 비디오 세그먼트에서 다른 비디오 프레임과의 참조 관계를 가지는 제1 프레임 또는 랜덤 액세스 영상 등일 수 있음을 이해할 수 있다. 이것은 본 발명에 한정되지 않는다.
디코딩될 시퀀스에서, 하나 이상의 장면 전환 영상 또는 랜덤 액세스 영상이 있을 수 있음을 이해할 수 있다. 이것은 본 발명에 한정되지 않는다.
도 16에 도시된 바와 같이, 본 발명의 실시 예는 프로세서(61), 메모리(62) 및 버스 시스템(63)을 포함하는 인코딩 디바이스(60)를 더 제공한다. 프로세서(61)는 버스 시스템(63)을 사용하여 메모리(62)에 연결된다. 메모리(62)는 명령을 저장하도록 구성된다. 프로세서(61)는 메모리(62)에 저장된 명령을 실행하도록 구성된다. 인코딩 디바이스(60)의 메모리(62)는 프로그램 코드를 저장한다.
프로세서(61)는 메모리(62)에 저장된 프로그램 코드를 호출하여,
인코딩될 시퀀스를 인코딩하여 제1 참조 영상의 복원 영상을 획득하고, 제2 참조 영상을 인코딩하여 제2 참조 영상의 복원 영상을 획득하며; 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하고; 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되었는지의 여부를 결정하고, 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되지 않고, 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정된 경우, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체하며; 그리고 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 데 사용된 참조 영상 업데이트 정보를 비트스트림으로 컴파일하는 동작을 수행하며, 여기서 제1 참조 영상은 제2 참조 영상 전에 인코딩되고, 로컬 영역의 크기는 제2 참조 영상의 크기보다 작거나 같다.
따라서, 본 발명의 실시 예에서의 참조 영상 인코딩 장치에 따르면, 인코딩 디바이스는 화소 복사 방식으로 후속하는 참조 영상의 업데이트 정보를 이용하여 제1 참조 영상을 국소적으로 업데이트한다. 따라서, 제1 참조 영상을 사용함으로써 압축 효율이 향상되면서 디코딩 복잡성이 감소되며, 비트 레이트의 급격한 증가에 의해 야기되는 지연도 방지된다.
본 발명의 본 실시 예에서, 프로세서(61)는 중앙 처리 장치(Central Processing Unit, "CPU") 일 수 있거나, 프로세서(61)는 다른 범용 프로세서, 디지털 신호 프로세서(digital signal processor, DSP), ASIC(application-specific integrated circuit), FPGA(field programmable gate array), 또는 다른 프로그래머블 로직 디바이스, 이산 게이트 또는 트랜지스터 로직 디바이스, 이산 하드웨어 컴포넌트 등일 수 있다. 범용 프로세서는 마이크로 프로세서일 수 있거나 프로세서는 임의의 정상 프로세서일 수 있다.
메모리(62)는 판독 전용 메모리 및 랜덤 액세스 메모리를 포함할 수 있으며 프로세서(61)에 명령 및 데이터를 제공할 수 있다. 메모리(62)의 일부는 비 휘발성 랜덤 액세스 메모리를 더 포함할 수 있다. 예를 들어, 메모리(62)는 장치 유형 정보를 더 저장할 수 있다.
버스 시스템(63)은 데이터 버스 외에 전력 버스, 제어 버스, 상태 신호 버스 등을 더 포함할 수 있다. 그러나 명확한 설명을 위해, 도면에서 다양한 유형의 버스가 버스 시스템(63)으로 표시된다.
구현 프로세스에서, 전술한 방법의 단계들은 프로세서(61)의 하드웨어의 집적 논리 회로 또는 프로세서(61)의 소프트웨어의 형태의 명령을 사용하는 것에 의해 완료될 수 있다. 본 발명의 실시 예들을 참조하여 개시된 방법의 단계들은 하드웨어 프로세서에 의해 직접 수행되고 완료될 수 있거나, 프로세서의 하드웨어 및 소프트웨어 모듈들의 조합을 사용하는 것에 의해 수행되고 완료될 수 있다. 소프트웨어 모듈은 랜덤 액세스 메모리, 플래시 메모리, 판독 전용 메모리, 프로그램 가능 판독 전용 메모리(programmable read-only memory), 전기적 소거가능한 프로그램 가능 메모리(electrically-erasable programmable memory) 또는 레지스터와 같은 당업계의 머추어(mature) 저장 매체에 위치될 수 있다. 기억 매체는 메모리(62)에 위치되며, 프로세서(61)는 메모리(62)의 정보를 판독하고, 프로세서(61)의 하드웨어와 조합하여 전술한 방법의 단계를 완료한다. 반복을 피하기 위해, 상세한 설명은 여기서 다시 설명하지 않는다.
본 발명의 본 실시 예에 따른 인코딩 디바이스(60)는 본 발명의 실시 예에 따른 인코딩 디바이스(30)에 대응할 수 있으며, 본 발명의 실시 예에 따른 방법(3000)을 수행하는 대응 엔티티에 대응할 수 있음을 이해해야 한다. 간결함을 위해, 상세한 설명은 여기에서 다시 기술하지 않는다.
도 17에 도시된 바와 같이, 본 발명의 실시 예는 프로세서(71), 메모리(72) 및 버스 시스템(73)을 포함하는 디코딩 디바이스(70)를 더 제공한다. 프로세서(71)는 버스 시스템(73)을 사용하여 메모리(72)에 연결된다. 메모리(72)는 명령을 저장하도록 구성된다. 프로세서(71)는 메모리(72)에 저장된 명령을 실행하도록 구성된다. 디코딩 디바이스(70)의 메모리(72)는 프로그램 코드를 저장하고, 프로세서(71)는 메모리(72)에 저장된 프로그램 코드를 호출하여,
비트스트림을 파싱하여 제1 참조 영상의 복원 영상과 제2 참조 영상의 복원 영상을 획득하고; 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 참조 영상 업데이트 정보를 획득하고, 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하며; 그리고 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되는 경우, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체하는 동작을 수행하며, 제1 참조 영상은 제2 참조 영상 전에 디코딩되고, 로컬 영역의 크기는 제2 참조 영상의 크기보다 작거나 같다.
따라서, 본 발명의 실시 예에서의 참조 영상 디코딩 장치에 따르면, 디코딩 디바이스는 화소 복사 방식으로 후속하는 참조 영상의 업데이트 정보를 이용하여 제1 참조 영상을 국소적으로 업데이트한다. 따라서, 제1 참조 영상을 사용함으로써 압축 효율이 향상되면서 디코딩 복잡성이 감소되며, 비트 레이트의 급격한 증가에 의해 야기되는 지연도 방지된다.
본 발명의 본 실시 예에서, 프로세서(71)는 중앙 처리 장치(Central Processing Unit, "CPU") 일 수 있거나, 프로세서(71)는 다른 범용 프로세서, 디지털 신호 프로세서(digital signal processor, DSP), ASIC(application-specific integrated circuit), FPGA(field programmable gate array), 또는 다른 프로그래머블 로직 디바이스, 이산 게이트 또는 트랜지스터 로직 디바이스, 이산 하드웨어 컴포넌트 등일 수 있다. 범용 프로세서는 마이크로 프로세서일 수 있거나 프로세서는 임의의 정상 프로세서일 수 있다.
메모리(72)는 판독 전용 메모리 및 랜덤 액세스 메모리를 포함할 수 있으며 프로세서(71)에 명령 및 데이터를 제공할 수 있다. 메모리(72)의 일부는 비 휘발성 랜덤 액세스 메모리를 더 포함할 수 있다. 예를 들어, 메모리(72)는 장치 유형 정보를 더 저장할 수 있다.
버스 시스템(73)은 데이터 버스 외에 전력 버스, 제어 버스, 상태 신호 버스 등을 더 포함할 수 있다. 그러나 명확한 설명을 위해, 도면에서 다양한 유형의 버스가 버스 시스템(73)으로 표시된다.
구현 프로세스에서, 전술한 방법의 단계들은 프로세서(71)의 하드웨어의 집적 논리 회로 또는 프로세서(71)의 소프트웨어의 형태의 명령을 사용하는 것에 의해 완료될 수 있다. 본 발명의 실시 예들을 참조하여 개시된 방법의 단계들은 하드웨어 프로세서에 의해 직접 수행되고 완료될 수 있거나, 프로세서의 하드웨어 및 소프트웨어 모듈들의 조합을 사용하는 것에 의해 수행되고 완료될 수 있다. 소프트웨어 모듈은 랜덤 액세스 메모리, 플래시 메모리, 판독 전용 메모리, 프로그램 가능 판독 전용 메모리, 전기적 소거가능한 프로그램 가능 메모리 또는 레지스터와 같은 당업계의 머추어 저장 매체에 위치될 수 있다. 기억 매체는 메모리(72)에 위치되며, 프로세서(71)는 메모리(72)의 정보를 판독하고, 프로세서(71)의 하드웨어와 조합하여 전술한 방법의 단계를 완료한다. 반복을 피하기 위해, 상세한 설명은 여기서 다시 설명하지 않는다.
본 발명의 본 실시 예에 따른 인코딩 디바이스(70)는 본 발명의 실시 예에 따른 인코딩 디바이스(10)에 대응할 수 있으며, 본 발명의 실시 예에 따른 방법(1000)을 수행하는 대응 엔티티에 대응할 수 있음을 이해해야 한다. 간결함을 위해, 상세한 설명은 여기에서 다시 기술하지 않는다.
도 18에 도시된 바와 같이, 본 발명의 실시 예는 프로세서(81), 메모리(82) 및 버스 시스템(83)을 포함하는 디코딩 디바이스(80)를 더 제공한다. 프로세서(81)는 버스 시스템(83)을 사용하여 메모리(82)에 연결된다. 메모리(82)는 명령을 저장하도록 구성된다. 프로세서(81)는 메모리(82)에 저장된 명령을 실행하도록 구성된다. 디코딩 디바이스(80)의 메모리(82)는 프로그램 코드를 저장하고, 프로세서(81)는 메모리(82)에 저장된 프로그램 코드를 호출하여,
비트스트림을 파싱하여 제1 참조 영상의 복원 영상과 제2 참조 영상의 복원 영상을 획득하고; 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 참조 영상 업데이트 정보를 획득하고, 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한지의 여부를 결정하며; 제1 참조 영상의 대응 영역 또는 관련 영역이 업데이트되었는지를 결정하고; 그리고 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트되지 않고, 참조 영상 업데이트 정보에 따라 제2 참조 영상의 로컬 영역이 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 적합한 것으로 결정되는 경우, 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 제2 참조 영상의 로컬 영역의 화소 값으로 대체하는 동작을 수행하며, 제1 참조 영상은 제2 참조 영상 전에 디코딩되고, 로컬 영역의 크기는 제2 참조 영상의 크기보다 작거나 같다.
따라서, 본 발명의 실시 예에서의 참조 영상 디코딩 장치에 따르면, 디코딩 디바이스는 화소 복사 방식으로 후속하는 참조 영상의 업데이트 정보를 이용하여 제1 참조 영상을 국소적으로 업데이트한다. 따라서, 제1 참조 영상을 사용함으로써 압축 효율이 향상되면서 디코딩 복잡성이 감소되며, 비트 레이트의 급격한 증가에 의해 야기되는 지연도 방지된다.
본 발명의 본 실시 예에서, 프로세서(81)는 중앙 처리 장치(Central Processing Unit, "CPU") 일 수 있거나, 프로세서(81)는 다른 범용 프로세서, 디지털 신호 프로세서(digital signal processor, DSP), ASIC(application-specific integrated circuit), FPGA(field programmable gate array), 또는 다른 프로그래머블 로직 디바이스, 이산 게이트 또는 트랜지스터 로직 디바이스, 이산 하드웨어 컴포넌트 등일 수 있다. 범용 프로세서는 마이크로 프로세서일 수 있거나 프로세서는 임의의 정상 프로세서일 수 있다.
메모리(82)는 판독 전용 메모리 및 랜덤 액세스 메모리를 포함할 수 있으며 프로세서(81)에 명령 및 데이터를 제공할 수 있다. 메모리(82)의 일부는 비 휘발성 랜덤 액세스 메모리를 더 포함할 수 있다. 예를 들어, 메모리(82)는 장치 유형 정보를 더 저장할 수 있다.
버스 시스템(83)은 데이터 버스 외에 전력 버스, 제어 버스, 상태 신호 버스 등을 더 포함할 수 있다. 그러나 명확한 설명을 위해, 도면에서 다양한 유형의 버스가 버스 시스템(83)으로 표시된다.
구현 프로세스에서, 전술한 방법의 단계들은 프로세서(81)의 하드웨어의 집적 논리 회로 또는 프로세서(81)의 소프트웨어의 형태의 명령을 사용하는 것에 의해 완료될 수 있다. 본 발명의 실시 예들을 참조하여 개시된 방법의 단계들은 하드웨어 프로세서에 의해 직접 수행되고 완료될 수 있거나, 프로세서의 하드웨어 및 소프트웨어 모듈들의 조합을 사용하는 것에 의해 수행되고 완료될 수 있다. 소프트웨어 모듈은 랜덤 액세스 메모리, 플래시 메모리, 판독 전용 메모리, 프로그램 가능 판독 전용 메모리, 전기적 소거가능한 프로그램 가능 메모리 또는 레지스터와 같은 당업계의 머추어 저장 매체에 위치될 수 있다. 기억 매체는 메모리(82)에 위치되며, 프로세서(81)는 메모리(82)의 정보를 판독하고, 프로세서(81)의 하드웨어와 조합하여 전술한 방법의 단계를 완료한다. 반복을 피하기 위해, 상세한 설명은 여기서 다시 설명하지 않는다.
본 발명의 본 실시 예에 따른 인코딩 디바이스(80)는 본 발명의 실시 예에 따른 인코딩 디바이스(20)에 대응할 수 있으며, 본 발명의 실시 예에 따른 방법(2000)을 수행하는 대응 엔티티에 대응할 수 있음을 이해해야 한다. 간결함을 위해, 상세한 설명은 여기에서 다시 기술하지 않는다.
전체 명세서에 언급된 "실시 예" 또는 "실시 예"는 실시 예와 관련된 특정 특징(feature), 구조 또는 특성(characteristics)이 본 발명의 적어도 하나의 실시 예에 포함됨을 의미하지 않는다는 것을 이해해야 한다. 따라서, 명세서 전체에 걸쳐 나타나는 "실시 예에서" 또는 "실시 예에서"는 동일한 실시 예를 지칭하지 않는다. 또한, 이러한 특정 특징, 구조 또는 특성은 임의의 적절한 방식을 사용하여 하나 이상의 실시 예에서 결합될 수 있다.
전술한 프로세스의 시퀀스 번호는 본 발명의 다양한 실시 예에서 실행 시퀀스를 의미하지 않는다는 것을 이해해야 한다. 프로세스의 실행 시퀀스는 프로세스의 기능 및 내부 로직에 따라 결정되어야 하며, 본 발명의 실시 예의 구현 프로세스에 대한 임의의 제한으로 해석되어서는 안된다.
또한, "시스템" 및 "네트워크"라는 용어는 본 명세서에서 상호 교환적으로 사용될 수 있다. 본 명세서에서 용어 "및/또는"은 관련 객체를 기술하기 위한 연관 관계만을 설명하고 3개의 관계가 존재할 수 있음을 나타낸다는 것을 이해해야 한다. 예를 들어, A 및/또는 B는 A만 존재하고, A와 B가 모두 존재하고, B만 존재하는 세 가지 경우를 나타낼 수 있다. 또한, 본 명세서에서 문자 "/"는 일반적으로 관련 객체들간의 "또는" 관계를 나타낸다.
본 출원의 실시 예에서, "A에 대응하는 B"는 B가 A와 연관되고 B는 A에 따라 결정될 수 있음을 나타낸다는 것을 이해해야 한다. 그러나 B에 따라 A에 따라 결정된다는 것은 B가 단지 A에 따라 결정된다는 것을 의미하지 않으며, 즉, B는 A 및/또는 다른 정보에 따라 결정될 수도 있음을 추가로 이해해야 한다.
당업자라면, 본 명세서에 개시된 실시 예들에서 설명된 예들과 결합하여, 유닛 및 알고리즘 단계가 전자 하드웨어, 컴퓨터 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있음을 인식할 수 있다. 하드웨어와 소프트웨어 간의 상호 호환성을 명확히 설명하기 위해, 전술한 내용은 기능에 따라 각 예의 조합 및 단계를 일반적으로 설명한다. 기능이 하드웨어 또는 소프트웨어에 의해 수행되는지의 여부는 기술적 해결방안의 특정 애플리케이션 및 설계 제약 조건에 따라 달라진다. 당업자는 각 특정 애플리케이션에 대해 기술된 기능을 구현하기 위해 상이한 방법을 사용할 수 있지만, 구현이 본 발명의 범위를 벗어나는 것으로 간주되어서는 안된다.
편리하고 간단한 설명을 위해, 전술한 시스템, 장치 및 유닛의 상세한 작업 프로세스에 대해, 전술한 방법 실시 예에서의 대응하는 프로세스를 참조하는 것이 당업자에 의해 명백하게 이해될 수 있으며, 상세한 설명은 여기서 다시 설명되지 않는다.
본 애플리케이션에서 제공된 여러 실시 예에서, 개시된 시스템, 장치 및 방법은 다른 방식으로 구현될 수 있다는 것을 이해해야 한다. 예를 들어, 설명된 장치 실시 예는 단지 예일 뿐이다. 예를 들어, 유닛 구분은 논리적인 기능 구분일 뿐이며 실제 구현에서는 다른 구분일 수 있다. 예를 들어, 복수의 유닛 또는 구성 요소가 결합되거나 다른 시스템에 통합되거나, 일부 특징이 무시되거나 수행되지 않을 수 있다. 또한, 표시되거나 논의된 상호 결합(coupling) 또는 직접 결합 또는 통신 연결은 일부 인터페이스를 사용하여 구현될 수 있다. 장치 또는 유닛 간의 간접적 결합 또는 통신 연결은 전자적, 기계적 또는 다른 형태로 구현될 수 있다.
분리된 부분들로서 설명된 유닛은 물리적으로 분리될 수도 있고 그렇지 않을 수도 있고, 유닛으로 디스플레이된 부분들은 물리적 유닛일 수도 있고 아닐 수도 있거나, 한 위치에 위치될 수도 있거나 또는 복수의 네트워크 유닛 상에 분산될 수도 있다. 유닛의 일부 또는 전부는 실시 예의 해결 방안의 목적을 달성하기 위해 실제 요구 사항에 따라 선택될 수 있다.
또한, 본 발명의 실시 예에서의 기능 유닛은 하나의 처리 유닛에 통합되어 있을 수 있으며, 또는 각각의 유닛이 물리적으로 단독으로 존재할 수 있으며, 또는, 둘 이상의 유닛이 하나의 유닛으로 통합될 수도 있다.
통합 유닛이 소프트웨어 기능 유닛의 형태로 구현되어 독립적인 제품으로서 판매 또는 사용되는 경우, 통합 유닛은 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 이러한 이해에 기초하여, 본질적으로 본 발명의 기술적 해결 방안 또는 종래 기술에 기여하는 부분 또는 기술적 해결 방안의 일부는 소프트웨어 제품의 형태로 구현될 수 있다. 컴퓨터 소프트웨어 제품은 저장 매체에 저장되며, 컴퓨터 디바이스(개인용 컴퓨터, 서버 또는 네트워크 디바이스일 수 있음)에게 본 발명의 실시 예에 기술된 방법의 단계 전부 또는 일부를 수행하도록 명령하기 위한 여러 명령을 포함한다. 전술한 저장 매체는 USB 플래시 드라이브, 제거 가능한 하드 디스크, 판독 전용 메모리(Read-Only Memory, "ROM"), 랜덤 액세스 메모리(Random Access Memory, "RAM"), 자기 디스크 또는 광 디스크과 같은, 프로그램 코드를 저장할 수 있는 임의 매체를 포함한다.
전술한 설명은 본 발명의 특정 구현 예일 뿐이며, 본 발명의 보호 범위를 제한하려는 것은 아니다. 본 발명에 개시된 기술적 범위 내에서 당업자에 의해 용이하게 이해되는 임의의 변형 또는 치환은 본 발명의 보호 범위 내에 속한다. 따라서, 본 발명의 보호 범위는 청구 범위의 보호 범위를 따라야 한다.

Claims (130)

  1. 참조 영상(reference image) 디코딩 방법으로서,
    비트스트림을 파싱(parsing)하여 제1 참조 영상의 복원 영상(reconstructed image)과 제2 참조 영상의 복원 영상을 획득하는 단계;
    상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계; 및
    상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되는 경우, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하는 단계
    를 포함하고,
    상기 제1 참조 영상은 상기 제2 참조 영상 전에 디코딩되고, 상기 로컬 영역의 크기는 상기 제2 참조 영상의 크기보다 작거나 같으며,
    상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는,
    상기 비트스트림을 파싱하여 플래그를 획득하는 단계; 및
    상기 플래그가 제1 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 플래그가 제2 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계
    를 포함하며,
    상기 제1 값은 상기 제2 값과 상이한, 디코딩 방법.
  2. 참조 영상(reference image) 디코딩 방법으로서,
    비트스트림을 파싱(parsing)하여 제1 참조 영상의 복원 영상(reconstructed image)과 제2 참조 영상의 복원 영상을 획득하는 단계;
    상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계; 및
    상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되는 경우, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하는 단계
    를 포함하고,
    상기 제1 참조 영상은 상기 제2 참조 영상 전에 디코딩되고, 상기 로컬 영역의 크기는 상기 제2 참조 영상의 크기보다 작거나 같으며,
    상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는,
    상기 비트스트림을 파싱하여 코딩(coding) 정보를 획득하는 단계; 및
    상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계
    를 포함하는, 디코딩 방법.
  3. 제2항에 있어서,
    상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 양자화 파라미터 오프셋 값을 포함하고,
    이에 상응하여(correspondingly), 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는,
    상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계
    를 포함하는, 디코딩 방법.
  4. 제3항에 있어서,
    상기 제1 값 범위는 10보다 크거나 같고 20보다 작은, 디코딩 방법.
  5. 제2항에 있어서,
    상기 코딩 정보는 상기 제2 참조 영상에서의 로컬 영역의 양자화 단계의 스케일 팩터(scale factor)를 포함하고,
    이에 상응하여, 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는,
    상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하는 단계
    를 포함하는, 디코딩 방법.
  6. 제5항에 있어서,
    상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하는 것은,
    상기 양자화 단계의 스케일 팩터가 0.5보다 크거나 같고 1보다 작은 경우 또는 상기 스케일 팩터가 1.5보다 작거나 같고 1보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하는 단계
    를 포함하는, 디코딩 방법.
  7. 제1항 또는 제2항에 있어서,
    상기 제1 참조 영상의 대응 영역은, 상기 제1 참조 영역에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역인, 디코딩 방법.
  8. 참조 영상(reference image) 디코딩 방법으로서,
    비트스트림을 파싱(parsing)하여 제1 참조 영상의 복원 영상(reconstructed image)과 제2 참조 영상의 복원 영상을 획득하는 단계;
    상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계; 및
    상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되는 경우, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하는 단계
    를 포함하고,
    상기 제1 참조 영상은 상기 제2 참조 영상 전에 디코딩되고, 상기 로컬 영역의 크기는 상기 제2 참조 영상의 크기보다 작거나 같으며,
    상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계는,
    상기 로컬 영역의 위치 좌표와 상기 제1 참조 영상의 관련 영역의 위치 좌표 사이의 공간 오프셋(spatial offsets)을 획득하는 단계
    를 더 포함하고, 상기 공간 오프셋은 횡방향 오프셋(lateral offset) 및 종방향 오프셋(longitudinal offset)을 포함하며,
    상기 디코딩 방법은,
    상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하는 단계 이전에,
    상기 제2 참조 영상의 로컬 영역의 위치 좌표 및 상기 공간 오프셋에 따라 상기 제1 참조 영상의 관련 영역의 위치를 결정하는 단계
    를 더 포함하는 디코딩 방법.
  9. 참조 영상(reference image) 디코딩 방법으로서,
    비트스트림을 파싱(parsing)하여 제1 참조 영상의 복원 영상(reconstructed image)과 제2 참조 영상의 복원 영상을 획득하는 단계;
    상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 상기 비트스트림을 파싱하여 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하는 단계; 및
    상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되는 경우, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하는 단계
    를 포함하고,
    상기 제1 참조 영상은 상기 제2 참조 영상 전에 디코딩되고, 상기 로컬 영역의 크기는 상기 제2 참조 영상의 크기보다 작거나 같으며,
    상기 비트스트림을 파싱하여 제1 참조 영상의 복원 영상을 획득하는 것은,
    상기 비트스트림을 파싱하여 상기 제1 참조 영상의 특정 픽처 순서 카운트(picture order count, POC)를 획득하고, 상기 특정 픽처 순서 카운트를 가지는 상기 제1 참조 영상의 복원 영상을 획득하는 단계
    를 포함하는, 디코딩 방법.
  10. 제9항에 있어서,
    상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 것은,
    상기 비트스트림을 파싱하여 상기 제2 참조 영상의 특정 픽처 순서 카운트를 획득하고, 상기 제2 참조 영상의 특정 픽처 순서 카운트를 가지는 상기 제2 참조 영상의 복원 영상을 획득하는 단계
    를 포함하고,
    상기 제2 참조 영상의 상기 특정 픽처 순서 카운트는 상기 제2 참조 영상을 사용하여 업데이트된 상기 제1 참조 영상의 특정 픽처 순서 카운트와 연관되는, 디코딩 방법.
  11. 참조 영상 디코딩 디바이스로서,
    비트스트림을 파싱하여 제1 참조 영상의 복원 영상과 제2 참조 영상의 복원 영상을 획득하도록 구성된 제1 디코딩 모듈;
    상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하도록 구성된 제2 디코딩 모듈; 및
    상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되는 경우, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하도록 구성된 제3 디코딩 모듈
    을 포함하고,
    상기 제1 참조 영상은 상기 제2 참조 영상 전에 디코딩되고, 상기 로컬 영역의 크기는 상기 제2 참조 영상의 크기보다 작거나 같으며,
    상기 제2 디코딩 모듈은 구체적으로,
    상기 비트스트림을 파싱하여 플래그를 획득하고; 그리고 상기 플래그가 제1 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 플래그가 제2 값이면 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하도록 구성되며, 상기 제1 값은 상기 제2 값과 상이한, 디코딩 디바이스.
  12. 참조 영상 디코딩 디바이스로서,
    비트스트림을 파싱하여 제1 참조 영상의 복원 영상과 제2 참조 영상의 복원 영상을 획득하도록 구성된 제1 디코딩 모듈;
    상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하도록 구성된 제2 디코딩 모듈; 및
    상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되는 경우, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하도록 구성된 제3 디코딩 모듈
    을 포함하고,
    상기 제1 참조 영상은 상기 제2 참조 영상 전에 디코딩되고, 상기 로컬 영역의 크기는 상기 제2 참조 영상의 크기보다 작거나 같으며,
    상기 제2 디코딩 모듈은 구체적으로,
    상기 비트스트림을 파싱하여 코딩 정보를 획득하고; 그리고 상기 코딩 정보 및 미리 설정된 규칙에 따라, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하도록 구성되는, 디코딩 디바이스.
  13. 제12항에 있어서,
    상기 코딩 정보는 상기 제2 참조 영상의 로컬 영역의 양자화 파라미터 오프셋 값을 포함하고,
    이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로,
    상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 양자화 파라미터 오프셋 값의 절대값이 제1 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하도록 구성되는, 디코딩 디바이스.
  14. 제13항에 있어서,
    상기 제1 값 범위는 10보다 크거나 같고 20보다 작은, 디코딩 디바이스.
  15. 제12항에 있어서,
    상기 코딩 정보는 상기 제2 참조 영상에서의 로컬 영역의 양자화 단계의 스케일 팩터를 포함하고,
    이에 상응하여, 상기 제2 디코딩 모듈은 구체적으로,
    상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하거나, 상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하지 않는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되지 않는 것으로 결정하도록 구성되는, 디코딩 디바이스.
  16. 제15항에 있어서,
    상기 양자화 단계의 스케일 팩터가 제2 값 범위에 속하는 경우 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하는 것은,
    상기 양자화 단계의 스케일 팩터가 0.5보다 크거나 같고 1보다 작은 경우 또는 상기 스케일 팩터가 1.5보다 작거나 같고 1보다 큰 경우, 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정하는 것을 포함하는, 디코딩 디바이스.
  17. 제11항 또는 제12항에 있어서,
    상기 제1 참조 영상의 대응 영역은, 상기 제1 참조 영역에 있으며 상기 제2 참조 영상의 로컬 영역과 동일한 위치 좌표를 가지는 영역인, 디코딩 디바이스.
  18. 참조 영상 디코딩 디바이스로서,
    비트스트림을 파싱하여 제1 참조 영상의 복원 영상과 제2 참조 영상의 복원 영상을 획득하도록 구성된 제1 디코딩 모듈;
    상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하도록 구성된 제2 디코딩 모듈; 및
    상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되는 경우, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하도록 구성된 제3 디코딩 모듈
    을 포함하고,
    상기 제1 참조 영상은 상기 제2 참조 영상 전에 디코딩되고, 상기 로컬 영역의 크기는 상기 제2 참조 영상의 크기보다 작거나 같으며,
    상기 제2 디코딩 모듈은 추가로 구체적으로, 상기 로컬 영역의 위치 좌표와 상기 제1 참조 영상의 관련 영역의 위치 좌표 사이의 공간 오프셋을 획득하고; 그리고 상기 제3 디코딩 모듈이 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하기 이전에, 상기 제2 참조 영상의 로컬 영역의 위치 좌표 및 상기 공간 오프셋에 따라 상기 제1 참조 영상의 관련 영역의 위치를 결정하도록 구성되고,
    상기 공간 오프셋은 횡방향 오프셋 및 종방향 오프셋을 포함하는, 디코딩 디바이스.
  19. 참조 영상 디코딩 디바이스로서,
    비트스트림을 파싱하여 제1 참조 영상의 복원 영상과 제2 참조 영상의 복원 영상을 획득하도록 구성된 제1 디코딩 모듈;
    상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하기 전, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득하는 동안, 또는 상기 비트스트림을 파싱하여 제2 참조 영상의 복원 영상을 획득한 후에, 참조 영상 업데이트 정보를 획득하고, 상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는지의 여부를 결정하도록 구성된 제2 디코딩 모듈; 및
    상기 참조 영상 업데이트 정보에 따라 상기 제2 참조 영상의 로컬 영역이 상기 제1 참조 영상의 대응 영역 또는 관련 영역을 업데이트하는 데 사용되는 것으로 결정되는 경우, 상기 제1 참조 영상의 대응 영역 또는 관련 영역의 화소 값을 상기 제2 참조 영상의 로컬 영역의 화소 값으로 대체하도록 구성된 제3 디코딩 모듈
    을 포함하고,
    상기 제1 참조 영상은 상기 제2 참조 영상 전에 디코딩되고, 상기 로컬 영역의 크기는 상기 제2 참조 영상의 크기보다 작거나 같으며,
    상기 제1 디코딩 모듈은 추가로 구체적으로, 상기 비트스트림을 파싱하여 상기 제1 참조 영상의 특정 픽처 순서 카운트를 획득하도록 구성되는, 디코딩 디바이스.
  20. 제19항에 있어서,
    상기 제1 디코딩 모듈은 추가로 구체적으로, 상기 비트스트림을 파싱하여 상기 제2 참조 영상의 특정 픽처 순서 카운트를 획득하도록 구성되고,
    상기 제2 참조 영상의 상기 특정 픽처 순서 카운트는 상기 제2 참조 영상을 사용하여 업데이트된 상기 제1 참조 영상의 특정 픽처 순서 카운트와 연관되는, 디코딩 디바이스.
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
  29. 삭제
  30. 삭제
  31. 삭제
  32. 삭제
  33. 삭제
  34. 삭제
  35. 삭제
  36. 삭제
  37. 삭제
  38. 삭제
  39. 삭제
  40. 삭제
  41. 삭제
  42. 삭제
  43. 삭제
  44. 삭제
  45. 삭제
  46. 삭제
  47. 삭제
  48. 삭제
  49. 삭제
  50. 삭제
  51. 삭제
  52. 삭제
  53. 삭제
  54. 삭제
  55. 삭제
  56. 삭제
  57. 삭제
  58. 삭제
  59. 삭제
  60. 삭제
  61. 삭제
  62. 삭제
  63. 삭제
  64. 삭제
  65. 삭제
  66. 삭제
  67. 삭제
  68. 삭제
  69. 삭제
  70. 삭제
  71. 삭제
  72. 삭제
  73. 삭제
  74. 삭제
  75. 삭제
  76. 삭제
  77. 삭제
  78. 삭제
  79. 삭제
  80. 삭제
  81. 삭제
  82. 삭제
  83. 삭제
  84. 삭제
  85. 삭제
  86. 삭제
  87. 삭제
  88. 삭제
  89. 삭제
  90. 삭제
  91. 삭제
  92. 삭제
  93. 삭제
  94. 삭제
  95. 삭제
  96. 삭제
  97. 삭제
  98. 삭제
  99. 삭제
  100. 삭제
  101. 삭제
  102. 삭제
  103. 삭제
  104. 삭제
  105. 삭제
  106. 삭제
  107. 삭제
  108. 삭제
  109. 삭제
  110. 삭제
  111. 삭제
  112. 삭제
  113. 삭제
  114. 삭제
  115. 삭제
  116. 삭제
  117. 삭제
  118. 삭제
  119. 삭제
  120. 삭제
  121. 삭제
  122. 삭제
  123. 삭제
  124. 삭제
  125. 삭제
  126. 삭제
  127. 삭제
  128. 삭제
  129. 삭제
  130. 삭제
KR1020187001858A 2015-07-03 2016-07-01 참조 영상 인코딩 방법, 참조 영상 디코딩 방법, 참조 영상 인코딩 디바이스 및 참조 영상 디코딩 디바이스 KR102094222B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510392066.4 2015-07-03
CN201510392066.4A CN106331700B (zh) 2015-07-03 2015-07-03 参考图像编码和解码的方法、编码设备和解码设备
PCT/CN2016/088144 WO2017005141A1 (zh) 2015-07-03 2016-07-01 参考图像编码和解码的方法、编码设备和解码设备

Publications (2)

Publication Number Publication Date
KR20180019215A KR20180019215A (ko) 2018-02-23
KR102094222B1 true KR102094222B1 (ko) 2020-03-27

Family

ID=57684732

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187001858A KR102094222B1 (ko) 2015-07-03 2016-07-01 참조 영상 인코딩 방법, 참조 영상 디코딩 방법, 참조 영상 인코딩 디바이스 및 참조 영상 디코딩 디바이스

Country Status (5)

Country Link
US (2) US10979722B2 (ko)
EP (1) EP3306932A4 (ko)
KR (1) KR102094222B1 (ko)
CN (1) CN106331700B (ko)
WO (1) WO2017005141A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108243339B (zh) * 2016-12-27 2021-02-26 浙江大学 图像编解码方法及装置
CN110832861A (zh) * 2018-07-03 2020-02-21 深圳市大疆创新科技有限公司 视频处理方法和设备
CN109862360B (zh) * 2019-02-18 2021-09-14 格兰菲智能科技有限公司 图像压缩方法以及图像处理***
CN109862366B (zh) * 2019-02-18 2021-07-13 格兰菲智能科技有限公司 图像压缩方法以及图像处理***
CN110062235B (zh) * 2019-04-08 2023-02-17 上海大学 背景帧生成及更新方法、***、装置及介质
CN114416000B (zh) * 2021-12-29 2024-02-20 上海赫千电子科技有限公司 一种应用于智能汽车的多屏互动方法、多屏互动***

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100803611B1 (ko) 2006-11-28 2008-02-15 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4414904B2 (ja) * 2004-04-16 2010-02-17 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
US9602838B2 (en) * 2006-12-28 2017-03-21 Thomson Licensing Method and apparatus for automatic visual artifact analysis and artifact reduction
CN101272494B (zh) 2008-01-25 2011-06-08 浙江大学 利用合成参考帧的视频编解码方法及装置
US8331696B2 (en) 2008-02-14 2012-12-11 Nec Corporation Update region detection device
JP5132530B2 (ja) * 2008-02-19 2013-01-30 キヤノン株式会社 画像符号化装置及び画像処理装置及びそれらの制御方法
US8385404B2 (en) 2008-09-11 2013-02-26 Google Inc. System and method for video encoding using constructed reference frame
JP2011210139A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
CN101883284B (zh) 2010-06-21 2013-06-26 北京大学 基于背景建模和可选差分模式的视频编/解码方法及***
CN102006473B (zh) * 2010-11-18 2013-03-13 无锡中星微电子有限公司 视频编码器和编码方法以及视频解码器和解码方法
US9661325B1 (en) * 2012-02-17 2017-05-23 Polycom, Inc. Lossy channel video blur avoidance
KR102209447B1 (ko) * 2013-02-15 2021-02-01 삼성전자주식회사 전자장치 및 전자장치의 객체인식방법
WO2015085575A1 (en) * 2013-12-13 2015-06-18 Mediatek Singapore Pte. Ltd. Methods for background residual prediction
US9807411B2 (en) * 2014-03-18 2017-10-31 Panasonic Intellectual Property Management Co., Ltd. Image coding apparatus, image decoding apparatus, image processing system, image coding method, and image decoding method
CN103957341B (zh) * 2014-04-30 2016-09-28 华为软件技术有限公司 图片传输的方法及其相关设备

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100803611B1 (ko) 2006-11-28 2008-02-15 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Dufaux F. et al., ‘Background mosaicking for low bit rate video coding’, Proceedings of the international conference on image processing(ICIP) NY. US, vol. 1, pp 673-676, (1996.09.16.)
Hepper D., ‘Efficiency analysis and application of uncovered background prediction in a low bit rate image coder’, IEEE Trans. on communications, IEEE service center, PISCATAWAY, NJ. USA, vol. 38, no*

Also Published As

Publication number Publication date
US11968376B2 (en) 2024-04-23
KR20180019215A (ko) 2018-02-23
CN106331700B (zh) 2019-07-19
US20210289214A1 (en) 2021-09-16
CN106331700A (zh) 2017-01-11
EP3306932A1 (en) 2018-04-11
WO2017005141A1 (zh) 2017-01-12
EP3306932A4 (en) 2018-10-24
US20180131948A1 (en) 2018-05-10
US10979722B2 (en) 2021-04-13

Similar Documents

Publication Publication Date Title
KR102094222B1 (ko) 참조 영상 인코딩 방법, 참조 영상 디코딩 방법, 참조 영상 인코딩 디바이스 및 참조 영상 디코딩 디바이스
EP3672249B1 (en) Inter frame prediction method and device for video images
CN112956190B (zh) 仿射运动预测
KR102138931B1 (ko) 이미지 예측 방법 및 장치
KR102357575B1 (ko) 비디오 이미지 인코딩 및 디코딩 방법, 장치 및 디바이스
CN106165419B (zh) 用于视频译码的自适应运动向量分辨率信令
TWI535269B (zh) 執行視訊寫碼之運動向量預測
TWI504237B (zh) 視訊寫碼中之緩衝預測資料
US11575926B2 (en) Enhanced decoder side motion vector refinement
CN116781935A (zh) 视频译码中的分块指示
US10681371B2 (en) Method and device for performing deblocking filtering
CN117478873A (zh) 用于视频译码中的条件性解码器侧运动矢量修正的装置和方法
US11082688B2 (en) Restricted overlapped block motion compensation
US20200145653A1 (en) Decoding method and apparatus based on template matching
TW201328362A (zh) 影像編碼方法、裝置、影像解碼方法、裝置及該等之程式
KR102438149B1 (ko) 비디오 코딩을 위한 위치 종속 공간 가변 변환
WO2023274360A1 (en) Utilization of recursive prediction unit in video coding
CN118075450A (zh) 双向预测校正***和方法
RU2771955C2 (ru) Устройство, оборудование, способ кодирования и декодирования видеоизображений

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant