KR101201930B1 - 국부적 밝기 변동을 이용한 가중화된 예측을 가진 비디오 코덱 - Google Patents

국부적 밝기 변동을 이용한 가중화된 예측을 가진 비디오 코덱 Download PDF

Info

Publication number
KR101201930B1
KR101201930B1 KR1020077006035A KR20077006035A KR101201930B1 KR 101201930 B1 KR101201930 B1 KR 101201930B1 KR 1020077006035 A KR1020077006035 A KR 1020077006035A KR 20077006035 A KR20077006035 A KR 20077006035A KR 101201930 B1 KR101201930 B1 KR 101201930B1
Authority
KR
South Korea
Prior art keywords
block
pixel
video data
available
motion
Prior art date
Application number
KR1020077006035A
Other languages
English (en)
Other versions
KR20070051334A (ko
Inventor
펭 인
질 맥도널드 보이스
알렉산드로스 토우라피스
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20070051334A publication Critical patent/KR20070051334A/ko
Application granted granted Critical
Publication of KR101201930B1 publication Critical patent/KR101201930B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

화상을 위한 비디오 데이터를 위한 비디오 인코더, 비디오 디코더와 대응하는 인코딩 및 디코딩 방법이 제공되고 비디오 데이터는 국부적 밝기 변동을 갖는다. 비디오 인코더는 국부적 밝기 변동에 대한 가중치를 결정하기 위해 국부적인 가중화된 함수를 사용해서 비디오 데이터를 인터코딩하기 위한 인코더(200)를 포함한다. 국부적으로 가중화된 함수에 대한 가중치는 명시적인 코딩 없이 유도된다.

Description

국부적 밝기 변동을 이용한 가중화된 예측을 가진 비디오 코덱{VIDEO CODEC WITH WEIGHTED PREDICTION UTILIZING LOCAL BRIGHTNESS VARIATION }
관련된 출원들로의 교차-참조
본 출원은 여기서 그 전체가 참조에 의해 병합되는, 2004년 9월 16일자 출원되고, 그 명칭이 "국부적 밝기 변동을 이용하는 가중화된 예측 비디오 코덱을 위한 방법 및 장치{METHOD AND APPARATUS FOR WEIGHTED PREDICTION VIDEO CODEC UTILIZING LOCAL BRIGHTNESS VARIATION}인 미국 가출원 일련 번호 60/610,275 (대리인 관리 번호 PU040259)의 혜택을 주장한다.
본 발명은 일반적으로 비디오 코더와 디코더에 대한 것이고, 보다 특별히는 국부적 밝기 변동을 이용하는 가중화된 예측 비디오 코딩과 디코딩을 위한 방법과 장치에 대한 것이다.
비디오 압축 코더 및/또는 디코더(CODEC)는 인터프레임 예측으로부터 그 압축의 대부분을 얻는다. 하지만, 시간적 밝기 변동이 관여될 때, 간단한 인터프레임 기술은 코딩 효율을 충분히 향상시킬 수 없다.
H.264/JVT/MPEG AVC("H.264") 비디오 압축 표준은 가중화된 예측 도구를 제공한다. 이것은 전역적인(global) 밝기 변동을 위해서는 잘 작동하지만, 사용될 수 있는 다른 가중화 파라미터의 수의 제한 때문에, 상당한 국부적 밝기 변동의 존재에서 아무런 이득도 달성될 수 없다.
인터프레임 예측 프로세스는 인코딩될 화상의 기준 화상 예측을 형성하고, 현재 화상과 예측 간의 차이를 인코딩한다. 예측이 보다 밀접하게 현재 화상에 상관될수록, 더 작은 수의 비트들이 화상을 압축하기 위해 필요하다.
종래의 비디오 코덱에서, 기준 화상은 이전에 디코딩된 화상을 이용해서 형성된다. 불행히도, 예를 들면, 조명 변화, 페이드-인/아웃, 카메라 플래시 등 때문에, 심각한 시간적 밝기 변동이 관여될 때, 종래의 움직임 보상은 실패할 수 있다(또는 매우 비효율적일 될 수 있다).
H.264에서, 가중화된 예측(WP) 도구가 코딩 효율을 향상시키기 위해 사용된다. WP는 수학식 1에서처럼, 곱셈 가중화 인수(a)와 덧셈 가중화 오프셋(b)에 의해 밝기 변동을 추정한다.
Figure 112007020994746-pct00001
여기서, I(x,y,t)는 시간(t)에서 픽셀(x,y)의 밝기 강도이고, b는 측정 영역에서 상수 값이고, (mvx,mvy)는 움직임 벡터이다.
가중화된 예측은 H.264 표준의 주요(main) 및 확장된 프로파일에서 지원된다. 가중화된 예측의 사용은 P와 SP 슬라이스에 대해서는 weighted_pred_flag 필드와, B 슬라이스에 대해서는 weighted_bipred_idc 필드를 사용해서 화상 파라미터 세트에서 지시된다. 두 개의 WP 모드, 즉, 명시적 모드와 묵시적 모드가 존재한다. 명시적 모드는 P, SP와 B 슬라이스에서 지원된다. 묵시적 모드는 B 슬라이스에서만 지원된다.
WP에서, 사용된 가중화 인수는 현재의 매크로블록 또는 매크로블록 분할(partition)의 기준 화상 인덱스(또는 이중-예측의 경우에는 인덱스들)에 기초한다. 기준 화상 인덱스는 비트스트림에서 코딩되거나 예들 들면, 통과(skipped) 또는 직접 모드 매크로블록에 대해 유도될 수 있다. 단일 가중화 인수와 단일 오프셋은 현재 화상의 모든 슬라이스에 대해 각 기준 화상 인덱스와 연관된다. 명시적 모드에 대해, 이러한 파라미터는 슬라이스 헤드에서 코딩된다. 묵시적 모드에 대해, 이러한 파라미터가 유도된다. 가중화 인수와 오프셋 파라미터 값은 인터(inter) 예측 프로세스에서의 16 비트 산술 연산을 허용하기 위해 또한 제약된다.
명시적 모드는 P 또는 SP 슬라이스에서 1인 weighted_pred_flag, 또는 B 슬라이스에서 1인 weighted_bipred_idc에 의해 지시된다. 이전에 설명된 것처럼, 이 모드에서, WP 파라미터는 슬라이더 헤더에서 코딩된다. 각 컬러 성분에 대해 곱셈 가중화 인수와 덧셈 오프셋은 P 슬라이스와 B 슬라이스에 대해 목록 0에서 허용가능한 기준 화상의 각각에 대해 코딩될 수 있다. 목록 0에서 허용가능한 기준 화상의 수는 num_ref_idx_10_active_minus1에 의해 지시되고, 반면 목록 1에 대해서 이것은 num_ref_idx_11_active_minus1에 의해 지시된다.
전체 화상에 대해 균일하게 적용되는 전역 밝기 변동에 대해서, 단일 가중화 인수와 오프셋은 동일 기준 화상으로부터 예측되는 화상 내의 모든 매크로블록을 효율적으로 코딩하기에 충분하다.
하지만, 비균일하게 적용되는 밝기 변동에 대해서, 예를 들면, 조명 변화나 카메라 플래시에 대해서, 하나보다 많은 기준 화상 인덱스가 기준 화상 재정렬을 사용해서 특별한 기준 화상 저장소와 연관될 수 있다. 이것은 심지어 동일한 기준 화상으로부터 예측될 때, 동일 화상내의 다른 매크로블록이 다른 가중화 인수를 사용하는 것을 허용한다. 그럼에도 불구하고, H.264에서 사용될 수 있는 기준 화상의 수는 현재의 레벨 또는 프로파일에 의해 제한되거나, 움직임 추정의 복잡도에 의해 제약된다. 이것은 국부적 밝기 변동 동안에 WP의 효율성을 상당히 제한할 수 있다.
따라서, 종래 기술의 적어도 상기 식별된 결함을 극복하는 가중화된 예측 비디오 코딩을 위한 방법과 장치를 갖는 것이 바람직하고, 매우 이로울 것이다.
종래 기술의 이것과 다른 단점과 불이익이 본 발명에 의해 다루어지며, 국부적 밝기 변동을 이용해서 가중화된 예측 비디오 코딩과 디코딩을 위한 방법과 장치에 주안점이 주어진다.
본 발명의 양상에 따라, 화상에 대한 비디오 데이터를 인코딩하기 위한 비디오 인코더가 제공된다. 비디오 데이터는 국부적 밝기 변동을 갖는다. 비디오 인코더는 국부적 밝기 변동에 대해 가중치를 결정하기 위해 국부적 가중화된 함수를 이용해서 비디오 데이터를 인터-코딩하기 위한 인코더를 포함한다. 국부적 가중화된 함수에 대한 가중치는 명시적 코딩 없이 유도된다.
본 발명의 다른 양상에 따라, 화상에 대한 비디오 데이터를 인코딩하기 위한 방법이 제공된다. 비디오 데이터는 국부적 밝기 변동을 갖는다. 이 방법은 국부적 밝기 변동에 대한 가중치를 결정하기 위해 국부적 가중화된 함수를 사용해서 비디오 데이터를 인터-코딩하는 단계를 포함한다. 국부적 가중화된 함수에 대한 가중치는 명시적 코딩 없이 유도된다.
본 발명의 다른 양상에 따라, 화상에 대한 비디오 데이터를 디코딩하기 위한 비디오 디코더가 제공된다. 비디오 데이터는 국부적 밝기 변동을 갖는다. 비디오 디코더는 국부적 밝기 변동에 대한 가중치를 결정하기 위해 국부적 가중화된 함수를 사용해서 비디오 데이터를 디코딩하기 위한 디코더를 포함한다. 국부적 가중화된 함수에 대한 가중치는 명시적 코딩없이 유도된다.
본 발명의 다른 양상에 따라, 화상에 대한 비디오 데이터를 디코딩하기 위한 방법이 제공된다. 비디오 데이터는 국부적 밝기 변동을 가진다. 이 방법은 국부적 밝기 변동에 대한 가중치를 결정하기 위해 국부적 가중화된 함수를 사용해서 비디오 데이터를 디코딩하는 단계를 포함한다. 국부적 가중화된 함수에 대한 가중치는 명시적 코딩 없이 유도된다.
본 발명의 이것과 다른 양상, 특징 및 이점은 첨부된 도면과 연관되어 읽을 수 있는 예시적인 실시예의 다음의 상세한 설명으로부터 명백하게 될 것이다.
본 발명은 다음의 예시적인 도면들에 따라 보다 잘 이해될 수 있다.
도 1은 본 발명의 원리에 따른 움직임 추정과 보상 프로세스를 도시한 블록도.
도 2a는 본 발명의 원리에 따른 가중화된 예측을 사용해서 비디오 데이터를 인코딩하기 위한 인코더를 도시한 블록도.
도 2b는 본 발명의 원리에 따른 가중화된 예측을 사용해서 비디오 데이터를 인코딩하기 위한 방법을 도시한 흐름도.
도 3a는 본 발명의 원리에 따른 가중화된 예측을 사용해서 비디오 데이터를 디코딩하기 위한 디코더를 도시한 블록도.
도 3b는 본 발명의 원리에 따른 가중화된 예측을 사용해서 비디오 데이터를 디코딩하기 위한 방법을 도시한 흐름도.
도 4a는 도 2b의 가중화된 예측 방법 및/또는 H.264 표준을 사용해서 비디오 데이터를 인코딩하기 위한 방법을 도시한 흐름도.
도 4b는 도 3b의 가중화된 예측 방법 및/또는 H.264 표준을 사용해서 비디오 데이터를 디코딩하기 위한 방법을 도시한 흐름도.
도 5는 본 발명이 적용될 수 있는 H.264 표준의 매크로블록(MB) 분할과 서브-MB 분할을 도시한 블록도.
본 발명은 국부적 밝기 변동을 이용하는 가중화된 예측 비디오 코딩과 디코딩을 위한 방법과 장치에 대한 것이다.
본 발명이 H.264 컴플라이언트 환경에서 사용되는 예시적인 실시예에서, 가중치는 소스 화상내의 현재 블록의 이전에 인코딩되고 재구성된 픽셀과, 기준 화상에서 그 대응하는 움직임 예측된(또는 공동-위치된) 픽셀로부터 추정된다. 이롭게, 본 발명은 임의의 추가적인 비트가 송신되는 것을 요구하지 않는데, 그 이유는 이 가중치를 유도하기 위해 인코더와 디코더 모두가 이용가능하기 때문이다.
여기서 사용된 것처럼, 용어 "공동-위치된"은 동일 위치에서의 다른 프레임, 필드 또는 화상 내의 픽셀을 가리킨다. 또한, 용어 "인접하는"은 근처 (그러나 다른) 위치에서의 현재 프레임, 필드 또는 화상내의 픽셀을 가리키는데, 이 근처 위치는 인접할 수 있으나, 그렇게 되는 것이 요구되는 것은 아니다.
본 설명은 본 발명의 원리를 예시한다. 따라서, 비록 여기서는 명시적으로 설명되거나 도시되지 않지만, 본 발명의 원리를 구현하고, 그 정신과 범위 내에 포함된 다양한 장치를 당업자가 고안할 수 있다는 것이 인식될 것이다.
여기서 열거된 모든 예들과 조건적인 언어는, 독자가 본 발명의 원리와 종래 기술을 향상시키기 위해 본 발명자에 의해 기여된 개념을 이해하는 것을 돕는 학습적인 목적을 위해 의도되며, 이렇게 특별하게 열거된 예들과 조건으로 제한되지 않는 것을 해석되어야 한다.
또한, 본 발명의 원리, 양상과 실시예를 열거하는 모든 문장과, 그 특별한 예들은 본 발명의 구조적이고 기능적인 등가물을 포괄하는 것이 의도된다. 추가적으로, 이러한 등가물은 미래에 개발될 등가물 뿐만 아니라 현재 알려진 등가물 모두를, 즉, 구조와 상관없이 동일한 기능을 수행하기 위해 개발된 임의의 소자들을 포함하는 것으로 의도된다.
따라서, 예를 들면, 여기서 제시된 블록도는 본 발명의 원리를 구현하는 도시적인 회로의 개념도를 표현하는 것이라는 것이 당업자에게 인식될 것이다. 유사하게, 임의의 흐름 도표, 흐름도, 상태 전이도, 의사코드 등은 (이러한 컴퓨터 또 는 프로세서가 명시적으로 도시되었는지에 상관없이) 컴퓨터 판독가능한 매체에서 실질적으로 표현되고, 따라서 컴퓨터 또는 프로세서에 의해 실행되는 다양한 프로세스를 표현한다는 것이 인식될 것이다.
도면에서 도시된 다양한 소자의 기능은 적절한 소프트웨어와 연관되어 소프트웨어를 실행할 수 있는 하드웨어뿐만 아니라 전용 하드웨어의 사용을 통해 제공될 수 있다. 프로세서에 의해 제공될 때, 이 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별 프로세서(그 일부는 공유될 수 있음)에 의해 제공될 수 있다. 또한, 용어 "프로세서" 또는 "제어기"의 명시적인 사용은 소프트웨어를 수행할 수 있는 하드웨어를 배타적으로 참조하는 것으로 해서되지 말아야 하고, 제한이 없이, 디지털 신호 프로세서("DSP"), 소프트웨어를 저장하기 위한 판독 전용 메모리("ROM), 랜덤 액세스 메모리("RAM"), 및 비휘발성 저장소를 명시적으로 포함할 수 있다.
종래의 및/또는 맞춤형의 다른 하드웨어가 또한 포함될 수 있다. 유사하게, 도면에서 도시된 임의의 스위치는 단지 개념적이다. 그 기능은 프로그램 논리의 동작을 통해서, 전용 논리를 통해서, 프로그램 제어와 전용 논리의 상호작용을 통해서, 또는 심지어 수동적으로 수행될 수 있으며, 그 특별한 기술은 그 환경으로부터 보다 특별하게 이해되는 것처럼 구현자에 의해 선택가능하다.
청구항들에서, 특정 기능을 수행하기 위한 수단으로 표현된 임의의 소자는 예를 들면, a) 이 기능을 수행하는 회로 소자의 조합 또는 b) 이 기능을 수행하기 위한 그 소프트웨어를 실행하기 위한 적절한 회로와 결합된 펌웨어, 마이크로코드 등을 포함하는 임의의 형태의 소프트웨어를 포함하는 그 기능을 수행하는 임의의 방법을 포괄하는 것이 의도된다. 이러한 청구항들에 의해 한정된 본 발명은 다양하게 열거된 수단에 의해 제공된 기능은 청구항들이 요구하는 방식으로 조합되고 결합된다는 사실에 기초한다. 따라서, 이러한 기능을 제공할 수 있는 임의의 수단은 여기서 도시된 수단과 등가물이라는 것이 간주된다.
수학식 1로부터 상당한 국부적인 밝기 변동의 존재에서의 인코딩에 대해, 국부적 변동을 효율적으로 취급할 수 있도록, 가중화 파라미터(a와 b)의 상당히 큰 세트를 사용하는 것이 필요할 수 있다. 불행히도, 많은 비트가 이러한 파라미터를 코딩하기 위해 요구될 것이다.
이롭게, 국부적 밝기 변동을 취급하기 위한 방법과 장치가 제공된다. 가중치를 명시적으로 코딩하고 송신하는 대신에, 이것들은 소스 화상내의 현재 블록의 이전에 인코딩되고 재구성된 인접 픽셀과 기준 화상 내의 그 대응하는 움직임 예측된(또는 공동-위치된) 픽셀로부터 추정될 수 있다. 이 정보는 인코더와 디코더 모두에서 이용가능하기 때문에, 가중치는 쉽게 유도될 수 있고, 아무런 추가적인 비트도 이 가중치를 신호 표시(signaling)하기 위해 요구되지 않는다.
도 1을 보면, 움직임 추정과 보상 프로세스가 참조 번호(100)에 의해 일반적으로 표시된다. 움직임 추정과 보상 프로세스(100)는 현재 화상(C)과 기준 화상(R)에 대한 것이다.
블록(E)이 주어졌을 때, 그 픽셀 c[x,y]=C[x0+x,y0+y]이 표시되는데, 여기서 [x0,y0]는 현재 화상(C) 내의 블록(E)의 좌상단 픽셀 위치이고, x=0..N-1, y=0...M-1, N은 E의 폭이고, M은 E의 높이다. 또한, p[x,y]로서 E의 이전에 인코딩되고 재구성된 인접 샘플은 p[-1,y]=C[x0-1, y0+y], y=0...M-1로서의 (만약 존재한다면) 그 좌측 인접 샘플과, p[x,-1]=C[x0+x, y0-1], x=0...N-1로서의 (만약 존재한다면) 그 상단 인접 샘플과, p[-1,-1]=C[x0-1, y0-1]로서의 (만약 존재한다면) 그 좌상단 인접 샘플을 가지고 표시된다. 또한, 기준 화상(R)에서 예측된 p[x,y]의 대응하는 움직임은 q[x,y]=R[x0+x+mvx,y0+y+mvy]로서 표시되는데, 여기서 [mvx,mvy]는 블록의 움직임 벡터이다. 그러면, 가중화된 함수(W)는 대응 인접 픽셀(p[x,y]와 q[x,y])로부터 추정/피팅(fitting)될 수있는데, 이것은 p=W(F(q))를 만족시킨다. 그러므로, r[x,y]=W(G(R[x0+x+mvx,y0+y+mvy]))이고, 여기서, r[x,y]는 기준 화상(R)에서 E의 움직임 예측된 블록의 픽셀이고, G는 필터이다.
보다 간단한 실시예에서, q[x,y]는 움직임 벡터(q[x,y]=R[x0+x, y0+y])의 적용 없이, 기준 화상(R)내의 공동-위치된 픽셀이다. 이 경우에, 가중화된 함수(W)는 대응하는 인접 픽셀(p[x,y]=W(F(R[x0+x, y0+y]))로부터 추정/피팅될 수 있다.
그러므로, 본 발명을 사용해서 화상을 디코딩하기 위해, 디코더는 가중화 함수(W)와 이용가능한 정보를 사용해서 W의 계수의 도출(피팅 방법)과, 필터(F와 G)를 알 필요가 있다.
도 2a를 보면, 가중화된 예측을 사용해서 비디오 데이터를 인코딩하기 위한 인코더는 참조 번호(200)에 의해 일반적으로 표시된다. 인코더(200)로의 입력은 덧셈 접점(202)(덧셈 접점의 목적은 인코더에서의 입력과 예측간의 차이를 정의하는데, 이는 이후 결과적으로 인코더에서 코딩된다)의 비반전 입력과, 움직임 추정기(204)의 제1 입력과 신호 통신으로 연결된다. 덧셈 접점(202)의 출력은 변환기(206)의 입력과 신호 통신으로 연결된다. 변형기(206)의 출력은 양자화기(208)의 입력과 신호 통신으로 연결된다. 양자화기(208)의 출력은 가변 길이 코더("VLC")(210)의 입력과, 역양자화기(212)의 입력과 신호 통신으로 연결된다. VLC(210)의 출력은 인코더(200)의 외부 출력으로서 이용가능하다.
역양자화기(212)의 출력은 역변형기(214)의 입력과 신호 통신으로 연결된다. 역변형기(214)의 출력은 기준 화상 저장소(216)의 입력과 신호 통신으로 연결된다. 기준 화상 저장소(216)의 제1 출력은 가중화된 함수 추정기(218)의 입력과 신호 통신으로 연결된다. 기준 화상 저장소(216)의 제2 출력은 움직임 추정기(204)의 제2 입력과 신호 통신으로 연결된다. 기준 화상 저장소(216)의 제3 출력은 움직임 보상기(220)의 제1 입력과 신호 통신으로 연결된다. 가중화된 함수 추정기(218)의 출력은 움직임 추정기(204)의 제3 입력과 가중화된 함수 모듈(222)의 제1 입력과 신호 통신으로 연결된다. 움직임 추정기(204)의 출력은 움직임 보상기(220)의 제2 입력과 신호 통신으로 연결된다. 움직임 보상기(220)의 출력은 가중화된 함수 모듈(222)의 제2 입력과 신호 통신으로 연결된다. 가중화된 함수 모듈(222)의 출력은 덧셈 접점(202)의 반전 입력과 신호 통신으로 연결된다.
도 2b를 보면, 가중화된 예측을 사용해서 비디오 데이터를 인코딩하기 위한 방법이 참조 번호(250)에 의해 일반적으로 표시된다.
시작 블록(252)은 입력 블록(254)으로 제어를 전달한다. 입력 블록(254)은 압축 해제된 이미지 블록을 수신하고, 함수 블록(256)으로 제어를 전달한다. 함수 블록(256)은 기준 화상에 대한 가중화된 함수를 추정하고, 함수 블록(258)으로 제어를 전달한다. 함수 블록(258)은 국부적인 가중화된 함수를 사용해서 이미지 블록과 기준 화상간의 차이에 의해 움직임 벡터를 계산하고, 함수 블록(260)으로 제어를 전달한다. 함수 블록(260)은 가중화된 움직임 보상된 기준 이미지 블록을 형성하기 위해 계산된 움직임 벡터를 사용해서 기준 화상에 대한 움직임 보상을 수행하고, 제어를 함수 블록(264)으로 전달한다. 함수 블록(264)은 압축 해제된 이미지 블록으로부터 가중화된 움직임 보상된 기준 이미지 블록을 빼고, 제어를 함수 블록(266)으로 전달한다. 함수 블록(266)은 압축 해제된 이미지 블록과 가중화된 움직임 보상된 기준 블록간의 차이를 기준 화상 인덱스를 가지고 인코딩하고, 제어를 최종 블록(268)으로 전달한다.
도 3a를 보면, 가중화된 예측을 사용해서 비디오 데이터를 디코딩하기 위한 디코더가 참조 번호(300)에 의해 일반적으로 표시된다.
비디오 디코더(300)는 디지털로 인코딩된 비디오 시퀀스를 수신하기 위한 가변 길이 디코더(VLD)(302)를 포함한다. VLD(302)의 출력은 역양자화기(304)의 입력과 신호 통신으로 연결된다. 역양자화기(304)의 출력은 역변형기(306)의 입력과 신호 통신으로 연결된다. 역변형기(306)의 출력은 덧셈 접점(308)의 제1 입력과 신호 통신으로 연결되는데, 이 덧셈 접점은 비디오 출력 신호를 재구성하기 위해 예측된 값을 역변형기(306)의 출력과 결합시키기 위해 사용되는 소자이다.
기준 화상 저장소(314)의 제1 출력은 움직임 보상기(312)의 입력과 신호 통신으로 연결된다. 기준 화상 저장소(314)의 제2 출력은 가중화된 함수 추정기(316)의 제1 입력과 신호 통신으로 연결된다. 움직임 보상기(312)의 출력은 가중화된 함수 모듈(310)의 제1 입력과 신호 통신으로 연결된다. 가중화된 함수 추정기(316)의 출력은 가중화된 함수 모듈(310)의 제2 입력에 신호 통신으로 입력된다. 가중화된 함수 모듈(310)의 출력은 덧셈 접점(308)의 제2 입력에 신호 통신으로 연결된다. e덧셈 접점(308)의 출력은 가중화된 함수 추정기(316)의 제2 입력에 신호 통신으로 연결된다. 덧셈 접점(308)의 출력은 디코더(300)의 외부 출력으로서 이용가능하다.
도 3b를 보면, 가중화된 예측을 사용해서 비디오 데이터를 디코딩하기 위한 방법이 참조 번호(350)에 의해 일반적으로 표시된다.
시작 블록(352)은 입력 블록(354)으로 제어를 전달한다. 입력 블록(354)은 이미지 블록 데이터를 수신하고, 입력 블록(356)으로 제어를 전달한다. 입력 블록(356)은 이미지 블록에 대한 기준 화상 인덱스를 수신하고, 함수 블록(358)으로 제어를 전달한다. 함수 블록(358)은 수신된 기준 화상 인덱스에 대한 가중화된 함수를 결정하고, 제어를 함수 블록(360)으로 전달한다. 함수 블록(360)은 수신된 기준 화상 인덱스에 대응하는 기준 화상을 검색하고, 제어를 함수 블록(362)으로 전달한다. 함수 블록(362)은 검색된 기준 화상을 움직임 보상하고, 제어를 함수 블록(364)으로 전달한다. 함수 블록(364)은 움직임 보상된 기준 이미지 블록 상에 가중화된 함수를 적용하고, 제어를 함수 블록(366)으로 전달한다. 함수 블록(366)은 디 코딩된 이미지 블록을 형성하기 위해 가중화된 기준 이미지 블록에 나머지를 더하고, 제어를 종결 블록(368)으로 전달한다.
본 발명이 이중-예측된(bi-predicted) 블록과 비교해서 단일-예측된 블록의 경에 보다 나은 결과를 제공할 수 있다는 것이 주목되어야 한다. 따라서, 일부 경우에 있어서, 사용된 예측의 수를 검사하고 이에 따라서 적절한 예측 방법을 선택함으로써 (아무런 가중치나 명시적 및 묵시적 가중화된 예측도 사용치 않는) H.264의 기존 움직임 보상 방법을 본 발명과 결합하는 것이 최상일 수 있다. 특히, 모든 단일-예측된 블록에 대해서만 본 발명의 원리를 사용하는 것이 바람직할 수 있고, 반면에 이중-예측된 블록에 대해서, 가중치는 송신된 H.264 파라미터에 기초해서 고려된다.
본 발명의 원리는 임의의 블록-기반의 움직임 보상된 비디오 인코더 및/또는 비디오 디코더와 함께 이용될 수 있다. 따라서, 본 발명이 예시적인 목적을 위해 H.264 코덱 실시예에서 사용되는 것으로 본 명세서에서 설명되지만, 본 발명은 단지 예시되고 설명된 실시예에만 제한되지 않고, 따라서, 다른 실시예가 본 발명의 범위를 유지하면서 또한 채택될 수 있다는 것이 인식되어야 한다. 예를 들면, 본 발명은 국부적 밝기 변동에 대해서 단독 방식으로 사용될 수 있다. 본 발명의 이것과 다른 구현은, 본 발명의 범위를 유지시키면서 당업자에 의해 쉽게 고안될 것이다.
본 발명의 예시적인 실시예에 대한 고려에 대한 설명이 이제 주어질 것이다. 이 설명에서, 아래와 같은 고려가 설명될 것이다: 가중화된 함수(W), 필터(F와 G), 인접 샘플, 구문 변경, 및 컬러 성분 일반화.
가중화된 함수(W)에 대한 설명이 이제 주어질 것이다. 동일한 W 함수와, 대응하는 인접 픽셀(p[x,y]와 q[x,y])로부터의 동일한 유도/피팅 방법이 디코더와 인코더에서 사용되어야 한다. W와 대응하는 유도/피팅 방법이 자유롭게 선택될 수 있다. 간략성을 위해, 다항 함수 y=a0+a1x+a2x2...+anxn를 사용하는 것이 제안되는데, 여기서 n=-1,0,1...(n=-1은 상기 방법이 사용되지 않는 것을 의미한다는 것이 주목되어야 함) 및, 다항식은 다항식의 계수를 유도하기 위한 다항식 최소-제곱 피팅이다. 다항식 n의 차수는 헤더에서 지정될 수 있다. 만약 n=1이면, 이것은 H.264에서 가중화된 예측 함수와 동일하다.
필터(F와 G)에 대한 설명이 이제 주어질 것이다. 필터(F와 G)는 동일하거나 다른 필터일 수 있다. 간략성을 위해서, F와 G 모두가 동일 필터인 것이 제안된다. 본 발명은 임의의 특별한 유형의 필터에 제한되지 않고, 따라서, 다른 필터는 본 발명의 범위를 유지하면서 또한 채택될 수 있다. 예를 들면, 중간값(median) 필터 또는 임의의 종류의 탈잡음(de-noising) 필터가 본 발명의 원리에 따라 이용될 수 있다.
인접 샘플에 대한 설명이 이제 주어질 것이다. 상기 디코더 설명에서, 인접 픽셀의 단지 하나의 층만이 사용된다. 하지만, 이것은 다중 층으로 일반화될 수 있다는 것이 인식되어야 한다. 인접 샘플은 적응적으로 선택될 수 있다. 예를 들면, 모든 좌측, 상단, 및 좌측 상단 샘플이 선택될 수 있거나, 이것들은 인접 블록의 움직임 벡터에 기초해서 적응적으로 선택된다.
구문 변경에 대한 설명이 이제 주어질 것이다. 상기 방법은 현재의 H.264 코덱과 구문과 결합될 수 있다. 예를 들면, 하나의 파라미터(즉, 화상 파라미터 세트 이내에서)가 사용될 수 있는데, 이 파라미터는 이 방법이 현재 화상/슬라이스에 대해 사용될 것인지를 알린다. 이 파라미터는 다른 방법이 이중-예측을 위해 사용될 것인지를 또한 신호한다. 또한, 각 기준에 대해, 분리된 파라미터(즉, 슬라이스 파라미터 세트 이내)가 송신되는데, 이는 가중화된 함수(W)에 대한 다항식의 차수를 지시한다. 마지막으로, 인코딩 동안에, 모든 가능한 변동이 검사될 수 있고, 기존의 소진(exhaustive) 라그랑주 속도 왜곡 최적화(Lagrangian Rate Distortion Optimization: RDO) 방법이 H.264 방법과 비교해서, 각 기준 화상에 대해 가장 적절한 방법을 선택하기 위해 사용될 수 있다.
컬러 성분 일반화에 대한 설명이 이제 주어질 것이다. 동일한 방법은 단지 휘도 Y 성분에 대해서만, 또는 선택적으로 모든 성분에 대해서 사용될 수 있다. 선택은 화상 또는 슬라이스 파라미터의 사용을 통해서 묵시적으로 또는 명시적으로 수행될 수 있다.
본 발명은 현재의 H.264 코덱에서 움직임 추정과 보상 단계에 주로 영향을 끼친다. 모든 다른 코딩과 디코딩 단계는 H.264에서와 동일하다. 아래 설명에서, 인코더와 디코더가 어떻게 본 발명을 이용할 수 있는 지에 대한 예가 주어진다. 간략성을 위해서, W에 대한 1차 다항식이 사용되는데, 즉,
y=w(x)=a0+x
여기서, a1=1이다.
곡선 피팅 방법은 다음과 같다:
a0=mean(p[x,y]-q[x,y])=mean(p[x,y])-mean(q[x,y])
필터(F와 G)는 동일 필터이다. 단지 단일 층 인접 샘플만이 사용되고, 모든이용가능한 상단, 좌측 및 좌상단 샘플만이 가중치를 추정하기 위해 수학식 3에서 적용된다. 하지만, 전술된 구성은 예시적인 것이고, 따라서 본 발명은 단지 전술된 구성에만 제한되지 않고, 다른 구성도 본 발명의 범위를 유지하면서 채택될 수 있다는 것이 인지되어야 한다.
H.264에서 사용된 가중화된 예측과 비교해서, 본 발명의 진보적인 양상중의 하나는 H.264 가중화된 예측에서, a0는 슬라이스-레벨에 필연적으로 고정되고, 본 발명의 원리에 따라, a0는 움직임 벡터와 관련되어 즉석에서(on the fly) 블록 별로 추정된다.
인코더에서, 움직임 추정을 수행할 때, 세트 B가 해당 블록의 모든 샘플링 위치를 할 때, 현재 화상내의 원래 신호(c[x,y])와 기준 화상 내의 움직임 예측된 블록(r[x+mvx, y+mvy])간의 왜곡을 측정하기 위해 특정 규준(metrics)
Figure 112007020994746-pct00002
를 사용하는 대신에(여기서, 집합 B는 고려된 블록의 모든 샘플링 위치를 포함하며), 다음 수학식이 사용된다:
Figure 112007020994746-pct00003
여기서,
Figure 112007020994746-pct00004
이고, a0는 움직임 벡터(mvx.mvy)와 관련된 수학식 3에 의해 즉석에서(on the fly) 추정된다.
그러면, 잔류 신호는 다음과 같이 계산된다.
Figure 112007020994746-pct00005
변환과 양자화 후에, 잔류 신호가 엔트로피(entropy) 코딩된다.
인코더에서, 고르지 않는 아티팩트(blocky artifact)를 제거하기 위해, 움직임 추정 동안에, 인접 픽셀이 고려될 수 있고, 즉, 수학식 4에서, 세트 B는 블록과 그 인접 샘플 내의 양쪽 모두의 픽셀을 포괄한다. 디코더에서, 재구성된 신호(c'[x,y])는 다음과 같이 재구성된 잔류 신호(res'[x,y])와, 가중치와 연관된 움직임 예측된 신호를 사용해서 움직임 보상된다:
Figure 112007020994746-pct00006
도 4를 보면, 도 2b의 가중화된 예측 방법 또는 H.264 표준을 사용해서 비디오 데이터를 인코딩하기 위한 방법은 참조 번호(400)에 의해 일반적으로 표시된다. 즉, 도 4a의 방법은 비디오 데이터를 코딩하기 위한 본 발명의 방법 또는 H.264 방법을 이용한다. 방법(400)은 방법(400)과 관련된 파라미터를 초기화하는 시작 블록(402)을 포함하고, 제어를 결정 블록(404)으로 전달한다. 결정 블록(404)은 인터-코딩이 수행될는지를 결정한다. 만약 인터-코딩이 수행되지 않는다면, 제어는 함수 블록(406)으로 전달된다. 그렇지 않고, 만약 인터-코딩이 수행된다면, 제어는 결정 블록(410)으로 전달된다.
함수 블록(406)은 인트라-코딩을 수행하고, 제어를 종결 블록(408)으로 전달한다. 종결 블록(408)은 데이터를 출력한다.
결정 블록(410)은 H.264 인터-코딩이 수행될는지를 결정한다. 만약 H.264 인터-코딩이 수행되지 않는다면, 제어는 함수 블록(412)으로 전달된다. 그렇지 않고, 만약 H.264 인터-코딩이 수행된다면, 제어는 함수 블록(416)으로 전달된다.
함수 블록(412)은 여기서 설명된 본 발명을 사용해서 현재 화상을 코딩하고, 왜곡을 계산하며, 제어를 함수 블록(414)으로 전달한다. 함수 블록(414)은 함수 블록(412와 416)의 출력 중에서 최적의 방법을 선택하고, 제어를 종결 블록(408)으로 전달한다.
함수 블록(416)은 H.264를 사용해서 현재 화상을 코딩하고, 왜곡을 계산하 며, 제어를 함수 블록(414)으로 전달한다.
도 4b를 보면, 도 3b의 가중화된 예측 방법 또는 H.264 표준을 사용해서 비디오 데이터를 디코딩하기 위한 방법이 참조 번호(450)에 의해 일반적으로 표시된다. 즉, 도 4b의 방법은 비디오 데이터를 디코딩하기 위해 본 발명의 방법 또는 H.264 방법을 이용한다. 방법(450)은 방법(450)과 관련된 파라미터를 초기화하는 시작 블록(452)을 포함하고, 함수 블록(454)으로 제어를 전달한다. 함수 블록(454)은 (예를 들면, 다항식의 차수 n을 결정하기 위해) 헤더를 파싱하고, 제어를 결정 블록(456)으로 전달한다. 결정 블록(456)은 인터-코딩이 수행될지를 결정한다. 만약 인터-코딩이 수행되지 않는다면, 제어는 함수 블록(458)으로 전달된다. 그렇지 않고, 만약 인터-코딩이 수행되지 않는다면, 제어는 결정 블록(462)으로 전달된다.
함수 블록(458)은 인트라-코딩을 수행하고, 제어를 종결 블록(460)으로 전달한다. 종결 블록(460)은 데이터를 출력한다.
결정 블록(462)은 H.264 인터-코딩이 수행될지를 결정한다. 만약 H.264 인터-코딩이 수행되지 않는다면, 제어는 함수 블록(464)으로 전달된다. 그렇지 않고, 만약 H.264 인터-코딩이 수행된다면, 제어는 함수 블록(466)으로 전달된다.
함수 블록(464)은 본 명세서에서 설명된 본 발명을 사용해서 현재 화상을 디코딩하고, 제어를 종결 블록(460)으로 전달한다.
함수 블록(466)은 H.264를 사용해서 현재 화상을 디코딩하고, 종결 블록(460)으로 제어를 전달한다.
이제 본 발명의 간략화를 표현하는 본 발명의 다른 실시예에 대한 설명이 주 어질 것이다. 인터-코딩된 16×16 픽셀 매크로블록은 16×8, 8×16 또는 8×8 크기의 매크로블록 파티션(partition)으로 분할된다. 8×8 파티션은 8×4, 4×8 또는 4×4으로 더 분할된다(도 5 참조). 도 5를 보면, 본 발명이 적용될 수 있는 H.264 표준의 매크로블록(MB) 파티션과 서브-MB 파티션이 참조 번호(500과 550)에 의해 제각기 일반적으로 표시된다. 본 발명의 원리에 따라, 디코더에서, 만약 현재 매크로블록의 파티션이 16×16이 아니라면, 수학식 3의 각 항목이 여러 번 계산된다. 본 발명의 상기 설명된 실시예를 간략화하기 위해, 모든 블록 크기(p[x,y])가 pmb[x,y]라고 표시된 그 대응하는 16×16 매크로블록의 인접 픽셀에 고정된다. q[x,y]는 동일하게 유지된다. 그러므로, 수학식 3은 다음과 같이 간략화되고, 축소된다:
Figure 112007020994746-pct00007
따라서, 현재 매크로블록에 대한 인접 픽셀의 평균은 디코더에서 단 한번만 계산되고, 따라서 복잡성을 감소시킨다.
본 발명의 복잡성은 qmb[x,y]라고 표시된 기준 화상 내의 공동-위치된 매크로블록(움직임 벡터는 0)의 인접 픽셀이 되도록 q[x,y]를 고정시킴으로서 더 간략화될 수 있다. 따라서, 수학식 3은 다음과 같이 더 간략화될 수 있다:
Figure 112007020994746-pct00008
이런 방식으로, a0는 각 매크로블록에 대해서 단 한번만 계산된다.
본 발명의 많은 수반하는 이익/특징의 일부가 이제 설명될 것이다. 예를 들면, 하나의 이익/특징은 국부적 밝기 변동을 갖는 비디오를 효율적으로 인터-코딩하기 위한 가중치의 명시적 코딩을 요구하지 않는 가중화된 함수의 사용이다. 다른 이익/특징은 상기 설명된 가중화된 함수이고, 현재 화상 내의 블록에 대한 가중치는 현재 화상 내의 블록의 이전에 인코딩되고 재구성된 인접 픽셀과 기준 화상 내의 대응 픽셀로부터 추정된다. 또 다른 이점/특징은 상기 설명된 것처럼 추정되는 가중치를 가진 가중화된 함수이고, 여기서 기준 화상 내의 대응 픽셀은 공동-위치된 픽셀이다. 다른 이점/특징은 상기 설명된 것처럼 추정되는 가중치를 가진 가중화 함수이고, 여기서 기준 화상 내의 대응 픽셀은 상기 블록을 코딩하기 위해 사용된 움직임 벡터로부터 움직임 보상된다. 또한, 다른 이점/특징은 상기 설명된 가중화된 함수이고, 여기서 가중화된 함수는 기준 화상 내의 움직임 예측된 블록에 적용되고, 움직임 보상은 가중화된 예측된 움직임 블록 상에서 수행된다. 또 다른 이익/특징은 상기 설명된 가중화된 함수이고, 여기서 가중화된 함수는 다항 함수 또는 임의의 선형 또는 비선형 함수일 수 있다. 또한, 다른 이점/특징은 상기 설명된 가중화된 함수이고, 여기서 가중치는 현재 화상 내의 블록의 이전에 인코딩되고 재구성된 인접 픽셀과, 기준 화상 내의 그 필터링된 대응하는 움직임 예측되고 공동-위치된 픽셀로부터 추정된다. 추가적으로, 다른 이점/특징은 상기 설명된 가중화된 함수이고, 여기서 가중화된 함수는 기준 화상 내의 필터링된 움직임 예측된 블록상 에 적용되고, 움직임 보상은 가중화된 예측된 필터링된 움직임 블록상에서 수행된다. 다른 이점/특징은 가중화된 함수이고, 가중치는 상기 설명된 대로 추정되는 가중화된 함수 또는, 움직임 보상이 상기 설명된 대로 가중화된 예측된 필터링된 움직임 블록상에서 수행되는 가중화된 함수인데, 여기서 인접 픽셀은 이용가능한 상단 픽셀, 이용가능한 좌측 픽셀과, 이용가능한 좌상단 픽셀 중의 임의의 픽셀일 수 있다. 또한, 다른 이익/특징은 본 명세서에서 바로 전에 설명된 가중화된 함수이고, 여기서, 인접 픽셀은 인접 블록의 움직임 정보로부터 적응적으로 선택된 이용가능한 상단 픽셀, 좌측 픽셀과 좌상단 픽셀 중의 임의의 픽셀일 수 있다.
본 발명의 이것과 다른 특징 및 이점은 본 발명의 교시에 기초해서 당업자에 의해 쉽게 확인될 수 있다. 본 발명의 교시가 하드웨어, 소프트웨어, 펌웨어, 특별 목적의 프로세서, 또는 이것들의 조합의 다양한 형태로서 구현될 수 있다는 점이 이해되어야 한다.
보다 바람직하게, 본 발명의 교시는 하드웨어 또는 소프트웨어의 결합으로서 구현된다. 또한, 소프트웨어는 프로그램 저장 유닛 상에 실체적으로 구현된 애플리케이션으로서 바람직하게 구현된다. 애플리케이션 프로그램은 임의의 적절한 아키텍처를 포함하는 기기(machine)에 적재되어 실행될 수 있다. 바람직하게, 이 기기는 하나 이상의 중앙 처리 유닛("CPU"), 랜덤 액세스 메모리("RAM")와 입출력("I/O") 인터페이스와 같은 하드웨어를 구비한 컴퓨터 플랫폼 상에서 구현된다. 컴퓨터 플랫폼은 또한 운영 체제와 마이크로인스트럭션(microinstruction) 코드를 포함할 수 있다. 여기서 설명된 다양한 프로세스와 함수는 CPU에 의해 실행될 수 있 는, 마이크로인스트럭션 코드의 일부 또는 애플리케이션 프로그램의 일부 또는 이것들의 조합일 수 있다. 추가적으로, 다양한 다른 주변 유닛이 추가적인 데이터 저장 유닛과 프린팅 유닛과 같은 컴퓨터 플랫폼에 연결될 수 있다.
첨부된 도면에서 표시된 구성 시스템 요소와 방법 중의 일부는 바람직하게 소프트웨어에서 구현되고, 시스템 요소와 프로세스 함수 블록간의 실제 연결은 본 발명이 프로그래밍되는 방식에 따라 다를 수 있다는 것이 또한 이해되어야 한다. 본 발명의 교시가 주어졌을 때, 당업자는 본 발명의 이러한 구현 및 유사한 구현 또는 구성을 기대할 수 있을 것이다.
비록 예시적인 실시예들이 첨부된 도면을 참조해서 여기서 설명되었지만, 본 발명이 이렇게 엄밀한 실시예에 제한되지 않고, 다양한 변경 및 수정이 본 발명의 범위 또는 정신으로부터 이탈하지 않고 당업자에 의해 수행될 수 있다는 것이 이해되어야 한다. 모든 이러한 변경 및 수정은 첨부된 청구항들에 기재된 본 발명의 정신 내에서 포함되도록 의도된다.
본 발명은 일반적으로 비디오 코더와 디코더에 이용가능하고, 보다 특별하게는 국부적 밝기 변동을 이용하는 가중화된 예측 비디오 코딩과 디코딩을 위한 방법과 장치에 이용가능하다.

Claims (88)

  1. 화상에 대한 비디오 데이터를 인코딩하기 위한 장치로서,
    상기 비디오 데이터는 국부적 밝기 변동을 가지며, 상기 비디오 인코딩 장치는:
    상기 국부적 밝기 변동에 대한 가중치를 결정하기 위해 국부적인 가중화된 함수를 사용해서 상기 비디오 데이터를 인터-코딩하기 위한 인코더(200)를 포함하고,
    상기 국부적인 가중화된 함수에 대한 가중치는 명시적 코딩 없이 유도되는, 비디오 데이터를 인코딩하기 위한 장치.
  2. 제1항에 있어서, 상기 비디오 데이터는 블록에 의해 분할가능하고, 상기 화상에서 블록에 대한 가중치는 상기 화상에서 상기 블록의 이전에 인코딩되고 재구성된 인접 픽셀과 기준 화상 내의 대응하는 픽셀로부터 추정되는, 비디오 데이터를 인코딩하기 위한 장치.
  3. 제2항에 있어서, 상기 기준 화상 내의 대응하는 픽셀은 공동-위치되는 픽셀인, 비디오 데이터를 인코딩하기 위한 장치.
  4. 제2항에 있어서, 상기 기준 화상 내의 대응하는 픽셀은 상기 블록을 인터-코 딩하기 위해 사용되는 움직임 벡터로부터 움직임 보상되는, 비디오 데이터를 인코딩하기 위한 장치.
  5. 제2항에 있어서, 상기 재구성된 인접 픽셀은 이용 가능한 상단 픽셀, 이용 가능한 좌측 픽셀과 이용 가능한 상단 좌측 픽셀 중의 임의의 픽셀일 수 있는, 비디오 데이터를 인코딩하기 위한 장치.
  6. 제2항에 있어서, 상기 재구성된 인접 픽셀은 상기 인접 블록의 움직임 정보에 기초해서 적응적으로 선택된, 이용 가능한 상단 픽셀, 이용 가능한 좌측 픽셀과 이용 가능한 상단 좌측 픽셀 중의 임의의 픽셀일 수 있는, 비디오 데이터를 인코딩하기 위한 장치.
  7. 제1항에 있어서, 상기 국부적 가중화된 함수는 기준 화상 내의 움직임 예측된 블록에 적용되고, 움직임 보상은 상기 가중화된 예측된 움직임 블록상에 수행되는, 비디오 데이터를 인코딩하기 위한 장치.
  8. 제1항에 있어서, 상기 국부적 가중화된 함수는 다항식 함수, 선형 함수 및 비선형 함수 중의 하나인, 비디오 데이터를 인코딩하기 위한 장치.
  9. 제1항에 있어서, 상기 국부적 가중화된 함수는 다항 함수이고, 상기 다항 함수의 차수(degree)는 기준 화상 인덱스를 가지고 신호 발신되고 연관될 수 있는, 비디오 데이터를 인코딩하기 위한 장치.
  10. 제8항에 있어서, 1차 다항식은 1인 1차 계수와, 현재 화상 내의 인접 픽셀과 기준 화상내의 움직임 예측되거나 공동 위치되는 픽셀간의 차이의 평균으로부터 추정되는 영(zero)차 계수를 가지고 사용되는, 비디오 데이터를 인코딩하기 위한 장치.
  11. 제10항에 있어서, 상기 비디오 데이터는 매크로블록으로 분할 가능하고, 가변 블록 크기는 매크로블록에 대해 지원되고, 현재 매크로블록 내의 임의의 블록에 대해, 상기 영차 계수는 상기 현재 매크로블록의 인접 픽셀의 평균과 상기 기준 화상 내에서 현재 움직임 예측되거나 공동 위치되는 블록의 인접 픽셀의 평균의 차이로서 계산되는, 비디오 데이터를 인코딩하기 위한 장치.
  12. 제11항에 있어서, 상기 현재 매크로블록 내의 임의의 블록에 대해, 상기 영차 계수는 상기 현재 매크로블록의 인접 픽셀의 평균과 상기 기준 화상 내의 공동 위치된 매크로블록의 인접 픽셀의 평균의 차이로서 또한 계산되는, 비디오 데이터를 인코딩하기 위한 장치.
  13. 제1항에 있어서, 상기 비디오 데이터는 블록에 의해 분할 가능하고, 상기 화상 내의 블록에 대한 가중치는 상기 화상 내의 블록의 이전에 인코딩되고 재구성된 인접 픽셀과, 기준 화상 내의 필터링된 대응하는 움직임 예측되거나 공동 위치되는 픽셀로부터 추정되는, 비디오 데이터를 인코딩하기 위한 장치.
  14. 제13항에 있어서, 상기 재구성되는 인접 픽셀은 이용가능한 상단 픽셀, 이용가능한 좌측 픽셀과 이용가능한 상단 좌측 픽셀 중의 임의의 하나일 수 있는, 비디오 데이터를 인코딩하기 위한 장치.
  15. 제13항에 있어서, 상기 재구성된 인접 픽셀은 상기 인접 블록의 움직임 정보에 기초해서 적응적으로 선택된, 이용가능한 상단 픽셀, 이용가능한 좌측 픽셀과 이용가능한 상단 좌측 픽셀 중의 임의의 픽셀일 수 있는, 비디오 데이터를 인코딩하기 위한 장치.
  16. 제1항에 있어서, 상기 국부적 가중화된 함수는 기준 화상에서 필터링된 움직임 예측된 블록상에 적용되고, 움직임 보상은 상기 가중화된 예측된 필터링된 움직임 블록상에 수행되는, 비디오 데이터를 인코딩하기 위한 장치.
  17. 제1항에 있어서, 상기 인코더(200)는 상기 인코더가 하나 이상의 존재하는 인코더에 대비되어(opposed) 이용되고 있는 지를 지시하기 위한 헤더 내의 추가적인 신호를 사용해서 하나 이상의 인코더와 결합될 수 있는, 비디오 데이터를 인코딩하기 위한 장치.
  18. 제17항에 있어서, 예측 방법의 세트내의 적어도 하나의 예측 방법이 상기 인코더를 사용할 수 있는지를 지시하기 위해 신호 발신이 사용되는, 비디오 데이터를 인코딩하기 위한 장치.
  19. 제18항에 있어서, 상기 비디오 데이터는 이미지 블록으로 나누어질 수 있고, 예측 방법의 세트 내에서 예측 방법 간의 구별은 현재 이미지 블록에 대한 다수의 예측에 기초하는, 비디오 데이터를 인코딩하기 위한 장치.
  20. 제1항에 있어서, 예측 방법의 세트 내의 적어도 하나의 예측 방법이 상기 인코더를 사용할 수 있는 것을 지시하기 위해 신호 발신이 사용되는, 비디오 데이터를 인코딩하기 위한 장치.
  21. 제1항에 있어서, 상기 비디오 데이터는 이미지 블록으로 나누어질 수 있고, 예측 방법의 세트 내의 예측 방법 간의 구별은 현재 이미지 블록에 대한 다수의 예측에 기초하는, 비디오 데이터를 인코딩하기 위한 장치.
  22. 제1항에 있어서, 상기 국부적인 가중화된 함수는 상기 비디오 데이터의 Y 성분에만 또는 모든 컬러 성분에 적용되는, 비디오 데이터를 인코딩하기 위한 장치.
  23. 화상에 대한 비디오 데이터를 인코딩하기 위한 방법으로서,
    상기 비디오 데이터는 국부적 밝기 변동을 가지며, 상기 방법은:
    상기 국부적 밝기 변동에 대한 가중치를 결정하기 위해 국부적인 가중화된 함수를 사용해서 상기 비디오 데이터를 인터-코딩하는 단계(258)를 포함하고,
    상기 국부적인 가중화된 함수에 대한 가중치는 명시적 코딩 없이 유도되는, 비디오 데이터를 인코딩하기 위한 방법.
  24. 제23항에 있어서, 상기 비디오 데이터는 블록에 의해 분할가능하고, 상기 방법은 상기 화상에서 블록의 이전에 인코딩되고 재구성된 인접 픽셀과 기준 화상의 대응하는 픽셀로부터 상기 화상에서 상기 블록에 대한 가중치를 추정하는 단계(256)를 더 포함하는, 비디오 데이터를 인코딩하기 위한 방법.
  25. 제24항에 있어서, 상기 기준 화상내의 대응하는 픽셀은 공동-위치되는 픽셀인, 비디오 데이터를 인코딩하기 위한 방법.
  26. 제24항에 있어서, 상기 기준 화상 내의 대응하는 픽셀은 상기 블록을 인터-코딩하기 위해 사용되는 움직임 벡터로부터 움직임 보상되는, 비디오 데이터를 인코딩하기 위한 방법.
  27. 제24항에 있어서, 상기 재구성된 인접 픽셀은 이용 가능한 상단 픽셀, 이용 가능한 좌측 픽셀과 이용 가능한 상단 좌측 픽셀 중의 임의의 픽셀일 수 있는, 비디오 데이터를 인코딩하기 방법.
  28. 제24항에 있어서, 상기 재구성된 인접 픽셀은 상기 인접 블록의 움직임 정보에 기초해서 적응적으로 선택된, 이용 가능한 상단 픽셀, 이용 가능한 좌측 픽셀과 이용 가능한 상단 좌측 픽셀 중의 임의의 픽셀일 수 있는, 비디오 데이터를 인코딩하기 위한 방법.
  29. 제23항에 있어서, 상기 인터-코딩 단계는 기준 화상 내의 움직임 예측된 블록상에 상기 국부적 가중화된 함수를 적용하는 단계(262)와, 상기 가중화된 예측된 움직임 블록상에 움직임 보상을 수행하는 단계(260)를 포함하는, 비디오 데이터를 인코딩하기 위한 방법.
  30. 제23항에 있어서, 상기 국부적 가중화된 함수는 다항 함수, 선형 함수 및 비선형 함수 중의 하나인, 비디오 데이터를 인코딩하기 위한 방법.
  31. 제23항에 있어서, 상기 국부적 가중화된 함수는 다항 함수이고, 상기 다항 함수의 차수(degree)는 기준 화상 인덱스를 가지고 신호 발신되고 연관될 수 있는, 비디오 데이터를 인코딩하기 위한 방법.
  32. 제30항에 있어서, 제1차 다항식은 1인 제1차 계수와, 현재 화상내의 인접 픽셀과 기준 화상내의 움직임 예측되거나 공동 위치되는 픽셀 간의 차이의 평균으로부터 추정되는 영(zero)차 계수를 가지고 사용되는, 비디오 데이터를 인코딩하기 위한 방법.
  33. 제32항에 있어서, 상기 비디오 데이터는 매크로블록으로 분할 가능하고, 가변 블록 크기는 매크로블록에 대해 지원되고, 현재 매크로블록 내의 임의의 블록에 대해, 상기 영차 계수는 상기 현재 매크로블록의 인접 픽셀의 평균과 상기 기준 화상 내에서 현재 움직임 예측되거나 공동 위치되는 블록의 인접 픽셀의 평균의 차이로서 계산되는, 비디오 데이터를 인코딩하기 위한 방법.
  34. 제33항에 있어서, 상기 현재 매크로블록 내의 임의의 블록에 대해, 상기 영차 계수는 상기 현재 매크로블록의 인접 픽셀의 평균과 상기 기준 화상 내의 공동 위치된 매크로블록의 인접 픽셀의 평균의 차이로서 또한 계산되는, 비디오 데이터를 인코딩하기 위한 방법.
  35. 제23항에 있어서, 상기 비디오 데이터는 블록에 의해 분할 가능하고, 상기 인터-코딩 단계는 상기 화상 내의 블록의 이전에 인코딩되고 재구성된 인접 픽셀과, 기준 화상 내의 필터링된 대응하는 움직임 예측되거나 공동 위치되는 픽셀로부터 상기 화상 내의 블록에 대한 가중치를 추정하는 단계(256)를 포함하는, 비디오 데이터를 인코딩하기 위한 방법.
  36. 제35항에 있어서, 상기 재구성되는 인접 픽셀은 이용가능한 상단 픽셀, 이용가능한 좌측 픽셀과 이용가능한 상단 좌측 픽셀 중의 임의의 하나일 수 있는, 비디오 데이터를 인코딩하기 위한 방법.
  37. 제35항에 있어서, 상기 재구성된 인접 픽셀은 상기 인접 블록의 움직임 정보에 기초해서 적응적으로 선택된, 이용가능한 상단 픽셀, 이용가능한 좌측 픽셀과 이용가능한 상단 좌측 픽셀 중의 임의의 픽셀일 수 있는, 비디오 데이터를 인코딩하기 위한 방법.
  38. 제23항에 있어서, 상기 국부적 가중화된 함수는 기준 화상에서 필터링되고 움직임 예측된 블록 상에 적용되고, 움직임 보상은 상기 가중 예측되고 필터링된 움직임 블록 상에 수행되는, 비디오 데이터를 인코딩하기 위한 방법.
  39. 제23항에 있어서, 상기 인코딩 단계가 하나 이상의 존재하는 인코딩 단계에 대비되어(opposed) 이용되고 있는 지를 지시하기 위한 헤더 내의 추가적인 신호를 사용해서 하나 이상의 존재하는 인코딩 단계와 상기 인터-코딩 단계를 결합하는 단계(412, 416)를 더 포함하는, 비디오 데이터를 인코딩하기 위한 방법.
  40. 제39항에 있어서, 예측 방법의 세트내의 적어도 하나의 예측 방법이 상기 인 코딩 단계를 사용할 수 있는지를 지시하기 위해 신호 발신이 사용되는, 비디오 데이터를 인코딩하기 위한 방법.
  41. 제40항에 있어서, 상기 비디오 데이터는 이미지 블록으로 나누어질 수 있고, 예측 방법의 세트 내에서 예측 방법 간의 구별은 현재 이미지 블록에 대한 다수의 예측에 기초하는, 비디오 데이터를 인코딩하기 위한 방법.
  42. 제23항에 있어서, 신호 발신은 예측 방법의 세트 내의 적어도 하나의 예측 방법이 상기 인코딩 단계를 사용할 수 있는 것을 지시하기 위해 사용되는, 비디오 데이터를 인코딩하기 위한 방법.
  43. 제23항에 있어서, 상기 비디오 데이터는 이미지 블록으로 나누어질 수 있고, 예측 방법의 세트 내의 예측 방법 간의 구별은 현재 이미지 블록에 대한 다수의 예측에 기초하는, 비디오 데이터를 인코딩하기 위한 방법.
  44. 제23항에 있어서, 상기 국부적 가중화된 함수는 상기 비디오 데이터의 Y 성분에만 또는 모든 컬러 성분에 적용되는, 비디오 데이터를 인코딩하기 위한 방법.
  45. 화상에 대한 비디오 데이터를 디코딩하기 위한 장치로서,
    상기 비디오 데이터는 국부적 밝기 변동을 가지며, 상기 비디오 디코딩 장치 는:
    상기 국부적 밝기 변동에 대한 가중치를 결정하기 위해 국부적인 가중화된 함수를 사용해서 상기 비디오 데이터를 디코딩하기 위한 디코더(300)를 포함하고,
    상기 국부적인 가중화된 함수에 대한 가중치는 묵시적으로 유도되는, 비디오 데이터를 디코딩하기 위한 장치.
  46. 제45항에 있어서, 상기 비디오 데이터는 블록에 의해 분할가능하고, 상기 화상에서 블록에 대한 가중치는 상기 화상내의 상기 블록의 이전에 디코딩되고 재구성된 인접 픽셀과 기준 화상의 대응하는 픽셀로부터 추정되는, 비디오 데이터를 디코딩하기 위한 장치.
  47. 제46항에 있어서, 상기 기준 화상 내의 대응하는 픽셀은 공동-위치되는 픽셀인, 비디오 데이터를 디코딩하기 위한 장치.
  48. 제46항에 있어서, 상기 기준 화상 내의 대응하는 픽셀은 상기 블록을 인터-코딩하기 위해 사용되는 움직임 벡터로부터 움직임 보상되는, 비디오 데이터를 디코딩하기 위한 장치.
  49. 제46항에 있어서, 상기 재구성된 인접 픽셀은 이용 가능한 상단 픽셀, 이용 가능한 좌측 픽셀과 이용 가능한 상단 좌측 픽셀 중의 임의의 픽셀일 수 있는, 비디오 데이터를 디코딩하기 위한 장치.
  50. 제46항에 있어서, 상기 재구성된 인접 픽셀은 상기 인접 블록의 움직임 정보에 기초해서 적응적으로 선택된, 이용 가능한 상단 픽셀, 이용 가능한 좌측 픽셀과 이용 가능한 상단 좌측 픽셀 중의 임의의 픽셀일 수 있는, 비디오 데이터를 디코딩하기 위한 장치.
  51. 제45항에 있어서, 상기 국부적 가중화된 함수는 기준 화상 내의 움직임 예측된 블록 상에 적용되고, 움직임 보상은 상기 가중 예측된 움직임 블록 상에 수행되는, 비디오 데이터를 디코딩하기 위한 장치.
  52. 제45항에 있어서, 상기 국부적 가중화된 함수는 다항식 함수, 선형 함수 및 비선형 함수 중의 하나인, 비디오 데이터를 디코딩하기 위한 장치.
  53. 제45항에 있어서, 상기 국부적 가중화된 함수는 다항식 함수이고, 상기 다항식 함수의 차수(degree)는 기준 화상 인덱스를 가지고 신호 발신되고 연관될 수 있는, 비디오 데이터를 디코딩하기 위한 장치.
  54. 제52항에 있어서, 1차 다항식은 1인 1차 계수와, 현재 화상 내의 인접 픽셀과 기준 화상내의 움직임 예측되거나 공동 위치되는 픽셀간의 차이의 평균으로부터 추정되는 영(zero)차 계수를 가지고 사용되는, 비디오 데이터를 디코딩하기 위한 장치.
  55. 제54항에 있어서, 상기 비디오 데이터는 매크로블록으로 분할 가능하고, 가변 블록 크기는 매크로블록에 대해 지원되고, 현재 매크로블록 내의 임의의 블록에 대해, 상기 영차 계수는 상기 현재 매크로블록의 인접 픽셀의 평균과 상기 기준 화상 내에서 현재 움직임 예측되거나 공동 위치되는 블록의 인접 픽셀의 평균의 차이로서 계산되는, 비디오 데이터를 디코딩하기 위한 장치.
  56. 제55항에 있어서, 상기 현재 매크로블록 내의 임의의 블록에 대해, 상기 영차 계수는 상기 현재 매크로블록의 인접 픽셀의 평균과 상기 기준 화상 내의 공동 위치된 매크로블록의 인접 픽셀의 평균의 차이로서 또한 계산될 수 있는, 비디오 데이터를 디코딩하기 위한 장치.
  57. 제45항에 있어서, 상기 비디오 데이터는 블록에 의해 분할 가능하고, 상기 화상 내의 블록에 대한 가중치는 상기 화상 내의 블록의 이전에 인코딩되고 재구성된 인접 픽셀과, 기준 화상 내의 필터링된 대응하는 움직임 예측되거나 공동 위치되는 픽셀로부터 추정되는, 비디오 데이터를 디코딩하기 위한 장치.
  58. 제57항에 있어서, 상기 재구성되는 인접 픽셀은 이용가능한 상단 픽셀, 이용가능한 좌측 픽셀과 이용가능한 상단 좌측 픽셀 중의 임의의 하나일 수 있는, 비디오 데이터를 디코딩하기 위한 장치.
  59. 제57항에 있어서, 상기 재구성된 인접 픽셀은 상기 인접 블록의 움직인 정보에 기초해서 적응적으로 선택된, 이용가능한 상단 픽셀, 이용가능한 좌측 픽셀과 이용가능한 상단 좌측 픽셀 중의 임의의 픽셀일 수 있는, 비디오 데이터를 디코딩하기 위한 장치.
  60. 제45항에 있어서, 상기 국부적 가중화된 함수는 기준 화상에서 필터링된 움직임 예측된 블록 상에 적용되고, 움직임 보상은 상기 가중화된 예측된 필터링된 움직임 블록 상에 수행되는, 비디오 데이터를 디코딩하기 위한 장치.
  61. 제45항에 있어서, 상기 디코더(300)는 상기 디코더가 하나 이상의 존재하는 디코더에 대비되어(opposed) 이용되고 있는 지를 지시하기 위해 헤더 내의 추가적인 신호를 사용해서 하나 이상의 인코더와 결합될 수 있는, 비디오 데이터를 디코딩하기 위한 장치.
  62. 제61항에 있어서, 예측 방법의 세트내의 적어도 하나의 예측 방법이 상기 디코더를 사용할 수 있는지를 지시하기 위해 신호 발신이 사용되는, 비디오 데이터를 디코딩하기 위한 장치.
  63. 제62항에 있어서, 상기 비디오 데이터는 이미지 블록으로 나누어질 수 있고, 예측 방법의 세트 내에서 예측 방법 간의 구별은 현재 이미지 블록에 대한 다수의 예측에 기초하는, 비디오 데이터를 디코딩하기 위한 장치.
  64. 제45항에 있어서, 예측 방법의 세트 내의 적어도 하나의 예측 방법이 상기 디코더를 사용할 수 있는 것을 지시하기 위해 신호 발신이 사용되는, 비디오 데이터를 디코딩하기 위한 장치.
  65. 제45항에 있어서, 상기 비디오 데이터는 이미지 블록으로 나누어질 수 있고, 예측 방법의 세트 내의 예측 방법 간의 구별은 현재 이미지 블록에 대한 다수의 예측에 기초하는, 비디오 데이터를 디코딩하기 위한 장치.
  66. 제45항에 있어서, 상기 국부적인 가중화된 함수는 상기 비디오 데이터의 Y 성분에만 또는 모든 컬러 성분에 적용되는, 비디오 데이터를 디코딩하기 위한 장치.
  67. 화상에 대한 비디오 데이터를 디코딩하기 위한 방법으로서,
    상기 비디오 데이터는 국부적 밝기 변동을 가지며, 상기 방법은:
    상기 국부적 밝기 변동에 대한 가중치를 결정하기 위해 국부적인 가중화된 함수를 사용해서 상기 비디오 데이터를 디코딩하는 단계(358)를 포함하고,
    상기 국부적인 가중화된 함수에 대한 가중치는 묵시적으로 유도되는, 비디오 데이터를 디코딩하기 위한 방법.
  68. 제67항에 있어서, 상기 비디오 데이터는 블록에 의해 분할가능하고, 상기 방법은 상기 화상에서 상기 블록의 이전에 디코딩되고 재구성된 인접 픽셀과 기준 화상의 대응하는 픽셀로부터 상기 화상 내의 블록에 대한 가중치를 추정하는 단계(358)를 더 포함하는, 비디오 데이터를 디코딩하기 위한 방법.
  69. 제68항에 있어서, 상기 기준 화상내의 대응하는 픽셀은 공동-위치되는 픽셀인, 비디오 데이터를 디코딩하기 위한 방법.
  70. 제68항에 있어서, 상기 기준 화상 내의 대응하는 픽셀은 상기 블록을 인터-코딩하기 위해 사용되는 움직임 벡터로부터 움직임 보상되는, 비디오 데이터를 디코딩하기 위한 방법.
  71. 제68항에 있어서, 상기 재구성된 인접 픽셀은 이용 가능한 상단 픽셀, 이용 가능한 좌측 픽셀과 이용 가능한 상단 좌측 픽셀 중의 임의의 픽셀일 수 있는, 비디오 데이터를 디코딩하기 방법.
  72. 제68항에 있어서, 상기 재구성된 인접 픽셀은 상기 인접 블록의 움직임 정보에 기초해서 적응적으로 선택된, 이용 가능한 상단 픽셀, 이용 가능한 좌측 픽셀과 이용 가능한 상단 좌측 픽셀 중의 임의의 픽셀일 수 있는, 비디오 데이터를 디코딩하기 위한 방법.
  73. 제67항에 있어서, 상기 디코딩 단계는 기준 화상 내의 움직임 예측된 블록 상에 상기 국부적 가중화된 함수를 적용하는 단계(364)와, 상기 가중화된 예측된 움직임 블록상에 움직임 보상을 수행하는 단계(362)를 포함하는, 비디오 데이터를 디코딩하기 위한 방법.
  74. 제67항에 있어서, 상기 국부적 가중화된 함수는 다항식 함수, 선형 함수 및 비선형 함수 중의 하나인, 비디오 데이터를 디코딩하기 위한 방법.
  75. 제67항에 있어서, 상기 국부적 가중화된 함수는 다항식 함수이고, 상기 다항식 함수의 차수(degree)는 기준 화상 인덱스를 가지고 신호 발신되고 연관될 수 있는, 비디오 데이터를 디코딩하기 위한 방법.
  76. 제74항에 있어서, 1차 다항식은 1인 1차 계수와, 현재 화상내의 인접 픽셀과 기준 화상내의 움직임 예측되거나 공동 위치되는 픽셀 간의 차이의 평균으로부터 추정되는 영(zero)차 계수를 가지고 사용되는, 비디오 데이터를 디코딩하기 위한 방법.
  77. 제76항에 있어서, 상기 비디오 데이터는 매크로블록으로 분할 가능하고, 가변 블록 크기는 매크로블록에 대해 지원되고, 현재 매크로블록 내의 임의의 블록에 대해, 상기 영차 계수는 상기 현재 매크로블록의 인접 픽셀의 평균과 상기 기준 화상 내에서 현재 움직임 예측되거나 공동 위치되는 블록의 인접 픽셀의 평균의 차이로서 계산되는, 비디오 데이터를 디코딩하기 위한 방법.
  78. 제77항에 있어서, 상기 현재 매크로블록 내의 임의의 블록에 대해, 상기 영차 계수는 상기 현재 매크로블록의 인접 픽셀의 평균과 상기 기준 화상 내의 공동 위치된 매크로블록의 인접 픽셀의 평균의 차이로서 또한 계산될 수 있는, 비디오 데이터를 디코딩하기 위한 방법.
  79. 제67항에 있어서, 상기 비디오 데이터는 블록에 의해 분할 가능하고, 상기 디코딩 단계는 상기 화상 내의 블록의 이전에 디코딩되고 재구성된 인접 픽셀과, 기준 화상 내의 필터링된 대응하는 움직임 예측되거나 공동 위치되는 픽셀로부터 상기 화상 내의 블록에 대한 가중치를 추정하는 단계(358)를 포함하는, 비디오 데이터를 디코딩하기 위한 방법.
  80. 제79항에 있어서, 상기 재구성되는 인접 픽셀은 이용가능한 상단 픽셀, 이용가능한 좌측 픽셀과 이용가능한 상단 좌측 픽셀중의 임의의 하나일 수 있는, 비디오 데이터를 디코딩하기 위한 방법.
  81. 제79항에 있어서, 상기 재구성된 인접 픽셀은 상기 인접 블록의 움직임 정보에 기초해서 적응적으로 선택된, 이용가능한 상단 픽셀, 이용가능한 좌측 픽셀과 이용가능한 상단 좌측 픽셀 중의 임의의 픽셀일 수 있는, 비디오 데이터를 디코딩하기 위한 방법.
  82. 제67항에 있어서, 상기 국부적 가중화된 함수는 기준 화상에서 필터링된 움직임 예측된 블록 상에 적용되고, 움직임 보상은 상기 가중화된 예측된 필터링된 움직임 블록 상에 수행되는, 비디오 데이터를 디코딩하기 위한 방법.
  83. 제67항에 있어서, 상기 디코딩 단계가 하나 이상의 존재하는 디코딩 단계에 대비되어(opposed) 이용되고 있는 지를 지시하기 위해 헤더 내의 추가적인 신호를 사용해서 하나 이상의 존재하는 디코딩 단계와 상기 디코딩 단계를 결합하는 단계(464, 466)를 더 포함하는, 비디오 데이터를 디코딩하기 위한 방법.
  84. 제83항에 있어서, 예측 방법의 세트내의 적어도 하나의 예측 방법이 상기 디코딩 단계를 사용할 수 있는 지를 지시하기 위해 신호 발신이 사용되는, 비디오 데이터를 디코딩하기 위한 방법.
  85. 제84항에 있어서, 상기 비디오 데이터는 이미지 블록으로 나누어질 수 있고, 예측 방법의 세트 내에서 예측 방법 간의 구별은 현재 이미지 블록에 대한 다수의 예측에 기초하는, 비디오 데이터를 디코딩하기 위한 방법.
  86. 제67항에 있어서, 예측 방법의 세트 내의 적어도 하나의 예측 방법이 상기 디코딩 단계를 사용할 수 있는 것을 지시하기 위해 신호 발신이 사용되는, 비디오 데이터를 디코딩하기 위한 방법.
  87. 제67항에 있어서, 상기 비디오 데이터는 이미지 블록으로 나누어질 수 있고, 예측 방법의 세트 내의 예측 방법 간의 구별은 현재 이미지 블록에 대한 다수의 예측에 기초하는, 비디오 데이터를 디코딩하기 위한 방법.
  88. 제67항에 있어서, 상기 국부적 가중화된 함수는 상기 비디오 데이터의 Y 성분에만 또는 모든 컬러 성분에 적용되는, 비디오 데이터를 디코딩하기 위한 방법.
KR1020077006035A 2004-09-16 2005-09-14 국부적 밝기 변동을 이용한 가중화된 예측을 가진 비디오 코덱 KR101201930B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US61027504P 2004-09-16 2004-09-16
US60/610,275 2004-09-16
PCT/US2005/032885 WO2006033953A1 (en) 2004-09-16 2005-09-14 Video codec with weighted prediction utilizing local brightness variation

Publications (2)

Publication Number Publication Date
KR20070051334A KR20070051334A (ko) 2007-05-17
KR101201930B1 true KR101201930B1 (ko) 2012-11-19

Family

ID=35376978

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020077006035A KR101201930B1 (ko) 2004-09-16 2005-09-14 국부적 밝기 변동을 이용한 가중화된 예측을 가진 비디오 코덱

Country Status (6)

Country Link
US (1) US8284837B2 (ko)
EP (2) EP3133813B1 (ko)
JP (2) JP5062833B2 (ko)
KR (1) KR101201930B1 (ko)
CN (1) CN101023673B (ko)
WO (1) WO2006033953A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017188782A3 (ko) * 2016-04-29 2018-08-02 세종대학교 산학협력단 영상 신호 부호화/복호화 방법 및 장치

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
EP1636998A2 (en) * 2003-06-25 2006-03-22 Thomson Licensing Method and apparatus for weighted prediction estimation using a displaced frame differential
KR20060043051A (ko) * 2004-09-23 2006-05-15 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
US8457203B2 (en) * 2005-05-26 2013-06-04 Ntt Docomo, Inc. Method and apparatus for coding motion and prediction weighting parameters
KR101311403B1 (ko) 2006-07-04 2013-09-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
KR101369746B1 (ko) 2007-01-22 2014-03-07 삼성전자주식회사 적응적 보간 필터를 이용한 영상 부호화, 복호화 방법 및장치
JP2008219100A (ja) * 2007-02-28 2008-09-18 Oki Electric Ind Co Ltd 予測画像生成装置、方法及びプログラム、並びに、画像符号化装置、方法及びプログラム
KR101362757B1 (ko) * 2007-06-11 2014-02-14 삼성전자주식회사 인터 컬러 보상을 이용한 영상의 부호화 방법 및 장치,복호화 방법 및 장치
KR101460362B1 (ko) 2007-06-25 2014-11-14 삼성전자주식회사 다시점 비디오 코딩에서 휘도 보상 방법 및 장치
KR20080114482A (ko) * 2007-06-26 2008-12-31 삼성전자주식회사 다시점 비디오 코딩에서 휘도 보상 방법 및 장치
KR101228020B1 (ko) * 2007-12-05 2013-01-30 삼성전자주식회사 사이드 매칭을 이용한 영상의 부호화 방법 및 장치, 그복호화 방법 및 장치
US8150196B2 (en) * 2007-12-14 2012-04-03 Intel Corporation Reduction filter based on smart neighbor selection and weighting (NRF-SNSW)
US20100290532A1 (en) * 2007-12-28 2010-11-18 Tomoyuki Yamamoto Moving image encoder and moving image decoder
WO2009088340A1 (en) * 2008-01-08 2009-07-16 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive filtering
WO2009089032A2 (en) * 2008-01-10 2009-07-16 Thomson Licensing Methods and apparatus for illumination compensation of intra-predicted video
US9967590B2 (en) 2008-04-10 2018-05-08 Qualcomm Incorporated Rate-distortion defined interpolation for video coding based on fixed filter or adaptive filter
US8804831B2 (en) 2008-04-10 2014-08-12 Qualcomm Incorporated Offsets at sub-pixel resolution
WO2009131508A2 (en) * 2008-04-23 2009-10-29 Telefonaktiebolaget Lm Ericsson (Publ) Template-based pixel block processing
KR101648818B1 (ko) * 2008-06-12 2016-08-17 톰슨 라이센싱 움직임 보상 보간 및 참조 픽쳐 필터링에 대한 국부적 적응형 필터링을 위한 방법 및 장치
JP2010016454A (ja) * 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
JP2010016453A (ja) * 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
JP2010035137A (ja) * 2008-07-01 2010-02-12 Sony Corp 画像処理装置および方法、並びにプログラム
US20110176741A1 (en) * 2008-09-24 2011-07-21 Kazushi Sato Image processing apparatus and image processing method
US20110170605A1 (en) * 2008-09-24 2011-07-14 Kazushi Sato Image processing apparatus and image processing method
CN102160384A (zh) * 2008-09-24 2011-08-17 索尼公司 图像处理设备和方法
RU2011110246A (ru) * 2008-09-24 2012-09-27 Сони Корпорейшн (JP) Устройство и способ обработки изображений
US20110170793A1 (en) * 2008-09-24 2011-07-14 Kazushi Sato Image processing apparatus and method
TWI498003B (zh) * 2009-02-02 2015-08-21 Thomson Licensing 代表一序列圖像的碼式資料連流之解碼方法和一序列圖像之寫碼方法及碼式圖像資料結構
KR101134279B1 (ko) 2009-02-09 2012-04-10 (주)이화프레지니우스카비 필터장치 및 이를 구비한 주사액 주입장치
TWI405469B (zh) * 2009-02-20 2013-08-11 Sony Corp Image processing apparatus and method
BRPI1008500B1 (pt) * 2009-02-23 2021-08-24 Nippon Telegraph And Telephone Corporation Método de codificação de imagem de multivisão, método de decodificação de imagem de multivisão, dispositivo de codificação de imagem de multivisão e dispositivo de decodificação de imagem de multivisão
US8917769B2 (en) 2009-07-03 2014-12-23 Intel Corporation Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
US8462852B2 (en) 2009-10-20 2013-06-11 Intel Corporation Methods and apparatus for adaptively choosing a search range for motion estimation
US9654792B2 (en) 2009-07-03 2017-05-16 Intel Corporation Methods and systems for motion vector derivation at a video decoder
US8995526B2 (en) * 2009-07-09 2015-03-31 Qualcomm Incorporated Different weights for uni-directional prediction and bi-directional prediction in video coding
US9161057B2 (en) * 2009-07-09 2015-10-13 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
FR2948845A1 (fr) * 2009-07-30 2011-02-04 Thomson Licensing Procede de decodage d'un flux representatif d'une sequence d'images et procede de codage d'une sequence d'images
US20120230405A1 (en) * 2009-10-28 2012-09-13 Media Tek Singapore Pte. Ltd. Video coding methods and video encoders and decoders with localized weighted prediction
TW201204054A (en) * 2010-01-14 2012-01-16 Intel Corp Techniques for motion estimation
US9161058B2 (en) * 2010-03-27 2015-10-13 Texas Instruments Incorporated Method and system for detecting global brightness change for weighted prediction in video encoding
EP2375754A1 (en) * 2010-04-09 2011-10-12 Mitsubishi Electric R&D Centre Europe B.V. Weighted motion compensation of video
KR101051564B1 (ko) * 2010-04-12 2011-07-22 아주대학교산학협력단 에이치닷264에이브이씨 코덱 시스템의 가중치 예측방법
US9014271B2 (en) * 2010-07-12 2015-04-21 Texas Instruments Incorporated Method and apparatus for region-based weighted prediction with improved global brightness detection
US9521424B1 (en) * 2010-10-29 2016-12-13 Qualcomm Technologies, Inc. Method, apparatus, and manufacture for local weighted prediction coefficients estimation for video encoding
KR101422422B1 (ko) 2010-12-21 2014-07-23 인텔 코오퍼레이션 Dmvd 처리 향상을 위한 시스템 및 방법
EP2617198A1 (de) * 2011-01-12 2013-07-24 Siemens Aktiengesellschaft Kompression und dekompression von referenzbildern in einem videokoder
KR102216155B1 (ko) * 2011-02-09 2021-02-16 엘지전자 주식회사 움직임 정보 저장 방법 및 이를 이용한 시간적 움직임 벡터 예측자 유도 방법
US20140056348A1 (en) * 2011-03-14 2014-02-27 Thomson Licensing Methods and device for reconstructing and coding an image block
JP2012244353A (ja) * 2011-05-18 2012-12-10 Sony Corp 画像処理装置および方法
JP2013005077A (ja) * 2011-06-14 2013-01-07 Sony Corp 画像処理装置および方法
KR101444675B1 (ko) 2011-07-01 2014-10-01 에스케이 텔레콤주식회사 영상 부호화 및 복호화 방법과 장치
US8787454B1 (en) * 2011-07-13 2014-07-22 Google Inc. Method and apparatus for data compression using content-based features
WO2013028121A1 (en) * 2011-08-25 2013-02-28 Telefonaktiebolaget L M Ericsson (Publ) Depth map encoding and decoding
EA016695B1 (ru) * 2011-09-01 2012-06-29 Закрытое Акционерное Общество "Импульс" Способ уменьшения шумов в видеоизображении
HUE052527T2 (hu) 2011-10-17 2021-05-28 Toshiba Kk Kódolási eljárás és dekódolási eljárás
WO2013068562A1 (en) 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Effective wedgelet partition coding
CN109218735B (zh) * 2011-11-11 2024-07-05 Ge视频压缩有限责任公司 用于编码和解码的设备和方法
KR102171788B1 (ko) 2011-11-11 2020-10-29 지이 비디오 컴프레션, 엘엘씨 적응적 분할 코딩
EP2805492B1 (en) * 2012-01-19 2018-11-14 VID SCALE, Inc. System and method of video coding quantization and dynamic range control
US20130278834A1 (en) * 2012-04-20 2013-10-24 Samsung Electronics Co., Ltd. Display power reduction using extended nal unit header information
EP2839456A4 (en) * 2012-04-20 2016-02-24 Samsung Electronics Co Ltd PERFORMANCE REDUCTION OF A DISPLAY WITH SEI INFORMATION
KR101373704B1 (ko) * 2012-05-29 2014-03-14 주식회사 코아로직 적응적 가중치 예측을 이용한 영상 처리 방법
EP3193506A1 (en) 2012-06-27 2017-07-19 Kabushiki Kaisha Toshiba Decoding method and decoding device
DE112012006541B4 (de) 2012-07-27 2020-03-19 Hewlett-Packard Development Company, L.P. Verfahren zur Videokompression
CN103581690A (zh) * 2012-08-09 2014-02-12 联发科技(新加坡)私人有限公司 视频译码方法、视频译码器、视频编码方法和视频编码器
EP2733933A1 (en) 2012-09-19 2014-05-21 Thomson Licensing Method and apparatus of compensating illumination variations in a sequence of images
US9667942B2 (en) 2012-11-20 2017-05-30 Qualcomm Incorporated Adaptive luminance compensation in three dimensional video coding
WO2015194913A1 (ko) * 2014-06-20 2015-12-23 성균관대학교 산학협력단 영상의 부호화/복호화 방법 및 이를 이용하는 장치
KR101748620B1 (ko) * 2014-06-20 2017-07-04 성균관대학교산학협력단 영상의 부호화/복호화 방법 및 이를 이용하는 장치
US10887597B2 (en) * 2015-06-09 2021-01-05 Qualcomm Incorporated Systems and methods of determining illumination compensation parameters for video coding
US10356416B2 (en) 2015-06-09 2019-07-16 Qualcomm Incorporated Systems and methods of determining illumination compensation status for video coding
CN109479142B (zh) 2016-04-29 2023-10-13 世宗大学校产学协力团 用于对图像信号进行编码/解码的方法和设备
CN109417640B (zh) * 2016-07-05 2021-08-17 株式会社Kt 用于处理视频信号的方法和设备
CN106231322B (zh) * 2016-07-21 2019-09-06 北京奇艺世纪科技有限公司 无损图像压缩方法及装置
US10798404B2 (en) 2016-10-05 2020-10-06 Qualcomm Incorporated Systems and methods of performing improved local illumination compensation
JP2018107580A (ja) * 2016-12-26 2018-07-05 富士通株式会社 動画像符号化装置、動画像符号化方法、動画像符号化用コンピュータプログラム、動画像復号装置及び動画像復号方法ならびに動画像復号用コンピュータプログラム
JP6841709B2 (ja) * 2017-04-06 2021-03-10 日本電信電話株式会社 画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
US11012686B2 (en) * 2019-03-08 2021-05-18 Tencent America LLC Unified block vector prediction for intra picture block compensation
US11445174B2 (en) * 2019-05-06 2022-09-13 Tencent America LLC Method and apparatus for video coding

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020196849A1 (en) 1996-09-03 2002-12-26 Nippon Telegraph And Telephone Corporation Brightness-variation compensation method and coding/decoding apparatus for moving pictures
US20040057523A1 (en) 2002-01-18 2004-03-25 Shinichiro Koto Video encoding method and apparatus and video decoding method and apparatus

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5544239A (en) 1992-12-14 1996-08-06 Intel Corporation Method and apparatus for improving motion analysis of fades
JP2938412B2 (ja) * 1996-09-03 1999-08-23 日本電信電話株式会社 動画像の輝度変化補償方法、動画像符号化装置、動画像復号装置、動画像符号化もしくは復号プログラムを記録した記録媒体および動画像の符号化データを記録した記録媒体
US6154571A (en) * 1998-06-24 2000-11-28 Nec Research Institute, Inc. Robust digital watermarking
US6584154B1 (en) * 1998-11-26 2003-06-24 Oki Electric Industry Co., Ltd. Moving-picture coding and decoding method and apparatus with reduced computational cost
KR100405150B1 (ko) * 2001-06-29 2003-11-10 주식회사 성진씨앤씨 시공간 적응적 잡음 제거/고화질 복원 방법 및 이를응용한 고화질 영상 입력 장치
US7123655B2 (en) * 2001-08-09 2006-10-17 Sharp Laboratories Of America, Inc. Method for reduced bit-depth quantization
JP4015934B2 (ja) 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
US7463684B2 (en) * 2002-05-03 2008-12-09 Microsoft Corporation Fading estimation/compensation
US8406301B2 (en) 2002-07-15 2013-03-26 Thomson Licensing Adaptive weighting of reference pictures in video encoding
US7903742B2 (en) 2002-07-15 2011-03-08 Thomson Licensing Adaptive weighting of reference pictures in video decoding
US7376186B2 (en) 2002-07-15 2008-05-20 Thomson Licensing Motion estimation with weighting prediction
JP2006501761A (ja) * 2002-10-01 2006-01-12 トムソン ライセンシング ビデオ・エンコーダにおける参照画像の陰解法による重みづけ
US7010047B2 (en) 2002-10-11 2006-03-07 Ub Video Inc. Global brightness change compensation system and method
WO2004054225A2 (en) 2002-12-04 2004-06-24 Thomson Licensing S.A. Encoding of video cross-fades using weighted prediction
BRPI0406625A (pt) * 2003-01-07 2005-12-06 Thomson Licensing Sa Inter / intra vìdeo-codificação mista de partições de macroblocos
US7509362B2 (en) * 2003-06-18 2009-03-24 Broadcom Corporation Non-linear function approximation using finite order polynomial in fixed-point arithmetic

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020196849A1 (en) 1996-09-03 2002-12-26 Nippon Telegraph And Telephone Corporation Brightness-variation compensation method and coding/decoding apparatus for moving pictures
US20040057523A1 (en) 2002-01-18 2004-03-25 Shinichiro Koto Video encoding method and apparatus and video decoding method and apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017188782A3 (ko) * 2016-04-29 2018-08-02 세종대학교 산학협력단 영상 신호 부호화/복호화 방법 및 장치

Also Published As

Publication number Publication date
JP2008312266A (ja) 2008-12-25
JP5062849B2 (ja) 2012-10-31
JP2008514122A (ja) 2008-05-01
KR20070051334A (ko) 2007-05-17
CN101023673B (zh) 2011-06-08
EP1790168B1 (en) 2016-11-09
EP3133813B1 (en) 2020-06-17
WO2006033953A1 (en) 2006-03-30
CN101023673A (zh) 2007-08-22
EP3133813A1 (en) 2017-02-22
JP5062833B2 (ja) 2012-10-31
US20080253456A1 (en) 2008-10-16
EP1790168A1 (en) 2007-05-30
US8284837B2 (en) 2012-10-09

Similar Documents

Publication Publication Date Title
KR101201930B1 (ko) 국부적 밝기 변동을 이용한 가중화된 예측을 가진 비디오 코덱
JP2020188483A (ja) 動き情報の適応型符号化方法及び装置
KR101094323B1 (ko) 적응 기준 화상 생성
US8155191B2 (en) Method and apparatus for fast mode decision of B-frames in a video encoder
KR101691199B1 (ko) 비디오 부호화 및 복호화에서의 템플릿 매칭 예측을 위한 방법 및 장치
EP1582063B1 (en) Mixed inter/intra video coding of macroblock partitions
KR101839629B1 (ko) 비디오 인코딩 및 디코딩을 위한 적응적 템플릿 매칭 예측 방법 및 장치
DK1540952T3 (en) ADAPTIVE WEIGHTING OF REFERENCE IMAGES IN VIDEO CODING
KR101254355B1 (ko) 공용 예측기를 사용하는 루마 및 크로마 디코딩
KR20120099479A (ko) 비디오 인코딩 및 디코딩을 위해 적응형 결합된 전처리 및 후처리 필터들을 위한 방법들 및 장치
KR20120081121A (ko) 비디오 인코딩 및 디코딩에서의 크로마 성분에 대한 예측 픽셀의 적응성 필터링을 위한 방법 및 장치
KR20070064598A (ko) 인터프레임에 대한 고속 모드 결정 방법 및 장치
WO2011050641A1 (en) Video coding methods and video encoders and decoders with localized weighted prediction
JP2018110428A (ja) 映像符号化及び復号化のためのdcイントラ予測モードのための方法及び装置
JP5570363B2 (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、およびプログラム
KR101083399B1 (ko) 인터 프레임을 위한 고속 모드 결정 인코딩

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151016

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161019

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20171018

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20181031

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20191030

Year of fee payment: 8