KR20060035541A - 비디오 코딩 방법 및 장치 - Google Patents

비디오 코딩 방법 및 장치 Download PDF

Info

Publication number
KR20060035541A
KR20060035541A KR1020040099952A KR20040099952A KR20060035541A KR 20060035541 A KR20060035541 A KR 20060035541A KR 1020040099952 A KR1020040099952 A KR 1020040099952A KR 20040099952 A KR20040099952 A KR 20040099952A KR 20060035541 A KR20060035541 A KR 20060035541A
Authority
KR
South Korea
Prior art keywords
wavelet
frame
module
filter
inverse
Prior art date
Application number
KR1020040099952A
Other languages
English (en)
Other versions
KR100664928B1 (ko
Inventor
한우진
이교혁
이재영
이배근
하호진
차상창
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2005/003228 priority Critical patent/WO2006080665A1/en
Priority to US11/254,763 priority patent/US20060088096A1/en
Publication of KR20060035541A publication Critical patent/KR20060035541A/ko
Application granted granted Critical
Publication of KR100664928B1 publication Critical patent/KR100664928B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/635Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by filter definition or implementation details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

본 발명은 일반적으로 비디오/이미지 압축에 관한 것으로서, 보다 상세하게는 비디오/이미지 압축시에, 입력되는 비디오/이미지의 장면 특성에 적합한 웨이블릿 변환 방법을 선택하여 압축 효율 또는 화질을 향상시키는 방법 및 장치에 관한 것이다.
본 발명의 일 실시예에 따른 비디오 인코더는, 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈; 상기 잔여 프레임의 공간적 연관성 정도에 따라서, 서로 다른 탭을 갖는 복수의 웨이블릿 필터 중 적합한 웨이블릿 필터를 선택하는 선택 모듈; 상기 선택된 웨이블릿 필터를 이용하여 상기 잔여 프레임에 대한 웨이블릿 변환을 수행함으로써 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈; 및 상기 웨이블릿 계수를 양자화하는 양자화 모듈로 이루어진다.
웨이블릿, 9/7 웨이블릿 필터, Haar 필터

Description

비디오 코딩 방법 및 장치{Video coding method and apparatus thereof}
도 1은 웨이블릿 변환 방식을 개략적으로 설명하는 도면.
도 2는 Haar 필터의 주파수 응답 특성을 나타낸 도면.
도 3은 9/7 필터의 주파수 응답 특성을 나타낸 도면.
도 4는 본 발명의 일 실시예에 따른 비디오 인코더(100)의 구성을 나타낸 블록도.
도 5는 도 1와 같은 분해 과정이 수행되는 구체적 과정을 예시하는 도면.
도 6은 Haar 필터에 따라서 픽셀(20)을 저주파 픽셀(21)과 고주파 픽셀(22)로 분해하는 과정을 개략적으로 도시한 도면.
도 7은 다양한 탭을 갖는 웨이블릿 필터링 과정을 설명하는 도면.
도 8은 정지 이미지를 입력 받아 이를 부호화하는 이미지 인코더(200)의 구성의 일 예를 도시한 블록도.
도 9는 본 발명의 다른 실시예에 따른 비디오 인코더(400)의 구성을 나타낸 블록도.
도 10은 선택 모듈(170)의 세부 구성을 도시한 블록도.
도 11는 비트스트림(300)의 전체적 구조를 개략적으로 도시한 도면.
도 12는 각 GOP 필드(310 등)의 세부 구조를 예시하는 도면.
도 13는 MV 필드(380)의 세부 구조를 예시하는 도면.
도 14는 프레임 별로 모드를 정하는 실시예에서 the other T 필드(390)의 세부 구조를 나타낸 도면.
도 15는 색성분 별로 모드를 정하는 실시예에서 the other T 필드(390)의 세부 구조를 나타낸 도면.
도 16은 본 발명의 다른 실시예에 따른 비디오 인코더(500)의 구조를 도시하는 블록도.
도 17은 입력된 잔여 프레임을 4×4의 개수로 분할한 경우의 예를 보여주는 도면.
도 18은 파티션 별로 모드를 정하는 실시예에서 the other T 필드(390)의 세부 구조를 나타낸 도면.
도 19는 본 발명의 다른 실시예에 따른 비디오 인코더(600)의 구조를 도시하는 블록도.
도 20은 본 발명의 일 실시예에 따른 비디오 디코더(700)의 구성을 나타낸 블록도.
도 21은 본 발명의 다른 실시예에 따른 비디오 디코더(800)의 구성을 나타낸 블록도.
도 22는 Mobile 시퀀스에서 적응적 공간 변환을 사용한 경우와 사용하지 않은 경우의 PSNR 차이를 Y, U, V 성분 별로 나타낸 그래프.
도 23은 본 발명의 일 실시예에 따른 인코딩, 또는 디코딩 과정을 수행하기 위한 시스템의 구성도.
(도면의 주요부분에 대한 부호 설명)
110 : 시간적 변환 모듈 120, 170 : 선택 모듈
130 : 제1 웨이블릿 필터 140 : 제2 웨이블릿 필터
150 : 양자화 모듈 160 : 엔트로피 부호화 모듈
171, 720 : 역 양자화 모듈 172, 740 : 제1 역 웨이블릿 필터
173, 750 : 제2 역 웨이블릿 필터 174 : 화질 비교 모듈
175, 730 : 스위칭 모듈 710 : 엔트로피 복호화 모듈
760 : 역 시간적 변환 모듈
본 발명은 일반적으로 비디오/이미지 압축에 관한 것으로서, 보다 상세하게는 비디오/이미지 압축시에, 입력되는 비디오/이미지의 장면 특성에 적합한 웨이블릿 변환 방법을 선택하여 압축 효율 또는 화질을 향상시키는 방법 및 장치에 관한 것이다.
인터넷을 포함한 정보통신 기술이 발달함에 따라 문자, 음성뿐만 아니라 화상통신이 증가하고 있다. 기존의 문자 위주의 통신 방식으로는 소비자의 다양한 욕구를 충족시키기에는 부족하며, 이에 따라 문자, 영상, 음악 등 다양한 형태의 정보를 수용할 수 있는 멀티미디어 서비스가 증가하고 있다. 멀티미디어 데이터는 그 양이 방대하여 대용량의 저장매체를 필요로 하며 전송시에 넓은 대역폭을 필요로 한다. 따라서 문자, 영상, 오디오를 포함한 멀티미디어 데이터를 전송하기 위해서는 압축코딩기법을 사용하는 것이 필수적이다.
데이터를 압축하는 기본적인 원리는 데이터의 중복(redundancy)을 없애는 과정이 다. 이미지에서 동일한 색이나 객체가 반복되는 것과 같은 공간적 중복이나, 동영상 프레임에서 인접 프레임이 거의 변화가 없는 경우나 오디오에서 같은 음이 계속 반복되는 것과 같은 시간적 중복, 또는 인간의 시각 및 지각 능력이 높은 주파수에 둔감한 것을 고려한 심리시각 중복을 제거함으로써 데이터를 압축할 수 있다.
현재 대부분의 비디오 코딩 표준은 모션 보상 예측 코딩법에 기초하고 있는데, 시간적 중복은 모션 보상에 근거한 시간적 필터링(temporal filtering)에 의해 제거하고, 공간적 중복은 공간적 변환(spatial transform)에 의해 제거한다.
데이터의 중복을 제거한 후 생성되는 멀티미디어를 전송하기 위해서는, 전송매체가 필요한데 그 성은은 전송매체 별로 차이가 있다. 현재 사용되는 전송매체는 초당 수십 메가 비트의 데이터를 전송할 수 있는 초고속통신망부터 초당 384 킬로 비트의 전송속도를 갖는 이동통신망 등과 같이 다양한 전송속도를 갖는다.
이와 같은 환경에서, 다양한 속도의 전송매체를 지원하기 위하여 또는 전송환경에 따라 이에 적합한 전송률로 멀티미디어를 전송할 수 있도록 하는, 즉 스케일러빌리티(scalability)를 갖는 데이터 코딩방법이 멀티미디어 환경에 보다 적합하다 할 수 있다.
이러한 스케일러빌리티란, 하나의 압축된 비트 스트림에 대하여 비트 레이트, 에러율, 시스템 자원 등의 조건에 따라 디코더(decoder) 또는 프리 디코더(pre-decoder) 단에서 부분적 디코딩을 할 수 있게 해주는 부호화 방식이다. 디코더 또는 프리 디코더는 이러한 스케일러빌리티를 갖는 코딩 방식으로 부호화된 비트 스트림의 일부만을 취하여 다른 화질, 해상도, 또는 프레임 레이트를 갖는 멀티미디 어 시퀀스를 복원할 수 있다.
이미, MPEG-21(moving picture experts group-21) PART-13에서 스케일러블 비디오 코딩(scalable video coding)에 관한 표준화를 진행 중에 있는데, 그 중 공간적 변환 방법에서 웨이블릿-기반의(wavelet-based) 방식이 유력한 방법으로 인식되고 있다.
도 1은 이러한 웨이블릿 변환(내지 웨이블릿 필터링) 방식을 개략적으로 설명하는 도면이다. 웨이블릿 변환은 입력 이미지 또는 비디오 프레임을 계층적인 서브밴드로 분해하는 과정인데, 여기서는 2단계 레벨로 분할한 예를 나타내었다. 여기에는 수평, 수직, 및 대각 위치에 세 가지의 고주파 서브밴드가 존재한다. 상기 고주파 서브밴드는 'LH', 'HL', 'HH'로 표기하는데, 이는 각각 수평방향 고주파, 수직방향 고주파, 그리고 수평 및 수직방향 고주파 서브밴드를 의미한다. 그리고, 저주파 서브밴드, 즉 수평 및 수직 방향 모두에 대하여 저주파 서브밴드는 'LL'이라고 표기한다. 또한, 저주파 서브밴드는 반복적으로 더 분해될 수 있는데, 웨이블릿 분해 레벨은 괄호 안의 숫자로 표기되어 있다.
이와 같이 기본적인 웨이블릿 변환 방식에서 사용되는 웨이블릿 필터의 종류에는 여러 가지가 있다. 최근에 주로 많이 사용되는 필터로는 Haar 필터, 5/3 필터, 9/7 필터 등이 있다. 여기서, Haar 필터는 인접한 두 개의 픽셀을 하나의 저주파 픽셀과, 하나의 고주파 픽셀로 분해하는 방식을 이용하고, 5/3 필터는 저주파 픽셀은 인접한 5개의 픽셀을 참조하여 생성되고 고주파 픽셀은 인접한 3개의 픽셀을 참조하여 생성된다. 마찬가지로, 9/7 필터는 저주파 픽셀은 인접한 9개의 픽셀을 참조 하여 생성되고 고주파 픽셀은 인접한 7개의 픽셀을 참조하여 생성된다. 여기서, 상대적으로 많은 주변 픽셀을 참조하는 웨이블릿 필터를 긴 탭(longer tap)을 갖는 웨이블릿 필터라고 하고, 상대적으로 적은 주변 픽셀을 참조하는 웨이블릿 필터를 짧은 탭(shorter tap)을 갖는 웨이블릿 필터라고 정의할 수 있다. 예를 들어, 9/7 필터는 5/3 필터 및 Haar 필터에 비하여 긴 탭을 갖는다.
도 2는 Haar 필터의 주파수 응답 특성을 나타낸 것이고, 도 3은 9/7 필터의 주파수 응답 특성을 나타낸 것이다. 도 2 및 도 3에서 위의 그래프는 저주파 필터(Lx)의 응답 특성을, 아래의 그래프는 고주파 필터(Hx)의 응답 특성을 나타낸다.
도 2 및 도 3에서의 그래프를 보면 Haar 필터는 주파수 응답이 주파수 영역에서 넓게 퍼지는 경향이 있고, 9/7 웨이블릿 필터는 고주파 성분 및 저주파 성분이 보다 명확하게 분리되는 경향이 있음을 알 수 있다. 따라서, Haar 필터에 의하여 저주파 필터링된 영상은 에지(edge)와 같은 성분이 보다 선명하게 나타나며, 반면에 9/7 웨이블릿 필터에 의하여 저주파 필터링된 영상은 보다 부드러운 특징을 갖는다.
비디오 인코더의 경우, 웨이블릿 필터는 시간적 잔여 프레임(temporal residual frame; 이하 잔여 프레임이라고 함)를 입력 받아 웨이블릿 변환을 수행하는데, 이러한 잔여 프레임은 그 이미지 특성에 따라서 공간적 연관성이 높거나 낮을 수 있다. 공간적 연관성이 충분한 이미지에서는, 긴 탭(Tap)을 갖는 웨이블릿 필터가 상대적으로 짧은 탭(Tap)을 갖는 웨이블릿 필터에 비하여, 이미지의 공간적 연관성을 보다 잘 포착하므로 보다 뛰어난 코딩 성능을 나타낸다. 반면에, 공간적 연관성이 거의 없는 이미지에서는, 긴 탭을 갖는 웨이블릿 필터는 적합하지 않을 뿐 아니라, 바람직하지 못한 링 효과(ringing effect)를 유발할 수도 있다.
따라서, 잔여 프레임의 특징에 따라서 복수의 웨이블릿 변환 방법 중에서 보다 우수한 변환 방법(즉, 우수한 웨이블릿 필터)을 선택하는 적응적 공간적 변환 기법을 강구할 필요가 있다
본 발명은 상기한 필요성을 고려하여 창안된 것으로, 비디오 압축시 공간적 변환에 있어서, 입력된 시간적 잔여 프레임의 특성에 따라서 복수의 웨이블릿 필터 중에서 적합한 하나의 필터를 선택하여 공간적 변환을 수행하는 방법, 즉 적응적 공간적 변환 방법 및 장치를 제공하는 것을 목적으로 한다.
또한 본 발명은 상기 선택을 위한 판단 기준을 제공하는 것을 또 다른 목적으로 한다.
그리고, 상기 적응적 공간적 변환 방법을 프레임 내에서 분할된 파티션(partition)별로 적용하는 방법을 제공하는 것을 또 다른 목적으로 한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 비디오 인코더는, 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈; 상기 잔여 프레임의 공간적 연관성 정도에 따라서, 서로 다른 탭을 갖는 복수의 웨이블릿 필터 중 적합한 웨이블릿 필터를 선택하는 선택 모듈; 상기 선택된 웨이블릿 필터를 이용하여 상기 잔여 프레임에 대한 웨이블릿 변환을 수행함으로써 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈; 및 상기 웨이블릿 계수를 양자화하는 양자화 모듈을 포함한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 이미지 인코더는, 입력된 이미지의 공간적 연관성 정도에 따라서, 서로 다른 탭을 갖는 복수의 웨이블릿 필터 중 적합한 웨이블릿 필터를 선택하는 선택 모듈; 선택된 웨이블릿 필터를 이용하여 상기 잔여 프레임에 대한 웨이블릿 변환을 수행함으로써 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈; 및 상기 웨이블릿 계수를 양자화하는 양자화 모듈을 포함한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 비디오 인코더는, 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈; 복수의 웨이블릿 필터 각각을 이용하여 상기 잔여 프레임에 대한 웨이블릿 변환을 수행함으로써 복수 세트의 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈; 상기 복수 세트의 웨이블릿 계수를 양자화하여 복수 세트의 양자화 계수를 생성하는 양자화 모듈; 및 상기 복수 세트의 양자화 계수로부터 복수의 잔여 프레임을 복원하고, 상기 복수의 잔여 프레임의 화질 차이를 비교하여 보다 화질이 우수한 프레임에 관한 웨이블릿 필터를 선택하는 선택 모듈을 포함한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 비디오 인코더는, 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈; 상기 잔여 프레임을 소정의 크기를 갖는 파티션으로 분할하는 파티션 모듈; 상기 분할된 파티션의 공간적 연관성 정도에 따라서, 서로 다른 탭을 갖는 복수의 웨이블릿 필터 중 상기 파티션에 적합한 웨이블릿 필터를 선택하는 선택 모듈; 상기 선 택된 웨이블릿 필터를 이용하여 상기 파티션에 대한 웨이블릿 변환을 수행함으로써 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈; 및 상기 웨이블릿 계수를 양자화하는 양자화 모듈을 포함한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 비디오 인코더는, 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈; 상기 잔여 프레임을 소정의 크기를 갖는 파티션으로 분할하는 파티션 모듈; 복수의 웨이블릿 필터 각각을 이용하여 상기 파티션에 대한 웨이블릿 변환을 수행함으로써 상기 파티션에 대한 복수 세트의 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈; 상기 복수 세트의 웨이블릿 계수를 양자화하여 복수 세트의 양자화 계수를 생성하는 양자화 모듈; 및 상기 복수 세트의 양자화 계수로부터 복수의 잔여 파티션을 복원하고, 상기 복수의 잔여 파티션의 화질 차이를 비교하여 보다 화질이 우수한 프레임에 관한 웨이블릿 필터를 선택하는 선택 모듈을 포함한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 비디오 디코더는, 입력된 비트스트림에 포함되는 텍스쳐 데이터를 역 양자화하는 역 양자화 모듈; 복수의 역 웨이블릿 필터 중 상기 비트스트림에 포함되는 모드 정보에 해당하는 역 웨이블릿 필터를 이용하여 상기 텍스쳐 데이터에 대한 역 웨이블릿 변환을 수행하는 역 웨이블릿 모듈; 및 상기 역 웨이블릿 변환을 수행한 결과 및 상기 비트스트림에 포함되는 모션 정보를 이용하여 비디오 시퀀스를 복원하는 역 시간적 변환 모듈을 포함한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 비디오 디코더는, 입 력된 비트스트림에 포함되는 텍스쳐 데이터를 역 양자화하는 역 양자화 모듈; 복수의 역 웨이블릿 필터 중 상기 비트스트림에 포함되는 파티션별 모드 정보에 해당하는 역 웨이블릿 필터를 이용하여 파티션 별로 상기 텍스쳐 데이터에 대한 역 웨이블릿 변환을 수행하는 역 웨이블릿 모듈; 상기 웨이블릿 변환된 파티션들을 조합하여 하나의 잔여 이미지를 복원하는 파티션 조합 모듈; 및 상기 잔여 이미지 및 상기 비트스트림에 포함되는 모션 정보를 이용하여 비디오 시퀀스를 복원하는 역 시간적 변환 모듈을 포함한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
도 4는 본 발명의 일 실시예에 따른 비디오 인코더(100)의 구성을 나타낸 블록도이다. 비디오 인코더(100)는 시간적 변환 모듈(110), 선택 모듈(120), 웨이블릿 변환 모듈(135), 양자화 모듈(150), 및 엔트로피 부호화 모듈(160)을 포함하여 구성될 수 있다. 도 4의 실시예는 복수의 웨이블릿 필터 중에서 적절한 필터를 선택하는 과정, 즉 모드 선택이 웨이블릿 필터에 의한 공간적 변환 이전에 이루어지는 경우 이다.
시간적 변환 모듈(110)은 모션 추정에 의하여 모션 벡터를 구하고, 구해진 모션 벡터 및 참조 프레임(reference frame)을 이용하여 시간적 예측 프레임(temporal prediction frame)을 구성하고, 현재 프레임과 상기 모션 보상 프레임을 차분하여 잔여 프레임을 구함으로써 시간적 중복성을 감소시킨다. 상기 모션 추정 방법으로서, 고정 크기 블록 매칭 방법, 또는 계층적 가변 사이즈 블록 매칭법(Hierarchical Variable Size Block Matching; HVSBM) 등 다양한 방법을 사용할 수 있다.
이러한 시간적 변환 방법으로는 기존의 MPEG 계열의 인코더에서 사용하는 IBP 픽쳐 방식(I 픽쳐, P 픽쳐, 및 B 픽쳐를 이용하는 방식) 또는, 시간적 스케일러빌리티를 지원하는 방식으로서 MCTF(Motion Compensated Temporal Filtering), UMCTF(Unconstrained Motion Compensated Temporal Filtering) 등의 계층적 필터링 방법 사용할 수 있다.
선택 모듈(120)은 입력된 잔여 프레임의 이미지 특성에 따라서 복수의 웨이블릿 필터 중 적합한 웨이블릿 필터를 선택한다. 즉, 입력된 잔여 프레임이 공간적 연관성이 높은 이미지인지 인가 여부를 판단하여 공간적 연관성이 높은 이미지인 경우에는 상대적으로 긴 탭의 웨이블릿 필터를 선택하고, 공간적 연관성이 낮은 이미지인 경우에는 상대적으로 짧은 탭의 웨이블릿 필터를 선택한다. 여기서, 상대적으로 짧은 탭의 웨이블릿 필터를 선택한 경우를 '제1 모드'라고 하고, 상대적으로 긴 탭의 웨이블릿 필터를 선택하는 경우를 '제2 모드'라고 정의한다.
선택 모듈(120)은 선택된 모드에 따라서, 복수의 웨이블릿 필터(130, 140) 중 하나의 웨이블릿 필터를 선택하고, 웨이블릿 변환 모듈(135)에 상기 입력된 잔여 프레임을 제공한다. 도 4의 실시예는 2개의 웨이블릿 필터 중 하나의 필터를 선택하는 예를 든 것이며, 제1 웨이블릿 필터는 제2 웨이블릿 필터에 비하여 짧은 탭을 갖는다.
본 발명에서는 상기와 같이 공간적 연관성을 판단하는 정량적 기준의 일 예를 제시하고자 한다. 공간적 연관성이 높은 이미지는 특정 밝기의 픽셀들이 집중적으로 많이 분포하고, 반대로 공간적 연관성이 낮은 이미지는 여러 가지 밝기의 픽셀들이 골고루 잘 분포하여 랜덤 노이즈(random noise)에 유사한 특징을 갖는다. 랜덤 노이즈로 이루어진 이미지에 대하여 히스토그램(가로축: 밝기, 세로축: 빈도)을 그려보면 그 결과는 가우시안(Gaussian) 분포를 잘 따를 것이지만, 공간적 연관성이 높은 이미지는 특정 밝기의 픽셀들이 집중하여 존재하므로 가우시안 분포를 잘 따르지 않을 것을 예측할 수 있다.
예를 들어 상기 모드 선택을 하는 기준으로서, 입력된 잔여 프레임에 대한 히스토그램을 그렸을 때, 현재 분포와 가우시안 분포와의 차이가 소정의 임계치를 넘는가를 기준으로 할 수 있다. 따라서, 상기 차이가 소정의 임계치를 넘는다면 상기 입력된 잔여 프레임은 공간적 연관성이 높은 이미지로서 제2 모드가 선택될 것이다. 그리고, 상기 차이가 소정의 임계치를 넘지 않는다면 상기 입력된 잔여 프레임은 공간적 연관성이 낮은 이미지로서 제1 모드가 선택될 것이다.
보다 자세한 예로서, 이러한 현재 분포와 가우시안 분포와의 차이는 각 변수 별 빈 도 차이의 합을 기준으로 할 수 있다. 먼저, 현재 분포의 평균(m)과 표준편차(σ)를 구하고, 이 평균과 표준편차를 갖는 가우시안 분포를 구한다. 그리고, 수학식 1과 같이 현재 분포가 갖는 각 변수의 빈도(fi)와 가우시안 분포를 가정할 때의 해당 변수에서의 빈도((fg)i)간의 차이의 합을 구하고 이를 정규화하기 위하여 현재 분포의 전체 빈도수로 나눈 다음, 그 결과가 소정의 임계치(c)를 넘는가 여부에 의하여 판단하는 것이다.
[수학식 1]
Figure 112004056657580-PAT00001
이러한 판단 기준은 상기와 같이 잔여 프레임에 적용할 수도 있겠지만, 시간적 변환 전의 원 비디오 프레임에 직접 적용할 수도 있을 것이다.
웨이블릿 변환 모듈(135)은 복수의 웨이블릿 필터(130, 140) 중에서 상기 선택된 웨이블릿 필터를 이용하여 상기 잔여 프레임에 대한 웨이블릿 변환을 수행함으로써 웨이블릿 계수를 생성한다. 이러한 웨이블릿 변환 과정은 하나의 프레임을 저주파 서브밴드와 고주파 서브밴드로 분해하고, 각 픽셀에 대한 웨이블릿 계수(wavelet coefficient)를 구하는 과정이다.
이 중에서 제1 웨이블릿 필터(130)는 상대적으로 짧은 탭의 웨이블릿 필터로서, 선택 모듈(120)이 제1 모드를 선택한 경우에 입력된 잔여 프레임을 웨이블릿 변환한 다. 그리고, 제2 웨이블릿 필터(140)는 상대적으로 긴 탭의 웨이블릿 필터로서, 선택 모듈(120)이 제2 모드를 선택한 경우에 입력된 잔여 프레임을 웨이블릿 변환한다. 예를 들어 제1 웨이블릿 필터는 Haar 필터이고, 제2 웨이블릿 필터는 9/7 필터일 수 있다.
도 5는 도 1와 같은 분해 과정이 수행되는 구체적 과정을 예시하는 도면이다. 웨이블릿 필터(130, 140)는 저역 통과 필터(121) 및 고역 통과 필터(122)를 포함한다. 사용되는 저역 통과 필터(121) 및 고역 통과 필터(122)의 종류에 따라서, Haar 필터, 5/3 필터, 9/7 필터 등 다양한 웨이블릿 필터들로 구분된다. 웨이블릿 변환을 사용한다고 하더라도 어떠한 웨이블릿 필터를 사용하는가에 따라서 그 코딩 특성 및 화질이 달라질 수 있다.
입력 이미지(10)가 저역 통과 필터(121)를 통과하면, 좌우 폭(또는 상하 폭)이 1/2로 축소된 저주파 이미지(L(1); 11)가 생성된다. 그리고, 고역 통과 필터(122)를 통과하면, 좌우 폭(또는 상하 폭)이 1/2로 축소된 고주파 이미지(H(1); 12)가 생성된다.
그리고, 1/2로 축소된 저주파 이미지(11) 및 고주파 이미지(12) 각각에 대하여 다시 저역 통과 필터(121) 및 고역 통과 필터(122)를 통과시키면, 네 가지 서브밴드 이미지, 즉 LL(1)(13), LH(1)(14), HL(1)(15), HH(1)(16)가 생성된다.
만약, 다시 한번 서브밴드 분해(레벨 2)를 하고자 하면, 서브밴드 이미지 중 저주파 이미지 LL(1)(13)를 마찬 가지의 방법에 의하여 다시 네 개의 하위 서브밴드 이 미지, 즉 도 1의 LL(2), LH(2), HL(2), HH(2)로 분할할 수 있는 것이다.
이와 같이, 2차원적 웨이블릿 변환을 통하여 서브밴드를 생성하는 과정 자체는 여러 가지 웨이블릿 필터에 있어서 공통적이지만, 하나의 프레임을 고주파 프레임과 저주파 프레임을 분해할 때의 관계식은 웨이블릿 필터에 따라서 다르다.
도 6은 Haar 필터에 따라서 2n개의 픽셀(20)을 n개의 저주파 픽셀(21)과 n개의 고주파 픽셀(22)로 분해하는 과정을 개략적으로 도시한 도면이다. Haar 필터는 인접한 두 개의 픽셀(예를 들어, x0 및 x1)을 이용하여 하나의 저주파 픽셀(l0)과 하나의 고주파 픽셀(h0)을 생성한다. Haar 필터를 이용한 필터링 관계식은 수학식 2에 나타낸 바와 같다. 여기서, xi는 i번째 픽셀을 나타내고, li는 i번째 저주파 픽셀을 나타내며, hi는 i번째 고주파 픽셀을 나타낸다. 단, 인덱스 i는 0이상의 정수이다.
[수학식 2]
Figure 112004056657580-PAT00002
이와 같이 Haar 필터에 의하여 웨이블릿 분해된 두 픽셀로부터 다시 원래의 두 픽셀을 복원하는 과정, 즉 역 웨이블릿 변환 과정은 수학식 3과 같이 표시된다. 여기서, li 및 hi는 하위 서브밴드에서 동일한 위치의 저주파 픽셀 및 고주파 픽셀이고 x2i는 복원할 짝수 번째 픽셀, x2i+1은 복원할 홀수 번째 픽셀이다. 단, i는 0부터 시작되므로 첫번째 픽셀은 짝수 번째에 위치함에 유의하여야 한다.
[수학식 3]
Figure 112004056657580-PAT00003
한편, 5/3 필터, 9/7 필터와 같이, Haar 필터 보다 긴 탭을 갖는 웨이블릿 필터에서의 관계식은 도 7에 나타낸 바와 같이 연속적인 공간적 예측(spatial prediction) 및 공간적 갱신(spatial update) 과정을 통하여 생성될 수 있다.
먼저, 입력 픽셀(x0 내지 x13) 중 홀수 번째 위치의 픽셀들은 공간적 예측을 통하여 고주파 픽셀(a0 내지 a6)을 생성한다. 이 경우 인접한 픽셀의 정보를 고려(예: 반영 비율 α= -1/2)하는데, 그 관계식은 수학식 4와 같이 나타낼 수 있다.
[수학식 4]
Figure 112004056657580-PAT00004
그리고, 다음으로 변환된 고주파 픽셀(a0 내지 a6) 중 인접한 픽셀을 이용(예: 반영 비율 β= 1/4)하여 짝수 번째 위치의 픽셀을 공간적 갱신(spatial update)함으로써 저주파 픽셀(b0 내지 b7)을 생성한다. 공간적 갱신에 관한 관계식은 수학식 5와 같 이 나타낼 수 있다.
[수학식 5]
Figure 112004056657580-PAT00005
도 7에서 보면, 고주파 픽셀(a0 내지 a6)은 3개의 주변 픽셀의 정보를 반영하므로 3 탭(3 taps)을 가지고, 저주파 픽셀(b0 내지 b7)은 결국 5개의 주변 픽셀의 정보를 반영하게 되므로 5 탭(5 taps)를 갖는다. 이와 같이 5개의 주변 픽셀(자신 포함)을 이용하여 저주파 픽셀을 생성하고 3개의 주변 픽셀(자신 포함)을 이용하여 고주파 픽셀을 생성하는 웨이블릿 필터를 5/3 필터라 한다.
여기서, 그치지 않고 더 긴 탭을 갖는 웨이블릿 필터링을 원한다면, 다시 공간적 예측 및 공간적 갱신을 반복하여 수행할 수 있다. 그러면 결국 9개의 주변 픽셀을 이용하여 저주파 픽셀(d0 내지 d7)을 생성하고 7개의 주변 픽셀을 이용하여 고주파 픽셀(c0 내지 c7)을 생성하게 되는데 이러한 웨이블릿 필터를 9/7 필터라고 한다. 다만, 두번째 공간적 예측 및 시간적 예측에서는 첫번째(α, β)와 다른 반영 계수(γ, δ)를 이용할 수 있다.
이와 같이 공간적 예측 및 시간적 예측 과정을 반복함으로써 보다 긴 탭을 갖는 웨이블릿 필터를 생성할 수 있는 것은 상술한 바와 같다. 다만, 실제 웨이블릿 필터를 적용할 때 상기와 같은 순차적 과정을 반드시 거쳐야 하는 것은 아니고, 실제로는 하나의 관계식에 의하여 필터링 결과 값이 바로 생성될 수 있다.
다음의 표 1은 5/3 필터에서 필터 계수(filter coefficients)의 예를 도시한 표이고, 표 2는 9/7 필터에서 필터 계수의 예를 도시한 표이다.
[표 1]
Figure 112004056657580-PAT00006
[표 2]
Figure 112004056657580-PAT00007
표 1의 5/3 필터 계수를 이용하면, 저주파 프레임(bi) 및 고주파 프레임(ai)은 다음의 수학식 6과 같이 일차 결합의 식으로 표현될 수 있다.
[수학식 6]
Figure 112004056657580-PAT00008
또한, 마찬가지로 표 2의 9/7 필터 계수를 이용하면, 저주파 프레임(di) 및 고주파 프레임(ci)도 각각 9개의 픽셀 값의 일차 결합 및 7개의 픽셀 값의 일차 결합으로 나타낼 수 있다.
이와 같이 인코더 단에서는 복수의 픽셀 값의 일차 결합으로부터 저주파 픽셀 및 고주파 픽셀을 생성하게 되고, 생성된 저주파 픽셀들과 고주파 픽셀들이 모여서 저주파 프레임과 고주파 프레임을 형성하게 된다. 반면에, 디코더 단에서는 역 웨이블릿 변환을 수행하여 입력된 저주파 픽셀과 고주파 픽셀을 이용하여 원래의 픽셀을 복원하는 과정을 거치게 된다. 이 과정은 단순히 소정 개수(3, 5, 7, 9, 등)의 변수를 갖는 일차방정식을 푸는 과정에 불과하므로 그 구체적인 계산 과정은 생략하기로 한다.
다시, 도 4로 돌아가면, 양자화 모듈(150)은 웨이블릿 변환 모듈(135)에서 생성된 웨이블릿 계수(제1 웨이블릿 계수 또는 제2 웨이블릿 계수)를 양자화(quantization)한다. 양자화(quantization)란 임의의 실수 값으로 표현되는 상기 DCT 계수를 일정 구간으로 나누어 불연속적인 값(discrete value)으로 나타내고, 이를 소정의 양자화 테이블에 따른 인덱스로 매칭(matching)시키는 작업을 의미한다.
엔트로피 부호화 모듈(160)은 양자화 모듈(150)에 의하여 양자화된 양자화 계수와, 시간적 변환 모듈(110)에 의하여 제공되는 모션 정보(모션 벡터, 참조 프레임 번호 등)를 무손실 부호화하여 출력 비트스트림을 생성한다. 이러한 무손실 부호화 방법으로는, 허프만 부호화(Huffman coding), 산술 부호화(arithmetic coding), 가변 길이 부호화(variable length coding) 등의 다양한 방법을 사용할 수 있다.
도 4의 실시예에서는 최초 입력이 비디오 프레임인 것으로 하여 설명하였지만, 본 발명은 반드시 비디오에 한정되는 것은 아니고 정지 이미지를 부호화하는 데에도 적용할 수 있다. 도 8은 정지 이미지를 입력 받아 이를 부호화하는 이미지 인코더(200)의 구성의 일 예를 도시한 것이다. 여기서 보면, 도 4와 비교할 때, 시간적 변환 모듈(110)이 존재하지 않는 점에서 차이가 있을 뿐이고 나머지 과정은 동일하다. 즉, 원 입력 이미지가 선택 모듈(120)로 직접 입력된다. 선택 모듈(120)은 입력 이미지에 대해서도 상술한 바와 마찬가지 방법을 통하여 모드를 선택할 수 있다.
도 9는 본 발명의 다른 실시예에 따른 비디오 인코더(400)의 구성을 나타낸 블록도이다. 도 9의 실시예는 도 4의 실시예와 달리 선택 모듈(170)이 양자화 과정 이후에 존재한다는 점에서 차이가 있다. 비디오 인코더(400)는 시간적 변환 모듈(110), 웨이블릿 변환 모듈(135), 양자화 모듈(150), 선택 모듈(170), 및 엔트로피 부호화 모듈(160)을 포함하여 구성될 수 있다. 이하에서는 도 4의 실시예와 차이 나는 점을 중심으로 하여 설명한다.
시간적 변환 모듈(110)에서 생성된 잔여 프레임은 제1 웨이블릿 필터(130) 및 제2 웨이블릿 필터(140)에 입력된다.
웨이블릿 변환 모듈(135)는 복수의 웨이블릿 필터(130, 140) 각각을 이용하여 상기 잔여 프레임에 대한 웨이블릿 변환을 수행한다. 그 결과 복수 세트의 웨이블릿 계수가 생성된다. 즉, 하나의 잔여 프레임을 하나의 웨이블릿 필터에 의하여 웨이블 릿 변환한 결과 생성되는 웨이블릿 계수들의 집합을 한 세트의 웨이블릿 계수라고 할 때, 복수의 웨이블릿 필터 각각에 의하여 하나의 잔여 프레임을 변환한 결과 복수 세트의 웨이블릿 계수가 생성된다는 의미이다. 도 9의 실시예에서는 2개 세트의 웨이블릿 계수가 존재하며, 이 중 상대적으로 짧은 탭을 갖는 제1 웨이블릿 필터(130)에 의하여 생성되는 웨이블릿 계수 세트를 제1 웨이블릿 계수라고 하고, 상대적으로 긴 탭을 갖는 제2 웨이블릿 필터(140)에 의하여 생성되는 웨이블릿 계수 세트를 제2 웨이블릿 계수라고 한다.
양자화 모듈(150)은 상기 복수 세트의 웨이블릿 계수를 양자화하여 복수 세트의 양자화 계수를 생성한다. 즉, 제1 웨이블릿 계수를 양자화하여 제1 양자화 계수를 생성하고, 제2 웨이블릿 계수를 양자화하여 제2 양자화 계수를 생성한다.
선택 모듈(170)은 상기 복수 세트의 양자화 계수로부터 복수의 잔여 프레임을 복원하고, 상기 복수의 잔여 프레임의 화질 차이를 비교하여 보다 화질이 우수한 프레임에 관한 웨이블릿 필터를 선택한다. 즉, 상기 제1 양자화 계수 및 상기 제2 양자화 계수로부터 각각 제1 잔여 프레임 및 제2 잔여 프레임을 복원하고, 시간적 변환 모듈(110)로부터 제공되는 잔여 프레임을 기준으로 제1 잔여 프레임과 제2 잔여 프레임의 화질 차이를 비교하여 보다 화질이 우수한 프레임에 관한 웨이블릿 필터를(제1 잔여 프레임의 화질이 우수하다면 제1 웨이블릿 필터를, 제2 잔여 프레임의 화질이 우수하다면 제2 웨이블릿 필터를) 선택한다. 그리고, 상기 제1 양자화 계수 및 제2 양자화 계수 중 선택된 모드에 따른 양자화 계수를 엔트로피 부호화 모듈(160)에 제공한다.
엔트로피 부호화 모듈(160)은 선택 모듈(170)에 의하여 제공된 양자화 계수(제1 모드인 경우 제1 양자화 계수, 제2 모드인 경우 제2 양자화 계수)를 입력 받는다. 그리고, 상기 입력 받은 양자화 계수와 시간적 변환 모듈(110)에 의하여 제공되는 모션 정보(모션 벡터, 시간적 변환에서 이용한 참조 프레임의 번호 등)를 무손실 부호화하여 출력 비트스트림을 생성한다.
한편, 선택 모듈(170)은 도 10에서 도시하는 바와 같이, 역 양자화 모듈(181), 역 웨이블릿 변환 모듈(176), 화질 비교 모듈(174), 및 스위칭 모듈(175)을 포함하여 구성될 수 있다.
역 양자화 모듈(171)은 양자화 모듈(150)로부터 전달되는 상기 복수 세트의 양자화 계수 즉, 제1 양자화 계수 및 제2 양자화 계수를 역 양자화한다. 이러한 역 양자화 과정은 양자화 과정에서 사용된 양자화 테이블을 그대로 이용하여 양자화 과정에서 생성된 인덱스로부터 그에 매칭되는 값을 복원하는 과정이다.
역 웨이블릿 변환 모듈(176)은 복수의 역 웨이블릿 필터(172, 173)를 포함하며, 상기 역 양자화된 결과를 대응되는 역 웨이블릿 필터에 의하여 변환함으로써 복수의 잔여 프레임을 복원한다. 여기서 제1 역 웨이블릿 필터(172)는 제1 웨이블릿 필터(130)에 대응되는 역변환 필터이고, 제2 웨이블릿 필터(173)는 제2 웨이블릿 필터(140)에 대응되는 역변환 필터이다.
제1 역 웨이블릿 필터(172)는 제1 양자화 계수의 역 양자화된 값에 대하여 제1 웨이블릿 필터(130)에서의 변환 과정을 역으로 수행(역 웨이블릿 변환)하여 제1 잔여 프레임을 생성한다. 그리고, 제2 역 웨이블릿 필터(173)는 제2 양자화 계수의 역 양자화된 값에 대하여 제2 웨이블릿 필터(140)에서의 변환 과정을 역으로 수행하여 제2 잔여 프레임을 생성한다.
화질 비교 모듈(174)은 시간적 변환 모듈(110)으로부터 제공되는 잔여 프레임을 기준으로 하여, 복원된 복수의 잔여 프레임의 화질을 비교하여 보다 화질이 우수한 프레임에 관한 웨이블릿 필터를 선택한다. 즉 상기 제1 잔여 프레임 및 상기 제2 잔여 프레임의 화질을 비교하고 이 중에서 보다 화질이 우수한 모드를 선택한다. 화질을 비교하는 방법은 제1 잔여 프레임과 오리지널 잔여 프레임과의 차의 합 및 제2 잔여 프레임과 오리지널 잔여 프레임과의 차의 합을 비교하여 작은 쪽이 보다 좋은 화질을 갖는 것으로 판단한다. 이와 같이 단순 차를 계산하여 비교할 수도 있지만, 오리지널 잔여 프레임을 기준으로 각각 PSNR(Peek Signal-to-Noise Ratio)을 계산하여 비교할 수도 있다. 그러나, PSNR 방법도 이미지 간의 차이의 합으로 계산되는 기본적 원리에서는 벗어나지 않는 방법이다.
이와 같은 화질의 비교는, 다른 예로서 각 잔여 프레임을 역 시간적 변환하여 복원된 프레임 간에 비교하는 방식으로 수행될 수도 있지만, 두 가지 모드 모두 시간적 변환은 공통적으로 거치므로 잔여 프레임 단계에서 비교를 하는 것이 보다 효율적일 수 있다.
스위칭 모듈(175)은 제1 양자화 계수와 제2 양자화 계수 중에서 화질 비교 모듈(174)에서 선택된 모드에 따른 양자화 계수를 엔트로피 부호화 모듈(160)로 출력한다.
한편, 도 9에서의 실시예도 비디오 인코더뿐만 아니라 이미지 인코더에도 적용할 수 있다. 다만, 이미지 인코더인 경우에는 시간적 변환 모듈(110)은 생략되고 모션 정보도 존재하지 않으며, 입력 이미지가 바로 제1 웨이블릿 필터(130), 제2 웨이블릿 필터(140), 및 선택 모듈(170)로 입력된다는 점에서 차이가 있을 뿐이다.
도 11 내지 도 14는 본 발명에 따른 비트 스트림(300) 구조의 일 예를 도시한 것이다. 이 중 도 11는 비트스트림(300)의 전체적 구조를 개략적으로 도시한 것이다.
비트스트림(300)은 시퀀스 헤더(sequence header) 필드(310) 와 데이터 필드(320)로 구성되고, 데이터 필드(320)는 하나 이상의 GOP 필드(330, 340, 350)로 구성될 수 있다.
시퀀스 헤더 필드(310)에는 프레임의 가로크기(2바이트), 세로크기(2바이트), GOP의 크기(1바이트), 프레임 레이트(1바이트), 움직임 정밀도(1바이트) 등 영상의 특징을 기록한다.
데이터 필드(320)는 전체 영상 정보 기타 영상 복원을 위하여 필요한 정보들(움직임 벡터, 참조 프레임 번호 등)이 기록된다.
도 12는 각 GOP 필드(310 등)의 세부 구조를 나타낸 것이다. GOP 필드(310 등)는 GOP 헤더(360)와, 첫번째 시간적 필터링 순서를 기준으로 볼 때 첫번째 프레임(I 프레임)에 관한 정보를 기록하는 T(0) 필드(370)와, 움직임 벡터의 집합을 기록하는 MV 필드(380)와, 첫번째 프레임(I 프레임) 이외의 프레임(H 프레임)의 정보를 기록하는 'the other T' 필드(390)으로 구성될 수 있다.
GOP 헤더 필드(360)에는 상기 시퀀스 헤더 필드(310)와는 달리 전체 영상의 특징이 아니라 해당 GOP에 국한된 영상의 특징을 기록한다. 여기에는 시간적 필터링 순서 를 기록할 수 있고, 도 9에서와 같은 경우에는 시간적 레벨을 기록할 수 있다. 다만, 이는 시퀀스 헤더 필드(310)에 기록된 정보와 다르다는 것을 전제로 하는 것이며, 만약, 하나의 영상 전체에 대하여 같은 시간적 필터링 순서 또는 시간적 레벨을 사용한다면 이와 같은 정보들은 시퀀스 헤더 필드(310)에 기록하는 것이 유리할 것이다.
도 13은 MV 필드(380)의 세부 구조를 나타낸 것이다.
여기에는, 움직임 벡터의 수만큼의 움직임 벡터를 각각 기록한다. 각각의 움직임 벡터 필드는 다시 움직임 벡터의 크기를 나타내는 Size 필드(381)와, 움직임 벡터의 실제 데이터를 기록하는 Data 필드(382)를 포함한다. 그리고, Data 필드(382)는 산술 부호화 방식에 따른 정보(이는 일 예일 뿐이고, 허프만 부호화 등 다른 방식을 사용한 경우에는 그 방식에 따른 정보가 될 것이다)를 담은 헤더(383)와, 실제 움직임 벡터 정보를 담은 이진 스트림 필드(384)를 포함한다.
도 14는 'the other T' 필드(390)의 세부 구조를 나타낸 것이다. 상기 필드(390)는 프레임수-1 만큼의 H 프레임 정보를 기록한다.
각 H 프레임 정보는 다시 프레임 헤더(frame header) 필드(391)와, 해당 H 프레임의 밝기 성분을 기록하는 Data Y 필드(393)와, 청색 색차 성분을 기록하는 Data U 필드(394)와, 적색 색차 성분을 기록하는 Data V 필드(395)와, 상기 Data Y, Data U, Data V 필드(393, 394, 395)의 크기를 나타내는 Size 필드(392) 를 포함하여 구성될 수 있다.
상기 프레임 헤더 필드(391)에는 상기 시퀀스 헤더 필드(310) 및 GOP 헤더 필드 (360)과는 달리 해당 프레임에 국한된 영상의 특징을 기록한다. 프레임 헤더 필드(391)는 선택 모듈(120, 또는 170)에서 선택된 모드 정보가 기록되는 Wavelet mode 필드(396)를 포함한다. 이 필드(396)를 통하여 비디오 인코더 단에서 선택된 웨이블릿 필터의 종류를 프레임 별로 비디오 디코더 단에 알려 줄 수 있는 것이다.
지금까지 도 4 내지 도 14에서 설명한 실시예는 비디오 인코더 단에 입력되는 프레임 별로 복수의 웨이블릿 필터 중 상기 입력된 프레임에 적합한 필터(즉, 모드)를 선택하고 이 필터를 이용하여 인코딩하는 예를 설명한 것이다. 그러나, 다른 실시예로서 프레임 단위 보다 세분화하여 색성분 별, 예를 들어, Y, U, V 성분 별 또는 R, G, B 성분 별로 서로 다른 모드를 선택하는 방법도 생각할 수 있다. 이 경우에는 하나의 입력 프레임 내의 Y, U, V 성분 별로 어떠한 웨이블릿 필터를 적용할 것인지를 선택하게 된다. 그 구체적인 과정은 하나의 프레임을 이용하는 경우와 마찬가지로 설명될 수 있으므로 생략하기로 한다.
이 경우에 비트스트림(300)은 도 11 내지 도 13, 및 도 15와 같은 구조를 가질 수 있다. 도 15에서 나타낸 바와 같이, 각각의 Y, U, V 데이터 앞에 Wavelet mode 필드(396a, 396b, 396c)를 부가할 수 있다. 또는 다른 예로서, 각각의 Y, U, V 데이터 앞에 표시하는 대신 프레임 헤더(391)의 일부분에 일괄하여 표시할 수도 있을 것이다.
한편, 또 다른 실시예로서, 하나의 프레임을 복수의 파티션으로 분할한 후 각 파티션 별로 적절한 모드를 선택하는 경우를 생각할 수 있다. 왜냐하면, 하나의 프레임 내에서도 부드러운 이미지를 갖는 부분과 날카로운 이미지를 갖는 부분이 공존하는 경우가 많기 때문이다.
도 16은 이러한 경우에서의 비디오 인코더(500)의 구조를 도시하는 도면이다. 그 구성에 있어서 도 4와 비교하여 보면, 선택 모듈(120) 이전에 파티션 모듈(180)이 더 존재한다는 점에서 차이가 있으며, 파티션 모듈(180)을 거친 이후에는 모든 과정의 동작 단위가 파티션 별로 이루어진다는 점에서 차이가 있다.
비디오 인코더(500)는 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈(110)과, 상기 잔여 프레임을 소정의 크기를 갖는 파티션으로 분할하는 파티션 모듈(120)과, 상기 분할된 파티션의 공간적 연관성 정도에 따라서, 서로 다른 탭을 갖는 복수의 웨이블릿 필터 중 상기 파티션에 적합한 웨이블릿 필터를 선택하는 선택 모듈(120)과, 상기 선택된 웨이블릿 필터를 이용하여 상기 파티션에 대한 웨이블릿 변환을 수행함으로써 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈(135) 및 상기 웨이블릿 계수를 양자화하는 양자화 모듈(15)을 포함하여 구성될 수 있다.
파티션 모듈(180)은 시간적 변환 모듈(110)에서 제공하는 잔여 프레임을 소정의 크기를 갖는 파티션으로 분할한다. 이와 같은 파티션은 잔여 프레임을 가로 M개 × 세로 N개의 등간격으로 분할한 영역인데, 그 분할 방식은 임의로 정할 수 있지만 너무 작게 분할하는 경우에는 웨이블릿 변환에 의한 성능 감소를 초래할 수 있으므로 대략 매크로블록 보다는 큰 크기를 갖도록 분할하는 것이 바람직하다.
도 17은 입력된 잔여 프레임을 4×4의 개수로 분할한 경우의 예를 나타낸 것이다. 이 경우 선택 모듈(120)은 각 파티션 별로 제1 모드와 제2 모드 중 적합한 모드를 선택하고, 웨이블릿 변환 모듈(135)은 이 모드에 따라서 제1 웨이블릿 필터(130) 또는 제2 웨이블릿 필터(140)에 의하여 파티션 별로 웨이블릿 변환을 수행한다. 여기서 각 파티션 별로 모드를 선택하는 방법으로는 도 4에서와 마찬가지로 상기 파티션의 픽셀 값들에 대한 히스토그램이 가우시안 분포를 잘 따르는가 여부에 따라서 판단할 수 있다.
만약, 도 17과 같이 제1 웨이블릿 필터(130)를 Haar 필터를 사용하고, 제2 웨이블릿 필터(140)를 9/7 웨이블릿 필터를 사용한다면, 선택 모듈(120)에 의하여 제1 모드, 즉 Haar 필터 모드로 지정된 파티션(30)은 모두 Haar 필터에 의하여 파티션 단위로 웨이블릿 변환되고, 선택 모듈(120)에 의하여 제2 모드, 즉 9/7 필터 모드로 지정된 파티션(40)은 모두 9/7 필터에 의하여 파티션 단위로 웨이블릿 변환된다.
그리고, 양자화 모듈(160)은 웨이블릿 변환된 파티션들을 각각 양자화한다.
파티션 별로 웨이블릿 필터의 모드를 정하는 경우에 비트스트림(300)은 도 11 내지 도 13, 및 도 18와 같은 구조를 가질 수 있다. 도 18에서 나타낸 바와 같이, 텍스쳐 데이터(T(1) 내지 T(n-1))는 복수(m개)의 파티션 데이터를 기록하는 Part 필드(302, 304, 306 등)와 이 필드 앞에 어떤 모드에 의하여 웨이블릿 변환되었는지를 표시하는 Wavelet mode 필드(301, 303, 305 등)를 포함할 수 있다. 이를 통하여 비디오 인코더는 비디오 디코더 단에 각 파티션 별로 어떠한 모드에 의하여 웨이블릿 변환 되었는지를 알릴 수 있는 것이다.
한편, 도 19는 도 9의 실시예를 파티션 별로 웨이블릿 변환 모드를 결정하는 경우 에 적용한 도면이다. 비디오 인코더(600)는, 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈(110)과, 상기 잔여 프레임을 소정의 크기를 갖는 파티션으로 분할하는 파티션 모듈(180)과, 복수의 웨이블릿 필터 각각을 이용하여 상기 파티션에 대한 웨이블릿 변환을 수행함으로써 상기 파티션에 대한 복수 세트의 웨이블릿 계수(제1 웨이블릿 계수와 제2 웨이블릿 계수)를 생성하는 웨이블릿 변환 모듈(135)와, 상기 복수 세트의 웨이블릿 계수를 양자화하여 복수 세트의 양자화 계수를 생성하는 양자화 모듈과, 상기 복수 세트의 양자화 계수로부터 복수의 잔여 파티션을 복원하고, 상기 복수의 잔여 파티션의 화질 차이를 비교하여 보다 화질이 우수한 프레임에 관한 웨이블릿 필터를 선택하는 선택 모듈(170)을 포함한다. 여기서, 복원된 잔여 파티션은 하나의 파티션에 대한 양자화 계수로부터 복원 과정(역 양자화 및 역 웨이블릿 변환)을 거쳐 생성되는 파티션을 의미한다. 그리고, 도 19와 같이 복수의 웨이블릿 필터가 2개인 경우에는 복수의 잔여 파티션은 제1 잔여 파티션과 제2 잔여 파티션을 의미한다.
선택 모듈(170)은, 상기 복수 세트의 양자화 계수를 역 양자화하는 역 양자화 모듈(171)과, 상기 역 양자화된 결과를 대응되는 복수의 역 웨이블릿 필터에 의하여 변환함으로써 복수의 잔여 파티션을 복원하는 역 웨이블릿 변환 모듈(176)과, 상기 복원된 복수의 잔여 파티션의 화질을 비교하여 보다 화질이 우수한 파티션에 관한 웨이블릿 필터를 선택하는 화질 비교 모듈(174)을 포함한다.
파티션 모듈(180)에 의한 파티션 분할 이후의 과정은 모든 과정의 동작 단위가 파티션 별로 이루어진다는 점 이외에는 도 9 및 도 10에서의 설명과 마찬가지로서, 당업자라면 추가적 설명 없이 구현 가능할 것이므로 이하 반복적인 설명은 생략하기로 한다.
도 20은 본 발명의 일 실시예에 따른 비디오 디코더(700)의 구성을 나타낸 도면이다. 엔트로피 복호화 모듈(710), 역 양자화 모듈(720), 역 웨이블릿 변환 모듈(745), 및 역 시간적 변환 모듈(760)을 포함하여 구성될 수 있다.
먼저, 엔트로피 복호화 모듈(710)은 인코더 단에서의 엔트로피 부호화 방식의 역으로 동작하며, 입력된 비트스트림을 해석하여 모션 정보, 텍스쳐 데이터, 및 모드 정보를 분리하여 추출한다. 상기 모드 정보는 인코더 단에서의 실시예에 따라서 프레임 별 모드 정보일 수 도 있고, 색성분 별(Y, U, V 성분 별)모드 정보일 수도 있다.
역 양자화 모듈(720)은 엔트로피 복호화 모듈(710)로부터 전달된 텍스쳐 정보를 역 양자화한다. 이러한 역 양자화 과정은 양자화 과정에서 사용된 양자화 테이블을 그대로 이용하여 양자화 과정에서 생성된 인덱스로부터 그에 매칭되는 값을 복원하는 과정이다. 상기 양자화 테이블은 인코더 단으로부터 전달된 것일 수도 있고, 미리 인코더와 디코더 간에 약속된 것일 수도 있다.
역 웨이블릿 변환 모듈(745)는 복수의 역 웨이블릿 필터 중 상기 비트스트림에 포함되는 모드 정보에 해당하는 역 웨이블릿 필터를 이용하여 상기 텍스쳐 데이터에 대한 역 웨이블릿 변환을 수행한다.
스위칭 모듈(730)은 상기 모드 정보에 따라 상기 역 양자화된 결과를 제1 역 웨이블릿 필터(740) 또는 제2 역 웨이블릿 필터(750)로 제공한다.
상기 모드 정보가 제1 모드를 나타내는 경우에는, 제1 역 웨이블릿 필터(740)는 상기 역 양자화된 결과에 대하여, 상대적으로 짧은 탭을 갖는 제1 웨이블릿 필터(130)에 대응되는 역 필터링 과정을 수행한다.
상기 모드 정보가 제2 모드를 나타내는 경우에는, 제2 역 웨이블릿 필터(750)은 상기 역 양자화된 결과에 대하여, 상대적으로 긴 탭을 갖는 제2 웨이블릿 필터(140)에 대응되는 역 필터링 과정을 수행한다.
역 시간적 변환 모듈(760)은 상기 모드 정보에 따라서 제1 역 웨이블릿 필터(740) 또는 제2 역 웨이블릿 필터(750)로부터 전달된 프레임으로 비디오 프레임을 복원한다. 이 경우, 엔트로피 복호화 모듈(710)로부터 전달되는 모션 정보를 이용하여 모션 보상을 수행하여 시간적 예측 프레임을 구성하고, 상기 전달된 프레임과 상기 예측 프레임을 가산함으로써 비디오 시퀀스를 복원하게 된다.
도 21은 본 발명의 일 실시예에 따른 비디오 디코더(800)의 구성을 나타낸 도면으로서, 도 16 및 도 19에서와 같이 파티션 별로 모드를 선택하는 비디오 인코더에 대응되는 비디오 디코더(800)의 구성을 나타낸다.
비디오 디코더(800)는 인코더 단에서의 엔트로피 부호화 방식의 역으로 동작하며, 입력된 비트스트림을 해석하여 모션 정보, 텍스쳐 데이터, 및 파티션 별 모드 정보를 분리하여 추출하는 엔트로피 복호화 모듈(710)과, 상기 텍스쳐 데이터를 역 양자화하는 역 양자화 모듈(720)과, 복수의 역 웨이블릿 필터 중 상기 비트스트림에 포함되는 파티션별 모드 정보에 해당하는 역 웨이블릿 필터를 이용하여 파티션 별로 상기 텍스쳐 데이터에 대한 역 웨이블릿 변환을 수행하는 역 웨이블릿 모듈 (745)와, 상기 웨이블릿 변환된 파티션들을 조합하여 하나의 잔여 이미지를 복원하는 파티션 조합 모듈(770)과, 상기 잔여 이미지 및 상기 비트스트림에 포함되는 모션 정보를 이용하여 비디오 시퀀스를 복원하는 역 시간적 변환 모듈(760)을 포함하여 구성될 수 있다.
도 21의 예는 도 20의 예에서와는 달리 파티션 별로 역 웨이블릿 변환 방식을 선택한다는 점에서 차이가 있다. 따라서, 비디오 디코더(800)는 파티션 조합 모듈(770)을 더 포함하며, 역 양자화를 거친 이후 파티션 조합 모듈(770)에 의해 복수의 파티션이 하나의 잔여 프레임으로 복원되기 전까지는, 파티션 단위로 동작이 수행된다는 점에서 차이가 있다. 각 파티션이 어떤 모드에 의하여 역 웨이블릿 변환될 것인지는 엔트로피 디코딩 모듈(710)에서 제공되는 파티션별 모드 정보를 통하여 알 수 있는 것이다.
이상에서는 비디오 인코더 및 비디오 디코더의 관점에서 서술한 것이지만, 입력되는 정지 이미지를 인코딩하는 데 본 상술한 실시예들을 적용할 수 있다. 이 경우 시간적 변환 및 역 시간적 변환이라는 시간적 처리 과정을 제외하고 상술한 실시예들을 적용할 수 있음은 당업자라면 충분히 알 수 있을 것이다.
그리고, 상술한 실시예들은 2가지 웨이블릿 필터 중에서 하나를 선택하는 경우를 예로 들어 설명한 것이지만, 이에 한하지 않고 3개 이상의 웨이블릿 필터 중에서 적절한 필터를 선택하는 경우도 당업자라면 이상의 실시예로부터 충분히 구현할 수 있을 것이다.
도 22는 Mobile 시퀀스에서 적응적 공간 변환을 사용한 경우와 사용하지 않은 경우 의 PSNR 차이를 Y, U, V 성분 별로 나타낸 것이다. 가로축은 다양한 해상도, 프레임율, 비트율을 표시하고, 세로축은 적응적 공간 변환(Haar 필터와 9/7 필터)을 이용한 경우의 PSNR과 9/7 필터만을 이용한 경우의 PNSR의 차이 값을 표시한다. 그림에서 보는 바와 같이, 적응적 공간적 변환은 Mobile 시퀀스에서 평균 PSNR을 0.15dB까지 향상시킬 수 있음을 보여준다.
도 23은 본 발명의 일 실시예에 따른 인코딩, 또는 디코딩 과정을 수행하기 위한 시스템의 구성도이다. 상기 시스템은 TV, 셋탑박스, 데스크 탑, 랩 탑 컴퓨터, 팜 탑(palmtop) 컴퓨터, PDA(personal digital assistant), 비디오 또는 이미지 저장 장치(예컨대, VCR(video cassette recorder), DVR(digital video recorder) 등)를 나타내는 것일 수 있다. 뿐만 아니라, 상기 시스템은 상기한 장치들을 조합한 것, 또는 상기 장치가 다른 장치의 일부분으로 포함된 것을 나타내는 것일 수도 있다. 상기 시스템은 적어도 하나 이상의 비디오/이미지 소스(video source; 810), 하나 이상의 입출력 장치(920), 프로세서(940), 메모리(950), 그리고 디스플레이 장치(930)를 포함하여 구성될 수 있다.
비디오/이미지 소스(910)는 TV 리시버(TV receiver), VCR, 또는 다른 비디오/이미지 저장 장치를 나타내는 것일 수 있다. 또한, 상기 소스(910)는 인터넷, WAN(wide area network), LAN(local area network), 지상파 방송 시스템(terrestrial broadcast system), 케이블 네트워크, 위성 통신 네트워크, 무선 네트워크, 전화 네트워크 등을 이용하여 서버로부터 비디오/이미지를 수신하기 위한 하나 이상의 네트워크 연결을 나타내는 것일 수도 있다. 뿐만 아니라, 상기 소스는 상기한 네트 워크들을 조합한 것, 또는 상기 네트워크가 다른 네트워크의 일부분으로 포함된 것을 나타내는 것일 수도 있다.
입출력 장치(920), 프로세서(940), 그리고 메모리(950)는 통신 매체(960)를 통하여 통신한다. 상기 통신 매체(960)에는 통신 버스, 통신 네트워크, 또는 하나 이상의 내부 연결 회로를 나타내는 것일 수 있다. 상기 소스(910)로부터 수신되는 입력 비디오/이미지 데이터는 메모리(950)에 저장된 하나 이상의 소프트웨어 프로그램에 따라 프로세서(940)에 의하여 처리될 수 있고, 디스플레이 장치(930)에 제공되는 출력 비디오/이미지를 생성하기 위하여 프로세서(940)에 의하여 실행될 수 있다.
특히, 메모리(950)에 저장된 소프트웨어 프로그램은 본 발명에 따른 방법을 수행하는 스케일러블 웨이블릿 기반의 코덱을 포함한다. 상기 코덱은 메모리(950)에 저장되어 있을 수도 있고, CD-ROM이나 플로피 디스크와 같은 저장 매체에서 읽어 들이거나, 각종 네트워크를 통하여 소정의 서버로부터 다운로드한 것일 수도 있다. 상기 소프트웨어에 의하여 하드웨어 회로에 의하여 대체되거나, 소프트웨어와 하드웨어 회로의 조합에 의하여 대체될 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
본 발명에 따르면, 입력된 프레임의 특성에 따라서 적응적으로 웨이블릿 변환을 수행할 수 있다.
본 발명에 따르면, 상기 적응적 웨이블릿 변환 방법을 프레임 별, 색성분 별, 또는 파티션 별로 다양하게 적용할 수 있다.

Claims (26)

  1. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈;
    상기 잔여 프레임의 공간적 연관성 정도에 따라서, 서로 다른 탭을 갖는 복수의 웨이블릿 필터 중 적합한 웨이블릿 필터를 선택하는 선택 모듈;
    상기 선택된 웨이블릿 필터를 이용하여 상기 잔여 프레임에 대한 웨이블릿 변환을 수행함으로써 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈; 및
    상기 웨이블릿 계수를 양자화하는 양자화 모듈을 포함하는 비디오 인코더.
  2. 제1항에 있어서,
    상기 양자화된 결과를 무손실 부호화하는 비트스트림 생성 모듈을 더 포함하는 비디오 인코더.
  3. 제1항에 있어서, 상기 적합한 웨이블릿 필터는
    상기 공간적 연관성이 높은 경우에는 상기 복수의 웨이블릿 필터 중 상대적으로 긴 탭을 갖는 웨이블릿 필터를 의미하고, 상기 공간적 연관성이 낮은 경우에는 상기 복수의 웨이블릿 필터 중 상대적으로 짧은 탭을 갖는 웨이블릿 필터를 의미하는 비디오 인코더.
  4. 제1항에 있어서, 상기 공간적 연관성 정도는
    상기 잔여 프레임의 픽셀 값들에 대한 히스토그램이 가우시안(Gaussian) 분포를 잘 따르는가 여부에 따라서 판단되는 비디오 인코더.
  5. 제1항에 있어서,
    상기 웨이블릿 필터는 Haar 필터 및 9/7 웨이블릿 필터를 포함하는 비디오 인코더.
  6. 제1항에 있어서,
    상기 잔여 프레임은 색성분 별로 분해된 프레임인 비디오 인코더.
  7. 입력된 이미지의 공간적 연관성 정도에 따라서, 서로 다른 탭을 갖는 복수의 웨이블릿 필터 중 적합한 웨이블릿 필터를 선택하는 선택 모듈;
    선택된 웨이블릿 필터를 이용하여 상기 잔여 프레임에 대한 웨이블릿 변환을 수행함으로써 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈; 및
    상기 웨이블릿 계수를 양자화하는 양자화 모듈을 포함하는 이미지 인코더.
  8. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈;
    복수의 웨이블릿 필터 각각을 이용하여 상기 잔여 프레임에 대한 웨이블릿 변환을 수행함으로써 복수 세트의 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈;
    상기 복수 세트의 웨이블릿 계수를 양자화하여 복수 세트의 양자화 계수를 생성하는 양자화 모듈; 및
    상기 복수 세트의 양자화 계수로부터 복수의 잔여 프레임을 복원하고, 상기 복수의 잔여 프레임의 화질 차이를 비교하여 보다 화질이 우수한 프레임에 관한 웨이블릿 필터를 선택하는 선택 모듈을 포함하는 비디오 인코더.
  9. 제8항에 있어서, 상기 선택 모듈은
    상기 복수 세트의 양자화 계수를 역 양자화하는 역 양자화 모듈;
    상기 역 양자화된 결과를 대응되는 역 웨이블릿 필터에 의하여 변환함으로써 복수의 잔여 프레임을 복원하는 역 웨이블릿 변환 모듈;
    상기 복원된 복수의 잔여 프레임의 화질을 비교하여 보다 화질이 우수한 프레임에 관한 웨이블릿 필터를 선택하는 화질 비교 모듈을 포함하는 비디오 인코더.
  10. 제9항에 있어서, 상기 보다 화질이 우수한 프레임은
    상기 복수의 잔여 프레임 중에서 상기 시간적 변환 모듈에서 생성된 잔여 프레임과의 차이의 합이 작은 프레임인 비디오 인코더.
  11. 제8항에 있어서,
    상기 잔여 프레임은 색성분 별로 분해된 프레임인 비디오 인코더.
  12. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈;
    상기 잔여 프레임을 소정의 크기를 갖는 파티션으로 분할하는 파티션 모듈;
    상기 분할된 파티션의 공간적 연관성 정도에 따라서, 서로 다른 탭을 갖는 복수의 웨이블릿 필터 중 상기 파티션에 적합한 웨이블릿 필터를 선택하는 선택 모듈;
    상기 선택된 웨이블릿 필터를 이용하여 상기 파티션에 대한 웨이블릿 변환을 수행함으로써 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈; 및
    상기 웨이블릿 계수를 양자화하는 양자화 모듈을 포함하는 비디오 인코더.
  13. 제12항에 있어서, 상기 공간적 연관성 정도는
    상기 잔여 프레임의 픽셀 값들에 대한 히스토그램이 가우시안(Gaussian) 분포를 잘 따르는가 여부에 따라서 판단되는 비디오 인코더.
  14. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈;
    상기 잔여 프레임을 소정의 크기를 갖는 파티션으로 분할하는 파티션 모듈;
    복수의 웨이블릿 필터 각각을 이용하여 상기 파티션에 대한 웨이블릿 변환을 수행함으로써 상기 파티션에 대한 복수 세트의 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈;
    상기 복수 세트의 웨이블릿 계수를 양자화하여 복수 세트의 양자화 계수를 생성하 는 양자화 모듈; 및
    상기 복수 세트의 양자화 계수로부터 복수의 잔여 파티션을 복원하고, 상기 복수의 잔여 파티션의 화질 차이를 비교하여 보다 화질이 우수한 프레임에 관한 웨이블릿 필터를 선택하는 선택 모듈을 포함하는 비디오 인코더.
  15. 제14항에 있어서, 상기 선택 모듈은
    상기 복수 세트의 양자화 계수를 역 양자화하는 역 양자화 모듈;
    상기 역 양자화된 결과를 대응되는 역 웨이블릿 필터에 의하여 변환함으로써 복수의 잔여 파티션을 복원하는 역 웨이블릿 변환 모듈; 및
    상기 복원된 복수의 잔여 파티션의 화질을 비교하여 보다 화질이 우수한 파티션에 관한 웨이블릿 필터를 선택하는 화질 비교 모듈을 포함하는 비디오 인코더.
  16. 입력된 비트스트림에 포함되는 텍스쳐 데이터를 역 양자화하는 역 양자화 모듈;
    복수의 역 웨이블릿 필터 중 상기 비트스트림에 포함되는 모드 정보에 해당하는 역 웨이블릿 필터를 이용하여 상기 텍스쳐 데이터에 대한 역 웨이블릿 변환을 수행하는 역 웨이블릿 모듈;
    상기 역 웨이블릿 변환을 수행한 결과 및 상기 비트스트림에 포함되는 모션 정보를 이용하여 비디오 시퀀스를 복원하는 역 시간적 변환 모듈을 포함하는 비디오 디코더.
  17. 제16항에 있어서,
    상기 복수의 역 웨이블릿 필터는 Haar 필터 및 9/7 웨이블릿 필터를 포함하는 비디오 디코더.
  18. 제16항에 있어서,
    상기 텍스쳐 데이터는 색성분 별로 분해된 프레임인 비디오 인코더.
  19. 입력된 비트스트림에 포함되는 텍스쳐 데이터를 역 양자화하는 역 양자화 모듈;
    복수의 역 웨이블릿 필터 중 상기 비트스트림에 포함되는 파티션별 모드 정보에 해당하는 역 웨이블릿 필터를 이용하여 파티션 별로 상기 텍스쳐 데이터에 대한 역 웨이블릿 변환을 수행하는 역 웨이블릿 모듈;
    상기 웨이블릿 변환된 파티션들을 조합하여 하나의 잔여 이미지를 복원하는 파티션 조합 모듈; 및
    상기 잔여 이미지 및 상기 비트스트림에 포함되는 모션 정보를 이용하여 비디오 시퀀스를 복원하는 역 시간적 변환 모듈을 포함하는 비디오 디코더.
  20. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 단계;
    상기 잔여 프레임의 공간적 연관성 정도에 따라서, 서로 다른 탭을 갖는 복수의 웨이블릿 필터 중 적합한 웨이블릿 필터를 선택하는 단계;
    상기 선택된 웨이블릿 필터를 이용하여 상기 잔여 프레임에 대한 웨이블릿 변환을 수행함으로써 웨이블릿 계수를 생성하는 단계; 및
    상기 웨이블릿 계수를 양자화하는 단계를 포함하는 비디오 인코딩 방법.
  21. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 단계;
    복수의 웨이블릿 필터 각각을 이용하여 상기 잔여 프레임에 대한 웨이블릿 변환을 수행함으로써 복수 세트의 웨이블릿 계수를 생성하는 단계;
    상기 복수 세트의 웨이블릿 계수를 양자화하여 복수 세트의 양자화 계수를 생성하는 단계; 및
    상기 복수 세트의 양자화 계수로부터 복수의 잔여 프레임을 복원하고, 상기 복수의 잔여 프레임의 화질 차이를 비교하여 보다 화질이 우수한 프레임에 관한 웨이블릿 필터를 선택하는 단계를 포함하는 비디오 인코딩 방법.
  22. 제21항에 있어서, 상기 선택하는 단계는
    상기 복수 세트의 양자화 계수를 역 양자화하는 단계;
    상기 역 양자화된 결과를 대응되는 역 웨이블릿 필터에 의하여 변환함으로써 복수의 잔여 프레임을 복원하는 단계; 및
    상기 복원된 복수의 잔여 프레임의 화질을 비교하여 보다 화질이 우수한 프레임에 관한 웨이블릿 필터를 선택하는 단계를 포함하는 비디오 인코딩 방법.
  23. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 단계;
    상기 잔여 프레임을 소정의 크기를 갖는 파티션으로 분할하는 단계;
    상기 분할된 파티션의 공간적 연관성 정도에 따라서, 서로 다른 탭을 갖는 복수의 웨이블릿 필터 중 상기 파티션에 적합한 웨이블릿 필터를 선택하는 단계;
    상기 선택된 웨이블릿 필터를 이용하여 상기 파티션에 대한 웨이블릿 변환을 수행함으로써 웨이블릿 계수를 생성하는 단계; 및
    상기 웨이블릿 계수를 양자화하는 단계를 포함하는 비디오 인코딩 방법.
  24. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 단계;
    상기 잔여 프레임을 소정의 크기를 갖는 파티션으로 분할하는 단계;
    복수의 웨이블릿 필터 각각을 이용하여 상기 파티션에 대한 웨이블릿 변환을 수행함으로써 상기 파티션에 대한 복수 세트의 웨이블릿 계수를 생성하는 단계;
    상기 복수 세트의 웨이블릿 계수를 양자화하여 복수 세트의 양자화 계수를 생성하는 단계; 및
    상기 복수 세트의 양자화 계수로부터 복수의 잔여 파티션을 복원하고, 상기 복수의 잔여 파티션의 화질 차이를 비교하여 보다 화질이 우수한 프레임에 관한 웨이블릿 필터를 선택하는 단계를 포함하는 비디오 인코딩 방법.
  25. 입력된 비트스트림에 포함되는 텍스쳐 데이터를 역 양자화하는 단계;
    복수의 역 웨이블릿 필터 중 상기 비트스트림에 포함되는 모드 정보에 해당하는 역 웨이블릿 필터를 이용하여 상기 텍스쳐 데이터에 대한 역 웨이블릿 변환을 수행하 는 단계; 및
    상기 역 웨이블릿 변환을 수행한 결과 및 상기 비트스트림에 포함되는 모션 정보를 이용하여 비디오 시퀀스를 복원하는 단계를 포함하는 비디오 디코딩 방법.
  26. 입력된 비트스트림에 포함되는 텍스쳐 데이터를 역 양자화하는 단계;
    복수의 역 웨이블릿 필터 중 상기 비트스트림에 포함되는 파티션별 모드 정보에 해당하는 역 웨이블릿 필터를 이용하여 파티션 별로 상기 텍스쳐 데이터에 대한 역 웨이블릿 변환을 수행하는 단계;
    상기 웨이블릿 변환된 파티션들을 조합하여 하나의 잔여 이미지를 복원하는 단계; 및
    상기 잔여 이미지 및 상기 비트스트림에 포함되는 모션 정보를 이용하여 비디오 시퀀스를 복원하는 단계를 포함하는 비디오 디코딩 방법.
KR1020040099952A 2004-10-21 2004-12-01 비디오 코딩 방법 및 장치 KR100664928B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2005/003228 WO2006080665A1 (en) 2004-10-21 2005-09-29 Video coding method and apparatus
US11/254,763 US20060088096A1 (en) 2004-10-21 2005-10-21 Video coding method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US62033004P 2004-10-21 2004-10-21
US60/620,330 2004-10-21

Publications (2)

Publication Number Publication Date
KR20060035541A true KR20060035541A (ko) 2006-04-26
KR100664928B1 KR100664928B1 (ko) 2007-01-04

Family

ID=37144092

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020040092821A KR100664932B1 (ko) 2004-10-21 2004-11-13 비디오 코딩 방법 및 장치
KR1020040099952A KR100664928B1 (ko) 2004-10-21 2004-12-01 비디오 코딩 방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020040092821A KR100664932B1 (ko) 2004-10-21 2004-11-13 비디오 코딩 방법 및 장치

Country Status (2)

Country Link
US (2) US20060088222A1 (ko)
KR (2) KR100664932B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100827708B1 (ko) * 2006-08-11 2008-05-07 엠텍비젼 주식회사 화질 개선 장치, 비디오 인코더 및 영상 신호 변환 방법
KR100835661B1 (ko) * 2006-12-07 2008-06-09 부산대학교 산학협력단 다수 필터 결정법을 이용한 동영상 압축 부호화 장치 및방법
KR101489785B1 (ko) * 2008-07-22 2015-02-06 에스케이 텔레콤주식회사 웨이블렛 변환 계수 부호화를 위한 적응적 필터 탭 결정장치와 방법, 그것을 이용한 웨이블렛 변환 장치와 방법,및 그를 위한 기록 매체
US9398312B2 (en) 2013-11-04 2016-07-19 Samsung Display Co., Ltd. Adaptive inter-channel transform for wavelet color image compression

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2297083T3 (es) 2002-09-04 2008-05-01 Microsoft Corporation Codificacion entropica por adaptacion de la codificacion entre modos por longitud de ejecucion y por nivel.
KR20060088461A (ko) * 2005-02-01 2006-08-04 엘지전자 주식회사 영상신호의 엔코딩/디코딩시에 영상블록을 위한 모션벡터를베이스 레이어 픽처의 모션벡터로부터 유도하는 방법 및장치
US7702161B2 (en) * 2005-10-28 2010-04-20 Aspeed Technology Inc. Progressive differential motion JPEG codec
PT2950543T (pt) 2006-01-09 2017-11-22 Musmann Hans-Georg Codificação adaptativa do erro de predição em codificação de vídeo híbrida
KR100772391B1 (ko) * 2006-01-23 2007-11-01 삼성전자주식회사 직교 변환 및 벡터 양자화에 기반한 동영상 부호화 및복호화 방법과 이를 이용한 장치
CN100448296C (zh) * 2006-08-18 2008-12-31 哈尔滨工业大学 基于db2小波的可伸缩性视频编解码方法
JP4816328B2 (ja) * 2006-08-24 2011-11-16 富士ゼロックス株式会社 画像処理システム、画像圧縮システム、画像編集システム、画像処理プログラムおよび画像処理装置
WO2008070843A2 (en) 2006-12-07 2008-06-12 Qualcomm Incorporated Line-based video rate control and compression
KR100848816B1 (ko) * 2007-01-29 2008-07-28 경희대학교 산학협력단 정수 dct를 이용한 영상 이미지의 크기 변환 방법
KR101370286B1 (ko) 2007-04-06 2014-03-06 삼성전자주식회사 레지듀얼 블록의 변형을 이용한 영상 부호화, 복호화 방법및 장치
US8228993B2 (en) * 2007-04-06 2012-07-24 Shalini Priti System and method for encoding and decoding information in digital signal content
KR100898058B1 (ko) * 2007-07-09 2009-05-19 중앙대학교 산학협력단 Dct 계수와 dwt 계수의 상호변환장치 및 방법
US8798133B2 (en) 2007-11-29 2014-08-05 Koplar Interactive Systems International L.L.C. Dual channel encoding and detection
US8179974B2 (en) 2008-05-02 2012-05-15 Microsoft Corporation Multi-level representation of reordered transform coefficients
US8406307B2 (en) 2008-08-22 2013-03-26 Microsoft Corporation Entropy coding/decoding of hierarchically organized data
CN102474625A (zh) * 2009-07-23 2012-05-23 瑞典爱立信有限公司 用于图像的编码和解码的方法和设备
KR101418101B1 (ko) * 2009-09-23 2014-07-16 에스케이 텔레콤주식회사 저주파수 성분을 고려한 영상 부호화/복호화 방법 및 장치
KR101457894B1 (ko) 2009-10-28 2014-11-05 삼성전자주식회사 영상 부호화 방법 및 장치, 복호화 방법 및 장치
AU2015201330C1 (en) * 2009-10-28 2016-09-08 Samsung Electronics Co., Ltd. Method and apparatus for encoding residual block, and method and apparatus for decoding residual block
KR20110065089A (ko) * 2009-12-09 2011-06-15 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8971656B2 (en) * 2009-12-10 2015-03-03 Sk Telecom Co., Ltd. Encoding/decoding method and apparatus using a tree structure
WO2012017514A1 (ja) * 2010-08-02 2012-02-09 富士通株式会社 画像処理装置、画像処理プログラム及び画像処理方法
US8810565B2 (en) * 2010-08-27 2014-08-19 Broadcom Corporation Method and system for utilizing depth information as an enhancement layer
US9832540B2 (en) 2010-12-15 2017-11-28 Hulu, LLC Method and apparatus for hybrid transcoding of a media program
US10390046B2 (en) * 2011-11-07 2019-08-20 Qualcomm Incorporated Coding significant coefficient information in transform skip mode
US9116928B1 (en) * 2011-12-09 2015-08-25 Google Inc. Identifying features for media file comparison
WO2013171168A1 (en) * 2012-05-14 2013-11-21 Luca Rossato Encoding and decoding based on blending of sequences of samples along time
CN109905710B (zh) * 2012-06-12 2021-12-21 太阳专利托管公司 动态图像编码方法及装置、动态图像解码方法及装置
WO2014078068A1 (en) * 2012-11-13 2014-05-22 Intel Corporation Content adaptive transform coding for next generation video
KR102063385B1 (ko) 2013-01-30 2020-01-07 인텔 코포레이션 차세대 비디오용 콘텐츠 적응적 엔트로피 코딩
US10523937B2 (en) * 2013-07-19 2019-12-31 Intel Corporation Method for noise shaping and a noise shaping filter
US9444548B1 (en) * 2014-10-15 2016-09-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Wavelet-based processing for fiber optic sensing systems
TWI644565B (zh) * 2017-02-17 2018-12-11 陳延祚 視訊影像處理方法及其相關系統
CN115176476A (zh) * 2019-12-11 2022-10-11 索尼集团公司 图像处理装置、比特流生成方法、系数数据生成方法以及量化系数生成方法
US11601135B2 (en) * 2020-02-27 2023-03-07 BTS Software Solutions, LLC Internet of things data compression system and method
EP4118823A1 (en) * 2020-03-12 2023-01-18 InterDigital VC Holdings France Method and apparatus for video encoding and decoding

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5235420A (en) * 1991-03-22 1993-08-10 Bell Communications Research, Inc. Multilayer universal video coder
US5610657A (en) * 1993-09-14 1997-03-11 Envistech Inc. Video compression using an iterative error data coding method
KR0171119B1 (ko) * 1995-04-29 1999-03-20 배순훈 웨이브렛 변환을 이용한 영상 부호화 장치
US6269192B1 (en) * 1997-07-11 2001-07-31 Sarnoff Corporation Apparatus and method for multiscale zerotree entropy encoding
US6393060B1 (en) 1997-12-31 2002-05-21 Lg Electronics Inc. Video coding and decoding method and its apparatus
CN1181690C (zh) * 1999-07-20 2004-12-22 皇家菲利浦电子有限公司 用于压缩视频序列的编码方法
WO2002041636A1 (en) * 2000-11-17 2002-05-23 Koninklijke Philips Electronics N.V. Video coding method using a block matching process
KR100381204B1 (ko) 2000-12-29 2003-04-26 (주) 멀티비아 칼라 정지영상의 부호화 및 복호화 방법
US20020118742A1 (en) * 2001-02-26 2002-08-29 Philips Electronics North America Corporation. Prediction structures for enhancement layer in fine granular scalability video coding
US6947486B2 (en) * 2001-03-23 2005-09-20 Visioprime Method and system for a highly efficient low bit rate video codec
KR100529540B1 (ko) * 2003-01-07 2005-11-17 주식회사 이시티 웨이블릿 변환을 이용한 영상압축방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100827708B1 (ko) * 2006-08-11 2008-05-07 엠텍비젼 주식회사 화질 개선 장치, 비디오 인코더 및 영상 신호 변환 방법
KR100835661B1 (ko) * 2006-12-07 2008-06-09 부산대학교 산학협력단 다수 필터 결정법을 이용한 동영상 압축 부호화 장치 및방법
KR101489785B1 (ko) * 2008-07-22 2015-02-06 에스케이 텔레콤주식회사 웨이블렛 변환 계수 부호화를 위한 적응적 필터 탭 결정장치와 방법, 그것을 이용한 웨이블렛 변환 장치와 방법,및 그를 위한 기록 매체
US9398312B2 (en) 2013-11-04 2016-07-19 Samsung Display Co., Ltd. Adaptive inter-channel transform for wavelet color image compression

Also Published As

Publication number Publication date
US20060088222A1 (en) 2006-04-27
KR100664932B1 (ko) 2007-01-04
KR20060035539A (ko) 2006-04-26
KR100664928B1 (ko) 2007-01-04
US20060088096A1 (en) 2006-04-27

Similar Documents

Publication Publication Date Title
KR100664928B1 (ko) 비디오 코딩 방법 및 장치
JP5014989B2 (ja) 基礎階層を利用するフレーム圧縮方法、ビデオコーディング方法、フレーム復元方法、ビデオデコーディング方法、ビデオエンコーダ、ビデオデコーダ、および記録媒体
KR100703724B1 (ko) 다 계층 기반으로 코딩된 스케일러블 비트스트림의비트율을 조절하는 장치 및 방법
KR100834750B1 (ko) 엔코더 단에서 스케일러빌리티를 제공하는 스케일러블비디오 코딩 장치 및 방법
KR100621581B1 (ko) 기초 계층을 포함하는 비트스트림을 프리디코딩,디코딩하는 방법, 및 장치
US20050166245A1 (en) Method and device for transmitting scalable video bitstream
KR20070000022A (ko) 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
US20050163224A1 (en) Device and method for playing back scalable video streams
US20050152611A1 (en) Video/image coding method and system enabling region-of-interest
KR20060135992A (ko) 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
US20050158026A1 (en) Method and apparatus for reproducing scalable video streams
US20060013311A1 (en) Video decoding method using smoothing filter and video decoder therefor
KR20050028019A (ko) 하나 및 다수의 기준 프레임을 기반으로 한 움직임 보상필터링을 사용한 웨이블릿 기반 코딩
JP2006521039A (ja) オーバコンプリートウェーブレット展開での動き補償時間フィルタリングを使用した3次元ウェーブレットビデオ符号化
US20060250520A1 (en) Video coding method and apparatus for reducing mismatch between encoder and decoder
US20060088100A1 (en) Video coding method and apparatus supporting temporal scalability
KR20040106418A (ko) 웨이브렛 부호화에 대한 다중 기준 프레임들에 기초한움직임 보상 시간 필터링
Akujuobi Application of Wavelets to Video Compression
KR100577364B1 (ko) 적응형 프레임간 비디오 코딩방법, 상기 방법을 위한 컴퓨터로 읽을 수 있는 기록매체, 및 장치
WO2006080665A1 (en) Video coding method and apparatus
WO2006043754A1 (en) Video coding method and apparatus supporting temporal scalability

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121129

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20131128

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20141127

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee