KR100664932B1 - 비디오 코딩 방법 및 장치 - Google Patents

비디오 코딩 방법 및 장치 Download PDF

Info

Publication number
KR100664932B1
KR100664932B1 KR1020040092821A KR20040092821A KR100664932B1 KR 100664932 B1 KR100664932 B1 KR 100664932B1 KR 1020040092821 A KR1020040092821 A KR 1020040092821A KR 20040092821 A KR20040092821 A KR 20040092821A KR 100664932 B1 KR100664932 B1 KR 100664932B1
Authority
KR
South Korea
Prior art keywords
dct
inverse
transform
coefficients
mode
Prior art date
Application number
KR1020040092821A
Other languages
English (en)
Other versions
KR20060035539A (ko
Inventor
한우진
이배근
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2005/002910 priority Critical patent/WO2006043750A1/en
Priority to US11/247,147 priority patent/US20060088222A1/en
Publication of KR20060035539A publication Critical patent/KR20060035539A/ko
Application granted granted Critical
Publication of KR100664932B1 publication Critical patent/KR100664932B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/635Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by filter definition or implementation details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

본 발명은 일반적으로 비디오/이미지 압축에 관한 것으로서, 보다 상세하게는 비디오/이미지 압축시에, 입력되는 비디오/이미지의 장면 특성에 적합한 공간적 변환 방법을 선택하여 압축 효율 또는 화질을 향상시키는 방법 및 장치에 관한 것이다.
본 발명의 일 실시예에 따른 비디오 인코더는 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈; 상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈; 상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 DCT 변환 모듈; 및 상기 DCT 계수를 양자화하는 양자화 모듈을 포함하는데, 상기 웨이블릿 변환시 최하위 서브밴드 이미지의 가로 크기 및 세로 크기는 상기 DCT 블록의 크기의 정수 배수가 되는 것을 특징으로 한다.
웨이블릿, DCT, FGS, 부호화, 복호화,

Description

비디오 코딩 방법 및 장치{Video coding method and apparatus thereof}
도 1은 본 발명의 일 실시예에 따른 비디오 인코더(100)의 구성을 나타낸 도면.
도 2는 입력 이미지 또는 프레임을 웨이블릿 변환에 의하여 서브밴드로 분해하는 과정으로서, 2단계 레벨로 분할한 예를 나타낸 도면.
도 3은 도 2와 같은 분할 과정이 수행되는 구체적 과정을 예시하는 도면.
도 4는 웨이블릿 변환된 프레임을 DCT 변환하는 과정을 설명하는 도면.
도 5는 정지 이미지를 입력 받아 이를 부호화하는 이미지 인코더(200)의 구성의 일 예를 도시한 도면.
도 6은 본 발명의 일 실시예에 따라서, 웨이블릿 변환 및 DCT 변환을 수행한 후 FGS를 적용하는 비디오 인코더(300)의 구성을 도시한 도면.
도 7은 FGS 모듈의 세부 구성을 나타낸 도면.
도 8은 DCT 블록의 차이 계수의 예를 나타낸 도면.
도 9는 본 발명의 일 실시예에 따른 비디오 인코더(400)의 구성을 나타낸 도면.
도 10은 본 발명의 일 실시예에 따른 비디오 인코더(500)의 구성을 나타낸 도면.
도 11은 모드 선택 모듈(180)의 구성의 일 예를 나타낸 도면.
도 12는 본 발명의 일 실시예에 따른 비디오 인코더(550)의 구성을 나타낸 도면.
도 13은 본 발명의 일 실시예에 따른 비디오 디코더(600)의 구성을 나타낸 도면.
도 14은 본 발명의 일 실시예에 따른 인코딩, 또는 디코딩 과정을 수행하기 위한 시스템의 구성도.
(도면의 주요부분에 대한 부호 설명)
100, 200, 300, 400, 500 : 비디오 인코더 600 : 비디오 디코더
110 : 시간적 변환 모듈 120 : 웨이블릿 변환 모듈
130 : DCT 변환 모듈 140 : 양자화 모듈
150 : 비트스트림 생성 모듈 160 : FGS 모듈
170, 180 : 모드 선택 모듈 610 : 비트스트림 판독 모듈
620 : 역 양자화 모듈 630 : 역 DCT 변환 모듈
640 : 역 웨이블릿 변환 모듈 650 : 역 시간적 변환
본 발명은 일반적으로 비디오/이미지 압축에 관한 것으로서, 보다 상세하게는 비디오/이미지 압축시에, 입력되는 비디오/이미지의 장면 특성에 적합한 공간적 변환 방법을 선택하여 압축 효율 또는 화질을 향상시키는 방법 및 장치에 관한 것이다.
의 비디오 압축시 공간적 영역에서의 변환 방법으로서 웨이블릿 변환 및 DCT 변환의 장점이 모두 고려한 비디오 압축 방법 및 장치에 관한 것이다.
인터넷을 포함한 정보통신 기술이 발달함에 따라 문자, 음성뿐만 아니라 화상통신이 증가하고 있다. 기존의 문자 위주의 통신 방식으로는 소비자의 다양한 욕구를 충족시키기에는 부족하며, 이에 따라 문자, 영상, 음악 등 다양한 형태의 정보를 수용할 수 있는 멀티미디어 서비스가 증가하고 있다. 멀티미디어 데이터는 그 양이 방대하여 대용량의 저장매체를 필요로 하며 전송시에 넓은 대역폭을 필요로 한다. 따라서 문자, 동영상(moving picture; 이하 "비디오"라고 함), 오디오를 포함한 멀티미디어 데이터를 전송하기 위해서는 압축코딩기법을 사용하는 것이 필수적이다.
이러한 멀티미디어 데이터를 압축하는 방법들 중에서도, 특히 비디오 압축 방법은 소스 데이터의 손실 여부와, 각각의 프레임에 대해 독립적으로 압축하는 지 여부와, 압축과 복원에 필요한 시간이 동일한 지 여부에 따라 각각 손실/무손실 압축, 프레임 내/프레임간 압축, 대칭/비대칭 압축으로 나눌 수 있다. 이 밖에도 압축 복원 지연 시간이 50ms를 넘지 않는 경우에는 실시간 압축으로 분류하고, 프레임들의 해상도가 다양한 경우는 스케일러블 압축으로 분류한다. 문자 데이터나 의학용 데이터 등의 경우에는 무손실 압축이 이용되며, 멀티미디어 데이터의 경우에는 주로 손실 압축이 이용된다.
이러한 비디오 압축의 기본 원리는 데이터의 중복(redundancy)을 없애는 것이다. 정지 이미지에서 동일한 색이나 객체가 반복되는 것과 같은 공간적 중복이나, 비디오 프레임에서 인접 프레임이 거의 변화가 없는 경우나 오디오 프레임에서 같은 음이 계속 반복되는 것과 같은 시간적 중복, 또는 인간의 시각 및 지각 능력이 높은 주파에 둔감한 것을 고려한 지각적 중복을 제거함으로써 데이터를 압축할 수 있다.
이러한 데이터 압축 중 공간적 중복을 없애는 방법으로서, 현재 대표적으로 DCT(Discrete Cosine Transform) 변환과 웨이블릿 변환(wavelet transform)이 사용되고 있다.
DCT 변환은 JPEG 표준, MPEG 계열 표준, H.264 등을 비롯한 이미지 처리에 가장 널리 사용되고 있다. 이 방식의 기본 개념은 하나의 이미지를 소정의 픽셀 크기(4×4, 8×8, 16×16 등)를 갖는 DCT 블록으로 분할하여 각 블록에 대하여 개별적으로 DCT 변환을 수행한 뒤 이 변환 결과를 양자화 및 인코딩하는 것이다. DCT 블록의 크기가 증가할수록 알고리즘의 복잡성은 매우 커지지만, 블록이 이미지에 미치는 영향은 상당히 감소되는 특징이 있다.
한편, 웨이블릿 변환 기법도 많은 코딩 시스템들에 사용되고 있지만, 그 알고리즘은 DCT 변환의 경우보다 복잡하다. 일반적으로 압축 요건의 관점에서 볼 때, 웨이블릿 변환의 이점은 DCT 변환에 비하여 그리 크지 않다. 그러나 웨이블릿 변환은 이미지를 해상도면에서 스케일러블(scalable)하게 구현할 수 있는 특징이 있으며, 그 변환시 해당 픽셀뿐만이 아니라 그 픽셀 주변의 픽셀 정보를 함께 고려하므 로 공간적 연관성이 높은 이미지, 즉 부드러운 이미지에 대해서는 DCT 변환에 비하여 보다 효율적일 수 있다.
이러한 DCT 변환과 웨이블릿 변환 자체는 모두 무손실 변환 방식으로서, 역변환에 의하여 완전한 원 데이터를 복원할 수 있다. 그러나, 이후의 양자화 과정과 결합하여 상대적으로 덜 중요한 정보를 버림으로써 실제 데이터 압축이 이루어지는 것이다.
DCT 변환이 이미지 압축 효율에 있어서 가장 뛰어난 방식으로 알려져 있기는 하지만, DCT 변환은 DCT 블록 별로 이미지를 정확하게 잘라내고 그 DCT 블록 별로 변환을 수행한다. 따라서, DCT 블록의 경계 부분에 위치한 픽셀들은 다른 DCT 블록의 픽셀들과 공간적 연관성을 가지고 있음에도 불구하고 그 연관성을 적절하게 이용할 수 없다. 반면에, 웨이블릿 변환은 서브밴드(sub-band)로 분할하여 변환하는 과정에서, 주변 픽셀의 정보를 적절히 반영하므로 공간적 연관성을 잘 이용하는 측면이 있다.
이러한 두 가지 변환 방법의 특성상, 공간적 연관성이 높은 부드러운 이미지에서는 웨이블릿 변환이 상대적으로 유리할 것이며, 공간적 연관성이 낮고 블록 현상(block artifact)이 많이 나타나는 이미지에서는 DCT 변환이 상대적으로 유리할 것으로 추측할 수 있다.
따라서, 비디오 압축에 있어서 DCT 변환과 웨이블릿 변환의 장점을 모두 활용할 수 있는 공간적 변환 방법을 강구할 필요가 있다.
본 발명은 상기한 필요성을 고려하여 창안된 것으로, 비디오 압축시 공간적 변환에 있어서, 웨이블릿 변환 후 DCT 변환을 수행하는 방법 및 장치를 제공하는 것을 목적으로 한다.
또한 본 발명은 웨이블릿 변환 및 DCT 변환을 모두 수행하는 경우와, DCT 변환만을 수행하는 경우 중에서 보다 유리한 경우를 선택하여 비디오 압축을 수행하는 방법 및 장치를 제공하는 것을 목적으로 한다. 아울러, 상기 유리한 경우를 선택하는 기준을 제시하는 것을 목적으로 한다.
더욱이 본 발명은 웨이블릿 변환 및 DCT 변환을 수행한 결과에 FGS(Fine Granular Scalability)를 적용하여 SNR 스케일러빌리티를 구현하는 방법 및 장치를 제공하는 것을 목적으로 한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 비디오 인코더는, 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈; 상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈; 상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 DCT 변환 모듈; 및 상기 DCT 계수를 양자화하는 양자화 모듈을 포함하는데, 상기 웨이블릿 변환시 최하위 서브밴드 이미지의 가로 크기 및 세로 크기는 상기 DCT 블록의 크기의 정수 배수가 된다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 이미지 인코더는, 입력된 이미지에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 웨 이블릿 변환 모듈; 상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 DCT 변환 모듈; 및 상기 DCT 계수를 양자화하는 양자화 모듈을 포함하는데, 상기 웨이블릿 변환시 최하위 서브밴드 이미지의 가로 크기 및 세로 크기는 상기 DCT 블록의 크기의 정수 배수가 된다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 비디오 인코더는, 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈; 상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈; 상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 DCT 변환 모듈; 상기 생성된 DCT 계수를 소정의 기준에 따라 양자화하여 기초 계층에 대한 양자화 계수를 생성하는 양자화 모듈; 및 상기 생성된 기초 계층에 대한 양자화 계수와 상기 생성된 DCT 계수와의 차이 값을 복수의 비트평면으로 분해하는 FGS 모듈을 포함하는데, 상기 웨이블릿 변환시 최하위 서브밴드 이미지의 가로 크기 및 세로 크기는 상기 DCT 블록의 크기의 정수 배수가 된다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 비디오 인코더는, 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈; 공간적 변환시 DCT 변환만을 수행하는 제1 모드와, 공간적 변환시 웨이블릿 변환 후 DCT 변환을 수행하는 제2 모드 중에서, 상기 잔여 프레임의 공간적 연관성 정도에 따라서 하나의 모드를 선택하는 모드 선택 모듈; 상기 선택된 모드가 제2 모드인 경우에 상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수 를 생성하는 웨이블릿 변환 모듈; 상기 선택된 모드가 제2 모드인 경우에는 상기 웨이블릿 계수에 대해, 상기 선택된 모드가 제1 모드인 경우에는 상기 잔여 프레임에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 DCT 변환 모듈; 및 상기 DCT 계수를 양자화하는 양자화 모듈을 포함한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 비디오 인코더는, 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈; 공간적 변환시 DCT 변환만을 수행할 것으로 결정하는 제1 모드와, 공간적 변환시 웨이블릿 변환 후 DCT 변환을 수행할 것으로 결정하는 제2 모드 중에서, 상기 잔여 프레임의 공간적 연관성 정도에 따라서 하나의 모드를 선택하는 모드 선택 모듈; 상기 선택된 모드가 제2 모드인 경우에 상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈; 상기 선택된 모드가 제2 모드인 경우에는 상기 웨이블릿 계수에 대해, 상기 선택된 모드가 제1 모드인 경우에는 상기 잔여 프레임에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 DCT 변환 모듈; 상기 생성된 DCT 계수를 소정의 기준에 따라 양자화하여 기초 계층에 대한 양자화 계수를 생성하는 양자화 모듈; 및 상기 생성된 기초 계층에 대한 양자화 계수와 상기 생성된 DCT 계수와의 차이 값을 복수의 비트평면으로 분해하는 FGS 모듈을 포함한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 비디오 인코더는, 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈; 상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하 는 웨이블릿 변환 모듈; 상기 잔여 프레임에 대해 DCT 블록 별로 DCT 변환을 수행하여 제1 DCT 계수를 생성하고, 상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 제2 DCT 계수를 생성하는 DCT 변환 모듈; 상기 제1 DCT 계수를 양자화하여 제1 양자화 계수를 생성하고, 상기 제2 DCT 계수를 양자화 하여 제2 양자화 계수를 생성하는 양자화 모듈; 및 상기 제1 양자화 계수 및 상기 제2 양자화 계수로부터 각각 제1 잔여 프레임 및 제2 잔여 프레임을 복원하고, 상기 제1 잔여 프레임과 상기 제2 잔여 프레임의 화질 차이를 비교하여 보다 화질이 우수한 프레임의 모드를 선택하는 모드 선택 모듈을 포함한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 비디오 인코더는, 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈; 상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈; 상기 잔여 프레임에 대해 DCT 블록 별로 DCT 변환을 수행하여 제1 DCT 계수를 생성하고, 상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 제2 DCT 계수를 생성하는 DCT 변환 모듈; 소정 기준에 따라 상기 제1 DCT 계수를 양자화하여 기초 계층에 대한 제1 양자화 계수를 생성하고, 상기 기준에 따라 상기 제2 DCT 계수를 양자화 하여 제2 양자화 계수를 생성하는 양자화 모듈; 상기 제1 양자화 계수 및 상기 제2 양자화 계수로부터 각각 제1 잔여 프레임 및 제2 잔여 프레임을 복원하고, 상기 제1 잔여 프레임과 상기 제2 잔여 프레임의 화질 차이를 비교하여 보다 화질이 우수한 프레임의 모드를 선택하는 모드 선택 모듈; 및 상기 제1 양자화 계수 및 상기 제2 양자화 계수 중에서 상기 선택된 모드에 해당하는 양자화 계수와, 상기 제1 DCT 계수 및 상기 제2 DCT 계수 중에서 상기 선택된 모드에 해당하는 DCT 계수와의 차이 값을 복수의 비트평면으로 분해하는 FGS 모듈을 포함한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 이미지 디코더는, 입력된 비트스트림에 포함되는 텍스쳐 정보를 역 양자화하는 역 양자화 모듈; 상기 역 양자화된 값에 대하여 DCT 블록 별로 역 DCT 변환을 수행하는 역 DCT 변환 모듈; 상기 역 DCT 변환된 값에 대하여 역 웨이블릿 변환을 수행하는 역 웨이블릿 변환 모듈을 포함하는데, 상기 역 웨이블릿 변환시 최하위 서브밴드 이미지의 가로 크기 및 세로 크기는 상기 DCT 블록의 크기의 정수 배수가 된다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 비디오 디코더는, 입력된 비트스트림에 포함되는 텍스쳐 정보를 역 양자화하는 역 양자화 모듈; 상기 역 양자화된 값에 대하여 DCT 블록 별로 역 DCT 변환을 수행하는 역 DCT 변환 모듈; 상기 역 DCT 변환된 값에 대하여 역 웨이블릿 변환을 수행하는 역 웨이블릿 변환 모듈; 및 상기 역 웨이블릿 변환된 값 및 상기 비트스트림에 포함되는 모션 정보를 이용하여 비디오 시퀀스를 복원하는 역 시간적 변환 모듈을 포함하는데, 상기 역 웨이블릿 변환시 최하위 서브밴드 이미지의 가로 크기 및 세로 크기는 상기 DCT 블록의 크기의 정수 배수가 된다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 비디오 디코더는, 입력된 비트스트림에 포함되는 텍스쳐 정보를 역 양자화하는 역 양자화 모듈; 상기 역 양자화된 값에 대하여 DCT 블록 별로 역 DCT 변환을 수행하며, 상기 비트 스트림에 포함되는 모드 정보가 제1 모드를 나타내는 경우에는 상기 역 DCT 변환된 결과 값을 역 시간적 변환 모듈에 전달하고, 상기 모드 정보가 제2 모드를 나타내는 경우에는 상기 역 DCT 변환된 결과 값을 역 웨이블릿 변환 모듈에 전달하는 역 DCT 변환 모듈; 상기 역 DCT 변환 모듈로부터 전달되는 값에 대하여 역 웨이블릿 변환을 수행하는 역 웨이블릿 변환 모듈; 상기 모드 정보가 제1 모드를 나타내는 경우에는 상기 역 DCT 변환된 결과 값과 상기 비트스트림에 포함되는 모션 정보를 이용하여 비디오 시퀀스를 복원하고, 상기 모드 정보가 제2 모드를 나타내는 경우에는 상기 역 웨이블릿 변환된 결과 값 및 상기 모션 정보를 이용하여 비디오 시퀀스를 복원하는 역 시간적 변환 모듈을 포함한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
도 1은 본 발명의 일 실시예에 따른 비디오 인코더(100)의 구성을 나타낸 블록도이다. 비디오 인코더(100)는 시간적 변환 모듈(110), 웨이블릿 변환 모듈(120), DCT 변환 모듈(130), 양자화 모듈(140), 및 비트스트림 생성 모듈(150)을 포함하여 구성될 수 있다. 도 1의 실시예는 공간적 변환에 있어서, 웨이블릿 변환에 의하여 공간적 중복성을 제거한 후 다시 DCT 변환에 의하여 추가적으로 공간적 중복성을 제거하는 경우이다.
시간적 변환 모듈(110)은 모션 추정에 의하여 모션 벡터를 구하고, 구해진 모션 벡터 및 참조 프레임을 이용하여 모션 보상 프레임을 구성하고, 현재 프레임과 상기 모션 보상 프레임을 차분하여 잔여 프레임(residual frame)을 구함으로써 시간적 중복성을 감소시킨다. 상기 모션 추정 방법으로서, 고정 크기 블록 매칭 방법, 또는 계층적 가변 사이즈 블록 매칭법(Hierarchical Variable Size Block Matching; HVSBM) 등 다양한 방법을 사용할 수 있다. 이러한 시간적 변환 방법 중에서 시간적 스케일러빌리티를 지원하는 방법으로는, 예컨대 MCTF(Motion Compensated Temporal Filtering)을 사용할 수 있다.
웨이블릿 변환 모듈(120)은 시간적 변환 모듈(110)에 의하여 생성된 잔여 프레임에 대하여, 웨이블릿 변환(wavelet transform)을 수행하여, 하나의 프레임을 저주파 서브밴드와 고주파 서브밴드로 분해하고, 각 픽셀에 대한 웨이블릿 계수(wavelet coefficient)를 구한다.
도 2는 입력 이미지 또는 프레임을 웨이블릿 변환에 의하여 서브밴드로 분해하는 과정으로서, 2단계 레벨로 분할한 예를 나타낸 것이다.
여기에는 세 가지의 고주파 서브밴드, 즉 수평, 수직, 및 대각 위치의 서브밴드가 있다. 저주파 서브밴드, 즉 수평 및 수직 방향 모두에 대하여 저주파 서브밴드는 'LL'이라고 표기한다. 상기 고주파 서브밴드는 'LH', 'HL', 'HH'로 표기하는데, 이는 각각 수평방향 고주파, 수직방향 고주파, 그리고 수평 및 수직방향 고주파 서브밴드를 의미한다. 그리고, 저주파 서브밴드는 반복적으로 더 분해될 수 있다. 괄호 안의 숫자는 웨이블릿 변환 레벨을 나타낸 것이다.
도 3은 도 2와 같은 분할 과정이 수행되는 구체적 과정을 예시하는 도면이다. 웨이블릿 변환 모듈(120)은 저역 통과 필터(121)와, 고역 통과 필터(122)와, 다운 샘플러(123)를 적어도 포함한다. 사용되는 저역 통과 필터(121) 및 고역 통과 필터(122)의 종류에 따라서, Haar 필터, 5/3 필터, 9/7 필터 등 다양한 웨이블릿 필터로 구분된다. 여기서, Haar 필터는 주변의 하나의 픽셀만을 참고하여 저역 통과 필터링 및 고역 통과 필터링을 수행하는 방식이고, 5/3 필터는 저역 통과 필터링의 경우는 주변의 5개의 픽셀을 참고하고 고역 통과 필터링의 경우는 주변의 3개의 픽셀을 참고하는 방식이다. 그리고, 9/7 필터는 저역 통과 필터링의 경우는 주변의 9개의 픽셀을 참고하고 고역 통과 필터링의 경우는 주변의 7개의 픽셀을 참고하는 방식이다. 웨이블릿 변환을 사용한다고 하더라도 어떠한 웨이블릿 필터를 사용하는가에 따라서 그 압축 특성 및 화질 특성이 달라질 수 있다.
입력 이미지(10)가 저역 통과 필터(121) 및 다운 샘플러(123)를 통과하면, 좌우 폭(또는 상하 폭)이 1/2로 축소된 저주파 이미지(L(1); 11)가 생성된다. 그리고, 고역 통과 필터(122) 및 다운 샘플러(123)를 통과하면, 좌우 폭(또는 상하 폭)이 1/2로 축소된 고주파 이미지(H(1); 12)가 생성된다.
그리고, 1/2로 축소된 저주파 이미지(11) 및 고주파 이미지(12) 각각에 대하 여 다시 저역 통과 필터(121) 및 고역 통과 필터(122)를 통과시킨 후에 다운 샘플러(123)를 적용하면, 네 가지 서브밴드 이미지, 즉 LL(1)(13), LH(1)(14), HL(1) (15), HH(1)(16)가 생성된다.
만약, 다시 한번 서브밴드 분해(레벨 2)를 하고자 하면, 서브밴드 이미지 중 저주파 이미지 LL(1)(13)를 마찬 가지의 방법에 의하여 다시 네 개의 하위 서브밴드 이미지, 즉 도 2의 LL(2), LH(2), HL(2), HH(2)로 분할할 수 있는 것이다.
본 발명에서 주목할 것은 웨이블릿 변환 이후에 DCT 변환이 가능하기 위해서는, 최하위 서브밴드의 저주파 이미지의 가로 크기 및 세로 크기가 DCT 블록의 크기(이하 "B"이라고 함)의 정수 배수가 되어야 한다는 점이다. 그렇지 않다면 서로 다른 서브밴드의 영역이 동일한 DCT 블록 내에 포함될 수 있게 되어 압축 효율 내지 화질이 현저히 나빠질 수 있기 때문이다. 여기서 "크기"는 픽셀 수를 의미하며, DCT 블록의 경우 가로 크기와 세로 크기가 동일하다.
이를 정량화 하면, 입력 이미지의 가로 크기가 M이고, 세로 크기가 N, 즉 입력된 프레임이 M×N 픽셀 크기인 경우에, 서브밴드 분할 레벨을 k라 하면 최하위 서브밴드의 크기는 M/2k × N/2k가 된다. 따라서, M/2k 및 N/2k 모두 B의 정수 배수가 되어야 한다. 이를 수학식으로 나타내면 다음의 수학식 1과 같다. 여기서, m, n은 임의의 자연수이다.
Figure 112004052749195-pat00001
예를 들어, 가로 M이 128이고 세로 N이 64인 입력된 프레임이 있다고 하고, DCT 블록의 크기 B가 8이라고 하면, 가로를 기준으로 할 때의 최대 분해 레벨 k는 4이지만 세로를 기준으로 할 때의 k는 3이므로 결국 최대 분해 가능한 레벨은 3으로 제한된다.
수학식 1을 다시 말하면 입력된 프레임의 가로 크기(M) 및 세로 크기(N)는 상기 DCT 블록의 크기(B)와 2k를 곱한 값의 정수 배수가 되어야 함을 의미한다.
본 발명에서, 웨이블릿 변환 이후 DCT 변환을 적용하지만, 여전히 웨이블릿 변환의 특징인 공간적 스케일러빌리티(해상도 스케일러빌리티)를 보유할 수 있다. 도 4를 보면, DCT 블록은 웨이블릿 변환시의 서브밴드의 경계선을 침범하지 않는다. 따라서, 만약 프리디코더(pre-decoder) 내지 트랜스코더(transcoder)에서 최하위 서브 밴드의 크기로 해상도를 변화시키고자 한다면 DCT 블록으로 분할된 프레임(30)에서 좌상단 4개의 DCT 블록만을 추출하면 될 것이다. 그리고, 추출된 데이터를 수신한 디코더에서 역 DCT 변환 및 역 웨이블릿 변환을 수행함으로써 축소된 해상도의 비디오를 복원할 수 있게 된다.
다시 도 1로 돌아가면, DCT 변환 모듈(130)은 웨이블릿 변환된 프레임(즉, 웨이블릿 계수)을 소정의 크기를 갖는 DCT 블록으로 분할하고 각 DCT 블록 별로 DCT 변환을 수행한다. 그 결과 DCT 계수(DCT coefficient)가 생성된다.
도 4는 웨이블릿 변환된 프레임을 DCT 변환하는 과정을 설명하는 도면이다. 2레벨로 웨이블릿 변환된 프레임(20)은 최하위 서브밴드의 크기가 8×8이므로, DCT 블록의 크기는 8의 약수 중 하나가 될 수 있다. 본 예에서는 DCT 블록의 크기가 4인 것으로 하였으므로, 상기 웨이블릿 변환된 프레임(20)을 4×4의 크기로 분할(partition)하고 각각의 4×4 DCT 블록 별로 DCT 변환을 수행하게 된다.
양자화 모듈(140)은 DCT 변환 모듈(130)에 의하여 생성되는 DCT 계수를 양자화(quantization) 한다. 양자화(quantization)란 임의의 실수 값으로 표현되는 상기 DCT 계수를 일정 구간으로 나누어 불연속적인 값(discrete value)으로 나타내고, 이를 소정의 양자화 테이블에 따른 인덱스로 매칭(matching)시키는 작업을 의미한다.
비트스트림 생성 모듈(150)은 양자화 모듈(140)에 의하여 양자화된 계수와, 시간적 변환 모듈(110)에 의하여 제공되는 모션 정보(모션 벡터, 참조 프레임 번호 등)를 무손실 부호화, 즉 엔트로피 부호화하여 출력 비트스트림을 생성한다. 이러한 무손실 부호화 방법으로는, 허프만 부호화(Huffman coding), 산술 부호화(arithmetic coding), 가변 길이 부호화(variable length coding) 등의 다양한 부호화 방법을 사용할 수 있다.
도 1의 실시예에서는 최초 입력이 비디오 시퀀스인 것으로 하여 설명하였지만, 본 발명은 반드시 비디오에 한정되는 것은 아니고 정지 이미지를 부호화하는 데에도 적용할 수 있다. 도 5는 정지 이미지를 입력 받아 이를 부호화하는 이미지 인코더(200)의 구성의 일 예를 도시한 것이다. 여기서 보면, 도 1과 비교할 때, 시 간적 변환 모듈(110)이 존재하지 않는 점에서 차이가 있을 뿐이고 나머지 과정은 동일하다. 따라서, 웨이블릿 변환 모듈(120)에 입력되는 이미지는 시간적 차분에 의하여 생성되는 잔여 프레임이 아니라, 원래의 정지 이미지이다.
도 6은 본 발명의 일 실시예에 따라서, 웨이블릿 변환 및 DCT 변환을 수행한 후 FGS(Fine Granular Scalability)를 적용하는 비디오 인코더(300)의 구성을 도시한 것이다. 이 실시예에 따르면 웨이블릿 변환에 의하여 공간적 스케일러빌리티를 구현하면서, 동시에 FGS를 통하여 SNR(Signal-to-Ration) 스케일러빌리티를 구현할 수 있게 된다.
FGS는 비디오 시퀀스를 기초 계층과 향상 계층으로 하여 인코딩하는 기법이다. 전송 비트율을 유연하게 제어하기 위하여, 인코더에서 인코딩할 때 또는 인코딩 후 트랜스코더(또는 프리디코더)에서 향상 계층의 일부를 잘라낼 수 있다. FGS 는 전송 대역폭을 미리 알 수 없는 환경에서 비디오 스트리밍 서비스를 할 때 매우 유용하게 사용된다.
일반적인 시나리오에서, 비디오 시퀀스는 기초 계층과 향상 계층으로 나뉜다. 그리고 특정 비트율에서 비디오 데이터를 전송하라는 요구를 받으면, 스트리밍 서버는 기초 계층과 잘라낸 버전(version)의 향상 계층을 전송한다. 잘라내는 양은 전송 비트율에 맞게 최소한으로 선택됨으로써, 주어진 비트율 내에서 최대 화질을 얻을 수 있다.
도 6의 비디오 인코더(300)는 도 1의 비디오 인코더(100)와 비교할 때, 양자화 모듈(140)과 비트스트림 생성 모듈(150) 사이에 FGS 모듈(160)을 더 포함한다. 이하에서는 양자화 모듈(140), FGS 모듈(160), 및 비트스트림 생성 모듈(150)을 중점으로 설명하기로 한다.
웨이블릿 변환 모듈(120) 및 DCT 변환 모듈(130)을 거쳐서 생성된 DCT 계수는 양자화 모듈(140) 및 FGS 모듈(160)로 입력되고, 양자화 모듈(140)은 입력된 DCT 계수를 소정의 기준에 따라 양자화하여 기초 계층에 대한 양자화 계수를 생성한다. 상기 기준은 예를 들어, 비트스트림 전송 환경에서 최소한 지원하여야 하는 최저 비트율을 기준으로 하여 정해질 수 있다. 이러한 기초 계층에 대한 양자화 계수는 FGS 모듈(160) 및 비트스트림 생성 모듈(150)에 입력된다.
FGS 모듈(160)은 양자화 모듈(140)로부터 전달되는 기초 계층에 대한 양자화 계수 및 DCT 변환 모듈(130)로부터 전달되는 DCT 계수의 차이 값을 계산하고, 이 차이 값을 복수의 비트평면으로 분해한다. 이러한 복수의 비트평면의 조합은 "향상 계층"으로 표현될 수 있는데, 이 향상 계층은 비트스트림 생성 모듈(150)에 제공된다.
도 7은 FGS 모듈(160)의 세부 구성을 나타낸 도면이다. FGS 모듈(160)은 역 양자화 모듈(161), 차분기(162), 및 비트평면 분해 모듈(163)을 포함하여 구성될 수 있다. 역 양자화 모듈(161)은 입력된 기초 계층에 대한 양자화 계수를 역 양자화한다. 그리고, 차분기(162)는 입력된 DCT 계수와 상기 역 양자화된 계수와의 차이, 즉 차이 계수를 구한다.
비트평면 분해 모듈(163)은 상기 차이 계수를 복수의 비트평면으로 분해함으로써 향상 계층을 생성한다. 예를 들어, 어떤 DCT 블록의 차이 계수가 도 8과 같이 나타난다고 가정하고(8×8 DCT 블록의 경우이며, 생략된 부분은 모두 0임), 지그-재그 스캔(zig-zag scan)을 이용하면 차이 계수는 {+13, -11, 0, 0, +17, 0, 0, 0, -3, 0, 0, ...}와 같이 배열될 수 있으며, [표 1]과 같이 5개의 비트평면으로 분해될 수 있다. 여기서, 비트평면은 각 계수를 이진수로 나타낼 때 각 차수 별 계수를 그 값으로 갖는다.
[표 1]
Figure 112004052749195-pat00002
이와 같이 분해된 비트평면의 형태로 표시된 향상 계층은 최상위 차수의 비트평면 4로부터 시작하여 최하위 차수의 비트평면 0까지 순차적으로 각 비트평면 단위로 배열되어 비트스트림 생성 모듈(150)에 제공된다. 만약, 트랜스코더 또는 프리디코더에서 비트율을 조절하고자 한다면, 상기 최하위 차수의 비트평면으로부터 잘라냄으로써 SNR 스케일러빌리티를 구현할 수 있다. 만약, 비트평면 4와 비트평면 3만 남기고 나머지 비트평면이 제거된다면, 디코더 단에서는 {+8, -8, 0, 0, 16, 0, 0, 0, 0, ...} 값을 수신하게 될 것이다.
도 6에서의 실시예는 비디오 인코더뿐만 아니라 이미지 인코더에도 적용할 수 있다. 다만, 이미지 인코더인 경우에는 시간적 변환 모듈(110)은 생략되고 모션 정보도 존재하지 않으며, 입력되는 정지 이미지가 바로 웨이블릿 변환 모듈(120)로 입력되는 점에서 차이가 있을 뿐이다.
비트스트림 생성 모듈(150)은 양자화 모듈(140)에 의하여 제공되는 기초계층에 대한 양자화 계수와, FGS 모듈(160)에 의하여 제공되는 향상 계층의 비트평면, 및 시간적 변환 모듈(110)에 의하여 제공되는 모션 정보(모션 벡터, 참조 프레임 번호 등)를 무손실 부호화, 즉 엔트로피 부호화하여 출력 비트스트림을 생성한다.
도 9는 본 발명의 일 실시예에 따른 비디오 인코더(400)의 구성을 나타낸 블록도이다. 도 9의 실시예는 먼저 시간적 변환된 잔여 프레임의 특성을 분석하여 웨이블릿 변환을 생략하고 DCT 변환만을 수행하는 모드(제1 모드)와 웨이블릿 변환 및 DCT 변환을 함께 수행하는 모드(제2 모드) 중에서 유리한 모드를 선택하고 선택된 모드에 따라서 인코딩하는 방식을 나타낸다. 도 6의 실시예와 비교하면 시간적 변환 모듈(110)과 웨이블릿 변환 모듈(120) 사이에 모드 선택 모듈(170)이 존재하며, 모드 선택 모듈(170)에서 선택된 모드에 따라서, 웨이블릿 변환 모듈(120)을 거치는가 여부가 결정된다.
본 실시예에서, 모드 선택 모듈(170)은 공간적 변환시 DCT 변환만을 수행하는 제1 모드와, 공간적 변환시 웨이블릿 변환 후 DCT 변환을 수행하는 제2 모드 중에서, 상기 잔여 프레임의 공간적 연관성 정도에 따라서 하나의 모드를 선택한다.
전술한 바와 같이, DCT 변환은 공간적 연관성이 낮고 블록 현상이 많이 나타나는 이미지의 변환에 적합하여, 웨이블릿 변환은 공간적 연관성이 높고 부드러운 이미지의 변환에 적합하다. 따라서, 모드 선택 모듈(170)에 입력되는 잔여 프레임이 공간적 연관성이 높은 이미지인지를 판단하는, 즉 모드 선택을 하는 기준이 필 요하다.
공간적 연관성이 높은 이미지는 특정 밝기의 픽셀들이 집중적으로 많이 분포하고, 반대로 공간적 연관성이 낮은 이미지는 여러 가지 밝기의 픽셀들이 골고루 잘 분포하여 랜덤 노이즈(random noise)에 유사한 특징을 갖는다. 랜덤 노이즈로 이루어진 이미지에 대하여 히스토그램(가로축: 밝기, 세로축: 빈도)을 그려보면 그 결과는 가우시안(Gaussian) 분포를 잘 따를 것이지만, 공간적 연관성이 높은 이미지는 특정 밝기의 픽셀들이 집중하여 존재하므로 가우시안 분포를 잘 따르지 않을 것을 예측할 수 있다.
예를 들어 상기 모드 선택을 하는 기준으로서, 입력된 잔여 프레임에 대한 히스토그램을 그렸을 때, 현재 분포와 가우시안 분포와의 차이가 소정의 임계치를 넘는가를 기준으로 할 수 있다. 따라서, 상기 차이가 소정의 임계치를 넘는다면 상기 입력된 잔여 프레임은 공간적 연관성이 높은 이미지로서 제2 모드가 선택될 것이다. 그리고, 상기 차이가 소정의 임계치를 넘지 않는다면 상기 입력된 잔여 프레임은 공간적 연관성이 낮은 이미지로서 제1 모드가 선택될 것이다.
보다 자세한 예로서, 이러한 현재 분포와 가우시안 분포와의 차이는 각 변수별 빈도 차이의 합을 기준으로 할 수 있다. 먼저, 현재 분포의 평균(m)과 표준편차(σ)를 구하고, 이 평균과 표준편차를 갖는 가우시안 분포를 구한다. 그리고, 수학식 2와 같이 현재 분포가 갖는 각 변수의 빈도(fi)와 가우시안 분포를 가정할 때의 해당 변수에서의 빈도((fg)i)간의 차이의 합을 구하고 이를 정규화하기 위하여 현재 분포의 전체 빈도수로 나눈 다음, 그 결과가 소정의 임계치(c)를 넘는가 여부에 의하여 판단하는 것이다.
Figure 112004052749195-pat00003
이러한 판단 기준은 상기와 같이 잔여 프레임에 적용할 수도 있겠지만, 시간적 변환 전의 원 비디오 시퀀스 들에 직접 적용할 수도 있을 것이다.
도 9에서의 실시예는 SNR 스케일러빌리티를 지원하도록 FGS 모듈(160)을 사용하였지만, FGS 모듈(160)을 사용하지 않는 실시예도 생각할 수 있다. 이 경우에는, FGS 모듈(160)은 생략되며, DCT 변환 모듈(130)에 의하여 제공되는 제1 모드 또는 제2 모드에 따른 DCT 계수를 양자화 모듈(140)이 양자화하고, 그 결과를 비트스트림 생성 모듈(150)이 엔트로피 부호화하는 방식으로 진행될 것이다.
한편, 도 9에서의 실시예는 비디오 인코더 뿐만 아니라 이미지 인코더에도 적용할 수 있다. 다만, 이미지 인코더인 경우에는 시간적 변환 모듈(110)은 생략되고 모션 정보도 존재하지 않으며, 입력되는 정지 이미지가 바로 모드 선택 모듈(170)으로 입력되는 점에서 차이가 있을 뿐이다.
모드 선택 모듈(170)에 의하여 제1 모드가 선택된 경우에 시간적 변환 모듈(110)에서 출력되는 잔여 프레임은 DCT 변환 모듈(130)로 바로 전달되고, 제2 모드가 선택된 경우에 상기 잔여 프레임은 웨이블릿 변환 모듈(120) 및 DCT 변환 모듈 (130)을 거치게 된다.
DCT 변환 이 후의 과정은 도 6에서 설명한 바와 마찬가지이므로 생략하기로 한다.
도 10은 본 발명의 일 실시예에 따른 비디오 인코더(500)의 구성을 나타낸 블록도이다. 도 10의 실시예는 도 9의 실시예와는 달리 모드 선택 모듈(180)이 양자화 모듈(140)의 이후에 존재하며, 그 모드 판단 기준도 도 9에서의 기준과는 다르다.
웨이블릿 변환 모듈(120)을 거치지 않고 DCT 변환 모듈(130) 만을 거치 제1 모드에 따른 제1 DCT 계수와, 웨이블릿 변환 모듈(120) 및 DCT 변환 모듈(130)을 모두 거친 제2 모드에 따른 제2 DCT 계수는 모두 양자화 모듈(140)로 입력된다.
양자화 모듈(140)은 입력된 제1 DCT 계수 및 제2 DCT 계수를 소정의 기준에 따라 양자화하여 각각 기초 계층에 대한 제1 양자화 계수 및 기초 계층에 대한 제2 양자화 계수를 생성한다. 상기 기준은 예를 들어, 비트스트림 전송 환경에서 최소한 지원하여야 하는 최저 비트율을 기준으로 하여 정해질 수 있으며, 제1 DCT 계수 및 제2 DCT 계수에 동일한 기준이 적용된다.
이러한 기초 계층에 대한 양자화 계수들은 모드 선택 모듈(180)로 입력된다.
모드 선택 모듈(180)은 상기 제1 양자화 계수 및 상기 제2 양자화 계수로부터 각각 제1 잔여 프레임 및 제2 잔여 프레임을 복원한다. 그리고, 시간적 변환 모듈(110)로부터 제공되는 잔여 프레임을 기준으로 제1 잔여 프레임과 제2 잔여 프레임의 화질 차이를 비교하여 보다 화질이 우수한 모드를 선택한다.
모드 선택 모듈(180)은 도 11과 같이, 역 양자화 모듈(181), 역 DCT 변환 모듈(182), 역 웨이블릿 변환 모듈(183), 및 화질 비교 모듈(184)를 포함하여 구성될 수 있다.
역 양자화 모듈(181)은 양자화 모듈(140)로부터 전달되는 제1 양자화 계수 및 제2 양자화 계수를 역 양자화한다. 이러한 역 양자화 과정은 양자화 과정에서 사용된 양자화 테이블을 그대로 이용하여 양자화 과정에서 생성된 인덱스로부터 그에 매칭되는 값을 복원하는 과정이다.
역 DCT 변환 모듈(182)은 제1 양자화 계수의 역 양자화된 값 및 제2 양자화 계수의 역 양자화된 값을 역 DCT 변환한다. 이 결과, 제1 모드의 경우에는 제1 잔여 프레임이 복원되어 화질 비교 모듈(184)에 제공된다. 그리고, 제2 모드의 경우에는 역 DCT 변환된 결과를 역 웨이블릿 변환 모듈(183)에 제공된다.
역 웨이블릿 변환 모듈(183)은 역 DCT 변환 모듈(182)로부터 제공되는 역 DCT 변환된 결과를 역 웨이블릿 변환하여 제2 잔여 프레임을 복원하고 이를 화질 비교 모듈(184)에 제공한다. 역 웨이블릿 변환 과정은 도 2와 같은 웨이블릿 변환을 역으로 수행하여 공간 영역에서의 이미지를 복원하는 과정이다.
화질 비교 모듈(184)은 시간적 변환 모듈(110)으로부터 제공되는 잔여 프레임, 즉 오리지널 잔여 프레임을 기준으로, 상기 제1 잔여 프레임 및 상기 제2 잔여 프레임의 화질을 비교하여 보다 화질이 우수한 모드를 선택한다. 화질을 비교하는 방법은 제1 잔여 프레임과 오리지널 잔여 프레임과의 차의 합 및 제2 잔여 프레임과 오리지널 잔여 프레임과의 차의 합을 비교하여 작은 쪽이 보다 좋은 화질을 갖 는 것으로 판단한다. 이와 같이 단순 차를 계산하여 비교할 수도 있지만, 오리지널 잔여 프레임을 기준으로 각각 PSNR(Peek Signal-to-Noise Ratio)을 계산하여 비교할 수도 있다. 그러나, PSNR 방법도 이미지 간의 차이의 합으로 계산되는 기본적 원리에서는 벗어나지 않는 방법이다.
이와 같은 화질의 비교는, 각 잔여 프레임을 역 시간적 변환하여 복원된 이미지간에 비교하는 방식으로 수행될 수도 있지만, 두 가지 모드 모두 시간적 변환은 공통적으로 거치므로 잔여 프레임 단계에서 비교를 하는 것이 보다 효율적일 것이다.
FGS 모듈(160)은 모드 선택 모듈(180)에서 선택된 모드에 따른 DCT 계수와 선택된 양자화 계수의 차이를 계산하여, 그 결과 값을 비트평면으로 분해함으로써 향상 계층을 구성한다. 만약, 선택된 모드가 제1 모드라면 제1 DCT 계수와 제1 양자화 계수의 차이를 계산할 것이고, 제2 모드라면 제2 DCT 계수와 제2 양자화 계수의 차이를 계산할 것이다. 상기 구성된 향상 계층은 비트스트림 생성 모듈(150)에 전달된다. 여기서, FGS 모듈(160)의 세부 구성은 도 7에서의 구성과 동일하므로 중복적 설명은 생략하기로 한다.
비트스트림 생성 모듈(150)은 모드 선택 모듈(180)에 의하여 선택된 모드 정보에 따라서 양자화 모듈(140)로부터 해당 모드에 따른 양자화 계수(제1 모드인 경우 제1 양자화 계수, 제2 모드인 경우 제2 양자화 계수)를 입력 받고, 입력 받은 양자화 계수와, FGS 모듈(160)로부터 제공되는 비트평면과, 시간적 변환 모듈(110)에 의하여 제공되는 모션 정보를 무손실 부호화, 즉 엔트로피 부호화하여 출력 비 트스트림을 생성한다.
도 10에서의 실시예는 SNR 스케일러빌리티를 지원하도록 FGS 모듈(160)을 사용하였지만, 도 12와 같이, FGS 모듈(160)을 사용하지 않는 실시예도 생각할 수 있다. 이 경우에는, FGS 모듈(160)은 생략되며, DCT 변환 모듈(130)에 의하여 제공되는 제1 모드 또는 제2 모드에 따른 DCT 계수를 양자화 모듈(140)이 양자화하고, 양자화된 결과를 모드 선택 모듈(180)에 제공한다. 그러면, 모드 선택 모듈(180)은 상기 판단 기준에 따라 모드를 선택하고 그 선택된 모드 정보를 비트스트림 생성 모듈(150)에 전달하면, 비트스트림 생성 모듈(150)은 양자화 모듈(140)로부터 해당 모드에 대한 양자화된 결과를 수신하여 엔트로피 부호화하는 방식으로 진행될 것이다.
한편, 도 10에서의 실시예는 비디오 인코더 뿐만 아니라 이미지 인코더에도 적용할 수 있다. 다만, 이미지 인코더인 경우에는 시간적 변환 모듈(110)은 생략되고 모션 정보도 존재하지 않으며, 입력되는 정지 이미지가 바로 웨이블릿 변환 모듈(120), DCT 변환 모듈(130), 및 모드 선택 모듈(180)로 입력되는 점에서 차이가 있을 뿐이다.
도 13는 본 발명의 일 실시예에 따른 비디오 디코더(600)의 구성을 나타낸 도면이다. 비디오 디코더(600)는 비트스트림 판독 모듈(610), 역 양자화 모듈(620), 역 DCT 변환 모듈(630), 역 웨이블릿 변환 모듈(640), 및 역 시간적 변환 모듈(650)을 포함하여 구성될 수 있다.
먼저, 비트스트림 판독 모듈(610)은 인코더 단에서의 엔트로피 부호화 방식 의 역으로서, 입력된 비트스트림을 해석하여 모션 정보(모션 벡터, 참조 프레임 번호, 등), 텍스쳐 정보, 및 모드 정보를 분리하여 추출한다.
역 양자화 모듈(620)은 비트스트림 판독 모듈(610)로부터 전달된 텍스쳐 정보를 역 양자화한다. 이러한 역 양자화 과정은 양자화 과정에서 사용된 양자화 테이블을 그대로 이용하여 양자화 과정에서 생성된 인덱스로부터 그에 매칭되는 값을 복원하는 과정이다. 상기 양자화 테이블은 인코더 단으로부터 전달된 것일 수도 있고, 미리 인코더와 디코더 간에 약속된 것일 수도 있다.
역 DCT 변환 모듈(630)은 역 양자화 모듈(620)로부터 전달된 값에 대하여 DCT 블록 별로 역 DCT 변환을 수행한다.
그리고, 역 DCT 변환 모듈(630)은 비트스트림 판독 모듈(610)으로부터 전달된 모드 정보가 제1 모드를 나타내는 경우에는 상기 역 DCT 변환된 결과 값을 역 시간적 변환 모듈(650)에 전달하고, 상기 모드 정보가 제2 모드를 나타내는 경우에는 상기 역 DCT 변환된 결과 값을 역 웨이블릿 변환 모듈(640)에 전달한다.
역 웨이블릿 변환 모듈(640)은 역 DCT 변환 모듈(630)로부터 전달되는 값에 대하여 역 웨이블릿 변환을 수행한다. 인코더 단에서와 마찬가지로, 본 발명에 따르면 상기 역 웨이블릿 변환시 최하위 서브밴드 이미지의 가로 크기 및 세로 크기는 상기 DCT 블록의 크기의 정수 배수가 되어야 한다.
역 시간적 변환 모듈(650)은 상기 모드 정보에 따라서 상기 역 DCT 변환된 결과 값 또는 상기 역 웨이블릿 변환된 결과 값으로부터 비디오 시퀀스를 복원한다. 이 경우, 비트스트림 판독 모듈(610)로부터 전달되는 모션 정보를 이용하여 모 션 보상을 수행하여 모션 보상된 프레임을 구성하고, 현재 웨이블릿 변환 모듈(640)로부터 전달되는 프레임과 상기 모션 보상된 프레임을 가산함으로써 비디오 시퀀스를 복원하는 것이다.
도 13의 실시예에서는 모드 정보를 수신하는 경우를 예로 들었지만, 도 1과 같이 모드의 구별 없이 웨이블릿 변환 및 DCT 변환을 순차적으로 수행하는 경우라면, 610 내지 650 모듈을 순차적으로 거침으로써 비디오 시퀀스를 복원할 수 있다.
이상의 도 13의 실시예에서는 입력되는 비트스트림이 비디오 비트스트림인 것으로 하여 설명한 것이지만, 이미지에 대한 비트스트림이 입력되는 경우에는 도 12의 구성 중 역 시간적 변환 모듈(150) 및 모션 정보만 제외하면 이미지 디코더로 사용할 수 있다. 이 경우 웨이블릿 변환 모듈(640)에서의 출력이 바로 복원된 이미지이다.
도 14는 본 발명의 일 실시예에 따른 인코딩, 또는 디코딩 과정을 수행하기 위한 시스템의 구성도이다. 상기 시스템은 TV, 셋탑박스, 데스크 탑, 랩 탑 컴퓨터, 팜 탑(palmtop) 컴퓨터, PDA(personal digital assistant), 비디오 또는 이미지 저장 장치(예컨대, VCR(video cassette recorder), DVR(digital video recorder) 등)를 나타내는 것일 수 있다. 뿐만 아니라, 상기 시스템은 상기한 장치들을 조합한 것, 또는 상기 장치가 다른 장치의 일부분으로 포함된 것을 나타내는 것일 수도 있다. 상기 시스템은 적어도 하나 이상의 비디오/이미지 소스(video source; 810), 하나 이상의 입출력 장치(820), 프로세서(840), 메모리(850), 그리고 디스플레이 장치(830)를 포함하여 구성될 수 있다.
비디오/이미지 소스(810)는 TV 리시버(TV receiver), VCR, 또는 다른 비디오/이미지 저장 장치를 나타내는 것일 수 있다. 또한, 상기 소스(810)는 인터넷, WAN(wide area network), LAN(local area network), 지상파 방송 시스템(terrestrial broadcast system), 케이블 네트워크, 위성 통신 네트워크, 무선 네트워크, 전화 네트워크 등을 이용하여 서버로부터 비디오/이미지를 수신하기 위한 하나 이상의 네트워크 연결을 나타내는 것일 수도 있다. 뿐만 아니라, 상기 소스는 상기한 네트워크들을 조합한 것, 또는 상기 네트워크가 다른 네트워크의 일부분으로 포함된 것을 나타내는 것일 수도 있다.
입출력 장치(820), 프로세서(840), 그리고 메모리(850)는 통신 매체(860)를 통하여 통신한다. 상기 통신 매체(860)에는 통신 버스, 통신 네트워크, 또는 하나 이상의 내부 연결 회로를 나타내는 것일 수 있다. 상기 소스(810)로부터 수신되는 입력 비디오/이미지 데이터는 메모리(850)에 저장된 하나 이상의 소프트웨어 프로그램에 따라 프로세서(840)에 의하여 처리될 수 있고, 디스플레이 장치(830)에 제공되는 출력 비디오/이미지를 생성하기 위하여 프로세서(840)에 의하여 실행될 수 있다.
특히, 메모리(850)에 저장된 소프트웨어 프로그램은 본 발명에 따른 방법을 수행하는 스케일러블 웨이블릿 기반의 코덱을 포함한다. 상기 코덱은 메모리(850)에 저장되어 있을 수도 있고, CD-ROM이나 플로피 디스크와 같은 저장 매체에서 읽어 들이거나, 각종 네트워크를 통하여 소정의 서버로부터 다운로드한 것일 수도 있다. 상기 소프트웨어에 의하여 하드웨어 회로에 의하여 대체되거나, 소프트웨어와 하드웨어 회로의 조합에 의하여 대체될 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
본 발명에 따르면, 입력되는 비디오/이미지의 특성에 적합한 공간적 변환 방법을 선택함으로써, 압축 효율 또는 화질을 향상시킬 수 있다.
본 발명에 따르면, 비디오/이미지 코딩 방법에 있어서 웨이블릿 변환을 통하여 공간적 스케일러빌리티를 지원하고, FGS를 통하여 SNR 스케일러빌리티를 지원할 수 있다.

Claims (33)

  1. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈;
    상기 잔여 프레임에 대해 적어도 하나의 레벨 이상의 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈;
    상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 DCT 변환 모듈; 및
    상기 DCT 계수를 양자화하는 양자화 모듈을 포함하는 비디오 인코더.
  2. 제1항에 있어서,
    상기 웨이블릿 변환시 최하위 서브밴드 이미지의 가로 크기 및 세로 크기는 상기 DCT 블록의 크기의 정수 배수가 되는 비디오 인코더.
  3. 제1항에 있어서,
    상기 양자화된 결과를 무손실 부호화하는 비트스트림 생성 모듈을 더 포함하는 비디오 인코더.
  4. 제1항에 있어서,
    상기 입력된 프레임의 가로 크기 및 세로 크기는 상기 DCT 블록의 크기와 2k를 곱한 값의 정수 배수가 되는데, 상기 k는 서브밴드 분할 레벨을 의미하는 비디오 인코더.
  5. 입력된 이미지에 대해 적어도 하나의 레벨 이상의 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈;
    상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 DCT 변환 모듈; 및
    상기 DCT 계수를 양자화하는 양자화 모듈을 포함하는 이미지 인코더.
  6. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈;
    상기 잔여 프레임에 대해 적어도 하나의 레벨 이상의 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈;
    상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 DCT 변환 모듈;
    상기 생성된 DCT 계수를 소정의 기준에 따라 양자화하여 기초 계층에 대한 양자화 계수를 생성하는 양자화 모듈; 및
    상기 생성된 기초 계층에 대한 양자화 계수와 상기 생성된 DCT 계수와의 차이 값을 복수의 비트평면으로 분해하는 FGS 모듈을 포함하는 비디오 인코더.
  7. 제6항에 있어서,
    상기 웨이블릿 변환시 최하위 서브밴드 이미지의 가로 크기 및 세로 크기는 상기 DCT 블록의 크기의 정수 배수가 되는 비디오 인코더.
  8. 제6항에 있어서, 상기 기준은
    비트스트림 전송 환경에서 최소한 지원하여야 하는 최저 비트율인 비디오 인코더.
  9. 제6항에 있어서, 상기 FGS 모듈은
    상기 생성된 기초 계층에 대한 양자화 계수를 역 양자화하는 역 양자화 모듈;
    상기 생성된 DCT 계수와 상기 역 양자화된 계수와의 차이 값을 구하는 차분기; 및
    상기 차이 값을 복수의 비트평면으로 분해함으로써 향상 계층을 생성하는 비트평면 분해 모듈을 포함하는 비디오 인코더.
  10. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈;
    공간적 변환시 DCT 변환만을 수행하는 제1 모드와, 공간적 변환시 웨이블릿 변환 후 DCT 변환을 수행하는 제2 모드 중에서, 상기 잔여 프레임의 공간적 연관성 정도에 따라서 하나의 모드를 선택하는 모드 선택 모듈;
    상기 선택된 모드가 제2 모드인 경우에 상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈;
    상기 선택된 모드가 제2 모드인 경우에는 상기 웨이블릿 계수에 대해, 상기 선택된 모드가 제1 모드인 경우에는 상기 잔여 프레임에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 DCT 변환 모듈; 및
    상기 DCT 계수를 양자화하는 양자화 모듈을 포함하는 비디오 인코더.
  11. 제10항에 있어서, 상기 공간적 연관성 정도는
    상기 잔여 프레임의 픽셀 값들에 대한 히스토그램이 가우시안(Gaussian) 분포를 잘 따르는가 여부에 따라서 판단되는 비디오 인코더.
  12. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈;
    공간적 변환시 DCT 변환만을 수행할 것으로 결정하는 제1 모드와, 공간적 변환시 웨이블릿 변환 후 DCT 변환을 수행할 것으로 결정하는 제2 모드 중에서, 상기 잔여 프레임의 공간적 연관성 정도에 따라서 하나의 모드를 선택하는 모드 선택 모듈;
    상기 선택된 모드가 제2 모드인 경우에 상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈;
    상기 선택된 모드가 제2 모드인 경우에는 상기 웨이블릿 계수에 대해, 상기 선택된 모드가 제1 모드인 경우에는 상기 잔여 프레임에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 DCT 변환 모듈; 및
    상기 생성된 DCT 계수를 소정의 기준에 따라 양자화하여 기초 계층에 대한 양자화 계수를 생성하는 양자화 모듈; 및
    상기 생성된 기초 계층에 대한 양자화 계수와 상기 생성된 DCT 계수와의 차이 값을 복수의 비트평면으로 분해하는 FGS 모듈을 포함하는 비디오 인코더.
  13. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변환 모듈;
    상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈;
    상기 잔여 프레임에 대해 DCT 블록 별로 DCT 변환을 수행하여 제1 DCT 계수를 생성하고, 상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 제2 DCT 계수를 생성하는 DCT 변환 모듈;
    상기 제1 DCT 계수를 양자화하여 제1 양자화 계수를 생성하고, 상기 제2 DCT 계수를 양자화 하여 제2 양자화 계수를 생성하는 양자화 모듈; 및
    상기 제1 양자화 계수 및 상기 제2 양자화 계수로부터 각각 제1 잔여 프레임 및 제2 잔여 프레임을 복원하고, 상기 제1 잔여 프레임과 상기 제2 잔여 프레임의 화질 차이를 비교하여 보다 화질이 우수한 프레임의 모드를 선택하는 모드 선택 모듈을 포함하는 비디오 인코더.
  14. 제13항에 있어서, 상기 모드 선택 모듈은
    상기 제1 양자화 계수 및 상기 제2 양자화 계수를 역 양자화하는 역 양자화 모듈;
    상기 제1 양자화 계수의 역 양자화 값을 역 DCT 변환하여 제1 잔여 프레임을 복원하고, 상기 제2 양자화 계수의 역 양자화 값을 역 DCT 변환하는 역 DCT 변환 모듈;
    상기 제2 양자화 계수의 역 양자화 값을 역 DCT 변환한 결과를 역 웨이블릿 변환함으로써 제2 잔여 프레임을 복원하는 역 웨이블릿 변환 모듈; 및
    상기 제1 잔여 프레임 및 상기 제2 잔여 프레임의 화질을 비교하여 보다 화질이 우수한 프레임의 모드를 선택하는 화질 비교 모듈을 포함하는 비디오 인코더.
  15. 제13항에 있어서, 상기 보다 화질이 우수한 프레임은
    상기 제1 잔여 프레임과 상기 제2 잔여 프레임 중에서 상기 시간적 변환 모듈에서 생성된 잔여 프레임과의 차이의 합이 작은 프레임인 비디오 인코더.
  16. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 시간적 변 환 모듈;
    상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 웨이블릿 변환 모듈;
    상기 잔여 프레임에 대해 DCT 블록 별로 DCT 변환을 수행하여 제1 DCT 계수를 생성하고, 상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 제2 DCT 계수를 생성하는 DCT 변환 모듈;
    소정 기준에 따라 상기 제1 DCT 계수를 양자화하여 기초 계층에 대한 제1 양자화 계수를 생성하고, 상기 기준에 따라 상기 제2 DCT 계수를 양자화 하여 제2 양자화 계수를 생성하는 양자화 모듈;
    상기 제1 양자화 계수 및 상기 제2 양자화 계수로부터 각각 제1 잔여 프레임 및 제2 잔여 프레임을 복원하고, 상기 제1 잔여 프레임과 상기 제2 잔여 프레임의 화질 차이를 비교하여 보다 화질이 우수한 프레임의 모드를 선택하는 모드 선택 모듈; 및
    상기 제1 양자화 계수 및 상기 제2 양자화 계수 중에서 상기 선택된 모드에 해당하는 양자화 계수와, 상기 제1 DCT 계수 및 상기 제2 DCT 계수 중에서 상기 선택된 모드에 해당하는 DCT 계수와의 차이 값을 복수의 비트평면으로 분해하는 FGS 모듈을 포함하는 비디오 인코더.
  17. 입력된 비트스트림에 포함되는 텍스쳐 정보를 역 양자화하는 역 양자화 모듈;
    상기 역 양자화된 값에 대하여 DCT 블록 별로 역 DCT 변환을 수행하는 역 DCT 변환 모듈;
    상기 역 DCT 변환된 값에 대하여 역 웨이블릿 변환을 수행하는 역 웨이블릿 변환 모듈을 포함하는 이미지 디코더.
  18. 입력된 비트스트림에 포함되는 텍스쳐 정보를 역 양자화하는 역 양자화 모듈;
    상기 역 양자화된 값에 대하여 DCT 블록 별로 역 DCT 변환을 수행하는 역 DCT 변환 모듈;
    상기 역 DCT 변환된 값에 대하여 역 웨이블릿 변환을 수행하는 역 웨이블릿 변환 모듈; 및
    상기 역 웨이블릿 변환된 값 및 상기 비트스트림에 포함되는 모션 정보를 이용하여 비디오 시퀀스를 복원하는 역 시간적 변환 모듈을 포함하는 비디오 디코더.
  19. 입력된 비트스트림에 포함되는 텍스쳐 정보를 역 양자화하는 역 양자화 모듈;
    상기 역 양자화된 값에 대하여 DCT 블록 별로 역 DCT 변환을 수행하며, 상기 비트스트림에 포함되는 모드 정보가 제1 모드를 나타내는 경우에는 상기 역 DCT 변환된 결과 값을 역 시간적 변환 모듈에 전달하고, 상기 모드 정보가 제2 모드를 나타내는 경우에는 상기 역 DCT 변환된 결과 값을 역 웨이블릿 변환 모듈에 전달하는 역 DCT 변환 모듈;
    상기 역 DCT 변환 모듈로부터 전달되는 값에 대하여 역 웨이블릿 변환을 수행하는 역 웨이블릿 변환 모듈;
    상기 모드 정보가 제1 모드를 나타내는 경우에는 상기 역 DCT 변환된 결과 값과 상기 비트스트림에 포함되는 모션 정보를 이용하여 비디오 시퀀스를 복원하고, 상기 모드 정보가 제2 모드를 나타내는 경우에는 상기 역 웨이블릿 변환된 결과 값 및 상기 모션 정보를 이용하여 비디오 시퀀스를 복원하는 역 시간적 변환 모듈을 포함하는 비디오 디코더.
  20. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 단계;
    상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 단계;
    상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 단계; 및
    상기 DCT 계수를 양자화하는 단계를 포함하는데,
    상기 웨이블릿 변환시 최하위 서브밴드 이미지의 가로 크기 및 세로 크기는 상기 DCT 블록의 크기의 정수 배수가 되는 비디오 인코딩 방법.
  21. 제20항에 있어서,
    상기 입력된 프레임의 가로 크기 및 세로 크기는 상기 DCT 블록의 크기와 2k를 곱한 값의 배수가 되는데, 상기 k는 서브밴드 분할 레벨을 의미하는 비디오 인코딩 방법.
  22. 입력된 이미지에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 단계;
    상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 단계; 및
    상기 DCT 계수를 양자화하는 단계를 포함하는데,
    상기 웨이블릿 변환시 최하위 서브밴드 이미지의 가로 크기 및 세로 크기는 상기 DCT 블록의 크기의 정수 배수가 되는 이미지 인코딩 방법.
  23. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 단계;
    상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 단계;
    상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 단계;
    상기 생성된 DCT 계수를 소정의 기준에 따라 양자화하여 기초 계층에 대한 양자화 계수를 생성하는 단계; 및
    상기 생성된 기초 계층에 대한 양자화 계수와 상기 생성된 DCT 계수와의 차이 값을 복수의 비트평면으로 분해하는 단계를 포함하는 비디오 인코딩 방법.
  24. 제23항에 있어서, 상기 기준은
    비트스트림 전송 환경에서 최소한 지원하여야 하는 최저 비트율인 비디오 인코딩 방법.
  25. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 단계;
    공간적 변환시 DCT 변환만을 수행할 것으로 결정하는 제1 모드와, 공간적 변환시 웨이블릿 변환 후 DCT 변환을 수행할 것으로 결정하는 제2 모드 중에서, 상기 잔여 프레임의 공간적 연관성 정도에 따라서 하나의 모드를 선택하는 단계;
    상기 선택된 모드가 제2 모드인 경우에 상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 단계;
    상기 선택된 모드가 제2 모드인 경우에는 상기 웨이블릿 계수에 대해, 상기 선택된 모드가 제1 모드인 경우에는 상기 잔여 프레임에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 단계; 및
    상기 DCT 계수를 양자화하는 단계를 포함하는 비디오 인코딩 방법.
  26. 제25항에 있어서, 상기 공간적 연관성 정도는
    상기 잔여 프레임의 픽셀 값들에 대한 히스토그램이 가우시안(Gaussian) 분 포를 잘 따르는가 여부에 따라서 판단되는 비디오 인코딩 방법.
  27. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 단계;
    공간적 변환시 DCT 변환만을 수행할 것으로 결정하는 제1 모드와, 공간적 변환시 웨이블릿 변환 후 DCT 변환을 수행할 것으로 결정하는 제2 모드 중에서, 상기 잔여 프레임의 공간적 연관성 정도에 따라서 하나의 모드를 선택하는 단계;
    상기 선택된 모드가 제2 모드인 경우에 상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 단계;
    상기 선택된 모드가 제2 모드인 경우에는 상기 웨이블릿 계수에 대해, 상기 선택된 모드가 제1 모드인 경우에는 상기 잔여 프레임에 대해 DCT 블록 별로 DCT 변환을 수행하여 DCT 계수를 생성하는 단계; 및
    상기 생성된 DCT 계수를 소정의 기준에 따라 양자화하여 기초 계층에 대한 양자화 계수를 생성하는 단계; 및
    상기 생성된 기초 계층에 대한 양자화 계수와 상기 생성된 DCT 계수와의 차이 값을 복수의 비트평면으로 분해하는 단계를 포함하는 비디오 인코딩 방법.
  28. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 단계;
    상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하는 단계;
    상기 잔여 프레임에 대해 DCT 블록 별로 DCT 변환을 수행하여 제1 DCT 계수 를 생성하고, 상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 제2 DCT 계수를 생성하는 단계;
    상기 제1 DCT 계수를 양자화하여 제1 양자화 계수를 생성하고, 상기 제2 DCT 계수를 양자화 하여 제2 양자화 계수를 생성하는 단계; 및
    상기 제1 양자화 계수 및 상기 제2 양자화 계수로부터 각각 제1 잔여 프레임 및 제2 잔여 프레임을 복원하고, 상기 제1 잔여 프레임과 상기 제2 잔여 프레임의 화질 차이를 비교하여 보다 화질이 우수한 프레임의 모드를 선택하는 단계를 포함하는 비디오 인코딩 방법.
  29. 제28항에 있어서, 상기 모드를 선택하는 단계는
    상기 제1 양자화 계수 및 상기 제2 양자화 계수를 역 양자화하는 단계;
    상기 제1 양자화 계수의 역 양자화 값을 역 DCT 변환하여 제1 잔여 프레임을 복원하고, 상기 제2 양자화 계수의 역 양자화 값을 역 DCT 변환하는 단계;
    상기 제2 양자화 계수의 역 양자화 값을 역 DCT 변환한 결과를 역 웨이블릿 변환함으로써 제2 잔여 프레임을 복원하는 단계; 및
    상기 제1 잔여 프레임 및 상기 제2 잔여 프레임의 화질을 비교하여 보다 화질이 우수한 프레임의 모드를 선택하는 단계를 포함하는 비디오 인코딩 방법.
  30. 입력된 프레임의 시간적 중복을 제거하여 잔여 프레임을 생성하는 단계;
    상기 잔여 프레임에 대해 웨이블릿 변환을 수행하여 웨이블릿 계수를 생성하 는 단계;
    상기 잔여 프레임에 대해 DCT 블록 별로 DCT 변환을 수행하여 제1 DCT 계수를 생성하고, 상기 웨이블릿 계수에 대해 DCT 블록 별로 DCT 변환을 수행하여 제2 DCT 계수를 생성하는 단계;
    소정 기준에 따라 상기 제1 DCT 계수를 양자화하여 기초 계층에 대한 제1 양자화 계수를 생성하고, 상기 기준에 따라 상기 제2 DCT 계수를 양자화 하여 제2 양자화 계수를 생성하는 단계;
    상기 제1 양자화 계수 및 상기 제2 양자화 계수로부터 각각 제1 잔여 프레임 및 제2 잔여 프레임을 복원하고, 상기 제1 잔여 프레임과 상기 제2 잔여 프레임의 화질 차이를 비교하여 보다 화질이 우수한 프레임의 모드를 선택하는 단계; 및
    상기 제1 양자화 계수 및 상기 제2 양자화 계수 중에서 상기 선택된 모드에 해당하는 양자화 계수와, 상기 제1 DCT 계수 및 상기 제2 DCT 계수 중에서 상기 선택된 모드에 해당하는 DCT 계수와의 차이 값을 복수의 비트평면으로 분해하는 단계를 포함하는 비디오 인코딩 방법.
  31. 입력된 비트스트림에 포함되는 텍스쳐 정보를 역 양자화하는 단계;
    상기 역 양자화된 값에 대하여 DCT 블록 별로 역 DCT 변환을 수행하는 단계;
    상기 역 DCT 변환된 값에 대하여 역 웨이블릿 변환을 수행하는 단계를 포함하는데,
    상기 역 웨이블릿 변환시 최하위 서브밴드 이미지의 가로 크기 및 세로 크기 는 상기 DCT 블록의 크기의 정수 배수가 되는 이미지 디코딩 방법.
  32. 입력된 비트스트림에 포함되는 텍스쳐 정보를 역 양자화하는 단계;
    상기 역 양자화된 값에 대하여 DCT 블록 별로 역 DCT 변환을 수행하는 단계;
    상기 역 DCT 변환된 값에 대하여 역 웨이블릿 변환을 수행하는 단계; 및
    상기 역 웨이블릿 변환된 값 및 상기 비트스트림에 포함되는 모션 정보를 이용하여 비디오 시퀀스를 복원하는 단계를 포함하는데,
    상기 역 웨이블릿 변환시 최하위 서브밴드 이미지의 가로 크기 및 세로 크기는 상기 DCT 블록의 크기의 정수 배수가 되는 비디오 디코딩 방법.
  33. 입력된 비트스트림에 포함되는 텍스쳐 정보를 역 양자화하는 단계;
    상기 역 양자화된 값에 대하여 DCT 블록 별로 역 DCT 변환을 수행하는 단계;
    상기 비트스트림에 포함되는 모드 정보가 제1 모드를 나타내는 경우에는 상기 역 DCT 변환된 결과 값과 상기 비트스트림에 포함되는 모션 정보를 이용하여 비디오 시퀀스를 복원하는 단계;
    상기 모드 정보가 제2 모드를 나타내는 경우에는 상기 역 DCT 변환 모듈로부터 전달되는 값에 대하여 역 웨이블릿 변환을 수행하고, 상기 역 웨이블릿 변환된 결과 값 및 상기 모션 정보를 이용하여 비디오 시퀀스를 복원하는 단계를 포함하는 비디오 디코딩 방법.
KR1020040092821A 2004-10-21 2004-11-13 비디오 코딩 방법 및 장치 KR100664932B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2005/002910 WO2006043750A1 (en) 2004-10-21 2005-09-02 Video coding method and apparatus
US11/247,147 US20060088222A1 (en) 2004-10-21 2005-10-12 Video coding method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US62033004P 2004-10-21 2004-10-21
US60/620,330 2004-10-21

Publications (2)

Publication Number Publication Date
KR20060035539A KR20060035539A (ko) 2006-04-26
KR100664932B1 true KR100664932B1 (ko) 2007-01-04

Family

ID=37144092

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020040092821A KR100664932B1 (ko) 2004-10-21 2004-11-13 비디오 코딩 방법 및 장치
KR1020040099952A KR100664928B1 (ko) 2004-10-21 2004-12-01 비디오 코딩 방법 및 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020040099952A KR100664928B1 (ko) 2004-10-21 2004-12-01 비디오 코딩 방법 및 장치

Country Status (2)

Country Link
US (2) US20060088222A1 (ko)
KR (2) KR100664932B1 (ko)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE543179T1 (de) 2002-09-04 2012-02-15 Microsoft Corp Entropische kodierung mittels anpassung des kodierungsmodus zwischen niveau- und lauflängenniveau-modus
KR20060088461A (ko) * 2005-02-01 2006-08-04 엘지전자 주식회사 영상신호의 엔코딩/디코딩시에 영상블록을 위한 모션벡터를베이스 레이어 픽처의 모션벡터로부터 유도하는 방법 및장치
US7702161B2 (en) * 2005-10-28 2010-04-20 Aspeed Technology Inc. Progressive differential motion JPEG codec
EP2950544B1 (en) 2006-01-09 2019-03-27 Matthias Narroschke Adaptive coding of the prediction error in hybrid video coding
KR100772391B1 (ko) * 2006-01-23 2007-11-01 삼성전자주식회사 직교 변환 및 벡터 양자화에 기반한 동영상 부호화 및복호화 방법과 이를 이용한 장치
KR100827708B1 (ko) * 2006-08-11 2008-05-07 엠텍비젼 주식회사 화질 개선 장치, 비디오 인코더 및 영상 신호 변환 방법
CN100448296C (zh) * 2006-08-18 2008-12-31 哈尔滨工业大学 基于db2小波的可伸缩性视频编解码方法
JP4816328B2 (ja) * 2006-08-24 2011-11-16 富士ゼロックス株式会社 画像処理システム、画像圧縮システム、画像編集システム、画像処理プログラムおよび画像処理装置
KR100835661B1 (ko) * 2006-12-07 2008-06-09 부산대학교 산학협력단 다수 필터 결정법을 이용한 동영상 압축 부호화 장치 및방법
US8208554B2 (en) * 2006-12-07 2012-06-26 Qualcomm Incorporated Line-based video compression
KR100848816B1 (ko) * 2007-01-29 2008-07-28 경희대학교 산학협력단 정수 dct를 이용한 영상 이미지의 크기 변환 방법
US8228993B2 (en) * 2007-04-06 2012-07-24 Shalini Priti System and method for encoding and decoding information in digital signal content
KR101370286B1 (ko) * 2007-04-06 2014-03-06 삼성전자주식회사 레지듀얼 블록의 변형을 이용한 영상 부호화, 복호화 방법및 장치
KR100898058B1 (ko) * 2007-07-09 2009-05-19 중앙대학교 산학협력단 Dct 계수와 dwt 계수의 상호변환장치 및 방법
US8798133B2 (en) 2007-11-29 2014-08-05 Koplar Interactive Systems International L.L.C. Dual channel encoding and detection
US8179974B2 (en) * 2008-05-02 2012-05-15 Microsoft Corporation Multi-level representation of reordered transform coefficients
KR101489785B1 (ko) * 2008-07-22 2015-02-06 에스케이 텔레콤주식회사 웨이블렛 변환 계수 부호화를 위한 적응적 필터 탭 결정장치와 방법, 그것을 이용한 웨이블렛 변환 장치와 방법,및 그를 위한 기록 매체
US8406307B2 (en) 2008-08-22 2013-03-26 Microsoft Corporation Entropy coding/decoding of hierarchically organized data
CN102474625A (zh) 2009-07-23 2012-05-23 瑞典爱立信有限公司 用于图像的编码和解码的方法和设备
KR101418101B1 (ko) * 2009-09-23 2014-07-16 에스케이 텔레콤주식회사 저주파수 성분을 고려한 영상 부호화/복호화 방법 및 장치
KR101457894B1 (ko) * 2009-10-28 2014-11-05 삼성전자주식회사 영상 부호화 방법 및 장치, 복호화 방법 및 장치
AU2015201330C1 (en) * 2009-10-28 2016-09-08 Samsung Electronics Co., Ltd. Method and apparatus for encoding residual block, and method and apparatus for decoding residual block
KR20110065089A (ko) * 2009-12-09 2011-06-15 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
CN104618727B (zh) * 2009-12-10 2018-01-12 Sk电信有限公司 使用树形结构的解码方法
WO2012017514A1 (ja) * 2010-08-02 2012-02-09 富士通株式会社 画像処理装置、画像処理プログラム及び画像処理方法
US8810565B2 (en) * 2010-08-27 2014-08-19 Broadcom Corporation Method and system for utilizing depth information as an enhancement layer
US9832540B2 (en) 2010-12-15 2017-11-28 Hulu, LLC Method and apparatus for hybrid transcoding of a media program
US10390046B2 (en) * 2011-11-07 2019-08-20 Qualcomm Incorporated Coding significant coefficient information in transform skip mode
US9116928B1 (en) * 2011-12-09 2015-08-25 Google Inc. Identifying features for media file comparison
CN104641644A (zh) * 2012-05-14 2015-05-20 卢卡·罗萨托 基于沿时间的样本序列的混合的编码和解码
WO2013187060A1 (ja) * 2012-06-12 2013-12-19 パナソニック株式会社 動画像符号化方法、動画像復号化方法、動画像符号化装置および動画像復号化装置
CN104704827B (zh) * 2012-11-13 2019-04-12 英特尔公司 用于下一代视频的内容自适应变换译码
WO2014120369A1 (en) 2013-01-30 2014-08-07 Intel Corporation Content adaptive partitioning for prediction and coding for next generation video
US10523937B2 (en) * 2013-07-19 2019-12-31 Intel Corporation Method for noise shaping and a noise shaping filter
US9398312B2 (en) 2013-11-04 2016-07-19 Samsung Display Co., Ltd. Adaptive inter-channel transform for wavelet color image compression
US9444548B1 (en) * 2014-10-15 2016-09-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Wavelet-based processing for fiber optic sensing systems
TWI644565B (zh) * 2017-02-17 2018-12-11 陳延祚 視訊影像處理方法及其相關系統
MX2022006718A (es) * 2019-12-11 2022-07-12 Sony Group Corp Dispositivo de procesamiento de imagenes, metodo de generacion de flujo de bits, metodo de generacion de datos de coeficiente y metodo de generacion de coeficiente de cuantificacion.
US11601135B2 (en) * 2020-02-27 2023-03-07 BTS Software Solutions, LLC Internet of things data compression system and method
CN115280769A (zh) * 2020-03-12 2022-11-01 交互数字Vc控股法国公司 用于视频编码和解码的方法和设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0171119B1 (ko) * 1995-04-29 1999-03-20 배순훈 웨이브렛 변환을 이용한 영상 부호화 장치
JP3204645B2 (ja) 1997-12-31 2001-09-04 エルジー電子株式会社 映像符号化及び復号化方法並びにその装置
US20020118742A1 (en) * 2001-02-26 2002-08-29 Philips Electronics North America Corporation. Prediction structures for enhancement layer in fine granular scalability video coding
KR100381204B1 (ko) 2000-12-29 2003-04-26 (주) 멀티비아 칼라 정지영상의 부호화 및 복호화 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5235420A (en) * 1991-03-22 1993-08-10 Bell Communications Research, Inc. Multilayer universal video coder
US5610657A (en) * 1993-09-14 1997-03-11 Envistech Inc. Video compression using an iterative error data coding method
US6269192B1 (en) * 1997-07-11 2001-07-31 Sarnoff Corporation Apparatus and method for multiscale zerotree entropy encoding
EP1114555A1 (en) * 1999-07-20 2001-07-11 Koninklijke Philips Electronics N.V. Encoding method for the compression of a video sequence
EP1338148A1 (en) * 2000-11-17 2003-08-27 Koninklijke Philips Electronics N.V. Video coding method using a block matching process
US6947486B2 (en) * 2001-03-23 2005-09-20 Visioprime Method and system for a highly efficient low bit rate video codec
KR100529540B1 (ko) * 2003-01-07 2005-11-17 주식회사 이시티 웨이블릿 변환을 이용한 영상압축방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0171119B1 (ko) * 1995-04-29 1999-03-20 배순훈 웨이브렛 변환을 이용한 영상 부호화 장치
JP3204645B2 (ja) 1997-12-31 2001-09-04 エルジー電子株式会社 映像符号化及び復号化方法並びにその装置
KR100381204B1 (ko) 2000-12-29 2003-04-26 (주) 멀티비아 칼라 정지영상의 부호화 및 복호화 방법
US20020118742A1 (en) * 2001-02-26 2002-08-29 Philips Electronics North America Corporation. Prediction structures for enhancement layer in fine granular scalability video coding

Also Published As

Publication number Publication date
KR20060035541A (ko) 2006-04-26
KR100664928B1 (ko) 2007-01-04
KR20060035539A (ko) 2006-04-26
US20060088222A1 (en) 2006-04-27
US20060088096A1 (en) 2006-04-27

Similar Documents

Publication Publication Date Title
KR100664932B1 (ko) 비디오 코딩 방법 및 장치
KR100876066B1 (ko) 신호 코딩 방법, 신호 디코딩 방법, 메모리 매체, 코더 및 디코더
KR100703724B1 (ko) 다 계층 기반으로 코딩된 스케일러블 비트스트림의비트율을 조절하는 장치 및 방법
US6898324B2 (en) Color encoding and decoding method
US20050166245A1 (en) Method and device for transmitting scalable video bitstream
US20050152611A1 (en) Video/image coding method and system enabling region-of-interest
US6931068B2 (en) Three-dimensional wavelet-based scalable video compression
US20050163224A1 (en) Device and method for playing back scalable video streams
US20050157794A1 (en) Scalable video encoding method and apparatus supporting closed-loop optimization
US20060013311A1 (en) Video decoding method using smoothing filter and video decoder therefor
JP2006521039A (ja) オーバコンプリートウェーブレット展開での動き補償時間フィルタリングを使用した3次元ウェーブレットビデオ符号化
KR20050028019A (ko) 하나 및 다수의 기준 프레임을 기반으로 한 움직임 보상필터링을 사용한 웨이블릿 기반 코딩
US20180302650A1 (en) Moving image decoding apparatus, moving image decoding method, moving image encoding apparatus, moving image encoding method and computer-readable storage medium
US20060159173A1 (en) Video coding in an overcomplete wavelet domain
Kharate et al. Selection of mother wavelet for image compression on basis of image
US8331708B2 (en) Method and apparatus for a multidimensional discrete multiwavelet transform
US20050244068A1 (en) Encoding method, decoding method, encoding device, and decoding device
van der Vleuten et al. Low-complexity scalable DCT image compression
KR20050049517A (ko) 웨이블릿 기반의 부호화에서 운동 보상된 시간적 필터링을위한 필터링된 영역과 비필터링된 영역 모두를 갖는엘-프레임
US20070110162A1 (en) 3-D morphological operations with adaptive structuring elements for clustering of significant coefficients within an overcomplete wavelet video coding framework
WO2006043750A1 (en) Video coding method and apparatus
Young Software CODEC algorithms for desktop videoconferencing
WO2006080665A1 (en) Video coding method and apparatus
Pang et al. Wavelet-based Region-of-Interest Video Coding

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121129

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20131128

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20141127

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee