KR19980074795A - Image Coding Method Using Global-Based Color Correlation - Google Patents

Image Coding Method Using Global-Based Color Correlation Download PDF

Info

Publication number
KR19980074795A
KR19980074795A KR1019970010779A KR19970010779A KR19980074795A KR 19980074795 A KR19980074795 A KR 19980074795A KR 1019970010779 A KR1019970010779 A KR 1019970010779A KR 19970010779 A KR19970010779 A KR 19970010779A KR 19980074795 A KR19980074795 A KR 19980074795A
Authority
KR
South Korea
Prior art keywords
image
factor
global
block
local
Prior art date
Application number
KR1019970010779A
Other languages
Korean (ko)
Other versions
KR100231925B1 (en
Inventor
조성현
정대권
이종호
곽노윤
Original Assignee
윤종용
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤종용, 삼성전자 주식회사 filed Critical 윤종용
Priority to KR1019970010779A priority Critical patent/KR100231925B1/en
Publication of KR19980074795A publication Critical patent/KR19980074795A/en
Application granted granted Critical
Publication of KR100231925B1 publication Critical patent/KR100231925B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 전역 기반 색도 상관성을 이용한 영상 부호화 방법에 관한 것으로, 영상의 전역적인 특성과 국부적인 특성을 반영하면서 직접적으로 스펙트럴 중복성을 제거할 수 있는 전역 기반 영상 부호화 방법을 제공함에 그 목적이 있다.An object of the present invention is to provide a global-based image coding method capable of directly eliminating spectral redundancy while reflecting the global characteristics and local characteristics of an image .

이와 같은 본 발명의 목적을 달성하기 위해, 기준 영상에 대한 웨이브렛 변환 과정에서 발생되는 고주파 계수를 이용하여 가변 블럭 정보를 작성하며, 각각의 블럭에 대한 비례 인자 및 차감 인자의 값들에 대한 분산값을 낮추기 위해 프레임 단위로 기준 영상과 추정 대상 영상간의 오차인 전역 오차가 최소가 되도록 하는 전역 비례 인자와 전역 가감 인자를 산출한 후, 이를 상기 기준 영상에 적용하여 갱신 기준 복호 영상을 구한 다음에 블럭 가변 정보에 따라 상기 갱신 기준 복호 영상과 상기 추정 대상 영상간의 오차인 국부 오차가 최소가 되도록 하는 국부 비례 인자와 국부 가감 인자를 가변 블럭 기반으로 산출하여 색영상을 부호화하는 본 발명에 의한 전역 기반 색도 상관성을 이용한 칼라 영상 부호화 방법에 따르면, 국부 비례 인자와 국부 가감 인자를 부호화하기 위해 할당하는 비트를 경감시키고, 동시에 부호 대상 영상의 전역적인 특성과 국부적인 특성을 영상 부호화에 적응적으로 반영시킬 수 있다.In order to achieve the object of the present invention, variable block information is generated by using high-frequency coefficients generated in a wavelet transform process for a reference image, and variance values for values of a proportional factor and a subtractor factor for each block A global proportional factor and a global weighting factor for minimizing a global error, which is an error between a reference image and an estimation target image, are calculated on a frame-by-frame basis, and then the global proportional factor and the global enhancement factor are applied to the reference image, A global-based chromaticity-based color coding method according to the present invention for encoding a color image by calculating a local proportional factor and a local enhancement factor on the basis of a variable block so that a local error, which is an error between the update reference decoded image and the estimated object image, According to the color image coding method using the correlation, the local proportional factor and the local part It is possible to alleviate the bits allocated for coding the reduction factor and at the same time adaptively reflect the global characteristics and the local characteristics of the object image to be encoded.

Description

전역 기반 색도 상관성을 이용한 영상 부호화 방법.Image Coding Method Using Global - Based Color Correlation.

본 발명은 전역 기반 색도 상관성을 이용한 영상 부호화 방법에 관한 것으로, 더욱 상세하게는 비트 할당의 효율성을 확보하기 위해 프레임 단위로 기준 영상과 추정 대상 영상간의 오차가 최소가 되도록 하는 전역 비례 인자(global scale factor)와 전역 가감 인자(global offset factor)를 산출한 후, 이를 상기 기준 영상에 적용하여 갱신 기준 복호 영상을 구한 다음에 검색 테이블의 블럭 가변 정보에 따라 상기 갱신 기준 복호 영상과 상기 추정 대상 영상간의 오차인 국부 오차가 최소가 되도록 하는 국부 스트레칭 정보인 국부 비례 인자(local scale factor)와 슬라이싱 정보인 국부 가감 인자(local offset factor)를 가변 블럭 기반으로 산출하여 색영상을 부호화하는 전역 기반 색도 상관성을 이용한 칼라 영상 부호화 방법에 관한 것이다.The present invention relates to a method of encoding an image using global-based chromaticity correlation, and more particularly, to a method of encoding an image using a global scale and a global offset factor are applied to the reference image to obtain an update reference decoded image, and then the update reference decoded image is obtained by using the update reference decoded image and the estimated object image Based color correlation that calculates a local scale factor, which is a local stretch information, and a local offset factor, which is a slicing information, on a variable block basis to encode a color image, And a color image encoding method using the same.

1990년대에 들어오면서 멀티미디어에 대한 관심이 급격히 증대되기 시작했다. 이는 기존의 컴퓨터 산업과 통신 산업, 그리고 방송과 영화 산업들간의 경계가 허물어지고, 종래의 각 분야의 특징으로 인식되었던 요소들이 다른 분야들로 확대·통합되는 현상의 결과라 할 수 있다.In the 1990s, interest in multimedia began to grow rapidly. This is the result of the fact that the boundaries between the existing computer industry, the telecommunications industry, and the broadcasting and film industries have been broken down and the factors that have been recognized as features of each conventional field have been expanded and integrated into other fields.

즉, 비디오, 음성, 통신 등을 지원하는 멀티미디어 컴퓨터가 개인용 컴퓨터 시장을 주도하고 있고, 주문형 비디오(VOD; Video On Demand)와 같은 상호 작용성(interactivity)이 높은 비디오의 서비스가 통신 산업과 영화 산업의 주요한 관심사가 되고 있다.That is, a multimedia computer supporting video, voice, and communication leads the personal computer market, and a highly interactive video service such as video on demand (VOD) Has become a major concern.

이러한 멀티미디어에 대한 관심의 증대는 낮은 전송 속도에서도 좋은 화질을 얻을 수 있는 가변 블럭 기반 영상 부호화 방법에 대한 관심과 필요성을 급속도로 증대시키고 있다. 이에 따라, 국제 표준화 그룹인 MPEG(Moving Picture Experts Group) 위원회에서는 MPEG-1(Moving Picture Experts Group-1), MPEG-2(Moving Picture Experts Group-2)에 이어 8kbps에서 약 64kbps까지의 전송율로 비디오와 오디오를 전송하기 위한 MPEG-4(Moving Picture Experts Group-4)의 표준화 작업을 진행 중이다.The increase of interest in multimedia rapidly increases the interest and necessity of variable block - based image coding method which can obtain good image quality even at low transmission speed. As a result, the Moving Picture Experts Group (MPEG) committee, an international standardization group, has succeeded the Moving Picture Experts Group 1 (MPEG-1) and Moving Picture Experts Group 2 (MPEG-2) And Moving Picture Experts Group-4 (MPEG-4) for transmitting audio.

MPEG-4는 주문형 비디오, 차세대 이동 통신, 화상 전화 등의 멀티미디어 분야에 적용하기에 용이하도록 정의된 디지털 비디오와 오디오의 통신(communication), 접근(access), 그리고 조작(manipulation)에 관한 표준으로, 현재 이에 대한 표준화가 많은 진전을 보고 있는 중인데, 종래의 H.261이나 MPEG-1, MPEG-2 등에서 이용되었던 단순한 블럭 중심의 부호화가 아닌 영상의 내용을 고려하는(content-based) 부호화 방식이 채택될 가능성이 높다.MPEG-4 is a standard for communication, access, and manipulation of digital video and audio defined for ease of application in multimedia applications such as video on demand, next generation mobile communications, Currently, there is a lot of progress toward standardization, but there is a content-based encoding scheme that is not based on simple block-based encoding used in conventional H.261, MPEG-1, MPEG-2, .

종래의 MPEG-1, MPEG-2의 경우에는 영상의 수학적 통계 특성을 이용한 블럭(block) 또는 매크로 블럭(macro block) 단위의 이산 여현 변환(DCT; Discrete Cosine Transform) 부호화와 움직임 추정/보상(Motion Estimation/Compensation)을 이용하여 40:1 정도의 압축율을 얻을 수 있고, 영상 전화 등의 한정된 응용을 고려하여 약간의 화질 저하를 감수하는 H.261의 경우는 최대로 240:1 정도의 압축율을 얻는 것이 가능하지만, MPEG-4는 8kbps에서 약 64kbps까지의 전송율에서 종래의 H.261과 유사한 화질을 얻고자 하기 때문에 추가적인 압축을 필요로 하게 된다.In the case of the conventional MPEG-1 and MPEG-2, discrete cosine transform (DCT) coding and motion estimation / compensation using a mathematical statistical characteristic of an image on a block or macro block basis, Estimation / Compensation) to obtain a compression ratio of about 40: 1. In the case of H.261, which takes slight image quality degradation considering limited applications such as video telephony, a compression ratio of about 240: 1 However, MPEG-4 requires additional compression because it wants to obtain a picture quality similar to the conventional H.261 at a transmission rate of 8 kbps to about 64 kbps.

그러나, 종래의 영상 표준 기법들을 최대한 최적화한다 하더라도 2:1 정도의 추가 압축 이상은 불가능할 것으로 판단되고 있는 바, MPEG-4는 이와 같은 문제를 극복하면서 동시에 화질 평가의 주체인 인간 시각에 적합한 영상을 재구성하기 위해, 인간 시각 시스템(HVS; Human Visual System)을 적극적으로 활용할 수 있는 영상 부호화, 즉, 객체 기반 부호화(object-based coding), 분할 기반 부호화(segmentation-based coding), 모델 기반 부호화(model-based coding), 프랙탈 부호화(fractal coding) 등과 같은 제 2 세대 부호화 기법들을 핵심 부호화 기법으로 채택할 가능성이 높다.However, even if the conventional video standard techniques are optimized as much as possible, it is judged that an additional compression of about 2: 1 is not possible. Thus, MPEG-4 overcomes such a problem and at the same time, In order to reconstruct the image data, an image-based coding, a segmentation-based coding, and a model-based coding (HVS), which can positively utilize a human visual system (HVS) generation coding techniques such as -based coding and fractal coding are likely to be adopted as key coding techniques.

현재로서는 제 2 세대 부호화 기법들과 더불어 벡터 양자화(vector quantization), 서브밴드 부호화(subband coding), 움직임 보상 이산 여현 변환 (MC-DCT; Motion Compensated Discrete Cosine Transform) 부호화 등의 제 1 세대 부호화 기법들도 복합적으로 연구되고 있다.At present, first-generation coding techniques such as vector quantization, sub-band coding, and motion compensated discrete cosine transform (MC-DCT) coding, as well as second- Are also being studied in a complex way.

상기와 같은 영상 부호화에 대한 현추세에 비추어 볼 때, 색영상 부호화를 수행함에 있어서도 최근의 요구에 부응하기 위해서는 추가적인 압축이 이루어져야 함이 명백하다.In view of the current trend of image encoding as described above, it is clear that additional compression must be performed in order to meet the recent demand in color image encoding.

이하, 이와 같은 기술적인 추이를 반영하는 본 발명에 대한 이해를 돕고자 표색계에 대한 설명을 간략하게 기술하기로 한다.Hereinafter, an explanation of the colorimetric system will be briefly described in order to facilitate understanding of the present invention that reflects such technological trends.

임의의 색은 삼원색의 혼합에 의해 등색 조건을 만족하는 삼원색의 양을 수량적으로 정의할 수 있는 데, 이것을 표색(color specification)이라 한다.An arbitrary color can quantitatively define the amount of the three primary colors satisfying the toning conditions by mixing three primary colors, which is called a color specification.

1931년에 국제 조명 위원회(CIE; Commission International de l'Eclairage)는 파장이 440∼545nm인 범위에서 적색(R)의 값이 부(-)값을 갖는 RGB 표색계의 불편함을 개선하고자 파장이 각각 700nm(적), 546.1nm(녹), 435.8nm(청)의 스펙트럼 색을 삼원색으로 하는 XYZ 표색계를 정의하였다.In 1931, the Commission International de l'Eclairage (CIE) decided to improve the inconvenience of the RGB color system in which the value of red (R) is negative in the wavelength range of 440 to 545 nm, An XYZ colorimetric system was defined in which the spectral color of 700 nm (red), 546.1 nm (green), and 435.8 nm (blue) are the three primary colors.

즉, CIE의 XYZ 표색계는 새로운 원색 X, Y, Z를 선택, 부량을 제거하고 새로운 삼원색이 만든 삼각형이 스펙트럼 색 궤적을 모두 내측에 포함하도록 삼원색을 선정하는 데, 이와 같은 삼원색은 비현실적인 가상 원색이다.That is, the XYZ colorimetric system of CIE selects new primary colors X, Y, and Z, removes the quantities, and selects the primary colors so that the triangles formed by the new primary colors include all the spectral color trajectories inside. Such three primary colors are unrealistic virtual primary colors .

XYZ 표색계의 각 원색은 가상적인 것이므로 다음과 같은 조건이 만족되도록 선정한다.Since each primary color of the XYZ color system is a virtual one, the following conditions are satisfied.

모든 색을 원색의 정량 혼합에 의해 등색화할 수 있을 것, 즉, X, Y, Z 원색에 의한 삼각형이 스펙트럼을 에워쌀 것이며, 휘도가 영(zero)인 RGB 공간의 평면상에 위치하도록 X, Z 원색을 선정할 것, 즉, Y 원색만이 휘도에 관한 자격값(stimulus)을 갖는 반면, X, Z 원색은 색상과 채도만을 갖는다는 것이다.It is assumed that all the colors can be equalized by quantitative mixing of the primary colors, that is, triangles of X, Y, Z primary colors will surround the spectrum and X, Y, We choose a Z primary, that is, only Y primary colors have a stimulus for luminance, while X and Z primary colors have only hue and saturation.

이때, 표색계 변환식은 수학식 1과 같으며,At this time, the color system conversion equation is as shown in Equation (1)

[수학식 1][Equation 1]

여기서,은 RGB 신호로 휘도 신호(Y)로 합성할 시에 이용되는 가장 대표적인 변환 관계식이 되고 있다.here, Is the most typical conversion relation used when synthesizing the luminance signal Y into an RGB signal.

이하, 종래 기술에 따른 가변 블럭 기반 영상 부호화 방법에 대하여 기존의 영상 표준들을 중심으로 하여 간략하게 설명하면 다음과 같다.Hereinafter, a variable block-based image coding method according to the related art will be briefly described with reference to existing video standards.

잘 알려진 바와 같이, 인간의 시감 특성상, 색도 신호는 휘도 신호(luminance; Y)에 비해 시각적으로 둔감하며, 동일 영상의 색영상간에는 높은 색도 상관성(color intensity correlation)이 존재한다는 사실은 당분야의 연구자에게는 통상의 지식이다.As is well known, the chromaticity signal is visually insensitive to the luminance signal (Y), and the fact that there is a high color intensity correlation between color images of the same image, It is common knowledge to.

이와 같은 사실을 색영상 부호화에 반영시키기 위해 MPEG-1, MPEG-2, JPEG(Joint Picture Experts Group), FCC/HDTV(Federal Communication Committee/High Definition Television), H.261, H.263 등으로 대표되는 기존의 영상 부호화 표준들에서는 휘도 신호(Y)와 색차 신호(chrominance; Cb, Cr)를 이용하여 색영상을 부호화하고 있는 데, 상기한 영상 표준들에 있어서, 휘도 신호(Y)와 색차 신호(chrominance; Cb, Cr)간의 관계는Representations such as MPEG-1, MPEG-2, JPEG (Joint Picture Experts Group), FCC / HDTV (Federal Communications Committee / High Definition Television), H.261 and H.263 Conventional image encoding standards encode a color image using a luminance signal Y and chrominance signals Cb and Cr. In the above-described image standards, a luminance signal Y and a color- (chrominance; Cb, Cr)

[수학식 2]&Quot; (2) "

수학식 2와 같다.(2) "

여기서, R,G,B는 각각 적색 영상(R), 녹색 영상(G), 청색 영상(B)의 화소값이며, Y는 상기한 R,G,B 신호에 의해 합성되는 휘도 영상(Y)의 화소값이고,은 각각 청색 영상(B)과 휘도 영상(Y)간의 색차 신호이고,은 적색 영상(R)과 휘도 영상(Y)간의 색차 신호를 나타내는 것이다.Here, R, G and B are the pixel values of the red image R, the green image G and the blue image B, respectively. Y is the luminance image Y synthesized by the R, G and B signals, Lt; / RTI > Are color difference signals between the blue image B and the luminance image Y, respectively, Represents a color difference signal between the red image R and the luminance image Y. [

일반적인 색영상에 있어서, 각 색영상간의 색도 상관성은 수학식 2의 변환 관계식을 인용하여 살펴보지 않더라도 도 1a~도 1d에서 살펴볼 수 있듯이, 육안을 통해 공간 영역에서 용이하게 인지될 수 있을 정도로 높다.In the general color image, the chromaticity correlation between the respective color images is high enough to be easily perceivable in the spatial domain through the naked eye, as can be seen from Figs. 1A to 1D, without examining the conversion relation of the equation (2).

이때, 도 1a는 대표적인 시험 영상(test image)인 탁구 영상(Table Tennis Image)의 휘도 신호를 그레이 레벨(gray level)로 표현한 영상, 도 1b는 탁구 영상의 적색 신호를 그레이 레벨로 표현한 영상, 도 1c는 탁구 영상의 녹색 신호를 그레이 레벨로 표현한 영상, 도 1d는 탁구 영상의 청색 신호를 그레이 레벨로 표현한 영상이다.1B is a diagram showing a gray level representation of a red signal of a table tennis image, and FIG. 1B is a diagram showing a gray level of a red signal of a table tennis image. 1c is an image in which a green signal of a table tennis image is expressed by a gray level, and FIG. 1d is an image in which a blue signal of a table tennis image is expressed by a gray level.

이와 같은 사실을 영상 부호화에 반영하기 위해 MPEG-1, MPEG-2, JPEG, FCC/HDTV, H.261, H.263 등과 같은 종래의 영상 부호화 표준들에서는 휘도 신호(Y)와 부표본화(subsampling)된 색차 신호(chrominance; Cb, Cr)를 이산 여현 변환(DCT)을 통해 부호화함으로써 부호화 대상 영상에 내재하는 스펙트럴 중복성(spectral redundancy)을 일정 부분 제거하고 있는 데, 즉,의 비율이 4:2:0, 4:2:2, 4:4:4 등으로 대표되는 표본화 주파수비에 따라 색차 신호에 대한 저해상도적인 분석을 통해 부호화 대상이 되는 영상 데이터를 압축시키고 있다.Conventional image coding standards such as MPEG-1, MPEG-2, JPEG, FCC / HDTV, H.261, H.263 and the like are used to reflect the above facts in the image encoding, (Cb, Cr) by performing DCT on the chrominance signal, thereby removing a certain amount of spectral redundancy inherent in the image to be encoded. That is, The image data to be encoded is compressed through a low-resolution analysis of color-difference signals according to a sampling frequency ratio represented by 4: 2: 0, 4: 2: 2, 4: 4:

이에 대한 좀 더 상세한 설명은 ISO/IEC JTC1/SC29/WG11, 'Coding of Moving Pictures and Associated Audio'를 참조하기로 하며, 더 이상의 설명을 약하기로 한다.For a more detailed description, reference is made to ISO / IEC JTC1 / SC29 / WG11, 'Coding of Moving Pictures and Associated Audio'.

그러나, 이와 같은 종래의 가변 블럭 기반 영상 부호화 방법은 스펙트럴 중복성을 직접적으로 제거하는 방식이라기 보다는 색차 신호에 대한 부표본화에 입각하여 저해상도적인 분석을 통해 부호화 대상이 되는 데이터를 줄이고자 하는 가변 블럭 기반 영상 부호화 방법임에 따라 부호화된 색영상에는 여전히 많은 스펙트럴 중복성이 잔존하는 문제가 있기 때문에 이를 좀 더 효과적으로 제거하여 부호화 효율을 높일 수 있는 영상 부호화의 등장이 기대되고 있었다.However, such a conventional variable block-based image coding method is not a method for directly eliminating spectral redundancy, but rather a variable block based on low-resolution analysis based on negative sampling of a color difference signal to reduce data to be encoded There is still a problem that many spectral redundancies still remain in the encoded color image due to the image encoding method. Therefore, it has been expected that the image encoding that can increase the encoding efficiency more effectively by removing the spectral redundancy.

이에 따라, 본 발명의 출원인은 동일 영상의 색영상간에 내재한 스펙트럴 중복성을 제거함으로써 부호화 효율을 향상시키는 가변 블럭 기반 영상 부호화 방법에 있어서, 상기 동일 영상의 휘도 영상(Y), 적색 영상(R), 녹색 영상(G), 청색 영상(B) 중 어느 한 영상을 기준 영상으로 정하고 부호화를 통해 기준 영상 데이터를 발생한 후, 복호하여 기준 복호 영상을 만들며, 나머지 영상들 중에서 두 영상을 선택하여 두 영상 중 한 영상을 제 1 추정 대상 영상으로 설정하고 또 다른 한 영상을 제 2 추정 대상 영상으로 설정하여 상기 기준 복호 영상과 제 1 추정 대상 영상 간의 최소 자승 오차(least square error)가 최소가 되도록 하는 스트레칭 정보인 제 1 비례 인자와 슬라이싱 정보인 제 1 가감 인자를 블럭 기반으로 추정하여 부호화하며, 상기 기준 복호 영상과 제 2 추정 대상 영상 간의 최소 자승 오차가 최소가 되도록 하는 스트레칭 정보인 제 2 비례 인자와 슬라이싱 정보인 제 2 가감 인자를 블럭 기반으로 추정하여 부호화하는 것이 특징으로 하는 대한 민국 특허 출원 번호 97-8423 스펙트럴 중복성을 이용한 영상 부호화 방법을 선출원한 바 있다.Accordingly, the applicant of the present invention has proposed a variable block-based image coding method for improving coding efficiency by eliminating the spectral redundancy inherent in color images of the same image, ), A green image (G), and a blue image (B) as a reference image, generates reference image data through encoding, decodes the reference image data to generate a reference decoded image, Wherein one of the images is set as a first estimation object image and another image is set as a second estimation object image so that a least square error between the reference decoding image and the first estimation object image is minimized And a first adder / subtracter, which is a slicing information, on a block basis and encodes the first adder and the second adder / 2 estimation method according to claim 1, characterized in that a second proportional factor, which is stretching information and a second additive factor, which are slicing information, A video encoding method using redundancy has been proposed.

그리고, 선출원된 대한 민국 특허 출원 번호 97-8423 스펙트럴 중복성을 이용한 영상 부호화 방법은 비례 인자와 가감 인자를 산출함에 있어 색도 상관성에 입각하여 스펙트럴 중복성을 일정 부분 제거하고 있으나, 고정된 블럭을 사용하여 비례 인자와 가감 인자를 부호화함에 따라 색도 상관성의 국부적인 특성을 좀 더 효과적으로 영상 부호화에 반영하지 못하는 문제가 대두되는 바, 이와 같은 문제를 해결하고자 본 발명의 출원인은 대한 민국 특허 출원 번호 97-9688 가변 블럭 기반 색도 상관성을 이용한 영상 부호화 방법을 선출원한 바 있다.In addition, the image coding method using the spectral redundancy of the prior Korean Republic Patent Application No. 97-8423 removes a certain amount of spectral redundancy based on the chromaticity correlation in calculating the proportional factor and the additive factor, but uses a fixed block The local characteristics of chromaticity correlation can not be more effectively reflected in the image encoding by the encoding of the proportional factor and the additive factor. In order to solve such a problem, the applicant of the present invention has applied the Korean Patent Application No. 97- 9688 image coding method using variable block-based chromaticity correlation has been proposed.

본 발명의 대한 이해를 돕고자 본 발명의 출원인에 의해 선출원된 대한 민국 특허 출원 번호 97-9688 가변 블럭 기반 색도 상관성을 이용한 영상 부호화 방법의 요지를 간략하게 살펴 보기로 한다.In order to facilitate understanding of the present invention, a brief description will be given of a method of coding an image using variable block-based chrominance correlation, Korean Patent Application No. 97-9688, filed by the applicant of the present invention.

일반적으로 동일 영상의 색영상 간의 색도 상관성은 저주파 성분을 상대적으로 많이 포함하고 있는 평탄 영역에서는 상관도가 높지만, 고주파 성분이 많은 영역 또는 윤곽 정보가 많은 영역, 즉, 고역 콘트라스트에 비례하는 정보가 많은 영역에서는 색도 상관도가 저하되는 특징이 있음에 따라 이러한 국부적인 특성을 영상 부호화에 적응적으로 반영할 수 있도록 비례 인자와 가감 인자를 추출하는 기본 단위인 블럭의 크기를 가변시킬 필요성이 있다.Generally, the chromaticity correlation between color images of the same image is highly correlated in a flat region including a relatively large number of low-frequency components, but is a region having a large number of high-frequency components or a region having a large amount of contour information, There is a need to vary the size of the block, which is a basic unit for extracting the proportional factor and the additive factor, so that the local characteristic can be adaptively reflected in the image encoding.

즉, 영상의 국부성을 고려하지 않고 비례 인자와 가감 인자를 추정하여 부호할 경우, 즉, 고정된 블럭을 사용할 경우에는 기준 영상과 추정 대상 영상간의 닮음성(similarity) 정도가 적은 영역에서 추정 성능이 극도로 떨어져 추정 복호 영상에 허용치 이상의 오차가 발생함으로써 시각적인 거부감을 야기시키는 문제가 있다.That is, in the case where the proportional factor and the additive factor are estimated and coded without considering the localness of the image, that is, when the fixed block is used, the estimation performance in the region where the degree of similarity between the reference image and the estimated object image is small There is a problem that an error more than an allowable value is generated in the estimated decoded image to cause a visual rejection.

이에 따라 선출원된 대한 민국 특허 출원 번호 97-9688 가변 블럭 기반 색도 상관성을 이용한 영상 부호화 방법은 대한 민국 특허 출원 번호 97-8423 스펙트럴 중복성을 이용한 영상 부호화 방법에 웨이블렛 변환을 통한 다중 해상도 분석 과정에서 도출되는 하나 이상의 계층에서 어느 한 계층의 상기 고주파 계수 데이터에 절대값을 취한 후, 동일 발생 기원을 갖는 수직 방향, 수평 방향, 대각선 방향의 고주파 계수들을 각각 화소 단위로 합산하여 비용 함수 데이터를 구성하는 비용 함수 데이터 구성 단계와, 상기 비용 함수 데이터의 모든값은 합산하여 평균한 전체 평균치를 구한 후, 상기 전체 평균치에 비례 상수를 곱하여 전체 임계치를 산출하는 전체 임계치 산출 단계와, 상기 비용 함수 데이터를 블럭 기반으로 합산하여 평균한 블럭 평균치를 구한 후, 상기 전체 임계치 보다 상기 블럭 평균치가 크면, 해당 블럭을 두 개 이상의 부블럭으로 분할하는 블럭 가변 정보를 래스터 스캐닝 순서로 상기 검색 테이블에 기록하는 제 1 블럭 분할 정보 작성 단계와, 상기 부블럭 데이터를 각각 합산하여 평균한 부블럭 평균치를 구한 후, 상기 전체 임계치 보다 상기 부블럭 평균치가 크면, 해당 부블럭을 두 개 이상의 서브 부블럭으로 분할하는 블럭 가변 정보를 래스터 스캐닝 순서로 상기 검색 테이블에 기록하는 제 2 블럭 분할 정보 작성 단계로 구성된 검색 테이블 작성 단계를 더 포함하여 상기 검색 테이블에 기록된 가변 블럭 정보에 따라 블럭의 크기를 가변적으로 설정하여 기준 영상과 추정 대상 영상 간의 오차가 최소가 되도록 하는 비례인자 및 가감 인자를 추정하여 색영상을 부호화함으로써 부호화 대상 영상의 국부적인 특성을 적응적으로 반영하면서 동시에 스펙트럴 중복성(spectral redundancy)을 효과적으로 제거하고 있다.Accordingly, Korean Patent Application No. 97-9688, filed by the Korean Republic of Patent No. 97-9688, discloses a method of encoding an image using variable block-based chrominance correlation in Korean Patent Application No. 97-8423, which is applied to an image coding method using spectral redundancy, Frequency components in the vertical direction, the horizontal direction, and the diagonal direction, which have the same origin, are summed in pixel units to obtain the cost function data A total threshold value calculation step of calculating a total average value by summing and averaging all values of the cost function data and then multiplying the total average value by a proportional constant to calculate a total threshold value; To obtain the average value of the blocks A first block division information creation step of, when the block average value is larger than the total threshold value, recording block variable information for dividing the block into two or more sub-blocks in the raster scanning order in the search table; Blocks are divided into two or more subblocks, and if the average value of the subblocks is greater than the total threshold value, the block variable information is divided into two or more subblocks, and the block variable information is recorded in the search table in the raster scanning order And a second block division information generation step, wherein the block size is variably set according to the variable block information recorded in the search table so that the error between the reference image and the estimation target image is minimized By encoding the color image by estimating the factor and the additive factor, The spectral redundancy is effectively removed while adaptively reflecting the local characteristics of the target image.

그러나, 본 발명의 출원인에 의해 선출원된 대한 민국 특허 출원 번호 97-8423 스펙트럴 중복성을 이용한 영상 부호화 방법 및 대한 민국 특허 출원 번호 97-9688 가변 블럭 기반 색도 상관성을 이용한 영상 부호화 방법은 각각의 블럭에 대한 비례 인자 및 차감 인자의 값들에 대한 분산값(variance)이 상대적으로 큼에 따라 각각의 블럭에 대한 비례 인자 및 차감 인자를 부호화하기 위해 많은 비트를 할당해야 함으로써 부호화 효율을 저하시키는 문제가 있다.However, the image coding method using the spectral redundancy of Korean Patent Application No. 97-8423, which was filed by the applicant of the present invention, and Korean Patent Application No. 97-9688, a variable block-based color correlation-based image coding method, There is a problem in that the coding efficiency is lowered because many bits are allocated for coding the proportional and subtracting factors for each block as the variance of the proportional and subtractor factors are relatively large.

따라서, 본 발명의 목적은 이와 같은 문제를 해결하기 위해, 같은 피사체를 촬상한 동일 영상의 색영상간에 내재한 스펙트럴 중복성(spectral redundancy)을 제거하여 부호화하는 영상 부호화 방법에 있어서, 기준 영상에 대한 웨이브렛 변환(wavelet transform) 과정에서 발생되는 고주파 계수를 이용하여 비용 함수 데이터를 생성하고, 이에 따라 가변 블럭 정보를 기록한 검색 테이블을 작성하며, 각각의 블럭에 대한 비례 인자 및 차감 인자의 값들에 대한 분산값을 낮추기 위해 프레임 단위로 기준 영상과 추정 대상 영상간의 오차가 최소가 되도록 하는 스트레칭 정보인 전역 비례 인자와 슬라이싱 정보인 전역 가감 인자(global offset factor)를 산출한 후, 이를 상기 기준 영상에 적용하여 갱신 기준 복호 영상을 구한 다음에 상기 검색 테이블의 블럭 가변 정보에 따라 상기 갱신 기준 복호 영상과 상기 추정 대상 영상간의 오차인 국부 오차가 최소가 되도록 하는 국부 스트레칭 정보인 국부 비례 인자(local scale factor)와 슬라이싱 정보인 국부 가감 인자(local offset factor)를 가변 블럭 기반으로 산출하여 색영상을 부호화함으로써 국부 비례 인자와 국부 가감 인자를 부호화하기 위해 할당하는 비트를 경감시키고, 동시에 부호 대상 영상의 전역적인 특성과 국부적인 특성을 영상 부호화에 적응적으로 반영할 수 있는 전역 기반 색도 상관성을 이용한 칼라 영상 부호화 방법을 제공함에 있다.SUMMARY OF THE INVENTION It is therefore an object of the present invention to provide an image coding method for eliminating the spectral redundancy inherent in the color image of the same image picked up by the same object, A cost function data is generated using a high frequency coefficient generated in a wavelet transform process, a search table in which variable block information is recorded is created, and a lookup table for a proportional factor and a deduction factor for each block is created In order to reduce the variance value, the global proportional factor, which is the stretching information and the global offset factor, which is the slicing information, is calculated so that the error between the reference image and the estimation target image is minimized on a frame-by-frame basis, And the block-variable information of the look-up table is obtained A local scale factor which is local stretch information and a local offset factor which is slicing information are calculated on a variable block basis so that a local error which is an error between the update reference decoded image and the estimated object image is minimized, A chroma image is coded to reduce the bits to be allocated for coding the local proportional factor and the local enhancement factor, and at the same time, a global-based chromaticity map capable of adaptively reflecting the global characteristic and the local characteristic of the target image to be encoded And a color image encoding method using correlation.

본 발명의 또 다른 목적은 전역 비례 인자 및 전역 가감 인자를 초저속 동영상 압축 분야 등과 같이 전송 용량에 제한을 받는 부호화 코덱에서 흐름 제어(flow control)를 위한 파라미터로 사용할 수 있는 전역 기반 색도 상관성을 이용한 칼라 영상 부호화 방법을 제공함에 있다.It is a further object of the present invention to provide a method and apparatus for decoding a video signal using a global-based chromaticity correlation, which can be used as a parameter for flow control in an encoding codec whose transmission capacity is limited, such as a global proportional factor and a global- And a color image encoding method.

도 1a는 탁구 영상(Table Tennis image)의 휘도 신호를 그레이 레벨로 표현한 영상도,FIG. 1A shows an image in which a luminance signal of a table tennis image is expressed by a gray level,

도 1b는 탁구 영상(Table Tennis image)의 적색 신호를 그레이 레벨로 표현한 영상도,FIG. 1B is an image showing a gray level of a red signal of a table tennis image,

도 1c는 탁구 영상(Table Tennis image)의 녹색 신호를 그레이 레벨로 표현한 영상도,FIG. 1C is a diagram showing a gray level representation of a green signal of a table tennis image,

도 1d는 탁구 영상(Table Tennis image)의 청색 신호를 그레이 레벨로 표현한 영상도,FIG. 1D is a diagram showing a gray level representation of a blue signal of a table tennis image,

도 2는 탁구 영상의 99 번째 프레임에 대한 웨이블렛 변환한 영상,FIG. 2 shows a wavelet-transformed image for a 99th frame of a table tennis image,

도 3 본 발명에 따른 전역 기반 색도 상관성을 이용한 영상 부호화 방법의 순서도.3 is a flowchart of a method of encoding an image using global-based chromaticity correlation according to the present invention.

도 4는 본 발명의 검색 테이블에 따라 탁구 영상을 블럭, 부블럭, 서브 부블럭으로 쿼드트리 분할한 예시도,FIG. 4 is a diagram illustrating a quad-tree partitioning of a table tennis image into blocks, subblocks, and subbubble blocks according to the search table of the present invention.

도 5는 2단계로 웨이브렛 변환한 수평 방향과 수직 방향 및 대각선 방향의 주파수 성분을 다중 해상도 분석 측면에서 도시한 예시도,FIG. 5 is an exemplary diagram illustrating frequency components in a horizontal direction, a vertical direction, and a diagonal direction, which are wavelet-transformed in two stages,

도 6a는 본 발명에 따른 전역 색도 상관성을 이용한 영상 부호화 장치의 부호화부를 나타낸 블럭도,FIG. 6A is a block diagram showing an encoding unit of an image encoding apparatus using global chromaticity correlation according to the present invention. FIG.

도 6b는 본 발명에 따른 전역 색도 상관성을 이용한 영상 부호화 장치의 복호화부를 나타낸 블럭도.6B is a block diagram illustrating a decoding unit of an image encoding apparatus using global chromaticity correlation according to the present invention.

<도면의주요부분에사용된부호의설명>DESCRIPTION OF REFERENCE NUMERALS used in main parts of the drawings

S100 : 영상 설정 단계 S110 : 기준/부호 대상 영상 결정 단계S100: image setting step S110: reference / code target image determination step

S120 : 웨이브렛 변환/역변환 단계 S200 : 검색 테이블 작성 단계S120: Wavelet transform / inverse transformation step S200: Search table creation step

S210 : 비용 함수 데이터 구성 단계 S220 : 전체 임계치 산출 단계S210: Cost function data configuration step S220: Overall threshold value calculation step

S230 : 제 1 블럭 분할 정보 작성 단계 S240 : 제 2 블럭 분할 정보 작성 단계S230: first block division information creation step S240: second block division information creation step

S300 : 전역 추정 부호/복호 단계 S310 : 전역 비례/가감 인자 추정 단계S300: global estimation coding / decoding step S310: global proportional /

S320 : 갱신 기준 영상 생성 단계S320: update reference image generation step

S330 : 전역 분할 판단 단계S330: Global segmentation determination step

S340 : 기준 복호 영상 갱신 설정 단계S340: Reference decoded image update setting step

S350 : 부전역 비례/가감 인자 추정 단계S350: Step of estimating the inverse proportional / additive factor

S360 : 제 1 최종 기준 영상 생성 단계S360: first final reference image generation step

S400 : 가변 블럭 추정 부호화 단계S400: Variable block estimation coding step

S410 : 가변 블럭 분할 단계S410: Variable block segmentation step

S420 : 제 1 가변 블럭 추정 부호화 단계S420: First Variable Block Estimation Encoding Step

S430 : 제 2 가변 블럭 추정 부호화 단계S430: second variable block estimation encoding step

S440 : 추정 부호화 완료 판단 단계S440: Estimation encoding completion determination step

S450 : 비례/가감 인자 집합 저장/전송 단계S450: Storing / transmitting the set of proportional /

S500 : 가변 블럭 추정 복호화 단계 S510 : 복호 데이터 입력 단계S500: variable block estimation decoding step S510: decoded data input step

S520 : 복호 검색 테이블 작성 단계 S530 : 기준 영상 복호 단계S520: Decryption search table creation step S530: Reference image decoding step

S540 : 제 2 최종 갱신 기준 복호 영상 생성 단계S540: second final renewal reference decoded image generation step

S550 : 제 1 가변 블럭 추정 복호 단계 S560 : 제 2 가변 블럭 추정 복호 단계 S570 : 제 3 색영상 산출 단계S550: First Variable Block Estimation Decoding Step S560: Second Variable Block Estimation Decoding Step S570: Third Color Image Estimation Step

이와 같은 본 발명의 목적을 달성하기 위해, 본 발명에 의한 전역 기반 색도 상관성을 이용한 영상 부호화 방법은 동일 영상의 색영상 간에 내재한 스펙트럴 중복성(spectral redundancy)을 제거하여 부호화하는 영상 부호화 방법에 있어서,In order to achieve the object of the present invention, an image encoding method using global-based chromaticity correlation according to the present invention is a method of encoding an image by removing spectral redundancy inherent in color images of the same image, ,

복수의 색영상과 상기 복수의 색영상을 이용한 합성 영상 중 어느 한 영상을 기준 영상으로 설정하고, 상기 기준 영상을 제외한 나머지 영상들 중에서 적어도 하나 이상의 영상을 추정 대상 영상으로 설정한 후, 상기 기준 영상에 대한 고주파 영상 신호로부터 비용 함수 데이터를 생성하여 상기 기준 영상과 상기 추정 대상 영상을 가변적인 크기의 블럭으로 분할하기 위한 검색 테이블(Look Up Table; LUT)을 작성하며, 프레임 단위로 상기 기준 영상과 추정 대상 영상 간의 오차인 전역 오차가 최소가 되도록 하는 스트레칭 정보인 전역 비례 인자와 슬라이싱 정보인 전역 가감 인자를 산출한 후, 상기 기준 영상에 적용하여 최종 기준 영상을 구한 다음에 상기 검색 테이블에 따라 가변 블럭 기반으로 상기 최종 기준 영상과 상기 추정 대상 영상 간의 오차인 국부 오차가 최소가 되도록 하는 스트레칭 정보인 국부 비례 인자와 슬라이싱 정보인 국부 가감 인자를 산출하여 부호화하는 영상 부호화 단계; 및The method comprising: setting one of a plurality of color images and a composite image using the plurality of color images as a reference image, setting at least one or more images among the remaining images excluding the reference image as an estimated object image, And generating a lookup table (LUT) for dividing the reference image and the estimated object image into blocks of variable sizes, and generating the lookup table (LUT) A global proportional factor which is a stretching information and a global enhancement factor which is slicing information are calculated so as to minimize a global error which is an error between the estimation object image and a final reference image is obtained by applying the global stimulus factor to the reference image, The error between the final reference image and the estimated object image The image encoding method comprising: a coding error portion by calculating the information in the local stretch scale factor information and slicing the local acceleration factor to be minimized; And

상기 기준 영상을 입력받아 상기 검색 테이블을 작성하고, 상기 전역 비례 인자 및 상기 전역 가감 인자를 입력받아 상기 기준 영상에 프레임 단위로 적용하여 최종 기준 복호 영상을 생성한 다음에 상기 국부 비례 인자 및 상기 국부 가감 인자를 입력받아 상기 검색 테이블에 따라 상기 최종 기준 복호 영상에 가변 블럭 기반으로 적용하여 상기 추정 대상 영상에 대응하는 추정 복호 영상을 생성하는 영상 복호화 단계로 구성되는 것이 특징이다.Generating a final reference decoded image by applying the global proportional factor and the global enhancement factor to the reference image on a frame basis by receiving the reference image and generating the look-up table, And an image decoding step of receiving an add / subtract factor and applying an adaptive block based on the final reference decoded image according to the search table to generate an estimated decoded image corresponding to the estimated target image.

여기서, 상기 영상 부호화 단계는 상기 동일 영상을 구성하는 복수의 색영상과 상기 복수의 색영상을 이용한 합성 영상 중 어느 한 영상을 기준 영상(reference image)으로 설정하여 웨이브렛 변환(wavelet transform)을 통해 웨이브렛 계수 데이터를 발생한 후, 웨이브렛 역변환(inverse wavelet transform)하여 제 1 기준 복호 영상을 생성하고, 상기 기준 영상을 제외한 나머지 영상들 중에서 적어도 하나 이상의 영상을 추정 대상 영상으로 설정하는 영상 설정 단계;Here, the image encoding step may set a reference image as one of a plurality of color images forming the same image and a composite image using the plurality of color images, and performing a wavelet transform An image setting step of generating a first reference decoded image by performing inverse wavelet transform on wavelet coefficient data and setting at least one image among the remaining images excluding the reference image as an estimation target image;

상기 웨이브렛 계수 데이터에 포함된 고주파 계수 데이터에 절대값을 취한 후, 블럭 기반으로 합산한 결과가 소정 임계치보다 크면, 해당 블럭을 부블럭으로 분할하는 가변 블럭 정보를 검색 테이블에 가변 블럭 기반으로 기록하는 검색 테이블 작성 단계;Frequency coefficient data included in the wavelet coefficient data is taken as an absolute value, and if the result of summing on a block basis is larger than a predetermined threshold value, variable block information for dividing the block into subblocks is recorded on a search block on a variable block basis A search table creation step of creating a search table;

상기 제 1 기준 복호 영상과 상기 추정 대상 영상 간의 오차인 전역 오차가 최소가 되도록 하는 스트레칭 정보인 전역 비례 인자(global scale factor)와 슬라이싱 정보인 전역 가감 인자(global offset factor)를 프레임 단위로 추정하여 전역 비례/가감 인자 집합에 버퍼링한 후, 상기 제 1 기준 복호 영상에 상기 전역 비례 인자 및 상기 전역 가감 인자를 프레임 단위로 적용하여 갱신 기준 영상을 생성하고, 상기 전역 오차의 크기 정도에 따라 상기 추정 대상 영상의 공간적인 크기를 분할해 상기 전역 비례 인자 및 상기 전역 가감 인자를 추정하여 상기 전역 비례/가감 인자 집합에 버퍼링한 후, 상기 갱신 기준 영상에 적용하여 최종 기준 영상을 생성하는 전역 추정 부호/복호 단계;A global scale factor, which is stretching information for minimizing a global error, which is an error between the first reference decoded image and the estimated object image, and a global offset factor, which is slicing information, And generating the update reference image by applying the global proportional factor and the global enhancement factor to the first reference decoded image frame by frame basis after the buffer is buffered in the global proportional / A global estimator for estimating a global proportional factor and a global impulse factor by dividing a spatial size of a target image and buffering the global proportional factor and the global enhancement factor in the global proportional / Decoding step;

상기 검색 테이블에 기록된 가변 블럭 정보에 따라 상기 최종 기준 영상과 상기 추정 대상 영상 간의 오차인 국부 오차가 최소가 되도록 하는 국부 스트레칭 정보인 국부 비례 인자와 슬라이싱 정보인 국부 가감 인자(local offset factor)를 가변 블럭 기반으로 추정하여 국부 비례/가감 인자 집합에 레스터 스캐닝 순으로 버퍼링하는 가변 블럭 추정 부호화 단계를 포함하는 것이 바람직하다.A local proportional factor which is local stretching information and a local offset factor which is slicing information are set so that a local error which is an error between the final reference image and the estimated object image is minimized according to the variable block information recorded in the look- And a variable block estimation encoding step of estimating a variable block based on a set of local proportional / incremental factors and buffering the set of local proportional / incremental factors in order of laster scanning.

또한, 상기 영상 복호화 단계는 상기 웨이브렛 계수 데이터와 상기 전역 비례/가감 인자 집합 및 상기 국부 비례/가감 인자 집합을 입력받아 상기 웨이블렛 계수 데이터를 이용하여 상기 검색 테이블 작성 단계와 동일한 수순을 거쳐 상기 검색 테이블을 작성한 후, 웨이블렛 역변환하여 상기 기준 영상에 대응하는 제 2 기준 복호 영상을 복호하고, 상기 국부 비례/가감 인자 집합을 상기 제 2 기준 복호 영상에 적용하여 상기 최종 기준 영상에 대응하는 최종 기준 복호 영상을 생성하며, 상기 검색 테이블의 가변 블럭 정보에 따라 상기 국부 비례/가감 인자 집합을 상기 최종 기준 복호 영상에 가변 블럭 기반으로 적용하여 상기 추정 대상 영상에 대응하는 추정 복호 영상을 복원하는 가변 블럭 추정 복호화 단계를 포함하는 것을 특징이다.The image decoding step may include receiving the wavelet coefficient data, the global proportional / incremental factor set and the local proportional / incremental factor set, and using the wavelet coefficient data, Decodes a second reference decoded image corresponding to the reference image by inverse wavelet transforming the table, applies the set of local proportion / acceleration factors to the second reference decoded image, and outputs a final reference decoded image corresponding to the final reference image, And a variable block estimation unit for applying the local proportional / incremental factor set to the final reference decoded image on a variable block basis in accordance with the variable block information of the lookup table to recover an estimated decoded image corresponding to the estimated object image, And a decoding step.

이하, 본 발명에 의한 전역 기반 색도 상관성을 이용한 영상 부호화 방법의 바람직한 실시예를 첨부한 도 3을 참조하여 설명하면 다음과 같다.Hereinafter, a preferred embodiment of the image encoding method using the global-based chromaticity correlation according to the present invention will be described with reference to FIG.

설명의 편의상, 본 발명에 대한 부호화 과정을 설명하기에 앞서 본 발명의 바람직한 실시예에서 이용되고 있는 웨이브렛 변환에 대해 개론적으로 살펴 보기로 한다.Before describing the encoding process according to the present invention, the Wavelet transform used in the preferred embodiment of the present invention will be briefly described.

웨이브렛 이론은 다양한 스케일(scale)과 해상도(resolution)에서 신호를 고찰, 분석하고자 하는 생각으로 수학 및 공학 분야에서 발전되어 오늘에 이른 이론이다. 통상, 정재적(stationary)인 신호의 분석은 프리에 변환(Fourier transform)을 사용하고 있지만, 프리에 변환은 전공간 영역에서 신호에 대한 적분을 수행하므로 국부적(local)인 특성을 만족시키지 못하는 단점을 가지고 있으며, 과도한 연산량에 기인하여 실시간 처리 측면에서 많은 문제점을 내재하고 있는 데, 최근 들어, 웨이브렛 변환은 이와 같은 문제점을 용이하게 극복할 수 있는 대안중의 하나가 되고 있다.Wavelet theory is a theory that has been developed in the field of mathematics and engineering and is an early theory today with the idea of analyzing and analyzing signals at various scales and resolutions. In general, the analysis of a stationary signal uses a Fourier transform. However, since the Fourier transform performs integration on a signal in the entire spatial domain, it has a disadvantage that it can not satisfy a local characteristic Due to the excessive amount of computation, many problems are present in terms of real-time processing. In recent years, wavelet transform has become one of the easily available solutions to overcome such problems.

즉, 웨이브렛 변환은 시간과 주파수에 대한 국부성(locality)을 가지고 신호를 표현할 수 있는 신호 처리상의 장점을 갖고 있음에 기인하여 일반적으로 비정재적(non-stationary)인 특성을 갖는 영상 신호를 해석하는데 유리하고, 인간의 시각 특성과 유사하게 다중 해상도(multiresolution)로 신호를 표현할 수 있으며, 낮은 비트율로 부호화시 이산 여현 변환(DCT; Discrete Cosine Transform) 부호화에서와 같은 블럭킹 현상(blocking effect)과 반점 현상(mosquito effect)이 생기지 않을 뿐만 아니라 계층적인 신호 분석에 기인하여 점진적인 전송(progressive transmission)이 가능함에 기인하여 음성(speech) 및 오디오(audio)의 코덱, 영상 코덱, 기상 및 지진파 분석, 영상 인식, 컴퓨터 비젼 분야 등에서 다양한 연구가 진행 중이다.In other words, the wavelet transform has the advantage of signal processing that can represent a signal with locality of time and frequency, and therefore, it can be generally interpreted as a non-stationary image signal And it is possible to represent a signal with a multiresolution similar to human visual characteristics and to provide a blocking effect such as a discrete cosine transform (DCT) It is not only a mosquito effect but also a progressive transmission due to a hierarchical signal analysis. Therefore, a speech and audio codec, an image codec, a weather and seismic analysis, , And computer vision.

영상은 그 특성상, 다중 해상도로 표현할 경우 해상도가 낮은 대역에 대부분의 에너지가 모이고, 해상도가 높은 대역은 작은 에너지를 가지는 반면에 시각적으로 중요한 에지에 대한 정보를 가지기 때문에 이 대역들을 효율적으로 부호화 함으로써 높은 압축율을 얻을 수 있는 데, 영상 처리 분야에 있어서, 웨이브렛 변환은 이와 같은 영상 신호의 특성을 영상 부호화에 효과적으로 반영할 수 있는 직교 변환 기법으로 널리 평가되고 있다.Because of the characteristics of the image, most of the energy is collected in a low-resolution band when it is represented by multiple resolutions, while the high-resolution band has a small energy. On the other hand, since the image has information on visually important edges, In the field of image processing, wavelet transform is widely evaluated as an orthogonal transformation technique that can effectively reflect the characteristics of a video signal in image coding.

또한, 웨이브렛 변환 과정에서 수반되는 영상의 다해상도 표현은 영상 정보 분석에 유용한 계층적 처리 기법을 제공하는 데, 즉, 상위 계층에서의 저해상도적인 분석으로 영상의 전역적인 특성을 파악하고, 하위 계층으로 옮겨가며 점진적으로 해상도를 증가시켜 영상 신호의 국부적인 특성을 분석하는 점진적인 분석(coarse-to-fine) 기법을 용이하게 채택할 수 있도록 해준다. 이와 같은 점진적인 신호 분석 또는 계층적인 신호 분석은 실시간 구현을 위한 고속 신호 처리에 가장 대표적으로 채택되고 있는 기법이다.In addition, the multiresolution representation of the image that accompanies the wavelet transform process provides a hierarchical processing technique useful for analyzing image information. That is, it analyzes the global characteristics of the image by low resolution analysis in the upper layer, And gradually increases the resolution to facilitate the adoption of a coarse-to-fine technique that analyzes the local characteristics of the video signal. Such progressive signal analysis or hierarchical signal analysis is the most widely used technique for high-speed signal processing for real-time implementation.

웨이브렛이란로 정의되는 모 웨이브렛(mother wavelet)을 변이시키고 확대 및 축소시킴으로써 얻어지는 함수들의 집합을 말하며, 어떤 신호의 웨이브렛 변환은Wavelet Is a set of functions obtained by mutating and enlarging and reducing a mother wavelet defined by a signal The wavelet transform of

[수학식 3]&Quot; (3) "

수학식 3과 같다.(3).

이때, 매개 변수가 실수()이고, 매개 변수가 영이 아닐 때, 즉,)일 때, 연속 웨이브렛 변환이라고 하고,At this time, Is a mistake ( ), And the parameters When it is not zero, ), It is referred to as a continuous wavelet transform, end

[수학식 4]&Quot; (4) "

수학식 4와 같은 조건을 만족할 때, 이산 웨이브렛(discrete wavelet) 변환이라고 한다. 특히.가 2이고는 1일 때 직교 정규 기저를 만들 수 있다.When the condition of Equation (4) is satisfied, it is called a discrete wavelet transform. Especially. Is 2 Can create an orthogonal normal basis at 1.

매개변수는 시간축 상에서의 변위를 나타내며, 매개 변수를 변환시켜서 웨이브렛 기저를 원하는 곳에 놓을 수 있다. 매개 변수는 크기 인자이며 웨이브렛 기저의 크기를 조정한다.가 작으면 시간축 상에서 좁은 구역에 놓이게 되며 하이젠베르그(Heisenberg)의 불확정성 원리(uncertainty principle)에 의해 주파수 축에서는 넓은 영역을 차지한다.parameter Represents the displacement on the time axis, and the parameter To place the wavelet basis at a desired location. parameter Is the magnitude factor and adjusts the size of the wavelet basis. Is placed in a narrow region on the time axis and occupies a large area in the frequency axis due to the uncertainty principle of Heisenberg.

따라서, 모 웨이브렛를 고주파수 대역에서는 세밀한 해상도를 가지게 하고 낮은 주파수에 대해서는 상대적으로 나쁜 시간 해상도를 가지게 할 경우, 긴 저주파수 성분에서의 갑자기 나타나는 고주파수 성분이 섞인 신호의 경우에도 쉽게 처리할 수 있다. 따라서 자연 영상의 경우 화소값이 천천히 변하다가 어느 순간 물체의 에지 부분에서 급격히 바뀜을 생각하면, 웨이브렛 변환을 영상 압축에 이용함으로써 윤곽을 잘 보전하면서도 최대한 압축이 가능하게 할 수 있음을 알 수 있다.Therefore, Can be easily handled even in the case of a signal mixed with a high frequency component appearing suddenly at a long low frequency component when the resolution is made to have a fine resolution at a high frequency band and a relatively bad time resolution at a low frequency. Therefore, if the pixel values change slowly in the natural image and are changed suddenly at the edge part of the object at any moment, it can be understood that the wavelet transform can be used for the image compression, and the compression can be maximized while the outline is well preserved.

반면에 소정의 윈도우을 갖는 프리에 변환(STFT; Short-Time Fourier Transform)의 경우, 시간-주파수 공간의 해상도가 고정되어 있기 때문에 비정재적인 신호의 처리에 적절한 적응성을 부여하지 못하고 있다. 영상 압축에 쓰이고 있는 DCT(Discrete Cosine Transform)는 일종의 프리에 변환으로 볼 수 있으며, 신호의 특성이 불분명한 예측 오차 압축에는 적절한 변환이 되지 못한다.On the other hand, in the case of the short-time Fourier transform (STFT) having a predetermined window, since the resolution of the time-frequency space is fixed, adaptability to the processing of the non-real signal can not be given. DCT (Discrete Cosine Transform), which is used for image compression, can be seen as a type of Fourier transform and can not be properly converted to predictive error compression with unclear signal characteristics.

도 2는 탁구 영상을 웨이블렛 변환한 영상을 도시한 것이다.FIG. 2 shows an image obtained by wavelet-transforming a table tennis image.

웨이브렛 변환에 대한 더욱 더 상세한 설명은 웨이브렛 관련 서적(일례로, J.J.Benedtto and M.W.Frazier, Wavelets : Mathematics and Applications, CRC Press, BacRaton/AnnArbor/London/Tokyo, 1994)을 참조하기로 한다.For a more detailed description of wavelet transforms, reference is made to the Wavelet reference (for example, J. J. Benedtto and M. W. Frazier, Wavelets: Mathematics and Applications, CRC Press, Bac Raton / Ann Arbor / London / Tokyo, 1994).

도 3은 본 발명에 의한 전역 기반 색도 상관성을 이용한 영상 부호화 방법의 바람직한 실시예를 도시한 것이다.FIG. 3 shows a preferred embodiment of the image encoding method using global-based chromaticity correlation according to the present invention.

본 발명에 의한 전역 기반 색도 상관성을 이용한 영상 부호화 방법의 바람직한 실시예는 도 3에 도시한 바와 같이, 동일 영상의 색영상 간에 내재한 스펙트럴 중복성(spectral redundancy)을 제거하여 부호화하는 영상 부호화 방법에 있어서:A preferred embodiment of the image encoding method using the global-based chromaticity correlation according to the present invention is a method of encoding an image by removing the spectral redundancy inherent in the color image of the same image as shown in FIG. 3 There are:

상기 동일 영상을 구성하는 복수의 색영상과 상기 복수의 색영상을 이용한 합성 영상 중 어느 한 영상을 기준 영상(reference image)으로 설정하여 웨이브렛 변환(wavelet transform)을 통해 웨이브렛 계수 데이터를 발생한 후, 웨이브렛 역변환(inverse wavelet transform)하여 제 1 기준 복호 영상을 생성하고, 상기 기준 영상을 제외한 나머지 영상들 중에서 적어도 하나 이상의 영상을 추정 대상 영상으로 설정하는 영상 설정 단계(S100);Generating a wavelet coefficient data through a wavelet transform by setting any one of a plurality of color images forming the same image and a composite image using the plurality of color images as a reference image, An inverse wavelet transform (wavelet transform) step of generating a first reference decoded image and setting at least one or more images among the remaining images excluding the reference image as an estimation target image;

상기 웨이브렛 계수 데이터에 포함된 고주파 계수 데이터에 절대값을 취한 후, 블럭 기반으로 합산한 결과가 소정 임계치보다 크면, 해당 블럭을 부블럭으로 분할하는 가변 블럭 정보를 검색 테이블에 가변 블럭 기반으로 기록하는 검색 테이블 작성 단계(S200);Frequency coefficient data included in the wavelet coefficient data is taken as an absolute value, and if the result of summing on a block basis is larger than a predetermined threshold value, variable block information for dividing the block into subblocks is recorded on a search block on a variable block basis (S200);

상기 제 1 기준 복호 영상과 상기 추정 대상 영상 간의 오차인 전역 오차가 최소가 되도록 하는 스트레칭 정보인 전역 비례 인자(global scale factor)와 슬라이싱 정보인 전역 가감 인자(global offset factor)를 프레임 단위로 추정하여 전역 비례/가감 인자 집합에 버퍼링한 후, 상기 제 1 기준 복호 영상에 상기 전역 비례 인자 및 상기 전역 가감 인자를 프레임 단위로 적용하여 갱신 기준 영상을 생성하고, 상기 전역 오차의 크기 정도에 따라 상기 추정 대상 영상을 분할해서 상기 전역 비례 인자 및 상기 전역 가감 인자를 추정하여 상기 전역 비례/가감 인자 집합에 버퍼링한 후, 상기 갱신 기준 영상에 적용하여 최종 기준 영상을 생성하는 전역 추정 부호/복호 단계(S300);A global scale factor, which is stretching information for minimizing a global error, which is an error between the first reference decoded image and the estimated object image, and a global offset factor, which is slicing information, And generating the update reference image by applying the global proportional factor and the global enhancement factor to the first reference decoded image frame by frame basis after the buffer is buffered in the global proportional / A global estimation coding / decoding step S300 of dividing the target image and estimating the global proportional factor and the global weighting factor, buffering the global proportional factor and the global weighting factor in the global proportional / );

상기 검색 테이블에 기록된 가변 블럭 정보에 따라 상기 최종 기준 영상과 상기 추정 대상 영상 간의 오차인 국부 오차가 최소가 되도록 하는 국부 스트레칭 정보인 국부 비례 인자와 슬라이싱 정보인 국부 가감 인자(local offset factor)를 가변 블럭 기반으로 추정하여 국부 비례/가감 인자 집합에 레스터 스캐닝 순으로 버퍼링하는 가변 블럭 추정 부호화 단계(S400); 및A local proportional factor which is local stretching information and a local offset factor which is slicing information are set so that a local error which is an error between the final reference image and the estimated object image is minimized according to the variable block information recorded in the look- A variable block estimation encoding step (S400) of estimating based on a variable block and buffering the set of local proportions / decrement factors in the order of laster scanning; And

상기 웨이브렛 계수 데이터와 상기 전역 비례/가감 인자 집합 및 상기 국부 비례/가감 인자 집합을 입력받아 상기 웨이블렛 계수 데이터를 이용하여 상기 검색 테이블 작성 단계와 동일한 수순을 거쳐 상기 검색 테이블을 작성한 후, 웨이블렛 역변환하여 상기 기준 영상에 대응하는 제 2 기준 복호 영상을 복호하고, 상기 국부 비례/가감 인자 집합을 상기 제 2 기준 복호 영상에 적용하여 최종 기준 복호 영상을 생성하며, 상기 검색 테이블의 가변 블럭 정보에 따라 상기 국부 비례/가감 인자 집합을 상기 최종 기준 복호 영상에 가변 블럭 기반으로 적용하여 상기 추정 대상 영상에 대응하는 추정 복호 영상을 복원하는 가변 블럭 추정 복호화 단계(S500)로 구성된다.The wavelet coefficient data, the global proportional / additive factor set, and the local proportional / additive factor set, and generates the search table through the same procedure as the search table creation step using the wavelet coefficient data, Decodes a second reference decoded image corresponding to the reference image, applies the set of local proportion / acceleration factors to the second reference decoded image to generate a final reference decoded image, and generates a final reference decoded image according to the variable block information of the search table And a variable block estimation and decoding step (S500) of applying the local proportional / incremental factor set to the final reference decoded image on a variable block basis to recover an estimated decoded image corresponding to the estimated object image.

여기서, 상기 영상 설정 단계(S100)는 상기 동일 영상의 휘도 영상(Y), 적색 영상(R), 녹색 영상(G), 청색 영상(B) 중 어느 한 영상을 기준 영상(reference image)으로 정하고, 나머지 영상들 중에서 두 영상을 선택하여 두 영상 중 한 영상을 제 1 추정 대상 영상으로 설정하고 또 다른 한 영상을 제 2 추정 대상 영상으로 설정하는 기준/부호 대상 영상 결정 단계(S110); 및Here, the image setting step S100 may set the reference image as any one of the luminance image Y, the red image R, the green image G, and the blue image B of the same image A reference / code target image determination step (S110) of selecting two images among the remaining images and setting one of the two images as a first estimation target image and setting another one as a second estimation target image; And

상기 기준 영상을 웨이브렛 변환함으로써 생성되는 저주파 계수 데이터와 고주파 계수 데이터로 구성된 계층적 구조의 웨이브렛 계수 데이터를 저장 매체에 저장한 후, 상기 웨이브렛 계수 데이터를 웨이브렛 역변환하여 제 1 기준 복호 영상을 만드는 웨이브렛 변환/역변환 단계(S120)로 구성된다.The wavelet coefficient data of the hierarchical structure composed of the low-frequency coefficient data and the high-frequency coefficient data generated by wavelet-transforming the reference image is stored in a storage medium, and then the wavelet coefficient data is inversely transformed by wavelet to generate a first reference decoded picture And a wavelet transform / inverse transform step (S120).

또한, 상기 검색 테이블 작성 단계(S200)는 웨이블렛 변환을 통한 다중 해상도 분석 과정에서 도출되는 하나 이상의 계층에서 어느 한 계층의 상기 고주파 계수 데이터에 절대값을 취한 후, 동일 발생 기원을 갖는 수직 방향, 수평 방향, 대각선 방향의 고주파 계수들을 각각 화소 단위로 합산하여 비용 함수 데이터를 구성하는 비용 함수 데이터 구성 단계(S210);In addition, the search table creation step (S200) may take an absolute value of the high-frequency coefficient data of one layer in one or more layers derived in the multi-resolution analysis process through the wavelet transform, A cost function data construction step (S210) of constructing cost function data by summing high-frequency coefficients in a direction and a diagonal direction on a pixel-by-pixel basis;

상기 비용 함수 데이터의 모든값은 합산하여 평균한 전체 평균치를 구한 후, 상기 전체 평균치에 비례 상수를 곱하여 전체 임계치를 산출하는 전체 임계치 산출 단계(S220);A total threshold value calculation step (S220) of calculating a total average value by summing all the values of the cost function data, and then multiplying the total average value by a proportional constant to calculate a total threshold value;

상기 비용 함수 데이터를 블럭 기반으로 합산하여 평균한 블럭 평균치를 구한 후, 상기 전체 임계치 보다 상기 블럭 평균치가 크면, 해당 블럭을 두 개 이상의 부블럭으로 분할하는 블럭 가변 정보를 래스터 스캐닝 순서로 상기 검색 테이블에 기록하는 제 1 블럭 분할 정보 작성 단계(S230); 및The block variable information for dividing the block into two or more subblocks when the block average value is larger than the total threshold value is obtained by summing the cost function data on a block basis, A first block division information creation step (S230) for recording the first block division information; And

상기 부블럭 데이터를 각각 합산하여 평균한 부블럭 평균치를 구한 후, 상기 전체 임계치 보다 상기 부블럭 평균치가 크면, 해당 부블럭을 두 개 이상의 서브 부블럭으로 분할하는 블럭 가변 정보를 래스터 스캐닝 순서로 상기 검색 테이블에 기록하는 제 2 블럭 분할 정보 작성 단계(S240)로 구성된다.Block variable values are divided into two or more sub-sub-blocks if the average value of the sub-blocks is larger than the total threshold value, in a raster scanning order, And a second block division information creation step (S240) for recording the information in the search table.

그리고, 상기 전역 추정 부호/복호 단계(S300)는 상기 제 1 기준 복호 영상과 상기 제 1 추정 대상 영상 간의 오차인 제 1 전역 오차가 최소가 되도록 하는 스트레칭 정보인 제 1 전역 비례 인자와 슬라이싱 정보인 제 1 전역 가감 인자를 프레임 단위로 추정하여 제 1 전역 비례/가감 인자 집합에 버퍼링하고, 상기 제 1 기준 복호 영상과 상기 제 2 추정 대상 영상 간의 오차인 제 2 전역 오차가 최소가 되도록 하는 스트레칭 정보인 제 2 전역 비례 인자와 슬라이싱 정보인 제 2 전역 가감 인자를 프레임 단위로 추정하여 제 2 전역 비례/가감 인자 집합에 버퍼링하는 전역 비례/가감 인자 추정 단계(S310);The global estimation coding / decoding step S300 includes a first global proportional factor, which is stretching information for minimizing a first global error, which is an error between the first reference decoded image and the first estimation target image, The first global deceleration factor is estimated on a frame-by-frame basis, the first global deceleration factor is buffered in a first global proportional / incremental factor set, and a second global error, which is an error between the first reference decoded image and the second estimated object, Estimating a global proportional / delta factor (S310) for estimating a second global proportional factor and a second global enhancement factor, which are slicing information, in a second global proportional / additive factor set;

상기 제 1 기준 복호 영상에 상기 제 1 전역 비례 인자 및 상기 1 전역 가감 인자를 프레임 단위로 적용하여 제 1 갱신 기준 영상을 생성하고, 상기 제 1 기준 복호 영상에 상기 제 2 전역 비례 인자 및 상기 제 2 전역 가감 인자를 프레임 단위로 적용하여 제 2 갱신 기준 영상을 생성하는 갱신 기준 영상 생성 단계(S320);Wherein the first reference decoded image is generated by applying the first global proportional factor and the one global enhancement factor to the first reference decoded image frame by frame, An update reference image generation step (S320) of generating a second update reference image by applying the second global enhancement factor in units of frames;

상기 제 1 전역 오차가 기설정된 제 1 기준치 보다 큰지 여부를 판단하고, 상기 제 2 전역 오차가 기설정된 제 2 기준치 보다 큰지 여부를 판단하는 전역 분할 판단 단계(S330);Determining whether the first global error is greater than a predetermined first reference value and determining whether the second global error is greater than a predetermined second reference value (S330);

상기 전역 분할 판단 단계(S330)의 판단 결과, 상기 제 1 전역 오차가 상기 제 1 기준치 보다 작으면, 상기 제 1 갱신 기준 영상을 제 1 최종 기준 영상으로 설정하고, 상기 제 2 전역 오차가 상기 제 2 기준치 보다 작으면, 상기 제 2 갱신 기준 영상을 제 2 최종 기준 영상으로 설정하는 기준 복호 영상 갱신 설정 단계(S340);If it is determined that the first global error is smaller than the first reference value as a result of the global segmentation step (S330), the first update reference image is set as a first final reference image, A reference decoded image update setting step (S340) of setting the second updated reference image to a second final reference image if the second updated reference image is smaller than the second reference value;

상기 전역 분할 판단 단계(S330)의 판단 결과, 상기 제 1 전역 오차가 기설정된 제 1 기준치 보다 크면, 상기 제 1 추정 대상 영상을 두 개 이상의 부영상으로 분할하여 상기 제 1 갱신 기준 영상과 상기 제 1 추정 대상 영상 간의 오차가 최소가 되도록 하는 스트레칭 정보인 제 1 부전역 비례 인자(sub-global scale factor)와 슬라이싱 정보인 제 1 부전역 가감 인자(sub-global offset factor)를 부영상 단위로 추정하여 상기 제 1 전역 비례/가감 인자 집합에 버퍼링하고, 상기 제 2 전역 오차가 기설정된 제 2 기준치 보다 크면, 상기 제 2 추정 대상 영상을 두 개 이상의 부영상으로 분할하여 상기 제 2 갱신 기준 영상과 상기 제 2 추정 대상 영상 간의 오차가 최소가 되도록 하는 스트레칭 정보인 제 2 부전역 비례 인자(sub-global scale factor)와 슬라이싱 정보인 제 2 부전역 가감 인자(sub-global offset factor)를 부영상 단위로 추정하여 상기 제 2 전역 비례/가감 인자 집합에 버퍼링하는 부전역 비례/가감 인자 추정 단계(S350); 및If it is determined that the first global error is greater than a predetermined first reference value as a result of the global segmentation step (S330), the first estimation target image is divided into two or more sub- Estimating a first sub-global scale factor, which is stretching information, and a first sub-global offset factor, which is slicing information, so as to minimize an error between the first and second estimated images, The second estimated reference image is divided into two or more sub-images and the second updated reference image and the second updated reference image are divided into a first global proportional / A second sub-global scale factor, which is stretching information for minimizing the error between the two target images, and a second sub-global scale factor, (Sub-global offset factor) for portions in the image by estimating unit wherein the proportion bujeon station / subtraction factor estimating step of second global proportional / subtraction factor buffered in a set (S350); And

상기 제 1 부전역 비례 인자 및 상기 제 1 부전역 가감 인자를 상기 제 1 갱신 기준 영상에 부영상 단위로 적용하여 상기 제 1 최종 기준 영상을 생성하고, 상기 제 2 부전역 비례 인자 및 상기 제 2 부전역 가감 인자를 상기 제 2 갱신 기준 영상에 부영상 단위로 적용하여 상기 제 2 최종 기준 영상을 생성하는 최종 기준 영상 생성 단계(S360)로 구성된다.Wherein the second sub-field additive factor and the second sub-field additive factor are applied to the first update reference image in sub-image units to generate the first final reference image, To the second update reference image in sub-image units to generate the second final reference image (S360).

또한, 상기 가변 블럭 추정 부호화 단계(S400)는 상기 검색 테이블의 블럭 가변 정보에 따라 상기 제 1 최종 기준 영상을 분할하여 복수의 제 1 최종 기준 블럭으로 구성된 제 1 최종 기준 블럭군을 생성하고, 상기 검색 테이블의 블럭 가변 정보에 따라 상기 제 2 최종 기준 영상을 분할하여 복수의 제 2 최종 기준 블럭으로 구성된 제 2 최종 기준 블럭군을 생성하며, 상기 제 1 추정 대상 영상을 분할하여 복수의 제 1 추정 대상 블럭으로 구성된 제 1 추정 대상 블럭군을 생성하며, 상기 제 2 추정 대상 영상을 분할하여 복수의 제 2 추정 대상 블럭으로 구성된 제 2 추정 대상 블럭군을 생성하는 가변 블럭 분할 단계(S410);In addition, the variable block estimation coding step (S400) divides the first final reference image according to the block variable information of the lookup table to generate a first final reference block group composed of a plurality of first final reference blocks, A second final reference block group composed of a plurality of second final reference blocks is generated by dividing the second final reference image according to the block variable information of the lookup table, A variable block segmenting step (S410) of generating a first estimation target block group composed of target blocks and dividing the second estimation target image to generate a second estimation target block group composed of a plurality of second estimation target blocks;

상기 제 1 최종 기준 블럭군과 상기 제 1 추정 대상 블럭군에서 래스터 스캐닝 순으로 각각 상기 제 1 최종 기준 블럭과 상기 제 1 추정 대상 블럭을 선택하여 상기 제 1 최종 기준 블럭과 상기 제 1 추정 대상 블럭 간의 오차가 최소 자승 오차(least square error)가 되도록 하는 스트레칭 정보인 제 1 국부 비례 인자와 슬라이싱 정보인 제 1 국부 가감 인자를 가변 블럭 기반으로 추정하여 래스터 스캐닝 순서로 제 1 국부 비례/가감 인자 집합에 버퍼링하는 제 1 가변 블럭 추정 부호화 단계(S420);The first final reference block and the first estimation target block group are selected in the order of raster scanning and the first final reference block and the first estimation target block, A first local proportion factor which is a stretching information and a first local adjoint factor which is slicing information are estimated based on a variable block based on a first local proportion / A first variable block estimation encoding step (S420) of buffering the first variable block estimation value;

상기 제 2 최종 기준 블럭군과 상기 제 2 추정 대상 블럭군에서 래스터 스캐닝 순으로 각각 상기 제 2 최종 기준 블럭과 상기 제 2 추정 대상 블럭을 선택하여 상기 제 2 최종 기준 블럭과 상기 제 2 추정 대상 블럭 간의 오차가 최소 자승 오차(least square error)가 되도록 하는 스트레칭 정보인 제 2 국부 비례 인자와 슬라이싱 정보인 제 2 국부 가감 인자를 가변 블럭 기반으로 추정하여 래스터 스캐닝 순으로 제 2 국부 비례/가감 인자 집합에 버퍼링하는 제 2 가변 블럭 추정 부호화 단계(S430);The second final reference block and the second estimation target block group are selected in the order of raster scanning and the second final reference block and the second estimation target block in the order of raster scanning, The second local proportional factor, which is the stretching information, and the second local adjacency factor, which is the slicing information, are estimated based on the variable block based on the second local proportional / A second variable block estimation encoding step (S430) of buffering the second variable block;

래스터 스캐닝 순서 상에서 마지막에 위치한 최종 제 1 추정 대상 블럭에 대한 제 1 국부 비례 인자 및 제 1 국부 가감 인자와 최종 제 2 추정 대상 블럭에 대한 제 2 국부 비례 인자 및 제 2 국부 가감 인자가 추정됐는지 여부를 판단하여 판단 결과, 추정되지 않았으면, 상기 가변 블럭 분할 단계(S410)로 되돌아 감으로써 제 1 추정 대상 블럭군 및 상기 제 2 추정 대상 블럭군에 포함된 모든 블럭에 대한 추정 부호화를 수행하도록 하는 추정 부호화 완료 판단 단계(S440); 및The first local proportional factor and the first local adjacency factor for the final first estimated object block located last in the raster scanning order and the second local proportional factor and the second local adjacency factor for the final second estimated object block are estimated If the estimated block is not estimated, the process returns to the variable block dividing step (S410) to perform the estimated encoding on all the blocks included in the first estimation target block group and the second estimation target block group Estimation of encoding completion (S440); And

상기 추정 부호화 완료 판단 단계(S440)의 판단 결과, 상기 최종 제 1 추정 대상 블럭에 대한 제 1 국부 비례 인자 및 제 1 국부 가감 인자와 상기 최종 제 2 추정 대상 블럭에 대한 제 2 국부 비례 인자 및 제 2 국부 가감 인자가 추정됐으면, 제 1 국부 비례/가감 인자 집합 및 제 2 국부 비례/가감 인자 집합을 저장하거나 전송하는 국부 비례/가감 인자 집합 저장/전송 단계(S450)로 구성된다.As a result of the judgment of the encoding completion judgment step (S440), the first local proportion factor and the first local adjoint factor for the final first estimation target block, the second local proportion factor for the final second estimation target block, And a local ratio / additive factor set storage / transmission step (S450) for storing or transmitting the first local proportion / additive factor set and the second local proportion / addition factor set when the 2 local additive factor is estimated.

한편, 상기 가변 블럭 추정 복호화 단계(S500)는 상기 웨이브렛 계수 데이터, 상기 제 1 전역 비례/가감 인자 집합 및 제 2 전역 비례/가감 인자 집합, 상기 제 1 국부 비례/가감 인자 집합 및 상기 제 2 국부 비례/가감 인자 집합을 입력받는 복호 데이터 입력 단계(S510);Meanwhile, the variable block estimation decoding step S500 may include the wavelet coefficient data, the first global proportional / incremental factor set and the second global proportional / incremental factor set, the first local proportional / A decoded data input step (S510) of receiving a set of local proportional / incremental factor;

상기 웨이브렛 계수 데이터를 이용하여 상기 검색 테이블 작성 단계(S200)와 동일한 수순을 거쳐 상기 검색 테이블을 작성하는 복호 검색 테이블 작성 단계(S520);A decoding search table creation step (S520) of creating the search table through the same procedure as the search table creation step (S200) using the wavelet coefficient data;

상기 웨이브렛 계수 데이터를 웨이블렛 역변환하여 상기 기준 영상에 대응하는 제 2 기준 복호 영상을 복호하는 기준 영상 복호 단계(S530);A reference image decoding step (S530) of inversely transforming the wavelet coefficient data to decode a second reference decoded image corresponding to the reference image;

상기 제 1 전역 비례/가감 인자 집합에서 상기 제 1 전역 비례 인자와 상기 제 1 전역 가감 인자를 판독하여 상기 제 2 기준 복호 영상에 프레임 단위로 적용함으로써 상기 제 1 갱신 기준 영상에 대응하는 제 1 갱신 기준 복호 영상을 생성한 후, 상기 제 1 부전역 비례 인자와 상기 제 1 부전역 가감 인자를 판독하여 상기 제 1 갱신 기준 복호 영상에 부영상 단위로 적용하여 상기 제 1 최종 기준 영상에 대응하는 제 1 최종 기준 복호 영상을 생성하고, 상기 제 2 전역 비례/가감 인자 집합에서 상기 제 2 전역 비례 인자와 상기 제 2 전역 가감 인자를 판독하여 상기 제 2 기준 복호 영상에 프레임 단위로 적용함으로써 상기 제 2 갱신 기준 영상에 대응하는 제 2 갱신 기준 복호 영상을 생성한 후, 상기 제 2 부전역 비례 인자와 상기 제 2 부전역 가감 인자를 판독하여 상기 제 2 갱신 기준 복호 영상에 부영상 단위로 적용하여 상기 제 2 최종 기준 영상에 대응하는 제 2 최종 기준 복호 영상을 생성하는 최종 기준 복호 영상 생성 단계(S540);Wherein the first global proportional factor and the first global enhancement factor are read from the first global proportional / additive factor set and applied to the second reference decoded image frame by frame to thereby generate a first update A first decoding unit that generates a reference decoded image and then reads the first sub-region proportion factor and the first sub-region addition factor and applies the sub-image unit to the first update reference decoded image to generate a first final reference image corresponding to the first final reference image, Wherein the second global proportional factor and the second global enhancement factor are read from the second global proportional / increment factor set and applied to the second reference decoded image frame by frame basis, After the second update reference decoded image corresponding to the image is generated, the second sub-region proportion factor and the second sub-region addition factor are read The second update the second generation standard final decoding end based on decoded videos to generate an image step (S540) to respond by applying a sub-picture unit for decoding the reference image to the second end-reference image;

상기 제 1 국부 비례/가감 인자 집합에서 상기 제 1 국부 비례 인자와 상기 제 1 국부 가감 인자를 래스터 스캐닝 순으로 판독하여 상기 검색 테이블에 따라 상기 제 1 최종 기준 복호 영상에서 상기 제 1 추정 대상 영상과 같은 스펙트럴 대역을 갖는 제 1 추정 복호 영상을 가변 블럭 기반으로 추정 복호하는 제 1 가변 블럭 추정 복호 단계(S550);The first local proportional factor and the first local adjacency factor are read out in the order of raster scanning in the first local proportional / A first variable block estimation decoding step (S550) of estimating and decoding a first estimated decoding image having the same spectral band on a variable block basis;

상기 제 2 국부 비례/가감 인자 집합에서 상기 제 2 국부 비례 인자와 상기 제 2 국부 가감 인자를 래스터 스캐닝 순으로 판독하여 상기 검색 테이블에 따라 상기 제 2 최종 기준 복호 영상에서 상기 제 2 추정 대상 영상과 같은 스펙트럴 대역을 갖는 제 2 추정 복호 영상을 가변 블럭 기반으로 추정 복호하는 제 2 가변 블럭 추정 복호 단계(S560); 및The second local proportional factor and the second local adjacency factor are read out in raster scanning order in the second local proportional / incremental factor set, and in the second final reference decoded image, A second variable block estimation decoding step (S560) of estimating and decoding a second estimated decoding image having the same spectral band on a variable block basis; And

상기 제 1 추정 복호 영상과 상기 제 2 추정 복호 영상 및 상기 제 2 기준 복호 영상을 표색계 변환식에 대입하여 상기 동일 영상의 세 색영상 중 제 1 추정 대상 영상 및 제 2 추정 대상 영상을 제외한 나머지 한 영상과 같은 스펙트럴 대역을 갖는 영상을 계산을 통해 산출하는 제 3 색영상 산출 단계(S570)로 구성된다.The first and second estimated decoded images, and the second reference decoded image to a colorimetric transformation equation to obtain a residual image excluding the first estimation object image and the second estimation object image among the three color images of the same image, And a third color image calculation step (S570) of calculating an image having a spectral band, such as a color gamut, by a calculation.

여기서, 상기 기준 영상은 휘도 영상(Y)과 녹색 영상(G) 중에서 어느 하나로 설정하는 것이 바람직하며, 특히, 영상에 대한 대부분의 정보를 포함하며 동시에 인간의 시감 특성에 민감한 휘도 영상(Y)을 기준 영상으로 설정하는 것이 더욱 더 바람직하다.The reference image is preferably set to one of a luminance image (Y) and a green image (G). In particular, the reference image includes a luminance image (Y) containing most information on the image and being sensitive to a human sensibility characteristic It is more preferable to set the reference image.

이때, 기준 영상이 휘도 영상(Y)으로 설정될 경우, 휘도 영상(Y)과의 색도 상관도가 상대적으로 높은 녹색 영상(G)과 적색 영상(R)을 제 1 추정 대상 영상 및 제 2 추정 대상 영상으로 설정하며, 기준 영상이 녹색 영상(G)으로 설정될 경우에는 제 1 추정 대상 영상 및 제 2 추정 대상 영상을 휘도 영상(Y)과 적색 영상(R)으로 설정하거나 또는 적색 영상(R)과 청색 영상(B)으로 설정하는 것이 바람직하다.When the reference image is set as the luminance image Y, the green image G and the red image R, which have a relatively high degree of chromaticity correlation with the luminance image Y, The target image is set as the target image and when the reference image is set as the green image G, the first and second estimated images are set as the luminance image Y and the red image R, or the red image R ) And a blue image (B).

또한, 상기 제 1 블럭 분할 정보 작성 단계(S320) 및 상기 제 2 블럭 분할 정보 작성 단계(S240)에서 블럭 분할 기법으로는 모블럭(mother block)을 4개의 자식 블럭(child block)으로 분할, 즉 블럭을 4개의 부블럭으로, 부블럭을 4개의 서브 부블럭으로 분할하는 쿼드트리 분할(quadtree partition) 기법을 이용하는 것이 바람직하다.In the first block division information creation step (S320) and the second block division information creation step (S240), a block division method divides a mother block into four child blocks, that is, It is desirable to use a quadtree partition scheme in which a block is divided into 4 sub-blocks and a sub-block is divided into 4 sub-blocks.

상기와 같이 구성된 본 발명에 따른 전역 기반 색도 상관성을 이용한 영상 부호화 방법의 바람직한 실시예를 도 3을 참조하여 상세하게 설명하기로 한다.A preferred embodiment of the image encoding method using the global-based chromaticity correlation according to the present invention will be described in detail with reference to FIG.

우선, 적색 영상(R), 녹색 영상(G), 청색 영상(B)으로 구성된 동일 영상의 색영상이 입력되면, 상기 기준/부호 대상 영상 결정 단계(S110)에서는 적색 영상(R), 녹색 영상(G), 청색 영상(B)으로 합성한 휘도 영상(Y)을 기준 영상으로 설정하고 상기 녹색 영상(G)을 제 1 추정 대상 영상으로 설정하며 적색 영상(R)을 제 2 추정 대상 영상으로 설정하고, 상기 웨이브렛 변환/역변환 단계(S120)에서는 상기 기준 영상을 웨이브렛 변환함으로써 생성되는 저주파 계수 데이터와 고주파 계수 데이터로 구성된 계층적 구조의 웨이브렛 계수 데이터를 저장 매체에 저장한 후, 상기 웨이브렛 계수 데이터를 웨이브렛 역변환하여 제 1 기준 복호 영상을 생성한다.When a color image of the same image composed of a red image R, a green image G and a blue image B is input, in the reference / code image determining step S110, a red image R, The luminance image Y synthesized with the green image G and the blue image B is set as the reference image and the green image G is set as the first estimation target image and the red image R is set as the second estimation target image In the wavelet transform / inverse transformation step (S120), wavelet coefficient data having a hierarchical structure composed of low-frequency coefficient data and high-frequency coefficient data generated by wavelet-transforming the reference image is stored in a storage medium, Wavelet coefficient data is wavelet-transformed to generate a first reference decoded image.

여기서, 기준 영상을 휘도 영상(Y)으로 정하는 근거는 영상에 대한 대부분의 정보를 포함하며 동시에 인간의 시감 특성에 민감할 뿐만 아니라 동일 영상의 적색 영상(R), 녹색 영상(G), 청색 영상(B)을 표색계 변환식에 대입하여 용이하게 합성할 수 있음에 기인한다.Here, the basis for determining the reference image as the luminance image Y includes most of the information about the image and at the same time, it is not only sensitive to the human sensibility characteristic but also the red image R, green image G, (B) can be substituted into the colorimetric transformation equation to easily synthesize them.

이때, 본 발명의 또 다른 실시예에서는 기준 영상으로 휘도 영상(Y)의 대부분의 성분이 되고 있는 녹색 영상(G)을 사용할 수도 있으며, 필요에 따라서는 적색 영상(R)이나 청색 영상(B)을 기준 영상으로 설정할 수 있으나, 본 발명의 바람직한 실시예에서와 같이, 기준 영상은 휘도 영상(Y)으로 정하는 것이 가장 부호화 효율이 양호함을 컴퓨터 시뮬레이션 결과를 통해 확인할 수 있었다.At this time, in another embodiment of the present invention, a green image G which is a majority component of the luminance image Y may be used as a reference image, and a red image R or a blue image B may be used, Can be set as the reference image. However, as in the preferred embodiment of the present invention, it is confirmed from the computer simulation result that the coding efficiency is the best when the reference image is defined as the luminance image (Y).

또한, 부호화단에서 원래의 기준 영상을 부호화한 후, 다시 복호화함에 따라 제 1 기준 복호 영상을 발생하여 이를 실질적인 기준 영상 데이터로 삼는 이유는 부호화단과 복호화단에서 같은 기준 영상 데이터를 이용하여 국부 비례 인자와 국부 가감 인자를 추정한 후, 이를 이용하여 부호화하고 복호화하고자 하는 것이다. 즉, 제 1 기준 복호 영상과 제 2 기준 복호 영상은 채널(전송로, 저장 매체 등) 상에서 발생 가능한 오류를 배제할 때, 동일한 영상으로 간주할 수 있다. 이때, 실질적인 기준 영상 데이터로 복호화하지 않은 원래의 기준 영상을 사용할 수도 있으나 복호화한 제 1 기준 복호 영상을 사용하는 것이 바람직하다.The reason for coding the original reference image at the coding end and then decoding it is to generate the first reference decoded image and use it as the reference reference image data because the reference reference image data at the encoding end and the decoding end are used as the local reference image data And estimates the local additive factor, and then uses it to encode and decode it. That is, the first reference decoded image and the second reference decoded image can be regarded as the same image when an error that may occur on a channel (transmission path, storage medium, etc.) is excluded. At this time, the original reference image which is not decoded into the actual reference image data may be used, but it is preferable to use the decoded first reference decoded image.

한편, 웨이브렛 변환에 이용되는 웨이브렛 기저(wavelet basis)로는 하르 기저(Harr basis), 도베시스(Daubechies)의 4탭 기저(DAUB-4 basis)와 6탭 기저(DAUB-6 basis) 및 9-3 필터 등의 여하의 웨이브렛 기저를 채택하더라도 무방하다.On the other hand, the wavelet basis used for the wavelet transform includes Harr basis, Daubechies 4-tap basis (DAUB-4 basis), 6-tap basis (DAUB-6 basis) -3 filter or the like may be adopted.

이후, 상기 비용 함수 데이터 구성 단계(S210)에서 웨이블렛 변환을 통한 다중 해상도 분석 과정에서 도출되는 두번째 계층의 상기 고주파 계수 데이터에 절대값을 취한 후, 동일 발생 기원을 갖는 수직 방향, 수평 방향, 대각선 방향의 고주파 계수들을 각각 화소 단위로 합산하여 비용 함수 데이터를 구성한다.Then, after taking the absolute value of the high-frequency coefficient data of the second layer derived in the multi-resolution analysis process through the Wavelet transform in the cost function data forming step (S210), the absolute value is taken in the vertical direction, horizontal direction, diagonal direction Frequency components of each pixel in units of pixels to constitute cost function data.

웨이블렛 계수 데이터의 고주파 계수 데이터를 이용하여 블럭 가변을 위한 비용 함수를 결정하는 근거는 색도 상관성은 저주파 성분을 상대적으로 많이 포함하고 있는 평탄 영역에서는 상관도가 높지만, 고주파 성분이 많은 영역 또는 윤곽 정보가 많은 영역, 즉, 고역 콘트라스트에 비례하는 정보가 많은 영역에서는 색도 상관도가 저하되는 특징이 있음에 따라 이러한 국부적인 특성을 영상 부호화에 적응적으로 반영할 수 있도록 블럭의 크기를 가변시킬 필요성이 있기 때문임을 전술한 바 있다.The reason for determining the cost function for the block variable using the high frequency coefficient data of the wavelet coefficient data is that the chromaticity correlation has a high degree of correlation in the flat region having a relatively large number of low frequency components, Since the degree of chromaticity correlation degrades in many areas, that is, areas where information proportional to the high-contrast contrast is high, there is a need to vary the size of the block so that such local characteristics can be adaptively reflected in image encoding I have mentioned above.

따라서, 본 발명에서는 고역 콘트라스트에 비례하는 정보를 추출하기 위해 웨이브렛 변환을 이용하였으나 고주파 데이터를 검출한 수 있는 여하의 필터나 에지 검출 마스크(edge detection mask)를 이용하여도 무방하지만, 본 발명의 바람직한 실시예에서는 전체적인 부호화 효율, 움직임 추정, 고속 신호 처리, 신호의 다중 해상도 및 다중 주파수 분석 등을 고려하여 웨이브렛 변환을 채택하고 있는 것이다. 웨이브렛 변환은 필터 뱅크 해석을 통해 살펴볼 수 있듯이, 웨이브렛 변환 자체에 고역 통과 필터를 포함하고 있어 별도로 고역 통과 필터를 적용하여 윤곽 정보를 추출할 필요가 없는 것이 큰 특징 중의 하나이다.Therefore, in the present invention, although wavelet transform is used to extract information proportional to high-contrast contrast, any filter or edge detection mask capable of detecting high-frequency data may be used. However, In the preferred embodiment, wavelet transform is adopted in consideration of the overall coding efficiency, motion estimation, high-speed signal processing, multiple resolution of signals, and multi-frequency analysis. As we can see from the analysis of the filter bank, the wavelet transform includes a high-pass filter in the wavelet transform itself, so that it is not necessary to extract the outline information by applying a high-pass filter separately.

본 발명의 비용 함수 데이터를 설정함에 있어서, 상기 고주파 계수 데이터에 절대값을 취하는 것은 상기 고주파 계수 데이터의 데이터형이 실수형이며, 고주파 성분의 분포 정도가 절대값의 크기에 비례하기 때문이다. 또한, 실수형 데이터에 할당해야 할 데이터량을 줄이기 위해 정확도(precision)가 떨어지는 것을 감수하며 소수점 이하의 값을 라운딩(rounding) 또는 트렁케이션(trucation)함을 통해 정수형 데이터로 변환하여 사용하는 것이 일반적이다. 상기한 본 발명의 바람직한 실시예에서는 두 번째 계층의 고주파 계수 데이터를 이용하여 비용 함수 데이터를 구성하였으나 최하위 계층을 이용하거나 두 번째 이상을 계층을 이용하여도 무방하며 이들 계층들 간의 고주파 계수 데이터를 화소 단위로 모두 합산하여 이용하여도 유사한 결과를 얻는다. 그리고, 수직 방향, 수평 방향, 대각선 방향의 고주파 계수들을 모두 이용하였지만 이중 어느 한 방향의 고주파 계수를 이용하여 비용함수 데이터를 구성하여도 부호화 결과에 큰 변화를 초래하지 않지만, 인간의 시감 특성은 대각선 고주파 성분에 비해 수평 및 수직 고주파 성분에 더 민감함에 따라 이를 비용 함수 데이터를 결정할 시에 반영하는 것이 바람직하다. 또한, 웨이브렛 변환을 이용한 영상 부호화를 수행할 시에는 그 부호화 특성상, 계수의 절대값의 크기가 상대적으로 큰 순으로 정렬하여 부호화하는, 이른바 크기 기반(magnitude-based)으로 영상 데이터를 부호화하는 기법을 많이 채택하고 있음에 따라 상위 계층에 비해 확률적으로 계수의 절대값이 작을 가능성이 높은 최하위 계층의 고주파 계수는 상대적으로 부호화에 반영되지 않을 확률이 큼에 따라 본 발명의 바람직한 실시예에서와 같이 두 번째 계층의 고주파 계수를 이용하는 것이 합리적이다.In setting the cost function data of the present invention, taking the absolute value of the high-frequency coefficient data is because the data type of the high-frequency coefficient data is a real number type and the degree of distribution of the high-frequency component is proportional to the magnitude of the absolute value. In order to reduce the amount of data to be allocated to real-valued data, it is common to convert the integer value data by rounding or truc- to be. In the preferred embodiment of the present invention, the cost function data is constructed using the second-order high-frequency coefficient data, but it is also possible to use the lowest-order layer or the second or higher layer, Similar results can be obtained by using all of them together. Although the high frequency coefficients in the vertical direction, the horizontal direction and the diagonal direction are all used, even if the cost function data is constructed by using the high frequency coefficient in either direction, the coding result does not greatly change. However, As it is more sensitive to the horizontal and vertical high frequency components than the high frequency component, it is preferable to reflect this in determining the cost function data. Further, when performing image coding using wavelet transform, a method of encoding image data in a so-called magnitude-based manner in which the absolute values of the coefficients are sorted in a descending order of magnitude, Since the probability that the absolute value of the coefficient is low and the coefficient of the lowermost layer which is likely to be smaller in probability than the upper layer is high is not relatively reflected in the coding, as in the preferred embodiment of the present invention It is reasonable to use the second-order high-frequency coefficient.

전술한 바와 같이, 상기 비용 함수 데이터 구성 단계(S210)에서 비용 함수 데이터를 구성하면, 상기 전체 임계치 산출 단계(S220)에서는 상기 비용 함수 데이터의 모든값은 합산하여 평균한 전체 평균치를 구한 후, 상기 전체 평균치에 비례 상수를 곱하여 전체 임계치를 산출하고, 상기 제 1 블럭 분할 정보 작성 단계(S230)에서는 상기 비용 함수 데이터를 블럭 기반으로 합산하여 평균한 블럭 평균치를 구한 후, 상기 전체 임계치 보다 상기 블럭 평균치가 크면, 해당 블럭을 네 개의 부블럭으로 쿼드트리 분할하는 블럭 가변 정보를 래스터 스캐닝 순서로 상기 검색 테이블에 기록하며, 상기 제 2 블럭 분할 정보 작성 단계(S240)에서도 상기 제 1 블럭 분할 정보 작성 단계(S230)와 유사하게, 상기 부블럭 데이터를 각각 합산하여 평균한 부블럭 평균치를 구한 후, 상기 전체 임계치 보다 상기 부블럭 평균치가 크면, 해당 부블럭을 네 개의 서브 부블럭으로 쿼드트리 분할하는 블럭 가변 정보를 래스터 스캐닝 순서로 상기 검색 테이블에 기록한다.As described above, if the cost function data is configured in the cost function data structure step S210, the total threshold value calculation step S220 calculates all the values of the cost function data by summing and averaging the average values, The total block threshold value is calculated by multiplying the total average value by a proportional constant. In the first block division information creating step S230, a block average value obtained by summing up the cost function data on a block basis is obtained, , The block variable information for dividing the block into four subblocks by quad tree is recorded in the search table in the raster scanning order, and in the second block division information creation step (S240), the first block division information creation step Block average value obtained by summing and averaging each of the sub-block data, Group is the unit block average value is larger than the overall threshold, and records the sub-block of the four sub-sub-block wherein the search table for variable information block for dividing quadtree in raster scanning order.

이때, 상기 전체 평균치은 영상의 통계적인 특성을 전체 임계치 결정에 반영하기 위한 것이고, 비례 상수는 블럭의 크기가 부블럭 또는 서브 부블럭의 크기로 분할되는 비율 정도를 가감할 수 있는 파라미터로, 비례 상수의 크기에 비례하여 분할 비율 정도도 비례함에 따라 데이터 압축에 있어서 흐름 제어(flow control)에 효율적으로 이용할 수 있다.The total average value is used to reflect the statistical characteristics of the image to the overall threshold value determination. The proportional constant is a parameter that can increase or decrease the degree of the ratio of the size of the block divided by the size of the subblock or subblock. The division ratio is also proportional to the size of the data stream, so that it can be efficiently used for flow control in data compression.

본 발명의 바람직한 실시예에서는 영상의 통계적인 특성을 전체 임계치 결정에 반영하기 위해 전체 평균치만을 이용하였지만 좀 더 정확한 통계적인 특성을 반영하기 위해서는 데이터의 표준 편차(standard deviation)나 분산(variance) 등을 전체 평균치와 함께 고려하는 것이 더욱 더 바람직하지만, 컴퓨터 시뮬레이션을 통해 실험적으로 그 성능 정도를 평가해보면, 결과에 큰 격차를 초래하지 않을 뿐 더러 연산량을 증가시키는 문제에 당면함에 따라 본 발명에서는 전체 평균치에 비례 상수를 곱하는 형태를 취하여 블럭 가변을 위한 전체 임계치를 설정한다.In the preferred embodiment of the present invention, only the entire average value is used to reflect the statistical characteristics of the image to the overall threshold value. However, in order to reflect the more accurate statistical characteristics, standard deviation or variance of data Although it is more preferable to consider it together with the overall average value, if the performance is evaluated experimentally through a computer simulation, it is not caused a large gap in the result, and as it faces a problem of increasing the calculation amount, Multiply proportional constants, and sets the total threshold value for the block variable.

그리고, 상기 제 1 블럭 분할 정보 작성 단계(S230) 및 제 2 블럭 분할 정보 작성 단계(S240)의 두 단계를 통해 블럭을 부블럭으로, 부블럭을 서브 부블럭으로 분할함으로써 좀 더 정확한 추정 효율을 기하였으나 서브 부블럭을 또 다시 쿼드트리 분할하는 동작을 순차적으로 반복 적용함으로써 단위 블럭의 크기가 단일 화소와 같아지는 시점 까지 블럭 분할을 수행하여 영상의 품질을 개선할 수 있지만 너무 작은 블럭의 크기는 영상 데이터를 블럭 기반으로 처리하는 목적 자체에 모순을 야기시킴에 따라 화질과 압축율의 적절한 상호 타협(trade-off) 관계를 설정해야 한다.By dividing a block into a sub-block and a sub-block into sub-blocks by two steps of the first block division information creation step (S230) and the second block division information creation step (S240), more accurate estimation efficiency However, it is possible to improve the image quality by performing the block division until the unit block size becomes equal to the single pixel by sequentially applying the operation of dividing the sub-block again to the quad-tree, but the size of the block is too small It is necessary to establish an appropriate trade-off relationship between image quality and compression ratio by causing contradictions in the purpose of processing image data on a block basis.

또한, 상기 제 1 블럭 분할 정보 작성 단계(S230) 및 제 2 블럭 분할 정보 작성 단계(S240)에서는 동일한 전체 임계치를 이용하여 블럭 가변 정도를 결정하였으나 제 2 블럭 분할 정보 작성 단계(S240)를 포함한 다음에 이어질 수 있는 분할 정보 작성 단계에서는 각 부블럭 및 서브 부블럭 단위로 상기 비례 상수를 새롭게 설정하여 임계치를 적응적으로 변경함으로써 블럭의 분할 비율을 적절하게 조절할 수 있다.In the first block division information creation step S230 and the second block division information creation step S240, the degree of block variable is determined using the same overall threshold value, but the second block division information creation step S240 It is possible to appropriately adjust the division ratio of the block by newly setting the proportional constant in units of subblocks and subbubble blocks and adaptively changing the threshold value.

본 발명에서는 블럭의 크기를 가변하기 전의 블럭의 크기, 즉, 최초 블럭의 크기를 16화소×16화소로 설정하여 부블럭의 크기가 8화소×8화소, 서브 부블럭의 크기가 4화소×4화소가 되도록 블럭을 쿼드트리 분할한다. 이때, 최초 블럭의 크기로 16화소×16화소 뿐만 아니라 영상의 특성에 따라 8화소×8화소, 32화소×32화소, 64화소×64화소 등도 고려할 수 있다.In the present invention, the size of the block before the size of the block is varied, that is, the size of the initial block is set to 16 pixels x 16 pixels so that the size of the sub-block is 8 pixels x 8 pixels, the size of the sub- The block is quad-tree divided to be a pixel. At this time, not only 16 pixels x 16 pixels but also 8 pixels x 8 pixels, 32 pixels x 32 pixels, 64 pixels x 64 pixels and the like can be considered according to the characteristics of the image.

도 4는 본 발명의 검색 테이블에 따라 탁구 영상을 블럭(16화소×16화소), 부블럭(8화소×8화소), 서브 부블럭(4화소×4화소)으로 쿼드트리 분할한 영상을 나타낸 것이다. 고주파 영상 신호가 상대적으로 많이 분포하는 에지 영역을 효과적으로 쿼드트리 분할하고 있음을 확인할 수 있다.4 shows an image obtained by dividing a table tennis image into blocks (16 pixels × 16 pixels), a sub-block (8 pixels × 8 pixels), and a sub-block (4 pixels × 4 pixels) according to the search table of the present invention will be. It can be confirmed that the edge region in which the high frequency image signals are relatively distributed is effectively divided into the quad tree.

상기 제 1 블럭 분할 정보 작성 단계(S230) 및 제 2 블럭 분할 정보 작성 단계(S240)를 수행한 후, 상기 전역 비례/가감 인자 추정 단계(S310)에서 상기 제 1 기준 복호 영상과 상기 제 1 추정 대상 영상 간의 오차인 제 1 전역 오차가 최소가 되도록 하는 스트레칭 정보인 제 1 전역 비례 인자와 슬라이싱 정보인 제 1 전역 가감 인자를 프레임 단위로 추정하여 제 1 전역 비례/가감 인자 집합에 버퍼링하고, 상기 제 1 기준 복호 영상과 상기 제 2 추정 대상 영상 간의 오차인 제 2 전역 오차가 최소가 되도록 하는 스트레칭 정보인 제 2 전역 비례 인자와 슬라이싱 정보인 제 2 전역 가감 인자를 프레임 단위로 추정하여 제 2 전역 비례/가감 인자 집합에 버퍼링하면, 상기 갱신 기준 영상 생성 단계(S320)에서는 상기 제 1 기준 복호 영상에 상기 제 1 전역 비례 인자 및 상기 1 전역 가감 인자를 프레임 단위로 적용하여 제 1 갱신 기준 영상을 생성하고, 상기 제 1 기준 복호 영상에 상기 제 2 전역 비례 인자 및 상기 제 2 전역 가감 인자를 프레임 단위로 적용하여 제 2 갱신 기준 영상을 생성한다.After the first block segmentation information generation step S230 and the second block segmentation information generation step S240 are performed, in the global proportion / acceleration factor estimation step S310, the first reference decoded image and the first estimation Estimating a first global proportional factor, which is stretching information and a first global stimuli factor, which is slicing information, so as to minimize a first global error, which is an error between a target image, in a frame unit and buffers the first global proportional factor in a first global proportional / Estimating a second global proportional factor, which is stretching information, and a second global enhancement factor, which is slicing information, so as to minimize a second global error, which is an error between the first reference image and the second estimated object image, In the update reference image generation step S320, the first global proportional factor and the first global proportional factor are added to the first reference decoded image, A second update reference image is generated by applying the global enhancement factor to the first reference image by applying the second global enhancement factor and the second global enhancement factor to the first reference image, .

이후, 상기 전역 분할 판단 단계(S330)에서는 상기 제 1 전역 오차가 기설정된 제 1 기준치 보다 큰지 여부를 판단하고, 상기 제 2 전역 오차가 기설정된 제 2 기준치 보다 큰지 여부를 판단하고, 상기 전역 분할 판단 단계(S330)의 판단 결과, 상기 제 1 전역 오차가 상기 제 1 기준치 보다 작으면, 상기 제 1 갱신 기준 영상을 제 1 최종 기준 영상으로 설정하고, 상기 제 2 전역 오차가 상기 제 2 기준치 보다 작으면, 상기 제 2 갱신 기준 영상을 제 2 최종 기준 영상으로 설정한다.Then, in the global segmentation step (S330), it is determined whether the first global error is greater than a predetermined first reference value, whether the second global error is greater than a predetermined second reference value, If it is determined that the first global error is smaller than the first reference value as a result of the determining step S330, the first update reference image is set as the first final reference image, The second update reference image is set as the second final reference image.

반면에 상기 전역 분할 판단 단계(S330)의 판단 결과, 상기 제 1 전역 오차가 기설정된 제 1 기준치 보다 크면, 상기 부전역 비례/가감 인자 추정 단계(S350)에서는 상기 제 1 추정 대상 영상을 두 개 이상의 부영상으로 분할하여 상기 제 1 갱신 기준 영상과 상기 제 1 추정 대상 영상 간의 오차가 최소가 되도록 하는 스트레칭 정보인 제 1 부전역 비례 인자(sub-global scale factor)와 슬라이싱 정보인 제 1 부전역 가감 인자(sub-global offset factor)를 부영상 단위로 추정하여 상기 제 1 전역 비례/가감 인자 집합에 버퍼링하고, 또한, 상기 제 2 전역 오차가 기설정된 제 2 기준치 보다 크면, 상기 제 2 추정 대상 영상을 두 개 이상의 부영상으로 분할하여 상기 제 2 갱신 기준 영상과 상기 제 2 추정 대상 영상 간의 오차가 최소가 되도록 하는 스트레칭 정보인 제 2 부전역 비례 인자(sub-global scale factor)와 슬라이싱 정보인 제 2 부전역 가감 인자(sub-global offset factor)를 부영상 단위로 추정하여 상기 제 2 전역 비례/가감 인자 집합에 버퍼링한다.On the other hand, if it is determined that the first global error is greater than the predetermined first reference value as a result of the global segmentation step S330, the step S503 of estimating the SBS / A first sub-global scale factor, which is stretching information for minimizing an error between the first update reference image and the first estimation target image, and a first sub-global enhancement factor, which is slicing information, estimating a sub-global offset factor in a sub-image unit and buffering the sub-global offset factor in the first global proportional / incremental factor set; and if the second global error is greater than a predetermined second reference value, Which is the stretching information for minimizing the error between the second update reference image and the second estimation subject image, Estimates a sub-global scale factor and a second sub-global offset factor, which is slicing information, on a sub-image basis, and buffers the second global scale factor and the second global proportional /

이어서, 상기 최종 기준 영상 생성 단계(S360)에서는 상기 제 1 부전역 비례 인자 및 상기 제 1 부전역 가감 인자를 상기 제 1 갱신 기준 영상에 부영상 단위로 적용하여 상기 제 1 최종 기준 영상을 생성하고, 상기 제 2 부전역 비례 인자 및 상기 제 2 부전역 가감 인자를 상기 제 2 갱신 기준 영상에 부영상 단위로 적용하여 상기 제 2 최종 기준 영상을 생성한다.Subsequently, in the final reference image generation step (S360), the first final reference image is generated by applying the first subpotential proportion factor and the first subpotential addition factor to the first update reference image in sub-image units, The second sub-field proportional factor, and the second sub-field addition factor to the second update reference image in sub-image units to generate the second final reference image.

상기와 같이, 상기 제 1 블럭 분할 정보 작성 단계(S230) 및 제 2 블럭 분할 정보 작성 단계(S240)를 통해 모든 블럭에 대한 블럭 가변 정보가 기록된 검색 테이블이 작성되고, 상기 전역 추정 부호/복호 단계(S300)를 통해 상기 제 1 최종 기준 영상 및 상기 제 2 최종 기준 영상을 생성하게 되면, 상기 가변 블럭 분할 단계(S410)에서는 상기 검색 테이블의 블럭 가변 정보에 따라 상기 제 1 최종 기준 영상을 분할하여 복수의 제 1 최종 기준 블럭으로 구성된 제 1 최종 기준 블럭군을 생성하고, 상기 검색 테이블의 블럭 가변 정보에 따라 상기 제 2 최종 기준 영상을 분할하여 복수의 제 2 최종 기준 블럭으로 구성된 제 2 최종 기준 블럭군을 생성하며, 상기 제 1 추정 대상 영상을 분할하여 복수의 제 1 추정 대상 블럭으로 구성된 제 1 추정 대상 블럭군을 생성하며, 상기 제 2 추정 대상 영상을 분할하여 복수의 제 2 추정 대상 블럭으로 구성된 제 2 추정 대상 블럭군을 생성한다.As described above, a look-up table in which block variable information for all blocks is recorded is created through the first block division information creation step (S230) and the second block division information creation step (S240), and the global estimation code / When the first final reference image and the second final reference image are generated in step S300, the variable final image is divided into the variable final image in step S410 according to the block variable information of the look- And generating a first final reference block group composed of a plurality of first final reference blocks and dividing the second final reference image according to the block variable information of the lookup table to generate a second final block composed of a plurality of second final reference blocks A first estimation target block group composed of a plurality of first estimation target blocks is generated by dividing the first estimation target image, The second estimate to produce a second estimation target block group composed of a plurality of second estimating the target block by dividing a target image.

이어서, 상기 제 1 가변 블럭 추정 부호화 단계(S420)에서는 상기 제 1 최종 기준 블럭군과 상기 제 1 추정 대상 블럭군에서 래스터 스캐닝 순으로 각각 상기 제 1 최종 기준 블럭과 상기 제 1 추정 대상 블럭을 선택하여 상기 제 1 최종 기준 블럭과 상기 제 1 추정 대상 블럭 간의 오차가 최소 자승 오차(least square error)가 되도록 하는 스트레칭 정보인 제 1 국부 비례 인자와 슬라이싱 정보인 제 1 국부 가감 인자를 가변 블럭 기반으로 추정하여 래스터 스캐닝 순서로 제 1 국부 비례/가감 인자 집합에 버퍼링하고, 상기 제 2 가변 블럭 추정 부호화 단계(S430)에서는 상기 제 2 최종 기준 블럭군과 상기 제 2 추정 대상 블럭군에서 래스터 스캐닝 순으로 각각 상기 제 2 최종 기준 블럭과 상기 제 2 추정 대상 블럭을 선택하여 상기 제 2 최종 기준 블럭과 상기 제 2 추정 대상 블럭 간의 오차가 최소 자승 오차(least square error)가 되도록 하는 스트레칭 정보인 제 2 국부 비례 인자와 슬라이싱 정보인 제 2 국부 가감 인자를 가변 블럭 기반으로 추정하여 래스터 스캐닝 순으로 제 2 국부 비례/가감 인자 집합에 버퍼링한다.Then, in the first variable block estimation coding step S420, the first final reference block and the first estimation target block are selected in the raster scanning order in the first final reference block group and the first estimated current block group, respectively A first local proportional factor, which is stretching information for causing an error between the first final reference block and the first estimated block to be a least square error, and a first local additive factor, which is slicing information, And the second variable block estimation encoding step (S430) is performed in the order of raster scanning in the second final reference block group and the second estimation target block group in the order of raster scanning And selecting the second final reference block and the second estimated object block to generate the second final reference block and the second estimated block, A second local proportional factor, which is stretching information, which causes an error between the target blocks to be a least square error, and a second local adjacency factor, which is slicing information, are estimated on a variable block basis and a second local proportion / Buffer to the argument set.

이후, 상기 추정 부호화 완료 판단 단계(S440)에서는 래스터 스캐닝 순서 상에서 마지막에 위치한 최종 제 1 추정 대상 블럭에 대한 제 1 국부 비례 인자 및 제 1 국부 가감 인자와 최종 제 2 추정 대상 블럭에 대한 제 2 국부 비례 인자 및 제 2 국부 가감 인자가 추정됐는지 여부를 판단하여 판단 결과, 추정되지 않았으면, 상기 가변 블럭 분할 단계(S410)로 되돌아 감으로써 제 1 추정 대상 블럭군 및 상기 제 2 추정 대상 블럭군에 포함된 모든 블럭에 대한 추정 부호화를 수행하도록 하는 데, 상기 추정 부호화 완료 판단 단계(S440)의 판단 결과, 상기 최종 제 1 추정 대상 블럭에 대한 제 1 국부 비례 인자 및 제 1 국부 가감 인자와 상기 최종 제 2 추정 대상 블럭에 대한 제 2 국부 비례 인자 및 제 2 국부 가감 인자가 추정됐으면, 제 1 국부 비례/가감 인자 집합 및 제 2 국부 비례/가감 인자 집합을 저장하거나 전송함으로써 부호화 과정을 완료하게 된다.Then, in the estimation encoding completion determination step S440, the first local proportion factor and the first local adjacency factor for the final first estimation target block located last in the raster scanning order, and the second local estimation factor for the final second estimation target block, If it is determined that the proportional factor and the second local acceleration factor have not been estimated, the process returns to the variable block dividing step S410 to determine whether the first estimation target block group and the second estimation target block group The estimated first encoding method comprising the steps of: (a) estimating encoding of all blocks included in the current block to be estimated; If the second local proportional factor and the second local enhancement factor for the second estimation object block are estimated, the first local proportional / 2 local ratio / increment factor set is stored or transmitted.

한편, 복호화 과정에서는 전술한 바와 같은 부호화 과정을 통해 생성된 데이터를 전송로나 데이터 저장 매체에서 판독하여 부호화 과정의 역순으로 영상을 복원하게 되는 데, 이를 순차적으로 살펴 보면, 상기 복호 데이터 입력 단계(S510)에서 상기 웨이브렛 계수 데이터, 상기 제 1 전역 비례/가감 인자 집합 및 제 2 전역 비례/가감 인자 집합, 상기 제 1 국부 비례/가감 인자 집합 및 상기 제 2 국부 비례/가감 인자 집합을 입력받으면, 상기 복호 검색 테이블 작성 단계(S520)에서는 상기 웨이브렛 계수 데이터를 이용하여 상기 검색 테이블 작성 단계(S200)와 동일한 수순을 거쳐 상기 검색 테이블을 작성한다.On the other hand, in the decoding process, the data generated through the encoding process described above is read from the transmission line or the data storage medium, and the image is restored in the reverse order of the encoding process. ), If the wavelet coefficient data, the first global proportional / additive factor set and the second global proportional / additive factor set, the first local proportional / additive factor set, and the second local proportional / In the decoding search table creation step (S520), the search table is created through the same procedure as the search table creation step (S200) using the wavelet coefficient data.

이와 같이, 복호단에서 입력받은 웨이브렛 계수 데이터를 이용하여 부호단에서와 작성한 검색 테이블과 동일한 검색 테이블을 작성할 수 있음에 따라 부호화 과정에서 블럭 가변 정도를 통지하는 별도의 헤더를 제 1 국부 비례/가감 인자 집합 및 제 2 국부 비례/가감 인자 집합에 부가하지 않아도 된다.Since the same lookup table as the lookup table created at the code end can be created using the wavelet coefficient data input at the decoding end, a separate header for notifying the extent of the block variability in the encoding process can be generated by the first local proportion / It does not have to be added to the additive factor set and the second local proportional / additive factor set.

그러나, 잡음 및 기타 신뢰성 있는 통신을 저해하는 요소가 존재하는 전송 매체인 채널(channel)을 통과하면서 다양한 오류가 발생할 수 있지만, 이와 같이 헤더를 부가하지 않고 가변 블럭 기반의 부호화를 수행할 수 있기 위한 전제 조건은 오류를 효과적으로 정정하여 원하는 수준 이하의 오율을 확보할 수 있어야 한다는 사실이다. 즉, 이와 같은 전제 조건이 만족되어야 복호단에서도 부호단에서와 같은 동일한 검색 테이블을 작성할 수 있다.However, a variety of errors may occur while passing through a channel that is a transmission medium in which noise and other reliable communication elements are obstructed. However, in order to perform variable block-based encoding without adding a header, The precondition is that the error must be corrected effectively to ensure the error rate below the desired level. That is, if the precondition is satisfied, the same search table as in the code stage can be created even in the decoding stage.

상기 검색 테이블이 작성되면, 상기 기준 영상 복호 단계(S530)에서는 상기 웨이브렛 계수 데이터를 웨이블렛 역변환하여 상기 기준 영상에 대응하는 제 2 기준 복호 영상을 복호하고, 상기 제 1 최종 기준 복호 영상 생성 단계(S540)에서는 상기 제 1 전역 비례/가감 인자 집합에서 상기 제 1 전역 비례 인자와 상기 제 1 전역 가감 인자를 판독하여 상기 제 2 기준 복호 영상에 프레임 단위로 적용함으로써 상기 제 1 갱신 기준 영상에 대응하는 제 1 갱신 기준 복호 영상을 생성한 후, 상기 제 1 부전역 비례 인자와 상기 제 1 부전역 가감 인자를 판독하여 상기 제 1 갱신 기준 복호 영상에 부영상 단위로 적용하여 상기 제 1 최종 기준 영상에 대응하는 제 1 최종 기준 복호 영상을 생성하고, 또한, 상기 제 2 전역 비례/가감 인자 집합에서 상기 제 2 전역 비례 인자와 상기 제 2 전역 가감 인자를 판독하여 상기 제 2 기준 복호 영상에 프레임 단위로 적용함으로써 상기 제 2 갱신 기준 영상에 대응하는 제 2 갱신 기준 복호 영상을 생성한 후, 상기 제 2 부전역 비례 인자와 상기 제 2 부전역 가감 인자를 판독하여 상기 제 2 갱신 기준 복호 영상에 부영상 단위로 적용하여 상기 제 2 최종 기준 영상에 대응하는 제 2 최종 기준 복호 영상을 생성한다.If the lookup table is created, the reference image decoding step (S530) decodes the second reference decoded image corresponding to the reference image by inverse wavelet transforming the wavelet coefficient data, and generates the first final reference decoded image S540), the first global proportional factor and the first global enhancement factor are read in the first global proportional / additive factor set and applied to the second reference decoded image frame by frame, And a second decoding unit for decoding the first sub-region proportion factor and the first sub-band addition factor by applying the sub-image unit to the first update reference decoded image after generating the first update reference decoded image, Generating a first final reference decoded image and generating a second global proportional / The second global reference image is generated by applying the second global enhancement factor to the second reference decoded image on a frame basis to generate a second update reference decoded image corresponding to the second update reference image, Subtraction factor, and applies the sub-image unit to the second update reference decoded image to generate a second final reference decoded image corresponding to the second final reference image.

이후, 상기 제 1 가변 블럭 추정 복호 단계(S550)에서는 상기 제 1 국부 비례/가감 인자 집합에서 상기 제 1 국부 비례 인자와 상기 제 1 국부 가감 인자를 래스터 스캐닝 순으로 판독하여 상기 검색 테이블에 따라 상기 제 1 최종 기준 복호 영상에서 상기 제 1 추정 대상 영상과 같은 스펙트럴 대역을 갖는 제 1 추정 복호 영상을 가변 블럭 기반으로 추정 복호하고, 상기 제 2 가변 블럭 추정 복호 단계(S560)에서는 상기 제 2 국부 비례/가감 인자 집합에서 상기 제 2 국부 비례 인자와 상기 제 2 국부 가감 인자를 래스터 스캐닝 순으로 판독하여 상기 검색 테이블에 따라 상기 제 2 최종 기준 복호 영상에서 상기 제 2 추정 대상 영상과 같은 스펙트럴 대역을 갖는 제 2 추정 복호 영상을 가변 블럭 기반으로 추정 복호한다.Then, in the first variable block estimation decoding step S550, the first local proportion factor and the first local increment factor are read in the first local proportion / increment factor set in the order of raster scanning, The first estimated decoded image having the same spectral bandwidth as the first estimated object image is estimated and decoded based on a variable block based on the first final reference decoded image and the second variable block estimation decoding step S560, The second local proportional factor and the second local adjacency factor are read out in raster scanning order in a proportional / decrement factor set, and in the second final reference decoded image, the same spectral band as the second estimated object image Decoded on the basis of a variable block.

최종적으로, 상기 제 3 색영상 산출 단계(S570)에서는 상기 제 1 추정 복호 영상과 상기 제 2 추정 복호 영상 및 상기 제 2 기준 복호 영상을 표색계 변환식에 대입하여 상기 동일 영상의 세 색영상 중 제 1 추정 대상 영상 및 제 2 추정 대상 영상을 제외한 나머지 한 영상과 같은 스펙트럴 대역을 갖는 영상을 계산을 통해 산출함으로써 복호화 과정을 완료한다.Finally, in the third color image calculation step (S570), the first estimated decoded image, the second estimated decoded image, and the second reference decoded image are substituted into a colorimetric transformation equation to obtain a first color image of the same image The decoding process is completed by calculating an image having the same spectral band as the other image excluding the estimation target image and the second estimation target image through calculation.

이하, 지금까지 설명한 본 발명의 바람직한 실시예에 대한 이해를 돕고자 수학적인 표현을 통해 본 발명의 핵심적인 사항만을 재차 살펴보기로 한다.Hereinafter, only the essential points of the present invention will be examined again through mathematical expressions to help understand the preferred embodiments of the present invention.

상기 적색 영상(R), 녹색 영상(G), 청색 영상(B)을 이용하여 수학식 1 또는 수학식 2를 통해 휘도 영상(Y) 영상을 산출한 후, 녹색 영상(G)과 적색 영상(R)을 직접적으로 부호화하는 대신에 전역 비례/가감 인자 집합과 국부 비례/가감 인자를 추출하게 되는 데, 이를 수학적인 표현을 통해 살펴 보면,A luminance image Y is calculated using Equation 1 or Equation 2 using the red image R, the green image G and the blue image B and then the green image G and the red image B R), instead of coding directly, the global proportional / additive factor set and the local proportional / additive factor are extracted. Through mathematical expression,

[수학식 5]&Quot; (5) "

수학식 5와 같이의 두 화소 집합을 정의할 경우,의 두 화소 집합을 최적으로 근사화시키기 위해, 수학식 6에서값을 최소화시키는 비례 인자 ''와 가감 인자 ''를 구함으로써의 화소 집합과 비례 인자 '' 및 가감 인자 ''만을 이용하여의 두 화소 집합을 표현할 수 있다.As shown in Equation (5) When defining a set of two pixels of < RTI ID = 0.0 > In order to optimally approximate the two pixel sets of Equation 6, A proportional factor that minimizes the value ' 'And the additive factor' ' And the proportionality factor ' 'And the additive factor' 'Only Can represent two sets of pixels.

[수학식 6]&Quot; (6) "

여기서,은 화소 집합의 크기를 나타내는 값이며,는 화소 집합의 원소, 즉, 화소값을 나타내는 인덱스 변수이다. 이때, 상기와 같이 최소 자승 오차를 만족시킬 수 있는 비례 인자 ''와 가감 인자 ''는 비례 인자 ''와 가감 인자 ''을 변수로 하는 편미분을 통해 산출할 수 있는 데, 그 결과를 수학식 7에 제시한다.here, Is a value indicating the size of the pixel set, Is an index variable indicating an element of the pixel set, that is, a pixel value. At this time, the proportional factor that can satisfy the least squared error as described above, 'And the additive factor' 'Proportional factor' 'And the additive factor' Can be calculated by using a partial derivative with the variable " a " as a variable, and the result is shown in Equation (7).

[수학식 7]&Quot; (7) "

이때, 수학식 7에서 ''의 분모항이 수학식 8과 같이 영(zero)이되면,At this time, in Equation (7) 'Becomes zero as in Equation 8,

[수학식 8]&Quot; (8) "

''가 영으로 나누어짐에 따라 연산 결과가 발산하게 되는데, 이와 같은 경우에는 수학식 9를 이용함으로써 이와 같은 문제를 해결할 수 있다.' 'Is divided into zeros, the operation result is diverged. In such a case, this problem can be solved by using Equation (9).

[수학식 9]&Quot; (9) "

이상과 같이, 비례 인자 ''와 가감 인자 ''는 각각의 두 화소 집합을 최적으로 근사화되기 위한 스트레칭 정보와 슬라이싱 정보가 된다. 즉, 비례 인자 ''와 가감 인자 ''는 각각의 두 화소 집합을 최적으로 근사화되기 위한 비례값(scale value)과 가감값(offset value)이 된다.As described above, the proportional factor ' 'And the additive factor' 'Respectively Is the stretching information and the slicing information for optimally approximating the two pixel sets of the pixel. That is, 'And the additive factor' 'Respectively And a scale value and an offset value for optimally approximating the two pixel sets of the first and second pixels.

이하, 전술한 바와 같은 비례 인자 및 가감 인자 추출 과정을 적색 영상(R), 녹색 영상(G), 청색 영상(B)에 직접 적용한 본 발명에 적용할 비례 인자 및 가감 인자 추출 과정을 수식적 표현을 빌어 구체적으로 설명하기로 한다.Hereinafter, the proportional factor and the additive factor extraction process to be applied to the present invention in which the proportional factor and the additive factor extraction process as described above are directly applied to the red image (R), green image (G), and blue image (B) I will explain it specifically.

이때, 상기 전역 비례/가감 인자 집합 및 상기 국부 비례/가감 인자 집합을 산출하는 과정은 부호 대상 영상의 데이터 크기를 프레임 단위로 처리할 것인가와 블럭 단위로 처리할 것인가만 차이가 있을 뿐 기본적인 사상은 동일함에 따라 설명의 중복성을 피하기 위해 국부 비례/가감 인자 집합을 구하는 과정을 중심으로 이를 설명하기로 한다.Here, the process of calculating the set of the global proportional / incremental factor and the local proportional / incremental factor may differ only in whether the data size of the object image to be processed is processed in a frame unit or a block unit. In order to avoid duplication of explanations, the process of obtaining the set of local proportional / additive factors will be explained.

또한, 본 발명은 가변 블럭 기반에 의해 추정 부호화의 적응성을 부여하는 영상 부호화 방법이지만, 비례 인자 및 가감 인자를 추정하는 과정에 있어서, 블럭의 크기가 가변되면, 가변된 블럭을 구성하는 원소수만 변경시켜 적용하면 되고, 나머지는 고정된 블럭과 동일한 개념을 응용하면 됨에 따라 표현의 복잡성 및 혼란성을 피하기 위해 먼저 고정된 블럭의 크기로 비례 인자 및 가감 인자를 추정하여 복호하는 과정을 설명한 후, 순서는 역순이지만 가변 블럭을 위한 검색 테이블을 작성하는 검색 테이블 작성 단계(S200)를 설명하기로 한다.In addition, the present invention is an image encoding method that gives adaptability of a predictive encoding based on a variable block. However, in the process of estimating a proportional factor and an additive factor, when the size of a block is variable, only the number of elements constituting the variable block is changed In order to avoid the complexity and confusion of representation as it applies the same concept as the fixed block, we first explain the process of estimating and decoding the proportional and additive factors to the size of the fixed block, A search table creation step (S200) for creating a search table for the variable block in the reverse order will be described.

먼저, 설명의 편의를 위해 기준 영상으로 설정한 휘도 영상(Y), 제 1 추정 대상 영상으로 설정한 녹색 영상(G), 제 2 추정 대상 영상으로 설정한 적색 영상(R)에 대한 화소 집합을 수학식 10과 같이 정의한다.First, for convenience of explanation, a set of pixels for a luminance image (Y) set as a reference image, a green image (G) set as a first estimation target image, and a red image (R) set as a second estimation target image (10).

이때, 본 발명의 바람직한 실시예에 있어서, 기준 영상인 휘도 영상(Y)을 웨이브렛 변환 및 역변환을 통해 기준 복호 영상을 발생하고, 또한 기준 복호 영상에 제 1 전역 비례/가감 인자 집합 및 제 2 전역 비례/가감 인자 집합을 적용하여 각각 제 1 최종 기준 영상 및 제 2 최종 기준 영상을 생성한 후, 제 1 최종 기준 영상 및 제 2 최종 기준 영상에서 각각 제 1 국부 비례/가감 인자 집합 및 제 2 국부 비례/가감 인자 집합을 추정하지만, 이들(즉, 기준 영상, 제 1 및 제 2 기준 복호 영상, 제 1 및 제 2 최종 기준 영상, 제 1 및 제 2 갱신 기준 복호 영상, 제 1 및 제 2 최종 기준 복호 영상)은 모두 기준 영상인 휘도 영상(Y)을 기초하여 발생한 영상임에 따라 설명의 편의상, 수학적인 표현을 통해 설명할 시에 국한하여 이들 모두를 구분없이 휘색 영상(Y)으로 표현한다.In this case, in a preferred embodiment of the present invention, a reference decoded image is generated by wavelet transform and inverse transform of a luminance image Y, which is a reference image, and a first global proportional / The first and second reference images are generated by applying a global proportional / additive factor set to the first and second final reference images, respectively. Then, the first local reference image and the second final reference image are generated using the first local proportional / (I.e., the reference image, the first and second reference decoded images, the first and second final reference images, the first and second update reference decoded images, the first and second reference decoded images, The final reference decoded image) is generated based on the luminance image Y, which is the reference image. For the sake of convenience of explanation, it is limited to the case of describing it through a mathematical expression, do .

[수학식 10]&Quot; (10) "

여기서,는 각각 수평 방향 및 수직 방향의 화소 위치를 나타내는 인덱스 변수이며,은 각각 수평 방향의 총 화소수 및 수직 방향의 총 화소수임에 따라는 각각 휘도 영상(Y), 녹색 영상(G), 적색 영상(R)의 공간좌표위치의 화소값을 나타내게 된다.here, Are index variables indicating pixel positions in the horizontal and vertical directions, respectively, Are determined depending on the total number of pixels in the horizontal direction and the total number of pixels in the vertical direction (Y), a green image (G), and a red image (R), respectively, The pixel value of the position is represented.

각 영상의 화소 집합을 수학식 10과 같이 정의할 때, 각 영상을 수학식 11과 같이 정의되는 블럭 단위로 분할한다.When defining the pixel set of each image as shown in Equation (10), each image is divided into blocks defined by Equation (11).

[수학식 11]&Quot; (11) "

여기서,은 각각 수평 방향 및 수직 방향의 블럭의 순서적인 위치를 나타내는 인덱스 변수이고,는 각각 수평 및 수직 방향의 총 블럭수임에 따라는 각각 휘도 영상(Y)과 녹색 영상(G) 및 적색 영상(R)의 블럭의 순서적인 위치를 나타나게 된다. 예를 들어,일 경우, 이것은 휘도 영상(Y)에서 수평 방향으로 3번째, 수직 방향으로 10번째에 위치하는 블럭을 나타낸다.here, Are index variables indicating the sequential positions of the blocks in the horizontal direction and the vertical direction, respectively, Are determined by the total number of blocks in the horizontal and vertical directions, respectively Are sequentially displayed in the blocks of the luminance image Y, the green image G, and the red image R, respectively. E.g, , This indicates a block located at the third position in the horizontal direction and at the tenth position in the vertical direction in the luminance image (Y).

한편, 휘도 영상(Y)과 녹색 영상(G) 및 적색 영상(R)의 관계에 있어서, 각 블럭에 대한 국부 비례 인자와 국부 가감 인자를 구하는 과정을 표현한 수식은 수학식 12와 같다.Meanwhile, in the relationship between the luminance image (Y), the green image (G), and the red image (R), a formula expressing a process of obtaining a local proportional factor and a local enhancement factor for each block is expressed by Equation (12).

[수학식 12]&Quot; (12) "

여기서,,는 각각 수평 방향으로번째, 수직 방향으로번째에 위치한 블럭에 대한 제 1 국부 비례 인자 및 제 1 국부 비례 인자이고,,는 각각 수평 방향으로번째, 수직 방향으로번째에 위치한 블럭에 대한 제 1 국부 가감 인자 및 제 2 국부 가감 인자이며,는 각각 단위 블럭의 수평 방향 및 수직 방향의 총 화소수를 나타낸다.here, , Respectively. In the vertical direction Th < / RTI > located block, and a first local proportional factor, , Respectively. In the vertical direction Th < / RTI > block, and a second local additive factor, Represents the total number of pixels in the horizontal direction and the vertical direction of the unit block.

이때, 블럭의 크기로 통칭되는는 사각형을 이루는 여하의 크기로 설정 가능하며, 통상, 8화소×8화소, 16화소×16화소, 32화소×32화소, 64화소×64화소 중 어느 하나로 정하는 것이 적절하며, 본 발명의 바람직한 실시예에서는 16화소×16화소로 설정한다.At this time, the size of the block Is usually set to any size of a quadrangle, and it is usually appropriate to set it to any one of 8 pixels x 8 pixels, 16 pixels x 16 pixels, 32 pixels x 32 pixels, and 64 pixels x 64 pixels, In the example, 16 pixels x 16 pixels are set.

상기 제 1 가변 블럭 추정 부호화 단계(S420)에서는 휘도 영상(Y)에서 수평 방향으로번째, 수직 방향으로번째에 위치한 블럭과 제 1 추정 대상 영상인 녹색 영상(G)에서 수평 방향으로번째, 수직 방향으로번째에 위치한 블럭을 최적으로 근사화시키기 위해, 수학식 10에서값을 최소화시키는 제 1 국부 비례 인자와 제 1 국부 가감 인자를 구하는 과정을 전체 블럭에 적용함으로써 휘도 영상(Y)과 제 1 국부 비례 인자와 제 1 국부 가감 인자만을 이용하여 휘도 영상(Y)과 녹색 영상(G)을 부호화할 수 있다.In the first variable block estimation encoding step (S420), the luminance image Y is encoded in a horizontal direction In the vertical direction And a green image (G), which is a first estimation target image, in a horizontal direction In the vertical direction To optimally approximate the block located at < RTI ID = 0.0 > The first local proportional factor And a first local additive factor (Y) and the first local proportional factor And a first local additive factor The luminance image Y and the green image G can be encoded using only the luminance image Y and the green image G, respectively.

이때,를 구하는 방법은 수학식 13에 나타낸 바와 같다.At this time, And Is expressed by Equation (13). &Quot; (13) "

[수학식 13]&Quot; (13) "

즉,에 대하여 각각를 변수로 편미분한 결과가 영이되도록 하는를 구하면 되는 데, 수학식 13과 같은 조건을 만족시키는에 대한 결과식은 수학식 14와 같다.In other words, Respectively And So that the result of the partial differentiation by the variable becomes zero And , And the following equation (13) is satisfied And Is expressed by Equation (14).

[수학식 14]&Quot; (14) "

이때, 수학식 14에서의 분모항이 수학식 15와 같이 영이되면,At this time, in Equation (14) Is zero, as shown in Equation 15,

[수학식 15]&Quot; (15) "

이 영으로 나누어짐에 따라 연산 결과가 발산하게 되는데, 이와 같은 경우에는 수학식 16을 이용함으로써 이와 같은 문제를 해결할 수 있다. As a result, the calculation result is diverged as the division is made. In such a case, this problem can be solved by using the expression (16).

[수학식 16]&Quot; (16) "

또한, 상기 제 2 가변 블럭 추정 부호화 단계(S430)에서는 휘도 영상(Y)에서 수평 방향으로번째, 수직 방향으로번째에 위치한 블럭과 제 2 추정 대상 영상인 적색 영상(R)에서 수평 방향으로번째, 수직 방향으로번째에 위치한 블럭을 최적으로 근사화시키기 위해, 수학식 12에서값을 최소화시키는 제 2 국부 비례 인자와 제 2 국부 가감 인자를 구하는 과정을 전체 블럭에 적용함으로써 휘도 영상(Y)과 제 2 국부 비례 인자와 제 2 국부 가감 인자만을 이용하여 휘도 영상(Y)과 적색 영상(R)을 부호화할 수 있다.Also, in the second variable block estimation coding step S430, the luminance image Y is shifted horizontally In the vertical direction (R), which is the second estimation target image, in the horizontal direction In the vertical direction Gt; in order to optimally approximate the block located at < RTI ID = 0.0 > The second local proportional factor And the second local additive factor By applying the process of obtaining the luminance image (Y) and the second local proportional factor And the second local additive factor The luminance image Y and the red image R can be encoded by using only the luminance image Y and the red image R, respectively.

이때,를 구하는 방법은 수학식 17에 나타낸 바와 같다.At this time, And Is calculated as shown in Equation (17).

[수학식 17]&Quot; (17) "

즉,에 대하여 각각를 변수로 편미분한 결과가 영이되도록 하는를 구하면 되는 데, 수학식 13과 같은 조건을 만족시키는에 대한 결과식은 수학식 18과 같다.In other words, Respectively And So that the result of the partial differentiation by the variable becomes zero And , And the following equation (13) is satisfied And (18) " (18) "

[수학식 18]&Quot; (18) "

이때, 수학식 18에서의 분모항이 수학식 15와 같이 영이되면,이 영으로 나누어짐에 따라 연산 결과가 발산하게 되는데, 이와 같은 경우에는 수학식 19를 이용함으로써 이와 같은 문제를 해결할 수 있다.At this time, in Equation (18) Is zero, as shown in Equation 15, As a result, the calculation results are divergent. In such a case, this problem can be solved by using the equation (19).

[수학식 19]&Quot; (19) "

그리고, 상기 제 1 가변 블럭 추정 복호 단계(S550) 및 상기 제 2 가변 블럭 추정 복호 단계(S560)에서는 상기 제 1 국부 비례 인자및 상기 제 1 국부 가감 인자를 입력받아 상기 제 1 최종 기준 복호 영상에서 제 1 추정 대상 영상과 같은 스펙트럴 대역을 갖는 제 1 추정 복호 영상을 추정해내고, 상기 제 2 국부 비례 인자및 상기 제 2 국부 가감 인자를 입력받아 상기 제 2 최종 기준 복호 영상에서 제 2 추정 대상 영상과 같은 스펙트럴 대역을 갖는 제 2 추정 복호 영상을 추정해낸다.In the first variable block estimation decoding step (S550) and the second variable block estimation decoding step (S560), the first local proportional factor And the first local additive factor Estimates a first estimated decoded image having the same spectral bandwidth as the first estimated object image in the first final reference decoded image, And the second local acceleration factor And estimates a second estimated decoded image having the same spectral bandwidth as the second estimated object image in the second final reference decoded image.

즉, 상기 제 1 가변 블럭 추정 복호 단계(S550)는 전체 블럭을 대상으로 제 1 국부 비례 인자, 제 1 국부 가감 인자, 제 1 최종 기준 복호 영상을 수학식 20에 대입하여 제 1 추정 대상 영상 즉, 녹색 영상(G)과 동일한 스펙트럼 대역을 갖는 제 1 추정 복호 영상을 블럭 기반으로 산출하고,That is, in the first variable block estimation decoding step (S550), the first local proportional factor , The first local additive factor , A first estimated decoded image having the same spectrum band as the first estimated target image, that is, the green image (G) is calculated on a block basis by substituting the first final reference decoded image into Equation (20)

[수학식 20]&Quot; (20) "

상기 제 2 가변 블럭 추정 복호 단계(S560)에서는 전체 블럭을 대상으로 제 2 국부 비례 인자, 제 2 국부 가감 인자, 제 1 최종 기준 복호 영상을 수학식 21에 대입하여 제 2 추정 대상 영상 즉, 적색 영상(R)과 동일한 스펙트럴 대역을 갖는 제 2 추정 복호 영상을 블럭 기반으로 산출한다.In the second variable block estimation decoding step (S560), the second local proportional factor , The second local additive factor , A first estimated decoded image is substituted into Equation (21), and a second estimated object image, that is, a second estimated decoded image having the same spectral band as the red image (R) is calculated on a block basis.

[수학식 21]&Quot; (21) "

최종적으로, 상기 제 3 색영상 산출 단계(S570)에서는 상기 제 2 기준 복호 영상과 상기 제 1 추정 복호 영상 및 상기 제 1 추정 복호 영상을 수학식 2에 나타낸 표색계 변환식에 대입하여 상기 동일 영상의 세 색영상 중 제 1 추정 대상 영상 및 제 2 추정 대상 영상을 제외한 나머지 한 영상과 같은 스펙트럴 대역을 갖는 영상을 계산을 통해 산출함으로써 색영상을 모두 복호해낸다.Finally, in the third color image calculation step (S570), the second reference decoded image, the first estimated decoded image, and the first estimated decoded image are substituted into the color conversion formula shown in equation (2) The color image is decoded by calculating the image having the same spectral band as the other image except for the first estimation object image and the second estimation object image among the color images through calculation.

이하, 가변 블럭을 위한 검색 테이블을 작성하는 검색 테이블 작성 단계(S200)를 도 5를 참조하여 설명하기로 한다.Hereinafter, a search table creation step (S200) of creating a search table for a variable block will be described with reference to FIG.

도 5는 2단계(즉, 2 계층)로 웨이브렛 변환한 수평 방향과 수직 방향 및 대각선 방향의 주파수 성분을 다중 해상도 분석 측면에서 도시한 예시도이다.5 is an exemplary diagram illustrating frequency components in the horizontal direction, vertical direction, and diagonal direction, which are wavelet-transformed in two stages (i.e., two layers) in terms of multi-resolution analysis.

가변 블럭을 위한 비용 함수 데이터는 상기한 바와 같이, 두 번째 계층의 수평 방향, 수직 방향, 대각선 방향 고주파 성분인,의 계수들을 이용하여 추출한다.As described above, the cost function data for the variable block is the high frequency component in the horizontal direction, the vertical direction and the diagonal direction of the second layer , and .

이때, 비용 함수 데이터에 있어서, 블럭을 가변하기 전의 각 블럭에 대응하는 비용 함수 데이터의 합산값At this time, in the cost function data, the sum of the cost function data corresponding to each block before the block is varied silver

[수학식 22]&Quot; (22) "

수학식 22와 같다. 여기서,은 각각 수평 방향 및 수직 방향의 블럭의 순서적인 위치를 나타내는 인덱스 변수이고,는 각각 단위 블럭의 수평 방향 및 수직 방향의 총 화소수를 나타내며,를 각각에 곱하면서 다음 블럭의 시작 위치에 있는 데이터로 이동하는 것은 다중해상도 분석시에 생성되는 계층들 중에서 두 번째 계층을 사용함에 기인함을 도 5에서 용이하게 확인할 수 있다.(22). here, Are index variables indicating the sequential positions of the blocks in the horizontal direction and the vertical direction, respectively, Represents the total number of pixels in the horizontal direction and the vertical direction of the unit block, Respectively It can easily be confirmed in FIG. 5 that the moving to the data at the start position of the next block is due to the use of the second layer among the layers generated in the multi-resolution analysis.

이때, 상기 전체 임계치()는At this time, the total threshold value )

[수학식 23]&Quot; (23) "

수학식 23과 같다. 여기서, μ는 비례 상수이고,는 각각 수평 및 수직 방향의 총 블럭수이다. 그리고, 상기한 바와 같이,은 각각 수평 방향 및 수직 방향의 블럭의 순서적인 위치를 나타내는 인덱스 변수이며,는 블럭을 가변하기 전의 각 블럭에 대응하는 비용 함수 데이터의 합산값이다.Lt; / RTI > Here, [mu] is a proportional constant, Are the total number of blocks in the horizontal and vertical directions, respectively. And, as described above, Are index variables indicating sequential positions of the blocks in the horizontal direction and the vertical direction, respectively, Is the sum of the cost function data corresponding to each block before the block is varied.

상기 전체 임계치()는 비례 상수(μ)에 따라 다양하게 가변될 수 있음에 따라 비례 상수(μ)를 상대적으로 작은 값으로 설정할 경우, 윤곽 영역에 대해 좀 더 세밀하게 표현할 수 있어 원 영상에 더욱 가까운 영상을 추정할 수 있다.The total threshold value ( ) Can be varied according to the proportional constant (μ). Therefore, when the proportional constant (μ) is set to a relatively small value, it is possible to express the contour area more finely, can do.

그리고, 본 발명은 가변 블럭 정보를 복호단에 제공하지 않아도 된다는 사실이 본 연구의 가장 큰 장점중의 하나이다. 이것은 복호단에 기준 영상에 대한 웨이브렛 계수를 보내게 되면 각 블럭에 대한 고주파 계수를 구할 수 있어 각 블럭이 어느 정도의 부블럭(sub-block)으로 분할되어졌는지를 알 수 있기 때문이다.The present invention is one of the great advantages of the present invention that the variable block information need not be provided to the decoding end. This is because when the wavelet coefficient for the reference image is sent to the decoding end, the high-frequency coefficient for each block can be obtained, and it is possible to know how many sub-blocks each block is divided into.

참고로, 본 발명에 따른 전역 색도 상관성을 이용한 영상 부호화 방법을 하드웨어적으로 구성할 시에 고려될 수 있는 구성 형태를 도 6a 및 도 6b에 예시한다.6A and 6B illustrate configurations that can be considered in hardware configuration of an image encoding method using global chromaticity correlation according to the present invention.

도 6a는 본 발명에 따른 전역 색도 상관성을 이용한 영상 부호화 장치의 부호화부를 나타낸 블럭도이며, 도 6b는 본 발명에 따른 전역 색도 상관성을 이용한 영상 부호화 장치의 복호화부를 나타낸 블럭도이다.FIG. 6A is a block diagram illustrating an encoding unit of an image encoding apparatus using global chromaticity correlation according to the present invention, and FIG. 6B is a block diagram illustrating a decoding unit of an image encoding apparatus using global chromaticity correlation according to the present invention.

도 6a 및 도 6b에 도시한 본 발명에 따른 전역 색도 상관성을 이용한 영상 부호화 장치는 당분야의 통상적인 지식을 가진자가 본 발명에 따른 전역 색도 상관성을 이용한 영상 부호화 방법을 참조할 때 용이하게 이해될 수 있을 것으로 간주되는 바, 중복된 설명을 피하기 위해 이에 대한 더 이상의 자세한 설명은 약하기로 한다.6A and 6B can be easily understood by referring to a method of encoding an image using global chromaticity correlation according to the present invention by a person having ordinary skill in the art It is deemed possible, and further details of this in order to avoid redundant explanations are weak.

이상에서와 같이, 본 발명에서는 기준 영상을 휘도 영상(Y)으로 정하고, 제 1 추정 대상 영상을 녹색 영상(G), 제 2 추정 대상 영상을 적색 영상(R)으로 정하였으나, 컴퓨터 시뮬레이션 결과를 통해 살펴 보면, 동일 영상의 휘도 영상(Y), 적색 영상(R), 녹색 영상(G), 청색 영상(B) 중 어느 한 영상을 기준 영상(reference image)으로 정하고 나머지 영상들 중에서 두 영상을 선택하여 두 영상 중 한 영상을 제 1 추정 대상 영상으로 설정하고 또 다른 한 영상을 제 2 추정 대상 영상으로 설정하는 경우, 즉, 휘도 영상(Y), 적색 영상(R), 녹색 영상(G), 청색 영상(B) 중에서 임의의 세 영상을 추출함에 따라 결정되는 조합에 의해 기준 영상, 제 1 추정 대상 영상, 제 2 추정 대상 영상을 정할 경우에도 부호화 성능에 현저한 차이가 발생하지 않음을 확인할 수 있었으나, 본 발명의 경우가 가장 좋은 부호화 효율을 얻을 수 있었다.As described above, in the present invention, the reference image is defined as the luminance image (Y), the first estimation object image is defined as the green image (G), and the second estimation object image is defined as the red image (R) A reference image is defined as one of a luminance image Y, a red image R, a green image G and a blue image B of the same image, A red image R, a green image G, and a green image G in the case of selecting one of two images as a first estimation target image and setting another one as a second estimation target image, , And the blue image (B), it is confirmed that there is no significant difference in the coding performance even when the reference image, the first estimation object image, and the second estimation object image are determined by the combination determined by extracting any three images However, The best encoding efficiency can be obtained.

이와 같이 본 발명은 동일 영상의 휘도 영상(Y), 적색 영상(R), 녹색 영상(G), 청색 영상(B), 색차 영상 등을 이용한 합성 및 조합을 통해 다양한 경우의 수가 발생할 수 있지만, 여하의 조합을 이용할 경우에도 이것은 당분야에 대한 통상의 지식을 습득한 자에게는 용이한 일임에 따라 본 발명의 사상에 종속된다고할 것이다.As described above, in the present invention, a variety of cases may occur through synthesis and combination using the luminance image (Y), red image (R), green image (G), blue image (B) Even in the case of using any combination, it will be said that this is dependent on the idea of the present invention as it is easy for those who have ordinary knowledge in the art.

한편, 본 발명은 가변 블럭 기반에 의해 색영상을 추정함에 따라 영상을 다양한 크기와 모양(즉, 다양한 다각형)을 갖는 블럭으로 분할할 수 있지만, 이와 같은 변형 또한 당분야에 대한 통상의 지식을 습득한 자에게는 용이한 일임에 따라 본 발명의 사상에 종속됨이 명백하다.Meanwhile, the present invention can divide an image into blocks having various sizes and shapes (i.e., various polygons) by estimating a color image based on a variable block, It is obvious to one person that it is easy to follow the idea of the present invention.

전술한 국부 비례 인자와 국부 가감 인자를 산출하는 결과가 소수점을 갖는 실수 형태로 나타남에 따라 이를 직접 부호화하면, 할당되는 비트가 증가함에 따라 이를 피하여 정수 형태로 부호화하기 위해서는 통상 스케일링 기법으로 알려진 데이터 처리 기법을 이용한다. 즉, 정수 처리를 하면서도 소수점 이하의 값을 반영하기 위해 소수점을 갖는 국부 비례 인자 및 국부 가감 인자에 소정 값을 곱하여 부호화한 후, 복호시에 동일한 값으로 나누어 주는 기법으로, 이것은 통상적인 데이터 처리 기법임에 따라 더 이상의 상세한 설명은 약하기로 한다.Since the result of calculating the local proportional factor and the local additive factor described above appears as a real number having a decimal point, if it is directly encoded, in order to encode it as an integer type while increasing the allocated bits, Technique. That is, in order to reflect a value less than a decimal point while performing integer processing, a local multiplying factor having a decimal point and a local additive factor are multiplied by a predetermined value, and then the result is divided into equal values at the time of decoding. Further details will be given in the following.

본 발명의 사상은 색영상 부호화외에도 상호 상관도가 높은 영상간에 적용할 경우에 높은 부호화 효율을 획득할 수 있으며, 상기의 국부 비례 인자 및 국부 가감 인자는 영상 인식 분야에 패턴 인식 파라미터로 용이하게 응용될 수 있다.The idea of the present invention is to acquire a high coding efficiency when applied to images having a high cross-correlation as well as a color image coding. The local proportional factor and the local enhancement factor can be easily applied as pattern recognition parameters to the image recognition field .

부호화 대상 영상이 반드시 동일 영상의 색영상일 필요는 없으며, 삼원색이 아닌 일대일 영상 간에도 적용할 수 있음은 명백하다.It is obvious that the image to be encoded does not necessarily have to be a color image of the same image but can also be applied to one to one images other than the three primary colors.

즉, 본 발명은 동일 영상의 색영상을 대상으로 기준 영상과 추정 대상 영상을 설정하고 있으나 임의의 제 1 영상과 제 2 영상을 기준 영상과 추정 대상 영상으로 설정하여도 무방하다.That is, although the reference image and the estimation target image are set for the color image of the same image, the first and second images may be set as the reference image and the estimation target image.

본 발명에 따른 전역 색도 상관성을 이용한 영상 부호화는 색상 영상 간에서 블럭 기반으로 국부 비례 인자(scale factor) 및 국부 가감 인자(offset factor)를 산출하여 색상 영상 간의 스펙트럴 중복성을 직접적으로 제거함으로써 부호화 효율을 향상시키고 있는 데, 특히, 블럭당 국부 비례 인자(scale factor) 및 국부 가감 인자(offset factor)를 산출함에 있어서, 웨이브렛 변환을 통한 영상 분석 과정에서 발생되는 고주파 계수를 이용하여 비용 함수를 정의하고, 이를 이용하여 블럭의 크기를 가변적으로 설정함으로써 부호화 대상 영상의 전역적인 특성과 국부적인 특성을 반영하면서 동시에 웨이브렛 변환 외에는 비용 함수 설정을 위한 별도의 연산 및 부가 정보 전송이 필요없는 장점이 있다.The image encoding using the global chromaticity correlation according to the present invention calculates a local factor and a local offset factor on a block basis between color images to directly remove the spectral redundancy between color images, In particular, in calculating the local scale factor and the local offset factor, a cost function is defined using the high frequency coefficients generated in the image analysis process through wavelet transform. And by setting the size of the block to be variable by using it, it is possible to reflect the global characteristics and the local characteristics of the encoding object image, and at the same time, there is no need to transmit additional operation and additional information for setting the cost function except for the wavelet transform .

이상에서 상세하게 설명한 바와 같이, 부호화 효율을 향상시키기 위해 같은 피사체를 촬상한 동일 영상의 색영상 간에 내재한 스펙트럴 중복성(spectral redundancy)을 제거하여 부호화하는 영상 부호화 방법에 있어서, 기준 영상에 대한 웨이브렛 변환(wavelet transform) 과정에서 발생되는 고주파 계수를 이용하여 비용 함수 데이터를 생성하고, 이에 따라 가변 블럭 정보를 기록한 검색 테이블을 작성하며, 각각의 블럭에 대한 비례 인자 및 차감 인자의 값들에 대한 분산값을 낮추기 위해 프레임 단위로 기준 영상과 추정 대상 영상간의 오차인 전역 오차가 최소가 되도록 하는 스트레칭 정보인 전역 비례 인자와 슬라이싱 정보인 전역 가감 인자(global offset factor)를 산출한 후, 이를 상기 기준 영상에 적용하여 갱신 기준 복호 영상을 구한 다음에 상기 검색 테이블의 블럭 가변 정보에 따라 상기 갱신 기준 복호 영상과 상기 추정 대상 영상간의 오차인 국부 오차가 최소가 되도록 하는 국부 스트레칭 정보인 국부 비례 인자(local scale factor)와 슬라이싱 정보인 국부 가감 인자(local offset factor)를 가변 블럭 기반으로 산출하여 색영상을 부호화하는 본 발명에 따른 전역 기반 색도 상관성을 이용한 칼라 영상 부호화 방법에 따르면, 국부 비례 인자와 국부 가감 인자를 부호화하기 위해 할당하는 비트를 경감시키고, 동시에 부호 대상 영상의 전역적인 특성과 국부적인 특성을 영상 부호화에 적응적으로 반영할 수 있고, 전역 비례 인자 및 전역 가감 인자를 초저속 동영상 압축 분야 등과 같이 전송 용량에 제한을 받는 부호화 코덱에서 흐름 제어(flow control)를 위한 파라미터로 사용할 수 있으며, 전체적으로 반복적인 절차로 구성됨에 따라 하드웨어적인 구조도 단순하여 장치화에 용이할 뿐만 아니라 공지된 영상 부호화 방법과 용이하게 접목하여 사용할 수 있음에 따라 높은 기술적인 파급 효과를 창출할 수 있다.As described above in detail, in order to improve the coding efficiency, an image coding method for eliminating the spectral redundancy inherent in the color image of the same image picked up by the same subject, Cost function data is generated using the high frequency coefficients generated in the wavelet transform process, and a look-up table in which variable block information is recorded is created, and a dispersion table for the values of the proportional and subtractor factors In order to reduce the value, a global proportional factor, which is stretching information and a global offset factor, which is slicing information, are calculated so that the global error, which is an error between the reference image and the estimated object image, To obtain an update reference decoded image, A local scale factor, which is local stretch information, and a local offset factor, which is slicing information, for minimizing a local error, which is an error between the update reference decoded image and the estimated object image, According to the color image coding method using the global-based chromaticity correlation according to the present invention for coding a color image, the bits to be allocated for coding the local proportional factor and the local enhancement factor are alleviated, It is possible to reflect the global characteristics and the local characteristics of the image adaptively in the image coding and to use the flow control in the coding codec which is limited in the transmission capacity such as the global proportional factor and the global enhancement factor in the ultra low- ), And can be used as an overall iterative procedure Depending on the configured can generate a high technical ramifications in accordance with that also simple to use and easy with the known image encoding method as well as to easily integrate the device screen hardware structure.

Claims (22)

제 1 영상과 제 2 영상 중 어느 한 영상을 기준 영상으로 설정하고, 또 다른 영상을 추정 대상 영상으로 설정한 후, 상기 기준 영상에 대한 고주파 영상 신호로부터 비용 함수 데이터를 생성하여 상기 기준 영상과 상기 추정 대상 영상을 가변적인 크기의 블럭으로 분할하기 위한 검색 테이블(Look Up Table; LUT)을 작성하며, 프레임 단위로 상기 기준 영상과 추정 대상 영상 간의 오차인 전역 오차가 최소가 되도록 하는 스트레칭 정보인 전역 비례 인자와 슬라이싱 정보인 전역 가감 인자를 산출한 후, 상기 기준 영상에 적용하여 최종 기준 영상을 구한 다음에 상기 검색 테이블에 따라 가변 블럭 기반으로 상기 최종 기준 영상과 상기 추정 대상 영상 간의 오차인 국부 오차가 최소가 되도록 하는 스트레칭 정보인 국부 비례 인자와 슬라이싱 정보인 국부 가감 인자를 산출하여 부호화하는 영상 부호화 단계; 및The method comprising: setting one of a first image and a second image as a reference image, setting another image as an estimation target image, generating cost function data from the high-frequency image signal for the reference image, A look-up table (LUT) for dividing an estimation target image into blocks of variable sizes is created, and a global error which is a stretching information for minimizing a global error, which is an error between the reference image and an estimation target image, A local offset value which is an error between the final reference image and the estimated object image on the basis of a variable block according to the search table, The local proportional factor, which is the stretching information, and the local enhancement factor, which is the slicing information, The image encoding method comprising: encoding and calculating character; And 상기 기준 영상을 입력받아 상기 검색 테이블을 작성하고, 상기 전역 비례 인자 및 상기 전역 가감 인자를 입력받아 상기 기준 영상에 프레임 단위로 적용하여 최종 기준 복호 영상을 생성한 다음에 상기 국부 비례 인자 및 상기 국부 가감 인자를 입력받아 상기 검색 테이블에 따라 상기 최종 기준 복호 영상에 가변 블럭 기반으로 적용하여 추정 복호 영상을 생성하는 영상 복호화 단계로 구성되는 것을 특징으로 하는 영상 부호화 방법.Generating a final reference decoded image by applying the global proportional factor and the global enhancement factor to the reference image on a frame basis by receiving the reference image and generating the look-up table, And an image decoding step of generating an estimated decoded image by applying the add / subtract factor to the final reference decoded image based on a variable block based on the search table. 제 1 항에 있어서, 상기 영상 부호화 단계는,2. The method of claim 1, 상기 제 1 영상을 상기 기준 영상(reference image)으로 설정하여 웨이브렛 변환(wavelet transform)을 통해 웨이브렛 계수 데이터를 발생한 후, 웨이브렛 역변환(inverse wavelet transform)하여 제 1 기준 복호 영상을 생성하고, 상기 제 2 영상을 상기 추정 대상 영상으로 설정하는 영상 설정 단계;Generates the wavelet coefficient data by wavelet transform by setting the first image as the reference image, inverse wavelet transforms the wavelet coefficient data to generate a first reference decoded image, An image setting step of setting the second image as the estimation target image; 상기 웨이브렛 계수 데이터에 포함된 고주파 계수 데이터에 절대값을 취한 후, 블럭 기반으로 합산한 결과가 소정 임계치보다 크면, 해당 블럭을 부블럭으로 분할하는 가변 블럭 정보를 상기 검색 테이블에 가변 블럭 기반으로 기록하는 검색 테이블 작성 단계;The variable block information for dividing the block into subblocks is divided into variable blocks on the basis of the absolute value of the high frequency coefficient data included in the wavelet coefficient data, A search table creating step of writing the search table; 상기 제 1 기준 복호 영상과 상기 추정 대상 영상 간의 오차인 상기 전역 오차가 최소가 되도록 하는 스트레칭 정보인 상기 전역 비례 인자(global scale factor)와 슬라이싱 정보인 상기 전역 가감 인자(global offset factor)를 프레임 단위로 추정하여 전역 비례/가감 인자 집합에 버퍼링한 후, 상기 제 1 기준 복호 영상에 상기 전역 비례 인자 및 상기 전역 가감 인자를 프레임 단위로 적용하여 갱신 기준 영상을 생성하고, 상기 전역 오차의 크기 정도에 따라 상기 추정 대상 영상을 분할해서 상기 전역 비례 인자 및 상기 전역 가감 인자를 추정하여 상기 전역 비례/가감 인자 집합에 버퍼링한 후, 상기 갱신 기준 영상에 적용하여 상기 최종 기준 영상을 생성하는 전역 추정 부호/복호 단계;A global scale factor and a global offset factor, which are stretching information for minimizing the global error, which is an error between the first reference decoded image and the estimated object image, and a global offset factor, , And generates the update reference image by applying the global proportional factor and the global enhancement factor to the first reference decoded image frame by frame basis, and outputs the updated reference image to the degree of the global error Estimating the global proportional factor and the global enhancement factor by dividing the estimated object image, buffering the global proportional factor and the global enhancement factor in the global proportional / incremental factor set, and applying the global predictive factor and the global enhancement factor to the updated reference image, Decoding step; 상기 검색 테이블에 기록된 가변 블럭 정보에 따라 가변 블럭 기반으로 상기 최종 기준 영상과 상기 추정 대상 영상 간의 오차인 상기 국부 오차가 최소가 되도록 하는 스트레칭 정보인 상기 국부 비례 인자와 슬라이싱 정보인 상기 국부 가감 인자(local offset factor)를 추정하여 국부 비례/가감 인자 집합에 레스터 스캐닝 순으로 버퍼링하는 가변 블럭 추정 부호화 단계; 및Which is stretching information for minimizing the local error, which is an error between the final reference image and the estimated object image, based on the variable block information recorded in the lookup table, and the local additive factor a variable block estimation encoding step of estimating a local offset factor and buffering a set of local proportions / additive factors in the order of laster scanning; And 상기 웨이브렛 계수 데이터와 상기 전역 비례/가감 인자 집합 및 상기 국부 비례/가감 인자 집합을 입력받아 상기 웨이블렛 계수 데이터를 이용하여 상기 검색 테이블 작성 단계와 동일한 수순을 거쳐 상기 검색 테이블을 작성한 후, 웨이블렛 역변환하여 상기 기준 영상에 대응하는 제 2 기준 복호 영상을 복호하고, 상기 국부 비례/가감 인자 집합을 상기 제 2 기준 복호 영상에 적용하여 상기 최종 기준 복호 영상을 생성하며, 상기 검색 테이블의 가변 블럭 정보에 따라 상기 국부 비례/가감 인자 집합을 상기 최종 기준 복호 영상에 가변 블럭 기반으로 적용하여 상기 추정 대상 영상에 대응하는 상기 추정 복호 영상을 복원하는 가변 블럭 추정 복호화 단계로 구성되는 것을 특징으로 하는 영상 부호화 방법.The wavelet coefficient data, the global proportional / additive factor set, and the local proportional / additive factor set, and generates the search table through the same procedure as the search table creation step using the wavelet coefficient data, Decodes a second reference decoded image corresponding to the reference image, applies the set of local proportional / incremental factors to the second reference decoded image to generate the final reference decoded image, And a variable block estimating and decoding step of applying the set of local proportions / increment factors to the final reference decoded image on a variable block basis to recover the estimated decoded image corresponding to the estimated object image, . 제 2 항에 있어서, 상기 검색 테이블 작성 단계는,3. The method according to claim 2, 웨이블렛 변환을 통한 다중 해상도 분석 과정에서 도출되는 하나 이상의 계층에서 어느 한 계층의 상기 고주파 계수 데이터에 절대값을 취한 후, 비용 함수 데이터를 구성하는 비용 함수 데이터 구성 단계;A cost function data constructing step of constructing cost function data by taking an absolute value of the high frequency coefficient data of one layer in at least one layer derived in the multi-resolution analysis process through the wavelet transform; 상기 비용 함수 데이터의 모든값은 합산하여 평균한 전체 평균치를 구한 후, 상기 전체 평균치에 비례 상수를 곱하여 전체 임계치를 산출하는 전체 임계치 산출 단계;Calculating a total average value by summing all the values of the cost function data, and then multiplying the total average value by a proportional constant to calculate a total threshold value; 상기 비용 함수 데이터를 블럭 기반으로 합산하여 평균한 블럭 평균치를 구한 후, 상기 전체 임계치 보다 상기 블럭 평균치가 크면, 해당 블럭을 두 개 이상의 부블럭으로 분할하는 블럭 가변 정보를 래스터 스캐닝 순서로 상기 검색 테이블에 기록하는 제 1 블럭 분할 정보 작성 단계; 및The block variable information for dividing the block into two or more subblocks when the block average value is larger than the total threshold value is obtained by summing the cost function data on a block basis, A first block division information generation step of recording the first block division information in the first block; And 상기 부블럭 데이터를 각각 합산하여 평균한 부블럭 평균치를 구한 후, 상기 전체 임계치 보다 상기 부블럭 평균치가 크면, 해당 부블럭을 두 개 이상의 서브 부블럭으로 분할하는 블럭 가변 정보를 래스터 스캐닝 순서로 상기 검색 테이블에 기록하는 제 2 블럭 분할 정보 작성 단계를 포함하는 것을 특징으로 하는 영상 부호화 방법.Block variable values are divided into two or more sub-sub-blocks if the average value of the sub-blocks is larger than the total threshold value, in a raster scanning order, And a second block division information creation step of recording the second block division information in the search table. 제 2 항에 있어서, 상기 비용 함수 데이터 구성 단계는,3. The method of claim 2, wherein the cost function data configuration step comprises: 웨이블렛 변환을 통한 다중 해상도 분석 과정에서 도출되는 두 번째 계층의 동일 발생 기원을 갖는 수직 방향, 수평 방향, 대각선 방향의 고주파 계수들에 절대값을 취한 후, 각각 화소 단위로 합산하여 상기 비용 함수 데이터를 구성하는 단계를 포함하는 것을 특징으로 하는 영상 부호화 방법.Horizontal direction, and diagonal direction high frequency coefficients having the same generation origin of the second hierarchy derived in the multiresolution analysis process through the wavelet transform, and then summing them in pixel units to obtain the cost function data Wherein the encoding step comprises the steps of: 제 2 항에 있어서,3. The method of claim 2, 상기 전역 추정 부호/복호 단계는The global estimation coding / decoding step 상기 제 1 기준 복호 영상과 상기 추정 대상 영상 간의 오차인 상기 전역 오차가 최소가 되도록 하는 스트레칭 정보인 상기 전역 비례 인자와 슬라이싱 정보인 상기 전역 가감 인자를 프레임 단위로 추정하여 상기 전역 비례/가감 인자 집합에 버퍼링하는 전역 비례/가감 인자 추정 단계;Wherein the estimating unit estimates the global proportional factor, which is the stretching information for minimizing the global error, which is an error between the first reference decoded image and the estimated object image, and the global enhancement factor, which is the slicing information, Estimating a global proportional / additive factor; 상기 제 1 기준 복호 영상에 상기 전역 비례 인자 및 상기 전역 가감 인자를 프레임 단위로 적용하여 갱신 기준 영상을 생성하는 갱신 기준 영상 생성 단계;Generating an update reference image by applying the global proportional factor and the global enhancement factor to the first reference decoded image frame by frame; 상기 전역 오차가 기설정된 제 1 기준치 보다 큰지 여부를 판단하는 전역 분할 판단 단계;Determining whether the global error is greater than a predetermined first reference value; 상기 전역 분할 판단 단계의 판단 결과, 상기 전역 오차가 상기 제 1 기준치 보다 작으면, 상기 갱신 기준 영상을 상기 최종 기준 영상으로 설정하는 상기 영상 부호화 단계;The image encoding step of setting the update reference image as the final reference image if the global error is smaller than the first reference value as a result of the global division determination step; 상기 전역 분할 판단 단계의 판단 결과, 상기 전역 오차가 상기 제 1 기준치 보다 크면, 상기 추정 대상 영상을 두 개 이상의 부영상으로 분할하여 상기 갱신 기준 영상과 상기 추정 대상 영상 간의 오차인 부전역 오차가 최소가 되도록 하는 스트레칭 정보인 부전역 비례 인자(sub-global scale factor)와 슬라이싱 정보인 부전역 가감 인자(sub-global offset factor)를 부영상 단위로 추정하여 상기 전역 비례/가감 인자 집합에 버퍼링하는 부전역 비례/가감 인자 추정 단계; 및Wherein if the global error is greater than the first reference value as a result of the global segmentation step, the estimation target image is divided into two or more sub-images, and the sub-band error, which is an error between the updated reference image and the estimated target image, A sub-global scale factor, which is stretching information to be obtained, and a sub-global offset factor, which is slicing information, on a sub-image basis and buffers the sub-global factor in the global proportional / Factor estimation step; And 상기 부전역 비례 인자 및 상기 부전역 가감 인자를 상기 갱신 기준 영상에 부영상 단위로 적용하여 상기 최종 기준 영상을 생성하는 최종 기준 영상 생성 단계로 구성되는 것을 특징으로 하는 영상 부호화 방법.And a final reference image generation step of generating the final reference image by applying the inverse subpixel factor and the inverse fast Fourier factor to the update reference image in sub-image units. 제 5 항에 있어서, 상기 가변 블럭 추정 부호화 단계는,6. The method of claim 5, wherein the variable- 상기 검색 테이블의 블럭 가변 정보에 따라 상기 최종 기준 영상을 분할하여 복수의 최종 기준 블럭으로 구성된 최종 기준 블럭군을 생성하고, 상기 추정 대상 영상을 분할하여 복수의 추정 대상 블럭으로 구성된 추정 대상 블럭군을 생성하는 가변 블럭 분할 단계;A final reference block group composed of a plurality of final reference blocks is generated by dividing the final reference image according to the block variable information of the look-up table, and an estimated target block group composed of a plurality of estimation target blocks is divided A variable block dividing step of generating a variable block dividing step; 상기 최종 기준 블럭군과 상기 추정 대상 블럭군에서 래스터 스캐닝 순으로 각각 상기 최종 기준 블럭과 상기 추정 대상 블럭을 선택하여 상기 최종 기준 블럭과 상기 추정 대상 블럭 간의 오차인 상기 국부 오차가 최소가 되도록 하는 스트레칭 정보인 상기 국부 비례 인자와 슬라이싱 정보인 상기 국부 가감 인자를 가변 블럭 기반으로 추정하여 래스터 스캐닝 순서로 국부 비례/가감 인자 집합에 버퍼링하는 추정 부호화 단계;Wherein the final reference block and the estimation target block are selected in the order of raster scanning in the final reference block group and the estimation target block group so that the local error, which is an error between the final reference block and the estimation target block, Estimating the local additive factor, which is information on the local proportional factor and the slicing information, on a variable block basis, and buffering the local additive factor on a set of local proportional / additive factors in a raster scanning order; 래스터 스캐닝 순서 상에서 마지막에 위치한 최종 추정 대상 블럭에 대한 상기 국부 비례 인자 및 상기 국부 가감 인자가 추정됐는지 여부를 판단하여 판단 결과, 추정되지 않았으면, 상기 가변 블럭 분할 단계로 되돌아 가는 추정 부호화 완료 판단 단계; 및Determining whether the local proportional factor and the local adjacency factor for the final estimated block located at the last position in the raster scanning order are estimated, and if the local proportional factor and the local adjacency factor have not been estimated, ; And 상기 추정 부호화 완료 판단 단계의 판단 결과, 상기 최종 추정 대상 블럭에 대한 상기 국부 비례 인자 및 상기 국부 가감 인자가 추정됐으면, 상기 국부 비례/가감 인자 집합을 저장하거나 전송하는 국부 비례/가감 인자 집합 저장/전송 단계로 구성되는 것을 특징으로 하는 영상 부호화 방법.Wherein the local proportional / additive factor set storing / transmitting unit stores / transmits the set of local proportional / additive factors if the local proportional factor and the local adjacency factor for the final estimation target block are estimated as a result of the estimated encoding completion determination step, And a transmission step of transmitting the image data. 제 6 항에 있어서, 상기 영상 복호화 단계는,[7] The method of claim 6, 상기 웨이브렛 계수 데이터, 상기 전역 비례/가감 인자 집합 및 국부 비례/가감 인자 집합을 입력받는 복호 데이터 입력 단계;A decoded data input step of receiving the wavelet coefficient data, the global proportional / additive factor set and the local proportional / additive factor set; 상기 웨이브렛 계수 데이터를 이용하여 상기 검색 테이블 작성 단계와 동일한 수순을 거쳐 상기 검색 테이블을 작성하는 복호 검색 테이블 작성 단계;A decoding search table creation step of creating the search table through the same procedure as the search table creation step using the wavelet coefficient data; 상기 웨이브렛 계수 데이터를 웨이블렛 역변환하여 상기 기준 영상에 대응하는 제 2 기준 복호 영상을 복호하는 기준 영상 복호 단계;A reference image decoding step of wavelet-transforming the wavelet coefficient data to decode a second reference decoded image corresponding to the reference image; 상기 전역 비례/가감 인자 집합에서 상기 전역 비례 인자와 상기 전역 가감 인자를 판독하여 상기 제 2 기준 복호 영상에 프레임 단위로 적용함으로써 상기 제 1 갱신 기준 영상에 대응하는 갱신 기준 복호 영상을 생성한 후, 상기 부전역 비례 인자와 상기 부전역 가감 인자를 판독하여 상기 갱신 기준 복호 영상에 부영상 단위로 적용하여 상기 최종 기준 영상에 대응하는 최종 기준 복호 영상을 생성하는 최종 기준 복호 영상 생성 단계; 및The method comprising: generating the update reference decoded image corresponding to the first update reference image by applying the global proportional factor and the global enhancement factor in the global proportional / additive factor set to the second reference decoded image frame by frame, Generating a final reference decoded image corresponding to the final reference image by reading the non-linear proportional factor and the inverse fast Fourier factor and applying the same to the update reference decoded image in a sub-image unit; And 상기 국부 비례/가감 인자 집합에서 상기 국부 비례 인자와 상기 국부 가감 인자를 래스터 스캐닝 순으로 판독하여 상기 검색 테이블에 따라 상기 최종 기준 복호 영상에서 상기 추정 대상 영상에 대응하는 상기 추정 복호 영상을 가변 블럭 기반으로 추정 복호하는 가변 블럭 추정 복호 단계로 구성되는 것을 특징으로 하는 영상 부호화 방법.The local proportional factor and the local adjacency factor are read in raster scanning order in the local proportional / additive factor set, and the estimated decoded image corresponding to the estimated object image in the final reference decoded image is converted into a variable block based And a variable-block estimating step of estimating and decoding the variable-length block by using the variable-length decoding unit. 제 3 항에 있어서, 상기 제 1 블럭 분할 정보 작성 단계는 상기 전체 임계치 보다 상기 블럭 평균치가 크면, 해당 블럭을 4개의 부블럭으로 쿼드트리 분할(quadtree partition)하고, 상기 제 2 블럭 분할 정보 작성 단계는 상기 전체 임계치 보다 상기 부블럭 평균치가 크면, 해당 부블럭을 4개의 서브 부블럭으로 쿼드트리 분할(quadtree partition)하는 것을 특징으로 하는 영상 부호화 방법.4. The method of claim 3, wherein the first block segmentation information generation step comprises: quadtree partitioning the block into four subblocks if the block average value is larger than the total threshold value, Wherein the subblock is quadrature partitioned into four subblocks if the subblock average value is larger than the total threshold value. 제 1 항 또는 제 5 항에 있어서, 상기 전역 오차와 상기 국부 오차 및 상기 부전역 오차는 최소 자승 오차(least square error)인 것을 특징으로 하는 영상 부호화 방법.The image encoding method of claim 1 or 5, wherein the global error, the local error, and the sub-band error are least square errors. 제 1 항에 있어서, 상기 기준 영상은,The method of claim 1, 상기 제 1 영상과 상기 제 2 영상 중에서 휘도 성분을 상대적으로 많이 포함하는 영상인 것을 특징으로 하는 영상 부호화 방법.Wherein the first image and the second image include a relatively large amount of luminance components. 복수의 색영상과 상기 복수의 색영상을 이용한 합성 영상 중 어느 한 영상을 기준 영상으로 설정하고, 상기 기준 영상을 제외한 나머지 영상들 중에서 적어도 하나 이상의 영상을 추정 대상 영상으로 설정한 후, 상기 기준 영상에 대한 고주파 영상 신호로부터 비용 함수 데이터를 생성하여 상기 기준 영상과 상기 추정 대상 영상을 가변적인 크기의 블럭으로 분할하기 위한 검색 테이블(Look Up Table; LUT)을 작성하며, 프레임 단위로 상기 기준 영상과 추정 대상 영상 간의 오차인 전역 오차가 최소가 되도록 하는 스트레칭 정보인 전역 비례 인자와 슬라이싱 정보인 전역 가감 인자를 산출한 후, 상기 기준 영상에 적용하여 최종 기준 영상을 구한 다음에 상기 검색 테이블에 따라 가변 블럭 기반으로 상기 최종 기준 영상과 상기 추정 대상 영상 간의 오차인 국부 오차가 최소가 되도록 하는 스트레칭 정보인 국부 비례 인자와 슬라이싱 정보인 국부 가감 인자를 산출하여 부호화하는 영상 부호화 단계; 및The method comprising: setting one of a plurality of color images and a composite image using the plurality of color images as a reference image, setting at least one or more images among the remaining images excluding the reference image as an estimated object image, And generating a lookup table (LUT) for dividing the reference image and the estimated object image into blocks of variable sizes, and generating the lookup table (LUT) A global proportional factor which is a stretching information and a global enhancement factor which is slicing information are calculated so as to minimize a global error which is an error between the estimation object image and a final reference image is obtained by applying the global stimulus factor to the reference image, The error between the final reference image and the estimated object image The image encoding method comprising: a coding error portion by calculating the information in the local stretch scale factor information and slicing the local acceleration factor to be minimized; And 상기 기준 영상을 입력받아 상기 검색 테이블을 작성하고, 상기 전역 비례 인자 및 상기 전역 가감 인자를 입력받아 상기 기준 영상에 프레임 단위로 적용하여 최종 기준 복호 영상을 생성한 다음에 상기 국부 비례 인자 및 상기 국부 가감 인자를 입력받아 상기 검색 테이블에 따라 상기 최종 기준 복호 영상에 가변 블럭 기반으로 적용하여 상기 추정 대상 영상에 대응하는 추정 복호 영상을 생성하는 영상 복호화 단계로 구성되는 것을 특징으로 하는 전역 기반 색도 상관성을 이용한 영상 부호화 방법.Generating a final reference decoded image by applying the global proportional factor and the global enhancement factor to the reference image on a frame basis by receiving the reference image and generating the look-up table, And applying an adaptive factor to the final reference decoded image on a variable block basis according to the search table to generate an estimated decoded image corresponding to the estimated target image. Using image coding method. 제 11 항에 있어서, 상기 영상 부호화 단계는,[12] The method of claim 11, 동일 영상을 구성하는 상기 복수의 색영상과 상기 복수의 색영상을 이용한 합성 영상 중 어느 한 영상을 기준 영상(reference image)으로 설정하여 웨이브렛 변환(wavelet transform)을 통해 웨이브렛 계수 데이터를 발생한 후, 웨이브렛 역변환(inverse wavelet transform)하여 제 1 기준 복호 영상을 생성하고, 상기 기준 영상을 제외한 나머지 영상들 중에서 적어도 하나 이상의 영상을 상기 추정 대상 영상으로 설정하는 영상 설정 단계;One of the plurality of color images composing the same image and the composite image using the plurality of color images is set as a reference image and wavelet coefficient data is generated through a wavelet transform An inverse wavelet transform process of generating a first reference decoded image and setting at least one of the remaining images excluding the reference image as the estimation target image; 상기 웨이브렛 계수 데이터에 포함된 고주파 계수 데이터에 절대값을 취한 후, 블럭 기반으로 합산한 결과가 소정 임계치보다 크면, 해당 블럭을 부블럭으로 분할하는 가변 블럭 정보를 상기 검색 테이블에 가변 블럭 기반으로 기록하는 검색 테이블 작성 단계;The variable block information for dividing the block into subblocks is divided into variable blocks on the basis of the absolute value of the high frequency coefficient data included in the wavelet coefficient data, A search table creating step of writing the search table; 상기 제 1 기준 복호 영상과 상기 추정 대상 영상 간의 오차인 상기 전역 오차가 최소가 되도록 하는 스트레칭 정보인 상기 전역 비례 인자(global scale factor)와 슬라이싱 정보인 상기 전역 가감 인자(global offset factor)를 프레임 단위로 추정하여 전역 비례/가감 인자 집합에 버퍼링한 후, 상기 제 1 기준 복호 영상에 상기 전역 비례 인자 및 상기 전역 가감 인자를 프레임 단위로 적용하여 갱신 기준 영상을 생성하고, 상기 전역 오차의 크기 정도에 따라 상기 추정 대상 영상의 공간적인 크기를 분할해 상기 전역 비례 인자 및 상기 전역 가감 인자를 추정하여 상기 전역 비례/가감 인자 집합에 버퍼링한 후, 상기 갱신 기준 영상에 적용하여 상기 최종 기준 영상을 생성하는 전역 추정 부호/복호 단계; 및A global scale factor and a global offset factor, which are stretching information for minimizing the global error, which is an error between the first reference decoded image and the estimated object image, and a global offset factor, , And generates the update reference image by applying the global proportional factor and the global enhancement factor to the first reference decoded image frame by frame basis, and outputs the updated reference image to the degree of the global error The global proportional factor and the global enhancement factor are estimated by dividing the spatial size of the estimated object image, and the resultant is applied to the updated reference image to generate the final reference image Global estimation coding / decoding step; And 상기 검색 테이블에 기록된 가변 블럭 정보에 따라 상기 최종 기준 영상과 상기 추정 대상 영상 간의 오차인 상기 국부 오차가 최소가 되도록 하는 국부 스트레칭 정보인 상기 국부 비례 인자와 슬라이싱 정보인 상기 국부 가감 인자(local offset factor)를 가변 블럭 기반으로 추정하여 국부 비례/가감 인자 집합에 레스터 스캐닝 순으로 버퍼링하는 가변 블럭 추정 부호화 단계를 포함하는 것을 특징으로 하는 전역 기반 색도 상관성을 이용한 영상 부호화 방법.The local proportional factor, which is the local stretch information for minimizing the local error, which is an error between the final reference image and the estimated object image, according to the variable block information recorded in the lookup table, and the local offset and a variable block estimation encoding step of estimating a coefficient based on a variable-block-based coefficient and a luster scanning sequence in a local proportion / additive factor set. 제 12 항에 있어서, 상기 영상 설정 단계는,13. The method of claim 12, 상기 동일 영상의 휘도 영상(Y), 적색 영상(R), 녹색 영상(G), 청색 영상(B) 중 어느 한 영상을 상기 기준 영상(reference image)으로 정하고, 나머지 영상들 중에서 두 영상을 선택하여 두 영상 중 한 영상을 제 1 추정 대상 영상으로 설정하고 또 다른 한 영상을 제 2 추정 대상 영상으로 설정하는 기준/부호 대상 영상 결정 단계; 및The reference image is defined as one of the luminance image Y, the red image R, the green image G and the blue image B of the same image, and two images among the remaining images are selected A reference / code target image determining step of setting one of two images as a first estimation target image and setting another one as a second estimation target image; And 상기 기준 영상을 웨이브렛 변환함으로써 생성되는 저주파 계수 데이터와 고주파 계수 데이터로 구성된 계층적 구조의 웨이브렛 계수 데이터를 저장 매체에 저장한 후, 상기 웨이브렛 계수 데이터를 웨이브렛 역변환하여 제 1 기준 복호 영상을 만드는 웨이브렛 변환/역변환 단계로 것을 특징으로 하는 전역 기반 색도 상관성을 이용한 영상 부호화 방법.The wavelet coefficient data of the hierarchical structure composed of the low-frequency coefficient data and the high-frequency coefficient data generated by wavelet-transforming the reference image is stored in a storage medium, and then the wavelet coefficient data is inversely transformed by wavelet to generate a first reference decoded picture And a wavelet transform / inverse transform step of transforming the transformed wavelet transform image into a transformed wavelet transform image. 제 12 항에 있어서, 상기 검색 테이블 작성 단계는,13. The method according to claim 12, 웨이블렛 변환을 통한 다중 해상도 분석 과정에서 도출되는 하나 이상의 계층에서 어느 한 계층의 상기 고주파 계수 데이터에 절대값을 취한 후, 비용 함수 데이터를 구성하는 비용 함수 데이터 구성 단계;A cost function data constructing step of constructing cost function data by taking an absolute value of the high frequency coefficient data of one layer in at least one layer derived in the multi-resolution analysis process through the wavelet transform; 상기 비용 함수 데이터의 모든값은 합산하여 평균한 전체 평균치를 구한 후, 상기 전체 평균치에 비례 상수를 곱하여 전체 임계치를 산출하는 전체 임계치 산출 단계;Calculating a total average value by summing all the values of the cost function data, and then multiplying the total average value by a proportional constant to calculate a total threshold value; 상기 비용 함수 데이터를 블럭 기반으로 합산하여 평균한 블럭 평균치를 구한 후, 상기 전체 임계치 보다 상기 블럭 평균치가 크면, 해당 블럭을 두 개 이상의 부블럭으로 분할하는 블럭 가변 정보를 래스터 스캐닝 순서로 상기 검색 테이블에 기록하는 제 1 블럭 분할 정보 작성 단계; 및The block variable information for dividing the block into two or more subblocks when the block average value is larger than the total threshold value is obtained by summing the cost function data on a block basis, A first block division information generation step of recording the first block division information in the first block; And 상기 부블럭 데이터를 각각 합산하여 평균한 부블럭 평균치를 구한 후, 상기 전체 임계치 보다 상기 부블럭 평균치가 크면, 해당 부블럭을 두 개 이상의 서브 부블럭으로 분할하는 블럭 가변 정보를 래스터 스캐닝 순서로 상기 검색 테이블에 기록하는 제 2 블럭 분할 정보 작성 단계를 포함하는 것을 특징으로 하는 전역 기반 색도 상관성을 이용한 영상 부호화 방법.Block variable values are divided into two or more sub-sub-blocks if the average value of the sub-blocks is larger than the total threshold value, in a raster scanning order, And a second block division information generation step of recording the second block division information in the search table. 제 14 항에 있어서, 상기 비용 함수 데이터 구성 단계는,15. The method of claim 14, 웨이블렛 변환을 통한 다중 해상도 분석 과정에서 도출되는 두 번째 계층의 동일 발생 기원을 갖는 수직 방향, 수평 방향, 대각선 방향의 고주파 계수들에 절대값을 취한 후, 각각 화소 단위로 합산하여 상기 비용 함수 데이터를 구성하는 단계를 포함하는 것을 특징으로 하는 전역 기반 색도 상관성을 이용한 영상 부호화 방법.Horizontal direction, and diagonal direction high frequency coefficients having the same generation origin of the second hierarchy derived in the multiresolution analysis process through the wavelet transform, and then summing them in pixel units to obtain the cost function data Wherein the chrominance correlation method comprises the steps of: 제 14 항에 있어서, 상기 제 1 블럭 분할 정보 작성 단계는 상기 전체 임계치 보다 상기 블럭 평균치가 크면, 해당 블럭을 4개의 부블럭으로 쿼드트리 분할(quadtree partition)하고, 상기 제 2 블럭 분할 정보 작성 단계는 상기 전체 임계치 보다 상기 부블럭 평균치가 크면, 해당 부블럭을 4개의 서브 부블럭으로 쿼드트리 분할(quadtree partition)하는 것을 특징으로 하는 전역 기반 색도 상관성을 이용한 영상 부호화 방법.15. The method of claim 14, wherein when the block average value is larger than the entire threshold value, the first block division information creation step quadtree partition the block into four sub-blocks, Wherein the subblock is divided into four subblocks by quadtree partition if the average value of the subblocks is larger than the total threshold value. 제 13 항에 있어서, 상기 전역 추정 부호/복호 단계는,14. The method of claim 13, wherein the global estimation coding / 상기 제 1 기준 복호 영상과 상기 제 1 추정 대상 영상 간의 오차인 제 1 전역 오차가 최소가 되도록 하는 스트레칭 정보인 제 1 전역 비례 인자와 슬라이싱 정보인 제 1 전역 가감 인자를 프레임 단위로 추정하여 제 1 전역 비례/가감 인자 집합에 버퍼링하고, 상기 제 1 기준 복호 영상과 상기 제 2 추정 대상 영상 간의 오차인 제 2 전역 오차가 최소가 되도록 하는 스트레칭 정보인 제 2 전역 비례 인자와 슬라이싱 정보인 제 2 전역 가감 인자를 프레임 단위로 추정하여 제 2 전역 비례/가감 인자 집합에 버퍼링하는 전역 비례/가감 인자 추정 단계;Estimating a first global proportional factor, which is stretching information, and a first global enhancement factor, which is slicing information, so as to minimize a first global error, which is an error between the first reference image and the first estimated object image, A second global proportional factor which is stretching information for minimizing a second global error which is an error between the first reference decoded image and the second estimated object image, and a second global proportional factor, which is slicing information, A global proportional / additive factor estimating step of estimating an additive factor on a frame basis and buffering the additive factor in a second global proportional / additive factor set; 상기 제 1 기준 복호 영상에 상기 제 1 전역 비례 인자 및 상기 1 전역 가감 인자를 프레임 단위로 적용하여 제 1 갱신 기준 영상을 생성하고, 상기 제 1 기준 복호 영상에 상기 제 2 전역 비례 인자 및 상기 제 2 전역 가감 인자를 프레임 단위로 적용하여 제 2 갱신 기준 영상을 생성하는 갱신 기준 영상 생성 단계;Wherein the first reference decoded image is generated by applying the first global proportional factor and the one global enhancement factor to the first reference decoded image frame by frame, A second update reference image generating step of generating a second update reference image by applying the second global enhancement factor to each frame; 상기 제 1 전역 오차가 기설정된 제 1 기준치 보다 큰지 여부를 판단하고, 상기 제 2 전역 오차가 기설정된 제 2 기준치 보다 큰지 여부를 판단하는 전역 분할 판단 단계;Determining whether the first global error is greater than a predetermined first reference value and determining whether the second global error is greater than a predetermined second reference value; 상기 전역 분할 판단 단계의 판단 결과, 상기 제 1 전역 오차가 상기 제 1 기준치 보다 작으면, 상기 제 1 갱신 기준 영상을 제 1 최종 기준 영상으로 설정하고, 상기 제 2 전역 오차가 상기 제 2 기준치 보다 작으면, 상기 제 2 갱신 기준 영상을 제 2 최종 기준 영상으로 설정하는 기준 복호 영상 갱신 설정 단계;Wherein if the first global error is smaller than the first reference value as a result of the global segmentation step, the first update reference image is set to a first final reference image, and the second global error is set to be greater than the second reference value A reference decoded image update setting step of setting the second update reference image as a second final reference image; 상기 전역 분할 판단 단계의 판단 결과, 상기 제 1 전역 오차가 기설정된 제 1 기준치 보다 크면, 상기 제 1 추정 대상 영상을 두 개 이상의 부영상으로 분할하여 상기 제 1 갱신 기준 영상과 상기 제 1 추정 대상 영상 간의 오차인 제 1 부전역 오차가 최소가 되도록 하는 스트레칭 정보인 제 1 부전역 비례 인자(sub-global scale factor)와 슬라이싱 정보인 제 1 부전역 가감 인자(sub-global offset factor)를 부영상 단위로 추정하여 상기 제 1 전역 비례/가감 인자 집합에 버퍼링하고, 상기 제 2 전역 오차가 기설정된 제 2 기준치 보다 크면, 상기 제 2 추정 대상 영상을 두 개 이상의 부영상으로 분할하여 상기 제 2 갱신 기준 영상과 상기 제 2 추정 대상 영상 간의 오차인 제 2 부전역 오차가 최소가 되도록 하는 스트레칭 정보인 제 2 부전역 비례 인자(sub-global scale factor)와 슬라이싱 정보인 제 2 부전역 가감 인자(sub-global offset factor)를 부영상 단위로 추정하여 상기 제 2 전역 비례/가감 인자 집합에 버퍼링하는 부전역 비례/가감 인자 추정 단계; 및Wherein if the first global error is greater than a predetermined first reference value as a result of the global segmentation step, the first estimation target image is divided into two or more sub- A first sub-global scale factor, which is stretching information for minimizing a first sub-global error, which is an error between images, and a first sub-global offset factor, which is slicing information, Wherein the first and second global reference images are divided into two or more sub-images, and the second global reference image is divided into at least two sub-images, if the second global error is greater than a predetermined second reference value, A second sub-global scale factor which is stretching information for minimizing a second sub-band error, which is an error between the second estimation target images, Spacing information bujeon station in a second modification factor (sub-global offset factor) for portions estimated to be the first imaging unit to bujeon station to buffer the second global proportional / subtraction factor set proportional / subtraction factor estimating step; And 상기 제 1 부전역 비례 인자 및 상기 제 1 부전역 가감 인자를 상기 제 1 갱신 기준 영상에 부영상 단위로 적용하여 상기 제 1 최종 기준 영상을 생성하고, 상기 제 2 부전역 비례 인자 및 상기 제 2 부전역 가감 인자를 상기 제 2 갱신 기준 영상에 부영상 단위로 적용하여 상기 제 2 최종 기준 영상을 생성하는 최종 기준 영상 생성 단계로 구성되는 것을 특징으로 하는 전역 기반 색도 상관성을 이용한 영상 부호화 방법.Wherein the second sub-field additive factor and the second sub-field additive factor are applied to the first update reference image in sub-image units to generate the first final reference image, And a final reference image generation step of generating the second final reference image by applying the second reference image to the second update reference image in sub-image units. 제 17 항에 있어서, 상기 가변 블럭 추정 부호화 단계는,18. The method of claim 17, wherein the variable- 상기 검색 테이블의 블럭 가변 정보에 따라 상기 제 1 최종 기준 영상을 분할하여 복수의 제 1 최종 기준 블럭으로 구성된 제 1 최종 기준 블럭군을 생성하고, 상기 검색 테이블의 블럭 가변 정보에 따라 상기 제 2 최종 기준 영상을 분할하여 복수의 제 2 최종 기준 블럭으로 구성된 제 2 최종 기준 블럭군을 생성하며, 상기 제 1 추정 대상 영상을 분할하여 복수의 제 1 추정 대상 블럭으로 구성된 제 1 추정 대상 블럭군을 생성하며, 상기 제 2 추정 대상 영상을 분할하여 복수의 제 2 추정 대상 블럭으로 구성된 제 2 추정 대상 블럭군을 생성하는 가변 블럭 분할 단계;A first final reference block group composed of a plurality of first final reference blocks is generated by dividing the first final reference image according to the block variable information of the lookup table, A second final reference block group composed of a plurality of second final reference blocks is generated by dividing the reference image, and a first estimation target block group composed of a plurality of first estimation target blocks is generated by dividing the first estimation target image A variable block dividing step of dividing the second estimation object image to generate a second estimation object block group composed of a plurality of second estimation object blocks; 상기 제 1 최종 기준 블럭군과 상기 제 1 추정 대상 블럭군에서 래스터 스캐닝 순으로 각각 상기 제 1 최종 기준 블럭과 상기 제 1 추정 대상 블럭을 선택하여 상기 제 1 최종 기준 블럭과 상기 제 1 추정 대상 블럭 간의 오차인 제 1 국부 오차가 최소가 되도록 하는 스트레칭 정보인 제 1 국부 비례 인자와 슬라이싱 정보인 제 1 국부 가감 인자를 가변 블럭 기반으로 추정하여 래스터 스캐닝 순서로 제 1 국부 비례/가감 인자 집합에 버퍼링하는 제 1 가변 블럭 추정 부호화 단계;The first final reference block and the first estimation target block group are selected in the order of raster scanning and the first final reference block and the first estimation target block, A first local proportional factor, which is stretching information and a first local adjacency factor, which is slicing information, is estimated on a variable block basis, and is buffered in a first local proportional / A first variable block estimation encoding step 상기 제 2 최종 기준 블럭군과 상기 제 2 추정 대상 블럭군에서 래스터 스캐닝 순으로 각각 상기 제 2 최종 기준 블럭과 상기 제 2 추정 대상 블럭을 선택하여 상기 제 2 최종 기준 블럭과 상기 제 2 추정 대상 블럭 간의 오차인 제 2 국부 오차가 최소가 되도록 하는 스트레칭 정보인 제 2 국부 비례 인자와 슬라이싱 정보인 제 2 국부 가감 인자를 가변 블럭 기반으로 추정하여 래스터 스캐닝 순으로 제 2 국부 비례/가감 인자 집합에 버퍼링하는 제 2 가변 블럭 추정 부호화 단계;The second final reference block and the second estimation target block group are selected in the order of raster scanning and the second final reference block and the second estimation target block in the order of raster scanning, A second local proportional factor, which is stretching information, and a second local adjacency factor, which is slicing information, are estimated on a variable block basis, and are buffered in a second local proportional / A second variable block prediction encoding step 래스터 스캐닝 순서 상에서 마지막에 위치한 최종 제 1 추정 대상 블럭에 대한 제 1 국부 비례 인자 및 제 1 국부 가감 인자와 최종 제 2 추정 대상 블럭에 대한 제 2 국부 비례 인자 및 제 2 국부 가감 인자가 추정됐는지 여부를 판단하여 판단 결과, 추정되지 않았으면, 상기 가변 블럭 분할 단계로 되돌아 가는 추정 부호화 완료 판단 단계; 및The first local proportional factor and the first local adjacency factor for the final first estimated object block located last in the raster scanning order and the second local proportional factor and the second local adjacency factor for the final second estimated object block are estimated And if it is not estimated, returning to the variable block dividing step; And 상기 추정 부호화 완료 판단 단계의 판단 결과, 상기 최종 제 1 추정 대상 블럭에 대한 상기 제 1 국부 비례 인자 및 상기 제 1 국부 가감 인자와 상기 최종 제 2 추정 대상 블럭에 대한 상기 제 2 국부 비례 인자 및 상기 제 2 국부 가감 인자가 추정됐으면, 상기 제 1 국부 비례/가감 인자 집합 및 상기 제 2 국부 비례/가감 인자 집합을 저장하거나 전송하는 국부 비례/가감 인자 집합 저장/전송 단계로 구성되는 것을 특징으로 하는 전역 기반 색도 상관성을 이용한 영상 부호화 방법.And the second local proportion factor for the final second estimation target block and the second local proportion factor for the final first estimation target block and the first local proportion factor for the final first estimation target block, And a local ratio / additive factor set storage / transmission step of storing or transmitting the first local proportion / increment factor set and the second local proportion / addition factor family set when the second local rate factor is estimated Image Coding Method Using Global - Based Color Correlation. 제 18 항에 있어서, 상기 영상 복호화 단계는,The method of claim 18, wherein the image decoding step comprises: 상기 웨이브렛 계수 데이터, 상기 제 1 전역 비례/가감 인자 집합 및 제 2 전역 비례/가감 인자 집합, 상기 제 1 국부 비례/가감 인자 집합 및 상기 제 2 국부 비례/가감 인자 집합을 입력받는 복호 데이터 입력 단계;The first local proportion / addition factor set, the second global proportion / addition factor set, the second local proportion / addition factor set, and the second local proportion / addition factor set step; 상기 웨이브렛 계수 데이터를 이용하여 상기 검색 테이블 작성 단계와 동일한 수순을 거쳐 상기 검색 테이블을 작성하는 복호 검색 테이블 작성 단계;A decoding search table creation step of creating the search table through the same procedure as the search table creation step using the wavelet coefficient data; 상기 웨이브렛 계수 데이터를 웨이블렛 역변환하여 상기 기준 영상에 대응하는 제 2 기준 복호 영상을 복호하는 기준 영상 복호 단계;A reference image decoding step of wavelet-transforming the wavelet coefficient data to decode a second reference decoded image corresponding to the reference image; 상기 제 1 전역 비례/가감 인자 집합에서 상기 제 1 전역 비례 인자와 상기 제 1 전역 가감 인자를 판독하여 상기 제 2 기준 복호 영상에 프레임 단위로 적용함으로써 상기 제 1 갱신 기준 영상에 대응하는 제 1 갱신 기준 복호 영상을 생성한 후, 상기 제 1 부전역 비례 인자와 상기 제 1 부전역 가감 인자를 판독하여 상기 제 1 갱신 기준 복호 영상에 부영상 단위로 적용하여 상기 제 1 최종 기준 영상에 대응하는 제 1 최종 기준 복호 영상을 생성하고, 상기 제 2 전역 비례/가감 인자 집합에서 상기 제 2 전역 비례 인자와 상기 제 2 전역 가감 인자를 판독하여 상기 제 2 기준 복호 영상에 프레임 단위로 적용함으로써 상기 제 2 갱신 기준 영상에 대응하는 제 2 갱신 기준 복호 영상을 생성한 후, 상기 제 2 부전역 비례 인자와 상기 제 2 부전역 가감 인자를 판독하여 상기 제 2 갱신 기준 복호 영상에 부영상 단위로 적용하여 상기 제 2 최종 기준 영상에 대응하는 제 2 최종 기준 복호 영상을 생성하는 최종 기준 복호 영상 생성 단계;Wherein the first global proportional factor and the first global enhancement factor are read from the first global proportional / additive factor set and applied to the second reference decoded image frame by frame to thereby generate a first update A first decoding unit that generates a reference decoded image and then reads the first sub-region proportion factor and the first sub-region addition factor and applies the sub-image unit to the first update reference decoded image to generate a first final reference image corresponding to the first final reference image, Wherein the second global proportional factor and the second global enhancement factor are read from the second global proportional / increment factor set and applied to the second reference decoded image frame by frame basis, After the second update reference decoded image corresponding to the image is generated, the second sub-region proportion factor and the second sub-region addition factor are read The second update the second generating final criteria to generate a final decoded image based on decoded image corresponding to apply to the sub-picture unit for decoding the reference image to the second end-reference image step; 상기 제 1 국부 비례/가감 인자 집합에서 상기 제 1 국부 비례 인자와 상기 제 1 국부 가감 인자를 래스터 스캐닝 순으로 판독하여 상기 검색 테이블에 따라 상기 제 1 최종 기준 복호 영상에서 상기 제 1 추정 대상 영상과 같은 스펙트럴 대역을 갖는 제 1 추정 복호 영상을 가변 블럭 기반으로 추정 복호하는 제 1 가변 블럭 추정 복호 단계; 및The first local proportional factor and the first local adjacency factor are read out in the order of raster scanning in the first local proportional / incremental factor set, and in the first final reference decoded image, A first variable block estimation decoding step of estimating and decoding a first estimated decoded image having the same spectral band on a variable block basis; And 상기 제 2 국부 비례/가감 인자 집합에서 상기 제 2 국부 비례 인자와 상기 제 2 국부 가감 인자를 래스터 스캐닝 순으로 판독하여 상기 검색 테이블에 따라 상기 제 2 최종 기준 복호 영상에서 상기 제 2 추정 대상 영상과 같은 스펙트럴 대역을 갖는 제 2 추정 복호 영상을 가변 블럭 기반으로 추정 복호하는 제 2 가변 블럭 추정 복호 단계를 포함하는 것을 특징으로 하는 전역 기반 색도 상관성을 이용한 영상 부호화 방법.The second local proportional factor and the second local adjacency factor are read out in raster scanning order in the second local proportional / incremental factor set, and in the second final reference decoded image, And a second variable block estimation decoding step of estimating and decoding a second estimated decoded image having the same spectral band on a variable block basis. 제 19 항에 있어서, 상기 영상 복호화 단계는,The method of claim 19, wherein the image decoding step comprises: 상기 제 1 추정 복호 영상과 상기 제 2 추정 복호 영상 및 상기 제 2 기준 복호 영상을 표색계 변환식에 대입하여 상기 동일 영상의 세 색영상 중 제 1 추정 대상 영상 및 제 2 추정 대상 영상을 제외한 나머지 한 영상과 같은 스펙트럴 대역을 갖는 영상을 계산을 통해 산출하는 제 3 색영상 산출 단계를 더 포함하는 것을 특징으로 하는 전역 기반 색도 상관성을 이용한 영상 부호화 방법.The first and second estimated decoded images, and the second reference decoded image to a colorimetric transformation equation to obtain a residual image excluding the first estimation object image and the second estimation object image among the three color images of the same image, And a third color image calculating step of calculating an image having a spectral band such as a color gamut of the second color image through calculation. 제 13 항에 있어서, 상기 기준 영상은 상기 휘도 영상이고, 상기 제 1 추정 대상 영상은 상기 녹색 영상이며, 상기 제 2 추정 대상 영상은 상기 적색 영상인 것을 특징으로 하는 전역 기반 색도 상관성을 이용한 영상 부호화 방법.14. The image encoding method of claim 13, wherein the reference image is the luminance image, the first estimation object image is the green image, and the second estimation object image is the red image. Way. 제 11 항 또는 제 17 항에 있어서, 상기 전역 오차, 상기 국부 오차, 상기 제 1 부전역 오차 및 상기 제 2 부전역 오차는 최소 자승 오차(least square error)인 것을 특징으로 하는 전역 기반 색도 상관성을 이용한 영상 부호화 방법.18. The method of claim 11 or claim 17, wherein the global error, the local error, the first negative error and the second negative error are least square errors. Encoding method.
KR1019970010779A 1997-03-27 1997-03-27 Image encoding method using global based color correlation KR100231925B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019970010779A KR100231925B1 (en) 1997-03-27 1997-03-27 Image encoding method using global based color correlation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970010779A KR100231925B1 (en) 1997-03-27 1997-03-27 Image encoding method using global based color correlation

Publications (2)

Publication Number Publication Date
KR19980074795A true KR19980074795A (en) 1998-11-05
KR100231925B1 KR100231925B1 (en) 1999-12-01

Family

ID=19500976

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970010779A KR100231925B1 (en) 1997-03-27 1997-03-27 Image encoding method using global based color correlation

Country Status (1)

Country Link
KR (1) KR100231925B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8411753B2 (en) 2005-03-04 2013-04-02 Samsung Electronics Co., Ltd. Color space scalable video coding and decoding method and apparatus for the same
KR101362755B1 (en) * 2005-07-22 2014-02-13 삼성전자주식회사 Sensor image encoding and decoding apparatuses and method thereof
WO2015083929A1 (en) * 2013-12-03 2015-06-11 연세대학교 산학협력단 Method, apparatus, and system for encoding and decoding image
US11252421B2 (en) 2013-09-30 2022-02-15 Ideahub Inc. Method, device and system for encoding and decoding image

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8411753B2 (en) 2005-03-04 2013-04-02 Samsung Electronics Co., Ltd. Color space scalable video coding and decoding method and apparatus for the same
KR101362755B1 (en) * 2005-07-22 2014-02-13 삼성전자주식회사 Sensor image encoding and decoding apparatuses and method thereof
US11252421B2 (en) 2013-09-30 2022-02-15 Ideahub Inc. Method, device and system for encoding and decoding image
WO2015083929A1 (en) * 2013-12-03 2015-06-11 연세대학교 산학협력단 Method, apparatus, and system for encoding and decoding image
KR101530782B1 (en) * 2013-12-03 2015-06-22 연세대학교 산학협력단 Method, apparatus and system for image encoding and decoding
US10798413B2 (en) 2013-12-03 2020-10-06 University-Industry Foundation (Uif), Yonsei University Method, apparatus, and system for encoding and decoding image
US11425419B2 (en) 2013-12-03 2022-08-23 Ideahub Inc. Method, apparatus, and system for encoding and decoding image using LM chroma prediction

Also Published As

Publication number Publication date
KR100231925B1 (en) 1999-12-01

Similar Documents

Publication Publication Date Title
JP5107495B2 (en) Quality-based image compression
US6853755B2 (en) Method and apparatus for adaptive compression of scanned documents
US20140079330A1 (en) Image compression and decompression
US20060039617A1 (en) Method and assembly for video encoding, the video encoding including texture analysis and texture synthesis, and corresponding computer program and corresponding computer-readable storage medium
JPH03136595A (en) Processing method of video picture data used for storing or transmitting digital dynamic picture
WO1996002895A9 (en) Method and apparatus for compressing images
EP0770246A1 (en) Method and apparatus for compressing images
JP2012170122A (en) Method for encoding image, and image coder
JP2003523652A (en) Adaptive block size DCT image compression based on change
JPH09121345A (en) Image encoding device and image decoding device
JPH07288474A (en) Vector quantization coding/decoding device
JP2009153128A (en) Selective chrominance decimation for digital images
US7280689B2 (en) Anti-compression techniques for visual images
JP2004528791A (en) Inter-frame encoding method and apparatus
JP3405788B2 (en) Video encoding device and video decoding device
JP3597781B2 (en) Method and apparatus for estimating motion in a digital image having pixels
Deshlahra Analysis of Image Compression Methods Based On Transform and Fractal Coding
KR19980074795A (en) Image Coding Method Using Global-Based Color Correlation
JP3736291B2 (en) Image signal decoding apparatus and method
KR19980074045A (en) An Image Coding Method Using Color Correlation Based on Variable Block
KR100843100B1 (en) Method and apparatus for reducing block noises of digital image, and encoder/decoder using the same
JPH07336684A (en) Picture signal decoding device
Cheng et al. Rate-distortion-based segmentation for MRC compression
KR100208010B1 (en) Image coding method using spectral duplication
Argyropoulos et al. Coding of two-dimensional and three-dimensional color image sequences

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20080604

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee