KR100319919B1 - Improved Arithmetic Coder and / or Decoder Using Variable Probability Models - Google Patents

Improved Arithmetic Coder and / or Decoder Using Variable Probability Models Download PDF

Info

Publication number
KR100319919B1
KR100319919B1 KR1019960027373A KR19960027373A KR100319919B1 KR 100319919 B1 KR100319919 B1 KR 100319919B1 KR 1019960027373 A KR1019960027373 A KR 1019960027373A KR 19960027373 A KR19960027373 A KR 19960027373A KR 100319919 B1 KR100319919 B1 KR 100319919B1
Authority
KR
South Korea
Prior art keywords
probability model
arithmetic
decoder
variable
frame
Prior art date
Application number
KR1019960027373A
Other languages
Korean (ko)
Other versions
KR980012889A (en
Inventor
장의선
손세훈
조대성
Original Assignee
윤종용
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤종용, 삼성전자 주식회사 filed Critical 윤종용
Priority to KR1019960027373A priority Critical patent/KR100319919B1/en
Publication of KR980012889A publication Critical patent/KR980012889A/en
Application granted granted Critical
Publication of KR100319919B1 publication Critical patent/KR100319919B1/en

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

가변 확률 모형을 사용하는 개선된 산술 부호화기 및/또는 복호화기가 개신된다. 이 산술 부호화기 및 복호화기는 부호화하고자 입력되는 데이타의 매 프레임마다 확률 모형의 구성 인자를 이전 프레임까지의 인자 정보를 이용하여 재구성하고, 재구성된 확률 모형의 구성 인자에 따라서 제1가변 확률 모형을 생성하는 제1확률 모형 재구성부, 상기 제1가변 확률 모형을 참조하여 상기 입력 데이타를 프레임 단위로 산술 부호화하는 산술 부호화기, 상기 산술 부호화기에 의해 부호화된 비트스트림을 제2가변 확률 모형을 참조하여 프레임 단위로 산술 복호화하는 산술 복호화기, 상기 산술 복호화기에 의해 복호화된 데이타의 매 프레임마다 확률 모형의 구성 인자를 이전 프레임까지의 인자 정보를 이용하여 재구성하고, 재구성된 확률 모형의 구성 인자에 따라서 상기 제2가변 확률 모형을 생성하는 제2확률 모형 재구성부를 구비하는 것을 그 특징으로 한다. 이에 따라, 각 프레임마다 최적으로 적응될 수 있는 확률 모형 심볼을 예측하고, 그에 따른 확률 모형을 재구성할 수 있는 구조로 구현함으로써, 부호화 성능을 대폭적으로 향상시킬 수 있다.An improved arithmetic encoder and / or decoder using a variable probability model is disclosed. The arithmetic encoder and decoder reconstruct the constituent factors of the probability model for each frame of the data to be encoded using the factor information up to the previous frame, and generate a first variable probability model according to the constituent factors of the reconstructed probability model. A first probability model reconstruction unit, an arithmetic encoder for performing arithmetic coding on the input data in units of frames with reference to the first variable probability model, and a bitstream encoded by the arithmetic encoder in units of frames with reference to a second variable probability model An arithmetic decoder for performing arithmetic decoding, and reconstructs a constituent factor of a probability model for each frame of data decoded by the arithmetic decoder using factor information up to the previous frame, and according to the constituent factors of the reconstructed probability model A second probability model reconstruction unit for generating a probability model It is characterized by that. Accordingly, by predicting a probability model symbol that can be optimally adapted to each frame and implementing a structure capable of reconstructing the probability model, the coding performance can be greatly improved.

Description

가변 확률모형을 사용한 개선된 산술 부호화기 및/또는 복호화기Improved Arithmetic Coder and / or Decoder Using Variable Probability Models

본 발명은 가변 확률 모형을 사용하는 개선된 산술 부호화기 및/또는 복호화기에 관한 것으로서, 특히 각 프레임마다 가변적인 확률 모형의 구성인자(이하 심볼이라 칭함)를 가변 확률 모형을 적용하여 부호화 및/또는 복호화하는 산술 부호화기 및/또는 복호화기에 관한 것이다.The present invention relates to an improved arithmetic encoder and / or decoder using a variable probability model. In particular, the present invention relates to encoding and / or decoding by applying a variable probability model to a component of a variable probability model (hereinafter referred to as a symbol). To an arithmetic encoder and / or decoder.

산술 부호화(arithmetic coding)방식은 허프만(Huffman) 부호화, 렘펠-지브(Lempel-Ziv) 부호화 등과 같이 입력정보를 손상시키지 않고 다시 복원가능한 무손실 부호화방식이다. 산술 부호화방식은 기존의 무손실 엔트로피 부호화방식(예를 들면, 허프만부호화, 렘펠-지브 부호화 등)에 비해 압축률이 뛰어나다는 장점이 있다. 이는 기존의 방식이 압축대상 기호의 확률이 그대로 출력된 비트량에 반영되지 않는 반면, 산술 부호화 방식은 기호의 확률에 근사하게 반영되어 엔트로피에 가까운 압축률을 갖게 되기 때문이다. 제1도를 참조하면, 적응식 무손실 부호화를 사용하는 경우에는 범용 확률 모형을 복호기가 보유하고 있지 않아도 되고,고정식에 비해 적응식이 그 성능이 대체적으로 뛰어나다.Arithmetic coding is a lossless coding scheme that can be reconstructed without damaging input information such as Huffman coding and Lempel-Ziv coding. Arithmetic coding has the advantage of superior compression compared to conventional lossless entropy coding (eg, Huffman coding, Rempel-Jib coding, etc.). This is because the conventional method does not reflect the probability of the symbol to be compressed as it is, but the arithmetic coding method is close to the probability of the symbol and has a compression ratio close to entropy. Referring to FIG. 1, when adaptive lossless coding is used, the decoder does not have to have a universal probability model, and the performance of the adaptive equation is generally superior to that of the fixed equation.

산술 부호화방식은 현재 동영상 신호압축에 이용되는 표준방식인 H.263에도 선택 사양으로 채택되어 있으며, 채택시 허프만 부호화를 이용한 가변길이 부호화방식보다도 뛰어난 성능을 보여주고 있다. H.263에서 사용하는 산술 부호화방식은 문법기반(syntax-based)의 산술 부호화로 불리우고 있으며, 이 경우 문법에 따라 서로 다른 확률 모형을 사용한다.Arithmetic coding is an optional feature in H.263, a standard method used for video signal compression, and shows better performance than variable length coding using Huffman coding. The arithmetic coding scheme used in H.263 is called syntax-based arithmetic coding. In this case, different probabilistic models are used depending on the grammar.

일반적인 산술 부호화기 및 복호화기에 대하여 제1도를 참조하여 설명하면 다음과 같다. 제1도에 있어서, 입력 데이타(101)는 산술 부호화기(102)에서 확률 모형(104)을 근거로 하여 부호화된다. 이때, 신호선(103)과 같이 확률 모형(104)이 일방적으로 참조만 될 경우를 고정식 산술 부호화라 하며, 신호선(105)와 같이 산술 부호화기(102)로 부터 확률 모형(104)이 최신화(update)되는 경우를 적응식 산술 부호화라 한다. 산술 부호화기(102)에서 부호화된 비트스트림(106)은 산술 복호화기(107)에서 복호화되어 복호화된 데이타(111)를 출력한다. 이때, 산술 부호화방식이 고정식 혹은 적응식이냐에 따라서 부호화시와 동일한 방법으로 신호선(108) 혹은 신호선(110)에 의해 확률 모형(109)을 참조하거나, 최신화한다.A general arithmetic encoder and decoder will be described with reference to FIG. In FIG. 1, the input data 101 is encoded by the arithmetic encoder 102 based on the probability model 104. In FIG. In this case, the case where the probability model 104 is unilaterally referred to as the signal line 103 is called fixed arithmetic coding, and the probability model 104 is updated from the arithmetic encoder 102 like the signal line 105. Is called adaptive arithmetic coding. The bitstream 106 encoded by the arithmetic encoder 102 outputs the data 111 decoded by the arithmetic decoder 107. In this case, the probability model 109 is referred to or updated by the signal line 108 or the signal line 110 in the same manner as in encoding depending on whether the arithmetic coding method is fixed or adaptive.

상기와 같은 일반적인 산술 부호화기 및 복호화기에서는 초기에 ㄱ려정된 확률 모형의 심볼을 부호화되는 모든 프레임에 일률적으로 적용함으로써 시간에 따라 변화하는 프레임의 특성을 반영할 수 없었다. 따라서, 각 프레임마다 최적으로 적용될 수 있는 심볼의 예측과 그에 따른 확률 모형 재구성 기능을 가진 개선된 산술 부호화방식이 필요하게 되었다.In the general arithmetic encoder and decoder as described above, it is not possible to reflect the characteristics of a frame that changes with time by uniformly applying the symbols of the initially determined probability model to all the frames to be encoded. Therefore, there is a need for an improved arithmetic coding method with prediction of symbols that can be optimally applied to each frame and the probability model reconstruction accordingly.

본 발명이 이루고자 하는 기술적인 과제는, 각 프레임에 최적으로 적용될 수 있는 확를 모형을 이전 프레임까지의 인자(index;입력 데이타가 가질 수 있는 모든 경우)의 확률 등의 정보로부터 심볼을 예측하여 구하고, 그에 해당하는 확률 모형을 사용하여 입력 데이타를 부호화 및/또는 복호화하는 가변 확률 모형을 사용하는 개선된 고정식 혹은 적응식 산술 부호화기 및/또는 복호화기를 제공하는 것이다.The technical problem to be achieved by the present invention is to obtain a model that can be optimally applied to each frame by predicting a symbol from information such as the probability of a factor (index (any case that the input data can have) to the previous frame), An improved fixed or adaptive arithmetic encoder and / or decoder using a variable probability model that encodes and / or decodes input data using a corresponding probability model is provided.

본 발명이 이루고자 하는 다른 기술적인 과제는, 각 프레임에 최적으로 적용될 수 있는 확률 모형을 이전 프레임까지의 인자의 확률 등의 정보로부터 심볼을 예측하여 구하고, 그에 해당하는 확률 모형을 사용하여 입력 데이타를 부호화 및/또는 복호화하는 가변확률 모형을 사용하는 개선된 문법기반의 적응식 산술 부호화기 및/또는 복호화기를 제공하는 것이다.Another technical problem to be solved by the present invention is to obtain a probability model that can be optimally applied to each frame by predicting a symbol from information such as the probability of a factor up to a previous frame, and using the corresponding probability model to input input data. An improved grammar-based adaptive arithmetic encoder and / or decoder using a variable probability model for encoding and / or decoding is provided.

도 1은 일반적인 산술 부호화기 및 복호화기를 설명하기 위한 블럭도이다.1 is a block diagram illustrating a general arithmetic encoder and decoder.

도 2는 본 발명에서 사용하는 확률 모형과 심볼을 설명하기 위한 테이블이다.2 is a table for explaining a probability model and symbols used in the present invention.

도 3은 본 발명에 의한 개선된 산술 부호화기의 제1실시예에 따른 블럭도이다.3 is a block diagram according to a first embodiment of an improved arithmetic encoder according to the present invention.

도 4는 본 발명에 의한 개선된 산술 복호화기의 제1실시예에 따른 블럭도이다.4 is a block diagram according to a first embodiment of an improved arithmetic decoder according to the present invention.

도 5는 본 발명에 의한 개선된 산술 부호화기의 제2실시예에 따른 블럭도이다.5 is a block diagram according to a second embodiment of an improved arithmetic encoder according to the present invention.

도 6은 본 발명에 의한 개선된 산술 복호화기의 제2실시예에 따른 블럭도이다.6 is a block diagram according to a second embodiment of the improved arithmetic decoder according to the present invention.

도 7은 본 발명에 의한 개선된 산술 부호화기의 제3실시예에 따른 블럭도이다.7 is a block diagram according to a third embodiment of an improved arithmetic encoder according to the present invention.

도 8은 본 발명에 의한 개선된 산술 복호화기의 제3실시예에 따른 블럭도이다.8 is a block diagram according to a third embodiment of the improved arithmetic decoder according to the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

201,301,401,501,601,701...확률모형 재구성부201,301,401,501,601,701 ... probability model reconstruction unit

202,402,602...산술 부호화기Arithmetic Encoder

203,303,403,503,603,703...확률 모형203,303,403,503,603,703 ... probability model

302,502,702...산술 복호화기Arithmetic Decoder

603,703...문법기반 다중화기Grammar-based Multiplexers

상기 과제를 이루기 위하여 본 발명에 의한 가변 확률 모형을 사용하는 개선된 고정식 산술 부호화기 및 복호화기는, 부호화하고자 입력되는 데이타의 매 프레임마다 확률 모형의 구성 인자를 이전 프레임까지의 인자 정보를 이용하여 재구성하고, 재구성된 확률 모형의 구성 인자에 따라서 제1가변 확률 모형을 생성하는 제1확률 모형 재구성부; 상기 제1가변 확률 모형을 참조하여 상기 입력 데이타를 프레임 단위로 산술 부호화하는 산술부호화기; 상기 산술 부호화기에 의해 부호화된 비트스트림을 제2가변 확률 모형을 참조하며 프레임 단위로 산술 복호화하는 산술 복호화기; 및 상기 산술 복호화기에 의해 복호화된 데이타의 매 프레임마다 확률 모형의 구성 인자를 이전 프레임까지의 인자 정보를 이용하여 재구성하고, 재구성된 확률 모형의 구성 인자에 따라서 상기 제2가변 확률 모형을 생성하는 제2확률 모형 재구성부를 구비하는 것을 특징으로 한다.In order to achieve the above object, the improved fixed arithmetic encoder and decoder using the variable probability model according to the present invention reconstructs the constituent factors of the probability model for each frame of the data to be encoded using the factor information up to the previous frame. A first probability model reconstruction unit configured to generate a first variable probability model according to a component of the reconstructed probability model; An arithmetic encoder for arithmetically encoding the input data in units of frames with reference to the first variable probability model; An arithmetic decoder for performing arithmetic decoding on a bit-by-frame basis with reference to a second variable probability model of the bitstream encoded by the arithmetic encoder; And reconstructing a constituent factor of a probability model for each frame of data decoded by the arithmetic decoder using factor information up to a previous frame, and generating the second variable probability model according to the constituent factors of the reconstructed probability model. And a two-probability model reconstruction unit.

상기 다른 과제를 이루기 위하여 본 발명에 의한 가변 확률 모형을 사용하는 개선된 문법기반의 적응식 산술 부호화기 및 복호화기는, 부호화하고자 입력되는 데이타의 매 프레임마다 확률 모형의 구성 인자를 이전 프레임까지의 인자 정보를 이용하여 재구성하고, 재구성된 확률 모형의 구성 인자에 따라서 제1가변 확률 모형을 생성하는 제1확률 모형 재구성부; 상기 제1가변 확률 모형을 참조하여 상기 입력 데이타를 프레임 단위로 산술 부호화하는 산술 부호화기; 특정한 문법을 기반으로 하여 상기 입력 데이타를 문법에 의해 지정된 특정 확률 모형을 상기 제1가변 확률 모형들로부터 참조하도록 다중화하는 제1문법기반 다중화기; 상기 산술 부호화기에 의해 부호화된 비트스트림을 제2가변 확률 모형을 참조하여 프레임 단위로 산술 복호화하는 산술 복호화기; 특정한 문법을 기반으로 하여 상기 부호화된 비트스트림을 문법에 의해 지정된 특정 확률 모형을 상기 제2가변 확률 모형들로부터 참조하도록 다중화하는 문법기반 다중화기; 및 상기 산술 복호화기에 의해 복호화된 데이타의 매 프레임마다 확률 모형의 구성 인자를 이전 프레임까지의 인자정보를 이용하여 재구성하고, 재구성된 확률 모형의 구성 인자에 따라서 상기 제2가변 확률 모형을 생성하는 제2확률 모형 재구성부를 구비하는 것을 특징으로 한다.In order to achieve the above object, an improved grammar-based adaptive arithmetic encoder and decoder using a variable probability model according to the present invention includes factor information of a probability model for each frame of data to be encoded. A first probability model reconstructing unit configured to reconstruct using a and to generate a first variable probability model according to a reconstructed factor of the reconstructed probability model; An arithmetic encoder for performing arithmetic coding on the input data in units of frames with reference to the first variable probability model; A first grammar-based multiplexer for multiplexing the input data based on a specific grammar to reference a specific probability model specified by a grammar from the first variable probability models; An arithmetic decoder for performing arithmetic decoding on the frame basis with reference to a second variable probability model by the arithmetic encoder; A grammar-based multiplexer for multiplexing the encoded bitstream based on a specific grammar to refer to a specific probability model specified by a grammar from the second variable probability models; And reconstructing a constituent factor of a probability model for each frame of data decoded by the arithmetic decoder using factor information up to a previous frame, and generating the second variable probability model according to the constituent factors of the reconstructed probability model. And a two-probability model reconstruction unit.

이하 첨부된 도면들을 참조하면서 본 발명에 따른 바람직한 실시예를 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.

도 2는 본 발명에서 사용하는 확률 모형과 심볼을 나타낸 테이블이다. 데이타 변환기술을 이용하는 부호화(transform coding)의 경우, 데이타의 변환 및 양자화 이후에 생성되는 많은 인자 중에서 확률이 큰 일정 수의 인자는 확률 모형의 심볼로 할당하여 부호화하고, 확률이 작은 인자는 부호화시 지나치게 많은 비트가 할당되므로 모두 별도로 하나의 심볼로 설정하고 따로 처리하는 것이 부호화에 유리하다. 이 경우 각 프레임마다 의미있는 심볼의 분포가 다르므로 이들 확률 모형 심볼을 매 프레임마다 바꾸어준다. 특히, 영상의 이산적 코사인 변환을 이용한 부호화의 경우, N*N 크기의 양자화된 이산적 코사인 변환계수 블럭에서 교류성분(AC)의 지그재그(zigzag) 스캐닝을 통한 인자의 정보를 누적시켜 다음 프레임의 심볼 예측에 사용하여 일정 수의 인자를 심볼로 결정하고, 그 이외의 인자는 이스케이프(escape) 심볼로 처리하도로 한다. 이러한 심볼의 구성은 매 프레임마다 프레임 특성에 맞게 변화시킨다.2 is a table showing a probability model and a symbol used in the present invention. In the case of transform coding using a data transformation technique, a predetermined number of factors having a high probability among the many factors generated after the data transformation and quantization are allocated as symbols of a probability model, and the factors having low probability are encoded at the time of encoding. Since too many bits are allocated, it is advantageous for encoding to set them all as one symbol separately and process them separately. In this case, since the distribution of meaningful symbols is different in each frame, these probability model symbols are changed every frame. In particular, in the case of encoding using a discrete cosine transform of an image, information of a factor through zigzag scanning of an AC component is accumulated in an N * N size quantized discrete cosine transform coefficient block. In symbol prediction, a certain number of factors are determined as symbols, and other factors may be treated as escape symbols. The configuration of these symbols is changed in accordance with the frame characteristics every frame.

도 2를 참조하면, 참조부호 121은 누적된 모든 n개의 인자(123,124)로 부터 확률 분포(125)를 통해 확률이 큰 m개의 인자를 선택한 새로운 심볼값을 나타내고, 참조부호 122는 나머지 인자값(124)을 모두 지칭하는 이스케이프 심볼을 의미한다. 인자(123,124)는 부호화를 거쳐야 할 n개의 모든 인자값으로서, 매 프레임마다 확률분포(125)가 변화하므로 심볼(121,122)로의 선정이 가변적으로 바뀌게 된다. 확률 분포(125)는 m개의 확률이 큰 부분과 (n-m)개의 나머지 확률이 작은 부분으로 나된다. 이러한 가변 확률 모형을 이용한 산술 부호화기 및 복호화기가 도 3 내지 도 8에 도시되어 있다.Referring to FIG. 2, reference numeral 121 denotes a new symbol value in which m factors having a high probability are selected from the accumulated n factors 123 and 124 through the probability distribution 125, and reference numeral 122 denotes a remaining factor value ( Escape symbol referring to all 124). The factors 123 and 124 are all n factor values to be encoded, and since the probability distribution 125 changes every frame, the selection of the symbols 121 and 122 is variably changed. The probability distribution 125 is divided into m probable parts and (n-m) remaining probable parts. Arithmetic encoders and decoders using such variable probability models are illustrated in FIGS. 3 to 8.

도 3은 본 발명에 의한 개선된 산술 부호화기의 제1실시예에 따른 블럭도로서, 크게 확률 모형 재구성부(201), 산술 부호화기(202)와 확률 모형(203)으로 이루어진다.3 is a block diagram according to the first embodiment of the improved arithmetic encoder according to the present invention, and is largely comprised of a probability model reconstruction unit 201, an arithmetic encoder 202, and a probability model 203.

도 3을 참조하면, 입력 데이타(200)는 확률 모형 재구성부(201)를 거쳐 산술 부호화기(202)에서 재구성된 확률 모형(203)을 참조하여 부호화되고, 부호화된 비트스트림(204)을 출력한다. 확률 모형 재구성부(201)의 동작을 살펴보면, 우선 제211단계에서 입력 데이타(200)가 새로운 프레임의 시작인지를 확인하여, 새로운 프레임의 시작이면 제213단계를 수행하고, 새로운 프레임의 시작이 아니면 입력 데이타(200)를 산술 부호화기(202)로 인가한다. 새로운 프레임의 첫번째 데이타(In_1;216)가 입력되는 제211단계에서 경로(212)를 통해 제213단계에서 새로운 프레임을 위한 심볼이 예측된다. 심볼 예측은 산술 부호화기(202)에 의해 현재 이전까지의 프레임 정보로 부터 제214단계에서 누적된 정보를 이용한다. 이때 누적되는 정보는 입력 데이타(200)가 가질 수 있는 모든 수의 인자(index)에 대하여 현재 프레임 이전까지 혹은 일정한 범위 전까지의 프레임을 통해, 해당인자의 발생 횟수 등과 같은 현재 이전의 입력된 인자 정보를 의미한다. 제214단계를 통해 제213단계에서는 일정한 특성에 대한 한계내에 존재하는 모든 인자 혹은 일정 수의 인자를 선택하여, 이 인자들이 현재 프레임에 가장 적합한 확률 모형의 인자라고 가정하고, 이들을 현재 프레임의 심볼로 예측한다. 이 경우, 선택되지 않은 인자들의 경우는 모두 하나의 심볼 즉, 이스케이프 심볼로 규정하고, 각 인자들의 값을 따로 부호화한다. 이렇게 결정된 심볼을 이용한 도 2의 테이블 업데이트단계(제215단계)에 의해 새로운 확률 모형(203)이 재구성된다. 이러한 과정이 끝나면 매 프레임의 첫번째 데이타(216)가 산술 부호화기(202)로 입력된다. 이후, 입력되는 프레임내의 데이타(218)는 경로(217)을 통해 산술 부호화기(202)로 입력된다.Referring to FIG. 3, the input data 200 is encoded by referring to the probability model 203 reconstructed by the arithmetic encoder 202 through the probability model reconstruction unit 201 and outputs the encoded bitstream 204. . Referring to the operation of the probability model reconstruction unit 201, first, in step 211, the input data 200 is checked to determine whether a new frame is started, and if the start of a new frame is performed, step 213 is performed. Input data 200 is applied to arithmetic encoder 202. The symbol for the new frame is predicted in step 213 through the path 212 in step 211 in which the first data In_1 216 of the new frame is input. The symbol prediction uses the information accumulated in the step 214 from the frame information up to the present time by the arithmetic encoder 202. At this time, the cumulative information is the current input factor information such as the number of occurrences of the corresponding factor through a frame before the current frame or a certain range for all the number of indexes that the input data 200 may have. Means. In step 214, in step 213, all factors or a certain number of factors existing within the limits for a certain characteristic are selected, and these factors are assumed to be factors of a probability model that is most suitable for the current frame, and these are represented as symbols of the current frame Predict. In this case, all of the unselected factors are defined as one symbol, that is, an escape symbol, and the values of the respective factors are separately encoded. The new probability model 203 is reconstructed by the table updating step (step 215) of FIG. 2 using the thus determined symbol. After this process, the first data 216 of each frame is input to the arithmetic encoder 202. The data 218 in the input frame is then input to the arithmetic encoder 202 via the path 217.

도 4는 본 발명에 의한 개선된 산술 복호화기의 제1실시예에 따른 블럭도로서, 크게 확률 모형 재구성부(301), 산술 복호화기(302)와 확률 모형(303)으로 이루어진다.4 is a block diagram according to a first embodiment of the improved arithmetic decoder according to the present invention, and is largely comprised of a probability model reconstruction unit 301, an arithmetic decoder 302, and a probability model 303.

도 4를 참조하면, 도 3의 산술 부호화기(202)에서 부호화된 비트스트림(300)은 산술 복호화기(302)에서 확률 모형(303)을 근거로 하여 복호화되고, 복호화된 데이타(304)는 확률 모형 재구성부(301)로 입력된다. 확률 모형 재구성부(301)의 동작을 살펴보면, 우선 제311단계에서 입력 데이타(300)가 새로운 프레임의 시작인지를 확인하여, 새로운 프레임의 시작이면 제313단계를 수행하고, 새로운 프레임의 시작이 아니면 즉, 프레임내의 데이타이면 복호화된 데이타(316)를 그대로 출력한다. 여기서, 복호화된 데이타(316)는 산술 복호화기(302)에서 복호화된 데이타(304)와 동일한 데이타이다. 경로(312)는 경로(212)와 동일한 구조로서, 먼저 산술 복호화기(302)에 의해 제314단계에서 누적된 인자 정보를 이용하여 제313단계에서 새로운 프레임에 대한 심볼이 예측되고, 이 심볼에 대한 확률 모형(303)이 테이블 업데이트단계(제315단계)를 통해 재구성된다.Referring to FIG. 4, the bitstream 300 encoded by the arithmetic encoder 202 of FIG. 3 is decoded based on the probability model 303 by the arithmetic decoder 302, and the decoded data 304 is a probability. It is input to the model reconstruction unit 301. Referring to the operation of the probability model reconstruction unit 301, first, in step 311, the input data 300 is checked whether a new frame starts, and if a new frame starts, step 313 is performed. In other words, if the data is in the frame, the decoded data 316 is output as it is. Here, the decoded data 316 is the same data as the data 304 decoded by the arithmetic decoder 302. The path 312 has the same structure as the path 212. First, a symbol for a new frame is predicted in step 313 by using the factor information accumulated in the step 314 by the arithmetic decoder 302. The probability model 303 is reconstructed through a table update step (step 315).

도 5는 본 발명에 의한 개선된 산술 부호화기의 제2실시예에 따른 블럭도로서, 크게 확률 모형 재구성부(401), 산술 부호화기(402)와 확률 모형(403)으로 이루어지고, 도 6은 본 발명에 의한 개선된 산술 복호화기의 제2실시예에 따른 블럭도로서, 크게 확률 모형 재구성부(501), 산술 복호화기(502)와 확률 모형(503)으로 이루어진다.5 is a block diagram according to a second embodiment of the improved arithmetic encoder according to the present invention, and is largely composed of a probability model reconstruction unit 401, an arithmetic encoder 402, and a probability model 403. As a block diagram according to a second embodiment of the improved arithmetic decoder according to the present invention, a probabilistic model reconstruction unit 501, an arithmetic decoder 502, and a probability model 503 are provided.

도 3과 도 4에 도시된 본 발명에 의한 산술 부호화기 및 복호화기의 제1실시예와 도 5와 도 6에 도시된 제2실시예의 차이점은, 제1실시예에서 사용하는 산술 부호화기 및 복호화기(202,302)가 고정식인 반면, 제2실시예에서 사용하는 산술 부호화기 및 복호화기(402,502)가 적응식이라는 것이다. 즉, 도 5와 도 6에 있어서, 신호선(406,506)은 각각 적응식 산술 부호화기(402) 및 복호화기(502)에서의 프레임내의 데이타 입력에 대한 확률 모형(403,503)의 업데이트를 의미한다.The difference between the first embodiment of the arithmetic encoder and decoder according to the present invention shown in Figs. 3 and 4 and the second embodiment shown in Figs. 5 and 6 is the arithmetic encoder and decoder used in the first embodiment. While 202 and 302 are fixed, the arithmetic encoder and decoder 402 and 502 used in the second embodiment are adaptive. That is, in Figs. 5 and 6, the signal lines 406 and 506 denote the update of the probability models 403 and 503 with respect to the data input in the frame in the adaptive arithmetic encoder 402 and the decoder 502, respectively.

도 7은 본 발명에 의한 개선된 산술 부호화기의 제3실시예에 따른 블럭도로서, 크게 확률 모형 재구성부(601), 산술 부호화기(602), 문법기반 다중화기(603)와 확률 모형(604)으로 이루어지고, 도 8은 본 발명에 의한 개선된 산술 복호화기의 제3실시예에 따른 블럭도로서, 크게 확률 모형 재구성부(701), 산술 복호화기(702), 문법기반 다중화기(703)와 확률 모형(704)으로 이루어진다.7 is a block diagram according to a third embodiment of the improved arithmetic encoder according to the present invention. The probability model reconstruction unit 601, the arithmetic encoder 602, the grammar-based multiplexer 603, and the probability model 604 are shown in FIG. 8 is a block diagram according to a third embodiment of the improved arithmetic decoder according to the present invention. The probability model reconstruction unit 701, the arithmetic decoder 702, and the grammar-based multiplexer 703 are shown in FIG. And a probability model 704.

도 3과 도 4에 도시된 본 발명에 의한 산술 부호화기 및 복호화기의 제1실시예 및 도 5와 도 6에 도시된 제2실시예와 도 7과 도 8에 도시된 제3실시예의 차이점, 제3실시예에서 사용하는 산술 부호화기 및 복호화기(602,702)가 문법 기반의 적응식 산술 부호화 방식을 사용하는 것이다. 즉, 도 7과 도 8에 있어서, 문법기반 다중화기(603,703)은 각각 특정한 문법을 기반으로 입력 데이타를 문법에 의해 지정된 특정 확률 모형을 신호선(605,705)을 통해 확률 모형(604,704)들로부터 참조하도록 한다. 이와 동시에, 신호선(605,705)는 적응식 산술부호화기(602) 및 복호화기(702)에서의 프레임내의 데이타 입력에 대한 확률 모형의 최신화과정을 나타낸다.Differences between the first embodiment of the arithmetic encoder and decoder according to the present invention shown in FIGS. 3 and 4 and the second embodiment shown in FIGS. 5 and 6 and the third embodiment shown in FIGS. Arithmetic encoders and decoders 602 and 702 used in the third embodiment use a grammar-based adaptive arithmetic coding scheme. That is, in FIGS. 7 and 8, the grammar-based multiplexers 603 and 703 refer to specific probability models designated by the grammar from the probability models 604 and 704 through the signal lines 605 and 705, respectively, based on the specific grammars. do. At the same time, signal lines 605 and 705 represent a process of updating the probability model for data input in frames in adaptive arithmetic encoder 602 and decoder 702.

여기서, 본 발명에 의한 가변 확률 모형을 사용하는 개선된 산술 부호화기 및/또는 복호화기는 영상 추정 및 영상 보상된 신호에 적용하여 사용할 수도 있다.Here, the improved arithmetic encoder and / or decoder using the variable probability model according to the present invention may be applied to image estimation and image compensated signals.

여기서, 상기 산술 부호화기(202,402,602) 및 산술 복호화기(302,502,702)는 일반적인 엔트로피 부호화기 및 복호화기로 대체가능하다. 또한, 상기 산술 부호화기(202,402,602) 및 산술 복호화기(302,502,702)는 일반적인 변환부호화기 및 복호화기와 양자화기 및 역양자화기로 대체가능하다.Here, the arithmetic encoders 202, 402 and 602 and the arithmetic decoders 302, 502 and 702 may be replaced with general entropy encoders and decoders. In addition, the arithmetic encoders 202, 402, 602 and arithmetic decoders 302, 502, 702 may be replaced with general transform encoders and decoders, quantizers, and dequantizers.

본 발명은 상기 실시예에 한정되지 않으며, 많은 변형이 본 발명의 기술적 사상내에서 당 분야에서 통상의 지식을 가진 자에 의해 가능함은 명백하다.The present invention is not limited to the above embodiments, and it is apparent that many modifications are possible by one of ordinary skill in the art within the technical idea of the present invention.

본 발명에 의한 가변 확률 모형을 사용하는 개선된 산술 부호화기 및/또는 복호화기에서는 기존의 산술 부호화방식에서의 확률 모형내의 심볼의 불가변성을 개선하여 각 프레임마다 최적으로 적용될 수 있는 확률 모형 심볼을 예측하고, 그에 따른 확률 모형을 재구성할 수 있는 구조로 구현함으로써, 부호화 성능을 대폭적으로 향상시킬 수 있다.The improved arithmetic encoder and / or decoder using the variable probability model according to the present invention improves the invariability of the symbols in the probability model in the conventional arithmetic coding to predict the probability model symbols that can be optimally applied to each frame. And, by implementing a structure that can be reconstructed according to the probability model, it is possible to significantly improve the coding performance.

Claims (8)

부호화하고자 입력되는 데이타의 매 프레임마다 확률 모형의 구성 인자를 이전 프레임까지의 인자 정보를 이용하여 재구성하고, 재구성된 확률 모형의 구성 인자에 따라서 가변 확률 모형을 생성하는 확률 모형 재구성부; 및A probabilistic model reconstruction unit for reconstructing the constituent factors of the probability model for each frame of data to be encoded using factor information up to the previous frame and generating a variable probability model according to the constituent factors of the reconstructed probability model; And 상기 가변 확률 모형을 참조하여 상기 입력 데이타를 프레임 단위로 산술 부호화하는 산술 부호화기를 구비하는 것을 특징으로 하는 가변 확률 모형을 사용하는 개선된 산술 부호화기.And an arithmetic encoder for performing arithmetic coding on the input data on a frame-by-frame basis with reference to the variable probability model. 제1항과 같은 산술 부호화기에 의해 부호화된 비트스트림을 가변 확률 모형을 참조하여 프레임 단위로 산술 복호화하는 산술 복호화기; 및An arithmetic decoder for performing arithmetic decoding on a bit-by-frame basis with reference to a variable probability model; And 상기 산술 복호화기에 의해 복호화된 데이타의 매 프레임마다 확률 모형의 구성인자를 이전 프레임까지의 인자 정보를 이용하여 재구성하고, 재구성된 확률 모형의 구성인자에 따라서 상기 가변 확률 모형을 생성하는 확률 모형 재구성부를 구비하는 것을 특징으로 하는 가변 확률 모형을 사용하는 개선된 산술 복호화기.A probabilistic model reconstruction unit for reconstructing a constituent factor of a probability model for each frame of data decoded by the arithmetic decoder using factor information up to the previous frame and generating the variable probability model according to the constituent factors of the reconstructed probability model. An improved arithmetic decoder using a variable probability model. 부호화하고자 입력되는 데이타의 매 프레임마다 확률 모형의 구성 인자를 이전 프레임까지의 인자 정보를 이용하여 재구성하고, 재구성된 확률 모형의 구성 인자에 따라서 제1가변 확률 모형을 생성하는 제1확률 모형 재구성부;A first probability model reconstruction unit for reconstructing the constituent factors of the probability model for each frame of the data to be encoded using factor information up to the previous frame and generating a first variable probability model according to the constituent factors of the reconstructed probability model. ; 상기 제1가변 확률 모형을 참조하여 상기 입력 데이타를 프레임 단위로 산술부호화하는 산술 부호화기;An arithmetic encoder that encodes the input data in units of frames with reference to the first variable probability model; 상기 산술 부호화기에 의해 부호화된 비트스트림을 제2가변 확률 모형을 참조하여 프레임 단위로 산술 복호화하는 산술 복호화기; 및An arithmetic decoder for performing arithmetic decoding on the frame basis with reference to a second variable probability model by the arithmetic encoder; And 상기 산술 복호화기에 의해 복호화된 데이타의 매 프레임마다 확률 모형의 구성인자를 이전 프레임까지의 인자 정보를 이용하여 재구성하고, 재구성된 확률 모형의 구성인자에 따라서 상기 제2가변 확률 모형을 생성하는 제2확률 모형 재구성부를 구비하는 것을 특징으로 하는 가변 확률 모형을 사용하는 개선된 산술 부호화기 및 복호화기.A second variable reconstructing component of a probability model for each frame of data decoded by the arithmetic decoder using factor information up to a previous frame, and generating the second variable probability model according to the components of the reconstructed probability model An improved arithmetic encoder and decoder using a variable probability model comprising a probability model reconstruction unit. 제1항 내지 제3항의 어느 한 항에 있어서, 상기 산술 부호화기 및/또는 복호화기는 고정식인 것을 특징으로 하는 산술 부호화기 및/또는 복호화기.4. The arithmetic encoder and / or decoder according to any one of claims 1 to 3, wherein the arithmetic encoder and / or decoder is fixed. 제1항 내지 제3항의 어느 한 항에 있어서, 상기 산술 부호화기 및/또는 복호화기는 적응식인 것을 특징으로 하는 산술 부호화기 및/또는 복호화기.4. The arithmetic encoder and / or decoder according to any one of claims 1 to 3, wherein the arithmetic encoder and / or decoder is adaptive. 부호화하고자 입력되는 데이타의 매 프레임마다 확률 모형의 구성 인자를 이전 프레임까지의 인자 정보를 이용하여 재구성하고, 재구성된 확률 모형의 구성 인자에 따라서 복수개의 가변 확률 모형을 생성하는 확률 모형 재구성부;A probability model reconstruction unit for reconstructing the constituent factors of the probability model for each frame of the data to be encoded using factor information up to the previous frame and generating a plurality of variable probability models according to the constituent factors of the reconstructed probability model; 상기 가변 확률 모형을 참조하여 상기 입력 데이타를 프레임 단위로 산술 부호화하는 산술 부호화기; 및An arithmetic encoder for performing arithmetic coding on the input data in units of frames with reference to the variable probability model; And 특정한 문법을 기반으로 하여 상기 입력 데이타를 문법에 의해 지정된 특정 확률 모형을 상기 가변 확률 모형들로부터 참조하도록 다중화하는 문법기반 다중화기를 구비하는 것을 특징으로 하는 가변 확률 모형을 사용하는 개선된 문법기반의 산술 부호화기.Improved grammar-based arithmetic using a variable probability model comprising a grammar-based multiplexer for multiplexing the input data based on a particular grammar to refer to a particular probability model specified by a grammar from the variable probability models Encoder. 제6항과 같은 산술 부호화기에 의해 부호화된 비트스트림을 복수개의 가변 확률 모형을 참조하여 프레임 단위로 산술 복호화하는 산술 복호화기;An arithmetic decoder for performing arithmetic decoding on the frame basis with reference to the plurality of variable probability models; 특정한 문법을 기반으로 하여 상기 부호화된 비트스트립을 문법에 의해 지정된 특정 확률 모형을 상기 가변 확률 모형들로부터 참조하도록 다중화하는 문법기반 다중화기; 및A grammar-based multiplexer for multiplexing the encoded bit strips based on a specific grammar to refer to a specific probability model specified by a grammar from the variable probability models; And 상기 산술 복호화기에 의해 복호화된 데이타의 매 프레임마다 확률 모형의 구성 인자를 이전 프레임까지의 인자 정보를 이용하여 재구성하고, 재구성된 확률 모형의 구성 인자에 따라서 상기 가변 확률 모형을 생성하는 확률 모형 재구성부를 구비하는 것을 특징으로 하는 가변 확률 모형을 사용하는 개선된 문법기반의 산술 복호화기.A probabilistic model reconstruction unit for reconstructing a constituent factor of a probability model for each frame of data decoded by the arithmetic decoder using factor information up to a previous frame and generating the variable probability model according to the constituent factors of the reconstructed probability model. An improved grammar-based arithmetic decoder using a variable probability model. 부호화하고자 입력되는 데이타의 매 프레임마다 확률 모형의 구성 인자를 이전 프레임까지의 인자 정보를 이용하여 재구성하고, 재구성된 확률 모형의 구성 인자에 따라서 제1가변 확률 모형을 생성하는 제1확률 모형 재구성부;A first probability model reconstruction unit for reconstructing the constituent factors of the probability model for each frame of the data to be encoded using factor information up to the previous frame and generating a first variable probability model according to the constituent factors of the reconstructed probability model. ; 상기 제1가변 확률 모형을 참조하여 상기 입력 데이타를 프레임 단위로 산술부호화하는 산술 부호화기;An arithmetic encoder that encodes the input data in units of frames with reference to the first variable probability model; 특정한 문법을 기반으로 하여 상기 입력 데이타를 문법에 의해 지정된 특정 확률 모형을 상기 제1가변 확률 모형들로부터 참조하도록 다중화하는 제1문법기반 다중화기;A first grammar-based multiplexer for multiplexing the input data based on a specific grammar to reference a specific probability model specified by a grammar from the first variable probability models; 상기 산술 부호화기에 의해 부호화된 비트스트림을 제2가변 확률 모형을 참조하여 프레임 단위로 산술 복호화하는 산술 복호화기;An arithmetic decoder for performing arithmetic decoding on the frame basis with reference to a second variable probability model by the arithmetic encoder; 특정한 문법을 기반으로 하여 상기 부호화된 비트스트림을 문법에 의해 지정된 특정 확률 모형을 상기 제2가변 확률 모형들로부터 참조하도록 다중화하는 문법기반 다중화기; 및A grammar-based multiplexer for multiplexing the encoded bitstream based on a specific grammar to refer to a specific probability model specified by a grammar from the second variable probability models; And 상기 산술 복호화기에 의해 복호화된 데이타의 매 프레임마다 확률 모형의 구성인자를 이전 프레임까지의 인자 정보를 이용하여 재구성하고, 재구성된 확률 모형의 구성 인자에 따라서 상기 제2가변 확률 모형을 생성하는 제2확률 모형 재구성부를 구비하는 것을 특징으로 하는 가변 확률 모형을 사용하는 개선된 산술 부호화기 및 복호화기.A second variable reconstructing component of a probability model for each frame of data decoded by the arithmetic decoder using factor information up to a previous frame, and generating the second variable probability model according to the component of the reconstructed probability model An improved arithmetic encoder and decoder using a variable probability model comprising a probability model reconstruction unit.
KR1019960027373A 1996-07-06 1996-07-06 Improved Arithmetic Coder and / or Decoder Using Variable Probability Models KR100319919B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019960027373A KR100319919B1 (en) 1996-07-06 1996-07-06 Improved Arithmetic Coder and / or Decoder Using Variable Probability Models

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019960027373A KR100319919B1 (en) 1996-07-06 1996-07-06 Improved Arithmetic Coder and / or Decoder Using Variable Probability Models

Publications (2)

Publication Number Publication Date
KR980012889A KR980012889A (en) 1998-04-30
KR100319919B1 true KR100319919B1 (en) 2002-06-20

Family

ID=66242094

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960027373A KR100319919B1 (en) 1996-07-06 1996-07-06 Improved Arithmetic Coder and / or Decoder Using Variable Probability Models

Country Status (1)

Country Link
KR (1) KR100319919B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101286019B1 (en) * 2012-01-20 2013-07-19 주식회사 이노와이어리스 Turbo encoder apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100618972B1 (en) * 1999-08-02 2006-09-01 삼성전자주식회사 Variable Length Coding method and device therefore

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5025258A (en) * 1989-06-01 1991-06-18 At&T Bell Laboratories Adaptive probability estimator for entropy encoding/decoding
US5045853A (en) * 1987-06-17 1991-09-03 Intel Corporation Method and apparatus for statistically encoding digital data
JPH0697834A (en) * 1992-09-11 1994-04-08 Nippon Telegr & Teleph Corp <Ntt> Variable multilevel arithmetic coding method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5045853A (en) * 1987-06-17 1991-09-03 Intel Corporation Method and apparatus for statistically encoding digital data
US5025258A (en) * 1989-06-01 1991-06-18 At&T Bell Laboratories Adaptive probability estimator for entropy encoding/decoding
JPH0697834A (en) * 1992-09-11 1994-04-08 Nippon Telegr & Teleph Corp <Ntt> Variable multilevel arithmetic coding method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101286019B1 (en) * 2012-01-20 2013-07-19 주식회사 이노와이어리스 Turbo encoder apparatus
WO2013108952A1 (en) * 2012-01-20 2013-07-25 Innowireless Co., Ltd. Turbo encoder apparatus

Also Published As

Publication number Publication date
KR980012889A (en) 1998-04-30

Similar Documents

Publication Publication Date Title
JP7260509B2 (en) Context-Based Entropy Coding of Spectral Envelope Sample Values
RU2637879C2 (en) Encoding and decoding of significant coefficients depending on parameter of indicated significant coefficients
KR0162197B1 (en) Image data variable length coding and decoding method and device
EP2282310B1 (en) Entropy coding by adapting coding between level and run-length/level modes
CA2419521C (en) System and method for using pattern vectors for video and image coding and decoding
KR101278805B1 (en) Selectively using multiple entropy models in adaptive coding and decoding
KR101050261B1 (en) Context-based signal encoding and decoding
KR100869657B1 (en) Device and method for compressing a signal
EP0955731B1 (en) Lossless encoding and decoding system
Ho et al. Classified transform coding of images using vector quantization
KR100694098B1 (en) Arithmetic decoding method and apparatus using the same
EP3550726B1 (en) Methods and devices for reducing sources in binary entropy coding and decoding
JP4779098B2 (en) Method and apparatus for performing variable size vector entropy coding
JP2000316154A (en) Image decoding method
KR20010030721A (en) Method and apparatus for reducing memory requirements for storing reference frames in a video decoder
JP2010503254A (en) Apparatus and method for encoding data signal, and apparatus and method for decoding data signal
KR100968057B1 (en) Encoding method and device, and decoding method and device
KR0139162B1 (en) Variable length coding and decoding apparatus using code rearrange
KR100959837B1 (en) Adaptive method and system for mapping parameter values to codeword indexes
KR100496774B1 (en) Method and apparatus for recompressing with data efficient quantization table for a digital video signal processor
KR19980058235A (en) Video coding device
KR100319919B1 (en) Improved Arithmetic Coder and / or Decoder Using Variable Probability Models
KR970060954A (en) Variable length coding and variable length decoding system
JPH08316846A (en) Image coder, image decoder, image coding method and image decoding method
Mohamed Wireless Communication Systems: Compression and Decompression Algorithms

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20091127

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee