KR20110090841A - Apparatus and method for encoding/decoding of video using weighted prediction - Google Patents

Apparatus and method for encoding/decoding of video using weighted prediction Download PDF

Info

Publication number
KR20110090841A
KR20110090841A KR1020110010781A KR20110010781A KR20110090841A KR 20110090841 A KR20110090841 A KR 20110090841A KR 1020110010781 A KR1020110010781 A KR 1020110010781A KR 20110010781 A KR20110010781 A KR 20110010781A KR 20110090841 A KR20110090841 A KR 20110090841A
Authority
KR
South Korea
Prior art keywords
prediction
coding unit
block
unit
generating
Prior art date
Application number
KR1020110010781A
Other languages
Korean (ko)
Inventor
이충구
김민성
이을호
Original Assignee
(주)휴맥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)휴맥스 filed Critical (주)휴맥스
Publication of KR20110090841A publication Critical patent/KR20110090841A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/015High-definition television systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PURPOSE: An image encoding/decoding device and method thereof are provided to apply a high resolution image and improving accuracy of the prediction. CONSTITUTION: A movement vector about inputted coding unit is generated(201). Based on the generated movement vector, a prediction signal is generated by performing movement compensation(203). A weight parameter is generated in a prediction unit(205). A prediction block is generated by applying a weight parameter to a prediction signal(207). Based on the received coding unit and a prediction block, a residual value is generated(209).

Description

가중치 예측을 이용한 영상 부호화/복호화 장치 및 방법{APPARATUS AND METHOD FOR ENCODING/DECODING OF VIDEO USING WEIGHTED PREDICTION}Apparatus and method for image coding / decoding using weight prediction {APPARATUS AND METHOD FOR ENCODING / DECODING OF VIDEO USING WEIGHTED PREDICTION}

본 발명은 영상의 부호화 및 복호화에 관한 것으로, 더욱 상세하게는 HD(High Definition)급 이상의 높은 해상도를 가지는 영상의 예측 부호화에 적용할 수 있는 가중치 예측을 이용한 영상 부호화/복호화 장치 및 방법에 관한 것이다.The present invention relates to encoding and decoding of an image, and more particularly, to an image encoding / decoding apparatus using weight prediction that can be applied to predictive encoding of an image having a high resolution of HD or higher. .

일반적으로 영상 압축 방법에서는 하나의 픽처(picture)를 소정 크기를 가지는 복수의 블록(block)으로 구분하여 부호화를 수행한다. 또한, 압축 효율을 높이기 위해 픽쳐들의 중복도를 제거하는 화면간 예측(inter prediction) 및 화면내 예측(intra prediction) 기술을 이용한다.In general, an image compression method performs encoding by dividing one picture into a plurality of blocks having a predetermined size. In addition, inter prediction and intra prediction techniques that remove redundancy of pictures are used to increase compression efficiency.

화면간 예측을 이용해 영상을 부호화하는 방법은 픽처들 사이의 시간적인 중복성(spatial redundancy)을 제거하여 영상을 압축하는 방법으로서 대표적으로 움직임 보상 예측 부호화 방법이 있다. An image encoding method using inter prediction is a method of compressing an image by removing temporal redundancy among pictures, and a motion compensation prediction encoding method is a typical method.

움직임 보상 예측 부호화는 현재 부호화되는 픽처의 앞 및/또는 뒤에 위치하는 적어도 하나의 참조 픽처에서 현재 부호화되는 블록과 유사한 영역을 검색하여 움직임 벡터(MV: Motion Vector)를 생성하고, 생성된 움직임 벡터를 이용하여 움직임 보상을 수행하여 얻어지는 예측 블록과 현재 블록의 잔여값(residue)을 DCT(Discrete Cosine Transform)변환하고 양자화한 후 엔트로피 부호화하여 전송한다. The motion compensation predictive encoding generates a motion vector (MV) by searching a region similar to the block currently encoded in at least one reference picture located before and / or after the currently encoded picture, and generates the motion vector. Discrete Cosine Transform (DCT) transforms a residual block of a prediction block and a current block obtained by performing motion compensation by using a quantization, and then transmits by entropy encoding.

일반적으로 움직임 보상 예측에 사용되는 매크로 블록은 16×16, 8×16, 8×8 픽셀 등의 다양한 크기를 가지는 블록이 사용되고, 변환 및 양자화에는 8×8 또는 4×4 픽셀 크기를 가지는 블록이 사용된다.In general, a macroblock used for motion compensation prediction is a block having various sizes such as 16 × 16, 8 × 16, and 8 × 8 pixels, and a block having a size of 8 × 8 or 4 × 4 pixels is used for transform and quantization. Used.

움직임 보상 예측 부호화 방법은 예측 움직임 벡터가 부호화할 현재 블록의 움직임을 정확하게 예측하지 못하는 경우에는 예측 블록과 현재 블록의 잔여값이 커지게 되어 부호화 효율이 감소된다. 따라서, 움직임 벡터를 보다 정확하게 생성하여 예측 블록과 현재 블록의 잔여값을 작게 만들 수 있는 움직임 벡터 추정 방법이 요구된다.In the motion compensation prediction encoding method, when the prediction motion vector does not accurately predict the motion of the current block to be encoded, the residual values of the prediction block and the current block become large, thereby reducing the coding efficiency. Accordingly, there is a need for a motion vector estimation method that can generate a motion vector more accurately to reduce the residual values of the prediction block and the current block.

화면내 예측은 하나의 픽쳐 내에서 블록간의 화소 상관도를 이용하여 공간적 중복성(spatial redundancy)을 제거하여 영상을 압축하는 방법으로, 부호화할 현재 블록과 인접한 부호화된 화소들로부터 현재 블록의 예측값을 생성한 후 생성된 예측값과 현재 블록의 화소의 잔여값을 압축하는 방식이다.Intra-picture prediction is a method of compressing an image by removing spatial redundancy by using pixel correlation between blocks in a picture, and generating a prediction value of the current block from encoded pixels adjacent to the current block to be encoded. After that, the generated prediction value and the residual value of the pixel of the current block are compressed.

일반적으로 화면내 예측에 사용되는 블록의 크기는 4×4, 8×8 또는 16×16 픽셀이다.In general, the size of a block used for intra prediction is 4x4, 8x8 or 16x16 pixels.

또한, H.264/AVC에서는 상술한 바와 같은 움직임 보상을 이용하여 영상을 압축할 때 영상의 밝기를 예측하지 못하여 페이드 인(fade in) 또는 페이드 아웃(fade out)과 같이 밝기가 시간적으로 변화하는 영상을 부호화하는 경우 영상의 품질이 크게 열화되는 단점을 보완하기 위해 가중치 예측(Weighted prediction) 방법을 제공하고 있다.In addition, in H.264 / AVC, when the image is compressed using the above-described motion compensation, the brightness of the image cannot be predicted, and thus the brightness changes in time such as fade in or fade out. When encoding an image, a weighted prediction method is provided to compensate for the disadvantage that the quality of an image is greatly deteriorated.

가중치 예측 방법은 크게 명시적 모드(explicit mode)와 묵시적 모드(implicit mode)로 구분할 수 있다. 묵시적 모드는 현재 블록의 예측에 이용되는 가중치를 별도로 부호화하지 않고 현재 픽처와 참조 픽처들 사이의 시간적 거리에 의해 복호화기가 가중치를 계산하는 방법이고, 명시적 모드는 가중치 예측 파라미터(weighted prediction parameter)를 슬라이스 단위로 연산하여 복호화기에 전송하는 방법이다.The weight prediction method can be broadly classified into an explicit mode and an implicit mode. The implicit mode is a method in which the decoder calculates the weight by the temporal distance between the current picture and the reference pictures without separately encoding the weights used for the prediction of the current block, and the explicit mode uses the weighted prediction parameter. It is a method of calculating a slice unit and transmitting it to the decoder.

그러나, 상술한 바와 같은 가중치 예측 방법은 슬라이스 단위로 수행되기 때문에 정확도가 높은 가중치 예측을 수행할 수 없고, 멀티-패스 부호화를 수행해야 하는 단점이 있다.However, since the weight prediction method as described above is performed in units of slices, weight prediction with high accuracy cannot be performed and multi-pass coding has to be performed.

따라서, 가중치 예측의 정확도를 향상시키면서 HD(High Definition)급 이상의 해상도를 가지는 고해상도 영상의 부호화에 적용할 수 있는 부호화 방법이 요구된다.Accordingly, there is a need for an encoding method that can be applied to encoding a high resolution image having a resolution of HD or higher definition while improving the accuracy of weight prediction.

본 발명의 제1 목적은 가중치 예측의 정확도를 향상시킬 수 있고, 고해상도의 영상에 적용할 수 있는 가중치 예측을 이용한 영상 부호화 방법 및 복호화 방법을 제공하는 것이다. A first object of the present invention is to provide an image encoding method and a decoding method using weight prediction which can improve the accuracy of weight prediction and can be applied to a high resolution image.

또한, 본 발명의 제2 목적은 상기 영상 부호화 방법 및 상기 영상 복호화 방법을 실행하는 가중치 예측을 이용한 영상 부호화 장치 및 복호화 장치을 제공하는 것이다.Another object of the present invention is to provide an image encoding apparatus and a decoding apparatus using weight prediction that executes the image encoding method and the image decoding method.

상술한 본 발명의 제1 목적을 달성하기 위한 본 발명의 일 측면에 따른 가중치 예측을 이용한 영상 부호화 방법은, 입력된 코딩 유닛에 대한 움직임 벡터를 생성하는 단계와, 생성된 상기 움직임 벡터에 기초하여 움직임 보상을 수행하여 예측 신호를 생성하는 단계와, 예측 유닛 단위로 가중치 파라미터를 생성하는 단계와, 상기 예측 신호에 상기 가중치 파라미터를 적용하여 예측 블록을 생성하는 단계와, 상기 수신된 코딩 유닛 및 상기 예측 블록에 기초하여 잔여값을 생성하는 단계를 포함한다. 상기 코딩 유닛은 32×32 픽셀 이상의 크기를 가지는 확장 마크로 블록을 포함할 수 있다. An image encoding method using weight prediction according to an aspect of the present invention for achieving the first object of the present invention, generating a motion vector for the input coding unit, based on the generated motion vector Generating a prediction signal by performing motion compensation, generating a weight parameter in units of prediction units, generating a prediction block by applying the weight parameter to the prediction signal, and receiving the received coding unit and the Generating a residual value based on the prediction block. The coding unit may include an extended macro block having a size of 32 × 32 pixels or more.

또한, 본 발명의 제2 목적을 달성하기 위한 본 발명의 일 측면에 따른 가중치 예측을 이용한 영상 복호화 방법은, 수신된 비트 스트림을 엔트로피 부호화하여 양자화된 잔여값, 움직임 벡터, 가중치 파라미터를 추출하는 단계와, 상기 양자화된 잔여값을 역양자화 및 역변환하여 잔여값을 복원하는 단계와, 상기 움직임 벡터를 이용하여 움직임 보상을 수행하여 예측 신호를 생성하는 단계와, 상기 예측 신호에 상기 가중치 파라미터를 적용하여 예측 블록을 생성하는 단계와, 상기 잔여값 및 상기 예측 블록에 기초하여 현재 블록을 복원하는 단계를 포함한다. 상기 예측 블록은 32×32 픽셀 이상의 크기를 가지는 확장 마크로 블록을 포함할 수 있다. In addition, the image decoding method using weight prediction according to an aspect of the present invention for achieving the second object of the present invention, the step of extracting the quantized residual value, motion vector, weight parameter by entropy encoding the received bit stream And restoring the residual value by inverse quantization and inverse transformation of the quantized residual value, generating a prediction signal by performing motion compensation using the motion vector, and applying the weight parameter to the prediction signal. Generating a prediction block, and restoring a current block based on the residual value and the prediction block. The prediction block may include an extended macro block having a size of 32 × 32 pixels or more.

상술한 바와 같은 가중치 예측을 이용한 영상 부호화/복호화 장치 및 방법에 따르면, 확장 마크로 블록 단위로 가중치를 예측하여 영상을 부호화함으로써, 기존의 슬라이스 단위로 수행되는 가중치 예측 부호화 방법에 비해 부호화된 영상의 품질을 향상시킬 수 있고, 32×32 또는 64×64 픽셀 이상의 크기를 가지는 확장 마크로 블록 단위로 가중치 예측 부호화를 수행함으로써 HD급 또는 울트라 HD(Ultra High Definition)급 이상의 고해상도를 가지는 영상의 부호화 효율을 향상시킬 수 있다.According to the image encoding / decoding apparatus and method using the weight prediction as described above, by encoding the image by predicting the weight in units of extended macroblocks, the quality of the encoded image compared to the weight prediction encoding method performed in the existing slice unit The coding efficiency of an image having a high resolution of HD or Ultra HD (Ultra High Definition) or higher can be improved by performing weighted prediction coding in units of extended macro blocks having a size of 32 × 32 or 64 × 64 pixels or more. You can.

도 1은 본 발명의 일 실시예에 따른 순환적 코딩 유닛 구조를 나타낸 개념도이다.
도 2는 본 발명의 일 실시예에 따른 가중치 예측을 이용한 영상 부호화 장치의 구성을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 가중치 예측을 이용한 영상 부호화 방법을 나타내는 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 가중치 예측을 이용한 영상 복호화 장치의 구성을 나타내는 블록도이다.
도 5는 본 발명의 일 실시예에 따른 가중치 예측을 이용한 영상 복호화 방법을 나타내는 흐름도이다.
1 is a conceptual diagram illustrating a recursive coding unit structure according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of an image encoding apparatus using weight prediction according to an embodiment of the present invention.
3 is a flowchart illustrating an image encoding method using weight prediction, according to an embodiment of the present invention.
4 is a block diagram illustrating a configuration of an image decoding apparatus using weight prediction according to an embodiment of the present invention.
5 is a flowchart illustrating an image decoding method using weight prediction according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is said to be "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that another component may exist in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted in an ideal or overly formal sense unless explicitly defined in the present application Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. In the following description of the present invention, the same reference numerals are used for the same elements in the drawings and redundant descriptions of the same elements will be omitted.

본 발명의 일실시예에서는 HD(High Definition)급 이상의 해상도를 가지는 고해상도에 적용하기 위하여 32x32 픽셀 크기 이상의 확장 매크로블록(Extended Macroblock) 크기를 이용하여 화면간/화면내 예측, 변환, 양자화, 엔트로피 부호화등의 부호화와 복호화를 수행할 수도 있고, 하기 설명하는 순환적(recursive) 코딩 유닛(Coding Unit; CU) 구조를 사용하여 부호화 및 복호화를 수행할 수도 있다. In one embodiment of the present invention, inter-picture / in-picture prediction, transform, quantization, and entropy encoding are performed using an extended macroblock size of 32x32 pixel size or more to apply to a high resolution having a high definition (HD) or higher resolution. Encoding and decoding may be performed, or encoding and decoding may be performed using a recursive coding unit (CU) structure to be described below.

도 1은 본 발명의 일 실시예에 따른 순환적 코딩 유닛 구조를 나타낸 개념도이다. 1 is a conceptual diagram illustrating a recursive coding unit structure according to an embodiment of the present invention.

도 1을 참조하면, 각 코딩 유닛(CU)은 정사각형 모양을 가지며, 각 코딩 유닛(CU)은 2N X 2N(단위 pixel) 크기의 가변적인 크기를 가질 수 있다. 화면간 예측, 화면내 예측, 변환, 양자화 및 엔트로피 부호화는 코딩 유닛(CU) 단위로 이루어질 수 있다. 코딩 유닛(CU)은 최대 코딩 유닛(LCU), 최소 코딩 유닛(SCU)를 포함할 수 있으며, 최대 코딩 유닛(LCU), 최소 코딩 유닛(SCU)의 크기는 8이상의 크기를 가지는 2의 거듭제곱 값으로 나타낼 수 있다. Referring to FIG. 1, each coding unit CU has a square shape, and each coding unit CU may have a variable size of 2N × 2N (unit pixel) size. Inter prediction, intra prediction, transform, quantization, and entropy encoding may be performed in units of coding units (CUs). The coding unit (CU) may comprise a maximum coding unit (LCU), a minimum coding unit (SCU), the size of the maximum coding unit (LCU), the minimum coding unit (SCU) is a power of two having a size of 8 or more. Can be represented by a value.

본 발명의 일 실시예에 따른 코딩 유닛(CU)은 순환적인 트리 구조를 가질 수 있다. 도 1은 최대 코딩 유닛(LCU)인 CU0의 한변의 크기(2N0)가 128(N0=64)이고, 최대 계층 레벨(level) 또는 계층 깊이(depth)가 5인 경우를 나타낸다. 순환적인 구조는 일련의 플래그(flag)를 통하여 표현될 수 있다. 예를들어, 계층 레벨(level) 또는 계층 깊이(depth)가 k인 코딩 유닛(CUk)의 플래그(flag)값이 0인 경우, 코딩 유닛(CUk)에 대한 코딩(coding)은 현재의 계층 레벨(level) 또는 계층 깊이(depth)에 대해 이루어지며, 플래그(flag)값이 1인 경우, 현재의 계층 레벨(level) 또는 계층 깊이(depth)가 k인 코딩 유닛(CUk)은 4개의 독립적인 코딩 유닛(CUk+1)으로 분할되며, 분할된 코딩 유닛(CUk+1)은 계층 레벨(level) 또는 계층 깊이(depth)가 k+1이 되며, 크기는 Nk+1 X Nk+1가 된다. 이 경우 코딩 유닛(CUk+1)은 코딩 유닛(CUk)의 서브 코딩 유닛으로 나타낼 수 있다. 코딩 유닛(CUk+1)의 계층 레벨(level) 또는 계층 깊이(depth)가 최대 허용 가능한 계층 레벨(level) 또는 계층 깊이(depth)에 도달할 때까지 코딩 유닛(CUk+1)은 순환적으로(recursive) 처리될 수 있다. 코딩 유닛(CUk+1)의 계층 레벨(level) 또는 계층 깊이(depth)가 최대 허용 가능한 계층 레벨(level) 또는 계층 깊이(depth)-도 1에서는 5인 경우를 예로 들었음-과 동일한 경우에는 더 이상의 분할은 허용되지 않는다.Coding unit (CU) according to an embodiment of the present invention may have a circular tree structure. FIG. 1 illustrates a case where the size 2N0 of one side of CU0, which is the maximum coding unit (LCU), is 128 (N0 = 64), and the maximum hierarchical level or hierarchical depth is five. The recursive structure can be represented through a series of flags. For example, when a flag value of a coding unit CUk having a layer level or a layer depth k is 0, the coding for the coding unit CUk is a current layer level. for a level or layer depth, and if the flag value is 1, the coding unit CUk with the current layer level or layer depth k is 4 independent. The coding unit CUk + 1 is divided into a coding unit CUk + 1, and the divided coding unit CUk + 1 has a hierarchical level or layer depth k + 1 and a size Nk + 1 X Nk + 1. . In this case, the coding unit CUk + 1 may be represented as a sub coding unit of the coding unit CUk. The coding unit CUk + 1 is cyclically cycled until the hierarchical level or hierarchical depth of the coding unit CUk + 1 reaches the maximum allowable hierarchical level or hierarchical depth. (recursive) can be processed. If the hierarchical level or hierarchical depth of the coding unit CUk + 1 is the same as the maximum allowable hierarchical level or hierarchical depth, the case where 5 is illustrated in FIG. The above division is not allowed.

최대 코딩 유닛(LCU)의 크기 및 최소 코딩 유닛(SCU)의 크기는 시퀀스 파라미터 셋(Sequence Parameter Set; SPS)에 포함될 수 있다. 시퀀스 파라미터 셋(SPS)는 최대 코딩 유닛(LCU)의 최대 허용 가능한 계층 레벨(level) 또는 계층 깊이(depth)를 포함할 수 있다. 예를 들어, 도 1의 경우는 최대 허용 가능한 계층 레벨(level) 또는 계층 깊이(depth)는 5이고, 최대 코딩 유닛(LCU)의 한변의 크기가 128(단위 pixel)인 경우, 128 X 128(LCU), 64 X 64, 32 X 32, 16 X 16 및 8 X 8(SCU)의 5가지 종류의 코딩 유닛 크기가 가능하다. 즉, 최대 코딩 유닛(LCU)의 크기 및 최대 허용 가능한 계층 레벨(level) 또는 계층 깊이(depth)가 주어지면 허용가능한 코딩 유닛의 크기가 결정될 수 있다.The size of the largest coding unit (LCU) and the size of the minimum coding unit (SCU) may be included in a sequence parameter set (SPS). The sequence parameter set (SPS) may comprise the maximum allowable layer level or layer depth of the maximum coding unit (LCU). For example, in the case of FIG. 1, when the maximum allowable layer level or layer depth is 5, and the size of one side of the maximum coding unit (LCU) is 128 (unit pixel), 128 X 128 ( LCU), 64 X 64, 32 X 32, 16 X 16 and 8 X 8 (SCU) are available in five different coding unit sizes. That is, the size of the allowable coding unit may be determined given the size of the largest coding unit (LCU) and the maximum allowable layer level or layer depth.

상기와 같은 본 발명의 일 실시예에 따른 순환적 코딩 유닛 구조를 사용할 경우의 장점은 다음과 같다. Advantages of using a recursive coding unit structure according to an embodiment of the present invention as described above are as follows.

첫째, 기존의 16 X 16 매크로블록보다 큰 사이즈를 지원할 수 있다. 만약 관심 이미지 영역이 균일(homogeneous)하다면, 큰 코딩 유닛(LCU)은 여러 개의 작은 블록들을 사용하는 경우보다 관심 이미지 영역을 더 적은 개수의 심볼들로 표시할 수 있다. First, it can support a larger size than the existing 16 X 16 macroblock. If the image region of interest is homogeneous, the large coding unit (LCU) may display the image region of interest with fewer symbols than if using several small blocks.

둘째, 고정된 크기의 매크로블록을 사용하는 경우에 비하여 임의의 다양한 크기를 가지는 최대 코딩 유닛(LCU)을 지원함으로써 코덱은 다양한 콘텐츠, 애플리케이션 및 장치에 용이하게 최적화될 수 있다. 즉, 최대 코딩 유닛(LCU) 크기 및 최대 계층 레벨(level) 또는 최대 계층 깊이(depth)를 적절히 선택함으로써, 상기 계층적 블록 구조는 목표로 하는 애플리케이션에 보다 더 최적화 될 수 있다.Second, the codec can be easily optimized for various contents, applications and devices by supporting a maximum coding unit (LCU) having any of various sizes as compared to using fixed size macroblocks. That is, by appropriately selecting the maximum coding unit (LCU) size and the maximum hierarchical level or maximum hierarchical depth, the hierarchical block structure can be further optimized for the target application.

셋째, 매크로블록, 서브-매크로블록, 확장 매크로 블록을 구분하지 않고 코딩 유닛(LCU)이라는 한 개의 단일 유닛 형태를 사용함으로써, 멀티레벨 계층적 구조를 최대 코딩 유닛(LCU) 크기, 최대 계층 레벨(level)(또는 최대 계층 깊이(depth)) 및 일련의 플래그를 이용하여 매우 간단하게 나타낼 수 있다. 크기 독립적(size-independent)인 신택스 표현(syntax representation)과 함께 사용될 경우 나머지 코딩 툴들에 대한 하나의 일반화된 크기의 신택스 아이템을 명시하는데 충분하게 되며, 이러한 일관성이 실제 파싱 과정등을 단순화 시킬 수 있다. 계층 레벨(level)(또는 최대 계층 깊이(depth))의 최대값은 임의값을 가질 수 있으며 기존의 H.264/AVC 부호화 방식에서 혀용된 값보다 더 큰 값을 가질 수 있다. 크기 독립적 신택스 표현을 사용하여 코딩 유닛(CU)의 크기에 독립적으로 일관된 방식으로 모든 신택스 엘리먼트(syntax elements)를 명시할 수 있다. 코딩 유닛(CU)에 대한 분할 과정(splitting process)은 순환적으로 명시될 수 있고, 말단 코딩 유닛(leaf coding unit)-계층 레벨의 마지막 코딩 유닛-에 대한 다른 신택스 엘리먼트들은 코딩 유닛 크기에 무관하게 동일한 크기로 정의될 수 있다. 상기와 같은 표현법은 파싱 복잡도를 줄이는 데 매우 효과적이며, 큰 계층 레벨 또는 계층 깊이가 허용되는 경우 표현의 명료성이 향상될 수 있다.Third, by using a single unit type called a coding unit (LCU) without distinguishing macroblocks, sub-macroblocks, and extended macroblocks, a multilevel hierarchical structure can be defined as a maximum coding unit (LCU) size, a maximum hierarchical level ( It can be represented very simply using level (or maximum layer depth) and a series of flags. When used with a size-independent syntax representation, it is sufficient to specify one generalized size syntax item for the remaining coding tools, which can simplify the actual parsing process, etc. . The maximum value of the hierarchical level (or maximum hierarchical depth) may have a random value and may have a larger value than that allowed in the existing H.264 / AVC coding scheme. Size independent syntax representation can be used to specify all syntax elements in a manner consistent with the size of the coding unit (CU) independent of. The splitting process for the coding unit (CU) can be specified circularly, and other syntax elements for the leaf coding unit-the last coding unit at the layer level-are independent of the coding unit size. Can be defined to be the same size. Such a representation is very effective in reducing parsing complexity, and the clarity of the representation can be improved when a large hierarchical level or hierarchical depth is allowed.

상기와 같은 계층적인 분할 과정이 완료되면 더 이상의 분할 없이 코딩 유닛 계층 트리의 말단 노드에 대해 화면간 예측 또는 화면내 예측을 수행할 수 있으며, 이러한 말단 코딩 유닛이 화면간 예측 또는 화면내 예측의 기본 단위인 예측 유닛(Prediction Unit; PU)으로 사용된다. When the hierarchical splitting process is completed, inter-screen prediction or intra-screen prediction may be performed on the end nodes of the coding unit hierarchical tree without further splitting. It is used as a prediction unit (PU) which is a unit.

즉, 화면간 예측 또는 화면내 예측을 위하여 상기 말단 코딩 유닛에 대해 파티션(partition) 분할이 수행 된다. 파티션 분할은 예측 유닛(PU)에 대해 수행된다. 여기서, 에측 유닛(PU)는 화면간 예측 또는 화면내 예측을 위한 기본 단위의 의미이며, 기존의 매크로 블록 단위 또는 서브-매크로 블록 단위가 될 수도 있고, 32 X 32 픽셀 크기 이상의 확장 매크로 블록 단위가 될 수도 있다. That is, partition division is performed on the end coding unit for inter prediction or intra prediction. Partitioning is performed for the prediction unit (PU). Here, the prediction unit PU means a basic unit for inter prediction or intra prediction, and may be a conventional macro block unit or a sub-macro block unit, and an extended macro block unit of 32 × 32 pixels or more May be

이하, 본 발명의 실시예에서 확장 마크로 블록(Extended Macro Block)은 32×32 픽셀 또는 64×64 픽셀 이상의 크기를 가지는 블록을 의미한다.Hereinafter, in the embodiment of the present invention, an extended macro block refers to a block having a size of 32 × 32 pixels or 64 × 64 pixels or more.

도 2는 본 발명의 일 실시예에 따른 가중치 예측을 이용한 영상 부호화 장치의 구성을 나타내는 블록도이다.2 is a block diagram illustrating a configuration of an image encoding apparatus using weight prediction according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 영상 부호화 장치(100)는 움직임 예측부(101), 움직임 보상부(103), 가중치 파라미터 생성부(105), 제1 곱셈기(107), 제1 가산기(109), 제2 가산기(111), 변환부(113), 양자화부(115), 역양자화부(117), 역변환부(119), 제3 가산기(121), 버퍼(123) 및 엔트로피 부호화부(125)를 포함할 수 있다.2, the image encoding apparatus 100 according to an embodiment of the present invention may include a motion predictor 101, a motion compensator 103, a weight parameter generator 105, a first multiplier 107, The first adder 109, the second adder 111, the transform unit 113, the quantizer 115, the inverse quantizer 117, the inverse transform unit 119, the third adder 121, and the buffer 123. And an entropy encoder 125.

움직임 예측부(101) 입력된 현재 코딩 유닛과 복원이 완료되어 버퍼(123)에 저장된 복수의 참조 픽처에 기초하여 화면간 예측을 수행하여 움직임 벡터(Motion Vector)를 생성한다. 여기서, 상기 입력된 코딩 유닛은 16×16 픽셀 이하의 크기를 가질 수도 있고, 32×32 픽셀 이상의 크기를 가지는 확장 마크로 블록일 수도 있다. 또한, 복수의 참조 픽처가 움직임 예측에 사용되는 경우에는 이에 상응하는 개수의 움직임 벡터가 생성될 수 있고, 생성된 움직임 벡터는 움직임 보상부(103) 및 엔트로피 부호화부(125)에 제공된다.The motion prediction unit 101 generates an motion vector by performing inter-prediction based on a plurality of reference pictures stored in the buffer 123 after reconstruction of the input current coding unit. Here, the input coding unit may have a size of 16 × 16 pixels or less, or may be an extended macro block having a size of 32 × 32 pixels or more. In addition, when a plurality of reference pictures are used for motion prediction, a corresponding number of motion vectors may be generated, and the generated motion vectors are provided to the motion compensator 103 and the entropy encoder 125.

움직임 보상부(103)는 움직임 예측부(101)로부터 제공된 적어도 하나의 움직임 벡터를 버퍼(123)에 저장된 해당 참조 픽쳐의 참조 예측 유닛에 적용하여 움직임 보상이 수행된 예측 신호를 생성한다. 예를 들어, 두 개의 참조픽처를 이용하여 쌍예측(Bi-predictive)을 수행한 경우에는 두 개의 예측 신호(Y0, Y1)가 생성될 수 있다.The motion compensator 103 applies the at least one motion vector provided from the motion predictor 101 to the reference prediction unit of the corresponding reference picture stored in the buffer 123 to generate a prediction signal on which motion compensation is performed. For example, when bi-predictive is performed using two reference pictures, two prediction signals Y0 and Y1 may be generated.

가중치 파라미터 생성부(105)는 입력된 코딩 유닛에 대해 버퍼(121)에 저장된 참조 픽처의 해당 참조 예측 유닛을 참조하여 가중치 파라미터를 생성한다. 여기서, 가중치 파라미터는 가중치 계수(W) 및 오프셋(D)을 포함할 수 있고, 입력된 코딩 유닛과 참조 예측 유닛의 휘도 성분의 변화에 기초하여 결정될 수 있다. 가중치 파라미터 생성부(105)에 의해 생성된 가중치 계수(W)는 제1 곱셈기(107)에 제공되며, 오프셋(D)는 제1 가산기(109)에 제공된다.The weight parameter generator 105 generates a weight parameter with respect to the input coding unit by referring to the corresponding reference prediction unit of the reference picture stored in the buffer 121. Here, the weighting parameter may include a weighting factor W and an offset D and may be determined based on a change in the luminance component of the input coding unit and the reference prediction unit. The weight coefficient W generated by the weight parameter generator 105 is provided to the first multiplier 107, and the offset D is provided to the first adder 109.

제1 곱셈기(107)는 움직임 보상부(103)으로부터 제공된 움직임 보상이 수행된 예측 신호와 가중치 파라미터 생성부(105)로부터 제공된 가중치 계수를 곱한 후 제1 가산기에 제공된다. 예를 들어, 두 개의 움직임 보상부(103)에서 두 개의 참조 픽처를 사용하여 두 개의 예측 신호(Y0, Y1)를 생성하고, 가중치 파라미터 생성부(105)로부터 각 참조 픽처에 상응하는 두 개의 가중치 계수(W0, W1)를 제공하는 경우 제1 곱셈기(107)의 출력은 W0Y0+W1Y1이 된다.The first multiplier 107 multiplies the prediction signal from which the motion compensation provided from the motion compensator 103 is performed by the weight coefficient provided from the weight parameter generator 105 and is provided to the first adder. For example, two motion compensators 103 generate two prediction signals Y0 and Y1 using two reference pictures, and two weights corresponding to each reference picture from the weight parameter generator 105. In the case of providing the coefficients W0 and W1, the output of the first multiplier 107 is W0Y0 + W1Y1.

제1 가산기(109)는 제1 곱셈기(107)의 출력에 가중치 파라미터 생성부(105)로부터 제공된 오프셋 값을 가산하여 예측 블록을 생성한 후 제2 가산기(111)에 제공한다. 예를 들어, 상술한 바와 같이 두 개의 참조 픽처를 사용하여 가중치 예측을 수행하는 경우 생성된 예측 마크로 블록은 W0Y0+W1Y1+D가 된다.The first adder 109 adds the offset value provided from the weight parameter generator 105 to the output of the first multiplier 107, generates a prediction block, and provides the predicted block to the second adder 111. For example, when performing weight prediction using two reference pictures as described above, the generated prediction macro block is W0Y0 + W1Y1 + D.

제2 가산기(111)는 입력된 현재 코딩 유닛 신호와 제1 가산기(109)로부터 제공된 예측 블록을 감산하여 잔여값을 산출한 후 변환부(113)에 제공한다.The second adder 111 subtracts the input current coding unit signal and the prediction block provided from the first adder 109, calculates a residual value, and provides the residual value to the transformer 113.

변환부(113)는 제2 가산기(111)로부터 제공된 잔여값을 DCT(Discrete Cosine Transform)변환하고, 양자화부(115)는 DCT 변환된 데이터를 양자화한 후, 양자화된 데이터를 엔트로피 부호화부(125) 및 역양자화부(117)에 제공한다. 여기서, 변환부(113)는 확장 마크로 블록 크기인 32×32 또는 64×64 픽셀 크기로 변환을 수행할 수 있다.The transform unit 113 performs a DCT (Discrete Cosine Transform) transform on the residual value provided from the second adder 111, and the quantization unit 115 quantizes the DCT transformed data and then quantizes the quantized data. The data is provided to the entropy encoder 125 and the inverse quantizer 117. In this case, the conversion unit 113 may perform conversion to a 32 × 32 or 64 × 64 pixel size that is an extended macroblock size.

역양자화부(117)는 양자화된 데이터를 역양자화하고, 역변환부(119)는 역양자화된 데이터를 역변환하여 버퍼(123)에 제공한다.The inverse quantization unit 117 inverse quantizes the quantized data, and the inverse transform unit 119 inversely transforms the inverse quantized data and provides the buffer 123.

제3 가산기(121)는 역변환부(119)로부터 제공된 역변환된 데이터인 잔여값과 제1 가산기(109)로부터 제공된 예측 블록을 가산한 후, 버퍼(123)에 제공한다. The third adder 121 adds the residual value, which is the inverse transformed data provided from the inverse transform unit 119, and the prediction block provided from the first adder 109, and then provides it to the buffer 123.

버퍼(123)는 복원된 복수의 픽처들이 저장될 수 있고, 상기 복원된 복수의 픽처들은 움직임 예측 및 가중치 파라미터 생성을 위한 참조 픽처로 사용될 수 있다.The buffer 123 may store a plurality of reconstructed pictures, and the plurality of reconstructed pictures may be used as reference pictures for motion prediction and weight parameter generation.

엔트로피 부호화부(125)는 양자화된 DCT 계수들과 움직임 벡터 및 가중치 파라미터 등의 헤더 정보를 엔트로피 부호화하여 비트 스트림을 생성한다.
The entropy encoder 125 generates a bit stream by entropy encoding the quantized DCT coefficients and header information such as a motion vector and a weight parameter.

도 3은 본 발명의 일 실시예에 따른 가중치 예측을 이용한 영상 부호화 방법을 나타내는 흐름도이다.3 is a flowchart illustrating an image encoding method using weight prediction, according to an embodiment of the present invention.

도 3을 참조하면, 먼저 부호화 장치에 코딩 유닛이 입력되면(단계 201), 입력된 현재 코딩 유닛과 복원이 완료되어 버퍼에 저장된 복수의 참조 픽처에 기초하여 화면간 예측을 수행하여 움직임 벡터(Motion Vector)를 생성하고, 생성된 움직임 벡터를 이용하여 움직임 보상을 수행함으로써 예측 신호를 생성한다(단계 203). 여기서, 상기 입력된 코딩 유닛은 16×16 픽셀 이하의 크기를 가질 수도 있고, 32×32 픽셀 이상의 크기를 가지는 확장 마크로 블록일 수도 있다. 또한, 복수의 참조 픽처가 움직임 예측에 사용되는 경우에는 이에 상응하는 개수의 움직임 벡터가 생성될 수 있다.Referring to FIG. 3, when a coding unit is input to an encoding apparatus (step 201), a motion vector may be performed by performing inter-prediction based on the input current coding unit and a plurality of reference pictures stored in a buffer after reconstruction is completed. Vector) and a prediction signal by generating motion compensation using the generated motion vector (step 203). Here, the input coding unit may have a size of 16 × 16 pixels or less, or may be an extended macro block having a size of 32 × 32 pixels or more. In addition, when a plurality of reference pictures are used for motion prediction, a corresponding number of motion vectors may be generated.

또한, 부호화 장치는 입력된 코딩 유닛과 참조 예측 유닛(또는 참조 마크로 블록)의 휘도 성분의 변화에 기초하여 가중치 계수 및 오프셋을 포함하는 가중치 파라미터를 생성한다(단계 205). In addition, the encoding apparatus generates a weight parameter including a weight coefficient and an offset based on the change in the luminance component of the input coding unit and the reference prediction unit (or reference macro block) (step 205).

이후, 부호화 장치는 단계 203에서 생성된 예측 신호와 단계 205에서 생성된 가중치 파라미터에 기초하여 예측 블록을 생성한다(단계 207). 여기서, 상기 예측 블록은 예측 신호에 가중치 계수를 곱하고 오프셋을 더함으로써 산출될 수 있다.Thereafter, the encoding apparatus generates a prediction block based on the prediction signal generated in step 203 and the weight parameter generated in step 205 (step 207). Here, the prediction block may be calculated by multiplying the prediction signal by a weighting factor and adding an offset.

상술한 바와 같이 예측 블록이 생성된 후, 부호화 장치는 입력된 코딩 유닛과 상기 예측 블록 사이의 차이를 구하여 잔여값(residue)을 생성한다(단계 209).After the prediction block is generated as described above, the encoding apparatus obtains a difference between the input coding unit and the prediction block and generates a residual (step 209).

이후, 부호화 장치는 생성된 잔여값은 변환 및 양자화한 후(단계 211), 양자화된 DCT 계수들과 움직임 벡터 및 가중치 파라미터 등의 헤더 정보들을 엔트로피 부호화하여 비트 스트림을 생성한다(단계 213).After that, the encoding apparatus transforms and quantizes the generated residual value (step 211), and entropy encodes header information such as quantized DCT coefficients, a motion vector, and a weight parameter to generate a bit stream (step 213).

도 2 및 도 3에 도시된 바와 같이 본 발명의 일 실시예에 따른 가중치 예측을 이용한 영상 부호화 장치 및 부호화 방법에서는 예측 유닛 단위(또는 마크로 브록 단위)로 가중치를 예측하여 영상을 부호화함으로써, 기존의 슬라이스 단위로 수행되는 가중치 예측 부호화 방법에 비해 부호화된 영상의 품질을 향상시킬 수 있다. 또한, 32×32 또는 64×64 픽셀 이상의 크기를 가지는 확장 마크로 블록 단위로 가중치 예측 부호화를 수행할 경우 고해상도를 가지는 영상의 부호화 효율이 향상될 수 있다.As shown in FIGS. 2 and 3, in the image encoding apparatus and the encoding method using the weight prediction according to an embodiment of the present invention, the image is encoded by predicting the weight in units of prediction units (or macroblocks). The quality of the encoded image may be improved as compared with the weighted prediction encoding method performed in slice units. In addition, when weighted prediction coding is performed in units of extended macroblocks having sizes of 32 × 32 or 64 × 64 pixels or more, encoding efficiency of an image having a high resolution may be improved.

도 4는 본 발명의 일 실시예에 따른 가중치 예측을 이용한 영상 복호화 장치의 구성을 나타내는 블록도로서, 도 2에 도시된 부호화 장치에서 부호화된 영상을 복호화하는 복호화 장치의 구성을 나타낸다.FIG. 4 is a block diagram illustrating a configuration of an image decoding apparatus using weight prediction according to an embodiment of the present invention, and illustrates a configuration of a decoding apparatus decoding a video encoded by the encoding apparatus illustrated in FIG. 2.

도 4를 참조하면, 본 발명의 일 실시예에 따른 복호화 장치(300)는 엔트로피 복호화부(301), 역양자화부(303), 역변환부(305), 움직임 보상부(307), 가중치 파라미터 제공부(309), 버퍼(311), 제2 곱셈기(313), 제4 가산기(315) 및 제5 가산기(317)를 포함할 수 있다.Referring to FIG. 4, the decoding apparatus 300 according to an embodiment of the present invention includes an entropy decoding unit 301, an inverse quantization unit 303, an inverse transform unit 305, a motion compensator 307, and a weight parameter set. A study 309, a buffer 311, a second multiplier 313, a fourth adder 315, and a fifth adder 317 may be included.

엔트로피 복호화부(301)는 부호화 장치로부터 제공된 비트 스트림을 엔트로피 복호화하여 현재 복원할 마크로 블록의 잔여값과 가중치 파라미터 및 움직임 벡터 등을 제공한다.The entropy decoding unit 301 entropy decodes the bit stream provided from the encoding apparatus and provides a residual value, a weight parameter, a motion vector, and the like, of a macro block to be currently reconstructed.

역양자화부(303)는 엔트로피 복호화부(301)로부터 제공된 잔여값을 역양자화하고, 역변환부(305)는 역양자화된 데이터를 역변환한다.The inverse quantization unit 303 inversely quantizes the residual value provided by the entropy decoding unit 301, and the inverse transformer 305 inversely transforms the inverse quantized data.

움직임 보상부(307)는 엔트로피 복호화부(301)로부터 제공된 움직임 벡터를 버퍼(311)에 저장된 참조 픽처의 참조 예측 유닛에 적용하여 움직임 보상이 수행된 예측 신호를 생성하고, 생성된 예측 신호를 제2 곱셈기(307)에 제공한다.The motion compensator 307 applies the motion vector provided from the entropy decoder 301 to the reference prediction unit of the reference picture stored in the buffer 311 to generate a prediction signal on which motion compensation is performed, and generates the generated prediction signal. 2 multiplier (307).

가중치 파라미터 제공부(309)는 엔트로피 복호화부(301)로부터 가중치 파라미터를 제공받고, 가중치 계수는 제2 곱셈기(313)에 제공하고, 오프셋은 제4 가산기(315)에 제공한다.The weight parameter provider 309 receives the weight parameter from the entropy decoder 301, provides the weight coefficient to the second multiplier 313, and provides the offset to the fourth adder 315.

버퍼(311)는 제5 가산기(317)로부터 제공된 복원된 영상이 제공된다. 버퍼(311)에 제공된 복원된 영상은 움직임 보상을 수행하기 위한 참조 픽처로 이용된다.The buffer 311 is provided with the restored image provided from the fifth adder 317. The reconstructed image provided to the buffer 311 is used as a reference picture for performing motion compensation.

제2 곱셈기(313)는 움직임 보상부(307)로부터 제공된 예측 신호와 가중치 파라미터 제공부(309)로부터 제공된 가중치 계수를 곱한 후 제4 가산기(315)에 제공하고, 제4 가산기(315)는 제2 곱셈기(313)로부터 제공된 신호와 가중치 파라미터 제공부(309)로부터 제공된 오프셋을 더한 후 예측 블록을 생성하여 제5 가산기(317)에 제공한다.The second multiplier 313 multiplies the prediction signal provided from the motion compensator 307 by the weight coefficient provided from the weight parameter providing unit 309 and provides the multiplier 315 to the fourth adder 315. The signal provided from the two multiplier 313 and the offset provided from the weight parameter providing unit 309 are added, and a prediction block is generated and provided to the fifth adder 317.

제5 가산기(317)는 역변환부(305)로부터 제공된 잔여값과 제4 가산기(315)로부터 제공된 예측 블록을 더하여 현재 블록을 복원한다.
The fifth adder 317 reconstructs the current block by adding the residual value provided from the inverse transformer 305 and the prediction block provided from the fourth adder 315.

도 5는 본 발명의 일 실시예에 따른 가중치 예측을 이용한 영상 복호화 방법을 나타내는 흐름도이다.5 is a flowchart illustrating an image decoding method using weight prediction according to an embodiment of the present invention.

도 5를 참조하면, 먼저 복호화 장치는 부호화 장치로부터 비트 스트림을 제공받고(단계 401), 제공받은 비트 스트림에 대해 엔트로피 복호화를 수행하여 양자화된 현재 복호화할 코딩 유닛에 대한 잔여값과, 가중치 파라미터 및 움직임 벡터 등을 추출한다(단계 403).Referring to FIG. 5, first, a decoding apparatus receives a bit stream from an encoding apparatus (step 401), performs entropy decoding on the provided bit stream, and a residual value, a weight parameter, and a quantized current decoding unit. A motion vector or the like is extracted (step 403).

이후, 복호화 장치는 엔트로피 복호화된 잔여값을 역양자화 및 역변환 하여 잔여값을 복원한다(단계 405).Thereafter, the decoding apparatus inversely quantizes and inversely transforms the entropy-decoded residual value to restore the residual value (step 405).

또한, 복호화 장치는 엔트로피 복호화된 움직임 벡터를 복원이 완료되어 버퍼에 저장된 참조 픽처의 참조 예측 유닛에 적용하여 움직임 보상을 수행함으로써 예측 신호를 생성한다(단계 407).In addition, the decoding apparatus generates a prediction signal by performing motion compensation by applying the entropy decoded motion vector to the reference prediction unit of the reference picture stored in the buffer after reconstruction is completed (step 407).

이후, 복호화 장치는 움직임 보상을 통해 생성된 예측 신호에 가중치 계수를 곱한 후 오프셋을 더하여 예측 블록을 생성하고(단계 409), 생성된 예측 블록과 단계 405에서 복원된 잔여값을 더하여 현재 블록을 복원한다(단계 411).Thereafter, the decoding apparatus multiplies the prediction signal generated through the motion compensation by a weighting factor, adds an offset to generate a prediction block (step 409), and adds the generated prediction block and the residual value reconstructed in step 405 to restore the current block. (Step 411).

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described with reference to the embodiments above, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the spirit and scope of the invention as set forth in the claims below. Could be.

100 : 부호화 장치 101 : 움직임 예측부
103 : 움직임 보상부 105 : 가중치 파라미터 생성부
107 : 제1 곱셈기 109 : 제1 가산기
111 : 제2 가산기 113 : 변환부
115 : 양자화부 117 : 역양자화부
119 : 역변환부 121 : 제3 가산기
123 : 버퍼 125 :엔트로피 부호화부
300 : 복호화 장치 301 : 엔트로피 복호화부
303 : 역양자화부 305 : 역변환부
307 : 움직임 보상부 309 : 가중치 파라미터 제공부
311 : 버퍼 313 : 제2 곱셈기
315 : 제4 가산기 317 : 제5 가산기
100: encoding apparatus 101: motion prediction unit
103: motion compensation unit 105: weight parameter generation unit
107: first multiplier 109: first adder
111: second adder 113: converter
115: quantization unit 117: inverse quantization unit
119: inverse transform unit 121: the third adder
123: buffer 125: entropy encoding unit
300: decoding apparatus 301: entropy decoding unit
303: inverse quantization unit 305: inverse transform unit
307: motion compensation unit 309: weight parameter providing unit
311: buffer 313: second multiplier
315: fourth adder 317: fifth adder

Claims (4)

영상의 부호화 방법에 있어서,
입력된 코딩 유닛에 대한 움직임 벡터를 생성하는 단계;
생성된 상기 움직임 벡터에 기초하여 움직임 보상을 수행하여 예측 신호를 생성하는 단계;
예측 유닛 단위로 가중치 파라미터를 생성하는 단계;
상기 예측 신호에 상기 가중치 파라미터를 적용하여 예측 블록을 생성하는 단계; 및
상기 수신된 코딩 유닛 및 상기 예측 블록에 기초하여 잔여값을 생성하는 단계를 포함하는 가중치 예측을 이용한 영상 부호화 방법.
In the video encoding method,
Generating a motion vector for the input coding unit;
Generating a prediction signal by performing motion compensation based on the generated motion vector;
Generating a weight parameter in units of prediction units;
Generating a prediction block by applying the weight parameter to the prediction signal; And
And generating a residual value based on the received coding unit and the prediction block.
제1항에 있어서, 상기 코딩 유닛은 32×32 픽셀 이상의 크기를 가지는 확장 마크로 블록을 포함하는 것을 특징으로 하는 가중치 예측을 이용한 영상 부호화 방법.The method of claim 1, wherein the coding unit includes an extended macro block having a size of 32 × 32 pixels or more. 영상의 복호화 방법에 있어서,
수신된 비트 스트림을 엔트로피 부호화하여 양자화된 잔여값, 움직임 벡터, 가중치 파라미터를 추출하는 단계;
상기 양자화된 잔여값을 역양자화 및 역변환하여 잔여값을 복원하는 단계;
상기 움직임 벡터를 이용하여 움직임 보상을 수행하여 예측 신호를 생성하는 단계;
상기 예측 신호에 상기 가중치 파라미터를 적용하여 예측 블록을 생성하는 단계; 및
상기 잔여값 및 상기 예측 블록에 기초하여 현재 블록을 복원하는 단계를 포함하는 가중치 예측을 이용한 영상의 복호화 방법.
In the video decoding method,
Entropy encoding the received bit stream to extract quantized residuals, motion vectors, and weight parameters;
Inverse quantizing and inversely transforming the quantized residual to restore the residual;
Generating a prediction signal by performing motion compensation using the motion vector;
Generating a prediction block by applying the weight parameter to the prediction signal; And
And reconstructing the current block based on the residual value and the prediction block.
제3항에 있어서, 상기 예측 블록은 32×32 픽셀 이상의 크기를 가지는 확장 마크로 블록을 포함하는 것을 특징으로 하는 가중치 예측을 이용한 영상 복호화 방법.
The method of claim 3, wherein the prediction block includes an extended macro block having a size of 32 × 32 pixels or more.
KR1020110010781A 2010-02-02 2011-02-07 Apparatus and method for encoding/decoding of video using weighted prediction KR20110090841A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20100009358 2010-02-02
KR1020100009358 2010-02-02

Publications (1)

Publication Number Publication Date
KR20110090841A true KR20110090841A (en) 2011-08-10

Family

ID=44928497

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110010781A KR20110090841A (en) 2010-02-02 2011-02-07 Apparatus and method for encoding/decoding of video using weighted prediction

Country Status (1)

Country Link
KR (1) KR20110090841A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013032073A1 (en) * 2011-08-29 2013-03-07 주식회사 아이벡스피티홀딩스 Method for generating prediction block in amvp mode
WO2013062175A1 (en) * 2011-10-24 2013-05-02 한국항공대학교산학협력단 Method and device for the scalable coding of an enhancement layer
WO2013067917A1 (en) * 2011-11-07 2013-05-16 LI, Yingjin Method of decoding video data
WO2013070028A1 (en) * 2011-11-11 2013-05-16 엘지전자 주식회사 Method and device for transmitting image information, and decoding method and device using same
KR101484057B1 (en) * 2011-11-07 2015-01-20 제닙 피티이.엘티디. Image decoding apparatus
US12022103B2 (en) 2011-08-29 2024-06-25 Ibex Pt Holdings Co., Ltd. Method for generating prediction block in AMVP mode

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10148976B2 (en) 2011-08-29 2018-12-04 Ibex Pt Holdings Co., Ltd. Method for generating prediction block in AMVP mode
US9948945B2 (en) 2011-08-29 2018-04-17 Ibex Pt Holdings Co., Ltd. Method for generating prediction block in AMVP mode
US11689734B2 (en) 2011-08-29 2023-06-27 Ibex Pt Holdings Co., Ltd. Method for generating prediction block in AMVP mode
US10123033B2 (en) 2011-08-29 2018-11-06 Ibex Pt Holdings Co., Ltd. Method for generating prediction block in AMVP mode
US11350121B2 (en) 2011-08-29 2022-05-31 Ibex Pt Holdings Co., Ltd. Method for generating prediction block in AMVP mode
US11778225B2 (en) 2011-08-29 2023-10-03 Ibex Pt Holdings Co., Ltd. Method for generating prediction block in AMVP mode
US9800887B2 (en) 2011-08-29 2017-10-24 Ibex Pt Holdings Co., Ltd. Method for generating prediction block in AMVP mode
WO2013032073A1 (en) * 2011-08-29 2013-03-07 주식회사 아이벡스피티홀딩스 Method for generating prediction block in amvp mode
US10123032B2 (en) 2011-08-29 2018-11-06 Ibex Pt Holdings Co., Ltd. Method for generating prediction block in AMVP mode
US10123034B2 (en) 2011-08-29 2018-11-06 Ibex Pt Holdings Co., Ltd. Method for generating prediction block in AMVP mode
US12022103B2 (en) 2011-08-29 2024-06-25 Ibex Pt Holdings Co., Ltd. Method for generating prediction block in AMVP mode
US10798401B2 (en) 2011-08-29 2020-10-06 Ibex Pt Holdings Co., Ltd. Method for generating prediction block in AMVP mode
US10123035B2 (en) 2011-08-29 2018-11-06 Ibex Pt Holdings Co., Ltd. Method for generating prediction block in AMVP mode
WO2013062175A1 (en) * 2011-10-24 2013-05-02 한국항공대학교산학협력단 Method and device for the scalable coding of an enhancement layer
US9532049B2 (en) 2011-11-07 2016-12-27 Infobridge Pte. Ltd. Method of decoding video data
US10182239B2 (en) 2011-11-07 2019-01-15 Infobridge Pte. Ltd. Apparatus for decoding video data
US11997307B2 (en) 2011-11-07 2024-05-28 Gensquare Llc Apparatus for decoding video data
US11089322B2 (en) 2011-11-07 2021-08-10 Infobridge Pte. Ltd. Apparatus for decoding video data
KR101484057B1 (en) * 2011-11-07 2015-01-20 제닙 피티이.엘티디. Image decoding apparatus
WO2013067917A1 (en) * 2011-11-07 2013-05-16 LI, Yingjin Method of decoding video data
US11812056B2 (en) 2011-11-11 2023-11-07 Lg Electronics Inc. Method and device for transmitting image information, and decoding method and device using same
US11025954B2 (en) 2011-11-11 2021-06-01 Lg Electronics Inc. Method and device for transmitting image information, and decoding method and device using same
US10440389B2 (en) 2011-11-11 2019-10-08 Lg Electronics Inc. Method and device for transmitting image information, and decoding method and device using same
WO2013070028A1 (en) * 2011-11-11 2013-05-16 엘지전자 주식회사 Method and device for transmitting image information, and decoding method and device using same

Similar Documents

Publication Publication Date Title
KR102032268B1 (en) Method for predicting motion vectors in a video codec that allows multiple referencing, motion vector encoding/decoding apparatus using the same
US11889052B2 (en) Method for encoding video information and method for decoding video information, and apparatus using same
KR101830352B1 (en) Method and Apparatus Video Encoding and Decoding using Skip Mode
US8792740B2 (en) Image encoding/decoding method for rate-distortion optimization and apparatus for performing same
KR101298598B1 (en) Method for encoding/decoding video for rate-distortion optimization and apparatus for performing the same
KR20130085838A (en) Video coding method and apparatus using weighted prediction
KR20090099234A (en) Method and apparatus for video encoding and decoding
KR20090095012A (en) Method and apparatus for encoding and decoding image using consecutive motion estimation
KR20080069069A (en) Method and apparatus for intra/inter prediction
KR102555224B1 (en) Apparatus and method for encoding and decoding to image of ultra high definition resoutltion
EP2252059B1 (en) Image encoding and decoding method and device
JP2023168518A (en) Prediction block generation device, image encoder, image decoder, and program
KR20110090841A (en) Apparatus and method for encoding/decoding of video using weighted prediction
KR20170114598A (en) Video coding and decoding methods using adaptive cross component prediction and apparatus
JP6528635B2 (en) Moving picture coding apparatus, moving picture coding method, and computer program for moving picture coding
KR101377529B1 (en) Video Coding and Decoding Method and Apparatus Using Adaptive Motion Vector Coding/Encoding
JP4768779B2 (en) Video encoding / decoding method and apparatus
KR20130023444A (en) Apparatus and method for video encoding/decoding using multi-step inter prediction
JP2007266861A (en) Image encoding device
KR20120086131A (en) Methods for predicting motion vector and methods for decording motion vector
KR20110067648A (en) Method for encoding/decoding image and apparatus for performing the same
KR20190052022A (en) A method for intra-based local inter-layer prediction
KR20080084589A (en) Method and apparatus for encoding and decoding image in pixel domain
KR20180018903A (en) Reference frame selection method and apparatus
KR20130055314A (en) Apparatuses and methods for encoding/decoding of video using block merging

Legal Events

Date Code Title Description
N231 Notification of change of applicant
WITN Withdrawal due to no request for examination